跳至內容

通用人工智能的生存風險

維基百科,自由的百科全書

通用人工智能的生存風險是假設通用人工智能的重大進展可能導致人類滅絕或其他一些無法逆轉的全球災難。[1][2][3]

生存風險(「x-risk」)學派的論點如下:人類物種目前支配着其他物種,因為人類大腦具有其他動物所缺乏的一些獨特能力。如果人工智能在一般智力上超越人類,成為「超智能」,那麼人類將難以或無法控制。正如山地大猩猩的命運取決於人類的善意,人類的命運也可能取決於未來機器超級智能的行為。[4]

參見

[編輯]


參考資料

[編輯]
  1. ^ Russell, Stuart; Norvig, Peter. 26.3: The Ethics and Risks of Developing Artificial Intelligence. Artificial Intelligence: A Modern Approach. Prentice Hall. 2009. ISBN 978-0-13-604259-4. 
  2. ^ Bostrom, Nick. Existential risks. Journal of Evolution and Technology. 2002, 9 (1): 1–31. 
  3. ^ Turchin, Alexey; Denkenberger, David. Classification of global catastrophic risks connected with artificial intelligence. AI & Society. 2018-05-03, 35 (1): 147–163. ISSN 0951-5666. S2CID 19208453. doi:10.1007/s00146-018-0845-5. 
  4. ^ Bostrom, Nick. Superintelligence: Paths, Dangers, Strategies First. 2014. ISBN 978-0199678112.