学界关于“超级AI”的论争及其实现的可能路径

被引:9
作者
王彦雨
机构
[1] 中国科学院自然科学史研究所
关键词
超级AI; AI风险; 递归性自我改良; 存在性风险,动车困境;
D O I
暂无
中图分类号
TP18 [人工智能理论];
学科分类号
081104 ; 0812 ; 0835 ; 1405 ;
摘要
霍金关于人工智能取代人类的观点,引发了人们关于"超级AI(超级人工智能)"的广泛争论,那么"超级AI"是否会实现、其潜在的实现路径包括哪些?针对这些问题,该文在分析历史上关于超级AI的争论的基础上,总结了学界等关于"超级AI"如何实现的各种路径。认为当前我们不应过度夸大AI的能力,但要敬畏AI的未来发展潜力,因为无论是从技术态层面还是社会态层面上讲,AI的未来发展陷入"动车困境",超级AI并非完全是一种科学幻想。
引用
收藏
页码:22 / 31
页数:10
相关论文
共 9 条
[2]   人工智能、哲学与逻辑 [J].
熊立文 .
中山大学学报(社会科学版), 2003, (S1) :226-230
[3]   对人工智能的道德忧思 [J].
史南飞 .
求索, 2000, (06) :67-70
[4]   “脑的设计”·“机器思维”·“人工主体”——人工智能提出的哲学问题 [J].
童天湘 .
编创之友 , 1981, (04) :26-32
[5]  
与机器人共舞[M]. 浙江人民出版社 , 马尔科夫, 2015
[6]  
信息技术[M]. 广东人民出版社 , 刘益东著, 2000
[7]  
心、脑与科学[M]. 上海译文出版社 , [美]约翰·塞尔, 1991
[8]  
How long until human-level AI? Results from an expert assessment[J] . Seth D. Baum,Ben Goertzel,Ted G. Goertzel. Technological Forecasting & Social Change . 2010 (1)
[9]  
Will AI Surpass Human Intelligence?Interview with Prof.Jürgen Schmidhuber on Deep Learning .2 Han Xu. https://www.infoq.com/articles/interviewschmidhuber-deep-learning . 2016