编辑:阿耶莎
霍金曾说,“在我的一生中,我见证了社会深刻的变化。其中最深刻的,同时也是对人类影响与日俱增的变化,是人工智能的崛起。”
他说,人工智能的崛起,要么是人类历史上最好的事,要么是人类文明的终结。
霍金认同:人脑与电脑没区别
霍金认为,生物大脑可以达到的和计算机可以达到的,没有本质区别。AI遵循了“计算机在理论上可以模仿人类智能,然后超越”这一原则。
霍金说,近来人工智能的发展,比如电脑在国际象棋和围棋的比赛中战胜人脑,都显示出人脑和电脑并没有本质差别。
霍金担心:失控
一方面,霍金担心一些人利用人工智能做坏事,比如最大化使用智能性自主武器,它将助长战争和恐怖主义,加剧世界动荡局势。
另一方面,霍金最担心还是人工智能系统失控爆发的潜在风险,人工智能一旦脱离束缚,以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。到那时,人工智能可能是人类文明史的终结。
霍金建议:跨学科
霍金在演讲中说到,人工智能的崛起,是好是坏目前仍不确定。霍金认为,人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。
但是霍金呼吁,人工智能的研究与开发正在迅速推进,但所有人都应该暂停片刻,把我们的研究从提升人工智能能力转移到最大化人工智能的社会效益上面。
霍金同时提出,跨学科研究是人工智能一种可能的前进道路:从经济、法律、哲学延伸至计算机安全、形式化方法,当然还有人工智能本身的各个分支。
霍金生命最后几年中
关于人工智能的大事记
2014年的霍金:人工智能或是人类历史上最后事件
2014年5月,在观看了德普主演的新片《超验骇客》后,霍金在为《独立》杂志撰写的一篇文章中明确地表达了他对这个问题的担忧。
霍金担忧的对象不仅仅是未来的人工智能技术,甚至还包括现在的一些公司比如谷歌和Facebook。他说:“人工智能的短期影响取决于由谁来控制它,而长期影响则取决于它是否能够被控制。”
霍金承认,机器人和其他的人工智能设备也许会给人类带来巨大的好处。如果那些设备的设计非常成功,就能给人类带来巨大的好处,他说那将是人类历史上最大的事件。然而他同时也提醒说,人工智能也有可能是人类历史上最后的事件。
他说:“人工智能技术发展到极致程度时,我们将面临着人类历史上的最好或者最坏的事情。”
霍金以前就曾试图提醒人们注意一点,即科幻的魅力会蒙蔽我们的双眼。它有时会掩盖住一个重要的问题,即最终的结果有可能引发一场浩劫。
当年的6月16日晚,霍金出席了美国HBO频道的“Last Week Tonight”节目,并与主持人约翰·奥利弗(John Oliver)展开了“深刻而有意义的对话”。
当晚,霍金非常肯定地对主持人说:“人工智能在并不遥远的未来可能会成为一个真正的危险。”
到了2014年12月的时候,霍金在接受英国广播公司(BBC)的采访时说,“制造能够思考的机器无疑是对人类自身存在的巨大威胁。当人工智能发展完全,就将是人类的末日。”
这让霍金再次登上英国各大媒体头条,激起人们对人工智能黑暗的、反面乌托邦式的假想。
从上世纪60年代末的科幻电影《2001:太空漫游》,一个名叫哈尔9000(HAL 9000)的智能机器人发生错乱,在前往木星的太空船上对人类发起攻击;《我,机器人》中,一个多才多艺的人形机器似乎有了心灵;直到《终结者》系列,未来世界由机器人统治人类,反抗机器人统治的人类领袖被未来机器人追杀。
2015年的霍金:号召禁止人工智能武器
在这一年,霍金、特斯拉CEO埃隆·马斯克和苹果联合创始人史蒂夫·沃兹尼亚克等上百位专业人士联名上书,号召禁止人工智能武器。
公开信称,如果任何军事力量推动人工智能武器的开发,那么全球性的军备竞赛将不可避免。人工智能武器不像核能一样——需要高昂的成本和难以获得的原材料,一旦开发人工智能很容易在各军事力量中普及。
公开信说,人工智能武器的禁令必须尽快颁布,以避免军备竞赛,这更甚于“控制人口数量的意义”。
2016年的霍金:人工智能崛起中产阶级或大量失业
2016年6月,霍金在接受美国知名记者拉里·金采访时说,人工智能应该在符合伦理道德和安全措施要求的情况下开发,因为脱离人类控制之下的机器很难被阻止住。
他认为,有益的人工智能将出现在人类生活的各方面。“想象一下那些可以对科学家想法迅速作出评价、更早地查出癌症、并预测证券市场走势的人工智能!它们将影响到我们的经济,影响到我们的决策,并在整体上影响我们的生活。”
2016年10月,霍金在在英国剑桥建立了跨学科研究所“利弗休姆智能未来中心(LCFI)”,试图解决一些在人工智能研究快速发展中出现的尚无定论的问题。“利弗休姆智能未来中心”致力于研究智能的未来,花费大量时间学习历史,深入去看。LCFI的一项重要使命是要化解AI风险,破解AI难题。
在当天的演讲中,霍金说:“对于人类来说,强大AI的出现可能是最美妙的事,也可能是最糟糕的事,我们真的不知道结局会怎样。”
霍金在演讲中批评了人工智能的无节制发展,他认为,人工智能技术的确有希望带来巨大的福利,比如根除疾病和贫困,但是它同样也可能带来危险,比如强大的自主式武器,或者帮助少数人压迫多数人。
“我们生活的每一个方面都会改变。总之,创造AI的成功可能是我们文明历史上最大的事件。”霍金说。
这年的12月,在英国《卫报》的一篇专栏中,霍金表示:“工厂的自动化已经让许多传统制造业工人失业了,而人工智能的崛起会将失业范围扩大到社会上的中产阶级。未来,留给人类的只有护理、创新和监督等少数岗位了。”
如果这一趋势继续下去,会有什么后果吗?霍金认为机器人抢走人类工作后会造成社会更大的不公,自动化将“加速扩大全球范围内已经日益严重的经济不平等,互联网和各种平台让一小部分人通过极少的人力获取巨大的利润。这是不可避免的,这是一种进步,但也会对社会造成巨大破坏并最终“撕裂”整个社会”。
此外,互联网让穷人也见识到了上流社会的生活方式,一旦他们与其自身情况作对比,就会让无尽的怒气在整个社会生根发芽。
2017年的霍金:最后的警告
2017年3月,霍金在接受英国《泰晤士报》采访时再次发出警告,“人工智能进一步发展便可能会通过核战争或生物战争摧毁人类。人类需要利用逻辑和理性去控制未来可能出现的威胁”。
4月,2017全球移动互联网大会(GMIC)在北京召开,霍金为这次大会发来了一个视频,进行了题为《让人工智能造福人类及其赖以生存的家园》的主题演讲,在这次主题演讲中,霍金再次提及了人工智能的问题,他认为人工智能的崛起很有可能导致人类文明最终走向终结。
在11月份举办的第五届腾讯WE大会上,霍金以远程视频的形式亮相WE大会,并谈论了对人工智能的一些看法。
在视频中霍金认为,人类很有可能会造出超级人工智能,这些人工智能程序能够全面超越人类,并有可能完全取代人类成为一种新的生命物种。霍金表示,“我担心人工智能将全面取代人类。如果有人能设计出计算机病毒,那么就会有人设计出能提升并复制自己的人工智能。这就会带来一种能够超越人类的全新生命形式。”
2017年12月13日,在长城会举办的“天工开悟,智行未来”活动中,霍金表示,现在还不能确定,人工智能的崛起对人类来说是好是坏,但可以确定的是,人类要竭尽全力,来保证人工智能的发展对于人类及环境有利。这可以说是霍金在公开报道中最后一条关于人工智能的看法了,也可以说是最后的警告。
最后,霍金对全世界的人是说,“我们站在一个美丽新世界的入口。这是一个令人兴奋的、同时充满了不确定性的世界,而你们是先行者。我祝福你们。”
人工智能是成就人类,还是毁灭人类,等待着人类继续书写。
霍金留下这千年预言,在另外一个宇宙时空坐观。
E N D
相关文章:
京雄AI前沿
人工智能新视野