科幻小说《2001:太空奥德赛》和根据它改编而成的经典电影《2001太空漫游》,讲述了AI由人类帮手变为人类毁灭者的故事。我们亲手打造的AI,会在未来葬送人类吗?霍金表示,这绝非危言耸听。
▲图片来自:视频截图
近日,在剑桥大学Leverhulme智能未来中心的开幕式上,霍金为火爆的AI行业泼了盆冷水。
“我们花了大量时间学习历史,”霍金在演讲中说道,“而我们所面对的历史,大多是愚蠢的。所以,现在人们在研究智能的未来,这是一个令人欣慰的变化。”
霍金表示AI研究的确带来了许多积极因素,认为通过这项新技术,人类或许能够消除工业化对自然界造成的一些损害,而最终目标肯定是消除疾病和贫困。
“创造出智慧的潜在好处是巨大的,我们无法预测当我们的心智被AI增强时,我们将达到何种成就。”
“我们生活的方方面面都会被改变,总之,成功创造出AI可能是我们文明史上最重要的事。”
▲图片来自:Kiplinger
然而,作为享誉世界的物理学家,霍金对于AI持谨慎态度,他认为一旦人类创造出具有自我意识的超级智慧,可能会面临着自我毁灭的风险,因为AI的意志可能会与我们产生冲突。
“总之,强大的AI的兴起,或许将是人类最好或是最糟糕的事,这我们还不清楚。”
霍金之所以会有这种担忧,是因为在他看来,AI的潜力是无限的,“生物大脑与电脑的能力并没有太区别。”
“因此,从理论上讲,计算机可以模仿人类智慧,并超越它。”
这已经不是霍金第一次对AI潜在威胁提出警告了。去年年初,霍金就与一些AI专家,还有马斯克、沃茨等名人发表联合声明,呼吁禁止武器化AI和自主作战系统。
▲图片来自:Gralien Report
当时霍金解释说,AI的真正风险不在于其是否充满恶意而在于其能力。他举了个例子:你在负责一项水利工程时,需要淹没蚁穴,尽管你并不是一个仇恨蚂蚁的人,但在完成目标时无意间就为蚂蚁带来了灭顶之灾。
所以,当一个能力MAX的超级人工智能在执行任务时,如果它的目标与人类不一致,那么人类就有可能面临与蚂蚁同样的厄运。
尽管目前人工智能的发展仍处于起步阶段,但霍金对于AI威胁的评价,或许值得我们深思:
“人工智能的短期影响取决于谁控制了它,而长期影响则取决于它到底能不能被控制。”
本文来源:不详 作者:佚名