天下网吧 >> 网吧系统 >> 系统动态 >> 正文

AlphaGo输了,但它已证明自己比人类冠军高明

2016-3-14不详佚名
读博士的时候遇到了DeepMind的联合创始人之一Shane Legg,另一位Muatafa Suleyman则是他的发小。他讲述了一段令人愉快的经历:他在剑桥大学时与本科同学Dave Silver成了朋友,随后在空闲时间教他如何下棋盘游戏,包括某种古老的中国游戏。二十年后,我注意到,David Silver是DeepMind里围棋项目的主要程序员,而且也是最近这篇《自然》论文的第一作者。“是的,Dave和我认识很久了,”Hassabis笑着说,“我们曾经梦想在未来做这件事情,所以19岁的我们可能对于现在取得的这个成就感到非常欣慰。”

他沉思了一下,补充道:“虽然如此,但我真的没有多少日常生活。在所有醒着的时刻,我都在思考这些东西,也许在我梦里也是这样。因为它是如此让人兴奋,如此重要,也是我最有热情的事情。”

他的眼里有一种神采,我只能用熠熠生辉来描述,就像孩子一样天真无辜。“我觉得太幸运了。我想不出比我正在研究的更有趣的问题了,而且我也可以每天都思考这些问题。每时每刻,我都在致力于做那些我抱有信心的事。否则的话,生命如此短暂,为何还要做这些(不抱信心的)事呢?”

如果史蒂芬霍金、比尔盖茨、Elon Musk、Jaan Tllinn、Nick Bostrom和其他一些伟大科学家对于AI的恐惧成真了,那么我们的生命可能会比我们预期的要短很多。对AI的顾虑从未经审查的人工通用智能武装、到挥散不去的“技术奇点”的阴影,最终是让机器有能力迭代地自我完善的“智能爆炸”,这会让机器的智能超越人脑的智能,接着,就是超越人类的控制。如果超级智能之灾即将来临,那么过去的历史是无法可靠地指示我们预见到这一点、在一切无法挽回前退出AI军备竞赛的。“当你看到某样东西在技术上很诱人时,”Robert Oppenheimer曾经观察到,这非常著名,“你会上前研究它;而只有在你取得了技术成果以后,你才会回过头来讨论应该用它来做什么。”“如果有办法能确保超级智能永远不会伤害人类,”Bostrom在几十年后说道,“那么这样的智能将会被创造出来。如果没有这样的保证,可能无论如何它们也会被创造出来。”“成功创造AI,”霍金在最近简练地总结道,将是“人类历史上最大的事件。但不幸的是,它可能也是最后一个事件。”

“好吧,我希望不会这样,”Hassabis面不改色地说。在他看来,公众对人工通用智能危言耸听的态度,模糊了它近期巨大的潜力和价值,而且在根本上就错位了,尤其是在时间上。“我们距离任何类似人类水平的通用智能的东西都还有几十年的时间,”他提醒我,“我们还踩在梯子的第一条横杠上。我们都不过是在玩游戏。”他也认同,有一些“我们应该现在就考虑起来的法律风险”,但是他坚定地认为,这些要考虑的风险不是科幻小说中超级智能机器把它们的人类创造者无情消灭的反乌托邦场景。

此外,他强调,谈到减少人工通用智能的潜在危险时,这个领域的领导者是DeepMind。虽然,很明显,这家公司不像政府领导的阿波罗计划和曼哈顿计划那样需要接受官方审查,但它的运作也相当透明。它倾向于发布自己的代码,而它接受谷歌收购时的协议也包含了禁止将它的技术应用于军备或是智能应用的条款。Hassabis和他的同事们在召开2015年波多黎各人工智能大会方面起到了重要的作用,并且签署了公开信宣誓为“良好的目的”而使用技术,同时“避免潜在的陷阱”。最近他们帮助协办了另一场在纽约的会议,会议期间他们组建了被大肆报道的内部伦理委员会和咨询委员会(虽然是私下组建的)。“Hassabis对人工智能的安全性争议了解得非常透彻,”Murray Shanahan说,“他当然不是幼稚的人,也不会把头埋在沙子里当鸵鸟。”

“在鼓励围绕这些问题展开对话沟通这一方面,DeepMind一直是行业中的佼佼者,”Bostrom对此表示赞同,“并且在致力于进行一些未来可能需要用于解决这些挑战的研究方面也是如此。”

我让Hassabis列出他认为的未来主要的长期挑战。“随着这些系统变得越来越复杂,我们需要开始思考它们能怎样做出优化、能对什么做出优化,”他回答道,“技术本身是中性的,但它是一个学习系统,所以,不可避免地,它们会带有一些设计者的价值体系和文化背景的印记,所以我们对于价值观的思考必须非常谨慎小心。”

关于超级智能问题,他说:“我们需要确保设定的目标是正确指明的,并且其中没有任何模棱两可的东西,随着时间推移也依旧稳定。但在我们所有的系统中,最高级的目标仍然要由它的设计者们指定。系统可能会得出自己的方法来实现这个目标,但是它自己是不会创造一个自己的目标的。”

他用毫无动摇的语调宽慰我。“看,这些都是既有趣又困难的挑战。随着配备上所有新颖强大的技术,人工智能需要被负责地、符合伦理地使用,而这就是为什么我们现在正积极地呼吁对这个问题展开辩论和研究,那么当时候到来时,我们才会准备充足。”

什么的时候到来?机器变得超级智能的时候,还是它们超越人类的时候?他笑了起来,“不,不,不,我指的是还要在那些之前!”(我觉得他是在开玩笑,尽管在2011年,他的同事Shane Legg的确说过:“我认为人类灭绝这件事可能会发生,而技术有可能在其中发挥不小的作用。”)Hassabis澄清道:“我的意思是,当这些系统强大到不只是会玩游戏时,我们放任它们处理更现实、更重要的事,比如医疗。然后我们需要确保我们知道它们将会有怎样的能力。”他对我露齿一笑:“那将会阻止机器掌管世界的情景成真。”

Hassabis经常微笑。他待人友好,言辞让人信服。他所说的一切似乎都很有道理,并不自以为是,而且谁知道呢:说不定人工通用智能将一直处于在我们的控制之下。但是许多人仍持怀疑的态度。“显然,如果存在一个任何方面都大大超过人类的数字智能,‘助手’这个词就不是一个正确的描述了。”Elon Musk反对道,他最近将AI技术的进步描绘成人类“正在召唤一个恶魔”。这位SpaceX的创始人、Tesla和PayPal的联合创始人,曾经是DeepMind最早的投资者之一,但他投资DeepMind不是为了获得金钱上的回报。“我的投资并不是为了投资所带来的经济利益,”他在加利福尼亚州的办公室中这样对我说,“我投资DeepMind的原因仅仅是因为想对AI的进展与威胁有更好的理解。如果我们对AI不够小心,让一些不好的事情发生了,到那时银行存款将变得毫无意义。”

“Elon是这个行业里最聪明的人之一,并且有着惊人的沟通能力,”Hassabis态度中立地回应道,“而且我真的认为,像他这样的人正在如此关注AI,是一件很酷的事情,因为这恰恰显示了AI是一件大事。”他保持着外交辞令般的回应,但是来自其他领域的科学家放肆地公开对AI下断言这样的事确实激怒了他:毕竟,你没有听到过他对粒子物理学指手画脚。

“总体来说,我发现了那些不真正在AI领域工作的人对于AI的理解都是不完全的。他们通常都没有与许多AI专家交谈过,所以他们脑袋里的思想实验总是把他们带偏,因为这些想法都是基于一些我认为即将被证明是错误的假设。”他又再一次提到,他组织的内部伦理委员会和咨询委员会——其中都是来自各个科学和哲学领域的顶尖学者——将会管理未来任何的人工通用智能技术的应用。他毫不动摇地坚持现阶段不公开进程的决定。“之前没有任何人尝试做过类似的东西,所以在我们对于公众揣测我们在Twitter或者其他什么东西上做了什么能有额外的审查之前,我们还有许多事情需要探索,从第一天就要开始。”这个初始阶段,他说,是关于“给每个人提供最新的消息,这样下一阶段我们才能准备好讨论

本文来源:不详 作者:佚名

声明
声明:本站所发表的文章、评论及图片仅代表作者本人观点,与本站立场无关。若文章侵犯了您的相关权益,请及时与我们联系,我们会及时处理,感谢您对本站的支持!联系Email:support@txwb.com,系统开号,技术支持,服务联系QQ:1175525021本站所有有注明来源为天下网吧或天下网吧论坛的原创作品,各位转载时请注明来源链接!
天下网吧·网吧天下