许多杰出的AI专家已经意识到AI对人类存续的风险的可能性。不同于媒体报道中的误导说法,这种风险不必由AI自发的恶意引起。相反,风险来自AI部署和优化过程中的不可预测性和潜在的不可逆性,使得该AI比优化它的人更智能。早在1960年Norbert Wiener就已清楚地提出了这个问题,但我们直到今天仍没能解决它。我们希望读者诸君支持正在进行的研究工作。
2016年11月2日Oren Etzioni对此文的回复:
我很高兴,Dafoe和Russell教授和我似乎在三个关键问题上达成了一致:第一,我们应该避免人身攻击。在这里,请允许我道歉:我不应该引用不具名的AAAI研究员,他们中可能从Bostrom博士到唐纳德·特朗普都有。我并不是故意要支持那样的比较;我已经通过电子邮件为这次失误向Bostrom真诚道歉,他也很有风度地接受了我的道歉。第二,作为科学家,评估有关AI的风险时,我们应该以数据为基础。这也是我那篇短文的主要观点,并且文章提供了有关这个问题的数据。第三,我们都认为媒体歪曲了Bostrom著作的原意——这个被广泛关注的话题,某种程度上在白宫有关人工智能的报告中被轻视了。当然,我们在许多细节和错综复杂的论据上有许多不同观点,但时间会告诉我们答案。
本文来源:不详 作者:佚名