1950年,阿兰图灵的一篇里程碑式的论文《机器能思考吗?》为人类带来了一个新学科—人工智能。为了证明机器是否能够思考,他又发明了“图灵测试”(Turing Test),图灵测试在今天仍被沿用。
然而,目前为止人类唯一了解的智能是人本身的智能,如果让机器也具有意识、思维、情感,这究竟是否可以做到,或者说真的达到这个目标后,会给人类带来什么影响,依然是未知数。但,这并不妨碍科学家朝着人工智能的目标前进。
近几年,科学界和产业界对它的兴趣超越了以往。最近一年半来,谷歌收购了十几家机器人公司,并正在开发人工智能的一个图腾——无人驾驶汽车;去年,社交媒体脸谱成立了新的人工智能实验室……数据显示,2009年以来,人工智能吸引了超过170亿美元的投资,仅去年就有20多亿美元投向拥有类人工智能技术的322家公司。
在并行计算、数字化神经网络、云技术、大数据以及深度学习算法等技术的推动下,人工智能的形态正逐渐显现:它既不是拥有与人类相似意识的机器人,也不是奇点论(人工智能与人脑智慧兼容的时刻)者宣称的超智能,而是应用在狭窄的专业领域,如医学、教育、法律、太空等高度专一的“行家”。
随着人工智能的发展,人类终有一天将被其取代的恐慌感也应运而生。美国奇点大学人工智能项目负责人尼尔·杰卡布斯坦早就说过:“要应对即将到来的人工智能革命,我们需要在数学素养、生态素养尤其是道德素养上不断自我提升。”
科学的发展总是出乎我们的预料。在一项技术推广前,审慎的评估和良好的风险控制是必要的,克隆技术、大数据、基因测序无不如此。杰卡布斯坦认为,假设人类成功构建了超级计算机,而它想的跟我们不一样,我们就得加以控制,就像对待孩子一样。
走在前沿的人和公司,已经采取了一些行动阻止可能出现的混乱。谷歌在年初收购了以神经系统科学为基础的人工智能公司迪普曼德,随后即成立了“人工智能安全伦理委员会”,以确保技术安全发展。
我们有充分理由乐观看待人工智能研究。为了遥远未来可能发生的危险而遏制技术的发展是愚蠢的。但在过去60年中,随着人工智能每一次成功地“复制”只有人类才有的行为和能力,人类便不得不对人工智能进行重新定义,也不得不重新定义“人类”的含义。人工智能——这个除了人以外最像人的东西,其实是我们心理投射中一个再好不过的客体。
如今,人工智能对社会的影响正逐渐增大。未来随着人工智能技术的发展,根除疾病和贫困将不再是遥不可及的梦想。有人说,人工智能可能“比核武器更加危险”。但核武器被开发近70年来,世界非但没有毁灭,反而进入一个微妙的较和平时期。核能的和平利用,也在为人类的现代生活作出贡献。
在人工智能高度发展的未来,人类或许将面对一场“身份危机”:人类到底是伟大还是渺小,自我存在的意义是什么……这或许将成为人类的困扰。
关注天下网吧微信,了解网吧网咖经营管理,安装维护:
本文来源:不详 作者:佚名