据国外媒体报道,两年前,斯坦福大学教授吴恩达(Andrew Ng)加入谷歌开发团队X Lab。X Lab团队为谷歌开发出了谷歌眼镜和无人驾驶汽车项目。吴恩达在这个团队中的使命是——“以史无前例的规模,通过利用谷歌庞大的数据中心来打造人工智能系统。”
吴恩达与谷歌顶级工程师合作来建立全球规模最大的“神经网络”,它能够以与人类大脑学习新事物相同的方式来学习现实生活。吴恩达所开发的人工神经网络通过观看一周YouTube视频,自主学会了识别哪些是关于猫的视频。人工神经网络能够做到这一切主要是通过以下步骤:把视频分解成十亿多个不同的参量,然后通过自主学习,学会如何把这些零碎化的参量组合到一起。
此外,吴恩达还为处理人类声音和谷歌街景图片建立了模型。谷歌很快认识到这项工作的潜力,并把这项工作从X Labs部门移到谷歌知识团队。现在这种机器智能(被称为“深度学习”)可能带动谷歌旗下诸多产品发展,比如谷歌眼镜、谷歌图片搜索以及谷歌搜索引擎等。
像吴恩达这样的斯坦福大学教授也只有在像谷歌这样的公司里完成此类研究。目前,谷歌每年在超级计算机数据中心领域的投资达十亿美元。
吴恩达表示:“在我加入谷歌的时候,学术界最大的神经网络大约有100万个参量,而当时在谷歌,我们能够建造比这个规模大1000倍的神经网络。”
在吴恩达的带领下,谷歌利用他的神经网络模型来改善自己的产品:谷歌语音识别软件。去年夏天,吴恩达邀请了一位名叫杰弗里·希尔顿(Geoffrey Hinton)的人工智能专家,让后者在谷歌花了数月时间对谷歌算法进行改进。当安卓Jellly Bean 操作系统去年发布时,这些算法已经把其语音识别出错率大幅降低25%。今年三月,谷歌收购了希尔顿的公司。
现在,吴恩达仍在继续做自己的研究,而希尔顿表示,他希望把深度学习研究带入到一个更深水平。
第一步就是构建比其去年所开发的十亿参量神经网络规模更大的神经网络。希尔顿表示:“我很乐意去研究规模比十亿个参量神经网络大1000倍的神经网络。当你获得了一万亿个参量时,你将会使神经网络有机会理解一些事物。”
希尔顿认为,建立关于文档的神经网络模型能够以改进谷歌语音识别功能一样方式来改进谷歌搜索。
谷歌的知识图谱拥有近6亿条数据。当你搜索“帝国大厦”时,知识图谱就会弹出所有适合你搜索结果的信息,比如搜素结果会显示出帝国大厦的高度为1454英尺,设计者威廉·兰姆(William F. Lamb)等。
谷歌利用知识图谱对其搜索结果进行了改进,不过希尔顿表示,人工神经网络能够研究图谱本身,然后删除错误,最后改进搜索结果。
图像搜索是另一个拥有广阔市场前景的领域,而希尔顿就是从事这项研究的最佳人选。上世纪八十年代,希尔顿开发了适用于人工神经网络的基础计算机模型。两个月前,谷歌收购了希尔顿的人工智能公司DNNresearch(收购价格未披露)。现在他拥有了两项工作:在多伦多大学任教,在谷歌做智能研究。
过去五年,研究人员利用图形处理器的强大功能来构建了规模越来越大的人工神经网络,这种神经网络能够快速从大量数据中学习。
吴恩达表示:“为了能识别一只猫,你必须找到数以万计的带有标签的猫的图片。”这通常需要大量的计算机来筛选海量数据。比如,吴恩达在YouTube视中识别猫的模型研究中,使用了1.6万块电脑处理器。不过,模型一旦建成后,仅需要100块电脑处理器就能够在YouTube视频中识别猫。
谷歌的数据中心建立在英特尔Xeon处理器之上。不过,谷歌已经在测试一种D-Wave量子计算机,希尔顿希望今后能对这种系统进行测试。
不过在此之前,希尔顿的目标仍然是测试拥有一万亿个参量的人工神经网络。他表示:“我认为,谷歌高管都在致力于让大型人工神经网络得到非常好的应用。”