2016年3月9日,超级计算机AlphaGo开始迎战韩国围棋选手李世石,并于当日下午取得1:0的小分优势。在此之前李世石已经取得过18个世界冠军,这次能否被AlphaGo终结,全世界的目光都放在了这场人机大战上。
AlphaGo是由DeepMind团队研发的,具备“深度能力”的机器人。那么这种学习能力是如何产生的呢,下面我们聊一聊AlphaGo的前世今生。
DeepMind团队在策划AlphaGo时,刻意的让其去掌握人类思维模式,并用由这种思维模式去进行计算。以本次围棋大战举例,围棋每回合有多达250种可能的下法,而一盘棋可以长达150回,会出现3^361种局面,所以按照“深蓝”那种算法是根本不可行的,这也是传统超级计算机没有进行人机围棋大战的原因。
而AlphaGo不同,他并不单纯依靠程序去进行运算,而是设立单独的一个“监督预判机制”,每进行一个回合,就重新去计算利弊,这种计算模式与人类思维更加接近,也更能节省计算机的运算机能。
外界普遍认为人工智能超越人类需要十年的时间,而DeepMind只用了6年,今天的这一小分代表的并不是人工智能暂时的领先,而是DeepMind在整个行业的领先。
本文来源:不详 作者:佚名