2016年即将过去,这一年中相信诸位ICT业内人士听得最多的词就是AI(人工智能),无论是企业还是媒体,凡是和ICT着边的,都多少要冠以AI的字眼,否则就有OUT之嫌。但实际情况又如何呢?
所谓追根溯源。这里我们不妨回溯下今年比较重要或者说引起媒体和业内对于AI关注或者炒作的几个节点或者说是标志性事件,而对于这些标志性事件的解读和延展无疑会让我们看到AI的本质。
一、谷歌旗下AI公司DeepMind开发的Alpha Go神经网络在与世界围棋冠军李世石的“人机大战”中以绝对优势获胜,进而引发了业内对于AI的关注,之后AI开始频频出现在科技媒体和企业的报道中;
二、谷歌主打AI的无人驾驶汽车在路侧中出现首例事故和特斯拉的Autopilot(自动驾驶系统)频频出现的致死事故,尽管是负面的新闻,但还是激发了业内对于AI的关注,并以自动和无人驾驶汽车的热炒体现出来;
三、是亚马逊装有Alex语音识别技术的Echo音箱所谓的畅销以及有“互联网女皇”之称的Mary Meeker发布2016年度网络趋势报告时对于Echo以及AI的热捧和向好的预测;
四、美国总统大选中名为MogIA的人工智能系统成功预测出川普将成为美国总统;
五、是图形芯片公司或者说是其自己标榜为人工智能公司的英伟达股价的暴涨。
首先我们看下Alpha Go在围棋中战胜李世石究竟依靠的是什么?其实对于计算机与人类在棋类的博弈,早在1997年计算机首次击败了等级分排名世界第一的棋手。加里•卡斯帕罗夫以2.5:3.5 1胜2负3平)输给IBM的计算机程序“深蓝”,当时全球媒体和高科技界都惊呼标志着人工智能进入了新时代。此前1988年,“深蓝”的上一代“深思”是第一个赢过国际象棋特级大师的电脑;1996年,“深蓝”成了第一个赢了国际象棋世界冠军的电脑。需要说明的是。深蓝重1270公斤,有32个大脑(微处理器),每秒钟可以计算2亿步,输入了一百多年来优秀棋手的对局两百多万局。
相比之下,AlphaGo最初通过模仿人类玩家,尝试匹配职业棋手的过往棋局,其数据库中约含3000万步棋,计算能力是当初“深蓝”的3万倍。这里我们看到的与“深蓝”相比最大的不同是AlphaGo在数据和计算能力上的优势。在此也许有人会说AlphaGo赢在其庞大复杂的神经网络,但根据Tian yuandong和AlphaGo的论文,如果不做任何搜索(实际上考验的是计算能力),只是根据“棋感”(其实就是估值函数),CNN(神经网络)最好能达到KGS 3d的水平,也就是业余1段的水平。而MCTS算法在没有Value Network的情况下在9x9的棋盘上能战胜人类高手,其实印证了AlphaGo在残局的实力是搜索(计算)起重要作用,也就是残局的计算能力碾压人类。但众所周知的事实是,计算机的计算能力远强于人类早已经是常识。
对此,微软亚洲研究院常务副院长芮勇在评价AlphaGo时曾对媒体表示:今天所有的人工智能几乎都是来自于人类过去的大数据,没有任何一个领域的能力源自自我意识,不管是象棋还是围棋,计算机都是从人类过去的棋谱中学习。其他领域也是类似,计算机在做图像识别的时候,也是从人类已有的大数据中学习了大量的图片。在面对人类从来没有教过的问题时,计算机就会一窍不通。假如让 AlphaGo 去下跳棋,它就会完全傻掉。甚至说把围棋的棋盘稍作修改,从 19×19 的格子变成 21×21 的格子,AlphaGo 都招架不住,但是人类就没有问题。
牛津英语词典对智能(intelligence)的定义为“获取并应用知识的能力”。以数字经济麻省理工学院(MIT)数字经济倡议的研究员兼AI意见领袖汤姆•达文波特(Tom Davenport)的话来说:“深度学习并不是深刻的学习。”另一位专家奥伦•埃佐尼(Allen Institute of AI)也有类似意见:“AI只是简单的数学的大规模执行。”简单说,现在的AI实质只是一种强大的计算方式,并没有达到人脑那种堪称智能的方式。而花了15年的时间在IBM研究院和IBM Watson团队工作的专家Michelle Zhou,作为该领域的专家,其将AI分为三个阶段。第一个阶段是识别智能,在更加强大的计算机里运行的算法能从大量文本中识别模式和获取主题,甚至能从几个句子获取整个文章的意义;第二个阶段是认知智能,机器已经超越模式识别,而且开始从数据中做出推论;第三个阶段的实现要等到我们能创建像人类一样思考、行动的虚拟人类才行,而我们现在只处于第一阶段,“识别智能”,也就是说,人们说的“人工智能”里面有很大一部分其实是数据分析,还是原来的套路或者说是“旧瓶装新酒”而已。
无独有偶,如果说上述AlphaGo最终还是依靠强大的计算能力体现出所谓AI优势的话,那么接下来我们要说的谷歌和特斯拉的自动和无人驾驶汽车则在简单的数据分析上都出现了偏差。
最典型的表现就是此前一直被吹捧的谷歌无人驾驶汽车,今年在时速低于2英里的情况下竟然发生了交通事故,且按责任划分当属谷歌。如果我们拿当时谷歌无人驾驶汽车发生事故时的选择和结果与此次人机大战中的每步棋的选择与结果比较的话,对于AI(例如AlphaGo)来说,前者不知道要容易多少倍(谷歌无人驾驶系统比人类最大的优势就是预判对方的行为,并做出应对),可惜的是,谷歌无人驾驶汽车在这次事故中体现出了智能系统没能完全判断准确人类的行为,还做出了最令人失望,可能也是最有悖于人类驾驶员的选择,并最终导致事故的发生。
至于特斯拉,在今年屡屡发生事故之后,其升级了到了Autopilot 2.0系统,并发布了第二段自动驾驶技术的演示视频。官方声称Autopilot 2.0系统的硬件得到了相当巨大的提升,环车共配备8个摄像头,达到360度全车范围覆盖,最远检测可达250米。另外搭载了12个超声波传感器用于视觉系统的补充,对物体的距离、软硬精准度有更大的提升。增强版的前置雷达可以穿越雨、雾、尘环境,丰富视觉系统的探测数据。特别是里面集成了Nvidia PX2处理芯片,运算能力比起第一代自动驾驶系统要高40倍。尽管如此,通过视频分析中出现的诸如无论有没有来往车,每一次需要转弯时都会停下来再继续转弯;逼停了了一辆正常行驶的白色小车以及在完成一次转弯之后,突然无缘无故自动刹车等诸多问题看,Autopilot 2.0依然没有逃出计算能力和大数据简单分析结果呈现的范畴,并非真正的AI系统。
提及亚马逊的Echo,其实就是语音搜索和识别,而提及此领域,苹果的Siri、微软的Cortana或Google Now早就与智能手机绑定,但我们看到更多的实际应用场景是人们经常以搞笑的方式误听或者误解语音指令。关于语音搜索,谷歌依然在致力于克服诸如语音识别、自然语言理解、对话理解的挑战上,而这些挑战早在3年前就已经存在。而从亚马逊Echo的诸如语音查询天气或新闻、播放Spotify音乐、预约Uber叫车、订购披萨外送等应用看,这些在手机上早已实现,其有别于手机的AI特性究竟体现在哪里呢?
相反,尽管语音识别已经取得了长足进步,但多数人仍会沿用手势操作和触摸界面。在可预见的未来,这种趋势恐怕难以改变。究其原因,主要在于语音识别服务需要依赖庞大的数据和具有捕捉自然状态下的真实对话的能力才是真正的AI。所以尽管在语音识别上,有些厂商称其识别率已经实现90%以上,但基于自然状态下真实对话的能力要求,就算是95%的准确率也不足以满足人们的需求。而在被问及何时才能通过自然语言与数字助理交流
本文来源:不详 作者:佚名