• 本文作者陈哲,现谷歌眼镜部门高级软件工程师。
去年的Google I/O上,谷歌神秘的ATAP部门((Advanced Technologies and Projects)曾经展示过非常酷炫的Project Soli。因为当时技术还在早期阶段,只是小范围里给60位开发者发放了开发套件,用于内部测试。在今年的I/O 2016里,谷歌除了带来Daydream,Android N等重磅更新,ATAP也低调展示了Project Soli的最新进展。我们今天就来扒一扒Project Soli的来龙去脉,让我们深入了解这项技术的原理和应用。
Soli是什么
Soli是一项运用微型雷达监测空中手势动作的新型传感技术。这种特殊设计的雷达传感器可以追踪亚毫米精准度的高速运动,然后将雷达信号进行各种处理之后,识别成一系列通用的交互手势,方便控制各种可穿戴和微型设备。
目前谷歌设计的这些通用交互手势,是基于人们平时所熟悉的一些物理工具和动作,比如按钮,转盘和滑杆:
虽然这些动作都是虚拟的,但是因为是多个手指之间的相互动作,它可以给用户很好的触觉感应和物理反馈。也因为人类有精准的小肌肉运动技能(fine motor skills),它可以让这些虚拟工具通过我们手势运动实现很高的流畅性和精准度。
谷歌相信这些有物理反馈与触感的交互方式是比平面的触摸屏或者语音识别技术更自然的控制方式,为人机界面引入了新的思维与机会。
Soli与其他手势追踪技术的区别
目前关于手掌与手指运动识别与追踪的技术,市面上已经有好种不同的解决方案:
微软Kinect为代表的深度感应技术(结构光和飞行时间两种)
LeapMotion为代表的红外线投影与成像
uSense为代表的光学立体成像技术
相比这几种常见的解决方案,采用毫米波雷达的Soli技术有以下几种优点:
依赖红外线的深度感应和投影技术在室外红外线干扰多的环境可靠性很差,毫米波雷达则无这方面问题。
基于光学立体成像的技术需要相当大的计算量获取深度数据,高的分辨率较难实现,功耗不低;同时由于依赖可见光,在低光亮环境无法使用,毫米雷达波也无这方面问题。
同时因为毫米波雷达的频率远低于红外线和可见光,相比基于红外线的时间飞行技术,毫米波雷达可以计算相移(Phase shift)和多普勒效应(Doppler Effect),从而以很低的计算量获取物体的运动与方向。
毫米波雷达对于一些材料还有很好的穿透性,不受光路遮挡的影响。
因为天线技术近年来有不小提高,不到一平方厘米的面积谷歌就可以把传感器和天线阵集成到一起,这方便了该技术应用到可穿戴设备和手机上,而其他的解决方案目前还不能如此小巧:
这次I/O 2016大会上,谷歌就带来了跟LG合作的智能手表,在表带处继承了Soli技术,用于捕捉用户指尖的微小动作。这样的体积与功耗,传统手势感应技术是无法想象。
在这个demo里,展示着用手指的按键与滑动两种动作可以发送不同的指令:
在Soli项目的视频介绍里,也出现了跟智能手表相关的设计概念:
本文来源:不详 作者:佚名