在前一篇文章《微软全息眼镜HoloLens解密:如何还原三维场景》中我介绍了自己对于HoloLens背后的建模技术的看法,虽然之前在微软的Xbox部门工作过,但是和大家一样也是上周才知道HoloLens这个好玩的设备。当前微软官方对于HoloLens透露出来的信息非常有限,最核心的两个组件深度传感器以及全息屏幕的原理依然充满着迷题。文章发表后,读者提出了一些问题。
读者提问之“HoloLens的深度传感器有没有可能是基于TOF?”
先介绍下背景知识,市面上常见的有三种类型的深度传感器:
• 结构光,这个技术的代表产品是Kinect一代,它的传感器芯片用的是PrimeSense家的。说句题外话,PrimeSense现在是苹果旗下的公司,这个领域未来一定会很精彩。
• TOF,time-of-flight,代表产品是Kinect二代,由于微软对于One这个单词的热爱,它的官方名字是Kinect One,有点混乱是吧?
• 双目摄像头,代表产品是Google Tango以及Leap Motion,前者配有四台摄像头,后者有两个。
我认为HoloLens没有使用TOF技术的原因是因为如果这四个摄像头的位置放的是TOF传感器,那么还缺少一个朝前的RGB摄像头用于视频聊天类App。读者提到的中间部分我认为是微型的投影仪,HoloLens使用微投在“挡风玻璃”上显示全息的画面。
至于这个问题的标准答案,还得等微软发布新的信息。
读者提问之“HoloLens能不能当VR用?
这个问题很好,的确可以这么玩,NASA与微软的的火星合作计划基本上是一个虚拟现实的应用,它无视了真实的环境。如果HoloLens可以提供调节“挡风玻璃”透光度的API,那么调成完全不透光时就好比戴着Oculus Rift的头盔,是另一种体验VR的途径。可是朋友们,这是在浪费HoloLens的机能啊!
那么,作为未来的应用开发者,应该怎样充分榨干它的机能呢?这是本篇文章的重点。
正文部分
首先让我脑洞开一会,为大家“介绍”下Holo SDK。按照微软的偏好,SDK标配的语言肯定有C++和C#,因此要进行开发,这两门语言你至少得会一门。
然后,这个SDK里有哪些功能呢?根据官方demo中的场景,我觉得基本功能至少有:
(a)摄像头看到的图像,即当前场景的color buffer。
(b)当前场景的深度图,depth map或z buffer。
(c) SLAM合成后的三维场景,这个场景所在的空间下文我们暂且称为Holo Space,它可能是以乐高方块的形式表示,也可能是用三角形来表示。
(d) HoloLens设备在Holo Space中的坐标(x, y, z)、朝向(tx, ty, tz)。
(e)手势识别的结果,类似HRESULT OnGestureDetected(DWORD dwHandId, DWORD dwEVEntId, LPVOID lpUserInfo)的样子。
(f)语音识别的结果,类似HRESULT OnVoiceRecognized(std::string& strSentence, FLOAT confidence)的样子。同样的,根据官方demo,我将HoloLens应用分为三种:
• 伪全息的传统应用
• 针对HoloLens特别优化过的应用
• 沉浸式的真-全息游戏
这一篇只讲“伪全息的传统应用”这种类型的应用对于传统开发者而言最容易上手,几乎不需要修改代码,自然也不需要拥有3D图形学的知识。大部分人会从这种应用入手开始Holo开发。
如果不需要3D知识就能实现3D的界面,那么3D的效果是哪来的呢?那就是Windows 10引入的全息窗口管理器——explorer3d.exe。我们平时启动Windows看到的“桌面”是窗口管理器(explorer.exe)的一部分,把“桌面”想像成三维的就行了,很简单是吧?
一点都不简单!
以视频播放器为例,播放器并不会直接将视频画面显示到桌面上,而是画到一个缓存区域,经过一系列我不知道的步骤后,explorer.exe再将画面以“2D的方式拷贝”到能被我们看到的地方。而explorer3d.exe用的是“3D的方式”。
所谓“3D的方式”就是使用Direct3D做一些“会的人嫌我讲得啰嗦,不会的人看了还是不会”的事……
也就是在初始化应用的时候:
• 创建一个3D的矩形来表示3D的窗口,保存在顶点缓存vertex bufer(可以认为是放在显卡上的数组)
• 创建一个贴图texture(可以认为是放在显卡上的图片)
• 创建表示窗口平移、旋转、拉伸值的local_matrix(这里的matrix
关注天下网吧微信,了解网吧网咖经营管理,安装维护:
本文来源:不详 作者:佚名