MIT的黑科技隔着屏幕也能和男神互动了

现在的我们只能隔着屏幕,花痴地看男神在视频里卖萌,比如这样:

” data-rawwidth=”231″ data-rawheight=”220″ class=”content_image lazy” width=”231″ data-actualsrc=”https://www.hixianchang.com/wp-content/uploads/2018/20180719/T16930.jpg”>

但是,不久之后的我们,将可以通过MIT的黑科技(全称太长后面说,先记着这个),当你伸出你邪恶的小爪子,隔着视频戳男神,他也会给你反馈了,比如这么干(想污了的自己去面壁):

———

MIT的这项最新黑科技,全名是Interactive Dynamic Video(可交互式动态视频)

即是说,视频里的物体,以后都能通过这个黑科技被识别出来,不需要再重新建模。当外界视频中的物体施加交互行为时,比如点击,触摸等,而此时画面中的物体会给出反馈

官方的演示Demo:(骷髅小人是视频画面,蓝色箭头是真实世界中的手势拖动)

——– 将要开始说这个技术怎么用 ——–

电影行业

当这技术真正得以推广那天,就是五毛特效人员失业的日子。现在电影大片做特效时,需要专业的人员在场景里重绘建模,不仅时间长,而且都只有土豪公司能做这事。

但当MIT的这项黑技术得以应用时,电影特效的制作过程,将变得So Easy。首先,你只需要先拍好电影的场景片,然后再做好恐龙和它的动态,再将它摆弄在场景片中,最后它就能自然地融入到已拍好的场景中,和画面中的物体自然地交互。是不是完全逆天

———- 继续说这个技术怎么用 ——–

游戏行业

前阵子Google大神出了款全球逆天的增强现实游戏,Pokemon Go(就是那个有皮卡丘的卡通片改编的游戏)。这款游戏可以让用户通过手机摄像头,在自己的真实世界中发现小精灵,并通过寻找、捕捉、战斗的方式,搜集它们(看了想去玩的国内朋友,咱们玩不了,看看就好)

虽然,Pokemon Go 已经让全球人民陷入到不看路的危机中,但小精灵的卡通形象,只是混合叠加在了真实环境中,可能浮动或者穿透,所以还不够真实(要求高是好事)。这是现在的游戏效果:

但使用了MIT的这个黑科技后,小精灵和现实世界之间,就可以很自然地产生互动后的反馈效果。比如下面动作中,树叶会根据小精灵的落点震动,营造一种精灵就是在当前场景中的感觉,非常真实。以下是加了MIT技术后的游戏效果:

——– 这里开始讲逻辑,不感兴趣可直接拖最后 ——

但是这么牛掰的技术,实现的基本原理其实蛮有趣的。即是在拍摄视频时,首先,摄像头会同时捕捉和记录画面中物体的震动频率。然后通过算法,根据已有的所有震动频率,计算分析得到物体已有的模型形状和材质(这里描述只有3句话,但有好几十页的论文和各种神奇的公式,有兴趣的朋友可以自己去查下)

当真实世界中的物体交互作用在视频上时,算法即可以通过计算预测模拟出,视频中的物体需要呈现出的动态,从而给出反馈。所以,当真人和视频中物体交互时。便可感觉视频好像真的响应了一样

———- 我是最后的结尾分割线,读完的都是真爱 ——–

作为人机交互圈名媛的艾小姐(我自己厚脸皮脸冠名的),看到这项技术后,真的令人兴奋地起鸡皮疙瘩。如果以后再加上可触控的虚拟反馈技术(Virtual Feedback)和无所不在的计算(Ubiquitous Computing),以后或许人类骇客帝国般的虚拟体验未来,即将开启。

虚拟信息和真实世界的融合,不再有明显的区分。真是一种期待,也让我们这些人机交互设计师,得不断探索研究更新的前沿领域才好。

———- 既然都看到最后了,记得fo点个大拇指吧 ——–

本文所有技术资料,来自MIT IDV研究组,由AIUX 搜集整理后重新编辑发出。更详情的视频、文字和论文,大家可以戳这里查看:

https://news.mit.edu/2016/touching-objects-in-videos-with-interactive-dynamic-video-0802

我们是AIUX Studio (艾体验产品体验工作室),最专业的产品体验人机交互团队。我们的宗旨是:帮助你的产品拥有最好的体验。

所以如果你感觉自己正在为产品发愁,无论是尚在种子阶段还是遇到了增长问题,无论是软件设计还是硬件体验,无论是互联网还是传统线下商业…… 都可以在公号里留言,约我们一起聊聊看。

发了以后才发现,知乎没法看动图(第一次发,不知道情况,对手指头),大家想看动图的话,可以关注我们的公号: aiuxstudio;

两边各有侧重:公号中偶尔会有一些活动的直播预报,比如前阵子我们玩了最新的HoloLens; 专栏里将会侧重卖萌专业和八卦为一体的文章流。

相关新闻