最新科学与科技文章

Image credit:

东京工业大学开发可以预测 0.5 秒后的动作的「FuturePose」AI 系统

AI:「人类,你的动作已经被我看穿啦!」

Andy Yang
2019 年 4 月 24 日, 傍晚 09:00

东京工业大学的研究团队稍早发布了一套仅用一般 RGB 视频,就能预测画面中人物未来动向的「FuturePose」系统。过去有过类似的预测系统相关的研究,但使用的是本身就自带深度信息的 Kinect,而东工大这边则是完全靠着画面本身像素的流向,先通过机器学习与 AI 来定位关节,再由定位出来的关节和摆动方向,去推断 3D 环境中的位置,整个过程简直神奇。

靠着 AI 的推断,这套 FuturePose 系统可以大约猜出人类 0.5 秒后的位置,颇有一点小说或漫画里那种「你的行动已经被我看穿啦」的风范。研究团队也还真的实际给人戴上 Vive 头套,显示面前的另一个测试者予测动作。相较于没有予测系统的 0.62 秒平均反应时间,戴上这套系统的人将平均降到了 0.41 秒。这是个很明显的差距,但也没有真的到可以变武林高手的程度就是啰 。

以真实世界的应用来说,东京大认为这可以作为格斗练习的辅助系统,或是可以让观众提前一步看到足球 PK 时守门员将往哪个方向躲。然而,只是为了这点小小的乐趣,就让 AI 学会如何预判人类的行动,好像有点划不来啊...