Facebook的AI识菜谱,把皮卡丘认成了煎蛋( 五 )

为了弥合这种差距,来自麻省理工学院计算机科学与人工智能实验室(CSAIL)的研究人员研发了一种技术,使机器人可以通过触觉信号推测出物体的样子;同样的,通过视觉信号,推测出物体的触感。

该团队使用摄像头记录了近 200 件物品,如工具,家用产品,织物等,并让机器人触摸这些物体超过 12,000 次。随后,他们将这 12,000 个视频片段分解为静态帧,编制成为包含 300 多万个视觉/触觉配对图像的数据集“VisGel”。

基于这个数据集训练后,机器人可以基于视觉输入,推测出逼真的触觉信息;或者,通过触觉信息的输入,推测出是什么物体被碰触了,以及是哪个部位被碰触了。该研究团队使用的机器人手臂名叫 KUKA,触觉传感器名为 GelSight,是由麻省理工学院的另一个小组设计。

视觉和触觉这两种感官的结合,可以增强机器人的能力,并减少其在涉及操纵和抓取物体的训练任务时可能需要的数据。

感兴趣的可以点击原文查看:

https://www.csail.mit.edu/news/teaching-artificial-intelligence-connect-senses-vision-and-touch

推荐阅读