瞄准工业智能化市场,有了这项新技术机器人可就真的成精啦

原标题:瞄准工业智能化市场,麻省理工让 AI 教机器人操纵物品

原标题:有了这项新技术机器人可就真的成精啦!

智东西

人工智能正在一步步走向强大。今天,麻省理工学院又公布了一项新发明,让科技更进一步。

来自engadget的消息称,麻省理工学院最新研究发布的的机器视觉系统可以让机器人自行解决它所看到的问题。

编 | 赵佳蕊

麻省理工学院计算机科学与人工智能实验室(CSAIL)的研究人员,发明了一种名为
DON
的“密集的视觉对象网”——让机器人能学会独立观察、理解并操作它们从未见过的物体。

对于反复执行特定动作的机器来说,目前的计算机视觉技术已经足够了,比如从装配线上取下一个物体,把它放到一个箱子里。然而,要让机器人变得足够有用,不仅能在仓库里装箱子,还能在我们自己的家里帮上忙,目前的而技术就显得力不从心了。

导语:美国麻省理工学院计算机科学和人工智能实验室研究人员设计了一个可以把触觉信号转化为视觉信号的的人工智能系统,也可以根据视觉片段预测触觉。

研究人员们计划今年10月在瑞士的机器学习大会上展示他们的新发明。

对此,麻省理工学院设计了“DON”系统。

智东西6月17日消息,近日麻省理工学院计算机科学和人工智能实验室的研究人员研发出了一个新的人工智能系统,这个人工智能系统能够通过触觉信息生成视觉信息,也可以根据视觉片段预测触觉。

图片 1

DON,或称“密集物体网”,是麻省理工学院计算机科学和人工智能实验室(CSAIL)开发的一种新型机器视觉形式。它能够生成一个“可视化路线图”——即以坐标形式排列的可视化数据点的集合。这个系统会把这些单独的坐标集拼接成一个更大的坐标集合,就像您的手机可以将多张照片拼接成一个全景图像一样。这使得系统能够更好、更直观地理解对象的形状以及它在周围环境中的工作方式。

相关论文将在下周的计算机视觉和模式识别会议上将发表一篇新的论文,这篇论文由CSAIL博士生Yun
Zhu Li、MIT教授Russ Tedrake、Antonio Torralba和MIT博士后Jun Yan
Zhu共同创作。 一、这个AI可以将视觉信息和触觉信息相互进行转换

DON试图抓起一只鞋子(图片来源:MIT CSAIL)

“从计算机视觉系统中得到的最粗糙、最高级的东西就是检测目标,”该研究论文的作者、博士生Lucas
Manuelli告诉Engadget。“下一步是进行像素标记,所有的像素都是一个人或一条道路的一部分。很多自我驾驶汽车系统都会进行这两部操作。“

该小组的系统使用了GANs把触觉数据拼凑出视觉图像。其中GANs的神经系统被应用在两个部分,包括产生样本的发生器和能够区分产生样本和真实样本的鉴别器的两部分神经网络。

核心研究人员 Lucas Manuelli
说:“目前的许多科技手法都无法识别物体的准确样貌。例如,现有的算法无法操纵机器手柄来抓一个杯子。尤其是当杯子的形状和摆放复杂时,更为艰难。”

“但如果你真的想以某种特定的方式与某个物体互动,比如以特定的方式抓住鞋子或抓住一个杯子,”他继续说道,“那么仅仅有一个边界框或所有对应于杯子的像素是不够的。我们的系统必须得在对象中获得更精细的细节……这种信息对于进行更高级的操作任务是必要的。“

样本的获取来源于一个名为visgel的数据集,visgel拥有超过300万个视觉/触觉数据对,其中包括12000个视频剪辑,剪辑中包含了近200个物体(如工具、织物和家用产品)。

相关文章