来源:量子位
只需要400 块不到,就能拥有一个可编程的 AI 小机器人,而且还能用手机控制?
这就是英特尔实验室(Intel Lab)最新公布的研究成果OpenBot。
作为一个小型电动 ,它可以被植入 AI目标检测算法,实时跟踪行人或者目标物体。
例如,跟着家里的小朋友出去遛弯:
不仅如此,还能自动导航。
像是在办公室避开障碍物,甚至化身一个小小的摄像机,把拍摄到的东西记录下来:
而这一切,只需要你自己的手机,再加上成本总共不到 400 元的 3D 打印零件!
下图是小车需要所有零件,包括 3D 打印车身、速度传感器、电池……
据了解,在这款机器人研发出来之前,传感器性能较好、设备配置较先进的机器人,基本需要2000-5000 美元的配置;
即使是家用的小型手机可编程机器人,配置也需要250 美元左右,实时传感的效果还不太好。
研究者们表示,其实全球超过 40% 的人都拥有智能手机,如果利用上手机的性能,这个成本 50 美元的小机器人的确不难实现。
况且,OpenBot 的所有程序开源,哪怕是想要自己动手配置一个,似乎也不是问题?
下面来「解剖」一下这个机器人。
软件:两大功能 1、跟踪行人:目标检测算法
事实上,跟踪行人的设计,采用的是目标检测 SSD 算法,配置 MobileNet 的神经网络框架。
MobileNet-SSD 目标检测算法框架的优势在于,它真的非常小,加上整个网络结构,算下来也就 30MB 不到。
△ SSD 算法的先验框,根据目标形状选框的形状
无论是安装在手机上,还是树莓派上,这个算法都是移动设备进行 AI 目标检测算法的好选择。
当然,目标检测毕竟只是图像级,如果需要达成跟踪效果,还需要一个小算法,使得程序能周期性运行,达到「实时检测」的效果。
2、自动导航:只需要 1.3M 参数
事实上,此前能实现自动导航的软件参数量达到了 9.1M,而英特尔实验室的研究人员将这个程序的参数量进一步缩小到了1.3M,直接减少了 7 倍的参数量。
这个程序同样是实时的,通过设计一个神经网络,类似于命令行输入变量的条件模仿学习,实现了这个「自动导航」的驾驶策略。
而且,只需要 30 分钟,就能训练好这个网络。从整体软件部分来看,设计是这样的:
在手机端,采用游戏控制器的接口链接小车,这里包括车辆的控制、行驶模式等功能。
当然,呈现给用户的会是一个图像接口,更加容易上手。
此外,它也会以音频的形式,将信息反馈给用户。
至于 Arduino 端,则实现如下几个功能:PWM 动力控制、负责执行指示信号、测量轮子速度、监控电池电量、以及与手机端的信号沟通。
如果对软件部分感兴趣的话,可以学习一下他们的开源算法(文末附项目链接)。
硬件:不是树莓派
事实上,这个机器人最亲民的地方在于,只需要通过手机,就能控制机器人。
不仅如此,由于配件简单,基本上可以自己动手组装。
当然,如果你想要自己制作一个更好看的车身,用 3D 打印就行:
而这个小车的整体硬件电路图如下,结构非常简单,连上 4 个车轮,2 个 LED 灯,2 个速度传感器,而可编程器件则与手机相连。
也就是说,只要在可编程器件上植入相应的程序,小车就会按照你的意愿跑起来。
当然,作者表示,这个毕竟是更贴近于「家庭装」的 AI 机器人,如果需要更高端的轻量级嵌入式设备,树莓派是个非常不错的选择,但不一定能实现手机拥有的这么多功能。
如下图所示,以手机配置的机器人除了 LiDAR,其他的功能如 WiFi、蓝牙连接、相机都可以使用。
所以,实现这个机器人,最需要的是一部好手机?
OpenBot 的小限制
事实上,Intel Lab 从 2018 年起就开始研制低成本、高性能的小型移动 AI 机器人,而刚刚推出的这个小机器人,已经是第 3 代了。
从下图来看,第 3 代的 AI 机器人,不仅支持 5G,而且相机也从 1200 万像素增加到了最大 10800 万像素(也与手机性能有关)。
嗯,似乎发现了什么华点:
没错,这个项目有个限制,目前只能应用于安卓端。
研发团队表示,如果这个项目比较受欢迎,团队将会考虑开发适配于 iPhone 的程序。
不过,由于这是开源项目,所以 iOS 的开发人员自己动手来一个,也未尝不可(眼神暗示)。