谷歌的开源AI图像分割模型为云TPU优化

VR/AR
2019
04/25
12:55
venturebeat
分享
评论

谷歌的定制张量处理器(TPU)芯片是去年谷歌云平台客户可以使用的最新一代芯片,专为人工智能推理和培训任务量身定制,如图像识别,自然语言处理和强化学习。为了支持开发应用程序的开发,Mountain View公司拥有稳定的开源架构,如BERT(一种语言模型),MorphNet(一种优化框架)和UIS-RNN(一种扬声器二值化系统),通常还附带了数据集。延续这一思路,谷歌今天在其库中添加了两种新的图像分割模型,并声称这两种模型都实现了部署在云TPU pod上的最先进的性能。

该模型- Mask R-CNN和DeepLab v3+ -自动标记图像中的区域,并支持两种类型的分割。第一类是实例分割,它为一个或多个对象类(例如,家庭照片中的人)的每个实例提供一个惟一的标签,而语义分割则根据图像所代表的对象或纹理类对图像的每个像素进行注释。(例如,一个城市的街景可能被标记为“人行道”、“人行道”和“建筑物”。)

正如谷歌所解释的,Mask R-CNN是一个两阶段的实例分割系统,可以同时定位多个对象。第一个阶段从输入照片中提取模式,以识别潜在的感兴趣区域,而第二个阶段在为每个输入照片生成像素级掩码之前,对这些建议进行细化,以预测对象类。

另一方面,DeepLab 3+优先考虑分割速度。使用谷歌最新一代TPU硬件(v3)上的TensorFlow机器学习框架,在开源PASCAL VOC 2012图像语料库上进行培训,在不到5小时的时间内完成培训。

本周起,Google为Mask R-CNN和Deeplab 3+提供的协作平台上的教程和笔记就可以使用了。

TPU是一种特定于应用程序的集成电路(asic),它是液态冷却的,设计用于插入服务器机架,内部用于支持谷歌照片、谷歌云视觉API调用和谷歌搜索结果等产品。第一代设计于5月在谷歌I发布。最新一代(第三代)于2018年5月发布。谷歌声称它可以提供高达100千万亿次浮点运算的性能,大约是其第二代芯片的8倍。

谷歌并不是唯一一家为人工智能优化的云托管硬件。今年3月,微软开设了Brainwave,这是一支用于加速机器学习操作的现场可编程门阵列(FPGA),用于选择Azure客户。(微软表示,这使得其为Bing搜索引擎提供动力的模型的性能提高了10倍。)据报道,亚马逊正在开发一种人工智能芯片,该芯片将加速其Alexa语音引擎的模型训练。

https://venturebeat.com/2019/04/24/microsoft-earnings-q3-2019/

来源:venturebeat

THE END
广告、内容合作请点击这里 寻求合作
AR
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表 的观点和立场。

相关热点

能够在家中显示虚拟家具的应用程序是当今最受欢迎的移动增强现实应用程序之一,但Houzz决定通过最新的升级来加大赌注。
VR
一个独特的虚拟现实(VR)体验将于下周在罗奇代尔拉开帷幕,它预示着在西北部其他地方再找不到类似这样的虚拟现实游戏和活动。
VR
今天是2019年Coachella Valley音乐节的第一个周末,该音乐节将在加利福尼亚州的印第奥举行。尽管音乐节的观众们都沉浸在音乐节的氛围中,通常都是排行榜冠军的音乐和一线明星,但那些参观著名的撒哈拉帐篷...
VR
近年来,增强现实技术成为游戏行业的开拓者。多年来,这项技术一直徘徊在主流游戏的边缘,以索尼PlayStation2的Eye Toy:Play等不成功的形式出现,该游戏使用相机将数字世界嵌入到用户可以与之互动的现实...
VR
当约翰·汉克(John Hanke)还是小孩子的时候,他就一直非常着迷于《国家地理》杂志的抽拉式地图,并且可以连续数小时地翻阅其中的图片与地名。所以在一定程度上讲,这位Niantic的首席执行官希望通过增强现...
VR

相关推荐

1
3
Baidu
map