环球门户网

脸书的咖啡因2框架将人工智能引入低功耗移动设备

更新时间:2021-09-27 20:07:01

导读 为了将人工智能引入低功耗移动设备,并使其能够识别图像中的对象,FaceBook Inc 周二在F8开发者大会上发布了一个新的深度学习框架,

为了将人工智能引入低功耗移动设备,并使其能够识别图像中的对象,FaceBook Inc .周二在F8开发者大会上发布了一个新的深度学习框架,并将其引入开源。

Facebook的咖啡因2框架将人工智能引入低功耗移动设备

它被称为Caffe2,是其最初的深度学习框架Caffe的继承者,它是与伯克利人工智能研究实验室的研究人员一起开发的。Caffe2的GitHub页面将该框架描述为“Caffe的实验性重构[它]允许以更灵活的方式组织计算。

在一篇博文中,Face book详细阐述了Caffe2是一个“轻量级和模块化的深度学习框架,强调可移植性,同时保持可扩展性和性能。”该公司与亚马逊网络服务、英特尔公司、微软公司、高通公司和英伟达公司密切合作,为云和移动设备优化Caffe2。

Facebook的咖啡因2框架将人工智能引入低功耗移动设备

Face book表示,Caffe2可用于将AI功能编程到移动设备中,这将使它们能够识别图像、声音、文本和视频,并变得更加“具有上下文感知能力”。这一点非常重要,因为到目前为止,这些功能已经卸载到云中的远程服务器,这意味着智能手机和其他设备必须连接到网络才能提供这些功能。但是,Caffe2不同,因为它在这些设备的低功耗约束下工作,这意味着不再需要与云的连接来提供AI能力。

Facebook的咖啡因2框架将人工智能引入低功耗移动设备

Caffe2之所以能做到这一点,是因为它利用了下一代移动芯片的先进计算能力,加速了深度学习的任务。例如,在智能手机中,Caffe2利用了肾上腺素图形处理单元和高通骁龙芯片上的六边形数字信号处理器的能力。

在Caffe2上的一篇博文中,Face book表示,“我们致力于为社区提供高性能的机器学习工具,让每个人都能创建智能应用和服务。

Face book的合作伙伴强调,Caffe2比其前身Caffe快得多。英特尔、高通和英伟达的基准测试表明,与其他机器学习框架相比,性能和速度都有显著提高。英伟达在一篇博文中表示,在高端GPU上,Caffe2比之前的Caffe“明显”快。英伟达用于机器学习的一些最新GPU具有低级浮动计算能力,该公司表示,这将有助于构建能够做出准确推断的神经网络。

版权声明:转载此文是出于传递更多信息之目的。若有来源标注错误或侵犯了您的合法权益,请作者持权属证明与本网联系,我们将及时更正、删除,谢谢您的支持与理解。