环球门户网

前沿数码资讯:谷歌新的种子RL框架减少了80%的人工智能模型培训成本

更新时间:2021-07-08 16:01:27

导读 科技、数码、互联网新闻如今都成为了大众所关注的热点了,因为在我们的生活当中如今已经是处处与这些相关了,不论是手机也好,电脑也好,

科技、数码、互联网新闻如今都成为了大众所关注的热点了,因为在我们的生活当中如今已经是处处与这些相关了,不论是手机也好,电脑也好,又或者是智能手表也好,与之都相关,那么今天小编也是为大家来推荐一篇关于互联网科技数码方向的文章,希望大家会喜欢哦。

谷歌的研究人员已经开放了一个新的框架,可以在数千台机器上扩大人工智能模型的培训。
谷歌新的种子RL框架减少了80%的人工智能模型培训成本

这是一个很有前途的发展,因为它应该使人工智能算法训练能够以每秒数百万帧的速度进行,同时将这样做的成本降低80%,谷歌在一篇研究论文中指出。

这种削减可能有助于为那些以前无法与AI领域的谷歌(Google)等大公司竞争的初创企业提供更好的竞争环境。 事实上,在云中训练复杂的机器学习模型的成本惊人地昂贵。
谷歌新的种子RL框架减少了80%的人工智能模型培训成本

Synced最近的一份报告发现,华盛顿大学花费了2.5万$成本来训练其Grover模型,该模型用于检测和生成假新闻。 同时,OpenA I每小时支付$256英镑来训练它的GPT-2语言模型,而谷歌自己则花费了大约6,912$来训练它的BERT模型来完成自然语言处理任务。

SEED RL是建立在TensorFlow2.0框架之上的,通过利用图形处理单元和张量处理单元的组合来集中模型推理。 然后使用训练模型的学习者组件集中执行推理。
谷歌新的种子RL框架减少了80%的人工智能模型培训成本

目标模型的变量和状态信息保持局部,并在过程的每一步向学习者发送对它们的观察。 SEED RL还使用基于开源通用RPC框架的网络库来最小化延迟。

谷歌的研究人员说,SEED RL的学习者组件可以在数千个核心上进行缩放,而在环境中采取步骤和在模型上运行推理以预测下一个动作之间迭代的参与者数量可以扩展到数千台机器。

SEED RL架构概述. 与IMPALA体系结构不同,参与者只在环境中采取行动。 推理由学习者在加速器上使用来自多个参与者的批次数据集中执行。

 

版权声明:转载此文是出于传递更多信息之目的。若有来源标注错误或侵犯了您的合法权益,请作者持权属证明与本网联系,我们将及时更正、删除,谢谢您的支持与理解。