环球门户网

今天的最新更新NVIDIA使用PrefixRL人工智能模型设计了一个小25%的电路使GPU更加高效

更新时间:2022-07-11 18:02:19

导读 大家目前应该是对于今日最新更新 NVIDIA用PrefixRL人工智能模型设计出小25%的电路 使GPU更加高效方面的知识比较感兴趣,所以今天小编也是...

大家目前应该是对于今日最新更新 NVIDIA用PrefixRL人工智能模型设计出小25%的电路 使GPU更加高效方面的知识比较感兴趣,所以今天小编也是特地在网络上收集了一些今日最新更新 NVIDIA用PrefixRL人工智能模型设计出小25%的电路 使GPU更加高效方面的知识来分享给大家,感兴趣的小伙伴就好好看下下面的文章吧。

在设计集成电路时,工程师的目标是生产出更容易制造的高效设计。如果他们设法降低电路尺寸,那么制造该电路的经济性也会下降。英伟达公司在其技术博客上发布了一项技术,该公司使用一种名为PrefixRL的人工智能模型。利用深度强化学习,英伟达公司使用PrefixRL模型来超越主要供应商的传统EDA(电子设计自动化)工具,如Cadence、Synopsys或Siemens/Mentor。

EDA供应商通常会在内部实施人工智能解决方案,以实现硅片放置和路由(PnR);然而,英伟达的PrefixRL解决方案似乎在该公司的工作流程中创造了奇迹。

创建一个深度强化学习模型,旨在保持与EDA PnR尝试相同的延迟,同时实现更小的芯片面积,这是PrefixRL的目标。

根据NVIDIA技术博客介绍,最新的Hopper H100 GPU架构使用了PrefixRL AI模型设计的13000个算术电路实例。英伟达制作的模型输出的电路比同类EDA输出的电路小25%。这一切都在实现类似或更好的延迟。下面你可以在图中比较PrefixRL制作的64位加法器设计和一个业界领先的EDA工具制作的相同设计。

训练这样一个模型是一项计算密集型的任务。英伟达公司报告说,设计一个64位加法器电路的训练,每个GPU需要256个CPU核心和32000个GPU小时。该公司开发了Raptor,这是一个内部分布式强化学习平台,利用英伟达硬件的独特优势进行这种工业强化学习,你可以看到下面的内容以及它的操作方式:

总的来说,该系统相当复杂,需要大量的硬件和投入;然而,回报是更小、更高效的GPU。

本文到此结束,希望对大家有所帮助。

版权声明:转载此文是出于传递更多信息之目的。若有来源标注错误或侵犯了您的合法权益,请作者持权属证明与本网联系,我们将及时更正、删除,谢谢您的支持与理解。