您的位置:首页>汽车 >

史无前例!ChatGPT能设计芯片了,谷歌&英伟达&三星更早都在布局!|天天最新

2023-06-24 15:00:58    来源:程序员客栈


(相关资料图)

资料来源:arXiv等

作者:詹士 Enzo

物联网智库 原创

导读

史无前例的尝试!科学家已经开始使用ChatGPT设计芯片了。生成式人工智能正在迅速拓宽其应用边界,你可能以为它还只是一个聊天机器人,实际上,生成式AI已经能“造”芯片了。近日,纽约大学坦登工程学院的研究人员通过与AI“对话”,首次实现了由人工智能来设计一种微处理器芯片。该团队用“史无前例”描述此项研究。据称,这项成果的发布表明——生成式人工智能在硬件设计领域具备极高的潜在应用价值,这不仅会对整个半导体芯片的研发起到加速作用,同时意味着“高不可攀”的半导体芯片设计门槛也会降低,甚至并非专门拥有该领域技术技能的人也可以参与其中。作为参与者之一,纽约大学坦登工程学院电气与计算机工程系、纽约大学网络安全中心助理教授哈蒙德・皮尔斯博士(Dr. Hammond Pearce)自己坦言,“我根本不是芯片设计专家,这是我设计的第一块芯片,这也正是为什么我觉得它会如此令人印象深刻的原因。”目前该项研究已经发布在arxiv预印本平台上,论文题为ChipChat:对话式硬件设计的机遇与挑战。在论文中,研究团队展示了两名硬件工程师如何通过用英语与GPT-4“交流”,进而设计出新型微处理架构并送去制造的过程。他们到底如何完成ChipChat项目研究的?一起来看看。

一个“好奇”翻开了生成式AI的另一面

ChipChat项目的启动或许只是源于一个“好奇”。人工智能潮涌下,多数人对于大语言模型(LLM)的理解仍然停留在“好玩”,但皮尔斯博士显然并不这么认为。ChipChat项目就是要探索——现有的生成式AI大语言模型在硬件设计领域的能力和局限性。一般来说,开发任何类型的硬件,包括芯片在内,都需要从常用语言的需求描述开始,然后通过需求对接,再让专业的工程师用适合开发的语言对硬件进行描述。在上述过程中,我们需要将自然语言描述转换成硬件描述语言 (HDL),比如Verilog,这使得只有少数经多年培训的工程师才能上手。ChipChat项目正是面向该问题探索解决途径。为此,研究团队计划先通过对话的方式让AI生成相应代码,然后对代码加以检验,直到确认无误后,他们再将编写的Verilog交付工厂进行生产;基于上述思路,他们用提示词一同测试了OpenAI旗下ChatGPT的4和3.5版,以及谷歌的Bard和HuggingChat一共4种生成式对话AI,通过对话方式提供提示词,让它们设计一个8位移位寄存器。这4个大语言模型均为近期热门角色,其中,GPT-4发布于今年3月份,3.5版本的推出时间是在去年11月。HuggingChat是来自Huggingface平台的开源对话模型,推出时间为今年4月。初步测试显示,Bard和HuggingChat两个模型在测试中对话生成设计一直未能满足设计要求,研究团队尝试5次仍未能达标。相比下,两个版本ChatGPT的设计初步满足了设计规格要求。即便发生错误,经过调试,ChatGPT亦能自行调整代码,以达到人类要求:更进一步,研究团队让两个版本的ChatGPT面向更多需求进行相关设计,再依靠模拟反馈结果进行调试。这其中,“NFN”为无需反馈直接完成任务;“TF”指的是AI依据机器运行结果反馈,最终调整好了结果;“SHF”及“AHF”,为简单与复杂的人类反馈指导下AI完成了任务;倘若会话超过25条消息或需要人类上手,则视为失败,即“FAIL”。具体如下图。能看出GPT-4表现明显好于更早版本,面对诸多基准测试失败情况很少,且对话轮数也明显少于GPT-3.5。在前面基础上,研究者们通过124次对话成功让GPT-4设计出一个8位累加器微处理器,经由Skywater 130nm shuttle进行制造。团队声称,这项研究标志着大语言模型设计的 IC 首次真正投入生产。但值得一提的是,即便表现最好的GPT-4仍然耗费了研究者很多时间调试、不断给提示词,有的代码生成了数十次。且研究者承认,目前如果没有人类提示,AI还不能独立进行芯片设计,但作者仍然认为,它可以在设计通用模块时节省工程师们的时间。此外,他们还需要进一步测试来识别和解决 AI 用于芯片设计所涉及的安全问题。

生成式AI应用于芯片设计并非首次

介绍下本文的作者们。哈蒙德・皮尔斯博士是纽约大学坦登工程学院电气与计算机工程系、纽约大学网络安全中心的研究助理教授,主攻方向为信息物理系统(cyber-physical systems,CPS)及其网络安全,同时兼顾研究机器学习在该领域设计和应用中潜在的影响。除了前述提到的皮尔斯博士,ChipChat项目的其他成员也均来自于纽约大学坦登工程学院,包括拉梅什·卡里教授(Ramesh Karri)、研究所副教授希达赫·加尔格(Siddharth Garg)和博士生杰森·布洛克洛夫(Jason Blocklove)。拉梅什・卡里教授是洪堡奖学金的获得者(the recipient of the Humboldt Fellowship)和美国国家科学基金会职业将获得者(the National Science Foundation CAREER Award),在纽约大学坦登工程学院电气和计算机工程系任教授。迄今为止,他已经发布期刊和会议出版物超200件,包括多次在IEEE上发表署名文章。希达赫・加尔格在纽约大学坦登工程学院ECE研究所任副教授一职,其研究方向是机器学习、网络安全和计算机硬件设计。2015年,Siddharth Garg获得美国国家科学基金会职业奖。同时,他在计算机工程和计算机硬件领域的多个顶级会议的技术计划委员会任职,并担任IEEE和ACM多个期刊的审稿人。以上大牛们的尝试虽然听起来新潮,但事实上将AI应用于包括芯片在内的硬件设计已经并非一个新概念。早在2021年时,谷歌团队曾发布论文《A graph placement methodology for fast chip design》,其中就介绍了一种用于芯片版面规划的深度强化学习方案。通过该方法自动进行芯片版面规划,所需时间可以压缩到6小时以内,且设计出来的芯片在关键指标,如功耗、性能以及芯片面积等,均可相媲美人类设计的产品,甚至有过之而无不及。彼时,该团队还透露这一方法将会用在设计下一代人工智能加速器上,并且相比人类成果而言,可为每代加速器设计节省数千小时。除了谷歌之外,英伟达、三星、新思、Cadence等都在积极探索如何用深度强化学习设计芯片电路。在英伟达相关研究人员发布的论文《PrefixRL:Optimization of Parallel Prefix Circuits using Deep Reinforcement Learning》中提出了PrefixRL,该方法不仅证明AI可以从头开始设计电路,而且比EDA工具设计的更小、更快。在英伟达最新的Hopper架构中,就拥有13000个AI设计的电路的实例。值得补充的是,人工智能三巨头之一的LeCun最近在连线智源大会演讲中,重申了自己一如既往的观点:“基于自监督的语言模型无法获得关于真实世界的知识”。他继续补充道:“人类有许多知识是目前无法被语言系统所触达的”。由此可见,对话AI到底能不能参与芯片及硬件设计,目前还未达成共识。参考资料:

1.《Chip-Chat: Challenges and Opportunities in Conversational Hardware Design》,Jason Blocklove, Siddharth Garg, Ramesh Karri, Hammond Pearce

2.《Chip Chat: Conversations with AI models can help create microprocessing chips, NYU Tandon researchers discover》,NYU TANDON

3.《Exclusive Interview: NYU Team Taps ChatGPT to Design Processor From Scratch》,Jake Hertz

点击图片即可跳转报告链接

关键词:

相关阅读