4月14日消息,NVIDIA不但打造了強大的AI GPU,在全世界帶動了新一輪的AI浪潮,自己內(nèi)部也在大規(guī)模部署AI,包括GPU芯片設(shè)計流程。
NVIDIA首席科學(xué)家Bill Dally在與谷歌首席科學(xué)家Jeff Dean對話時提到,NVIDIA已經(jīng)在芯片設(shè)計階段大量應(yīng)用AI,包括設(shè)計探索、標準單元庫開發(fā)、Bug處理、驗證等不同階段。
不過他強調(diào),使用AI進行完全端到端的自動化芯片設(shè)計,依然為時尚早,但何時能夠?qū)崿F(xiàn),他不愿意輕易預(yù)言。

Dally分享了一個AI芯片設(shè)計的具體案例。
以往,NVIDIA將標準單元庫遷移到全新的制程工藝,需要一個8人團隊工作10個月,也就是80人月的工作量。
如今,NVIDIA有了基于強化學(xué)習(xí)的工具NB-Cell,已迭代兩三代,如今只需一塊GPU顯卡運行一夜,即可完成上述工作。
更關(guān)鍵的是,AI工具生成的單元在面積、功耗、延時方面,都達到甚至超越了人工設(shè)計的水平,從而可以快速部署新工藝。
Dally還提到了另一款內(nèi)部工具Prefix RL,針對的是一個長期研究的難題,即進位超前鏈中的超前級布局。
他聲稱,AI工具生成的布局,是“人類工程師永遠無法想到的”,而且關(guān)鍵性能指標比人工設(shè)計高了20-30%。
這表明,NVIDIA使用AI不僅僅是為了提高效率、節(jié)省時間和人工,更是為了探索超出人類常規(guī)直覺的設(shè)計方案。

Prefix RL
在更宏觀的層面上,Dally還透露,NVIDIA已經(jīng)在內(nèi)部運行兩款大語言模型:Chip Memo、Bug Nemo。
這些大模型基于NVIDIA專有數(shù)據(jù)進行了微調(diào),包括多年來GPU設(shè)計的寄存器傳輸級(RTL)代碼、架構(gòu)文檔。
Dally表示,它們帶來的實際收益之一,就是初級工程師遇到問題后,可以直接向大模型提問并獲得答案,不再需要反復(fù)向資深設(shè)計師請教,后者也可以專注于更高價值的工作。
同時,它們還能幫忙匯總Bug報告,并協(xié)助分配至對應(yīng)模塊或工程師。
值得一提的是,NVIDIA似乎沒有因為AI工具帶來的效率提升,而裁掉初級員工,反而是通過更高效的方式,培養(yǎng)他們快速進步。
相比于很多企業(yè)動不動用AI替代和淘汰員工,或許,這才是AI最平衡的應(yīng)用之道。

