PTT評價

[情報] 中國推出世界首顆無干涉 AI全自動設計CPU

看板PC_Shopping標題[情報] 中國推出世界首顆無干涉 AI全自動設計CPU作者
giorno78
(天晴)
時間推噓38 推:42 噓:4 →:97

中國推出世界首顆無干涉 AI全自動設計CPU

https://new.qq.com/rain/a/20230630A07AQ100?no-redirect=1

中科院計算所的處理器晶片全國重點實驗室及其合作單位,
用AI技術設計出了世界上首個無人工干預、全自動生成的CPU晶片——啟蒙1號。

這顆完全由AI設計的32位RISC-V CPU,相比GPT-4目前所能設計的電路規模大4000倍,
並可運行Linux作業系統,且性能堪比Intel 486。

啟蒙1號處理器是基於RSIC-V指令集的,32位元架構,
早在2021年12月就已經完成流片驗證,之後中科院計算所還用它點亮了Linux作業系統,並運行了SPEC CPU2000測試程式,評估後認為性能跟Intel的40486相當。

啟蒙1號晶片版圖及實物圖,其中CPU核部分完全由演算法自動生成,晶片於2021年12月採用65nm工藝流片,運行頻率300MHz

這是全球首個無人工干預、全自動生成的CPU晶片,65nm工藝,頻率達到了300MHz
相關研究論文已經發表。

啟蒙1號是中科院研究人員基於BSD二元猜測圖(Binary Speculation Diagram, 簡稱BSD)演算法設計出來的,5個小時就生成了400萬邏輯門,
這個規模比GPT-4能設計的晶片大4000倍。

雖然啟蒙1號CPU的規模跟當前的頂級CPU還沒法比,但是AI技術的進步飛快,
未來AI設計晶片會成為主流,將極大地提高晶片設計效率。

啟蒙1號晶片可以成功運行Linux作業系統及性能對比(CPU-AI為啟蒙1號)

團隊介紹
自2008年起,中科院計算所便開始長期從事晶片設計和人工智慧的交叉研究。其中一項為人熟知的產出就是人工智慧晶片寒武紀。

而在面向晶片設計的人工智慧方法上,中科院計算所也已有十多年的積累,並且從未停止探索如何用人工智慧方法使得晶片設計完全自動化。

依託中國科學院計算技術研究所建立的處理器晶片全國重點實驗室,是中國科學院批准正式啟動建設的首批重點實驗室之一,並被科技部遴選為首批 20個標杆全國重點實驗室,2022年5月開始建設。其中,實驗室學術委員會主任為孫凝暉院士,
實驗室主任為陳雲霽研究員。

實驗室近年來獲得了處理器晶片領域首個國家自然科學獎等6項國家級科技獎勵;在處理器晶片領域國際頂級會議發表論文的數量長期列居中國第一;在國際上成功開創了深度學習處理器等熱門研究方向;孵化了總市值數千億元的國產處理器產業頭部企業。

使用ChatGPT設計的晶片
日前,國際上也有使用ChatGPT設計晶片的嘗試。紐約大學 Tandon 工程學院的研究人員使用簡單的英語“對話”與 AI 模型製造了一個微處理晶片,這是一項史無前例的成就,
可以加快晶片開發速度,更重要的是這將允許沒有專業技術技能的個人設計晶片。

兩名硬體工程師使用標準英語與ChatGPT-4“交談”,並設計了一種新型的微處理器架構
。研究團隊和 ChatGPT 設計的晶片並不是一個完整的處理器,它是整個 CPU 的一個部分:負責創建一個新穎的基於 8 位元累加器的微處理器架構的邏輯。該晶片隨後被送往
Skywater 130 nm 光刻機上進行製造。該團隊聲稱,這項研究標誌著 LLM 設計的 IC 首次真正投入生產。

該團隊使用 125 條消息成功創建了他們的 IC
累加器本質上是寄存器(記憶體),其中存儲中間計算的結果,直到主計算完成。但它們是 CPU 工作方式不可或缺的一部分;也許還可以設計其他必要的單元。這一成果表明,未來成為 EDA 設計師的知識門檻要低得多。也許有一天,足夠多的 CPU 碎片會被公開,這樣更多的ChatGPT用戶將可以在家裡設計他們的 CPU 架構。

研究人員使用商業和公開可用的大型語言模型 (LLM) 來研究八個硬體設計示例,在工程師和 LLM 之間的即時來回交互中,通過純英文文本處理其 Verilog (HDL) 等效。
“這項研究產生了我們認為是第一個完全由 AI 生成的 HDL,用於製造物理晶片,”紐約
大學 Tandon 的研究助理教授兼研究團隊成員 Hammond Pearce 博士說。“一些人工智慧模型,如 OpenAI 的 ChatGPT 和穀歌的 Bard,可以生成不同程式設計語言的軟體代碼,但它們在硬體設計中的應用尚未得到廣泛研究。這項研究表明 AI 也可以使硬體製造受益,尤其是當它被用於對話時,你可以通過一種有來有往的方式來完善設計。”

從這個實驗中,該團隊得出結論,
ChatGPT 確實可以將功能晶片設計為現實世界的解決方案。

==

心得:

有人說 2023年 才做出 486 有什麼好怕?

但這是在無人干涉下 讓 AI 自動迭代出來

就如同深度學習一樣 目標(準度)沒達到 再加更多迭代就好

怕了吧

User: 在 AI 極度普及的未來,有沒有可能用類似 chatGPT 的使用方式,
設計出比美現在頂極效能的 CPU?


chatGPT: 在 AI普及的未來,技術的發展可能會帶來一些突破,但是要設計出比現今頂尖效能的CPU
更加困難。ChatGPT是一種基於GPT-3.5模型的語言模型,並不是設計用於處理通用計算或執行特定任務的處理器。

現在的頂尖效能CPU(例如在超級電腦或數據中心使用的處理器)是由專業的半導體公司進行設計和製造的,他們投入了大量的時間、資源和專業知識,並且依賴於多個特殊化的設計技術和流程。這些頂級CPU的設計需要考慮到高性能運算、能耗效率、散熱管理、並且要兼容各種軟體和硬體。

AI技術的發展確實可能會對未來處理器的設計和性能產生影響。例如,將來可能會出現專為AI運算優化的處理器架構,以更好地支援AI相關任務。已經有一些類似的產品,如
Google的TPU(Tensor Processing Unit)和NVIDIA的GPU(Graphics Processing Unit),專為加速機器學習和深度學習任務而設計。這些專用的硬體設計在處理AI相關工作時通常比通用CPU更有效率。

因此,未來的處理器可能會利用AI技術和相關的硬體加速器進行優化,以提供更好的性能和效能。但是,要設計出比現在頂尖效能的CPU更加困難,因為它涉及到眾多複雜的工程和物理問題。無論如何,技術的進步和創新總是令人期待的,未來可能會帶來一些意想不到的突破和改變。


Bing: 您好,這是必應。感謝您的提問。
根據我的搜索結果,目前還沒有用類似 chatGPT 的方式設計出比現在頂級效能的 CPU 的案例。但是,有一些研究和專案正在探索 AI 在 CPU 設計中的應用和潛力。
例如,中科院計算所等機構推出了世界首個完全由 AI 設計的 CPU 晶片,不僅比目前
GPT-4 所能設計的電路規模大了 4000 倍,而且性能也達到了與 Intel 486 相當的水準1。
另外,英特爾® 至強® 可擴展處理器配備了內置的 AI 引擎,可以全面提升 AI 流水線
性能,支援從資料預處理、經典機器學習,到語言處理和圖像識別等深度學習模型。它們還利用了英特爾® 高級矩陣擴展(Intel®Advanced Matrix Extensions,英特爾® AMX
)和英特爾® 深度學習加速技術(Intel®Deep Learning Boost,英特爾® DL Boost)
等技術來加速深度學習訓練和推理2。
我認為,在 AI 極度普及的未來,使用類似 chatGPT 的方式設計 CPU 是有可能的,但也需要解決一些技術和成本的挑戰。我希望這些資訊對您有説明。如果您有其他問題,請隨時提問。


Claude: 這是一個很有趣的想法。理論上,如果AI系統具有足夠的計算能力和對半導體設計的深入
理解,它就有可能設計出比目前最高效能的CPU更強大的處理器。但是,實現這一目標還面臨著許多挑戰:

處理器設計是一項非常複雜的工程,需要對電子工程,物理和計算機架構等領域有深入的理解。目前的AI系統的知識還遠遠不能滿足這些要求。

處理器設計需要大量的創造性和直覺,需要在不同的設計選擇和取捨中作出判斷。這需要一種更加通用和靈活的人工智能,而不是像GPT這樣靠大量數據訓練的模型。

處理器的設計和驗證過程需要對真實世界的理解。例如需要考慮製造工藝,測試處理器的可靠性和性能等,這需要機器具有對實際世界更好的理解能力。

目前的AI系統都只能在軟件層面運作,實際的硬件設計和驗證還需要人類工程師的參與。要實現全自動的AI晶片設計,還需要突破AI系統與物理世界的聯繫。

所以,儘管這是一個非常有前景的方向,但要實現像GPT那樣的AI系統設計超高效能的處理器,還有很長的路要走。需要AI技術在許多方面的進步,特別是通用學習,對真實世界的理解,以及與物理系統的結合等。






--

※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.228.222.170 (臺灣)
PTT 網址
※ 編輯: giorno78 (36.228.222.170 臺灣), 07/01/2023 21:25:42

AreLies 07/01 21:24用敵國研發的AI 研發自己的CPU

dvdr2001 07/01 21:29還不快設計個能飛天遁地的CPU

spfy 07/01 21:31呃 我不懂AI也不懂設計晶片 但更多迭代就能

spfy 07/01 21:32從486變P4變Core i?

wolver 07/01 21:33複製 貼上

crystal0504 07/01 21:35就直說吧,這次拿哪顆intel來貼牌

kisia 07/01 21:35有沒有先把頂蓋擦乾淨

dandes0227 07/01 21:36連中國人都不信

TSW 07/01 21:37如果AI迭代速度比人類快的話..是有可能追上

lazioliz 07/01 21:37chatGPT要怎麼輸出設計啊 文字輸出嗎?

TSW 07/01 21:38但不知道會是幾百年後了

jcjou 07/01 21:38Intel的40486? 好害怕!生出了平行宇宙CPU

hungtp0706 07/01 21:39這就美國現在重點計畫啊,叫OpenROAD

hungtp0706 07/01 21:40重點在於無人為干涉生出一顆CPU

ppt12527 07/01 21:40啟蒙1號後下一顆叫啟智2號

WYchuang 07/01 21:43CPU設計 要頂尖就得跟晶圓製造端互相搭

WYchuang 07/01 21:43配 ChatGpt應該沒辦法做3nm …

wahaha99 07/01 21:442023年做出486很厲害 尤其是

wahaha99 07/01 21:4465nm/300Mhz的晶片性能只有486

wahaha99 07/01 21:45這新聞到底在說三小 如果用486的製程

wahaha99 07/01 21:45跟速度 這顆簡直比8051 MCU還糟糕

StarRoad 07/01 21:46頂多自動產生成熟製程的IC layout,對

StarRoad 07/01 21:46先進製程的推動毫無用處

wild2012 07/01 21:54AI都能自己寫程式了 設計東西也沒問題

cannedtuna 07/01 21:55讚 讓ai設計自己的硬體 搶著做出天網

Benefits 07/01 21:56你是中華民國還是中華人民共和國的中科

Benefits 07/01 21:56院?

ChangWufei 07/01 21:57感覺科幻作內AI會自我進化增殖的時代

ChangWufei 07/01 21:57慢慢地要成真了

wild2012 07/01 22:05但是AI的缺點也很明顯 無法有新產物

wild2012 07/01 22:05都是遵循 既有規則

xxxzxcvb 07/01 22:15老黃會不會早就這樣設計GPU了?

cannedtuna 07/01 22:15看看stable diffusion再跟我說一次ai

cannedtuna 07/01 22:15沒有創造力

xxxzxcvb 07/01 22:17alphago早就證明ai有創造力了

aegis43210 07/01 22:18主要是對成熟製程的IC設計服務商有影

aegis43210 07/01 22:18

aegis43210 07/01 22:20尤其是IC設計電路代工

jim543000 07/01 22:24看愣了一下 我以為時空倒轉回2003年

guanting886 07/01 22:24我有便宜、合理成本的成本可以取得

guanting886 07/01 22:24已經驗證過的成熟製程相關產品 我何

guanting886 07/01 22:24必要跟Ai對賭?

guanting886 07/01 22:26Stable Diffusion 的用戶又不用為他

guanting886 07/01 22:26產出來的圖付出什麼代價

commandoEX 07/01 22:32AI自我設計的電路是不是就沒人知道怎

commandoEX 07/01 22:32解BUG了?

stepnight 07/01 22:36你信嗎?我是不信

aegis43210 07/01 22:40這是給第三世界的新玩家用的,可以大

aegis43210 07/01 22:40幅縮短學習曲線

aegis43210 07/01 22:41IC設計在地化也是趨勢了

n2346879328 07/01 22:4265nm … 浪費沙子的電子垃圾

darktasi 07/01 22:4665nm我笑了

※ 編輯: giorno78 (36.228.222.170 臺灣), 07/01/2023 22:51:38

mainsa 07/01 22:53我還以為現在是2023年 這到底.... 另外486

comipa 07/01 22:5365nm拿來proof of concept可以了啦

Fezico 07/01 22:53我是比較好奇AI自研的東西還是要使用者

comipa 07/01 22:53效能跟製程跟本不是重點

Fezico 07/01 22:54先餵東西後去運算,這樣能弄出突破現今

mainsa 07/01 22:54cpu i皇是用1~0.6um製程製造的 用65nm只能

Fezico 07/01 22:54既有框架外的東西出來?

mainsa 07/01 22:54做出這種等級 根本比垃圾還不如欸

cms6384 07/01 22:57居然用洋人的ChatGPT設計晶片是不是乳滑

nimaj 07/01 22:57製程外 當初486工作頻率只有33 66 100

catclan 07/01 23:03沒有原始資料怎麼生出來?

tommy123310 07/01 23:10抱歉我文組 請問目前每年cpu/顯卡的

tommy123310 07/01 23:10效能提升 是工藝進步還是設計啊

stepnight 07/01 23:24用chatGPT的是紐約大學的

cloudpart2 07/01 23:28中國不是禁GPT?

wahaha2005 07/01 23:29之後AI會否判斷中國不應存在

stepnight 07/01 23:35有點佩服幾位的閱讀能力

stepnight 07/01 23:35內文一直提到GPT是為了踩GPT

stepnight 07/01 23:35不是說使用chatGPT設計,後段的是

stepnight 07/01 23:35紐約大學使用chatGPT4的研究成果

geniusw 07/01 23:47太神啦!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!

leonhung97 07/01 23:55中國XDD

leviva 07/02 00:15堪比486......

d92100 07/02 00:42這種方式能搞出的新架構不還是要有對應的

d92100 07/02 00:42製程~這樣到底有沒辦法突破舊框架還是像

d92100 07/02 00:42一些獵奇ai繪圖一樣搞出一堆詭異無用的架

d92100 07/02 00:42構?

cohj 07/02 00:49中國應該比較需要能設計出先進光刻機的ai

vwpassat 07/02 00:54又是哪一顆CPU,被Remark了?

viewer1946 07/02 00:56贏了 https://i.imgur.com/x7lUiOu.

viewer1946 07/02 00:56jpg

kaltu 07/02 01:39stable diffusion 也只能生出laten space內

kaltu 07/02 01:39的東西,頂多算插值演算法創造個雕

andy199113 07/02 01:40嘴砲

kaltu 07/02 01:42現在基於資料科學下機器學習的AI依然完美跟

kaltu 07/02 01:42從資料科學的garbage in garbage out原則

kaltu 07/02 01:42模型再好都不可能輸出訓練集沒有span到的se

kaltu 07/02 01:42arch space,這叫哪門子創造力

kaltu 07/02 01:47他現在能從學到的權重span的laten space裡

kaltu 07/02 01:47面抽取出用現代製程也只能跑486的IC,是因

kaltu 07/02 01:47為他的訓練集中看過更先進的設計

kaltu 07/02 01:49現代AI只能有損轉化他學過的東西,這個轉化

kaltu 07/02 01:49必定有損耗,輸出的一定比輸入劣化一截,就

kaltu 07/02 01:49算能無損也無法超越

kaltu 07/02 01:49創造力,你先做出一個系統可以只吃過劣質輸

kaltu 07/02 01:49入就能憑空或者重新安排從輸入學到的內容生

kaltu 07/02 01:49出高品質的輸出再來談創造力

menchian 07/02 01:55AI都知道要講話要有邏輯,文章停頓要有

menchian 07/02 01:55逗號,就你不知道。

cannedtuna 07/02 02:25樓上是不是在尋找阿發狗

cannedtuna 07/02 02:27人類也沒有無中生有的能力

cannedtuna 07/02 02:27不過就是收到的資訊再重組而已

cannedtuna 07/02 02:27需要創新?嗑個藥讓你的感官發瘋就有

cannedtuna 07/02 02:27靈感了

cannedtuna 07/02 02:29同理 喂點奇怪的東西給AI就能幫助打

cannedtuna 07/02 02:29破框架

moonkuma 07/02 08:13性能這麼差大概是設計的bug太多拖慢運算

zoo0602 07/02 08:23這些人真好賺美其名無人干涉就只需翻牆再

zoo0602 07/02 08:23來個複製貼上薪水就入口袋了

codehard 07/02 09:01抓一萬隻猴子 給他無限制的食物 關起來

codehard 07/02 09:01十萬年 之後就會得到一部猴子的相對論

klm619 07/02 09:12推84樓k大,現階段AI還是停留在接收指令

klm619 07/02 09:12照樣造句,離從無到有還有很大一步,當AI

klm619 07/02 09:12自己產生好奇心後再來討論創造或許更恰當

ltytw 07/02 09:14至少能動會動 先求有 再求好

DELETE001 07/02 09:22下一代 低能一號

rogergon 07/02 10:18300MHz的32位元處理器,486的效能?

milkBK 07/02 11:11你要確定這是ai生出來的 而不是馬甲486

a2935373 07/02 11:11初代486才16MHz的樣子XD 這IPC簡直垃圾

stepnight 07/02 11:49現在AI就是餵給他A、B、C資料

stepnight 07/02 11:49然後AI學習可能從B+C做出不一樣的事

stepnight 07/02 11:49但你要他創出D全新的資料就沒辦法

lifeowner 07/02 12:3665nm 應能跑1Ghz以上

lifeowner 07/02 12:37生成學習並不是加法 而是找出資料背後

lifeowner 07/02 12:37的機率分佈 然後一直機率模型再重新採

lifeowner 07/02 12:37

lifeowner 07/02 12:38如果你用眼睛看就能看出資料背後的機率

lifeowner 07/02 12:38分佈 那當然就不需要使用生成學習了

kkcity59 07/02 16:18重點是...五小時吧。只花了五個小時ㄟ..

geesegeese 07/02 16:21希望繼續研發,這種需要不少資金

lpoijk 07/02 17:14AI是能去蒐集市場需求生出來新指令還是設

lpoijk 07/02 17:14計新ip嗎?迭代很多次就能生出新架構嗎?

lpoijk 07/02 17:14AI設計cpu不就笑話嗎?

Onizuka23 07/02 19:17ai做的會比較便宜嗎

Mrjc 07/02 20:37他是連蝕刻風險都一起計算,然後耗時5小時

Mrjc 07/02 20:37嗎?

BIGETC 07/02 20:41和486相當的性能 讚

gameguy 07/02 22:16紙上談芯

Tsukasa0320 07/03 06:07確定不是用磨砂機?

li666 07/03 11:53新聞稿AI寫的?

truthmanman 07/03 15:32偉大的祖國就是不一樣