剛剛,英偉達(dá)(NVIDIA)宣布了一項(xiàng)重磅計(jì)劃:“首次在美國(guó)造AI超級(jí)計(jì)算機(jī)”。
官網(wǎng)中寫(xiě)道:
“NVIDIA正在與合作伙伴一起,委托了超過(guò)100萬(wàn)平方英尺的工廠,用于在亞利桑那州制造和測(cè)試 NVIDIA Blackwell 芯片,以及在德克薩斯州制造和測(cè)試AI超級(jí)計(jì)算機(jī)。”
但別被標(biāo)題迷惑了——這并不是簡(jiǎn)單的芯片制造升級(jí),而是一場(chǎng)涉及全球資源整合、本土化生產(chǎn)能力擴(kuò)展的復(fù)雜戰(zhàn)略布局。
“芯”連“芯”:NVIDIA的超算聯(lián)盟
拆解說(shuō)明一下英偉達(dá)的具體操作,這家公司的規(guī)劃非常完整:
第一,NVIDIA計(jì)劃在德克薩斯州建設(shè)「超級(jí)計(jì)算機(jī)制造工廠」,其中一個(gè)在休斯頓與富士康合作建設(shè),另一個(gè)在達(dá)拉斯與緯創(chuàng)資通合作建設(shè),預(yù)計(jì)這兩家工廠將在未來(lái)12-15個(gè)月內(nèi)實(shí)現(xiàn)大規(guī)模量產(chǎn)。NVIDIA Blackwell 芯片已經(jīng)在臺(tái)積電位于亞利桑那州鳳凰城的芯片工廠投產(chǎn)了。
第二,NVIDIA還拉上了Amkor和SPIL這兩個(gè)封裝測(cè)試界的大腕,在亞利桑那州開(kāi)展封裝和測(cè)試業(yè)務(wù)。(某種程度上,這是一個(gè)mini版的亞洲電子制造生態(tài)系統(tǒng)。)
第三,未來(lái)四年,NVIDIA 計(jì)劃通過(guò)與臺(tái)積電、富士康、緯創(chuàng)資通、Amkor和SPIL的合作,在美國(guó)生產(chǎn)價(jià)值5000億美元的AI 基礎(chǔ)設(shè)施。
美國(guó)制造≠芯片制造:核心在于系統(tǒng)組裝
NVIDIA 此次宣稱將在美國(guó)生產(chǎn)價(jià)值5000億美元的 AI 基礎(chǔ)設(shè)施,但這里的重點(diǎn)并不能理解為是我們常聽(tīng)到的詞語(yǔ)“造芯”,而是“組裝和集成”完整的 AI 超算系統(tǒng)。
所以,我們需要分清楚兩個(gè)概念:芯片制造和系統(tǒng)集成。
一方面,“芯片制造”是指從硅片到成品芯片的復(fù)雜工藝,這部分仍然主要依賴臺(tái)積電等亞洲廠商。另一方面,NVIDIA 的“美國(guó)制造”更多指的是后期的制造、封裝、測(cè)試和系統(tǒng)級(jí)組裝——也就是把全球采購(gòu)的核心零部件整合成一個(gè)完整的計(jì)算系統(tǒng)。
舉個(gè)例子,這就像拼裝一輛超跑:發(fā)動(dòng)機(jī)可能來(lái)自意大利,車身材料可能來(lái)自德國(guó),這些組件像候鳥(niǎo)一樣在全球各地流轉(zhuǎn),最終在美國(guó)完成“組裝”。
全球供應(yīng)鏈的復(fù)雜性:美國(guó)制造的背后沒(méi)有改變?nèi)蚧?/strong>
電子產(chǎn)品,尤其是高端計(jì)算設(shè)備,幾乎是全球化供應(yīng)鏈的最佳范例。從芯片到 PCB(印刷電路板),從內(nèi)存到散熱組件,各個(gè)零部件分布在全球不同國(guó)家生產(chǎn)。
英偉達(dá)的 Blackwell 芯片仍然依賴臺(tái)積電的最先進(jìn)制程(目前主要在中國(guó)臺(tái)灣和亞利桑那州的工廠完成),而封裝測(cè)試環(huán)節(jié)則交由 Amkor 和 SPIL 等公司負(fù)責(zé)。富士康和緯創(chuàng)資通負(fù)責(zé)整機(jī)組裝,分別在德克薩斯州的休斯頓和達(dá)拉斯建廠——這套供應(yīng)鏈網(wǎng)絡(luò)雖然在地理上分散,但通過(guò)美國(guó)本土的最終組裝。
至于 “美國(guó)制造”的時(shí)機(jī)為何選擇此時(shí)?我們這里不用多贅述了,懂得都懂。
Blackwell 芯片:下一代 AI 超算的核心
至于這次官宣的主角,讓我們簡(jiǎn)單了解一下 Blackwell 芯片,它是英偉達(dá)繼 H100 之后的下一代計(jì)算架構(gòu),在去年的GTC2024大會(huì)上宣布。
BlackWell的單顆芯片集成高達(dá)2080億個(gè)晶體管,將兩塊超大芯片通過(guò)每秒10TB高速互連整合為一體,突破了單芯片物理極限,帶來(lái)了算力和能效提升。Blackwell架構(gòu)配備第二代Transformer Engine和第五代Tensor Core,支持FP4等新精度格式,顯著加速大模型訓(xùn)練與推理,單芯片AI算力可達(dá)20 PetaFLOPS,支持10萬(wàn)億參數(shù)級(jí)別的生成式AI模型。所以根據(jù)英偉達(dá)的官方描述,NVIDIA Blackwell架構(gòu)是專為訓(xùn)練和運(yùn)行大規(guī)模 AI 模型而設(shè)計(jì)。
NVIDIA這次還在官網(wǎng)中寫(xiě)道:“NVIDIA AI超級(jí)計(jì)算機(jī)是新型數(shù)據(jù)中心的引擎,這種數(shù)據(jù)中心專為處理人工智能而打造——AI 工廠,是驅(qū)動(dòng)全新 AI 產(chǎn)業(yè)的基礎(chǔ)設(shè)施,預(yù)計(jì)未來(lái)幾年將建成數(shù)十座“千兆瓦 AI 工廠”,為美國(guó) AI 工廠生產(chǎn)的NVIDIA AI 芯片和超級(jí)計(jì)算機(jī),預(yù)計(jì)將在未來(lái)幾十年創(chuàng)造數(shù)十萬(wàn)個(gè)就業(yè)崗位,并帶來(lái)數(shù)萬(wàn)億美元經(jīng)濟(jì)。
官網(wǎng)還寫(xiě)道:“NVIDIA 將利用其先進(jìn)的人工智能、機(jī)器人和數(shù)字孿生技術(shù)來(lái)設(shè)計(jì)和運(yùn)營(yíng)這些設(shè)施,包括使用 NVIDIA Omniverse 創(chuàng)建工廠的數(shù)字孿生,以及使用 NVIDIA Isaac GR00T 構(gòu)建機(jī)器人以實(shí)現(xiàn)制造自動(dòng)化。”
例如,借助 NVIDIA Omniverse 平臺(tái),英偉達(dá)可以創(chuàng)建工廠的數(shù)字孿生,在虛擬環(huán)境中模擬生產(chǎn)流程、優(yōu)化布局、預(yù)測(cè)潛在問(wèn)題。此外,使用 NVIDIA Isaac GR00T實(shí)現(xiàn)制造自動(dòng)化,這意味著英偉達(dá)不僅在造AI芯片,還在用 AI 來(lái)優(yōu)化生產(chǎn)效率。這種“AI 制造 AI”的自洽邏輯令人印象深刻。
對(duì)于這一舉措,我想可以做兩點(diǎn)理解。
首先,這是AI算力產(chǎn)業(yè)鏈形態(tài)發(fā)生微妙變化的一個(gè)信號(hào)。以Blackwell為核心的AI系統(tǒng)正嘗試在美國(guó)本土完成后段制造和部署閉環(huán),這意味著產(chǎn)業(yè)邏輯正從“芯片即產(chǎn)品”轉(zhuǎn)向“系統(tǒng)即平臺(tái)”。
其次,從產(chǎn)業(yè)趨勢(shì)來(lái)看,AI超級(jí)計(jì)算系統(tǒng)將逐漸演變?yōu)?ldquo;AI工廠”的標(biāo)準(zhǔn)化單元。NVIDIA所謂的“AI制造AI”路徑——通過(guò)Omniverse打造數(shù)字孿生工廠、通過(guò)Isaac平臺(tái)推進(jìn)機(jī)器人制造自動(dòng)化——正在使生產(chǎn)與設(shè)計(jì)融為一體。這種具備自我演化能力的AI基礎(chǔ)設(shè)施,將成為未來(lái)十年影響深遠(yuǎn)的產(chǎn)業(yè)變量。
總結(jié)來(lái)看,英偉達(dá)的布局,不只是對(duì)現(xiàn)有算力需求的響應(yīng),更是對(duì)AI工業(yè)化路徑的一次預(yù)演。它展現(xiàn)了一個(gè)可能的方向:AI產(chǎn)業(yè)從“模型即產(chǎn)品”的技術(shù)驅(qū)動(dòng),過(guò)渡到“算力即基建”的系統(tǒng)驅(qū)動(dòng),未來(lái)的競(jìng)爭(zhēng),也將更多集中于誰(shuí)能更快、更穩(wěn)、更廣泛地完成AI系統(tǒng)的部署與運(yùn)營(yíng)。
好文章,需要你的鼓勵(lì)
這項(xiàng)研究探索了如何通過(guò)"LLM情境調(diào)節(jié)"和"持續(xù)工作流程提示"技術(shù)來(lái)提高大型語(yǔ)言模型在驗(yàn)證化學(xué)分子式時(shí)的準(zhǔn)確性。研究者發(fā)現(xiàn),普通提示方法往往不可靠,因?yàn)長(zhǎng)LM傾向于自動(dòng)"糾正"錯(cuò)誤而非指出它們。然而,通過(guò)精心設(shè)計(jì)的情境調(diào)節(jié)提示,研究成功引導(dǎo)Gemini 2.5 Pro不僅識(shí)別出文本中的錯(cuò)誤,還發(fā)現(xiàn)了之前人工審閱未察覺(jué)的圖像中的分子式錯(cuò)誤。這一概念驗(yàn)證研究表明,即使不修改模型本身,也能通過(guò)適當(dāng)?shù)奶崾静呗燥@著提高LLM在科學(xué)技術(shù)文檔細(xì)節(jié)驗(yàn)證中的表現(xiàn)。
復(fù)旦大學(xué)研究團(tuán)隊(duì)開(kāi)發(fā)的uLLSAM模型成功將多模態(tài)大語(yǔ)言模型(MLLMs)與分割一切模型(SAM)結(jié)合,解決了顯微鏡圖像分析的跨域泛化難題。通過(guò)創(chuàng)新的視覺(jué)-語(yǔ)言語(yǔ)義對(duì)齊模塊(VLSA)和語(yǔ)義邊界正則化(SBR)技術(shù),該模型在9個(gè)領(lǐng)域內(nèi)數(shù)據(jù)集上提升了7.71%的分割準(zhǔn)確度,在10個(gè)從未見(jiàn)過(guò)的數(shù)據(jù)集上也展現(xiàn)了10.08%的性能提升。這一統(tǒng)一框架能同時(shí)處理光學(xué)和電子顯微鏡圖像,大大提高了生物醫(yī)學(xué)圖像分析的效率和準(zhǔn)確性,為科研人員提供了強(qiáng)大的自動(dòng)化分析工具。
斯坦福大學(xué)等機(jī)構(gòu)研究團(tuán)隊(duì)利用強(qiáng)化學(xué)習(xí)訓(xùn)練大語(yǔ)言模型,使其能夠優(yōu)化匯編代碼性能。研究構(gòu)建了8,072個(gè)程序的數(shù)據(jù)集,并通過(guò)近端策略優(yōu)化(PPO)訓(xùn)練模型生成既正確又高效的匯編代碼。實(shí)驗(yàn)表明,訓(xùn)練后的Qwen2.5-Coder-7B-PPO模型實(shí)現(xiàn)了96.0%的測(cè)試通過(guò)率和1.47倍平均加速比,超越包括Claude-3.7-sonnet在內(nèi)的所有其他模型。研究發(fā)現(xiàn)模型能識(shí)別編譯器忽略的優(yōu)化機(jī)會(huì),如用單一指令替代整個(gè)循環(huán),為性能敏感應(yīng)用提供了有價(jià)值的優(yōu)化途徑。
這項(xiàng)研究提出了一種改進(jìn)的聲樂(lè)效果風(fēng)格遷移方法,通過(guò)在推理時(shí)間優(yōu)化過(guò)程中引入高斯先驗(yàn)知識(shí),解決了傳統(tǒng)ST-ITO方法忽視參數(shù)合理性的問(wèn)題。研究團(tuán)隊(duì)基于DiffVox數(shù)據(jù)集構(gòu)建了專業(yè)效果器參數(shù)分布模型,將風(fēng)格遷移轉(zhuǎn)化為最大后驗(yàn)概率估計(jì)問(wèn)題。實(shí)驗(yàn)結(jié)果表明,該方法顯著優(yōu)于基準(zhǔn)方法,參數(shù)均方誤差降低了33%,并在主觀聽(tīng)感測(cè)試中獲得最高評(píng)分。這一創(chuàng)新為音頻處理領(lǐng)域融合數(shù)據(jù)驅(qū)動(dòng)和專業(yè)知識(shí)提供了新思路。
關(guān)注科技創(chuàng)新、技術(shù)投資。
以文會(huì)友,左手硬核科技,右手浪漫主義。