本文轉(zhuǎn)載自:字母榜,作者:畢安娣,編輯:王靖。獵云網(wǎng)已獲授權(quán)。
OpenAI也在騎驢找馬,想要盡快擺脫對英偉達的依賴。
據(jù)路透社,至少從去年開始,OpenAI就已經(jīng)討論了各種方案,希望能解決芯片又貴又短缺的問題。其中,自研芯片是方案之一,目前這個方案仍然沒有被完全否定。
另一個方案是直接收購一家芯片公司。知情人士稱OpenAI已經(jīng)有潛在的收購目標,并曾考慮對其進行盡職調(diào)查。但報道中未能確定具體是哪家芯片公司。
巧合的是,另一個消息與之相伴而出——微軟將在下個月的年度開發(fā)者大會上,推出其首款為AI設(shè)計的芯片“雅典娜(Athena)”。
據(jù)The Information援引知情人士,雅典娜將用于數(shù)據(jù)中心服務(wù)器,為訓(xùn)練大語言模型等設(shè)計,同時支持推理,能為ChatGPT背后的所有AI軟件提供動力。
云已經(jīng)成為大模型的重要戰(zhàn)場,而微軟在該領(lǐng)域的兩個競爭對手谷歌和亞馬遜,都早已擁有了自己的AI芯片。雅典娜的推出將讓微軟補全短板。
微軟和OpenAI在芯片問題上的進展頗有代表意義:論角色,正是微軟、OpenAI和英偉達的三方聯(lián)手,讓ChatGPT變?yōu)楝F(xiàn)實,繼而引發(fā)了一場全球性的AIGC新浪潮;論時間,下個月正是ChatGPT推出整一年的節(jié)點。
大模型競爭的下一個焦點似乎是“誰能先‘甩’了英偉達”,在芯片領(lǐng)域具備統(tǒng)治力的英偉達,已經(jīng)成了一種亟需擺脫的束縛。
A
2016年,成立僅一年的OpenAI迎來一位貴客,英偉達CEO黃仁勛。他親自將首個輕量化小型超算DGX-1送給了OpenAI,OpenAI一年的計算量可以靠DGX-1在一個月內(nèi)完成。
如今,后知后覺的人們回頭看黃仁勛在DGX-1上的簽字“為了計算和人類的未來”,驚呼“皮衣教主”的毒辣眼光。
到了2019年,微軟牽手OpenAI,為其打造的超級計算機用上了上萬個英偉達A100 GPU。就這樣,OpenAI出力、微軟出錢、英偉達出基建,用驚人的算力支撐著OpenAI大模型的研發(fā),并最終大力出奇跡,ChatGPT于2022年11月推出,驚艷世界。
OpenAI成為明星企業(yè),微軟以AI戰(zhàn)略與谷歌等展開激烈廝殺,而英偉達公司市值更是從去年11月的3000多億美元,飆升到如今的超萬億美元。全球掀起大模型熱,英偉達作為“賣水翁”,芯片不愁賣。
今年7月,花旗研究分析師Christopher Danely在一份報告中指出,英偉達將占據(jù)AI芯片市場“至少90%”的市場份額。
然而,這場“三贏”的游戲中,卻可能只有黃仁勛是全然快樂的。對于微軟和OpenAI為代表的“買水人”來說,依賴英偉達的芯片至少有兩個問題。
第一個問題是貴。對于為OpenAI搭建的超算,據(jù)彭博社報道,微軟在該項目上的花費了數(shù)億美元。伯恩斯坦研究公司分析師Stacy Rasgon分析,ChatGPT每次查詢都要花費約4美分。如果ChatGPT的查詢量規(guī)模增長到谷歌搜索的十分之一,則需要大約481億美元的GPU,并且每年還需要160億美元的芯片才能維持運行。
第二個問題是稀缺。就在今年6月,OpenAI CEO阿爾特曼(Sam Altman)在一場會議上稱,芯片的短缺阻礙了ChatGPT的發(fā)展。面對客戶對API可靠性和速度的抱怨,阿爾特曼解釋大部分問題都是由于芯片短缺造成的。
今年新發(fā)布的英偉達H100是目前最熱門的AI芯片,但只能滿足一半的市場需求。英偉達H100和A100均由臺積電生產(chǎn),臺積電董事長劉德音上個月曾解釋稱,供應(yīng)限制不是由于缺物理芯片,而是先進芯片封裝服務(wù)(CoWos)的產(chǎn)能有限,而這是制造過程的關(guān)鍵步驟。
劉德音還預(yù)計,一年半后技術(shù)產(chǎn)能將足以滿足客戶需求,也就是2024年底AI芯片供應(yīng)緊張可能會得到緩解。
雖然雅典娜可能在今年才會推出,但微軟已經(jīng)為此準備多年。在豪擲數(shù)億美元為OpenAI打造超算的2019年,微軟的雅典娜項目已經(jīng)啟動。根據(jù)爆料,雅典娜會使用臺積電5nm工藝打造,直接對標英偉達A100,預(yù)計每顆成本降低三分之一。
B
對于英偉達來說,微軟和OpenAI的私心是一個紅色信號。
微軟是英偉達最大的客戶之一,甚至傳出過“包圓”H100全年產(chǎn)能的消息,OpenAI則是AIGC領(lǐng)域最重要的風向標。二者自研芯片的心,是英偉達頭頂?shù)囊荒踉啤?/p>
谷歌曾是最早大規(guī)模采購GPU來進行AI計算的公司,但后來研發(fā)自己的AI專用芯片。在2016年就已經(jīng)發(fā)布了第一代TPU(張量處理單元),隨后在2017年作為Google Cloud基礎(chǔ)設(shè)施Google TPU推出。這些年來谷歌一直在持續(xù)迭代,今年4月其公布了TPU v4的細節(jié),稱其比英偉達的A100強1.7倍。
雖然谷歌仍然在批量采購英偉達GPU,但其云服務(wù)已經(jīng)用上了自家的TPU。在這次的AIGC大戰(zhàn)中,AI繪圖公司Midjourney、有ChatGPT競品Cloude的獨角獸公司Anthropic,都不是像OpenAI一樣從英偉達采購芯片搭建超算,而是使用了谷歌的算力。
另一個科技巨頭亞馬遜也動作頗早,在2015年收購以色列芯片初創(chuàng)公司Annapurna Labs,為其云基礎(chǔ)設(shè)施開發(fā)定制芯片,三年后推出了基于Arm的服務(wù)器芯片 Graviton。后來,亞馬遜推出以人工智能為重點的芯片Inferentia, Trainium。
上個月,消息稱亞馬遜將向Anthropic投資40億美元,作為交易的一部分,Anthropic 將使用 AWS Trainium 和 Inferentia 芯片來構(gòu)建、訓(xùn)練和部署其未來的基礎(chǔ)模型。
除此之外,英偉達的其他競爭對手也在向AI芯片領(lǐng)域發(fā)起進攻。AMD、英特爾、IBM等正陸續(xù)推出AI芯片,試圖與英偉達的產(chǎn)品抗衡。今年6月,AMD就發(fā)布了Instinct MI300,直接對標英偉達H100,是專門面向AIGC的加速器。其集成的晶體管數(shù)量達到1530億,高于H100的800億,是AMD投產(chǎn)以來最大的芯片。AMD甚至用兼容英偉達CUDA的策略,降低客戶的遷移門檻。
不可否認的是,目前英偉達仍然幾乎壟斷AI芯片市場,沒有競爭對手撼動其地位,也沒有一家科技巨頭可以完全擺脫對它的依賴。
但“降低英偉達的控制力”似乎成為一種共識,外部挑戰(zhàn)一浪接著一浪。微軟和OpenAI自研芯片的消息,就是新的一浪。英偉達能穩(wěn)站岸頭嗎?