英偉達(dá)(NVIDIA)作為全球領(lǐng)先的半導(dǎo)體公司,以其在人工智能和圖形處理領(lǐng)域的創(chuàng)新技術(shù)而聞名。然而,近年來(lái),英偉達(dá)面臨著來(lái)自競(jìng)爭(zhēng)對(duì)手和市場(chǎng)變化的巨大壓力。本文將探討英偉達(dá)在軟件基礎(chǔ)設(shè)施、市場(chǎng)競(jìng)爭(zhēng)和估值等方面所面臨的挑戰(zhàn),并分析其應(yīng)對(duì)之策。同時(shí),我們將審視英偉達(dá)在這個(gè)充滿(mǎn)變數(shù)和機(jī)遇的領(lǐng)域中的角色和前景。讓我們一起深入了解英偉達(dá)所面臨的挑戰(zhàn)與機(jī)遇,以及其如何保持領(lǐng)先地位。
一、英偉達(dá)乘著AI浪潮成為贏家
英偉達(dá)(NVIDIA)是一家主要生產(chǎn)圖形處理單元(GPU)的公司,而如今,GPU在巨大工作量的浮點(diǎn)數(shù)學(xué)運(yùn)算方面表現(xiàn)出色。雖然早期主要用于支持計(jì)算機(jī)上配備高幀率和高分辨率顯示器的圖形處理,但英偉達(dá)在2005年左右意識(shí)到GPU在其他實(shí)際應(yīng)用場(chǎng)景中的潛力。從那時(shí)起,他們開(kāi)始致力于研發(fā),將GPU應(yīng)用于圖形處理以外的工作負(fù)載。
2012年,英偉達(dá)的努力開(kāi)始見(jiàn)到回報(bào)。全球首個(gè)高質(zhì)量圖像識(shí)別人工智能(AI)模型——AlexNet,就是建立在英偉達(dá)的GPU加軟件之上,并在ImageNet比賽中一舉擊敗其他競(jìng)爭(zhēng)對(duì)手。從那時(shí)起,除了谷歌之外,英偉達(dá)的軟硬件組合就成為所有從事AI研究的公司的默認(rèn)選擇。
之后,英偉達(dá)將GPU的研發(fā)分為兩個(gè)方向:一是PC端和加密貨幣work設(shè)備,二是數(shù)據(jù)中心GPU。PC端的GPU產(chǎn)品相對(duì)昂貴,最高售價(jià)可達(dá)1600美元左右;而數(shù)據(jù)中心GPU的價(jià)格更加夸張,高達(dá)1萬(wàn)到1.5萬(wàn)美元,甚至有旗艦單卡售價(jià)4萬(wàn)美元的情況出現(xiàn)。英偉達(dá)的數(shù)據(jù)中心GPU擁有約75%的毛利率,在硬件領(lǐng)域幾乎是前所未有的。
然而,這種實(shí)質(zhì)性壟斷地位是該公司在AI軟硬件領(lǐng)域取得成功后的自然結(jié)果。自2012年以來(lái),英偉達(dá)的GPU和軟件使得AI模型的體量呈指數(shù)級(jí)增長(zhǎng)。
在2012年之前的幾年里,模型的體量大致按照摩爾定律每?jī)赡暝黾右槐。但?012年開(kāi)始,每個(gè)技術(shù)公司都開(kāi)始使用英偉達(dá)的GPU進(jìn)行機(jī)器學(xué)習(xí)研究,模型的體量增長(zhǎng)速度也開(kāi)始加快,每3到4個(gè)月就翻一番。這樣的增長(zhǎng)速度一直持續(xù)到ChatGPT模型的出現(xiàn)。其中最著名的模型之一是AlphaGo,它在圍棋比賽中表現(xiàn)出色,幾乎碾壓人類(lèi)選手。直到2021年,當(dāng)時(shí)最大的AI模型也只能玩一些游戲而已。
模型的大小很重要,因?yàn)樵谏a(chǎn)環(huán)境中構(gòu)建和運(yùn)行這些模型的成本隨著模型體量的增加呈指數(shù)級(jí)增長(zhǎng)。例如,GPT-4的體量是其前身GPT-3.5的3到6倍。然而,OpenAI為GPT-4 API提出的訂閱費(fèi)卻高出15到60倍。此外,需要強(qiáng)調(diào)的是,OpenAI開(kāi)放的并不是GPT-4的最佳版本。托管OpenAI大語(yǔ)言模型的微軟Azure無(wú)法提供足夠的GPU來(lái)支持這項(xiàng)業(yè)務(wù),因此大部分有限資金的客戶(hù)暫時(shí)無(wú)法使用最強(qiáng)大的語(yǔ)言模型。此外,GPU供應(yīng)短缺也阻礙了其他各種服務(wù)的實(shí)施。
舉個(gè)簡(jiǎn)單的例子,讓ChatGPT為即將召開(kāi)的美聯(lián)儲(chǔ)會(huì)議寫(xiě)一首詩(shī),輸入3個(gè)提示詞,讓它輸出一首28行的詩(shī)?纯丛贠penAI API上執(zhí)行這樣一個(gè)簡(jiǎn)單任務(wù)需要花費(fèi)多少錢(qián)。
價(jià)格之所以大幅上漲,原因在于英偉達(dá)數(shù)據(jù)中心GPU的供應(yīng)緊缺。由于資源有限,目前GPT-4 32k服務(wù)仍無(wú)法全面推出。
雖然在研究階段,大語(yǔ)言模型已經(jīng)確立了體量越大成本越高的趨勢(shì),但在生產(chǎn)層面上,大規(guī)模推理帶來(lái)了更加夸張的資源需求和設(shè)施開(kāi)銷(xiāo)。突然之間,AI技術(shù)的經(jīng)濟(jì)邏輯發(fā)生了變化。過(guò)去十年間,每個(gè)人都在使用英偉達(dá)的軟硬件進(jìn)行模型研究,所以現(xiàn)在大部分收入都被英偉達(dá)賺走了。
多年來(lái),隨著收入迅速增長(zhǎng),微軟在智能云領(lǐng)域建立了強(qiáng)大的市場(chǎng)影響力。然而,當(dāng)被迫大量采購(gòu)GPU來(lái)支持ChatGPT的生產(chǎn)應(yīng)用時(shí),好日子終于宣告結(jié)束。微軟的云運(yùn)營(yíng)利潤(rùn)率連續(xù)四個(gè)季度下降,這主要是因?yàn)橛ミ_(dá)數(shù)據(jù)中心GPU高達(dá)75%的毛利率。
面對(duì)英偉達(dá)DGX H100這樣的AI服務(wù)器,我們會(huì)發(fā)現(xiàn)其中的利潤(rùn)分配極其不均衡。
作為AI服務(wù)器領(lǐng)域的主要力量,英偉達(dá)DGX H100總銷(xiāo)售額的約90%都進(jìn)入了芯片巨頭的口袋。這還沒(méi)有算上英偉達(dá)認(rèn)證授權(quán)設(shè)備的費(fèi)用。
如果有人想構(gòu)建自己的高性能服務(wù)器,可以選擇避免使用英偉達(dá)認(rèn)證,采用廉價(jià)CPU,或者減少內(nèi)存/存儲(chǔ)空間來(lái)降低成本。當(dāng)然,也可以避免使用英偉達(dá)的網(wǎng)絡(luò)DPU,轉(zhuǎn)而選擇更便宜的硬件,如博通或Mellanox(這些與英偉達(dá)有一定關(guān)聯(lián))。然而,這可能會(huì)導(dǎo)致性能瓶頸。無(wú)論如何節(jié)約成本,無(wú)法回避的是需要使用8個(gè)H100 GPU和負(fù)責(zé)GPU互連的4個(gè)NVSwitch,這些硬件本身就要花費(fèi)近18萬(wàn)美元。
的確,英偉達(dá)賺取了大部分的利潤(rùn)。他們花了近20年的時(shí)間為2023年的AI大爆發(fā)積蓄力量。盡管巨額利潤(rùn)使英偉達(dá)成為市場(chǎng)上眾矢之的,但他們捍衛(wèi)著AI硬件主導(dǎo)地位的護(hù)城河在于他們擁有唯一完整的軟硬件組合,而且這套組合自2012年以來(lái)一直是研究人員們依賴(lài)的默認(rèn)選項(xiàng)。隨著我們將這些超大體量模型投入生產(chǎn),每家參與的廠商都陷入了困境。
那么,業(yè)界有哪些應(yīng)對(duì)措施呢?目前主要有以下三點(diǎn):
1.硬件:采用"AI加速器"等替代性硬件,以較低的成本執(zhí)行相同的工作。
2.模型體量:在最近的研究中,研究人們還在努力在更小的模型上實(shí)現(xiàn)更好的效果,從而顯著降低對(duì)GPU算力的需求。通過(guò)優(yōu)化算法和模型結(jié)構(gòu),研究人員致力于在減少參數(shù)數(shù)量的同時(shí)提高模型的性能和效果。這種方法被廣泛應(yīng)用于輕量級(jí)模型和移動(dòng)設(shè)備上,以滿(mǎn)足資源受限的環(huán)境需求。
3.軟件:將訓(xùn)練和推理負(fù)載從硬件上剝離出來(lái),以減少對(duì)英偉達(dá)的依賴(lài)。通過(guò)使用分布式計(jì)算和云計(jì)算等技術(shù),可以將工作負(fù)載分配到多個(gè)計(jì)算資源上,從而提高整體的計(jì)算效率和資源利用率。此外,也有一些開(kāi)源軟件框架和庫(kù),如TensorFlow和PyTorch,提供了跨不同硬件平臺(tái)的通用接口,使開(kāi)發(fā)者能夠更靈活地選擇硬件設(shè)備。
二、AI 加速器:顛覆游戲規(guī)則的暗渡陳倉(cāng)之策
AI 加速器是一種由多種不同硬件組成的松散結(jié)合體。這項(xiàng)技術(shù)起源于2015年,當(dāng)時(shí)谷歌的AI訓(xùn)練需求已經(jīng)超過(guò)了英偉達(dá)GPU的供應(yīng)能力。為此,谷歌在同年首次公布了供內(nèi)部使用的張量處理單元(TPU)。目前,TPU 2、3和4版已經(jīng)在Google Cloud上開(kāi)放租用,相較于云GPU,在執(zhí)行相同工作負(fù)載時(shí)能夠節(jié)約40%到50%的成本。
這些加速器采用了多種設(shè)計(jì)方式,但其底層技術(shù)邏輯是相同的——通過(guò)使用計(jì)算成本較低的整數(shù)運(yùn)算來(lái)模擬成本極高的浮點(diǎn)運(yùn)算。盡管這可能會(huì)導(dǎo)致數(shù)學(xué)精度的降低,但大量研究表明,除了科學(xué)應(yīng)用之外,大多數(shù)AI模型并不需要英偉達(dá)GPU所提供的極高精度。
這就像是在偷偷作弊,但效果似乎相當(dāng)不錯(cuò),F(xiàn)在,我們已經(jīng)看到了AMD/Xilinx、高通和英特爾等廠商推出了自己的AI加速器,再加上Google Cloud的原生TPU。另?yè)?jù)報(bào)道,微軟也計(jì)劃為Azure開(kāi)發(fā)加速器,可能會(huì)與AMD合作來(lái)分擔(dān)OpenAI的工作負(fù)載。
然而,在邁出這一步時(shí)需要小心謹(jǐn)慎。一方面,各廠商希望逐漸從英偉達(dá)手中奪回業(yè)務(wù)利潤(rùn);另一方面,在可預(yù)見(jiàn)的未來(lái),這些廠商仍然需要大量采購(gòu)英偉達(dá)GPU。只有那些能夠巧妙應(yīng)對(duì)這種微妙局面的人才能始終保持主動(dòng)地位。
三、小型化的趨勢(shì):AI模型的新轉(zhuǎn)變
近年來(lái),AI模型的體量呈現(xiàn)快速膨脹的趨勢(shì),每3到4個(gè)月就翻一番。這個(gè)趨勢(shì)并非秘密,人們?cè)缫迅惺艿搅诉@一新的發(fā)展方向。然而,在商業(yè)環(huán)境中,追求模型越大越好已經(jīng)失去了意義,相反,“小即是美”成為了AI時(shí)代的新主題。
這個(gè)轉(zhuǎn)變的起點(diǎn)可以追溯到ChatGPT模型的發(fā)布。在此之前,許多公司都在進(jìn)行自然語(yǔ)言處理的研究,但ChatGPT的問(wèn)世如同一記耳光,向全世界展示了什么是更大更好,什么是引領(lǐng)時(shí)代。這也引發(fā)了一股恐慌情緒的蔓延。
去年,Stability AI開(kāi)源了穩(wěn)定擴(kuò)散圖像生成模型,受到了廣泛關(guān)注。許多廠商紛紛決定開(kāi)源自家的模型,希望在社區(qū)的支持下取得更大的進(jìn)步。Facebook就是其中之一,他們開(kāi)源了自家的LLaMA語(yǔ)言模型,其參數(shù)規(guī)模高達(dá)650億,約為GPT-3的三分之一,比GPT-4小9到18倍。此后,斯坦福大學(xué)的研究人員開(kāi)發(fā)出了Alpaca版本,可以在幾乎所有硬件上運(yùn)行。
擁有關(guān)注和熱度,社區(qū)開(kāi)源開(kāi)發(fā)的速度往往驚人。如今,已經(jīng)有大量應(yīng)用程序構(gòu)建在Alpaca和其他開(kāi)源模型之上。人們?cè)谂μ嵘P托阅艿耐瑫r(shí),也在尋求控制模型參數(shù)體量的方法。
最重要的是,這些模型開(kāi)始在消費(fèi)級(jí)硬件上運(yùn)行,包括個(gè)人電腦甚至智能手機(jī)。而且它們完全免費(fèi)。因此,基礎(chǔ)模型的分界線不再是企業(yè),而是商業(yè)與開(kāi)源兩個(gè)陣營(yíng)。
谷歌也意識(shí)到了這個(gè)趨勢(shì)。在最新的I/O大會(huì)上,他們公布了一套比前代更小但性能更強(qiáng)的語(yǔ)言模型。
·LaMDA(2021年):參數(shù)多達(dá)1370億
·PaLM(2022年):參數(shù)多達(dá)5400億
·PaLM 2(2023年):根據(jù)未經(jīng)證實(shí)的內(nèi)部消息,參數(shù)多達(dá)3400億,基本符合谷歌所說(shuō)的“明顯更小”的說(shuō)法。這是我所知的AI模型首次向小型化轉(zhuǎn)變,其中最小的PaLM 2模型甚至可以在個(gè)人電腦或智能手機(jī)上運(yùn)行。
盡管GPT-4仍然是目前最優(yōu)秀和最強(qiáng)大的語(yǔ)言模型,但它也是體量最大、運(yùn)行成本最高的選擇。這對(duì)英偉達(dá)公司來(lái)說(shuō)是有利的,但同時(shí)也激發(fā)了業(yè)界對(duì)于構(gòu)建高性能小型模型的熱情。谷歌已經(jīng)邁出了第一步,開(kāi)源貢獻(xiàn)者也在不斷微調(diào)自己的領(lǐng)域模型,主要以LLaMA/Alpaca為基礎(chǔ)。
隨著越來(lái)越多的工作負(fù)載在消費(fèi)級(jí)硬件上運(yùn)行,英偉達(dá)也必須接受市場(chǎng)對(duì)GPU算力依賴(lài)度日益降低的現(xiàn)實(shí)。這意味著AI模型不再需要依賴(lài)巨大的GPU資源,而是更加注重在小型設(shè)備上的高效運(yùn)行。這一趨勢(shì)對(duì)于推動(dòng)AI技術(shù)的普及和應(yīng)用帶來(lái)了巨大的潛力,同時(shí)也促使廠商們加快創(chuàng)新步伐,開(kāi)發(fā)出性能強(qiáng)大且適應(yīng)各種設(shè)備的小型化模型。
四、軟件:構(gòu)建穩(wěn)固的護(hù)城河
軟件護(hù)城河:英偉達(dá)的核心優(yōu)勢(shì)與挑戰(zhàn)
英偉達(dá)作為AI軟件領(lǐng)域的領(lǐng)導(dǎo)者,其真正的核心優(yōu)勢(shì)不僅僅在于硬件,而是在于經(jīng)過(guò)近20年研究的軟件技術(shù)。然而,軟件基礎(chǔ)設(shè)施的碎片化和缺乏完善性一直是非英偉達(dá)陣營(yíng)面臨的問(wèn)題。現(xiàn)在,一家名為Modular的公司正在挑戰(zhàn)英偉達(dá)的技術(shù)護(hù)城河。他們采用了類(lèi)似于LLVM的模塊化設(shè)計(jì),旨在構(gòu)建一個(gè)統(tǒng)一、穩(wěn)定的軟件生產(chǎn)環(huán)境,為AI應(yīng)用提供強(qiáng)大的推理引擎。這一舉措對(duì)英偉達(dá)而言堪稱(chēng)釜底抽薪,因?yàn)檐浖姆(wěn)定性和完備性是構(gòu)建護(hù)城河的關(guān)鍵要素。
五、英偉達(dá)的反擊之戰(zhàn)
英偉達(dá)的戰(zhàn)略反擊:面對(duì)普通硬件的挑戰(zhàn)
英偉達(dá)正面臨來(lái)自全球各方的競(jìng)爭(zhēng)壓力,不僅來(lái)自其直接客戶(hù),還來(lái)自客戶(hù)的客戶(hù)。然而,英偉達(dá)堅(jiān)持一種不斷進(jìn)取的態(tài)度,始終保持居安思危的信念。然而,真正的競(jìng)爭(zhēng)對(duì)手往往并非巨大而明顯的,而是那些無(wú)處不在、價(jià)格更低、性能較差的普通硬件;仡橧BM與英特爾的競(jìng)爭(zhēng),我們可以看到即使市場(chǎng)領(lǐng)導(dǎo)者也可能因?yàn)楹鲆曔@些細(xì)小挑戰(zhàn)而失去優(yōu)勢(shì)。英偉達(dá)需要采取行動(dòng),拿出自己的AI加速器來(lái)保護(hù)自己的市場(chǎng)地位,即使這可能會(huì)削弱利潤(rùn)和增長(zhǎng)空間。否則,其他競(jìng)爭(zhēng)對(duì)手將填補(bǔ)這個(gè)空白。
六、英偉達(dá)的估值與風(fēng)險(xiǎn)
英偉達(dá)的估值與未來(lái)挑戰(zhàn):縱覽技術(shù)市場(chǎng)的不確定性
英偉達(dá)的市場(chǎng)估值一直備受關(guān)注。盡管最樂(lè)觀的情況下,英偉達(dá)的市值可能相當(dāng)于50年的經(jīng)營(yíng)收益,但這種理想情況只存在于理論模型中。英偉達(dá)與1999年至2000年的思科有著相似之處,都是成為新一波技術(shù)的領(lǐng)先供應(yīng)商。然而,思科在當(dāng)時(shí)面臨著激烈競(jìng)爭(zhēng),并在2000年達(dá)到了高市盈率,F(xiàn)在,英偉達(dá)面臨著類(lèi)似的挑戰(zhàn),盡管其市盈率已經(jīng)達(dá)到了204倍。過(guò)去十年,英偉達(dá)是回報(bào)率最高的科技股之一,但歷史上的案例表明,市場(chǎng)形勢(shì)可能在短時(shí)間內(nèi)發(fā)生劇變。因此,英偉達(dá)需要應(yīng)對(duì)以下五個(gè)風(fēng)險(xiǎn)來(lái)支持其市場(chǎng)估值的持續(xù)增長(zhǎng):
加密貨幣work收入無(wú)法恢復(fù):這一點(diǎn)尚未在估值中得到體現(xiàn),但可能發(fā)生的可能性較高,應(yīng)該考慮在估值結(jié)果中。
1.AI投資泡沫:雖然可能性較低,但將其作為一個(gè)風(fēng)險(xiǎn)因素計(jì)入估值是必要的。
2.英偉達(dá)在AI硬件領(lǐng)域的主導(dǎo)地位受到顛覆:這可能迫使英偉達(dá)壓縮現(xiàn)有的毛利率,從長(zhǎng)遠(yuǎn)來(lái)看,這種風(fēng)險(xiǎn)可能在2025年、2030年或者2035年發(fā)生。
3.經(jīng)濟(jì)衰退的可能性:年底或明年初可能出現(xiàn)經(jīng)濟(jì)衰退的幾率較高,估計(jì)約為50%。
4.摩爾定律的瓶頸:摩爾定律可能再次遭遇瓶頸,進(jìn)一步提升性能的成本會(huì)更高。在過(guò)去,英偉達(dá)表現(xiàn)出強(qiáng)大的增長(zhǎng)勢(shì)頭,但目前高達(dá)50倍的市盈率仍令人難以理解。
盡管英偉達(dá)面臨著諸多挑戰(zhàn)和風(fēng)險(xiǎn),但其在人工智能和硬件領(lǐng)域的強(qiáng)大實(shí)力和技術(shù)護(hù)城河仍使其在市場(chǎng)上處于領(lǐng)先地位。無(wú)論未來(lái)會(huì)帶來(lái)什么變化,英偉達(dá)都將繼續(xù)努力應(yīng)對(duì)挑戰(zhàn),保持創(chuàng)新和競(jìng)爭(zhēng)力。作為觀察者和參與者,我們將持續(xù)關(guān)注這個(gè)引人注目的商業(yè)競(jìng)爭(zhēng),并期待著看到未來(lái)的發(fā)展和結(jié)果。在技術(shù)的推動(dòng)下,世界將繼續(xù)迎來(lái)新的變革和機(jī)遇。