色又黄又爽18禁免费网站现观看-亚洲级αv无码毛片久久精品-亚洲熟妇久久国内精品-在线欧美精品一区二区三区

五年大漲1800%英偉達(dá)市值有望超過英特爾

發(fā)布時間:2020-07-06 08:14:21

      據(jù)報導(dǎo),不久后,“美國頂尖芯片制造商”的頭銜也許將要易主。英特爾公司(INTC.US)過去50年來一直是美國芯片產(chǎn)業(yè)龍頭,但英偉達(dá)(NVDA.US)近來急起直追,眼看市值就快要追上英特爾。

截至2日收盤止,英偉達(dá)市值為2,364.61億美元,英特爾市值為2,503.56億美元。從市值走勢圖來看,兩者差距日益縮小,且英偉達(dá)大有迎頭趕上的架式。

自從美股標(biāo)普500指數(shù)3月23日觸底以來,美國芯片股表現(xiàn)大致上都超越大盤。但英特爾股價的反彈力道顯然不如英偉達(dá)強(qiáng)勁。今年來,英特爾股價仍下跌1%,而英偉達(dá)年初迄今飆漲64%。

股價反映兩者運(yùn)勢的消長。英偉達(dá)股價飆勁十足的一大原因是,投資人看好遠(yuǎn)距工作趨勢將助長英偉達(dá)的資料中心事業(yè),而人工智慧(AI)是讓英偉達(dá)行情水漲船高的另一題材。

同時,英特爾則面臨重重挑戰(zhàn),包括龐大的供應(yīng)鏈被打亂,以及10納米處理器“Tiger Lake”的相關(guān)開發(fā)成本升高。

最近蘋果公司(AAPL.US)宣布Mac電腦未來將舍棄英特爾芯片、改用自家設(shè)計的ARM架構(gòu)芯片,是另一記象征性的打擊。

過去五年來,英偉達(dá)股價飆漲18倍,反映投資人對英偉達(dá)不斷的蛻變報以喝彩。

英偉達(dá)原本以小眾(利基)型繪圖芯片廠商著稱,為游戲機(jī)提供硬件;后來事業(yè)版圖擴(kuò)及AI領(lǐng)域,AI應(yīng)用使資料中心業(yè)務(wù)欣欣向榮;最近宣布與豪華車商奔馳(Mercedes- Benz)合作,攜手打造車用運(yùn)算系統(tǒng)及AI運(yùn)算基礎(chǔ)架構(gòu),更讓英偉達(dá)轉(zhuǎn)型成車用硬件、軟件和服務(wù)通吃的“平臺公司”,不只是芯片制造商。

英偉達(dá)執(zhí)行長黃仁勛告訴巴隆周刊:“眾人以為我們是電動游戲公司,但我們其實是加速運(yùn)算公司,而電動游戲是我們第一個殺手級應(yīng)用?!?/span>

英偉達(dá)的AI芯片霸主之路!

Nvidia的誕生還要追溯到多媒體PC機(jī)時代。在上世紀(jì)90年代,PC機(jī)走向了多媒體時代,其中3D游戲又是多媒體時代最閃耀的明星。為了能加速3D游戲的運(yùn)行,圖像處理芯片就成了多媒體PC時代的一種熱門新品類。

最初,加速3D游戲運(yùn)行在常規(guī)的顯示卡之外還需要一張3D加速卡,而3D加速卡的首創(chuàng)者——3dfx也憑借著其Voodoo系列加速卡成為了當(dāng)時的3D加速引領(lǐng)者。

看到了3D顯示這個巨大機(jī)會的并不只3dfx一家公司。Nvidia于上世紀(jì)90年代中成立,公司的目標(biāo)市場就是顯示市場。1998年,Nvidia推出了TNT系列顯卡,擁有了與3dfx同臺競技的資格。

之后,3dfx的后幾代顯卡產(chǎn)品存在各種問題,而Nvidia卻在2000年順勢拿出了同時支持3D加速和transformation and lighting (T&L,指一系列圖像處理中需要的坐標(biāo)和光照變幻運(yùn)算)的GeForce系列顯卡,在性能上大幅領(lǐng)先3dfx,并最終奠定了其游戲顯卡領(lǐng)域的霸主地位。

事實上,在GeForce之前,顯卡并不負(fù)責(zé)繁重的T&L計算,而必須由CPU來做這些運(yùn)算;GeForce是第一個用顯卡支持T&L來大幅提升系統(tǒng)性能的顯卡,并且Nvidia認(rèn)為顯卡支持了之前必須由CPU來完成的工作,因此提出了GPU這個概念。

可以說GeForce是Nvidia最重要的產(chǎn)品之一,同時我們也可以從GeForce的誕生看到Nvidia并不是拘泥于產(chǎn)品傳統(tǒng)品類定義的公司,而是會積極地拓寬其產(chǎn)品的應(yīng)用范圍。這樣的公司基因也直接造就了之后Nvidia在人工智能領(lǐng)域的領(lǐng)先地位。

在推出GPU之后,Nvidia順利地占領(lǐng)了游戲顯卡市場的主導(dǎo)地位。游戲市場雖然不小,但是其增長天花板也較低。因此,Nvidia也在嘗試各種不同的市場機(jī)會。

在2000年左右,學(xué)術(shù)界對于使用GPU做通用計算(GPGPU)產(chǎn)生了興趣。當(dāng)時,主要面向執(zhí)行通用算法的CPU是執(zhí)行科學(xué)計算的主力,但是CPU為了能在通用算法上都有較好的性能,因此很多芯片面積事實上用在了片上內(nèi)存和分支預(yù)測等控制邏輯,而真正用于計算的單元并不多。

相反,GPU架構(gòu)中的控制邏輯較為簡單,絕大多數(shù)芯片面積都用于渲染、多邊形等計算。學(xué)術(shù)界發(fā)現(xiàn),科學(xué)運(yùn)算中的矩陣等計算可以很簡單地映射到GPU的處理單元,因此能實現(xiàn)非常高的計算性能。

當(dāng)時,GPGPU最主要的瓶頸在于難以使用。由于GPU是面向圖像應(yīng)用而開發(fā),因此要在其編程模型中支持通用高性能計算并不容易,需要許多手工調(diào)試和編碼,因此造成了很高的門檻,能熟練使用的人并不多。

另一方面是廠商對于GPGPU應(yīng)用的態(tài)度。事實上,當(dāng)時GPGPU的研究主要在學(xué)術(shù)界,在工業(yè)界并沒有很多人清楚GPGPU未來能有多少價值,不少公司雖然也有研究GPGPU的團(tuán)隊,但是大多僅僅是做一些評估和嘗試性的工作,并沒有認(rèn)真打算大規(guī)模應(yīng)用。

Nvidia對于GPGPU卻是抱著另一種態(tài)度。在2006年,Nvidia推出了Tesla架構(gòu)。在這個架構(gòu)中,Nvidia一改之前使用矢量計算單元做渲染的做法,而是把一個矢量計算單元拆成了多個標(biāo)量計算渲染單元,并稱之為“unified shader”。

這樣一來,Tesla GPU的渲染單元除了在渲染性能更強(qiáng)之外,也更適合做通用計算了。在2007年,Nvidia順勢推出了CUDA系列編程環(huán)境。CUDA是GPGPU領(lǐng)域的一個創(chuàng)舉,通過CUDA可以大大降低用GPU做通用計算的難度,因此大大降低了GPGPU應(yīng)用的門檻。

究竟是Nvidia之前就策劃要做GPGPU,因此才推出Tesla架構(gòu)以及CUDA,還是Nvidia在推出Tesla架構(gòu)之后為了充分發(fā)揮其潛力而順便推出CUDA,我們今天不得而知。但是,我們能看到的是,CUDA首先在GPGPU領(lǐng)域引起了很大的反響,因此在第二年有了開源版本的OpenCL來在其他GPU上實現(xiàn)類似的功能;

另一方面,我們看到Nvidia在GPU領(lǐng)域最大的競爭對手AMD在當(dāng)時對于GPGPU并沒有太多動作,以至于一年后的OpenCL事實上是蘋果而非由AMD發(fā)起的。在當(dāng)時,蘋果希望能在各種設(shè)備(尤其是移動設(shè)備)上充分利用GPU來完成計算,因此發(fā)起了OpenCL組織,參與的公司除了蘋果之外還有ARM、AMD、Nvidia等。

然而,為了兼容性考量,OpenCL并無法在所有GPU上都實現(xiàn)最優(yōu)的性能,因此相比于專注于給自家GPU做優(yōu)化的CUDA來說性能差了一截。AMD在當(dāng)時并沒有自己提出一個與CUDA爭鋒相對的協(xié)議而只是選擇加入OpenCL組織也證明了當(dāng)時AMD對于GPGPU的觀望態(tài)度。

時間走到了2012年,Nvidia在經(jīng)過移動市場的失望后,迎來了新的藍(lán)海市場。2012年的重要性在于,深度學(xué)習(xí)開山鼻祖之一的Geoff Hinton的學(xué)生Alex Krizhevsky成功訓(xùn)練出了深度卷積神經(jīng)網(wǎng)絡(luò)AlexNet,并憑借該網(wǎng)絡(luò)在圖像分類識別領(lǐng)域大幅提升了性能(15%的錯誤率,比第二名真正高出了十個絕對百分點),從而成為人工智能的標(biāo)志性事件。

在2012年之前,絕大多數(shù)圖像分類任務(wù)都是使用類似支持矢量機(jī)(SVM)這樣的經(jīng)典算法實現(xiàn)。SVM這樣的算法非常適合應(yīng)用在數(shù)據(jù)量較少的應(yīng)用中。然而,隨著互聯(lián)網(wǎng)時代的來臨,人們積累的數(shù)據(jù)量遠(yuǎn)遠(yuǎn)大于之前的時代,而在擁有大量數(shù)據(jù)的情況下,神經(jīng)網(wǎng)絡(luò)就成了理論上更好的選擇。

然而,在當(dāng)時訓(xùn)練一個深層神經(jīng)網(wǎng)絡(luò)還存在一個挑戰(zhàn),就是算力問題。使用普通的CPU在ImageNet上訓(xùn)練一個深度學(xué)習(xí)網(wǎng)絡(luò)需要數(shù)年的時間,因此無法實用。而Alex Krizhevsky的創(chuàng)舉在于使用Nvidia GPU成功訓(xùn)練了一個性能有突破性提升的深度神經(jīng)網(wǎng)絡(luò),從而開啟了新的人工智能時代。

AlexNet性能的大幅提升使得人工智能在圖像分類等有大量實際應(yīng)用的場景達(dá)到了可用的性能,而Nvidia GPU則伴隨著深度學(xué)習(xí)模型訓(xùn)練和推理所需要的大量算力成為了人工智能時代的新基礎(chǔ)設(shè)施。這也可以說是Nvidia數(shù)年前在GPGPU領(lǐng)域投資所收獲的回報:如果沒有CUDA這樣的高性能GPGPU編程工具,或許AlexNet就無法被訓(xùn)練出來,而人工智能時代可能就無法被開啟。

而在之后,隨著深度學(xué)習(xí)網(wǎng)絡(luò)熱潮的興起,高校和工業(yè)界在越來越多的場景使用深度學(xué)習(xí)——目前在圖像、語音、自然語言處理、推薦系統(tǒng)等大量場景深度學(xué)習(xí)都已經(jīng)落地。隨之而來的是對于GPU算力的進(jìn)一步需求,而Nvidia也是順勢而為,在最近幾年接連推出為了人工智能而優(yōu)化的GPU以及相關(guān)配套軟件資源(用于推理的TensorRT,基于CUDA的高性能深度學(xué)習(xí)加速庫CuDNN,CuBLAS等等),從而讓自己在人工智能時代的地位更加穩(wěn)固。

反觀AMD,事實上由于AMD一直處于追趕階段,因此遲遲不敢下決心去做一些新的嘗試。當(dāng)年GPGPU領(lǐng)域AMD投入不足,導(dǎo)致Nvidia的CUDA占據(jù)了先機(jī)。在性能上,AMD所依賴的通用OpenCL性能據(jù)調(diào)查比起CUDA要差30%以上。更關(guān)鍵的是AMD的人工智能開發(fā)者生態(tài)一直做不起來,因為OpenCL性能差且使用不方便,導(dǎo)致使用OpenCL的開發(fā)者少,開發(fā)者少就更少人能為OpenCL開發(fā)方便的接口和共享設(shè)計資源,這進(jìn)一步導(dǎo)致OpenCL開發(fā)社區(qū)人氣不足,有GPGPU開發(fā)需求的開發(fā)者都會把Nvidia的CUDA作為其第一選擇。

在GPU硬件上,直到Nvidia已經(jīng)推出專門針對人工智能優(yōu)化的TensorCore之后,AMD對于要不要在GPU上加入對人工智能的支持仍然遲疑不決,一直到2018年才推出對人工智能的相關(guān)支持,因此導(dǎo)致在人工智能領(lǐng)域遠(yuǎn)遠(yuǎn)落后了。

最后必須指出的是,一直以來AMD的思路都是性價比,而人工智能的主要客戶卻是對于價格不怎么敏感的企業(yè)客戶,因此AMD之前的低價戰(zhàn)術(shù)也沒辦法打動這些客戶。

目前,Nvidia已經(jīng)占據(jù)了人工智能算力領(lǐng)域的主導(dǎo)位置。在數(shù)據(jù)中心領(lǐng)域,即使有一些初創(chuàng)公司推出訓(xùn)練和推理加速芯片,但是想要取代Nvidia需要相當(dāng)長的時間。首先,大規(guī)模部署芯片對于產(chǎn)品的可靠性有相當(dāng)高的需求,而且分布式系統(tǒng)是一個系統(tǒng)工程,需要芯片在各類指標(biāo)上(不只是算力,還包括通信,接口帶寬等)都達(dá)到優(yōu)秀的指標(biāo),光這一點就需要初創(chuàng)公司相當(dāng)多的時間去打磨。

此外,Nvidia更高的壁壘在于開發(fā)者生態(tài),需要開發(fā)出一個易用的編程模型和相關(guān)編譯器的難度并不亞于設(shè)計芯片,而要孵化開發(fā)者生態(tài)則需要更多的時間。我們認(rèn)為,至少在未來3-5年內(nèi),Nvidia在數(shù)據(jù)中心的地位難以被撼動。

但這并不意味著Nvidia在人工智能時代就可以高枕無憂。Nvidia 的軟肋仍然在于其移動端——隨著人工智能從云端逐漸走向邊緣和終端,邊緣和終端類的AI加速芯片或許是其他公司的機(jī)會。

Nvidia之前推出的終端/邊緣類產(chǎn)品并不算特別領(lǐng)先或成功,例如Jetson系列終端GPU的能效比并不領(lǐng)先,芯片架構(gòu)也是沿用數(shù)年前的設(shè)計。我們認(rèn)為,AI加速在終端的市場份額可能會占據(jù)總體AI芯片市場不小的份額,如果Nvidia無法抓住終端AI市場,那么其最終在整個AI市場的份額可能會被局限在云端數(shù)據(jù)中心。