首頁 > 科技要聞 > 科技> 正文

英偉達(dá)憾失DeepSeek關(guān)鍵人才?美國放走AI「錢學(xué)森」,哈佛教授痛心疾首

新智元 整合編輯:太平洋科技 發(fā)布于:2025-02-06 12:14

DeepSeek給美國造成的威脅,還在加劇。

就在昨天,DeepSeek的日活數(shù)已經(jīng)達(dá)到ChatGPT的23%,每日應(yīng)用下載量接近500萬!

a16z聯(lián)創(chuàng)Marc Andreessen發(fā)文

誰能想到,做出DeepSeek關(guān)鍵貢獻(xiàn)的人才,本來是可能留在美國的。

最近哈佛大學(xué)教授曝出這一驚人事實:DeepSeek多模態(tài)團(tuán)隊的第4位工程師,本來可以拿到英偉達(dá)的全職offer。

然而最終,他選擇歸國加入DeepSeek,由此的后果就是,美國在AI領(lǐng)域的主導(dǎo)地位被動搖,相關(guān)公司市值蒸發(fā)一萬億,全球AI格局也被徹底掀翻。

這種結(jié)果是陰錯陽差,還是一種必然?

美國錯失DeepSeek,讓「錢學(xué)森」再次回國

近日,政治學(xué)家、哈佛大學(xué)教授、前國防計劃助理部長Graham Allison,在X上提問:「誰曾錯失了DeepSeek」?

他在X痛心發(fā)帖稱,DeepSeek已刷新對美國AI地位的認(rèn)知,而美國原本有機(jī)會留住DeepSeek的關(guān)鍵員工之一潘梓正(Zizheng Pan):

(DeepSeek超越OpenAI相關(guān)模型)顛覆了我們對美國AI主導(dǎo)地位的大部分了解。

這也生動地提醒我們,美國必須多么認(rèn)真地吸引和留住人才,包括來自中國的人才。

潘梓正,是DeepSeek多模態(tài)團(tuán)隊的第4位多工程師,在開發(fā)DeepSeek的R1模型方面發(fā)揮了重要作用。

回國之前,他在英偉達(dá)實習(xí)過4個月,而且拿到了英偉達(dá)的全職邀約。

Graham Allison認(rèn)為潘梓正之所以如此,是因為硅谷公司未能在美國為他提供這樣做的機(jī)會。

這種「人才流失」,讓Graham Allison痛心疾首,甚至將潘梓正回國提升到錢學(xué)森歸國的高度!

像錢學(xué)森、黃仁勛以及馬斯克這樣的的超級人才可以用腳投票,可以在任何地方施展才華、大張宏圖。

他認(rèn)為,美國應(yīng)該盡力避免這樣的「人才流失」:

美國的大學(xué)教練,在尋找并招募世界上最有才華的運(yùn)動員。

在中美科技競爭中,美國應(yīng)該盡一切努力避免失去更多的錢學(xué)森和潘梓正這樣的人才。

英偉達(dá)憾失人才

英偉達(dá)的高級研究科學(xué)家禹之鼎,在得知DeepSeek超越ChatGPT登頂App Store后,分享了當(dāng)時的實習(xí)生潘梓正回國的選擇,對他現(xiàn)在取得的成就感到高興,并分享了對AI競爭的觀點(diǎn):

在2023年夏季,梓正是英偉達(dá)的實習(xí)生。后來,當(dāng)我們考慮是否給他提供全職工作時,他毫不猶豫地選擇了加入 DeepSeek。

當(dāng)時,DeepSeek的多模態(tài)團(tuán)隊只有3個人。

梓正當(dāng)時的決定,至今我仍印象深刻。

在DeepSeek,他做出了重要貢獻(xiàn),參與了包括DeepSeek-VL2、DeepSeek-V3和DeepSeek-R1等多個關(guān)鍵項目。我個人對他的決定和所取得的成就感到非常高興。

梓正的案例是我近年來看到的一個典型例子。很多最優(yōu)秀的人才都來自中國,而這些人才并不一定只能在美國公司取得成功。相反,我們從他們身上學(xué)到了很多東西。

早在2022年的自動駕駛(AV)領(lǐng)域,類似的「斯普特尼克時刻」就已經(jīng)發(fā)生過,并且將在機(jī)器人技術(shù)和大語言模型(LLM)行業(yè)繼續(xù)發(fā)生。

我熱愛英偉達(dá),并希望看到它繼續(xù)成為AGI和通用自主系統(tǒng)發(fā)展的重要推動力。但如果我們繼續(xù)編織地緣政治議程,制造對中國研究人員的敵對情緒,我們只會自毀前程,失去更多的競爭力。

我們需要更多的優(yōu)秀人才、更高的專業(yè)水平、更強(qiáng)的學(xué)習(xí)能力、創(chuàng)造力以及更強(qiáng)的執(zhí)行力。

潘梓正是DeepSeek-VL2的共同一作

在DeepSeek超越ChatGPT登頂App Store下載榜第一時,潘梓正在X上分享了自己的感受:

潘梓正2024年全職加入DeepSeek,擔(dān)任研究員。他曾在英偉達(dá)AI算法組擔(dān)任研究實習(xí)生。

2021年,潘梓正加入蒙納士大學(xué)(Monash University)ZIP Lab攻讀計算機(jī)科學(xué)博士,導(dǎo)師是Bohan Zhuang教授和Jianfei Cai教授。在此之前,他分別獲得阿德萊德大學(xué)(University of Adelaide)計算機(jī)科學(xué)碩士和哈爾濱工業(yè)大學(xué)(威海)軟件工程學(xué)士學(xué)位。

在博士期間,潘梓正的研究興趣主要集中在深度神經(jīng)網(wǎng)絡(luò)的效率方面,包括模型部署、Transformer架構(gòu)優(yōu)化、注意力機(jī)制、 推理加速和內(nèi)存高效的訓(xùn)練。

Lex Fridman硬核播客,揭秘中國AI新星如何撼動全球格局

就在最近,Lex Fridman放出了一期長達(dá)5小時的播客,邀請了AI2的模型訓(xùn)練專家Nathan Lambert和Semianalysis硬件專家Dylan Patel。

在這期信息量爆棚的談話中,他們?nèi)叹劢笵eepSeek,討論了這顆中國AI新星如何撼動全球格局、MoE架構(gòu)+MLA的技術(shù)雙刃、DeepSeek開源倒逼行業(yè)開放進(jìn)程、中國式極限優(yōu)化之道的硬件魔術(shù)等。

DeepSeek到底用沒用OpenAI數(shù)據(jù)

這次,幾位大佬的談話內(nèi)容可謂相當(dāng)犀利,直指問題核心。

比如這個關(guān)鍵問題:DeepSeek究竟用沒用OpenAI的數(shù)據(jù)?

此前,OpenAI公開表示,DeepSeek使用了自家的模型蒸餾。

《金融時報》干脆說,「OpenAI有證據(jù)表明DeepSeek用了他們的模型來進(jìn)行訓(xùn)練」

這在道德和法律上站得住腳嗎?

雖然OpenAI的服務(wù)條款規(guī)定,不許用戶使用自家模型的輸出來構(gòu)建競爭對手。但這個所謂的規(guī)則,其實正是OpenAI虛偽的體現(xiàn)。

Lex Fridman表示:他們和大多數(shù)公司一樣,本來就是在未經(jīng)許可的情況下,使用互聯(lián)網(wǎng)上的數(shù)據(jù)進(jìn)行訓(xùn)練,并從中受益的。

大佬們一致認(rèn)為,OpenAI聲稱DeepSeek用其模型訓(xùn)練,就是在試圖轉(zhuǎn)移話題、讓自己獨(dú)贏。

而且,過去幾天還有很多人把DeepSeek的模型蒸餾到Llama中,因前者在推理上運(yùn)行很復(fù)雜,而Llama很容易提供服務(wù),這違法嗎?

DeepSeek的訓(xùn)練成本,為何如此之低

Dylan Patel表示,DeepSeek的成本涉及兩項關(guān)鍵的技術(shù):一個是MoE,一個就是MLA(多頭潛注意力)。

MOE架構(gòu)的優(yōu)勢在于,一方面,模型可以將數(shù)據(jù)嵌入到更大的參數(shù)空間中,另一方面,在訓(xùn)練或推理時,模型只需要激活其中一部分參數(shù),從而大大提升效率。

DeepSeek模型擁有超過6000億個參數(shù),相比之下,Llama 405B有4050億參數(shù)。從參數(shù)規(guī)模上看,DeepSeek模型擁有更大的信息壓縮空間,可以容納更多的世界知識。

但與此同時,DeepSeek模型每次只激活約370億個參數(shù)。也就是說,在訓(xùn)練或推理過程中,只需要計算370億個參數(shù)。相比之下,Llama 405B模型每次推理卻需要激活4050億個參數(shù)。

MLA主要用于減少推理過程中的內(nèi)存占用,在訓(xùn)練過程也是如此,它利用了一些巧妙的低秩近似數(shù)學(xué)技巧。

Nathan Lambert表示,深入研究潛注意力的細(xì)節(jié),會發(fā)現(xiàn)DeepSeek在模型實現(xiàn)方面下了很大功夫。

因為,除了注意力機(jī)制,語言模型還有其他組件,例如用于擴(kuò)展上下文長度的嵌入。DeepSeek采用的是旋轉(zhuǎn)位置編碼(RoPE)。

將RoPE與傳統(tǒng)的MoE結(jié)合使用,需要進(jìn)行一系列操作,例如,將兩個注意力矩陣進(jìn)行復(fù)數(shù)旋轉(zhuǎn),這涉及到矩陣乘法。

DeepSeek的MLA架構(gòu)由于需要一些巧妙的設(shè)計,因此實現(xiàn)的復(fù)雜性大大增加。而他們成功地將這些技術(shù)整合在一起,這表明DeepSeek在高效語言模型訓(xùn)練方面走在了前沿。

Dylan Patel表示,DeepSeek想方設(shè)法提高模型訓(xùn)練效率。其中一個方法就是不直接調(diào)用NVIDIA的NCCL庫,而是自行調(diào)度GPU之間的通信。

DeepSeek的獨(dú)特之處在于,他們通過調(diào)度特定的SM(流式多處理器)來管理GPU通信。

DeepSeek會精細(xì)地控制哪些SM核心負(fù)責(zé)模型計算,哪些核心負(fù)責(zé)allreduce或allgather通信,并在它們之間進(jìn)行動態(tài)切換。這需要極其高深的編程技巧。

DeepSeek為何如此便宜

在所有聲稱提供R1服務(wù)的公司中,定價都遠(yuǎn)高于DeepSeek API,而且大多服務(wù)無法正常工作,吞吐量極低。

讓大佬們震驚的是,一方面中國取得了這種能力,另一方面價格如此之低。(R1的價格,比o1便宜27倍)

訓(xùn)練為什么便宜,上文已經(jīng)提到。為什么推理成本也這么低呢?

首先,就是DeepSeek在模型架構(gòu)上的創(chuàng)新。MLA這種全新的注意力機(jī)制,跟Transformer注意力機(jī)制不同。

這種多頭潛注意力,可以將注意力機(jī)制的內(nèi)存占用減少大約80%到90%,尤其有助于處理長上下文。

而且,DeepSeek和OpenAI的服務(wù)成本有巨大差異,部分原因是OpenAI的利潤率非常高,推理的毛利率超過了75%。

因為OpenAI目前是虧損的,在訓(xùn)練上花費(fèi)了太多,因此推理的利潤率很高。

接下來亮點(diǎn)來了,幾位大佬放飛想象,猜測這會不會是一種陰謀論:DeepSeek精心策劃了這次發(fā)布和定價,做空英偉達(dá)和美國公司的股票,配合星際之門的發(fā)布……

但這種猜測立馬遭到了反駁,Dylan Patel表示,他們只是趕在農(nóng)歷新年前把產(chǎn)品盡快發(fā)布而已,并沒有沒有打算搞個大的,否則為什么選在圣誕節(jié)后一天發(fā)布V3呢?

中國的工業(yè)能力,已經(jīng)遠(yuǎn)超美國

美國無疑在GPU等芯片領(lǐng)域領(lǐng)先于中國。

不過,對GPU出口管制,就能完全阻止中國嗎?不太可能。

Dylan Patel認(rèn)為,美國政府也清楚地認(rèn)識到這一點(diǎn), 而Nathan Lambert認(rèn)為中國會制造自己的芯片。

中國可能擁有更多的人才、更多的STEM畢業(yè)生、更多的程序員。美國當(dāng)然也可以利用世界各地的人才,但這未必能讓美國有額外的優(yōu)勢。

真正重要的是計算能力。

中國擁有的電力總和,數(shù)量已經(jīng)驚人。中國的鋼鐵廠,其規(guī)模相當(dāng)于整個美國工業(yè)的總和,此外還有需要龐大電力的鋁廠。

即使美國的星際之門真的建成,達(dá)到2吉瓦電力,仍小于中國最大的工業(yè)設(shè)施。

就這么說吧,如果中國建造世界上最大的數(shù)據(jù)中心,只要有芯片,馬上就能做到。所以這只是一個時間問題,而不是能力問題。

現(xiàn)在,發(fā)電、輸電、變電站以及變壓器等構(gòu)建數(shù)據(jù)中心所需的東西,都將制約美國構(gòu)建越來越大的訓(xùn)練系統(tǒng),以及部署越來越多的推理計算能力。

相比之下,如果中國繼續(xù)堅信Scaling Law,就像納德拉、扎克伯格和劈柴等美國高管那樣,甚至可以比美國更快地實現(xiàn)。

因此,為了減緩中國AI技術(shù)的發(fā)展,確保AGI無法被大規(guī)模訓(xùn)練,美國出臺了一系列禁令——通過限制GPU、光刻機(jī)等關(guān)鍵要素的出口,意圖「封殺」整個半導(dǎo)體產(chǎn)業(yè)。

OpenAI o3-Mini能追上DeepSeek R1嗎?

接下來,幾位大佬對幾個明星推理模型進(jìn)行了實測。

有趣的是,谷歌的Gemini Flash Thinking,無論從價格還是性能上來看都優(yōu)于R1,而且在去年12月初就發(fā)布了,然而卻無人關(guān)心……

對此,幾位大佬的體感是,它的行為模式不如o1那樣富有表現(xiàn)力,應(yīng)用場景較窄。o1在特定任務(wù)上可能不是最完美,但靈活性和通用性更強(qiáng)。

Lex Frieman則表示,自己個人非常喜歡R1的一點(diǎn),是它會展示完整的思維鏈token。

在開放式的哲學(xué)問題中,我們作為能欣賞智能、推理和反思能力的人類,閱讀R1的原始思維鏈token,會感受到一種獨(dú)特的美感。

這種非線性的思維過程,類似于詹姆斯·喬伊斯的意識流小說《尤利西斯》和《芬尼根的守靈夜》,令人著迷。

相比之下,o3-mini給人的感覺是聰明、快速,但缺乏亮點(diǎn),往往比較平庸,缺乏深度和新意。

從下圖中可以看到,從GPT-3到GPT-3.5,再到Llama,推理成本呈指數(shù)級下降趨勢。

DeepSeek R1是第一個達(dá)到如此低成本的推理模型,這個成就很了不起,不過,它的成本水平并沒有超出專家們預(yù)期的范圍。

而在未來,隨著模型架構(gòu)的創(chuàng)新、更高質(zhì)量的訓(xùn)練數(shù)據(jù)、更先進(jìn)的訓(xùn)練技術(shù),以及更高效的推理系統(tǒng)和硬件(比如新一代GPU和ASIC芯片),AI模型的推理成本還會持續(xù)下降。

最終,這將解鎖AGI的潛力。

誰將贏得AGI競賽

最后,幾位大佬預(yù)測了一番,誰將是AGI競賽的最終贏家。

谷歌似乎是領(lǐng)跑者,因為擁有基礎(chǔ)設(shè)施優(yōu)勢。

但在輿論場上,OpenAI似乎是領(lǐng)先者。它在商業(yè)化方面已經(jīng)走在了最前面,擁有目前AI領(lǐng)域最高的收入。

目前,誰究竟在AI領(lǐng)域賺到錢了,有人盈利了嗎?

大佬們盤了盤后發(fā)現(xiàn),從財務(wù)報表上看,微軟在AI領(lǐng)域已經(jīng)實現(xiàn)了盈利,但在基礎(chǔ)設(shè)施方面已經(jīng)投入了巨額資本支出。谷歌、亞馬遜也是如此。

Meta獲取的巨額利潤來自于推薦系統(tǒng),并非來自Llama等大模型。

Anthropic和OpenAI顯然還沒盈利,否則就不需要繼續(xù)融資了。不過單從營收和成本來看,GPT-4已經(jīng)開始盈利了,因為它的訓(xùn)練成本只有幾億美元。

最終,誰都無法預(yù)料,OpenAI是否會突然隕落。不過目前,各家公司還會繼續(xù)融資,因為一旦AGI到來,AI帶來的回報難以估量。

人們可能并不需要OpenAI花費(fèi)數(shù)十億美元,去研發(fā)「下一個最先進(jìn)的模型」,只需要ChatGPT級別的AI服務(wù)就足夠了。

推理、代碼生成、AI智能體、計算機(jī)使用,這些都是AI未來真正有價值的應(yīng)用領(lǐng)域。誰不發(fā)力,誰就可能被市場淘汰。

參考資料:

https://youtu.be/_1f-o0nqpEI

https://x.com/GrahamTAllison/status/1885442402833621426

https://x.com/ZhidingYu/status/1883958911839133894

本文來源:新智元

新智元

網(wǎng)友評論

聚超值•精選

推薦 手機(jī) 筆記本 影像 硬件 家居 商用 企業(yè) 出行 未來
二維碼 回到頂部
国产younv在线精品,先锋AV无码资源不卡,亚洲国产高清不卡在线播放,伊人久久东京av