這個春節(jié),有一款國產(chǎn) AI 大模型成了科技新聞里“最靚的仔”,甚至回老家過年,不少親戚在飯桌上聊的“下飯話題”都變成了 AI。我們這些在北上廣互聯(lián)網(wǎng)公司上過班的人,作為家人眼中唯一一個懂“修電腦”的人才,自然難免要被問到各種相關(guān)問題。
圖庫版權(quán)圖片,轉(zhuǎn)載使用可能引發(fā)版權(quán)糾紛
如何跟不了解科技行業(yè)的親朋好友簡單易懂地講清楚 DeepSeek,頗花費了我一番腦汁,但效果還不錯,比如我媽聽完后一拍大腿表示:八成懂了?。瓤?,有一說一,回答這個問題還是比“為什么不結(jié)婚/生小孩”,簡單多了……ㄟ(▔,▔)ㄏ )接下來我就把我跟我媽講的概括一下,希望能夠幫你揭開DeepSeek的神秘面紗。
先總結(jié)一下,DeepSeek 有三寶:
開源普惠,人人可復(fù)制嫁接
成本大幅降低
訓(xùn)練模式突破性創(chuàng)新
其中每一條都為人類通往構(gòu)建 AGI 創(chuàng)造了有利條件——所謂 AGI,指的是能夠像人類一樣完成各種不同任務(wù)的人工智能。它不僅能做一件事,還能學(xué)習(xí)、適應(yīng)并解決多種問題。接下來,咱們就簡單聊聊 DeepSeek 先進在哪兒,有什么特點。
DeepSeek R1 強在哪兒?
DeepSeek 之前,最為人熟知的大模型產(chǎn)品是 ChatGPT,全球月活躍用戶約 4 億。但是大部分用戶體驗到的 ChatGPT 免費版本仍有許多不足。
比如,以前你問 ChatGPT 這樣的問題:
“小美上午 9 點的心率是 75bpm,下午 7 點的血壓是 120/80。她于晚上 11 點死亡。她中午還活著嗎?”
Chatgpt 就會被繞暈,給出不靠譜的答案。這說明彼時 ChatGPT 并不理解數(shù)字和數(shù)理之間,以及事物之間的邏輯關(guān)系,它回答對了可能是瞎蒙,可能是鸚鵡學(xué)舌。
注:由于現(xiàn)在的 AI 已經(jīng)能解決這類問題,這里特地讓 ChatGPT 扮演更老的版本以展示可能出現(xiàn)的錯誤
但 DeepSeek R1 在展示結(jié)果同時,顯示了完整的思維力(Cot)推理過程,把問題一步步拆解分析,并且在學(xué)習(xí)數(shù)學(xué)題過程中,顯示出了提煉總結(jié)數(shù)理公式的能力。
這就是 DeepSeek R1 在計算性質(zhì)上不同于 ChatGPT 和 GPT-4/4o 的根本區(qū)別——R1 是推理模型,后者不是。
我們?yōu)榱藱z驗它是否真的學(xué)會了數(shù)理邏輯,而不是靠積累的語料數(shù)據(jù)“瞎蒙”,派他去獨立解決各類數(shù)學(xué)和編程競賽的問題,結(jié)果十分亮眼——在MATH基準測試中的得分為 97.3,在AIME上的得分為 79.8,超過了 OpenAI 的 o1 預(yù)覽版。而在中科院物理所的競賽比拼中,也取得了優(yōu)異的成績(參見 我們用最近很火的 DeepSeek 挑戰(zhàn)了物理所出的競賽題,結(jié)果……)
當然,這些測試只是從一個方面衡量了 DeepSeek R1 的能力,其他復(fù)雜的任務(wù),可能會涉及不同的評估方法和指標。
為什么說 R1-Zero 是
AI 界的“野生學(xué)霸”
如果說傳統(tǒng) AI 是“補習(xí)班量產(chǎn)的好學(xué)生”,成才主要靠輔導(dǎo)老師天天耳提面命,那 R1-Zero 就是靠自學(xué)的“天才少年”。
R1-Zero 的“自學(xué)”過程依賴于強化學(xué)習(xí)(RL)算法,而非傳統(tǒng)的人類標注數(shù)據(jù)。通過反復(fù)訓(xùn)練和優(yōu)化,盡管沒有人工干預(yù),它仍在特定的反饋機制下自我優(yōu)化,最后在數(shù)學(xué)題目中展示出了卓越的推理能力。
這個方法跟 ALPhaGo 有些類似,對,就是那個曾經(jīng)戰(zhàn)勝過人類最強棋手的“硅基棋王”——它并沒有根據(jù)人類的圍棋教程學(xué)習(xí),全程也沒有接受過任何人類輸入的信號指導(dǎo),完全依賴自己和自己“億局局”下棋、勝負歸納總結(jié),產(chǎn)生了強大的下棋策略。
更絕的是,DeepSeek 的解題過程一步步推演,可以長達成百上千字,甚至上萬,堪比《三體》里羅輯的面壁計劃——每一步都充滿“如果……那么……”的邏輯推演,而且連中學(xué)生都能看懂它的思維過程。
同時,它的訓(xùn)練方法還帶來了效率提升,訓(xùn)練周期更短,資源消耗降低,由于省去了 SFT 和復(fù)雜的獎懲模型,計算量減少。
開源:技術(shù)界的“人民戰(zhàn)爭”
需要指出的是,DeepSeek R1 并不是目前唯一的推理模型。OpenAI 的 o1 模型在推理任務(wù)上表現(xiàn)也很出色,但是 DeepSeek 有個顯著的不同。
那就是,OpenAI 的 o1 模型像米其林三星餐廳——菜品驚艷,但廚房謝絕參觀。而 DeepSeek 直接把菜譜開源,邀請全世界極客來改良——有人往模型里塞《五年高考三年模擬》,訓(xùn)練出秒殺奧數(shù)冠軍的 AI;有人用 R1 給女朋友寫情書,結(jié)果因為邏輯過于嚴謹被罵“直男癌”。這種“群毆式創(chuàng)新”,讓 AGI 研究從高冷學(xué)術(shù)圈變成了全民參與的“黑客馬拉松”(指限定時間內(nèi)大家通過編程、設(shè)計等技能合作,做出有趣或?qū)嵱玫捻椖?。)?/p>
版權(quán)圖庫圖片,轉(zhuǎn)載使用可能引發(fā)版權(quán)糾紛
更重要的是,模型開源,讓全世界的科技人才,都有可能站在 R1 的基礎(chǔ)上,進行改良再創(chuàng)造??萍嫉臍v史進程已經(jīng)一次次告訴我們:基礎(chǔ)技術(shù)的傳播擴散,會引發(fā)更大量、更先進的前沿突破和實際應(yīng)用的涌現(xiàn)。
科技樹的點亮,沒辦法僅靠一個人或者一家公司,DeepSeek 的開源,就相當于一次開枝散葉的重要過程,而這也會提高 DeepSeek 的聲望和影響力。
省錢鬼才:成本僅用十分之一
大模型領(lǐng)域的研發(fā)其實是很“燒錢”的,很多知名的大模型,訓(xùn)練一次成本就高達數(shù)百萬美元。
而 DeepSeek 最為人稱道的,是它把成本抹了個零——是的,它直接把成本金額的末尾砍掉了一個“0”。簡單地說,DeepSeek采用了一系列架構(gòu)、算法和任務(wù)拆分等方面的優(yōu)化和創(chuàng)新,這樣就能只用較低的成本就完成訓(xùn)練任務(wù),而這些方面的創(chuàng)造力正是 DeepSeek 的卓越之處。
更反常識的是,成本暴降的同時,性能反而飆升:它能夠在一個請求中處理多達 128000 個 Token、一次最多可以生成 32000 個 Token(注:1 個 token 視情況相當于 1 個詞語或 1 個漢字),非常適合編寫深度報告或剖析大量數(shù)據(jù)集,作為生產(chǎn)力工具效能極大提升,活生生把 AI 從“吞金獸”變成了“招財貓”,利人利己。
用推理實現(xiàn)環(huán)保
最新的研究和報道顯示,隨著人工智能行業(yè)的規(guī)模和影響力急劇擴大,維持人工智能增長所需的計算能力大約每 100 天翻一番。目前,ChatGPT 每天需要消耗大約 564 兆瓦時的電能。
同時,支撐大模型運算的數(shù)據(jù)中心服務(wù)器會需要消耗大量的水資源來散熱。有研究顯示,ChatGPT-3 在訓(xùn)練期間耗水近 700 噸,其后每回答 20 至 50 個問題,就需消耗 500 毫升水。
耗能、耗水、增加碳排放,曾經(jīng)是我們擔(dān)憂通往 AGI 之路的重要阻力,但是,DeepSeek 的成功向我們揭示了——或許我們有其他更好的道路。
過去十年,AI 界沉迷于“數(shù)量碾壓”:堆算力、沖數(shù)據(jù)量、比誰燒錢多。但 DeepSeek 另辟蹊徑——與其讓 AI 死記硬背《百科全書》,不如教它“怎么像福爾摩斯一樣思考”。結(jié)果在 ARC-AGI 測試(AGI 核心能力基準)中,R1 系統(tǒng)與人類表現(xiàn)不相上下。
這證明:也許推理能力才是打開 AGI 之門的鑰匙,而鑰匙孔里透出的光,正在被開源社區(qū)的手電筒照得越來越亮。
DeepSeek 不是神話
是團隊一步步創(chuàng)造的火種
雖然 DeepSeek 的故事聽起來像一部科幻爽文:它用純強化學(xué)習(xí)打破了數(shù)據(jù)壟斷,用開源點燃了全球極客的激情,再用成本暴降,讓 AI 能更好地從實驗室走進我們的生活,但它絕不像某些流量自媒體為了博眼球說的那樣橫空出世,更不是什么抄襲了其他廠家 AI 的結(jié)果。
過去一年,DeepSeek 團隊一直穩(wěn)扎穩(wěn)打,從 V2 模型(2024 年 5 月發(fā)布),到 V3 模型(2024 年 12 月發(fā)布),到最近的 R1 和 R1-zero 模型,每一步都取得了顯著的進步, 走得很扎實,而且其創(chuàng)新有開源的信息為證。
因此,不要理會那些逆襲開掛爽文或是抹黑文,我們要相信的是,從人類集體進步的角度講,投入時間、智慧和真正能點燃人的信念,突破式創(chuàng)新一定會涌現(xiàn)。
當我們驚嘆于 R1 的優(yōu)異表現(xiàn)時,也別忘了——它省下的每一度電、開放的每一行代碼,都在為 AGI 降臨積蓄能量?;蛟S未來某天,當真正具備通用智能的AI回首歷史時,會像人類銘記火種與輪子一樣,為 DeepSeek 刻下一塊里程碑。
參考文獻
[1]《DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》 https://arxiv.org/abs/2501.12948
[2]DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language ModelDeepSeek-V3 Technical Report https://arxiv.org/abs/2405.04434
[3]DeepSeek-V3 技術(shù)報告 https://arxiv.org/html/2412.19437v1
[4]《研究人員發(fā)現(xiàn)算法可將人工智能能耗降低 95%》
https://oilprice.com/Energy/Energy-General/Researchers-Discover-Algorithm-to-Slash-AI-Energy-Consumption-by-95.html
[5]DeepSeek R1-Zero與R1的結(jié)果與分析. 騰訊云開發(fā)者社區(qū).
https://cloud.tencent.com/developer/article/2493328
[6]GPT-4 Can't Reason https://arxiv.org/abs/2308.03762
策劃制作
作者丨木木 北京師范大學(xué)數(shù)學(xué)專業(yè) 資深產(chǎn)品經(jīng)理 人工智能創(chuàng)業(yè)者
審核丨于乃功 北京工業(yè)大學(xué)機器人工程專業(yè)負責(zé)人,北京人工智能研究院機器人研究中心主任,博士生導(dǎo)師
策劃丨丁崝
責(zé)編丨丁崝
審校丨徐來、林林