無(wú)限猴子定理認(rèn)為,讓一只猴子在打字機(jī)上隨機(jī)地按鍵,當(dāng)按鍵時(shí)間達(dá)到無(wú)窮時(shí),幾乎必然能夠打出任何給定的文字,比如莎士比亞的全套著作。
在這個(gè)定理中,“幾乎必然”是一個(gè)有特定含義的數(shù)學(xué)術(shù)語(yǔ),“猴子”也不是指一只真正意義上的猴子,而是被用來(lái)比喻成一臺(tái)可以產(chǎn)生無(wú)限隨機(jī)字母序列的抽象設(shè)備。
圖|一只黑猩猩隨機(jī)打字,只要時(shí)間足夠,幾乎必然可以打出法國(guó)國(guó)家圖書館中的每本書。(來(lái)源:維基百科)
這個(gè)理論說(shuō)明,把一個(gè)很大但有限的數(shù)看成無(wú)限的推論是錯(cuò)誤的,即使可觀測(cè)宇宙中充滿了一直不停打字的猴子,它們能夠打出一部《哈姆雷特》的概率仍然少于 1/10^183800。
而且,即使給無(wú)數(shù)只猴子無(wú)限的時(shí)間,它們也不會(huì)懂得如何欣賞吟游詩(shī)人詩(shī)意的措辭。
“人工智能(AI)也是如此,” 牛津大學(xué)計(jì)算機(jī)科學(xué)教授 Michael Wooldridge 這樣說(shuō)道。
圖|Michael Wooldridge
在 Wooldridge 看來(lái),雖然 GPT-3 等 AI 模型借助數(shù)百億或數(shù)千億的參數(shù)展現(xiàn)出了令人驚訝的能力,但它們的問(wèn)題不在于處理能力的大小,而在于缺乏來(lái)自現(xiàn)實(shí)世界的經(jīng)驗(yàn)。
例如,一個(gè)語(yǔ)言模型可能會(huì)很好地學(xué)習(xí)“雨是濕的”,當(dāng)被問(wèn)及雨是濕的還是干的時(shí),它很可能會(huì)回答雨是濕的,但與人類不同的是,這個(gè)語(yǔ)言模型從未真正體驗(yàn)過(guò)“潮濕”這種感覺(jué),對(duì)它們來(lái)說(shuō),“濕”只不過(guò)是一個(gè)符號(hào),只是經(jīng)常與“雨”等詞結(jié)合使用。
然而,Wooldridge 也強(qiáng)調(diào),缺乏現(xiàn)實(shí)物理世界知識(shí)并不能說(shuō)明 AI 模型無(wú)用,也不會(huì)阻止某一 AI 模型成為某一領(lǐng)域的經(jīng)驗(yàn)專家,但在諸如理解等問(wèn)題上,如果認(rèn)為 AI 模型具備與人類相同能力的可能性,確實(shí)令人懷疑。
相關(guān)研究論文以“What Is Missing from Contemporary AI? The World”為題,已發(fā)表在《智能計(jì)算》(Intelligent Computing)雜志上。
在當(dāng)前的 AI 創(chuàng)新浪潮中,數(shù)據(jù)和算力已經(jīng)成為 AI 系統(tǒng)成功的基礎(chǔ):AI 模型的能力直接與其規(guī)模、用于訓(xùn)練它們的資源以及訓(xùn)練數(shù)據(jù)的規(guī)模成正比。
對(duì)于這一現(xiàn)象,DeepMind 研究科學(xué)家 Richard S. Sutton 此前就曾表示,AI 的“慘痛教訓(xùn)”是,它的進(jìn)步主要是使用越來(lái)越大的數(shù)據(jù)集和越來(lái)越多的計(jì)算資源。
圖|AI 生成作品(來(lái)源:Wired)
在談及 AI 行業(yè)的整體發(fā)展時(shí),Wooldridge 給出了肯定。“在過(guò)去 15 年里,AI 行業(yè)的發(fā)展速度,特別是機(jī)器學(xué)習(xí)(ML)領(lǐng)域的發(fā)展速度,一再讓我感到意外:我們不得不不斷調(diào)整我們的預(yù)期,以確定什么是可能的,以及什么時(shí)候可能實(shí)現(xiàn)?!?/p>
但是,Wooldridge 卻也指出了當(dāng)前 AI 行業(yè)存在的問(wèn)題,“盡管他們的成就值得稱贊,但我認(rèn)為當(dāng)前大多數(shù)大型 ML 模型受到一個(gè)關(guān)鍵因素的限制:AI 模型沒(méi)有真正體驗(yàn)過(guò)現(xiàn)實(shí)世界。
在 Wooldridge 看來(lái),大多數(shù) ML 模型都是在電子游戲等虛擬世界中構(gòu)建的,它們可以在海量數(shù)據(jù)集上進(jìn)行訓(xùn)練,一旦涉及到物理世界的應(yīng)用,它們就會(huì)丟失重要信息,它們只是脫離實(shí)體的 AI 系統(tǒng)。
以支持自動(dòng)駕駛汽車的人工智能為例。讓自動(dòng)駕駛汽車在道路上自行學(xué)習(xí)是不太現(xiàn)實(shí)的,出于這個(gè)和其他原因,研究人員們往往選擇在虛擬世界中構(gòu)建他們的模型。
“但它們根本沒(méi)有能力在所有最重要的環(huán)境(即我們的世界)中運(yùn)行,”Wooldridge 說(shuō)道。
(來(lái)源:Wikimedia Commons)
另一方面,語(yǔ)言 AI 模型也會(huì)受到同樣的限制。可以說(shuō),它們已經(jīng)從荒唐可怕的預(yù)測(cè)文本演變?yōu)楣雀璧?LAMDA。今年早些時(shí)候,一個(gè)前谷歌工程師聲稱人工智能程序 LAMDA 是有知覺(jué)的,一度成為了頭條新聞。
“無(wú)論這個(gè)工程師的結(jié)論的有效性如何,很明顯 LAMDA 的對(duì)話能力給他留下了深刻的印象——這是有充分理由的,” Wooldridge 說(shuō),但他并不認(rèn)為 LAMDA 是有知覺(jué)的,AI 也沒(méi)有接近這樣的里程碑。
“這些基礎(chǔ)模型展示了自然語(yǔ)言生成方面前所未有的能力,可以生成比較自然的文本片段,似乎也獲得了一些常識(shí)性推理能力,這是過(guò)去 60 年中 AI 研究的重大事件之一?!?/p>
這些 AI 模型需要海量參數(shù)的輸入,并通過(guò)訓(xùn)練來(lái)理解它們。例如,GPT-3 使用互聯(lián)網(wǎng)上千億級(jí)的英語(yǔ)文本進(jìn)行訓(xùn)練。大量的訓(xùn)練數(shù)據(jù)與強(qiáng)大的計(jì)算能力相結(jié)合,使得這些 AI 模型表現(xiàn)得類似于人類的大腦,可以越過(guò)狹窄的任務(wù),開始識(shí)別模式,并建立起與主要任務(wù)似乎無(wú)關(guān)的聯(lián)系。
(來(lái)源:OpenAI)
但是,Wooldridge 卻表示,基礎(chǔ)模型是一個(gè)賭注,“基于海量數(shù)據(jù)的訓(xùn)練使得它們?cè)谝幌盗蓄I(lǐng)域具備有用的能力,也進(jìn)而可以專門用于特定的應(yīng)用?!?/p>
“符號(hào)人工智能(symbolic AI)是基于‘智能主要是知識(shí)問(wèn)題’的假設(shè),而基礎(chǔ)模型是基于‘智能主要是數(shù)據(jù)問(wèn)題’的假設(shè),在大模型中輸入足夠的訓(xùn)練數(shù)據(jù),就被認(rèn)為有希望提高模型的能力?!?/p>
Wooldridge 認(rèn)為,為了產(chǎn)生更智能的 AI,這種“可能即正確”(might is right)的方法將 AI 模型的規(guī)模不斷擴(kuò)大,但忽略了真正推進(jìn) AI 所需的現(xiàn)實(shí)物理世界知識(shí)。
“公平地說(shuō),有一些跡象表明這種情況正在改變,” Wooldridge說(shuō)。今年 5 月,DeepMind 宣布了基于大型語(yǔ)言集和機(jī)器人數(shù)據(jù)的基礎(chǔ)模型 Gato,該模型可以在簡(jiǎn)單的物理環(huán)境中運(yùn)行。
“很高興看到基礎(chǔ)模型邁出了進(jìn)入物理世界的第一步,但只是一小步:要讓 AI 在我們的世界中工作,需要克服的挑戰(zhàn)至少和讓 AI 在模擬環(huán)境中工作所面臨的挑戰(zhàn)一樣大,甚至可能更大?!?/p>
在論文的最后,Wooldridge 這樣寫道:“我們并不是在尋找 AI 道路的盡頭,但我們可能已經(jīng)走到了道路起點(diǎn)的盡頭。”
對(duì)此,你怎么看?歡迎在評(píng)論區(qū)留言。
參考資料:
https://spj.sciencemag.org/journals/icomputing/2022/9847630/
https://www.eurekalert.org/news-releases/966063