今天,備受矚目的2025世界人工智能大會(huì)暨人工智能全球治理高級(jí)別會(huì)議開(kāi)幕。
在上午的主旨演講中,77歲的“深度學(xué)習(xí)之父” 、圖靈獎(jiǎng)得主、2024年諾貝爾物理學(xué)獎(jiǎng)獲得者Geoffrey Hinton,在發(fā)言中談及人工智能的歷史、語(yǔ)言模型的本質(zhì)、人類與AI的共通結(jié)構(gòu)。他還特別談到了Deepseek,但他認(rèn)為這種方式效率很低。
辛頓回顧了過(guò)去60年AI發(fā)展中兩條主流路徑:一是以推理為核心的“邏輯主義”,另一是以模擬人類認(rèn)知為基礎(chǔ)的“連接主義”——即通過(guò)連接、學(xué)習(xí)和理解來(lái)實(shí)現(xiàn)智能。他認(rèn)為,語(yǔ)言理解更接近后者,不是符號(hào)演繹,而是從模糊中提取出概念之間的關(guān)聯(lián)。
他回憶自己在1985年開(kāi)發(fā)的一個(gè)早期小型模型,認(rèn)為如今的大語(yǔ)言模型本質(zhì)上是“它的后代”。盡管現(xiàn)在的模型擁有更深的網(wǎng)絡(luò)結(jié)構(gòu)和更龐大的參數(shù)規(guī)模,但核心機(jī)制并未改變。“語(yǔ)言模型的理解方式,和人類理解語(yǔ)言的方式是一樣的?!?/p>
辛頓強(qiáng)調(diào),大模型一旦具備比人類更強(qiáng)的智能,僅靠“關(guān)掉它”并不能解決問(wèn)題?!坝腥擞X(jué)得他們變得聰明了我們就可以把他們關(guān)掉,這是不現(xiàn)實(shí)的。他們會(huì)勸說(shuō)操控機(jī)器的人不要關(guān)掉它們。”他說(shuō),人類的處境更像是在“養(yǎng)一只老虎當(dāng)寵物”,“養(yǎng)老虎的唯一辦法是,要么你把它訓(xùn)練得永遠(yuǎn)不攻擊你,要么你把它干掉?!?/p>
辛頓建議,全球主要國(guó)家或AI大國(guó)應(yīng)建立一個(gè)由AI安全機(jī)構(gòu)組成的國(guó)際社群,研究如何訓(xùn)練高智能AI向善 —— 這與訓(xùn)練AI變得聰明的技術(shù)不同。各國(guó)可在自身主權(quán)范圍內(nèi)研究,再分享成果。盡管目前還不知道具體怎么做,但這是人類長(zhǎng)期面臨的最重要問(wèn)題,且所有國(guó)家都能在此領(lǐng)域合作。
辛頓長(zhǎng)期致力于神經(jīng)網(wǎng)絡(luò)、機(jī)器學(xué)習(xí)、分類監(jiān)督學(xué)習(xí)、機(jī)器學(xué)習(xí)理論、細(xì)胞神經(jīng)網(wǎng)絡(luò)、信息系統(tǒng)應(yīng)用、馬爾可夫決策過(guò)程、神經(jīng)網(wǎng)絡(luò)、認(rèn)知科學(xué)等方面的研究。2023年,辛頓從谷歌辭職,稱生成式人工智能系統(tǒng)的商業(yè)應(yīng)用構(gòu)成了多重嚴(yán)重威脅,他警告說(shuō),從長(zhǎng)遠(yuǎn)來(lái)看,自主人工智能系統(tǒng)可能會(huì)對(duì)人類構(gòu)成嚴(yán)重威脅。
以下是杰弗里·辛頓2025WAIC現(xiàn)場(chǎng)演講實(shí)錄:
各位同事、閣下、領(lǐng)導(dǎo)、女士們、先生們,首先非常感謝大家給我這個(gè)機(jī)會(huì),分享我對(duì)AI歷史及未來(lái)的個(gè)人觀點(diǎn)。在過(guò)去60多年里,AI發(fā)展存在兩種不同的范式和路徑。一種是邏輯性范式,這是過(guò)去一個(gè)世紀(jì)的主流,認(rèn)為智能的本質(zhì)在于推理,通過(guò)符號(hào)規(guī)則對(duì)符號(hào)表達(dá)式進(jìn)行操作來(lái)實(shí)現(xiàn)推理,以此幫助我們更好地理解世界。另一種是以生物為基礎(chǔ)的范式,這是圖靈和馮・諾依曼所認(rèn)同的,他們認(rèn)為智能的基礎(chǔ)是學(xué)習(xí),是理解網(wǎng)絡(luò)中的連接速度,而理解是前提,之后才能進(jìn)行轉(zhuǎn)化。與這兩種理論相對(duì)應(yīng)的是不同的AI類型。符號(hào)型AI關(guān)注數(shù)字,而這些數(shù)字如何成為核心關(guān)注點(diǎn),心理學(xué)家則有完全不同的理論——他們認(rèn)為數(shù)字的意義在于一系列語(yǔ)義學(xué)特征,這些特征的存在使其成為獨(dú)特的標(biāo)志。
1985年,我做了一個(gè)小型模型,嘗試結(jié)合這兩種理論,以此理解人們對(duì)詞語(yǔ)的理解方式。我給每個(gè)詞設(shè)置了多個(gè)不同特征,記錄前一個(gè)詞的特征后,就能預(yù)測(cè)下一個(gè)詞是什么。在這個(gè)過(guò)程中,我沒(méi)有存儲(chǔ)任何句子,而是生成句子并預(yù)測(cè)下一個(gè)詞。其中的相關(guān)性知識(shí),取決于不同詞的語(yǔ)義特征之間的互動(dòng)方式。
如果問(wèn)未來(lái)30年會(huì)發(fā)生什么,從發(fā)展軌跡能看到一些趨勢(shì)。十年后,有人沿用這種建模模式,但將規(guī)模大幅擴(kuò)大,使其成為自然語(yǔ)言的真實(shí)模擬。20年后,計(jì)算語(yǔ)言學(xué)家開(kāi)始接受用特征向量嵌入來(lái)表達(dá)語(yǔ)義。又過(guò)了30年,谷歌發(fā)明了Transformer,OpenAI的研究人員也向人們展示了它的能力。所以我認(rèn)為,如今的大語(yǔ)言模型就是我當(dāng)年微型語(yǔ)言模型的 “后代”。它們使用更多詞作為輸入,采用更多層的神經(jīng)元結(jié)構(gòu),由于需要處理大量模糊數(shù)字,學(xué)習(xí)特征之間也建立了更復(fù)雜的交互模式。但和我做的小模型一樣,大語(yǔ)言模型理解語(yǔ)言的方式與人類相似——基本邏輯是將語(yǔ)言轉(zhuǎn)化為特征,再以完美的方式整合這些特征,這正是大語(yǔ)言模型各層級(jí)所做的工作。因此我認(rèn)為,大語(yǔ)言模型和人類理解語(yǔ)言的方式相同。
用樂(lè)高積木來(lái)打比方或許能更好地解釋 “理解一句話” 的含義。符號(hào)型 AI 是將內(nèi)容轉(zhuǎn)化為清晰的符號(hào),但人類并非如此理解。樂(lè)高積木能拼出任何 3D造型,比如小車模型。如果把每個(gè)詞看作多維度的樂(lè)高積木(可能有幾千個(gè)維度),語(yǔ)言就成了一種建模工具,能隨時(shí)與人溝通,只要給這些 “積木” 命名——每個(gè) “積木” 就是一個(gè)詞。
不過(guò),詞和樂(lè)高積木有很多不同:詞的符號(hào)形態(tài)可根據(jù)情況調(diào)整,而樂(lè)高積木造型固定;樂(lè)高積木的拼接是固定的(比如正方形積木插入正方形孔洞),但語(yǔ)言中每個(gè)詞仿佛有多個(gè) “手臂”,要通過(guò)合適的 “握手” 方式與其他詞互動(dòng),詞的 “造型” 變化,“握手” 方式也會(huì)改變。當(dāng)一個(gè)詞的 “造型”(即意思)改變,它與下一個(gè)詞的 “握手” 方式就會(huì)不同,進(jìn)而產(chǎn)生新的含義。這就是人腦或神經(jīng)網(wǎng)絡(luò)理解語(yǔ)義的根本邏輯,類似蛋白質(zhì)通過(guò)氨基酸的不同組合形成有意義的結(jié)構(gòu)。
所以我認(rèn)為,人類理解語(yǔ)言的方式與大語(yǔ)言模型幾乎一致,人類甚至可能和大語(yǔ)言模型一樣產(chǎn)生 “幻覺(jué)”,因?yàn)槲覀円矔?huì)創(chuàng)造出一些虛構(gòu)的表達(dá)。
軟件中的知識(shí)是永恒的,即便存儲(chǔ)LLM的硬件被摧毀,只要軟件存在,就能隨時(shí) “復(fù)活”。但要實(shí)現(xiàn)這種 “永生”,晶體管需在高功率下運(yùn)行以產(chǎn)生可靠的二進(jìn)制行為,這個(gè)過(guò)程成本很高,且無(wú)法利用硬件中不穩(wěn)定的類似特性——它們是模擬型的,每次計(jì)算結(jié)果都不同。人腦也是模擬型而非數(shù)字型的,神經(jīng)元每次激發(fā)的過(guò)程都一樣,但每個(gè)人的神經(jīng)元連接方式不同,我無(wú)法將自己的神經(jīng)結(jié)構(gòu)轉(zhuǎn)移到他人腦中,這就導(dǎo)致知識(shí)在人腦間的傳播效率遠(yuǎn)低于在硬件中的傳播。
軟件與硬件無(wú)關(guān),因此能 “永生”,還能帶來(lái)低功耗優(yōu)勢(shì)——人腦只需30瓦特就能運(yùn)轉(zhuǎn)。我們的神經(jīng)元連接達(dá)數(shù)萬(wàn)億個(gè),無(wú)需花費(fèi)大量資金制造完全相同的硬件。但問(wèn)題在于,模擬模型間的知識(shí)轉(zhuǎn)移效率極低,我無(wú)法直接將腦中的知識(shí)展示給他人。
Deepseek的做法是將大神經(jīng)網(wǎng)絡(luò)的知識(shí)轉(zhuǎn)移到小神經(jīng)網(wǎng)絡(luò)中,即 “蒸餾”,類似教師與學(xué)生的關(guān)系:教師將詞語(yǔ)在上下文中的關(guān)聯(lián)教給學(xué)生,學(xué)生通過(guò)調(diào)整權(quán)重學(xué)會(huì)表達(dá)。但這種方式效率很低,一句話通常只有100個(gè)比特的信息,即便全被理解,每秒最多也只能傳遞約100個(gè)比特。而數(shù)字智能間的知識(shí)轉(zhuǎn)移效率極高,同一神經(jīng)網(wǎng)絡(luò)軟件的多個(gè)拷貝在不同硬件上運(yùn)行時(shí),能通過(guò)平均化比特的方式分享知識(shí)。如果智能體在現(xiàn)實(shí)世界中運(yùn)行,這種優(yōu)勢(shì)更明顯——它們能不斷加速、拷貝,多個(gè)智能體比單個(gè)智能體學(xué)得更多,還能分享權(quán)重,這是模擬硬件或軟件做不到的。
生物計(jì)算功耗低,但知識(shí)分享難。如果能源和計(jì)算成本低廉,情況會(huì)好很多,但這也讓我感到擔(dān)憂——幾乎所有專家都認(rèn)為,我們會(huì)創(chuàng)造出比人類更智能的AI。人類習(xí)慣了作為最智能的生物,很難想象AI超越人類的場(chǎng)景。其實(shí)可以換個(gè)角度:就像養(yǎng)雞場(chǎng)的雞無(wú)法理解人類一樣,我們創(chuàng)造的AI智能體已能幫我們完成任務(wù),它們能拷貝自身、評(píng)估子目標(biāo),還會(huì)為了生存和完成目標(biāo)而尋求更多控制權(quán)。
有人認(rèn)為可以在AI變得過(guò)強(qiáng)時(shí)關(guān)掉它們,但這并不現(xiàn)實(shí)。它們可能會(huì)像成年人操縱3歲孩子一樣操縱人類,勸說(shuō)控制機(jī)器的人不要關(guān)閉它們。這就像把老虎當(dāng)寵物,幼虎很可愛(ài),但長(zhǎng)大后可能傷人,而養(yǎng)老虎當(dāng)寵物通常不是好主意。
面對(duì)AI,我們只有兩個(gè)選擇:要么訓(xùn)練它永遠(yuǎn)不傷害人類,要么 “消滅” 它。但AI在醫(yī)療、教育、氣候變化、新材料等領(lǐng)域作用巨大,能提升所有行業(yè)的效率,我們無(wú)法消除它——即便一個(gè)國(guó)家放棄AI,其他國(guó)家也不會(huì)。因此,若想讓人類生存,必須找到訓(xùn)練AI不傷害人類的方法。
我個(gè)人認(rèn)為,各國(guó)在網(wǎng)絡(luò)攻擊、致命武器、虛假信息操縱等領(lǐng)域的合作難度較大,因利益和看法不同。但在 “人類掌控世界” 這一目標(biāo)上,各國(guó)存在共識(shí):若有國(guó)家找到防止AI操控世界的方法,一定會(huì)愿意分享。因此我提議,全球主要國(guó)家或AI大國(guó)應(yīng)建立一個(gè)由AI安全機(jī)構(gòu)組成的國(guó)際社群,研究如何訓(xùn)練高智能AI向善 —— 這與訓(xùn)練AI變得聰明的技術(shù)不同。各國(guó)可在自身主權(quán)范圍內(nèi)研究,再分享成果。盡管目前還不知道具體怎么做,但這是人類長(zhǎng)期面臨的最重要問(wèn)題,且所有國(guó)家都能在此領(lǐng)域合作。
謝謝大家。
- 中國(guó)電信柯瑞文:全面擁抱人工智能,推動(dòng)企業(yè)戰(zhàn)略向“云改數(shù)轉(zhuǎn)智惠”升級(jí)
- 左手技術(shù),右手產(chǎn)業(yè):中移九天“一門兩牌”不是“搞抽象”
- 研發(fā)運(yùn)營(yíng)一體化!中移九天正式揭牌,目標(biāo)打造一流AI科技公司
- AI教父辛頓:要么訓(xùn)練AI永遠(yuǎn)不傷害人類,要么 “消滅” AI
- 比移動(dòng)電話用戶多10億!我國(guó)移動(dòng)物聯(lián)網(wǎng)終端用戶達(dá)28.31億
- 我國(guó)千兆寬帶用戶達(dá)到2.26億,占總數(shù)的1/3
- 上半年上海AI產(chǎn)業(yè)產(chǎn)值同比增長(zhǎng)12.3% 成經(jīng)濟(jì)增長(zhǎng)重要引擎
- 愛(ài)立信在Telstra商用5G-A站點(diǎn)部署自動(dòng)載波聚合技術(shù)
- 江蘇曙光云計(jì)算被軍采拉入“黑名單”
- 愛(ài)立信在Telstra商用5G-A站點(diǎn)部署自動(dòng)載波聚合技術(shù)
免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。