標(biāo)題:英偉達(dá)創(chuàng)新強(qiáng)化學(xué)習(xí)技術(shù):只需訓(xùn)練2000步,打造全球最強(qiáng)AI推理模型
隨著人工智能技術(shù)的飛速發(fā)展,強(qiáng)化學(xué)習(xí)(Reinforcement Learning)在訓(xùn)練中扮演著越來(lái)越重要的角色。英偉達(dá)作為一家領(lǐng)先的科技公司,推出了一種名為ProRL的強(qiáng)化學(xué)習(xí)方法,通過(guò)延長(zhǎng)強(qiáng)化學(xué)習(xí)訓(xùn)練時(shí)間至超過(guò)2000步,并將訓(xùn)練數(shù)據(jù)擴(kuò)展至多個(gè)領(lǐng)域,成功開(kāi)發(fā)出全球最佳的1.5B參數(shù)推理模型Nemotron-Research-Reasoning-Qwen-1.5B。本文將圍繞這一創(chuàng)新技術(shù),探討其在大型語(yǔ)言模型(LLM)推理能力提升方面的突破與應(yīng)用。
一、強(qiáng)化學(xué)習(xí)的角色與爭(zhēng)議
強(qiáng)化學(xué)習(xí)是一種通過(guò)試錯(cuò)法來(lái)尋找最優(yōu)決策策略的學(xué)習(xí)方法。在訓(xùn)練過(guò)程中,智能體根據(jù)環(huán)境反饋來(lái)調(diào)整自己的行為,以達(dá)到獎(jiǎng)勵(lì)最大化的目標(biāo)。近年來(lái),強(qiáng)化學(xué)習(xí)在游戲AI、自動(dòng)駕駛等領(lǐng)域取得了顯著的成果。然而,關(guān)于強(qiáng)化學(xué)習(xí)是否真正提升大型語(yǔ)言模型(LLM)的推理能力,研究者們?nèi)源嬖跔?zhēng)議。
現(xiàn)有數(shù)據(jù)表明,采用可驗(yàn)證獎(jiǎng)勵(lì)的強(qiáng)化學(xué)習(xí)(RLVR)方法,如GRPO、Mirror Descent和RLOO等算法,雖然在pass@k指標(biāo)上未能顯著優(yōu)于基礎(chǔ)模型,但顯示推理能力有所擴(kuò)展。然而,這些改進(jìn)仍存在限制,例如在探索潛力和訓(xùn)練步數(shù)方面。
二、ProRL方法的突破與應(yīng)用
為了解決上述問(wèn)題,英偉達(dá)研究團(tuán)隊(duì)推出ProRL方法,通過(guò)延長(zhǎng)強(qiáng)化學(xué)習(xí)訓(xùn)練時(shí)間至超過(guò)2000步,并將訓(xùn)練數(shù)據(jù)擴(kuò)展至多個(gè)領(lǐng)域,涵蓋13.6萬(wàn)個(gè)樣本。這些領(lǐng)域包括數(shù)學(xué)、編程、STEM、邏輯謎題和指令遵循等。
通過(guò)采用Verl框架和改進(jìn)的GRPO方法,英偉達(dá)成功開(kāi)發(fā)出全球最佳的1.5B參數(shù)推理模型Nemotron-Research-Reasoning-Qwen-1.5B。該模型在多項(xiàng)基準(zhǔn)測(cè)試中超越了基礎(chǔ)模型DeepSeek-R1-1.5B,甚至優(yōu)于更大的DeepSeek-R1-7B。測(cè)試結(jié)果顯示,該模型在數(shù)學(xué)領(lǐng)域的平均提升達(dá)到15.7%,編程任務(wù)pass@1準(zhǔn)確率提升14.4%,STEM推理和指令遵循的提升則分別達(dá)到25.9%和22.0%。此外,邏輯謎題獎(jiǎng)勵(lì)值的提升更是達(dá)到了54.8%,充分展現(xiàn)了其強(qiáng)大的泛化能力。
三、未來(lái)展望
英偉達(dá)的ProRL方法為強(qiáng)化學(xué)習(xí)在大型語(yǔ)言模型(LLM)推理能力提升方面開(kāi)辟了新的道路。隨著訓(xùn)練時(shí)間的延長(zhǎng)和訓(xùn)練數(shù)據(jù)領(lǐng)域的擴(kuò)展,我們有望看到更多強(qiáng)大的AI推理模型問(wèn)世。然而,我們?nèi)孕枰P(guān)注以下幾個(gè)問(wèn)題:
首先,如何平衡模型的泛化能力和特定領(lǐng)域的表現(xiàn)?Nemotron-Research-Reasoning-Qwen-1.5B在數(shù)學(xué)、編程、STEM等領(lǐng)域表現(xiàn)出色,但在其他領(lǐng)域的表現(xiàn)如何?
其次,如何處理過(guò)擬合問(wèn)題?隨著模型參數(shù)的增加,如何確保模型對(duì)新數(shù)據(jù)的適應(yīng)能力?
最后,如何優(yōu)化強(qiáng)化學(xué)習(xí)算法以提高訓(xùn)練效率?ProRL方法是否能夠推廣到其他類(lèi)型的LLM?
綜上所述,英偉達(dá)的ProRL方法為強(qiáng)化學(xué)習(xí)技術(shù)在大型語(yǔ)言模型(LLM)推理能力提升方面提供了新的思路和方向。隨著該技術(shù)的進(jìn)一步發(fā)展和完善,我們有理由相信,未來(lái)的AI將更加聰明、靈活和強(qiáng)大。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。 )