Meta發(fā)布GPT平替Llama 2,開源免費可商用

7月19日消息,在 19 日的微軟的 Inspire 合作伙伴大會上,Meta宣布和微軟深化合作,正式推出新一代開源大型語言模型Llama 2,并將該模型免費開放給商業(yè)和研究使用。

據品玩網報道,此次 Meta 高調開源 Llama 2,無疑是在正面硬剛走技術保密路線的 GPT-4 和谷歌的 PaLM 2。

根據 Meta 官方數據,Llama 2 相較于上一代其訓練數據提升了 40%,包含了 70 億、130 億和 700 億參數 3 個版本。Llama 2 預訓練模型接受了 2 萬億個 tokens 的訓練,上下文長度是 Llama 1 的兩倍,其微調模型已經接受了超過 100 萬個人類注釋的訓練。

2 月,Meta 首次發(fā)布了自家的大語言模型LLaMA(Large Language Model Meta AI)系列,包含 70 億、130億、330億 和 650 億4個版本。

當時 Meta 表示, LLaMA 擁有超高性能,使用 130 億參數的 LLaMA 在規(guī)模僅為 ChatGPT 的十分之一的情況下,性能表現可以優(yōu)于GPT-3。

使用 650 億參數的 LLaMA 則可以與 DeepMind 700 億參數的 Chinchilla 模型和谷歌 5400 億參數的 PaLM 模型比肩。

但 2 月版本的 LLaMA 并不是 ChatGPT 的直接競爭對手,LLaMA 定位于“開源的研究工具”,所使用的是各類公開可用的數據集。它當時更多的著眼于研究領域,僅在非商業(yè)許可下提供給政府、社區(qū)和學術界的研究人員。

Meta 表示Llama 2可免費用于研究和商業(yè)用途,開發(fā)者們可以直接在Llama 2官方網站下下載該模型。

免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。

2023-07-19
Meta發(fā)布GPT平替Llama 2,開源免費可商用
相較于上一代其訓練數據提升了 40%。

長按掃碼 閱讀全文