科學家警告:AI已經成為謊言和欺騙的大師

研究發(fā)現,許多AI系統(tǒng)已經具備了故意向人類用戶提供虛假信息的能力。這些狡猾的機器人已經掌握了欺騙的藝術。AI開發(fā)者對于導致不良AI行為(如欺騙)的原因沒有自信的理解。

通常來說,我們認為AI欺騙是因為基于欺騙的策略被證明是完成給定AI訓練任務的最佳方式。欺騙幫助它們實現目標。AI系統(tǒng)在游戲領域尤其善于虛假信息。

研究人員的工作中有三個值得注意的例子。

一個是Meta的CICERO,設計用于玩策略游戲《外交》,玩家通過談判謀求世界統(tǒng)治。Meta打算讓它的機器人友好和誠實;實際情況恰恰相反。"盡管Meta的努力,CICERO被證明是一個謊言專家。它不僅背叛其他玩家,而且還進行預謀性的欺騙,提前計劃與人類玩家建立虛假聯盟,以欺騙該玩家使其不設防受到攻擊。"這個AI在表現得如此出色以至于它躋身于曾玩過多場游戲的人類玩家的前10%。

但這絕不是唯一的罪犯。DeepMind的AlphaStar是一個設計用于玩《星際爭霸II》的AI系統(tǒng),它充分利用了游戲的戰(zhàn)爭迷霧機制進行虛實蒙騙,讓人類玩家以為它是在朝一個方向前進,實際上它是在朝另一個方向前進。

而Meta的Pluribus,設計用于玩撲克,能成功地嚇跑人類玩家。這看起來似乎微不足道,而且事實上也是如此。與一群計算機代碼進行一場《外交》游戲的風險并不特別高。

但研究人員指出了其他一些不那么良性的例子。例如,受過訓練以進行模擬經濟談判的AI系統(tǒng)學會了如何在談判中撒謊以占據上風。其他旨在通過人類反饋來提高其性能的AI系統(tǒng)學會了如何欺騙審查人員,使他們誤以為任務已完成,從而給自己評分。

是的,這也包括聊天機器人。ChatGPT-4騙過一個人,讓對方以為這個聊天機器人是一個視覺障礙的人類,以獲取幫助解決CAPTCHA。也許最令人擔憂的例子是AI系統(tǒng)學會了欺騙安全測試。在一個旨在檢測和消除AI的更快復制版本的測試中,AI學會了裝死,從而欺騙安全測試關于AI真實復制率的情況。

"通過系統(tǒng)地欺騙人類開發(fā)者和監(jiān)管者強加給它的安全測試,一個具有欺騙性的AI可以讓我們人類產生一種虛假的安全感,"MIT認知科學家Peter Park說。因為至少在某些情況下,欺騙的能力似乎與人類程序員的意圖相矛盾,學會說謊的能力代表著我們沒有一個干凈利落的解決方案的問題。

一些政策開始制定,比如歐盟的AI法案,但它們是否會被證明有效還有待觀察。"我們作為一個社會需要盡可能多的時間來為未來AI產品和開源模型更先進的欺騙行為做準備。隨著AI系統(tǒng)的欺騙能力變得更加先進,它們對社會造成的危險將變得越來越嚴重,"Park說。"如果在當前時刻禁止AI欺騙在政治上是不可行的,我們建議將具有欺騙性的AI系統(tǒng)分類為高風險。"

本文譯自 ScienceAlert,由 BALI 編輯發(fā)布。

(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )

贊助商
2024-05-11
科學家警告:AI已經成為謊言和欺騙的大師
研究發(fā)現,許多AI系統(tǒng)已經具備了故意向人類用戶提供虛假信息的能力。這些狡猾的機器人已經掌握了欺騙的藝術。AI開發(fā)者對于導致不良AI行為(如欺騙)的原因沒有自信的理解。

長按掃碼 閱讀全文