霍金亮相中國:警惕人工智能威脅

鳳凰科技訊(作者/花子?。?月27日消息,GMIC北京2017在北京召開,來自英國的著名科學家斯蒂芬·霍金教授通過視頻發(fā)表演講,談了他關于人工智能的看法,他認為人工智能在未來是否會威脅到人類還不好說,現(xiàn)在我們就該從研究中規(guī)避這種風險。

霍金認為,人工智能的崛起是人類歷史上最好的事情,也有可能是最糟糕的,但它是最好的還是最壞的,現(xiàn)在還不能確定。

霍金

人工智能的出現(xiàn)是一種必然的趨勢。從實驗室研究到實現(xiàn)人工智能的經濟效益,有很長的路,哪怕很小的提升,也可以實現(xiàn)巨大的效益。我們現(xiàn)在的工作應該從提升人工智能的能力轉化為提升人工智能的社會效益。

我們現(xiàn)在對于人工智能的研究是從各個分支入手,比如語音識別,圖像分類,自動駕駛,機器翻譯,步態(tài)運動等,推動人工智能的快速發(fā)展。但是就長遠來說,人腦和計算機能實現(xiàn)的事情,是沒有本質區(qū)別的。

現(xiàn)在更需要關注的是,包括人工智能的研究人員也在擔心和探索人工智能的倫理問題。拿機器人來說,我們需要在未來確保機器人一直都會為人類工作。未來可能機器人會需要人格化的身份,就像今天的獨立法人,為了確保人類可以控制機器人,研究和設計人員都應該確保每個機器人都有終止開關。

人工智能可以解決世界上的大部分問題,包括人類的疾病、社會的問題等,AI有這個潛力。如果對于AI的部署得當,那將會挖掘無限的潛力,如果部署不當,可以威脅人類的生存。人工智能一旦脫離控制,人類受到進化的限制,將無法與之競爭。跟據霍金的預測,在未來一段時間內,AI將迅速地消滅數百萬的工作崗位。

更長遠的擔憂就是人工智能系統(tǒng)失控的風險以及超級智能的崛起。人工智能贏得圍棋就是這種未來的趨勢,人工智能未來的潛力在于,我們現(xiàn)在取得的成就和未來幾十年的相比,簡直是相形見絀,未來人工智能甚至有可能終結人類文明。

我們如何去研究人工智能,是解決和理解這個問題的關鍵。我們需要在研究過程中就規(guī)避這種風險。霍金表示,他曾經和埃隆·馬斯克有過一次談話,并且聯(lián)合科學家們簽署一份關于人工智能的協(xié)議,發(fā)表了一封公開信——《為穩(wěn)定人工智能并從中獲益的公開信》。他還在倫敦建立了一個新的研究中心——利弗姆休研究中心?;艚疬€呼吁,我們需要確保下一代繼續(xù)參與科學研究,以繼續(xù)發(fā)揮科學的潛力

免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。

2017-04-27
霍金亮相中國:警惕人工智能威脅
GMIC北京2017在北京召開,來自英國的著名科學家斯蒂芬·霍金教授通過視頻發(fā)表演講,談了他關于人工智能的看法,他認為人工智能在未來是否會威脅到人類還不好說,現(xiàn)

長按掃碼 閱讀全文