這段時間,ChatGPT接連發布新的技術突破,AI變革速度之迅猛,讓互聯網用戶如做夢般震驚而恍惚。
即使是科技公司大佬比爾·蓋茨,也在日前的發表《AI時代已經開始》公開信中感嘆:兩次見證了令人驚歎的革命性技術的面世,一次是1980年,首次接觸圖形用戶界面;第二次就是2022年,對OpenAI團隊及其生成式AI模型發起了挑戰,結果令人驚豔。
而另一群AI技術研究學者、投資者,把AI的迅猛發展視為一場“失控的競賽”。這其中就有特斯拉創始人馬斯克、《人類簡史》作者赫拉利、圖靈獎得主約書亞·本吉奧等。
“暫停訓練AI,開發AI治理系統”
今日,包括圖靈獲獎者約書亞·本吉奧、SpaceX創始人伊隆·馬斯克等在內的一群科學家和企業家簽發了一封公開信,呼籲暫停巨型人工智能研究。
這封公開信指出,最近幾個月,人工智能實驗室陷入了一場失控的競賽,他們致力於開發和部署更強大的數字思維,但即使是研發者也不能理解、預測或可靠地控制這些數字思維。諸多研究表明,具有與人類匹敵智能的人工智能系統可能對社會和人類構成深遠的風險。
針對AI在應用層面的技術漏洞和社會變革風險,公開信提出了連環發問:我們是否應該讓機器用宣傳和謊言淹沒我們的信息渠道?我們是否應該自動化所有工作,包括令人滿意的工作?我們是否應該開發出更聰明、數量更龐大的非人類思想,最終淘汰甚至取代我們?我們是否應該冒著文明失控的風險?
公開信呼籲所有人工智能實驗室立即暫停訓練比GPT-4更強大的人工智能系統,期限至少6個月。在這段時間內,人工智能實驗室和專家應該開發和實施一套技術安全協議,由獨立外部專家進行嚴格的審計和監督。與此同時,人工智能研發者必須和政策制定者合作,加快開發人工智能治理系統。
“只有當我們確信強大的人工智能系統的影響是積極的並且風險是可控的時候,才應該開發它們。”除了約書亞·本吉奧和馬斯克,在公開信上簽名的人還包括伯克利分校計算機科學教授斯圖爾特·羅素、蘋果公司聯合創始人史蒂夫·沃茲尼亞克等科技界專家,目前在公開信上簽名的人數已經超過1100人。
部分簽名者
霍金的預言成真?
“AI確實可能殺死人類”
值得關注的是,發佈公開信的“未來生活研究所”是由MIT物理學終身教授泰格馬克創立的一家非盈利研究機構,創立於2014年,一直關注“開發與人類相當的人工智能技術過程中出現的風險”,霍金、馬斯克都是這家機構的科學顧問。
也是在這一年,霍金開始通過公開媒體發表對於人工智能技術最終將取代人類的一系列“預言”。
他在BBC採訪中表示:“人工智能技術的研發將敲響人類滅絕的警鐘。這項技術能夠按照自己的意願行事並且以越來越快的速度自行進行重新設計。人類受限於緩慢的生物學進化速度,無法與之競爭和對抗,最終將被人工智能取代。”
同年10月,馬斯克在麻省理工學院AeroAstro百年學術研討會上發表講話將人工智能稱之為“我們面臨的最大威脅”。他說:“隨著人工智能的發展,我們將召喚出惡魔。”他也多次在推特上強烈宣傳:“人類應該像監管食物、藥品、飛機和汽車一樣來監管人工智能。”
去年12月,面對橫空出世的ChatGPT,馬斯克在推特上曾公開表示:“ChatGPT好得嚇人。我們離強大且危險的AI不遠了。”
上週,“人工智能教父”辛頓在採訪中被問及人工智能“消滅人類”的可能性時說:“我認為這並非不可想象。”隨後,AI領域專家蓋瑞·馬庫斯和馬斯克發推響應這一觀點。
3月28日,蓋瑞·馬庫斯發文稱:“超級智能可能會、也可能不會迫在眉睫,但在短期內需要擔心“MAI(平庸人工智能)風險”。
馬斯克等人的擔憂似乎正在得到驗證。在昨日公開的訪談中,“ChatGPT之父”薩姆·阿爾特曼說的話裡,竟有一些耐人尋味的表述。他說,GPT系列為何會出現推理能力,OpenAI的研究者自己搞不明白。他們只知道,在不斷測試中,人們忽然發現:從ChatGPT開始,GPT系列開始出現了推理能力。
阿爾特曼還在訪談說了這樣驚人的一句:“AI確實可能殺死人類。”
橙柿互動·都市快報 記者 儲帆