書單 | 讓馬斯克衝上熱搜的神秘組織,霍金曾任顧問;關於AI的鴻溝,紐約大學教授發出警告

書單 | 讓馬斯克衝上熱搜的神秘組織,霍金曾任顧問;關於AI的鴻溝,紐約大學教授發出警告

號外!就在昨天,未來生命研究所又發佈了一則聯名公開信,直接“叫停”所有超越GPT-4的AI,呼籲暫時“封殺”強人工智能研發。

公開信的署名包括特斯拉CEO馬斯克、Stability AI首席執行官Emad Mostaque、蘋果聯合創始人Steve Wozniak、紐約大學教授馬庫斯……截至目前,已有超過一千人署名附議

生命未來研究所的這封信中寫到,“人工智能的研究和開發應該重新聚焦於優化最先進的系統,讓它更加準確、安全、可解釋、透明、穩健、一致、值得信賴、對人類忠誠”。

讓未來生命研究所有什麼來頭?和馬斯克什麼關係?


為要創造可信的AI?如何創造可信的AI?


接著往下讀,這兩個謎底,你都能搞明白

揭秘[未來生命研究所]

01

一場影響人類未來的大會,和一個組織

在2015年第一個星期天的下午,一群人悄然集結參加一場在波多黎各某度假勝地舉辦的閉門會議。

這場會議,彙集了牛津大學人工智能倫理學家尼克·博斯特倫、Skype的創始人揚·塔裡安以及Google的AI專家肖恩·萊格。會議有著非常樂觀的主題:“AI的未來:機遇與挑戰並存”,而讓這場大會顯得更加神秘的是,一切媒體記者被禁止參加,同時參會者在參會期間也不能私下公開看法

波多黎各大會參會者合影

在長達一週的會議即將落幕的傍晚時分,所有人準備走向酒吧,參加隨後的慶祝聚會。而大會的主辦人泰格馬克教授,卻讓大家再留步片刻,“有個大事情要宣佈”。隨後,一個健碩的身影走到臺前,他就是埃隆·馬斯克。燈光下,馬斯克的出現讓臺下爆發一陣騷動。 

馬斯克清了清喉嚨,開始宣佈,要將1000萬美元捐贈給這個MIT教授創立僅一年的組織——未來生命研究所(Future of Life Institute的英文縮寫,簡稱FLI)

02

未來生命研究所誕生記

馬斯克是在最後幾分鐘才趕到慶典現場。兩天後,SpaceX就要進行一次重要的火箭發射,嘗試在海面平臺回收部分火箭。但他還是堅持趕到了現場,因為他相信,這場大會和這個新誕生的組織,對世界有著非同尋常的意義。

在很多媒體的報道中,經常是這樣描述埃隆·馬斯克——一個堅定的人工智能威脅論者。起因是他在2014年8月發佈的那條人盡皆知的推特:“我們需要對AI保持謹慎。它們可能比核武器還要危險。”

未來生命研究所作為一家非盈利組織,

鏈接學術界與科技企業界,推動“AI有益運動”的發展

也幾乎是與此同時,一位MIT的教授也在這樣的信念下,推動著自己的計劃。因為馬斯克那條有些“危言聳聽”的推特,兩人的故事發生了交集。幾乎是一拍即合,在他們第一次電話聯絡的時候,馬斯克便同意加入未來生命研究所的科學顧問委員會,並表示願意資助未來生命研究所籌備開篇提到的波多黎各大會。

那這個未來生命研究所究竟是在什麼樣的情況下誕生的呢?

成立之後究竟為了推進什麼研究呢?

03

瘋狂邁克斯

在成立未來生命研究所之前,作為MIT物理學終身教授,泰格馬克已經在平行宇宙方面的研究上成果斐然。他師承約翰·惠勒,與理查德·費曼和基普·索恩師出同門。數理宇宙的假說讓他成為“當今最具原創力的科學家”。

這些年裡,泰格馬克將研究領域擴展到了人工智能。不少人會覺得詫異,一個物理學家,為什麼要“開小差”,跑去研究人工智能?

《生命3.0》作者:泰格馬克

一方面,MIT在人工智能領域積澱深厚。雖然人工智能在達特茅斯學院最先提出,但最初實現的卻是麻省理工學院。另一方面,泰格馬克的很多研究都是基於最新的計算機技術,他自己曾開發數據分析工具,用於宇宙微波背景的研究。過去幾年一直與MIT的團隊在AI研究領域耕耘,至今已經發表了5篇AI技術領域的論文,其中一篇是與楊立昆(深度學習領域三巨頭之一)合作發表。

私下裡,他更喜歡大家給他取的外號“瘋狂邁克斯。”在科學家的外衣下,他有著一顆夢想家的心。用他的話說,“從我14歲知道了核軍備競賽以來,我一直擔心我們的技術力量比我們控制它的智慧增長得更快。”這種擔憂一直伴隨著他的學術生涯,並讓他不斷行動起來。也正是這種浪漫主義,讓他和埃隆·馬斯克和斯蒂芬·霍金走到了一起。

在他的第一本書《穿越平行宇宙》新書巡迴之旅中,他決心要為這個世界做些什麼。首先,要成立一家非盈利組織,專注於用技術管理來改善未來生命的境況。

04

未來生命研究所與它的成員們

接下來,泰格馬克開始勾搭自己的朋友。在倫敦,泰格馬克找到了Deepmind的創始人丹尼斯·哈薩比斯。兩個人在聊了一圈AI領域的技術突破與變革後,泰格馬克向哈薩比斯攤牌,包括自己在AI安全研究方面的想法以及未來生命研究所的計劃。哈薩比斯贊同了泰格馬克的想法,並將在研究方面給予支持和幫助。

而另一位朋友揚·塔裡安(Skype創始人)就更實在了,當泰格馬克向他承諾了未來生命研究所的願景後,便決定每年撥給他10萬美元的經費。

在一年後的波多黎各大會上,塔裡安半開玩笑說:這是我做過的最好的一筆投資,這對我來說簡直意味著整個世界。隨後,一批來自高校的志願者加入到了未來生命研究所中。

委員會中涵蓋了AI領域研究者、企業家、科學家乃至哲學家。

詳細介紹可參考https://futureoflife.org/team-chinese/

一方面,未來生命研究所通過資助全球各地的研究團隊,保證AI安全領域研究的推進。另一方面,通過與世界頂級專家、企業家的定期會議與討論,推動AI安全研究的社會共識。

而未來生命研究所該機構的科學顧問委員堪稱豪華,包括宇宙學家史蒂芬·霍金、SpaceX 和特斯拉汽車創始人埃隆·馬斯克、牛津大學未來人類研究院主任尼克·博斯特倫、麻省理工數字商業主任埃裡克·布林約爾松、哈佛大學遺傳學教授喬治·丘奇、MIT物理學教授阿蘭·古斯以及劍橋大學、加州伯克利等大學的人工智能方面的著名教授都參與其中。 

05

“AI有益運動”——讓AI安全性研究進入主流

2014年,未來生命研究所打響了自己的第一槍。泰格馬克與斯圖爾特·羅素、史蒂芬·霍金聯合在赫芬頓郵報上發表的《超越我們對超級智能機器的自滿》一文。表達了作者對迅速發展的AI潛在的風險與隱憂。

那篇經常被其他媒體曲解的“原版”文章:

https://www.huffingtonpost.com/stephen-hawking/artificial-intelligence_b_5174265.html

這篇文章引發媒體對AI安全報道的熱潮,伊隆·馬斯克、比爾·蓋茨等科技領袖紛紛加入討論,發表各自的觀點。遺憾的是,很多媒體搞錯了方向,發表《史蒂芬·霍金警告說,機器人的崛起對人類可能造成災難性破壞》這種危言聳聽的文章。

所以真正讓AI安全性研究步入主流的,是2015年1月召開的波多黎各大會。也就是剛剛文章開頭出現的那一幕,這場大會,幾乎所有的參會者都對這個問題產生了共識。

06

這個時代最聰明的頭腦集合在一起

在這場大會結束後一週,未來生命研究所便推出AI研究資助金申請通道。全世界大約有300個團隊申請,在經過篩選後,37個團隊開始了第一階段的研究。

另外,一封著名的公開信也進入了公眾視野。在這封名為《邁向強大和有益人工智能的優先考量研究方案》的公開信中,強調了“研究不應該只限於擴展AI的能力,而是也需要把AI對社會的效益發揮至最高點”,併為下一階段的研究列出了優先考量的目標。這封公開信很快就收集了8000多個簽名,其中包括許多享譽全球的AI開發者以及伊隆·馬斯克和斯蒂芬·霍金等人。

也是在此時,媒體對“AI有益運動”報道產生了微妙的變化,再也沒有終結者的照片。AI安全性研究終於不再是空談,而是有許多實際有用的工作要做。並且,許多優秀的研究團隊紛紛捲起袖子加入進來。

阿西洛馬大會的合影,也是AI有益運動的“群英譜”,你可以在裡面找到拉里·佩奇、埃裡克•施密特這些企業家,吳恩達、丹米斯·哈薩比斯這樣的技術專家,以及丹尼爾·卡尼曼這樣的來自心理學、經濟學、社會學方面的頂級專家。DeepMind、谷歌、Facebook、蘋果、IBM、微軟和百度等公司的代表悉數到場。

隨後,在2017年阿西洛馬大會上,“AI有益運動”被推向了第一個高潮。再想想昨日叫停強人工智能開發的公開信,如果你讀到這裡,也許絲毫不覺得意外。

如何創造可信的AI?

《如何創造可信的AI》作者:蓋瑞·馬庫斯

  • 新硅谷機器人創業公司Robust.AI首席執行官兼創始人。機器學習公司“幾何智能”首席執行官兼創始人,該公司於2016年被優步收購,隨後馬庫斯在優步創立了人工智能實驗室。

  • 紐約大學心理學和神經科學教授。研究方向跨越人類和動物的行為,涉及神經科學、心理學、人工智能等多個領域。

  • 1994年於麻省理工學院博士畢業,師從心理學大師史蒂芬·平克。

如何創造可信的AI?與馬斯克一起署名的蓋瑞·馬庫斯,就曾寫著過直指該問題的同名書籍。

在《如何創造可信的AI》中,馬庫斯指出:理想與現實之間,存在著一個被稱為AI鴻溝(The AI Chasm)的大坑。此大坑可以一分為三,每一個都需要我們坦誠面對。

第一個坑,我們稱之為“輕信坑”。從表面上看,機器的行為常常與人類行為有相似之處,於是我們會不假思索地認為機器也擁有和人類一樣的某種思想機制,而事實並非如此。

某些東西在某些時刻貌似擁有智慧,並不意味著它的確如此,更不意味著它能像人類處理所有的情況。

第二個坑,我們稱之為“虛幻進步坑”。誤以為AI解決了簡單問題,就相當於在難題上取得了進步。

一句值得記住的格言是:對於一項複雜的技術項目,完成其前90%的工作往往需要花費10%的時間,而完成最後10%則需要花費90%的時間。

第三個坑,就是我們所稱的“魯棒坑”。在業界時常發生:每當AI 解決方案能在某些時候發揮作用,人們就會假定,只要再多一點數據,此係統就能在所有的時刻發揮作用。

在當下的AI 研究中,魯棒性未得到足夠重視。部分源於目前的研究領域的容錯率較高,比如廣告和商品推薦。但在無人駕駛汽車、老人照護、醫療規劃等領域中,魯棒性都至關重要。沒人會花錢買個只能以五分之四的概率將爺爺安全抱到床上的機器人管家。

沒人對這類錯誤做任何解釋,但這並不少見。

既然存在這麼多問題,為什麼還有那麼多人對深度學習狂熱追捧呢?


因為它在處理大規模數據集的統計近似問題時非常有效,而且還能一鍵解決非常多的問題。同時,深度學習有著很高的商業價值。

有所成就並不意味著深度學習的行為背後存在一個真正的智能。

深度學習是與人類思想有著天壤之別的怪獸。它可以成為擁有神奇感知能力的白痴天才,但幾乎不具備綜合理解能力。


能語音識別和物體識別的系統充其量不過是智能的片段而已。若想獲得真正的智能,還需要推理能力、語言能力和類比能力,沒有一個是當前技術所能掌握的,因為系統本身的模式分類能力並不足以完成這項任務。

大眾媒體對深度學習的描述和吹捧會令人產生誤解。這也讓深度學習成了一個“美好”的悲劇。之所以悲劇,是因為無法保證現實世界中的系統正確應對迫切需求,更不能保證在系統犯錯時能找出癥結,排除故障。從某種角度來看,深度學習更像是一門藝術,而非科學。

如今的現實情況,就好像有人發明了電動螺絲刀,整個社會便立刻覺得星際旅行指日可待。

若想跨越“AI 鴻溝”這個大坑向前走,我們需要做到三件事:搞清楚AI技術的利害關係;想明白當前的系統為什麼解決不了問題;找到新策略。

工作機會、人身安全、社會結構,這些都與AI 的發展息息相關。由此可見,所有人都迫切需要緊跟AI行業的最新進展,都需要用批判的眼光去審視AI,區分宣傳與實情。就如同昨日那封公開信的最後一句:

讓我們享受一個長長的AI之夏,不要毫無準備地衝入秋天



相關推薦——

//湛廬文化//

點擊即可關注湛廬文化,

與最聰明的人共同進化!

商務合作事宜,請聯繫:

[email protected]

18500551586

點擊“閱讀原文”,入手以上好書

拜託點下“在看”
Scroll to Top