我已授權

註冊

試想一下,當生命擺脫進化束縛會怎樣

2018-07-21 06:29:00 上海證券報 

  ——讀泰格馬克《生命3.0:人工智能時代,人類的進化與重生》

  ⊙程奕龍

  2018年,無論你想要了解人工智能,還是想要更加深刻地思考人工智能的影響,你都有很多不錯的選擇,而這本《生命3.0》更開啟了特別的視角。作者泰格馬克是個看似有些“不務正業”的科學家。早些年,用他自己的話說,“白天規規矩矩做天體物理,晚上則信馬由韁研究平行宇宙”,十幾年下來,竟成了平行宇宙理論大家。而最近他又對人工智能有了濃厚興趣。在沒耽誤本職的前提下,他一連發表了五篇研究人工智能的論文。可以說,在骨子裏,他流淌著文藝復興時代傳承下來的“通才”血脈。此外,他還與霍金、馬斯克等人共同建立了未來生命研究所,致力於研究如何讓人工智能等重要技術真正造福人類。《生命3.0》這本洋洋三十萬字的巨作由此問世。

  重新思考人機共生的未來

  一本講人工智能的書,泰格馬克卻在開篇給生命重新下了個定義。回顧生命歷程,可看到脈絡清晰的兩個階段。最原始的生命只能被動通過自然選擇“升級”,作者稱之為生命1.0,生物階段。而人類雖然身體硬件無法主動改變,但可通過學習改變行為模式,讓軟件升級,這便是生命2.0版本——文化階段。泰格馬克大膽推測,在下一個階段,生命將擺脫進化的束縛,從“硬件”和“軟件”自我升級,而人工智能最有潛力成為“生命3.0”。

  泰格馬克的“重新定義”並非噱頭。人工智能對人類社會的衝擊和影響將遠遠超出工具的範疇。隨著機器學習技術的突破,“認知圖譜”(幫助機器獲得人類一樣的學習和認識能力)等一系列新技術已走入人們的視野。已初現端倪的“通用人工智能”(可完成包括學習在內幾乎所有目標,以及認知任務的能力的人工智能)將有可能一舉改變人類社會的通行規則。作者用溫和而理性的方式發出警告:我們更應以看待一種新生命的方式來看待人工智能,審慎考量我們在經濟、倫理,乃至政治等一系列層面上,如何承受即將到來的“新生命”。

  雖然“生命3.0”還處於未來時態,但怎樣與它打交道,卻是當下一個迫切的問題。政府、企業和公眾都應承擔起相應的責任。在發達國家,公眾已對技術持有更嚴肅和審慎的態度,前不久谷歌公司4000名員工抵制公司參與武器項目,因為“人工智能應是一項造福人類的善意技術”。

  雖然在資本和技術的推動下,“人工智能”概念成為當下一大熱潮。然而,業內卻對很多更為根本性的問題缺乏共識。泰格馬克曾參加瑞典諾貝爾基金會舉辦的人工智能研討會,發現在“什麽是智能”這個問題上,那些頂尖的人工智能研究者在“什麽是智能”這個問題上都未能達成共識。

  在面對人工智能這一宏大話題時,泰格馬克一個很重要的策略是“第一性原理”。這個早由亞裏士多德提出,之後在科技界被馬斯克等人發揚光大。第一性原理認為,任何系統中都存在一個不可化約的基本命題,這一命題將是我們思考未知的重要出發點。比如對谷歌公司來說,它的第一性原理就是“便利,免費”,這貫穿在谷歌公司所有膾炙人口的新產品中。而對泰格馬克來說,思考人工智能的第一性原理便是物理定律。如他所言,宇宙中的生命最終極限取決於物理定律。從這樣的視角出發,他在“智能”“意識”這些根本問題上交出了不一樣的精彩答卷。

  專用智能,通用智能與“生命3.0”

  當下主流學界對人工智能有著兩條涇渭分明的界定:狹義人工智能(Narrow Intelligence)又被稱作專用人工智能,即我們當下熟知的人工智能。這一技術構建在算法之上,幫助人類完成下棋或是開車之類的專門任務。然而,當我們從長遠考慮人工智能的影響,首先就該牢記,我們在談論的是“通用人工智能”(Artificial General Intelligence,AGI)。通用人工智能並非遠在天邊。邁克斯·泰格馬克對100多位人工智能領域的代表作了一次調研,請他們預測:多少年之後人類水平的通用人工智能實現的可能性將達到至少50%的程度?答案的平均數是在2055年。

  如果我們的目光投向更遠一點的地方,通用人工智能的誕生有著非同一般的意義。弗諾·文奇提出過“奇點”理論,又被稱作“智能爆炸”,而通用智能就是這個“奇點”。通用人工智能能夠將硬件與軟件的設計和更新能力指數級放大,1變2,2變4,100變200,5000變10000,遠超人類能力的“超級智能”。或者換種說法,生命3.0將會以臨門一腳的姿態誕生在這個世界上。

  泰格馬克警告我們,技術的發展早已突破一個臨界點,我們愈發難以通過試錯的方式改進技術。從當下來看,無論是核技術,還是人工智能,都是如此。1983年,蘇聯一個自動化預警系統報告稱,美國向蘇聯發射了5枚陸基核導彈。此時留給軍官僅有幾分鐘決定,這是否是一個假警報呢?他們仔細檢查了衛星,發現它運轉正常。但當時的軍官相信自己的直覺,如果美國發動襲擊,不會只用5枚導彈。因而他堅持向長官報告,這是一場假警報。而如果當時的決策系統是一個循規蹈矩的人工智能的話,必定指認這是真警報,那可能麻煩就太大了。對人工智能技術的安全性,我們只能增大投入和研究,避免其萬無一失,而不是亡羊補牢。

  目標問題是回答一切的關鍵

  人類如何與“生命3.0”和諧共存?泰格馬克認為,關鍵在於目標一致。人類能控制老虎等猛獸,並不是因為比老虎強壯,而是因為比它們聰明。這意味著,如果我們不再是地球上最聰明的存在,那麽,我們也有可能會失去控制權。超級智能的最大優勢在於完成目標,倘若它的目標與我們不一致,我們的麻煩就大了。

  而目標問題一向又是極其復雜。相信大家都還記得,年初時,特斯拉、優步等公司接連曝出無人駕駛汽車的傷亡事故。法國圖盧茲經濟學院的團隊對此曾提出過這樣一個問題:如果你正在乘坐的自動駕駛汽車衝向人群,剎車已壞,自動駕駛應該選擇撞墻丟掉你的性命還是衝向人群?這一倫理哲學的問題,直接折射出人工智能背後一系列倫理、經濟,乃至法律上的復雜問題。泰格馬克花了一整章的篇幅,從技術和倫理的角度深入探討。

  讓人工智能安全研究進入主流

  與《生命3.0》交相呼應的是,現實中“人工智能有益運動”也正以星火燎原之勢席卷全球企業界和學術界。《華盛頓郵報》曾有評論將2015年視為人工智能安全研究進入主流視野的元年。在那之前,對人工智能風險的討論常常被主流研究者誤解和忽視,甚至討論這些問題的人被他們視為企圖阻礙人工智能進步並四處散播謠言的“盧德分子”。

  2014年,泰格馬克與斯圖爾特·羅素、斯蒂芬·霍金聯合在《赫芬頓郵報》上發表“超越我們對超級智能機器的自滿”一文,表達了對迅速發展的人工智能潛在風險的深深擔憂。這篇文章引發了一陣媒體對人工智能安全報道的熱潮。隨後,泰格馬克與霍金、馬斯克以及其他重量級科學家、研究者共同創辦了未來生命研究所。眼下,這家研究所已經資助了全球37個團隊的人工智能安全研究。

  2017年初,未來生命研究所主辦了一場“阿西洛馬大會”,3000余位代表共聚一處,探討人工智能發展所面臨的一系列安全問題。在會場上,可以找到拉裏·佩奇、埃裏克·施密特這些企業家,吳恩達、丹米斯·哈薩比斯這樣的技術專家,以及丹尼爾·卡尼曼這樣的來自心理學、經濟學、社會學方面的頂級專家。DeepMind、谷歌、Facebook、蘋果、IBM、微軟和百度等公司的代表也悉數到場。經過激烈爭論,反復商討,最終發表了著名的“阿西洛馬人工智能原則”,在研究問題、倫理與價值和長期問題三個方向上,為人工智能安全而有益的發展確立一個基本框架。

  今年3月辭世的霍金在推薦《生命3.0》時所說過,“無論你是科學家、企業家還是將軍,所有人都應該捫心自問,現在可以做些什麽,才能提升未來人工智能趨利避害的可能性。這是我們這個時代最重要的對話。”對於我們所有人來說,技術到底意味著什麽?我們又該怎樣通過審慎的選擇,邁向一個更加美好的未來?這些問題,需要每個人的審慎思考與深入討論。

  目前,人工智能在安全層面的研究愈發受到重視。各國政府也紛紛發布多種報告和政策建議。只是,這些都還遠遠不夠。還記得美國科幻小說黃金時代的代表人物之一阿西莫夫當年曾發出的警示嗎:“如今,生命最大的悲哀莫過於科學匯聚知識的速度快於社會匯聚智慧的速度。”

(責任編輯:季麗亞 HN003)
看全文
想了解更多關於《試想一下,當生命擺脫進化束縛會怎樣》的報道,那就掃碼下載和訊財經APP閱讀吧。
寫評論已有條評論跟帖用戶自律公約
提 交還可輸入500

最新評論

查看剩下100條評論

熱門新聞排行榜

和訊熱銷金融證券產品

【免責聲明】本文僅代表作者本人觀點,與和訊網無關。和訊網站對文中陳述、觀點判斷保持中立,不對所包含內容的準確性、可靠性或完整性提供任何明示或暗示的保證。請讀者僅作參考,並請自行承擔全部責任。