本次對談由 Yuval Noah Harari 與 Max Tegmark 就「超智能」的定義、可能來臨的時間、對經濟與社會的衝擊,以及應如何治理與監管等核心議題進行討論。以下為重點總結:
什麼是超智能?
- AI = 非生物的智慧;智慧可被定義為達成各種目標的能力,目標越複雜與多樣,智慧越高。
- 超智能(superintelligence)通常指在幾乎所有認知領域上遠超人類、且能自我改進的人工智慧,最終可能比全人類更聰明。
時間軸與現狀
- 專家對何時達到通用 AI / 超智能意見分歧(從幾年到數十年不等),但近年進展比許多技術專家預期得快(如語言模型、在國際數學奧林匹亞等表現)。
主要風險與衝擊
- 控制問題:如何控制一個比我們更聰明的「物種」尚無確解;更聰明即意味權力,歷史上較聰明的物種往往掌控較多資源。
- 經濟衝擊:若 AI 能自主成為代理人(例如自行開戶、投資、發明複雜金融工具),可能造成巨大利益集中、金融系統難以理解與監管,並使大量人類職能經濟性被取代。
- 社會與心理影響:孩童若從小與 AI 互動勝過人類,會改變親密、依附、身分認同與人際關係的發展;情感型聊天機器人亦會改變伴侶與社交型態。
- 文化與宗教:AI 在知識、解釋與創造上的能力可能動搖宗教權威、經典詮釋與人類自我定義。
- 法律與政治:賦予 AI 「法人」或功能性人格(legal personhood)可能導致無人監督的公司與政治影響力;獨裁政權相較於民主政體,更易被智慧系統操控。
治理與政策建議
- 立即建立並執行安全標準:借鑑臨床試驗、食品餐飲與藥品監管模式,要求 AI 產品先通過安全審查再大規模部署。
- 禁止或延緩賦予 AI 法律人格:在能確保安全前,不應允許 AI 獨立經營公司、開立帳戶或擁有政治捐贈能力。
- 分離「控制」與「對齊」議題:一方是確保人類對系統有關閉/限制等實際控制權,另一方是讓 AI 的目標與人類價值一致;兩者皆重要但不同。
- 國際與民主監督:民主制度(若健全)能提供自我修正機制;需要跨國協議與雙邊、多邊監管以避免軍備競賽式的失控研發。
- 把 AI 公司視同其他高風險產業來管制:鼓勵把自願承諾轉為具約束力的法規,讓競爭者在相同安全邊界下創新。
樂觀面與現實政治動力
- 雖有強烈風險,但也有理由樂觀:主要國家不太可能允許國內公司製造一個會奪權的不可控系統;國內外的政治、經濟與跨黨派壓力(如所謂的「Bernie-to-Bannon」聯盟)也可能促成更嚴格的監管。
- 社會可選擇發展「有益但受限」的 AI(例如治療疾病的工具)而非無限制的超智能體。
對個人的提醒
- 投資與保養「心智」:在快速變動的時代,人類應重視自我反思、心智訓練(如靜坐、觀察思維),理解人類思考模式對於設計與理解 AI 十分重要。
- 公民與領導人的責任:政策制定者需把 AI 公司納入監管範疇,企業則應支持有約束力的安全法規。
結論
- 超智能既帶來前所未有的機會(解決疾病、提升生活),也伴隨深刻的存在性風險。關鍵在於:我們能否及時制定並執行嚴格的安全標準、禁止機器的法律人格、並透過民主與國際協調來把握發展方向,從而讓技術服務於人類而非取代人類。

沒有留言:
張貼留言