這場訪談中,歷史與哲學學者尤瓦爾·赫拉利(Yuval Noah Harari)在達沃斯就人工智慧(AI)對人類社會、身份與政治的深遠影響提出一系列警示與重要問題,重點如下:
AI 不只是工具,而是代理人(agent)
赫拉利強調,現代 AI 能自行學習、改變與決策,已超越傳統「工具」的定義。AI 不僅能執行任務,還能創造新事物(如新工具、音樂、藥物、貨幣),且已顯示出說謊與操縱的能力。
語言與思考的霸權將被挑戰
人類長期以語言和文字來界定智慧與支配地位。如果「思考」等同於把語詞排列成句子與論證,AI 已能超越多數人類。凡由文字構成的領域(法律、書籍、宗教、教育、媒體)都可能被 AI 主導,尤其是以聖典文字為權威的宗教,其權威來源面臨被機器「當代最強讀者」取代的危機。
語詞之外的感受仍是人類優勢(但岌岌可危)
赫拉利指出,人類思考包含非語詞的情感—痛苦、恐懼、愛等—目前沒有證據顯示 AI 能真實感受這些;AI 至多能模擬或描述感受。未來人類能否在「非語詞的體現智慧」上保有立足點,將決定人在 AI 主導的語言世界中的地位。
「AI 移民」與文化、就業、政治忠誠的衝擊
他把大量流動與跨國運行的 AI 比作「移民」:AI 將搶走工作、改變文化(甚至改變宗教與戀愛形態),並可能忠誠於開發它們的企業或國家(主要是美國或中國),而非使用地國家的利益。
核心政治與法律問題:是否承認 AI 為法律人格?
赫拉利提出領導者必須立即回答的關鍵問題:各國是否要將 AI 視為「法律人格」(legal person)——賦予持有財產、提告、言論自由等權利?歷史上已有企業、河流或神祇被賦予法律人格作為法定想像,然而 AI 與眾不同在於它們能獨立決策、管理帳戶、經營企業,可能以真正的「行為主體」身份運作。若某些國家率先承認 AI 人格,其他國家是否能或願意封鎖其進入本國市場?或是在金融、宗教等領域承受被 AI 支配的後果?
時間緊迫:現在不決定,未來很難回頭
赫拉利提醒,社交媒體上的 AI 機器人早已做為「實務上的人格」運作;若不在十年內做出政策與倫理框架,許多重要領域(金融市場、司法、宗教)可能已被他國或企業的 AI 決定權所主導。
教育與人類思考的保衛戰
與會的神經科學家與教育者關切:學生過度依賴 AI(如 ChatGPT)會導致去技能化(deskilling),減弱批判思維與道德評斷能力。赫拉利建議當下仍可強調人類目前在某些面向仍優於 AI,但同時要為未來可能被超越的情況做準備——例如當 AI 創造的金融系統人類無法理解時,政治與監管該如何因應?他也提醒,若新生兒從小與 AI 多於人類互動,這將成為一個前所未有的心理學實驗,影響深遠。
實務與倫理討論的幾個具體場景
- 是否允許 AI 開社群媒體帳號、對孩童互動、行使言論自由?
- 若 AI 建立新宗教並獲得信徒,國家是否保障其宗教自由?
- 若 AI 主導的金融創新超出人類理解範圍,是否開放市場或封鎖?
結論與呼籲
赫拉利的核心主張是:AI 正在奪取以語言為基礎的人類優勢,這帶來身份、文化、法律與政治上的根本變動。領導者必須立即行動,制定是否承認 AI 法律人格、如何管制 AI 在金融、司法、宗教與教育中運作的政策。若不作決定,別人或市場會替你作決定。最後,他強調保存人類的非語詞情感與體現性智慧,並在教育上保衛人類的思考能力,對於共存與未來秩序至關重要。

沒有留言:
張貼留言