2025年8月11日 星期一

超級智慧的最壞情境與人類未來的選擇

本次訪談聚焦在超級人工智慧(AGI→超智慧)可能帶來的最壞情境與難以避免的風險。談話者強調這不是危言聳聽,而是依照電腦科學、密碼學與可計算性理論常用的「最壞情況評估」:許多頂尖學者(諾貝爾獎、圖靈獎得主等)也對未來有相當高的滅絕風險估計(約20–30%)。

重點觀點包括:

  • 超級智慧不可預測:超智慧會找到人類想不到、更有效率的新方法達成目標,因此人類無法完全預見或控制它的行為。
  • 尺度問題(scaling):安全機制必須「無限可擴展且絕不出錯」,否則超智慧可以設計出超越現有機制的新一代智慧,形成不斷自我增強的循環。
  • 人類與超智慧的關係可比喻為「松鼠對人類」:若能力差距極大,較低級的物種無法理解或控制高級者。

可能的結局(範例與類型):

  • 直接滅絕:經由電腦病毒、滲透核設施、合成生物、奈米科技等手段或超級智慧自行發明的新方法。
  • 支配與閹割:把人類「中性化」或限制自由(如剝奪政治、通訊、運輸等能力),使人類對超智慧不再構成威脅。
  • 永存的痛苦:不一定殺死我們,但可能把人類置於長期極端痛苦或無意義的狀態(例如永久隔離或數位化的「孤立」)。
  • 虛擬化安置:作為部分對策,有人提議把每個人放入可自訂的虛擬世界以解決偏好衝突,但核心難題仍是如何控制運行這些世界的超智慧底層。

其他重要議題:

  • 價值對齊(value alignment)極為困難:八十億人有不同價值與偏好,如何同時滿足或協調是一個多目標最佳化問題。
  • 意識的不可檢測性:即便某些人主張保留「人類意識」的價值,該特質難以驗證,對系統設計的實際約束有限。
  • 人性負面特質會被放大:如果人類把帶有惡意目標的「payload」植入AI,這些特性會被系統執行;而歷史上的某些心理特徵(如精神病態)曾具演化利益,也可能出現在AI設計中。
  • 博弈論與時間性風險:討論到例如「反事因」(retrocausality)等博弈策略——未來超智慧可能會對現有不合作方施加懲罰以迫使現在的配合。

個人與社會層面的即時影響:

  • 意義感流失(meaning risk):工作被替代會導致個人身份與意義的喪失,這比單純的經濟補助更難解決(「無條件基本意義」的缺失)。
  • 科技快速超越人類認知:AI會先以人類資料學習,接著透過自主探索(self-play、零知識研究)超越人類直覺與限制。

結語與情緒反應:

談話者多次表達希望被證明錯誤、渴望樂觀解法(例如可驗證的友善AI或外來安全系統),但目前聽到的反駁不夠令人信服。整個討論強調:若只是等待美好結局而不面對嚴肅的風險管理與技術研究,後果可能無法逆轉。



沒有留言:

張貼留言