2025年8月16日 星期六

從 GPT 到 AGI:OpenAI 科學家對進展、衡量與未來的觀點

本次訪談由 OpenAI 主任科學家 Yakob Pahhatzki 與工程師 Simone Sedor 與主持人 Andrew Maine 對談,內容聚焦於如何衡量 AI 的進步、什麼可以算作 AGI、近期重要里程碑、衡量指標的侷限、未來突破方向與社會影響。

角色與背景:Yakob 為 OpenAI 的首席科學家,負責制定研究路線圖與長期技術押注;Simone 主做個人貢獻(IC)工作並兼具部分領導職能。兩人自波蘭同一所高中相識,受啟發於一位熱衷程式競賽的老師。

對 AGI 的定義與直觀描述:二位提到 AGI 的常見說法(如「接近人類的自然對話能力」或「具備廣泛解題能力」)逐漸從抽象轉為可驗證的技術指標。他們強調,不只是「點狀能力」(例如某一 benchmark 的高分),而是 AI 能否在世界中實際產生影響,特別是自動化科技發現與研發流程。

重要里程碑與觀察:訪談回顧了從 GPT-1 到 GPT-4 的演進,並把 GPT-4 視為個人的「AGI 轉折點」之一(其能帶來驚訝、穩定回答與更高層次的推理能力)。近期模型在競賽中的表現(如國際數學奧林匹亞 IMO、資訊競賽以及日本的長時程 AtCoder 型競賽)被視為顯著進展,尤其模型能在某些情況達到或接近金牌級別。

Benchmarks 的侷限性:討論指出,傳統 benchmark 出現飽和、偏向「標準化測試能力」而非實際生產力,以及可被專門訓練以偏向某一能力(例如數學)而失去代表性。單一指標不足以衡量模型的廣泛實用性或發現新知的能力。

推理與「內在獨白」(chain-of-thought)的突破:讓模型能展開長推理過程(chain-of-thought)被視為一項關鍵技術突破,但其實現並非簡單,背後需大量工程與實驗。模型能在某些題目上判斷「自己無法解答」,這點有助於降低盲目幻覺(hallucination)。

未來可能的突破方向:他們認為尺度(scaling)仍很重要,但同時要朝向「延長模型持久性與長時間專注解題能力」發展。更大的計算花費在關鍵真實世界問題(例如藥物或材料研發)上,可能會帶來顯著發現。總體趨勢會是多方向疊加:更大規模、更多推理長度、以及專注於能直接創造世界影響的任務。

自動化研究與社會影響:他們預期未來 AI 可實質自動化研發工作(設計實驗、產生新想法、撰寫程式與設計),這將大幅加速技術進步,但也帶來重大社會、倫理與治理挑戰。如何確保安全、可控且不被惡意利用,是必要的研究方向。

使用者體驗與信任的演變:隨著模型更具持續性、能存取個人資料與日曆等,使用者會取得更多價值,但同時也要面對風險(資料濫用、被攻擊或錯誤輸出)。建立可靠性、可解釋性與防濫用機制至關重要。

給學生與年輕人的建議:二位建議培養「結構化思考」與拆解複雜問題的能力;學習程式設計仍是獲取此能力的良好途徑。理解系統運作原理依然重要,即便工具愈來愈強。

個人啟發來源:Yakob 提到 Paul Graham 的《Hackers & Painters》曾啟發他;Simone 說電影《鋼鐵人》促使他走向機器人與研究領域,並分享自己早年是魔術師的幽默往事。

總結要點:

  • AI 從點狀任務突破到更深層的推理能力,但衡量「通用性」需超越傳統 benchmark。
  • 自動化科學與研發是最可能帶來革命性影響的方向之一,短期內可望在某些領域(如醫療)率先見效。
  • 未來突破可能來自尺度延伸、延長推理與能在長時間專注解題的模型,以及把這些能力應用到真實世界問題上。
  • 技術快速進展要求同時加強安全、可靠與社會治理的研發。

整體而言,訪談呈現 OpenAI 內部對進展速度既驚訝又嚴肅審視的態度:既看到可帶來巨大益處的機會,也強調必須同步處理風險與治理問題。



沒有留言:

張貼留言