技術演進與「大塊運算(Big Blob of Compute)」假說
受訪者重申早年提出的理念:真正重要的不是每個巧妙的新技巧,而是幾個核心要素的規模化——(1)原始運算量、(2)資料量、(3)資料品質與分佈、(4)訓練時間、(5)可擴展的目標函數(如自監督預訓練與強化學習目標)、(6)數值標準化、(7)數值穩定化。這套框架解釋了語言模型與強化學習近期的指數級能力增長。
能力預測與時間線
受訪者認為「在資料中心形成一個天才國度(country of geniuses in a data center)」是高度可能的:10年內幾乎確定(約90–95%);較激進的直覺是1–3年內多數可驗證領域(尤其程式碼/軟體工程)會達到能執行端對端任務的水準。對於不易驗證或高度創新任務(如重大科學發現、長期計畫),存在更多不確定性。
本集為 Moonshots 訪談,主持人與多位來賓討論近幾天 AI 重大新聞與趨勢,重點涵蓋 Anthropic 最新發布的 Claude Opus 4.6、OpenAI 的 GPT‑5.3 CodeX、產業競賽、機器人與太空資料中心、晶片供應、能源轉型、以及隱私與法規等社會議題。
Opus 4.6(Anthropic)亮點:能處理超大上下文(報導可達百萬 tokens),並以 agent team 模式讓多個 agent 協作。示範案例包括用 agent 群從零打造跨架構 C 編譯器(使用 Rust),花費僅約 2 萬美元,並成功編譯 Linux 核心;同時可發現大量資安弱點(公開報導找出數百個高風險漏洞)。來賓指出這代表「遞迴自我改進」進入生產環境,等同大幅縮短人力年限成本(hyperdelation)。
OpenAI 的 GPT‑5.3 CodeX:在 Opus 公布後短時間推出,被 OpenAI 宣稱為「在自身開發上扮演重要角色」的遞迴自我改進型模型,強調在程式碼、試算表與簡報分析等應用。兩大實驗室的快速互動被視為正面互動(tit‑for‑tat)或加速競賽。
能力評估與衡量:受訪者討論傳統 benchmark(如 ELO)與實際「在任務上能持續工作數小時並達成高成功率」的衡量差異,強調小幅提升在曲線上可能代表能力大幅躍升,並建議追蹤「autonomy time horizon」(模型能自主持續處理複雜任務的時長)。
AI 在科學與製藥的應用:OpenAI 與 Ginkgo Bioworks 等案例示範將大型語言模型與自動化實驗室連結,形成閉環「科學工廠」——模型提出實驗、實驗自動執行、模型學習迭代。實際成果包括降低蛋白合成成本與試劑耗用(例如時間與成本大幅下降),但目前多是用既有方法變得更快、更便宜,未來期待模型能提出真正新的實驗方法。
Creatine(肌酸):是被強烈推薦的補充品。日常 5 g 常見但多先被肌肉吸收,若要補腦或在能量危機中應用,研究使用過高劑量(如短期 15–30 g 或 20 g)顯示幫助改善睡眠剝奪的效應、保護腦部免於腦外傷、提升阿茲海默患者能量與運動能力;近年資料也顯示與癌症風險降低相關。選購要注意品牌與製造認證(NSF、Creapure 為金標),並用冰箱保存以避免氧化。醫師若在血液發現「肌酸酐(creatinine)」升高,應同時檢測 cystatin C 以評估腎功能,而非單靠 creatinine 判定是否停用肌酸。