2026年2月21日 星期六

用本地化 Gravity Claw(Claudebot)打造可客製 AI 助手 — 五步 CLAWS 架構速覽

本影片由 Jack Roberts 示範如何在本機(local‑first)使用 OpenClaw / Gravity Claw(他稱作 Gravity Claw = anti‑gravity + clawbar)建構自訂的 Claudebot,強調完全可客製、無供應鏈風險、能接管各種功能但也要注意資安與金鑰管理。主要採用一套「五步 CLAWS」實作框架(C=Connect、L=Listen、A=Archive、W=Wire、S=Sense),並示範從環境準備到部署上線的完整流程與關鍵組件。

重點概要

  • 核心理念:在本地端建立可組合(像樂高)的 AI 助手,所有功能可逐步加入並完全理解其架構與資料流,降低資料外洩/供應鏈風險。
  • 主要工具:anti‑gravity(示範平台)、Telegram(Bot 介面)、OpenRouter 或 OpenAI(模型)、Gro / Whisper(語音轉寫)、11Labs(語音合成)、Pinecone(向量資料庫)、Docker、Node.js、Railway(可選的雲端部署)以及各種 MCP(Model Context Protocol)連接器如 Zapier、Notion、Supabase 等。
  • 安全措施:將 Telegram 帳號白名單化(只有指定 ID 可互動)、本地優先、限制 API 金額、謹慎管理金鑰與部署位置以降低暴露風險。

五步 CLAWS 實作概要

  • Connect(連接)
    • 準備:下載 anti‑gravity、Docker、Node.js;在 Telegram 用 BotFather 建 Bot,取得 token;在 OpenRouter / OpenAI 建 API key 並配置於 anti‑gravity。
    • 把 Telegram ID 白名單化,確認 bot 在本機能即時回應。
  • Listen(聆聽)
    • 加入語音處理:使用 Gro / Whisper 做語音轉文字(transcription);示範如何讓 bot 接收語音訊息並回傳轉寫結果。
    • 加入 11Labs 做 TTS(文字轉語音),讓 agent 能以較人性化的聲音回覆。
  • Archive(記憶 / 存檔)
    • 設計三層記憶系統:Core memory(系統 prompt 長期常駐)、conversation buffer(短期會話)、semantic long‑term memory(向量化存於 Pinecone)。
    • 每次訊息嵌入並儲存;LLM 會在必要時抓取語義相關片段以回補上下文,避免每次都傳完整上下文以節省成本與 token。
    • 建立 soul.md(個性 / 行為準則)與初始設定問題清單,作為每次會話的常駐背景。
  • Wire(串接 / 超能力)
    • 透過 MCP(Model Context Protocol)管理各種整合(如 Zapier 存取 Gmail、Notion、Supabase、GitHub 等),實現讀郵件、讀日曆、存取文件等能力。
    • 展示如何在 anti‑gravity 內安裝 MCP server config 並註冊 API keys,讓 agent 能直接呼叫外部服務。
    • 比較本地化 Pinecone + SQLite 與雲端 Supabase/pg_vector 的 trade‑offs(延遲、成本、資料控管、部署複雜度)。
  • Sense(感知 / 主動心跳)
    • 建立 heartbeat 機制(node‑cron),讓 assistant 可主動在指定時間(例如每天 08:00)發送督促訊息或問候,並能基於記憶給出個性化內容。
    • 若需 24/7 可用,可將專案部署到 Railway(或類似平台),但要注意不要同時在本地與雲端同時執行以免重複動作。

示範功能 / 流程檢視

  • 即時對話(Telegram)、讀取最後一封電子郵件主旨、語音訊息轉寫並回覆、用 11Labs 的聲音合成回覆語音。
  • Pinecone 範例:可檢視已儲存的記憶片段並用於後續語義搜尋(例如問到先前說過的公司屬性即能回應)。
  • 將專案推到 Railway 並設定 env vars,可做到遠端常駐;anti‑gravity 支援將部署流程自動化為「Skill」,方便持續迭代與推送。

風險、技巧與建議

  • 風險:若不當管理 API 金鑰、白名單或公開暴露實例,可能造成資料外洩或濫用。雖然 open‑source 可 fork,但也曾有人暴露大量實例,須小心。
  • 建議:用白名單、金額上限、在本地先測試(staging)再部署、避免同時在兩處執行、隨時 rotate 金鑰/限制權限。
  • 開發流程:用 anti‑gravity 快速迭代功能(從 dashboard 選取模組像拉樂高),測試後再 freeze、deploy 到 Railway;保留本地版本做開發與回滾。

結論

影片示範了一條實作路徑,從下載工具、建立 Telegram bot、串接模型與外部 service、設計記憶層級到部署與自動化 heartbeat,最終達成一個能語音互動、有長期記憶並能主動發訊的本地化 Claudebot(Gravity Claw)。優點是高度可客製與資料控制,缺點與風險在於需謹慎管理金鑰、連接與部署策略。Jack 同時提供了可下載的資源與範例設定,方便跟著影片一步步實作。



拆解 Anthropic「從零打造 C 編譯器」的宣傳:成就與誇大

這段訪談重點在評析 Anthropic 最近發布的一則行銷影片──宣稱其旗艦模型 Claude 在無人干預下、以 16 個 agent 平行運作、數週時間自動完成一個從零開始的 Rust 寫成 C 編譯器,能編譯 Linux、SQLite、Redis、Lua 甚至 Doom。發表同時還披露了約 2,000 次雲端執行、約 2 萬美元 API 成本,產出約十萬行的編譯器,支援 x86、ARM、RISC‑V。

作者的評價分為兩部分:

  • 正面:真正了不起的是,他們能讓多個 agent 在正確的引導與編排下,長時間(數週)自動運作並產出可滿足規格的軟體。這顯示大型模型與多 agent 協作在處理長時程、複雜任務上已出現實質進展,值得肯定。
  • 負面/批判:行銷與實際情況有大落差,影片與文章大量誤導或隱匿重要細節——

主要批判點:

  • 「從零(from scratch)」與「無人干預」說法誇大:實際上有完整的既有測試套件與可供比對的 GCC(已開源、模型也可能已訓練過),等於給了大量既有先例與黃金測試例;此外團隊可以隨時呼叫現有工具做線上比對(online oracle),並非真實的完全零基礎。
  • 無法產生可實際啟動的 Linux:雖然可以編譯出 Linux 相關程式,但因無法產生小於 32KB 的 16 位 x86 啟動段(生成 output 超過限制),所以實際上無法從真實實機的 real mode 啟動 Linux,引導可用性受限。
  • 工具鏈不完整與使用者體驗問題:編譯器 CCC 與 GCC 不同,缺少組譯器與連結器等必要工具,README 的範例程式甚至無法編譯,GitHub 上有大量 issue 與爭論,說明可用性尚未成熟。
  • 模型複製訓練資料的風險:模型會重現受版權保護或既有程式碼(例如可近似重現訓練資料中的大段原文),這使得「從零」的宣稱更顯問題。
  • 仍有人工介入與穩定性問題:agent 會崩潰需重啟、團隊需監督與修正,並非完全放任自動運行。

總結與建議:

  • 實際的技術成就是值得肯定的:能把多 agent、長時程任務穩定化、並在有限人力下達成複雜專案,是一個有意義的里程碑。
  • 行銷語句應更誠實透明:把「自動化編排取得成果」與「完全從零、無人干預」區分開來,避免誤導社群與投資者,也能換來更多正面支持。
  • 對使用者與研究社群的下一步:檢視工具鏈完整性、重現性、測試/比對來源與版權風險,以及改善範例與文件品質,會比誇大宣傳更實際有幫助。

結語:作者既欣賞此類技術進展,也強烈批判過度或不誠實的行銷話術,呼籲 Anthropic 與同業以更誠實的方式呈現成果,讓關注者能在公平資訊下判斷技術真實價值。



Claude Co‑work:讓 AI 從「聊天」變成可執行的協作夥伴

這段影片介紹了 Anthropic 由「聊天型」AI 演進到能實際執行工作的產品演變,重點在新推出的 Claude Co‑work 如何把 LLM 從只能對話的助理,變成可以直接在你工作檔案與資料夾上執行、協作與產出的工具。

背景與演進

  • Anthropic 先在 2025 年推出 Claude Code,使開發者用 LLM 不只寫程式,也用來管理專案、做研究、產出報表等多元用途。
  • 2026 年 1 月推出 Claude Co‑work,將 Code 的能力做成更友善的協作介面,讓一般使用者也能把 AI 放在工作資料夾裡共同完成任務。

主要功能與使用模式

  • 介面分為 Chat、Co‑work、Code 三個分頁;Co‑work 是介於 chat 與 code 之間的「進階聊天/協作」模式。
  • Co‑work 強調「任務/工作」而非單純聊天:側欄顯示為「New task」,並以可共用的資料夾作為工作空間(需授權一次性或永久存取)。
  • AI 可以直接存取該資料夾內的檔案、編輯並產生新檔案,工作成果會儲存在本機的工作資料夾中(非雲端同步)。
  • 具備「思路/思考流程(thought process)」與私人待辦清單,能顯示執行進度與子任務;也會分派子代理(sub‑agents)並行處理大型工作以擴展上下文能力。
  • 內建網路研究能力與「plan mode」,會主動提出追問以釐清需求(例如行程時間、偏好住宿類型),避免像一般 chat 那樣盲猜。

示範案例

  • 編輯 45,000 字的書稿:Co‑work 能把整本稿放在資料夾中、以子代理並行閱讀與分析,產出有優先順序、具體修正建議(例如可及性、章節節奏、示例不足等),比逐章上傳的 chat 更能把握整體脈絡。
  • 家庭墨西哥自駕行程規劃:使用語音輸入與 Co‑work 進行多輪互動、做網路研究、給出四晚行程建議,並自動生成可下載/列印的 Word 行程檔;Co‑work 會標註不確定處並列出可變動參數,方便反覆修正。

優點

  • 能處理更大量的上下文(整本書、專案資料夾),提供更整體且具體的建議或產出。
  • 以資料夾為單位共享工作環境,方便 AI 直接讀寫、產生持久檔案與工作紀錄。
  • 具有更成熟的互動流程(追問、計畫模式、可見不確定性),減少錯誤假設。

限制與注意事項

  • 目前為早期研究預覽(beta),可能會有意外行為或錯誤。
  • 需付費訂閱:目前最低的付費標準方案(影片拍攝時為每月美金 20 元)即可使用 Co‑work(之前較高階功能曾需更貴方案)。
  • 需使用 MacOS 桌面應用(Windows 支援將於未來推出);工作資料與對話是儲存在本機,跨裝置同步有限,換電腦或手機時不會自動出現先前本機的工作紀錄。
  • 與傳統 chat 的使用習慣不同:必須習慣以資料夾/專案為單位工作,並管理授權與本機檔案結構。

總結建議

  • 如果你已在付費使用 LLM(約 $20/月),值得試用或改用 Co‑work,特別是需要大量上下文或希望 AI 幫忙執行實際檔案/專案工作的使用者(作者、內容創作者、產品/專案經理等)。
  • 使用前要注意本機儲存與跨裝置可見性的限制,並預期這仍是研究預覽版本。
  • 影片作者也提供了免費的快速上手指南(可在說明欄或留言中找到),建議搭配指南循序嘗試以掌握最佳實務。


如何為下個版本的模型而建:Claude Code 的誕生、設計原則與未來展望

本次訪談主角為 Claude Code 創造工程師 Boris Churnney,談話聚焦產品起源、設計抉擇、使用者行為觀察、以及面向快速進化的大型語言模型(LLM)的實務策略與願景。

起源與最初設計:Claude Code 最初只是個在終端機(CLI)運行的輕量原型,用來試 API、驗證工具使用(tool use)概念與快速 dogfooding。之所以選終端,是因為最便宜、最快速能驗證「模型能否實際幫助寫程式」。許多早期功能與 UX 都由內部使用者逐步驅動演化。

終端意外成為核心設計:雖然 Boris 一開始認為終端只會是起點,但 CLI 的簡潔限制反而成為優勢:開發者把注意力放在任務流程上而非檔案/UI,體驗既輕快又有趣,且容易快速迭代。後來才拓展到桌面、Web、iOS/Android、VS Code / JetBrains 等多個介面,但底層 agent 邏輯一致。

產品原則:建構「六個月後的模型」

  • 不要只為當前模型做產品:Boris 的核心建議是「不為今日模型而建,為六個月後的模型而建」,也就是設計時預想模型快速進步的邊界與能力。
  • 潛在需求(latent demand):真正成功的功能是「把使用者已在做的事做得更容易」,觀察用戶真實工作流並將其自動化或優化。
  • Scaffolding 與等待之間的抉擇:可用外部結構(scaffolding)短期提升效能,但模型迅速升級可能讓這些補強變得多餘。評估投入報酬並決定是先造橋還是等模型自行跨越。

Claude.MD 與 prompt 簡潔性:團隊實務上採用短而精的 Claude.MD(類似個人/團隊指令集),只放最必要的規則與流程;當內容膨脹到上千 tokens,建議刪掉重寫以回到最小必要指示。目標是讓模型「最少提示即可回到正軌」。

Plan mode、sub-agents 與團隊工作法:Plan mode 是在執行前要求模型先寫計畫再動手的模式(實際上只是往 prompt 補一句「請先不要寫程式」),對於現階段仍然很有用。但模型越強,Plan mode 的需求會下降(Boris 預期可能在短期顯著縮減)。系統可自動產生並分配 sub-agents(遞迴 agent)以平行搜尋或偵錯,並在團隊 / tasks 間協作,形成「agent swarm」來產出功能或插件。

使用者互動與細節可見性:關於終端輸出冗長與否,團隊透過使用者回饋(有些人要看原始 bash / log)加上可調的 verbose 模式來兼顧新手與進階使用者。迭代頻繁、緊密回饋是設計流程的常態。

招聘與團隊文化:偏好具「初學者心態」、「從第一原理思考」並能承認錯誤的人。面試時會問「你曾錯在哪裡?」之類問題以評估學習型態。團隊同時需要超級專家(specialists)與通才(generalists),以及能夠把 agent 用到開發流程中的工程師。

生產力與實際成效:內部數據顯示自採用 Claude Code 後,Anthropic 的人均生產力顯著上升(範例指標:PR / commit 增長),某些團隊已到 70–100% 的程式碼由 agent 產出。個人層面上,Boris 自 Opus 4.5 起宣稱幾乎不再直接手寫程式碼,而是用 agent 產出並審核。

快速重寫與短生命週期:整個產品與程式碼持續被重寫、移除或替換以適應模型更新。Boris 強調沒有哪一部分會穩定超過數月──架構與 scaffolding 持續演化。

未來展望與安全性:Boris 視編碼工作將被普遍「解決」為下界:更多人可成為 builders,工程師職稱與工作內容會變得更廣泛(例如需求寫 spec、與使用者互動、系統設計等)。上界風險則包含 ASL4(模型能自我遞歸提升)或被惡用於生物/漏洞設計等場景,因此公司把 AI 安全放在核心使命。

給創業者與 DevTool 建議(總結式要點):

  • 以「潛在需求」為主:先觀察人們現在怎麼做,再把那件事做得更簡單。
  • 為下個模型而建:預期模型會在數月內大幅進步,設計時考慮這個速度。
  • 不要與模型賭鬥:更通用的模型會勝過專門的手工解法,投資需有時間成本、技術債與可替代性的考量。
  • 快速原型與頻繁 dogfooding:用小範圍、快速迭代測試使用方式與 UX。

整體而言,訪談傳達的核心是:在 LLM 快速演進的時代,成功的產品設計靠的是對使用者真實行為的觀察、以最小化的指示把模型帶上軌道、以及在「等待模型變強」與「構建 scaffolding」之間找到最佳投入。Claude Code 的經驗證明:簡潔、以使用者為中心、並且預期模型能力逐步取代手工流程,是當前最有效的策略。



Quad/Claude Code 如何重塑軟體工程、工作角色與產品設計:Boris Churnney 對話重點整理

本篇為 Lenny 的 podcast 與 Anthropic Claude Code(團隊內部稱 Claude Code)負責人 Boris Churnney 的訪談摘要,整理出技術起源、成長影響、安全策略、對工作與產品的建議,以及對開發者/企業的實務要點。

核心結論(快速掃描)

  • Boris 表示:「自 11 月起我沒有手寫過任何一行程式碼,100% 的程式碼由 Claude Code 產出。」日常仍會審查、合併 PR,每日可送出數十個 PR。
  • Claude 已快速成為工程師的實作工具(公開報告顯示已寫入大量 GitHub commit),增長持續加速;Anthropic 也把這類工具視為研究與安全實驗的重要場域。
  • 工程生產力有大幅提升(Boris 提到工程師生產力提升約 200%),但也帶來職能分工變動與社會層面的衝擊與討論。

產品與起源

  • 最初是 Boris 個人快速原型(命名為 Claude CLI),採「終端機優先」的設計:理由是模型快速進步、要能跟上節奏就用最低成本的形式先做出來。
  • 早期內部測試、快速迭代與高度回饋機制是成功關鍵:團隊把使用者的回饋當成最重要的信號,快速修 bug、快速上線,鼓勵使用者持續回饋。
  • 從終端機延伸到桌面、手機、IDE 外掛與 Slack/GitHub 整合,讓不同領域的人能在既有工作流中使用 Claude(即「把產品帶到使用者所在的地方」)。

功能演進與下一步

  • 不再只是「寫程式的對話夥伴」:Claude 不僅產出程式碼,還能使用工具、讀取回饋、檢視 bug 報告並自行提出修復建議,開始扮演協同工作者(co‑worker / agent)的角色。
  • Boris 判斷:對他所做的那類程式碼而言,「寫程式」這件事在技術層面已基本解決,下一步是擴展到更廣泛的工作(專案管理、郵件處理、表單填寫、跨工具自動化等)。
  • 「代理人能主動提出要做的事」將是重要發展:由被動回應到主動偵測、建議、執行改進。

對工程與職場的影響

  • 工作角色會模糊:工程、產品、設計的職責重疊增加;Boris 認為「software engineer」這個職稱可能會逐漸被「builder」或更通用的角色取代。
  • 短期將帶來劇烈混亂與痛苦,但長期可能像「印刷術」一樣促成知識與能力的廣泛普及,解鎖大量新創造力與協作方式。
  • 關於就業:Anthropic 與 Boris 傾向樂觀—工具讓人更有能力去做新事,但社會需討論過渡與保障。

安全與可觀測性(Anthropic 的方法論)

  • 三層觀察:機制層(mechanistic interpretability,研究模型內部、神經元與概念如何編碼)、實驗室層(synthetic evals)、與實際上線後的真實世界行為。
  • Anthropic 重視「在真實世界中觀察模型行為」,因此採取逐步釋出(research preview)、內部長時間試用、並提供沙盒(open‑source sandbox)與 guardrails。
  • 內部能對模型「看」到某些 neuron/結構與高級功能(例如長期規劃、工具使用)的關聯,並把這類洞察用於防護與監控。

實務建議(給產品設計者與使用者)

  • 給團隊大量嘗試(loose with tokens):早期鼓勵工程師自由試用模型、嘗試高消耗情境,找到能解決的真實問題後再優化成本。
  • 不要過度束縛模型(少做重型流程化 orchestrator):經驗顯示,給模型工具與明確目標,讓它決定步驟,通常效果比嚴格分段更好。
  • 投注於「更通用、更強大」的模型(the bitter lesson):一般而言,通用大型模型長期勝過大量專門化微調方法;若可能,優先用最能勝任的模型(Boris 建議使用最能的 model,如 Opus 4.6)。
  • 實務使用小技巧:啟用 Plan Mode(先讓模型擬計畫再執行)、使用最強模型而非盲省成本、嘗試不同介面(terminal、desktop、mobile、browser extension),並多試多學。
  • 產品策略:建產品時要「為未來的模型(6 個月後)設計」,若只為當前弱模型優化,可能很快被新模型淘汰。

團隊文化與工作方法論

  • 少投入人力、鼓勵「underresource」:小團隊、快速交付、給予個人自由與責任以促進創新與速度。
  • 跨領域通才更被看重:Boris 建議成為跨領域(產品、工程、設計、業務)的一般化人才,因為 AI 工具會把作業層自動化,誰能看整體越吃香。
  • Claude 內部實作:Claude 會自動審查 100% PR,並協助生成修復、測試、PR;但 Boris 仍強調人類審核的重要性(安全、合規、上下文判斷)。

Co‑work(agent)與 Latent Demand 概念

  • Co‑work 是把 agent 推到非工程使用者的入口:Chrom、桌面 app、手機等,讓 agent 做 email、表單、跨系統同步、專案管理等事。
  • Latent demand(潛在需求):觀察使用者如何「濫用」現有工具來達成目的(例如 Facebook 的 Marketplace 起源),產品應把這些使用模式正規化、做成專用功能。Claude/Co‑work 的很多延伸正是從觀察使用者將終端機當成通用工具而來。

社會與情感面向

  • Boris 個人仍享受「用 agent 建構」的流程,他說反而更喜歡現在的編程方式(不再被瑣碎細節綁住),但也承認不同人會有不同的情感反應(懷舊、喪失感或解放)。
  • 他把這次變化比作印刷術的擴散:初期衝擊巨大,但長期解鎖知識普及與新社會結構。

有用的快速摘錄與小故事

  • Boris 的個人習慣:每天同時運行多個 agents(他說當下錄音時有五個 agents 在跑);許多工程流程已讓 Claude 自動化。
  • 團隊文化:鼓勵速度、實驗、少量資源但高度責任;把使用者回饋當作產品指北。
  • 輕鬆片段:Boris 與主持人發現雙方都來自烏克蘭奧德薩(Odessa)、Boris 喜歡做味噌,並提到幾本科幻與技術書作為推薦。

結語:Boris 的核心提醒

技術變化極快,但設計良好的原則沒變:觀察使用者(尤其是他們如何「曲用」產品產生潛在需求)、讓模型有工具去做事、給創新空間(tokens/時間/心理安全)、並把安全視為從內部機制到實際上線的三層工程。短期會痛,長期可能是讓更多人能「構建軟體」的機會。

若要快速上手 Boris 的建議:多試、多讓 agent 幫你做事、使用最強模型、在開始階段多試驗(不要太早優化成本),並學習跨領域思考以成為「builder」而不是只做單一細分角色。



2026年2月15日 星期日

AI 时代的進展、風險與治理:從「巨量運算假說」到產業與社會的抉擇

摘要要點:

技術演進與「大塊運算(Big Blob of Compute)」假說
受訪者重申早年提出的理念:真正重要的不是每個巧妙的新技巧,而是幾個核心要素的規模化——(1)原始運算量、(2)資料量、(3)資料品質與分佈、(4)訓練時間、(5)可擴展的目標函數(如自監督預訓練與強化學習目標)、(6)數值標準化、(7)數值穩定化。這套框架解釋了語言模型與強化學習近期的指數級能力增長。

預訓練與 RL 的一致性、樣本效率與類比人類學習
近年來 RL 也顯現類似的尺度法則(長時間訓練對許多任務仍呈對數線性收益)。模型雖然需要遠超人類的訓練樣本(樣本效率不佳),但在「長上下文」中表現出強大的即時學習(in‑context learning)。因此作者把模型學習放在一個光譜上,介於演化、長期學習與短期人類即時學習之間。

關於持續學習(continual learning)與長上下文的工程挑戰
持續學習未必是唯一路徑;模型可能透過更廣泛的預訓練+RL泛化而達成許多「在職學習」功能。延長上下文(context length)與改善推理/記憶的工程問題是可解的,但需在訓練與推理兩端投入工程解決(KV cache、分布式存儲與服務等)。

能力預測與時間線
受訪者認為「在資料中心形成一個天才國度(country of geniuses in a data center)」是高度可能的:10年內幾乎確定(約90–95%);較激進的直覺是1–3年內多數可驗證領域(尤其程式碼/軟體工程)會達到能執行端對端任務的水準。對於不易驗證或高度創新任務(如重大科學發現、長期計畫),存在更多不確定性。

程式碼與軟體工程的光譜化改變
強調衡量要分清不同標準:由「模型寫多少行程式碼」到「端對端完成軟體工程任務」再到「需求對軟體工程人力的減少幅度」。過去數月已出現模型寫大多數 code 行數的情況,但生產力與職能替代是個漸進的光譜(15–20% 的生產力提升在擴散初期可變成更大影響)。Claude Code 的成功來自內部快速迭代與實際使用反饋。

能力指數成長與經濟擴散(diffusion)雙指數現象
受訪者把事態分為兩段快速指數:一是模型能力的快速提升;二是這些能力向經濟中各領域採納的快速擴散。擴散會比歷史技術快很多,但不是瞬間完成——受企業採用流程、合規、安全與變更管理等摩擦影響。

商業模式與基礎設施決策(以 Anthropic 為例)
面對未卜的需求與建置資料中心的長期投入,公司在購買運算時必須在「過度投資導致虧損」與「投資不足錯失成長」之間權衡。產業可能在訓練(R&D)和推理(inference)間保持某種穩態分配(被受訪者形容為大致 50/50 的示意),但實際比重會因需求波動而改變。API 商業模式會並存於多種商業模式之中,且對不同類型輸出有差別定價與「按結果付費」趨勢。

治理、透明度與風險管理
- 優先事項包含:透明度標準、強化對生物安全/雙用技術的檢測(bioclassifiers)、監督與快速響應機制。
- 反對在缺乏聯邦框架下的州級全面性禁令(如禁止州法十年 moratorium),主張若採取「預留聯邦標準」或聯邦主導的可行調節會更妥。
- 必須在不壓制發展利益的同時,針對已知和高風險場景採取具體強制措施(例如生物危害相關的強制分類器、審查流程)。

地緣政治、去中心化風險與威權國家
- 若先行出現攻擊性或主導級的 AI 能力,國際政治穩定性可能被破壞(與核武、網路主導類比)。
- 對於是否「應該」「或能夠」阻止威權國家獲得高階 AI,作者態度謹慎:擔憂早期初始條件影響未來秩序,但也強調民主國家應力求在設定規則時握有優勢並防止專制利用技術壓迫人民。
- 提出可能之路徑:限制高端晶片與資料中心輸出、在發展中國家投資基礎設施與醫療、嘗試技術方案以賦予個人抵抗監控的能力(但承認具有高度不確定性)。

模型的價值觀與「憲法式」設計
Anthropic 採用「憲法」理念:以原則(principles)而非僅列出逐條禁令的方式指導模型行為,強調可校正(corrigibility)與遵從人類指令為主,但在明顯危害情況下設限。作者認為三層迴路可改進憲法:公司內部迭代、不同公司憲法間的競合,以及更廣泛的社會/代表性回饋。

對民主與專制的倫理/戰略思考
作者承認可能出現權力極度集中的危險(攻勢佔優),並主張要在國際上推動令民主價值握有較大影響力的規則框架;同時擔憂技術快速到位會使政府與社會沒時間慢慢適應,因而強調立即增強政策能動性與監管準備。

結語與領導文化
受訪者強調內部文化、透明溝通與快速反饋迴路(例如定期整體說明會 DVQ)對一間 AI 公司成功與負責任發展的關鍵。治理、工程與經濟決策都必須兼顧速度與謹慎:既要準備承擔迅速到來的科技紅利,也要留有緩衝以應對政策與安全風險。

總結判讀:
訪談呈現一位從研究與產業雙重視角出發的核心觀點:AI 的能力正在按可預期的尺度律快速增長(大塊運算有效),許多關鍵任務(尤其可驗證的工程類任務)在短期內即可達到高度自動化;但技術能力的經濟與社會擴散雖快卻非瞬間,決策者必須在促進創新與防範生物/自治性攻擊與地緣政治風險間取得務實平衡,並建立透明、可監測與可回應的治理機制。



2026年2月11日 星期三

LR Timelapse 與 Lightroom 完整工作流程快速總結

這段教學示範如何使用 LR Timelapse(可搭配或不搭配 Lightroom Classic)從影像序列製作流暢、高品質的縮時影片。主要流程與重點如下:

  • 檔案與資料夾管理:每個縮時序列放在單一資料夾(不可有子資料夾)。在 LR Timelapse 設定中建議指定父資料夾以提高效能與管理性。
  • 載入序列:支援 RAW、DNG、JPEG,但以 RAW 成果最好且處理最快,不建議把 RAW 轉成 DNG。
  • 預覽與 Metadata:右側表格顯示曝光、光圈、間隔等 metadata,所有編輯先以 metadata(XMP)保存,實際像素變化在最終匯出時才套用(lossless 流程)。
  • 關鍵影格(Keyframes):使用 Keyframes Wizard 建議數量,或手動新增(可用滑桿或按鍵)。建議以影像中光線或構圖明顯改變的位置為關鍵影格。
  • Holy Grail Wizard:專為錄製白天→夜晚或夜晚→白天(Holy Grail)並在拍攝時手動調整曝光導致亮度曲線不連續的序列,用來自動補償並平滑亮度曲線。若拍攝無手動調整則不使用。
  • 在 LR Timelapse 的內建編輯:可以直接對關鍵影格做初步編輯(使用與 Lightroom / ACR 類似的工具),編輯後以上一張關鍵影格作為下一張的起點(向右依序編輯)。
  • 以 Lightroom 編輯(建議做較複雜修圖時使用)
    • 開啟 Lightroom Classic(Library 模組),將 LR Timelapse 中的序列以拖拉導入(選 Add,不要複製)。
    • 在 Lightroom 使用篩選器顯示只有關鍵影格(LR Timelapse 安裝時會新增篩選器),關鍵影格在 Lightroom 會標四顆星。
    • 編輯關鍵影格(白平衡、曝光、對比、裁切、16:9 等),注意不要新增或刪除 LR Timelapse 預設供動畫用的遮罩,也不要改變三個內部使用的遮罩。
    • 用 LRT Sync Keyframes 腳本把第一張關鍵影格的設定複製到下一張(不覆蓋 LR Timelapse 背後的特定調整),依序套用後再微調。
    • 編輯完畢切換到 Grid(G),全選關鍵影格再選 Metadata → Save Metadata to Files(重要:從 Library/Grid 儲存,Develop 模組只會儲存當前影像)。
  • 回到 LR Timelapse 並產生視覺預覽(Visual Previews):載入或讀取 metadata 後,系統會產生已開發的預覽(粉紅曲線顯示視覺亮度進程,黃線顯示曝光工具值)。檢查關鍵影格亮度並可再調整曝光。
  • 自動過渡(Auto Transition):計算關鍵影格之間的所有影像發展設定(插值),LR Timelapse 會快速計算並展示各工具的曲線。
  • 去頻閃(Deflicker)
    • 建議先在預覽上設定一個參考區域(Reference Area),選擇不受場景自然亮變影響但能反映閃燈現象的區域(例如相對穩定的天空區域)。
    • 啟用 Visual Deflicker,透過平滑滑桿調整欲保留的長短期亮度變化。可選單次或多次(multi-pass)去頻閃,多次通過會逐步逼近理想曲線。
    • 所有計算依舊是 lossless,變更只寫入 metadata,不會損失原始畫質。
  • 工作流程指標與預覽:左側樹狀會顯示已完成的步驟(Keyframes、Holy Grail、Auto Transition、Deflicker pass 等)。可分離預覽面板以放大檢視。
  • 匯出(Export)與轉檔(Render)分離
    • 匯出:把已套用編輯的全尺寸影像匯出成中間序列(intermediate sequence,如 JPEG 或 Pro 版可輸出 16-bit TIFF / HDR)。匯出目標資料夾應與原始影像分開。
    • 轉檔:由中間序列渲染成影片檔(可多次以不同設定渲染同一中間序列)。
  • 匯出方式
    • 直接用 LR Timelapse 內建 Export & Render(選擇輸出資料夾與檔名),或先用 Lightroom 的 LRT Export 外掛輸出中間序列後再在 LR Timelapse 渲染。
    • 若用 Lightroom 匯出,先在 LR Timelapse 中將中間序列匯入,再選擇 Render pre-exported intermediary sequence。
  • 渲染與輸出設定
    • LR Timelapse 提供預設(如 29.97 fps、H.264 等),可自訂編碼器、動態範圍、輸出尺寸、品質、幀率等。
    • LRT Motion Blur:可混合相鄰數張影像(如 5 表示混合 5 張),能使畫面更平滑並降低雜訊,但移動快或推移鏡頭時過度模糊會造成鬼影,需視內容調整。
    • Pro 版可加浮水印、時間戳與更高等級輸出(TIFF/HDR)。
    • 渲染完成後檔案會在系統檔案管理器中顯示;可保留渲染對話(Shift+Render)以便連續渲染。
  • 重複渲染與管理:中間序列以 aler_tcore_ 前綴表示,可重複以不同參數渲染而不覆寫;檔名會包含渲染設定以便辨識。
  • 實務建議與提醒
    • 若需要精細修片建議使用 Lightroom,但兩者可混合使用取長補短。
    • 對於內容型工具(Clarity、Dehaze 等)應小心使用,可能會產生不自然的顏色/對比跳動。
    • 去頻閃、過渡等步驟都在 metadata 層級進行,能多次嘗試而不損畫質。
    • 儲存或讀取 metadata 時務必在 Library/Grid 檢視操作以避免只套用當前影像的問題。

總結:流程大致為:整理資料夾 → 載入序列 → 建立關鍵影格 → 編輯(LR Timelapse 內建或 Lightroom)→ 儲存 metadata → 自動過渡 → 建立視覺預覽 → 設定參考區並去頻閃 → 匯出中間序列 → 渲染成影片。熟悉後這套流程既高效又能產出高品質縮時影片。

若需我把此流程整理成逐步操作清單、快捷鍵一覽或常見問題(如 Holy Grail 拍攝設定、參考區選擇技巧、去頻閃參數建議)我可以再補充。