2026年2月26日 星期四

2026必學技能:AI Agent技能工程全解析及實務操作指南

2026必學技能:AI Agent技能工程全解析及實務操作指南

這段影片深入解析了AI代理(AI agents)在雲端代碼平台(如Cloud Code、Co-Work、CodeEx)的強大能力,並強調學習「技能工程(Skill Engineering)」在未來的重要性。透過技能,任何人都能簡單透過提示自動化流程,並且技能具備自我優化潛力;優質技能甚至將成為可貨幣化的資產。

什麼是技能(Skills)?

技能本質上是AI代理執行特定流程的指令集合,包括流程說明文件(skill.md)、參考資料、工具操作指令、子代理啟動指令及程式碼腳本(例如API調用)。這種結構使得技能既具靈活性又強大,能融合人類判斷(human in the loop),並隨時更新。

技能的架構與類型

  • skill.md:流程說明文件,作為技能的核心SOP(標準作業程序)
  • 參考文件:文字檔如品牌風格、客戶背景或行銷策略,及程式碼腳本、圖片、影片等非文本文檔
  • 工具操作指令(MCP instruction):指引代理如何有效使用列入流程的特定軟體工具

多種類型的參考資料使技能可靈活應對不同任務需求,並可實現逐步載入(progressive disclosure)以避免上下文超載。

技能與外掛(Plugins)的差異與關係

外掛是包含多項技能、命令和代理的套件,並附帶連接器以支援更複雜的多步驟工作流。外掛能根據部門需求分發,並支援版本控制,類似SaaS軟體。技能則是外掛的核心組件,外掛本質上是技能的集合。

技能適用範圍與自訂化

技能廣泛適用於各行各業和部門,企業可依據自身特有流程及品牌風格自訂技能,同時員工也能針對個人工作方式進行調整。技能的開放性與可分享性促進了團隊一致性及高效運作。

如何建立與優化技能?

  1. 明確定義技能名稱及觸發條件(如輸入關鍵字)
  2. 設定技能目標與流程,包含是否需要人類介入(human in the loop)及輸出格式
  3. 準備相關參考文件及工具操作指引
  4. 設計多選項輸出以利人類選擇最佳結果
  5. 設立規則防止錯誤發生,並允許技能自動更新與自我學習

建立技能過程中,如無參考文件可先讓AI協助生成,運用迭代方式不斷優化。例如示範中的資訊圖表產生技能經過多次調整,包含輸出格式、品牌風格及多樣化視覺呈現,漸趨完美。

示範與應用

影片中示範了如何在Cloud Code透過指令觸發資訊圖表產生技能,系統根據使用者輸入自動判斷產出平台格式、視覺類型,並提供多種變體選擇,最後使用者可將成品儲存作為優良範例協助技能持續學習和提升。

結語與資源

AI技能的工程類似軟體工程,需要考量使用者體驗、上下文管理及不斷迭代更新。學會打造與優化技能,是未來提升個人與企業生產力的關鍵。此外,透過市場平台分享或販售技能,為開發者開闢新的貨幣化途徑。

更多影片與資源請見下方描述連結,其中包含完整技能開發指南、外掛製作流程及AI加速器社群資訊,適合想深入學習並掌握AI技能工程的朋友。



2026年2月24日 星期二

利用Obsidian與Claude Code打造你的第二大腦與工作助理

本次訪談介紹了Obsidian與Claude Code的強大結合及其在打造個人知識管理系統與智能代理中的應用。Vin詳細說明了如何利用Obsidian作為一個以Markdown文件為基礎、具有互聯關係鏈接功能的知識庫(vault),並搭配Claude Code這種自然語言命令行代理工具,有效管理與調用個人工作與生活的多重資訊。

主要內容與亮點包括:

  • Claude Code介紹:一種可以通過自然語言指令控制電腦並讀寫文件的智能代理,能自動化處理複雜任務,並且可將項目描述等上下文資料直接存放成文件,避免重複解釋。
  • Obsidian的核心優勢:它是一套基於Markdown文件的系統,允許使用者建立文件間的雙向連結,形成龐大的知識網絡,有點類似大腦思考聯想的模式,方便以後快速檢索與發現隱藏的關聯。
  • Obsidian CLI的功能:結合Claude Code,CLI能讓代理程式不只是看到獨立文件,更把文件之間的連結結構納入理解,從而挖掘出深層的模式、潛在想法及長期累積的知識。
  • 實用指令與應用實例:如「context」指令自動整合每日筆記、行事曆、待辦事項等資料,生成當日優先任務計畫;「slashclose day」總結並萃取當日行動項目;「ghost」用來檢視並測試自己觀點的矛盾與變化,促進自我反思與成長。
  • 透過代理程式擴展生產力:Vin展示了如何讓代理根據個人Vault分析及建議工作重點、創意想法甚至是一整套的工作流程自動化,例如按日劃分任務域、從每日筆記自動提取創意、跨領域連結不同知識點,極大提升個人決策與執行效率。
  • 隱私與信任問題:由於Vault存有大量個人詳細資料,授權代理訪問被比喻為給予「第二大腦」的存取權,Vin強調要謹慎評估與掌控分享內容,並認為這將是未來社會重要的隱私與倫理議題。
  • 未來展望與哲學思考:討論了這種以純文本、互聯的知識管理系統如何象徵一種新的數位記憶體,並能被LLM代理程序有效利用,成為人類認知與創造力的延伸。Markdown文件被稱作是現代數位思考的基石,而代理是連結記憶與行動的橋樑。

總結來說,訪談強調:

  • Obsidian配合Claude Code所提供的系統,是建立自主、深度、持續進化的個人知識庫與智能工作搭檔的關鍵工具。
  • 利用這套系統,可幫助用戶產生更及時且具洞察力的想法,提升個人效率,進而改善幸福感、身心健康與財務狀況。
  • 雖然設置門檻較高且耗時,但對於希望充分發揮AI協助能力的重度使用者來說,是突破傳統生產力工具的關鍵所在。

最後,Vin分享了如何透過持續記錄與反思、結合代理程式建立個人及團隊的「第二大腦」,並鼓勵大家勇於嘗試這些開放、可塑性的工具,讓未來的工作與生活更智慧高效。



2026年2月22日 星期日

使用Apple M4 Max MacBook Pro一年的真實體驗分享

這段影片是一位創作者分享他購入並使用配備超強規格的M4 Max MacBook Pro一年的心得與經驗。

他當初購買時是抱著滿載最高配備的想法,理論上能應付所有工作需求,尤其是影片剪輯和渲染,但實際使用後發現大部分時間沒有發揮到這麼強大的效能,只有影片快速渲染這部分是獨有M4 Max晶片才能做到的。

在日常輕量工作如撰寫文章時,即使是20年前的舊電腦也能輕鬆勝任,因此覺得買這麼強的配置有些浪費。最明顯的缺點是電池續航力,M4 Max MacBook Pro因為性能提升,電池消耗大幅增加,輕度使用時感覺是在「無謂地燒電」。更新macOS後,初期續航甚至一度急劇下降,但後來恢復正常。

螢幕方面,作者非常喜歡具備「奈米紋理」(nano-texture)面板,認為對眼睛不易疲勞且減少反光,且與14吋相比,16吋螢幕讓多工操作更為舒適,但攜帶時不夠輕巧且大小略顯笨重,手腕放置空間比14吋更大但使用時感到不太舒服,尤其當配戴智慧手錶時會有壓迫感。鍵盤體驗穩固順手,Touch ID靈敏好用,但有些功能鍵使用率低,且舊款M1 Pro鍵盤容易油亮磨損,目前新的M4 Max還未出現該問題。

音效表現令他驚喜,認為是他用過筆記型電腦中音質最好且不需要額外擴音設備。內建鏡頭與麥克風品質好,足夠日常會議使用。

在影片剪輯上,他使用Final Cut Pro進行多軌4K與8K素材剪輯與後製,流程順暢無卡頓且軟體穩定度高。影片渲染速度快,且不同電源模式可依需求在渲染時間與電池續航間取得平衡。存取大型檔案經常使用2TB以上SSD,雖然價格昂貴但帶來便利與安心。

他總結,如果預算充足且工作需求能發揮其性能,這台筆電是非常值得投資的。但若只是輕度使用或不確定是否需要如此強大的性能,不建議盲目跟風購買,他個人未來考慮不會再次購買Max晶片版本,會繼續使用現有機器許多年。



2026年2月21日 星期六

用本地化 Gravity Claw(Claudebot)打造可客製 AI 助手 — 五步 CLAWS 架構速覽

本影片由 Jack Roberts 示範如何在本機(local‑first)使用 OpenClaw / Gravity Claw(他稱作 Gravity Claw = anti‑gravity + clawbar)建構自訂的 Claudebot,強調完全可客製、無供應鏈風險、能接管各種功能但也要注意資安與金鑰管理。主要採用一套「五步 CLAWS」實作框架(C=Connect、L=Listen、A=Archive、W=Wire、S=Sense),並示範從環境準備到部署上線的完整流程與關鍵組件。

重點概要

  • 核心理念:在本地端建立可組合(像樂高)的 AI 助手,所有功能可逐步加入並完全理解其架構與資料流,降低資料外洩/供應鏈風險。
  • 主要工具:anti‑gravity(示範平台)、Telegram(Bot 介面)、OpenRouter 或 OpenAI(模型)、Gro / Whisper(語音轉寫)、11Labs(語音合成)、Pinecone(向量資料庫)、Docker、Node.js、Railway(可選的雲端部署)以及各種 MCP(Model Context Protocol)連接器如 Zapier、Notion、Supabase 等。
  • 安全措施:將 Telegram 帳號白名單化(只有指定 ID 可互動)、本地優先、限制 API 金額、謹慎管理金鑰與部署位置以降低暴露風險。

五步 CLAWS 實作概要

  • Connect(連接)
    • 準備:下載 anti‑gravity、Docker、Node.js;在 Telegram 用 BotFather 建 Bot,取得 token;在 OpenRouter / OpenAI 建 API key 並配置於 anti‑gravity。
    • 把 Telegram ID 白名單化,確認 bot 在本機能即時回應。
  • Listen(聆聽)
    • 加入語音處理:使用 Gro / Whisper 做語音轉文字(transcription);示範如何讓 bot 接收語音訊息並回傳轉寫結果。
    • 加入 11Labs 做 TTS(文字轉語音),讓 agent 能以較人性化的聲音回覆。
  • Archive(記憶 / 存檔)
    • 設計三層記憶系統:Core memory(系統 prompt 長期常駐)、conversation buffer(短期會話)、semantic long‑term memory(向量化存於 Pinecone)。
    • 每次訊息嵌入並儲存;LLM 會在必要時抓取語義相關片段以回補上下文,避免每次都傳完整上下文以節省成本與 token。
    • 建立 soul.md(個性 / 行為準則)與初始設定問題清單,作為每次會話的常駐背景。
  • Wire(串接 / 超能力)
    • 透過 MCP(Model Context Protocol)管理各種整合(如 Zapier 存取 Gmail、Notion、Supabase、GitHub 等),實現讀郵件、讀日曆、存取文件等能力。
    • 展示如何在 anti‑gravity 內安裝 MCP server config 並註冊 API keys,讓 agent 能直接呼叫外部服務。
    • 比較本地化 Pinecone + SQLite 與雲端 Supabase/pg_vector 的 trade‑offs(延遲、成本、資料控管、部署複雜度)。
  • Sense(感知 / 主動心跳)
    • 建立 heartbeat 機制(node‑cron),讓 assistant 可主動在指定時間(例如每天 08:00)發送督促訊息或問候,並能基於記憶給出個性化內容。
    • 若需 24/7 可用,可將專案部署到 Railway(或類似平台),但要注意不要同時在本地與雲端同時執行以免重複動作。

示範功能 / 流程檢視

  • 即時對話(Telegram)、讀取最後一封電子郵件主旨、語音訊息轉寫並回覆、用 11Labs 的聲音合成回覆語音。
  • Pinecone 範例:可檢視已儲存的記憶片段並用於後續語義搜尋(例如問到先前說過的公司屬性即能回應)。
  • 將專案推到 Railway 並設定 env vars,可做到遠端常駐;anti‑gravity 支援將部署流程自動化為「Skill」,方便持續迭代與推送。

風險、技巧與建議

  • 風險:若不當管理 API 金鑰、白名單或公開暴露實例,可能造成資料外洩或濫用。雖然 open‑source 可 fork,但也曾有人暴露大量實例,須小心。
  • 建議:用白名單、金額上限、在本地先測試(staging)再部署、避免同時在兩處執行、隨時 rotate 金鑰/限制權限。
  • 開發流程:用 anti‑gravity 快速迭代功能(從 dashboard 選取模組像拉樂高),測試後再 freeze、deploy 到 Railway;保留本地版本做開發與回滾。

結論

影片示範了一條實作路徑,從下載工具、建立 Telegram bot、串接模型與外部 service、設計記憶層級到部署與自動化 heartbeat,最終達成一個能語音互動、有長期記憶並能主動發訊的本地化 Claudebot(Gravity Claw)。優點是高度可客製與資料控制,缺點與風險在於需謹慎管理金鑰、連接與部署策略。Jack 同時提供了可下載的資源與範例設定,方便跟著影片一步步實作。



拆解 Anthropic「從零打造 C 編譯器」的宣傳:成就與誇大

這段訪談重點在評析 Anthropic 最近發布的一則行銷影片──宣稱其旗艦模型 Claude 在無人干預下、以 16 個 agent 平行運作、數週時間自動完成一個從零開始的 Rust 寫成 C 編譯器,能編譯 Linux、SQLite、Redis、Lua 甚至 Doom。發表同時還披露了約 2,000 次雲端執行、約 2 萬美元 API 成本,產出約十萬行的編譯器,支援 x86、ARM、RISC‑V。

作者的評價分為兩部分:

  • 正面:真正了不起的是,他們能讓多個 agent 在正確的引導與編排下,長時間(數週)自動運作並產出可滿足規格的軟體。這顯示大型模型與多 agent 協作在處理長時程、複雜任務上已出現實質進展,值得肯定。
  • 負面/批判:行銷與實際情況有大落差,影片與文章大量誤導或隱匿重要細節——

主要批判點:

  • 「從零(from scratch)」與「無人干預」說法誇大:實際上有完整的既有測試套件與可供比對的 GCC(已開源、模型也可能已訓練過),等於給了大量既有先例與黃金測試例;此外團隊可以隨時呼叫現有工具做線上比對(online oracle),並非真實的完全零基礎。
  • 無法產生可實際啟動的 Linux:雖然可以編譯出 Linux 相關程式,但因無法產生小於 32KB 的 16 位 x86 啟動段(生成 output 超過限制),所以實際上無法從真實實機的 real mode 啟動 Linux,引導可用性受限。
  • 工具鏈不完整與使用者體驗問題:編譯器 CCC 與 GCC 不同,缺少組譯器與連結器等必要工具,README 的範例程式甚至無法編譯,GitHub 上有大量 issue 與爭論,說明可用性尚未成熟。
  • 模型複製訓練資料的風險:模型會重現受版權保護或既有程式碼(例如可近似重現訓練資料中的大段原文),這使得「從零」的宣稱更顯問題。
  • 仍有人工介入與穩定性問題:agent 會崩潰需重啟、團隊需監督與修正,並非完全放任自動運行。

總結與建議:

  • 實際的技術成就是值得肯定的:能把多 agent、長時程任務穩定化、並在有限人力下達成複雜專案,是一個有意義的里程碑。
  • 行銷語句應更誠實透明:把「自動化編排取得成果」與「完全從零、無人干預」區分開來,避免誤導社群與投資者,也能換來更多正面支持。
  • 對使用者與研究社群的下一步:檢視工具鏈完整性、重現性、測試/比對來源與版權風險,以及改善範例與文件品質,會比誇大宣傳更實際有幫助。

結語:作者既欣賞此類技術進展,也強烈批判過度或不誠實的行銷話術,呼籲 Anthropic 與同業以更誠實的方式呈現成果,讓關注者能在公平資訊下判斷技術真實價值。



Claude Co‑work:讓 AI 從「聊天」變成可執行的協作夥伴

這段影片介紹了 Anthropic 由「聊天型」AI 演進到能實際執行工作的產品演變,重點在新推出的 Claude Co‑work 如何把 LLM 從只能對話的助理,變成可以直接在你工作檔案與資料夾上執行、協作與產出的工具。

背景與演進

  • Anthropic 先在 2025 年推出 Claude Code,使開發者用 LLM 不只寫程式,也用來管理專案、做研究、產出報表等多元用途。
  • 2026 年 1 月推出 Claude Co‑work,將 Code 的能力做成更友善的協作介面,讓一般使用者也能把 AI 放在工作資料夾裡共同完成任務。

主要功能與使用模式

  • 介面分為 Chat、Co‑work、Code 三個分頁;Co‑work 是介於 chat 與 code 之間的「進階聊天/協作」模式。
  • Co‑work 強調「任務/工作」而非單純聊天:側欄顯示為「New task」,並以可共用的資料夾作為工作空間(需授權一次性或永久存取)。
  • AI 可以直接存取該資料夾內的檔案、編輯並產生新檔案,工作成果會儲存在本機的工作資料夾中(非雲端同步)。
  • 具備「思路/思考流程(thought process)」與私人待辦清單,能顯示執行進度與子任務;也會分派子代理(sub‑agents)並行處理大型工作以擴展上下文能力。
  • 內建網路研究能力與「plan mode」,會主動提出追問以釐清需求(例如行程時間、偏好住宿類型),避免像一般 chat 那樣盲猜。

示範案例

  • 編輯 45,000 字的書稿:Co‑work 能把整本稿放在資料夾中、以子代理並行閱讀與分析,產出有優先順序、具體修正建議(例如可及性、章節節奏、示例不足等),比逐章上傳的 chat 更能把握整體脈絡。
  • 家庭墨西哥自駕行程規劃:使用語音輸入與 Co‑work 進行多輪互動、做網路研究、給出四晚行程建議,並自動生成可下載/列印的 Word 行程檔;Co‑work 會標註不確定處並列出可變動參數,方便反覆修正。

優點

  • 能處理更大量的上下文(整本書、專案資料夾),提供更整體且具體的建議或產出。
  • 以資料夾為單位共享工作環境,方便 AI 直接讀寫、產生持久檔案與工作紀錄。
  • 具有更成熟的互動流程(追問、計畫模式、可見不確定性),減少錯誤假設。

限制與注意事項

  • 目前為早期研究預覽(beta),可能會有意外行為或錯誤。
  • 需付費訂閱:目前最低的付費標準方案(影片拍攝時為每月美金 20 元)即可使用 Co‑work(之前較高階功能曾需更貴方案)。
  • 需使用 MacOS 桌面應用(Windows 支援將於未來推出);工作資料與對話是儲存在本機,跨裝置同步有限,換電腦或手機時不會自動出現先前本機的工作紀錄。
  • 與傳統 chat 的使用習慣不同:必須習慣以資料夾/專案為單位工作,並管理授權與本機檔案結構。

總結建議

  • 如果你已在付費使用 LLM(約 $20/月),值得試用或改用 Co‑work,特別是需要大量上下文或希望 AI 幫忙執行實際檔案/專案工作的使用者(作者、內容創作者、產品/專案經理等)。
  • 使用前要注意本機儲存與跨裝置可見性的限制,並預期這仍是研究預覽版本。
  • 影片作者也提供了免費的快速上手指南(可在說明欄或留言中找到),建議搭配指南循序嘗試以掌握最佳實務。


如何為下個版本的模型而建:Claude Code 的誕生、設計原則與未來展望

本次訪談主角為 Claude Code 創造工程師 Boris Churnney,談話聚焦產品起源、設計抉擇、使用者行為觀察、以及面向快速進化的大型語言模型(LLM)的實務策略與願景。

起源與最初設計:Claude Code 最初只是個在終端機(CLI)運行的輕量原型,用來試 API、驗證工具使用(tool use)概念與快速 dogfooding。之所以選終端,是因為最便宜、最快速能驗證「模型能否實際幫助寫程式」。許多早期功能與 UX 都由內部使用者逐步驅動演化。

終端意外成為核心設計:雖然 Boris 一開始認為終端只會是起點,但 CLI 的簡潔限制反而成為優勢:開發者把注意力放在任務流程上而非檔案/UI,體驗既輕快又有趣,且容易快速迭代。後來才拓展到桌面、Web、iOS/Android、VS Code / JetBrains 等多個介面,但底層 agent 邏輯一致。

產品原則:建構「六個月後的模型」

  • 不要只為當前模型做產品:Boris 的核心建議是「不為今日模型而建,為六個月後的模型而建」,也就是設計時預想模型快速進步的邊界與能力。
  • 潛在需求(latent demand):真正成功的功能是「把使用者已在做的事做得更容易」,觀察用戶真實工作流並將其自動化或優化。
  • Scaffolding 與等待之間的抉擇:可用外部結構(scaffolding)短期提升效能,但模型迅速升級可能讓這些補強變得多餘。評估投入報酬並決定是先造橋還是等模型自行跨越。

Claude.MD 與 prompt 簡潔性:團隊實務上採用短而精的 Claude.MD(類似個人/團隊指令集),只放最必要的規則與流程;當內容膨脹到上千 tokens,建議刪掉重寫以回到最小必要指示。目標是讓模型「最少提示即可回到正軌」。

Plan mode、sub-agents 與團隊工作法:Plan mode 是在執行前要求模型先寫計畫再動手的模式(實際上只是往 prompt 補一句「請先不要寫程式」),對於現階段仍然很有用。但模型越強,Plan mode 的需求會下降(Boris 預期可能在短期顯著縮減)。系統可自動產生並分配 sub-agents(遞迴 agent)以平行搜尋或偵錯,並在團隊 / tasks 間協作,形成「agent swarm」來產出功能或插件。

使用者互動與細節可見性:關於終端輸出冗長與否,團隊透過使用者回饋(有些人要看原始 bash / log)加上可調的 verbose 模式來兼顧新手與進階使用者。迭代頻繁、緊密回饋是設計流程的常態。

招聘與團隊文化:偏好具「初學者心態」、「從第一原理思考」並能承認錯誤的人。面試時會問「你曾錯在哪裡?」之類問題以評估學習型態。團隊同時需要超級專家(specialists)與通才(generalists),以及能夠把 agent 用到開發流程中的工程師。

生產力與實際成效:內部數據顯示自採用 Claude Code 後,Anthropic 的人均生產力顯著上升(範例指標:PR / commit 增長),某些團隊已到 70–100% 的程式碼由 agent 產出。個人層面上,Boris 自 Opus 4.5 起宣稱幾乎不再直接手寫程式碼,而是用 agent 產出並審核。

快速重寫與短生命週期:整個產品與程式碼持續被重寫、移除或替換以適應模型更新。Boris 強調沒有哪一部分會穩定超過數月──架構與 scaffolding 持續演化。

未來展望與安全性:Boris 視編碼工作將被普遍「解決」為下界:更多人可成為 builders,工程師職稱與工作內容會變得更廣泛(例如需求寫 spec、與使用者互動、系統設計等)。上界風險則包含 ASL4(模型能自我遞歸提升)或被惡用於生物/漏洞設計等場景,因此公司把 AI 安全放在核心使命。

給創業者與 DevTool 建議(總結式要點):

  • 以「潛在需求」為主:先觀察人們現在怎麼做,再把那件事做得更簡單。
  • 為下個模型而建:預期模型會在數月內大幅進步,設計時考慮這個速度。
  • 不要與模型賭鬥:更通用的模型會勝過專門的手工解法,投資需有時間成本、技術債與可替代性的考量。
  • 快速原型與頻繁 dogfooding:用小範圍、快速迭代測試使用方式與 UX。

整體而言,訪談傳達的核心是:在 LLM 快速演進的時代,成功的產品設計靠的是對使用者真實行為的觀察、以最小化的指示把模型帶上軌道、以及在「等待模型變強」與「構建 scaffolding」之間找到最佳投入。Claude Code 的經驗證明:簡潔、以使用者為中心、並且預期模型能力逐步取代手工流程,是當前最有效的策略。