本影片分享如何利用最新AI技術「Auto Research」來提升Claude Code技能的準確性和自我改進能力。影片一開始說明目前Cloud Code技能執行約70%準確,作者透過引用OpenAI前成員暨Tesla AI負責人Andrej Karpathy最近發布的Auto Research GitHub專案,示範如何讓多個智能代理協作,循環優化技能自身的輸出與提示詞(prompt)策略。
重點包括Auto Research的三大關鍵組成:可量化的客觀指標(objective metric)、自動化評估工具(automated evaluation)、以及持續可變更的技能內容(如提示詞)。作者以提升圖表生成技能(diagram generator)為例,定義了四項明確的評估標準:文字清晰且文法正確、符合柔和粉彩的配色方案、圖表線性排列,以及避免使用數字排序。這些簡單的「是/否」題組成評測集,讓AI模型能自動生成、評估,再根據結果優化提示詞,不斷提升輸出品質。
影片展示Auto Research的實作流程:先讓代理閱讀該GitHub倉庫,再將預設技能和評估標準餵入,透過每兩分鐘生成10張圖表,經過評測後調整提示。此方法不僅顯著提高成品質量(從最初的32分提升至39/40分),也節省了優化成本。作者同時提及此技術可應用於網站優化、電子郵件行銷、分割測試等多種場景,展望AI代理未來可持續跨版本改良技能。
最後,作者鼓勵大家利用他釋出的Auto Research程式碼免費無門檻試用,並推薦觀看他的完整Claude Code教學課程,學習如何從頭到尾打造並優化AI技能與代理。此影片不僅實用且啟發性強,對有志提升AI效能的使用者極具參考價值。
