2026年1月4日 星期日

線性代數、變換基底與影像/視訊壓縮應用總結

這段講座把變換基底(change of basis)的線性代數觀念,與實際的影像/視訊壓縮應用連結起來,重點如下:

  • 影像為高維向量:一張灰階影像可視為向量 x ∈ R^n(例如 512×512 的影像 n = 512^2;彩色影像則為三倍長度)。以像素為標準基底表示時,鄰近像素值高度相關,標準基底在壓縮上通常不是好的選擇。
  • 變換基底與壓縮流程:
    1. 把影像分成小區塊(JPEG 常用 8×8 區塊),每個區塊在原基底有 64 個像素值。
    2. 對每個區塊做基底變換(例如傅立葉基或小波基),得到係數向量 c(這一步是無失真、可逆的:x = W c,c = W⁻¹ x)。
    3. 做壓縮(有失真):把小的係數捨棄或做量化(thresholding / quantization),只保留重要的幾個係數,然後用這些係數重建近似影像。這樣可以大幅降低資料量。
  • 常見基底與選擇條件:
    • 傳統 JPEG 用的近似是基於傅立葉(頻域)思想;JPEG2000 與較新方法採用小波(wavelets)。
    • 好的基底應符合兩個關鍵條件:一是能快速做正變換與逆變換(例如 FFT 或快速小波變換);二是對常見訊號能產生稀疏表示(只需少數係數即可近似原訊號),以利高壓縮率且視覺影響低。
  • 小波基底示意:講者以一維 8 維的小波基為例:包含常數向量(全 1)、半段 1/-1、四分之一 1/-1、以及局部 1/-1 等向量,這些向量多為 ±1 與 0,並可做成正交(或正交化)基底,使變換與逆變換都很快(若為正交且單位長,逆矩陣即為轉置)。小波能比傅立葉更好地表現局部突變與多解析度結構。
  • 視訊的時間相關性:影像序列相鄰幀高度相關(物體位置小幅移動),因此視訊壓縮還會利用時間預測(prediction + residual):只編碼預測誤差,再對誤差做壓縮,能比逐幀獨立壓縮效果更好。
  • 實務例子:FBI 的指紋庫從紙本到數位後仍需壓縮以便快速檢索,實際上會選擇合適基底並做索引;講者亦提到影片壓縮造成畫面「卡頓(jumpy)」正是因為訊號被壓縮處理。
  • 變換與矩陣表示的數學連結:
    • 若 W 的欄向量是新基底向量,基底變換的關係為 x = W c(舊坐標 x,基底係數 c),因此 c = W⁻¹ x。
    • 對一個線性變換 T,在不同基底下的矩陣表示會不同,但兩者是相似(similar)矩陣:若 M 為變換基底的矩陣,則兩個矩陣 A 與 B 滿足 A = M B M⁻¹(或等價地 B = M⁻¹ A M)。也就是基底改變會以 M 與 M⁻¹ 在兩側夾進去,M 即是欄為新基底在舊基底坐標的矩陣。
    • 建構矩陣的實務方法:給定基底 v1,…,vn,矩陣 A 的第 j 欄就是 T(v_j) 在同一基底下的坐標;若所選基底為特徵向量(eigenvectors),則矩陣會是對角化的(最佳情況),但求特徵向量通常成本太高。

總結:影像/視訊壓縮本質上是「變換基底 + 在新基底下稀疏化 + 捨棄小係數」的工程;選擇基底要考量計算速度(能否快速做正逆變換)與表示稀疏性(少量係數能重構訊號)。線性代數提供描述變換、基底與矩陣之間關係的嚴謹語言(包括相似矩陣、基底變換矩陣的角色),而傅立葉與小波是實務上常見且成功的基底設計。



論文總結:根據骨骼肌質量重新定義心臟衰竭分型

ref: Suthahar, N. Redefining heart failure subtypes according to skeletal muscle mass. Nat Rev Cardiol (2025). https://doi.org/10.1038/s41569-025-01237-9 


論文總結:根據骨骼肌質量重新定義心臟衰竭分型

作者: Navin Suthahar

來源: Nature Reviews Cardiology (2025)

本文提出了一種以預後為導向的新型分型框架,旨在解決心臟衰竭(HF)研究中長期存在的「肥胖悖論」誤區。

1. 破解「肥胖悖論」 (Obesity-Mortality Paradox)

  • 悖論成因: 傳統研究過度依賴 BMI 作為衡量肥胖的唯一指標,但 BMI 無法區分脂肪組織與骨骼肌質量。
  • 肌肉的關鍵角色: 高 BMI 患者展現出的存活優勢,本質上是因為保留了較高的肌肉質量(或無肌肉萎縮),而非脂肪本身的保護作用。
  • 低 BMI 的真相: 低 BMI 患者的高死亡率主要源於骨骼肌流失(肌肉萎縮)。

2. 提議的心臟衰竭新亞型

作者建議根據骨骼肌質量將心臟衰竭重新分類為以下兩類:

  • HF-PM 心臟衰竭伴隨保留肌肉質量 (Heart Failure with Preserved Muscle mass)。
  • HF-RM 心臟衰竭伴隨減少肌肉質量 (Heart Failure with Reduced Muscle mass)。

3. 臨床測量與實作

為了推動此分型的普及,需要可靠且實用的測量工具:

  • 生物電阻抗矢量分析 (BIVA): 是一種理想的臨床工具,具有非侵入性、無需專門培訓、測量速度快(少於 10 分鐘)且設備成本適中的優點。
  • 水分區分: BIVA 能在心臟衰竭患者常見的水腫情況下,有效地區分肌肉、脂肪與體液。

4. 不同患者類型的預後對比

下表顯示了肌肉質量、BMI 與死亡風險之間的關係:

類別 BMI 狀況 肌肉質量 HF 分型 死亡風險
患者 1 極低 嚴重減少 HFrEF 極高
患者 2 中偏高 保留 HFrEF 中偏高
患者 3 保留至高 HFpEF 中等
患者 4 極高 保留 HFpEF 中偏高

結論: 採用 HF-RM 或 HF-PM 框架是拋棄誤導性「肥胖悖論」概念、優化心臟衰竭風險評估與未來治療研究的重要一步。



2026年1月3日 星期六

用 PACER 系统:把「閱讀」變成可用的長期記憶

這段影片介紹一套作者七年實作的學習系統,重點是把「閱讀/吸收」(consumption) 與「消化/編碼」(digestion) 兩個階段分清楚並平衡執行。只靠大量快速閱讀不等於學會;真正關鍵是把該留下的資訊存進大腦並能實際運用。

作者以記憶驚人的 Kim Peek 為例說明:能背出一切不代表能推理或解題。目標不是記住所有資訊,而是記住「你需要且能用到」的資訊。

系統核心是用「PACER」分類你所讀的內容,並對每類資訊採取對應的消化策略:

  • P — Procedural(程序/操作)
    定義:教你怎麼做的步驟或技巧(例:臨床操作、程式碼、語言技巧)。
    目標策略:立即練習(practice)。越早在真實情境應用,學得越牢。若當下不能練習,就暫停消耗,等有時間再學,否則只是浪費時間。
  • A — Analogous(類比)
    定義:能連結你已有知識或經驗的資訊(例:把肌肉收縮比喻為游泳動作)。
    目標策略:建立並批判性檢視類比(critique):問哪些地方相同、不同、何時失效,或如何改良類比。這能迅速把新知融入既有網路,提升理解與記憶。
  • C — Conceptual(概念)
    定義:理論、原理、概念間關係等「是什麼」。大多數科學知識屬於此類。
    目標策略:繪製概念圖或非線性網路式筆記(mapping)。把知識以節點與連結重建成網路,幫助你像專家一樣從任一點連到其他點,強化結構化理解。
  • E — Evidence(證據)
    定義:讓概念更具體的事實、數據、案例(例:特定歷史事件的時間、地點)。
    目標策略:先「存檔」(store)— 把資料記錄在你系統(筆記/第二大腦/卡片)裡;再安排「複習/實作」(rehearse)— 用這些證據來寫答案、解題、教別人或當例證,稍後統一練習即可。
  • R — Reference(參考)
    定義:非常具體但對概念沒太大改變的細節(例:常數值、特定基因名)。
    目標策略:同樣「存檔+複習」,若需要能直接回憶,建議用間隔重複的抽認卡(SRS)如 Anki。

重要原則與實務提醒:

  • 消耗(reading)與消化(processing)必須平衡。大量只消耗不消化會造成高度遺忘(研究顯示可能遺忘高達 90%)。
  • 不要在閱讀階段試圖把所有細節死記;先把 PA C(三個最重要類型:程序、類比、概念)打好基礎,E 與 R(證據與參考)可在之後存檔並定期複習。
  • 若無法即時做該類型應有的消化(例如無法練習程序、或無法畫概念圖),就應放慢閱讀速度或暫停,避免耗費時間在無效的重複閱讀上。
  • 建立一套筆記/第二大腦與抽認卡系統,讓「存」與「複習」機制可持續運作。

總結:用 PACER 分類你讀到的每個資訊,並對應正確的消化方法,能把有限的學習時間轉化為可用的長期知識。作者也提到有免費週報整理更多學習策略,供想進一步系統化學習的人參考。



2026年AI發展的八大關鍵趨勢總覽

這段訪談由兩位專家預測2026年最可能成形的八個AI趨勢,重點在於從單一強大模型走向多樣化、可驗證且與現實世界緊密結合的AI生態。

  1. 多代理編排(Multi‑agent orchestration)

    不再只有單一通用代理,而是由規劃者、專業工作者、批判者等多個代理分工協作,並由一層協調者(orchestrator)統籌,藉由互相檢查與任務分解提升可靠性與可驗證性。

  2. 數位勞動力(Digital labor workforce)

    自動化的數位工作者能理解多模態輸入、解析任務並執行工作流程,與人類監督(human‑in‑the‑loop)結合以進行監督、修正與政策式指引,用來擴展人類工作能力並整合下游系統或API。

  3. 物理AI(Physical AI / world foundation models)

    從純數位輸出(文字、影像)走向理解與操作真實三維世界的模型:在模擬中學習物理行為、感知與動作,並加速機器人(含人形機器人)從研究到商業化的落地應用。

  4. 社會運算(Social computing)

    人類與多個代理透過「共享AI織體」交換情境、意圖與事件,建立協同、同理的互動網絡,形成集合智慧或「真實世界的群體運算」。

  5. 可驗證AI(Verifiable AI)

    受EU AI Act等法規推動,特別是高風險系統需具備可稽核、可追蹤的特性:完整文件、使用者透明告知、訓練資料來源與合規證明等。法規影響可能跨區域擴散,如同GDPR在隱私上的全球效應。

  6. 量子實用化(Quantum utility)

    量子與經典計算的混合(hybrid)開始在優化、模擬與決策等領域提供實際優勢,逐步被編織進日常業務與工作流程,成為可商用的混合運算資源。

  7. 邊緣推理(Reasoning at the edge)

    將大型模型的推理能力「蒸餾」到小型模型,使得具備數億參數的模型也能離線、在終端(手機、筆電)上進行逐步推理(chain‑of‑thought 類能力),提升隱私、低延遲與實時性應用的可行性。

  8. 變形混合運算(Amorphous hybrid computing)

    模型架構與基礎設施朝混合、流動化方向演進:新型態模型(如state‑space 與 transformer 的混合)與異質運算資源(CPU、GPU、TPU、QPU、神經形態晶片)自動對應最適運算底層,以追求最高效能與能效;未來還可能加入DNA運算等更異質的計算形式。

總結:2026年的AI趨勢呈現多代理與數位勞動力上台、AI與現實物理世界更深度整合、法規與可驗證性成為標準,以及運算與模型架構朝雜合化、邊緣化與量子混合方向發展。你認為還有什麼重要趨勢會被忽略?



2026年1月2日 星期五

史蒂芬·沃爾夫勒姆:從粒子物理到「運算思維」與 AI 世代的來臨

這段訪談由史蒂芬·沃爾夫勒姆(Stephen Wolfram)主講,回顧他的科學生涯並說明他對 AI、運算思維(computational thinking)與未來社會的觀點。主要重點如下:

  • 個人背景與早期啟蒙:沃爾夫勒姆自少年時期投身粒子物理,早年即接觸大型電子計算機(1970s),多年來致力於用計算工具解決科學問題與整理知識(創立 Wolfram Research、開發 Mathematica 與 Wolfram|Alpha)。
  • AI 的歷史與突破:他指出「神經網路」的概念早在 1943 年就已提出,但直到近年隨著運算能力與資料規模爆發,才出現關鍵性突破(例如影像辨識在 2011/2012 年的躍進,以及 ChatGPT 在 2022 年引發的語言模型熱潮)。許多技術其實是老觀念加上足夠計算力與資料後成功的例子。
  • 神經網路與大語言模型運作原理(簡述):模型以大量文本「預測下一個字/詞」為訓練目標;內部由大量參數(weights)組成,經過反覆調整以提高預測能力。雖然起初只是統計式的下一詞預測,但訓練後可展現出類似人類的語言與推論能力——這種「類人式外顯」是個出乎意料的現象。
  • 運算思維與 Wolfram Language 的定位:沃爾夫勒姆強調人類歷史上建立的形式化工具(邏輯、數學)如何推動科學,而如今「把事物以可運算、結構化的方式表示」是 21 世紀的新範式。他致力於建立一套通用的運算語言(Wolfram Language),把世界的知識與程序化描述連結,讓電腦能「精確計算」而非僅生成語言上的表述。
  • AI 與運算系統的互補:他認為大語言模型可作為自然語言介面,而精確的運算語言與知識庫(例如 Wolfram 系統)可作為工具,二者結合能把語言輸入轉為可驗證與可計算的答案,實務應用上相當互補。
  • 計算普遍性、不可縮減性與意識問題:沃爾夫勒姆提出「計算等價性原則」,認為自然界、腦、人工系統在達到某等級後會表現出相似的計算複雜度;因此許多系統具有「計算不可縮減性」(computational irreducibility),即要知道系統結果往往必須模擬運算過程,無法簡單預先推斷。對於 AI 是否具備意識或代理性,他主張兩者之間的差距比以往想像的要小——若系統達到相當計算層級,人們會逐漸把它們視作「有心智」的系統,但這和我們對其他自然現象的理解一樣,屬於運算層面的現象。
  • 對工作、經濟與風險的看法:AI 是自動化的一步,會取代重複性與可標準化的工作,但歷史上自動化也創造了新的工作與機會。重點在於人類要學會選擇「要計算、要追求什麼」——運算工具讓無限可能變得可達,但我們必須決定方向。他也警告:若為了可預測性強行限制 AI,會犧牲其能力,使其太「笨」。同時承認技術會被濫用或造成新的問題,但整體上他持樂觀態度。
  • 實務建議(結語):他建議所有人學習「運算思維」,把問題以可計算的方式表達,這將是 21 世紀的重要能力;並推薦 Wolfram Language 與其著作(如 A New Kind of Science 與《Elementary Introduction to Wolfram Language》)作為入門資源。

總結:沃爾夫勒姆把 AI 視為人類將世界更多部分「運算化」的延續,強調結合語言模型介面與精確的運算語言,能把模糊的語言輸入轉為可計算、可驗證的結果。同時以計算普遍性與不可縮減性的觀點提醒我們:新技術既帶來強大能力,也改變可預測與控制的界限,學習運算思維是面對未來最直接且具備長期價值的準備。



2025年12月16日 星期二

雷·達里奧談世界變局:原則、五大力量與個人抉擇

節目概述:在牛津聯誼會的對談中,雷·達里奧回顧自己從投資、歷史研究到治理思考的經驗,提出理解現實、建立可行原則、以及面對世界快速變局的框架。他把當前局勢歸納為五大交互作用的力量,並同時給予年輕人、政策制定者與投資人實務與價值上的建議。

給年輕人的人生建議: - 理解現實運作的機制,並為此建立可複製的原則。 - 以「痛苦+反思=進步」的心態看待挫折,從失敗中學習並修正行為。 - 認識自己的天性(大方向思考者或偏細節、風險承受度不同),透過實驗找到適合自己的道路。 - 保持開放與好奇,學會處理「你不知道的事」比憑直覺自信更重要;把「思想性分歧」當作學習機會而非敵對。

影響世界秩序的五大力量:達里奧指出歷史上國家興衰反覆出現相同模式,當前世界由下列五力交互塑造: 1. 貨幣、信用與債務(債務上升到一定程度會擠壓支出與經濟活動); 2. 財富差距與價值分裂(內部分裂導致左派/右派的極化和民主脆弱); 3. 世界秩序變遷(強權競逐與國際體制的演變); 4. 天然因素(如疫情、旱澇等對社會與國家影響深遠); 5. 人類創新與技術(新技術既催生繁榮也加劇不平等)。

關於債務與貨幣體系:他強調帝國衰落常由「沒錢」而非立刻軍力不足引發。當債務相對收入膨脹,債務利息會壓縮其他支出,並引發對儲藏價值(store of value)的信心問題。面對高額債務(他提到美國約 38 兆美元),政府可選擇增稅、減支或繼續借債──但三者都極具政治困難。他建議建立跨黨派機制、鞏固中產階級、改善教育與提升生產力,並考慮針對未實現資本利得等稅制設計以緩解結構性赤字。

美元與去美元化趨勢:達里奧認為所有法定貨幣(fiat)面臨價值被稀釋的風險,因貨幣本質與債務緊密相連。在這種情況下,黃金等傳統價值儲藏品再次獲得重視。雖然美元仍居主導地位,但全球貿易、清算系統與儲備貨幣格局正在演變,去美元化與多元清算渠道正在出現。

美中關係與中國觀察:達里奧以「回歸的強權」來描述中國,強調理解中國的歷史語境(朝貢體系、儒家思想、百年屈辱等)與「以和為貴/秩序」的治理邏輯。他預期中美間的競爭會以貿易、科技、金融等「非傳統」戰場為主,雙方趨向追求自給自足與減少對彼此脆弱性的依賴,但短期內全面軍事衝突並非必然。

技術與人工智慧的衝擊:達里奧稱科技是塑造未來最強的力量,AI 與生技等會加速變化,帶來龐大的生產力進步同時也放大財富不均與金融泡沫風險。他建議把人類聰明才智與 AI 結合:將決策準則寫下、程式化、並回測(像他把原則寫成程式來做決策系統),形成人與 AI 的協作體系。

社會與政治分裂的治理要點:真正的國家競爭力來自於:良好教育(含公民素養)、收支與資產負債的穩健(賺比花多)、以及避免內部或外部戰爭。達里奧特別強調需要強健的「中間派/中間層」來推動困難但必要的結構改革,否則極化會使改革無法進行。

實務與價值結語:面對不確定性,個人要養成好奇心與反思習慣,理解「情緒(下意識)與理性(意識)」的區別,並嘗試透過靜坐/冥想來協調兩者。他鼓勵把經驗歸納為可執行原則,並以系統化方式(包含運算化)檢驗與改進,從而在快速變動的時代保持學習與成長。

要點摘記:Bridgewater 發展背景(創辦於 1975、管理資產規模)、痛苦+反思=進步、五大力量框架、債務與貨幣體系脆弱性、技術加速與不平等、理解中國的歷史與治理邏輯、強化教育與中產的重要性。



2025年12月13日 星期六

論文導讀:Nested Learning - 深度學習架構的幻象

 論文導讀:Nested Learning (巢狀學習) —— 深度學習架構的幻象

來源論文:Nested Learning: The Illusion of Deep Learning Architecture [cite: 1, 2]
作者:Ali Behrouz, Meisam Razaviyayn, Peilin Zhong, Vahab Mirrokni (Google Research) [cite: 2, 3]

在過去的幾十年中,機器學習的研究核心一直集中在開發更強大的神經架構和優化算法 [cite: 5]。然而,儘管大型語言模型(LLMs)取得了巨大進展,它們在持續學習(Continual Learning)和自我改進方面仍面臨根本性的挑戰 [cite: 6]。目前的模型大多是靜態的,無法在部署後有效地獲取新能力 [cite: 23, 59]。

這篇由 Google Research 提出的論文引入了一個新的學習範式——巢狀學習(Nested Learning, NL),試圖打破我們對「架構」與「優化器」的傳統認知 [cite: 7]。

1. 什麼是巢狀學習 (Nested Learning)?

NL 將機器學習模型視為一組「巢狀的、多層次的優化問題」系統 [cite: 7]。在這個系統中,每個組件(無論是架構中的層還是優化算法)都有自己的「上下文流(context flow)」和更新頻率 [cite: 7]。

這個概念受到神經科學的強烈啟發。人類大腦並不依賴單一的中央時鐘來同步所有神經元,而是利用不同頻率的腦波(如 Gamma 波、Beta 波、Theta 波)在多個時間尺度上處理資訊 [cite: 38, 39, 40]。NL 認為,模型中的參數也應該根據不同的頻率進行更新 [cite: 40]。

「我們不能用創造問題時的思維來解決問題。」—— 愛因斯坦 [cite: 15, 16]

2. 重構核心概念:優化器即記憶

這篇論文最引人入勝的觀點之一,是對現有工具的重新定義:

  • 優化器是聯想記憶: 論文證明了常見的梯度優化器(如 Adam, SGD with Momentum)實際上是「聯想記憶模組(Associative Memory Modules)」,它們的目標是透過梯度下降來壓縮梯度的資訊 [cite: 10]。例如,理論上 Adam 是針對元素級 $L_2$ 回歸目標的最佳聯想記憶 [cite: 137, 520]。
  • 反向傳播是自我指涉: 訓練神經網絡的反向傳播過程被視為一種自我指涉(Self-Referential)的過程,模型透過生成自己的誤差訊號來控制學習 [cite: 490]。
  • 預訓練即上下文學習: 「預訓練」本身就是一種上下文學習(In-Context Learning),只不過它的上下文非常巨大(整個預訓練數據集),且位於最低頻率的更新層級 [cite: 8, 134]。

3. 解決方案:HOPE 架構

基於上述理論,作者提出了名為 HOPE 的持續學習模組 [cite: 14],結合了兩個關鍵創新:

(1) 自我修正的 Titans (Self-Modifying Titans)

這是一個能夠學習「如何修改自己」的序列模型 [cite: 12]。與傳統靜態模型不同,它能夠生成自己的學習率和權重衰減參數,從而根據當前的上下文動態調整學習過程 [cite: 12, 1029]。

(2) 連續記憶系統 (Continuum Memory System, CMS)

CMS 重新定義了傳統的「長短期記憶」觀點 [cite: 13, 152]。它將架構分解為一系列具有不同更新頻率的 MLP 區塊(從高頻到低頻)[cite: 857]。這種設計創造了一個記憶迴路,使得被遺忘的知識可以在不同層級間循環,從而有效抵抗災難性遺忘 [cite: 154, 890]。

4. 實驗成果

HOPE 架構在多項測試中展現了超越現有基線的性能:

  • 持續學習: 在 CLINC、Banking 和 DBpedia 等類別增量學習任務中,HOPE 的表現優於 Elastic Weight Consolidation (EWC) 和其他持續學習方法 [cite: 1208, 1119]。
  • 長文本理解: 在「大海撈針(Needle-In-A-Haystack)」測試中,HOPE 在單針、多針及多重查詢設置下,均優於 Transformer、RWKV-7 和 Titans 等模型 [cite: 1290, 1224]。
  • 新語言學習: 在持續翻譯新語言的任務中,HOPE 展示了透過多層記憶設計來適應新任務的能力,顯著減少了災難性遺忘 [cite: 156, 1279]。
  • 優化器效率: 論文還提出了基於 NL 理論的 M3 優化器 (Multi-scale Momentum Muon),在 ImageNet 和語言模型訓練中展現了比 AdamW 更佳的收斂效果 [cite: 155, 1406]。

總結

Nested Learning 提出了一個激進的觀點:我們不需要堆疊更多靜態的層,而是需要引入「層級(Levels)」作為新的設計維度 [cite: 9]。未來的模型不應區分「訓練」與「測試」階段,而應是一個在不同時間尺度上持續壓縮數據、自我修正的動態系統 [cite: 148, 828]。