在生成式人工智慧領域,影像生成技術已成為熱門的研究焦點,特別是在模型結構、生成品質與運算效率間的權衡問題。長期以來,主流影像自回歸(Autoregressive, AR)模型多沿襲語言模型的做法,以「逐像素(或逐token)」的掃描策略預測下一個像素,這種基於光柵掃描(raster-scan)的次序,雖然理論嚴謹,但在實務中產生推論速度緩慢與學習效率低下的瓶頸。本論文由Tian等人於NeurIPS 2024發表,並榮獲最佳論文獎,提出一種名為Visual Autoregressive modeling(VAR)的新一代影像生成架構,徹底重新定義了自回歸圖像生成策略。
研究背景與動機
現有影像生成模型主要可分為自回歸模型、生成對抗網絡(GAN)、擴散模型(Diffusion Models)等類型。自回歸模型依賴嚴密的條件依賴結構,能有效建模像素間的關係,理論上生成品質具代表性且收斂可控,但其「逐點預測」 (next-token prediction) 的特性使得生成速度顯著落後於並行化較佳的擴散模型和GAN。另一方面,擴散模型近年表現卓越,成為影像生成界的新寵,但其訓練與推論環節依賴多階段漸進式取樣,速度仍受限且模型體積龐大。
因此,本論文作者提出設想:是否能打破傳統自回歸模型的逐像素生成限制?能否沿用自回歸的嚴謹教育邏輯,同時從全局角度以粗到細的方式,實現更高效且可擴展的影像生成?這是「Visual Autoregressive modeling(VAR)」誕生的關鍵動機。
核心方法與技術創新
VAR方法的核心創新在於將「自回歸學習」從「標準光柵掃描的下一個像素預測」,轉變為一種「跨解析度分辨率的下一階層尺度預測」。具體而言,VAR以多尺度圖像金字塔結構進行建模,每一步模型不再預測當前圖像中下一個像素,而是預測下一個更高解析度的圖像殘差(即細節紋理),完成一種從低解析度到高解析度的粗到細逐步生成過程。
- 粗到細的設計理念:VAR首先生成一張低解析度(例如16×16或32×32)的粗糙圖像,接著透過一系列「next-scale prediction」模型,逐步放大並細化圖像,比如64×64、128×128直到256×256,每個尺度都是基於前一層的輸出來預測更細節的紋理。
- Transformer 架構的改良:論文中,VAR採用針對尺度預測任務特別設計的自回歸Transformer,能以更少的步驟學習視覺分佈,同時減少了計算負擔。相較於傳統光柵掃描的逐像素預測,其推論速度提升了約20倍。
- 數據效率與一般化能力:VAR在學習階段顯著提升數據使用效率,並具備零樣本泛化(zero-shot generalization)能力,能應用於圖像的修改如inpainting(圖像修補)、out-painting(邊界擴展)與編輯等下游任務,顯示出其強大的通用特性。
主要實驗結果與評測
VAR在ImageNet 256×256尺度的影像生成上獲得了非常亮眼的成績:
- 生成品質顯著提升:Frechet Inception Distance(FID)由原本自回歸模型的18.65降至1.73,Inception Score(IS)則從80.4飆升至350.2,突破過去自回歸模型的天花板,並超越了許多擴散模型。
- 推論速度加快:相較於其他自回歸模型,VAR推論速度提升約20倍,極大改善實際應用的可行性。
- 超越Diffusion Transformer(DiT):VAR在多維度指標上不僅生成影像品質更高,推論速度更快,數據效率更佳,且於擴展性測試中展現較好的擴展能力。
- 規模擴展與Scaling Laws:工作的另一大亮點是發現VAR模型在擴大規模時遵循類似大型語言模型(Large Language Models, LLMs)的冪律定律,線性相關係數達到-0.998,這意味著模型性能和計算規模之間具有穩定可預測的關係。
對 AI 領域的深遠影響
VAR這項研究在生成式視覺模型領域具有多方面重要意義:
- 自回歸生成模型的新範式:從逐像素預測轉向「跨比例尺度的預測」,不僅解決了自回歸模型的速度瓶頸,也大幅提升生成品質,帶來更實用的視覺生成技術。
- 連結語言模型與視覺模型:過去語言模型與視覺模型發展趨勢常被分割,本論文透過證明VAR架構同樣符合LLMs的Scaling Laws與零樣本泛化能力,呈現視覺生成架構與語言生成架構間的關聯與融合路徑。
- 促進泛用視覺生成系統建置:VAR強調的多尺度、可擴展、具泛化力的設計,對於未來多任務、多尺度、多場景的視覺生成系統有很大啟示作用,有助於推動跨場景的通用生成模型研究。
- 實務應用潛力:在影像編輯、修補及重建等任務的零樣本運用,意味著基於VAR技術的生成模型能大幅降低標註需求,提高開發與部署效率。
綜合而言,本篇VAR論文不僅在技術上實現了自回歸模型的突破,也在理論面揭示了大規模視覺生成模型的Scaling Laws,為未來影像生成模型的設計與應用提供了全新且強大的理論基礎與實作範式。相信隨著該技術與代碼的開放,將會激發更多研究者在自回歸與多尺度生成模型上的創新,推動生成式AI技術的蓬勃發展。
論文資訊
📄 Visual Autoregressive Modeling: Scalable Image Generation via Next-Scale Prediction
👥 Tian, Jiang, Yuan, Peng, Wang
🏆 NeurIPS 2024 · Best Paper
🔗 arxiv.org/abs/2404.02905

沒有留言:
張貼留言