skip to main
|
skip to sidebar
行有餘力 則以學文
我們選擇在這十年內登陸月球並完成其他的事,不是因為他們很簡單,而是因為他們很艱難。~~約翰·甘迺迪
emacs初心者必看
1.
Installing Emacs on Win7/Win8 for dummies
經常要幫人安裝emacs,寫給自己的備忘錄;基本上適用於 windows 系列的作業系統
2. Elpa 的其它程式庫安裝,請參考 http://www.emacswiki.org/emacs/ELPA
沒有留言:
張貼留言
首頁
訂閱:
文章 (Atom)
常用資訊速查
emacs初心者必看
emacs中bookmark plus (bookmark+)的使用
搜尋此網誌
熱門文章
30 天「CPB 飲食」實驗:雞胸+馬鈴薯+綠花椰+紅蘿蔔的極簡減脂法
影片重點概述: 實驗設計:創作者提出「CPB 飲食」(Chicken, Potato, Broccoli + carrots)為期30天的短期重置飲食。規則:只吃雞胸、馬鈴薯、綠花椰與紅蘿蔔;每餐最多可用1湯匙橄欖油;禁用含熱量飲料與人工甜味劑;可以無限制吃到飽但不計...
還原到上一次 git commit 的狀態,刪去所有新增的檔案
請先詳讀 這篇 ,以免發生憾事(XD) 很高興發現大家都有把 git 玩到爛的經驗(!!),所以解決方案才會這麼好找~~ "由於剛開始 git init 沒有把 .gitignore 寫好,所以 commit 了一堆 *.o 或者是 *.ko 類似的檔案...
Andre Karpathy:AI代理、軟體工程未來與自動化研究深度訪談
本次訪談邀請到深耕人工智慧與軟體工程多年的Andre Karpathy,討論AI代理(agents)技術的革命性進展、軟體工程與研究自動化的未來願景,以及AI在家居自動化、教育和機器人領域的應用趨勢。 AI代理顛覆軟體開發 Karpathy 表示,從2023年12月開始,他...
Data Shapley in One Training Run 深度解析:高效資料貢獻評估的新里程碑
在當前人工智慧與機器學習領域,資料的重要性不言而喻。模型的表現極大程度依賴訓練資料的質與量,然而在實務應用與學術研究中,如何公平且精確地衡量每筆資料對最終模型的貢獻,始終是一大挑戰。 Data Shapley 作為一套引理於博弈論「Shapley值」的資料價值評估框架,為此提供...
KAN: Kolmogorov-Arnold Networks — 以科爾莫哥洛夫-阿諾爾德表示定理重塑神經網路架構
在深度學習領域,多層感知器(MLP, Multi-Layer Perceptron)向來是各類神經網路架構的基石,廣泛應用於資料擬合、函數逼近、科學計算等多種任務。然而,傳統的 MLP 節點中具有固定且以線性權重加權然後通過非線性激活函數的結構,固然強大但仍有其本質侷限。202...
Generalization in Diffusion Models Arises from Geometry-Adaptive Harmonic Representations
近年來,擴散模型(Diffusion Models)因其在影像生成領域所展現的優異表現,成為深度學習與生成模型的研究熱點。尤其是基於深度神經網路(DNN)訓練的去噪過程與逆擴散機制,能生成高品質影像,顯示此類模型似乎突破了維度詛咒(curse of dimensionality...
Discrete Diffusion Modeling by Estimating the Ratios of the Data Distribution
在生成模型的領域中,擴散模型(Diffusion Models)近年來因其在圖像生成等連續數據上的卓越表現,成為熱門研究方向。然而,當擴散模型應用到離散資料領域,如自然語言處理(NLP)時,卻面臨顯著的挑戰。這主要源於目前擴散模型背後的理論基礎──分數匹配(Score Matc...
Continuous Adaptation via Meta-Learning in Nonstationary and Competitive Environments 解說
在人工智慧(AI)領域中,讓智能體能夠在非靜態且競爭激烈的環境中持續學習與適應,是邁向通用人工智慧的重要挑戰。傳統的強化學習及監督式學習方法常常假設環境是靜態且獨立的,當環境條件快速變化或有其他智慧體同時互動時,這些方法往往表現受限。2018 年於 ICLR 發表並獲頒最佳論文...
神秘的時間風暴現象:穿越時空的真實故事與科學探索
本集《Y Files》深入探討了一種被稱為「時間風暴」的超自然現象,這類事件在全球範圍內已被記錄數百年,許多文化對其有不同的稱呼。時間風暴被描述為帶有光芒的彩色迷霧,能引起時間感知扭曲、失蹤甚至物理變化的神秘現象。 故事從1977年智利山區的軍士瓦爾德茲(Armando Va...
Generative Pretraining From Pixels (iGPT) 深度介紹
近年來,自然語言處理(NLP)領域中以轉換器(Transformer)架構為基礎的生成預訓練(Generative Pretraining)方法大放異彩,如GPT系列成功展現了通用語言模型的威力。然而,在圖像領域中,生成預訓練的研究相對較少,且多數聚焦於特定結構或監督學習。IC...
網誌存檔
▼
2026
(648)
▼
5月
(88)
A Linear-Time Kernel Goodness-of-Fit Test 深度解析
Safe and Nested Subgame Solving for Imperfect-Info...
Superposition Yields Robust Neural Scaling 深度解析
Optimal Mistake Bounds for Transductive Online Lea...
Does Reinforcement Learning Really Incentivize Rea...
Why Diffusion Models Don't Memorize: The Role of I...
1000 Layer Networks for Self-Supervised RL: Scalin...
Gated Attention for Large Language Models: Non-lin...
Artificial Hivemind: The Open-Ended Homogeneity of...
The Value of Prediction in Identifying the Worst-Off
Score Matching with Missing Data
Conformal Prediction as Bayesian Quadrature
Roll the Dice & Look Before You Leap: Going Beyond...
Train for the Worst, Plan for the Best: Understand...
CollabLLM: 從被動回應者到主動協作者的多輪人機合作新典範
Data Shapley in One Training Run - ICLR 2025 Outst...
Learning Dynamics of LLM Finetuning
Safety Alignment Should Be Made More Than Just a F...
KAN: Kolmogorov-Arnold Networks
Mamba: Linear-Time Sequence Modeling with Selectiv...
Learning Interactive Real-World Simulators — ICLR ...
Generalization in Diffusion Models Arises from Geo...
Rethinking the Expressive Power of GNNs via Graph ...
Universal Few-shot Learning of Dense Prediction Ta...
DreamFusion: Text-to-3D using 2D Diffusion 深度解析
Flow Network based Generative Models for Non-Itera...
Hyperparameter Tuning with Renyi Differential Priv...
Analytic-DPM: an Analytic Estimate of the Optimal ...
Learning Mesh-Based Simulation with Graph Networks...
EigenGame: PCA as a Nash Equilibrium 深度解析
An Image is Worth 16x16 Words: Transformers for Im...
Ordered Neurons: Integrating Tree Structures into ...
The Lottery Ticket Hypothesis: Finding Sparse, Tra...
Continuous Adaptation via Meta-Learning in Nonstat...
Spherical CNNs:突破球面數據分析的深度學習新視野
On the Convergence of Adam and Beyond 深度解析
Discrete Diffusion Modeling by Estimating the Rati...
Measure Dataset Diversity, Don't Just Claim It — I...
Position: Considerations for Differentially Privat...
A Watermark for Large Language Models 深度解析
Learning-Rate-Free Learning by D-Adaptation
G-Mixup: Graph Data Augmentation for Graph Classif...
Understanding Self-Supervised Learning Dynamics wi...
Oops I Took A Gradient: Scalable Sampling for Disc...
Unbiased Gradient Estimation in Unrolled Computati...
Generative Pretraining From Pixels (iGPT) 深度解析
On Learning Sets of Symmetric Elements
Rates of Convergence for Sparse Variational Gaussi...
Challenging Common Assumptions in the Unsupervised...
Delayed Impact of Fair Machine Learning 深度簡介
Obfuscated Gradients Give a False Sense of Securit...
Guiding a Diffusion Model with a Bad Version of It...
Visual Autoregressive Modeling: Scalable Image Gen...
DecodingTrust: GPT 模型可信度全面評估之探索與突破
Direct Preference Optimization: Your Language Mode...
Scaling Data-Constrained Language Models
Privacy Auditing with One (1) Training Run — NeurI...
Are Emergent Abilities of Large Language Models a ...
Riemannian Score-Based Generative Modelling 深度簡介
Gradient Descent: The Ultimate Optimizer 深度解析
Is Out-of-Distribution Detection Learnable? — Neur...
Elucidating the Design Space of Diffusion-Based Ge...
On the Expressivity of Markov Reward
A Universal Law of Robustness via Isoperimetry
Improved Guarantees and a Multiple-Descent Curve f...
No-Regret Learning Dynamics for Extensive-Form Cor...
Language Models are Few-Shot Learners (GPT-3) 深度簡介
Uniform convergence may be unable to explain gener...
Distribution-Independent PAC Learning of Halfspace...
Nearly Tight Sample Complexity Bounds for Learning...
Optimal Algorithms for Non-Smooth Distributed Opti...
Non-delusional Q-learning and Value-iteration
Neural Ordinary Differential Equations 深度介紹
A Linear-Time Kernel Goodness-of-Fit Test
Safe and Nested Subgame Solving for Imperfect-Info...
Superposition Yields Robust Neural Scaling 獲獎論文深度解說
Optimal Mistake Bounds for Transductive Online Lea...
Does Reinforcement Learning Really Incentivize Rea...
Why Diffusion Models Don't Memorize: The Role of I...
1000 Layer Networks for Self-Supervised RL: Scalin...
Gated Attention for Large Language Models: Non-lin...
Artificial Hivemind: The Open-Ended Homogeneity of...
The Value of Prediction in Identifying the Worst-Off
Score Matching with Missing Data
Conformal Prediction as Bayesian Quadrature
Roll the Dice & Look Before You Leap: Going Beyond...
Train for the Worst, Plan for the Best: Understand...
CollabLLM: From Passive Responders to Active Colla...
►
4月
(360)
►
3月
(126)
►
2月
(22)
►
1月
(52)
►
2025
(194)
►
12月
(13)
►
11月
(12)
►
10月
(4)
►
9月
(15)
►
8月
(76)
►
7月
(32)
►
6月
(24)
►
5月
(12)
►
4月
(2)
►
3月
(1)
►
2月
(1)
►
1月
(2)
►
2024
(24)
►
12月
(3)
►
11月
(1)
►
10月
(1)
►
9月
(4)
►
8月
(2)
►
7月
(2)
►
6月
(1)
►
5月
(3)
►
4月
(3)
►
3月
(2)
►
2月
(1)
►
1月
(1)
►
2023
(5)
►
9月
(1)
►
7月
(1)
►
6月
(1)
►
4月
(1)
►
3月
(1)
►
2022
(31)
►
12月
(3)
►
11月
(3)
►
9月
(4)
►
8月
(1)
►
7月
(2)
►
6月
(1)
►
5月
(1)
►
4月
(5)
►
3月
(8)
►
2月
(2)
►
1月
(1)
►
2021
(14)
►
12月
(1)
►
11月
(1)
►
10月
(1)
►
9月
(1)
►
8月
(2)
►
7月
(1)
►
6月
(1)
►
5月
(1)
►
4月
(1)
►
3月
(2)
►
2月
(1)
►
1月
(1)
►
2020
(17)
►
12月
(2)
►
10月
(1)
►
9月
(2)
►
8月
(2)
►
7月
(1)
►
6月
(1)
►
5月
(1)
►
4月
(2)
►
3月
(3)
►
2月
(1)
►
1月
(1)
►
2019
(37)
►
12月
(8)
►
11月
(2)
►
10月
(5)
►
9月
(3)
►
8月
(4)
►
7月
(5)
►
6月
(2)
►
5月
(1)
►
4月
(2)
►
3月
(1)
►
2月
(1)
►
1月
(3)
►
2018
(25)
►
12月
(1)
►
11月
(2)
►
10月
(2)
►
9月
(2)
►
8月
(4)
►
7月
(3)
►
5月
(1)
►
4月
(3)
►
3月
(2)
►
2月
(5)
►
2017
(32)
►
11月
(1)
►
10月
(1)
►
9月
(1)
►
8月
(8)
►
6月
(2)
►
5月
(1)
►
3月
(2)
►
2月
(12)
►
1月
(4)
►
2016
(50)
►
12月
(9)
►
11月
(1)
►
10月
(1)
►
9月
(3)
►
8月
(1)
►
7月
(1)
►
6月
(3)
►
4月
(1)
►
3月
(2)
►
2月
(18)
►
1月
(10)
►
2015
(63)
►
12月
(1)
►
10月
(1)
►
9月
(2)
►
8月
(13)
►
7月
(12)
►
6月
(4)
►
4月
(11)
►
3月
(4)
►
2月
(4)
►
1月
(11)
►
2014
(71)
►
12月
(2)
►
11月
(2)
►
10月
(7)
►
9月
(2)
►
8月
(20)
►
7月
(4)
►
6月
(8)
►
5月
(8)
►
4月
(7)
►
3月
(8)
►
2月
(2)
►
1月
(1)
►
2013
(88)
►
12月
(4)
►
11月
(2)
►
9月
(3)
►
8月
(9)
►
7月
(2)
►
6月
(3)
►
5月
(10)
►
4月
(9)
►
3月
(7)
►
2月
(28)
►
1月
(11)
►
2012
(36)
►
12月
(7)
►
11月
(3)
►
10月
(1)
►
9月
(18)
►
8月
(4)
►
7月
(2)
►
5月
(1)
►
2011
(7)
►
5月
(1)
►
4月
(1)
►
1月
(5)
►
2010
(24)
►
12月
(9)
►
11月
(1)
►
10月
(1)
►
9月
(1)
►
8月
(1)
►
7月
(3)
►
6月
(1)
►
5月
(2)
►
4月
(2)
►
3月
(1)
►
2月
(1)
►
1月
(1)
►
2009
(121)
►
12月
(1)
►
10月
(5)
►
9月
(10)
►
8月
(4)
►
7月
(2)
►
6月
(13)
►
5月
(11)
►
4月
(4)
►
3月
(9)
►
2月
(16)
►
1月
(46)
沒有留言:
張貼留言