A Blog Entry on Bayesian Computation by an Applied Mathematician
$$
$$
PAC-Bayes
通常の機械学習の枠組みでは,仮説集合 を固定し,この中で最適な推定量 を探すことに集中する.
一方で,PAC-Bayes では,仮説集合 上の確率分布を学習し,最終的に投票 (vote) などの確率的な操作によって決めることを考え,これにも対応する理論を構築する.
これは (Shawe-Taylor and Williamson, 1997) によって創始され, (McAllester, 1999) によって最初の定理が示された.(Seeger, 2002), (Catoni, 2007) も金字塔であり,後者は情報統計力学との関連を推し進めている.
枠組み
データにより決まる確率測度 を考え,推定量をランダムに とサンプリングする.これを ランダム推定量 (randomized estimator) という.
例えば においては,Gibbs 判別器と呼ばれる.
また,最終的な推定量を積分により と決定しても良い.これを 集合推定量 (aggregated predictor) という.
これらの
- 経験バウンド (empirical bound):
- 超過リスクバウンド (excess risk / oracle PAC bound):
を調べるのが PAC-Bayes である.
KL-乖離度
すると, の項に KL-乖離度が現れる.
定義 1 (Kullback-Leibler divergence) の Kullback-Leibler 乖離度 とは, をいう.
References
Alquier, P. (2024).
User-friendly introduction to PAC-bayes bounds.
Foundations and Trends in Machine Learning,
17(2), 174–303.
Clerico, E., Farghly, T., Deligiannidis, G., Guedj, B., and Doucet, A. (2023).
Generalisation under gradient descent via deterministic PAC-bayes.
McAllester, D. A. (1999).
Some PAC-bayesian theorems.
Machine Learning,
37, 355–363.
Shawe-Taylor, J., and Williamson, R. C. (1997).
A PAC analysis of a bayesian estimator. In
Proceedings of the tenth annual conference on computational learning theory, pages 2–9.
Ujváry, S., Flamich, G., Fortuin, V., and Hernández-Lobato, J. M. (2023).
Estimating optimal PAC-bayes bounds with hamiltonian monte carlo. In
NeurIPS 2023 workshop on mathematics of modern machine learning.