统计学习理论 (英語:Statistical learning theory ),一種機器學習 的架構,根據統計學 與泛函分析 (Functional Analysis)而建立。統計學習理論基於資料(data),找出預測性函數,之後解決問題。支持向量机 (Support Vector Machine)的理論基礎來自於統計學習理論。
令
X
{\displaystyle X}
为所有可能的输入组成的向量空间,
Y
{\displaystyle Y}
为所有可能的输出组成的向量空间。统计学习理论认为,积空间
Z
=
X
×
Y
{\displaystyle Z=X\times Y}
上存在某个未知的概率分布
p
(
z
)
=
p
(
x
→
,
y
)
{\displaystyle p(z)=p({\vec {x}},y)}
。训练集由这个概率分布中的
n
{\displaystyle n}
个样例构成,并用
S
=
{
(
x
→
1
,
y
1
)
,
…
,
(
x
→
n
,
y
n
)
}
=
{
z
→
1
,
…
,
z
→
n
}
{\displaystyle S=\{({\vec {x}}_{1},y_{1}),\dots ,({\vec {x}}_{n},y_{n})\}=\{{\vec {z}}_{1},\dots ,{\vec {z}}_{n}\}}
表示。每个
x
→
i
{\displaystyle {\vec {x}}_{i}}
都是训练数据的一个输入向量, 而
y
i
{\displaystyle y_{i}}
则是对应的输出向量。
损失函数的选择是机器学习算法所选的函数
f
S
{\displaystyle f_{S}}
中的决定性因素。 损失函数也影响着算法的收敛速率。损失函数的凸性也十分重要。[ 1]
根据问题是回归问题还是分类问题,我们可以使用不同的损失函数。
回归问题中最常用的损失函数是平方损失函数(也被称为L2-范数 )。类似的损失函数也被用在普通最小二乘回归 。其形式是:
V
(
f
(
x
→
)
,
y
)
=
(
y
−
f
(
x
→
)
)
2
{\displaystyle V(f({\vec {x}}),y)=(y-f({\vec {x}}))^{2}}
另一个常见的损失函数是绝对值范数(L1-范数 ):
V
(
f
(
x
→
)
,
y
)
=
|
y
−
f
(
x
→
)
|
{\displaystyle V(f({\vec {x}}),y)=|y-f({\vec {x}})|}
某种程度上说0-1指示函数 是分类问题中最自然的损失函数。它在预测结果与真实结果相同时取0,相异时取1。对于
Y
=
{
−
1
,
1
}
{\displaystyle Y=\{-1,1\}}
的二分类问题,这可以表示为:
V
(
f
(
x
→
)
,
y
)
=
θ
(
−
y
f
(
x
→
)
)
{\displaystyle V(f({\vec {x}}),y)=\theta (-yf({\vec {x}}))}
其中
θ
{\displaystyle \theta }
为单位阶跃函数 。
这张图片给出了机器学习中过拟合的例子。图中红点表示训练数据,绿色曲线表示真实的函数关系,而蓝色曲线为习得的过度拟合了的函数。
机器学习的一大常见问题是过拟合 。由于机器学习是一个预测问题,其目标并不是找到一个与(之前观测到的)数据最拟合的的函数,而是寻找一个能对未来的输入作出最精确预测的函数。经验风险最小化 有过拟合的风险:找到的函数完美地匹配现有数据但并不能很好地预测未来的输出。
过拟合的常见表现是不稳定的解:训练数据的一个小的扰动会导致学到的函数的巨大波动。可以证明,如果解的稳定性可以得到保证,那么其可推广性和一致性也同样能得到保证。[ 2] [ 3] 正则化 可以解决过拟合的问题并增加解的稳定性。
正则化可以通过限制假设空间
H
{\displaystyle {\mathcal {H}}}
来完成。一个常见的例子是把
H
{\displaystyle {\mathcal {H}}}
限制为线性函数:这可以被看成是把问题简化为标准设计的线性回归 。
H
{\displaystyle {\mathcal {H}}}
也可以被限制为
p
{\displaystyle p}
次多项式,指数函数,或L1 上的有界函数。对假设空间的限制能防止过拟合的原因是,潜在的函数的形式得到了限制,因此防止了那些能给出任意接近于0的经验风险的复杂函数。
一个正则化的样例是吉洪诺夫正则化 ,即最小化如下损失函数
1
n
∑
i
=
1
n
V
(
f
(
x
→
i
)
,
y
i
)
+
γ
‖
f
‖
H
2
{\displaystyle {\frac {1}{n}}\displaystyle \sum _{i=1}^{n}V(f({\vec {x}}_{i}),y_{i})+\gamma \|f\|_{\mathcal {H}}^{2}}
其中正则化参数
γ
{\displaystyle \gamma }
为一个固定的正参数。吉洪诺夫正则化保证了解的存在性、唯一性和稳定性。[ 4]
^ Rosasco, L., Vito, E.D., Caponnetto, A., Fiana, M., and Verri A. 2004. Neural computation Vol 16, pp 1063-1076
^ Vapnik, V.N. and Chervonenkis, A.Y. 1971. On the uniform convergence of relative frequencies of events to their probabilities . Theory of Probability and its Applications Vol 16, pp 264-280.
^ Mukherjee, S., Niyogi, P. Poggio, T., and Rifkin, R. 2006. Learning theory: stability is sufficient for generalization and necessary and sufficient for consistency of empirical risk minimization. Advances in Computational Mathematics . Vol 25, pp 161-193.
^ Tomaso Poggio, Lorenzo Rosasco, et al. Statistical Learning Theory and Applications , 2012, Class 2 (页面存档备份 ,存于互联网档案馆 )