![机器学习:从公理到算法](https://wfqqreader-1252317822.image.myqcloud.com/cover/786/920786/b_920786.jpg)
3.1 密度估计的参数方法
如果已经知道p(x)所在的分布族p(x|θ),此时的密度估计问题变成估计θ。简单说来,此时即为密度估计的参数方法。在此情形下,,SimX(x,θ)=p(x|θ)。假设对θ得到估计
,则可设
。
3.1.1 最大似然估计
在此情形下,如果对于θ的信息一无所知,则可以假设对θ得到估计。因此,类紧致准则希望最大类内相似度,由此得到目标函数(3.1)。显然,
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00012.jpg?sign=1739261612-1ergCaTwCr1UcQROG4GXhhsZOmaebpEZ-0-72814d5967da0b159e7843af88cfb42f)
为了简化计算,对公式(3.1)两边取负自然对数,求最大变为求最小,得到如下目标函数:
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00013.jpg?sign=1739261612-rsIejDZlNQT3Qd1g8QzDck21LHOinZlD-0-2beb3269adba4c9c150f4167a888cb44)
显然,最大化目标函数(3.1)是最大似然估计。因此,类紧致准则可以导出常见的最大似然估计。
• 高斯密度估计
假设,其中
。根据公式(3.2),我们可以得到如下目标函数(3.3):
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00009.jpg?sign=1739261612-ed3De2xXMhEsNXhYRMwtRRg5NP8HH3Ph-0-dd177e0f315505d76411ac3b1cc9211a)
因此,计算目标函数(3.3)的一阶导数,令其等于零可以得到最优估计。
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00010.jpg?sign=1739261612-x4wmyIWKErZlvxMCjI3hHiwEPGOXjGqQ-0-013a77ef5b2b14aa658772da70708783)
解方程(3.4),可以得到
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00011.jpg?sign=1739261612-YDxavTdvlIXQjTlo3yV6eggEmKgDh3An-0-4551078e5a294bd282318dbc7caf78ba)
令,其中
按照以上的办法,同样可以得出
的估计。
• n元多项分布估计
假设∀k,xk,x都是只取1,2,…,c其中之一的随机变量,如果,其中x=[l1,l2,…,lc],
,∀i,li∈{0,1},
1,∀i,
并且
。易知,∀k,xk,x可以表示成一个c维的0,1的向量,这里,如果xk=i,则记作(xk)i=1,否则(xk)i=0。显然,
,因此,可以知道
。
根据公式(3.2),我们可以得到如下目标函数(3.6):
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00014.jpg?sign=1739261612-eN0G714zTdWNqo3ocRpTSiNZ6NI1m042-0-1d87d8919b54b29b491e38ad20c9b9ef)
根据拉格朗日乘子法,要得到目标函数(3.6)在条件下的最小值,只需令如下函数(3.7)的一阶导数为零:
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00015.jpg?sign=1739261612-bExsIaq93WHG3Mf8MICx2oFrTNROQYCI-0-04e49d037eba893cd94a9061f7a62432)
由此得到方程(3.8):
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00016.jpg?sign=1739261612-MpRIpVl4oQcj9bOfSsKgunwGO0v1Hrpi-0-2b53610a0afa7d18037577f406ff5e17)
注意到,由方程(3.8)可以得到λ=N。
据此,解方程(3.8)可以得到如下估计:
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00017.jpg?sign=1739261612-OsnoyfU9th0aoGD0flomPMNeQgAqmLxU-0-b2a4126ae91cea20e4b32b140a703747)
3.1.2 贝叶斯估计
需要特别指出的是,在参数估计情形下,类可以用θ来表示。有时候,基于历史经验,人们不仅知道分布的形式,甚至会对θ的信息有所了解。比如,当谈到许海峰的手枪射击成绩时,人们会有先验估计;当谈起烟台苹果莱阳梨,人们一般也会有先验印象。甚至朋友交往,第一印象也对人们后续交往影响巨大。实际上,日常所说的声誉,就是一种对于事物的先验印象。如果θ的信息完全确定,就不需要通过观察抽样样本来估计了,或者说观察已经影响不了人们对于θ的信息。这近似于信仰或者崇拜。
一般情形下,人们对于θ的信息有所了解,但是该信息会随着观察的积累增多而改变,具有不确定性。因此,对θ的信息先验了解程度,可以用假设θ服从p(θ|θ0)分布来表示,p(θ|θ0)反映了人们对于θ的了解程度,θ0是事先确定的值。换一种说法,p(θ|θ0)反映了θ与固定值θ0的相似度,即Sim(θ,θ0)=p(θ|θ0)。理论上,应该选择与固定值θ0最相似的θ值。如果无限相似,即变成信仰,此时观察改变不了θ的估计。如果不是无限相似,则观察可以改变对于θ的估计。
假设对θ得到估计,根据以上的分析,设
,
。因此,类紧致准则希望最大类内相似度,由此得到目标函数(3.1)。同时,如果假设输入类表示为θ0,类一致性准则要求考虑最大化如下约束(3.10):
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00018.jpg?sign=1739261612-vOp5XzezeLwkeLTJiBExGUHu50e4h4LG-0-708f494faac7bd6339e0fe02608fd119)
这是一个典型的多目标函数优化问题。一个自然的想法是合成为单目标函数优化问题。
由此,综合考虑类一致性准则和类紧致性准则,应该最大化目标函数(3.11):
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00019.jpg?sign=1739261612-Ve3CP5tVbyGZlS5sNv1Ts37jD9dhk0BS-0-c9e15bfd8fc7686f277a03f279595a8e)
显然,如果只最大化目标函数(3.10),则与观察数据无关。如果先验随着观察数据的增加而不同,最大化目标函数(3.11)即是常见的贝叶斯估计。因此,类紧致准则与贝叶斯估计也联系密切。
• 高斯密度的贝叶斯估计
假设∀k,xk∈Rp,x∈Rp,,其中
其中
。
根据公式(3.11),应该最小化目标函数(3.12):
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00020.jpg?sign=1739261612-mgywTARtYyKyMLTKhQXZjWc8irFTgmMr-0-697671330fa79831c0e7c5b7e9966fcb)
因此,计算目标函数(3.12)的一阶导数,令其等于零可以得到最优估计。
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00021.jpg?sign=1739261612-fKZ49Oq11DrJhHkvRB7vhG45CE5Mwyb2-0-48542eabc011bed7f8820c554d64de20)
解方程(3.13),可以得到
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00022.jpg?sign=1739261612-tUzgRVEdY4IrqOx4Q1wKvG3KoFFejDZ7-0-d8c124d0175cc247bdc097e9a743a508)
如果,其中
,按照以上的办法,同样可以得出
的估计。
• n元多项分布的贝叶斯估计
假设∀k,xk,x都是只取1,2,…,c其中之一的随机变量,如果,其中x=[l1,l2,…,lc],
,∀i,li∈{0,1},
,
并且
。易知,∀k,xk,x可以表示成一个c维的0,1向量,这里,如果xk=i,则记作(xk)i=1,否则(xk)i=0。显然,∀k,
,因此,可以知道
,其中
。
根据公式(3.11),应该最小化如下目标函数(3.15):
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00026.jpg?sign=1739261612-lUUSq0F669QxqVY91J2oKPgvHEa8xtjG-0-8b46b2ecb8d16ca562742a29305f6add)
根据拉格朗日乘子法,要得到目标函数(3.15)在条件下的最小值,只需令如下函数(3.16)的一阶导数为零。
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00023.jpg?sign=1739261612-CUtVI9K1wKUct44riQEaom3RsxdfUUA3-0-7c600974d3c2b819e0ccbd57f8782eda)
由此得到方程(3.17)。
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00024.jpg?sign=1739261612-N5OzROf4u7iYu2hY3HYZFb2EQFN7NrW6-0-8feb8373428d96a664023a6bb74e7b71)
解方程(3.17)可以得到如下估计:
![](https://epubservercos.yuewen.com/589E71/10150113804150701/epubprivate/OEBPS/Images/image-00025.jpg?sign=1739261612-XFGWtUH38xRBVo83oYQI4uHppvl5sJKs-0-17f0fe339d099db8d7b01d4fa291b444)
称为Dirichlet分布,其中
,∀pi>0,∀αi>0。