简介
设总体 X 的分布函数的形式已知,但它的一个或多个参数未知,借助于总体 X 的样本来估计总体未知的参数的值得问题称为参数的点估计问题。
点估计问题的一般提法如下:设总体 X 的分布函数 F(x;θ) 的形式已知,θ 是待估计参数。X1,X2,⋯,Xn 是 X 的一个样本,x1,x2,⋯,xn 是相应的一个样本值。点估计问题就是要构造一个适当的统计量 ˆθ(X1,X2,⋯,Xn),用它的观察值 ˆθ(x1,x2,⋯,xn) 作为未知参数 θ 的近似值。我们称 ˆθ(X1,X2,⋯,Xn) 为 θ 的估计量,称 ˆθ(x1,x2,⋯,xn) 为 θ 的估计值。
最大似然估计法
利用已知的样本结果,反推最有可能(最大概率)导致这样结果的参数值,即“模型已定,参数未知”。
离散型随机变量
总体 X 属于离散型,其分布律 P{X=x}=p(x;θ),θ∈Θ 的形式为已知,θ 为待估计参数,Θ 是 θ 可能的取值范围。设 X1,X2,⋯,Xn 是来自 X 的样本,则 X1,X2,⋯,Xn 的联合分布律为: n∏i=1p(xi;θ)
设 x1,x2,⋯,xn 是相应于样本 X1,X2,⋯,Xn 的一个估计值。易知样本 X1,X2,⋯,Xn 取到观察值 x1,x2,⋯,xn 的概率,亦即时间 {X1=x1,X2=x2,⋯,Xn=xn} 发生的概率为: L(θ)=L(x1,x2,⋯,xn;θ)=n∏i=1p(xi;θ),θ∈Θ
关于最大似然估计法,我们有以下的直观想法:现在已经取到样本值 x1,x2,⋯,xn 了,这表明取到这一样本值得概率 L(θ) 比较大。我们当然不会考虑那些不能使样本 x1,x2,⋯,xn 出现的 θ∈Θ 作为 θ 的估计,再者,如果已知当 θ=θ0∈Θ 时使 L(θ) 取最大值,而 Θ 中的其他 θ 的值使 L(θ) 取很小值,我们自然认为取 θ0 作为未知参数 θ 的估计值,较为合理。由费希尔(R.A.Fisher)引进的最大似然估计法,就是固定样本观测值 x1,x2,⋯,xn,在 θ 取值的可能范围 Θ 内挑选使似然函数 L(θ)=L(x1,x2,⋯,xn;θ) 达到最大的参数值 ˆθ ,作为参数 θ 的估计值。即取 ˆθ 使: L(θ)=L(x1,x2,⋯,xn;ˆθ)=maxθ∈ΘL(x1,x2,⋯,xn;θ)
这样得到的 ˆθ 与样本值 x1,x2,⋯,xn 有关,常记为 ˆθ(x1,x2,⋯,xn) ,称为参数 θ 的最大似然估计值,而相应的统计量 ˆθ(X1,X2,⋯,Xn) 称为参数 θ 的最大似然估计量。 ˆθ=argmaxθ∈ΘL(θ)=argmaxθ∈Θn∏i=1p(xi;θ)
连续型随机变量
总体 X 属于连续型,其概率密度 f(x;θ),θ∈Θ 的形式已知,θ 为待估参数,Θ 是 θ 可能取值的范围。设 X1,X2,⋯,Xn 是来自 X 的样本,则 X1,X2,⋯,Xn 的联合密度为: n∏i=1f(xi,θ)
对数似然方程
由上述分析,确定最大似然估计量的问题就归结为微分学中求最大值的问题了。 在很多情形下,p(x;θ) 和 f(x;θ) 关于 θ 可微,这时 ˆθ 常可从方程: ddθL(θ)=0
ˆθ=argmaxθ∈ΘlnL(θ)
多未知参数的似然估计
最大似然估计法也适用于分布中含有多个未知参数 θ1,θ2,⋯,θk 的情况。这时,似然函数 L 是这些未知参数的函数。分别令: ∂∂θiL(θ)=0,i=1,2,⋯,k
举例
例题一
设 X∼b(1,p)。X1,X2,⋯,Xn 是来自 X 的一个样本,试求参数 p 的最大似然估计。
解: 设 x1,x2,⋯,xn 是相应于样本 X1,X2,⋯,Xn 的一个样本值。 X 的分布律为: P{X=x}=px(1−p)1−x,x=0,1
小结
最大似然估计法所求的解只是估计值,只有在样本数趋于无限多的时候,它才会接近于真实值。 求解最大似然估计量 ˆθ 的一般步骤:
- 根据概率分布写出似然函数;
- 对似然函数取对数,并整理;
- 对对数似然函数中所有待估计参数 θi 求(偏)导数,并令倒数为零;
- 求解似然方程(组);