百科

两个参数的矩估计 似然估计会考吗

矩估计和极大似然估计都是对函数参数的估计方法。

当我们有大量的样本,在已知模型的情况下,我们就可以根据这些样本,“猜”出能够产生这些样本的模型参数是什么。这两种方法的目的都是这个。

对于矩估计来说,我们首先需要做的就是建立统计量与矩之间的关系。

矩估计之所以有效,是因为:“如果数据是从公共分布中独立采样得到的,而且采样得到的数据量很大,那么样本统计量就可以作为公共分布的统计量看待”。

翻开很多概率书,我们都会发现在书中介绍过一些常见分布的“矩”。例如一阶原点矩和二阶中心距等。这个矩中通常都是一个模型参数的函数(即矩的表达式中包含了参数)。

而当我们有了大量的样本的时候,我们可以通过样本直接计算得到样本(原点/中心)矩,也就是说,我们可以直接用这个样本矩来计算分布矩,再通过等式变换算出真正的模型参数值是多少。这就是矩估计。

而极大似然估计的目的是“寻找一组能够使抽样样本出现概率最大的参数”,也就是说,我们定义一个模型参数的函数。在固定了样本之后,模型参数可以在一个很大的空间中取值。其中某一个取值肯定会使得似然函数值最大,也就是“在这组参数下,这组样本出现的可能性最高”。

那么为什么说正态分布的矩估计跟极大似然估计相等呢?其实只要仔细推一下公式就能发现。在矩估计中,我们的一阶原点矩就是期望,二阶中心距就是方差。也就是说,样本均值(一阶样本原点矩)就可以直接作为模型的均值。方差亦然。而通过极大似然的方法,让似然函数导数为0直接求解,最终会发现模型参数的均值就是一阶样本原点矩,方差亦然。

也就是说,能够出现这样的情况,只是恰好因为正态分布的一个有趣的性质:模型的参数(均值和方差)直接就是样本矩(一阶

样本

原点矩和二阶

样本

中心距)。