-
逻辑回归(Logistic Regression):
- 逻辑回归通过最大化似然函数来估计模型参数,使得观察到的数据最有可能由模型生成。
-
朴素贝叶斯分类器(Naive Bayes Classifier):
- 朴素贝叶斯使用贝叶斯定理,通过最大化似然估计来计算每个特征在给定类别下的条件概率。
-
高斯混合模型(Gaussian Mixture Model, GMM):
- GMM通过期望最大化(Expectation-Maximization, EM)算法来最大化似然函数,从而估计混合模型的参数。
-
隐马尔可夫模型(Hidden Markov Model, HMM):
- HMM使用EM算法中的Baum-Welch算法,通过最大化似然估计来学习模型参数。
-
线性判别分析(Linear Discriminant Analysis, LDA):
- LDA在训练过程中通过最大化似然估计来确定类别条件概率分布的参数。
-
和神经网络(Neural Networks):
- 在分类任务中,神经网络使用交叉熵损失函数,交叉熵实际上是负对数似然函数,因此优化过程等价于最大化似然估计。