判别式模型与生成式模型是统计学习中的两种主要建模方法,它们的区别在于目标、建模方式和应用场景。
生成式模型(Generative Model):
建模目标是联合分布 P(X,Y),其中 X 是输入数据,Y 是标签或目标输出。通过联合分布,可以进一步计算条件分布 P(Y∣X) 或生成观测数据 X。
建立联合分布 P(X,Y),可以通过贝叶斯公式计算 P(Y∣X):
例如:隐马尔可夫模型(HMM)、朴素贝叶斯(Naive Bayes)、高斯混合模型(GMM)。
学习数据生成的机制,关注数据本身的分布。既能进行分类任务,也能生成新数据.
适用于需要了解数据生成机制的场景,如语音生成、图像生成、数据补全等.
案例:高斯混合模型(Gaussian Mixture Model, GMM):
高斯混合模型通过以下公式表示混合分布的概率密度函数:
K 是混合成分的数量,即高斯分布的个数。
是第 k 个成分的混合权重,满足
是第 k 个高斯分布,其形式为:
是第 k 个高斯分布的均值向量;
是第 k 个高斯分布的协方差矩阵。
GMM的参数通常通过 期望最大化算法(EM算法) 来估计。EM算法是一个迭代优化过程.
可以根据拟合的高斯混合模型生成新数据
判别式模型(Discriminative Model)
直接建模条件概率 P(Y∣X) 或决策边界,关注输入 X与输出 Y 的直接关系,旨在优化分类或标注的性能。
例如:逻辑回归(Logistic Regression)、支持向量机(SVM)、条件随机场(CRF)。
关注类别间的区分能力,而非数据的生成过程。
案例: 逻辑回归:
逻辑回归是一种广泛使用的 判别式模型,主要用于二分类任务。尽管名字中有“回归”二字,但它本质上是一种分类算法,而非回归算法。
逻辑回归的目标是建立一个模型,计算给定输入特征 XX 时属于某一类别(如类别 1)的概率。与线性回归不同,逻辑回归通过使用 Sigmoid 函数将输出映射到 0 和 1 之间,从而输出概率。
Sigmoid 函数的公式为:
其中,,w 是权重向量,X 是输入特征,b 是偏置项。该函数的输出值 σ(z) 总是介于 0 和 1 之间,可以理解为样本属于类别 1 的概率。为了将其映射到类别标签,通常将概率值与一个阈值(通常为 0.5)进行比较.