您的位置:首页 > 游戏 > 游戏 > 中高风险地区最新名单_多店铺商城系统开源_seo优化seo外包_长沙网站seo服务

中高风险地区最新名单_多店铺商城系统开源_seo优化seo外包_长沙网站seo服务

2024/12/23 14:21:12 来源:https://blog.csdn.net/qq_40671063/article/details/144314224  浏览:    关键词:中高风险地区最新名单_多店铺商城系统开源_seo优化seo外包_长沙网站seo服务
中高风险地区最新名单_多店铺商城系统开源_seo优化seo外包_长沙网站seo服务

        判别式模型与生成式模型是统计学习中的两种主要建模方法,它们的区别在于目标、建模方式和应用场景。

生成式模型(Generative Model):

        建模目标是联合分布 P(X,Y),其中 X 是输入数据,Y 是标签或目标输出。通过联合分布,可以进一步计算条件分布 P(Y∣X) 或生成观测数据 X。

        建立联合分布 P(X,Y),可以通过贝叶斯公式计算 P(Y∣X):

P(Y|X) = \frac{P(X,Y)}{P(X)} = \frac{P(X|Y)P(Y)}{P(X)}

        例如:隐马尔可夫模型(HMM)、朴素贝叶斯(Naive Bayes)、高斯混合模型(GMM)。

        学习数据生成的机制,关注数据本身的分布。既能进行分类任务,也能生成新数据.

        适用于需要了解数据生成机制的场景,如语音生成、图像生成、数据补全等.

案例:高斯混合模型(Gaussian Mixture Model, GMM):

        高斯混合模型通过以下公式表示混合分布的概率密度函数:

p(x) = \sum_{k=1}^K = \pi_k \cdot N(x|\mu _k, \sum_k)

        K 是混合成分的数量,即高斯分布的个数。

        \pi_k 是第 k 个成分的混合权重,满足\sum_{k=1}^K \pi_k = 1, \pi_k >0

        N(x|\mu_k, \sum_k)是第 k 个高斯分布,其形式为:

N(x|\mu_k, \sum_k) = \frac{1}{\sqrt{2 \pi \sum_k}} exp(-\frac{1}{2}(x-\mu_k^T)\sum_k^{-1}(x-\mu_k))

                \mu_k 是第 k 个高斯分布的均值向量;

                \sum_k 是第 k 个高斯分布的协方差矩阵。

        GMM的参数通常通过 期望最大化算法(EM算法) 来估计。EM算法是一个迭代优化过程.

        可以根据拟合的高斯混合模型生成新数据

判别式模型(Discriminative Model)

        直接建模条件概率 P(Y∣X) 或决策边界,关注输入 X与输出 Y 的直接关系,旨在优化分类或标注的性能。

        例如:逻辑回归(Logistic Regression)、支持向量机(SVM)、条件随机场(CRF)。

        关注类别间的区分能力,而非数据的生成过程。

案例: 逻辑回归:

        逻辑回归是一种广泛使用的 判别式模型,主要用于二分类任务。尽管名字中有“回归”二字,但它本质上是一种分类算法,而非回归算法。

        逻辑回归的目标是建立一个模型,计算给定输入特征 XX 时属于某一类别(如类别 1)的概率。与线性回归不同,逻辑回归通过使用 Sigmoid 函数将输出映射到 0 和 1 之间,从而输出概率。

        Sigmoid 函数的公式为:\sigma (z) = \frac{1}{1 + e^{-z}}

        其中,z = w^T X+b,w 是权重向量,X 是输入特征,b 是偏置项。该函数的输出值 σ(z) 总是介于 0 和 1 之间,可以理解为样本属于类别 1 的概率。为了将其映射到类别标签,通常将概率值与一个阈值(通常为 0.5)进行比较.

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com