您的位置:首页 > 科技 > IT业 > 如何申请小程序店铺_开发网站的过程_百度网址大全电脑版_2345网址大全下载到桌面

如何申请小程序店铺_开发网站的过程_百度网址大全电脑版_2345网址大全下载到桌面

2024/12/23 9:30:24 来源:https://blog.csdn.net/CKissjy/article/details/144398317  浏览:    关键词:如何申请小程序店铺_开发网站的过程_百度网址大全电脑版_2345网址大全下载到桌面
如何申请小程序店铺_开发网站的过程_百度网址大全电脑版_2345网址大全下载到桌面

重难点:机器学习算法的基本概念和适用场景。

英国统计学家George E. P. Box的名言:All models are wrong, but some are useful. 没有哪一种算法能够适用所有情况,只有针对某一种问题更有用的算法。

也就是说,机器学习算法不会要求一个问题被 100%求解,取而代之的是把问题转化为最优化的问题,用不同的算法优化问题,从而比较得到尽量好的结果。因此对于数据科学家来说,理解算法显得格外重要,理解不同算法的思想可以帮助数据科学家更从容地面对不同的应用场景。

本文列出了常用的机器学习算法的基本概念、主要特点和适用场景,希望可以在大家选择合适的机器学习算法解决实际问题时起到一点参考作用。

K近邻(knn)算法

KNN算法的基本介绍:假若一个特征空间中大多数的样本属于某一个类别,则在这个特征空间中,k个最相似的样本也属于这个类别。

该算法由两个步骤组成:

(1)对于一个给定的搜索训练集按一定距离度量,来找到一个 的值。

(2)在这个KNN当中,根据大多数分为一致的类来进行分类。

解释kNN算法:

不同形状的点,为不同标签的点。其中绿色点为未知标签的数据点。现在要对绿色点进行预测。由图不难得出:

如果k=3,那么离绿色点最近的有2个红色三角形和1个蓝色的正方形,这3个点投票,于是绿色的这个待分类点属于红色的三角形。

如果k=5,那么离绿色点最近的有2个红色三角形和3个蓝色的正方形,这5个点投票,于是绿色的这个待分类点属于蓝色的正方形。

K近邻(KNN)算法优点

  • 算法原理简单,容易理解,也较容易实现。

  • 不需要进行训练,只需要保存训练样本和标签。

  • 不易受小错误概率的影响。经理论证明,最近邻的渐进错误率最坏时不超过两倍的贝叶斯错误率,最好时接近或达到贝叶斯错误率。

K近邻(KNN)算法缺点

  • K的选择不固定。

  • 预测结果容易受到噪声数据的影响。

  • 当样本不平衡时,新样本的类别偏向训练样本中数量占优的类别,容易导致预测错误。

  • 当数据量较大时,具有较高的计算复杂度和内存消耗,因为对每一个待分类的文本,都要计算它到全体已知样本的距离,才能求得它的K个最近邻。

适用场景及主要应用领域

由于KNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN方法较其他方法更为适合。

在实际应用当中,KNN算法在人脸识别、文字识别、医学图像处理等领域可以取得良好的分类效果。

K近邻(KNN)算法需要注意的问题

  • 数据特征之间量纲不统一时,需要对数据进行归一化处理,否则会出现大数吃小数的问题;

  • 数据之间的距离计算通常采用欧式距离;

  • KNN算法中K值的选取会对结果产生较大的影响,一般k值要小于训练样本数据的平方根;

  • 通常采用交叉验证法来选择最优的K值。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com