您的位置:首页 > 健康 > 养生 > 机器学习(一)

机器学习(一)

2025/4/24 7:48:00 来源:https://blog.csdn.net/m0_49635911/article/details/139730817  浏览:    关键词:机器学习(一)

机器学习

  • 1.机器学习概述
    • 1.1 人工智能概述
      • 1.1.1 机器学习与人工智能、深度学习的关系
      • 1.1.2 人工智能的起点
      • 1.1.3 机器学习、深度学习能做什么?
    • 1.2 什么是机器学习?
      • 1.2.1 定义
      • 1.2.2 数据集的构成
    • 1.3 机器学习算法
    • 1.4 机器学习开发流程
  • 2.特征工程
    • 2.1 数据集
      • 2.1.1 可用数据集
      • 2.1.2 Sklearn数据集
      • 2.1.3 数据集的划分
    • 2.2 特征工程介绍
      • 2.2.1 为什么要做特征工程
      • 2.2.2 什么是特征工程
    • 2.3 特征提取
      • 2.3.1 概念
      • 2.3.2 特征提取API
      • 2.3.3 字典特征提取
      • 2.3.4 文本特征提取
      • 2.3.5 TF-IDF文本特征提取
    • 2.4 特征预处理
      • 2.4.1 特征预处理API
      • 2.4.2 归一化
      • 2.4.3 API
      • 2.4.4 标准化
      • 2.4.5 API
      • 2.4.6 总结
    • 2.5特征降维
      • 2.5.1 标量、向量、矩阵、张量的关系
      • 2.5.2 降维概念
      • 2.5.3 降维的两种方式

1.机器学习概述

1.1 人工智能概述

1.1.1 机器学习与人工智能、深度学习的关系

机器学习是人工智能的一个实现途径,而深度学习是机器学习的一个方法发展而来。

1.1.2 人工智能的起点

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

1.1.3 机器学习、深度学习能做什么?

应用领域:网络搜索、识别人类语言、自动驾驶、计算机视觉、传统预测、图形识别、自然语言处理。

AGI为Artificial General Intelligence的首字母缩写,意为人工通用智能。它是一种可以执行复杂任务的人工智能,能够完全模仿人类智能的行为。

1.2 什么是机器学习?

1.2.1 定义

机器学习是从数据中自动分析获取模型,并利用模型对未知数据进行预测

在这里插入图片描述

1.2.2 数据集的构成

结构: 特征值 + 目标值

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

注:

对于每一行数据可以称为样本。

有些数据集可以没有目标值。(需要采用聚类算法这些,进行分类。)

1.3 机器学习算法

在这里插入图片描述

1.4 机器学习开发流程

  • 获取数据
  • 数据处理(缺失值、坏点等等)
  • 特征工程(让数据变得更容易被机器学习算法使用的数据)
  • 机器学习算法训练(之后得到模型)
  • 模型评估
  • 应用

在这里插入图片描述

2.特征工程

2.1 数据集

2.1.1 可用数据集

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

Kaggle网址:Find Open Datasets and Machine Learning Projects | Kaggle

UCI网址:UCI 机器学习存储库

scikit-learn网址:scikit-learn: machine learning in Python — scikit-learn 1.5.0 documentation

2.1.2 Scikit-learn工具介绍

  • python语言的机器学习的工具
  • Scikit-learn包含许多机器学习算法的实现

2.1.3 安装

pip install Scikit-learn# 如果有多个python版本的话,需要指定,以3.12为例
pip3.12 install Scikit-learn

完了之后,可以查看自己是否安装成功。

pip list

2.1.2 Sklearn数据集

# * 表示的是数据集的名字# 获取小规模数据集,数据包含在datasets里
sklearn.datasets.load_*()# 获取大型数据集,需要从网络下载,默认是 ~/scikit_learn_data/
# datahome : 标识数据集下载的目录
# subset:'train' 或 'test' 或 'all' 可选,选择要加载的数据集
sklearn.datasets.fetch_*(datahome = None,subset = "train")# 两种方法的返回的数据值
# load和fetch返回的数据类型datasets.base.Bunch(字典格式),这个是继承自字典# data: 特征值数据数组,是[n_samples * n_features]的二维numpy*ndarray数组# target: 标签数组,是n_samples 的一维numpy * ndarray数组# DESCR: 数据描述# feature_names: 特征名# target_names: 标签名

示例:

from sklearn.datasets import load_irisdef datasets_demo():"""sklearn数据集使用:return:"""# 获取数据集iris = load_iris()print("鸢尾花数据集:\n", iris)print("鸢尾花数据集描述:\n", iris["DESCR"])print("鸢尾花数据集特征值的名字:\n", iris.feature_names)print("鸢尾花数据集特征值的形状:\n", iris.data, iris.data.shape)return Noneif __name__ == '__main__':datasets_demo()

2.1.3 数据集的划分

机器学习数据集会划分为两个部分:

  • 训练数据:用于训练 , 构建模型
  • 测试数据:在模型检验中使用,评估模型是否有效

数据集划分API

  • sklearn.model_selection.train_test_split(arrays,*options)
    • x 数据集的特征值
    • y 数据集的标签值
    • test_size 测试集的大小,一般为float
    • random_state 随机数种子,不同的种子会造成不同的随机采样结果。
    • return 训练集特征值,测试集特征值、训练集目标值、测试集目标值
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_splitdef datasets_demo():"""sklearn数据集使用:return:"""# 获取数据集iris = load_iris()# 数据集划分x_train, x_test, y_train, y_test = train_test_split(iris.data, iris.target, test_size=0.2)print("训练集特征值:\n", x_train, x_train.shape)print("训练集目标值:\n", y_train, y_train.shape)print("测试集特征值:\n", x_test, x_test.shape)print("测试集目标值:\n", y_test, y_test.shape)return Noneif __name__ == '__main__':datasets_demo()

2.2 特征工程介绍

2.2.1 为什么要做特征工程

数据和特征决定了机器学习的上限,而模型和算法只是逼近这个上限。

2.2.2 什么是特征工程

特征工程是使用专业背景知识和技巧处理数据,使得特征能在机器学习算法上发挥更好的作用的过程。

  • 意义:会直接影响机器学习的效果。

在特征工程里面,我们使用的是sklearn,而不是pandas(数据清洗、数据处理)。

2.3 特征提取

2.3.1 概念

将任意数据(如文本或图像)转换为可用于机器学习的数字特征

  • 字典特征提取(特征离散化)
  • 文本特征提取
  • 图像特征提取

2.3.2 特征提取API

sklearn.feature_extraction

2.3.3 字典特征提取

类别 -> one-hot编码

向量用一维数组进行表示

sklearn.feature_extraction.DictVetorizer(sparse = True,...)
# sparse(稀疏) = True: 会把该矩阵采用三元组进行存储,只存储不为零的元素,按照(行,列,值)存储,目的是为了节约空间
# sparse(稀疏) = False: 按照正常矩阵存储Dictverorizer.fit_transform(x) x:字典或包含字典的迭代器返回值:返回sparse矩阵

应用场景:

当数据集中类别特征比较多

  • 如果不是字典,则将数据集特征 --> 字典类型,否则不用
  • 利用DictVetorizer进行转换

示例:

from sklearn.feature_extraction import DictVectorizerdef dict_demo():city_dict = [{'city': '北京', 'temperature': 100}, {'city': '上海', 'temperature': 60},{'city': '深圳', 'temperature': 30}, ]# 1. 实例化对象transformer = DictVectorizer(sparse=False)# 2. 调用fit_transform方法city_dict = transformer.fit_transform(city_dict)# 3. 打印矩阵特征值名称print("city_dict_feature:\n", transformer.get_feature_names_out())# 4. 打印矩阵内容print("city_dict:\n", city_dict)return Noneif __name__ == '__main__':dict_demo()

2.3.4 文本特征提取

作用:对文本数据进行特征值化

sklearn.feature_extraction.text.CountVectorizer(stop_words=[])	# stop_words 里面可以写不需要分类的词 返回值为词频矩阵CountVectorizer.fit_transform(X) # X : 文本或包含文本字符串的可迭代对象  返回值:返回sparse矩阵CountVectorizer.inverse_transform(X) # X : array数组或sparse矩阵   返回值:转换之前的数据格式CountVectorizer.get_feature_names()  # 返回值:单词列表

示例(英文句子)

from sklearn.feature_extraction.text import CountVectorizerdef count_demo():dict_list = ["life is short,I like python", "life is too long,I dislike python"]# 1. 实例化对象transfer = CountVectorizer()# 2. 调用fit_transform方法dict_list = transfer.fit_transform(dict_list)# 3. 打印特征名称print("feature_names:\n", transfer.get_feature_names_out())# 4. 打印结果print("dict_list:\n", dict_list)# 5. 换行为数组print("dict_list:\n", dict_list.toarray())# 6. 把特征名按照顺序排序print("vocabulary:\n", transfer.vocabulary_)# 7. 调用inverse_transform方法print("inverse_transform:\n", transfer.inverse_transform(dict_list))returnif __name__ == '__main__':count_demo()

示例(中文句子)

from sklearn.feature_extraction.text import CountVectorizerdef count_demo():dict_list = ["生活不能等待别人来安排,要自己去争取和奋斗;","而不论其结果是喜是悲,但可以慰藉的是,你总不枉在这世界上活了一场。","有了这样的认识,你就会珍重生活,而不会玩世不恭;同时,也会给人自身注入一种强大的内在力量。"]# 1. 实例化对象transfer = CountVectorizer()# 2. 调用fit_transform方法dict_list = transfer.fit_transform(dict_list)# 3. 打印特征名称print("feature_names:\n", transfer.get_feature_names_out())# 4. 打印结果print("dict_list:\n", dict_list)# 5. 换行为数组print("dict_list:\n", dict_list.toarray())# 6. 把特征名按照顺序排序print("vocabulary:\n", transfer.vocabulary_)# 7. 调用inverse_transform方法print("inverse_transform:\n", transfer.inverse_transform(dict_list))returnif __name__ == '__main__':count_demo()

由于中文没有空格,采用上面的方法处理不好,我们使用空格进行分割,如果句子多的话,太麻烦,所以我们使用jieba库来处理。

# 利用pip下载
pip install jieba# 查看
pip list

示例:中文(使用jieba)

from sklearn.feature_extraction.text import CountVectorizer
import jiebadef cut_word(text):"""中文分词,text为字符串:param text::return:"""return " ".join(list(jieba.cut(text)))def count_chinese_demo():"""中文文本特征抽取,自动分词:return:"""data = ["生活不能等待别人来安排,要自己去争取和奋斗;","而不论其结果是喜是悲,但可以慰藉的是,你总不枉在这世界上活了一场。","有了这样的认识,你就会珍重生活,而不会玩世不恭;同时,也会给人自身注入一种强大的内在力量。"]data_new = []# 1. 遍历data列表for sent in data:# 2. 中文分词data_new.append(cut_word(sent))print(data_new)# 3. 实例化对象transfer = CountVectorizer()# 4. 提取特征data_list = transfer.fit_transform(data_new)# 5. 打印特征名称print("特征名称\n", transfer.get_feature_names_out())# 6. 打印结果print("data_list\n", data_list)# 7. 转换为数组print(data_list.toarray())# 8. 把特征名称按照顺序排序print("特征名称排序\n", transfer.vocabulary_)# 9. 调用inverse_transform方法print("还原\n", transfer.inverse_transform(data_list))return Noneif __name__ == '__main__':count_chinese_demo()

前面的,我们使用是根据单词出现的次数进行分类,但是有的单词在每篇文章中都出现很高,没有区分度。

我们希望找到在一个类别的文章,出现的次数很多,但是在其他类别的文章中出现很少。

2.3.5 TF-IDF文本特征提取

  • TF-IDF的主要思想是:如果某个词或短语在一篇文章中出现的概率高,并且在其他文章中很少出现,则认为此词或者短语具有很好的类别区分能力,适合来分类。
  • TF-IDF作用:用以评估一字词对于一个文件集或一个语料库中的其中一份文件的重要程度。

利用下面公式进行计算

# TF(词频):指的是某一个给定的词语在该文件中出现的频率
# IDF(逆向文档频率):是一个词语普遍重要性的度量。某一特定词语的IDF,可以由总文件数目除以包含该词语的文件的数目,把其取以10为底的对数就可以得到
TF-IDF = TF(词频) * IDF(逆向文档频率)
API
sklearn.feature_extraction.text.TfidfVectorizer(stop_words=None)	# 返回词的权重矩阵TfidfVectorizer.fit_transform(X) # X : 文本或包含文本字符串的可迭代对象  返回值:返回sparse矩阵TfidfVectorizer.inverse_transform(X) # X : array数组或sparse矩阵   返回值:转换之前的数据格式TfidfVectorizer.get_feature_names()  # 返回值:单词列表

示例:

from sklearn.feature_extraction.text import TfidfVectorizer
import jiebadef cut_word(text):"""中文分词,text为字符串:param text::return:"""return " ".join(list(jieba.cut(text)))def count_chinese_demo():"""中文文本特征抽取,自动分词:return:"""data = ["生活不能等待别人来安排,要自己去争取和奋斗;","而不论其结果是喜是悲,但可以慰藉的是,你总不枉在这 世界上活了一场。","有了这样的认识,你就会珍重生活,而不会玩世不恭;同时,也会给人自身注入一种强大的内在力量。"]data_new = []# 1. 遍历data列表for sent in data:# 2. 中文分词data_new.append(cut_word(sent))print(data_new)# 3. 实例化对象transfer = TfidfVectorizer()# 4. 提取特征data_list = transfer.fit_transform(data_new)# 5. 打印特征名称print("特征名称\n", transfer.get_feature_names_out())# 6. 打印结果print("data_list\n", data_list)# 7. 转换为数组print(data_list.toarray())# 8. 把特征名称按照顺序排序print("特征名称排序\n", transfer.vocabulary_)# 9. 调用inverse_transform方法print("还原\n", transfer.inverse_transform(data_list))return Noneif __name__ == '__main__':count_chinese_demo()

2.4 特征预处理

通过一些转换函数将特征数据转换成更合适算法模型的特征数据过程。

数值型数据的无量纲化:

  • 归一化
  • 标准化

进行归一化/标准化是因为:

  • 特征的单位或者大小相差较大,或者某特征的方差相比其他的特征要大出几个数量级,容易影响(支配)目标结果,使得一些算法无法学习到其他的特征。

2.4.1 特征预处理API

sklearn.preprocessing

2.4.2 归一化

  1. 定义:通过对原始数据进行变换把数据映射到(默认[0,1])之间。

  2. 公式

    外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

2.4.3 API

sklearn.preprocessing.MinMaxScaler(feature_range=(0,1))MinMaxScalar.fit_transform(X)X: numpy arrayg格式的数据[n_samples,n_features]	# n_samples(样本数即一行的数据) * n_features(有几个特征)返回值:转换后的形状相同的array

示例:

from sklearn.datasets import load_iris
from sklearn.preprocessing import MinMaxScalerdef minmax_demo():"""归一化:return:"""# 1. 获取数据iris = load_iris()# 2. 实例化转换器类minmax = MinMaxScaler()# 3. 调用fit_transform()方法iris.data = minmax.fit_transform(iris.data)# 4. 打印print(iris.data)return Noneif __name__ == '__main__':minmax_demo()

使用归一化的时候,里面需要借助min/max,如果这两个值是异常值,则最后计算的结果会受到影响。所以这种方法鲁棒性比较差,只适合于传统精确小数据的场景。

2.4.4 标准化

  1. 定义:通过对原始数据进行变换把数据变换到均值为0,标准差为1范围内。

  2. 公式:

    外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

2.4.5 API

sklearn.preprocessing.StandardScaler()处理之后,对每列来说,所有数据聚集再均值为0、标准差为1附近StandardScaler.fit_transform(X)X : numpy array格式的数据[n_samples,n_features]返回值:转换后形状相同的array

示例:

from sklearn.datasets import load_iris
from sklearn.preprocessing import StandardScalerdef standard_demo():"""标准化:return:"""# 1. 获取数据iris = load_iris()# 2. 实例化转换器类minmax = StandardScaler()# 3. 调用fit_transform()方法iris.data = minmax.fit_transform(iris.data)# 4. 打印print(iris.data)return Noneif __name__ == '__main__':standard_demo()

在已有样本足够多的情况下比较稳定,适合去处理现代嘈杂大数据场景。

2.4.6 总结

  • 对于归一化来说:如果出现异常点,影响了最大值和最小值,那么结果显示会发生变化
  • 对于标准化来说:如果出现异常点,由于具有一定数据量,少量的异常点对于平均值的影响并不大,从而标准差改变较小

2.5特征降维

2.5.1 标量、向量、矩阵、张量的关系

在这里插入图片描述

2.5.2 降维概念

指的某些限定条件下,降低随机变量(特征)个数,得到一组“不相关”主变量的过程。(也就是线代里面的极大无关组)

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

补充:我们在进行训练的时候,使用的是特征进行学习。如果特征本身存在问题或特征之间相关性较强,对于算法学习预测会影响比较大。

2.5.3 降维的两种方式

  • 特征选择
  • 主成分分析

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com