黑马程序员机器学习Day2学习笔记_深度学习与cv入门 黑马程序员-程序员宅基地

技术标签: 算法  黑马程序员  机器学习  深度学习  KNN  贝叶斯  

回顾传统机器学习算法流程:

  • 1.获取数据
  • 2.数据处理
  • 3.特征工程
  • 4.机器学习算法训练
  • 5.模型评估

总结本章内容: 1.KNN算法用于小型数据集的分类 2.朴素贝叶斯用于特征于特征之间关系不强的算法,比如文本的分类 3.决策树算法用于大型的数据集中

一.转换器和预估器

Day1的时候我们学习了获取数据,特征工程。(Day1中我们并没有没有使用到数据处理,因为我们的数据都是来自sklearn官方的数据库,这个数据库基本都是完整的,直接调用就行了)

转换器作用: 进行特征工程的父类 (Transformer) 调用:fit_transform来完成数据的处理

需要注意的点:fit_transform = fit + transform

Fit(): Method calculates the parameters μ and σ and saves them as internal objects.

解释:简单来说,就是求得训练集X的均值啊,方差啊,最大值啊,最小值啊这些训练集X固有的属性。计算mean, std数值,可以理解为一个训练过程

Transform(): Method using these calculated parameters apply the transformation to a particular dataset.

解释:计算公式:(x-mean)/std ,在Fit的基础上,将mean和std的数值带入,进行标准化,所以transform前需要fit这一步;降维,归一化等操作(看具体用的是哪个工具,如PCA,StandardScaler等)。

实例化过程中需要注意的点,训练集x_train使用fit_transform,而测试集只需要使用transform,不用fit(因为它需要统一方差,均值这些标准)

    transfer = StandardScaler()
    x_train = transfer.fit_transform(x_train)
    x_test = transfer.transform(x_test) #这里不是用fit_transform,因为要统一标准

预估器作用: 对数据进行训练的父类(estimator)

预估器,顾名思义,就说进行预测这步的函数。(我们的目的就是说输入一个东西(比如猫狗的图片),他能够进行预测这个东西是什么)

注意的点:前面转换器我们有使用fit_transform和transform,而在预估器这里,我们只使用fit,而不用transform。

模型评估: 方法1:直接比对真实值和预测值 y_predict = estimator.predict(x_test) 方法2:计算准确率,计算分数 accuracy = estimator.score(x_test, y_test)

分类问题

二. KNN算法

讲完预估器后,我们来学习一下KNN分类算法。

简单来讲,就是我越靠近谁,我就和他归为一类。

比如我们已知A,B,C,D分别为4个象限的点,我们要判断点E为哪个象限,我们就计算E到点A,B,C,D四个点的距离来判断,因为它最靠近点A,所以我们将E归为第一象限。(这是K=1的情况)

K=1就容易受到异常点的影响,如下图所示,E离第四象限的D比较近,因此我们判定E为第四象限的点。

所以K=1就容易受到异常点的影响。

因此我们一般K会适当的调整,但是如果K太大,会受到样本不均衡的影响。

我们以鸢尾花种类预测作为KNN算法的案例: 1)获取数据 2)数据集划分 3)特征工程——标准化 4)KNN预估器流程 5)模型评估

def knn_iris():
    """
    用KNN算法对鸢尾花进行分类
    :return:
    流程:
    1.获取数据
    2.数据集划分
    3.特征工程, 标准化
    4.KNN预估器流程
    5.模型评估
    """


    # 1)获取数据
    iris = load_iris()

    # 2)划分数据集
    x_train, x_test, y_train, y_test = train_test_split(iris.data, iris.target, random_state=22)#random_state 随机数种子

    # 3)特征工程:标准化
    transfer = StandardScaler()
    x_train = transfer.fit_transform(x_train)
    x_test = transfer.transform(x_test) #这里不是用fit_transform,因为要统一标准
    #x_train和x_test需要使用同一个标准差和方差进行计算。fit是用于计算标准差和方差,因为要和train一致
    #因此test这里不用fit

    # 4)KNN算法预估器
    estimator = KNeighborsClassifier(n_neighbors=3#n_neighbors 就是K的数值
    #注意:这里只使用到了fit,就是相当于训练,输入训练集的输入x和训练集的目标值y
    estimator.fit(x_train, y_train)

    # 5)模型评估
    # 方法1:直接比对真实值和预测值
    y_predict = estimator.predict(x_test)
    print("y_predict:\n", y_predict)
    print("直接比对真实值和预测值:\n", y_test == y_predict)

    # 方法2:计算准确率
    score = estimator.score(x_test, y_test)
    print("准确率为:\n", score)

    return None


网格搜索和交叉验证

交叉验证:即将原来的训练集再拆分成训练集和验证集

数据集本应分成三份,1.训练集,2,验证集, 3.测试集, 只不过我们一般都去掉了中间的验证集。

交叉验证多一个验证集后,我们可以通过截取不同片段作为验证集,然后通过求平均准确率作为模型的准确率。

网格搜索: 比如KNN算法,K的取值对最后评判是有影响的,我们如何选取一个最佳的结果呢? 可以使用暴力检索的方式,也就是一个一个K值去测试。我们设置一个K值表,然后一个个的去测试哪一个K值好。

def knn_iris_gscv():
    """
    用KNN算法对鸢尾花进行分类,添加网格搜索和交叉验证
    :return:
    """

    # 1)获取数据
    iris = load_iris()

    # 2)划分数据集
    x_train, x_test, y_train, y_test = train_test_split(iris.data, iris.target, random_state=22)

    # 3)特征工程:标准化
    transfer = StandardScaler()
    x_train = transfer.fit_transform(x_train)
    x_test = transfer.transform(x_test)

    # 4)KNN算法预估器
    estimator = KNeighborsClassifier()

    # 加入网格搜索与交叉验证
    # 参数准备
    param_dict = { "n_neighbors": [1357911]}
    estimator = GridSearchCV(estimator, param_grid=param_dict, cv=10# 验证集
    estimator.fit(x_train, y_train)

    # 5)模型评估
    # 方法1:直接比对真实值和预测值
    y_predict = estimator.predict(x_test)
    print("y_predict:\n", y_predict)
    print("直接比对真实值和预测值:\n", y_test == y_predict)

    # 方法2:计算准确率
    score = estimator.score(x_test, y_test)
    print("准确率为:\n", score)

    # 最佳参数:best_params_
    print("最佳参数:\n", estimator.best_params_)
    # 最佳结果:best_score_
    print("最佳结果:\n", estimator.best_score_)
    # 最佳估计器:best_estimator_
    print("最佳估计器:\n", estimator.best_estimator_)
    # 交叉验证结果:cv_results_
    print("交叉验证结果:\n", estimator.cv_results_)

    return None

和前面KNN算法相比,就是多了GridSearchCV函数。

    # 参数准备
    param_dict = { "n_neighbors": [1357911]}
    estimator = GridSearchCV(estimator, param_grid=param_dict, cv=10# 验证集
    estimator.fit(x_train, y_train)

KNN案例:Facebook预测签到位置

算法步骤: 1.获取数据 2.数据处理(之前使用sklearn库的时候,都没有这步筛选数据这步) 3.特征工程 4.训练 5.模型评估

主要和鸢尾花KNN不同的在于,这里的数据需要自己处理

自己提的需求:选择 2<x<2.5, 1<y<1.5,一个地方的签到次数需要>3次,将时间戳转成年月日的形式

import pandas as pd
# 数据集划分
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.neighbors import KNeighborsClassifier
from sklearn.model_selection import GridSearchCV
#因为是导入csv数据文件,所以使用Pandas库来进行处理。
# 1、获取数据
data = pd.read_csv("./FBlocation/train.csv"#看你自己train.csv在哪一个文件夹中

#数据处理(筛选数据)


# 1)缩小数据范围 data.query
data = data.query("x < 2.5 & x > 2 & y < 1.5 & y > 1.0")

# 2)处理时间特征  to_datetime
time_value = pd.to_datetime(data["time"], unit="s"#将其转换成年月日

date = pd.DatetimeIndex(time_value) #要把数据插入到列表中
#将时间数据插入data中
data["day"] = date.day
data["weekday"] = date.weekday
data["hour"] = date.hour

# 3)过滤签到次数少的地点
#这里groupuby 计算的是place_id相同的, 其他row_id那些全部都是一样的数
place_count = data.groupby("place_id").count()["row_id"]
#place_count > 3 这里输出的是满足条件的布尔值,True和False
place_count[place_count > 3].head() 
data_final = data[data["place_id"].isin([place_count > 3].index.values)] #去取出place_count>3的索引,然后data[index],将那些数值取出


# 筛选特征值和目标值,将原本数据转成特征和目标值
x = data_final[["x""y""accuracy""day""weekday""hour"]]
y = data_final["place_id"]

#特征工程
x_train, x_test, y_train, y_test = train_test_split(x, y)

# 3)特征工程:标准化
transfer = StandardScaler()
x_train = transfer.fit_transform(x_train)
x_test = transfer.transform(x_test)

# 4)KNN算法预估器
estimator = KNeighborsClassifier()

# 加入网格搜索与交叉验证
# 参数准备
param_dict = { "n_neighbors": [3579]}
estimator = GridSearchCV(estimator, param_grid=param_dict, cv=3)
estimator.fit(x_train, y_train)

# 5)模型评估
# 方法1:直接比对真实值和预测值
y_predict = estimator.predict(x_test)
print("y_predict:\n", y_predict)
print("直接比对真实值和预测值:\n", y_test == y_predict)

# 方法2:计算准确率
score = estimator.score(x_test, y_test)
print("准确率为:\n", score)

# 最佳参数:best_params_
print("最佳参数:\n", estimator.best_params_)
# 最佳结果:best_score_
print("最佳结果:\n", estimator.best_score_)
# 最佳估计器:best_estimator_
print("最佳估计器:\n", estimator.best_estimator_)
# 交叉验证结果:cv_results_
print("交叉验证结果:\n", estimator.cv_results_)

朴素贝叶斯

KNN输出的是为一个答案,而朴素贝叶斯算法输出的是各个可能条件的概率。 应用:文本分类 说到底,贝叶斯就是KNN外的另一种分类算法,对于sklearn来讲,也还是一行代码解决问题

朴素贝叶斯 = 朴素 + 贝叶斯

朴素:指的是事件相互独立 贝叶斯即指贝叶斯公式:

联合概率、条件概率与相互独立

  • 联合概率:包含多个条件,且所有条件同时成立的概率 P(A, B)=P(A)P(B) P(程序员, 匀称) P(程序员, 超重|喜欢)

  • 条件概率

    P(A|B) B发生的条件下,A发生的概率 欢)

  • 相互独立:

    P(A, B) = P(A)P(B) <=> 事件A与事件B相互独立

如果样本量太小的话,计算的概率可能为0。所以加上一个拉普拉斯平滑算子。其公式如下所示

新闻分类栗子

def nb_news():
    """
    用朴素贝叶斯算法对新闻进行分类
    :return:
    """

    # 1)获取数据
    news = fetch_20newsgroups(subset="all")

    # 2)划分数据集
    x_train, x_test, y_train, y_test = train_test_split(news.data, news.target)

    # 3)特征工程:文本特征抽取-tfidf
    transfer = TfidfVectorizer()
    x_train = transfer.fit_transform(x_train)
    x_test = transfer.transform(x_test)

    # 4)朴素贝叶斯算法预估器流程
    estimator = MultinomialNB()
    estimator.fit(x_train, y_train)

    # 5)模型评估
    # 方法1:直接比对真实值和预测值
    y_predict = estimator.predict(x_test)
    print("y_predict:\n", y_predict)
    print("直接比对真实值和预测值:\n", y_test == y_predict)

    # 方法2:计算准确率
    score = estimator.score(x_test, y_test)
    print("准确率为:\n", score)

    return None

决策树

因为一个物体,他的特征不止一个。比如猫,他的耳朵,体态,颜色,尾巴这些都是他的特征。面对这么多特征,我们要如何更快速的进行判断?我们就需要对这些特征的重要性进行一个排序,先判断重要明显的特征,比如如果没有尾巴,那么这一定不是一只猫。根据特征的有用程度,进行物体的分类。这个就是决策树。

信息定义:消除随机不定性的东西。比如, 狗咬人,这个不算什么信息。人咬狗,这个信息量比较大。

信息熵

为了判断哪个参数影响更大,使用信息熵这个概念。解决了对信息的量化度量问题香农用信息熵的概念来描述信源的不确定度。

信息熵公式:

变量的不确定性越大,熵也就越大,把它搞清楚所需要的信息量也就越大. 一件事情越是确定,则他的信息熵越小。

信息增益: 当你得到这个特征后,总的信息熵的减小程度。 所以信息增益越大,所以这个特征信息越有用。 特征A对训练数据集D的信息增益g(D,A),定义为集合D的信息熵H(D)与特征A给定条件下D的信息条件熵H(D|A)差,即公式为 g(D,A)=H(D)-H(D|A)

H(D|A)的计算公式如下:

总的信息熵 - 只给特征A条件下的概率。

H(D|A)计算举个栗子: 数据集:

现在要求H(D|年龄),查看年龄对于贷款的影响。 H(D|年龄)=1/3H(青年)+1/3H(中年)+1/3H(老年)

H(青年)=-(2/5log2/5 +3/5log3/5)

H(中年)=-(2/5log2/5 +3/5log3/5)

H(老年)=-(1/5log1/5 + 4/5log4/5)

带入信息增益的公式, g(D,年龄)=H(D)-H(D|年龄)带入即可计算出各个特征的信息增益。增益越大,说明知道这个特征后,可以消除越多的不确定性。 这个特征就应当越先作为条件划分。

决策树划分依据:信息增益

决策树的优点: 可视化——可解释能力强 缺点: 决策树不能很好的推广数据的泛化能力,容易产生过拟合。


def decision_iris():
  """
  用决策树对鸢尾花进行分类
  :return:
  """

  # 1)获取数据集
  iris = load_iris()

  # 2)划分数据集
  x_train, x_test, y_train, y_test = train_test_split(iris.data, iris.target, random_state=22)

  #决策树这里不用去标准化x_train这些
  # 3)决策树预估器
  estimator = DecisionTreeClassifier(criterion="entropy")
  estimator.fit(x_train, y_train)

  # 4)模型评估
  # 方法1:直接比对真实值和预测值
  y_predict = estimator.predict(x_test)
  print("y_predict:\n", y_predict)
  print("直接比对真实值和预测值:\n", y_test == y_predict)

  # 方法2:计算准确率
  score = estimator.score(x_test, y_test)
  print("准确率为:\n", score)

  # 可视化决策树
  export_graphviz(estimator, out_file="iris_tree.dot", feature_names=iris.feature_names)

  return None

这里生成了决策树文件,可以拷贝文件内容到决策树可视化网址中生成决策树文件。

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/qq_38376586/article/details/112104982

智能推荐

SK5搭建_sk5搭建脚本-程序员宅基地

文章浏览阅读2.6w次。下面是两个教程的链接腾讯云搭建Socks5多IP代理服务器https://blog.csdn.net/weixin_44471270/article/details/86184185Proxifier实现指定进程代理IPhttps://blog.csdn.net/weixin_44471270/article/details/86225073腾讯云更廉价的是学生云,但是9月多的时候腾讯改..._sk5搭建脚本

MYSQL的COMPACT行格式讲解-程序员宅基地

文章浏览阅读962次,点赞28次,收藏9次。MySQL 5.6.6之后,mysql的数据默认存放到 .ibd后缀的文件(独占表空间文件) 中。

C语言期末考试必备模板:排序法(初学者适用)(冒泡、选择)_排序模板-程序员宅基地

文章浏览阅读461次,点赞6次,收藏10次。简单的两种排序方法的笔记_排序模板

BMS养殖后台管理系统开发文档_bms后台-程序员宅基地

文章浏览阅读519次。—BMS养殖后台管理系统开发文档前言提示:这里可以添加本文要记录的大概内容:例如:随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习的基础内容。提示:以下是本篇文章正文内容,下面案例可供参考一、pandas是什么?示例:pandas 是基于NumPy 的一种工具,该工具是为了解决数据分析任务而创建的。二、使用步骤1.引入库代码如下(示例):import numpy as npimport pandas as pdimport _bms后台

YOLO-Darknet实战(七):Ubuntu下QT自建YOLOv4工程(C++版本)_darknet c++ ubuntu-程序员宅基地

文章浏览阅读1.2k次,点赞5次,收藏6次。全网最全YOLO-Darknet实战教程!_darknet c++ ubuntu

C#中汉字转区位码-程序员宅基地

文章浏览阅读511次,点赞8次,收藏7次。区位码是一个4位的十进制数,每个区位码都对应着一个唯一的汉字,区位码的前两位叫做区码,后两位叫做位码。

随便推点

如何在Linux系统中编译安装python3.11.2_linux系统如何使用python csdn-程序员宅基地

文章浏览阅读1.6k次,点赞5次,收藏15次。在centos中,最新版的python软件是不能通过yum install命令的方式进行直接下载安装,但能通过其他方式进行编译安装,目前小编学习了一种常用的方式。此步是将python的安装路径放入PATH环境变量中,并永久修改,因为每次开机,机器都会运行/etc下的bashrc文件,所以追加输出至此文件。9、开启2个进程进行编译(可通过top命令进行查看自己机器的核数),因为python也是使用c语言开发的,需要编译成二进制程序。11、修改PATH变量,添加python的安装路径。4、进入解压后的目录。_linux系统如何使用python csdn

webpack4.0 相关插件集_webpack4.0可以使用插件吗-程序员宅基地

文章浏览阅读164次。let HtmlWebpackPlugin = require('html-webpack-plugin');//网页模板插件let MiniCssExtractPlugin = require('mini-css-extract-plugin');//样式打包插件let OptimizeCss = require('optimize-css-assets-webpack-plugin')..._webpack4.0可以使用插件吗

《高性能利器》--异步调用有哪些实现方式?_怎么实现异步调用-程序员宅基地

文章浏览阅读377次。什么是异步同步调用:调用方在调用过程中,持续等待返回结果。异步调用:调用方在调用过程中,不直接等待返回结果,而是执行其他任务,结果返回形式通常为回调函数。脱离IO,单独讨论同步和异步,我们更加容易去理解它的原理,同步和异步其实属于一种通信机制,表达的是,我们在通信过程中,是主动去询问,还是等对方主动反馈。体现在同步(主动)和异步(被动)上。进程内异步调用1、Thread进程和线程:进程是资源分配的最小单位,线程是CPU调度的最小单位Java进程内最简单的异步调用方式,就是通过 new_怎么实现异步调用

BitMap类型常用命令_disable bitmap二进制怎么看-程序员宅基地

文章浏览阅读788次。offset:每个 BitMap 数据都是一个字符串,字符串中的每个字符都有其对应的索引,该索引从 0 开始计数。这个 offset的值的范围是[0,2^32 -1],即该 offset的最大值为 4G-1,即 4294967295,42 亿多。另外,对于不存在的 key 被当成是空字符串来处理,因此对一个不存在的 key 进行 BITCOUNT 操作,结果为 0。key:BitMap 是 Redis 的 key-value 中的一种 Value 的数据类型,所以该 Value 一定有其对应的 key。_disable bitmap二进制怎么看

[JAVA基础]String类型与char的相互转化_用java写string类型转换为char类型-程序员宅基地

文章浏览阅读320次。String.charAt( index ) 方法,返回在index位置的char字符。String.( ) 方法,将String 转化为 字符串数组。_用java写string类型转换为char类型

springcloud学习之路(一)-程序员宅基地

文章浏览阅读2.1w次,点赞14次,收藏62次。简介:1、使用eureka做注册中心2、使用restTemplate实现服务之间的调用以及rabbion的本地集群一、使用eureka做注册中心个人版本的初级springcloud总体结构总体说明: 会员和订单都以服务的形式存在(即只有接口,没有页面的那种工程),springcloud支持eureka、consul和zookeeper三种注册中心,所有的服务都需要注册到注册中心,个人觉..._springcloud学习

推荐文章

热门文章

相关标签