超参数Hyper-parameters的调试方法_hyperparams-程序员宅基地

技术标签: python  机器学习  深度学习  

前言

众所周知,机器学习和深度学习工作流中最困难的部分之一,就是为模型找到最好的超参数,机器学习和深度学习模型的性能与超参数直接相关。

维基百科上说,“ Hyperparameter optimization 或 tuning 是为学习算法选择一组最优的
hyperparameters 的问题”。

超参数调优的越好,得到的模型就越好。调优超参数可能是非常乏味和困难的,更像是一门艺术而不是科学。
1

超参数(Hyperparameters)

超参数是在建立模型时用于控制算法行为的参数。这些参数不能从常规训练过程中获得。在对模型进行训练之前,需要对它们进行赋值或者初始化。
2

调参的方式方法
1、传统手工搜索

在传统的调参过程中,我们通过训练算法手动检查随机超参数集,并选择符合我们目标的最佳参数集。

我们看看代码:

# importing required libraries
from sklearn.neighbors import KNeighborsClassifier
from sklearn.model_selection import train_test_split
from sklearn.model_selection import KFold, cross_val_score
from sklearn.datasets import load_wine

wine = load_wine()
X = wine.data
y = wine.target

# splitting the data into train and test set
X_train,X_test,y_train,y_test = train_test_split(X, y, test_size = 0.3, random_state = 14)

# declaring parameters grid
k_value = list(range(2,11))
algorithm = ['auto', 'ball_tree', 'kd_tree', 'brute']
scores = []
best_comb = []
kfold = KFold(n_splits=5)

# hyperparameter tunning
for algo in algorithm:
    for k in k_value:
        knn = KNeighborsClassifier(n_neighbors=k, algorithm=algo)
        results = cross_val_score(knn, X_train, y_train, cv=kfold)

        print(f'Score:{round(results.mean(),4)} with algo = {algo}, K = {k}')
        scores.append(results.mean())
        best_comb.append((k,algo))

best_param = best_comb[scores.index(max(scores))]
print(f'\nThe Best Score : {max(scores)}')
print(f"['algorithm': {best_param[1]} ,'n_neighbors': {best_param[0]}]")

缺点:

  1. 没办法确保得到最佳的参数组合。
  2. 这是一个不断试错的过程,所以,非常的耗时。
2、网格搜索

网格搜索是一种基本的超参数调优技术。它类似于手动调优,为网格中指定的所有给定超参数值的每个组合构建模型,评估并选择最佳模型。考虑上面的例子,其中两个超参数k_value =[2, 3, 4, 5, 6, 7, 8, 9, 10] & algorithm =[' auto ', ' ball_tree ', ' kd_tree ', ' brute '],在这个例子中,它总共构建了 9*4 = 36 种不同组合的模型。
3
让我们来了解一下 sklearnGridSearchCV 是如何工作的:

from sklearn.model_selection import GridSearchCV

knn = KNeighborsClassifier()
grid_param = { 'n_neighbors' : list(range(2,11)) , 
              'algorithm' : ['auto', 'ball_tree', 'kd_tree', 'brute'] }
              
grid = GridSearchCV(knn, grid_param, cv=5)
grid.fit(X_train, y_train)

# best parameter combination
grid.best_params_

# Score achieved with best parameter combination
grid.best_score_

# all combinations of hyperparameters
grid.cv_results_['params']

# average scores of cross-validation
grid.cv_results_['mean_test_score']

缺点:

由于它尝试了超参数的每一个组合,并根据交叉验证得分选择了最佳组合,这使得 GridsearchCV 非常慢。

3、随机搜索

使用随机搜索代替网格搜索的动机是,在许多情况下,所有的超参数可能不是同等重要的。随机搜索从超参数空间中随机选择参数组合,参数由 n_iter 给定的固定迭代次数的情况下选择。实验证明,随机搜索的结果优于网格搜索。
4
让我们来了解sklearn的RandomizedSearchCV是如何工作的:

from sklearn.model_selection import RandomizedSearchCV

knn = KNeighborsClassifier()

grid_param = { 'n_neighbors' : list(range(2, 11)) , 
              'algorithm' : ['auto', 'ball_tree', 'kd_tree', 'brute'] }

rand_ser = RandomizedSearchCV(knn, grid_param, n_iter=10)
rand_ser.fit(X_train, y_train)

# best parameter combination
rand_ser.best_params_

# score achieved with best parameter combination
rand_ser.best_score_

# all combinations of hyperparameters
rand_ser.cv_results_['params']

# average scores of cross-validation
rand_ser.cv_results_['mean_test_score']

缺点:

随机搜索的问题是它不能保证给出最好的参数组合

4、贝叶斯搜索

贝叶斯优化属于一类优化算法,称为基于序列模型的优化(SMBO)算法。这些算法使用先前对损失 f 的观察结果,以确定下一个(最优)点来抽样 f 。该算法大致可以概括如下。

  1. 通过不断地添加样本点来更新目标函数的后验分布,计算损失 f 的后验期望;
  2. 在新的点 X 的抽样损失 f ,从而最大化 f 的期望的某些方法。该方法指定 f 域的哪些区域最适于抽样。

重复这些步骤,直到满足某些收敛准则。
5
让我们用 scikit- optimizationBayesSearchCV 来理解它是如何工作的:

首先需要安装依赖包:

pip install scikit-optimize

代码如下:

from skopt import BayesSearchCV

import warnings
warnings.filterwarnings("ignore")

# parameter ranges are specified by one of below
from skopt.space import Real, Categorical, Integer

knn = KNeighborsClassifier()
#defining hyper-parameter grid
grid_param = { 'n_neighbors' : list(range(2,11)) , 
              'algorithm' : ['auto','ball_tree','kd_tree','brute'] }

#initializing Bayesian Search
Bayes = BayesSearchCV(knn , grid_param , n_iter=30 , random_state=14)
Bayes.fit(X_train,y_train)

#best parameter combination
Bayes.best_params_

#score achieved with best parameter combination
Bayes.best_score_

#all combinations of hyperparameters
Bayes.cv_results_['params']

#average scores of cross-validation
Bayes.cv_results_['mean_test_score']

另一个实现贝叶斯搜索的类似库是 bayesian-optimization

pip install bayesian-optimization

实现案例:

from bayes_opt import BayesianOptimization

def KNN_evaluate(n_neighbors, algo):
    """自定义的模型评估函数"""
    # 5-flod 交叉检验
    kfold = KFold(n_splits=5)
    algorithms = ['auto', 'ball_tree', 'kd_tree', 'brute']
    # 传入的参数需要是整数
    n_neighbors = int(n_neighbors)
    algo = int(algo)
    knn = KNeighborsClassifier(n_neighbors=n_neighbors, algorithm=algorithms[algo])
    # 注意BayesianOptimization会向最大评估值的方向优化
    val = cross_val_score(knn, X_train, y_train, cv=kfold).mean()

    return val

#defining hyper-parameter grid
grid_params = {'n_neighbors' : (1, 11), 'algo' : (-4.9, 3.9)}
# call bayes-opt
opt = BayesianOptimization(KNN_evaluate, grid_params)

# How many steps of bayesian optimization and random exploration you want to perform
opt.maximize(
    init_points=3,
    n_iter=6,
)

# get the max value of combinations
opt.max

# get all results
opt.res

缺点:

要在2维或3维的搜索空间中得到一个好的代理曲面需要十几个样本,增加搜索空间的维数需要更多的样本。

总结

在确定参数的最佳组合的保证和计算时间之间总是存在权衡。如果超参数空间(超参数个数)非常大,则使用随机搜索找到超参数的潜在组合,然后在该局部使用网格搜索(超参数的潜在组合)选择最优特征

参考文献:

1、英文原文:https://medium.com/swlh/4-hyper-parameter-tuning-techniques-924cb188d199
2、每个算法人员都应该知道的4个超参数调试方法
3、ML模型超参数调节:网格搜索、随机搜索与贝叶斯优化

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/june_young_fan/article/details/109627891

智能推荐

linux usb虚拟网卡(NCM)_linux usb ncm-程序员宅基地

文章浏览阅读6.6k次。1. kernel config<M>USB Gadget precomposed configurations<M>Ethernet Gadget (with CDC Ethernet support) <M>Network Control Model (NCM) support2. build modulesmake ARCH=arm64 CROSS_COMPILE=aar..._linux usb ncm

Struts 应用转移到 Struts 2-程序员宅基地

文章浏览阅读1.9k次。 翻译:SpringSide团队 转载请注明出处。有很多人都很熟悉 Struts, 无论是从项目中直接获得的实战经验还是从书中了解到的。我们这一系列文章,将通过一个由 Stuts 转移到 Struts2 简单的例子向大家展现Struts2的所有特征。 在我们开始这个例子之前,你需要去知道一点 Struts2的背景知识。 在第一部分的文章中,我们将介绍Struts2与Struts的核心

在Windows平台上安装MRTG流量监控软件_mrtg 下载-程序员宅基地

文章浏览阅读188次。打开MRTG软件包中的"MRTG.cfg"文件,该文件是MRTG的主配置文件。打开MRTG软件包中的"MRTG.cfg"文件,该文件是MRTG的主配置文件。确保将命令中的"C:\MRTG"替换为你的MRTG安装目录和配置文件路径,"community"替换为你的SNMP团体字符串,"device_ip"替换为目标设备的IP地址。确保将命令中的"C:\MRTG"替换为你的MRTG安装目录和配置文件路径,"community"替换为你的SNMP团体字符串,"device_ip"替换为目标设备的IP地址。_mrtg 下载

kaggle简单使用教程(代码查找.下载、项目建立.运行、参加比赛)_kaggle在线写代码-程序员宅基地

文章浏览阅读1w次,点赞7次,收藏35次。Kaggle机器学习竞赛、托管数据库、编写和分享代码_kaggle在线写代码

network.service - LSB: Bring up/down networking_network.service - lsb: bring up/down networking lo-程序员宅基地

文章浏览阅读3.1k次,点赞11次,收藏14次。CentOS7突然连接不了网络,使用systemctl status network后报如下错误network.service - LSB: Bring up/down networkingLoaded: loaded (/etc/rc.d/init.d/network; bad; vendor preset: disabled)Active: failed (Result: exit-code)【解决方案】停止NetworkManager并取消开机启动chkconfig NetworkMan_network.service - lsb: bring up/down networking loaded: loaded (/etc/rc.d/in

随便推点

OpenCV图像梯度_opencv 计算梯度图像-程序员宅基地

文章浏览阅读1.7k次。目标在本章中,我们将学习:寻找图像梯度、边缘等 我们将看到以下职能:cv2.sobel(), cv2.scharr(), cv2.Laplacian()等理论OpenCV提供三种类型的梯度滤波器或高通滤波器,Sobel、Scharr和Laplacian.我们会看到他们中的每一个。1.Sobel和Scharr衍生物¶Sobel算子是一种联合高斯平滑加微分运算,具有更强的..._opencv 计算梯度图像

flutter 聊天界面+表情图片_flutter表情包插件-程序员宅基地

文章浏览阅读2.6k次。网上找了找 零零碎碎有一些文章 没找到一个整体的 自己做完记录一下 防止忘了大体就是这样聊天气泡用的是https://blog.csdn.net/oterminator12/article/details/105790961这个文章看到的然后表情用的是https://blog.csdn.net/qq_36676433/article/details/104756685这个文章看到的整体结构及底部输入/表情选择部分body下的结构主要为最外层Column,然后聊天部分用F..._flutter表情包插件

win10应用:便签 商店 xbox等打不开,报错0x800704cf_xbox0x800704cf错误代码-程序员宅基地

文章浏览阅读2.8k次,点赞3次,收藏2次。登录便签,一直报错:执行此操作需要Internet,0x800704cf。笔者网络是没有问题的,其它程序可以正常访问。解决方法关闭代理1.Win+R打开运行,输入 inetcpl.cpl 打开internet选项界面2.切换到[连接]选项,点击局域网设置。红色框选处的两个勾取消。笔者上述配置后即可解决问题。如若还不能解决,试试下面这个方法设置DNS服务器地址,首选设置为4.2.2.1 备用设置为4.2.2.2..._xbox0x800704cf错误代码

conda命令克隆(复制)环境_conda clone-程序员宅基地

文章浏览阅读8.9w次,点赞55次,收藏138次。在服务器上想要使用别人搭好的环境,但是又怕自己对环境的修改更新会影响他人的使用,这个时候可以使用conda命令进行复制环境。首先假设已经安装了Anaconda。根据已有环境名复制生成新的环境假设已有环境名为A,需要生成的环境名为B:conda create -n B --clone A根据已有环境路径复制生成新的环境假设已有环境路径为D:\A,需要生成的新的环境名为B:conda ..._conda clone

Enterprise:使用 MySQL connector 同步 MySQL 数据到 Elasticsearch_mysql connectors-程序员宅基地

文章浏览阅读3.1k次。在本文中,我们非常详细地描述如何使用 MySQL connector 来同步 MySQL 和 Elasticsearch 的索引。它使用起来非常方便。如果大家对 Logstash 很熟悉的话,请参阅我之前的文章 “Elastic:开发者上手指南” 中的 “数据库数据同步章节。我们还可以使用 Pipeline 对数据进行清洗。这个就不做展示了。_mysql connectors

HttpClientUtils工具类-程序员宅基地

文章浏览阅读1.5k次。HttpClientUtils工具类。_httpclientutils