中培伟业IT资讯频道
您现在的位置:首页 > IT资讯 > 软件研发 > 调参与最终模型

调参与最终模型

2018-08-16 10:02:22 | 来源:中培企业IT培训网

2.2.4 调参与最终模型
     大多数学习算法都有些参数(parameter)需要设定,参数配置不同,学得模型的性能往往有显著差别.因此,在进行模型评估与选择时,除了要对适用学习算法进行选择,还需对算法参数进行设定,这就是通常所说的“参数调节”或简称“调参”(parameter tuning).
   读者可能马上想到,调参和算法选择没什么本质区别:对每种参数配置都训练出模型,然后把对应最好模型的参数作为结果,这样的考虑基本是正确的,机器学习常涉及两掌参数:一类是算法的参霆  但有一点需注意:学习算法的很多参数是在实数范围内取值,因此,对每种参数亦称”超参数“,数目常在配置都训练出模型来是不可行的,现实中常用的做法,是对每个参数选定一个10以内:另一类是模型昏参数,数目可能很多』篇  范围和变化步长,例如在[0;0.2]范围内以0.05为步长,则实际要评估的候选参如大型“深度学习”模型  数值有5个,最终是从这5个候选值中产生选定值.显然,这样选定的参数值往甚至有上百亿个参数,一者调参方式相似均是零  往不是“最佳”值,但这是在计算开销和性能估计之间进行折中的结果,通过生多个模型之后基于某萎  这个折中,学习过程才变得可行,事实上,即便在进行这样的折中后,调参往往评估方法来进行选择:习同之处在于前者通常是由  仍很困难.可以简单估算一下:假定算法有3个参数,每个参数仅考虑5个候选人工设定多个参数候选釜值,这样对每一组训练/测试集就有53:125个模型需考察;很多强大的学习算后产生模型,后者则是通过学习来产生多个候选模法有不少参数需设定,这将导致极大的调参工程量,以至于在不少应用任务中,型(例如神经网络在不同  参数{轮数停止训练).  

标签: 最终模型