hi是什么意思线翻译读音例句-单词查询


2023年4月3日发(作大暑 者:南京解放军理工大学)

机器学习模型bin

根据数据标记分类:

监督学习:训练集中的目标是由人标注的

无监督学习:输入数据没有被标记,也没有确定的结果。样本数据类别未

知,需要根据样本间的相似性对样本集进行分类(聚类,clustering)试图使

类内差距最小化,类精神抖擞的近义词 间差距最大化。

半监督学习:让学习器不依赖外界交互、自动地利用未标记样本来提升学

习性能,就是半监督学习。半监督学习可进一步划分为纯半监督学习和直推学

习,前者假定训练数据中的未标记样本并非待测的数据,而后者则假定学习过

程中所考虑的未标记样本恰是待预测数据,学习的目的就是在这些未标记样本

上获得最优泛化性能。

根据应用类型分类:

1.强化学习

2.迁移学习

一、线性回归

二、逻辑回归

优点:计算事件概率,能减少极端值的影响

缺点:是由时间的线性分布转化为概率来进行判断,所以只适合线性分布

的数据,实际上我们会采用更多的方法对逻辑回归的结果进行评估。如:精确

度,混淆矩阵。

三、K临近算法:环境会影响决策

step1:找到待测样本周围最近的已知样本点,这一步需要定义空间、距

离公式。

step2:录入样本点信息。

step3:找最近的k个样本点。

step4:找到最近的k个样本点中,哪个类别最多。

k临近算法和逻辑回归都是做分类问题,K只关注待测样本的局部分布,

所以不需要用到loss函数(交叉熵函数)。逻辑回归则关注是对全局分布,K

还可以用来做推荐系统。

优点:直观,好解释;局部分布,不需要估算整体。

缺点:局部估算可能不符合全局的分布;不能计算概率;对K的取值非常

敏感:通常为了保证一个合理的K的取值,我们会采取交叉验证找到哪个K的

设置会保证最优的估算。

四、决策树

决策树是一种树形结构,其中每个内部节点表示一个属性上的测试,每个

分支代表一个测试输出,每个叶节点代表一种类别。决策树的生成算法有ID3,

C4.5和C5.0等。决策树是一种树形结构,其中每个内部节点表示一个属性上

的判断,每个分支代表一个判断结果的输出,最后每个叶节点代表一种分类结

果。

决策树生成的主要分为两步:

step1:节点的分裂:一般当一个节点所代表的属性无法给出判断时,则

选择将这一节点分成2个子节点(如不是二叉树的情况会分成n个子节点)。

step2:阈值的确定:选择适当的阈值使得分类错误率最小。比较常用的

决策树有ID3,C4.5和CART,CART的分类效果一般优于其他决策树。下面

介绍具体步骤。ID3:由增熵原理来评估当前条件下的所有情况并决定哪个做父

节点,那个节点需要分裂。对于一组数据,熵越小说明分类结果越好。因为熵

等于零是理想状态,一般实际情况下,熵介于0和1之间。熵的不断最小化,

实际上就是提高分类正确率的过程。

五、梯度下降法

梯度下降在机器学习中应用十分的广泛,不论是在线性回归还是Logistic

回归中,它的主要目的是通过迭代找到目标函数的最小值,或者收敛到最小

值。梯度是一个向量,具有大小和方向。想象我们在推敲文言文原文及翻译 爬山,从我所在的位置出

发可以从很多方向上山,而最陡的那个方向就是梯度方向。

对函数f(x1,x2,…,xn)f(x1,x2,…,xn)来讲,对于函数上的每一个点

P汉字怎么写 (x1,x2,…,xn)P(x1,x2,…,xn)马说作者 ,我们都可以定义一个向量{∂f∂x1,∂f∂x2,…,∂f∂

xn}{∂f∂x1,∂f∂x2,…,∂f∂xn},这个向量被称为函数ff在点PP的梯度

(gradient),记为∇f(x1,x2,…,xn)∇f(x1,x2,…,xn)。函数ff在PP点沿着梯度方

向最陡,也就是变化速率最快。比如对于二元函数f(x,y)f(x,y)来讲,我们先将

函数的偏导数写成一个向量{∂f∂x,燕然未勒归无计 ∂f∂y}{∂f∂x,∂f∂y},则在点(x0,y0)(x0,y0)处

的梯度为{∂f∂x0,∂f∂y0}{∂f∂x0,∂f∂y0}。

梯度方向是函数上升最快的方向,沿着梯度方向可以最快地找到函数的最

大值,而我们要求误差的最小值,所以在梯度下降中我们要沿着梯度相反的方

向。梯度下降只能知道导数方向,并不知道最优点的距离,所以我们需要手动

设定一个步长,它对学习率很敏感,不能保证全局最优性

六、Kmeans物以类聚(无监督学习)

1、随机从数据集中选取K个样本当做centroids

2、对于数据集中的每个点,计算它距离每个centroid的距离,并把它归

为距离最近的那个cluster,更新新的centroid位置。

3、重复2,直到centroid的位置不再改变。

优点:非监督类的算法不需要样本的标注信息。

缺点:不能利用到数据的标注信息,意味着模型的性能不如其他监督学

习;对于K的取值,也就是你认为数据集中的样本应该分为几类,这个参数的

设置极为敏感

七、向量支持机

目的是找到分界面,并最大化这个间距,即等于最小化间距倒数的平方。

SVMLOSSFUNCTION:Loss()=||||^2/2,所以也叫大间隔分类器。

优点:是强分类器,能保证最大化区分两个类别,所以模型的性能优异。

缺点:Hard-marginSVM是线性分类器不能处理不同类别相互交融情

况关于冬季古诗大全 ,在这种情况下可以强制允许对于一些错误样本的分类来保持大体上的容错

率,这就是SOFT_MARGINSVM分类器,不可用于求解线性完全不可分的情

况当出现这种情况时,会引入KERNEL,来把数据映射到更高的维度,用线性

超平面去使用。

八、随机森林

是一种集成学习中Bagging类型算法即引导聚合类算法,内部是多个弱监

督模型结合,这类算法不专注于解决困难样本,所以模型的Performanc磐石无转移 e往往

会受限,集成学习中的另一种算法Boosting,即可解决这种缺点。森林意思是

模型中包含很多决策树。随机意思是从数据集中采用以训练模型中的每颗决策

树(即看问题角度不一样)。

设计步骤:

1、预设模型的超参数,几棵树,分几层?

2、随机采用,训练每个决策树。

3、输待测样本到每个树中,再将每个树的结果整合求均值或者求众

数。

优点:模型随机性很强,不容易overfit,但是抗噪性强,表示对异常点

outlier不敏感,处理高位数据相对更快。树状结构,模型可解释度高,可以告

诉你每个特征的重要性

缺点:模型往往过于General不具备正确处理过于困难的样本的能力

九、Adaboost

可以解决随机森林的问题,一句话总结特点,前人栽树,后人乘凉!

ADABOOST:自适应增强算法,后一个模型的训练永远是在前一个模型的基础

上完成的,是顺序,级联的结构。

step1:对于训练每个weaklearner计算样本困难度,初始化所有样本的

困难度为wi=1/N。利用当前weaklearner的训练结果更新所有样本的困难

度,如果正确则减少困难反正增加,然后在这个基础上训练下一个模型。

step2:学习每个weaklearner的权重,然后权限*输出整合起来。

优点:顺序,级联的结构+利用权重组合结果擅长解决困难问题,模型性

能的天花板高。

缺点:容易erfit,对于异常点Outlier过于敏感,模型的性能起点低,速

度慢。

更多推荐

bin是什么意思在线翻译读音例句