首先要说,这并不是一篇教你如何学习的文章,因为到今天为止我也没有找到一种通用的方法来解决如何学习的问题。但是在探索的道路上,我确实产生过一些思路,我想把这些思考的过程分享出来让大家探讨。如果这对你有帮助的话,那我会非常高兴。我最近在学习Rust,这是一门很酷但是相对冷门的语言(学习冷门语言可能是我的一大爱好,比如我就非常喜欢CoffeeScript,这是JavaScript的一门方言)。自从在某些语言的舒适区待久之后,经常会产生自己无所不能的错觉,这也是我不断想学习新语言的一大动力。而我的学习过程跟大多数
GBDT概述GBDT也是集成学习Boosting家族的成员,但是却和传统的Adaboost有很大的不同。回顾下Adaboost,我们是利用前一轮迭代弱学习器的误差率来更新训练集的权重,这样一轮轮的迭代下去。GBDT也是迭代,使用了前向分布算法,但是弱学习器限定了只能使用CART回归树模型,同时迭代思路和Adaboost也有所不同。在GBDT的迭代中,假设我们前一轮迭代得到的强学习器是,损失函数是,我们本轮迭代的目标是找到一个CART回归树模型的弱学习器,让本轮的损失损失最小。也就是说,本轮迭代找到决策
决策树简介决策树算是最好理解的分类器了。决策树就是一个多层if-else函数,就是对对象属性进行多层if-else判断,获取目标属性(类标签)的类别。由于只使用if-else对特征属性进行判断,所以一般特征属性为离散值,即使为连续值也会先进行区间离散化。在机器学习中,决策树是一个预测模型,他代表的是对象属性与类别属性之间的一种映射关系。分类决策树概念:是一种描述对实例进行分类的树形结构。决策树由结点和有向边组成。结点有两种类型:内部结点和叶结点。内部结点表示一个特征或属性,叶结点表示一个分类。思考:选哪些
可以通过聚集多个分类器的预测结果提高分类器的分类准确率,这一方法称为集成(Ensemble)学习或分类器组合(ClassifierCombination),该方法由训练数据构建一组基分类器(BaseClassifier),然后通过对每个基分类器的预测进行投票来进行分类。集成学习(ensemblelearning)通过组合多个基分类器(baseclassifier)来完成学习任务,颇有点“三个臭皮匠顶个诸葛亮”的意味。基分类器一般采用的是弱可学习(weaklylearnable)分类器,通过集成学习,组合成
在学习机器学习的路上一直折腾折腾着,之前用的pycharm,但是经师兄指点,发现spyder有着更好的控制台,变量显示等方便之处,一路磕磕绊绊的转到lspyder的使用上,在搜集了许多帖子之后,结合自己的修改过程,留下本博客,待日后遗忘之时拿来补救。(更新于8-2)spyder的官方文档:https://pythonhosted.org/spyder/(有时间了要好好看一下官方文档,虽然是英文的~~掩面遁走。。)Spyder是Python(x,y)的作者为它开发的一个简单的集成开发环境。和其他的Pytho
编辑推荐:本文将介绍sklearn中如何使用集成学习,模块还支持树的并行构建和预测结果的并行计算,希望对您的学习有所帮助。集成方法的目标是把多个使用给定学习算法构建的基估计器的预测结果结合起来,从而获得比单个估计器更好的泛化能力/鲁棒性。Bagging元估计器#产生样本数据集fromsklearn.model_selectionimportcross_val_scorefromsklearnimportdatasetsiris=datasets.load_iris()X,y=iris.data[:,1:3
油猴可以帮助我们在任意网页中镶嵌脚本来达到一些辅助我们的目的。油猴官网:https://tampermonkey.net/1.基本编写//==UserScript==//@name脚本的名称//@namespace可以写个人的网站什么的//@version版本号//@description脚本的描述//@author作者//@match匹配站点,在那个网页中启用该脚本,可使用正则进行匹配//@matchhttp://119.36.55.224:6850/zentao/my///@matchhttp://w