Ta上传的资源 (0)

全称:eXtreme Gradient Boosting 基础:GBDT 所属:boosting迭代型、树类算法。 适用范围:分类、回归 优点:速度快、效果好、能处理大规模数据、支持多种语言、支 持自定义损失函数等等。 缺点:发布时间短(2014),工业领域应用较少,待检验

XGBoost是很多CART回归树的集成,也是一个大规模、分布式的通用GBDT库。它在GB框架下实现了GBDT(换句话说XGBoost拓展了GBDT),以及一些广义的线性机器学习算法。

美国大学生数学建模竞赛(MCM/ICM),是唯一的国际性数学建模竞赛,也是世界范围内最具影响力的数学建模竞赛,为现今各类数学建模竞赛之鼻祖。MCM/ICM是MathematicalContestInModeling和InterdisciplinaryContestInModeling的缩写,即"数学

t-SNE(t-distributedstochasticneighborembedding):t分布随机邻域嵌入是用于高维数据的降维算法,是由LaurensvanderMaaten和GeoffreyHinton在08年提出来。此外,t-SNE是一种非线性降维算法,非常适用于高维数据降到2维或者3维

t-SNE算是比较新的一种方法,也是效果比较好的一种方法。t-SNE是深度学习大牛Hinton和lvdmaaten(他的弟子?)在2008年提出的,lvdmaaten对t-SNE有个主页介绍:tsne,包括论文以及各种编程语言的实现。