344浏览
1点赞

分类回归树 CART

分类回归树(CART,Classification And Regression Tree)也属于一种决策树,这里只介绍CART是怎样用于分类的。分类回归树是一棵二叉树,且每个非叶子节点都有两个孩子,所以对于第一棵子树其叶子节点数比非叶子节点数
314浏览
0点赞

multiple linear regression 多元回归分析

1.与简单线性回归区别(simple linear regression) 多个自变量(x)2. 多元回归模型y=β0+β1x1+β2x2+ … +βpxp+ε其中:β0,β1,β2… βp是参数ε是误差值3. 多元回归方程E(y)=β0+β1x1+β2x2+ … +βpxp4.
226浏览
0点赞
246浏览
0点赞
219浏览
0点赞
329浏览
0点赞

ElasticNet回归

ElasticNet是Lasso和Ridge回归技术的混合体。
315浏览
1点赞

Lasso Regression套索回归

它类似于岭回归,Lasso (Least Absolute Shrinkage and Selection Operator)也会惩罚回归系数的绝对值大小。
280浏览
0点赞
278浏览
0点赞
266浏览
0点赞

Polynomial Regression多项式回归

对于一个回归方程,如果自变量的指数大于1,那么它就是多项式回归方程
223浏览
0点赞

Logistic Regression逻辑回归

逻辑回归是用来计算“事件=Success”和“事件=Failure”的概率。当因变量的类型属于二元(1 / 0,真/假,是/否)变量时,我们就应该使用逻辑回归。
300浏览
0点赞

Linear Regression线性回归

线性回归通常是人们在学习预测模型时首选的技术之一。在这种技术中,因变量是连续的,自变量可以是连续的也可以是离散的,回归线的性质是线性的。
254浏览
0点赞
3261浏览
8点赞

分位数损失(Quantile Loss)

分位数损失函数在我们需要预测结果的取值区间时是一个特别有用的工具。通常情况下我们利用最小二乘回归来预测取值区间主要基于这样的假设:取值残差的方差是常数。
654浏览
1点赞

Log-Cosh损失函数

对数双曲余弦是一种比L2更为平滑的损失函数,利用双曲余弦来计算预测误差
323浏览
1点赞

Huber损失——平滑平均绝对误差

Huber损失相比于平方损失来说对于局外点不敏感,但它同样保持了可微的特性。它基于绝对误差但在误差很小的时候变成了平方误差。
336浏览
0点赞

平均绝对误差——L1损失函数

平均绝对误差(MAE)也是一种常用的回归损失函数,它是目标值与预测值之差绝对值的和,表示了预测值的平均误差幅度,而不需要考虑误差的方向
309浏览
0点赞

均方误差(MSE)

均方误差(MSE)是回归损失函数中最常用的误差,它是预测值与目标值之间差值的平方和
相关搜索
您是不是在找?
今日排行
本周排行
本月排行
专业服务,成就每一位AI数据科学家
免费注册体验
联系我们