商圈搜索
|
帖子搜索
|
回复搜索
首页
>
AI技术百科
>
搜索
651
浏览
0
点赞
结构风险最小化 (SRM, structural risk minimization)
小小程序员
05-15 23:34
454
浏览
0
点赞
随机梯度下降法 (SGD, stochastic gradient descent)
小小程序员
05-15 23:34
481
浏览
0
点赞
步长 (step size)
小小程序员
05-15 23:34
391
浏览
0
点赞
步 (step)
小小程序员
05-15 23:33
566
浏览
0
点赞
平稳性 (stationarity)
小小程序员
05-15 23:33
389
浏览
0
点赞
静态模型 (static model)
小小程序员
05-15 23:33
818
浏览
0
点赞
平方损失函数 (squared loss)
小小程序员
05-15 23:33
795
浏览
0
点赞
平方合页损失函数 (squared hinge loss)
小小程序员
05-15 23:33
815
浏览
0
点赞
稀疏特征 (sparse feature)
小小程序员
05-15 23:33
468
浏览
0
点赞
softmax
小小程序员
05-15 23:33
373
浏览
0
点赞
序列模型 (sequence model)
小小程序员
05-15 23:32
604
浏览
0
点赞
半监督式学习 (semi-supervised learning)
小小程序员
05-15 23:32
1899
浏览
0
点赞
受试者工作特征曲线(receiver operating characteristic, 简称 ROC 曲线)
小小程序员
05-15 23:32
800
浏览
1
点赞
正则化率 (regularization rate)
小小程序员
05-15 23:32
476
浏览
0
点赞
正则化 (regularization)
小小程序员
05-15 23:31
370
浏览
0
点赞
回归模型 (regression model)
小小程序员
05-15 23:31
657
浏览
0
点赞
修正线性单元 Rectified Linear Unit
一、Rectified Linear Unit:sigmoid函数若用sigmoid、双曲正切或softsign这种逻辑函数来做回归,将会不可避免地遭遇函数“饱和”,即x取值过大或过小,函数值接近常数,梯度消失。一般来说神经网络小于5层可以用sig
小小程序员
05-15 23:31
423
浏览
0
点赞
召回率 (recall)
小小程序员
05-15 23:31
397
浏览
0
点赞
评分者 (rater)
小小程序员
05-15 23:31
438
浏览
0
点赞
等级 (rank)
小小程序员
05-15 23:31
上一页
1
2
…
12
13
14
15
16
17
18
…
23
24
下一页
今日排行
37条
1
神经网络
6条
2
data
3条
3
逻辑
16条
4
人工智能
69条
5
知识
5条
6
2021
8条
7
分类
2条
8
预测
5条
9
classification
本周排行
37条
1
神经网络
6条
2
data
3条
3
逻辑
16条
4
人工智能
69条
5
知识
5条
6
2021
8条
7
分类
2条
8
预测
5条
9
classification
本月排行
2条
1
增量学习
37条
2
神经网络
9条
3
线性回归
190条
4
学习
5条
5
贝叶斯
3条
6
Mul
2条
7
car
3条
8
paper
6条
9
data
免费注册体验
联系我们
咨询 • 合作
在线咨询
点击在线及时咨询
在线留言
提交您的问题
业务合作
15911018798
返回顶部
返回顶部