AI技术百科
458浏览
0点赞
时态数据 (temporal data)
05-15 23:35
446浏览
0点赞
合成特征 (synthetic feature)
05-15 23:34
483浏览
0点赞
监督式机器学习 (supervised machine learning)
05-15 23:34
532浏览
0点赞
结构风险最小化 (SRM, structural risk minimization)
05-15 23:34
411浏览
0点赞
随机梯度下降法 (SGD, stochastic gradient descent)
05-15 23:34
419浏览
0点赞
步长 (step size)
05-15 23:34
442浏览
0点赞
平稳性 (stationarity)
05-15 23:33
366浏览
0点赞
静态模型 (static model)
05-15 23:33
699浏览
0点赞
平方损失函数 (squared loss)
05-15 23:33
758浏览
0点赞
平方合页损失函数 (squared hinge loss)
05-15 23:33
709浏览
0点赞
稀疏特征 (sparse feature)
05-15 23:33
340浏览
0点赞
序列模型 (sequence model)
05-15 23:32
478浏览
0点赞
半监督式学习 (semi-supervised learning)
05-15 23:32
1579浏览
0点赞
660浏览
1点赞
正则化率 (regularization rate)
05-15 23:32
403浏览
0点赞
正则化 (regularization)
05-15 23:31
335浏览
0点赞
回归模型 (regression model)
05-15 23:31
541浏览
0点赞
修正线性单元 Rectified Linear Unit
一、Rectified Linear Unit:sigmoid函数若用sigmoid、双曲正切或softsign这种逻辑函数来做回归,将会不可避免地遭遇函数“饱和”,即x取值过大或过小,函数值接近常数,梯度消失。一般来说神经网络小于5层可以用sig
05-15 23:31