商圈搜索
|
帖子搜索
|
回复搜索
首页
>
AI技术百科
>
搜索
597
浏览
0
点赞
梯度下降(Gradient Descent)
小小程序员
05-09 14:41
731
浏览
1
点赞
朴素贝叶斯分类(Naive Bayesian Classification)
贝叶斯分类法是统计学分类方法,它可以预测类隶属关系的概率,如一个给定元组属于一个特定类的概率。贝叶斯分类基于贝叶斯定理。朴素贝叶斯分类法假定一个属性值在给定类上的概率独立于其他属性的值,这一假定称为类条件独立性。
小小程序员
05-14 16:32
1216
浏览
2
点赞
线性函数归一化(Min-Max Scaling)
线性函数归一化(Min-Max Scaling) 。 它对原始数据进行线性变换, 使结果映射到[0, 1]的范围, 实现对原始数据的等比缩放。
小小程序员
05-14 16:19
907
浏览
1
点赞
数据归一化(Normalization)
数据标准化(Normalization),也称为归一化,归一化就是将你需要处理的数据在通过某种算法经过处理后,限制将其限定在你需要的一定的范围内。
小小程序员
05-14 16:17
1337
浏览
0
点赞
relu函数-线性整流函数(Rectified Linear Unit, ReLU)
线性整流函数(Rectified Linear Unit, ReLU),又称修正线性单元,是一种人工神经网络中常用的激活函数(activation function),通常指代以斜坡函数及其变种为代表的非线性函数。
小小程序员
05-14 16:07
710
浏览
0
点赞
tanh函数
tanh是双曲函数中的一个,tanh()为双曲正切。在数学中,双曲正切tanh是由基本双曲函数双曲正弦和双曲余弦推导而来。
小小程序员
05-14 16:02
4192
浏览
9
点赞
分位数损失(Quantile Loss)
分位数损失函数在我们需要预测结果的取值区间时是一个特别有用的工具。通常情况下我们利用最小二乘回归来预测取值区间主要基于这样的假设:取值残差的方差是常数。
小小程序员
05-14 15:44
1171
浏览
1
点赞
Log-Cosh损失函数
对数双曲余弦是一种比L2更为平滑的损失函数,利用双曲余弦来计算预测误差
小小程序员
05-14 15:42
737
浏览
1
点赞
Huber损失——平滑平均绝对误差
Huber损失相比于平方损失来说对于局外点不敏感,但它同样保持了可微的特性。它基于绝对误差但在误差很小的时候变成了平方误差。
小小程序员
05-14 15:40
852
浏览
0
点赞
平均绝对误差——L1损失函数
平均绝对误差(MAE)也是一种常用的回归损失函数,它是目标值与预测值之差绝对值的和,表示了预测值的平均误差幅度,而不需要考虑误差的方向
小小程序员
05-14 15:38
749
浏览
0
点赞
均方误差(MSE)
均方误差(MSE)是回归损失函数中最常用的误差,它是预测值与目标值之间差值的平方和
小小程序员
05-14 15:36
863
浏览
0
点赞
sigmoid函数
sigmoid函数也叫Logistic函数,用于隐层神经元输出,取值范围为(0,1),它可以将一个实数映射到(0,1)的区间,可以用来做二分类。在特征相差比较复杂或是相差不是特别大时效果比较好。
小小程序员
05-14 13:01
3202
浏览
11
点赞
卷积神经网络(Convolutional Neural Networks)
卷积神经网络(Convolutional Neural Networks)是一种深度学习模型或类似于人工神经网络的多层感知器,常用来分析视觉图像。卷积神经网络的创始人是着名的计算机科学家Yann LeCun,目前在Facebook工作,他是第一个通过卷积神经网络在MNIST数据集上解决手写数字问题的人。
小小程序员
05-14 12:45
2986
浏览
17
点赞
BP(back propagation)神经网络
BP神经网络是一种多层的前馈神经网络,其主要的特点是:信号是前向传播的,而误差是反向传播的。具体来说,对于如下的只含一个隐层的神经网络模型:
小小程序员
05-14 12:23
756
浏览
1
点赞
机器学习之聚类算法
聚类算法是无监督学习,只需要数据,而不需要标记结果,通过学习训练,用于发现共同的群体。本文将介绍几种常见的聚类算法,包括K-means、层次聚类和GMM高斯混合模型等。
小小程序员
05-13 15:56
1023
浏览
2
点赞
图团体检测Graph Community Detection
当我们的数据可以被表示为网络或图是,可以使用图团体检测方法完成聚类。在这个算法中图团体(graph community)通常被定义为一种顶点(vertice)的子集,其中的顶点相对于网络的其他部分要连接的更加紧密。下图展示了一个简单的图,展示了最近浏览过的8个网站,根据他们的维基百科页面中的链接进行了连接。
小小程序员
05-13 15:52
2860
浏览
12
点赞
层次聚类算法
层次聚类算法实际上分为两类:自上而下或自下而上。自下而上的算法在一开始就将每个数据点视为一个单一的聚类,然后依次合并(或聚集)类,直到所有类合并成一个包含所有数据点的单一聚类。因此,自下而上的层次聚类称为合成聚类或HAC。聚类的层次结构用一棵树(或树状图)表示。
小小程序员
05-13 13:44
699
浏览
1
点赞
DBSCAN聚类算法
DBSCAN(Density-based Spatial Clustering of Applications with Noise)是一个比较有代表性的基于密度的聚类算法,类似于均值转移聚类算法,但它有几个显著的优点。
小小程序员
05-12 16:56
780
浏览
2
点赞
均值偏移聚类算法
小小程序员
05-12 16:55
708
浏览
0
点赞
K-MEANS聚类算法
小小程序员
05-12 16:55
上一页
1
2
…
16
17
18
19
20
21
22
…
23
24
下一页
今日排行
2条
1
学生
190条
2
学习
19条
3
人
5条
4
叶
5条
5
贝叶斯
176条
6
机器学习
16条
7
人工智能
6条
8
log
12条
9
区
本周排行
69条
1
知识
8条
2
分类
3条
3
逻辑
6条
4
data
11条
5
model
176条
6
机器
2条
7
分割
19条
8
回归
32条
9
模型
本月排行
69条
1
知识
8条
2
分类
3条
3
逻辑
6条
4
data
11条
5
model
176条
6
机器
2条
7
分割
19条
8
回归
32条
9
模型
免费注册体验
联系我们
咨询 • 合作
在线咨询
点击在线及时咨询
在线留言
提交您的问题
业务合作
15911018798
返回顶部
返回顶部