Select Language

AI技术百科

AI影响力人物

世界经济论坛(WEF)未来计算机全球未来理事会主席,卡耐基梅隆大学计算机学院副院长 ,卡塞尔是人形对话代理的发明人,其研究在业界影响深远,最著名的研究成果就是在世界经济论坛上展出的社会感知机器人助理SARA,还有Yahoo-CMU未来私人助手研究项目。卡塞尔尝试将这...
299浏览
3点赞

KNN算法(K最近邻算法)详解

K 最近邻的核心数学知识是距离的计算和权重的计算。我们把需要预测的点作为中心点,然后计算其周围一定半径内的已知点距其的距离,挑选前 k 个点,进行投票,这 k 个点中,哪个类别的点多,该预测点就被判定属于哪一
669浏览
1点赞

KNN算法的优缺点

优点:简单,易于理解,无需建模与训练,易于实现;适合对稀有事件进行分类;适合与多分类问题,例如根据基因特征来判断其功能分类,kNN比SVM的表现要好。缺点:惰性算法,内存开销大,对测试样本分类时计算量大,性
219浏览
0点赞

KNN算法的流程

KNN算法的流程计算测试数据与各个训练数据之间的距离;按照距离的递增关系进行排序;选取距离最小的K个点;确定前K个点所在类别的出现频率;返回前K个点中出现频率最高的类别作为测试数据的预测分类。下图中给出了KN
258浏览
0点赞

随机森林的Python实现

  利用Python的两个模块,分别为pandas和scikit-learn来实现随机森林。fromsklearn.datasetsimportload_irisfromsklearn.ensembleimportRandomForestClassifierimportpandasaspdimportnumpyasnpiris=load_iris()df
333浏览
1点赞

随机森林工作原理解释的一个简单例子

  描述:根据已有的训练集已经生成了对应的随机森林,随机森林如何利用某一个人的年龄(Age)、性别(Gender)、教育情况(Highest Educational Qualification)、工作领域(Industry)以及住宅地(Residence)共5
234浏览
0点赞

随机森林的生成

  前面提到,随机森林中有许多的分类树。我们要将一个输入样本进行分类,我们需要将输入样本输入到每棵树中进行分类。打个形象的比喻:森林中召开会议,讨论某个动物到底是老鼠还是松鼠,每棵树都要独立地发表自己
235浏览
0点赞

随机森林的相关基础知识

  随机森林看起来是很好理解,但是要完全搞明白它的工作原理,需要很多机器学习方面相关的基础知识。在本文中,我们简单谈一下,而不逐一进行赘述,如果有同学不太了解相关的知识,可以参阅其他博友的一些相关博文
414浏览
0点赞

随机森林的特点

 我们前边提到,随机森林是一种很灵活实用的方法,它有如下几个特点:在当前所有算法中,具有极好的准确率/It is unexcelled in accuracy among current algorithms;能够有效地运行在大数据集上/It runs efficient
225浏览
0点赞

什么是随机森林?

作为新兴起的、高度灵活的一种机器学习算法,随机森林(Random Forest,简称RF)拥有广泛的应用前景,从市场营销到医疗保健保险,既可以用来做市场营销模拟的建模,统计客户来源,保留和流失,也可用来预测疾病的风
256浏览
0点赞

什么是k最近邻算法(kNN)

K近邻算法又称KNN,全称是K-Nearest Neighbors算法,它是数据挖掘和机器学习中常用的学习算法,也是机器学习中最简单的分类算法之一。KNN的使用范围很广泛,在样本量足够大的前提条件之下它的准确度非常高。KNN是一
229浏览
0点赞

机器学习--SVM算法实现

一. 使用sklearn中的数据集做案例%matplotlibinlineimportnumpyasnpimportmatplotlib.pyplotaspltfromscipyimportstats#使用seaborn绘制默认值importseabornassns;sns.set()#随机来点数据fromsklearn.datasets.sampl
251浏览
0点赞

非线性SVM算法原理

对于输入空间中的非线性分类问题,可以通过非线性变换将它转化为某个维特征空间中的线性分类问题,在高维特征空间中学习线性支持向量机。由于在线性支持向量机学习的对偶问题里,目标函数和分类决策函数都只涉及实例
251浏览
1点赞

支持向量机(support vector machines, SVM)

SVM简介支持向量机(support vector machines, SVM)是一种二分类模型,它的基本模型是定义在特征空间上的间隔最大的线性分类器,间隔最大使它有别于感知机;SVM还包括核技巧,这使它成为实质上的非线性分类器。SVM
262浏览
1点赞

DBSCAN算法过程

DBSCAN算法的核心思想如下:从某个选定的核心点出发,不断向密度可达的区域扩张,从而得到一个包含核心点和边界点的最大化区域,区域中任意亮点密度相连考虑数据集合。DBSCAN算法的目标是将数据集合 X 分成 K 个clus
233浏览
0点赞

DBSCAN模型

考虑数据集合,首先引入以下概念与数学记号:1.∈邻域(∈ neighborhood)设,称为 x 的∈邻域。显然,2. 密度(density)设,称为 x 的密度。注意,这里的密度是一个整数值,且依赖于半径∈3. 核心点(core point)
274浏览
0点赞

基于密度的聚类方法(DBSCAN)

与均值漂移聚类类似,DBSCAN也是基于密度的聚类算法。 具体步骤: 1. 首先确定半径r和minPoints. 从一个没有被访问过的任意数据点开始,以这个点为中心,r为半径的圆内包含的点的数量是否大于或等于minPoints,如果
293浏览
0点赞

用高斯混合模型(GMM)的最大期望(EM)聚类

K-Means的缺点在于对聚类中心均值的简单使用。下面的图中的两个圆如果使用K-Means则不能作出正确的类的判断。同样的,如果数据集中的点类似下图中曲线的情况也是不能正确分类的。使用高斯混合模型(GMM)做聚类首先
248浏览
0点赞

凝聚层次聚类

层次聚类算法分为两类:自上而下和自下而上。凝聚层级聚类(HAC)是自下而上的一种聚类算法。HAC首先将每个数据点视为一个单一的簇,然后计算所有簇之间的距离来合并簇,知道所有的簇聚合成为一个簇为止。 下图为凝聚
259浏览
0点赞

神经网络训练的一般步骤

Step1:随机初始化权重;Step2:实现前向传播算法,拿到各个输入的激活函数;Step3:编码计算代价函数;Step4:实现反向传播计算激活函数的偏导数。看一下伪代码:代码中的m是训练样本的个数。Step5:使用梯度检验验
236浏览
0点赞

生成对抗网结(Generative Adversarial Network, GAN)

生成对抗网结(Generative Adversarial Network, GAN): 由Goodfellow在2014年提出,其核心思想来自于博弈论的纳什均衡”。它包含两个网络模型:一个生成模型和一个判别模型。生成模型捕捉样本数据的分布,判别模型是
192浏览
0点赞

深度信念网结(Deep Belief Nets, DBN)

深度信念网结(Deep Belief Nets, DBN): 或称深度置信网络,神经网络的一种,由多个受限玻尔兹曼机组成。既可以用于非监督学习,类似于一个自编码器,也可以用于监督学习,类似于一个分类器。从非监督学习来讲,其目
195浏览
0点赞

自动编码器(AutoEncoder)

自动编码器(AutoEncoder):是人工神经网络的一种,主要用来处理数据的压缩,其数据的压缩和解压缩函数是数据相关的、有损的、从样本中自动学习的。原理为训练神经网络,通过捕捉可以代表输入信息的最关键的因素,让
274浏览
0点赞

长短期记忆网络(Long Short-Term Memory, LSTM)

长短期记忆网络(Long Short-Term Memory, LSTM):是一种时间递归神经网络,适合用于处理和预测时间序列中间隔和延迟较长的重要事件。基于LSTM的系统可以学习翻译语言、控制机器人、图像分析、文档摘要、语音识别、
219浏览
0点赞

递归神经网络(Recurrent Neural Network, RNN)

前馈神经网络只能单独处理一个的输入,不同的输入之间被认为是相互独立没有联系的,但实际上很多时候输入之间是有序列关系的,需要使用递归神经网络(Recurrent Neural Network, RNN), 也称循环神经网络,其引入了
223浏览
0点赞

卷积神经网络(CNN)

卷积神经网络(CNN): 由Yann LeCun提出并应用在手写字体(MINST)识别上,其实质是一种多层前馈网络,擅长处理图像特别是大图像的处理和识别。
218浏览
0点赞

深度神经网络(DNN)

深度神经网络(DNN):使用统计学方法从原始感官数据中提取高层特征,在大量的数据中获得输入空间的有效表征。 简单理解,深度神经网络就是有多个隐藏层的多层感知器网络,根据实际应用情况不同,其形态和大小也都不
288浏览
0点赞

径向基函数神经网络(Radical Basis Function Neural Network, RBF NN)

径向基函数神经网络(Radical Basis Function Neural Network, RBF NN): 1988 年由 John Moody和Christian J Darken提出了一种网络结构,属于前向型神经网络,理论上可以任意精度逼近任意连续函数,适合解决分类问题
225浏览
0点赞

受限玻尔兹曼机(Restricted Boltzmann Machine, RBM)

受限玻尔兹曼机(Restricted Boltzmann Machine, RBM),是一种简化的特殊的玻尔兹曼机,1986年由Paul Smolensky提出。和BM相比,其隐藏层中的节点之间没有互相连接,其可见节点间也没有连接,因此其计算相对更简单
336浏览
1点赞

玻尔兹曼机(Bolzmann Machine, BM)

玻尔兹曼机(Bolzmann Machine, BM):也称 Stochastic Hopfield Network with Hidden Units,是一种随机递归神经网络,可以看做是一种随机生成的Hopfield网络。1983年-1986年,由Hinton和Sejnowski提出,该神经网络
242浏览
1点赞

自适应共振理论(Adaptive Resource Theory,ART)

自适应共振理论(Adaptive Resource Theory,ART),1976年由美国波士顿大学学者G.A.Carpenter提出,试图为人类的心理和认证活动建立统一的数学理论。随后又和S.Grossberg提出了ART网络。ART网络由两层组成两个子系
237浏览
0点赞

方差(Variance)

方差和标准差是测度数据变异程度的最重要、最常用的指标。
267浏览
0点赞

sigmoid函数

sigmoid函数也叫Logistic函数,用于隐层神经元输出,取值范围为(0,1),它可以将一个实数映射到(0,1)的区间,可以用来做二分类。在特征相差比较复杂或是相差不是特别大时效果比较好。
185浏览
0点赞

9.1、TCP/IP协议详解

计算机之间要交换信息,就需要定义交换信息的方式。1965年,Donald Davies 创造了报文这个词语,用来描述在两台计算机之间传输的数据。在1969年,最早的广域网 ARPNET 出现了,这个网络也是第一个使用报文交换的网络(相对报文交换,早期的电话使用的是电路交换,就是在
180浏览
0点赞

9.2、Socket是什么

通过前面的介绍,是不是觉得 TCP/IP 很复杂,我们其实不必去完全了解这些协议的内部细节,因为对于多数用户来说,所关心的是如何使用这些协议来传输数据。本节将介绍一套历史悠久的接口——socket。使用 socket 我们就不用直接和这些协议打交道了,也不用了解这些协议的
232浏览
0点赞

9.3、TCP echo服务器的建立(Python实现)

本节我们将编写一个简单的 echo 服务器。该服务器等待用户的连接,连接成功后,它将接收到的用户的任何输入都原封不动地回送给客户端,直到用户关闭了连接,此时服务器自动退出。这个例子使用了 TCP 协议,使用的协议是在创建 socket 时指定的,方法如下:s = socket.so
193浏览
0点赞

9.4、编写简单的TCP客户端

在《TCP echo服务器的建立》一节的基础上,我们还需要一个客户端,这样才能实现数据交互。本节将编写一个这样的客户端,它和前面介绍的服务器建立连接,并发送一串简单的数据,然后读取服务器的返回数据。首先需要创建一个 socket 对象。和服务器端一样,也是指定使用 T
191浏览
0点赞

9.5、UDP echo服务器的建立(Python实现)

《TCP echo服务器的建立》和《编写简单的TCP客户端》分别介绍了使用 TCP 协议编写 echo 服务的服务器端代码和客户端代码。本节将实现一个 UDP 版的 echo 服务。虽然 TCP 和 UDP 区别很大,但是从 socket 接口来说它们并没有太大的区别,只是在 socket 创建时需要指定 so
216浏览
1点赞

8.1、什么是多线程,Python多线程编程

早在 20 世纪 60 年代,进程的概念就出现了。但进程是资源的拥有者,进程的创建、销毁、调度代价都比较高,所以出现了对轻量级进程的需求。到了 20 世纪 80 年代,出现了线程,类似于进程,线程可以独立运行,但使用的代价比进程小很多。线程一般包括程序、数据和线程控
227浏览
0点赞

8.2、Python thread模块用法详解

该包在 Python 2 中属于正常可用状态,但在 Python 3 中处于即将废弃的状态,虽然还可以用,但包名被改为 _thread。使用 thread 包首先要引入该包,在 Python 2 中使用下面的语句来引入:import thread而在 Python 3 中,由于包名从 thread 改为了 _thread,所以需要使
173浏览
0点赞

8.3、Python threading模块用法精讲

相对于 thread 包,threading 包提供了更多的功能。该包的用法基本分成两步:第一步是构造一个 threading.Thread 实例对象,这时该对象对应的线程就处于“新建”状态;第二步是操作该对象,如调用 start() 来将该线程转换到“就绪”状态。创建线程实例对象我们可以创建
188浏览
0点赞

8.4、Python线程同步实现方式详解

一个线程启动后,其会自行运行。但如果希望它们能同步运行,应该怎么做呢?举个简单的例子,有两个线程 A 和 B,A 负责从网络上读取数据,保持到变量 X 中,B 负责处理变量X中的数据,这时线程 B 就需要和 A 同步。也就是说 B 需要等 A 给其一个信号,其才可以开始去做
209浏览
0点赞

8.5、Python线程安全(同步锁机制)

所谓线程安全,就是说对某个资源的访问在多线程状态下和单线程状态下得到相同的结果,结果不会受到线程调度等因素的影响。例如下面这段代码,在函数 operate_resource() 中为 g_list 添加一个新元素,新元素的值为 g_list 最后一个元素的值加 1。g_list=[]defoperate_res
213浏览
0点赞

8.6、Python线程死锁的原因及解决方法

死锁是多线程编程中经常讨论的问题,所谓死锁,就是线程一直无限期地等待某个资源。最简单的死锁现象就是一个线程等待一个自己已经拿到的锁。由于该锁已经被自己拿到了,所以第二次申请该锁时会被放到等待队列中,但这个等待的时间是永远。下面的代码演示了这种情况。格
165浏览
0点赞

8.7、什么是进程

在计算机发展的早期阶段,任务调度方式比较简单,计算机从用户处得到任务,然后一直执行下去,直到指定任务完成,然后计算机等待用户的下一个计算任务。在这种运行方式下,任意时刻计算机都只能完成一个任务。如果该任务处于等待状态,计算机也不能执行其他的任务。为了
226浏览
0点赞

8.8、Python subprocess模块用法详解

在 Python 2.7 及 Python 3 中,系统自带了 subprocess 模块,该模块主要用来管理子进程。在使用该模块之前需要将其引入,方法如下:import subprocess在以前,启动一个新的进程可以使用 os.system() 方法。相对来说 subprocess 模块提供了更多的灵活性,可以完全取代 o
186浏览
0点赞

8.9、Python multiprocessing模块精讲

multiprocessing 模块无须安装,从 Python 2.6 开始系统便自带该模块了。该模块的接口函数和 threading 类似,但是它启动的是进程而不是线程。使用该模块时需要先将其引入 multiprocessing,方法如下:import multiprocessing该模块包含很多类,如Lock,其和多线程中的
191浏览
0点赞

8.10、Python os模块用法详解

在本章的最后,我们来介绍一下 os 模块中有关进程的一些接口函数。在前面已经用到了该模块一些接口函数,如得到当前进程的 PID。这些接口函数比较基础,在不太复杂的环境中也是非常有用的。如果必须使用进程的一些高级特性,还是推荐使用 multiprocessing 模块或者 subp
198浏览
0点赞

7.1、Python类的定义与使用

类最基本的功能就是定义了一个新的类型。可以使用下面的语法来定义一个空类,即一个什么属性都没有的类,一个什么事情也做不了的类。class类名:pass这里的类名要求和变量名一样,可以由字母、数字和下划线组成,一般首字符是大写的字母,对于长度没有限制。类定义完之后
193浏览
0点赞

7.2、Python __init__()和__del__()函数的用法

__init__()(后续称之为初始化函数)是用来初始化实例对象的。每次构造一个实例对象时,都会调用该类的初始化函数。在该初始化函数中可以初始化实例对象,或者更新类的某些属性,如该类构造出来的实例对象的个数。初始化函数也可以带参数,通过不同参数来构造不同的实例
199浏览
0点赞

7.3、Python类属性和实例属性

其实类本身也是一个对象,它也有自己的属性。类的属性一般表示类的相关内容,如类的版本和作者等信息。类的属性的定义是在类里面直接定义一个变量即可。下面我们给类 Student 添加版本和作者信息。 class Student: # 定义类Student... version = 1.0 # 类的属性version.
171浏览
0点赞

7.4、Python self的用法

对象属性在类外面使用“对象名。属性”来表示,在类里面使用“self.属性”来表示。对于对象的属性也存在增删改查操作,如可以用赋值语句来修改或者添加属性,通过 del() 来删除对象属性。添加属性对于 Python 这种动态语言来说非常简单,它对添加的时间没有要求,可以在
178浏览
0点赞

7.5、Python getattr()、setattr()、hasattr()和delattr()的用法

除了使用前面介绍的方法来操作属性外,还有一套通用的方法来操作属性。这种方法类似于静态反射机制,即在不知道对象具体定义的情况下,也能通过查询等方式得到该对象的一些情况。如我们得到一个对象 a,但对象 a 是什么类型、包含哪些属性我们都不知道,那么就可以用 di
199浏览
0点赞

7.6、Python静态方法的使用

静态方法就是该方法没有绑定某个对象。和对象方法不同的是,其定义时第一个参数不是 self,这看起来更像一个普通方法。由于没有 self 参数,所以也不能使用“self.属性名”来访问某个对象的属性了。静态方法的定义格式如下:@staticmethoddefstatic_func():pass在 Stude
168浏览
0点赞

7.8、Python类方法的使用

类方法也不属于某个对象,所以其第一个参数也不为self。但它属于某个类,所以其第一个参数一定是cls。@classmethoddefstatic_func(cls,参数列表):pass在使用时不需要指定第一个参数 cls,因为该函数有一个隐含的属性 __self__,它就是 cls 的值。 class Student: # 定义
188浏览
0点赞

7.9、Python类的私有属性

在 C++ 和 Java 中,属性(成员)有访问控制,如 public 表示任意代码可以访问该属性,private 表示仅当前类的代码才可以访问该属性。Python 中没有这个访问控制符,但是可以在属性前面加上 __ 两个下划线来表示该属性不能在类外部访问。一般的属性都是可以在类的外部访
202浏览
0点赞

7.9、Python只读属性的设置(2种方法)

默认情况下,实例对象的所有成员都是可以读和写的。但有时希望做一些限制,如只能读不能修改,或者检查修改的值必须符合类型要求或者范围要求。实现该功能的方法有多种,这里主要介绍使用 @property 修饰符和定义 __setattr__() 函数两种方法。使用@property修饰符该方
193浏览
0点赞

7.10、Python类的派生(派生类)

派生是面向对象编程的基本概念,它赋予了我们基于某个基础类来轻松创建新类的能力。使用派生类的方法,我们可以复用他人的代码,不必从 0 开始创建自己的轮子。定义一个基于某个现有类的新类的方法如下:def新类(现有的类):pass现有的类,有时也称为基类、父类;新类也
178浏览
0点赞

6.1、Python异常处理机制

异常处理也是现代编程语言的基本特性,使用异常处理可以将正常分支和异常分支分割开来,而不像 C 语言那样,正常分支和异常分支是混在一起的。在 Python 中,异常就是一个特殊的对象,通过该异常对象可以给异常处理函数传递异常发生时的信息。Python 2 和 Python 3 中异
183浏览
0点赞

6.2、Python try except语句:捕获异常

捕捉异常就是如果某个代码段中出现了异常,需要定义好相应的异常处理代码。这样异常就被处理掉了,而不是一直向上传递,直到最后导致整个程序退出。下面介绍几种捕捉异常的方法。1) 捕捉任意异常最简单的处理方式是捕捉任意异常,方法是使用下面的分支语句:except:该分
187浏览
0点赞

6.3、Python try else语句的用法

前面介绍的都是 except 分支,也就是异常分支。except 分支在发生异常时被执行。本节介绍的分支在没有抛出异常时才被执行,这就是 else 分支。下面演示了这种用法。 def except_demo(a, b): # 定义一个包含异常处理的函数... try:... a = a / b... except ZeroDivisionE
179浏览
0点赞

6.4、Python try finally语句的用法

前面介绍了 except 分支和 else 分支,它们分别在有异常抛出和没有异常抛出时被执行。接下来介绍另一个分支,该分支在任何情况下都会被执行,而且是在最后被执行,这就是 finially 分支。下面是 finally 分支的一个例子。 def finally_demo(a, b): # 定义一个包含异常处
204浏览
0点赞

6.5、Python raise语句:主动抛出异常

通常情况下,我们的代码不会主动抛出异常,而是通过返回一个错误码来告知调用者这里出现了不该出现的错误。其实我们也可以在代码中抛出异常,通过异常将相关的错误信息发送出去。可以使用 raise 语句来抛出异常,该语句后面需要带一个对象,该对象必须是派生自 BaseExce
195浏览
0点赞

Maxout与Dropout

Dropout是一种网络规则化技巧,其实它就是相当于在训练很多个不同的网络结构,尽管如此,推理阶段所有不同结构的参数依然是共享的,因为实际上只有一个网络存在。在机器学习算法中,有一个概念叫做bagging,bagging
335浏览
0点赞

没有免费的午餐定理(No Free Lunch Theorem,简称 NFL)

我们经常听人谈论“什么算法更好”或者“A算法比B算法好”这样类似说法,其实这样的说法忽略了一个前提,那就是在解决某一个具体的问题(任务)上。为什么这么说呢,因为如果考虑所有潜在的问题,所有的学习算法都一
250浏览
1点赞

什么是欠拟合与过拟合?

我们希望通过机器学习学得的模型的泛化能力比较强,直白来说就是使得学得的模型不仅仅在在训练样本中工作得很好,更应该在新的样本中工作很好。通常我们把分类错误的样本数占总样本数的比例称为错误率(error rate)
216浏览
1点赞

7个重点的机器学习的方法

机器学习里面究竟有多少经典的算法呢?在这个部分我会简要介绍一下机器学习中的经典代表方法。这部分介绍的重点是这些方法内涵的思想,数学与实践细节不会在这讨论。  1、回归算法  在大部分机器学习课程中,回
215浏览
1点赞

机器学习涉及的7个范围

  其实,机器学习跟模式识别,统计学习,数据挖掘,计算机视觉,语音识别,自然语言处理等领域有着很深的联系。  从范围上来说,机器学习跟模式识别,统计学习,数据挖掘是类似的,同时,机器学习与其他领域的处
234浏览
1点赞

神经网络的例子

下面通过车牌自动识别的例子,来解释神经网络。所谓车牌自动识别,就是高速公路的探头拍下车牌照片,计算机识别出照片里的数字。这个例子里面,车牌照片就是输入,车牌号码就是输出,照片的清晰度可以设置权重(w)
237浏览
0点赞

神经网络的运作过程

一个神经网络的搭建,需要满足三个条件。输入和输出权重(w)和阈值(b)多层感知器的结构也就是说,需要事先画出上面出现的那张图。其中,最困难的部分就是确定权重(w)和阈值(b)。目前为止,这两个值都是主观给
204浏览
0点赞

一个简单的决策模型

单个的感知器构成了一个简单的决策模型,已经可以拿来用了。真实世界中,实际的决策模型则要复杂得多,是由多个感知器组成的多层网络。上图中,底层感知器接收外部输入,做出判断以后,再发出信号,作为上层感知器的
226浏览
0点赞

感知器的例子

下面来看一个例子。城里正在举办一年一度的游戏动漫展览,小明拿不定主意,周末要不要去参观。他决定考虑三个因素。天气:周末是否晴天?同伴:能否找到人一起去?价格:门票是否可承受?这就构成一个感知器。上面三
219浏览
0点赞

神经网络感知器

历史上,科学家一直希望模拟人的大脑,造出可以思考的机器。人为什么能够思考?科学家发现,原因在于人体的神经网络。1、外部刺激通过神经末梢,转化为电信号,转导到神经细胞(又叫神经元)。2、无数神经元构成神经
239浏览
1点赞

人工智能 —— 知识图谱

初学者刚开始学习人工智能时,面对铺天盖地的概念,如,人工智能、机器学习、深度学习、计算机视觉等等,一时间可能就被这些“高深”的名称给唬住了,不知道如何下手。又或者有些同学在学习了很长时间后,问他学习的
651浏览
1点赞

独立同分布(iid,independently identically distribution)

独立同分布(iid,independently identically distribution)在概率统计理论中,指随机过程中,任何时刻的取值都为随机变量,如果这些随机变量服从同一分布,并且互相独立,那么这些随机变量是独立同分布。独立同分
419浏览
1点赞

特征分解 Eigendecomposition

特征分解(Eigendecomposition),又称谱分解(Spectral decomposition)是将矩阵分解为由其特征值和特征向量表示的矩阵之积的方法。需要注意只有对可对角化矩阵才可以施以特征分解。N 维非零向量 v 是 N×N 的矩阵
308浏览
2点赞

结构风险最小化 Structural Risk Minimization

结构风险最小化(Structural Risk Minimization)是指把函数集构造为一个函数子集序列,使各个子集按照VC维的大小排列;在每个子集中寻找最小经验风险,在子集间折中考虑经验风险和置信范围,取得实际风险的最小化。即SR
426浏览
1点赞

负对数似然 negative log-likelihood

似然函数(likelihood function)在机器学习中,似然函数是一种关于模型中参数的函数。“似然性(likelihood)”和概率(probability)词意相似,但在统计学中它们有着完全不同的含义:概率用于在已知参数的情况下,预测接
238浏览
1点赞

分类回归树 CART

分类回归树(CART,Classification And Regression Tree)也属于一种决策树,这里只介绍CART是怎样用于分类的。分类回归树是一棵二叉树,且每个非叶子节点都有两个孩子,所以对于第一棵子树其叶子节点数比非叶子节点数
234浏览
0点赞

声学模型 acoustic mode

在这个模块,我们会讨论语音识别引擎里的声学(acoustic)模型。在今天的主流语音识别系统中,声学模型是一个混合(hybrid)模型,它包括用于序列跳转的隐马尔可夫模型(HMM)和根据当前帧来预测状态的深度神经网络。HMM是
196浏览
0点赞

规则学习 Rule Learning

规则学习是可对未见示例进行判别的规则,通常是由训练数据集的学习获得,其通常是 IF-THEN 规则,属于非监督学习的一种,常用被归属为分类的一种。规则学习中的规则规则:语义明确,可描述数据分布所隐含的客观规律
224浏览
0点赞

Transductive learning 直推式学习

Transductive learning (直推式学习)。直推是从观测到的特定数据到特定数据的推理。直推学习与归纳学习不同的是,训练数据和测试数据在之前都已经可以观测,我们从已知的训练数据学习特征来预测测试集标签。即使我们
195浏览
0点赞

Inductive learning 归纳式学习

Inductive learning (归纳式学习)。归纳是从已观测到的数据到一般数据的推理,归纳学习即我们平时所说的监督学习,使用带有标签的数据进行模型训练,然后使用训练好的模型预测测试集数据的标签,训练集数据不包含测
232浏览
0点赞

multiple linear regression 多元回归分析

1.与简单线性回归区别(simple linear regression) 多个自变量(x)2. 多元回归模型y=β0+β1x1+β2x2+ … +βpxp+ε其中:β0,β1,β2… βp是参数ε是误差值3. 多元回归方程E(y)=β0+β1x1+β2x2+ … +βpxp4.
217浏览
0点赞

强化学习之 score function

score function定义,就是说score function是求最大对数似然函数中让对数似然函数梯度等于0的梯度。就是说,求解最大似然问题就是求解score function2、再对参数求导,就会得到Fisher Information ,FIM是SF的负导数
211浏览
1点赞

符号主义 Symbolism

符号主义是人工智能领域中坚信数理逻辑的一个流派。数理逻辑从 19 世纪末起得以迅速发展,到 20 世纪 30 年代开始用于描述智能行为。计算机出现后,又在计算机上实现了逻辑演绎系统。其有代表性的成果为启发式程序 L
207浏览
0点赞

分层抽样 Stratified sampling

统计学理论中,分层抽样针对的是对一个总体(population)进行抽样的方法。尤其适用于当总体内部,子总体(subpopulations)间差异较大时。每一个 subpopulation,也称为层(stratum)。L|表示层的数量,其中 分别指
420浏览
1点赞

欠采样(undersampling)和过采样(oversampling)

当二分类数据不均衡时会影响模型的输出,此时需要对数据进行处理。1:为什么类别不平横会影响模型的输出:许多模型的输出类别是基于阈值的,例如逻辑回归中小于0.5的为反例,大于则为正例。在数据不平衡时,默认的阈
554浏览
1点赞

SOM 自组织映射神经网络

自组织映射(Self-organizing map, SOM)通过学习输入空间中的数据,生成一个低维、离散的映射(Map),从某种程度上也可看成一种降维算法。SOM是一种无监督的人工神经网络。不同于一般神经网络基于损失函数的反向传递来
644浏览
0点赞

Mean Squared Error 均方误差

MSE (Mean Squared Error)叫做均方误差。看公式这里的y是测试集上的。用 真实值-预测值 然后平方之后求和平均。猛着看一下这个公式是不是觉得眼熟,这不就是线性回归的损失函数嘛!!! 对,在线性回归的时候我们
268浏览
1点赞

bayesian Network 贝叶斯网

贝叶斯网络(Bayesian network),又称信念网络(Belief Network),或有向无环图模型(directed acyclic graphical model),是一种概率图模型,于1985年由Judea Pearl首先提出。它是一种模拟人类推理过程中因果关系的不
234浏览
0点赞

非凸优化 凸优化

数学中最优化问题的一般表述是求取,使,其中是n维向量,是的可行域,是上的实值函数。 凸优化 问题是指是 闭合的凸集 且是上的 凸函数 的最优化问题,这两个条件任一不满足则该问题即为非凸的最优化问题。 其中,是
215浏览
0点赞

One-shot Learning 单样本学习

在我们解决任何问题之前,我们应该精准的定义处这个问题到底是什么,下面是单样本分类问题的符号化表示: 我们的模型只获得了很少的标记的训练样本S,它有N个样本,每个相同维度的向量有一个对应的标签y再给出一个待
241浏览
1点赞

2021cvpr PVGNet: 自下而上的单级三维物体检测器,集成了多层次的功能

FeaturesZhenwei Miao, Jikai Chen, Hongyu Pan, Ruiwen Zhang, Kaixuan Liu, Peihan Hao, Jun Zhu, Yang Wang, Xin Zhan; Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CV
218浏览
0点赞

2021 CVPR 最佳学生论文荣誉提名(Best Student Paper Honorable Mentions)

最佳学生论文荣誉提名(Best Student Paper Honorable Mentions)获得「最佳学生论文」提名的有三篇Less is More: ClipBERT for Video-and-Language Learning via Sparse Sampling(少即是多:通过稀疏取样进行视频
314浏览
0点赞

2021 CVPR 最佳学生论文奖(Best Student Paper)

最佳学生论文奖(Best Student Paper)Task Programming: Learning Data Efficient Behavior Representations(任务编程:学习数据有效的行为表征)作者团队来自加州理工和西北大学——Jennifer J. Sun, Ann Kennedy, Eric Zhan, David J. Anderson, Yisong Yue, Pietro
305浏览
0点赞

2021CVPR 最佳论文荣誉提名(Best Paper Honorable Mentions)

何恺明和Xinlei Chen的论文Exploring Simple Siamese Representation Learning(探索简单的连体表征学习)获得了最佳论文提名。https://arxiv.org/abs/2011.10566论文主要研究了:「连体网络」(Siamese networks)已经成为最近各种无监督视觉表征学习模型中的一种常见
200浏览
0点赞

2021 CVPR 论文奖

最佳论文奖(Best Paper)今年的最佳论文是马克斯·普朗克智能系统研究所和蒂宾根大学团队的Michael Niemeyer, Andreas Geiger,他们的论文是GIRAFFE: Representing Scenes as Compositional Generative Neural Feature Fields(GIRAFFE:将场景表现为组合生成的神经特
264浏览
0点赞

国际计算机视觉与模式识别会议(CVPR)

国际计算机视觉与模式识别会议(CVPR)是IEEE一年一度的学术性会议,会议的主要内容是计算机视觉与模式识别技术。CVPR是世界顶级的计算机视觉会议(三大顶会之一,另外两个是ICCV和ECCV),近年来每年有约1500名参加
241浏览
0点赞

国际计算机视觉大会 International Conference on Computer Vision

ICCV,英文全称International Conference on Computer Vision,中文全称国际计算机视觉大会,这个会议也是由IEEE主办的全球最高级别学术会议,每两年在世界范围内召开一次,在业内具有极高的评价。ICCV论文录用率非
410浏览
0点赞

欧洲计算机视觉国际会议 European Conference on Computer Vision

ECCV,英文全称European Conference on Computer Vision,中文全称欧洲计算机视觉国际会议。ECCV每年的论文接受率为25-30%左右,每次会议在全球范围会收录论文300篇左右,收录论文的主要来源是来自于美国、欧洲等顶