Command Palette
Search for a command to run...
百科
我们编汇了数百条相关词条,帮助您理解「人工智能」
Search for a command to run...
我们编汇了数百条相关词条,帮助您理解「人工智能」
关联分析是在交易数据、关系数据或其他信息载体中,查找存在于项目或对象集合之间的频繁模式、关联、相关性或因果结构。 关联分析方法 Apriori 算法 Apriori 算法是挖掘产生布尔关联规则所需频繁项集的基本算法,它使 […]
个体学习器是一个相对概念,它是集成学习中集成之前的学习器。 根据个体学习器的生成方式,集成学习的方法可分为以下两类: 存在强依赖关系,必须串行生成的序列化方法,代表是 Boosting; 不存在强依赖关系,可同时生成的并 […]
归纳法是一种推理过程,由一系列具体的事实概括出一般原理,其中数学的归纳方法是指从多个事物概括出一般性概念、原则或结论的思维方法。 归纳可分为完全归纳法和不完全归纳法: 完全归纳法:包含该类对象的全体,从而对该类对象作出一 […]
归纳学习是机器学习的一种方法,其通常被用于符号学习,主要通过给定关于某个概念的一系列已知正例和反例,并从中归纳出一个概念描述。 归纳学习可以获得新的概念,创立新的规则,发现新的理论,其一般操作是泛化和特化,其中泛化指扩展 […]
累积误差逆传播算法(ABP 算法),是标准的**逆传播(BP)算法**的变体,如果推导出基于累积误差最小化的更新规则,就得到了累积误差逆传播算法。
合页损失函数的形状像一个合页,这也是其名称的由来,这种损失函数主要存在于支持向量机,其不仅要求分类正确,而且确信度足够高时损失才是 0,即合页损失函数对学习有更高的要求。 合页损失函数的公式为 L ( y ( w * x […]
混合计算是一种整合计算,其包含传统的硬计算和新兴的软计算,该计算方式可以获取各自所长以克服局限性。 硬计算的主要特征: 易于建立问题的规范数学模型; 建立的数学模型易于求解,且能达到较高的精确度; 具有较好的稳定性。 软 […]
高斯核函数是一种常用的核函数,它可以将有限维数据映射到高维空间,高斯核函数定义如下: $latex {k{ \left( {x,x\text{‘}} \right) }\text{ }=\text{ }e\m […]
高斯混合模型 GMM 基于高斯概率密度函数,它能够平滑的近似任意形状的密度分布,由于 GMM 具有多种模型,其划分精细的特点使得它可被用于复杂对象建模。 假设有一批观察数据 $latex {X\text{ }=\text […]
广义线性模型是一种应用灵活的线性回归模型,其允许因变量的偏差分布有除了正态分布之外的分布形式。 定义 广义线性模型是简单最小二乘回归的扩展,假设每个资料的观测值 来自某个指数族分布,那么该分布的平 […]
归纳偏置可以看做是机器学习中的假设集合,它被用于机器学习中目标函数的必要假设,其中最典型的例子是奥卡姆剃刀。 归纳偏置基于数学逻辑,但在实际应用中,学习器的归纳偏置可能只是一个很粗糙的描述,甚至更为简单,相比之下,理论值 […]
核方法是一类模式识别的算法,其目的是找出并学习一组数据中的相互的关系。 核方法成立基于以下假设:「在低维空间中不能线性分割的点集,通过转化为高维空间中的点集后,可能变为线性可分」。 核方法的基本认知:原始数据中的模式可以 […]
广义瑞利熵可以看做是瑞利熵的扩展,它是指函数 R(A,B,x): $latex {R{ \left( {A,B,x} \right) }\text{ }=\text{ }\frac{{x\mathop{{}}\nolim […]
归纳逻辑程序设计 (ILP) 是一种符号规则学习方法,它在一阶规则学习中引入了函数和逻辑表达式嵌套,并以一阶逻辑为表达语言。 ILP 让机器学习系统具备更为强大的表达能力,同时它可看作是用机器学习的应用,主要用于解决基于背 […]
核技巧是一种利用核函数直接计算 $latex \langle\phi(x), \phi(z)\rangle $,以避开分别计算 $latex \phi(x) $ 和 $latex \phi(z) $ ,从而加速核方法计算 […]
递归神经网络是一种表示学习方法,它可以将词、句、段、篇按照他们的语义映射到同一个向量空间中,也就是把可组合(树/图结构)的信息表示为一个个有意义的向量。
负相关是指两列变量变动方向相反,一列变量变化时,另一列变量反而随着前一变量呈现相反趋势的变化。
单变量决策树 是指只有一个变量的决策树。即每次节点分裂时,只会选择特征集中的某一个特征,这也意味着决策树的分类边界是由若干个与坐标轴平行的分段组成。
负对数似然是一种用于解决分类问题的损失函数,它是似然函数得一种自然对数形式,可用于测量两种概率分布之间的相似性,其取负号是为了让最大似然值和最小损失相对应,是最大似然估计及相关领域的常见函数形式。 机器学习中,习惯用优化 […]
非凸优化是机器学习和信号处理领域的一种方法。指的是针对非凸问题,不使用松弛处理而直接解决引起目标或直接优化非凸公式的方法。
非线性模型是指自变量和依变量间存在非线性关系的数学表达式。相对于线性模型而言,其依变量与自变量间不能在坐标空间表示为线性对应关系。
非度量距离是指不满足直递性的参数间的距离。
非负矩阵分解 ( NMF),是所有元素均满足非负约束下的一种矩阵分解方法。
范数是数学中一种基本的函数。常常被用来度量某个向量空间(或矩阵)中的向量的长度或大小。对于模型参数的范数,可以用来作为规则化函数。