Command Palette
Search for a command to run...
百科
我们编汇了数百条相关词条,帮助您理解「人工智能」
Search for a command to run...
我们编汇了数百条相关词条,帮助您理解「人工智能」
停机问题 (Halting Problem) 是逻辑数学中可计算性理论的一个重要问题,由英国数学家艾伦·图灵 (Alan Turing) 在 1936 年提出。相关论文是图灵的著名论文「On Computable Num […]
当模型在训练过程中开始生成与真实数据分布相差甚远的数据时,模型的性能会急剧下降,最终导致模型输出变得毫无意义。
Hopfield 网络是一种递归神经网络,主要用于联想记忆和模式识别等问题。
奖励错误归约是指在强化学习 (RL) 中,由于奖励函数不完全符合智能体真正目标而导致的问题。
序列推荐系统是推荐系统的一种重要类型,其主要任务是根据用户的历史行为序列来预测用户的下一个行为。
R-MFDN 通过跨模态对比学习损失函数和身份驱动的对比学习损失函数来增强模型对伪造内容的敏感性。
卡雷尔谜题是一种通过指令在模拟环境中控制机器人行动的问题集合。
全前向模式 (Fully Forward Mode,FFM) 是一种用于训练光学神经网络的方法,它由清华大学戴琼海院士、方璐教授的研究团队于 2024 年提出。相关论文是「Fully forward mode train […]
忙碌海狸游戏是由数学家 Tibor Radó 在 1962 年提出的一个理论计算机科学问题。
RNN 的工作原理是通过隐藏层的状态来存储之前时间步的信息,使得网络的输出依赖于当前的输入和之前的状态。
ResNet 通过在网络中增加残差连接,有效地解决了随着网络深度增加时出现的梯度消失和梯度爆炸问题。
Adam 是一种用于一阶梯度优化的算法,特别适用于处理大规模数据和参数的优化问题。
GPT 模型的核心技术是 Transformer 架构,它通过自注意力机制有效地捕捉上下文信息。
Frequency Principle,简称 F-Principle(频率原则)是深度学习领域中的一个重要概念,它描述了深层神经网络 (DNN) 在训练过程中倾向于从低频到高频拟合目标函数的特性。这个原则由上海交通大学的 […]
参数凝聚描述了在神经网络训练过程中,模型参数倾向于向特定值或方向聚集的现象。
圈复杂度是一种软件度量指标,用于衡量程序的复杂性。
Dropout 的核心思想是在训练过程中随机地丢弃(即暂时移除)网络中的一些神经元,以及它们的连接,从而防止模型过拟合。
Graph Attention Networks(简称 GATs)是一种为图结构数据设计的神经网络,由 Petar Veličković 和他的同事在 2017 年提出,相关论文成果为「Graph Attention N […]
消息传递图神经网络(Message Passing Neural Networks,简称 MPNN)是一种处理图结构数据的神经网络框架,由 Gilmer 等人在 2017 年提出,相关论文成果为「Neural Messa […]
图卷积网络(Graph Convolutional Networks,简称 GCN),Kipf 和 Welling 在 2017 年的 ICLR 会议上发表了题为「Semi-Supervised Classificati […]
门控循环单元(Gated Recurrent Unit,简称 GRU)是一种循环神经网络 (RNN) 的变体,由 Cho 等人于 2014 年提出,相关论文成果为「Empirical Evaluation of Gate […]
AlexNet 是一种深度卷积神经网络 (CNN),由 Alex Krizhevsky 、 Ilya Sutskever 和 Geoffrey Hinton 于 2012 年提出,并在当年的 ImageNet 图像分类竞 […]
CART Decision Tree 是一种决策树算法,能够用于分类和回归任务。
梯度提升 (Gradient Boosting) 是一种集成学习算法,它通过结合多个弱预测模型(通常是决策树)来构建一个强预测模型。