Wiki
Machine Learning Glossary: 探索关键AI和ML概念的定义与解释
NSG 统计量量化了空间概率梯度与时间密度变化的比例。
Mem-𝛼 在多种基准测试中相较于现有的记忆增强智能体基线取得了显著改进。
SSP 展现了自博弈作为可扩展且数据高效的智能体 LLM 训练范式的潜力。
CudaForge 是一个简单有效且低成本的用于 CUDA 内核生成和优化的多智能体工作流程。
FractalForensics 在常见图像处理操作和 Deepfake 操作上有较好的鲁棒性和脆弱性。
ScaleNet 是一种通过权重共享扩展预训练视觉 Transformer(ViT)的新方法。
FlashMoBA 使理论上最优的小块尺寸变得实用,在 GPU 上实现高达 14.7 倍的加速。
CoT Hijacking 是一种新的越狱攻击方式,其中良性推理系统性地削弱了拒绝行为。
InstanceAssemble 在多模态条件下推动了高质量且可控的图像生成。
Layout-to-Image 为图像生成提供了灵活的控制机制。
HiPO 用于自适应 LLM 推理,主要包括混合数据构建和混合强化学习。
作为一个新颖的语义感知框架,用于从稀疏视图中重建 3D 模型。
AEPO 专注于在高熵工具调用指导下平衡和合理化策略扩展分支和策略更新。
SDAR 确立了一种新的实用语言建模范式,统一了自回归和扩散的互补优势。
C2C 通过转换和融合模型间的键值(KV)缓存,实现直接的语义交流。
CapRL 能有效训练模型生成更通用和准确的图像描述。
在编码代理环境下近似 Gödel Machine,并通过具有自适应调度的 Thompson 采样来指导扩展。
首个成功将分布匹配蒸馏应用于基于 MDM 的文本生成,并在少步语言序列生成方面创下纪录的框架。
MultiPL-MoE 是后预训练阶段扩展低源编程语言的一种有效方法。
通义千问团队系统地研究了门控机制在标准 softmax 注意力中的作用。
Lancelot 框架将全同态加密融入 BRFL 以实现严格的隐私保护。
联合对齐全局和局部特征,有效引导对抗样本朝向目标特征分布并增强可迁移性。
感受野是理解视觉信息处理的重要概念,为设计、分析和优化视觉模型提供参考。
SVG 实现了更快的扩散训练、高效的少步采样以及生成质量的提升。
NSG 统计量量化了空间概率梯度与时间密度变化的比例。
Mem-𝛼 在多种基准测试中相较于现有的记忆增强智能体基线取得了显著改进。
SSP 展现了自博弈作为可扩展且数据高效的智能体 LLM 训练范式的潜力。
CudaForge 是一个简单有效且低成本的用于 CUDA 内核生成和优化的多智能体工作流程。
FractalForensics 在常见图像处理操作和 Deepfake 操作上有较好的鲁棒性和脆弱性。
ScaleNet 是一种通过权重共享扩展预训练视觉 Transformer(ViT)的新方法。
FlashMoBA 使理论上最优的小块尺寸变得实用,在 GPU 上实现高达 14.7 倍的加速。
CoT Hijacking 是一种新的越狱攻击方式,其中良性推理系统性地削弱了拒绝行为。
InstanceAssemble 在多模态条件下推动了高质量且可控的图像生成。
Layout-to-Image 为图像生成提供了灵活的控制机制。
HiPO 用于自适应 LLM 推理,主要包括混合数据构建和混合强化学习。
作为一个新颖的语义感知框架,用于从稀疏视图中重建 3D 模型。
AEPO 专注于在高熵工具调用指导下平衡和合理化策略扩展分支和策略更新。
SDAR 确立了一种新的实用语言建模范式,统一了自回归和扩散的互补优势。
C2C 通过转换和融合模型间的键值(KV)缓存,实现直接的语义交流。
CapRL 能有效训练模型生成更通用和准确的图像描述。
在编码代理环境下近似 Gödel Machine,并通过具有自适应调度的 Thompson 采样来指导扩展。
首个成功将分布匹配蒸馏应用于基于 MDM 的文本生成,并在少步语言序列生成方面创下纪录的框架。
MultiPL-MoE 是后预训练阶段扩展低源编程语言的一种有效方法。
通义千问团队系统地研究了门控机制在标准 softmax 注意力中的作用。
Lancelot 框架将全同态加密融入 BRFL 以实现严格的隐私保护。
联合对齐全局和局部特征,有效引导对抗样本朝向目标特征分布并增强可迁移性。
感受野是理解视觉信息处理的重要概念,为设计、分析和优化视觉模型提供参考。
SVG 实现了更快的扩散训练、高效的少步采样以及生成质量的提升。