Command Palette
Search for a command to run...
报道
来自世界各地的最新人工智能报道和更新
由清华大学、北京大学、香港大学、普林斯顿大学、中科院、上海交通大学、中国科学技术大学、新加坡国立大学等机构提出的 WorldArena,首次将视频生成质量与具身任务功能性打通,构建了一套从「看起来真实」到「真正可用」的完整评估框架。

来自伦敦大学学院(UCL)计算机科学系的研究团队提出了一种用于白细胞形态分析的联邦学习框架,使各机构能够在不交换训练数据的情况下进行协同训练。利用来自多个临床站点的血液涂片,该联邦模型在保证完全数据隐私的同时,学习到稳健且域不变的特征表示。与集中式训练相比,联邦训练在跨站点性能和对未知机构的泛化能力上表现出色。

微软研究院、华盛顿大学与 Providence Genomics 组成的研究团队,提出了多模态人工智能框架 GigaTIME 。该框架依托先进的多模态学习技术,能够从常规 H&E 切片生成虚拟的 mIF 图谱。研究团队将其应用于美国普罗维登斯医疗集团超过 14,000 名癌症患者的队列,涵盖 24 种癌症类型、 306 个亚型,最终生成了近 30 万张虚拟 mIF 图像,实现了对大规模多样化人群的肿瘤免疫微环境系统性建模。

Polymathic AI 联合研究团队提出了一个以 Transformer 为核心架构、主要面向类流体连续介质动力学的基础模型 Walrus 。 Walrus 在预训练阶段覆盖了 19 种高度多样化的物理场景,涵盖天体物理、地球科学、流变学、等离子体物理、声学以及经典流体力学等多个领域。结果表明,无论在下游任务的短期预测还是长期预测中,Walrus 均优于此前的基础模型。

腾讯微信 AI 团队提出了 WeDLM,这是首个在工业级推理引擎(vLLM)优化条件下,推理速度超越同等 AR 模型的扩散语言模型。目前,「WeDLM 高效大语言模型解码框架」已上线至 HyperAI 超神经官网的「教程」板块,本文为详细教程。

来自美国能源部橡树岭国家实验室的科学家们提出了一种面向基础模型的分布式跨通道分层聚合方法(D-CHAG),该方法对 token 化过程进行分布式处理,并采用分层策略进行通道聚合,从而使极大规模模型能够在多通道数据集上运行。

华大生命科学研究院与浙江之江实验室组成的 Genos 团队在 DeepSeek 新模式的启发下,推出了一款基因组专用「外挂大脑」插件——Gengram(Genomic Engram)。仅约 2,000 万参数,即刷新了多项基因组任务的 SOTA 记录,为破解基因组建模瓶颈提供了革命性方案。

当前,多波段、大视场、高深度的大规模巡天正在将天文学推向一个前所未有的数据密集型时代。随着欧几里得空间望远镜、鲁宾天文台及罗曼空间望远镜等新一代设施的相继投入运行,宇宙正被以空前的规模与精度进行系统性测绘。这些观测预计将 […]

机器人初创公司 Skild AI 完成 14 亿美元 C 轮融资,估值超 140 亿美元。这笔融资由日本软银集团领投,Nvidia 旗下 NVentures 、 Macquarie Capital 、亚马逊创始人杰夫·贝佐斯的 Bezos Expeditions 等战略投资者参与,三星、 LG 、施耐德电气、 Salesforce Ventures 也悉数在列。

Basecamp Research 、英伟达及多所顶尖学术机构组成的联合研究团队,共同构建了 EDEN 系列宏基因组基础模型,通过从海量跨物种、关联环境信息的自然进化数据中学习,首次系统性地提炼出生物设计的深层「语法」与通用原则。

加州大学的研究团队在标准硅光电二极管表面设计了特殊的光子捕获纹理结构(PTST),并引入了一个抗噪性强的全连接神经网络。该网络能够直接从器件测量的光电流信号中,智能地计算并重建出原始光谱。这种方法不仅使光谱仪在长波长下实现了更高的信噪比,其综合性能也超越了传统硅基光谱仪。

来自德国歌德大学的研究团队基于度量学习对「人类 E3 连接酶组」进行了分类,整合了多层次数据,包括蛋白序列、结构域组成、三维结构、功能以及表达模式。这一方法扩展了 E3 酶的传统分类(RING 、 HECT 和 RBR 类),涵盖了非典型机制,成功解释了功能分区,区分了多亚基复合物与单体酶,并将 E3 酶映射到底物及潜在药物作用靶点。

耶鲁大学研究团队近期提出 MOSAIC 模型,将通用大语言模型转化为一个由众多专业化学专家构成的协作系统,通过专业分工有效抑制模型幻觉,提供可量化的不确定性评估,实现了从反应描述到完整实验方案的系统生成,有望在药物发现、材料开发等领域实质性地提升科研效率。

清华大学与芝加哥大学研究团队基于 1980—2025 年间 4,130 万篇自然科学论文与 537 万名科学家的超大规模数据,系统评估了 AI 工具对科学研究的真实影响。研究发现,AI 显著提升了个体科研产出与学术影响力,却在集体层面导致知识空间收缩、学术互动趋于集中。通过语言模型识别 AI 研究、引入「知识广度」等创新指标,论文揭示了 AI for Science 背后被忽视的结构性代价,为理解 AI 如何重塑科研生态提供了关键证据。

由清华大学、北京大学、香港大学、普林斯顿大学、中科院、上海交通大学、中国科学技术大学、新加坡国立大学等机构提出的 WorldArena,首次将视频生成质量与具身任务功能性打通,构建了一套从「看起来真实」到「真正可用」的完整评估框架。

来自伦敦大学学院(UCL)计算机科学系的研究团队提出了一种用于白细胞形态分析的联邦学习框架,使各机构能够在不交换训练数据的情况下进行协同训练。利用来自多个临床站点的血液涂片,该联邦模型在保证完全数据隐私的同时,学习到稳健且域不变的特征表示。与集中式训练相比,联邦训练在跨站点性能和对未知机构的泛化能力上表现出色。

微软研究院、华盛顿大学与 Providence Genomics 组成的研究团队,提出了多模态人工智能框架 GigaTIME 。该框架依托先进的多模态学习技术,能够从常规 H&E 切片生成虚拟的 mIF 图谱。研究团队将其应用于美国普罗维登斯医疗集团超过 14,000 名癌症患者的队列,涵盖 24 种癌症类型、 306 个亚型,最终生成了近 30 万张虚拟 mIF 图像,实现了对大规模多样化人群的肿瘤免疫微环境系统性建模。

Polymathic AI 联合研究团队提出了一个以 Transformer 为核心架构、主要面向类流体连续介质动力学的基础模型 Walrus 。 Walrus 在预训练阶段覆盖了 19 种高度多样化的物理场景,涵盖天体物理、地球科学、流变学、等离子体物理、声学以及经典流体力学等多个领域。结果表明,无论在下游任务的短期预测还是长期预测中,Walrus 均优于此前的基础模型。

腾讯微信 AI 团队提出了 WeDLM,这是首个在工业级推理引擎(vLLM)优化条件下,推理速度超越同等 AR 模型的扩散语言模型。目前,「WeDLM 高效大语言模型解码框架」已上线至 HyperAI 超神经官网的「教程」板块,本文为详细教程。

来自美国能源部橡树岭国家实验室的科学家们提出了一种面向基础模型的分布式跨通道分层聚合方法(D-CHAG),该方法对 token 化过程进行分布式处理,并采用分层策略进行通道聚合,从而使极大规模模型能够在多通道数据集上运行。

华大生命科学研究院与浙江之江实验室组成的 Genos 团队在 DeepSeek 新模式的启发下,推出了一款基因组专用「外挂大脑」插件——Gengram(Genomic Engram)。仅约 2,000 万参数,即刷新了多项基因组任务的 SOTA 记录,为破解基因组建模瓶颈提供了革命性方案。

当前,多波段、大视场、高深度的大规模巡天正在将天文学推向一个前所未有的数据密集型时代。随着欧几里得空间望远镜、鲁宾天文台及罗曼空间望远镜等新一代设施的相继投入运行,宇宙正被以空前的规模与精度进行系统性测绘。这些观测预计将 […]

机器人初创公司 Skild AI 完成 14 亿美元 C 轮融资,估值超 140 亿美元。这笔融资由日本软银集团领投,Nvidia 旗下 NVentures 、 Macquarie Capital 、亚马逊创始人杰夫·贝佐斯的 Bezos Expeditions 等战略投资者参与,三星、 LG 、施耐德电气、 Salesforce Ventures 也悉数在列。

Basecamp Research 、英伟达及多所顶尖学术机构组成的联合研究团队,共同构建了 EDEN 系列宏基因组基础模型,通过从海量跨物种、关联环境信息的自然进化数据中学习,首次系统性地提炼出生物设计的深层「语法」与通用原则。

加州大学的研究团队在标准硅光电二极管表面设计了特殊的光子捕获纹理结构(PTST),并引入了一个抗噪性强的全连接神经网络。该网络能够直接从器件测量的光电流信号中,智能地计算并重建出原始光谱。这种方法不仅使光谱仪在长波长下实现了更高的信噪比,其综合性能也超越了传统硅基光谱仪。

来自德国歌德大学的研究团队基于度量学习对「人类 E3 连接酶组」进行了分类,整合了多层次数据,包括蛋白序列、结构域组成、三维结构、功能以及表达模式。这一方法扩展了 E3 酶的传统分类(RING 、 HECT 和 RBR 类),涵盖了非典型机制,成功解释了功能分区,区分了多亚基复合物与单体酶,并将 E3 酶映射到底物及潜在药物作用靶点。

耶鲁大学研究团队近期提出 MOSAIC 模型,将通用大语言模型转化为一个由众多专业化学专家构成的协作系统,通过专业分工有效抑制模型幻觉,提供可量化的不确定性评估,实现了从反应描述到完整实验方案的系统生成,有望在药物发现、材料开发等领域实质性地提升科研效率。

清华大学与芝加哥大学研究团队基于 1980—2025 年间 4,130 万篇自然科学论文与 537 万名科学家的超大规模数据,系统评估了 AI 工具对科学研究的真实影响。研究发现,AI 显著提升了个体科研产出与学术影响力,却在集体层面导致知识空间收缩、学术互动趋于集中。通过语言模型识别 AI 研究、引入「知识广度」等创新指标,论文揭示了 AI for Science 背后被忽视的结构性代价,为理解 AI 如何重塑科研生态提供了关键证据。
