HyperAI
HyperAI超神経
ホーム
プラットフォーム
ドキュメント
ニュース
論文
Notebooks
データセット
百科事典
SOTA
LLMモデル
GPU ランキング
学会
検索
サイトについて
利用規約
プライバシーポリシー
日本語
HyperAI
HyperAI
Toggle Sidebar
サイトを検索…
⌘
K
Command Palette
Search for a command to run...
Console
サインイン
ホーム
論文
論文
日々更新される最先端AI研究論文、人工知能の最新動向を把握
HyperAI
HyperAI超神経
ホーム
プラットフォーム
ドキュメント
ニュース
論文
Notebooks
データセット
百科事典
SOTA
LLMモデル
GPU ランキング
学会
検索
サイトについて
利用規約
プライバシーポリシー
日本語
HyperAI
HyperAI
Toggle Sidebar
サイトを検索…
⌘
K
Command Palette
Search for a command to run...
Console
サインイン
ホーム
論文
論文
日々更新される最先端AI研究論文、人工知能の最新動向を把握
Console
Console
論文 | HyperAI超神経
ConstraintLLM:産業レベルの制約プログラミングのためのニューロ・シンボリック枠組み
Weichun Shi, Minghao Liu, Wanting Zhang, et al.
コード支援付きチェーン・オブ・シンキングおよび指示のスケーリングによるモデル推論
Honglin Lin, Qizhi Pei, Xin Gao, et al.
CoDA:拡散適応を用いたLMのコーディング
Haolin Chen, Shiyu Wang, Can Qin, et al.
Fast-dLLM v2:効率的なブロックディフュージョン型LLM
Chengyue Wu, Hao Zhang, Shuchen Xue, et al.
少ないことがむしろ多い:小さなネットワークを用いた再帰的推論
Alexia Jolicoeur-Martineau
Fathom-DeepResearch:SLM向けの長期視野情報検索および統合の可能性を解き放つ
Shreyas Singh, Kunal Singh, Pradeep Moturi
TaTToo:テーブル推論におけるテスト時スケーリングのためのツール接地型思考PRM
Jiaru Zou, Soumya Roy, Vinay Kumar Verma, et al.
言語モデル向けハイブリッドアーキテクチャ:体系的分析と設計の知見
Sangmin Bae, Bilge Acun, Haroun Habeeb, et al.
MITS:ポイントワイズ相互情報量を用いたツリー探索推論によるLLMの性能向上
Jiaxi Li, Yucheng Shi, Jin Lu, et al.
大規模言語モデルに対する認識不能な改ざん
Kuofeng Gao, Yiming Li, Chao Du, et al.
VChain:動画生成における推論のための視覚的思考の連鎖
Ziqi Huang, Ning Yu, Gordon Chen, et al.
ビデオ-LMM ポストトレーニング:大規模マルチモーダルモデルを用いたビデオ推論の深層分析
Yunlong Tang, Jing Bi, Pinxin Liu, et al.
Paper2Video:科学論文からの自動動画生成
Zeyu Zhu, Kevin Qinghong Lin, Mike Zheng Shou
マイクロスケーリングFP4量子化における「約束」と「実績」の乖離を埋める
Vage Egiazarian, Roberto L. Castro, Denis Kuznedelev, et al.
マルチモーダル大規模言語モデルにおける自己改善:サーベイ
Shijian Deng, Kai Wang, Tianyu Yang, et al.
ポリシーを構成せよ!テスト時における分布レベルの組み合わせによる拡散型またはフロー型ロボットポリシーの改善
Jiahang Cao, Yize Huang, Hanzhong Guo, et al.
大きな推論モデルは、不完全な思考からより良い整合性を学習する
ShengYun Peng, Eric Smith, Ivan Evtimov, et al.
プログレッシブ一貫性蒸留を用いた効率的なマルチモーダル大規模言語モデル
Zichen Wen, Shaobo Wang, Yufa Zhou, et al.
アプリエル-1.5-15b-シンカー
Shruthan Radhakrishna, Aman Tiwari, Aanjaneya Shukla, et al.
StockBench:大規模言語モデルエージェントは現実の市場で株式を利益を上げて取引できるか?
Yanxu Chen, Zijun Yao, Yantao Liu, et al.
インタラクティブなトレーニング:フィードバック駆動型ニューラルネットワーク最適化
Wentao Zhang, Yang Young Lu, Yuntian Deng
StealthAttack:密度誘導幻覚を用いたロバストな3Dガウススプラッティング汚染手法
Bo-Hsu Ke, You-Zhe Xie, Yu-Lun Liu, et al.
ExGRPO:経験から推論するための学習
Runzhe Zhan, Yafu Li, Zhi Wang, et al.
Self-Forcing++:分単位スケールの高品質な動画生成へ
Justin Cui, Jie Wu, Ming Li, et al.
LongCodeZip:コード言語モデル向けの長文脈圧縮手法
Yuling Shi, Yichun Qian, Hongyu Zhang, et al.
PIPer:オンライン強化学習を用いたデバイス内環境設定
Alexander Kovrigin, Aleksandra Eliseeva, Konstantin Grotov, et al.
マルチドメインのテスト時スケーリングにおける報酬モデルの再考
Dong Bok Lee, Seanie Lee, Sangwoo Park, et al.
ナップサックRL:予算配分最適化によるLLMの探索の解放
Ziniu Li, Congliang Chen, Tianyun Yang, et al.
GEM:エージェンティックなLLM向けのギム
Zichen Liu, Anya Sims, Keyu Duan, et al.
VLA-RFT:世界シミュレーターにおける検証済み報酬を用いた視覚言語行動強化学習のファインチューニング
Hengtao Li, Pengxiang Ding, Runze Suo, et al.
DeepSearch:モンテカルロ木探索を用いた検証可能報酬により強化学習のボトルネックを克服する
Fang Wu, Weihao Xuan, Heli Qi, et al.
OceanGym:水中エンボディドエージェント向けベンチマーク環境
Yida Xue, Mingjun Mao, Xiangyuan Ru, et al.
1
13
14
15
16
17
18
19
39
ConstraintLLM:産業レベルの制約プログラミングのためのニューロ・シンボリック枠組み
Weichun Shi, Minghao Liu, Wanting Zhang, et al.
コード支援付きチェーン・オブ・シンキングおよび指示のスケーリングによるモデル推論
Honglin Lin, Qizhi Pei, Xin Gao, et al.
CoDA:拡散適応を用いたLMのコーディング
Haolin Chen, Shiyu Wang, Can Qin, et al.
Fast-dLLM v2:効率的なブロックディフュージョン型LLM
Chengyue Wu, Hao Zhang, Shuchen Xue, et al.
少ないことがむしろ多い:小さなネットワークを用いた再帰的推論
Alexia Jolicoeur-Martineau
Fathom-DeepResearch:SLM向けの長期視野情報検索および統合の可能性を解き放つ
Shreyas Singh, Kunal Singh, Pradeep Moturi
TaTToo:テーブル推論におけるテスト時スケーリングのためのツール接地型思考PRM
Jiaru Zou, Soumya Roy, Vinay Kumar Verma, et al.
言語モデル向けハイブリッドアーキテクチャ:体系的分析と設計の知見
Sangmin Bae, Bilge Acun, Haroun Habeeb, et al.
MITS:ポイントワイズ相互情報量を用いたツリー探索推論によるLLMの性能向上
Jiaxi Li, Yucheng Shi, Jin Lu, et al.
大規模言語モデルに対する認識不能な改ざん
Kuofeng Gao, Yiming Li, Chao Du, et al.
VChain:動画生成における推論のための視覚的思考の連鎖
Ziqi Huang, Ning Yu, Gordon Chen, et al.
ビデオ-LMM ポストトレーニング:大規模マルチモーダルモデルを用いたビデオ推論の深層分析
Yunlong Tang, Jing Bi, Pinxin Liu, et al.
Paper2Video:科学論文からの自動動画生成
Zeyu Zhu, Kevin Qinghong Lin, Mike Zheng Shou
マイクロスケーリングFP4量子化における「約束」と「実績」の乖離を埋める
Vage Egiazarian, Roberto L. Castro, Denis Kuznedelev, et al.
マルチモーダル大規模言語モデルにおける自己改善:サーベイ
Shijian Deng, Kai Wang, Tianyu Yang, et al.
ポリシーを構成せよ!テスト時における分布レベルの組み合わせによる拡散型またはフロー型ロボットポリシーの改善
Jiahang Cao, Yize Huang, Hanzhong Guo, et al.
大きな推論モデルは、不完全な思考からより良い整合性を学習する
ShengYun Peng, Eric Smith, Ivan Evtimov, et al.
プログレッシブ一貫性蒸留を用いた効率的なマルチモーダル大規模言語モデル
Zichen Wen, Shaobo Wang, Yufa Zhou, et al.
アプリエル-1.5-15b-シンカー
Shruthan Radhakrishna, Aman Tiwari, Aanjaneya Shukla, et al.
StockBench:大規模言語モデルエージェントは現実の市場で株式を利益を上げて取引できるか?
Yanxu Chen, Zijun Yao, Yantao Liu, et al.
インタラクティブなトレーニング:フィードバック駆動型ニューラルネットワーク最適化
Wentao Zhang, Yang Young Lu, Yuntian Deng
StealthAttack:密度誘導幻覚を用いたロバストな3Dガウススプラッティング汚染手法
Bo-Hsu Ke, You-Zhe Xie, Yu-Lun Liu, et al.
ExGRPO:経験から推論するための学習
Runzhe Zhan, Yafu Li, Zhi Wang, et al.
Self-Forcing++:分単位スケールの高品質な動画生成へ
Justin Cui, Jie Wu, Ming Li, et al.
LongCodeZip:コード言語モデル向けの長文脈圧縮手法
Yuling Shi, Yichun Qian, Hongyu Zhang, et al.
PIPer:オンライン強化学習を用いたデバイス内環境設定
Alexander Kovrigin, Aleksandra Eliseeva, Konstantin Grotov, et al.
マルチドメインのテスト時スケーリングにおける報酬モデルの再考
Dong Bok Lee, Seanie Lee, Sangwoo Park, et al.
ナップサックRL:予算配分最適化によるLLMの探索の解放
Ziniu Li, Congliang Chen, Tianyun Yang, et al.
GEM:エージェンティックなLLM向けのギム
Zichen Liu, Anya Sims, Keyu Duan, et al.
VLA-RFT:世界シミュレーターにおける検証済み報酬を用いた視覚言語行動強化学習のファインチューニング
Hengtao Li, Pengxiang Ding, Runze Suo, et al.
DeepSearch:モンテカルロ木探索を用いた検証可能報酬により強化学習のボトルネックを克服する
Fang Wu, Weihao Xuan, Heli Qi, et al.
OceanGym:水中エンボディドエージェント向けベンチマーク環境
Yida Xue, Mingjun Mao, Xiangyuan Ru, et al.
1
13
14
15
16
17
18
19
39