HyperAI
HyperAI超神経
ホーム
プラットフォーム
ドキュメント
ニュース
論文
Notebooks
データセット
百科事典
SOTA
LLMモデル
GPU ランキング
学会
検索
サイトについて
利用規約
プライバシーポリシー
日本語
HyperAI
HyperAI
Toggle Sidebar
サイトを検索…
⌘
K
Command Palette
Search for a command to run...
Console
サインイン
ホーム
論文
論文
日々更新される最先端AI研究論文、人工知能の最新動向を把握
HyperAI
HyperAI超神経
ホーム
プラットフォーム
ドキュメント
ニュース
論文
Notebooks
データセット
百科事典
SOTA
LLMモデル
GPU ランキング
学会
検索
サイトについて
利用規約
プライバシーポリシー
日本語
HyperAI
HyperAI
Toggle Sidebar
サイトを検索…
⌘
K
Command Palette
Search for a command to run...
Console
サインイン
ホーム
論文
論文
日々更新される最先端AI研究論文、人工知能の最新動向を把握
Console
Console
論文 | HyperAI超神経
VGGT: Visual Geometry Grounded Transformer VGGT: ビジュアル・ジオメトリ・グラウンデッド・トランスフォーマー
Jianyuan Wang, Minghao Chen, Nikita Karaev, et al.
単一ステップ報酬を用いたマルチターンコード生成
Arnav Kumar Jain, Gonzalo Gonzalez-Pumariega, Wayne Chen, et al.
大規模言語モデルの構成的一般化能力を命令文理解能力を考慮して再検討する
Yusuke Sakai, Hidetaka Kamigaito, Taro Watanabe
具現化ウェブエージェント:物理デジタル領域を橋渡しする統合エージェント知能
Yining Hong, Rui Sun, Bingxuan Li, et al.
意味を理解した報酬の体系:自由形式生成におけるオープンエンドR1トレーニング向け
Zongxia Li, Yapei Chang, Yuhang Zhou, et al.
BUTシステムのMLC-SLMチャレンジへの適用
Alexander Polok, Jiangyu Han, Dominik Klement, et al.
GenRecal: 大規模から小規模への再校正後の生成 言語-視覚モデル
Byung-Kwan Lee, Ryo Hachiuma, Yong Man Ro, et al.
ProtoReasoning: プロトタイプを基盤とするLLMにおける一般化可能な推論
Feng He, Zijun Chen, Xinnian Liang, et al.
世界探査向けビデオデータセット:Sekai
Zhen Li, Chuanhao Li, Xiaofeng Mao, et al.
VIRES: スケッチとテキストガイドによるビデオインスタンスリペイント
Shuchen Weng, Haojie Zheng, Peixuan Zhang, et al.
QFFT、Question-Free Fine-Tuning for Adaptive Reasoning
Wanlong Liu, Junxiao Xu, Fei Yu, et al.
大規模言語モデル(LLM)はアルゴリズム問題のための高品質なテストケースを生成できるか? TestCase-Eval: 故障カバレッジとエクスポージャの体系的な評価
Zheyuan Yang, Zexi Kuang, Xue Xia, et al.
AceReason-Nemotron 1.1: 数学とコード推論の進歩を図るSFTとRLのシナジー
Zihan Liu, Zhuolin Yang, Yang Chen, et al.
ストリーム・オムニ:大規模言語-視覚-音声モデルを用いた同時多モーダル相互作用
Shaolei Zhang, Shoutao Guo, Qingkai Fang, et al.
強化学習を用いた効率的な医療VIE
Lijun Liu, Ruiyang Li, Zhaocheng Liu, et al.
テスト時の計算量をスケーリングするLLMエージェント
King Zhu, Hanhao Li, Siwei Wu, et al.
TaskCraft: エージェンティックタスクの自動生成
Shi, Dingfeng, Cao, et al.
待つ必要はありません!「思考トークン」の削除が推論効率を向上させる
Wang, Chenlong, Feng, et al.
Ego-R1: 超長時間エゴセントリック動画の推論におけるツール思考チェーン
Shulin Tian, Ruiqi Wang, Hongming Guo, et al.
DeepResearch Bench: 深層研究エージェントのための包括的なベンチマーク
Mingxuan Du, Benfeng Xu, Chiwei Zhu, et al.
科学者の最初の試験:MLLMの認知能力を知覚、理解、推論を通じて探究する
Zhou, Yuhao, Wang, et al.
MiniMax-M1: ライトニング・アテンションを用いてテスト時の計算リソースを効率的にスケーリング
MiniMax, Aili Chen, Aonian Li, et al.
均質アテンションを超えて:フーリエ近似KVキャッシュを用いたメモリ効率の高いLLM
Xiaoran Liu, Siyang He, Qiqi Wang, et al.
高品質データセットと信頼性のある評価手法による 画像・テキスト連携生成
Yukang Feng, Jianwen Sun, Chuanhao Li, et al.
SwS: 自己の弱点を認識した問題合成手法による強化学習のLLM推論向上
Liang, Xiao, Li, et al.
LiveCodeBench Pro: オリンピックメダリストが競技プログラミングにおけるLLMの評価方法を解説
Zihan Zheng, Zerui Cheng, Zeyu Shen, et al.
拡散の二重性
Sahoo, Subham Sekhar, Deschenaux, et al.
Alignされた新規視点画像と幾何学合成をクロスモーダル注意インストレーションを用いて実現
Min-Seop Kwak, Junho Kim, Sangdoo Yun, et al.
VRBench: 長編ナラティブビデオにおける多段階推論のベンチマーク
Yu, Jiashuo, Wu, et al.
AniMaker: MCTS駆動の自動化されたマルチエージェントアニメーションストーリーテリング
Shi, Haoyuan, Li, et al.
テキストに配慮したディフュージョンモデルを用いた画像修復
Jaewon Min, Jin Hyeon Kim, Paul Hyunbin Cho, et al.
Magistral この単語は、学術的な文脈では「権威ある」や「卓越した」といった意味で使用されます。ただし、具体的な文脈がないと正確な翻訳が難しいため、以下に一般的な翻訳を示します。 権威ある 卓越した もし特定の文脈がある場合は、その情報を提供いただければより適切な翻訳が可能です。
Mistral-AI, Abhinav Rastogi, Albert Q. Jiang, et al.
1
35
36
37
38
39
VGGT: Visual Geometry Grounded Transformer VGGT: ビジュアル・ジオメトリ・グラウンデッド・トランスフォーマー
Jianyuan Wang, Minghao Chen, Nikita Karaev, et al.
単一ステップ報酬を用いたマルチターンコード生成
Arnav Kumar Jain, Gonzalo Gonzalez-Pumariega, Wayne Chen, et al.
大規模言語モデルの構成的一般化能力を命令文理解能力を考慮して再検討する
Yusuke Sakai, Hidetaka Kamigaito, Taro Watanabe
具現化ウェブエージェント:物理デジタル領域を橋渡しする統合エージェント知能
Yining Hong, Rui Sun, Bingxuan Li, et al.
意味を理解した報酬の体系:自由形式生成におけるオープンエンドR1トレーニング向け
Zongxia Li, Yapei Chang, Yuhang Zhou, et al.
BUTシステムのMLC-SLMチャレンジへの適用
Alexander Polok, Jiangyu Han, Dominik Klement, et al.
GenRecal: 大規模から小規模への再校正後の生成 言語-視覚モデル
Byung-Kwan Lee, Ryo Hachiuma, Yong Man Ro, et al.
ProtoReasoning: プロトタイプを基盤とするLLMにおける一般化可能な推論
Feng He, Zijun Chen, Xinnian Liang, et al.
世界探査向けビデオデータセット:Sekai
Zhen Li, Chuanhao Li, Xiaofeng Mao, et al.
VIRES: スケッチとテキストガイドによるビデオインスタンスリペイント
Shuchen Weng, Haojie Zheng, Peixuan Zhang, et al.
QFFT、Question-Free Fine-Tuning for Adaptive Reasoning
Wanlong Liu, Junxiao Xu, Fei Yu, et al.
大規模言語モデル(LLM)はアルゴリズム問題のための高品質なテストケースを生成できるか? TestCase-Eval: 故障カバレッジとエクスポージャの体系的な評価
Zheyuan Yang, Zexi Kuang, Xue Xia, et al.
AceReason-Nemotron 1.1: 数学とコード推論の進歩を図るSFTとRLのシナジー
Zihan Liu, Zhuolin Yang, Yang Chen, et al.
ストリーム・オムニ:大規模言語-視覚-音声モデルを用いた同時多モーダル相互作用
Shaolei Zhang, Shoutao Guo, Qingkai Fang, et al.
強化学習を用いた効率的な医療VIE
Lijun Liu, Ruiyang Li, Zhaocheng Liu, et al.
テスト時の計算量をスケーリングするLLMエージェント
King Zhu, Hanhao Li, Siwei Wu, et al.
TaskCraft: エージェンティックタスクの自動生成
Shi, Dingfeng, Cao, et al.
待つ必要はありません!「思考トークン」の削除が推論効率を向上させる
Wang, Chenlong, Feng, et al.
Ego-R1: 超長時間エゴセントリック動画の推論におけるツール思考チェーン
Shulin Tian, Ruiqi Wang, Hongming Guo, et al.
DeepResearch Bench: 深層研究エージェントのための包括的なベンチマーク
Mingxuan Du, Benfeng Xu, Chiwei Zhu, et al.
科学者の最初の試験:MLLMの認知能力を知覚、理解、推論を通じて探究する
Zhou, Yuhao, Wang, et al.
MiniMax-M1: ライトニング・アテンションを用いてテスト時の計算リソースを効率的にスケーリング
MiniMax, Aili Chen, Aonian Li, et al.
均質アテンションを超えて:フーリエ近似KVキャッシュを用いたメモリ効率の高いLLM
Xiaoran Liu, Siyang He, Qiqi Wang, et al.
高品質データセットと信頼性のある評価手法による 画像・テキスト連携生成
Yukang Feng, Jianwen Sun, Chuanhao Li, et al.
SwS: 自己の弱点を認識した問題合成手法による強化学習のLLM推論向上
Liang, Xiao, Li, et al.
LiveCodeBench Pro: オリンピックメダリストが競技プログラミングにおけるLLMの評価方法を解説
Zihan Zheng, Zerui Cheng, Zeyu Shen, et al.
拡散の二重性
Sahoo, Subham Sekhar, Deschenaux, et al.
Alignされた新規視点画像と幾何学合成をクロスモーダル注意インストレーションを用いて実現
Min-Seop Kwak, Junho Kim, Sangdoo Yun, et al.
VRBench: 長編ナラティブビデオにおける多段階推論のベンチマーク
Yu, Jiashuo, Wu, et al.
AniMaker: MCTS駆動の自動化されたマルチエージェントアニメーションストーリーテリング
Shi, Haoyuan, Li, et al.
テキストに配慮したディフュージョンモデルを用いた画像修復
Jaewon Min, Jin Hyeon Kim, Paul Hyunbin Cho, et al.
Magistral この単語は、学術的な文脈では「権威ある」や「卓越した」といった意味で使用されます。ただし、具体的な文脈がないと正確な翻訳が難しいため、以下に一般的な翻訳を示します。 権威ある 卓越した もし特定の文脈がある場合は、その情報を提供いただければより適切な翻訳が可能です。
Mistral-AI, Abhinav Rastogi, Albert Q. Jiang, et al.
1
35
36
37
38
39