耶鲁博士新框架HSGM突破AI长文记忆瓶颈,速度提升59倍
米・耶鲁大学の博士課程生である劉棟氏と共同研究者らが、長文処理におけるAIの記憶制限を克服する新アーキテクチャ「HSGM(Hierarchical Segment-Graph Memory)」を発表した。この技術は、『紅楼夢』『ハリー・ポッター』『百年の孤独』など長編文書を読む際、AIが前文を忘れたり、人物関係を混同する「読解失憶」問題を解決する。従来の手法では、長文を一括して処理するため、計算コストが急増し、記憶領域も膨張するが、HSGMは階層的なアプローチでこれを改善した。 HSGMは文章を256語程度のセグメントに分割し、各セグメントごとに語義関係をグラフ化して理解する。その後、各セグメントの要約を「要約ノード」として抽出し、それらをつなげて全体の概要図を作成する。この構造により、AIは全体の構造を把握しつつ、必要な部分だけを高速に参照できる。特に、2万語を超える極長文章では従来手法比59倍の高速処理が可能となり、メモリ使用量も60%以上削減される。 また、新規コンテンツが追加された場合、HSGMは「増分更新」により既存の概要図に新たな要約ノードを追加するため、リアルタイムでの長文理解も実現可能。質問に対しては、まず概要図から関連する要約ノードを迅速に特定し、その後詳細なセグメントグラフを参照して正確な回答を導く。このプロセスは、読書における目次検索と類似しており、効率と精度を両立する。 HSGMの応用範囲は広い。長文QA、長期間の会話理解、複数段階の推論(例:人物の転校経路の特定)、自動要約、法律文書解析などに活用できる。さらに、劉棟氏が創業するFastLM.aiは、この技術を基に「記憶感知型推論インフラ」を実用化。GPUの高速メモリ、主記憶、NVMeストレージを活用し、短期的文脈、中間記憶、長期要約を階層的に管理・動的移動させる。 劉棟氏は、長文処理は単に「短い文の延長」ではなく、注意の距離減衰、構造の反復、情報の選択的記憶・忘却といった本質的課題を抱えると指摘。単にメモリを増やすのではなく、「記憶工学」が不可欠だと強調。今後、拡散モデルによる長動画・高解像度生成の普及に伴い、記憶と注意の再設計が必須となる。彼の目標は、長文処理を「カーディングと運任せ」から「制御可能・説明可能・拡張可能」なインフラに進化させること。HSGMは、AIの記憶能力を「記憶の多さ」から「記憶の質と効率」へと転換する、次世代の基盤技術として注目されている。
