Tensormesh、4500万ドル調達でAI推論効率を10倍に
AIサーバーの推論性能を最大限に引き出すためのインフラベンチャー、Tensormeshが450万ドルのシード資金調達を実現した。同社は、GPUリソースを効率的に活用する技術開発を狙い、ラウデ・ベンチャーズが主導する資金調達を成功させ、データベース分野のパイオニアであるマイケル・フランクリン氏もアングル投資者として参加した。 Tensormeshは、共同創業者であるYihua Cheng氏が開発・維持するオープンソースツール「LMCache」の商用化を推進する。この技術は、推論処理におけるメモリ使用を最大10倍削減可能で、GoogleやNVIDIAを含む主要企業の採用を獲得。同社は、学術的実績を基盤に、実用性の高い商用製品としての市場展開を目指している。 核心となるのは「キー値キャッシュ(KVキャッシュ)」という記憶機構。従来のアーキテクチャでは、各クエリごとにこのキャッシュが破棄されるため、同じ処理を繰り返す際に再計算が必要となり、性能の損失が生じる。TensormeshのCEOであるJunchen Jiang氏は、「まるで非常に優秀なアナリストがデータを読み解くが、質問ごとにその知識を忘れてしまう」と表現。その非効率性を解消するため、キャッシュを二次ストレージに保持し、類似処理が発生した際に再利用する仕組みを採用。 特にチャットインターフェースやエージェント型システムでは、会話ログや行動履歴が長くなるにつれて推論負荷が増大するが、この技術により、同じデータを繰り返し処理するコストを大幅に削減できる。GPUメモリの限界を考慮し、複数のストレージレイヤーを統合的に活用することで、サーバー負荷を変えずに推論性能を飛躍的に向上させる。 同社は、企業が自前でこのシステムを構築するのは技術的に極めて困難であり、20人規模のエンジニアチームが3~4か月を要するケースも少なくないとしている。Tensormeshは、こうした課題を即座に解決できるプロダクトとして、AI企業からの需要を期待している。
