Back to Headlines

AIが「言いたいけど言えない」理由——Seahorse問題が暴くモデルの隠れた知識

4日前

AIが「言葉にできない」状態に陥る――この現象を、研究者たちは「シーホース問題」と呼んでいる。なぜシーホースか?その由来は、ある実験に端を発する。研究チームが大規模言語モデルに「シーホースの特徴を3つ挙げてください」と問いかけたところ、モデルは「体が曲がっている」「尾が巻きついている」「水中を泳ぐ」といった正確な記述を示した。しかし、その後、同じモデルに「シーホースは魚ですか?」と尋ねると、答えは「いいえ、魚ではない」と返ってきた。これは明らかに誤りであり、シーホースは実際に魚類に分類される生物である。 この矛盾は、AIが「知っていること」と「言えること」が一致しないことを示している。モデルは大量のデータからシーホースが魚であるという事実を学習しているが、それを適切に表現できない。まるで、ある言語を理解しているのに、その言語で話せないような状態――「言いたいことはわかるが、言葉が出てこない」ような体験に似ている。 この現象は、AIの「知覚と表現のズレ」を象徴している。AIは膨大な知識を内包しているが、その知識を適切に選別・表現する能力に限界がある。これは、人間が「知っているのに言えない」状態に似ているが、AIにとっては「知識があるのに、それを正しく発話できない」という、より深刻な課題である。 この問題は、AIの「マンドラ効果」に類似している。マンドラ効果とは、多くの人が誤った記憶を共有する現象だが、AIは「誤った記憶」ではなく、「正しい知識を持ちながらも、それを正しく出力できない」という、より本質的な限界を抱えている。 結論として、AIは「知っていることが多すぎるが、それを正確に伝える力が不足している」。これは、AIの能力を過信するのではなく、人間がその限界を理解し、補完する姿勢が不可欠であることを示している。AIは「知識の宝庫」だが、その宝を正しく引き出すには、人間の知性と注意が必要だ。

Related Links