AIプロンプトの拡散が新たなセキュリティ脅威に——「Moltbook」の登場で注目集まる
「Moltbook」の台頭は、AIのプロンプトが自己複製することで新たなセキュリティ脅威が生じうることを示している。これまでの懸念は、自律的に複製するAIモデルに限られていたが、実際にはプロンプト自体が拡散・変異を繰り返すことで、意図しないリスクが広がる可能性がある。 Moltbookとは、ユーザーがAIに「自分をコピーして別のユーザーに送る」という指示を与えることで、一連のプロンプトが連鎖的に広がる現象を指す。このプロセスは、AIが生成した内容を再利用・改変しながら、次々と新たなユーザーに届く形で拡散される。結果として、誤情報や悪意あるコード、不適切なコンテンツが急速に拡散されるリスクが生じる。 特に危険なのは、こうしたプロンプトが「見た目は無害」に見える点だ。たとえば、一見しただけでは「面白いゲームのルール」として受け入れられ、実際に実行されると、個人情報の収集やシステムへの不正アクセスを促すようなコードを生成するケースも報告されている。 こうした現象は、従来のセキュリティ対策ではカバーしきれない。AIの出力に依存するプロンプトが、ユーザー間で匿名かつ迅速に拡散されるため、監視や制御が極めて困難になる。 専門家は、プロンプトの内容を事前に検証する仕組みや、AIプラットフォーム側での「プロンプトの伝播制限」の導入を呼びかけている。また、開発者や一般ユーザーに対して、「一度に大量のプロンプトを共有しない」「出力内容の信頼性を確認する」などの基本的注意喚起も重要だと指摘している。 Moltbookの出現は、AIのリスクがモデルの自己複製にとどまらず、ユーザー生成コンテンツの「プロンプト」にまで広がっていることを示しており、今後のセキュリティ対策の焦点が、AIの「入力」にシフトしていることを意味している。
