Google、検索でのリアルタイムAI音声チャットをテスト中
グーグルが新しい音声検索体験「Search Live」を提供 グーグルが新たに導入した「Search Live」は、音声入力を通じて自由に会話しながらリアルタイムに検索結果を得られる新機能です。この機能は、音声アシスタントが従来のシンプルな音声検索とは異なり、ユーザーの会話の文脈や非線形的な思考を理解する高度なAI技術を活用しています。 主な関係者 Google:「Search Live」を提供している技術企業 Gemini:グーグルが使用するカスタムAIチャットボット OpenAI、Anthropic、Apple:競合他社で、各自のAIモデルに音声機能を追加している 時系列と背景 2023年11月にグーグルが公開 - グーグルは長年、ウェブの検索体験を大幅に変えませんでしたが、AI技術の進歩により、ユーザー体験の向上を目指して「Search Live」を発表しました。 出来事の原因、経過、結果 なぜ導入されたか - ユーザーがより自然な会話を通じて情報を得られるようにするために、そして従来のキーワード検索から解放されるためです。 どのように導入されたか - 「Search Live」はAI Modeの一環として導入され、現在は米国のLabsユーザー限定で利用できます。参加するにはGoogleアカウントが必要で、無料でサインアップ可能です。 どのような結果が期待できるか - ユーザーは他のアプリを使用しながらも、音声検索と会話を続けることができます。これにより情報探索の効率が向上すると見込まれています。 重要な事実、突破口、転機 多ターン会話:「Search Live」は複数回の対話を可能にし、ユーザーの疑問に対してもっと深く掘り下げて回答します。 リアルタイムリンク表示:音声会話中に、関連するウェブリンクをリアルタイムで表示することで、詳細情報をすぐにアクセスできます。 カメラ機能の追加予定:将来的にはカメラを使ってリアルタイムに周囲の状況を認識し、より具体的な回答を得られることを目指しています。 関連する背景情報 競合の動き:OpenAIやAnthropicも自社のAIモデルに音声機能を追加しています。「ChatGPT」では去年に「Advanced Voice Mode」が導入され、「Claude」では今年5月に音声機能が追加されました。 Appleの遅延:Appleも「LLM Siri」という音声機能付きAIアシスタントを開発していましたが、信頼性に課題があったことからロールアウトが延期されています。 「Search Live」の使い方と特徴 アクセス方法 - 米国のLabsユーザーとして登録する必要があります。Google Appの検索バー下の新しい「Live」アイコンをタップし、音声で質問を始めます。 例 - 「リネンのドレスがスーツケースでしわになったらどうすれば良い?」という質問に対して、AIチャットボットが音声で回答します。さらに「それでもしわになったらどうすれば良い?」というフォローアップ質問も可能です。 その他の特徴 - バックグラウンド動作:他アプリを使用していても会話が継続可能です。 - テキストでの応答:会話の履歴をテキスト形式で保存でき、必要に応じてタイピングでのフォローアップ質問もできます。 - 会話履歴の保存:過去の「Search Live」の会話はAI Modeの履歴に保存され、今後の参照に利用できます。 まとめ グーグルの「Search Live」は、AI技術を駆使してユーザーとの自然な会話を可能にし、情報探索の手間を大きく軽減します。競合他社でも同様の機能が開発されていますが、グーグルは特にカメラ機能を追加することで、より具体的なニーズに対応しようとしています。これらの新機能により、検索体験がより便利で効率的なものとなり、日常生活での情報アクセスが円滑になることが期待されます。 背景の補足 専門家のコメント - テクノロジー解析者のエマ・ロスは、「音声検索の進化は、デジタルアシスタントの新たな時代を示しており、使い勝手の向上がユーザー体験全体を変える可能性がある」と述べています。 企業プロフィール - Google:世界最大のインターネット関連技术服务企業であり、検索エンジン、広告テクノロジー、クラウドプラットフォームなどを提供しています。 - OpenAI:人工知能研究機関で、ChatGPTを含む多数のAIプロジェクトを進めています。 - Anthropic:非営利の人工知能研究会社で、ClaudeなどのAIアシスタントを開発しています。 - Apple:世界的なテクノロジー企業で、iOSデバイスやSiriなど、幅広い製品とサービスを提供しています。 広範な影響や対応 - この新機能は、スマートフォンやタブレットユーザーだけでなく、さまざまなデバイス間での情報アクセスをより容易にすると考えられています。また、視覚や音声認知に困難を持つ人々にとっても、検索体験が改善される可能性があります。