HyperAIHyperAI

Command Palette

Search for a command to run...

Google MapsにGeminiAIが統合され、ナビゲーションと音声操作が大幅に進化。アシスタントの役割を引き継ぎ、手軽な「すべてを知るコ・パイロット」へと進化。

Googleは、GoogleマップにAIアシスタント「Gemini」を統合し、運転中の操作を大幅に簡素化する新機能を導入します。このアップデートにより、運転中でも手を離さずに目的地の検索、EV充電ステーションの確認、友人への到着予定時刻の共有が可能になります。特に、複数の質問を連続して行える会話型対応が特徴で、「ルート沿いでベジタリアン対応の安価なレストランはある?2マイル以内で」といった複雑な要望に応え、さらに「その場所の駐車状況は?」と続く質問も自然に行えます。さらに、「明日の5時からサッカーの練習の予定をカレンダーに追加して」というようなタスクも、Geminiがユーザーの許可を得て自動で実行。運転中にスマホを操作せず、音声でさまざまな操作を完遂できるようになります。 また、交通状況の報告も音声で即座に可能に。事故や洪水、渋滞の兆候を「事故があります」「前で洪水のようです」「スピードダウンに注意」と発話するだけで、リアルタイムで他のユーザーに通知されます。これはGoogleマップの信頼性を高める重要な仕組みです。 さらに、マップのナビゲーション精度も向上。Geminiは、2億5000万もの場所情報とStreet Viewの画像を連携し、交差点での「右折後500フィート」のような抽象的な指示ではなく、「○○ガソリンスタンドの近くで右折」と、目に見えるランドマークを提示。これにより、運転中の判断がより直感的になります。このランドマークナビゲーションは、当初は米国でのみ提供されますが、今後拡大予定です。 さらにGoogle Lensと連携することで、カメラで撮影した施設(レストランや観光地など)に対して、「この場所は何で有名なの?」といった質問も可能に。写真から情報を読み取り、リアルタイムで回答します。 これらの機能は、今後数週間以内にAndroidおよびiOSで順次提供され、Android Autoへの対応も予定されています。交通情報の報告機能は米国でのみ先行導入、ランドマークナビゲーションとLens連携は米国で今月後半から提供開始。Googleは、AIを活用した「手を離した運転体験」の実現を進めており、安全で快適な移動の未来を築く取り組みを強化しています。

関連リンク

Google MapsにGeminiAIが統合され、ナビゲーションと音声操作が大幅に進化。アシスタントの役割を引き継ぎ、手軽な「すべてを知るコ・パイロット」へと進化。 | 人気の記事 | HyperAI超神経