Gemini のタスク自動化は遅くも超インプレッシブ
Google は Pixel 10 Pro や Galaxy S26 Ultra 上で動作する Gemini の新機能「タスク自動化」をベータテスト段階で公開しています。この機能は Gemini が自動でアプリを操作し、配車やフードデリバリーを実行するもので、将来的な AI アシスタントの姿を示唆する画期的な試みですが、現状はまだ多くの課題を抱えています。テスト期間中、動作速度は人間の操作に比べて著しく遅く、メニューの特定の項目を探す際や、アプリの許可設定が必要な場面などでつまずくこともあります。例えば、食事注文では約 9 分を要するなど、即座に完了が必要なシーンには不向きです。しかし、この機能はバックグラウンドで動作可能であり、ユーザーが他の作業を行っている間や、画面を見ていない間もタスクを継続して進めることができます。 現在対応しているのは一部のフードデリバリーや配車サービスに限られており、注文確認画面に到達するまでは自動処理を行い、最終的な決済ボタンを押す前の段階でユーザーの承認を待つ仕組みとなっています。過去のテストでは、AI が勝手にお金を請求するといった暴走事例は確認されておらず、順序やメニュー項目の指定において高い精度を示す一方、エラーが発生した際の理由説明は不十分な点があります。特に、飛行機の出発時刻に基づいて Uber の配車を予約するといった複雑な連携タスクでは、カレンダーやメールの情報を取得し、適切な出発時刻を提案して完了させるなど、人間のような推論能力を発揮する様子は非常に印象的でした。 専門家の指摘によれば、現在のような人間用デザインが施されたアプリの UI を AI が無理やり操作するアプローチは、将来性が低い限界を持つ可能性があります。理想的には、広告や装飾が排されたデータベース形式で AI に情報を提供したり、Android の「アプリ関数」や「モデルコンテキストプロトコル(MCP)」のような、AI が直接データにアクセスできる仕様への移行が業界の課題となっています。Google の Sameer Samat 氏も、現在は推論による操作が唯一の選択肢であるとしつつ、今後の開発者による対応を促す意味合いが強いと述べています。全体的に現時点の自動化機能は遅く、不器用さがありますが、自然言語による指示でデバイスが自律的に動くという点で、モバイルアシスタントの新しい可能性を示す重要な第一歩であると言えます。
