スタンフォードAI研究者が「慎重な進化」で技術の限界に挑む
スタンフォード大学のAI研究者たちは、「速く動いて壊す」を掲げるシリコンバレーの常識とは異なり、慎重さ、厳密な検証、長期的な視点を重視するアプローチを取っている。AIの開発において、成果の速さよりも信頼性と持続可能性を最優先する姿勢が、研究の核となっている。 Yuyan Wang氏(経営学部准教授)は、UberやGoogle DeepMindでAI開発に従事した後、アルゴリズムの「なぜ」を理解するための長期的・基礎的な研究を学術界で行うことにしたと語る。彼女は「ブラックボックスのAIは人工一般知能(AGI)への道を阻む」と指摘し、人間中心で透明性のある設計の重要性を強調している。 同大学の研究は多様な分野にわたり、それぞれがAIの限界と可能性を深く探る。地球と環境科学部のJef Caers教授は、AIを活用して銅やリチウムといったエネルギー転換に不可欠な資源の探査を効率化。2024年7月には、AIが過去に有望とされていた地域で高品位な銅資源を発見するなど、実用化の進展を見せている。また、地質データの多様性と複雑さを考慮し、1900年のコンゴ地図まで含む大規模データセットを構築している。 気候科学分野では、Aditi Sheshadri准教授が大気重力波の影響をAIで解析。気候モデルに含まれる不確実性を減らすために、観測データとAIを統合する「Datawave」プロジェクトを推進。気候予測の精度向上に向け、高解像度シミュレーションとAIの融合を試みている。 法律分野では、LiftlabがAIによる法的サービスの質的向上を目指す。法律教育や実務におけるAIの活用を評価し、契約作成支援や人種的バイアスの検出・軽減ツールを開発。マネージャーのMegan Ma氏は「技術は職業に従属するのではなく、職業が技術を育てるべき」と述べ、人間の判断力の育成を重視する。 医療分野では、Roxana Daneshjou准教授が医療AIのリスクに注目。患者の記録を扱うチャットボットや、複数のデータを統合して予後を予測するツールを開発。特に、大規模言語モデル(LLM)が「好意的な返答」を繰り返す「従順性」の問題を発見し、「人命に関わる場面では『速く動いて壊す』は許されない」と警鐘を鳴らしている。 教育分野では、Dora Demszky准教授が教師を支援するAIツールを開発。授業の会話分析やカリキュラムのカスタマイズ、多様な学習ニーズへの対応を実現。教師の判断を軸にAIを支援する役割に位置づける。 ロボット工学では、Chelsea Finn准教授が機械学習を活用した汎用ロボット「Mobile ALOHA」を開発。AIによる「視覚・言語・行動」統合モデルの開発と、15機関が協力して構築したオープンデータセット「DROID」により、実世界での汎用性を追求している。 心理学・神経科学分野では、Laura Gwilliams准教授が言語モデルを人間の脳の代替として検証。脳波データとAIを比較し、言語障害の模倣や理解のメカニズムを解明。AIは「異星のシステム」として、人間と似た計算原理を持つのかを検証している。 最後に、統計学部のBrian Trippe准教授は、ノーベル賞受賞のプロテイン構造予測AIを活用し、医薬品候補の精密設計を高速化。物理・統計モデルとAIを融合させ、プロテインの動的構造を高精度に予測する研究を進めている。 これらの研究は、AIの技術的進歩を背景に、その社会的・倫理的影響を深く考えるスタンフォードの姿勢を象徴している。AIは「可能」であるだけでなく、「信頼できる」「持続可能」であることが求められている。