Back to Headlines

AIが研究倫理審査を支援へ 専門家が「人間とAIの強みを活かす」

4日前

人工知能(AI)が研究倫理審査委員会(IRB)の業務支援に活用されようとしている。IRBは人間を対象とした研究の倫理的妥当性を審査する機関で、膨大な量の申請書を検討するため、審査員は負担が大きく、繰り返し見られるミスに疲れることも少なくない。エイントホイット・エティシストのフィリップ・ニッケル氏は、「同じ間違いを何度も見るのは疲れる。どうにかして避けられないか」と語る。こうした課題に対し、大規模言語モデル(LLM)の活用が注目されている。ChatGPTやClaudeといったAIは、リスク評価の不足や参加者保護の穴、法的問題などを事前に検出でき、審査員が複雑な倫理判断に集中できるよう支援する可能性がある。 現時点で正式にAIを導入したIRBはまだないが、実験では一定の成果が示されている。昨年の研究では、GPT-3.5やGPT-4、Claude-Instantなど4つのモデルが、健康研究の7件の設計書からリスク・ベネフィットの問題や保護策の欠如を正確に指摘した。さらに、先月公開されたプレプリントでは、GPT-4oとGemini 1.5 Proが、動物実験向けの50件の申請書から、人間審査員が指摘したすべての問題を検出。AIの実用性は証明されつつある。 研究者たちは、AIをさらに強化するため、IRBの過去の審査記録や方針、文化背景に基づいてモデルを微調整する方法を提案。これにより、AIが特定機関の思考スタイルに近づき、一貫性と透明性を高められる。特に、OpenAIのoシリーズやAnthropicのSonnetといった「推論モデル」は、判断の根拠を段階的に示すため、「ブラックボックス」としての批判を避けられる。また、外部資料(IRBマニュアルなど)を参照させる技術により、誤った情報の生成(ハルシネーション)も抑制できる。 ただし、懸念も根強い。AIに依存しすぎると、審査員が機械の判断を盲信するリスクがあり、訓練データに含まれるバイアスが継続する可能性がある。特に、商業系IRBはスピードと利益を優先する傾向があり、AIの導入が審査の質を下げる恐れもある。一方、南アフリカの研究者キーマンティ・ムードレー氏は、グローバルサウスの資源不足IRBにとってAIは「救命の手」になり得るが、欧米中心のデータで学習されたAIは、アフリカの文化的・倫理的文脈に合わない恐れがあると警鐘を鳴らす。 研究者たちは、AIが人間を置き換えるのではなく、単なる支援ツールとして位置づけるべきだと強調。NUSのシーア・ジエハオ氏は「日常的なチェックをAIに任せ、本質的な倫理判断に集中できる」と説明。一方、ペンシルベニア大のホリー・フェルナンデス・リンチ氏は、「IRBはアルゴリズム化されるべきではない。人間が協議し、共に判断する価値は不可欠だ」と指摘。 今後は、クラウドベースの商用モデルから、研究機関が自ら所有・運用できるオープンソース版やローカル実行型モデルへの移行が期待される。研究者らは、「科学共同体が所有し、透明性の高い公共資源として運営されるAI」こそが、懐疑的な科学者を納得させる鍵だと考える。

Related Links