製薬業界のマーケターの65%がAIによる規制遵守提出物作成を信頼していないことが調査で判明。
米国を対象とした製薬業界のマーケティング・プロモーション審査担当者を対象に実施されたKlick HealthとMomentum Eventsの共同調査によると、65%の専門家がAIを規制遵守提出物の作成に信頼していないことが明らかになった。主な懸念は、AIが虚構の情報を生成する「ハルシネーション」(40%)、出力の根拠が不明な「透明性の欠如」(12.5%)、および履歴が残らない「トレーサビリティの欠如」(20%)である。これらのリスクは、医薬品広告やプロモーション資料の審査という高リスクな業務において、誤った判断や法的リスクを引き起こす可能性を示している。 調査では、AIを資料のレビューには半数が信頼しているものの、規制提出物の作成にはほとんど信頼していないことから、AIの活用には慎重な態度が見られる。また、37.5%の企業が四半期に100件以上の資産を審査しており、業務負荷の高さもAI導入の背景にある。55%の企業がAIの導入を検討中であり、25%がパイロット段階にあるが、実際に導入しているのはわずか7.5%にとどまる。これは、技術的な期待と実際の信頼感のギャップが大きいことを示している。 こうした課題に対し、Klick Healthのアルフレッド・ホワイトヘッド氏は、「ブラックボックス型AIは判断の根拠を提示せず、検証が困難だ。透明性と責任ある判断を備えたガラスボックス型AIの導入が不可欠だ」と強調。ジュリー・ターブルン氏も、「医療・規制専門知識を組み込んだガラスボックス型AIは、出力の理由を可視化し、審査プロセスの信頼性を高める」と述べ、同社が開発した「Klick Guardrail™」を例に挙げた。このツールは、単なる予測ではなく、複雑な論理判断を実行し、出力の経路を追跡可能にすることで、MLR(医療・法務・規制)プロセスの効率化とコンプライアンスの強化を実現している。現在、複数の製薬・バイオ企業でのパイロット運用と、Klick内部での導入が進んでいる。 ニューアムステラム・ファーマのBJ・ジョーンズ氏は、「Guardrailは責任あるAIの実現を、現実的かつ実用的な形で可能にした」と評価。同社は前年のKlickプライズでこのツールを最高賞に選出しており、審査担当者やコンテンツ作成者の立場を尊重する設計が高く評価されている。 こうした調査結果は、KPMGとメルボルン大学が発表した2025年「AI信頼調査」とも一致しており、AIに関する不安は2022年の49%から2024年には62%に上昇。56%の回答者がAIの使用でエラーを経験しており、不適切な使用や依存が問題視されている。今後、医薬品業界では、透明性・説明可能性・追跡性を備えたAIツールの導入が、コンプライアンスの基盤として不可欠となる。
