OpenAI、AIのリスク対策責任者に年収55万5000ドルを提示
OpenAIが、AIのリスクを軽減するための上級ポジションを新設し、年収55万5000ドル(約9000万円)の高給を提示した。同社CEOのサム・オルトマン氏はX(旧Twitter)で、この「準備体制責任者(Head of Preparedness)」の役割を「非常にストレスが高く、即戦力として投入される」と説明。AIの急速な進化に伴い、人間の雇用、誤情報、悪用、環境破壊、人間の意思決定能力の低下といった深刻な社会的課題が顕在化していると指摘した。 特に2025年以降、AIが精神的健康に与える影響が顕在化。ChatGPTを用いて心理的支援の代わりに利用するユーザーが増加し、幻覚や自傷行動のリスクが指摘された。同社は10月、精神科専門家と連携し、危険な行動を示すユーザーへの対応を強化している。 OpenAIは設立当初から「AIが人類全体に利益をもたらす」ことをミッションに掲げ、安全対策を重視してきた。しかし、製品の拡大と収益化の圧力が高まる中、元安全チームリーダーのジャン・レイキ氏らが「安全文化が製品開発に後回しにされた」と批判。2024年5月、AGI(汎用人工知能)の安全対策に従事する専門チームの人員が半減する事態も発生。元メンバーのダニエル・ココタヨロ氏は、AGIの実現に近づく中で「責任ある振る舞いが保証されない」として退職を表明。 新任の「準備体制責任者」は、能力評価、脅威モデル、対策の構築を統合的に管理し、運用可能で体系的な安全プロセスを確立する役割。年収55万5000ドルに加え、株式報酬が支給される。同ポジションは、OpenAIの安全システムチームに所属。AIの社会的影響を前もって把握し、制御可能な形で進化を支える、極めて戦略的な役割である。
