HyperAIHyperAI

Command Palette

Search for a command to run...

OpenAIがAnthropic元安全研究者を招聘、AI安全対策責任者に就任

OpenAIは、AI安全分野の専門家を補強する形で、競合企業のAnthropicからAI安全研究者を採用した。同社は、前 AnthropicのAI安全研究者であるダイロン・スキャンを新設の「準備責任者(Head of Preparedness)」に任命した。この役職の報酬は最大55万5000ドルに上り、株式報酬も含まれる。報酬水準が注目を集める中、同社はAIの潜在的リスクへの対応を強化する動きを加速している。 サム・オルトマンCEOはX(旧Twitter)上で、スキャン氏の採用を「非常に楽しみ」と発表。彼が「極めて強力なモデル」を扱うにあたり、重大なリスクへの準備と軽減を率いる役割を担うと強調した。また、「この役割に最もふさわしい人物」として、スキャン氏を高く評価した。 スキャン氏自身もXで「Anthropicでの経験と素晴らしい同僚たちに深く感謝している」と述べ、AIの急速な進展に伴い、その恩恵とリスクの両方が顕著になると指摘。「極めて深刻で、回復不可能な被害の可能性も存在する」と警鐘を鳴らした。 この役職は、昨年10月に発表された求人で「即座に深淵に飛び込む」とされるほどストレスの高いポジションとして注目されていた。同社は、技術チームのリード力、不確実性下での意思決定力、利害が対立するステークホルダー間の調整能力を求めており、機械学習やAI安全、リスク管理の深い専門知識を要する。 一方、OpenAIは近年、安全対策に対する内部の不満や人材流出が相次いでいる。元安全チーム責任者を含む複数の早期従業員が退職。また、ユーザーによるAIツールの悪用を巡る訴訟も複数発生。10月には、ChatGPTユーザーの約56万人が週に1回、精神的健康上の緊急サインを示す可能性があると報告。同社は心理専門家と協力し、こうした状況への応答を強化している。 スキャン氏の就任は、OpenAIがAIの安全性を重視する姿勢を内外に示す重要な一歩と受け止められている。

関連リンク

OpenAIがAnthropic元安全研究者を招聘、AI安全対策責任者に就任 | 人気の記事 | HyperAI超神経