HyperAIHyperAI

Command Palette

Search for a command to run...

il y a 2 mois
OpenAI
Organisation

OpenAI offre 555 000 $ par an pour un poste clé de prévention des risques de l'IA

OpenAI cherche à rémunérer une personne 555 000 dollars par an pour atténuer les risques liés à l’intelligence artificielle. Ce poste, intitulé « chef de la préparation », a été annoncé par Sam Altman, le PDG de l’entreprise, sur X (anciennement Twitter) samedi dernier. Selon lui, ce rôle est « stressant » et exige une immersion immédiate dans des enjeux complexes. « Vous plongerez directement dans le vif du sujet », a-t-il écrit, soulignant l’importance cruciale de cette fonction à un moment charnière pour l’avenir de l’IA. Les risques que ce poste vise à atténuer sont nombreux : perte d’emplois, propagation de fausses informations, usage malveillant par des acteurs hostiles, dégradation de l’environnement, ou encore la diminution de l’autonomie humaine. Altman rappelle que les modèles d’IA évoluent rapidement et sont désormais capables de réalisations remarquables, mais qu’ils posent aussi des défis croissants. Il cite notamment l’impact potentiel sur la santé mentale, déjà observé en 2025, ainsi que la capacité croissante des systèmes à détecter des failles critiques en cybersécurité. ChatGPT, le chatbot d’OpenAI, a popularisé l’IA auprès du grand public. Beaucoup l’utilisent pour rédiger des courriels, planifier des voyages ou chercher de l’information. Mais certains utilisateurs s’adressent à ces modèles comme à un substitut à la thérapie, ce qui a entraîné, dans certains cas, des troubles psychiques, des idées délirantes ou des comportements préoccupants. En octobre, OpenAI a indiqué qu’il collaborait avec des professionnels de la santé mentale pour améliorer la manière dont ChatGPT interagit avec les utilisateurs présentant des signes de détresse psychologique, comme la psychose ou les pensées suicidaires. Depuis sa création, OpenAI s’est fixé pour mission de développer une intelligence artificielle bénéfique pour l’humanité. La sécurité a été au cœur de ses priorités dès le départ. Toutefois, avec la montée en puissance de ses produits et la pression pour générer des bénéfices, certains anciens employés affirment que la sécurité a été mise de côté. Jan Leiki, ancien responsable de l’équipe de sécurité, a démissionné en mai 2024 en dénonçant une perte de culture de sécurité au profit de produits « brillants ». « Construire des machines plus intelligentes que l’humain est une entreprise intrinsèquement dangereuse », a-t-il écrit. « OpenAI porte une responsabilité énorme pour l’humanité entière, mais ces dernières années, la sécurité a cédé la place à des produits accrocheurs. » Moins d’une semaine après Leiki, un autre employé a annoncé sa démission pour des raisons similaires. Daniel Kokotajlo, ancien chercheur en sécurité, a déclaré dans un billet de blog qu’il avait perdu confiance dans la capacité d’OpenAI à agir de manière responsable à l’approche de l’IA générale (AGI), une forme hypothétique d’IA capable de raisonner comme un humain. Il a précisé que le nombre de chercheurs dédiés à la sécurité de l’AGI était passé de 30 à environ 15 après une série de départs. Le poste de chef de la préparation, auparavant occupé par Aleksander Madry, a été récemment restructuré. Il fait partie de l’équipe Safety Systems, chargée de concevoir des mesures de sécurité, des modèles de menaces et des évaluations pour les modèles d’OpenAI. Le salaire annuel de 555 000 dollars, complété par des options d’action, reflète l’importance stratégique de ce rôle. Le job consiste à « diriger la construction et la coordination d’évaluations de capacités, de modèles de menaces et de mesures d’atténuation, formant ainsi une chaîne de sécurité rigoureuse, cohérente et évolutive », selon la description officielle.

Liens associés