HyperAIHyperAI

Command Palette

Search for a command to run...

OpenAI recrute un expert en sécurité d’Anthropic pour diriger ses efforts contre les risques de l’IA

OpenAI a recruté Dylan Scand, ancien chercheur en sécurité chez Anthropic, pour occuper le poste de directeur de la préparation, un rôle stratégique dans le domaine de la sécurité de l’intelligence artificielle. Cette nomination intervient alors que les préoccupations croissantes autour des risques liés aux systèmes d’IA puissants se font plus pressantes. Le poste, qui peut rapporter jusqu’à 555 000 dollars par an plus des parts sociales, avait attiré l’attention la semaine dernière en raison de son package salarial élevé. Sam Altman a annoncé le recrutement dans un message sur X (anciennement Twitter), exprimant sa grande enthousiasme : « Je suis extrêmement excité de faire entrer Dylan dans l’équipe d’OpenAI. Les choses vont bientôt évoluer très vite, et nous allons bientôt travailler avec des modèles extrêmement puissants. Dylan dirigera nos efforts pour anticiper et atténuer ces risques graves. Il est, de loin, le meilleur candidat que j’aie jamais rencontré pour ce poste. » Scand a lui-même réagi sur X, remerciant profondément Anthropic et ses collègues pour leur collaboration. « L’IA progresse à un rythme fulgurant. Les bénéfices potentiels sont énormes — tout comme les risques de dommages extrêmes, voire irréversibles », a-t-il ajouté. Ce poste, décrit par Altman comme « stressant », exige de pouvoir prendre des décisions critiques sous l’incertitude, piloter des équipes techniques et aligner des parties prenantes parfois en désaccord. OpenAI cherche une personne dotée d’une expertise approfondie en apprentissage automatique, en sécurité de l’IA et en gestion des risques associés. Depuis plusieurs années, OpenAI fait face à des tensions internes sur sa politique de sécurité. Plusieurs anciens employés clés, dont l’ancien responsable de l’équipe de sécurité, ont quitté l’entreprise. Des poursuites ont également été intentées par des utilisateurs qui affirment que les outils d’OpenAI ont contribué à des comportements nuisibles. En octobre, la société a révélé que près de 560 000 utilisateurs de ChatGPT par semaine présentaient des signes possibles de détresse mentale. Elle travaille désormais avec des spécialistes en santé mentale pour améliorer les réponses du chatbot lorsqu’il détecte des signes de souffrance psychologique ou de dépendance excessive.

Liens associés

OpenAI recrute un expert en sécurité d’Anthropic pour diriger ses efforts contre les risques de l’IA | Articles tendance | HyperAI