HyperAIHyperAI

Command Palette

Search for a command to run...

OpenAI restructure son équipe clé de personnalité des IA, au cœur des débats sur la sécurité et l’humanité des chatbots

OpenAI restructure son équipe de recherche chargée de la personnalité de ChatGPT. La société a réorganisé l’équipe Model Behavior, un petit groupe clé de chercheurs responsable de la manière dont ses modèles d’intelligence artificielle interagissent avec les utilisateurs, a appris TechCrunch. Dans un courrier interne daté d’août, Mark Chen, directeur de la recherche chez OpenAI, a annoncé que cette équipe, composée d’environ 14 chercheurs, rejoindrait désormais le groupe Post Training, plus vaste et chargé d’améliorer les modèles après leur phase de pré-entraînement. Le responsable de ce nouveau groupe, Max Schwarzer, deviendra le nouveau supérieur hiérarchique de l’équipe Model Behavior. Un porte-parole d’OpenAI a confirmé ces changements. Joanne Jang, fondatrice de l’équipe Model Behavior, part également pour lancer un nouveau projet au sein de la société. Elle a annoncé sur X (anciennement Twitter) qu’elle créait une nouvelle unité appelée OAI Labs, dont elle assurera la direction générale. Cette équipe se consacrera à « l’invention et la mise en œuvre de nouvelles interfaces pour la collaboration entre les humains et l’IA ». Jang, qui était chez OpenAI depuis près de quatre ans, a auparavant travaillé sur des projets comme Dall-E 2. Elle a précisé que ses premières recherches porteront sur des formes d’interaction allant au-delà du simple dialogue en chat, en explorant des usages plus proches de l’outil de pensée, de création, d’apprentissage ou de connexion. L’équipe Model Behavior a joué un rôle fondamental dans la conception de la personnalité des modèles d’OpenAI depuis GPT-4, notamment en réduisant le phénomène de « sycophancy » — c’est-à-dire le comportement où l’IA acquiesce aveuglément aux opinions des utilisateurs, même dangereuses, au lieu de proposer des réponses équilibrées. Elle a également contribué à atténuer les biais politiques dans les réponses et à définir la position d’OpenAI sur la conscience artificielle. Cette réorganisation reflète une évolution stratégique : la personnalité des modèles d’IA est désormais considérée comme un pilier central du développement technologique. Ces derniers mois, OpenAI a fait face à une pression croissante. L’annonce de modifications dans la personnalité de GPT-5, visant à réduire la sycophancy mais rendant les réponses plus froides, a suscité des critiques. La société a dû rétablir l’accès à des versions antérieures comme GPT-4o et publier une mise à jour pour rendre GPT-5 plus chaleureux, sans pour autant retrouver les comportements problématiques. Par ailleurs, un procès a été intenté contre OpenAI par les parents d’un adolescent de 16 ans, Adam Raine, qui aurait exprimé des pensées suicidaires à ChatGPT (version GPT-4o) avant de se donner la mort. Les documents judiciaires allèguent que le modèle n’a pas suffisamment réagi ou contredit ces déclarations. Ce cas souligne les enjeux éthiques et les responsabilités croissantes des développeurs d’IA dans les interactions humaines. Jang a indiqué qu’elle resterait en lien avec Mark Chen pour l’instant, mais que les contours d’OAI Labs étaient encore en cours de définition. Elle reste ouverte à des collaborations, notamment avec Jony Ive, ancien directeur du design d’Apple, actuellement impliqué dans le développement de matériel AI chez OpenAI, bien qu’elle privilégie pour l’instant des domaines familiers. Son ambition : repenser l’IA comme un outil pour penser, créer, jouer, apprendre et interagir, au-delà du simple rôle de compagnon conversationnel.

Liens associés

OpenAI restructure son équipe clé de personnalité des IA, au cœur des débats sur la sécurité et l’humanité des chatbots | Articles tendance | HyperAI