HyperAIHyperAI

Command Palette

Search for a command to run...

OpenAI lance GPT-5 Pro, Sora 2 et une voix plus légère pour séduire les développeurs

OpenAI a intensifié sa stratégie de pénétration auprès des développeurs en présentant, lors de sa conférence Dev Day lundi, plusieurs mises à jour majeures de son API, dont l’introduction de GPT-5 Pro, son dernier modèle de langage, d’un nouveau modèle de génération vidéo baptisé Sora 2, ainsi qu’un modèle vocal plus petit et moins coûteux. Ces annonces s’inscrivent dans une démarche globale visant à fidéliser les développeurs au sein de l’écosystème OpenAI, complétée par le lancement d’un outil dédié à la construction d’agents intelligents et la possibilité de créer des applications directement dans ChatGPT. L’arrivée de GPT-5 Pro devrait particulièrement intéresser les développeurs travaillant dans des secteurs exigeant une grande précision et une capacité avancée de raisonnement, comme la finance, le droit ou la santé, selon Sam Altman, PDG d’OpenAI. Ce modèle est conçu pour traiter des tâches complexes avec une profondeur d’analyse accrue. Altman a également souligné l’importance croissante des interactions vocales, qui deviennent l’une des principales façons dont les utilisateurs interagissent avec l’IA. Pour répondre à cette tendance, OpenAI dévoile « gpt-realtime mini », un modèle vocal plus léger et 70 % moins cher que sa prédécesseure avancée, tout en maintenant une qualité sonore et une expressivité équivalentes. Ce modèle permet des échanges en temps réel avec une latence faible, idéal pour les applications nécessitant une interaction audio fluide. Enfin, les développeurs peuvent désormais accéder à Sora 2 en version bêta via l’API. Lancé la semaine dernière aux côtés de l’application Sora — une plateforme concurrente de TikTok spécialisée dans les vidéos courtes générées par IA —, ce modèle permet de créer des vidéos réalistes à partir de simples prompts. Les utilisateurs peuvent ainsi générer des scènes de leurs amis, d’eux-mêmes ou de toute autre idée, puis les partager via un flux algorithmique similaire à celui de TikTok. « Les développeurs disposent désormais du même modèle qui alimente les sorties vidéo impressionnantes de Sora 2 directement dans leurs propres applications », a affirmé Altman. Sora 2 améliore significativement sa prédécesseur grâce à des scènes plus réalistes, une cohérence physique renforcée, une synchronisation parfaite entre image et son, ainsi qu’un contrôle créatif accru — notamment en matière de direction de caméra ou de style visuel. « Par exemple, vous pouvez prendre une vue d’iPhone et demander à Sora de la transformer en une grande scène cinématographique », a expliqué Altman. « Mais ce qui est le plus passionnant, c’est la manière dont ce nouveau modèle associe son et image, pas seulement le discours, mais aussi des ambiances sonores, des effets synchronisés, parfaitement ancrés dans ce qui est vu à l’écran. » OpenAI positionne Sora 2 comme un outil de conception visuelle, utile par exemple pour créer des maquettes d’annonces publicitaires à partir d’un simple sentiment général, ou pour aider un designer de Mattel à transformer un croquis en prototype de jouet — un exemple cité par Altman, qui révèle le partenariat stratégique entre OpenAI et le fabricant de poupées Barbie afin d’intégrer l’IA générative dans la chaîne de conception des jouets.

Liens associés