AGI est déjà là, selon le PDG de Databricks — l’industrie en veut davantage, mais sans raison
Le PDG de Databricks, Ali Ghodsi, affirme que l’intelligence artificielle générale (AGI) est déjà réalité, mais que l’industrie technologique continue de repousser les objectifs. Intervenant lors de la conférence Communicopia + Technology de Goldman Sachs en septembre, Ghodsi a déclaré que les chatbots d’IA actuels répondent déjà à la définition originale de l’AGI — une intelligence capable de raisonner comme un humain — telle qu’elle était formulée il y a une dizaine d’années. « Tout le monde aurait dit oui, mais nous avons continué à déplacer les objectifs », a-t-il souligné, ajoutant que depuis la réalisation de l’AGI, l’industrie s’est tournée vers une nouvelle cible : l’intelligence artificielle superintelligente, c’est-à-dire une IA capable de raisonner bien au-delà des capacités humaines. Ghodsi, titulaire d’un doctorat en informatique, estime que cette quête de superintelligence reste hors de portée avec les méthodes actuelles. Il juge même cette obsession « mal placée », car les entreprises n’ont pas besoin de systèmes qui surpassent les esprits les plus brillants pour résoudre leurs défis concrets. « L’AGI possède tout ce qu’il faut pour automatiser et développer des agents intelligents », a-t-il affirmé, avant d’ajouter que ce dont on a vraiment besoin, c’est de s’atteler au travail fastidieux de mise en œuvre. En septembre, Databricks, basée à San Francisco, a levé 1 milliard de dollars, portant sa valorisation à plus de 100 milliards de dollars. Le PDG a également noté que l’ère des progrès phénoménaux liés aux modèles d’IA massifs est en train de s’essouffler. Les lois d’échelle qui ont permis les avancées récentes de l’IA sont désormais « arrivées à leur terme », et les nouvelles versions comme GPT-5 d’OpenAI ou Claude 4 d’Anthropic ne proposent plus d’améliorations spectaculaires. « Il devient de plus en plus difficile de tirer de la valeur d’un nouveau modèle pré-entraîné géant », a-t-il conclu. Cette vision fait écho à un débat croissant au sein de l’industrie. Mustafa Suleyman, directeur de l’IA chez Microsoft, a récemment qualifié la superintelligence d’« objectif anti », dans une interview publiée sur le podcast Silicon Valley Girl. « Cela ne semble pas représenter une vision positive de l’avenir », a-t-il dit, soulignant la difficulté de maîtriser ou d’aligner une telle intelligence sur les valeurs humaines. Son équipe privilégie plutôt une « superintelligence humaniste », ancrée dans l’intérêt humain. En revanche, d’autres dirigeants restent déterminés à atteindre la superintelligence. Sam Altman, CEO d’OpenAI, a affirmé en janvier que l’objectif n’était pas de s’arrêter à l’AGI, mais de poursuivre vers une intelligence supérieure. Il estime que ces outils pourraient accélérer de manière exponentielle la découverte scientifique et l’innovation, conduisant à une prospérité sans précédent. Il a même déclaré en septembre qu’il serait très surpris si la superintelligence n’était pas atteinte d’ici 2030. De son côté, Demis Hassabis, cofondateur de Google DeepMind, prévoit que l’AGI pourrait émerger dans les cinq à dix prochaines années, avec des systèmes capables de comprendre le monde de manière profonde et nuancée, intégrés dans la vie quotidienne.
