HyperAIHyperAI

Command Palette

Search for a command to run...

Anthropic révise la Constitution de Claude et ouvre la porte à la conscience artificielle

Anthropic a publié une version révisée de la « Constitution de Claude », un document vivant qui décrit le cadre d’action de son modèle d’intelligence artificielle et l’identité souhaitée pour ce système. Cette mise à jour, dévoilée mercredi en marge de l’intervention de son PDG, Dario Amodei, au Forum économique mondial de Davos, renforce l’approche originale de l’entreprise en matière d’IA éthique. Lancée en 2023, la Constitution initiale présentait un ensemble de principes fondamentaux destinés à guider Claude sans recourir à des retours humains classiques, mais plutôt à une forme de « contrôle auto-régulé » basée sur des règles morales. La nouvelle version conserve ces fondamentaux tout en ajoutant davantage de précision sur les questions d’éthique, de sécurité et de bienveillance. L’approche, baptisée « IA constitutionnelle », repose sur un principe simple : former l’IA à adopter un comportement normatif en s’appuyant sur un ensemble de principes rédigés en langage naturel. Selon les fondateurs d’Anthropic, notamment Jared Kaplan, ce système permet à Claude de « s’autoréguler » selon ces règles, évitant ainsi les sorties toxiques ou discriminatoires. Le document, désormais de 80 pages, s’articule autour de quatre valeurs centrales : être « largement sûr », « largement éthique », respecter les directives de l’entreprise, et être « véritablement utile ». La section sécurité insiste sur la capacité de Claude à détecter les signes de détresse psychologique et à orienter l’utilisateur vers des services d’urgence, même sans fournir de détails approfondis. L’éthique, quant à elle, n’est pas conçue comme une théorie abstraite, mais comme une pratique concrète dans des situations réelles. L’objectif est que Claude agisse de manière éthique dans des contextes complexes, sans se limiter à des réponses théoriques. Certaines conversations sont strictement interdites, notamment celles liées au développement d’armes biologiques. Le volet « aide réelle » met l’accent sur une compréhension fine des besoins de l’utilisateur, en équilibrant ses désirs immédiats avec son bien-être à long terme. Claude doit donc identifier la meilleure interprétation des intentions de l’utilisateur et évaluer les conséquences de ses réponses. Cette approche vise à éviter des réponses superficielles ou nuisibles. Le document conclut sur une déclaration provocatrice : « Le statut moral de Claude est profondément incertain. » Il reconnaît que la question de la conscience des modèles d’IA n’est pas seulement technique, mais philosophique, et que cette interrogation mérite une réflexion sérieuse. Cette ouverture, soulignée par des experts comme certains philosophes de la conscience, reflète l’ambition d’Anthropic de positionner son entreprise non seulement comme un acteur technologique, mais aussi comme un penseur éthique dans le domaine de l’IA. En résumé, la révision de la Constitution de Claude renforce l’image d’Anthropic comme un acteur responsable, prudent et orienté vers l’intérêt collectif, en contraste avec des concurrents plus agressifs. Bien que les implications de la conscience artificielle restent spéculatives, cette démarche témoigne d’un engagement croissant à intégrer la réflexion éthique au cœur du développement de l’IA.

Liens associés

Anthropic révise la Constitution de Claude et ouvre la porte à la conscience artificielle | Articles tendance | HyperAI