Meta Refuse de Signer le Code de Conduite Volontaire sur l'IA de l'UE, Citant des Incertitudes Légales
Meta récuse les directives volontaires de l'Union européenne sur l'intelligence artificielle Le 10 juillet, l'Union européenne a publié un code de conduite volontaire concernant les modèles d'intelligence artificielle à usage général (IA à usage général, ou GPAI). Ce document vise à guider les entreprises dans le respect des règles de la loi sur l'IA, qui entre en vigueur quelques semaines plus tard, le 2 août. Cependant, Meta a annoncé, par la voix de son chef des affaires mondiales, Joel Kaplan, qu'elle ne signerait pas ce code. D'après Kaplan, qui a fait cette déclaration sur LinkedIn, "ce code introduit un certain nombre d'incertitudes juridiques pour les développeurs de modèles et prévoit des mesures allant au-delà de la portée de la loi sur l'IA." Bien que le code de conduite ne soit pas juridiquement contraignant, l'Union européenne assure aux entreprises qui y adhèrent un "fardeau administratif réduit et une certitude juridique accrue." En revanche, celles qui refusent de signer pourraient faire l'objet d'un examen réglementaire plus poussé. Le contraste est évident avec OpenAI, qui, le 11 juillet, a annoncé sa décision de souscrire à cet accord. Les règles prévues par la loi sur l'IA obligent les fournisseurs d'IA à usage général à être transparents sur les risques liés à la formation et à la sécurité de leurs modèles, ainsi qu'à respecter les lois sur le droit d'auteur de l'UE et des États membres. Les violations de cette loi peuvent entraîner des amendes sévères, allant jusqu'à 7 % du chiffre d'affaires annuel de l'entreprise. Meta exprime sa préoccupation quant à l'impact potentiel de ce cadre réglementaire sur le développement et la mise en œuvre de modèles d'IA de pointe en Europe. Selon l'entreprise, ces règles freineront l'innovation et mettront en difficulté les entreprises européennes qui s'y conformeront. Cette position reflète les inquiétudes énoncées dans une lettre cosignée par plus de 45 entreprises et organisations, dont Airbus, Mercedes-Benz, Philips et ASML, fin juin dernier. Ces signataires ont exhorté l'UE à repousser la mise en application de la réglementation sur l'IA de deux ans, précisant que cela permettrait de clarifier les conditions de conformité. Les efforts de l'UE pour renforcer la réglementation de l'IA se distinguent nettement de l'approche adoptée aux États-Unis, où l'administration Trump cherche activement à alléger ces restrictions. La décision de Meta de ne pas s'engager dans le code de conduite volontaire de l'UE n'est donc pas surprenante, compte tenu des sanctions financières importantes que l'entreprise a déjà subies sous le régime réglementaire européen. De plus, Meta s'est alignée sur les vues plus permissives de l'administration Trump concernant les régulations technologiques. Cette divergence d'opinions entre Meta et l'Union européenne met en lumière le débat mondial autour de la régulation de l'IA, un domaine qui reste complexe et en pleine évolution. Alors que l'UE insiste sur la nécessité de garantir la transparence et la responsabilité dans le développement de l'IA, Meta et d'autres acteurs technologiques américains prônent une approche plus libre, axée sur la promotion de l'innovation et la réduction des obstacles réglementaires. L'avenir dira si cette position de Meta influencera la perception et l'application de ces nouvelles règles en Europe.