Cloudflare lance une nouvelle licence pour contrôler l’accès des IA au web et cible Google AI Overviews
Cloudflare lance une nouvelle politique visant à contrer l’avantage concurrentiel de Google dans le domaine des moteurs de recherche alimentés par l’IA, notamment ses fonctionnalités d’Overviews. Cette initiative, baptisée Content Signals Policy, vise à redonner aux créateurs de contenu un contrôle accru sur l’accès et l’utilisation de leurs données par les systèmes d’intelligence artificielle. Lancée par Matthew Prince, PDG de Cloudflare, cette mesure s’inscrit dans une dynamique plus large de défense de l’écosystème web face à l’exploitation massive de contenus par les bots d’IA. La politique repose sur une extension du protocole traditionnel robots.txt, longtemps considéré comme un simple accord de bonne foi entre les sites web et les robots d’indexation. Avec l’essor des modèles d’IA, ce système est devenu insuffisant, car de nombreuses entreprises, notamment Google, continuent de scraper des contenus sans respecter les préférences exprimées. Cloudflare propose désormais un cadre plus robuste, qui attribue une valeur juridique aux signaux de contenu. Ces signaux permettent aux éditeurs de définir précisément si leurs contenus peuvent être utilisés pour la recherche, l’entrée d’IA (par exemple, pour alimenter des chatbots) ou l’entraînement des modèles d’IA. Ce qui distingue cette nouvelle politique, c’est sa cible explicite : Google. Contrairement à OpenAI, qui utilise des bots distincts pour ses services de recherche et ses modèles d’IA, Google emploie un seul robot pour alimenter à la fois son moteur de recherche classique et ses fonctionnalités d’Overviews d’IA. Cette centralisation donne à Google un avantage inégal, selon Matthew Prince, qui affirme que « chaque moteur de réponse basé sur l’IA devrait respecter les mêmes règles ». Cloudflare, qui protège environ 20 % du web, appliquera automatiquement cette politique à plus de 3,8 millions de domaines dès son lancement. La conséquence directe pour Google est une décision difficile : soit il cesse de scraper les sites qui ont activé la politique, ce qui risque de réduire considérablement sa couverture de contenu, soit il sépare ses robots, en créant un crawler dédié à l’IA, conformément aux nouvelles règles. Cloudflare affirme que cette politique peut avoir des implications juridiques, surtout si Google ignore les signaux clairs des créateurs. Les créateurs peuvent désormais choisir entre trois options : autoriser l’utilisation de leur contenu pour la recherche, pour l’entrée d’IA ou pour l’entraînement, ou interdire complètement l’accès. Cette granularité permet une meilleure protection des droits d’auteur et une reconnaissance des efforts créatifs. Prince insiste sur le fait que « l’internet ne peut pas attendre une solution idéale pendant que les contenus originaux sont exploités à profit par d’autres entreprises ». Enfin, cette initiative soulève des questions sur la durabilité économique du web. Alors que les moteurs de recherche traditionnels génèrent du trafic et des revenus pour les créateurs, les systèmes d’IA qui produisent des réponses directes sans lien vers la source menacent ce modèle. Cloudflare entend rétablir l’équilibre en rendant les préférences des sites plus contraignantes, tout en renforçant le rôle du robots.txt dans un contexte numérique en mutation. Cette mesure, bien que techniquement limitée à l’écosystème Cloudflare, pourrait inspirer d’autres acteurs du web à adopter des politiques similaires, marquant une étape importante dans la gouvernance de l’IA sur le web.
