L’usage d’IA par le DOT pour rédiger des règles de sécurité déclenche des alarmes : des employés préviennent de risques mortels
« Extrêmement irresponsable » : l’utilisation par le ministère des Transports (DOT) d’IA pour rédiger des règles de sécurité suscite des inquiétudes Des employés du ministère des Transports des États-Unis (DOT) ont exprimé de vives inquiétudes concernant l’utilisation de l’outil d’intelligence artificielle Gemini, développé par Google, pour rédiger des règles de sécurité. Selon plusieurs sources internes, cette pratique serait non seulement inappropriée, mais potentiellement dangereuse, pouvant entraîner des blessures voire des décès si les directives produites contiennent des erreurs ou des lacunes critiques. Les agents du DOT, qui ont choisi de rester anonymes, affirment que l’IA est utilisée de manière croissante pour élaborer des documents réglementaires, notamment des lignes directrices sur la sécurité routière, les normes de construction des véhicules ou les protocoles d’urgence. Bien que l’objectif soit d’accélérer le processus de rédaction, les employés soulignent que l’IA ne comprend pas le contexte, les implications humaines ou les conséquences réelles des décisions réglementaires. « C’est extrêmement irresponsable de laisser une machine rédiger des règles qui peuvent déterminer la vie ou la mort des citoyens », a déclaré un haut fonctionnaire du ministère. Les préoccupations portent notamment sur la fiabilité des informations générées par l’IA. Gemini, comme d’autres modèles de langage, peut produire des réponses plausibles mais fausses ou basées sur des données obsolètes. Dans un domaine aussi sensible que la sécurité routière ou la réglementation des véhicules autonomes, une erreur mineure dans une règle — par exemple, une mauvaise interprétation d’un seuil de vitesse ou d’un critère de sécurité — pourrait avoir des conséquences désastreuses. En outre, les employés s’inquiètent de la perte de transparence et de responsabilité. Si une règle erronée provoque un accident ou une panne de système, qui est tenu pour responsable ? L’IA ne peut pas être tenu responsable, et les humains qui l’ont supervisée pourraient se défausser sur la machine. « Nous ne pouvons pas déléguer à une IA la responsabilité de décisions qui ont un impact direct sur la vie des gens », a ajouté un autre fonctionnaire. Le DOT a jusqu’à présent refusé de commenter publiquement l’étendue de l’utilisation de Gemini dans ses processus réglementaires. Cependant, des documents internes révélés par des médias américains montrent que l’outil est déjà intégré à plusieurs projets pilotes. Les critiques s’élèvent également de la part d’experts en éthique de l’intelligence artificielle, qui rappellent que les systèmes d’IA doivent être utilisés comme des outils d’assistance, jamais comme des décideurs autonomes dans des domaines à haut risque. Face à cette controverse, des appels à une régulation plus stricte de l’usage de l’IA dans le secteur public se font de plus en plus forts. Les responsables doivent, selon les experts, instaurer des protocoles de vérification humaine rigoureux, garantir la traçabilité des décisions et éviter toute automatisation excessive dans les processus réglementaires vitaux. Sans ces mesures, l’innovation risque de mettre en danger la sécurité publique.
