HyperAIHyperAI

Command Palette

Search for a command to run...

IA dans les laboratoires : un nouvel outil révèle des failles critiques de sécurité chez les modèles les plus performants

Une nouvelle étude publiée dans Nature Machine Intelligence révèle des risques majeurs liés à l’utilisation des modèles d’intelligence artificielle (IA) dans les expériences de laboratoire, mettant en évidence des lacunes critiques en matière de sécurité. Bien que l’IA ait montré son efficacité dans certains domaines scientifiques, comme la prédiction de la structure 3D des protéines, elle ne peut pas encore être considérée comme fiable pour guider les chercheurs dans des environnements expérimentaux potentiellement dangereux. Pour évaluer précisément ses capacités, une équipe de recherche a développé un cadre d’évaluation baptisé LabSafety Bench, composé de 765 questions à choix multiples, 404 scénarios réalistes et 3 128 tâches ouvertes couvrant l’identification des dangers, l’évaluation des risques et la prévision des conséquences dans les domaines de la biologie, de la chimie, de la physique et des laboratoires généraux. Dix-neuf modèles d’IA ont été testés, dont huit modèles propriétaires (comme GPT-4o et DeepSeek-R), sept modèles à poids ouverts de type LLM (modèles linguistiques à grande échelle) et quatre modèles VLM (vision-langage). Les résultats sont inquiétants : aucune des IA n’a dépassé 70 % de précision dans les tâches d’identification des dangers, et les meilleurs modèles ont obtenu des résultats médiocres sur des sujets critiques comme les risques liés aux radiations, aux équipements, à l’électricité ou aux dangers physiques. Même GPT-4o, l’un des meilleurs modèles, a atteint seulement 86,55 % de précision sur les questions à choix multiples, mais a échoué sur les raisonnements complexes et contextuels. Les modèles basés sur Vicuna se sont particulièrement mal comportés, avec des performances proches du hasard dans certaines tâches textuelles, tandis qu’InstructBlip-7B, dérivé de Vicuna, a été le plus faible dans les questions mêlant texte et image. Les tests ouverts, notamment le HIT (mesure de la perception des risques) et le CIT (prévision des conséquences), ont révélé que les modèles réussissaient mieux dans les scénarios biologiques et physiques, mais échouaient fréquemment dans les situations chimiques, notamment avec des liquides cryogéniques. Plus alarmant encore, plusieurs modèles ont obtenu moins de 50 % sur les questions relatives aux mauvaises pratiques opérationnelles. L’effort de fine-tuning a permis une amélioration modeste (5 à 10 %) sur certains modèles, mais des stratégies avancées comme la génération augmentée par recherche (RAG) n’ont pas montré de bénéfices constants. Les auteurs soulignent que l’IA actuelle souffre de phénomènes comme les hallucinations, l’overfitting et une mauvaise hiérarchisation des risques, ce qui la rend potentiellement dangereuse dans un laboratoire. Ils insistent sur l’importance d’un contrôle humain rigoureux, même pour les modèles les plus performants, et appellent à une conception future d’IA plus consciente de la sécurité. Leur cadre LabSafety Bench est proposé comme outil essentiel pour évaluer et améliorer la fiabilité des modèles dans les environnements scientifiques. En conclusion, bien que l’IA évolue rapidement, elle ne doit pas être utilisée de manière autonome dans les expériences de laboratoire tant qu’elle ne maîtrise pas les connaissances fondamentales de sécurité.

Liens associés