L’adoption généralisée de l’intelligence artificielle (IA) dans la recherche scientifique présente un danger caché : les modèles actuels sont manifestement peu fiables en matière de sécurité de base en laboratoire. Une étude récente révèle que même les systèmes d’IA les plus avancés ne parviennent généralement pas à identifier les dangers critiques, ce qui soulève des inquiétudes quant aux accidents potentiels dans les environnements de recherche. Ce n’est pas un risque théorique ; les incidents de laboratoire, bien que rares, arrivent, avec des tragédies passées incluant des décès et des blessures graves dues à des dangers chimiques ou procéduraux négligés.
Le principal problème réside dans la nature de ces modèles d’IA. Bien qu’ils soient capables d’accomplir des prouesses impressionnantes comme rédiger des e-mails ou résumer des articles, ils ne disposent pas des connaissances spécialisées nécessaires pour évaluer les risques physiques réels. Des chercheurs de l’Université de Notre Dame ont développé une référence appelée LabSafety Bench pour tester cela, en utilisant 765 questions à choix multiples et 404 scénarios visuels impliquant des dangers en laboratoire. Les résultats étaient alarmants : aucun des 19 modèles d’IA de pointe testés n’atteignait une précision supérieure à 70 %. Certains n’ont pas fait mieux que des suppositions aléatoires.
Le problème de l’IA à usage général
Le problème n’est pas que l’IA ne peut pas aider la science ; c’est que les grands modèles de langage (LLM) actuels n’ont pas été conçus pour la précision requise dans les environnements dangereux. Ils excellent dans les tâches générales mais trébuchent lorsqu’ils sont appliqués à des domaines comme la chimie, où une seule erreur peut avoir des conséquences catastrophiques. Par exemple, interrogés sur la gestion des déversements d’acide sulfurique, certains modèles d’IA déconseillaient à tort le rinçage à l’eau – une erreur fatale basée sur une mauvaise application des avertissements liés à la chaleur provenant d’autres contextes.
Amélioration rapide, mais toujours risquée
La bonne nouvelle est que l’IA s’améliore rapidement. Certains modèles, comme le GPT-5.2 d’OpenAI, affichent des capacités de raisonnement et une détection des erreurs nettement supérieures à celles des versions précédentes. Cependant, même les systèmes les plus avancés ne sont pas encore suffisamment fiables pour être utilisés sans surveillance en laboratoire. Les experts conviennent que les humains doivent garder fermement le contrôle, en assurant une surveillance et un examen minutieux. Un chercheur de l’UCLA a noté que les performances de l’IA s’améliorent déjà de mois en mois, ce qui suggère que les études actuelles pourraient bientôt être obsolètes.
Le facteur humain reste crucial
Même si l’IA pourrait éventuellement surpasser certains chercheurs inexpérimentés en matière de sensibilisation à la sécurité, le danger immédiat ne réside pas seulement dans les modèles eux-mêmes. Le plus gros problème est la dépendance excessive de l’homme à l’égard de ces systèmes. À mesure que l’IA devient plus intégrée, les chercheurs risquent de devenir complaisants et de déléguer leur pensée critique aux machines sans validation appropriée. Cela met en évidence la nécessité de protocoles de sécurité plus stricts et d’une formation continue, en particulier pour les nouveaux étudiants ayant une expérience limitée.
En fin de compte, le potentiel scientifique de l’IA est indéniable, mais son déploiement incontrôlé dans des environnements à haut risque reste un pari dangereux. Jusqu’à ce que ces modèles puissent démontrer de manière cohérente une identification fiable des dangers, la surveillance humaine doit rester la principale protection.
























