KI in der Wissenschaft birgt trotz rasanter Fortschritte Sicherheitsrisiken

5

Der weit verbreitete Einsatz künstlicher Intelligenz (KI) in der wissenschaftlichen Forschung birgt eine versteckte Gefahr: Aktuelle Modelle sind nachweislich unzuverlässig, wenn es um die grundlegende Laborsicherheit geht. Eine aktuelle Studie zeigt, dass selbst die fortschrittlichsten KI-Systeme regelmäßig kritische Gefahren nicht erkennen, was Bedenken hinsichtlich möglicher Unfälle in Forschungsumgebungen aufkommen lässt. Dies ist kein theoretisches Risiko; Vorfälle im Labor kommen zwar selten vor, kommen aber dennoch vor. Zu den Tragödien der Vergangenheit gehörten Todesfälle und schwere Verletzungen aufgrund übersehener chemischer oder verfahrenstechnischer Gefahren.

Das Kernproblem liegt in der Natur dieser KI-Modelle. Obwohl sie zu beeindruckenden Leistungen wie dem Verfassen von E-Mails oder dem Zusammenfassen von Papieren fähig sind, mangelt es ihnen an den erforderlichen Fachkenntnissen, um reale physische Risiken einzuschätzen. Um dies zu testen, haben Forscher der University of Notre Dame einen Benchmark namens LabSafety Bench entwickelt, der 765 Multiple-Choice-Fragen und 404 visuelle Szenarien mit Gefahren im Labor verwendet. Die Ergebnisse waren alarmierend: Keines der 19 getesteten hochmodernen KI-Modelle erreichte eine Genauigkeit von über 70 %. Einige schnitten nicht besser ab als zufällige Schätzungen.

Das Problem mit Allzweck-KI

Das Problem besteht nicht darin, dass KI in der Wissenschaft nicht unterstützen kann; Der Grund dafür ist, dass aktuelle Large Language Models (LLMs) nicht für die in gefährlichen Umgebungen erforderliche Präzision ausgelegt sind. Sie sind bei allgemeinen Aufgaben hervorragend, geraten aber ins Stolpern, wenn sie in Bereichen wie der Chemie eingesetzt werden, wo ein einziger Fehler katastrophale Folgen haben kann. Bei der Frage nach dem Umgang mit verschütteter Schwefelsäure rieten einige KI-Modelle beispielsweise fälschlicherweise davon ab, mit Wasser zu spülen – ein fataler Fehler, der auf einer falschen Anwendung hitzebedingter Warnungen aus anderen Kontexten beruht.

Schnelle Verbesserung, aber immer noch riskant

Die gute Nachricht ist, dass sich die KI schnell verbessert. Einige Modelle, wie GPT-5.2 von OpenAI, zeigen deutlich bessere Denkfähigkeiten und Fehlererkennung als frühere Versionen. Allerdings sind selbst die fortschrittlichsten Systeme noch nicht zuverlässig genug für den unbeaufsichtigten Einsatz im Labor. Experten sind sich einig, dass der Mensch die Kontrolle behalten und für Aufsicht und Kontrolle sorgen muss. Ein Forscher der UCLA stellte fest, dass sich die KI-Leistung bereits von Monat zu Monat verbessert, was darauf hindeutet, dass aktuelle Studien bald veraltet sein könnten.

Der menschliche Faktor bleibt entscheidend

Auch wenn die KI möglicherweise einige unerfahrene Forscher im Sicherheitsbewusstsein übertreffen wird, besteht die unmittelbare Gefahr nicht nur in den Modellen selbst. Das größere Problem ist die übermäßige Abhängigkeit des Menschen von diesen Systemen. Mit zunehmender Integration der KI besteht die Gefahr, dass Forscher selbstgefällig werden und kritisches Denken ohne ordnungsgemäße Validierung an Maschinen delegieren. Dies unterstreicht die Notwendigkeit strengerer Sicherheitsprotokolle und kontinuierlicher Schulungen, insbesondere für neue Studenten mit begrenzter Erfahrung.

Letztendlich ist das Potenzial von KI in der Wissenschaft unbestreitbar, aber der unkontrollierte Einsatz in Hochrisikoumgebungen bleibt ein gefährliches Wagnis. Solange diese Modelle nicht dauerhaft eine zuverlässige Gefahrenerkennung nachweisen können, muss die menschliche Aufsicht der wichtigste Schutz bleiben.