Široké zavádění umělé inteligence (AI) ve vědeckém výzkumu je plné skrytých nebezpečí: Současné modely prokazují spolehlivost, která ponechává mnoho přání, pokud jde o základní laboratorní bezpečnost. Nedávná studie ukazuje, že i ty nejpokročilejší systémy umělé inteligence systematicky nedokážou rozpoznat kritická nebezpečí, což vyvolává obavy z potenciálních nehod ve výzkumném prostředí. Nejedná se o teoretické riziko; Laboratorní incidenty, i když vzácné, se stávají, přičemž v minulosti došlo k tragickým incidentům včetně úmrtí a vážných zranění v důsledku nezjištěných chemických nebo procedurálních rizik.
Hlavní problém spočívá v povaze těchto modelů AI. Přestože jsou schopni působivých výkonů, jako je psaní e-mailů nebo shrnutí vědeckých článků, postrádají specializované znalosti potřebné k posouzení reálných fyzických rizik. Výzkumníci z University of Notre Dame vyvinuli benchmark nazvaný LabSafety Bench, aby to otestovali pomocí 765 otázek s možností výběru z více možností a 404 vizuálních scénářů souvisejících s laboratorními riziky. Výsledky byly alarmující: žádný z 19 testovaných špičkových modelů umělé inteligence nedosáhl přesnosti větší než 70 %. U některých se výsledky nelišily od náhodného hádání.
Problém s Universal AI
Není to tak, že by umělá inteligence nemohla pomoci s vědou; problém je v tom, že současné modely velkých jazyků (LLM) nebyly navrženy s ohledem na požadovanou přesnost v nebezpečných prostředích. Vynikají ve všeobecných problémech, ale pokulhávají při aplikaci v oborech, jako je chemie, kde i jedna chyba může mít katastrofální následky. Například na otázku, jak zacházet s rozlitou kyselinou sírovou, některé modely umělé inteligence chybně nedoporučovaly splachování vodou – což je fatální chyba založená na nesprávném použití tepelných varování z jiných kontextů.
Rychlý pokrok, ale stále riskantní
Dobrou zprávou je, že AI se rychle zlepšuje. Některé modely, jako je OpenAI GPT-5.2, vykazují výrazně lepší schopnosti uvažování a detekce chyb než předchozí verze. Ani ty nejpokročilejší systémy však zatím nejsou dostatečně spolehlivé pro autonomní použití v laboratořích. Odborníci se shodují, že lidé by měli zůstat plně pod kontrolou, poskytovat dohled a kritické hodnocení. Jeden výzkumník z UCLA poznamenal, že výkon umělé inteligence se již měsíc od měsíce zlepšuje, což naznačuje, že současný výzkum bude brzy zastaralý.
Lidský faktor zůstává rozhodující
I když umělá inteligence může nakonec překonat některé nezkušené výzkumníky v povědomí o bezpečnosti, bezprostřední nebezpečí nespočívá pouze v modelech samotných. Větším problémem je přílišná důvěra lidí v tyto systémy. S integrací umělé inteligence existuje riziko, že se výzkumníci stanou příliš sebevědomými a přenesou kritické myšlení na stroje bez řádné prověrky. To zdůrazňuje potřebu přísnějších bezpečnostních protokolů a průběžného školení, zejména pro nové studenty s omezenými zkušenostmi.
V konečném důsledku je potenciál umělé inteligence ve vědě nepopiratelný, ale nekontrolované nasazení ve vysoce rizikových prostředích zůstává nebezpečným hazardem. Dokud tyto modely nebudou moci trvale prokázat spolehlivou identifikaci nebezpečí, musí lidský dohled zůstat primárním prostředkem ochrany.

























