L’adozione diffusa dell’intelligenza artificiale (AI) nella ricerca scientifica presenta un pericolo nascosto: i modelli attuali sono chiaramente inaffidabili quando si tratta di sicurezza di base in laboratorio. Uno studio recente rivela che anche i sistemi di intelligenza artificiale più avanzati regolarmente non riescono a identificare i rischi critici, sollevando preoccupazioni su potenziali incidenti negli ambienti di ricerca. Questo non è un rischio teorico; gli incidenti di laboratorio, sebbene rari, si accadono, con tragedie passate tra cui morti e lesioni gravi dovute a pericoli chimici o procedurali trascurati.
Il problema principale risiede nella natura di questi modelli di intelligenza artificiale. Pur essendo capaci di imprese impressionanti come redigere e-mail o riassumere documenti, non hanno le conoscenze specialistiche necessarie per valutare i rischi fisici del mondo reale. I ricercatori dell’Università di Notre Dame hanno sviluppato un benchmark chiamato LabSafety Bench per testarlo, utilizzando 765 domande a scelta multipla e 404 scenari visivi che coinvolgono pericoli di laboratorio. I risultati sono stati allarmanti: nessuno dei 19 modelli di intelligenza artificiale all’avanguardia testati ha raggiunto una precisione superiore al 70%. Alcuni non si sono comportati meglio delle ipotesi casuali.
Il problema dell’intelligenza artificiale per scopi generici
Il problema non è che l’intelligenza artificiale non possa aiutare la scienza; il fatto è che gli attuali modelli linguistici di grandi dimensioni (LLM) non sono stati progettati per la precisione richiesta in ambienti pericolosi. Eccellono in compiti generali, ma inciampano quando vengono applicati a settori come la chimica, dove un singolo errore può avere conseguenze catastrofiche. Ad esempio, alla domanda sulla gestione delle fuoriuscite di acido solforico, alcuni modelli di intelligenza artificiale sconsigliavano erroneamente il risciacquo con acqua: un errore fatale basato su un’errata applicazione degli avvertimenti relativi al calore provenienti da altri contesti.
Miglioramento rapido, ma ancora rischioso
La buona notizia è che l’intelligenza artificiale sta migliorando rapidamente. Alcuni modelli, come GPT-5.2 di OpenAI, mostrano capacità di ragionamento e rilevamento degli errori significativamente migliori rispetto alle versioni precedenti. Tuttavia, anche i sistemi più avanzati non sono ancora sufficientemente affidabili per l’uso senza supervisione nei laboratori. Gli esperti concordano sul fatto che gli esseri umani devono mantenere saldamente il controllo, garantendo supervisione e controllo. Un ricercatore dell’UCLA ha osservato che le prestazioni dell’intelligenza artificiale stanno già migliorando di mese in mese, suggerendo che gli studi attuali potrebbero presto essere obsoleti.
Il fattore umano resta cruciale
Anche se l’intelligenza artificiale potrebbe alla fine superare alcuni ricercatori inesperti nella consapevolezza della sicurezza, il pericolo immediato non è solo rappresentato dai modelli stessi. Il problema più grande è l’eccessiva dipendenza dell’uomo da questi sistemi. Man mano che l’intelligenza artificiale diventa sempre più integrata, c’è il rischio che i ricercatori diventino compiacenti, delegando il pensiero critico alle macchine senza un’adeguata convalida. Ciò evidenzia la necessità di protocolli di sicurezza più rigorosi e di formazione continua, soprattutto per i nuovi studenti con esperienza limitata.
In definitiva, il potenziale dell’intelligenza artificiale nella scienza è innegabile, ma l’impiego incontrollato in ambienti ad alto rischio rimane una scommessa pericolosa. Fino a quando questi modelli non potranno dimostrare in modo coerente un’identificazione affidabile dei pericoli, la supervisione umana deve rimanere la principale salvaguardia.

























