Sztuczna inteligencja w nauce stwarza zagrożenia dla bezpieczeństwa pomimo szybkiego postępu

8

Powszechne zastosowanie sztucznej inteligencji (AI) w badaniach naukowych jest obarczone ukrytymi zagrożeniami: obecne modele charakteryzują się niezawodnością, która pozostawia wiele do życzenia, jeśli chodzi o podstawowe bezpieczeństwo laboratoryjne. Niedawne badanie pokazuje, że nawet najbardziej zaawansowane systemy sztucznej inteligencji systematycznie nie rozpoznają krytycznych zagrożeń, co budzi obawy dotyczące potencjalnych wypadków w środowisku badawczym. Nie jest to ryzyko teoretyczne; Incydenty laboratoryjne, choć rzadkie, występują, a w przeszłości miały miejsce tragiczne zdarzenia, w tym śmierć i poważne obrażenia spowodowane niewykrytymi zagrożeniami chemicznymi lub proceduralnymi.

Główny problem leży w naturze tych modeli sztucznej inteligencji. Chociaż są zdolni do imponujących wyczynów, takich jak pisanie e-maili lub streszczanie artykułów naukowych, brakuje im specjalistycznej wiedzy potrzebnej do oceny zagrożeń fizycznych w świecie rzeczywistym. Aby to przetestować, naukowcy z Uniwersytetu Notre Dame opracowali benchmark o nazwie LabSafety Bench, wykorzystując 765 pytań wielokrotnego wyboru i 404 wizualnych scenariuszy związanych z zagrożeniami laboratoryjnymi. Wyniki były alarmujące: żaden z 19 przetestowanych najnowocześniejszych modeli sztucznej inteligencji nie osiągnął dokładności większej niż 70%. Niektórzy pokazali wyniki nie różniące się od losowego zgadywania.

Problem z Universal AI

To nie tak, że sztuczna inteligencja nie może pomóc w nauce; Problem polega na tym, że obecne modele wielkojęzyczne (LLM) nie zostały zaprojektowane z myślą o wymaganej dokładności w środowiskach niebezpiecznych. Świetnie radzą sobie z problemami ogólnymi, ale zawodzą w zastosowaniach takich jak chemia, gdzie nawet jeden błąd może mieć katastrofalne skutki. Na przykład na pytanie, jak postępować w przypadku rozlania kwasu siarkowego, niektóre modele sztucznej inteligencji błędnie odradzały spłukiwanie wodą – był to fatalny błąd wynikający z błędnego zastosowania ostrzeżeń termicznych z innych kontekstów.

Szybki postęp, ale wciąż ryzykowny

Dobra wiadomość jest taka, że sztuczna inteligencja szybko się rozwija. Niektóre modele, takie jak GPT-5.2 OpenAI, wykazują znacznie lepsze umiejętności rozumowania i wykrywania błędów niż poprzednie wersje. Jednak nawet najbardziej zaawansowane systemy nie są jeszcze wystarczająco niezawodne, aby można było je autonomicznie stosować w laboratoriach. Eksperci są zgodni, że ludzie powinni zachować pełną kontrolę, zapewniając nadzór i krytyczną ocenę. Jeden z badaczy z UCLA zauważył, że wydajność sztucznej inteligencji poprawia się już z miesiąca na miesiąc, co sugeruje, że obecne badania wkrótce staną się nieaktualne.

Czynnik ludzki pozostaje kluczowy

Chociaż sztuczna inteligencja może ostatecznie przewyższyć niektórych niedoświadczonych badaczy w zakresie świadomości bezpieczeństwa, bezpośrednie zagrożenie leży nie tylko w samych modelach. Większym problemem jest nadmierne zaufanie ludzi do tych systemów. W miarę integracji sztucznej inteligencji istnieje ryzyko, że badacze staną się zbyt pewni siebie, zlecając krytyczne myślenie maszynom bez odpowiedniej weryfikacji. Podkreśla to potrzebę bardziej rygorystycznych protokołów bezpieczeństwa i ciągłego szkolenia, szczególnie w przypadku nowych uczniów z ograniczonym doświadczeniem.

Ostatecznie potencjał sztucznej inteligencji w nauce jest niezaprzeczalny, ale niekontrolowane wdrożenie w środowiskach wysokiego ryzyka pozostaje niebezpiecznym ryzykiem. Dopóki modele te nie będą w stanie w sposób spójny wykazać niezawodnej identyfikacji zagrożeń, głównym środkiem ochrony musi pozostać nadzór człowieka.