A adoção generalizada da inteligência artificial (IA) na investigação científica apresenta um perigo oculto: os modelos atuais são comprovadamente pouco fiáveis quando se trata de segurança laboratorial básica. Um estudo recente revela que mesmo os sistemas de IA mais avançados falham rotineiramente na identificação de perigos críticos, levantando preocupações sobre potenciais acidentes em ambientes de investigação. Este não é um risco teórico; incidentes laboratoriais, embora raros, acontecem, com tragédias passadas incluindo fatalidades e ferimentos graves devido a perigos químicos ou processuais negligenciados.
O problema central reside na natureza desses modelos de IA. Embora sejam capazes de realizar feitos impressionantes, como redigir e-mails ou resumir documentos, faltam-lhes o conhecimento especializado necessário para avaliar riscos físicos do mundo real. Pesquisadores da Universidade de Notre Dame desenvolveram um benchmark chamado LabSafety Bench para testar isso, usando 765 questões de múltipla escolha e 404 cenários visuais envolvendo perigos de laboratório. Os resultados foram alarmantes: nenhum dos 19 modelos de IA de ponta testados alcançou mais de 70% de precisão. Alguns não tiveram melhor desempenho do que adivinhações aleatórias.
O problema da IA de uso geral
A questão não é que a IA não possa ajudar na ciência; é que os atuais modelos de linguagem grande (LLMs) não foram projetados para a precisão exigida em ambientes perigosos. Eles se destacam em tarefas gerais, mas tropeçam quando aplicados em domínios como a química, onde um único erro pode ter consequências catastróficas. Por exemplo, quando questionados sobre o tratamento de derrames de ácido sulfúrico, alguns modelos de IA aconselharam incorretamente a não enxaguar com água – um erro fatal baseado numa aplicação incorreta de avisos relacionados com o calor provenientes de outros contextos.
Melhoria rápida, mas ainda arriscada
A boa notícia é que a IA está melhorando rapidamente. Alguns modelos, como o GPT-5.2 da OpenAI, apresentam habilidades de raciocínio e detecção de erros significativamente melhores do que as versões anteriores. No entanto, mesmo os sistemas mais avançados ainda não são suficientemente fiáveis para utilização não supervisionada em laboratórios. Os especialistas concordam que os seres humanos devem permanecer firmemente no controlo, proporcionando supervisão e escrutínio. Um pesquisador da UCLA observou que o desempenho da IA já está melhorando mês a mês, sugerindo que os estudos atuais poderão em breve ficar desatualizados.
O fator humano continua crucial
Embora a IA possa eventualmente superar alguns investigadores inexperientes em termos de sensibilização para a segurança, o perigo imediato não são apenas os próprios modelos. O maior problema é a dependência humana excessiva desses sistemas. À medida que a IA se torna mais integrada, existe o risco de os investigadores se tornarem complacentes, delegando o pensamento crítico às máquinas sem a validação adequada. Isto destaca a necessidade de protocolos de segurança mais rígidos e treinamento contínuo, especialmente para novos alunos com experiência limitada.
Em última análise, o potencial da IA na ciência é inegável, mas a implantação não controlada em ambientes de alto risco continua a ser uma aposta perigosa. Até que estes modelos possam demonstrar consistentemente uma identificação fiável dos perigos, a supervisão humana deve continuar a ser a principal salvaguarda.
