Penerapan kecerdasan buatan (AI) secara luas dalam penelitian ilmiah menghadirkan bahaya tersembunyi: model yang ada saat ini terbukti tidak dapat diandalkan dalam hal keselamatan laboratorium dasar. Sebuah penelitian baru-baru ini mengungkapkan bahwa sistem AI yang paling canggih sekalipun sering kali gagal mengidentifikasi bahaya kritis, sehingga meningkatkan kekhawatiran tentang potensi kecelakaan di lingkungan penelitian. Ini bukanlah risiko teoritis; insiden laboratorium, meskipun jarang, memang terjadi, dengan tragedi masa lalu termasuk kematian dan cedera parah akibat bahaya kimia atau prosedur yang diabaikan.
Masalah utamanya terletak pada sifat model AI ini. Meskipun mampu melakukan hal-hal mengesankan seperti menyusun email atau meringkas makalah, mereka tidak memiliki pengetahuan khusus yang diperlukan untuk menilai risiko fisik di dunia nyata. Para peneliti di Universitas Notre Dame mengembangkan tolok ukur yang disebut LabSafety Bench untuk menguji hal ini, menggunakan 765 pertanyaan pilihan ganda dan 404 skenario visual yang melibatkan bahaya di laboratorium. Hasilnya mengkhawatirkan: tidak ada dari 19 model AI mutakhir yang diuji mencapai akurasi lebih dari 70%. Beberapa berkinerja tidak lebih baik daripada menebak secara acak.
Masalah dengan AI Tujuan Umum
Masalahnya bukan AI tidak bisa membantu dalam sains; model bahasa besar (LLM) saat ini tidak dirancang untuk presisi yang diperlukan dalam lingkungan berbahaya. Mereka unggul dalam tugas-tugas umum tetapi gagal ketika diterapkan pada bidang seperti kimia, di mana satu kesalahan saja dapat menimbulkan konsekuensi yang sangat buruk. Misalnya, ketika ditanya tentang penanganan tumpahan asam sulfat, beberapa model AI secara keliru menyarankan agar tidak membilas dengan air – sebuah kesalahan fatal yang disebabkan oleh kesalahan penerapan peringatan terkait panas dari konteks lain.
Peningkatan Pesat, Namun Tetap Berisiko
Kabar baiknya adalah AI berkembang pesat. Beberapa model, seperti GPT-5.2 OpenAI, menunjukkan kemampuan penalaran dan deteksi kesalahan yang jauh lebih baik dibandingkan versi sebelumnya. Namun, sistem yang paling canggih sekalipun belum cukup andal untuk penggunaan tanpa pengawasan di laboratorium. Para ahli sepakat bahwa manusia harus tetap memegang kendali, memberikan pengawasan dan pengawasan. Seorang peneliti di UCLA mencatat bahwa kinerja AI telah meningkat dari bulan ke bulan, hal ini menunjukkan bahwa penelitian yang ada saat ini mungkin akan segera ketinggalan jaman.
Faktor Manusia Tetap Penting
Meskipun AI pada akhirnya mungkin melampaui beberapa peneliti yang tidak berpengalaman dalam hal kesadaran keselamatan, bahaya yang ada bukan hanya pada model itu sendiri. Masalah yang lebih besar adalah ketergantungan manusia yang berlebihan terhadap sistem ini. Ketika AI menjadi lebih terintegrasi, terdapat risiko bahwa peneliti akan berpuas diri dan mendelegasikan pemikiran kritis ke mesin tanpa validasi yang tepat. Hal ini menyoroti perlunya protokol keselamatan yang lebih ketat dan pelatihan berkelanjutan, terutama bagi mahasiswa baru dengan pengalaman terbatas.
Pada akhirnya, potensi AI dalam ilmu pengetahuan tidak dapat disangkal, namun penerapan yang tidak terkendali di lingkungan berisiko tinggi tetap merupakan pertaruhan yang berbahaya. Sampai model-model ini dapat secara konsisten menunjukkan identifikasi bahaya yang andal, pengawasan manusia harus tetap menjadi upaya perlindungan utama.
























