додому Останні новини та статті Штучний інтелект у науці створює ризики безпеці, незважаючи на швидкий прогрес

Штучний інтелект у науці створює ризики безпеці, незважаючи на швидкий прогрес

Штучний інтелект у науці створює ризики безпеці, незважаючи на швидкий прогрес

Широке застосування штучного інтелекту (ШІ) у наукових дослідженнях таїть у собі приховані небезпеки: поточні моделі демонструють надійність, яка залишає бажати кращого, коли йдеться про базову лабораторну безпеку. Недавнє дослідження показує, що навіть найдосконаліші системи штучного інтелекту систематично не можуть розпізнавати критичні небезпеки, що викликає занепокоєння щодо потенційних аварій у дослідницькому середовищі. Це не теоретичний ризик; Інциденти в лабораторіях, хоч і рідко, все трапляються, у минулому траплялися трагічні випадки, включаючи смерті та серйозні травми через невиявлену хімічну чи процедурну небезпеку.

Основна проблема полягає в природі цих моделей ШІ. Незважаючи на те, що вони здатні на такі вражаючі вміння, як складання електронних листів або узагальнення наукових статей, їм не вистачає спеціальних знань, необхідних для оцінки фізичних ризиків у реальному світі. Дослідники з Університету Нотр-Дам розробили тест під назвою LabSafety Bench, щоб перевірити це, використовуючи 765 запитань із множинним вибором відповідей і 404 візуальних сценарії, пов’язані з лабораторними небезпеками. Результати були тривожними: жодна з 19 протестованих передових моделей штучного інтелекту не досягла точності понад 70%. Деякі показали результати, які не відрізнялися від випадкового вгадування.

Проблема з Universal AI

Справа не в тому, що ШІ не може допомогти в науці; проблема полягає в тому, що поточні великі мовні моделі (LLM) не були розроблені з необхідною точністю в небезпечних середовищах. Вони чудово справляються із загальними проблемами, але зазнають невдачі у таких галузях, як хімія, де навіть одна помилка може мати катастрофічні наслідки. Наприклад, коли запитували, як впоратися з розливом сірчаної кислоти, деякі моделі штучного інтелекту помилково рекомендували не промивати водою — фатальна помилка, заснована на неправильному застосуванні теплових попереджень з інших контекстів.

Швидкий прогрес, але все ще ризикований

Хороша новина полягає в тому, що ШІ швидко вдосконалюється. Деякі моделі, наприклад GPT-5.2 OpenAI, демонструють значно кращі навички міркування та виявлення помилок, ніж попередні версії. Однак навіть найсучасніші системи ще недостатньо надійні для автономного використання в лабораторіях. Експерти погоджуються, що люди повинні залишатися під повним контролем, забезпечуючи нагляд і критичну оцінку. Один дослідник з Каліфорнійського університету в Лос-Анджелесі зазначив, що продуктивність штучного інтелекту вже покращується з кожним місяцем, припускаючи, що поточні дослідження скоро застаріють.

Людський фактор залишається вирішальним

Хоча штучний інтелект може зрештою перевершити деяких недосвідчених дослідників у питаннях безпеки, безпосередня небезпека полягає не лише в самих моделях. Більшою проблемою є надмірна довіра людей до цих систем. Оскільки штучний інтелект інтегрований, існує ризик того, що дослідники стануть надто самовпевненими, передаючи критичне мислення машинам без належної перевірки. Це підкреслює необхідність суворіших протоколів безпеки та постійного навчання, особливо для нових студентів з обмеженим досвідом.

Зрештою, потенціал штучного інтелекту в науці незаперечний, але неконтрольоване розгортання в середовищах з високим ризиком залишається небезпечним ризиком. Поки ці моделі не зможуть постійно демонструвати надійну ідентифікацію небезпеки, людський нагляд має залишатися основним засобом захисту.

Exit mobile version