Искусственный Интеллект в Науке Создаёт Риски для Безопасности Несмотря на Быстрый Прогресс

4

Широкое внедрение искусственного интеллекта (ИИ) в научных исследованиях таит в себе скрытую опасность: современные модели демонстрируют надёжность, оставляющую желать лучшего, когда речь заходит об элементарной лабораторной безопасности. Недавнее исследование показывает, что даже самые передовые ИИ-системы систематически не распознают критические опасности, что вызывает опасения по поводу потенциальных несчастных случаев в научно-исследовательской среде. Это не теоретический риск; лабораторные инциденты, хотя и редкие, происходят, с трагическими случаями в прошлом, включая смертельные исходы и серьёзные травмы из-за незамеченных химических или процедурных опасностей.

Основная проблема заключается в природе этих ИИ-моделей. Хотя они способны на впечатляющие достижения, такие как составление электронных писем или обобщение научных статей, им не хватает специализированных знаний, необходимых для оценки реальных физических рисков. Исследователи из Университета Нотр-Дам разработали эталон под названием LabSafety Bench для тестирования этого, используя 765 вопросов с множественным выбором и 404 визуальных сценария, связанных с лабораторными опасностями. Результаты были тревожными: ни одна из 19 передовых ИИ-моделей, прошедших тестирование, не достигла точности более 70%. Некоторые показали результаты, не отличающиеся от случайного угадывания.

Проблема с Универсальным ИИ

Дело не в том, что ИИ не может помогать в науке; проблема в том, что современные большие языковые модели (LLM) не были разработаны с учётом требуемой точности в опасных средах. Они превосходно справляются с общими задачами, но спотыкаются, когда их применяют к областям, таким как химия, где даже одна ошибка может иметь катастрофические последствия. Например, на вопрос о том, как справляться с разливами серной кислоты, некоторые ИИ-модели ошибочно посоветовали не промывать водой – фатальная ошибка, основанная на неправильном применении предупреждений, связанных с тепловыми воздействиями из других контекстов.

Быстрый Прогресс, Но Всё Ещё Рискованно

Хорошая новость заключается в том, что ИИ быстро совершенствуется. Некоторые модели, такие как GPT-5.2 от OpenAI, демонстрируют значительно лучшие навыки рассуждения и обнаружения ошибок, чем предыдущие версии. Однако даже самые передовые системы пока ещё недостаточно надёжны для автономного использования в лабораториях. Эксперты сходятся во мнении, что люди должны оставаться в полном контроле, осуществляя надзор и критическую оценку. Один из исследователей из Калифорнийского университета в Лос-Анджелесе отметил, что производительность ИИ уже улучшается с каждым месяцем, что позволяет предположить, что текущие исследования скоро устареют.

Человеческий Фактор Остаётся Решающим

Хотя ИИ в конечном итоге может превзойти некоторых неопытных исследователей в осведомлённости о безопасности, непосредственная опасность заключается не только в самих моделях. Более серьёзная проблема – это чрезмерная уверенность людей в этих системах. По мере интеграции ИИ существует риск того, что исследователи станут самонадеянными, передавая критическое мышление машинам без надлежащей проверки. Это подчёркивает необходимость более строгих протоколов безопасности и непрерывного обучения, особенно для новых студентов с ограниченным опытом.

В конечном итоге, потенциал ИИ в науке неоспорим, но неконтролируемое развёртывание в высокорискованных средах остаётся опасной авантюрой. Пока эти модели не смогут последовательно демонстрировать надёжное выявление опасностей, человеческий надзор должен оставаться основным средством защиты.