Чат-боты пишут письма научным журналам, сообщают редакторы

2

Проблема: Письма, написанные ИИ, захлестнули научные публикации

Научные журналы по всему миру столкнулись с неожиданным навалом: писем, написанных искусственными интеллектами, а не исследователями-людьми. Согласно новаторскому исследованию, чат-боты составляют переписку для престижных медицинских и научных публикаций, вызывая опасения относительно целостности научной коммуникации.

Явление привлекло внимание после того, как исследователи обнаружили, что эти системы ИИ способны имитировать стиль письма экспертов в определенных областях. Эти языковые модели, ищущие ссылки в специализированных областях с ограниченной литературой, иногда включают в себя собственную работу самих исследователей, чтобы укрепить свои аргументы.

Появляется явный признак

Проблема проявилась через опыт доктора Карлоса Чакора, специалиста по тропическим болезням при Университете Наварры в Испании. После публикации статьи о контроле малярии в The New England Journal of Medicine он получил письмо с резкой критикой своего исследования.

Необычным было то, что в письме содержались конкретные ссылки на исследования, которые сам доктор Чакор написал. Подозрительный этот совпадение, доктор Чакор провел расследование и пришел к выводу, что письмо было сгенерировано большой языковой моделью.

Раскрывается закономерность

Этот изолированный случай выявил более широкую тенденцию. Доктор Чакор и его команда проанализировали более 730 000 писем, опубликованных в научных журналах с 2005 года, и обнаружили резкого увеличения подозрительной переписки, совпадающей с широкой доступностью продвинутых систем ИИ.

Установлено, что авторы внезапно производят необычно большой объем писем после 2023 года. Один исследователь опубликовал 234 письма за один год в нескольких журналах. Другой автор увеличил количество опубликованных писем с 0 в 2023 году до 84 в 2025 году.

Редакторы подают сигнал тревоги

Проблема выходит за рамки опыта доктора Чакора. Доктор Эрик Рубин, главный редактор The New England Journal of Medicine, признал высокую мотивацию авторов использовать ИИ для повышения своих публикационных показателей.

«Письма редактору, опубликованные в научных журналах, перечислены в базах данных, которые также содержат список статей в журналах, и они учитываются так же, как и статьи», — объяснил доктор Рубин. «За очень небольшую работу человек может получить статью в The New England Journal of Medicine в своем CV. Мотивация обманывать высока».

Масштаб проблемы

Исследование выявило тревожные статистические данные:

  • 6% писем в 2023 году были от плодовитых авторов (тех, кто опубликовал три или более писем в год)
  • Это увеличилось до 12% в 2024 году
  • Текущие показатели приближаются к 22%

Доктор Эмми Гельфанд, главный редактор журнала Headache, заметила, что подозрительные письма часто поступают вскоре после публикации статей, в отличие от человеческих авторов, которые обычно отвечают через несколько недель.

Растущая обеспокоенность

Пролиферация ИИ-генерируемых писем представляет собой серьезную угрозу научного диалога. Эти автоматизированные коммуникации часто маскируются под законные вклады, но не обладают опытом и нюансированным пониманием, которое приносят исследователи-люди.

«Их [ИИ] выход может показаться правдоподобным, но ему не хватает глубины, контекста и критического мышления, которые характеризуют подлинный научный обмен», — отметил доктор Чакор.

Как заметил доктор Чакор, эти ИИ-генерируемые письма «вторгаются в журналы, как Омикрон», ссылаясь на вариант Covid, который быстро вытеснил другие штаммы