O problema: cartas escritas por IA inundam publicações científicas
As revistas científicas de todo o mundo enfrentam um dilúvio inesperado: cartas escritas por sistemas de inteligência artificial e não por investigadores humanos. De acordo com um estudo inovador, os chatbots estão a redigir correspondência para publicações médicas e científicas de prestígio, levantando preocupações sobre a integridade da comunicação académica.
O fenômeno ganhou atenção depois que pesquisadores descobriram que esses sistemas de IA são capazes de imitar o estilo de escrita de especialistas em áreas específicas. Esses modelos de linguagem, buscando referências em áreas especializadas com literatura limitada, às vezes incorporam o trabalho dos próprios pesquisadores para reforçar seus argumentos.
Surge um sinal revelador
A questão veio à tona através da experiência do Dr. Carlos Chaccour, especialista em doenças tropicais da Universidade de Navarra, na Espanha. Depois de publicar um artigo sobre o controlo da malária no The New England Journal of Medicine, recebeu uma carta com palavras fortes questionando a sua investigação.
O que tornou isso incomum foram as referências específicas da carta a estudos de autoria do próprio Dr. Chaccour. Suspeitando desta coincidência, o Dr. Chaccour investigou e concluiu que a carta devia ter sido gerada por um grande modelo de linguagem.
Um padrão se desdobra
Este incidente isolado revelou uma tendência mais ampla. Chaccour e a sua equipa analisaram mais de 730.000 cartas publicadas em revistas científicas desde 2005 e encontraram um aumento dramático na correspondência suspeita, coincidindo com a ampla disponibilidade de sistemas avançados de IA.
As evidências mostram que os autores produziram repentinamente um volume extraordinário de cartas após 2023. Um pesquisador publicou 234 cartas em um único ano em vários periódicos. Outro autor passou de zero cartas publicadas em 2023 para 84 cartas em 2025.
Editores de periódicos soam o alarme
O problema vai além da experiência do Dr. Chaccour. Eric Rubin, editor-chefe do The New England Journal of Medicine, reconheceu o preocupante incentivo para os autores usarem IA para aumentar seus registros de publicação.
“As cartas ao editor publicadas em revistas científicas são listadas em bases de dados que também listam artigos de revistas e contam como um artigo”, explicou o Dr. Rubin. “Por fazer um trabalho muito pequeno, alguém pode conseguir um artigo no The New England Journal of Medicine em seu currículo. O incentivo para trapacear é alto.”
A escala do problema
O estudo revelou estatísticas alarmantes:
- 6% das cartas em 2023 eram de autores prolíficos (aqueles com três ou mais cartas publicadas num ano)
- Isso aumentou para 12% em 2024
- As taxas atuais estão se aproximando de 22%
A Dra. Amy Gelfand, editora-chefe da revista Headache, notou que cartas suspeitas geralmente chegam logo após a publicação dos artigos, ao contrário dos autores humanos que normalmente levam semanas para responder.
Uma preocupação crescente
A proliferação de cartas geradas por IA representa uma ameaça significativa ao discurso científico. Estas comunicações automatizadas muitas vezes se disfarçam como contribuições legítimas, mas carecem da experiência e da compreensão diferenciada que os pesquisadores humanos trazem.
“Sua produção [de IA] pode parecer plausível, mas falta-lhe a profundidade, o contexto e o pensamento crítico que caracterizam o intercâmbio acadêmico genuíno”, observou o Dr.
Como observou o Dr. Chaccour, essas cartas geradas por IA “estão invadindo periódicos como o Omicron”, referindo-se à variante de Covid que rapidamente deslocou outras cepas.
A comunidade científica enfrenta agora um desafio crítico: manter a integridade da comunicação académica enquanto navega na era de modelos linguísticos poderosos
























