El problema: las cartas escritas por IA inundan las publicaciones científicas
Las revistas científicas de todo el mundo se enfrentan a una avalancha inesperada: cartas escritas por sistemas de inteligencia artificial en lugar de investigadores humanos. Según un estudio innovador, los chatbots redactan correspondencia para prestigiosas publicaciones médicas y científicas, lo que genera preocupación sobre la integridad de la comunicación académica.
El fenómeno llamó la atención después de que los investigadores descubrieron que estos sistemas de inteligencia artificial son capaces de imitar el estilo de escritura de expertos en campos específicos. Estos modelos de lenguaje, en busca de referentes en áreas especializadas con literatura limitada, incorporan en ocasiones trabajos propios de investigadores reales para reforzar sus argumentos.
Emerge una señal reveladora
El tema salió a la luz gracias a la experiencia del Dr. Carlos Chaccour, especialista en enfermedades tropicales de la Universidad de Navarra en España. Después de publicar un artículo sobre el control de la malaria en The New England Journal of Medicine, recibió una carta enérgica cuestionando su investigación.
Lo que hizo que esto fuera inusual fueron las referencias específicas de la carta a estudios que el propio Dr. Chaccour había escrito. Sospechando de esta coincidencia, el Dr. Chaccour investigó y concluyó que la carta debía haber sido generada por un modelo de lenguaje grande.
Se desarrolla un patrón
Este incidente aislado reveló una tendencia más amplia. El Dr. Chaccour y su equipo analizaron más de 730.000 cartas publicadas en revistas científicas desde 2005 y encontraron un aumento dramático en la correspondencia sospechosa coincidiendo con la disponibilidad generalizada de sistemas avanzados de inteligencia artificial.
La evidencia muestra que los autores produjeron repentinamente un volumen extraordinario de cartas después de 2023. Un investigador publicó 234 cartas en un solo año en varias revistas. Otro autor pasó de cero cartas publicadas en 2023 a 84 cartas en 2025.
Editores de revistas hacen sonar la alarma
El problema va más allá de la experiencia del Dr. Chaccour. El Dr. Eric Rubin, editor en jefe de The New England Journal of Medicine, reconoció el preocupante incentivo para que los autores utilicen la IA para aumentar sus registros de publicaciones.
“Las cartas al editor publicadas en revistas científicas se incluyen en bases de datos que también incluyen artículos de revistas y cuentan como un artículo”, explicó el Dr. Rubin. “Por realizar una cantidad de trabajo muy pequeña, alguien puede incluir un artículo en The New England Journal of Medicine en su CV. El incentivo para hacer trampa es alto”.
La magnitud del problema
El estudio reveló estadísticas alarmantes:
- El 6% de las cartas en 2023 fueron de autores prolíficos (aquellos con tres o más cartas publicadas en un año)
- Esto aumentó al 12% en 2024.
- Las tasas actuales se acercan al 22%
La Dra. Amy Gelfand, editora en jefe de la revista Headache, ha notado que las cartas sospechosas suelen llegar poco después de la publicación de los artículos, a diferencia de los autores humanos que normalmente tardan semanas en responder.
Una preocupación creciente
La proliferación de cartas generadas por IA representa una amenaza importante para el discurso científico. Estas comunicaciones automatizadas a menudo se hacen pasar por contribuciones legítimas, pero carecen de la experiencia y la comprensión matizada que aportan los investigadores humanos.
“Sus resultados [de IA] pueden parecer plausibles, pero carecen de la profundidad, el contexto y el pensamiento crítico que caracterizan el intercambio académico genuino”, observó el Dr. Chaccour.
Como señaló el Dr. Chaccour, estas cartas generadas por IA “están invadiendo revistas como Omicron”, en referencia a la variante de Covid que rápidamente desplazó a otras cepas.
La comunidad científica ahora enfrenta un desafío crítico: mantener la integridad de la comunicación académica mientras navega por la era de los poderosos modelos lingüísticos.
























