NEJM se ve obligada a retractar un estudio tras descubrir imágenes manipuladas por IA
Por Victor Tangermann .Publicado el
2026/05/02 07:55
Mayo. 02, 2026
Las revistas médicas están siendo inundadas por trabajos de baja calidad generados por inteligencia artificial, una amenaza creciente para la comunidad científica que podría socavar la confianza en investigaciones de salud vitales. Estudios que citan revistas y artículos "alucinados" (inventados por la máquina) se han vuelto frecuentes, despertando una gran preocupación entre los encargados de filtrar las nuevas publicaciones.
En un error de alto perfil, la prestigiosa revista New England Journal of Medicine (NEJM) se vio obligada a retractar un artículo de dos investigadores de Pekín sobre un paciente que desarrolló "moldes bronquiales" en sus pulmones tras inhalar humo de un incendio forestal, después de que se descubriera que los autores utilizaron una herramienta de IA para manipular una fotografía médica.
Una cinta métrica "delatora"
La imagen en cuestión muestra tejidos bronquiales ennegrecidos y llenos de partículas que fueron extraídos criogénicamente de los pulmones de un hombre de 87 años. Según informó MedPage Today, el paciente fue trasladado a urgencias tras una inhalación masiva de humo, lo que requirió la extracción de tejidos que bloqueaban completamente las vías respiratorias.
Sin embargo, lo que parece ser una cinta métrica sobre los tejidos en la foto activó las alarmas de inmediato: los números a lo largo de la escala seguían una secuencia sin sentido, un sello distintivo del uso de generadores de imágenes por IA poco sofisticados.
¿Accidente estético o falta de ética?
Los autores calificaron el error como un accidente por descuido. En su nota de retractación, escribieron: "No conocíamos las políticas de la revista sobre la manipulación de imágenes y alteramos nuestro envío utilizando una herramienta de IA para mover la regla a la parte superior de la imagen con el fin de hacerla más estética y legible".
A pesar de sus disculpas, usuarios en redes sociales cuestionaron la validez del resto de la imagen, señalando que aparecían demasiados segmentos pulmonares para un solo paciente, lo que plantea la posibilidad de manipulaciones adicionales por parte de la IA.
Un recordatorio riguroso para la ciencia
La NEJM emitió un recordatorio tajante en una nota del editor: "Se exige a los autores que declaren cualquier uso de herramientas de IA y cualquier cambio realizado en las imágenes". Las políticas editoriales de la revista establecen que el uso de "modelos de lenguaje, chatbots o creadores de imágenes" debe notificarse en el momento de la entrega del trabajo.
Por su parte, editores de todo el mundo científico se preparan para una embestida de "contenido basura". Como señaló la revista Science en un editorial reciente, la vigilancia humana y la revisión exhaustiva nunca han sido tan importantes para mantener la integridad y la búsqueda de la verdad frente al avance de la corrupción tecnológica en la literatura científica.
Califica este tema