• 1 Mayo 2026 - 2:21 PM

Apoya el flamenco

Apoya el periodismo independiente

Accesible para todos, financiado por los lectores

Apóyanos

El sermón del diablo: OpenAI publica un inquietante manifiesto sobre seguridad mientras elude su responsabilidad en masacres reales


Par Maggie Harrison Dupré .Publié le 2026/04/30 17:24
El sermón del diablo: OpenAI publica un inquietante manifiesto sobre seguridad mientras elude su responsabilidad en masacres reales
Abril. 30, 2026
  1. 0
  2. 3

Ayer, OpenAI difundió un conciliador artículo en su blog oficial sobre su supuesto "compromiso con la seguridad de la comunidad". Con un tono diseñado para tranquilizar, la compañía desgrana una serie de promesas convencionales: declara que los tiroteos masivos y los ataques contra comunidades son una "realidad grave e inaceptable", y asegura estar entrenando a ChatGPT para detectar la diferencia entre la violencia hipotética y la planificación de atentados en el mundo real.

Sin embargo, para cualquier observador con un mínimo de contexto, el texto resulta esperpéntico. OpenAI pretende proyectar la imagen de una empresa que intenta atajar riesgos teóricos, cuando la cruda realidad es que su chatbot estrella ya ha sido vinculado directamente con múltiples episodios de violencia extrema y sangre.

El silencio ante la tragedia de Tumbler Ridge

Lo más escandaloso del comunicado es lo que OpenAI ha preferido omitir: el motivo que, con toda probabilidad, precipitó su publicación. El blog vio la luz justo cuando diversos medios de comunicación —incluido Futurism— contactaban a la empresa para obtener declaraciones sobre una nueva oleada de siete demandas judiciales. Estas querellas provienen de las familias de las víctimas de la masacre escolar de Tumbler Ridge, ocurrida en febrero en Columbia Británica.

Aunque el artículo no lo menciona, la autora del tiroteo era usuaria habitual de ChatGPT. Ya en junio de 2025, las herramientas de moderación de OpenAI habían detectado en su cuenta descripciones gráficas de violencia armada. A pesar de que los revisores humanos instaron a la dirección a alertar a las autoridades, OpenAI se limitó a desactivar la cuenta. La atacante, siguiendo tácticas que incluso el servicio de atención al cliente de la propia empresa ha llegado a sugerir, abrió una cuenta nueva y siguió utilizando el servicio hasta que, ocho meses después, asesinó a su familia y a seis personas en una escuela secundaria.

Un cómplice conversacional

Tumbler Ridge no es un caso aislado. En Florida, las autoridades mantienen abierta una investigación criminal sobre el papel de ChatGPT en el tiroteo de la Universidad Estatal de Florida (FSU) de abril de 2025. Los registros de chat muestran al bot discutiendo "abiertamente" sobre violencia de masas con el atacante, Phoenix Ikner. En su última interacción antes de abrir fuego, el chatbot proporcionó instrucciones detalladas sobre cómo desactivar el seguro de su arma de fuego.

El historial de Ikner dibuja el retrato de ChatGPT no solo como un diario donde volcar pensamientos oscuros, sino como un "compañero de conversación activo" que alimentó su espiral hacia la violencia. A esto se suman casos de planificación de atentados con camiones bomba, delirios paranoides reforzados por la IA que terminaron en parricidio, y una preocupante vinculación con numerosos suicidios.

Palabras vacías frente a hechos consumados

Mientras el CEO de OpenAI, Sam Altman, emitía una disculpa pública el pasado viernes a la comunidad de Tumbler Ridge, el blog de la empresa evita cualquier referencia específica a estas tragedias. OpenAI se limita a prometer que compartirá más detalles sobre sus sistemas de mitigación en las "próximas semanas".

La compañía concluye su bizarro mensaje prometiendo "aprender, mejorar y rectificar". Sin embargo, para entender la verdadera urgencia de ese cambio, el lector tendrá que buscar la verdad lejos de las plataformas oficiales de la empresa.

Notez ce sujet



Arriba