Las herramientas de IA están potenciando a los hackers
Por Victor Tangermann .Publicado el
2026/05/09 11:49
Mayo. 09, 2026
No es ningún secreto que los modelos de IA han avanzado enormemente: pasaron de ser herramientas capaces de realizar tareas escolares de nivel secundario a asistentes de vibe coding capaces de desarrollar aplicaciones completas en una fracción del tiempo que necesitaría un programador humano.
Pero más allá de facilitar las trampas académicas o inquietar a empleados preocupados por perder sus puestos de trabajo, la IA también puede utilizarse con fines maliciosos. El vibe hacking, la versión oscura del vibe coding, se ha convertido rápidamente en una pesadilla para la ciberseguridad, con sistemas de IA liderando diversas clasificaciones de programas de recompensas por detección de vulnerabilidades (bug bounties).
Un ejemplo evidente ocurrió la semana pasada: un hacker utilizó una versión liberada de restricciones (jailbreak) del chatbot Claude, de Anthropic, para detectar vulnerabilidades en redes del gobierno mexicano y automatizar el robo de registros altamente sensibles de contribuyentes y votantes, según informó Bloomberg. Con ayuda de la IA, el atacante sustrajo 150 gigabytes de datos gubernamentales correspondientes a 195 millones de contribuyentes.
En un informe sobre este reciente ataque en México, la startup de ciberseguridad Gambit Security afirmó que el responsable probablemente no estaba vinculado a ningún grupo organizado ni a un gobierno extranjero adversario. Los investigadores también señalaron a Bloomberg que identificaron al menos 20 vulnerabilidades específicas que estaban siendo explotadas. En otras palabras, la IA ha reducido la barrera de entrada al hacking a niveles sin precedentes.
El mes pasado, el equipo de investigación de seguridad de Amazon reveló que un grupo de hackers —o quizá un solo individuo— logró infiltrarse en más de 600 sistemas de firewall en decenas de países utilizando herramientas de IA disponibles comercialmente, superando medidas de seguridad débiles y extrayendo bases de datos de credenciales, lo que podría allanar el camino para futuros ataques de ransomware.
“Es como una línea de ensamblaje para el cibercrimen impulsada por IA, que permite a actores menos capacitados operar a gran escala”, afirmó en un comunicado CJ Moses, jefe de ingeniería y operaciones de seguridad de Amazon.
Estas operaciones forman parte de una tendencia mucho más amplia en la que la IA está potenciando los ataques cibernéticos, desde videos deepfake que atraen a las víctimas hacia trampas de phishing hasta sistemas de descifrado de contraseñas asistidos por inteligencia artificial.
Un nuevo informe de IBM reveló un aumento interanual del 44 % en la “explotación de software y aplicaciones expuestas al público”, así como un incremento cercano al 50 % en los “grupos activos de ransomware”.
“Los atacantes no están reinventando sus manuales de operaciones; los están acelerando con IA”, afirmó Mark Hughes, socio gerente global de servicios de ciberseguridad de IBM. “El problema de fondo sigue siendo el mismo: las empresas están desbordadas por las vulnerabilidades de software. La diferencia ahora es la velocidad”.
Investigadores de seguridad de Google también advirtieron en un informe publicado a principios de este año que una auténtica “batalla campal” entre actores maliciosos que acceden a “las mismas clases de modelos de IA avanzados y procesos automatizados que sus objetivos” está a punto de “transformarse de maneras significativas e impredecibles”.
“Si la IA se convierte en un arma integrada en kits de ransomware y se comercializa en mercados clandestinos, la cantidad de incidentes podría dispararse”, afirmó Heather Adkins, vicepresidenta de ingeniería de seguridad de Google. “Pero si un actor malicioso la mantiene bajo un control extremadamente estricto y con un objetivo muy específico, es posible que ni siquiera sepamos que existe una plataforma totalmente automatizada al otro lado. Solo lo sabremos cuando alguien la tenga físicamente en sus manos”.
Califica este tema