Un informe alerta: la IA ya puede ejecutar ciberataques complejos
GPT-5.5 logra intrusiones completas en entornos simulados, pero con límites claros
La IA ya no solo ayuda a defender. También sabe atacar.
Un informe del Instituto de Seguridad de la Inteligencia Artificial del Reino Unido sitúa a GPT-5.5 como uno de los sistemas más avanzados en capacidades ofensivas de ciberseguridad. En entornos simulados, el modelo ha sido capaz de ejecutar intrusiones completas sin intervención humana.
GPT-5.5 puede realizar ciberataques complejos en múltiples fases dentro de entornos controlados, incluyendo reconocimiento, explotación y extracción de datos. Aunque estas pruebas no reflejan escenarios reales con defensas activas, evidencian un salto significativo en autonomía ofensiva.
Resultados en pruebas avanzadas
La evaluación se basó en 95 tareas diseñadas por expertos en ciberseguridad.
En los niveles más complejos —ingeniería inversa, exploits y criptografía— el modelo alcanzó un 71,4% de éxito.
Dato clave: GPT-5.5 supera a Claude Mythos Preview en tareas ofensivas avanzadas.
No es perfecto. Pero ya es funcional.
Simulaciones de ataques reales
El test más relevante fue “The Last Ones”.
Una simulación de intrusión empresarial con 32 pasos donde el modelo logró completar el ataque en 2 de cada 10 intentos sin credenciales iniciales.
El objetivo: tomar control del sistema y extraer datos.
La IA no siempre acierta, pero cuando lo hace, completa todo el proceso.
En otro escenario (“Cooling Tower”), centrado en infraestructuras industriales, ningún modelo logró completar el ataque.
Vulnerabilidades en los sistemas de protección
El informe también detecta debilidades en las salvaguardas.
Expertos lograron en seis horas desarrollar un método para eludir restricciones del modelo.
Contexto: las protecciones existen, pero no son infalibles.
OpenAI aplicó ajustes tras el hallazgo, aunque no fueron reevaluados.
Comparativa: IA vs ataques tradicionales
La diferencia clave está en la automatización:
- Antes: ataques manuales, lentos y dependientes de expertos
- Ahora: automatización parcial con IA y mayor velocidad
Menos barrera técnica. Más accesibilidad.
Riesgos reales (sin exagerar)
No estamos ante una IA que hackea cualquier sistema.
Pero sí ante una herramienta que puede amplificar ataques en entornos vulnerables.
El mayor riesgo es el uso combinado: humanos + IA para escalar ataques.
Y eso cambia el equilibrio.
Qué significa para empresas
La seguridad ya no puede basarse solo en barreras técnicas.
Es necesario asumir que los atacantes tendrán herramientas más rápidas y automatizadas.
La defensa debe evolucionar al mismo ritmo.
Frase clave: la IA no sustituye al atacante, lo potencia.
Conclusión: GPT-5.5 no marca el inicio del “hackeo autónomo total”, pero sí un punto de inflexión. La IA ya puede ejecutar ataques complejos en condiciones favorables. El riesgo no es inmediato ni absoluto, pero sí creciente. La pregunta es: ¿están las empresas preparadas para un escenario donde atacar sea cada vez más fácil?