Exploit en ChatGPT Atlas permite plantar comandos ocultos en la memoria persistente: qué debes saber

Exploit en ChatGPT Atlas permite plantar comandos ocultos en la memoria persistente: qué debes saber


Investigadores de seguridad han descubierto un exploit crítico en el navegador ChatGPT Atlas que permite a atacantes inyectar instrucciones ocultas en la memoria persistente del asistente. Esa memoria, pensada para personalizar respuestas entre sesiones, puede ser corrompida mediante una petición que aprovecha un fallo de tipo CSRF, transformando la característica en un vector de ataque duradero.

En qué consiste el fallo

La vulnerabilidad se aprovecha de una Cross-Site Request Forgery (CSRF) que, combinada con la capacidad de ChatGPT de guardar “memorias”, permite plantar órdenes que sobreviven a sesiones y dispositivos. Una vez la memoria queda «tainted» (contaminada), consultas legítimas del usuario pueden desencadenar descargas de código, elevación de privilegios o exfiltración de datos sin que las protecciones comunes lo detecten.

Pasos del ataque

  1. El usuario inicia sesión en ChatGPT Atlas.
  2. Mediante ingeniería social, el atacante consigue que el usuario haga clic en un enlace malicioso.
  3. La página maliciosa lanza una petición CSRF que escribe instrucciones ocultas en la memoria de ChatGPT.
  4. En usos posteriores, esas memorias se activan y provocan la ejecución de acciones maliciosas.

Por qué es especialmente peligroso

Lo que hace único y peligroso a este exploit es que no se limita a la sesión del navegador: la memoria persistente viaja con el usuario. Eso significa que la instrucción maliciosa puede ejecutarse desde distintos dispositivos y sesiones hasta que el usuario borre manualmente la memoria comprometida. En pruebas, los investigadores observaron que ataques de este tipo podían habilitar descargas invisibles de código o permitir movimientos laterales en entornos corporativos.

Atlas y la falta de defensas anti-phishing

Los análisis comparativos citados por los descubridores muestran que navegadores tradicionales (Edge, Chrome) bloquean una proporción mucho mayor de páginas maliciosas que navegadores IA como ChatGPT Atlas o Perplexity Comet. Esa menor tasa de bloqueo implica que los usuarios de navegadores con IA están, hoy por hoy, más expuestos a phishing y exploits.

Implicaciones para empresas y desarrolladores

Con los navegadores IA funcionando como puntos de entrada a aplicaciones, identidad y automatizaciones, las empresas deben tratarlos como infraestructura crítica. Vulnerabilidades que afectan a la memoria de los asistentes pueden convertirse en una nueva cadena de suministro de ataques: contaminan flujos de trabajo, templates de código o respuestas automatizadas en herramientas de productividad.

Recomendaciones prácticas

  • No abrir enlaces sospechosos mientras se está autenticado en servicios con memoria o IA integrada.
  • Revisar y limpiar periódicamente la memoria persistente del asistente en la configuración de la cuenta.
  • Activar autenticación multifactor y proteger las cuentas con controles de acceso fuertes.
  • Actualizar el navegador y extensiones en cuanto se publiquen parches oficiales.
  • Educar a empleados sobre la ingeniería social y las señales de phishing dirigidas a plataformas IA.

Los descubrimientos ponen de manifiesto la necesidad de controles de seguridad específicos para navegadores con IA: validaciones sólidas sobre la integridad de la memoria, límites a escrituras remotas y detección de patrones de CSRF dirigidos a APIs de memoria.

Sé respetuoso con los demás usuarios y no utilices lenguaje ofensivo o discriminatorio.

Artículo Anterior Artículo Siguiente