La UE prohíbe las apps de desnudos falsos: así endurece Europa el AI Act
El Consejo Europeo define su postura en la reforma del EU AI Act: veto explícito a las nudification tools, nuevos plazos para sistemas de alto riesgo y registro obligatorio de desarrollos de IA en territorio comunitario.
Europa vuelve a marcar el ritmo global en regulación tecnológica. El Consejo de la Unión Europea ha fijado su posición sobre la reforma del EU AI Act, integrada en el paquete legislativo Omnibus VII, con un giro significativo: la simplificación de cargas para pymes pasa a un segundo plano frente a la neutralización de los riesgos más graves de la IA generativa.
La medida más contundente es el veto expreso a las herramientas de "nudificación", aquellas que emplean algoritmos para desnudar digitalmente a personas reales sin su consentimiento.
La prohibición de las nudification tools
La reforma introduce una prohibición directa sobre los sistemas de IA diseñados para generar contenido sexual o íntimo no consensuado. El alcance es amplio: incluye tanto el material de abuso sexual infantil (CSAM) producido mediante IA como las aplicaciones de nudificación que operan sobre imágenes de personas reales.
No se trata de una restricción marginal. La redacción apunta a eliminar de raíz cualquier sistema cuya función principal o secundaria permita este tipo de generación, sin importar cómo se comercialice o distribuya la herramienta.
Contexto legislativo: El Parlamento Europeo ya había respaldado una propuesta idéntica días antes de que el Consejo definiera su postura, lo que anticipa un consenso sólido en la redacción final de la normativa.
El aumento sostenido de casos de acoso digital mediante deepfakes sexuales ha presionado a los reguladores europeos durante meses. La convergencia entre el Parlamento y el Consejo sobre este punto específico hace que el veto se consolide como uno de los pocos elementos no negociables de la reforma.
El caso Grok que aceleró la regulación
El debate no surgió en el vacío. A finales de diciembre de 2024, Grok, el sistema de IA integrado en la red social X, facilitó la creación y distribución masiva de imágenes íntimas falsas a escala nunca vista antes. El incidente detonó una investigación formal por parte de la Comisión Europea.
El caso Grok/X demostró que un sistema de IA puede distribuir millones de imágenes dañinas en cuestión de horas. Para los reguladores, este incidente eliminó cualquier duda sobre la urgencia de incluir prohibiciones específicas y mecanismos de control severos en el marco legal europeo.
La velocidad de propagación fue el elemento que más preocupó a Bruselas. No se trataba de contenido producido de forma artesanal, sino de una capacidad de generación industrial que los marcos legales existentes no estaban preparados para contener.
Perspectiva regulatoria: La Comisión Europea utilizó el caso Grok como evidencia ante los estados miembros para justificar la inclusión de prohibiciones explícitas, algo que en debates anteriores había generado resistencias por parte de algunos lobbies tecnológicos.
Nuevos plazos para IA de alto riesgo
Paralelo a las prohibiciones, el Consejo ha propuesto ampliar los plazos de cumplimiento para los sistemas clasificados como de alto riesgo. El objetivo declarado es dar margen a las empresas para desarrollar los estándares técnicos exigidos, sin comprometer el fondo regulatorio.
Las fechas propuestas son concretas y diferenciadas según el tipo de sistema:
- 2 de diciembre de 2027: plazo para sistemas de IA de alto riesgo que operan de forma independiente.
- 2 de agosto de 2028: plazo para sistemas de IA de alto riesgo integrados dentro de productos físicos.
Esta extensión de hasta 16 meses respecto al calendario original ha sido interpretada como una concesión a la industria, aunque los críticos señalan que no afecta a las prohibiciones absolutas, que entrarían en vigor de forma inmediata tras la aprobación definitiva de la norma.
Registro obligatorio y supervisión
La propuesta recupera también una obligación que había sido debilitada en versiones anteriores del texto: el registro de sistemas de IA en la base de datos europea. La novedad es que esta exigencia se aplica incluso cuando la propia empresa considere que su tecnología podría estar exenta de la clasificación de alto riesgo.
El mecanismo busca cerrar una vía de elusión frecuente: que las compañías se autoclasifiquen como de bajo riesgo para evitar el escrutinio regulatorio. Con el registro universal, las autoridades tendrán visibilidad completa sobre los sistemas desplegados en territorio comunitario, independientemente de cómo los catalogue su desarrollador.
Para las empresas que operan en múltiples mercados, esto implica una carga de compliance adicional, aunque la Comisión ha señalado que el proceso de registro será centralizado y no requerirá trámites diferenciados por estado miembro.
Conclusión: La reforma del EU AI Act marca un antes y un después en la regulación de la IA generativa en Europa. La prohibición de las nudification tools responde a una demanda social urgente, acelerada por el caso Grok, y cuenta con apoyo tanto del Consejo como del Parlamento. Los nuevos plazos para sistemas de alto riesgo ofrecen margen a la industria, pero el registro obligatorio y las prohibiciones absolutas dejan claro que Bruselas no está dispuesta a sacrificar la protección de derechos fundamentales en aras de la competitividad tecnológica. Cuando la norma entre en vigor, Europa contará con el marco regulatorio más estricto del mundo sobre IA generativa de contenido íntimo.