Privacidad · Discord · Verificación de edad
Discord cancela (por ahora) la verificación de edad tras el pánico masivo de usuarios
Discord ha dado marcha atrás en uno de sus planes más polémicos de los últimos años. La plataforma retrasa su sistema de verificación de edad global hasta la segunda mitad de 2026 después de que su anuncio inicial desatara una tormenta de críticas y un éxodo masivo de usuarios.
La plataforma de mensajería y voz, con más de 200 millones de usuarios activos, anunció hace unas semanas que implementaría un sistema de verificación de edad para garantizar que el contenido para adultos solo llegara a usuarios adultos.
La idea era que todas las cuentas partieran de una configuración "apropiada para adolescentes" por defecto, a menos que pudieran demostrar ser mayores de edad.
El caos comunicativo que lo desató todo
El problema fue la comunicación. Fue tan horrorosa que una parte importante de la comunidad entendió que la plataforma iba a pedir escaneos faciales y documentos de identidad a todo el mundo para poder seguir usándola.
El resultado fue el caos. Cuando la gente empezó a irse en masa y a buscar alternativas, la compañía se lo pensó dos veces.
Brecha de seguridad reciente: el antecedente que nadie olvidó
En octubre del año pasado, Discord confirmó que había sufrido una brecha de seguridad en uno de sus proveedores externos. Esto expuso datos sensibles, incluyendo fotografías de documentos de identidad, de aproximadamente 70.000 usuarios.
Ese antecedente estaba muy fresco cuando llegó el anuncio del nuevo sistema. La desconfianza ya estaba instalada.
Entre los socios que se barajaban para implementar la verificación aparecía Persona, una empresa con vínculos financieros con Peter Thiel, cofundador de Palantir. Esta compañía es conocida por sus contratos con agencias de inmigración y vigilancia del gobierno estadounidense. Para muchos usuarios, esta combinación era sencillamente inaceptable.
Lo que Discord dice que realmente iba a pasar
En un comunicado publicado el martes, el CTO de Discord, Stanislav Vishnevskiy, afirmó que más del 90% de los usuarios nunca habría necesitado verificar nada.
¿La razón? La mayoría no accede a contenido restringido por edad ni modifica la configuración de seguridad por defecto.
El sistema automático que ya existe
Además, asegura que la plataforma ya cuenta con sistemas internos capaces de determinar la mayoría de edad de muchos usuarios de forma automática, analizando señales como:
- La antigüedad de la cuenta
- Si tiene un método de pago vinculado
- El tipo de servidores a los que pertenece
Según Vishnevskiy, ese sistema no lee mensajes ni analiza el contenido publicado por los usuarios.
Stanislav Vishnevskiy, CTO de Discord: "La manera en que esto aterrizó hizo que muchos de vosotros creyerais que estábamos exigiendo escaneos faciales y subidas de documentos a todo el mundo. Eso no es lo que está pasando, pero el hecho de que tanta gente lo crea nos dice que fallamos en lo más básico: explicar claramente qué estamos haciendo y por qué."
Dicho esto, conviene recordar lo que señala el medio PC Gamer: Discord no hizo ninguna de estas concesiones hasta después de la avalancha de críticas.
Qué cambia ahora y por qué importa
La plataforma promete varias cosas antes de relanzar el sistema de forma global:
- Añadir más opciones de verificación, incluyendo medios de pago
- Publicar en su web información detallada sobre cada proveedor externo y sus prácticas con los datos
- Exigir que cualquier empresa que ofrezca estimación de edad facial lo haga íntegramente en el dispositivo del usuario
- Prohibir el envío de datos biométricos a servidores externos
El caso Persona: prueba limitada que no continuó
Sobre Persona, Discord confirma que realizó una prueba limitada con ellos en el Reino Unido en enero y que decidió no continuar, precisamente porque no cumplía ese último requisito de procesamiento local.
La presión regulatoria global
Lo de Discord no es nuevo, y está ocurriendo en un contexto mucho más amplio. Reino Unido, Australia y Brasil ya tienen legislación que obliga a las plataformas a verificar la edad de sus usuarios para acceder a contenido para adultos.
Europa y varios estados de EE.UU. van en la misma dirección.
Discord argumenta que, construyendo su propio sistema, puede demostrar a los reguladores que es posible verificar la edad sin recopilar datos de identidad.
En los países donde ya hay obligación legal (Reino Unido, Australia, Brasil), el sistema seguirá activo independientemente del retraso global. Allí no hay opción de espera.
Conclusión: Discord aprendió por las malas que la comunicación lo es todo. El retraso hasta la segunda mitad de 2026 les da tiempo para reconstruir la confianza perdida, pero el daño ya está hecho. La pregunta ahora es: ¿será suficiente el compromiso de procesamiento local para calmar a los usuarios más preocupados por la privacidad?