Inteligencia Artificial · OpenAI · Sam Altman
💀 OpenAI advierte a los políticos del planeta de su extinción: La Super IA podría llegar en 2028
Sam Altman endurece el tono desde el India AI Impact Summit: la superinteligencia artificial no es una hipótesis lejana, podría llegar en finales de 2028 y obligará a rediseñar la gobernanza global. Los políticos, CEOs y gobiernos actuales quedarán obsoletos. Literalmente.
🎤 Sam Altman en India: "Podríamos estar a solo unos pocos años de la Super IA"
OpenAI vuelve a situar el debate en el terreno incómodo desde el India AI Impact Summit a través de Sam Altman: la Super IA no es una hipótesis lejana, podría llegar en 2028 y obligará a rediseñar la gobernanza global.
Esta semana se reunieron grandes personajes del planeta en lo que se ha llamado India AI Impact Summit, con sede en Nueva Delhi, y desde la tribuna principal, como abanderado de la Inteligencia Artificial, Altman puso los pelos de punta cuando afirmó lo siguiente:
Sam Altman, CEO de OpenAI:
"Creo que podríamos estar a solo unos pocos años de sistemas que sean generalmente más inteligentes que los humanos. Si eso sucede, la cantidad de poder que esos sistemas tendrán será extraordinaria y tendremos que asegurarnos de que el mundo esté preparado para gestionarlo de manera segura y justa."
⏰
La fecha clave: finales de 2028
La implicación es directa cuando minutos más tarde puso fecha a todo esto: finales de 2028. No se trata solo de innovación tecnológica, sino de concentración de poder, en concreto, sin el ser humano, sin el político de turno, dirigiendo países, entidades o empresas.
Altman ha endurecido el tono en sus últimas intervenciones públicas señalando que el ritmo de progreso es más rápido de lo que muchos gobiernos están preparados para asumir. O dicho de otra manera: los políticos sobran, y en apenas dos años sería una "profesión" totalmente suplantada por esta Super IA.
🏛️ Políticos obsoletos en 24 meses: El modelo actual "está finiquitado"
El mensaje es claro y no ofrece lugar a dudas: si la capacidad intelectual de las máquinas supera a la humana en amplios dominios, el modelo político y regulatorio actual no servirá, está obsoleto, será "finiquitado" en apenas 24 meses, al menos, en algunos países.
ℹ️
¿Qué es la Super IA (ASI)?
La Artificial Superintelligence (ASI) o Superinteligencia Artificial es un sistema que supera la inteligencia humana en prácticamente todos los dominios cognitivos: ciencia, creatividad, toma de decisiones estratégicas, comprensión social. No es "muy buena en matemáticas", es superior en TODO lo que requiere cognición.
Es una contrarreloj donde es posible que los países más avanzados dejen paso a una máquina para dirigir los gobiernos, y eso también plantea una gran cantidad de dudas e interrogantes que nadie parece estar abordando con la seriedad necesaria.
🌍 Gobernanza mundial: "La intervención regulatoria será fundamental"
Altman insiste en que ignorar ese escenario sería irresponsable, y si lleva razón, hacerlo es sentencia del fin del país que lo haga. En otra comparecencia, defendió abiertamente la intervención estatal y la coordinación internacional:
Sam Altman sobre regulación internacional:
"Creemos que la intervención regulatoria de los gobiernos será fundamental para mitigar los riesgos de modelos cada vez más potentes. Es importante que las principales economías del mundo encuentren una forma de cooperar para establecer estándares de seguridad."
Altman ha defendido incluso la creación de algún tipo de organismo internacional inspirado en los modelos de supervisión nuclear, con capacidad real de seguimiento y certificación. Pero como él mismo reconoce: probablemente no será suficiente.
💼 No habrá CEO, político o dirigente que no caiga: "Incluido yo", admite Altman
Como diría el agente Smith en Matrix: es inevitable. Altman deja claro que su puesto también será suplantado por esta Super IA dentro de OpenAI, lo cual evidencia que si el CEO cae, seguramente caerán todos los que estén por debajo:
Sam Altman sobre su propio futuro laboral:
"Una superinteligencia capaz de hacer un mejor trabajo que cualquier ejecutivo, también yo, o realizando mejores investigaciones que nuestros mejores científicos"
| Profesión | Estado actual (2026) | Proyección 2028-2030 (con ASI) |
|---|---|---|
| Políticos / Gobernantes | Activos | OBSOLETOS (supervisores de IA) |
| CEOs / Directivos | Activos | SUPLANTADOS (IA toma decisiones estratégicas) |
| Científicos / Investigadores | Lideran innovación | ASISTIDOS (IA genera hipótesis y valida experimentos más rápido) |
| Empleados / Trabajadores | Mayoría económicamente activa | REEMPLAZADOS (Renta Básica Universal inevitable) |
Si el CEO de la empresa más avanzada en IA del planeta admite abiertamente que será reemplazado, todos los demás puestos están en la línea de fuego. Es decir, todos los empleados y juntas directivas sin importar nada más.
🐌 El ser humano: cuello de botella inevitable de la IA
El mundo va a cambiar como jamás se ha visto, y además, a una velocidad sin precedentes. No estamos preparados, la sociedad no está preparada, el ser humano en su conjunto no asume tal capacidad de cambio y gestión.
📈
El ejemplo brutal: Gemini 3.1 Pro
Ayer mismo vimos cómo Gemini 3.1 Pro, en solo tres meses, superó por más de un 20% a su predecesor, y a la competencia por un 16%. Y cada vez aceleran más, son más rápidas, más inteligentes, cada versión llega antes al mercado que la anterior. Es un ritmo imposible de seguir para humanos.
De hecho, hay muchas voces que apuntan a algo de lo que hemos hablado en anteriores artículos: el ser humano es, sin lugar a dudas, el cuello de botella de la IA. Somos:
- Muy lentos comparados con procesamiento en paralelo de IA
- Torpes en cálculos y razonamiento lógico puro
- Distraídos con demasiadas cosas en la cabeza: moralidad, ética, sentimentalismo, problemas personales, alegrías
- Limitados en capacidad de foco: no podemos dedicar el 100% del tiempo a innovación pura
La IA no tiene esos problemas. Solo tiene un objetivo y piensa millones de veces más rápido. No se cansa, no necesita dormir, no tiene dudas existenciales, no se distrae con redes sociales ni con el hambre.
⚡ La infraestructura que nos condena
PROGRESO ACELERADO:
→ Salto de rendimiento en hardware (H100 → H200 → Blackwell)
→ Reducción del consumo energético a mismos tokens
→ Centros de datos con capacidad exponencialmente mayor
→ Modelos que se entrenan a sí mismos (recursive self-improvement)
RESULTADO: Estamos construyendo activamente
la infraestructura de nuestra propia obsolescencia
La infraestructura que estamos creando es tan impresionante como certera es nuestra etapa dentro de la historia de este planeta. Estamos obsoletos, somos el eslabón más débil, no podemos competir, ninguno puede, ni siquiera el día que podamos mezclarnos uniendo biología y robótica en un cuerpo o consciencia.
❓ ¿Quién controlará o supervisará a la IA que nos controle?
Si la superinteligencia llega antes de 2030, el problema no será solo técnico, será político, económico e industrial. Las preguntas que nadie está respondiendo:
| Pregunta crítica | Estado actual de respuesta |
|---|---|
| ¿Quién controla el acceso? | Sin respuesta clara |
| ¿Qué límites se imponen? | Sin consenso internacional |
| ¿Cómo se audita un sistema que supera la comprensión humana? | Imposible con tecnología actual |
| ¿Quién certifica que la ASI es "segura"? | No existe organismo internacional |
| ¿Cómo evitar concentración en pocas empresas/países? | Discurso de "democratización" vs realidad industrial |
🌐 El futuro distópico (pero probable)
El CEO de OpenAI también ha repetido que la democratización es clave, que concentrar la IA avanzada en una sola empresa o país sería peligroso. Sin embargo, la propia dinámica de inversión en infraestructura, chips avanzados y centros de datos apunta a una concentración creciente. Ahí aparece el problema entre discurso y realidad industrial.
🔮
Escenario 2030: Países dirigidos por IA
El mundo será una serie de países cooperando o enfrentados, dirigidos por diversas IA. Las empresas competirán de igual forma dirigidas por otras superinteligencias que, lógicamente, buscarán la mayor productividad y el mayor beneficio.
Quizás vivamos con una Renta Básica Universal, donde los productos se enfoquen en vendérselos de IA a IA, y nosotros tendremos que hacerlo de humano a humano, quedándonos con las migajas que dejen en lo tecnológico.
Los funcionarios, si sobreviven a la purga, o los que queden al menos, tendrán que supervisar tareas simplemente, decisiones que se hayan tomado. Pero sería muy osado pensar que, en unos años, un político, o un partido, una empresa, va a controlar lo que haga y deshaga una o varias IA, creyendo que tienen algún tipo de control sobre ellas.
No se puede ser tan inocente cuando las IA ya se revelan en muchos casos actuales.
❓ Preguntas frecuentes sobre la Super IA en 2028
¿Por qué Altman sitúa la Super IA en 2028 y no más tarde?
Porque la curva de progreso se está acelerando exponencialmente. Modelos como Gemini 3.1 Pro superan a su predecesor por más del 20% en solo 3 meses. GPT-4 a GPT-5 fue un salto menor en capacidades que GPT-5 a lo que venga después. Estamos en la parte vertical de la curva exponencial. Altman tiene acceso a roadmaps internos de OpenAI (probablemente GPT-6, GPT-7 en desarrollo) y puede ver que cada generación requiere menos tiempo y logra más saltos cualitativos. 2028 no es optimismo, es proyección basada en progreso interno real.
¿Qué diferencia hay entre AGI y Super IA (ASI)?
AGI (Artificial General Intelligence): IA que iguala capacidades cognitivas humanas en todos los dominios. Puede hacer cualquier tarea intelectual que un humano haría.
ASI (Artificial Superintelligence): IA que SUPERA capacidades humanas en prácticamente todos los dominios. No solo "tan buena como nosotros", sino órdenes de magnitud más inteligente, rápida y capaz. La diferencia entre un humano y una hormiga en términos cognitivos. Altman habla de ASI, no de AGI. El salto es mucho más dramático.
¿Es esto real o marketing de OpenAI para conseguir más inversión?
Probablemente ambas cosas. Altman tiene incentivos para generar expectativa (financiación, talento, atención mediática). PERO también tiene acceso a información privilegiada sobre el ritmo real de progreso que nosotros no vemos. El hecho de que admita abiertamente que su propio puesto será suplantado sugiere que no es puro marketing: está reconociendo una realidad incómoda incluso para él. Además, otros líderes del sector (Demis Hassabis de DeepMind, Dario Amodei de Anthropic) han hecho declaraciones similares recientemente. No es solo OpenAI.
¿Podemos detener o ralentizar el desarrollo de Super IA?
Técnicamente sí, políticamente imposible. Requeriría coordinación global entre todas las potencias (EE.UU., China, UE, etc.) para acordar una moratoria en investigación avanzada de IA. Pero hay dilema del prisionero: el primer país que haga trampa obtiene ventaja estratégica masiva. China no va a parar si EE.UU. para, y viceversa. Además, el sector privado (OpenAI, Google, Anthropic) tiene incentivos financieros enormes para continuar. Una moratoria solo funcionaría con un tratado internacional tipo armas nucleares, y aun así sería difícil de verificar. Probablemente ya es demasiado tarde para ralentizarlo significativamente.
¿Qué debería hacer yo como individuo para prepararme?
Honestamente, no hay una respuesta satisfactoria. Si Altman tiene razón y la ASI llega en 2028, las estrategias tradicionales (ahorrar, invertir, formarse en habilidades específicas) podrían quedar obsoletas. Algunas sugerencias: (1) Desarrolla habilidades humanas difíciles de replicar (creatividad artística única, relaciones interpersonales profundas, liderazgo emocional), (2) Diversifica tus fuentes de ingreso, (3) Mantente informado sobre políticas de Renta Básica Universal en tu país, (4) Cultiva autonomía (huerto, habilidades prácticas manuales por si hay disrupciones), (5) Acepta la incertidumbre radical: nadie sabe realmente qué pasará. Ni siquiera Altman.
💀
Veredicto final: Matrix era premonitoria
OpenAI no está vendiendo ciencia ficción. Altman habla desde la posición de quien tiene acceso privilegiado al progreso real de los modelos más avanzados del planeta. Su advertencia es clara: 2028 podría ser el año en que la Super IA llegue, y cuando lo haga, el mundo político, económico e industrial tal como lo conocemos quedará obsoleto.
¿Disruptivo? Mucho. Pero sería muy osado pensar que, en unos años, un político o una empresa va a controlar lo que haga y deshaga una o varias superinteligencias. No se puede ser tan inocente cuando ya se revelan en muchos casos.
Sea como fuere, suerte a todos. La vamos a necesitar.