El Pentágono amenaza a Anthropic: suprime límites de uso de Claude o te arruinamos comercialmente

IA y Defensa · Anthropic · Pentágono

El Pentágono lanza un ultimátum a Anthropic: suprime límites de Claude o te arruinamos

Anthropic ha declinado oficialmente las nuevas exigencias del Departamento de Defensa de Estados Unidos. Esta resolución se produjo un día antes del límite fijado por el secretario de Defensa Pete Hegseth, quien dio un ultimátum al CEO Dario Amodei: acatar los términos este viernes o afrontar graves represalias.

Dario Amodei detalló la postura de la empresa en un informe el jueves por la noche. Expresó su firme convicción en el uso de la IA para proteger las democracias y recordó que Anthropic ha colaborado activamente con la comunidad de inteligencia y el Departamento de Defensa.

No obstante, puntualizó que en situaciones específicas, la inteligencia artificial podría atentar contra los valores democráticos en lugar de preservarlos.

La postura de Anthropic: dos límites infranqueables

La compañía establece dos límites que no está dispuesta a cruzar bajo ninguna circunstancia:

  • Vigilancia masiva de ciudadanos estadounidenses: Monitoreo indiscriminado de la población civil
  • Creación de armamento autónomo letal: Armas capaces de operar sin intervención humana
Dario Amodei sobre armas autónomas: "Las armas con autonomía parcial son fundamentales para la defensa actual y las totalmente autónomas podrían serlo en el futuro. Sin embargo, los modelos de IA de vanguardia actuales no ofrecen la fiabilidad necesaria para tales tareas."

OpenAI y xAI ya aceptaron las condiciones

A diferencia de Anthropic, firmas como OpenAI y xAI ya habrían suscrito las nuevas condiciones del Pentágono.

De hecho, el Departamento de Defensa confirmó un contrato para integrar Grok, la IA de Elon Musk, en operaciones clasificadas tras la reunión entre Hegseth y Amodei.

La diferencia ética

Mientras OpenAI y xAI han optado por aceptar las condiciones del Pentágono sin limitaciones públicas, Anthropic mantiene su postura de "IA responsable" incluso bajo presión financiera y comercial extrema.

El origen del conflicto y el cambio de rumbo

El conflicto nace de un acuerdo de 200 millones de dólares firmado en julio del año pasado. En aquel momento, Anthropic enfatizó reiteradamente el concepto de "IA responsable".

La empresa argumentó que las tecnologías potentes exigen un manejo ético, especialmente cuando afectan a grandes poblaciones.

El memorando de enero de 2026

La situación cambió drásticamente en enero de 2026, cuando Pete Hegseth anunció mediante un memorando que el departamento priorizaría la IA como fuerza de combate.

El documento exigía que todos los contratos incluyeran cláusulas de "cualquier uso legal" en 180 días, anteponiendo la rapidez operativa a la seguridad de alineación.

Representación del memorando de Pete Hegseth sobre priorización de IA como fuerza de combate
El memorando de enero de 2026 cambió las reglas del juego para todos los contratistas de IA del Pentágono

El caso Maduro y la violación del acuerdo

La tensión aumentó al conocerse que modelos de Anthropic habrían sido usados en la captura de Nicolás Maduro, vulnerando el acuerdo vigente.

Las conversaciones están a cargo de Emil Michael, exdirectivo de Uber con un perfil agresivo que fue apartado de su anterior empresa tras investigaciones por acoso.

Las consecuencias de la amenaza del Pentágono

El Pentágono amenaza ahora con catalogar a Anthropic como "riesgo para la cadena de suministro". Esta distinción, asociada normalmente a ciberguerra o injerencia extranjera, tendría consecuencias devastadoras.

Qué significa ser catalogado como "riesgo de suministro"

Esta clasificación anularía no solo su contrato directo de $200 millones, sino su presencia en todo el ecosistema de defensa.

Actualmente, Claude es el único sistema de IA con nivel de seguridad Impact Level 6, lo que le permite funcionar en redes de máxima clasificación.

El problema para el propio Pentágono

Socios estratégicos como Palantir, AWS y Anduril dependen de esta capacidad única de Anthropic para sus labores militares.

Si se oficializa dicha calificación de riesgo, cualquier contratista militar debería eliminar la tecnología de Anthropic. Esto generaría un problema para el propio Pentágono, ya que competidores como Gemini, ChatGPT o Grok carecen hoy de la certificación para sustituir a Claude en redes secretas.

El dilema del Pentágono

Prescindir de Claude dejaría al Pentágono sin ninguna IA certificada Impact Level 6. OpenAI, xAI y Google aún no han alcanzado ese nivel de certificación de seguridad, lo que crearía un vacío operativo en redes clasificadas.

La respuesta final de Dario Amodei

Amodei reiteró que las coacciones no variarán su política. Aseguró que, si el Departamento de Defensa decide prescindir de ellos, facilitarán una transición ordenada hacia otros proveedores.

El objetivo es no perjudicar la planificación ni las misiones críticas del ejército, pero sin comprometer los principios éticos de la compañía.

Fuentes cercanas a la negociación: "Anthropic mantiene su negativa ante operaciones cinéticas autónomas y espionaje doméstico a gran escala. La empresa sostiene que el marco legal no ha evolucionado al ritmo de la tecnología y que los sistemas no están listos para prescindir de la supervisión humana."

Conclusión: Este conflicto representa un punto de inflexión en la relación entre las empresas de IA y el gobierno de Estados Unidos. Anthropic ha trazado una línea ética que está dispuesta a defender incluso bajo amenaza financiera extrema. La pregunta ahora es: ¿el Pentágono llevará a cabo su amenaza sabiendo que no tiene un reemplazo certificado para Claude? Y si lo hace, ¿sentará esto un precedente peligroso donde la ética se sacrifica por contratos militares?

Sé respetuoso con los demás usuarios y no utilices lenguaje ofensivo o discriminatorio.

Artículo Anterior Artículo Siguiente