Google, Microsoft y Amazon desafían la declaración de riesgo del Pentágono contra Anthropic. Qué significa para la estrategia de IA empresarial.
La Administración Trump declaró a la empresa de IA como riesgo para la cadena de suministro nacional. Sus socios tecnológicos más poderosos responden con una sola voz: el negocio continúa.
En el entorno de la tecnología empresarial, pocas cosas generan más atención que un conflicto de poder entre la Administración estadounidense y los grandes actores del ecosistema de la inteligencia artificial. Esto es exactamente lo que ha ocurrido en los últimos días: el Departamento de Defensa —que el secretario Pete Hegseth ahora prefiere denominar oficialmente Departamento de Guerra— ha declarado formalmente a Anthropic como un riesgo para la cadena de suministro nacional, una etiqueta habitualmente reservada para adversarios extranjeros como China o Rusia. La respuesta del sector tecnológico no se ha hecho esperar: Google, Microsoft y Amazon han decidido, con notable unanimidad, ignorar las implicaciones de esa declaración y mantener sus alianzas comerciales con la compañía fundada por Dario Amodei.
LEE TAMBIÉN: La brecha de IA: datos, chips y soberanía redefinen la competencia global
El detonante: líneas rojas sobre vigilancia y armas autónomas
Todo comenzó con una negativa. Anthropic llevaba meses colaborando con las agencias de defensa y seguridad estadounidenses, siendo el primer laboratorio de IA en integrar sus modelos en flujos de trabajo en redes clasificadas del Pentágono, y con un contrato de 200 millones de dólares firmado en julio.
Sin embargo, las conversaciones para renovar y ampliar ese acuerdo se rompieron de forma abrupta cuando el Departamento de Defensa exigió un control irrestricto sobre el uso de Claude —el modelo de IA de Anthropic— para ‘todos los fines legales’.
Anthropic estableció dos condiciones innegociables: que su tecnología no fuera utilizada para la vigilancia masiva de ciudadanos estadounidenses ni para el despliegue autónomo de armamento. El Pentágono rechazó ambas restricciones.
Según la empresa, Amodei no podía en buena conciencia aceptar las peticiones del Departamento. Hegseth respondió declarando en un post de X que Anthropic representaba un riesgo para la cadena de suministro, e instó a todos los contratistas y socios del ejército a certificar que no usaban los modelos de la compañía.
La designación de riesgo de la cadena de suministro está habitualmente reservada para adversarios extranjeros. Aplicarla a una empresa americana de IA es, en palabras de analistas, ‘sin precedentes’.
La ironía del caso es que, incluso después del anuncio oficial de la designación —efectiva de inmediato, según un alto funcionario del Departamento—, Claude seguía siendo utilizado activamente por el ejército estadounidense en sus operaciones contra Irán.
Los modelos de Anthropic están integrados en el sistema Maven Smart System de Palantir, ampliamente usado por operadores militares en Oriente Medio, donde se describe como un componente central de los esfuerzos de IA del ejército.
LEE TAMBIÉN: Confrontación geoeconómica: el nuevo dilema estratégico de los CIOs
La respuesta de las Big Tech: una coalición silenciosa pero contundente
Lo que ha sucedido en los días siguientes resulta especialmente revelador para los CIO que gestionan infraestructuras de IA corporativa. Microsoft fue la primera gran empresa en pronunciarse públicamente, apenas unas horas después de que se hiciera oficial la designación.
Su posición fue clara: tras revisar internamente la normativa de designación de riesgos de la cadena de suministro, sus abogados concluyeron que los productos de Anthropic, incluido Claude, pueden seguir estando disponibles para sus clientes —con excepción del Departamento de Guerra— a través de plataformas como M365, GitHub y Microsoft AI Foundry, y que la compañía puede continuar colaborando con Anthropic en proyectos no relacionados con defensa.
Google siguió el mismo camino al día siguiente, precisando que la designación no le impide trabajar con Anthropic en proyectos no vinculados a la defensa, y confirmando que sus productos siguen disponibles a través de plataformas como Google Cloud.
Alphabet, matriz de Google, mantiene una participación de aproximadamente 3.000 millones de dólares en Anthropic y ha ampliado recientemente su asociación, dando a la compañía acceso a hasta un millón de unidades de procesamiento tensorial (TPU) personalizadas de Google.
Amazon cerró el círculo. AWS confirmó que sus clientes y socios pueden continuar usando Claude para todas sus cargas de trabajo no asociadas al Departamento de Guerra. Amazon es uno de los mayores inversores en Anthropic, con una aportación acumulada de 8.000 millones de dólares desde 2023, y mantiene con la startup una relación comercial profunda que incluye el proyecto denominado Project Rainier, un campus de centros de datos valorado en 11.000 millones de dólares.
Para los equipos de TI corporativos, el mensaje es tranquilizador: las inversiones en infraestructura de IA basadas en Claude no corren peligro inmediato.
La paradoja OpenAI: cuando aplaudir a un rival sale muy caro
El episodio ha tenido también un protagonista inesperado: Sam Altman, CEO de OpenAI. El jueves previo al anuncio oficial, Altman envió un comunicado interno expresando su deseo de que las cosas desescalasen entre Anthropic y el Departamento de Defensa, y declaró públicamente en una entrevista que confiaba en Anthropic como empresa.
Menos de 48 horas después, anunció que OpenAI había alcanzado un acuerdo para desplegar sus modelos en la red clasificada del Departamento de Guerra, convirtiéndose en el sustituto natural de Anthropic en el ámbito militar.
La reacción en la industria no fue amable con Altman. Cerca de 800 empleados de OpenAI y Google —681 de Google y 96 de OpenAI— firmaron una carta abierta titulada ‘No seremos divididos’, expresando su apoyo al posicionamiento ético de Anthropic. En Reddit proliferaron llamadas a cancelar las suscripciones de ChatGPT, con miles de votos positivos y un tono generalizado de indignación.
Lo que hace el caso aún más complejo es que el acuerdo de OpenAI con el Departamento de Guerra incluye, sobre el papel, restricciones similares a las que el Pentágono rechazó en Anthropic: prohibición de uso para vigilancia masiva de ciudadanos y para armas autónomas.
Sin embargo, analistas y expertos señalan que la redacción del contrato subordina esas limitaciones a lo que sea ‘legalmente permisible’, lo que deja una puerta de entrada considerablemente más amplia de lo que sugieren las declaraciones públicas de Altman.
Implicaciones estratégicas para el CIO: qué significa esto para su organización
Para los responsables de tecnología en empresas que ya han apostado por modelos de Anthropic —ya sea a través de Google Cloud, AWS Bedrock o Microsoft Azure AI Foundry— la lectura inmediata es de alivio: la designación militar tiene un alcance jurídico más limitado de lo que las declaraciones iniciales de Hegseth sugerían.
El propio CEO de Anthropic, Dario Amodei, aclaró que la ley aplicable en materia de cadena de suministro restringe la designación a los usos directamente vinculados a contratos con el Departamento de Guerra, y no afecta a los usos de Claude o a las relaciones comerciales con Anthropic cuando son independientes de esos contratos específicos.
Con todo, el episodio proyecta varias señales de alerta que todo CIO debería incorporar a su mapa de riesgos. En primer lugar, la dependencia de proveedores de IA en infraestructuras críticas gubernamentales puede convertirse en un campo de minas político en un contexto de creciente instrumentalización de la tecnología.
En segundo lugar, la capacidad de un actor gubernamental para presionar —aunque sea con éxito limitado— a una empresa valorada en 380.000 millones de dólares y con proyecciones de ingresos anuales cercanas a los 20.000 millones, ilustra los riesgos sistémicos de concentrar capacidades críticas de IA en proveedores que pueden verse sometidos a presión regulatoria o política.
En tercer lugar, y quizás lo más relevante desde la perspectiva de gobernanza, el caso Anthropic-Pentágono pone de relieve que los proveedores de IA tienen —o aspiran a tener— principios de uso que pueden entrar en conflicto con las demandas de ciertos clientes institucionales.
Para los CIO que diseñan arquitecturas de IA empresarial, esto supone una nueva dimensión a evaluar: más allá de las capacidades técnicas y el precio, las políticas de uso aceptable y la voluntad de un proveedor de mantener esas políticas bajo presión son variables estratégicas de primera magnitud.
Anthropic ha demostrado que es posible decirle ‘no’ al Pentágono. La pregunta para los CIO es: ¿qué ocurre cuando un proveedor de IA le dice no a su organización?
Apoyo popular a Anthropic como señal de mercado
El mercado de consumidores ha emitido su propio veredicto. Tras la negativa de Anthropic a ceder ante las exigencias del Pentágono, la aplicación principal de la compañía se situó en lo más alto de los rankings de descarga de Apple, reflejando una oleada de apoyo popular a la compañía.
Se trata de un fenómeno inusual en el sector B2B de la IA, donde la notoriedad de marca entre el gran público raramente se traduce en ventaja competitiva directa. En este caso, la posición ética de Anthropic parece haber generado exactamente ese efecto.
Para la compañía, el impacto de largo plazo en sus ventas empresariales —su negocio principal— todavía está por determinar. Pero la solidaridad expresada por Microsoft, Google y Amazon sugiere que, al menos en el ecosistema comercial, la ‘lista negra’ del Pentágono tiene una trascendencia mucho más limitada de lo que Hegseth pretendía con sus declaraciones iniciales en redes sociales.
Una nueva era en la geopolítica de la IA
El conflicto entre Anthropic y el Pentágono no es un episodio aislado. Es el primer gran test de lo que podríamos llamar la geopolítica de la IA empresarial: el momento en que las decisiones sobre el desarrollo y los límites de la inteligencia artificial dejan de ser puramente técnicas o comerciales para convertirse en posicionamientos con consecuencias políticas y regulatorias de primer orden.
Para los CIO, la lección es doble. Por un lado, la resiliencia del ecosistema de grandes proveedores —Google, Microsoft, Amazon— frente a la presión gubernamental sobre uno de sus socios estratégicos demuestra que la diversificación de infraestructura de IA ofrece una capa de protección real frente a disrupciones de origen político.
Por otro lado, el caso subraya que en la próxima fase de adopción de IA en la empresa, saber con quién se trabaja y qué valores defiende ese socio bajo presión puede ser tan importante como cualquier benchmark técnico.
Anthropic ha apostado —de momento con éxito— por la coherencia sobre la conveniencia. El mercado, y sus propios socios tecnológicos, le han dado la razón.







