El presidente de Estados Unidos, Donald Trump y el director Ejecutivo de OpenAI, Sam Altman
La mañana del 9 de marzo de 2026 quedará en los anales como el momento en que el contrato social entre la política y la innovación tecnológica sufrió una fractura irreversible o ¿marcó el inicio de una sólida alianza de largo aliento de la administración pública con el sector privado corporativo de Estados Unidos para enfrentar a China?
La demanda presentada por Anthropic ante la Corte del Distrito Norte de California caratulada bajo la denominación de “Anthropic PBC (Sociedad de Beneficio Público) contra los Estados Unidos de América, el Departamento de Defensa y Peter Hegseth en su capacidad oficial”, no representa un litigio por la cancelación de un contrato de U$S200 millones. Simboliza el último dique de contención de una cosmovisión que creía posible escindir el desarrollo tecnológico de las ambiciones cinéticas del Departamento de Guerra y de los intereses conjuntos de las grandes corporaciones.
En el plano jurídico-político, las diferencias entre Anthropic y Washington es un duelo entre titanes. La compañía ha confiado su estrategia a uno de los bufetes más influyentes de Washington D.C., Wilmer Cutler Pickering Hale and Dorr LLP (conocido en el ámbito jurídico como WilmerHale), a cargo de Seth Waxman (Socio Principal), quién se desempeñó como Procurador General de los Estados Unidos (Solicitor General) durante la administración democrata de Bill Clinton. Waxman, considerado uno de los mayores expertos en litigios ante la Corte Suprema, donde ha intervenido en más de 80 casos, es un experto en la intersección entre el derecho constitucional, la seguridad nacional y la propiedad intelectual. También forma parte del equipo jurídico de WilmerHale,, su socia, Catherine Carroll, quien cuenta con una vasta experiencia en apelaciones federales y litigios regulatorios complejos. Carroll tiene una sólida experiencia en procedimientos bajo la Ley de Procedimiento Administrativo (APA), pieza clave para cuestionar la arbitrariedad de la etiqueta de “riesgo de seguridad” esgrimida por el Pentágono.
Por su parte, el gobierno de Estados Unidos delegó la tarea judicial en Craig Missakian, el fiscal de los Estados Unidos a cargo del Distrito Norte de California. Nombrado en mayo de 2025, Missakian es un veterano fiscal con amplia experiencia en casos de espionaje, seguridad nacional y cibercrimen. Además, es reconocido por haber liderado la renombrada causa contra Chi Mak, un ingeniero condenado por exportar secretos militares sensibles a China. En el ámbito judicial, se lo reconoce como un “halcón” en asuntos asociados a la protección de tecnología militar, lo que lo convierte en el contrapunto natural a la defensa de Anthropic.
Representación de Pete Hegseth
Como el Secretario de Defensa, Pete Hegseth es demandado en su condición oficial, dlafensa es gestionada por los mismos abogados del DOJ. Sin embargo, en el terreno político, sus argumentos son respaldados por el equipo de la Casa Blanca, que defiende la legalidad de la etiqueta de “riesgo para la cadena de suministro“ que esgrimen como argumento principal los poderes ejecutivos de la administración Trump.
El magistrado que entiende en la causa en la Corte del Distrito Norte de California es James Donato, valorado por su rigor técnico en causas que involucran a las gigantes tecnológicas de Silicon Valley. Fue nominado por la administración del también democrata Barack Obama y ha presidido litigios de alto perfil público sobre antimonopolio y privacidad de datos, incluyendo casos contra Google y Facebook. Además, su juzgado es reconocido por actuar con celeridad en pedidos de medidas cautelares (preliminary injunctions), que es a lo que Anthropic apeló para frenar la interrupción del envío de fondos.Sin embargo, en los pasillos de Washington, la retórica del libre mercado ha cedido ante un pragmatismo crudo donde la IA ya no se considera un producto de consumo, sino una munición lógica que el Estado no puede permitirse no controlar puesto que debe formar parte de un proyecto unidireccional de Estados Unidos. Todos juntos para frenar el ascenso del gigante asiático.
Anthropic, en tanto, cuenta con sólidos apoyos económicos que la respaldan pero a su vez tiene un modelo de integración societaria técnico-política que actúa como un factor de equilibrio que consolida su posición frente a las presiones de la Casa Blanca. La conformación societaria de Anthropic PBC se caracteriza por una estructura de propiedad distribuida y un modelo de gobernanza que en teoría separa los derechos éticos del control político y económico-financiero.
El núcleo fundador de Anthropic, encabezado por los hermanos Amodei, conserva una participación accionaria que se ha ido diluyendo de forma progresiva tras las 17 rondas de financiación completadas desde 2021.
El núcleo fundador, encabezado por los hermanos Dario y Daniela Amodei, conserva una participación accionaria que ha sido objeto de dilución progresiva tras las 17 rondas de financiación completadas desde 2021.
No obstante, el control operativo permanece vinculado a este grupo a través de sus roles ejecutivos y su interacción con el Long-Term Benefit Trust (LTBT), el influyente cuerpo independiente compuesto en la actualidad por tres miembros con trayectorias en seguridad nacional, políticas públicas y empresa social.
Según se desprende de la página web de la compañía, el LTBT ayuda a Anthropic su misión de beneficio público seleccionando miembros del directorio y asesorando al directorio y a la conducción sobre cómo maximizar los beneficios de la IA avanzada y mitigar sus riesgos. (Anthropic).
En la actualidad, el LTBT está encabezado por Neil Buddy Shah, ex CEO de la Clinton Health Access Initiative y cofundador de GiveWell, con trayectoria en salud global y filantropía eficaz; Richard Fontaine, CEO del Center for a New American Security (CNAS), think tank especializado en seguridad nacional y política exterior de EE.UU. Fue incorporado al Trust en reconocimiento de que la IA transformadora tendrá implicancias profundas para la seguridad internacional y el funcionamiento de las instituciones democráticas. (AI Alignment Forum). El último integrante de la terna es Mariano-Florentino (Tino) Cuéllar, ex juez de la Corte Suprema de California y ex presidente de la Carnegie Endowment for International Peace, con experiencia en tres administraciones presidenciales de EE.UU y en la actualidad preside el directorio de la Fundación Hewlett. (Harvard Law School Forum on Corporate Governance) Cuellas fue incorporado en enero de 2026.
Con la incorporación de Cuéllar, concluyeron sus mandatos los dos miembros fundadores restantes: Kanika Bahl (CEO de Evidence Action) y Zachary Robinson (CEO del Centre for Effective Altruism). (Harvard Law School Forum on Corporate Governance) El Trust pasó así de cinco miembros originales a solo tres activos, lo que alimenta las críticas sobre su capacidad operativa real.bLos críticos consideran que el LTBT ha hecho muy poco hasta ahora —designando solo un director pese a poder designar una mayoría— y que ninguno de sus miembros posee expertise técnico en IA. (AI Alignment Forum) Además, incluso los directores seleccionados por el LTBT deben lealtad fiduciaria a los accionistas de Anthropic, lo que limita su independencia real. En síntesis, el LTBT es un mecanismo innovador pero cuyo peso efectivo sobre las decisiones más críticas de Anthropic aún no ha sido comprobado.
En otro orden, la junta directiva actual de Anthropic está integrada por seis miembros, entre los que figuran los cofundadores junto a directores independientes como Reed Hastings (Netflix), Jay Kreps (Confluent) y Chris Liddell (ex-CFO de Microsoft), buscando un equilibrio entre la especialización técnica y la gestión financiera.
En cuanto a los flujos económicos derivados de esta composición, los acuerdos vigentes estipulan mecanismos de reparto de ingresos con los socios de infraestructura. Se proyecta que para 2026, Anthropic destinará aproximadamente U$S1.900 millones a Amazon, Google y Microsoft en concepto de participación de beneficios por la reventa de modelos a través de sus plataformas de nube. Esta configuración societaria establece una interdependencia donde los proveedores de capital y hardware participan de las utilidades operativas, mientras que la soberanía sobre el desarrollo del software se mantiene bajo el control de los mecanismos de fideicomiso y la figura de la PBC.
Anthropic está constituida legalmente como una Public Benefit Corporation (PBC) bajo las leyes del Estado de Delaware, una jurisdicción de 6447 kilómetros cuadrados un pequeños gran centro financiero apodado The Land of free-Tax Shopping, un centro de baja tributación. La PBC establece que el directorio tiene la obligación legal de equilibrar los intereses pecuniarios de los accionistas con un beneficio público específico, definido en sus estatutos como el desarrollo de inteligencia artificial segura.
La participación de las grandes corporaciones tecnológicas se canaliza a través de inversiones estratégicas vinculadas al suministro de infraestructura. Amazon es el inversor individual con mayor capital aportado, alcanzando los U$S8.000 millones, lo que representa una participación cercana al 8%. Por su parte, Google (Alphabet Inc.) mantiene una tenencia aproximada del 14%. Asimismo, Microsoft y Nvidia integraron el capital en noviembre de 2025 con una inversión conjunta de U$S15.000 millones, consolidando la red de socios que proveen capacidad de cómputo en la nube y unidades de procesamiento gráfico.
El sector del capital de riesgo y los inversores institucionales experimentó una expansión tras la ronda Serie G de febrero de 2026, donde la compañía recaudó U$S30.000 millones. Este tramo fue liderado por el fondo soberano de Singapur GIC y la firma Coatue Management, con la participación de otros actores como D.E. Shaw Group, Founders Fund, BlackRock y Fidelity. Estos inversores poseen derechos económicos sobre el flujo de caja y la valoración de la empresa, que alcanzó los U$S380.000 millones post-money, pero operan bajo las restricciones de voto impuestas por el sistema de acciones de clase especial.
El núcleo fundador, encabezado por los hermanos Dario y Daniela Amodei, conserva una participación accionaria que ha sido objeto de dilución progresiva tras las 17 rondas de financiación completadas desde 2021. No obstante, el control operativo permanece vinculado a este grupo a través de sus roles ejecutivos y su interacción con el LTBT. La junta directiva actual está integrada por seis miembros, entre los que figuran los cofundadores junto a directores independientes como Reed Hastings (Netflix), Jay Kreps (Confluent) y Chris Liddell (ex-CFO de Microsoft), buscando un equilibrio entre la especialización técnica y la gestión financiera.
La doctrina de la alineación
La fricción pública y privada entre la administración Trump y Anthropic tuvo un factor desencadenante. La ruptura del equilibrio se gestó cuando el Secretario de Defensa emitió un ultimátum que desdibujó las fronteras entre la propiedad intelectual y el interés público. La exigencia era clara, acceso total a la arquitectura de Claude para fines de defensa, sin las limitaciones éticas que prohíben el uso en ataques letales o vigilancia doméstica. Ante la negativa de la empresa, la respuesta de la Casa Blanca fue quirúrgica y partió las aguas. La administración Trump quiere que . Que su IA no se niegue a ayudar al ejército
El gobierno quiere que eso desaparezca cuando el usuario sea el Estado. En otras palabras, el Pentagono exige que Claude pueda utilizarse para analizar inteligencia, planificar operaciones de guerra, procesar datos militares y simular escenarios de guerra. E incluso, quiza lo más grave, contribuir al desarrollo de armas autónomas o realizar trabajos de inteligencia militar dentro del propio territorio de Estados Unidos. En cambio, Anthropic esgrime argumentos éticos para oponerse.
El Pentágono interpreta que las “salvaguardas éticas” de Anthropic actúan como una forma de sabotaje funcional que limita la libertad de acción militar.
Por primera vez en la historia, una compañía de Silicon Valley fue catalogada como un “riesgo para la cadena de suministro”. Esta argucia administrativa, amparada en la Ley de Seguridad de la Cadena de Suministro (FASCA), no buscaba solo castigar a un proveedor indócil, sino enviarlo al ostracismo comercial absoluto, impidiendo que cualquier contratista federal —desde Boeing hasta Lockheed Martin— pudiera integrar sus servicios en un mercado donde el presupuesto de defensa es el principal motor de la demanda.
Bajo la FASCA, se define riesgo como la posibilidad de que un proveedor “subvierta” un sistema. El Pentágono interpreta que las “salvaguardas éticas” de Anthropic actúan como una forma de sabotaje funcional que limita la libertad de acción militar.
“Nuestra verdadera ventaja competitiva reside en una comunidad científica abierta, pero esa apertura no puede ser un derecho a veto sobre las decisiones operativas del ejército de los Estados Unidos” afirmó Pete Hegseth durante su reciente intervención en las instalaciones de SpaceX, subrayando que la autonomía técnica es hoy un costo de oportunidad inaceptable.
Esta postura oficial refleja el cambio de paradigma detallado en el informe AI and the Future of National Security del Belfer Center. Washington ha dejado de ser un cliente para convertirse en un tutor exigente de la innovación. La estrategia de integración forzosa, que durante años fue denunciada en otras latitudes como una distorsión del mercado, se ha convertido ahora en el plano maestro para la supervivencia del modelo estadounidense.
La convergencia es absoluta, si el Estado percibe una ventaja tecnológica vital, la empresa propietaria pierde su derecho a la objeción de conciencia técnica. La política de la Casa Blanca apunta esencialmente a alinear bajo un mismo proyecto político al sector público y privado.
El primer punto es el enfoque estratégico sobre liderazgo en IA. El Belfer Center subraya que mantener una ventaja en inteligencia artificial no es solo un asunto económico, sino un componente crítico de seguridad nacional y proyección de poder, equiparable a la energía nuclear o la computación.
La política de Trump refleja esta misma prioridad, al impulsar programas federales de IA, asociaciones público‑privadas y marcos regulatorios que favorecen la innovación nacional frente a competidores globales, especialmente China. En ambos casos, se percibe la IA como una tecnología transformadora que puede determinar la posición estratégica de Estados Unidos en el mediano y largo plazo.
El segundo punto clave es el rol del sector privado como motor de innovación. El Belfer Center reconoce que gran parte del desarrollo de IA ocurre en empresas y universidades, y propone un diseño de políticas que aproveche este ecosistema sin restringir la innovación.
Trump se centra en decisiones tácticas de corto plazo que protejan la supremacía tecnológica estadounidense, a veces incluso a costilla de un debate más amplio sobre riesgos duales o ética.
Trump adopta un enfoque similar: sus políticas buscan reducir los obstáculos regulatorios, incentivar inversión privada en infraestructura tecnológica y fomentar acuerdos con las grandes tecnológicas. La convergencia radica en que ambos enfoques ven a la industria como un aliado estratégico más que como un competidor o un actor a controlar exclusivamente.
Un tercer aspecto determinante es la intersección entre IA y seguridad nacional. El informe enfatiza la dualidad de uso de la IA y la necesidad de gestionar riesgos militares y de inteligencia, destacando la vulnerabilidad ante actores estatales y no estatales. Trump también prioriza la seguridad nacional en decisiones concretas, desde la selección de tecnologías adoptadas por agencias federales hasta la limitación de ciertos proveedores extranjeros.
Sin embargo, mientras el Belfer Center propone mecanismos de mitigación amplia, Trump se centra en decisiones tácticas de corto plazo que protejan la supremacía tecnológica estadounidense, a veces incluso a costilla de un debate más amplio sobre riesgos duales o ética.
Finalmente, la gestión de riesgos y regulación muestra similitudes y diferencias. El Belfer Center aconseja un equilibrio que estimule la innovación al tiempo que se establecen estándares para evitar impactos catastróficos, especialmente en IA de uso dual.
La política de Trump comparte el objetivo de evitar restricciones que frenen la competitividad, pero su énfasis está más en agilizar la adopción y consolidar liderazgo, relegando las medidas preventivas a un segundo o tercer plano. Esto refleja una visión más pragmática y orientada a la ventaja inmediata y el informe plantea un enfoque más estructural, de largo plazo y centrado en mitigación de riesgos sistémicos.
El mapa del consenso entre la política y el cuerpo tecnológico
Mientras Anthropic elegía la vía judicial, el resto del valle acordaba su destino con la administración federal. El panorama de contratos revela un pragmatismo que trasciende los antiguos escrúpulos éticos. OpenAI llegó a un acuerdo con el Departamento de Defensa para desplegar sus modelos en la red clasificada militar apenas horas después de que la administración Trump designara a Anthropic como riesgo para la cadena de suministro de seguridad nacional.
El timing fue lo suficientemente elocuente como para generar un aluvión de críticas que obligó a Sam Altman a admitir, pocos días después, que el acuerdo había sido “definitivamente apresurado” y que “las apariencias no eran buenas” .
El acuerdo original carecía de las salvaguardas que Anthropic había exigido y que le costaron el contrato, lo que llevó a expertos legales a señalar que la diferencia entre ambos acuerdos era más cosmética que sustancial.
Los ajustes introducidos días más tarde centraron la prohibición en el uso de tecnología de OpenAI para vigilancia doméstica, sistemas de armas autónomas y toma de decisiones automatizada, las mismas garantías que Anthropic había reclamado y que hundieron su negociación con el Pentágono.
La arquitectura de despliegue acordada —exclusivamente vía nube, sin integración directa en hardware de armas o sensores— quedó como el principal argumento técnico de OpenAI para justificar la diferencia con lo que otros laboratorios habían aceptado antes.
Google, que en febrero de 2025 levantó sus propias restricciones sobre proyectos de IA relacionados con la defensa, anunció que se regiría por los estándares de IA militar solo si sus competidores hacían lo mismo, una formulación que, en la práctica, delegaba la ética corporativa en la conducta de sus rivales.
El retorno de Google al ámbito de la inteligencia militar tardó siete años desde la rebelión de sus empleados contra el Proyecto Maven, pero fue completo.
El contrato de Google con la Oficina Digital e Inteligencia Artificial del Pentágono, valorado en hasta U$S200 millones, le permite proveer al Departamento de Defensa su infraestructura en la nube, incluidas sus unidades de procesamiento tensorial para entrenamiento de modelos de IA.
En su blog, el vicepresidente de ventas federales de Google Public Sector precisó que la empresa proporcionará al Pentágono sus unidades de procesamiento tensorial en la nube, agentes de IA a través de Google Agentspace y acceso a toda su infraestructura basada en el territorio continental de Estados Unidos.
No es solo visión computacional aplicada al análisis de blancos tácticos lo que Google lleva de vuelta al complejo militar-industrial: es la columna vertebral computacional necesaria para entrenar y ejecutar los modelos que tomarán decisiones en tiempo real en contextos de combate.
La escala de Palantir es, sin embargo, la que define el nuevo estándar de la era Trump. El contrato que el Ejército formalizó el 31 de julio de 2025 no es un acuerdo de servicios convencional: se trata de un Enterprise Service Agreement de diez años de duración que consolida 75 contratos previos —15 contratos principales y 60 contratos relacionados en los que Palantir operaba como subcontratista— en un único acuerdo marco que establece las necesidades futuras de software y datos del Ejército.
Palantir no solo procesa datos tácticos del Ejército: opera como el tejido conectivo de toda la arquitectura de datos de la administración de defensa, con presencia documentada en la Fuerza Aérea, la Armada y múltiples agencias de inteligencia.
La mecánica del acuerdo revela la profundidad de la integración: mediante descuentos por volumen y la eliminación de los márgenes de intermediarios, el Ejército puede adquirir capacidades de Palantir al estilo de un menú a la carta, con líneas de pedido desglosadas en lugar de paquetes cerrados, ganando así transparencia y flexibilidad sobre qué compra y cuándo.
Palantir no solo procesa datos tácticos del Ejército: opera como el tejido conectivo de toda la arquitectura de datos de la administración de defensa, con presencia documentada en la Fuerza Aérea, la Armada y múltiples agencias de inteligencia. En el primer trimestre de 2025 registró U$S373 millones de dólares en ingresos gubernamentales, registrando un incremento notable del 45% interanual.
A esto se suma xAI, la firma de Elon Musk, que ha capitalizado su cercanía ideológica y operativa con el gobierno para firmar contratos de planificación de misiones y ciberdefensa. El 14 de julio de 2025, cuando Musk todavía era funcionario de Trump, xAI lanzó Grok para Gobierno, una suite de productos que pone sus modelos de IA a disposición de los clientes federales, estatales, locales y de seguridad nacional, disponible para su adquisición a través de la Administración de Servicios Generales.
El contrato de xAI con la Oficina Digital e Inteligencia Artificial del Pentágono, con un techo de U$S200 millones se orienta al desarrollo de capacidades de IA agéntica que puedan automatizar el análisis, apoyar la toma de decisiones y operar con grandes volúmenes de datos de seguridad nacional. La proximidad de Musk a Trump —que atravesó fricciones públicas a principios de 2026 sobre legislación presupuestaria— no diluyó la institucionalización de xAI en el aparato federal, que avanzó por su propio peso contractual.
Incluso Meta ha participado de esta inercia, aunque de forma más indirecta. En noviembre de 2024, Meta anunció que pondría su familia de modelos de código abierto Llama a disposición de unidades gubernamentales que trabajen en aplicaciones de defensa y seguridad nacional, así como de socios del sector privado que apoyen ese trabajo.
La vía de entrada al complejo militar fue, sin embargo, Anduril Industries, la empresa de defensa fundada por Palmer Luckey. En febrero de 2025, el Ejército transfirió a Anduril la gestión del contrato de producción de Microsoft para el programa IVAS, un acuerdo de 22.000 millones de dólares originalmente destinado a desarrollar cascos de realidad aumentada para soldados basados en el HoloLens 2.
Bajo la nueva estructura, Anduril asumió la supervisión del programa el 10 de abril de 2025, con el mandato de mejorar el software de los dispositivos existentes, reduciendo el ciclo de actualización de seis meses a dieciocho horas.
La Casa Blanca construyó un modelo de gobernanza tecnológica en el que el acceso a contratos federales funciona como palanca de alineamiento político que le permite a las compañías consolidar sus esquemas de desarrollo
En mayo, Meta y Anduril formalizaron su asociación para competir por la próxima generación del sistema, ahora renombrado como Soldier-Borne Mission Command, desarrollando el dispositivo EagleEye, un sistema de realidad extendida con sensores de visión y audición mejoradas para el combate. El modelo Llama es el sustrato de IA sobre el que descansa el software de ese sistema.
Lo que subyace a todos estos acuerdos es una cuestión de fondo que va más allá de la estrategia empresarial individual. La administración Trump ha construido un modelo de gobernanza tecnológica en el que el acceso a contratos federales —y la supervivencia financiera que implica en un mercado donde el coste de entrenar modelos frontales supera los U$S1000 millones— funciona como palanca de alineamiento político.
El CEO de Anthropic señaló internamente que las razones reales del conflicto con la administración incluían que su empresa no había donado a Trump, mientras que el presidente de OpenAI y su esposa contribuyeron a título individual con U$S12,5 millones cada uno a un súper PAC pro-Trump, y que Altman había calificado públicamente al Presidente como “un cambio muy refrescante”. La distinción entre seguridad de IA, lealtad y proyecto político se ha vuelto operativamente indistinguible, y esa es la condición estructural que Anthropic eligió resistir en los tribunales.
“La empresa no puede, de buena fe, permitir que su tecnología se convierta en una herramienta para la vigilancia masiva o el desarrollo de armas autónomas letales” sostuvo Dario Amodei en el manifiesto interno que precipitó la represalia federal.
El torniquete financiero y la erosión del capital paciente
El conflicto institucional de Anthropic y el Gobierno Federal no habría alcanzado tal gravedad sin el colapso del ecosistema de financiamiento privado. El fenómeno conocido como “gating” —la restricción de retiros en fondos de crédito privado— ha alterado el flujo sanguíneo de la innovación.
El fondo de préstamos de BlackRock limitó recientemente los reembolsos al 5%, bloqueando solicitudes por U$S1.200 millones. Para una empresa como Anthropic, cuya valoración de U$S60.000 millones depende de inyecciones constantes para sostener el gasto en cómputo, perder el favor estatal en un mercado que restringe el financiamiento equivale a una sentencia de muerte financiera.
“Fue un movimiento oportunista y desprolijo, pero nuestra intención fue desescalar una situación que amenazaba la viabilidad de toda la industria” confesó Sam Altman a sus empleados tras confirmarse que OpenAI llenaría el vacío dejado por Anthropic.
La lógica es implacable, si el capital de Wall Street se congela, el único comprador con capacidad de liquidez infinita es el complejo militar-industrial. Esta dependencia financiera ha forzado a las juntas directivas a reevaluar su postura sobre la neutralidad y el no alineamiento, comprendiendo que en marzo de 2026, la soberanía nacional es el único aval de crédito real que queda en pie.
La profundidad de esta asfixia se explica en el informe Financial Vulnerabilities in AI Infrastructure del Fondo Monetario Internacional (2025). El documento señala que el modelo de hipercrecimiento de la IA requiere una infraestructura de capital que solo los Estados o los mayores fondos de inversión pueden proveer. Cuando el mercado privado se contrae, el Estado emerge no como un cliente, sino como un socio forzoso pero bienvenido cuando se trata de una carrera de largo aliento que requiere de mucho oxigeno financiero y un fuerte espaldarazo del sistema político. Esta dinámica ha transformado la gobernanza corporativa de las tecnológicas, desplazando a los comités de ética en favor de oficiales de enlace con el Pentágono.Es una alianza de facto en la que la administración Trump y los popes estadounidenses de la tecnología tienen un enemigo común: China.
El imperativo del hardware y la paradoja mineral
Sin embargo, el debate sobre el software se desvanece ante la crudeza del hardware. El informe 2026 Critical Minerals Ministerial del Departamento de Estado confirma que la ambición de poseer un ejército “inteligenciado” choca frontalmente con la geografía indómita del planeta. Cada caza F-35 Lightning II transporta en su interior más de 417 kilogramos de tierras raras procesadas casi exclusivamente en territorio adversario. Los imanes de samario-cobalto que permiten maniobras a temperaturas extremas y los módulos de radar cargados de neodimio y disprosio son el tributo físico que Washington debe pagar para sostener su primacía operativa.
La dependencia es absoluta. La infraestructura química necesaria para procesar estos elementos fue desmantelada en Occidente por razones de rentabilidad durante los años noventa. En 2026, la reducción de los cupos de exportación de galio y germanio en un 30% ha enviado un mensaje inequívoco, el control de los servidores es irrelevante si no se controla el silicio y los imanes que los componen. Esta realidad ha forzado a la Casa Blanca a buscar alianzas desesperadas con Australia y socios en los Andes, pero la construcción de plantas de refinación independientes es un proceso que demanda lustros, un tiempo que la velocidad del avance algorítmico no permite esperar.
“He despedido a Anthropic porque no deberían haber hecho lo que hicieron. Necesitamos una tecnología letal ahora, no dentro de diez años” declaró Donald Trump en una entrevista reciente, subrayando que en su administración la ética es un costo de oportunidad que no están dispuestos a pagar.
El círculo vicioso de la autarquía tecnológica
La respuesta de Washington ante este bloqueo ha sido la aceleración de la IA extractiva. Se han firmado contratos de emergencia con firmas de análisis de datos para cartografiar nuevos yacimientos en territorio americano, utilizando modelos de aprendizaje profundo para predecir la ubicación de vetas de cobalto y litio. Irónicamente, el mismo software que Anthropic se niega a militarizar es el que el gobierno necesita para asegurar los materiales con los que se construirán las armas del futuro.
Esta contradicción operativa sitúa a los desarrolladores de IA en el centro de una cadena de valor que comienza en la mina y termina en el sistema de guía de un misil. El bloque mineral unificado
Esta obsesión por el control del recurso ha institucionalizado lo que el Pentágono denomina “IA extractiva”. Se han destinado fondos de emergencia para que firmas de análisis de datos cartografíen, mediante redes neuronales profundas, nuevos yacimientos en territorio americano y en naciones del hemisferio sur bajo acuerdos de exclusividad. Irónicamente, el mismo software de vanguardia que empresas como Anthropic intentan preservar bajo un marco ético es el que el gobierno demanda para predecir la ubicación de vetas de cobalto y litio.
En la visión de la Casa Blanca, la tecnología es la pala digital que asegura el recurso, transformando la innovación en la punta de lanza de un nuevo mercantilismo tecnológico donde el éxito de un algoritmo se mide por su capacidad para asegurar el colateral físico de la guerra moderna.
El afán de la administración de Donald Trump por garantizar los suministros ha colocado a los minerales estratégicos en el epicentro de su doctrina económica. No se trata simplemente de una cuestión de logística industrial, sino de una visión de autarquía productiva donde la soberanía no reside en la nube, sino en la veta.
En esta lógica, la inteligencia artificial representa el sistema nervioso del nuevo organismo militar, pero las tierras raras constituyen la estructura muscular sin la cual ese cerebro resulta absolutamente inoperante. Esta doctrina de seguridad material entiende que un modelo de lenguaje de última generación es un activo estéril si los actuadores físicos y los sensores de los sistemas de defensa carecen de la pureza química que solo el neodimio y el terbio proporcionan.
La designación de Anthropic como “riesgo” es, técnicamente, una señal al mercado, en la carrera por la supremacía, la seguridad nacional es la variable que define la solvencia. La administración Trump ha decidido que el riesgo de no tener una IA alineada con sus objetivos militares es mayor que el riesgo de erosionar la libertad de mercado que definió a Silicon Valley durante medio siglo.
La simetría del poder y el fin de la excepción americana
El resultado de estas tensiones es una simetría final. Para ganar la carrera de la IA, la democracia más influyente del mundo ha comenzado a centralizar sus propios recursos bajo la lógica de la necesidad nacional corporativa.
La distinción entre los modelos de gestión tecnológica se ha vuelto una cuestión de semántica legal más que de práctica operativa. Washington ha llegado a la conclusión de que la inteligencia artificial es demasiado poderosa para que quede en manos de corporaciones que pretendan operar por encima de las fronteras estatales. Y al final las grandes tecnológicas lo han comprendido y adoptado así, menos Anthropic, la ovejita negra que resiste las presiones mientras sus músculos se lo permitan.
“El acceso a las tierras raras no es un problema geológico sino de infraestructura estratégica. Estados Unidos depende de su principal rival para fabricar los sistemas con los que busca contrarrestarlo” señala el informe Rare Earth Exchanges (2025).
Al final del día, el mapa del poder en marzo de 2026 muestra un bloque occidental que opera bajo la premisa de la subordinación de la técnica a un poder integrado. El caso de Anthropic es el epitafio de la era de la tecnología como un espacio idílico de libertad ética. El futuro pertenece a la integración total, donde el algoritmo, el mineral y el capital son piezas de un único engranaje, la constitución de nuevo modelo de poder en los Estados Unidos. El costo de esta victoria estratégica podría ser la destrucción de la diversidad creativa que permitió a EE.UU. liderar la carrera tecnológica en primer lugar, transformando la innovación en un acto de obediencia o de conveniencia mutua.
En este nuevo realismo, la pregunta ya no es si la IA debe ser ética, sino bajo qué mando servirá la disputa por la hegemonía contra China.
Mariano Beristain/Centauro IA
Enlaces de Referencia
Anthropic contra Estados Unidos: El litigio que define la libertad algorítmica
Informe sobre la Vulnerabilidad de la Cadena de Suministro de Defensa (2026)
El impacto del ‘Gating’ en el crédito privado y la inversión tecnológica
Estrategia de Inteligencia Artificial 5.0: El Pentágono y la soberanía de datos