En cuestión de días, Anthropic ha pasado a ocupar el centro del debate tecnológico y político en Estados Unidos. La compañía detrás de Claude, uno de los modelos de inteligencia artificial más relevantes del momento, se ha visto envuelta en una decisión gubernamental que ha sacudido tanto a la industria como a los mercados. Lo que hasta hace poco parecía una relación estable entre empresas de IA y Administración federal ha entrado en una fase inesperadamente turbulenta.
El movimiento no es menor. En plena carrera por el liderazgo en inteligencia artificial —con Washington defendiendo su ventaja estratégica frente a China— cualquier fricción entre el poder político y una de las compañías punteras del sector adquiere una dimensión que va más allá de lo meramente empresarial. No se trata solo de contratos o alianzas puntuales, sino del papel que estas tecnologías deben desempeñar en ámbitos sensibles.
La pregunta, por tanto, no es únicamente qué ha ocurrido con Anthropic, sino qué revela este episodio sobre el momento actual que atraviesa la inteligencia artificial en Estados Unidos. Porque cuando una empresa tecnológica se convierte en asunto de Estado, el debate deja de ser técnico y pasa a ser estructural.
De desacuerdo contractual a “riesgo para la seguridad nacional”
La inclusión de Anthropic en la lista de “riesgo para la cadena de suministro” no surge de la nada. Según la versión oficial, la decisión llega después de que la compañía se negara a aceptar que su modelo Claude pudiera ser utilizado por el Departamento de Defensa en cualquier aplicación considerada legal por el Gobierno, incluyendo escenarios vinculados a sistemas autónomos avanzados y operaciones sensibles. La Administración interpretó esa negativa como una limitación inaceptable para un proveedor que opera en el ámbito federal.
Es decir, el conflicto no gira en torno a un fallo técnico, una vulnerabilidad de seguridad o una filtración de datos. Lo que está en juego es el margen de control sobre el uso de la tecnología. Anthropic habría mantenido restricciones explícitas respecto a determinadas aplicaciones —especialmente aquellas relacionadas con vigilancia masiva de civiles o armamento autónomo sin supervisión humana— y esa postura habría sido el detonante del choque con Washington.
La respuesta de la Administración Trump fue elevar el desacuerdo al terreno de la seguridad nacional. Catalogar a una empresa como riesgo para la cadena de suministro por negarse a flexibilizar sus límites éticos declarados supone un salto cualitativo en la forma de gestionar estas tensiones. La etiqueta, históricamente vinculada a amenazas externas o dependencias estratégicas problemáticas, se aplica aquí a una compañía que ha defendido públicamente restricciones sobre el uso de su tecnología en ámbitos especialmente sensibles.
La medida transmite un mensaje claro: en determinados sectores estratégicos, las líneas rojas no las fijan las empresas, sino el Estado. Y aunque el Gobierno tiene la potestad de elegir con quién contrata, utilizar un mecanismo diseñado para amenazas estructurales como herramienta de presión política introduce un precedente inquietante. No se trata solo de cambiar de proveedor; se trata de redefinir quién decide hasta dónde puede llegar la inteligencia artificial en el ámbito militar.
Imagen: TechCrunch
El choque ético: las líneas rojas de Dario Amodei
Si algo ha caracterizado a Anthropic desde su fundación es su insistencia en desarrollar inteligencia artificial bajo un marco de seguridad reforzado. Dario Amodei, su CEO y cofundador, ha defendido en múltiples ocasiones la necesidad de establecer límites claros al uso de modelos avanzados, especialmente en ámbitos relacionados con vigilancia masiva y sistemas de armas autónomas capaces de operar sin intervención humana directa. No se trata de una posición improvisada tras el conflicto actual, sino de una línea estratégica coherente con su discurso público desde hace años.
En este contexto, la negativa a ampliar el margen de utilización de Claude en entornos militares no puede entenderse como una ruptura repentina, sino como la consecuencia lógica de esa postura. Anthropic ha sostenido que determinados usos, aun siendo legales, pueden cruzar umbrales éticos que la compañía no está dispuesta a asumir. Es una distinción relevante: legalidad y legitimidad no siempre son equivalentes, y ahí es donde se ha producido la fricción con la Administración.
El problema es que, en el momento actual, la inteligencia artificial ya no es solo un producto tecnológico, sino una herramienta estratégica en la competencia global entre potencias. Desde la óptica del Gobierno, limitar el acceso pleno a una tecnología desarrollada en territorio nacional puede interpretarse como una desventaja frente a actores que no imponen esas restricciones. Pero la alternativa —forzar a las empresas a eliminar sus propios límites éticos para mantener contratos públicos— abre un debate aún más complejo.
La decisión de la Administración Trump parece enviar un mensaje inequívoco: en materia de defensa y seguridad, la última palabra la tiene el Estado, incluso si eso implica desautorizar públicamente a una empresa que ha hecho de la prudencia su seña de identidad. Y ese mensaje no solo afecta a Anthropic. Afecta a todo el ecosistema de compañías que, hasta ahora, habían intentado equilibrar ambición tecnológica con autorregulación ética. Una señal más, hay que decirlo, del valor que le concede a la ética la actual presidencia estadounidense.
Impacto empresarial: sustitución, mercado y efecto rebote
Más allá del debate ético, la decisión tiene consecuencias inmediatas en el terreno empresarial. Anthropic no es una startup marginal: es una compañía valorada en cientos de miles de millones de dólares, con alianzas estratégicas y una posición relevante en el ecosistema de IA estadounidense. Perder contratos federales —y hacerlo bajo una etiqueta de riesgo estructural— no es un simple contratiempo comercial, sino un golpe económico y reputacional de gran calado.
Sin embargo, el movimiento del Gobierno no ha supuesto una retirada del uso de inteligencia artificial en entornos sensibles, sino un cambio de proveedor. OpenAI ha ocupado rápidamente el espacio dejado por Anthropic en determinados acuerdos con el Pentágono. Esto introduce una lectura incómoda: si la tecnología sigue utilizándose con otro actor, el conflicto no parece girar en torno al uso de IA en defensa, sino a las condiciones bajo las que esa IA debe operar.
Desde una perspectiva de mercado, la situación también ha generado un efecto inesperado. Lejos de provocar una huida masiva de usuarios civiles, el ruido mediático ha disparado la visibilidad de Claude. En Estados Unidos, la aplicación ha escalado posiciones en las listas de descargas, impulsada por una narrativa que presenta a Anthropic como la empresa que se ha mantenido firme ante determinadas exigencias gubernamentales. En el terreno de la percepción pública, eso puede traducirse en una ventaja competitiva.
Aquí es donde la estrategia se vuelve más interesante. Mientras en el plano institucional la compañía pierde peso, en el ámbito civil gana atención y, potencialmente, nuevos usuarios. El pulso con la Administración Trump no solo redefine su relación con el Estado; también reconfigura su posicionamiento frente a competidores como ChatGPT o Gemini. En un sector donde la confianza es un activo crítico, el relato importa casi tanto como la tecnología.
El contraataque civil: importar la memoria como arma estratégica
En paralelo al conflicto institucional, Anthropic ha movido ficha en el terreno donde todavía tiene margen de maniobra: el mercado civil. Y lo ha hecho con una función tan sencilla en apariencia como potente en términos estratégicos. Claude permite ahora importar la memoria acumulada en otros modelos de IA, como ChatGPT o Gemini, facilitando una transición prácticamente inmediata sin perder contexto, preferencias o historial de interacción.
El movimiento no es casual. Uno de los principales frenos para cambiar de asistente de IA no es la calidad del modelo, sino el coste invisible de empezar de cero. Usuarios que llevan meses —o años— entrenando indirectamente a un sistema con sus preferencias, tono, proyectos y hábitos difícilmente dan el salto si eso implica reconstruir ese contexto manualmente. Al permitir exportar toda esa memoria en un único bloque de texto y cargarla en Claude en cuestión de minutos, Anthropic elimina esa fricción casi por completo.
La función tiene además un componente simbólico. En un momento en el que la compañía se presenta como firme en sus límites éticos frente a determinadas exigencias gubernamentales, facilitar la migración puede interpretarse como una invitación directa a quienes priorizan esa narrativa de prudencia y control. No es que Claude garantice automáticamente mayor privacidad que otros servicios —esa es una discusión técnica más compleja—, pero la percepción pública importa. Y la percepción actual es que Anthropic ha trazado líneas que otros no han querido o no han podido mantener.
Eso sí, la letra pequeña existe. La importación permanente de memoria está reservada a planes de pago, mientras que en la versión gratuita el contexto solo se conserva dentro de la conversación activa. Aun así, el mensaje es claro: si decides cambiar, no tienes que renunciar a lo que tu anterior asistente sabía de ti. En un sector donde la competencia se libra cada vez más en el terreno de la confianza y la fidelización, reducir el coste de salida es una jugada calculada.
En definitiva, mientras la Administración Trump presiona en el ámbito institucional, Anthropic trata de reforzar su posición en el ecosistema civil. La batalla no se libra únicamente en los despachos de Washington, sino también en los smartphones y navegadores de millones de usuarios.
Mucho más que un veto: qué está realmente en juego
Lo que está ocurriendo con Anthropic no puede reducirse a un simple conflicto contractual ni a una anécdota política. Estamos ante un episodio que revela hasta qué punto la inteligencia artificial ha dejado de ser únicamente una industria tecnológica para convertirse en un asunto de Estado. Cuando el Gobierno eleva un desacuerdo sobre límites éticos al rango de cuestión de seguridad nacional, el mensaje trasciende a la empresa afectada y alcanza a todo el sector.
La Administración Trump ha optado por una vía contundente, y en mi opinión tremendamente cuestionable, utilizando una figura pensada para riesgos estructurales como mecanismo de presión frente a una compañía que ha decidido mantener restricciones sobre determinados usos militares de su tecnología. Es una decisión legítima desde el punto de vista formal —el Estado elige con quién contrata—, pero discutible en su fondo y en sus formas. Porque convierte un debate complejo sobre ética y responsabilidad en una cuestión de alineamiento político.
Al mismo tiempo, la reacción de mercado demuestra que la ecuación no es lineal. Mientras pierde espacio en el ámbito federal, Anthropic gana visibilidad y atractivo en el terreno civil. En un ecosistema donde la confianza se está convirtiendo en uno de los principales factores diferenciales, el hecho de haber trazado líneas claras puede convertirse en un activo competitivo. No porque garantice superioridad técnica, sino porque proyecta una identidad definida.
En última instancia, la pregunta no es solo qué pasará con Anthropic, sino qué modelo de relación entre empresas de IA y poder político terminará imponiéndose. ¿Uno en el que las compañías ajusten sus principios a las prioridades estratégicas del momento? ¿O uno en el que mantengan cierto margen de autonomía ética, aun a costa de perder contratos públicos? Lo que se decida ahora marcará el terreno sobre el que se desarrollará la próxima década de inteligencia artificial.
La entrada ¿Qué está pasando con Anthropic? se publicó primero en MuyComputer.


