Desde un principio, 2026 parecía ser un año que prometía no dar tregua. En el plano político, todo empezó con la captura de Maduro, a lo que le siguió el magnicidio del líder del gobierno iraní. Pero es que en el plano bursátil, más de lo mismo. El presente año prometía ser el mejor de la historia con las salidas a bolsa de Open AI y la propia Anthropic. Juntas esperaban lograr una valoración superior al billón de USD y entrar directamente en el top 20 de las compañías más grandes del mundo. Y si a eso se le añadía SpaceX, la compañía espacial de Elon Musk, la cifra aspiraba a ser astronómica.
Entre tanta expectativa, otro follón con el Pentágono como protagonista, porque el Gobierno de EEUU recientemente ha declarado a Anthropic “un peligro para los EEUU”.
Claude y los límite éticos de la IA
El detonante ha sido la decisión del Pentágono de considerar a la compañía desarrolladora de la IA más avanzada del momento, Claude, un “un riesgo para la cadena de suministros”. De este modo, ha restringido el uso de su tecnología en proyectos ligados al Pentágono, y, en consecuencia, del número de contratos asociados a los mismos.
Y parece ser que el fondo del enfrentamiento está en el desacuerdo sobre qué usos militares debía permitir Anthropic con su inteligencia artificial. En este sentido, la compañía defendía mantener restricciones éticas sobre aplicaciones como armas autónomas de selección de objetivos y vigilancia masiva, mientras que desde el entorno de Defensa se rechazaban esos límites como condición de uso. Es más, la compañía de ciberseguridad ha insistido en que su postura no era una negativa absoluta a colaborar con el Gobierno estadounidense. Tan solo quieren establecer ciertas líneas rojas muy concretas en materia de privacidad del usuario.
¿Se cierne una batalla legal contra el Gobierno?
Con todo, la empresa ya ha anunciado que impugnará la decisión en los tribunales, debido a que no es una designación legalmente sólida. Además, subraya que, en cualquier caso, su alcance debería ser limitado al uso de Claude como parte directa de contratos con el Departamento de Defensa, no al conjunto de relaciones comerciales de la corporación con clientes que también trabajen con el Gobierno.
Sin embargo, el caso Anthropic abre un debate mucho más profundo. ¿Por qué una empresa que ha sido capaz de desarrollar la mejor tecnología hasta el momento en materia de IA no puede colaborar con la Administración, sin renunciar del todo a sus límites de uso? En otras palabras, no se está discutiendo solo sobre Anthropic, sino sobre quién pone las reglas cuando la inteligencia artificial entra de lleno en el terreno militar.
Entradas relacionadas
6 abril, 2026
¿Dónde está el cuello de botella en Europa en la carrera de la IA?
En Europa está empezando a consolidarse la industria de la inteligencia…
0 Comments5 Minutes
31 marzo, 2026
¿Fin del ciclo bajista de tipos de interés?
El alargamiento del conflicto en Irán amenaza la economía mundial al disparar…
0 Comments4 Minutes


