Elizabeth Warren acusa al Pentágono de represalia contra Anthropic
La senadora demócrata Elizabeth Warren no se quedó callada. En una carta dirigida al secretario de Defensa Pete Hegseth, la legisladora de Massachusetts acusó al Departamento de Defensa (DOD) de represalia política contra Anthropic, la startup de inteligencia artificial que compite directamente con OpenAI.
El problema es serio: el Pentágono etiquetó a Anthropic como un “riesgo de cadena de suministro”, una clasificación que suena técnica pero que en realidad puede ser devastadora para cualquier empresa. Warren argumenta que si el DOD realmente tenía preocupaciones sobre Anthropic, simplemente pudo haber terminado su contrato sin necesidad de aplicar una etiqueta tan agresiva.
¿Qué significa “riesgo de cadena de suministro”?
Cuando una agencia federal marca a una empresa con esta etiqueta, no es simplemente una observación casual. Significa que otros departamentos, contratistas gubernamentales y proveedores pueden —o en algunos casos deben— evitar hacer negocios con esa compañía. Es como un sello de “no confiable” que circula por todo el ecosistema de defensa estadounidense.
Para una empresa que construye tecnología de IA, esto es devastador. Anthropic depende de contratos gubernamentales, asociaciones empresariales y credibilidad institucional. Una etiqueta como esa puede ahuyentar a inversores, socios comerciales y clientes potenciales.
El contexto político es más oscuro
Lo que hace que la acusación de Warren sea interesante es el timing y el contexto. El Pentágono ya había roto relaciones con Anthropic anteriormente, una ruptura que sorprendió a muchos en la industria. Ahora, con esta nueva clasificación, parece que el conflicto se está escalando.
Warren sugiere que esta decisión es más política que técnica. La pregunta implícita es: ¿está el Pentágono usando la seguridad nacional como excusa para castigar a Anthropic por sus políticas internas, o hay realmente preocupaciones legítimas sobre la compañía?
Esto importa porque vivimos en una era donde la IA es tan estratégica como los misiles nucleares. El gobierno de EE.UU. quiere asegurarse de que sus sistemas de IA estén bajo control, pero también quiere competencia en el mercado. Si el DOD simplemente elimina a los competidores de OpenAI usando clasificaciones de “riesgo de cadena de suministro”, eso tampoco es saludable para la innovación.
El juego político más grande
Lo que está pasando aquí va más allá de Anthropic. La administración Trump está intentando establecer un marco regulatorio para la IA que prioriza la innovación y la soberanía tecnológica estadounidense. El conflicto con Anthropic podría ser parte de esa estrategia más amplia.
Warren, por su parte, ha sido una voz crítica sobre cómo el gobierno federal maneja la tecnología. Su carta no es simplemente una defensa de Anthropic; es un recordatorio de que las decisiones políticas sobre IA no deben tomarse en la sombra.
¿Qué sigue?
Por ahora, Anthropic está en una posición incómoda. La compañía valorada en $380 mil millones y preparándose para salir a bolsa, no necesita los contratos del Pentágono para sobrevivir. Pero la etiqueta de “riesgo de cadena de suministro” puede afectar su reputación y sus perspectivas futuras.
Warren está pidiendo transparencia: que el DOD explique públicamente por qué considera a Anthropic un riesgo y qué evidencia lo respalda. Es un llamado razonable en una era donde las decisiones gubernamentales sobre tecnología tienen consecuencias enormes.
La ironía es que mientras el gobierno estadounidense intenta proteger su seguridad nacional limitando el acceso de Anthropic, otros países —incluyendo China— están corriendo a su propio ritmo en IA. ¿Realmente estamos ganando algo al fracturar nuestro ecosistema de innovación, o simplemente nos estamos disparando en el pie?
Comentarios