Pentágono firma con 7 gigantes de IA y margina a Anthropic

Mientras el Pentágono se alía con SpaceX, OpenAI y Google, Anthropic queda fuera por negarse a ceder en el uso de armas

Destacadas

Entre Líneas
Entre Líneashttps://entrelineas.news
Noticias claras, análisis profundo. La verdad se lee Entre Líneas. #EntreLineas

Lo que debes de saber

  • El Pentágono firmó acuerdos con SpaceX, OpenAI, Google, Nvidia, Reflection, Microsoft y Amazon Web Services para usar sus IA en redes clasificadas.
  • Anthropic fue excluida y etiquetada como ‘riesgo de cadena de suministro’ tras negarse a permitir el uso de su modelo Claude en armas autónomas y vigilancia masiva.
  • El secretario de Defensa, Pete Hegseth, calificó al CEO de Anthropic de ‘lunático ideológico’ en una audiencia en el Senado.
  • Más de 1.3 millones de efectivos del Pentágono ya usan la plataforma GenAI.mil, y estos nuevos acuerdos buscan convertir al ejército en una ‘fuerza de combate primero-IA’.
Imagen de Cnn
Tomado de: Cnn

El Pentágono elige bando: 7 gigantes de IA firman, Anthropic se queda fuera

El Departamento de Defensa de Estados Unidos anunció el viernes acuerdos con siete de las empresas tecnológicas más grandes del mundo para desplegar sus herramientas de inteligencia artificial en redes clasificadas. La lista incluye a SpaceX, OpenAI, Google, Nvidia, Reflection, Microsoft y Amazon Web Services. La ausencia más notoria: Anthropic, la startup creadora del modelo Claude, que fue etiquetada como un «riesgo de cadena de suministro» por el gobierno de Donald Trump después de negarse a ceder en sus condiciones de uso para fines militares. Según reporta CNN, la administración había cortado lazos con la compañía cuando Anthropic insistió en incluir salvaguardas para el uso de su IA en guerra, incluyendo armas autónomas y vigilancia masiva. La decisión no es menor: Anthropic era, hasta hace poco, el único modelo de IA disponible en la red clasificada del Pentágono.

Imagen de Theglobeandmail
Tomado de: Theglobeandmail

La guerra de los términos de servicio

El conflicto entre Anthropic y el Pentágono no es técnico, es filosófico. Mientras otras empresas como OpenAI o Google aceptaron términos que permiten al Departamento de Defensa usar sus modelos para «todos los propósitos legales», Anthropic se negó a firmar sin garantías explícitas de que su tecnología no se usaría para desarrollar sistemas de armas autónomas o vigilancia masiva. La respuesta de la administración Trump fue fulminante: declarar a la empresa un «riesgo de cadena de suministro», una designación que hasta ahora solo se había aplicado a compañías vinculadas con adversarios extranjeros. Anthropic demandó al gobierno y un juez federal en California bloqueó temporalmente la medida, como documenta The Globe and Mail. Pero el daño ya estaba hecho: mientras Anthropic litiga, sus competidores se llevan contratos mill millonarios.

«Estos acuerdos aceleran la transformación hacia el establecimiento de las fuerzas armadas de Estados Unidos como una fuerza de combate primero-IA y fortalecerán la capacidad de nuestros guerreros para mantener la superioridad decisional en todos los dominios de la guerra», dijo el Pentágono en un comunicado citado por AOL.

Imagen de Aol
Tomado de: Aol

El dato que no se dice: 1.3 millones de usuarios ya están dentro

El Pentágono reveló que su plataforma interna GenAI.mil ya ha sido utilizada por 1.3 millones de efectivos del Departamento de Defensa en solo cinco meses de operación. Esto significa que la infraestructura para una adopción masiva de IA en el ámbito militar ya está en marcha, y estos nuevos acuerdos no hacen más que ampliar el ecosistema. La pregunta incómoda: ¿qué tipo de decisiones están tomando esos 1.3 millones de usuarios con ayuda de la IA? El Pentágono asegura que el uso será «legal», pero la definición de «legal» en el contexto de guerra cibernética, vigilancia y armas autónomas es, cuando menos, difusa. Como señala Seeking Alpha, el Departamento de Guerra —sí, así lo llaman— está apostando fuerte por la IA como ventaja estratégica.

El lunático ideológico y la puerta entreabierta

El secretario de Defensa, Pete Hegseth, no se anduvo con rodeos. Durante una audiencia en el Senado el jueves, calificó al CEO de Anthropic, Dario Amodei, de «lunático ideológico» por atreverse a poner condiciones al uso militar de su tecnología. La frase, reportada por AOL, revela el tono de la administración: no hay espacio para objeciones éticas cuando la seguridad nacional está de por medio. Sin embargo, la Casa Blanca ha reabierto conversaciones con Anthropic en las últimas semanas, después de que la compañía anunciara avances significativos en ciberseguridad con su modelo Mythos. El propio Trump dijo que Anthropic «se está perfilando» ante los ojos de su administración, lo que sugiere que el veto podría ser reversible si la empresa cede en sus condiciones. Al final, todo tiene precio.

Lo que esto significa para el resto del mundo

Mientras el Pentágono y las Big Tech se dan la mano, el resto del mundo observa con atención. La decisión de excluir a Anthropic por exigir límites éticos envía una señal clara: en la carrera armamentista de la IA, las consideraciones morales son un lujo que pocos pueden permitirse. Y México, que no tiene una política de IA propia ni capacidad de influir en estas decisiones, terminará siendo usuario o víctima de estas tecnologías. La pregunta no es si la IA se usará en guerras futuras, sino quién pondrá las reglas. Por ahora, las reglas las pone el que tiene el contrato más grande.


Fuentes consultadas:

Autor

  • Entre Líneas

    Noticias claras, análisis profundo. La verdad se lee Entre Líneas. #EntreLineas

- Publicidad -spot_img

Más noticias

- Publicidad -spot_img

Últimas Noticias