OpenAI y Anthropic, en el centro de la polémica: el Pentágono presiona por el uso militar de la IA

En un escenario de tensiones crecientes entre gigantes tecnológicos y el Departamento de Defensa de Estados Unidos, la inteligencia artificial se ha convertido en el nuevo campo de batalla geopolítico. OpenAI ha salido al paso de las críticas asegurando que sus acuerdos con el gobierno incluyen salvaguardas contractuales y técnicas para evitar que su tecnología sea utilizada en vigilancia masiva doméstica o en sistemas de armas autónomas. Además, la compañía ha dejado claro que se opone a la acción contra Anthropic y ha cuestionado por qué su rival no puede alcanzar un acuerdo similar con las autoridades.

La IA, prioridad estratégica para el Pentágono

El secretario de Defensa, Pete Hegseth, ha dejado claro que la adopción de tecnologías de inteligencia artificial es una prioridad absoluta para el Pentágono. Recientemente, carteles en el edificio del Departamento de Defensa lo mostraban señalando con el dedo y con el mensaje: «Quiero que uses IA». Esta campaña interna refleja la urgencia con la que el Pentágono busca integrar herramientas de IA en sus operaciones militares.

La disputa con Anthropic se desató en enero, cuando Hegseth ordenó a varios proveedores de IA que aceptaran que el departamento era libre de usar sus tecnologías para cualquier propósito legal. Anthropic, que actualmente es la única empresa que ofrece chatbots de IA y herramientas de análisis específicamente para el ejército, respondió argumentando que sus sistemas aún no tienen el desarrollo suficiente como para ser utilizados en vigilancia masiva de estadounidenses a nivel nacional ni en armas totalmente autónomas.

Hegseth, por su parte, ha acusado a Anthropic de querer ejercer un poder de veto sobre decisiones que deberían quedar en manos del Departamento de Defensa. Esta disputa ha puesto de manifiesto las tensiones entre el impulso militar por adoptar tecnologías de vanguardia y las preocupaciones éticas y de seguridad planteadas por las empresas desarrolladoras.

Un precedente peligroso: designar a una empresa estadounidense como «riesgo para la cadena de suministro»

Históricamente, las designaciones de riesgo en la cadena de suministro se han reservado para mantener las tecnologías chinas fuera de los sistemas militares estadounidenses y preservar la seguridad operativa. Anthropic ha advertido que aplicar esta etiqueta a una empresa estadounidense establece un precedente peligroso, que podría sentar un patrón para futuras acciones contra otras compañías tecnológicas nacionales.

La semana pasada, una coalición de grupos de la industria tecnológica —entre ellos TechNet, Business Software Alliance y la Asociación de la Industria de la Información del Software— instó a la administración Trump a reconsiderar la designación. En una carta conjunta, argumentaron que señalar a una empresa estadounidense como adversario en lugar de como activo tendría un efecto disuasorio sobre la innovación en Estados Unidos. Entre las empresas representadas por estos grupos se encuentran Apple, Google, Nvidia, Microsoft, Meta, IBM, Salesforce y Oracle.

Otra coalición de tecnólogos de alto perfil y ex asesores de seguridad nacional envió una carta similar a los miembros del Comité de las Fuerzas Armadas del Senado. Entre los firmantes figuran el ex director de la CIA Michael Hayden, el profesor de la Facultad de Derecho de Harvard Lawrence Lessig, el ex socio de Andreessen Horowitz John O’Farrell, el ex subsecretario del Ejército Brad Carson y varios almirantes militares retirados.

En su misiva, advirtieron que «el uso de esta autoridad contra una empresa estadounidense se desvía profundamente de su propósito original» y exigieron que el Congreso establezca políticas claras sobre el uso de la IA para la vigilancia nacional y los sistemas de armas letales autónomas.

El uso operativo de Claude en el Pentágono

Según informaron a WIRED personas familiarizadas con el tema, los oficiales estadounidenses utilizan Claude principalmente a través de herramientas independientes que lo incorporan, como el Sistema Inteligente Maven de Palantir. Lo emplean para tareas que van desde la redacción de documentos hasta análisis más complejos, como la planificación de ataques.

Si se mantiene la designación de riesgo para la cadena de suministro, Palantir y otros contratistas militares tendrían que sustituir a Claude por alternativas, lo que podría suponer un mayor coste para el gobierno. Varias startups de inteligencia artificial especializadas en defensa, como Vannevar Labs, han presentado recientemente sus modelos como sustitutos eficaces. Palantir no respondió a una solicitud de comentarios.


Tags y frases virales: OpenAI vs Anthropic, IA militar, vigilancia masiva, armas autónomas, Pete Hegseth, Departamento de Defensa, inteligencia artificial en el Pentágono, Claude AI, riesgo de cadena de suministro, tecnología china, seguridad nacional, innovación tecnológica, Maven Palantir, startups de IA defensa, política de IA, ética en IA, guerra tecnológica, Estados Unidos vs China, IA militarizada, futuro de la IA.

,


Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *