EEUU bombardea Irán con IA «woke» de Anthropic horas después de prohibirla por «izquierdista»
El Pentágono desobedece a Trump y usa Claude para atacar Irán pese a la prohibición
Este 28 de febrero, Israel y Estados Unidos bombardearon Irán en una operación que, según informes, contó con la crucial ayuda de Claude, la inteligencia artificial de Anthropic. La ironía es mayúscula: horas antes, Donald Trump había ordenado prohibir el uso de esta tecnología en operaciones militares por considerarla «de izquierda radical».
La IA «woke» que el Pentágono no puede dejar
El conflicto entre Anthropic y el gobierno de EEUU se remonta a las «líneas rojas» que la empresa impuso a su IA: no espiar masivamente a ciudadanos estadounidenses y no controlar armas autónomas. El Pentágono, liderado por Pete Hegseth, calificó a Claude como una «IA woke» y exigió que Anthropic eliminara estas restricciones.
Ante la negativa, Trump lanzó un ultimátum: «Estoy ordenando a TODAS las agencias federales de Estados Unidos que CESEN INMEDIATAMENTE todo el uso de la tecnología de Anthropic». Sin embargo, el ataque a Irán demostró que la dependencia era total.
¿Desobediencia o necesidad imperiosa?
Según The Wall Street Journal, comandos en todo el mundo, incluyendo el Comando Central en Oriente Medio, usaron las herramientas de Claude para evaluar la situación, identificar objetivos y simular escenarios de batalla. La integración de Claude con el software de Palantir había creado una simbiosis difícil de romper.
Se estima que se tardarán seis meses en eliminar el rastro de Claude del software del Pentágono, pero la realidad es que si «esto ya lo tenemos, lo usaremos hasta que encontremos un sucesor».
OpenAI se postula como el reemplazo
Mientras Anthropic enfrentaba la ira presidencial, OpenAI (ChatGPT) aprovechó la oportunidad. La compañía emitió un comunicado ofreciendo sus servicios al Departamento de Defensa, manteniendo principios morales similares pero con una diferencia crucial: el uso de su IA estaría atado al uso «legal» que quiera hacer el gobierno.
Esta ambigüedad estratégica podría significar que, si cierto uso se considera legal, no entraría en conflicto con esa «moralidad» declarada.
Un nuevo momento Oppenheimer
Lo que comenzó como un conflicto sobre ética en el desarrollo de IA militar ha revelado algo más profundo: el Pentágono está mostrando a las empresas de IA quién realmente manda. Anthropic y OpenAI desarrollaron la tecnología, pero el brazo militar de EEUU les está recordando quién es su verdadero dueño.
La pregunta que queda en el aire es si este será recordado como el «Momento Oppenheimer» de la inteligencia artificial: aquel instante en que la humanidad se dio cuenta de que había creado algo que ya no podía controlar completamente.
Tags virales: #IA #Guerra #Irán #Trump #Anthropic #OpenAI #Pentágono #Claude #Woke #SeguridadNacional #TecnologíaMilitar #InteligenciaArtificial #Política #EEUU #Israel
Oraciones virales: «EEUU bombardea Irán con IA ‘woke’ horas después de prohibirla», «El Pentágono desobedece a Trump por su dependencia de Claude», «OpenAI se postula como el reemplazo de Anthropic en el Pentágono», «¿Un nuevo Momento Oppenheimer para la IA militar?», «La guerra ética entre Anthropic y el gobierno de EEUU»
Palabras clave: IA, inteligencia artificial, Anthropic, OpenAI, Claude, Pentágono, Trump, Irán, Israel, guerra, ética, tecnología militar, Palantir, dependencia tecnológica, Momento Oppenheimer.
,


Deja una respuesta