El auge de los vídeos deepfake del ICE: la inteligencia artificial invade el debate migratorio

Un corresponsal de la televisión pública alemana es despedido tras emitir imágenes generadas por IA de agentes del ICE

A finales de febrero, la cadena pública alemana ZDF destituyó a un corresponsal en Estados Unidos tras la aparición de un vídeo generado por inteligencia artificial (IA) en un reportaje sobre los agentes del Servicio de Inmigración y Control de Aduanas (ICE). La cadena se disculpó por utilizar el material, que mostraba a unos niños aferrados a su madre mientras ésta era detenida por agentes del ICE. El vídeo llevaba una marca de agua de Sora, la herramienta de vídeo de OpenAI, lo que dejaba claro su origen sintético.

Este incidente revela una tendencia preocupante: la proliferación masiva de contenidos generados por IA que inundan las redes sociales con imágenes de agentes del ICE realizando detenciones, persecuciones y enfrentamientos. Según datos compartidos con The Cube, el equipo de verificación de hechos de Euronews, por la empresa de detección de IA TruthScan, se han identificado más de 200 vídeos cortos que muestran a agentes del ICE persiguiendo a profesores, discutiendo con camareros en bares y realizando detenciones en el metro.

La fábrica de desinformación en una sola cuenta de Instagram

TruthScan afirma haber extraído más de 200 vídeos de una sola cuenta de Instagram. Los clips son cortos, dramáticos y con una gran carga emocional. The Cube descubrió que la cuenta sigue publicando numerosos vídeos del ICE generados por IA, algunos de los cuales obtienen miles, e incluso millones, de visualizaciones.

Los indicios de que estos vídeos no son reales son sutiles pero reveladores. En un ejemplo, parece salir vapor a través de una superficie sólida durante un enfrentamiento entre un agente del ICE y un trabajador de una cafetería, un claro indicio de generación artificial. Además, cada vídeo dura exactamente 10 o 15 segundos, lo que sugiere que fueron creados utilizando el modelo de vídeo Sora 2 de OpenAI, que ofrece a los usuarios opciones de vídeo de esas duraciones. A diferencia de muchos vídeos generados por IA que contienen una marca de agua, la mayoría de estos clips de ICE no la tienen.

En noviembre del año pasado, 404 Media informó que vídeos generados por IA de agentes del ICE procedentes de una cuenta de Facebook se hicieron virales, y uno de ellos generó 4 millones de visitas. Desde entonces, los vídeos han sido retirados.

El riesgo para la confianza pública

Los expertos advierten que el riesgo va más allá de los vídeos individuales mal etiquetados y se extiende a la proliferación de contenidos falsos sobre cuestiones políticas delicadas, lo que puede socavar gravemente la confianza pública.

«Hay un riesgo significativo para las respuestas colectivas a las acciones de las fuerzas del orden, tanto negativas como positivas», afirma Ari Abelson, cofundador de OpenOrigins, una empresa de autenticidad de medios que detecta deepfakes. «Es una preocupación para las fuerzas del orden que quieren mantener su confianza, pero también es importante para las instituciones que les exigen responsabilidades cuando se extralimitan», declaró Abelson a The Cube.

La Casa Blanca también manipuló imágenes

El contenido de ICE generado por IA no se limita a cuentas anónimas. A veces llega incluso a las más altas esferas de la función pública. En enero, la Casa Blanca publicó una imagen alterada digitalmente de la activista y abogada Nekima Levy Armstrong tras su detención en una protesta relacionada con el ICE en Minnesota. Un análisis muestra que la imagen manipulada muestra a Armstrong con la piel más oscura y visiblemente sollozante en comparación con la imagen original.

La Casa Blanca respondió a las preguntas sobre la manipulación de la imagen con un mensaje del director adjunto de Comunicaciones, Kaelan Dorr, que decía: «Una vez más a las personas que sienten la necesidad de defender reflexivamente a los autores de crímenes atroces en nuestro país, les comparto este mensaje: La aplicación de la ley continuará. Los memes continuarán».

Armstrong dijo que estaba «disgustada» con la Casa Blanca por publicar la imagen. Según Abelson, la preocupación surge por la ausencia de salvaguardas que indiquen claramente que el contenido es falso.

«La diferencia clave es lo hiperrealistas que se están volviendo los vídeos», explica. «Los espacios sociales y de información requieren una cosa: la capacidad de demostrar que una foto y un vídeo son reales, para que podamos disfrutar de los falsos como ficciones, y sentir la gravedad de los acontecimientos de la vida real».


Etiquetas y términos virales relacionados:

deepfake #ICE #inteligenciaartificial #desinformación #ZDF #Sora #OpenAI #migrantes #Trump #ICEraids #noticiasfalsas #verificación #TruthScan #OpenOrigins #manipulación #viral #redessociales #ciberseguridad #confianza #desinformación #fake #IA #generaciónartificial #contenido #redessociales #noticias #viral #tendencia #impacto #consecuencias #riesgo #confianza #verdad #autenticidad #medio #contenido #viral #tendencia #impacto #consecuencias #riesgo #confianza #verdad #autenticidad #medio

,


Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *