Un video ultrafalso del presidente ruso Vladimir Putin anunciando la paz con Ucrania y distribuido en Twitter –ahora X– es uno de los más de 1.200 tuits analizados por investigadores de la Universidad de Cork (Irlanda). Su objetivo es evaluar el impacto que pueden tener estos contenidos manipulados durante los conflictos bélicos.
Los deepfakes (ultrafalsos, en español) son videos manipulados extremadamente realistas creados mediante técnicas de inteligencia artificial (IA) de aprendizaje profundo. En ellos, se muestra a personas diciendo y haciendo cosas que nunca ocurrieron en la vida real.
Investigadores de la universidad irlandesa de Cork (UCC) han analizado cerca de 5.000 tuits durante la actual guerra entre Rusia y Ucrania. El objetivo es, según los autores, evaluar el impacto de estos contenidos como instrumentos de desinformación y propaganda en tiempos de guerra. Los resultados se publican en la revista PLOS ONE.
Los ‘deepfakes’ permiten a la gente apropiarse de la identidad otras personas. Cuando esta manipulación se aplica a líderes mundiales implicados en conflictos, pueden ser especialmente perjudiciales
John Twomey, lider de la investigación (Universidad de Cork)
Para entender mejor el daño que pueden ocasionar los videos ultrafalsos, el equipo analizó los debates en Twitter sobre deepfakes relacionados con la invasión rusa. Los investigadores utilizaron un enfoque cualitativo conocido como análisis temático para identificar y comprender patrones en las discusiones, que incluían un total de 5.000 tuits, distribuidos en los primeros siete meses de 2022 en la red que Elon Musk ha rebautizado como X.
Según comenta a SINC John Twomey, investigador de la Facultad de Psicología Aplicada de la UCC y líder del trabajo, “los avances en IA permiten producir este tipo de videos de manera más rápida que antes. Los deepfakes resultan especialmente dañinos porque permiten a la gente apropiarse de la identidad de figuras públicas”.
De los 5.000 tuits extraídos, los autores excluyeron el contenido ‘spam’, por lo que al final analizaron 1.231 tuits que fueron sometidos a un examen temático
Además, Twomey señala que, aunque esta práctica “puede utilizarse para entretenimiento, lo más habitual es que se use para la difamación y el abuso. Cuando estas personas públicas están implicadas en un conflicto, esto puede ser especialmente perjudicial”.
Anuncios falsos de paz y rendición
En el trabajo, de los 5.000 tuits extraídos, los autores excluyeron el contenido spam, por lo que al final analizaron 1.231 tuits que fueron sometidos a un examen temático. “Esto implica la codificación cualitativa de temas”, apunta el investigador. “Lo que hacemos es etiquetar manualmente los puntos relevantes de cada tuit, los juntamos y organizamos en temas comunes que destacaban puntos relevantes y críticos sobre el conjunto de datos”, explica.
Algunos tuits pasaron por alto los posibles perjuicios o tuvieron reacciones positivas ante los deepfakes dirigidos contra rivales políticos, especialmente los creados como sátira o entretenimiento.
Twomey indica que la guerra ruso-ucraniana ha sido el primer ejemplo real de uso de videos ultrafalsos en conflictos bélicos. Entre otros ejemplos, menciona el video que mostraba a Putin anunciando la paz con Ucrania o el pirateo de un sitio web de noticias ucraniano para mostrar el mensaje deepfake de rendición del presidente ucraniano.
La guerra ruso-ucraniana ha sido el primer ejemplo real de uso de videos ultrafalsos en conflictos bélicos
https://twitter.com/i/status/1504090918994993160
El estudio encontró tuits que advertían de la necesidad de prepararse para un mayor uso de este tipo de videos, hablaban de cómo detectarlos o destacaban el papel de los medios de comunicación y los gobiernos para rebatirlos.
Otros tuits, sin embargo, sugerían que los deepfakes habían minado la confianza de los usuarios hasta el punto de que ya no se fiaban de ninguna grabación de la invasión.
Promoción de teorías conspirativas
Había también tuits que relacionaban estos contenidos con la aparente creencia de los usuarios en teorías conspirativas, como que los deepfakes de líderes mundiales se utilizaban como tapadera cuando en realidad estaban escondidos, o que toda la invasión era falsa, propaganda antirrusa.
El análisis indica que los esfuerzos para educar al público sobre los deepfakes pueden socavar involuntariamente la confianza en los vídeos reales. Los autores señalan que sus hallazgos y futuras investigaciones podrían contribuir a mitigar los efectos nocivos de estos videos ultramanipulados.
Algunos tuits sugerían que tras ver los ‘deepfakes’ de la guerra de Rusia y Ucrania ya no se fiaban de ninguna grabación de la invasión
Gran parte de la investigación previa sobre deepfakes se había enfocado en los posibles daños futuros de la tecnología. “Sin embargo, nosotros nos hemos centrado en la forma en la que están ya afectando a las redes sociales, como hemos visto durante la invasión rusa de Ucrania”, dicen los autores.
El estudio pone de relieve cómo este tipo de videos están socavando la fe en los medios de comunicación reales y se están utilizando para evidenciar teorías conspirativas
Con este trabajo “queríamos ver cómo es la desinformación sobre deepfakes en la práctica y cómo está afectando ya a los espacios on line. Constatamos que a la gente le cuesta encontrar un escepticismo sano, ser consciente de que estos videos ultrafalsos existen, pero no acusar a la información real de ser deepfakes sin pruebas fehacientes”, concluye John Twomey.
Fuente: SINC