Elisa Leiva
Sociedad
'Deepfakes' en tiempos de guerra: el impacto de estos vídeos falsos en los medios de comunicación
Una investigación se centra en la desinformación durante la actual guerra ruso-ucraniana
Un estudio pionero sobre vídeos falsos de guerras, publicado en la revista PLOS ONE, ha revelado el impacto negativo de estos en los medios de comunicación, así como las consecuencias que tienen para las empresas de redes sociales y los gobiernos.
Es material audiovisual manipulado mediante la inteligencia artificial, y se hace llamar 'deepfakes'. La mayoría de estos vídeos implican la producción de una "cara" falsa, que se fusiona con un vídeo auténtico, para crear así un vídeo sobre un acontecimiento que nunca ocurrió.
Científicos del University College Cork, en Irlanda, analizaron publicaciones de X (antes Twitter) durante la actual guerra ruso-ucraniana, en lo que consituye el primer análisis del uso de deepfakes en la desinformación y la propaganda bélicas.
Durante la investigación, se examinaron alrededor de 5.000 tuits durante los primeros siete meses de 2022. El objetivo era investigar la respuesta de las personas al contenido 'deepfake' en línea y encontrar indicios de los daños previamente teorizados de los 'deepfakes' en la confianza. A medida que la tecnología 'deepfake' se hace cada vez más accesible, es importante comprender cómo surgen estas amenazas en las redes sociales.
La guerra ruso-ucraniana fue el primer ejemplo real de uso de 'deepfakes' en conflictos bélicos. Los investigadores destacan ejemplos de vídeos 'deepfake' durante esta guerra, entre ellos el uso de imágenes de videojuegos como prueba del mito urbano del piloto de combate 'El fantasma de Kiev', un 'deepfake' del presidente ruso Vladimir Putin, que mostraba al presidente ruso anunciando la paz con Ucrania, y el pirateo de un sitio web de noticias ucraniano para mostrar un mensaje falso de rendición del presidente ucraniano Volodymyr Zelensky.
Según el estudio, el temor a los 'deepfakes' a menudo minaba la confianza de los usuarios en las imágenes que recibían del conflicto, hasta el punto de que perdían la confianza en cualquier imagen procedente del conflicto. El estudio es también el primero de este tipo en encontrar pruebas de teorías conspirativas en línea que incorporan 'deepfakes'.
Los investigadores descubrieron que gran parte de los medios de comunicación reales eran etiquetados como 'deepfakes'. El estudio demostró que la falta de alfabetización sobre este fenómeno dio lugar a importantes malentendidos sobre lo que constituye un 'deepfake', lo que demuestra la necesidad de fomentar la alfabetización en estas nuevas formas de medios de comunicación.
Sin embargo, el estudio demuestra que los esfuerzos por concienciar sobre los 'deepfakes' pueden socavar la confianza en los vídeos legítimos. El estudio afirma que los medios de comunicación y las agencias gubernamentales deben sopesar los beneficios de los 'deepfakes' educativos y el 'pre-bunking' frente a los riesgos de socavar la verdad. Del mismo modo, las empresas de noticias y los medios de comunicación deben tener cuidado con la forma en que etiquetan los presuntos 'deepfakes' por si causan sospechas en los medios reales.
El estudio ha sido dirigido por y coescrito con su colega Didier Ching, junto con los supervisores doctores Conor Linehan y Gillian Murphy, de la UCC, Matthew Aylett, de CereProc Ltd. y la Universidad Heriot-Watt, y el profesor Michael Quayle, de la Universidad de Limerick.
"Gran parte de la desinformación que el equipo analizó en el conjunto de datos del discurso X (antes Twitter) procedía sorprendentemente del etiquetado de medios reales como deepfakes --apunta--. También se obtuvieron nuevas conclusiones sobre el escepticismo ante los deepfakes, como la relación entre el fomento de las creencias conspirativas y el escepticismo malsano.
"Las pruebas de este estudio demuestran que los esfuerzos por concienciar sobre los deepfakes pueden socavar nuestra confianza en los vídeos legítimos. Con la prevalencia de los deepfakes en Internet, esto planteará cada vez más problemas a las empresas de medios informativos, que deberán tener cuidado con la forma en que etiquetan los presuntos deepfakes por si levantan sospechas en torno a los medios reales", afirma el investigador de la Facultad de Psicología Aplicada de la UCC John Twomey.
"La cobertura informativa de los deepfakes debe centrarse en educar a la gente sobre qué son los deepfakes, cuál es su potencial y cuáles son sus capacidades actuales y cómo evolucionarán en los próximos años", añade.
"Investigadores y comentaristas temen desde hace tiempo que los deepfakes tengan el potencial de socavar la verdad, difundir desinformación y minar la confianza en la exactitud de los medios informativos. Los vídeos deepfake podrían socavar lo que sabemos que es cierto cuando los vídeos falsos se creen auténticos y viceversa", indica el doctor Conor Linehan, de la Facultad de Psicología Aplicada de la UCC.