Sociedad

Miedo en X e ira en TikTok: los patrones emocionales de la desinformación sobre la DANA en redes

Álvaro Valdés

Foto: Bigstock

Domingo 16 de febrero de 2025

5 minutos

La manipulación emocional es una estrategia habitual en la propagación de desinformación

Miedo en X e ira en TikTok: los patrones emocionales de la desinformación sobre la DANA en redes
Álvaro Valdés

Foto: Bigstock

Domingo 16 de febrero de 2025

5 minutos

La manipulación emocional se ha convertido en una estrategia habitual en la propagación de desinformación, especialmente en situaciones de crisis, como la devastadora DANA que asoló Valencia el 29 de octubre. Un reciente estudio europeo ha revelado un aspecto poco analizado hasta ahora: cada red social exhibe un patrón emocional único en los contenidos que circulan. Por ejemplo, en la plataforma X, los mensajes engañosos tienden a provocar sentimientos de tristeza y miedo, mientras que en TikTok predominan la ira y el desagrado.

Este descubrimiento proviene del informe titulado Patrones emocionales divergentes en la desinformación en las redes sociales. Un análisis de tweets y tiktoks sobre la DANA en Valencia, elaborado por el Iberian Digital Media Observatory, una entidad cofundada por la Comisión Europea que colabora con el European Digital Media Observatory en la lucha contra la desinformación en España y Portugal. El estudio ha sido dirigido por Iván Arcos y Paolo Rosso, investigadores de la Universitat Politècnica de València, junto a Ramón Salaverría de la Universidad de Navarra.

Los investigadores se han centrado en el fenómeno de la desinformación en TikTok y X durante la catástrofe que devastó gran parte de la provincia, dejando más de 220 víctimas mortales. Para llevar a cabo su análisis, se recopilaron manualmente 650 publicaciones, diferenciando entre contenido engañoso y veraz, prestando atención a palabras clave y audios, entre otros aspectos. Además, se adoptó un enfoque comparativo y se realizó un experimento adicional con la inteligencia artificial GPT-4o en una configuración Few-Shot, evaluando su eficacia como herramienta de anotación automatizada.

A través de estas metodologías, los investigadores han podido determinar que las emociones que predominan en las publicaciones varían según la plataforma. Esta conclusión resalta la necesidad de comprender mejor cómo las dimensiones emocionales afectan la credulidad hacia la desinformación y la disposición de los usuarios a compartirla. "Es necesario comprender mejor el impacto de las dimensiones emocionales en la credulidad hacia el contenido de desinformación, así como la predisposición a compartirlo", afirman los autores del estudio.

Miedo en X e ira en TikTok: los patrones emocionales de la desinformación sobre la dana en redes (Bigstock)
Fuente: Bigstock

 

En particular, se ha establecido que la desinformación en X está asociada con un aumento de la tristeza y el miedo, mientras que en TikTok, se relaciona con un incremento de la ira y el desagrado. Este informe refuerza la conclusión ya alcanzada en numerosos estudios previos sobre la utilización de emociones como estrategia en mensajes engañosos, pero también subraya la importancia de considerar cómo operan estas emociones en función de la red social utilizada.

El análisis lingüístico, realizado con el diccionario LIWC, revela que el contenido veraz utiliza un lenguaje "más articulado y fáctico", mientras que la desinformación tiende a emplear negaciones, palabras perceptuales y anécdotas personales para aparentar credibilidad.

Durante el proceso de extracción de datos, se han considerado palabras clave relacionadas con la DANA y las narrativas de desinformación. Términos como 'conspiración', 'fallecidos ocultación', 'engaño', 'manipulación', 'mentiras', 'Bonaire cementerio', 'ayuda rechazada' o 'provocada presas' fueron "cuidadosamente seleccionadas para capturar contenido que potencialmente difundiera desinformación o expresara reacciones emocionales durante el fenómeno DANA".

En lo que respecta a los audios de las publicaciones en TikTok, se han observado patrones diferenciados: los audios veraces presentan tonos más brillantes y narraciones monótonas, lo que favorece la claridad y la credibilidad, en contraste con los contenidos engañosos que utilizan variaciones tonales, profundidad emocional y elementos musicales para "manipular la percepción".

En los modelos de detección, el método SVM+TF-IDF ha logrado la puntuación F1 más alta, destacándose incluso con datos limitados. La inclusión de funciones de audio en roberta-large-bne ha mejorado tanto la precisión como la puntuación F1, superando a su contraparte de solo texto y a SVM en términos de precisión. Asimismo, GPT-4o Few-Shot ha mostrado un rendimiento notable. Los expertos concluyen que "demuestran la importancia de aprovechar las funciones de texto y audio para mejorar la detección de desinformación en plataformas multimodales como TikTok".

El estudio concluye sugiriendo futuras investigaciones que amplíen estos resultados, incluyendo el diseño e implementación de "agentes inteligentes" que puedan detectar y mitigar la desinformación en tiempo real. Estos agentes, proponen, "podrían combinar técnicas de aprendizaje automático con sistemas basados en reglas para analizar señales lingüísticas y emocionales, detectar contenido malicioso y tomar contramedidas automatizadas".

Como ejemplo, estos 'agentes inteligentes' podrían señalar posibles casos de desinformación para su revisión, proporcionar contexto o información verificada a los usuarios para contrarrestar afirmaciones falsas e interactuar con algoritmos de redes sociales para limitar la difusión de contenido dañino, al tiempo que promueven información verificada y precisa.

Sobre el autor:

Álvaro Valdés

… saber más sobre el autor