La Universidad Internacional de La Rioja (UNIR) lanza la primera plataforma científica que mide la presencia de expresiones de odio en los medios informativos digitales en España, gracias a una investigación financiada por el Ministerio de Ciencia e Innovación (Proyectos I+D+i - 'Generación de Conocimiento' 2019-2020) e Innovación.
El equipo multidisciplinar de académicos de diferentes universidades que participa en este proyecto de UNIR ha desarrollado una primera versión del Monitor de Odio, que se prevé evolucione hasta poder identificar, en el entorno de los medios informativos digitales, las expresiones de odio según tipo e intensidades, ya sean generadas por los usuarios de redes sociales como desde los portales web.
Los investigadores de este proyecto, denominado 'Hatemedia', analizaron más de un millón de mensajes de noticias y comentarios publicados en los medios informativos digitales españoles.
El primer resultado fue la creación de una base de datos en castellano y de libre acceso, que es la más extensa hasta el momento, conformada hasta ahora por 7.200 términos simples y compuestos, asociados a expresiones de odio.
Esta herramienta facilitará el avance posterior de los análisis en el escenario comunicativo digital hispanoparlante. En la actualidad, el Monitor de Odio muestra la presencia de este tipo de expresiones en los medios informativos digitales españoles, a través de un algoritmo que llega a alcanzar un nivel de precisión del 90%.
También está prácticamente concluido el algoritmo que analiza en esos mismos contextos hasta cuatro intensidades de odio, de un nivel latente a otros más acuciantes o explícitos. Los investigadores esperan avanzar, para final de año, en la muestra de los tipos de odio presentes en las redes sociales y portales web de estos medios.
Objetivo de Hatemedia
El objetivo de 'Hatemedia', proyecto de transferencia universitaria vinculado al Vicerrectorado de Desarrollo e Impacto Económico y Social de UNIR, es que pueda ser una herramienta práctica para que los medios informativos, los profesionales del sector y los agentes públicos y sociales detecten y desarrollen estrategias activas para prevenir la presencia de expresiones de odio en estos contextos.
"Se trata de una aportación innovadora", afirma Julio Montero, codirector del Proyecto junto a Elías Said-Hung, "porque hasta ahora los modelos de detección están centrados en identificar si existe o no odio, pero no entran en analizar los tipos de odio específicos contra determinados colectivos vulnerables (por motivos misógino, racista, xenófobo, sexual e ideológico, etc.) ni tampoco la intensidad".
A partir 'Hatemedia', UNIR quiere avanzar en un proyecto de transferencia "que posibilite una visión general del problema de las expresiones tendentes al odio y también su intensidad. Eso permitirá a los agentes políticos, sociales y culturales abordar estrategias que tengan en cuenta el contexto general y sus tendencias: tanto en tipologías como en intensidades", explica Montero.
Monitor de odio
Los investigadores han puesto en marcha una versión de prueba del Monitor de Odio que muestra la presencia de expresiones de odio en el entorno de los medios digitales en un periodo concreto de tiempo.
"Esperamos que el proyecto 'Hatemedia' y los resultados generados en él, incluido el Monitor de Odio, ayuden a la lucha contra la proliferación de las expresiones de odio desde los medios informativos digitales, y que el conocimiento generado sirva, de forma práctica, tanto a los medios y sus profesionales como a los agentes públicos y del tercer sector, para reconocer la latencia de este tipo de expresiones en el sector informativo digital español", indica, por su parte, Said-Hung.
El equipo de trabajo del proyecto 'Hatemedia' está formado por expertos en Lingüística, Ingeniería informática y Ciencias Sociales y Comunicación.
Han elaborado una base de términos o librería de expresiones de odio en castellano que es diez veces más potente que las existentes hasta la fecha, que solo describen el odio de una manera uniforme.
Esta extensa base de datos resulta clave en el estudio y la monitorización del entorno digital de los medios informativos, para identificar qué mensajes conllevan odio y qué tipología e intensidades son las dominantes en dichos contextos.
En caso de reconocer una expresión de odio, el algoritmo podrá determinar en qué intensidad, lo que supone una novedad de esta investigación, pues no existe ninguna otra herramienta que discrimine el odio en estas categorías.
Los investigadores trabajan ahora en afinar estos dos últimos indicadores en el algoritmo. El proyecto cuenta con la financiación del Ministerio de Ciencia e Innovación, (Proyectos I+D+i *Generación de Conocimiento* 2019-2020) y ha concluido su primera fase de dos años de trabajo, correspondiendo esto último a la segunda y última etapa.
Sobre el autor:
Raúl Arias
Raúl Arias es periodista especializado en Política, Economía y Sociedad. Licenciado en la Universidad Complutense de Madrid, ha trabajado en diferentes medios de tirada nacional, siempre pegado a la actualidad.