Suscríbete al boletín semanal

Recibe cada semana los contenidos más relevantes de la actualidad científica.

Agencia Sinc

Inteligencia artificial para detectar noticias falsas y mensajes de odio en redes sociales

Investigadores de la Universidad Politécnica de Valencia han desarrollado un sistema de inteligencia artificial que permite detectar fake news y mensajes de odio, tanto explícitos como implícitos, en los medios sociales. El prototipo ya se ha utilizado para localizar ataques en las redes a mujeres e inmigrantes.

Inteligencia artificial para detectar noticias falsas y mensajes de odio en redes sociales
Anastasia Giachanou y Paolo Rosso, dos de los desarrolladores del sistema de IA. / UPV

Un nuevo sistema de inteligencia artificial desarrollado por científicos de la Universidad Politécnica de Valencia (UPV) es capaz de identificar noticias falsas y mensajes de odio explícitos e implícitos en las redes sociales.

En fase de prototipo, el sistema ha sido utilizado ya para localizar este tipo de ataques a mujeres e inmigrantes, además de fake news, aplicando para ello técnicas de deep leerning (aprendizaje profundo).

Se identifican noticias falsas a partir de un análisis automático tanto del lenguaje utilizado como de las emociones que subyacen a ese texto

Es el primer resultado de MISMIS-FAKEnHATE, un proyecto liderado por el centro Pattern Recognition and Human Language Technology (PRHLT) de la UPV, y financiado por el Ministerio de Ciencia, Innovación y Universidades. En él participan también expertos de la UNED y la Universidad de Barcelona y colabora la Policía Local de Valencia como entidad promotora observadora.

Tal y como explica Paolo Rosso, del PRHLT, hoy en día en muchos casos la ciudadanía acaba recibiendo en los medios sociales de comunicación sólo la información que concuerda con sus creencias y puntos de vista, con el riesgo de un aislamiento intelectual -burbuja de información. Un efecto perverso es que cuando la información corrobora nuestras creencias, tendemos a compartirla sin comprobar su veracidad, lo que facilita la propagación de desinformación, las llamadas fake news”, apunta Rosso.

Además, el relativo anonimato de los medios sociales favorece la propagación de lenguaje agresivo, de mensajes de odio, y exclusión, que fomentan la separación en comunidades cada vez más polarizadas en sus opiniones. “Se tiende a una escasa argumentación en los contenidos que a menudo se limitan a unos pocos insultos”, añade Anastasia Giachanou, investigadora también del PRHLT.

Cómo identificar fake news

Partiendo de este análisis, el prototipo permite, en primer lugar, identificar noticias falsas a partir de un análisis automático tanto del lenguaje utilizado, como de las emociones que subyacen a ese texto. Para ello, es capaz de discernir emociones básicas como el miedo, la ira o la sorpresa, entre otros. Por el momento lo hace tanto en información escrita, si bien están empezando a trabajar también con imágenes.

Se extrajeron patrones lingüísticos de odio de conjuntos de datos y luego se monitoriza sistemáticamente si se emplean en nuevas conversaciones on line

“Nos proponemos identificar la desinformación desde una perspectiva multimodal, combinando la información textual con la visual a través de técnicas basadas en deep learning. Además, se llevará a cabo un análisis multilingüe cuándo la información sea en lenguajes diferentes”, apunta Giachanou, quien desarrolla su investigación en el PRHLT gracias a una beca de la Fundación Nacional para la Ciencia de Suiza (SNSF por sus siglas en inglés). Además, el sistema ayudará a perfilar si el autor de una noticia falsa es un bot (robot) o una persona.

Por otro lado, detecta también lenguaje agresivo y mensajes de odio en los medios sociales de comunicación. Para monitorizarlos, el equipo propone un enfoque terminológico, extrayendo términos y patrones lingüísticos de odio a partir de conjuntos de datos analizados anteriormente y monitorizar sistemáticamente si se emplean en nuevas conversaciones online.

Como próximos retos, los investigadores trabajan en la clasificación de patrones y rasgos de la personalidad que se esconden detrás de los haters de las redes sociales.

Referencia bibliográfica:

Anastasia Giachanou, Paolo Rosso, Fabio Crestani. Leveraging Emotional Signals for Credibility Detection. SIGIR'19 Proceedings of the 42nd International ACM SIGIR Conference on Research and Development in Information Retrieval.doi 10.1145/3331184.3331285

Los socios del proyecto celebraron la semana pasada un encuentro en el que presentaron los resultados del primer año de trabajo. Además, José Luís Diego, de la Policía Local de Valencia expuso son los retos de este cuerpo de seguridad para la detección de mensajes de odio y de exclusión en las redes sociales. Por parte del PRHLT-UPV participan también Francisco Casacuberta y José Miguel Benedí.

Fuente:
UPV
Derechos: Creative Commons
Artículos relacionados