Buscar
Arte e Ideas

Lectura 6:00 min

Depresión, ironía y odio podrían ser detectados a través de las redes sociales

Investigadores estudian padecimientos y trastornos mentales a partir de lo que los usuarios comparten en las plataformas.

Como resultado del desarrollo de métodos computacionales novedosos y debido al boom de las redes sociales y a la facilidad de obtener datos de éstas, investigadores mexicanos están detectando mensajes irónicos y de odio, así como a usuarios que padecen depresión, anorexia y otros trastornos mentales.

Los esfuerzos se han centrado en buscar información y el análisis de contenidos, hasta caracterizar usuarios; esto como parte del trabajo que se desarrolla en el Laboratorio de Tecnologías del Lenguaje del Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE), el cual es apoyado por instituciones nacionales y extranjeras, y como resultado del proyecto Fuerza de Tracción Textual: Hacia un Nuevo Paradigma de Clasificación de Documentos”, liderado por el doctor en Ciencias Computacionales Manuel Montes y Gómez.

En entrevista para El Economista, el doctor Montes explica que se trabaja en el desarrollo de distintos métodos para hacer clasificación de información textual, “por dos años desarrollamos los algoritmos, ahora es la etapa de prueba en distintas tareas”.

La clave, en los algoritmos

Una de las estrategias se basa en tratar de modelar los contenidos que se ponen en redes sociales a partir de su gama emocional, “existen ocho emociones (alegría, tristeza, disgusto, aceptación, ira, miedo, sorpresa, anticipación) que se tienen identificadas y esto permite asociar palabras a cada una de ellas, con esta representación e histograma emocional, como tópicos o estilos de escritura, es que se hace la clasificación de los usuarios”.

Todo esto lo llevan a una representación que sea manejable por la computadora, por ello se hace un modelado de vectores y a cada documento se le da un modelado como si fueran objetos.

Para que se entienda, hablando de las técnicas que se utilizan, casi todo lo que se trabaja en la investigación sigue un paradigma de inteligencia artificial llamado “aprendizaje supervisado”, la idea es proveer a las máquinas con ejemplos, tanto positivos como negativos, sobre el fenómeno que se quiere modelar, ésta los aprende y aplica.

Por ejemplo, para medir la agresividad, habrá que dar opciones de tuits agresivos y no agresivos, a partir de estos ejemplos, los algoritmos aprenden a reconocer patrones que distinguen entre un caso y otro. Para depresión, ironía y demás, pasa lo mismo.

La investigación está en fase experimental

Hasta ahora el proyecto está en una fase experimental, pero la motivación es alta ante los buenos resultados sobre todo en casos de detección para depresión y agresión, con alrededor de 70% de efectividad; ironía ha sido un trabajo más complicado.

El tema es prometedor y acerca la posibilidad de aplicaciones para moderar, por ejemplo, la agresividad de las redes sociales, en temas políticos, homofóbicos, de xenofobia, entre otros. “Tener herramientas de ese tipo podrían ayudar a las plataformas a marcar ciertos contenidos y uno decidir si los lee o no, incluso elegir restringir a usuarios cuyo único propósito sea agredir”.

Para detección de usuarios con depresión y anorexia, es bien sabido que incluso las personas que lo padecen no necesariamente lo saben,” hay una conexión clara entre el lenguaje y el estado de ánimo o ciertos trastornos mentales. Y como la gente utiliza las redes sociales de manera más natural, sí se pueden emplear esos datos para determinar cuántas personas están deprimidas o cuáles usuarios en particular pueden padecer alguno de estos trastornos”, dijo.

Incluso con el uso de esta herramienta, el sector salud y el Estado podría considerar una vía para atender y diseñar políticas públicas enfocadas en acciones concretas, además de que abonaría a contar con estadísticas globales a partir del monitoreo, generando información útil para quienes toman decisiones de salud pública, explica el investigador.

El tema de la ironía es algo más complicado, pues “en redes sociales vemos que muchas veces las burlas o críticas no se hacen de manera directa sino con ironía. El gran problema de la ironía es que los humanos somos buenos detectándola cuando estamos en una conversación porque hay elementos extralingüísticos, como los movimientos de la persona, la sonrisa y el tono que emplea, que nos ayudan a decir que alguien está siendo irónico y que no debemos interpretarlo literalmente. Pero en un documento escrito donde no hay esos elementos extralingüísticos es más difícil su detección”, sin embargo, se trabaja en ello.

En esta labor de detección de ironía el equipo ha estado probando y recolectando datos de comentarios irónicos de México, Cuba y España junto con investigadores de la Universidad de Oriente de Cuba y de la Politécnica de Valencia, de España: “Lanzamos una tarea en la cual hubo alrededor de 15 grupos participantes que evaluaron métodos en los datos que nosotros recolectamos. Nuestro grupo en particular recolectó noticias políticas de México, sobre la película Roma, cosas de Venezuela, de Trump, del muro”.

El proyecto financiado por Conacyt concluye en octubre, pero ya se busca nueva financiación, tanto nacional como extranjera, incluso con una propuesta para Google, pues se cree que el potencial es extenso.

“Nos interesa seguir proponiendo distintos métodos para hacer la detección, pero no sólo de manera estática sino también queremos hacerlo en tiempo real, lo que implica hacer una predicción temprana”, indicó.

Para el doctor Montes esta línea de investigación ofrece muchas posibilidades, aunque se debe tomar en cuenta el componente ético en la inteligencia artificial, “porque, qué tan ético puede ser estar observando los datos que publica una persona en sus redes y decir que tiene depresión sin su consentimiento, aunque esos datos sean públicos (...) Hay una línea muy delgada entre lo que sí se vale o debe y lo que no. Este componente limita algunas cosas de lo que se podría hacer tecnológicamente hablando, pero hay un horizonte muy amplio de posibilidades en estos análisis”.

nelly.toche@eleconomista.mx

Únete infórmate descubre

Suscríbete a nuestros
Newsletters

Ve a nuestros Newslettersregístrate aquí

Últimas noticias

Noticias Recomendadas

Suscríbete