La inteligencia de Facebook es incapaz de analizar los memes
Facebook se está poniendo las pilas para controlar el asunto de las noticias falsas. Esta misma semana, los responsables de esta red social nos contaban a través del blog de la compañía, que habían desarrollado una tecnología para detectar de manera inteligente aquellas imágenes y vídeos que podían haber sido manipulados. Y que por tanto, solo contribuían a alimentar bulos y falsedades.
Revisar toda la información – ya sean noticias, enlaces, fotos o vídeos – es un trabajo de proporciones cíclopeas. Todos los días se comparten y publican miles de millones de publicaciones. No hay equipo humano que pueda con todo eso, así que la inteligencia artificial debe encargarse del trabajo sucio. El de analizar – dentro de sus posibilidades – que no existan publicaciones que contengan spam, violencia o pornografía.
Hasta aquí todo bien. Sabemos que a este tipo de tecnologías todavía les queda mucho por mejorar. Sin embargo, parece que hay un contenido que se le resiste a la inteligencia de Facebook: los memes.
Los memes: más difíciles de procesar
La inteligencia artificial de redes sociales como Facebook lo tiene un poco más difícil a la hora de analizar el contenido. Y es que en un meme hay distintos tipos de contenidos. Por un lado está la imagen, que debe procesarse como un elemento visual. Pero luego también están las palabras, que habitualmente están superpuestas en la parte superior o inferior de la foto. O incluso las dos cosas a la vez.
Ocurre que muchas veces, el texto puede no guardar una relación explícita con la imagen. No hay que perder de vista que cualquier persona del mundo puede hacer un meme y hacerlo pensando en la actualidad, en una circunstancia actual o personal o de otra cosa que cualquiera pueda imaginar. Esto hace que los memes todos esos elementos juntos sean difíciles de entender por una máquina, sencillamente porque están fuera de contexto.
Rosetta, un software que todavía no es infalible
El software que usa Facebook para identificar todo lo que huela a fraude se llama Rosetta. El sistema puede analizar con cierta agilidad las imágenes que incluyen texto. Pero hablamos de menús de restaurantes, carteles de manifestaciones, etcétera.
Un ingenierio de software entrevistado por Wired cuenta, sin embargo, que la herramienta funciona correctamente a la hora de identificar textos en carteles. Sin embargo, cuando toca analizar memes, la cosa se complica.
Los sistemas de inteligencia artificial tienen que ver algo repetido muchas veces (decenas de miles, para ser un poco más concretos) para aprenderlo. Y esto no puede suceder con los memes. Estos son producto de un instante o una circunstancia, de modo que no es fácil identificar qué memes pueden resultar hirientes o estar basados en el discurso del odio.
Además está la cuestión del idioma. Los memes que se publican en Facebook – y en cualquier otra plataforma – pueden llegar a estar escritos en infinidad de idiomas. Es difícil, pues, para la inteligencia artificial, identificar un patrón en base a unos textos.
Ahora los investigadores están entrenando a Rosetta. Es una de las iniciativas que han puesto en marcha para mejorar la herramienta. Para ello, usan imágenes publicadas con algún tipo de texto. Y han creado un programa para generar ejemplos aleatorios, siguiendo las directrices de un equipo de investigadores de la Universidad de Oxford. El programa genera memes y Rosetta los analiza para aprender. Si conseguirá ser infalible es todavía un misterio.
Otras noticias sobre… Facebook, inteligencia artificial, memes
Publicado en TuExperto el 2018-09-15 08:55:33
Autor: Cecilia Hill
Visite el articulo en origen aqui