Facebook está haciendo esfuerzos por limpiar su reputación, y durante dos años ha hecho esfuerzos en desarrollar un machine learning que le permita solucionar dos problemas que carcomen su plataforma a nivel global: los fake news, en sus distintos formatos… Y los memes que esparcen odio.

 

Durante los últimos dos años la plataforma se ha esforzado en su batalla con la desinformación, empezando por artículos, la primera fuente de desinformación de los Estados Unidos según los propios usuarios de la red. Uno de los primeros pasos fue trabajar con verificadores independientes (Como United Press o AFP) para reseñar y evaluar la veracidad del contenido. Mientras tanto, han desarrollado una inteligencia artificial que permite analizar también fotos y vídeos, ampliando sus alianzas con 27 verificadores en 17 países del mundo. También desarrollaron una inteligencia artificial que detecta memes ofensivos, de la que hablaremos más adelante. Antonia Woodford, Product Manager de Facebook, declaró que esto ayudaría a identificar y tomar acciones con respecto a los distintos tipos de desinformación más rápidamente.El modelo de machine learning que aplican a artículos e imágenes es similar: hace uso de diversas señales de compromiso, incluyendo el feedback de los usuarios de Facebook, para identificar contenido potencialmente falso. Esa data se envía a los verificadores para comprobación, o los verificadores pueden levantar el contenido independientemente. La mayoría de los verificadores independientes tiene experiencia evaluando fotos o vídeos y se han entrenado en técnicas de verificación visual como la búsqueda inversa de imágenes o el análisis de metadata (información que indica cuándo y dónde se obtuvo la imagen). Los verificadores pueden identificar la veracidad o falsedad de una foto, vídeo o artículo combinando estas habilidades con otras prácticas periodísticas, como recurrir a la investigación de expertos, trabajos académicos o instancias gubernamentales.

Mientras más datos ya hayan pasado por los verificadores, será más sencillo afinar la exactitud del modelo de machine learning. No es la única tecnología que utilizan, también echan mano del OCR para extraer texto de fotos y comparar ese texto con los titulares de los artículos de los medios verificados.

Los usuarios comparten millones de fotos y vídeos en Facebook cada día, y es sabido que este tipo de contenido es más atractivo por ser visual. Una vez dicho esto, se crea una oportunidad de manipulación de parte de terceros. De acuerdo con investigaciones de usuarios alrededor del mundo, las fake news tienen distintos formatos de país a país. Por ejemplo, en Estados Unidos las personas aprecian mayor desinformación en artículos mientras que en Indonesia ven más fotos. Sin embargo, Facebook no hace ya distinción de categorías y señala que “El mismo engaño puede viajar a través de distintos tipos de contenidos, así que es importante construir defensas contra la desinformación en artículos, fotos y vídeos.

 

Luego de varios meses de investigación y pruebas con varios patrones que arrancaron en marzo, llegaron a la conclusión de que la desinformación en fotos y videos por lo general entra en tres categorías:

  1. Manipulado o fabricado: Elaborar un montaje que ubique a un político en un sitio en el que no ha estado, o dando un discurso que no ha dado.
  2. Fuera de contexto: Reutilizar imagenes de accidentes, protestas o desastres del pasado para utilizarlas en el contexto actual culpabilizando a un actor polítio.
  3. Texto o reclamo de audio: Escribir un titular falso encima de una foto acusando a un individuo de crímenes que no ha cometido fingiendo ser un medio de comunicación reputado.

Otro de los nuevos sistemas se llama Rosetta y es una inteligencia artificial que utiliza machine learning para identificar el texto en imágenes y vídeos y transcribirlo de forma que las computadoras puedan leerlo. En particular, el uso que Facebook está dando a esta herramienta tiene que ver con memes.  

Si bien las herramientas de transcripción de texto no son nuevas, Facebook tiene un reto debido al tamaño de su plataforma y la variedad de imágenes que alberga. Ya Rosetta está en línea, extrayendo texto de 1000 millones de imágenes y frames de vídeo al día en Facebook e Instagram. Facebook indica que la extracción de texto y el machine learning están siendo utilizados para “identificar automáticamente contenido que viole nuestra política de discursos de odio”, y funciona en varios idiomas.

Los problemas de moderación de Facebook son bien conocidos, por lo que si este sistema funciona y puede señalar las imágenes problemáticas separadas de las que simplemente son chistes, sería un gran avance para la compañía.

 

Sin embargo, no queda claro qué hará Facebook con toda la data que está recabando. Es útil para funciones básicas como búsqueda de fotos o para subtitular vídeos, y si todo marcha bien, eliminar los fake news de la plataforma; pero puede haber un objetivo ligado con reconocer que querrías ver en tu feed, especialmente si son memes.

 

 

Fuente

Fuente

Fuente

Join the discussion One Comment

Leave a Reply