Los oficiales electos del Congreso de Estados Unidos están preocupados de que pueda usarse inteligencia artificial para generar vídeos y audio de ellos diciendo cosas que nunca dijeron. Serían fake news en su forma más refinada.
En una audiencia del Comité de Inteligencia del senado del 6 de septiembre, miembros del Congreso preguntaron a Sheryl Sandberg, jefa de operaciones oficiales de Facebook; y a Jack Dorsey, CEO de Twitter, cómo se preparaban para lidiar con los vídeos generados de forma artificial en cada una de sus plataformas.
“Los estadounidenses típicamente pueden creer en lo que ven, y de pronto en un video ya no pueden confiar en lo que ven, porque la oportunidad de crear videos que son totalmente distintos a la realidad ha llegado” declaró el senador de Oklahoma durante la audiencia.
Los políticos se enfrentan a un reto único con los videos generados utilizando inteligencia artificial, llamados “deepfakes”, aunque ese es un término que se utiliza más específicamente para definir cuando la AI coloca la cara de una persona en el cuerpo de otra (por lo general en pornografía). Gracias a que los discursos políticos, juntas legislativas y audiencias son televisadas en Estados Unidos, hay abundancia de vídeos donde los políticos están sentados con buena iluminación, hablando con claridad y mirando directamente a la cámara. Con sus palabras y sus rostros expuestos, es cuestión de tiempo para que los deepfakes esten en todas partes.
La tecnología utilizada para generar los videos es deep learning -utilizada desde 2012, tomando una cantidad de datos masivos para aprender a completar tareas cada vez más complejas. En 2012, era impresionante que la AI reconociera 85% de una imagen-; los computistas están descubriendo maneras de generar vídeos de eventos que nunca pasaron.
Mientas este tipo de AI aprende formas más eficientes de completar sus tareas mientras obtiene más data, tendrá mayores posibilidades de producir videos de políticos que siempre estén frente a la cámara. Los investigadores han demostrado que el sistema funciona cuando se toma el vídeo original de una persona hablando y transformándola en el político: ya que la AI ha visto el rostro del político en tantas combinaciones de expresiones y orientaciones, puede predecir cómo se verá su cara si adoptara la misma de expresión de la persona del vídeo original. Haciendo miles de estas predicciones y cosiendolas el video, se crea un nuevo video con la cara del político. Compañías como Lyrebird también trabajan en clonar la voz de una persona, y el audio requerido para entrenar ese algoritmo también puede ser tomado de los mismos vídeos.
A la hora de controlar y limitar esta tecnología, Facebook y Twitter parecen estar poco preparados. Dorsey no tuvo nada que decir, y Sandberg dijo que Facebook explorará el tema. “Los deepfakes son un área nueva, y sabemos que la gente encontrará nuevas [áreas de tecnología para engañar]” dijo Sandberg. “Es una combinación de inversión en la tecnología y en la gente”.
En vista de los problemas que ya Facebook presenta entrenando a sus propios moderadores e implementando nueva tecnología para detectar fakes, esperar que puedan determinar si un vídeo es un deepfake o no tal vez sea pedir demasiado.
Fuente