YouTube anunció una serie de cambios diseñados para otorgar a los usuarios un mayor control sobre los vídeos que aparecen en la página de inicio y en sus sugerencias de Up Next, las últimas que generalmente se basan en un algoritmo. La compañía también dice que ofrecerá más visibilidad a los usuarios acerca de por qué se les muestra un vídeo recomendado, un vistazo al algoritmo de YouTube que antes no era posible. 

Una nueva función está diseñada para facilitar la exploración de temas y vídeos relacionados, tanto desde la página de inicio de YouTube como desde la sección de vídeos de Up Next. La aplicación ahora mostrará sugerencias personalizadas basadas en qué vídeos están relacionados con los que estás viendo, los vídeos publicados por el canal donde se está u otros que YouTube considere que serán de interés. 

Está característica se está extendiendo a los usuarios registrados en inglés en la aplicación de YouTube para Android y pronto estará disponible en iOS, escritorio y otros idiomas. 

Si las sugerencias de YouTube no son correctas, y suelen no serlo, los usuarios ahora podrán acceder a los controles que le indican explícitamente al servicio que deje de sugerir vídeos de un canal en particular. 

Esto estará disponible desde el menú de tres puntos al lado de un vídeo en la página de inicio o arriba a continuación. Desde ahí, se puede hacer clic en «No recordar canal» y a partir de ahí no se mostrarán sus vídeos. Sin embargo, aún se podrá ver los vídeos la suscribirse, si se buscan o se visitan en la página del canal directamente. En otras palabras, no se ocultan por completo. Los vídeos también pueden aparecer en la pestaña de tendencias. 

YouTube brinda a los usuarios una ligera visibilidad de cómo funciona su algoritmo. Antes las personas pueden no haber entendido por qué se les recomiendan ciertos vídeos. Otra nueva característica detalla las razones por las que un vídeo hizo la lista. Debajo de una sugerencia de vídeo, la plataforma dirá por qué fue seleccionada. 

«A veces recomendamos vídeos de canales que no vio antes, según lo que otros espectadores con intereses similares les hayan gustado y visto en el pasado», explicó la compañía en un anuncio. «Nuestro objetivo es explicar por qué estos vídeos aparecen en su página de inicio para ayudarlo a encontrar vídeos de los nuevos canales que le gusten». 

Por ejemplo, la explicación podría decir que los espectadores que también ven uno de sus canales favoritos también ven el canal del que proviene la recomendación del vídeo. El algoritmo de YouTube es probablemente mucho más complejo que los «espectadores a quienes también les gusta esto», pero es al menos, un comienzo. 

Esta función se está lanzando globalmente en la aplicación de YouTube para iOS y pronto estará disponible en Android y en el escritorio. 

Los cambios se producen en un momento en que YouTube, y otras grandes compañías de medios sociales, están bajo la presión de reguladores gubernamentales sobre la forma en que administran sus plataformas. Más allá de los problemas relacionados con la privacidad y la seguridad, la difusión del discurso de odio y la desinformación, los proveedores de la plataforma también están siendo criticados por su dependencia de algoritmos opacos que determinan lo que se muestra a sus usuarios finales. 

La plataforma fue criticada por la forma en que su propio algoritmo de recomendaciones fue aprovechado por los niños depredadores en la creación de una red de pedofilia. YouTube respondió cerrando los comentarios en vídeos de éste tipo donde los criminales compartían marcas de tiempo. 

Explicar a los usuarios finales cómo funcionan las recomendaciones es solo una parte del problema. El otro problema es que el algoritmo de YouTube puede terminar creando «burbujas de filtro», que pueden llevar a los usuarios a veces a caminos oscuros.

Por ejemplo, una historia reciente en The New York Times detallaba cómo se mostraba cada vez más contenido radical y extremista a una persona que acudía a YouTube para obtener videos de autoayuda, gracias a las recomendaciones del algoritmo que lo dirigían a comentarios de la derecha, luego a vídeos de conspiración y finalmente contenido racista.

La capacidad de silenciar explícitamente algunas recomendaciones de YouTube puede ayudar a quienes se preocupan lo suficiente por controlar su experiencia, pero es probable que no resuelvan el problema de quienes simplemente siguen las sugerencias del algoritmo. Sin embargo, si YouTube finalmente utilizará esto como una nueva señal, una especie de voto negativo, podría influir en el algoritmo de otras formas más sutiles.

Fuente

Leave a Reply