Skip to main content

Desde los inicios de Internet, saber (o quizás más exactamente, no saber) quién está al otro lado de la pantalla fue uno de los mayores misterios y emociones. En los primeros días de las redes sociales y los foros en línea, los nombres de usuario anónimos eran la norma y significaban que podías fingir ser quien quisieras ser.

A pesar de lo emocionante que fue esta libertad, los problemas se hicieron evidentes rápidamente: depredadores de todo tipo utilizaron este manto de anonimato para atacar a víctimas desprevenidas, acosar a cualquiera que no les guste o con quién no estén de acuerdo y difundir información errónea sin consecuencias.

Durante años, la conversación sobre la moderación se centró en dos pilares clave. Primero, ¿qué reglas escribir? ¿qué contenido se considera aceptable o prohibido, cómo definimos estos términos y quién toma la decisión final en las áreas grises? Y segundo, cómo hacerlos cumplir: ¿cómo podemos aprovechar tanto a los humanos como a la inteligencia artificial para encontrar y marcar contenido inapropiado o incluso ilegal?

Si bien estos siguen siendo elementos importantes para cualquier estrategia de moderación, este enfoque solo señala a los malos actores después de una infracción. Hay otra herramienta igualmente crítica en nuestro arsenal que no está recibiendo la atención que merece: la verificación.

La mayoría de la gente piensa en la verificación como la “marca de verificación azul”, una insignia de honor otorgada a la élite y las celebridades entre nosotros. Sin embargo, la verificación se está convirtiendo en una herramienta cada vez más importante en los esfuerzos de moderación para combatir problemas negativos como el acoso y la incitación al odio.

Esa marca de verificación azul es más que una simple señal que muestra quién es importante; también confirma que una persona es quien dice ser, lo cual es un medio increíblemente poderoso para hacer que las personas rindan cuentas por sus acciones.

Uno de los mayores desafíos que enfrentan las plataformas de redes sociales en la actualidad es la explosión de cuentas falsas. Los bots difunden mentiras e información errónea como un incendio forestal, y se propagan más rápidamente de lo que los moderadores pueden prohibirlos.

Es por eso que Instagram comenzó a implementar nuevas medidas de verificación el año pasado para combatir este problema. Al verificar las identidades reales de los usuarios, Instagram dijo que “podrá comprender mejor cuándo las cuentas intentan engañar a sus seguidores, responsabilizarlos y mantener a nuestra comunidad segura”.

Es importante recordar que la verificación no es una táctica única, sino más bien una colección de soluciones que deben usarse dinámicamente en conjunto para que sean efectivas. La urgencia de implementar la verificación también es más grande que simplemente detener la difusión de contenido cuestionable. También se puede ayudar a las empresas a garantizar que se mantienen en el lado correcto de la ley.

En persona detectamos intentos de fraude cada vez más sofisticados que van desde el uso de fotos y datos de celebridades para crear cuentas hasta extrañas fotografías de identificaciones e incluso el uso de deepfakes para imitar una selfie en vivo.

Por eso es fundamental que los sistemas de verificación tengan en cuenta varias señales al verificar a los usuarios, incluida la información del cliente recopilada activamente (como una identificación con foto), señales pasivas (su dirección IP o huella digital del navegador) y fuentes de datos de terceros (como teléfonos y listas de riesgos por correo electrónico). Al combinar varios puntos de datos, una identificación válida pero robada no pasará por las puertas porque señales como la ubicación o los patrones de comportamiento generarán una señal de alerta de que la identidad de este usuario es probablemente fraudulenta o, al menos, amerita una mayor investigación.

Este tipo de sistema de verificación holístico permitirá que las plataformas sociales y de contenido generado por el usuario no solo puedan disuadir y marcar a los malos actores, sino que también evitarán que ingresen repetidamente a su plataforma con nuevos nombres de usuario y correos electrónicos, una táctica común de los trolls y abusadores de cuentas que fueron prohibidos.

Más allá de los abusadores de cuentas individuales, un enfoque de múltiples señales puede ayudar a manejar un problema posiblemente mayor para las plataformas de redes sociales: campañas de desinformación coordinadas. Cualquier problema que involucre a grupos de malos actores es como luchar contra una serpiente de múltiples cabezas: cortas una cabeza solo para que dos más vuelvan a crecer en su lugar.

Sin embargo, matar a la bestia es posible cuando se tiene un sistema de verificación integral que puede ayudar a sacar a la luz grupos de malos actores en función de propiedades compartidas. Si bien estos grupos continuarán buscando nuevas formas de ingresar, la verificación multifacética que se adapta al usuario final puede ayudar a evitar que corran desenfrenadamente.

Históricamente, los sistemas de verificación de identidad como Jumio o Trulioo se diseñaron para industrias específicas, como los servicios financieros. Pero estamos comenzando a ver un aumento en la demanda de soluciones independientes de la industria como persona para mantenerse al día con estos casos de uso nuevos y emergentes para la verificación. Casi todas las industrias que operan en línea pueden beneficiarse de la verificación, incluso aquellas como las redes sociales, donde no hay necesariamente una transacción financiera que proteger.

No se trata de si la verificación se convertirá en parte de la solución para desafíos como la moderación, sino más bien de cuándo. La tecnología y las herramientas existen hoy en día, y depende de las plataformas de redes sociales decidir que es hora de hacer de esto una prioridad.

Fuente

Leave a Reply