Meta cambia su sistema de verificación de información y las principales afectadas podrían ser las mujeres en redes sociales

Meta cambia su sistema de verificación de información y las principales afectadas podrían ser las mujeres en redes sociales iStock

Qué hacer

Meta cambia su modelo de verificación de contenido: así afectará a la seguridad de las mujeres en redes sociales

Un sistema "de masas" que aprobará las informaciones corroboradas por la mayoría participante, generando sesgos de género y campañas de odio.

Más información: Mucho más que una ley: las abogadas que explican lo que supuso el divorcio para la igualdad en España

Paula González Calvo
Socia Young WLW
Publicada

En una era donde la información está tan al alcance de nuestra mano, y todos podemos hablar sobre X o Y tema, verificar la realidad de aquello que llega a nuestros ojos u oídos pasa por la existencia de un marco legislativo que nos proteja de la desinformación. Así como por la implementación de herramientas en las propias redes sociales que garantizan la autenticidad del contenido

Los modelos de verificación de contenido son herramientas esenciales para mantener la confianza en las plataformas digitales. Sin embargo, enfrenta desafíos éticos, técnicos y sociales que requieren buscar un equilibrio entre la moderación efectiva, la libertad de expresión y la transparencia.  

Verificación de Meta

La plataforma Meta ha puesto sobre la mesa un nuevo modelo de verificación de contenido en Estados Unidos. Este se basa en el sistema de Notas de la Comunidad y pese a que los detalles específicos no han sido divulgados de forma completa, su funcionamiento se basa en cuatro actores: 

  • Usuarios participantes. Los usuarios que pueden participar en dicho sistema. 

  • Creación de notas. Estos usuarios pueden añadir notas contextuales a publicaciones que consideren engañosas, incompletas o desinformativas. 

  • Algoritmo de consenso. Las notas no son públicas automáticamente, el algoritmo requiere que exista un consenso amplio entre los usuarios participantes.  

  • Ponderación de votos. Los votos de usuarios pueden tener un peso diferente según su historial de participación. 

El modelo anterior de verificación de contenido de Meta contaba con la colaboración de verificadores externos. Es decir, organizaciones independientes que corroboraban los datos para identificar y etiquetar contenido falso o engañoso en sus plataformas. 

La mayoría de organizaciones colaboradoras tenían políticas focalizadas en la igualdad de género, aunque es verdad que, si los equipos no contaban con suficiente representación diversa, podía tener un impacto negativo a la hora de realizar dicha comprobación.  

Sesgo de género

El sesgo en la verificación de contenido puede tener una influencia significativa en la forma en que se maneja el contenido relacionado con las mujeres. Esta logra manifestarse de forma consciente o inconsciente, y puede perpetuar la desigualdad de género o reforzar estereotipos perjudiciales.  

El principal riesgo que plantea el nuevo modelo basado en el algoritmo de consenso es que acabe convirtiéndose en un sistema de "sesgos de la mayoría" y que la revisión del contenido sea un reflejo de los prejuicios de esta masa convertida en "usuarios participantes" de dicho sistema. 

Estos "sesgos de la mayoría", podrían llevar a discriminación de género y afectar a las mujeres o minimizar problemas específicos, especialmente en sociedades o comunidades con altos niveles de desigualdad.  

El nuevo modelo de verificación de contenido de Meta podría poner en peligro la igualdad de las mujeres y promover campañas de odio hacia las minorías

El nuevo modelo de verificación de contenido de Meta podría poner en peligro la igualdad de las mujeres y promover campañas de odio hacia las minorías iStock

Igualmente, existe una mayor vulnerabilidad a campañas de odio y desinformación, especialmente hacia mujeres en posiciones públicas, que podrían llegar a ser blanco de campañas organizadas. Sin verificadores profesionales, es más difícil regular y analizar este tipo de comportamiento.  

El cambio hacia un sistema de moderación comunitaria podría aumentar la exposición de contenido dañino hacia la mujer debido a la falta de un enfoque profesional imparcial.  

Para ello, es crucial promover la representación equitativa de mujeres y profesionales en género en los procesos de diseño y supervisión de estos sistemas, y asegurar que las plataformas consideren la perspectiva de género al diseñar sus sistemas de verificación. 

Impacto en España

En España, como en el resto de la Unión Europea, la actividad de las plataformas digitales está regulada por la Ley de Servicios Digitales (DSA, por sus siglas en inglés), la cual busca la protección de los derechos fundamentales y garantizar la seguridad de los usuarios. 

La DSA, entre otras regulaciones, impone estrictas obligaciones para garantizar la transparencia, equidad y seguridad en las plataformas digitales:  

  • Evaluaciones de riesgos sobre cómo este sistema puede amplificar la desinformación, incluyendo su impacto en la igualdad de género.  

  • Explicar el funcionamiento de los algoritmos detrás de las "Notas comunitarias".

  • Auditorías independientes regulatorias para identificar el cumplimiento.

  • Las personas o colectivos afectados erróneamente por la verificación del contenido tendrían derecho a apelar e incluso a ser indemnizados.  

La aplicación de este modelo en Europa enfrenta varios retos regulatorios. La Comisión Europea ya ha expresado su preocupación por la decisión de Meta de sustituir su sistema de comprobación y ha advertido que, en Europa, las plataformas deben cumplir con la normativa vigente, así como la importancia de colaborar con verificadores de datos en la región.  

Es importante destacar que, según las declaraciones de Meta, este cambio de política se aplica, por el momento, únicamente en Estados Unidos y no afectará a la Unión Europea