Twitter no detecta la pornografía infantil: avisan de un nuevo fallo en su sistema
Investigadores de Stanford han detectado imágenes de abuso infantil que ya se encontraban en bases de datos usadas para filtrar contenido.
5 junio, 2023 18:13La huella de Elon Musk sobre Twitter se lleva notando en España desde el mismo momento en el que el magnate tomó los mandos de la red social. Y no para bien; el caos de los verificados, los procedimientos legales abiertos contra el dueño de Twitter y el mal funcionamiento de la plataforma son solo algunos ejemplos. Investigadores de la Universidad de Stanford han descubierto que Twitter ha sido incapaz de evitar la publicación de contenidos con abuso infantil.
Así lo recoge el Wall Street Journal, que citando la investigación en cuestión, detalla cómo estos problemas de funcionamiento habrían ocasionado la publicación de "docenas" de imágenes catalogadas como pornografía infantil. Integrantes del Observatorio de Internet de Stanford informaron al personal de la plataforma y el problema, aparentemente, se habría resuelto el pasado mes de mayo.
Pero no son en absoluto un puñado de imágenes sueltas. En poco más de dos meses, desde marzo a mayo de este año, el equipo de investigadores del Observatorio detectó más de 40 imágenes publicadas en Twitter que de forma previa ya habían sido marcadas como material relacionado con el abuso infantil.
Imágenes ilegales en Twitter
Estas imágenes se encontraron en un conjunto de datos que aglutinaba hasta 100.000 tuits distintos, tal y como afirma el coautor del informe y jefe tecnólogo del Observatorio, David Thiel. El investigador resalta cómo estas imágenes, que acabaron por publicarse en Twitter, ya estaban marcadas como material de abuso infantil (CSAM, por sus siglas en inglés).
No solo eso. Las imágenes ya estaban catalogadas dentro de las bases de datos que las empresas pueden usar para que se filtre este tipo de contenido. En palabras del propio Thiel, esto es algo elemental. "Esta es una de las cosas más básicas que se pueden hacer para prevenir el abuso sexual infantil".
Thank you for your patience as we introduce you to our new API access tiers and evolve our Developer Platform. We are excited for the future of our developer ecosystem and are looking forward to seeing what you build next! 🚀
— Twitter Dev (@TwitterDev) March 29, 2023
Pero si era tan evidente ¿por qué no se descubrió hasta hace tan poco? La teoría más aceptada reside sobre el cambio de políticas monetarias de Twitter en torno a la API de la plataforma, que ahora es de pago. Hace poco, Twitter anunció significativos aumentos de precio en las tarifas industriales de acceso a la API, fundamental para que los investigadores puedan analizar los datos a gran escala.
Tras estas subidas, el Observatorio de Internet de Stanford y otros tantos grupos de investigación dejaron de acceder a la API a nivel industrial. No es poco dinero, ya que los nuevos precios podían ascender a los 39.000 euros al mes. La excusa para bloquear el acceso a la API tras un muro de pago para los usuarios fue, según Musk, para evitar los malos usos de los bots de la plataforma.
Por ende, los investigadores de Stanford se vieron obligados a usar una herramienta llamada PhotoDNA, una tecnología de escaneo de fotografías para filtrar contenido ilegal ampliamente usada por proveedores de servicios en línea. Firmada por Microsoft, este software se encarga de detectar y catalogar imágenes de carácter ilegal y filtrarlas. Su popularidad es tal, que su uso ha llevado a arrestos a nivel internacional por el tráfico de este tipo de contenido.
El equipo usó un software automatizado que se encargó de recibir un flujo de datos constante de Twitter en función de ciertas palabras clave. Los enlaces a las imágenes se pasaron por PhotoDNA de forma automática; la herramienta escaneó estas imágenes en base a bases de datos (valga la redundancia) de organizaciones como el Centro Nacional para Niños Desaparecidos y Explotados de los Estados Unidos.
Se creó un hash único para cada una de estas y PhotoDNA, así, verificó los hash de las imágenes publicadas y las presentes en las bases de datos. Los investigadores mandaron tanto las imágenes como los metadatos disponibles de estas imágenes al Centro Nacional para Niños Desaparecidos y Explotados para su investigación.
Thiel aseguró que el obtener resultados de PhotoDNA de un pequeño conjunto de datos de la plataforma era "toda una sorpresa". Eso sí, el propio equipo recuerda que Twitter les informó de varios falsos positivos en algunas bases de datos de contenido abusivo que filtran manualmente, por lo que los investigadores podrían correr la misma suerte.