La inteligencia artificial que ha sorprendido a tantos este año generando imágenes realistas o redactando como los humanos se han entrenado con contenido de Internet. Textos de todas las webs e imágenes de las redes sociales para poder replicar el mundo y todas las culturas. Esto ha supuesto demandas por infracción de derechos de autor, pero también el desarrollo de una IA con sesgos y que ha aprendido entrenada con contenido ilegal como el es abuso infantil.
Investigadores del Observatorio de Internet de la Universidad de Stanford han publicado un estudio demostrando la presencia de 3.000 imágenes de contenido sexualizado de menores en un importante repositorio de contenido para entrenar a la inteligencia artificial generativa. Un conjunto de datos que ha servido para entrar IA generativa tan popular como Stable Diffusion.
LAION-5B es un conjunto de datos públicos que agrupa miles de millones de imágenes extraídas de diversas fuentes en internet, entre las que destacan grandes portales y redes sociales como Reddit, X (antes Twitter), WordPress y Blogspot, así como webs con contenido para adultos como XHamster. y XVideos. La organización sin ánimo de lucro con sede en Alemania, LAION, es responsable de este conjunto que, se ha creado y engordado para promover la investigación de la IA.
[Porno generado con inteligencia artificial: ya hay quien está ganando dinero con ello]
Según informa Bloomberg, la organización ha eliminado los conjuntos de datos de LAION para garantizar la seguridad y cumplimiento de su política de cero tolerancia con el contenido ilegal antes de volver a publicarlos. Sin embargo, su uso por parte de los desarrolladores de inteligencia artificial viene de lejos.
La IA y los grandes modelos generativos no comprenden aquellos contenidos que se le ofrecen como ejemplos, simplemente aprende a generar por estadística. David Thiel, investigador principal de SIO, dijo a Ars Technica que "la inclusión de material de abuso infantil en los datos de entrenamiento del modelo de IA enseña herramientas para asociar a los niños en actividades sexuales ilícitas".
Modelo existentes como Stable Diffusion 1.5 han sido entrenados con LAION-5B. Sin embargo, según el informe de Thiel, las versiones posteriores de Stable Diffusion, 2.0 y 2.1, han filtrado parte o la mayor parte del contenido inseguro dificultando la generación de contenido explícito. "Los modelos de Stability AI se entrenaron en un subconjunto filtrado de ese conjunto de datos (LAION-5B). Además, perfeccionamos estos modelos para mitigar comportamientos residuales” ha declarado un portavoz.
No es la única compañía desarrolladora de IA que está relacionada. Google utilizó LAION para entrenar su herramienta de IA "Imagen text-to-image", cuando estaba destinada a servir como investigación, antes de lanzar otras herramientas como Bard al gran público. En ese momento, utilizaron una versión de datos diferente y anterior a la nombrada, esta tenía la nomenclatura LAION-400M. Posteriormente dejaron de usar esta base de datos.
No obstante, también se habrían encontrado contenidos peligrosos. El informe de Stanford destacó los hallazgos de los desarrolladores de Imagen, el conjunto de datos 400M abarcaba un amplio espectro de contenido inapropiado, incluidas imágenes pornográficas, insultos racistas y estereotipos sociales dañinos.