La inteligencia artificial está en su apogeo, para lo bueno y para lo malo. En España y en el resto del mundo se han popularizado enormemente las herramientas de IA y la adopción de estos sistemas y aplicaciones ha provocado el rechazo de la comunidad científica. La última novedad perturbadora respecto a esto la protagoniza TikTok, que se ha inundado de vídeos de chicos y chicas muertos que usan su voz para narrar sus casos.
En una investigación llevada a cabo por el The Washington Post, se ha puesto el foco sobre una serie de vídeos basados en inteligencia artificial que han ido apareciendo en los últimos meses. Estos vídeos, puros deepfakes, usan fotografías de jóvenes asesinados o torturados en dramáticos casos a los que se les añade la voz emulada por IA de estas mismas víctimas. Así, vemos a estos niños narrar sus casos con sus propias voces.
El asunto, que ya de por sí goza de bastante mal gusto, escala en el momento en el que se descubren varios de estos vídeos añadiendo elementos morbosos a la fórmula. Y es que numerosos metrajes de este estilo añaden a estos rostros cicatrices o incluso sangre para aumentar la viralidad de estos vídeos.
Voces de IA
No es un misterio que en TikTok existe una bulliciosa comunidad dedicada al 'true crime', o lo que es lo mismo, el interés por casos criminales reales. Existen muchísimos creadores que documentan los casos más importantes de la crónica negra y cada vez son más numerosos.
A todo esto se le suma el auge de las herramientas de inteligencia artificial, que han servido para que la comunidad realice deepfakes de todo tipo. Por ejemplo, están los vídeos que cogen las voces y caras de los principales streamers del mundo para hacer clips graciosos. También se han popularizado enormemente los vídeos en los que se usan las voces de personajes famosos para que canten canciones.
Los vídeos que menciona el Washington Post son absolutamente estremecedores. La mayoría de ellos ilustra estos casos con voces basadas en IA de jóvenes abusados, torturados e incluso asesinados, generando un contenido potencialmente dañino para personas sensibles. Especialmente teniendo en cuenta que estos vídeos usualmente están narrados en primera persona.
Para muestra, un botón. Uno de los mayores casos registrados en este sentido es el de James Bulger, niño de Reino Unido que fue secuestrado en el año 1993 mientras su madre hacía la compra. El caso fue muy sonado en el país, debido a que los secuestradores fueron también dos jóvenes, los chicos de 10 años Jon Venables y Robert Thompson.
Uno de estos vídeos muestra una fotografía de archivo del chico, y la voz que narra es una imitación de IA de la del propio Bulger. "Hola, mi nombre es James Bulger. Si mi madre hubiera girado a la derecha, podría estar vivo hoy. Desafortunadamente, giró a la izquierda", aseguraba la narración. Referencia al momento en el que la madre de Bulger se giró a la hora de hacer la compra, ya que podría haber visto cómo Venables y Thompson se llevaban a su hijo.
Muchos de estos vídeos fueron eliminados, pero otros tantos siguen disponibles en la plataforma. Esto ha llevado a Denise Fergus, madre de James Bulger, a pedir encarecidamente que se dejen de producir dichos vídeos. Según aseguró al Daily Mirror, "no hay palabras" para definir esto. El esposo de Fergus intentó contactar con uno de estos creadores, y este se negó a retirar el vídeo.
[Cómo es el arma casera que ha utilizado el asesino del exprimer ministro japonés Shinzo Abe]
Tal fue el revuelo del caso que la propia TikTok se ha visto forzada a intervenir. Explica en el The Washington Post que este contenido es "perturbador", y que no hay "lugar" para la presencia del mismo en su plataforma. Aseguran no permitir contenido que incluya las imágenes de menores, y en especial el que está generado por IA y no marcado como tal, algo que es obligatorio en TikTok.
De esta forma, TikTok pide que ante el avance de la IA, los creadores que incluyan vídeos manipulados pero que representen situaciones realistas incluyan un descargo de responsabilidad que indique que, efectivamente, que este contenido no es real.
Sangre y cicatrices
Estos vídeos están siendo generados con las herramientas de IA más básicas, o lo que es lo mismo, las más accesibles para los usuarios. TikTok ha advertido que con la extensión de estas herramientas, es más complicado discernir qué contenido o no es real, y por ende hay una mayor proliferación de estos metrajes.
Algunos de estos vídeos han generado millones de visitas, y en otros casos el morbo y el sensacionalismo ascienden hasta límites insospechados, incluyendo en los chavales cicatrices e incluso sangre emulando heridas reales. En algunos casos, algunas claramente referenciadas a las que sufrieron las víctimas reales en sus respectivos casos.
Pero va más allá. Un vídeo en cuestión, por ejemplo, usaba la cara de Ana Frank para no solo relatar su trágica historia, sino también para anunciar ropa de bebé barata. "¿Sigues buscando ropa bonita de bebé y de diseño propio? Entonces ve al enlace de mi biografía y déjate sorprender. Ahora, te contaré la historia de Ana Frank", decía.
Otro vídeo eliminado hablaba del caso de Madeleine McCann, la niña desaparecida en Portugal en 2007 y que se trata de uno de los más famosos del mundo. En dicho vídeo, una voz de una niña narraba lo siguiente: "Me llamo Madeleine Beth McCann. Sigo desaparecida".
Expertos citados por el Washington Post aluden al carácter emocional y sobre todo a la naturaleza morbosa de este tipo de casos para conseguir una mayor viralidad y un mayor impacto en visitas. El algoritmo usado por estas plataformas también valora los vídeos que generan mayores interacciones, y muchos de estos están hechos así para generar comentarios, ya sean positivos (homenajes a las víctimas) o negativos (críticas a los creadores que han hecho estos vídeos).
En los últimos meses, la IA ha sido objeto de escrutinio no solo por la comunidad científica, sino por la industria musical, que ve con malos ojos la creación de música usando voces y caras protegidos por derechos de copyright. Por ende, muchos estudios presionan a plataformas como Spotify o Apple Music para que eliminen este contenido.