La inteligencia artificial, al tener tantos vertientes distintos, ha tocado muchos aspectos de la vida cotidiana. En los últimos años hemos visto en España imágenes tan distópicas como perros autónomos robot apoyando a policías e incluso deepfakes para resolver casos policiales. La última y más sorprendente implica a un departamento de policía que habría usado una muestra de ADN para emular el rostro de un sospechoso y para luego aplicarle reconocimiento facial.
Una historia que se puede leer en el portal Wired, y que relata cómo detectives del Departamento de Policía del Distrito de Parques Regionales de East Bay (California, Estados Unidos) habrían usado tecnologías de reconocimiento facial sobre un retrato generado a partir de una muestra de ADN. Una situación que podría ser el primer caso conocido de esta clase, y que entraña todo tipo de problemas en ámbitos éticos, morales y legales.
Esta fue una idea de los propios detectives que estaban trabajando en un caso de asesinato. La víctima se llamaba Maria Jane Weidhofer, la cual había sido encontrada en el Parque Regional Tiden de Berkeley (California) asesinada y con signos de abuso sexual. Un caso que data del año 1990 y que se ha intentado resolver en 2017 usando estas técnicas de reconocimiento facial.
Usando reconocimiento facial
Todo comienza en el departamento de Policía ya mencionado en el año 2017. El cuerpo envió una muestra de información genética basada en ADN a Parabon NanoLabs, una compañía que asegura que puede analizar este tipo de muestras para conseguir recrear en 3D el rostro de sus dueños. Al parecer, los detectives contaban con esta muestra recogida directamente del escenario del crimen donde Weidhofer fue asesinada.
Parabon NanoLabs realizó el correspondiente análisis del ADN proporcionado por los policías usando un modelo de aprendizaje automático patentado. La firma proporcionó al cuerpo el rostro del posible autor del crimen, o por lo menos, un sospechoso potencial. Dicha cara fue generada únicamente utilizando evidencias recogidas en la escena del crimen.
Hay que aclarar, tal y como apunta Wired, que dicho rostro no era ni mucho menos una fotografía. Lo que Parabon NanoLabs entregó a los detectives fue un Informe Instantáneo de Fenotipo, una representación en 3D hecha mediante el algoritmo de la compañía. Los rasgos físicos de esta cara habrían sido generados gracias a los atributos genéticos encontrados en la muestra de ADN, y el algoritmo se habría encargado de crearlos.
El rostro en cuestión era de un varón de piel clara, cabello y ojos castaños, frondosas cejas y sin pecas. Un forense especializado en arte dentro del departamento cambió la fotografía para añadirle un corte de pelo más habitual, propio de un hombre de la calle y le puso un bigote. Siempre usando la descripción que un testigo dio en la época.
En un primer momento, el departamento publicó la cara en un intento de conseguir un reconocimiento de algún ciudadano de los condados de Alameda y Contra Costa de California. No sirvió de nada, y el caso siguió estancado. No fue hasta 3 años después, en 2020, que el departamento (o más bien uno de los detectives) tomó la decisión de que pasaran esta imagen por un software de reconocimiento facial.
En una solicitud de "apoyo analítico" enviada al Centro Regional del Norte de California, dicho detective habló de la situación. "Utilizando el ADN encontrado en la escena del crimen, Parabon Labs reconstruyó los rasgos faciales de un posible sospechoso. [...] Tengo una foto del posible sospechoso y me gustaría utilizar la tecnología de reconocimiento facial para identificar a un sospechoso".
[Así funciona Clearview, el polémico reconocimiento facial que usa Ucrania para identificar rusos]
Lo más sorprendente del caso, que ya presenta muchas cuestiones a nivel ético, moral y legal, es que dicho movimiento no fue informado debidamente por el detective. Tanto es así, que este hecho fue sabido gracias a unos registros policiales hackeados por el colectivo Distributed Denial of Secrets. Este es un grupo whistleblower que tiene como principal objetivo que la información de interés público sea completamente accesible. Esta incluye filtraciones, información censurada, etcétera.
El Centro Regional de Inteligencia del Norte de California, que recibió la solicitud del detective, es un centro destinado a facilitar la colaboración entre las distintas autoridades federales que operan en el estado, incluyendo departamentos de policía a nivel local y estatal. No se sabe si atendió debidamente la solicitud del detective. Si bien hay indicios de que podrían haber realizado dicha búsqueda, ni el centro ni el departamento dieron declaraciones.
Todo esto parte de la base de que no existe evidencia científica clara que confirme que efectivamente los métodos de Parabon NanoLabs son confiables para recrear fielmente la cara de una persona mediante ADN. Esta es una compañía centrada específicamente en la genealogía genética forense, dedicada al apoyo a fuerzas de autoridad como el propio departamento mencionado anteriormente.
Queda la palabra de Parabon, que afirma que no solo pueden recrear el color del pelo o de los ojos, sino incluso la piel de una persona. También pueden recrear la forma general de sus caras, y los fenotipos generados por la empresa se usan como base para las representaciones faciales que Parabon acaba enviando a sus clientes. Su metodología no ha sido debidamente revisada por pares, quedando en entredicho su fiabilidad por parte de la comunidad científica.
La sorpresa llega cuando descubrimos que este servicio de recreación facial basada en ADN ha sido ampliamente usado por fuerzas del orden de Estados Unidos. Un servicio lanzado en 2015 y que 8 años después ha servido para generar "decenas de predicciones faciales", según Wired. De hecho, el medio ha contactado con un buen número de departamentos y agentes que aseguran que esta opción es, como mínimo, digna de consideración.
Usando reconocimiento facial
¿Qué implica usar reconocimiento facial en este caso? Estos casos enlazan directamente a personas que de forma indirecta o directa podrían estar relacionados con estos crímenes, por lo que el uso de no una sino dos tecnologías distintas —una de ellas no verificada— es, como mínimo, cuestionable. Pero las voces contrarias han llegado incluso de la propia Parabon.
Y es que poco después de que se lanzara el servicio de predicción facial en 2015, se preguntó a la directora de bioinformática de Parabon NanoLabs Ellen Greytak sobre la posibilidad de probar herramientas de reconocimiento facial sobre estos rostros generados por fenotipos. Greytak declaró por aquel entonces que este "no es el propósito de las imágenes compuestas".
Algunos miembros de distintos departamentos de policía de Estados Unidos han hablado sobre las implicaciones que estos métodos tendrían sobre una investigación. Haley Williams, Gerente de comunicaciones del Departamento de Policía de Boise en Idaho, explica que aunque la idea de usar reconocimiento facial con una cara generada por algoritmo dependería de cada caso, "nunca se basaría únicamente en una sola pieza de evidencia". Solo se usaría "como una herramienta" para encontrar más pistas.
[La web que encuentra todas las fotos en las que apareces en internet en cuestión de segundos]
Por otro lado, las justificaciones de los departamentos para usar estos rostros generados por ADN varían. Mientras que algunos se limitan a decir que es una herramienta útil, otros defienden la precisión de estos rostros para el uso de software de reconocimiento facial. El ejemplo claro es el de Andrew Sullivan, sheriff del condado de DeKalb que declara que sí usarían esa información "para desarrollar cualquier pista que tuviéramos para resolver cualquier homicidio".
La posibilidad de que existan falsos positivos y errores en ambos métodos no ha impedido que algunos detectives defiendan su uso en casos especialmente intrincados. Uno de ellos, anónimo, declara lo siguiente: "Sé que la cara de Parabon no es perfecta, pero ¿por qué no utilizaríamos todas las herramientas disponibles para intentar atrapar a un asesino"?. Y es que estos fenotipos se usan, usualmente, después de haber agotado todas las vías posibles a la hora de encontrar pistas.
Ya existen casos de personas que han sido acusadas por software de manera indebida. Fue el ejemplo de Robert Julian-Borchak Williams, un oficinista en una compañía de suministros automotrices, que en 2020 fue detenido en una investigación que involucró el uso de un algoritmo. El uso deficiente de reconocimiento facial y cuestiones relacionadas con el racismo le valió una falsa acusación, que se reflejó como un acto de abuso policial usando estos software como excusa.