Hace unos años empezaron a proliferar las guías y principios éticos para la inteligencia artificial (IA). Todo el mundo quería contar con una, aunque solo fuera por decir que la tenía. Papel mojado, muchas de ellas.
Ahora vivimos un momentum similar en el plano de los acuerdos internacionales con tantas cumbres, órdenes y pactos sobre inteligencia artificial. Solo esta semana hemos asistido a tres: la Declaración de Bletchley, el Código de Conducta del G7, la Orden Ejecutiva de Biden. Pero, ¿qué van a cambiar exactamente estos acuerdos? Lamento la respuesta: no mucho.
El documento más reciente es la Declaración de Bletchley, firmada este 1 de noviembre. Es un acuerdo que parece más bien una broma pesada: los líderes mundiales han acordado seguir hablando. Si pudiera incluir aquí una reacción en formato emoji, sería la cara de sorpresa sonrojada.
Lo peor de todo es que esta declaración se ha trasladado al mundo como un gran hito, en un breve documento lleno de generalidades. Pone el foco únicamente en lo que llaman frontier AI (los modelos más avanzados de IA), con una mirada largoplacista, en lugar de centrarse en los riesgos e impactos reales que la inteligencia artificial, desde ChatGPT hasta los algoritmos más básicos, está teniendo ya en el mundo real.
Comprometerse a proteger el futuro a largo plazo es muy fácil para los líderes políticos porque significa que no tienen que hacer nada ahora. Se dedican a hablar sobre hacer cosas en el futuro, un futuro en el que ya no estarán. Tan sencillo es para ellos prometer un desarrollo seguro y humanista de la IA sine die como asegurar que en 2050 se alcanzarán las emisiones cero. Nunca tendrán que rendir cuentas por ello.
Falta de concreción
Veamos ahora el texto del G7, firmado este lunes (30 de octubre), bajo el título Código Internacional de Conducta del Proceso de Hiroshima para organizaciones que desarrollan sistemas avanzados de IA. Es una guía voluntaria, una lista de 11 acciones.
Entre dichas acciones se mencionan la necesidad de tomar medidas para identificar, evaluar y mitigar riesgos y vulnerabilidades a lo largo del ciclo de vida de la IA, así como reportar públicamente las capacidades, limitaciones y dominios de uso apropiado e inapropiado de los sistemas de IA avanzados.
También se habla de trabajar hacia modelos para compartir información de forma responsable y para la notificación de incidentes, de desarrollar políticas de gobernanza y gestión de riesgos de la IA, de invertir en implementar controles de seguridad robustos, y de crear y desplegar mecanismos fiables de autenticación del contenido.
El código se centra en priorizar tanto la investigación para mitigar los riesgos (sociales, de seguridad y de protección) como la inversión en medidas de mitigación efectivas y como el desarrollo de sistemas de IA avanzados para abordar los grandes retos globales. Y recoge la intención de implementar medidas para proteger el uso de datos personales y la propiedad intelectual en el entrenamiento de modelos de IA.
El contenido es, por lo general, vago e impreciso, especialmente el punto que trata sobre el desarrollo y adopción de estándares técnicos internacionales. No menciona ningún modelo específico, como podría haber hecho, por ejemplo, en referencia al Flujo Libre de Datos con Confianza (DFFT) propuesto por el primer ministro japonés Kishida Fumio en los albores del Proceso de IA de Hiroshima.
Errores de bulto
Por último, la Orden Ejecutiva de Biden, emitida también este lunes 30 de octubre, trata de balancear la seguridad, la protección de los derechos y la promoción de la innovación. Hay un fuerte énfasis en la necesidad de estándares, centrados en varios aspectos.
El primero sería estandarizar la aplicación de técnicas de ciberseguridad a la evaluación de riesgos de la IA previo lanzamiento. Es lo que se llama red-teaming, que consiste en usar las tácticas de los piratas informáticos para emular el comportamiento de atacantes reales. Esto traerá cola, pues no está claro hasta qué punto las grandes plataformas de IA estarán dispuestas a compartir los resultados de sus pruebas de seguridad con el Gobierno, algo que podrían considerar como secretos comerciales.
Las otras propuestas de creación de estándares ponen el foco en la detección de síntesis biológica (para protegerse contra los riesgos del uso de IA para diseñar materiales biológicos altamente peligrosos), en la detección y autenticación de contenido generado por IA, y en modelos internacionales que abarquen todos los aspectos anteriores, además de la interoperabilidad.
No hay nada muy definido en el documento de la Casa Blanca. Esta Orden podría allanar el camino hacia una IA más segura y hacia una futura regulación que proteja a los ciudadanos sin mermar la capacidad innovadora y la competitividad. De hecho, el Presidente pide en ella al Congreso que apruebe una legislación bipartidista sobre privacidad de datos. Un brindis al sol.
La Orden peca en caer en los mismos lugares comunes de siempre: crear más estructuras, en lugar de dotar de recursos y formar al talento con el que ya cuentan las agencias capacitadas para abordar los diferentes desafíos que encara el desarrollo responsable de la IA. Así lo expone la autora, emprendedora y exdirectora adjunta de Tecnología de Obama, Jennifer Pahlka: "Añadir objetos nuevos y brillantes no nos dará esa competencia, pero el aburrido trabajo de arreglar la contratación federal sí podría hacerlo".
Como dice la investigadora Mary Gray, "otra palabra para la IA es software". Sí, el aprendizaje automático y los LLM son una ruptura con los paradigmas informáticos del pasado, pero no son tan misteriosos como para que las personas competentes en el mundo del software anterior a la IA no puedan comprenderlos.
Este problema es 100% exportable a la realidad española, y diría, sin miedo a equivocarme, que, como mínimo, también al resto de Europa.
Pan y circo
No quisiera pecar de cínica, pues se están dando algunos pasos en positivo, y algunas de estas acciones contribuirán a avanzar hacia un desarrollo y uso responsable y seguro de la IA. Otras me temo que desviarán el foco, con el riesgo de hacernos retroceder.
La mayoría siguen siendo los fuegos artificiales del teatro de la política internacional. Reino Unido ha organizado la cumbre de Bletchley con el único propósito de mostrarse relevante ante el mundo. Lo ha hecho en un lugar doblemente simbólico, tanto para la IA como para la imagen del país británico como líder en la escena internacional. Allí, en Bletchley Park, uno de los padres de la IA (Alan Turing) creó la máquina con la que se lograría descifrar Enigma, una contribución clave en la victoria de la Segunda Guerra Mundial.
En este contexto, lo que realmente cuenta para el Gobierno británico es que a su cumbre de la IA hayan asistido tanto EEUU como China: que estuvieran allí para hacerse la foto. Es una campaña de marketing en busca de notoriedad. La misma que persigue Francia al encargarse de la edición del año que viene y la República de Corea como coanfitriona de una minicumbre virtual sobre IA en los próximos seis meses.
Por lo demás, ¿qué importa que una serie de países seleccionados de forma aleatoria hayan acordado seguir hablando sobre la seguridad de la IA? Si al menos esto hubiera sucedido en el marco de un panel de Naciones Unidas, contaría con una verdadera representación global.
Es fácil decir que es la primera vez que un grupo de gobernantes random ha acordado tal o cual cosa, y por ello ponerle el calificativo de "histórico" y otros adjetivos grandilocuentes. ¿Qué pasa después? Que nada tiene continuidad más allá de las conversaciones sobre futuros de los que nunca se responsabilizarán, sin concretarse propuestas ni medidas, y sin aplicarse ni traducirse en avances tangibles (ojalá me equivoque).
Los Gobiernos son muy buenos haciendo ruido: tanto ruido que parezca que están pasando muchas cosas, aunque ninguna tenga un calado real. Creen que la gente no espera mucho más, y en parte es así: la ciudadanía desconfía cada vez más de las instituciones, y se cansa de esperar. Como con el cambio climático, vemos que el avance real, si se produce, ocurre de forma tan lenta como desigual. En el ámbito de la inteligencia artificial, esto solo acaba de empezar.
Es poco realista aspirar a una regulación mundial de la IA. Sería más fácil ponerse objetivos menos macro y más prácticos, como por ejemplo fijar un estándar internacional para el flujo de datos. Otros incentivos, por ejemplo, de comercio, en el marco de las relaciones internacionales y el llamado "efecto Bruselas" podrían impulsar también una cierta homogeneización regulatoria de la IA a nivel global.
Por otra parte, si bien en el campo supranacional es difícil jugar, los ciudadanos sí podemos, y debemos, exigir a nuestros gobernantes que sus estrategias se alineen con las promesas realizadas en estas cumbres. Todo lo demás será pan y circo. Más de lo mismo para que todo siga igual.