Bletchley Park, en Reino Unido, ha sido el escenario escogido para celebrar una de las jornadas que se presumen históricas a futuro. En ella, ha tenido lugar la primera cumbre mundial sobre seguridad alrededor de la inteligencia artificial (IA) que ha alineado a buena parte de la comunidad internacional en torno a las amenazas relativas a esta nueva tecnología.
La reunión ha sido más que fructífera y ha dado como resultado, tras más de 24 horas de reuniones, la llamada Declaración de Bletchley, con la que los participantes se comprometen a impulsar la cooperación para evitar los futuros riesgos derivados sobre la aplicación de la IA.
Este documento no es solo reseñable en sí mismo, ya que existen diferentes comunicaciones conjuntas en este sentido entre distintas regiones, sino que se apunta como un movimiento transgresor, especialmente, por los 29 países firmantes del mismo. Entre ellos, Alemania, Australia, Brasil, Canadá, Chile, Emiratos Árabes Unidos, España, Filipinas, Francia, India, Indonesia, Irlanda, Israel, Italia, Japón, Kenia, Nigeria, Países Bajos, Arabia Saudí, Reino Unido, Corea, Ruanda Singapur, Suiza, Turquía, Ucrania o la Unión Europea.
A ellos se suman, además, China y Estados Unidos, las dos regiones que hacen de esta cumbre algo novedoso e histórico, ya que se trata de dos potencias conocidas como rivales, especialmente en lo que refiere al ámbito tecnológico. Ambas, no obstante, han suscrito las conclusiones recogidas en este encuentro, alineándose con la comunidad internacional para legislar y profundizar en el despliegue de la inteligencia artificial.
Una cumbre cada seis meses
La importancia de la cumbre celebrada en Reino Unido también viene respaldada por la asistencia de importantes actores del ecosistema tecnológico como Elon Musk. El magnate estadounidense, responsable de empresas como Tesla o X (antes Twitter) y fundador de OpenAI, la empresa impulsora del famoso ChatGPT, concebida como la herramienta que democratizó el uso de la IA, afirmó tras la cita que "la seguridad de la IA es vital para el futuro de la civilización".
Por parte de España, a la cita acudió la secretaria de Estado de Digitalización e Inteligencia Artificial, Carme Artigas, apenas días después de que se conociese que copresidirá el nuevo órgano anunciado por la ONU para la gobernanza alrededor de la inteligencia artificial.
Durante sus intervenciones en el encuentro en Bletchley Park, Artigas ha compartido la experiencia española en la puesta en marcha de la Agencia Española de Supervisión de la Inteligencia Artificial, que empezará a operar en diciembre, así como los avances relativos a la negociación del futuro reglamento europeo de IA, donde el país tiene un papel fundamental como presidente del Consejo de la Unión Europeo.
A lo largo del evento, la secretaria de Estado española ha compartido en X instantáneas de las personas con las que ha podido mantener conversaciones y encuentros, entre ellas, Musk; la secretaria de Comercio de Estados Unidos, Gina Raimondo, con la que ha hablado sobre el futuro de la IA, pero también de otras igual de relevantes como los chips; o el secretario de Estado de Economía Digital, IA y Aplicaciones de Trabajo a Distancia de Emiratos Árabes Unidos, Omar AlOlama, con el que ha intercambiado opiniones sobre la digitalización.
Artigas ha destacado que este summit ha ocurrido en "un momento muy oportuno", ya que existe una conciencia extendida de la necesidad de controlar los riesgos que entraña el despliegue de la IA. Según ha afirmado, si se espera a regular esta tecnología, los daños causados serán irreversibles.
La declaración servirá de base para la celebración de diferentes cumbres globales sobre la seguridad en la IA que tendrán lugar cada seis meses. Tras Reino Unido, Corea del Sur será la encargada de albergar la próxima y, a continuación, será el turno de Francia. Según ha apuntado el primer ministro de Reino Unido, Rishi Sunak, anfitrión de la primera versión de esta reunión, el objetivo es crear un panel que evalúe periódicamente los avances y amenazas en este campo.
Un momento "único" para actuar
La Declaración de Bletchley, publicada el 1 de noviembre, reconoce, en primer lugar, el potencial relativo a la inteligencia artificial como una herramienta capaz de "mejorar el bienestar humano, la paz y la prosperidad". Aún así, precisa que, para avanzar en este camino, es necesario que la IA se desarrolle de forma segura, con una perspectiva humanista y responsable, especialmente en sectores críticos como la salud o la educación.
"Es un momento único para actuar y garantizar que todas las oportunidades transformadas de esta tecnología se usen para el bien", afirman en la misiva los firmantes.
Ante este escenario, la declaración desgrana algunos de los riesgos más importantes en este campo, derivados de un mal uso intencional o de la ausencia de control, y celebra un acuerdo internacional para mitigarlos o eliminarlos, destacando su importancia "crítica" y la urgencia que suscitan. Entre ellos, destacan los relativos a ámbitos como la ciberseguridad o la biotecnología, así como la amplificación de la desinformación.
"Dado el rápido e incierto ritmo de cambio de la IA, y en el contexto de la aceleración de la inversión en tecnología, es especialmente urgente profundizar en la comprensión de estos riesgos potenciales y de las acciones para abordarlo", apuntan.
En este camino, precisan que los desafíos relacionados con esta herramienta son eminentemente internacionales, por lo que la mejor manera de abordarlos es mediante la cooperación.
El objetivo, precisan, es avanzar hacia una IA humanista, fiable, responsable y segura respaldada por un entorno regulatorio y de gobernanza "proporcionado" y que garantice, a su vez, la innovación. Aquí, proponen desarrollar clasificaciones o categorizaciones de riesgo basadas en las circunstancias nacionales y los marcos legales aplicables, más allá de los códigos de conducta comunes.
Asimismo, la declaración pide a todos los actores relevantes en este campo que sean transparentes y rindan cuenta apropiadas para medir, monitorizar y mitigar las capacidades potencialmente dañinas y los efectos asociados que puedan surgir de su aplicación.
Los firmantes avanzan sus acciones en dos ramas distintas, por un lado, en la identificación de los riesgos de seguridad de la IA de interés compartido y, por otro, en la construcción de políticas basadas en ellos en los diferentes países que garanticen la seguridad. Así, proponen una red de investigación internacional sobre la seguridad de la IA que, a través de la colaboración, facilite la formulación de políticas y el bien público en este campo.
Del G7, el proceso de Hiroshima y la orden ejecutiva de Biden
El encuentro auspiciado por el gobierno británico supone la culminación de un ejercicio de realismo multinacional en el que las distintas potencias globales han ido acercándose a las posiciones que ha marcado desde un inicio la Unión Europea y que veremos a continuación.
Uno de los países más celosos de imponer, vía regulatoria, límites al desarrollo de la inteligencia artificial ha sido Estados Unidos. Sus temores, ligados a un posible frenazo a la innovación y al respeto a los códigos de autocumplimiento de las grandes multinacionales tecnológicas, han ido cayendo en saco roto ante el avance y la demostración de los peligros de la IA en los últimos meses.
[España formará parte del organismo de la ONU que regulará el futuro de la inteligencia artificial]
Sin embargo, la Administración Biden ha ido dando pasos poco a poco en la dirección del consenso que ahora conocemos. En la última reunión del G7, el gobierno estadounidense aceptó sumarse a esta ola, pero por una tercera vía, la que lidera Japón con el conocido como 'Proceso de Hiroshima'. Se trata de un foro que aspira a crear estándares internacionales para la IA, con reglas mucho más genéricas que las que propone Europea, más pragmáticas y ligadas a problemáticas concretas ya identificadas como la privacidad o los derechos de autor.
En esa cumbre del G7, Estados Unidos aceptó de hecho un código de conducta -sin valor punitivo, eso sí, para favorecer la transparencia, la mitigación de los riesgos o el intercambio de información entre distintas organizaciones. Un código que se verá ampliado, como se anunció hace apenas una semana, con una orden ejecutiva para regular la inteligencia artificial. Un salto adelante, empleando esta técnica legal que permite evitar al Congreso y acelerar los plazos de implementación, con que Estados Unidos busca recuperar el tiempo perdido en cuanto a regulación tecnológica se refiere.
El rol constructivo de China
Esta cumbre ha sido histórica no sólo por el consenso planteado respecto al futuro de la inteligencia artificial, sino también por la participación de China en estas reflexiones. El gigante asiático ha sido considerado de forma reiterada como uno de los actores más aventajados de esta industria, pero con enormes dudas y suspicacias acerca de las limitaciones y el marco normativo en que los algoritmos eran entrenados y usados por parte del gobierno comunista.
Sin embargo, este país está mostrando importantes avances para alinearse con la visión occidental de este reto. De hecho, tal y como analizamos en D+I - EL ESPAÑOL, la regulación en inteligencia artificial en China se acerca a un punto de inflexión. Después de pasar varios años explorando, debatiendo y promulgando regulaciones que abordan aplicaciones específicas de IA. Ahora el siguiente paso es redactar una ley nacional integral sobre esta tecnología.
Desde 2017, las autoridades en China han ido publicando diferentes normas, documentos y propuestas de regulación en torno a la inteligencia artificial. Muchas de estos textos se publicaron mucho antes del auge de ChatGPT, aunque es cierto que el ritmo se ha acelerado de forma exponencial desde el estallido de esta tecnología.
De cara al futuro, no hay plazos firmes para una ley nacional de IA, pero se podría publicar una versión preliminar a finales de 2023 o 2024, seguida de seis a 18 meses dedicados a revisar la ley.
A la espera de la ley europea de inteligencia artificial
Y, como tercer eslabón en esta aventura y el más notorio en estos momentos, encontramos a la Unión Europea. Bruselas está ultimando los detalles para aprobar la AI Act, una ley a escala comunitaria para regular el uso de la inteligencia artificial y evitar sus efectos más indeseados sobre la sociedad al mismo tiempo que se utiliza esta tecnología como motor económico y de amplificación de los valores europeos.
El nuevo reglamento -que entrará en vigor el 1 de enero de 2024, según anunció Carme Artigas, Secretaria de Estado de Digitalización e IA en los D+I Innovation Awards 2023- se basa en un enfoque basado en el riesgo, tanto para la seguridad como para los derechos fundamentales de los ciudadanos. En el peldaño más alto de la pirámide se encuentran el número muy limitado de aplicaciones de inteligencia artificial que según Bruselas plantean un "riesgo inadmisible" y que se prohibirán de forma terminante.
En esta lista negra, la Eurocámara ha pedido incluir la prohibición total de los sistemas de identificación biométrica remota, en tiempo real o no, en espacios públicos. En este punto, los eurodiputados se distancian de la posición común adoptada por los Gobiernos, que prevé toda una serie de excepciones por motivos de seguridad o aplicación de la ley. Será el principal escollo en las negociaciones finales.
También entran en esta lista negra los sistemas que usan técnicas subliminales para eludir la voluntad de los usuarios; los modelos que permitan la "puntuación social" de los ciudadanos; los sistemas de categorización biométrica que utilizan datos sensibles (género, raza, etnia, estado de ciudadanía, religión, orientación política); los sistemas policiales predictivos (basados en perfiles, ubicación o conducta delictiva pasada); los sistemas de reconocimiento de emociones o la recopilación indiscriminada de datos biométricos procedentes de redes sociales o cámaras de vigilancia para crear bases de datos de reconocimiento facial, como contaba nuestro corresponsal en Bruselas Juan Sanhermelando.
Estos sistemas de alto riesgo estarán sujetos a una serie de obligaciones estrictas antes de poder comercializarse. Entre ellos, procedimientos adecuados de evaluación y mitigación de riesgos, garantías de alta calidad de los datos empleados, registros de actividad, información clara y adecuada a los usuarios y medidas apropiadas de supervisión humana.