Mientras la Unión Europea se acerca a las negociaciones finales para aprobar el primer reglamento de inteligencia artificial, bajo la presidencia de España del Consejo de la Unión Europea, a nivel internacional se plantean posibles organismos o acuerdos para controlar el desarrollo de esta tecnología. António Guterres, el secretario general de la ONU ha hablado este lunes de la posibilidad de crear una agencia internacional que supervise el desarrollo y uso de herramientas como ChatGPT ante los riesgos que sus propios creadores han manifestado, advertencias que para Guterres hay que tomar muy en serio.
En una conferencia de prensa este lunes 12 de junio, António Guterres, ha mostrado su apoyo a la formación de una agencia internacional que supervise el desarrollo de la inteligencia artificial (IA). Un organismo con un papel similar al que ha tenido en el conflicto nuclear el organismo internacional de Energía Atómica (OIEA). "Depende de iniciativas de los Estados miembros, pero yo sería favorable a la idea de que podamos contar con una agencia de inteligencia artificial, digamos inspirada por lo que el Organismo Internacional de Energía Atómica es hoy", así lo ha indicado el secretario general de la ONU.
"Las campanas de alarma sobre la última forma de inteligencia artificial, la IA generativa, son ensordecedoras. Y son más fuertes por parte de los desarrolladores que la diseñaron", ha dicho Guterres a los periodistas. "Debemos tomar esas advertencias en serio". En los últimos meses el armamento nuclear y los pactos alrededor del mismo han servido como comparativa en numerosas ocasiones para poner de relieve el riesgo que supone para la humanidad el desarrollo de la inteligencia artificial sin control ni colaboración internacional. Diferentes manifiestos por parte de expertos en la materia, así como las diferentes conferencias que ha dado el CEO de OpenAI y padre de ChatGPT, Sam Altman, para pedir una regulación internacional, han utilizado este símil.
Control internacional
Tal y como el propio secretario ha recalcado, se ha superado recientemente un umbral digital con el uso de inteligencias artificiales generativas como ChatGPT que han demostrado que pueden tener un gran impacto en la sociedad, pero el cual aún no está claro en qué medida será positivo. La dificultad para regular la inteligencia artificial es múltiple, no solo por su complejidad técnica, si no también por ser una tecnología que abarca ámbitos muy diversos y cuyos impactos aún no se han dado ni estudiado por completo.
La Unión Europea lleva años trabajando en un posible reglamento de inteligencia artificial, cuando los modelos de lenguaje natural que ejecutan herramientas como ChatGPT aún no habían protagonizado la revolución reciente que les ha hecho mundialmente conocidos y que ha despertado de nuevo el debate sobre la necesaria regulación de esta tecnología. Por otro lado, los países del G7, Alemania, Canadá, Estados Unidos, Francia, Italia y Reino Unido con Japón al frente han confirmado en el último mes que la IA es un punto fundamental en su agenda para la cooperación internacional y que las políticas y regulaciones de IA deben estar "centradas en el ser humano".
Las Naciones Unidas han adelantado su intención de establecer en los próximos días un grupo de asesores científicos para trabajar en el ámbito de la IA, dentro del cual está prevista la realización de una cumbre este año en Reino Unido y más adelante, está previsto crear un órgano asesor sobre esta tecnología. Según la prensa británica, el primer ministro del Reino Unido, Rishi Sunak, está promoviendo la creación de esta agencia de la ONU con la intención de establecer su sede en Londres.
En este caso la comparativa con la OIEA, según Guterres, se debe a que se trata de una organización con "una base de conocimiento muy sólida" y cuenta con funciones reguladoras. "Creo que este modelo podría ser muy interesante", dijo. La OIEA, se inauguró en 1957 con sede en Viena con el objetivo de promover y controlar la energía nuclear dentro del marco de las Naciones Unidas.
Pactos entre gobiernos y empresas
Para Guterres los objetivos de esta nueva agencia serían asegurar el diseño y uso de esta tecnología de forma transparente, seguro y bajo el control de los humanos a los que poder pedir cuentas, según informa EFE. Para ello propone facilitar guías, junto con normas internacionales y marcos regulatorios nacionales, así como estándares técnicos.
Esto se conseguiría, en parte, poniendo en marcha un trabajo de investigación en colaboración con las empresas que están desarrollando la tecnología para asegurar que sus sistemas son seguros y cumplen con los valores humanos. También ha pedido que los Gobiernos pacten con la industria las directrices para desarrollar esta tecnología en acuerdos donde se vea reforzada la transparencia y se creen equipos que supervisen la ética del proyecto y el respeto por los derechos humanos.
En última instancia, aboga por prohibir aquellas aplicaciones cuyo impacto no pueda justificarse bajo la ley internacional de derechos humanos, pero no ha entrado en ejemplos. La UE sí contempla en la regulación que se está elaborando una lista de casos de uso prohibidos que abordan actividades como el social scoring, aquella por la que la IA se usa para clasificar a las personas en función de su comportamiento social, posición socioeconómica y otras características personales.
No obstante, esta lista de herramientas prohibidas y las denominadas de alto riesgo han creado tensiones con las empresas como OpenAI, cuyo CEO, Sam Altman, llegó a amenazar en un primer momento con abandonar la UE si no podrían cumplir con la futura normativa europea por "estar sobrerregulando". Altman días después aseguró que no tenían planes de irse de los países miembro.