"Apagad la IA o moriremos todos", avisó hace unos meses uno de los mayores expertos en la materia, Eliezer Yudkowski. Y es que desde que se permitió el acceso a ChatGPT y otros modelos y aplicaciones de inteligencia artificial, las advertencias apocalípticas no han dejado de sucederse. Una carta firmada por el propio Sam Altman, CEO de OpenAI, y personalidades como Elon Musk, alertaba sobre las peores consecuencias de esta tecnología, que también puede cobrarse millones de empleos en todo el mundo.
Los llamamientos urgentes a la regulación por parte de las administraciones son constantes y también los acuerdos como el que acaba de anunciar la Casa Blanca. En él, siete de las empresas más punteras en el desarrollo de esta tecnología, como Google, Amazon, Microsoft, Meta y OpenAI (además de Inflection y Anthropic), se comprometen voluntariamente a permitir que expertos independientes analicen y pongan a prueba sus sistemas antes de que puedan ser utilizados por los usuarios. Además, deberán compartir información sobre su seguridad y funcionamiento con el gobierno estadounidense e instituciones académicas.
Otro de los compromisos a los que han llegado los gigantes tecnológicos que despuntan en este turbulento mercado de la inteligencia artificial es el desarrollo de soluciones para que el público pueda saber cuándo un texto, un audio, una imagen o un vídeo han sido creados por inteligencia artificial. De hecho, es algo que ya ha puesto en marcha compañías como OpenAI, que en enero lanzó un detector propio para saber si un texto está escrito por una IA o un humano, aunque sus resultados dejan todavía mucho que desear.
Legislación mundial
La firma de este acuerdo puede ser un paso decisivo hacia la regulación de la IA, algo que también se está produciendo en España y Europa. El pleno de la Eurocámara aprobó el pasado 14 de juno un reglamento pionero a nivel mundial en ese sentido, aunque los creadores de ChatGPT presionaron para suavizarlo. Por su parte, la ONU ha pedido controlar la inteligencia artificial en una agencia mundial igual que la energía nuclear.
Algunos avances ya se están produciendo. En las oficinas de OpenAI trabaja desde hace meses un equipo de profesionales externos que se encargó de evaluar los posibles riesgos de GPT-4, la última versión de su software. Mientras, otras empresas como Google trabajan en desarrollar algo parecido a una 'marca de agua'. Esta solución permitiría identificar contenidos creados con inteligencia artificial generativa, pero de momento los usuarios deben fijarse en otras claves para identificar las fotos falsas que se han hecho con inteligencia artificial.
Más allá de las acciones de cada una de las compañías, un alto funcionario de la Casa Blanca, que habló con The Washington Post bajo la condición de anonimato, aseguró que el acuerdo servirá para implantar estándares más exigentes en el sector: "esto va a llevar al límite lo que las empresas están haciendo y a elevar los estándares de seguridad y confianza en la IA".
Biden y su gobierno, para los que esta cuestión es una prioridad nacional, no se conforman con estos primeros pasos hacia la regulación. De momento, ya tienen en marcha la elaboración de una orden ejecutiva y una legislación bipartidista que se encargará de regular la IA en territorio estadounidense.
Este anuncio ha tenido lugar después de varias reuniones entre el presidente Biden y la vicepresidenta Kamala Harris con altos ejecutivos del sector tecnológico, además de investigadores, defensores de los consumidores y grupos de defensa de las libertades civiles. Hasta que llegue la ansiada regulación, varias agencias gubernamentales estudian distintas formas de utilizar leyes ya aprobadas para restringir determinados usos de la inteligencia artificial.