Los avances en inteligencia artificial (IA) se están convirtiendo en toda una revolución tecnológica, con herramientas como ChatGPT que hasta permiten organizar una Semana Santa en España con procesiones inventadas. Sin embargo, su rápida evolución hace que cada vez sea más difícil distinguir si un contenido ha sido generado por un humano o una máquina, como ocurrió con las virales imágenes del papa Francisco. Para evitar posibles engaños, desde Bélgica piden que cualquier elemento generado por una IA lleve una advertencia específica.
Tras la advertencia de Alemania de bloquear ChatGPT y la prohibición de su uso en Italia, al considerar que no cumple la normativa europea de protección de datos; la última medida sobre inteligencia artificial viene directamente desde Bruselas, donde se busca que todo el contenido que haya sido generado por una inteligencia artificial esté debidamente advertido de forma obligatoria; como con etiquetas.
"En todo lo que sea generado por inteligencias artificiales, ya sean textos -como ChatGPT- o imágenes, habrá una obligación de notificar que ha sido creado por una inteligencia artificial", ha informado Thierry Breton, comisario de Mercado Interior, a la emisora Franceinfo. Una medida que se ha ideado con el fin de asegurarse de que no exista opción para confundir a los usuarios.
Contenido marcado
Hace aproximadamente dos años, el Ejecutivo europeo lanzó una propuesta de reglamento con la que buscaba "proporcionar a los desarrolladores, implementadores y usuarios de IA requisitos y obligaciones claros en relación con los usos específicos de la inteligencia artificial".
Una legislación que se votará durante el mes de abril en el Parlamento Europeo; y el propio comisario francés ha subrayado que tiene esperanzas en que se apruebe para avanzar con la normativa y que ésta pueda ser adoptada, entrando en vigor en el año 2025, como señala El País.
Desde hace tiempo Europa está preocupada por los rápidos avances de la inteligencia artificial, de ahí que estén trabajando en una legislación de este tipo. Una propuesta que prevé cuatro tipos de "riesgos": el que resulta "inaceptable" -las que permiten social scoring-, el de "alto riesgo" -las tecnologías sujetas a determinados requisitos legales-, "IA con obligaciones específicas de transparencia" -en la que se incluye bots como ChatGPT- y aquellos de riesgo "mínimo o inexistente" que serán permitidos sin restricción alguna.
En el caso de la propuesta de Thierry Breton, la necesidad de advertir de forma clara que un contenido ha sido generado por una inteligencia artificial se aplica únicamente en las categorías de "alto riesgo" e "IA con obligaciones específicas de transparencia".
[Ion, la inteligencia artificial que entra por primera vez como consejera en un Gobierno]
Por tanto, aquellas tecnologías que entren en esas dos categorías deberán notificar e indicar a los usuarios que están interactuando con una inteligencia artificial, a no ser que sea algo que se note de forma clara y evidente. Incluso deben hacerlo si se aplican sistemas de reconocimiento emocional o categorización biométrica.
No sólo eso, sino que los deep fakes también deberán contar con una de estas equitetas para evitar confusiones; algo que ya ha sucedido con varias imágenes creadas por una inteligencia artificial que se han vuelto muy virales y que parecen realistas, como aquella que mostraba a Donald Trump siendo arrestado.
También te puede interesar...
- El rompedor invento para no tener que aprender otro idioma gracias a la inteligencia artificial
- Este es el coche que tienen los políticos más importantes, según la inteligencia artificial
- Esta inteligencia artificial te muestra cómo hubieses sido en diferentes periodos de la historia
- Esta inteligencia artificial puede leer tu mente y descifrar tus sueños con una simple resonancia