El ministro para la Transformación Digital y de Función Pública, Óscar López, durante una rueda de prensa posterior a la reunión del Consejo de Ministros.

El ministro para la Transformación Digital y de Función Pública, Óscar López, durante una rueda de prensa posterior a la reunión del Consejo de Ministros. Carlos Luján Europa Press

España

El Gobierno aterriza la ley europea de IA con un anteproyecto que reparte su supervisión entre cuatro entes

La AESIA tendrá competencias de gobernanza en inteligencia artificial, pero compartirá esa responsabilidad con la AEPD, el Consejo General del Poder Judicial y la Junta Electoral Central.

Más información: María González Veracruz (SEDIA): "Estamos demostrando que no hay un verdadero dilema entre protección e innovación"

Publicada
Actualizada

El Gobierno ha dado luz verde este martes el Anteproyecto de Ley para el uso ético, inclusivo y beneficioso de la inteligencia artificial. Una norma "pionera a escala nacional e internacional", con la que el Ejecutivo busca establecer una serie de reglas armonizadas en la implementación de esta tecnología, además de establecer el régimen de gobernanza y sancionador en esta materia, que ya contemplaba la AI Act aprobada por Bruselas el pasado año.

Óscar López, ministro de Transformación Digital y para la Función Pública, ha explicado en rueda de prensa que "con esta norma se completa el gran escudo europeo de derechos digitales, que protege a los ciudadanos en el contexto actual, junto a la DSA o la regulación de los medios".

El ministro ha aludido como razón de esta norma la ingente oportunidad de negocio que supone la implementación de esta tecnología en nuestro tejido productivo: "Según estudios independientes, el PIB en España podría crecer un 8% mediante la aplicación de la IA en los próximos diez años, el equivalente a 100.000 millones de euros".

Pero, entiende Óscar López, que "la inteligencia artificial es una herramienta muy poderosa, pero puede tener buenos y malos usos. Con este anteproyecto identificamos riesgos y casos de prácticas prohibidas, como técnicas subliminales o el reconocimiento biométrico en espacios públicos, además de asegurar el etiquetado de imágenes o vídeos deepfakes".

Las autoridades encargadas de velar por este cumplimiento serán muy variadas: para los asuntos relacionados con biometría, la responsabilidad recaerá en la Agencia Española de Protección de Datos, mientras que el Consejo General del Poder Judicial hará lo propio con los casos de uso en justicia o la Junta Electoral Central para lo concerniente al aterrizaje de la IA en próximos comicios. Para el resto de aplicaciones, será la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA, con sede en A Coruña) la que tendrá plenos poderes de gobernanza.

Eso sin obviar otros nichos en los que la AESIA tendrá que compartir su poder, como el de los sistemas de clasificación de solvencia financiera (que recaen bajo la mira del Banco de España), de IA aplicada a mercados de capitales (CNMC) o a seguros (Dirección General de Seguros).

El ministro ha sacado pecho, finalmente, de que "este anteproyecto de ley adapta nuestra legislación al Reglamento Europeo de IA y somos el segundo país de Europa en hacer una ley nacional que lo aplique".

Una ley ya en vigor (en algunos aspectos)

Recordemos que la ley europea de IA (AI Act, en inglés) ya está en vigor desde veinte días tras su publicación oficial el pasado 12 de julio de 2024. Sin embargo, esto solo abrió la veda para un nuevo calendario que termina en 2026, cuando será de obligado cumplimiento en su totalidad.

Hasta entonces, la legislación contempla una serie de fechas clave en la que irán aplicándose diferentes aspectos de la misma, el primero de los cuales, relativo a las prácticas prohibidas, se cumplió el pasado domingo 2 de febrero, seis meses después de la consolidación de la ley.

En concreto, la regulación europea recoge las prohibiciones en el Capítulo II de la norma, donde restringe la comercialización, puesta en servicio o el uso de un sistema de IA que utilice técnicas engañosas o que puedan manipular el comportamiento de una persona o su toma de decisiones; que explote las vulnerabilidades de edad, discapacidad o situación social o económica; o la evaluación de personas en función de su comportamiento social o de sus características a través de puntuación que pueda derivar en un trato perjudicial.

También, se prohíben sistemas de IA para predecir el riesgo de que una persona cometa un delito basándose únicamente en su perfil o características; para ampliar bases de datos de reconocimiento facial mediante la extracción no selectiva de imágenes faciales de internet o de grabaciones de CCTV; los enfocados en categorizar individualmente a personas basándose en datos biométricos; para inferir emociones en los ámbitos laboral o educativo; o los sistemas de identificación biométrica a distancia "en tiempo real" en espacios de acceso público con fines policiales, salvo excepciones, entre otros.

Por tanto, las prácticas prohibidas recogidas en la ley deberán respetarse ya mismo, a lo que se sumarán los códigos de buenas prácticas, que entrarán en vigor dentro de tres meses, así como las normas sobre la IA de uso general, incluida la gobernanza, que lo harán en seis meses y las obligaciones para los sistemas considerados de "alto riesgo", que lo harán en 30 meses, es decir, en agosto de 2026.