Reggie Townsend es, probablemente, una de las personas que más sepan sobre inteligencia artificial (IA) en el mundo. Townsend es, actualmente, director de SAS Data Ethics Practice (DEP), pero en su currículum atesora méritos tan notables como haber sido nombrado miembro del Comité Asesor Nacional de Inteligencia Artificial (NAIAC), el organismo que aconseja al presidente de Estados Unidos y a la Oficina Nacional de Inteligencia Artificial en este campo.
En una entrevista en exclusiva con D+I, el experto en IA se muestra contundente y afirma que la clave respecto a las normativas de este tecnología se basa en poner límites a su despliegue, pero no a su desarrollo, ya que, apunta, de lo contrario otros países podrían dar "un salto hacia adelante y obtener ventajas potencialmente insuperables".
En este sentido, señala que lo imprescindible a la hora de definir un reglamento alrededor de la inteligencia artificial pasa por evaluar los ya existentes en un esfuerzo por "evitar la duplicidad y el aumento de la complejidad legal". En su opinión, es necesario tener en cuenta dos conceptos claves: la coherencia y la claridad.
Por un lado, cree que el primero es necesario para garantizar que los proveedores de IA no tengan que hacer sus productos compatibles con normas diferentes y contradictorias. Por otro, el segundo "es fundamental" para garantizar que todos los participantes en el mercado conozcan sus obligaciones y riesgos, y estén facultados para cumplirlos y mitigarlos.
"El objetivo debe ser permitir la innovación y, al mismo tiempo, establecer las barreras que protejan a los ciudadanos, especialmente a los más vulnerables", resume.
La IA tiene el poder de transformar la economía mundial
En este sentido, el director de SAS Data Ethics Practice explica que la regulación beneficiará a las empresas que utilicen esta tecnología porque establece expectativas y reduce el riesgo. "Seguirá habiendo un amplio margen para la innovación, pero con unas directrices más claras", precisa.
Y es que, según afirma, la IA tiene el potencial "de transformar la economía mundial y la mano de obra". "Puede automatizar tareas rutinarias, mejorar la productividad y la eficiencia y liberar a los seres humanos para que realicen trabajos de mayor importancia'', ejemplifica.
Sin embargo, explica, existen riesgos que pueden surgir durante el diseño, el desarrollo, el despliegue o el uso de estos sistemas debido a la introducción de sesgos que pueden tener un impacto en individuos, comunidades o la sociedad en general. "Estas repercusiones son especialmente evidentes en el caso de las poblaciones vulnerables, que a menudo sufren las consecuencias de las decisiones tomadas", añade.
A la par, precisa que los problemas también se incrementan cuando se eliminan a los seres humanos de un proceso, especialmente cuando esto implica tomar decisiones que afectan al bienestar o a la situación legal de una persona. Ahí, señala," es fundamental que el uso de la IA esté estrechamente supervisado".
"Estamos en una época de desinformación desenfrenada en la que la gente ha descubierto cómo 'jugar con el sistema' para promocionar sus mensajes", explica. "Afortunadamente, algunas de las mayores plataformas de información están examinando sus algoritmos y realizando los cambios necesarios".
La ética "es tan esencial" como los datos en la IA
En este contexto, Townsend explica que la ética juega un papel fundamental a la hora de definir una legislación en torno a la inteligencia artificial y, de hecho, afirma que "es tan esencial" como lo son los datos. Al final, señala, este concepto permite que se hagan "las preguntas adecuadas", entre ellas: "¿Mantenemos a los humanos en el centro del proceso? ¿Hay un grupo diverso de mentes en la mesa? ¿A quién se ayuda y a quién se puede perjudicar?"
En definitiva, el experto apunta que obliga a replantearse si solo por poder hacer algo se debe llevar a cabo.
"Las consideraciones éticas no sólo surgen cuando se despliega este tipo de tecnología", señala. "Ese deber de cuidado debe estar presente desde el momento en que se concibe una idea, pasando por el proceso de I+D, el despliegue y luego el seguimiento de los modelos y los resultados".
Estados Unidos, lejos de la UE en materia legislativa de la IA
El caso de Estados Unidos en materia de regulación de IA es uno de los que Townsend conoce mejor, en parte gracias a su posición como miembro del Comité Asesor Nacional de Inteligencia Artificial, aunque, según explica, lo cierto es que este país "no ha avanzado mucho" en el proceso legislativo en este sector.
"En Estados Unidos no hay muchas leyes que la regulen (esta tecnología)", precisa. Sin embargo, sí que hay algunos estados o ciudades que han avanzado en este sentido y han aprobado leyes muy específicas sobre casos de uso concretos como el reconocimiento facial.
El experto señala que la labor más visible en esta materia a nivel federal es la Iniciativa Nacional de IA, que proporciona un marco general para reforzar y coordinar la investigación y el desarrollo de esta tecnología entre todo tipo de organizaciones e instituciones, y el NIST (National Institute of Standards and Technology), que ha comenzado a trabajar en un marco de gestión de riesgos bastante avanzado.
"No podemos responder a la pregunta de qué ocurrirá en el futuro, pero el año pasado se presentaron propuestas muy interesantes a nivel federal, como la Ley de Responsabilidad Algorítmica, aunque no se le ha dado mucha prioridad en el Congreso", añade.
Mientras EEUU todavía avanza de forma lenta en la supervisión de este campo, la Unión Europea, por su parte, ya ha anunciado su propuesta de reglamento (EU IA Act) como parte de sus esfuerzos por regular este sector que, de salir adelante, podría sentar precedentes a nivel global.
Townsend señala que "EEUU y la UE tienen valores similares" por lo que puede que haya "similitudes en sus planteamientos", aunque avanza que "es difícil predecir" que se repliquen las legislaciones impulsadas por Europa en la región americana.
"Quizá el ejemplo más claro (de similitud entre ambas potencias) sea la Algorithmic Accountability Act, que ha propuesto un modelo diferente que tiene algunos aspectos en común con la propuesta de Ley de IA en Europa", precisa. "La Comisión Federal de Comercio de EEUU también está iniciando una revisión para determinar si es necesaria la regulación, pero será un proceso largo y difícil", añade.
No todo depende de la regulación
No obstante, Townsend precisa que no todos los riesgos asociados a la IA se resuelven mediante la regulación, sino que es imprescindible abordarlos desde un enfoque global que incluya a los humanos, los procesos y la tecnología.
Según explica, las leyes proporcionarán el marco y las barreras para inculcar un uso sensato, pero para avanzar en el compromiso y la coherencia, apunta, "será necesaria una amplia cooperación entre desarrolladores y usuarios" de esas herramientas. "Se trata de educar a organizaciones y a las personas sobre las prácticas responsables", afirma.
El experto en IA señala que muchos de los resultados negativos surgen de la falta de conocimiento de los riesgos que implica. Así, si las personas que se relacionan con esta herramienta se plantean preguntas relacionadas con la ética, "los daños involuntarios disminuyen drásticamente".
Esto, explica, es uno de los objetivos que tiene entre sus obligaciones dentro de SAS, donde, a través de Data Ethics Practice (DEP), busca capacitar a los empleados de la tecnológica "para construir sistemas basados en datos que promuevan el bienestar humano, la agencia y la equidad".
A futuro, Townsend señala que lograr una IA responsable requerirá de un gran cambio cultural que se producirá con el tiempo. Este, apunta, dependerá de una normativa inteligente, un "compromiso sincero" por parte de los usuarios y creadores de esta tecnología y plataformas fiables "que infundan confianza en las estrategias de IA de una organización".