La inteligencia artificial generativa, su contexto tecnológico y sus consecuencias en ámbitos como la ética o las industrias creativas centraron este miércoles por la tarde una interesante jornada de debate organizada por D+I – EL ESPAÑOL en colaboración con Valencia Activa -entidad dependiente del Ayuntamiento de Valencia- titulada 'Los valores y los límites de la IA generativa'.
Como no podía ser de otra manera, los aspectos regulatorios, íntimamente ligados a la ética, fue uno de los temas más comentados durante la sesión, con opiniones coincidentes por parte de los expertos que protagonizaron la primera de las mesas redondas.
Uno de los más gráficos al explicar el contexto actual fue Patrici Calvo, profesor de la Fundación Valgrai, quien relató que "el problema que tenemos es que hoy en día existe una aceleración algorítmica que produce una aceleración tecnológica que genera una aceleración de la sociedad, que, a su vez, genera desigualdades".
[Inteligencia artificial: la obligada revisión histórica]
En este sentido, apeló a que "hay que aplicar diferentes mecanismos para evitar que ese vacío legal produzca que haya empresas o gobiernos que puedan hacer lo que les dé la gana".
Calvo puso sobre la mesa el "problema" que supone que "cada potencia tenga una política de los datos diferente".
Por su parte, Juan Pablo Peñarrubia, representante del Colegio de Ingeniería Informática de la Comunidad Valenciana, aportó una interesante reflexión que explica por qué existe la voluntad regulatoria en torno a la IA.
"Llevamos muchas décadas de selva de no regulación que se ha cobrado muchas facturas. La preocupación ética y regulatoria de la IA está haciendo de detonador de algo de lo que ya estamos sufriendo las consecuencias. Y hemos decidido que lo inaceptable no lo podemos aceptar. Nos hemos dado cuenta de que estamos jugando con los cimientos que sustentan nuestra sociedad: libertad, autonomía…", argumentó.
En cualquier caso, también el comportamiento individual más allá de la regulación es importante según opinaron los ponentes. De hecho, Karina Virrueta, Head of Innovation Startup Valencia, recalcó que "la tecnología siempre suma y la responsabilidad es de quien la usa, tanto a nivel empresarial como a nivel individual".
Dicho de otro modo, la clave de empresas y del individuo es "mediar entre la pregunta que se hace la ética –'qué debo hacer'- y la que se hace la tecnología –'qué puedo hacer'-".
Como explicó Carlos López Olano, profesor investigador de Teoría de los Lenguajes y Ciencias de la Comunicación de la Universidad de Valencia, "se trata no sólo de tener buena voluntad de empresas y sus contextos, sino que se trata también de crear una ciudadanía crítica".
La regulación también está de actualidad al otro lado del charco. Desde EEUU, Jesús Salas, CEO de la compañía norteamericana Coderslink, reveló, a raíz de una reunión mantenida con altos cargos de Google, que "algo que compartían allí es la necesidad de tener reglas sobre la IA, la voluntad de no lanzar una solución sin saber posibles efectos secundarios".
Y todo ello, reconoció, en un contexto en el que "la industria siempre quiere avanzar más rápido".
Una frase similar, pero referida a la aplicación práctica de la IA, fue la que pronunció Ana Martí, del Institute of Design and Manufacturing (IDF) and Department of Audiovisual Communication, Documentation and Art History (DCADHA) de la Universidad Politécnica de Valencia.
Martí indicó que "la empresa van más rápido que los investigadores" en aplicación de tecnología. Sobre la situación actual, cree que "estamos en el año cero a nivel social".
En sectores como la publicidad, la irrupción de la IA, aunque pueda parecer lo contrario, ha sido contenida. Al menos, según Ana Niño, copresidenta de la Asociación de Agencias de Publicidad de la Comunidad Valenciana.
"Los humanos son necesarios para entrenar cualquier modelo. La pregunta es si en un futuro se nos pagará por proporcionar datos a la IA".
"Ha cambiado, pero no tanto, siendo realistas. Lo que sí ha pasado es que este año ha vuelto a estimularnos. Es como si nos hubieran puesto esteroides. De repente, hacer determinadas cosas es muy fácil. Pero siempre tenemos las dudas de si estamos saliendo de copas con el lobo, por si nos quitan el trabajo en un futuro", reflexionó.
El eterno miedo a que nos quiten el trabajo, fue un tema recurrente durante la tarde. Y el periodismo, con una ola de fake news que en ocasiones parece incontrolable, sabe de lo que habla.
David Blay, miembro de la ejecutiva de la Unió de Periodistes, argumentó que "tanto en el periodismo que consiste en contar cosas que alguien no quiere que se sepan, como en el de divulgación siempre van a hacer falta humanos; será difícil que una IA destape un Watergate".
Blay sí matizó que "la IA sí que puede ayudar a generar contenidos para redes sociales". Ahora bien, "en este caso, el problema es si toda la gente tiene la capacidad de saber si te la están colando o no. Ahí vamos a tener una pelea".
"En periodismo, la IA sí que puede ayudar a generar contenidos para redes. En este caso, el problema es si toda la gente tiene la capacidad de saber si se la están colando o no".
¿Y en las aulas? "La IA puede sustituir a los profesores, pero sólo a los malos", remarcó José Martínez Sáez, director del departamento de Comunicación Audiovisual y Publicidad de la universidad CEU-Cardenal Herrera.
Eso sí, "en educación vamos por detrás porque esto va a una velocidad tremenda". Tanto, que incluso los alumnos y alumnas pueden utilizar herramientas de IA para buscar información o incluso para copiar trabajos.
Ante ello, Sáez bromeó, ante varios estudiantes que se encontraban entre el público, sobre que "ChatGPT es muy complaciente". Por eso, pidió, "hace falta espíritu crítico".
En definitiva, como dijo en su intervención Jesús Salas, CEO de Coderslink, "la IA va a cambiar la manera en la que vivimos y va a evolucionar los sectores".
Algunos de estos cambios se abordaron en la última de las mesas redondas, en la que participaron empresas emergentes que tienen a la IA como principal aliada. Todos ellos hablaron del factor humano.
Pangeanic es una empresa de traducción que dio el paso a crear modelos de procesamiento de lenguaje natural con IA. En opinión de su CEO, Manuel Herranz, enfatizó que "los humanos están en todo el proceso; para entrenar cualquier modelo se necesita un grupo de humanos. La pregunta es si en el futuro se nos pagará por proporcionar datos a estas IA".
Jon Enríquez Arco, CEO de Vidext, empresa dedicada a la generación de guiones para contenidos audiovisuales, dejó claro, en la misma línea, que "el humano, hasta dentro de un tiempo, no va a quitarse de en medio, porque es algo fundamental en todo".
O, como añadió el COO de Digit-S, Joaquín Luque, "siempre vas a necesitar a alguien que conceptualice una idea". Esta empresa se dedica a generar software para el tratamiento de imagen y tratamiento de color para la industria.
Por último, Gaizka San Vicente, CTO de la compañía Olocip, dedicada a generar modelos de IA aplicados al mundo del deporte, sentenció con una frase también muy gráfica: "La inteligencia artificial y la inteligencia humana sumadas tienen que superar a cada una por separado".