Hace un mes el World Economic Forum presentó los resultados de un estudio que dice básicamente dos cosas. La primera es que la inteligencia artificial (IA) puede conducirnos a nuevos conocimientos y acelerar el ritmo de la innovación.
El informe llega tarde porque con la presentación en sociedad de una IA como ChatGTP por parte de la empresa OpenAI esto es más que evidente. Desde su presentación, y en tiempo récord, OpenAI y Microsoft se han aliado, entre otros, para desarrollar Copilot. Es un ejemplo de la punta del iceberg porque desde entonces se han publicado centenares de nuevas aplicaciones y la adopción del ChatGTP ha sido viral con una curva exponencial a una velocidad de vértigo.
Elon Musk fue uno de los inversores iniciales en OpenAI, cuando era una organización sin ánimo de lucro para el uso educativo de la IA, ahora es uno de sus detractores. Las cosas han cambiado y ahora OpenAI trabaja como proveedor, la directora de tecnología de OpenAI, Mira Murati, ya no trabaja allí, y su CEO, Sam Altman, ha declarado que deberíamos estar asustados, sobre todo por en qué manos pueda caer esta tecnología y cómo se pueda usar.
Musk habló hace tiempo del momento en que las máquinas tomen conciencia como un punto de no retorno y los posibles riesgos para la humanidad. De hecho, Musk, junto con otras 1,100 personalidades, ha publicado una carta abierta donde reclama una pausa en el uso y entrenamiento de la IA para evaluar los aspectos éticos, el impacto y las normas para la utilización de esta tecnología, puesto que pueden plantear riesgos profundos para la sociedad y la humanidad y debe planificarse y administrarse con el cuidado y los recursos correspondientes.
En Europa hay una propuesta de regulación de la IA, el problema es que en este caso el orden de los factores importa y la velocidad también. La IA, como las redes sociales, es un arma de doble filo. No todo lo que aparece es real, ni aparece todo lo que es real. Si no comunicas, no existes; pero si te comunicas, te expones y entrenas los algoritmos.
Antes, la exposición de un comentario en un café tenía un recorrido de 'dimes y diretes' local, pero un comentario en una red social se globaliza. La IA no entiende lo que dicen, ni verifican, ni piensan. Y no sólo eso. Un algoritmo lo cataloga según su taxonomía con palabras escogidas, no se sabe por quién ni con qué criterio, ni finalidad.
Lo de 'el papel todo lo aguanta' ha pasado a 'ChatGTP todo lo aguanta'. Pero hay que ver si todo vale porque no hay nadie que verifique un contenido que, por otro lado, pertenece a empresas privadas que definen y ejecutan filtros, algoritmos y preferencias bajo su propio criterio empresarial (no ético) mediante IA. Si además esta IA empieza a decidir por sí misma, ¿para qué y cómo?
El informe del World Economic Forum también dice una segunda cosa y es que a medida que la IA se vuelve más inteligente, resulta más útil y distrae más, inhibiendo potencialmente la creatividad humana. Ya empiezan a haber denuncias sobre derechos de propiedad intelectual de contenidos generados por IA basados en datos previos o en decisiones tomadas con IA que sustituyen a profesionales.
Para conducir un coche, nos piden que conozcamos las reglas de circulación, pero en este mundo digital, nos lanzamos a navegar sin conocer las reglas cuando a todos deberían darnos un curso de ciudadanía digital y en este caso de IA. Es sumamente importante que estas reglas protejan nuestros datos, nuestra privacidad y nuestra libertad de expresión, pero también nuestra integridad física y digital. Aquí, y en este sentido y también en tiempo récord, unas 200 personas ocupadas y preocupadas por ello hemos constituido CIVICAI, una asociación para el uso cívico de la IA, es decir, para el bien de las personas.
Los expertos en IA hablan de good data, es decir, utilizar no muchos datos (big data) sino datos útiles. Hoy en día hay dos corrientes de pensamiento al respecto, la aplicación de la IA y la robótica de manera masiva. La primera es que las máquinas serán más inteligentes y acabarán pensando por nosotros, tipo Terminator o Musk. La segunda, la paradoja de Moravec considera que el pensamiento humano no se puede programar, aunque si las habilidades sensoriales y motoras y por ello humanos y máquinas trabajaremos juntos.
Sea con ojos humanos o robotizados, lo que es cierto es que en boca callada no entran moscas y sin reglas que nos protejan, a veces es mejor el silencio de un ciudadano digital. Como dice un amigo mío “Sin comentarios es un sabio comentario” o como dirían mis hijos, me pongo en modo silencio digital porque con la ética en IA hemos topado.
PD: En la era del humanismo tecnológico, cuidado con los tóxicos, troyanos y trolls y rodearos de SINERGENTES, que siempre suman aptitudes, equipo y valores.
*** Áurea Rodríguez es autora del libro 'Antes muerta que analógica' y experta en innovación y tecnología.