La desinformación es ya una epidemia en las redes sociales, se difunde con facilidad y rapidez siendo muy difícil su identificación. Este fenómeno se estaría intensificando con la llegada de la inteligencia artificial generativa. Herramientas como ChatGPT que miles de personas usan en España, serviría también para potenciar campañas falsas con las que influir en la opinión de la población sobre conflictos armados o procesos electorales como las próximas elecciones europeas.
OpenAI, empresa dirigida por Sam Altman y responsable de ChatGPT, ha anunciado la eliminación de una serie de cuentas en su chatbot que utilizaban la IA generativa para impulsar campañas de desinformación en redes sociales. Los grupos tras estas cuentas tendrían su origen en Rusia, China, Israel e Irán y se enfocaban en crear contenido para Estados Unidos o Canadá entre otros países.
Los grupos que OpenAI ha denunciado públicamente, utilizaron su tecnología para escribir publicaciones, traducirlas a varios idiomas y crear software que les ayudó a publicar automáticamente en las redes sociales. Por ejemplo, Spamouflage, un grupo supuestamente originario de China, utilizó ChatGPT para generar publicaciones en chino, coreano, japonés e inglés.
En diferentes redes sociales
Los grupos detectados proceden tanto de China, como de otros países. Bad Grammar, un grupo ruso que no se conocía hasta ahora, habría publicado sus textos generados por IA en la aplicación de mensajería Telegram. Bad Grammar le pidió a ChatGPT escribir en ruso e inglés argumentos en contra de que Estados Unidos apoye a Ucrania, según el informe.
También se menciona otra operación rusa llamada Doppelganger que traducía y modificaba artículos y titulares en inglés, francés, alemán, italiano y polaco para difundirlos en varias redes sociales. También utilizaba la IA para traducir artículos el grupo iraní Unión Internacional de Medios Virtuales.
En el mismo sentido, OpenAI denuncia que una empresa israelí llamada Stoic utilizó sus servicios para generar publicaciones pro-israelíes sobre la guerra de Gaza y dirigirlas a personas en Canadá, Estados Unidos e Israel.
La empresa de Sam Altman no es la única en informar de este grupo, Meta, matriz de Facebook e Instagram, también dio a conocer el trabajo de Stoic este miércoles. Meta actuó después de que el Laboratorio de Investigación Forense Digital del Atlantic Council hiciera pública la actividad de este grupo en la red social X, de Elon Musk.
La compañía de Mark Zuckerberg asegura haber eliminado 510 cuentas de Facebook y 32 de Instagram utilizadas por este grupo. Algunas de las cuentas fueron pirateadas, mientras que otras eran de personas ficticias y se usaron para comentar publicaciones de otras personas y medios de comunicaciones.
Se hacían pasar por estudiantes universitarios estadounidenses proisraelíes y afroamericanos con mensajes de apoyo al ejército israelí. Incuso Meta denuncian que algunos mensajes advertían a los canadienses que el "Islam radical" amenazaba los valores liberales en el país.
Sin repercusión
Sin embargo, Facebook aclara que esta campaña solo consiguió 26.000 seguidores legítimos, algunos de los mensajes redactados por la IA resultaron extraños o fuera de contexto para los usuarios reales de la plataforma de Meta.
Ben Nimmo, líder del equipo de investigaciones e inteligencia de OpenAI, asegura que las campañas no han tenido mucho éxito, pues las redes sociales a las que estaban asociados tenían solo un puñado de seguidores. Sin embargo, estos perfiles llevaban años activos.
Recurrir a la inteligencia artificial generativa ha repercutido en la calidad y cantidad de los contenidos que estas redes publican, según informan desde OpenAI: "Los hemos visto generar texto en un volumen mayor y con menos errores de los que estas operaciones han manejado tradicionalmente", dijo Nimmo ante periodistas internacionales. Esta nueva herramienta supone, en palabras de este investigador, que "campañas de desinformación que durante años no tuvieron repercusión, estallen repentinamente si nadie las vigila".
Por su parte, OpenAI, descarta que este mal uso de la IA pueda influir en su propia tecnología. Desde el surgimiento público de la IA generativa el año pasado, se ha sugerido la posibilidad de que los chatbots actúen también como agentes de desinformación y traten de convencer a un usuario de una opinión no imparcial, de la misma manera que sí se ha demostrado sufren alucinaciones y ofrecen datos falsos. Incluso que se entrenen con datos falsos o información sesgada. OpenAI no encontró ninguno de esos usos más sofisticados de la IA, pero sin descartar que no pueda ocurrir en el futuro.