Cuando comenzaron a surgir modelos de inteligencia artificial capaces de generar texto escrito como si fuera hecho por un humano en España, muchas voces profesionales alertaron del peligro que esto supone en muchos aspectos. No solo referente a la pérdida de trabajos que dependen únicamente de la escritura, sino sobre la desinformación que esto puede ocasionar. OpenAI, la responsable de algunos de estos modelos como ChatGPT, ha lanzado un clasificador de textos que distingue entre textos escritos por un humano y por una máquina.
Este clasificador, que no tiene un nombre como tal, ha sido entrenado para poder detectar texto escrito por una IA y texto escrito por un humano proveniente de una "variedad de proveedores". Un sistema que, como admiten directamente desde la compañía, no es totalmente fiable y que es más un prototipo para crear una herramienta que evite, por ejemplo, campañas automatizadas de desinformación o el uso de textos con IA en trabajos académicos.
Según OpenAI, este clasificador puede identificar hasta el 26% de un texto escrito por IA de forma correcta, calificándolos como "probablemente escrito por una IA". En el caso de clasificar un texto escrito por humanos, el porcentaje de etiquetado erróneo es del 9% en lo que a falsos positivos se refiere.
Un clasificador de textos
Este clasificador es un modelo de lenguaje ajustado en un "conjunto de datos de pares de texto escrito por humanos y texto escrito por IA sobre el mismo tema". Para su entrenamiento, OpenAI recopiló datos de fuentes escritas de fuentes que "creen" que están escritas por humanos y posteriormente dividiendo cada texto en un aviso y una respuesta.
En dichas indicaciones, "generamos respuestas de una variedad de diferentes modelos de lenguaje entrenados por nosotros y por otras organizaciones". OpenAI detalla que para su app web, han ajustado "el umbral de confianza para mantener la tasa de falsos positivos muy baja". Es decir, que solo marcan el texto como escrito por una IA si hay un alto porcentaje de confianza en los resultados.
Pero ¿por qué se ha desarrollado este sistema? Lo cierto es que todo esto nace del uso de ChatGPT y el temor a que este sistema se aplique en entornos académicos y periodísticos. OpenAI reconoce que es importante "reconocer los límites y los impactos de los clasificadores de texto generados por IA en las aulas", y esperan que tanto este clasificador como las herramientas de clasificación asociadas tengan un impacto en el periodismo de investigación contra la desinformación.
Por otro lado, la compañía de Elon Musk explica que están trabajando con educadores y trabajadores de los Estados Unidos para aprender "lo que ven en sus aulas y analizar las capacidades y limitaciones de ChatGPT", con la intención de implementar modelos de lenguaje a gran escala "de manera segura" y en "contacto directo con las comunidades afectadas". Actualmente el clasificador es accesible para todos, y es posible probarlo desde su web.