OpenAI se pone serio: bloquea a desarrolladores que estaban usando ChatGPT con fines políticos
Tras incluir la medida en su política de uso, la empresa ha actuado contra los primeros en usar su IA en campaña electoral.
22 enero, 2024 10:49El año comenzaba con el lanzamiento de la tienda oficial de ChatGPT, un espacio para que cualquiera encuentre aplicaciones con chatbots personalizados creados por desarrolladores de una amplia comunidad. Como primera consecuencia, OpenAI se ha visto obligado a prohibir su uso en política. Una medida que no ha tardado en ser necesaria, una semana después ha tenido que cerrar un bot que estaba imitando a un candidato demócrata a la presidencia de los Estados Unidos en beneficio de su campaña electoral.
Tras la popularización de la inteligencia artificial en 2023, el nuevo año se plantea como el momento para que todo el mundo tenga su propia IA enfocada a todo tipo de tareas. Si puede hacerse pasar por Cervantes o Rosalía, era de esperar que no tardase en llegar a la política más pura. ChatGPT estaba sirviendo de medio de promoción para la campaña electoral del candidato Dean Phillips, según informa The Washington Post.
Aunque OpenAI promueve que su tecnología llegue a todos los puntos del planeta, no ha visto con buenos ojos este uso y, tras prohibirlo, ha tomado medidas al respecto en este primer caso. Ha prohibido al desarrollador de este chatbot político, llamado Dean.Bot, en su comunidad. Se trata de la primera acción llevada a cabo por el creador de ChatGPT ante lo que considera un uso indebido de su tecnología y en contra de sus políticas de uso.
Dean.Bot fue creado por un grupo de empresarios de Silicon Valley, Matt Krisiloff y Jed Somers, con la intención de apoyar a Dean Phillips para las primarias de New Hampshire. "Nuestras políticas de uso de API no permiten realizar campañas políticas o hacerse pasar por un individuo sin consentimiento", afirma OpenAI. El chatbot conversaba con los votantes como si fuera el candidato en tiempo real escribiendo desde su página web, también se aplicaba la generación de voz artificial imitando la del candidato.
El chatbot incluía un descargo de responsabilidad donde se explicaba al usuario que iba a entablar conversación con una inteligencia artificial y no con el verdadero Dean Phillips. Para acceder era necesario que la persona diera su consentimiento.
[ChatGPT ya se puede usar con fines militares: adiós a la prohibición que había impuesto OpenAI]
Los defensores de esta propuesta argumentan que los bots pueden educar a los votantes y facilitarles más información sobre el candidato de forma más entretenida. Sin embargo, las voces en contra consideran que este uso de la tecnología puede provocar que las personas acepten una herramienta peligrosa, incluso cuando están firmando una exención de responsabilidad.
Desde que se popularizaron se han sucedido las muestras de desinformación o contenidos falsos que pueden generar estos chatbots a gran escala. Con la inteligencia artificial generativa siendo capaz de crear texto, imágenes y voces realistas, es posible crear campañas de candidatos llamando a los votantes para conseguir su apoyo o incluso para generar información falsa en su contra.
También te puede interesar...
- El sencillo truco para hackear ChatGPT que revela miles de teléfonos y emails privados
- Amazon lanza Q, su rival de ChatGPT quiere revolucionar la empresa antes de saltar a Alexa
- ¿ChatGPT es de izquierdas? Desvelan las tendencias políticas de las inteligencias artificiales