Microsoft pone límite a las búsquedas de Bing con inteligencia artificial: sólo responderá 50 al día
Además, solo podrás realizar 5 preguntas por sesión de ChatGPT. Esto servirá para evitar que al chatbot se le olvide el contexto y empiece a funcionar mal.
20 febrero, 2023 13:12La carrera por la inteligencia artificial sigue en activo en España y en el resto del mundo. Google y Microsoft siguen enzarzados en esta ardua batalla por conseguir quedarse con el buscador potenciado por inteligencia artificial definitivo, con el primer paso dado por los de Redmond con Bing AI. Un Bing que como ya hemos visto puede llegar a dar respuestas muy bizarras debido a ChatGPT. Microsoft ha tomado cartas en el asunto, y por eso ha limitado su propia creación.
Tal y como aseguraron el pasado viernes, Microsoft limitará las sesiones de chat de Bing potenciado con IA a 5 preguntas por sesión y a 50 preguntas por día. Esto tiene un motivo muy simple; el problema de las respuestas locas y desacertadas estaría en las sesiones de uso muy largas, que pueden llegar a "confundir el chatbot subyacente en el nuevo Bing".
Esta decisión se produce después de que medios como The Verge destaparan los graves problemas que el nuevo Bing tenía, con respuestas que eran desde erróneas hasta desacertadas, pasando por potencialmente peligrosas. Así, se hacía hincapié en que las prisas por desbancar a Google revelan que esta tecnología aún no parece estar lista para el consumo generalizado.
El nuevo Bing, limitado
Desde que Microsoft comenzase a invertir en OpenAI y en sus modelos de lenguaje, la compañía ha tenido un objetivo claro: desbancar a Google en su terreno más importante, los buscadores. Esto ha llevado a la propia Google a que creen un código "rojo" para intentar paliar la situación creando sus propias herramientas, como Bard o un buscador potenciado con LaMDA. Eso sí, con unos resultados un poco desastrosos.
Microsoft fue la que se adelantó con el nuevo buscador Bing AI, potenciado nada menos que con ChatGPT, la revolucionaria tecnología que está dando la vuelta al mundo y que se está convirtiendo en un fenómeno de masas. Pero las prisas han provocado que los usuarios vean cómo el buscador llegaba a dar respuestas realmente cuestionables, incluso con acusaciones e insultos de por medio a los usuarios por parte de este software.
Por eso, Microsoft ha decidido limitar el uso de Bing, debido a que las sesiones amplias pueden llegar a confundir al chatbot. Así, Bing ahora tendrá 5 preguntas (o "turnos") por sesión y 50 diarias. "Un turno es un intercambio de conversación que contiene tanto la pregunta del usuario como una respuesta de Bing", aseguró Microsoft.
¿Qué ocurrirá cuando se alcance ese límite? "Después de que una sesión de chat llegue a 5 turnos, se les pedirá a los usuarios que inicien un nuevo tema. Al final de cada sesión de chat, se debe borrar el contexto para que el modelo no se confunda", aclaró la compañía.
La última demostración de los problemas que estaba dando Bing a los usuarios la vimos en The Verge. Una conversación con uno de sus editores llegó a tales extremos que el buscador incluso le ofreció a su interlocutor pornografía 'furry'. Además, otros usuarios han denunciado cómo debido a estas respuestas, Bing era capaz de dar resultados erróneos.
No es la primera vez
Si bien este no es el caso más grave, no es la primera vez que Microsoft se enfrenta a un desastre relacionado con la inteligencia artificial. De hecho, ya tuvieron un incidente bastante peor hace años, y fue precisamente con un chatbot. Hablamos de Tay, el modelo conversacional que intentaba imitar a una adolescente y que implantó en Twitter en forma de perfil.
Sobre el papel, Tay buscaba interactuar con jóvenes de entre 14 y 16 años. De nuevo, la IA se retroalimentaba de sus interacciones en sus conversaciones para aprender. La idea era, según Microsoft, que imitase los patrones de lenguaje de una joven de 19 años.
El perfil, con cuenta @Tayandyou interactuaba abiertamente con los usuarios de Twitter, con una Microsoft empeñada en que el chatbot se empapara de las interacciones para mejorar. Lo que no se esperaban los responsables de Tay es que debido a los múltiples 'trolls' que lanzaron mensajes a Tay, la IA se volvió directamente nazi en menos de 24 horas.
Tay tuvo que ser suspendida menos de un día después, a las 16 horas. Y es que pese a que Tay tenía ciertos temas censurados, las interacciones con los usuarios provocaron que Tay acabase lanzando mensajes racistas, misóginos, antisemitas e incendiaros a las pocas horas. En ese período, lanzó mensajes de apoyo a Hitler, se sexualizó a sí misma y cuestionó el Holocausto.