Ha pasado algo más de una semana desde que Microsoft anunciase su nuevo Bing con Inteligencia Artificial, basado en el ‘chatbot’ más popular, ChatGPT; en tan poco tiempo, el buscador ha conseguido hacerse viral en muchas ocasiones, y no siempre por buenos motivos.
[ChatGPT en modo desenfrenado: su "cerebro" es hackeado y responde sin pelos en la lengua]
Aunque ChatGPT en Bing tiene mucho potencial, también hay veces en las que se equivoca. Tal vez lo más sorprendente es cuando la IA parece tomar consciencia propia y empieza a pelear contra el usuario o a dar datos que no debería, como su “nombre real”.
Por qué ChatGPT falla
Microsoft ha aprovechado la efeméride para repasar lo que ha aprendido de los usuarios durante esta primera semana, y es mucho. Tal vez lo más importante es que la compañía ha confirmado que en determinadas situaciones, Bing puede responder “de una manera que no es nuestra intención”, dando lugar a los mencionados insultos o a la manera irónica en la que a veces explica la respuesta.
No es que la IA de ChatGPT se haya dado cuenta del infierno que supone tener que responder a tantas preguntas de tantas personas diferentes, sino que se trata de un ‘bug’ que Microsoft ya ha encontrado.
Los ingenieros de la compañía han descubierto que el fallo ocurre en sesiones largas de chat, con 15 o más preguntas. En esos casos, Bing se puede volver repetitivo o mostrarse susceptible a ser influido por el usuario; en este estado, la IA puede ser engañada para que adopte el tono de las preguntas del usuario, o para que responda a preguntas que no han sido realizadas.
El verdadero motivo por el que ocurre esto es porque Microsoft no se esperaba el éxito de ChatGPT en Bing. La compañía ha confesado que no tenía previsto que Bing fuese usado para tareas como “entretenimiento social” o para “descubrir el mundo” de la IA; Microsoft creía que Bing iba a ser usado sólo como en sus ejemplos (como preguntar recetas o escribir textos de un tema), y se olvidó de que Internet está llena de ‘trols’ que inmediatamente buscaron la manera de ‘hackear’ Bing para que mostrase respuestas indeseadas.
La buena noticia es que semejante ‘troleo’ ayudará a Microsoft a mejorar la experiencia. Por el momento, ajustará el control sobre la IA de manera más precisa, y también se plantea incluir un control en la app que nos permitirá ajustar el nivel de “libertad” que debería tener la IA en las respuestas.
Te puede interesar
- ChatGPT para tu móvil es oficial, así podrás conseguir acceso a la IA
- Opera anuncia la integración de ChatGPT y así da comienzo la guerra de los navegadores
- La IA de ChatGPT también comete errores garrafales y dista de ser perfecta
- ChatGPT Plus es oficial, el poder sin límites de la Inteligencia Artificial más popular