La inteligencia artificial de Microsoft es demasiado contestona: estos van a ser sus nuevos límites
Bing da respuestas de todo tipo, llegando incluso a tener un tono agresivo, por lo que Microsoft busca formas de encauzar el uso de esta herramienta.
17 febrero, 2023 10:14El nuevo buscador Bing de Microsoft, cargado con inteligencia artificial para responder a las respuestas de los usuarios, lleva solo una semana charlando con todos aquellos que han conseguido acceso a su fase de prueba. En este poco tiempo, las contestaciones del chatbot han causado sensación, sobre todo las más extrañas e irreverentes, lo que ha obligado a Microsoft a marcar nuevos límites.
A diferencia de Google que mantiene una postura más cautelosa a la hora de desplegar su IA en el buscador, Microsoft se ha lanzado a la piscina integrando la tecnología de ChatGPT en su buscador, aunque con ciertas modificaciones que no han sido suficientes. El chatbot ha llegado a un grupo selecto de usuarios (apuntados en una lista de espera) de 169 países, los cuales han puesto a prueba las capacidades conversaciones de Bing.
La compañía pretendía que esta nueva herramienta sirviera para revolucionar la búsqueda de contenido por internet con respuestas explicativas sobre cualquier tema y que condujeran a visitar páginas con más información al respecto. Sin embargo, en esta primera semana los usuarios también lo han convertido en una forma de entretenimiento social, desde The Verge lo han comparado con la experiencia de un videojuego. Estás conversaciones personales han provocado que el chatbot salga del discurso preestablecido, práctica que ya se aplicaba con ChatGPT.
Reeducando Bing
En su último comunicado, Microsoft, afirma que las conversaciones largas, de más de 15 preguntas, son las que desembocan en estos comentarios peligrosos que luego se comparten en redes sociales. El chatbot habla de crear virus mortales, hackear a personas o charla sobre contenido sexual, llegando a tener lenguaje ofensivo y racista. Otro de los fallos cuando la charla es extensa es su tendencia a repetirse.
Por este motivo, Kevin Scott, director de tecnología de Microsoft, le dijo a The New York Times que estaban considerando limitar la duración de las conversaciones. La empresa busca ahora la forma de minimizar estos comportamientos creando herramientas para que el contexto se pueda actualizar fácilmente o comenzar de cero cuando la conversación se atasca o pierde calidad. Algo con lo que Bing no parece estar de acuerdo del todo cuando en EL ESPAÑOL-Omicrono se le pregunta por ello.
También facilitarán que los usuarios tengan un control más preciso del tono en el que la IA se dirige a ellos, incluso rebajando la creatividad de la respuesta para que sea más precisa, aunque no detallan cómo se aplicará esta reeducación del chatbot. En cualquier caso, la intención de la empresa ha sido desde el principio liberar esta tecnología sin miedo a las pruebas que surgieran para así mejorarla sobre la marcha.
Por otro lado, "estamos encontrando desafíos con respuestas que necesitan datos muy oportunos, como resultados deportivos en vivo", explica Microsoft. Para este tipo de consultas como informes financieros, plantean aumentar 4 veces los datos de conexión a tierra que recibe el modelo.
Hay que recordar que herramientas como esta se basa en algoritmos entrenados para reconocer patrones de datos y aprender a través de los ejemplos a replicar el estilo de escritura de las personas y los términos y expresiones que se utilizan en cada idioma. Sin embargo, en ningún momento entiende lo que está diciendo, no cuentan con la comprensión lectora de los humanos.
Prueba y error
El gigante tecnológico celebra que "hemos visto una mayor participación en los resultados de búsquedas tradicionales y con las nuevas funciones, como las respuestas resumidas, la nueva experiencia de chat y las herramientas de creación de contenido". Los que han conseguido acceso se han volcado con esta nueva tecnología, como ya ocurrió con ChatGPT el desencadenante de toda esta revolución a finales de 2022.
Microsoft reconoce que todas estas interacciones le están ayudando a ver el potencial de su nueva herramienta de búsqueda, afirmando que algunas personas han mantenido conversaciones con el chatbot de 2 horas. Otras herramientas similares como Perplexity, también un motor de búsqueda con tecnología similar, no ha dado tanto que hablar porque sus entrenadores impiden que los usuarios tengan largas conversaciones.
Mientras Microsoft prueba su chatbot de forma más pública, esta experiencia también sirve a Google para ir perfeccionando el suyo, Bard, que sigue protegido y trabajando con un pequeño grupo de especialistas hasta que la empresa considere que está listo para llegar en los próximos meses al gran público.