¿Cuántas formas hay de pedirle algo a Google Assistant? En principio innumerables porque el propio lenguaje está plagado de sinónimos, pero, en términos de mando, podríamos distinguir la orden tajante y la amable. ¿En qué se diferencian? En el tono y en la necesidad de pedir las cosas por favor; algo que el asistente de Google comenzará a premiar a partir de ahora.
La función llamada «Pretty Please«, algo traducido como por favor en grado superlativo, se presentó en el anterior Google I/O como una manera de enfatizar la buena conducta en las familias. Al fin y al cabo todos buscamos que nuestros hijos adquieran buenos modales, de ahí que el asistente sea una buena manera de comenzar.
Google ha desarrollado una doble vertiente en las respuestas que, si bien con ambas se obtiene idéntico resultado (ejecutar la orden), pidiéndoselo por favor Assistant se mostrará mucho más amable. La diferencia es sutil, pero encierra un dilema moral que justo ahora comienza a vislumbrarse: ¿debemos tratar a la Inteligencia Artificial con el mismo respeto que a una persona?
«Ok, Google. Por favor, ponme un temporizador para dentro de 5 minutos»
Pretty Please comienza a estar activo en Estados Unidos, primer lugar del mundo en el que Google Assistant endulzará su trato si los usuarios añaden a sus órdenes una pizca de azúcar. El planteamiento me parece acertado ya que es una buena manera de enseñan modales a los niños. Al fin y al cabo, si Google busca que el comportamiento de Assistant sea lo más natural posible, los buenos modales son inherentes a la naturalidad. O deberían serlo, claro.
9to5Google se ha encargado de capturar la novedad: Pretty Please comienza a llegar a los Google Home y también a las pantallas inteligentes. La función hará uso de Voice Match para identificar a los usuarios infantiles con la intención de que aprendan a comportarse de manera amable. De esta forma imitarán el comportamiento practicado con el asistente cuando hablen con las personas. Y viceversa.
Antes hablaba del dilema moral que se abre una vez la Inteligencia Artificial deja de utilizar algoritmos para mejorar las acciones del software y termina integrándose en un ente con el que podemos interaccionar. Si es un objeto no debería hacernos sentir mal el hecho de tratar a Google Assistant como tal. Pero, dado que se muestra como una persona por más que no lo sea realmente, la ética dicta que el tratamiento debería de ser de igual a igual.
En el momento que la Inteligencia Artificial parece una persona deberíamos tratarla como tal
¿Pedirle a un asistente las cosas por favor cuando las va a hacer igualmente con una orden? ¿Pedirle amablemente a nuestro coche autónomo que se encienda para que haga el favor de llevarnos al trabajo? Parecen situaciones absurdas, pero llegará un momento en el que deberemos plantearlas. Y no porque vayamos a convivir con los replicantes de Blade Runner, que seguramente no vaya a ser así.
«Muchas gracias por pedirlo tan amablemente. Aquí tienes tu recordatorio»
Nos acostumbramos a hablar en voz alta por la calle, a poner el manos libres y que nadie viese que hablábamos con un teléfono, también hemos aprendido a superar la vergüenza y hablar directamente con nuestro dispositivo sin que haya una persona del otro lado. El siguiente paso es hablarle a ese asistente como si fuese una persona, con todo lo que implica el trato cordial humano. Es una evolución necesaria ya que, en un futuro inmediato, el contacto de los niños con las máquinas no será anecdótico, quizá hasta tengan con ellas sus primeras interacciones. Y deben aprender a relacionarse sin hacer daño a los demás.
¿Le pedirías las cosas por favor al asistente de Google aunque solo fuese para comprobar sus respuestas? ¿Crees que algún día hablaremos con las máquinas de la misma manera que hablamos con las personas? Inquieta un poco, sí.