Si tienes un Amazon Echo, como muchos usuarios ya en España, ya te habrás acostumbrado a usar la palabra "Alexa" para activar el altavoz inteligente y darle una orden, como "Alexa, cuéntame un chiste", o "Alexa, pon música rock".
La necesidad decir "Alexa" cada vez que quieras hacer algo es para que el asistente personal pueda reconocer que le estás hablando, y así registrar lo que estás diciendo, analizarlo y ejecutar la acción que estás pidiendo.
Todos los asistentes funcionan igual, aunque la palabra sea diferente; como "OK Google" para los Google Home, o "Oye Siri" si tienes un Homepod o un iPhone. Pero, ¿y si te dijera que esas no son las únicas palabras que sirven para activarlos?
Las palabras que activan los asistentes personales
Puede que alguna vez te haya ocurrido que tu asistente personal o tu altavoz inteligente se hayan activado sin que les hayas llamado; puede que te haya extrañado, o que hayas pensado que es un 'bug'. En ese caso, puede que ya sepas por dónde van los tiros de la última investigación de expertos de seguridad de la Universidad Ruhr de Bochum, Alemania.
El estudio, que ya han podido adelantar, revela que existen unas 1.000 palabras o frases capaces de activar los asistentes personales más comunes sin que el usuario realmente quiera; son palabras que provocan que el asistente empiece a escucharnos sin que se lo hayamos pedido.
Para probar que los altavoces inteligentes se activan sin consentimiento del usuario, los investigadores encendieron varios modelos de Amazon, Google, Apple y Microsoft, además de tres marcas chinas: Xiaomi, Baidu y Tencent.
El experimento consisitó en reproducir horas y horas de contenido en diferentes idiomas y compobar si en alguna ocasión la luz del asistente se encendía, registrando con qué palabra lo había hecho. Además, se comprobaba la conexión para saber si se habían enviado datos a un servidor externo.
Entre el contenido que reprodujeron se encuentran capítulos de series populares como Juego de Tronos, Modern Family y House of Cards, además de transmisiones en directo.
Cuando tu altavoz te escucha sin que tú quieras
Como puedes imaginar, la mayoría de las palabras que activaron a los altavoces se parecen a las usadas oficialmente para activar los asistentes; especialmente en determinados idiomas, por la manera en la que se pronuncian.
Por ejemplo, descubrieron que "OK, cool" activa el asistente de Google, ya que su palabra de activación es "OK, Google". Pero también comprobaron que palabras como "unacceptable", "election", "tobacco" y "and the zone" activaban Alexa y los Echo, "a city" activaba a Siri, y "Montana" activaba a Cortana.
En base a esas palabras, los investigadores pudieron analizar la parte que activaba al asistente, y usarla para crear otras frases de activación. El resultado es que una película o una conversación cualquiera puede activar el micrófono y grabar lo que estamos diciendo aunque no esté dirigido al altavoz.
Puedes pensar que es obvio que esas palabras, parecidas a las de activación, produzcan el mismo efecto. Sin embargo, eso no es un error, sino el funcionamiento correcto de los altavoces; y es que los desarrolladores han preferido errar de esta manera para mejorar la experiencia.
¿Es un problema para la privacidad?
Según los investigadores, los altavoces inteligentes están programados de manera que 'perdonan' los posibles errores en las palabras de activación; por lo tanto, es más probable activar un altavoz que no activarlo, y eso se hace a propósito.
Es hasta cierto punto, algo comprensible. No queremos tener que repetir una y otra vez la palabra "Alexa" hasta que el altavoz la pille; cada persona tiene un acento propio y su manera de decir las cosas. En ese contexto, que el Echo se active aunque no digamos "Alexa" de manera perfecta es lo esperado.
Sin embargo, eso también puede provocar problemas inesperados para nuestra privacidad. Aunque para el usuario parezca que el altavoz simplemente se ha encendido y se ha apagado, en realidad ocurren muchas más cosas en segundo plano.
Los investigadores analizaron cómo cada compañía evalúa estos 'falsos positivos', y comprobó que lo más común es que primero el propio dispositivo analice la palabra para comprobar si tiene la de activación; sólo con una sospecha de que sea así, ya empieza a enviar la conversación a los servidores de la compañía.
Como esos ordenadores tienen más potencia, son capaces de comprobar de nuevo la palabra de activación y darse cuenta de que es un falso positivo, en cuyo caso el altavoz permanece en silencio y la luz se apaga. Además, compañías como Amazon y Google admitieron que usan empleados humanos, que escuchan estas grabaciones con el objetivo de mejorar el reconocimiento. Ambas implementaron cambios para poder borrar nuestras grabaciones.
Los investigadores consideran que, desde el punto de vista de la privacidad, esto es alarmante, ya que conversaciones privadas pueden acabar en los oídos de extraños; pero al mismo tiempo, confiesan que desde el punto de vista de la ingeniería, es un método comprensible, y creen que los fabricantes deben encontrar el punto medio entre la protección de datos y la optimización técnica.
Amazon responde
Amazon ha sido la primera que ha reaccionado ante la publicación de los resultados de este estudio, aunque fuentes de la compañía lamentan no haber podido revisarlo antes, dejando entrever que los investigadores no consultaron con los creadores de estos asistentes.
Amazon no llega a negar que los dispositivos con Alexa se puedan activar con palabras parecidas, pero afirma que ese caso "es raro", teniendo en cuenta las millones de veces que se puede activar el asistente en un mes. Además, promete que la tecnología de detección de palabras mejora cada día, cada vez que los clientes usan los dispositivos.