Es una tendencia cada vez más evidente e imposible de ignorar: cada vez son más los dispositivos de electrónica de consumo - ordenadores, smartphones, etc. - que cuentan con microprocesadores o áreas específicas dentro de su microprocesador destinadas al desarrollo de operaciones relacionadas con el machine learning, una disciplina que muchos tienden a llamar “inteligencia artificial”.
A mí el término “inteligencia artificial”, sencillamente, no me gusta. Será porque durante años, hablar de cualquier cosa relacionada con la posibilidad de que las máquinas desarrollen funcionalidades que remotamente recuerden a la inteligencia humana, sea jugar al ajedrez, al Go o al póker, hacía que automáticamente tu interlocutor visualizase la amenazadora imagen de un robot Terminator, o porque estimo que la inteligencia, como tal, es otra cosa.
Tiendo a preferir el término machine learning, que me lleva a entender mejor lo que la máquina, en realidad, está haciendo: aplicando procedimientos estadísticos para deducir reglas de un conjunto de datos convenientemente etiquetados.
En la práctica, hablamos básicamente de eso. Durante años, los humanos hemos considerado un ordenador como una caja llena de programas o reglas, generados por terceros o por nosotros mismos si sabíamos programar, al que le suministrábamos unos datos para poder obtener unos resultados.
Los programas, como tales, eran “estables”: tu procesador de textos, tu hoja de cálculo, tu programa de presentaciones, etc. no variaban su forma de hacer las cosas, sus procedimientos, una vez que los instalabas. Simplemente, recibían tus datos y los procesaban metódicamente. Si hacías siempre las cosas de una manera determinada, no se adaptaban especialmente a tu forma de hacerlas, ni nada por el estilo. La máquina era predecible y rígida, la flexibilidad la poníamos los usuarios.
En machine learning, las cosas cambian. Bajo esta forma de hacer las cosas, los usuarios suministramos a la máquina datos convenientemente etiquetados con sus resultados, y la máquina es capaz de deducir las reglas por las cuales esos datos generaron esos resultados. Esto, desarrollado de manera continua, permite que la máquina, en terminología humana, “aprenda” - en realidad, solo está aplicando reglas estadísticas más o menos complejas - y pueda, por ejemplo, adaptarse a patrones cambiantes de uso.
Bajo el machine learning, los usuarios suministramos a la máquina datos etiquetados con sus resultados
La mejor forma de entenderlo es imaginando cómo diablos consigue nuestro smartphone devolvernos, si se lo pedimos, fotos de nuestra colección en las que aparezca un perro, o una puesta de sol, o una persona determinada.
Si intentamos diseñar un sistema para hacer algo así desde el punto de vista de la programación clásica, nos resultaría complejísimo: un perro puede tener muchísimos aspectos diferentes y atributos anatómicos muy variados, lo que convertiría la posibilidad de programar condicionales para identificarlos en una tarea interminable. ¿Una puesta de sol? Las variaciones son enormes. ¿Una cara de una persona? ¿Cuántos ángulos, perspectivas o diferencias gestuales habría que tener en cuenta?
Y sin embargo, nuestro smartphone lleva la tarea a cabo notablemente bien, simplemente gracias a que hemos entrenado a unos algoritmos mostrándoles una enorme cantidad de perros - o de puestas de sol, o de caras - etiquetadas como lo que son. A partir de ese conjunto de datos, esos algoritmos son capaces, con relativamente pocos errores, de reconocer cuándo una imagen sin etiquetar contiene un perro, una puesta de sol o una cara determinada.
Cada vez más, las máquinas inflexibles, predecibles y rígidas que conocimos están convirtiéndose en otra cosa, y con ello, dotándose de funcionalidades potencialmente mucho más interesantes.
En la evolución de la electrónica de consumo, la incorporación del machine learning se está convirtiendo en una de las tendencias más interesantes y con mayor potencial de la historia, y eso no quiere decir que las máquinas “se hagan inteligentes”, sino que van a poder aplicar procedimientos estadísticos para actuar de diferentes formas ante diferentes comportamientos humanos, o ante diferentes conjuntos de datos suministrados.
La incorporación del machine learning se está convirtiendo en una de las tendencias más interesantes y con mayor potencial de la historia
La cámara de nuestro smartphone ya no simplemente toma fotos: ahora es capaz de entender qué combinación de objetivo, exposición, diafragma, etc. debe utilizar para resaltar, por ejemplo, un retrato, o para desenfocar su fondo, o para muchas prestaciones más que el usuario encuentra interesantes.
Y como eso, nos encontraremos cada vez más funcionalidades en las que la máquina, con un criterio basado en el entrenamiento de sus algoritmos, realizado por su fabricante o por nosotros mismos, será capaz de optimizar la forma que tiene de asistirnos.
Los dispositivos que conocimos están cambiando, están aprendiendo nuevos trucos… y nada hay de “siniestro” en ello, ni debemos pensar que se van a convertir en malvados Terminators con un malvado destello rojo en sus ojos. Temores, ninguno. Pero sí deberíamos entender que estamos ante un cambio dimensional, y que quienes no lo entiendan y no sepan incorporarlo, se verán relegado al pasado, superados por una nueva generación.