“Dormimos poco, estos días”, dice, sonriendo. Beatriz Sanz explica que dedica al menos una hora diaria para leer sobre novedades en relación con la IA. La inteligencia artificial bulle. “Tengo poco tiempo. Además, soy madre soltera de tres hijos, dos niños etíopes y un niño chino”, confiesa.
[La gurú digital Mónica Villas: "Hemos asociado la IA a algo malo por 'Terminator', pero no lo es"]
¿Cómo llegó a trabajar con la IA a este nivel? Ella misma explica. “Nací en Madrid, crecí en Cuenca y vine a los 18 años a estudiar a Madrid, soy licenciada en ciencias matemáticas. Empecé mi carrera en el ámbito de la banca, en un proyecto muy pionero en 1997, cuando comenzaban los modelos de machine learning. La banca fue la primera en aplicarlos para ajustar modelos comerciales, de riesgo de crédito, perfiles de clientes, etc.
Después, pasé a consultoría, y fui la socia más joven de la firma EY en el año 2006. Tras de otra época boomerang, estuve en banca otra vez, pasé de un banco a otro en España en innovación disruptiva… el caso es que siempre mi carrera ha estado muy localizada en el área de crecimiento, de la innovación de datos y de los algoritmos”.
“Volví a EY en Australia”, continúa resumiendo, “donde viví unos años, cubriendo el sector financiero de Asia Pacífico, y tuve ocasión de trabajar en Hong Kong y Singapur. Adopté otro niño y volví a España desde 2014, como socia española, pero trabajando para Europa y desde 2017 para EY Global como responsable en consultoría de datos e inteligencia artificial. Desde mayo pasado me han encargado dirigir el programa de transformación para toda la firma, no sólo en consultoría, sino para todas las líneas de negocio de EY, transacciones, auditoría, legal y fiscal”.
Ahora se enfrenta a un reto doble: transformar un gigante empresarial de 400.000 empleados y asesorar de la mejor manera a los grandes clientes de la firma, todo el momento de la llegada de la IA. “Es un cargo de mucha responsabilidad, pero como yo creo que en la vida estamos para dejar cierto legacy, un mundo mejor en lo posible para nuestros hijos, aquí estoy”.
“Desde el principio fui muy clara”, señala, “diciendo que esto no se trataba de hacer un PowerPoint, sino de hacer un programa que estructuré en torno a tres pilares: transformar a clientes, transformar a la compañía y otro que suena un poco ambicioso, transformar al mundo”.
Frente a otras consultoras, añade, “decidimos no anunciar lo que íbamos a invertir en IA, y en septiembre lanzamos una nota de prensa contando lo que ya habíamos invertido, 1.4 billion, para lanzar EY.AI, una plataforma que unifica capas, una tecnológica, porque tenemos 9 Petabytes de información, una capa de ecosistema y otra capa de conocimiento humano”.
¿Cuándo escuchó primera vez hablar de la inteligencia artificial?
En mi carrera. Desde que terminé la universidad he estado trabajando con machine learning, luego deep learning y modelos generativos. Soy matemática y esos modelos de machine learning ya estaban en el mercado en el año 1997. La banca era pionera en ese momento, yo empecé a trabajar en un departamento de Proyectos especiales, con un jefe vietnamita muy experto, fue como un máster de dos años. Me dijo 'todo lo que veas en la prensa y en la tele, se traduce en números, en ceros y unos y eso deja un patrón, ahí es donde tiene sentido empezar a aplicar modelos predictivos'.
¿Todos esos términos se relacionan, machine learning, deep learning y IA?
Son subconjuntos. La inteligencia artificial generativa es una subcategoría de los modelos de Machine Learning. En esos años lo llamábamos data mining, pero era la misma base, todo parte de los modelos de redes neuronales que aún se usan y que empezaron en los años 70.
En el año 2006 es cuando aparecen los modelos de Deep Learning, un salto importantísimo, porque ya la máquina era capaz de identificar patrones que no le has enseñado tú antes: el famoso Go Game chino ocurre cuando por primera vez una máquina ganó a un hombre en el juego, usando un movimiento nuevo. Luego viene el avance de un tipo de redes neuronales conocidas como Transformers, fundamentales para poder entender los Large Language models.
¿Y la IA o AI, en inglés?
Podemos decir que la inteligencia artificial comenzó en el año 1946, cuando un grupo de estudiantes de ingenieros y psicólogos intentaron hacer un cerebro humano, la misma época en la que científicos como Asimov empezaron a cuestionarse la ética de hacerlo. Tuvimos que esperar 50 años para realmente ver los modelos de machine learning, que fueron un gran salto.
En realidad, hace años que estamos rodeados de aplicaciones que lo usan, cada vez que le damos a aceptar una cookie, por ejemplo, por detrás hay un modelo de machine learning que intenta aprender de esos patrones. Pero hubo que esperar para tener algoritmos aplicados en el mundo de la empresa con cierta escala, el sector financiero fue uno de los primeros en adoptarlo.
¿Y la explosión de su uso?
Realmente la GAI o Inteligencia Artificial Generativa empezó de forma muy incipiente en el año 2017. Uno de los motivos por los que la vacuna del COVID se pudo tener en nueve meses y no en tres años es porque ya se usaron modelos de inteligencia artificial generativa. Hace un año, el 30 de noviembre de 2022, se lanzó el ChatGPT3, y luego el 15 marzo su versión 4.
¿Cómo lo vivió?
Yo como matemática que he dedicado mi carrera a este tema, me sentí agradecida de poder vivir en primera persona estos tiempos y pudiendo estar en un rol como el que tengo. Lo que se ha creado ahora es una nueva forma de inteligencia o de conocimiento. Por primera vez en la historia, el conocimiento no está en manos del mundo académico, sino del software, y por primera vez podremos dar acceso a ese conocimiento a billones de personas. Es algo histórico.
¿Y no teme la parte negativa de la que tanto se habla?
Se ha hablado mucho de los aspectos negativos. Y desde luego profesionales como yo tenemos un rol y una responsabilidad de transmitir lo que es la AI y lo que no es. Los pros y nuevos riesgos, pero desde un punto de vista transformador, no desde el miedo, sino desde la oportunidad y desde la gestión con conocimiento y responsabilidad. No desde el fatalismo.
¿Dónde no está el riesgo y donde sí?
Empiezo por el no. Yo no creo que va a suponer la extinción de la humanidad. Ni siquiera que se van a eliminar masivamente puestos de trabajo. La AI hasta ahora solo ha creado nuevos puestos de trabajo. Si miramos el último informe de JP Morgan, se van a introducir 7.5 trillones a la economía, eso es como dos economías del G7, imaginemos a UK y Alemania metiéndose en el sistema.
Si aislamos el elemento de inestabilidad político y de guerras, desde el punto de vista de tecnología y empresa se crea un escenario de crecimiento laboral como nunca antes. Es importante entender esto. En las últimas décadas, veníamos creciendo en productividad al ritmo del 3% anual, indicador que cayó con la crisis financiera de 2008, pasando al 1,3%, y más o menos estábamos ahí, eso que llamamos el total productivity, factor es fundamental para entender el funcionamiento de una economía.
¿Y eso cómo se traduce en el trabajo cotidiano para una persona?
Hablamos de mejoras en la velocidad de ejecución de un 25%. En los perfiles menos cualificados, en sectores como el mío de servicios profesionales de hasta del 42%. Las barreras de entrada están en los costes de tecnología y van a caer, por lo que vienen muchas oportunidades en el crecimiento del desarrollo del middle market.
¿Entonces no existen riesgos?
Sí, existen los riesgos que se deben de forma natural a la naturaleza probabilística de esta tecnología. Nosotros estamos acostumbrados, vivimos y apoyamos la toma de decisiones sobre modelos deterministas, en los que A+B es igual a C. En esta tecnología, A+B = C en el 80% de los casos y un 20% constituyen las llamadas alucinaciones. Eso crea lo que en estadística se llama “rango de confianza”, lo cual crea mucha desconfianza a la hora de adoptar esa tecnología a escala para la toma de decisiones, en sectores en los que no puede haber margen de error.
¿Y los denominados sesgos?
En efecto, otro de los riesgos lo constituyen los sesgos. Estos modelos aprenden de lo que han visto, observado y de aquello a lo que han estado expuestos, tanto para bien como para mal, y los errores humanos están ahí. Pero también para eso se está trabajando, no solo desde el punto de vista de cumplimiento normativo, sino más ampliamente, porque la solución a escala de estos sesgos va a venir por la tecnología.
Ya está habiendo pruebas de redes neuronales que son capaces de contraponer la salida de un modelo frente a otro para identificar sesgos, se trabaja en la aplicabilidad de los modelos, en identificar las fuentes, en la robustez de los modelos… ahora mismo se están incluyendo directamente los Derechos Humanos en la modelización de estos Large Language Models. Cuanto más conocimiento o contexto le demos a un modelo, esa banda de incertidumbre se va reduciendo.
Es decir, tenemos que reconocer que la tecnología está en una fase de investigación y desarrollo, pero en el punto de vista tecnológico y de diálogo, hay que ser optimistas por el diálogo que ya ha habido y está habiendo, de cara a estándares internacionales de identificación temprana de los riesgos, es algo que no se ha visto nunca.
¿Qué es lo mejor de la AI?
Es una tecnología disruptiva, que está aquí para quedarse, y que va a reducir la brecha digital. Y esto va de conocimiento, lo cual es un paso fundamental para las libertades. Esta tecnología va a dar acceso al conocimiento a toda la población y para mí ese es el aspecto más disruptivo y esperanzador.
¿En qué sentido, frente a Internet?
No, una cosa es Google y otra un LLM o un copiloto que te ayude a profundizar en un área de conocimiento experto casi al nivel que quieras. En Internet está lo que está, pero nada más, no se puede hablar de conocimiento. Esta es una tecnología que tiene la capacidad de resolver problemas, de ejecutar a mayor velocidad tareas secuenciales, pero también combinando millones de otras fuentes de datos y, ojo, incluyendo, el conocimiento experto. Por ejemplo, hablamos de la capacidad de personalización del genoma humano.
¿Es optimista entonces?
Si haces un análisis de las tendencias en Google verás que todo lo que está relacionado con #ResponsibleAI o #EthicalAI está creciendo de manera exponencial. Hay un término que no, que es #TrustAI, porque esta es una tecnología probabilista, hablamos de un espectro de riesgos, desde el punto de vista estadístico se habla de intervalos de confianza.
Concretando, hay escenarios en los que esta confianza tiene que ser del 100%, es decir, no podrías poner una IA para hacer el triaje en una sala de urgencias de un hospital, no se podría usar para un coche autónomo o una concesión de un riesgo de crédito sin supervisión humana.
Nosotros en EY hemos lanzado el Confidence Index, un índice de confianza que está asociado a cada aplicativo. Las soluciones a la incertidumbre, la falta de robustez y sesgos requieren de un trabajo, pero la solución a largo plazo va a venir por la tecnología. A corto plazo requiere mucha regulación y un diálogo: hacen falta equipos mixtos para meter espectros de riesgos de control regulatorio en la tecnología.
Pero reconocerá que abundan los discursos catastrofistas, casi de pánico…
Yo sigo El Hormiguero y me desilusioné porque hace unos días una persona no experta dio una visión negativa, era todo sensacionalista, diciendo que se iban a destruir puestos de trabajo. Esa no es la manera de preparar una sociedad para algo que va a llegar sí o sí: hay que repensar bien el rol que todos tenemos que jugar en hacer una España que se sube al carro, un tema imbricado en los sectores donde puede haber un mayor impacto, muy conectado con el wellbeing: de las ganancias de productividad, una parte irá a la empresa, pero otra irá al ciudadano.
Se habla muy poco de eso. Un sector que va a tener un mayor impacto a cortísimo plazo es el de la educación. Por ejemplo, cuando a un estudiante se le pone un profesor particular, su performance mejora rápidamente, imagina una sociedad en la que cualquier persona tendrá un acceso a una inteligencia artificial que no sólo le dirá qué es lo siguiente, qué tiene que aprender, sino que cuando algo no lo haya aprendido correctamente, le va a decir donde está el error.
La transformación de cualquier civilización empieza por la educación: a largo plazo, el poder transformador de esta tecnología va a ser enorme, hablamos de dar acceso al conocimiento más experto a cualquier persona en cualquier lugar del mundo. El conocimiento es un paso fundamental de las libertades, es lo que hace abrir la mente, soñar, probar, intentar…
En el sector salud vamos a ver desarrollos en medicina personalizada y preventiva y una reducción de costes, porque ahora cualquier estudio del genoma va a bajar mucho, que antes era solo para privilegiados, eso va a bajar mucho. La persona que va a vivir doscientos años ya ha nacido. Y esto solo son algunos aspectos.
Si entiendo bien, ¿irán surgiendo entonces diferentes AI especializadas?
Si ponemos perspectiva, esta revolución tecnológica no va a ser diferente a otras. ¿Cómo empiezan siempre estas revoluciones? La tecnología es al principio grande, cara y pesada. Hacer un iPhone con la tecnología de los años 60 supondría un trillón de dólares y un ordenador del tamaño de Londres. Lo lógico es que con el tiempo estos LLMs van a ser menos large, se van a requerir menos billones de parámetros.
¿Dibuja entonces dos fases?
Sí, una primera fase inmediata, en la que estamos. Ahora los lenguajes han tenido un entrenamiento no experto, con miles de personas sin un conocimiento exacto, diciendo qué es correcto y qué no. Pero por ejemplo, en EY tenemos ahora la instancia privada más grande del mundo en cuanto a un Large Language Model. Lo hemos llamado EYQ y tenemos a 300.000 empleados continuamente alimentando esta inteligencia colectiva. Pensemos.
¿Qué pasa si ponemos a los 100 mejores expertos de EY en tax, con datos concretos, a entrenar un sistema de acuerdo a las metodologías que tenemos desde hace décadas, con un Confidence index para controlar y reducir la naturaleza probabilística del resultado: eso tiene muchísimo valor porque generas una IA especialista y responsable y además con el sello de EY.
El futuro irá por ahí. ¿Qué tendremos? Metodologías y conocimiento y lo utilizaremos para entrenar Language models mucho más expertos y especializados.
¿Se refiere a un futuro ecosistema de inteligencias?
Hay que entender el ecosistema, hay players que están jugando a nivel de infraestructura, donde hay un cuello de botella, el nuevo aceite no son los datos, es la capacidad computacional. Luego están los proveedores de los LLM y luego existe una nueva capa de verticales, hablamos de unas 4000 patentes nuevas al mes, dentro de un año y medio vamos a empezar a ver de forma tangible estos cambios. A corto plazo, vamos a ir por ahí, es parte de ese ciclo natural, los modelos van a ser menos large y más especializados.
¿Y la segunda etapa?
La Inteligencia artificial no solo será generativa, vamos hacia una inteligencia artificial completa. Intentaremos lo que se intentaba en el año 46, emular un cerebro humano. Pon por caso que ahora mismo se requieren 7 billones de parámetros para la solución, eso es porque lo que te muestra la inteligencia es algo que ha tenido que observar antes, esa observabilidad previa requiere de tantos parámetros.
Imagínate a un bebé que va a gatas, si le pones un carrito, él solito es capaz de esquivarlo, lo necesita aprender una vez. Si lo vuelves a poner, aunque el obstáculo esté ahora a la izquierda, él sabrá que para esquivarlo tiene que rodearlo, pero por el otro lado: eso es la clave, la inferencia de conocimiento. Esa capacidad intuitiva es lo siguiente a lo que se va. Se van a entrenar los modelos para que haya menos necesidad de datos de observabilidad y más inferencia.
¿Y cómo podrán inferir las máquinas?
A través de ciertas ontologías, en las que tendrá que haber una relación de atributos con coherencia, en realidad se trata solo de todos vectores, de distancias. Ahí los knowledge graphs van a tener un papel fundamental. Se habla muy poco de los knowledge graphs, fundamentales para dotar de contexto a los modelos, serán cada vez más importantes. Ya se está trabajando en ello para reducir las alucinaciones. Esos inputs que se le dan al modelo están basados en conocimiento: estructurarlo en ontologías será un paso fundamental para la inferencia.
¿Y habrá una tercera fase?
Bueno, no se habla nada de la tecnología cuántica. La AI y la computación cuántica van a ser las dos tecnologías del siglo XXI. Con lo cual creo que Europa debería invertir en ellas, porque la cantidad de casos de usos que se van a destapar cuando esta tecnología madure y sea escalable, eso va a ser una tercera etapa inimaginable. Es importante facilitar el acceso a la financiación de los proyectos porque aunque esos algoritmos van a consumir cada vez menos, pero hay que invertir en tecnologías cuánticas. Imagina la combinación de ambas tecnologías.
¿Sigue siendo clave la importancia de las preguntas?
Hoy en día sí, por eso los prompt engineers son la profesión de moda. Dentro de quizás tan solo un año no será tan importante, la propia IA nos ayudará a saber cómo preguntar, habrá librerías de prompt y se evolucionará esa parte de conocimiento. Hoy en día hace falta una formación muy específica, porque estamos en una fase de research absoluto, hoy es importante aprender cómo preguntar para reducir alucinaciones, pero con el tiempo la propia tecnología nos indicará cómo sacar el mejor partido de ella.
¿Creo que el cambio social lo produce la tecnología o que este proceso sucede al revés?
Surge una nueva tecnología y eso produce un cambio social. Eso creo. Este caso sucede como con el caso del iPhone: una nueva posibilidad surge, es intuitiva, cubre una necesidad y se adopta masivamente. Para nuestros hijos va a ser difícil en un futuro entender cómo podríamos estudiar sin un tutor, sin un copiloto.
¿Y en relación con la cultura?
Yo creo que la Inteligencia artificial sumada a los humanos es mejor que solo los humanos o solo la AI. He visto piezas de música e imágenes creadas por AI que son increíbles. Hace unos años se pensaba que las áreas creativas estaban fuera de las AI. Pero no. Es una reacción humana, el temor a lo desconocido, pero el ámbito artístico siempre lo ha entendido, que la ecuación suma es mejor.
¿Qué recomendaciones daría, finalmente?
Los profesionales que nos dedicamos a esto dormimos poco. Yo soy tremendamente disciplinada en el conocimiento, y el día que deje de aportar valor dejaré mi puesto. Dedico tiempo cada día, más de una hora, solo a leer artículos de muchas fuentes. Lo primero que considero es que para saber de un tema hay tener es curiosidad, y si queremos entender la capacidad transformacional o simplemente tener un criterio o un punto de vista tenemos que estar informados, y eso depende de cada individuo.
Los discursos catastrofistas muchas veces son desinformados. Lo segundo que recomiendo es contraponer fuentes. La verdad absoluta generalmente no está en manos de una persona en fase de research.
Hablo con los ingenieros de Google y con los de Microsoft y hay contradicciones en sus respuestas, pero con eso me formo una opinión propia, no hay que dar por veraz una única visión en la fase de research, sino ser conscientes de que la IA está en fase de investigación y como tal, hay distintos puntos de opinión y que uno tiene que formar su punto de opinión con diferentes líneas expertas.