Juan Pérez es vicepresidente ejecutivo y CIO de Salesforce, lo que le pone al frente del área tecnológica interna. Un puesto clave cuando la propia compañía se ha convertido en la primera usuaria de cambios de gran calado, como la integración de inteligencia artificial generativa en todas las actividades del CRM.
Pérez es mexicano y D+I - EL ESPAÑOL mantuvo con él una breve pero intensa conversación durante el evento Dreamforce, en el que Salesforce presentó su nueva plataforma de AI generativa Einstein 1 Copilot y su integración en la nube.
D+I: Siendo Salesforce una empresa tecnológica y primera en probador sus grandes novedades tecnológicas, ¿encuentra también alguna resistencia al cambio en sus empleados, como es frecuente en otras compañías?
Juan Pérez: La compañía está dedicada a la tecnología y nosotros vendemos el cambio. Cuando nos comunicamos con nuestros clientes, cuando trabajamos con ellos en un proyecto, estamos trabajando en el cambio. La gente dentro de la compañía tiene la mejor adaptación a ello. Entienden que para continuar progresando en tecnología hay que ser adeptos al cambio. Hay que aceptarlo y hay que reconocerlo. Para nosotros es más natural.
Yo, antes de trabajar con Salesforce, trabajé en UPS muchos años. Es una compañía en la que hay que trabajar mucho más duro para ejecutar buen cambio. ¿Por qué? Porque la compañía tiene ya 116 años. Aquí es un poquito diferente. La gente sabe que hay que cambiar. Que es bueno y puede ayudar a continuar el progreso. Con ideas muy nuevas emergen nuevos conceptos y nuevas maneras de utilizar nuestra tecnología. Esto nos da la oportunidad de utilizar esas ideas para seguir mejorando los productos que vendemos a nuestros clientes.
D+I: ¿Eso significa que también sus empleados necesitan hacer continuamente cursos para actualizarse?
J.P.: Claro que sí. Es una de las cosas más interesantes que he visto en el tiempo que llevo en Salesforce: tenemos mecanismos de entrenamiento, no solamente para la gente dentro de la compañía, sino para el público en general.
El proceso de aprender la tecnología de Salesforce a través de lo que nosotros llamamos Trailhead, nuestra plataforma de formación. Es un mecanismo muy efectivo para aprender sobre la inteligencia artificial, cómo nuestra tecnología funciona, cómo integrar nuestras tecnologías y cómo implementarlas.
[La metamorfosis de Salesforce: ahora es ya una compañía de inteligencia artificial y 'cloud']
Tenemos un programa a través del cual todos tenemos que llegar a cierto nivel de entrenamiento, utilizando la plataforma. Yo me siento bien orgulloso: hace un par de meses ya llegué al rango de lo que llamamos Ranger, con el que completé mi entrenamiento. Esto me ayuda a tener mejor conocimiento sobre la compañía, cómo funciona, cómo funcionan nuestras tecnologías y los conceptos que pueden ayudar a nuestros clientes a ser exitosos.
D+I: ¿Ese entrenamiento es online, o también presencial?
J.P.: Todo es online. Y está diseñado para que tú puedas entrar en el entrenamiento (se refiere a que está abierto a cualquiera).Si tú quieres verlo, puedes. Puedes ver los conceptos, los vídeos que tenemos… Pero está basado en presentar cosas que comprendes. Es una combinación de lectura, con vídeos de presentaciones. No son muy largos y te dan la oportunidad de asimilar el contenido en porciones pequeñas, para que al completar varios módulos tengas buen conocimiento sobre la plataforma.
Conforme vas completando los cursos vas ganando puntos, como un juego en el que vas subiendo de rango. Así quieres seguir avanzando y aprender más y crea mucho interés en nuestros compañeros… dentro y fuera de la compañía.
Cliente cero
D+I: En su presentación, realizada un día antes de la conversación, comentó que Salesforce ha sido su propio cliente cero para la implementación de Einstein 1 internamente. ¿Cómo ha sido ese proceso? ¿Ha tomado mucho tiempo?
J.P: No. En cierta forma no ha costado mucho ser el cliente cero. Y esto ayuda a la compañía de dos maneras: al serlo, tenemos la oportunidad de implementar nuestra propia tecnología y darles comentarios y recomendaciones al grupo que la crea.
La segunda, que para mí es muy importante también, es que le da la oportunidad a mi propio equipo de conocerla un poquito más en profundidad. Otros no tienen esa misma oportunidad. Así, mis técnicos, mis ingenieros, tienen buen conocimiento de la plataforma, saben qué es lo que va a venir y tienen oportunidad de ajustarse al cambio futuro.
D+I: En estrategia militar se dice que todos los planes duran hasta que se encuentran con el enemigo…
P.J.: Exactamente. Y en ese momento hay que reaccionar. Es uno de los riesgos de ser el cliente cero, que a veces uno tiene que lidiar con más defectos, con productos que no están completos todavía… pero es parte de lo que esperamos: sabemos que esas cosas van a pasar y nos preparamos bien para responder a cualquier problema que venga.
D+I: ¿Son proactivos?, ¿hay reacción de los usuarios internos?
J.P.: ¡Sí, cómo no! Y tenemos muy, muy buena relación entre los usuarios, mi grupo, y el grupo de producto que hace la tecnología que vendemos a nuestros clientes.
D+I: ¿Qué cambios ha supuesto, desde el punto de vista tecnológico, pasar de la IA "normal" a la IA generativa?
J.P.: Primero, nada cambió en la manera en que yo manejo tecnología, porque veo la inteligencia artificial como otra aplicación. Es otra capacidad. Otra herramienta que les estamos dando a nuestros grupos para hacer sus trabajos con éxito. En lo que hemos tenido que cambiar es en asegurarnos de que los datos estén correctos, que sean efectivos. Eso es bien crítico para la implementación de cualquier proyecto de inteligencia artificial.
La segunda cosa es que hemos tenido que entrenar a nuestros usuarios mucho más rápido que antes, porque el cambio es muy rápido. Estamos completando nuevos proyectos de inteligencia artificial constantemente y en ese momento los hacemos disponibles a nuestros usuarios, así que tenemos que mantenerlos entrenados, al tanto de los cambios, para que tomen ventaja.
Al crear inteligencia artificial generativa, el mayor cambio es que hay que entrenar los modelos un poquito diferente. Hay que asegurarse de que los modelos sean confiables, poner más elementos de seguridad, asegurarnos que los modelos no sean fallidos, que tengan la información correcta y que al final el resultado sea creíble. Es muy importante para la compañía asegurarnos y que el cliente sepa que lo que está usando viene de datos verídicos y el resultado ha sido verificado.
Creo que muchos procesos de negocio se van a beneficiar. En el pasado, utilizar inteligencia artificial era complicado. Tenías que tener técnicos para ese trabajo. Profesionales que saben de verdad cómo desarrollar los programas. Con IA generativa la tecnología está, en cierta forma, ya construida y lo que estamos haciendo es integrarla en nuestros productos.
La adopción de IA generativa ha sido increíblemente rápida. En cuestión de un par de meses hay más de 100 millones de usuarios y eso indica que la tecnología es más fácil de usar.
D+I: ¿Cuánto tiempo estima que necesita una empresa para tener integrado el nuevo modelo?
J.P.: Depende. Si eres cliente de Salesforce y estás utilizando sus productos en tus procesos, puedes tener ventaja en las nuevas soluciones. Es mucho más fácil. Pero si tienes procesos establecidos hace varios años, con tecnología muy cerrada de otras compañías, es mucho más difícil implementar esas soluciones.
Yo creo que las compañías que utilicen nuestras soluciones, en el espacio de CRM, van a estar en una mucha mejor posición para poder implementar la IA. En otras áreas se van a seguir desarrollando capacidades, pero van a tener un poquito más de dificultad para implementarse algunas de estas soluciones.
IA de otros proveedores
D+I: Su solución utiliza un núcleo de IA de Salesforce, pero también se adapta a utilizar la IA generativa de diversos otros proveedores, ¿cómo funciona eso?
J.P.: La manera en la que hemos construido nuestra tecnología es que, si utilizas nuestra solución, puedes utilizar modelos (de entrenamiento) construidos por Salesforce, que sabemos que están basados en la información de tu compañía y han sido verificados a través de todos los sistemas y procesos que tenemos para asegurarnos de que nuestra tecnología sea confiable.
Pero también puedes traer tu propio modelo, construirlo en tu compañía e integrarlo con la solución de Salesforce. O utilizar un modelo externo por encima de la tecnología de Salesforce. Tienes flexibilidad.
D+I: Pero su modelo básico procede de Open AI, ¿verdad?
J.P.: Exacto. Hay otras compañías que desarrollaron modelos básicos, pero el que más conocemos es el de Open AI. Lo que hemos hecho es establecer una relación con Open AI, de manera que nuestra información no va a su modelo general (sus datos para entrenamientos), y eso nos permite mantener separación entre tu información, Salesforce y Open AI.
Sinceramente, si no hubiera creado esa capacidad para nosotros, tener ese tipo de modelo, hubiera sido muy difícil utilizar Open AI, porque tenemos que proteger la información de nuestros clientes.
D+I: En esos sistemas de verificación que aplican a los entrenamientos, ¿se incluye también un control de sesgos, cuestión que preocupa en cuanto a la IA?
J.P: Sí, claro que sí. Si tienes una pregunta, por ejemplo, quiero saber este cuál fue el ingreso anual de todos los trabajadores de España en los últimos 10 años, la respuesta dependerá de la fuente de dónde venga. Puede cambiar. Si la información no viene de una fuente fiable, es muy probable que la respuesta que recibas sea incorrecta.
Hacemos varios pasos en el proceso para, primero que nada, asegurarnos de que la información sea verídica, que los resultados sean verificados y que no haya nada en conflicto: cosas éticas, de racismo, sesgos… que no haya nada de eso. Todo esto se verifica en el proceso antes de dar la respuesta. Cuando se te presenta a través de la solución de Salesforce, la respuesta es verídica, es cierta y sabes con gran seguridad, que esa información no te va a causar ningún problema.
El problema es cuando hay compañías que usan esas tecnologías, pero no tienen tales procesos de verificación. Los datos vienen de un montón de lugares que no han sido verificados y, para esa misma pregunta, la información puede ser completamente diferente.
D+I: Otra cuestión, en la inteligencia artificial, es que determinados modelos de entrenamiento no progresan, no hacen aprendizaje de novedades. Hay sistemas de inteligencia artificial que solo pueden responder hasta la fecha del set de datos con el que se entrenaron. ¿Su inteligencia, puede seguir aprendiendo?
J.P.: Claro. Eso es crítico y lo más importante, para mí, como usuario de esta tecnología. Nosotros construimos nuestros modelos para que siempre estén absorbiendo más información, manteniéndola al corriente. Y utilizando todos estos modelos para verificar los datos, también, para asegurarnos de que la nueva información sea efectiva.
Pero todos los modelos que hay en el mercado ya tienen la capacidad de seguir aprendiendo. Ese es el truco. No pueden quedarse estáticos, pierden su valor.
D+I: Entonces la cuestión es de dónde sacan los datos. A ChatGPT se le acusa últimamente de que es cada vez más disperso en las informaciones que da…
J.P.: Sí, y también hay el problema del copyright, de asegurarse de que en la información no haya ningún copyright que haya sido violado. Todo eso, nosotros lo hemos tomado muy en serio. Por eso tenemos todos esos procesos de verificación.
Si trabajas con modelos que están disponibles a cualquiera, y cualquiera puede poner cualquier información, es un poquito más arriesgado. Yo a veces lo comparo, un poquito, con Wikipedia. Fíjate cómo funciona: hay gente que siempre está poniendo información, ha crecido y crecido con el tiempo, pero a veces hay información que no es muy correcta. Lo bueno de Wikipedia es que siempre hay alguien observando y dice "¡Ah, no! Esto no es correcto y se corrige".
D+I: Desde el punto de vista de un responsable de IT, la gran novedad en los últimos años es que, antes, cada cambio de sistemas implicaba también mucho hardware nuevo. Ahora parece que no es tan importante…
J.P.: Como usuario y como jefe de tecnología en una compañía como la mía, no, porque toda esa infraestructura está en la nube. Es un cambio inmenso.
Los conceptos de inteligencia artificial han estado en la industria durante muchísimos años. Si vas 10, 15 años atrás, la capacidad de procesamiento no estaba al nivel que está hoy para poder entender esos modelos tan grandes de información y poder generar información a una velocidad bien rápida.
Es el cambio más grande y lo bueno es que yo no tengo que manejar nada de eso. Toda esa infraestructura la maneja alguien más. Se necesita mucha capacidad para poder hacer esto con millones de usuarios que andan buscando constantemente información con ChatGPT. Lo bueno es que hay una gran capacidad disponible. Las compañías que proveen el cloud la tienen.