Apple va, prácticamente, a varios anuncios por mes en lo relativo al desarrollo de inteligencia artificial. A punto de presentar sus nuevos iPads, la compañía ha lanzado un nuevo conjunto de modelos de lenguaje natural. Por sus características, esta novedad refuerza la idea de que la IA de Apple se ejecutará por completo en el dispositivo como se ha informado recientemente.
Para priorizar la velocidad de trabajo y la seguridad de los datos personales, la apuesta de Apple pasa por que la IA no salga del dispositivo, no se ejecute en centros de datos cercanos. Pero para ello se requiere una adecuación de la tecnología a las capacidades de productos pequeños como es un iPhone.
Este miércoles, 24 de abril, Apple ha lanzado OpenELM, un grupo de cuatro modelos de lenguaje de pequeño tamaño. Los ha publicado en la biblioteca de código abierto Hugging Face y sus cualidades son más propicias para ejecutarse en un dispositivo de mano.
Cuatro modelos nuevos
Cada elemento de esta serie tiene distinto tamaño: 270 millones de parámetros, 450 millones de parámetros, 1.100 millones y 3.000 millones de parámetros el más grande de los cuatro modelos. Los parámetros se refieren al número de variables que el modelo abarca a la hora de tomar decisiones entre su conjunto de datos con los que ha sido entrenado.
Cuánto más grande ese el modelo, más difícil es de ejecutar, por lo que no podría tratarse de forma local en dispositivos como un teléfono móvil. En concreto, estos modelos de código abierto serían eficientes en la generación de texto, por lo que se les podría solicitar tareas como la escritura de correos electrónicos.
Estos cuatro modelos se suman a otros que Apple ha lanzado a la comunidad de desarrolladores en los últimos meses. Por ahora no ha presentado ninguno destinado al uso comercial, como sí han hecho sus competidores.
Tampoco ha informado sobre el posible uso que se le podría dar a esta IA en su dispositivo, aunque no habrá que esperar mucho para saberlo. En el mes de junio, se espera que la compañía muestre los cambios que esta tecnología traerá a su software.
Otros anuncios
La empresa ha ido dejando pequeñas pistas. En diciembre lanzó MLX, un marco de aprendizaje automático que facilita ejecutar modelos de IA en los chips Apple Silicon. Por otro lado, el gigante de Cupertino ha creado MGIE, un modelo de edición de imágenes que podría editar fotografías. También Ferret-UI serviría para navegar por el sistema operativo del teléfono con la ayuda de la IA.
Todas estas opciones se confirmarán o descartara, en teoría, durante la WWDC de junio. Aún así, con todo el trabajo realizado por los ingenieros de Apple, no sería suficiente para ponerse al día en esta carrera frenética en la que se encuentra la industria. Por ello, Apple habría contactado con Google y otras empresas, para llegar acuerdos y poder usar sus modelos más avanzados en los productos de Apple.