Nuevo aspecto de Siri.

Nuevo aspecto de Siri. Apple Omicrono

Software

Apple confía plenamente en sus sistemas: pagará un millón de dólares a quién consiga hackear su IA privada

Publicada

El vuelco de Apple a la inteligencia artificial después de años de silencio ha sido más que notorio en España. Lo ha hecho de la mano de Apple Intelligence, la suite de funciones y apps de IA que ha potenciado recientemente sus iPhone 15 Pro e iPhone 16 (así como los Mac con M1). Una de las muchas claves de Apple Intelligence es su férreo sistema de seguridad, y Apple está tan segura de él que ha ofrecido un millón de dólares a quién consiga hackearlo. 

Cuando Apple presentó las primeras novedades de Apple Intelligence, quiso dar detalles sobre las principales cuestiones de seguridad de esta suite. No es para menos, ya que Apple lleva siendo una abanderada de la privacidad prácticamente desde sus inicios, y en este caso no es menos. La base de Apple Intelligence tiene que ver con Private Cloud Compute (PCC), un estándar de privacidad de la IA en la nube potenciado con servidores dedicados de Apple.

Los de Cupertino, desde su división de Ingeniería y Arquitectura de Seguridad (SEAR) han lanzado un blog de desarrollo sobre Private Cloud Compute. En él, Apple lanza propuestas harto interesantes: que investigadores de seguridad y privacidad verifiquen las "promesas de seguridad" de PCC, ofreciendo por el camino mediante su programa de recompensas pagos de hasta un millón de dólares para aquellos que descubran vulnerabilidades en el sistema.

Apple confía en sus sistemas

¿Qué es Private Cloud Compute? Apple Intelligence procesa la mayor parte de las peticiones que se realicen a la inteligencia artificial de la compañía (llevada a cabo con los modelos de OpenAI, tales como GPT) dentro del dispositivo. Es necesario, por lo tanto, usar o bien un dispositivo con un chip A17 Pro o un M1 como mínimo. Es decir, solo los ordenadores Apple Silicon y los iPhone a partir de los 15 Pro pueden ejecutar Apple Intelligence.

Cuando la petición del usuario a la IA no se puede ejecutar en el dispositivo, Apple Intelligence saca a relucir el estándar de privacidad Private Cloud Compute, que cuenta con la capacidad de flexibilizar y escalar la capacidad computacional entre el procesamiento en el dispositivo y modelos de IA más grandes basados en servidores. Servidores que por supuesto funcionan con tecnología propietaria de Apple.

La nueva Siri, potenciada con Apple Intelligence.

La nueva Siri, potenciada con Apple Intelligence. Apple Omicrono

PCC existe específicamente para llevar a cabo algunas de las funciones más avanzadas que precisan el razonamiento sobre datos complejos con estos modelos más amplios. La idea detrás de PCC es poder procesar la IA de forma privada, haciendo que por ejemplo los datos personales enviados por los usuarios al sistema no sean accesibles ni siquiera por la mismísima Apple. Pese a que este sistema está basado, de hecho, en procesadores Apple Silicon.

Apple cree tanto en este sistema operativo reforzado que, en sus propias palabras, definen a PCC como "la arquitectura de seguridad más avanzada jamás implementada para el cómputo de IA en la nube a gran escala". Para ello, se valen de las tecnologías tan valiosas como el cifrado de extremo a extremo o el procesamiento efímero de los datos de los usuarios.

Esquema de la investigación de seguridad sobre PCC.

Esquema de la investigación de seguridad sobre PCC. Apple SEAR Omicrono

La empresa parte de un anuncio muy sencillo. En pos de "generar confianza pública en el sistema", Apple permitirá que investigadores centrados en la seguridad y privacidad inspeccionen al dedillo todo lo que promete Private Cloud Compute, incluyendo las relacionadas con el cifrado de extremo a extremo.

Ya en las semanas siguientes al anuncio de Apple Intelligence en junio de este año, Apple dio acceso a auditores e investigadores a ciertos recursos que permitieran estas inspecciones. Ofrecerán a dichos investigadores un entorno de investigación virtual para hacer análisis de seguridad en Mac, una guía de seguridad con detalles técnicos y el código fuente ubicado en GitHub para "ciertos componentes clave de PCC".

No contento con ello, Apple ha anunciado la ampliación de su Apple Security Bounty, es decir, su programa de recompensas de búsqueda de errores, con el objetivo de incentivar todavía más la investigación sobre Private Cloud Compute. Dependiendo de la categoría, Apple ofrecerá recompensas que irán desde los 50.000 dólares hasta un millón. Aunque lógicamente, no será fácil.

Para obtener esta recompensa máxima, el especialista deberá ejecutar un ataque dentro de la categoría de ataques remotos a datos solicitados, y realizar una ejecución de código arbitrario con derechos arbitrarios. La llamada ejecución arbitraria de código hace alusión dentro de la ciberseguridad a la capacidad de un atacante de ejecutar comandos e inyectar código de forma totalmente libre aprovechando una vulnerabilidad.

Por supuesto, Apple no pagará un millón de dólares a un atacante anónimo. El objetivo último de este programa es detectar precisamente estas vulnerabilidades para mejorar el sistema y así blindarlo en caso de que hackers maliciosos descubran estos fallos antes, para acceder a PCC sin el consentimiento de Apple. La firma americana defiende estos máximos debido a que PCC "extiende la seguridad y privacidad líderes en la industria de los dispositivos Apple en la nube".