Apple ha incorporado su Neural Engine (Unidad de Procesamiento Neuronal, NPU) en todos los procesadores de Apple durante varias generaciones, utilizándolo para el aprendizaje automático local, como el procesamiento inteligente de fotos. Ahora, durante el reciente discurso de apertura de la WWDC, Apple anunció que utilizará esos Neural Engines para llevar modelos generativos y de lenguaje grande (LLMs) que pueden ejecutarse en los dispositivos a sus principales productos de Apple. Este es el enfoque clásico de Apple, preparando el terreno con antelación, pero lanzando una nueva función de producto cuando siente que puede ofrecer la experiencia de usuario al nivel “Apple” y resolver los puntos de dolor del cliente.
Después de la primera hora del discurso de apertura describiendo actualizaciones a los diversos sistemas operativos de Apple (oye, el iPad obtuvo una calculadora increíble), el CEO de Apple, Tim Cook, presentó la respuesta de la compañía a la IA generativa: Apple Intelligence. Apple Intelligence podrá ejecutarse en dispositivos locales, pero también habrá un elemento de Apple Cloud para consultas más complejas e incluso la opción de usar ChatGPT de OpenAI y otros productos de IA generativa de terceros (GenAI). Esto permite a los usuarios de Apple elegir la privacidad o obtener funcionalidad adicional de soluciones de terceros, permitiendo que Apple siga siendo competitivo con Microsoft y Google.
Cook indicó que querían construir una IA que fuera lo suficientemente poderosa como para ser efectiva, lo suficientemente intuitiva como para ser fácil de usar, lo suficientemente personal como para ser un verdadero asistente, y estar profundamente integrada en la experiencia de Apple con la privacidad incorporada desde el principio. Cook llamó a Apple Intelligence inteligencia personal. Apple Intelligence se lanzará en otoño con iOS 18, iPadOS 18 y MacOS “Sequoia”.
No todos los productos de Apple podrán soportar Apple Intelligence: solo los productos Mac y iPad con procesadores de la serie M (desde el M1) y el iPhone 15 Pro del año pasado con el procesador A17 Pro. Además de un cierto nivel de rendimiento TOPs (operaciones tera por segundo) requerido para el Neural Engine en el silicio de Apple, también parece que Apple necesita al menos 8GB de DRAM para mantener los modelos GenAI (El procesador A16 Bionic del iPhone 14 Pro solo tiene 6GB de DRAM, pero un Neural Engine de 17 TOPS, más que los procesadores M1 y M2).
Debido a que Apple ha estado incorporando el Neural Engine NPU durante varias generaciones de silicio de Apple, permite que Apple ejecute Apple Intelligence en sistemas más antiguos, a diferencia de Microsoft, que requiere un nuevo silicio de PC AI para ejecutar las funciones Copilot+ en las PC. Esto podría ser una ventaja significativa para Apple mientras despliega Apple Intelligence a un ecosistema más amplio ya existente sin tener que construir un ecosistema completamente nuevo y una base instalada como Microsoft está intentando hacer. De hecho, Apple admitirá Apple Intelligence desde la edición 2020 del MacBook Air y MacBook Pro, que usaron el procesador M1.
Las aplicaciones iniciales de Apple Intelligence fueron bastante modestas en alcance. Inicialmente, se utilizará para mejorar los servicios existentes de Apple. Pero, en conjunto con Siri, también podrá realizar ciertas acciones en tu nombre en las aplicaciones de Apple.
Debido a que Apple Intelligence estará profundamente integrado en el sistema operativo y podrá usar tu contexto personal, Apple espera que se convierta en una parte estrechamente integrada de las interfaces de los productos Apple. La compañía también utilizará Apple Intelligence para potenciar el asistente personal Siri, con un mejor procesamiento del lenguaje natural y conciencia del contexto en pantalla. Apple Intelligence también es multimodal, incluyendo voz, lenguaje escrito e imágenes.
Apple tendrá un Siri mejorado utilizando IA para un procesamiento de lenguaje más rico y añadiendo una mejor comprensión del contexto relevante en el dispositivo. Apple también añadirá la escritura como una entrada para Siri. El Siri mejorado se podrá utilizar para descripciones de funciones para funciones de control o para encontrar información, incluso en aplicaciones. También tendrá conciencia en pantalla de la información en la pantalla cuando esté en uso.
Por ejemplo, aunque Apple no se centró en que GenAI haga la escritura creativa por ti, la compañía habló de cómo Apple Intelligence podrá reescribir, corregir y resumir trabajos existentes. Esta puede ser la manera de Apple de evitar el problema de que GenAI reemplace a los profesionales creativos.