¿Cómo pudo Apple quedarse atrás en IA (hasta ahora) cuando fue pionera con Siri en 2011, hace 15 años?
Hay una pregunta que me lleva rondando desde hace tiempo: ¿cómo es posible que Apple, la empresa que puso la IA por primera vez en el bolsillo de millones de personas —sí, en septiembre de 2011, justo el día anterior al fallecimiento de Steve Jobs, cuando nadie más lo había hecho— vaya hoy a remolque en la carrera de la IA?
Esta reflexión personal nos sirve para observar por qué llegar primero no garantiza seguir el primero, aunque quedarte atrás sí sirve para ponerte las pilas. Y se las están poniendo.
Antes de Siri: la prehistoria de la IA
La idea de que una máquina pueda mantener una conversación con un humano tiene más de setenta años. En 1950, el matemático Alan Turing planteó por primera vez la pregunta de si las máquinas pueden pensar, y propuso lo que hoy llamamos el «Test de Turing»: si una máquina puede hablar tal como los humanos, puede considerarse inteligente. Así Turing plantó la semilla de todo lo que vino después.
He leído que en 1966, el MIT creó ELIZA, el primer programa capaz de simular una conversación reconociendo patrones de texto; y dicen que incluso hubo quien creó vínculos emocionales –jaja– y eso que sólo reconocía patrones y daba respuestas predefinidas. Pero, al parecer, funcionaba. En las décadas siguientes, no avanzaron tan rápido en este campo, pero las universidades avanzaron poco a poco en patrones de aprendizaje (ML) y procesar textos con memoria. Avanzando despacio y, lógicamente, lejos del gran público.
2011: Apple lo pone en tu bolsillo
En septiembre de 2011, Apple presentó el iPhone 4S con una característica que nadie esperaba: Siri, un asistente por voz capaz de entender preguntas, responder, buscar información, poner recordatorios, enviar mensajes… No era perfecta, ni servía para mucho comparado con las IAs de hoy, pero funcionaba y sorprendió bastante; hasta que profundizabas con las preguntas y fallaba más que una escopeta de feria.
Apple había comprado la empresa Siri Inc. unos meses antes por unos 200 millones de dólares. Y, en lugar de guardársela para desarrollarla en silencio durante años, la lanzó directamente a millones de personas con un smartphone.
¿Fue Apple la primera en desarrollar tecnología de reconocimiento de voz o procesamiento de lenguaje natural? No, en sentido estricto. Eso venía de décadas de investigación. Pero sí fue la primera en integrarla en un producto de consumo con una interfaz. Aún así, desesperaba un poco a los propios usuarios del iPhone ya que confundía ciudades o fallaba en preguntas simples y no servía para tanto.
Apple se quedó atrás
Durante los años siguientes, Siri mejoró poco o nada. Y mientras Google lanzaba lo que después sería su asistente en 2012 y era claramente superior en búsqueda. Amazon sacó Alexa en 2014 con los altavoces inteligentes. Microsoft lanzó Cortana.
¿Por qué no avanzó? Quizá por la propia cultura de Apple, ya que en su ADN están los sistemas cerrados (prima la seguridad y la privacidad: recordáis aquello del «sandbox«, es decir, lo que pasa en tu iPhone se queda en tu iPhone), mientras que la IA se basa en datos masivos en servidores y avanzó gracias a papers abiertos como «Attention Is All You Need» de Google en 2017.
Transformer: ‘Attention Is All You Need‘
Este paper de 2017 describía una nueva arquitectura para modelos de IA llamada Transformer. No soy experto, pero lo que llaman «arquitectura» en las IAs es la forma en la que se conectan y relacionan los datos masivos. Y, al parecer, esta arquitectura aportaba un nuevo enfoque que permitió que los modelos de IA pudieran escalar hasta donde han llegado hoy. Creo que casi todos los modelos actuales se basan en aquello. Google creo ‘BERT‘ (‘Bidirectional Encoder Representations from Transformers‘), que años más tarde se uniría a otros proyectos de la empresa dando lugar al actual Gemini.
A partir de ese paper, todo disparó: OpenAI lanzó GPT-2 en 2019, GPT-3 en 2020, y en noviembre de 2022 presentó ChatGPT que, según se ha publicado, en sólo 5 días tenía 1 millón de usuarios y en 2 meses 100 millones. Quizá sea la tecnología más rápidamente popularizada de la historia.
ChatGPT y el ‘boom’ de las IA en 2023
ChatGPT no era un asistente por voz que ponía recordatorios. Era algo cualitativamente diferente: podía escribir, razonar, explicar, programar, analizar, traducir… y para colmo lo hacía con una fluidez que parecía verdaderamente humana.
El ‘boom’ fue en marzo de 2023 con la llegada de GPT-4 y el impacto se hizo verdaderamente masivo: Google respondió acelerando Gemini y Microsoft invirtió miles de millones en OpenAI e integró la IA en sus productos a través de Copilot. Meta lanzó modelos de código abierto. El sector entró en modo de emergencia competitiva. Y algún ingeniero extrabajador de OpenAI fundó Anthropic, la empresa creadora de Claude, actualmente la IA más descargada de la App Store del iPhone y iPad y, personalmente, la que más me gusta.
Y Apple… seguía a por uvas: el año en que toda la industria reaccionó al shock de ChatGPT, Apple estuvo casi en silencio, lo que en sí mismo era ya una señal.
¿Y ahora qué? Apple ante la IA
Aunque se haya quedado atrás en la IA respecto a ChatGPT, Gemini, Claude, Apple tiene algo que ningún competidor puede replicar de un día para otro: uno de los hardware más eficientes del mundo para ejecutar IA en un dispositivo gracias a sus procesadores Apple Silicon, que llevan todos los Mac, iPad y iPhone desde 2020 y que tienen la ventaja de que CPU y GPU comparten la misma memoria física, evitando que los datos tengan que viajar entre la memoria de la CPU y la de la tarjeta gráfica (GPU), y así ganar eficiencia.
Además, actualmente estos procesadores de Apple tienen un chip llamado Neural Engine, diseñado específicamente para operaciones de IA y tambien comparte el mismo espacio y la misma memoria. El resultado es que un Mac con chip M4 o M5 puede ejecutar modelos de IA localmente, sin conexión a internet, con una eficiencia que ningún otro portátil puede igualar a precio comparable.
Eso no es un detalle menor. Es la base de la estrategia que Apple está intentando construir.
Estrategia de Apple respecto a la IA en 2026
Al parecer, la apuesta de Apple por la IA se basa en 3 capas distintas:
La primera pieza: el nuevo Siri
Siri que todos conocemos combina reconocimiento de voz y un sistema de reglas predefinidas. No es un modelo de lenguaje, como GPT, Claude o Gemini, sino, en cierto modo, una evolución de aquel ‘ELIZA’ (reconocer patrones de texto y ejecutar acciones predefinidas).
La buena noticia es que Apple lleva dos años prometiendo reconstruirlo desde cero. La mala es el historial de retrasos: primero, lo prometieron para 2024 (con iOS/macOS 18); se retrasó a 2025 (con iOS/macOS 26); se volvió a retrasar a la primavera de 2026 (con el 26.4); y hace apenas 3 semanas, Bloomberg informó de que tampoco llegará completo.
Al menos han dado la cara y Craig Federighi (VP de software de Apple), explicó internamente que lo avanzado resultó ser insuficiente y que habían decido rehacerlo con una arquitectura más ambiciosa en lugar de lanzar algo mediocre. Veremos cómo avanza y qué tal es el resultado final. Ha prometido que podrá ejecutar localmente operaciones de IA con los datos del usuario (sin perder privacidad y seguridad) e interactuar con las Apps.
La segunda pieza: Apple Intelligence
‘Apple Intelligence‘ engloba todas las funciones de IA generativa que ya están disponibles en iPhone, iPad y Mac: resumir correos y notificaciones, reescribir textos, generar imágenes, limpiar fotos, y algunas otras. Funciona con modelos propios de Apple que corren directamente en el dispositivo, sin enviar datos a ningún servidor. Siguen primando privacidad y seguridad. Pero hace muy pocas cosas, casi nada, a pesar del marketing.
Al parecer, los modelos que usa Apple para ‘Apple Intelligence’ son pequeños (unos 3.000 millones de parámetros, 3B en inglés), comparados con los cientos de miles de millones de los modelos de OpenAI (ChatGPT), Google (Gemini) o Anthropic (Claude).
La gran oportunidad de Apple es que los modelos cada día son más eficientes: lo que antes necesitaba un modelo enorme, ahora se puede hacer con uno más pequeño; y Apple tiene el hardware más eficiente del mundo para ejecutarlo localmente, con toda la ventaja de privacidad que eso implica y que llevan a gala.
Digamos que la «futura» eficiencia, permitiría que Apple pueda aprovechar su hardware para ejecutar IA local, pero hoy aún las operaciones más llamativas de la IA se hacen en servidores remotos con un sistema de cliente-servidor. Y, no nos equivoquemos, a medida que se gana en eficiencia, también aparecen operaciones más complejas que requieren, de nuevo, más aprendizaje, más memoria y más potencia.
La tercera pieza: Private Cloud Compute
Esta es la pieza menos conocida y seguramente la más importante a largo plazo: cuando una consulta supera lo que el dispositivo puede hacer localmente, Apple la envía a sus propios servidores, que también usan chips Apple Silicon, manteniendo su filosofía de privacidad y seguridad en la nube. Y sólo cuando se trata de tareas que ni el iPhone o el Mac, ni los servidores de Apple pueden resolver bien, y con permiso explícito del usuario, Apple recurre a ChatGPT y Gemini, cuyas empresas se comprometen contractualmente a no usarlos para entrenar sus modelos.
Esto resuelve la tensión entre privacidad y potencia: puedes tener acceso a modelos más capaces en la nube sin sacrificar el control sobre tus datos, aunque hay que fiarse del compromiso de OpenAI y Google. Y la otra es que una empresa como Apple tenga que recurrir herramientas de sus competidores directos, lo cual es mucho decir.
El papel de OpenAI y Google: socios necesarios, competidores incómodos
Con este modelo, se combina 1) una IA local muy eficiente, 2) hardware potente y optimizado para IA, y 3) la posibilidad de acudir a modelos de IA potentes como GPT de OpenAI o Gemini de Google, siempre con permiso explícito del usuario.
Sin embargo, a nadie se le escapa que es una posición incómoda. Y la realidad es que Apple tiene la estrategia de apoyarse en estos socios como puente mientras desarrolla capacidad propia. Lo mismo que hizo con Google Maps durante años, hasta que Apple Maps fue suficiente como para prescindir de él. Si el patrón se repite, en algún momento Apple podría intentar cortar o reducir esas dependencias.
¿Todavía a tiempo?
Las ventajas de Apple son:
- Nadie más tiene el hardware que tiene Apple con los procesadores (CPU+GPU+Neural Engine) para ejecutar IA local en equipos como el iPhone o el Mac. Si los modelos siguen haciéndose más eficientes —y la tendencia es esa— Apple estará mejor posicionada que nadie para ejecutarlos localmente.
- Tiene datos del usuario para personalizarlos con la IA: saber tu calendario, tus contactos, tus hábitos, tus aplicaciones, y usar esa información localmente para dar respuestas relevantes sin que salgan del dispositivo. Cuando el nuevo Siri y Apple Intelligence puedan realmente actuar en tu nombre sabiendo quién eres y qué necesitas.
- Además, mientras OpenAI, Google y Microsoft ha invertido cientos de miles de millones en construir centros de datos masivos, Apple mantiene una tesorería altísima (alrededor de 130.000 millones) y, cuando los costes de IA se ‘comoditicen’ más, Apple habrá conservado recursos para adquirir lo que necesite. Aunque esto no es más que un consuelo relativo, ya que una empresa innovadora no puede esperar que otros innoven; aunque sí, aprovechar la innovación de los demás, como otros lo han hecho con la innovación de Apple.
Apple fue pionera con Siri en 2011; no en inventar la IA, sino en ponerla en manos (en el bolsillo) de millones de personas. Sin embargo llegó tarde al ‘boom’ de los modelos de IA de 2023. Acumula retrasos, pero parece que empieza a tener una estrategia que podría ser realista y, quizá, podría permitirle aprovechar la verdadera ventaja: a) el hardware muy eficiente, b) relación de privacidad y seguridad con el usuario, y c) un ecosistema muy integrado hardware-software-servicios digitales-nube; señas de identidad de la cultura Apple.
Si el nuevo Siri cumple lo que promete y empieza a usar datos del usuario, si Apple Intelligence madura y permite acceder a Apps y Ajustes y si Private Cloud Compute demuestra que la privacidad y la potencia no son incompatibles, quizá Apple habrá encontrado su propio camino en la IA. Ojo, no el de ChatGPT, ni el de Claude, ni el de Gemini, que parecen apostar por la potencia en servidor (y en el caso de Google adicionalmente la integración de todo su ecosistema, otra gran ventaja), sino el suyo propio: una IA personal, privada, en tu dispositivo y que te conoce a ti. Veremos si consiguen llegar. Y veremos como evoluciona el sector, porque esto no ha hecho más que empezar.
