- iOS 27 estrenará un sistema de “Extensiones” para conectar modelos de IA externos con Siri y Apple Intelligence.
- El usuario podrá elegir qué modelo responde (Gemini, Claude, ChatGPT y otros) e incluso asociar voces diferentes.
- La integración llegará también a Writing Tools e Image Playground en iPhone, iPad y Mac.
- Apple quiere que sus dispositivos sean la plataforma central donde conviven los principales modelos de IA del mercado.

Con iOS 27, Apple se prepara para mover ficha en serio en el terreno de la inteligencia artificial en el iPhone. Después de unos años en los que Siri se ha quedado claramente por detrás de competidores como Gemini o ChatGPT, la compañía ultima un sistema que permitirá algo hasta ahora impensable en su ecosistema: elegir qué modelo de IA responde dentro del propio sistema.
El nuevo enfoque gira en torno a una función interna bautizada como “Extensiones”. Según diversas filtraciones, incluidas las de Bloomberg y medios europeos como Europa Press, Apple planea que el usuario pueda cambiar el motor de IA que impulsa Siri y otras herramientas de Apple Intelligence, usando modelos de terceros instalados desde la App Store y configurables desde Ajustes, sin tener que abrir apps externas ni abandonar la experiencia habitual del iPhone.
Qué es el sistema de Extensiones y cómo cambia a Siri
Extensions (o Extensiones) es el nombre interno del sistema con el que Apple quiere conectar modelos de IA externos con las funciones ya existentes de Apple Intelligence. La idea es sencilla de explicar, pero potente en sus consecuencias: los modelos de Gemini, Claude, ChatGPT y otros se enchufan directamente a las partes del sistema donde hoy ya usamos la IA de Apple.
En versiones de prueba de iOS 27 a las que habría tenido acceso Bloomberg, Apple describe Extensions como una capa de sistema y una API común que permite que modelos de IA de terceros respondan desde Siri, Writing Tools o Image Playground, entre otros puntos del sistema. Todo ello sin lanzar una app aparte ni cambiar de contexto, algo clave para que la experiencia siga siendo “muy Apple”.
El salto respecto a lo que tenemos ahora es importante. Hasta iOS 26, la integración externa se limita básicamente a ChatGPT como apoyo puntual: si Siri no llega, pregunta fuera. Útil, pero bastante limitado y, sobre todo, sin posibilidad real de elección. Con Extensions, el planteamiento pasa de un único socio seleccionado por Apple a un modelo más abierto en el que conviven varios proveedores.
Para el usuario, esto se traduciría en que Siri deja de estar atada en exclusiva a un único modelo. Podremos escoger qué cerebro se usa para diferentes tareas, manteniendo a Siri como interfaz principal, pero con la flexibilidad de cambiar el motor de IA según la necesidad o la preferencia.
Elegir el modelo de IA: Gemini, Claude, ChatGPT y los que lleguen
El punto de entrada a este nuevo escenario será la App Store. Apple está preparando una sección específica dedicada a aplicaciones compatibles con Extensions, de forma que resulte sencillo localizar qué modelos de IA se pueden conectar al iPhone, iPad o Mac sin necesidad de rastrear la tienda a ciegas.
Una vez instalada una app compatible —por ejemplo, la de Google Gemini o la de Anthropic con Claude—, el usuario podría ir a Ajustes > Apple Intelligence o Siri (la estructura exacta todavía no está confirmada) y seleccionar qué modelo quiere usar como predeterminado. Las filtraciones hablan incluso de un escenario en el que se pueda asignar un modelo diferente a cada tipo de tarea: uno para escribir, otro para conversaciones y otro para imágenes.
Bloomberg llega a plantear ejemplos bastante claros: usar Claude para redactar o resumir textos, aprovechar Gemini para la creación de imágenes en Image Playground y mantener ChatGPT como apoyo conversacional en Siri. Aunque son hipótesis sobre cómo podría configurarse el sistema, encajan con la filosofía general de Extensiones: más que pelear por un modelo único, ofrecer un “panel de control” donde el usuario decide.
Conviene subrayar que, según estas informaciones, el acuerdo firmado con Google para integrar Gemini de forma nativa sigue su propio camino. Es decir, Gemini seguirá formando parte del núcleo de Apple Intelligence en determinados escenarios, incluso aunque luego el usuario escoja otro modelo a través de Extensions. Serían, en palabras de las fuentes, dos carriles diferentes sobre la misma autopista.
Este mecanismo no se limitaría al iPhone. Las mismas fuentes apuntan a que iPadOS 27 y macOS 27 compartirán este sistema, de modo que la elección de modelos de IA de terceros también llegaría a iPad y Mac, con un comportamiento muy similar en todo el ecosistema.
Cambiar el modelo de IA en iOS 27: configuración y uso diario
A falta de confirmación oficial, el funcionamiento previsto para cambiar el modelo de IA en iOS 27 es relativamente directo. Primero, el usuario instala desde la App Store una aplicación compatible con Extensions (Gemini, Claude, u otros servicios que vayan sumándose). Después, en el panel de ajustes, podrá indicar qué modelo quiere usar como motor preferido dentro de Apple Intelligence.
La selección no sería un simple interruptor general. Las filtraciones dibujan un sistema algo más granular, donde se podrían elegir modelos distintos según el tipo de función. Por ejemplo, un modelo específico para Writing Tools (las herramientas de escritura integradas en el sistema), otro distinto para las sugerencias o resúmenes que haga Siri, y posiblemente otro para la generación o edición de imágenes.
Una pieza interesante de este rompecabezas es que Apple parece decidida a que todo ocurra dentro de las interfaces que ya conocemos. Cuando dictemos un mensaje a Siri, redactemos un correo utilizando las ayudas de escritura o juguemos con Image Playground, no tendremos la sensación de “saltar” a una app distinta. Simplemente, será otro modelo el que responda por debajo.
Eso sí, para que esto funcione, los desarrolladores tendrán que adaptar sus aplicaciones a la API de Extensions. No bastará con tener una app de IA en la tienda: será necesario implementar el soporte concreto para que iOS 27 pueda invocar las capacidades generativas desde Siri y Apple Intelligence. En Europa, donde la regulación sobre tiendas de apps y servicios digitales es más estricta, también quedará por ver cómo encajan estas integraciones con las exigencias comunitarias.
Voces diferentes según el modelo: cómo sabrás quién te responde
Uno de los cambios más llamativos que se mencionan en los informes es la gestión de las voces de Siri según el modelo de IA elegido. iOS 27 permitiría asignar una voz distinta dependiendo de si la respuesta viene del sistema propio de Apple o de un proveedor externo.
La idea es que el usuario tenga claro en todo momento qué modelo está contestando. Si la respuesta procede de la IA de Apple, Siri utilizaría una voz determinada; si viene de Gemini, Claude u otro servicio, la voz sería otra. En algunos escenarios, se habla incluso de dar a cada modelo su propia voz, aunque el nivel de personalización final todavía no está detallado.
Más allá del matiz sonoro, esto también tiene implicaciones de transparencia. En un contexto europeo cada vez más sensible a la forma en que se usan y combinan distintos servicios de IA, diferenciar claramente quién está detrás de cada respuesta puede ayudar a cumplir con futuras exigencias regulatorias y a generar más confianza entre los usuarios.
Este sistema de voces diferenciadas se integraría en la evolución general de Siri prevista para iOS 27, donde se especula con una interfaz renovada, presencia destacada en zonas como la Dynamic Island y una posible app independiente con historial y chats de texto, acercando el asistente a los modelos de chatbot que ya son familiares para muchos usuarios.
De sistema cerrado a plataforma de IA: la apuesta estratégica de Apple
El giro que suponen las Extensiones encaja en una estrategia más amplia. Durante años, Apple ha apostado por controlar de extremo a extremo su software y servicios, priorizando la integración interna frente a la apertura a terceros. En el terreno de la IA generativa, ese enfoque ha dejado al fabricante en una posición incómoda: llegó más tarde que otros y con un Siri que acumulaba críticas por su falta de contexto y capacidades.
En los últimos meses, Apple ha intentado tapar parte de esas carencias integrando ChatGPT y colaborando con Google y Anthropic en modelos e infraestructura para Apple Intelligence. Sin embargo, estas alianzas no bastaban para alcanzar la versatilidad de plataformas como Gemini o el propio ChatGPT utilizados de forma directa por los usuarios.
Con iOS 27, la compañía parece cambiar el enfoque: en lugar de pelear por ser la que ofrezca el mejor modelo único, quiere convertirse en la mejor plataforma donde funcionen todos esos modelos. El valor añadido ya no estaría solo en el asistente o el motor de IA propio, sino en la capacidad de orquestar diferentes servicios dentro de un entorno controlado, seguro y coherente para el usuario. Esta visión enlaza con cómo Siri se renovará para integrar modelos externos y comportarse más como un chatbot moderno.
En Europa, donde el debate sobre la IA generativa, la protección de datos y la interoperabilidad está muy activo, este enfoque tiene lecturas interesantes. Hacer del iPhone, el iPad y el Mac una especie de “hub de modelos de IA” permitiría a Apple ofrecer más opciones sin renunciar a su control sobre la experiencia y, al mismo tiempo, adaptarse mejor al marco normativo comunitario, que tiende a exigir menos bloqueos y más libertad de elección.
Calendario previsto, alcance y qué pueden esperar los usuarios
Según los planes habituales de la compañía, iOS 27 se presentará en la WWDC26, que Apple ha programado del 8 al 12 de junio de 2026. En esa conferencia deberían detallarse las nuevas funciones de Apple Intelligence, el sistema de Extensiones y los primeros socios confirmados para la integración de modelos de IA de terceros.
Tras la presentación, se espera una beta para desarrolladores en junio y una beta pública durante el verano, con la versión final llegando probablemente en septiembre, coincidiendo con el nuevo ciclo de iPhone. En paralelo, se introducirán las versiones equivalentes para iPad (iPadOS 27) y para ordenadores Mac (macOS 27), que también incorporarán el sistema de Extensiones.
En cuanto a compatibilidad, los informes apuntan a que el soporte de iOS 27 se centraría en iPhone 12 y modelos posteriores, aunque Apple aún no ha publicado una lista definitiva. En cualquier caso, no todas las funciones relacionadas con IA estarán disponibles en todos los dispositivos: algunas capacidades, especialmente las más exigentes, podrían requerir hardware más reciente.
Para los usuarios en España y el resto de Europa, la clave será ver cuáles de estos servicios de IA de terceros estarán disponibles desde el primer día y en qué condiciones. Las regulaciones de la UE sobre datos, transparencia y uso de modelos generativos pueden influir en cómo se ofrece cada integración, tanto a nivel de funcionalidades como de permisos y tratamiento de la información.
Si las filtraciones se confirman, iOS 27 supondrá un cambio profundo en la forma en que el iPhone se relaciona con la inteligencia artificial. Del asistente único y cerrado se pasará a un escenario donde el usuario podrá elegir y combinar distintos modelos dentro de Siri y Apple Intelligence, con un sistema de Extensiones que actúa como pegamento entre el sistema operativo y los grandes actores de la IA generativa. Una actualización que, sin necesidad de grandes fuegos artificiales visuales, aspira a cambiar cómo usamos la IA en el día a día desde el móvil, la tablet y el ordenador.



