Apple podría estar preparando uno de los cambios más interesantes (y "menos Apple”, en el sentido clásico que esperaríamos) para la siguiente gran versión de sus sistemas operativos. De acuerdo con reportes recientes basados en información de Bloomberg, la compañía planea permitir que los usuarios elijan modelos de inteligencia artificial de terceros para potenciar funciones de Apple Intelligence en iOS 27, iPadOS 27 y macOS 27, todos esperados para el otoño de 2026. La idea, conocida internamente como “Extensions”, permitiría que modelos externos no solo interactúen con Siri, sino también con herramientas integradas como Writing Tools e Image Playground.
La noticia todavía debe tratarse como filtración, no como anuncio oficial de Apple. Pero el movimiento tendría mucho sentido dentro del contexto actual: Apple llegó tarde a la carrera de IA generativa frente a Google, Microsoft, OpenAI y Anthropic, y aunque su estrategia con Apple Intelligence ha priorizado privacidad, integración local y control de experiencia, el ritmo del mercado ha sido mucho más agresivo que el habitual calendario de Cupertino. En otras palabras, Apple quería llegar elegante a la fiesta… pero la fiesta ya llevaba tres horas, la música estaba fuerte y alguien ya había conectado Gemini al karaoke.
UNA APPLE MÁS ABIERTA, PERO SOLO HASTA DONDE LE CONVIENE
Según los reportes, la función permitiría que los proveedores de IA integren soporte mediante sus propias apps de App Store. Una vez instalada una aplicación compatible, el usuario podría seleccionarla desde Configuración como su modelo preferido para ciertas funciones de Apple Intelligence. Esto implicaría un cambio importante frente al esquema actual, donde ChatGPT ha sido el único modelo externo integrado de forma visible en la experiencia de Apple Intelligence.
La diferencia no es menor. Hasta ahora, Apple había tratado a la IA de terceros como una especie de “consulta externa”: útil, pero no exactamente parte del sistema. Con iOS 27, al menos según la filtración, esos modelos podrían pasar a operar de forma más profunda dentro del sistema operativo, afectando escritura, generación de imágenes y respuestas de Siri. Eso convertiría al iPhone en una plataforma de IA más modular, donde Apple seguiría controlando la puerta, pero ya no necesariamente el cerebro completo.
También se reporta que Apple permitiría asignar voces distintas de Siri dependiendo del modelo que esté respondiendo. En teoría, una respuesta generada por un modelo propio de Apple podría tener una voz, mientras que una respuesta procesada con ChatGPT, Gemini o Claude podría usar otra. Esto suena como una función pequeña, pero revela algo más grande: Apple estaría intentando hacer visible cuándo una respuesta proviene de una IA distinta, sin romper completamente la ilusión de una experiencia unificada.
GEMINI, CLAUDE Y EL FIN DE LA “EXCLUSIVIDAD” DE CHATGPT
La parte más interesante del reporte es que Apple ya estaría probando integraciones internas con modelos de Google y Anthropic. Reuters también recoge que Bloomberg apunta a Google y Anthropic como parte de estas pruebas, lo que abriría la puerta a Gemini y Claude dentro de Apple Intelligence.
Esto tendría una implicación directa: ChatGPT dejaría de ser la única opción externa dentro del ecosistema de Apple. Y eso es importante porque, aunque la integración con OpenAI fue una manera rápida de compensar el retraso de Apple en IA generativa, depender de un solo proveedor externo nunca pareció una estrategia muy sostenible para una empresa obsesionada con controlar cada tornillo, cada API y cada animación de rebote en pantalla.
Además, permitir múltiples modelos encaja mejor con la realidad actual del mercado. Claude suele destacar en ciertos flujos de escritura y razonamiento largo, Gemini tiene una integración fuerte con el ecosistema de Google y capacidades multimodales avanzadas, mientras que ChatGPT conserva una presencia enorme entre usuarios generales y desarrolladores. Pretender que un solo modelo sea el mejor para todo es como decir que un solo cuchillo sirve igual para sushi, carne asada y abrir cajas de Amazon. Poder, se puede. Pero no significa que sea buena idea.
EL CAMBIO TAMBIÉN ES UNA CONFESIÓN
Si Apple abre Apple Intelligence a modelos de terceros, el mensaje implícito es bastante claro: sus modelos propios no bastan todavía para cubrir todas las expectativas. Eso no significa que Apple haya fracasado, pero sí revela una realidad incómoda. La compañía puede diseñar chips extraordinarios, controlar hardware y software como nadie, y aun así necesitar ayuda externa para competir en IA generativa de propósito general.
Y aquí viene el humor negro corporativo: Apple lleva años vendiendo la idea de que la mejor experiencia es la que controla de punta a punta, pero en IA parece estar descubriendo que el “jardín cerrado” también necesita ventilación. No mucha, claro. Solo la suficiente para que no se asfixie Siri.
El movimiento también podría servir como respuesta estratégica a la presión regulatoria y competitiva. Al permitir que otros modelos se integren a nivel sistema, Apple podría presentarse como una plataforma más abierta sin renunciar del todo a su control. Es decir, la compañía podría decir “miren, hay opciones”, mientras sigue decidiendo quién entra, bajo qué reglas y desde qué app de la App Store. Apertura, sí, pero con portero, lista VIP y código de vestimenta.
SIRI PODRÍA BENEFICIARSE MÁS QUE NADIE
La gran beneficiada de este esquema sería Siri, que durante años ha cargado con una reputación complicada. Mientras otros asistentes evolucionaron hacia experiencias conversacionales más flexibles, Siri se quedó atrapada en una mezcla rara de comandos útiles, respuestas torpes y momentos donde parece que te está escuchando desde otra dimensión.
Reportes previos ya apuntaban a que Apple trabaja en una renovación profunda de Siri, incluso apoyándose en modelos de Google para ciertas capacidades. MacRumors había reportado desde marzo que Apple seguía preparando una versión más avanzada de Siri, con integración de modelos externos como parte de una estrategia más amplia.
Si iOS 27 permite elegir el modelo detrás de Siri o de ciertas funciones, Apple podría convertir una debilidad histórica en una ventaja flexible. En lugar de intentar convencer a todos de que su IA interna es suficiente, podría dejar que el usuario escoja la herramienta que mejor le funcione. Esa posibilidad suena muy poco Apple… pero justamente por eso es interesante.
LA IA MODULAR PODRÍA SER EL FUTURO DEL SISTEMA OPERATIVO
Lo verdaderamente relevante aquí no es si puedes elegir ChatGPT, Gemini o Claude. Eso es solo la superficie. Lo importante es que el sistema operativo podría empezar a comportarse como una capa de orquestación entre modelos de IA, datos personales, aplicaciones y servicios.
Si Apple ejecuta bien esta idea, iOS 27 podría marcar una transición importante: el teléfono dejaría de tener “un asistente” para convertirse en una plataforma donde diferentes modelos especializados toman distintas tareas. Uno podría ser mejor escribiendo correos, otro interpretando imágenes, otro resumiendo documentos y otro manejando conversación natural. La inteligencia ya no viviría en una sola entidad, sino en una arquitectura distribuida.
Pero eso también trae nuevos problemas. ¿Quién responde cuando una IA externa se equivoca dentro de una función del sistema? ¿Apple, el proveedor del modelo o el usuario por haber elegido “el monito equivocado” en Configuración? ¿Cómo se explicará la privacidad cuando parte del procesamiento dependa de terceros? ¿Y qué tan transparente será Apple al mostrar qué modelo está haciendo qué?
Ahí está la parte delicada. Apple siempre ha vendido confianza. Si ahora permite modelos externos dentro de su sistema, tendrá que diseñar una experiencia donde esa flexibilidad no destruya la claridad. Porque darle opciones al usuario es bueno; convertir Configuración en un menú de degustación de modelos con 40 disclaimers legales no lo es.
CONCLUSIÓN: APPLE PODRÍA ABRIR LA PUERTA, PERO SE QUEDARÁ CON LA LLAVE
Si esta filtración se confirma, iOS 27 podría representar un cambio importante en la forma en que Apple entiende la inteligencia artificial. No sería una rendición ante Google, OpenAI o Anthropic, sino una adaptación pragmática: si el mercado avanza más rápido que tus modelos internos, conviertes tu plataforma en el lugar donde todos quieren estar.
El iPhone no necesita tener “la mejor IA” si puede convertirse en el dispositivo donde el usuario elige la IA que prefiere, Esa podría ser la jugada real, Apple no estaría abandonando el control. Estaría redefiniéndolo.




Comentarios
Los comentarios se cargarán automáticamente...