Qué son las Extensions

Apple llama internamente "Extensions" al sistema que permitirá a los usuarios acceder a capacidades de IA generativa desde apps instaladas, on-demand, a través de Apple Intelligence — Siri, Writing Tools, Image Playground y más.

En la práctica: cuando le pidas a Siri que redacte un email o cuando uses Writing Tools, podrás elegir si la respuesta la genera Apple Intelligence (modelo on-device propio), o Claude, Gemini, ChatGPT u otro modelo externo. La elección se hace por tarea o por defecto.

Por qué Apple cambia de estrategia

La razón es simple: Apple Intelligence no convenció. Lanzado en iOS 18.1 (octubre 2024), la respuesta del mercado fue tibia. Los modelos on-device eran limitados, Siri renovado se atrasó múltiples veces, y la integración con ChatGPT (lanzada como solución temporal) era torpe.

Con la competencia (Google integrando Gemini nativo en Android, Samsung con Galaxy AI) presionando, Apple optó por una jugada que en 2024 hubiera sido impensable: dejar entrar a los rivales.

Qué modelos llegan

Los testing actuales incluyen Google Gemini y Anthropic Claude. ChatGPT (vía OpenAI) ya está integrado desde iOS 18. No hay confirmación oficial pero se espera también Mistral y la versión open de Meta (Llama).

Cómo va a funcionar

Apple Intelligence seguirá siendo el "primer paso": procesa la solicitud on-device o en Private Cloud Compute. Si el modelo Apple decide que necesita un modelo más capaz, lanza la "extensión" hacia el modelo elegido (con el consentimiento del usuario y respetando privacidad).

Otras features de iOS 27

Photos rediseñado: nuevas herramientas de edición con Apple Intelligence. Tres opciones clave: Extend (generar contenido más allá del frame), Enhance (auto-ajuste de color y luz con IA) y Reframe (cambiar perspectiva de fotos espaciales). Todo on-device.

Visual Intelligence ampliado: escanear etiquetas de información nutricional, agregar teléfonos y direcciones impresas directo a Contactos.

Wallet: escanear tickets físicos y tarjetas para digitalizarlos.

Safari: nombrar automáticamente Tab Groups según contenido.

Siri por fin

El gran movimiento del año de Apple en IA es el rediseño completo de Siri, prometido para spring 2026 (junio si la cábala WWDC se respeta). Será más conversacional y capaz de completar tareas multi-paso.

El test interno apunta a que Siri usará Apple Intelligence como capa de orquestación y delegará a Claude o Gemini para razonamiento complejo. El resultado debería ser comparable en capacidad a ChatGPT Voice o Gemini Live, pero con el ventaja de control total del dispositivo.

Implicancias para developers

Para desarrolladores Apple, el cambio abre dos oportunidades: App Intents ya conecta apps con Siri; con Extensions, esas mismas intents podrán ser ejecutadas con razonamiento del modelo externo elegido por el usuario.

El segundo: empresas podrán deployar apps que asumen que cualquier modelo está disponible, sin lock-in con un provider específico. Es un cambio de paradigma frente al lock-in con OpenAI que Apple había impuesto.

Conclusión

iOS 27 marca el fin de la pretensión de Apple de hacer todo in-house en IA. Es una concesión pragmática: el mercado evolucionó más rápido de lo que el equipo interno de IA pudo ejecutar. Para los usuarios, la elección es ganancia neta. Para Anthropic y Google, es validación del mercado consumer. Para OpenAI, una alarma: deja de ser el único default.