Hubo un momento en que Siri simbolizaba el futuro. Cuando Apple presentó su asistente de voz, prometía una relación casi natural con la máquina, algo tan revolucionario que pareció ponerla años por delante de la competencia. Era un tiempo en el que decir “Oye Siri” hacía sentir al usuario que vivía en una película de ciencia ficción. Hoy, más de una década después, ese brillo se ha ido apagando, y la compañía que convirtió hablarle al teléfono en una costumbre ahora busca fuera lo que ya no puede desarrollar dentro.
Según CNBC, Apple estaría considerando utilizar los modelos de lenguaje de Anthropic o OpenAI para potenciar la próxima y muy esperada versión de Siri. En lugar de sus propios modelos entrenados internamente, la compañía ha iniciado conversaciones con ambas firmas para adaptar sus grandes modelos de lenguaje (LLMs) a su infraestructura en la nube, con pruebas que marcarán si finalmente da el paso. Esta decisión representa un cambio radical en la filosofía de Apple, que hasta ahora prefería soluciones propietarias para garantizar un control total sobre la experiencia del usuario.
Apostar por modelos externos implica ceder parte de ese control sobre uno de los elementos más sensibles de su ecosistema: la forma en que procesa y entiende la voz, el contexto y, sobre todo, los datos de los usuarios. Aunque Apple siempre ha defendido la privacidad como su sello diferencial frente a sus rivales, recurrir a LLMs de terceros abre interrogantes sobre seguridad, rendimiento y dependencia tecnológica. Además, muestra que su estrategia de IA, pese a sus recursos casi ilimitados, no ha logrado crear una alternativa competitiva a tiempo.
El trasfondo de esta maniobra refleja problemas internos que ya han salido a la luz en los últimos meses. En marzo, Apple retrasó las prometidas mejoras de IA en Siri hasta 2026 sin una explicación clara. Al mismo tiempo, Tim Cook perdió la confianza en John Giannandrea, hasta entonces responsable de inteligencia artificial, y colocó a Mike Rockwell al frente de Siri para reactivar un proyecto que parecía estancado y sin una dirección clara frente al avance de la competencia.
El nombre de Anthropic no aparece por casualidad en este contexto. Hace apenas una semana se filtró que Apple podría estar considerando incluso comprar la startup, uno de los rivales más sólidos de OpenAI en el desarrollo de modelos de lenguaje avanzados. Este posible movimiento encaja con la urgencia de la compañía por reforzar su músculo de inteligencia artificial y no quedarse atrás frente a Google y Microsoft, que ya integran IA de forma masiva en sus plataformas, asistentes y buscadores, redefiniendo la experiencia de usuario.
El giro resulta llamativo para una empresa que siempre hizo bandera de su innovación cerrada, sus chips diseñados a medida y su control extremo del hardware y el software. Ahora, la misma Apple que un día definió cómo debía sonar un asistente de voz se ve obligada a depender de modelos externos para poner a Siri de nuevo en la conversación, en un mercado donde ChatGPT y Gemini ya marcan el paso de la interacción natural con la tecnología.
Queda por ver si esta alianza —o posible adquisición— marcará el regreso de Siri a la primera línea. Lo que parece claro es que Apple se enfrenta a un dilema incómodo: reinventar su asistente desde fuera o resignarse a ver cómo se convierte en un vestigio de lo que alguna vez prometió ser. Hoy, el brillo de Siri depende, más que nunca, de voces ajenas, y el tiempo juega en contra de quien un día quiso ser sinónimo de futuro.
La entrada Apple estudia apoyarse en OpenAI o Antrophic para Siri se publicó primero en MuyComputer.