Apple ha vuelto a sincronizar sus relojes. Lo ha hecho sin lanzar ningún dispositivo nuevo, sin presentar un chip más potente ni un producto que cambie el escenario. Pero sí ha rediseñado por completo la experiencia de sus sistemas operativos, desde el iPhone hasta el Mac, pasando por el iPad, el Apple Watch, el Apple TV y el Vision Pro. Y lo ha hecho con una idea muy clara: unificar, simplificar y modernizar la relación que tenemos con sus pantallas.
El nuevo lenguaje visual, bautizado como Liquid Glass, marca el mayor rediseño en más de una década. Las superficies son ahora más translúcidas, los elementos flotan con más suavidad, los bordes se redondean y las transiciones se deslizan con una fluidez que recuerda inevitablemente a visionOS, el sistema del Vision Pro. No es casualidad. Apple quiere que todos sus productos hablen el mismo idioma, visual y funcionalmente.
Una estética compartida, una experiencia común
Desde iOS 26 hasta macOS 26 (bautizado como “Tahoe”), pasando por iPadOS, watchOS y tvOS, la estética se ha reescrito para acercarse a una lógica más espacial, más inmersiva. Las interfaces ya no son solo funcionales: ahora también respiran, cambian con el entorno y se adaptan al contenido. La pantalla de bloqueo del iPhone se vuelve dinámica. Las apps de Cámara, Música y Safari renuevan sus diseños. El Apple Watch muestra esferas flotantes. Incluso CarPlay recibe una dosis del nuevo lenguaje gráfico.
Esta apuesta por la cohesión tiene un efecto práctico. Para quienes utilizan varios dispositivos Apple, la curva de aprendizaje se reduce. El salto entre pantallas es más intuitivo. Todo parece formar parte de un mismo sistema, aunque se use en contextos distintos. Y esa sensación de continuidad es algo que Apple ha buscado durante años, pero que ahora refuerza con resultados tangibles.
Junto a los cambios estéticos, hay también novedades funcionales. iOS 26, por ejemplo, incorpora mejoras en Mensajes —como encuestas y filtros inteligentes—, una renovada app Teléfono con transcripción en tiempo real y una traducción simultánea que funciona incluso en llamadas con usuarios que no utilizan dispositivos Apple. Son detalles que afinan la experiencia diaria y que consolidan funciones útiles sin necesidad de reinventar lo esencial.
La inteligencia que no necesita nube
Uno de los anuncios más relevantes de la WWDC 2025 tiene menos que ver con lo que se ve y más con lo que ocurre por dentro. Apple ha introducido Apple Intelligence, una nueva arquitectura de inteligencia artificial integrada en el sistema. La idea no es ofrecer un chatbot ni un asistente conversacional revolucionario. Lo que propone Apple es algo más sutil: funciones inteligentes que funcionan en segundo plano, que entienden el contexto y que no necesitan conectarse constantemente a servidores externos.
Este enfoque tiene ventajas claras. Al ejecutarse en el dispositivo, los modelos de IA son más rápidos, consumen menos recursos y protegen mejor la privacidad. Visual Intelligence, por ejemplo, permite detectar objetos o fragmentos de texto en pantalla y actuar sobre ellos directamente: copiar, traducir, buscar información o compartir. Todo sin salir de la app y sin enviar datos fuera del terminal.
La apertura a desarrolladores también es significativa. Apple proporcionará herramientas para que aplicaciones de terceros puedan aprovechar estas capacidades. Esto supone una oportunidad para enriquecer las funciones de apps ya conocidas sin que tengan que recurrir a servicios externos. La inteligencia, por tanto, no es una app más: es una capa del sistema operativo que otros pueden utilizar.
El nuevo marco de IA también está presente en otros dispositivos. En macOS Tahoe, los atajos se vuelven más potentes y pueden activarse por condiciones específicas, como la ubicación, la hora del día o el uso de una aplicación. En Vision Pro, la IA facilita el control por mirada y mejora la representación de los avatares durante las llamadas colaborativas. Incluso el Apple TV y el Apple Watch integran mejoras sutiles, que ajustan la interfaz o adaptan funciones según el uso.
No todo ha llegado aún. Siri, el asistente de voz de Apple, no ha recibido el rediseño profundo que algunos esperaban. La compañía ha anunciado que la nueva versión llegará en 2026, tras un proceso de ajuste que prioriza la calidad de las respuestas y la integración contextual. Por ahora, el asistente sigue funcionando, pero sin grandes cambios visibles.
La apuesta por la continuidad
Con esta WWDC, Apple no ha buscado titulares espectaculares ni promesas grandilocuentes. Ha preferido mostrar una evolución sólida, centrada en la experiencia y en la consistencia. El diseño es más coherente, la IA es más útil —aunque menos visible— y el sistema se abre más a desarrolladores sin perder el control sobre la privacidad y la estabilidad.
Para muchos usuarios, los cambios serán sutiles pero significativos. No hay que aprender nada nuevo, pero todo funciona mejor. Las acciones se simplifican. La interacción se vuelve más fluida. Y aunque no haya un gran efecto “wow”, hay un trabajo minucioso detrás que refuerza la sensación de producto cuidado.
El despliegue comenzará este otoño, con versiones públicas de iOS 26, macOS Tahoe, iPadOS 26, watchOS 26, tvOS 26 y visionOS 2. Las betas para desarrolladores ya están disponibles. Y si algo ha quedado claro, es que Apple ha decidido construir sobre lo que ya tiene, no romperlo para empezar de nuevo.
No es una revolución, pero sí un ajuste de rumbo importante. Uno que unifica, moderniza y prepara el ecosistema para lo que viene. Porque, aunque Apple no lo diga en voz alta, su futuro no pasa solo por la IA ni por el hardware. Pasa por cómo se conectan esas piezas, cómo se integran y cómo consiguen que, al final del día, todo funcione sin que uno tenga que pensarlo demasiado.
Apple ha confirmado que algunas de las funciones más avanzadas de Apple Intelligence requerirán chips A17 o M-series, por lo que no todos los dispositivos actuales serán compatibles con todo el conjunto de novedades. Y para desarrolladores y responsables de apps corporativas, la WWDC deja también un aviso: las nuevas APIs, los rediseños de interfaz y las capacidades contextuales abren oportunidades, pero también exigen adaptación.
La entrada Apple redibuja su ecosistema: nuevo diseño, inteligencia local y más IA en la WWDC 2025 se publicó primero en MuyComputer.