Aunque Google, comprensiblemente, lo llama Gemini Live, para todos los que seguimos en su momento (hace ya cerca de un año) el Google I/O 2024, lo que estamos viendo se llama Project Astra. Y, claro, para los muchos que nos quedamos con la boca abierta ante semejante propuesta, cualquier avance en este sentido nos parece una excelente noticia pues, como profundizaré un poco más adelante, apunta a cambiar por completo el modo en el que nos relacionamos con la IA y con nuestros dispositivos, especialmente con los smartphones.
Gemini Live, la función que permite a la inteligencia artificial de Google ver a través de la cámara del dispositivo y observar en tiempo real lo que sucede en la pantalla, ha comenzado su despliegue general. Hasta ahora reservada para los modelos Pixel más recientes y los Galaxy S24 con suscripción a Gemini Advanced, esta herramienta ya está empezando a estar disponible de forma gratuita para todos los usuarios de Android. Eso sí, siempre que el dispositivo cuente con al menos 2 GB de RAM, ejecute Android 10 o una versión superior, y se acceda mediante una cuenta personal de Google, ya que no funciona con cuentas laborales ni perfiles de trabajo.
Este movimiento se alinea con la transición ya en marcha dentro del ecosistema Android, tal y como explicamos en su momento, cuando te contamos que Google ya está sustituyendo Assistant por Gemini en Android. Esta sustitución no es un simple cambio de nombre, sino una reformulación completa del asistente virtual, que ahora aspira a comprender no solo lo que decimos, sino también lo que mostramos, lo que hacemos y, en cierto modo, lo que queremos hacer.
El funcionamiento de Gemini Live parte de una premisa sencilla pero potente: ofrecer una conversación fluida con una inteligencia artificial que no solo responde al lenguaje, sino también al contexto visual. El usuario puede hablar con la IA mientras apunta con la cámara a un objeto, una escena o un texto, y Gemini responderá no solo a lo que escucha, sino también a lo que ve. Además, al activar el modo de compartir pantalla, la aplicación puede observar directamente lo que el usuario hace dentro del teléfono, lo que abre la puerta a una asistencia más rica y precisa. Todo esto ocurre en tiempo real, con una fluidez que hasta hace poco parecía reservada a vídeos conceptuales.
Las aplicaciones prácticas de esta función son tan diversas como reveladoras. Desde pedir ayuda para comprender un cartel en otro idioma, hasta mostrar un dispositivo electrónico y consultar sus características, pasando por recibir instrucciones paso a paso mientras se realiza una tarea dentro de una app. La experiencia recuerda inevitablemente a lo mostrado por Google en el vídeo de Project Astra durante el pasado I/O, una demo que parecía lejana pero que, como vimos hace unas semanas, empieza a tomar forma de manera tangible.
Claro que aún no estamos ante la experiencia completa de Astra. Faltan elementos clave de esa visión multimodal que prometía un asistente capaz de entender el mundo como lo haría un humano, o casi. Pero Gemini Live representa, sin duda, el paso más decisivo hasta ahora en esa dirección. Y no es un paso menor. La posibilidad de que una IA vea, escuche y actúe en función de lo que ocurre en nuestro entorno inmediato transforma radicalmente el modelo clásico de interacción por voz o texto. Es, en muchos sentidos, el nacimiento de una nueva forma de presencia digital.
La entrada Gemini Live llega a todos los usuarios de Android se publicó primero en MuyComputer.