Gemini Live llega a todos los usuarios de Android

Aunque Google puede entenderlo, para todos nosotros en ese momento (hace aproximadamente un año) Google I/o 2024, llamamos a Gemini Live Live, pero lo que vimos se llamaba Project Astra. Por supuesto, para muchas personas que están abiertas a nosotros que están dispuestas a aceptar tal consejo, En este sentido, cualquier progreso parece ser una buena noticia Bueno, como profundizaré más adelante, su objetivo es cambiar completamente la forma en que interactuamos con la IA y nuestros dispositivos, especialmente los teléfonos inteligentes.
Gemini Live es una característica que permite que la inteligencia artificial de Google vea y vea lo que sucede en la pantalla en tiempo real a través de la sala de dispositivos, y ha comenzado la implementación general. Hasta ahora, esta herramienta está reservada para el modelo de píxeles reciente y la suscripción de Galaxy S24 a Gemini Advanced. Todos los usuarios de Android han comenzado a usarlo de forma gratuita. Por supuesto, siempre que el dispositivo tenga al menos 2 GB de RAM, ejecute Android de 10 o más y pueda ser accedido por una cuenta personal de Google, ya que no se puede utilizar con una cuenta de trabajo o un perfil de trabajo.
Como explicamos en ese momento, cuando le dijimos que Google ha reemplazado a los asistentes con Gemini en Android, este movimiento es consistente con las transiciones ya realizadas en el ecosistema de Android. Esta sustitución no es un simple cambio de nombre, sino La reoperación completa del asistente virtualahora anhelando no solo lo que decimos, sino también sobre lo que mostramos, lo que hacemos y lo que queremos hacer hasta cierto punto.
La operación de Gemini es parte de una premisa simple pero poderosa: Proporciona un diálogo suave con IA que no solo responde al lenguaje, sino también a los antecedentes visuales. Los usuarios pueden hablar con AI mientras usan objetos de cámara, escenas o objetos de texto. Géminis no solo reaccionará a lo que escucha, sino que también responderá a lo que ve. Además, al activar el intercambio de pantalla, la aplicación puede observar directamente las acciones del usuario en el teléfono, abriendo la puerta para obtener ayuda más rica y precisa. Todo esto sucede en tiempo real y no se ha conservado a videos conceptuales hasta hace poco.
La aplicación práctica de esta característica es tan diversa como la revelación. Desde pedir ayuda para comprender otro idioma, mostrar dispositivos electrónicos y consultar sus características, paso a paso mientras realiza tareas en la aplicación. La experiencia inevitablemente recuerda lo que Google mostró en videos de E/S del proyecto Astra anterior, una demostración que parece distante, pero como vimos hace unas semanas, Empiece a adoptar un enfoque tangible.
ciertamente No hemos tenido la experiencia completa con Astra. El elemento clave de esa visión multimodal promete comprender el mundo como humano o casi humano. Pero la vida de Géminis indudablemente representa el paso más decisivo en esta dirección hasta ahora. Este no es un paso secundario. La IA verá en base a lo que sucede en nuestro entorno inmediato que la posibilidad de escuchar y actuar fundamentalmente cambia el modelo clásico de interacción del habla o el texto. En muchos sentidos, este es el nacimiento de una nueva forma de existencia digital.
Puedes consultar la fuente de este artículo aquí