La nueva actualización de Gemini, el asistente de inteligencia artificial (IA) de Google, incorpora avances significativos gracias a la tecnología de Project Astra.
Esta integración permite a Gemini «ver» y comprender lo que los usuarios visualizan en la pantalla de su smartphone. La IA puede grabar contenidos en tiempo real mientras navegas por internet, juegas o exploras material multimedia, y responder preguntas relacionadas con esos contenidos.
Además, la función Live de Gemini ha sido ampliada para interactuar con la cámara del dispositivo, permitiendo que el asistente responda a lo que la cámara está captando en ese momento. Por ahora, estas mejoras están disponibles solo en inglés para un grupo selecto de suscriptores de Gemini Advanced dentro del plan Google One AI Premium.
MIRÁ TAMBIÉN | WhatsApp y Spotify se unen para compartir música
Estas actualizaciones se basan en Project Astra, una plataforma que busca habilitar los sistemas de IA para «entender y responder al mundo como lo hacen las personas». Esta plataforma otorga a los algoritmos la capacidad de asimilar y recordar lo que ven y escuchan, permitiéndoles responder con mayor precisión y contexto.
Otro avance interesante es la función Audio Overview, que permite generar resúmenes de audio estilo podcast de documentos o resultados obtenidos mediante Deep Research, la herramienta de búsqueda profunda de Google. Esta función está disponible en la versión web y en las aplicaciones móviles de Gemini para los suscriptores de Gemini Advanced.
Fuente: Wired.