Google presentó Gemini Intelligence, una evolución profunda de su ecosistema Android. A diferencia de los asistentes convencionales que solo responden preguntas, esta nueva arquitectura busca anticiparse a las necesidades del usuario, gestionando tareas repetitivas y tediosas de forma autónoma pero bajo control privado.
La implementación comenzará a partir de julio en los dispositivos Samsung Galaxy S26 y Google Pixel 10, con planes de expandirse a relojes inteligentes, carros conectados, gafas de realidad aumentada y portátiles a finales de 2026.
Según Google, el objetivo es que el dispositivo deje de ser una herramienta reactiva para convertirse en un colaborador proactivo.
TE PUEDE INTERESAR: Google lanza Gemini en Chrome para Android en junio
Funciones de Gemini Intelligence que debes conocer
1. Automatización de tareas complejas y multiapp
Gemini Intelligence permite que el teléfono ejecute flujos de trabajo que antes requerían saltar entre múltiples aplicaciones. Por ejemplo, el sistema puede localizar el temario de una clase en Gmail y, automáticamente, añadir los libros de texto al carrito de compras.
Además, posee contexto visual, lo que permite señalar un folleto de viajes en una foto para que la IA busque ofertas similares o planifique la ruta de inmediato.
2. Chrome: más allá de la navegación convencional
A partir de finales de junio, el navegador Chrome integrará funciones de navegación automática. Esta herramienta no solo resumirá lecturas o comparará datos entre pestañas, sino que podrá realizar gestos tediosos para el usuario, como gestionar reservas de aparcamiento o agendar citas médicas directamente desde la web, actuando como un agente delegado en internet.
3. Autocompletado inteligente y contextual
El tradicional sistema de autocompletado evoluciona para entender formularios largos y desordenados. Apoyándose en las aplicaciones conectadas y con un sistema estrictamente opt-in (voluntario), Android podrá rellenar datos de registro, direcciones y preferencias de reserva extrayendo la información pertinente de otros contextos del dispositivo, eliminando la fricción de escribir en pantallas pequeñas.
4. ‘Rambler’: el editor de voz
La escritura por voz recibe una actualización crítica llamada Rambler. Esta función identifica el habla humana real, llena de pausas, repeticiones y muletillas («ums» y «ahs»), y las procesa en tiempo real para generar mensajes pulidos y coherentes.
- Multilingüismo: soporta cambios de idioma a mitad de frase (como el «espanglish») sin perder el contexto.
- Privacidad: el audio se procesa localmente y no se almacena en la nube.
5. ‘Crear mi widget’: personalización con lenguaje natural
Los widgets dejan de ser bloques estáticos. Con la función Crear mi widget, los usuarios pueden simplemente describir lo que necesitan.
«Necesito un widget que me muestre sugerencias de cenas ricas en proteínas y el clima para ciclismo cada lunes»
Gemini diseñará el componente visual a medida, una funcionalidad que también se extenderá a Wear OS para que la información personalizada esté disponible en la muñeca en el momento justo.
6. Material 3 Expressive: un diseño con propósito
Todo este despliegue técnico viene acompañado de un nuevo lenguaje visual. Material 3 Expressive busca humanizar la IA con animaciones fluidas que guían la atención del usuario sin saturarlo. No es solo estética; es una interfaz diseñada para reducir el ‘caos digital’ y hacer que las interacciones se sientan vivas y controladas.
Foto: Google.