¿Te imaginas pedirle algo a tu móvil y que lo haga sin que tengas que tocar la pantalla? Eso es justo lo que Google acaba de presentar. Un asistente con “manos digitales” capaz de leer, buscar, tocar, abrir apps y moverse dentro del sistema como si fuera tú. En este post te cuento qué es lo que viene, cómo funciona y qué implicaciones tiene que una IA pueda literalmente manejar tu teléfono por ti.
Durante años, hemos hablado con nuestros móviles. Pero ahora, Google quiere que dejes de hacerlo. Con su nuevo asistente basado en inteligencia artificial, la idea es que no tengas que decirle lo que haga… porque lo hará solo. Te cuento cómo funciona este avance, qué es capaz de hacer ya mismo y por qué este es uno de los mayores saltos que hemos visto en la experiencia móvil.
De sugerencias a acciones: así será el nuevo asistente de Google
Hasta ahora, los asistentes virtuales nos han servido como una especie de copilotos. Les preguntábamos cosas, nos respondían, y si teníamos suerte, hacían alguna acción básica como poner una alarma o abrir una app. Eso ha cambiado por completo.
Con la llegada de Gemini con Astra, el nuevo sistema que presentó Google en su evento I/O 2025, el asistente no solo entiende lo que quieres, sino que lo hace por ti. En la demo en directo, un usuario pedía ayuda para reparar su bicicleta. Y aquí viene lo impresionante: el asistente no solo buscó el manual, sino que abrió el PDF, navegó por el documento, fue a YouTube a buscar un tutorial, y hasta encontró un correo antiguo con información relevante. Todo eso, sin intervención humana.
Además, vimos cómo el asistente se desplazaba por la pantalla como si alguien lo estuviera tocando. Literalmente, una “mano invisible” haciendo scroll, pulsando botones, abriendo enlaces… Como si tu móvil tuviera vida propia, pero en el buen sentido.
¿Qué puede hacer exactamente y qué implicaciones tiene?
Lo más llamativo es que puede interactuar con todas las apps del teléfono. No se limita a responder preguntas. Puede:
- Leer tus correos y encontrar información concreta.
- Buscar y abrir documentos, vídeos o fotos relevantes.
- Tocar, deslizar, escribir, copiar y pegar contenido.
- Cambiar de app, desplazarse por menús y configurar cosas.
- Incluso darte una respuesta final, sin que tú tengas que hacer nada más.
Todo esto plantea un cambio brutal: no hablamos de un asistente que solo ayuda, sino de uno que actúa. Según Google, el objetivo es que te ahorre pasos innecesarios. Es decir, que en lugar de decir “busca esto”, puedas decir “haz esto” y ya está. Tú te olvidas. El teléfono se ocupa.
Ahora bien, también hay que hablar de la otra cara de la moneda: ¿hasta qué punto queremos que una IA tenga ese nivel de control sobre nuestro móvil? ¿Dónde quedan la seguridad, la privacidad y el control personal?
Por ahora, todo parece apuntar a que Astra funcionará bajo consentimiento, ejecutándose de forma local en los dispositivos con Gemini Nano o mediante la nube cuando haga falta. Pero aún no se han dado todos los detalles técnicos ni una fecha de lanzamiento concreta.
¿Estamos preparados para que el móvil piense y actúe solo?
Sinceramente, aún no tengo una respuesta clara. Por un lado, la comodidad es enorme: poder decir “encuéntrame el manual del lavavajillas” y que la IA lo busque, lo lea y te muestre el paso que necesitas, suena a ciencia ficción… pero ya está aquí.
Por otro lado, me da vértigo pensar que algo (aunque sea un asistente de Google) pueda moverse libremente por mi teléfono. Que entre en mis correos, lea mis notas o copie cosas sin que yo lo vea. La tecnología es brutal, pero vamos a necesitar un marco muy claro de confianza y límites para que no se nos vaya de las manos.
Lo que ha presentado Google no es solo una evolución más. Es un nuevo paradigma. Un asistente que ya no te pregunta qué hacer, sino que lo hace directamente por ti. No sabemos cuándo llegará ni en qué móviles estará disponible primero, pero una cosa está clara: el futuro del teléfono ya no es solo táctil… es completamente autónomo.