Serán las primeras gafas impulsadas por su asistente Gemini, en versiones solo audio y con pantalla integrada en la lente. La compañía suma a Samsung, Gentle Monster y Warby Parker a su estrategia de hardware y promete que la experiencia correrá sobre Android XR; la movida la pone cara a cara con las Ray-Ban Meta de EssilorLuxottica.
Google anunció que la compañía planea comercializar las primeras versiones de sus gafas con funcionalidades de inteligencia artificial en 2026, una apuesta directa para disputar el espacio de wearables inteligentes donde Meta ya tomó la delantera. Según el comunicado, habrá dos líneas principales: unas gafas solo audio que permitirán conversar con el asistente Gemini, y modelos con pantalla integrada en la lente que mostrarán información como direcciones de navegación y traducciones en tiempo real. La compañía no precisó aún qué estilos incluirán cada modalidad.
En el frente de asociaciones, Google trabaja en el diseño de hardware con Samsung, Gentle Monster y Warby Parker —con quien cerró en mayo un compromiso por U$S 150 millones— y en un documento público Warby Parker confirmó que sus primeras gafas desarrolladas con Google se esperan para 2026. Google también especificó que los dispositivos correrán sobre Android XR, su sistema operativo orientado a experiencias extendidas y realidad mixta.
La decisión de volver al negocio de gafas inteligentes responde a lecciones internas. Sergey Brin, cofundador de Google, dijo en mayo que aprendieron de los errores previos en el intento de gafas inteligentes: por entonces la IA era menos avanzada y la compañía carecía de conocimiento de la cadena de suministro, lo que empujó precios elevados. Brin resumió la nueva aproximación: “Ahora, en el mundo de la IA, las cosas que estas gafas pueden hacer para ayudarte sin distraerte constantemente —esa capacidad es mucho mayor”. La cita fue traducida al español manteniendo la atribución original.
Meta es hoy el rival a batir. Sus Ray-Ban Meta, desarrolladas junto a EssilorLuxottica, encontraron una recepción mejor de la esperada y la compañía lanzó en septiembre una versión con display en lente que muestra mensajes, previsualizaciones de fotos y subtítulos en vivo. Otras empresas como Snap y Alibaba también impulsan ofertas propias, lo que convierte al mercado en un espacio pequeño pero competitivo.
Más allá del hardware, Google aprovechó el anuncio para comunicar mejoras del software: actualizaciones al Galaxy XR (el headset) que permiten vincular el dispositivo a PCs con Windows y un modo viaje que habilita su uso en aviones y automóviles. Esa estrategia sugiere que Google busca sinergias entre gafas, headsets y su ecosistema de modelos Gemini para ofrecer experiencias multimodales coherentes.
Las preguntas inmediatas son comerciales y técnicas. ¿Qué precio tendrán los modelos con pantalla en lente respecto a las Ray-Ban Meta? ¿Cómo gestionarán la autonomía y la privacidad —dos frentes sensibles en wearables que siempre están cerca del usuario—? Y dado el historial de productos anteriores, ¿será 2026 el año en que estos dispositivos crucen del nicho temprano a adopción masiva?
Para Google la ventana de oportunidad existe: mejoras sustanciales en modelos de IA y la experiencia de diseño y manufactura de sus socios pueden convertir las gafas en un producto más útil y menos intrusivo. Para los consumidores y el mercado, la competencia entre Google y Meta promete acelerar la innovación en asistentes conversacionales portátiles, pantallas en lente y funciones de productividad hands-free.

