Vicepresidente senior de Qualcomm: estamos apenas en el comienzo del futuro de nuestras gafas inteligentes

En su conferencia Snapdragon en Hawái la semana pasada, me probé unas gafas inteligentes fabricadas por Qualcomm con un diseño elegante de piloto de combate y ciberpunk, que fue creado para responder preguntas sobre cualquier cosa que viera. Si bien no son perfectas, las gafas demostraron la visión de Qualcomm de un mundo en el que sus chips impulsan gafas inteligentes con realidad aumentada y mixta, remodelando la forma en que interactuamos con nuestro entorno.

Si la Conferencia Snapdragon del año pasado trataba sobre la introducción de IA en dispositivos de próxima generación, Qualcomm pasó este año prediciendo el surgimiento de su llamado Agent AI, que responde preguntas accediendo a información a través de múltiples fuentes de información del usuario, incluidas todas sus aplicaciones. Si bien los teléfonos inteligentes ejecutan grandes modelos de lenguaje y procesamiento de inteligencia artificial en el dispositivo, los datos se enviarán a dispositivos portátiles y gafas inteligentes para obtener resultados aún más precisos. O al menos así es como Qualcomm ve el futuro.

La combinación de gafas inteligentes y una IA más inteligente debería permitir un futuro en el que controlemos nuestro mundo en lugar de acceder a través de aplicaciones. Eso es según Alex Katouzian, vicepresidente senior y gerente general de dispositivos móviles, computación y XR de Qualcomm, quien habló conmigo en Hawaii.

“Las aplicaciones empezarán a significar cada vez menos”, afirmó Katouzian. “Las aplicaciones no van a desaparecer, pero su interfaz con el dispositivo, en lo que a usted respecta, debería desaparecer”.

Leer más: Tus aplicaciones están en tiempo prestado. Los agentes de IA están en camino

Un hombre está parado en una plataforma hablando sobre AR/XR con una pantalla detrás de él que muestra dispositivos AR/VR.

En el discurso de apertura de Snapdragon Summit 2024, el vicepresidente senior de Qualcomm, Alex Katouzian, analiza los chips AR y XR de la compañía y los dispositivos que funcionan con ellos.

David Lumb/CNET

Esta proyección se aplica a un futuro lejano, no al año que viene. Pero se espera que los agentes de IA trabajen a partir de todos los datos que les proporciona la red cada vez mayor de dispositivos que usan las personas. Si bien cada vez más consumidores usan relojes inteligentes, hay muchas formas de comunicarse con ellos. Katouzian no llegó a decir que los relojes inteligentes están en camino, pero su potencial es más limitado que el de las gafas. Sólo hay algunas otras funciones del reloj que tiene sentido agregar en este momento, como medir la presión arterial o la glucosa.

Por el contrario, se espera que las gafas inteligentes cambien la forma en que los usuarios interactúan con el mundo. Según Katouzian, las gafas inteligentes Ray-Ban Meta, que debutaron el año pasado con el chip AR1 Gen 1 de Qualcomm y recientemente recibieron funciones adicionales de IA, se han vendido más de 10 veces más que antes de su declaración original. “Meta realmente está impulsando ese mercado”, dijo, “y el uso de IA en esas gafas realmente lo hizo más popular”.

Después de que Google Glass no logró ganar terreno entre los consumidores hace aproximadamente una década, y con dispositivos como Magic Leap de Microsoft destinados al uso empresarial, ninguna otra gafas inteligentes se ha movido tanto como Ray-Ban Meta, que reduce las expectativas técnicas para ofrecer un conjunto de funciones más simple. . Con ellos, puedes hacer preguntas a la IA a través de un asistente de voz, hacer llamadas, tomar fotografías, grabar videos y reproducir música.

Un hombre habla en el escenario con una pantalla detrás de él que muestra un conjunto de dispositivos conectados. Un hombre habla en el escenario con una pantalla detrás de él que muestra un conjunto de dispositivos conectados.

Durante el discurso de apertura de Snapdragon Summit 2024, el vicepresidente de dispositivos portátiles y automóviles de Meta, Alex Himel, hablará en el escenario.

David Lumb/CNET

Para Qualcomm, las formas inteligentes de Meta abren la puerta a dispositivos de realidad aumentada (AR) y realidad mixta (XR) más complejos. Qualcomm ha estado ampliando su plataforma Snapdragon Spaces para actualizar las herramientas de software que ofrece a los desarrolladores para usar en sus dispositivos de realidad mixta.

“Hay nuevas formas de interactuar con un dispositivo XR que nunca se hace en un teléfono o una computadora portátil ni nada”, dijo Katouzian. “Estás buscando con tus ojos para elegir. Definitivamente es imprescindible encontrar la cabeza. El seguimiento manual es definitivamente imprescindible”.

Katouzian dice que la comunidad de desarrolladores que utiliza los SDK de Snapdragon Spaces ha crecido a más de 6.000 personas, y que los datos de uso se envían a Qualcomm para perfeccionar sus algoritmos. Luego, la empresa puede llevar estas soluciones a un posible socio de sistema operativo, ofreciendo la plataforma como una oportunidad para los desarrolladores.

Una pequeña muestra del futuro XR de Qualcomm

En la Conferencia Snapdragon, Qualcomm organizó varias presentaciones para mostrar diversas aplicaciones y dispositivos de RA. Algunos de estos incluían dispositivos existentes, como los auriculares Meta Quest 3 que muestran los nuevos chips automotrices de la compañía, mientras que Snap tenía un lugar que permitía a los asistentes usar sus gafas Spectacles AR que aún no se han lanzado (que ejecutan procesadores Qualcomm sin nombre). Ambos admiten el seguimiento manual, pero me gustó más el seguimiento preciso de Spectacles, que permitió una variedad de juegos y experiencias divertidos.

Leer más: Conocí a Moo Deng en AR usando las nuevas vistas Snap

Un hombre usa gafas reflectantes transparentes dentro de una habitación con las reglas de un juego de interior en la pared detrás de él. Un hombre usa gafas reflectantes transparentes dentro de una habitación con las reglas de un juego de interior en la pared detrás de él.

Qualcomm permitió a los asistentes a la Snapdragon Summit probar la experiencia de IA y AR utilizando las gafas inteligentes de un dispositivo de referencia.

David Lumb/CNET

También eché un vistazo al futuro de AR de Qualcomm a través de un dispositivo de referencia: gafas inteligentes que parecían un cruce entre Snap Spectacles y gafas de sol de aviador. (Desafortunadamente, Hawaii hacía demasiado calor para mi chaqueta bomber). Esta demostración fue para probar las interacciones de la IA en las gafas que se distribuyen a través de un teléfono inteligente cercano con chip Snapdragon 8 Elite que ejecuta la IA en el dispositivo. En última instancia, se supone que será un vistazo temprano a cómo los usuarios pueden hacer preguntas sobre lo que están viendo y obtener respuestas en el acto. Este es un enfoque que Google utiliza para su tecnología Proyecto Astra impulsada por IA para gafas inteligentes.

La experiencia no fue muy buena. En la sala de juegos del hotel donde se celebró la cumbre, volví a preguntar sobre un objeto en mi visión (un futbolín). Después de un par de fallos, los vasos lo reconocieron como un futbolín y me dieron reglas para ese deporte. Pero luego hice preguntas de seguimiento, como “¿cuáles son las películas de fútbol famosas?”, y las gafas me dieron una respuesta larga y detallada, enumerando cinco películas de las que nunca había oído hablar. Además, eran cómodas de usar y, si bien el estilo de aviador con ojos saltones podía resultar un poco incómodo, se sentían más ponibles que muchas otras gafas inteligentes.

Manos sosteniendo un par de gafas de sol grises con cámaras en las esquinas de las monturas, fabricadas por Meta y Ray-Ban. Manos sosteniendo un par de gafas de sol grises con cámaras en las esquinas de las monturas, fabricadas por Meta y Ray-Ban.

Las gafas inteligentes Ray-Ban Meta.

Scott Stein/CNET

El futuro de las gafas XR

Uno de los éxitos más exitosos de Meta para AR y VR ha sido reducir el precio de la tecnología para hacerla más accesible. El nuevo Meta Quest 3S cuesta $ 300 y las gafas inteligentes Ray-Ban Meta también comienzan en $ 300.

Durante nuestra conversación, Katouzian lo planteó de esta manera: La gente suele pagar 300 dólares por gafas de sol de marca. ¿Cuánto más pagarían si estas gafas incluyeran pantallas que las hicieran aún más útiles?

Katouzian ofreció un ejemplo: si las gafas inteligentes tuvieran un precio que duplicara el coste de las gafas de marca estándar, digamos 600 dólares, e incluyeran lentes recetados junto con características prácticas y útiles, podrían valer la pena. “Podrías hacerle preguntas y estaría bien con tu teléfono”, dijo. Luego señaló que el Apple Watch Ultra que llevaba (revelación completa: se incluye una muestra de revisión de Apple) que costaba casi $ 1,000.

Katouzian hablaba del brazalete sobre un rango de precios, lo que no tomé como una indicación fuerte de lo que cuestan las gafas estándar. Pero sí proporciona un contexto sobre cómo las gafas inteligentes podrían compararse con las gafas analógicas normales en términos de precio en algún momento en el futuro.

“Sus auriculares pueden decir algo, o sus gafas pueden decir algo, y el teléfono que lleva consigo siempre está descubriendo estas cosas por usted”, dijo Katouzian.

Todavía queda trabajo por hacer para perfeccionar las gafas inteligentes y actualizar sus componentes críticos, como la salida de las pantallas internas, dijo Katouzian. Pero la industria de la tecnología móvil también seguirá mejorando la conexión entre gafas y teléfonos. Las gafas son demasiado pequeñas para ejecutar la IA en un dispositivo durante largos períodos de tiempo, o para conectarse a la IA basada en la nube, ya que eso agotaría su batería cada vez más reducida, algo que Google y Samsung han considerado en sus planes con Qualcomm para unos auriculares con privacidad mixta. venir En cambio, los teléfonos cercanos con procesadores potentes soportan esa carga y responden preguntas de forma inalámbrica.

Todavía nos queda un largo camino por recorrer antes de que las gafas inteligentes se conviertan en la norma, afirma Katouzian. Pero es probable que la implementación y la adopción crezcan a medida que los casos de uso de la IA se vuelvan más inteligentes y significativos. En opinión de Katouzian, esto no ha hecho más que empezar.

“Creo que es sólo el comienzo”, dijo. “Creo que tienes millones y millones [of smart glasses] Ir.”



Fuente