Las gafas Ray-Ban Meta Smart están más habilitadas para IA que nunca con nuevas actualizaciones

Si realiza una búsqueda rápida en línea de gafas de sol Ray-Ban Meta Smart en este momento, encontrará que el dispositivo portátil se comercializa principalmente para fotografías rápidas y capacidades de transmisión en vivo.

Sin embargo, en el evento Meta Connect 2024 celebrado el miércoles, el fundador y director ejecutivo de Meta, Mark Zuckerberg, no pudo decir nada sobre las fotos y vídeos durante la presentación de las Ray-Ban Meta Smart Glasses.

VER TAMBIÉN:

Todo se anuncia en Meta Connect 2024

De hecho, Zuckerberg presentó las Meta Smart Glasses Ray-Ban principalmente como un dispositivo de inteligencia artificial.

“Las gafas son una nueva categoría de dispositivos de inteligencia artificial”, dijo Zuckerberg, señalando que su empresa satisfizo la demanda de los consumidores de gafas inteligentes Meta después de que las ventas aumentaron más rápido de lo que esperaba.


Las gafas Ray-Ban Meta Smart están más habilitadas para IA que nunca con nuevas actualizaciones

Aparte de una nueva edición limitada de Ray-Ban Meta Smart Glasses con marcos transparentes, Meta no ha habido nuevos anuncios de hardware de gafas inteligentes.

Gafas de sol Ray-Ban Meta Smart claras y transparentes


Crédito: Meta

Sin embargo, Zuckerberg compartió algunas características nuevas que, según él, llegarán a las gafas inteligentes Meta en una serie de actualizaciones durante los próximos meses, todas ellas relacionadas con la IA.

Meta AI ya está integrada en Ray-Ban Meta Smart Glasses, al igual que los asistentes de voz de otras empresas están integrados en sus dispositivos. Pero, según Zuckerberg, las nuevas actualizaciones harán que estas interacciones sean “más naturales y conversacionales”.

La velocidad de la luz triturable

La velocidad de la luz triturable

“Hola Meta” en lugar de “Mira y cuéntame”.

Por ejemplo, actualmente, los usuarios deben enviar las gafas de sol Ray-Ban Meta Smart con la frase “échale un vistazo y cuéntame” cuando tienen una pregunta. La presentación de Zuckerberg mostró cómo los usuarios ya no tienen que hacer esto. Los usuarios sólo necesitan activar la función preguntando “Hey Meta” y luego hacer su pregunta. Meta AI sabe automáticamente que la pregunta es sobre lo que el usuario mira a través de las gafas.

Además, después del “Hey Meta” inicial, Meta AI ya no requiere que los usuarios comiencen cada solicitud con esta frase. Meta AI puede seguir interactuando con los usuarios.

Viviendo la vida con las gafas de sol Ray-Ban Meta Smart

La última característica es similar a lo que se ve en otras gafas inteligentes durante las traducciones. Mientras habla con otra persona, el usuario puede acceder a traducciones de audio en tiempo real del otro idioma a través de las gafas. La pantalla de Meta Connect parecía funcionar casi perfectamente al traducir del español al inglés y del inglés al español.

MetaIA de vídeo multimodal


Crédito: Meta

Mensajería multimodal de IA

Zuckerberg explicó la naturaleza multimodal de la IA de vídeo con una demostración que muestra a un usuario intentando ponerse ropa. A través de esta función, Meta AI pudo brindar consejos y sugerencias de moda basados ​​en el atuendo del usuario y su pregunta específica al respecto.

Las Ray-Ban Meta Smart Glasses pronto también podrán recordar cosas automáticamente para los usuarios. Un ejemplo demostrado en Meta Connect incluye Meta AI que recuerda el número de estacionamiento donde un usuario estacionó su automóvil. El usuario no necesitaba invocar Meta AI para hacer esto. Naturalmente, el número fue recordado porque el usuario lo vio a través de las gafas.

Meta AI recuerda


Crédito: Meta

A esta característica se suma una capacidad de Meta AI similar donde los usuarios de Ray-Ban Meta Smart Glasses pueden mirar rápidamente un folleto o anuncio y pedir a las gafas inteligentes que llamen a un número de teléfono o escaneen un código QR. Las gafas también pueden recordar automáticamente estas cosas si el usuario quiere volver a lo que vio a través de las gafas más adelante.

Otras actualizaciones que llegarán a las Ray-Ban Meta Smart Glasses incluyen la capacidad de controlar por voz Spotify y Amazon Music a través del dispositivo, así como nuevas integraciones con aplicaciones como Audible e iHeartRadio.

Colaboración con Be My Eyes para usuarios ciegos y con discapacidad visual

Meta + Se mis ojos


Crédito: Meta

Meta también anunció una asociación con Be My Eyes, una aplicación móvil que conecta a personas ciegas y con discapacidad visual con voluntarios a través de video en vivo para hablar sobre lo que tienen frente a ellos. La aplicación funcionará directamente a través de Ray-Ban Meta Smart Glasses y los voluntarios podrán ver a través de las gafas del usuario para ayudar.



Fuente