Google lanza nuevas funciones de accesibilidad impulsadas por IA para dispositivos Pixel y Android

Google presentó el martes nuevas funciones de accesibilidad de inteligencia artificial (IA) para teléfonos inteligentes Pixel y dispositivos Android. Hay cuatro funciones nuevas, dos de las cuales son exclusivas de los teléfonos inteligentes Pixel y dos de las cuales están ampliamente disponibles en todos los dispositivos Android. Estas funciones están dirigidas a personas con discapacidad visual y con discapacidad visual, sordas y con problemas del habla. Las características incluyen un Centro de guías, nuevas funciones de IA en la aplicación Magnifier, así como mejoras en las funciones Live Transcribe y Live Captions.

Google agrega funciones de accesibilidad impulsadas por IA

a un publicación de blogEl gigante tecnológico enfatizó que está comprometido a trabajar con la comunidad de personas con discapacidad y quiere aportar nuevas herramientas de accesibilidad e innovaciones para hacer que la tecnología sea más inclusiva.

La primera función se llama Marco guiado y es exclusiva de la cámara Pixel. La función brinda asistencia hablada a los usuarios para ayudarlos a colocar sus rostros en el encuadre y encontrar el ángulo correcto de la cámara. Esta función está dirigida a personas con baja visión y pérdida de visión. Google dice que esta función permitirá a los usuarios inclinar la cara hacia arriba o hacia abajo, o desplazarse de izquierda a derecha antes de que la cámara tome una foto automáticamente. Además, avisará al usuario cuando la iluminación no sea suficiente para que pueda conseguir un mejor encuadre.

Anteriormente, esta función estaba disponible a través del lector de pantalla TalkBack de Android, pero el Marco guiado ahora está configurado dentro de la configuración de la cámara.

Otra característica única de Pixel es la mejora de la herramienta Lupa. La aplicación se presentó el año pasado y permitió a los usuarios usar la cámara para acercarse a un entorno del mundo real para leer letreros y encontrar elementos en el tablero del menú. Ahora, Google ha utilizado la IA para permitir a los usuarios buscar palabras específicas en su entorno.

Esto les permitirá buscar información sobre su vuelo en el aeropuerto o encontrar algo en un restaurante, ya que la IA hará zoom automáticamente en la palabra. Además, se ha agregado un modo de miniatura que muestra una imagen ampliada en una ventana más pequeña cuando el término de búsqueda está bloqueado en una ventana más grande. Los usuarios también pueden cambiar las lentes de la cámara para propósitos específicos. El dispositivo también admite una cámara frontal para que pueda usarse como espejo.

Live Transcribe también recibirá una nueva actualización que solo será compatible con teléfonos inteligentes plegables. Con el modo de pantalla dual, ahora puede mostrar su contenido a cada orador mientras usa la interfaz. De esta forma, si dos personas están sentadas al otro lado de la mesa, el smartphone se puede colocar en el medio y cada mitad de la pantalla mostrará lo que dijo esa persona. Google dice que facilitará que todos los participantes sigan mejor la conversación.

También se está desarrollando la función Live Captions. Google ha agregado soporte para siete nuevos idiomas (chino, coreano, polaco, portugués, ruso, turco y vietnamita) a Live Annotations. Ahora, cada vez que la aplicación reproduzca un sonido, los usuarios también podrán obtener comentarios en tiempo real en estos idiomas.

Estos idiomas también estarán disponibles en la aplicación Live Transcribe, dijo Google. Esto requiere un total de 15 idiomas. Cuando escriba estos idiomas, los usuarios ya no necesitarán una conexión a Internet. Sin embargo, si está conectado a Internet, esta función funciona en 120 idiomas.

Fuente