Meta AI recibe un montón de actualizaciones gratuitas: voz, visión y doblaje automático

En la carrera por hacer que la IA sea realmente útil para una audiencia masiva, Meta ha dado solo unos pocos pasos clave, incluida la capacidad de la IA para ver objetos y proporcionar traducciones en vivo y sincronizadas con los labios.

En la conferencia de desarrolladores Meta Connect, el director ejecutivo Mark Zuckerberg presentó la última versión de Llama. Es un modelo de lenguaje grande (LLM) de código abierto que impulsa el chatbot de IA en los principales servicios de la empresa: Facebook, WhatsApp, Messenger e Instagram.

Dado ese alcance, Zuckerberg describió a Meta AI como “probablemente el asistente de IA más utilizado en el mundo”, con casi 500 millones de usuarios activos. El servicio aún no está disponible en la Unión Europea, dado que Meta no se ha unido al pacto de IA de la UE, pero Zuckerberg dijo que está “eternamente optimista de que podamos resolverlo”.

VER TAMBIÉN:

Dónde pedir Meta Quest 3S

También es optimista de que Llama, de código abierto (a diferencia de Gemini de Google y GPT de OpenAI, ambos sistemas cerrados propietarios), se convertirá en el estándar de la industria. “El código abierto es el más rentable y el más personalizable”, afirmó Zuckerberg. Llama es “una especie de Linux de la IA”.


Meta AI recibe un montón de actualizaciones gratuitas: voz, visión y doblaje automático

La velocidad de la luz triturable

Meta AI edita fotos basadas en texto

¿Pero qué puedes hacer con él? “Puede entender tanto imágenes como texto”, añadió Zuckerberg, mostrando cómo se puede editar una foto con sólo preguntarle al chatbot Llama. “Mi familia ahora pasa mucho tiempo tomando fotografías y haciéndolas más divertidas”.

La velocidad de la luz triturable

El chat de voz ahora se está implementando en todas las versiones de Meta AI, incluidas las voces de celebridades como Judi Dench, John Cena y Avkafina. Otra actualización fácil de usar: ya no tendrás que decir “hola Meta” o “mírame y cuéntame” cuando uses el asistente de voz Meta AI con sus gafas.

VER TAMBIÉN:

Meta Connect 2024: se presentan las gafas Meta Orion AR

Zuckerberg y sus ejecutivos también describieron una serie de casos de uso. Por ejemplo, un usuario puede configurar Meta AI para proporcionar respuestas pregrabadas a preguntas frecuentes a través de vídeo. Puedes usarlo para rastrear dónde estacionaste. O puedes pedirle que te sugiera cosas en tu habitación que puedan ayudarte a vestirte mejor.

La característica más visible y probablemente la más útil: la traducción en vivo. Actualmente disponible en español, francés, italiano e inglés, la IA repetirá automáticamente lo que dice la otra persona en el idioma que usted elija. Zuckerberg, quien admitió que no habla español en absoluto, demostró este rasgo a través de una incómoda conversación en el escenario con el luchador de UFC Brandon Moreno.

Un poco más impresionante fue la opción de traducción en vivo en Reels y otros Meta videos. La IA sincroniza los labios de los hablantes para que parezca que realmente están hablando el idioma que estás escuchando. No tiene nada de aterrador.

Materias
Metainteligencia artificial



Fuente