El diálogo de voz de Meta AI tiene la voz de celebridades como John Cena y Judi Dench.

Según se informa, Meta planea anunciar una nueva función de voz para su chatbot nativo de meta IA. Se cree que esta característica funciona de manera similar al modo de voz en el chatbot ChatGPT de OpenAI y permite a los usuarios tener conversaciones bidireccionales con la IA. Sin embargo, se dice que el gigante de las redes sociales se ha asociado con varias celebridades y celebridades para agregar sus voces a Meta AI. Según los informes, la compañía ha cerrado acuerdos con John Cena, Kirsten Bell y otras celebridades.

Reuters informes que el gigante de las redes sociales se ha asociado con muchas celebridades para llevar sus voces a Meta AI. Citando a personas anónimas familiarizadas con los planes de Meta, el informe dice que hay cinco celebridades, entre ellas John Cena, Kristen Bell, Judi Dench, Awkwafina y Kegan-Michael Key.

Cuando los usuarios hablen con Meta AI, escucharán respuestas con la voz de celebridad de su elección. Aparte de esto, también se dice que la plataforma de redes sociales agregará varias opciones de voz para los usuarios. Según se informa, esta característica se dará a conocer como una nueva característica que llegará a Meta AI en Facebook, Instagram y WhatsApp.

Según se informa, Meta planea anunciar esta parte de la conversación bidireccional durante su conferencia anual Connect que comienza el miércoles. Se dice que la letra estará disponible en Estados Unidos y otros mercados de habla inglesa a finales de esta semana. Se espera que el gigante de las redes sociales lo lance en otros lugares a finales de este año. No se sabe si la función llegará a la India.

Por otra parte, el rastreador de funciones de WhatsApp, WABetaInfo, también reveló que la aplicación planeaba agregar la función de voz Meta AI. Según se informa, el chatbot de IA en la aplicación de mensajería instantánea captará tres voces de hablantes del Reino Unido, dos voces de hablantes de EE. UU. y cinco voces de celebridades. Se dice que las palabras comunes varían en género, origen y acento regional.

En particular, OpenAI reveló una actualización de su modo de voz durante su evento Spring Breakthrough, donde la compañía dijo que el modo de voz avanzado se lanzará con una voz más emotiva y la capacidad de responder a lo que dice el usuario. Por otro lado, Google ha lanzado una función Gemini Live que ofrece capacidades similares.

Fuente