¿Qué es la MetaIA? Todo lo que hay que saber sobre las herramientas de inteligencia artificial para redes sociales

Si utilizas Facebook, Messenger, Instagram o WhatsApp, es posible que te hayas topado con algo llamado Meta AI sin siquiera darte cuenta. Está integrado en la forma en que interactúas en estas aplicaciones, desde ayudarte con las publicaciones hasta editar imágenes.

Etiqueta de lote de arte AI Atlas

El objetivo de la compañía para Meta AI es convertirse en el asistente virtual personal definitivo con acceso gratuito e ilimitado a sus modelos de IA conectados a la familia de aplicaciones Meta. Todo el truco de Meta a finales de septiembre. Conectar 2024 El objetivo del evento era hacer que las herramientas de IA fueran más divertidas, accesibles y fáciles de usar.

Con las últimas actualizaciones, Meta AI pretende ir más allá de las funciones básicas de chatbot y ofrecer un asistente de IA multimodal y multilingüe que pueda manejar tareas complejas. Esto es lo que necesita saber sobre las herramientas de inteligencia artificial del gigante de las redes sociales.

Meta AI y dónde se usa

Además de su uso en aplicaciones, Meta AI también se refiere al laboratorio de investigación académica de Meta. Anteriormente se conocía como Facebook Artificial Intelligence Research antes de que Facebook cambiara su nombre a Meta (Facebook, la empresa, no la plataforma de redes sociales) en octubre de 2021. Desde chatbots hasta realidad virtual y experiencias de realidad aumentada.

Meta AI no es el único actor en la carrera por integrar la inteligencia artificial en la vida cotidiana. Google tiene sus propias herramientas de inteligencia artificial, como Google Assistant y Gemini, su chatbot gratuito, similar a ChatGPT.

Mientras que la IA de Google se centra más en la productividad, como los resultados de búsqueda o la gestión de registros, la Meta AI está integrada en sus interacciones sociales y ofrece soporte sin que usted tenga que preguntar. Con Meta AI, puedes tomar una foto y pedirle que resalte detalles o editar las imágenes con inspiración.

Captura de pantalla de Meta AI editando una foto mediante solicitudes de texto Captura de pantalla de Meta AI editando una foto mediante solicitudes de texto

Captura de pantalla de CNET

De manera similar, Alexa de Amazon y Siri de Apple son asistentes orientados a tareas, y ChatGPT o My AI de Snapchat ayudan con el conocimiento conversacional.

Pero Meta AI va un paso más allá al combinar todas estas características para convertirla en una “experiencia cotidiana”, en lugar de una herramienta independiente. Y así, mientras que estas otras herramientas de utilidad se sienten más como algo que usas conscientemente, Meta AI moldea silenciosamente cómo te conectas con otros o creas contenido.

Es casi astuto en cómo se integra perfectamente en las plataformas sociales que la gente usa todos los días, lo que hace que las herramientas de inteligencia artificial sean más difíciles de evitar. Simplemente escribiendo “@” seguido de Meta AI, puedes llamar al asistente en un chat (incluso en un chat grupal) para ofrecer sugerencias, responder preguntas o editar imágenes.

Esta integración de IA también se extiende a las funciones de búsqueda dentro de las Meta aplicaciones, lo que hace que sea más intuitivo y fácil encontrar contenido y explorar temas en función de lo que ves en tu feed, lo que Meta llama “experiencia contextual”.

Siguiendo el camino de ChatGPT, Meta AI ahora tiene conversaciones de voz naturales. Es multilingüe, con inglés, francés, alemán, hindi, escritura hindi-romana, italiano, portugués y español. Pronto podrás elegir entre varias voces famosas para el asistente, incluidas John Cena y Kristen Bell.

Actualmente, Meta AI está disponible en 21 países fuera de EE. UU.: Argentina, Australia, Camerún, Canadá, Chile, Colombia, Ecuador, Ghana, India, Jamaica, Malawi, México, Nueva Zelanda, Nigeria, Pakistán, Perú, Singapur, Sudáfrica. Uganda, Zambia y Zimbabue.

Aunque Meta AI no está disponible en la UE, la compañía dice que podría unirse más tarde al Acuerdo de IA de la UE. La Ley de IA exige que las empresas proporcionen “resúmenes detallados” de los datos utilizados para entrenar sus modelos, un requisito que Meta se ha mostrado reacio a cumplir, tal vez debido a su historial de demandas por privacidad de datos.

Cerraduras como nueva herramienta de IA

El director ejecutivo de Meta, Mark Zuckerberg, presentó nuevas funciones multimodales, impulsadas por sus módulos de código abierto Llama 3.2, en el evento Connect de septiembre, donde el equipo de Meta destacó el futuro de la informática y la conexión humana.

Uno de los anuncios más importantes de Connect 2024 fue cómo Meta AI se integra en productos cotidianos como sus gafas Ray-Ban Meta. Estas gafas ahora pueden ayudar a los usuarios de varias maneras, como recordar dónde estacionó su auto (¡guau!).

Las gafas también pueden realizar acciones basadas en lo que estás mirando. Por ejemplo, puede pedirle a AI que haga una llamada o escanee un código QR por usted.

Captura de pantalla de Meta AI identificando elementos en una etiqueta Captura de pantalla de Meta AI identificando elementos en una etiqueta

Meta

Otros productos en exhibición incluyen la versión Meta Quest S3 del visor de realidad virtual (VR) independiente, que, después de la actualización, se denomina visor de realidad mixta, y Orion, el prototipo de gafas holográficas AR, que se han estado fabricando. más de diez años.

Aunque las gafas Ray-Ban Meta y los dispositivos Quest están disponibles en 15 países, incluidos algunos europeos, Meta AI está actualmente disponible en estos dispositivos. sólo en EE.UU. y Canadá.

Traducción en vivo

Meta también anunció mejoras en la traducción de IA. Metaglasses podrá traducirte en tiempo real, por lo que si alguien te habla en español, francés o italiano, podrás escucharlo en tu oído en inglés.

Otro avance importante, aunque aún en fase experimental, es el doblaje de vídeos en Reels en español e inglés, con sincronización labial automática. Al parecer, si la prueba sale bien la ampliarán a más idiomas.

Estudio de IA

Por ahora, esta función sólo está disponible en EE. UU. Los usuarios y las empresas podrán crear chatbots de IA personalizados sin necesidad de amplios conocimientos de programación. Estos llamados personajes de IA serán una extensión de ellos mismos o de sus marcas, lo que permitirá interacciones más atractivas con los fans o clientes.

Una captura de pantalla del chatbot Meta AI charlando con un usuario Una captura de pantalla del chatbot Meta AI charlando con un usuario

Captura de pantalla de Barbara Pazur/CNET

Con total transparencia, todas las respuestas generadas por la IA se marcarán como tales.

El poder detrás de Meta AI

Llama (Large Meta AI Language Model) es una familia de LLM diseñada para comprender y generar texto similar a un humano, responder preguntas, escribir e incluso mantener conversaciones.

Llama 3.2 es la última versión de este LLM y el primer modelo multimodal de código abierto de Meta, que permite muchas aplicaciones que requieren percepción visual. Meta afirma que es “su módulo de código abierto más avanzado, con flexibilidad, control y capacidades de vanguardia que rivalizan con los mejores módulos de código cerrado”. “

Los nuevos modelos Llama 3.2 vienen en dos versiones multimodo con parámetros 11B y 19B, y modelos de solo texto con parámetros 8B y 70B. Los parámetros se miden en miles de millones y definen cómo el modelo procesa entradas, como palabras o imágenes, y genera resultados cambiando las relaciones entre ellas.

Meta también planea lanzar modelos con parámetros más pequeños optimizados para dispositivos móviles y dispositivos portátiles como gafas.

¿Qué sigue?

Según la compañía, se espera que Meta AI sea el asistente de IA más utilizado en el mundo para fin de año. Más de 400 millones de personas interactúan con Meta AI cada mes, y 185 millones la utilizan en todos los productos Meta cada semana.



Fuente