Probé la nueva información visual del iPhone 16 y parece el futuro

Mientras pasaba por una tienda de té japonés en el Bowery Market de Nueva York, todo lo que tenía que hacer era apuntar mi iPhone al frente de la tienda y mantener presionado un botón en el costado de mi teléfono para ver el horario, las fotos de los clientes y las opciones para llamar. la tienda o realizar un pedido.

La nueva herramienta Visual Intelligence de Apple, que estará disponible para la línea iPhone 16, eliminará el paso intermedio de desbloquear su teléfono, abrir Google o ChatGPT y escribir una pregunta o cargar una imagen para obtener una respuesta. Una versión temprana de la función está disponible como parte de la versión beta para desarrolladores de iOS 18.2 de Apple, que se lanzó para aquellos en el programa el miércoles.

Aunque la versión que probé es una vista previa para desarrolladores y no para usuarios generales, me dio una idea de cómo funciona Visual Intelligence y lo que puede aportar a la experiencia del iPhone. En el poco tiempo que estuve probando esta versión inicial, descubrí que funciona mejor para obtener rápidamente información sobre puntos de interés en el vuelo. Si bien puede ser conveniente, también creo que a los usuarios les tomará tiempo aceptar la función una vez que se lance porque representa una nueva forma de pensar sobre cómo operamos nuestros teléfonos.

Sin embargo, apunta a un futuro en el que no tendremos que abrir tantas aplicaciones para hacer cosas en nuestros dispositivos móviles, y eso es prometedor.

Pero tendré más que decir al respecto una vez que haya pasado más tiempo con él y después del lanzamiento de la versión final.

Leer más: ‘Cambrian Explosion:’ Un rediseño radical de la IA en tu teléfono, próximamente

Cómo funciona la inteligencia visual

Visual Intelligence es responsable del nuevo botón Camera Control en los iPhone 16, 16 Plus, 16 Pro y 16 Pro Max. Simplemente presione y mantenga presionado el botón y verá un mensaje que explica qué es la Inteligencia Visual y le indica que las imágenes no se almacenan en su iPhone ni se comparten con Apple.

Etiqueta de lote de arte AI Atlas

Cuando la interfaz de Visual Intelligence esté abierta, simplemente toque el botón del obturador de la cámara para tomar una foto. Desde allí, puedes tocar un botón en pantalla para preguntarle a ChatGPT sobre la imagen, o puedes presionar buscar.para iniciar una búsqueda en Google. Puedes optar por utilizar ChatGPT con o sin una cuenta; Las solicitudes permanecen anónimas y no se utilizarán para entrenar el modelo ChatGPT a menos que se registre.

Una captura de pantalla de la función Intelligence Intelligence en un iPhone que muestra el color de Game Boy Una captura de pantalla de la función Intelligence Intelligence en un iPhone que muestra el color de Game Boy

Tomé una foto de una consola de juegos retro y pregunté cuándo salió. Visual Intelligence, que utiliza ChatGPT, dio la respuesta correcta.

Lisa Eadicicco/CNET

En la versión actual de Visual Intelligence, también existe una opción para mostrar preocupación presionando el ícono que parece tres puntos. Si desea deshacerse del ícono y reemplazarlo por otro, puede tocar el incógnita icono donde suele estar el botón de juntos en la pantalla.

Además de usar Google o ChatGPT, el iPhone también muestra algunas opciones basadas en hacia qué apuntas la cámara, como el horario de la tienda si apuntas a una tienda o restaurante.

Cómo es usarlo

En el poco tiempo que he pasado con Visual Intelligence hasta ahora, lo he usado para aprender sobre restaurantes y tiendas, hacer preguntas sobre videojuegos y más.

Si bien es una forma rápida y cómoda de acceder a ChatGPT o Google, lo que me parece más interesante es la forma en que reconoce restaurantes y tiendas. Hasta ahora, esto ha funcionado mejor cuando se apunta la cámara al escaparate de una tienda en lugar de a un cartel o pancarta.

Por ejemplo, cuando estaba escaneando fuera de Kettl, la tienda de té japonesa que mencioné anteriormente, Visual Intelligence automáticamente obtuvo información útil, como fotografías de las distintas bebidas. Él respondió de manera similar cuando tomé una fotografía de una antigua tienda de videojuegos cerca de mi oficina. Después de presionar juntos el botón, Apple mostró el nombre de la tienda junto con fotografías del interior, un enlace para visitar su sitio web y la opción de contactar con la tienda.

viz-intell-captura de pantalla-1.jpg viz-intell-captura de pantalla-1.jpg

El menú de la cafetería no tenía imágenes de sus bebidas, pero gracias a Visual Intelligence, mi teléfono sí.

Lisa Eadicicco/CNET

Una vez que inicié sesión, utilicé Visual Intelligence para pedirle a ChatGPT recomendaciones de juegos basadas en títulos de la tienda y obtener más información sobre las consolas y los juegos de la tienda. Sus respuestas fueron bastante obvias, aunque vale la pena recordar que los chatbots como ChatGPT no siempre aciertan.

Cuando le pedí a ChatGPT juegos como el Persona de baile Después de tomar una fotografía de los juegos en el estante, sugirió otros títulos que también están impulsados ​​por la música y las historias. Parece una respuesta sensata, ya que los juegos Persona Dance son derivados rítmicos de los populares juegos de rol japoneses Persona. Para saber que GameBoy Color se lanzó en 1998, todo lo que tuve que hacer fue tomar una fotografía rápida y preguntar cuándo se lanzó. (Por si sirve de algo, obtuve resultados similares cuando hice las mismas preguntas en la aplicación ChatGPT).

Apple Intelligence en iPhone muestra resultados de ChatGPT. Apple Intelligence en iPhone muestra resultados de ChatGPT.

Esta respuesta de ChatGPT y Visual Intelligence trataba sobre juegos que podrían ser muy avanzados.

Lisa Eadicicco/CNET

Aunque hasta ahora he disfrutado experimentando con la Inteligencia Visual, siento que sería mucho más útil cuando viajo. Habría sido útil apuntar mi iPhone a un punto de referencia, tienda o restaurante para obtener más información sobre cuando viajé a Francia y Escocia a principios de este año. En una ciudad que ya conozco, no me suelen pedir más información sobre lugares cercanos.

Leer más: Lo que aprendí después de cambiar mi Apple Watch por el Galaxy Ring de Samsung

Experiencia visual y el futuro de los teléfonos

Parece imposible no comparar Visual Intelligence con Google Lens, que te permite aprender sobre el mundo que te rodea usando la cámara de tu teléfono en lugar de escribir un término de estudio. En su forma actual (que, nuevamente, es una vista previa destinada a desarrolladores), Visual Intelligence apenas se siente como un botón dedicado de Google Lens/ChatGPT.

Eso puede hacer que parezca que no es nuevo ni diferente, ya que Google Lens existe desde hace años. Pero debido a que este tipo de función es tan importante, el último iPhone tiene su propio botón para indicarlo. Muestra que Apple cree que podría haber una mejor manera de encontrar y hacer cosas en nuestros teléfonos.

Apple no está ni mucho menos sola en esa convicción; Google, OpenAI, Qualcomm y startups como Rabbit creen que la IA puede utilizar la cámara de nuevas formas en nuestros dispositivos móviles, convirtiéndola más en una herramienta de descubrimiento que en una simple forma de capturar fotografías. En su conferencia anual Snapdragon de esta semana, Qualcomm mostró un concepto de asistente virtual que usa la cámara para hacer cosas como dividir la cuenta en tres partes en un restaurante establecido en una foto del recibo.

El truco consiste en conseguir que la gente corriente lo acepte. Incluso si es más rápido y más eficiente, prometo que la memoria muscular podría evitar que muchos abandonen las viejas formas de dar golpecitos y girar para tomar fotografías.

Desarrollar nuevos hábitos lleva tiempo. Pero Visual Intelligence se encuentra sólo en una etapa inicial de vista previa, por lo que hay mucho más por venir.

El iPhone 16, 16 Plus de Apple mostrará colores y botones más intensos

Ver todas las fotos



Fuente