Ayer, Apple tuvo su gran evento, y durante la presentación del iPhone, anunciaron una nueva funcionalidad: Apple Visual Intelligence. Esta herramienta permite tomar fotos de cualquier cosa, y utiliza la inteligencia de Apple para búsquedas locales, compras, ayuda con tareas y más.

Apple está utilizando servicios como Google, ChatGPT, y posiblemente Yelp y OpenTable integrados con Apple Maps para estas funciones. Y sí, esto se parece mucho a Google Lens…

Esta parte de la presentación comienza alrededor del minuto 57, pero aquí te comparto algunas capturas de pantalla.

Aquí vemos a un hombre tomando una foto de la entrada de un restaurante para obtener más información sobre él, probablemente utilizando Yelp y OpenTable.

Resultados obtenidos:

Apple Visual Intelligence - Local, Shopping y Más

En este otro ejemplo, alguien toma una foto de una bicicleta para buscar ese producto y sus precios en Google:

Apple Visual Intelligence - Local, Shopping y Más

Los resultados parecen personalizados:

Apple Visual Intelligence - Local, Shopping y Más

Y también ofrece ayuda con tareas utilizando ChatGPT:

Apple Visual Intelligence - Local, Shopping y Más

Aquí tienes el video embebido en el punto de inicio, si deseas verlo:

Ver video en YouTube

En resumen, Apple está implementando inteligencia artificial como herramientas integradas, esencialmente como aplicaciones dentro de su ecosistema.

Conclusión:
Apple Visual Intelligence representa un paso significativo hacia la integración de IA en su ecosistema, ofreciendo a los usuarios nuevas formas de interactuar con el mundo que los rodea a través de su cámara. Esta funcionalidad, similar a Google Lens, busca facilitar las búsquedas locales, el shopping, y la ayuda en tareas académicas de una manera intuitiva.