Visual Intelligence: cómo funciona la búsqueda visual que llega en el iPhone 16

Apple presentó los esperados modelos: iPhone 16, iPhone 16 Plus, iPhone 16 Pro y iPhone 16 Pro Max. Pero eso no fue todo, también lanzaron su nueva tecnología de búsqueda visual, similar al Google Lens, llamada Visual Intelligence, la cual estará impulsada por su estrella y conjunto de capacidades de IA, Apple Intelligence.

De acuerdo con Apple, Visual Intelligence se activa con el botón de la cámara y es capaz de reconocer objetos o lugares. Además, la información se incluye en una sección dedicada e incluye enlaces a la web para profundizar.

Uno de los ejemplos presentados durante el evento del iPhone muestra a un usuario que quiere conocer más sobre un restaurante. Al dejar presionado el botón de la cámara y tomar la foto, la herramienta ofrece detalles sobre el lugar, como reseñas o imágenes, y permite revisar el menú o reservar una mesa para más tarde. 

TE PUEDE INTERESAR: Mate XT Ultimate: el primer teléfono plegable de triple pantalla está aquí y es de Huawei

Cómo funciona Visual Intelligence de Apple 

  • La IA del iPhone 16 puede reconocer animales, objetos, ubicaciones y más, siempre tomando el contexto como la parte más importante.
  • Las capacidades de Visual Intelligence no están limitadas a las aplicaciones de Apple. Esta función también se conecta con servicios de terceros, como Google y ChatGPT. 
  • Puedes tomarle foto a un producto para buscarlo en Google o hacerle una pregunta al chatbot de OpenAI a través de los botones dedicados que se encuentran en la interfaz de usuario.
  • Visual Intelligence estará disponible en todos los iPhone 16 a finales de año. 
  • Apple no confirmó si esta característica se ofrecerá en todos los mercados o si otros modelos anteriores tendrán acceso a ella. 
  • Durante la presentación, Apple mencionó que Apple Intelligence hablará español próximamente, aunque no se comprometió a una fecha en específico.

Privacidad de Visual Intelligence

  • Craig Federighi, vicepresidente de ingeniería de software en Apple, mencionó que Visual Intelligence se lleva a cabo en un entorno privado. 
  • Los modelos de lenguaje que impulsan Apple Intelligence se ejecutan directamente en el hardware del iPhone 16, mientras que las tareas que requieren mayor potencia se hacen a través de los servidores de Apple. 
  • Federighi afirma que Apple no almacenará las imágenes que captures con su IA.

Foto: Apple. 

Deja una respuesta