Tim Cook revela que la Inteligencia Visual es la función más usada de Apple Intelligence

Apple continúa reforzando su estrategia de inteligencia artificial con Apple Intelligence, lanzada en 2024 y ya integrada en millones de dispositivos. En la más reciente llamada de resultados, el director ejecutivo Tim Cook reveló cuál es la función más utilizada por los usuarios de iPhone: Inteligencia Visual. Esta herramienta, similar en concepto a Google Lens, se ha convertido en el eje de la experiencia de IA en los modelos más recientes de la compañía.

La Inteligencia Visual permite que los usuarios apuntan la cámara de su iPhone hacia un objeto, texto o lugar y obtengan información inmediata. Entre sus principales funciones está la identificación de puntos de referencia, animales y plantas; traducción de textos en tiempo real; lectura en voz alta y resúmenes automáticos; así como generar información contextual de restaurantes y comercios, incluyendo horarios y menús.

Esta función está disponible en los iPhone 16 y iPhone 17 (incluido el iPhone Air) como parte del Control de Cámara. En modelos como el iPhone 15 Pro, iPhone 15 Pro Max y iPhone 16e, puede configurarse en el botón de acción o en el Centro de Control.

TE PUEDE INTERESAR: Nueva tecnología de batería podría mantener tu teléfono fresco

La evolución de Apple Intelligence

Desde su lanzamiento, Apple Intelligence ha ofrecido múltiples herramientas:

  • Resumir correos electrónicos y sitios web.
  • Bloquear contenido en páginas web.
  • Redacción asistida con diferentes tonos.
  • Creación de imágenes y emojis personalizados.
  • Traducción en tiempo real de conversaciones.
  • Image Playground, para generar ilustraciones en estilos como anime, óleo o acuarela.

Foto: Apple.

Deja una respuesta