Ray-Ban Meta ahora son ‘más inteligentes’ con la IA multimodal

Soramir Torres

, GADGETS

Los lentes inteligentes Ray-Ban Meta hacen videos, toman fotos, transmiten en vivo y actúan como un reemplazo adecuado para los auriculares, todo mientras se ven como un par de lentes de sol normales. Ahora, dio un paso más al incorporar la Inteligencia Artificial (IA) multimodal.

¿Qué es la IA multimodal? En pocas palabras, es un conjunto de herramientas que permite a un asistente de IA procesar múltiples tipos de información, incluidas fotos, videos, texto y audio. Es una IA que puede ver y comprender el mundo que te rodea en tiempo real. 

Por otra parte, Meta reveló la integración de videollamadas manos libres con WhatsApp y Messenger. También hay algunos diseños de monturas nuevos para los amantes de la moda.

TE PUEDE INTERESAR: Google Te Ayuda A Saber Si Una Foto Es Falsa

Así es como funciona la IA multimodal en los Ray-Ban Meta

  • Los lentes tienen una cámara y cinco micrófonos, que actúan como los ojos y oídos de la IA. 
  • Puedes pedirle a los lentes que describan cualquier cosa que estés mirando. ¿Quieres conocer la raza de un perro antes de subir y darle una buena mascota? Pregúntale a los Ray-Ban.
  • Meta dice que también puede leer letreros en diferentes idiomas, lo cual es ideal para viajar. 
  • Hay otros posibles escenarios de casos de uso, como mirar los ingredientes sueltos en la encimera de la cocina y pedirle a la IA que prepare una receta relevante. 
  • Según Meta, el lanzamiento de estas actualizaciones comenzó el 24 de abril, aunque es posible que no estén disponibles de inmediato para todos los usuarios.
  • Para acceder a estas nuevas capacidades, los propietarios de Ray-Ban Meta Smart Glasses simplemente deben actualizar su dispositivo a través de la aplicación Meta View. 

Foto: Meta.

Deja una respuesta