Como seguramente ya sabes, Meta, en colaboración con Ray-Ban, lanzaron una prueba de acceso anticipado para sus gafas inteligentes, incorporando características de inteligencia artificial (IA) avanzadas.
Hoy, Meta anunció que comenzará a implementar sus funciones de IA multimodal que pueden informarle sobre cosas que el asistente de IA de Meta puede ver y escuchar a través de la cámara y los micrófonos de las gafas.
TE PUEDE INTERESAR: Esto Es Lo Más Buscado En Google Durante Sus 25 Años
Más sobre las Ray-Ban de Meta
- Zuckerberg demostró las nuevas funciones en un video de Instagram.
- Pidió a las gafas que le sugirieron pantalones para una camisa que tenía en las manos.
- La IA analizó el aspecto de la camisa y ofreció varias variantes de pantalones adecuados.
- También hizo que el asistente de IA de las gafas tradujera texto y mostrará un par de títulos de imágenes.
- Por ahora, las nuevas funciones de IA estarán disponibles para pruebas a un número limitado de usuarios en EE.UU.
- La compañía planea ampliar el acceso y añadir otras opciones potenciadas por IA en el futuro.
¿Qué puedes hacer con las Ray-Ban de Meta
- Traducción de Textos: Comando de voz: ‘Hey Meta, traduce este texto al inglés’.
- Identificación de Objetos: Comando de voz: ‘Hey Meta, ¿qué objeto es este?’
- Sugerencia de Combinaciones de Ropa: Comando de voz: ‘Hey Meta, sugiere pantalones que combinen con esta camisa’.
- Generación de Títulos y Descripciones Creativas: Comando de voz para descripciones: ‘Hey Meta, describe este paisaje de manera inspiradora’ o ‘Hey Meta, escribe un título divertido para Instagram sobre este perro’.
- Consejos para la Preparación de Comidas: Comando de voz: ‘Hey Meta, ¿qué puedo hacer con estos ingredientes?’
- Consejos de Jardinería: Comando de voz para identificación de plantas: ‘Hey Meta, ¿qué planta es esta?’ o ‘Hey Meta, ¿cuánta agua necesitan estas flores?’
- Entendimiento y Traducción de Textos en Señalizaciones: Comando de voz: ‘Hey Meta, ¿qué dice esta señal?’.
Foto: FOLOU.