Ray-Ban Meta Smart Glasses: Ahora más inteligentes que nunca con nuevas actualizaciones

hace 2 semanas · Actualizado hace 2 semanas

Si buscas en internet las gafas inteligentes Ray-Ban Meta Smart Glasses , verás que se destacan principalmente

Si buscas en internet las gafas inteligentes Ray-Ban Meta Smart Glasses , verás que se destacan principalmente por su capacidad de capturar fotos rápidamente y hacer transmisiones en vivo.

Sin embargo, en el evento Meta Connect 2024 del pasado miércoles, el fundador y CEO de Meta, Mark Zuckerberg, no habló mucho sobre fotos y vídeos en la presentación de las Ray-Ban Meta Smart Glasses.

De hecho, Zuckerberg presentó las Ray-Ban Meta Smart Glasses como un dispositivo de inteligencia artificial (IA) en lugar de centrarse en sus capacidades de imagen o vídeo.

Índice
  1. Un nuevo dispositivo de IA
  2. Interacciones más naturales y conversacionales
  3. Traducción en vivo en las Ray-Ban Meta Smart Glasses
  4. Prompts multimodales de IA
  5. Integración con Spotify, Amazon Music y más
  6. Colaboración con Be My Eyes para usuarios con discapacidad visual

Un nuevo dispositivo de IA

“Las gafas son una nueva categoría de dispositivos de IA,” comentó Zuckerberg, agregando que su empresa se ha puesto al día con la demanda de los consumidores para las gafas inteligentes de Meta después de que las ventas despegaran más rápido de lo que esperaba.

Aparte de una edición limitada de Ray-Ban Meta Smart Glasses con monturas transparentes, no hubo otros anuncios de hardware relacionados con estas gafas inteligentes.

Ray-Ban Meta Smart Glasses con monturas transparentes
Crédito: Meta

Pero Zuckerberg compartió varias nuevas funciones que llegarán a las gafas inteligentes de Meta en los próximos meses, todas ellas relacionadas con la IA.

Interacciones más naturales y conversacionales

Meta AI ya está integrada en las Ray-Ban Meta Smart Glasses de manera similar a cómo otros asistentes de voz se integran en sus respectivos dispositivos. Pero, según Zuckerberg, nuevas actualizaciones harán que estas interacciones sean “más naturales y conversacionales.”

Por ejemplo, hoy en día los usuarios deben usar la frase “look and tell me” (mira y dime) para activar la función de preguntas en sus Ray-Ban Meta Smart Glasses. La demostración de Zuckerberg mostró que pronto eso ya no será necesario. Los usuarios solo tendrán que decir “Hey Meta” y luego hacer su pregunta. Meta AI sabrá automáticamente que la pregunta se refiere a lo que el usuario está viendo a través de las gafas.

Además, después del comando inicial "Hey Meta," Meta AI no requerirá que los usuarios comiencen cada pregunta con esa frase. Meta AI podrá seguir interactuando con los usuarios de manera continua.

Traducción en vivo en las Ray-Ban Meta Smart Glasses

Otra función impresionante es la capacidad de traducción en tiempo real. Los usuarios podrán acceder a traducciones de audio en vivo de otro idioma mientras conversan con otra persona. Durante la demostración de Meta Connect, la traducción de español a inglés y viceversa funcionó casi a la perfección.

Traducción en vivo de Meta AI
Crédito: Meta

Prompts multimodales de IA

Zuckerberg explicó la función de IA multimodal con una demo en la que un usuario probaba diferentes conjuntos de ropa. A través de esta función, Meta AI pudo ofrecer consejos de moda y sugerencias basadas en la vestimenta del usuario y su pregunta específica sobre ella.

Las Ray-Ban Meta Smart Glasses también podrán recordar cosas automáticamente para los usuarios. Durante el evento, se mostró cómo Meta AI recordaba el número de plaza de aparcamiento donde el usuario había dejado su coche, sin que este tuviera que pedirlo explícitamente.

Meta AI recuerda
Crédito: Meta

Además, las gafas podrán mirar un folleto o anuncio y llamar automáticamente al número de teléfono o escanear el código QR relevante. Estas funciones también podrán ser recordadas para acceder a ellas en otro momento.

Integración con Spotify, Amazon Music y más

Otras actualizaciones que llegarán a las Ray-Ban Meta Smart Glasses incluyen la capacidad de controlar Spotify y Amazon Music por voz, además de nuevas integraciones con aplicaciones como Audible y iHeartRadio.

Colaboración con Be My Eyes para usuarios con discapacidad visual

Meta + Be My Eyes
Crédito: Meta

Meta también anunció una colaboración con Be My Eyes , una app móvil que conecta a personas ciegas o con baja visión con voluntarios a través de vídeo en vivo para ayudarles a describir lo que tienen delante. Esta app funcionará directamente a través de las Ray-Ban Meta Smart Glasses, permitiendo a los voluntarios ver a través de las gafas del usuario para proporcionar asistencia.

Con todas estas nuevas funciones y actualizaciones, las Ray-Ban Meta Smart Glasses se están convirtiendo en un dispositivo de IA cada vez más avanzado y útil, listo para transformar la manera en que interactuamos con el mundo.

Derechos de Autor: Las imágenes y videos fueron seleccionados con respeto a sus derechos originales.

Publicado por Trucos Móvil , una fuente independiente de información.

Si quieres conocer otros artículos parecidos a Ray-Ban Meta Smart Glasses: Ahora más inteligentes que nunca con nuevas actualizaciones puedes visitar la categoría Android.

Agregar un comentario

Tu dirección de correo electrónico no será publicada. Los campos requeridos están marcados *

Tu puntuación: Útil

Subir