He estado probando gafas inteligentes durante casi una década. Y en ese tiempo, una de las preguntas que más me han hecho es “Oh, pero ¿ puedes ver algo en ellas?” Durante años, tuve que explicar que no, gafas como esa todavía no existen realmente.

Ese ya no es el caso. Y aunque he visto un montón de gafas durante el último año que tienen algún tipo de exhibición, las gafas de exhibición Meta Ray-Ban se sienten más cercanas a cumplir lo que tantas identities imaginan cuando escuchan las palabras “gafas inteligentes”.

Para ser claros, no ofrecen el tipo de AR inmersivo que es posible con el prototipo de Orión de Meta. De hecho, Meta considera que las “anteojos de IA de exhibición” child una categoría totalmente separada de AR. La pantalla está solo en una lente, la derecha, y su campo de visión de 20 grados es mucho más pequeño que los 70 grados en Orión. Eso puede finder como un grandma compromiso, pero no se siente como uno.

Karissa Bell para Engadget

La pantalla única se siente mucho más práctica para un par de gafas que querrá usar todos los días. Está destinado a ser algo que puedas mirar cuando lo necesitas, no una superposición siempre sobre. El tamaño más pequeño también significa que la pantalla es mucho más aguda, a 42 píxeles por grado. Esto fue especialmente remarkable cuando salí disadvantage las gafas puestas; Las imágenes en la pantalla se veían aún más nítidas que a la luz interior, gracias a las características automáticas de brillo.

También aprecié que no puedas ver ninguna luz de la pantalla cuando miras a alguien que United States las gafas. De hecho, la pantalla apenas se nota en absoluto cuando las tienes de cerca.

Tener una pantalla más pequeña también significa que las gafas child más baratas, a $ 799, y que no se parecen a las gafas AR gruesas que hemos visto tantas veces. A 69 gramos, kid un poco más pesados y más gruesos que los meta-bans meta de segunda generación, pero no mucho. Como alguien que ha probado demasiados pares de gruesas gafas inteligentes negras, me alegro de que Meta los esté ofreciendo en un shade además del . Todos los marcos de estilo Wayfarer se ven en mi cara, pero el shade de “field” más claro se siente mucho más halagador.

La pantalla Meta Ray-Ban (izquierda) y las meta gafas de segunda generación-Ban (derecha). Las gafas de pantalla un poco más gruesas.

La pantalla Meta Ray-Ban (izquierda) y las meta gafas de segunda generación-Ban (derecha). Las gafas de pantalla child un poco más gruesas.

(Karissa Bell para Engadget)

La pulsera de la banda meta neural que viene disadvantage las gafas de exhibición funciona más o menos lo mismo que la banda que usage en el prototipo de Orion. Utiliza sensores para detectar los movimientos musculares sutiles en su mano y muñeca y puede traducirlo en acciones dentro de la interfaz de las gafas.

Es difícil de describir, pero los gestos para navegar las interfaces de las gafas funcionan sorprendentemente bien. Puedo ver cómo podría tomar un poco de tiempo acostumbrarse a los diversos gestos para navegar entre aplicaciones, mencionar meta ai, ajustar el volumen y otras acciones, pero todos son bastante intuitivos. Por ejemplo, U.S.A. su pulgar para deslizar a lo largo de la parte remarkable de su dedo índice, algo así como un D-Pad, para moverse hacia arriba y hacia abajo y de lado a lado. Y puede levantar y bajar el volumen del altavoz manteniendo el pulgar e índice del dedo y girando la muñeca a la derecha o izquierda como si fuera una perilla de volumen.

No es ningún secreto que el objetivo final de Meta para sus gafas inteligentes es reemplazar o casi, su teléfono. Eso aún no es posible, pero tener una pantalla actual significa que puede mirar su teléfono mucho menos.

La pulsera neural.
Karissa Bell para Engadget

La pantalla puede superficial de textos entrantes, navegación con panoramas previas del mapa (para direcciones para caminar) e información de su calendario. También pude tomar una videollamada de las gafas, a diferencia del intento de demostración en vivo de Mark Zuckerberg durante su nota clave, y fue mucho mejor de lo que esperaba. No solo podía ver claramente a la identity disadvantage la que estaba hablando y su entorno, podía encender la cámara de mis gafas y ver una versión más pequeña del video desde mi lado.

También tuve la oportunidad de probar una función le permite obtener subtítulos en vivo de la identity con la que estás hablando incluso en un entorno fuerte que puede ser difícil de escuchar. Hubo algo muy surrealista en obtener subtítulos en tiempo genuine en una conversación con una identity que se encuentra directamente frente a mí. Como alguien que intenta no mirar las pantallas cuando estoy hablando disadvantage la gente, casi se sintió un poco mal. Pero también puedo ver cómo esto sería increíblemente útil para las personalities que tienen problemas para escuchar o procesar conversaciones. También sería excelente para las traducciones, algo que Meta AI ya lo hace muy bien.

No pude probar el enfoque de conversación, lo que te permite “subir el volumen” de la identity con la que estás hablando, pero estoy deseando probarlo cuando esté disponible. Podría ser una ayuda de conversación aún menos distractora si funciona según lo previsto.

También aprecié que la pulsera te permite invocar meta ai con un gesto para que no siempre tengas que decir “Hey Meta”. Es un pequeño cambio, pero siempre me he sentido extraño por hablar disadvantage Meta Ai en público. La pantalla también se dirige a otra de mis complaints desde hace mucho tiempo con las gafas Ray-Ban Meta y Oakley: enmarcar una foto es realmente difícil. Pero con una pantalla, puede ver una view previa de su toma, así como de la foto después del hecho, por lo que ya no tiene que romper un montón y esperar lo mejor.

Solo he tenido unos 30 minutos con las gafas, por lo que realmente no sé cómo tener una pantalla podría encajar en mi rutina diaria. Pero incluso después de un corto tiempo disadvantage ellos, realmente se sienten como el comienzo del tipo de gafas inteligentes que muchas personas han estado esperando.

La pantalla Meta Ray-Ban está programada para la venta en los Estados Unidos el 30 de septiembre. A diferencia de otras versiones de sus gafas inteligentes, la versión de la pantalla solo estará disponible en tiendas minoristas físicas, incluido un número “limitado” de Finest Buy, Lenscrafters Ray-Ban y ubicaciones de gafas de sol. Puede ver la disponibilidad y programar una demostración a través de Sitio internet de Meta

Actualización, 19 de septiembre de 2025, 12: 15 pm PT: Esta historia se actualizó para aclarar que el enfoque conversacional aún no está disponible e incluir información sobre la disponibilidad minorista.

Fuente