Snap renueva sus anteojos Spectacles con la quinta generación de gafas de realidad aumentada
Snap ha presentado la quinta generación de Spectacles, sus anteojos de realidad aumentada (RA) rediseñadas para integrar cuatro cámaras que alimentan el motor espacial Snap, que permite el seguimiento de las manos de los usuarios y su interacción con el entorno, impulsado por el nuevo sistema operativo Snap OS.
La tecnológica ha dado a conocer sus últimas novedades en el marco de la Conferencia de Socios de Snap, en la que ha subrayado su intención de mejorar la realidad aumentada para facilitar “experimentar el mundo junto con amigos de formas totalmente nuevas”.
Quinta generación de anteojos
En este sentido, Snap ha presentado sus nuevas gafas de RA Spectacles de quinta generación, a las que define como un hardware que “rompe los límites de las pantallas y acerca a las personas en el mundo real”. Este nuevo modelo ha sido rediseñado pensando en la ligereza, y con un peso de 226 gramos, la tecnológica ha detallado que reduce a menos de la mitad el peso de un casco de realidad virtual (RV) típico.
Además, han sido equipadas con cuatro cámaras que alimentan el motor espacial Snap. Con esta tecnología, las gafas son capaces de llevar a cabo un seguimiento “perfecto” de los movimientos de las manos de los usuarios, con lo que permite interactuar con el mundo real a través de gestos y la RA.
Tal y como ha explicado la compañía en un comunicado en su web, otra de las novedades que incluyen las nuevas Spectacles es el motor óptico, que ha sido construido desde cero aprovechando la tecnología patentada de Snap para permitir una pantalla RA transparente.
A la hora de reproducir las imágenes, las gafas integran microproyectores de cristal líquido sobre silicio (LCoS). Estos microproyectores son “increíblemente pequeños” pero abarcan una gran capacidad, con lo que la compañía ha asegurado que pueden crear imágenes “nítidas y vívidas”.
Asimismo, los microproyectores se acompañan de unas guías de ondas, que permiten ver las imágenes creadas por el proyector LCoS “sin necesidad de realizar largas calibraciones o ajustes personalizados”. Esto se debe a que cada guía de onda tiene “miles de millones de nanoestructuras”, las cuales mueven la luz hacia el campo de visión de los usuarios para combinar las imágenes de RA con el mundo real.
Un video muestra cómo funcionan los nuevos anteojos Spectacles
Una pantalla de 100 pulgadas en los anteojos
Como resultado de esta tecnología, Snap ha detallado que el motor óptico puede ofrecer un campo de visión diagonal de 46 grados con una resolución de 37 píxeles por grado. Esto equivale a visualizar una pantalla de 100 pulgadas a solo 3 metros de distancia, tal y como ha ejemplificado.
Snap también ha destacado que los cristales de las gafas se tiñen de forma automática según la iluminación del entorno. Por tanto, si hay mucha luz, los cristales se oscurecen para mantener la proyección de imágenes vibrantes, incluso si se trata de luz solar directa. Esto facilita su uso en cualquier espacio.
Por otra parte, las nuevas Spectacles están impulsadas por una arquitectura dual de sistema en un chip. Para ello, integran dos procesadores Snapdragon de Qualcomm que, gracias a esta infraestructura, dividen la carga de trabajo computacional entre ambos.
Con ello, Snap ha destacado que este modelo permite experiencias “más inmersivas”, al tiempo que reduce el consumo de energía gracias a su cámara de vapor de titanio, que mejora la disipación del calor. En cuanto a su autonomía, ofrecen hasta 45 minutos de tiempo de ejecución independiente continuo.
Nuevo sistema operativo Snap OS
Las nuevas Spectacles han sido presentadas junto al nuevo sistema operativo Snap OS, que ofrece una interfaz intuitiva y que ha sido ideada poniendo énfasis en reflejar la naturalidad con la que las personas interactúan con el mundo.
Tal y como ha desarrollado la tecnológica, esto se ha materializado en un sistema operativo que permite navegar fácilmente por las opciones de RA mediante los gestos de las manos y la voz de los usuarios. De hecho, según ha matizado, “el menú principal siempre está en la palma de la mano”.
Para ello, a través de las imágenes capturadas por las cuatro cámaras, el motor espacial de Snap es capaz de entender el espacio que rodea a los usuarios. De esta forma, junto con el seguimiento de los movimientos de las manos, garantiza el funcionamiento realista en tres dimensiones de las lentes.
Igualmente, la compañía ha puntualizado que las lentes están “diseñadas para compartirse”. Por tanto, Snap OS también facilita a los desarrolladores la creación de experiencias compartidas para que amigos y familiares las puedan disfrutar juntos. De esta manera, unifica el mundo real con la RA.
Las nuevas gafas también pueden funcionar junto a un smartphone a través de la nueva aplicación Spectacles, que permite duplicar la pantalla del dispositivo móvil, así como utilizarlo como un controlador de juegos y reproducir las imágenes en las lentes. Asimismo, con el modo Espectador, otros usuarios pueden visualizar lo que se está viendo y reproduciendo a través de las gafas de RA.
Además de todo ello, Snap ha adelantado que las gafas Spectacles ofrecerán soporte para los chatbots de OpenAI, de manera que se podrá interactuar con los asistentes de IA en las gafas mediante comandos de voz.
Por el momento, ha indicado que las nuevas Spectacles se han lanzado para desarrolladores suscritos al programa de desarrolladores de Snap en Estados Unidos, de cara a que prueben y continúen desarrollando sus productos para las nuevas gafas RA. No obstante, para participar en el programa, se deberá pagar una suscripción anual de 99 dólares.
Europa PressTemas
Otras noticias de Realidad virtual
Más leídas de Tecnología
En la actualidad. Así se vería el Chavo del 8 si fuera un niño de verdad, según la inteligencia artificial
Canvas. Así es la herramienta nueva de ChatGPT para escribir texto o programar a cuatro manos con la IA
Las freidoras de aire, al rojo vivo. Llega otro jugador con un modelo 12 en 1 que permite elegir entre usar aceite o no
Falta poco. El debut de Apple Intelligence en el iPhone ya tiene fecha