Publicado em - Deixe um comentário

Cristalino: Os nossos guias de onda de carboneto de silício e o caminho para o grande FoV de Orion

0:00 / 0:00

Em 2019, o Órion preparou uma importante demonstração para o fundador e diretor executivo da Meta, Mark Zuckerberg, apresentando potenciais guias de ondas para óculos de realidade aumentada-um momento crucial em que os cálculos teóricos no papel foram trazidos à vida. E foi uma demonstração que mudou tudo.

"Ao usar os óculos com guias de onda em vidro e placas múltiplas, parecia que estávamos numa discoteca", recorda o cientista ótico Pasqual Rivera. "Havia arco-íris por todo o lado e era tão perturbador que nem sequer estávamos a olhar para o conteúdo de RA. Depois, colocámos os óculos com carboneto de silício guias de ondas, e era como se estivéssemos na sinfonia a ouvir uma peça clássica e calma. Podíamos realmente prestar atenção à experiência completa do que estávamos a construir. Foi uma mudança total".

No entanto, por muito clara (trocadilho intencional) que a escolha do carboneto de silício como substrato pareça hoje em dia, quando começámos a seguir o caminho do caminho para os óculos AR há uma década, foi tudo menos isso.

"O carboneto de silício é normalmente muito dopado com azoto", diz Rivera. "É verde e, se ficar suficientemente espesso, parece preto. Não há forma de fazer uma lente ótica com ele. É um material eletrónico. Há uma razão para ter aquela cor, e é por causa das propriedades electrónicas."

"O carboneto de silício já existe como material há muito tempo", concorda Giuseppe Calafiore, líder técnico da AR Waveguides. "A sua principal aplicação é a eletrónica de alta potência. Vejamos o caso dos veículos eléctricos: Todos os VEs requerem um chip - mas esse chip também tem de ser capaz de uma potência muito elevada, de mover as rodas e de conduzir esta coisa. Acontece que não é possível fazê-lo com o substrato de silício normal, que é o que produz os chips que utilizamos nos nossos computadores e eletrónica. Precisamos de uma plataforma que nos permita passar por correntes elevadas, alta potência, e esse material é o carboneto de silício".

Até ao início dos debates relativamente recentes sobre as fontes de energia renováveis, o mercado para estes chipsets de alta potência não tinha nem de perto a dimensão do mercado de chips para eletrónica de consumo. O carboneto de silício sempre foi caro e não havia grande incentivo para baixar os custos porque, para o tamanho do chip que se faz para um carro, o preço do substrato era tolerável.

"Mas acontece que o carboneto de silício também tem algumas das propriedades de que precisamos para guias de ondas e ótica", diz Calafiore. "O índice de refração é a principal propriedade que nos interessa. E o carboneto de silício tem um índice de refração elevado, o que significa que é capaz de canalizar e emitir uma grande quantidade de dados ópticos. Podemos pensar nisto como uma largura de banda ótica - tal como temos uma largura de banda para a Internet, e queremos que seja suficientemente grande para podermos enviar grandes quantidades de dados através desse canal. O mesmo se aplica aos dispositivos ópticos".

Quanto maior for o índice de refração de um material, maior será o seu étenduepara poder enviar mais dados ópticos através desse canal.

"O canal, no nosso caso, é o nosso guia de ondas, e um étendue maior traduz-se num campo de visão maior", explica Calafiore. "Quanto maior for o índice de refração de um material, maior será o campo de visão que o ecrã pode suportar."

O caminho para o índice de refração correto

Quando Calafiore se juntou à então Oculus Research em 2016, o vidro com o índice de refração mais elevado de que a equipa dispunha era 1,8, o que exigia o empilhamento de várias placas para obter o campo de visão desejado. Para além dos artefactos ópticos indesejáveis, a linha de montagem tornou-se cada vez mais complicada, uma vez que os dois primeiros guias de ondas tinham de estar perfeitamente alinhados e, em seguida, essa pilha tinha de estar perfeitamente alinhada com um terceiro guia de ondas.

"Não só era caro, como era imediatamente óbvio que não se podia ter três peças de vidro por lente num par de óculos", recorda Calafiore. "Eram demasiado pesadas e a espessura era proibitivamente grande e feia - ninguém as compraria. Por isso, voltámos à estaca zero: tentar aumentar o índice de refração do substrato para reduzir o número de placas necessárias."

O primeiro material que a equipa analisou foi niobato de lítioque tem um índice de refração de cerca de 2,3 - um pouco mais elevado do que o do vidro, que é de 1,8.

"Apercebemo-nos de que só tínhamos de empilhar duas placas e que podíamos talvez até conseguir com uma placa cobrir o campo de visão", diz Calafiore. "Quase em paralelo, começámos a analisar outros materiais, e foi assim que descobrimos, juntamente com os nossos fornecedores em 2019, que o carboneto de silício, na sua forma mais pura, é realmente muito transparente. Ele também tem o maior índice de refração conhecido para uma aplicação ótica, que é de 2,7."

Isto representa um aumento de 17,4% em relação ao niobato de lítio e um aumento de 50% em relação ao vidro, para aqueles que estão a contar os pontos em casa.

"Com algumas modificações no mesmo equipamento que já era utilizado na indústria, foi possível obter carboneto de silício transparente", diz Calafiore. "Bastava alterar o processo, ser muito mais cuidadoso e, em vez de otimizar as propriedades electrónicas, otimizar as propriedades ópticas: transparência, uniformidade do índice de refração, etc."

O custo potencial do compromisso

Nessa altura, a equipa da Reality Labs foi a primeira a tentar passar de bolachas opacas de carboneto de silício para bolachas transparentes. E como o carboneto de silício é um dos materiais mais duros que se conhecem, requer essencialmente ferramentas de diamante para o cortar ou polir. Como resultado, os custos de engenharia não recorrentes eram muito elevados, pelo que o substrato resultante era bastante caro.

Embora existam alternativas mais económicas, tal como acontece com qualquer tecnologia, cada uma delas tem contrapartidas. E à medida que o campo de visão aumenta em direção ao campo de visão líder da indústria do Orion, de aproximadamente 70 graus, surgem novos problemas, como imagens fantasma e arco-íris.

"Encontrar a solução ideal para um ecrã de AR de campo de visão amplo está repleto de compromissos entre desempenho e custos", explica o Diretor de Investigação Científica Barry Silverstein. "Os custos podem muitas vezes ser reduzidos, mas se o desempenho não for suficiente, os custos acabarão por não ter importância."

As imagens fantasma são como ecos visuais da imagem primária que está a ser projectada no ecrã. Os arco-íris são faixas coloridas de luz criadas quando a luz ambiente se reflecte no guia de ondas. "Imaginemos que estamos a conduzir à noite com as luzes dos carros em movimento à nossa volta", diz Silverstein. "Também vai ter arco-íris que se movem. Ou se estivermos na praia a jogar voleibol e o sol estiver a brilhar, vamos ter um arco-íris que se move connosco e vamos perder a nossa oportunidade. E uma das propriedades milagrosas do carboneto de silício é que se livra desses arco-íris".

"A outra vantagem do carboneto de silício que nenhum dos outros materiais tem é a condutividade térmica", acrescenta Calafiore. "O plástico é um péssimo isolante. O vidro, o niobato de lítio, a mesma coisa. Passamos para o carboneto de silício e é transparente, parece vidro, e adivinhem: conduz o calor."

Assim, em julho de 2020, a equipa determinou que o carboneto de silício era a escolha ideal por três razões principais: Permitia um fator de forma melhorado porque exigia apenas uma única placa e estruturas de montagem mais pequenas, tinha melhores propriedades ópticas e era mais leve do que o vidro de placa dupla.

O segredo da gravura inclinada

Com o material em mente, o próximo passo foi a fabricação dos guias de onda - e especificamente, uma técnica de grade não convencional chamada slant etch.

"A grelha é a nanoestrutura que faz o acoplamento e o desacoplamento da luz da lente", explica Calafiore. "E para que o carboneto de silício funcione, a grelha precisa de ser gravada de forma inclinada. Em vez de serem verticais, queremos que as linhas da grelha sejam inclinadas na diagonal."

"Fomos os primeiros a fazer gravação oblíqua diretamente nos dispositivos", afirma o gestor de investigação Nihar Mohanty. "Toda a indústria se baseava na nanoimpressão, que não funciona para substratos com um índice de refração tão elevado. É por isso que mais ninguém no mundo tinha pensado em fazer carboneto de silício".

Mas como a gravação oblíqua é uma tecnologia imatura, a maioria dos fornecedores e fábricas de chips semicondutores não dispõe das ferramentas necessárias.

"Em 2019, meu gerente na época, Matt Colburn, e eu estabelecemos nossa própria instalação, pois não havia nada no mundo que pudesse produzir guias de onda de carboneto de silício gravados e onde pudéssemos provar a tecnologia além da escala de laboratório", explica Mohanty. "Foi um investimento enorme e estabelecemos toda a cadeia de produção nesse local. As ferramentas foram feitas à medida pelos nossos parceiros e o processo foi desenvolvido internamente no Meta, embora os nossos sistemas sejam de nível de investigação porque não existiam sistemas de nível de fabrico. Trabalhámos com um parceiro de fabrico para desenvolver ferramentas e processos de gravação oblíqua de nível de fabrico. E agora que mostrámos o que é possível fazer com o carboneto de silício, queremos que outros na indústria comecem a fazer as suas próprias ferramentas."

Quanto mais empresas investirem em carboneto de silício de qualidade ótica e desenvolverem equipamento, mais forte se tornará a categoria de óculos de realidade aumentada para o consumidor.

Já não andamos atrás de arco-íris

Enquanto a inevitabilidade tecnológica é um mitoNo entanto, as estrelas parecem estar a alinhar-se a favor do carboneto de silício. E embora a equipa continue a investigar alternativas, há uma forte sensação de que as pessoas certas se juntaram no momento certo e nas condições de mercado certas para construir óculos de realidade aumentada utilizando este material.

"A Orion provou que o carboneto de silício é uma opção viável para os óculos de realidade aumentada", afirma Silverstein, "e estamos agora a assistir ao interesse de toda a cadeia de fornecimento em três continentes diferentes, onde esta é uma oportunidade muito procurada. O carboneto de silício será o vencedor. Para mim, é apenas uma questão de tempo".

E muita coisa pode acontecer nesse tempo - tal como a forma como as coisas mudaram desde que criámos os nossos primeiros cristais transparentes de carboneto de silício.

"Todos estes fabricantes de carboneto de silício aumentaram enormemente a oferta em resposta ao esperado boom dos veículos eléctricos", observa Calafiore. "Neste momento, existe um excesso de capacidade que não existia quando estávamos a construir o Orion. Portanto, agora, como a oferta é elevada e a procura é baixa, o custo do substrato começou a baixar."

"Os fornecedores estão muito entusiasmados com a nova oportunidade de fabricar carboneto de silício de qualidade ótica - afinal, cada lente de guia de ondas representa uma grande quantidade de material em relação a um chip eletrónico, e todas as suas capacidades actuais se aplicam a este novo espaço", acrescenta Silverstein. "Encher a fábrica é essencial, e aumentar a escala da fábrica é o sonho. O tamanho da bolacha também é importante: Quanto maior for a bolacha, mais baixo é o custo - mas a complexidade do processo também aumenta. Dito isto, vimos os fornecedores passarem de bolachas de quatro para oito polegadas e alguns estão a trabalhar em precursores para bolachas de 12 polegadas, o que produziria exponencialmente mais pares de óculos de RA."

Estes avanços deverão ajudar a continuar a reduzir os custos. Ainda estamos no início, mas o futuro está a tornar-se claro.

"No início de qualquer nova revolução tecnológica, experimenta-se uma série de coisas", diz Calafiore. "Veja-se o caso da televisão: Começámos com tubos de raios catódicos, depois passámos para os televisores de plasma LED e agora para os microLED. Passámos por várias tecnologias e arquitecturas diferentes. À medida que se vai descobrindo o caminho, muitos caminhos acabam em lado nenhum, mas há alguns que continuam a ser considerados os mais promissores. Não estamos no fim do caminho e não o podemos fazer sozinhos, mas o carboneto de silício é um material maravilhoso que vale bem o investimento".

"O mundo está agora desperto", acrescenta Silverstein. "Demonstrámos com êxito que o carboneto de silício pode ser flexível em eletrónica e fotónica. É um material que poderá ter aplicações futuras na computação quântica. E estamos a ver sinais de que é possível reduzir significativamente o custo. Ainda há muito trabalho a fazer, mas as vantagens potenciais são enormes".


Saiba mais sobre o carboneto de silício em Espectro da Fotónica.

Para mais informações sobre o Orion, consulte estas publicações no blogue:

Publicado em - Deixe um comentário

Orion: Chegaram os verdadeiros óculos de realidade aumentada

TL;DR:

  • Hoje em LigarMark Zuckerberg revelou o Orion - o nosso primeiro par de óculos de realidade aumentada, anteriormente com o nome de código Projeto Nazare.
  • Com um campo de visão líder na indústria, lentes de carboneto de silícioO Orion é o nosso protótipo de produto mais avançado e mais polido até à data.
  • Atualmente, continuamos a otimizar os produtos e a reduzir os custos à medida que avançamos para um dispositivo de consumo escalável que irá revolucionar a forma como as pessoas interagem com o mundo.

"Estamos a construir óculos de realidade aumentada".

Cinco palavras simples, falado há cinco anos. Com eles, colocámos uma bandeira na nossa visão de um futuro em que já não temos de fazer a falsa escolha entre um mundo de informação na ponta dos dedos e o mundo físico que nos rodeia.

E agora, cinco anos mais tarde, mais cinco palavras que podem voltar a mudar o jogo:

Construímos óculos de realidade aumentada.

https://youtube.com/watch?v=2CJsnyS8u3c%3Fsi%3DTr77gOKEq3PnA7-k%26controls%3D0%3Fautoplay%3D0%26color%3Dwhite%26cc_lang_pref%3Den%26cc_load_policy%3D0%26enablejsapi%3D1%26frameborder%3D0%26hl%3Den%26rel%3D0%26origin%3Dhttps%253A%252F%252Fwww.meta.com

Na Meta, a nossa missão é simples: dar às pessoas o poder de criar comunidades e aproximar o mundo. E nos Reality Labs, criamos ferramentas que ajudam as pessoas a sentirem-se ligadas em qualquer altura e em qualquer lugar. É por isso que estamos a trabalhar para criar a próxima plataforma de computação que coloca as pessoas no centro, para que possam estar mais presentes, ligadas e capacitadas no mundo.

Óculos Ray-Ban Meta demonstraram o poder de dar às pessoas um acesso mãos-livres a partes essenciais das suas vidas digitais a partir das suas vidas físicas. Podemos falar com um assistente de IA inteligente, ligarmo-nos a amigos e captar os momentos mais importantes - tudo isto sem ter de pegar no telemóvel. Estes óculos elegantes integram-se perfeitamente na nossa vida quotidiana e as pessoas adoram-nos.

No entanto, embora o Ray-Ban Meta tenha aberto uma categoria totalmente nova de óculos sem ecrã, sobrecarregados por IA, a indústria de XR há muito que sonha com verdadeiros óculos de RA - um produto que combina as vantagens de um grande ecrã holográfico e assistência personalizada de IA num formato confortável, elegante e utilizável durante todo o dia.

E hoje, tornámos esse sonho mais próximo da realidade com a revelação de Órionque acreditamos ser o par de óculos de realidade aumentada mais avançado alguma vez criado. Na verdade, poderá ser o dispositivo eletrónico de consumo mais desafiante produzido desde o smartphone. O Orion é o resultado de invenções revolucionárias em praticamente todos os domínios da computação moderna - com base no trabalho que temos vindo a fazer nos Reality Labs na última década. Está repleto de tecnologias totalmente novas, incluindo o ecrã AR mais avançado alguma vez montado e silicone personalizado que permite a execução de poderosas experiências de RA num par de óculos, utilizando uma fração da potência e do peso de um auricular de RM.

O sistema de introdução de dados do Orion combina na perfeição a voz, o olhar e o rastreio da mão com um Pulseira EMG que lhe permite deslizar, clicar e percorrer enquanto mantém o braço confortavelmente ao seu lado, permitindo-lhe manter-se presente no mundo e com as pessoas à sua volta enquanto interage com conteúdo digital rico.

A partir de hoje, na Connect, e durante todo o ano, vamos abrir o acesso ao protótipo do nosso produto Orion aos funcionários da Meta e a audiências externas selecionadas, para que a nossa equipa de desenvolvimento possa aprender, iterar e desenvolver a nossa linha de produtos de óculos de realidade aumentada para o consumidor, que planeamos começar a enviar num futuro próximo.

Porquê óculos de realidade aumentada?

Há três razões principais pelas quais os óculos de realidade aumentada são fundamentais para desbloquear o próximo grande salto na computação orientada para o ser humano.

  1. Permitem experiências digitais que não estão limitadas pelos limites de um ecrã de smartphone. Com ecrãs holográficos de grandes dimensões, pode utilizar o mundo físico como tela, colocando conteúdos e experiências 2D e 3D onde quiser.
  2. Integram perfeitamente a IA contextual que pode sentir e compreender o mundo à sua volta para antecipar e responder proactivamente às suas necessidades.
  3. São leves e óptimos para utilização no interior e no exterior - e permitem que as pessoas vejam o rosto, os olhos e as expressões reais umas das outras.

Esta é a estrela polar que a nossa indústria tem vindo a construir: um produto que combina a conveniência e o imediatismo dos wearables com um ecrã de grandes dimensões, uma entrada de dados de elevada largura de banda e IA contextualizada num formato que as pessoas se sentem confortáveis a usar no seu dia a dia.

Fator de forma compacto, desafios complexos

Durante anos, enfrentámos uma falsa escolha: ou os auscultadores de realidade virtual e mista, que permitem experiências profundas e imersivas num formato volumoso, ou os óculos, que são ideais para uma utilização durante todo o dia, mas que não oferecem aplicações e experiências visuais ricas devido à falta de um ecrã de grandes dimensões e da correspondente capacidade de computação.

Mas queremos tudo, sem compromissos. Durante anos, trabalhámos arduamente para aproveitar as incríveis experiências espaciais proporcionadas pelos auscultadores de RV e RM e miniaturizar a tecnologia necessária para proporcionar essas experiências num par de óculos leves e elegantes. Conseguir o fator de forma, fornecer ecrãs holográficos, desenvolver experiências de RA apelativas e criar novos paradigmas de interação homem-computador (HCI) - e fazer tudo isto num produto coeso - é um dos desafios mais difíceis que a nossa indústria alguma vez enfrentou. Era tão difícil que pensámos que tínhamos menos de 10% de hipóteses de o conseguir.

Até agora.

Um ecrã inovador num formato sem paralelo

Com aproximadamente 70 graus, o Orion tem o maior campo de visão no menor formato de óculos de realidade aumentada até hoje. Esse campo de visão revela casos de uso verdadeiramente imersivos para o Orion, desde janelas multitarefa e entretenimento em tela grande até hologramas de pessoas em tamanho real - todo conteúdo digital que pode se misturar perfeitamente com sua visão do mundo físico.

Para a Orion, o campo de visão era o nosso Santo Graal. Estávamos a chocar com as leis da física e tínhamos de dobrar os feixes de luz de formas que não são naturalmente dobradas - e tínhamos de o fazer num envelope de potência medido em miliwatts.

Em vez de vidro, fabricámos as lentes a partir de carboneto de silício-uma nova aplicação para os óculos de realidade aumentada. Carboneto de silício é incrivelmente leve, não resulta em artefactos ópticos ou luz difusa e tem um índice de refração elevado - todas as propriedades ópticas que são fundamentais para um grande campo de visão. Os próprios guias de ondas têm estruturas 3D à escala nanométrica realmente intrincadas e complexas para difratar ou espalhar a luz da forma necessária para obter este campo de visão. E os projectores são uLEDs - um novo tipo de tecnologia de visualização que é super pequena e extremamente eficiente em termos energéticos.

O Orion é inconfundivelmente um par de óculos, tanto no aspeto como no toque - completo com lentes transparentes. Ao contrário dos auscultadores de RM ou de outros óculos de RA actuais, continua a ser possível ver os olhos e as expressões reais dos outros, para que possa estar presente e partilhar a experiência com as pessoas que o rodeiam. Foram necessárias dezenas de inovações para que o design industrial chegasse a um formato de óculos contemporâneo que fosse confortável usar todos os dias. O Orion é um feito de miniaturização - os componentes são embalados até uma fração de milímetro. E conseguimos incorporar sete câmaras e sensores minúsculos nos aros da armação.

Tivemos de manter a precisão ótica a um décimo da espessura de um fio de cabelo humano. E o sistema pode detetar pequenas quantidades de movimento - como a expansão ou contração das molduras em diferentes temperaturas ambiente - e depois corrigir digitalmente o alinhamento ótico necessário, tudo em milissegundos. Fabricámos as armações em magnésio - o mesmo material utilizado nos carros de corrida de F1 e nas naves espaciais - porque é leve mas rígido, pelo que mantém os elementos ópticos alinhados e conduz eficazmente o calor.

Aquecimento e refrigeração

Assim que decifrámos o ecrã (sem trocadilhos) e ultrapassámos os problemas de física, tivemos de enfrentar o desafio de uma computação realmente potente, a par de um consumo de energia realmente baixo e da necessidade de dissipação de calor. Ao contrário dos actuais auscultadores MR, não se pode enfiar uma ventoinha num par de óculos. Por isso, tivemos de ser criativos. Muitos dos materiais utilizados para arrefecer o Orion são semelhantes aos utilizados pela NASA para arrefecer satélites no espaço exterior.

Construímos silício personalizado altamente especializado que é extremamente eficiente em termos energéticos e optimizado para os nossos algoritmos de IA, perceção automática e gráficos. Construímos vários chips personalizados e dezenas de blocos de IP de silício altamente personalizados dentro desses chips. Isto permite-nos utilizar os algoritmos necessários para o seguimento da mão e dos olhos, bem como a tecnologia de localização e mapeamento simultâneos (SLAM), que normalmente consome centenas de miliwatts de energia - e, por conseguinte, gera uma quantidade correspondente de calor - e reduzi-la a apenas algumas dezenas de miliwatts.

E sim, o silício personalizado continua a desempenhar um papel fundamental no desenvolvimento de produtos na Reality Labs, apesar do que possa ter lido noutros sítios. 😎

EMG sem esforço

Cada nova plataforma de computação traz consigo uma mudança de paradigma na forma como interagimos com os nossos dispositivos. A invenção do rato ajudou a abrir caminho para as interfaces gráficas do utilizador (GUI) que dominam o nosso mundo atual, e os smartphones só começaram a ganhar força com o advento do ecrã tátil. E a mesma regra é válida para os dispositivos portáteis.

Já falámos sobre o nosso trabalho com eletromiografia, ou EMGdurante anos, impulsionados pela nossa convicção de que a introdução de dados para óculos de realidade aumentada tem de ser rápida, conveniente, fiável, subtil e socialmente aceitável. E agora, esse trabalho está pronto para o horário nobre.

O sistema de entrada e interação do Orion combina na perfeição a voz, o olhar e o seguimento da mão com uma pulseira EMG que lhe permite deslizar, clicar e deslocar-se com facilidade.

Funciona - e parece - como magia. Imagine tirar uma fotografia na sua corrida matinal com um simples toque da ponta dos dedos ou navegar em menus com movimentos quase imperceptíveis das suas mãos. A nossa pulseira combina um tecido de alto desempenho com sensores EMG incorporados para detetar os sinais eléctricos gerados até pelos mais pequenos movimentos musculares. Um processador ML integrado no dispositivo interpreta então esses sinais EMG para produzir eventos de entrada que são transmitidos sem fios para os óculos. O sistema adapta-se a si, pelo que, com o tempo, se torna cada vez mais capaz de reconhecer os gestos mais subtis. E hoje, estamos a partilhar mais sobre o nosso apoio à investigação externa centrada em expandir o potencial de equidade e acessibilidade das pulseiras EMG.

Conheça o Puck de computação sem fios

Os verdadeiros óculos de RA têm de ser sem fios e também têm de ser pequenos.Por isso, construímos um disco de computação sem fios para o Orion. Retira alguma da carga dos óculos, permitindo uma maior duração da bateria e um melhor fator de forma com baixa latência.

Os óculos executam todos os algoritmos de rastreio da mão, rastreio ocular, SLAM e gráficos especializados de bloqueio do mundo AR, enquanto a lógica da aplicação é executada no disco para manter os óculos tão leves e compactos quanto possível.

O disco tem dois processadores, incluindo um personalizado aqui mesmo na Meta, e fornece a potência de computação necessária para renderização de gráficos de baixa latência, IA e alguma perceção adicional da máquina.

E uma vez que é pequeno e elegante, pode colocar confortavelmente o disco numa mala ou no bolso e fazer o que tem a fazer - sem compromissos.

Experiências de RA

É claro que, como qualquer peça de hardware, só é tão bom quanto as coisas que pode fazer com ela. E, embora ainda seja cedo, as experiências proporcionadas pelo Orion são um vislumbre emocionante do que está para vir.

https://youtube.com/watch?v=HkdSv3QPhNw%3F%26controls%3D0%3Fautoplay%3D0%26color%3Dwhite%26cc_lang_pref%3Den%26cc_load_policy%3D0%26enablejsapi%3D1%26frameborder%3D0%26hl%3Den%26rel%3D0%26origin%3Dhttps%253A%252F%252Fwww.meta.com

Temos o nosso assistente inteligente, Meta IA, a correr no Orion. Compreende o que está a ver no mundo físico e pode ajudá-lo com visualizações úteis. O Orion utiliza o mesmo modelo Llama que alimenta as experiências de IA atualmente em execução nos óculos inteligentes Ray-Ban Meta, além de modelos de investigação personalizados para demonstrar potenciais casos de utilização para o desenvolvimento futuro de wearables.

Pode fazer uma videochamada em modo mãos-livres em movimento para pôr a conversa em dia com amigos e familiares em tempo real, e pode manter-se ligado no WhatsApp e no Messenger para ver e enviar mensagens. Não é necessário puxar do telemóvel, desbloqueá-lo, encontrar a aplicação certa e avisar o seu amigo que está atrasado para o jantar - pode fazer tudo isto através dos seus óculos.

https://youtube.com/watch?v=el7lUVvu8Bo%3F%26controls%3D0%3Fautoplay%3D0%26color%3Dwhite%26cc_lang_pref%3Den%26cc_load_policy%3D0%26enablejsapi%3D1%26frameborder%3D0%26hl%3Den%26rel%3D0%26origin%3Dhttps%253A%252F%252Fwww.meta.com

Pode jogar jogos de RA partilhados com a família do outro lado do país ou com o seu amigo do outro lado do sofá. E o ecrã de grandes dimensões do Orion permite-lhe fazer várias tarefas com várias janelas para realizar tarefas sem ter de andar com o portátil às costas.

As experiências disponíveis no Orion hoje ajudarão a traçar o roteiro da nossa linha de óculos de realidade aumentada para o consumidor no futuro. As nossas equipas continuarão a iterar e a criar novas experiências sociais imersivas, juntamente com os nossos parceiros de desenvolvimento, e mal podemos esperar para partilhar o que vem a seguir.

Um protótipo de produto com objetivo

Embora o Orion não vá chegar às mãos dos consumidores, não se enganem: Este é o não um protótipo de investigação. É o protótipo de produto mais polido que já desenvolvemos - e é verdadeiramente representativo de algo que poderia enviar aos consumidores. Em vez de nos apressarmos a colocá-lo nas prateleiras, decidimos concentrar-nos primeiro no desenvolvimento interno, o que significa que podemos continuar a construir rapidamente e a ultrapassar os limites da tecnologia e das experiências.

E isso significa que chegaremos mais rapidamente a um produto de consumo ainda melhor.

O que vem a seguir

Há muito que dois grandes obstáculos se interpõem no caminho dos óculos de realidade aumentada para o consumidor comum: os avanços tecnológicos necessários para proporcionar um ecrã de grandes dimensões num formato de óculos compacto e a necessidade de experiências de realidade aumentada úteis e apelativas que possam ser executadas nesses óculos. O Orion é um grande marco, pois proporciona, pela primeira vez, verdadeiras experiências de RA num hardware com um estilo razoável.

Agora que partilhámos o Orion com o mundo, estamos concentrados em algumas coisas:

  • Ajustar a qualidade do ecrã de RA para tornar as imagens ainda mais nítidas
  • Otimizar sempre que possível para tornar o formato ainda mais pequeno
  • Construir à escala para os tornar mais acessíveis

Nos próximos anos, podem esperar ver novos dispositivos que se baseiam nos nossos esforços de I&D. E algumas das inovações do Orion foram alargadas aos nossos actuais produtos de consumo, bem como ao nosso futuro roteiro de produtos. Optimizámos alguns dos nossos algoritmos de perceção espacial, que estão a ser executados em ambos os Meta Quest 3S e Orion. Embora o olhar fixo e o sistema de entrada gestual subtil tenham sido originalmente concebidos para o Orion, planeamos utilizá-los em produtos futuros. E estamos a explorar a utilização de pulseiras EMG também em futuros produtos de consumo.

O Orion não é apenas uma janela para o futuro - é um olhar sobre as possibilidades reais que estão ao nosso alcance hoje. Construímo-lo na busca do que fazemos melhor: ajudar as pessoas a ligarem-se. Desde os óculos Ray-Ban Meta até ao Orion, vimos o bem que pode advir de permitir que as pessoas se mantenham mais presentes e capacitadas no mundo físico, ao mesmo tempo que aproveitam toda a riqueza adicional que o mundo digital tem para oferecer.

Acreditamos que não deve ter de escolher entre os dois. E com a próxima plataforma de computação, não terá de o fazer.


Para mais informações sobre o Orion, consulte estas publicações no blogue:

Publicado em - Deixe um comentário

O disco de computação da Orion: A história por detrás do dispositivo que ajudou a tornar possíveis os nossos óculos AR

No ano passado, na Connect, revelámos Órion-o nosso primeiro par de óculos de realidade aumentada. O culminar de o nosso trabalho na Reality Labs durante a última décadaO Orion combina as vantagens de um ecrã holográfico de grandes dimensões e assistência personalizada de IA num formato confortável e utilizável durante todo o dia. Recebeu alguma atenção pelo seu campo de visão líder na indústria, guias de onda de carboneto de silício, projectores uLED e muito mais. Mas hoje, estamos a voltar a nossa atenção para um herói não celebrado do Orion: o disco de computação.

Concebido para caber facilmente no bolso ou na mala, para que o possa levar para qualquer lugar durante o seu dia, o disco descarrega o poder de processamento do Orion para executar a lógica da aplicação e permitir um formato mais atraente e mais pequeno para os óculos. Ele se conecta sem fio aos óculos e à pulseira EMG para uma experiência perfeita.

É só colocar e esquecer, certo?

Mas a história do disco - mesmo enquanto protótipo - é envolvente, com um arco dramático que nunca se adivinharia pela sua aparência.

"Quando se constrói algo deste género, começa-se a entrar nos limites da física", explica o Diretor de Gestão de Produtos, Rahul Prasad. "Nos últimos 50 anos, a Lei de Moore tornou tudo mais pequeno, mais rápido e com menor consumo de energia. O problema é que agora estamos a começar a atingir os limites da quantidade de calor que podemos dissipar, da quantidade de bateria que podemos comprimir e do desempenho da antena que podemos colocar num objeto de tamanho específico."

Embora a retrospetiva possa ser 20/20, o potencial do disco não era imediatamente óbvio. Quando se é o primeiro a construir algo, é necessário explorar todas as possibilidades - não deixando pedra sobre pedra. Como é que se constrói algo que alguns podem considerar como um acessório indesejável em vez de uma parte essencial do pacote?

"Sabíamos que o disco era um dispositivo extra que estávamos a pedir às pessoas para transportarem", observa Jared Van Cleave, Diretor de Engenharia de Design de Produto, "por isso estudámos a forma de transformar o erro numa funcionalidade."

Em última análise, essa ética deu frutos, uma vez que o disco comprime uma grande quantidade de computação (e ainda mais silício personalizado concebido pela Meta para IA e perceção de máquinas) num tamanho reduzido. Isto foi fundamental para ajudar o Orion a passar do domínio da ficção científica para a realidade.

"Se não tivéssemos o disco, não poderíamos ter as experiências que o Orion oferece no seu formato - ponto final", diz Prasad. "Uma boa experiência de realidade aumentada exige um desempenho realmente elevado: taxas de fotogramas elevadas, latência extremamente baixa, gestão de energia e sem fios de precisão, etc. O disco e os óculos têm de ser concebidos em conjunto para trabalharem de forma muito próxima, não apenas na camada da aplicação, mas também nas camadas do sistema operativo, do firmware e do hardware. E mesmo que se concebesse um smartphone para funcionar com óculos de realidade aumentada, os exigentes requisitos de desempenho esgotariam a bateria do telefone e retirariam capacidade de computação aos casos de utilização do telefone. Por outro lado, o disco tem a sua própria bateria de alta capacidade, SoC de alto desempenho e um co-processador de IA personalizado concebido pela Meta e optimizado para o Orion."

Claro que o disco não foi concebido de um dia para o outro. Foram necessários anos de trabalho iterativo.

"Não sabíamos como é que as pessoas iriam querer interagir com o Orion do ponto de vista da entrada de dados - não havia nada que pudéssemos esboçar no mercado", diz o Gestor de Produto Matt Resman. "Se olharmos para os nossos primeiros protótipos de óculos, eram uns auscultadores enormes que pesavam três ou quatro quilos. E quando se está a tentar construir um produto, é muito difícil compreender a experiência do utilizador se não estivermos no formato certo. Com o disco, conseguimos criar um protótipo muito rapidamente para começar a perceber como é que as pessoas o utilizariam."

Com o nome de código Omega nos primeiros tempos, o disco foi inicialmente concebido pela então Oculus Research como uma banda em forma de Ω que seria colocada à volta do pescoço do utilizador e ligada aos óculos...

... até que algumas inovações da equipa sem fios da Reality Labs, entre outras coisas, lhes permitiram cortar o fio. Isso permitiu um fator de forma mais portátil ou de bolso/na mala, o que abriu muitas possibilidades.

"Nessa altura, a chamada de realidade aumentada ainda era o principal caso de utilização", explica Van Cleave. "O disco era onde os vídeos holográficos eram ancorados. Colocávamo-lo em cima da mesa com o banco de sensores virado para nós, para nos dar imagens e depois projetar a pessoa com quem estávamos a falar a partir da superfície do disco para a chamada."

"Orion tem como objetivo ligar as pessoas e aproximar-nos", afirma Resman. "Um dos conceitos iniciais para o disco era ajudar a criar esta sensação de presença com outras pessoas e permitir esta forma mais rica de comunicação."

"É diferente de tudo o que já se viu - o dispositivo tem o potencial de criar interações realmente divertidas e únicas", acrescenta o designer industrial Emron Henry. "A experiência do utilizador é um pouco como libertar um génio de uma garrafa, em que os hologramas emergem e se dissolvem perfeitamente no dispositivo."

Como já deve ter percebido, há mais potencialidades no disco do que aquilo que acabou por ser ativado como funcionalidade. Para além dos sensores e câmaras que teriam sido utilizados para chamadas de RA, o disco tem sensores hápticos e 6DOF que poderiam permitir a sua utilização como um controlador de rastreio para selecionar e manipular objectos virtuais e jogar jogos de RA. A equipa também explorou a entrada de toque capacitivo e de força para que o disco pudesse funcionar como um gamepad quando segurado no modo retrato e paisagem.

"Falávamos sobre a necessidade de transportar esta coisa extra", diz Van Cleave. "Como é que o tornamos mais útil? Havia todo um fluxo de trabalho em torno disso. E, a certa altura, a hipótese era que os jogos de RA seriam o caso de utilização ideal."

Desde o início, sabíamos que precisávamos de explorar as possibilidades de o disco fazer coisas que os telemóveis não podem. Eventualmente, acabámos por utilizar o olhar, o EMG e o rastreio da mão para jogos de RA, como o Stargazer e o Pong, mas criámos vários protótipos e jogos que utilizavam o disco como controlador nos primeiros tempos do Orion.

0:00 / 0:00

0:00 / 0:00

0:00 / 0:00

Explorações renderizadas do disco como um controlador 6DOF para jogos de RA como o Pong.

"Como não é um telemóvel, isso deu-nos muita liberdade de design", acrescenta Prasad. "Pode ser mais grosso, pode ser mais arredondado, de modo a caber confortavelmente na mão como um comando. É incrível que o disco seja mais pequeno do que um telemóvel normal, mas é mais potente do que um telemóvel porque tem um co-processador concebido pela Meta para IA e perceção automática."

A equipa investigou a questão de como um jogo de AR de qualidade pode diferir de um jogo de RM ou de consola. Isto significou explorar diferentes possibilidades para um controlador de jogos de realidade aumentada, incluindo joysticks, disposições de botões físicos, botões de acionamento e muito mais.

"Não acabámos por construir nada disso", observa Van Cleave. "Fizemos um protótipo, mas nunca chegámos a construir tudo. Queríamos manter as coisas simples. Queríamos fazer estas interfaces suaves, mas não fazer botões físicos e mecânicos."

E, embora os sensores e a sensação tátil não tenham sido activados no protótipo do produto acabado, desempenharam uma função integral durante o desenvolvimento, permitindo que as equipas apresentassem erros, bastando tocar algumas vezes na parte superior do dispositivo para desencadear um relatório de erro.

À medida que a IA começou a assumir um papel central como um caso de utilização chave, a computação tornou-se cada vez mais importante. No final, o disco alberga a conetividade sem fios, a potência de computação e a capacidade da bateria do Orion - uma enorme proeza técnica em si mesma -, o que ajuda a reduzir o peso e o formato dos óculos, dissipando muito mais calor em virtude da sua área de superfície.

Ao longo da sua evolução, uma coisa permaneceu inalterada: o disco é mais do que aquilo que se vê à primeira vista. A adoção de ideias não convencionais permitiu às nossas equipas explorar, ultrapassar os limites e construir o futuro.

"Estamos a definir uma categoria que ainda não existe", observa Henry. "Como seria de esperar em I&D, houve inícios e paragens ao longo do caminho. Como é que os utilizadores esperam interagir com os hologramas? Será que preferem utilizar um controlo remoto de realidade aumentada ou será que o seguimento da mão, o olhar e o EMG são suficientes para a entrada? O que é que parece intuitivo, de baixo atrito, familiar e útil?"

"Em vez de olharmos para o disco como uma mera pedra, perguntámo-nos o que mais poderíamos oferecer para o diferenciar dos telemóveis e justificar a razão pela qual o quereríamos transportar", reconhece Resman. "A sua potência de computação bruta e o seu design prático - que ajudaram a criar um formato de óculos que se pode usar de forma realista durante todo o dia - oferecem valor suficiente? A nossa função é ajudar a responder a estas perguntas."

"Desde o início, mudámos de orientação para nos concentrarmos no que podemos fazer que um telemóvel não pode fazer", acrescenta Van Cleave. "Os telemóveis têm de ter o ecrã, têm de ter uma determinada disposição física dos botões que os utilizadores esperam. E nós não temos essas limitações. O nosso disco de computação pode ser o que quisermos".


Para mais informações sobre o Orion, consulte estas publicações no blogue:

Publicado em - Deixe um comentário

Orion: Chegaram os verdadeiros óculos de realidade aumentada

TL;DR:

  • Hoje em LigarMark Zuckerberg revelou o Orion - o nosso primeiro par de óculos de realidade aumentada, anteriormente com o nome de código Projeto Nazare.
  • Com um campo de visão líder na indústria, lentes de carboneto de silícioO Orion é o nosso protótipo de produto mais avançado e mais polido até à data.
  • Atualmente, continuamos a otimizar os produtos e a reduzir os custos à medida que avançamos para um dispositivo de consumo escalável que irá revolucionar a forma como as pessoas interagem com o mundo.

"Estamos a construir óculos de realidade aumentada".

Cinco palavras simples, falado há cinco anos. Com eles, colocámos uma bandeira na nossa visão de um futuro em que já não temos de fazer a falsa escolha entre um mundo de informação na ponta dos dedos e o mundo físico que nos rodeia.

E agora, cinco anos mais tarde, mais cinco palavras que podem voltar a mudar o jogo:

Construímos óculos de realidade aumentada.

https://youtube.com/watch?v=2CJsnyS8u3c%3Fsi%3DTr77gOKEq3PnA7-k%26controls%3D0%3Fautoplay%3D0%26color%3Dwhite%26cc_lang_pref%3Den%26cc_load_policy%3D0%26enablejsapi%3D1%26frameborder%3D0%26hl%3Den%26rel%3D0%26origin%3Dhttps%253A%252F%252Fwww.meta.com

Na Meta, a nossa missão é simples: dar às pessoas o poder de criar comunidades e aproximar o mundo. E nos Reality Labs, criamos ferramentas que ajudam as pessoas a sentirem-se ligadas em qualquer altura e em qualquer lugar. É por isso que estamos a trabalhar para criar a próxima plataforma de computação que coloca as pessoas no centro, para que possam estar mais presentes, ligadas e capacitadas no mundo.

Óculos Ray-Ban Meta demonstraram o poder de dar às pessoas um acesso mãos-livres a partes essenciais das suas vidas digitais a partir das suas vidas físicas. Podemos falar com um assistente de IA inteligente, ligarmo-nos a amigos e captar os momentos mais importantes - tudo isto sem ter de pegar no telemóvel. Estes óculos elegantes integram-se perfeitamente na nossa vida quotidiana e as pessoas adoram-nos.

No entanto, embora o Ray-Ban Meta tenha aberto uma categoria totalmente nova de óculos sem ecrã, sobrecarregados por IA, a indústria de XR há muito que sonha com verdadeiros óculos de RA - um produto que combina as vantagens de um grande ecrã holográfico e assistência personalizada de IA num formato confortável, elegante e utilizável durante todo o dia.

E hoje, tornámos esse sonho mais próximo da realidade com a revelação de Órionque acreditamos ser o par de óculos de realidade aumentada mais avançado alguma vez criado. Na verdade, poderá ser o dispositivo eletrónico de consumo mais desafiante produzido desde o smartphone. O Orion é o resultado de invenções revolucionárias em praticamente todos os domínios da computação moderna - com base no trabalho que temos vindo a fazer nos Reality Labs na última década. Está repleto de tecnologias totalmente novas, incluindo o ecrã AR mais avançado alguma vez montado e silicone personalizado que permite a execução de poderosas experiências de RA num par de óculos, utilizando uma fração da potência e do peso de um auricular de RM.

O sistema de introdução de dados do Orion combina na perfeição a voz, o olhar e o rastreio da mão com um Pulseira EMG que lhe permite deslizar, clicar e percorrer enquanto mantém o braço confortavelmente ao seu lado, permitindo-lhe manter-se presente no mundo e com as pessoas à sua volta enquanto interage com conteúdo digital rico.

A partir de hoje, na Connect, e durante todo o ano, vamos abrir o acesso ao protótipo do nosso produto Orion aos funcionários da Meta e a audiências externas selecionadas, para que a nossa equipa de desenvolvimento possa aprender, iterar e desenvolver a nossa linha de produtos de óculos de realidade aumentada para o consumidor, que planeamos começar a enviar num futuro próximo.

Porquê óculos de realidade aumentada?

Há três razões principais pelas quais os óculos de realidade aumentada são fundamentais para desbloquear o próximo grande salto na computação orientada para o ser humano.

  1. Permitem experiências digitais que não estão limitadas pelos limites de um ecrã de smartphone. Com ecrãs holográficos de grandes dimensões, pode utilizar o mundo físico como tela, colocando conteúdos e experiências 2D e 3D onde quiser.
  2. Integram perfeitamente a IA contextual que pode sentir e compreender o mundo à sua volta para antecipar e responder proactivamente às suas necessidades.
  3. São leves e óptimos para utilização no interior e no exterior - e permitem que as pessoas vejam o rosto, os olhos e as expressões reais umas das outras.

Esta é a estrela polar que a nossa indústria tem vindo a construir: um produto que combina a conveniência e o imediatismo dos wearables com um ecrã de grandes dimensões, uma entrada de dados de elevada largura de banda e IA contextualizada num formato que as pessoas se sentem confortáveis a usar no seu dia a dia.

Fator de forma compacto, desafios complexos

Durante anos, enfrentámos uma falsa escolha: ou os auscultadores de realidade virtual e mista, que permitem experiências profundas e imersivas num formato volumoso, ou os óculos, que são ideais para uma utilização durante todo o dia, mas que não oferecem aplicações e experiências visuais ricas devido à falta de um ecrã de grandes dimensões e da correspondente capacidade de computação.

Mas queremos tudo, sem compromissos. Durante anos, trabalhámos arduamente para aproveitar as incríveis experiências espaciais proporcionadas pelos auscultadores de RV e RM e miniaturizar a tecnologia necessária para proporcionar essas experiências num par de óculos leves e elegantes. Conseguir o fator de forma, fornecer ecrãs holográficos, desenvolver experiências de RA apelativas e criar novos paradigmas de interação homem-computador (HCI) - e fazer tudo isto num produto coeso - é um dos desafios mais difíceis que a nossa indústria alguma vez enfrentou. Era tão difícil que pensámos que tínhamos menos de 10% de hipóteses de o conseguir.

Até agora.

Um ecrã inovador num formato sem paralelo

Com aproximadamente 70 graus, o Orion tem o maior campo de visão no menor formato de óculos de realidade aumentada até hoje. Esse campo de visão revela casos de uso verdadeiramente imersivos para o Orion, desde janelas multitarefa e entretenimento em tela grande até hologramas de pessoas em tamanho real - todo conteúdo digital que pode se misturar perfeitamente com sua visão do mundo físico.

Para a Orion, o campo de visão era o nosso Santo Graal. Estávamos a chocar com as leis da física e tínhamos de dobrar os feixes de luz de formas que não são naturalmente dobradas - e tínhamos de o fazer num envelope de potência medido em miliwatts.

Em vez de vidro, fabricámos as lentes a partir de carboneto de silício-uma nova aplicação para os óculos de realidade aumentada. Carboneto de silício é incrivelmente leve, não resulta em artefactos ópticos ou luz difusa e tem um índice de refração elevado - todas as propriedades ópticas que são fundamentais para um grande campo de visão. Os próprios guias de ondas têm estruturas 3D à escala nanométrica realmente intrincadas e complexas para difratar ou espalhar a luz da forma necessária para obter este campo de visão. E os projectores são uLEDs - um novo tipo de tecnologia de visualização que é super pequena e extremamente eficiente em termos energéticos.

O Orion é inconfundivelmente um par de óculos, tanto no aspeto como no toque - completo com lentes transparentes. Ao contrário dos auscultadores de RM ou de outros óculos de RA actuais, continua a ser possível ver os olhos e as expressões reais dos outros, para que possa estar presente e partilhar a experiência com as pessoas que o rodeiam. Foram necessárias dezenas de inovações para que o design industrial chegasse a um formato de óculos contemporâneo que fosse confortável usar todos os dias. O Orion é um feito de miniaturização - os componentes são embalados até uma fração de milímetro. E conseguimos incorporar sete câmaras e sensores minúsculos nos aros da armação.

Tivemos de manter a precisão ótica a um décimo da espessura de um fio de cabelo humano. E o sistema pode detetar pequenas quantidades de movimento - como a expansão ou contração das molduras em diferentes temperaturas ambiente - e depois corrigir digitalmente o alinhamento ótico necessário, tudo em milissegundos. Fabricámos as armações em magnésio - o mesmo material utilizado nos carros de corrida de F1 e nas naves espaciais - porque é leve mas rígido, pelo que mantém os elementos ópticos alinhados e conduz eficazmente o calor.

Aquecimento e refrigeração

Assim que decifrámos o ecrã (sem trocadilhos) e ultrapassámos os problemas de física, tivemos de enfrentar o desafio de uma computação realmente potente, a par de um consumo de energia realmente baixo e da necessidade de dissipação de calor. Ao contrário dos actuais auscultadores MR, não se pode enfiar uma ventoinha num par de óculos. Por isso, tivemos de ser criativos. Muitos dos materiais utilizados para arrefecer o Orion são semelhantes aos utilizados pela NASA para arrefecer satélites no espaço exterior.

Construímos silício personalizado altamente especializado que é extremamente eficiente em termos energéticos e optimizado para os nossos algoritmos de IA, perceção automática e gráficos. Construímos vários chips personalizados e dezenas de blocos de IP de silício altamente personalizados dentro desses chips. Isto permite-nos utilizar os algoritmos necessários para o seguimento da mão e dos olhos, bem como a tecnologia de localização e mapeamento simultâneos (SLAM), que normalmente consome centenas de miliwatts de energia - e, por conseguinte, gera uma quantidade correspondente de calor - e reduzi-la a apenas algumas dezenas de miliwatts.

E sim, o silício personalizado continua a desempenhar um papel fundamental no desenvolvimento de produtos na Reality Labs, apesar do que possa ter lido noutros sítios. 😎

EMG sem esforço

Cada nova plataforma de computação traz consigo uma mudança de paradigma na forma como interagimos com os nossos dispositivos. A invenção do rato ajudou a abrir caminho para as interfaces gráficas do utilizador (GUI) que dominam o nosso mundo atual, e os smartphones só começaram a ganhar força com o advento do ecrã tátil. E a mesma regra é válida para os dispositivos portáteis.

Já falámos sobre o nosso trabalho com eletromiografia, ou EMGdurante anos, impulsionados pela nossa convicção de que a introdução de dados para óculos de realidade aumentada tem de ser rápida, conveniente, fiável, subtil e socialmente aceitável. E agora, esse trabalho está pronto para o horário nobre.

O sistema de entrada e interação do Orion combina na perfeição a voz, o olhar e o seguimento da mão com uma pulseira EMG que lhe permite deslizar, clicar e deslocar-se com facilidade.

Funciona - e parece - como magia. Imagine tirar uma fotografia na sua corrida matinal com um simples toque da ponta dos dedos ou navegar em menus com movimentos quase imperceptíveis das suas mãos. A nossa pulseira combina um tecido de alto desempenho com sensores EMG incorporados para detetar os sinais eléctricos gerados até pelos mais pequenos movimentos musculares. Um processador ML integrado no dispositivo interpreta então esses sinais EMG para produzir eventos de entrada que são transmitidos sem fios para os óculos. O sistema adapta-se a si, pelo que, com o tempo, se torna cada vez mais capaz de reconhecer os gestos mais subtis. E hoje, estamos a partilhar mais sobre o nosso apoio à investigação externa centrada em expandir o potencial de equidade e acessibilidade das pulseiras EMG.

Conheça o Puck de computação sem fios

Os verdadeiros óculos de RA têm de ser sem fios e também têm de ser pequenos.Por isso, construímos um disco de computação sem fios para o Orion. Retira alguma da carga dos óculos, permitindo uma maior duração da bateria e um melhor fator de forma com baixa latência.

Os óculos executam todos os algoritmos de rastreio da mão, rastreio ocular, SLAM e gráficos especializados de bloqueio do mundo AR, enquanto a lógica da aplicação é executada no disco para manter os óculos tão leves e compactos quanto possível.

O disco tem dois processadores, incluindo um personalizado aqui mesmo na Meta, e fornece a potência de computação necessária para renderização de gráficos de baixa latência, IA e alguma perceção adicional da máquina.

E uma vez que é pequeno e elegante, pode colocar confortavelmente o disco numa mala ou no bolso e fazer o que tem a fazer - sem compromissos.

Experiências de RA

É claro que, como qualquer peça de hardware, só é tão bom quanto as coisas que pode fazer com ela. E, embora ainda seja cedo, as experiências proporcionadas pelo Orion são um vislumbre emocionante do que está para vir.

https://youtube.com/watch?v=HkdSv3QPhNw%3F%26controls%3D0%3Fautoplay%3D0%26color%3Dwhite%26cc_lang_pref%3Den%26cc_load_policy%3D0%26enablejsapi%3D1%26frameborder%3D0%26hl%3Den%26rel%3D0%26origin%3Dhttps%253A%252F%252Fwww.meta.com

Temos o nosso assistente inteligente, Meta IA, a correr no Orion. Compreende o que está a ver no mundo físico e pode ajudá-lo com visualizações úteis. O Orion utiliza o mesmo modelo Llama que alimenta as experiências de IA atualmente em execução nos óculos inteligentes Ray-Ban Meta, além de modelos de investigação personalizados para demonstrar potenciais casos de utilização para o desenvolvimento futuro de wearables.

Pode fazer uma videochamada em modo mãos-livres em movimento para pôr a conversa em dia com amigos e familiares em tempo real, e pode manter-se ligado no WhatsApp e no Messenger para ver e enviar mensagens. Não é necessário puxar do telemóvel, desbloqueá-lo, encontrar a aplicação certa e avisar o seu amigo que está atrasado para o jantar - pode fazer tudo isto através dos seus óculos.

https://youtube.com/watch?v=el7lUVvu8Bo%3F%26controls%3D0%3Fautoplay%3D0%26color%3Dwhite%26cc_lang_pref%3Den%26cc_load_policy%3D0%26enablejsapi%3D1%26frameborder%3D0%26hl%3Den%26rel%3D0%26origin%3Dhttps%253A%252F%252Fwww.meta.com

Pode jogar jogos de RA partilhados com a família do outro lado do país ou com o seu amigo do outro lado do sofá. E o ecrã de grandes dimensões do Orion permite-lhe fazer várias tarefas com várias janelas para realizar tarefas sem ter de andar com o portátil às costas.

As experiências disponíveis no Orion hoje ajudarão a traçar o roteiro da nossa linha de óculos de realidade aumentada para o consumidor no futuro. As nossas equipas continuarão a iterar e a criar novas experiências sociais imersivas, juntamente com os nossos parceiros de desenvolvimento, e mal podemos esperar para partilhar o que vem a seguir.

Um protótipo de produto com objetivo

Embora o Orion não vá chegar às mãos dos consumidores, não se enganem: Este é o não um protótipo de investigação. É o protótipo de produto mais polido que já desenvolvemos - e é verdadeiramente representativo de algo que poderia enviar aos consumidores. Em vez de nos apressarmos a colocá-lo nas prateleiras, decidimos concentrar-nos primeiro no desenvolvimento interno, o que significa que podemos continuar a construir rapidamente e a ultrapassar os limites da tecnologia e das experiências.

E isso significa que chegaremos mais rapidamente a um produto de consumo ainda melhor.

O que vem a seguir

Há muito que dois grandes obstáculos se interpõem no caminho dos óculos de realidade aumentada para o consumidor comum: os avanços tecnológicos necessários para proporcionar um ecrã de grandes dimensões num formato de óculos compacto e a necessidade de experiências de realidade aumentada úteis e apelativas que possam ser executadas nesses óculos. O Orion é um grande marco, pois proporciona, pela primeira vez, verdadeiras experiências de RA num hardware com um estilo razoável.

Agora que partilhámos o Orion com o mundo, estamos concentrados em algumas coisas:

  • Ajustar a qualidade do ecrã de RA para tornar as imagens ainda mais nítidas
  • Otimizar sempre que possível para tornar o formato ainda mais pequeno
  • Construir à escala para os tornar mais acessíveis

Nos próximos anos, podem esperar ver novos dispositivos que se baseiam nos nossos esforços de I&D. E algumas das inovações do Orion foram alargadas aos nossos actuais produtos de consumo, bem como ao nosso futuro roteiro de produtos. Optimizámos alguns dos nossos algoritmos de perceção espacial, que estão a ser executados em ambos os Meta Quest 3S e Orion. Embora o olhar fixo e o sistema de entrada gestual subtil tenham sido originalmente concebidos para o Orion, planeamos utilizá-los em produtos futuros. E estamos a explorar a utilização de pulseiras EMG também em futuros produtos de consumo.

O Orion não é apenas uma janela para o futuro - é um olhar sobre as possibilidades reais que estão ao nosso alcance hoje. Construímo-lo na busca do que fazemos melhor: ajudar as pessoas a ligarem-se. Desde os óculos Ray-Ban Meta até ao Orion, vimos o bem que pode advir de permitir que as pessoas se mantenham mais presentes e capacitadas no mundo físico, ao mesmo tempo que aproveitam toda a riqueza adicional que o mundo digital tem para oferecer.

Acreditamos que não deve ter de escolher entre os dois. E com a próxima plataforma de computação, não terá de o fazer.


Para mais informações sobre o Orion, consulte estas publicações no blogue:

Publicado em - Deixe um comentário

EgoMimic: Georgia Tech PhD student uses Project Aria Research Glasses to help train humanoid robots

Today, we’re highlighting new research from Georgia Tech that helps train robots to perform basic everyday tasks using egocentric recordings from wearers of Meta’s Project Aria research glasses. Check out the video below, read the full story, or apply for your own Project Aria Research Kit.

Imagine having help completing everyday tasks in your home such as doing the laundry, washing dishes, and making repairs. We already use tools to help with these tasks, like washing machines, dishwashers, and electric drills. But what if you could have an even more powerful and flexible tool in the form of a humanoid robot that could learn from you and accelerate any number of physical projects on your to-do list?

Even if you had the available hardware system, teaching a robot to do everyday tasks can only be achieved through a slow and clunky data collection method called robot teleoperation. Until now. By using the Project Aria Research Kit, Professor Danfei Xu and the Robotic Learning and Reasoning Lab at Georgia Tech use the egocentric sensors on Aria glasses to create what they call “human data” for tasks that they want a humanoid robot to replicate. They use human data to dramatically reduce the amount of robot teleoperation data needed to train a robot’s policy—a breakthrough that could some day make humanoid robots capable of learning any number of tasks a human could demonstrate.

Kareer teleoperates the robot to capture co-training data for EgoMimic. Teleoperation can be difficult to scale and require significant human effort.

“Traditionally, collecting data for robotics means creating demonstration data,” says Simar Kareer, a PhD student in Georgia Tech’s School of Interactive Computing. “You operate the robot’s joints with a controller to move it and achieve the task you want, and you do this hundreds of times while recording sensor data, then train your models. This is slow and difficult. The only way to break that cycle is to detach the data collection from the robot itself.”

Today, robot policy models are trained with large amounts of targeted demonstration data specific to each narrow task at a high cost. Kareer hypothesizes that passively collected data from many researchers, like the data captured by Aria glasses, could instead be used to enable data creation for a much broader set of tasks to create more generally useful robots in the future.

Inspired by Project Aria e Ego-Exo4D which includes a massive egocentric dataset of over 3K hours of video recordings of daily-life activities, Kareer developed EgoMimic, a new algorithmic framework that utilizes human data and robot data for humanoid robot development.

“When I looked at Ego4D, I saw a dataset that’s the same as all the large robot datasets we’re trying to collect, except it’s with humans,” Kareer explains. “You just wear a pair of glasses, and you go do things. It doesn’t need to come from the robot. It should come from something more scalable and passively generated, which is us.” In Kareer’s research, Aria glasses were used to create human data for co-training the EgoMimic framework.

Kareer creates co-training human data by recording with Aria glasses while folding a t-shirt.

Aria glasses aren’t just used for human data collection in Georgia Tech’s research. They’re also used as an integral component of the robot’s real-time operation setup. Aria glasses are mounted to their humanoid robot platform just like a pair of eyes and serve as an integrated sensor package that enables the robot to perceive its environment in real time. The Aria Client SDK is utilized to stream Aria’s sensor data directly into the robot’s policy, running on an attached PC, which in turn controls the robot’s actuation. Using Aria glasses for both the data collection and the real-time perception pipeline minimizes the domain gap between the human demonstrator and the robot, paving the way for scaled human data generation for future robotics task training.

Aria glasses mounted to the top of the robot provide the system with sensor data that allows the robot to perceive and interact with the space.

Thanks to EgoMimic, Kareer achieved a 400% increase in his robot’s performance across various tasks vs previous methods with just 90 minutes of Aria recordings. The robot was also able to successfully perform these tasks in previously unseen environments.

In the future, humanoid robots could be trained at scale using egocentric data in order to perform a variety of tasks in the same way humans do.

“We look at Aria as an investment in the research community,” says James Fort, a Reality Labs Research Product Manager at Meta. “The more that the egocentric research community standardizes, the more researchers will be able to collaborate. It’s really through scaling with the community like this that we can start to solve bigger problems around how things are going to work in the future.”

Kareer will present his paper on EgoMimic at the 2025 IEEE Engineers’ International Conference on Robotics and Automation (ICRA) in Atlanta.

Publicado em - Deixe um comentário

Introducing Aria Gen 2: Unlocking New Research in Machine Perception, Contextual AI, Robotics, and More

Since its launch in 2020, Project Aria has enabled researchers across the world to advance the state of the art in machine perception and AI, through access to cutting-edge research hardware and open-source datasets, models, and tooling. Today, we’re excited to announce the next step in this journey: the introduction of Aria Gen 2 glasses. This next generation of hardware will unlock new possibilities across a wide range of research areas including machine perception, egocentric and contextual AI, and robotics.

0:00 / 0:00

For researchers looking to explore how AI systems can better understand the world from a human perspective, Aria Gen 2 glasses add a new set of capabilities to the Aria platform. They include a number of advances not found on any other device available today, and access to these breakthrough technologies will enable researchers to push the boundaries of what’s possible.

Compared to Aria Gen 1, Aria Gen 2’s unique value proposition includes:

  • State-of-the-art sensor suite: The upgraded sensor suite features an RGB camera, 6DOF SLAM cameras, eye tracking cameras, spatial microphones, IMUs, barometer, magnetometer, and GNSS. Compared to its predecessor, Aria Gen 1, the new generation introduces two innovative sensors embedded in the nosepad: a PPG sensor for measuring heart rate and a contact microphone to distinguish the wearer’s voice from that of bystanders.
  • Ultra low-power and on-device machine perception: SLAM, eye tracking, hand tracking, and speech recognition are all processed on-device using Meta’s custom silicon.
  • All-day usability: Aria Gen 2 glasses are capable of six to eight hours of continuous use, weigh about 75 grams, and have foldable arms for easy portability.
  • Interaction through audio: Users get audio feedback via best-in-class open-ear force-canceling speakers, enabling user-in-the-loop system prototyping.

Our decade-long journey to create the next computing platform has led to the development of these critical technologies. At Meta, teams at Reality Labs Research and the FAIR AI lab will use them to advance our long-term research vision. Making them available to academic and commercial research labs through Project Aria will further advance open research and public understanding of a key set of technologies that we believe will help shape the future of computing and AI.

The open research enabled by Project Aria since 2020 has already led to important work, including the creation of open-source tools in wide use across academia and industry. The Ego-Exo4D dataset, collected using the first generation of Aria glasses, has become a foundational tool across modern computer vision and the growing field of robotics. Researchers at Georgia Tech recently showed how the Aria Research Kit can help humanoid robots learn to assist people in the home, while teams at BMW used it to explore how to integrate augmented and virtual reality systems into smart vehicles.

And Aria is also enabling the development of new technologies for accessibility. The first-generation Aria glasses were utilized by Carnegie Mellon University in their NavCog project, which aimed to build technologies to assist blind and low-vision individuals with indoor navigation. Building on this foundation, the Aria Gen 2 glasses are now being leveraged by Envision, a company dedicated to creating solutions for people who are blind or have low vision. Envision is exploring the integration of its Ally AI assistant and spatial audio using the latest Aria Gen 2 glasses to enhance indoor navigation and accessibility experiences.

0:00 / 0:00

Envision used the on-device SLAM capabilities of Aria Gen 2, along with spatial audio features via onboard speakers, to assist blind and low-vision individuals seamlessly navigate indoor environments. This innovative use of the technologies, which is still in the exploratory and research phase, exemplifies how researchers can leverage Aria Gen 2 glasses for prototyping AI experiences based on egocentric observations. The advanced sensors and on-device machine perception capabilities, including SLAM, eye tracking, hand tracking, and audio interactions, also make them ideal for data collection for research and robotics applications.

Over the coming months, we’ll share more details about the timing of device availability to partners. Researchers interested in accessing Aria Gen 2 can sign up to receive updates. We’re excited to see how researchers will leverage Aria Gen 2 to pave the way for future innovations that will shape the next computing platform.

Publicado em - Deixe um comentário

Ray-Ban Meta - Estilo e tecnologia numa só armação

Ray-Ban has been an iconic name in eyewear fashion for decades. But in collaboration with Meta (formerly Facebook), they’ve launched a product that pushes boundaries – the Ray-Ban Meta smart glasses. This fusion of classic design with modern technology offers a unique experience for both fashion enthusiasts and tech lovers.

At First Glance: Classic with a Twist

At first look, they seem like classic Ray-Bans – elegant black frames, premium craftsmanship, and a stylish eco-leather case. But take a closer look and you’ll realize they hide more than just style – they’re glasses with a built-in camera, microphone, speakers, and smartphone connectivity.

What Can Ray-Ban Meta Do?

  • Video and photo capture: A discreet camera on the frame lets you capture the world from your point of view – hands-free.
  • Music and calls: With built-in directional speakers and microphones, you can take calls or listen to music without earbuds.
  • Sync with the Meta View app: Everything you record syncs automatically to the app, ready to be shared on your socials.
  • Voice control: Thanks to voice assistant support, you can control your glasses with simple voice commands – ideal for driving, sports, or on-the-go use.

Who Are They For?

Ray-Ban Meta glasses are perfect for content creators, influencers, travelers, or anyone who wants to capture moments without pulling out their phone. They’re also great for business use – ideal for quick documentation, live streams, or mobile video calls.

Final Verdict: Smart Elegance Without Compromise

If you’re looking for eyewear that blends classic fashion with top-tier technology, Ray-Ban Meta is the clear choice. They’re not just a stylish accessory – they’re smart glasses that redefine how we see and capture the world around us.

Publicado em - Deixe um comentário

Meta View é agora a aplicação Meta AI: Veja o que há de novo e o que permanece o mesmo

Uma atualização importante para Óculos Ray-Ban Meta proprietários hoje: A aplicação Meta View é agora a aplicação Meta AI no iOS e Android. Para além de um novo nome, a aplicação que acompanha os óculos AI está a receber uma atualização, com novas funcionalidades para tornar a sua experiência mais divertida, útil e pessoal do que nunca. Estamos aqui para o acompanhar nas mudanças. Mas fique descansado, as funcionalidades principais que já conhece mantêm-se inalteradas.

Os óculos emergiram como a nova categoria de hardware mais emocionante da era da IA, com os óculos Ray-Ban Meta a liderar o caminho na definição do que é possível. Estamos entusiasmados por levar as mesmas experiências de voz que tornaram os nossos óculos tão populares a mais superfícies, como a aplicação Meta AI.

Amigável e familiar

Embora a aplicação Meta AI tenha um novo nome e visual, continua a ser a aplicação que acompanha os óculos Ray-Ban Meta que conhece e adora. As fotos e vídeos que já capturou com os seus óculos, as definições do dispositivo e as funcionalidades que já conhece do Meta View continuam disponíveis na nova aplicação. Também estamos a migrar automaticamente as suas definições de multimédia e do dispositivo existentes do Meta View para a aplicação Meta AI, para que não perca nada. E, tal como na nossa última atualização, pode utilizar a aplicação Meta AI para emparelhar e gerir até sete pares de óculos.

Uma aplicação de acompanhamento tudo-em-um

Novo com os óculos Ray-Ban Meta? A aplicação Meta AI é o seu companheiro tudo-em-um para configurar e gerir o seu dispositivo. Pode importar, visualizar e partilhar as fotografias e vídeos capturados com os seus óculos AI diretamente a partir da aplicação. Também pode utilizar a aplicação Meta AI para configurar as definições, atualizar o software e gerir as opções de privacidade. Pode configurar comandos de voz a partir da aplicação, para poder utilizar os óculos em modo mãos-livres, e até ajustar as definições da câmara.

Ao integrar a Meta AI e tudo o que ela oferece na aplicação complementar, estamos a elevar o nível da sua experiência com os óculos Ray-Ban Meta. Pode ser criativo com as fotografias dos seus óculos diretamente na aplicação Meta AI - depois de importar as suas fotografias, peça à Meta AI na aplicação para adicionar, remover ou alterar partes da imagem.

Está a visitar uma nova cidade? Peça à Meta AI para lhe dizer mais sobre um ponto de referência local. Pode aceder e gerir as memórias guardadas para melhorar as respostas personalizadas da Meta AI na aplicação e nos seus óculos ao longo do tempo. Também pode iniciar uma conversa com a Meta AI nos seus óculos Ray-Ban Meta e, em seguida, aceder à mesma no seu separador de histórico a partir da aplicação para continuar de onde parou.

Caraterísticas novas e notáveis da aplicação

A aplicação Meta AI foi concebida para o ajudar a encontrar inspiração e a tirar o máximo partido dos seus óculos.

O novo Descobrir o feed permite-lhe ver como outras pessoas estão a utilizar a IA para fazer coisas. É uma óptima forma de encontrar novas ideias. Recicle uma sugestão inteligente ou remixe-a para a tornar sua. E, como sempre, o utilizador tem o controlo: As suas conversas com a Meta AI não são públicas, a menos que decida partilhá-las no feed.

Embora falar com a IA utilizando a voz não seja uma novidade, estamos a utilizar Lhama 4 na aplicação Meta AI para lhe dar respostas mais pessoais, relevantes e conversacionais. A experiência integra-se com outras funcionalidades, como a geração e edição de imagens, que agora podem ser feitas através de um conversação por voz ou texto com o seu assistente de IA na aplicação.

Incluímos também uma demonstração de uma experiência de voz que estamos a construir com tecnologia de voz full-duplex, que pode ser activada e desactivada para testar na aplicação Meta AI. Esta funcionalidade não tem acesso a informações em tempo real, pelo que poderá deparar-se com problemas técnicos ou inconsistências. Continuaremos a recolher feedback para a melhorar ao longo do tempo.

E para facilitar a multitarefa, também pode continuar a utilizar as funcionalidades de voz do Meta AI enquanto faz outras coisas no seu telefone, com um ícone visível que lhe permite saber quando o microfone está a ser utilizado.

As conversas de voz na aplicação Meta AI, incluindo a demonstração duplex completa, estão disponíveis nos EUA, Canadá, Austrália e Nova Zelândia para começar.* Para saber mais sobre como pode gerir a sua experiência na aplicação Meta AI e alternar entre modos, visite a nossa centro de ajuda.

Inteligência para si

A aplicação Meta AI utiliza o Llama 4 para o ajudar a resolver problemas, a movimentar-se mais facilmente ao longo do dia e a compreender melhor o mundo que o rodeia. E com a capacidade de pesquisar na Web, pode ajudá-lo a obter recomendações, a aprofundar um tópico e a manter-se ligado aos seus amigos e família.

Estamos a utilizar as nossas décadas de experiência personalizar as experiências das pessoas nas nossas plataformas para tornar a Meta IA mais pessoal. Pode dizer à Meta AI para se lembrar de pormenores específicos sobre si (como o facto de gostar de viajar e de aprender novas línguas), e esta pode captar pormenores importantes a partir de pistas contextuais. A Meta IA também fornece respostas mais relevantes às suas perguntas, baseando-se em informações que já decidiu partilhar no Facebook e no Instagram (se tiverem sido adicionados ao mesmo Centro de Contas), como detalhes do perfil e conteúdos de que gosta ou com que se envolve. As respostas personalizadas estão disponíveis a partir de hoje nos EUA e no Canadá.

Estamos apenas a começar

Esta é a primeira versão da aplicação Meta AI, e planeamos iterá-la e melhorá-la ao longo do tempo. A Meta AI foi concebida para o conhecer, pelo que as suas respostas são mais úteis. É fácil falar com ele, por isso é mais fácil e natural interagir com ele. E está mais ligada, pelo que pode partilhar coisas das pessoas e dos locais que lhe interessam.

Experimente hoje mesmo em iOS ou Androidsaiba mais sobre o novo e melhorado Meta AI.

*As conversas por voz na Nova Zelândia só estão disponíveis na aplicação e não nos óculos Ray-Ban Meta.

Publicado em - Deixe um comentário

A moda em voga: Amelia Gray é vista com óculos Ray-Ban Meta na passadeira vermelha da Met Gala

High couture took center stage last night on the first Monday in May. And you may have spotted some familiar fashion-forward tech on the proverbial red carpet. As part of her custom lookAmelia Gray sported a pair of Óculos Ray-Ban Meta.

CREDIT: Getty Images Entertainment

The AI glasses—Shiny Black Skyler frames with Polarized Green sun lenses—were the perfect accessory to capture photos and videos throughout the day while also helping her get ready. From taking calls hands-free and listening to music or a podcast to getting answers from Meta AI on the fly, Ray-Ban Meta glasses make any pre-event routine anything but.

This isn’t the first time our AI glasses have gone high fashion. Earlier this year, Gray debuted our sold-out Ray-Ban Meta x Coperni Limited Edition frames on the runway at Paris Fashion Week. Ray-Ban Meta glasses are fashion’s most useful tech-accessory, gaining traction among editors, stylists, and models from the pages of magazines to the runway—and now on the red carpet of fashion’s biggest night of the year.

“I’m still radiating from the night!” said Amelia Gray. “And to know that I will be able to relive so many of those special moments from my own perspective is truly surreal. It’s an entirely new way to experience and share these once-in-a-lifetime moments, and I couldn’t be more excited to be part of Ray-Ban Meta’s Met Gala debut. ”

Inside the event, Gray was joined by Charli XCX, Jeff Goldblum, Jenna Ortega, Kim Kardashian, Nicki Minaj, Rosé, Shaboozey, and Taraji P. Henson as guests at Instagram’s table along with Adam Mosseri and Eva Chen.

Photographer: Quil Lemons

And off the carpet, Instagram e Fios hosted a number of icons who are driving the cultural conversation forward at The Mark Hotel for our 5th annual Watch Party. More than 50 creators and pop culture and fashion commentators gathered to watch the red carpet arrivals and share real-time looks on Instagram and Threads.

CREDIT: Huy Luong

Styles may come and go, but fashion is forever. And the future of AI glasses is looking bright.

Publicado em - Deixe um comentário

New Ray-Ban | Meta Smart Glasses Styles and Meta AI Updates

00:00

00:30

Takeaways

  • We’re expanding the Ray-Ban Meta smart glasses collection with new styles.
  • We’re adding video calling with WhatsApp and Messenger to share your view on a video call. 
  • We’re rolling out Meta AI with Vision, so you can ask your glasses about what you’re seeing and get helpful information — completely hands-free. 

Our second-generation smart glasses, in partnership with EssilorLuxottica, have been flying off the shelves — they’re selling out faster than we can make them. And just in time for sunglasses season, we’re expanding the Ray-Ban Meta smart glasses collection with new styles designed to fit more face shapes so you can find the perfect pair. We’re also adding new features, including updates to Meta AI, to make the glasses even more useful.

A Frame for Every Face

Looking for a vintage vibe? Our new Skyler frames feature a cat eye design inspired by an era of iconic jet-set style, designed to suit smaller faces. 

We’re also adding a new low bridge option for our Headliner frames. If your glasses tend to slide down your nose, sit too low on your face or press on your cheeks, this is the fit for you. 

There are hundreds of different custom frame and lens combinations on the Ray-Ban Remix platform, so you can mix and match to make the glasses your own on ray-ban.com. And our new styles are designed to be prescription lens compatible. Skyler and the new Headliner low bridge fit are available for pre-order now on meta.com e ray-ban.com. These new styles are available in 15 countries, including the US, Canada, Australia, and throughout Europe.

Photo of 6 different pairs of Ray-Ban Meta frames

We’re also introducing the first limited-edition Ray-Ban Meta smart glasses in an exclusive Scuderia Ferrari colorway for Miami 2024. Ray-Ban Meta for Scuderia Limited Edition brings together the legacy of Ferrari, timeless Ray-Ban design and cutting-edge tech from Meta, available April 24, 2024.

Share Your View on a Video Call

From a breathtaking vista on a hike to experiencing your kid’s first steps, there are some moments in life that are just meant to be shared. That’s why we’re adding the ability to share your view on a video call via WhatsApp and Messenger, completely hands-free. 

Image showing hands-free video calling on Ray-Ban Meta smart glasses - a father cooking with his child

At the grocery store and not sure which brand of kombucha to buy? Can’t tell if that pineapple is ripe? Now you can hop on a video call with your mom and get her advice based on what you see. Video calling on Ray-Ban Meta smart glasses is rolling out gradually, so if you don’t see the update right away, sit tight — it’s on the way!

Meta AI Makes Your Smart Glasses Even Smarter

From integrated audio to an ultra-wide 12 MP camera, Ray-Ban Meta smart glasses are jam-packed with tech. And in the US and Canada, you also get Meta AI — an intelligent assistant that helps you get things done, create and connect with the people and things you care about. Just say, “Hey Meta,” and ask away! You can control the glasses using voice commands, and thanks to Meta AI, even get access to real-time information.

We started testing a multimodal AI update in December, so you can ask your glasses about what you’re seeing, and they’ll give you smart, helpful answers or suggestions. That means you can do more with your glasses because now they can see what you see. Starting today, we’re rolling this functionality out to all Ray-Ban Meta smart glasses in the US and Canada in beta. 

Say you’re traveling and trying to read a menu in French. Your smart glasses can use their built-in camera and Meta AI to translate the text for you, giving you the info you need without having to pull out your phone or stare at a screen. 

Image showing a woman wearing Ray-Ban Meta smart glasses using Meta AI feature