Publié le - Laisser un commentaire

Clair comme de l'eau de roche : nos guides d'ondes en carbure de silicium et la voie vers le grand champ de vision d'Orion

0:00 / 0:00

De retour en 2019, la Orion a préparé une démonstration importante pour le fondateur et PDG de Meta, Mark Zuckerberg, en présentant des guides d'ondes potentiels pour les produits de l lunettes de réalité augmentée-un moment charnière où les calculs théoriques sur papier ont pris vie. Cette démonstration a tout changé.

"En portant les lunettes dotées de guides d'ondes en verre et de plaques multiples, on avait l'impression d'être dans une discothèque", se souvient Pasqual Rivera, chercheur en optique. "Il y avait des arcs-en-ciel partout, et c'était tellement distrayant que vous ne regardiez même pas le contenu AR. Ensuite, vous avez mis les lunettes avec carbure de silicium et c'était comme si vous étiez à la symphonie en train d'écouter un morceau classique et calme. Vous pouviez réellement prêter attention à l'expérience complète de ce que nous étions en train de construire. Cela a totalement changé la donne.

Pourtant, même si le choix du carbure de silicium comme substrat semble aujourd'hui évident (jeu de mots), lorsque nous avons commencé à suivre la voie de l'innovation, nous n'avons pas pu nous empêcher d'utiliser le carbure de silicium comme substrat. La route vers les lunettes AR il y a dix ansmais ce n'était pas du tout le cas.

"Le carbure de silicium est normalement fortement dopé à l'azote", explique M. Rivera. "Il est vert et, s'il devient suffisamment épais, il devient noir. Il est impossible d'en faire une lentille optique. C'est un matériau électronique. Il y a une raison pour laquelle il a cette couleur, et c'est à cause des propriétés électroniques."

"Le carbure de silicium est un matériau qui existe depuis longtemps", reconnaît Giuseppe Calafiore, responsable technique d'AR Waveguides. "Sa principale application est l'électronique de haute puissance. Prenons l'exemple des véhicules électriques : Tous les véhicules électriques ont besoin d'une puce, mais cette puce doit également être capable de fournir une puissance très élevée, de faire bouger les roues et de faire fonctionner l'engin. Il s'avère que l'on ne peut pas le faire avec un substrat de silicium ordinaire, qui sert à fabriquer les puces que nous utilisons dans nos ordinateurs et nos appareils électroniques. Il faut une plate-forme qui permette de passer par des courants et des puissances élevés, et ce matériau, c'est le carbure de silicium.

Jusqu'à ce que les discussions sur les sources d'énergie renouvelables commencent à s'intensifier, le marché de ces puces à haute puissance était loin d'atteindre la taille du marché des puces pour l'électronique grand public. Le carbure de silicium a toujours été cher, et il n'y avait pas beaucoup d'incitation à réduire les coûts parce que, pour la taille de puce que l'on fabrique pour une voiture, le prix du substrat était tolérable.

"Mais il s'avère que le carbure de silicium possède également certaines des propriétés dont nous avons besoin pour les guides d'ondes et l'optique", explique M. Calafiore. "L'indice de réfraction est la propriété clé qui nous intéresse. Le carbure de silicium a un indice de réfraction élevé, ce qui signifie qu'il est capable de canaliser et d'émettre une grande quantité de données optiques. On peut considérer qu'il s'agit d'une bande passante optique - tout comme vous avez une bande passante pour l'internet, et vous voulez qu'elle soit suffisamment grande pour que vous puissiez envoyer d'énormes quantités de données à travers ce canal. Il en va de même pour les dispositifs optiques.

Plus l'indice de réfraction d'un matériau est élevé, plus son indice de réfraction est élevé. étendueafin de pouvoir envoyer davantage de données optiques par ce canal.

"Dans notre cas, le canal est notre guide d'ondes, et une étendue plus grande se traduit par un champ de vision plus large", explique M. Calafiore. "Plus l'indice de réfraction d'un matériau est élevé, plus le champ de vision de l'écran est grand.

Le chemin vers le bon indice de réfraction

Lorsque Calafiore a rejoint ce qui était alors Oculus Research en 2016, le verre à l'indice de réfraction le plus élevé dont disposait l'équipe était de 1,8 - ce qui nécessitait d'empiler plusieurs plaques pour obtenir le champ de vision souhaité. Outre les artefacts optiques indésirables, la chaîne de montage devenait de plus en plus compliquée, car les deux premiers guides d'ondes devaient être parfaitement alignés, puis cette pile devait être parfaitement alignée avec un troisième guide d'ondes.

"Non seulement c'était cher, mais il a tout de suite été évident qu'on ne pouvait pas avoir trois morceaux de verre par lentille dans une paire de lunettes", se souvient M. Calafiore. "Elles étaient trop lourdes, et l'épaisseur était prohibitive et laide - personne ne les achèterait. Nous sommes donc revenus à la case départ : essayer d'augmenter l'indice de réfraction du substrat pour réduire le nombre de plaques nécessaires".

La première matière que l'équipe a examinée était niobate de lithiumqui a un indice de réfraction d'environ 2,3, un peu plus élevé que celui du verre (1,8).

"Nous avons réalisé qu'il suffisait d'empiler deux plaques et que nous pouvions peut-être même nous contenter d'une seule plaque pour couvrir le champ de vision", explique M. Calafiore. "C'est ainsi que nous avons découvert, avec nos fournisseurs en 2019, que le carbure de silicium, dans sa forme la plus pure, est en fait très transparent. Il se trouve également qu'il possède l'indice de réfraction le plus élevé connu pour une application optique, à savoir 2,7."

Cela représente une augmentation de 17,4% par rapport au niobate de lithium et de 50% par rapport au verre, pour ceux qui comptent les points à la maison.

"En apportant quelques modifications à l'équipement déjà utilisé dans l'industrie, il était possible d'obtenir du carbure de silicium transparent", explique M. Calafiore. "Il suffisait de modifier le processus, d'être beaucoup plus prudent et, au lieu d'optimiser les propriétés électroniques, d'optimiser les propriétés optiques : transparence, uniformité de l'indice de réfraction, etc.

Le coût potentiel du compromis

À l'époque, l'équipe de Reality Labs était la première à tenter de passer de plaquettes de carbure de silicium opaques à des plaquettes transparentes. Et comme le carbure de silicium est l'un des matériaux connus les plus durs, il faut essentiellement un outillage en diamant pour le couper ou le polir. Par conséquent, les coûts d'ingénierie non récurrents étaient très élevés, et le substrat obtenu était donc très coûteux.

Bien qu'il existe des solutions plus rentables, comme pour toute technologie, elles présentent toutes des inconvénients. Et au fur et à mesure que le champ de vision augmente pour atteindre le champ de vision d'Orion d'environ 70 degrés, de nouveaux problèmes apparaissent, comme les images fantômes et les arcs-en-ciel.

"Trouver la solution optimale pour un écran AR à large champ de vision est une tâche ardue qui nécessite des compromis entre les performances et les coûts", explique Barry Silverstein, directeur de la recherche scientifique. "Il est souvent possible de réduire les coûts, mais si les performances ne sont pas au rendez-vous, les coûts n'auront finalement pas d'importance.

Les images fantômes sont comme des échos visuels de l'image principale projetée sur l'écran. Les arcs-en-ciel sont des traînées de lumière colorées créées lorsque la lumière ambiante se reflète sur le guide d'ondes. "Supposons que vous conduisiez la nuit avec des phares de voiture en mouvement autour de vous", explique Silverstein. "Vous aurez également des arcs-en-ciel en mouvement. Ou si vous jouez au volley-ball sur la plage et que le soleil brille, vous aurez un arc-en-ciel qui se déplacera avec vous et vous manquerez votre coup. L'une des propriétés miraculeuses du carbure de silicium est qu'il élimine ces arcs-en-ciel".

"L'autre avantage du carbure de silicium, qu'aucun des autres matériaux ne possède, est la conductivité thermique", ajoute M. Calafiore. "Le plastique est un très mauvais isolant. Le verre, le niobate de lithium, c'est la même chose. Le carbure de silicium est transparent, il ressemble au verre, et devinez quoi : il conduit la chaleur.

En juillet 2020, l'équipe a donc déterminé que le carbure de silicium était le meilleur choix pour trois raisons principales : Il a permis d'améliorer le facteur de forme en ne nécessitant qu'une seule plaque et des structures de montage plus petites, il présente de meilleures propriétés optiques et il est plus léger que le verre à double plaque.

Le secret de la gravure oblique

Une fois le matériau en tête, il fallait passer à la fabrication des guides d'ondes, et plus précisément à une technique de réseau non conventionnelle appelée "slant etch" (gravure en biais).

"Le réseau est la nanostructure qui couple et découple la lumière de la lentille", explique M. Calafiore. "Pour que le carbure de silicium fonctionne, le réseau doit être gravé en biais. Au lieu d'être verticales, les lignes du réseau doivent être inclinées en diagonale".

"Nous avons été les premiers à effectuer une gravure en biais directement sur les appareils", explique Nihar Mohanty, directeur de recherche. "Toute l'industrie s'appuyait sur la nano-impression, qui ne fonctionne pas pour les substrats ayant un indice de réfraction aussi élevé. C'est pourquoi personne d'autre au monde n'avait pensé à faire du carbure de silicium".

Mais comme la gravure en creux est une technologie immature, la plupart des fournisseurs de puces semi-conductrices et des usines ne disposent pas des outils nécessaires.

"En 2019, mon directeur de l'époque, Matt Colburn, et moi-même avons créé notre propre installation, car il n'y avait rien au monde qui puisse produire des guides d'ondes en carbure de silicium gravés et où nous pourrions tester la technologie au-delà de l'échelle du laboratoire", explique M. Mohanty. "L'investissement a été énorme et nous avons mis en place toute la chaîne de production sur place. L'outillage a été fabriqué sur mesure par nos partenaires, et le processus a été développé en interne à Meta, bien que nos systèmes soient de qualité recherche parce qu'il n'existait pas de systèmes de qualité industrielle. Nous avons travaillé avec un partenaire industriel pour développer un outillage et des processus de gravure oblique de qualité industrielle. Maintenant que nous avons montré ce qu'il est possible de faire avec le carbure de silicium, nous voulons que d'autres acteurs de l'industrie commencent à fabriquer leurs propres outils.

Plus les entreprises investiront dans le carbure de silicium de qualité optique et développeront des équipements, plus la catégorie des lunettes AR grand public se renforcera.

Ne plus courir après les arcs-en-ciel

Tandis que l'inéluctabilité technologique est un mytheLes étoiles semblent certainement s'aligner en faveur du carbure de silicium. Bien que l'équipe continue d'étudier d'autres solutions, on a le sentiment que les bonnes personnes se sont réunies au bon moment et dans les bonnes conditions de marché pour fabriquer des lunettes de réalité augmentée à partir de ce matériau.

"Orion a prouvé que le carbure de silicium est une option viable pour les lunettes AR", déclare M. Silverstein, "et nous constatons aujourd'hui un intérêt de la part de la chaîne d'approvisionnement sur trois continents différents, qui s'intéressent de près à cette opportunité. Le carbure de silicium finira par s'imposer. Selon moi, ce n'est qu'une question de temps.

Et beaucoup de choses peuvent se produire dans ce laps de temps, à l'image de la façon dont les choses ont évolué depuis que nous avons produit nos premiers cristaux clairs de carbure de silicium.

"Tous ces fabricants de carbure de silicium avaient augmenté massivement l'offre en réponse au boom attendu des véhicules électriques", note M. Calafiore. "Aujourd'hui, il y a une surcapacité qui n'existait pas lorsque nous construisions Orion. Aujourd'hui, l'offre étant élevée et la demande faible, le coût du substrat a commencé à baisser".

"Les fournisseurs sont très enthousiastes à l'idée de fabriquer du carbure de silicium de qualité optique - après tout, chaque lentille de guide d'ondes représente une grande quantité de matériau par rapport à une puce électronique, et toutes leurs capacités existantes s'appliquent à ce nouvel espace", ajoute M. Silverstein. "Il est essentiel de remplir l'usine, et le rêve est de la faire évoluer. La taille de la plaquette a également son importance : Plus la plaquette est grande, plus le coût est bas, mais la complexité du processus augmente également. Cela dit, nous avons vu des fournisseurs passer de plaquettes de 4 à 8 pouces, et certains travaillent sur des précurseurs de plaquettes de 12 pouces, qui permettraient d'obtenir un nombre exponentiel de paires de lunettes AR."

Ces progrès devraient permettre de continuer à réduire les coûts. Il est encore tôt, mais l'avenir se dessine.

"Au début de toute nouvelle révolution technologique, on essaie un tas de choses", explique M. Calafiore. "Prenons l'exemple de la télévision : Nous avons commencé avec les tubes cathodiques, puis nous sommes passés aux téléviseurs plasma à LED et maintenant aux microLED. Nous sommes passés par plusieurs technologies et architectures différentes. Lorsque l'on cherche un chemin, il y en a beaucoup qui n'aboutissent à rien, mais il y en a certains auxquels on revient sans cesse parce qu'ils sont les plus prometteurs. Nous ne sommes pas au bout du chemin, et nous ne pouvons pas y arriver seuls, mais le carbure de silicium est un matériau merveilleux qui vaut bien l'investissement".

"Le monde est maintenant éveillé", ajoute M. Silverstein. "Nous avons réussi à démontrer que le carbure de silicium peut s'adapter à l'électronique et à la photonique. C'est un matériau qui pourrait avoir des applications futures dans l'informatique quantique. Et nous voyons des signes indiquant qu'il est possible de réduire le coût de manière significative. Il reste encore beaucoup de travail à faire, mais le potentiel de croissance est énorme.


En savoir plus sur le carbure de silicium Photonics Spectra.

Pour plus d'informations sur Orion, consultez ces articles de blog :

Publié le - Laisser un commentaire

Orion : Les vraies lunettes AR sont arrivées

TL;DR :

  • Aujourd'hui à ConnecterMark Zuckerberg a dévoilé Orion, notre première paire de véritables lunettes de réalité augmentée, dont le nom de code était auparavant Projet Nazare.
  • Avec un champ de vision inégalé dans l'industrie, lentilles en carbure de siliciumOrion est notre prototype de produit le plus avancé et le plus abouti à ce jour, avec ses guides d'ondes complexes, ses projecteurs uLED et bien d'autres choses encore.
  • Aujourd'hui, nous poursuivons l'optimisation des produits et la réduction des coûts en vue de créer un appareil grand public évolutif qui révolutionnera la façon dont les gens interagissent avec le monde.

"Nous construisons des lunettes AR.

Cinq mots simples, parlé il y a cinq ans. Avec eux, nous avons planté un drapeau sur notre vision d'un avenir où nous n'aurons plus à faire le faux choix entre un monde d'informations au bout de nos doigts et le monde physique qui nous entoure.

Et aujourd'hui, cinq ans plus tard, cinq autres mots qui devraient à nouveau changer la donne :

Nous avons construit des lunettes AR.

https://youtube.com/watch?v=2CJsnyS8u3c%3Fsi%3DTr77gOKEq3PnA7-k%26controls%3D0%3Fautoplay%3D0%26color%3Dwhite%26cc_lang_pref%3Den%26cc_load_policy%3D0%26enablejsapi%3D1%26frameborder%3D0%26hl%3Den%26rel%3D0%26origin%3Dhttps%253A%252F%252Fwww.meta.com

Chez Meta, notre mission est simple : donner aux gens le pouvoir de construire une communauté et de rapprocher le monde. Et à Reality Labs, nous créons des outils qui aident les gens à se sentir connectés à tout moment et en tout lieu. C'est pourquoi nous travaillons à la construction de la prochaine plateforme informatique qui place les personnes au centre afin qu'elles puissent être plus présentes, connectées et autonomes dans le monde.

Lunettes Ray-Ban Meta ont démontré qu'il était possible de donner aux gens un accès mains libres aux éléments clés de leur vie numérique à partir de leur vie physique. Nous pouvons parler à un assistant intelligent, nous connecter avec nos amis et immortaliser les moments importants, le tout sans avoir à sortir notre téléphone. Ces lunettes élégantes s'intègrent parfaitement dans notre vie quotidienne, et les gens les adorent.

Pourtant, si Ray-Ban Meta a ouvert une toute nouvelle catégorie de lunettes sans écran suralimentées par l'IA, l'industrie du XR rêve depuis longtemps de véritables lunettes AR, un produit qui combine les avantages d'un grand écran holographique et d'une assistance personnalisée de l'IA dans un facteur de forme confortable, élégant et portable tout au long de la journée.

Et aujourd'hui, nous avons rapproché ce rêve de la réalité en dévoilant OrionNous pensons qu'il s'agit de la paire de lunettes de réalité augmentée la plus avancée jamais fabriquée. En fait, il pourrait s'agir de l'appareil électronique grand public le plus ambitieux jamais produit depuis le smartphone. Orion est le résultat d'inventions révolutionnaires dans pratiquement tous les domaines de l'informatique moderne. le travail que nous effectuons à Reality Labs depuis une dizaine d'années. Il est doté de technologies entièrement nouvelles, notamment l'écran AR le plus avancé jamais assemblé et le système d'affichage AR le plus perfectionné. silicium sur mesure qui permet de réaliser de puissantes expériences de réalité augmentée sur une paire de lunettes en utilisant une fraction de la puissance et du poids d'un casque de réalité augmentée.

Le système d'entrée d'Orion combine de manière transparente la voix, le regard et le suivi de la main avec un système d'affichage à l'écran. Bracelet EMG qui vous permet de glisser, cliquer et faire défiler tout en gardant votre bras confortablement posé à côté de vous, ce qui vous permet de rester présent dans le monde et avec les personnes qui vous entourent lorsque vous interagissez avec un contenu numérique riche.

À partir d'aujourd'hui à Connect et tout au long de l'année, nous ouvrons l'accès à notre prototype de produit Orion aux employés de Meta et à des publics externes sélectionnés afin que notre équipe de développement puisse apprendre, itérer et construire notre ligne de produits de lunettes AR grand public, que nous prévoyons de commencer à expédier dans un avenir proche.

Pourquoi des lunettes AR ?

Il y a trois raisons principales pour lesquelles les lunettes AR sont essentielles pour débloquer le prochain grand saut dans l'informatique orientée vers l'homme.

  1. Ils permettent des expériences numériques qui ne sont pas limitées par l'écran d'un smartphone. Avec les grands écrans holographiques, vous pouvez utiliser le monde physique comme toile, en plaçant des contenus et des expériences en 2D et en 3D où vous le souhaitez.
  2. Ils intègrent de manière transparente une IA contextuelle capable de percevoir et de comprendre le monde qui vous entoure afin d'anticiper vos besoins et d'y répondre de manière proactive.
  3. Ils sont légers et conviennent aussi bien à l'intérieur qu'à l'extérieur. Ils permettent aux gens de voir le vrai visage, les vrais yeux et les vraies expressions de l'autre.

C'est l'étoile polaire vers laquelle notre industrie s'est orientée : un produit combinant la commodité et l'immédiateté des dispositifs portables avec un grand écran, une entrée à large bande passante et une IA contextualisée dans un facteur de forme que les gens se sentent à l'aise de porter dans leur vie quotidienne.

Facteur de forme compact, défis complexes

Pendant des années, nous avons été confrontés à un faux choix : soit des casques de réalité virtuelle et mixte qui permettent des expériences immersives profondes dans un format encombrant, soit des lunettes qui sont idéales pour une utilisation tout au long de la journée mais qui n'offrent pas d'applications et d'expériences visuelles riches en raison de l'absence d'un grand écran et de la puissance de calcul correspondante.

Mais nous voulons tout cela, sans compromis. Depuis des années, nous travaillons d'arrache-pied pour intégrer les incroyables expériences spatiales offertes par les casques de RV et de RM et miniaturiser la technologie nécessaire pour offrir ces expériences dans une paire de lunettes légères et élégantes. Réussir le facteur de forme, fournir des affichages holographiques, développer des expériences AR convaincantes et créer de nouveaux paradigmes d'interaction homme-machine (HCI) - et tout cela dans un seul produit cohésif - est l'un des défis les plus difficiles que notre industrie ait jamais eu à relever. Le défi était tel que nous pensions avoir moins de 10 % de chances d'y parvenir.

Jusqu'à présent.

Un écran révolutionnaire dans un format inégalé

Avec un angle de vue d'environ 70 degrés, Orion offre le plus grand champ de vision dans le plus petit format de lunettes AR à ce jour. Ce champ de vision permet de débloquer des cas d'utilisation véritablement immersifs pour Orion, depuis les fenêtres multitâches et les divertissements sur grand écran jusqu'aux hologrammes de personnes grandeur nature - tous les contenus numériques pouvant se fondre de manière transparente dans votre vision du monde physique.

Pour Orion, le champ de vision était notre graal. Nous nous heurtions aux lois de la physique et devions courber les faisceaux de lumière d'une manière qui n'est pas naturelle, et nous devions le faire dans une enveloppe de puissance mesurée en milliwatts.

Au lieu du verre, nous avons fabriqué les lentilles en carbure de silicium-une nouvelle application pour les lunettes AR. Carbure de silicium est incroyablement léger, il n'entraîne pas d'artefacts optiques ni de lumière parasite, et son indice de réfraction est élevé - toutes les propriétés optiques qui sont essentielles pour obtenir un grand champ de vision. Les guides d'ondes eux-mêmes sont dotés de structures 3D nanométriques vraiment complexes pour diffracter ou diffuser la lumière de la manière nécessaire à l'obtention de ce champ de vision. Enfin, les projecteurs sont des uLED, un nouveau type de technologie d'affichage super petit et extrêmement économe en énergie.

Orion est indéniablement une paire de lunettes, tant au niveau de l'aspect que du toucher, avec des verres transparents. Contrairement aux casques MR ou aux autres lunettes AR actuelles, vous pouvez toujours voir les yeux et les expressions réelles des autres, afin d'être présent et de partager l'expérience avec les personnes qui vous entourent. Des dizaines d'innovations ont été nécessaires pour parvenir à un design industriel qui permette de porter des lunettes contemporaines tous les jours. Orion est une prouesse de miniaturisation : les composants sont réduits à une fraction de millimètre. Nous avons réussi à intégrer sept minuscules caméras et capteurs dans les bords de la monture.

Nous avons dû maintenir la précision optique à un dixième de l'épaisseur d'un cheveu humain. Le système peut détecter d'infimes mouvements, comme la dilatation ou la contraction des cadres en fonction de la température ambiante, puis corriger numériquement l'alignement optique nécessaire, le tout en l'espace de quelques millisecondes. Nous avons fabriqué les montures en magnésium - le même matériau que celui utilisé dans les voitures de course de F1 et les engins spatiaux - parce qu'il est à la fois léger et rigide, qu'il maintient les éléments optiques dans l'alignement et qu'il évacue efficacement la chaleur.

Chauffage et refroidissement

Une fois que nous avons percé l'écran (sans jeu de mots) et surmonté les problèmes de physique, nous avons dû relever le défi d'un calcul très puissant associé à une consommation d'énergie très faible et à la nécessité d'une dissipation de la chaleur. Contrairement aux casques MR actuels, il n'est pas possible d'insérer un ventilateur dans une paire de lunettes. Nous avons donc dû faire preuve de créativité. Une grande partie des matériaux utilisés pour refroidir Orion sont similaires à ceux utilisés par la NASA pour refroidir les satellites dans l'espace.

Nous avons construit silicium sur mesure hautement spécialisé qui est extrêmement économe en énergie et optimisé pour nos algorithmes d'IA, de perception de la machine et de graphisme. Nous avons construit plusieurs puces personnalisées et des dizaines de blocs de propriété intellectuelle en silicium hautement personnalisés à l'intérieur de ces puces. Cela nous permet de réduire à quelques dizaines de milliwatts les algorithmes nécessaires au suivi des mains et des yeux, ainsi que la technologie de localisation et de cartographie simultanées (SLAM) qui consomme normalement des centaines de milliwatts d'énergie et génère donc une quantité correspondante de chaleur.

Et oui, le silicium personnalisé continue de jouer un rôle essentiel dans le développement des produits chez Reality Labs, malgré ce que vous avez pu lire ailleurs. 😎

EMG sans effort

Chaque nouvelle plate-forme informatique apporte avec elle un changement de paradigme dans la manière dont nous interagissons avec nos appareils. L'invention de la souris a ouvert la voie aux interfaces utilisateur graphiques (IUG) qui dominent notre monde aujourd'hui, et les smartphones n'ont commencé à s'imposer qu'avec l'avènement de l'écran tactile. La même règle s'applique aux produits portables.

Nous avons parlé de notre travail avec l'électromyographie, ou EMGDepuis des années, nous sommes convaincus que la saisie pour les lunettes de réalité augmentée doit être rapide, pratique, fiable, subtile et socialement acceptable. Aujourd'hui, ce travail est prêt pour le prime time.

Le système d'entrée et d'interaction d'Orion combine de manière transparente la voix, le regard et le suivi de la main avec un bracelet EMG qui vous permet de glisser, de cliquer et de faire défiler facilement.

Cela fonctionne et donne l'impression d'être magique. Imaginez que vous preniez une photo pendant votre jogging matinal d'un simple effleurement du bout des doigts ou que vous naviguiez dans les menus avec des mouvements à peine perceptibles de vos mains. Notre bracelet associe un textile haute performance à des capteurs EMG intégrés pour détecter les signaux électriques générés par les moindres mouvements musculaires. Un processeur ML intégré à l'appareil interprète ensuite ces signaux EMG pour produire des événements d'entrée qui sont transmis sans fil aux lunettes. Le système s'adapte à vous, de sorte qu'il devient de plus en plus capable de reconnaître les gestes les plus subtils au fil du temps. Aujourd'hui, nous vous en disons plus sur le soutien que nous apportons à la recherche externe dans les domaines suivants développer le potentiel d'équité et d'accessibilité des bracelets EMG.

Présentation de l'unité de calcul sans fil (Wireless Compute Puck)

Les véritables lunettes de réalité augmentée doivent être sans fil et de petite taille.Nous avons donc construit un Palette de calcul sans fil pour Orion. Il décharge les lunettes d'une partie de la charge, ce qui permet d'augmenter l'autonomie de la batterie et d'obtenir un meilleur facteur de forme avec une faible latence.

Les lunettes exécutent tous les algorithmes de suivi des mains, de suivi des yeux, de SLAM et de verrouillage du monde AR spécialisé, tandis que la logique de l'application s'exécute sur le puck pour que les lunettes soient aussi légères et compactes que possible.

La rondelle est dotée de deux processeurs, dont un conçu sur mesure par Meta, et fournit la puissance de calcul nécessaire au rendu graphique à faible latence, à l'intelligence artificielle et à certaines autres perceptions de la machine.

Et comme il est petit et élégant, vous pouvez le glisser confortablement dans un sac ou dans votre poche et vaquer à vos occupations, sans aucune contrainte.

Expériences de RA

Bien entendu, comme pour tout matériel, sa qualité dépend de ce que vous pouvez en faire. faire avec elle. Et bien qu'il soit encore tôt, les expériences offertes par Orion sont un aperçu excitant de ce qui est à venir.

https://youtube.com/watch?v=HkdSv3QPhNw%3F%26controls%3D0%3Fautoplay%3D0%26color%3Dwhite%26cc_lang_pref%3Den%26cc_load_policy%3D0%26enablejsapi%3D1%26frameborder%3D0%26hl%3Den%26rel%3D0%26origin%3Dhttps%253A%252F%252Fwww.meta.com

Nous avons notre assistant intelligent, Meta AIqui fonctionne sur Orion. Il comprend ce que vous regardez dans le monde physique et peut vous aider avec des visualisations utiles. Orion utilise le même modèle Llama qui alimente les expériences d'intelligence artificielle fonctionnant aujourd'hui sur les lunettes intelligentes Ray-Ban Meta, ainsi que des modèles de recherche personnalisés pour démontrer les cas d'utilisation potentiels pour le développement futur des wearables.

Vous pouvez passer un appel vidéo mains libres en déplacement pour prendre des nouvelles de vos amis et de votre famille en temps réel, et vous pouvez rester connecté sur WhatsApp et Messenger pour consulter et envoyer des messages. Plus besoin de sortir votre téléphone, de le déverrouiller, de trouver la bonne application et de faire savoir à votre ami que vous êtes en retard pour le dîner - vous pouvez le faire avec vos lunettes.

https://youtube.com/watch?v=el7lUVvu8Bo%3F%26controls%3D0%3Fautoplay%3D0%26color%3Dwhite%26cc_lang_pref%3Den%26cc_load_policy%3D0%26enablejsapi%3D1%26frameborder%3D0%26hl%3Den%26rel%3D0%26origin%3Dhttps%253A%252F%252Fwww.meta.com

Vous pouvez jouer à des jeux AR partagés avec votre famille à l'autre bout du pays ou avec votre ami de l'autre côté du canapé. Le grand écran d'Orion vous permet de faire du multitâche avec plusieurs fenêtres et d'accomplir des tâches sans avoir à transporter votre ordinateur portable.

Les expériences disponibles sur Orion aujourd'hui aideront à tracer la feuille de route de notre gamme de lunettes AR grand public à l'avenir. Nos équipes continueront d'itérer et de construire de nouvelles expériences sociales immersives, aux côtés de nos partenaires développeurs, et nous sommes impatients de partager la suite.

Un prototype de produit utile

Orion ne se retrouvera pas entre les mains des consommateurs, mais il ne faut pas s'y tromper : Il s'agit d'un pas un prototype de recherche. C'est le prototype de produit le plus abouti que nous ayons jamais développé, et il est vraiment représentatif de ce que l'on attend de nous. pourrait aux consommateurs. Plutôt que de nous précipiter sur les étagères, nous avons décidé de nous concentrer d'abord sur le développement interne, ce qui nous permet de continuer à construire rapidement et de repousser les limites de la technologie et de l'expérience.

Cela signifie que nous parviendrons plus rapidement à un produit de consommation encore meilleur.

Ce qui vient ensuite

Deux obstacles majeurs se sont longtemps dressés sur la route des lunettes de réalité augmentée grand public : les percées technologiques nécessaires pour offrir un grand écran dans un format de lunettes compact et la nécessité de proposer des expériences de réalité augmentée utiles et convaincantes sur ces lunettes. Orion est une étape importante, car il offre pour la première fois de véritables expériences de réalité augmentée fonctionnant sur un matériel raisonnablement élégant.

Maintenant que nous avons partagé Orion avec le monde, nous nous concentrons sur quelques points :

  • Réglage de la qualité de l'affichage AR pour rendre les images encore plus nettes
  • Nous optimisons chaque fois que nous le pouvons le facteur de forme pour qu'il soit encore plus petit.
  • Construire à l'échelle pour les rendre plus abordables

Au cours des prochaines années, vous pouvez vous attendre à voir apparaître de nouveaux appareils qui s'appuient sur nos efforts de recherche et de développement. Un certain nombre d'innovations d'Orion ont été étendues à nos produits de consommation actuels ainsi qu'à notre future feuille de route. Nous avons optimisé certains de nos algorithmes de perception spatiale, qui fonctionnent à la fois sur le Meta Quest 3S et Orion. Bien que le système de saisie gestuelle subtile et du regard ait été conçu à l'origine pour Orion, nous prévoyons de l'utiliser dans de futurs produits. Nous étudions également la possibilité d'utiliser des bracelets EMG dans de futurs produits de consommation.

Orion n'est pas seulement une fenêtre sur l'avenir, c'est un regard sur les possibilités très réelles qui sont à notre portée aujourd'hui. Nous l'avons construit en poursuivant ce que nous faisons le mieux : aider les gens à se connecter. Des lunettes Ray-Ban Meta à Orion, nous avons constaté les avantages qu'il y a à permettre aux gens de rester plus présents et plus autonomes dans le monde physique, tout en profitant de toute la richesse que le monde numérique a à offrir.

Nous pensons que vous ne devriez pas avoir à choisir entre les deux. Et avec la prochaine plateforme informatique, vous n'aurez pas à le faire.


Pour plus d'informations sur Orion, consultez ces articles de blog :

Publié le - Laisser un commentaire

Le palet de calcul d'Orion : L'histoire de l'appareil qui a rendu possible l'utilisation de nos lunettes AR

L'année dernière, lors du salon Connect, nous avons dévoilé Orion-notre première véritable paire de lunettes AR. L'aboutissement de notre travail à Reality Labs au cours de la dernière décennieOrion combine les avantages d'un grand écran holographique et d'une assistance personnalisée par l'IA dans un format confortable et portable toute la journée. Il a attiré l'attention sur son champ de vision de pointe, ses guides d'ondes en carbure de silicium, ses projecteurs uLED, etc. Mais aujourd'hui, nous nous intéressons à un héros méconnu d'Orion : le compute puck.

Conçue pour se glisser facilement dans votre poche ou votre sac afin que vous puissiez l'emmener à peu près n'importe où dans votre journée, la rondelle décharge la puissance de traitement d'Orion pour exécuter la logique de l'application et permettre un facteur de forme plus convaincant et plus petit pour les lunettes. Il se connecte sans fil aux lunettes et au bracelet EMG pour une expérience transparente.

Il suffit de le régler et de l'oublier, n'est-ce pas ?

Mais l'histoire du palet, même à l'état de prototype, est passionnante, avec un arc dramatique que l'on ne soupçonnerait pas en le voyant.

"Lorsque vous construisez quelque chose comme cela, vous commencez à vous heurter aux limites de la physique", explique Rahul Prasad, directeur de la gestion des produits. "Au cours des 50 dernières années, la loi de Moore a tout rendu plus petit, plus rapide et moins gourmand en énergie. Le problème, c'est que l'on commence à se heurter aux limites de la chaleur que l'on peut dissiper, de la quantité de batterie que l'on peut comprimer et des performances de l'antenne que l'on peut faire tenir dans un objet d'une taille donnée.

Même si le recul est de 20/20, le potentiel du palet n'était pas immédiatement évident. Lorsque vous êtes le premier à construire quelque chose, vous devez explorer toutes les possibilités et ne négliger aucune piste. Comment construire quelque chose que certains pourraient considérer comme un accessoire indésirable plutôt que comme un élément essentiel de l'ensemble ?

"Nous savions que le palet était un appareil supplémentaire que nous demandions aux gens de transporter", explique Jared Van Cleave, responsable de l'ingénierie de la conception des produits, "nous avons donc cherché à transformer ce problème en une fonctionnalité".

En fin de compte, cette philosophie s'est avérée payante, car le puck concentre beaucoup de puissance de calcul (et encore plus de silicium personnalisé conçu par Meta pour l'IA et la perception de la machine) dans une petite taille. C'est ce qui a permis à Orion de passer du domaine de la science-fiction à celui de la réalité.

"Si vous n'aviez pas la rondelle, vous ne pourriez pas vivre les expériences qu'offre Orion dans son format, un point c'est tout", explique M. Prasad. "Une bonne expérience de réalité augmentée exige des performances très élevées : des taux de rafraîchissement élevés, une latence extrêmement faible, une gestion fine du sans fil et de l'alimentation, etc. La rondelle et les lunettes doivent être conçues conjointement pour fonctionner en étroite collaboration, non seulement au niveau de l'application, mais aussi au niveau du système d'exploitation, du micrologiciel et du matériel. Et même si l'on concevait un smartphone pour qu'il fonctionne avec des lunettes de réalité augmentée, les exigences élevées en matière de performances épuiseraient la batterie du téléphone et réduiraient la capacité de calcul des cas d'utilisation du téléphone. En revanche, le puck dispose de sa propre batterie haute capacité, d'un SoC haute performance et d'un coprocesseur d'IA personnalisé conçu par Meta et optimisé pour Orion".

Bien entendu, le palet n'a pas été conçu du jour au lendemain. Il a nécessité des années de travail itératif.

"Nous ne savions pas comment les gens voudraient interagir avec Orion du point de vue de l'entrée, il n'y avait rien dont nous pouvions nous inspirer sur le marché", explique Matt Resman, chef de produit. "Si vous regardez nos premiers prototypes de lunettes, il s'agissait de casques massifs qui pesaient trois ou quatre livres. Et lorsque vous essayez de construire un produit, il est vraiment difficile de comprendre l'expérience de l'utilisateur si vous n'avez pas le bon facteur de forme. Avec le puck, nous avons pu réaliser des prototypes très rapidement pour commencer à comprendre comment les gens allaient l'utiliser".

Sous le nom de code Omega, la rondelle a d'abord été envisagée par ce qui était alors Oculus Research comme une bande en forme d'Ω qui s'enroulerait autour du cou de l'utilisateur et serait reliée aux lunettes....

... jusqu'à ce que de nouvelles innovations de l'équipe sans fil de Reality Labs, entre autres, leur permettent de couper le cordon. Cela a permis d'obtenir un facteur de forme plus portable ou de poche / dans un sac, ce qui a ouvert de nombreuses possibilités.

"À l'époque, les appels en réalité augmentée étaient encore un cas d'utilisation primaire", explique M. Van Cleave. "Le palet était l'endroit où les vidéos holographiques étaient ancrées. Vous le posiez sur la table avec le banc de capteurs face à vous, vous filmant et projetant ensuite votre interlocuteur sur la surface du palet pour l'appel".

"Orion a pour but de relier les gens et de nous rassembler", explique M. Resman. "L'un des concepts initiaux du palet était d'aider à créer ce sentiment de présence avec d'autres personnes et de permettre cette forme de communication plus riche.

"L'appareil ne ressemble à rien de ce que vous avez déjà vu. Il a le potentiel de créer des interactions vraiment amusantes et uniques", ajoute le designer industriel Emron Henry. "L'expérience de l'utilisateur ressemble un peu à celle d'un génie sorti d'une bouteille, où les hologrammes émergent de l'appareil et s'y dissolvent de manière transparente."

Comme vous pouvez le constater, le puck a plus de potentiel que ce qui a finalement été mis en place comme fonctionnalité. Outre les capteurs et les caméras qui auraient été utilisés pour les appels AR, le puck est doté de capteurs haptiques et 6DOF qui pourraient lui permettre d'être utilisé comme un contrôleur suivi pour sélectionner et manipuler des objets virtuels et jouer à des jeux AR. L'équipe a également étudié les entrées tactiles capacitives et de force afin que le puck puisse servir de manette de jeu lorsqu'il est tenu en mode portrait ou paysage.

"Nous parlions de la nécessité de transporter cet objet supplémentaire", explique M. Van Cleave. "Comment le rendre plus utile ? Il y avait tout un courant de travail autour de cette question. À un moment donné, l'hypothèse était que les jeux en réalité augmentée allaient être le cas d'utilisation idéal.

Très tôt, nous avons su que nous devions explorer les possibilités du puck pour faire des choses que les téléphones ne peuvent pas faire. Nous avons fini par utiliser le regard, l'EMG et le suivi de la main pour les jeux de réalité augmentée, comme Stargazer et Pong, mais nous avons prototypé plusieurs démos et jeux qui utilisaient le palet comme contrôleur dans les premiers jours d'Orion.

0:00 / 0:00

0:00 / 0:00

0:00 / 0:00

Explorations rendues du palet en tant que contrôleur 6DOF pour des jeux AR comme Pong.

"Le fait qu'il ne s'agisse pas d'un téléphone nous a donné une grande liberté de conception", ajoute M. Prasad. "Il peut être plus épais, je peux le rendre plus arrondi pour qu'il tienne confortablement dans la main comme une manette. C'est assez incroyable que le puck soit plus petit qu'un téléphone moyen, mais il est plus puissant qu'un téléphone parce qu'il est doté d'un coprocesseur Meta conçu pour l'IA et la perception de la machine.

L'équipe s'est penchée sur la question de savoir en quoi un jeu de réalité augmentée de qualité pouvait différer d'un jeu sur console ou d'un jeu sur téléphone portable. Pour ce faire, elle a exploré les différentes possibilités offertes par un contrôleur de jeu de réalité augmentée, notamment les manettes, la disposition des boutons physiques, les boutons de déclenchement, etc.

"Nous n'avons pas fini par construire tout cela", précise M. Van Cleave. "Nous avons créé des prototypes, mais nous n'avons jamais cherché à les construire entièrement. Nous voulions rester simples. Nous voulions créer des interfaces souples, mais pas de boutons physiques et mécaniques.

Bien que les capteurs et l'haptique n'aient pas été activés dans le prototype du produit fini, ils ont joué un rôle essentiel pendant le développement, permettant aux équipes de signaler des bogues en tapant simplement sur la partie supérieure de l'appareil à plusieurs reprises pour déclencher un rapport de bogue.

Lorsque l'IA a commencé à occuper le devant de la scène en tant que cas d'utilisation clé, le calcul est devenu de plus en plus important. En fin de compte, le puck abrite la connectivité sans fil, la puissance de calcul et la capacité de la batterie d'Orion - une énorme prouesse technique en soi - qui permet de réduire le poids et le facteur de forme des lunettes tout en dissipant beaucoup plus de chaleur grâce à sa surface.

Tout au long de son évolution, une chose est restée inchangée : le palet est bien plus qu'un simple regard. L'adoption d'idées non conventionnelles a permis à nos équipes d'explorer, de repousser les limites et de construire l'avenir.

"Nous définissons une catégorie qui n'existe pas encore tout à fait", note M. Henry. "Comme on peut s'y attendre en matière de R&D, il y a eu des débuts et des arrêts en cours de route. Comment les utilisateurs s'attendent-ils à interagir avec les hologrammes ? Préféreraient-ils utiliser une télécommande AR ou le suivi de la main, le regard et l'EMG suffisent-ils pour la saisie ? Qu'est-ce qui est intuitif, sans frottement, familier et utile ?

"Plutôt que de considérer la rondelle comme une simple pierre, nous nous sommes demandé ce que nous pouvions apporter de plus pour la différencier des téléphones et justifier les raisons pour lesquelles vous voudriez la porter", reconnaît M. Resman. "Sa puissance de calcul brute et son design pratique (qui a permis de créer un format de lunettes que l'on peut porter toute la journée) offrent-ils une valeur suffisante ? C'est notre travail d'aider à répondre à ces questions".

"Très tôt, nous avons changé de cap pour nous concentrer sur ce que nous pouvions faire et qu'un téléphone ne pouvait pas faire", ajoute M. Van Cleave. "Les téléphones doivent avoir un écran, ils doivent avoir une certaine disposition physique des boutons que les utilisateurs attendent. Nous n'avons pas ces contraintes. Notre puck de calcul peut être ce que nous voulons".


Pour plus d'informations sur Orion, consultez ces articles de blog :

Publié le - Laisser un commentaire

Orion : Les vraies lunettes AR sont arrivées

TL;DR :

  • Aujourd'hui à ConnecterMark Zuckerberg a dévoilé Orion, notre première paire de véritables lunettes de réalité augmentée, dont le nom de code était auparavant Projet Nazare.
  • Avec un champ de vision inégalé dans l'industrie, lentilles en carbure de siliciumOrion est notre prototype de produit le plus avancé et le plus abouti à ce jour, avec ses guides d'ondes complexes, ses projecteurs uLED et bien d'autres choses encore.
  • Aujourd'hui, nous poursuivons l'optimisation des produits et la réduction des coûts en vue de créer un appareil grand public évolutif qui révolutionnera la façon dont les gens interagissent avec le monde.

"Nous construisons des lunettes AR.

Cinq mots simples, parlé il y a cinq ans. Avec eux, nous avons planté un drapeau sur notre vision d'un avenir où nous n'aurons plus à faire le faux choix entre un monde d'informations au bout de nos doigts et le monde physique qui nous entoure.

Et aujourd'hui, cinq ans plus tard, cinq autres mots qui devraient à nouveau changer la donne :

Nous avons construit des lunettes AR.

https://youtube.com/watch?v=2CJsnyS8u3c%3Fsi%3DTr77gOKEq3PnA7-k%26controls%3D0%3Fautoplay%3D0%26color%3Dwhite%26cc_lang_pref%3Den%26cc_load_policy%3D0%26enablejsapi%3D1%26frameborder%3D0%26hl%3Den%26rel%3D0%26origin%3Dhttps%253A%252F%252Fwww.meta.com

Chez Meta, notre mission est simple : donner aux gens le pouvoir de construire une communauté et de rapprocher le monde. Et à Reality Labs, nous créons des outils qui aident les gens à se sentir connectés à tout moment et en tout lieu. C'est pourquoi nous travaillons à la construction de la prochaine plateforme informatique qui place les personnes au centre afin qu'elles puissent être plus présentes, connectées et autonomes dans le monde.

Lunettes Ray-Ban Meta ont démontré qu'il était possible de donner aux gens un accès mains libres aux éléments clés de leur vie numérique à partir de leur vie physique. Nous pouvons parler à un assistant intelligent, nous connecter avec nos amis et immortaliser les moments importants, le tout sans avoir à sortir notre téléphone. Ces lunettes élégantes s'intègrent parfaitement dans notre vie quotidienne, et les gens les adorent.

Pourtant, si Ray-Ban Meta a ouvert une toute nouvelle catégorie de lunettes sans écran suralimentées par l'IA, l'industrie du XR rêve depuis longtemps de véritables lunettes AR, un produit qui combine les avantages d'un grand écran holographique et d'une assistance personnalisée de l'IA dans un facteur de forme confortable, élégant et portable tout au long de la journée.

Et aujourd'hui, nous avons rapproché ce rêve de la réalité en dévoilant OrionNous pensons qu'il s'agit de la paire de lunettes de réalité augmentée la plus avancée jamais fabriquée. En fait, il pourrait s'agir de l'appareil électronique grand public le plus ambitieux jamais produit depuis le smartphone. Orion est le résultat d'inventions révolutionnaires dans pratiquement tous les domaines de l'informatique moderne. le travail que nous effectuons à Reality Labs depuis une dizaine d'années. Il est doté de technologies entièrement nouvelles, notamment l'écran AR le plus avancé jamais assemblé et le système d'affichage AR le plus perfectionné. silicium sur mesure qui permet de réaliser de puissantes expériences de réalité augmentée sur une paire de lunettes en utilisant une fraction de la puissance et du poids d'un casque de réalité augmentée.

Le système d'entrée d'Orion combine de manière transparente la voix, le regard et le suivi de la main avec un système d'affichage à l'écran. Bracelet EMG qui vous permet de glisser, cliquer et faire défiler tout en gardant votre bras confortablement posé à côté de vous, ce qui vous permet de rester présent dans le monde et avec les personnes qui vous entourent lorsque vous interagissez avec un contenu numérique riche.

À partir d'aujourd'hui à Connect et tout au long de l'année, nous ouvrons l'accès à notre prototype de produit Orion aux employés de Meta et à des publics externes sélectionnés afin que notre équipe de développement puisse apprendre, itérer et construire notre ligne de produits de lunettes AR grand public, que nous prévoyons de commencer à expédier dans un avenir proche.

Pourquoi des lunettes AR ?

Il y a trois raisons principales pour lesquelles les lunettes AR sont essentielles pour débloquer le prochain grand saut dans l'informatique orientée vers l'homme.

  1. Ils permettent des expériences numériques qui ne sont pas limitées par l'écran d'un smartphone. Avec les grands écrans holographiques, vous pouvez utiliser le monde physique comme toile, en plaçant des contenus et des expériences en 2D et en 3D où vous le souhaitez.
  2. Ils intègrent de manière transparente une IA contextuelle capable de percevoir et de comprendre le monde qui vous entoure afin d'anticiper vos besoins et d'y répondre de manière proactive.
  3. Ils sont légers et conviennent aussi bien à l'intérieur qu'à l'extérieur. Ils permettent aux gens de voir le vrai visage, les vrais yeux et les vraies expressions de l'autre.

C'est l'étoile polaire vers laquelle notre industrie s'est orientée : un produit combinant la commodité et l'immédiateté des dispositifs portables avec un grand écran, une entrée à large bande passante et une IA contextualisée dans un facteur de forme que les gens se sentent à l'aise de porter dans leur vie quotidienne.

Facteur de forme compact, défis complexes

Pendant des années, nous avons été confrontés à un faux choix : soit des casques de réalité virtuelle et mixte qui permettent des expériences immersives profondes dans un format encombrant, soit des lunettes qui sont idéales pour une utilisation tout au long de la journée mais qui n'offrent pas d'applications et d'expériences visuelles riches en raison de l'absence d'un grand écran et de la puissance de calcul correspondante.

Mais nous voulons tout cela, sans compromis. Depuis des années, nous travaillons d'arrache-pied pour intégrer les incroyables expériences spatiales offertes par les casques de RV et de RM et miniaturiser la technologie nécessaire pour offrir ces expériences dans une paire de lunettes légères et élégantes. Réussir le facteur de forme, fournir des affichages holographiques, développer des expériences AR convaincantes et créer de nouveaux paradigmes d'interaction homme-machine (HCI) - et tout cela dans un seul produit cohésif - est l'un des défis les plus difficiles que notre industrie ait jamais eu à relever. Le défi était tel que nous pensions avoir moins de 10 % de chances d'y parvenir.

Jusqu'à présent.

Un écran révolutionnaire dans un format inégalé

Avec un angle de vue d'environ 70 degrés, Orion offre le plus grand champ de vision dans le plus petit format de lunettes AR à ce jour. Ce champ de vision permet de débloquer des cas d'utilisation véritablement immersifs pour Orion, depuis les fenêtres multitâches et les divertissements sur grand écran jusqu'aux hologrammes de personnes grandeur nature - tous les contenus numériques pouvant se fondre de manière transparente dans votre vision du monde physique.

Pour Orion, le champ de vision était notre graal. Nous nous heurtions aux lois de la physique et devions courber les faisceaux de lumière d'une manière qui n'est pas naturelle, et nous devions le faire dans une enveloppe de puissance mesurée en milliwatts.

Au lieu du verre, nous avons fabriqué les lentilles en carbure de silicium-une nouvelle application pour les lunettes AR. Carbure de silicium est incroyablement léger, il n'entraîne pas d'artefacts optiques ni de lumière parasite, et son indice de réfraction est élevé - toutes les propriétés optiques qui sont essentielles pour obtenir un grand champ de vision. Les guides d'ondes eux-mêmes sont dotés de structures 3D nanométriques vraiment complexes pour diffracter ou diffuser la lumière de la manière nécessaire à l'obtention de ce champ de vision. Enfin, les projecteurs sont des uLED, un nouveau type de technologie d'affichage super petit et extrêmement économe en énergie.

Orion est indéniablement une paire de lunettes, tant au niveau de l'aspect que du toucher, avec des verres transparents. Contrairement aux casques MR ou aux autres lunettes AR actuelles, vous pouvez toujours voir les yeux et les expressions réelles des autres, afin d'être présent et de partager l'expérience avec les personnes qui vous entourent. Des dizaines d'innovations ont été nécessaires pour parvenir à un design industriel qui permette de porter des lunettes contemporaines tous les jours. Orion est une prouesse de miniaturisation : les composants sont réduits à une fraction de millimètre. Nous avons réussi à intégrer sept minuscules caméras et capteurs dans les bords de la monture.

Nous avons dû maintenir la précision optique à un dixième de l'épaisseur d'un cheveu humain. Le système peut détecter d'infimes mouvements, comme la dilatation ou la contraction des cadres en fonction de la température ambiante, puis corriger numériquement l'alignement optique nécessaire, le tout en l'espace de quelques millisecondes. Nous avons fabriqué les montures en magnésium - le même matériau que celui utilisé dans les voitures de course de F1 et les engins spatiaux - parce qu'il est à la fois léger et rigide, qu'il maintient les éléments optiques dans l'alignement et qu'il évacue efficacement la chaleur.

Chauffage et refroidissement

Une fois que nous avons percé l'écran (sans jeu de mots) et surmonté les problèmes de physique, nous avons dû relever le défi d'un calcul très puissant associé à une consommation d'énergie très faible et à la nécessité d'une dissipation de la chaleur. Contrairement aux casques MR actuels, il n'est pas possible d'insérer un ventilateur dans une paire de lunettes. Nous avons donc dû faire preuve de créativité. Une grande partie des matériaux utilisés pour refroidir Orion sont similaires à ceux utilisés par la NASA pour refroidir les satellites dans l'espace.

Nous avons construit silicium sur mesure hautement spécialisé qui est extrêmement économe en énergie et optimisé pour nos algorithmes d'IA, de perception de la machine et de graphisme. Nous avons construit plusieurs puces personnalisées et des dizaines de blocs de propriété intellectuelle en silicium hautement personnalisés à l'intérieur de ces puces. Cela nous permet de réduire à quelques dizaines de milliwatts les algorithmes nécessaires au suivi des mains et des yeux, ainsi que la technologie de localisation et de cartographie simultanées (SLAM) qui consomme normalement des centaines de milliwatts d'énergie et génère donc une quantité correspondante de chaleur.

Et oui, le silicium personnalisé continue de jouer un rôle essentiel dans le développement des produits chez Reality Labs, malgré ce que vous avez pu lire ailleurs. 😎

EMG sans effort

Chaque nouvelle plate-forme informatique apporte avec elle un changement de paradigme dans la manière dont nous interagissons avec nos appareils. L'invention de la souris a ouvert la voie aux interfaces utilisateur graphiques (IUG) qui dominent notre monde aujourd'hui, et les smartphones n'ont commencé à s'imposer qu'avec l'avènement de l'écran tactile. La même règle s'applique aux produits portables.

Nous avons parlé de notre travail avec l'électromyographie, ou EMGDepuis des années, nous sommes convaincus que la saisie pour les lunettes de réalité augmentée doit être rapide, pratique, fiable, subtile et socialement acceptable. Aujourd'hui, ce travail est prêt pour le prime time.

Le système d'entrée et d'interaction d'Orion combine de manière transparente la voix, le regard et le suivi de la main avec un bracelet EMG qui vous permet de glisser, de cliquer et de faire défiler facilement.

Cela fonctionne et donne l'impression d'être magique. Imaginez que vous preniez une photo pendant votre jogging matinal d'un simple effleurement du bout des doigts ou que vous naviguiez dans les menus avec des mouvements à peine perceptibles de vos mains. Notre bracelet associe un textile haute performance à des capteurs EMG intégrés pour détecter les signaux électriques générés par les moindres mouvements musculaires. Un processeur ML intégré à l'appareil interprète ensuite ces signaux EMG pour produire des événements d'entrée qui sont transmis sans fil aux lunettes. Le système s'adapte à vous, de sorte qu'il devient de plus en plus capable de reconnaître les gestes les plus subtils au fil du temps. Aujourd'hui, nous vous en disons plus sur le soutien que nous apportons à la recherche externe dans les domaines suivants développer le potentiel d'équité et d'accessibilité des bracelets EMG.

Présentation de l'unité de calcul sans fil (Wireless Compute Puck)

Les véritables lunettes de réalité augmentée doivent être sans fil et de petite taille.Nous avons donc construit un Palette de calcul sans fil pour Orion. Il décharge les lunettes d'une partie de la charge, ce qui permet d'augmenter l'autonomie de la batterie et d'obtenir un meilleur facteur de forme avec une faible latence.

Les lunettes exécutent tous les algorithmes de suivi des mains, de suivi des yeux, de SLAM et de verrouillage du monde AR spécialisé, tandis que la logique de l'application s'exécute sur le puck pour que les lunettes soient aussi légères et compactes que possible.

La rondelle est dotée de deux processeurs, dont un conçu sur mesure par Meta, et fournit la puissance de calcul nécessaire au rendu graphique à faible latence, à l'intelligence artificielle et à certaines autres perceptions de la machine.

Et comme il est petit et élégant, vous pouvez le glisser confortablement dans un sac ou dans votre poche et vaquer à vos occupations, sans aucune contrainte.

Expériences de RA

Bien entendu, comme pour tout matériel, sa qualité dépend de ce que vous pouvez en faire. faire avec elle. Et bien qu'il soit encore tôt, les expériences offertes par Orion sont un aperçu excitant de ce qui est à venir.

https://youtube.com/watch?v=HkdSv3QPhNw%3F%26controls%3D0%3Fautoplay%3D0%26color%3Dwhite%26cc_lang_pref%3Den%26cc_load_policy%3D0%26enablejsapi%3D1%26frameborder%3D0%26hl%3Den%26rel%3D0%26origin%3Dhttps%253A%252F%252Fwww.meta.com

Nous avons notre assistant intelligent, Meta AIqui fonctionne sur Orion. Il comprend ce que vous regardez dans le monde physique et peut vous aider avec des visualisations utiles. Orion utilise le même modèle Llama qui alimente les expériences d'intelligence artificielle fonctionnant aujourd'hui sur les lunettes intelligentes Ray-Ban Meta, ainsi que des modèles de recherche personnalisés pour démontrer les cas d'utilisation potentiels pour le développement futur des wearables.

Vous pouvez passer un appel vidéo mains libres en déplacement pour prendre des nouvelles de vos amis et de votre famille en temps réel, et vous pouvez rester connecté sur WhatsApp et Messenger pour consulter et envoyer des messages. Plus besoin de sortir votre téléphone, de le déverrouiller, de trouver la bonne application et de faire savoir à votre ami que vous êtes en retard pour le dîner - vous pouvez le faire avec vos lunettes.

https://youtube.com/watch?v=el7lUVvu8Bo%3F%26controls%3D0%3Fautoplay%3D0%26color%3Dwhite%26cc_lang_pref%3Den%26cc_load_policy%3D0%26enablejsapi%3D1%26frameborder%3D0%26hl%3Den%26rel%3D0%26origin%3Dhttps%253A%252F%252Fwww.meta.com

Vous pouvez jouer à des jeux AR partagés avec votre famille à l'autre bout du pays ou avec votre ami de l'autre côté du canapé. Le grand écran d'Orion vous permet de faire du multitâche avec plusieurs fenêtres et d'accomplir des tâches sans avoir à transporter votre ordinateur portable.

Les expériences disponibles sur Orion aujourd'hui aideront à tracer la feuille de route de notre gamme de lunettes AR grand public à l'avenir. Nos équipes continueront d'itérer et de construire de nouvelles expériences sociales immersives, aux côtés de nos partenaires développeurs, et nous sommes impatients de partager la suite.

Un prototype de produit utile

Orion ne se retrouvera pas entre les mains des consommateurs, mais il ne faut pas s'y tromper : Il s'agit d'un pas un prototype de recherche. C'est le prototype de produit le plus abouti que nous ayons jamais développé, et il est vraiment représentatif de ce que l'on attend de nous. pourrait aux consommateurs. Plutôt que de nous précipiter sur les étagères, nous avons décidé de nous concentrer d'abord sur le développement interne, ce qui nous permet de continuer à construire rapidement et de repousser les limites de la technologie et de l'expérience.

Cela signifie que nous parviendrons plus rapidement à un produit de consommation encore meilleur.

Ce qui vient ensuite

Deux obstacles majeurs se sont longtemps dressés sur la route des lunettes de réalité augmentée grand public : les percées technologiques nécessaires pour offrir un grand écran dans un format de lunettes compact et la nécessité de proposer des expériences de réalité augmentée utiles et convaincantes sur ces lunettes. Orion est une étape importante, car il offre pour la première fois de véritables expériences de réalité augmentée fonctionnant sur un matériel raisonnablement élégant.

Maintenant que nous avons partagé Orion avec le monde, nous nous concentrons sur quelques points :

  • Réglage de la qualité de l'affichage AR pour rendre les images encore plus nettes
  • Nous optimisons chaque fois que nous le pouvons le facteur de forme pour qu'il soit encore plus petit.
  • Construire à l'échelle pour les rendre plus abordables

Au cours des prochaines années, vous pouvez vous attendre à voir apparaître de nouveaux appareils qui s'appuient sur nos efforts de recherche et de développement. Un certain nombre d'innovations d'Orion ont été étendues à nos produits de consommation actuels ainsi qu'à notre future feuille de route. Nous avons optimisé certains de nos algorithmes de perception spatiale, qui fonctionnent à la fois sur le Meta Quest 3S et Orion. Bien que le système de saisie gestuelle subtile et du regard ait été conçu à l'origine pour Orion, nous prévoyons de l'utiliser dans de futurs produits. Nous étudions également la possibilité d'utiliser des bracelets EMG dans de futurs produits de consommation.

Orion n'est pas seulement une fenêtre sur l'avenir, c'est un regard sur les possibilités très réelles qui sont à notre portée aujourd'hui. Nous l'avons construit en poursuivant ce que nous faisons le mieux : aider les gens à se connecter. Des lunettes Ray-Ban Meta à Orion, nous avons constaté les avantages qu'il y a à permettre aux gens de rester plus présents et plus autonomes dans le monde physique, tout en profitant de toute la richesse que le monde numérique a à offrir.

Nous pensons que vous ne devriez pas avoir à choisir entre les deux. Et avec la prochaine plateforme informatique, vous n'aurez pas à le faire.


Pour plus d'informations sur Orion, consultez ces articles de blog :

Publié le - Laisser un commentaire

EgoMimic : Un doctorant de Georgia Tech utilise les lunettes de recherche du projet Aria pour former des robots humanoïdes

Aujourd'hui, nous mettons en lumière une nouvelle étude réalisée par Georgia Tech qui permet d'entraîner les robots à effectuer des tâches quotidiennes de base à l'aide d'enregistrements égocentriques effectués par les porteurs du système Meta. Projet Aria lunettes de recherche. Regardez la vidéo ci-dessous, lisez l'article complet, ou demandez votre propre kit de recherche du projet Aria.

Imaginez que vous puissiez bénéficier d'une aide pour accomplir les tâches quotidiennes dans votre maison, comme faire la lessive, la vaisselle et les réparations. Nous utilisons déjà des outils pour nous aider dans ces tâches, comme les lave-linge, les lave-vaisselle et les perceuses électriques. Mais que se passerait-il si vous pouviez disposer d'un outil encore plus puissant et flexible sous la forme d'un robot humanoïde capable d'apprendre de vous et d'accélérer n'importe quel projet physique figurant sur votre liste de choses à faire ?

Même si vous disposiez du matériel nécessaire, apprendre à un robot à effectuer des tâches quotidiennes ne peut se faire qu'au moyen d'une méthode de collecte de données lente et encombrante, appelée téléopération robotique. Jusqu'à aujourd'hui. En utilisant le Kit de recherche du projet AriaLe professeur Danfei Xu et le Laboratoire d'apprentissage et de raisonnement robotique à Georgia Tech utilisent les capteurs égocentriques des lunettes Aria pour créer ce qu'ils appellent des "données humaines" pour les tâches qu'ils veulent qu'un robot humanoïde reproduise. Ils utilisent les données humaines pour réduire considérablement la quantité de données de téléopération nécessaires pour former la politique d'un robot - une avancée qui pourrait un jour rendre les robots humanoïdes capables d'apprendre n'importe quel nombre de tâches qu'un humain pourrait démontrer.

Kareer téléopère le robot pour capturer des données de coformation pour EgoMimic. La téléopération peut être difficile à mettre à l'échelle et nécessiter un effort humain important.

"Traditionnellement, la collecte de données pour la robotique implique la création de données de démonstration", explique Simar Kareer, doctorant au sein de l'unité de recherche en robotique de Georgia Tech. École d'informatique interactive. "Vous actionnez les articulations du robot à l'aide d'un contrôleur pour le déplacer et accomplir la tâche que vous souhaitez, et vous faites cela des centaines de fois tout en enregistrant les données des capteurs, puis vous entraînez vos modèles. C'est lent et difficile. Le seul moyen de rompre ce cycle est de séparer la collecte des données du robot lui-même."

Aujourd'hui, les modèles de politique des robots sont formés à l'aide de grandes quantités de données de démonstration ciblées, spécifiques à chaque tâche étroite, à un coût élevé. Kareer émet l'hypothèse que les données collectées passivement par de nombreux chercheurs, comme les données capturées par les lunettes Aria, pourraient être utilisées pour permettre la création de données pour un ensemble beaucoup plus large de tâches afin de créer des robots plus généralement utiles à l'avenir.

Inspiré par Projet Aria et Ego-Exo4D qui comprend un ensemble de données égocentriques massives de plus de 3 000 heures d'enregistrements vidéo d'activités de la vie quotidienne, Kareer a développé EgoMimicUn nouveau cadre algorithmique qui utilise les données humaines et les données du robot pour le développement de robots humanoïdes.

"Lorsque j'ai regardé Ego4D, j'ai vu un ensemble de données identique à tous les grands ensembles de données robotiques que nous essayons de collecter, sauf qu'il s'agit d'êtres humains", explique M. Kareer. "Il suffit de porter une paire de lunettes et de faire des choses. Il n'est pas nécessaire que les données proviennent du robot. Elles doivent provenir de quelque chose de plus évolutif et de plus passif, c'est-à-dire de nous. Dans la recherche de Kareer, les lunettes Aria ont été utilisées pour créer des données humaines afin de coformer le cadre EgoMimic.

Kareer crée des données humaines de coformation en enregistrant avec les lunettes Aria tout en pliant un t-shirt.

Les lunettes Aria ne sont pas seulement utilisées pour la collecte de données humaines dans le cadre des recherches de Georgia Tech. Elles font également partie intégrante de la configuration des opérations en temps réel du robot. Les lunettes Aria sont montées sur la plateforme du robot humanoïde comme une paire d'yeux et servent de capteur intégré permettant au robot de percevoir son environnement en temps réel. Le SDK client Aria est utilisé pour transmettre les données des capteurs Aria directement à la politique du robot, exécutée sur un PC connecté, qui à son tour contrôle l'actionnement du robot. L'utilisation des lunettes Aria pour la collecte de données et le pipeline de perception en temps réel minimise l'écart de domaine entre le démonstrateur humain et le robot, ce qui ouvre la voie à la génération de données humaines à grande échelle pour la formation aux tâches robotiques futures.

Les lunettes Aria montées sur le dessus du robot fournissent au système des données de capteurs qui permettent au robot de percevoir l'espace et d'interagir avec lui.

Grâce à EgoMimic, Kareer a augmenté de 400% les performances de son robot dans diverses tâches par rapport aux méthodes précédentes, avec seulement 90 minutes d'enregistrements Aria. Le robot a également été en mesure d'effectuer avec succès ces tâches dans des environnements inédits.

À l'avenir, les robots humanoïdes pourraient être formés à grande échelle à l'aide de données égocentriques afin d'effectuer une variété de tâches de la même manière que les humains.

"Nous considérons Aria comme un investissement dans la communauté des chercheurs", déclare James Fort, chef de produit Reality Labs Research chez Meta. "Plus la communauté de recherche égocentrique se standardise, plus les chercheurs pourront collaborer. C'est vraiment en s'appuyant sur la communauté de cette manière que nous pouvons commencer à résoudre des problèmes plus importants sur la façon dont les choses vont fonctionner à l'avenir.

Kareer présentera son article sur EgoMimic lors de la conférence de l 2025 Conférence internationale des ingénieurs de l'IEEE sur la robotique et l'automatisation (ICRA) à Atlanta.

Publié le - Laisser un commentaire

Présentation de l'Aria Gen 2 : débloquer de nouvelles recherches sur la perception des machines, l'IA contextuelle, la robotique, etc.

Depuis son lancement en 2020, Projet Aria a permis à des chercheurs du monde entier de faire progresser l'état de l'art en matière de perception des machines et d'IA, grâce à l'accès à du matériel de recherche de pointe et à des logiciels libres. ensembles de donnéesNous avons mis au point de nouveaux produits, modèles et outils. Aujourd'hui, nous sommes heureux d'annoncer la prochaine étape de ce voyage : l'introduction des lunettes Aria Gen 2. Cette nouvelle génération de matériel ouvrira de nouvelles possibilités dans un large éventail de domaines de recherche, notamment la perception des machines, l'IA égocentrique et contextuelle, et la robotique.

0:00 / 0:00

Pour les chercheurs qui cherchent à savoir comment les systèmes d'IA peuvent mieux comprendre le monde d'un point de vue humainLes lunettes Aria Gen 2 ajoutent un nouvel ensemble de capacités à la plateforme Aria. Elles comprennent un certain nombre d'avancées que l'on ne trouve sur aucun autre dispositif disponible aujourd'hui, et l'accès à ces technologies révolutionnaires permettra aux chercheurs de repousser les limites du possible.

Par rapport à Aria Gen 1, la proposition de valeur unique d'Aria Gen 2 comprend les éléments suivants :

  • Ensemble de capteurs à la pointe de la technologie : La suite de capteurs améliorée comprend une caméra RVB, des caméras SLAM 6DOF, des caméras de suivi des yeux, des microphones spatiaux, des IMU, un baromètre, un magnétomètre et un GNSS. Par rapport à son prédécesseur, Aria Gen 1, la nouvelle génération introduit deux capteurs innovants intégrés dans la plaquette nasale : un capteur PPG pour mesurer la fréquence cardiaque et un microphone de contact pour distinguer la voix du porteur de celle des passants.
  • Perception de la machine sur l'appareil et à très faible consommation d'énergie : Le SLAM, le suivi des yeux, le suivi des mains et la reconnaissance vocale sont tous traités sur l'appareil à l'aide du silicium personnalisé de Meta.
  • Facilité d'utilisation tout au long de la journée : Les lunettes Aria Gen 2 peuvent être utilisées pendant six à huit heures en continu, pèsent environ 75 grammes et sont dotées de branches pliables pour faciliter leur transport.
  • Interaction par le biais de l'audio : Les utilisateurs bénéficient d'un retour d'information audio grâce à des haut-parleurs ouverts à réduction de force, les meilleurs de leur catégorie, ce qui permet le prototypage de systèmes dans la boucle de l'utilisateur.

Notre un voyage d'une dizaine d'années pour créer la prochaine plateforme informatique a conduit au développement de ces technologies critiques. Chez Meta, les équipes de Reality Labs Research et du laboratoire FAIR AI les utiliseront pour faire progresser notre vision de la recherche à long terme.. En les mettant à la disposition des laboratoires de recherche universitaires et commerciaux dans le cadre du projet Aria, nous ferons progresser la recherche ouverte et la compréhension par le public d'un ensemble clé de technologies qui, selon nous, contribueront à façonner l'avenir de l'informatique et de l'intelligence artificielle.

La recherche ouverte rendue possible par le projet Aria depuis 2020 a déjà donné lieu à des travaux importants, notamment la création d'outils à code source ouvert largement utilisés dans le monde universitaire et dans l'industrie. Le projet Ensemble de données Ego-Exo4DLa vision artificielle, collectée à l'aide de la première génération de lunettes Aria, est devenue un outil fondamental pour la vision par ordinateur moderne et le domaine en pleine expansion de la robotique. Des chercheurs de Georgia Tech ont récemment montré comment le kit de recherche Aria peut être utilisé dans le domaine de la vision par ordinateur. aider les robots humanoïdes à apprendre à aider les gens à la maison, tandis que les équipes de BMW l'a utilisé pour étudier comment intégrer des systèmes de réalité augmentée et virtuelle dans les véhicules intelligents.

Aria permet également le développement de nouvelles technologies pour l'accessibilité. Les lunettes Aria de première génération ont été utilisées par L'Université Carnegie Mellon dans son projet NavCogqui visait à mettre au point des technologies pour aider les personnes aveugles et malvoyantes à naviguer à l'intérieur des bâtiments. S'appuyant sur cette base, les lunettes Aria Gen 2 sont maintenant utilisées par EnvisagerEnvision est une société qui se consacre à la création de solutions pour les personnes aveugles ou malvoyantes. Envision étudie la possibilité d'intégrer ses Allié L'assistant AI et l'audio spatial utilisent les dernières lunettes Aria Gen 2 pour améliorer la navigation en intérieur et les expériences d'accessibilité.

0:00 / 0:00

Envision a utilisé les capacités SLAM de l'Aria Gen 2, ainsi que des fonctions audio spatiales via des haut-parleurs intégrés, pour aider les personnes aveugles et malvoyantes à naviguer de manière transparente dans les environnements intérieurs. Cette utilisation innovante des technologies, qui en est encore à la phase exploratoire et de recherche, illustre la manière dont les chercheurs peuvent exploiter les lunettes Aria Gen 2 pour prototyper des expériences d'IA basées sur des observations égocentriques. Les capteurs avancés et les capacités de perception de la machine sur l'appareil, y compris le SLAM, le suivi des yeux, le suivi des mains et les interactions audio, les rendent également idéales pour la collecte de données dans le cadre de la recherche et des applications robotiques.

Au cours des prochains mois, nous donnerons plus de détails sur le calendrier de mise à disposition des appareils aux partenaires. Les chercheurs intéressés par l'accès à l'Aria Gen 2 peuvent s'inscrire pour recevoir les mises à jour. Nous sommes impatients de voir comment les chercheurs exploiteront Aria Gen 2 pour ouvrir la voie à de futures innovations qui façonneront la prochaine plateforme informatique.

Publié le - Laisser un commentaire

Ray-Ban Meta - Style et technologie en un seul cadre

Ray-Ban has been an iconic name in eyewear fashion for decades. But in collaboration with Meta (formerly Facebook), they’ve launched a product that pushes boundaries – the Ray-Ban Meta smart glasses. This fusion of classic design with modern technology offers a unique experience for both fashion enthusiasts and tech lovers.

At First Glance: Classic with a Twist

At first look, they seem like classic Ray-Bans – elegant black frames, premium craftsmanship, and a stylish eco-leather case. But take a closer look and you’ll realize they hide more than just style – they’re glasses with a built-in camera, microphone, speakers, and smartphone connectivity.

What Can Ray-Ban Meta Do?

  • Video and photo capture: A discreet camera on the frame lets you capture the world from your point of view – hands-free.
  • Music and calls: With built-in directional speakers and microphones, you can take calls or listen to music without earbuds.
  • Sync with the Meta View app: Everything you record syncs automatically to the app, ready to be shared on your socials.
  • Voice control: Thanks to voice assistant support, you can control your glasses with simple voice commands – ideal for driving, sports, or on-the-go use.

Who Are They For?

Ray-Ban Meta glasses are perfect for content creators, influencers, travelers, or anyone who wants to capture moments without pulling out their phone. They’re also great for business use – ideal for quick documentation, live streams, or mobile video calls.

Final Verdict: Smart Elegance Without Compromise

If you’re looking for eyewear that blends classic fashion with top-tier technology, Ray-Ban Meta is the clear choice. They’re not just a stylish accessory – they’re smart glasses that redefine how we see and capture the world around us.

Publié le - Laisser un commentaire

Meta View Is Now the Meta AI App: Here’s What’s New & What Stays the Same

An important update for Lunettes Ray-Ban Meta owners today: The Meta View app is now the Meta AI app on iOS et Android. Along with a new name, your AI glasses companion app is getting an upgrade, with new features to make your experience more fun, useful, and personal than ever before. We’re here to walk you through the changes. But rest assured, the core features you’ve come to know will stay the same.

Glasses have emerged as the most exciting new hardware category of the AI era with Ray-Ban Meta glasses leading the way in defining what’s possible. We’re excited to bring the same voice experiences that have made our glasses so popular to more surfaces like the Meta AI app.

Friendly & Familiar

While the Meta AI app has a new name and look, it’s still the companion app for the Ray-Ban Meta glasses you know and love. The existing photos and videos you’ve captured with your glasses, device settings, and features you’re familiar with from Meta View are still available in the new app. We’re also automatically migrating your existing media and device settings from Meta View to the Meta AI app, so you won’t miss a beat. And just like we rolled out in our last update, you can use the Meta AI app to pair and manage up to seven pairs of glasses.

An All-In-One Companion App

New to Ray-Ban Meta glasses? The Meta AI app is your all-in-one companion to set up and manage your device. You can import, view, and share the photos and videos captured with your AI glasses directly from the app. You’ll also use the Meta AI app to configure your settings, update your software, and manage privacy options. You can set up voice commands from the app, so you can use your glasses hands-free, and even adjust your camera settings.

By integrating Meta AI and all that it offers into the companion app, we’re leveling up your Ray-Ban Meta glasses experience. You can get creative with the photos from your glasses directly in the Meta AI app—after importing your photos, ask Meta AI in the app to add, remove, or change parts of the image.

Checking out a new city? Ask Meta AI to tell you more about a local landmark. You can access and manage saved memories to improve your personalized responses from Meta AI on the app and your glasses over time. You can also start a conversation with Meta AI on your Ray-Ban Meta glasses, then access it in your history tab from the app to pick up where you left off.

New & Notable Features in the App

The Meta AI app was designed to help you find inspiration and get the most out of your glasses.

La nouvelle Discover feed lets you see how other people are using AI to get things done. It’s a great way to find new ideas. Recycle a clever prompt or remix it to make it your own. And as always, you’re in control: Your conversations with Meta AI are not public unless you choose to share them to the feed.

While speaking with AI using your voice isn’t new, we’re using Llama 4 in the Meta AI app to bring you responses that feel more personal, relevant, and conversational. The experience integrates with other features like image generation and editing, which can now all be done through a voice or text conversation with your AI assistant in the app.

We’ve also included a demo of a voice experience we’re building that’s full-duplex speech technology, that you can toggle on and off to test in the Meta AI app. This feature doesn’t have access to real-time information, so you may encounter technical issues or inconsistencies. We’ll continue to gather feedback to improve it over time.

And to make it easier to multitask, you can also continue to use Meta AI’s voice features while doing other things on your phone, with a visible icon to let you know when the microphone is in use.

Voice conversations in the Meta AI app, including the full duplex demo, are available in the US, Canada, Australia, and New Zealand to start.* To learn more about how you can manage your experience on the Meta AI app and toggle between modes, visit our centre d'assistance.

Intelligence for You

The Meta AI app uses Llama 4 to help you solve problems, move throughout your day easier, and better understand the world around you. And with the ability to search across the web, it can help you get recommendations, deep dive on a topic, and stay connected with your friends and family.

We’re using our decades of experience personalizing people’s experiences on our platforms to make Meta AI more personal. You can tell Meta AI to remember specific details about you (like that you love to travel and learn new languages), and it can pick up important details from context cues. Meta AI also delivers more relevant answers to your questions by drawing on information you’ve already chosen to share on Facebook and Instagram (if they’re added to the same Accounts Center), like profile details and content you like or engage with. Personalized responses are available today in the US and Canada.

We’re Just Getting Started

This is the first version of the Meta AI app, and we plan to iterate and improve it over time. Meta AI is built to get to know you, so its answers are more helpful. It’s easy to talk to, so it’s more seamless and natural to interact with. And it’s more connected, so it can share things from the people and places you care about.

Give it a try today on iOS ou Androidet learn more about the new and improved Meta AI.

*Voice conversations in New Zealand available in-app only, not on Ray-Ban Meta glasses.

Publié le - Laisser un commentaire

Fashion Forward: Amelia Gray Spotted in Ray-Ban Meta Glasses on the Met Gala Red Carpet

High couture took center stage last night on the first Monday in May. And you may have spotted some familiar fashion-forward tech on the proverbial red carpet. As part of her custom lookAmelia Gray sported a pair of Lunettes Ray-Ban Meta.

CREDIT: Getty Images Entertainment

The AI glasses—Shiny Black Skyler frames with Polarized Green sun lenses—were the perfect accessory to capture photos and videos throughout the day while also helping her get ready. From taking calls hands-free and listening to music or a podcast to getting answers from Meta AI on the fly, Ray-Ban Meta glasses make any pre-event routine anything but.

This isn’t the first time our AI glasses have gone high fashion. Earlier this year, Gray debuted our sold-out Ray-Ban Meta x Coperni Limited Edition frames on the runway at Paris Fashion Week. Ray-Ban Meta glasses are fashion’s most useful tech-accessory, gaining traction among editors, stylists, and models from the pages of magazines to the runway—and now on the red carpet of fashion’s biggest night of the year.

“I’m still radiating from the night!” said Amelia Gray. “And to know that I will be able to relive so many of those special moments from my own perspective is truly surreal. It’s an entirely new way to experience and share these once-in-a-lifetime moments, and I couldn’t be more excited to be part of Ray-Ban Meta’s Met Gala debut. ”

Inside the event, Gray was joined by Charli XCX, Jeff Goldblum, Jenna Ortega, Kim Kardashian, Nicki Minaj, Rosé, Shaboozey, and Taraji P. Henson as guests at Instagram’s table along with Adam Mosseri and Eva Chen.

Photographer: Quil Lemons

And off the carpet, Instagram et Fils hosted a number of icons who are driving the cultural conversation forward at The Mark Hotel for our 5th annual Watch Party. More than 50 creators and pop culture and fashion commentators gathered to watch the red carpet arrivals and share real-time looks on Instagram and Threads.

CREDIT: Huy Luong

Styles may come and go, but fashion is forever. And the future of AI glasses is looking bright.

Publié le - Laisser un commentaire

New Ray-Ban | Meta Smart Glasses Styles and Meta AI Updates

00:00

00:30

A retenir

  • We’re expanding the Ray-Ban Meta smart glasses collection with new styles.
  • We’re adding video calling with WhatsApp and Messenger to share your view on a video call. 
  • We’re rolling out Meta AI with Vision, so you can ask your glasses about what you’re seeing and get helpful information — completely hands-free. 

Our second-generation smart glasses, in partnership with EssilorLuxottica, have been flying off the shelves — they’re selling out faster than we can make them. And just in time for sunglasses season, we’re expanding the Ray-Ban Meta smart glasses collection with new styles designed to fit more face shapes so you can find the perfect pair. We’re also adding new features, including updates to Meta AI, to make the glasses even more useful.

A Frame for Every Face

Looking for a vintage vibe? Our new Skyler frames feature a cat eye design inspired by an era of iconic jet-set style, designed to suit smaller faces. 

We’re also adding a new low bridge option for our Headliner frames. If your glasses tend to slide down your nose, sit too low on your face or press on your cheeks, this is the fit for you. 

There are hundreds of different custom frame and lens combinations on the Ray-Ban Remix platform, so you can mix and match to make the glasses your own on ray-ban.com. And our new styles are designed to be prescription lens compatible. Skyler and the new Headliner low bridge fit are available for pre-order now on meta.com et ray-ban.com. These new styles are available in 15 countries, including the US, Canada, Australia, and throughout Europe.

Photo of 6 different pairs of Ray-Ban Meta frames

We’re also introducing the first limited-edition Ray-Ban Meta smart glasses in an exclusive Scuderia Ferrari colorway for Miami 2024. Ray-Ban Meta for Scuderia Limited Edition brings together the legacy of Ferrari, timeless Ray-Ban design and cutting-edge tech from Meta, available April 24, 2024.

Share Your View on a Video Call

From a breathtaking vista on a hike to experiencing your kid’s first steps, there are some moments in life that are just meant to be shared. That’s why we’re adding the ability to share your view on a video call via WhatsApp and Messenger, completely hands-free. 

Image showing hands-free video calling on Ray-Ban Meta smart glasses - a father cooking with his child

At the grocery store and not sure which brand of kombucha to buy? Can’t tell if that pineapple is ripe? Now you can hop on a video call with your mom and get her advice based on what you see. Video calling on Ray-Ban Meta smart glasses is rolling out gradually, so if you don’t see the update right away, sit tight — it’s on the way!

Meta AI Makes Your Smart Glasses Even Smarter

From integrated audio to an ultra-wide 12 MP camera, Ray-Ban Meta smart glasses are jam-packed with tech. And in the US and Canada, you also get Meta AI — an intelligent assistant that helps you get things done, create and connect with the people and things you care about. Just say, “Hey Meta,” and ask away! You can control the glasses using voice commands, and thanks to Meta AI, even get access to real-time information.

We started testing a multimodal AI update in December, so you can ask your glasses about what you’re seeing, and they’ll give you smart, helpful answers or suggestions. That means you can do more with your glasses because now they can see what you see. Starting today, we’re rolling this functionality out to all Ray-Ban Meta smart glasses in the US and Canada in beta. 

Say you’re traveling and trying to read a menu in French. Your smart glasses can use their built-in camera and Meta AI to translate the text for you, giving you the info you need without having to pull out your phone or stare at a screen. 

Image showing a woman wearing Ray-Ban Meta smart glasses using Meta AI feature