Közzétéve az oldalon - Hozzászólás most!

Kristálytiszta: Szilícium-karbid hullámvezetőink és az Orion nagy FoV-je felé vezető út

0:00 / 0:00

Még 2019-ben a Orion csapat fontos bemutatót készített a Meta alapítója és vezérigazgatója, Mark Zuckerberg számára, bemutatva a lehetséges hullámvezetőket a kiterjesztett valóság szemüveg-a döntő pillanat, amikor a papíron lévő elméleti számítások életre keltek. És ez a bemutató mindent megváltoztatott.

"Az üveg alapú hullámvezetőkkel és több lemezzel ellátott szemüveg viselése olyan érzés volt, mintha egy diszkóban lennénk" - emlékszik vissza Pasqual Rivera optikus. "Mindenhol szivárványok voltak, és ez annyira elvonta a figyelmedet, hogy még csak nem is az AR-tartalmat nézted. Aztán felvetted a szemüveget a szilícium-karbid hullámvezetők, és olyan volt, mintha a szimfónián hallgatnánk egy csendes, klasszikus darabot. Tényleg odafigyelhettünk arra, hogy teljes mértékben átéljük azt, amit építünk. Ez teljesen megváltoztatta a játékot."

Bármennyire is egyértelműnek tűnik ma a szilícium-karbid mint szubsztrát választása, amikor először indultunk el a az AR szemüveghez vezető út egy évtizeddel ezelőtt, minden volt, csak nem az.

"A szilícium-karbid általában erősen nitrogénnel dúsított" - mondja Rivera. "Zöld színű, és ha elég vastag lesz, akkor feketének tűnik. Kizárt, hogy optikai lencsét lehetne belőle készíteni. Ez egy elektronikus anyag. Nem véletlenül ilyen a színe, mégpedig az elektronikus tulajdonságai miatt."

"A szilícium-karbid már régóta ismert anyag" - ért egyet Giuseppe Calafiore, az AR Waveguides műszaki vezetője. "Fő alkalmazási területe a nagy teljesítményű elektronika. Vegyük az elektromos járműveket: Minden elektromos járműnek szüksége van egy chipre - de ennek a chipnek nagyon nagy teljesítményre is képesnek kell lennie, mozgatnia kell a kerekeket, és meg kell hajtania ezt a dolgot. Kiderült, hogy a hagyományos szilícium hordozóval, amelyből a számítógépekben és az elektronikában használt chipek készülnek, ez nem lehetséges. Olyan platformra van szükséged, amely lehetővé teszi a nagy áramerősséget és a nagy teljesítményt, és ez az anyag a szilícium-karbid."

Amíg a megújuló energiaforrásokkal kapcsolatos viták nemrégiben fel nem pezsdültek, az ilyen nagy teljesítményű chipkészletek piaca meg sem közelítette a fogyasztói elektronikai chipek piacának méretét. A szilícium-karbid mindig is drága volt, és nem volt nagy ösztönzés a költségek csökkentésére, mivel az autóba szánt chipek méretéhez képest a hordozó ára elviselhető volt.

"De kiderült, hogy a szilícium-karbid is rendelkezik néhány olyan tulajdonsággal, amelyre a hullámvezetőkhöz és az optikához van szükségünk" - mondja Calafiore. "A törésmutató a legfontosabb tulajdonság, ami minket érdekel. A szilícium-karbidnak pedig magas a törésmutatója, ami azt jelenti, hogy képes nagy mennyiségű optikai adatot becsatornázni és kiadni. Ezt optikai sávszélességnek is nevezhetjük - hasonlóan az internet sávszélességéhez, amelyet elég nagynak kell lennie ahhoz, hogy nagy mennyiségű adatot tudjunk átküldeni a csatornán. Ugyanez vonatkozik az optikai eszközökre is."

Minél magasabb egy anyag törésmutatója, annál nagyobb a étendue, így több optikai adatot küldhet azon a csatornán keresztül.

"A mi esetünkben a csatorna a hullámvezetőnk, és a nagyobb étendue nagyobb látómezőt jelent" - magyarázza Calafiore. "Minél nagyobb egy anyag törésmutatója, annál nagyobb látómezőt tud támogatni a kijelző."

A megfelelő törésmutatóhoz vezető út

Amikor Calafiore 2016-ban először csatlakozott az akkori Oculus Researchhez, a csapat rendelkezésére álló legmagasabb törésmutatójú üveg 1,8 volt, ami több lemez egymásra helyezését tette szükségessé a kívánt látómező eléréséhez. A nemkívánatos optikai artefaktumoktól eltekintve az összeszerelési sor egyre bonyolultabbá vált, mivel az első két hullámvezetőt tökéletesen kellett összehangolni, majd ezt a halmazt egy harmadik hullámvezetővel kellett tökéletesen összehangolni.

"Nemcsak drága volt, hanem azonnal nyilvánvalóvá vált, hogy egy szemüvegben nem lehet lencsénként három darab üveg" - emlékszik vissza Calafiore. "Túl nehezek voltak, a vastagságuk pedig megfizethetetlenül nagy és csúnya volt - senki sem vette volna meg. Így hát visszatértünk a kiindulóponthoz: megpróbáltuk növelni a szubsztrát törésmutatóját, hogy csökkentsük a szükséges lemezek számát."

Az első anyag, amelyet a csapat megvizsgált, a következő volt lítium-niobát, amelynek törésmutatója nagyjából 2,3, ami valamivel magasabb, mint az 1,8-as üvegé.

"Rájöttünk, hogy csak két tányért kell egymásra raknunk, és talán még egy tányérral is beérjük, hogy még mindig lefedjük a látómezőt" - mondja Calafiore. "Szinte ezzel párhuzamosan elkezdtünk más anyagokat is megvizsgálni - így jöttünk rá a beszállítóinkkal együtt 2019-ben, hogy a szilícium-karbid a legtisztább formájában valójában nagyon is átlátszó. Történetesen ez rendelkezik a legmagasabb törésmutatóval is, amely optikai alkalmazásban ismert, ami 2,7."

Ez 17,4% növekedést jelent a lítium-niobáthoz képest, és 50% növekedést az üveghez képest, azok számára, akik otthon tartják a pontszámot.

"Néhány módosítással ugyanazon a berendezésen, amelyet az iparban már használtak, sikerült átlátszó szilíciumkarbidot előállítani" - mondja Calafiore. "Csak az eljárást kellett megváltoztatni, sokkal óvatosabbnak lenni, és az elektronikus tulajdonságok optimalizálása helyett az optikai tulajdonságokra optimalizálni: az átlátszóságra, a törésmutató egyenletességére stb.".

A kompromisszum lehetséges költségei

Akkoriban a Reality Labs csapata volt az első, amely egyáltalán megpróbált átlátszatlan szilíciumkarbid ostyákról áttérni az átlátszó ostyákra. És mivel a szilícium-karbid az egyik legkeményebb ismert anyag, a vágásához vagy csiszolásához alapvetően gyémánt szerszámokra van szükség. Ennek eredményeként az egyszeri mérnöki költségek nagyon magasak voltak, így az így kapott hordozó meglehetősen drága volt.

Bár léteznek költséghatékonyabb alternatívák, mint minden technológia esetében, mindegyiknek vannak kompromisszumai. És ahogy a látómező növekszik az Orion iparágvezető, körülbelül 70 fokos látómezeje felé, olyan új problémák merülnek fel, mint a szellemképek és a szivárványok.

"A széles látómezejű AR-kijelzők optimális megoldásának megtalálása a teljesítmény és a költségek közötti kompromisszumokkal jár" - magyarázza Barry Silverstein, a kutatási részleg tudományos igazgatója. "A költségeket gyakran le lehet szorítani, de ha a teljesítmény nem elég, a költségek végül nem számítanak."

A szellemképek olyanok, mint a kijelzőre vetített elsődleges kép vizuális visszhangjai. A szivárványok színes fénycsíkok, amelyek akkor jönnek létre, amikor a környezeti fény visszaverődik a hullámvezetőn. "Tegyük fel, hogy éjszaka vezetsz, és körülötted mozgó autófények vannak" - mondja Silverstein. "Szivárványok is lesznek, amelyek mozognak. Vagy ha a tengerparton röplabdázol, és süt a nap, akkor egy veled együtt mozgó szivárványcsíkot fogsz látni, és lemaradsz a lövésedről. A szilíciumkarbid egyik csodálatos tulajdonsága pedig az, hogy megszabadul ezektől a szivárványoktól."

"A szilíciumkarbid másik előnye, amellyel a többi anyag egyike sem rendelkezik, a hővezető képesség" - teszi hozzá Calafiore. "A műanyag szörnyű szigetelő. Az üveg, a lítium-niobát, ugyanez a helyzet. A szilícium-karbid átlátszó, úgy néz ki, mint az üveg, és képzeljük csak el: vezeti a hőt."

Így 2020 júliusában a csapat úgy döntött, hogy a szilíciumkarbid az optimális választás, három fő okból: Jobb optikai tulajdonságokkal rendelkezett, és könnyebb volt, mint a kétlemezes üveg.

A ferde metszés titka

Az anyagot szem előtt tartva a következő feladat a hullámvezetők gyártása volt - és különösen a ferde marás nevű, nem hagyományos rácsozási technika.

"A rács az a nanoszerkezet, amely be- és kikapcsolja a lencséből érkező fényt" - magyarázza Calafiore. "És ahhoz, hogy a szilíciumkarbid működjön, a rácsot ferdén kell marni. Ahelyett, hogy függőlegesen állna, a rács vonalainak átlósan kell ferdén állniuk"."

"Mi voltunk az elsők, akik közvetlenül az eszközökön végeztünk ferde maratást" - mondja Nihar Mohanty kutatási vezető. "Az egész iparág a nanoimprintre támaszkodott, ami nem működik az ilyen magas törésmutatójú szubsztrátumok esetében. Ezért nem gondolt senki más a világon arra, hogy szilícium-karbidot is készítsen."

Mivel azonban a ferde maratás még kiforratlan technológia, a legtöbb félvezetőchip-beszállító és -gyár nem rendelkezik a szükséges eszközökkel.

"2019-ben az akkori menedzseremmel, Matt Colburnnel létrehoztuk a saját üzemünket, mivel a világon nem volt semmi, ahol maratott szilícium-karbid hullámvezetőket tudtunk volna gyártani, és ahol a technológiát a laboratóriumi méreteken túl is kipróbálhattuk volna" - magyarázza Mohanty. "Hatalmas beruházás volt, és ott hoztuk létre az egész csővezetéket. A szerszámokat partnereink készítették számunkra, az eljárást pedig házon belül, a Metában fejlesztettük ki, bár a rendszereink kutatási minőségűek, mert nem voltak gyártási minőségű rendszerek. Egy gyártó partnerrel együttműködve fejlesztettük ki a gyártói minőségű ferde maratási szerszámokat és folyamatokat. És most, hogy megmutattuk, mi minden lehetséges a szilíciumkarbiddal, azt szeretnénk, ha az iparágban mások is elkezdenék a saját szerszámaik gyártását."

Minél több vállalat fektet be optikai minőségű szilícium-karbidba és fejleszt berendezéseket, annál erősebb lesz a fogyasztói AR-szemüvegek kategóriája.

Nem üldözzük tovább a szivárványt

Míg a a technológiai elkerülhetetlenség mítosz, úgy tűnik, hogy a csillagok a szilíciumkarbid javára állnak. És bár a csapat továbbra is vizsgálja az alternatívákat, az az érzésünk, hogy a megfelelő emberek a megfelelő időben és a megfelelő piaci körülmények között jöttek össze, hogy AR-szemüveget készítsenek ebből az anyagból.

"Az Orion bebizonyította, hogy a szilícium-karbid életképes lehetőség az AR-szemüvegek számára" - mondja Silverstein - "és most már három különböző kontinensen látjuk az érdeklődést az ellátási láncban, ahol erősen keresik ezt a lehetőséget. A szilícium-karbid lesz a befutó. Szerintem ez csak idő kérdése."

És ez idő alatt sok minden történhet - akárcsak az első tiszta szilícium-karbid kristályok növesztése óta, amikor is fordult a kocka.

"A szilíciumkarbid-gyártók mindegyike masszívan felpörgette a kínálatot a várható EV-boomra reagálva" - jegyzi meg Calafiore. "Jelenleg olyan túlkínálat van, amely nem létezett, amikor az Oriont építettük. Így most, hogy a kínálat magas, a kereslet pedig alacsony, a hordozó ára elkezdett csökkenni."

"A beszállítók nagyon izgatottak az optikai minőségű szilíciumkarbid gyártásának új lehetősége miatt - hiszen minden egyes hullámvezető lencse nagy mennyiségű anyagot jelent egy elektronikus chiphez képest, és minden meglévő képességük alkalmazható erre az új területre" - teszi hozzá Silverstein. "A gyár kitöltése alapvető fontosságú, a gyár méretnövelése pedig az álom. Az ostya mérete is számít: Minél nagyobb az ostya, annál alacsonyabb a költség - de a folyamat bonyolultsága is növekszik. Ennek ellenére láttuk, hogy a beszállítók a négy hüvelykes ostyákról áttértek a nyolc hüvelykes ostyákra, és néhányan már dolgoznak a 12 hüvelykes ostyák előfutárain, amelyek exponenciálisan több AR-szemüveget eredményeznének"."

Ezek a fejlesztések hozzájárulnak a költségek további csökkenéséhez. Még korai, de a jövő egyre inkább a figyelem középpontjába kerül.

"Minden új technológiai forradalom kezdetén egy csomó dolgot kipróbálunk" - mondja Calafiore. "Nézzük meg a televíziót: Katódsugárcsövekkel kezdtük, aztán jöttek a LED-es plazmatévék, most pedig a microLED-ek. Számos különböző technológián és architektúrán mentünk keresztül. Az útkeresés során sok út nem vezet sehova, de van néhány, amelyhez mindig visszatérünk, mint a legígéretesebbekhez. Nem vagyunk az út végén, és egyedül nem tudjuk megcsinálni, de a szilíciumkarbid egy olyan csodaanyag, amely megéri a befektetést."

"A világ felébredt" - teszi hozzá Silverstein. "Sikeresen megmutattuk, hogy a szilícium-karbid képes az elektronikában és a fotonikában rugalmasan használni. Ez egy olyan anyag, amely a jövőben a kvantumszámítástechnikában is alkalmazható lehet. És látjuk a jeleit annak, hogy jelentősen csökkenthető a költsége. Sok munka vár még ránk, de a potenciális előnyök óriásiak."


Tudjon meg többet a szilícium-karbidról a Fotonika spektrum.

Az Orionnal kapcsolatos további információkért tekintse meg ezeket a blogbejegyzéseket:

Közzétéve az oldalon - Hozzászólás most!

Orion: Megérkezett az igazi AR szemüveg

TL;DR:

  • Today at Csatlakozás, Mark Zuckerberg unveiled Orion—our first pair of true AR glasses, previously codenamed Project Nazare.
  • With an industry-leading field of view, silicon carbide lenses, intricate waveguides, uLED projectors, and more, Orion is our most advanced and most polished product prototype to date.
  • Now, we’re continuing product optimizations and lowering costs as we drive toward a scalable consumer device that will revolutionize the way people interact with the world.

“We are building AR glasses.”

Five simple words, spoken five years ago. With them, we planted a flag on our vision of a future where we no longer have to make the false choice between a world of information at our fingertips and the physical world all around us.

And now, five years later, another five words that stand to once again change the game:

We have built AR glasses.

https://youtube.com/watch?v=2CJsnyS8u3c%3Fsi%3DTr77gOKEq3PnA7-k%26controls%3D0%3Fautoplay%3D0%26color%3Dwhite%26cc_lang_pref%3Den%26cc_load_policy%3D0%26enablejsapi%3D1%26frameborder%3D0%26hl%3Den%26rel%3D0%26origin%3Dhttps%253A%252F%252Fwww.meta.com

At Meta, our mission is simple: give people the power to build community and bring the world closer together. And at Reality Labs, we build tools that help people feel connected anytime, anywhere. That’s why we’re working to build the next computing platform that puts people at the center so they can be more present, connected, and empowered in the world.

Ray-Ban Meta szemüveg have demonstrated the power of giving people hands-free access to key parts of their digital lives from their physical ones. We can talk to a smart AI assistant, connect with friends, and capture the moments that matter—all without ever having to pull out a phone. These stylish glasses fit seamlessly into our everyday lives, and people absolutely love them.

Yet while Ray-Ban Meta opened up an entirely new category of display-less glasses super-charged by AI, the XR industry has long dreamt of true AR glasses—a product that combines the benefits of a large holographic display and personalized AI assistance in a comfortable, stylish, all-day wearable form factor.

And today, we’ve pushed that dream closer to reality with the unveiling of Orion, which we believe is the most advanced pair of AR glasses ever made. In fact, it might be the most challenging consumer electronics device produced since the smartphone. Orion is the result of breakthrough inventions in virtually every field of modern computing—building on the work we’ve been doing at Reality Labs for the last decade. It’s packed with entirely new technologies, including the most advanced AR display ever assembled and custom silicon that enables powerful AR experiences to run on a pair of glasses using a fraction of the power and weight of an MR headset.

Orion’s input system seamlessly combines voice, eye gaze, and hand tracking with an EMG wristband that lets you swipe, click, and scroll while keeping your arm resting comfortably by your side, letting you stay present in the world and with the people around you as you interact with rich digital content.

Beginning today at Connect and continuing throughout the year, we’re opening up access to our Orion product prototype for Meta employees and select, external audiences so our development team can learn, iterate, and build towards our consumer AR glasses product line, which we plan to begin shipping in the near future.

Why AR Glasses?

There are three primary reasons why AR glasses are key to unlocking the next great leap in human-oriented computing.

  1. They enable digital experiences that are unconstrained by the limits of a smartphone screen. With large holographic displays, you can use the physical world as your canvas, placing 2D and 3D content and experiences anywhere you want.
  2. They seamlessly integrate contextual AI that can sense and understand the world around you in order to anticipate and proactively address your needs.
  3. They’re lightweight and great for both indoor and outdoor use—and they let people see each other’s real face, real eyes, and real expressions.

That’s the north star our industry has been building towards: a product combining the convenience and immediacy of wearables with a large display, high-bandwidth input, and contextualized AI in a form factor that people feel comfortable wearing in their daily lives.

Compact Form Factor, Compounded Challenges

For years, we’ve faced a false choice—either virtual and mixed reality headsets that enable deep, immersive experiences in a bulky form factor or glasses that are ideal for all-day use but don’t offer rich visual apps and experiences given the lack of a large display and corresponding compute power.

But we want it all, without compromises. For years, we’ve been hard at work to take the incredible spatial experiences afforded by VR and MR headsets and miniaturizing the technology necessary to deliver those experiences into a pair of lightweight, stylish glasses. Nailing the form factor, delivering holographic displays, developing compelling AR experiences, and creating new human-computer interaction (HCI) paradigms—and doing it all in one cohesive product—is one of the most difficult challenges our industry has ever faced. It was so challenging that we thought we had less than a 10 percent chance of pulling it off successfully.

Until now.

A Groundbreaking Display in an Unparalleled Form Factor

At approximately 70 degrees, Orion has the largest field of view in the smallest AR glasses form factor to date. That field of view unlocks truly immersive use cases for Orion, from multitasking windows and big-screen entertainment to lifesize holograms of people—all digital content that can seamlessly blend with your view of the physical world.

For Orion, field of view was our holy grail. We were bumping up against the laws of physics and had to bend beams of light in ways they don’t naturally bend—and we had to do it in a power envelope measured in milliwatts.

Instead of glass, we made the lenses from silicon carbide—a novel application for AR glasses. Silicon carbide is incredibly lightweight, it doesn’t result in optical artifacts or stray light, and it has a high refractive index—all optical properties that are key to a large field of view. The waveguides themselves have really intricate and complex nano-scale 3D structures to diffract or spread light in the ways necessary to achieve this field of view. And the projectors are uLEDs—a new type of display technology that’s super small and extremely power efficient.

Orion is unmistakably a pair of glasses in both look and feel—complete with transparent lenses. Unlike MR headsets or other AR glasses today, you can still see each other’s real eyes and expressions, so you can be present and share the experience with the people around you. Dozens of innovations were required to get the industrial design down to a contemporary glasses form factor that you’d be comfortable wearing every day. Orion is a feat of miniaturization—the components are packed down to a fraction of a millimeter. And we managed to embed seven tiny cameras and sensors in the frame rims.

We had to maintain optical precision at one-tenth the thickness of a strand of human hair. And the system can detect tiny amounts of movement—like the frames expanding or contracting in various room temperatures—and then digitally correct for the necessary optical alignment, all within milliseconds. We made the frames out of magnesium—the same material used in F1 race cars and spacecraft—because it’s lightweight yet rigid, so it keeps the optical elements in alignment and efficiently conducts away heat.

Heating and Cooling

Once we cracked the display (no pun intended) and overcame the physics problems, we had to navigate the challenge of really powerful compute alongside really low power consumption and the need for heat dissipation. Unlike today’s MR headsets, you can’t stuff a fan into a pair of glasses. So we had to get creative. A lot of the materials used to cool Orion are similar to those used by NASA to cool satellites in outer space.

We built highly specialized custom silicon that’s extremely power efficient and optimized for our AI, machine perception, and graphics algorithms. We built multiple custom chips and dozens of highly custom silicon IP blocks inside those chips. That lets us take the algorithms necessary for hand and eye tracking as well as simultaneous localization and mapping (SLAM) technology that normally takes hundreds of milliwatts of power—and thus generates a corresponding amount of heat—and shrink it down to just a few dozen milliwatts.

And yes, custom silicon continues to play a critical role in product development at Reality Labs, despite what you may have read elsewhere. 😎

Effortless EMG

Every new computing platform brings with it a paradigm shift in the way we interact with our devices. The invention of the mouse helped pave the way for the graphical user interfaces (GUIs) that dominate our world today, and smartphones didn’t start to really gain traction until the advent of the touch screen. And the same rule holds true for wearables.

We’ve spoken about our work with electromyography, or EMG, for years, driven by our belief that input for AR glasses needs to be fast, convenient, reliable, subtle, and socially acceptable. And now, that work is ready for prime time.

Orion’s input and interaction system seamlessly combines voice, eye gaze, and hand tracking with an EMG wristband that lets you swipe, click, and scroll with ease.

It works—and feels—like magic. Imagine taking a photo on your morning jog with a simple tap of your fingertips or navigating menus with barely perceptible movements of your hands. Our wristband combines a high-performance textile with embedded EMG sensors to detect the electrical signals generated by even the tiniest muscle movements. An on-device ML processor then interprets those EMG signals to produce input events that are transmitted wirelessly to the glasses. The system adapts to you, so it gets better and more capable at recognizing the most subtle gestures over time. And today, we’re sharing more about our support for external research focused on expanding the equity and accessibility potential of EMG wristbands.

Meet the Wireless Compute Puck

True AR glasses must be wireless, and they must also be small.So we built a wireless compute puck for Orion. It takes some of the load off of the glasses, enabling longer battery life and a better form factor complete with low latency.

The glasses run all of the hand tracking, eye tracking, SLAM, and specialized AR world locking graphics algorithms while the app logic runs on the puck to keep the glasses as lightweight and compact as possible.

The puck has dual processors, including one custom designed right here at Meta, and it provides the compute power necessary for low-latency graphics rendering, AI, and some additional machine perception.

And since it’s small and sleek, you can comfortably toss the puck in a bag or your pocket and go about your business—no strings attached.

AR Experiences

Of course, as with any piece of hardware, it’s only as good as the things you can do with it. And while it’s still early days, the experiences afforded by Orion are an exciting glimpse of what’s to come.

https://youtube.com/watch?v=HkdSv3QPhNw%3F%26controls%3D0%3Fautoplay%3D0%26color%3Dwhite%26cc_lang_pref%3Den%26cc_load_policy%3D0%26enablejsapi%3D1%26frameborder%3D0%26hl%3Den%26rel%3D0%26origin%3Dhttps%253A%252F%252Fwww.meta.com

We’ve got our smart assistant, Meta AI, running on Orion. It understands what you’re looking at in the physical world and can help you with useful visualizations. Orion uses the same Llama model that powers AI experiences running on Ray-Ban Meta smart glasses today, plus custom research models to demonstrate potential use cases for future wearables development.

You can take a hands-free video call on the go to catch up with friends and family in real time, and you can stay connected on WhatsApp and Messenger to view and send messages. No need to pull out your phone, unlock it, find the right app, and let your friend know you’re running late for dinner—you can do it all through your glasses.

https://youtube.com/watch?v=el7lUVvu8Bo%3F%26controls%3D0%3Fautoplay%3D0%26color%3Dwhite%26cc_lang_pref%3Den%26cc_load_policy%3D0%26enablejsapi%3D1%26frameborder%3D0%26hl%3Den%26rel%3D0%26origin%3Dhttps%253A%252F%252Fwww.meta.com

You can play shared AR games with family on the other side of the country or with your friend on the other side of the couch. And Orion’s large display lets you multitask with multiple windows to get stuff done without having to lug around your laptop.

The experiences available on Orion today will help chart the roadmap for our consumer AR glasses line in the future. Our teams will continue to iterate and build new immersive social experiences, alongside our developer partners, and we can’t wait to share what comes next.

A Purposeful Product Prototype

While Orion won’t make its way into the hands of consumers, make no mistake: This is not a research prototype. It’s the most polished product prototype we’ve ever developed—and it’s truly representative of something that could ship to consumers. Rather than rushing to put it on shelves, we decided to focus on internal development first, which means we can keep building quickly and continue to push the boundaries of the technology and experiences.

And that means we’ll arrive at an even better consumer product faster.

What Comes Next

Two major obstacles have long stood in the way of mainstream consumer-grade AR glasses: the technological breakthroughs necessary to deliver a large display in a compact glasses form factor and the necessity of useful and compelling AR experiences that can run on those glasses. Orion is a huge milestone, delivering true AR experiences running on reasonably stylish hardware for the very first time.

Now that we’ve shared Orion with the world, we’re focused on a few things:

  • Tuning the AR display quality to make the visuals even sharper
  • Optimizing wherever we can to make the form factor even smaller
  • Building at scale to make them more affordable

In the next few years, you can expect to see new devices from us that build on our R&D efforts. And a number of Orion’s innovations have been extended to our current consumer products today as well as our future product roadmap. We’ve optimized some of our spatial perception algorithms, which are running on both Meta Quest 3S and Orion. While the eye gaze and subtle gestural input system was originally designed for Orion, we plan to use it in future products. And we’re exploring the use of EMG wristbands across future consumer products as well.

Orion isn’t just a window into the future—it’s a look at the very real possibilities within reach today. We built it in our pursuit of what we do best: helping people connect. From Ray-Ban Meta glasses to Orion, we’ve seen the good that can come from letting people stay more present and empowered in the physical world, even while tapping into all the added richness the digital world has to offer.

We believe you shouldn’t have to choose between the two. And with the next computing platform, you won’t have to.


Az Orionnal kapcsolatos további információkért tekintse meg ezeket a blogbejegyzéseket:

Közzétéve az oldalon - Hozzászólás most!

Orion Compute Puck: Az eszköz története, amely lehetővé tette az AR-szemüvegeinket

Last year at Connect, we unveiled Orion—our first true pair of AR glasses. The culmination of our work at Reality Labs over the last decade, Orion combines the benefits of a large holographic display and personalized AI assistance in a comfortable, all-day wearable form factor. It got some attention for its industry-leading field of view, silicon carbide waveguides, uLED projectors, and more. But today, we’re turning our attention to an unsung hero of Orion: the compute puck.

Designed to easily slip into your pocket or bag so you can bring it just about anywhere as you go about your day, the puck offloads Orion’s processing power to run application logic and enable a more compelling, smaller form factor for the glasses. It connects wirelessly to the glasses and EMG wristband for a seamless experience.

Set it and forget it, right?

But the puck’s backstory—even as a prototype—is involved, with a dramatic arc you’d never guess at from its appearance.

“When you’re building something like this, you start getting into the limits of physics,” explains Director of Product Management Rahul Prasad. “For the last 50 years, Moore’s Law has made everything smaller, faster, and lower power. The problem is that now you’re starting to hit limits on how much heat you can dissipate, how much battery you can compress, and how much antenna performance you can fit into a particular sized object.”

While hindsight may be 20/20, the puck’s potential wasn’t immediately obvious. When you’re the first to build something, you need to explore every possibility—leaving no stone unturned. How do you build something that some might think of as an undesirable accessory rather than a critical part of the package?

“We knew the puck was an extra device we were asking people to carry,” notes Product Design Engineering Manager Jared Van Cleave, “so we explored how to turn the bug into a feature.”

Ultimately, that ethos paid off in spades as the puck squeezes a lot of compute (and even more Meta-designed custom silicon for AI and machine perception) into a small size. This was instrumental in helping Orion go from the realm of science fiction into reality.

“If you didn’t have the puck, you wouldn’t be able to have the experiences that Orion offers in its form factor—period,” says Prasad. “A good AR experience demands really high performance: high frame rates, extremely low latency, fine-grained wireless and power management, etc. The puck and the glasses need to be co-designed to work really closely together, not just at the app layer, but also at the operating system, firmware, and hardware layers. And even if one were to co-design a smartphone to work with AR glasses, the demanding performance requirements would drain the phone battery and suck away compute capacity from phone use cases. On the other hand, the puck has its own high-capacity battery, high-performance SoC, and a custom Meta-designed AI co-processor optimized for Orion.”

Of course, the puck wasn’t designed overnight. It required years of iterative work.

“We didn’t know how people would want to interact with Orion from an input perspective—there was nothing we could draft off of in-market,” says Product Manager Matt Resman. “If you look at our early glasses prototypes, they were these massive headsets that weighed three or four pounds. And when you’re trying to build a product, it’s really difficult to understand the user experience if you’re not in the right form factor. With the puck, we were able to prototype very quickly to start understanding how people would use it.”

Codenamed Omega in the early days, the puck was initially envisioned by what was then Oculus Research as an Ω-shaped band that would go around the user’s neck and be hard-wired to the glasses…

… until some new innovations by the Reality Labs wireless team, among other things, allowed them to cut the cord. That enabled a more handheld or pocketable / in-bag form factor, which opened up a lot of possibilities.

“At that point, augmented reality calling was still a primary use case,” Van Cleave explains. “The puck was where the holographic videos would be anchored. You’d put it down on the table with the sensor bench facing you, imaging you, and then projecting who you were speaking to from the puck’s surface for the call.”

“Orion is about connecting people and bringing us together,” says Resman. “One of the initial concepts for the puck was to help create this sense of presence with other people and enable this richer form of communication.”

“It’s unlike anything you’ve ever seen—the device has the potential to create really fun and unique interactions,” adds Industrial Designer Emron Henry. “The user experience feels a bit like unleashing a genie from a bottle, where holograms seamlessly emerge from and dissolve back into the device.”

As you can probably tell by now, there’s more potential inside the puck than what ultimately got turned on as a feature. In addition to the sensors and cameras that would’ve been used for AR calling, the puck has haptics and 6DOF sensors that could enable it to be used as a tracked controller to select and manipulate virtual objects and play AR games. The team also explored capacitive and force touch input so the puck could serve as a gamepad when held in both portrait and landscape mode.

“We would talk about the need to carry this extra thing,” says Van Cleave. “How do we make it more useful? There was a whole workstream around it. And at one point, the hypothesis was that AR gaming was going to be this killer use case.”

Early on, we knew we needed to explore the possibilities of the puck doing things that phones cannot. Eventually, we landed on using eye gaze, EMG, and hand tracking for AR games, like Stargazer and Pong, but we prototyped various demos and games that used the puck as a controller in the early days of Orion.

0:00 / 0:00

0:00 / 0:00

0:00 / 0:00

Rendered explorations of the puck as a 6DOF controller for AR games like Pong.

“Because it’s not a phone, that gave us a lot of design freedom,” adds Prasad. “It can be thicker, I can make it more rounded so it fits comfortably in your hand as a controller. It’s pretty incredible that the puck is actually smaller than the average phone, but it’s more powerful than a phone because it has a Meta-designed co-processor for AI and machine perception.”

The team dug into the question of how a quality AR game might differ from a MR or console game. That meant exploring different affordances for an AR game controller, including joysticks, physical button layouts, trigger buttons, and more.

“We didn’t end up actually building any of that stuff,” Van Cleave notes. “We prototyped it, but we didn’t ever go for a full build. We wanted to keep it simple. We wanted to do these soft interfaces but not make physical, mechanical buttons.”

And while the sensors and haptics weren’t turned on in the finished product prototype, they served an integral function during development, letting teams file bugs by simply tapping on the top of the device a few times to trigger a bug report.

As AI began to take center stage as a key use case, compute came into increasingly sharp focus. In the end, the puck is home to Orion’s wireless connectivity, computing power, and battery capacity—a huge technical feat in itself—all of which helps reduce the weight and form factor of the glasses while dissipating a lot more thermals by virtue of its surface area.

Throughout its evolution, one thing has remained the same: There’s more to the puck than meets the untrained eye. Embracing unconventional ideas allowed our teams to explore, push boundaries, and build the future.

“We’re defining a category that doesn’t quite exist yet,” notes Henry. “As you’d expect with R&D, there were starts and stops along the way. How will users expect to interact with holograms? Would they prefer to use an AR remote or is hand tracking, eye gaze, and EMG sufficient for input? What feels intuitive, low-friction, familiar, and useful?”

“Rather than looking at the puck as just a rock, we asked ourselves what else we could provide to further differentiate it from phones and justify why you’d want to carry it around,” acknowledges Resman. “Does its raw compute power and practical design—which helped unlock a glasses form factor that you can realistically wear around all day—ultimately offer enough value? It’s our job to help answer these questions.”

“Early on, we shifted gears to focus on what we can do that a phone can’t do,” Van Cleave adds. “Phones need to have the screen, they need to have the certain physical button layout that users expect. And we don’t have those constraints. Our compute puck can be whatever we want it to be.”


Az Orionnal kapcsolatos további információkért tekintse meg ezeket a blogbejegyzéseket:

Közzétéve az oldalon - Hozzászólás most!

Orion: Megérkezett az igazi AR szemüveg

TL;DR:

  • Today at Csatlakozás, Mark Zuckerberg unveiled Orion—our first pair of true AR glasses, previously codenamed Project Nazare.
  • With an industry-leading field of view, silicon carbide lenses, intricate waveguides, uLED projectors, and more, Orion is our most advanced and most polished product prototype to date.
  • Now, we’re continuing product optimizations and lowering costs as we drive toward a scalable consumer device that will revolutionize the way people interact with the world.

“We are building AR glasses.”

Five simple words, spoken five years ago. With them, we planted a flag on our vision of a future where we no longer have to make the false choice between a world of information at our fingertips and the physical world all around us.

And now, five years later, another five words that stand to once again change the game:

We have built AR glasses.

https://youtube.com/watch?v=2CJsnyS8u3c%3Fsi%3DTr77gOKEq3PnA7-k%26controls%3D0%3Fautoplay%3D0%26color%3Dwhite%26cc_lang_pref%3Den%26cc_load_policy%3D0%26enablejsapi%3D1%26frameborder%3D0%26hl%3Den%26rel%3D0%26origin%3Dhttps%253A%252F%252Fwww.meta.com

At Meta, our mission is simple: give people the power to build community and bring the world closer together. And at Reality Labs, we build tools that help people feel connected anytime, anywhere. That’s why we’re working to build the next computing platform that puts people at the center so they can be more present, connected, and empowered in the world.

Ray-Ban Meta szemüveg have demonstrated the power of giving people hands-free access to key parts of their digital lives from their physical ones. We can talk to a smart AI assistant, connect with friends, and capture the moments that matter—all without ever having to pull out a phone. These stylish glasses fit seamlessly into our everyday lives, and people absolutely love them.

Yet while Ray-Ban Meta opened up an entirely new category of display-less glasses super-charged by AI, the XR industry has long dreamt of true AR glasses—a product that combines the benefits of a large holographic display and personalized AI assistance in a comfortable, stylish, all-day wearable form factor.

And today, we’ve pushed that dream closer to reality with the unveiling of Orion, which we believe is the most advanced pair of AR glasses ever made. In fact, it might be the most challenging consumer electronics device produced since the smartphone. Orion is the result of breakthrough inventions in virtually every field of modern computing—building on the work we’ve been doing at Reality Labs for the last decade. It’s packed with entirely new technologies, including the most advanced AR display ever assembled and custom silicon that enables powerful AR experiences to run on a pair of glasses using a fraction of the power and weight of an MR headset.

Orion’s input system seamlessly combines voice, eye gaze, and hand tracking with an EMG wristband that lets you swipe, click, and scroll while keeping your arm resting comfortably by your side, letting you stay present in the world and with the people around you as you interact with rich digital content.

Beginning today at Connect and continuing throughout the year, we’re opening up access to our Orion product prototype for Meta employees and select, external audiences so our development team can learn, iterate, and build towards our consumer AR glasses product line, which we plan to begin shipping in the near future.

Why AR Glasses?

There are three primary reasons why AR glasses are key to unlocking the next great leap in human-oriented computing.

  1. They enable digital experiences that are unconstrained by the limits of a smartphone screen. With large holographic displays, you can use the physical world as your canvas, placing 2D and 3D content and experiences anywhere you want.
  2. They seamlessly integrate contextual AI that can sense and understand the world around you in order to anticipate and proactively address your needs.
  3. They’re lightweight and great for both indoor and outdoor use—and they let people see each other’s real face, real eyes, and real expressions.

That’s the north star our industry has been building towards: a product combining the convenience and immediacy of wearables with a large display, high-bandwidth input, and contextualized AI in a form factor that people feel comfortable wearing in their daily lives.

Compact Form Factor, Compounded Challenges

For years, we’ve faced a false choice—either virtual and mixed reality headsets that enable deep, immersive experiences in a bulky form factor or glasses that are ideal for all-day use but don’t offer rich visual apps and experiences given the lack of a large display and corresponding compute power.

But we want it all, without compromises. For years, we’ve been hard at work to take the incredible spatial experiences afforded by VR and MR headsets and miniaturizing the technology necessary to deliver those experiences into a pair of lightweight, stylish glasses. Nailing the form factor, delivering holographic displays, developing compelling AR experiences, and creating new human-computer interaction (HCI) paradigms—and doing it all in one cohesive product—is one of the most difficult challenges our industry has ever faced. It was so challenging that we thought we had less than a 10 percent chance of pulling it off successfully.

Until now.

A Groundbreaking Display in an Unparalleled Form Factor

At approximately 70 degrees, Orion has the largest field of view in the smallest AR glasses form factor to date. That field of view unlocks truly immersive use cases for Orion, from multitasking windows and big-screen entertainment to lifesize holograms of people—all digital content that can seamlessly blend with your view of the physical world.

For Orion, field of view was our holy grail. We were bumping up against the laws of physics and had to bend beams of light in ways they don’t naturally bend—and we had to do it in a power envelope measured in milliwatts.

Instead of glass, we made the lenses from silicon carbide—a novel application for AR glasses. Silicon carbide is incredibly lightweight, it doesn’t result in optical artifacts or stray light, and it has a high refractive index—all optical properties that are key to a large field of view. The waveguides themselves have really intricate and complex nano-scale 3D structures to diffract or spread light in the ways necessary to achieve this field of view. And the projectors are uLEDs—a new type of display technology that’s super small and extremely power efficient.

Orion is unmistakably a pair of glasses in both look and feel—complete with transparent lenses. Unlike MR headsets or other AR glasses today, you can still see each other’s real eyes and expressions, so you can be present and share the experience with the people around you. Dozens of innovations were required to get the industrial design down to a contemporary glasses form factor that you’d be comfortable wearing every day. Orion is a feat of miniaturization—the components are packed down to a fraction of a millimeter. And we managed to embed seven tiny cameras and sensors in the frame rims.

We had to maintain optical precision at one-tenth the thickness of a strand of human hair. And the system can detect tiny amounts of movement—like the frames expanding or contracting in various room temperatures—and then digitally correct for the necessary optical alignment, all within milliseconds. We made the frames out of magnesium—the same material used in F1 race cars and spacecraft—because it’s lightweight yet rigid, so it keeps the optical elements in alignment and efficiently conducts away heat.

Heating and Cooling

Once we cracked the display (no pun intended) and overcame the physics problems, we had to navigate the challenge of really powerful compute alongside really low power consumption and the need for heat dissipation. Unlike today’s MR headsets, you can’t stuff a fan into a pair of glasses. So we had to get creative. A lot of the materials used to cool Orion are similar to those used by NASA to cool satellites in outer space.

We built highly specialized custom silicon that’s extremely power efficient and optimized for our AI, machine perception, and graphics algorithms. We built multiple custom chips and dozens of highly custom silicon IP blocks inside those chips. That lets us take the algorithms necessary for hand and eye tracking as well as simultaneous localization and mapping (SLAM) technology that normally takes hundreds of milliwatts of power—and thus generates a corresponding amount of heat—and shrink it down to just a few dozen milliwatts.

And yes, custom silicon continues to play a critical role in product development at Reality Labs, despite what you may have read elsewhere. 😎

Effortless EMG

Every new computing platform brings with it a paradigm shift in the way we interact with our devices. The invention of the mouse helped pave the way for the graphical user interfaces (GUIs) that dominate our world today, and smartphones didn’t start to really gain traction until the advent of the touch screen. And the same rule holds true for wearables.

We’ve spoken about our work with electromyography, or EMG, for years, driven by our belief that input for AR glasses needs to be fast, convenient, reliable, subtle, and socially acceptable. And now, that work is ready for prime time.

Orion’s input and interaction system seamlessly combines voice, eye gaze, and hand tracking with an EMG wristband that lets you swipe, click, and scroll with ease.

It works—and feels—like magic. Imagine taking a photo on your morning jog with a simple tap of your fingertips or navigating menus with barely perceptible movements of your hands. Our wristband combines a high-performance textile with embedded EMG sensors to detect the electrical signals generated by even the tiniest muscle movements. An on-device ML processor then interprets those EMG signals to produce input events that are transmitted wirelessly to the glasses. The system adapts to you, so it gets better and more capable at recognizing the most subtle gestures over time. And today, we’re sharing more about our support for external research focused on expanding the equity and accessibility potential of EMG wristbands.

Meet the Wireless Compute Puck

True AR glasses must be wireless, and they must also be small.So we built a wireless compute puck for Orion. It takes some of the load off of the glasses, enabling longer battery life and a better form factor complete with low latency.

The glasses run all of the hand tracking, eye tracking, SLAM, and specialized AR world locking graphics algorithms while the app logic runs on the puck to keep the glasses as lightweight and compact as possible.

The puck has dual processors, including one custom designed right here at Meta, and it provides the compute power necessary for low-latency graphics rendering, AI, and some additional machine perception.

And since it’s small and sleek, you can comfortably toss the puck in a bag or your pocket and go about your business—no strings attached.

AR Experiences

Of course, as with any piece of hardware, it’s only as good as the things you can do with it. And while it’s still early days, the experiences afforded by Orion are an exciting glimpse of what’s to come.

https://youtube.com/watch?v=HkdSv3QPhNw%3F%26controls%3D0%3Fautoplay%3D0%26color%3Dwhite%26cc_lang_pref%3Den%26cc_load_policy%3D0%26enablejsapi%3D1%26frameborder%3D0%26hl%3Den%26rel%3D0%26origin%3Dhttps%253A%252F%252Fwww.meta.com

We’ve got our smart assistant, Meta AI, running on Orion. It understands what you’re looking at in the physical world and can help you with useful visualizations. Orion uses the same Llama model that powers AI experiences running on Ray-Ban Meta smart glasses today, plus custom research models to demonstrate potential use cases for future wearables development.

You can take a hands-free video call on the go to catch up with friends and family in real time, and you can stay connected on WhatsApp and Messenger to view and send messages. No need to pull out your phone, unlock it, find the right app, and let your friend know you’re running late for dinner—you can do it all through your glasses.

https://youtube.com/watch?v=el7lUVvu8Bo%3F%26controls%3D0%3Fautoplay%3D0%26color%3Dwhite%26cc_lang_pref%3Den%26cc_load_policy%3D0%26enablejsapi%3D1%26frameborder%3D0%26hl%3Den%26rel%3D0%26origin%3Dhttps%253A%252F%252Fwww.meta.com

You can play shared AR games with family on the other side of the country or with your friend on the other side of the couch. And Orion’s large display lets you multitask with multiple windows to get stuff done without having to lug around your laptop.

The experiences available on Orion today will help chart the roadmap for our consumer AR glasses line in the future. Our teams will continue to iterate and build new immersive social experiences, alongside our developer partners, and we can’t wait to share what comes next.

A Purposeful Product Prototype

While Orion won’t make its way into the hands of consumers, make no mistake: This is not a research prototype. It’s the most polished product prototype we’ve ever developed—and it’s truly representative of something that could ship to consumers. Rather than rushing to put it on shelves, we decided to focus on internal development first, which means we can keep building quickly and continue to push the boundaries of the technology and experiences.

And that means we’ll arrive at an even better consumer product faster.

What Comes Next

Two major obstacles have long stood in the way of mainstream consumer-grade AR glasses: the technological breakthroughs necessary to deliver a large display in a compact glasses form factor and the necessity of useful and compelling AR experiences that can run on those glasses. Orion is a huge milestone, delivering true AR experiences running on reasonably stylish hardware for the very first time.

Now that we’ve shared Orion with the world, we’re focused on a few things:

  • Tuning the AR display quality to make the visuals even sharper
  • Optimizing wherever we can to make the form factor even smaller
  • Building at scale to make them more affordable

In the next few years, you can expect to see new devices from us that build on our R&D efforts. And a number of Orion’s innovations have been extended to our current consumer products today as well as our future product roadmap. We’ve optimized some of our spatial perception algorithms, which are running on both Meta Quest 3S and Orion. While the eye gaze and subtle gestural input system was originally designed for Orion, we plan to use it in future products. And we’re exploring the use of EMG wristbands across future consumer products as well.

Orion isn’t just a window into the future—it’s a look at the very real possibilities within reach today. We built it in our pursuit of what we do best: helping people connect. From Ray-Ban Meta glasses to Orion, we’ve seen the good that can come from letting people stay more present and empowered in the physical world, even while tapping into all the added richness the digital world has to offer.

We believe you shouldn’t have to choose between the two. And with the next computing platform, you won’t have to.


Az Orionnal kapcsolatos további információkért tekintse meg ezeket a blogbejegyzéseket:

Közzétéve az oldalon - Hozzászólás most!

EgoMimic: A Georgia Tech PhD hallgatója a Project Aria Research Glasses segítségével képez ki humanoid robotokat

Ma egy új kutatásra hívjuk fel a figyelmet. Georgia Tech amely segít robotokat betanítani az alapvető mindennapi feladatok elvégzésére a Meta's Aria projekt kutatási szemüveg. Nézze meg az alábbi videót, olvassa el a teljes cikket, vagy igényeljen saját Project Aria kutatási készletet.

Képzelje el, hogy a mindennapi feladatok elvégzéséhez, például a mosáshoz, mosogatáshoz és javításokhoz segítségre van szüksége. Már most is használunk eszközöket, amelyek segítenek ezekben a feladatokban, például mosógépeket, mosogatógépeket és elektromos fúrógépeket. De mi lenne, ha egy még erősebb és rugalmasabb eszköz állna rendelkezésedre egy humanoid robot formájában, amely képes tanulni tőled, és felgyorsítani a teendőid listáján szereplő fizikai projektek bármelyikét?

Még ha rendelkeznénk is a rendelkezésre álló hardverrendszerrel, egy robot megtanítása a mindennapi feladatok elvégzésére csak egy lassú és nehézkes adatgyűjtési módszerrel, az úgynevezett robot-teleoperációval érhető el. Egészen mostanáig. A Project Aria kutatási készletDanfei Xu professzor és a Robotikai tanulás és érvelés laboratórium a címen. Georgia Tech az Aria szemüveg egocentrikus érzékelőit arra használják, hogy az általuk "emberi adatoknak" nevezett adatokat hozzanak létre olyan feladatokhoz, amelyeket egy humanoid robotnak kell lemásolnia. Az emberi adatokat arra használják, hogy drámaian csökkentsék a robot teleoperációs adatainak mennyiségét, amelyek a robotok politikájának betanításához szükségesek - ez az áttörés egy nap képessé teheti a humanoid robotokat arra, hogy bármilyen számú feladatot megtanuljanak, amelyet egy ember be tud mutatni.

Kareer teleoperálja a robotot, hogy az EgoMimic számára társ-tréningadatokat rögzítsen. A távműködtetés nehezen méretezhető és jelentős emberi erőfeszítést igényel.

"Hagyományosan az adatgyűjtés a robotika számára demonstrációs adatok létrehozását jelenti" - mondja Simar Kareer, a Georgia Tech doktori hallgatója. Iskola Interaktív Számítástechnika. "A robot ízületeit egy vezérlővel működteted, hogy mozgasd a robotot, és elérd a kívánt feladatot, és ezt több százszor csinálod, miközben rögzíted az érzékelőadatokat, majd betanítod a modelleket. Ez lassú és nehézkes. Ezt a ciklust csak úgy lehet megtörni, ha az adatgyűjtést leválasztjuk magáról a robotról."

Ma a robotpolitikai modelleket nagy mennyiségű, az egyes szűk feladatokra specifikus, célzott demonstrációs adatokkal képzik ki, ami nagy költséggel jár. Kareer feltételezi, hogy a sok kutatótól passzívan gyűjtött adatok, mint például az Aria szemüveg által rögzített adatok, ehelyett arra használhatók, hogy lehetővé tegyék a feladatok sokkal szélesebb körére vonatkozó adatok létrehozását, hogy a jövőben általánosan hasznosabb robotokat hozzanak létre.

Inspirálta Aria projekt és Ego-Exo4D amely egy hatalmas, több mint 3K órányi, a mindennapi életben végzett tevékenységekről készült videofelvételekből álló egocentrikus adathalmazt tartalmaz, Kareer kifejlesztette a EgoMimic, egy új algoritmikus keretrendszer, amely emberi és robotadatokat használ fel a humanoid robotok fejlesztéséhez.

"Amikor ránéztem az Ego4D-re, egy olyan adathalmazt láttam, amely ugyanolyan, mint az összes nagy robotadathalmaz, amelyet megpróbálunk összegyűjteni, csak éppen emberekkel" - magyarázza Kareer. "Csak felveszel egy szemüveget, és mész, és csinálsz dolgokat. Nem kell, hogy a robotból származzon. Valami skálázhatóbb és passzívabban generált dologtól kell származnia, ami mi vagyunk." Kareer kutatásában az Aria szemüveget arra használták, hogy emberi adatokat hozzanak létre az EgoMimic keretrendszer társ-tréningjéhez.

Kareer az Aria szemüveggel történő felvételek készítésével, pólóhajtogatás közben, együttképző emberi adatokat hoz létre.

Az Aria szemüveget nem csak emberi adatgyűjtésre használják a Georgia Tech kutatásaiban. A robot valós idejű működési beállításának szerves részeként is használják. Az Aria-szemüveget a humanoid robotplatformjukra szerelik, akár egy szempárt, és integrált érzékelőcsomagként szolgál, amely lehetővé teszi a robot számára, hogy valós időben érzékelje a környezetét. Az Aria Client SDK-t arra használják, hogy az Aria szenzoradatait közvetlenül a robot szabályzatába áramoltassák, amely egy csatlakoztatott PC-n fut, és amely viszont a robot működtetését vezérli. Az Aria szemüveg használata mind az adatgyűjtéshez, mind a valós idejű érzékelési csővezetékhez minimalizálja az emberi demonstrátor és a robot közötti tartománybeli szakadékot, megnyitva az utat a jövőbeli robotikai feladatok képzéséhez szükséges méretezett emberi adatok előállításához.

A robot tetejére szerelt Aria szemüvegek érzékelő adatokat szolgáltatnak a rendszer számára, amelyek lehetővé teszik a robot számára a tér érzékelését és a térrel való interakciót.

Az EgoMimicnek köszönhetően Kareer 400% növekedést ért el robotja teljesítményében a különböző feladatokban a korábbi módszerekhez képest, mindössze 90 percnyi Aria-felvétellel. A robot ezeket a feladatokat korábban nem látott környezetben is képes volt sikeresen végrehajtani.

A jövőben a humanoid robotokat egocentrikus adatok felhasználásával méretarányosan lehetne betanítani arra, hogy az emberekhez hasonlóan különböző feladatokat hajtsanak végre.

"Úgy tekintünk az Ariára, mint a kutatóközösségbe való befektetésre" - mondja James Fort, a Meta Reality Labs kutatási termékmenedzsere. "Minél inkább szabványosítja az egocentrikus kutatóközösséget, annál több kutató lesz képes együttműködni. Valójában a közösséggel való ilyen jellegű skálázás révén kezdhetünk el nagyobb problémákat megoldani azzal kapcsolatban, hogy hogyan fognak működni a dolgok a jövőben."

Kareer az EgoMimic-ről szóló előadását a 2025 IEEE mérnökök nemzetközi konferenciája a robotikáról és automatizálásról (ICRA) Atlantában.

Közzétéve az oldalon - Hozzászólás most!

Bemutatjuk az Aria Gen 2-t: Új kutatások a gépi észlelés, a kontextuális AI, a robotika és más területeken

A 2020-as indulás óta, Aria projekt lehetővé tette a kutatók számára, hogy a világ minden táján továbbfejlesszék a gépi érzékelés és a mesterséges intelligencia tudományának állását a legmodernebb kutatási hardverekhez és nyílt forráskódú eszközökhöz való hozzáférés révén. adatkészletek, modellek és szerszámok. Ma örömmel jelentjük be ennek az útnak a következő lépését: az Aria Gen 2 szemüvegek bevezetését. Ez a következő generációs hardver új lehetőségeket nyit meg a kutatási területek széles skáláján, beleértve a gépi érzékelést, az egocentrikus és kontextuális mesterséges intelligenciát és a robotikát.

0:00 / 0:00

A kutatók számára, akik azt szeretnék feltárni, hogy a mesterséges intelligencia rendszerek hogyan tudnak jobban megérteni a világot az ember szemszögébőlAz Aria Gen 2 szemüveg új képességekkel bővíti az Aria platformot. Számos olyan fejlesztést tartalmaznak, amelyek egyetlen más, ma kapható eszközön sem találhatók, és az ezekhez az áttörést jelentő technológiákhoz való hozzáférés lehetővé teszi a kutatók számára, hogy a lehetőségek határait feszegessék.

Az Aria Gen 1-hez képest az Aria Gen 2 egyedülálló értéket kínál:

  • Korszerű érzékelőkészlet: A továbbfejlesztett érzékelőkészlet RGB-kamerát, 6DOF SLAM-kamerákat, szemkövető kamerákat, térbeli mikrofonokat, IMU-kat, barométert, magnetométert és GNSS-t tartalmaz. Elődjéhez, az Aria Gen 1-höz képest az új generáció két innovatív, az orrpárnába ágyazott érzékelőt vezet be: egy PPG-érzékelőt a pulzusszám mérésére és egy kontaktmikrofont, amely megkülönbözteti a viselő hangját a járókelők hangjától.
  • Ultraalacsony energiafelhasználás és gépi érzékelés az eszközön: A SLAM, a szemkövetés, a kézkövetés és a beszédfelismerés mindegyike a Meta egyedi szilíciumának segítségével kerül feldolgozásra az eszközön.
  • Egész napos használhatóság: Az Aria Gen 2 szemüveg hat-nyolc órás folyamatos használatra képes, súlya körülbelül 75 gramm, és összecsukható karokkal rendelkezik a könnyű hordozhatóság érdekében.
  • Interakció hangon keresztül: A felhasználók hangvisszajelzést kapnak a kategóriájában legjobb, nyitott fülű, erővisszaszorítós hangszórókon keresztül, lehetővé téve a felhasználó által a rendszer prototípusának kialakítását.

évtizedes utazás a következő számítástechnikai platform megteremtése e kritikus technológiák kifejlesztéséhez vezetett. A Meta, a Reality Labs Research és a FAIR AI labor csapatai ezeket a hosszú távú kutatási elképzeléseink megvalósítására használják majd.. Az Aria-projekt révén a tudományos és kereskedelmi kutatólaboratóriumok számára elérhetővé tesszük őket, ami tovább fogja előmozdítani a nyílt kutatást és a közvélemény megértését egy olyan kulcsfontosságú technológiacsoporttal kapcsolatban, amelyről úgy véljük, hogy segíteni fog a számítástechnika és a mesterséges intelligencia jövőjének alakításában.

Az Aria projekt által 2020 óta lehetővé tett nyílt kutatás már most is fontos munkához vezetett, többek között olyan nyílt forráskódú eszközök létrehozásához, amelyeket széles körben használnak a tudományos és ipari életben. A Ego-Exo4D adatkészlet, amelyet az Aria szemüveg első generációjával gyűjtöttek, a modern számítógépes látás és a robotika egyre növekvő területén alapvető eszközzé vált. A Georgia Tech kutatói nemrégiben bemutatták, hogy az Aria Research Kit hogyan képes segít a humanoid robotoknak megtanulni, hogyan segítsenek az embereknek az otthonukban, míg a BMW csapatai arra használták, hogy feltárják, hogyan lehet a kiterjesztett és virtuális valóság rendszereket integrálni az intelligens járművekbe.

Az Aria az új technológiák fejlesztését is lehetővé teszi a hozzáférhetőség érdekében. Az első generációs Aria-szemüveget a következő cégek használták Carnegie Mellon Egyetem NavCog projektje keretében, amelynek célja olyan technológiák kifejlesztése volt, amelyek segítik a vak és gyengén látó személyeket a beltéri navigációban. Erre az alapra építve az Aria Gen 2 szemüveget most a következők használják fel Envision, egy olyan vállalat, amely a vakok és gyengénlátók számára kínál megoldásokat. Az Envision vizsgálja az Envision Ally AI asszisztens és térbeli hang a legújabb Aria Gen 2 szemüveggel a beltéri navigáció és az akadálymentesítés élményének javítása érdekében.

0:00 / 0:00

Az Envision az Aria Gen 2 készülék SLAM képességeit, valamint a fedélzeti hangszórókon keresztüli térbeli hangfunkciókat használta, hogy segítse a vak és gyengén látó személyek zökkenőmentes navigációját beltéri környezetben. A technológiáknak ez az innovatív alkalmazása, amely még a feltáró és kutatási szakaszban van, jól példázza, hogy a kutatók hogyan használhatják az Aria Gen 2 szemüvegeket az egocentrikus megfigyeléseken alapuló AI-élmények prototípusainak kialakítására. A fejlett érzékelők és az eszközön belüli gépi észlelési képességek, beleértve a SLAM, a szemkövetés, a kézkövetés és az audiointerakciókat, szintén ideálisak a kutatási és robotikai alkalmazásokhoz szükséges adatgyűjtéshez.

Az elkövetkező hónapokban további részleteket fogunk megosztani a partnerek számára elérhetővé váló készülékek elérhetőségének időzítéséről. Az Aria Gen 2 hozzáférése iránt érdeklődő kutatók a következőket tehetik meg iratkozzon fel a frissítésekre. Izgatottan várjuk, hogy a kutatók hogyan fogják kihasználni az Aria Gen 2-t, hogy előkészítsék az utat a jövőbeli innovációk számára, amelyek a következő számítástechnikai platformot fogják alakítani.

Közzétéve az oldalon - Hozzászólás most!

Ray-Ban Meta – Style and Technology in One Frame

Ray-Ban has been an iconic name in eyewear fashion for decades. But in collaboration with Meta (formerly Facebook), they’ve launched a product that pushes boundaries – the Ray-Ban Meta smart glasses. This fusion of classic design with modern technology offers a unique experience for both fashion enthusiasts and tech lovers.

At First Glance: Classic with a Twist

At first look, they seem like classic Ray-Bans – elegant black frames, premium craftsmanship, and a stylish eco-leather case. But take a closer look and you’ll realize they hide more than just style – they’re glasses with a built-in camera, microphone, speakers, and smartphone connectivity.

What Can Ray-Ban Meta Do?

  • Video and photo capture: A discreet camera on the frame lets you capture the world from your point of view – hands-free.
  • Music and calls: With built-in directional speakers and microphones, you can take calls or listen to music without earbuds.
  • Sync with the Meta View app: Everything you record syncs automatically to the app, ready to be shared on your socials.
  • Voice control: Thanks to voice assistant support, you can control your glasses with simple voice commands – ideal for driving, sports, or on-the-go use.

Who Are They For?

Ray-Ban Meta glasses are perfect for content creators, influencers, travelers, or anyone who wants to capture moments without pulling out their phone. They’re also great for business use – ideal for quick documentation, live streams, or mobile video calls.

Final Verdict: Smart Elegance Without Compromise

If you’re looking for eyewear that blends classic fashion with top-tier technology, Ray-Ban Meta is the clear choice. They’re not just a stylish accessory – they’re smart glasses that redefine how we see and capture the world around us.

Közzétéve az oldalon - Hozzászólás most!

Meta View Is Now the Meta AI App: Here’s What’s New & What Stays the Same

An important update for Ray-Ban Meta szemüveg owners today: The Meta View app is now the Meta AI app on iOS és Android. Along with a new name, your AI glasses companion app is getting an upgrade, with new features to make your experience more fun, useful, and personal than ever before. We’re here to walk you through the changes. But rest assured, the core features you’ve come to know will stay the same.

Glasses have emerged as the most exciting new hardware category of the AI era with Ray-Ban Meta glasses leading the way in defining what’s possible. We’re excited to bring the same voice experiences that have made our glasses so popular to more surfaces like the Meta AI app.

Friendly & Familiar

While the Meta AI app has a new name and look, it’s still the companion app for the Ray-Ban Meta glasses you know and love. The existing photos and videos you’ve captured with your glasses, device settings, and features you’re familiar with from Meta View are still available in the new app. We’re also automatically migrating your existing media and device settings from Meta View to the Meta AI app, so you won’t miss a beat. And just like we rolled out in our last update, you can use the Meta AI app to pair and manage up to seven pairs of glasses.

An All-In-One Companion App

New to Ray-Ban Meta glasses? The Meta AI app is your all-in-one companion to set up and manage your device. You can import, view, and share the photos and videos captured with your AI glasses directly from the app. You’ll also use the Meta AI app to configure your settings, update your software, and manage privacy options. You can set up voice commands from the app, so you can use your glasses hands-free, and even adjust your camera settings.

By integrating Meta AI and all that it offers into the companion app, we’re leveling up your Ray-Ban Meta glasses experience. You can get creative with the photos from your glasses directly in the Meta AI app—after importing your photos, ask Meta AI in the app to add, remove, or change parts of the image.

Checking out a new city? Ask Meta AI to tell you more about a local landmark. You can access and manage saved memories to improve your personalized responses from Meta AI on the app and your glasses over time. You can also start a conversation with Meta AI on your Ray-Ban Meta glasses, then access it in your history tab from the app to pick up where you left off.

New & Notable Features in the App

The Meta AI app was designed to help you find inspiration and get the most out of your glasses.

Az új Discover feed lets you see how other people are using AI to get things done. It’s a great way to find new ideas. Recycle a clever prompt or remix it to make it your own. And as always, you’re in control: Your conversations with Meta AI are not public unless you choose to share them to the feed.

While speaking with AI using your voice isn’t new, we’re using Llama 4 in the Meta AI app to bring you responses that feel more personal, relevant, and conversational. The experience integrates with other features like image generation and editing, which can now all be done through a voice or text conversation with your AI assistant in the app.

We’ve also included a demo of a voice experience we’re building that’s full-duplex speech technology, that you can toggle on and off to test in the Meta AI app. This feature doesn’t have access to real-time information, so you may encounter technical issues or inconsistencies. We’ll continue to gather feedback to improve it over time.

And to make it easier to multitask, you can also continue to use Meta AI’s voice features while doing other things on your phone, with a visible icon to let you know when the microphone is in use.

Voice conversations in the Meta AI app, including the full duplex demo, are available in the US, Canada, Australia, and New Zealand to start.* To learn more about how you can manage your experience on the Meta AI app and toggle between modes, visit our segítő központ.

Intelligence for You

The Meta AI app uses Llama 4 to help you solve problems, move throughout your day easier, and better understand the world around you. And with the ability to search across the web, it can help you get recommendations, deep dive on a topic, and stay connected with your friends and family.

We’re using our decades of experience personalizing people’s experiences on our platforms to make Meta AI more personal. You can tell Meta AI to remember specific details about you (like that you love to travel and learn new languages), and it can pick up important details from context cues. Meta AI also delivers more relevant answers to your questions by drawing on information you’ve already chosen to share on Facebook and Instagram (if they’re added to the same Accounts Center), like profile details and content you like or engage with. Personalized responses are available today in the US and Canada.

We’re Just Getting Started

This is the first version of the Meta AI app, and we plan to iterate and improve it over time. Meta AI is built to get to know you, so its answers are more helpful. It’s easy to talk to, so it’s more seamless and natural to interact with. And it’s more connected, so it can share things from the people and places you care about.

Give it a try today on iOS vagy Android, és learn more about the new and improved Meta AI.

*Voice conversations in New Zealand available in-app only, not on Ray-Ban Meta glasses.

Közzétéve az oldalon - Hozzászólás most!

Fashion Forward: Amelia Gray Spotted in Ray-Ban Meta Glasses on the Met Gala Red Carpet

High couture took center stage last night on the first Monday in May. And you may have spotted some familiar fashion-forward tech on the proverbial red carpet. As part of her custom lookAmelia Gray sported a pair of Ray-Ban Meta szemüveg.

CREDIT: Getty Images Entertainment

The AI glasses—Shiny Black Skyler frames with Polarized Green sun lenses—were the perfect accessory to capture photos and videos throughout the day while also helping her get ready. From taking calls hands-free and listening to music or a podcast to getting answers from Meta AI on the fly, Ray-Ban Meta glasses make any pre-event routine anything but.

This isn’t the first time our AI glasses have gone high fashion. Earlier this year, Gray debuted our sold-out Ray-Ban Meta x Coperni Limited Edition frames on the runway at Paris Fashion Week. Ray-Ban Meta glasses are fashion’s most useful tech-accessory, gaining traction among editors, stylists, and models from the pages of magazines to the runway—and now on the red carpet of fashion’s biggest night of the year.

“I’m still radiating from the night!” said Amelia Gray. “And to know that I will be able to relive so many of those special moments from my own perspective is truly surreal. It’s an entirely new way to experience and share these once-in-a-lifetime moments, and I couldn’t be more excited to be part of Ray-Ban Meta’s Met Gala debut. ”

Inside the event, Gray was joined by Charli XCX, Jeff Goldblum, Jenna Ortega, Kim Kardashian, Nicki Minaj, Rosé, Shaboozey, and Taraji P. Henson as guests at Instagram’s table along with Adam Mosseri and Eva Chen.

Photographer: Quil Lemons

And off the carpet, Instagram és Szálak hosted a number of icons who are driving the cultural conversation forward at The Mark Hotel for our 5th annual Watch Party. More than 50 creators and pop culture and fashion commentators gathered to watch the red carpet arrivals and share real-time looks on Instagram and Threads.

CREDIT: Huy Luong

Styles may come and go, but fashion is forever. And the future of AI glasses is looking bright.

Közzétéve az oldalon - Hozzászólás most!

New Ray-Ban | Meta Smart Glasses Styles and Meta AI Updates

00:00

00:30

Takeaways

  • We’re expanding the Ray-Ban Meta smart glasses collection with new styles.
  • We’re adding video calling with WhatsApp and Messenger to share your view on a video call. 
  • We’re rolling out Meta AI with Vision, so you can ask your glasses about what you’re seeing and get helpful information — completely hands-free. 

Our second-generation smart glasses, in partnership with EssilorLuxottica, have been flying off the shelves — they’re selling out faster than we can make them. And just in time for sunglasses season, we’re expanding the Ray-Ban Meta smart glasses collection with new styles designed to fit more face shapes so you can find the perfect pair. We’re also adding new features, including updates to Meta AI, to make the glasses even more useful.

A Frame for Every Face

Looking for a vintage vibe? Our new Skyler frames feature a cat eye design inspired by an era of iconic jet-set style, designed to suit smaller faces. 

We’re also adding a new low bridge option for our Headliner frames. If your glasses tend to slide down your nose, sit too low on your face or press on your cheeks, this is the fit for you. 

There are hundreds of different custom frame and lens combinations on the Ray-Ban Remix platform, so you can mix and match to make the glasses your own on ray-ban.com. And our new styles are designed to be prescription lens compatible. Skyler and the new Headliner low bridge fit are available for pre-order now on meta.com és ray-ban.com. These new styles are available in 15 countries, including the US, Canada, Australia, and throughout Europe.

Photo of 6 different pairs of Ray-Ban Meta frames

We’re also introducing the first limited-edition Ray-Ban Meta smart glasses in an exclusive Scuderia Ferrari colorway for Miami 2024. Ray-Ban Meta for Scuderia Limited Edition brings together the legacy of Ferrari, timeless Ray-Ban design and cutting-edge tech from Meta, available April 24, 2024.

Share Your View on a Video Call

From a breathtaking vista on a hike to experiencing your kid’s first steps, there are some moments in life that are just meant to be shared. That’s why we’re adding the ability to share your view on a video call via WhatsApp and Messenger, completely hands-free. 

Image showing hands-free video calling on Ray-Ban Meta smart glasses - a father cooking with his child

At the grocery store and not sure which brand of kombucha to buy? Can’t tell if that pineapple is ripe? Now you can hop on a video call with your mom and get her advice based on what you see. Video calling on Ray-Ban Meta smart glasses is rolling out gradually, so if you don’t see the update right away, sit tight — it’s on the way!

Meta AI Makes Your Smart Glasses Even Smarter

From integrated audio to an ultra-wide 12 MP camera, Ray-Ban Meta smart glasses are jam-packed with tech. And in the US and Canada, you also get Meta AI — an intelligent assistant that helps you get things done, create and connect with the people and things you care about. Just say, “Hey Meta,” and ask away! You can control the glasses using voice commands, and thanks to Meta AI, even get access to real-time information.

We started testing a multimodal AI update in December, so you can ask your glasses about what you’re seeing, and they’ll give you smart, helpful answers or suggestions. That means you can do more with your glasses because now they can see what you see. Starting today, we’re rolling this functionality out to all Ray-Ban Meta smart glasses in the US and Canada in beta. 

Say you’re traveling and trying to read a menu in French. Your smart glasses can use their built-in camera and Meta AI to translate the text for you, giving you the info you need without having to pull out your phone or stare at a screen. 

Image showing a woman wearing Ray-Ban Meta smart glasses using Meta AI feature