Opublikowano - Dodaj komentarz

Crystal Clear: nasze falowody z węglika krzemu i droga do dużego pola widzenia Oriona

0:00 / 0:00

W 2019 r. Orion Zespół przygotował ważne demo dla założyciela i CEO firmy Meta, Marka Zuckerberga, prezentując potencjalne falowody dla okulary rzeczywistości rozszerzonej-Był to kluczowy moment, w którym teoretyczne obliczenia na papierze zostały wcielone w życie. Było to demo, które zmieniło wszystko.

"Nosząc okulary ze szklanymi falowodami i wieloma płytkami, czułeś się jak na dyskotece" - wspomina Pasqual Rivera, Optical Scientist. "Wszędzie były tęcze i było to tak rozpraszające - nawet nie patrzyłeś na zawartość AR. Następnie zakładasz okulary z węglik krzemu falowody i było tak, jakbyś był na symfonii i słuchał cichego, klasycznego utworu. Można było w pełni skupić się na tym, co budowaliśmy. To był całkowity przełom".

Jednak wybór węglika krzemu jako podłoża wydaje się dziś tak oczywisty (gra słów zamierzona), jak wtedy, gdy po raz pierwszy zaczęliśmy podążać tą drogą. Droga do okularów AR dekadę temuale to nie było to.

"Węglik krzemu jest zwykle silnie domieszkowany azotem" - mówi Rivera. "Jest zielony, a jeśli zrobi się wystarczająco gruby, wygląda na czarny. Nie ma możliwości, by zrobić z niego soczewkę optyczną. To materiał elektroniczny. Jest powód, dla którego ma taki kolor, a są nim właściwości elektroniczne".

"Węglik krzemu jest materiałem stosowanym już od dłuższego czasu" - zgadza się Giuseppe Calafiore, Tech Lead AR Waveguides. "Jego głównym zastosowaniem jest elektronika dużej mocy. Weźmy na przykład pojazdy elektryczne: Wszystkie pojazdy elektryczne wymagają chipa - ale ten chip musi być również zdolny do bardzo dużej mocy, poruszania kołami i napędzania tego czegoś. Okazuje się, że nie można tego zrobić za pomocą zwykłego podłoża krzemowego, z którego wykonane są chipy używane w naszych komputerach i elektronice. Potrzebna jest platforma, która pozwala na przesyłanie dużych prądów i dużej mocy, a tym materiałem jest węglik krzemu".

Dopóki całkiem niedawno nie rozgorzały dyskusje na temat odnawialnych źródeł energii, rynek układów scalonych o dużej mocy nie był nawet zbliżony do wielkości rynku układów dla elektroniki użytkowej. Węglik krzemu zawsze był drogi i nie było dużej motywacji do obniżania kosztów, ponieważ w przypadku chipów wielkości samochodu cena podłoża była akceptowalna.

"Okazuje się jednak, że węglik krzemu ma również pewne właściwości, których potrzebujemy w falowodach i optyce" - mówi Calafiore. "Kluczową właściwością, na której nam zależy, jest współczynnik załamania światła. A węglik krzemu ma wysoki współczynnik załamania światła, co oznacza, że jest w stanie kierować i wysyłać dużą ilość danych optycznych. Można o tym myśleć jako o przepustowości optycznej - podobnie jak w przypadku przepustowości Internetu, która powinna być wystarczająco duża, aby można było przesyłać przez nią ogromne ilości danych. To samo dotyczy urządzeń optycznych".

Im wyższy współczynnik załamania światła danego materiału, tym wyższy jego étenduedzięki czemu można wysyłać więcej danych optycznych przez ten kanał.

"Kanałem w naszym przypadku jest falowód, a większy étendue przekłada się na większe pole widzenia" - wyjaśnia Calafiore. "Im większy współczynnik załamania światła materiału, tym większe pole widzenia wyświetlacza".

Droga do właściwego współczynnika załamania światła

Kiedy Calafiore po raz pierwszy dołączył do ówczesnego Oculus Research w 2016 roku, najwyższy współczynnik załamania światła, jakim dysponował zespół, wynosił 1,8 - co wymagało układania wielu płytek w celu uzyskania pożądanego pola widzenia. Pomijając niepożądane artefakty optyczne, linia montażowa stawała się coraz bardziej skomplikowana, ponieważ pierwsze dwa falowody musiały być idealnie wyrównane, a następnie ten stos musiał być idealnie wyrównany z trzecim falowodem.

"Nie tylko było to drogie, ale od razu stało się oczywiste, że nie można mieć trzech kawałków szkła na soczewkę w parze okularów" - wspomina Calafiore. "Były zbyt ciężkie, a ich grubość była zbyt duża i brzydka - nikt by tego nie kupił. Wróciliśmy więc do punktu wyjścia: próbując zwiększyć współczynnik załamania światła podłoża, aby zmniejszyć liczbę potrzebnych płytek".

Pierwszym materiałem, któremu przyjrzał się zespół, był niobian litu, którego współczynnik załamania światła wynosi około 2,3, czyli nieco więcej niż w przypadku szkła (1,8).

"Zdaliśmy sobie sprawę, że musimy ułożyć tylko dwie płytki, a może nawet poradzić sobie z jedną płytką, aby nadal pokryć pole widzenia" - mówi Calafiore. "Niemal równolegle zaczęliśmy przyglądać się innym materiałom - w ten sposób wraz z naszymi dostawcami w 2019 roku odkryliśmy, że węglik krzemu w swojej najczystszej postaci jest w rzeczywistości bardzo przezroczysty. Ma również najwyższy współczynnik załamania światła znany dla zastosowań optycznych, który wynosi 2,7".

Oznacza to wzrost o 17,4% w porównaniu do niobianu litu i 50% w porównaniu do szkła, dla tych, którzy liczą punkty w domu.

"Dzięki kilku modyfikacjom tego samego sprzętu, który był już używany w branży, możliwe było uzyskanie przezroczystego węglika krzemu" - mówi Calafiore. "Można było po prostu zmienić proces, być o wiele bardziej ostrożnym i zamiast optymalizować go pod kątem właściwości elektronicznych, zoptymalizować go pod kątem właściwości optycznych: przezroczystości, jednorodności współczynnika załamania światła itp.".

Potencjalny koszt kompromisu

W tamtym czasie zespół Reality Labs był pierwszym, który nawet próbował przejść z nieprzezroczystych płytek z węglika krzemu na przezroczyste. A ponieważ węglik krzemu jest jednym z najtwardszych znanych materiałów, do jego cięcia lub polerowania niezbędne są narzędzia diamentowe. W rezultacie jednorazowe koszty inżynieryjne były bardzo wysokie, więc uzyskane podłoże było dość drogie.

Chociaż istnieją bardziej opłacalne alternatywy, jak w przypadku każdej technologii, każda z nich ma swoje wady. A wraz ze wzrostem pola widzenia w kierunku wiodącego w branży pola widzenia Oriona wynoszącego około 70 stopni, pojawiają się nowe problemy, takie jak obrazy duchów i tęcze.

"Znalezienie optymalnego rozwiązania dla wyświetlacza AR o szerokim polu widzenia jest obarczone kompromisami między wydajnością a kosztami" - wyjaśnia dyrektor ds. badań naukowych Barry Silverstein. "Koszty często można obniżyć, ale jeśli wydajność nie jest wystarczająca, koszty nie będą miały znaczenia".

Obrazy-widma są jak wizualne echa głównego obrazu wyświetlanego na ekranie. Tęcze to kolorowe smugi światła, które powstają, gdy światło otoczenia odbija się od falowodu. "Powiedzmy, że jedziesz nocą z poruszającymi się światłami samochodów wokół ciebie" - mówi Silverstein. "Będziesz mieć tęcze, które również się poruszają. Albo jeśli jesteś na plaży i grasz w siatkówkę, a słońce świeci, będziesz mieć tęczową smugę, która porusza się razem z tobą i nie trafisz w piłkę". Jedną z cudownych właściwości węglika krzemu jest to, że pozbywa się tych tęcz".

"Kolejną zaletą węglika krzemu, której nie ma żaden inny materiał, jest przewodność cieplna" - dodaje Calafiore. "Plastik jest fatalnym izolatorem. Szkło, niobian litu, to samo. Węglik krzemu jest przezroczysty, wygląda jak szkło i zgadnij co: przewodzi ciepło".

W lipcu 2020 r. zespół ustalił, że węglik krzemu był optymalnym wyborem z trzech głównych powodów: Doprowadziło to do poprawy współczynnika kształtu, ponieważ wymagało tylko jednej płytki i mniejszych struktur montażowych, miało lepsze właściwości optyczne i było lżejsze niż szkło z dwoma płytkami.

Sekret wytrawiania skośnego

Mając na uwadze materiał, kolejnym orzechem do zgryzienia była produkcja falowodów - a konkretnie niekonwencjonalna technika siatki zwana trawieniem skośnym.

"Siatka jest nanostrukturą, która sprzęga i odsprzęga światło z soczewki", wyjaśnia Calafiore. "Aby węglik krzemu działał, siatka musi być wytrawiona ukośnie. Zamiast być pionowymi, linie siatki muszą być nachylone po przekątnej".

"Byliśmy pierwszymi, którzy wykonali trawienie skośne bezpośrednio na urządzeniach" - mówi kierownik badań Nihar Mohanty. "Cała branża polegała na nanodruku, który nie sprawdza się w przypadku podłoży o tak wysokim współczynniku załamania światła. Dlatego nikt inny na świecie nie pomyślał o zastosowaniu węglika krzemu".

Ponieważ jednak trawienie ukośne jest niedojrzałą technologią, większość dostawców i fabryk chipów półprzewodnikowych nie dysponuje odpowiednimi narzędziami.

"W 2019 roku wraz z moim ówczesnym kierownikiem, Mattem Colburnem, założyliśmy własny zakład, ponieważ na świecie nie było niczego, co mogłoby produkować falowody z wytrawionego węglika krzemu i gdzie moglibyśmy udowodnić, że technologia wykracza poza skalę laboratoryjną" - wyjaśnia Mohanty. "To była ogromna inwestycja i stworzyliśmy tam cały rurociąg. Oprzyrządowanie zostało wykonane na zamówienie przez naszych partnerów, a proces został opracowany we własnym zakresie w Meta, chociaż nasze systemy są klasy badawczej, ponieważ nie było tam systemów klasy produkcyjnej. Współpracowaliśmy z partnerem produkcyjnym, aby opracować narzędzia i procesy wytrawiania skośnego klasy produkcyjnej. A teraz, gdy pokazaliśmy, co jest możliwe w przypadku węglika krzemu, chcemy, aby inni w branży zaczęli tworzyć własne narzędzia".

Im więcej firm zainwestuje w węglik krzemu klasy optycznej i opracuje sprzęt, tym silniejsza stanie się kategoria konsumenckich okularów AR.

Już nie gonię za tęczą

Podczas gdy technologiczna nieuchronność to mitGwiazdy z pewnością wydają się układać na korzyść węglika krzemu. I chociaż zespół nadal bada alternatywy, istnieje silne poczucie, że właściwi ludzie zebrali się we właściwym czasie w odpowiednich warunkach rynkowych, aby zbudować okulary AR przy użyciu tego materiału.

"Orion udowodnił, że węglik krzemu jest realną opcją dla okularów AR", mówi Silverstein, "a teraz widzimy zainteresowanie w całym łańcuchu dostaw na trzech różnych kontynentach, gdzie mocno dążą do tego jako możliwości. Węglik krzemu wyjdzie z tego zwycięsko. Moim zdaniem to tylko kwestia czasu".

W tym czasie wiele może się wydarzyć - podobnie jak od czasu, gdy wyhodowaliśmy pierwsze przezroczyste kryształy węglika krzemu.

"Wszyscy ci producenci węglika krzemu znacznie zwiększyli podaż w odpowiedzi na oczekiwany boom na pojazdy elektryczne" - zauważa Calafiore. "Obecnie mamy do czynienia z nadwyżką mocy produkcyjnych, która nie istniała, gdy budowaliśmy Oriona. Tak więc teraz, ponieważ podaż jest wysoka, a popyt niski, koszt podłoża zaczął spadać".

"Dostawcy są bardzo podekscytowani nową możliwością produkcji węglika krzemu klasy optycznej - w końcu każda soczewka falowodu reprezentuje dużą ilość materiału w stosunku do układu elektronicznego, a wszystkie ich dotychczasowe możliwości mają zastosowanie w tej nowej przestrzeni" - dodaje Silverstein. "Wypełnienie fabryki jest niezbędne, a skalowanie fabryki jest marzeniem. Rozmiar wafla również ma znaczenie: Im większy wafel, tym niższy koszt, ale złożoność procesu również rośnie. To powiedziawszy, widzieliśmy, jak dostawcy przechodzą od czterocalowych do ośmiocalowych wafli, a niektórzy pracują nad prekursorami 12-calowych wafli, które dałyby wykładniczo więcej par okularów AR".

Te postępy powinny pomóc w dalszym obniżaniu kosztów. To wciąż wczesne dni, ale przyszłość staje się coraz bardziej realna.

"Na początku każdej nowej rewolucji technologicznej próbujesz wielu rzeczy" - mówi Calafiore. "Spójrzmy na telewizję: Zaczęliśmy od kineskopów, a następnie przeszliśmy do telewizorów plazmowych LED, a teraz microLED. Przeszliśmy przez kilka różnych technologii i architektur. Podczas poszukiwania ścieżek wiele z nich prowadzi donikąd, ale są też takie, do których wciąż się wraca jako do najbardziej obiecujących. Nie jesteśmy na końcu drogi i nie możemy zrobić tego sami, ale węglik krzemu jest cudownym materiałem, który jest wart inwestycji".

"Świat się obudził", dodaje Silverstein. "Udało nam się wykazać, że węglik krzemu może być elastyczny w elektronice i fotonice. Jest to materiał, który w przyszłości może znaleźć zastosowanie w obliczeniach kwantowych. Widzimy też oznaki, że możliwe jest znaczne obniżenie kosztów. Pozostało jeszcze wiele do zrobienia, ale potencjalne korzyści są ogromne".


Dowiedz się więcej o węgliku krzemu w Photonics Spectra.

Więcej informacji na temat Orion można znaleźć w tych wpisach na blogu:

Opublikowano - Dodaj komentarz

Orion: Pojawiły się prawdziwe okulary AR

TL;DR:

  • Dzisiaj o godz. PołączenieMark Zuckerberg zaprezentował Oriona - naszą pierwszą parę prawdziwych okularów AR, wcześniej o nazwie kodowej Projekt Nazare.
  • Z wiodącym w branży polem widzenia, soczewki z węglika krzemuSkomplikowane falowody, projektory uLED i wiele innych, Orion jest naszym najbardziej zaawansowanym i dopracowanym prototypem produktu.
  • Obecnie kontynuujemy optymalizację produktów i obniżanie kosztów, dążąc do stworzenia skalowalnego urządzenia konsumenckiego, które zrewolucjonizuje sposób interakcji ludzi ze światem.

"Budujemy okulary AR".

Pięć prostych słów, wypowiedziane pięć lat temu. Wraz z nimi zatknęliśmy flagę na naszej wizji przyszłości, w której nie musimy już dokonywać fałszywego wyboru między światem informacji na wyciągnięcie ręki a światem fizycznym wokół nas.

A teraz, pięć lat później, kolejne pięć słów, które mogą ponownie zmienić grę:

Stworzyliśmy okulary AR.

https://youtube.com/watch?v=2CJsnyS8u3c%3Fsi%3DTr77gOKEq3PnA7-k%26controls%3D0%3Fautoplay%3D0%26color%3Dwhite%26cc_lang_pref%3Den%26cc_load_policy%3D0%26enablejsapi%3D1%26frameborder%3D0%26hl%3Den%26rel%3D0%26origin%3Dhttps%253A%252F%252Fwww.meta.com

W Meta nasza misja jest prosta: dać ludziom możliwość budowania społeczności i zbliżania świata do siebie. W Reality Labs tworzymy narzędzia, które pomagają ludziom czuć się połączonymi w dowolnym miejscu i czasie. Dlatego pracujemy nad stworzeniem kolejnej platformy komputerowej, która stawia ludzi w centrum uwagi, aby mogli być bardziej obecni, połączeni i wzmocnieni w świecie.

Okulary Ray-Ban Meta zademonstrowały moc zapewniania ludziom bezdotykowego dostępu do kluczowych części ich cyfrowego życia z ich fizycznego życia. Możemy rozmawiać z inteligentnym asystentem AI, łączyć się ze znajomymi i uwieczniać ważne chwile - a wszystko to bez konieczności wyciągania telefonu. Te stylowe okulary idealnie wpasowują się w nasze codzienne życie, a ludzie absolutnie je uwielbiają.

Jednak podczas gdy Ray-Ban Meta otworzył zupełnie nową kategorię okularów bez wyświetlacza doładowanych sztuczną inteligencją, branża XR od dawna marzyła o prawdziwych okularach AR - produkcie, który łączy zalety dużego wyświetlacza holograficznego i spersonalizowanej pomocy AI w wygodnej, stylowej formie do noszenia przez cały dzień.

A dziś przybliżyliśmy to marzenie do rzeczywistości, ujawniając Orionktóry naszym zdaniem jest najbardziej zaawansowaną parą okularów AR, jaką kiedykolwiek wyprodukowano. W rzeczywistości może to być najbardziej wymagające urządzenie elektroniki użytkowej wyprodukowane od czasu smartfona. Orion jest wynikiem przełomowych wynalazków w praktycznie każdej dziedzinie nowoczesnej informatyki - opierając się na praca, którą wykonywaliśmy w Reality Labs przez ostatnią dekadę. Jest on wyposażony w całkowicie nowe technologie, w tym najbardziej zaawansowany wyświetlacz AR, jaki kiedykolwiek powstał. niestandardowy silikon która umożliwia uruchamianie potężnych doświadczeń AR na parze okularów przy użyciu ułamka mocy i wagi zestawu słuchawkowego MR.

System wprowadzania danych Orion płynnie łączy głos, wzrok i śledzenie ruchów dłoni z Opaska EMG która umożliwia przesuwanie, klikanie i przewijanie, a jednocześnie trzyma rękę wygodnie przy boku, pozwalając ci pozostać obecnym w świecie i z ludźmi wokół ciebie podczas interakcji z bogatymi treściami cyfrowymi.

Począwszy od dziś na Connect i przez cały rok, otwieramy dostęp do prototypu naszego produktu Orion dla pracowników Meta i wybranych odbiorców zewnętrznych, aby nasz zespół programistów mógł uczyć się, iterować i budować w kierunku naszej konsumenckiej linii okularów AR, którą planujemy rozpocząć w najbliższej przyszłości.

Dlaczego okulary AR?

Istnieją trzy główne powody, dla których okulary AR są kluczem do odblokowania kolejnego wielkiego skoku w dziedzinie komputerów zorientowanych na człowieka.

  1. Umożliwiają one cyfrowe doświadczenia, które nie są ograniczone limitami ekranu smartfona. Dzięki dużym wyświetlaczom holograficznym możesz wykorzystać świat fizyczny jako płótno, umieszczając treści i doświadczenia 2D i 3D w dowolnym miejscu.
  2. Płynnie integrują kontekstową sztuczną inteligencję, która może wyczuwać i rozumieć otaczający Cię świat, aby przewidywać i proaktywnie zaspokajać Twoje potrzeby.
  3. Są lekkie i świetnie nadają się zarówno do użytku w pomieszczeniach, jak i na zewnątrz - i pozwalają ludziom zobaczyć swoje prawdziwe twarze, prawdziwe oczy i prawdziwe wyrazy twarzy.

To gwiazda północna, do której dąży nasza branża: produkt łączący wygodę i natychmiastowość urządzeń do noszenia z dużym wyświetlaczem, dużą przepustowością i kontekstową sztuczną inteligencją w formie, którą ludzie czują się komfortowo nosząc w swoim codziennym życiu.

Kompaktowa obudowa, złożone wyzwania

Przez lata staliśmy przed fałszywym wyborem - albo zestawy słuchawkowe do rzeczywistości wirtualnej i mieszanej, które zapewniają głębokie, wciągające wrażenia w nieporęcznej obudowie, albo okulary, które są idealne do całodziennego użytku, ale nie oferują bogatych aplikacji wizualnych i doświadczeń ze względu na brak dużego wyświetlacza i odpowiedniej mocy obliczeniowej.

Ale chcemy tego wszystkiego, bez kompromisów. Przez lata ciężko pracowaliśmy, aby wykorzystać niesamowite wrażenia przestrzenne zapewniane przez zestawy VR i MR oraz zminiaturyzować technologię niezbędną do dostarczenia tych doświadczeń w parze lekkich, stylowych okularów. Dopracowanie formy, dostarczanie holograficznych wyświetlaczy, opracowywanie atrakcyjnych doświadczeń AR i tworzenie nowych paradygmatów interakcji człowiek-komputer (HCI) - i zrobienie tego wszystkiego w jednym spójnym produkcie - jest jednym z najtrudniejszych wyzwań, przed jakimi kiedykolwiek stanęła nasza branża. Było to tak trudne, że myśleliśmy, że mamy mniej niż 10 procent szans na pomyślne wykonanie tego zadania.

Aż do teraz.

Przełomowy wyświetlacz w niezrównanej obudowie

Przy około 70 stopniach, Orion ma największe pole widzenia w najmniejszej jak dotąd obudowie okularów AR. To pole widzenia odblokowuje naprawdę wciągające przypadki użycia Oriona, od wielozadaniowych okien i rozrywki na dużym ekranie po naturalnej wielkości hologramy ludzi - wszystkie treści cyfrowe, które mogą płynnie łączyć się z widokiem świata fizycznego.

Dla Oriona pole widzenia było naszym świętym Graalem. Mierzyliśmy się z prawami fizyki i musieliśmy zginać wiązki światła w sposób, w jaki nie są one naturalnie zginane - i musieliśmy to zrobić w kopercie mocy mierzonej w miliwatach.

Zamiast szkła, Soczewki wykonaliśmy z węglika krzemu-nową aplikacją dla okularów AR. Węglik krzemu jest niezwykle lekki, nie powoduje artefaktów optycznych ani światła rozproszonego i ma wysoki współczynnik załamania światła - wszystkie te właściwości optyczne są kluczowe dla dużego pola widzenia. Same falowody mają naprawdę skomplikowane i złożone struktury 3D w nanoskali, aby dyfrakcjonować lub rozpraszać światło w sposób niezbędny do osiągnięcia tego pola widzenia. A projektory to diody uLED - nowy rodzaj technologii wyświetlania, która jest bardzo mała i niezwykle energooszczędna.

Orion to bez wątpienia para okularów, zarówno pod względem wyglądu, jak i dotyku - w komplecie z przezroczystymi soczewkami. W przeciwieństwie do zestawów słuchawkowych MR lub innych dzisiejszych okularów AR, nadal możesz widzieć prawdziwe oczy i mimikę innych osób, dzięki czemu możesz być obecny i dzielić się doświadczeniami z ludźmi wokół ciebie. Dziesiątki innowacji były wymagane, aby projekt przemysłowy został zredukowany do współczesnego kształtu okularów, które można wygodnie nosić na co dzień. Orion to wyczyn miniaturyzacji - komponenty są upakowane do ułamka milimetra. Udało nam się osadzić siedem maleńkich kamer i czujników w obręczach oprawek.

Musieliśmy utrzymać precyzję optyczną na poziomie jednej dziesiątej grubości ludzkiego włosa. System może wykrywać niewielkie ruchy - takie jak rozszerzanie się lub kurczenie ramek w różnych temperaturach pokojowych - a następnie cyfrowo korygować niezbędne wyrównanie optyczne, a wszystko to w ciągu milisekund. Ramy wykonaliśmy z magnezu - tego samego materiału, którego używa się w samochodach wyścigowych F1 i statkach kosmicznych - ponieważ jest lekki, a jednocześnie sztywny, dzięki czemu utrzymuje elementy optyczne w jednej linii i skutecznie odprowadza ciepło.

Ogrzewanie i chłodzenie

Po złamaniu wyświetlacza (bez zamierzonej gry słów) i przezwyciężeniu problemów z fizyką, musieliśmy poradzić sobie z wyzwaniem naprawdę potężnych obliczeń przy naprawdę niskim zużyciu energii i potrzebie rozpraszania ciepła. W przeciwieństwie do dzisiejszych zestawów słuchawkowych MR, nie można umieścić wentylatora w parze okularów. Musieliśmy więc wykazać się kreatywnością. Wiele materiałów użytych do chłodzenia Oriona jest podobnych do tych używanych przez NASA do chłodzenia satelitów w przestrzeni kosmicznej.

Zbudowaliśmy wysoce wyspecjalizowany krzem na zamówienie który jest niezwykle energooszczędny i zoptymalizowany pod kątem naszych algorytmów sztucznej inteligencji, percepcji maszynowej i grafiki. Zbudowaliśmy wiele niestandardowych chipów i dziesiątki wysoce niestandardowych krzemowych bloków IP wewnątrz tych chipów. Dzięki temu możemy wykorzystać algorytmy niezbędne do śledzenia dłoni i oczu, a także technologię jednoczesnej lokalizacji i mapowania (SLAM), która normalnie wymaga setek miliwatów mocy - a tym samym generuje odpowiednią ilość ciepła - i zmniejszyć ją do zaledwie kilkudziesięciu miliwatów.

I tak, niestandardowy krzem nadal odgrywa kluczową rolę w rozwoju produktów w Reality Labs, pomimo tego, co można przeczytać gdzie indziej. 😎

EMG bez wysiłku

Każda nowa platforma komputerowa niesie ze sobą zmiana paradygmatu w sposobie interakcji z naszymi urządzeniami. Wynalezienie myszy pomogło utorować drogę dla graficznych interfejsów użytkownika (GUI), które dominują w naszym dzisiejszym świecie, a smartfony zaczęły zyskiwać na popularności dopiero po pojawieniu się ekranu dotykowego. Ta sama zasada dotyczy urządzeń ubieralnych.

Rozmawialiśmy o naszej współpracy z elektromiografia lub EMGPrzez lata kierowaliśmy się przekonaniem, że wprowadzanie danych do okularów AR musi być szybkie, wygodne, niezawodne, subtelne i społecznie akceptowalne. A teraz ta praca jest gotowa na najlepszy czas.

System wprowadzania danych i interakcji Orion płynnie łączy głos, spojrzenie i śledzenie dłoni z opaską EMG, która umożliwia łatwe przesuwanie, klikanie i przewijanie.

To działa - i sprawia wrażenie magii. Wyobraź sobie robienie zdjęć podczas porannego joggingu za pomocą prostego dotknięcia opuszkami palców lub nawigowanie po menu za pomocą ledwo zauważalnych ruchów dłoni. Nasza opaska łączy w sobie wysokowydajny materiał tekstylny z wbudowanymi czujnikami EMG do wykrywania sygnałów elektrycznych generowanych nawet przez najmniejsze ruchy mięśni. Procesor ML w urządzeniu interpretuje następnie te sygnały EMG w celu wygenerowania zdarzeń wejściowych, które są przesyłane bezprzewodowo do okularów. System dostosowuje się do użytkownika, dzięki czemu z czasem staje się coraz lepszy w rozpoznawaniu najbardziej subtelnych gestów. A dziś dzielimy się więcej o naszym wsparciu dla zewnętrznych badań koncentrujących się na rozszerzenie potencjału równości i dostępności opasek EMG.

Poznaj bezprzewodowe urządzenie Compute Puck

Prawdziwe okulary AR muszą być bezprzewodowe i małe.Więc zbudowaliśmy Bezprzewodowy krążek obliczeniowy dla Orion. Odciąża to częściowo okulary, zapewniając dłuższą żywotność baterii i lepszy współczynnik kształtu wraz z niskim opóźnieniem.

Okulary obsługują wszystkie algorytmy śledzenia dłoni, oczu, SLAM i wyspecjalizowane algorytmy graficzne blokujące świat AR, podczas gdy logika aplikacji działa na krążku, aby okulary były tak lekkie i kompaktowe, jak to tylko możliwe.

Krążek ma dwa procesory, w tym jeden zaprojektowany na zamówienie w Meta, i zapewnia moc obliczeniową niezbędną do renderowania grafiki o niskim opóźnieniu, sztucznej inteligencji i dodatkowej percepcji maszynowej.

A ponieważ jest mały i elegancki, możesz wygodnie wrzucić krążek do torby lub kieszeni i zająć się swoimi sprawami - bez żadnych zobowiązań.

Doświadczenia AR

Oczywiście, jak w przypadku każdego sprzętu, jest on tylko tak dobry, jak to, co można na nim zrobić. robić z nim. I choć to wciąż wczesne dni, doświadczenia oferowane przez Orion są ekscytującym spojrzeniem na to, co nadejdzie.

https://youtube.com/watch?v=HkdSv3QPhNw%3F%26controls%3D0%3Fautoplay%3D0%26color%3Dwhite%26cc_lang_pref%3Den%26cc_load_policy%3D0%26enablejsapi%3D1%26frameborder%3D0%26hl%3Den%26rel%3D0%26origin%3Dhttps%253A%252F%252Fwww.meta.com

Mamy naszego inteligentnego asystenta, Meta AIdziałający na Orionie. Rozumie, na co patrzysz w świecie fizycznym i może pomóc Ci w tworzeniu przydatnych wizualizacji. Orion wykorzystuje ten sam model Llama, który zasila doświadczenia AI działające obecnie na inteligentnych okularach Ray-Ban Meta, a także niestandardowe modele badawcze, aby zademonstrować potencjalne przypadki użycia dla przyszłego rozwoju urządzeń do noszenia.

Możesz prowadzić rozmowy wideo bez użycia rąk, aby spotkać się z przyjaciółmi i rodziną w czasie rzeczywistym, a także pozostać w kontakcie z WhatsApp i Messenger, aby przeglądać i wysyłać wiadomości. Nie musisz wyciągać telefonu, odblokowywać go, szukać odpowiedniej aplikacji i informować znajomego, że spóźnisz się na kolację - wszystko to możesz zrobić przez okulary.

https://youtube.com/watch?v=el7lUVvu8Bo%3F%26controls%3D0%3Fautoplay%3D0%26color%3Dwhite%26cc_lang_pref%3Den%26cc_load_policy%3D0%26enablejsapi%3D1%26frameborder%3D0%26hl%3Den%26rel%3D0%26origin%3Dhttps%253A%252F%252Fwww.meta.com

Możesz grać we wspólne gry AR z rodziną po drugiej stronie kraju lub z przyjacielem po drugiej stronie kanapy. A duży wyświetlacz Oriona pozwala na wielozadaniowość z wieloma oknami, aby załatwić sprawy bez konieczności noszenia ze sobą laptopa.

Doświadczenia dostępne dziś na Orion pomogą nakreślić mapę drogową dla naszej konsumenckiej linii okularów AR w przyszłości. Nasze zespoły będą kontynuować iterację i tworzyć nowe wciągające doświadczenia społecznościowe, wraz z naszymi partnerami programistycznymi, i nie możemy się doczekać, aby podzielić się tym, co będzie dalej.

Celowy prototyp produktu

Chociaż Orion nie trafi do rąk konsumentów, nie popełnij błędu: To jest nie prototyp badawczy. Jest to najbardziej dopracowany prototyp produktu, jaki kiedykolwiek opracowaliśmy - i jest naprawdę reprezentatywny dla czegoś, co może wysłać do konsumentów. Zamiast spieszyć się z wprowadzeniem go na półki sklepowe, postanowiliśmy najpierw skupić się na rozwoju wewnętrznym, co oznacza, że możemy szybko budować i nadal przesuwać granice technologii i doświadczeń.

A to oznacza, że szybciej uzyskamy jeszcze lepszy produkt konsumencki.

Co będzie dalej

Dwie główne przeszkody przez długi czas stały na drodze do okularów AR klasy konsumenckiej: przełom technologiczny niezbędny do dostarczenia dużego wyświetlacza w kompaktowej obudowie okularów oraz konieczność użytecznych i atrakcyjnych doświadczeń AR, które można uruchomić na tych okularach. Orion jest ogromnym kamieniem milowym, dostarczając po raz pierwszy prawdziwe doświadczenia AR działające na dość stylowym sprzęcie.

Teraz, gdy udostępniliśmy Oriona światu, skupiamy się na kilku rzeczach:

  • Dostrajanie jakości wyświetlania AR w celu uzyskania jeszcze ostrzejszego obrazu
  • Optymalizacja wszędzie tam, gdzie to możliwe, aby jeszcze bardziej zmniejszyć obudowę
  • Budowanie na dużą skalę, aby uczynić je bardziej przystępnymi cenowo

W ciągu najbliższych kilku lat możesz spodziewać się nowych urządzeń, które będą bazować na naszych wysiłkach badawczo-rozwojowych. Szereg innowacji Oriona zostało rozszerzonych na nasze obecne produkty konsumenckie, a także na naszą przyszłą mapę drogową produktów. Zoptymalizowaliśmy niektóre z naszych algorytmów percepcji przestrzennej, które działają na obu urządzeniach. Meta Quest 3S i Orion. Podczas gdy wzrok i subtelny system wprowadzania danych za pomocą gestów został pierwotnie zaprojektowany dla Oriona, planujemy wykorzystać go w przyszłych produktach. Badamy również możliwość wykorzystania opasek EMG w przyszłych produktach konsumenckich.

Orion to nie tylko okno w przyszłość - to spojrzenie na bardzo realne możliwości, które są w zasięgu ręki już dziś. Stworzyliśmy go w pogoni za tym, co robimy najlepiej: pomaganiem ludziom w nawiązywaniu kontaktów. Od okularów Ray-Ban Meta po Orion, widzieliśmy dobro, które może płynąć z umożliwienia ludziom pozostania bardziej obecnym i wzmocnionym w świecie fizycznym, nawet podczas korzystania z całego dodatkowego bogactwa, jakie ma do zaoferowania świat cyfrowy.

Wierzymy, że nie powinieneś musieć wybierać między tymi dwoma rozwiązaniami. A dzięki następnej platformie obliczeniowej nie będziesz musiał.


Więcej informacji na temat Orion można znaleźć w tych wpisach na blogu:

Opublikowano - Dodaj komentarz

Orion's Compute Puck: Historia urządzenia, które pomogło nam stworzyć okulary AR

W zeszłym roku na Connect zaprezentowaliśmy Orion-nasza pierwsza prawdziwa para okularów AR. Kulminacja nasza praca w Reality Labs w ciągu ostatniej dekadyOrion łączy w sobie zalety dużego wyświetlacza holograficznego i spersonalizowanej pomocy AI w wygodnej formie do noszenia przez cały dzień. Zwrócono na niego uwagę ze względu na wiodące w branży pole widzenia, falowody z węglika krzemu, projektory uLED i nie tylko. Ale dziś zwracamy uwagę na niedocenianego bohatera Oriona: krążek obliczeniowy.

Zaprojektowany tak, aby można go było łatwo wsunąć do kieszeni lub torby, dzięki czemu można go zabrać ze sobą w dowolne miejsce w ciągu dnia, krążek odciąża moc obliczeniową Oriona, aby uruchomić logikę aplikacji i umożliwić bardziej atrakcyjną, mniejszą obudowę okularów. Łączy się bezprzewodowo z okularami i opaską EMG, zapewniając płynne działanie.

Ustaw i zapomnij, prawda?

Ale historia krążka - nawet jako prototyp - jest zaangażowana, z dramatycznym łukiem, którego nigdy nie zgadłbyś po jego wyglądzie.

"Kiedy budujesz coś takiego, zaczynasz przekraczać granice fizyki" - wyjaśnia dyrektor ds. zarządzania produktem, Rahul Prasad. "Przez ostatnie 50 lat prawo Moore'a sprawiło, że wszystko stało się mniejsze, szybsze i mniej energochłonne. Problem polega na tym, że teraz zaczynasz napotykać ograniczenia dotyczące ilości ciepła, które możesz rozproszyć, ilości baterii, którą możesz skompresować i wydajności anteny, którą możesz zmieścić w obiekcie o określonych rozmiarach".

Choć z perspektywy czasu może to być 20/20, potencjał krążka nie był od razu oczywisty. Kiedy budujesz coś jako pierwszy, musisz zbadać wszystkie możliwości - nie pozostawiając kamienia na kamieniu. Jak zbudować coś, co niektórzy mogą uważać za niepożądany dodatek, a nie krytyczną część pakietu?

"Wiedzieliśmy, że krążek jest dodatkowym urządzeniem, o noszenie którego prosimy ludzi" - zauważa Jared Van Cleave, kierownik ds. inżynierii projektowania produktów - "więc zastanawialiśmy się, jak zmienić błąd w funkcję".

Ostatecznie ten etos opłacił się w pełni, ponieważ krążek ściska dużo mocy obliczeniowej (i jeszcze więcej niestandardowego krzemu zaprojektowanego przez Metę dla sztucznej inteligencji i percepcji maszynowej) w niewielkim rozmiarze. Odegrało to kluczową rolę, pomagając Orionowi przejść ze sfery science fiction do rzeczywistości.

"Gdybyś nie miał krążka, nie byłbyś w stanie doświadczyć wrażeń, które oferuje Orion w swojej obudowie - kropka" - mówi Prasad. "Dobre doświadczenie AR wymaga naprawdę wysokiej wydajności: wysokiej liczby klatek na sekundę, ekstremalnie niskich opóźnień, precyzyjnego zarządzania łącznością bezprzewodową i energią itp. Krążek i okulary muszą być zaprojektowane tak, aby ściśle ze sobą współpracowały, nie tylko w warstwie aplikacji, ale także w systemie operacyjnym, oprogramowaniu układowym i warstwie sprzętowej. I nawet jeśli ktoś miałby współprojektować smartfon do pracy z okularami AR, wysokie wymagania dotyczące wydajności wyczerpałyby baterię telefonu i odciągnęłyby moc obliczeniową od przypadków użycia telefonu. Z drugiej strony, krążek ma własną baterię o dużej pojemności, wysokowydajny SoC i niestandardowy koprocesor AI zaprojektowany przez Metę, zoptymalizowany pod kątem Oriona".

Oczywiście krążek nie został zaprojektowany z dnia na dzień. Wymagało to lat iteracyjnej pracy.

"Nie wiedzieliśmy, w jaki sposób ludzie będą chcieli wchodzić w interakcję z Orionem z perspektywy danych wejściowych - nie było nic, co moglibyśmy wykorzystać na rynku" - mówi menedżer produktu Matt Resman. "Jeśli spojrzeć na nasze wczesne prototypy okularów, były to masywne zestawy słuchawkowe, które ważyły trzy lub cztery funty. A kiedy próbujesz zbudować produkt, naprawdę trudno jest zrozumieć wrażenia użytkownika, jeśli nie masz odpowiedniego współczynnika kształtu. W przypadku krążka byliśmy w stanie bardzo szybko wykonać prototyp, aby zacząć rozumieć, jak ludzie będą z niego korzystać".

Krążek o kryptonimie Omega został początkowo pomyślany przez ówczesną firmę Oculus Research jako opaska w kształcie litery Ω, która miałaby być zawieszona na szyi użytkownika i podłączona na stałe do okularów....

... aż do czasu, gdy kilka nowych innowacji wprowadzonych między innymi przez bezprzewodowy zespół Reality Labs pozwoliło im przeciąć przewód. Umożliwiło to bardziej poręczny lub kieszonkowy / w torbie współczynnik kształtu, który otworzył wiele możliwości.

"W tamtym momencie dzwonienie w rzeczywistości rozszerzonej było nadal głównym przypadkiem użycia" - wyjaśnia Van Cleave. "Krążek był miejscem, w którym zakotwiczone były filmy holograficzne. Kładłeś go na stole z ławką czujników skierowaną w Twoją stronę, obrazował Cię, a następnie wyświetlał z powierzchni krążka osobę, z którą rozmawiałeś".

"W Orion chodzi o łączenie ludzi i zbliżanie nas do siebie" - mówi Resman. "Jedną z początkowych koncepcji krążka była pomoc w stworzeniu poczucia obecności z innymi ludźmi i umożliwienie tej bogatszej formy komunikacji".

"To nie jest podobne do niczego, co kiedykolwiek widziałeś - urządzenie ma potencjał do tworzenia naprawdę zabawnych i unikalnych interakcji" - dodaje projektant przemysłowy Emron Henry. "Doświadczenie użytkownika jest trochę jak uwolnienie dżina z butelki, w której hologramy płynnie wyłaniają się i rozpuszczają z powrotem w urządzeniu".

Jak już pewnie wiesz, wewnątrz krążka kryje się większy potencjał niż to, co ostatecznie zostało włączone jako funkcja. Oprócz czujników i kamer, które byłyby używane do wywoływania AR, krążek ma haptykę i czujniki 6DOF, które mogłyby umożliwić wykorzystanie go jako śledzonego kontrolera do wybierania i manipulowania wirtualnymi obiektami oraz grania w gry AR. Zespół zbadał również pojemnościowe i siłowe wejście dotykowe, aby krążek mógł służyć jako gamepad, gdy jest trzymany zarówno w trybie pionowym, jak i poziomym.

"Rozmawialiśmy o potrzebie noszenia tej dodatkowej rzeczy" - mówi Van Cleave. "Jak uczynić ją bardziej użyteczną? Wokół tego był cały nurt prac. W pewnym momencie postawiono hipotezę, że gry AR będą tym zabójczym przypadkiem użycia".

Na początku wiedzieliśmy, że musimy zbadać możliwości krążka, który może robić rzeczy, których telefony nie mogą. Ostatecznie zdecydowaliśmy się na wykorzystanie wzroku, EMG i śledzenia dłoni w grach AR, takich jak Stargazer i Pong, ale we wczesnych dniach Oriona prototypowaliśmy różne wersje demonstracyjne i gry, które wykorzystywały krążek jako kontroler.

0:00 / 0:00

0:00 / 0:00

0:00 / 0:00

Renderowane eksploracje krążka jako kontrolera 6DOF dla gier AR, takich jak Pong.

"Ponieważ nie jest to telefon, dało nam to dużą swobodę projektowania", dodaje Prasad. "Może być grubszy, może być bardziej zaokrąglony, dzięki czemu wygodnie leży w dłoni jako kontroler. To dość niesamowite, że krążek jest w rzeczywistości mniejszy niż przeciętny telefon, ale jest potężniejszy niż telefon, ponieważ ma zaprojektowany przez Metę koprocesor do sztucznej inteligencji i percepcji maszynowej".

Zespół zbadał, w jaki sposób wysokiej jakości gra AR może różnić się od gry MR lub konsolowej. Oznaczało to zbadanie różnych możliwości kontrolera gier AR, w tym joysticków, fizycznych układów przycisków, przycisków spustowych i innych.

"Ostatecznie nie zbudowaliśmy żadnej z tych rzeczy" - zauważa Van Cleave. "Stworzyliśmy prototyp, ale nigdy nie zdecydowaliśmy się na pełną kompilację. Chcieliśmy zachować prostotę. Chcieliśmy stworzyć te miękkie interfejsy, ale nie fizyczne, mechaniczne przyciski".

I chociaż czujniki i haptyka nie zostały włączone w gotowym prototypie produktu, pełniły one integralną funkcję podczas opracowywania, umożliwiając zespołom zgłaszanie błędów poprzez kilkukrotne dotknięcie górnej części urządzenia w celu uruchomienia raportu o błędzie.

Gdy sztuczna inteligencja zaczęła zajmować centralne miejsce jako kluczowy przypadek użycia, obliczenia stawały się coraz bardziej wyraziste. W końcu krążek jest domem dla bezprzewodowej łączności Oriona, mocy obliczeniowej i pojemności baterii - co samo w sobie jest ogromnym osiągnięciem technicznym - a wszystko to pomaga zmniejszyć wagę i kształt okularów, jednocześnie rozpraszając znacznie więcej ciepła dzięki swojej powierzchni.

Podczas całej ewolucji jedna rzecz pozostała niezmienna: krążek kryje w sobie coś więcej, niż mogłoby się wydawać niewprawnemu oku. Przyjęcie niekonwencjonalnych pomysłów pozwoliło naszym zespołom odkrywać, przekraczać granice i budować przyszłość.

"Definiujemy kategorię, która jeszcze nie istnieje" - zauważa Henry. "Jak można się spodziewać w przypadku badań i rozwoju, po drodze były początki i przystanki. Jak użytkownicy będą oczekiwać interakcji z hologramami? Czy woleliby używać pilota AR, czy też śledzenie dłoni, wzrok i EMG są wystarczające do wprowadzania danych? Co wydaje się intuicyjne, o niskim współczynniku tarcia, znajome i użyteczne?"

"Zamiast postrzegać krążek jako zwykły kamień, zadaliśmy sobie pytanie, co jeszcze możemy zapewnić, aby jeszcze bardziej odróżnić go od telefonów i uzasadnić, dlaczego chcesz go nosić" - przyznaje Resman. "Czy jego surowa moc obliczeniowa i praktyczny design - który pomógł odblokować formę okularów, które można realistycznie nosić przez cały dzień - ostatecznie oferują wystarczającą wartość? Naszym zadaniem jest pomóc odpowiedzieć na te pytania".

"Na początku skupiliśmy się na tym, co możemy zrobić, a czego nie może zrobić telefon" - dodaje Van Cleave. "Telefony muszą mieć ekran, muszą mieć określony fizyczny układ przycisków, którego oczekują użytkownicy. My nie mamy tych ograniczeń. Nasz krążek obliczeniowy może być tym, czym chcemy".


Więcej informacji na temat Orion można znaleźć w tych wpisach na blogu:

Opublikowano - Dodaj komentarz

Orion: Pojawiły się prawdziwe okulary AR

TL;DR:

  • Dzisiaj o godz. PołączenieMark Zuckerberg zaprezentował Oriona - naszą pierwszą parę prawdziwych okularów AR, wcześniej o nazwie kodowej Projekt Nazare.
  • Z wiodącym w branży polem widzenia, soczewki z węglika krzemuSkomplikowane falowody, projektory uLED i wiele innych, Orion jest naszym najbardziej zaawansowanym i dopracowanym prototypem produktu.
  • Obecnie kontynuujemy optymalizację produktów i obniżanie kosztów, dążąc do stworzenia skalowalnego urządzenia konsumenckiego, które zrewolucjonizuje sposób interakcji ludzi ze światem.

"Budujemy okulary AR".

Pięć prostych słów, wypowiedziane pięć lat temu. Wraz z nimi zatknęliśmy flagę na naszej wizji przyszłości, w której nie musimy już dokonywać fałszywego wyboru między światem informacji na wyciągnięcie ręki a światem fizycznym wokół nas.

A teraz, pięć lat później, kolejne pięć słów, które mogą ponownie zmienić grę:

Stworzyliśmy okulary AR.

https://youtube.com/watch?v=2CJsnyS8u3c%3Fsi%3DTr77gOKEq3PnA7-k%26controls%3D0%3Fautoplay%3D0%26color%3Dwhite%26cc_lang_pref%3Den%26cc_load_policy%3D0%26enablejsapi%3D1%26frameborder%3D0%26hl%3Den%26rel%3D0%26origin%3Dhttps%253A%252F%252Fwww.meta.com

W Meta nasza misja jest prosta: dać ludziom możliwość budowania społeczności i zbliżania świata do siebie. W Reality Labs tworzymy narzędzia, które pomagają ludziom czuć się połączonymi w dowolnym miejscu i czasie. Dlatego pracujemy nad stworzeniem kolejnej platformy komputerowej, która stawia ludzi w centrum uwagi, aby mogli być bardziej obecni, połączeni i wzmocnieni w świecie.

Okulary Ray-Ban Meta zademonstrowały moc zapewniania ludziom bezdotykowego dostępu do kluczowych części ich cyfrowego życia z ich fizycznego życia. Możemy rozmawiać z inteligentnym asystentem AI, łączyć się ze znajomymi i uwieczniać ważne chwile - a wszystko to bez konieczności wyciągania telefonu. Te stylowe okulary idealnie wpasowują się w nasze codzienne życie, a ludzie absolutnie je uwielbiają.

Jednak podczas gdy Ray-Ban Meta otworzył zupełnie nową kategorię okularów bez wyświetlacza doładowanych sztuczną inteligencją, branża XR od dawna marzyła o prawdziwych okularach AR - produkcie, który łączy zalety dużego wyświetlacza holograficznego i spersonalizowanej pomocy AI w wygodnej, stylowej formie do noszenia przez cały dzień.

A dziś przybliżyliśmy to marzenie do rzeczywistości, ujawniając Orionktóry naszym zdaniem jest najbardziej zaawansowaną parą okularów AR, jaką kiedykolwiek wyprodukowano. W rzeczywistości może to być najbardziej wymagające urządzenie elektroniki użytkowej wyprodukowane od czasu smartfona. Orion jest wynikiem przełomowych wynalazków w praktycznie każdej dziedzinie nowoczesnej informatyki - opierając się na praca, którą wykonywaliśmy w Reality Labs przez ostatnią dekadę. Jest on wyposażony w całkowicie nowe technologie, w tym najbardziej zaawansowany wyświetlacz AR, jaki kiedykolwiek powstał. niestandardowy silikon która umożliwia uruchamianie potężnych doświadczeń AR na parze okularów przy użyciu ułamka mocy i wagi zestawu słuchawkowego MR.

System wprowadzania danych Orion płynnie łączy głos, wzrok i śledzenie ruchów dłoni z Opaska EMG która umożliwia przesuwanie, klikanie i przewijanie, a jednocześnie trzyma rękę wygodnie przy boku, pozwalając ci pozostać obecnym w świecie i z ludźmi wokół ciebie podczas interakcji z bogatymi treściami cyfrowymi.

Począwszy od dziś na Connect i przez cały rok, otwieramy dostęp do prototypu naszego produktu Orion dla pracowników Meta i wybranych odbiorców zewnętrznych, aby nasz zespół programistów mógł uczyć się, iterować i budować w kierunku naszej konsumenckiej linii okularów AR, którą planujemy rozpocząć w najbliższej przyszłości.

Dlaczego okulary AR?

Istnieją trzy główne powody, dla których okulary AR są kluczem do odblokowania kolejnego wielkiego skoku w dziedzinie komputerów zorientowanych na człowieka.

  1. Umożliwiają one cyfrowe doświadczenia, które nie są ograniczone limitami ekranu smartfona. Dzięki dużym wyświetlaczom holograficznym możesz wykorzystać świat fizyczny jako płótno, umieszczając treści i doświadczenia 2D i 3D w dowolnym miejscu.
  2. Płynnie integrują kontekstową sztuczną inteligencję, która może wyczuwać i rozumieć otaczający Cię świat, aby przewidywać i proaktywnie zaspokajać Twoje potrzeby.
  3. Są lekkie i świetnie nadają się zarówno do użytku w pomieszczeniach, jak i na zewnątrz - i pozwalają ludziom zobaczyć swoje prawdziwe twarze, prawdziwe oczy i prawdziwe wyrazy twarzy.

To gwiazda północna, do której dąży nasza branża: produkt łączący wygodę i natychmiastowość urządzeń do noszenia z dużym wyświetlaczem, dużą przepustowością i kontekstową sztuczną inteligencją w formie, którą ludzie czują się komfortowo nosząc w swoim codziennym życiu.

Kompaktowa obudowa, złożone wyzwania

Przez lata staliśmy przed fałszywym wyborem - albo zestawy słuchawkowe do rzeczywistości wirtualnej i mieszanej, które zapewniają głębokie, wciągające wrażenia w nieporęcznej obudowie, albo okulary, które są idealne do całodziennego użytku, ale nie oferują bogatych aplikacji wizualnych i doświadczeń ze względu na brak dużego wyświetlacza i odpowiedniej mocy obliczeniowej.

Ale chcemy tego wszystkiego, bez kompromisów. Przez lata ciężko pracowaliśmy, aby wykorzystać niesamowite wrażenia przestrzenne zapewniane przez zestawy VR i MR oraz zminiaturyzować technologię niezbędną do dostarczenia tych doświadczeń w parze lekkich, stylowych okularów. Dopracowanie formy, dostarczanie holograficznych wyświetlaczy, opracowywanie atrakcyjnych doświadczeń AR i tworzenie nowych paradygmatów interakcji człowiek-komputer (HCI) - i zrobienie tego wszystkiego w jednym spójnym produkcie - jest jednym z najtrudniejszych wyzwań, przed jakimi kiedykolwiek stanęła nasza branża. Było to tak trudne, że myśleliśmy, że mamy mniej niż 10 procent szans na pomyślne wykonanie tego zadania.

Aż do teraz.

Przełomowy wyświetlacz w niezrównanej obudowie

Przy około 70 stopniach, Orion ma największe pole widzenia w najmniejszej jak dotąd obudowie okularów AR. To pole widzenia odblokowuje naprawdę wciągające przypadki użycia Oriona, od wielozadaniowych okien i rozrywki na dużym ekranie po naturalnej wielkości hologramy ludzi - wszystkie treści cyfrowe, które mogą płynnie łączyć się z widokiem świata fizycznego.

Dla Oriona pole widzenia było naszym świętym Graalem. Mierzyliśmy się z prawami fizyki i musieliśmy zginać wiązki światła w sposób, w jaki nie są one naturalnie zginane - i musieliśmy to zrobić w kopercie mocy mierzonej w miliwatach.

Zamiast szkła, Soczewki wykonaliśmy z węglika krzemu-nową aplikacją dla okularów AR. Węglik krzemu jest niezwykle lekki, nie powoduje artefaktów optycznych ani światła rozproszonego i ma wysoki współczynnik załamania światła - wszystkie te właściwości optyczne są kluczowe dla dużego pola widzenia. Same falowody mają naprawdę skomplikowane i złożone struktury 3D w nanoskali, aby dyfrakcjonować lub rozpraszać światło w sposób niezbędny do osiągnięcia tego pola widzenia. A projektory to diody uLED - nowy rodzaj technologii wyświetlania, która jest bardzo mała i niezwykle energooszczędna.

Orion to bez wątpienia para okularów, zarówno pod względem wyglądu, jak i dotyku - w komplecie z przezroczystymi soczewkami. W przeciwieństwie do zestawów słuchawkowych MR lub innych dzisiejszych okularów AR, nadal możesz widzieć prawdziwe oczy i mimikę innych osób, dzięki czemu możesz być obecny i dzielić się doświadczeniami z ludźmi wokół ciebie. Dziesiątki innowacji były wymagane, aby projekt przemysłowy został zredukowany do współczesnego kształtu okularów, które można wygodnie nosić na co dzień. Orion to wyczyn miniaturyzacji - komponenty są upakowane do ułamka milimetra. Udało nam się osadzić siedem maleńkich kamer i czujników w obręczach oprawek.

Musieliśmy utrzymać precyzję optyczną na poziomie jednej dziesiątej grubości ludzkiego włosa. System może wykrywać niewielkie ruchy - takie jak rozszerzanie się lub kurczenie ramek w różnych temperaturach pokojowych - a następnie cyfrowo korygować niezbędne wyrównanie optyczne, a wszystko to w ciągu milisekund. Ramy wykonaliśmy z magnezu - tego samego materiału, którego używa się w samochodach wyścigowych F1 i statkach kosmicznych - ponieważ jest lekki, a jednocześnie sztywny, dzięki czemu utrzymuje elementy optyczne w jednej linii i skutecznie odprowadza ciepło.

Ogrzewanie i chłodzenie

Po złamaniu wyświetlacza (bez zamierzonej gry słów) i przezwyciężeniu problemów z fizyką, musieliśmy poradzić sobie z wyzwaniem naprawdę potężnych obliczeń przy naprawdę niskim zużyciu energii i potrzebie rozpraszania ciepła. W przeciwieństwie do dzisiejszych zestawów słuchawkowych MR, nie można umieścić wentylatora w parze okularów. Musieliśmy więc wykazać się kreatywnością. Wiele materiałów użytych do chłodzenia Oriona jest podobnych do tych używanych przez NASA do chłodzenia satelitów w przestrzeni kosmicznej.

Zbudowaliśmy wysoce wyspecjalizowany krzem na zamówienie który jest niezwykle energooszczędny i zoptymalizowany pod kątem naszych algorytmów sztucznej inteligencji, percepcji maszynowej i grafiki. Zbudowaliśmy wiele niestandardowych chipów i dziesiątki wysoce niestandardowych krzemowych bloków IP wewnątrz tych chipów. Dzięki temu możemy wykorzystać algorytmy niezbędne do śledzenia dłoni i oczu, a także technologię jednoczesnej lokalizacji i mapowania (SLAM), która normalnie wymaga setek miliwatów mocy - a tym samym generuje odpowiednią ilość ciepła - i zmniejszyć ją do zaledwie kilkudziesięciu miliwatów.

I tak, niestandardowy krzem nadal odgrywa kluczową rolę w rozwoju produktów w Reality Labs, pomimo tego, co można przeczytać gdzie indziej. 😎

EMG bez wysiłku

Każda nowa platforma komputerowa niesie ze sobą zmiana paradygmatu w sposobie interakcji z naszymi urządzeniami. Wynalezienie myszy pomogło utorować drogę dla graficznych interfejsów użytkownika (GUI), które dominują w naszym dzisiejszym świecie, a smartfony zaczęły zyskiwać na popularności dopiero po pojawieniu się ekranu dotykowego. Ta sama zasada dotyczy urządzeń ubieralnych.

Rozmawialiśmy o naszej współpracy z elektromiografia lub EMGPrzez lata kierowaliśmy się przekonaniem, że wprowadzanie danych do okularów AR musi być szybkie, wygodne, niezawodne, subtelne i społecznie akceptowalne. A teraz ta praca jest gotowa na najlepszy czas.

System wprowadzania danych i interakcji Orion płynnie łączy głos, spojrzenie i śledzenie dłoni z opaską EMG, która umożliwia łatwe przesuwanie, klikanie i przewijanie.

To działa - i sprawia wrażenie magii. Wyobraź sobie robienie zdjęć podczas porannego joggingu za pomocą prostego dotknięcia opuszkami palców lub nawigowanie po menu za pomocą ledwo zauważalnych ruchów dłoni. Nasza opaska łączy w sobie wysokowydajny materiał tekstylny z wbudowanymi czujnikami EMG do wykrywania sygnałów elektrycznych generowanych nawet przez najmniejsze ruchy mięśni. Procesor ML w urządzeniu interpretuje następnie te sygnały EMG w celu wygenerowania zdarzeń wejściowych, które są przesyłane bezprzewodowo do okularów. System dostosowuje się do użytkownika, dzięki czemu z czasem staje się coraz lepszy w rozpoznawaniu najbardziej subtelnych gestów. A dziś dzielimy się więcej o naszym wsparciu dla zewnętrznych badań koncentrujących się na rozszerzenie potencjału równości i dostępności opasek EMG.

Poznaj bezprzewodowe urządzenie Compute Puck

Prawdziwe okulary AR muszą być bezprzewodowe i małe.Więc zbudowaliśmy Bezprzewodowy krążek obliczeniowy dla Orion. Odciąża to częściowo okulary, zapewniając dłuższą żywotność baterii i lepszy współczynnik kształtu wraz z niskim opóźnieniem.

Okulary obsługują wszystkie algorytmy śledzenia dłoni, oczu, SLAM i wyspecjalizowane algorytmy graficzne blokujące świat AR, podczas gdy logika aplikacji działa na krążku, aby okulary były tak lekkie i kompaktowe, jak to tylko możliwe.

Krążek ma dwa procesory, w tym jeden zaprojektowany na zamówienie w Meta, i zapewnia moc obliczeniową niezbędną do renderowania grafiki o niskim opóźnieniu, sztucznej inteligencji i dodatkowej percepcji maszynowej.

A ponieważ jest mały i elegancki, możesz wygodnie wrzucić krążek do torby lub kieszeni i zająć się swoimi sprawami - bez żadnych zobowiązań.

Doświadczenia AR

Oczywiście, jak w przypadku każdego sprzętu, jest on tylko tak dobry, jak to, co można na nim zrobić. robić z nim. I choć to wciąż wczesne dni, doświadczenia oferowane przez Orion są ekscytującym spojrzeniem na to, co nadejdzie.

https://youtube.com/watch?v=HkdSv3QPhNw%3F%26controls%3D0%3Fautoplay%3D0%26color%3Dwhite%26cc_lang_pref%3Den%26cc_load_policy%3D0%26enablejsapi%3D1%26frameborder%3D0%26hl%3Den%26rel%3D0%26origin%3Dhttps%253A%252F%252Fwww.meta.com

Mamy naszego inteligentnego asystenta, Meta AIdziałający na Orionie. Rozumie, na co patrzysz w świecie fizycznym i może pomóc Ci w tworzeniu przydatnych wizualizacji. Orion wykorzystuje ten sam model Llama, który zasila doświadczenia AI działające obecnie na inteligentnych okularach Ray-Ban Meta, a także niestandardowe modele badawcze, aby zademonstrować potencjalne przypadki użycia dla przyszłego rozwoju urządzeń do noszenia.

Możesz prowadzić rozmowy wideo bez użycia rąk, aby spotkać się z przyjaciółmi i rodziną w czasie rzeczywistym, a także pozostać w kontakcie z WhatsApp i Messenger, aby przeglądać i wysyłać wiadomości. Nie musisz wyciągać telefonu, odblokowywać go, szukać odpowiedniej aplikacji i informować znajomego, że spóźnisz się na kolację - wszystko to możesz zrobić przez okulary.

https://youtube.com/watch?v=el7lUVvu8Bo%3F%26controls%3D0%3Fautoplay%3D0%26color%3Dwhite%26cc_lang_pref%3Den%26cc_load_policy%3D0%26enablejsapi%3D1%26frameborder%3D0%26hl%3Den%26rel%3D0%26origin%3Dhttps%253A%252F%252Fwww.meta.com

Możesz grać we wspólne gry AR z rodziną po drugiej stronie kraju lub z przyjacielem po drugiej stronie kanapy. A duży wyświetlacz Oriona pozwala na wielozadaniowość z wieloma oknami, aby załatwić sprawy bez konieczności noszenia ze sobą laptopa.

Doświadczenia dostępne dziś na Orion pomogą nakreślić mapę drogową dla naszej konsumenckiej linii okularów AR w przyszłości. Nasze zespoły będą kontynuować iterację i tworzyć nowe wciągające doświadczenia społecznościowe, wraz z naszymi partnerami programistycznymi, i nie możemy się doczekać, aby podzielić się tym, co będzie dalej.

Celowy prototyp produktu

Chociaż Orion nie trafi do rąk konsumentów, nie popełnij błędu: To jest nie prototyp badawczy. Jest to najbardziej dopracowany prototyp produktu, jaki kiedykolwiek opracowaliśmy - i jest naprawdę reprezentatywny dla czegoś, co może wysłać do konsumentów. Zamiast spieszyć się z wprowadzeniem go na półki sklepowe, postanowiliśmy najpierw skupić się na rozwoju wewnętrznym, co oznacza, że możemy szybko budować i nadal przesuwać granice technologii i doświadczeń.

A to oznacza, że szybciej uzyskamy jeszcze lepszy produkt konsumencki.

Co będzie dalej

Dwie główne przeszkody przez długi czas stały na drodze do okularów AR klasy konsumenckiej: przełom technologiczny niezbędny do dostarczenia dużego wyświetlacza w kompaktowej obudowie okularów oraz konieczność użytecznych i atrakcyjnych doświadczeń AR, które można uruchomić na tych okularach. Orion jest ogromnym kamieniem milowym, dostarczając po raz pierwszy prawdziwe doświadczenia AR działające na dość stylowym sprzęcie.

Teraz, gdy udostępniliśmy Oriona światu, skupiamy się na kilku rzeczach:

  • Dostrajanie jakości wyświetlania AR w celu uzyskania jeszcze ostrzejszego obrazu
  • Optymalizacja wszędzie tam, gdzie to możliwe, aby jeszcze bardziej zmniejszyć obudowę
  • Budowanie na dużą skalę, aby uczynić je bardziej przystępnymi cenowo

W ciągu najbliższych kilku lat możesz spodziewać się nowych urządzeń, które będą bazować na naszych wysiłkach badawczo-rozwojowych. Szereg innowacji Oriona zostało rozszerzonych na nasze obecne produkty konsumenckie, a także na naszą przyszłą mapę drogową produktów. Zoptymalizowaliśmy niektóre z naszych algorytmów percepcji przestrzennej, które działają na obu urządzeniach. Meta Quest 3S i Orion. Podczas gdy wzrok i subtelny system wprowadzania danych za pomocą gestów został pierwotnie zaprojektowany dla Oriona, planujemy wykorzystać go w przyszłych produktach. Badamy również możliwość wykorzystania opasek EMG w przyszłych produktach konsumenckich.

Orion to nie tylko okno w przyszłość - to spojrzenie na bardzo realne możliwości, które są w zasięgu ręki już dziś. Stworzyliśmy go w pogoni za tym, co robimy najlepiej: pomaganiem ludziom w nawiązywaniu kontaktów. Od okularów Ray-Ban Meta po Orion, widzieliśmy dobro, które może płynąć z umożliwienia ludziom pozostania bardziej obecnym i wzmocnionym w świecie fizycznym, nawet podczas korzystania z całego dodatkowego bogactwa, jakie ma do zaoferowania świat cyfrowy.

Wierzymy, że nie powinieneś musieć wybierać między tymi dwoma rozwiązaniami. A dzięki następnej platformie obliczeniowej nie będziesz musiał.


Więcej informacji na temat Orion można znaleźć w tych wpisach na blogu:

Opublikowano - Dodaj komentarz

EgoMimic: Georgia Tech PhD student uses Project Aria Research Glasses to help train humanoid robots

Today, we’re highlighting new research from Georgia Tech that helps train robots to perform basic everyday tasks using egocentric recordings from wearers of Meta’s Project Aria research glasses. Check out the video below, read the full story, or apply for your own Project Aria Research Kit.

Imagine having help completing everyday tasks in your home such as doing the laundry, washing dishes, and making repairs. We already use tools to help with these tasks, like washing machines, dishwashers, and electric drills. But what if you could have an even more powerful and flexible tool in the form of a humanoid robot that could learn from you and accelerate any number of physical projects on your to-do list?

Even if you had the available hardware system, teaching a robot to do everyday tasks can only be achieved through a slow and clunky data collection method called robot teleoperation. Until now. By using the Project Aria Research Kit, Professor Danfei Xu and the Robotic Learning and Reasoning Lab at Georgia Tech use the egocentric sensors on Aria glasses to create what they call “human data” for tasks that they want a humanoid robot to replicate. They use human data to dramatically reduce the amount of robot teleoperation data needed to train a robot’s policy—a breakthrough that could some day make humanoid robots capable of learning any number of tasks a human could demonstrate.

Kareer teleoperates the robot to capture co-training data for EgoMimic. Teleoperation can be difficult to scale and require significant human effort.

“Traditionally, collecting data for robotics means creating demonstration data,” says Simar Kareer, a PhD student in Georgia Tech’s School of Interactive Computing. “You operate the robot’s joints with a controller to move it and achieve the task you want, and you do this hundreds of times while recording sensor data, then train your models. This is slow and difficult. The only way to break that cycle is to detach the data collection from the robot itself.”

Today, robot policy models are trained with large amounts of targeted demonstration data specific to each narrow task at a high cost. Kareer hypothesizes that passively collected data from many researchers, like the data captured by Aria glasses, could instead be used to enable data creation for a much broader set of tasks to create more generally useful robots in the future.

Inspired by Project Aria oraz Ego-Exo4D which includes a massive egocentric dataset of over 3K hours of video recordings of daily-life activities, Kareer developed EgoMimic, a new algorithmic framework that utilizes human data and robot data for humanoid robot development.

“When I looked at Ego4D, I saw a dataset that’s the same as all the large robot datasets we’re trying to collect, except it’s with humans,” Kareer explains. “You just wear a pair of glasses, and you go do things. It doesn’t need to come from the robot. It should come from something more scalable and passively generated, which is us.” In Kareer’s research, Aria glasses were used to create human data for co-training the EgoMimic framework.

Kareer creates co-training human data by recording with Aria glasses while folding a t-shirt.

Aria glasses aren’t just used for human data collection in Georgia Tech’s research. They’re also used as an integral component of the robot’s real-time operation setup. Aria glasses are mounted to their humanoid robot platform just like a pair of eyes and serve as an integrated sensor package that enables the robot to perceive its environment in real time. The Aria Client SDK is utilized to stream Aria’s sensor data directly into the robot’s policy, running on an attached PC, which in turn controls the robot’s actuation. Using Aria glasses for both the data collection and the real-time perception pipeline minimizes the domain gap between the human demonstrator and the robot, paving the way for scaled human data generation for future robotics task training.

Aria glasses mounted to the top of the robot provide the system with sensor data that allows the robot to perceive and interact with the space.

Thanks to EgoMimic, Kareer achieved a 400% increase in his robot’s performance across various tasks vs previous methods with just 90 minutes of Aria recordings. The robot was also able to successfully perform these tasks in previously unseen environments.

In the future, humanoid robots could be trained at scale using egocentric data in order to perform a variety of tasks in the same way humans do.

“We look at Aria as an investment in the research community,” says James Fort, a Reality Labs Research Product Manager at Meta. “The more that the egocentric research community standardizes, the more researchers will be able to collaborate. It’s really through scaling with the community like this that we can start to solve bigger problems around how things are going to work in the future.”

Kareer will present his paper on EgoMimic at the 2025 IEEE Engineers’ International Conference on Robotics and Automation (ICRA) in Atlanta.

Opublikowano - Dodaj komentarz

Introducing Aria Gen 2: Unlocking New Research in Machine Perception, Contextual AI, Robotics, and More

Since its launch in 2020, Project Aria has enabled researchers across the world to advance the state of the art in machine perception and AI, through access to cutting-edge research hardware and open-source datasets, models, and tooling. Today, we’re excited to announce the next step in this journey: the introduction of Aria Gen 2 glasses. This next generation of hardware will unlock new possibilities across a wide range of research areas including machine perception, egocentric and contextual AI, and robotics.

0:00 / 0:00

For researchers looking to explore how AI systems can better understand the world from a human perspective, Aria Gen 2 glasses add a new set of capabilities to the Aria platform. They include a number of advances not found on any other device available today, and access to these breakthrough technologies will enable researchers to push the boundaries of what’s possible.

Compared to Aria Gen 1, Aria Gen 2’s unique value proposition includes:

  • State-of-the-art sensor suite: The upgraded sensor suite features an RGB camera, 6DOF SLAM cameras, eye tracking cameras, spatial microphones, IMUs, barometer, magnetometer, and GNSS. Compared to its predecessor, Aria Gen 1, the new generation introduces two innovative sensors embedded in the nosepad: a PPG sensor for measuring heart rate and a contact microphone to distinguish the wearer’s voice from that of bystanders.
  • Ultra low-power and on-device machine perception: SLAM, eye tracking, hand tracking, and speech recognition are all processed on-device using Meta’s custom silicon.
  • All-day usability: Aria Gen 2 glasses are capable of six to eight hours of continuous use, weigh about 75 grams, and have foldable arms for easy portability.
  • Interaction through audio: Users get audio feedback via best-in-class open-ear force-canceling speakers, enabling user-in-the-loop system prototyping.

Our decade-long journey to create the next computing platform has led to the development of these critical technologies. At Meta, teams at Reality Labs Research and the FAIR AI lab will use them to advance our long-term research vision. Making them available to academic and commercial research labs through Project Aria will further advance open research and public understanding of a key set of technologies that we believe will help shape the future of computing and AI.

The open research enabled by Project Aria since 2020 has already led to important work, including the creation of open-source tools in wide use across academia and industry. The Ego-Exo4D dataset, collected using the first generation of Aria glasses, has become a foundational tool across modern computer vision and the growing field of robotics. Researchers at Georgia Tech recently showed how the Aria Research Kit can help humanoid robots learn to assist people in the home, while teams at BMW used it to explore how to integrate augmented and virtual reality systems into smart vehicles.

And Aria is also enabling the development of new technologies for accessibility. The first-generation Aria glasses were utilized by Carnegie Mellon University in their NavCog project, which aimed to build technologies to assist blind and low-vision individuals with indoor navigation. Building on this foundation, the Aria Gen 2 glasses are now being leveraged by Envision, a company dedicated to creating solutions for people who are blind or have low vision. Envision is exploring the integration of its Ally AI assistant and spatial audio using the latest Aria Gen 2 glasses to enhance indoor navigation and accessibility experiences.

0:00 / 0:00

Envision used the on-device SLAM capabilities of Aria Gen 2, along with spatial audio features via onboard speakers, to assist blind and low-vision individuals seamlessly navigate indoor environments. This innovative use of the technologies, which is still in the exploratory and research phase, exemplifies how researchers can leverage Aria Gen 2 glasses for prototyping AI experiences based on egocentric observations. The advanced sensors and on-device machine perception capabilities, including SLAM, eye tracking, hand tracking, and audio interactions, also make them ideal for data collection for research and robotics applications.

Over the coming months, we’ll share more details about the timing of device availability to partners. Researchers interested in accessing Aria Gen 2 can sign up to receive updates. We’re excited to see how researchers will leverage Aria Gen 2 to pave the way for future innovations that will shape the next computing platform.

Opublikowano - Dodaj komentarz

Ray-Ban Meta – Style and Technology in One Frame

Ray-Ban has been an iconic name in eyewear fashion for decades. But in collaboration with Meta (formerly Facebook), they’ve launched a product that pushes boundaries – the Ray-Ban Meta smart glasses. This fusion of classic design with modern technology offers a unique experience for both fashion enthusiasts and tech lovers.

At First Glance: Classic with a Twist

At first look, they seem like classic Ray-Bans – elegant black frames, premium craftsmanship, and a stylish eco-leather case. But take a closer look and you’ll realize they hide more than just style – they’re glasses with a built-in camera, microphone, speakers, and smartphone connectivity.

What Can Ray-Ban Meta Do?

  • Video and photo capture: A discreet camera on the frame lets you capture the world from your point of view – hands-free.
  • Music and calls: With built-in directional speakers and microphones, you can take calls or listen to music without earbuds.
  • Sync with the Meta View app: Everything you record syncs automatically to the app, ready to be shared on your socials.
  • Voice control: Thanks to voice assistant support, you can control your glasses with simple voice commands – ideal for driving, sports, or on-the-go use.

Who Are They For?

Ray-Ban Meta glasses are perfect for content creators, influencers, travelers, or anyone who wants to capture moments without pulling out their phone. They’re also great for business use – ideal for quick documentation, live streams, or mobile video calls.

Final Verdict: Smart Elegance Without Compromise

If you’re looking for eyewear that blends classic fashion with top-tier technology, Ray-Ban Meta is the clear choice. They’re not just a stylish accessory – they’re smart glasses that redefine how we see and capture the world around us.

Opublikowano - Dodaj komentarz

Meta View Is Now the Meta AI App: Here’s What’s New & What Stays the Same

An important update for Okulary Ray-Ban Meta owners today: The Meta View app is now the Meta AI app on iOS oraz Android. Along with a new name, your AI glasses companion app is getting an upgrade, with new features to make your experience more fun, useful, and personal than ever before. We’re here to walk you through the changes. But rest assured, the core features you’ve come to know will stay the same.

Glasses have emerged as the most exciting new hardware category of the AI era with Ray-Ban Meta glasses leading the way in defining what’s possible. We’re excited to bring the same voice experiences that have made our glasses so popular to more surfaces like the Meta AI app.

Friendly & Familiar

While the Meta AI app has a new name and look, it’s still the companion app for the Ray-Ban Meta glasses you know and love. The existing photos and videos you’ve captured with your glasses, device settings, and features you’re familiar with from Meta View are still available in the new app. We’re also automatically migrating your existing media and device settings from Meta View to the Meta AI app, so you won’t miss a beat. And just like we rolled out in our last update, you can use the Meta AI app to pair and manage up to seven pairs of glasses.

An All-In-One Companion App

New to Ray-Ban Meta glasses? The Meta AI app is your all-in-one companion to set up and manage your device. You can import, view, and share the photos and videos captured with your AI glasses directly from the app. You’ll also use the Meta AI app to configure your settings, update your software, and manage privacy options. You can set up voice commands from the app, so you can use your glasses hands-free, and even adjust your camera settings.

By integrating Meta AI and all that it offers into the companion app, we’re leveling up your Ray-Ban Meta glasses experience. You can get creative with the photos from your glasses directly in the Meta AI app—after importing your photos, ask Meta AI in the app to add, remove, or change parts of the image.

Checking out a new city? Ask Meta AI to tell you more about a local landmark. You can access and manage saved memories to improve your personalized responses from Meta AI on the app and your glasses over time. You can also start a conversation with Meta AI on your Ray-Ban Meta glasses, then access it in your history tab from the app to pick up where you left off.

New & Notable Features in the App

The Meta AI app was designed to help you find inspiration and get the most out of your glasses.

Nowy Discover feed lets you see how other people are using AI to get things done. It’s a great way to find new ideas. Recycle a clever prompt or remix it to make it your own. And as always, you’re in control: Your conversations with Meta AI are not public unless you choose to share them to the feed.

While speaking with AI using your voice isn’t new, we’re using Llama 4 in the Meta AI app to bring you responses that feel more personal, relevant, and conversational. The experience integrates with other features like image generation and editing, which can now all be done through a voice or text conversation with your AI assistant in the app.

We’ve also included a demo of a voice experience we’re building that’s full-duplex speech technology, that you can toggle on and off to test in the Meta AI app. This feature doesn’t have access to real-time information, so you may encounter technical issues or inconsistencies. We’ll continue to gather feedback to improve it over time.

And to make it easier to multitask, you can also continue to use Meta AI’s voice features while doing other things on your phone, with a visible icon to let you know when the microphone is in use.

Voice conversations in the Meta AI app, including the full duplex demo, are available in the US, Canada, Australia, and New Zealand to start.* To learn more about how you can manage your experience on the Meta AI app and toggle between modes, visit our centrum pomocy.

Intelligence for You

The Meta AI app uses Llama 4 to help you solve problems, move throughout your day easier, and better understand the world around you. And with the ability to search across the web, it can help you get recommendations, deep dive on a topic, and stay connected with your friends and family.

We’re using our decades of experience personalizing people’s experiences on our platforms to make Meta AI more personal. You can tell Meta AI to remember specific details about you (like that you love to travel and learn new languages), and it can pick up important details from context cues. Meta AI also delivers more relevant answers to your questions by drawing on information you’ve already chosen to share on Facebook and Instagram (if they’re added to the same Accounts Center), like profile details and content you like or engage with. Personalized responses are available today in the US and Canada.

We’re Just Getting Started

This is the first version of the Meta AI app, and we plan to iterate and improve it over time. Meta AI is built to get to know you, so its answers are more helpful. It’s easy to talk to, so it’s more seamless and natural to interact with. And it’s more connected, so it can share things from the people and places you care about.

Give it a try today on iOS lub Androidoraz learn more about the new and improved Meta AI.

*Voice conversations in New Zealand available in-app only, not on Ray-Ban Meta glasses.

Opublikowano - Dodaj komentarz

Moda do przodu: Amelia Gray w okularach Ray-Ban Meta na czerwonym dywanie Gali Met

High couture took center stage last night on the first Monday in May. And you may have spotted some familiar fashion-forward tech on the proverbial red carpet. As part of her custom lookAmelia Gray sported a pair of Okulary Ray-Ban Meta.

CREDIT: Getty Images Entertainment

The AI glasses—Shiny Black Skyler frames with Polarized Green sun lenses—were the perfect accessory to capture photos and videos throughout the day while also helping her get ready. From taking calls hands-free and listening to music or a podcast to getting answers from Meta AI on the fly, Ray-Ban Meta glasses make any pre-event routine anything but.

This isn’t the first time our AI glasses have gone high fashion. Earlier this year, Gray debuted our sold-out Ray-Ban Meta x Coperni Limited Edition frames on the runway at Paris Fashion Week. Ray-Ban Meta glasses are fashion’s most useful tech-accessory, gaining traction among editors, stylists, and models from the pages of magazines to the runway—and now on the red carpet of fashion’s biggest night of the year.

“I’m still radiating from the night!” said Amelia Gray. “And to know that I will be able to relive so many of those special moments from my own perspective is truly surreal. It’s an entirely new way to experience and share these once-in-a-lifetime moments, and I couldn’t be more excited to be part of Ray-Ban Meta’s Met Gala debut. ”

Inside the event, Gray was joined by Charli XCX, Jeff Goldblum, Jenna Ortega, Kim Kardashian, Nicki Minaj, Rosé, Shaboozey, and Taraji P. Henson as guests at Instagram’s table along with Adam Mosseri and Eva Chen.

Photographer: Quil Lemons

And off the carpet, Instagram oraz Nici hosted a number of icons who are driving the cultural conversation forward at The Mark Hotel for our 5th annual Watch Party. More than 50 creators and pop culture and fashion commentators gathered to watch the red carpet arrivals and share real-time looks on Instagram and Threads.

CREDIT: Huy Luong

Styles may come and go, but fashion is forever. And the future of AI glasses is looking bright.

Opublikowano - Dodaj komentarz

Nowe style inteligentnych okularów Ray-Ban | Meta i aktualizacje Meta AI

00:00

00:30

Na wynos

  • Rozszerzamy kolekcję inteligentnych okularów Ray-Ban Meta o nowe modele.
  • Dodajemy połączenia wideo z WhatsApp i Messenger, aby udostępniać swój widok podczas rozmowy wideo. 
  • Wdrażamy Meta AI z Vision, dzięki czemu możesz zapytać swoje okulary o to, co widzisz i uzyskać pomocne informacje - całkowicie bez użycia rąk. 

Nasze inteligentne okulary drugiej generacji, we współpracy z EssilorLuxotticaznikają z półek - wyprzedają się szybciej, niż jesteśmy w stanie je wyprodukować. W samą porę na sezon okularów przeciwsłonecznych rozszerzamy ofertę Kolekcja inteligentnych okularów Ray-Ban Meta z nowymi stylami zaprojektowanymi tak, aby pasowały do większej liczby kształtów twarzy, dzięki czemu można znaleźć idealną parę. Dodajemy również nowe funkcje, w tym aktualizacje Meta AI, aby okulary były jeszcze bardziej przydatne.

Ramka dla każdej twarzy

Szukasz klimatu vintage? Nasz nowe ramki Skyler Charakteryzują się wzorem kocich oczu inspirowanym epoką kultowego stylu jet-set, zaprojektowanym z myślą o mniejszych twarzach. 

Dodajemy również Nowa opcja niskiego mostka dla naszych ram Headliner. Jeśli okulary mają tendencję do zsuwania się z nosa, osadzania się zbyt nisko na twarzy lub uciskania policzków, ten model jest właśnie dla Ciebie. 

Istnieją Setki różnych niestandardowych kombinacji ramek i soczewek na platformie Ray-Ban Remix, dzięki czemu można je łączyć i dopasowywać, aby stworzyć własne okulary. ray-ban.com. Nasze nowe modele zostały zaprojektowane tak, aby były kompatybilne z soczewkami korekcyjnymi. Skyler i nowy model Headliner z niskim mostkiem są już dostępne w przedsprzedaży na stronie meta.com oraz ray-ban.com. Te nowe style są dostępne w 15 krajach, w tym w USA, Kanadzie, Australii i całej Europie.

Zdjęcie 6 różnych par oprawek Ray-Ban Meta

Wprowadzamy również pierwszą limitowaną edycję inteligentnych okularów Ray-Ban Meta w ekskluzywnej kolorystyce Scuderia Ferrari na Miami 2024. Ray-Ban Meta for Scuderia Limited Edition łączy w sobie dziedzictwo Ferrari, ponadczasowy design Ray-Ban i najnowocześniejszą technologię Meta, dostępną 24 kwietnia 2024 roku.

Podziel się swoją opinią w rozmowie wideo

Od zapierających dech w piersiach widoków podczas wędrówki po pierwsze kroki dziecka, są w życiu chwile, którymi po prostu trzeba się dzielić. Właśnie dlatego dodajemy możliwość udostępnianie widoku podczas połączenia wideo za pośrednictwem aplikacji WhatsApp i Messengercałkowicie bez użycia rąk. 

Obraz przedstawiający rozmowę wideo bez użycia rąk na inteligentnych okularach Ray-Ban Meta - ojciec gotujący z dzieckiem

Jesteś w sklepie spożywczym i nie wiesz, którą markę kombuchy kupić? Nie wiesz, czy ananas jest dojrzały? Teraz możesz wskoczyć na rozmowę wideo z mamą i uzyskać jej poradę na podstawie tego, co widzisz. Rozmowy wideo w inteligentnych okularach Ray-Ban Meta są wprowadzane stopniowo, więc jeśli nie zobaczysz aktualizacji od razu, poczekaj - jest w drodze!

Meta AI sprawia, że inteligentne okulary są jeszcze inteligentniejsze

Od zintegrowanego audio po ultraszerokokątny aparat 12 MP, inteligentne okulary Ray-Ban Meta są pełne technologii. W Stanach Zjednoczonych i Kanadzie otrzymujesz również Meta AI - inteligentnego asystenta, który pomaga Ci załatwiać sprawy, tworzyć i łączyć się z ludźmi i rzeczami, na których Ci zależy. Wystarczy powiedzieć "Hej Meta" i zapytać! Okularami można sterować za pomocą poleceń głosowych, a dzięki Meta AI można nawet uzyskać dostęp do informacji w czasie rzeczywistym.

Rozpoczęliśmy testowanie multimodalna aktualizacja AI w grudniuDzięki temu możesz zapytać swoje okulary o to, co widzisz, a one udzielą Ci inteligentnych, pomocnych odpowiedzi lub sugestii. Oznacza to, że możesz zrobić więcej ze swoimi okularami, ponieważ teraz widzą one to, co Ty. Od dziś wprowadzamy tę funkcję do wszystkich inteligentnych okularów Ray-Ban Meta w USA i Kanadzie w wersji beta. 

Załóżmy, że podróżujesz i próbujesz przeczytać menu w języku francuskim. Twoje inteligentne okulary mogą korzystać z wbudowanej kamery i Meta AI, aby przetłumaczyć tekst za Ciebie, dając Ci potrzebne informacje bez konieczności wyciągania telefonu lub wpatrywania się w ekran. 

Zdjęcie przedstawiające kobietę noszącą inteligentne okulary Ray-Ban Meta z funkcją Meta AI