A Google Glass okosszemüveg bő tíz éve jött és bukott meg. Azóta a mesterséges intelligencia és a viselhető (wearable) technológiák rengeteget fejlődtek, és eljött az idő, hogy újra próbálkozzanak az okosszemüvegekben rejlő potenciál kiaknázásával.
Sok jelenlegi MI-modell időmérést nem tartalmazó adatkészletekből tanul, így pedig kevés rálátásuk van a pillanatról pillanatra történő emberi tapasztalatokra. A Meta 2020-ban indított Aria projektje ezt a hiányt igyekszik emberi nézőpontból valós időben rögzített gazdag multimodális adatokkal pótolni. A rajtuk gyakoroltatott modellek a kiterjesztett valóságban (augmented reality, AR), a robotikában és a mindenhol jelenlévő számítástechnikában (ubiquitous computing) egyaránt új utakat nyithatnak.
Az elsőgenerációs (2020-as) Aria hardvert kutatók használták. 2021-ben a Meta partnerségre lépett a BMW-vel, az autós adatokba integrált vezetői nézőpontot biztonsági és más alkalmazásokban igyekeztek hasznosítani.
Az MI-modelleknek folyamatos, többszenzoros, emberi nézőpontot kínáló, 75 grammos, hat-nyolc óráig működő akkumulátoros második generációt (Aria Gen 2) idén februárban jelentették be. Az AR mellett a fizikai (megtestesített) és a kontextuális mesterséges intelligenciában egyaránt, előbbiben robotok gyakoroltatásához, utóbbiban személyes használatra szánják. Kutatók már idén használhatják. Szenzorai lehetővé teszik a felhasználói tevékenység, a környezet és a kompatibilis eszközökkel folytatott interakciók értelmezését. Privacy gombbal eltüntethetjük az adatgyűjteményt (a Google Glass többek között a személyiségi jogok megsértésének lehetősége miatt bukott meg).
Az input és az output feldolgozása az eszközön történik, 4GB RAM-os és 12 GB tárolási kapacitású Qualcomm SD835 chip gondoskodik róla. A videó, audió, 3D adatpont output helyi PC-re streamelhető vagy felhőalapú API-kra (alkalmazásfejlesztői felületekre) tölthető fel. Öt kamera, hét mikrofon és más szenzorok (mozgásérzékelés, barométer, magnetométer stb.) növelik a felhasználói élményt, míg a szenzorok által olvasott értékeket nanomásodperc felbontásban óra kalibrálja és időbélyegezi, illetve szinkronizálja külső eszközökkel, például közelben lévő Aria egységekkel.
A Meta alkalmazásokat is bemutatott: a környezetről mélységi térkép, a térképpel valósidejű 3D-s dinamikus jelenet rekonstruálható. A 3D képesség lehetővé teszi a felhasználói kézmozgás monitorozását, amelyet robotkezek gyakoroltatásakor hasznosíthatnak. A mikrofonok nagyon zajos környezetben is detektálják a felhasználó által suttogott szavakat, mondatokat.