Die Zukunft der Technologie sitzt direkt auf der Nase: Mit Metas neuer AR-Brille „Orion“ könnte das Smartphone bald der Vergangenheit angehören. Mark Zuckerberg präsentiert die revolutionäre Hightech-Brille, die unsere Art der digitalen Interaktion komplett verändern soll. Doch wie alltagstauglich ist diese Innovation wirklich? Und könnte sie tatsächlich unser treuer Smartphone-Begleiter ersetzen?
Stellt Euch vor, Ihr navigiert, kommuniziert und steuert Apps – alles nur durch einen Blick oder eine Handbewegung. Ohne Telefon, ohne Tasten, nur durch eine Brille, die Eure Umgebung digital erweitert. Klingt wie Science-Fiction?
Metas AR-Brille „Orion“ verspricht genau das. Aber wie realistisch ist diese Vision und was bedeutet das für unsere tägliche Nutzung von Technologie?
Brille für Augmented Reality
Wirklich stylish ist sie nicht, die neue Hightech-Brille von Meta namens „Orion“: Eher sieht sie aus wie einst die dicke Hornbrille von Opa als Lesehilfe. Trotzdem strahlt Meta-Chef Mark Zuckerberg voller Begeisterung, als er das klobige Brillenteil präsentiert – denn es steckt jede Menger interessanter Technik darin.
Augmented Reality bedeutet: Wer die Brille aufsetzt, ist nicht von der Außenwelt abgeschnitten wie bei einer VR-Brille, sondern sieht durch die transparenten Gläser die Welt um sich herum – wie sie ist. Aber mit Extrainhalten: Dazu sind in den Bügeln der Brille Miniaturprojektoren integriert, die eine Art Head-up-Display erzeugen. Auf diese Weise lassen sich digitale Informationen ins Sichtfeld projizieren, die nur der Träger der Brille sehen kann.
Die Orion-Brille wiegt laut Meta nur knapp 100 Gramm und soll die dingliche Welt, in der wir leben, durch digitale Informationen ergänzen. Das klingt ein wenig nach James Bond, soll aber schon bald Realität werden. Noch ist die „Orion“-Brille in der Projektphase, kommt also erst später in den Handel.
Apps mit Blicken und Gesten steuern
In der Brille erscheinen auf Wunsch Apps, wie auf einem Smartphone, die sich auch steuern und bedienen lassen: Informationen abrufen, Telefongespräche führen, Aktienkurs abfragen oder nach dem Weg zur Busstation fragen – und die Brille zeigt, wo man langgehen muss. Die Möglichkeiten scheinen endlos.
Und dafür ist nicht mal ein Smartphone nötig. Stattdessen steckt man sich eine „Puck“ genannte Recheneinheit in die Tasche; darin steckt die ganze Elektronik, die Daten besorgt, Apps laufen lässt, die Bilder generiert und diese drahtlos mit der Brille Daten austauscht. Gerechnet und gerendert wird dort; das ließe sich (noch) nicht alles in der Brille integrieren.
Ein Armband als neue Maus?
Doch wie bedient man so eine Brille nur? Einiges lässt sich durch Tippen und Wischen am Bügel erledigen, auch Sprachbefehle sind möglich – und Bedienung mit den Augen. Da wo man hinsieht, spielt die Musik. Doch völlig neu ist das Handtracking mit einem EMG-Armband, mit dem Nutzer swipen, klicken und scrollen können, indem sie in der Luft gestikulieren.
Meta forscht bereits seit einigen Jahren an diesem Elektromyografie-Armband (EMG), das die elektrische Aktivität feiner Muskeln erfasst und zur Bedienung nutzt. Schon das leichte Anspannen von Fingern, Swipe- oder Klickgesten sollen ausreichen, um die Eingaben zu ermöglichen. Nutzer gestikulieren also in der Luft. Für sie sieht es aber aus, als ob sie virtuelle Dinge antippen oder bewegen – ein Bedienkonzept, das auch in der Apple Vision Pro zum Einsatz kommt.
Die Brille kann auch „sehen“
Aber ist das was für den Alltag? Meta hat Einsatzideen: „So können Sie Ihren Kühlschrank öffnen und nach einem Rezept fragen, passend zu dem, was die Brille vorfindet. Oder ein Videogespräch mit einem Freund führen, während Sie den digitalen Familienkalender anpassen, während Sie das Geschirr abwaschen.“ All das, ohne das Handy zu zücken.
Bevor der Brillentyp auf den Markt kommt, will der Hersteller noch Bildqualität und Optik verbessern.
Apple hat ähnliche Konzepte und schon eine Brille
Meta ist keineswegs allein mit solchen Plänen: Apple hat erst vor wenigen Wochen seine „Vision Pro“-Brille auch in Deutschland eingeführt. Wer die Vision Pro aufsetzt, sieht auch die Umgebung – allerdings auf einem Display direkt vor den Augen. Auf Wunsch lässt sich auf der Apple-Brille aber die echte Welt ausblenden, etwa um einen Film zu genießen.
Doch auch die Apple Pro lässt sich durch Blicke und Gesten steuern: Sensoren erfassen, wohin der Nutzer schaut – das ist in der neuen Meta-Brille genauso. Und Gesten mit den Fingern werden durch Sensoren erkannt und direkt umgesetzt. Metas Modell hingegen erfordert das Anlegen eines speziellen Armbands, das die Muskelbewegungen erkennt.
Art der Bedienung ändert sich
Beiden Geräten ist eins gemein: Sie verändern die Art der Bedienung. Statt Tippen und Wischen (oder gar Mausklicks) lassen sich die Geräte durch Hingucken, Stimme und Gesten mit der Hand bedienen. All das ist eine völlig andere Methode der Bedienung als das Smartphone. Da nun bereits zwei Hersteller daran arbeiten, dürfte das in Zukunft häufiger eine mögliche Art der Bedienung sein.
Wenn solche Geräte deutlich kleiner und leichter werden und wirklich im Alltag getragen werden können, sind sie in der Tat ein möglicher Ersatz fürs Smartphone. Dann würden die Menschen nicht mehr ständig nach unten schauen; wären aber trotzdem möglicherweise abgelenkt und nicht da.