Seit Google an dem Glass Projekt arbeitet frag ich mich die ganze Zeit über schon, warum man sich das antun sollte, permanent das eigene Sichtfeld einzuschränken. Welchen Vorteil hat es? Was kann das Glass, was es nicht schon vorher gab? Wo liegt der entscheidende Unterschied zu einem Mobiltelefon, das ja dennoch benötigt wird als Relaisstation für die Brille. Anlass für mich, das mal zusammenzufassen ist folgender Beitrag: „Das Google Glass Experiment auf der re:publica“.
Wenn man die diversen Produktdemos und immer häufiger auffindbaren Videos des direkten Blicks durch die Brille anschaut, dann fallen einige Dinge offensichtlich auf andere aber sind ganz unscheinbar. Ich habe mir ein Review-Video der Phandroid-Seite genauer angesehen die in ihrem „Google Glass Review“ detailliert alles vorstellen. Ich hab mal paar Bilder aus dem YouTube Filme extrahiert und betitelt.
Quelle: Phandroid.com (Bitte hier klicken für sehr großes Bild)
Offensichtlich
Man sieht sofort, dass diese Brille eine Kamera ist. Die Fotolinse ist nicht zu übersehen und wurde bereits mit all den sozialen Fragen der Privatheit dazu beachtet. Fotos und Filme aufzeichnen wie ein Spion ist super damit möglich. Jetzt äußerte sich z.B. auch Vint Cerf mit einem Beitrag „Social conventions have not kept up with technology“ auf der Future in Review Conference.
Was man ebenfalls sofort bemerkt, das was da auf dem kleinen Display dargestellt wird, wird sehr groß (also z.B. in großer Schrift, große Bildsymbole) und damit gut lesbar dargestellt. Es wird deutlich weniger Information auf den Screen gepackt wie auf einem Smartphone. Die Ergebnisdarstellung einer Googlesuche fällt deutlich reduzierter und kompakter aus. Es wird eher der EINZIGE richtige Treffer gezeigt, als eine Liste von alternativen Ergebnissen.
Gar nicht offensichtlich
Dass man, um die Brille zu nutzen mit Spracheingabe arbeitet und mit der Brille „reden“ muss, um neue Kommandos zu geben ist schon weniger offensichtlich. Und wenn man also diese magische Kombination „ok glass“ sprechen muss, wie bei Star Trek das Schlüsselwort „computer“, dann fragt man sich doch unmittelbar was dieses Mikrofon, dass die eigenen gesprochenen Worte erkennen soll so die ganze Zeit über tut. Ist das idle oder wird da ein kontinuierlicher kleiner Audiodatenstrom an Google gesendet und auf dem Server eine Spracherkennung durchgeführt?
Was widerum kaum auffällt, nach einer Googlesuche wird das Ergebnis nicht nur optisch angezeigt, sondern hervorragend akustisch aufbereitet. Das Ergebnis wird natürlichsprachlich umfangreich wiedergegeben, ob es nun das Wetter in Honululu ist, oder der Aktienkurs von Disney Inc. Die gesprochene Information ist sogar umfangreicher als die optisch angezeigte. Das ist ganz und gar nicht offensichtlich, man muss das selber sehen.
Was kaum auffällt, ist, dass Kopfhörer nicht vorgesehen sind. Stattdessen wird der Ton bzw. alle Audioinformation über eine Art HiTec-Vibrator direkt auf den Ohrknochen per Mono-Audio übertragen. Das scheint eine wirklicherecht alte Innovation namens Bone-Conduction zu sein, die schon Hugo Gernsback um 1923 entwickelt hat, sowas hab ich allerdings bislang noch nirgends als Lösung für das menschliche Ohr im Einsatz gesehen, außer bei ultrakleinen Lautsprechern wie dem SoundBug, die Tischplatten und andere ebene Flächen als Resonanzkörper Nutzen und auf ähnlich Art und Weise Audio übertragen. Gut möglich, dass diese Innvomation aus der Hörgeräteforschung wie z.B. der Bone Conduction Hearing Aid (BAHA) der Firma sophono stammt.
Ich kann mir gut vorstellen, dass gerade das Nicht-Vorhandensein von Kopfhörern ein wirklicher Vorteil von Glass ist. Wer schonmal versucht hat auch nur eine Stunde lang ein Bluetooth Headset mit Ohrstöpsel zu tragen, der weiß, welche Schmerzen das nach kurzer Zeit auslöst. Denn selbst die besten Ohrstöpsel stellen eine Reizung des Ohres dar. Regelmäßiges Tragen führt zu dauerhafter Reizung und immer empfindlicher reagierenden Ohrmuscheln. Hier wurde ein Problem auf neue Art und Weise gelöst, was man auf den ersten Blick gar nicht erkennt.
Update 30.5.2013
Oh, heise.de hat auch einen Test der Brille gemacht.
Update 3.7.2013
heise.de hat nun auch einen Langzeittest der Brille im C’t Magazin gemacht. Dabei dürfte das Fazit so einige Wundermythen zerstören.
Kurz und knapp:
- Glass ist zu viel Kamera: Niemand will gefilmt oder fotografiert werden noch dazu wenn alles gleich in die Cloud wandert (also zu NSA)
- Glass arbeitet wenig kontextbezogen: Die brille mag in den Werbevideos den Eindruck erweckt haben, sie könnte die passende Information für die Umgebung anzeigen, kann sie auch, muss man aber selbst nach googeln. Nix Augmented Reality out-of-the-box.
- Glass’ Akku ist ständig leer: Gut das kennt man vom Smartphone, aber der Glass-Akku ist teilweise schon nach 2 Stunden leer.
- Glass’ Hardware ist unausgegoren: Bildqualität der Kamera eher mittel, Mikrofon liefert kaum brauchbare Ergebnisse bei Umgebungsgeräuschen, der Knochenschallkopfhörer ist wohl nicht so dolle, UND man kann die Brille nicht wie eine normale Brille zusammenklappen und wegpacken. Sie ist damit ein eher unhandliches Trum, schlecht transportabel wenn man sie nicht auf hat.
- Glass’ lässt sich nur per Sprache bedienen: Keine Tastatur, auch nicht per Smartphone-Relay. Was man nicht aussprechen kann (so dass Glass es erkennt) danach kann man folglich auch nicht suchen. Das laute „in die Brille reden“ ist partout nicht jedermanns Sache, weil sozial nicht akzeptiert von der Umgebung.
Mein schlussfolgerndes Fazit:
Kann man drauf verzichten. Eine GoPro HERO3 BLACK dürfte mehr Freude machen und da die Glass 1500 Kracher kostet, kann man davon so ca. 3 GoPro’s erwerben also die ganze Familie glücklich machen. Weiterer Vorteil bei einer GoPro bleibt das Sichtfeld frei, der Akku hält, die Bilder sind hammergeil und werden keinesfalls aus versehen zur NSA übertragen, der Transport ein Kinderspiel, das Ding ist wasserdicht, hat exzellenten Sound, hat ne rausnehmbare Batterie und das Firmenmotto „Be a hero.“ lässt mich das Ding haben wollen. Der „Don’t be evil.“-Lack ist längst ab.
To be continued…