Google I/O: Weg mit den Barrieren, neue Pixel-Smartphones und mehr
Google zeigt, was uns demnächst erwartet. Am wichtigsten: Die gesprochene Sprache und Text rücken näher zusammen. Damit will Google viele Barrieren abbauen. Dazu kommen zwei neue Smartphones, ein Dark Mode für Android Q, ein neues Home Hub namens Next Hub Max und mehr.
Google I/O ist ein Festival für Entwickler und Enthusiasten. Und eine Gelegenheit für den Suchkonzern, der weit mehr als nur Suchkonzern ist, sich selbst in Szene zu setzen. Developer wie Kevin Barry, Entwicker des Nova Launcher, können an Workshops teilnehmen, erhalten Einblick in die offene Software Android und deren Anwendungsmöglichkeiten. Ich vermute, die Bars in der Gegend um das Shoreline Amphitheatre in Mountain View, Kalifornien, werden sich ebenfalls freuen.
Für uns in Übersee aber ist die Keynote der I/O von großer Wichtigkeit. Denn wir sehen, welche Neuerungen und Änderungen Google für die nahe Zukunft bei Hardware, Dienste und Software plant.
Wear OS kriegt Kacheln
Google hat bereits durchsickern lassen, dass das Betriebssystem für Wearables, WearOS, ein Update erfahren wird. In einem Blog Post beschreibt Frank Deschenes, Produktmanager, wie sich WearOS künftig verhalten soll.
Neu sind die Tiles, also Kacheln. Diese sind einfach via Swipe auf der Smartwatch erreichbar und zeigen dir auf dem Vollbildschirm folgende Daten an:
- Ziele
- Nächster Event
- Wettervorhersage
- Puls
- Schlagzeilen aus den News
- Timer
Die Tiles kannst du so anordnen, wie du es gerne magst. Das Update, das dir die Tiles bringt, soll im Laufe des Mai erscheinen.
Android Auto wird aufgefrischt
Ein weiterer Blog Post beschreibt den neuen Look der Navigations- und generellen Auto-Versmartungs-Software Android Auto. An der Funktionalität ändert sich wenig, denn nach wie vor spielt die Musik im Auto weiter, die du gerade eben noch auf dem Smartphone gehört hast. Der Look aber wird dunkler, was mit dem Trend des Dark Mode einhergeht, der im laufenden Jahr auf immer mehr Google Apps ausgerollt wird. Im dunklen Modus ist der Hintergrund nicht leuchtend weiß, sondern bei Google dunkelgrau, HEX #424242.
Ein Dark Mode ist wohl nirgends entscheidend wichtiger als hinter dem Steuer. Auf Smartphones ist er zwar nett und spart etwas Akku, aber im Auto kann er – um es plakativ auszudrücken – über dein Leben entscheiden. Denn wenn du nachts auf ein helles Display blicken musst, dann geht dir die Nachtsicht verloren. Es dauert zwar nur einige Sekunden, bis sich deine Augen wieder etwas an die Dunkelheit gewöhnt haben, aber auch dann ist die Nachtsicht nicht das, was sie vor dem Blick auf das grelle Display war. Diese wenigen Sekunden können über Unfall oder nicht entscheiden. Perfekt wäre aber, wenn Google sich auf AMOLED-Schwarz besinnen könnte, also HEX #000000. Denn dann wären die Pixel des Bildschirmhintergrundes unter Android Auto – bevorzugt unter allem in Android – nicht mit Strom versorgt. Sprich: Weniger Licht im Cockpit, deine Nachtsicht wird geschont. Aber immerhin: Ein anständiger Dark Mode auf Android Auto ist schon mal ein solider Anfang.
Google Pixel 3a und 3a XL
Damals, wir erinnern uns, waren die Pixel-Geräte aus dem Hause Google noch keine Pixel, sondern hießen Nexus. Sie waren günstig und gut. So gut sogar, dass einige User sie noch bis heute verwenden. Mit der Pixel-Ära sind die Phones dann massiv teurer geworden und vom nützlichen und preiswerten Gerät zum Prestigeobjekt mit Hammerkamera aufgestiegen. Jetzt macht Google einen Schritt zurück und veröffentlicht mit dem Google Pixel 3a und dem grösseren 3a XL zwei Smartphones, die in der Mittelklasse kämpfen.
Das größere Google Pixel 3a XL kommt mit einer Bildschirmdiagonale von 6 Zoll daher, also 15,42 Zentimeter. Anders als andere AMOLED-Bildschirme heißt es von der Bühne, dass Google hier ein sogenanntes gOLED-Display verbaut. Das steht für «Google OLED», vielleicht. Experten sind sich uneinig, auch darüber, was ein gOLED Display anders macht als ein AMOLED-Display. Kollege Jan Johannsen hat bereits einen kompletten Test online gestellt.
Google setzt auf AI
Künstliche Intelligenz wird bei Google dieses Jahr groß geschrieben. Android soll noch schlauer und noch integrativer werden. «Google soll noch hilfreicher werden», heißt es. Eines dieser Features sei die «Full Coverage» in Google News, wo die Option dir mehrere Blickwinkel auf ein Thema gibt. Google Search soll damit im Laufe des Jahres ausgestattet werden und so will Google unter anderem den Glauben an sogenannte Fake News verhindern und etwas Balance in die Medienwelt bringen.
Natürlich wird der Assistant auch schneller. Mit dem Feature «Continued Conversation» musst du nicht einmal mit «Hey Google» den Assistant aktivieren. Dennoch, ein Feature fehlt noch: Der AND-Operator. Du kannst zwar x Fragen in rasender Geschwindigkeit stellen, SMS und Mails verschicken, Wetterberichte und anderes abfragen, aber nur halt ein Ding nach dem anderen. «Hey Google, schalt das Licht ein und schreib Andrea eine SMS mit dem Inhalt "ich mag Delfine"» geht nicht. Denn Google will nach wie vor den einen Befehl «schalt das Licht ein und schreib Andrea eine SMS mit dem Inhalt "ich mag Delfine"» ausführen und nicht die zwei Befehle, die mit dem «und» verknüpft werden. So scheint es zumindest nach der Demo auf der Bühne.
Der überarbeitete Assistant kommt voraussichtlich im Herbst mit dem Google Pixel 4.
Google Images wird dreidimensional und Lens entscheidet
Die Google-Suche erfährt ein recht großes Update. Wenn du etwas suchst, dann kannst du dir eine dreidimensionale Ansicht anzeigen lassen und diese Objekte dann gleich auch via Augmented Reality in der Realität holen.
Auf der Bühne wird ein weißer Hai in 3D eingeblendet. Die Animation wirkt noch etwas hölzern und die Texturen könnten besser sein, aber die Technologie vermag zu beeindrucken. Ich kann mir vom Schiff aus nicht vorstellen, warum ich einen Haifisch im Büro haben möchte, aber ich werde das trotzdem mal testen, denn Googles Suche ist an der Oberfläche seit gefühlten Ewigkeiten nur visuell aufgefrischt worden.
Google Lens, Googles virtuelles Auge mit Interpretationsfähigkeit, wird schlau. Wenn du in einem Restaurant eine Speisekarte vor die Kamera deines Smartphones hältst, zeigt dir Lens die beliebtesten Menus an, rechnet dir Trinkgeld aus und teilt die Rechnung durch die Anzahl Gäste. Das ist mit Datenkorrelation mit Daten aus Google Maps möglich.
Das ist zwar ein nettes Gadget, aber mit Google Go will Google auch Analphabeten in der Welt helfen. Wenn du in der Google Search Bar auf Google Lens klickst, liest dir die Stimme deines Google Assistants Text vor. Zudem werden die Textpassagen, die die App gerade vorliest markiert. Übersetzungen sind natürlich auch möglich, sowohl in Bild wie auch in Ton.
Es ist offensichtlich, dass Google seine Apps vereint, seine Dienste gleichschaltet und die Datenkorrelation zwischen all dem Wissen, das der Suchkonzern im Laufe der Jahre gesammelt hat, erlaubt und fördert. Ist das unheimlich? Ja, schon. Denn zum ersten Mal siehst du, was «Ein kleiner Informationsfetzen hier und einer da» bringt, wenn die Daten zusammengeführt werden.
Aber keiner kann abstreiten, dass das technologisch schwer beeindruckend ist. Der Applaus aus dem Publikum macht mir aber etwas Bauchweh. Ist das wirklich das, was wir gut finden? Also, so objektiv gut, und nicht nur technologisch beeindruckend?
Apropos, kleine Randbemerkung: Google, das heißt «Deutsch» und «Deutsche Sprache». Eine Sprache namens «Deutsche» gibt es nicht.
Google Duplex kommt ins Internet
Google Duplex heißt Googles Lösung zur Telefonie. Sprich: Du gibst deinem dem Google Assistant einen Auftrag. Also «Hey Google, reserviere mir einen Tisch für drei in der Zürcher Tales Bar um halb neun». Würde Google Duplex in Europa funktionieren, dann würde Duplex im Tales anrufen und dort mit menschlicher Stimme einen Tisch reservieren.
Das geht neu auch im Browser. Duplex versteht unter anderem deine Reisepläne. Es kann also deine Kalenderdaten auslesen, deine Flugtickets anzeigen und dir zum Beispiel eine Autovermietung und dergleichen vorschlagen und bereits einen Berg von Daten einfüllen. Im Wesentlichen musst du als Nutzer nur noch auf «Continue» und «Yes» klicken.
Android Q: Privatsphäre und Security
Google ist sich bewusst, dass die riesige Datenmenge, die verwendet wird, damit du deine personalisierten Dinge bekommst, in den falschen Händen zu Schlimmem führen kann. Daher hat Google die Privatsphäreneinstellungen angepasst.
Neu kannst du mit Klick auf dein Avatarbildchen die Sicherheitseinstellungen für das Feature, das du gerade nützt, einstellen. Die Features, inklusive einem separaten Inkognito-Modus für die Suche, sollen im späteren Verlauf des Jahres ausrollen.
Das Thema, das Android Q definiert, ist denn auch die Sicherheit und die Privatsphäre. Wird zwar nur kurz angesprochen, aber dennoch: Es soll viel unter der Haube geschehen.
Zudem unterstützt Google nativ faltbare Smartphones. Wir erinnern uns: Bei der Notch hat Google im Android Core nicht mitgemacht. Ein Zeichen dafür, dass Foldables die Zukunft sind? Vielleicht. Wo sich Google aber sicher ist, dass die Zukunft dort liegt ist 5G. Der Standard wird von Android Q nativ unterstützt.
So lustig das auch klingt, und so lässig all die Komfort-Features sind, die eingeführt werden, so bedeutsam ist etwas ganz anderes. Federated Learning hofft, eine ganze Welt zu öffnen.
Federated Learning als Barrierenzerschmetterer
Dafür führt Google «Federated Learning» ein. Das heißt, dass Daten aus allen Ecken Googles analysiert werden und dann in Dingen wie der Voraussage des nächsten Worts in Googles GBoard-Smartphone-Tastatur angewendet werden. Die Cloud Speech API transkribiert Sprache zu Text in Echtzeit. Live Caption wir das sogar auf Videos erweitern. Sprich: Du schaust dir ein Video an und die AI errechnet dir Untertitel automatisch. Das soll auch mit Telefongesprächen möglich sein. Stell dir mal vor, du bist taub, stumm oder taubstumm. Beeindruckend.
Noch besser: Die Gespräche bleiben auf deinem Gerät und daher privat. Ganz ohne Datenkonnektivität. Das neurale Netzwerk hinter der Technologie läuft lokal auf deinem Phone und ist lediglich 80 Megabyte groß. Es ist systemweit, also nicht App-abhängig.
Google macht damit aber nicht Schluss. Klar, da sind bereits Aufnahmen von Tauben und solchen, die einen Hirnschlag hatten. Aber was ist mit denen, die nonverbal kommunizieren? Google arbeitet dran. Und ehrlich gesagt, da bin ich dafür. Sehr stark sogar.
Google öffnet das Projekt. Wenn du jemanden kennst, der sich nur schwer artikulieren kann und der helfen möchte, dann kannst du ein Formular ausfüllen und vielleicht mithelfen.
Google Nest Hub Max
Der Google Assistant hat ein neues Zuhause. Alle Home Hardware heißt neu Nest, da die Teams des ehemaligen Startups Nest und die Google Home Teams zusammengelegt wurden. Der Google Home Hub heißt neu also Nest Hub. Der neue Nest Hub Max hat ein 10-Zoll-Display und eine Kamera und vereint alle Geräte wie die Nest Cams sowie alles wie Smartlights oder Smartlocks. Das macht dein Smartphone zwar in der Google Home App schon, aber dennoch könnte dedizierte Hardware viel Boni bieten.
Apropos, das Nest Hub Max hat hinten einen Schalter, das die Stromversorgung zur Kamera und zum Mikrofon unterbricht. Endlich ein Security Feature, das so richtig gut und richtig nötig ist.
Das Problem mit der I/O
So nett das auch klingen mag, Google I/O hat einen großen Nachteil für uns in Übersee: Alles ist recht US-zentrisch. Ein Beispiel: Der Google Assistant kann in zig Stimmen sprechen. Männlich, weiblich, Dialekte und Akzente. Sogar in der Stimme des Sängers John Legend kann dein Gerät mit dir reden. Es fließt unendlich viel Entwicklungsarbeit in die Schaffung einer Stimme, die eigentlich alles aussagen kann, aber kein Wort in der Aufnahme gesagt hat. Zum I/O-Fest wird dann das Feature präsentiert und soll dann irgendwann ausrollen – zuerst in den USA und später mit Glück auch in Europa.
Journalist. Autor. Hacker. Ich bin Geschichtenerzähler und suche Grenzen, Geheimnisse und Tabus. Ich dokumentiere die Welt, schwarz auf weiss. Nicht, weil ich kann, sondern weil ich nicht anders kann.