Andrej Sokolow und Christoph Dernbach, dpa

Google will der Vorreiter dieser Revolution sein. Das machte die diesjährige Entwicklerkonferenz Google I/O unmissverständlich klar. Üblicherweise stand dort die nächste Version des Smartphone-Systems Android im Mittelpunkt, vielleicht noch ein markantes Überraschungs-Produkt wie die – letztlich gescheiterte – Datenbrille Google Glass. Diesmal gab es vor allem eine Vision: Google als Helfer im Alltag, immer zur Stelle, immer die richtige Antwort parat.

Google hat auch schon konkrete Ansätze, wie sich die ersten Bausteine für diese neue Welt zusammensetzen können. Der smarte Assistent versteht menschliche Sprache und erfüllt Aufträge, der vernetzte Lautsprecher „Google Home“ ist sein Vorposten im Haushalt. Im Messengerdienst Allo (anfänglich nur auf dem Google Smartphone Pixel verfügbar) schlägt die künstliche Intelligenz (KI) die passende Antwort vor, im Hintergrund liefert ein von Google eigens für selbstlernende Maschinen entwickelter Chip die Rechenleistung. Und nur wenige Schritte weiter fahren Googles Roboter-Wagen auf den Straßen von Mountain View, gesteuert von Software, die ihre Umgebung versteht.

„Der nächste große Schritt wird sein, dass das Konzept eines ‚Geräts’ sich auflöst. Mit der Zeit wird der Computer – welche Form auch immer er annehmen wird – zu einem intelligenten Assistenten, der Sie durch den Tag führt“, schrieb Google-Chef Sundar Pichai in einem Blogeintrag Ende April. Konkrete Produkte für dieses Zukunftszenario gibt es auch schon. „Google treibt den Wandel vom Mobil-Computer voran zu einem, der den Alltag durchdringt und den Nutzer umgibt“, bilanziert Analyst Geoff Blaber von CCS Insight. Auch Facebook, Microsoft und Amazon forschen an KI, Apple lässt seit 2011 seine Siri mit iPhone-Nutzern reden. Die Tech-Riesen scheinen sich darauf festgelegt zu haben, wohin die Reise geht. Jetzt ist die Frage, wer als Erster in der Zukunft ankommt.

Die neue Funktion Google Lens kann Inhalte von Bildern erkennen und Informationen dazu anzeigen. Bilder: dpa
Die neue Funktion Google Lens kann Inhalte von Bildern erkennen und Informationen dazu anzeigen. Bilder: dpa

Für Google könnte der Wandel auch ein Umdenken beim Geschäftsmodell bedeuten. Heute kommt der Großteil des Geldes nach wie vor aus Online-Werbung, vor allem im Umfeld der Internet-Suche. „Google positioniert sich für eine Post-Werbe-Welt“, glaubt nun der frühere Chef des Online-Speicherdienstes Evernote und heutige Internet-Investor Phil Libin. Pichai selbst beteuert, Google mache sich noch keine konkreten Gedanken darüber, wie man in einer Welt mit dem sprechenden Assistenten Geld verdienen wolle. Die Geschäftsmöglichkeiten würden sich mit der Masse der Nutzer schon ergeben.

Dabei funktioniert die neue Welt nur, wenn der Mensch sich für sie öffnet. Wenn der Computer wissen soll, ob bei einer Suchanfrage nach „Curry“ der Basketball-Spieler Steph Curry oder ein Curry-Gericht gemeint ist, muss er die Vorlieben des Nutzers kennen. Die Mikrofone eines Home-Lautsprechers müssen ständig an sein, um die Ansprache mit „Okay, Google“ nicht zu verpassen. Der Allo-Messenger wertet auch die Inhalte der Fotos aus, um die richtigen Kommentare vorzuschlagen, zu einem Katzenfoto heißt es dann „niedlich“ und zu einem Fallschirmsprung „wie mutig“. Das ist faszinierend und gruselig zugleich.

Datenschützer werden dieses Zukunftsszenario eher fürchten, denn der ungewollte Austausch sensibler Informationen ist nur einen Klick entfernt. Der Trend scheint aber unaufhaltsam: Am Ende verschmelzen die vielen kleinen Funktionen und Datenschnipsel zu einem allwissenden Computer. Er weiß, wo man sich gerade aufhält – nicht unbedingt nur dank der GPS-Ortung, sondern vielleicht auch weil er die Umgebung am Kamerabild erkennt. Er weiß wahrscheinlich, was man als nächstes vorhat, denn er kennt unseren Terminkalender.

Es ist als hätte man einen unsichtbaren Butler, der einem immer über die Schulter schaut. Man kann darin aber auch einen Aufpasser sehen. Wird der Komfort die Ängste um die eigene Privatsphäre verdrängen? Denn schließlich kann ein Assistent einem nur wirklich dienlich sein, wenn man für ihn ein offenes Buch ist.

Einblicke in die Google-Werkstatt

  • Künstliche Intelligenz (KI) soll künftig im Mittelpunkt aller Google-Dienste stehen und den Nutzern das Leben leichter machen. So kann zum Beispiel das neue Angebot Google Lens (Google Linse) Objekte vor der Smartphone-Kamera erkennen – egal, ob es sich um eine Pflanze oder ein Gebäude handelt. Für Kurzmitteilungen gibt es eine Echtzeit-Übersetzung in andere Sprachen. Der Google-Assistent im Lautsprecher „Home“ erkennt Nutzer an der Stimme.
  • Der Google Assistent kommt als eigenständige App auf das iPhone. Damit fordert Google Apples Assistenz-Software Siri direkt auf der heimischen Plattform heraus.
  • Eine vollwertige VR-Brille wird es jetzt auch von Google geben. Anfangs steckte der Internet-Konzern nur ein Smartphone in ein Gehäuse mit Linse. Jetzt wird gemeinsam mit Lenovo und HTC ein technisch anspruchsvolleres Modell mit eigenem Bildschirm entwickelt. Das System wird nicht so leistungsfähig wie eine Oculus-Brille von Facebook sein, benötigt dafür aber auch keinen teuren PC.
  • Erweiterte Realität (Augmented Reality) wird zum Beispiel helfen, das richtige Regal im Supermarkt zu finden – und zwar indem die Marschrichtung in das Kamerabild auf dem Smartphone-Display eingeblendet wird.
  • Android O bekommt als diesjährige Version des meistbenutzten Smartphone-Betriebssystems unter anderem ausgeklügeltere Benachrichtigungen und einen Bild-in-Bild-Modus, wie man ihn vom Fernseher kennt.
  • Fotobücher sind künftig auch ein Google-Produkt. Zunächst soll es die Fotobände nur in den USA geben. KI soll bei der Auswahl helfen. Bei 500 Millionen aktiven Nutzern von GooglePhotos könnten die zehn Dollar teuren Bücher eine hübsche Summe für Google abwerfen. (dpa)

Diese Videos zeigen, wie Google Lens...



 

... und das Fotobuch funktionieren