Diese fünf Zukunftstrends werden Google prägen
Vor vier Monaten haben wir in die Glaskugel geblickt und die wichtigsten Entwicklungen für Googles 2017 analysiert. Kurz vor der I/O hat sich bereits vieles bewahrheitet. Jetzt blicken wir einmal weiter in die Zukunft von Google und vor welchen Herausforderungen der Konzern steht. Denn einige Zukunftstrends können Google durchaus gefährlich werden.
Wichtiger Hinweis: In diesem Artikel ist stets die Rede von Google. Google gehört zur Holding Alphabet, die für sämtliche Entscheidungen letztlich verantwortlich zeichnet. Wegen der engen Verflechtung von Alphabet mit seiner bekanntesten Firma Google und anderen Firmen wie Calico, DeepMind, X oder auch Nest nennt dieser Artikel typischerweise Google, wenngleich die Problemlage auch Alphabet betrifft.
Google investiert gezielter als früher
Aus der Vergangenheit kennen wir das Vorgehen von Google: Zuerst ist das Produkt, dann kommt das Geschäftsmodell. Nach allem, was man zuletzt aus Mountain View hörte, scheint sich dieser Wind gedreht zu haben: Vielmehr heißt es jetzt, dass Projekte von Anfang an auch geschäftliche Ziele erfüllen müssen. Spätestens seit der Umstrukturierung zu Alphabet mit der Tochterfirma Google tritt dies deutlich zutage.
Willkürliche Produktentscheidungen sind heute nicht mehr an der Tagesordnung. Selbst so merkwürdig erscheinende Produktentscheidungen wie sie bei Messengern zu beobachten sind, folgen einer Logik - die aber nicht immer offensichtlich ist. In der Hardware-Sparte ging es Projekten wie ARA an den Kragen. Mit Fuchsia hingegen entwickelt Google einen eigenen Android-Konkurrenten.
Die 2010er-Jahre von Google sind gespickt mit Aufkäufen: Zunächst schnappte sich Google Motorola, stieß den Handyverteran aber schon bald wieder ab. Nicht ohne zuvor wesentliche Patente im Mobilfunkbereich zu Google zu transferieren. Auch im Bereich der Robotik ist mit Boston Dynamics ein ähnlicher Fall zu sehen: Die Firma wurde gekauft, um Knowhow in die Googlesphäre zu übertragen. Statt selbst zu entwickeln, genehmigt sich Google also einen Vorsprung, indem Firmenkäufe eine wichtige Rolle spielen. Später werden die Firmen wieder abgestoßen, mit finanziellem Verlust, aber das wertvollere Wissen bzw. geistige Eigentum bleibt.
Google will nicht im PC und Smartphone eingesperrt bleiben
Googles Erfolg basiert auf der Websuche. Wie sich die Technologie weiterentwickelt, so entwickelt sich auch Google weiter. Im Browser ist Google omnipräsent. Und mit Android beherrscht Google den Smartphone-Markt nach Belieben.
Mittlerweile ist absehbar: Das reicht Google nicht. War Google+ ein zaghafter Versuch, aus dem Websuche-Gefängnis auszubrechen, so hat sich Google nun ein ambitionierteres Ziel gesetzt. Ob Wohnzimmer oder Auto, ob Smartphone oder Uhr - Google will überall sein. Ihr bekommt Zugriff auf Google-Dienste, während im Gegenzug Google an Euren Daten interessiert ist: Wo seid Ihr? Und mit wem? Welche Themen findet Ihr spannend? Welche Fotos knipst Ihr? All das und noch viel mehr will Google wissen.
Smartphones und PCs sind als Entwicklungsziel nicht mehr besonders spannend: Natürlich wird Google Android weitertreiben und manche Neuigkeiten wird es für die Webdienste zu sehen geben. Aber Gadgets wie Google Home, intelligente Lautsprecher oder Echo-Show-artige Devices werden für viele bald als wichtigste Einstiegspunkte zu Informationen und Dienstleistungen dienen. Ob Amazon, Google oder Apple: Smart-Home-Gadgets stehen bei allen großen Tech-Konzernen ganz oben auf der Agenda.
Google Assistant ist Websuche 2.0 - im Beta-Stadium
Im Wohnzimmer oder im Auto funktionieren herkömmliche Ansätze nicht mehr: Einen Suchbegriff eintippen? Durch eine lange Liste scrollen? Was auf einem PC geht, auf einem Smartphone schon etwas unpraktisch ist, ist in vielen Lebenssituationen geradezu unmöglich oder verboten.
Der Assistant ist Googles Antwort: Ihr stellt eine Frage, Google antwortet. Nicht umsonst enthält der Assistant vielfältige Möglichkeiten zur Sprachsteuerung: SMS schreiben, Anrufe tätigen oder ähnliches ist schon jetzt möglich. Auf der anstehenden Entwicklerkonferenz Google I/O wird das Thema Apps für den Assistant näher beleuchtet: Nur so kann der Assistant seine Fähigkeiten ausbauen und relevant bleiben - gerade auch im Vergleich mit Amazons Skill-Plattform für Echo-Devices.
Sprachsuche erfordert eine direkte Antwort - darauf wird sich in den nächsten Jahren alles konzentrieren. Egal ob es ein Alexa-Skill, eine Assistant-App oder Bixby-Antwort ist: Sprachgesteuerte Interfaces erfordern ganz neue Ansätze und ein hohes Maß an Präzision seitens der Anbieter. Sonst scheitern sie.
Google braucht Daten. Dringender denn je!
Einstampfen wird Google die Websuche natürlich nicht: Auch in den nächsten Jahren wird dort angezeigte Werbung eine wichtige Säule für den Unternehmensgewinn bleiben. 88 Prozent der Google-Einnahmen stammen aus der Werbung.
Das Geheimnis erfolgreicher Werbung ist die Platzierung: Nur relevante Werbung hat überhaupt eine Erfolgsaussicht und Google ist schon jetzt der Meister der personalisierten Werbung - webweit. Aussagekräftige Daten über Nutzer sind wichtig, um diese Position zu halten. Aber auch andere sind hier gut im Geschäft: Facebook zum Beispiel. Das soziale Netzwerk nimmt 97 Prozent seiner Gelder über Werbung ein und ist extrem nahe an seinen Usern und weiß mehr, als diesen lieb ist.
Google aber fehlt großflächig die soziale Dimension der Nutzerdaten. Für Dienste wie Google Photos oder denkbare zukünftige Funktionen muss Google seine Machine-Learning-Algorithmen verbessern. Dafür braucht Google mehr Erfolge wie Google Photos und weniger Reinfälle wie Allo und Duo. Wird es ein Revival von Google+ geben? Schwer vorstellbar. Aber ohne das soziale Netz der User untereinander näher zu kennen, ist Google auf verlorenem Posten.
Google wird noch mehr eigene Hardware entwerfen
Erst nach und nach wird klar, wie sehr sich das Android-Universum durch die Pixel-Smartphones verändert. Waren Nexus-Smartphones eher für Entwickler und Enthusiasten attraktiv, so richtet sich Google mit Pixel und Pixel XL auch an typische Konsumenten außerhalb der Fangemeinde.
Und Google ist optimistisch: Laut einem angeblichen Google-Plan soll sich die dritte Pixel-Generation über fünfmillionenmal verkaufen - eine deutliche Steigerung zu heute aber noch immer ein Klacks gegenüber Apple oder Samsung. Mit Pixel C, Google Home und Chromecast hat Google eigene Hardware-Ambitionen offengelegt und wird weitere Anstrengungen unternehmen - müssen: War Android noch eine Chance für viele Hersteller, den Anschluss an Apple nicht zu verpassen, so ist die Situation bei digitalen Assistenten, VR oder AR nicht ganz so geklärt: Warum auf Google-Lösungen setzen, wenn eigene Entwicklungen ebenso erfolgreich sein können? Und andere ebenfalls gute Lösungen in petto haben: Amazon bietet Alexa für andere Smartphone-Hersteller an. Wer Augmented Reality verstärkt nutzen möchte, kann ein Tango-Phone bauen. Oder aber auf Lösungen wie Camera von Facebook setzen. Und mit ein paar Einkäufen lässt sich auch ein eigener Assistent aufbauen - Bixby zum Beispiel.
Kurzum: Will Google eigene Projekte umsetzen, ist es wichtiger denn je, eigene Hardware anzubieten. Einiges deutet aber darauf hin, dass Google eher vorsichtig vorgehen wird: Frontalangriffe auf Samsung oder Huawei wird man unterlassen, in manchen Feldern mag sogar eine intensive Partnerschaft mit anderen Herstellern vorstellbar sein.
Für Spannung ist in den nächsten Jahren gesorgt. Schon jetzt wandelt sich langsam aber sicher das Smartphone-Zeitalter. Google nennt es AI first und meint damit den digitalen Assistenten wie den Assistant. Präziser wäre wohl: Connectivity Everywhere. Mit allen Vor- und Nachteilen.
Was ist Eure Meinung: Wohin geht die Reise? Smartphone forever oder ändern sich unsere Gewohnheiten bald drastisch?
Quelle: Visual Capitalist
Spannendes Thema. @scope Kommunikation ist mehr als "Stimme und Ohr", z.B. Körpersprache, Gestik, Mimik seien da mal genannt als Beispiel. Das ist auch der Grund warum die Kommunikation mit Geräten vielen so schwer fälllt. Denkt auch mal an den guten , alten Anrufbeantworter......viele sprachen (und sprechen) dort nicht drauf. Die Argumente dürftet ihr schon in Eurem persönlichen gehört haben. Die Spracherkennung ist übrigens genauer (nur mein persönlicher Eindruck) wenn man Englisch spricht. Und warum "Google" der Meinung ist man solle "OK Google" sagen , ganz egal wo man sich gerade befindet hilft nicht gerade beim verwenden dieser Technologie. Ein Tipp für alle bei denen die Aktivierung nicht immer gelingt beim sagen von " OK Google".....sagt in Zukuft einfach "OK Hugo" !! kein Witz, funktioniert wirklich. Meine Frau nutzt es täglich mit Erfolg. @Major Tom je mehr Daten zur Verfügung stehen desto präziser kann die Antwort ausfallen.
@Fred Schröder
Es ist klar, daß der Mensch im Laufe der Evolution vielfältige Kommunikationswege bzw. -kanäle entwickelt hat: leg nur mal die Hand auf eine heiße Herdplatte oder krieg Bauchschmerzen. Es gibt ja schon Features, die das nutzen, z.B. kann man die Stimmungslage durch den Gesichtsausdruck oder Fitneßtracker ganz gut bestimmen. Sinnvoll finde ich hier die Auslösung eines Notrufs durch Health-Parameter.
Bleiben wir aber beim Input durch Sprache. Das Anrufbeantworter-Phänomen trifft es gut, z. B. können nur Geübte flüssig diktieren. Und viele suchen eine Umgebung ohne Mithörer auf, wenn sie telefonieren, andere wieder führen vertrauliche Gespräche lauthals im Restaurant - was kritisiert wird. Das Problem ist, dass Sprache im ungeschützen Kanal "Luft" läuft. Möglicherweise wird das von zukünftigen Generationen sozial kompensiert durch ein "dickes Fell" viceversa "gezieltes Weghören", aber das wird dauern. Bis dahin haben diese Applikationen zumindest ein Marketingproblem und jedenfalls bleiben sie eingeschränkt im Sinne einer universellen, allgegenwärtigen Mensch-Maschine-Schnittstelle. Wird nichts mit Star Trek und gerade dort gibt es Beispiele für intime Kommunikation nur im Holo Deck.
Lösen lässt sich das aber vielleicht durch Codierung, also eine Art "Geheimsprache": Sprachwendungen oder -kürzel, die nur ich und "meine" Maschine verstehen. Oder das bereits erwähnte Lippenlesen über die Cam des Smartphones, das aber noch nicht für Freitext funktioniert.
Oder codiert, aber eben ohne Sprache: man könnte auch eine Smartwatch ohne die andere Hand bedienbar machen, indem man einen Sequenzcode aus Fingerübungen der Uhrenhand nutzt. Die hat ja vier Finger, die auf den Daumen drücken können, sogar unterschiedlich stark, mehrmals und kurz oder lang...
Hoppla, das wollte ich gar nicht ausplaudern. Na egal, ich warte jetzt mal, bis das Google Lab sich meldet, dann erklär ich den Onkels, wie das geht.
Aber, und wie schon geschrieben, es geht nur weiter, wenn man seine Metadaten im Griff hat, denn diese Kurz-Inputs verlangen eine Struktur.
Das ist, kontrovers zum ethischen Problem der Mengendaten beim Machine Learning, das heiße, anstehende Thema: wird es einen Hybriden aus residentem Expertensystem und cloudgestützer KI geben, bei dem ich intime Daten nicht ins Urnichts freigeben muß?
Womit klar ist, daß sich Goolge nicht bei mir melden wird. ;-)
Ich waere froh, wenn ich mit meinem Rechner reden koennte wie mit einem Menschen ;) Star Trek Style :)
Für die Kommunikation hat der Mensch Stimme und Ohr. Das funktioniert ganz gut - beide Organe sind schön kompatibel. Hätte sich nur nicht das Auge eingemischt, dem als Empfangsorgan das Sendeorgan fehlt. Das macht es kompliziert, die Hand muß her, um dem Auge was schicken zu können.
Man kann streiten, ob das nun ein systemimmanenter Konstruktionsfehler der Schöpfung ist, immerhin aber entstand so nach der Höhlenmalerei all das Zeugs, mit dem wir uns heute herumschlagen: der Mensch hat die Dokumentation erfunden, um dynamische Ereignisse bewahren und (umver)teilen zu können. Und seitdem man das auch elektronisch speichern kann, ist die Welt in analog und virtuell zerteilt, was es zu beherrschen gilt.
Da hapert es noch. Informationen wollen generiert, versendet bzw. empfangen und verwaltet werden, haben aber die missliche Eigenschaft, immer und überall im gerade ungeeigneten Format aufzuschlagen. Dazu kommen der bauartbedingte Unterschied zwischen Mensch und Maschine, semantische Probleme, störende Umfelder und daß der Mensch kein Baum, sondern ein Vierbeiner ist: er bewegt sich. Und er ist sozial eingebunden und hat eine miserable Schnittstelle vom Kurzzeit- zum Langzeitgedächtnis.
Was tun?
Eine Smartwatch macht mich zum Einarmigen. Ist die andere Hand belegt, wird sie nutzlos für den Input. Deshalb Spracherkennung, aber damit werde ich zum Michael Knight. Die anderen Vierbeiner um mich herum sind verwirrt, weil sie die Gegenstelle suchen bzw. werden neugierig. Eine zuschaltbare Intimsphäre könnte Lippenlesen sein - man experimentiert da schon, aber nicht als Smartwatch-Feature. Alexa allein zuhause potenziert das Problem noch: der Funktionsumfang beschränkt sich auf die freigegebene Schnittmenge der im Raum anwesenden.
Also Input per Hand als Fallback in solchen Situationen mit einer Künstlichen Intelligenz, die mich kennt und so nur wenige Clicks oder Strokes braucht, um zutreffende Vorschläge machen zu können. Bestenfalls über ein kleines Wearable, das ich immer bei mir habe, zum Beispiel am Schlüsselbund, das diskret, also blind rein taktil bedienbar ist. Es läuft auf die Wiedergeburt der Taschenuhr und die Degradierung des Smartphones zum Screen hinaus. Jeder wird zum James Bond, zukünftig streicheln wir keine Glasscherbe mehr, schütteln schon gar nicht, aber wir rühren an einem Jogdial, um einen kurzen alphanumerischen Code einzugeben, dann weiß die Maschine, was gewollt ist.
Dazu braucht sie aber meine Metadaten. Es wird Zeit, daß User den Umgang damit (er)lernen und auch erlernen können. Denn noch gibt es dafür kein Regelwerk, es fehlt so etwas wie ein universelles 1x1 für meinen persönlichen aktuellen Willen.
Dann geht das auch ohne Cloud.
Ohmmmmmmmmmm...!!! 🙏
Schon mal überlegt, ob es sich bei diesem Zustand nicht vielleicht um einen seltsamen Attraktor handeln könnte? Wir also zwangsläufig dort landen, ganz egal, was wir tun oder wie wir uns entscheiden?
Schwer zu beantworten und habe ich auch nicht ventiliert. Spricht aber einiges dafür: grosse Masse/Menge von irgendwas, chaotischer Anschein, teils auch periodisches Verhalten, Vernetzung untgerschiedlichster Systeme,...
Was weiß ich. Stehe nicht hoch genug darüber, um das betrachten zu können und habe keine Lust, Schrödingers Kiste aufzumachen, weil es ja vielleicht die Büchse der Pandora ist, in der immer noch was drin sein könnte.
Aber ja, hast recht, ist hier manchmal nicht ganz leicht, pragmatisch zu bleiben. Besonders nicht angesichts der Schlagseite auf wirtschaftliche Interessen und dem damit einhergehenden Verfall ethischer und moralischer Übereinküfte, was man als Streben des "Zustands" zu einem Ziel erkennen kann, ohne es zu kennen :-(
Ich komme nicht so ganz klar mit dem Kurs noch mehr Daten zu verwerten. Deshalb werde ich auch parallel Richtung analoges Leben steuern wo es machbar ist.
Denn hier ist unser Leben. Entschleunigung ist völlig aus dem Blick geraten, moderne Stress-Krankheiten nehmen Explosionsartig zu. Digitaler Dauerstress der Effizienz.
Natürlich kann man sich in der heutigen Zeit nicht völlig ausklingken, aber man muss auch nicht alles fressen was einem mit verschiedenen offensichtlichen Problemen vorgelegt wird.
Es ist mein Leben, nicht Google's. Ich versuche weitgehend die Rechte über privates und Protokolle in meiner Hand zu behalten. Niemand zwingt mich alles bei Google und Facebook für Jahrzehnte abzulegen. Es sei denn ich habe die Kontrolle verloren. Und sie verdienen Milliarden damit.
Haben wir die Kontrolle verloren. Das frage ich mich wenn ich den Artikel lese.
Geht hier nicht grundsätzlich was schief ? Und wo liegt das Problem, bei Google oder dem bereitwilligen User ?
Ist es möglicherweise Zeit dass der User sich neu orientiert ?
Ich bin gespannt, was uns da in Zukunft erwartet.
Zur Not muss einer irgendwann zurück reisen und was erledigen, wie bei Terminator. :-)
Ich finde diese Assistenten ebenfalls eine sehr gute Idee. Mir der Smartwatch kann man ja nun schon so einiges hin bekommen dank der Sprachsteuerung. Und wenn man mal ganz ehrlich ist, wie oft hat man schon "Ok Google" gesagt statt das gesuchte einzutippen.
Ich noch nie😁
Also auch ich nutze den Assistenten fast nie, ist schön das es so was gibt aber auch in Zukunft werde ich ein Assistenten nicht nutzen. Mir ist das zu blöd mit irgendwas technischen zu reden lieber rede ich mit einem Menschen halt auf die alte Art und Weise.
Ich rede auch noch mit Menschen, oft bekommt man aber nicht die richtigen Antworten. ;-)
ist mir immer noch lieber als die antwort des schwarms (war bei perry rhodan ;-) )
@Frauke N.:
1.: Sowas passiert allerdings auch, wenn man wegen des Einflusses der ganzen "smarten" Technik schon verlernt hat, eine Frage korrekt und vor allem menschlich zu formulieren. Wo in deinem Fall die Ursache liegt, lässt sich jetzt selbstverständlich nicht beurteilen.
2.: Du hast geschrieben, dass du "noch mit Menschen" redest. Hoffentlich liegt die Betonung dabei nicht auf "noch".
Ich rede noch sehr viel und gerne mit Menschen.
Bei manchen Dingen die ich wissen möchte finde ich nur nicht immer eine Antwort weil die Menschen sich damit nicht auskennen. Dann frage ich meine Uhr. ;-P
Ach so. 👍
Also ich nutze den Assistant immer öfter, ich rede mit meiner Smartwatch. ;-)
Eine Smartwatch ist eine super Erfindung, gerade wenn man viel mit dem Auto unterwegs ist.
Nutzt du es eher bedeckt oder auch direkt unter Leuten ?
Die Frage ist kein Scherz.