Google I/O 2018 - Teil 1 - AI und Machine Learning
Die Google I/O ist noch nicht vorbei, aber ein paar Worte wollte ich trotzdem schon einmal verlieren. Vor allem die Keynote habe ich mir direkt Live angesehen, während mir für den Rest bis dato leider die Zeit fehlte. Dort werde ich jetzt je nach Interesse früher oder später rein schauen. Allerdings ist ziemlich sicher, dass ich mir die meisten Android Panels ansehen werden, alleine schon um auf dem neusten Stand zu bleiben. Google hat auch dieses Jahr wieder einiges raus gehauen und ein sehr großes Thema ist weiterhin AI und Machine Learning. Doch allem voran wurde noch einmal darauf eingegangen das man das Burger und Bier Emoji repariert hat. Ein kleiner Spaß zum Start kann ja bekanntlich nicht schaden und ein gut gefülltes Glas Bier sollte schließlich auch für Softwareentwickler Priorität haben.
via Youtube ansehen
Im Bereich der AI gibt es massive Performance Verbesserungen, die unter anderem von einer neuen Hardware Generation der Tensor Units open_in_new getragen werden. Angewendet wird so etwas dann z.B. bei Google Fotos. Dies ermöglicht dann nicht nur automatische Vorschläge für Actions (z.B. Sharing an im Bild enthaltende Personen oder Helligkeitskorrekturen), auch die Möglichkeit Schwarz-Weiß-Bilder zu kolorieren gibt es. Ebenfalls profitiert Maps und Lens von diesen Möglichkeiten. Für Fußgänger kombiniert man nun die Map, mit der Real-World-Ansicht und baut darin direkt die Navigation ein. Zusätzlich gibt es Informationen zu den Gebäuden und Geschäften die man sich gerade ansieht und das in Real-Time. Lens kann nun unter anderem auf Konzertpostern oder ähnlichem direkt Youtube Videos einbetten oder euch zu quasi allen Gegenständen, um euch herum, weitere Informationen geben. Findet ihr z.B. einen hübschen Stuhl, kann Google euch binnen Millisekunden ähnliche Stühle anzeigen. Was ich wirklich spannend fand, war das Kopieren von Text aus z.B. einer Speisekarte in der realen Welt auf das Smartphone, somit kann man direkt nach etwas suchen ohne etwas eingeben zu müssen. Man sieht also eine immer weiter voranschreitende Verschmelzung von Realität und Technik und auch der Google Assistant open_in_new geht in diese Richtung. Die Konversationen werden fließender mit Continued Conversations, sodass der Nutzer nicht mehr andauernd Okay Google sagen muss und durch Multiple Actions kann man nun sogar mehrere Actions hintereinander sagen. Diese können komplett zusammenhangslos sein und der Assistant kann trotzdem den Kontext erfassen. Antworten kann dieser bald in sechs neuen Stimmen, die vom Computer generiert werden und um einiges echter klingen als andere vom Computer generierte Stimmprofile. Diese Funktion wird dann vermutlich auch für die Duplex Funktion genutzt, welche wohl die meisten Zuschauer fasziniert haben dürfte. Ihr wollt einen Friseurtermin buchen, aber selbiger hat keine online reservieren Funktion. Normalerweise hörten hier die Möglichkeiten nun abrupt auf, doch Duplex ermöglicht das der Assistent selbst direkt beim Geschäft anruft und sich um den Termin kümmert. Die Art und Weise wie real das Telefonat wirkt ist unglaublich und ich möchte euch nahelegen einfach dem hier hinterlegten Link open_in_new zu folgen, um sich selber ein Bild zu machen. Im Hardware-Bereich gab es keine explizit von Google entwickelten Neuerungen, aber es wird eine Reihe von Assistant fähigen Geräten geben, die ebenfalls mit einem Touchscreen ausgestattet sind. Ähnliches kennt man in diesem Bereich bereits vom Amazon Echo Show. Eine durchaus sinnvolle Erweiterung, allerdings ist bei mir bereits Alexa eingezogen und ich bin mir nicht sicher ob die beiden sich verstehen würden. Aufgrund der Länge des Beitrags geht es mit dem Android Teil und meinem Fazit in Teil 2 dieser News weiter. Falls ihr euch das gesamte Event zusammengeschnitten in nur 15 Minuten ansehen wollt, schaut euch einfach das folgende eingebettete Video von The Verge an.
via Youtube ansehen