Autor: Roman Isheim, 19.07.2018, Thema: Google Lens – KI – Fotoeingabe
Kurznavigation in diesem Beitrag:
Seite 1 Beitrag / Diskussionsgrundlage
Seite 2 Kostenloses PDF-Angebot Google Lens
Seite 3 Personalbedarf oder Jobsuche melden
Seite 4 Artikel mitgestalten, Fragen stellen, Erfahrungen teilen
Seite 5 Am nächsten persönlichen Erfahrungsaustausch teilnehmen
Google Lens wurde während der Keynote auf der diesjährigen Google I/0 von Google-CEO Sundar Pichai vorgestellt. Die App soll damit die kaum noch gepflegte App Google Goggles ersetzen. Das bedeutet Google Lens soll Smartphone-Kameras ermöglichen, die erfassten Bilder zu deuten, Informationen zu geben und zu verarbeiten. Damit macht Google einen weiteren Schritt, künstliche Intelligenz in seine Services einzuarbeiten.
Hinweis: Unsere Berichte sind oft sehr ausführlich. Daher bieten wir an dieser Stelle eine Zusendung des Artikels im PDF-Format zur späteren Sichtung an. Nutzen Sie das Angebot um sich die Praxis-Impulse in Ruhe durchzulesen, Sie können hierfür auch einfach auf das PDF-Symbol klicken.
Funktionsweise von Google Lens
Google Lens soll Aufnahmen von der Smartphone-Kamera in Echtzeit mit Suchergebnissen verknüpfen. Was damals mit Google Goggles schwer umsetzbar war ist heute dank der fortgeschrittenen Technologie machbar. Die Kamera wird für die Vision von Google, von dem Betriebssystem der Zukunft, zu einem wichtigen Bestandteil. Denn das Unternehmen träumt von einem System, in dem es nicht nur über Eingaben im Browser oder in Apps via Tastatur und Spracheingabe möglich ist, Informationen zu erhalten.
Als ein Teil vom Google Assistant wird Lens ausgeliefert. Der Google Assistant steckt mittlerweile schon im sprachgesteuerten Lautsprechersystem Google Home und in Googles Pixel-Smartphone. Zudem soll dieser demnächst als App auf dem iPhone verfügbar sein. Google Lens würde also folgendermaßen funktionieren: Die Nutzer öffnen Lens aus dem Google Assistant und nehmen Bilder in Echtzeit auf. Anschließend versucht die Software passende Informationen zu finden. Sie können aber auch bereits aufgenommene Bilder nachträglich analysieren lassen.
Tipp um Google Lens selbst und schnell zu testen: Um die Funktion zu testen, musste auf unserem Test-Smartphone erst einmal die Sprache des Betriebssystem auf Englisch umgestellt werden. Bei unserem Test wurden Schafe, Grashüpfer oder auch Fotos von Essen sofort erkannt und mit weiteren Informationen aus dem Internet ergänzt. Die beängstigende Gesichtserkennung funktioniert jedoch nicht und wurde sicherlich von Google zensiert.
Anwendungsbeispiele von Google Lens
Der Google-CEO Sundar Pichai zeigte während der Keynote einige Beispiele. So sollen Nutzer die eine Blume fotografieren den genauen Namen der Blume erfahren können. Aber auch die Gattung, Herkunft oder Tipps zur Pflege werden angezeigt. Ein anderes Beispiel zeigt die Nützlichkeit. Fotografiert ein Nutzer eine SSID und ein Passwort von einem Router, so können diese Daten direkt verwendet werden und der Nutzer ist automatisch mit dem WLAN verbunden (bei einem Standardpasswort).
Hinweis: Unsere Berichte sind oft sehr ausführlich. Daher bieten wir an dieser Stelle eine Zusendung des Artikels im PDF-Format zur späteren Sichtung an. Nutzen Sie das Angebot um sich die Praxis-Impulse in Ruhe durchzulesen, Sie können hierfür auch einfach auf das PDF-Symbol klicken.
Ein weiteres Beispiel sind Geschäfte. Fotografiert der Nutzer Geschäfte auf der Straße, so erhält er daraufhin Informationen zu diesen. Zum Beispiel die Öffnungszeiten, Speisekarten oder Restaurantbewertungen. Außerdem bekommt der Nutzer in Echtzeit eine Übersetzung, wenn er ein fremdsprachiges Straßenschild abfotografiert oder die Kontaktdetails einer abfotografierten Visitenkarten landet automatisch im Adressbuch. Zu dem werden verschiedene Onlineshops zum Vergleichen angezeigt, wenn ein Produkt fotografiert wurde.
Google Lens steht seit ein paar Wochen Android-Nutzern kostenlos im Google Playstore, ergänzend zum bisherigen Funktionsaufruf, über Google Assistant zur Verfügung – für das Iphone soll eine App folgen. Je nach Android-Version (ab 5.0 soll eine einfache Nutzung möglich sein), gibt es mehrere Möglichkeiten zum Funktionsaufruf der Bilderkennungs-Funktionen. Am einfachsten ist die Standalone-App für Google Lens. Über folgenden Link wird Ihnen sofort angezeigt ob die Google Lens App auf Ihrem Smartphone funktioniert: https://play.google.com/store/apps/details?id=com.google.ar.lens
Die Entwicklung der erweiterten Realität
Technologien, die sich mit künstlicher Intelligenz befassen, haben in den letzten Jahren große Sprünge gemacht. Dies zeigte auch Googles Entwicklerkonferenz. Denn dort gab es kaum ein Thema, bei dem der Begriff nicht fiel. Ein wichtiger Punkt für Google Lens ist die sogenannte Mustererkennung. Sprich die Möglichkeit von Computern, Dinge – wie beispielsweise eine Pflanze – auf Bildern zu erkennen. Schon vor zwei Jahren hatte das Unternehmen gezeigt wie gut die Foto-App Google Photos, Motive erkennen und automatisch sortieren kann. Laut Google hat die App mittlerweile 500 Millionen Nutzer. So kann die Bilderkennung durch die Masse immer besser trainiert werden.
Zusätzlich spielt die erweiterte Realität (Augmented Realitiy, AR) eine immer größere Rolle, wie die App Pokemon Go bereits demonstrierte. Damit verdrängt die erweiterte Realität die virtuelle Realität (VR), die in den vergangenen Jahren größtenteils im Mittelpunkt stand. Der Griff zum Smartphone, um Bilder und Videos aufzunehmen, ist bereits Routine. Deswegen wird es wahrscheinlich auch einfacher sein diese Technik erfolgreich auf den Markt zu bringen. VR-Brillen, die ihren Nutzern virtuell Informationen über ihre Umgebung lieferten, scheiterten bislang oder können Sie sich noch an Google Glass erinnern?
Außerdem werden die virtuellen Assistenten immer mehr von Menschen geschätzt. Bestes Beispiel dafür ist Amazons Echo-Lautsprecher, der gezeigt hat wie gut Sprachsteuerung funktionieren kann. Nach der Sprache soll nun die Kamera die nächste Eingabemethode sein, die das klassische Tippen und Klicken ablöst. Statt im Browser zu suchen, können Nutzer einfach das Smartphone auf Objekte richten und der Google Assistant erledigt den Rest. Damit nähert sich das Unternehmen dem Ziel von damals: Ein Betriebssystem zu entwickeln, in dem es nicht nur über Eingaben im Browser und Apps möglich ist, Informationen zu erhalten.