Was ist neu in Google Lens?

14. Juli 2021
Was ist neu in Google Lens?

Jeder weiß, dass Google hervorragend darin ist, das globale Web zu durchsuchen. Dies gilt für Textabfragen, aber auf der Google I/O-Entwicklerkonferenz wurde die Möglichkeit eingeführt, nicht nur Text, sondern auch verschiedene Objekte mit Kameraunterstützung zu durchsuchen. Lassen Sie uns genau herausfinden, welche Möglichkeiten sich ergeben haben.

Integration von Augmented Reality mit Google Maps

Manchmal, insbesondere in unbekannten Städten, kann es schwierig sein, zu erkennen, in welche Richtung Sie schauen, selbst wenn Google Maps Ihren Standort lokalisieren kann. Bald wird es möglich sein, Google Maps in der Kamera-App zu aktivieren und nützliche Kontextinformationen anzuzeigen.

Sie wird Ihnen sagen, wo Sie in der realen Welt sind. Sie müssen das Kameraobjektiv auf die Stelle richten, auf die Sie blicken, und Sie sehen Informationen über verschiedene Unternehmen in Ihrer Nähe, Straßennamen usw. Auf diese Weise können Sie navigieren, neue Restaurants entdecken, die Ihnen sonst nicht aufgefallen wären, und andere Objekte .

Intelligente Textauswahl

Wenn Sie ein Schüler oder Student sind, möchten Sie gerne Texte aus Büchern kopieren und als Zitate in Ihre Hausaufgaben einfügen. Moderne Lernende können dies tun. Eine der besten neuen Funktionen von Google Lens ermöglicht es Ihnen, Text auszuwählen und zu bearbeiten, indem Sie einfach die Kamera darauf richten, wie eine Maus auf einem Monitor. Wenn es keine Probleme mit der Silbentrennung und Einrückung gibt, kann der Text einfach in die Nachricht oder das Dokument eingefügt werden.

Wenn alles wie gezeigt funktioniert, sparen Sie viel Zeit. Beispielsweise wird es möglich sein, Rezepte aus einem Kochbuch zu kopieren und sie dann per SMS an Freunde oder Verwandte zu senden, die den Laden besucht haben. Oder Sie lesen die Speisekarte in einem Restaurant auf Französisch und richten dann Ihr Smartphone auf den Namen eines Gerichts, um eine Beschreibung und eine Zutatenliste zu erhalten.

Passende Stile

Wenn Sie sich für Mode oder Innenarchitektur interessieren, wissen Sie, wie schwierig es ist, passende Accessoires zu finden. Mit der Style Match-Funktion lässt sich das Problem lösen.

Sie müssen die Kamera auf das Motiv richten und es erscheinen Vermutungen über andere ähnliche Motive. In einem der vor Ort gezeigten Beispiele wurde nach einer Lampe gesucht, Google-Bilder zeigten verschiedene Optionen mit ähnlichen Sockeln und deren Preisen. Sie sahen ziemlich ähnlich aus.

Letztes Jahr hat Google eine ähnliche Funktion wie die herkömmliche Bildersuche eingeführt, aber die Anzeige von Ergebnissen in Echtzeit über eine Kamera ist nützlicher.

Live-Suchergebnisse

Google Lens funktioniert jetzt so, dass Sie gezielt ein Element auf dem Bildschirm auswählen und warten müssen, bis die Suchergebnisse angezeigt werden. Das aktualisierte Lens liefert suchbezogene Ergebnisse in Echtzeit. Sie können neben einem Gebäude stehen und dessen Geschichte oder Höhe herausfinden, dann die Kamera zu einem anderen Gebäude bewegen und Informationen erhalten. Dadurch wird das Reisen informativer.

Dank Verbesserungen in der Technologie des maschinellen Lernens können Sie die Kamera auf das Poster richten und Google beginnt, das Musikvideo dieses Künstlers davon zu zeigen.

Unterstützung für Kameraanwendungen von Drittanbietern

Anfangs funktionierte Google Lens nur auf Pixel-Smartphones, doch in diesem Jahr wurde die Unterstützung um die Fotos-App und den Google Assistant erweitert. Besitzer von Android-Smartphones von Drittanbietern können bald mit dem Objektiv in der Kamera arbeiten.

Dabei handelt es sich um Kameras von Sony, Nokia, LG, Xiaomi, OnePlus, BQ und Asus. Samsung und Huawei nutzen in Kameras eigene künstliche Intelligenz. Ich würde gerne glauben, dass die Arbeitsqualität insgesamt nicht schlechter sein wird als die von Pixel-Smartphones. Google Lens ist ein unglaublicher Dienst, der Ihr mobiles Erlebnis verbessert, wenn Sie es teilen.