Google Lens verbessert die visuelle Suche mit Sprachinteraktion und Videoverständnis

Am 4. Oktober kündigte Google Updates für sein visuelles Suchwerkzeug Google Lens an, das Sprachinteraktion und Videoverständnis integriert.

Benutzer können jetzt Fragen laut zu dem stellen, was sie durch die Kamera sehen, was die Erkundung natürlicher und intuitiver macht. Diese Funktion ergänzt die Möglichkeit, Fotos zu machen und Fragen einzugeben.

Zusätzlich kann Google Lens jetzt Videos interpretieren, sodass Benutzer Fragen zu Elementen in einem Video stellen können. Die Systeme von Google analysieren das Video zusammen mit der Anfrage des Benutzers, um eine von KI generierte Zusammenfassung und relevante Online-Ressourcen bereitzustellen.

Diese Videoverständnisfunktion ist weltweit in der Google-App für Android und iOS verfügbar, während Sprachabfragen derzeit auf Englisch beschränkt sind.

Haben Sie einen Fehler oder eine Ungenauigkeit festgestellt?

Wir werden Ihre Kommentare so schnell wie möglich berücksichtigen.