Google Now Offline Spracherkennung in finaler Phase

Sprachsteuerung ist mittlerweile ein fester Bestandteil von Android geworden, welche heutzutage mit Google Now und dem Sprachbefehl „Ok Google“ in nahezu allen erdenklichen Situationen genutzt werden kann. Allerdings wird dazu noch immer eine aktive und möglichst schnelle Daten-Verbindung ins Internet benötigt, was Google nun ändern will. Man arbeitet an einer möglichst schlanken Offline-Lösung, die allen Anschein nach in Kürze schon veröffentlicht werden könnte.

Eine der Stärken der Google Now Spracherkennung ist deren Genauigkeit trotz störender Hintergrundgeräusche. Der Konzern mit Sitz im Silicon Valley hat seine Technologie in den letzten Jahren stetig verbessert und könnte demnächst eine Lösung vorstellen, die vollkommen ohne Internet auskommt.

Den Google-Ingenieuren ist es gelungen, den bisher auf den Google-Servern genutzten Algorithmus zur Erkennung der gesprochenen Wörter so zu optimieren, dass dieser auf dem Android Smartphone oder Android Tablet selbst funktioniert. Mit einer knapp 20 MB großen Datenbank pro Sprache ist die Offline Spracherkennung zudem nicht einmal sonderlich Ressourcen-hungrig, sodass selbst Einsteiger-Smartphones mit 8 GB internem Speicher keine allzu große Mehrbelastung befürchten müssten.

Vielversprechende Spracherkennung von Google

Dabei ist dies nicht der einzige Durchbruch, den die Google-Ingenieure mitgeteilt haben. So will man auch die Geschwindigkeit selbst bei der Erkennung der Wörter verbessert haben. Vom Faktor Sieben ist da die Rede wobei nicht eindeutig hervor geht, ob sich die siebenmal schnellere Erkennung auf das Gesprochene selbst bezieht, oder den gesamten Vorgang vom Sprechen über das Verarbeiten durch den Algorithmus und der daraus resultierenden Antwort beziehungsweise Reaktion des Gerätes.

Im Bezug auf die Fehlerquote will man mit lediglich 13,5 Prozent falsch erkannten Wörtern der Offline Spracherkennung einen hervorragenden Wert erreicht haben. Getestet wurde das Ergebnis auf einem Google Nexus 5 von LG, welches nicht mehr zu den schnellsten verfügbaren Android Smartphones zählt. Ein Snapdragon 800 Quad-Core-Prozessor mit 2,3 GHz und 2 GB RAM ist heutzutage eher Mittelklasse-Technik.
Mit dem Unterschied, dass besagter Snapdragon 800 bereits mit der passenden Technologie zur Spracherkennung ausgestattet ist (zum Beitrag).

Auch dadurch unterscheidet sich das Projekt rund um die Offline Spracherkennung von Google: Es ist bereits in der aktiven Erprobung in einer realen Testumgebung für den täglichen Einsatz.

Maschinelles Lernen ist ein wichtiger Bestandteil

Laut den technischen Details in den veröffentlichten Dokumenten zu der Forschungsarbeit (Download PDF) kommen dabei diverse Technologien aus dem Bereich Maschinelles Lernen zum Einsatz, darunter Long Short-Term Memory (LSTM), Recurrent Neural Network (RNN), Connectionist Temporal Classification (CTC) als auch State-Level Minimum Bayes Risk (SMBR).

Für das genutzte Grundmodell der Akustik haben die Forscher von Google über 2.000 Stunden an Sprachdateien aus der Google Websuche analysiert sowie Sprachbeispiele von YouTube genutzt. Das Ergebnis des Forschungsprojektes kann sich damit wahrlich sehen lassen.

Vorstellung mit Android N?

Wann allerdings die Offline funktionierende Spracherkennung offiziell vorgestellt und eingeführt wird, ist derzeit noch unklar. Ein durchaus günstiger Zeitpunkt wäre durchaus die kommende Kynote und der damit einhergehenden Android N Präsentation. Allerdings sollten dann auch schon einige Codeschnippsel der Offline Google Now Funktion in der aktuellen Android N Preview befinden, die inzwischen für jeden Nexus Smartphones Besitzer zugänglich ist (zum Beitrag).
Jedenfalls ist Google in diesem Bereich damit ein enormer Durchbruch gelungen, denn die größte Sorge bei einer solchen Technologie ist weniger deren Effizienz, sondern eher deren benötigter Bedarf an Ressourcen.

Zumal Google nicht alleine ist in diesem Bereich der Forschung. Auch Ford entwickelt in Kooperation mit der Carnegie Mellon University ein eigene Lösung, um Sprache auch ohne Internetverbindung schnell und effizient zu erkennen. Herzstück dieses Forschungsprojektes ist dabei ein NVIDIA Tegra K1 Prozessor (zum Beitrag). Auch dieses Projekt zeigt, dass die Hardware nicht allzu leistungsfähig sein muss.

[Quelle: 9to5Google | via Google Watch Blog]
Stefan

Mann mit Bart und Faible für Smartphones und Tablets jeder Plattform, doch eindeutig bekennender Androidliebhaber.

Zeige Kommentare

Share
Veröffentlicht von
Stefan

Recent Posts

Project Moohan: Samsung eröffnet mit dem Galaxy XR-Headset neue Welten!

Samsung hat nun auf seinem Galaxy-Oktober-Event in Südkorea und den USA das Galaxy XR-Headset offiziell…

5 Monaten vor

Vivo iQOO 15: Snapdragon 8 Elite Gen 5-Flaggschiff für knapp 500 Euro offiziell!

Anfang der Woche hat Vivo im Heimatland das als preiswert zu bezeichnende iQOO 15 präsentiert.…

5 Monaten vor

Apple iPad Fold soll über 4.000 Euro kosten!

Manch einer von Euch wird vermutlich schmunzeln, wenn wir wieder einmal über das Apple iPad…

5 Monaten vor

Realme GT 8: Snapdragon 8 Elite für 350 Euro!

Neben dem Realme GT 8 Pro, das mit austauschbaren Kamera-Arrays in runder und eckiger Form…

5 Monaten vor

Realme GT 8 Pro mit individuellem Kamera-Design by Ricoh GR offiziell!

Noch vor dem OnePlus 15 und OnePlus Ace 6 hat nun das Schwester-Unternehmen heute das…

5 Monaten vor

Kommt die komplette Samsung Galaxy S26-Serie mit dem Exynos 2600?

Bislang war der Exynos-Prozessor von Samsung eher ein Chip, welchen die werte Kundschaft gemieden hat.…

5 Monaten vor

Diese Seite verwendet cookies.