Google Now Offline Spracherkennung in finaler Phase

Geschrieben von

Google Now Sprachsteuerung mit Offline Spracherkennung in der Entwicklung

Sprachsteuerung ist mittlerweile ein fester Bestandteil von Android geworden, welche heutzutage mit Google Now und dem Sprachbefehl „Ok Google“ in nahezu allen erdenklichen Situationen genutzt werden kann. Allerdings wird dazu noch immer eine aktive und möglichst schnelle Daten-Verbindung ins Internet benötigt, was Google nun ändern will. Man arbeitet an einer möglichst schlanken Offline-Lösung, die allen Anschein nach in Kürze schon veröffentlicht werden könnte.

Eine der Stärken der Google Now Spracherkennung ist deren Genauigkeit trotz störender Hintergrundgeräusche. Der Konzern mit Sitz im Silicon Valley hat seine Technologie in den letzten Jahren stetig verbessert und könnte demnächst eine Lösung vorstellen, die vollkommen ohne Internet auskommt.

Den Google-Ingenieuren ist es gelungen, den bisher auf den Google-Servern genutzten Algorithmus zur Erkennung der gesprochenen Wörter so zu optimieren, dass dieser auf dem Android Smartphone oder Android Tablet selbst funktioniert. Mit einer knapp 20 MB großen Datenbank pro Sprache ist die Offline Spracherkennung zudem nicht einmal sonderlich Ressourcen-hungrig, sodass selbst Einsteiger-Smartphones mit 8 GB internem Speicher keine allzu große Mehrbelastung befürchten müssten.

Vielversprechende Spracherkennung von Google

Dabei ist dies nicht der einzige Durchbruch, den die Google-Ingenieure mitgeteilt haben. So will man auch die Geschwindigkeit selbst bei der Erkennung der Wörter verbessert haben. Vom Faktor Sieben ist da die Rede wobei nicht eindeutig hervor geht, ob sich die siebenmal schnellere Erkennung auf das Gesprochene selbst bezieht, oder den gesamten Vorgang vom Sprechen über das Verarbeiten durch den Algorithmus und der daraus resultierenden Antwort beziehungsweise Reaktion des Gerätes.

Im Bezug auf die Fehlerquote will man mit lediglich 13,5 Prozent falsch erkannten Wörtern der Offline Spracherkennung einen hervorragenden Wert erreicht haben. Getestet wurde das Ergebnis auf einem Google Nexus 5 von LG, welches nicht mehr zu den schnellsten verfügbaren Android Smartphones zählt. Ein Snapdragon 800 Quad-Core-Prozessor mit 2,3 GHz und 2 GB RAM ist heutzutage eher Mittelklasse-Technik.
Mit dem Unterschied, dass besagter Snapdragon 800 bereits mit der passenden Technologie zur Spracherkennung ausgestattet ist (zum Beitrag).

Auch dadurch unterscheidet sich das Projekt rund um die Offline Spracherkennung von Google: Es ist bereits in der aktiven Erprobung in einer realen Testumgebung für den täglichen Einsatz.

Maschinelles Lernen ist ein wichtiger Bestandteil

Laut den technischen Details in den veröffentlichten Dokumenten zu der Forschungsarbeit (Download PDF) kommen dabei diverse Technologien aus dem Bereich Maschinelles Lernen zum Einsatz, darunter Long Short-Term Memory (LSTM), Recurrent Neural Network (RNN), Connectionist Temporal Classification (CTC) als auch State-Level Minimum Bayes Risk (SMBR).

Für das genutzte Grundmodell der Akustik haben die Forscher von Google über 2.000 Stunden an Sprachdateien aus der Google Websuche analysiert sowie Sprachbeispiele von YouTube genutzt. Das Ergebnis des Forschungsprojektes kann sich damit wahrlich sehen lassen.

Vorstellung mit Android N?

Wann allerdings die Offline funktionierende Spracherkennung offiziell vorgestellt und eingeführt wird, ist derzeit noch unklar. Ein durchaus günstiger Zeitpunkt wäre durchaus die kommende Kynote und der damit einhergehenden Android N Präsentation. Allerdings sollten dann auch schon einige Codeschnippsel der Offline Google Now Funktion in der aktuellen Android N Preview befinden, die inzwischen für jeden Nexus Smartphones Besitzer zugänglich ist (zum Beitrag).
Jedenfalls ist Google in diesem Bereich damit ein enormer Durchbruch gelungen, denn die größte Sorge bei einer solchen Technologie ist weniger deren Effizienz, sondern eher deren benötigter Bedarf an Ressourcen.

Zumal Google nicht alleine ist in diesem Bereich der Forschung. Auch Ford entwickelt in Kooperation mit der Carnegie Mellon University ein eigene Lösung, um Sprache auch ohne Internetverbindung schnell und effizient zu erkennen. Herzstück dieses Forschungsprojektes ist dabei ein NVIDIA Tegra K1 Prozessor (zum Beitrag). Auch dieses Projekt zeigt, dass die Hardware nicht allzu leistungsfähig sein muss.

[Quelle: 9to5Google | via Google Watch Blog]

The following two tabs change content below.
Mann mit Bart und Faible für Smartphones und Tablets jeder Plattform, doch eindeutig bekennender Androidliebhaber.

Ein Kommentar

  1. Pingback: Google Now funktioniert bald ohne Datenverbindung – comnomad

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*


206 Abfragen in 0,423 Sekunden