News

SkinHaptics macht die Handfläche zum Touchpad

skinhapticsDas Display eines Wearable Device wie bei einer Android Wear Smartwatch ist immer gewissen Restriktionen ausgesetzt, was britische Forscher mit ihrer Erfindung SkinHaptics zumindest ein Stück weit verändern wollen. Zum übergroßen Touchscreen wird die einbezogene menschliche Hand dabei zwar nicht werden, aber man soll zumindest besser fühlen, wenn man auf dem Display etwas drückt.

Vorgestellt haben die Forscher um Projektleiter Sriram Subramanian der University of Sussex aus dem Süden Englands ihre SkinHaptics getaufte Technologie während des IEEE Haptics Symposium 2016 im US-amerikanischen Philadelphia.

Wenn man sich die Beschreibung der Technologie selbst anschaut, dann ist der Vergleich mit einem TouchPad inklusive taktilem Feedback gar nicht mal so verkehrt. Zwar wird die Hand dadurch auch nicht zur vollwertigen Touch-sensitiven Oberfläche, aber im kleinen Rahmen schon. Durch das gezielte Aussenden von Ultraschallwellen können die Forscher ein Gefühl erzeugen, was sich wie eine Taste anfühlt.

Geräte ohne Display mit SkinHaptics

Dazu machen sich die Forscher das Prinzip der erwähnten Ultraschallwellen zu Nutze – genauer gesagt das Prinzip der Zeitumkehr-Signalverarbeitung, um Schallwellen gezielt fokussieren zu können – und senden diese bei einer Berührung des Displays oder einer anderen berührungsempfindlichen Oberfläche über spezielle Signalgeber auf dem Handrücken aus. Im Endergebnis fühlt der Anwender diese Ultraschallwelle und weiß somit, dass er tatsächlich eine virtuelle Taste drücken kann.

In dem nachfolgenden Video demonstrieren die Forscher ihre Entdeckung anhand eines Versuchsaufbaus:

[youtube]https://www.youtube.com/watch?v=DR4LBFKv5_Y[/youtube]

Laut Projektleiter Sriram Subramanian könnte SkinHaptics eine wichtige Rolle bei künftigen Generationen von Wearable Devices spielen, da diese immer kompakter werden und damit auch weniger Platz für ein Display bieten. Insofern sind Nutzer solcher Geräte zunehmend stärker auf ihre andere Sinne beschränkt – ein Punkt, wo SkinHaptics mit dem Tastsinn ins Spiel kommt.

skinhaptics-180416_8_1

So nannte Subramanian das Beispiel des Musikhören , während man mit dem Fahrrad unterwegs ist. Das Verändern der Musiklautstärke gestaltet sich in dieser Situation über eine Smartwatch als relativ schwierig, da man auf deren kleinen Display die Bedienelemente aufgrund des kleinen Displays nur schwer zielsicher treffen kann. Gerade da sei die von ihm und seinen Kollegen Daniel Spelmezan und Rafael Morales Gonzales entwickelte SkinHaptics Technologie irgendwann in der Zukunft von Vorteil.

Denkbar wäre zum Beispiel die Integration in einem Handschuh, sodass die Technik selbst auch noch gut versteckt ist. Vorausgesetzt die Ultraschall-Transmitter und andere Technik wird noch erheblich verkleinert.
Dennoch sehen die Forscher mit ihrer Entwicklung einen wichtigen Beitrag für die kommende Ära der Wearable Devices ohne Display, die ihren Prognosen nach zu einem Millionengeschäft werden könnten.

Konkurrenz treibt die Forschung voran

So ganz alleine sind die Forscher der University of Sussex mit ihrer Entwicklung SkinHaptics aber nicht. Ein direkter Konkurrent ist die Ultrahaptics getaufte Technik der Kollegen aus Bristol zwar nicht, da sie ihre Berührungen durch durch die räumliche Erfassung der Position von Fingern erzielt, aber letzten Endes ist das Ziel beider Technologien dasselbe: Die Einschränkungen zu kleiner Displays von künftigen Wearable Devices auszuhebeln.

[youtube]https://www.youtube.com/watch?v=2QkbVr4J7CM[/youtube]
[Quelle: University of Sussex | via Golem]

Beitrag teilen:

Stefan

Mann mit Bart und Faible für Smartphones und Tablets jeder Plattform, doch eindeutig bekennender Androidliebhaber.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert