I³ - HBS

Haptics by Sound

 

Die Begeisterung und vielfältigen Experimente, die die neuartigen berührungslosen Interaktionsgeräte Microsofts Kinect und Leap-Motion ausgelöst haben, konnte bisher keinen langfristigen Einsatz der berührungslosen Steuerung in der Praxis bewirken. Hygiene und größere Bewegungsfreiheit werden als große Vorteile wahrgenommen. Als ein Grund für den fehlenden Erfolg der berührungslosen Interaktion wird vermutet, dass den Anwendern das gewohnte haptische und akustische Feedback der bisherigen Interfaces fehlt. Die haptische und akustische Rückmeldung schafft Vertrauen in das jeweilige System. Eine Aussage wie „das fasst sich solide an“ oder der Einsatz von Sounddesignern bei vielen Konsumprodukten, um durch den Klang der Geräte eine Hochwertigkeit zu vermitteln, stützen die These.

Bei den geräuschlos bedienbaren Touchscreens wird oft versucht durch eine akustische und haptische (Vibration) Rückmeldung das Benutzererlebnis einer mechanischen Taste zu simulieren und damit das Userinterface zu verbessern. Bei der berührungslosen Interaktion entfällt die Möglichkeit der haptischen Simulation durch Vibration. Jedoch können verschiedene akustische Signal (z. B. Musik) haptische Erregungen, wie Gänsehaut oder den Schlag in die Magengrube durch einen dumpfen Basston fördern/auslösen. Neben der Form des akustischen Signals ist auch die räumliche Verortung wichtig. Mit dem IOSONO-System können per Wellenfrontsynthese in einem ganzen Raum räumliche Klangquellen simuliert werden. Ähnliches ermöglicht das binaurale Kopfposen-bezogene Soundrendering für Kopfhörersysteme.