Kleine Gesten, große Wirkungen: Vom natürlichen Umgang mit Computern

 

gestigon-Outdoor-Infopanel

[Geschäftsführer Sascha Clement demonstriert Wirtschaftsminister Meyer (rechts) ein gestigon-outdoor-panel]

Frage: Wie „natürlich“ gehen wir als Bediener mit unseren Computern im Alltag um? Etwa wenn wir sie mit einem „Maus“ genannten indirekten Zeigegerät steuern oder mit einem „Touch-Pad“, das wenige vom Nutzer gelernte Fingergesten-Befehle weitergeben kann,  oder mittels „Touch(en)“, also dem Drücken von Symbol-Bildern auf einer Monitor-Oberfläche?

Antwort: Wir könnten uns das wirklich einfacher, direkter und insofern „natürlicher“ vorstellen! Insbesondere ohne all die mehr oder weniger mühsam zu erlernenden (Hand-) Bewegungen, die das Steuern der Geräte überhaupt erst ermöglichen.

Der Weg zu einer deutlich natürlicheren Bedienung ist offen, sobald der Computer in der Lage ist, die Intention des Nutzers aus seinen normalen Körpergesten oder seiner Körpersprache insgesamt zu erkennen und richtig zu interpretieren, sodass die angesteuerte Anwendung die gewünschten Befehle ausführt. Dafür gibt es seit einigen Jahren 3D-Kameras, die inzwischen so klein sind, dass sie zum Beispiel in den Display-Rahmen eines Laptops passen. In großem Maßstab arbeiten solche Kameras zum Beispiel in der aktuellen Microsoft-Spielekonsole – die Bewegungssteuerungstechnik heißt hier „Kinect“.

Entscheidend für den Erfolg so eines Steuerungssystems ist nun, dass es auf dem Weg von der Nutzer-Geste zur Reaktion der Anwendung keine für den Nutzer wahrnehmbare Verzögerung gibt – und das möglichst auch bei eher kleinen Prozessoren wie etwa im Auto-Navigationssystem. Hier kommt die besondere Leistung der Firma Gestigon vom Lübecker Technologie-Campus im Hochschulstadtteil ins Spiel: Die Software-Entwickler haben eine so genannte „Middleware“ geschaffen, das heißt: patentierte Algorithmen zur Gesten- und Skeletterkennung aus den Rohdaten der Kamera und zu deren blitzschnellen Interpretation und entsprechenden Weitergabe an die Anwendung. Das Prinzip funktioniert auch bei kleinen Gesten etwa mit einem einzelnen Finger (ganz anders als bei einem Mitbewerber, dessen Systeme man mit ganzen Armschwüngen dazu bewegen muss, das Gewünschte zu tun).

Die Gestigon-Technologie setzt auf die Mustererkennung nach dem Prinzip der „selbstorganisierenden neuronalen Karten“, die am Institut für Neuro- und Bioinformatik der Lübecker Universität schon seit mehr als einem Jahrzehnt erforscht werden. Die Lübecker Lösung braucht nur relativ wenige „gute“ Pixel in den Kamera-Rohdaten, um daraus im Abgleich mit hinterlegten Skelettmodellen (bzw. deren wichtigsten Knotenpunkten – bei einer Hand sind es zum Beispiel 37 Punkte) die aktuelle, individuelle Geste erfolgreich zu erkennen. Die Methode bringt bei geringerem Aufwand schnellere und präzisere Ergebnisse als die Ansätze der Mitbewerber weltweit. Die Software beansprucht dann weniger Rechen- und Speicherleistung als der Mitbewerb, der mit großen hinterlegten Datenbanken arbeitet. So kann das Gestigon-Produkt flexibler auch im Massenmarkt kleinerer, robuster eingebetteter Systeme (etwa im Auto) eingesetzt werden.

Das seit 2011 bestehende Unternehmen Gestigon hat sich aus dieser Forschung heraus entwickelt. Heute sind hier 16 junge und jung gebliebene Entwickler dabei, den Weltmarkt für Gesten-Steuerungsmiddleware aufzurollen. Sascha Klement (34), Mitgründer und Miterfinder der Technologie, beschreibt die strategischen Ziele des jungen Unternehmens: „Wir konzentrieren uns in der Markt-Einführungsphase auf die Bereiche Consumer Electronics und Automotive. In diesen Bereichen bieten wir den Herstellern etwa von Laptops oder Navis unsere Middleware im Lizenzgeschäft an.“ Der kaufmännische Geschäftsführer Moritz von Grotthuss (43) berichtet von bestehenden Kontakten zu großen Industrie-Anbietern weltweit: „Auf dieser Basis werden wir aller Voraussicht nach in den nächsten Jahren rasant wachsen.“

Gerade noch auf dem Lübecker Campus – demnächst in Ihrem Auto: Eine 3D-Kamera mit der Gestigon-Software, die erkennt, wer sich da auf den Fahrersitz setzt – und den Sitz sofort entsprechend einstellt. Oder bei der Arbeit mit Ihrem Laptop: Das Gerät erkennt, wann es in den Ruhezustand gehen soll (zum Beispiel, wenn Sie sich zurücklehnen oder aufstehen) oder in welches Formular-Feld der Cursor in der Textverarbeitung springen soll, ohne dass Sie die zehn Finger von der Schreibtastatur nehmen – oder doch: einen brauchen Sie schon, der mit kleiner Geste, kaum abgehoben von seiner Ausgangsposition über dem „J“ oder dem „G“, das gewünschte Feld anvisiert – und dann auch am Computer endlich wieder zurecht „Zeige-Finger“ heißt.

(rwe)

Mehr Info: gestigon.de

Filme von Anwendungen:

http://www.youtube.com/watch?v=piy1dy5-wpE
http://www.youtube.com/watch?v=NW_vSDdPg-M

http://www.youtube.com/watch?v=sHbLgC_-hV0