Autor Thema: Display-Bedienung per Augenbewegungen  (Gelesen 1526 mal)

0 Mitglieder und 1 Gast betrachten dieses Thema.

Offline Björn

  • Mitglied
  • ***
  • Beiträge: 758
  • Geschlecht: Männlich
Display-Bedienung per Augenbewegungen
« am: Samstag, 09. September 2006 - 09:08:05 »

Software ermöglicht händefreie Benützung

Computerforscher haben ein System vorgestellt, das die Bedienung von Displays durch Augenbewegungen ermöglicht. Das am Fraunhofer-Institut für Arbeitswirtschaft und Organisation http://www.iao.fraunhofer.de in Kooperation mit Industriepartnern entwickelte EYCIN ("Eye-Controlled Interaction") verknüpft etablierte Erkennungstechnologien mit einer speziell entworfenen Bedienoberfläche. Eine Infrarotkamera verfolgt die Augenbewegungen eines Menschen und überträgt diese auf die Mauszeiger-Koordinaten auf dem Bildschirm. Die neue Technik soll neben dem Home-Entertainment-Bereich zukünftig in der Industrie für Wartungsarbeiten eingesetzt werden.

"Die Entwicklung einer funktionstüchtigen Oberfläche zählt sicherlich zu den wichtigsten Aufgabenstellungen innerhalb eines derartigen Projekts", erklärt Projektleiter Fabian Hermann im Gespräch mit pressetext. Da sich die Maus per Auge nicht so präzise wie mit der Hand steuern lasse, dürfe diese nicht zu kleinteilig ausfallen, so Hermann weiter. Als besondere Herausforderung der visuellen Steuerung gilt dabei das zielsichere Anklicken gewünschter Buttons und Menüpunkte. Die Forscher haben dafür sensitive Bereiche entwickelt, die durch längeres Anschauen aktiv werden. Der Button ändert dabei zweimal seine Farbe ehe es schließlich "Klick" macht - ein wichtiges Feedback für den Nutzer, der so erkennen kann, ob der Computer seine Befehle richtig versteht.

Als weiteres Problem gelten die winzigen Zitterbewegungen, sogenannte Mikrosakkaden, die das Auge permanent ausführt. Werden die Pupillenbewegung ungefiltert auf den Bildschirm übertragen, bewegt sich der Zeiger in unkontrollierten Bahnen über den Monitor. Die Software muss daher über eine Filterfunktion diese Mikrosakkaden ausfiltern und die Hauptbewegungsrichtung des Auges ermitteln. Hermann zufolge soll die Kamera bis zu einem Meter vom Auge des Betrachters entfernt in der Lage sein, dessen Pupillenbewegungen aufzuzeichnen und auszuwerten. Zur Berechnung gleicht die Software die Koordinaten der Pupille mit einem unsichtbaren statischen Infrarot-Lichtpunkt ab und überträgt diese auf den Zeiger am Bildschirm.

Eingesetzt soll EYCIN werden, um Technikern die Montage oder Wartung von Anlagen zu erleichtern. Während ein Werker Bauteile in den Händen hält, klickt er sich gleichzeitig per Augenbewegung durch das Wartungsmenü. Auch Querschnittsgelähmte könnten für ihre Arbeit am PC zukünftig von der Technologie profitieren.

Quelle: pte


Für Querschnittsgelähmte vielleicht ganz sinnvoll, aber für den Home-Entertainment-Bereich ? Braucht man sowas ?