MiroSurge – Gestensteuerung

In Zusammenarbeit mit dem Forschungszentrum der Bundesrepublik Deutschland für Luft- und Raumfahrt (DLR)

Dieses Projekt ist in Zusammenarbeit mit dem Forschungszentrum der Bundesrepublik Deutschland für Luft- und Raumfahrt (DLR) entstanden. Unsere Aufgabe war es für das MIRO–Projekt ein User Interface zu gestalten, das mit einer Gestensteuerung gesteuert wird.

Dieses Universitätsprojekt wurde in Zusammenarbeit mit dem Deutschen Zentrum für Luft- und Raumfahrt (DLR) entwickelt. Unsere Aufgabe war es, eine Benutzeroberfläche für das Projekt MiroSurge zu entwerfen, die mit Gestensteuerung bedient wird. MiroSurge ist ein robotergestütztes Operationssystem für die minimal-invasive Telechirurgie.

Das Benutzerkonzept stellt die Situation vor der Operation dar; unsere Aufgabe war es, die Roboterarme für die jeweilige Operation berührungslos einzustellen.

Für unseren Ansatz haben wir uns für eine Steuerung mit der Kinect entschieden. Außerdem haben wir einen Feedback-Gurt entwickelt, der die Interaktionen des Assistenten intensiviert. Der Gurt wird um den Brustkorb gelegt. Entlang des Gürtels sind insgesamt 12 Vibrationsmotoren und zwei Infrarot-Abstandssensoren angebracht.

MIRO-Impressionen.png
Wenn der Benutzer zwischen den Bildschirmen wechselt, vibrieren die Motoren. Je nach Wischrichtung erhält der Nutzer ein pulsierendes Feedback. Die Infrarotsensoren werden verwendet, um Werte zu ändern oder Tasten zu drücken.
 

Wenn der Benutzer zwischen den Bildschirmen wechselt, vibrieren die Motoren und geben ein pulsierendes Feedback, das je nach Wischrichtung variiert. Die Infrarotsensoren dienen dazu, Werte zu ändern oder Tasten zu drücken, sodass der Nutzer berührungslos und intuitiv mit der Benutzeroberfläche interagieren kann.

 
Funktionsprototyp #1 mit einem Vibrationsmotor und zwei IR Abstandssensoren

Funktionsprototyp #1 mit einem Vibrationsmotor und zwei IR Abstandssensoren

Funktionsprototyp #2 mit 6 Vibrationsmotor und vier IR Abstandssensoren

Funktionsprototyp #2 mit 6 Vibrationsmotor und vier IR Abstandssensoren

Funktionsprototyp: Arduino, V4, Kinect.

Vorgelegt von:
Fatih Inan und Fatih Aydemir

Betreut von:
Jürgen Graef

Hochschule für Gestaltung
Schwäbisch Gmünd University of Applied Sciences
Interaktionsgestaltung || Bacheor of Arts
Interaktionsgestaltung 3. Semester
www.hfg-gmuend.de

Zurück
Zurück

The Tank

Weiter
Weiter

Transformation Robot