Von Barbara Czyz

Estimated reading time: 5 Minuten

Techblog

Interaktionsmöglichkeiten für VR entwickeln

Ich habe meine Masterarbeit bei MaibornWolff geschrieben. Wie ich die Anforderungen von Uni und Unternehmen unter einen Hut gebracht habe, beschreibe ich in meinen ersten Blogbeitrag hier. In diesem Teil geht es um mein Thema und die Ergebnisse der Arbeit.  Mein endgültiges Thema der Masterarbeit war „Entwicklung und Implementierung von Interaktionsmöglichkeiten in der VR am Beispiel…

Techblog

Ich habe meine Masterarbeit bei MaibornWolff geschrieben. Wie ich die Anforderungen von Uni und Unternehmen unter einen Hut gebracht habe, beschreibe ich in meinen ersten Blogbeitrag hier. In diesem Teil geht es um mein Thema und die Ergebnisse der Arbeit. 


Mein endgültiges Thema der Masterarbeit war „Entwicklung und Implementierung von Interaktionsmöglichkeiten in der VR am Beispiel einer Softwarestadt“. Idee dahinter ist es, dass Informationen, die in 3D und mit einer Möglichkeit zur Interaktion dargestellt werden, besser und schneller vom Menschen erkannt und verstanden werden können, als mit einer Darstellung in 2D. Wenn das für 3D am Computer gilt, wäre es dann nicht noch besser, Informationen in „realem“ 3D, also zum Beispiel mit einer VR-Brille, darzustellen? Doch wie interagiere ich mit einer Umwelt, die gar nicht da ist; die ich nur sehe, aber nicht fühle? Um diese Fragestellungen zu beantworten, habe ich mit einer HTC Vive drei verschiedene Interaktionskonzepte entwickelt, implementiert und evaluiert, über die der Benutzer mit einer „Softwarestadt“ interagieren kann.

Wie interagiere ich mit einer Umwelt, die gar nicht da ist? Die ich nur sehe, aber nicht fühle?

Der Benutzer soll dabei die Stadt größer und kleiner machen, sie drehen und bewegen können. Außerdem soll er die Möglichkeit besitzen, zu einem „Haus“ der Softwarestadt mehr Informationen zu bekommen. Dabei tritt während der Nutzung immer wieder die Fragestellung auf: „Bewege ich mich, oder bewege ich die Stadt?“ Das ist wichtig zu beantworten: Macht sich zum Beispiel der Nutzer kleiner oder wird die Stadt größer, wenn er die Größe der Stadt verändert? Außerdem beinhaltet es die Frage, ob man die Stadt drehen können muss, wenn der Nutzer seinen Kopf drehen kann. Um herauszufinden, wie verschiedene Anwender das sehen, habe ich verschiedenen Probanden einen Prototypen gezeigt und mit ihnen darüber diskutiert, was sie daran ändern würden, und welche Interaktion sie erwarten würden. Zwei der drei Konzepte waren in diesem Prototypen schon enthalten:

Im ersten Konzept benutzte ich die bei der HTC Vive mitgelieferten Controller. So hat der Benutzer etwas in der Hand und bekommt zum Beispiel beim Berühren eines Hauses haptisches Feedback. Außerdem sind Controller für viele Menschen bekannt und werden schon in anderen VR-Anwendungen genutzt. Auch wird die Bewegung und Position der Controller im Raum flüssig erkannt und kann somit passgenau in das Bild eingefügt werden, das der Benutzer sieht. Um die Tastenbelegung so intuitiv wie möglich zu gestalten, habe ich aktuelle VR-Anwendungen ausprobiert. Beim Testen des ersten Prototypen wurde die Tastenbelegung von den Probanden weiter angepasst.

Das zweite Konzept setzte auf UI-Oberflächen wie auf einem Computerbildschirm. Es gab zum Beispiel einen Slider zum Vergrößern und Verkleinern der Stadt. Alle Elemente sollten direkt mit einer Hand bedient werden können, welche durch eine Leap-Motion-Kamera auf der HTC Vive erkannt wurde. Meine Annahme war, dass solche Elemente bekannt sind. Ein Problem schon beim Testen des Prototypens war die Positionierung der UI-Elemente, sodass sie erreichbar sind, aber nicht im Weg.

Das dritte Konzept habe ich zusammen mit den Probanden entwickelt: Vorgabe war, die gesehenen Interaktionsmöglichkeiten der ersten beiden Konzepte als Gestensteuerung umzusetzen. Nach der Feedbackphase mit den Probanden habe ich verschiedene vorgeschlagene Gesten zu einem Konzept zusammengefasst und anschließend umgesetzt. Zum Beispiel kann der Nutzer die Stadt in der endgültigen Anwendung mit einer geschlossenen Hand bewegen oder mit einer offenen Hand drehen oder skalieren. Gestensteuerungen werden immer mehr im Zusammenhang mit VR untersucht und sollten in meiner Arbeit nicht fehlen.

Gleichstand für Gesten- und Controller-Steuerung

Am Ende haben mehrere Mitarbeiter alle drei fertig implementierten Konzepte gegeneinander evaluiert. Dabei war die entscheidende Frage, welches Konzept sie bei einem Kundenprojekt einsetzen würden und wieso. Dabei entschied sich kein einziger Proband für das Konzept mit der UI. Viele fanden es  trotz bekannter Elemente problematisch, die Elemente ohne haptisches Feedback zu bedienen. Die Zustimmung für Gestensteuerung und Controller-Steuerung hielten sich die Waage. Begründung für die Wahl beider Konzepte war die intuitive Bedienung. Als Vorteil der Gestensteuerung nannten viele Kollegen, dass diese Art der Steuerung gut in eine virtuelle Welt passen würde. Die Fans der Controllersteuerung nannten vor allem die Genauigkeit der Interaktionen als Grund für ihre Wahl. Manche Probanden bescheinigten so der Controller-Nutzung eine intuitive Steuerung, andere der Gestensteuerung. Ich bin gespannt, welche Konzepte sich für verschiedene Anwendungsfälle durchsetzen. 


Über den Autor