Intelligentes Verkehrssicherheitstraining für Kinder in Virtual Reality

Die Idee

Für eine effektive Verkehrserziehung müssen Kinder das erlernte theoretische Wissen praktisch trainieren und wiederholt auf unterschiedliche, reale Verkehrssituationen anwenden. Training im geeigneten Maße auf der echten Straße ist allerdings wegen etwa Kosten- und Sicherheitsgründen problematisch. Im Projekt SafeChild wurde deswegen an einer Alternative geforscht, mit der Kinder in einer virtuellen Realität (VR) verschiedene Verkehrssituationen sicher und beliebig oft üben können. Ein intelligentes Tutor-System soll das Trainingsprogramm außerdem auf individuelle Bedürfnisse optimieren. Nähere Informationen zur technologischen Umsetzung finden Sie im Abschnitt Technologie.



Die Partner

Das Projekt wurde am Center for Learning Technologies (CeLTech) im Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) durchgeführt. Es wurde im Rahmen des Software-Campus vom BMBF (Kennzeichen 01IS12050) gefördert und von CeLTech co-finanziert.






Das Projekt wurde außerdem unterstützt durch die Deutsche Post AG sowie dem Landesvermessungsamt der Stadt Saarbrücken.



Falls Sie Interesse am Projekt haben, etwa als Forschungspartner oder Pilotschule, dann treten Sie mit uns in Kontakt.



Wissenschaftliche Fragestellung

Im SafeChild Projekt werden Verkehrserziehung für Kinder, Virtuelle Realität und intelligente Tutor-Systeme auf einzigartiger Art und Weise zusammengeführt. Daraus resultieren zahlreich wissenschaftliche Fragen, die im Rahmen des Projektes bearbeitet werden. Neben Fragen bezüglich Eignung und Nutzen der eingesetzen Hardware und des Interaktionsmodells, ist vor allem der Entwurf des intelligenten Tutor-Systems eine große Herausforderung. Um das Training auf den individuellen Lernenden anzupassen, müssen dessen Bedürfnisse zunächst aus den Interaktionsdaten mit dem System abgeleitet werden. Die Menge an Interaktionsdaten, die Handlungsfreiheit des Lernenden sowie die Dynamik des Straßenverkehrs sind dabei alles Faktoren, die das entwickeln einer derartigen Methode erschweren.

Die Technologie

Das im SafeChild Projekt entwickelte System soll einerseits Trainingssituationen authentisch nachahmen, aber gleichzeitig auch kostengünstig sein, sodass es verbreitet eingesetzt werden kann. Im Projekt wurden daher unterschiedliche Ein- und Ausgabegeräte erprobt, die sich in den Faktoren Kosten, Mobilität und Grad der Immersion unterscheiden. Dies reicht von der normalen Desktopkonfiguration mit Tastatur, Maus und Monitor bis hin zu Mehr-Bildschrim-Anzeigen, Gamepads, Head-Mounted-Displays (Oculus Rift) sowie gestenbasierter Steuerung mit der Kinect Kamera.

Auf Softwareseite dient eine virtuelle Stadt als Grundlage für die Trainingsumgebung. Neben 3D Modellen von Gebäuden und Straßenzügen beinhaltet das eigens für das Projekt entwickelte Programm auch eine Verkehrssimulation mit zahlreiche Einstellmöglichkeiten. In der virtuellen Stadt können dann Situationen wie in der realen Welt geübt werden, wie etwa das korrekte Verhalten beim Straßenübergang. Im Projekt wurden auch der Einsatz von realen Gebäude und Geländedaten erprobt, die vom Landesvermessungsamt der Stadt zur Verfügung gestellt wurden. An die virtuelle Stadt wird außerdem ein intelligentes Tutor-System (ITS) angebunden, welches das Verhalten des Kindes während des Trainings analysiert und auswertet. Es wurde eine neue Methode entwickelt, die in echtzeit korrektes und fehlerhaftes Verhalten erkennt und unterschiedliche Feedback und Instruktionsmodi anbietet.

In der Media Sektion sehen Sie das System in Aktion. Sie können das System auch in der Download Sektion ausprobieren.



Medien

Videos

Im Video sieht man zunächst die Kalibrierungsgeste, die zur Erkennung des Benutzers sowie der Kalibrierung der Körpergröße dient. Anschließend ist es möglich näher an das Setup heranzutreten und die Steuerung mit einer "Wisch"-geste zu starten. Die derzeitige Gestensteuerung basiert auf Körperneigung zur Fortbewegung sowie Schulterrotation zur Drehung in der virtuellen Welt. Zum Stoppen der Simulation sieht man am Ende die "Wink"-Geste.

In diesem Video sehen Sie einige Übungen aus der Ich-Perspektive mit unterschiedlichen Übergängen, Fehlern sowie mit und ohne Anweisungen durch das System.

Screenshots

Die Screenshots zeigen Eindrücke der Trainingsumgebung. Diese kann auf einen oder drei Bildschirmen angezeigt werden.

Kontakt

Center for Learning Technologies (CeLTech) im Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI)
Alt-Moabit 91c
10559 Berlin
Associate Director
Dr. Carsten Ullrich
E-mail: Carsten.Ullrich@dfki.de

© Center for Learning Technologies (CeLTech) im Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI)