Interaktive immersive Bewegungsgesteuerte VR / 3D Video Tanzperformance
Dieses Projekt wird durch den FFF Bayern gefördert.
dieses Projekt wurde am 26.03.2021 im VRlab im Deutschen Museum mit einer Präsentation des Prototypen vorgestellt
und damit abgeschlossen.
FFF Bayern –Vergabeentscheidung XR vom 25. Juni 2020 FFF Bayern
Vergabeentscheidung Extended Realities XR vom 25.06.2020: Projektentwicklung XR4
Mensch Maschine Cyborg Dancing Antragsteller: Thomas Mahnecke und Angelika Maria Meindl Mahnecke, München Plattformen: Ortsgebundene VR Experience für Oculus Rift
Bei dem Projekt handelt es sich um die Entwicklung eines technischen Dispositivs aus Soft-und Hardware-Komponenten, mit dem eine immersive, interaktive, bewegungsgesteuerte VR-/3D-Videotanzperformance ermöglicht werden soll. Inhaltlich setzt sich die Performance mit dem Konflikt zwischen dem technikgetriebenen Streben nach Perfektion und Effizienz sowie der Sehnsucht des Einzelnen, sich selbst zu finden und zu erfahren, auseinander. Mittels 3D-Projektoren und einem dreidimensionalen Klangfeld soll das Dispositiv von Bühne und Zuschauerraum aufgehoben werden und ein sich ständig verändernder Raum entstehen. Visuelle und auditive Elemente sollen dabei über Sensoren mit den Bewegungen der Tänzer interagieren.
Testrendering
Key Personal / Partnerschaften / Kooperationen / Sponsoren
Wir haben uns Partner gesucht und Kooperationen geschlossen um gemeinsam dieses Projekt zu entwickeln.
Kollektiv:
Art Director: Angelika Maria Meindl Mahnecke
Visuel Design / Lead: Tobias Gremmler
Technical Director: Thomas Mahnecke
Produktionsleitung: Claudia Mittermaier
Sound Design: Fred Lutz
Partner
German Museum Munich (VR Lab): website (Kooperationspartner)
Etha international media systems: website ( Sponsor )
Videocation: website ( Partner )
Zweck des Projekts
Jede unserer gegenwärtigen Entscheidungen beeinflusst unsere Zukunft und ist in ständiger Bewegung und Wandlung. Nichts steht still, sondern wir bewegen uns mit unseren Gedanken und Handlungen
wie in einen Sog aus Ereignissen, Imaginationen und Visualisationen, die sich manifestieren und wieder verändern, ein steter Fluss ohne Stillstand. Diese Metaebene die uns umgibt, in der wir
agieren und täglich unsere eigene Ereigniskette gedanklich visualisieren bewusst und unbewusst, lassen wir durch die Installation und Performance auftauchen.
Sie umgibt die Darsteller und Zuschauer gleichermaßen.
Unser Anliegen ist es weg zu gehen von Darbietungen in dem der Zuschauer die Ereignisse auf der Bühne von aussen betrachtet, hin zu einem gemeinsamen eintauchen in visionäre Bilder in einem den
Zuschauer umschließende interaktive „Real-virtuelle Welt“. Dies wird möglich durch die Zuschauer umschließenden interaktiven und immersiven 3D Projektionen in einem dreidimensionalen Klangfeld.
Ein sich ständig verändernder Raum der keine referentielle Raumstruktur zulässt, sondern die Raum und Zeitstruktur in der Schwebe lässt, wird so selbst ein scheinbar amorphes Wesen, welches sich mit den Bewegungen und Körpern der Tänzer verbindet.
Wir zielen darauf ab, neue Möglichkeiten von Tanz und neuen Medien zu erkunden. Die Integration der neuen Medien folgt dem Ansatz einen interaktiven Dialog zwischen den Tänzern, den Rezipienten und dem visualisierten 3 dimensionalen Raum herzustellen.
Damit das gelingt, unterstützt uns der FFF Bayern mit einer Projektförderung, und das VRlab des Deutschen Museum mit der zur Verfügungstellung des VRlab und seiner technischen Möglichkeiten bei der Entwicklung des Konzeptes und einem technischen Prototypen mit dem wir in der Lage sind unter normalen- und Corona-Bedingungen, Theater oder museale Veranstaltungen/Performance Real und Virtuell (VR) einem großen Publikum erfahrbar zu machen.
Vision wird Realität!
Stellen wir uns vor, die visuellen Grenzen zwischen Live-Performance auf der Bühne, Projektionen und Publikum lösen sich auf. Der Raum, das Bühnenbild und die Darsteller verschmelzen zu einer
einzigen, visuell wahrnehmbaren, dreidimensionalen „Hyperwelt“. Hier in diesen hybriden, virtuellen Welten liegen neue, ungeahnte Optionen für Theater, Show und Musealen Entwicklung. Auch
neuartige digitale und interaktive museale Multi-User Ausstellungsszenarien und Erlebnisswelten können so einfacher entwickelt und in Live Events umgesetzt werden.
Ziel unserer „Prototypen“ Entwicklung ist die Voraussetzung zu schaffen um eine neuartige real / virtuelle Bühnenwelt zu kreieren mit einer Echzeitdarstellung des 3D-digital-projezierten Bühnenbildes bei zeitgleicher Interaktion mit Licht-, Ton- und Bühnen-Steuerungssystemen. Eine echte Multiuser- Interaktion der Darsteller auf der Projektionsbühne und der Zuschauer. Für Regisseur*Innen ebenso wie für Choreograph* innen und dem Publikum erschliessen sich nahezu endlose Dimensionen, die unsere Wahrnehmung herausfordern und die Fantasie beflügeln. Durch den Einsatz moderner Motion-Tracking Systeme, die in Echtzeit an digitale Avatare gekoppelt sind, gewinnt z.B. im zeitgenössischen Tanz die Choreographie Dimensionen und Bewegungsschöpfungen, deren Vorstellungskraft nur wir selbst Grenzen setzen. Es werden nicht nur Tänzer und „Avatare“ gemeinsam choreographiert, sondern auch Räume, Projektion und Darsteller sind kaum mehr zu unterscheiden. Sie vermischen sich. Gemeinsam mit ihnen tauchen wir ein in den dreidimensionalen „Hyperraum“ ein, in dem alles möglich ist und Raum und Zeit sich aufgelöst haben.
warum wurde die Technologie gewählt
Dreidimensional durch 3D-Beamer oder LED-Walls projizierte Bühnenbilder werden dem Publikum derzeit selten in Theateraufführungen Unterhaltungsshows oder Museen geboten. Einzig in 3D-Kinofilmen können Zuschauer diese dreidimensionalen Welten regelmäßig ausserhalb einer VR Welt erleben. Das liegt zum einen an den komplizierten technischen Möglichkeiten und zum anderen an dem umfangreichen Produktionsaufwand. Viele verschiedene Hard- und Software-Systeme müssen dafür eingesetzt werden. Besonders das Anpassen und Ändern einer fertig gerenderten 3D-Szene für das digital projizierte Bühnenbild, erfordert einen großen Zeitaufwand und somit hohe Kosten. Die Integration von interaktiven Elementen, wie zum Beispiel der live-Einsatz von Motion Capture Systemen oder anderen Tracking Systemen und Interfaces zur Entwicklung interagierender Szenen ist eine technisch anspruchsvolle Herausforderung.
Auch in Museen sind immer mehr echte Multi User Erlebnisse gefragt in denen kontaktlos mehrere Besucher gemeinsam interagieren können und eine 3 dimensionale Welt ausserhalb -real- und -virtuell- mit einer VR Brillen wahrnehmen können. Unser technisches System wurde für diese Ansprüche realisiert.
Eine Idee das IMAX Deutsches Museum für die Entwicklung des Prototypen zu nutzen
Visualisierung eines Test Showroom:
Video:
Angelika Maria Meindl Mahnecke/ creative director, chroeography
Thomas Mahnecke/ visualizations, technical management
Premiere of Man Machine Part 3 in the "Kraftraum" of the Deutsches Museum in October 2018
Förderer und Unterstützer: