plusinsight

Tag Archives: Mensch Maschine Schnittstelle

„Fabula Deus – oder der Film der Zukunft“ von der fmx 2018, Prof. Katja Schmid

Foto: FMX 2018©Katja Schmid

Menschen träumen schon immer davon, die Welt nach ihren Vorstellungen zu gestalten. Nun scheint es so, dass heutige Filmemacher dieser göttlichen Vision näher denn je kommen. Virtual Production, VR, Realtime Technologien, Dronen, LED Displays, fotorealistische Simualtions- und Render Algorithmen, Motion Capture, Facial Capture, Photogrammetrie und Machine Learning gestatten den Kreativen, sich eine glaubhaft, zum Verwechseln echte Welt zu schaffen, in der Charaktere (Menschen oder synthetische Figuren) agieren.

Foto: FMX 2018,Dominique Brewing and Luzie Marquardt

Habib Zargarpour (CCO und Co-Founder von Digital Monarch Media) bringt es nach einem langen Tag zu Virtual Production auf den Punkt: „Es geht um einen Paradigmenshift. Die Filme werden anders werden“.

Er hatte zuvor das Virtual Film Tool Expozure life vorgestellt, mit dem in einer virtuellen Umgebung die Previsualisierung in realtime aufgenommen, also der Film visuell konzipiert werden kann. Mittels eines handheld devices kann der Kameramann oder Regisseur in der virtuellen Welt Einstellungen wie am Set gestalten. Am Ende des „Drehtages“ werden die Shots zu einer Szene zusammengeschnitten. Expozure kam für den Science-Fiction Film Blade Runner 2049 (executive producer Ridley Scott, Regie: Denis Villeneuve) zum Einsatz. „Was wäre, wenn wir in Zukunft unsere Geschichten direkt aus den Welten, die wir gebaut haben, entwickeln würden – also zu einem life perform of storybuilding übergingen?“ Wie würden sich die Filme verändern, wenn statt auf der Basis von Text, die zukünftigen Geschichten in der menschengemachten, visuellen Welt entstünden?

An Blade Runner 2049 hat auch Axel Akesson (MPC) mitgewirkt. Als Asset Supervisor war er für die digitale Replikation von Rachael verantwortlich.

Die größte Herausforderung beim Erstellen von Digital Humans ist die Überbrückung des uncanny valley (es bezeichnet die beim Zuschauer entstehende innere Akzeptanzlücke von künstlich hergestellten Personen. Der Realitätsgehalt eines virtuellen Characters kann entgegen der Erwartung von größtmöglicher Realitätsnähe zu einer minderen Akzeptanz beim Rezipienten führen, wenn dieser Differenzen zum antizipierten Original als störend wahrnimmt.)  „Tote Augen“ sind die größten Illusionsbrecher und eine Herausforderung. Axel Akesson spricht in dem folgenden Interview über die neuen Methoden der Lichtberechnung im Augapfel, aus welchen Komponenten die digitale Rachael besteht, über die Vorteile, die Virtual Production mit sich bringt, was zukünftig noch an Verbesserungen zu erwarten ist und warum echte Filmfotografie für ihn immer noch das non plus ultra ist.

Ian Comley, CG Tech Supervisor, ILM vertritt folgende Perspektive zu Virtual Production: “It is not a substitute for good storytelling. It’s a tool, it’s not a replacement.” Die Tools haben sich konstant in vielen Gebieten weiterentwickelt und sich gegenseitig beeinflusst. Besonders was look development angeht, werden solide Referenzen, mit denen dann Prototypen entwickelt werden, bevorzugt. Sie helfen um schlussendlich zu einer hohen Glaubwürdigkeit zu gelangen. Ian kann sich zwei Zukunfts-Szenarien vorstellen. Einerseits können die Entwicklungen ohne jeden Anteil an realer Filmfotografie zu digitalen Welten und digitalen Charakteren im Film führen. Andererseits sollten perfekte Drehorte weiterhin verwendet werden,, wenn es sie gibt, denn sie verfügen nicht minder über Realitätsanspruch. Was digitale Schauspieler angeht, beantwortet er die Frage: „Can you fully synthesize a human performance through artificial intelligence?“ eindeutig mit „Ja“. Nach Ian Comley sind künstliche Charaktere genauso überzeugend und in der Lage Zuschauer in ihre Geschichte zu involvieren, wie menschliche Schauspieler.

“Creating worlds – that is what we all love to do. It is the escapism that a lot of us love. It’s the endless possibility of making a whole new universe and its own rules.” meint Shannon Justison (Visualization Supervisor, The Third Floor). Im Prozess der Previsualisierung nehmen die ersten Ideen reale Formen an, lang bevor der eigentliche Dreh stattfindet. Über die Zukunft des storytellings denkt sie oft nach: „The truth is: I don’t know. And that is the interesting part. I can imagine all these opportunities for virtual reality storytelling, augmented reality storytelling are bouncing in my head. And honestly, I don’t have a coherent thesis on that. But I am just really excited to see where it goes.”

“Tools for the next generation of storytelling” ist der Titel für Daniel Gregoire’s Vortrag auf der FMX.  Er ist der Gründer der Firma Halon Entertainment, und wirkte an einer Vielzahl von Blockbustern als Previs Supervisor mit (War of the Worlds, Kung Fu Panda, Spider-Man 3, Life of Pi, Birdman or (The Unexpected Virtue of Ignorance), Jurassic World, The Hunger Games, Dawn of the Planet of the Apes, Alice Through the Looking Glass, Star Wars: The Force Awakens, Deepwater Horizon, Logan, and Kong: Skull Island). Sein Fokus liegt auf der Durchdringung von neuen Technologien und Storytelling und dafür nennt er ein eindrückliches Beispiel: „Photogrammetry hat es uns ermöglicht, den Ort, den wir beim location scouting besichtigt haben, buchstäblich mit nach Hause zu nehmen.“ Davon profitiert das gesamte Team, wenn es dann mit Hilfe der digitalen Kopie kreative Entscheidungen treffen kann.

Daniel macht in seinem Gespräch mit uns deutlich, wie schnell die Entwicklungen heutzutage vollzogen werden und wie komplex sie sind. „Realtime to me is a small stepping stone on the way to something bigger, faster, more effective. In terms of technology next generation will simply be today. Will be now.”

„Bei allen Überlegungen, wie sich die Welt des Kinos entwickeln wird, gingen mir immer wieder zwei Bildwelten durch den Kopf“, so Prof. Katja Schmid. „Die eine ist der Blick des kleinen Salvatore im Projektorraum in „Cinema Paradiso“ (Regie: Guiseppe Tronatore, 1988). und die andere Vision entstand beim Lesen von „Homo Deus“ (Yuval Harari) und sie dreht sich um die Frage, wie das Leben sein wird, wenn eines Tages hochintelligente Algorithmen die Menschheit  besser kennen, als der Mensch sich selbst. Wird dann die Welt zum Film ? Ist das der Paradigmenshift, der maßgeblich überdenkenswert ist?“

Und neben all diesen Überlegungen geht ein herzlicher Dank an Frau Nicola Steller für die großartige Pressearbeit. Mit überlegter Schnelligkeit und Akkuratesse wurden die Interviewpartner angeschrieben und zu uns in den Presseraum geleitet. Dort trafen wir auf einen für die fmx recht stillen Ort für Dreharbeiten. Und da Nicola Steller nicht alles allein schaffen kann, danken wir herzlich allem Helfern der fmx. 

Interviews wurden von Prof. Katja Schmid auf der fmx 2018 geführt.

Zur Autorin:

Katja Schmid begann als Filmemacherin in den DEFA-Studios für Trickfilme. 1993 erhielt sie ihr Diplom als Kamerafrau von der Hochschule für Film und Fernsehen in Potsdam-Babelsberg. Als Kamerafrau, Digital Artist und Editorin hat sie über 50 Film- und Medienproduktionen mitgestaltet. Seit 2004 ist sie als Professorin für Visual Effects and Postproduction an der HdM tätig. Von 2006-2011 kuratierte sie die Digital Cinema Conference, den Tech Track Stereoskopie sowie die Junior Paper Session der FMX. Von 2014 bis heute ist sie verantwortlich für das VEGA CAMP an der Hochschule der Medien. Ihre Forschungsgebiete sind Lichtfeldtechnologie und Wide Gamut.

Zum Ton:

Peter Ruhrmann trägt den Titel des Ingenieurs für Audio visuelle Medien. Er arbeitet mit Studierenden an VFX Medien Produktionen und zeigt sich verantwortlich für kreative technische Lösungen bei Herausforderung innerhalb der Produktionen. Außerdem entwickelt und wartet er seit 2006 die technische Infrastruktur des VFX Departments an der Hochschule der Medien. Peter Ruhrmann ist zertifizierter Nuke Trainer durch Foundry und fxphd. Seit 2008 unterrichtet er das Fach Compositing.

Fotos, Text, Interview: Katja Schmid

Ton: Peter Ruhrmann

Kamera: Patricia Birnfeld, Studentin der Audiovisuellen Medien an der Hochschule der Medien, Stuttgart.

fmx 2018: From storytelling to storyliving

 

Während die diesjährige FMX in der König-Karl Halle mit der Präsentation von Ben Morris, Mike Mulholland und Jason Wenüber die Visual Effects in Star Wars: The Last Jedi eröffnet wird, läuft nebenan der Konferenz-Track „Social Impact“ mit Sander van der Vegte, Jonathan Yomayuza und Luciana Carvalho Se.

VR – A Force For Good hat Luciana ihren Vortrag genannt und sie kann mit ihrem Enthusiasmus das Publikum begeistern. „Wir leben in einer Zeit, in der wir um Aufmerksamkeit kämpfen müssen. Ständige Ablenkung und Unkonzentriertheit beherrschen unseren Alltag. Die Stärke von Virtual Reality ist die Immersion und die damit verbundene Präsenz der Nutzer. Wenn wir ein Headset aufhaben, dann können wir kein Smartphone benutzen. Somit sind wir fokussiert und engaged in der virtuellen Welt“, meint die Head of Partnerships der London based company REWIND.  Und das sollten sich Content Producer zu Nutzen machen. Luciana Carvalho Se demonstriert mit verschiedenen Beispielen die positiven Auswirkungen von VR-Produktionen auf die Rezipienten.

„Virtual reality may change our memory, attitudes and behaviour.  It has also a long-term impact on our psychology and may evoke neuroreconditioning. VR will become a gamechanger”, erklärt sie während ihres Vortrages.

Eben weil es sich real anfühlt und wahr erscheint, meint Luciana Carvalho Se, werden wir uns mehr miteinander verbunden fühlen, leidenschaftlicher und menschlicher sein. Dieser Gedanke mag dem einen oder anderen angesichts von Headset-verdeckten Gesichtern eher fremd vorkommen. Doch die Argumente Lucianas sprechen für sich.

Zur Autorin:

Katja Schmid begann als Filmemacherin in den DEFA-Studios für Trickfilme. 1993 erhielt sie ihr Diplom als Kamerafrau von der Hochschule für Film und Fernsehen in Potsdam-Babelsberg. Als Kamerafrau, Digital Artist und Editorin hat sie über 50 Film- und Medienproduktionen mitgestaltet. Seit 2004 ist sie als Professorin für Visual Effects and Postproduction an der HdM tätig. Von 2006-2011 kuratierte sie die Digital Cinema Conference, den Tech Track Stereoskopie sowie die Junior Paper Session der FMX. Von 2014 bis heute ist sie verantwortlich für das VEGA CAMP an der Hochschule der Medien. Ihre Forschungsgebiete sind Lichtfeldtechnologie und Wide Gamut.

Zum Ton:

Peter Ruhrmann trägt den Titel des Ingenieurs für Audio visuelle Medien. Er arbeitet mit Studierenden an VFX Medien Produktionen und zeigt sich verantwortlich für kreative technische Lösungen bei Herausforderung innerhalb der Produktionen. Außerdem entwickelt und wartet er seit 2006 die technische Infrastruktur des VFX Departments an der Hochschule der Medien. Peter Ruhrmann ist zertifizierter Nuke Trainer durch Foundry und fxphd. Seit 2008 unterrichtet er das Fach Compositing.

Fotos, Text, Interview: Katja Schmid

Ton: Peter Ruhrmann

Kamera: Patricia Birnfeld

Mimus: Coming face-to-face with our companion species von Madeline Gannon

Mimus ist ein Industrieroboter. Groß und schwer, präzise in den Bewegungen und unaufhaltsam bei der Arbeit. Diesen Maschinen steht nichts im Wege und deshalb sollte man das auch tunlichst unterlassen. Wir haben Respekt vor so großen Maschinen. Dieser Industrieroboter führt nicht nur vorprogrammierte Handlungen und Bewegungen aus. Er bewegt sich autonom. Die Decke ist mit Sensoren versehen, sie erfassen alle Bewegungen im Umfeld des Roboters. Werden Veränderungen wahr genommen, nähert sich der Roboterarm jeweils der Ursache. Werden keine weiteren Bewegungen erkannt, wendet sich der Arm ab und beschäftigt sich selbst.

Bildergalerie:

Präsentiert wird der Roboter nicht live, nur über einen Video. Da steht er in einem Glaskäfig, vor der Scheibe wie im Affenhaus befinden sich die Menschen, Kinder. Sie bewegen sich und sofort ohne Verzögerung reagiert der Roboter und nähert sich an. Das ist ein verrückt anzusehendes Schauspiel. Die Bewegungen wirken so natürlich, so lebendig, so individuell, so gewollt. Und sofort bringen wir dieser Maschine Empathie entgegen. Wir wollen mehr Interaktion, wir wollen spielen, wollen uns mit diesem technischen Tierchen anfreunden und es lieb haben.

Die Gestenerkennungssoftware heißt Quipt. Sie unterstützt neue und intuitivere Wege mit Industrierobotern zu kommunizieren. Mit wearable markers und einem motion capture system vermag Quipt Industrierobotern eine Raumwahrnehmung und -vorstellung zu vermitteln und das lässt sie in großer Nähe mit Anderen interagieren.

Madeline Gannon ist Doktorandin in Computational Design der Carnegie Mellon University. Ausserdem leitet sie das MADLAB.cc.

gesehen auf der Ars Electronica 2017: POST CITY. 

Ars Electronica 2017: At INFINITUM: a parasite that lives of human energys von Patrick Baudiasch, Alexandra Ion, Robert Kovacs, David Lindlbauer, Pedro Lopes

Interaktivität? Es gleicht der menschlichen Kommunikation. Es wird eine Frage gestellt und eine Antwort erwiedert, es wird erneut eine gestellt und wieder kommt es zu einer Antwort. Ein stetes Spiel von wechselseitigem Gedankenaustausch. Wenn es unter Menschen geschieht, kommt es zu Verknüpfungen der Gedanken, sie können Neues hervor bringen, aber das muss nicht sein. Jedoch wird es erwünscht. Der Impuls, die Auseinandersetzung, die zu einem andersartigen Gedanken führt und dies zu einer neuartigen Handlung.

Wenn es unter Rechnern geschieht, dann kann das für Menschen zu einer nicht entschlüsselbaren Kommunikation führen. Es mag wie DADA aussehen, mag wie ein „aneinander vorbei“ Reden erscheinen, es kann alles mögliche sein, aber nicht unbedingt sinnstiftend.

Wenn es zwischen einem Mensch und einem Rechner geschieht, erwarten wir, dass der Mensch der kontrollierende Impulsgeber ist. Er kann einen Prozess in Gang setzten, kann ihn stoppen, kann in jedem Moment abschalten oder aufhalten.

Bei At INFINITUM: a parasite that lives of human energys wird eine andere Situation geschaffen. Die Maschine kontrolliert und steuert die Handlungen des Menschen. Durch seine Produktivität wird Strom und damit Licht erzeugt. Der User legt seinen Arm in eine entsprechend vorbereitete Schiene. Dann senken sich Plexiglasmanschetten an denen Elektroimpulse angebracht sind und halten den Arm fest. Wenn der User nun die Hand senkt und hebt, wird Strom erzeugt und damit Licht. Tut er dies nicht, sondern lässt er seinen Arm in der Schiene entspannt ruhen, stimulieren die Elektroden die Arme und führen sie zu einer Bewegung. Der Mensch verliert die Kontrolle über sein Handeln. Unfreiwillig arbeitet sein Arm. Diese Form der Interaktion liegt nicht in unserem Interesse, aber es ist gut sie durchdacht zu haben. Es weist auf Endzeitphantasien, wo Maschinen die Menschheit übernehmen.

Contrex, ma Contrexperience – Director’s Cut HD

Vor mehr als 6 Jahren wurde im öffentlichen Raum Werbung zu einem interaktiven Erlebnis. Das Video spricht für sich. Es ist ein emotionales Erlebnis. So etwas schreibt sich schnell, aber es ist unendlich schwer so etwas zu erreichen. Die Leistung besteht in der Wahl der Mittel um Interaktion ohne jegliche Einführung im öffentlichen Raum zu erwirken. Es findet unter den Augen aller statt. Dafür gilt e,s den Handelnden scharf im Auge zu haben. Welche Elemente schaffen Aufmerksamkeit für eine Gruppe von Menschen, die nichts ahnend zu einer Aktivität verleitet werden sollen? Nicht wenige Menschen schauen sich die Aufbauten an, machen aber nicht den Schritt, sich aktiv zu beteiligen. Was also verleitet die Menschen dazu ihren Schatten zu überspringen, ihre Komfortzone zu verlassen und mitzumachen?

 

Die Farbe der Trimmräder. Die Anzahl der Trimmräder, Das Modell der Räder, die Aufstellung und Platzierung. Pink spricht mit weiblichen Teilnehmern. Es verspricht wenig Gefahr, Liebreiz und Harmlosigkeit. Da spricht Prinzessin Lillifee oder das rosa Einhorn. 

Die Menge der Räder. Es sind viele, so viele, dass sie nicht mehr nur eine Gruppe oder eine kleine Auswahl darstellen. Das Modell ist alt bekannt, kein high Techrad, sondern eins aus den Fitnessstudios, die gerade über all zu bedienen sind. Das kennen wir das Modell, wer da nicht aufsteigen kann, wird sehr selten ein Fahrrad bestiegen haben. 

Sie stehen ordentlich aufgereiht vor einem Präsidialbau. Gut sichtbar, die Blickrichtung zum Gebäude. Nicht in die Natur.  Dazu entsprechende Ankündigungen und musikalische Effekte, als Default sogar immer mal wieder los laufende LED’s.

Und dann steigt eine Dame, zwei, drei, vier auf, treten in die Pedale und es geht los. Sofort. Das ist die gewünschte Interaktion und leicht. Das Feedback ist umgehend, keine Verzögerung. Ein LED Stripper erscheint. Musik unterstützt. Das Ziel ist entschlüsselt. Mehr Strom, mehr Pedale, treten und wer weiss, wo das endet. Wird der sich etwas vollständig ausziehen? Was kommt hier? 

 

Einfache Interaktion, klare Handlungsanweisung, spannende Dramaturgie. Erfolg vorprogrammiert. Eine Leistung von den Konzeptern, den Ideengebern, den Programmierern, den Gestaltern, allen!

 

 
 

Made in Mikros Image http://www.mikrosimage.eu
Directed by Xavier Mairesse
Agency : Marcel
Production : Wanda
Flame Artist / VFX supervisor : Stephane Pivron
Grading : Jacky Lefresne
Motion Graphics : Caroline Mistral, Vincent Venchiarutti, Michael Moercant, Yannick Puggiani, Benjamin Pelletreau, Jean yves Parent
CG Supervisor & Supervisor on set : Stephane Thibert
Additional supervisor on set : Patrick Bennar
Compositing : Luc Martias
CG Trainee: Gaetan Baldy
Restore : Dany Lacarelle & Cyril Gohier