plusinsight

Tag Archives: Interaktion

Ozymandias_Erlebnisraum

Teaser zur interaktiven Rauminstallation für eine Person „Ozymandias“ ©Studioproduktion EventMedia

Ozymandias – Nichts verbleibt. „My name is Ozymandias king of kings. Look on my works, ye Mighty, and despair!“ Die Hybris des Menschlichen liegt im Streben nach Unsterblichkeit. Der Zeit, jedoch, entgeht nichts. Im interaktiven Erlebnisraum Ozymandias erfährt eine Besucherin den Prozess des Zerfalls, der Vergänglichkeit und der Ästhetik des Verbleibenden. Dieser Perspektivwechsel eröffnet Schönheit, wo wir es nicht vermuten. „My name is Ozymandias king of kings.“

Detail aus der interaktiven Rauminstallation für eine Person „Ozymandias“ ©Studioproduktion EventMedia

Normalerweise wird Zerfall als etwas Hässliches angesehen. Aber Auflösung und Verderben eröffnen Ansichten schillernder Schönheit. Die Rückgewinnung durch die Natur wird in Ozymandias inszeniert. Das Reich des Königs aus Stein und Beton verschwindet.

Detail aus der interaktiven Rauminstallation für eine Person „Ozymandias“ ©Studioproduktion EventMedia

Dabei wird die Betrachterin in ein eigenwilliges Erlebnis eingetaucht. Es ist eine multimediale Darbietung unter Zuhilfenahme von Medien und Interaktionsschnittstellen. Die Inszenierung ist komplex und ganzheitlich geplant. Die Besucherin tritt in diese Welt hinein und befindet sich in der Parallelwelt des sinnlichen Erfahrens.

An der Medienight der Hochschule der Medien in Stuttgart zu sehen ist die interaktive Rauminstallation für eine Person „Ozymandias“ ©Studioproduktion EventMedia

Es ist eine interaktive Installation für eine Person. Am Donnerstag, der 4. Februar findet an der Hochschule eine virtuelle Medianight statt. Unter dem Link: hdm-stuttgart.de/medianight. Zum Projekt Ozymandias bitte etwas länger runter scrollen. Es werden unheimlich viele Projekte gezeigt und „O“ ist im Alphabet weit hinten. Deshalb nicht ungeduldig werden. Es kommt.

Das ist das Icon welches zu finden gilt.

Und da kann dieser Erlebnisraum stellvertretend als Videomitschnitt angesehen werden. Das studentische Team erzählt im Nachspann von den Schweirigkeiten und Herausforderungen, die in Coronazeiten plötzlich relevant wurden. Ein guter Blick hinter die Kulissen. Es lohnt.

Beitrag von Ursula Drees

AI DJ Project – A dialog between human and AI through music von Nao Tokui und Shoya Dozono (JO)

 

 

Bei diesem Werk arbeitet eine Artifizielle Intelligenz und ein Mensch unter gleichen Bedingungen zusammen. Beide legen Platten auf, sie sind DJs. Zumindest werden die Bedingungen so gut wie möglich aneinander angeglichen. Denn die artifizielle Intelligenz verwendet den gleichen Plattenspieler und hat sogar eine physische Hand, die diesen Plattenspielertyp bedient. Und so macht es auch der Mensch.

Photo by Yasuhiro Tani, Courtesy of Yamaguchi Center for Arts and Media [YCAM]

Das System hört den unterschiedlichen Tracks des Menschen DJ  zu und ermittelt den Beat, Rhythmus und Art der Musik. Nachdem der Mensch aufgelegt hat, beginnt das artifizielle Intelligenzsystem den nächsten Track aufzulegen. Es fixiert das Tempo des nächsten Tracks und gleicht es dem des menschlichen DJ Tracks an. Es geht dem VR DJ darum, dass beide Tracks einen guten Übergang finden und die Rotationsgeschwindigkeit des Plattenspielers ähnlich ist. Hier kommt der Roboter – Finger zum Tragen, denn er manipuliert durch Berühren der Vinylplatte die Geschwindigkeit der Drehung. Es wird Musik ausgesucht, der Beat wird nahtlos dem neuen Track angepasst,  es wird verglichen und abgeglichen. Als weiteres Feature, wird die Tanzmenge, die vor den DJs steht,  analysiert.

Denn ein guter DJ liest sein Publikum, er schaut auf ihre Vorlieben,  ermittelt was funktioniert und nicht. Er kommuniziert, schaut Tanzenden in die Augen, lacht, tanzt; er fordert sie zum mitgehen auf. Ein schlechter DJ macht das nicht, der schaut auf sein Mischpult und zieht das vorher geübte durch und ab. Er geht nicht auf die Menge ein. Und dann kann es für den Partygänger zu einer wenig stimmungsvollen Nacht kommen.

Photo von MvT

Dieses System, der AI DJ betrachtet die Menge. Eine Kamera nimmt die Daten auf, analysiert sie und gibt den Datensatz, nach einer Bewertung weiter. Auf dieser Basis sucht der AI DJ Tracks, die eine ähnliche Stimmung erzeugen. Das verfolgt die AI so lange, bis die Bewegung der Tanzenden schwächer wird. Dann werden verschiedene Musikstücke ausprobiert und getestet, ob das Publikum weiterhin gelangweilt ist oder wieder mitgroovt.

Der Mensch DJ erlebt sicherlich die ein oder andere Überraschung, wenn der AI DJ ungeahnte Tracks selektiert. Das kann Spaß machen, kann zu Verwirrung gleichermaßen führen. Ebenso hofft der Mensch DJ sicherlich auch, dass der AI DJ seine Ansprüche und Anforderungen erfüllt.  So ein System birgt Ungeahntes in sich.

Photo von MvT

Es ist eine herausragende Arbeit, die eine Kommunikation mit den Menschen und einem artifiziellen Intelligenzsystem ermöglicht. Die Autorin fragt sich, ob dieses System nicht eine Berufsgruppe in Bälde in Pension schickt. Denn der AI DJ kann mehr oder minder all das was auch ein Mensch DJ macht. Vielleicht reicht es, einem AI DJ eine Auswahl an Stücken zu geben und dann geht es los?

Vielleicht aber reagiert ein Mensch besser auf Stimmungsschwankungen im Publikum?

 

Photo von MvT

Aber es kann natürlich ohne weiteres passieren, dass die artifizielle Intelligenz coolere Musik auflegt. Momentan greift das System noch auf 350 vorselektierte Tracks zurück. Aber das könnte sich auch ändern. Wir wissen das nicht. Dieses Projekt in jedem Fall, fasziniert durch Technik und Intelligenz, durch Mensch-Maschine Zusammenarbeit und Funkyness.

Prämiert auf der Ars Electronica mit einer Anerkennung. Hintergrundinformationen gibt es hier. Dieser Beitrag wurde im ÖK, anlässlich der Ars Electronica in Linz gesehen.

Beitrag von Margarete von Trifft.

fmx 2018: From storytelling to storyliving

 

Während die diesjährige FMX in der König-Karl Halle mit der Präsentation von Ben Morris, Mike Mulholland und Jason Wenüber die Visual Effects in Star Wars: The Last Jedi eröffnet wird, läuft nebenan der Konferenz-Track „Social Impact“ mit Sander van der Vegte, Jonathan Yomayuza und Luciana Carvalho Se.

VR – A Force For Good hat Luciana ihren Vortrag genannt und sie kann mit ihrem Enthusiasmus das Publikum begeistern. „Wir leben in einer Zeit, in der wir um Aufmerksamkeit kämpfen müssen. Ständige Ablenkung und Unkonzentriertheit beherrschen unseren Alltag. Die Stärke von Virtual Reality ist die Immersion und die damit verbundene Präsenz der Nutzer. Wenn wir ein Headset aufhaben, dann können wir kein Smartphone benutzen. Somit sind wir fokussiert und engaged in der virtuellen Welt“, meint die Head of Partnerships der London based company REWIND.  Und das sollten sich Content Producer zu Nutzen machen. Luciana Carvalho Se demonstriert mit verschiedenen Beispielen die positiven Auswirkungen von VR-Produktionen auf die Rezipienten.

„Virtual reality may change our memory, attitudes and behaviour.  It has also a long-term impact on our psychology and may evoke neuroreconditioning. VR will become a gamechanger”, erklärt sie während ihres Vortrages.

Eben weil es sich real anfühlt und wahr erscheint, meint Luciana Carvalho Se, werden wir uns mehr miteinander verbunden fühlen, leidenschaftlicher und menschlicher sein. Dieser Gedanke mag dem einen oder anderen angesichts von Headset-verdeckten Gesichtern eher fremd vorkommen. Doch die Argumente Lucianas sprechen für sich.

Zur Autorin:

Katja Schmid begann als Filmemacherin in den DEFA-Studios für Trickfilme. 1993 erhielt sie ihr Diplom als Kamerafrau von der Hochschule für Film und Fernsehen in Potsdam-Babelsberg. Als Kamerafrau, Digital Artist und Editorin hat sie über 50 Film- und Medienproduktionen mitgestaltet. Seit 2004 ist sie als Professorin für Visual Effects and Postproduction an der HdM tätig. Von 2006-2011 kuratierte sie die Digital Cinema Conference, den Tech Track Stereoskopie sowie die Junior Paper Session der FMX. Von 2014 bis heute ist sie verantwortlich für das VEGA CAMP an der Hochschule der Medien. Ihre Forschungsgebiete sind Lichtfeldtechnologie und Wide Gamut.

Zum Ton:

Peter Ruhrmann trägt den Titel des Ingenieurs für Audio visuelle Medien. Er arbeitet mit Studierenden an VFX Medien Produktionen und zeigt sich verantwortlich für kreative technische Lösungen bei Herausforderung innerhalb der Produktionen. Außerdem entwickelt und wartet er seit 2006 die technische Infrastruktur des VFX Departments an der Hochschule der Medien. Peter Ruhrmann ist zertifizierter Nuke Trainer durch Foundry und fxphd. Seit 2008 unterrichtet er das Fach Compositing.

Fotos, Text, Interview: Katja Schmid

Ton: Peter Ruhrmann

Kamera: Patricia Birnfeld

Mimus: Coming face-to-face with our companion species von Madeline Gannon

Mimus ist ein Industrieroboter. Groß und schwer, präzise in den Bewegungen und unaufhaltsam bei der Arbeit. Diesen Maschinen steht nichts im Wege und deshalb sollte man das auch tunlichst unterlassen. Wir haben Respekt vor so großen Maschinen. Dieser Industrieroboter führt nicht nur vorprogrammierte Handlungen und Bewegungen aus. Er bewegt sich autonom. Die Decke ist mit Sensoren versehen, sie erfassen alle Bewegungen im Umfeld des Roboters. Werden Veränderungen wahr genommen, nähert sich der Roboterarm jeweils der Ursache. Werden keine weiteren Bewegungen erkannt, wendet sich der Arm ab und beschäftigt sich selbst.

Bildergalerie:

Präsentiert wird der Roboter nicht live, nur über einen Video. Da steht er in einem Glaskäfig, vor der Scheibe wie im Affenhaus befinden sich die Menschen, Kinder. Sie bewegen sich und sofort ohne Verzögerung reagiert der Roboter und nähert sich an. Das ist ein verrückt anzusehendes Schauspiel. Die Bewegungen wirken so natürlich, so lebendig, so individuell, so gewollt. Und sofort bringen wir dieser Maschine Empathie entgegen. Wir wollen mehr Interaktion, wir wollen spielen, wollen uns mit diesem technischen Tierchen anfreunden und es lieb haben.

Die Gestenerkennungssoftware heißt Quipt. Sie unterstützt neue und intuitivere Wege mit Industrierobotern zu kommunizieren. Mit wearable markers und einem motion capture system vermag Quipt Industrierobotern eine Raumwahrnehmung und -vorstellung zu vermitteln und das lässt sie in großer Nähe mit Anderen interagieren.

Madeline Gannon ist Doktorandin in Computational Design der Carnegie Mellon University. Ausserdem leitet sie das MADLAB.cc.

gesehen auf der Ars Electronica 2017: POST CITY. 

Ars Electronica 2017: POST CITY. PAPILON VON Hiraki Sato, Kenichi Nakahara, Koya Narumi, Yasuaki Kakehi, Ryuma Niiyama, Yoshihiro Kawahara (Japan)

Eine Geodätische Kuppel im Sinne von Buckminster Fuller steht dort. Sie ist aus leichten Plastikdreiecksmodulen, im 3 D Drucker die Verbindungselemente produziert. Die für eine Massenproduktion enthaltenen Informationen sind auf github veröffentlicht. Die Konstruktion sieht sehr leicht aus. Da wiegt nichts viel. So wie die Kuppel da steht, nimmt man sie im Rucksack mit. Das Aufstellen macht, wie bei anspruchsvolleren Zelten, die meiste Arbeit.

Bildergalerie:

Über die Kuppel ist ein feines Plastiknetz gespannt, darauf angebracht Schmetterlinge. Sie werden durch Kabelbinder am Netz befestigt. Sie sind aus einer Folie, vielleicht Plastikfolie. Im Mittelraum befinden sich Lichtsensoren. Sie reagieren auf Veränderungen der Umgebungen. Es ist eine responsive Architektur, die Soft Robot Technologien nutzt. Die Flügel der eng gesetzten Schmetterlinge entfalten sich und spenden Schatten, sie klappen hoch und lassen Licht durch. Sie reagieren wie eine atmende Skulptur. Fast glaubt man der Wind fegt sie bei einer leichten Brise weg. Aber dafür werden Verankerungen im Boden sorgen müssen. So verspielt und lieblich die Bestandteile sind, so eindrucksvoll ist das Ziel einer Miniatur Response Architektur erreicht.