plusinsight

Category Archives: application

AI DJ Project – A dialog between human and AI through music von Nao Tokui und Shoya Dozono (JO)

 

 

Bei diesem Werk arbeitet eine Artifizielle Intelligenz und ein Mensch unter gleichen Bedingungen zusammen. Beide legen Platten auf, sie sind DJs. Zumindest werden die Bedingungen so gut wie möglich aneinander angeglichen. Denn die artifizielle Intelligenz verwendet den gleichen Plattenspieler und hat sogar eine physische Hand, die diesen Plattenspielertyp bedient. Und so macht es auch der Mensch.

Photo by Yasuhiro Tani, Courtesy of Yamaguchi Center for Arts and Media [YCAM]

Das System hört den unterschiedlichen Tracks des Menschen DJ  zu und ermittelt den Beat, Rhythmus und Art der Musik. Nachdem der Mensch aufgelegt hat, beginnt das artifizielle Intelligenzsystem den nächsten Track aufzulegen. Es fixiert das Tempo des nächsten Tracks und gleicht es dem des menschlichen DJ Tracks an. Es geht dem VR DJ darum, dass beide Tracks einen guten Übergang finden und die Rotationsgeschwindigkeit des Plattenspielers ähnlich ist. Hier kommt der Roboter – Finger zum Tragen, denn er manipuliert durch Berühren der Vinylplatte die Geschwindigkeit der Drehung. Es wird Musik ausgesucht, der Beat wird nahtlos dem neuen Track angepasst,  es wird verglichen und abgeglichen. Als weiteres Feature, wird die Tanzmenge, die vor den DJs steht,  analysiert.

Denn ein guter DJ liest sein Publikum, er schaut auf ihre Vorlieben,  ermittelt was funktioniert und nicht. Er kommuniziert, schaut Tanzenden in die Augen, lacht, tanzt; er fordert sie zum mitgehen auf. Ein schlechter DJ macht das nicht, der schaut auf sein Mischpult und zieht das vorher geübte durch und ab. Er geht nicht auf die Menge ein. Und dann kann es für den Partygänger zu einer wenig stimmungsvollen Nacht kommen.

Photo von MvT

Dieses System, der AI DJ betrachtet die Menge. Eine Kamera nimmt die Daten auf, analysiert sie und gibt den Datensatz, nach einer Bewertung weiter. Auf dieser Basis sucht der AI DJ Tracks, die eine ähnliche Stimmung erzeugen. Das verfolgt die AI so lange, bis die Bewegung der Tanzenden schwächer wird. Dann werden verschiedene Musikstücke ausprobiert und getestet, ob das Publikum weiterhin gelangweilt ist oder wieder mitgroovt.

Der Mensch DJ erlebt sicherlich die ein oder andere Überraschung, wenn der AI DJ ungeahnte Tracks selektiert. Das kann Spaß machen, kann zu Verwirrung gleichermaßen führen. Ebenso hofft der Mensch DJ sicherlich auch, dass der AI DJ seine Ansprüche und Anforderungen erfüllt.  So ein System birgt Ungeahntes in sich.

Photo von MvT

Es ist eine herausragende Arbeit, die eine Kommunikation mit den Menschen und einem artifiziellen Intelligenzsystem ermöglicht. Die Autorin fragt sich, ob dieses System nicht eine Berufsgruppe in Bälde in Pension schickt. Denn der AI DJ kann mehr oder minder all das was auch ein Mensch DJ macht. Vielleicht reicht es, einem AI DJ eine Auswahl an Stücken zu geben und dann geht es los?

Vielleicht aber reagiert ein Mensch besser auf Stimmungsschwankungen im Publikum?

 

Photo von MvT

Aber es kann natürlich ohne weiteres passieren, dass die artifizielle Intelligenz coolere Musik auflegt. Momentan greift das System noch auf 350 vorselektierte Tracks zurück. Aber das könnte sich auch ändern. Wir wissen das nicht. Dieses Projekt in jedem Fall, fasziniert durch Technik und Intelligenz, durch Mensch-Maschine Zusammenarbeit und Funkyness.

Prämiert auf der Ars Electronica mit einer Anerkennung. Hintergrundinformationen gibt es hier. Dieser Beitrag wurde im ÖK, anlässlich der Ars Electronica in Linz gesehen.

Beitrag von Margarete von Trifft.

You just keep on going through the doors – Phil Tippett im Interview mit Prof. Katja Schmid auf der fmx 2018

fmx2018 Photo©Katja Schmid

fmx2018 Photo©Katja Schmid

Die eine Stunde mit ihm hat uns bewegt. Phil weiß, was „change“ bedeutet. Es war vorhersehbar, meint er heute. Und doch hat es ihn schwer getroffen, als er von Steven Spielberg hörte, dass die Dinosaurier von Jurassic Park im Computer entstehen werden. Warum Phil 1994 dann doch den Oscar für die besten visuellen Effekte bekommen hat und welche Verbindungen er zwischen seinem Leben und dem kreativen Schaffensprozess herstellt, darum geht es in dem folgenden Gespräch.

In unruhigen Zeiten des Wandels ist es ratsam, Geschichten und Weisheiten von lebenserfahrenen Menschen Raum und Zeit zu widmen. Phil Tippet ist eine Legende. Und er ist zu Besuch auf der FMX in Stuttgart. Wir haben ein Interview mit ihm angefragt und tatsächlich stand Phil am nächsten Tag im Studio.

left to right: fmx 2018 Peter Ruhrmann, Patricia Birnfeld, Phil Tippett, Katja Schmid Photo©Pia Widmann

Phil Tippetts company Tippett Studio ist in Berkeley, CA und steht für Character Animation, Visual Effects, Environments.

Sie machen auch Commercials, Mobile Applikationen, sind im VR und AR Bereich tätig, aber auch Themen Parks und große Projektionen – also Event Media.

Seine Liebe zur Animation hat Phil Tippett als 7 jähriger durch „The Seventh Voyage of Sindbad“ und von „King Kong“ entdeckt und zu einer lebenslangen Begeisterung und Leidenschaft für phantastische Welten und Lebewesen gebracht. Hier entspringt die Quelle seines Schaffens. Er zeichnet, schafft Animationen, kreiert Skulpturen und wird mit dem Fine Arts Degree der Universität von California, Irvine ins Berufsleben entlassen. Der Rest ist dann VFX Geschichte.

14 schwer gewichtige Preise gehen auf das Konto der Firma, vom Oscar (2 davon und 6 Nominierungen), Emmy (auch 2 davon) sowie der George Melies Award von der Visual Effects Society. Vom Frankfurter Film Museum wurde ihm der Lebenswerkpreis verliehen, was natürlich in keinster Weise schlecht ist, das wissen die meisten.

Der Oscar, also der Academy Award bei „Jurassic Park“ und „Return of the Jedi“. Vollständige Filmliste unter:

https://www.imdb.com/name/nm0864138/

Der Film „Mad God“ begann mit einer Ideenskizze auf wenigen Seiten Papier vor mehr als zwanzig Jahren. Er wurde nach vielen Jahren Pause seit 2012 als Kickstarter Projekt in drei Teilen von jungen Animatoren unter Phils Regie fortgeführt (insgesamt über 4300 Unterstützer).

https://www.kickstarter.com/discover/advanced?category_id=29&ref=nav_search&term=mad%20god

 https://www.facebook.com/MadGodMovie/

http://watch.madgodmovie.com/

„ I’ve over the years come to understand that operating from the unconscious and seeking about the unknown is where creativity happens.” Phil Tippett

Zur Autorin:

Katja Schmid begann als Filmemacherin in den DEFA-Studios für Trickfilme. 1993 erhielt sie ihr Diplom als Kamerafrau von der Hochschule für Film und Fernsehen in Potsdam-Babelsberg. Als Kamerafrau, Digital Artist und Editorin hat sie über 50 Film- und Medienproduktionen mitgestaltet. Seit 2004 ist sie als Professorin für Visual Effects and Postproduction an der HdM tätig. Von 2006-2011 kuratierte sie die Digital Cinema Conference, den Tech Track Stereoskopie sowie die Junior Paper Session der FMX. Von 2014 bis heute ist sie verantwortlich für das VEGA CAMP an der Hochschule der Medien. Ihre Forschungsgebiete sind Lichtfeldtechnologie und Wide Gamut.

Zum Ton:

Peter Ruhrmann trägt den Titel des Ingenieurs für Audio visuelle Medien. Er arbeitet mit Studierenden an VFX Medien Produktionen und zeigt sich verantwortlich für kreative technische Lösungen bei Herausforderung innerhalb der Produktionen. Außerdem entwickelt und wartet er seit 2006 die technische Infrastruktur des VFX Departments an der Hochschule der Medien. Peter Ruhrmann ist zertifizierter Nuke Trainer durch Foundry und fxphd. Seit 2008 unterrichtet er das Fach Compositing.

Fotos, Text, Interview: Katja Schmid

Ton: Peter Ruhrmann

Kamera: Patricia Birnfeld

Ars Electronica 2017: POST CITY. CODED SKELETON von Miyu Iwafune, Taisuke Ohshima

Der Wirbelsäule nachempfunden sind einzelne Gelenkplatten in einer Richtung beweglich oder dehnbar. In der anderen Richtung sind sie steif. Die Künstler nennen das Material Coded Skeleton. Es ist eine Kombination aus Formgedächtnislegierungen (Abkürzung FGLenglisch shape memory alloy, Abkürzung SMA) und 3 D gedruckten Modulen. Formgedächtnislegierungen  finden sich bei pneumatischen Ventilen in der Automobilindustrie, bei optischen Bildstabilisierungen, beim Autofokus, bei Stents in der medizinischen Implantatentechnik, bei Zahnspangen, bei Brillengestellen usw..

Das Material für den 3D Drucker  kann sich an eine frühere Formgebung trotz nachfolgender starker Verformung scheinbar „erinnern“. Daraus entstehen modulare mechanisch verbundene einseitig bewegliche Wirbelstrukturen. Sie können groß oder klein sein. Diese Module werden durch Code und Microcontroller bewegt. Es sieht mühelos aus und in die entsprechende Form verpackt, wie im Beispiel gezeigt, das Spielzeughasenöhrchen, ist die Bewegung mühelos und natürlich. Das 3 D Material ist in der Haptik ähnlich dem Knorpel in Gelenken. Etwas durchscheinend, warm und in seiner Härte elastisch.

Diese Arbeit inspiriert. Sie verbindet analoges mit Technik in einem vorstellbaren Masse. Es
ist die nachgebildete Anatomie, die so vertrauenserweckend ist. 

http://digitalnature.slis.tsukuba.ac.jp/2016/06/coded-skeleton/

 

Ars Electronica 2017: Mariendom: LightScale II von Uwe Rieger

Der Mariendom in Linz, Österreichs größter Kirchenbau, in dem gut 20.000 Menschen Platz finden, wird umgebaut. Das Gebäude ist neben den Bauabsperrungen leer. Das allein ist sensationell, denn die Größe und Höhe des Raumes kann sich vollständig entfalten. Hier wird LightScale II von Uwe Rieger gezeigt.

Das Werk braucht Luft. Es misst 20 Meter Länge und ist in Form einer Reuse aufgebaut. Die Karbonkonstruktion ist nicht federleicht, aber leicht. Unerwartet einfach lässt sie sich  im Raum bewegen. Sie ist aus Karbon gefertigt und auf einem Ein-Punkt Träger asymmetrisch aufgestellt. Für die Balance werden seitlich zwei Schwimmer, in diesem Fall Gewichte ausgelegt. Damit lässt sich die Reuse nicht nur in der Horizontalen, sondern auch Vertikalen verschieben. Sie kann auch im 45 Grad Winkel schaukeln. Die Reuse ist mit grüner Gaze umspannt. Im Innenbereich ist die Gaze locker in der Diagonalen ausgelegt. Sie bilden einen durchscheinenden Körper. Ultraschall- Sensoren an der Bodenträgerkonstruktion leiten Daten an ein Motion-Tracking –System. Mit Unity werden Soundfiles als auch Projektionen aktiviert. Es sind Meeresgeräusche und Walgesangähnliche Töne. Auf die Netze werden Unterwasserformen projiziert. Es sind Blasen, Quallen ähnliche Gebilde, Algen manchmal Geometrien. Sie schweben mit der gleichen Bewegung der Reuse im Netzraum. Der Besucher bewegt die Reuse und damit werden neben dem default Sound- und Bildteppich zusätzlich Sounds und Bilder aktiviert. Es ist eine meditative Installation. Sie beeindruckend durch Größe und Leichtigkeit.

Bildergalerie:

Die Semiotik des Materials, Netz, Reuse, Karbon verweisen auf die Schwerelosigkeit des Meeres. Die analoge Bewegung, das langsame Schweben und die leicht zu bewegende Reuse, die dann wiederum mit einer dem Meereswiderstand angemessenen Bewegung ein wenig schwerfällig Positionsveränderungen nachgeht sind der Vorstellung von der Bewegung unter Wasser angemessen. Das Gefühl im Meer zu sein wird erzeugt. Die schwarmhaften Projektionen verbunden mit den Wassergeräuschen und Walgesängen schließen den Eindruck. Es ist poetisch, leicht und meditativ. Hier will sich der Besucher aufhalten. Es wird nicht langweilig, die Geräusche und Bilder werden nicht aufdringlich, ein vollendetes Werk.

Reusen treiben im Meer . Die Fische, von Wind und Wellengang zum Ufer getrieben, schwimmen auf dem Rückweg ins Meer an den Leitnetzen entlang in die Reusen, aus denen sie nicht mehr entweichen können, weil die einzelnen Teile trichterförmig ineinander greifen. Im Frühjahr, nachdem kein Eisgang mehr zu erwarten ist, werden die Reusen eingesetzt und bleiben den ganzen Sommer über im Meer. Sie werden alle 3 Tage geleert.

Uwe Rieger Light Scale Ars Electronica

Uwe Rieger ist Associate Professor am arc/sec Lab for Digital Spatial Operations an der School of Architecture and Planning in Auckland.

https://www.aec.at/ai/de/lightscale-ii/

Das tanzende Ampelmännchen von Smart

 

Das tanzende Ampelmännchen von Smart

An der Ampel auf Grün zu warten ist nicht nur für Radfahrer oder Autofahrer eine Geduldsprobe, sondern auch für Fußgänger. Man steht und starrt das Ampelmännchen an, schaut nach links und rechts, ob Kinder da sind und wenn nichts los ist, dann geht man bei Rot rüber. Gibt es eine Strategie die Passanten warten zu lassen? Kann das Warten zum Erlebnis werden, zur Unterhaltung, zu einem freudigen Moment? Es kann. Smart hat mit der Aktion #WhatAreYouFor für mehr Sicherheit auf den Straßen eine interaktive Ampelinstallation in Lissabon inszeniert.

Diese Installation bietet einmal einen Raum für Motion Capturing. Bewegungen werden abgefilmt und ich Echt Zeit auf das Ampelmännchen übertragen und entsprechend im zu erwartenden Format auf der LED-Ampel abgespielt.

Die Passanten betreten den Motion Capturing Raum, es läuft tolle Musik, sie wissen sie sollen tanzen, denn sie sehen was ihre Bewegung mit dem Ampelmännchen macht. Allein die Gewissheit, dass man nicht als Person, sondern als anonymes Ampelmännchen tanzt, bringt Freude und auch Leichtigkeit. Dennallein rumtanzen macht keinen Sinn und auch keinen Spaß, schon gar nicht auf Anhieb. Aber mit dem Wissen, welchen großartigen Effekt die Tätigkeit hat, ist ein Grund sein Bestes zu geben. Und natürlich weil der Tanzraum abgeschieden ist. Da kann man sich entfalten. Man wird nicht beobachtet.

 

BBDO als Werbeagentur hat sich das alles ausgedacht.