plusinsight

Category Archives: Allgemein

Searchlight von URBAN SCREEN

©URBAN SCREEN_ Searchlight, Studie zum Moving Head Projektor und Projektions Mapping

URBAN SCREEN zeigt in diesem Dokumentationsvideo eine experimentale Studie zu Projektionen mit einem Moving Head Projektor. Der Ursprungsraum, eine Fabrikhalle ist in erster Linie gross und zeigt die üblichen baulichen Identifikationselemente einer Industrie genutzten Halle: rechteckige Balkenverkleidungen, Holzboden oder Beton, Kargheit, statische Säulen und sonst nicht viel, bis auf  Türen oder Fenster. Die sind aber abgedunkelt deshalb sieht man sie nicht sofort.

Die Studie, so URBAN SCREEN, hatte vor allem den Charakter einer technischen Auseinandersetzung. Es ging in erster Linie darum, einen Moving Head Projektor in ein Projektions Mapping Set Up einzubinden. Narratives Potential, Inhalte oder ähnliches spielen noch keine Rolle. Es soll herausgefunden werden, wie so was geht und was dabei raus kommt. Der Rest kann später hinzu kommen.

©URBAN SCREEN_ Searchlight, Studie zum Moving Head Projektor und Projektions Mapping

Und kommt etwas dabei heraus? Die Erkenntnis dass tatsächlich erzählt werden kann, dass andere Geschichten und Gefühle transportiert werden und alles durch die technische Herangehensweise. URBAN SCREEN, darauf brauchen wir wahrscheinlich nicht besonders lange zu warten, wird bei der nächsten Gelegenheit die Technik einsetzen, dann aber mit allem was noch dazu gehört. Wir sind gespannt, denn die Resultate sind schon bei der Spielerei und bei Experiment vielversprechend.

©URBAN SCREEN_ Searchlight, Studie zum Moving Head Projektor und Projektions Mapping

Hier die Specs:
Production: January 2013 – May 2013

Project Manager: Till Botterweck, Thorsten Bauer
Art Director: Till Botterweck, Julian Hoelscher, Max Negrelli
3D Designer: Peter Pflug, Moritz Horn
Producer: Manuel Engels

Media Engineer: Tobias Wursthorn (im-en.com)

Documentation Director: Till Botterweck, Thorsten Bauer
On-Site Camera: Max Negrelli, Moritz Horn
Edit: Max Negrelli
Music: Jonas Wiese (jonas-wiese.de)

Moving Head Projector support: Publitec (publitec.tv)
3D Scan support: Leica Geosystems (leica-geosystems.de)
Media-Engine support: WINGS VIOSO (avstumpfl.com)

 

 

av@ar von Manfred Borsch

 ©av@ar von Manfred Borsch, interaktive Installation mit Gestenerkennung

Wir stellen die Diplomarbeit von Manfred Borsch, videograph, mit dem Titel „av@ar“ vor. Sie entstand am Institut Für Musik Und Medien. Herr Borsch hat nach der ersten Sicht freundlicherweise in einem online Interview Hintergrundfragen beantwortet. Mit diesem Wissen steigt der Genuss am Werk. es ist poetisch und hintergründig. Hintergründig weil die Interaktion sowohl aktiv als auch inhaltlich erarbeitet wird. Wer nicht genau hinschaut kann die Tiefe des Werks übersehen. Und das wäre schade.

UD: „Wie wird die Gestenerkennung gemacht? Haben sie Kinects eingesetzt? Wird Mimik abgenommen? Wenn ja, wie haben sie das technisch gelöst?“

MB: Die Gestenerkennung ist wie von Ihnen richtig vermutet mit einer Kinect, OpenNI mit NITE Middleware und der Programmierungsumgebung Max/MSP/Jiitter realisiert worden. Die Mimik wird nicht durch die Kamera aufgenommen, trägt jedoch thematisch zum geschlossenen Kreislauf der Installation bei.
Als Avatar wurde ein Mensch (und eben nicht eine digitale Form, wie beispielsweise eine Pixelansammlungen) gewählt, da durch Spiegelneuronen die Bindung zwischen BesucherIn und Abbild erhöht wird. Hierzu zählt auch das (teils unbewusste) Nachahmen von Emotionen mit der Gesichtsmuskulatur. Da alle Auswirkungen des Handelns in der Installation erforscht werden sollen, es also keine Spielanleitung o.ä. gibt, ist den InterakteurInnen zu Beginn nicht bekannt, ob sie auch mit ihrer Mimik einen Einfluss auf das Geschehen haben.
Diese Abhängigkeiten können im geschlossenen Kreislauf erkundet werden, was sich auf die Wechselseitigkeit von Körper (Interface) und Emotionen (audiovisuelle Reaktionen) gründet.
Bekannt ist die Richtung, dass Emotionen erlebt werden und sich daraufhin das Körperliche verändert, beispielsweise in der Gesichtsmuskulatur, die sich zu einem Lachen hin verzieht. Dies beschreibt beispielsweise Paul Ekman mit dem Facial Action Coding System. Andersherum zeigt die Kognitionswissenschaft im Forschungszweig Embodiment, dass Gefühle auch nach der körperlichen Regung erzeugt werden können. Ein bekanntest Beispiel hierzu ist der quer in den Mund genommene Bleistift, der zur Anspannung von Muskeln im Gesicht führt, die eigentlich zum Lächeln benutzt werden. Forschungen haben ergeben, dass ein solcher, emotional unbewusster, äußerer Einfluss zu deutlich positiveren Bewertungen von Situationen führt, als bei der neutralen Vergleichsgruppe.

 ©av@ar von Manfred Borsch, interaktive Installation mit Gestenerkennung 

Generell steht in der Installation die Frage der Kontrolle, der Auswirkung, im Mittelpunkt. Was kann ich direkt kontrollieren? Wo erlebe ich Kontrollverlust? (zufällige Fehler zur Kontrollminderung sind vorhanden.) Und in wieweit werde ich kontrolliert/geleitet, also wonach richte ich mein Handeln aus. Diese durch die Überlagerung der Rezeptions- und Handlungsebene sehr individuelle Erfahrung kann zur Reflexion über eigene Handlungsziele führen. Beispielsweise kann ich erlernte Körperhaltungen wiederholen, um dem umherstehenden Publikum zu zeigen, dass ich Kontrolle ausübe, ich kann mich auf die Suche nach neuen Bildern und Tönen machen, ich kann die Synchronität der Bilder und der Musik in den Mittelpunkt stellen (VJing) oder mich zu der Musik bewegen, die ich durch meine Bewegung selber schaffe.

UD: Wie viele Reaktionen des medialen Ichs wurden vorproduziert?

MB: Es gibt 16 Einzelemotionen, die in vier Gruppen, den sogenannten Basisemotionen unterteilt sind. Mehr dazu unten… 🙂
Mit dem Überbegriff der Basisemotion versehen, werden die Emotionen wie folgt gruppiert:
Angst, Neid, Scham, Trauer: negative Emotion, passives Verhalten
Freude, Bewunderung, Stolz, Glück: positive Emotion, aktives Verhalten
Liebe, Mitleid, Dankbarkeit, Hoffnung: positive Emotion, passives Verhalten
Hass, Verachtung, Ärger, Verzweiflung: negative Emotion, aktives Verhalten.

 ©av@ar von Manfred Borsch, interaktive Installation mit Gestenerkennung 

UD: Gibt es eine Relation zwischen den Einstellungsgrössen und den Besucheraktivitäten. Wann wird eine Detail oder Gross Einstellung genommen wann Halbtotale oder Totale?

MB: Es gibt eine mögliche Raum- und eine Körpererfahrung.
Der Raum kann in seiner Tiefe (Abstand der AkteurInnen zur Leinwand) erforscht werden, worauf sich die mediale Reflexion nach der Proxemik (E.T. Hall) in vier Stufen anpasst. Dies ist eingeteilt in die öffentliche Distanz (> 3m), gesellschaftlich-wirtschaftliche Distanz (1,5-3m), persönliche Distanz (0,5-1,5m) und die intime Distanz (< 0,5m) und wird so auch visuell Abgebildet (tief im Raum, als Spiegelsituation, Portraitdarstellung und Detailaufnahme. Je kleiner der Abstand, desto dezenter die dargestellte Emotion). Der Raum kann auch im Volumen erfahren werden, ausschlaggebend hierfür ist die durchschnittliche Höhe beider Hände. Hier können die vier Basisemotionen angesprochen werden. (Bsp.: Befinden sich beide Hände über der Kopfhöhe, wird die Basisemotion Angst angesprochen. Befindet sich der Akteur sehr nah vor der Leinwand, erscheint die Detailaufnahme – intime Distanz – des sich aufreißenden Auges). So ist der Raum mit vier Basisemtionen komplett abgedeckt.
Darüber hinaus können die weiteren 12 (Sekundär-)Emotionen durch bestimmte Körperhaltungen angetriggert werden. Hierbei muss erforscht werden, welche Körperhaltung zu welcher audiovisuellen Reaktion führt. (Bsp.: Beide Hände auf die Hüften gestützt, Oberkörper aufrecht -> Emotion Stolz). Auch diese Sekundäremotionen sind auf den vier verschiedenen Distanzebenen darstellbar, sodass es insgesamt (16×4) 64 vorproduzierte visuelle Reaktionen gibt.

©av@ar von Manfred Borsch, interaktive Installation mit Gestenerkennung

UD: Reagiert die Musik auch?

MB: Die Musik reagiert ebenso auf das Handeln der AkteurInnen, entzieht sich jedoch zum Teil durch Statistiken. Die Komposition unterteilt sich in vier Ebenen, die stets zusammen erklingen, und sich auf die vier deutschen Begriffe zur Emotion gründen. (Affekt, Gefühl, Emotion und Stimmung: je kürzer die Emotion, desto Objektbezogener. Ein Affekt (sehr kurz) ist somit sehr objektbezogen.) Die oberste musikalische Ebene (Affekt-Ebene) ist direkt an das Bild gekoppelt und kann zu jedem Zeitpunkt angespielt werden. Sie verton sehr genau alle 64 dargestellten Bilder.  Die darunter liegende Gefühlsebene ist doppelt so lang (zwei Takte), berechnet sich aus dem Durchschnitt der zuvor angetriggerten Affekten und stellt die 16 Emotionen dar. Ebene drei (Emotionsebene) ist wiederum länger (vier Takte), wird aus dem Durchschnitt der angespielten Affekten berechnet und vertont die vier Emotionsgruppen (s.o.). Die längste Ebene (Stimmungsebene) unterscheidet nur noch zwischen positiv-annähernd und negativ-ablehnend (der emotionalen Grundtendenzen Neugeborener nach) und ergibt sich aus den Handlungen der letzten acht Takten (ca. 26 Sekunden).
Die musikalische Komposition (Tonart, Rhythmus, Melodie,..) bezieht sich hierbei auf die Affektenlehre des Barock, ein Regelwerk, dass sehr klare Vorgaben zur Vertonung von Emotionen vorsah, sich also sehr gut in den Grundcharakter der Installation einfügt, in der etwas sehr Menschliches wie Emotionen radikal in Gruppen einsortiert, systematisiert und damit abrufbar gemacht wird.

Ich bedanke mich für die inhaltsvollen und Erkenntnis unterstützenden Antworten!

EyeHarp @ New Interfaces for Musical Expression 2012(NIME)

© EyeHarp_ a new Interface for Musical Expression_2012_ Zacharias Vamvakousis

Die Bewegung der Iris wird abgenommen und auf eine Musiklibrary übertragen. Mit anderen Worten, die Bewegung der Iris komponiert Musik. Der Video zeigt die Besucher auf der NIME 2012 Konferenz in Detroit. Für die Programmierung wurde  ITU Gazetracker Open Source Eye Tracking Software verwendet. , Athens, Greece, PhD Kandidat am MTG, UPF, Barcelona hat diese Software getriebene Musiksteuerung entwickelt. Supervisor: Dr. Rafael Ramirez.

Mehr unter http://www.youtube.com/watch?v=d8OanafChKs


© EyeHarp_ a new Interface for Musical Expression_2012_ Zacharias Vamvakousis


© EyeHarp_ a new Interface for Musical Expression_2012_ Zacharias Vamvakousis

Das Eyeharp Projekt will Menschen mit Lähmungen durch Amyotrophic Lateral Sclerosis eine Steuerung für Musik ermöglichen. Das Instrument kann alternativ auch durch jeden anderen Controller oder Device beitreiben werden. Am einfachsten durch eine Maus. Es kann ein Musikinstrument für Menschen mit unterschiedlichen Behinderungen sein.  Eyeharp wird in openframeworks v0.6 implementiert.


© EyeHarp_ a new Interface for Musical Expression_2012_ Zacharias Vamvakousis


© EyeHarp_ a new Interface for Musical Expression_2012_ Zacharias Vamvakousis

 Beitrag von Ursula Drees

José Antonio Suárez Londono: Franz Kafka, Diarios II 1914 – 1923, 2000

 ©ursula drees_José Antonio Suárez Londono_ biennale 2013

 ©ursula drees_José Antonio Suárez Londono_ biennale 2013

 ©ursula drees_José Antonio Suárez Londono_ biennale 2013

 ©ursula drees_José Antonio Suárez Londono_ biennale 2013

 ©ursula drees_José Antonio Suárez Londono_ biennale 2013

no images were found

 ©ursula drees_José Antonio Suárez Londono_ biennale 2013

Der Künstler José Antonio Suárez Londono handelt diszipliniert. Sein Tagesablauf unterliegt einer strengen Routine. Diese Bilder entstanden weil ein Kolumbianischer Künstler Londono gefragt hat, ob er bereit wäre für ein Experiment. Nämlich jeden Tag ein Bild zu malen, zu zeichnen. Am Ende eines Monats würde dann das entstandene Werk angeschaut und ein Text entworfen. Anfangs fing Londono mit Brian Eno’s Tagebüchern an. Er malte jeden Tag ein Bild.

 ©ursula drees_José Antonio Suárez Londono_ biennale 2013

 ©ursula drees_José Antonio Suárez Londono_ biennale 2013

 ©ursula drees_José Antonio Suárez Londono_ biennale 2013

 ©ursula drees_José Antonio Suárez Londono_ biennale 2013

Aber dann wechseltete er zu den Tagebüchern von Paul Klee, Franz Kafka und Eugene Delacroix. Später dann auch Patti Smith, Arthour Rimbaud und Blaise Cendrars. Die Poesie der Tagebücher werden in Bilder verbannt. Jeden Tag Eins. Und diese Bilder dokumentieren die innere Auseinandersetzung mit einem Maler und dem Text eines anderen Künstlers. Es ist eine Unterhaltung. Und man kann sie in den Bildern hören.

 ©ursula drees_José Antonio Suárez Londono_ biennale 2013

 ©ursula drees_José Antonio Suárez Londono_ biennale 2013

 ©ursula drees_José Antonio Suárez Londono_ biennale 2013

 ©ursula drees_José Antonio Suárez Londono_ biennale 2013

Beitrag von ursula Drees

Alfredo Jaar_Venecia,Venecia

 ©ursula drees_alfredo jaar_ biennale 2013_chile

 ©ursula drees_alfredo jaar_ biennale 2013_chile

Der chilenische Pavillon auf der Biennale in Venedig 2013 wurde von Alfredo Jaar gestaltet. Man kommt in einen grossen, hohen, dunklen Raum. Mitten drin ist ein gigantisches Bassin, gefüllt mit einer grünlich brauen Wassersauce. Anfangs habe ich nicht genau verstanden was das alles soll. So stand ich, wie viele andere um dieses Bassin herum, starrte auf das Wasser: „Ob wohl was passiert? Irgendwas interaktives vielleicht? Trauen sie die Besucher nicht, die Oberfläche zu berühren und deshalb ist nichts los?“

 ©ursula drees_alfredo jaar_ biennale 2013_chile

 ©ursula drees_alfredo jaar_ biennale 2013_chile

Ich habe meine Hand ins Wasser gehalten, ein bisschen verzagt gequirrlt, die Frau neben mir bedachte mich sofort mit einem Blick, den ich nicht zu deuten wage. Der Raum heiss und stickig, gross und dunkel.

 ©ursula drees_alfredo jaar_ biennale 2013_chile

 ©ursula drees_alfredo jaar_ biennale 2013_chile

Dann sprang ein Motor an, surren, irgendwas kam in die Gänge. Und Blubberblasen auf der Wasseroberfläche. Langsam kam das Model des Ausstellungsgeländes der Biennale, der Guardinis an die Oberfläche. Alle Pavillons waren zu sehen, die braune Suppe floss ab. Das Model stand einige Sekunden und tauchte wieder unter. Langsam versank alles im Wasser. Zum Schluss wieder vereinzelte Blubberblasen.

 ©ursula drees_alfredo jaar_ biennale 2013_chile

 ©ursula drees_alfredo jaar_ biennale 2013_chile

 ©ursula drees_alfredo jaar_ biennale 2013_chile

 ©ursula drees_alfredo jaar_ biennale 2013_chile

Gleich fünf Mal habe ich das Auf- und Untertauchen beobachtet. Wie schnell fliesst das Wasser ab? Fliesst es ganz ab, stehen Teile noch unter Wasser? Wie schnell taucht das Model auf, wie schnell geht es mit dem Untergehen?

In meinen Augen wurde das drohende Verschwinden dieser Stadt gezeigt. Aber damit lag ich nicht ganz richtig. Die Antwort ist unweit vielschichtiger. Denn die Architektur der Pavillons ist in der Zeit vor dem zweiten Weltkrieg entstanden. Das lässt sich auch mühelos nachvollziehen. Der Deutsche Pavillon ist ganz archaisch, so etwas würden Deutsche heute nicht mehr bauen, denn die Assoziationen zum 3. Reich sind deutlich. Frankreich ist kein Stück besser, wenn auch ein bisschen weniger klotzig. Russland bekleckert sich auch nicht gerade mit Ruhm, die anderen sind auch eher protzig.

 ©ursula drees_alfredo jaar_ biennale 2013_chile

 ©ursula drees_alfredo jaar_ biennale 2013_chile

 ©ursula drees_alfredo jaar_ biennale 2013_chile

 ©ursula drees_alfredo jaar_ biennale 2013_chile

Es geht bei Alfredo Jaar um die Kritik an der „internationalen Ausstellung“ in den Guardinis, dessen Architektur die politischen und ökonomischen Verhältnisse zur Entstehung deutlich wieder spiegelt. Ganz so international war es dann doch nicht. Was kann ein nationaler Pavillon in der heutigen Zeit sein? Muss dafür das alte erst untergehen?

 von ursula drees