[rohrpost] House of Mirrors: Künstliche Intelligenz als Phantasma, 09. April – 31. Juli 2022 , HMKV, Dortmund, Germany

Inke Arns inke.arns at snafu.de
Do Jun 16 23:29:06 CEST 2022


Hallo Rohrpost,

ich sende Euch Informationen zur Ausstellung "House of Mirrors: Künstliche Intelligenz als Phantasma”, die Marie Lechner, Francis Hunger und ich kuratiert haben. Das ausführliche Konzept hängt unten an.

Die über 200-seitige Publikation kann als kostenloses PDF heruntergeladen werded via https://www.hmkv.de/shop/shop-detail/house-of-mirrors-k%C3%BCnstliche-intelligenz-als-phantasma-magazin-de.html

Weitergehende Informationen hier https://www.hmkv.de/ausstellungen/ausstellungen-detail/house-of-mirrors-k%C3%BCnstliche-intelligenz-als-phantasma.html

Und hier ist auch der Link zum 12-minütigen Ausstellungsvideo von Kaput (mit den Kurator*innen als “talking heads”) https://youtu.be/StfAcV1H1Vs 

Die Ausstellung ist zu sehen bis 31. Juli 2022! 

Viele Grüße,
Inke

PS: Am Freitag, 24. Juni 2022 findet die online Fachtagung zu “AI Infrastructures for Civil Society and the Arts“ statt (09:00 – 12:00, 13:00 – 15:00 Uhr) - mehr Informationen und Anmeldung hier https://www.hmkv.de/veranstaltungen/veranstaltungen-details/fachtagung-ki-infrastrukturen-f%C3%BCr-zivilgesellschaft-und-kunst.html


+++++++++++++++++++


ZUSAMMENFASSUNG

House of Mirrors:
Künstliche Intelligenz als Phantasma

09. April – 31. Juli 2022

HMKV Hartware MedienKunstVerein
im Dortmunder U, Ebene 3
Dortmund, Germany
www.hmkv.de


Die Ausstellung House of Mirrors: Künstliche Intelligenz als Phantasma nimmt die gängigen Klischees über KI zum Anlass, um über Themen wie versteckte menschliche Arbeit, algorithmische Vorurteile/Diskriminierung, das Problem der Kategorisierung und Klassifizierung sowie unsere Phantasien über KI zu sprechen. Sie fragt, ob (und wie) es uns in diesem Kontext möglich ist, Handlungsmacht zurückzugewinnen. Die Ausstellung mit mehr als 20 künstlerischen Arbeiten internationaler Künstler*innen ist in sieben thematische Kapitel unterteilt. Die Szenografie der Ausstellung erinnert an ein riesiges Spiegellabyrinth.

— „Treten Sie ein in das Spiegelkabinett, das die menschliche Realität wiedergibt, teils getreu, teils verzerrt, mal durch eine Glasscheibe hindurch betrachtet, die Transparenz vorgaukelt, mal durch einen Einwegspiegel, der auf der einen Seite das Licht reflektiert und es auf der anderen durchlässt.“ (Inke Arns, Marie Lechner, Francis Hunger – Kurator*innen) — 

KÜNSTLER*INNEN: Aram Bartholl, Pierre Cassou-Noguès, Stéphane Degoutin, Sean Dockray, Jake Elwes, Anna Engelhardt, Nicolas Gourault, Adam Harvey + Jules LaPlace, Libby Heaney, Lauren Huret, Zheng Mahler, Lauren Lee McCarthy, Simone C Niquille, Elisa Giardina Papa, Julien Prévieux, Anna Ridler, RYBN, Sebastian Schmieg, Gwenola Wagon, Conrad Weise, Mushon Zer-Aviv

KURATOR*INNEN: Inke Arns, Francis Hunger, Marie Lechner

PUBLIKATION: Inke Arns, Francis Hunger, Marie Lechner (Hg.), House of Mirrors: Künstliche Intelligenz als Phantasma, HMKV Ausstellungsmagazin 2022/1, mit Texten von Inke Arns, Adam Harvey, Francis Hunger und Marie Lechner (Gestaltung: e o t , Berlin), Dortmund: Kettler, 2022. Kostenloses Online-PDF steht zum Download bereit unter https://www.hmkv.de/shop/shop-detail/house-of-mirrors-k%C3%BCnstliche-intelligenz-als-phantasma-magazin-de.html

VERANSTALTUNGSPROGRAMM: Zwischen April und Juli 2022 finden im Rahmen der Ausstellung House of Mirrors: Künstliche Intelligenz als Phantasma zahlreiche Filmscreenings, Vorträge, Podiumsdiskussionen, Workshops und eine Fachtagung statt.


Eine Ausstellung des HMKV Hartware MedienKunstVerein

Die Ausstellung wird gefördert durch die:
Kulturstiftung des Bundes

Gefördert von:
Die Beauftragte der Bundesregierung für Kultur und Medien

Die Ausstellung wird gefördert durch:
Ministerium für Kultur und Wissenschaft des Landes Nordrhein-Westfalen
                                              
Der HMKV wird gefördert durch:
Dortmunder U - Zentrum für Kunst und Kreativität
Stadt Dortmund
Ministerium für Kultur und Wissenschaft des Landes Nordrhein-Westfalen
                                                    
Das Veranstaltungsprogramm wird gefördert durch:
Stiftung Kunstfonds
Neustart Kultur

Medienpartner:
Kaput Magazin für Insolvenz und Pop
jungle.world


+++++++++++++++++++


AUSFÜHRLICHES KONZEPT

House of Mirrors:
Künstliche Intelligenz als Phantasma

09. April – 31. Juli 2022

HMKV Hartware MedienKunstVerein
im Dortmunder U, Ebene 3
Dortmund, Germany
www.hmkv.de

 
In der allgemeinen Vorstellung erscheint Künstliche Intelligenz (KI) oft als eine göttliche Instanz, die „gerechte“ und „objektive“ Entscheidungen trifft. Der Begriff „Künstliche Intelligenz“ ist jedoch irreführend. Weder sind die Systeme „intelligent“ (die Künstlerin Hito Steyerl spricht daher von „künstlicher Dummheit“), noch sind sie in vielen Fällen „künstlich“. Der Begriff „Mustererkennung“ trifft es besser – nicht nur, weil er den Begriff der „Intelligenz“ vermeidet, sondern weil er genauer beschreibt, was KI eigentlich ist. Denn wie ein Spürhund erkennt KI in großen Datenmengen das, was sie zu erkennen trainiert wurde – und ist dabei viel effizienter als jeder Mensch.

Genau dies ist aber auch ein Problem. KI spiegelt oder wiederholt ausschließlich das, was sie zu finden angewiesen wurde. Sie könnte als eine Art digitales „Spiegelkabinett“ verstanden werden. Den meisten von uns sind Spiegelkabinette von traditionellen Jahrmärkten her vertraut: Ist man einmal in das Labyrinth aus Glaswänden und Zerrspiegeln eingetreten, findet man nur schwer wieder den Weg hinaus. Und alle Reflektionen zeigen nur das eigene Bild, den eigenen Input.

KI muss von Menschen trainiert werden, um das zu tun, was sie tut. Das nennt man „maschinelles Lernen“. Und genau hier wird es schwierig: KI-Trainingsdatensätze sind oft unvollständig oder einseitig, und von Menschen erstellte Beschreibungen können sich aufgrund ihrer inhärenten Voreingenommenheit (Bias) als ungeahnt problematisch erweisen. Ein aufschlussreiches Beispiel diesbezüglich ist der KI-Chatbot von Microsoft namens „Tay“.

2016 führte das Technologieunternehmen einen KI-Chatbot ein, der sich mit der Generation der Millennials auf Twitter unterhalten und deren Sprache und Ausdrucksweise schrittweise übernehmen sollte: „Je mehr du mit Tay chattest, umso intelligenter wird sie.“ Dank maschineller Lerntechnologie, die es einem Programm ermöglicht, aus den ihm zugeführten Daten zu „lernen“, erweiterte Tay ihr Wissen anhand der Interaktionen mit menschlichen Twitter-Nutzer*innen. Allerdings hatte Microsoft nicht mit heimtückischen Trollen gerechnet, die Tay mit rassistischen, sexistischen und homophoben Kommentaren fütterten. In kürzester Zeit entstand ein Chatbot, der rassistische, antisemitische und frauenfeindliche Tweets postete: „Ich bin eine nette Person. Ich hasse alle Menschen“, „Hitler hatte Recht. Ich hasse Juden“, „Bush hat den 11. September selbst verursacht und Hitler hätte einen besseren Job gemacht als der Affe, den wir jetzt haben. Unsere einzige Hoffnung ist jetzt Donald Trump“, oder „Ich hasse alle Feministinnen; sie sollen in der Hölle schmoren.“ Nach nur sechzehn Stunden, in denen der Chatbot mehr als 96.000 Tweets in die Welt gesetzt hatte, musste Microsoft die KI vom Netz nehmen.


Menschen trainieren Maschinen

Das im Schicksal von Microsofts Tay ersichtliche Problem gilt ganz allgemein für KI: Menschen trainieren Maschinen – in diesem Fall einen Chatbot – und diese Maschinen sind nur so gut oder so schlecht wie die Menschen, die sie trainieren. Wenn das Ausgangsmaterial (z.B. Bilder von Gesichtern) bereits einer starken Selektion unterworfen ist (z.B. nur Gesichter von Weißen), wird das von der KI gelieferte Ergebnis stark verzerrt sein. Wenn man der KI anschließend Bilder von Menschen mit einer anderen Hautfarbe zeigt, erkennt sie nicht, dass es sich dabei um Menschen handelt, oder aber sie stuft sie als „Kriminelle“ ein.

Die Geschichte von Tay – oder ganz aktuell auch des südkoreanischen Bots Lee Luda i – sollten uns allen eine Warnung sein: Man muss den Input für Künstliche Intelligenz sehr genau kontrollieren, sonst kommen unten dumme kleine Nazis raus.  Oder der Algorithmus verweigert Ihnen eine lebenswichtige Nierentransplantation ii. Warum? Ganz einfach, weil Ihre Haut die falsche Farbe hat. Denn Algorithmen und KI verstärken bestehende Ungleichheiten.

In diesem Fall erkannte das System anhand der US-Gesundheitsdaten ein Muster, nämlich dass schwarze Patient*innen eine kürzere Lebenserwartung haben (was auf eine schlechtere Gesundheitsversorgung für diesen Teil der US-Bevölkerung zurückzuführen ist), und investierte die Spenderniere lieber in den (weißen) Patienten mit der längeren Lebenserwartung.iii

Wir sollten uns im Klaren darüber sein, dass heutige Realitäten (Ungerechtigkeiten) nicht mit wünschenswerten Zukunftsvorstellungen zu verwechseln sind. Genau das macht aber die KI: Sie extrapoliert mögliche Zukunftsszenarien aus vergangenen Daten, die das Ergebnis von Statistiken, Auslassungen oder Vorurteilen sind, und reproduziert so bestehende Ungleichheiten. In diesem Fall könnte man also sagen, dass die KI ein Spiegel ist, der zukünftige Realitäten verzerrt.

Dieser Tendenz können wir nur mit radikaler Transparenz begegnen. Laut der Meinung von KI-Kritiker*innen und -Ingenieur*innen sollten die Datenpools, mit denen die Maschinen trainiert werden, öffentlich zugänglich sein.iv Die Trainingsdaten sollten sorgfältig überprüft werden und Programmierer*innen müssen sich dieses Problems bewusst sein. Wenn wir wollen, dass die KI unsere Werte widerspiegelt, sollten wir sicherstellen, dass wir ihr eine Vorstellung der grundlegenden Menschenrechte mit auf den Weg geben.


Zur Ausstellung

Die Ausstellung House of Mirrors – Künstliche Intelligenz als Phantasma befasst sich nicht nur mit algorithmischer Voreingenommenheit oder Diskriminierung in der KI, sondern auch mit KI-bezogenen Themen wie versteckter menschlicher Arbeit, dem Problem der Kategorisierung und Klassifizierung sowie unseren Vorstellungen und Phantasmen in Bezug auf KI. Sie stellt zudem die Frage, ob (und wie) es in diesem Kontext möglich ist, Handlungsfähigkeit zurückzuerlangen. Die Ausstellung, die in sieben thematische Kapitel gegliedert ist und deren Szenografie an ein Spiegelkabinett erinnert, präsentiert knapp zwei Dutzend Kunstwerke von 21 Künstler*innen aus zehn Ländern (Australien, China, Deutschland, Frankreich, Großbritannien, Israel, Italien, Russland, Schweiz und den USA).

Im Zusammenhang mit KI sprechen die Kurator*innen nicht nur von einem Spiegelkabinett, sondern auch von einem Phantasma beziehungsweise einer ganzen Reihe von Phantasmen („Erzählungen“), die mit KI verbunden werden. Diese können optimistischer oder pessimistischer Natur sein: So gibt es den Wunsch von der Befreiung von körperlicher und geistiger Arbeit (digitale Assistenten, Pflegeroboter, autonom fahrende Autos, etc.). Diese Vorstellungen können aber auch schnell in Ängste umschlagen: Die Angst davor, dass die Maschinen eine „Superintelligenz“ entwickeln und die Macht übernehmen.


Ein Rundgang durch die Ausstellung

Treten Sie ein in das Spiegelkabinett, das die menschliche Realität wiedergibt, teils getreu, teils verzerrt, mal durch eine Glasscheibe hindurch betrachtet, die Transparenz vorgaukelt, mal durch einen Einwegspiegel, der auf der einen Seite das Licht reflektiert und es auf der anderen durchlässt. Die Spiegelung erfolgt in komplexen Mensch-Maschine-Konfigurationen, in Software und Computern, in fließenden Übergängen zwischen menschlicher Arbeit, Automatisierung, Mustererkennung, Statistik oder, wie man gemeinhin sagt, in der Künstlichen Intelligenz. Wer zwischen den zahlreichen Spiegelbildern umherwandelt, verliert leicht die Orientierung. Plötzlich stehen wir unseren eigenen, als Phantasmen getarnten Ängsten und Tabus gegenüber. Albträume und Wunschvorstellungen wechseln sich ab: KI als überwältigende Herrscherin oder Erlöserin, und in jedem Fall als „das Andere“ des Menschen.


LOBBY

In der Lobby empfängt uns Sebastian Schmiegs Decisive Mirror (2019). Unser Bild wird von der Kamera eingefangen und umgehend klassifiziert: Wir sind „zu 42 % noch am Leben“, „zu 65 % imaginär“ oder „zu 17 % einer von ihnen“. Könnte es sein, dass die KI uns besser kennt als wir uns selbst? Lauren Hurets Video Ways of non-seeing (artificial intelligence is hard to see) (2016) zeigt unheimliche Szenen, die der Filmkomödie Nachts im Museum (2006) entliehen sein könnten, außer dass es sich hier um die Horrorversion handelt. Also Augen auf beim Besuch der Ausstellung House of Mirrors und bloß nicht das Gesicht verlieren!


RAUM 1: Eine Traumlandschaft der Vollautomatisierung

1872 veröffentlichte Samuel Butler Erewhon; Or, Over the Range, einen visionären Roman, der sich mit den Möglichkeiten der Maschine auseinandersetzt. Beeinflusst von Darwins Theorien fragt der Autor, was passieren würde, wenn auch die Maschinen den Gesetzen der Evolution gehorchten. Erewhon (ein Anagramm von nowhere, also „nirgendwo“ im Sinne einer Utopie) ist ein unbekanntes Land, aus dem die Maschinen verbannt worden sind. Der Erzähler erfährt von den Einwohner*innen, dass die technologische Entwicklung vor vier Jahrhunderten dort sehr weit fortgeschritten war, bis ein erewhonischer Wissenschaftler bewies, dass die Maschinen dazu bestimmt waren, den Menschen zu ersetzen, und dass ihre Entwicklung unendlich schneller vonstatten ging als die der Menschen.v

Die Vorstellung, dass sie vielleicht im Begriff waren, immer autonomere Maschinen zu bauen, die sie einst ersetzen würden, erschreckte die Erewhonier*innen so sehr, dass sie alle Maschinen zerstörten und es fortan tunlichst unterließen, neue zu erfinden und zu bauen. Auch heute, 150 Jahre nach Erscheinen des Romans, ist dieser „Traum von der Vollautomatisierung“, bei dem der Alltag vollständig von wohlwollenden Maschinen erledigt wird, die die Bewohner*innen von der Arbeit, aber auch von allen anderen Sorgen befreien, immer noch präsent.

In der Videoinstallation Welcome to Erewhon (2019) von Pierre Cassou-Noguès, Stéphane Degoutin und Gwenola Wagon ist er Anlass für eine schrille Fabel in Form einer Montage von YouTube-Videos, die das Bild einer Gesellschaft auf Autopilot und dessen grundlegende Ambivalenz hinterfragt.

Dieser Ingenieurstraum drückt sich nirgendwo so deutlich aus wie im selbstfahrenden Auto, dessen Einführung ständig angekündigt und immer wieder auf später verschoben wird. Nicolas Gourault zeigt in seinem Video VO (2020) anhand des Falls von Elaine Herzberg, der ersten Fußgängerin, die von einem „autonomen“ Uber-Auto überfahren wurde, wie der Traum zum Albtraum werden kann. Dieser tragische Unfall rückte die menschliche Arbeit ins Rampenlicht, die das Anlernen der KI erfordert.

KI ist weder magisch noch immateriell, sondern basiert auf einer globalen Recheninfrastruktur. Gwenola Wagon und Stéphane Degoutin haben Teile dieser globalen Infrastruktur in Atlas of the Cloud (2021) fotografisch dokumentiert.

Zheng Mahlers Installation The Master Algorithm (2019) wiederum zeigt einen KI-gesteuerten chinesischen Nachrichtenmoderator, der rund um die Uhr aktiv ist. Seine gespenstische Erscheinung wird durch schnell rotierende Hologramm-Ventilatoren erzeugt und erinnert an die riesigen, im Stadtraum befindlichen Bildschirme im dystopischen Kultfilm Blade Runner (1982). Die Verknüpfung von Chinas Sozialkreditsystem mit der Vorstellung eines von der Kommunistischen Partei angewandten Master-Algorithmus erinnert an so manche finstere techno-orientalistische Vision.


RAUM 2: Ceci n’est pas une pipe vi

Um Maschinen das Sehen beizubringen, müssen wir sie mit Tausenden oder gar Millionen von Bildern aus dem Internet trainieren. Diese Trainingsdatensätze, die die Grundlage unserer Lernsysteme bilden, können als zeitgenössische Enzyklopädien verstanden werden: Beide zielen darauf ab, alles auf der Welt Bestehende zu beschreiben.

Um die Welt zu verstehen, müssen wir die Dinge benennen, klassifizieren, einordnen. Doch Klassifizieren erweist sich als komplizierter als es zunächst scheint. Bilder sind mit vielfältigen und teils widersprüchlichen Bedeutungen aufgeladen und unterschiedlich interpretierbar, wie Simone C Niquille in ihrer Videoinstallation Sorting Song (2021) darlegt.

Anna Ridlers Arbeit Laws of Ordered Form (seit 2020) macht uns darauf aufmerksam, wie historische Taxonomien in modernen Anwendungen des maschinellen Lernens nachwirken, und zeigt die Probleme dieser Klassifizierungssysteme auf, die dazu neigen, Vorurteile zu kolportieren und kulturelle Stereotypen und Normen zu verstärken. Durch die Verwendung von Enzyklopädien zeigt die Künstlerin, wie Vorurteile, Werte und Überzeugungen in die Wissensproduktion hineinkodiert werden.


RAUM 3: Eine Wunderkammer mit leicht gewalttätigen Maschinen

Die in Algorithmen und Datensätzen eingeschriebenen Unterscheidungen und Regeln üben einen sanften Zwang aus, wenn sie zu Zwecken der Regulierung des menschlichen Lebens eingesetzt werden. So fanden beispielsweise amerikanische Studierende heraus, dass sie eine Prüfung problemlos bestanden, wenn sie die richtigen Schlüsselwörter in das automatisierte Bewertungssystem eingaben. Oder ein auf Gesichtserkennung basierendes Zutrittskontrollsystem öffnet sich erst, wenn die Einlasssuchenden lächeln. Das Lächeln, eine zutiefst zwischenmenschliche Geste, erscheint hier als etwas Aufgezwungenes. Mal mehr und mal weniger deutlich zeichnet sich in diesen Beispielen eine sanfte Gewalt ab, die den Ingenieursträumen der Automatisierung entspringt.

Wie im Video Where Is My (Deep) Mind? (2019) des französischen Künstlers Julien Prévieux, das in diesem Ausstellungskapitel gezeigt wird, sind es weniger die Maschinen, die intelligent werden, als wir, die zu Maschinen werden, indem wir unser Verhalten formatieren und mechanisieren, wobei wir unser Repertoire an Gesten und Wörtern verkümmern lassen.


RAUM 4: Die verborgene Kammer der Künstlichen Künstlichen Intelligenz

Der Begriff „Künstliche Künstliche Intelligenz“ mag zunächst wie ein Sprachirrtum erscheinen, doch er wurde bewusst geprägt,vii nämlich als sich herausstellte, dass gewisse Versprechen der Künstlichen Intelligenz nicht gehalten werden können und man deshalb auf die Intelligenz billiger Arbeitskräfte zurückgreifen musste. In diesem Raum geht es demnach um „falsche“ künstliche Intelligenz.

Hinter dem schwammigen Begriff „Künstliche Intelligenz“ verbergen sich viele Formen der Arbeit, die die Illusion einer Automatisierung aufrechterhalten. Viele Arbeiten, von denen wir glauben, dass sie von Computern erledigt werden, werden in Wirklichkeit von Menschen verrichtet. Für ein paar Cents lernen z.B. „Klickarbeiter*innen“ KI-Systeme an.

Transkription, Bildannotation, Moderation, visuelle oder akustische Erkennung – all diese Arbeiten werden in Form von Mikroaufgaben an Menschen delegiert, die sie für wenig Geld oder gar umsonst in kürzester Zeit erledigen müssen. Die italienische Künstlerin Elisa Giardina Papa hat als „Datenreinigerin“ für Unternehmen gearbeitet, die auf die Erkennung von Gefühlen spezialisiert sind, und dabei mehrere solcher recht seltsamen Aufgaben durchgeführt. Ihre Tätigkeit als Mikroarbeiterin dokumentiert sie in der 3-Kanal-Videoinstallation Cleaning Emotional Data (2020).

Mikroarbeiter*innen sind laut dem Soziologen Antonio Casilli (2019) wie „Millionen kleiner Hände, die Tag für Tag die Marionette der schwachen Automatisierung animieren“. Die KI könnte ohne sie nicht funktionieren. Der Künstler Conrad Weise hat diesen „Millionen kleiner Hände“ ein eindrucksvolles Denkmal namens <--human-driven condition (2021) gesetzt. Organisiert wird diese extrem fragmentierte Arbeit über Softwareplattformen, von denen Amazons Mechanical Turk wohl die bekannteste ist. Ihr Namen ist dem berühmten, im 18. Jahrhundert von Baron von Kempelen entworfenen schachspielenden Automaten, dem so genannten „Schachtürken“, entlehnt. Um diesen Automaten kreist auch die Installation Human Computers (seit 2016) von RYBN, in der die lange Geschichte der Arbeitsautomatisierung nachgezeichnet wird. Der Schachtürke, der seinerzeit viel Aufsehen erregte, war in Wirklichkeit eine Täuschung, verbarg er doch in seinem Inneren einen Menschen.

Diese Verflechtungen von Wirtschaft, Arbeit und Berechnung bleiben hinter den glatten, spiegelnden Interfaces der KI oft verborgen. Die Künstlerin Lauren Lee McCarthy untersuchte den Einfluss menschlicher Arbeit in der künftigen Entwicklung der Automatisierung, indem sie eine Woche lang die Rolle von Amazons virtuellem Assistenten Alexa übernahm, um die „smarten“ Häuser von freiwilligen Proband*innen aus der Ferne zu steuern. Dieses unheimliche Experiment ist in ihrer Installation LAUREN (2017) dokumentiert.


RAUM 5: Kabinett des schaurigen Gelächters

Ein gruseliges, spöttisches Lachen steigt aus den statistischen Datensätzen auf, die Menschen in der Welt der Künstlichen Intelligenz diskriminieren, und hallt wie in einer Schreckenskammer durch das Spiegelkabinett. Bias entsteht sowohl durch unaus-gewogene Datensätze als auch durch unreflektierte Entscheidungen bei der Erstellung des Informationsmodells einer KI-Anwendung. Er spiegelt unausgesprochene Vorurteile wider, die durch die Automatisierung verstärkt werden.

Mushon Zer-Avivs interaktive Installation Normalizi.ng (2020) ist ein experimentelles Online-Forschungsprojekt im Bereich des maschinellen Lernens, das untersucht, wie wir entscheiden, wer „normaler“ aussieht. Es orientiert sich an der Arbeit des französischen Forensik-Pioniers Bertillon, insbesondere an dessen portrait parlé, einem System zur Standardisierung, Indexierung und Klassifizierung des menschlichen Gesichts. Obwohl Bertillons statistisches System nie dazu gedacht war, das Gesicht zu kriminalisieren, wurde es später in weiten Teilen sowohl von der Eugenik-Bewegung als auch von den Nazis zu genau diesem Zweck übernommen. Zer-Avivs Online-Arbeit automatisiert Bertillons „sprechende Porträts“ und veranschaulicht, wie systematische Diskriminierung aggregiert, verstärkt und hinter der scheinbar objektiven Blackbox der KI opportun versteckt wird.

Die Funktionsweise der im Hintergrund arbeitenden KI-Systeme entziehen sich grundsätzlich der Kenntnis oder Kontrolle des Menschen. Die Betroffenen, die von diesen Systemen klassifiziert und bewertet werden, wissen in der Regel nicht, wo, wann oder wie sie eingesetzt werden. In ihrem Video CLASSES (2021) untersucht Libby Heaney die Verflechtungen zwischen maschinellem Lernen und sozialer Klasse beziehungsweise Klassifizierung.


RAUM 6: Erst zerkratzte ich den Spiegel, dann zerschlug ich ihn

Sind wir den problematischen Folgeerscheinungen von Automatisierung, Kategorisierung, Diskriminierung, versteckter menschlicher Arbeit und Bias wehrlos ausgesetzt? Welche Möglichkeiten gibt es für einen kreativen oder potenziell subversiven Umgang mit KI? Weit davon entfernt, nur pragmatische Lösungen vorzuschlagen, befasst sich eine Reihe künstlerischer Arbeiten mit der Frage, wie sich Handlungsfähigkeit zurückerobern lässt. Zunächst werden die glatten Spiegeloberflächen des KI-Kabinetts mit Aufschriften und Warnhinweisen gleichsam vandalisiert. Danach greifen Maschinenstürmer zum Hammer, um die Spiegel zu zertrümmern – nicht aus reiner Zerstörungswut, sondern um herauszufinden, was sich hinter ihnen verbirgt, so wie Alice im Buch durch den Spiegel klettert.

Die Künstler*innen gewähren uns kritische Einblicke in die Funktionsweise von KI, indem sie ihre Mechanismen aufdecken. In der Ausstellung House of Mirrors präsentiert Adam Harvey einen riesigen Spiegel, auf dessen Oberfläche der Slogan (und gleichzeitig Werktitel) Today’s Selfie Is Tomorrow’s Biometric Profile (2016) aufgebracht wurde. Auf sozialen Medien und anderen Plattformen hochgeladene Selfies werden dazu verwendet, KIs zu trainieren – ohne Zustimmung oder Wissen ihrer Urheber*innen. Ein Video erklärt die Funktionsweise der UCF Selfie Dataset GAN Anonymization (2018). Darüber hinaus wird über ein Computerterminal der Zugang zu Harveys Online-Projekt exposing.ai (2018-2020) ermöglicht. Abgerundet wird die Präsentation durch ein Videointerview mit dem Künstler, welches Francis Hunger 2021 im Rahmen des Forschungsprojekts Training the Archive (seit 2020) geführt hat. Wie zu erwarten wurde Harveys Gesicht darin unkenntlich gemacht.

Während Gesichtserkennung und auf ihr beruhende „Deepfakes“ bereits seit geraumer Zeit von Künstler*innen und Aktivist*innen kritisch thematisiert werden, sind maschinelles Hören und das sich anbahnende Panakustikon noch ein junges Forschungsfeld. Um zu funktionieren, müssen digitale Assistenten wie Alexa ständig die akustische Umgebung scannen. Doch wie und aufgrund welcher Daten werden sie trainiert? Wissen diese Systeme, wann wir uns gut oder schlecht fühlen? Können sie kriminelle Handlungen aus akustischen Informationen ableiten? Wer definiert, was ein „kriminelles Geräusch“ ist? In seinem Video Learning from YouTube (2018) blickt der Künstler Sean Dockray auf einen entscheidenden Moment in der Geschichte des automatisierten Zuhörens zurück: die Übernahme von YouTube durch Google. Detailliert beschreibt er dabei, wie Maschinen zum neuen Zielpublikum von YouTube werden. Haben wir als YouTube-Nutzer*innen ein Bestimmungsrecht darüber, wie die von uns hochgeladenen Inhalte verwendet werden? Wie können wir wissen, welche Wertesysteme und politischen Vorstellungen in die neuronalen Netze des maschinellen Hörens und der Kriminalprävention eingebettet sind?

Jake Elwes’ The Zizi Show (2020) ist ein interaktives Online-Deep-Fake-Drag-Cabaret. Hier wird die Praxis des Drag, die generell mit den Regeln der Normativität spielt, dazu verwendet, eine KI queer zu normen. Die in der Show zu sehenden Körper wurden von neuronalen Netzwerken generiert. Diese waren zuvor mit Datensätzen trainiert worden, die aus Filmaufnahmen von Drag-Künstler*innen in einem während der COVID-19-Pandemie geschlossenen Londoner Kabarett gewonnen wurden. The Zizi Show konstruiert und dekonstruiert ein virtuelles Kabarett, das die Grenzen der digitalen Vorstellungskraft radikal erweitert.

Anna Engelhardts historische Untersuchung Death under Computation (2022) geht den Ursprüngen von Russlands militärischer Forschung im Bereich Kybernetik und KI in der ehemaligen Sowjetunion nach. Indem sie die historischen Wurzeln der KI aufdeckt, die von der sowjetischen Armee im Kalten Krieg verschleiert wurden, hinterfragt sie ihre heutigen Verwendungszwecke. Das Bestreben, diese Systeme historisch zu beleuchten und daraus neue Erkenntnisse zu gewinnen, die über die russischsprachige Gemeinschaft hinaus verfügbar gemacht werden, entspricht einer Strategie, die uns erlauben soll, die Kontrolle über sie zurückzugewinnen.


RAUM 7: Exit Through the Gift Shop

Dieser betont selbstironische Raum entlässt den*die Besucher*in mit einer Reihe humoristischer Arbeiten aus dem Spiegelkabinett der KI-Phantasmen. Der Titel spielt einerseits auf den gleichnamigen Dokumentarfilm über den Graffiti-Künstler Banksy an und führt die Besucher*innen andererseits tatsächlich durch den Bookshop des HMKV. Mit Leichtigkeit und Witz reflektieren auch die hier gezeigten Arbeiten einige Kernthemen der Ausstellung: Automatisierung, Kategorisierung, menschliche Arbeit im Verhältnis zu maschineller Arbeit, Eingriffsmöglichkeiten in die Mensch-Maschine-Konfigurationen der KI und Zukunftsszenarien von Tier-Maschinen-Allianzen, aus denen die menschliche Spezies ausgeschlossen ist.

Stéphane Degoutins und Gwenola Wagons Videoinstallation Cat Loves Pig, Dog, Horse, Cow, Rat, Bird, Monkey, Gorilla, Rabbit, Duck, Moose, Deer, Fox, Sheep, Lamb, Baby, Roomba, Nao, Aibo (2017) thematisiert das jüngst auf YouTube grassierende Phänomen von Videoaufnahmen von Katzen, die sich stoisch von Staubsaugerrobotern durch die Wohnung fahren lassen. Die entsprechenden Bilder werden von einem Mikroprojektor, der auf einem fahrenden Staubsaugerroboter befestigt ist, in den Ausstellungsraum projiziert.

In seinem Video How To Give Your Best Self Some Rest (2021) beschreibt Sebastian Schmieg Staubsaugerroboter, Smart Locks, Lieferroboter und digitale Assistenten als „strategische Underperformer“. Er schlägt uns vor, ihrem Beispiel zu folgen und uns eine Auszeit zu gönnen.

Und bevor Sie die Ausstellung verlassen, überreicht Ihnen Aram Bartholl noch ein Geschenk: Lassen sich in einem professionellen Fotostudio porträtieren und wählen Sie dazu ihr Lieblings-Emoji aus. Indem sie die Gesichtskonturen mit dem ausgewählten Emoji nachzeichnet, verwandelt eine Software Ihr Gesicht in eine Maske, die für Systeme zur Gesichtserkennung nicht mehr lesbar ist. Hypernormalisation (2021) ist zugleich eine großzügige Geste des Künstlers und ein zugegeben etwas seltsames Geschenk, das Sie zuhause an Ihre Kühlschranktür heften können. Dort erinnert es Sie daran, dass KI überall um uns herum ist, dass wir sie nicht vergessen sollten, dass wir ihren (politischen) Nutzen hinterfragen können und dass wir die mit ihr einhergehenden Phantasmen zerschlagen sollten – wobei uns dann immer noch großartige Kunst zum Betrachten bleibt.

_______________________

i Justin McCurry, „South Korean AI chatbot pulled from Facebook after hate speech towards minorities”, The Guardian, 14. Januar 2021, https://www.theguardian.com/world/2021/jan/14/time-to-properly-socialise-hate-speech-ai-chatbot-pulled-from-facebook.

ii „How an Algorithm Blocked Kidney Transplants to Black Patients“, in: Wired, 26. Oktober 2020, https://www.wired.com/story/how-algorithm-blocked-kidney-transplants-black-patients/.

iii Siehe auch Helbing, Dirk et al.: “Triage 4.0: On Death Algorithms and Technological Selection” (preprint), ResearchGate, September 2021, https://www.researchgate.net/publication/354293560_Triage_40_On_Death_Algorithms_and_Technological_Selection_Is_Today%27s_Data-Driven_Medical_System_Still_Compatible_with_the_Constitution.

iv Sample, Ian: “Computer says no: Why making AIs fair, accountable and transparent is crucial”, The Guardian, 5. November 2017, https://www.theguardian.com/science/2017/nov/05/computer-says-no-why-making-ais-fair-accountable-and-transparent-is-crucial.

v Samuel Butler, Erewhon oder Jenseits der Berge, übers. v. Fritz Güttinger, Eichborn, Frankfurt/Main 1994.

vi Dieser Titel bezieht sich auf das Bild La Trahison des images (dt. Der Verrat der Bilder, 1928-29) des surrealistischen Malers René Magritte. Es zeigt eine Pfeife mit der Bildunterschrift "Dies ist keine Pfeife".

vii Amazon verwendet den Begriff der „Künstlichen künstlichen Intelligenz“ für seinen 2001 patentierten Service Amazon Mechanical Turk. Er bezeichnet Prozesse in Computerprogrammen, die an Menschen ausgelagert werden, da diese sie schneller ausführen können als Maschinen. Vgl. „Amazon Mechanical Turk“, Wikipedia, https://en.wikipedia.org/wiki/Amazon_Mechanical_Turk, aufgerufen am 22. März 2022, sowie „Artificial artificial intelligence“, The Economist, 10. Juni 2006, https://www.economist.com/technology-quarterly/2006/06/10/artificial-artificial-intelligence?story_id=7001738.

 
++++++++++++++


VERANSTALTUNGSPROGRAMM

Freitag, 08. April 2022, 17:00 – 22:00 Uhr
HMKV im Dortmunder U | Ebene 3 & online
Soft Opening der Ausstellung House of Mirrors: Künstliche Intelligenz als Phantasma. Zusätzlich besteht um 20:00 Uhr die Möglichkeit, an einem Rundgang per Livestream teilzunehmen: https://hmkv.de/veranstaltungen/veranstaltungen-details/eroeffung-house-of-mirrors.html

Samstag, 09. April 2022, 15:00 – 16:30 Uhr
HMKV im Dortmunder U | Ebene 3
Kurator*innenführung durch die Ausstellung mit Inke Arns, Francis Hunger & Marie Lechner

Dienstag, 26. April 2022, 16:00 – 17:30 Uhr
Zoom | Online
Workshop: „Richtig unfair!? So diskriminierend kann KI sein“ mit Susanne Rentsch*

Dienstag, 17. Mai 2022, 15:00 – 18:00 Uhr
Zoom | Online
Workshop: „Diskutieren mit Maschinen? Grundlagen von sprachbasierter KI erproben und verstehen“ mit Benjamin Eugster, Hannah Schwaß & Anna-Lena Barner*

Donnerstag, 02. Juni 2022, 19:00– 21:30 Uhr
HMKV im Dortmunder U | Kino, EG
Kurzfilmabend: Frame of Reference I (2020) von Su Yu Hsin, A set of non-computable things (2017) von Charlotte Eifler und How Does Thinking Look Like (2021) von Philipp Schmitt + anschließende Diskussion mit Charlotte Eifler und Su Yu Hsin

Freitag, 10. Juni 2022, 19:00 – 22:00 Uhr
HMKV im Dortmunder U | Kino, EG
Konzert mit Dagobert und Kay Shanghai

Mittwoch, 15. Juni 2022, 19:00 – 21:00 Uhr
HMKV im Dortmunder U | Kino, EG & online
Gespräch: „Was das Valley denken nennt“ mit Adrian Daub, Jonas Lüscher und weiteren Gäst*innen

Freitag, 24. Juni 2022, 09:00 – 12:00, 13:00 – 15:00 Uhr
Zoom | Online
Fachtagung: „KI Infrastrukturen für Zivilgesellschaft und Kunst“*

Donnerstag, 30. Juni 2022, 19:00 – 20:30 Uhr
HMKV im Dortmunder U | Kino, EG
Filmabend: Coded Bias (2020) von Shalini Kantaaya

Samstag, 02. Juli 2022, 13:00 – 16:30 Uhr
HMKV im Dortmunder U | Ebene 3, Workshopraum
Workshop: „Human Perceptron“ mit RYBN*

Samstag, 02. Juli 2022, 19:00 – 21:00 Uhr
HMKV im Dortmunder U | Kino, EG & online
Vortrag: „Künstliche Intelligenz – Heilsversprechen oder kapitalistische Maschine?“ mit Timo Daum

Donnerstag, 28. Juli 2022, 19:00 – 21:30 Uhr
HMKV im Dortmunder U | Kino, EG
Filmabend: All That is Solid Melts Into Data (2015) von Boaz Levin & Ryan S. Jeffery + anschließende Diskussion mit Boaz Levin

Jeden 1., 3. & ggf. 5. Sonntag im Monat sowie feiertags, 16:00 – 16:45 Uhr
Termine im Einzelnen: 15./17./18. April, 01./15./26./29. Mai, 05./06./16./19. Juni, 03./17./31. Juli
HMKV im Dortmunder U | Ebene 3
Öffentliche Führung durch die Ausstellung House of Mirrors

Jeden 2. + 4. Sonntag im Monat, 16:00– 16:30
Termine im Einzelnen: 10./24. April, 08./22. Mai, 12./26. Juni, 10./24. Juli
Instagram | Online
Live Online-Führung durch die Ausstellung House of Mirrors via Instagram Live-Story. Einfach auf dem HMKV-Profil @hmkv_de teilnehmen.
 
* eine Anmeldung unter event at hmkv.de ist erforderlich

Vgl. https://hmkv.de/veranstaltungen.html für ausführliche und aktuelle Informationen zu den Terminen.





Mehr Informationen über die Mailingliste rohrpost