Veranstaltungsprogramm

Eine Übersicht aller Sessions/Sitzungen dieser Veranstaltung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.

 
 
Sitzungsübersicht
Sitzung
P 123: Artificial Dependence – Archiv, Ästhetik und Episteme KI-generierter Bilder
Zeit:
Mittwoch, 27.09.2023:
15:00 - 16:30

Ort: Raum 5

Raum 0.001

Zeige Hilfe zu 'Vergrößern oder verkleinern Sie den Text der Zusammenfassung' an
Präsentationen

Artificial Dependence - Archiv, Ästhetik und Episteme KI-generierter Bilder

Chair(s): Sebastian Randerath (Universität Bonn)

Dall-E, Midjourney, Stable Diffusion und ähnliche KI-Modelle versprechen die scheinbar voraussetzungslose Massenproduktion von Bildern: Ein simpler Prompt genügt, und wie aus dem Nichts entstehen beliebige digitale Illustrationen, synthetische Fotos und sogar Videosequenzen, vermeintlich losgelöst von jeglichen materiellen Bedingungen und sozialen Realitäten. Tatsächlich ist die KI-Bildgenerierung in vielerlei Hinsicht von Voraussetzungen abhängig: von technischen und infrastrukturellen ebenso wie von ökonomischen, rechtlichen und kulturellen. Das Training der Modelle erfordert riesige Datenmengen, die massenhafte Ausbeutung menschlicher Arbeitskraft und enorme Mengen an Energie, ihre kommerzielle Verwertung hängt von rechtlichen Bedingungen ab, die bislang kaum abschließend geklärt sind und nur durch die Marktmacht der beteiligten Akteure ausgehebelt zu sein scheinen, und die Akzeptanz der KI-generierten Bilder wie auch der Widerstand, den sie hervorrufen, basiert auf bild- und medienhistorisch lange eingeübten ästhetischen Erwartungshaltungen und Rezeptionsmustern. Schließlich produziert die KI-generierte Bildproduktion auch neue Abhängigkeiten, nicht nur ökonomischer Art. Die von wenigen großen Unternehmen dominierte Plattformisierung im Zuge der jüngsten KI-Welle setzt nicht nur Kreative, sondern auch Forschende unter Druck und droht, wissenschaftliche Erkenntnisproduktion von intransparenten Datenstrukturen und kommerziellen Hype-Zyklen abhängig zu machen. Dieses Panel möchte »künstliche Abhängigkeiten«, die sich aus dem aktuellen Boom der KI-gestützten Bildgenerierung ergeben, exemplarisch in drei Richtungen kartieren. Der Fokus liegt dabei auf der Abhängigkeit vom ›Archiv‹ und den damit verbundenen Vorstellungen von Historizität, auf der Abhängigkeit von ästhetischen Erwartungen, v.a. dem fortwirkenden Realismus-Paradigma technischer Bilder, und schließlich auf unseren Abhängigkeiten als Forschende und deren epistemischen und methodologischen Implikationen.

 

Beiträge des Symposiums

 

Die Lücken im Archiv. Interpolation, Latenz und die historischen Möglichkeitsräume von KI-Bildgenerierung

Roland Meyer
Ruhr-Universität Bochum

KI-Bildgenerierungsmodelle wie Dall-E, Midjourney und Stable Diffusion sind in fundamentaler Weise abhängig vom ›Archiv‹: von riesigen Mengen online verfügbarer Bild-Text-Paare, die die Basis ihres Trainingsprozesses bilden. Das virtuelle Archiv der Bilder der Vergangenheit wird so zu einer verwertbaren Ressource visueller Muster, die in die Generierung zukünftiger Bilder einfließen und zugleich deren Möglichkeitsraum aufspannen. In den latent spaces der Bildgenerierung erscheint jedes mögliche Bild als Interpolation bereits vorhandener Bilder, es füllt gewissermaßen eine Lücke im Bestand, ergänzt und vervollständigt ihn und bleibt doch von ihm abhängig. Das Archiv latenter Bilder, das diese Modelle zur Exploration anbieten, erscheint zugleich unerschöpflich und doch auf spezifische Weise begrenzt: Zwischen zwei beliebigen vorhandenen Bildern liegt immer eine schier unendliche Zahl potenzieller Bilder. Doch solche virtuellen Lücken täuschen über die viel fundamentaleren Absenzen und Ausschlüsse hinweg, die für diesen Möglichkeitsraum konstitutiv sind: die weitgehende Abwesenheit marginalisierter Körper, vermeintlich peripherer Räume oder minoritärer Bildkulturen.

Der geplante Vortrag will diese Lücken im Archiv in den Blick nehmen und nach ihren historischen Voraussetzungen fragen. Die Historizität gegenwärtiger Modelle der KI-Bildgenerierung soll dabei in einem doppelten Sinne thematisch werden: Zum einen skizziert der Vortrag die bildkulturellen, ökonomischen, rechtlichen und infrastrukturellen Bedingungen, die digital verfügbar gewordene Bilder zu Quellen latenter Muster und interpolierbarer Daten gemacht haben. Zweitens stellt er die Frage, wie ein solcher extraktivistischer Zugriff auf das Archiv unser Verhältnis zur Bildgeschichte selbst verändert: Welches Verständnis von Historizität verfestigt sich mit den KI-Modellen der Bildgenerierung? Und wie schreiben sich die Lücken des Archivs in die Zukunft fort?

Roland Meyer ist Bild- und Medienwissenschaftler. Nach Stationen u.a. an der UdK Berlin, dem Deutschen Hygiene-Museum Dresden und der HU Berlin forscht er derzeit als wissenschaftlicher Mitarbeiter am SFB 1567 »Virtuelle Lebenswelten« der Ruhr-Universität Bochum zu virtuellen Bildarchiven.

 

Erwartete Bilder. Zum medienimmanenten Realismus digitaler Bildgenerierung

Jacob Birken
Universität zu Köln

Mit digitaler Bildgenerierung tritt eine neue Form des Realismus auf den Plan – während frühere visuelle ‚Realismen‘ menschliche Wahrnehmungen der materiellen Wirklichkeit nachvollziehen oder wiedergeben sollten, produziert Software wie Midjourney oder DALL-E Bilder, die unserer Erfahrung mit Bildern entsprechen sollen. In der Praxis ist das digital generierte Bild somit von unserer Erwartung abhängig, wie ein anderes Bild betrachtet werden zu können: ein überzeugendes Deep-Fake von der Verhaftung Donald Trumps soll formal den Erwartungen an eine Pressephotographie entsprechen, ein von Rembrandt gemaltes Portrait Batmans den Erwartungen, sowohl Comicfigur wie Malstil wiederzuerkennen.

Während der Prozess der Bilderzeugung genuin digital ist und auf nur mittels aktueller Hardware mögliche, rechenintensive Datenverarbeitung setzt, wird gerade die digitale Qualität des Bilds verleugnet. Zum einen wird letzteres einem verallgemeinerten Paradigma des mimetischen Realismus unterworfen, in dem die Qualität und Funktion des Bildes in der illusionistischen Annäherung an seinen Gegenstand liegt – selbst wenn dieser Gegenstand eine anderes, in diesem Fall beim Eingeben des Prompts hypothetisches Bild ist. Zum anderen wird der digitale Prozess als solcher nicht markiert, wie es in anderen Bildpraktiken entweder durch Materialität oder Performance (den Pinselstrich, die Anwesenheit der Photograph:innen) geschieht. Durch diese Mimesis auf Phänomenebene wird jedoch nicht nur die digitale Erzeugung geleugnet, sondern ebenso der konkrete Entstehungsprozess der anderen Bildpraktiken. In meinem Vortrag will ich auf den medienimmanenten Realismus dieser aus Bildern erzeugten Bilder eingehen und exemplarisch untersuchen, wie darin eine ‚Abbildfunktion‘ durch die formale Annäherung an andere (technische) Bildpraktiken erzeugt wird – wie diese Mimesis also letztlich davon abhängt, unseren Erwartungen an Bilder entsprechen zu können.

Jacob Birken ist Medien- und Kulturhistoriker. Er arbeitete am HKW Berlin, dem ZKM Karlsruhe sowie an Hochschulen in Heidelberg, Kassel und Düsseldorf. Seit 2020 ist er PostDoc in der Abteilung für Nordamerikanische Geschichte der Universität zu Köln.

 

Bilder des Gemeinen? Methodische Abhängigkeiten in der Analyse KI-generierter Bilder

Elisa Linseisen1, Julia Eckel2
1Universität Hamburg, 2Universität Paderborn

Folgt man der Selbstbeschreibung des Unternehmens, so ist das Bildgenerierungsmodell DALL-E (2) aus einem altruistischen Streben nach Unabhängigkeit, Zugänglichkeit und Gemeinwohl entstanden. Obwohl die Open-Source-basierten, an der Universität programmierten Modelle von Stable Diffusion auf den ersten Blick am anderen Ende einer Skala von Proprietarität stehen als DALL-E von Microsoft/Open AI, scheint auch das deutsche Unternehmen eine Vorstellung von Freiheit und gesellschaftlicher Relevanz der neuen Technologie zu evozieren, die an frühe Internetträume als regellose Möglichkeitsräume erinnert. Ein Ideal der freien Zugänglichkeit soll nicht nur die Nutzer*innen, sondern auch die Hersteller*innen der Technologie von den Vorgaben der Plattformökonomie unabhängig machen. Die Forderung nach Demokratisierung und kollektiver Aushandlung von Regeln durchzieht die Diskussionen um KI und damit auch die Bilder, die von KI produziert werden: Stil, Ästhetik und Motive werden einem Credo des Gemeinsamen unterworfen. Dass solche vermeintlichen Freiheiten auf Ausbeutung und künstlichen, weil von der Technologie erst erzwungenen Abhängigkeiten beruhen, zeigt die kreative Enteignung von Künstler*innen unter dem Vorwand einer Nutzbarmachung für die Allgemeinheit.

In unserem vorgeschlagenen Beitrag untersuchen wir den skizzierten epistemischen Ordnungsrahmen von Autonomie und Commons der KI-basierten Bildproduktionsmodelle und möchten nach den genuin epistemischen Ungerechtigkeiten fragen, die einen solchen Rahmen stabilisieren. Dabei interessiert uns vor allem auch die Abhängigkeit der eigenen Forschung im Kontext solcher vermeintlich zugänglichen Bildwelten, die aber, so unser Vorschlag, immer schon eines Methodensets bedürfen, das dezidierte Dependenzen einkalkuliert, sich ihnen bewusst aussetzt und damit potenziell auch ein Unlearning eingeübter Ideale von Wissenschaftlichkeit vorantreibt.

Elisa Linseisen ist Juniorprofessorin für digitale, audiovisuelle Medien am Institut für Medien und Kommunikation an der Universität Hamburg und forscht zu einer Episteme des Digitalen, Apps und Queer Computing.

Julia Eckel ist Juniorprofessorin für Filmwissenschaft am Institut für Medienwissenschaften der Universität Paderborn. Sie forscht zu Animation (v.a. zum Nexus Animation/Dokumentation/Demonstration sowie Animation & KI), Tech-Demos, Screencasting, Selfies und zum Anthropozentrismus von Medientheorie.