KI und Fotografie: sehen lernen

Realität, Wolke und der sechste Finger
AI-geniertes Bild , Frau mittleren Alters mit kurzen grauen Haaren greift sich an die Schulter die Hand hat sechs Finger

1. KI-generierte Bilder sind keine Fotografie

Boris Eldagsen hat mit der Zurückweisung des Sony World Photography Awards Aufsehen erregt. Das Fazit zusammengefasst: Ki-generierte Bilder können Kunstwerke sein, sind aber keine Fotografie. Kunstwerke können sie nur dann sein, wenn sich Künstler:innen der Quellen und der Werkzeuge bewußt sind, die sie benutzen. 

Werke anderer einfach durch Prompts nach Wahrscheinlichkeiten zusammenzuführen ist keine Kunst und schon gar keine Fotografie. Beim fotografischen Bilder gibt es für jedes – der im Zweifelsfall bearbeiteten – Bilder eine tatsächlich vorhandene physikalische Realität, die in einem bestimmten Moment durch Lichteinfall auf ein Speichermedium festgehalten wurde

Das ist der Unterschied zwischen durch KI-Bildern generierten und Bildern, die mit Kameras generiert wurden.

Jede:r Fotograf:in kommt mit KI in Berührung: Fast jede Anwendung von Photoshop, Affinity oder anderen Bildbearbeitungsprogrammen beruht auf KI – gerlernter, automatische Angleichung von Raw-Daten an Vorgaben, Weißabgleich, Auswahlwerkzeuge bei Retuschen – schon ohne inhaltlich manipulativ auf Bilder eingegriffen zu haben, haben Fotograf:innen KI genutzt. 

Auch schon lange vor digitaler Bildbearbeitung oder KI-Instrumenten konnte Fotografie mehr als Dokumentation: Wie man Werke anderer fotografisch aufgreift, sich Welten inszeniert und fotografisch bearbeitet, dafür stehen u.a. David LaChapelle , Cindy Sherman, Erik Johansson, JR und viele andere mehr. Trotzdem bleibt es Fotografie.

Inwieweit journalistische, dokumentarische Fotografie digitale Werkzeuge ohne Glaubwürdigkeitsverlust einsetzen kann, wird seit Entstehen der digitalen Fotografie diskutiert. Wichtige Plattformen, Verlage, Fotografenvertretungen haben Verpflichtungen und Kodizes, setzen enge Grenzen, was als Manipulation gesehen wird.

Fotografie bleibt bei bei aller Bearbeitung immer der eigene Blick auf reale Gegebenheiten, der erst physikalisch festgehalten wird und dann durch den / die Künstler:in umgesetzt wird. So unterschiedlich die Herangehensweisen sind: in jedem Fall sind die physikalischen Vorgaben vorhanden. Die Bildelemente, die Details des Prozesses, die Bearbeitungsschritte werden kontrolliert eingesetzt, können gelöscht oder reproduziert werden.

Generative Bild-KI funktioniert anders: von Fremden programmiert Algorithmen suchen in einer durch Trainingsdaten zusammengestellten „Wolke“ zur verbalen Eingabe entsprechende kompatible Ergebnisse zusammen. 

Die Übergabe aus dem rein mathematischen latenten Raum in den für uns erfahrbaren Pixelraum ist selbst bei gleichen Prompts nicht reproduzierbar. 

Datenwolken wissen nur, dass es Hände gibt, aber nicht, wie sie funktionieren. Sie fertigen keine Studien wie Leonardo da Vinci oder Rembrandt an. Die Anzahl der Finger oder die Funktionalität einer Hand ist ihnen egal. Wir wissen das. Fotografie wird immer nur fünf Finger abbilden. KI kennt nur „ähnlich“, wird vielleicht irgendwann  lernen, dass „Hand“ immer nur 5 Finger hat, aber nie über „sieht so aus wie“ herauskommen.

2.Das Lernen auf Kosten Anderer – die Kontrolle über fotografische Bilder

Niemand hat etwas dagegen, wenn Daten für tatsächlich gemeinnützige Zwecke genutzt werden. Wissenschaft und Forschung – auch die, die sich mit Computern und IT im weitesten Sinne befasst – sind schon für rein statistische Forschung auf große Datensätze angewiesen. 

Wenn aber unter dem Mantel der Forschung Daten gesammelt werden und diese Daten – wie durch Zauberei – auf einmal in den Pool einer Hightech- Firma einfliessen und Bestandteil des Geschäftsmodells sind, kommen doch Zweifel auf.

In den Trainingsdaten von LAION waren auch vertrauliche medizinische Daten wie Bilder von Hautkrankheiten, Röntgenbilder, Op-Dokumentationen zu finden. Diese flossen unter anderem in die Entwicklung von Stable Diffusion ein, ebenso wie tausende Datensätze mit Kinderpornografie.

Bei Bilddaten von Fotograf:innen: die Gesetze zu Datamining schützen die Inhalte nicht.  Zwar schliesst § 60d des UrhG explizit die Nutzung aus für „Forschungsorganisationen, die mit einem privaten Unternehmen zusammenarbeiten, das einen bestimmenden Einfluss auf die Forschungsorganisation und einen bevorzugten Zugang zu den Ergebnissen der wissenschaftlichen Forschung hat“.  Nur – weder LAION noch den „gemeinnützigen“ Teil von Open-AI kümmert das. 

Was zu sehen, zu lesen und zu hören ist, ist ungeschützt. 

Verein x kann unbehelligt Bilder zu Trainingszwecken nutzen, später mit den Ergebnissen Unternehmen y füttern und diesem damit Milliardenumsätze generieren. 

Alle geben selbst zu, dass sie ohne Nutzung urheberrechtlich geschützten Materials so nicht existieren könnten https://futurism.com/the-byte/openai-copyrighted-material-parliament

In Deutschland wurde vom Landgericht Hamburg in einer Verhandlung gegen LAION  in erster Instanz entschieden, der Verein sei zur Nutzung der Bilddaten nach § 60d UrhG zur Analyse und zum Training im wissenschaftlichem Sinne berechtigt. Der klagende Fotograf erwägt, in Berufung zugehen. In Großbritannien und den USA sind ebenfalls Klagen gegen ungenehmigte Nutzungen von Bildern als Trainingsmaterial anhängig

Inzwischen haben einige „Datensammler“  Modelle angeboten, die Nutzung von qualitativ hochwertigen Content zu honorieren, vielleicht aus Angst vor Regulierung, vor der Offenlegung ihrer Quellen? 

Fest steht, dass KI-Bilder im besten Fall nur so gut sein können wie die Daten, aus denen gelernt wird. Kommen keine neuen Daten in die Trainingsmasse, lernt KI nur aus sich selbst. Algorithmen anpassen reicht nicht. Die Folgen sind z.b. Verstärkung von Fehlern, Vorurteilen oder gänzlich Unsinniges wie zuletzt bei Google Gemini und Adobe Firefly https://www.docma.info/blog/woke-ki-schwarze-wikinger-und-weiblicher-papst – gut gemeint, aber schwer daneben.

3. Was machen diese Bilder mit uns?

KI-generierte Bilder sind nicht neutral und es nicht egal, wer diese Bilder gemacht hat.

Die Algorithmen fügen Anhaltspunkte, wie für die meisten Nutzer von Medien eine attraktive ältere kaukasische Frau aussehen könnte, zusammen. Sie addieren Pixel, die Hände zeigen könnten, wissen aber nicht wie Hände funktionieren.  

Die Algorithmen übernehmen Vorurteile beim Lernen. So zeigen KI-Modelle beim Prompt / Stichwort CEO in der Mehrzahl männliche, weiße Menschen. Andere Stichworte übertragen Vorurteile, die aus lokalen Zuordnungen entstehen https://the-decoder.de/kreative-kampagne-zeigt-starken-ki-bias-in-midjourney/. 

Genauso „wissen“ die Algorithmen, dass in Gaza zur Zeit Krieg ist, es Terroristen, Militärs, Panzer, Bomben, Zerstörung und leidende Zivilbevölkerung gibt und bauen daraus Bilder, die Nutzer tausendmal so ähnlich gesehen haben. Adobestock hat über 4500 reine Ki-genierte Bilder zum Suchgebgriff Gaza und ca 6500 zum Suchbegriff Ukraine und Krieg  

Die örtliche Zuordnung: egal. Ein Teil erinnert in der Ästhetik an drastische Filmszenen, an Games, ein großer Teil aber ist nicht auf den ersten Blick als künstlich zu erkennen. Kombatanten, Flüchtende, Zivilisten, Ruinen, Kinder in Elend sind bei max 2 Sekunden Aufmerksamkeit und in Handy-oder Tabletgröße kaum als unecht zu erkennen. Für viele wirken diese Bilder fotorealistisch, als Fotografie, als Abbild der Wirklichkeit.

Martine Praessl, Kreativdirektorin der Stockbildagentur Westend61, hat den Begriff „visuelle Verwahrlosung“ geprägt. Wir müssen wieder lernen, genauer hinzuschauen.

Instragram und Facebook werden überrannt von Fake-Bildern. Deren Interessen ist nicht, zu informieren, sondern Reichweite für wen oder was auch immer zu generieren. In vielen Fällen ist beabsichtigte Fehlinformation und Schaden für Andere das Ziel, sei es politisch oder persönlich, manchmal verursacht nur der BIAS in den Algorithmen oder dessen Verschlimmbesserung die Falschaussage.

Die gezeigten Personen und Situationen haben aber nie so existiert und sind genauso real wie die Frau mit sechs Fingern.

Abgesehen von nicht visuell kontrollierten Bildern, die gruselig wirken oder zum Lachen bringen, birgt KI-generierter Content selbst in der Werbung immer das Risiko der Unglaubwürdigkeit. Nachdem Levi´s durch den Einsatz KI-generierter Models vor einem Jahr einen wahren Shitstorm auslöste, setzt Dove 2024 auf die Integrität echter Fotografie.

Die Kennzeichnung von KI-generierten Bildern als solche wie durch diverse Plattformbetreiber angekündigt, ist löblich, aber sicher kein hinreichender Schutz, ebenso wie die Nutzung technischer Kennzeichnung für Bearbeitung von visuellen Daten. Beides ist ein Anfang, es wird aber fast ebenso schnell Tools geben, diesen Schutz zu umgehen. Ausserdem lässt sich beides nicht oder nur sehr schwer auf die schon vorhandenen Bild- und Filmbestände anwenden.

Wir werden (wieder) lernen müssen, Bilder anzusehen und sie nicht mehr nur „durchrauschen“ zu lassen. Bilder, ganz besonders Fotografien, sind mehr als „Content“, der Clickrates erhöht. Bilder können Information, Dokumentation, Kunstwerke, emotionale Manipulatoren, oder einfach ästhetischer Genuss sein. Wir müssen wieder lernen zu fragen, wie, warum und wozu diese Bilder gemacht wurden und uns gezeigt werden. 

Machen wir die Augen auf und fangen an zu fragen.

 

 

Bildquelle Beitragsbild: © Adobestock /DZMITRY / generiert mit KI

Kommentar hinzufügen

Ihre E-Mail Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert