KI-Podcast – Folge 14

Thema sind die neuen Modelle Nano Banana 2, Seedream 5 Light und Seedance 2.0. Außerdem geht es um die massive Disruption der Produktfotografie, den Umgang mit Trainingsdaten und die Frage, warum wissenschaftliche Daten plötzlich bezahlt werden, kreative Werke aber oft nicht. Im Gespräch mit dem Medienwissenschaftler Prof. Dr. Jens Schröter wird es dann grundsätzlich: Was ist Kreativität, was bleibt von der Fotografie, und wie verändert KI unseren Begriff von Authentizität, Kunst und Wirklichkeit? Und was haben UFOs, Pilze und KI gemeinsam? --- Im KI-Podcast unterhalten sich Dr. Jürgen Scriba, Leiter der Arbeitsgruppe "Technischer Fortschritt" / Deutscher Fotorat und Boris Eldagsen (Mitglied der Arbeitsgruppe) mit wechselnden Gästen über aktuelle Auswirkungen von KI auf Fotografie.

HIGHLIGHTS:

0:08 – Jahresauftakt & Plattform-Update Rückblick auf Januar 2026 (Folge 13). Podcast jetzt auch auf Spotify, bald iTunes. Weniger neue KI-Modelle als erwartet.
0:52 – Neue Bild- & Videomodelle Flux 2 klein: schnelles, lokal laufendes Bildmodell. Bytedance kündigt neue Modelle an. „Kling 3.0“: 4K, 15 Sekunden, Multishot (mehrere Kameraeinstellungen im Prompt), Ton- & Stimmenklonen. Trend: Video wird als generierter 3D-Raum gedacht – Bild und Film verschmelzen.
4:22 – KI im Foto-Alltag Workshops zeigen: KI wird für hybride Aufgaben genutzt (Menschen ergänzen, Retusche, Begrünung, etc.). Kommerzielle Fotografie war immer inszeniert – KI verstärkt das. Zentrale Frage: Wird das künftig als „Deepfake“ gelten?
9:37 – EU AI Act & Kennzeichnung KI-generierte Inhalte sollen gekennzeichnet werden. Problem: Definition knüpft am Werkzeug (KI) an, nicht an Authentizität. Gefahr: Inszenierte Fotos gelten als „echt“, KI-Bilder als „Fake“. Forderung: Durchgängige Metadaten statt reiner KI-Markierung.
21:03 – Politische KI-Beispiele KI-Inszenierungen mit historischen Figuren. Manipulierte Bilder aus politischen Kontexten. Polizeiliche KI-Symbolbilder zur Emotionalisierung. Problem: Behörden erzeugen eigene Bildrealitäten – Glaubwürdigkeit leidet.
27:10 – KI-Erkennung scheitert Studie zeigt: Chatbots erkennen KI-Videos nicht zuverlässig. → Technische Erkennung allein reicht nicht.
29:06 – Neue Kennzeichnungsideen Vorschlag: Transparenz nach Autorenschaft / Ausführung / Verfeinerung / Verifikation (Mensch/KI/Assisted). Ansatz: Medienübergreifendes System statt einfacher „KI“-Labels.
35:44 – Vertrauenskrise „Lügner-Dividende“: Echte Bilder können als KI-Fake diskreditiert werden. KI-Restaurierungen verändern reale Personen subtil. Notwendig: Vertrauenszonen je nach Kontext (Journalismus, Werbung, freie Kunst).
38:48 – KI-Nutzung weltweit Microsoft-Studie: Hohe Nutzung in VAE und Singapur. Deutschland im Mittelfeld. USA nicht führend bei Nutzung. Digitalisierte Staaten adaptieren schneller.
41:37 – Kreative vs. KI-Training Initiativen gegen ungefragtes Training mit urheberrechtlich geschütztem Material. Beispiel: Bücher werden gekauft, gescannt, zerstört – rechtlich zulässig in den USA.
44:54 – Risiken: Doom-Szenario oder Realismus? Essay von Dario Amodei (CEO Anthropic): Risiken durch Überwachung, Autoritarismus, Missbrauch. Weniger Superintelligenz, mehr reale Machtfragen. Fazit: KI verändert Bildproduktion grundlegend. Technische Kennzeichnung reicht nicht – entscheidend sind Transparenz, Metadaten und gesellschaftliche Regeln für Bildvertrauen.

Zurück zur Übersicht