Im Januar 2026 ist viel passiert rund um KI, Bilder und Video. Das chinesische Videomodell Kling 3.0 kann jetzt 4K-Videos, mehrere Kameraperspektiven in einem Clip und immer realistischere Szenen erzeugen, "Flux 2 Klein" ist die Minivariante von Flux 2. Wir fragen uns, was "Lügnerdividende" ist und schauen etwas genauer auf die Negativszenarien des CEOs von Anthropic. Wir untersuchen die Kennzeichnungspflicht des EU AI Acts, besprechen die Microsoft-Studie zur weltweiten Nutzung von KI und sind erstaunt, dass die USA nur im Mittelfeld und hinter Deutschland liegen.
Im KI-Podcast unterhalten sich Dr. Jürgen Scriba, Leiter der Arbeitsgruppe "Technischer Fortschritt" / Deutscher Fotorat und Boris Eldagsen (Mitglied der Arbeitsgruppe) mit wechselnden Gästen über aktuelle Auswirkungen von KI auf Fotografie.
HIGHLIGHTS:
(0:00) – Jahresauftakt & Plattform-Update
- Rückblick auf Januar 2026 (Folge 13).
- Podcast jetzt auch auf Spotify, bald iTunes.
- Weniger neue KI-Modelle als erwartet.
(0:52) – Neue Bild- & Videomodelle
- Flux 2 klein: schnelles, lokal laufendes Bildmodell.
- Bytedance kündigt neue Modelle an.
- „Kling 3.0“ (China): 4K, 15 Sekunden, Multishot (mehrere Kameraeinstellungen im Prompt), Ton- & Stimmenklonen.
- Trend: Video wird als generierter 3D-Raum gedacht – Bild und Film verschmelzen.
(4:22) – KI im Foto-Alltag
Workshops zeigen:
- KI wird für hybride Aufgaben genutzt (Menschen ergänzen, Retusche, Begrünung, etc.).
- Kommerzielle Fotografie war immer inszeniert – KI verstärkt das.
- Zentrale Frage: Wird das künftig als „Deepfake“ gelten?
(9:37) – EU AI Act & Kennzeichnung
- KI-generierte Inhalte sollen gekennzeichnet werden.
- Problem: Definition knüpft am Werkzeug (KI) an, nicht an Authentizität.
- Gefahr: Inszenierte Fotos gelten als „echt“, KI-Bilder als „Fake“.
- Forderung: Durchgängige Metadaten statt reiner KI-Markierung.
(21:03) – Politische KI-Beispiele
- KI-Inszenierungen mit historischen Figuren.
- Manipulierte Bilder aus politischen Kontexten.
- Polizeiliche KI-Symbolbilder zur Emotionalisierung.
- Problem: Behörden erzeugen eigene Bildrealitäten – Glaubwürdigkeit leidet.
(27:10) – KI-Erkennung scheitert
- Studie zeigt: Chatbots erkennen KI-Videos nicht zuverlässig.
- → Technische Erkennung allein reicht nicht.
(29:06) – Neue Kennzeichnungsideen
- Vorschlag: Transparenz nach
- Autorenschaft
- Ausführung
- Verfeinerung
- Verifikation (Mensch/KI/Assisted).
- Ansatz: Medienübergreifendes System statt einfacher „KI“-Labels.
(35:44) – Vertrauenskrise neu definiert
- „Lügner-Dividende“: Echte Bilder können als KI-Fake diskreditiert werden.
- KI-Restaurierungen verändern reale Personen subtil.
- Notwendig: Vertrauenszonen je nach Kontext (Journalismus, Werbung, freie Kunst).
(38:48) – KI-Nutzung weltweit
- Microsoft-Studie zeigt:
- Hohe Nutzung in VAE und Singapur.
- Deutschland im Mittelfeld.
- USA nicht führend bei Nutzung.
- Digitalisierte Staaten adaptieren schneller.
(41:37) – Kreative vs. KI-Training
- Initiativen gegen ungefragtes Training mit urheberrechtlich geschütztem Material.
- Beispiel: Bücher werden gekauft, gescannt, zerstört – rechtlich zulässig in den USA.
(44:54) – Risiken: Doom-Szenario oder Realismus?
- Essay von Dario Amodei (CEO Anthropic):
- Risiken durch Überwachung, Autoritarismus, Missbrauch.
- Weniger Superintelligenz, mehr reale Machtfragen.