Abenteuer Reportagefotografie – Podcast über visuelles Storytelling

Kai Behrmann: Visueller Storyteller und Fotograf

KI-Experte Adrian Rohnfelder: Die Fotografie in Zeiten von Midjourney, Stable Diffusion und Neurapix

Wir diskutieren die weit verbreitete Angst vor KI und die Herausforderung, wie dieses Werkzeug verantwortungsbewusst genutzt werden kann.

05.01.2025 89 min

Zusammenfassung & Show Notes

In dieser Episode spreche ich mit Adrian Rohnfelder, einem erfahrenen Fotografen und KI-Enthusiasten, über die Schnittstelle zwischen Fotografie und künstlicher Intelligenz. Wir diskutieren die weit verbreitete Angst vor KI und die Herausforderung, wie dieses Werkzeug verantwortungsbewusst genutzt werden kann.

Adrian teilt seine Erfahrungen in der Fotografie und erzählt, wie ihm KI-Tools die Freiheit geben, kreative Visionen ohne physische Einschränkungen umzusetzen. Besonders hebt er MidJourney als mächtiges Werkzeug zur Bildgenerierung hervor.

Außerdem thematisieren wir ethische Überlegungen zur Verwendung von KI in der Kunst, die Herausforderungen bei der Unterscheidung zwischen echten und KI-generierten Inhalten sowie die Notwendigkeit einer stärkeren Aufklärung über KI.

Adrian gibt Einblicke, wie KI den Workflow von Fotografen revolutionieren kann und welche Rolle sie in der Zukunft der Videoproduktion spielen könnte, während er gleichzeitig die Bedeutung menschlicher Kreativität in einer zunehmend KI-unterstützten Welt betont.

Hier geht es zu den Shownotes mit Bildern und weiteren Informationen:

https://www.abenteuer-reportagefotografie.de/podcast/adrian-rohnfelder


// Visual Storytelling Kompaktkurs //

Mit dem Visual Storytelling Kompaktkurs knüpfen wir an das Format an, mit dem "Abenteuer Reportagefotografie" 2020 begonnen hat: Kleine Gruppe, große Wirkung.

Vier Live-Abende, praxisnah, persönlich – für alle, die mit ihren Bildern wieder echte Geschichten erzählen wollen.

Jetzt anmelden unter: https://www.abenteuer-reportagefotografie.de/visual-storytelling-kompaktkurs

// Du fragst, wir antworten //

Im Podcast sollst du zu Wort kommen!

Hast du Fragen, spannende Themen oder einfach Gedanken, die du schon immer mal loswerden wolltest? Dann schreib uns!

Unser Q&A-Format lebt von deinen Beiträgen – und wir freuen uns riesig, deine Fragen zu beantworten. 
Egal, ob du Tipps brauchst, neugierig auf unsere Meinungen bist oder einfach eine lustige Anekdote erzählen möchtest – dein Feedback ist herzlich willkommen!

Schick uns deine Fragen & Feedback per Mail an: mail@abenteuer-reportagefotografie.de und sei Teil einer unserer nächsten Folgen. 

Keine Frage ist zu klein, zu groß oder zu verrückt – wir freuen uns auf deine Ideen!

// Werbung //

Mit neuem Konzept ist der GATE7-Podcast nun der Podcast der interaktiven Lernplattform “Abenteuer Reportagefotografie”. Hier dreht sich alles um visuelles Storytelling in der Street- und Reportagefotografie.

Thomas B. Jones und ich helfen dir, mit deinen Bildern spannende Geschichten zu erzählen - ob in der Familie, in der Freizeit oder auf Reisen. Lerne, wie du die Bilder machst, die dich und andere begeistern.

Es erwarten dich:

  • Live-Webinare
  • Exklusive Podcasts
  • Fotografie-Geschichte: Was du von den großen Meistern lernen kannst.
  • Regelmäßige Aufgaben mit ausführlichem Feedback 
  • Videokurse
  • Eine aktive Community auf Discord für den direkten Austausch

Kostenlose Probemitgliedschaft

Wirf selbst einen Blick hinter die Kulissen unseres exklusiven Mitgliederbereichs und stöbere in den Inhalten.

Du kannst „Abenteuer Reportagefotografie“ eine Woche lang kostenlos und unverbindlich im Rahmen einer Probemitgliedschaft testen.

Mit unserem Newsletter bleibst du immer auf dem Laufenden.

Aktuelle Workshop-Termine findest du hier: https://shop.abenteuer-reportagefotografie.de/

Unser Buch: "Mit Bildern Geschichten erzählen: Wie du Storytelling gezielt in deiner Fotografie einsetzt" (dPunkt-Verlag)

Du hast Fragen oder Feedback? Dann schreib uns gerne – wir freuen uns, von dir zu hören: mail@abenteuer-reportagefotografie.de

// Danke sagen //

Der "Abenteuer Reportagefotografie"-Podcast ist kostenfrei und wird es auch immer bleiben. Ich freue mich, wenn ich dir Inspiration für deine Kamera-Abenteuer biete.

Falls du Danke sagen möchtest, kannst du mir per PayPal eine Spende zukommen lassen. Oder du schaust auf meiner Amazon-Wunschliste vorbei. Dort habe ich Dinge hinterlegt, mit denen du mir eine Riesenfreude machen würdest.

Herzlichen Dank!

// Hinweis //

*Bei einigen der Links in den Shownotes handelt es sich um sogenannte Affiliate-Links. Wenn du die verlinkten Produkte kaufst, nachdem du auf den Link geklickt hast, erhalte ich eine kleine Provision direkt vom Händler dafür.

Du zahlst bei deinem Einkauf nicht mehr als sonst, hilfst mir aber dabei, diese Webseite für dich weiter zu betreiben.

Ich freue mich, wenn ich dir Inspiration für deine Kamera-Abenteuer biete.

Transkript

Ich glaube, KI ist, glaube ich, die Leute haben einfach zum einen viel Angst. Also ich will jetzt gar nicht im ganzen Gespräch vergreifen, aber ist einfach negativ besetzt. Ja, deswegen haben die Leute Ängste und sie denken, das Zeug kann alles. Das ist intelligent. Ich meine, ich habe einen Vortrag, wichtigste Folie ist, künstliche Intelligenz ist nicht intelligent. Music. Ja, so, wenn man das mal verstanden hat und was sie kann und was sie nicht kann, dann ist es ein cooles Werkzeug. Mehr auch nicht, alles, ja. Adrian, jetzt sind wir schon ganz tief eigentlich in die Themen reingerutscht, die wir im Interview besprechen wollten. Insofern würde ich jetzt sagen, rutschen wir einmal vom Vorgespräch direkt rüber in das Interview, was wir jetzt auch aufnehmen werden. Erstmal herzlich willkommen zurück im Gate7-Podcast. Freut mich, dass du wieder da bist, Adrian. Hallo. Ja, hallo Kai. Danke für die erneute Einladung. Heute mal ein bisschen ein anderes Thema, aber immer wieder gerne dabei. Ja, du sagst, das ist ein anderes Thema. Das letzte Mal haben wir über deine Fotografie gesprochen. Du bist viel rumgekommen in der Welt. Du bist auf hohen Gipfeln gewesen, auf allen Kontinenten, hast Natur- und Landschaftsfotografie gemacht und seit unserem Gespräch damals, ich weiß gar nicht, wann war das? War das 2021, 2022? Irgendwie sowas. Ich glaube, 21 hätte ich mal aber geschätzt. Aber so ein Jahr fehlt ja irgendwie, das gibt es ja gar nicht. Also deswegen war es auch 22. Ja, schon eine Weile auf jeden Fall her. Und in diesen Monaten und Jahren dazwischen ist einiges passiert bei dir. Und du hast einen, wie ich finde, sehr, sehr spannenden Wechsel in deiner Fotografie vorgenommen, über den wir heute sprechen wollen. Du bist ganz tief in das Thema KI eingestiegen. Ein Bereich, den ich sehr faszinierend von der Seitenlinie aus beobachte. Ich habe mich da noch nicht so tief mit beschäftigt, wie du das getan hast. Und ja, das ist ja das Tolle an diesem Podcast. Ich kann das auch immer wieder nutzen, meine eigene Neugier zu befriedigen und denke mal, dass es da draußen auch ganz, ganz viele andere Hörerinnen und Hörer gibt, die das Thema ebenso interessiert. Und da werden wir, glaube ich, heute eine ganze Menge von dir erfahren. Adrian, zunächst, um mal einzusteigen, Fotografie bei dir ursprünglich. Was war die Motivation, dich mit der Kamera zu beschäftigen? Also die Motivation am Ende vom Tag war eigentlich, ich bin gerne in die Welt rumgereist, an Orte, die jetzt nicht jeder sehen konnte. Und mein Haupttrigger war eigentlich, selbst was zu erleben und davon zu erzählen. Ja, also zuerst natürlich meiner Familie, aber auch all den Leuten, die eben nicht so reisen können, weil es mal körperlich vielleicht nicht geht, waren ja ein paar anstrengende Reisen dabei, quer durch die Welt. Das Grundthema waren eigentlich gar nicht die Bilder, sondern waren tatsächlich Geschichten zu erzählen. Und für mich ist auch ein Landschaftsfoto, ein reines Landschaftsfoto erzählt für mich auch eine Geschichte. Nämlich die Geschichte der Landschaft oder gerade da die Vulkane, die ich fotografiere oder gerade die Naturgewalten, auch die erzählen ja eine Geschichte der Erde und eine Geschichte, sag mal, des Klimas oder sonst irgendwas. Insofern habe ich mich, glaube ich, noch nie wirklich als Fotograf gesehen, für den jetzt das Werkzeug Kamera extrem wichtig ist. Es ist halt einfach ein Werkzeug, mit dem man Bilder machen kann, Geschichten erzählen kann. Aber ich war jetzt nie groß der Techniker. Also wenn ich früher als kleines Kind habe ich total gerne gemalt. Oder ich habe relativ früh schon angefangen, auch schon Bilder am Computer zu generieren. Früher musste man noch irgendwie für jeden Pixel sagen, welche Farbe er hat. Und dann hat man irgendwie, keine Ahnung, tausend Pixel immer eine Farbe gegeben, kam auch ein Bild bei raus. Also ich komme eigentlich immer von der Geschichte her und von dem Bild, was ich im Kopf habe. Und dafür suche ich mir eigentlich dann das Werkzeug, mit dem ich quasi das transportieren kann. Ja, das erklärt dann auch schon deinen Weg hin zur KI und ist dann doch schon nachvollziehbar, wenn du sagst, dass es in erster Linie um die Geschichte geht und du suchst dir dann das jeweils passende Werkzeug dazu, um diese Geschichte zu erzählen. Und das kann man ja heute wunderbar auch mit KI machen. Auch vorher gab es ja schon Möglichkeiten, Bilder zu erstellen oder mit den Möglichkeiten, die damals zur Verfügung standen. Das alles ist jetzt ein bisschen ausgefeilter und ja doch mit viel mehr Möglichkeiten verbunden und auch einer breiteren Masse zugänglich. Wie ist diese Faszination oder dieser Wechsel dann entstanden bei dir? Das ist ja ungefähr vor zwei Jahren war das so, dass du dann auch wirklich sehr, sehr offensiv in dieses Thema KI reingesprungen bist. Ja, genau. Also wie gesagt, nochmal, also Kamera, ich habe mich auch immer, wenn Leute mich gefragt haben, genaue Kameraeinstellungen oder was kann der Button, was der kann Button, da war ich relativ schnell raus, weil ich dachte mir, ich habe ein Motiv im Kopf, ich habe eine grobe Idee, ich brauche dafür eine Blende, ich brauche ein Objektiv, aber alles andere ist mir letztendlich schlichtweg, also egal, klingt natürlich jetzt ein bisschen falsch oder fahre ich zu arrogant, aber gesagt, ich habe immer das Bild im Kopf gehabt und gesagt, okay, wenn das Bild wirkt, dann ist es egal, ob es Blende 8 oder Blende 11 ist oder sonst der. Und wie gesagt, ich habe schon immer früh gerne gespielt und im Jahr 2022 habe ich dann erstmal davon gehört und habe so die ersten KI-generierten Bilder gesehen und einfach gedacht, ey cool, Technik, was Neues muss ich ausprobieren. Bin auch so ein Stückchen weit einfach technisches Spielkind. Und ich erinnere mich noch gut, da kam Dali gerade auf den Markt und da musste man sich noch registrieren und kam auf so eine Waitlist. Dann habe ich mich dann registriert und dann kam irgendwie nichts und es kam nichts. Und ich wollte doch unbedingt damit spielen. Und dann irgendwann ist es im Urlaub passiert. Im Familienurlaub kam die E-Mail. Dann habe ich mich da angemeldet, habe aber irgendwas falsch gemacht und konnte schon wieder nicht generieren. Und ich dachte, das darf doch nicht wahr sein. Aber gut, irgendwann habe ich es dann hinbekommen. Die Ergebnisse waren natürlich weit weg von dem, was es heute ist. Aber ich fand einfach die Idee an sich faszinierend, ein Bild im Kopf zu haben und es sofort real werden zu lassen. Wobei ich jetzt nicht von den Bildern spreche, die ich fotografiere. Also ich habe natürlich auch schon mal, ich generiere auch mal einen Vulkan oder ich generiere auch mal die Landschaften, in denen ich war. Aber da geht es mir nur darum zu gucken, wie gut sind die Tools? Einfach im Vergleich zur Realität. Also ich werde weiterhin reisen, ich werde weiterhin fotografieren, mir wahrscheinlich den Luxus gönnen können, dass ich jetzt die Reisen mir nach meinem Spaß aussuche und nicht mehr in irgendwelche Projekte pressen muss. Aber dieses, auch ich bin größer Science-Fiction-Fan und wie gesagt, ich gehe durch die Welt und habe ein Bild im Kopf, irgendeine Bildidee. So, und da kann ich jetzt sagen, zack, Bildidee, kleiner Text, ich habe sie realisiert. Also das war zum einen der Trigger zu sagen, okay, ich kann jetzt das, ich kann leider nicht gut zeichnen, ich kann keine 3D-Programme bedienen, sonst hätte ich das alles schon früher gemacht. Jetzt habe ich ein Tool, mit dem ich das, was ich im Kopf habe, einfach umsetzen kann. Das war der eine Punkt. Und habe dann relativ schnell aber gemerkt, was da für ein Potenzial drinsteckt, im genauen diesem, jetzt überhaupt zu sagen, ich bin komplett frei. Wenn ich fotografiere, steckt da extrem viel Planung drin. Ich muss dann um die Welt reisen, ich muss zum Vulkan, der muss dann für mich auch noch ausbrechen, das Wetter muss mitspielen, das sind sehr viele Faktoren, die kann ich planen, aber nicht beeinflussen. So, zu Hause kann ich mir das Setting, was ich gerne hätte, ausdenken, prompten und habe das Bild. Und das hat natürlich in gewissen Bereichen, wo Fotografie oder Bilder zum Einsatz kommen, einen sehr, sehr großen Charme. Also zum einen Kostenscharm, aber das finde ich jetzt gar nicht so interessant, aber einfach einen kreativen Charme. Ja, weil ich komplett grenzenlos unterwegs bin und habe mir relativ früh gedacht, okay, das hat Potenzial. Potenzial ist ja immer ganz gut. Ich hatte mir eh nach Corona so ein bisschen überlegt, was machst du als nächstes fotografisches Projekt? Ich meine, Multivision ist ja auch, Festivals, alles ein bisschen kleiner geworden und war eh so in der Findung, okay, wie gehe ich eigentlich mit meiner Fotografie weiter? Und da habe ich gesagt, okay, das ist ja ein ganz cooles Zeug, gucke ich mir an, das hat Potenzial, das wird was. Und nach ein bisschen Spielen und Gucken, Beobachten, habe ich gesagt, das kommt auf jeden Fall. Ja, da war es noch die Phase, ich habe dann mal KI-Geld gepostet, da wurde ich dann auf Facebook entfreundet und habe irgendwie ganz wüste, böse Briefe oder E-Mails bekommen, wie ich denn sowas machen könnte. Aber ich habe mir gedacht, naja, okay, ich meine, es kommt, ich beschäftige mich damit mit der Idee, auch wenn es dann wirklich soweit ist, dass man es professionell nutzen kann, dann habe ich einfach ein Know-how und einen Vorsprung vor all denjenigen, die sich vielleicht immer schwerer tun mit der Technik, die später aufspringen, um dann eben zu sagen, okay, ich mache Workshops und sowas. Das ist relativ früh tatsächlich so entstanden, dass ich da einfach Potenzial gesehen habe, mir gedacht habe, okay, ich sehe es als einer der Ersten, ich bin mir recht sicher, es kommt, ich gehe einfach ein Stückchen weit ins Risiko und investiere da rein. Diese Reaktion auf Facebook, die zeigt ja, wie stark dieses Thema polarisiert, auch unter uns Fotografen. Die einen sehen darin die Gefahr, dass ihnen die Fälle davon schwimmen, gerade wenn man auch in der Berufsfotografie unterwegs ist, gibt es ja viele Felder, Stockfotografie. Editorial, Modefotografie, alles Bereiche Werbung, wo KI einen sehr, sehr starken Einfluss auf das Geschäft haben wird. Und ja auch schon hat. Wie war das bei dir? Du bist, so klingt das raus, ja sehr unvoreingenommen dem Thema gegenüber gestanden. Gab es bei dir gar nicht irgendwo so, ja, das Gefühl, ah nee, das ist irgendwie so ein bisschen, das passt nicht zu meinem Verständnis als Fotograf. Ich möchte mich eigentlich damit am liebsten nicht beschäftigen oder hast du dich da voll reingestürzen und gesagt, ja, die Chance, die packe ich jetzt? Also ich habe mich insofern deswegen gleich reingestürzt, weil ich eben da ganz klar trenne zwischen wo ist Fotografie, Fotografie und bleibt auch Fotografie und die möchte auch ich nicht ersetzen. Ja, ich werde nie auf die Idee kommen, sagen, ich war jetzt am XYZ-Vulkan und würde ihn nur generieren oder mich nach Island versetzen oder sonst irgendwas. Wenn es um das Erlebnis geht oder um die Abbildung irgendeiner Tatsache, Realität, dann ist für mich KI kein Werkzeug. Da ist die Fotografie das Werkzeug. Aber überall da, wo es darüber hinausgeht, und ich sage mal, in Kinofilmen ist es ja schon seit Jahrzehnten eigentlich normal, dass man dort Welten vorgesetzt bekommt, von denen man gleich weiß, die gibt es nicht. Da war das noch nie eine Diskussion. In Fotografie eine große Diskussion. Im Kino ist jeder hingegangen und hat sich die Sachen, die auch digital erstellt wurden, halt nicht mit KI, aber mit anderen Tools. So gesagt, okay, das eine sind die Welten für die Geschichten und so. Und da sehe ich das Potenzial. Und da habe ich tatsächlich kein Problem damit. Mir ist es aber auch mal ganz wichtig, dass ich immer, wenn ich irgendwas mit KI poste oder mache, ganz klar KI draufschreibe. Also manche Bilder sind oder viele Bilder sind klar erkenntlich KI, weil ich meine, es gibt nun mal keine Aliens oder UFOs, aber ich kommuniziere immer ganz klar, das ist KI und ich habe es deswegen genutzt und da ist Fotografie und da kommt es für mich auch nicht zum Einsatz. Also insofern hatte ich da jetzt für mich kein Problem, weil ich das eben weiterhin klar trenne und sage, okay, hat beides seine Berechtigung, beides seinen Einsatz und da, wo KI zum Einsatz kommt, sehe ich es als Tool. Ich meine, jetzt kann man die ganzen natürlich von vorne anfangen. Wie ist das mit den ganzen Trainingsdaten? Wie ist das mit KI, die Menschheit auslöschen? Ja. Und das, also ich glaube, das müssen wir jetzt nicht überstrapazieren. Da bin ich nur immer der Meinung, das ist so ein Fifty-Fifty-Ding. Es gehören ja immer zwei dazu. Ja, nur weil es das Werkzeug gibt, muss ich es nicht dafür nutzen. Also ich versuche auch und überall, wo ich unterwegs bin, zu sagen, nutzt KI wirklich für was Kreatives, nutzt für das Gute und rufe auch gleichzeitig dafür auf zu sagen, okay Leute, ihr müsst einfach noch mehr anfangen, einfach Fakten zu hinterfragen. Es müsste eigentlich als Schulfach aufgenommen werden, dass wir ganz klar einfach hingehen und sagen, wir glauben nicht mehr unbedingt, wir hinterfragen es. Aber das ist ja nicht in der Verantwortung der KI, dass Leute das dann ungeprüft glauben. Insofern denke ich, es ist ein Werkzeug, wie viele Werkzeuge, die der Mensch entwickelt hat. Ich hoffe einfach, es wird für sehr, sehr viel Gutes genutzt und den Missbrauch kann man irgendwie eindämmen durch Aufklärung. Ja, da werden wir auf jeden Fall nochmal drauf eingehen, auf die Risiken, die damit einhergehen. Bevor wir dazu kommen, du hast es ganz richtig gesagt, manchmal ist es so ein bisschen schwammig, so diese Trennung zwischen Fotografie und Bild, KI generierten Bildern. Ich glaube, das ist ganz wichtig, das am Anfang jetzt auch nochmal glatt zu ziehen oder dich mal zu fragen, wie siehst du das? Was ist für dich der Unterschied und inwieweit ist das, was du mit KI machst, Fotografie für dich? Ja, also das ist tatsächlich eine sehr interessante Frage, weil wenn man die Smartphone-Fotografie nimmt, auch da steckt ja sehr, sehr viel KI drin. Und in diesen kleinen Linsen kommt ja so wenig Licht, dass das Bild ja fast mehr gerechnet ist als fotografiert. Wenn man das wirklich mal ausprobiert und vielleicht im Dunklen mal eine Struktur in der Mauer fotografiert und sich die Mauern real anguckt und das Handybild anguckt, dann wird man sehen, da sind Sachen drauf, die gibt es in der Realität nicht. Also da bin ich schon in so einem ganz leichten Grenzbereich, wo zumindest eine Technik zum Einsatz kommt, die das Bild schon ein Stückchen weit manipuliert. Dann denke ich auch an die Phase wo es ja dringend darum geht Photoshop mal den Himmel auszutauschen das geht seit ein, zwei, drei Jahren relativ einfach, wurde vorher auch schon gemacht, die langen Diskussionen ist ein Composing ein Bild oder kein Bild auch die Diskussion hat ja die Facette, der eine sagt, ich darf nur das fotografieren, was real ist und der andere sagt, naja es sind vielleicht zwei Events kurz nacheinander ich habe ein Bild zum Sonnenuntergang und die Milchstraße, darf ich zusammenbauen, ähm. Da haben wir die Diskussion schon ganz lange und ich meine, selbst früher wurden ja Bilder schon manipuliert und zusammengebaut und selbst in der Dunkelkammer kann ich ja je nachdem, wie ich arbeite, Bildanteile herausholen oder nicht. Also die Diskussion ist meines Erachtens schon sehr alt, aber das, was du sagst, ist insofern wirklich schwierig, dass diese Tools jetzt sehr, sehr einfach sind. Und was ist ein Bild, was ich fotografiert habe, den Papierkorb aber rausgerechnet habe und vielleicht noch eine scheiße Straßenlaterne rein? Das besteht zu, naja, 80 Prozent aus meinem Foto und dem Rest ein bisschen KI. Also das ist, glaube ich, etwas, wo wir uns sehr, sehr schwer tun werden, auch mehr und mehr wirklich zu sagen, wie viel Foto steckt drin, wie viel KI steckt drin. Und ich glaube, das muss man sich einfach mal bewusst sein. Ja, auch diejenigen, die sagen, ich nutze keine KI, dass der Einsatz von Photoshop oder Lightroom mittlerweile auch schon das Bild ja schon bearbeitet. Dann kann ich es noch durch einen Vergrößer jagen, um das Bild ein bisschen Details zu machen. Ist auch wieder KI drin. Die Hautdetails glätten. Also letztendlich, klar, wenn ich am Anfang habe, ein reales Bild und das ist so passiert. Ist es ein Foto? In dem Augenblick, wo ich da hier und da ein bisschen eingreife, kann ich in die Diskussion einsteigen. Ich denke, wenn die Kernaussage des Bildes auch diejenige ist, die man dazu verkauft, dann kann man es noch als Fotografie sehen. Aber ich bin mir sicher, in zwei, drei Jahren wird man das in vielen Fällen tatsächlich nicht mehr so unterscheiden können. Ja, die Unterscheidbarkeit wird immer schwerer werden und das führt uns dann auch zu dem, was du davor schon gesagt hast, eben wie wichtig das ist, eben Bilder dann auch zu kennzeichnen, wie sie generiert worden sind, um eben auch beim Betrachter oder dem Betrachter die Möglichkeit zu geben, die Dinge einordnen zu können. Ich glaube, das ist wirklich eine der großen Bedenken, die auch viele immer äußern in diesem Zusammenhang, dass irgendwann das Verständnis von Realität oder die Unterscheidbarkeit zwischen Realität und Kreation verloren geht und uns das immer schwerer fällt. Ich meine, das ist eine große Frage, was ist Realität, was ist Wirklichkeit, was ist Fantasie ohnehin, aber ich glaube, wir als Gesellschaft, wir brauchen irgendwo so einen Konsens von Fakten, auf die wir uns stützen und uns auch ausrichten können. Wie siehst du das? Einmal, wie kann es gelingen, diese Kennzeichnung wirklich auch so einzuführen und auch zu überprüfen, dass uns das nicht aus dem Ruder läuft und ja, fangen wir damit vielleicht erstmal an. Ich glaube, dass das tatsächlich, naja, hoffnungslos ist vielleicht falsch, aber ein schwieriges Thema ist, wenn ich sehe, also ich bin eigentlich auf Social Media gar nicht wirklich aktiv und jetzt, aber ich sehe, was unsere Kids so ein bisschen angucken da auf Social Media und da ist ja so viel, naja, Zeugs, ich will es jetzt nicht abwerten, aber Sachen dabei, wo ich sage, das ist ja einfach ganz ehrlich gestellt, aber wird als real verkauft. Und wenn ich sehe, wie ungeprüft, das müssen ja nicht die Kids sein, das können ja auch Erwachsene sein, dass einfach angeschaut wird und geteilt wird und darüber erzählt wird, dann habe ich den großen Eindruck, es ist den Leuten tatsächlich egal, ob das real ist oder nicht. Hauptsache, ich werde unterhalten, es gefällt mir und dann brauche ich das gar nicht zu hinterfragen. fragen. Das wird natürlich schwieriger, wenn es jetzt nicht um irgendwelche Memes geht oder sowas, sondern. Berichterstattung aus politischen, aber bleiben wir mal bei dem Einfachen. Selbst wenn da, glaube ich, eine Kennzeichnung wäre und ganz klar irgendwie steht KI oder nicht, ich glaube tatsächlich, dass das den meisten Leuten relativ egal ist. Deswegen ist mein Ansatz eher zu sagen, wir müssen wirklich Aufklärung betreiben. Also Aufklärung zum einen, was kann diese KI? Ja, so ein ganz einfaches Beispiel ist zum Beispiel, könnte ich jetzt schon mir irgendeinen Instagramer nehmen. Noch schlimmer ist, der seine Kinder vor die Kamera zerrt. Ich brauche zehn Bilder, ich brauche fünf Tonaufnahmen und ich kann die Person tatsächlich real nachbauen mit der richtigen Stimme. Also einfach zu wissen, dass wenn ich jetzt was irgendwo veröffentliche, kann das jeder nehmen und kann daraus einen digitalen KI-Avatar machen. Also die Aufklärung und die andere Aufklärung eben zu sagen. Kinder, Leute, irgendwas überprüft das. Und da sehe ich Lehrer in der Pflicht, da sehe ich Eltern in der Pflicht. Wie du sagst, die ganze Gesellschaft, die gesamte Gesellschaft muss diesen Konsens haben zu sagen, okay, wir leben jetzt oder kommen in eine Welt, wo ich nicht mehr eben davon ausgehe, dass das Bild stimmt. Weil wir sind groß geworden, wir sehen etwas, wir glauben es erstmal. Wir könnten es bis jetzt auch das meiste glauben. Das wird jetzt andersrum sein. Also da dieser Konsens. Und es braucht aus meiner Sicht ein paar Medien, die ganz, ganz klar kommunizieren und sich Standard setzen und sagen, okay, wir versuchen so KI-frei wie möglich zu sein. Ich meine, es wird irgendwann unmöglich, jede einzelne Nachricht, die über Nachrichtenticker kommt, nachzuprüfen, ob das real ist oder nicht. Aber wenn ich sage, dass die sowas wie Tagesschau oder irgendwelche großen Zeitungen, die müssten sich verpflichten, wirklich einen Qualitätssiegel, Workflow, wie auch immer, einzuführen, um zu sagen, okay, wenn ich wirklich reale News möchte, reale Bilder, dann kann ich mich auf die drei, fünf, zehn Newsseiten, Nachrichtensender einfach verlassen. Ja, wir beide kommen ja aus einer Generation, wo es noch solche Sätze gab, wie das stand ja in der Zeitung. Dann hat man das für wahrgenommen und ja auch was Bilder angeht. Wenn es ein Bild war, sind wir davon ausgegangen, dass sich das so zugetragen hat und sind da noch nicht mit so viel Zweifel und Argwohn an Bilder rangegangen, wie das jetzt wahrscheinlich angebracht ist in der Zukunft, dass man da sich dann doch intensiver mit beschäftigen muss und sich auch mal zurücknehmen muss, auch wenn es überraschend wirkt, sich zu fragen, ist das wirklich so passiert? Eben angesichts der Möglichkeiten, die es da heutzutage auch gibt, der Beeinfluss und der Manipulation, die immer feiner werden. Glaubst du, dass wir Menschen da in der Lage sind, uns schnell genug dem anzupassen, was uns die Technologie gerade abverlangt und vorgibt? Das ist tatsächlich eine schwierige Frage. Also bis vor kurzem hätte ich wirklich auch noch gewagt, in die Zukunftsprognosen zu stellen und sonst was. Ich würde mir jetzt nicht ausmalen wollen, wie die Welt in fünf oder zehn Jahren ausschaut. Was mir so ein bisschen Hoffnung macht, bis jetzt hat die Menschheit irgendwie alles, was irgendwie passiert ist, überstanden. So, das kann man jetzt bewerten. Aber grundsätzlich haben wir uns weiterentwickelt. In westlichen Wändern auch, vielleicht anders als in östlichen, aber ja völlig egal. Aber wir entwickeln uns weiter und haben alles, was es an Krisen gab, an Schwierigkeiten, haben wir gelernt, damit umzugehen. Natürlich, was du jetzt ansprichst, ist, das kommt jetzt mit einer Wucht und einer Geschwindigkeit und das wird sich weiter drehen. Einer Geschwindigkeit, wo auch er selbst, diejenigen, die daran forschen, eigentlich gar nicht verstehen, wie es am Ende vom Tag wirklich funktioniert. Das wird eine sehr, sehr große Herausforderung. Ich glaube aber schon, dass der Mensch dazu in der Lage ist, damit umzugehen. Was nicht heißt, dass das am Ende so aussieht, wie wir uns das vielleicht vorstellen oder wünschen. Vielleicht finden ja unsere Nachkommen eine völlig andere Möglichkeit, mit einer Welt umzugehen, die einfach nicht real ist. Das wird vielleicht nicht mehr das Leben sein, was wir haben oder unsere Wertevorstellungen, aber es wird sich darauf etwas bilden. Und was ich halt auch glaube ist, die KI können wir ja auch zu sehr viel Positiven nutzen. Ja, es wird in der Medizin, im Verkehr, in keiner Ahnung, ich habe jetzt neulich auch zum Beispiel was gesehen, da hat man KI genommen, um Leute versucht davon zu überzeugen, dass eben Fake News wirklich Fake News sind. Und die KI konnte das besser als reale Menschen. Also wir können sie auch genauso wieder dazu einsetzen, um eben uns Menschen anzuleiten und einfach ein Guideline zu machen, damit umzugehen. Schwierig sehe ich, glaube ich, tatsächlich, dass die Schere extrem groß werden wird. Ja, die einigen, die KI wirklich vielleicht für sich nutzen und die es nicht nutzen. Ein einfaches Beispiel, wenn ich sehe, wie einfach ich mit JetGPT gute Texte schreiben kann, schnell E-Mails schreiben kann, Sachen abfragen kann. Ja, wenn ich das nutzen kann, habe ich einen sehr, sehr großen Vorteil gegenüber denjenigen, die es nicht nutzen. Also auch da werden wir die Verantwortung haben, das überall zu implementieren, dass jeder davon partizipieren kann. Ja, du hast gesagt, wie du dich damals für DALI angemeldet hast, da warten musstest, bis deine Registrierung erfolgreich war, bis du das dann ausprobieren konntest. Seitdem sind ja sehr, sehr viele andere Tools hinzugekommen. Der Zugang ist deutlich einfacher geworden. Wenn du einmal so einen Überblick geben solltest über das, was so in diesen zwei Jahren, gut zwei Jahren passiert ist an Weiterentwicklung von Tools. Ja, wie würdest du, was würdest du da sagen, was ist so das Zentrale dabei und welche sind die Tools, mit denen du heute am häufigsten arbeitest? Also das Zentrale dabei ist, dass die Geschwindigkeit, die am Anfang ja schon schnell war, immer, immer schneller wird. Also ich beschäftige mich gerade mit KI-Video sehr viel, weil ich auch glaube, dass das ein noch viel größeres Potenzial hat als Bild. Und da habe ich gerade zufällig neulich von mir ein Video gesehen aus März diesen Jahres. Ja, mit einer, naja, es war ganz knuffig, aber überhaupt nicht ansatzweise produktiv nutzbar. Und wenn ich sehe, was sich in den letzten Wochen mit Video gemacht hat, das kann man zumindest auf dem kleinen Schirm, wird auch da keiner erkennen, dass das nicht real ist, sondern Video ist. Und im Moment kommen wirklich im Wochentakt neue Videotools auf dem Markt, eins besser als das andere. Also das Zentrale wird wirklich sein. Das geht in einer Geschwindigkeit weiter. Das ist unglaublich. Die Tools, die ich nutze, bei mir ist es tatsächlich mit Journey, ist für mich das Tool, um Bilder auf professionellem Niveau zu generieren. Aus zwei Gründen. Es hat tatsächlich mit die beste Bildqualität am Markt und eine sehr, sehr große Funktionalität. Ich will ja gar nicht so ins Detail gehen, aber ich kann tatsächlich Bildbearbeitung, Bildgestaltung damit machen, Bilder mehrstufig entwickeln. als es das Tool mit dem größten Funktionsumfang, der beherrschbar ist. Also das kann man sich relativ einfach beibringen. Die Alternative ist Stable Diffusion oder Flux gibt es jetzt neuerdings, eine deutsche Firma, die das entwickelt hat. Da kann ich mir eigene Modelle trainieren. So, da bin ich noch viel flexibler und noch mächtiger. Aber das ist dann schon was für IT-Nerds. Also ich sage, Me Journey ist immer so ein bisschen die Apple-Welt. Ja, ich kriege was vorgesetzt, was super ist, was einfach zu bedienen ist, eine tolle Qualität, aber ich muss nehmen, was da ist. Und Stable Diffusion Flux ist so ein bisschen wie die Linux-Welt, die ist ein bisschen sperriger und nicht so schön, aber ich kann mir das so zusammenschrauben, wie ich es gerne möchte, brauche dafür aber ein ganz anderes Know-how. Das sind so die Tools, sag mal, in Bildgenerierung, die ich auch nutze. Im Videobereich ist es tatsächlich schwierig, weil ich so alle vier Wochen jetzt ein anderes Tool nenne. Ganz aktuell spiele ich mit Minimax. Die chinesischen Hersteller sind da gerade sehr, sehr stark. Und das ist erstaunlich, wie wirklich Bewegung von Tieren, von Menschen real umgesetzt werden. Vor allem deswegen erstaunlich, weil auch diese Tools nur tatsächlich mit Bildern und Videos trainiert werden und da ist keine Physik dahinter. Und auch da erkennst du tatsächlich in vielen Bewegungen nicht mehr, dass es ist und das ist, aber ich habe gedacht, Video-Tool frag mich in vier Wochen, dann nenne ich dir wieder ein anderes. Ja, Bild hat sich, glaube ich, relativ stabilisiert, dass MeJourney das eine Tool ist oder du bist in der Stabilization-Flux-Welt, wenn du professionell unterwegs bist. Ich sage mal, DALI ist weiterhin für Privatanwender oder Adobe FlyerFly, wenn man mal ein Bilddreh macht, kann man das auch nutzen. Und wie steil war da deine Lernkurve? Dadurch, dass ich relativ früh angefangen habe, natürlich mich damit zu beschäftigen, bin ich da ziemlich schnell reingekommen, erwische mich aber selbst jetzt immer noch wieder, ich mache fast 24-7, eigentlich kaum was anderes, dass ich denke, oh, jetzt bin ich der echte Mid-Journey-Profi und dann sehe ich wieder irgendwas, wo ich denke, oh, ich habe doch noch nicht so viel Ahnung. Also das stabilisiert sich langsam. Von Stable Diffusion Flux habe ich noch sehr, sehr wenig Ahnung. Das ist tatsächlich auch gerade so ein bisschen die größte Herausforderung, die ich so habe, ist das Fokussieren auf ein oder welches Tool. Weil da kommt so viel, dass ich selbst, wenn ich die ganze Woche rund um die Uhr nichts anderes machen würde, nicht hinterherkäme. Also im Moment geht es tatsächlich schon in Richtung, okay, könnte das ein potenziell interessantes Tool werden, wie viel arbeite ich mich da ein. Aber ich sage mal, die Tools, das Schöne ist, sie werden immer einfacher mit Journey fing an, du musst es über einen Discord-Server irgendwie prompten jetzt hast du eine schöne Web-Oberfläche und auch Modelle trainieren, das war bis jetzt ganz, ganz kompliziert auf dem eigenen Rechner, mittlerweile habe ich in der Stunde habe ich mich selber trainiert also das ist der Vorteil auch für jeden dass die Lernkurve immer kleiner wird weil du immer mehr Tools bekommst, die du ziemlich intuitiv bedienen kannst. Ja, das Werkzeug zu erlernen, das ist das eine und da auf dem Laufenden zu bleiben, das gesagt, die Sprünge, die werden immer oder passieren in immer kürzeren Abständen, also da einmal up to date zu bleiben, was diese Werkzeuge alles können, das ist das eine und dann gilt es ja aber auch zu überlegen, wofür möchte ich diese Werkzeuge benutzen? Wie sieht das bei dir aktuell aus? Würdest du sagen, du bist im Moment in der Phase, wo du dich einfach leidenschaftlich gerne mit der Funktionsweise dieser Werkzeuge auseinandersetzt oder gibt es dann auch schon den Teil, wo du ganz konkret sagst, das sind die Projekte, das sind die Geschichten, die ich mit diesen Werkzeugen erzählen möchte? Also bevor ich die Frage beantworte, noch eins ganz kurz, was mir ganz, was, glaube ich, sehr, sehr wichtig ist. Das eine sind die Tools zu beherrschen, was aber, glaube ich, gerade jetzt auch für Fotografen genauso wichtig ist. Mit dem einfachen Prompt kommt irgendein Bild bei raus. Das ist wie, wenn ich die Kamera nehme und ich gehe raus und fotografiere die Landschaft. Wenn ich ein schönes Landschaftsbild möchte, dann komponiere ich das Bild, ich überlege mir, welche Lichtstimmung brauche ich, wann gehe ich da hin. Und diese Skills, die brauchst du weiterhin auch in KI. Jetzt nicht im Sinne von, dass ich weiß, wie ich meine Kamera einstelle und vielleicht irgendwie unter- oder überbelichte, um den Effekt zu haben, aber die Prompts für Bildgestaltung, die Prompts für Dynamik, dass ich vielleicht ein bisschen Bewegungsunschärfe reinkriege, ein Bokeh im Hintergrund. Also das fotografische Know-how, das ist weiterhin wichtig, um Bilder zu machen, die eben aus der Masse herausstechen, nicht diese Einheitsbrei sind. Mit denen ich was gezielt machen kann. Auch deswegen sage ich, es ersetzt sicherlich das Werkzeugkamera an vielen Stellen, aber das Know-how, das wir Fotografen haben, das wird weiterhin gebraucht. Also das ist das eine. Zu deiner Frage, also im Moment verdiene ich mein Geld hauptsächlich damit, betreibe mit meinem Freund zusammen eine Plattform, in dem, wo wir Tutorials zu den Tools machen, wir zeigen Vergleiche, wir stellen die Tools vor, ich gebe relativ viel Webinare und sag mal, für diesen Part meines Jobs. Mache ich die Tools einfach, um sie kennenzulernen. Ja, natürlich habe ich so meine eigenen Bilderwelten, muss immer ein bisschen aufpassen, dass ich nicht zu viel Sci-Fi-Zeugs mache, weil es ist vielleicht doch ein bisschen zu extrem. Also da versuche ich dann auch Motive wirklich zu generieren, die vielleicht, die ich selber gar nicht machen würde, nicht fotografieren würde, aber einfach, weil ich daran einfacher erklären kann, wie so ein Tool funktioniert. Und parallel dazu habe ich so ein paar immer wieder Geschichten im Kopf, eben ich sagte permanent Bilder im Kopf, Geschichten im Kopf, die ich dann entweder dazu nutze, die Tools zu lernen oder im Moment mache ich das eher parallel, dass ich mir dann Bilder dazu generiere und sage mal, das eine ist wirklich mehr, das ist das ganz Konkrete und damit verdiene ich mein Geld. Und das andere ist so die Projekte, die ich habe und die ich aus Spaß mache, wo das dann hingeht. Also mein Traum ist schon irgendwann tatsächlich das auch mal zu verbinden. Tatsächlich vielleicht in der Fotografie eine Reise zu gehen und da eine Geschichte reingenerieren. Aber wie gesagt, im Moment ist das eine, die normalen Motive zum Erklären. Und das andere sind meine privaten Projekte, an denen ich einfach Spaß habe, die ich endlich generieren kann, weil es eben jetzt geht. Ja, du gibst dein Wissen weiter in Workshops. Lass uns da mal dabei bleiben, auch diese Plattform, die du zusammen mit dem Andreas Jürgensen gegründet hast. Was steckt da dahinter? Also der Andreas Jürgensen, der kommt ja aus dem Bereich, der eine oder andere kennt ihn vielleicht von den Fotoforen, also großen Fotoforen steckt immer eher dahinter. Und ich bin ja Olympus, der OM-System-Ambassador und darüber haben wir uns mal kennengelernt und hatten diverse Talks für OM-System. Haben uns gut verstanden, immer wieder gesprochen und irgendwann habe ich gesagt, hier komm, KI ist ein ganz cooles Zeug und er fand das relativ auch schnell, also erst hat er noch gesagt, ich weiß nicht, und irgendwie drei Tage später rief er an, ey, das ist ja total cool, lass uns das machen. Also auch erkannt, was da für ein Potenzial ist und dann gesagt, okay, lass uns auch mal ein Forum machen. Ja, Andreas ist Forumsexperte, Forum tauschen sich die Leute aus und haben Forum aufgesetzt, AI-ImageLab und gesagt, tauscht euch aus. Ein paar Beiträge gemacht, das ist aber, also wirklich ehrlich, das hat nicht sehr viele Teilnehmer gefunden. Und dann haben wir gesagt, wieso, weshalb? Und dann kamen drauf, okay, vielleicht ist einfach Forum die Zeit noch nicht reif vom Forum und haben das Ganze umgewandelt, eben eine Website, in dem nur wir schreiben. Mit der Idee tatsächlich zu sagen, wir erklären, also die Idee ist sogar fast noch mehr zu sagen, wir schreiben auf Deutsch. Weil auf Englisch kriegst du sehr, sehr viele Sachen zum MeJourney für irgendwas, aber eben nicht auf Deutsch. Und wir positionieren uns als quasi die deutsche Seite, wo wenn du eine Frage hast zu den Tools, also wir sind fokussiert auf MeJourney und ein paar andere noch, wir vergleichen aber auch, also wenn du was wissen möchtest. Dann sind wir der deutsche Ansprechpartner. Und das ist quasi die Grundidee. Und natürlich dadurch, dass ich mich den ganzen Tag mit dem Zeug beschäftige, ist es dann auch, ist das Wissen vorhanden zu sagen, ich gebe für unterschiedlichste Partner, Webinare, Workshops, halte Vorträge daraus. Gut, das ergibt sich. Wenn man derjenige ist, der sich mit beschäftigt, viele andere nicht, kann man es eben gut sagen. Und das Wichtige daran finde ich auch, das ist halt tatsächlich ein Long-Life-Learning. Und das finde ich das Spannende. Landschaftsfotografie kann ich dir einmal einen Workshop geben und dann hast du es verstanden. Du brauchst vielleicht nochmal ein bisschen Aufbau und Licht, aber das musst du nicht viel vertiefen. Wie Journey kann ich dir heute einen Workshop geben und in acht Wochen brauchst du eigentlich den gleichen nochmal, weil sich so viel geändert hat. Und da ist unser Ansatz zu sagen, all diejenigen, die das zum Spaß machen oder das brauchen, um Geld zu verdienen, die verdienen ihr Geld ja, nehmen wir mal ein Porträt-Business-Fotografen. Er verdient sein Geld damit, dass die Leute im Studio sind und ihn dafür bezahlen. Der kann sich nicht hinsetzen und die ganze Woche mit Journey beibringen. Da kommen dann wir und sagen, hier, ich zeige dir, wofür du das brauchst. Du kannst dann einen schönen Hintergrund für das Porträt machen. Ich erkläre dir, wie es geht. Und so, das ist immer die grundlegende Idee dahinter. Mhm. Und das findet man auf deiner Webseite, dein Angebot an Workshops und Weiterbildungsmöglichkeiten? Genau. Also die Webinare, die ich alle gebe, die findet man unter rohnfelder.de. Da habe ich dann unter Termine, da habe ich ein bisschen was, was ich mache rund um KI und ein paar Sachen. Aber da findet man die ganzen Termine und wer sich mal für die ganzen Tutorials alles interessiert, das findet man dann auf ai-image-lab. Ich trenne das insofern ein bisschen, da ich für viele Veranstalter natürlich was gebe, teilweise auch ähnliche Sachen, versuche ich zu sagen, okay, das Workshop-Webinar-Ding ist noch ein bisschen mehr meins und die Plattform, aber natürlich befruchtet sich das gegenseitig und. Ja, eine schöne Anlaufstelle, bekommt viele Informationen, schon viele Blogartikel, die ihr geschrieben habt. Also wer sich mit dem Thema da ein bisschen intensiver auseinandersetzen möchte, der ist da sehr gut aufgehoben auf der Seite. Du hast gesagt, ihr bekommt natürlich auch sehr, sehr viele Fragen dann von Menschen rund um das Thema KI. Was sind denn so die immer wiederkehrenden Fragen, die den Menschen unter den Nägeln brennen? Also die Frage, die eigentlich immer wieder kommt, ist, wie kann ich mich selber KI generieren? Das ist komischerweise wirklich der Trigger, der oder vielleicht mein Haustier. Also das ist tatsächlich die Frage, die querbeet immer wieder kommt. Wie kann ich entweder mein Foto nachbauen oder wie kann ich mich selber als KI-Modell generieren? Und wir hatten ja vorhin über Social Media gesprochen, da dürfte derselbe Trigger am Ende sein. Ja, das hast du ja auch selber gemacht, wenn man auf deine Webseite geht. Das erste Bild, das Titelbild deiner Webseite ist ja auch ein KI-generiertes Bild von dir. Genau, ja, da habe ich das Modelltraining ausprobiert und mich in unterschiedlichen Situationen generiert. Mittlerweile habe ich sogar meine Stimme KI generiert. Das war ganz witzig, das den Kindern mal, die haben das gar nicht gemerkt, bis ich dann perfektes Englisch sprach. Und da fiel ihnen auf, ey Papa, du hast doch gar nicht so eine gute Aussprache. Da merken sie, okay, das ist auch nicht meine reale Stimme. Aber klar, ich meine, also ich mache das einfach, weil ich die Tools ausprobieren muss und finde es dann auch einen ganz netten Trigger, überhaupt zu zeigen oder weil es eben die Frage immer wieder kommt, zu sagen, es geht, noch ist es recht aufwendig, aber, Macht einfach auch mal Spaß, sich irgendwie in was zu generieren. Andere Leute machen Karneval und verkleiden sich. Das ist nicht ganz so meins. Ich generiere mich dann lieber als was weiß ich alles. Das ist die eine Frage, die immer wiederkommt, wie man sich selbst generiert. Was sind weitere Fragen? Gut, viele fragen immer, wie kann ich damit Geld verdienen? Die würden halt sehr gerne KI-Bilder generieren. Ich meine, es ist nun mal relativ einfach. Damit beschäftige ich mich tatsächlich gar nicht so viel konkret. Ich habe erst mal angefangen, mal ein paar Bilder auf Adobe Portfolio hochzuladen und zu gucken, ob das als Stockfotografie funktioniert. Es gibt da ganz viele Plattformen. Also viele möchten einfach denken sich, damit kann ich sehr schnell, sehr einfach Geld verdienen. Ansonsten ist es tatsächlich interessant, dass die Fragen sehr, sehr breit sind, weil wir mit KI ja deutlich mehr Leute ansprechen als Fotografen. Alle, die irgendeine Art Bilder brauchen, sei es Bilder für meine Webseite, sei es in der Werbung, sei es im Produkt, also überall, wo ein Bild gebraucht ist, sei es auch bei Redaktionen, die stoßen ja auf das Thema KI. Und insofern sind eigentlich die Fragen auch ganz unterschiedlich und ich was Illustrationen machen kann. Eine sehr, sehr wichtige Frage ist noch, gerade wir haben ja das Thema Storytelling schon öfters gesprochen, wie kann ich jetzt die gleiche Person in mehreren Szenen generieren? Das war am Anfang unmöglich und mittlerweile gibt es da ein paar Tools, dass ich die Person sehr, sehr ähnlich generieren kann und eben tatsächlich dieses Storytelling zu machen, sei es für ein Video, für ein Moodboard und zu sagen, okay, ich erzähle jetzt eine Geschichte von diversen Charakteren und die sehen auf allen Bildern immer wieder gleich aus. Oder auch die Frage, wie kann ich mein Produkt jetzt in eine KI-Szene setzen. Aber da sind wir ja schon bei dem Thema Use Case. Wir hatten es ja schon mal angeteasert oder die Frage ist. Es ist natürlich sehr, sehr viel Spielplatz noch dabei und ich kann super lustiges Social-Media-Zeug generieren auf Knopfdruck. Aber mittlerweile sind die Tools so erwachsen geworden, dass es einen relativ großen Bereich gibt, wo ich sage, es sind auch tatsächlich sinnvolle Use Cases. Stock-Fotografie hattest du ja schon gesagt zum Beispiel. Ja, im Bereich der Business-Porträt-Fotografie. Jetzt nicht die Leute KI generieren, das wird auch kommen, aber die Person im Studio fotografieren und vor einen KI-Hintergrund setzen. Vielleicht auch für ein Business-Porträt, was ich nicht umsetzen kann. Ein Beispiel von einem Kollegen, den ich kenne, der sagte, ein Flugbegleiter wollte sich auf der Runway fotografieren lassen für sein Bewerbungsfoto. Geht natürlich nicht, kann ihn nicht auf die Runway stellen. Aber ich kann die Runway generieren, ihn da vorstellen und schon hat er ein Porträtfoto und ein Bewerbungsbild, was andere nicht haben. Im Bereich Moodboard, wenn mich ein Kunde beauftragt, irgendwas zu entwerfen, kann ich ihm mit KI ganz schnell drei, vier Vorschläge machen, kann die abstimmen und weiß sofort, in welche Richtung ich dann vielleicht fotografieren muss und ein Angebot machen muss und was rausfällt. Und da, wo es im Moment gerade tatsächlich explodiert, ist im Bereich Werbung. Da gibt es ja schon die ersten Werbefilme. Ich glaube, Toys A. S. hat schon einen komplett generierten Werbefilm gemacht. Mango hatte eine Modestrecke, die komplett KI generiert ist. Ich habe noch zwei, drei andere gesehen. Ich glaube, McDonalds experimentiert damit immer. Da habe ich natürlich jetzt die Möglichkeit, komplett grenzenlos irgendwelche Welten und Szenarien zu schaffen, die ich vorher nur vielleicht mit um die Weltjetten aufwendigen 3D-VFX-Effekten zu machen. Und da sehe ich auch tatsächlich jetzt immer mehr Beispiele, dass es da aktiv schon genutzt wird. Ja, viele Felder, die du genannt hast, wo KI wirklich massiv Einfluss haben wird. Um das nochmal konkret zu machen, welche Fotografen heutzutage oder welchen Fotografen würdest du raten, sich dringend ganz intensiv mit KI zu beschäftigen im Hinblick auf die Jobperspektive? Also ganz klar Stockfotografie, weil das kann ich tatsächlich generieren. Also da sehe ich auch wirklich, ich glaube, Adobe forciert das sogar ein Stückchen weiter, hat ja auch eine eigene Plattform. Also da denke ich mir, ob da noch viel fotografiert wird später, ja. Im Bereich von Portrait und Businessfotografie sollte man sich zumindest damit beschäftigen und die Möglichkeiten kennen, weil das eine oder andere Brautpaar möchte ja vielleicht zwar fotografiert werden, aber dann unter Wasser generiert auf den Vulkan oder auf den Mond oder sowas. Auch da hat es durchaus Charme, zumindest KI mit Fotografie zu verbinden. Und warum nicht auch komplett KI generieren für ein einfaches Passbild oder so irgendwas. Also damit sollte man sich auch mit beschäftigen. Ganz klar alle, die im Bereich Werbung unterwegs sind, weil da wird es Einsatz finden und da wird es auch schwierig, weil da natürlich die Agenturen, das merken auch wir manchmal von den Leuten, mit denen wir zu tun haben, natürlich auch versuchen, das selber zu machen, weil denken sich, brauche ich ja keinen Fotograf, kann ich selber generieren. Alle Fotografen, die vielleicht so ein bisschen Webseiten bedienen, Pizzeria, Pizza fotografieren, also gerade in Produktfotografie, da sollte man sich auch mit beschäftigen. Da sage ich nicht, dass es jetzt abgelöst wird. Aber wenn die Eisdiele, keine Ahnung, einen Eisbecher fotografiert haben möchte für die Speisekarte, das kann ich auch generieren. Aber auch da die Verbindung aus KI und Fotografie, aber auch im Bereich Illustration, Kinderbuch-Illustration. Also da komme ich ja gar nicht aus der Fotografie. Aber selbst da in vielen Bereichen Thema Gestaltung, da sollte man sich auf jeden Fall mit den Möglichkeiten beschäftigen. Und dann wird es immer Kunden geben, die wollen KI aus Kostengründen, aus Motivgründen. Es werden Kunden geben, die hätten gern beides. Es wird aber auch weiterhin überall einen Markt geben für echte Fotografie. Welchen Wandel auch, was die Einstellung zu KI betrifft, hast du da in den vergangenen Monaten wahrgenommen, auch aus den Gesprächen mit den Kunden, die euch oder dich beauftragen für Beratung, für Training. Gibt es da ähnlich so etwas, wie du es bei dir auch gespürt hast oder bei anderen Fotografen, dass das KI so ein bisschen anrüchig behandelt wird? Nee, wollen wir lieber nichts mit zu tun haben? Wir setzen weiter auf, in Anführungszeichen, echte Fotografie oder beobachtest du da auch so einen Wandel, dass sich da jetzt auch gerade, wenn gesehen wird, wie sich damit Kosten sparen lässt, dass das viele dann doch zur KI greifen lässt? Also es ist definitiv ein Wandel da, allerdings ein sehr, sehr langsamer Wandel. Wobei ich den Eindruck habe, dass das ein Stückchen weit auch ein deutsches Thema ist. Also in 2022 wurde ich ganz klar noch entfreundet. Ja, auch Facebook. Mitte letzten Jahres fing es an, dass die Tools tatsächlich fotorealistische Bilder generieren konnten. Und da habe ich gemerkt, okay, die ersten Fotografen fangen tatsächlich an, das produktiv zu nutzen oder sich ein bisschen mit zu beschäftigen. Jetzt mit 24 Prozent. Da sind die Bildtools so erwachsen, dass man die ganz problemlos nutzt und relativ einfach nutzen kann. Jetzt kommt Video. Also mir begegnen immer mehr schon auch Fotografen, die sagen, ja, nutze ich schon intensiv oder ach ja, möchte ich mich mit beschäftigen. Allerdings auch ein sehr, sehr großer Teil heute noch, der dem extrem ablehnend gegenübersteht. Und das ist fast sogar der viel größere Teil. Also ich glaube, die Leute, die sich tatsächlich damit, die aus dem Bereich Bild kommen, sich damit schon beschäftigt haben, ist ein aus meiner Sicht zu geringer Prozentsatz. Ich habe den Eindruck, das ist ein deutsches Thema. Ich habe viel mit Österreichern zu tun. Da scheint das meiner Wahrnehmung einer kleinen Stichprobe mit Leuten zu tun habe. Da scheint das deutlich akzeptierter zu sein. Und gerade wenn ich auf, ich bin recht auf LinkedIn mittlerweile aktiv. Was ich da für Kontakte habe nach Indien, nach Asien, auch nach Saudi-Arabien, Amerika, da sind viel, viel mehr, die in ihrer Titelbezeichnung schon haben, AI-Explorer oder VX-Designer, AI, keine Ahnung, die das Ganze machen. Also ich glaube, wir hängen tatsächlich ein bisschen hinterher, aber es kommt langsam. Aber es ist immer noch ein extrem negatives Bild von KI und mein Eindruck ist, dass da unsere Medien auch eine Rolle spielen, das so ein bisschen negativ darzustellen. Ich hatte vorhin ja mal kurz Flux erwähnt, wie gesagt, das ist eine Top-Alternative mittlerweile, also gibt es glaube ich halt acht Wochen, ist eigentlich das Tool mittlerweile, wenn man nicht MeJourney nimmt und das sind Entwickler, die Black Forest Labs heißt die Firma, kommen aus dem Schwarzwald, drei deutsche Entwickler dabei und da ging jetzt nicht durch die Presse, hey super, deutsche Firma, Bild, Konkurrenz zu MeJourney, da kommt wieder irgendwas. Ja, also da fehlt mir überall so ein bisschen ist da so eine grundnegative Einstellung und die hat sich meines Erachtens wenig geändert. Es erkennen immer mehr Leute, wie wichtig für dieses, ich habe gerade neulich eine Fotoredaktion ein bisschen geschult, die gesagt hat, wir müssen jetzt einfach auch mit KI arbeiten und sowas kommt immer häufiger, aber es ist echt noch, ich nenne es mal zäh. Das ist C, ja. Welche Bemühungen gibt es seitens vielleicht auch der Politik, um mit dem Thema umzugehen? Es ist ja, haben wir auch schon gesagt, das ist ein Thema, das wird bleiben. Also es ist jetzt eigentlich nicht die Frage, bleibt es oder nicht, sondern eben die Frage ist, wie wir damit umgehen mit diesem Werkzeug. Und du hast die Bedeutung schon herausgestellt, auch was Lehre angeht, eben dafür ein Bewusstsein auch schon sehr, sehr früh bei Kindern zu schaffen, wie sie mit Medieninhalten umgehen sollten. Gibt es seitens der Politik aktuell auch schon Bemühungen, dieses Thema in irgendeiner Weise in den Griff zu bekommen oder zu gestalten? Was passiert da? Ja, leider, leider meines Erachtens geht es da in die falsche Richtung. Da geht es sehr viel eben um den Missbrauch, den man natürlich damit machen kann. Es gab jetzt ein EU-Gesetz für, wie KI genutzt werden darf oder nicht, einen Entwurf. Wenn der tatsächlich kommt, dann dürfte ich in Europa eigentlich kein KI mehr nutzen, kein KI entwickeln. Und damit würde ich Europa komplett abhängen von dem Thema. Und auch wenn man sich die Investitionen, habe ich beim neulichen Bericht gesehen. Die Investitionen in Zukunftsthemen wie KI, digitale Sachen, die sind eigentlich in allen Ländern, auch in den Unternehmen deutlich höher prozentual als in Deutschland. Also mir fehlt da tatsächlich dieser Trigger und auch wenn du hast Schulen angesprochen, dann heißt es eher ChatGPT soll verboten werden. Ich würde sagen, nein, zeig den Lehrern doch mal, was ChatGPT kann. Ich glaube, den wenigsten Lehrern ist bewusst, dass ich ChatGPT mal mit meinem Textstil trainieren kann. Das heißt, jedes Kind kann fünf seiner Hausaufgaben einscannen und dann schreibt ChatGPT in seinem Stil. Da kann ich noch so viele Tools draufsetzen, die ChatGPT-Erkennung haben, das erkennt es nicht mehr. Also das, was ich vorhin sagte, diese Aufklärung. Und das fehlt mir tatsächlich. Wir müssten da auch von der Politik ein Klima schaffen und sagen, da ist eine Technologie. Da werden Billiarden reingepumpt über dem Teich. Immer die Diskussion, rechnet sich das, rechnet sich das nicht. Aber wenn ich sehe, auch Biontech versucht, damit geht in die Krebsforschungen, ist glaube ich recht weit schon ein Impfstoff tatsächlich gegen gewisse Krebsarten zu entwickeln mit KI. Da denke ich einfach, das ist ein Tool, ein Werkzeug, das bleibt und wir müssen da investieren, wenn wir nicht abgehängt wollen oder das einkaufen müssen. Also dieses Zäh gilt tatsächlich auch für diese Ebene aus meiner Wahrnehmung. Ja, bleibt spannend abzuwarten, was daraus wird, aus diesen Initiativen auf EU-Ebene, wie wir uns da verhalten werden. Und wie gesagt, auch das finde ich immer den falschen Ansatz, weil zum einen kommt man hinter Technologie eh nicht hinterher. Ich kann natürlich eine Technologie implementieren, die KI erkennt. Dann drei Tage später hat die KI eine Technologie, dass sie nicht erkannt wird. Ja, dieses ich verbiete das oder ich reite da auch medial auf den Risiken rum, was man anstellen kann, ist, glaube ich, einfach der falsche Ansatz. Ich muss einfach aufklären, dass das auch nur Tools sind. Es sind auch nur Modelle, die aufgrund von Mathematik das nächste Wort errechnen oder wie ein Bild aussieht. Die Dinger können nicht denken, sie sind nicht intelligent. Und da zu erklären, das geht und sie werden morgen nicht die Weltherrschaft übernehmen, ich glaube, das wäre ein besserer Ansatz, als zu diskutieren. Ich muss jetzt irgendwelche Kennzeichnungen machen. Die Diskussion KI-Foto. Ganz ehrlich, jedes Bild, was in Photoshop bearbeitet wurde, ist KI angefasst. Dann hat jedes Foto das Label KI. Das kann ja auch nicht Sinn und Zweck des Ganzen sein. Da eben vielmehr das Ganze positiv besetzen und auch klären, wäre der Weg, den ich mir wünschen würde. Ja, so in so Bereichen wie Social Media da lustige Bilder zu generieren, sich da ein bisschen auszuprobieren, was alles möglich ist mit KI, das passiert schon auf breiter Front, auch was so den Ansatz in Werbung angeht, ist glaube ich gar nicht mal so problematisch, da sind wir das ja schon gewohnt. Und Werbung ist einfach ein Entwerfen von Szenarien, soll Lust machen, Produkte zu kaufen. Da ist Fantasie und Wirklichkeit schon lange getrennt oder verschwimmt sehr, sehr stark. Aber der Bereich Journalismus, Fotojournalismus noch einer, wo wir, glaube ich, auch in Zukunft weiterhin darauf angewiesen sind, da zu erkennen, wo die Nachrichten herkommen, wo die Bilder herkommen, dass das nachvollziehbar ist und vor allen Dingen auch faktenbasiert. Welchen Einfluss siehst du von KI auf Bildredaktion im Bereich von Journalismus? Ja, das ist ein sehr, sehr grenzwertiges Ding natürlich, weil wenn ich sage, ich brauche ein Bild von einem Wald oder ich brauche ein Bild aus Beirut, das kann ich natürlich relativ einfach generieren und ist jetzt, sage ich mal, auch erstmal natürlich unproblematisch. Ob das jetzt ein echter Wald ist oder ein paar Bäume, ich will ja nur was zum Wald sehen. Aber ich sehe schon die Gefahr, dass man dann irgendwann, ach, das geht ja ganz einfach, relativ schnell, jetzt mache ich das Ganze mal. Also ich glaube, da müssen sich alle im Journalismus einfach sagen, nein, für mich, wenn in dem Augenblick, wo ich Journalismus mache und mal einen ganz klaren Tatsachen, Fakt erzähle, muss ich es entweder mit einem Fotografie bebildern oder daneben schreiben, KI generiert zur Visualisierung. Wer das dann liest, ist wieder ein anderes Thema. Aber ich glaube, da muss ganz klar, jetzt auch nicht negativ im Sinne von, ich mache da so einen Negativstempel KI generiert drauf, das ist wieder der falsche Ansatz. Weil es hat ja hier und da seine Berechtigung. Aber zumindest sagen, okay, das ist nicht real. So positiv oder sachlich formuliert. Schwieriger ist, glaube ich, der Teil, wenn man wirklich Bilder einkauft oder Nachrichten einkauft, das zu hinterfragen. Ich glaube, da hilft wirklich nur, dass man, was wir vorhin ja schon mal hatten, vielleicht einfach ein Set an Nachrichtenagenturen weltweit hat oder, Bildagenturen auch, die ganz klar sagen, okay, diese Bilder sind zumindest so weit, wie es geht, überprüft, indem ich halt das Bild nicht rauchlade und nehme und auch nicht gucke, es ist schon auf Facebook, Instagram, sondern wirklich hinterfrage. Da können natürlich ganz neue Es geht ja auch viel um, nimmt KI-Jobs weg, aber da könnten auch neue Jobs entstehen, indem ich einfach sage, okay, ich muss viel mehr in die Recherche investieren, wenn ich Nachrichten und Bilder einkaufe. Also ich glaube, da ist mir die Verantwortung, als ob vielleicht die Lokalzeitung jetzt mal was generiert. Sie sollte es draufschreiben. Der Versuch wird wahrscheinlich sehr groß sein. Aber Sachen wirklich zu überprüfen, das ist die große Aufgabe. Und da wird man vielleicht auch mal Techniken entwickeln. Aber ich glaube, da kommen wir einfach nicht drum herum, seriöse Nachrichtenkanäle zu entwickeln, die auch definitiv dann seriös bleiben und das entsprechend nachweisen können. In welcher Rolle siehst du da die Kamerahersteller selber, dass da vielleicht schon angesetzt wird? Da gibt es ja jetzt auch schon entsprechende Maßnahmen oder von Seiten der Kamerahersteller, dass man sich da auf verschiedene oder unterschiedliche Zertifikate dann einigt, einen einheitlichen Standard schafft, der Bilder schon so einen Stempel gibt. Ja, den finde ich absolut wichtig, gerade eben für Journalismus und für den Privatanwender oder sowas, dann ist das relativ irrelevant. Wie gesagt, wir hatten es ja, Social Media will eigentlich letztendlich, ist den Leuten es egal, ob das jetzt echt oder nicht echt ist oder größtenteils. Aber gerade für diese seriösen Nachrichtenkanäle, da ist es sicherlich ein sehr, sehr gutes Mittel, wenn ich sagen kann, okay, ich habe da, ich glaube CAI ist da, glaube ich, oder so eins der Standards, die da gerade schon entwickelt wurden, dass die einfach gerade bei den Journalisten dann vor Ort zum Einsatz kommen. Muss man halt gucken, dass sie dann auch wirklich überall und bezahlbar implementiert werden, weil ich meine, klar, der National Geographic Fotograf, der hat die Kamera und der kann sich das leisten, aber der kleine Lokalreporter jetzt in Indonesien, der vor Ort unterwegs ist, wie er den Aufstand von, keine Ahnung, wem, Film fotografiert und der das vielleicht nur mit seinem Smartphone macht, da muss man gucken, dass man diejenigen auch mit solchen. Kameramodellen oder zumindest mit solchen Zertifikaten ausstattet, dass auch da eben die Echtheit nachgewiesen werden kann. Oder andersrum, wenn halt Leute Bilder hochladen, die das Label nicht haben, das zumindestens Kennzeichen sagen, das musst du überprüfen. Das kann legal sein, aber ist eben nicht mit einem Tool gemacht, was die Echtheit garantiert. Aber die wenigsten Nachrichten passieren halt in Deutschland. Deswegen ist diese Initiative, weil sie ist ja auch weltweit, aber sie muss halt auch dahin kommen, wo dann wirklich die Nachrichten entstehen und gemacht werden. Ja. Adrian, du hast schon gesagt, was das Prompten angeht. Da ist es auch hilfreich, wenn man sich mit fotografischen Themen auskennt. Also schon eine Voraussetzung, um entsprechend dann eben auch Bilder zu generieren. In der Fotografie ist ja häufig die oder eins der Herausforderungen, so eine Bildsprache, eine eigene Bildsprache, einen eigenen Stil zu entwickeln. Übertragen auf die KI, wie gelingt einem das da, auch so einen Stil zu entwickeln, was die eigenen Bilder angeht, die man damit erstellt? Das geht mittlerweile sogar erstaunlich einfach. Mit Journey zum Beispiel hat ein Tool oder ein Parameter, der nennt sich tatsächlich Personalize. Da bewertet man Bilder, wie sie einem gefallen und anhand dessen bekommt man seinen eigenpersönlichen Stil. Also jeder, der quasi diesen P-Parameter nutzt, der bekommt die Bilder in einer Sprache, die ihm gefallen. Ich kann weitere Bilder dann bewerten und sowas und kann den Stil dadurch auch verfeinern. Also da habe ich tatsächlich was und das funktioniert wirklich erstaunlich gut. Also bei mir genutzt, bei anderen genutzt, das ist tatsächlich, entspricht so ein bisschen demjenigen oder kann man schon sagen, okay, das passt eigentlich zu dem, wenn ich ihn als Fotograf schon kenne oder was er sonst an Bilder macht. Das ist das eine. Man kann natürlich ein bisschen den Stil, den man hat, auch prompten. Also ich meine, ich bin jetzt kein Sonnenuntergangs- und strahlendes Licht. Ich habe es halt lieber ein bisschen dramatischer. Also prompte ich natürlich vielleicht auch mit dramatische Schatten, hohe Kontraste. Also das, wie ich visuell unterwegs bin, kann ich auch prompten. Und ich kann mittlerweile sogar Bilder als Vorlage mitgeben. Wenn ich also sage, das ist jetzt der Stil, den ich gerne hätte, dann gebe ich das als visuelle Vorlage mit und dann kann das Bild entsprechend, sieht dann auch so aus. Also man hat durchaus, das ist ein sehr, sehr wichtiges Thema, weil das ja ist, was einen als Fotograf tatsächlich ausmacht. Es gibt ja keine größere Ehre, als einer sagt, guck mal, das ist ein klarer Rohnfelder oder das ist ein klarer XYZ. Ich meine, dann hat man was richtig gemacht. Ja, wie gesagt, mit der Mischung aus persönlichen Stil, Stilreferenzen und dem richtigen Prompten, kenne ich auch einige Fotografen, wo ich mittlerweile selbst beim KI-Bild erkenne, okay, das war derjenige. Also geht definitiv und ist auch wichtig, dass es geht. Klar, auch wenn ich in Richtung denke, ich habe ein Corporate Branding, ich möchte eine Bildsprache machen, die einfach in einem Corporate-Stil ist oder im Farbstil. Da gibt es mittlerweile relativ viele Tools, dass ich das auch tatsächlich machen kann. Ja, jetzt oute ich mich komplett als jemand, der noch nie mit Journey aufgemacht hat, sich damit beschäftigt hat. Du hast eben angedeutet, also es gibt auch die Möglichkeit, durchaus die Programme mit eigenen Bildern so auf die Spur zu bringen, was für ein fotografischer Stil dahinter steckt. Und die Algorithmen sind, ja, soweit ich das verstanden habe, eben ja auch so über Jahre trainiert worden aus Bildern aus verschiedenen Quellen, das Wissen gezogen, um eben jetzt diese Leistung zu erbringen. Gibt es auch die Möglichkeit, komplett, sagen wir mal, ein eigenes Bildarchiv hochzuladen und die KI wirklich nur auf Basis von diesen Bildern zu trainieren und daraus den eigenen Stil zu entwickeln oder nachzustellen? Also da sind wir dann wieder bei Stability, Fusion und Flux. Da hast du tatsächlich die Möglichkeit, so wie ich mich selber trainiert habe, kann ich mir auch Bildstile trainieren. Genau das, was du sagst. Ich nehme Bilder, die mir gefallen, Stil, der passt, trainiere den und packe den dann in meinen Workflow mit rein. Wie gesagt, das ist ein bisschen komplizierter, weil man sich da Workflows macht. Aber da kann ich dann sagen, okay, ich kann dann sogar unterschiedliche Bildstile. Ich kann sagen, das ist vielleicht mein Porträtstil, das ist vielleicht mein Landschaftsstil und den kann ich tatsächlich trainieren, unternehmen. Wie gesagt, da bin ich eben wieder im Corporate Design. Ich kann sagen. Das ist einfach die Bildsprache der Firma. Damit trainiere ich das Modell und dann kommt alles das, was ich generiere, auch in dieser Bildsprache raus. Geht, ist noch ein bisschen aufwendiger, aber da würde ich schätzen, ich habe schon die ersten Sachen gesehen, ein halbes Jahr, dann ist dieses Training für jedermann einfach zugänglich. Ja, die Entwicklung geht da so rasend schnell voran. Also die Sprünge, die werden immer schneller in kürzeren Intervallen erfolgen. Also ich glaube da... Ja, können wir uns vieles vielleicht schon vorstellen, aber da wird noch einiges kommen. Ein Thema ist, die KI wird ja nicht nur dazu eingesetzt, um Bilder zu generieren, sondern kann auch auf vielfältige Art und Weise im Workflow eingesetzt werden in anderen Bereichen. Also wenn man sich jetzt anschaut, was alles schon für KI in Lightroom drin steckt. Ich kann meinen Bildkatalog verschlagworten mit KI. KI erkennt bestimmte Motive. Also da gibt es ja vielfältige Anwendungsbereiche von KI. Lass uns darüber mal sprechen. Was ist so aus deiner Sicht da, was uns Fotografen das Leben doch deutlich einfacher machen kann? Also ich glaube gerade das Thema Workflow in dem Bereich Fotografen, aber auch in sonstigen Workflows im Unternehmen ist eigentlich der fast spannendere Teil als dieser kleine Teil der Bildgenerierung. Weil das, was du ansprichst, ist, wenn man überlegt, ich bin ja zum Glück kein Porträtfotograf und musste noch nie manuell irgendwelche Haare freistellen. Aber mit allen, die man spricht, die das früher manuell machen mussten, die saßen dann, keine Ahnung, mal einen Tag dran, bis dann wirklich das letzte Haar im Detail freigestellt war für einen anderen Hintergrund. Dieser intelligente Zauberstab von Photoshop, das ist verblüffend. Ja, da klicke ich einmal drauf, sage Hintergrund freistellen und habe das im allerlegsten Detail. Also ich kann sehr, sehr viele Aufgaben an die KI delegieren, die zeitaufwendig sind, aber eigentlich ja nichts mit meinem Business zu tun habe. Wenn ich ein tolles Bild fotografiert habe, das ist mein Job. Ich verkaufe das Bild. Das Bild dann irgendwie zu bearbeiten, schöner zu machen, aufzubereiten, vielleicht noch einen Text dafür zu schreiben, Captions zu schreiben. Das ist zwar alles notwendig, aber damit verdiene ich ja kein Geld. Und da sehe ich die KI tatsächlich als sehr, sehr großes, hilfreiches Tool, um einfach zu sagen, all diese Aufgaben, die administrativ sind, nenne ich sie mal, wenn ich die damit vereinfachen kann, dann habe ich deutlich mehr Zeit dafür, Sachen zu machen, die auch wirklich Geld bringen. Das ist die Bildbearbeitung, die Bildsortierung. Es gibt damit aber ein Tool, das auch, wir hatten es ja gerade vom eigenen Stil, dass in Lightroom den Stil lernt, wie man Bilder bearbeitet und den automatisch auf neue Bilder anwendet. Aber auch im Bereich, ich habe jetzt gestern einfach mal gespielt, ein Bild bei Instagram, ein KI-Bild, gesagt, schreibt mir doch mal einen Text und die Hashtags. So, da kam ein Text raus, der war echt witzig, wäre cool, der wäre mir selber nie eingefallen. Ich meine, ich bin jetzt keiner, der auf Hashtags guckt, ob die jetzt gut oder schlecht sind, aber die sahen alle nicht schlecht aus. Ich konnte das Ding nehmen, hochladen und fertig war das Ganze, wo ich mir sonst vielleicht echt am Text überlege und ich könnte es rein theoretisch dann noch auf Französisch, Spanisch, Deutsch übersetzen lassen. Also das ist tatsächlich der Teil in Redaktionen. Wir hatten es ja nicht nur von Redaktionen. Da kann ich die Texterstellung einfach machen, die Automatisierung. Ich kann sagen, ich schreibe jetzt mal einen Text und den lasse ich mir jetzt automatisiert einmal als Social Media Post umbauen, als Blogbeitrag auf meiner Seite, als E-Mail, als Newsletter. Also da kommt immer mehr, wo ich sage, also wer sich vielleicht sagt, Bildgenerierung kann ich verstehen, wenn der eine oder andere sagt, ich möchte mich dagegen entscheiden. Bei den Tools ist es tatsächlich so, dass einem das so viel Arbeit abnimmt und teilweise auch wirklich qualitativ besser ist. Aber immer ganz, ganz wichtig, die Endkontrolle muss man schon auch selber haben. Also ich würde jetzt keinen Text an irgendeine Zeitschrift schicken und sagen, KI raus. Ich lese die alle selber, auch die Posts und korrigiere nochmal, aber trotzdem ist der Aufwand zu sagen, schreib mir das Ganze mal oder Photoshop, mach das mal mit Pinsel. Natürlich gucke ich dann noch, ob vielleicht ein Detail nicht passt, aber das ist vom Gesamtzeitaufwand deutlich geringer, als wenn ich das wirklich alles ohne KI-gestützte Tools machen müsste. Ja. Wie groß siehst du die Gefahr darin, diese ganzen Algorithmen sind ja trainiert, mit Dingen, die wir geliefert haben, die es sich irgendwo gezogen hat. Aber wenn es irgendwann mal soweit ist, dass gar nicht mehr so viel Neues dazukommt, mit dem wir die KI trainieren und Dinge einfach nur noch recycelt werden und neu aufbereitet werden, ist das etwas, was passiert? ja. Passieren kann oder denke ich da in die falsche Richtung? Nein, nein, grundsätzlich denkst du da in die richtige Richtung, weil wenn ich nicht mehr fotografiere, nur noch KI generiere, dann habe ich natürlich weniger Trainingsmaterial. Und es ist schon nachgewiesen worden, dass wenn ich eine KI mit KI trainiere, dann kommt irgendwann sogar Murks bei raus. Auf der anderen Seite, ich habe mich ein bisschen als Glück, ein Freund von mir ist bei Aleph Alpha, das ist also die deutsche KI-Firma, die in Sprachmodellen unterwegs ist. Und da habe ich gelernt, dass das, was die neuen Modelle eigentlich besser macht, sind nicht die Algorithmen, sondern die Trainingsmethoden. Das heißt, ich kann weiterhin die gleichen Trainingsdaten verwenden, aber kann meine Modelle mit den gleichen Trainingsdaten besser trainieren. Also solange wir noch an den Trainingsmethoden feilen können und die immer weiter verbessern, reichen die Trainingsdaten durchaus aus und die Modelle werden immer, immer besser. Ja, wir müssen natürlich nur anfangen, dass die Modelle auch irgendwann eben nicht anfangen, sich mit Texten zu generieren. Ich meine, noch schwieriger sehe ich es nicht im Bild, sondern im Sprachbereich, weil mittlerweile ist ja, keine Ahnung, die Hälfte des Internets oder großer Teil ist KI generiert. Da ist es gut. Es war vorher viel Murks dabei, aber da ist jetzt auch eben noch viel Murks dabei. Also da muss man aufpassen. Aber wie gesagt, ich glaube, da kann man die Trainingsmethoden so anpassen, dass die Gefahr einfach minimiert werden kann. Und wie sieht es bei dir selber aus, um nochmal zu deiner eigenen Fotografie zurückzukehren? Wie oft und wie gerne nimmst du selbst die Kamera jetzt noch in die Hand, auch wenn du unterwegs bist, auch reisen? Also ich habe ja schon vorher eigentlich tatsächlich nur fotografiert, wenn ich auf Reisen bin. Also meine Motive sind weit weg. Also es war noch niemand, der gesagt hat, ich gehe jetzt mal raus in den Wald, fotografiere vielleicht mal die Sterne oder ein Planet um die Ecke. Also insofern hat sich das dann mal auf mein tägliches Fotografieren nicht großartig ausgewirkt, weil ich fotografiere ja eh nicht so viel. Ich habe aber tatsächlich jetzt, die letzte Reise ist jetzt wirklich ein Jahr her und die nächste wird auch wahrscheinlich erst in einem Jahr wieder passieren. Also da habe ich mir selbst mal gesagt, okay, ich investiere jetzt einfach mal in dieses neuen Geschäftszweig und fokussiere mich eben darauf und mache keine weiteren fotografischen Projekte, was mich natürlich, Familienurlaub ein bisschen und so, da bin ich tatsächlich selbst immer so ein bisschen am Struggeln, vermisse ich das jetzt wirklich, vermisse ich das nicht? Also das Reisen vermisse ich definitiv, das Fotografieren. Also ich glaube, wenn ich wieder unterwegs bin, werde ich nicht ohne Kamera sein können. Das konnte ich noch nie, das wird nicht sein. Aber es wird, ich glaube, wirklich ein bisschen eine andere Art von Fotografie, dass ich eben wirklich noch vielleicht mehr für mich fotografiere oder mehr eine Geschichte, was wahrscheinlich sogar meine Fotografie ein bisschen besser macht oder nicht besser oder anders, weil du kennst das ja, man ist auf dem Projekt. Es gibt Motive, die muss man halt fotografieren. Die würde man vielleicht selbst nicht fotografieren, aber die gehören dazu. Und dadurch fallen vielleicht andere runter. Also dieses Erleben-Part und meine Erlebnis fotografieren, das bleibt definitiv. Ist aber tatsächlich gerade etwas runtergeschraubt. Und ich gebe hier und da mal einen Workshop noch. Und tatsächlich habe ich demnächst mal wieder einen Vortrag. Aber das sind eigentlich Ausnahmeerscheinungen, weil ich einfach sage, okay, ich investiere jetzt einfach mal 100 Prozent da rein und sehe da für mich persönlich einfach die größere Zukunft, Geld zu verdienen, als jetzt mit der Art von Fotografie, wie ich sie betrieben habe. Ja. Eins würde mich noch zu dem Thema Prompt interessieren, beziehungsweise lass uns da nochmal bei bleiben. Das ist ja wirklich ganz zentral, um eben gute Ergebnisse zu erzielen bei der KI-Generierung von Bildern. Für jemanden, der sich da noch nicht intensiv mit beschäftigt hat, worauf kommt es in erster Linie an beim richtigen Prompten? Also zum einen wird das Prompten immer einfacher, da die Modelle immer bessere normale Sprache verstehen. Also ich muss nicht mehr mit irgendwelchen Trigger-Words arbeiten und sonst irgendwas, um Fotorealismus rauszubekommen, sondern ich mache ein Bild und das kommt fotorealistisch raus. Das Wesentliche, das Wichtige beim Prompten ist, dass ich das, was ich möchte, auch so formuliere. Also ganz einfaches Beispiel. Ich mache jetzt ein Prompt und sage Portrait of a Man. So, dann bekommst du das Bild eines Mannes. Und wenn ich jetzt dich frage und alle anderen frage, wie sieht das Bild aus, dann kriege ich irgendwie 100 Leute fragen, 100 Antworten. So, also, wenn ich aber sage, ich hätte gern einen Mann mit kurzen schwarzen Haaren, er soll eine Brille aufhaben, er soll einen Bart haben, dann bekomme ich schon viel mehr das, was ich vielleicht im Kopf habe und was auch andere sehen. Und das ist aus meiner Sicht das, was ich auch in meinen Kursen immer wieder sage, beschreibt so weit wie möglich im Detail, was ihr möchtet. Und zwar auch wirklich sachlich, weil wenn ich jetzt prompte, ich hätte gern einen mystischen Wald. Was ist ein mystischer Wald? Mit Journey interpretiert das irgendwie auf ganz vielen Bildern von ganz vielen Leuten, die mystisch anders interpretieren. Für den einen ist es Nebel, für den anderen ist es Glühn, für den nächsten ist es keine Ahnung was. Wenn ich mir also unter mystisch etwas vorstelle, dass es glühende Pilze hat, dann prompte ich nicht einen mystischen Wald, dann prompte ich einen Wald mit glühenden Pilzen. Ich kann irgendwann anfangen natürlich mit Adjektiven zu arbeiten und die Prompts oder die Programme können immer besser assoziieren, wenn ich, sagen wir mal, ein bisschen Atmosphäre beschreibe. Aber in dem Augenblick, wo ich einfach das Bild dann nicht mehr das ist, was ich gerne hätte, da gehe ich wieder zurück und beschreibe es, wie ich es vielleicht auch versuchen würde, keine Ahnung, Phantomzeichner beschreiben oder wenn ich, ich mache JetGPT immer ganz spannend, wenn ich mir Bilder oder Sachen beschreiben lasse, sage ich immer, beschreib mir das, wie du das einer binden Person beschreiben würdest. Und dann muss ich eben ganz genau auch da sagen, das ist grün, der Mann guckt grimmig und nicht irgendwie, das ist eine düstere Atmosphäre. Und das ist eigentlich das Kerngeheimnis des Promptens. Ja, ganz spannend. Also, dass man da dann auch nochmal lernt, genauer hinzuschauen und auch sich zu überlegen, wie formuliere ich präzise? Weil häufig sind wir ja, wir verstehen uns, aber manchmal gibt es eben so Bereiche, die eigentlich, wenn man genau darüber nachdenkt, sehr schwammig bleiben, wo man nicht präzise ist. Aber ja, dieses Prompten ist dann eben ein Bereich, in dem es wirklich auf Details ankommt und die Dinge genau zu durchdenken, um da die Ergebnisse zu erzielen. Das ist wirklich manchmal schwierig, wenn ich merke das mir selber. Ich habe ein Bild im Kopf, das ist ja ein Bild, das ist kein Text, das ist so ein vages Bild. Und wenn ich dann anfangen muss, das zu beschreiben, boah, da stehe ich manchmal und denke, wie bitte schreibst du das jetzt? Also wie ist das jetzt? Ja, neulich hatte ich, weiß ich, war einer gefragt, so ein Rehmbrandbild und da sollte ein Foto entstehen, was eine Person in dem Bild sieht. So, und dann habe ich das erstmal versucht, auch JGPT zu fragen, was könnte der sehen? Und dann war irgendwie, derjenige lehnte an wie an seinem Vater, guckte nach oben und sah das Gesicht dann von seinem Vater nur und so ein bisschen Stoff. Aber beschreibt das mal ein Prompt. Also ich hatte immer den Mann drauf und die Person, aber nie wirklich den Blick. Und da habe ich gedacht, das ist manchmal, also manchmal ist es echt, also vielleicht keiner eine, das ist besser als der andere, aber schon schwierig. Aber gut, wenn man dann eben das Ergebnis nicht hat, muss man halt tatsächlich nochmal in sich gehen, drüber nachdenken, sagen, okay, wie beschreibe ich das jetzt mit Worten eben so, dass es jemanden versteht, der blind ist, der das gar nicht kennt, weil das ist am Ende vom Tag her ein Bildgenerator. Er kennt das nicht. Er weiß auch nicht. Und das ist das Wichtige ist, Mejourney und die anderen, die wissen ja nicht, was ich möchte. Also wenn ich sage, deswegen gibt es auch immer komische Hände, komische Handpositionen, weil Mejourney weiß, wie eine Hand aussieht, aber nicht, was eine Hand ist. Ich kann also nicht erkennen, ob die komisch vom Körper hängt oder so, oder vielleicht ganz komisch greift, weil die Hand an sich ist eine Hand, wie sie aussieht. Aber kein Mensch kann eine Hand so bewegen. Aber Midjourney weiß ja nicht, dass es eine Hand ist. Und da muss ich immer dran denken, ich spreche mit jemandem, der nicht weiß, was das ist, der nur weiß, wie es aussieht. Und so muss ich auch prompten. Ja, das Beispiel der Hand, das wird ja immer häufig angeführt, wenn es eben darum geht, was die KI noch nicht so gut kann. Wie hat sich das entwickelt in den vergangenen Monaten? Also es wird natürlich immer besser und die Trefferquote wird immer größer, aber es ist echt noch auch sehr viel dabei, wo man sagt, gewisse Tools haben die Möglichkeit, das zu reparieren. Dann kann ich den Bereich markieren und sagen, generiere den einfach nochmal. Irgendwann kommt eine gescheite Hand bei raus. Also das wird durchaus besser. Woran die Bildgeneratoren tatsächlich noch scheitern, ist zählen. Also zu sagen, ich hätte gern drei Paar Hände, funktioniert auf gar keinen Fall. Und warum auch immer. Aber man kann natürlich drei, also ich erkläre mir das so, was ist drei visualisiert? Auch da ist es ja wieder mit Journey. Weißt ja nicht, dass zwei mehr ist als eins und drei mehr, sondern es weiß nur, wie sieht drei aus. Also das kann auch von dem Funktionsweise nicht funktionieren. Und was auch nicht geht, ist räumliche Anordnung. Aber auch da ist, wie bringe ich denn jemanden, der ist auch wieder der Blinde, der nichts sehen kann, bei, was ist vorne, was ist hinten? Wie beschreibe ich vorne, hinten? Ja, ich beschreibe, er steht davor. Ja gut, ich kann sagen, er steht da und der andere steht so, dass ich ihn nicht mehr sehe. Aber da komme ich schon sehr schnell in eine prompten, Also, das sind wirklich die Sachen, wo ich mir wünsche, wenn einer fragt, was hättest du gerne, hätte ich gerne ein Tool, in dem ich meine Motive aktiv im Bild positionieren kann. Das ist quasi der Schritt, der aus meiner Sicht wirklich noch fehlt, zu sagen, ich kann die Anzahl wirklich genauer bestimmen und ich kann Bildgestaltung machen, indem ich über irgendwelche Drag-and-Drop oder irgendwas Bild machen kann. Weil entweder lernen die Bildprogramme tatsächlich das zu verstehen, mit Sprachmodellen unterstützt, oder ich muss ihnen andere Möglichkeiten geben. Aber wie gesagt, wie beschreibe ich vorne? Mhm. Also das, was wir, ich meine, Fotografie ist zweidimensional auch, aber es gibt ja Techniken und Möglichkeiten, da eine gewisse Tiefe in die Bilder reinzubringen über die Komposition und über die Bildgestaltung. Aktuell ist es so, dass KI-Bilder dann noch ein bisschen doch deutlich flacher daherkommen in der Wirkung? Ja, zumindest ist es mir deutlich schwerer. Ich kann schon sagen, im Vordergrund, im Hintergrund, das funktioniert meistens ganz gut. Aber es ist wirklich das genauso positionieren, wie ich es gerne hätte. Also ich kann einen Gegenstand, eine Landschaft, die kann ich im Detail beschreiben und dann bekomme ich die auch. Aber genau eine Staffelung von Ebenen geht natürlich, aber sehr limitiert und hat deutlich größere Fehlversuche. Genau dann und dann auch noch, dass die Größenverhältnisse passen. Ja, dass ich wirklich sage, der Stein im Vordergrund ist genauso groß, wie wenn ich mit der Kamera nah dran wäre und dann ist der Hintergrund kleiner. Es wird besser, aber das ist tatsächlich noch eine relativ große Herausforderung. Mhm. Wie bringst du dir Prompten bei? Also einmal, klar, hast du schon beschrieben, es gilt möglichst präzise zu sein und man ist wahrscheinlich auch viel Trial and Error dabei, dass man schaut, was dann eben dabei rauskommt. Gibt es andere Quellen, gibt es Foren, in denen du dich auch austauschst mit anderen, um da weiterzukommen? Also wie gesagt, auf LinkedIn treibe ich mich relativ viel rum und da habe ich mittlerweile ein ganz gutes Netzwerk weltweit, wo halt jeder mal Tipps teilt und da lese ich relativ viel, weil doch der eine oder andere immer ganz gute Prompting-Tipps hat. Also das ist so meine Quelle, wo ich mich eigentlich informiere. Und was ich sehr gerne mache, auch vielen einfach empfehle, eigentlich haben alle dieser Bild-KI-Anbieter und mittlerweile auch die Video-Anbieter so einen öffentlichen Stream, wo die Bilder hochgeladen werden. Und da kann ich mir den Prompt dazu immer anschauen. Also da gehe ich tatsächlich regelmäßig mal durch den Journey Explore-Stream und gucke mir einfach Bilder, wo ich sage, ach, das ist ja interessant, wüsste ich vielleicht zuerst nicht oder ich würde es so prompten, gucke ich mir an, wie das dann gepromptet ist. Ganz häufig hat der Prompt nichts mit dem Bild zu tun. Ja, also ganz viel ist eben nicht klar beschrieben. Und das Bild sieht zwar gut aus, aber ich glaube nicht, dass derjenige, der das gepromptet hat, wollte das. Auch ganz interessant. Aber manchmal sind auch technische Sachen dabei, wo ich sage, merke ich mir, notiere ich mir, probiere ich dann aus. Also wie gesagt, das meiste ist eigentlich Trial and Error. Und es gibt auch nicht diesen einen Prompting-Tipp. Also kurz oder langer Prompt ist auch egal. Ein kurzer Prompt kann genauso ein gutes Ergebnis geben wie ein langer Prompt. Dann ist es manchmal nur ein Wort in der Reihenfolge ausgetauscht oder ob ich das Wort beautiful oder elegant nutze. Also da muss man die Mechanisten ein bisschen kennen. Wie gesagt, da informiere ich mich ein bisschen LinkedIn und probiere einfach ganz viel rum. Da mich zu verfeinern, mit dem Nachteil, dass jede Version, die rauskommt, wieder ein anderes Prompting-Schema hat und dann fängt man eigentlich wieder von vorne anders zu lernen. Ja, manchmal kommen, kann ich mir vorstellen, da auch ganz lustige Dinge dabei raus, wenn man den Prompt oder den Auftrag nicht genau genug formuliert hat an das Tool. Ist dir das mal passiert? Kommen dir da zwei, drei Beispiele in den Sinn, wo es mal irgendwie ganz anders war, als du dir das vorgestellt hast? Also ich habe ein Beispiel, ich mag das Bild total gerne, totaler Quatsch. Da habe ich gepromptet oder eine Serie gemacht, dass prominente Personen einen Dinosaurier als Haustier haben. Das hat meistens ganz gut funktioniert. und da habe ich einmal gepromptet. Ich glaube irgendwie, Schauspielerin läuft über den roten Teppich und hat einen Dino-Velociraptor an der Leine. Also auf dem Bild ist dann der rote Teppich ist da, die Schauspielerin ist da, sie hat allerdings einen Dino-Körper, hat eine Leine, an dem vor ihr ein Dino-Kopf schwebt. Also es sind tatsächlich alles, was ich gepromptet habe, ist drauf, aber eben, Völlig wir durcheinander. Es ist wirklich ein witziges Bild und wenn ich es so prompten wollte, würde ich es wahrscheinlich nicht hinkriegen. Aber das ist das, was mir am allermeisten hängen geblieben ist. Manchmal gibt es öfters mal, dass gerade mit Personen, dass die irgendwie dann mit irgendwas zusammen gemixt werden oder plötzlich was im Bild ist und sagt, hat gar nichts damit zu tun. Aber wie gesagt, dieses eine Beispiel ist so mein Lieblingsbeispiel für, er hat eigentlich gemacht, was ich gesagt habe, aber doch nicht so ganz. Adrian, ich glaube, wir haben viele Facetten hier angesprochen rund um das Thema KI, einen schönen Einblick gegeben, was dieses Thema so spannend und so wichtig auch macht. Chancen und Risiken haben wir beleuchtet. Abschließend, wenn du in die Glaskugel mal schaust, was ist das, was sich für dich so, ich glaube mit langfristigen Prognosen ist es sehr, sehr schwer, so in den nächsten Monaten oder im nächsten Jahr sich für dich abzeichnet. Was wird in diesem Zeitraum noch auf uns zukommen? Also ich glaube, dass die Akzeptanz mit der Zeit einfach steigen wird, weil es immer mehr Leute oder Firmen auch nutzen werden und mir damit immer weniger drumherum kommt. Grundsätzlich glaube ich tatsächlich, dass das Thema Video das ist, was als allernächstes wirklich auch von vielen genutzt werden wird. Gerade heute gesehen CapCut ist ja so eine Schnittsoftware, die glaube ich ganz viele TikToker so nutzen, hat jetzt auch einen Videogenerator vorgestellt. Also ich glaube, dass man Videos mit sich selber macht, dass man in die Richtung geht, dass ich vielleicht die nächste oder übernächste Netflix-Serie selber da die Hauptperson bin. Also ich glaube, in dem Bereich wird es im Bereich Bild und Video, alles was Bild zu tun hat, wird es sehr, sehr stark eigentlich fast vielleicht den Großteil irgendwann ausmachen und wirklich mal das bisherige Handwerk ersetzen. Und ansonsten bin ich mir sicher, dass es im Bereich Alltag die KI im Sinne von Kommunikation, Bots, Kundenservice einfach immer mehr Einzug hält, weil das Use Cases sind, wie wir es vorhin kurz hatten, die einfach. Ich hoffe nicht, dass die Firmen das dann nutzen, um Leute zu entlassen, sondern ich hoffe einfach oder ich kenne einige Beispiele, die machen genau das, die machen das, um dann quasi qualitativ bessere Produkte oder andere Produkte anzubieten und einfach sich mehr zu fokussieren Und ich denke, dass wir tatsächlich im Bereich Physik, Chemie, vielleicht auch Umwelt, Energie, wie kann ich vielleicht Batterien entwickeln, die auch endlich mal lange speichern. Also ich glaube, dass wir da Unterstützung und Sachen entwickeln werden, die uns tatsächlich auch deutlich nach vorne bringen. Ja, wird vieles kommen. Wir warten ab und ich kann mir vorstellen, dass es da draußen auch ganz, ganz viele Fragen, noch weitere Fragen gibt rund um das Thema KI. Adrian, wenn es okay ist für dich, dann würde ich mal hier einen Aufruf starten. Dann alle, die noch eine Frage haben, mailt sie mir gerne an info at gate7.de. Gate7 ausgeschrieben nicht als Zahl oder auf anderem Wege über Social Media in den Shownotes auch nochmal der Kontakt. Und dann sammeln wir mal so ein bisschen und dann würde ich dir die Fragen mal zukommen lassen und dann schauen wir mal, wie wir sie beantworten. Jetzt nach dem Neustart von Gate7 hat sich das Format ja auch ein bisschen geändert. Neben den Interviews wie diesen gibt es dann ein Format oder eine Folge, die so ein bisschen bunter gestaltet ist mit anderen Formaten. Und da ist dann vielleicht auch die Möglichkeit, dass du vielleicht per Sprachnachricht oder per Mini-Interview dann da drin nochmal drauf Bezug nimmst auf diese Fragen, dass wir dann dieses Thema noch ein bisschen ausweiten und dranbleiben können, weil das ist auf jeden Fall etwas, was gekommen ist, um zu bleiben. Ja, also sehr, sehr gerne. Also da stehe ich auch für jede Art von Beantwortung dann zur Verfügung, weil mir ist es auch einfach ein Anliegen, dass da ein Verständnis geschaffen wird, ein Bewusstsein geschaffen wird, wie man das nutzen kann, wo die Risiken sind. Also von daher stehe ich da sehr, sehr gerne für Fragen in jede Art von jede Richtung bereit. Ja, freue ich mich drauf. Super, vielen, vielen Dank an dich, Adrian. Die Anlaufstelle, um mehr über dich zu erfahren, deine Webseite rohenfelder.de gibt es da und dann auch noch das andere Projekt, was du gemeinsam mit Andreas Jürgensen machst. Magst du da nochmal die Webadresse geben? Die ist ai-image-lab.de, also Image für das englische Bild und Lab wie Lab. Aber ich denke, du wirst es wahrscheinlich auch in den Shownotes nochmal verlinken. Wer das jetzt nicht verstanden hat, kann da nochmal schauen. Ja, alle klickbaren Links natürlich dann wie immer auch in den Shownotes im Podcast Player oder auf der Webseite. Wunderbar, vielen, vielen Dank, Adrian. Auch ich habe heute wieder sehr, sehr viel gelernt. Das ist ja das Tolle an diesem Podcast, habe es eingangs schon gesagt. Ich habe ja hier das Privileg, mir dann auch die Themen und die Gäste so einzuladen, dass ich dann über Themen sprechen kann, in denen ich auch noch nicht ganz so Firmen bin. Das ist dann auch für die Abwechslung immer wieder spannend und heute war auf jeden Fall mal wieder einer dieser Momente und ich schaue, ob ich jetzt auch mal einen Blick in MidJourney reinwerfe und da mal ein bisschen mit rumspiele. Mal sehen. Ja, und ich danke dir für die Möglichkeit, hier auch in dem Rahmen da nochmal drüber zu plaudern, ein bisschen zu sprechen. Hat mir sehr viel Spaß gemacht. Und genau, vielleicht gibt es in irgendeiner Form da ein Follow-up, wenn die hoffentlich oder ich denke mal genug Fragen zu dem Thema sind. Ganz bestimmt. Das wiederholen wir auf jeden Fall. Vielen Dank, Adrian. Und ja, weiterhin alles Gute für deine Projekte. Viel Erfolg und auf bald. Ja, danke dir. Und ich sage auch, bis zum nächsten Mal. Danke, Kai. Tschüss. Tschüss. Music.