Silicon Weekly

Silicon Weekly

Conni and The Velvet Sundown

KI in Kunst, Musik und Film

17.07.2025 52 min Silicon Weekly

Zusammenfassung & Show Notes

Diesmal ist die Episode mal wieder stark durch KI geprägt, aber wir werfen einen Blick auf ein Feld, in dem gerade extrem viel passiert und bei dem wir uns spannende Fragen stellen müssen. Die Rede ist von KI in Kunst, Musik und Film, denn immer häufiger kommt auch dort Künstliche Intelligenz zum Einsatz. Oft leicht zu erkennen, aber nicht selten auch ohne das ihr es mitbekommt. Folgt uns in die Welt von Conni-Memes und künstlicher Country-Songs.

Links zur Episode
Kontakt
Schreibt uns gerne entweder bei Instagram oder schickt uns ganz klassisch eine Mail an post@silicon-weekly.de

Transkript

Ein kräftiges Hallo und herzlich Willkommen hier bei Silicon Weekly. Heute wieder mal aus dem Süden Deutschlands mir zugeschaltet ist die...
Elli
00:00:43
Elli, hallo!
Caspar
00:00:45
Und nicht weit weg von hier, fast ein Steinwurf in Hannover sitzt.
Stella
00:00:49
Stella, guten Tag!
Caspar
00:00:51
Guten Tag und ich, Caspar, bin auch aus Hannover zugeschaltet. Schön, dass ihr uns eingeschaltet habt, wo auch immer ihr uns hört. Ob im Urlaub, weil die Sommerurlaubsferiensaison geht ja langsam los. Oder ob ihr vielleicht auf dem Weg zur Arbeit pendelt, dann kann man nur sagen, haltet durch. Die Bahn ist zumindest ein bisschen leerer als sonst. Bei mir ist es zumindest so. Das ist ja vielleicht auch ganz schön insofern. Aber trotzdem, danke, dass ihr bei uns eingeschaltet habt.
Stella
00:01:15
Vielleicht ist das ein guter Hinweis. Schreibt uns doch mal wieder, wo ihr so unterwegs seid. Ihr könnt uns einfach bei Instagram schreiben. At Silicon, ich meine unterstriche weekly, aber wir schreiben es auch nochmal in die Shownotes. Und dann schreibt uns doch mal, ob ihr uns gerade, weiß ich nicht, auf den sonnigen Kanaren hört oder jetzt muss mir irgendein kalter Ort einfallen.
Elli
00:01:36
Der Süden Deutschlands gerade.
Caspar
00:01:39
Oder ob ihr uns aus Bayern hört im Eisigen.
Elli
00:01:43
Ja, ich weiß, dass hier einige Leute aus Bayern zu hören. Genau, aber ihr könnt uns übrigens auch per Mail schreiben, wenn ihr nicht bei Instagram seid oder sein wollt oder wie auch immer, dann könnt ihr uns auch per Mail. Unsere Faxnummer geht auch immer noch.
Caspar
00:01:56
Ja, die muss man sich nur aus einer alten Folge raussuchen, weil Ich habe die nicht parat. Ich wurde die neulich schon mal gefragt, ob ich die noch hätte. Die ist in der Folge, ich weiß nicht mal mehr in welche, aber da nennen wir sie und da steht sie auch in den Shownotes, also wenn es unbedingt ein Fax sein muss.
Stella
00:02:10
Wir schreiben vielleicht lieber die E-Mail in die Shownotes. Was haben wir denn heute für euch? Es gibt wieder ganz klassisch Updates.
Caspar
00:02:17
Ein WTF. Diesmal wieder.
Stella
00:02:19
Natürlich die gute Nachricht und einen ganz besonderen Input, auf den ich mich sehr freue.
Caspar
00:02:23
Ja, ihr könnt euch schon mal ein bisschen auf Conny vorbereiten und auf The Velvet Sundown, das klingt, Conny und The Velvet Sundown, das klingt wie eine Konzertveranstaltung. Es geht um Musik, es geht aber nicht um Konzert, aber da kommen wir gleich noch zu. Wir fangen erstmal mit den Updates an, unserem kleinen Blick zurück auf Themen, wo sich Neuigkeiten ergeben haben.
Elli
00:02:47
Update. Ich habe euch was mitgebracht und zwar zwei Updates, aber ich muss kurz noch einwerfen. Conny and the Velvet Sundown. Das klingt für mich wie so Conny, die einen neuen Cocktail entdeckt hat und am nächsten Tag ganz furchtbar Kopfschmerzen hat.
Caspar
00:03:02
Oh ja.
Elli
00:03:02
The Velvet Sundown klingt für mich wie so ein Getränk.
Stella
00:03:07
Für mich klingt das wie eine Folge über einen Roadtrip. Auch schön. Das hatte ich jetzt so im Kopf.
Caspar
00:03:14
Ja, es ist eine Projektionsfläche, aber die werden wir uns dann gleich beim Input genauer angucken.
Elli
00:03:20
Wenn The Velvet Thundown ein Cocktail wäre, dann hätte er wahrscheinlich eine Wikipedia-Seite, würde ich mal sagen. Und das bringt uns zu unserem ersten Update. Wir haben ja in den vergangenen Wochen immer wieder über Wikipedia gesprochen und auch über eine Analyse der Frankfurter Allgemeinen Sonntagszeitung, die ergeben hat, viele Wikipedia-Seiten sind veraltet und oder enthalten falsche Informationen. Wikipedia hat sich diesen Artikel natürlich auch durchgelesen, beziehungsweise die Community aus Freiwilligen, die ja an Wikipedia arbeitet. Und man hat darauf reagiert und ist sich dabei irgendwie so ziemlich selbsttreu geblieben, würde ich sagen. Die Community hat sich nämlich drangemacht, diese Liste, die die FAS erstellt hat mit den Fehlern und den Falschinformationen und veraltet und so weiter, in Wikipedia zu übertragen. Dann gab es dazu Spalten und dann wurde abgearbeitet. Und da wurde akribisch geguckt, wo kommt der Fehler her, was ist wo durcheinander geraten, gab es da einen Dreher drin, gab es da ein Missverständnis und man sieht das, man kann das ganz gut nachvollziehen, es gibt Kommentator bzw. Prüfer 1 und Prüfer 2, also es haben auch immer zwei Leute drüber geguckt und da entbrennt teilweise eine rege Diskussion, wie denn da dieser Fehler passieren konnte und zustande gekommen ist und so weiter und so fort und am Ende gibt es in dieser ganzen, Tabelle natürlich auch ein Spältchen, wo dann drin steht, erledigt und wenn man das alles durchdiskutiert und berichtigt hat, Dann konnte man da einen Haken setzen. Fand ich sehr spannend, ist natürlich ganz in Wikipedia-Manier, alles wird sehr transparent diskutiert und auch eben überarbeitet und tatsächlich hat ein Kollege von Netzpolitik sich das mal genauer angeguckt, der hat dazu beschrieben, am Sonntagabend, 6. Juli, waren die meisten der gröberen Schnitzer bereits ausgebügelt. Also, das ging relativ flott, dass sich da diese Tabelle vorgeknöpft wurde und dann hat man gesagt, gut. Lässt sich ja alles regeln. Und das fand ich irgendwie ganz witzig.
Caspar
00:05:22
Ja, ist tatsächlich sehr gut. Typisch Wikipedia schnell reagiert. Die gröbsten Schnitzer ausgebügelt. Das ist fast eine Überleitung zum zweiten Update. Wir hatten hier ja auch mal über die App zum Melden von Funklöchern berichtet und die Aktionswoche, die es im Mai gegeben hat, nicht geben sollte, sondern tatsächlich gegeben hat. Auch ich habe daran teilgenommen und zwischen Hannover und Bremen versucht, zwei Funklöcher zu melden. Ich hoffe, sie sind angekommen. Ich war nicht alleine bei der Aktion, denn inzwischen gibt es jetzt eine Auswertung von dieser Mobilfunk-Messwoche und mehr als 150.000 Menschen haben laut Bundesnetzagentur daran teilgenommen. Wichtig, den kompletten Überblick über Deutschland haben diese Messpunkte natürlich nicht ergeben. 150.000 Menschen reichen dafür nicht aus, aber es ist zumindest mal ein Ansatz. Immerhin 16 Prozent der Bundesfläche konnten durch die so 150.000 Menschen erfasst werden und eine Auswertung gibt es natürlich auch von den Daten und besonders schlecht ist das Status Quo der Netzabdeckung laut Auswertung wohl in Baden-Württemberg und Rheinland-Pfalz. Es gibt aber auch im Harz, wo Elli ja auch vor kurzem Wandern war, ein paar Teilbereiche, wo wenig Empfang ist. Ich weiß nicht, ob sich das mit deiner Beobachtung deckt. Es gibt noch Wittenberg, Stendal und in diesen Bereichen soll es auch größere Lücken geben.
Stella
00:06:38
Gibt es denn da auch eine Konklusio draus? Also jetzt hat man das Ganze erhoben und nun?
Elli
00:06:43
Ja, tatsächlich ist jetzt die Idee, dass man das Ganze ausweiten möchte, um da noch ein besseres Bild davon zu bekommen. Also diese Aktionswoche wird es vielleicht auch noch das ein oder andere Mal in Wiederholung geben, vielleicht noch breiter gestreut, vielleicht noch mehr Öffentlichkeitsarbeit, keine Ahnung, weil ich bin ehrlich, wenn ich nicht den Podcast hier machen würde, ich hätte es nicht mitbekommen. Von daher könnte man da, Vielleicht mal Anregung an die zuständigen Ministerien und so weiter. Genau, aber die Idee ist, dass das nochmal wiederholt wird und man sich da immer mehr quasi durch die Funklöcher der Bundesrepublik durchfräsen möchte.
Caspar
00:07:18
Ja, und dann sagen wir euch natürlich Bescheid, dann könnt ihr auch nochmal teilnehmen und dann sind es ja vielleicht mehr als 150.000 und mehr als 16 Prozent der Bundesrepublik. Weil ich glaube, da sind doch ein paar Funklöcher vielleicht noch nicht entdeckt worden, aber das sehen wir.
Elli
00:07:30
Ich habe auch so den Eindruck.
Caspar
00:07:31
Gut, dann würde ich sagen, soweit ist es mit den Updates durch. Wir haben letzte Woche kein WTF gehabt, dafür haben wir diese Woche ein umso Größeres mitgebracht.
Stella
00:07:46
Caspar, danke für diese Überleitung. Also dieses WTF, das trifft wirklich an mehreren Stellen zu. Ihr werdet es jetzt auch gleich hören, woran das liegt. Also, es geht um X. Ihr kennt vielleicht die Plattform noch unter Twitter. Allerdings gehört sie jetzt schon länger zu Elon Musk und seit März 2025 zu Musk's KI-Unternehmen XAI. Und um XAI, beziehungsweise genauer um den KI-Chatbot GROC, der dazu gehört, geht es jetzt auch primär in diesem WTF. Der wird wiederum automatisch auf X eingesetzt und das Ganze funktioniert eben so, dass beispielsweise Nutzer in Grog taggen können, wenn sie einen Tweet oder Seed oder ich weiß noch, wir haben mal darüber diskutiert, wie man das Ganze denn nun nennt. Also ein Posting auf der Plattform absetzen und dann kann Grog eben sich automatisch quasi in diesen Thread mit einmischen und da entsprechend kommentieren. Und in der vergangenen Woche, am 8. Juli, da ist er mit antisemitischen und rechtsextremen Äußerungen auf der Plattform aufgefallen.
Elli
00:08:48
Wer uns schon länger hört, weiß, das ist nicht das erste Mal. Wir hatten das Thema schon mal hier im WTF, meine ich auch. Ja, es ist, ups, he did it again, würde ich mal sagen. Aber mal zurück zu dem, was jetzt passiert ist. Was genau war da los?
Stella
00:09:05
Was genau? Ich werde jetzt bewusst nicht zitieren, was auf dieser Plattform erschienen ist, weil wir einfach diesen antisemitischen, rassistischen Äußerungen jetzt nicht noch zusätzlich Reichweite geben wollen. An der Stelle eine kleine Podcast-Empfehlung und zwar die Kollegen von, wie das klingt, die KollegInnen von The Journal, vom Wall Street Journal, die haben dazu eine Podcast-Folge gemacht und den Link findet ihr in den Shownotes. Aber unter anderem, grob zusammengefasst, hat Grog Adolf Hitler verherrlicht, was selbst, der hat sich dann auch via X erstmal rechtfertigt und zwischenzeitlich wurde auch Grog abgeschaltet und die Posts wurden auch gelöscht. Was man dazu sagen muss, Grog hat eben auf Postings von NutzerInnen reagiert, die laut Wall Street Journal das Ganze auch herausgefordert haben. Übrigens, auch wenn Grog quasi abgeschaltet wurde, im privaten Chat konnten NutzerInnen die ganze Zeit auf diesen Chatbot eben zugreifen.
Elli
00:09:59
Ich erinnere mich an den Vorfall im Mai, da gab es dann mehr oder weniger glaubwürdige Statements von XAI. Haben wir denn diesmal auch was von der Firma hinter dem Chatbot zu hören bekommen?
Caspar
00:10:11
Ja, haben wir. Genauer gesagt, am Samstag vergangene Woche war es dann tatsächlich soweit, am 12. Juli. Da gab es dann ein offizielles Statement von XAI und da hat sich das Unternehmen dann auch auf dem eigenen X-Profil für Grog entschuldigt und auch ist ein bisschen auf die angeblichen Gründe eingegangen. Es sei unter anderem daran gelegen, dass es eine teils falsche Programmierung der KI gegeben hätte, so wie Softwareanpassung. Das klingt ein bisschen so wie das, was wir im Mai schon gehört haben. Und der Spiegel unter anderem zitiert, die Grog-Macherinnen und Macher, dass die Programmierung so eingestellt sei, dass Grog keine Angst davor habe, politisch korrekte Leute zu schockieren. Also so nach dem Motto, liebe KI, du darfst auch gerne mal anecken, so ein bisschen nach dem Motto. Und außerdem habe ein Update an Grog zu einer Code-Änderung geführt, wodurch der Chatbot anfälliger auf extremistische Beiträge reagiert hätte.
Elli
00:11:10
Komisch, komisch.
Stella
00:11:11
Ja, es geht aber noch weiter in diesem WTF rund um Grog. Das US-amerikanische Medium TechCrunch hat nämlich berichtet, dass in dieser Programmierung in der jüngsten Version, die auch kurioserweise genau in dem Zeitraum dann auch erschienen ist, das Ganze noch weitergeht. Weil in dieser jüngst vorgestellten Version 4 von Grog gibt es tatsächlich Hinweise laut TechCrunch, dass Grog sich sehr an den, sagen wir mal, Werten und Ansichten von Musk orientiert, wie TechCrunch das ermittelt haben möchte. Sie haben eben geschaut, wie der KI-Chatbot auf seine Antworten kommt. Jetzt mal kurzer Tech-Drive, wie kann man sowas nachschauen? Das geht mit dem ganzen Chain-of-Thoughts-Prinzip. Und da werden quasi die einzelnen Schritte einer KI bis zu ihrem Ergebnis nachvollzogen. Also, da sieht man quasi, stellt euch das mal vor, wie kennt ihr noch von früher, von dem Matheunterricht, diese Bäume, wo es immer weiter ging? Mit Punkt 1, dann hat er sich aufgeteilt in zwei Richtungen. So könnt ihr euch das ganz grob vorstellen. Das ist zumindest immer ein guter Hinweis, wie dieses System funktioniert. Und bei Grock soll es eben laut TechCrunch in ihrem Test so gewesen sein, dass Musk-Sicht auf das Thema US-Immigration besonders gesucht worden sei. Also das noch mal zum Hintergrund. Jetzt muss man aber auch sagen, dass das ja quasi nicht die Version ist, um die es jetzt in diesem jüngsten X-Vorfall geht. Nur um das einmal klarzustellen.
Elli
00:12:36
Und beim Thema Versionen, da ist eh irgendwas durcheinander geraten, habe ich so den Eindruck. Wir erinnern uns, es gab diesen rassistischen Ausfall und Musk hat eine Änderung von System-Promts angekündigt, vier Tage vorher. Aber... Jetzt muss man dazu sagen, der Chatbot, der eben diese rassistischen und antisemitischen Inhalte produziert hat, das war eine Version, die noch nicht diese Änderungen enthalten haben soll, also die Vorgängerversion quasi. Irgendwie blickt man da auch nicht mehr ganz so wirklich durch, habe ich das Gefühl.
Caspar
00:13:15
Ja, und ich finde auch immer so lustig, dass X sich dann äußert und sagt, ja, das liegt daran, dass jemand was am Code geändert hat, obwohl der Chef kurz vorher angekündigt hat, dass jemand was am Code ändern wird. Also das ist immer so ein bisschen so Henne-Ei-Prinzip und irgendwie, ja, also vor allem, ich finde es halt auch so, Elon Musk fällt ja gerne mal durch solche Äußerungen auf und wenn er sagt, er möchte, dass der Chatbot eher so funktioniert und dann funktioniert er so, ist das irgendwie auch keine so richtige Überraschung.
Stella
00:13:42
Ich möchte an den Fall vor über einem Jahr erinnern, wo er auch ein großes Problem damit hatte, dass der US-Präsident damals noch Joe Biden mehr, ich glaube, Likes und Reichweite bei X bekommt als er selbst. Das soll ja dann im Nachgang auch durch die EntwicklerInnen eben entsprechend angepasst worden sein. Also, dass wohl dieser Code sehr an seinen Interessen ausgelegt wird, da gab es schon mehrere Hinweise drauf. Übrigens, um dieses WTF noch ein bisschen abzurunden, ich habe noch was mitgebracht. Bei X gibt es mir jetzt nämlich auch so, ich nenne es jetzt mal umstrittene KI-Figuren, also Avatare, die eben auch mit Grog zusammenhängen. Und Tecrunch hat da einen Test gemacht, wie ich fand es sehr erschreckend. Also das eine ist eher so ein Not-safe-for-work-Ding quasi, was da rausgebracht wurde im Test. Und das andere ist ein Fuchs. wenn ich das jetzt, weiß jetzt nicht, wie ich das vernünftig zitieren kann, der kein Problem hat, über Gewalt an Kindern zu fantasieren und das sehr deutlich.
Caspar
00:14:43
Ja, also Moral von der Geschichte, um das WTF so ein bisschen abzurunden, auch bei Grog vielleicht vorsichtig sein, generell sowieso bei KI-Modellen ja vorsichtig sein, was die antworten, aber Grog, sehen wir, ist einfach inzwischen, einfach dreht am Rad, weil die Macherinnen das so wollen.
Elli
00:15:00
Und wenn jemand mit euch über X und die KIs, die es da so gibt, spricht und da ganz von überzeugt ist, dann wisst ihr jetzt vielleicht den ein oder anderen Artikel, den ihr da an der Stelle nochmal rausholen und zitieren könnt.
Stella
00:15:15
Links in den Shownotes und bitte, also vielleicht an der Stelle, das zeigt finde ich auch nochmal, wie sehr diese Chatbots eben von Programmierung abhängig sind und wie leicht die sich ändern lassen und wie kurzfristig. Also bitte behaltet das auch immer bei der KI-Netzung im Hinterkopf.
Elli
00:15:31
Das war jetzt ein sehr, sehr ernstes Thema. Es bleibt auch ernst, aber irgendwie zumindest der Anfang von unserem Input, finde ich, ist so ein bisschen erfrischend. Ich hatte da jetzt Lust drauf.
Caspar
00:15:43
Ja, und ich wollte gerade sagen, lasst uns vielleicht das Thema KI mal zumachen, aber das können wir gar nicht, was unser Input auch damit zu tun hat. Aber immerhin geht es auch ein bisschen um Kunst, versprochen.
Stella
00:15:58
Ich muss sagen, für mich ist das jetzt ein sehr emotionales Thema, weil ich diese Bücher, diese Pixie-Bücher als Kind, ich sehe sie vor mir, ich hätte sie raussuchen müssen, ob sie noch irgendwo in irgendeiner Ecke vielleicht da sind. Ich habe sie geliebt. Es geht um Conny. Und ich würde behaupten, Conny hat mit diesem ganzen Conny traut sich was, Conny geht zum Zahnarzt. Weiß ich noch, habe ich damals als Kind vom Zahnarztbesuch geschenkt bekommen. Das hat wirklich geholfen. Also Conny ist für mich so eine kleine Legende.
Elli
00:16:27
Wir werden jetzt die Conny-Bücher nix sagen. Wir machen mal hier kurz den Rundumschlag. Conny ist eine Bilderbuchreihe vom Carlsen Verlag. PIX, die Bücher hast du schon gesagt, das heißt, das sind sehr kleine Bücher, in denen diese Bilderbücher ursprünglich mal erschienen sind. Mittlerweile gibt es ungefähr alles von Conny, große Bücher, Aufklappbücher, Kassetten hat man heutzutage auch nicht mehr, also Hörspiele gibt es. Ich würde mich wetten trauen, dass es auch irgendwelche Tony-Figuren oder sowas gibt mit Conny. Also es gibt mittlerweile einfach alles. Der Ursprung waren eben diese kleinen, handlichen Bilderbücher, wo dann erklärt wird, wie so Alltagssituationen ablaufen. Ich erinnere mich noch, ich hatte Conny auf dem Reiterhof oder geht auf den Reiterhof. Da durfte sie dann auf dem Pony reiten. Ja, also relativ kindgerecht. Conny ist ein kleines, blondes Mädchen, hat einen Kater namens Mau, soweit ich weiß. Genau, das ist jetzt das Universum, in dem wir uns befinden.
Caspar
00:17:29
Und Conny kennen viele von euch wahrscheinlich und wahrscheinlich seid ihr im Netz auch schon mal über eine Conny-Parodie oder ein Meme oder einen Witz mit Conny irgendwie gestoßen. Das ist nämlich schon seit mehreren Jahren so, spätestens seit Corona ist es losgegangen, dass es immer mal wieder Parodien darauf gab. Da sind dann so Cover mit Conny traut sich dann halt was anderes als normalerweise, also nicht irgendwie auf dem Reiterhof, sondern Conny lässt sich impfen zum Beispiel, weil ich ja Corona schon erwähnt habe. Das kommt dann aber natürlich nicht vom Carlson Verlag, sondern es kommt aus dem Netz und sind Parodien, die die Leute zusammenstellen. Da sind dann so Titel dabei, so in letzter Zeit, Conny hat den Kater ihres Lebens, Conny boxt Elon Musk, was so ein bisschen zu unserem WTF passen würde. Oder ganz frisch aktuell habe ich vor ein paar Tagen gesehen, Conny erschießt einen Wels, was sich auf das Sommerlochtier, den Wels bezieht.
Elli
00:18:23
Ihr seht schon, das Publikum dieser Memes, die jetzt daraus geworden sind, hat sich ein bisschen verschoben. Wir sind jetzt nicht mehr in, wie vom Carlson Verlag angepeilt, der Lebenswelt der drei- bis sechsjährigen Mädchen und Jungen, sondern es geht mehr so in die Erwachsenenrichtung, gerade wenn Conny einen Kater hat, der nicht Mau heißt. Ja, also da hat sich was entwickelt und möglich ist das Ganze. Da sind wir wieder, dank KI.
Caspar
00:18:50
Ja, ihr ahnt es nämlich schon, dass diese ganzen Parodien und auch unser Kapitelcover, wenn ihr eine Podcast-App habt, die das unterstützt, dann seht ihr jetzt während dieses Input-Kapitels auch nicht unser normales Cover, sondern wie Conny diesen Podcast findet. Sie hört ihn nämlich sehr gerne. Das ist natürlich alles KI generiert und in Zeiten von KI ist sowas auch immer häufiger und diese Fake-Cover überschwemmen gerade in letzter Zeit, in den letzten Wochen eigentlich fast schon das Netz. Also es vergeht eigentlich kein Tag, wo mir sowas nicht über die Timeline fliegt.
Stella
00:19:21
Also es stimmt und ich muss jetzt aber auch gestehen, es ist natürlich so, ich habe auch das eine oder andere geliked, was auch meine Lebensrealität in Teilen zeigt. Und es einfach witzig ist, also ich glaube, da hat auch die Generation, die mit Conny aufgewachsen ist, sich jetzt ziemlich viel Spaß erlaubt. Aber du sagst es, das Ganze sind eben Fake-Cover, weil sie nicht offiziell vom Carlsen Verlag sind. Also auch die ganzen Titel nochmal, die Caspar eben zitiert hat, da gibt es nicht wirklich, da gibt es keine Conny-Geschichte, sondern das hat sich jemand ausgedacht und hat dann mit KI im Conny-Look ein Bild generiert. Und das Ganze ist eben nicht nur bei Caspar und mir in der Timeline gelandet, sondern so viral gegangen, dass auch der Carlsen-Verlag dann darauf reagieren musste. Und der hat bei Instagram Stellung bezogen unter dem Motto, Conny will da mal was klarstellen.
Elli
00:20:08
Da sind wir jetzt bei einem Conny-Cover, was dann doch wieder von Carlson kam. Warum muss jetzt aber Conny was klarstellen? Diese Beiträge sind nicht nur witzig oder teilweise halt auch nicht so witzig. Es gab tatsächlich auch Conny-Memes, die dann in eine rechtsradikale oder beleidigende Richtung gingen. Und da hat sich der Carlsen-Verlag gedacht, Moment mal, das findet Conny jetzt aber nicht so gut. Und dementsprechend gab es von Carlsen eine Stellungnahme. Wir haben uns natürlich auch gefragt, als wir jetzt diese Kapitelmarke zum Beispiel für unseren Podcast gemacht haben, darf man denn... Zum Beispiel Werbung machen damit. Wie ist das denn? Und auch darüber hat der Carlsen Verlag im Statement gesprochen. Es ist unter anderem zu lesen, dass man nicht vorhabe, alle Meme-ErstellerInnen zu verklagen, Thema Urheberrecht und so. Aber in bestimmten Fällen will man Menschen dazu auffordern, das jeweilige Meme aus dem Netz zu löschen, eben wenn es sich gerade um menschenverachtende, rassistische, gewaltverherrlichende oder pornografische Darstellungen handelt, bei der die Conny-Figur verwendet wird und auch eine kommerzielle Nutzung. Also wenn wir jetzt zum Beispiel irgendwie Geld verdienen wollen würden mit unserem Conny Cover, das wir erstellt haben, das ist auch nicht im Sinne des Carlson Verlags. Grundsätzlich gegen die ganzen lustigen Hi-Hi-Haha-Memes, die da so rumschwirren, hat man aber nichts. Das ist so die Aussage des Carlson Verlags.
Stella
00:21:39
Jetzt dürft ihr euch zu Recht fragen, Moment mal, das denke ich jetzt aber auch nach einem WTF, das ist der Input. Richtig, weil wir wollen ja heute über KI und Kunst sprechen und genau das ist nur ein Beispiel, was wir heute mitgebracht haben, weil dieser ganze Wandel, den wir gerade durch generative Künstliche Intelligenz, vielleicht auch nochmal wichtig, wir reden hier über generative KI, nicht einfach nur über Künstliche Intelligenz, was dieser Wandel eben mitbringt. Wir hätten hier noch ein musikalisches Beispiel für euch, nämlich vor einigen Tagen hat die Band The Velvet Sundown, ihr erinnert euch an den Titel heute, Conny und The Velvet Sundown, die haben Schlagzeilen gemacht. Das ist eine Band, die hat aktuell monatlich so mehr als 1,3 Millionen Plays bei Spotify.
Caspar
00:22:26
Und ich habe euch den größten Hit dieser Band mal mitgebracht. Der Titel heißt Dust on the Wind und wir hören mal kurz rein. Wir werden nicht den ganzen Song hören, aber zumindest mal zitatmäßig so kurz in den Anfang reinschnuppern. Ich mach das hier mal langsam leiser und mach's auch mal aus. Wie gesagt, wir wollten nur reinhören. Frage an die Runde, vielleicht auch an die Hörerinnen und Hörer, aber auch in erster Linie natürlich an euch beiden, weil ihr mir jetzt antworten könnt. Ja, wie fandet ihr den Anfang von Dust on the Wind?
Stella
00:23:54
Also hat mir schon Roadtrip-Vibes gegeben, muss ich jetzt mal sagen. Ich stelle mir gerade jemanden vor, damit der Gitarre, wie es hier in so einer Wüstenlandschaft steht, hinter ihm rollt so ein Stroh-Heu-Ballengedöns durch die Gegend, Cowboy-Hut auf, die Sonne geht langsam unter, warmes, weiches Licht. Ja, ich glaube aber, ich liege sehr falsch, weil ich glaube, da hat niemand in der Wüste gestanden und gesungen.
Caspar
00:24:21
Ja, da kommen wir gleich zu. Elli?
Elli
00:24:23
Ja, das ist ein Part, den habe ich mir auch gedacht, in dem Moment, als die Singstimme eingesetzt hat. Die hatten mich am Anfang so ein bisschen rumgeeiert. Und ich glaube, wenn das ein menschlicher Take gewesen wäre, dann hätte man das wohl vielleicht nochmal aufgenommen und ein bisschen sauberer angefangen. Aber ich muss auch sagen, der Titel, Dust on the Wind, in meinem Gehirn hat es geklingelt und dann habe ich gestutzt. Und dann dachte ich mir so, Moment mal, irgendwas mit Staub und Wind, das gab es doch schon mal. Richtig, 1977 von Kansas war nur Dust in the Wind und nicht on the Wind. Ich weiß auch nicht, wie man Staub auf den Wind bringen. Naja, ihr seht schon.
Stella
00:25:01
Das ist Poesie, das ist kreativ. Genau, das verstehst du nicht. Das ist Kunst. Das vielleicht jetzt auch nicht aus einem menschlichen Hirn kommt.
Caspar
00:25:09
Genau, das ist diese Kunst. Das ist die Kunst.
Elli
00:25:10
Über die wir jetzt sprechen wollen.
Caspar
00:25:12
Ja, ihr ahnt es schon, weil wir ja schon über Conny und KI und Memes und Fake gesprochen haben, auch diese Band gibt es nicht. Da wäre es bei Zandor, zumindest nicht in echt. Weder die Band ist echt, noch der Song ist echt. Irgendeines der Instrumente, die wir gerade gehört haben, auch die Gesangsstimme nicht. Das ist eine komplett mit verschiedenen KI-Modellen erstellte Band. Auf Spotify gibt es auch Bandcover. Es gibt sogar ein Video zu dem Song. Aber nichts davon ist wirklich echt. Es gibt zwar Menschen dahinter, die das machen. Da werden wir nachher nochmal zukommen. Aber die eigentliche Musik gibt es eben nicht.
Elli
00:25:42
Also wenn ihr uns schon länger hört, dann wisst ihr ja auch, dass das alles nichts Neues ist. Sie haben schon länger über KI-generierte Bücher zum Beispiel, haben wir mal gesprochen im, ich glaube, Sommer vor einem Jahr, haben wir darüber gesprochen über irgendwelche Pilzbücher oder war das vor zwei Jahren, die dann Ess-Empfehlungen geben, die man absolut nicht befolgen sollte. Also KI-generierte Bilder, Videos, Bücher, Musik, das ist nichts Neues. Aber wir merken, es wird immer alltäglicher und wir finden die auch in unserem Alltag immer mehr. Das Ganze wird auch immer einfacher zu erstellen und deswegen haben wir uns mal Conny und The Velvet Sundown rausgepickt, um mal zu gucken, wie ist jetzt gerade die Lage, wie finden wir das so, genau, wo sind wir aktuell?
Caspar
00:26:30
Wir fangen mal mit dem Status Quo an und ich hau direkt einen Spoiler raus. Ihr merkt es schon an den zwei Beispielen und wir haben noch weitere Beispiele dabei. KI wird schon jetzt an immer mehr Stellen verwendet. Einige davon erkennt ihr sofort. Also, dass die Conny-Memes in der Regel wahrscheinlich nicht vom Carlson Verlag sind, das hat man geahnt. Da wäre es Zander und ich muss gestehen, hätte man mir vorgespielt und nichts dazu gesagt. Ich hätte es nicht geahnt. Ich habe mich auch dabei ertappt bei der Vorbereitung, dass ich den Song halt einfach laufen lasse und das ganze Album dann durchlief. Also das kann man wirklich gut so nebenbei hören. Also ich bin einer dieser 1,3 Millionen Plays. Das heißt, nicht immer erkennt man auch sofort die KI. Aber was ganz, ganz klar ist, es wird immer mehr und es wird inzwischen zum Alltag.
Stella
00:27:10
Bevor wir da zu einer These kommen, Caspar, das, was du gerade so im Nebensatz quasi verpackt hast, zeigt übrigens auch sehr gut, KI generiert hat ja manchmal auch den Stempel so, KI generiert gleich schlecht. Wir erinnern uns alle an so ganz komische, wackelige Videos. Ich weiß nicht, ob ihr dieses Beispiel mit Smith kennt, wie er da in Nudeln isst, was sich über die Jahre aber immer weiter verbessert hat. Und der Sinn ist ja, dass uns das immer besser gefällt. Also man kann überhaupt gar nicht sagen, dass es per se schlecht ist und wir es nicht mögen, genauso wie du, Caspar, gerade gesagt hast. Hey, ich habe dann das Album durchgehört. Weil klar, die Leute, die es produzieren, die wollen ja auch nicht was schaffen, was dann kein Mensch mag, sondern es soll ja genau bei uns ankommen.
Elli
00:27:48
Wir haben, also was so Karischrott angeht, da kommen wir in der guten Nachricht noch mal zu. Aber tatsächlich, dass ich das mal in einem Kontext sehen würde, die beiden Dinge, die jetzt zusammenkommen, Hätte ich auch nicht gedacht. Und zwar Thomas Mann und KI. Wo sind wir denn jetzt gelandet?
Caspar
00:28:06
Bei einem weiteren Beispiel, was wir mitgebracht haben, was auch die letzten Tage durch die Medien ging. Und zwar der S. Fischer Verlag. Die haben die Rechte an den Thomas Mann Romanen und die bringen die Reihe neu raus. Soweit noch keine Schlagzeile. Das passiert ja immer mal wieder mal. Dass Klassiker neu aufgelegt werden. Dann gibt es ein neues Cover irgendwie und dann wird es neu verpackt. Und dann wird es halt neu gedruckt, damit die Leute das auch neu kaufen können, falls sie das zum Beispiel noch nicht in ihrem Regal stehen haben, die Bunenbrooks oder was auch immer von Thomas Mann. Und das Ding, warum wir jetzt hier darüber sprechen, ist, der S. Fischer Verlag hat sich diesmal überlegt, okay, wir machen neue Bücher, wir machen alle neu, dann lass doch die Cover diesmal komplett mit KI generieren. Und sie haben auf ihrer Webseite auch ein Interview mit den Macherinnen dahinter geführt und dort wird zitiert, Ich zitiere jetzt mal kurz dieses Interview auf der Seite vom S. Fischer Verlag. Für die zahlreichen Ausgaben der Thomas Mann Reihe galt es Motive zu finden, die sehr spezifische, detailreiche Situationen aus den jeweiligen Geschichten darstellen und zugleich einen stilistischen Zusammenhang erkennen lassen. Passende Motive zu finden, stellte uns vor eine große Herausforderung. Die KI Midjourney hat sich für uns bereits in der Vergangenheit als hilfreiches Tool erwiesen. Sie ermöglicht es sich mehr mit den Motiven, seinen Details, seiner Komposition und dem Stil auseinanderzusetzen, anstatt viel Zeit in eine oft langwierige Bildrecherche zu investieren. Schnell war uns klar, dass wir dieses Tool für diese Buchreihe nutzen möchten. Das lassen wir jetzt so erstmal stehen. Wir kommen gleich noch zu einer Einordnung.
Elli
00:29:34
Auch bei Funk, dem jungen Medienangebot von ARD und ZDF, gibt es KI-generierte Videos. Es gibt zum Beispiel den TikTok-Kanal, der heißt Geschichtskollage. Und da wird zum Beispiel der Mauerfall aus der Sichtweise von einem Grenzer gezeigt. Es ist was, was man früher vielleicht mit SchauspielerInnen gedreht hätte, das hätte dann Drehort gebraucht, mehrere Drehtage gedauert, dann hätte man das dann noch zusammengeschnitten und damit wäre das sehr kostenintensiv gewesen und jetzt denkt man sich halt, gut, das können wir auch mit KI darstellen. Also auch im öffentlich-rechtlichen Rundfunk wird das genutzt für eben entsprechende Dinge, die sonst deutlich aufwendiger und kostenaufwendiger gewesen wären.
Caspar
00:30:19
Nicht nur Funk experimentiert damit, auch Hollywood, beziehungsweise Hollywood ist in dem Fall eine Ortsangabe, die nicht ganz stimmt, wobei man auch in Hollywood mit KI experimentiert, da kommen wir gleich noch zu. In dem Fall geht es jetzt aber kurz nach Südkorea, dort gibt es nämlich ein Produktionsstudio, das eine komplette Animationsserie, also kleine Kurzfilmchen, die sind immer so drei, vier Minuten lang die einzelnen Episoden, auf YouTube veröffentlicht. Sie trägt den Titel Cat Biggie und zeigt die Abenteuer eines Katers und eines kleinen Kükens, das frisch schlüpft und der Kater übernimmt dann so ein bisschen die Aufsicht über dieses Küken. Ist ganz niedlich und auch hier ist es so, natürlich ist diese Serie, weil wir hier in der Sendung drüber sprechen, nicht handgezeichnet oder animiert, sondern komplett durch KI erzeugt. Das sieht man an ein, zwei Stellen, auch wenn man sich die Episoden anguckt. Aber tatsächlich ist es so, Stella, du hast ja schon Will Smith mit seinem Spaghetti angesprochen, die Technik wird immer besser. Vor einem Jahr würde ich tatsächlich einfach mal mich aus dem Fenster lehnen und sagen, wäre die Serie so technisch nicht möglich gewesen. Also auch wenn man an einigen Stellen noch sieht, dass es KI ist, ist es trotzdem relativ beeindruckend. Den Trailer zu der Show verlinken wir euch auch in den Shownotes, dann könnt ihr selber mal reingucken.
Stella
00:31:30
Ich stimme Caspar zu. Also vor einem Jahr wäre das echt nicht drin gewesen mit sehr vielen KI-Tools, die sich rasant und sehr schnell weiterentwickeln.
Elli
00:31:38
Okay, jetzt hatten wir Conny, wir hatten Development Sundown, wir hatten Thomas Mann, wir hatten den öffentlich-rechtlichen Rundfunk bei uns in Deutschland, wir sind dann nach Südkorea gegangen. Ihr seht schon, es ist ein Thema, das ist durchaus allgegenwärtig so global auch, international. Da geht es natürlich jetzt die Frage, es gibt ja meistens zwei Seiten der Medaille und die gucken wir uns heute mal an. Was ist denn der Vorteil daran und wo sehen wir das Ganze aber auch kritisch und wo muss man sich auch vielleicht überlegen, wie es dann am Ende weitergeht?
Stella
00:32:12
Wir fangen jetzt erstmal mit den positiven Aspekten und den Vorteilen an. So quasi die kleine Rubrik pro KI in der Kunst. Man könnte das vielleicht auch so unter den Titel erstmal Demokratisierung der Inhaltserstellung setzen. Also ein Argument nämlich der Befürworter innen generativer künstlicher KI-Modelle ist die Tatsache, dass sie die Erstellung von Inhalten nicht nur langfristig günstiger und schneller machen, sondern sie machen sie eben auch einfacher. Vielleicht da auch nochmal ein Beispiel, wir hatten ja jetzt viel eben aus Verlag, also wo man eben auch sagt, da sind entsprechende Ressourcen da, aber schaut doch einfach mal auf einer Social Media Plattform oder auch bei YouTube, da findet ihr auch von Privatpersonen mittlerweile so viel, also ich kenne zum Beispiel Accounts, die machen auch so Katzenvideos, ganz ähnliches wie jetzt diese Serie aus Südkorea, da gibt es wirklich eine Masse an Inhalten. Die ermöglicht eben zum Beispiel auch Videoinhalte, wie dieses Funkbeispiel zeigt, was früher vielleicht aufgrund von Kosten und Zeit auch gar nicht möglich gewesen wäre. Auch ein einfaches Beispiel für Musik. Früher hättest du einen Gitarrenkoffer gebraucht, für unsere Szene jetzt natürlich auch ein Verstärker, ein großes Kamerateam, Beleuchter. Die Liste ist lang und natürlich auch insgesamt sehr viel Budget, um überhaupt Musik zu machen. Und heute ist es echt so, ein paar Zeilen in Tool reingeben und du hast innerhalb von 30 Sekunden Song. Also ich weiß, Caspar und ich, wir haben das auch beide schon mal ausprobiert. Das geht wirklich schnell, wirklich leicht. Wir können jetzt nochmal darüber reden, wie gut die Ergebnisse sind. Aber ich glaube, wenn man sich reinfuchst und natürlich auch die Modelle möglicherweise im Abo bezieht, ist das in der Regel manchmal ganz überzeugend, wie dieses Velvet-Beispiel zeigt.
Elli
00:33:56
Du hast jetzt schon eine kleine Einschränkung gemacht. Man muss natürlich auch wissen, was man da eingibt. Weil ich habe zum Beispiel schon mal versucht, als ich am Anfang mit JGPT Bilder erzeugen wollte, mein Gott, ist da eine Grütze rausgekommen, weil ich einfach nicht wusste, wie ich das richtig formulieren soll, dass das wirklich passiert, was ich da machen möchte. Also das ist schon was, zum Beispiel diese Conny-Bilder, dafür gibt es auch Ressourcen, wo man dann nachlesen kann, dann so und so muss man das reinschreiben, damit dann dieses Conny-Bild auch wirklich rauskommt. Wenn man das nicht weiß, dann kann man schon auch mal wieder Ochs vorm Berg stehen und nicht weiterkommen. Aber es gibt noch einen Vorteil tatsächlich. Gut, Demokratisierung der Inhaltserstellung, hast du jetzt gesagt, das ist ein großes Wort. Was ich aber auch ganz spannend finde, ist, es gab ja früher viel Stockfotos und Videos. Also so Material, was dann halt als Symbolbild mal hergenommen wurde, aber nicht so ganz 100 Prozent gepasst hat, aber man hatte halt irgendwie auch gerade nichts Besseres.
Stella
00:34:56
Roboterhand, um künstliche Intelligenz zu symbolisieren. Falls ihr euch fragt, was so ein typisches Symbolbild ist.
Caspar
00:35:02
Zum Beispiel.
Elli
00:35:03
Zum Beispiel. Und diese mehr oder weniger passenden Stockbilder, da kann man jetzt natürlich argumentieren, die fallen vielleicht einfach in Zukunft weg und werden durch passenderes Material ersetzt, weil man sich das eben per KI generieren kann. Also die Idee ist da, ja, okay, wir benutzen KI und können uns damit aber einfach Sachen prompten, die einfach besser auf uns zugeschnitten sind noch. Also da nochmal ein Pluspunkt vielleicht.
Stella
00:35:35
Und vielleicht auch beim Thema Kreativität auch durchaus nochmal der Aspekt, du kannst eben auch Sachen schaffen, die es so nicht gibt. Also nicht nur im Zeichentrick, sondern das Ganze wird ja auch immer realistischer unter Umständen, womit wir jetzt durch verschiedene Punkte auch mehr und mehr zum Kontra kommen.
Caspar
00:35:52
Ja, genau. Es gibt nämlich auch natürlich Kritik an der ganzen Entwicklung, auch berechtigterweise. Wir fangen mal mit den KünstlerInnen an, die durchaus jetzt sehen, dass ihre oft sowieso schon nicht gut bezahlte Arbeit jetzt noch mehr gefährdet wird. Bleiben wir beim Thema Musik mal. Stella, du hast es ja gerade schon gesagt, wir haben es auch schon mal ausprobiert, innerhalb von wenigen Sekunden oder Minuten hat man da verbrauchbares Material. Ich glaube, The Velvet Sundown hat wahrscheinlich ein bisschen länger in diese Prompts investiert und es wird auch nicht so innerhalb von 30 Sekunden gewesen sein, aber es wird nicht den Aufwand gehabt haben, den ein Album noch vor ein paar Jahren gebraucht hat. Und so ein Album, wenn man das dann einfach veröffentlicht für 0 Euro, weil man ja auch keine Kosten hatte oder für sagen wir 2, 3 Euro, wie möchte man denn dann noch als echter Musiker, echte Musikerin Geld verdienen und davon leben, wenn man dann ein Album für 30, 40 Euro verkaufen muss, um irgendwie die Einnahmen zu haben. Das trifft natürlich nicht nur auf Musik zu, das trifft auch auf Bilder und Videokünstlerinnen zu. Die sehen nicht ohne Grund da so ein bisschen ihre Fälle wegschwimmen.
Elli
00:36:52
Ich habe übrigens im Zuge der Recherche mich natürlich auch gefragt, was denn zum Beispiel die Schöpferin von Conny eigentlich dazu sagen würde. Und ich habe mal geguckt, wer ist das? Das ist Eva Wenzel-Bürger. Nur leider kann sie, die sich zu den kompletten Memes, die es gibt, nicht mehr äußern. Denn Eva Wenzel-Bürger ist im Januar diesen Jahres kurz vor ihrem 93. Geburtstag verstorben. Also da gibt es keine Konfrontation mehr mit dieser Flut an Conny-Bildern. Wir wissen nicht genau, wie sie es gefunden hätte. Aber du hattest jetzt gerade auch schon über das Geld gesprochen, Caspar. Und das ist natürlich auch ein Aspekt. Nicht nur zum Beispiel IllustratorInnen fürchten an sich um ihre Beschäftigung. Die Frage ist natürlich auch, wenn es immer mehr Inhalte gibt, wie viel ist dann ein einzelner Inhalt wert? und wenn man jetzt zum Beispiel auf Musik guckt, Und überwiegend verdienen dann so große Player wie Spotify vor allem an diesen KI-Songs, die millionenfach aufgerufen werden. Und man weiß ja bei Spotify mittlerweile, dass das ein großer Geldpool ist und da die kleinen KünstlerInnen nicht unbedingt viel abbekommen von.
Stella
00:37:56
Das leitet gut über zum Beispiel auch mit dem S. Fischer Verlag, weil der hatte ja zum Beispiel für die Cover, das ging ja auch um Bildrecherche, aber ging auch um das Design, der hätte auch GrafikerInnen engagieren können, aber hat eben stattdessen auf KI gesetzt, ist einfacher, ist billiger. An der Stelle auch mal, man kann das auch kombinieren. Also sprich ja nichts dagegen, sich Inspiration von künstlicher Intelligenz zu holen und trotzdem noch professionelle GrafikerInnen zu haben, die das Ganze dann eben umsetzen.
Caspar
00:38:24
Ja, eine Kritik an dem Statement von S. Fischer war dann auch im Netz zu lesen, an vielen Stellen, zum Beispiel war das Argument vom S. Fischer Verlag, ja, das sind so vielfältige Motive und das sei so schwer dann da eine Bildrecherche zu machen, also zum Beispiel Tod in Venedig von Thomas Mann, also das Cover, was jetzt dann zu sehen ist, ist eine Gondel, die durch Venedig fährt, künstlerisch abstrahiert, aber das ist etwas, da muss man dann sagen, das hätte man vielleicht auch einem Grafiker oder einer Grafikerin geben können, die hätten das auch hingekriegt. Also das Argument wurde so ein bisschen zerrissen.
Stella
00:38:56
Und auch die Idee ist jetzt ehrlich gesagt nicht überragend.
Caspar
00:39:00
Deswegen, ja. Wenn man es ein bisschen, weil ihr auch gerade schon sagtest, Inspiration holen. Ich habe mal so einen Satz aufgeschrieben, das System frisst seine Mütter und Väter. Das ist jetzt auch ein relativ starkes Statement. Aber was damit gemeint ist, ist natürlich, dass die KI ganz oft trainiert wird mit Inhalten von jemandem. Die ist ja nicht so, dass die aus dem Nichts kommen, diese Inhalte, die die KI generiert, sondern das beruht ja auf Trainingsdaten und da sind wir bei dem ganz großen nächsten Problem. Diese Trainingsdaten müssen irgendwo herkommen und warum kann die KI zum Beispiel Conny so gut kopieren? Naja, vermutlich, weil das ein oder andere oder vielleicht auch alle bisherigen echten Conny-Cover in den Trainingsdaten beinhaltet sind oder waren. Das wissen wir nicht, weil niemand genau weiß, was bei den großen Modellen so zum Training genutzt wird, außer natürlich diejenigen, die die Modelle machen. Dasselbe gilt natürlich nicht nur für Conny, das gilt auch für andere berühmte Comic- und Manga-Stile. Wir hören uns an Studio Ghibli, wie viele Memes da plötzlich auftauchten und wie gut diese KIs es schaffen, Studio Ghibli zu kopieren. Das ist ja nahezu eins zu eins. Das heißt, da wird es sehr, sehr viel in den Trainingsdaten gegeben haben.
Elli
00:40:05
Das Problem, du hattest es jetzt gerade schon angesprochen, irgendwann beißt sich die Katze wahrscheinlich auch in den Schwanz und die KI trainiert sich dann irgendwann nur noch mit ihrem eigenen früher generierten Output, der nicht unbedingt der Beste ist vielleicht. Also das ist schon mal schwierig. Und mir ist noch ein Gedanke gekommen, wenn man jetzt sagt, man weiß nicht, ob zum Beispiel die Conny-Cover ins Training von KIs reingeflossen sind. Man könnte nur überlegen, wie soll die KI da reingekommen sein? Naja, die Dinger werden ja auch online verkauft. Das heißt, jedes Conny-Cover dürfte irgendwo bei Amazon oder im Buchhandel online verkaufen. Und wenn ein KI-Modell nur diese Seiten allein crawlt, dann hat es da schon ganz, ganz, ganz viel Futter, um eben entsprechend dann Bilder daraus zu generieren.
Stella
00:40:53
Das Ganze geht ja so in Richtung der Urheberrechtsdiskussion. Ich glaube, die können wir jetzt nicht ganz aufmachen, weil da fehlt natürlich auch, ich erinnere mich, wir hatten neulich im Update auch das Thema New York Times mit OpenAI-Training. Also auch da bei der Texterstellung, sage ich jetzt mal ganz klassisch, gibt es an vielen Stellen, also eigentlich an allem, was es an Daten im Netz gibt, immer die Frage, hey, ist das ohne Zustimmung der Urheber in diese Trainingsmodelle eingeflossen? Sieht so aus, zeigen zum Beispiel die Conny-Beispiele. Aber das ist, vielleicht müssen wir dazu nochmal einen anderen Input machen, nur dass ihr das zumindest mal gehört habt, dass das natürlich auch dazu gehört. Vielleicht bevor wir auch langsam zum Lösenden und Abschlussteil kommen, weil es gibt ja auch durchaus die ersten Ansätze mit gerade diesem Problem der Trainingsdaten umzugehen. Wir hatten ganz kurz die Stockfotos angesprochen und da kann man jetzt sagen, ja Stockfotos, aber das ist schon eine ganze Industrie, die sich da aufgebaut hat. Also beispielsweise, wenn ihr mal bei Shutterstock guckt, sind ja auch immer die FotografInnen angegeben, die verdienen damit ihr Geld. Und wenn jetzt natürlich jeder sich einfach seine Bilder generiert, dann mag das für denjenigen, der dieses Bild generiert, ganz praktisch sein, bedeutet aber auch, dass die Menschen, die da bei Shutterstock um Aufmerksamkeit kämpfen, ja, noch größere Probleme haben, ihre wirklich fotografierten Bilder loszuwerden. Wobei, da muss man auch sagen, die sind natürlich teilweise auch Grafiken etc. Also bei Shutterstock gibt es ja auch nicht nur echtes Fotomaterial.
Elli
00:42:19
Gleichzeitig kann man an der Stelle sagen, es gibt wahrscheinlich auch Menschen, die sich damit eine neue Einkommensquelle aufbauen, indem sie halt ExpertInnen darin werden, wie man die besten Bilder generieren kann, wie man am besten mit einem KI-Tool spricht quasi, um ein gutes Ergebnis rauszubekommen. Auch das ist eben eine Expertise, die jetzt neu gefragt wird. Ich wäre mal gespannt. Wir haben ja jetzt schon gesagt, es gibt Menschen, die diese Sachen generieren immer noch. Und da haben wir ja vorhin auch schon was zu dieser Band angerissen. Wer steckt denn da nun dahinter?
Caspar
00:42:53
Damit leiten wir zum Schluss über und der großen Frage, ist KI jetzt eigentlich eher eine Bedrohung für Kreativität oder ist sie ein neues Werkzeug? Und wir können direkt schon sagen, wir wissen es nicht, aber vielleicht ist es beides und da passt dann The Velvet Sundown auch wieder ganz gut dazu, die KI-Band, die wir eben schon zum Input angesprochen haben. Und was wir bisher verschwiegen haben, ist, dass diese Band, beziehungsweise die Menschen dahinter, das ist ja keine echte Band, dass die auch ein Statement veröffentlicht haben, was sehr gut das Ganze so ein bisschen abrundet. Die wollen nämlich nicht KünstlerInnen ersetzen mit dem Projekt, das sagen sie ganz klar, sondern sie wollen provozieren, sie wollen ein bisschen aufwecken und aufrütteln und sie wollen zeigen, dass diese Grenze zwischen Mensch und Maschine quasi gerade ein bisschen verschwindet. Wir haben das Statement mal zum Beispiel von Instagram kopiert, das ist auch bei Spotify zu finden, aber wir haben es von Instagram genommen und haben es für euch aus dem Englischen übersetzt und ich lese daraus mal kurz vor. Boah, The Velvet Sundown ist ein synthetisches Musikprojekt, boah, direkt schon Zungenbrecher, das von menschlicher Kreativität geleitet und mit Unterstützung künstlicher Intelligenz komponiert, vertont und visualisiert wird. Das ist kein Trick, es ist ein Spiegel. Eine fortlaufende künstlerische Provokation, die dazu dient, die Grenzen von Autorschaft, Identität und der Zukunft der Musik im Zeitalter der KG herauszufordern. Alle Charaktere, Geschichten, Musikstücke, Stimmen und Texte sind originäre Kreationen, die mithilfe von KI-Tools als kreative Instrumente erschaffen wurden. Nicht ganz Mensch, nicht ganz Maschine. Der Velvet Sundown existiert irgendwo dazwischen. Ja, nicht ganz Mensch, nicht ganz Maschine. Das ist schon fast poetisch.
Elli
00:44:41
Ja, und das spiegelt irgendwie so ein bisschen das, was wir jetzt besprochen haben, wieder. Nicht ganz Mensch, nicht ganz Maschine, irgendwo dazwischen. Es gibt Menschen, die sich diese Conny-Cover zum Beispiel auch ausdenken, die dann irgendeine Situation da drauf packen. Da ist wieder der Faktor Mensch. Was bewegt uns? Was bringen wir mit rein in diese neuen Cover? Gleichzeitig hast du die Maschine, die die Illustration übernimmt. Es ist ein spannendes Dazwischen.
Caspar
00:45:08
Und da stecken wir gerade. Und da gilt es herauszufinden, wie das weitergeht. Wer die Regeln vielleicht auch dafür festlegt, was wir wollen, was wir nicht wollen. Ob wir KI-Musik in Zukunft vielleicht, so wie mir das passiert ist, versehentlich gerne hören. Obwohl wir sagen, wir wollen dann doch lieber bei menschlicher Musik bleiben. Deswegen haben wir hier auch kein abschließendes Fazit für euch, sondern können euch nur immer wieder hier im Podcast auch erzählen, wie der aktuelle Stand ist, euch auf einem Laufenden halten. Und vielleicht sind wir dann irgendwann mal so leid, dass wir ein Fazit zu dem Thema gefunden haben, aber das wird leider noch ein bisschen dauern. Aber ich bin gespannt. Schreibt uns auch gerne, falls ihr irgendwelche Kommentare dazu habt. Falls ihr sagt, ihr hört euch das Album mal an, ihr findet es ganz schrecklich oder ihr findet es großartig. Euch macht es Angst, ihr macht euch Sorgen oder ihr sagt ach, das wird sich schon alles zurecht rückeln. Schreibt uns gerne. Post at silicon-weekly.de.
Stella
00:45:53
Es ist Zeit für die gute Nachricht dieser Folge und wir kommen so langsam also auch zum Abschluss.
Elli
00:46:05
Wir bleiben noch im KI-Kosmos und es ist auch nur eine kleine gute Nachricht, muss ich zugeben, diese Woche. Ich muss sagen, ich weiß nicht, wie es euch geht. Ich bin ziemlich genervt, wenn ich aktuell auf YouTube bin, gerade im Bereich der YouTube-Shorts, also die Kurzvideos, die es bei YouTube gibt, gibt es wirklich viel Müll mittlerweile und ganz, ganz viel davon ist KI generiert. Ich glaube, ich kriege auch teilweise dreimal hinterher den gleichen Bums angezeigt, wo dann ein Typ, dessen Gesichtszüge und Bewegungen nicht zu seiner Stimme passen und dann will er mir irgendwas verkaufen und man merkt einfach ganz, ganz deutlich, dass es KI generiert. Und da hat YouTube jetzt gesagt, ja, wir sehen das, wir wissen, dass ganz viel gerade auf unserer Plattform an Müll unterwegs ist. Man will dagegen jetzt vorgehen. Wie will man das machen? Also, es wird jetzt keine Welle an Inhaltslöschungen geben oder YouTube wird alle KI-generierten Videos direkt sperren. Das nicht. Aber sie haben zumindest mal in Partnerprogrammen angesetzt. Das ist die Sparte von YouTube, wo Videos monetarisiert werden, wo also diejenigen Menschen, die das hochladen, ein bisschen Geld dafür bekommen, wenn zum Beispiel Werbung davor ausgespielt wird. Und in diesem YouTube-Partner-Programm möchte man zukünftig keine Videos mehr und keine Kanäle haben, die eben überwiegend KI-generierten Short-Content produzieren und hochladen. Es gab am Dienstag eine entsprechende Änderung in den Plattform-Richtlinien. Man erklärt dazu, YouTube habe schon immer, Zitat verlangt, dass User originale und authentische Inhalte hochladen. Das ist jetzt mal so dahingestellt, um mit dem Partnerprogramm Geld zu können und jetzt will man eben sicherstellen mit dem Update der Richtlinien, dass Massenproduzierte und sich wiederholende Inhalte besser erkannt werden, genauer definiert wird, wie inauthentische Inhalte aussehen und man möchte damit quasi einfach mal das Ganze noch etwas schärfen und zuschneiden.
Caspar
00:48:16
Ja, ich fand vor allem den Einsatz, den du auch gerade zitiert hast, mit sich wiederholende Inhalte sehr schön. Ich weiß nicht, ob ihr das mitbekommen habt, im Netz gab es ja eine kleine Aufregerwelle rund um Ralf Schumacher, der wissen will, wie viel dein Auto wert ist. Ich sehe schon nickende Gesichter, weil nämlich eine Firma, die Gebrauchtwagen ankauft, mit Ralf Schumacher Werbung macht, das an sich ist ja gar kein Problem, aber diese Werbung ist wohl zigfach und immer wiederholend zum Beispiel bei YouTube ausgespielt worden und im Fernsehen ganz oft und auch in den Social Medias. Oft, dass sie, ich glaube, ähnlich wie die Check24-Werbung immer mal wieder, so oft auch getaucht ist, dass die Leute einfach unglaublich genervt hat und Ralf Schumacher zu so einem kleinen Internet-Meme wurde, weil er überall auftaucht und wissen will, wie viel dein Auto wert ist. Ich denke nicht, dass YouTube das damit meinte, mit sich wiederholenden Inhalten, aber vielleicht sollten sie an der Stelle auch mal aufpassen und solche Inhalte dann auch ein bisschen einschränken.
Elli
00:49:11
Ja, aber das bringt uns quasi schon schließt den Bogen zu den Conny-Memes, mit denen wir beim Input angefangen habe, weil tatsächlich die Ralf-Schumacher-Darstellungen, Ralf Schumacher, wie er irgendwo einem auflauert und fragt, wie viel das Auto wert ist, das ist der zweite große Trend, der aktuell bei mir in meinen Social-Media-Kanälen zu beobachten ist. Einmal Conny und ganz, ganz viel Ralf Schumacher und ich kann es nicht mehr sehen, muss ich sagen.
Caspar
00:49:37
Ja, und dabei ist der Ralf Schumacher nicht mal KI generiert. Die haben wirklich noch eine Kamera genommen und das gedreht. Naja, gut.
Elli
00:49:46
So, wir wollen jetzt nicht wissen, wie viel euer Auto wert ist. Wir können es euch auch nicht sagen, weil wir sind nicht Ralf Schumacher. Aber ich würde sagen, wir haben trotzdem irgendwie hoffentlich ein bisschen Mehrwert mit der heutigen Folge transportiert. Ihr wisst jetzt wieder ein bisschen mehr, was so in diesem Internet abgeht und können mal vielleicht so ein bisschen auch mit uns teilen, wie ihr zu KI-generierten Kunstinhalten steht.
Caspar
00:50:10
Wir haben noch ein Versprechen, wir bleiben menschlich. Das können wir, glaube ich, auch noch sagen.
Stella
00:50:14
Wir werden uns nicht mit Notebook-LM einfach die Podcast-Notizen zum Podcast machen lassen. Ich muss aber sagen, nächste Woche seid ihr nur zu zweit. Ich mache eine Woche Urlaub, aber übernächster Woche, dann sind wir wieder zu dritt.
Caspar
00:50:26
Seid ihr gegönnt. seid ihr gegönnt, dann werden Eddie und ich uns was Schönes raussuchen. Aber dann hörst du uns ja.
Stella
00:50:32
Ich wollte gerade sagen, und zwar außerhalb von Deutschland, dann ich schreibe, ich schreibe unserem Account.
Caspar
00:50:38
Sehr gut. Schreib uns mal, wo du uns hörst.
Elli
00:50:40
Dann breit unsere Statistiken wieder nach oben.
Caspar
00:50:42
Genau. Du hast den Aufruf nur gemacht, weil du selber schon wusstest, du wirst du es mal anders hören.
Stella
00:50:46
Ja, ich glaube, das Land, in das ich reise, haben wir aber schon eine Liste. Also lag tatsächlich nicht daran.
Caspar
00:50:53
In diesem Sinne, den Hörerinnen und Hörern eine schöne Woche. Stella, dir einen schönen Urlaub. Zu zweit hören wir uns nächste Woche und zu dritt dann wieder übernächste Woche.
Stella
00:51:01
Bis dahin. Tschüss.
Elli
00:51:03
Macht es gut. Tschüss.
Caspar
00:51:04
Tschüss.