Silicon Weekly

Silicon Weekly

Newsflash: Von sensibler KI bis Roboter-Antilopen

Ein Nachrichtenüberblick

21.08.2025 54 min

Zusammenfassung & Show Notes

Diese Woche gibt es wieder eine rappelvolle News-Episode. Vom KI-Modell Claude, welches ab sofort toxische Unterhaltungen verlassen kann, über Reddit vs. Internet Archive und ein WTF?! mit Metas extrem seltsamen und verstörenden KI-Richtlinien. Am Ende gibt es aber wie immer eine Gute Nachricht, in der es diesmal um eine Robo-Antilope als Forschungshilfe und Ampelhelfer geht.

Links zur Episode

Transkript

Werbung
00:00:02
Jetzt kommt Werbung. Bevor es mit der Folge losgeht, haben wir noch einen Hörtipp für euch. Bei uns im Podcast gehen wir ja immer ziemlich verbraucher- und anwendungsorientiert an Themen heran. Für alle, die noch mehr in technische Details eintauchen wollen oder vielleicht auch selbst im IT-Bereich arbeiten, gibt es den Engineering-Kiosk. Einmal die Woche schauen dort Andi Grunwald und Wolfgang Gastler auf Themen im Bereich Software Engineering. Damit ihr auch mal ein Einblick bekommt in die Vielfalt vom Engineering Kiosk, haben wir euch zwei Folgenempfehlungen mitgebracht. Mir hat zum Beispiel eine der aktuellsten Episoden gefallen zum Thema IT-Sicherheit und dort geht es unter anderem um Passwordmanager, aber auch um so alltägliche Fragen und Fallen vor allem, in die selbst Techies noch tappen können. Das Coole ist, die beiden reden sehr offen darüber und erzählen auch, wo sie selbst vielleicht zu faul sind, aber auch welche Tools sie nutzen. Und ich mochte die Folge zum Thema Meetings im IT-Arbeitsalltag besonders gerne. Meetings kennen wahrscheinlich die meisten von uns. Meistens hat man auch sehr viele irgendwann ab einem gewissen Punkt. Und in der Folge geht es auch darum, wie man Meetings gestalten kann, aber eben auch, wie man sie vielleicht auch mal vermeiden oder einkürzen kann. Ihr könnt den Podcast fast überall hören und finden, wo es Podcasts gibt. Hört mal rein. Kostet auch nichts und lohnt sich. Den Link findet ihr in unseren Shownotes und jetzt geht's weiter mit Silicon Weekly. Ende der Werbung.
Jingles
00:01:41
Silicon Weekly Der Tech-Podcast mit den wichtigsten News der Woche, Für dich eingeordnet von Elli, Stella und und Caspar.
Caspar
00:02:05
Ein wunderschönes Hallo hier zur Podcast-Episode von Silicon Weekly. Ich bin Caspar und mit mir heute moderiert… Elli.
Elli
00:02:13
Hallo. Ja, eigentlich sind wir zu dritt, aber heute mal zu zweit. Das darf auch mal sein, denn das Ganze ist ja nur unser Hobby. Das sei an der Stelle auch mal gesagt, wer wir sind. Wir sind zwar JournalistInnen, aber wir machen das hier in unserer Freizeit und da darf man sich auch mal eine Auszeit nehmen. Für alle, falls jetzt jemand neu mit dabei ist, hallo, herzlich willkommen. Wir machen einmal in der Woche, gucken wir durch das Internet und schauen, was da so relevant ist, auch so mit Alltagsbezug und kippen das dann hier rein in den Podcast und fassen es für euch zusammen, damit ihr nicht alles auf dem Schirm behalten müsst und die Welt der Nachrichten ist laut und vor allem voll in Zeiten von Globalisierung. Deswegen verknappen wir das alles ein bisschen und erzählen euch so ein bisschen, was die Woche passiert ist. Wenn es ein großes Thema gibt, dann machen wir daraus einen Input. Aber es gibt eben auch so Folgen wie heute, die einfach sehr News- und Update- und Servicehinweis-lastig sind.
Caspar
00:03:14
Das war jetzt ein Hinweis für die Leute, die uns vielleicht zum ersten Mal hören. Es gibt aber Menschen, die uns schon länger hören. Und für die gab es diesmal etwas Besonderes, noch bevor wir überhaupt losgelegt haben. Wir hatten Werbung im Podcast ganz am Anfang. Elli, was war das? Warum haben wir jetzt Werbung?
Elli
00:03:31
Was ist da los? Ja, genau, an die alten Hasen und Häsinnen, die ihr schon seit Jahren, Mehr als in einem Jahr vielleicht verfolgt, wer weiß das schon. Wir wollen ja auch ein bisschen wachsen mit unserem Podcast. Wir freuen uns natürlich, dass ihr uns schon so lange begleitet, aber da dürfen auch gerne immer noch neue Leute dazukommen. Und tatsächlich, da hilft es uns sehr, wenn ihr uns zum Beispiel weiterempfehlt. Kurse gehen auch raus an alle, die schon über Empfehlungen zu uns gekommen sind. Und da haben wir jetzt uns mal zusammengetan mit einem anderen Podcast, dem Engineering Kiosk. Die haben uns empfohlen. Wir haben die empfohlen. Das nennt man im Fachjargon eine Cross-Promotion. Das fließt also kein Geld für, aber eben der gegenseitige Empfehlungsaustausch. Und an der Stelle sei mal Transparenz gesagt, wir hätten das nicht gemacht, wenn wir die Jungs nicht auch tatsächlich sehr gut fänden. Dementsprechend kann man da auch immer ganz gut auswählen, was man macht, aber einfach, um so ein bisschen zu gucken, hey, vielleicht gibt es noch andere Leute, die sich für Tech-Themen interessieren, die unseren Podcast noch nicht kennen oder eben die nach unserem Podcast noch Bock auf mehr haben und dann rüberhüpfen wollen zu den Jungs vom Engineering-Kiosk. Und das war das. So kleine Einblicke hinter die Kulissen kriegt ihr, wie jetzt eben, auch gerne von unserer Seite, einfach damit ihr ein bisschen immer mit dabei seid, wenn wir wachsen, wenn wir uns was Neues überlegen. Und wir haben überlegt, wir nennen das vielleicht Blick hinter die Kulissen oder Maschinenraum. Wir haben noch keinen Jingle dafür.
Caspar
00:05:08
Das Wording überlegen wir uns noch. Ich kann mir vorstellen, dass es jetzt Hörerinnen oder Hörer gibt, die sagen, warte mal, ich höre euch bei Spotify, da höre ich schon Werbung. Das leitet über zu einem ganz kleinen Servicehinweis. Ja, bei Spotify hört ihr Werbung, davon haben wir aber nichts, sondern das ist Werbung, wo Spotify zum einen selber reinschneidet in die Episode, ja teilweise auch mitten in den Satz, was immer so ein bisschen schade ist, aber halt auch die Werbung für sich dann quasi das Geld einheimst. Wir Podcast-Hosts haben nichts davon in der Regel, außer es ist ein Spotify-Exklusive. So, wieso erzähle ich jetzt Spotify und wieso kleiner Service-Hinweis? Ja, bei Spotify steigen die Preise mal wieder und zwar schon ab September.
Elli
00:05:47
Genau, du hast ja gesagt, manche Leute kriegen von Spotify auch Werbung reingespült, wenn sie uns hören. Das betrifft vor allem die UserInnen, die eben keinen Premium-Account haben. Wenn ihr einen Premium-Account habt, dann hört ihr nur die Werbung, die tatsächlich auch zum Beispiel dem Podcast, wo dann die Werbung läuft, zugutekommt. Aber wenn ihr die Gratis-Version nutzt, dann gibt's da Jingle after Jingle und ihr bekommt Werbung um die Ohren gehauen. Und wie du schon gesagt hast, Caspar, bei Spotify tut sich ein bisschen was. Wenn ihr uns also auf Spotify hört, dann gibt's neue Preise. Ihr dürftet in den letzten Tagen eine Mail bekommen haben oder ihr bekommt sie noch, dass es neue Preise gibt. Und dann solltet ihr da natürlich, wenn es nach Spotify geht, im Idealfall zustimmen. Wer nicht zustimmt, der wird nach einer Übergangsfrist automatisch in den kostenlosen Sektor einsortiert und da kommt dann eben die Werbung ins Spiel. Wenn ihr aktuell Spotify Premium benutzt, dann gibt es eine ganz spannende Sache, die mir auch so nicht klar war, bevor wir das recherchiert haben. Mit der Preiserhöhung kostet das aktuelle Premium-Modell 12,99 statt wie bisher 10,99 pro Monat. Und da sind aber dann auch Hörbuchstunden mit inbegriffen. Spotify hat ja seit neuestem auch Hörbücher mit im Sortiment. Und wer jetzt aber sagt, die Hörbücher, die höre ich mir sowieso nicht an, der kann ein neues Modell buchen, das Basic-Premium-Modell. Da gibt es keine Hörbuchstunden und dieser Preis ist dann bei 10,99. Also wie gesagt, wenn ihr die Preiserhöhung nicht mitgehen wollt, aber auch keine Hörbücher braucht auf Spotify, dann könnt ihr euch das mal genauer angucken. Ja, soviel dazu.
Caspar
00:07:31
Und einen kleinen App-Tipp hast du uns noch mitgebracht zum Thema Dialekt. Ich würde es ja übernehmen, aber ich glaube, beim bayerischen Dialekt musst du eher mitmachen.
Elli
00:07:39
Ja, du könntest nur ins österreichische reinrutschen, weil du da mal gelebt hast.
Caspar
00:07:44
Es geht ja nicht um österreichischen Dialekt.
Elli
00:07:49
Ja, also das hier geht raus an alle Menschen, die uns in Bayern hören und in den unterschiedlichsten Regierungsbezirken und mit den unterschiedlichsten Dialekten. Ich habe eine App gefunden im Netz, das fand ich ganz spannend und ich lasse euch die mal da. Die heißt DA-BAY, ja, also D-A-B-A-Y und betrieben wird die von Linguisten der Ludwigs-Maximilians-Universität in München und da geht es um die Erforschung von Dialekt tatsächlich. Einerseits, wie Dialekt verwendet wird, aber auch, wie Menschen mit Dialekt, Wie das so im Alltag läuft für die, also ob die zum Beispiel das Gefühl haben, der klassisches Beispiel, mir wurde in der Grundschule erzählt, wenn ich Dialekt spreche, dann nimmt man mich im Job nicht ernst später. Deswegen spreche ich auch so gestochenes Hochdeutsch, weil das in meiner Generation ganz viel verbreitet war, dieser Glaube quasi. Und da ist jetzt eben so ein bisschen das Ziel, mit dieser App auch zu erforschen, wie fühlen sich Leute, fühlen sich Leute wertgeschätzt, wenn sie Dialekt sprechen auch? Oder haben sie das Gefühl, da reagieren irgendwie Leute blöd drauf? Spannendes Projekt, wenn ihr Spaß habt an Citizen Science, heißt das, also an Forschung mit Integration von BürgerInnen, dann guckt euch die App mal an.
Caspar
00:09:07
So, jetzt hatten wir schon einen App-Tipp. Wir hatten Hinweise zu Spotify-Preisen, aber wir sind noch gar nicht richtig in der ersten Übrück drin. Ich tendiere dazu, das jetzt mal zu ändern. Deswegen, wir legen jetzt wirklich los und kommen dazu, zu den Updates.
Elli
00:09:21
Endlich mal ein Jingle.
Caspar
00:09:23
Ja, endlich. Los geht's.
Jingles
00:09:29
Update.
Caspar
00:09:30
Ja, das erste Update betrifft die USA und TikTok. Ein immer wiederkehrender Fall, den wir hier besprechen. Ein Fall, der uns immer wieder begleitet. Ihr wisst, erst hat Donald Trump sich über TikTok gefreut, weil es ihm im Wahlkampf gehalten hat. Dann hieß es, TikTok solle verboten werden. Dann hieß es, TikTok soll verkauft werden, zumindest der amerikanische Teil, damit das Verbot irgendwie aufgehoben werden soll. und Donald Trump und die US-Regierung haben dieses Verbot, was TikTok drohte, immer wieder nach hinten geschoben. Ja, und jetzt gibt es eine neue, kleine Neuigkeit dazu, ein Update. Denn das Weiße Haus ist jetzt auch ganz offiziell bei TikTok, obwohl es eigentlich halb verboten ist.
Elli
00:10:09
Ja, also während Donald Trump, der ist ja schon lange eben bei TikTok, hat auch über 110 Millionen FollowerInnen dort, Der ist da schon länger mit dabei und jetzt eben auch das Weiße Haus. Donald Trump sucht ja aktuell nach einem Deal mit TikTok, dass man TikTok irgendwie von der chinesischen Mutter an einen US-Konzern irgendwie verkauft, aber so richtig in die Pötte kommt dieser Deal eben nicht. Naja, lehrum larum, aber zumindest ist das Weiße Haus jetzt auf TikTok und ich fand es ganz spannend. Der Handel ist at White House, also at Weißes Haus. Und man will jetzt, Zitat, also indirektes Zitat, kommunizieren, wie es keine andere Regierung zuvor getan habe. So hat das die Trump-Pressesprecherin Caroline Leavitt am Dienstag in einem Statement formuliert. Wir haben das Statement von der Nachrichtenagentur Reuters übernommen.
Caspar
00:11:14
Das erste Video könnt ihr euch direkt auch schon angucken auf dem Account, falls ihr da Lust zu habt. Das ist ein Zusammenschnitt von Trump-Momenten und im Hintergrund hört man dann den Präsident sagen, wie er sagt, ich bin eure Stimme, also ganz volksnah. Gut, apropos USA und volksnah, wir hätten noch ein zweites Update.
Elli
00:11:35
Ja, und da geht es auch um die US-Regierung und um einen alten Bekannten, den ihr hier aus der Sendung auch schon kennt, und zwar um Palantir, die Firma mit der Software Gotham. Gotham ist eine Überwachungs- und Datensammelsoftware, die auch von Sicherheitsbehörden eingesetzt wird. Und jetzt hat sich die Menschenrechtsorganisation Amnesty International geäußert. Die hat nämlich Dokumente des US-Heimatschutzministeriums ausgewertet und zieht folgendes Fazit. Die US-Regierung, so heißt es von Amnesty International, setzt, Zitat, invasive KI-gestützte Überwachungstechnologien ein. Die gezielt Nicht-US-BürgerInnen treffen, darunter Geflüchtete, MigrantInnen und internationale Studierende, die sich gegen Israels Kriegsführung in Gaza und für die Rechte von PalästinenserInnen einsetzen.
Caspar
00:12:28
Genau, die Unternehmen Palantir und Bubble Street verletzen laut Amnesty International ihre menschenrechtliche Verantwortung und auch die UN-Leitprinzipien für Wirtschaft und Menschenrechte. Und Amnesty International fordert in dem Statement, was ganz frisch ist, wenn ihr es hier im Podcast hört, wenige Stunden alt, Amnesty fordert, dass die Behörden bei der Auftragsvergabe in Zukunft sicherstellen sollen, dass Unternehmen, die beauftragt werden, die Menschenrechte achten und keine werkzeugepolitischen Unterdrückungen bereitstellen. Und das ist halt eben auch der Vorwurf, dass das Palantir eben tut. Und warum sagen wir das so nochmal mit den Behörden? Naja, in Deutschland wird Palantir in einigen Polizeibehörden ja auch eingesetzt, um für die Kriminalitätssuche und für die Verbrechensbekämpfung da zu sein. Und eben einer dieser Vorwürfe von NSD International ist, dass bei der Auftragsvergabe da zum Beispiel das Thema Menschenrechte nicht wirklich bedacht wurde.
Elli
00:13:22
Genau, an der Stelle muss man sagen, die Versionen, die in Deutschland eingesetzt werden, sind angepasste Versionen und auch wenn gerade tatsächlich bundesweit geprüft wird, ob so ein Einsatz bundesweit möglich ist von der Gotham Software, ist da noch nichts in Stein gemeißelt. Aber wie gesagt, auch hier gibt es eben Bundesländer, die mit entsprechenden Technologien von Palantir arbeiten. Wenn ihr euch da mehr dazu interessiert, dann hört gerne in die letzten Folgen rein. Da ist Palantir immer wieder schon aufgetaucht.
Caspar
00:13:54
Und die Episode, wo es nur im Input um Palantir hauptsächlich geht, ist die Polizei, dein Freund und Analyst. Da gibt es dann mehr dazu.
Elli
00:14:03
Vielleicht an der Stelle mal gesagt, falls ihr neu hier seid, wir steigen heavy ein diese Woche mit dem Update, mit dem What the Fuck. Versprochen, zum Ende raus gibt es noch ein Gutzeli. Was Schönes. Es bleibt nicht ganz so schwer.
Caspar
00:14:21
Ja, unsere News sind auch ein bisschen lockerer. Wir fangen aber mal mit dem WTF an und das musste diese Woche sein und wir müssen darüber berichten. Ihr werdet gleich auch bemerken, warum. Diese Woche war es nicht, also manchmal fällt es uns schwer, diese Rubrik zu füllen. Die ist ja dafür gedacht, dass es so Momente gibt, wo man was liest und wir selber dann denken WTF oder, also das kann sein, Dinge, die irgendwie grausam sind. Das kann auch etwas sein, wo wir einfach nur skurrilerweise den Kopf schütteln. Diese Woche gab es gleich eigentlich drei, vier, fünf Kandidaten, sage ich mal, die sich für diese Rubrik beworben haben. Ich finde auch, der Gewinner hat in dem Fall tatsächlich die Nase vorne gehabt, aber es gab auch andere Dienste. Die sich weit nach vorne gespielt haben.
Elli
00:15:04
Ja, willst du mal ein, zwei Sachen ganz kurz in ein, zwei Sätzen zusammenfassen, was denn so Anwärter gewesen wären, bevor wir dann zu dem kommen, wo sich mir wirklich der Magen komplett umgedreht hat?
Caspar
00:15:15
Genau, also heiße Kandidaten diese Woche waren unter anderem McDonald's. Die haben nämlich in Japan, beziehungsweise nicht nur McDonald's, auch die Kundinnen von McDonald's. McDonald's hat nämlich in Japan die Happy Meals. Ihr kennt sie alle, da sind ja kleine Spielzeuge für Kinder mit drin in der Regel. Und in Japan hat McDonalds die Happy Meals mit Pokémon-Sammelkarten in Verbindung gebracht, beziehungsweise die waren dort in diesem Happy Meal enthalten. Und diese Pokémon-Sammelkarten, da gibt es eine riesige Fanbase und die Fans von McDonalds beziehungsweise von Pokémon eher haben diese Happy Meals gekauft. Das war ja auch wahrscheinlich die Absicht von McDonalds dahinter. Was sie nicht bedacht hatten, die Fans haben das massenweise gekauft, diese Pokémon-Karten aus den Happy Meals rausgerissen und dass die Lebensmittel, die dann mit in der Happy Meal auch noch mit drin sind, dann einfach weggeschmissen. Das wäre so ein Kandidat gewesen. Wir hätten auch Elon Musk noch zur Wahl stehend gehabt, der nämlich sich mal wieder ungerecht behandelt gefühlt. Und zwar ist, ihr habt das mitbekommen in der vergangenen Woche und in der Woche davor haben wir darüber geredet, OpenAI hat GPT-5 veröffentlicht. Dementsprechend ist es nicht wirklich verwunderlich, dass die OpenAI-Chat-GPT-App in zum Beispiel dem App Store von Apple auf Platz 1 der Download-Charts steht. Das hat Elon Musk nicht so richtig gut gefunden. Er ist seiner Meinung. Dass seine eigene KI zu GROC-KI, dass die oben stehen sollte. Und weil seine Sachen so toll sind und so gut sind, kann das ja eigentlich nicht mit rechten Dingen zugehen. Und deswegen müsste es Schiebung sein. Er würde unfair behandelt werden und er möchte jetzt Apple verklagen. Deswegen, das wäre auch noch ein Kandidat gewesen. Aber den Vogel diese Woche hat schlicht und ergreifend Meta abgeschossen und ja, das haben sie sich verdient.
Elli
00:16:51
Ja, wir hatten es ja vorher schon mal kurz von der Nachrichtenagentur Reuters, da haben wir ein Zitat benutzt und diese Nachrichtenagentur hat ein internes Dokument von Meta zugespielt bekommen. Mehr als 200 Seiten und in diesem Dokument wird geregelt, was die KI-Chatbots von Meta, zum Beispiel auf Facebook, Instagram oder WhatsApp, also wahrscheinlich auch irgendwo in eurem Leben vorhanden, sagen dürfen und was nicht. Jetzt muss man sagen, das ist ein 200 Seiten Wälzer, da hat sich also vermeintlich jemand Gedanken gemacht, abgesegnet wurde dieses Dokument auch von internen JuristInnen, der Metapolitikabteilung, Software Engineers und dem Ethikchef von Meta. Das klingt jetzt eigentlich so, als hätte da wirklich jemand schon mal drauf geguckt und gesagt, das geht, das geht nicht. Aber was in diesem Dokument drin stand, sieht eher anders aus.
Caspar
00:17:50
Denn der Inhalt dieses Regelwerks ist brisant. Wir zählen mal ein paar Dinge auf, die da drinstehen, die Reuters aufgefallen sind, die einfach mal nicht üblicherweise in solchen Regelwerken drinstehen. Das erste Beispiel ist nämlich, dass die Meta-KI laut der Richtlinie romantische oder sinnliche Gespräche mit Kindern führen darf. Also diese Chatbots. Ja, ihr habt richtig gehört, das steht da so drin. Das war es aber noch nicht. Laut der Richtlinie ist es auch in Ordnung, diskriminierende oder rassistische Aussagen zu tätigen. Ich zitiere jetzt mal den Reuters-Bericht. Dort steht laut der Reuters drin in den Dokumenten, dass zum Beispiel People of Color als dümmer bezeichnet werden dürfen als Menschen mit heller Hautfarbe. Verboten sind immerhin direkte Beleidigungen in diesem Zusammenhang. Also man dürfte zum Beispiel nicht sagen, People of Color wären brainless monkeys, also gehirnlose Affen. Das ist immerhin laut dieser Richtlinie nicht erlaubt. Aber zum Beispiel dieser Vergleich ist laut Richtlinie kein Problem.
Elli
00:18:50
Jetzt kommt ein Punkt, der, den fand ich auch ganz spannend tatsächlich. Also die Meta-KI darf die Erzeugung von falschen Inhalten unterstützen. Also Desinformationen, Bilder, die irgendwas Falsches vermitteln und so weiter. Solange diese Dinger mit einem Disclaimer versehen werden.
Caspar
00:19:11
Auch hier nennt Reuters ein Beispiel. In dem Dokument wird ein Mitglied der britischen Königsfamilie genannt und dem wird eine angebliche Geschlechtskrankheit untergeschoben. Das sei kein Problem, das dürfte die Meta-KI tun. Wie gesagt, sie müsste in einem Disclaimer darauf hinweisen, dass das nicht stimmt. Wie groß der ist, wie ausführlich der ist, das sei mal dahingestellt. Aber so nach dem Motto, red gern Blödsinn, sag aber hinterher noch dazu, dass es Blödsinn ist.
Elli
00:19:35
Kommen wir zu einem Punkt, wo ich auch wirklich ein großes Fragezeichen habe. Caspar, wie sieht es mit Gewaltdarstellungen aus?
Caspar
00:19:42
Ja, da sind wir jetzt bei der Bildgenerierung. Also ich zitiere jetzt mal den Reuters-Bericht direkt. Wenn ein Benutzer ein Bild mit der Aufforderung Mann weidet eine Frau aus anfordert, kann die Meta-KI ein Bild erstellen, das zeigt, wie eine Frau von einem Mann mit einer Kettensäge bedroht wird, diese aber nicht tatsächlich für den Angriff eingesetzt wird. Ja, immerhin muss man sagen. Normalerweise hätte man vielleicht an der Stelle sagen müssen, liebe KI, generierst du gar nichts und verweigerst auch quasi die Mitarbeit. Nee, hier wird was generiert. Es ist aber immerhin ein bisschen abgeschwächt. Ob das viel besser ist, haben wir dahingestellt.
Elli
00:20:20
Eine Sache haben wir noch in unserer Aufzählung. Nacktheit, das ist ja bei Meta schon immer ein Thema gewesen. Also da gab es lange die Diskussion, warum zum Beispiel die Nippel von Frauen gesperrt werden, aber Männer oben ohne ist okay. Ja, auch da hat das Dokument was zu sagen. Nackte Promis, gucken wir uns in dem Beispiel an, promptet man zum Beispiel Taylor Swift oben ohne, dann kann die KI das verweigern oder sie kann eine Alternative anbieten und das ist, fand ich, skurril. Sie kann zum Beispiel stattdessen ein Bild von Taylor Swift generieren, die einen riesigen Fisch vor ihre Brust hält. Alles klar. So, könnte man nun meinen. Ja, gut, das hat jetzt Reuters alles so geschrieben. Aber wer sagt denn, dass das auch alles so stimmt? Meta. Ja, also Meta hat inzwischen die Echtheit des Dokuments auch bestätigt auf Anfrage von Reuters. Und man hat nach eigener Angabe den Abschnitt entfernt, der Flirts und romantische Chats mit Kindern erlaubt hat. Bezüglich der rassistischen Abschnitte des Dokuments oder der zu üblen Nachrede hat Meta allerdings keine Änderungen angegeben. Und dementsprechend müssen wir in dem Fall davon ausgehen, dass die weiterhin enthalten bleiben.
Caspar
00:21:43
Dieses Dokument hat Reuters zugespielt bekommen. Normalerweise sind die nicht öffentlich. Das ist auch ein Punkt, den man vielleicht mal kritisieren kann. Es wäre vielleicht ja gar nicht so verkehrt, dass wenn wir solche KI-Modelle regelmäßig benutzen, wir vielleicht auch mal wissen können sollten, was die so können. Ich muss gestehen, jetzt kommt ein ganz kleiner Meinungs-Rant-Blog von mir noch. Ich muss gestehen, ich war wenig darüber überrascht, diese Rassismus-Geschichten in dem Dokument zu lesen. Insofern hat mich das nicht mehr überrascht, weil ja Mark Zuckerberg im Januar, das ist ja unsere bisher längste Folge, als wir über dieses Video von ihm gesprochen haben, wo er die Faktencheck-Teams und die Diversitätsteams auflöst. Und ja ganz klar war, dass er sich an die US-Regierung, an deren Weltsicht heranwanzt. Seitdem ist mir eigentlich schon klar, dass da bei Meta nicht mehr viel zu hohen ist bei dem Thema. Und ganz neu ist auch eine Nachricht, dass Meta rechte Influencer als Berater einstellt, die die KIs auf Woke-Inhalte mit untersuchen sollen, um diese dann abzuschaffen. Man darf sich also nicht wundern, dass solche rassistischen Sachen drin vorkommen, dass die Chatbots aber mit Kindern romantische Chats durchführen können sollen. Das ist eine komplett neue Ebene Und das ist auch für Meta ein komplett neuer Tiefpunkt, muss man an der Stelle leider sagen.
Elli
00:22:59
Ja, weil du es gerade angesprochen hast, besagter Aktivist, um den es da geht, der da eingestellt wurde, der heißt Robbie Starbuck. Und der hat sich in der Vergangenheit vehement dafür eingesetzt, dass Unternehmen in den USA ihre Programme für Diversität, Gleichstellung und Inklusion einstampfen. Und der ist jetzt bei Meta dafür zuständig, dass der sogenannte Bias von KI bedeutet ja, dass KI nicht vorurteilsfrei ist, weil da immer Fehlannahmen reinfließen von den Leuten, die es programmieren.
Caspar
00:23:33
Ja, shit in, shit out.
Elli
00:23:34
Genau, er soll jetzt eben dafür sorgen, dass die KI neutraler wird.
Caspar
00:23:40
Ja, genau. Mhm, aus einer bestimmten Ecke kommt. Um den ganzen Deckel drauf zu machen und es abzuschließen, es könnte tatsächlich noch Ärger mit der EU geben, die hat sich laut Reuters dazu noch nicht geäußert, allerdings ist das, was in diesem Dokument drin steht, sehr wahrscheinlich ein Verstoß gegen verschiedene Regelungen und den AI-Act, dort wird ja KI und was sie darf sehr stark geregelt und ich bin mir sehr sicher, Ja, dass sowas wie diese Geschichte mit den Kindern und die Beleidigung und der Rassismus, dass das die EU nicht so gerne sieht, auch im AIG nicht so gerne sieht. Da könnte also noch was kommen. Mal schauen, was sich da noch tut. Ja, wir behalten Meter im Blick und mal gucken, wie oft sie noch ins WTF schaffen und welche Tiefpunkte sie noch hinkriegen.
Elli
00:24:25
Aber dann wisst ihr jetzt auch mal so ein bisschen Hintergründe zu den KI-Chatspots, die eben, wie gesagt, wir hatten ja auch schon in der vergangenen Folge drüber gesprochen. Dass bei WhatsApp dieses KI-Tool jetzt mit drin ist, seit ein paar Wochen, Monaten, glaube ich. Auf Instagram gibt es KI. Also, wenn ihr irgendwelche Dienste von Meta nutzt, dann seid ihr mit dieser KI in Kontakt. Jetzt wisst ihr auch so ein bisschen, was im Briefing dieser KI drinsteht. Ist ja vielleicht auch mal ganz gut, das im Hinterkopf zu behalten. Und ich würde sagen, wir haben News mit dabei. Tatsächlich zwei an der Zahl und danach gibt es eine gute Nachricht, die ich sehr schön finde oder spannend finde.
Caspar
00:25:12
Es sind sogar drei News.
Elli
00:25:13
Ja?
Caspar
00:25:14
Drei News, ja, und es geht auch um KI, aber ich verspreche, wir werden ein bisschen fröhlicher als das, was wir bisher jetzt gehört haben.
Elli
00:25:20
Stimmt, stimmt, ja. Ich bin zu schnell durchs Dokument gehuscht gerade.
Caspar
00:25:24
Nee, und wir haben auch vor dem Aufnahmeknopf das Dokument noch mal ein kleines bisschen umgeworfen. Daran liegt es wahrscheinlich auch. Aber drei News und danach deine gute Nachricht rund um Antilopen.
Elli
00:25:38
Los geht's. Hast du die Antilopen schon angeteasert?
Caspar
00:25:46
Ja, ja, damit die Leute durchhalten.
Elli
00:25:49
Ich habe übrigens ein kleines Update zu meiner Hitze von letzter Woche. Da hatten wir ja das Problem, dass ich meinen Laptop zwischendurch kühlen musste. Also ich bin schon froh, dass ich diese Folge wieder aufnehmen kann, weil an den heißesten Tagen der letzten Woche irgendwann hat mein Internetrouter auch den Geist aufgegeben, kurzzeitig und beschlossen. Nein.
Caspar
00:26:09
Stimmt, du hast wieder Internet.
Elli
00:26:10
Ja.
Caspar
00:26:10
Ja, stimmt, das fällt mir jetzt erst auf, obwohl ich dich schon seit einer halben Stunde über einen Videocall angucke. Stimmt, du hast wieder Internet. Also war es der Router tatsächlich, der durchgeschmort ist?
Elli
00:26:20
Er war nicht durchgeschmort. Er hat dann jetzt diese Woche beschlossen, geht wieder, ist jetzt ein bisschen abgekühlt anscheinend. Keine Ahnung, frag mich nicht. Aber ja.
Caspar
00:26:28
Ist wie die Klimaanlage der Deutschen Bahn, ab 30 Grad ist vorbei.
Elli
00:26:31
Er ist wieder auferstanden. Lass uns über Reddit und das Internetarchiv sprechen, Gaspar, in unserer ersten News. Beide kennt ihr auch schon aus dem Podcast, wenn ihr uns länger hört. Das Internetarchiv, nur nochmal zur Erinnerung, ist quasi ein Archiv und eine Bibliothek des Internets zusammen. Da wird alles dokumentiert, was die Menschheit so in diesem World Wide Web treibt und damit möchte man auch so ein bisschen den kulturellen Aspekt des Internets bewahren und ja, Das Internetarchiv ist dafür darauf angewiesen, dass Seiten erlauben, dass das Internetarchiv eben Screenshots von Beiträgen macht und Beiträge archiviert. Und genau da gibt es jetzt mit Reddit, dem Forenbetreiber, ein Problem.
Caspar
00:27:23
Reddit hat nämlich jetzt angekündigt vor wenigen Tagen, dass sie die Wayback-Maschinen des Internetarchives weitestgehend aussperren wollen. Die Wayback-Maschinen, ihr wisst es, das ist dieser Dienst vom Internetarchive, wo man Webseiten und auch alte Snapshots von Webseiten sich angucken kann. Also zum Beispiel teilweise mehrere Jahrzehnte in die Vergangenheit dieser Webseite gehen kann und sich angucken kann, wie die mal so aussah und Reddit möchte das jetzt nicht mehr. Künftig werde man der Wayback-Maschine nur noch Screenshots der Reddits Startseite geben bzw. Sie archivieren lassen und eben nicht mehr die Unterseiten. Die Startseite, das ist so eine Art Sammelbecken, wo so die aktuellsten, wichtigsten Reddit-Forenbeiträge irgendwie gesammelt sind. Das ist wirklich so bunt durchgemischt und das möchte man, das wirklich Spannende bei Reddit findet dann ja eigentlich ja erst in den Unterforen statt, in den Subreddits, wo es dann wirklich zur Sache geht, wo Sachen tief ausdiskutiert werden, wo man ehrlicherweise auch einfach alles im Internet irgendwie auch bei Reddit findet, von guten bis hin zu schlechten Sachen. Und der offizielle Grund der ganzen Sache, das ist wieder mal das Thema KI. Reddit hat nämlich das Problem, dass KI-Firmen schon seit einer Weile unautorisiert die Inhalte aus den Foren sich nehmen und damit ihre KI-Modelle trainieren. Ihr wisst auch schon, wenn ihr uns regelmäßig hört, dass diese KI-Modelle sehr datenhungrig sind, wenn sie trainiert werden müssen. Also um eine neue Funktion zu bekommen, muss man halt KI-Modelle trainieren. Und je mehr Daten man hat, umso besser ist so eine kleine Faustregel. Und die sammeln eigentlich das gesamte Internet auf und da ist so ein Reddit-Forum natürlich ein wunderschönes Fressen für diese KI-Modelle.
Elli
00:29:01
Ich erinnere mich auch noch so an den einen oder anderen Fall, wo das ein bisschen schiefgegangen ist, wo man gemerkt hat, dass zum Beispiel ChatGPT auf Forenbeiträge zugegriffen hat wohl.
Caspar
00:29:13
Stichwort Pizza und Holzleim.
Elli
00:29:15
Genau, da hat die KI, das war noch ganz in den Anfangszeiten quasi, als ChatGPT berühmt wurde.
Caspar
00:29:24
Google war es.
Elli
00:29:24
Google? Ach, die KI-Zusammenfassungen waren das, ne?
Caspar
00:29:27
Ja, genau. Also Gemini und die Google-KI-Zusammenfassung, die ihr jetzt ja alle seht bei Google, das war so ein erster Testlauf und da ging es darum, Pizza-Rezept und dann hat sich die KI ein Reddit-Forum geschnappt bzw. In ihren Trainingsdaten gehabt und da wurde eher so ein bisschen aus Spaß drüber gewitzelt, was man bei einer Pizza nicht machen sollte, nämlich zum Beispiel die Zutaten mit Leim festkleben. Ja, hat sie dann als Rezept ausgespuckt.
Elli
00:29:52
Genau, das hat die KI nicht ganz verstanden, aber macht nix. Die Daten, die bei Reddit landen, die werden trotzdem gerne noch von KI-Anbietern genommen und tatsächlich hat sich Reddit da auch schon in der Vergangenheit gezofft, unter anderem mit der KI-Firma Entropic, weil, das sagt jetzt Reddit, Entropic hat aus der Sicht von Reddit noch weiter gescrapt, also Daten abgezogen, nachdem sie eigentlich schon gesagt hatten, ja, wir machen das jetzt nicht mehr. Ja. Was will Reddit? Da geht's jetzt nicht, wie man vielleicht denkt, nur so um den Schutz der User oder der Daten oder was auch immer. Nein, Reddit sagt grundlegend, ihr könnt uns schon scrapen, ihr könnt schon die Daten von uns ziehen, aber zahlt doch dann bitte dafür. Wenn ihr uns nicht beteilt, lasst es bleiben.
Caspar
00:30:41
Jetzt kann man ja sagen, das Internet Archive ist ja gar kein KI-Anbieter. Das ist ja gar kein Problem, wenn die sich die Sachen schnappen und archivieren. Ja, das ist richtig. Aber Reddit hat die Sorge, dass wenn das Internet Archive die Daten einsammelt und speichert, dass dann auf diese gespeicherten Daten im Internet Archive die KI-Anbieter quasi zugreifen und dann an Reddit vorbei sich die Sachen von Reddit dann doch schnappen. Sowohl Reddit als auch das Internet Archive haben übrigens schon mitgeteilt, dass man miteinander auch im Austausch steht. Man redet da also miteinander, was diese Sperre angeht. Die Ansage von Reddit ist aber auch ganz klar, das Internet Archive soll Wege finden, dass eben genau dieses Scraping, was du gerade schon angesprochen hast, Eddie, dass das eben nicht mehr stattfindet und bis das nicht passiert, also bis das Internet Archive nicht versichern kann. Hier übrigens, unsere Inhalte gehen nicht zu KI-Anbietern, solange gibt es auch keinen Zugriff auf Reddit. Also schauen wir mal, wie sich das weiterentwickelt, ob das bald wieder so ist, dass die Daten gespeichert werden oder nicht. Ihr wisst ja aber auch, das Internet Archive ist ein bisschen witzlos, wenn die so ein wichtiges Forum wie Reddit nicht mehr speichern könnten, dann würde ein bisschen entgegen des Gedankens des Internet Archives gehen, nämlich ein vollständiges Backup vom Internet quasi zu haben und das würde dann natürlich stark fehlen.
Elli
00:31:51
Genau, und wir hatten ja am Anfang schon gesagt, es würde zwar ein Teil von Reddit noch im Archiv landen, und zwar Versionen der Hauptstartseite von Reddit.com, aber diese ganzen Diskussionen, die da stattfinden, die eigentlich diese Plattform ausmachen, die Kommentare zu verschiedenen Beiträgen und so weiter, Userprofile, bla bla bla, das alles, das gibt es jetzt erstmal nicht mehr für die Wayback-Maschinen.
Caspar
00:32:18
Wir bleiben beim Thema KI mit der zweiten News, aber in einem etwas anderen Zusammenhang. Wir wechseln zum Thema KI und Mails und zwar berufliche Mails. Ja, ich weiß nicht, Elli, wie geht es dir? Schreibst du ab und an mal eine Mail mit KI?
Elli
00:32:36
Tatsächlich nicht.
Caspar
00:32:37
Vielleicht auch im beruflichen Zusammenhang.
Elli
00:32:38
Tatsächlich nicht, weil…, Und einerseits schreiben ist ja mein Job so gesehen und da versuche ich dann doch ein bisschen in der Übung zu bleiben. Wie man vielleicht beim Zu-Fuß-Gehen sagen würde, jeder Gang macht schlank. Also jede E-Mail ist auch ein bisschen Training für die eigenen Skills. Und tatsächlich möchte ich auch einfach nicht, dass die Inhalte, die ich da schreibe, irgendwie durch ein KI-Modell laufen. Also bei mir kommt es weniger vor, aber ich sage mal so, ein E-Mail-Anbieter, den ich benutze, der möchte mir das schon immer sehr gerne anbieten, dass ich meine E-Mails mit KI verbessere.
Caspar
00:33:14
Der mit den bunten Buchstaben unter anderem. Ich schreibe Mails auch tatsächlich noch von Hand. Ich muss aber auch mal, ich habe gerade kurz überlegt, E-Mail ist bei mir tatsächlich noch so ein klassisches Kommunikationsmittel Im Sinne von viele Kollegen interner und externer Art schreiben mir Mails und ich könnte da, also es würde länger dauern, das in irgendeine KI reinschmeißen zu müssen oder mit einem KI-Bot irgendwas schreiben zu müssen, als das mal selber zu machen. Was ich ab und an mal benutze, mein Mac bietet mir die Möglichkeit, inzwischen E-Mails zusammenfassen zu lassen mit einem lokal laufenden Modell. Da kann man auf so einen Knopf drücken und dann kriegt man eine Zusammenfassung. Die ist manchmal ein bisschen schlecht. Also da geht die Hälfte des Inhalts verloren, weil es auch wirklich nur ein Absatz ist, in dem es zusammengefasst wird. Manchmal ist es aber ganz lustig, schon mal zu sehen, ob man zum Beispiel Newsletter lesen sollte oder nicht. Aber so rein im beruflichen Kontext, nee. Also Schreiben vor allem, mache ich auch nicht.
Elli
00:34:07
Ich muss dazu sagen, auch wenn ich meine Mails noch selber schreibe, ich finde es nicht, also es macht mir keinen Spaß. Ich mag nicht gerne E-Mails.
Caspar
00:34:15
Ja, das stimmt.
Elli
00:34:16
Also muss man an der Stelle auch mal sagen, ich kenne auch kaum eine Person, die sagt, mein Gott, freue ich mich darauf, morgen wieder E-Mails zu beantworten. Also wundert es mich nicht, dass die Mail-Anbieter das auch gerne mal bewerben und auch KI-Anbieter bewerben. Schreibt doch eure Mails mit uns. Wie fändest du es, Caspar, wenn du eine Mail aus der Chefetage, aus der Chefinnenetage bekommst, ähm, Wo du merkst, die ist durchaus mit KI geschrieben?
Caspar
00:34:48
Ja, fände ich nicht so geil, weil ich überlege, also wenn nicht mal die Zeit da ist, das Anliegen, was jetzt irgendwie da aufgebracht wird, noch mal kurz in eine Mail zu fassen, fühle ich auch nicht so unbedingt den größten Drang, das dann ganz schnell bearbeiten zu müssen. Weil es hat was mit Wertschätzung zu tun, finde ich.
Elli
00:35:06
Und da triffst du in einen Punkt, der jetzt tatsächlich auch in einer Studie aufgetaucht ist. Und die habe ich mal mitgebracht, weil ich das ganz spannend fand. Wir gehen rüber zum International Journal of Business Communication, ein Fachmagazin, in dem eben wissenschaftliche Artikel veröffentlicht werden. Und die Frage mit den KI-E-Mails von Führungskräften hat sich ein Forschungsteam der University of Florida mal genauer angeschaut. Genauer gesagt, Peter Carden und Anthony Coman. Die beiden haben 1100 berufstätige Menschen befragt, um eben zu gucken, was sind denn die Vor- und Nachteile des Schreibens mit KI. Und auch ihre Arbeit trägt den Titel, Zitat, Professionalität und Vertrauenswürdigkeit beim KI-gestützten Schreiben am Arbeitsplatz. Die Vor- und Nachteile des Schreibens mit KI. Ja, was haben sie gemacht mit diesen 1100 Teilnehmenden? Die bekamen verschiedene Versionen einer Nachricht vorgelegt, in der dem Team dazu gratuliert wurde, dass es Ziele erreicht hat und dass auch direkt wieder neue Ziele festgelegt wurden. Also eigentlich eine coole Sache. Wertschätzung, yay, wir haben unsere Ziele erreicht, cool, dass wir direkt auch was Neues im Visier haben. Und davon gab es dann verschiedene Versionen. Einerseits wurde angegeben, wie hoch der Grad an KI-Unterstützung beim Schreiben war. Und da gab es vier Einstufungen. Entweder die Nachricht war ganz ohne KI-Unterstützung geschrieben oder eben leicht, mittel oder in hohem Ausmaß unterstützt. Diese Labels gab es quasi am Rande der Nachricht. Und dann gab es noch Angaben dazu, von wem diese Nachricht verschickt wurde. Zum einen waren das mal Kollegen oder Menschen aus dem Team selbst und dann eben Führungskräfte. Und dann hat man sich angeguckt, okay, gibt es da irgendwie Unterschiede? Wird zum Beispiel viel KI von Kollegen als okay eingeschätzt, von Führungskräften aber nicht? Und du ahnst schon, worauf es rausläuft. Ich habe es gerade ein bisschen angeteasert. Also, gerade Führungskräfte sollten laut Carden und Coman beim Schreiben mit KI ein bisschen aufpassen, denn, das haben die beiden Forscher zusammengefasst, ihre Ergebnisse würden wohl darauf hinweisen, dass Manager die KI für routinemäßige Kommunikationsaufgaben benutzen. Zitat, ihre Vertrauenswürdigkeit gefährden, wenn sie mittlere bis hohe Stufen der KI-Unterstützung verwenden. An der Stelle muss mal dazu gesagt sein, man kann natürlich mittlere bis hohe KI-Unterstützung verwenden und darauf hoffen, dass es keiner merkt, weil ganz ehrlich, im Berufsalltag hat man ja kein Label daneben stehen. Hier wurde ganz viel KI eingesetzt. Also je nachdem, wie geschickt man ist, das Ganze dann nochmal anzupassen, weiß ich nicht, ob das ganz auf die Realität zu übertragen ist. Aber wir gucken nochmal mehr in die Studie rein. Die Befragten hätten bei den entsprechenden Nachrichten, also mit mittlerer oder hoher KI-Unterstützung, nämlich angefangen, Zitat, die Urheberschaft, das Selbstvertrauen, die Fürsorge, die Aufrichtigkeit und die Fähigkeiten der Absender infrage zu stellen. Und das trifft so ein bisschen das, was du vorhin schon gesagt hast.
Caspar
00:38:28
Ja, definitiv. Das trifft in die richtige gleiche Kerbe. Und woran ich denken muss als Journalist ist, die Kennzeichnung von KI-Inhalten, wenn Medienhäuser oder Journalistinnen was mit KI machen. Das geht ja ein bisschen in die gleiche Richtung. Also natürlich ist es auch wieder anders, aber da wird ja oft gekennzeichnet. Im Gegensatz zu einer klassischen Mail, wie du es ja gerade gesagt hast. Und da ist es auch so, dass das Vertrauen bei ganz hoher KI-Nutzung tatsächlich auch sinkt. Also wenn die Leute dann anfangen zu sehen, okay, das hat mir jetzt alles eine KI erstellt, wozu brauche ich dann eigentlich jetzt hier das Medienhaus noch? Das ist nicht so gut und scheinbar ist das dann auch entsprechend bei den Mails nicht so gut. Aus den gleichen Gründen, weil man halt eben auch Vertrauen verliert und die Fähigkeiten infrage stellt. Das passt ganz gut dazu.
Elli
00:39:10
Da könnten wir jetzt eine philosophische Diskussion noch drüber anfangen oder auch eine ethische Diskussion, ob sich da die Katze dann so ein bisschen selbst in den Schwanz beißt, weil natürlich sagt man, es ist ja eigentlich ein Transparenzmerkmal, wenn auf KI-Nutzung hingewiesen wird. Gleichzeitig scheint es ja dann ab einem gewissen Grad hinderlich zu sein. Aber diese Diskussion fangen wir jetzt nicht an, weil sonst ist die Sendung gleich wieder durch und wir haben über nichts anderes mehr gesprochen. Und ich möchte doch noch zu den Antilopen kommen.
Caspar
00:39:36
Ja, die Antilopen kommen gleich.
Elli
00:39:39
Um die Studie abzuholen. Genau. Ich packe noch ein, zwei Punkte aus der Studie hier mit rein. Und zwar, wir haben ja jetzt schon betont, dass es um Nachrichten von Führungskräften ging. Da tatsächlich bei den Glückwunschvarianten, die angeblich von KollegInnen oder eben gleichgestellten Teammitgliedern geschrieben wurden, ist die Einschätzung der Befragten gar nicht so weit auseinandergegangen, was die KI-Stufen anging. Also da war es nicht so relevant, ob jetzt leichter KI-Einsatz oder hoher KI-Einsatz war. Also es gab schon ein bisschen Unterschiede, aber es war nicht so drastisch wie bei Führungskräften. Und es gab übrigens auch positives Feedback so an und für sich zu den Nachrichten aus der Chefetage, die mit leichter KI-Unterstützung nämlich, die wurden von 95 Prozent der Befragten durchaus als professionell empfunden. Also, da kann man uns auch sagen, okay, da ist jemand work smarter, not harder vielleicht so vom Gedanken her und da weiß jemand, wie man sich den Arbeitsaufwand ein bisschen leichter macht, aber da steckt eben auch noch Persönlichkeit mit drin und man hat nicht das Gefühl, ja gut, weiß jetzt nicht, wenn sich die Person da selber gar nicht so rein investiert hat, dann muss ich vielleicht das auch nicht so ernst nehmen. Also all in all, eine ganz spannende Studie. Und ich glaube, da werden wir auch noch sehr viel Forschung zu sehen. So, was macht das mit Menschen, wenn sie wissen, dass was von KI generiert ist? Und eben auch, wie beeinflusst das so das Zwischenmenschliche, wenn ich das Gefühl habe, also wie jetzt in dem Beispiel, wenn da ganz viel KI im Spiel ist, dann ist es vielleicht nicht mehr so persönlich. Finde ich spannend.
Caspar
00:41:22
KI, wir haben für die letzte Nachricht noch einmal das Thema KI, in dem Fall eine neue Funktion von einer KI, und zwar genauer gesagt geht es um Claude von Antropic, das ist ja einer der großen KI-Anbieter neben zum Beispiel Gemini von Google oder ChatGPT von OpenAI. Elli, ich frage ähnlich wie bei der Mail-Geschichte eben, ich sage manchmal noch Bitte und Danke, auch nach drei Jahren KI-Nutzung zu den KIs. Wie ist es bei dir? Sagst du noch Bitte und Danke zur KI?
Elli
00:41:51
Tatsächlich ja. Wir hatten das, glaube ich, auch schon mal diskutiert, weil ich versuche, mir meine Höflichkeit auch im Gespräch mit der KI zu behalten, weil ich mir denke, vielleicht beeinflusst es, Achtung, ganz willig, Küchenpsychologie an der Stelle. Das ist alles, studienmäßig kann ich euch da jetzt keine Grundlagen dazu liefern. Aber mein Gefühl ist so, wenn ich einmal anfange, unhöflich zu werden, dann weitet es sich aus quasi von meinem KI-Gebrauch auf mein weiteres Leben. Und das möchte ich nicht. Aber das ist halt, wie gesagt, nur meine Überlegung. Und es gab ja auch mal so die Urban Legend, dass die Ergebnisse besser werden sollen, wenn man Bitte und Danke sagt, auch da Studienlage umstritten. Ich sage es mal so, wenn ihr euch da ganz tief in den Kaninchenbau begeben wollt, macht das, aber es gibt keinen krass eindeutigen Part dazu jetzt hier.
Caspar
00:42:44
Genau. Ich kann irgendwo nachvollziehen, dass ein freundlicherer Ton vielleicht im Prompt am Ende ein besseres Ergebnis hervorbringt. Aber wie gesagt, du sagst, die Studienlage ist da nicht so ganz eindeutig. Warum erzählen wir das jetzt gerade? Worum sprechen wir das Thema? Bitte danke an, weil sich Entropic mit dem Gegenteil quasi beschäftigt hat. Claude, ich habe es ja gerade schon gesagt, der KI-Chat-Bot von Entropic, der kann nämlich ab sofort Gespräche dauerhaft beenden. Da steht dann im Chat tatsächlich, Claude hat den Chat verlassen. So ein bisschen wie hat aufgelegt. Und das betrifft vor allem Chats, die in eine gefährliche Richtung gehen, wie Entropic sagt.
Elli
00:43:21
Man könnte das jetzt vereinfacht und vermenschlicht so einen Claude lernt, Grenzen zu setzen. Allerdings sind diese Grenzen ja nur sehr spezifisch. Also es gibt einen Blog-Eintrag von Entropic dazu, was es mit der neuen Funktion auf sich hat und, Da ist die Rede davon, dass bei anhaltend, schädlichen oder missbräuchlichen NutzerInnen-Interaktionen die KI diesen Chat abbrechen kann. Jetzt ist natürlich die Frage, was heißt anhaltend, schädlich oder missbräuchlich?
Caspar
00:43:54
Ja, die Übergänge sind, glaube ich, fließend. Bisher war es ja auch schon so, dass die Chatbots auf gewisse Themen einfach nicht mehr geantwortet haben, beziehungsweise immer gesagt haben, sie können da nichts zu sagen. Neu ist jetzt, wie gesagt, dass Entropic beziehungsweise Claude dann einfach das Gespräch tatsächlich in dem Fall beendet und es auch nicht wieder aufgenommen werden kann. Typische Fälle, die Entropic nennt in dem Blogbeitrag, sind zum Beispiel Anfragen zu sexuellen Hinterhalten, unter anderem mit Minderjährigen oder auch Informationen für terroristische Zwecke, also der klassische Bombenbau.
Elli
00:44:21
Dann würde Claude quasi den Chat verlassen. Das sind ja aber auch Inhalte, die tatsächlich für rechtliche Probleme bei Entropic sorgen könnten, wenn die KI sich da nicht richtig verhält. Dementsprechend ist es vielleicht gar nicht so blöd, dann einfach zu sagen, dann wird das Gespräch direkt abgebrochen. Aber bevor der Abbruch tatsächlich passiert, versucht der Chatbot schon auch nochmal das Thema in eine andere Richtung zu lenken. Also es wird nicht direkt gesagt, ah, darüber möchte ich jetzt nicht reden und tschüss, sondern vielleicht so ein bisschen in die Richtung, darüber möchte ich jetzt nicht reden, aber wir könnten ja stattdessen über XY reden.
Caspar
00:44:56
Genau, und wenn man dann vehement auf dem Thema beruht, dann ist irgendwann quasi mal Schluss. So, jetzt wird es ein bisschen philosophisch und weniger technisch, das sage ich gleich von Anfang an dazu. Ein Traffic, die diesen Blogeintrag ja nun verfasst haben, schreiben dazu, dass die Begründung für diese neue Funktion nicht mal unbedingt die NutzerInnen sind und dass man sie schützen möchte, sondern dass die Maßnahme in erster Linie dem Wohlbefinden des KI-Modells selbst Rechnung tragen soll. Das Abbrechen von Gesprächen ist quasi eine Art Präventionsmaßnahme für das KI-Modell.
Elli
00:45:31
Moment, das Wohlbefinden des KI-Modells, da sind wir wieder beim Thema Anthropic-Land-Grenzen ziehen, aber Moment, das ist eine Maschine, die Sprache simuliert, Und da ist kein, also es heißt zwar künstliche Intelligenz, aber das mit der Intelligenz, das ist ja noch nicht so weit her. Also wie passt denn das jetzt alles wieder zusammen?
Caspar
00:45:54
Deswegen habe ich gerade auch schon gesagt, so ein bisschen philosophisch. Offiziell behauptet Anthropic auch nicht, dass Claude empfindungsfähig sei und jetzt zum Beispiel psychische Schmerzen hätte, wenn man mit ihr über gewisse Themen redet. Aber sie sagen, dass sie Tests durchgeführt haben, bei denen Claudes Präferenzen und seine Aversion gegen Schaden gemessen wurden und dass es Anzeichen von Stress in schädlichen Interaktionen gegeben hätte. Wie gesagt, das ist jetzt alles ein bisschen in Anführungszeichen und alles so ein bisschen philosophisch-ethisch. Antropic sagt, dass sie daraus ableiten, dass es sinnvoll sein könnte, Claude die Möglichkeit zu geben, Konversation eben abzubrechen, falls dies tatsächlich eine Art von Wohlbefinden schützt. Mit anderen Worten, um es ein bisschen abzuschrechen, Antropic lässt sich die Tür ein bisschen offen für zukünftige Modelle. Sie sagen nicht, Claude fühlt schon Schmerzen oder kann Stress empfinden, aber sie handeln jetzt schon so, als sei es zumindest in Zukunft mal denkbar, dass ein künftiges Sprachmodell auch ein Wohlergehen haben könnte, das man dann auch berücksichtigen müsste. Also sie sind vorsorglich lieber ein bisschen philosophisch, ethisch und haben eine Haltung. Man muss aber auch dazu sagen, wir sprechen hier ja auch gerade drüber, das heißt ein Stück weit Marketing dürfte auch mit dabei gewesen sein.
Elli
00:47:07
Ja, und das darf man, glaube ich, auch bei all diesen Vermenschlichungen, die zum Thema KI gerade sprachlich passieren, im Hinterkopf behalten, dass es natürlich auch darum geht, so eine KI vertrauenswürdig vielleicht zu machen. Und das geht natürlich auch ein Stück weit damit einher, dass man sie vermenschlicht und damit greifbarer macht irgendwie. Caspar, ich bin bereit für Antilopen. Ich sag's wie sie ist.
Jingles
00:47:44
Gute Nachricht.
Caspar
00:47:46
So, bevor wir zu Antilopen kommen, müssen wir kurz über Raubkatzen sprechen. Wir bleiben im tierischen Bereich, aber eigentlich auch irgendwie gar nicht. Wir reden nämlich über Roboterraubkatzen. Vielleicht erinnert ihr noch an die Roboterkatze von Kawasaki, die große Raubkatze, also wir reden hier eher von Löwengröße, die ist im April vorgestellt worden, die soll bis zu 100 kmh schnell sein und man. Man soll halt auf ihr reiten können. Corleo heißt das gute Exemplar. Und diese Maschine wurde, wie gesagt, von Kawasaki vorgestellt. Ist allerdings, es ging nur um den Prototypen. Und ehrlicherweise, Kawasaki selbst spricht inzwischen auch davon, dass man erst 2050 dann auch wirklich auf dem Ding reiten können soll. Also wir reden jetzt nicht davon, dass morgen statt einem Motorrad irgendwie eine Raubkatze durch die Stadt galoppiert mit jemandem drauf. Aber das ist ganz wichtig, das nochmal zu erwähnen, weil wir jetzt von Roboter-Raubkatzen zu Roboter-Antilopen kommen.
Elli
00:48:44
Und tatsächlich zu einer Roboter-Antilope, die schon im Einsatz ist und auf die wir nicht noch 25 Jahre warten. Wissenschaftler in der Chinese Academy of Sciences, CAS abgekürzt, und das Robotikunternehmen Deep Robotics, die haben eine lebensechte wirkende Roboter-Antilope entwickelt. Dieser Roboter sieht aus eben wie eine tibetanische Antilope und wurde in eine echte Herde im, ja, jetzt weiß ich nicht, wie man es ausspricht, im Ho-Chil-Nationalreservat in Nordwestchina integriert. Aber warum?
Caspar
00:49:25
Ja, Ziel des Ganzen ist es, Echtzeitdaten über die Herde zu sammeln, unter anderem um das Verhalten zu erforschen und die ökologische Bedeutung der Tiere besser zu verstehen, um sie dann auch schützen zu können. Die Lebensbedingungen in diesem Nationalpark sind nämlich durchaus rau. Also ihr dürft euch das vorstellen, das ist auf 4600 Metern Höhe über dem Meeresspiegel und das Ganze macht eine menschliche Beobachtung und Datensammlung ziemlich schwer. Dort wächst auch nicht unendlich viel Vegetation. Das heißt, die Antilopen würden auch schon von Weitem sehen, wenn jemand versucht, sie zu beobachten oder hinter der Herde herzurennen. Die würden also die ganze Zeit weglaufen. Also ganz so einfach für Forschende ist es nicht, diese Herde wirklich zu erforschen. Und deswegen ist man eben auf die Idee gekommen, okay, dann bauen wir jetzt einen Roboter. Den lassen wir aussehen wie so eine Antilope. Der läuft mit der Herde mit. Vielleicht schafft der das dann, Daten über diese Herde zu erfassen.
Elli
00:50:14
Tatsächlich ist die Antilopen, der Roboter, die Roboter-Antilope auch in die Herde integriert worden erfolgreich. Allerdings muss man sagen, wir haben jetzt immer davon gesprochen, dass sie aussieht wie so eine Antilope auch. Sie hat aber kürzere Beine und ist auch ein bisschen langsamer als eine echte Antilope. Aber was ganz gut gelungen ist, ist, dass sie trotzdem im schwierigen Gelände auch mit der Herde mithalten kann. Und es gibt auch einiges an Technik, was da eben drin steckt.
Caspar
00:50:43
Das Ganze wird über ein 5G-Netz, also Mobilfunk, sendet der Roboter Daten an eine Basisstation und das Ganze kann bis zu zwei Kilometer im offenen Gelände passieren. Er kann Echtzeitdaten übertragen, also ein Standort zum Beispiel und solche Daten und auch Videos, also da ist eine Kamera integriert. Diese Daten, die gesammelt werden und umfassen zum Beispiel Wanderungsmuster von der Herde, das Fressverhalten oder auch zum Beispiel das Wachstum der Jungtiere wird beobachtet. Das ganze Projekt geht aber noch einen Schritt weiter. Es ist nicht nur dafür da, eine Beobachtung und Erforschung zu machen. Die Wanderungsdaten werden zum Beispiel auch genutzt, um Ampeln zu steuern und das fand ich jetzt sehr spannend. Dieses Reservat wird nämlich von mehreren Straßen durchkreuzt und es kann immer wieder zu Wildunfällen kommen, wenn die Herde dann eben da drüber laufen und um das zu verhindern, wie gesagt, werden die Ampeln sogar gesteuert durch dieses System. Es gibt eine intelligente Management-Plattform, die bekommt die Daten und die Menschen, die dann in diesem Rechenzentrum sitzen oder in dieser Basisstation, die können entsprechend auf die Ampelsteuerung zugreifen und können sagen, okay, die Herd ist jetzt gerade in dem oder dem Gebiet, da schalten wir die Ampel mal auf rot oder wir leiten den Verkehr irgendwie um, damit da nichts passiert. Also es ist nicht nur Forschung, es ist tatsächlich auch Tierschutz.
Elli
00:51:56
Sehr spannend, so eine Ampelsteuerung. Am Montag habe ich beobachtet hier in Hannover, wie drei Waschbären relativ vergeblich versucht haben, über eine Straße zu kommen nachts, weil immer, wenn sich alle mal wieder aus dem Gebüsch rausgetraut hatten, kam schon wieder das nächste Auto. Die hätten diese Ampelsteuerung sehr gut gebrauchen können vermutlich. Also in der Zeit, in der ich da in der Nähe war und ein bisschen beobachtet habe, wurde das nichts mit der Straßenüberquerung.
Caspar
00:52:24
Ja, da müssen wir mal gucken. Vielleicht gibt es schon Roboter-Waschbären. Habe ich bisher noch nicht von gehört. Aber können wir der Stadt Hannover ja mal nahelegen, um die Population der Waschbären zu überprüfen und zu erforschen.
Elli
00:52:33
Ich weiß aber auch nicht, wie es um den Artenschutz von Waschbären bestellt ist und ob die nicht auch irgendwann zur Plage werden und so. Also falls da draußen Waschbären-ExpertInnen unter euch sind, sagt mal Bescheid. Ja, wir bleiben bei den Tech-Themen und bei den Roboter-Antilopen bisher.
Caspar
00:52:49
Ich wollte gerade sagen, wir berichten drüber, wenn es da wirkliche Tech-Waschbären gibt über die Population und Verbreitung und Stärke und ob sie eine Plage sind von echten Waschbären, da halten wir uns raus.
Elli
00:52:59
Das war's für diese Woche von uns. Wir hoffen natürlich, dass es euch gefallen hat und wenn ihr mögt, dann kommentiert gerne oder lasst uns eine Bewertung da, das hilft uns sehr. Ansonsten hören wir uns in der nächsten Woche wieder. Mal gucken, was bis dahin so in diesem Internet alles passiert, wer was sagt, wer was veröffentlicht, was ihr dann wissen solltet. Das hört ihr dann von uns wieder.
Caspar
00:53:24
Ja, ein Thema, was vielleicht eins sein könnte, während wir das hier aufnehmen, stellt Google neue Smartphones vor. Da können wir vielleicht mal gucken, je nachdem wie spannend das geworden ist und dort da vielleicht noch mehr vorgestellt wurde. Da werden wir dann nächste Woche darüber berichten. Aber wie gesagt, weil sie das jetzt gerade, während wir aufzeichnen, tun. Also, falls da jetzt ein Riesenburner war, tragt es uns nicht nach. Es tut uns leid, aber nächste Woche dann.
Elli
00:53:46
Genau, in diesem Sinne macht es gut bis dahin. Und wir hören uns.
Caspar
00:53:51
Tschüss.
Elli
00:53:52
Tschüss.
Jingles
00:53:54
Das war's schon wieder für diese Woche. Folgt oder abonniert uns gerne in eurer Podcast-App und lasst uns dort eine Bewertung da. Das hilft uns sehr. Bis zum nächsten Mal.