Drei Jahre ChatGPT: Zwischen Hype und Alltag
Wir blicken zurück
04.12.2025 49 min
Zusammenfassung & Show Notes
Am 30. November 2022 veröffentlichte ChatGPT das Modell 3.5 und löste damit einen nie dagewesene KI-Boom aus. Wir nutzen den Anlass um einen Blick zurück zu werfen und uns unter anderem zu Fragen was denn in diesen drei Jahren wirklich passiert ist und wo wir beim Thema KI stehen. Inklusive einem kleinen Ausblick auf die Zukunft. Außerdem sprechen wir über LKW-Fahrer im Homeoffice, welches Jobangebot euch die ESA und das DLR machen und wieso Digital Detox über die Feiertage doch eine gute Idee wäre.
Links zur Episode
Links zur Episode
- Den Link zur Bewerbung beim DLR findet ihr hier
- Du magst unseren Podcast und willst uns finanziell unterstützen? Dann abonniere uns bei Steady: https://steady.page/de/silicon-weekly/about
- Unser Impressum findest du hier: https://silicon-weekly.de/impressum/
Transkript
Ihr habt es gehört, wir sind im Weihnachtsmodus bei Silicon Weekly,
beziehungsweise im Vorweihnachtsmodus.
Schön, dass ihr wieder eingeschaltet habt zu unserem Türchen Nummer 4 und da
bekommt ihr uns zu dritt in einer regulären Folge.
Wir haben viele Tech News dabei, die mal so gar nicht weihnachtlich sind.
Wir haben natürlich einen Input, eine gute Nachricht.
Es ist für alles gesorgt. Und wer sind wir?
Das ist einmal mein Kollege Caspar.
Hallo Stella.
Und natürlich ist auch Elli dabei, sonst wären wir ja nicht vollständig.
Hallo ihr beiden und hallo ihr da draußen.
Vielleicht habt ihr da draußen, ich habe es gerade jetzt gesehen,
kurz bevor wir aufgezeichnet haben, Spotify rappt ist draußen.
Ich weiß, das wird für gemischte Gefühle sorgen, wahrscheinlich auf Social Media.
Da haben wir heute auch noch nie News zu, zu Social Media.
Ist wahrscheinlich wieder alles voll mit Spotify. Ich habe natürlich bei mir
auch schon geguckt, wer da in den Top-Listungen ist. Caspar, du auch?
Ja, ich habe direkt schon gedacht, okay, jetzt kann ich wieder für drei Wochen
Instagram ausmachen und einfach nicht mehr reingucken, weil alle jetzt ihr Rap teilen.
Ich nutze Apple Music, da habe ich das auch schon gesehen. Und ich finde die
Charts wie jedes Jahr seltsam. Also ich weiß, dass ich mehr Musik gehört habe, das sagt man ja.
Aber mit den KünstlerInnen, die dort angezeigt werden, mir war nicht bewusst,
dass einige davon sehr häufig gehört wurden und andere nicht.
Aber das ist wieder dahingestellt, Was ich aber in diesen Spotify-Rap-Geschichten
ganz spannend finde, in dieser Spotify-Rap-Geschichte werden auch die Podcasts dargestellt.
Vielleicht gibt es ja den ein oder
anderen, wo wir da auftauchen in den Podcast-Charts bei dem eigenen Rap.
Das könnt ihr uns ja gerne mal bei Instagram schicken, das würde uns freuen.
Das ist ein bisschen ärgerlich. Mit unserem Adventskalender sind wir jetzt zwangsläufig,
wenn ihr immer fleißig einschaltet, ja häufiger bei euch dabei.
Aber das fließt jetzt nicht in die Statistik.
Das fließt nicht mehr mit rein. Ich habe irgendwie gelesen, ab Mitte Oktober,
Ende Oktober hört Spotify auf mitzuzählen, damit sie die Raps quasi vorbereiten.
Ob das stimmt, weiß ich nicht.
Das würde einiges erklären. Elli, hast du auch schon reingeschaut?
Ich habe noch nicht reingeschaut. Ich weiß, dass ich mal über den Zeitraum geschrieben
habe, aber ich kann es gerade nicht mehr aus den Tiefen meines Gehirns rauskratzen,
wie lange das ermittelt wird.
Genau, aber mein Spotify hat mir auch noch keinen Ping gegeben.
So, hallo, bitte, hier, möchtest du wissen, ob du eine Pink Pop Pilates Princess
bist oder doch irgendwas anderes?
Diese Kategorien, also bei mir wurden so Club-Zugehörigkeiten quasi angezeigt
und welche Rolle man im Club hat.
Aber bevor wir abdriften, wir reichen einfach nächste Woche in den Updates nach,
wann dieser Spotify-Zeitraum ist, wenn alle schon die Krise gekriegt haben von
diesen ganzen Spotify-Top-Listen, die überall rumgeistern werden und machen
heute erstmal die Updates, die wir auch wirklich vorgesehen haben.
Eine flotte Nachricht aus der deutschen KI-Welt. Es geht nämlich um Flux 2.
Ich wollte gerade sagen, deutsche KI-Welt. Caspar.
Ja, die gibt es. Im Schwarzwald gibt es die unter anderem. Also,
wir haben ja die letzten Wochen über Bildgeneratoren gesprochen.
Also Google und Nano-Banana. Also bei mir im Google-Konto ist Nano-Banana auch sehr präsent.
Google möchte immer gerne, dass ich das benutze. Und ich möchte es nicht benutzen.
Und jetzt gibt's eine neue Version aus dem Schwarzwald, nicht von Google,
sondern von Black Forest Labs.
Und das ist eben Flux 2.
Jetzt ist so ein bisschen wie bei Nano Banana zum Beispiel das Thema Schrift
soll da verbessert worden sein bei Flux 2.
Und dann ist auch so die Idee, konsistente Charaktere und Stile über mehrere
Bilddurchläufe, also dass man wirklich an einem Bild immer wieder quasi arbeiten
kann und nicht mit jedem Prompt kriegt man plötzlich ein völlig neues Bild ausgespuckt,
und auch Lichtverhältnisse sollen realistischer werden.
Fand ich ganz spannend, weil das ja teilweise doch auch noch so ein Aspekt ist,
wo ExpertInnen dann genauer hinschauen, um rauszukriegen, ob ein Bild KI generiert ist oder nicht.
Also auch da möchte man jetzt eben doch nochmal schrauben. Das Spannende an
Black Forest Labs ist, so als Unternehmen, das Ganze ist mit einem Open-Core-Ansatz.
Wir gehen jetzt nicht im Detail drauf ein, was das bedeutet, aber mal so viel,
Diese Modelle von Black Forest Labs, die können auch auf eigener Infrastruktur
gehostet werden bei Bedarf.
Also man muss das Ganze nicht in der Cloud machen.
Und Elli und Caspar, die haben das Ganze auch ausprobiert.
Also teilt doch gerne einmal, was eure Erfahrungen sind. Vielleicht vorweg,
ohne Anmeldung funktioniert das nicht, aber es gibt eben einen kostenfreien Test.
Caspar, wie sieht es aus? Was waren so deine Erfahrungen?
Tatsächlich ist es so, dass jetzt zum Beispiel Schrift sehr gut funktioniert.
Ich habe ein Podcaststudio generieren lassen, wo ich gesagt habe,
da soll hinten Silicon Weekly stehen.
Das wäre mit dem älteren Flux-Modell teilweise noch ein Problem gewesen,
weil da Buchstaben vertauscht gewesen wären.
Das hat jetzt deutlich besser funktioniert. Es steht da fehlerfrei.
Ich habe auch ein paar verschiedene Prompts ausprobiert. Das wirkt alles ein
bisschen natürlicher. Aber ich würde aber sagen, im direkten Vergleich mit aktuellen
anderen Bildmodellen ist es jetzt nicht so, dass wir da eine Revolution hätten.
Es kommt näher ran an sowas wie Nino Banana, aber überholt zum Beispiel,
würde ich sagen, hat es das nicht. Indy, konntest du es ausprobieren?
Ähm, jein. Ich habe versucht, mich anzumelden und bin dann erstmal gescheitert.
Es könnte auch daran gelegen haben, dass ich im Zug saß, als ich es ausprobieren wollte.
Ich bin soweit gekommen zu dem Teil, wo Flux direkt mal fragt bei der Anmeldung,
wofür man eigentlich hauptsächlich Bilder generieren will.
Also zum Beispiel Social Media, private Projekte oder zum Beispiel auch Produktprototyping
und dann kriegt man vermutlich so ein paar entsprechende Tools ausgespielt.
Ich habe mir aber die Bilder mal angeguckt, die du dann gemacht hast,
Caspar, und finde schon, also gerade für so Science-Fiction-Motive,
Comic und so weiter, ist es super nutzbar.
Also da finde ich, ist der Unterschied nicht möglich.
Bedeutend zu anderen großen Modellen. Bei den Fotomodellen oder so, was du gemacht hast,
also Caspar hat zum Beispiel ein Bild oder eine Bildereihe gemacht,
die so ein bisschen nach einem Fashion-Shooting, Mode-Shooting ausgesehen hat.
Und wenn man so dran vorbeigehen würde, ohne genau hinzusehen,
würde ich schon sagen, man könnte das für echt halten.
Wenn man dann in die Details guckt, dann sieht man so ab und zu diesen Weichzeichner,
so an den Linien, zum Beispiel an der Hand am Arm und sowas.
Und könnte schon drauf kommen, dass es entweder schlecht gephotoshoppt oder doch KI generiert ist.
Ich überlege gerade, wir können auf der Webseite, glaube ich,
auch eine Bildergalerie machen.
Ich würde die da einfach mal reinpacken. Also wenn euch interessiert,
über was wir gerade redet haben oder was für Fähigkeiten bei Flux 2 rumkommen,
dann schaut mal bei uns auf der Webseite www.sidikon-weekly.de und klickt mal
dem Artikel zur aktuellen Folge an.
Dann findet ihr dort die Beispiele in der Bildergalerie und könnt mal reingucken.
Schaut da gerne vorbei und jetzt haben wir noch ein zweites Update für euch.
Es geht nämlich um das Thema autonomes Fahren in Deutschland und bisher ist
es da eben eigentlich so, da muss immer jemand am Steuer sitzen,
um bei Bedarf einzugreifen.
Jetzt gibt es aber was Neues. Und zwar, haltet euch
fest, die Straßenverkehr-Fernsteuerungsverordnung ist in Kraft getreten.
Können wir das nochmal haben?
Soll ich es nochmal? Ich habe noch was anderes mitgebracht. Fernlenkverordnung
wäre die Alternative bestossen schon im Juli 2025.
Und jetzt geht es los. Ich habe auch eine Abkürzung.
STVFSV.
Straßenverkehrsfernsteuerungsverordnung ich habe selten ein so deutsches Wort gehört sehr schön STV.
FSV klingt so ein bisschen nach einem Fußballverein finde ich.
Stimmt.
Ist kein Fußballverein und es wird auch, glaube ich, im nachfolgenden Teil,
zeigt sich, wie schön und wie genau die deutsche Sprache sein kann.
Es geht nämlich um Teleoperation.
Also vereinfacht gesagt, Autofahren aus dem Homeoffice könnte so möglich werden.
Was dabei wichtig ist, eine Person steuert immer das Auto, aber es gibt keine
Kontrolle über eine ganze Fahrzeugflotte.
Also es bedeutet, es kann jetzt nicht so irgendwie jemand vor seinem Bildschirm
sitzen und mehrere Pkw steuern, sondern immer nur ein Wagen.
Falls ihr denkt, ja mit mehreren Pkw, das ist doch eh irgendwie Science Fiction,
ist es nicht. Das gibt es beispielsweise schon in China und den USA.
Und das ist tatsächlich auch eine spannende Frage, gerade wenn man so in den
Industriebereich geht.
Wir gucken gleich nochmal, wofür das überhaupt sinnvoll sein könnte.
Aber es gibt zum Beispiel jetzt auch schon Leute, die sagen,
okay, dieses 1 zu 1 ist einfach wirtschaftlich noch relativ schwierig,
das attraktiv irgendwie zu machen.
Aber so diese Fahrzeugflottenbetreuung, wie sie woanders schon gibt,
die ist wohl ein bisschen interessanter so aus ökonomischer Sicht.
Und deswegen ist das Ganze auch erstmal eine fünfjährige Testphase,
dieses One-to-One-Ding und danach guckt man weiter.
So, fragt man sich natürlich, warum sollte jemand ein Auto fernsteuern, wofür soll das gut sein?
Die Idee ist zum Beispiel einerseits so Robotaxis ein bisschen unter die Arme
zu greifen quasi, aber auch für einen Lieferverkehr könnte es interessant sein, zum Beispiel,
wenn ein LKW-Fahrer aus dem Homeoffice,
ich nenne das jetzt einfach mal so flapsig, den LKW abgestellt hat.
Endlich Homeoffice für LKW-Fahrer.
Den LKW abgestellt hat und dann wird der entladen.
Derweil könnte die Person ja schon ein anderes Fahrzeug wieder steuern.
Das heißt, solche Zeiten könnte man zum Beispiel überbrücken.
Oder auch die Idee beim Carsharing gibt es, dass man normalerweise,
wenn man Carsharing macht, muss man ja zu einem Gewissen vertreten.
Ein Abstellort, wo man das Auto sich dann abholt. Und da ist eben die Idee,
man könnte als Carsharing-Anbieter dieses Auto quasi direkt beim nächsten Kunden
vor die Tür fahren lassen von jemandem, der das halt beruflich im Office macht.
Es geht ja auch darum, wer kann das denn jetzt eigentlich in dem Sinne machen.
Das ist nämlich jetzt nicht so, dass jeder quasi Fernlenker sein kann.
Generell gilt, der Fernlenker ist erstmal der Fahrzeugführer.
Und da gibt es auch bestimmte Voraussetzungen, damit man eben quasi als Teleoperator tätig sein kann.
Also man muss mindestens 21 Jahre alt sein, einen Führerschein seit mindestens drei Jahren haben.
Und es braucht auch eine spezielle Schulung plus oder mehrere Schulungen sogar
und nicht mehr als drei Punkte in Flensburg.
Cool, ich könnte Teleoperator werden. Schön.
Die Schulungen fehlen dir bestimmt noch.
Stimmt, die Schulungen fehlen mir, ja.
Und wir haben jetzt auf jeden Fall die Updates Extended quasi gemacht in dieser Folge.
Weshalb ich sagen würde, Leute, habt ihr Lust auf ein WTF? Das bringt uns weg vom Autofahren.
Es bringt uns quasi, naja, es passt auch nicht in den Weltraum.
Zumindest jetzt noch nicht. Ich habe eine Überleitung.
Ich habe eine Überleitung.
Okay, hau raus.
Und zwar hätte ich ja eben schon gesagt, ich könnte Teleoperator werden,
wenn ich die Schulung habe. Und im WTF geht es um ein anderes Jobangebot,
wo wir auch mal gucken könnten, ob ich das machen könnte oder nicht.
Naja, bei diesem Jobangebot, um das wir jetzt reden, wir haben sogar zwei Stränge
noch mitgebracht, aber das eine bietet 23.000 Euro für 100 Tage,
allerdings in Isolation.
Was heißt denn Isolation und für wen und was genau muss man da machen?
Das wäre noch ganz wichtig zu wissen, bevor ich das Jobangebot annehmen würde.
Gute Fragen. Fangen wir erstmal so an.
Also es geht um die Europäische Raumfahrtbehörde, die ESA und das Deutsche Zentrum
für Luft- und Raumfahrt, DLR.
Und die suchen aktuell ProbandInnen für die Studie Solis 100.
Und das Ganze bedeutet, dass sie sechs Menschen finden wollen,
die im Frühjahr 2026, also gar nicht so lange mehr hin, 100 Tage in einem Kölner Labor leben.
Und sie sollen da eben abgeschottet sein von der normalen Umwelt in einer simulierten Raumstation.
Es soll dann einen festen Tagesablauf geben, sprich man soll Sport machen,
man muss die Raumstation versorgen, sich um Ernährung kümmern,
um Reinigung, quasi so eine Art WG unter besonderen Umständen.
Ne, und alles, was bei so einer Raumstation halt auch anfallen würde.
Was müsste ich denn mitbringen als Voraussetzung? Also bis jetzt klingt es doch
einigermaßen so, dass ich sagen würde, vielleicht ist das für 23.000 Euro sogar spannend.
Ich nehme euch mal mit durch die Checkliste. Seid ihr zwischen 25 und 55?
Ja, check.
Check.
Okay, dann, das würde noch gehen. Habt ihr einen Hochschulabschluss?
Yes.
Zwei.
Okay, zwei, zwei, ja. Sind eure Englischkenntnisse sehr gut?
Führe ich so. Ja, Caspar. Ja, doch.
Okay, gut. Und dann ist noch die Frage ...
Seid ihr körperlich fit, Freunde?
Was heißt das?
Mehr geht immer. Ein Marathon würde ich jetzt nicht laufen.
Ich vermute mal, dass man da irgendwie einen Fitnesstest durchlaufen muss im Vorfeld.
Also einen Cooper-Test, erinnert ihr euch noch? Aus der Schule?
Oh Gott. Oder sowas wie bei der Polizei, so einen Sporttest.
Ein Aufnahmetest, ja.
Naja, also daran könnte es im Zweifel scheitern, bei uns zumindest.
Die Bewerbung. Ansonsten, wenn ihr euch da draußen jetzt wieder erkannt habt
und gedacht habt, ja, noch Es gibt noch ein zweites Problem. Ach so.
Neben der körperlichen Fitness. Wenn wir drei jetzt da einziehen,
wer macht denn dann die 100 Tage den Podcast? Weil wir werden ja dann isoliert.
Könnten wir den Podcast exklusiv aus diesem Projekt machen? Wobei ich muss sagen,
100 Tage Isolation, das wäre überhaupt nicht meins.
Also Leute, bewerbt euch gern, wenn ihr wollt. Bei den 100 Tagen, das meine ich.
Okay, dann gut.
Ich bin an eurer Stelle nach außen.
Ich muss zugeben, ich habe kurz gezuckt. Bis zum 12. Dezember kann man sich noch bewerben.
Da gibt es eine entsprechende Website dazu. Wollen wir die Link in die Show Notes packen?
Ja, können wir mal machen.
Okay, falls Leute dann jetzt plötzlich aufhorchen und sagen,
wo ist das? Ich google schon.
Vielleicht sollten wir aber noch einmal sagen, warum man das Ganze eigentlich
macht. Es gibt nämlich auch ein Ziel und das Ganze soll helfen,
eben AstronautInnen auf Langzeitaufenthalte vorzubereiten, also die Beobachtungen,
die dort gemacht werden.
Und es gab auch schon mal einen ähnlichen Versuchsaufbau.
Allerdings nur mit acht Tagen Isolation. Vielleicht hätte ich das erst mal vortesten
müssen damals in dieser Gruppe, um zu entscheiden, ob ich, weil ne,
100 Tage, das wäre es bei mir persönlich nicht.
Acht Tage sind easy, sage ich jetzt so. Es gibt aber noch einen zweiten.
Elli, wir haben gerade gesagt, es sind zwei Jobs. Bei dem zweiten,
muss ich sagen, wäre ich eher raus. Das klingt schon wieder nach nichts für mich.
Ja, also ich muss sagen, bei der Isolation, man ist ja dann auch mit anderen
Menschen zusammen. Also man ist ja nicht komplett alleine, sondern man ist ja
doch in so einem kleinen Team auf der Raumstation.
Aber beim zweiten Versuch, da habe auch ich nicht mal gezuckt,
weil das klingt für mich ganz, ganz strabaziös.
Es geht um 60 Tage Bettruhe. Da werden zwölf Teilnehmende gesucht.
Jetzt muss man aber auch sagen, das sind jetzt keine normalen Betten,
sondern welche, die sind zum Kopf hin um sechs Grad nach unten geneigt.
Der Kopf liegt tiefer.
Genau, ich stelle mir das so ein bisschen, kennt ihr das beim Zahnarzt, auf dem Zahnarztstuhl?
Ja, genau, wenn man so nach hinten geklappt wird.
Genau, so stelle ich persönlich mir das vor, warum das Ganze die Idee ist zu
testen, welche körperlichen Auswirkungen von Schwerelosigkeit, ja, was dagegen hilft.
Weil, was passiert? Naja, die Körperflüssigkeiten in diesen schlafenden Betten
da, die wandern ja dann auch Richtung Kopf.
Das passiert in der Schwerelosigkeit halt eben auch, dass das dann tendenziell,
wenn keine Erdanziehungskraft mehr da ist,
pumpt das Herz einfach mehr Blut in den Kopf, als wenn wir eben auf der Erde
stehen würden und deswegen simulieren sie das in diesen 60 Tage Bettruhe,
aber 60 Tage am Bett liegen, also ich bin ein Couch-Potato, das gestehe ich,
aber 60 Tage halte ich glaube ich nicht durch.
Was passiert denn dann auch mit der ganzen Muskelmasse, die abgebaut wird?
Ja, das ist glaube ich Teil des Versuchs, also wirklich mal zu gucken,
Auswirkungen von Schwerelosigkeit, naja.
Ja, wir haben an der Stelle auch nicht rausgesucht, was man dafür dann für eine
Entschädigung bekommen würde.
Vielleicht kriegt man hinterher noch so ein Fitnesstraining umsonst mit.
Damit man wieder zu Rüsten kommt.
Ja, ja gut, also.
Verzweifelter Lacher.
Wir überlegen uns das mit der Raumstation und den Rest überlassen wir anderen Leuten.
Und ja, vielleicht sollten wir jetzt zur Geburtstagsfeier übergehen.
Das ist aber auch keine richtige Feier, aber du hast recht, es ist Zeit für unseren Input.
Wir nehmen jetzt ehrlich gesagt eher den Geburtstag in Anführungszeichen zum
Anlass, um uns mal kritisch nochmal mit einem Thema auseinanderzusetzen.
Und wer jetzt dieses Geburtstagskind in Anführungszeichen ist,
kein Mensch, sondern ein Programm.
Und zwar ChatGPT. Am 30. November 2022 wurde das Ganze nämlich von OpenAI veröffentlicht.
Genau. Und du hast es auch schon gesagt, Geburtstag passt insofern auch nicht,
weil das, was 2022 veröffentlicht wurde, war nicht die Geburtsstunde von OpenAI.
Da hat niemand einen großen roten Knopf gedrückt und plötzlich war die Firma
und das Sprachmodell da. Das sieht man auch daran, dass zum Beispiel GPT 3.5
damals veröffentlicht wurde und nicht etwa GPT 1.0 oder gar 0.1,
sowas wie eine Beta-Version.
Was wirklich neu war, war, dass man jetzt plötzlich so ein KI-Modell mal ausprobieren konnte.
Und eigentlich ist das Ganze, dieses ganze künstliche Intelligenz zwar jetzt
seit drei Jahren ein riesiges Thema.
Und da wollen wir auch gleich mal ein bisschen drauf gucken und uns das anschauen,
die vergangenen drei Jahre JetGPT.
Aber es ist halt eben eigentlich auch keine neue Erfindung, weil eigentlich
ist alles rund um künstliche Intelligenz, neuronale Netze und so rund 75 Jahre alt.
In den 50er Jahren gab es die ersten wissenschaftlichen Versuche.
Dann gab es zum ersten Mal auch so das Label künstliche Intelligenz.
Und OpenAI selber gibt es auch schon seit 2015.
Deswegen auch da kein Geburtstag. Wurde übrigens gegründet von einem gewissen
Sam Altman, der immer noch bei OpenAI ist und einer anderen Internetgröße,
sage ich mal, um es relativ neutral auszudrücken, Elon Musk.
Der war nämlich auch Gründungsmitglied, hat die Firma aber verlassen,
bevor sie so durch die Dicke gegangen ist ab 2022.
Also wir gehen jetzt auch nicht auf alle verschiedenen KI-Systeme ein oder auf
die Entwicklung, sondern gucken uns wirklich Chatschipiti an.
Und warum machen wir das? Caspar, du hast es angerissen, weil die ersten LLMs,
die waren eben einfach der Öffentlichkeit gar nicht zugänglich.
Also Google hat damals ja durchaus sein System immer mal wieder in Präsentation
gezeigt, was sie damals hatten, aber immer nur ausgewählten Personen.
Und das ist ja auch das Besondere bei ChatGPT, weshalb es auch so viel Aufmerksamkeit seitdem erfährt.
Es ist eben das erste Mal, dass so ein KI-Modell auch wirklich so leicht,
so niedrigschwellig für die Öffentlichkeit zugänglich geworden ist.
Ja, wir reisen mal zurück. Ich habe mal die Kisten im Archiv abgestaubt.
Uns als Dreier-Kombo gab es ja da schon.
Allerdings nicht hier bei Silicon Weekly, sondern noch im T3N-Catch-Up.
Und da habe ich mal die Folge aus dem Dezember rausgesucht mit dem schönen Titel Dicke kleine Autos.
Und da sprachen wir in der Kategorie Netzfundstück über dieses neue Ding, über Chat-GPT. Ja.
Es ist schon irgendwie niedlich, dass wir das zum Netz für ein Stück erklärt
haben. Gut, aber damals konnten wir es noch nicht so richtig absehen.
Was haben wir denn damals eigentlich, vielleicht für diejenigen,
die die Folge auch nicht gehört haben, was haben wir denn da eigentlich gemacht?
Also unsere Folge ist gut gealtert. Caspar, du hattest damals Fragen gestellt
an ChatGPT und damals konnte ChatGPT auch noch nicht sprechen.
Wir haben dann die geschriebenen Antworten von Google wiederum vorlesen lassen.
Also, das war eine ganz wilde Bastelei damals noch.
Und tatsächlich hatten wir zwei Fragen, die dann auch richtig beantwortet wurden.
Und in der dritten gab es aber dann schon einen Fehler quasi, den die KI gemacht hat.
Da ging es darum, zu wem, also was T3N eigentlich ist, also unser damaliger Arbeitgeber.
Und da wurden wir einem Verlag zugeordnet, zu dem wir eindeutig nicht gehört haben.
Ich finde, wir haben ein recht gutes Fazit dann gezogen damals,
weil wir haben schon damals gesagt, der Faktencheck ist wichtig,
weil das klingt alles sehr plausibel, was da rauskommt.
Die Gesellschaft muss sich Gedanken um Trainingsdaten machen und wo die eigentlich herkommen.
Und wir sollten vielleicht auch überlegen, wie man KI-Inhalte kennzeichnet und
dass man sie kennzeichnet.
Naja, da kommen wir gleich nochmal drauf.
Wir gucken mal auf die Basis, nämlich diese ganzen technologischen Entwicklungen,
die wir jetzt ein paar Mal angerissen haben.
Es ging ja damals los mit GPT 3.5.
Spoiler, war bestimmt nicht die erste Variante, Caspar, das hast du ja schon gesagt.
Ja, genau. Und die Halluzination, die hat Elli schon erwähnt,
die sind wir damals, die sind wir ja damals in der dritten Frage direkt auf, haben wir aufgedeckt.
Was auch noch ein Problem war, war das sogenannte Kontextfenster und die Token-Grenze.
Das beschreibt bei Sprachmodellen, großen Sprachmodellen im Grunde nur,
wie viel die verarbeiten können und wie viel die sich merken können.
Das war damals auch noch relativ gering.
Also man ist da relativ schnell, wenn man Dokumente hochgeladen hat,
an eine Grenze gekommen.
Das zum Beispiel hat sich aber stark verändert. Also wir können jetzt viel längeren
Kontext, wir können viel mehr Tokens dort reinpacken.
Multimodalität, also die Sprachmodelle, wenn ich mit Chat-GPT schreibe,
das kann Bilder erkennen. Das ging am Anfang auch überhaupt nicht.
Das war ein reines Sprachmodell.
Jetzt kann es auch Bilder generieren innerhalb dieser Sprach-Chat-Fensters.
Das ging halt eben auch nicht.
Besseres Reasoning. Dann gibt es einen Agentenmodus, der selber losläuft.
Den haben vielleicht viele von euch auch schon mal ausprobiert.
ChatGPT hat einen Internetzugriff bekommen im Laufe der drei Jahre,
sodass es selber Informationen raussuchen kann, wenn es die nicht selber in
seinen Trainingsdaten hat.
Das ist damals wahrscheinlich auch das Problem gewesen, warum unser Verlag damals
nicht richtig genannt wurde, weil er schlicht und ergreifend in den Trainingsdaten nicht vorkam.
Und die Halluzinationen sind ein bisschen weniger geworden, beziehungsweise
haben sich etwas verschoben, unter anderem,
wie gesagt, wegen diesem Internetzugriff. Weg sind sie aber nicht.
Ja, und da kommen wir schon zu einem der Punkte, die weiterhin problematisch
geblieben sind. Da gehen wir auch gleich nochmal drauf ein weiter.
Ich habe auch so das Gefühl, die Halluzinationen, die sind jetzt eben eleganter
verpackt und sie sind auch irgendwie ein Stück weit egaler geworden vielleicht
oder sie werden halt in Kauf genommen.
Also das war damals schon auch
so, dass man einfach ganz viel rumprobiert hat und sich angeguckt hat.
Und dann aber trotzdem war immer noch der Satz, ja, aber wir wissen ja, dass das Fehler macht.
Und ich glaube, dieser Satz nutzt sich ab über die Jahre und wird,
glaube ich, so ein bisschen teilweise wegignoriert. So, ja, wissen wir ja.
Ja, dieses Egaler ist, glaube ich, ein ganz wichtiger Punkt.
Wir alle kennen ja inzwischen diese Google-KI-Zusammenfassung,
die bei jeder Google-Suche inzwischen auftaucht. Ich glaube, außer im News-Bereich.
Und die ist einfach, das ist jetzt eine persönliche Erfahrung und die mag nicht
stimmen, die Zahl, aber ich würde sagen, in 50 Prozent der Fälle ist die falsch.
Es ist Google aber einfach egal. Die wissen das, aber es ist ihnen egal.
Sie machen es trotzdem, einfach weil sie die Technologie voranbringen wollen.
Ich kann euch noch zustimmen, wobei ich glaube, es ist nicht nur egaler,
sondern wir Menschen sind bequem und die KI-Nutzung ist immer alltäglicher.
Und da greife ich eine Sache vor, die eigentlich noch ein bisschen später in unserem Skript steht.
Aber Caspar, du hast das da so schön reingeschrieben. KI ist heute Alltag nach diesen drei Jahren.
Und dazu gehört unter anderem auch, dass gefühlt jedes Programm irgendwie,
was online läuft, KI benutzt.
KI taucht in Serien auf, in Filmen, in Comedy. Also es ist viel normaler geworden irgendwie.
Das passt sehr gut zu dem nächsten Punkt, weil wir nämlich den AI oder KI-Wettlauf
als nächstes hier im Doc stehen haben und der passt sehr gut dazu,
dass das jetzt wirklich in jedem Programm inzwischen vorkommt.
Im Silicon Valley gab es tatsächlich durch die Veröffentlichung von ChatGPT
3.5 ein richtiger kleines Beben im Valley, schlicht und ergreifend,
weil plötzlich alle im Valley gemerkt haben, oh Gott, da rollt eine ziemliche
Technologiewelle auf uns zu und wir müssen da mitmachen.
Google haben wir ja eben schon gesagt, die waren mit BART auch schon dabei.
Allerdings war das alles nicht öffentlich zugänglich, es war nur intern und
jetzt hat sie sich jetzt geändert, dass Google zum Beispiel mit Gemini inzwischen
natürlich auch schon Modelle veröffentlicht hat. Entropic ist mit Cloud auf den Markt gekommen.
Es gibt Open-Source-Modelle. Microsoft integriert verschiedene KI-Dienste in
die eigenen Produkte und Sie haben es gerade schon gesagt, Eli,
du auch, in jeder größeren Software-Plattform gibt es inzwischen KI.
In Microsoft 365, in Google Workspaces, in Notion hat mich jetzt neulich KI wieder begrüßt.
Adobe setzt KI an verschiedensten Stellen ein, Figma setzt das ein und diese
Liste könnt ihr eigentlich unendlich verlängern, wenn ihr irgendwo einen Dienst habt,
einen größeren, eine Plattform, dann ist da in der Regel inzwischen KI implementiert
und das ist schon ein ziemlicher Hype-Train, der da losgelaufen ist.
Und neben den großen Plattformen gibt es auch den Open-Source-Bereich,
der sich ja im Grunde eigentlich seit drei Jahren aufgetan hat.
Also zu nennen ist da zum Beispiel Lama oder Lama 2, das ist ein Open-Source-Modell von Meta.
Mistral ist zu nennen, Quen Deep Seek, da haben wir ja auch mal drüber gesprochen,
das ist ein chinesisches Modell.
Und früher war es ja so, dass Open Source oft so ein bisschen bei Software so
ein, ja, es ist meistens ein bisschen hässlich, alles ein bisschen komplizierter
und hinkt ein bisschen hinterher hinter kommerzieller Software.
Das ist bei Open Source Sprachmodellen nicht unbedingt der Fall.
Die können teilweise durchaus mithalten und sind vor allem, was zum Beispiel
so lokal laufende Modelle betrifft, durchaus auch teilweise vorne.
Also da im Bereich KI und künstliche Intelligenz hat sich Open Source durchaus einen Namen gemacht.
Wir haben jetzt gesagt, es ist ein bisschen normaler geworden,
aber es gibt natürlich trotzdem die ein oder andere Diskussion,
die vor drei Jahren begonnen hat und immer noch geführt wird.
Manche sind ein bisschen ins Hintertreffen geraten. Ich werfe jetzt einfach
mal so ein bisschen ein paar Schlagworte in die Runde.
Ihr habt sicherlich zu den meisten auch bei uns schon mal was gehört.
Da ist zum einen die Frage der Arbeitsmarkt. Wie wirkt sich KI aus,
auch auf unsere Produktivität?
Machen wir jetzt bald alle nur noch ganz kreativen Shit damit,
weil Chattipity oder KI an sich unsere administrativen Aufgaben übernimmt,
die langweiligen, die drögen.
Und wer wird vielleicht seinen Job durch KI verlieren.
All sowas wird rauf und runter diskutiert, wurde es damals schon, wird es heute noch.
Ja, ich glaube, mittlerweile sind einige auch so ein bisschen,
haben sich wieder beruhigt und sind so auf dem Stand, naja, KI wird unsere Arbeit
verändern, aber sie nicht unbedingt ersetzen.
Das ist so eine Sache, die immer wieder zur Sprache kommt.
Dann die Frage mit dem Bildungssystem, wie kann man jetzt überhaupt noch Leistung ab,
messen oder Prüfungen. Wie funktioniert das eigentlich, wenn alle ja theoretisch KI benutzen können?
Auch da wird weiterhin diskutiert, gerade was so den Bereich Forschung und Forschungsarbeiten angeht.
Dann so ein Thema, das auch immer noch nicht geklärt ist, ist das ganze Thema Desinformation.
Was machen wir mit den ganzen KI-Inhalten im Netz? Es werden immer mehr,
sie werden immer leichter generierbar. Über Fotos, Videos haben wir ja auch schon gesprochen.
Dann ein großes Thema, was auch immer noch nicht endgültig geklärt ist,
sich jetzt aber langsam in den Gerichten oder vor Gericht wiederfindet,
sind die ganzen Fragen zur kreativen Urheberschaft, auch zu den Trainingsdaten.
Wo kommt das her? Was wird dann benutzt?
Es ist aktuell auch wieder ganz aktuell oder hochaktuell. Stichwort GEMA verklagt Open AI.
Zum Thema Klagen muss man auch sagen, drei Jahre ChatGPT waren auch drei Jahre
lang Rechtsgeschichte oder Dinge, die sich um das Thema Recht drehten.
Wir haben ja ganz oft schon den EU-AI-Act behandelt. Der war vor der Veröffentlichung
von ChatGPT überhaupt kein Thema.
Wir haben ja Debatten über Copyright, Fair Use, Scraping, also wenn diese KI-Modelle
loslaufen und alles im Internet quasi in sich aufsaugen, um damit trainiert zu werden.
Wir haben Klagen von den New York
Times versus OpenAI, wir haben die Autorenverbände, die gegen KI vorgehen.
Also ich sage mal so ganz reibungslos und ohne Gerichte gingen diese drei Jahre nicht ab.
Und ab und zu, vielleicht aber auch immer noch ein bisschen zu wenig,
wird auch über das Thema Umwelt auch im Zusammenhang mit OpenAI,
mit ChatGPT gesprochen, aber auch generell mit dem Thema KI.
Denn diese ganze Rechenleistung, die wir da abrufen, wenn wir beispielsweise
insbesondere Bilder generieren lassen,
Musik entstehen lassen oder vielleicht mal wieder nicht wissen,
was wir eigentlich heute Abend essen wollen und dann noch mal nachfragen,
hallo, ich habe folgendes, was könnte man daraus kochen?
Das braucht verdammt viel Energie.
Also es braucht beispielsweise viel Wasser, aber auch viel Strom.
Und Rechenzentren können so wirklich ein wachsendes Infrastrukturproblem sein.
Also auf der einen Seite natürlich, auch wir haben ja hier im Podcast mehrmals
schon darüber berichtet, dass neue Rechenzentren entstehen, auch hier in Deutschland.
Auch wieder Thema digitale Souveränität, Unabhängigkeit, das ist auch wichtig,
aber gleichzeitig ist es natürlich auch einfach für die Umwelt eine Herausforderung.
Der Wasserverbrauch, der da für die Kühlung notwendig ist, der ist nicht ohne
und generell also jede Anfrage, jede Query, die kostet einfach Energie.
Und es gibt ja auch noch den Bereich Hardware, der hinzukommt,
denn das Ganze muss ja auch vereinfacht gesagt auf verschiedenen Arten von Chips laufen.
Wir haben über NVIDIA jetzt ein paar Mal gesprochen, auch über das Thema KI-Blase,
was da mit reinspielt, wie die Firmen miteinander verbunden sind.
Und dazu kommt ja auch noch dieser Trend zu spezialisierten Hardware,
dass das alles immer gut natürlich auch zusammenpassen muss,
je spezifischer dann auch die Anfragen werden.
Und zu den Nutzungszahlen, glaube ich, Elli, du warst es, hast du auch was mitgebracht,
was OpenAI veröffentlicht hat.
Die haben nämlich diese drei Jahre Jubiläum auch genutzt, um mal ein paar Zahlen
irgendwie rauszuhauen.
Das ist richtig, wobei die Zahlen schon aus dem September sind.
Da hat OpenAI so ein bisschen eine Zusammenfassung veröffentlicht,
wer nutzt uns wofür, so nach dem Motto.
Und Chat-TPT laut OpenAI beantwortet pro Sekunde, haltet euch fest,
29.000 Anfragen in einer Sekunde.
Also wenn ihr einmal kurz blinzelt, dann sind es wahrscheinlich schon doppelt
so viel gewesen. Pro Woche.
Hat ChatGPT 800 Millionen User.
Und Deutschland belegt übrigens im weltweiten Vergleich Platz 4 bei der ChatGPT-Nutzung.
Also wir sind fleißig mit dabei.
Das hat OpenAI nicht in dem Report rausgebracht, sondern auf Anfrage von Heise beantwortet.
Wir waren mal auf Platz 2. Schade, dass wir auf Platz 4 abgerutscht sind.
Weiß ich nicht. Wenn man jetzt so über die ganzen Kontroversen nachdenkt,
weiß ich nicht, wie schade das ist.
Ja, und Energieverbrauch. Ich habe nämlich gerade bei den 29.000 Anfragen gedacht,
meine Güte, was wird da pro Sekunde an Energie rausgehauen.
Aber da wird ChatGPT oder OpenAI wahrscheinlich wenig zugesagt haben.
Zum Schluss gucken wir nochmal drauf, was noch fehlt, was in den drei Jahren
eigentlich zwischenzeitlich mal versprochen wurde, aber noch nicht da ist.
Und wir wollen auch tatsächlich zum Schluss noch so einen kleinen Blick in die
Kristallkugel wagen, auch wenn das immer schwierig ist.
Lasst erstmal drauf gucken, was in den drei Jahren nicht passiert ist.
Also ich habe schon erzählt, dass ChatGPT jetzt einen Agentenmodus hat.
Also wenn ich ihm sage, dass es loslaufen soll, dass es selbstständig losläuft,
einen kleinen Browser aufmacht und da mit der Maustür durch die Gegend fährt und Dinge anklickt.
Aber wir sind weit davon entfernt, dass wir tatsächlich selbstständige,
autonome Agenten haben. Das war relativ früh, nachdem ChatGPT veröffentlicht
wurde, in dieser ganzen Hype-Welle direkt schon so ein Thema,
dass ganz viele gesagt haben, oh, das kann jetzt bald alles ganz selbstständig.
Das ist tatsächlich immer noch nicht so. Es gibt erste zaghafte Versuche,
wie gesagt, diesen Agentenmodus, wenn man selber programmieren kann,
kann man auch sowas wie erste kleine zaghafte Agenten bauen,
die auf Knopfdruck oder auf Buffet loslaufen.
Aber was immer noch nicht ist, dass man jetzt komplett selbstständige KIs hat.
Kann man sagen, das ist vielleicht auch ganz gut.
Aber wie gesagt, der Markt hat das eben noch nicht geschafft,
das zumindest für den breiten Markt auch bereitzustellen.
Das Einzige, was es gibt in die Richtung und ja auch zugänglich ist Atlas,
also der KI-Browser von OpenAI mit ChatGPT. Da muss man aber auch sagen,
Ihr seht dann quasi, wie so eine Maus, wir hatten es ja auch mal in einer der
Folgen besprochen, über das Bild huscht und da werden dann Klicks gesetzt,
einen Tisch reserviert etc.
Aber das funktioniert nicht ohne den Human in the Loop. Also da gibt es einfach
eine Grenze und da geht es nicht weiter.
Ja und du musst es eben anstoßen. Also so ein richtiger Agent wäre ja zum Beispiel,
da gehen wir über auch zu dem zweiten Punkt, dass sowas wie persönliche KI-Assistenten fehlen.
Also es wäre zum Beispiel so ein Agent, der weiß, wenn ich morgens aufstehe,
weiß der von sich aus, was er mir zum Beispiel für eine Morgenszusammenfassung zusammenfasst.
Also nach dem Motto Wetter von sich aus, weil er gemeint irgendwie oder er weiß
im Kalender, dass ich irgendwo hinfahre, dann spuckt er mir schon mal aus, wie die Route aussieht.
Also so ein proaktives Ding, das war ganz am Anfang so ein riesiges Thema und
auch Apple hat so ein bisschen versprochen, vor zwei Jahren,
dass Siri so ein bisschen in die Richtung gehen wird, das ist aber schlicht
und ergreifend bisher einfach nicht passiert.
Die Technologie ist nicht weit genug und auch da werden wir jetzt nicht davon
reden, dass das morgen eintritt, das wird auch noch ein bisschen dauern,
dass das mal kommt, aber ich würde sagen, technisch wird das irgendwann mal möglich sein.
Und was technisch auch immer noch besser wird, ist das Thema Bild- und Videoerstellung,
also Generierung einfach von dieser Art von Content, ist aber auch immer noch
sehr teuer, sehr ressourcenhungrig und die Qualität ist auch sehr unterschiedlich.
Also klar, es wird immer realistischer enthalten, was auch wieder,
wenn wir auf das Thema Fake News gucken, ein Problem ist, eine gesellschaftliche
Herausforderung, über die wir sprechen müssen, wie wir damit umgehen möchten.
Aber es ist auch so, also mir wäre, mir ist nicht bewusst, dass es komplett
KI-generierte Kinofilme beispielsweise gibt.
Also diese Leistung ist bisher nicht möglich.
Nein, es sind immer kurze Videoschnipsel, die manieren kann.
Die kann man natürlich zu einem längeren Video zusammenschneiden,
aber wir reden hier von fünf, acht, zehn Sekunden, die so eine KI am Stück generieren kann.
Und das wird noch lange dauern, bis das wirklich mal so ist.
Du hast gesagt, dass gerade Kinofilm ist.
Und auch das haben wir schon gesagt, das Allwissende, die nicht mehr fehlerhafte
KI, das liegt so tief in den Modellen drin, dieses Halluzinieren,
dass das sehr schwer werden wird, ihnen das wirklich auszutreiben.
Deswegen gibt es das auch noch nicht.
Und Elli, du hast noch eine tagesaktuelle News mit reingebracht.
Das Wall Street Journal hat Sam Altman nicht zitiert, aber laut Wall Street
Journal hat Sam Altman was ausgerufen bei OpenAI.
Yes, und zwar den Code Red. In diesen Tagen soll Sam Altman eben diesen sogenannten
Code Red ausgerufen haben.
Was bedeutet das? Der gesamte Fokus im Unternehmen soll darauf gelegt werden,
die Qualität von ChatGPT zu verbessern, um konkurrenzfähig zu bleiben.
Also es scheint, da sieht sich jemand so ein bisschen bedroht.
Das geht zumindest aus einem internen Memo hervor, was dem Wall Street Journal vorliegt.
Und was heißt jetzt, Chat-DPT soll verbessert werden, um konkurrenzfähig zu bleiben?
Konkret geht es darum, bessere Personalisierbarkeit noch zu gewährleisten.
Das Ganze soll noch schneller werden und ein größeres Spektrum an Fragen beantworten.
Ja, da können wir mal gespannt sein, was das bedeutet. Ein größeres Spektrum anfragen.
Vielleicht fällt da dann doch die ein oder andere moralisch-ethische Barriere,
die Jatsipiti da bisher eingebaut hatte.
Wir kommen in den Bereich der Zukunft, mit dem wir unseren heutigen Input schließen
wollen, nämlich was können wir so die nächsten drei Jahre bringen.
Genau, es ist ein Blick in die Kristallkugel, der ist immer schwer,
aber so ein Einstieg wäre ja mal das Thema profitable Geschäftsmodelle,
weil bis jetzt KI sehr teuer, kommt wenig bei rum, einmal flapsig formuliert.
Das sollte sich wahrscheinlich in Zukunft ändern.
Ja, und wie ändert man das, wenn man Geld machen möchte? Da kommt das übliche Stichwort im Internet.
Werbung.
Nicht bei uns, aber eventuell demnächst mal bei ChatGPT.
Darauf will nämlich unter anderem
ein Ex-User im Code der Beta-Version der Android-App gestoßen sein.
Er ist aber ehrlicherweise auch nicht der Erste, der das schon mal besprochen
hat. Wir kommen auch gleich noch zu Sam Altman, aber bleiben wir erstmal bei dem Beta-Code.
Da taucht nämlich im Code so Schlagworte auf wie Ads, Feature,
Search, Ad und Bazaar-Content.
Also das deutet alles so ein bisschen darauf hin, dass man unter Umständen in
Chat-GPT von OpenAI Werbung einbauen könnte,
die dann, weiß ich nicht, zum Beispiel im Chat angezeigt wird oder Chat-GPT
auch einem dann personalisiert Dinge vorschlägt, die dann meinetwegen zum Beispiel
Produkte eines bestimmten Anbieters sind, der dann etwas Geld dafür bezahlt oder solche Dinge.
Genau, ChatGPT hat ja auch vor kurzem so eine Shopping-Research-Funktion tatsächlich
vorgestellt, wo man dann sagen kann,
such mir mal bitte ein blaues Strickkleid mit mindestens 10% Wolle oder so raus
und dann geht der Chatbot auf die Suche und liefert die Ergebnisse.
Ein Schelm, wer da daran denkt, dass man vielleicht gegen Geld gewisse Anbieter
weit oben platzieren könnte.
Und du hattest jetzt schon Sam Oldman angesprochen, auch der hat das Thema Werbung
schon mal thematisiert, unter anderem im November in einem Interview mit dem
Podcast Conversations with Tyler.
Und da hat er Werbung als Open My Eyes, Zitat, biggest revenue opportunity,
also die größte Möglichkeit, um wirklich zu verdienen, benannt.
Das Ganze ist natürlich auch irgendwie naheliegend, weil wer ChatGPT benutzt,
wir sagen zwar immer hier an dieser Stelle,
seid vorsichtig, was ihr da alles preisgebt, aber natürlich landen in ChatGPT
in diesen Chats ganz, ganz viele persönliche Infos.
Also es bleibt spannend, wie OpenAI da Werbung machen möchte,
beziehungsweise Geld aus Werbung machen möchte und wie personalisiert sie dann
wird und wo sie am Ende ausgespielt wird.
Was auch noch ein Geschäftsmodell sein könnte, unter Umständen wäre ja Hardware,
da arbeitet OpenAI ja auch mit dem ehemaligen Chefentwickler von Apple dran, nämlich Johnny Alf.
Also auch da wird 2026 was kommen im nächsten Jahr.
Also wir werden sehen, dass im nächsten Jahr, das ist nicht mal unbedingt Glaskugel, wie gesagt,
man gucken wird, wie man mit JGPT anfängt, Geld zu verdienen,
weil wie gesagt, aktuell verbrennt man Geld, Stella, du hast das gesagt,
und eben anfangen wird, Hardware zu bauen, beziehungsweise zu präsentieren und
zu zeigen, ob man sie im nächsten Jahr schon kaufen kann.
Das weiß ich nicht, aber zumindest sehen werden wir sie wahrscheinlich mal.
Du musst ja immer sofort an diesen Human-AI-Pin denken oder Human-Pin werden.
Natürlich eine ganz andere Richtung hat Open-AI nichts mit zu tun,
aber irgendwie war das meine erste Assoziation. Aber kommen wir doch mal lieber.
Was es wird, wissen wir nicht.
Keine Vorstellung. Vielleicht wird es eine Brille, ein Armband,
ein Ring. Es kann alles sein.
Eine Kette. Eine Kristallkugel.
Kristallkugel. Wir beenden jetzt mal unseren Blick in die Kristallkugel ein
wenig und kommen nochmal quasi zusammen mit, Was haben wir jetzt eigentlich
so die letzte halbe Stunde alles besprochen?
Also ich glaube, was man festhalten kann mit diesem öffentlichen Release,
damals von GPT 3.5, ist auf jeden Fall was losgetreten worden.
Erstmal KI als großes öffentlich diskutiertes Thema.
Gleichzeitig ist es aber auch so, wenn man auf den Hype guckt,
der losgelöst wurde, ist das,
was tatsächlich technisch Bahnbrechendes passiert ist, gar nicht so groß.
Und das ist eine Differenz, die ich finde, die man sich auch immer wieder in Erinnerung rufen darf.
Ja, ChatGPT hat etwas ausgelöst und sicherlich auch in einer Geschwindigkeit,
die wir sonst in der Tech-Welt so auch noch nicht gesehen haben.
Ich meine, das Smartphone zum Beispiel war zwar natürlich auch für die Tech-Welt
und für die Menschheit sehr weltbewegend, allerdings nicht in dieser Geschwindigkeit.
Also 2007 vorgestellt, ging das dann langsam los, dass das sich in der Menschheit
quasi verteilt hat, diese Smartphones und wir jetzt langsam über so Dinge reden,
da kommen wir auch in der guten Nachricht noch zu, zum Thema Handy und wie kommen
wir denn mal nah drum rum,
ums Handy und digitaler Detox und so.
Aber das ist halt nicht in drei Jahren komplett explodiert, die Smartphone-Geschichte.
Und das ist natürlich schon neu. Wie gesagt, aber technisch hat sich gar nicht so, so viel getan.
Was sich aber getan hat, ist eben die Normalisierung. Das ist auf der einen Seite sehr gut,
dass die unterschiedlichsten Leute jetzt damit interagieren können und es nicht
so in so einer Technikblase bleibt, aber es ist eben auch gefährlich und risikobehaftet.
Und man muss auch sagen, die KI ist und bleibt ein Umweltschwein.
Da reden wir von ChatGPT, aber auch von vielen anderen Modellen und Anbietern.
Ja, zusammenfassend würde ich auch sagen, viele Branchen und Bereiche,
Bildungssystem, Gesetzgebung, Kreativbranche und so weiter, versuchen nach den
ersten Kennenlernjahren jetzt so ein bisschen langfristige Umgangsformen zu finden.
Ja, also KI, Smartphone, ich habe es eben gerade schon erwähnt.
Ich habe eben auch die gute Nachricht schon angeteasert. Wollen wir dazu einfach
mal übergehen als Abschluss?
Wollen wir uns zum Schluss nochmal anschauen, wie wir das Thema Handy vielleicht
weniger machen können und was das bringt?
Sehr gerne.
Die gute Nachricht dreht sich um den Bereich Social Detox.
Und die große Frage, was passiert, wenn eigentlich junge Menschen eine Woche
zum Beispiel auf Instagram und TikTok verzichten? Ich kann ja mal euch beide fragen.
Habt ihr schon mal eine ganze Woche darauf verzichtet?
Ja, nicht eine ganze Woche, aber drei, vier, fünf Tage, weil mein Handy kaputt
war und ich kein Ersatzgerät hatte.
Also unfreiwillig.
Ja, unfreiwillig. Das ist jetzt auch schon zwei, drei Tage her.
Zwei, drei Tage nicht, zwei, drei Jahre her.
Ja, es war herausfordernd, weil man sich super schnell an so Dinge gewöhnt.
Also zum Beispiel navigieren mit dem Handy oder die Bahn nachgucken.
Wann fährt die denn und wo muss ich hin?
Das zum Beispiel hat mir in den Tagen unglaublich gefehlt. Social Media nicht unbedingt.
Falls du darauf anspielst. Ich wollte gerade sagen, das dürftest du ja noch,
wenn du nur auf Social Media verzichten würdest, dann dürftest du ja trotzdem
noch sowas wie Google Maps oder so benutzen.
Das stimmt.
Elli, wie ist es bei dir?
Ja, zu meiner Schande muss ich gestehen, ich habe das schon länger vor und schieb es vor mir her.
Und du, Stella?
Ich tatsächlich schon mehrmals. Also, das hat mir jedes Mal gut getan,
aber darum soll es jetzt nicht gehen oder in Teilen geht es in die Richtung.
Und zwar hat sich die Harvard University das Ganze mal genauer angeschaut.
Und was haben sie dafür gemacht? Naja, sie haben eine Studie durchgeführt mit
373 jungen Erwachsenen.
Allerdings muss man jetzt dazu sagen, nur 295 von denen haben einen einwöchigen
Verzicht dann gemacht. Worauf haben sie verzichtet?
Also auf Facebook, Instagram, Snapchat, TikTok und X.
Und dieser Verzicht, der war eben freiwillig. Das heißt, man hat erstmal eine
zweimöchige Beobachtungsphase durchgeführt, sprich hat sich angeguckt,
wie nutzen die Menschen denn diese genannten Programme.
Und dann konnte man optional als Teilnehmer in diese einwöchige Social-Media-Pause
machen. Und dann hat man sich eben die Ergebnisse angeguckt und da ist unter
anderem aufgefallen, dass es positive Auswirkungen auf die mentale Gesundheit gegeben hat.
Das heißt, Ängste, Schlafprobleme und auch Depressionen sind zurückgegangen
und die Anzeichen für Depressionen sogar um 25 Prozent, bei Angstzuständen um
16 Prozent und bei Schlafproblemen immerhin auch um 15 Prozent.
Und was war jetzt das Ziel dieser Studie? Na einerseits erstmal den Zusammenhang
zwischen Nutzung, problematischem Verhalten und psychischem Gesundheitsempfinden
zu erfahren und dann eben auch die Auswirkungen des Verzichts darauf.
Es ist nämlich immer noch so, dass es da zwar viele verschiedene Studien gibt,
wo auch zum Beispiel eine Einleitung heißt, die sind aber auch teilweise widersprüchlich.
Also es gibt noch nicht ein Gesamtbild, wo man sagen kann, das sind wirklich
die Auswirkungen, sondern die Forschung ist da immer noch dran.
Was vielleicht noch ganz interessant war.
Wie diese Studie jetzt gezeigt hat, weniger entscheidend war die Bildschirmzeit
als die Tatsache, ob die Nutzung selbst problematisch empfunden wurde.
Und durchgeführt wurde das Ganze in den USA und zwar im Zeitraum März 2024 bis März 2025.
25, ja, und englischsprachige ProbandInnen quasi und sie haben alle ein Smartphone
besessen und waren zwischen 18 und 24 Jahre alt und allein deshalb weiß ich,
weil ihr nicht in den USA lebt und nicht zwischen 18 und 24 seid,
dass ihr beide nicht dabei gewesen sein könnt und ich auch nicht, also.
Das stimmt, ich habe nicht mitgemacht. Allerdings, nach dieser guten Nachricht
und nach den positiven Ergebnissen, die du gerade aufgezählt hast,
ich glaube, ich denke nochmal darüber nach, vielleicht zwischen in den Jahren
mal so, zwischen Weihnachten und Neujahr eine Woche lang auf Social Media zu
verzichten, mal gucken.
TikTok wird mir wahrscheinlich fehlen, aber ich schaffe das.
Es wäre ja quasi fast keine gute Nachricht bei uns, wenn es nicht auch ein Aber gäbe.
Auch die Studienautorinnen auch reingeschrieben haben bei sich,
man weiß nicht, also du hast die Zahlen genannt, inwiefern Symptomatiken und
so weiter zurückgegangen sind.
Wir hatten da Depressionen, unter anderem Anxiety und sowas.
Und da ist aber auch ganz klar, es ist nicht klar, wie lange dieser Effekt dann tatsächlich anhält.
Also man sieht zwar einen positiven Effekt, aber so richtig erforscht,
ob das dann auch dauerhaft ist oder ob das einfach nach dieser einen Woche dann
wieder sich zurückbildet, das ist dann durch diese Studie noch nicht erforscht worden.
Genauso das Thema mit, was hat sich im Umfeld dadurch verändert.
Also das spielt ja auch noch mit rein. Deswegen ist es eben auch mit der Einordnung
da final zu sagen, das möchte ich jetzt mit dieser guten Nachricht nicht.
Social Detox ist automatisch total super.
Das lässt sich so studienwissenschaftsmäßig nicht aufrechterhalten.
Aber natürlich kann das jeder für sich selbst rausfinden, vielleicht zwischen
den Jahren weniger Social Media zu finden.
Mehr Bücher, mehr Zeit mit der Familie. Für manche vielleicht auch stressig.
Die sind dann gestresster als vorher mit Instagram oder TikTok.
Ja, es hat sein Für und Wider alles.
Nee, ich mache immer zwischen den Jahren in Herr der Ringe Extended Version
Marathon, die drei Filme. Da habe ich sowieso weniger Zeit fürs Handy.
Können wir aber auch drüber reden, Caspar, ob das wiederum gesund ist.
Da guckst du ja auch so viel auf den Bildschirm.
Ja, aber da ist ja meistens schlechtes Wetter zwischen den Jahren.
Beziehungsweise so 13 Grad und Nieselregen ist ja immer so um Weihnachten rum.
Es ist ja nicht mal winterliches Wetter leider.
Naja, apropos Winter, wir kommen zum Schluss.
Ihr hört uns morgen wieder, beziehungsweise ihr hört Elli morgen wieder,
wenn ich den Plan richtig in Erinnerung habe, mit den nächsten Türchen.
Das hier war ja jetzt das vierte Türchen, morgen gibt es das fünfte.
Und wie gesagt, denkt dran, Spotify rappt, wenn ihr als Podcast vielleicht uns
irgendwo da in den Charts auftauchen habt, freut uns das, wenn ihr uns das bei
Instagram schickt. und er guckt euch die Bilder, die wir mit Flux gemacht haben,
auf der Webseite in der Galerie nochmal an.
Und in dem Sinne, bis spätestens nächste Woche, aber wie gesagt,
bleibt dran für unseren Adventskalender.
Ja, und ich sage einfach bis morgen. Tschüss.
Bis dann. Tschüss.
Tschüss.
Caspar
00:00:48
Stella
00:00:49
Elli
00:00:54
Stella
00:00:56
Caspar
00:01:19
Stella
00:01:58
Caspar
00:02:06
Stella
00:02:14
Elli
00:02:18
Stella
00:02:39
Caspar
00:03:15
Elli
00:03:20
Stella
00:04:53
Caspar
00:05:06
Elli
00:05:40
Caspar
00:07:08
Stella
00:07:28
Caspar
00:07:50
Stella
00:07:53
Caspar
00:08:10
Elli
00:08:14
Caspar
00:08:19
Stella
00:08:20
Elli
00:08:57
Caspar
00:10:00
Elli
00:10:03
Stella
00:10:36
Caspar
00:11:07
Stella
00:11:10
Caspar
00:11:12
Stella
00:11:13
Caspar
00:11:29
Stella
00:11:30
Caspar
00:11:31
Stella
00:11:46
Caspar
00:11:59
Stella
00:12:06
Caspar
00:12:51
Elli
00:13:03
Caspar
00:13:09
Stella
00:13:10
Elli
00:13:11
Stella
00:13:15
Caspar
00:13:15
Elli
00:13:16
Stella
00:13:22
Elli
00:13:24
Caspar
00:13:31
Stella
00:13:33
Elli
00:13:37
Stella
00:13:42
Elli
00:13:45
Caspar
00:13:49
Elli
00:13:51
Caspar
00:14:06
Stella
00:14:14
Caspar
00:14:27
Stella
00:14:29
Elli
00:14:30
Caspar
00:14:37
Elli
00:14:39
Caspar
00:14:40
Stella
00:14:46
Caspar
00:15:12
Elli
00:15:22
Stella
00:15:40
Caspar
00:15:53
Stella
00:15:55
Caspar
00:16:00
Stella
00:16:02
Caspar
00:16:20
Stella
00:16:39
Caspar
00:16:43
Elli
00:16:48
Caspar
00:17:02
Stella
00:17:04
Caspar
00:17:05
Stella
00:17:14
Caspar
00:17:46
Stella
00:19:01
Elli
00:19:36
Caspar
00:20:04
Stella
00:20:09
Elli
00:20:14
Stella
00:21:22
Caspar
00:21:36
Elli
00:22:54
Caspar
00:23:36
Stella
00:23:59
Elli
00:24:06
Caspar
00:24:34
Elli
00:26:41
Caspar
00:28:04
Stella
00:29:06
Caspar
00:30:35
Elli
00:30:45
Caspar
00:31:32
Elli
00:31:36
Caspar
00:31:41
Stella
00:32:58
Caspar
00:33:22
Stella
00:34:09
Caspar
00:34:43
Elli
00:35:24
Stella
00:36:27
Caspar
00:36:51
Elli
00:36:59
Caspar
00:37:01
Elli
00:37:45
Caspar
00:38:52
Stella
00:39:32
Caspar
00:39:43
Stella
00:39:46
Caspar
00:39:50
Stella
00:39:53
Caspar
00:40:15
Elli
00:41:06
Caspar
00:41:48
Elli
00:42:05
Stella
00:42:13
Caspar
00:42:31
Stella
00:42:37
Caspar
00:42:38
Elli
00:42:59
Caspar
00:43:09
Stella
00:43:10
Elli
00:43:11
Caspar
00:43:16
Stella
00:43:17
Caspar
00:45:31
Elli
00:45:49
Stella
00:46:29
Caspar
00:47:05
Stella
00:47:12
Caspar
00:47:17
Stella
00:47:57
Elli
00:48:03
Caspar
00:48:06
Stella
00:48:08