Drei Jahre ChatGPT: Zwischen Hype und Alltag

Wir blicken zurück

04.12.2025 49 min

Zusammenfassung & Show Notes

Am 30. November 2022 veröffentlichte ChatGPT das Modell 3.5 und löste damit einen nie dagewesene KI-Boom aus. Wir nutzen den Anlass um einen Blick zurück zu werfen und uns unter anderem zu Fragen was denn in diesen drei Jahren wirklich passiert ist und wo wir beim Thema KI stehen. Inklusive einem kleinen Ausblick auf die Zukunft. Außerdem sprechen wir über LKW-Fahrer im Homeoffice, welches Jobangebot euch die ESA und das DLR machen und wieso Digital Detox über die Feiertage doch eine gute Idee wäre.

Links zur Episode

Transkript

Ihr habt es gehört, wir sind im Weihnachtsmodus bei Silicon Weekly, beziehungsweise im Vorweihnachtsmodus. Schön, dass ihr wieder eingeschaltet habt zu unserem Türchen Nummer 4 und da bekommt ihr uns zu dritt in einer regulären Folge. Wir haben viele Tech News dabei, die mal so gar nicht weihnachtlich sind. Wir haben natürlich einen Input, eine gute Nachricht. Es ist für alles gesorgt. Und wer sind wir? Das ist einmal mein Kollege Caspar.
Caspar
00:00:48
Hallo Stella.
Stella
00:00:49
Und natürlich ist auch Elli dabei, sonst wären wir ja nicht vollständig.
Elli
00:00:54
Hallo ihr beiden und hallo ihr da draußen.
Stella
00:00:56
Vielleicht habt ihr da draußen, ich habe es gerade jetzt gesehen, kurz bevor wir aufgezeichnet haben, Spotify rappt ist draußen. Ich weiß, das wird für gemischte Gefühle sorgen, wahrscheinlich auf Social Media. Da haben wir heute auch noch nie News zu, zu Social Media. Ist wahrscheinlich wieder alles voll mit Spotify. Ich habe natürlich bei mir auch schon geguckt, wer da in den Top-Listungen ist. Caspar, du auch?
Caspar
00:01:19
Ja, ich habe direkt schon gedacht, okay, jetzt kann ich wieder für drei Wochen Instagram ausmachen und einfach nicht mehr reingucken, weil alle jetzt ihr Rap teilen. Ich nutze Apple Music, da habe ich das auch schon gesehen. Und ich finde die Charts wie jedes Jahr seltsam. Also ich weiß, dass ich mehr Musik gehört habe, das sagt man ja. Aber mit den KünstlerInnen, die dort angezeigt werden, mir war nicht bewusst, dass einige davon sehr häufig gehört wurden und andere nicht. Aber das ist wieder dahingestellt, Was ich aber in diesen Spotify-Rap-Geschichten ganz spannend finde, in dieser Spotify-Rap-Geschichte werden auch die Podcasts dargestellt. Vielleicht gibt es ja den ein oder anderen, wo wir da auftauchen in den Podcast-Charts bei dem eigenen Rap. Das könnt ihr uns ja gerne mal bei Instagram schicken, das würde uns freuen.
Stella
00:01:58
Das ist ein bisschen ärgerlich. Mit unserem Adventskalender sind wir jetzt zwangsläufig, wenn ihr immer fleißig einschaltet, ja häufiger bei euch dabei. Aber das fließt jetzt nicht in die Statistik.
Caspar
00:02:06
Das fließt nicht mehr mit rein. Ich habe irgendwie gelesen, ab Mitte Oktober, Ende Oktober hört Spotify auf mitzuzählen, damit sie die Raps quasi vorbereiten. Ob das stimmt, weiß ich nicht.
Stella
00:02:14
Das würde einiges erklären. Elli, hast du auch schon reingeschaut?
Elli
00:02:18
Ich habe noch nicht reingeschaut. Ich weiß, dass ich mal über den Zeitraum geschrieben habe, aber ich kann es gerade nicht mehr aus den Tiefen meines Gehirns rauskratzen, wie lange das ermittelt wird. Genau, aber mein Spotify hat mir auch noch keinen Ping gegeben. So, hallo, bitte, hier, möchtest du wissen, ob du eine Pink Pop Pilates Princess bist oder doch irgendwas anderes?
Stella
00:02:39
Diese Kategorien, also bei mir wurden so Club-Zugehörigkeiten quasi angezeigt und welche Rolle man im Club hat. Aber bevor wir abdriften, wir reichen einfach nächste Woche in den Updates nach, wann dieser Spotify-Zeitraum ist, wenn alle schon die Krise gekriegt haben von diesen ganzen Spotify-Top-Listen, die überall rumgeistern werden und machen heute erstmal die Updates, die wir auch wirklich vorgesehen haben. Eine flotte Nachricht aus der deutschen KI-Welt. Es geht nämlich um Flux 2.
Caspar
00:03:15
Ich wollte gerade sagen, deutsche KI-Welt. Caspar.
Elli
00:03:20
Ja, die gibt es. Im Schwarzwald gibt es die unter anderem. Also, wir haben ja die letzten Wochen über Bildgeneratoren gesprochen. Also Google und Nano-Banana. Also bei mir im Google-Konto ist Nano-Banana auch sehr präsent. Google möchte immer gerne, dass ich das benutze. Und ich möchte es nicht benutzen. Und jetzt gibt's eine neue Version aus dem Schwarzwald, nicht von Google, sondern von Black Forest Labs. Und das ist eben Flux 2. Jetzt ist so ein bisschen wie bei Nano Banana zum Beispiel das Thema Schrift soll da verbessert worden sein bei Flux 2. Und dann ist auch so die Idee, konsistente Charaktere und Stile über mehrere Bilddurchläufe, also dass man wirklich an einem Bild immer wieder quasi arbeiten kann und nicht mit jedem Prompt kriegt man plötzlich ein völlig neues Bild ausgespuckt, und auch Lichtverhältnisse sollen realistischer werden. Fand ich ganz spannend, weil das ja teilweise doch auch noch so ein Aspekt ist, wo ExpertInnen dann genauer hinschauen, um rauszukriegen, ob ein Bild KI generiert ist oder nicht. Also auch da möchte man jetzt eben doch nochmal schrauben. Das Spannende an Black Forest Labs ist, so als Unternehmen, das Ganze ist mit einem Open-Core-Ansatz. Wir gehen jetzt nicht im Detail drauf ein, was das bedeutet, aber mal so viel, Diese Modelle von Black Forest Labs, die können auch auf eigener Infrastruktur gehostet werden bei Bedarf. Also man muss das Ganze nicht in der Cloud machen.
Stella
00:04:53
Und Elli und Caspar, die haben das Ganze auch ausprobiert. Also teilt doch gerne einmal, was eure Erfahrungen sind. Vielleicht vorweg, ohne Anmeldung funktioniert das nicht, aber es gibt eben einen kostenfreien Test. Caspar, wie sieht es aus? Was waren so deine Erfahrungen?
Caspar
00:05:06
Tatsächlich ist es so, dass jetzt zum Beispiel Schrift sehr gut funktioniert. Ich habe ein Podcaststudio generieren lassen, wo ich gesagt habe, da soll hinten Silicon Weekly stehen. Das wäre mit dem älteren Flux-Modell teilweise noch ein Problem gewesen, weil da Buchstaben vertauscht gewesen wären. Das hat jetzt deutlich besser funktioniert. Es steht da fehlerfrei. Ich habe auch ein paar verschiedene Prompts ausprobiert. Das wirkt alles ein bisschen natürlicher. Aber ich würde aber sagen, im direkten Vergleich mit aktuellen anderen Bildmodellen ist es jetzt nicht so, dass wir da eine Revolution hätten. Es kommt näher ran an sowas wie Nino Banana, aber überholt zum Beispiel, würde ich sagen, hat es das nicht. Indy, konntest du es ausprobieren?
Elli
00:05:40
Ähm, jein. Ich habe versucht, mich anzumelden und bin dann erstmal gescheitert. Es könnte auch daran gelegen haben, dass ich im Zug saß, als ich es ausprobieren wollte. Ich bin soweit gekommen zu dem Teil, wo Flux direkt mal fragt bei der Anmeldung, wofür man eigentlich hauptsächlich Bilder generieren will. Also zum Beispiel Social Media, private Projekte oder zum Beispiel auch Produktprototyping und dann kriegt man vermutlich so ein paar entsprechende Tools ausgespielt. Ich habe mir aber die Bilder mal angeguckt, die du dann gemacht hast, Caspar, und finde schon, also gerade für so Science-Fiction-Motive, Comic und so weiter, ist es super nutzbar. Also da finde ich, ist der Unterschied nicht möglich. Bedeutend zu anderen großen Modellen. Bei den Fotomodellen oder so, was du gemacht hast, also Caspar hat zum Beispiel ein Bild oder eine Bildereihe gemacht, die so ein bisschen nach einem Fashion-Shooting, Mode-Shooting ausgesehen hat. Und wenn man so dran vorbeigehen würde, ohne genau hinzusehen, würde ich schon sagen, man könnte das für echt halten. Wenn man dann in die Details guckt, dann sieht man so ab und zu diesen Weichzeichner, so an den Linien, zum Beispiel an der Hand am Arm und sowas. Und könnte schon drauf kommen, dass es entweder schlecht gephotoshoppt oder doch KI generiert ist.
Caspar
00:07:08
Ich überlege gerade, wir können auf der Webseite, glaube ich, auch eine Bildergalerie machen. Ich würde die da einfach mal reinpacken. Also wenn euch interessiert, über was wir gerade redet haben oder was für Fähigkeiten bei Flux 2 rumkommen, dann schaut mal bei uns auf der Webseite www.sidikon-weekly.de und klickt mal dem Artikel zur aktuellen Folge an. Dann findet ihr dort die Beispiele in der Bildergalerie und könnt mal reingucken.
Stella
00:07:28
Schaut da gerne vorbei und jetzt haben wir noch ein zweites Update für euch. Es geht nämlich um das Thema autonomes Fahren in Deutschland und bisher ist es da eben eigentlich so, da muss immer jemand am Steuer sitzen, um bei Bedarf einzugreifen. Jetzt gibt es aber was Neues. Und zwar, haltet euch fest, die Straßenverkehr-Fernsteuerungsverordnung ist in Kraft getreten.
Caspar
00:07:50
Können wir das nochmal haben?
Stella
00:07:53
Soll ich es nochmal? Ich habe noch was anderes mitgebracht. Fernlenkverordnung wäre die Alternative bestossen schon im Juli 2025. Und jetzt geht es los. Ich habe auch eine Abkürzung. STVFSV.
Caspar
00:08:10
Straßenverkehrsfernsteuerungsverordnung ich habe selten ein so deutsches Wort gehört sehr schön STV.
Elli
00:08:14
FSV klingt so ein bisschen nach einem Fußballverein finde ich.
Caspar
00:08:19
Stimmt.
Stella
00:08:20
Ist kein Fußballverein und es wird auch, glaube ich, im nachfolgenden Teil, zeigt sich, wie schön und wie genau die deutsche Sprache sein kann. Es geht nämlich um Teleoperation. Also vereinfacht gesagt, Autofahren aus dem Homeoffice könnte so möglich werden. Was dabei wichtig ist, eine Person steuert immer das Auto, aber es gibt keine Kontrolle über eine ganze Fahrzeugflotte. Also es bedeutet, es kann jetzt nicht so irgendwie jemand vor seinem Bildschirm sitzen und mehrere Pkw steuern, sondern immer nur ein Wagen. Falls ihr denkt, ja mit mehreren Pkw, das ist doch eh irgendwie Science Fiction, ist es nicht. Das gibt es beispielsweise schon in China und den USA.
Elli
00:08:57
Und das ist tatsächlich auch eine spannende Frage, gerade wenn man so in den Industriebereich geht. Wir gucken gleich nochmal, wofür das überhaupt sinnvoll sein könnte. Aber es gibt zum Beispiel jetzt auch schon Leute, die sagen, okay, dieses 1 zu 1 ist einfach wirtschaftlich noch relativ schwierig, das attraktiv irgendwie zu machen. Aber so diese Fahrzeugflottenbetreuung, wie sie woanders schon gibt, die ist wohl ein bisschen interessanter so aus ökonomischer Sicht. Und deswegen ist das Ganze auch erstmal eine fünfjährige Testphase, dieses One-to-One-Ding und danach guckt man weiter. So, fragt man sich natürlich, warum sollte jemand ein Auto fernsteuern, wofür soll das gut sein? Die Idee ist zum Beispiel einerseits so Robotaxis ein bisschen unter die Arme zu greifen quasi, aber auch für einen Lieferverkehr könnte es interessant sein, zum Beispiel, wenn ein LKW-Fahrer aus dem Homeoffice, ich nenne das jetzt einfach mal so flapsig, den LKW abgestellt hat.
Caspar
00:10:00
Endlich Homeoffice für LKW-Fahrer.
Elli
00:10:03
Den LKW abgestellt hat und dann wird der entladen. Derweil könnte die Person ja schon ein anderes Fahrzeug wieder steuern. Das heißt, solche Zeiten könnte man zum Beispiel überbrücken. Oder auch die Idee beim Carsharing gibt es, dass man normalerweise, wenn man Carsharing macht, muss man ja zu einem Gewissen vertreten. Ein Abstellort, wo man das Auto sich dann abholt. Und da ist eben die Idee, man könnte als Carsharing-Anbieter dieses Auto quasi direkt beim nächsten Kunden vor die Tür fahren lassen von jemandem, der das halt beruflich im Office macht.
Stella
00:10:36
Es geht ja auch darum, wer kann das denn jetzt eigentlich in dem Sinne machen. Das ist nämlich jetzt nicht so, dass jeder quasi Fernlenker sein kann. Generell gilt, der Fernlenker ist erstmal der Fahrzeugführer. Und da gibt es auch bestimmte Voraussetzungen, damit man eben quasi als Teleoperator tätig sein kann. Also man muss mindestens 21 Jahre alt sein, einen Führerschein seit mindestens drei Jahren haben. Und es braucht auch eine spezielle Schulung plus oder mehrere Schulungen sogar und nicht mehr als drei Punkte in Flensburg.
Caspar
00:11:07
Cool, ich könnte Teleoperator werden. Schön.
Stella
00:11:10
Die Schulungen fehlen dir bestimmt noch.
Caspar
00:11:12
Stimmt, die Schulungen fehlen mir, ja.
Stella
00:11:13
Und wir haben jetzt auf jeden Fall die Updates Extended quasi gemacht in dieser Folge. Weshalb ich sagen würde, Leute, habt ihr Lust auf ein WTF? Das bringt uns weg vom Autofahren. Es bringt uns quasi, naja, es passt auch nicht in den Weltraum. Zumindest jetzt noch nicht. Ich habe eine Überleitung.
Caspar
00:11:29
Ich habe eine Überleitung.
Stella
00:11:30
Okay, hau raus.
Caspar
00:11:31
Und zwar hätte ich ja eben schon gesagt, ich könnte Teleoperator werden, wenn ich die Schulung habe. Und im WTF geht es um ein anderes Jobangebot, wo wir auch mal gucken könnten, ob ich das machen könnte oder nicht.
Stella
00:11:46
Naja, bei diesem Jobangebot, um das wir jetzt reden, wir haben sogar zwei Stränge noch mitgebracht, aber das eine bietet 23.000 Euro für 100 Tage, allerdings in Isolation.
Caspar
00:11:59
Was heißt denn Isolation und für wen und was genau muss man da machen? Das wäre noch ganz wichtig zu wissen, bevor ich das Jobangebot annehmen würde.
Stella
00:12:06
Gute Fragen. Fangen wir erstmal so an. Also es geht um die Europäische Raumfahrtbehörde, die ESA und das Deutsche Zentrum für Luft- und Raumfahrt, DLR. Und die suchen aktuell ProbandInnen für die Studie Solis 100. Und das Ganze bedeutet, dass sie sechs Menschen finden wollen, die im Frühjahr 2026, also gar nicht so lange mehr hin, 100 Tage in einem Kölner Labor leben. Und sie sollen da eben abgeschottet sein von der normalen Umwelt in einer simulierten Raumstation. Es soll dann einen festen Tagesablauf geben, sprich man soll Sport machen, man muss die Raumstation versorgen, sich um Ernährung kümmern, um Reinigung, quasi so eine Art WG unter besonderen Umständen.
Caspar
00:12:51
Ne, und alles, was bei so einer Raumstation halt auch anfallen würde. Was müsste ich denn mitbringen als Voraussetzung? Also bis jetzt klingt es doch einigermaßen so, dass ich sagen würde, vielleicht ist das für 23.000 Euro sogar spannend.
Elli
00:13:03
Ich nehme euch mal mit durch die Checkliste. Seid ihr zwischen 25 und 55?
Caspar
00:13:09
Ja, check.
Stella
00:13:10
Check.
Elli
00:13:11
Okay, dann, das würde noch gehen. Habt ihr einen Hochschulabschluss?
Stella
00:13:15
Yes.
Caspar
00:13:15
Zwei.
Elli
00:13:16
Okay, zwei, zwei, ja. Sind eure Englischkenntnisse sehr gut?
Stella
00:13:22
Führe ich so. Ja, Caspar. Ja, doch.
Elli
00:13:24
Okay, gut. Und dann ist noch die Frage ... Seid ihr körperlich fit, Freunde?
Caspar
00:13:31
Was heißt das?
Stella
00:13:33
Mehr geht immer. Ein Marathon würde ich jetzt nicht laufen.
Elli
00:13:37
Ich vermute mal, dass man da irgendwie einen Fitnesstest durchlaufen muss im Vorfeld.
Stella
00:13:42
Also einen Cooper-Test, erinnert ihr euch noch? Aus der Schule?
Elli
00:13:45
Oh Gott. Oder sowas wie bei der Polizei, so einen Sporttest.
Caspar
00:13:49
Ein Aufnahmetest, ja.
Elli
00:13:51
Naja, also daran könnte es im Zweifel scheitern, bei uns zumindest. Die Bewerbung. Ansonsten, wenn ihr euch da draußen jetzt wieder erkannt habt und gedacht habt, ja, noch Es gibt noch ein zweites Problem. Ach so.
Caspar
00:14:06
Neben der körperlichen Fitness. Wenn wir drei jetzt da einziehen, wer macht denn dann die 100 Tage den Podcast? Weil wir werden ja dann isoliert.
Stella
00:14:14
Könnten wir den Podcast exklusiv aus diesem Projekt machen? Wobei ich muss sagen, 100 Tage Isolation, das wäre überhaupt nicht meins. Also Leute, bewerbt euch gern, wenn ihr wollt. Bei den 100 Tagen, das meine ich.
Caspar
00:14:27
Okay, dann gut.
Stella
00:14:29
Ich bin an eurer Stelle nach außen.
Elli
00:14:30
Ich muss zugeben, ich habe kurz gezuckt. Bis zum 12. Dezember kann man sich noch bewerben.
Caspar
00:14:37
Da gibt es eine entsprechende Website dazu. Wollen wir die Link in die Show Notes packen?
Elli
00:14:39
Ja, können wir mal machen.
Caspar
00:14:40
Okay, falls Leute dann jetzt plötzlich aufhorchen und sagen, wo ist das? Ich google schon.
Stella
00:14:46
Vielleicht sollten wir aber noch einmal sagen, warum man das Ganze eigentlich macht. Es gibt nämlich auch ein Ziel und das Ganze soll helfen, eben AstronautInnen auf Langzeitaufenthalte vorzubereiten, also die Beobachtungen, die dort gemacht werden. Und es gab auch schon mal einen ähnlichen Versuchsaufbau. Allerdings nur mit acht Tagen Isolation. Vielleicht hätte ich das erst mal vortesten müssen damals in dieser Gruppe, um zu entscheiden, ob ich, weil ne, 100 Tage, das wäre es bei mir persönlich nicht.
Caspar
00:15:12
Acht Tage sind easy, sage ich jetzt so. Es gibt aber noch einen zweiten. Elli, wir haben gerade gesagt, es sind zwei Jobs. Bei dem zweiten, muss ich sagen, wäre ich eher raus. Das klingt schon wieder nach nichts für mich.
Elli
00:15:22
Ja, also ich muss sagen, bei der Isolation, man ist ja dann auch mit anderen Menschen zusammen. Also man ist ja nicht komplett alleine, sondern man ist ja doch in so einem kleinen Team auf der Raumstation. Aber beim zweiten Versuch, da habe auch ich nicht mal gezuckt, weil das klingt für mich ganz, ganz strabaziös.
Stella
00:15:40
Es geht um 60 Tage Bettruhe. Da werden zwölf Teilnehmende gesucht. Jetzt muss man aber auch sagen, das sind jetzt keine normalen Betten, sondern welche, die sind zum Kopf hin um sechs Grad nach unten geneigt.
Caspar
00:15:53
Der Kopf liegt tiefer.
Stella
00:15:55
Genau, ich stelle mir das so ein bisschen, kennt ihr das beim Zahnarzt, auf dem Zahnarztstuhl?
Caspar
00:16:00
Ja, genau, wenn man so nach hinten geklappt wird.
Stella
00:16:02
Genau, so stelle ich persönlich mir das vor, warum das Ganze die Idee ist zu testen, welche körperlichen Auswirkungen von Schwerelosigkeit, ja, was dagegen hilft. Weil, was passiert? Naja, die Körperflüssigkeiten in diesen schlafenden Betten da, die wandern ja dann auch Richtung Kopf.
Caspar
00:16:20
Das passiert in der Schwerelosigkeit halt eben auch, dass das dann tendenziell, wenn keine Erdanziehungskraft mehr da ist, pumpt das Herz einfach mehr Blut in den Kopf, als wenn wir eben auf der Erde stehen würden und deswegen simulieren sie das in diesen 60 Tage Bettruhe, aber 60 Tage am Bett liegen, also ich bin ein Couch-Potato, das gestehe ich, aber 60 Tage halte ich glaube ich nicht durch.
Stella
00:16:39
Was passiert denn dann auch mit der ganzen Muskelmasse, die abgebaut wird?
Caspar
00:16:43
Ja, das ist glaube ich Teil des Versuchs, also wirklich mal zu gucken, Auswirkungen von Schwerelosigkeit, naja.
Elli
00:16:48
Ja, wir haben an der Stelle auch nicht rausgesucht, was man dafür dann für eine Entschädigung bekommen würde. Vielleicht kriegt man hinterher noch so ein Fitnesstraining umsonst mit. Damit man wieder zu Rüsten kommt.
Caspar
00:17:02
Ja, ja gut, also.
Stella
00:17:04
Verzweifelter Lacher.
Caspar
00:17:05
Wir überlegen uns das mit der Raumstation und den Rest überlassen wir anderen Leuten. Und ja, vielleicht sollten wir jetzt zur Geburtstagsfeier übergehen.
Stella
00:17:14
Das ist aber auch keine richtige Feier, aber du hast recht, es ist Zeit für unseren Input. Wir nehmen jetzt ehrlich gesagt eher den Geburtstag in Anführungszeichen zum Anlass, um uns mal kritisch nochmal mit einem Thema auseinanderzusetzen. Und wer jetzt dieses Geburtstagskind in Anführungszeichen ist, kein Mensch, sondern ein Programm. Und zwar ChatGPT. Am 30. November 2022 wurde das Ganze nämlich von OpenAI veröffentlicht.
Caspar
00:17:46
Genau. Und du hast es auch schon gesagt, Geburtstag passt insofern auch nicht, weil das, was 2022 veröffentlicht wurde, war nicht die Geburtsstunde von OpenAI. Da hat niemand einen großen roten Knopf gedrückt und plötzlich war die Firma und das Sprachmodell da. Das sieht man auch daran, dass zum Beispiel GPT 3.5 damals veröffentlicht wurde und nicht etwa GPT 1.0 oder gar 0.1, sowas wie eine Beta-Version. Was wirklich neu war, war, dass man jetzt plötzlich so ein KI-Modell mal ausprobieren konnte. Und eigentlich ist das Ganze, dieses ganze künstliche Intelligenz zwar jetzt seit drei Jahren ein riesiges Thema. Und da wollen wir auch gleich mal ein bisschen drauf gucken und uns das anschauen, die vergangenen drei Jahre JetGPT. Aber es ist halt eben eigentlich auch keine neue Erfindung, weil eigentlich ist alles rund um künstliche Intelligenz, neuronale Netze und so rund 75 Jahre alt. In den 50er Jahren gab es die ersten wissenschaftlichen Versuche. Dann gab es zum ersten Mal auch so das Label künstliche Intelligenz. Und OpenAI selber gibt es auch schon seit 2015. Deswegen auch da kein Geburtstag. Wurde übrigens gegründet von einem gewissen Sam Altman, der immer noch bei OpenAI ist und einer anderen Internetgröße, sage ich mal, um es relativ neutral auszudrücken, Elon Musk. Der war nämlich auch Gründungsmitglied, hat die Firma aber verlassen, bevor sie so durch die Dicke gegangen ist ab 2022.
Stella
00:19:01
Also wir gehen jetzt auch nicht auf alle verschiedenen KI-Systeme ein oder auf die Entwicklung, sondern gucken uns wirklich Chatschipiti an. Und warum machen wir das? Caspar, du hast es angerissen, weil die ersten LLMs, die waren eben einfach der Öffentlichkeit gar nicht zugänglich. Also Google hat damals ja durchaus sein System immer mal wieder in Präsentation gezeigt, was sie damals hatten, aber immer nur ausgewählten Personen. Und das ist ja auch das Besondere bei ChatGPT, weshalb es auch so viel Aufmerksamkeit seitdem erfährt. Es ist eben das erste Mal, dass so ein KI-Modell auch wirklich so leicht, so niedrigschwellig für die Öffentlichkeit zugänglich geworden ist.
Elli
00:19:36
Ja, wir reisen mal zurück. Ich habe mal die Kisten im Archiv abgestaubt. Uns als Dreier-Kombo gab es ja da schon. Allerdings nicht hier bei Silicon Weekly, sondern noch im T3N-Catch-Up. Und da habe ich mal die Folge aus dem Dezember rausgesucht mit dem schönen Titel Dicke kleine Autos. Und da sprachen wir in der Kategorie Netzfundstück über dieses neue Ding, über Chat-GPT. Ja.
Caspar
00:20:04
Es ist schon irgendwie niedlich, dass wir das zum Netz für ein Stück erklärt haben. Gut, aber damals konnten wir es noch nicht so richtig absehen.
Stella
00:20:09
Was haben wir denn damals eigentlich, vielleicht für diejenigen, die die Folge auch nicht gehört haben, was haben wir denn da eigentlich gemacht?
Elli
00:20:14
Also unsere Folge ist gut gealtert. Caspar, du hattest damals Fragen gestellt an ChatGPT und damals konnte ChatGPT auch noch nicht sprechen. Wir haben dann die geschriebenen Antworten von Google wiederum vorlesen lassen. Also, das war eine ganz wilde Bastelei damals noch. Und tatsächlich hatten wir zwei Fragen, die dann auch richtig beantwortet wurden. Und in der dritten gab es aber dann schon einen Fehler quasi, den die KI gemacht hat. Da ging es darum, zu wem, also was T3N eigentlich ist, also unser damaliger Arbeitgeber. Und da wurden wir einem Verlag zugeordnet, zu dem wir eindeutig nicht gehört haben. Ich finde, wir haben ein recht gutes Fazit dann gezogen damals, weil wir haben schon damals gesagt, der Faktencheck ist wichtig, weil das klingt alles sehr plausibel, was da rauskommt. Die Gesellschaft muss sich Gedanken um Trainingsdaten machen und wo die eigentlich herkommen. Und wir sollten vielleicht auch überlegen, wie man KI-Inhalte kennzeichnet und dass man sie kennzeichnet. Naja, da kommen wir gleich nochmal drauf.
Stella
00:21:22
Wir gucken mal auf die Basis, nämlich diese ganzen technologischen Entwicklungen, die wir jetzt ein paar Mal angerissen haben. Es ging ja damals los mit GPT 3.5. Spoiler, war bestimmt nicht die erste Variante, Caspar, das hast du ja schon gesagt.
Caspar
00:21:36
Ja, genau. Und die Halluzination, die hat Elli schon erwähnt, die sind wir damals, die sind wir ja damals in der dritten Frage direkt auf, haben wir aufgedeckt. Was auch noch ein Problem war, war das sogenannte Kontextfenster und die Token-Grenze. Das beschreibt bei Sprachmodellen, großen Sprachmodellen im Grunde nur, wie viel die verarbeiten können und wie viel die sich merken können. Das war damals auch noch relativ gering. Also man ist da relativ schnell, wenn man Dokumente hochgeladen hat, an eine Grenze gekommen. Das zum Beispiel hat sich aber stark verändert. Also wir können jetzt viel längeren Kontext, wir können viel mehr Tokens dort reinpacken. Multimodalität, also die Sprachmodelle, wenn ich mit Chat-GPT schreibe, das kann Bilder erkennen. Das ging am Anfang auch überhaupt nicht. Das war ein reines Sprachmodell. Jetzt kann es auch Bilder generieren innerhalb dieser Sprach-Chat-Fensters. Das ging halt eben auch nicht. Besseres Reasoning. Dann gibt es einen Agentenmodus, der selber losläuft. Den haben vielleicht viele von euch auch schon mal ausprobiert. ChatGPT hat einen Internetzugriff bekommen im Laufe der drei Jahre, sodass es selber Informationen raussuchen kann, wenn es die nicht selber in seinen Trainingsdaten hat. Das ist damals wahrscheinlich auch das Problem gewesen, warum unser Verlag damals nicht richtig genannt wurde, weil er schlicht und ergreifend in den Trainingsdaten nicht vorkam. Und die Halluzinationen sind ein bisschen weniger geworden, beziehungsweise haben sich etwas verschoben, unter anderem, wie gesagt, wegen diesem Internetzugriff. Weg sind sie aber nicht.
Elli
00:22:54
Ja, und da kommen wir schon zu einem der Punkte, die weiterhin problematisch geblieben sind. Da gehen wir auch gleich nochmal drauf ein weiter. Ich habe auch so das Gefühl, die Halluzinationen, die sind jetzt eben eleganter verpackt und sie sind auch irgendwie ein Stück weit egaler geworden vielleicht oder sie werden halt in Kauf genommen. Also das war damals schon auch so, dass man einfach ganz viel rumprobiert hat und sich angeguckt hat. Und dann aber trotzdem war immer noch der Satz, ja, aber wir wissen ja, dass das Fehler macht. Und ich glaube, dieser Satz nutzt sich ab über die Jahre und wird, glaube ich, so ein bisschen teilweise wegignoriert. So, ja, wissen wir ja.
Caspar
00:23:36
Ja, dieses Egaler ist, glaube ich, ein ganz wichtiger Punkt. Wir alle kennen ja inzwischen diese Google-KI-Zusammenfassung, die bei jeder Google-Suche inzwischen auftaucht. Ich glaube, außer im News-Bereich. Und die ist einfach, das ist jetzt eine persönliche Erfahrung und die mag nicht stimmen, die Zahl, aber ich würde sagen, in 50 Prozent der Fälle ist die falsch. Es ist Google aber einfach egal. Die wissen das, aber es ist ihnen egal. Sie machen es trotzdem, einfach weil sie die Technologie voranbringen wollen.
Stella
00:23:59
Ich kann euch noch zustimmen, wobei ich glaube, es ist nicht nur egaler, sondern wir Menschen sind bequem und die KI-Nutzung ist immer alltäglicher.
Elli
00:24:06
Und da greife ich eine Sache vor, die eigentlich noch ein bisschen später in unserem Skript steht. Aber Caspar, du hast das da so schön reingeschrieben. KI ist heute Alltag nach diesen drei Jahren. Und dazu gehört unter anderem auch, dass gefühlt jedes Programm irgendwie, was online läuft, KI benutzt. KI taucht in Serien auf, in Filmen, in Comedy. Also es ist viel normaler geworden irgendwie.
Caspar
00:24:34
Das passt sehr gut zu dem nächsten Punkt, weil wir nämlich den AI oder KI-Wettlauf als nächstes hier im Doc stehen haben und der passt sehr gut dazu, dass das jetzt wirklich in jedem Programm inzwischen vorkommt. Im Silicon Valley gab es tatsächlich durch die Veröffentlichung von ChatGPT 3.5 ein richtiger kleines Beben im Valley, schlicht und ergreifend, weil plötzlich alle im Valley gemerkt haben, oh Gott, da rollt eine ziemliche Technologiewelle auf uns zu und wir müssen da mitmachen. Google haben wir ja eben schon gesagt, die waren mit BART auch schon dabei. Allerdings war das alles nicht öffentlich zugänglich, es war nur intern und jetzt hat sie sich jetzt geändert, dass Google zum Beispiel mit Gemini inzwischen natürlich auch schon Modelle veröffentlicht hat. Entropic ist mit Cloud auf den Markt gekommen. Es gibt Open-Source-Modelle. Microsoft integriert verschiedene KI-Dienste in die eigenen Produkte und Sie haben es gerade schon gesagt, Eli, du auch, in jeder größeren Software-Plattform gibt es inzwischen KI. In Microsoft 365, in Google Workspaces, in Notion hat mich jetzt neulich KI wieder begrüßt. Adobe setzt KI an verschiedensten Stellen ein, Figma setzt das ein und diese Liste könnt ihr eigentlich unendlich verlängern, wenn ihr irgendwo einen Dienst habt, einen größeren, eine Plattform, dann ist da in der Regel inzwischen KI implementiert und das ist schon ein ziemlicher Hype-Train, der da losgelaufen ist. Und neben den großen Plattformen gibt es auch den Open-Source-Bereich, der sich ja im Grunde eigentlich seit drei Jahren aufgetan hat. Also zu nennen ist da zum Beispiel Lama oder Lama 2, das ist ein Open-Source-Modell von Meta. Mistral ist zu nennen, Quen Deep Seek, da haben wir ja auch mal drüber gesprochen, das ist ein chinesisches Modell. Und früher war es ja so, dass Open Source oft so ein bisschen bei Software so ein, ja, es ist meistens ein bisschen hässlich, alles ein bisschen komplizierter und hinkt ein bisschen hinterher hinter kommerzieller Software. Das ist bei Open Source Sprachmodellen nicht unbedingt der Fall. Die können teilweise durchaus mithalten und sind vor allem, was zum Beispiel so lokal laufende Modelle betrifft, durchaus auch teilweise vorne. Also da im Bereich KI und künstliche Intelligenz hat sich Open Source durchaus einen Namen gemacht.
Elli
00:26:41
Wir haben jetzt gesagt, es ist ein bisschen normaler geworden, aber es gibt natürlich trotzdem die ein oder andere Diskussion, die vor drei Jahren begonnen hat und immer noch geführt wird. Manche sind ein bisschen ins Hintertreffen geraten. Ich werfe jetzt einfach mal so ein bisschen ein paar Schlagworte in die Runde. Ihr habt sicherlich zu den meisten auch bei uns schon mal was gehört. Da ist zum einen die Frage der Arbeitsmarkt. Wie wirkt sich KI aus, auch auf unsere Produktivität? Machen wir jetzt bald alle nur noch ganz kreativen Shit damit, weil Chattipity oder KI an sich unsere administrativen Aufgaben übernimmt, die langweiligen, die drögen. Und wer wird vielleicht seinen Job durch KI verlieren. All sowas wird rauf und runter diskutiert, wurde es damals schon, wird es heute noch. Ja, ich glaube, mittlerweile sind einige auch so ein bisschen, haben sich wieder beruhigt und sind so auf dem Stand, naja, KI wird unsere Arbeit verändern, aber sie nicht unbedingt ersetzen. Das ist so eine Sache, die immer wieder zur Sprache kommt. Dann die Frage mit dem Bildungssystem, wie kann man jetzt überhaupt noch Leistung ab, messen oder Prüfungen. Wie funktioniert das eigentlich, wenn alle ja theoretisch KI benutzen können? Auch da wird weiterhin diskutiert, gerade was so den Bereich Forschung und Forschungsarbeiten angeht.
Caspar
00:28:04
Dann so ein Thema, das auch immer noch nicht geklärt ist, ist das ganze Thema Desinformation. Was machen wir mit den ganzen KI-Inhalten im Netz? Es werden immer mehr, sie werden immer leichter generierbar. Über Fotos, Videos haben wir ja auch schon gesprochen. Dann ein großes Thema, was auch immer noch nicht endgültig geklärt ist, sich jetzt aber langsam in den Gerichten oder vor Gericht wiederfindet, sind die ganzen Fragen zur kreativen Urheberschaft, auch zu den Trainingsdaten. Wo kommt das her? Was wird dann benutzt? Es ist aktuell auch wieder ganz aktuell oder hochaktuell. Stichwort GEMA verklagt Open AI. Zum Thema Klagen muss man auch sagen, drei Jahre ChatGPT waren auch drei Jahre lang Rechtsgeschichte oder Dinge, die sich um das Thema Recht drehten. Wir haben ja ganz oft schon den EU-AI-Act behandelt. Der war vor der Veröffentlichung von ChatGPT überhaupt kein Thema. Wir haben ja Debatten über Copyright, Fair Use, Scraping, also wenn diese KI-Modelle loslaufen und alles im Internet quasi in sich aufsaugen, um damit trainiert zu werden. Wir haben Klagen von den New York Times versus OpenAI, wir haben die Autorenverbände, die gegen KI vorgehen. Also ich sage mal so ganz reibungslos und ohne Gerichte gingen diese drei Jahre nicht ab.
Stella
00:29:06
Und ab und zu, vielleicht aber auch immer noch ein bisschen zu wenig, wird auch über das Thema Umwelt auch im Zusammenhang mit OpenAI, mit ChatGPT gesprochen, aber auch generell mit dem Thema KI. Denn diese ganze Rechenleistung, die wir da abrufen, wenn wir beispielsweise insbesondere Bilder generieren lassen, Musik entstehen lassen oder vielleicht mal wieder nicht wissen, was wir eigentlich heute Abend essen wollen und dann noch mal nachfragen, hallo, ich habe folgendes, was könnte man daraus kochen? Das braucht verdammt viel Energie. Also es braucht beispielsweise viel Wasser, aber auch viel Strom. Und Rechenzentren können so wirklich ein wachsendes Infrastrukturproblem sein. Also auf der einen Seite natürlich, auch wir haben ja hier im Podcast mehrmals schon darüber berichtet, dass neue Rechenzentren entstehen, auch hier in Deutschland. Auch wieder Thema digitale Souveränität, Unabhängigkeit, das ist auch wichtig, aber gleichzeitig ist es natürlich auch einfach für die Umwelt eine Herausforderung. Der Wasserverbrauch, der da für die Kühlung notwendig ist, der ist nicht ohne und generell also jede Anfrage, jede Query, die kostet einfach Energie. Und es gibt ja auch noch den Bereich Hardware, der hinzukommt, denn das Ganze muss ja auch vereinfacht gesagt auf verschiedenen Arten von Chips laufen. Wir haben über NVIDIA jetzt ein paar Mal gesprochen, auch über das Thema KI-Blase, was da mit reinspielt, wie die Firmen miteinander verbunden sind. Und dazu kommt ja auch noch dieser Trend zu spezialisierten Hardware, dass das alles immer gut natürlich auch zusammenpassen muss, je spezifischer dann auch die Anfragen werden.
Caspar
00:30:35
Und zu den Nutzungszahlen, glaube ich, Elli, du warst es, hast du auch was mitgebracht, was OpenAI veröffentlicht hat. Die haben nämlich diese drei Jahre Jubiläum auch genutzt, um mal ein paar Zahlen irgendwie rauszuhauen.
Elli
00:30:45
Das ist richtig, wobei die Zahlen schon aus dem September sind. Da hat OpenAI so ein bisschen eine Zusammenfassung veröffentlicht, wer nutzt uns wofür, so nach dem Motto. Und Chat-TPT laut OpenAI beantwortet pro Sekunde, haltet euch fest, 29.000 Anfragen in einer Sekunde. Also wenn ihr einmal kurz blinzelt, dann sind es wahrscheinlich schon doppelt so viel gewesen. Pro Woche. Hat ChatGPT 800 Millionen User. Und Deutschland belegt übrigens im weltweiten Vergleich Platz 4 bei der ChatGPT-Nutzung. Also wir sind fleißig mit dabei. Das hat OpenAI nicht in dem Report rausgebracht, sondern auf Anfrage von Heise beantwortet.
Caspar
00:31:32
Wir waren mal auf Platz 2. Schade, dass wir auf Platz 4 abgerutscht sind.
Elli
00:31:36
Weiß ich nicht. Wenn man jetzt so über die ganzen Kontroversen nachdenkt, weiß ich nicht, wie schade das ist.
Caspar
00:31:41
Ja, und Energieverbrauch. Ich habe nämlich gerade bei den 29.000 Anfragen gedacht, meine Güte, was wird da pro Sekunde an Energie rausgehauen. Aber da wird ChatGPT oder OpenAI wahrscheinlich wenig zugesagt haben. Zum Schluss gucken wir nochmal drauf, was noch fehlt, was in den drei Jahren eigentlich zwischenzeitlich mal versprochen wurde, aber noch nicht da ist. Und wir wollen auch tatsächlich zum Schluss noch so einen kleinen Blick in die Kristallkugel wagen, auch wenn das immer schwierig ist. Lasst erstmal drauf gucken, was in den drei Jahren nicht passiert ist. Also ich habe schon erzählt, dass ChatGPT jetzt einen Agentenmodus hat. Also wenn ich ihm sage, dass es loslaufen soll, dass es selbstständig losläuft, einen kleinen Browser aufmacht und da mit der Maustür durch die Gegend fährt und Dinge anklickt. Aber wir sind weit davon entfernt, dass wir tatsächlich selbstständige, autonome Agenten haben. Das war relativ früh, nachdem ChatGPT veröffentlicht wurde, in dieser ganzen Hype-Welle direkt schon so ein Thema, dass ganz viele gesagt haben, oh, das kann jetzt bald alles ganz selbstständig. Das ist tatsächlich immer noch nicht so. Es gibt erste zaghafte Versuche, wie gesagt, diesen Agentenmodus, wenn man selber programmieren kann, kann man auch sowas wie erste kleine zaghafte Agenten bauen, die auf Knopfdruck oder auf Buffet loslaufen. Aber was immer noch nicht ist, dass man jetzt komplett selbstständige KIs hat. Kann man sagen, das ist vielleicht auch ganz gut. Aber wie gesagt, der Markt hat das eben noch nicht geschafft, das zumindest für den breiten Markt auch bereitzustellen.
Stella
00:32:58
Das Einzige, was es gibt in die Richtung und ja auch zugänglich ist Atlas, also der KI-Browser von OpenAI mit ChatGPT. Da muss man aber auch sagen, Ihr seht dann quasi, wie so eine Maus, wir hatten es ja auch mal in einer der Folgen besprochen, über das Bild huscht und da werden dann Klicks gesetzt, einen Tisch reserviert etc. Aber das funktioniert nicht ohne den Human in the Loop. Also da gibt es einfach eine Grenze und da geht es nicht weiter.
Caspar
00:33:22
Ja und du musst es eben anstoßen. Also so ein richtiger Agent wäre ja zum Beispiel, da gehen wir über auch zu dem zweiten Punkt, dass sowas wie persönliche KI-Assistenten fehlen. Also es wäre zum Beispiel so ein Agent, der weiß, wenn ich morgens aufstehe, weiß der von sich aus, was er mir zum Beispiel für eine Morgenszusammenfassung zusammenfasst. Also nach dem Motto Wetter von sich aus, weil er gemeint irgendwie oder er weiß im Kalender, dass ich irgendwo hinfahre, dann spuckt er mir schon mal aus, wie die Route aussieht. Also so ein proaktives Ding, das war ganz am Anfang so ein riesiges Thema und auch Apple hat so ein bisschen versprochen, vor zwei Jahren, dass Siri so ein bisschen in die Richtung gehen wird, das ist aber schlicht und ergreifend bisher einfach nicht passiert. Die Technologie ist nicht weit genug und auch da werden wir jetzt nicht davon reden, dass das morgen eintritt, das wird auch noch ein bisschen dauern, dass das mal kommt, aber ich würde sagen, technisch wird das irgendwann mal möglich sein.
Stella
00:34:09
Und was technisch auch immer noch besser wird, ist das Thema Bild- und Videoerstellung, also Generierung einfach von dieser Art von Content, ist aber auch immer noch sehr teuer, sehr ressourcenhungrig und die Qualität ist auch sehr unterschiedlich. Also klar, es wird immer realistischer enthalten, was auch wieder, wenn wir auf das Thema Fake News gucken, ein Problem ist, eine gesellschaftliche Herausforderung, über die wir sprechen müssen, wie wir damit umgehen möchten. Aber es ist auch so, also mir wäre, mir ist nicht bewusst, dass es komplett KI-generierte Kinofilme beispielsweise gibt. Also diese Leistung ist bisher nicht möglich.
Caspar
00:34:43
Nein, es sind immer kurze Videoschnipsel, die manieren kann. Die kann man natürlich zu einem längeren Video zusammenschneiden, aber wir reden hier von fünf, acht, zehn Sekunden, die so eine KI am Stück generieren kann. Und das wird noch lange dauern, bis das wirklich mal so ist. Du hast gesagt, dass gerade Kinofilm ist. Und auch das haben wir schon gesagt, das Allwissende, die nicht mehr fehlerhafte KI, das liegt so tief in den Modellen drin, dieses Halluzinieren, dass das sehr schwer werden wird, ihnen das wirklich auszutreiben. Deswegen gibt es das auch noch nicht. Und Elli, du hast noch eine tagesaktuelle News mit reingebracht. Das Wall Street Journal hat Sam Altman nicht zitiert, aber laut Wall Street Journal hat Sam Altman was ausgerufen bei OpenAI.
Elli
00:35:24
Yes, und zwar den Code Red. In diesen Tagen soll Sam Altman eben diesen sogenannten Code Red ausgerufen haben. Was bedeutet das? Der gesamte Fokus im Unternehmen soll darauf gelegt werden, die Qualität von ChatGPT zu verbessern, um konkurrenzfähig zu bleiben. Also es scheint, da sieht sich jemand so ein bisschen bedroht. Das geht zumindest aus einem internen Memo hervor, was dem Wall Street Journal vorliegt. Und was heißt jetzt, Chat-DPT soll verbessert werden, um konkurrenzfähig zu bleiben? Konkret geht es darum, bessere Personalisierbarkeit noch zu gewährleisten. Das Ganze soll noch schneller werden und ein größeres Spektrum an Fragen beantworten. Ja, da können wir mal gespannt sein, was das bedeutet. Ein größeres Spektrum anfragen. Vielleicht fällt da dann doch die ein oder andere moralisch-ethische Barriere, die Jatsipiti da bisher eingebaut hatte.
Stella
00:36:27
Wir kommen in den Bereich der Zukunft, mit dem wir unseren heutigen Input schließen wollen, nämlich was können wir so die nächsten drei Jahre bringen. Genau, es ist ein Blick in die Kristallkugel, der ist immer schwer, aber so ein Einstieg wäre ja mal das Thema profitable Geschäftsmodelle, weil bis jetzt KI sehr teuer, kommt wenig bei rum, einmal flapsig formuliert. Das sollte sich wahrscheinlich in Zukunft ändern.
Caspar
00:36:51
Ja, und wie ändert man das, wenn man Geld machen möchte? Da kommt das übliche Stichwort im Internet.
Elli
00:36:59
Werbung.
Caspar
00:37:01
Nicht bei uns, aber eventuell demnächst mal bei ChatGPT. Darauf will nämlich unter anderem ein Ex-User im Code der Beta-Version der Android-App gestoßen sein. Er ist aber ehrlicherweise auch nicht der Erste, der das schon mal besprochen hat. Wir kommen auch gleich noch zu Sam Altman, aber bleiben wir erstmal bei dem Beta-Code. Da taucht nämlich im Code so Schlagworte auf wie Ads, Feature, Search, Ad und Bazaar-Content. Also das deutet alles so ein bisschen darauf hin, dass man unter Umständen in Chat-GPT von OpenAI Werbung einbauen könnte, die dann, weiß ich nicht, zum Beispiel im Chat angezeigt wird oder Chat-GPT auch einem dann personalisiert Dinge vorschlägt, die dann meinetwegen zum Beispiel Produkte eines bestimmten Anbieters sind, der dann etwas Geld dafür bezahlt oder solche Dinge.
Elli
00:37:45
Genau, ChatGPT hat ja auch vor kurzem so eine Shopping-Research-Funktion tatsächlich vorgestellt, wo man dann sagen kann, such mir mal bitte ein blaues Strickkleid mit mindestens 10% Wolle oder so raus und dann geht der Chatbot auf die Suche und liefert die Ergebnisse. Ein Schelm, wer da daran denkt, dass man vielleicht gegen Geld gewisse Anbieter weit oben platzieren könnte. Und du hattest jetzt schon Sam Oldman angesprochen, auch der hat das Thema Werbung schon mal thematisiert, unter anderem im November in einem Interview mit dem Podcast Conversations with Tyler. Und da hat er Werbung als Open My Eyes, Zitat, biggest revenue opportunity, also die größte Möglichkeit, um wirklich zu verdienen, benannt. Das Ganze ist natürlich auch irgendwie naheliegend, weil wer ChatGPT benutzt, wir sagen zwar immer hier an dieser Stelle, seid vorsichtig, was ihr da alles preisgebt, aber natürlich landen in ChatGPT in diesen Chats ganz, ganz viele persönliche Infos.
Caspar
00:38:52
Also es bleibt spannend, wie OpenAI da Werbung machen möchte, beziehungsweise Geld aus Werbung machen möchte und wie personalisiert sie dann wird und wo sie am Ende ausgespielt wird. Was auch noch ein Geschäftsmodell sein könnte, unter Umständen wäre ja Hardware, da arbeitet OpenAI ja auch mit dem ehemaligen Chefentwickler von Apple dran, nämlich Johnny Alf. Also auch da wird 2026 was kommen im nächsten Jahr. Also wir werden sehen, dass im nächsten Jahr, das ist nicht mal unbedingt Glaskugel, wie gesagt, man gucken wird, wie man mit JGPT anfängt, Geld zu verdienen, weil wie gesagt, aktuell verbrennt man Geld, Stella, du hast das gesagt, und eben anfangen wird, Hardware zu bauen, beziehungsweise zu präsentieren und zu zeigen, ob man sie im nächsten Jahr schon kaufen kann. Das weiß ich nicht, aber zumindest sehen werden wir sie wahrscheinlich mal.
Stella
00:39:32
Du musst ja immer sofort an diesen Human-AI-Pin denken oder Human-Pin werden. Natürlich eine ganz andere Richtung hat Open-AI nichts mit zu tun, aber irgendwie war das meine erste Assoziation. Aber kommen wir doch mal lieber.
Caspar
00:39:43
Was es wird, wissen wir nicht.
Stella
00:39:46
Keine Vorstellung. Vielleicht wird es eine Brille, ein Armband, ein Ring. Es kann alles sein.
Caspar
00:39:50
Eine Kette. Eine Kristallkugel.
Stella
00:39:53
Kristallkugel. Wir beenden jetzt mal unseren Blick in die Kristallkugel ein wenig und kommen nochmal quasi zusammen mit, Was haben wir jetzt eigentlich so die letzte halbe Stunde alles besprochen? Also ich glaube, was man festhalten kann mit diesem öffentlichen Release, damals von GPT 3.5, ist auf jeden Fall was losgetreten worden. Erstmal KI als großes öffentlich diskutiertes Thema.
Caspar
00:40:15
Gleichzeitig ist es aber auch so, wenn man auf den Hype guckt, der losgelöst wurde, ist das, was tatsächlich technisch Bahnbrechendes passiert ist, gar nicht so groß. Und das ist eine Differenz, die ich finde, die man sich auch immer wieder in Erinnerung rufen darf. Ja, ChatGPT hat etwas ausgelöst und sicherlich auch in einer Geschwindigkeit, die wir sonst in der Tech-Welt so auch noch nicht gesehen haben. Ich meine, das Smartphone zum Beispiel war zwar natürlich auch für die Tech-Welt und für die Menschheit sehr weltbewegend, allerdings nicht in dieser Geschwindigkeit. Also 2007 vorgestellt, ging das dann langsam los, dass das sich in der Menschheit quasi verteilt hat, diese Smartphones und wir jetzt langsam über so Dinge reden, da kommen wir auch in der guten Nachricht noch zu, zum Thema Handy und wie kommen wir denn mal nah drum rum, ums Handy und digitaler Detox und so. Aber das ist halt nicht in drei Jahren komplett explodiert, die Smartphone-Geschichte. Und das ist natürlich schon neu. Wie gesagt, aber technisch hat sich gar nicht so, so viel getan.
Elli
00:41:06
Was sich aber getan hat, ist eben die Normalisierung. Das ist auf der einen Seite sehr gut, dass die unterschiedlichsten Leute jetzt damit interagieren können und es nicht so in so einer Technikblase bleibt, aber es ist eben auch gefährlich und risikobehaftet. Und man muss auch sagen, die KI ist und bleibt ein Umweltschwein. Da reden wir von ChatGPT, aber auch von vielen anderen Modellen und Anbietern. Ja, zusammenfassend würde ich auch sagen, viele Branchen und Bereiche, Bildungssystem, Gesetzgebung, Kreativbranche und so weiter, versuchen nach den ersten Kennenlernjahren jetzt so ein bisschen langfristige Umgangsformen zu finden.
Caspar
00:41:48
Ja, also KI, Smartphone, ich habe es eben gerade schon erwähnt. Ich habe eben auch die gute Nachricht schon angeteasert. Wollen wir dazu einfach mal übergehen als Abschluss? Wollen wir uns zum Schluss nochmal anschauen, wie wir das Thema Handy vielleicht weniger machen können und was das bringt?
Elli
00:42:05
Sehr gerne.
Stella
00:42:13
Die gute Nachricht dreht sich um den Bereich Social Detox. Und die große Frage, was passiert, wenn eigentlich junge Menschen eine Woche zum Beispiel auf Instagram und TikTok verzichten? Ich kann ja mal euch beide fragen. Habt ihr schon mal eine ganze Woche darauf verzichtet?
Caspar
00:42:31
Ja, nicht eine ganze Woche, aber drei, vier, fünf Tage, weil mein Handy kaputt war und ich kein Ersatzgerät hatte.
Stella
00:42:37
Also unfreiwillig.
Caspar
00:42:38
Ja, unfreiwillig. Das ist jetzt auch schon zwei, drei Tage her. Zwei, drei Tage nicht, zwei, drei Jahre her. Ja, es war herausfordernd, weil man sich super schnell an so Dinge gewöhnt. Also zum Beispiel navigieren mit dem Handy oder die Bahn nachgucken. Wann fährt die denn und wo muss ich hin? Das zum Beispiel hat mir in den Tagen unglaublich gefehlt. Social Media nicht unbedingt.
Elli
00:42:59
Falls du darauf anspielst. Ich wollte gerade sagen, das dürftest du ja noch, wenn du nur auf Social Media verzichten würdest, dann dürftest du ja trotzdem noch sowas wie Google Maps oder so benutzen.
Caspar
00:43:09
Das stimmt.
Stella
00:43:10
Elli, wie ist es bei dir?
Elli
00:43:11
Ja, zu meiner Schande muss ich gestehen, ich habe das schon länger vor und schieb es vor mir her.
Caspar
00:43:16
Und du, Stella?
Stella
00:43:17
Ich tatsächlich schon mehrmals. Also, das hat mir jedes Mal gut getan, aber darum soll es jetzt nicht gehen oder in Teilen geht es in die Richtung. Und zwar hat sich die Harvard University das Ganze mal genauer angeschaut. Und was haben sie dafür gemacht? Naja, sie haben eine Studie durchgeführt mit 373 jungen Erwachsenen. Allerdings muss man jetzt dazu sagen, nur 295 von denen haben einen einwöchigen Verzicht dann gemacht. Worauf haben sie verzichtet? Also auf Facebook, Instagram, Snapchat, TikTok und X. Und dieser Verzicht, der war eben freiwillig. Das heißt, man hat erstmal eine zweimöchige Beobachtungsphase durchgeführt, sprich hat sich angeguckt, wie nutzen die Menschen denn diese genannten Programme. Und dann konnte man optional als Teilnehmer in diese einwöchige Social-Media-Pause machen. Und dann hat man sich eben die Ergebnisse angeguckt und da ist unter anderem aufgefallen, dass es positive Auswirkungen auf die mentale Gesundheit gegeben hat. Das heißt, Ängste, Schlafprobleme und auch Depressionen sind zurückgegangen und die Anzeichen für Depressionen sogar um 25 Prozent, bei Angstzuständen um 16 Prozent und bei Schlafproblemen immerhin auch um 15 Prozent. Und was war jetzt das Ziel dieser Studie? Na einerseits erstmal den Zusammenhang zwischen Nutzung, problematischem Verhalten und psychischem Gesundheitsempfinden zu erfahren und dann eben auch die Auswirkungen des Verzichts darauf. Es ist nämlich immer noch so, dass es da zwar viele verschiedene Studien gibt, wo auch zum Beispiel eine Einleitung heißt, die sind aber auch teilweise widersprüchlich. Also es gibt noch nicht ein Gesamtbild, wo man sagen kann, das sind wirklich die Auswirkungen, sondern die Forschung ist da immer noch dran. Was vielleicht noch ganz interessant war. Wie diese Studie jetzt gezeigt hat, weniger entscheidend war die Bildschirmzeit als die Tatsache, ob die Nutzung selbst problematisch empfunden wurde. Und durchgeführt wurde das Ganze in den USA und zwar im Zeitraum März 2024 bis März 2025. 25, ja, und englischsprachige ProbandInnen quasi und sie haben alle ein Smartphone besessen und waren zwischen 18 und 24 Jahre alt und allein deshalb weiß ich, weil ihr nicht in den USA lebt und nicht zwischen 18 und 24 seid, dass ihr beide nicht dabei gewesen sein könnt und ich auch nicht, also.
Caspar
00:45:31
Das stimmt, ich habe nicht mitgemacht. Allerdings, nach dieser guten Nachricht und nach den positiven Ergebnissen, die du gerade aufgezählt hast, ich glaube, ich denke nochmal darüber nach, vielleicht zwischen in den Jahren mal so, zwischen Weihnachten und Neujahr eine Woche lang auf Social Media zu verzichten, mal gucken. TikTok wird mir wahrscheinlich fehlen, aber ich schaffe das.
Elli
00:45:49
Es wäre ja quasi fast keine gute Nachricht bei uns, wenn es nicht auch ein Aber gäbe. Auch die Studienautorinnen auch reingeschrieben haben bei sich, man weiß nicht, also du hast die Zahlen genannt, inwiefern Symptomatiken und so weiter zurückgegangen sind. Wir hatten da Depressionen, unter anderem Anxiety und sowas. Und da ist aber auch ganz klar, es ist nicht klar, wie lange dieser Effekt dann tatsächlich anhält. Also man sieht zwar einen positiven Effekt, aber so richtig erforscht, ob das dann auch dauerhaft ist oder ob das einfach nach dieser einen Woche dann wieder sich zurückbildet, das ist dann durch diese Studie noch nicht erforscht worden.
Stella
00:46:29
Genauso das Thema mit, was hat sich im Umfeld dadurch verändert. Also das spielt ja auch noch mit rein. Deswegen ist es eben auch mit der Einordnung da final zu sagen, das möchte ich jetzt mit dieser guten Nachricht nicht. Social Detox ist automatisch total super. Das lässt sich so studienwissenschaftsmäßig nicht aufrechterhalten. Aber natürlich kann das jeder für sich selbst rausfinden, vielleicht zwischen den Jahren weniger Social Media zu finden. Mehr Bücher, mehr Zeit mit der Familie. Für manche vielleicht auch stressig. Die sind dann gestresster als vorher mit Instagram oder TikTok. Ja, es hat sein Für und Wider alles.
Caspar
00:47:05
Nee, ich mache immer zwischen den Jahren in Herr der Ringe Extended Version Marathon, die drei Filme. Da habe ich sowieso weniger Zeit fürs Handy.
Stella
00:47:12
Können wir aber auch drüber reden, Caspar, ob das wiederum gesund ist. Da guckst du ja auch so viel auf den Bildschirm.
Caspar
00:47:17
Ja, aber da ist ja meistens schlechtes Wetter zwischen den Jahren. Beziehungsweise so 13 Grad und Nieselregen ist ja immer so um Weihnachten rum. Es ist ja nicht mal winterliches Wetter leider. Naja, apropos Winter, wir kommen zum Schluss. Ihr hört uns morgen wieder, beziehungsweise ihr hört Elli morgen wieder, wenn ich den Plan richtig in Erinnerung habe, mit den nächsten Türchen. Das hier war ja jetzt das vierte Türchen, morgen gibt es das fünfte. Und wie gesagt, denkt dran, Spotify rappt, wenn ihr als Podcast vielleicht uns irgendwo da in den Charts auftauchen habt, freut uns das, wenn ihr uns das bei Instagram schickt. und er guckt euch die Bilder, die wir mit Flux gemacht haben, auf der Webseite in der Galerie nochmal an.
Stella
00:47:57
Und in dem Sinne, bis spätestens nächste Woche, aber wie gesagt, bleibt dran für unseren Adventskalender.
Elli
00:48:03
Ja, und ich sage einfach bis morgen. Tschüss.
Caspar
00:48:06
Bis dann. Tschüss.
Stella
00:48:08
Tschüss.