Netz-fest für faire Digitalisierung.

Ein Podcast von OXFAM und der lpb bw
Since 09/2022 7 Episoden

Netz-Fest Fokus: Gerechtigkeit und Diskriminierung mit Prof. Dr. phil. Rainer Mühlhoff

Der Oxfam Podcast für eine faire Digitalisierung

26.09.2022 48 min Oxfam Deutschland | Katrin Steglich

Zusammenfassung & Show Notes

In dieser Episode von Netz-Fest gehen wir der Frage nach, wie KI (Künstliche Intelligenz) und Prädiktive Analytik eingesetzt werden (können) und welche Auswirkungen dies auf Mensch und Gesellschaft hat.

Transkript

KI Linda
00:00:00
Das Digitale ist inzwischen überall. Die Versprechen, dass damit alles besser wird, haben sich nicht für alle bestätigt. In dieser Podcast-Reihe gehen wir der Frage nach, wie eine Digitalisierung aussehen kann, die zu einer lebenswerteren Welt beiträgt, z.B. indem sie Ungleichheit verringert, und Gleichberechtigung, Nachhaltigkeit sowie die Zivilgesellschaft stärkt.
Katrin Steglich
00:00:27
Herzlich Willkommen zum Podcast Netz-Fest, der in Kooperation mit der Landeszentrale für politische Bildung Baden-Württemberg entsteht! Mein Name ist Katrin Steglich, und ich spreche heute mit dem Philosophieprofessor Dr. Rainer Mühlhoff von der Universität Osnabrück, der dort den Forschungsbereich Ethik der künstlichen Intelligenz am Institut für Kognitionswissenschaft leitet. Herzlich Willkommen an Sie, Rainer Mühlhoff, und danke, dass Sie sich die Zeit nehmen für dieses Interview heute!
Rainer Mühlhoff
00:00:55
Hallo - vielen Dank auch von meiner Seite.
Katrin Steglich
00:00:59
Das Digitale ist zwar überall, aber in seiner Funktionsweise oder besser in der Wirkung unsichtbar. Wir bedienen Apps und hinterfragen zu wenig, was im Nicht-Sichtbaren mit unseren Daten passiert. Datenschutz wird in der Regel als eher störend oder gar innovationsfeindlich empfunden, insbesondere weil viele Menschen meinen, dass sie nichts zu verbergen hätten. Rainer Mühlhoff, Sie untersuchen das Zusammenspiel von Technologie, Macht und Subjektivität und haben ein besonderes Forschungsinteresse am Datenschutz, im Zusammenspiel mit künstlicher Intelligenz und Big Data. Vielleicht beginnen wir damit, dass man diese zwei Begriffe nochmal etwas einordnen für unsere Hörer. Ist es korrekt, wenn ich sage: bei künstlicher Intelligenz, abgekürzt KI, handelt es sich um selbstlernende Algorithmen; und Big Data ist der Begriff für Analysen, die auf Basis von großen Datenmengen möglich werden?
Rainer Mühlhoff
00:01:53
Ja, ich glaube, das ist eine ganz gute Definition, mit der man arbeiten kann, vor allem in diesem Kontext hier. KI, Künstliche Intelligenz, ist ja gerade ein sehr gehyptes Thema. Da stellt man sich sehr viel darunter vor, da wird ganz viel reingepackt in diesen Containerbegriff, also sowohl auf der technischen Seite, bezogen auf die Algorithmen usw., aber auch auf der Anwendungsseite, was damit gemacht werden kann und was die Algorithmen können. Deswegen ist es jetzt zum Beispiel in diesem Kontext ganz sinnvoll zu präzisieren, dass es hier um den Bereich KI und Big Data geht. Damit würde man dann sagen: es geht um künstliche Intelligenz und Algorithmen, die vor allem die Daten, die wir täglich generieren, zum Beispiel im Internet oder bei der Benutzung von Apps, verwenden, um aus diesen Daten etwas über uns zu lernen, bzw. zu lernen, gesellschaftliche Prozesse einzuschätzen oder Menschen einzuschätzen. Das ist dann noch mal ein spezieller Bereich innerhalb der künstlichen Intelligenz. Künstliche Intelligenz umfasst auch das Bauen von Robotern oder automatisierte Kriegsführung oder Pflegeroboter. Das würde jetzt nicht so sehr in unseren Gegenstandsbereich fallen, sondern eher die datenbasierte künstlichen Intelligenz, also Anwendungen, die man gar nicht so oft sieht, aber die uns alle auf irgendeine Weise betreffen.
Katrin Steglich
00:03:14
Wenn ich mir eine gerechtere und gleichberechtigtere Welt als Ziel setze, was haben Sie aufgrund Ihrer Forschung herausgefunden? Wie wirkt die Digitalisierung als Sammelbegriff zu dem, was wir gerade definiert haben, aktuell in dieser Hinsicht auf persönlicher und als gesellschaftlicher Ebene?
Rainer Mühlhoff
00:03:45
Ja, das ist eine große Frage. Da vor allem auch Digitalisierung, wie Sie schon sagten, ein großer Sammelbegriff ist. Ich habe darüber nachgedacht: wenn man Digitalisierung ganz allgemein definiert, was würde man darunter eigentlich verstehen? Irgendwie die Überführung von Prozessen und Strukturen in digitale Räume oder digitale Prozesse und digitale Strukturen. Dazu gibt es auch die Idee: da machen wir das Gleiche, was wir vorher analog gemacht haben, digital. Also z.B. vor zehn Jahren hätten wir uns persönlich getroffen in einem Studio. Jetzt machen wir das hier über das Internet, diesen Podcast, in einem digitalen Raum - also haben wir uns digitalisiert. Der Punkt ist natürlich, dass - das beachten viele zu wenig- -bei der Digitalisierung von vormals analogen Prozessen, Verbindungen, Strukturen, auch neue Möglichkeiten entstehen. In den digitalen Räumen wird nicht einfach nur das wiederholt, was vorher schon da war, sondern es entstehen neue Möglichkeiten, z.B. dabei, anfallende Daten zu verwenden oder Prozesse auf ganz andere Ebenen zu bringen. Und dann steht man genau vor der Frage: Was hat das für einen Effekt, auch einen gesellschaftlichen Effekt? Natürlich muss man, wenn man so allgemein gefragt wird, sagen: Es ist ambivalent! Es kommen sehr gute Sachen oder sehr schlechte Sachen dabei heraus. Die Digitalisierung hat sicherlich dazu geführt, das heute so viele Menschen wie noch nie zuvor Zugang zu Wissen, Informationen und globaler Kommunikation haben beispielsweise. Also dass wir uns keine teuren Bücher kaufen müssen, um an enzyklopädisches Wissen heranzukommen, dass wir vielseitig informiert werden können über das Internet - nicht automatisch, nicht immer automatisch werden, aber können - zum Beispiel über politische Vorgänge international. Das sind alles positive Errungenschaften der Digitalisierung. Ja, in meiner Forschung habe ich mich ein bisschen darauf konzentriert, was für negative Effekte dabei herauskommen #00:05:22-3# zum Beispiel in Bezug auf Ungleichheit. Was man sehen muss, ist, dass durch die Digitalisierung sehr viel Infrastruktur privatisiert wird implizit. Digitale Räume, digitale Kommunikation, Infrastruktur ist in der Regel privatwirtschaftlich, und dadurch akkumuliert sich sehr viel Macht, die man mit jedem zusätzlichen Nutzer, jeder zusätzlichen Nutzerin akkumuliert - ein Stückchen mehr Macht bei wenigen der sehr wenigen globalen Unternehmen, die die dabei anfallenden Daten durchaus auch gegen ihre Nutzer*innen verwenden. Das ist ein riesengroßes, unreguliertes Feld, wo sehr viel Potenzial für die Verschärfung von Ungleichheit und Diskriminierung entsteht.
Katrin Steglich
00:06:08
Vor allem auch bezogen auf Machtverhältnisse, oder?
Rainer Mühlhoff
00:06:11
Genau. Wir alle benutzen digitale Technologie. Das in seiner Summe betrachtet, macht die Macht aus, die große Digitalunternehmen haben, nicht nur bei uns, sondern strukturell betrachtet, gesamtgesellschaftlich. Wenn es darum geht, dass mit Algorithmen entschieden wird, was für Information man vielleicht zuerst wahrnimmt oder zuerst sieht, oder was für Preise man angeboten bekommt für Versicherungen, oder für den Zugang zu Bildungsressourcen; der Einsatz solcher Technologien auf dem Jobmarkt, bei Bewerbungsverfahren oder im Jobauswahlprozessen - dann zeigt sich, dass die Anhäufung von Daten zu einer Macht führt, zu einer strukturellen Macht, die sich so auswirkt, das Menschen unterschiedlich behandelt werden in diesen digitalen Kommunikationssystemen: Nicht jede*r sieht das Gleiche, nicht jede*r kriegt gleiche Möglichkeiten angeboten. Nicht jede*r hat einen gleichermaßen einfachen Zugriff auf Ressourcen, Wissensressourcen, aber auch finanzielle und gesellschaftliche, wohlfahrtsstaatliche Ressourcen.
Katrin Steglich
00:07:18
Können Sie das Beispiel bei Bewerbungsprozessen etwas genauer ausführen, was dort vielleicht ein diskriminierender Faktor sein könnte, der durch die Technologie Auswirkungen hat auf die Bewerbenden?
Rainer Mühlhoff
00:07:33
Ja, das ist ein sehr gutes Beispiel, weil es sehr opaque ist. Man weiß, dass zum Beispiel in den USA bei einer Mehrheit der Job-Bewerbungen im Niedriglohnbereich automatisierte Techniken eingesetzt werden. Gleichzeitig ist es aber vielen Leuten nicht bewusst. Bevor man da hinkommt, zu sagen, was daran diskriminierend ist, ist es jetzt zunächst entscheidend zu sagen, dass es nicht selbstverständlich ist, dass man die Auswahl durch ein menschliches Gegenüber ersetzt (oder teilweise ersetzt) durch die Auswahl durch ein Computersystem. Die Frage ist: Wie ist dem Computersystem das eigentlich möglich? Es ist dem Computersystem nur möglich, wenn es in der Lage ist, Lebensläufe oder Bewerbungsunterlagen automatisiert einzuschätzen. Das können Computersysteme vor allem dann (oder nur dann), wenn sie sehr viele solcher Unterlagen gesehen haben. Das heißt, wenn sie es gelernt haben, anhand großer Datensätze solcher Unterlagen. Die Frage ist: Wo kommen die her die großen Datensätze solcher Unterlagen? Oft werden sie auch noch verknüpft, wenn man Personen auf Social Media findet. Zum Beispiel wird es dann verknüpft mit den Social Media Daten, die man über die Bewerber*innen hat. Es gibt auch Daten- Broker und andere Datensätze, die weniger offensichtlich, aber trotzdem verfügbar sind, mit denen die Unterlagen verknüpft werden können. Die Frage ist: Wie kommen solche Algorithmen an die Daten, mit denen wir abgeglichen werden? Also, wenn man sich bewirbt, dann wird man quasi abgeglichen mit den Daten von Millionen anderen Nutzer*innen. Diese Daten werden oft unwissentlich und freiwillig von uns allen bekanntgegeben oder preisgegeben. Wenn ich zum Beispiel meinen Lebenslauf in internetbasierten E-Mail Services verschicke oder in einer SpeicherCloud abspeichere, oder auf Job-Bewerber Portale hinterlege, dann stelle ich meine Daten so einer Firma zur Verfügung. Sie darf die Daten zwar nur für den Zweck (der Bewerbung) verwenden, aber wenn sie die Daten anonymisiert, dann entfällt die Zweckbindung. Damit können Unternehmen solche Daten von allen Nutzern zusammentragen und auswerten, mittels künstlicher Intelligenz, z.B. hinsichtlich Kriterien, die bei der Jobauswahl eine Rolle spielen. Ich will darauf hinaus: Daten, die wir alle zur Verfügung stellen, wissentlich oder unwissentlich, gewollt oder nicht, werden dafür verwendet, solche Algorithmen überhaupt erst einmal zu trainieren. Ich würde sagen, dass für sich ist schon ein ethisches Problem - was daran liegt, dass Daten auf eine Weise verwendet werden, die wir nicht unter Kontrolle haben, und dass es nicht klar ist, dass man das menschliche Gegenüber durch den Computer Gegenüber ersetzt hat. Was hinzukommt bzw. was daraus entsteht, sind potenzielle Muster von Diskriminierung und Ungleichheit. Solche Algorithmen lernen aus diesen Daten natürlich potenziell auch die Stereotypen und die Biases (Vorurteile), die gesellschaftlich sowieso latent sind oder die gesellschaftlich sowieso täglich eine Rolle spielen und insofern auch in den Daten, die wir bereitstellen, enthalten sind. Die Algorithmen, die sind moralisch nicht dem überlegen, was sie von uns allen und von den Daten, die ihre Lerngrundlage sind, lernen. D.h. letztlich lernen sie Diskriminierungsstrukturen von uns. Weil solche Algorithmen überall auf der Welt eingesetzt werden können, eskaliert das. Es ist etwas anderes, ob eine einzelne Person in der Personalabteilung einen bestimmten Bias (Vorurteil) hat und jeden Tag zwei Leute interviewt, oder ob ein Algorithmus solche Biases (Vorurteile) lernt und jeden Tag in 2000 Auswahlverfahren involviert ist. Das skaliert halt viel besser.
Katrin Steglich
00:11:20
Berücksichtigen Algorithmen, welche Bewerber den Zuschlag bekommen haben und übernehmen damit bestehende Muster, wer bevorzugt wird? Dann könnte man sagen, wenn die global eingesetzt sind, gleicht sich das aus. Oder ist da doch ein großer Effekt drin?
Rainer Mühlhoff
00:11:41
Es ist ein wichtiges Instrument, dass man solche sogenannten Feedbackschleifen in Systemen installiert, die überprüfen, ob die Prognose, die so ein System gestellt hat, zugetroffen hat und dann daraus etwas lernen. Das System entscheidet z.B. ob Person X genommen wird. Dann sammelt das System in der Zukunft z.B. Daten darüber, wie gut diese Person ihren Job gemacht hat. Das kann man wieder als Lerndatum nehmen. Daraus kann das System wieder etwas lernen. Dadurch kann man das System rekalibrieren, also das System kann lernen, ob es einen Fehler gemacht hat oder nicht, ob die Prognose zugetroffen hat.
Katrin Steglich
00:12:20
Werden Daten weiterhin gesammelt über eine Person, die schon lange nicht mehr in diesem Bewerbungslauf ist?
Rainer Mühlhoff
00:12:25
Ja, das Problem ist halt, wenn man das redlich machen möchte, dann muss man das eigentlich, weil man sicherstellen muss, oder auch ein moralisches Interesse daran hätte, dass das System sich verbessert und insbesondere Ungerechtigkeiten ausmerzt. Das Problem daran ist, dass sie nicht beide Kohorten, die angenommenen Bewerber*innen und die abgelehnten Bewerber*innen gleichermaßen verfolgen können. Bei denen, die sie eingestellt haben, die Jahre bei ihnen arbeiten, da können Sie natürlich Performancedaten sammeln, das wird auch gemacht, also Mitarbeiter*innen heute werden relativ streng und vor allem digitalisiert überwacht hinsichtlich ihrer Performance im Job. Das kann und wird in solche Systeme zurückgespielt. Und das kann zu einer Auswertung führen, ob die Prognose richtig war. Die Leute, die abgelehnt wurden, können nicht weiter verfolgt werden. Das ist sehr schwierig und auch datenschutztechnisch und ethisch sehr viel bedenklicher. Das würde an Stalking grenzen. D.h., dass Sie nur für eine Hälfte der Kohorte Feedbackdaten sammeln, und zwar über die, die Sie angenommen haben. Wenn Sie mit dem Auswahlsystem eine Kohorte, die eigentlich super qualifiziert wäre, aber Sie dies nicht erkennen, immer ablehnen, dann werden sie diesen Fehler nie ausmerzen. Und das sind typischerweise Leute, die sowieso schon diskriminiert sind und die sowieso schon unten durchfallen. Das sind Leute, die in den Daten, aus denen Ihr System initial lernt, schon schlechter dastehen wegen gesellschaftlicher Biases (Vorurteile). Die werden sehr viel seltener von ihrem System angenommen. Das System kann natürlich über diese Kohorte nicht lernen, dass sie eigentlich super arbeitet. Dadurch wird dieser Bias (Vorurteil) sich eher stabilisieren. Das ist noch viel eklatanter, wenn es um Haftentscheidungen geht. Da kann man das auch sehen. Wenn Sie automatisiert entscheiden, ob jemand aus der Haft entlassen wird auf Bewährung, oder initial eine Bewährungsstrafe oder Haftstrafe bekommt, wie das in vielen US-Bundesstaaten gemacht wird mit automatisierten Systemen, dann haben Sie ja einerseits die Kohorte, die Sie entlassen und andererseits die Kohorte, die im Gefängnis bleiben muss. Was Sie wissen möchten, also was diese Systeme einschätzen müssen, ist: Werden die Menschen rückfällig? Jemand, den sie im Gefängnis behalten, von dem können Sie nie erfahren, ob er rückfällig wird, weil Sie ihn nicht vorzeitig entlassen haben. D.h. es ist ungleich verteilt, was für Feedbackdaten Sie sammeln können. Es ist auch so, dass diese Systeme dafür verschrien wurden, wirklich zurecht kritisiert wurden: dass weiße Häftlinge deutlich besser behandelt werden als schwarze; das Risiko, dass man als weißer Häftling entlassen wird auf Bewährung, obwohl man rückfällig wird, ist viel größer als das Risiko, dass man als schwarzer Häftling nicht entlassen wird, auch wenn man nicht rückfällig geworden wäre. Diese beiden Risiken können Sie nicht auf die gleiche Weise mit Feedback Loops ausgleichen über die Zeit, weil Sie über die Leute, die in Haft bleiben viel schlechter solche Daten sammeln können. Das sind dann zufällig die Schwarzen und das ist schreiend ungerecht. Und das lässt sich auch nicht technologisch mal eben lösen.
Katrin Steglich
00:15:35
Profilbildung wird ganz normal im Alltag über Daten, die wir über uns preisgeben, z.B. in Social Media und durch unsere Bewegungsmuster, gemacht. Sie beschäftigen sich aber mit der Prädiktiven Analytik. Können Sie dazu etwas sagen und wie sich das zu der normalen Profilbildung des Alltags unterscheidet?
Rainer Mühlhoff
00:15:57
Ja, Prädiktive Analytik ist für mich ein Sammelbegriff für alle Anwendungen von Künstlicher Intelligenz (KI) und Data Science, um noch Techniken mit reinzunehmen die vielleicht nicht im engeren Sinne Künstliche Intelligenz sind, sondern einfache Datenanalyse; also ein Sammelbegriff für alle Techniken, die dafür verwendet werden, Prognosen zu stellen über entweder zukünftiges Verhalten von Menschen, aber auch über Informationen über Menschen, die man nicht kennt. Z.B. weiß ich nicht, ob Sie rauchen, aber meine Prädiktive Analyse kann versuchen, das anhand Ihrer Verhaltensdaten, die man über Sie sammeln kann, im Internet herauszufinden, indem die Prädiktive Analyse das vergleicht mit den Verhaltensdaten über viele andere Menschen, auf die das System Zugriff hat. Bei einigen weiß ich auch, ob sie rauchen oder nicht. Damit kann es entsprechende Prädiktive Patterns (Muster) im Verhalten ermitteln und die damit, ob man raucht, korrelieren. Das ist sehr nah an Profilbildung. Ich würde sagen, mit Profiling und Prädiktiver Analyse meint man wahrscheinlich das Gleiche. Aber der Begriff Prädiktive Analyse betont ein bisschen besser, dass man das macht, um einen Informationsvorsprung zu gewinnen, also entweder in der Zeit (ich habe heute schon eine Abschätzung über zukünftige Ereignisse, also ob Sie z.B. übermorgen ein bestimmtes Produkt kaufen möchten), oder ich habe einen Informationsvorsprung gegenüber dem, was sie über sich preisgeben möchten. Z.B. möchten Sie nicht über sich preisgeben, ob sie rauchen. Aber ich kann das halt aus Ihrem Verhalten ermessen.
Katrin Steglich
00:17:48
Das heißt, dass diese Analysen über Menschen, die anhand von Daten getroffen werden und nicht an spezifischen Gegebenheiten zu dieser Person, letztendlich auch zu einer Ungleichheit beitragen, weil ich ja gar nicht weiß, wann eine Entscheidung, die andere zu mir oder über mich treffen, auf Basis von Daten passiert, die gar nicht zutreffend sind. Ich kann auch nicht zuordnen, wo das herkommt.
Rainer Mühlhoff
00:18:16
Ganz genau. Ich würde sagen: das ist die Signatur des Informationszeitalters in den 2010er-Jahren, dass genau so etwas gemacht wird. Man kann Informationen über Sie abschätzen, die Sie nie irgendwo angegeben haben. Also es ist nicht so, dass jemand diese Information geklaut hat. (Sie haben z.B. beim Arzt bestimmte Sachen gesagt und der Arzt hat seine Schweigeauflagen gebrochen, oder jemand ist auf dem Computer des Arztes eingebrochen und hat durch die Verschlüsselung hindurch diese Daten entwendet). Das alles sind nicht mehr die Primärszenarien, sondern das Szenario ist: Sie haben dieses Datum nie irgendwo angegeben. Es wird aber prädiktiv, mittels Vorhersage über Patternmatching (letztlich Verhaltensvergleichen) über Sie trotzdem abschätzbar. Das ist, würde ich sagen, die neue Konstellation, das neue Angriffsszenario auch im Datenschutz. Ich selbst arbeite in meiner Forschung genau darüber und sage: Wir brauchen jetzt ein größeres, ein weiteres Verständnis von Privatsphäre. Wenn Menschen über mich Information abschätzen, indem sie mein Verhalten mit dem Verhalten vieler anderer Menschen vergleichen, dann können solche abgeschätzten Information auch meine Privatsphäre verletzen. Ich nenne das „Prädiktive Privatheit“. Meine Prädiktive Privatheit, also die Privatsphäre, die irgendwie durch Abschätzbarkeit tangibel (konkret) ist, die wird dann in so einem Moment über mich verletzt. Das ist ein weiterer Privatsphäre-Begriff, der gerade sehr wichtig ist, der aber noch nicht in der Datenschutz Regulierung angekommen ist. Menschen, die Prädiktive Analyse betreiben, also bauen und verwenden, die haben genau ein Interesse: Menschen automatisiert unterschiedlich zu behandeln. Die wollen wissen oder einschätzen können und einen Informationsvorsprung haben, z.B. mit wem sie es zu tun haben. Ist es zu riskant, diese Krankenversicherung anzubieten? Oder müsste sie dann teurer sein, weil es riskant ist? Oder ist es riskant, diese Person anzustellen, weil sie psychologisch labil ist? Die Abschätzung psychologischer Disposition ist auch ein großes Thema bei Prädiktive Analyse. Aber auch in der Werbung ist das ein großes Thema. Was für ein Produkt interessiert Sie höchstwahrscheinlich und so weiter. Das ist eine neue Form der Privatsphärenverletzung, die direkt damit zu tun hat, dass man Menschen automatisiert in Schubladen stecken möchte, d.h. unterschiedlich behandeln möchte.
Katrin Steglich
00:20:52
Als Privatperson kann ich mich dagegen eigentlich gar nicht wehren. Richtig?
Rainer Mühlhoff
00:20:56
Also aktuell gibt Ihnen die Datenschutz Regulierung sehr wenige Mittel an die Hand, sich dagegen zu wehren. Denn insbesondere fallen im Bereich der europäischen Datenschutzgrundverordnung abgeschätzte Informationen nicht in den Schutzbereich. Das ist ein Punkt, den z.B. der kalifornische Consumer Privacy Act (CCPA), der zwei Jahre später als die DSGVO beschlossen wurde, voraus hat. Die schließen Referenzen (abgeleitete abgeschätzte Informationen) explizit ein in den Bereich der personenbezogenen Daten. Das macht die DSGVO nicht. Es ist ein unreguliertes Feld. Unternehmen können über Sie Prognosen stellen, ohne Sie darüber informieren zu müssen, ohne dass Sie ihnen das untersagen könnten.
Katrin Steglich
00:21:43
Das ist natürlich noch einmal ein sehr weiter Unterschied zu wenn ich mich an die Schufa wende und um meine Daten bitte - dort zumindest geliefert bekomme, mit welchen Daten sie arbeiten. Auch wenn sie sie dann in irgendeiner Form über ihren Algorithmus berechnen, weiß ich zumindest, auf welcher Basis sie hoffentlich agieren, was im anderen Fall komplett opaque bleibt.
Rainer Mühlhoff
00:22:05
Kreditauskunfteien sind relativ stark reguliert worden. Die gibt es seit mehr als 100 Jahren. Schon damals war das ein Datenschutzthema. Deswegen gab es relativ früh schon bestimmte regulatorische Auflagen an Kreditauskunfteien. Sie werden jetzt im Big-Data-Zeitalter zunehmend unterlaufen. Man entwickelt halt alternative Scores; noch vor 15 Jahren hat man alles am Credit Score fest gemacht. Ob man Sie anstellt, also in den USA hat man Credit Scores bei Bewerbungsverfahren ermittelt. Ob Sie einen Platz an der Uni kriegen, Mietvertrag usw.. Heute gibt es einen florierenden Markt, einen ganz unübersichtlichen Markt von alternativen Scores, die nicht formal Credit Scores sind und die überhaupt nicht reguliert sind. Also das wäre der erste Teil der Antwort. Der zweite Teil ist: selbst bei der Schufa wissen wir ja nicht, wie das Modell funktioniert. Also wir wissen die Input-Daten, welche Daten in das Modell als Beurteilungsgrundlage hineingesteckt werden, und sie legen uns auch offen, was dabei herauskommt: ein Prozentscore. Aber insbesondere, ob meine Daten, die die Schufa über mich weiß, dafür verwendet werden, andere Menschen einzuschätzen, und wenn ja, wie diese Modelle aussehen, und was diese Modelle für Biases (Vorurteile) und Diskriminierungsmuster haben, also welche Personengruppen dabei schlechter abschneiden statistisch als andere Personengruppen, das ist nicht aufgedeckt, das müssen sie auch nicht aufdecken. Und das ist eine große Limitation in unserer Datenschutzgesetzgebung, dass man nur auf das Input-Stadium der Datenerhebung schaut, aber nicht auf die ganze Verarbeitungskette, in deren Folge neue Daten, neue Informationen über Menschen generiert werden. Also die Daten, die ich vorne hereinstecke, die sind vielleicht etwas weniger sensibel und oder gut überschaubar. Im Verlauf der Datenverarbeitung passiert z.B. Diskriminierung oder Verknüpfung mit den Daten vieler anderer Menschen und so weiter. Und das muss nicht aufdeckt werden.
Katrin Steglich
00:24:05
Da möchte ich noch einmal den Bogen schlagen zu den anonymisierten Daten, die sie vorhin erwähnt haben. Das ist ein Trugschluss, dass man sagt „wir anonymisieren Ihre Daten, und damit sind sie quasi gelöscht“, weil diese Daten ja dann weiterverwertet werden dürfen und anhand von verschiedenen anderen Metadaten durchaus wieder eine Zuordnung möglich sein kann zu einer bestimmten Person. Das wäre auch so ein Problem. Oder dass man im Datenschutz diese anonymen Daten letztlich auch irgendwie schützen müsste.
Rainer Mühlhoff
00:24:40
Ja, das ist richtig. Ich würde sagen wir sind jetzt in dem Jahrzehnt, wo es beim Datenschutz auf den Umgang mit anonymisierten Daten ankommt. Klingt super strange, weil anonymisiert - dann ist doch alles okay? Der Punkt ist: wir müssen verstehen, dass sich große Datenunternehmen nicht mehr für uns individuell interessieren. Das ist für sie nicht relevant, was für eine konkrete Person ich bin. Was sie im Datensatz interessiert ist nur: Wie korreliert das Klickverhalten im Internet? Mein Browserverlauf, was ich so like oder share, wie korreliert das mit irgendwelchen anderen Daten über mich? Ob ich mit getrennten Eltern aufgewachsen bin oder zu Depressionen neige - dafür muss man meine Identität gar nicht kennen. Gleichzeitig ist es so, dass nach der stehenden Rechtsprechung, dem Löschungsanspruch nach der DSGVO Genüge getan ist, wenn ein Unternehmen die Daten nicht löscht, sondern anonymisiert, d.h. das Unternehmen sammelt Daten über sie. Das darf es nur, wenn es einen Verwendungszweck dafür angibt und eine Rechtsgrundlage, z.B. Ihre Einwilligung - dann darf es diese Daten für den Zweck verwenden, den es ihnen kommuniziert hatte, In dem Moment, wo der Zweck erfüllt ist, muss es die Daten auch wieder löschen. Was das Unternehmen aber machen kann, ist, die Daten nicht zu löschen, sondern zu anonymisieren und die anonymisierten Daten weitreichenden anderen Verwendungsweisen zuführen, wie z.B. Prädiktive Modelle damit zu trainieren. D.h. sie sind typischerweise Social-Media-Unternehmen, sie haben solche Daten von Millionen von Menschen, und sie anonymisieren als erstes diese Nutzungsdaten. Dann fallen sie nicht mehr in den Schutzbereich des Datenschutzes, also der der DSGVO. Dann können sie damit prädiktive Modell trainieren mit diesen anonymisierten Massendaten, die z.B. anhand von Bewegungen im Internet ermitteln, ob jemand Substanzen missbraucht oder Prostatakrebs hat oder schwanger ist - die Beispielliste ist lang. Diese Modelle, diese KI-Modelle, die sind selber weiterhin anonymisierte Daten. So ein KI-Modell besteht aus vielen Zahlen, abgeleitete Daten aus den Trainingsdaten (aus den anonymisierten Massendaten), anhand derer das gelernt wird. Diese Modelle können frei zirkuliert werden. Sie können frei verkauft werden, weil sie immer noch anonymisierte abgeleitete Informationen enthalten, die nichts mit den Einzelpersonen zu tun haben, also keinen Personenbezug haben. Was Sie machen können mit so einem Modell ist, wenn sie über eine neue Person, die vorher gar nicht in den Trainingsdaten enthalten war, z.B. Verhaltensdaten erfassen, z.B. einige Facebook-Likes, dann können Sie anhand eines solchen prädiktiven Modells über diese Personen ermitteln, ob sie schwanger ist oder Prostatakrebs hat. D.h. Sie können mit den anonymisierten Massendaten, die wir alle zur Verfügung stellen, Modelle bauen, die es erlauben, höchst private oder intime oder sensible Informationen über Dritte, völlig unbeteiligte Individuen, zu ermitteln.
Katrin Steglich
00:27:48
Damit habe ich eine Situation geschaffen, in der wir Daten liefern, die privaten Institutionen Macht über uns geben die dann wiederum einschränkend auf unsere Lebensentwürfe wirken können.
Rainer Mühlhoff
00:28:06
Ja, ganz genau. Und das Problem daran ist, dass es kaum bekannt ist. Wir denken beim Datenschutz immer noch zu viel an uns selbst. Also ich möchte die Kontrolle haben, welche Informationen über mich verarbeitet werden. Der Punkt ist, wenn es mir egal ist, dass GMail alle meine E-Mails hat mit all dem, was da so drinsteht, oder Facebook, Facebook Likes, oder Dropbox mit dem Lebenslauf, den ich geschrieben habe, dann treffe ich damit nicht nur eine Entscheidung für mich. Denn Dropbox, GMail und Facebook werden diese Daten nutzen, anonymisieren und dann mit den Daten von Millionen anderer Nutzer*innen zusammenführen und prädiktive Modelle damit trainieren, und diese prädiktive Modelle werden dazu verwendet werden, über andere Menschen Informationen abzuleiten, die diese selber nicht über sich preisgeben möchten. Auch von denen, die gar nicht wissen, dass die Informationen ableitbar sind. So etwas wird gemacht, um Menschen unterschiedlich zu behandeln.
Katrin Steglich
00:28:58
Schützt es einen denn, wenn man möglichst wenig Spuren hinterlässt? Oder ist das auch problematisch, weil man nicht einschätzbar ist?
Rainer Mühlhoff
00:29:07
Ich würde sagen die Schlinge zieht sich tendenziell in die Richtung zu, dass Menschen, über die wenig bekannt ist, zunehmend Extra-Hürden begegnen. Dafür gibt es schon kleine Anzeichen im Alltag. Z.B. wenn ich kein Facebook Cookie auf meinem Rechner habe, dann kriege ich an bestimmten Punkten, wo ich mich einloggen muss, erstmal eine SMS geschickt oder so. Es gibt so kleine Beispiel die man jetzt schon nennen kann. Es ist auf jeden Fall der Trend, wo es hingeht.
Katrin Steglich
00:29:34
Ich will noch einmal zu einem ganz anderen Thema kommen. Durch KI werden Jobs auch ersetzt. Die Diskussionen gehen in unterschiedliche Richtungen. Manche sagen, es werden nur in Anführungszeichen unwichtige Jobs, Dinge, die leicht ersetzbar sind, ersetzt und anderes sagen: Nein, es geht auch um hochqualifizierte Jobs, wenn wir immer mehr solche Systeme haben, die mit künstlicher Intelligenz wirken. Was für neue Jobs sehen sie kommen, weil das ist ja dann immer der Trost, der da heißt: Es verändert sich zwar jetzt viel, aber es entstehen ja auch neue Möglichkeiten. Was ist Ihre Einschätzung?
Rainer Mühlhoff
00:30:14
Was ich in meiner Forschung viel untersucht habe und auch als wirklich großen systemischen Machtkampf von KI sehe ist, dass KI gar nicht darauf aus ist, Menschen zu ersetzen, sondern tatsächlich Menschen einzubinden. Die ganzen Fortschritte im Bereich der Künstlichen Intelligenz der letzten 15 Jahre, insbesondere Computervision - dass Sie automatisiert visuell auswerten können, Gesichter erkennen können, Schrift erkennen können, Objekte erkennen können, Straßensituationen erkennen können, oder Spracherkennung, das Prozessieren natürlicher Sprache - basieren alle auf den kleinen Eingabedaten von menschlichen Arbeiter*innen. Stellen Sie sich vor, Sie haben ein Unternehmen, das so eine Künstliche Intelligenz zur Beurteilung von Hautläsionen bauen möchte. Was machen Sie als erstes? Sie müssen, wenn Sie Machine Learning (Maschinelles Lernen) dafür verwenden wollen, (da wird Ihnen nicht viel anderes übrigbleiben, denn andere KI gibt es dafür nicht) dann brauchen Sie viele Datensätze; viele Trainingsdaten – d.h. Fotos von Hautläsionen und die Einschätzung einer wirklichen existierenden Ärztin, ob das bösartig ist oder nicht. Davon brauchen Sie 50 Millionen Datensätze solcher Beispiele. Dann können Sie damit ein Machine Learning Modell trainieren, welches lernen kann, die Korrelation zwischen dem optischen Erscheinungsbild und „bösartig oder nicht“ zu erfassen und solche Einschätzungen automatisiert zu erstellen. Wenn sie so ein Unternehmen sind, dass so ein System bauen möchte, dann wären sie als erstes viele Jahre lang damit beschäftigt, Ärztinnen an sich zu binden, die Ihnen diese Daten liefern. D.h. Sie werden z.B. eine App programmieren, welche Patient*innen die Möglichkeit einer elektronischen Beurteilung ihrer Hautläsionen gibt: Patient*in sitzt am Smartphone, fotografiert ihre Hautläsionen, dann wird das Bild übers Handy irgendwohin geschickt und muss beurteilt werden. Das wird am Anfang nicht Ihre KI sein - die haben Sie noch nicht trainiert - sondern da sitzen bei Ihnen am Backend Ärztinnen und Ärzte, die diese Beurteilungen machen. Sie machen zwei Sachen mit diesen Daten: Erstens melden Sie das an Ihre Kundin zurück, an die Patientin, die die Einschätzung haben wollte. Zweitens behalten Sie diese Daten. Sie behalten das Foto, das die Patientinnen gemacht hat und die Einschätzung Ihres menschlichen Arztes. Damit haben Sie Ihren Trainingsdatensatz, Ihrem Datenbestand haben sie ein Atom hinzugefügt. Das müssen Sie leider 50 Millionen Male machen. Wo läuft der Hase hin? Sie werden sich natürlich günstige Ärztinnen suchen. Sie werden vermutlich Ärztinnen aus dem globalen Süden nehmen, die für weniger Geld Klick-Arbeitsmäßig Diagnosen für Sie erstellen. D.h. der Arbeitsmarkt macht erstmal gar nicht weniger Arbeit für Ärzt*innen, verschiebt die Arbeit aber global. Sie sind ein globales Unternehmen – darauf wird es immer hinauslaufen. So werden die Arbeiten, tendenziell das, was vorher die Begegnung zwischen einer Ärztin und einer Patientin war - hier in einem Sprechzimmer - transformiert in eine Patientin die im Westen ist, die (ohne es zu merken) mit einer schlechter bezahlten Ärztin im globalen Süden in Kontakt ist, vermittelt über eine App. So transformieren Sie eine ganze globale Struktur von Arbeit. Ich habe in meiner Forschung thematisiert, dass solche Systeme immer auf so eine menschliche Beteiligung angewiesen bleiben werden. Ihre Dermatologie-App ist auch nicht irgendwann fertig trainiert. Sie werden immer diese Ärztinnen und Ärzte im globalen Süden brauchten, um immer neue Fälle zu beurteilen, um Corner Cases zu beurteilen, d.h. Fälle, die nicht eindeutig sind usw.. Es geht also eher darum, dass der Arzt-Job sich in der Zukunft so transformiert, dass dieser öfter mit Klick-Arbeit konfrontiert sein wird und mit Patientinnen, die digital zugeschaltet werden, mit denen sie sich vielleicht nicht einmal unterhalten können, weil sie eigentlich nur ein Bild zugeschickt bekommen von der Plattform, als dass der Job wirklich wegfällt. Ich will nicht sagen, dass das eine tolle Transformation ist. Im Gegenteil. Aber es ist komplexer, als das oft vermittelt wird.
Katrin Steglich
00:34:18
Wenn man an die nächste Generation denkt, an unsere Kinder, wie würden Sie sagen verändert sich die Gesellschaft global mit der Art, wie wir heute Daten nutzen? Wir haben ja gerade geguckt, wie Technologien eingesetzt werden, was nicht immer zum Vorteil aller ist. Vielleicht kann man da noch lenkend eingreifen? Wenn es jetzt so weitergehen würde, wie wir sie jetzt nutzen, wie würden Sie die Gesellschaft der Zukunft sehen?
Rainer Mühlhoff
00:34:47
Ich glaube, womit wir rechnen müssen, ist, dass sehr viel Gestaltungsmacht über die Gesellschaft - das ist ein großes Wort, nehmen wir soziale Interaktionen, aber auch über wohlfahrtsstaatliche Strukturen, sagen wir Gesundheitsversorgung - sehr viel Gestaltungsmacht darüber wird in private Hände fallen, noch mehr, als heute schon der Fall ist. Wir sehen ein massives Überstülpen eigentlich öffentlicher Infrastruktur mit neuen privaten Infrastrukturen, weil die öffentliche Hand nicht innovativ genug ist - es nicht schnell genug schafft - Angebote von gleicher Qualität mittels KI (Künstlicher Intelligenz) oder Digitalisierung aufzubauen, so dass die Menschen privatwirtschaftliche Services benutzen. Und je mehr das tun, desto mehr sind privatwirtschaftliche Services effektiv Infrastruktur geworden. Sehen Sie sich an, wie die Post, die ursprünglich öffentliche Infrastruktur war, mittlerweile weitestgehend durch E-Mail-Kommunikation ersetzt wurde, die nie öffentliche Infrastruktur war, sondern private Infrastruktur ist. Es ist ja keine Selbstverständlichkeit, dass so etwas Essenzielles in privatwirtschaftlicher Hand betrieben werden und liegen muss. Ich will auch nicht sagen, dass es eindeutig ist, dass es staatlich sein sollte. Aber es ist auf jeden Fall nicht selbstverständlich. Und wir werden noch sehr viele solche Prozesse erleben. Ja, das ist richtig. Und eigentlich sogar absurd. Die Menschen oder die Kommunikation, die wandert massiv in eine Kommunikationsinfrastruktur ab, die weniger ein Postgeheimnis-Versprechen einlösen kann. Das ist ein Grund, was dagegenspricht, auf E-Mail zu wechseln. Aber natürlich sprechen viele andere Gründe dafür und deshalb tun es alle Menschen, auch zu Recht. D.h. wir sehen: der Staat mit seinem alten Garant von Erreichbarkeitsgarantie (die Post muss ausgetragen werden, Postgeheimnis, Briefgeheimnis) das ist mit Irrelevanz gestraft und übrigens auch unterwandert. Die Deutsche Post exportiert weltweit ihre digitalen Briefverteilzentren. Jeder Brief wird äußerlich eingescannt bei der Deutschen Post, seit mehr als einem Jahrzehnt, um diesen automatisch zu routen. D.h. die Post sammelt, und zwar digital und massiv Metadaten der Briefkommunikation. Sie scannt jeden Briefumschlag von außen mit allem, was darauf erkennbar ist, speichert das ab und kann es anonymisiert verarbeiten. Sie können das auch dafür verwenden, prädiktiv - also zielgerichtet auf Häuserblock-Ebene - politische Werbung zu verteilen. Das wurde bekannt, z.B. bei der Österreichischen Post wurde das etwas mehr thematisiert, der E-Postbrief - dem Produkt der Deutschen Post. Für den elektronischen Brief ist es längst so, dass die Deutsche Post (wie man so schön sagt) die Medienbruchschwelle zwischen digitaler und Briefkommunikation zu überbrücken versucht. D.h. mancher Brief, den wir kriegen als Brief wurde von der Krankenversicherung, die ihn abgeschickt hat - ich weiß, dass z.B. die großen Krankenversicherungen in Deutschland das nutzen – digital der Post geschickt hat und die Post druckt ihn aus, steckt ihn in einem Briefumschlag und verschickt ihn. An der Stelle ist das Briefgeheimnis schon nicht mehr gewahrt, weil die Post den Inhalt ja sieht, weil sie ihn selber druckt. Umgekehrt, mancher Brief, den wir händisch an alle großen, zum Beispiel Krankenversicherungen schicken, wird von der Post geöffnet, eingescannt und der Krankenversicherung digital übermittelt. Also das sind längst Services, die der alten Briefkommunikation aufgepfropft sind, die irgendwie im Hintergrund das Ganze digitalisieren und insbesondere das alte Briefgeheimnis auch hier weiterhin irgendwie aus der Zeit gefallen dastehen lassen.
Katrin Steglich
00:36:08
Die Post ist geschützt. Da kann nicht jeder reingucken. Beim E-Mail-Verkehr ist das anders. Jetzt haben wir unsere gesamte Kommunikation quasi auf E-Mail ausgelagert, aber das ist offen auf dem Server für alle lesbar. Das heißt, wir haben da auch tatsächlich diesen Überwachungs-Effekt, der vorher so nicht existierte? Aber wenn man jetzt allgemein betrachtet, würde es dämpfende Effekte auf die Gesellschaft haben, wenn man permanent beobachtet ist oder kontrolliert wird oder kontrollierbar ist? Daten verschwinden nicht. Man kann zurückspulen und schauen, was diese Person vor einiger Zeit gemacht hat. Wie verändert das Menschen, die sich nicht mehr frei geben können?
Rainer Mühlhoff
00:39:16
Auf jeden Fall hat das einen wichtigen Einfluss. Die Frage ist - es wird in jeder Zeit ein bisschen anders sein - wie genau dieser Einfluss funktioniert. Denn in den 80er-Jahren, als es das Volkszählungsurteil des Bundesverfassungsgerichtes gab, war es schon ein wichtiger Baustein der Argumentation, dass jemand, der nicht wisse, wann und welche Daten über ihn erhoben werden, sich nicht mehr frei verhalten können wird auch in der Entfaltung seiner Persönlichkeit, aber auch im politischen Engagement usw.. In Bezug auf die 2010er-Jahre spricht man da oft von einer zynischen Wendung dieses Effektes, nach dem Motto: Wir wissen alle, dass wir ständig Daten hinterlassen und das alles, was wir machen, aufgezeichnet wird“. Ich finde, das ist eine ganz interessante Schwelle zu einer neuen Form der Subjektivität im Kontext von Datafizierung. Das darf man aber nicht so lesen, dass das vom Einfluss her irrelevant geworden wäre, sondern was dabei herauskommt, sind Verhaltensweisen oder Formen von Selbstbewusstsein oder eben Subjektivität, die das von vornherein eingepreist haben wird. Diese Form der Kontrolle, wenn Kontrolle heißt: nicht jemandem kontrollieren, sondern vorauslaufend das Verhalten von Menschen modulieren, indem man immer das, was Menschen gerade machen, in Echtzeit erfassen kann und in Echtzeit darauf reagieren kann, durch softe Zwänge, durch Nudges Menschen ein bisschen in diese Richtung zu pushen oder ein bisschen in jene. Das ist paradigmatisch für das, was in Online-Räumen geschieht und was ja auch eklatante Einflüsse auf politische Dynamiken haben kann, wie wir an der Beeinflussung (Stichwort Cambridge Analytica Skandal), jedenfalls an der Polarisierung von Öffentlichkeit gerade in den anglophonen Ländern und den Auswirkungen auf die demokratischen Prozesse da relativ gut beobachten können.
Katrin Steglich
00:41:18
Das grenzt auch schon an Social Scoring, wenn man Einfluss nehmen kann, in Echtzeit auf Verhalten von einzelnen Personen, dass Dinge ermöglicht oder verhindert werden, auf mein persönliches Verhalten bezogen.
Rainer Mühlhoff
00:41:33
Das grenzt definitiv an Social Scoring. Ich finde, diese Diskussion über das chinesische Social Credit System immer eigentümlich, weil wir die meisten dieser Strukturen, die diesem chinesischen System #00:41:58-5# nachgesagt werden, im Westen auch haben, nur dass sie in privatwirtschaftlicher Hand liegen. An Credit Scores, also ob ich meine Rechnungen nicht pünktlich bezahlt habe, das wird hier auch berücksichtigt - nicht vom Staat, sondern von privaten Kredit-Scoring-Unternehmen. Was ich in meiner Freizeit mache, ob ich irgendwelche verwerflichen Lifestyle Geschmäckern nachgehe oder irgendwelche anderen #00:42:25-2# subkulturellen Verhaltenssignaturen trage usw. - das wird hier auch ausgewertet, halt nicht vom Staat, sondern von Facebook. Das ist interessant, denn die Kritik, wenn man bei Social Credit Screening nur auf China zeigt, dann verrät sich da so ein altes Ressentiment im Datenschutz, vor allem anglophoner Spielart, nämlich dass das Problem der Staat sei - mehr als die Privatwirtschaft. Das, was vielen Leuten am chinesischen System so aufstößt, ist, dass es staatlich ist, dass es staatliche Form von sozialer Kontrolle ist. Ich würde sagen, davon müssen wir uns dringend lösen. Wir brauchen im aktuellen Datenschutz, auch wenn es um die Förderung der positiven Innovationspotenziale der Digitalisierung geht, da brauchen wir mehr Staat als weniger Staat. Das heißt, wir brauchen mehr einen eigenen Staat, der in der Lage ist, technologisch auf Höhe der Zeit solche Innovationspotenziale unter seine Fittiche zu nehmen und wirklich zum Gemeinwohl, also zum Wohle aller gedeihen zu lassen, anstatt es der Privatwirtschaft zu überlassen. Ich sehe es nicht, dass im kapitalistischen System privatwirtschaftliche Akteure zum Wohle aller agieren werden. Deswegen würde ich sagen, wir brauchen eher mehr Staat als weniger.
Katrin Steglich
00:43:37
Ja, da scheint in Deutschland tatsächlich eine große Skepsis zu sein und ein großes Vertrauen gegenüber der Privatwirtschaft. Sie haben jetzt schon den Bogen geschlagen zu der positiven Seite. Es gibt immer zwei Seiten einer Münze und der Technologie, über die wir gesprochen haben. Die kann man auch so einsetzen, dass sie eben zum Gemeinwohl beitragen kann. Das wäre jetzt die nächste Frage: Wie kann Digitalisierung im Sinne von KI und Big-Data-Analysen eingesetzt werden, um Ungleichheit und Armut, also die Probleme dieser Welt zu verringern? Was für Fragen müssen wir uns stellen, um diese negativen Entwicklungen einzudämmen und eher positive Effekte zu erzeugen?
Rainer Mühlhoff
00:44:24
Also ich würde generell sagen man muss viel mehr Verteilungsfragen stellen. Wer profitiert von einer technologischen Innovation, z.B. von der Verbesserung medizinischer Diagnostik durch KI (Künstliche Intelligenz)? - nehmen wir mal einfach ein Beispiel. Wer profitiert? Welche Patientinnen, aber auch welche ökonomischen Akteure verdienen damit ihr Geld? Immer wird Technologie angepriesen als „Diese Technik macht die Welt besser“ und die Gegenfrage muss immer sein: „Für wen?“ Das wäre so ein allgemeines Rezept. Und dann glaube ich, wenn man diese Frage systematisch stellt, wird man an viele Stellen kommen, wo man den Effekt für das Gemeinwohl stärken könnte, indem man die Dinge besser reguliert. Viel im Bereich Datenverwertung, Big Data und Künstlicher Intelligenz, ist gerade ein unreguliertes Feld. Ich halte das vorhin schon gesagt mit den anonymisierten Massendaten. Mit denen können sie machen, was sie möchten. Und das ist keine Selbstverständlichkeit, #00:45:30-3# denn in diesen Daten steckt sehr viel Informationsreichtum. Wir alle zusammen haben diese Daten produziert, und sie liegen aber als proprietäre Datenschätze bei wenigen Privatunternehmen. Warum muss das so sein? Warum kann das Gemeinwesen da nicht einen Zugriff darauf haben und das Recht haben, diese Daten zu seinem Wohle zu verwerten? Um da hinzukommen, so etwas zu beschießen, bessere Regulierung zu beschließen, braucht man viel mehr Bewusstsein in der allgemeinen Bevölkerung, um sie über die Art und Weise, wie heute Daten verwertet werden, insbesondere anonymisierte Daten verwertet werden, aufzuklären. Das ist noch nicht vorhanden, weil wir alle immer denken, es geht beim Datenschutz ja nur darum, dass ich selber kontrollieren kann, was mit meinen Informationen passiert.
Katrin Steglich
00:46:09
Dann möchte ich Ihnen zum Schluss noch die Frage stellen: Welche drei Punkte geben Sie uns mit auf den Weg? Was müssen wir beherzigen? Was gehört auf unserer Agenda, einmal als Privatpersonen oder auch als politische Akteure?
Rainer Mühlhoff
00:46:21
Ich denke, was man beherzigen sollte, ist erstens: Investieren Sie viel mehr in Digital-Bildung. Wir werden nicht weiterkommen, wenn das allgemeine Verständnisniveau für das, was Digitaltechnik ist und was sie kann und wie sie sich auswirkt, sich nicht deutlich vergrößert bei uns. Das wäre der erste Punkt. Und der zweite Punkt ist: Denken Sie über eine positive Rolle des Staates nach. Datenschutz könnte dafür da sein, die Macht großer Konzerne, die insbesondere Datenmacht gerade bei sich monopolisieren, ein bisschen aufzubrechen, ein bisschen zu mildern und zum Beispiel dem Gemeinwesen ein #00:47:10-3# viel größeres Mitspracherecht oder die Möglichkeit einzuräumen, besser zu partizipieren zum Wohle aller. Und als Drittes: Wir müssen uns viel mehr daran gewöhnen, strukturelle Effekte von Datenverarbeitung zu sehen. Also nicht „was für einen Schaden habe ich dadurch, dass dieses Unternehmen diese Daten über mich erfasst und verarbeitet hat?“, sondern eher die Frage „Wenn ich jetzt diese Daten hier über mich preisgebe, weil es vielleicht superpraktisch ist, diesen Service zu nutzen, was hat das für eine strukturelle Auswirkung auf die Gesellschaft?“ D.h. was für Auswirkungen hat es auf andere Menschen, und zwar wenn das ganz viele tun, dann hat das eine strukturelle Auswirkung insofern, dass beliebige Menschen durch die Daten, die wir alle zusammen preisgegeben haben, diskriminiert werden können, unterschiedlich behandelt werden können, in ihren Chancen moduliert werden können, sodass es insgesamt zu einer sozialen Ungleichbehandlung oder Ungleichheit kommt, die sich damit produziert oder stabilisiert.
Katrin Steglich
00:48:08
Vielen Dank, Rainer Mühlhoff, für Ihre Zeit und für das Gespräch. Ich wünsche Ihnen einen schönen Tag!
Rainer Mühlhoff
00:48:12
Ich danke Ihnen!