Netz-fest für faire Digitalisierung.

Ein Podcast von OXFAM und der lpb bw
Since 09/2022 7 Episoden

Netz-Fest Fokus: Demokratie und Zivilgesellschaft mit Prof. Dr. Jeanette Hofmann

Der Oxfam Podcast für eine faire Digitalisierung

27.09.2022 32 min Oxfam Deutschland | Katrin Steglich

Zusammenfassung & Show Notes

In dieser Episode von Netz-Fest gehen wir der Frage nach, wie die Digitalisierung auf die Demokratie und die Zivilgesellschaft wirkt.

Transkript

KI Linda
00:00:00
Das Digitale ist inzwischen überall. Die Versprechen, dass damit alles besser wird, haben sich nicht für alle bestätigt. In dieser Podcast-Reihe gehen wir der Frage nach, wie eine Digitalisierung aussehen kann, die zu einer lebenswerteren Welt beiträgt, z.B. indem sie Ungleichheit verringert, und Gleichberechtigung, Nachhaltigkeit sowie die Zivilgesellschaft stärkt.
Katrin Steglich
00:00:29
Herzlich Willkommen zum Oxfam Podcast „Netz-Fest“, der in Kooperation mit der Landeszentrale für politische Bildung BW entsteht! Mein Name ist Katrin Steglich, und heute spreche ich mit Jeanette Hofmann. Sie ist Professorin für Internetpolitik an der Freien Universität Berlin und leitet verschiedene Forschungsgruppen unter anderem am Wissenschaftszentrum Berlin für Sozialforschung und am Weizenbaum-Institut. Ihr Forschungsbereich umfasst unter anderem die digitale Gesellschaft, Internet Governance sowie Quantifizierung und gesellschaftliche Regulierung. Herzlich willkommen, Frau Professor Doktor Hofmann und danke, dass Sie sich die Zeit nehmen für dieses Interview!
Jeanette Hofmann
00:01:10
Gerne!
Katrin Steglich
00:01:12
Laut einer Schätzung der Internationalen Fernmeldeunion aus dem Jahr 2020 hatte knapp über die Hälfte der Weltbevölkerung Zugang zum Internet. Man könnte es als zusätzliche Infrastruktur beschreiben, in der wir uns bewegen, um Alltägliches zu erledigen, nur ohne die räumliche Distanz, die es in der analogen Welt gibt. Als nächste Stufe des Ausbaus plant der Meta Konzern die vollkommene Übertragung unseres Lebens ins Digitale à la Second Life. Obwohl das Internet vielleicht nicht mehr Wilder Westen ist und in der EU erste Gesetze existieren, um Rechte und Pflichten im digitalen Raum zu regeln, gibt es viele Fragen zur Regulierung dieses relativ neuen Raums. Z.B. gibt es gute Argumente für Anonymität im Netz, um Menschen zu schützen, die verfolgt werden oder auch für Whistleblower und zum Schutz vor Cyber Mobbing oder Doxing - das ist die Veröffentlichung von persönlichen Daten im Netz gegen den Willen der Person, aber es gibt auch gute Argumente für eine digitale Identität, um Straftaten im Netz aufdecken zu können oder auch Rechtsgeschäfte online zu ermöglichen. In der analogen Welt haben wir beide Optionen. Wir können im öffentlichen Raum noch anonym unterwegs sein, müssen uns aber in bestimmten Fällen ausweisen können. Im Netz gibt es quasi keine öffentliche Infrastruktur. Wir bewegen uns in Infrastrukturen von Tech-Konzernen, die ungestört Daten über uns sammeln und protokollieren können, was wir so tun. Wir können uns also nicht entziehen, wenn wir online mitspielen wollen. Welche Trends gibt es im Bereich Internet Governance und Internetpolitik hierzu?
Jeanette Hofmann
00:02:36
In der Tat ist es so, dass wir im Analogen eine Mischung aus öffentlichen und privaten Infrastrukturen haben. Generell ist es, so würde ich sagen, dass seit den 1980er-Jahren immer mehr öffentliche Infrastrukturen privatisiert worden sind. Insofern stimmt diese Gegenüberstellung von „Im Digitalen ist alles kommerziell und im Analogen haben wir die uns schützenden öffentlichen Infrastrukturen“ nicht. Man wird auch im analogen Raum lange suchen müssen, nach Infrastrukturen, die das Etikett „öffentlich“ verdienen. Aber was die Regulierung nun anbelangt, ist es so, dass wir zunehmend Gesetze haben, die die Privaten stärker in die Pflicht nehmen und auch stärker rechenschaftspflichtig machen in einem Umfang, wo man gelegentlich fürchten muss, dass unsere Grundrechte gleich mit unter die Räder kommen. In dem Wunsch, den digitalen Raum zu zähmen, stellt man fest, dass unsere Grundrechte - und dazu gehört natürlich auch das auf Privatheit und auf Datenschutz - oft nicht für voll genommen werden. Also da ist starkes zivilgesellschaftliches Engagement erforderlich, um unsere Grundrechte zu schützen.
Katrin Steglich
00:03:51
In Bezug zur zunehmenden Digitalisierung habe ich mich gefragt, wie sich das auf die Demokratie und somit auch auf die Zivilgesellschaft auswirkt und auch auf unsere Erwartungen an demokratische Prozesse.
Jeanette Hofmann
00:04:04
In der öffentlichen Diskussion dominiert ein Bild, dass das Digitale unsere arme Demokratie unterwandert und die Demokratie da so sitzt und zugeguckt wie die Digitalisierung ihr, wenn man so will, das Wasser abgräbt. Das, denke ich, ist ein vollkommen falsches Bild. Was wir stattdessen beobachten, ist, dass die Digitalisierung klar immer mehr fortschreitet, aber auch die Demokratie sich mit und zum Teil auch unabhängig von der Digitalisierung beständig wandelt. Wir können etwa beobachten, das schon über mehrere Jahrzehnte sich die Beteiligungsformen in der Demokratie ganz nachhaltig verändern. Und in diesem Änderungsprozess der Demokratie spielt die Digitalisierung eine große Rolle als Ermöglichungsinstanz. Sie erlaubt es jungen Bewegungen, sich auszuprobieren, neue Formen der Organisation, aber auch der Artikulation von politischen Interessen oder von politischem Widerstand zum Ausdruck zu bringen. Und hier spielt vor allem der Wandel der digitalen öffentlichen Sphäre eine große Rolle. Mit der many-to-many ny Kommunikation wird es Individuen erstmalig ermöglicht, selbst zu sprechen und nicht nur Empfängerin der alten Broadcast Medien zu sein. Lange Zeit sind wir in der Demokratie überwiegend Leser*innen, Zuschauer*innen und Wähler*innen gewesen, und mit dem Digitalen organisieren wir uns ganz praktisch und das zum Teil außerhalb der institutionalisierten Formen in der deutschen Demokratie. Da spielen die politischen Parteien eine große Rolle. Sie sind in unserem Grundgesetz auch erwähnt. Sie genießen Privilegien. Die Parteien bekommen Geld von uns Steuerzahlern, je nachdem, wieviel Stimmen sie errungen haben. Die parteinahen Stiftungen bekommen sehr viel Geld aus dem Staatssäckel. Aber neben diesen Parteien und diesen traditionellen Formen der Willensbildung, die über Parteien organisiert sind, haben sich vielfältige Initiativen entwickelt, die sehr stark vom Digitalen profitieren.
Katrin Steglich
00:06:21
Trotzdem hat man durch Journalisten eine gewisse Qualität an Berichtserstattung, was auf Einzelne nicht unbedingt zutrifft, auch mit Verbreitung von Informationen, die nicht unbedingt gut recherchiert sind. Hat das einen Effekt auf das Gesamtbild?
Jeanette Hofmann
00:06:42
Klar hat das einen Effekt, es hat die Informationsquellen enorm pluralisiert. Manche Menschen sprechen auch von einem Zerfall, der Fragmentierung der öffentlichen Sphäre. Was wir beobachten können, wenn jeder auf sein Smartphone schaut, kann man davon ausgehen, dass jeder etwas anderes sieht. Alle sehen etwas anderes. Und damit geraten die Dinge, die für die Willensbildung ja enorm wichtig sind, die gemeinsamen politischen Bezugspunkte - sie werden rarer. Das gilt nicht immer -während der Pandemie etwa haben wir wieder alle über das Gleiche gesprochen, auch jetzt mit dem Ukraine-Krieg sind Ereignisse da, auf die sich viele verschiedene Informationsquellen beziehen. Also wir sehen, dass der Wandel der Medien nicht notwendigerweise dazu führt, dass die Öffentlichkeit zerfällt. Aber sie haben vollkommen Recht. Mit der many-to-many Kommunikation, insbesonders auch den Plattformen, können sich alle öffentlich äußern, und das bedeutet das alte Qualitätsstandards und auch die Verpflichtung der Berichterstattung auf das informieren der Menschen und damit auf den demokratischen Beitrag zur politischen Willensbildung, dass der nicht mehr im Vordergrund steht, sondern die alten Massenmedien teilen sich die Aufmerksamkeit mit den vielen anderen Quellen, die heute bestehen. Ich würde sagen, dass ist einerseits ein Problem, andererseits sollte man aber nicht vergessen, dass bis in die 80er / 90er Jahre hinein unsere Massenmedien auch vielfach kritisiert worden sind, für die Gender-Setting-Macht, also die Macht der Medien über das, was kommuniziert wird, die Selektivität, die damit verbunden ist, bestimmte Erdteile z.B., von denen wir nie irgendetwas gehört haben. Aber auch die Nähe zur etablierten Politik ist den alten Medien häufig vorgeworfen worden. Insofern ist es nicht so, dass wir da aus einem rosigen Dasein jetzt ins Chaos abgestürzt sind, sondern wir sehen auch einen Wandel der Probleme, mit denen wir uns beschäftigen müssen.
Katrin Steglich
00:08:51
Jetzt ist das nicht ihr spezielles Fachgebiet, aber zur Demokratie gehört ja auch die Geschlechtergerechtigkeit. Studien zeigen, dass Frauen stärker als andere von Hate Speech und digitaler Gewalt betroffen sind. Das bringt sie eher zum Schweigen. Haben Sie Ideen, wie man damit umgehen kann, wie so etwas verhindert werden kann?
Jeanette Hofmann
00:09:11
Generell ist es so, dass das Digitale vielleicht anders als sich das früher optimistischen Stimmen vorgestellt haben, die Dinge nicht besser gemacht hat, sondern im Gegenteil - Ungleichheiten verschiedener Art - eher noch verstärkt hat. Das gilt ganz sicher für Nutzungskompetenzen, auch unter jungen Menschen, zwischen gut gebildeten und schlecht gebildeten. Da sehen wir totale Verstärkereffekte, also Kinder aus bildungsreichen Elternhäusern, die wissen das Digitale für sich zu nutzen, während Kinder aus bildungsarmen Haushalten sich selber nicht viel zutrauen und auch eher eine passive Konsument*innen-Rolle im Digitalen einnimmt. Und dann sehen wir natürlich auch ganz klar vor allen Dingen auch im Bereich der Digitalpolitik eine 09:20 erhebliche Geschlechterungleichheit. Allerdings, wenn ich mir jetzt mal angucke, wie zivilgesellschaftliche Organisationen heute aufgestellt sind, was da so neu entsteht und wer da auch in Leitungsfunktionen ist, da tut sich schon etwas. Es etabliert sich eine neue Generation von jungen Frauen, sagen wir zwischen Ende 20 und Anfang 40, die sehr wohl wissen, wie sie das Digitale für sich nutzen können. Also man muss auch aufpassen, dass man kein einseitiges Bild schafft. Aber was so die öffentliche Kommunikation, auch die Kontroversen im Netz anbelangt, da werden Frauen ganz sicher härter angefasst als Männer. Ein Vorschlag, der dazu allerdings jetzt nicht mit Bezug auf Frauen gemacht worden ist, dass wir eine Art Opferschutz im Digitalen brauchen. Dass die Plattformen nicht nur dafür sorgen müssen, dass digitale Gewalt, verbale Gewalt sich nicht weiter ausbreitet, sondern dass sie auch Anlaufstellen institutionalisieren müssen, an die sich Opfer von verbaler Gewalt im Digitalen wenden können.
Katrin Steglich
00:11:04
Würde man damit privaten Konzernen Aufgaben übertragen, die eigentlich im öffentlich-rechtlichen Bereich liegen?.
Jeanette Hofmann
00:11:14
Das tun wir schon die ganze Zeit durch das Netzwerkdurchsetzungsgesetz, aber auch durch das Digitale-Dienste-Gesetz, das die Europäische Kommission gerade verabschiedet. Da stellt man fest, dass die Plattformen sehr viele Aufgaben bekommen, die früher Gerichten oblegen hätten. Man denke nur mal daran, dass bestimmte Nachrichten gelöscht werden müssen, wenn sie eindeutig strafbar sind oder dass bestimmte Namen auch an die Polizei weitergereicht werden müssten, wenn es sich um eindeutig strafbare oder um Aufrufe zu strafbaren Handlungen handelt. Dass die weitergegeben werden müssen, das sind eigentlich hoheitliche Aufgaben, die wir aber nun Privaten übertragen. Was auch daran liegt, dass die Vielzahl der Information, die täglich hochgeladen werden, heute eher von algorithmischen Filtern sortiert werden als von Menschen. Und diese Filtersysteme, die liegen alle in privater Hand.
Katrin Steglich
00:12:15
Und wie bewerten Sie die Situation?
Jeanette Hofmann
00:12:18
Ich finde das sehr problematisch. Wiederum unter dem Gesichtspunkt der Informationsfreiheit führt die gegenwärtige gesetzliche Lage dazu, dass es häufig zu Overblocking kommt. Das heißt, es werden Nachrichten rausgefiltert, die vollkommen in Ordnung sind, aber womöglich falsche Stichworte enthalten, etwa wenn man etwas zitiert oder wenn man zu Demonstrationszwecken ein Bild hochlädt, das etwa zeigt, was ein problematisches Foto sein könnte. Da wird häufig blockiert und bislang sind die Möglichkeiten, sich dagegen zu wehren, noch sehr beschränkt.
Katrin Steglich
00:12:54
Stichwort Algorithmen. Sie beschäftigen sich auch mit Auswirkungen von Künstlicher Intelligenz (KI) auf Demokratie. Was haben Sie dazu herausgefunden?
Jeanette Hofmann
00:13:05
Das Bild hier ist sehr widersprüchlich. Viele Leute, die sich den Einsatz von Algorithmen im Bereich der automatisierten Entscheidungsfindung angucken - das gibt es in den USA, weniger als bei uns; bei uns sind solche Modelle erst am Rande in der Polizeiarbeit in einer Erprobungsphase. Aber von anderen Ländern her weiß man, womit zu rechnen ist. Etwa, dass solche Systeme auch bei sozialen Diensten zum Einsatz kommen, etwa um Risikofamilien ermitteln zu können. Dann gibt es Fälle, wo solche Systeme in der Steuerverwaltung zum Einsatz kommen, um Steuerbetrug aufzeigen zu können. Oder auch bei Richtern, die das Strafmaß für Wiederholungstäter festlegen sollen. Also es gibt jede Menge Aufgaben, die einen gewissen Routinegehalt haben, die anfällig für Automatisierung sind, und unsere bisherigen Gesetze sehen vor, dass es bei solchen Entscheidungen immer Widerspruchsrechte geben muss. Dass es einen Anspruch geben muss darauf, dass ein Mensch sich solche Entscheidungen anguckt und auch wirklich begründet und man das nicht schlicht Algorithmen überlassen kann, weil die häufig auch mal daneben greifen in ihren Entscheidungen. So weit zur automatisierten Entscheidungsfindung. Da werden häufig Diskriminierungen festgestellt. Es gab auch jetzt vor kurzem wieder einen Fall in Spanien, wo das System oft falsch entschieden hat über Anspruchsberechtigung auf Stromkostenzuschüsse. Da ist es häufig so, dass öffentliche Verwaltungen sich weigern, den Code herauszugeben, den Menschen Zugang zu geben, damit die das überprüfen können, ob solche Systeme fehlerhaft entscheiden oder nicht. Da muss ich unbedingt etwas tun. Da muss einfach mehr Transparenz eingeführt werden. Aber das sind, 00:14:24-2# sag ich jetzt mal, berechtigte Kritiken, die sich sehr stark auf die Gegenwart beziehen. Theoretisch ist es so, dass über die Auswirkungen, die sich langfristig beim Einsatz solcher Systeme zeigen, wir sehr wenig wissen und auch sehr wenig bisher darüber nachdenken. Was aber Technikforscher sagen, ist, dass wir die kurzfristigen Auswirkungen neuer Technologien häufig überschätzen, wogegen wir die langfristigen Auswirkungen in der Tendenz unterschätzen. Also viel wichtiger, gerade mit Blick auf die Demokratie wäre, sich Gedanken darüber zu machen, was da langfristig auf uns zukommt. Die Demokratieforscher befürchten, dass die Expertensysteme, die da gestützt auf Künstlicher Intelligenz (KI) entstehen, womöglich der Art demokratischen Willensbildung und Entscheidungsfindung Konkurrenz machen könnten.
Katrin Steglich
00:15:01
Sie forschen auch zu quantifizierender Form von Regulierung. Was hat es damit auf sich? Und welche Auswirkungen könnte das auf die Demokratie haben?
Jeanette Hofmann
00:16:11
Also wir haben schon recht lange Tendenzen der Quantifizierung. In den letzten Jahren mit der Algorithmisierung stellen wir fest, dass solche Quantifizierungen auch als Instrument der Regulierung eingesetzt werden. Ein Beispiel dafür sind sogenannte Scoring Systeme. Das kennen wir beispielsweise von der Schufa, einem privaten Anbieter, der die Kreditwürdigkeit von Bürger*innen untersucht und dann Auskunft gibt. Nehmen wir an, Sie wollen eine Wohnung mieten. Dann will Ihre Vermieterin gerne eine Schufa-Auskunft, um sicher zu stellen, dass sie Ihre Miete auch zahlen können. Dann kommt die Schufa mit einem Scoring-Wert rüber, der Ihre Kreditwürdigkeit als Zahl ausgibt und das in hoch intransparenter Weise. Sie haben nur begrenzt Zugang zu den Daten, die da über Sie gesammelt worden sind. Sie können denen häufig nicht widersprechen. Und vor allem wissen Sie gar nicht, wie diese Daten untereinander gewichtet worden sind, wie also dieser Scoring-Wert genau ermittelt worden ist. Der ist aber, so intransparent er auch ist, ist er gleichzeitig sehr wichtig, greift in Ihre Lebenschancen, in ihr Dasein unmittelbar ein und vor allen Dingen: Menschen mit einem geringen Bildungshintergrund und wenig Einkommen, denen fehlt es auch an Ressourcen, um sich gegen solche Systeme zur Wehr zu setzen. Sie sind aber gleichzeitig stärker betroffen als Menschen, die ohnehin viel Geld haben und deshalb nicht mit solchen negativen Scoring Werten rechnen müssen. Das ist also ein Beispiel für Quantifizierung, wo faktisch ihre Kreditwürdigkeit in eine Nummer übersetzt wird und diese Form der Quantifizierung gleichzeitig den Zugang zu wichtigen Ressourcen regelt. Ein anderes Beispiel ist das Social Credit System in China, über das vielfach gesprochen wird. Da geht es nicht nur um Kreditwürdigkeit, sondern da wird Ihr ganzes Wohlverhalten (zahlen Sie regelmäßig Ihre Kredite zurück? Bringen Sie Bücher rechtzeitig zurück in die Bibliothek? - all solche Fragen - Was kaufen Sie ein? Wie gesund ernähren Sie sich? Wie verhalten sich Ihre Kinder in der Schule? )All diese Information werden zusammengetragen, zu einem Profil verdichtet und dann wiederum auf Scoring Werte runtergerechnet. Das ist ein System, das sich ein nicht-demokratisches Land überlegt hat, auch um mit dem Problem mangelnder Vertrauensbeziehungen in der chinesischen Gesellschaft umgehen zu können. Weshalb - das eher als Fußnote - viele Chinesinnen dieses System auch begrüßen, also dankbar sind, wenn sie die Scoring-Werte ihrer Nachbarn kennen und daher wissen, ob die sich wohlverhalten oder nicht. Bei uns ist so etwas in diesem Umfang nicht denkbar. Aber es ist ein Beispiel für Regulierung durch Quantifizierung.
Katrin Steglich
00:19:18
Im ersten Fall würde ich jetzt sagen, mit Scoring-Werten birgt das die Gefahr, dass Schwache noch weiter geschwächt werden und Starke weiter gestärkt werden. Richtig? Beim Social Scoring ist das wahrscheinlich nicht ganz so ausgeprägt.
Jeanette Hofmann
00:19:34
Das Social Scoring, das China betreibt, da erwischt es gewissermaßen alle Menschen gleichzeitig. Vielleicht nicht die politische Elite. Aber im Grunde erfasst es die gesamte Gesellschaft - und interessanterweise sollen diesem Scoring-System auch Unternehmen unterworfen werden. Und da wiederum kann man sich eigentlich auch etwas Positives erwarten, weil doch die Korruption in China sehr verbreitet ist und gesetzliche Verstöße, etwa im Umweltbereich, vielfach bekannt werden. Wenn Scoring-Werte dazu führen, dass Unternehmen, das die bestehenden Gesetze stärker beachtet werden, auch in der Wirtschaft, dann wäre das sicher ein positiver Impuls, aber insgesamt ist es ungefähr das Gegenteil, was man sich von einer demokratischen Gesellschaft wünschen würde.
Katrin Steglich
00:20:27
Zumal es ja da auch meines Erachtens wieder um Transparenz bei Algorithmen geht, weil auch Algorithmen können sich täuschen und Fehler produzieren. Und wenn das nicht transparent ist, sind natürlich Leute von solchen Fehlern betroffen und haben dann auch keine Möglichkeit, sich dagegen zur Wehr zu setzen.
Jeanette Hofmann
00:20:45
Ja, auch dafür gibt es jede Menge Beispiele. Dabei sind es häufig nicht die Algorithmen, die Fehler produzieren, sondern die Art und Weise, wie sie programmiert worden sind und wie sie dann aufgrund dieser Programmierung die vorliegenden Daten interpretieren. Es gibt viele Beispiele dafür, wenn Unternehmen etwa ihre Einstellungspraxis digitalisieren und Algorithmen nutzen, um Bewerbungen vorzuselektieren, dass die traditionelle Einstellungspolitik so stark diskriminierend war, dass die Algorithmen nichts anderes machen, als diese diskriminierenden Einstellungspraktiken im Grunde ins Digitale ins algorithmische zu verlängern. Und Ähnliches beobachten wir auch im Bereich der Sozialverwaltungen. Wenn die solche Systeme einsetzen, so hat sich etwa gezeigt - ich glaube, das war in Australien, dass reiche Familien, die in wohlhabenden Gegenden wohnen, erst gar nicht in die Risikogruppen mit einbezogen worden sind, sondern dass nur Menschen mit einem geringen Einkommen und nach hoher Arbeitslosigkeit, beziehungsweise Menschen, die in solchen Gegenden wohnen, überhaupt als Risikogruppen aufgenommen worden sind - in diesen Systemen, da merkt man schon, dass Vorurteile und Diskriminierungspraktiken, die so selbstverständlich sind, dass man sie gar nicht hinterfragt, sich in einem algorithmischen System widerspiegeln.
Katrin Steglich
00:22:10
Für demokratische Prozesse, wie wir sie kennen, ist eine freie Meinungsbildung sehr wichtig. Wenn diese ganzen Einflüsse über digitale Mechanismen kommen, sehen Sie eine Chance, dass digitale Souveränität erhalten bleiben kann? 25 00:22:29.000 --> 00:25:11.000 <v Jeanette Hofmann>Ich gehe immer davon aus - das wird mir häufig zum Vorwurf gemacht - aber ich bestehe schon darauf, dass digitale Technologien als solche uns nicht vorschreiben, wie wir sie nutzen, sondern das sind immer die Regeln, die Akteure, die Ressourcen und auch Machtverhältnisse, in denen diese digitalen Technologien zum Einsatz kommen. Wenn man sich vorstellt, dass digitale Technologien ein Möglichkeitsraum aufspannen und wir als Menschen weniger individuell, aber kollektiv entscheiden, wie wir sie nutzen, denn es ist immer beides möglich. Nehmen wir mal das Beispiel Plattform, also Unternehmen wie Facebook, Twitter, Instagram etc. Für sich genommen sind diese Plattform eine wunderbare Erfindung, weil sie neue Beziehungen ermöglichen zwischen Menschen, aber auch zwischen Menschen und Objekten, die sich vorher nie gefunden hätten. So kann ein kleines Unternehmen, das irgendwo auf dem Land lebt, plötzlich einen Weltmarkt bedienen, wenn sie ein Produkt haben oder einen Dienst, der für viele Menschen interessant ist. Für dieses Unternehmen ist das toll. Es muss nicht die ganze Logistik aufbauen und mit viel weniger Kapital lässt sich ganz viel erreichen für dieses kleine Unternehmen. Und das gilt natürlich auch für uns als individuelle Nutzer*in. Aber die Art und Weise, wie Facebook und andere versuchen, uns auf ihren Plattformen zu halten, die Art und Weise, wie sie unsere Reaktionsmöglichkeiten auf einzelne Buttons reduzieren, das ist absolut kritikwürdig. Das heißt aber, es ist das Geschäftsmodell. Und es ist die Art und Weise, wie es algorithmisch umgesetzt wird, wo die Kritik angesagt ist. Aber nicht, finde ich gegenüber dem Plattformmodell als solchen. Und deshalb haben wir in Deutschland ja auch eine Diskussion, wo gefragt wird, wie wir Plattformen so einsetzen können, dass sie dem öffentlichen Interesse dienen. Beispielsweise hat der Bayerische Rundfunk vor ein paar Jahren damit begonnen, zu überlegen, ob man auch öffentlich-rechtliche Plattformen sich vorstellen kann. Das scheitert zurzeit maßgeblich an der deutschen Gesetzgebung. Aber da könnte sich etwas ändern, sodass wir beispielsweise das, was wir heute als Mediathek bezeichne und was mehr schlecht als recht funktioniert, das könnte beispielsweise alles auf einer Plattform untergebracht werden, wo man auch Jahre später noch auf Sendungen, auf Programme zurückgreifen kann, die ohnehin mit den Mitteln von uns Steuerzahler erstellt worden sind. Das heißt für den nutzbringenden Einsatz digitaler Technologien bedarf es eines Rahmenwerks, damit die Gesellschaft resilienter wird?
Jeanette Hofmann
00:25:25
Also resilienter, weiß ich nicht. Ich habe mit dem Begriff Probleme, weil ich den so unterdefiniert finde. Generell glaube ich, dass wir digitale Technologien unbedingt zu unserem gesellschaftlichen Nutzen einsetzen können. Und es gibt auch viele Beispiele, an denen man erkennen kann, dass das heute schon passiert. Ich habe das schon angesprochen: Wir haben heute viele junge zivilgesellschaftliche Initiativen außerhalb des traditionellen Parteiapparats, die ein für sich sinnvolles Leben führen wollen. Ich nehme jetzt mal als Beispiel die vielen Plattformen unterhalb der großen Plattformen, die wir alle kennen, so etwas wie nebenan.de. Aber es gibt auch z.B. Plattformen im Engagement-Bereich, wo Menschen Plattformen betreiben, um Freiwillige mit Organisationen (häufig Wohlfahrtsorganisationen) zu verbinden, um hier Nachfrage, Bedarf und Angebot zusammenzubringen. Ganz häufig sind es Migrant*innen, die nach freiwilligen Jobs suchen, wo sie ihre Sprache verbessern können, sich in die Gesellschaft integrieren können und auch erste Arbeitserfahrung sammeln. Und da gibt es Plattformen, die hier wertvolle Vermittlungsarbeit leisten. Das könnte man ohne das Digitale so gar nicht hinkriegen. Da werden viele Fliegen mit einer Klappe geschlagen.
Katrin Steglich
00:26:48
Wenn man das Gleiche denkt für Big Data - also welches Rahmenwerk müsste man haben, damit der Zivilgesellschaft ein Nutzen entstehen kann aus den immensen Datenmengen, die so oder so produziert werden? Haben Sie da Ideen?
Jeanette Hofmann
00:27:04
Also das Digitale-Dienste-Gesetzt der Europäischen Kommission wird da eine Regelung enthalten, die Plattformen darauf verpflichtet, Daten zumindest an Forscher*innen herauszurücken. Aber vermutlich werden auch zivilgesellschaftliche Organisationen damit einbezogen werden. Es ist zu früh, um zu sagen, wie das genau aussehen wird. Aber generell kann man sagen, dass Big Data, also die großen Datensätze, die Unternehmen wie Google, wie Microsoft, Facebook, aber auch Amazon sammeln, die gehören denen streng genommen nicht. Erstens sind es unsere Daten, die wir den Unternehmen mehr oder minder gezwungenermaßen zur Verfügung stellen. Und zweitens ist es auch rechtlich so, dass man Daten nicht besitzen kann. Es gibt kein Eigentumsrecht an Daten, sondern es gibt nur im Moment ein de facto Besitz, d.h. die Plattformen tun einfach so, als seien das ihre Daten und niemand hindert sie daran, so zu tun. Deshalb brauchen wir langfristig einen regulatorischen Rahmen, der die Zugangsrechte zu diesen Daten regelt. Da kann man sich im wirtschaftlichen Bereich etwa vorstellen, dass kleine und mittlere Unternehmen, die datenbasierte Innovationen planen, einen gewissen Obolus entrichten und dafür Zugang zu Daten bekommen. Für die Forschung ist es enorm wichtig, zum Ersten, um zu verstehen, wie Plattformen eigentlich Informationen ranken, sortieren und kuratieren. Aber es ist auch wichtig, um uns als Gesellschaft selbst beobachten zu können. Die Plattformen unternutzen diese Daten, die sie haben in dramatischem Ausmaß. Sie benutzen die Daten, die sie haben, überwiegend, um unsere Profile an Werbekunden zu verkaufen. Aber all das, was wir täglich tun, was wir alles über uns wissen,könnten als gesellschaftliche Kollektive, das interessiert die Plattformen nicht. Und deshalb sind diese Daten alle ungenutzt. Und sie sind wirklich sinnvoll für politisches Engagement, für die Erforschung der Gesellschaft und für die Regulierung von Plattformen.
Katrin Steglich
00:29:24
Ich habe jetzt noch eine Frage an Sie: Welche Tipps Sie uns mit auf den Weg geben - drei Punkte, die auf unsere Agenda gehören, im Sinne von Digitalisierung und Demokratie - als politische Akteure, aber auch als Privatpersonen.
Jeanette Hofmann
00:29:38
Ganz wichtig finde ich, dass wir uns mehr zur Wehr setzen. Menschen müssen einfach protestieren gegen die ständige Missachtung der Datenschutzregeln in Netz. Man muss sich an die Verbraucherschützer wenden. Man kann an die Bundesnetzagentur schreiben. Man kann an seine Repräsentant*innen im Bundestag oder im Landtag schreiben. Man muss einfach protestieren und das nicht hinnehmen. Das große Problem ist ja, dass den Menschen zu Beginn das ganz unheimlich ist und sehr unangenehm, wie viele Daten sie weggeben müssen, um sich im Netz bewegen zu können, an diesen Infrastrukturen kommen wir ja nicht vorbei. Und irgendwann gewöhnt man sich daran und vergisst es. Da spricht man auch von Habitualisierung in solchen Fällen und dagegen muss man sich unbedingt zur Wehr setzen.
Katrin Steglich
00:31:22
Ganz herzlichen Dank, dass Sie sich die Zeit genommen haben für dieses sehr interessante und informative Gespräch!
Jeanette Hofmann
00:31:38
Ich danke auch!