M

Macht der Daten

In der Pandemie ist sehr deutlich geworden, was auch vorher schon ein Problem war: Wir nutzen viele Dienste, die nicht sorgsam mit unseren Daten umgehen, weil sie im jeweiligen Moment einen kurzfristigen Mehrwert versprechen. Wissen und Wirken: Wer hat die Datenmacht in der freien Gesellschaft?

  • Datenpolitik

Interview

  • Katharina Nocun
    Katharina Nocun

Wissen und Wirken: Wer hat die Datenmacht in der freien Gesellschaft?

Brauchen wir eine Neubewertung darüber, welche Daten wir von uns preisgeben?

KATHARINA NOCUN: In der Pandemie ist sehr deutlich geworden, was auch vorher schon ein Problem war: Wir nutzen viele Dienste, die nicht sorgsam mit unseren Daten umgehen, weil sie im jeweiligen Moment einen kurzfristigen Mehrwert versprechen, auf den wir angewiesen sind – oder weil schlichtweg die Alternative fehlt. Dieses Problem sollte man aber nicht auf den einzelnen Menschen abwälzen, der aufgrund einer Marktmachtsituation im Zweifelsfall keine Wahl hat. Sondern wir als Gesellschaft müssen gute Datenschutzregelungen finden. Bürgerinnen und Bürger müssen darauf vertrauen können, dass ein hoher europäischer Datenschutzstandard sicherstellt, dass Datensammlungen nicht ganz so übergriffig ausfallen. Was mir im Kontext der Pandemie aber mehr Sorgen macht, ist die Diskussion um die Corona-Warn-App.

„Die meisten haben kein Problem damit, personalisierte Werbung für Schuhe zu bekommen. Aber dass Daten für politische Beeinflussung genutzt werden, das hat die Debatte über soziale Netzwerke deutlich verändert.“

Katharina Nocun

Inwiefern?

Vor allem in Talkshows wurde ja immer wieder zur Debatte gestellt, ob man den Datenschutz nicht aufweichen müsse – dann würde die App auch besser funktionieren. Da schien mir die Vorstellung zu herrschen, Technik sei eine Art von Magie. Es war kaum Verständnis dafür zu erkennen, was sie zu leisten imstande ist und was überzogene Erwartungen sind. Tatsächlich wird eine App diese Pandemie leider nicht besiegen. Und wenn man Abstriche beim Datenschutz machen würde, wären viele Menschen noch skeptischer, der App überhaupt ihre Daten anzuvertrauen. Solche Forderungen haben dem Vertrauen in die App massiv geschadet. Mich als Datenschützerin hat das wütend gemacht.

Weil in solchen Debatten der Datenschutz gegen das vermeintlich größere Wohl ausgespielt wird? 

Es gab in den vergangenen Jahren viele Beispiele dafür, welche toxischen Nebenwirkungen unkontrollierte Datensammlungen haben können. Ich erinnere da gern an den Cambridge-Analytica-Skandal*, der selbst Menschen, für die Datenschutz sonst nicht das wichtigste Thema war, die Augen geöffnet hat: Mit Datensammlungen können Anbieter die Anfälligkeit einer Person für Werbung identifizieren und ausnutzen. Die meisten haben kein Problem damit, personalisierte Werbung für Schuhe zu bekommen. Aber dass Daten für politische Beeinflussung genutzt werden, zudem noch im Kontext einer Kampagne, die gezielt mit Falschinformationen und hasserfüllten Inhalten arbeitete – das hat die Debatte über soziale Netzwerke und personalisierte Werbung nachhaltig verändert.

Wo droht der Wert unserer Grundrechte beim Thema Daten ins Hintertreffen zu geraten?

Beim Einsatz von künstlicher Intelligenz. KI hat das Potenzial, unser Leben in vielen Bereichen zu verbessern, und schneller Ergebnisse zu liefern, als es Menschen tun könnten. Das reicht von der Genom-Analyse bis zu selbstfahrenden Autos. Die entscheidende Frage ist: Wie stellen wir sicher, dass Algorithmen, denen wir Verantwortlichkeiten von großer Tragweite überlassen, auch gute Entscheidungen treffen? Gerade bei selbstlernenden Systemen ist es wichtig, sich die Datenbasis genau anzuschauen. Denn wenn ein System beispielsweise mit Daten gefüttert wird, die eine klare Benachteiligung von Frauen im Job zugrunde legen, dann werden diese Systeme die Diskriminierung lernen, aufnehmen und reproduzieren. Genau wie ein Kind. Es ist wichtig, dass wir über die Verantwortung von Unternehmen, aber auch staatlicher Stellen sprechen, die solche Systeme nutzen oder an ihrer Entwicklung beteiligt sind.

„Wir werden erst in zehn, zwanzig Jahren erkennen, welche Bedeutung dem Datenschutz in einer Informations-Ökonomie zukommt.“

Katharina Nocun

Wie könnten diesbezüglich Transparenz und gegebenenfalls Sicherungsmechanismen geschaffen werden? 

Man könnte über Transparenzpflichten für Unternehmen nachdenken, sodass sie bis zu einem gewissen Grad offenlegen müssten, auf welchen Grundlagen diese Technologie fußt. Es existieren auch bereits Konzepte aus der Wissenschaft, wie man das Risiko von Diskriminierung auf Basis von Daten gering halten kann. Ich sehe jedoch das Problem, dass dieses Thema für nicht wichtig genug gehalten wird. Datenschützerinnen und Datenschützer stehen ja schnell im Verdacht, sie seien technikfeindlich. Aber damit hat das nichts zu tun. Ich finde es vielmehr naiv zu glauben, dass Gewinnzwänge oder werbegetriebene Businessmodelle von Unternehmen stets die beste technische Lösung hervorbringen.

Sehen Sie die Chance auf einen Bewusstseinswandel?

Ich glaube, wir werden erst in zehn, zwanzig Jahren erkennen, welche Bedeutung dem Datenschutz in einer Informations-Ökonomie zukommt. Diskriminierung aufgrund von Daten könnte in Zukunft Standard sein. Es wird erfasst, wer zu einkommensstarken, wer zu einkommensschwachen Gruppen gehört, wer wegen Erkrankungen online nach bestimmten Begriffen gesucht hat. Basierend auf solchen Daten können Nutzerinnen und Nutzer Nachteile erfahren. Deswegen ist es wichtig, dass wir schon jetzt dieses Schadenspotenzial erkennen und klare Grenzen ziehen, auch wenn dies mit der Gewinnmaximierungsabsicht einiger Unternehmen in Konflikt steht.

Wo sonst müssen wir aufpassen, wenn es um Bereiche wie Überwachung und Datenspeicherung geht?

Es ist ein Unterschied, ob der Staat Informationen über seine Bürgerinnen und Bürger sammelt oder ob ein Privatunternehmen das tut. Wenn es um Unternehmen geht, habe ich die Möglichkeit, mich für einen anderen Dienst zu entscheiden oder ganz zu verzichten. Beim Staat liegt die Sache anders, er hat ja auch das Gewaltmonopol. Von daher ist es besonders wichtig, ein Auge darauf zu werfen, auf welche Daten Behörden zugreifen dürfen. Was mir Sorge bereitet sind Fälle, in denen Sicherheitsbehörden Geräte hacken, wofür auch Informationen über technische Sicherheitslücken angekauft werden. Statt dafür zu sorgen, dass diese Lücken nicht länger ein Risiko darstellen, halten die Behörden sie geheim – und treiben nebenbei noch den Marktpreis dafür in die Höhe, sodass es noch unwahrscheinlicher wird, dass jemand sie den Anbietern meldet.

Beobachten wir eine Entwicklung weg vom Technikenthusiasmus hin zur kritischen Zurückhaltung?

Nein. Datenschutz und Technikenthusiasmus schließen sich nicht aus, es geht vielmehr um eine nachhaltige Form von Digitalisierung. Eine solche Wende bräuchte es auch beim Thema Open Source. Immer mehr Behörden und staatliche Stellen in ganz Europa setzen zunehmend auf freie Softwarelösungen, unter dem Motto „Public Money, Public Code“. Das ermöglicht auch Synergieeffekte zwischen Behörden. Wenn eine Software entwickelt wurde, beispielsweise die Tourismus-App einer Stadt, lässt sie sich dank der freien Lizenz auch in anderen Städten einsetzen. So können ganz neue Kooperationen entstehen, teilweise über Ländergrenzen hinweg. Damit sparen alle Seiten Geld, und man gewinnt eine größere Nutzerbasis, die auch hilft, Fehler zu finden und auszubügeln. Es gibt mittlerweile Guidelines für Behörden: Wie setze ich freie Software richtig ein? Das stimmt mich schon positiv.

*Cambrige Analytica

Cambridge Analytica (CA) war ein 2014 von der britischen SLC Group gegründetes Datenanalyse-Unternehmen, das im Mai 2018 Insolvenz anmeldete. Es hatte seinen Hauptsitz in New York City und sammelte und analysierte in großem Stil Daten über potenzielle Wähler mit dem Ziel, durch individuell zugeschnittene Botschaften das Wählerverhalten zu beeinflussen (Mikrotargeting).

[Quelle: Wikipedia]

Weitere Infos

Katharina Nocun

Katharina Nocun

Katharina Nocun ist eine Publizistin, Politik- und Wirtschaftswissenschaftlerin, ehemalige Netzaktivistin, Bloggerin und Politikerin. Sie war von Mai bis November 2013 politische Geschäftsführerin der Piratenpartei Deutschland und leitete bei Campact unter anderem die Kampagne „Schutz für Edward Snowden in Deutschland“.

Verstehen, wie die Welt zusammenhängt

  • Jens Ohlig

Ein Interview mit Jens Ohlig

Wo geht der datenpolitische Diskurs gegenwärtig in die richtige Richtung?

Beim Thema Dateneigentum sind wir auf dem richtigen Weg. Das sah schon mal anders aus, zum Beispiel wurde debattiert, wem eigentlich die Daten gehören, die während einer Autofahrt anfallen – über den Zustand der Straße, Stauaufkommen und Ähnliches. Autos sind heute ja rollende Computer. Gehören diese Daten den herstellenden Firmen – oder den Autofahrerinnen und Autofahrern? Und das ist die falsche Frage. Ich kann ja auch nicht den Anspruch auf eine Temperaturmessung erheben, bloß weil ich sie mit meinem Thermometer durchgeführt habe. In der jüngsten Datenstrategie der Bundesrepublik gehen die Überlegungen nun eher von dieser Richtung weg. Dafür entstehen neue Ideen wie Datentreuhänder, die man im Auge behalten sollte.

Wo sehen Sie problematische Entwicklungen?

Ein Beispiel: Es gibt in der EU, anders als in allen anderen Jurisdiktionen der Welt, ein Sui-generis-Recht für Datenbanken. Diese Richtlinie wurde 1996 eingeführt, in der Erwartung, dass so etwas wie eine europäische Datenbankindustrie entstehen würde. Konkret bedeutet das: Wenn ich gemeinfreie Daten in einer Datenbank zusammenfüge, dann erwerbe ich durch diesen kuratorischen Akt eine Art Urheberrecht auf die Zusammenstellung. Dabei bleibt der Begriff „Datenbank“ schwammig. Wo immer ich einen Datenhaufen ansammele – so steht es wirklich im Gesetz, „Datenhaufen“ –, ob im Computer oder auf Papier gedruckt, kann das als Datenbank verstanden werden. Diese Direktive hängt wie ein Damoklesschwert über unserer freien Datensammlung. 

Wo sehen Sie die größten Potenziale in der „Verdatung“ unseres Lebens?

Letztendlich verstehen wir besser, wie die Welt zusammenhängt. Seit der Aufklärung gibt es Bestrebungen, Bibliotheken aufzubauen. Im 19. Jahrhundert ist die Informationswissenschaft dazugekommen, mit dem Wunsch, Wissen zu kategorisieren und zu verknüpfen. Heute tragen wir alle kleine Computer und Datensammelgeräte mit uns herum. Es braucht eine Aushandlung – rechtlich und gesellschaftlich – wie die Datenmengen, die dabei anfallen, eben nicht nur in den Silos der Großkonzerne landen, sondern der Allgemeinheit zugutekommen können. Da stehen wir noch ganz am Anfang. 

Welche Rolle spielt Open Data in Ihrer Vision vom Netz der Zukunft?

Schon demokratietheoretisch halte ich offene Regierungsdaten für eine Selbstverständlichkeit. Wir haben Datenschutz für Bürgerinnen und Bürger, aber keine maschinenlesbare Regierung. Ein tolles Community-Projekt wie „kleineAnfragen“ – das die Anfragen an Parlamente gesammelt und zu jedem Thema durchsuchbar gemacht hat – musste wieder aufgeben, weil die Dokumente nicht so zur Verfügung gestellt wurden, dass sie maschinell zu verarbeiten waren. Dabei sollte all das, was letztlich mit unseren Steuergeldern bezahlt wird, im Netz für Wissensgenerierung zur Verfügung stehen.

Und welche Rolle spielt die Software Wikidata?

Wikidata ist ein größenwahnsinniges Projekt, bei dem es letztendlich darum geht, die Summe des menschlichen Wissens zu katalogisieren, in strukturierten Daten abzubilden. Das wird sicherlich nicht in den kommenden drei Jahren vollendet, vielleicht sogar niemals – aber es kann eine Grundlage schaffen. Tim Berners-Lee, der Begründer des World Wide Web, hat das Projekt gelobt, der Traum vom Semantischen Web* sei dadurch greifbarer geworden. Wir können ein besseres Leben durch Technologie und freie Daten erreichen, wenn wir nur wollen. Wenn wir nicht Plattformen, die nur auf Profitmaximierung aus sind, mehr Rechte einräumen als dem Gemeinwohl.

*Semantic Web:

Das Semantic Web erweitert das Web, um Daten zwischen Rechnern einfacher austauschbar und für sie einfacher verwertbar zu machen; so kann beispielsweise das Wort „Bremen“ in einem Webdokument um die Information ergänzt werden, ob hier der Begriff des Schiffs-, Familien- oder Stadtnamens gemeint ist.

[Quelle: Wikipedia]

Weitere Infos:

Jens Ohlig

Jens Ohlig ist Projektmanager bei Algorithmwatch und betreut das Projekt SustAIn - Sustainability Index for AI. Zuvor war Jens Ohlig acht Jahre lang bei Wikimedia Deutschland beschäftigt, wo er sich auf Community-Kommunikation, Datenpartnerschaften und Datenspenden für Wikidata konzentrierte. Im Jahr 2012 war er Teil des initialen Teams, das Wikibase entwickelte, die Software, auf der Wikidata aufbaut. Vor seiner Tätigkeit als Softwareentwickler studierte er Übersetzung und Sprachen. Er war im Vorstand des Chaos Computer Clubs und unterstützt diverse Hackspaces.