Wissen und Wirken: Wer hat die Datenmacht in der freien Gesellschaft?
Brauchen wir eine Neubewertung darüber, welche Daten wir von uns preisgeben?
KATHARINA NOCUN: In der Pandemie ist sehr deutlich geworden, was auch vorher schon ein Problem war: Wir nutzen viele Dienste, die nicht sorgsam mit unseren Daten umgehen, weil sie im jeweiligen Moment einen kurzfristigen Mehrwert versprechen, auf den wir angewiesen sind – oder weil schlichtweg die Alternative fehlt. Dieses Problem sollte man aber nicht auf den einzelnen Menschen abwälzen, der aufgrund einer Marktmachtsituation im Zweifelsfall keine Wahl hat. Sondern wir als Gesellschaft müssen gute Datenschutzregelungen finden. Bürgerinnen und Bürger müssen darauf vertrauen können, dass ein hoher europäischer Datenschutzstandard sicherstellt, dass Datensammlungen nicht ganz so übergriffig ausfallen. Was mir im Kontext der Pandemie aber mehr Sorgen macht, ist die Diskussion um die Corona-Warn-App.
„Die meisten haben kein Problem damit, personalisierte Werbung für Schuhe zu bekommen. Aber dass Daten für politische Beeinflussung genutzt werden, das hat die Debatte über soziale Netzwerke deutlich verändert.“
Katharina Nocun
Inwiefern?
Vor allem in Talkshows wurde ja immer wieder zur Debatte gestellt, ob man den Datenschutz nicht aufweichen müsse – dann würde die App auch besser funktionieren. Da schien mir die Vorstellung zu herrschen, Technik sei eine Art von Magie. Es war kaum Verständnis dafür zu erkennen, was sie zu leisten imstande ist und was überzogene Erwartungen sind. Tatsächlich wird eine App diese Pandemie leider nicht besiegen. Und wenn man Abstriche beim Datenschutz machen würde, wären viele Menschen noch skeptischer, der App überhaupt ihre Daten anzuvertrauen. Solche Forderungen haben dem Vertrauen in die App massiv geschadet. Mich als Datenschützerin hat das wütend gemacht.
Weil in solchen Debatten der Datenschutz gegen das vermeintlich größere Wohl ausgespielt wird?
Es gab in den vergangenen Jahren viele Beispiele dafür, welche toxischen Nebenwirkungen unkontrollierte Datensammlungen haben können. Ich erinnere da gern an den Cambridge-Analytica-Skandal*, der selbst Menschen, für die Datenschutz sonst nicht das wichtigste Thema war, die Augen geöffnet hat: Mit Datensammlungen können Anbieter die Anfälligkeit einer Person für Werbung identifizieren und ausnutzen. Die meisten haben kein Problem damit, personalisierte Werbung für Schuhe zu bekommen. Aber dass Daten für politische Beeinflussung genutzt werden, zudem noch im Kontext einer Kampagne, die gezielt mit Falschinformationen und hasserfüllten Inhalten arbeitete – das hat die Debatte über soziale Netzwerke und personalisierte Werbung nachhaltig verändert.
Wo droht der Wert unserer Grundrechte beim Thema Daten ins Hintertreffen zu geraten?
Beim Einsatz von künstlicher Intelligenz. KI hat das Potenzial, unser Leben in vielen Bereichen zu verbessern, und schneller Ergebnisse zu liefern, als es Menschen tun könnten. Das reicht von der Genom-Analyse bis zu selbstfahrenden Autos. Die entscheidende Frage ist: Wie stellen wir sicher, dass Algorithmen, denen wir Verantwortlichkeiten von großer Tragweite überlassen, auch gute Entscheidungen treffen? Gerade bei selbstlernenden Systemen ist es wichtig, sich die Datenbasis genau anzuschauen. Denn wenn ein System beispielsweise mit Daten gefüttert wird, die eine klare Benachteiligung von Frauen im Job zugrunde legen, dann werden diese Systeme die Diskriminierung lernen, aufnehmen und reproduzieren. Genau wie ein Kind. Es ist wichtig, dass wir über die Verantwortung von Unternehmen, aber auch staatlicher Stellen sprechen, die solche Systeme nutzen oder an ihrer Entwicklung beteiligt sind.
„Wir werden erst in zehn, zwanzig Jahren erkennen, welche Bedeutung dem Datenschutz in einer Informations-Ökonomie zukommt.“
Katharina Nocun
Wie könnten diesbezüglich Transparenz und gegebenenfalls Sicherungsmechanismen geschaffen werden?
Man könnte über Transparenzpflichten für Unternehmen nachdenken, sodass sie bis zu einem gewissen Grad offenlegen müssten, auf welchen Grundlagen diese Technologie fußt. Es existieren auch bereits Konzepte aus der Wissenschaft, wie man das Risiko von Diskriminierung auf Basis von Daten gering halten kann. Ich sehe jedoch das Problem, dass dieses Thema für nicht wichtig genug gehalten wird. Datenschützerinnen und Datenschützer stehen ja schnell im Verdacht, sie seien technikfeindlich. Aber damit hat das nichts zu tun. Ich finde es vielmehr naiv zu glauben, dass Gewinnzwänge oder werbegetriebene Businessmodelle von Unternehmen stets die beste technische Lösung hervorbringen.
Sehen Sie die Chance auf einen Bewusstseinswandel?
Ich glaube, wir werden erst in zehn, zwanzig Jahren erkennen, welche Bedeutung dem Datenschutz in einer Informations-Ökonomie zukommt. Diskriminierung aufgrund von Daten könnte in Zukunft Standard sein. Es wird erfasst, wer zu einkommensstarken, wer zu einkommensschwachen Gruppen gehört, wer wegen Erkrankungen online nach bestimmten Begriffen gesucht hat. Basierend auf solchen Daten können Nutzerinnen und Nutzer Nachteile erfahren. Deswegen ist es wichtig, dass wir schon jetzt dieses Schadenspotenzial erkennen und klare Grenzen ziehen, auch wenn dies mit der Gewinnmaximierungsabsicht einiger Unternehmen in Konflikt steht.
Wo sonst müssen wir aufpassen, wenn es um Bereiche wie Überwachung und Datenspeicherung geht?
Es ist ein Unterschied, ob der Staat Informationen über seine Bürgerinnen und Bürger sammelt oder ob ein Privatunternehmen das tut. Wenn es um Unternehmen geht, habe ich die Möglichkeit, mich für einen anderen Dienst zu entscheiden oder ganz zu verzichten. Beim Staat liegt die Sache anders, er hat ja auch das Gewaltmonopol. Von daher ist es besonders wichtig, ein Auge darauf zu werfen, auf welche Daten Behörden zugreifen dürfen. Was mir Sorge bereitet sind Fälle, in denen Sicherheitsbehörden Geräte hacken, wofür auch Informationen über technische Sicherheitslücken angekauft werden. Statt dafür zu sorgen, dass diese Lücken nicht länger ein Risiko darstellen, halten die Behörden sie geheim – und treiben nebenbei noch den Marktpreis dafür in die Höhe, sodass es noch unwahrscheinlicher wird, dass jemand sie den Anbietern meldet.
Beobachten wir eine Entwicklung weg vom Technikenthusiasmus hin zur kritischen Zurückhaltung?
Nein. Datenschutz und Technikenthusiasmus schließen sich nicht aus, es geht vielmehr um eine nachhaltige Form von Digitalisierung. Eine solche Wende bräuchte es auch beim Thema Open Source. Immer mehr Behörden und staatliche Stellen in ganz Europa setzen zunehmend auf freie Softwarelösungen, unter dem Motto „Public Money, Public Code“. Das ermöglicht auch Synergieeffekte zwischen Behörden. Wenn eine Software entwickelt wurde, beispielsweise die Tourismus-App einer Stadt, lässt sie sich dank der freien Lizenz auch in anderen Städten einsetzen. So können ganz neue Kooperationen entstehen, teilweise über Ländergrenzen hinweg. Damit sparen alle Seiten Geld, und man gewinnt eine größere Nutzerbasis, die auch hilft, Fehler zu finden und auszubügeln. Es gibt mittlerweile Guidelines für Behörden: Wie setze ich freie Software richtig ein? Das stimmt mich schon positiv.
*Cambrige Analytica
Cambridge Analytica (CA) war ein 2014 von der britischen SLC Group gegründetes Datenanalyse-Unternehmen, das im Mai 2018 Insolvenz anmeldete. Es hatte seinen Hauptsitz in New York City und sammelte und analysierte in großem Stil Daten über potenzielle Wähler mit dem Ziel, durch individuell zugeschnittene Botschaften das Wählerverhalten zu beeinflussen (Mikrotargeting).