U

Ungeregelt

Für datenpolitische Fragen brauchen wir einen regulativen Rahmen. Die Kenntnis der Macht, die in Daten steckt, kann nur der erste Schritt sein. Oft wächst Vertrauen in neue Technologien erst, wenn den Nutzenden ein Mindestmaß an Datenschutz zugesichert wird. Doch wie kann das notwendige Vertrauen in das Grundrecht des Datenschutzes in Zeiten der Pandemie geschützt werden?

  • Datenpolitik
  • Gemeinwohl

Interview

Wer sichert das Gemeinwohl in der Datenpolitik?

  • Bijan Moini

Ein Interview mit Bijan Moini

Brauchen wir mehr Datenbewusstsein, um über Datenpolitik sprechen zu können?

BIJAN MOINI: Die wenigsten Menschen begreifen, welchen Wert Daten besitzen. Und das meine ich nicht nur im ökonomischen Sinne, sondern auch im ideellen: Private Fotos, Informationen über Vorlieben aller Art – solche personenbezogenen Daten sind nicht mit einem Eurobetrag zu versehen, aber für den Einzelnen im Zweifelsfall extrem wertvoll. Dazu kommt eine zweite ideelle Ebene, nämlich die gesamtgesellschaftliche: Wie werden Daten zu Überwachungszwecken eingesetzt, wie versuchen Konzerne, mit Daten politische Diskurse in eine bestimmte Richtung zu lenken? Für diese Fragen brauchen wir einen regulativen Rahmen. Die Kenntnis der Macht, die in Daten steckt, kann nur der erste Schritt sein. 

Immerhin gab es in Deutschland ein Jahr lang eine Datenethik-Kommission. Was hat sie bewirkt?

Die Kommission hat viele Facetten auf den Plan gebracht, die in der komplexen Gemengelage oft unberücksichtigt bleiben. Unter anderem hat sie den Blick darauf gelenkt, dass auch der Staat über Daten verfügt, die für die Zivilgesellschaft wertvoll sind und für Gemeinwohlzwecke eingesetzt werden könnten. Bei der „Gesellschaft für Freiheitsrechte“ unterstützen wir zum Beispiel einen Kläger, der vom Deutschen Wetterdienst den Algorithmus bekommen möchte, mit dem Bienenflüge vorhergesagt werden. Der Mann – ein Informatiker, der eine Bienenallergie hat – will den Quellcode für eigene Zwecke nutzen und ihn auch öffentlich machen. Die Behörde weigert sich aber, den Algorithmus herauszugeben. Für uns völlig unverständlich.

Welche Daten des Staates sollten noch offen liegen?

Generell haben wir in Deutschland eine Kultur der Geheimhaltung. In angelsächsischen Ländern ist es schon länger Tradition, dass der Staat die Daten offenlegen muss, über die er verfügt – bisweilen auch unter Missachtung persönlicher Datenschutzinteressen. Bei uns ist erst in den 2000er Jahren das Informationsfreiheitsgesetz eingeführt worden, das aber nicht den Charakter eines Grundrechts hat. Organisationen wie „Frag den Staat“ oder Journalistinnen und Journalisten müssen Hunderte von Verfahren anstrengen, um auf Archivmaterial oder aktuelle Informationen zugreifen zu können. Daran zeigt sich schon, dass der Staat noch immer der Überzeugung ist, er arbeite am besten hinter verschlossenen Türen. Es existieren ja auch keine Schnittstellen oder Datenbanken, wo man einsehen könnte, was überhaupt verfügbar wäre – ob Verkehrsdaten, Umweltdaten oder Unternehmensdaten.

Wie steht es umgekehrt um unsere eigenen Daten? Sehen Sie Defizite bei der Datenschutzgrundverordnung?

Die Datenschutzgrundverordnung (DSGVO) regelt ja vor allem die Verarbeitung von Daten durch Private. Daneben gibt es die klassischen Datenschutzgrundrechte, die uns zum Beispiel vor Überwachung durch den Staat schützen sollen. In beiden Fällen gibt es Probleme. Die DSGVO enthält auch schwammige Begriffe, sie lässt Interessenabwägung zu. Wenn ein Unternehmen auf Daten zugreifen will, um ein Produkt zu verbessern, kann es dieses den Schutzinteressen der Nutzerinnen und Nutzer entgegen halten. Da kommt es sehr auf die Auslegung an. Ich stoße immer wieder auf Fälle, die mit der DSGVO nicht in Einklang zu bringen sind. 

Zum Beispiel?

In Polen hat ein kleines Unternehmen den Service angeboten, dort Fotos hochzuladen – woraufhin dann das gesamte Internet nach Bildern dieser Person durchsucht und ein bestimmtes Profil von ihr erstellt wurde. Der Horrorfall solcher Anwendungen würde eintreten, wenn in einigen Jahren Datenbrillen verbreitet wären, mit denen sich beliebige Menschen auf der Straße scannen lassen – wer sie sind, woher sie stammen, mit wem sie sich treffen. Die entsprechende Gesichtserkennungssoftware existiert längst. Nur aus ethischen Gründen nutzen Google und Facebook sie vorerst nicht.

Globale Konzerne einzuschränken ist zumindest mit der DSGVO nicht möglich…

In den USA hat eine Gruppe von 46 Bundesstaaten Klage gegen Facebook angestrengt, mit dem Ziel, WhatsApp und Instagram wieder aus dem Konzern herauszulösen und die Praxis des Konkurrenten-Aufkaufs zu unterbinden. Niemand wird behaupten, dass das mit unserer DSGVO zusammenhinge. Aber die Tatsache, dass es in Europa eine so umfangreiche Debatte über die Macht von Datenkonzernen gab, ist durchaus in den USA wahrgenommen worden und hat zumindest auf Ebene der Bundesstaaten zu neuen Gesetzen geführt. Wir können in Deutschland nicht Facebook regulieren. Aber wir haben Einfluss auf die EU, und die EU wiederum besitzt Einfluss in der Welt. Der Umgang mit Daten ist ein globales Thema, genau so wie der Umweltschutz.

Sollte Europa mehr digitale Souveränität anstreben? 

Wünschenswert wäre es. Die Frage ist nur: wie erreichen wir sie? Viele fragen sich, weshalb es kein europäisches Facebook gibt, kein europäisches Google? Wir hatten ja StudiVZ. Aber es existieren eben doch strukturelle Unterschiede zwischen den USA und Europa, die verhindert haben, dass solche Varianten sich bei uns durchsetzen. Wir haben eine Vielzahl verschiedener Sprachen, auch eine andere Haltung zu Risikokapital. Das ist nicht nur ein Problem unserer Datenschutzregulierung.

Was bräuchte es, um eine Datenstrategie nachhaltig zu gestalten?

Jedenfalls mehr als eine Datenethikkommission, die sich nach einem Jahr wieder auflösen muss. 

Nachhaltigkeit bedeutet zunächst mal, offen für Veränderungen zu sein. Es ist in der heutigen Zeit in keinem Politikfeld eine gute Idee, irgendetwas für die nächsten 20 Jahre festschreiben zu wollen. Ohnehin hinken wir ja den vielen Möglichkeiten, die Konzerne ausschöpfen, unentwegt hinterher. Wenn man fünf Jahre after the fact ein Dokument aufsetzt, das dann drei Jahre später Gesetz wird, ist man fast eine digitale Generation zu spät dran. Wir brauchen Mechanismen und Strukturen, die darauf ausgelegt sind, sich ständig zu ändern – und Institutionen, die sich das leisten können.

Weitere Infos:

Bijan Moini

Bijan Moini ist Rechtsanwalt und seit 2018 Syndikus der Gesellschaft für Freiheitsrechte. 2013 wurde Moini zum Dr. iur. promoviert, er arbeitete als Rechtsanwalt in einer Berliner Wirtschaftskanzlei; u.a. baute er dort eine asylrechtliche Pro-bono-Praxis mit auf. Er beschäftigt sich mit gesellschaftspolitischen Themen wie Überwachung und Datenschutz, seine Texte erschienen u. a. auf Spiegel Online und in der FAZ.

Interview

  • Theresa Züger
    Theresa Züger

Das Co-Design des Gemeinwohls

Wie kann Künstliche Intelligenz (KI) dem Gemeinwohl dienen? Welche technischen und gesellschaftlichen Kriterien müssen dafür erfüllt sein?

Gemeinwohl ist ja ein Begriff, der in der politischen Theorie bereits seit den Anfängen der griechischen Demokratie existiert und der vor allem im Rechtlichen mittlerweile sehr gut verankert ist. Das Gemeinwohl wurde schon oft vor dem Bundesverfassungsgericht als Kriterium angeführt. Wichtig ist aber, dass Gemeinwohl nichts Universelles ist, sondern etwas, das von Fall zu Fall neu definiert werden muss. Und zwar von Menschen in ihrer Rolle als Bürgerinnen und Bürger, nicht aufgrund eigener Interessen. Für mich – wie auch für andere politische Theoretikerinnen und Theoretiker – ist in Bezug auf KI vor allem das Konzept von Co-Design von zentraler Bedeutung. Dazu gehört zum Beispiel, Betroffene oder Nutzerinnen und Nutzer mit einzubeziehen, generell auch eine Offenheit für Deliberation zu haben und sich von der Öffentlichkeit während des Entwicklungsprozesses überprüfen zu lassen.

In dem KI-Hype, in dem wir uns gegenwärtig befinden, wird über Alternativen oft gar nicht mehr diskutiert – weil KI als Lösung schon feststeht

Theresa Züger

Für welches Anwendungsgebiet für KI gilt das zum Beispiel?

In unserer Forschung geht es etwa darum, ein Tool zu entwickeln, das Übersetzungen in leichte Sprache leistet. Im Englischen existiert so etwas bereits, im Deutschen nicht. Wir werden uns also frühzeitig vernetzen mit Menschen, die auf leichte Sprache angewiesen sind, die entweder nicht deutsche Muttersprachlerinnen und Muttersprachler sind, oder nicht über dieselbe Lesekompetenz verfügen wie die Mehrheitsgesellschaft. Uns ist der Austausch darüber wichtig, was diese Menschen von so einem Tool erwarten, was ihnen wirklich helfen würde. Man muss also Extraschleifen in diesen Prozess einbauen, die ihn auch verlangsamen können, die vielleicht dazu führen, dass man ihn komplett hinterfragt und zugunsten eines anderes Entwicklungsweges verwirft. In dem KI-Hype, in dem wir uns gegenwärtig befinden, wird über Alternativen oft gar nicht mehr diskutiert – weil KI als Lösung schon feststeht. Auch das ist problematisch.

Welche ethischen Gesichtspunkte sind in der Debatte um KI für Sie relevant?

Die Debatten, die wir um AI ethics führen, gehen in meinen Augen nicht weit genug. Zum Beispiel wird eine Offenheit der Infrastrukturen oft nicht mitgeacht, also Open Science und auch Open Source. Das zweite wichtige Punkt ist: Accessability. Das heißt, dass Technologien für alle Menschen zugänglich sein müssen – und dass sie befähigt sind, damit umzugehen. Eine solche Barrierefreiheit von Technologie für alle Gruppen der Gesellschaft herzustellen, ist natürlich eine komplexe Aufgabe. Aber KI darf keine Technologie für die Elite der Elite sein. Und ein dritter Aspekt ist Nachhaltigkeit. Der kommt zwar im Konzept der AI ethics vor, wird aber noch nicht ernst genug genommen. Der Imperativ der Technologie wirkt so stark, dass die Frage in den Hintergrund rückt, ob es vielleicht ressourcenschonendere Wege ans Ziel gäbe. Natürlich gibt es KI, die dazu eingesetzt wird, um Effizienz zu steigern, Ressourcen zu schonen – aber erstmal braucht KI selbst eine Menge an Ressourcen.

Zuckerkristall

Lizenzhinweis

Zuckerkristall
Smouss, CC BY 4.0 , via Wikimedia Commons

Kann Politik wirksame Rahmenbedingungen dafür setzen, dass Technologien zuvorderst dem Gemeinwohl dienen?

Die Frage lässt sich ja aus verschiedenen Blickwinkeln betrachten. Eine auf Profitmaximierung ausgerichtete Privatwirtschaft etwa hat ja gar nicht das Ziel, KI zu Gemeinwohlzwecken einzusetzen. Da hat Politik vor allem die Aufgabe, den massivsten Schaden am Gemeinwohl zu verhindern, etablierte Rechte wie Menschenrechte, aber auch Zivilrechte zu schützen. Politik kann Standards beeinflussen, aber im Notfall auch Technologien verbannen oder die Nutzung bestimmter Technologien einschränken. In Bezug zum Beispiel auf die Stammzellforschung ist das auf nationaler Ebene innerhalb der EU schon geschehen. Und Organisationen wie Access now oder Algorithmwatch fordern ja, den Einsatz von KI im Bereich bestimmter Gesichtserkennungs-Software zu reglementieren.

Wenn Gemeinwohl durch demokratische Prozesse von Bürgerinnen und Bürger mit definiert werden muss – dann müssen sie über diese Technologien Bescheid wissen“

Theresa Züger

Durch welche Akteurinnen, Akteure und Prozesse können auch in Zukunft Gemeinwohlstandards für die Datenpolitik gestaltet und durchgesetzt werden?

Die wichtigsten Akteure sind in meinen Augen der Staat, auch die EU. Weil sie die größte Macht haben, Veränderungen in Gang zu setzen. Ein Weg könnte sein, wesentliche stärkere nichtkommerzielle Infrastrukturen aufzubauen. Die EU hat dazu durchaus schon Ideen. Aber an vielen Stellen wird noch zu halbherzig agiert. Sowohl NGOs, als auch andere gemeinnützige Institutionen und Forschungseinrichtungen müssen wirklich einbezogen werden in diese Prozesse. Wesentlich ist aber auch, dass der Staat und staatliche Organisationen stärker eine Vorbildfunktion einnehmen, indem sie alle Daten, über die sie selbst verfügen, zugänglich machen. Für Forschung, Innovation, civic tech. Öffentliches Wissen entstehen zu lassen, ist ein wesentlicher erster Schritt, um dem Gemeinwohl zu dienen.

Weitere Infos:

Theresa Züger

Theresa Züger

Theresa Züger ist Leiterin der vom Bundesministerium für Bildung und Forschung geförderten Nachwuchsforscher*innengruppe Public Interest AI sowie Co-Leiterin des AI & Society Labs. Ihre Forschung beschäftigt sich mit politischen Dimensionen digitaler Technologien mit Fokus auf demokratietheoretische Fragestellungen. Ihre Promotion „Reload Disobedience“ untersucht digitale Formen zivilen Ungehorsams.

Von Datenschutz und Gemeinwohl

  • Ulrich Kelber

Ein Statement von Ulrich Kelber

Das Schutzziel des Datenschutzes ist zunächst ein individuelles. Wie kann er dennoch Gemeinwohlwirkung entfalten?

Ein gutes Bespiel für die Gemeinwohlwirkung stellen in meinen Augen die Bereiche Gesundheit und Forschung dar. Gesundheitsdaten sind besonders sensible Daten und deshalb auch besonders geschützt – sei es auf der Ebene der Länder, des Bundes oder auch in der Europäischen Datenschutz-Grundverordnung. Niemand soll Nachteile oder Diskriminierung erleiden müssen, weil sensible Angaben zum eigenen Gesundheitszustand, in falsche Hände fallen.

Auf der anderen Seite ist gerade im Gesundheitsbereich die Bedeutung der Forschung riesig. Das wissen auch die Patientinnen und Patienten, so dass viele dazu bereit sind, die nötige Einwilligung zu erteilen, dass mit ihren Daten – in anonymisierter oder pseudonymisierter Form – geforscht werden kann. Sei es zur Verbesserung von Behandlungsmethoden, zu Medikamenten oder anderen Therapien. Die Datenschutz-Grundverordnung privilegiert den Zweck „Forschung“ mit erleichterten Voraussetzungen, denn auch die Wissenschaftsfreiheit ist ein verfassungsmäßig verbrieftes Recht – ebenso wie das Recht auf informationelle Selbstbestimmung.

Für den Bereich der Krebsforschung gibt es beispielsweise bereits epidemiologische und klinische Krebsregister in den jeweiligen Bundesländern, deren Daten für die Forschung genutzt werden können. In einem aktuellen Gesetzgebungsvorhaben soll ein überwiegender Teil dieser Daten auch bundesweit in einer zentralen Stelle zusammengeführt werden.

Gegenwärtig wird der gesellschaftliche Status des Datenschutzes verstärkt mit Blick auf technische Lösungen im Kontext von Corona diskutiert.

Gerade wenn viele Menschen seit Ausbruch der Pandemie damit konfrontiert sind, von zu Hause aus zu arbeiten, zu Hause zu lernen oder Sport zu machen – alles im Rahmen von Videokonferenzen – zeigen sich der Bedarf und die Bedeutung des Schutzes der Privatsphäre in einer ganz neuen Dimension. Oft wächst ein Grundvertrauen in die Nutzung neuer Technologien erst dann, wenn den Nutzenden ein Mindestmaß an Datenschutz zugesichert werden kann.

Die noch junge Datenschutzgrundverordnung hat den Datenschutz endgültig zu einem vollwertigen Schutzkonzept gemacht. Nicht nur Europa bekennt sich dazu, es findet weltweit Beachtung – gerade im Umgang mit der Pandemie.

Für die oft in Debatten geäußerte Behauptung, der Datenschutz stünde der Pandemiebekämpfung im Wege, gibt es keinerlei Belege. Ich finde solche Aussagen sehr schade. Zum einen zerstört man damit das notwendige Vertrauen der Bürgerinnen und Bürger in ihr eigenes Grundrecht. Zum anderen wird dadurch häufig nur von den eigentlichen Defiziten in der Pandemiebekämpfung abgelenkt. Es gibt hier keine einzige konkrete Initiative der Bundesregierung, die am Datenschutz grundsätzlich gescheitert ist.

Wir haben manchmal gesagt: das muss man anders machen. Zum Beispiel, als man ganz am Anfang der Pandemie Mobilfunkzellendaten verwenden wollte, um herauszufinden, wer wem begegnet ist. Da haben wir unser Veto eingelegt, wenn man das so nennen will. Vor allem, weil die Funkzellenauswertung für diesen Zweck überhaupt nicht geeignet ist, weil die Genauigkeit oft auf einige hundert Meter begrenzt ist.

Die Akzeptanz von Maßnahmen wächst, wenn sie vertrauenswürdig in Bezug auf den Datenschutz sind. Die Bürgerinnen und Bürger wollen ihren Beitrag leisten, aber nicht durch den Staat überwacht werden.

Ulrich Kelber

Ulrich Kelber ist seit 2019 der Bundesbeauftragte  für den Datenschutz und die Informationsfreiheit. Zuvor war Kelber von Dezember 2013 bis März 2018 Parlamentarischer Staatssekretär im Bundesministerium der Justiz und für Verbraucherschutz und von 2000-2019 Mitglied des Deutschen Bundestags.