Der Wald und die Einzelbaumregelung
Welche Strategien eine gemeinwohlorientierte und diskriminierungsfreie Datenpolitik braucht
Ein Statement von Lorena Jaume-Palasi
Gemeinwohl ist ein schwammiger Begriff, genauso wie Gerechtigkeit. Es fällt schwer, ihn zu definieren, obwohl alle zu wissen glauben, was damit gemeint ist. Die Auslegung ist divers, aber das ist zugleich Teil des Konzepts Gemeinwohl: Man kann anhand dieses Begriffs verschiedene Auffassungen verhandeln. Dadurch wächst und verändert sich das Verständnis.
Die große Herausforderung ist, dass wir in den zentraleuropäischen Kulturen individualistisch ausgerichtet sind. Gemeinwohl ist aber keine individuelle Frage, sondern eine soziale. Man kann soziale Fragen nur schwer mit methodologischem Individualismus beantworten. Es ist ein sehr mechanistischer Ansatz, zu glauben: wenn man jedes einzelne Teil normiert, hat man dadurch auch das große Ganze geregelt. Ich ziehe gerne den Vergleich: den Wald durch Einzelbaum-Regelung normieren. Das funktioniert einfach nicht. Vielleicht tut man einem Stück des Waldes damit etwas Gutes. Aber der Wald ist mehr als die Summe aller Bäume. Dasselbe gilt für die Gesellschaft. Auch eine Gesellschaft ist mehr als die Summe aller Individuen und ihrer Einzelinteressen. Woraus folgt, dass wir einen anderen Blick auf das Gemeinwohl brauchen. Einen sozialen Blick.
Gesellschaft benötigt ein Gleichgewicht zwischen individuellen und kollektiven Interessen. Das lässt sich auch auf die Bereiche Daten und Technologien anwenden. Auch hier sind wir – historisch bedingt – auf das Individuelle fokussiert. Wir verstehen Daten als Eigentum, als unsere privaten Daten. Aber so leicht ist es nicht. Daten sind – wie Sprache – das Ergebnis der sozialen Natur der Menschen. Daten entstehen innerhalb der kommunikativen Dimension einer Gesellschaft, die Artefakte konstruiert, mit diesen Artefakten Interaktion betreibt und Wirklichkeiten konstruiert. Diese Daten haben eine individuelle, aber auch eine soziale Dimension – weil sie in einer bestimmten Sprache verfasst sind, weil sie Sachverhalte abbilden sollen, in denen bestimmte gesellschaftliche Annahmen stecken, die wiederum gewissen Perspektiven Sichtbarkeit verleihen und andere verschleiern. Deswegen sind Daten über mich nicht automatisch Daten von mir.
„Wir müssen uns von der Illusion verabschieden, das Digitale könne als eine rein individuelle Angelegenheit verstanden werden.“
Lorena Jaume-Palasí

Ein klassisches Beispiel: das Geburtsdatum. Natürlich ist es mein Geburtsdatum. Aber genau so ist es auch das Datum der Mutterschaft meiner Mutter und der Vaterschaft meines Vaters. So leicht kann ich dieses Datum nicht monopolisieren, denn es steht in einem relationalen Zusammenhang, über den ich nicht die absolute Deutungshoheit habe. Meine Mutter und mein Vater werden es benötigen, um ihr Rentenformular auszufüllen – sollen sie mich dann um Genehmigung bitten müssen?
In der Praxisdimension sieht man allerorten, wie unsere Modelle einen Radikal-Individualismus fördern. Personalisierte Dienstleistung – das wird missverstanden als etwas komplett auf mich Angepasstes. Technisch stimmt das nicht. Technisch bedeutet das, dass ich in kleinere Schubladen, granularere Profile gesteckt werde. Aber das sind statistische Kategorien, in die auch sehr viele andere Menschen sortiert werden. Wir müssen uns von der Illusion verabschieden, das Digitale könne als eine rein individuelle Angelegenheit betrachtet werden.
Ein Beispiel dafür, wie es anders geht, ist die Plattform „Decidim“ in Spanien. Sie wurde von der Bürgermeisterin von Barcelona, Ada Colau, implementiert – als Reaktion auf ein Smart-City-Modell der Vorgängerregierung, das viele Menschen als Überwachungsinstrument empfanden. „Decidim“ hat den Bürgerinnen und Bürgern stattdessen ein Datencockpit angeboten, in dem sie selbst entscheiden konnten, für welche Zwecke in der Stadt sie ihre Daten freigeben – und für wie lange.
Die Plattform hat sich mehr und mehr zu einem Tool entwickelt, mit dem die Menschen konstruktiv Politik gestalten konnten. Sie hatten die Möglichkeit, darauf hinzuweisen, wo es bei ihnen brennt: von Verkehrslärm bis zu Luftverschmutzung. Durch diese Praxis haben sie verstanden, dass ihren persönlichen Daten eine Gemeinwohldimension innewohnt und was Datenteilung für eine Community bewirken kann.
„Wir verstehen nicht, dass Rassismus zwar individuell exerziert und erfahren wird, aber eine institutionelle Dimension hat.“
Lorena Jaume-Palasí
Ich werde in diesem Zusammenhang oft gefragt, wie Technologien und Algorithmen diskriminierungsfrei gestaltet werden können. Meine Antwort lautet: Gar nicht! Algorithmen werden immer diskriminieren. Denn genau das ist ihre Aufgabe. Diskriminierungsfreiheit im Sinne von gerechtigkeitsfördernden Maßnahmen – das ist nichts, was sich codieren lässt. Man kann Prozesse entwickeln, in die Kompensationsmechanismen eingebaut sind, in die algorithmische Systeme so einbettet werden, dass sie helfen, eine gerechtere, inklusivere Gesellschaft zu bauen. Letztendlich muss die Frage doch lauten: Wie können wir erreichen, dass Gesellschaften nicht diskriminieren? Gesellschaften werden immer diskriminieren. Es kommt auf den Punkt an, inwieweit sie Mechanismen entwickelt haben, um Diskriminierung zu adressieren, diese Fehler zu reflektieren und sie dann auch zu korrigieren.
Eine Gesellschaft muss verstehen, was strukturelle Diskriminierung ist. Und daran hapert es aufgrund unserer methodologisch-individualistischen Herangehensweise. Wir verstehen nicht, dass Rassismus zwar individuell exerziert und erfahren wird, aber eine strukturelle und institutionelle Dimension hat. Unsere reflexhafte Reaktion ist: Streichen wir das Wort „Rasse“ aus dem Grundgesetz. Oder Kategorien, die Transmenschen ausgrenzen. Aber die Kategorien, durch die wir in Gesellschaften diskriminieren, werden sich im Laufe der Zeit verändern, weil sie sozioökonomische Asymmetrien widerspiegeln. Das heißt, wir werden niemals alle illegitimen Kategorien von Unterdrückung in der Verfassung abbilden können. Wir erleben auch Diskriminierung aufgrund von Tätowierungen, wegen der Kleider, die jemand trägt, oder wegen der Form des Körpers. Und in der Regel ist Diskriminierung intersektional: Sprich, aufgrund verschiedener Zuordnungen (z. B. weiblich, trägt Nasenpiercing, schwarz). All das kann darüber entscheiden, ob jemand einen Job bekommt oder nicht. Aus ethischer Perspektive sage ich: Das ist ungerecht. Aber rechtlich sind manche der oben erwähnten Kategorien nicht abgebildet, und Intersektionalität als diskriminierende Zusammenführung von verschiedenen Kategorien zu definieren, wird dem nicht gerecht. Wir wissen, dass verschiedene Zuschreibungen und sozio-ökonomische Faktoren bei Diskriminierung zusammenkommen, aber sie lassen sich schwer auseinanderdividieren und gewichten, weil Diskriminierung nicht als relationaler Prozess verstanden wird.
Wir werden nur dann inklusiver, wenn wir einen sozialen Blick auf das Konzept der Ausgrenzung werfen und den Fokus auf solche Prozesse legen, die gesellschaftliche Asymmetrien stetig identifizieren, adressieren und kompensieren.
Weitere Infos:
- The Ethical Tech Society
- Podcast: Lorena Jaume-Palasí bei der böll-Stiftung zu „Algorithmen und Diskriminierung“