T

Technophilie

Kein Zweifel: „Das Netz” hat das Potenzial, etablierte gesellschaftliche Strukturen wie überkommene oder dysfunktionale Regierungsformen aus den Angeln zu heben. Doch wie gehen wir mit der Tendenz um, dass Politik Technik zunehmend als Allheilmittel für gesellschaftliche Probleme adressiert?

  • Datenpolitik
  • Gemeinwohl

Gemeinsam besser hämmern: Welche politischen Rahmen Algorithmen und KI brauchen. Ein Essay.

  • Julia Krüger

“We reject: kings, presidents and voting. We believe in: rough consensus and running code.”

Leitspruch der Internetentwicklung aus dem Kontext der internationalen Abstimmung über gemeinschaftliche Standards der Datenkommunikation im Rahmen der Internet Engeneering Task Force (IETF) von David D. Clark (1992)

Kein Zweifel: „Das Netz” hat das Potenzial, etablierte gesellschaftliche Strukturen wie überkommene, ineffiziente oder dysfunktionale Regierungsformen aus den Angeln zu heben – also durch technologische Entwicklung gesellschaftlichen Fortschritt zu erwirken. Allerdings ist spätestens seit dem Abwurf der ersten Atombombe über Hiroshima 1945 auch klar, dass jede technologische Errungenschaft zum Guten wie zum Schlechten genutzt werden kann. Die Debatte über Dual-Use-Technologien zeigt das ebenso wie die Überwachung und Manipulation von Menschen mittels moderner Datenanalyse-Technologie vonseiten des Staates oder der Wirtschaft.

In der Praxis führt bislang das mangelhafte Verständnis für Grundlagen und Funktionsweise von KI zu urheber- und wirtschaftsrechtlichen Einschränkungen

Doch das Netz und andere digitale Innovationen stellen den verantwortungsvollen Umgang der Gesellschaft mit Technologie vor zwei besondere Herausforderungen. Siehe „Maslows Hammer”: “Wenn dein einziges Werkzeug ein Hammer ist, sieht jedes Problem wie ein Nagel aus.” (nach Abraham Maslow 1966). Die Analogie, nach der die gewohnte Art der Lösung den Blick auf jedes neue Problem prägt, wird in der Technik- und Internetforschung gern zitiert – beispielsweise, um die Pfadabhängigkeit technischer oder politischer Entwicklungen zu beschreiben. Vermutlich können aber weit weniger Menschen mit den Hämmern “Internet”, “Software” oder “Datenanalyse” so professionell umgehen wie mit dem klassischen Werkzeug. Zumindest für Entwicklung oder innovative Anwendungen fehlt den meisten das Verständnis. Umgekehrt sind auch Technikentwicklerinnen und Technikentwicklern oft viele Anwendungsbereiche nicht ausreichend vertraut. Wir haben es also mit einem “Werkzeug” zu tun, dessen zielgenaue Entwicklung und Anwendung Kooperation erfordert, und damit zunächst interdisziplinäre Bildung.  

Besonders deutlich wird das derzeit beim Thema Künstliche Intelligenz (KI) – womit hier zunächst einmal die Vielzahl von Datenanalyse- und Plattformtechnologien gemeint ist, die durch große Mengen an Daten, Rechenpower und ein hohes Maß an Vernetzung selbst lernende Maschinen ermöglichen. In der Theorie versprechen diese Technologien potenziell neuartiges Wissen und Steuerungsoptionen. In der Praxis führt bislang das mangelhafte Verständnis für Grundlagen und Funktionsweise von KI zu urheber- und wirtschaftsrechtlichen Einschränkungen, die ihr wahres Potenzial mindern.

Lizenzhinweis

Rino Porrovecchio from Palermo, Italy, CC BY-SA 2.0

Man bräuchte eine Art öffentliches Daten-Management, das vielen Akteurinnen und Akteuren  den Zugriff für unterschiedliche Zwecke ermöglicht

Als Beispiel kann die Corona-Pandemie dienen: Wollte man das neuartige SARS-CoV-2-Virus und seine Verbreitung besser verstehen, könnte man neben Virologinnen und Virologen auch Data-Scientistinnen und -Scientists befragen. Bislang wurde die Verbreitung des Virus vor allem durch Tests an Hamstern und Frettchen untersucht, ebenso durch Experimente mit Menschen und Objekten. Wobei einige Fragen offen geblieben sind: Wird SARS-CoV-2 auch über Objekte oder CO² übertragen? Falls ja, was würde das für den Handel mit Geld, für internationale Lieferketten, Klimaanlagen etc. bedeuten? Und was wäre bezüglich der Freiheitseinschränkungen im Kontext der Pandemie-Bekämpfung zu folgern? Sind sie zielführend?

Eine datenbasierte Beantwortung wäre vermutlich günstiger, ethischer, schneller und repräsentativer als traditionelle Forschung – bedürfte jedoch des Zugangs zu entsprechenden Daten. Nicht nur zu Infektionsdaten, sondern auch zu Informationen über globale Produktion und Verteilung (z. B. Infrastrukturen und Routen, Art und Menge der Güter, Verpackung, Art des Transports etc.), Daten aus Stadtplanung und Architektur (z. B. Gebäudepläne mit Luftkanälen oder Klimaanlagen, Lufträume, Nähe zu Häusern etc.), Daten des öffentlichen Nahverkehrs (Infrastruktur, Lufträume, Auslastung und Frequenz etc.). Diese müssten maschinenlesbar und standardisiert vorliegen. Und man bräuchte eine Art öffentliches Daten-Management, das vielen Akteurinnen und Akteuren den Zugriff für unterschiedliche Zwecke ermöglicht. Zumindest in Deutschland ist das bislang undenkbar.

Auch aktuelle EU-Gesetzes-Entwürfe verweisen mit der Registrierungspflicht und Anwendungserlaubnis zur Verwendung öffentlicher Daten sowie potentielle Verwendungsgebühren leider in andere Richtung, die vor allem kommerzielle Verwertung fördert.

“If wars can be started by lies, they can be stopped by truth.”

Julian Assange

Das Beispiel zeigt, dass die wahren Potenziale von KI nur durch Kooperation und Offenheit, basierend auf dem „freien Austausch” immaterieller Güter geborgen werden können. Zudem bedarf es der Transparenz von KI – etwa offene Daten, Standards und Algorithmen – um Einsatz und Wirkung digitaler Tools überprüfen und möglichen Missbrauch verhindern zu können. Der gesellschaftliche Effekt von Technologieentwicklung hängt also auch an der Regulierung weiterer Gesellschaftsbereiche sowie grundlegenden Übereinkünften: Setzen wir KI ein, um etablierte “Branchen” wie Überwachung zu verstärken – oder um eine ganzheitliche Sicherheit für Menschen zu entwickeln? Und falls die Antwort ja lautet: Was braucht es dazu?

Von Julian Assange stammt der Satz: “If wars can be started by lies, they can be stopped by truth.” In Kenntnis des politischen Systems und seiner komplexen Verfahren würde ich heute hinzufügen, dass auch Politik KI braucht – in Gestalt von Datenanalyse- und Plattformtechnologien. Weniger zur Automatisierung von Input (E-Voting etc.) oder Output (automatisierte Verwaltung etc.), als vielmehr zur besseren Verarbeitung der gesellschaftlich gestiegenen Informationslast, zur besseren Koordinierung relevanter Stakeholder oder zur demokratischen Steuerung eines sozio-ökologischen Wandels. Denn klar ist: Server, Datenverarbeitung, verschlüsselter Cat Content* – sie alle kosten uns Energie und andere Ressourcen und sollten mit Blick auf den Klimawandel wohlüberlegt sein.

*Cat Content

Cat Content (auch: Katzencontent) ist ein vorwiegend zum Bereich der Populärkultur gezähltes Internet-Phänomen. Der Begriff ist ein Scheinanglizismus und bedeutet wörtlich übersetzt „Katzen-Inhalte“. Im englischen Sprachraum ist der Begriff „Cat Content“ dagegen nicht verbreitet. Dort spricht man von „Cats on the Internet“.

[Quelle: Wikipedia]

Wikimedia-Salon „T=Technophilie. Wird Technik zum Allheilmittel der Politik?“ mit Julia krüger, Chris Köver und Christoph Kappes

Weitere Infos:

Julia Krüger

Julia Krüger schreibt regelmäßig für netzpolitik.org und arbeitet unabhängig als Politik-Entwicklerin, Journalistin und Wissenschaftlerin zu Fragen der Netzpolitik – vorzugsweise zur Entwicklung Künstlicher Intelligenz (KI), Daten- und Plattform-Politik und ihren Bezügen zum Urheberrecht, Sicherheitspolitik und Gemeinwohl. Zuvor arbeitete sie u.a. für Saskia Esken, MdB SPD (Innen- und Digitalausschuss), und die Bertelsmann Stiftung. Unter dem Händel @phaenomen ist Krüger auf Twitter aktiv.

Interview

  • Christoph Kappes
    Christoph Kappes

Stichwörter, zu Theorien aufgeblasen

Was hat Sie an der digitalen Entwicklung in den vergangenen 20 Jahren überrascht – und was hätten Sie sich von Netzpolitik mehr gewünscht?

Es gibt nicht die eine große Überraschung. Ich sehe viele kleine Veränderungen, die in der Summe den Unterschied machen. Man kann auf Machtverhältnisse schauen, auf Technologien, ökonomische Strukturen. Und in jeder dieser Dimensionen gelangt man zu anderen Erkenntnissen. 

Im Bereich Technologie hat es sehr viele Veränderungen gegeben, die für den End-User gar nicht so sichtbar sind. Das ist für Nicht-Technikerinnen und –Techniker alles „chinesisch“. So hat sich zum Beispiel Javascript sehr entwickelt, während Java für normale Webanwendungen fast verschwunden ist. Flash ist verschwunden, dafür sind Javascript-Frameworks, React und Vue beispielweise im Vormarsch. Der Weg von Netscape zu Chrome ist technisch. Paradoxerweise hat sich für den Nutzer aber gar nicht so viel geändert: Seiten können mehr, sind aber schneller im Seitenaufbau, vor allem auf Mobile. Weil Anwendungen nun mehr und mehr in der Cloud laufen, ist der Browser ist tatsächlich das Betriebssystem geworden, wie man früher ganz verwegen sagte. Das Tempo wird immer schneller, nicht zuletzt, weil es immer mehr Schnittstellen zwischen Diensten gibt, und weil moderne Technologien Skalierung ermöglichen (Docker, Kubernetes). Innovationen erlauben es jeweils, auf einem höheren Level schnellere, bessere Lösungen zu bauen – die leider von der Komplexität her zunehmen. 

Trotzdem sind es heute wieder „schlanke Seiten“ auf dem Handy wie im Netscape-Browser 1997 waren äußerst leichtgewichtige, schlanke Textseiten. Ob ich „überrascht“ bin? Ja, weil es nicht absehbar war, nein, weil es doch nur leichter, schneller, einfacher geworden ist, während es unter der Haube sozusagen komplizierter wurde – die gleiche Entwicklung wie beim Auto.  Das wiederum ist möglicherweise auch ein Problem für eine Open-Source-Gemeinde, weil es anspruchsvoller ist, mit der Technik hinterher zu kommen. Im Bildungsbereich verfolge ich im Moment das Beispiel Moodle – sowas konnte man in den 90ern bei Lycos auf drei Pizzaschachteln laufen lassen, aber wenn man heute hoch individualisierte Seiten und eine sechsstellige Zahl von Schülern morgens um acht online hat, ist das eine andere Nummer. Dafür muss man moderne Skalisierungstechniken und Devops beherrschen, das müsste etwa das Finanzministerium des Landes Bayern als Betreiber wohl noch lernen. Ich fürchte, wegen der zunehmenden Komplexität verschwindet auch das selbstgehostete und selbstgebastelte Blog. Weniger Probleme hat man eben mit  Plattformen mit Facebook und Co – dass Menschen so bequem sind, hat mich dann doch etwas überrascht. Aber Menschen wollen es eben „convenient“, einfach los schreiben. 

Zur Ökonomie: Dass es eine gewisse Klumpenbildung unter den Anbietern gibt, hat mich schon überrascht, aber der Vorsprung ergibt sich eben aus Datenbeständen und ständiger Weiterentwicklung. Ein kleiner, zum Beispiel nationaler Anbieter, hat da keine Chance gegen Google oder Amazon – das sind eben Economies of Scale. Dieselben Ecoomies of Scale machen es umgekehrt auch vielen Kleinanbietern möglich, einer von etwa hundertausenden von Shopify-Shops zu sein. 

Was die politische Öffentlichkeit wiederum angeht, bin ich doch enttäuscht, dass wir so viel Häme, Geätze und Missgunst sehen, von Hassrede ganz zu schweigen. Aber Überraschung ist eben auch eine Folge falscher Erwartungen. Man hätte es sich denken können, wenn man gedacht hätte. Netzpolitik war aus meiner Sicht immer wieder mit der Abwehr von Eingriffen in Freiheitsrechte befasst, von Vorratsdatenspeicherung bis Uploadfilter, und auch mit Kämpfen um zeitgemäßes Urheberrecht. Was viel zu wenig geschah war nach vorn gerichtete Gestaltung von Standards, Code und Ressourcen.

Wie könnte Politik Technik besser einsetzen, um digitale Communities und zivilgesellschaftliche Organisationen strukturell zu unterstützen?

Politik wäre besser beraten, wenn sie grundlegende Softwareentwicklung fördern würde statt auf Projektebene zu investieren. Software ist in Schichten aufgebaut und Spezialfunktionen, erst daraus ergeben sich dann Applikationen. Man muss in einer Art Landschaft von Anwendungen denken, beispiel CivicTech, und von hier aus grundlegende Module entwickeln. Das gilt aber ebenso für kommerzielle Bereiche wie eCommerce oder auch von allen nutzbare Anwendungen wie modernste Wikis.

Ein Beispiel: Mitgliederverwaltungen, Spendenprozesse und Newsletter von Vereinen und anderen NGOs. Da ist ein großes Feld zu bestellen, mit dem man die Zivilgesellschaft stärken kann. Von hier aus ist es gar nicht so weit bis zu CRM-Software, die auch in kommerziellen Umfeldern gebraucht wird. Man sieht es auch in der Ordnungspolitik: Buchhändler beziehen Shopsysteme entweder vom Distributor, der nur begrenzt ihre Interessen verfolgt, oder sie müssen sich Shops für fünfstellige Beträge von einer Agentur bauen lassen, was sie finanziell stark belastet und selten wirklich gute Lösungen bringt. Warum fördert man nicht beispielsweise Shop-Infrastruktur, spezialisiert sie für Branchen wie Buchhändler (z.B. für spezifische Metadaten wie ISBN) und sichert den Code nicht gegen Übernahme ab? Es passiert ja immer wieder, dass Open Source wie Java von Oracle gekauft wird oder Magento von Ebay. Es wäre wichtig, nach grundlegenden Software-Architekturen und Tools zu schauen, die in verschiedenen Lösungen enden können. Dafür braucht man allerdings eine Art Project Office für eine Landschaft an Projekten (sog. „Programmen“) und viel mehr Fachknowhow als nur ein paar Coder.

Wikimedia ist ja auch so ein Fall. Wenn man die nächsten Schritte mit den Features von Enterprise-Wikis zusammen denkt und auf eine technologische Basis setzt, wäre vielleicht viel gewonnen. Auch viele Unternehmen leiden ja unter teurem Sharepoint-Gebastel. Dafür müsste man freilich auch mal kommerziellen Software-Anbietern die Stirn bieten, was Politik ungern macht, auch weil es keine steuernden Instanzen gibt.

Ich wünsche mir von der Politik eine koordinierende Hand, um aktiv Infrastruktur zu entwickeln, die für völlig verschiedene Bereich genutzt werden kann. Hier muss man allerdings Open Source nicht gegen proprietäre Lösungen ausspielen, beide sind gut miteinander verträglich. Kommerziell läuft ja ohnehin viel auf Open Source, wie man umgekehrt mit Open Source-Modellen auch Kontrolle behalten kann.

Lässt sich die Netz-Community in eine Open-Source- und eine Microsoft-Fraktion unterteilen?

Ja, das ist mein Eindruck, oder mehr noch: es sind zwei „Communities“, zwei Sphären, die Lagerkämpfe aufführen. In der Praxis leben jedoch Open-Source- und proprietäre Lösungen „in harmony“ auf jedem Computer. Und ich halte Open Source auch nicht a priori für besser. Das hängt vom Anwendungsbereich ab. Wenn es um Software für die Öffentliche Hand geht, ist Open Source sehr sinnvoll, weil sie besser erkennen können, ob jemand Hintertürchen eingebaut hat. Es gibt aber auch Bereiche, wo Open Source als ökonomische Waffe eingesetzt wird, um andere zu verdrängen. Google hat Apple damit im Mobile-Bereich vom Thron geschoben.

„Es ist tatsächlich leicht, abstrakt und dogmatisch verschiedene Positionen einzunehmen und sich dabei den Schädel einzuschlagen, statt wirklich aufs Konkrete zu gehen.“

Christoph Kappes

Wenn man sich anschaut, wie erfolgreich Google mit Android ist – das ist ein Open-Source-Modell. Oder wie erfolgreich Google mit Chrome und Chromium ist. Ebenfalls Open-Source-Modelle, die aber mit bestimmten Strukturen gesteuert werden: über Bezuschussung, bestimmte Schlüsselpositionen, über Einfluss in Gremien sichert man sich eine Position der Spinne im Netz. Umgekehrt wird Open Source gern auch kommerziell vereinnahmt, etwa Java durch Oracle oder Magento durch eBay. Ich denke, Politik müsste dafür sorgen, dass es keine Machtverklumpungen allein durch Software geben kann, die Abhängigkeiten zwischen Software-Schichten sind schon eine Besonderheit. Etwa kann, wer den Browsermarkt kontrolliert, auch eine exklusive Sonderstellung auf anderen Ebenen erreichen. Daher sehe ich es mit Sorge, wie Mozilla in Deutschland fast bis zur Bedeutungslosigkeit gelangt ist.

Häufig wird kritisiert, dass Politik Technik mit der Intention der Überwachung und Kontrolle nutzt. Verstellt der öffentliche Fokus auf diese Problematik andere, wichtigere Zukunftsfragen?

Das sollte man nicht gegeneinander aufrechnen. Die Öffentlichkeit verfügt über genug Aufmerksamkeit, um mehr als ein Thema zu behandeln. Da verstellt grundsätzlich nichts irgendetwas. Es ist aber schon eine Frage, wo man den Schwerpunkt setzt. Und es liegt in der Geschichte des Staates, dass Politik eher Eingriffe als Leistungen managt. Wir sehen auch in der Corona-Krise, wie schwer es fällt, eine Infrastruktur aufzubauen, das ist langsam (Warn-App), nicht immer professionell (Lucaapp), von der Governance nicht gut. Was der CCC macht, müsste eigentlich eine öffentliche Stelle machen, und es braucht einfach mehr Ressourcen an IT im öffentlichen Dienst, auch das RKI ist ein Beispiel für eine meines Erachtens wirklich haarsträubende Praxis an Excel-Gebastel, das erinnert mich an die 1990er – und die Lösung ist nicht kompliziert.

Wir versteigen uns alle miteinander auch immer wieder in Abstraktionsdebatten, die mir ein bisschen zu dogmatisch sind. Die Grundrechtsverankerung des Datenschutzes kann ich als Jurist gut nachvollziehen, aber man muss stärker die ohnehin anfallenden Kommunikationsdaten von sensibleren Daten unterscheiden. Man muss die Fälle, die völlig unterschiedlich in ihrer Gefährdung sind, mehr differenzieren. Dies betrifft etwa zur Pandemiebekämpfung erhobene Kontaktdaten, die kurzfristig gelöscht werden müssen. Diese ganze Infrastruktur braucht allerdings auch ein „End of Live“, das hat die Politik nicht gut gemacht – so eine CWA-Infrastruktur muss sich, überspitzt gesagt, automatisch löschen.

Es ist tatsächlich leicht, abstrakt und dogmatisch verschiedene Positionen einzunehmen und sich dabei den Schädel einzuschlagen, statt wirklich aufs Konkrete zu gehen und zu fragen: Wo genau liegt das Problem? Das verbauen wir uns häufig durch ideologisch gefärbte Diskussionen. Die Lager reden zu wenig konstruktiv miteinander. 

Wir erleben auch Diskussionen, getrieben durchs Feuilleton, die wissenschaftlich eigentlich überholt sind, aber sich aus Unkenntnis meme-artig wiederholen. Die Filter-Bubble-Theorie von Eli Pariser aus dem Jahr 2013 wird heute immer noch überall kolportiert, obwohl sie sich wissenschaftlich kaum bestätigen lässt und obwohl wir aus meiner Sicht ganz andere Probleme in der Kommunikation haben. Der Vorwurf eines „Solutionism“, den Evgeny Morozov fomuliert hat, wird ebenfalls heute noch weiter transportiert, obwohl es in der Technikgeschichte ein völlig normaler Vorgang ist, zunächst eine Erfindung zu machen, und dann zu überlegen, was sich damit anfangen lässt. Das ist technikgeschichtlich der Gang der Dinge. Als das Radio bereits erfunden war, wusste man nicht, dass man es erfunden hatte. Man musste noch ein paar Jahre ausprobieren. 

Genau so ist es im Software-Bereich. Das ist ein Wechselspiel von technischem Artefakt und sozialen Strukturen, die wiederum antagonistisch sind, chancen- oder risikorientiert. Es wird aus meiner Sicht zu viel an Stichwörtern, die irgendwo aus den Feuilletons aufgeschnappt wurde, als Theorie aufgeblasen und zu Distinktionszwecken unhinterfragt nachgeplappert.

Weitere Infos:

  • Webseite Christoph Kappes
  • Kappes bei Twitter

Christoph Kappes

Christoph Kappes

Christoph Kappes, von Haus aus Jurist, hat 1991 eine der ersten Internetagenturen Deutschlands gegründet. Seit über 20 Jahren beschäftigt er sich beruflich mit der Digitalisierung; mit wirtschaftlichen und technisch-konzeptionellen, seit einigen Jahren auch mit gesellschaftlichen Fragen. Seit 2008 berät er Unternehmen und schreibt zu Themen rund um die Digitalisierung, u.a. für FAZ, Zeit Online, Spiegel Online und Merkur.

3 Fragen an:

  • Chris Köver

Werden Technologien zunehmend zum Allheilmittel der Politik – siehe die Corona-App?

Ich glaube, es gibt eine ungünstige Tendenz, die Lösung für gesellschaftliche Probleme in technologischen Mitteln zu suchen. Das funktioniert aber nicht, denn Technologien sind nie an sich Lösung oder Problem. Ein Beispiel: Der Algorithmus der österreichischen Arbeitsmarktservices AMS teilt Arbeitssuchende in drei Kategorien ein – je nach Wahrscheinlichkeit, dass sie schnell wieder einen Job finden. Dafür wurde die AMS scharf kritisiert, weil es einen deutlichen Punktabzug gibt für Alter, fürs Frausein, fürs Muttersein oder für Behinderungen.

Das Problem ist aber nicht der Algorithmus. Der trifft ja lediglich eine Prognose, basierend auf vergangenen Daten aus dem Jobmarkt. Man könnte ihn als „Diskriminierungsbarometer“ begreifen und positiv nutzen, etwa um zu identifizieren, wer besonders viel Unterstützung braucht. Stattdessen wird er eingesetzt, um Förderung vermeintlich effizient zu lenken – was im Ergebnis chancenarmen Menschen noch weniger Chancen einräumt. Dieses Problem lässt sich nicht im Algorithmus lösen. Sondern es bedarf der gesellschaftlichen Übereinkunft, wie und wofür wir diese Technologie einsetzen wollen.

Welche Probleme gehen damit einher, wenn gesellschaftliche Probleme durch Technologien gelöst werden sollen?

Solche Lösungsversuche lenken von anderen gesellschaftlichen Defiziten ab. Ich beschäftige mich viel mit technologisch gestützter Gewalt. Zum Beispiel werden Mobiltelefone zunehmend im Privaten dafür genutzt, Menschen ohne ihr Wissen zu überwachen und zu kontrollieren.
Es gibt sehr gute Initiativen, die dafür sensibilisieren, auch Antivirenhersteller haben das Thema jetzt für sich entdeckt. Zugleich ist das kein Problem, das Betroffene im Privaten lösen können oder sollten. Das Problem liegt vor allem bei der Polizei und den Staatsanwaltschaften: Dort fehlt es an Wissen, oft wird solche Gewalt abgetan mit der Begründung, „es ist ja bisher nur online, da ist ja noch gar nichts passiert“. Oder es wird Betroffenen geraten, nicht mehr ins Internet zu gehen. Es fehlen auch die technischen Ressourcen, um Geräte zu untersuchen. 

Wie können Technologien, beziehungsweise algorithmische Entscheidungssysteme, besser von der Politik eingesetzt werden?

Es wäre schon viel gewonnen, wenn staatliche Stellen automatisierte Entscheidungen nicht als Machtinstrument einsetzen würden, sondern tatsächlich an den Bedürfnissen der Betroffenen ausgerichtet. Das bedeutet aber, dass man eben diese Menschen natürlich schon in die Entwicklung mit einbeziehen müsste, abfragen sollte: Was hilft euch, was braucht ihr?
Manchmal wird dann vielleicht auch die Antwort kommen: Wir brauchen das nicht. Abgesehen davon muss in der EU eine klare Regelung gefunden werden, unter welchen Auflagen bestimmte Hochrisikotechnologien wie biometrische Erkennung überhaupt eingesetzt werden dürfen – egal ob von staatlichen Stellen oder Unternehmen. An diesen Regeln wird gerade gearbeitet.

Weitere Infos

Chris Köver

Chris Köver ist Journalistin. In ihrer Arbeit u.a. für netzpolitik.org recherchiert sie zu den Querverbindungen von digitalen Technologien und sozialer Gerechtigkeit, maschinellem Lernen und Diskriminierung, Überwachung und Geschlecht - aus einer intersektional feministischen Perspektive. Sie ist Mitbegründerin und Mitherausgeberin der seit 2008 erscheinenden feministischen Zeitschrift Missy Magazine.