Werden Technologien zunehmend zum Allheilmittel der Politik – siehe die Corona-App?
Ich glaube, es gibt eine ungünstige Tendenz, die Lösung für gesellschaftliche Probleme in technologischen Mitteln zu suchen. Das funktioniert aber nicht, denn Technologien sind nie an sich Lösung oder Problem. Ein Beispiel: Der Algorithmus der österreichischen Arbeitsmarktservices AMS teilt Arbeitssuchende in drei Kategorien ein – je nach Wahrscheinlichkeit, dass sie schnell wieder einen Job finden. Dafür wurde die AMS scharf kritisiert, weil es einen deutlichen Punktabzug gibt für Alter, fürs Frausein, fürs Muttersein oder für Behinderungen.
Das Problem ist aber nicht der Algorithmus. Der trifft ja lediglich eine Prognose, basierend auf vergangenen Daten aus dem Jobmarkt. Man könnte ihn als „Diskriminierungsbarometer“ begreifen und positiv nutzen, etwa um zu identifizieren, wer besonders viel Unterstützung braucht. Stattdessen wird er eingesetzt, um Förderung vermeintlich effizient zu lenken – was im Ergebnis chancenarmen Menschen noch weniger Chancen einräumt. Dieses Problem lässt sich nicht im Algorithmus lösen. Sondern es bedarf der gesellschaftlichen Übereinkunft, wie und wofür wir diese Technologie einsetzen wollen.

Welche Probleme gehen damit einher, wenn gesellschaftliche Probleme durch Technologien gelöst werden sollen?
Solche Lösungsversuche lenken von anderen gesellschaftlichen Defiziten ab. Ich beschäftige mich viel mit technologisch gestützter Gewalt. Zum Beispiel werden Mobiltelefone zunehmend im Privaten dafür genutzt, Menschen ohne ihr Wissen zu überwachen und zu kontrollieren.
Es gibt sehr gute Initiativen, die dafür sensibilisieren, auch Antivirenhersteller haben das Thema jetzt für sich entdeckt. Zugleich ist das kein Problem, das Betroffene im Privaten lösen können oder sollten. Das Problem liegt vor allem bei der Polizei und den Staatsanwaltschaften: Dort fehlt es an Wissen, oft wird solche Gewalt abgetan mit der Begründung, „es ist ja bisher nur online, da ist ja noch gar nichts passiert“. Oder es wird Betroffenen geraten, nicht mehr ins Internet zu gehen. Es fehlen auch die technischen Ressourcen, um Geräte zu untersuchen.
Wie können Technologien, beziehungsweise algorithmische Entscheidungssysteme, besser von der Politik eingesetzt werden?
Es wäre schon viel gewonnen, wenn staatliche Stellen automatisierte Entscheidungen nicht als Machtinstrument einsetzen würden, sondern tatsächlich an den Bedürfnissen der Betroffenen ausgerichtet. Das bedeutet aber, dass man eben diese Menschen natürlich schon in die Entwicklung mit einbeziehen müsste, abfragen sollte: Was hilft euch, was braucht ihr?
Manchmal wird dann vielleicht auch die Antwort kommen: Wir brauchen das nicht. Abgesehen davon muss in der EU eine klare Regelung gefunden werden, unter welchen Auflagen bestimmte Hochrisikotechnologien wie biometrische Erkennung überhaupt eingesetzt werden dürfen – egal ob von staatlichen Stellen oder Unternehmen. An diesen Regeln wird gerade gearbeitet.