T

Technophilie

Kein Zweifel: „Das Netz” hat das Potenzial, etablierte gesellschaftliche Strukturen wie überkommene oder dysfunktionale Regierungsformen aus den Angeln zu heben. Doch wie gehen wir mit der Tendenz um, dass Politik Technik zunehmend als Allheilmittel für gesellschaftliche Probleme adressiert?

  • Datenpolitik
  • Gemeinwohl

Gemeinsam besser hämmern: Welche politischen Rahmen Algorithmen und KI brauchen

  • Julia Krüger

Ein Essay von Julia Krüger

“We reject: kings, presidents and voting. We believe in: rough consensus and running code.”

[Leitspruch der Internetentwicklung aus dem Kontext der internationalen Abstimmung über gemeinschaftliche Standards der Datenkommunikation im Rahmen der Internet Engeneering Task Force (IETF) von David D. Clark (1992)]

Kein Zweifel: „Das Netz” hat das Potenzial, etablierte gesellschaftliche Strukturen wie überkommene, ineffiziente oder dysfunktionale Regierungsformen aus den Angeln zu heben – also durch technologische Entwicklung gesellschaftlichen Fortschritt zu erwirken. Allerdings ist spätestens seit dem Abwurf der ersten Atombombe über Hiroshima 1945 auch klar, dass jede technologische Errungenschaft zum Guten wie zum Schlechten genutzt werden kann. Die Debatte über Dual-Use-Technologien zeigt das ebenso wie die Überwachung und Manipulation von Menschen mittels moderner Datenanalyse-Technologie vonseiten des Staates oder der Wirtschaft.

In der Praxis führt bislang das mangelhafte Verständnis für Grundlagen und Funktionsweise von KI zu urheber- und wirtschaftsrechtlichen Einschränkungen

Doch das Netz und andere digitale Innovationen stellen den verantwortungsvollen Umgang der Gesellschaft mit Technologie vor zwei besondere Herausforderungen. Siehe „Maslows Hammer”: “Wenn dein einziges Werkzeug ein Hammer ist, sieht jedes Problem wie ein Nagel aus.” (nach Abraham Maslow 1966). Die Analogie, nach der die gewohnte Art der Lösung den Blick auf jedes neue Problem prägt, wird in der Technik- und Internetforschung gern zitiert – beispielsweise, um die Pfadabhängigkeit technischer oder politischer Entwicklungen zu beschreiben. Vermutlich können aber weit weniger Menschen mit den Hämmern “Internet”, “Software” oder “Datenanalyse” so professionell umgehen wie mit dem klassischen Werkzeug. Zumindest für Entwicklung oder innovative Anwendungen fehlt den meisten das Verständnis. Umgekehrt sind auch Technikentwicklerinnen und Technikentwicklern oft viele Anwendungsbereiche nicht ausreichend vertraut. Wir haben es also mit einem “Werkzeug” zu tun, dessen zielgenaue Entwicklung und Anwendung Kooperation erfordert, und damit zunächst interdisziplinäre Bildung.  

Besonders deutlich wird das derzeit beim Thema Künstliche Intelligenz (KI) – womit hier zunächst einmal die Vielzahl von Datenanalyse- und Plattformtechnologien gemeint ist, die durch große Mengen an Daten, Rechenpower und ein hohes Maß an Vernetzung selbst lernende Maschinen ermöglichen. In der Theorie versprechen diese Technologien potenziell neuartiges Wissen und Steuerungsoptionen. In der Praxis führt bislang das mangelhafte Verständnis für Grundlagen und Funktionsweise von KI zu urheber- und wirtschaftsrechtlichen Einschränkungen, die ihr wahres Potenzial mindern.

Rino Porrovecchio from Palermo, Italy, CC BY-SA 2.0

Man bräuchte eine Art öffentliches Daten-Management, das vielen Akteurinnen und Akteuren  den Zugriff für unterschiedliche Zwecke ermöglicht

Als Beispiel kann die Corona-Pandemie dienen: Wollte man das neuartige SARS-CoV-2-Virus und seine Verbreitung besser verstehen, könnte man neben Virologinnen und Virologen auch Data-Scientistinnen und -Scientists befragen. Bislang wurde die Verbreitung des Virus vor allem durch Tests an Hamstern und Frettchen untersucht, ebenso durch Experimente mit Menschen und Objekten. Wobei einige Fragen offen geblieben sind: Wird SARS-CoV-2 auch über Objekte oder CO² übertragen? Falls ja, was würde das für den Handel mit Geld, für internationale Lieferketten, Klimaanlagen etc. bedeuten? Und was wäre bezüglich der Freiheitseinschränkungen im Kontext der Pandemie-Bekämpfung zu folgern? Sind sie zielführend?

Eine datenbasierte Beantwortung wäre vermutlich günstiger, ethischer, schneller und repräsentativer als traditionelle Forschung – bedürfte jedoch des Zugangs zu entsprechenden Daten. Nicht nur zu Infektionsdaten, sondern auch zu Informationen über globale Produktion und Verteilung (z. B. Infrastrukturen und Routen, Art und Menge der Güter, Verpackung, Art des Transports etc.), Daten aus Stadtplanung und Architektur (z. B. Gebäudepläne mit Luftkanälen oder Klimaanlagen, Lufträume, Nähe zu Häusern etc.), Daten des öffentlichen Nahverkehrs (Infrastruktur, Lufträume, Auslastung und Frequenz etc.). Diese müssten maschinenlesbar und standardisiert vorliegen. Und man bräuchte eine Art öffentliches Daten-Management, das vielen Akteurinnen und Akteuren den Zugriff für unterschiedliche Zwecke ermöglicht. Zumindest in Deutschland ist das bislang undenkbar.

Auch aktuelle EU-Gesetzes-Entwürfe verweisen mit der Registrierungspflicht und Anwendungserlaubnis zur Verwendung öffentlicher Daten sowie potentielle Verwendungsgebühren leider in andere Richtung, die vor allem kommerzielle Verwertung fördert.

“If wars can be started by lies, they can be stopped by truth.”

Julian Assange

Das Beispiel zeigt, dass die wahren Potenziale von KI nur durch Kooperation und Offenheit, basierend auf dem „freien Austausch” immaterieller Güter geborgen werden können. Zudem bedarf es der Transparenz von KI – etwa offene Daten, Standards und Algorithmen – um Einsatz und Wirkung digitaler Tools überprüfen und möglichen Missbrauch verhindern zu können. Der gesellschaftliche Effekt von Technologieentwicklung hängt also auch an der Regulierung weiterer Gesellschaftsbereiche sowie grundlegenden Übereinkünften: Setzen wir KI ein, um etablierte “Branchen” wie Überwachung zu verstärken – oder um eine ganzheitliche Sicherheit für Menschen zu entwickeln? Und falls die Antwort ja lautet: Was braucht es dazu?

Von Julian Assange stammt der Satz: “If wars can be started by lies, they can be stopped by truth.” In Kenntnis des politischen Systems und seiner komplexen Verfahren würde ich heute hinzufügen, dass auch Politik KI braucht – in Gestalt von Datenanalyse- und Plattformtechnologien. Weniger zur Automatisierung von Input (E-Voting etc.) oder Output (automatisierte Verwaltung etc.), als vielmehr zur besseren Verarbeitung der gesellschaftlich gestiegenen Informationslast, zur besseren Koordinierung relevanter Stakeholder oder zur demokratischen Steuerung eines sozio-ökologischen Wandels. Denn klar ist: Server, Datenverarbeitung, verschlüsselter Cat Content* – sie alle kosten uns Energie und andere Ressourcen und sollten mit Blick auf den Klimawandel wohlüberlegt sein.

*Cat Content

Cat Content (auch: Katzencontent) ist ein vorwiegend zum Bereich der Populärkultur gezähltes Internet-Phänomen. Der Begriff ist ein Scheinanglizismus und bedeutet wörtlich übersetzt „Katzen-Inhalte“. Im englischen Sprachraum ist der Begriff „Cat Content“ dagegen nicht verbreitet. Dort spricht man von „Cats on the Internet“.

[Quelle: Wikipedia]

Wikimedia-Salon „T=Technophilie. Wird Technik zum Allheilmittel der Politik?“ mit Julia krüger, Chris Köver und Christoph Kappes

Weitere Infos:

Julia Krüger

Julia Krüger schreibt regelmäßig für netzpolitik.org und arbeitet unabhängig als Politik-Entwicklerin, Journalistin und Wissenschaftlerin zu Fragen der Netzpolitik – vorzugsweise zur Entwicklung Künstlicher Intelligenz (KI), Daten- und Plattform-Politik und ihren Bezügen zum Urheberrecht, Sicherheitspolitik und Gemeinwohl. Zuvor arbeitete sie u.a. für Saskia Esken, MdB SPD (Innen- und Digitalausschuss), und die Bertelsmann Stiftung. Unter dem Händel @phaenomen ist Krüger auf Twitter aktiv.

3 Fragen an:

  • Chris Köver

Werden Technologien zunehmend zum Allheilmittel der Politik – siehe die Corona-App?

Ich glaube, es gibt eine ungünstige Tendenz, die Lösung für gesellschaftliche Probleme in technologischen Mitteln zu suchen. Das funktioniert aber nicht, denn Technologien sind nie an sich Lösung oder Problem. Ein Beispiel: Der Algorithmus der österreichischen Arbeitsmarktservices AMS teilt Arbeitssuchende in drei Kategorien ein – je nach Wahrscheinlichkeit, dass sie schnell wieder einen Job finden. Dafür wurde die AMS scharf kritisiert, weil es einen deutlichen Punktabzug gibt für Alter, fürs Frausein, fürs Muttersein oder für Behinderungen.

Das Problem ist aber nicht der Algorithmus. Der trifft ja lediglich eine Prognose, basierend auf vergangenen Daten aus dem Jobmarkt. Man könnte ihn als „Diskriminierungsbarometer“ begreifen und positiv nutzen, etwa um zu identifizieren, wer besonders viel Unterstützung braucht. Stattdessen wird er eingesetzt, um Förderung vermeintlich effizient zu lenken – was im Ergebnis chancenarmen Menschen noch weniger Chancen einräumt. Dieses Problem lässt sich nicht im Algorithmus lösen. Sondern es bedarf der gesellschaftlichen Übereinkunft, wie und wofür wir diese Technologie einsetzen wollen.

Fishing net Karystos Euboea Greece. Jebulon, CC0

Welche Probleme gehen damit einher, wenn gesellschaftliche Probleme durch Technologien gelöst werden sollen?

Solche Lösungsversuche lenken von anderen gesellschaftlichen Defiziten ab. Ich beschäftige mich viel mit technologisch gestützter Gewalt. Zum Beispiel werden Mobiltelefone zunehmend im Privaten dafür genutzt, Menschen ohne ihr Wissen zu überwachen und zu kontrollieren.
Es gibt sehr gute Initiativen, die dafür sensibilisieren, auch Antivirenhersteller haben das Thema jetzt für sich entdeckt. Zugleich ist das kein Problem, das Betroffene im Privaten lösen können oder sollten. Das Problem liegt vor allem bei der Polizei und den Staatsanwaltschaften: Dort fehlt es an Wissen, oft wird solche Gewalt abgetan mit der Begründung, „es ist ja bisher nur online, da ist ja noch gar nichts passiert“. Oder es wird Betroffenen geraten, nicht mehr ins Internet zu gehen. Es fehlen auch die technischen Ressourcen, um Geräte zu untersuchen. 

Wie können Technologien, beziehungsweise algorithmische Entscheidungssysteme, besser von der Politik eingesetzt werden?

Es wäre schon viel gewonnen, wenn staatliche Stellen automatisierte Entscheidungen nicht als Machtinstrument einsetzen würden, sondern tatsächlich an den Bedürfnissen der Betroffenen ausgerichtet. Das bedeutet aber, dass man eben diese Menschen natürlich schon in die Entwicklung mit einbeziehen müsste, abfragen sollte: Was hilft euch, was braucht ihr?
Manchmal wird dann vielleicht auch die Antwort kommen: Wir brauchen das nicht. Abgesehen davon muss in der EU eine klare Regelung gefunden werden, unter welchen Auflagen bestimmte Hochrisikotechnologien wie biometrische Erkennung überhaupt eingesetzt werden dürfen – egal ob von staatlichen Stellen oder Unternehmen. An diesen Regeln wird gerade gearbeitet.

Weitere Infos

Chris Köver

Chris Köver ist Journalistin. In ihrer Arbeit u.a. für netzpolitik.org recherchiert sie zu den Querverbindungen von digitalen Technologien und sozialer Gerechtigkeit, maschinellem Lernen und Diskriminierung, Überwachung und Geschlecht - aus einer intersektional feministischen Perspektive. Sie ist Mitbegründerin und Mitherausgeberin der seit 2008 erscheinenden feministischen Zeitschrift Missy Magazine.