Die heimliche Macht der Algorithmen

Am 28.06.2013 von Kathrin Kaufmann

Algorithmen bahnen sich und uns einen Weg durch den Datenwust. Doch ihre Funktion reicht weiter als wir ahnen: Als Filter prägen sie Teile unseres Weltbilds und geben Dritten die Möglichkeit, Muster zu identifizieren, die wir alle hinterlassen. Eine kritische Betrachtung zum Thema Algorithmen-Ethik und ein Interview mit Mercedes Bunz, der Autorin von “Die stille Revolution”.

BIG DATA, diesen Begriff haben wir alle schon gehört. Wir verstehen, dass es dabei um große Datenmengen handelt, deren Analyse in Echtzeit möglich ist – mit dem Ziel, die Zukunft zu prognostizieren. Welche Auswirkungen die Datenexplosion und deren Handhabe durch Algorithmen auf unser Leben haben, darüber haben wir uns als Gesellschaft bisher nur wenig Gedanken gemacht.

Verdächtige Muster

Zwar tauchen immer wieder Forderungen nach einer Ethik der Algorithmen auf, sie bleiben aber weitgehend ungehört. Denn was Big Data schlussendlich bedeutet und welche Rolle Algorithmen bei ihrer Verarbeitung spielen, ist uns oft nicht bewusst. Das zeigen unter anderem die Enthüllungen rund um die Spionageprogramme Prism und Tempora der amerikanischen und britischen Geheimdienste. Und doch scheint es, als bliebe die große Empörung auf Bürgerseite aus. Vielleicht liegt das nur daran, dass den meisten Bürgern das technische Verständnis fehlt, um nachzuvollziehen, was mit unseren Daten und den digitalen Spuren, die wir hinterlassen, gerade passiert. Es gilt das Motto: Wer nichts zu verbergen hat, braucht auch nichts zu fürchten. Und letztlich ist das Ziel, das hinter der heimlichen Verknüpfung unserer Daten steht, doch im allgemeinen Interesse.

Was außer Acht gelassen wird, sind die Algorithmen, die diese Datenberge unentwegt nach Mustern durchsuchen.

Nach welchen Mustern genau gesucht wird, bleibt uns verborgen. Das hängt von den Interessen der Institution dahinter ab: Ist es zum Beispiel eine Einkaufskette, die Daten ihrer Kunden durchforstet, wird vielleicht „nur” nach Kaufentscheidungsmustern gesucht, die auf eine Schwangerschaft hindeuten. Ist es die NSA, wird nach Verhaltensmustern gesucht, die Terroristen zugeschrieben werden können. Wonach diese Algorithmen genau suchen, wissen wir nicht. Aber es beruhigt uns der Glaube daran, dass ein Algorithmus letzlich keine bösen, ja noch nicht einmal eigene Interessen verfolgt. Doch so gewissenhaft ein Algorithmus auch arbeiten mag, er arbeitet immer auch ohne Gewissen: Für Algorithmen ist jeder von uns verdächtig, wie Kai Biermann in der Zeit schreibt. Nicht wir als Person, sondern die Muster, die wir hinterlassen. Die digitale Rasterfahndung unterscheidet nicht zwischen unseren digitalen Spuren und unserer persönlichen, privaten Identität. Algorithmen haben kein Eigeninteresse, sie kennen aber auch keine moralischen Grenzen.

Gefilterte Realität

Selbst wenn wir das Glück haben, nie in ein Verdachtsraster zu fallen, bestimmen Algorithmen schon heute in beträchtlichem Ausmaß, wie wir die zunehmend digitale Welt um uns herum wahrnehmen. Das lässt sich am Beispiel Google gut erkennen. Für die meisten Internetnutzer ist Google als Suchmaschine das Eintrittstor in die Weiten des Internets. Was wir sehen, die Ergebnisse, die uns präsentiert werden, sind dabei durch unzählige Faktoren bestimmt, die für uns nicht immer transparent sind. Zu viele Variablen nehmen darauf Einfluss: die Spracheinstellungen, das Betriebssystem und der Browser mit dem wir arbeiten, der Ort von dem aus wir suchen und unsere persönliche Historie früherer Suchanfragen. Im Klartext heißt das: Wenn zwei Personen denselben Begriff suchen, mag es sein, dass sie zu vollkommen unterschiedlichen Ergebnissen gelangen. Das soll die Qualität der Ergebnisse natürlich verbessern, wird aber problematisch, sobald uns nicht mehr bewusst ist, dass wir hier eine individuell, für uns gefilterte Realität vorgesetzt bekommen: Nicht wir entscheiden, was uns gezeigt und was uns nicht gezeigt wird. Das System entscheidet. Entlang von Faktoren, die uns nicht bewusst sind und die wir in der Konsequenz auch nicht bewusst wählen. Dasselbe gilt für Facebook: Es ist ein komplexer Algorithmus namens Edge Rank, der darüber entscheidet, was in unserem Newsfeed angezeigt wird. Und mit etwas Pech merken wir erst sehr spät, dass uns Facebook die Posts der besten Freundin vorenthalten hat.

Wenn zwei Personen denselben Begriff suchen, bekommen sie vollkommen unterschiedliche Ergebnisse.

Die Algorithmen-Ethik will vor allem eines: Transparenz. Eine Hinweispflicht, wenn Filter oder sonstige Algorithmen eingesetzt werden und die Möglichkeit, diese Filter individuell anzupassen oder eben auch mal zu umgehen. Abzuschalten. Diese Forderungen wurden auch im Panel “Algorithmus-Ethik” auf der re:publica besprochen, einige Wochen bevor Edward Snowden die Datenauswertungsmaschine “Prism” enthüllte. Mercedes Bunz, ehemalige Technologiereporterin des Guardian und Leiterin des Hybrid Publishing Labs an der Leuphana Universität, war Teil dieses Panels. 2012 veröffentlichte sie ihr Buch  „Die stille Revolution. Wie Algorithmen Wissen, Arbeit, Öffentlichkeit und Politik verändern, ohne dabei viel Lärm zu machen“. Sie war so nett, uns im Anschluss an die re:publica in einem Interview ein paar Fragen zu beantworten.

Mercedes Bunz: „Wir brauchen aufmerksame Bürger.“

Foto: Claudia Burger

Foto: Claudia Burger

Mercedes, um mit den riesigen Datenmengen umgehen zu können, brauchen wir Algorithmen. Werden wir durch diese Filter entmündigt? Oder ist es nur eine Verschiebung von klassischen Institutionen hin zu neuen?

Man sollte beide miteinander verschränken. Also Algorithmen mit ihren Geodaten bemühen, aber vielleicht auch ganz einfach Einheimische befragen oder ihre Freunde. Wer sein Gehirn bei der Benutzung von Google abgibt und denkt, er lernt jetzt wirklich das Wichtigste, macht einen Fehler. Das Problem ist, dass der kritische Umgang mit digitalen Medien nicht gelernt wird, in der Schule zum Beispiel. Unser Diskurs ist da etwas extrem: Man lehnt die digitalen Medien ab. Oder man findet sie wahnsinnig toll. Hier wären mal ein paar mehr Grautöne dringend angesagt.

 

Die technologische Entwicklung hat sicherlich ein Eigenleben, aber wir können sehr wohl gegenwirken und eine gestaltende Rolle einnehmen – was du auch forderst. Was sind deiner Meinung nach die Voraussetzungen dafür, um mitgestalten zu können? Wie fängt man an?

Rechner auf und ausprobiert. Das beginnt dabei, Google zu lernen, geht darüber mal wirklich zu verstehen, was ein Programm alles außer der normalen Voreinstellung so kann, und endet beim Programmieren, das wirklich einfacher ist, als jede Fremdsprache! Ich hätte auch nichts dagegen, wenn in der Schule alle mal lernen, ein Rasperry Pi zu programmieren. Danach hat man jede Angst vor dem Computer verloren.

 

Im Panel zur Algorithmenethik auf der re:publica hast du den Begriff einer “kritischen Programmierung” verwendet. Kannst du erläutern, was du damit meintest?

Wenn ich mich richtig erinnere, haben wir mit kritische Programmierung angesprochen, dass in den Code immer bestimmte Annahmen einfließen. Und das sind Entscheidungen, die im Grunde viel bewusster gefällt werden müssen. Vor allem, wenn es sich um sensible Bereiche wie berufliches Weiterkommen oder den Gesundheitsbereich handelt. Wenn algorithmische Berechnungen einem dabei helfen, komplexe Zusammenhänge zu bewältigen, muss diese Berechnung von Transparenz begleitet werden. Es gibt aber auch bereits verschiedentliche Ansätze, den Einsatz von Algorithmen kritisch zu analysieren. Wer sich da weiter informieren will sollte da zum Beispiel einmal nach “Matthew Fuller” und “Software Studies” suchen. In dem Panel gab es viele Beispiele dafür, wie Unternehmen wie Facebook und Google Algorithmen einsetzen, um Ergebnisse, Streams zu filtern – was nicht per se schlimm ist, im Gegenteil. Das Problem ist nur, dass wir uns der Mechanismen nicht bewusst sind und die Ergebnisse im schlimmsten Fall falsch interpretieren.

 

Wie könnte eine Kennzeichnungspflicht für Algorithmen aussehen? Brauchen wir Gesetze dafür?

Der deutsche Ruf nach Gesetzen. Nützen deutsche Gesetze etwas in einer globalen Welt? Ist das nicht sehr egoistisch? Ich denke, wenn da nicht mindestens auf EU-Ebene eine Regelung getroffen wird, geht das an vielen Firmen einfach vorbei. Zudem haben wir es nicht mit Produkten zu tun, die man mit einem Grünen Punkt versehen kann. Algorithmen sind viel zu dynamisch und werden im Beta-Zeitalter ständig verändert, bis der Punkt dafür abgesegnet ist, gibt es schon die nächste Version. Was wir brauchen, ist erstmal einen kritischen Diskurs darüber. Aufmerksame Bürger, die keine Angst vor Technologie haben, sondern sich ihr interessiert und kritisch annehmen. Mehr Whistleblower, die sich mit konkreten Fällen an Journalisten wenden, damit wir lernen, worauf wir achten müssen. Und Journalisten, die technisch interessiert sind und das auch fachlich einschätzen können.

Was wir brauchen sind aufmerksame Bürger, die keine Angst vor Technologie haben, sondern sich ihr kritisch annehmen. Und mehr Whistleblower.

Brauchen wir generell mehr Instanzen, die sich bewusst mit einer Ethik der Technologie auseinandersetzen? 

Wenn du mich fragst: Instanzen sind nur dafür da, damit der Rest der Bevölkerung seinen Kopf abschalten kann. Wir brauchen Instanzen, aber nicht, damit sie uns schützen. Sondern damit sie auf die wichtigen Punkte aufmerksam machen, um die wir uns dann gemeinsam kümmern. Öffentliches Anliegen, nannte man das mal.

 

 

Sicher konnte Mercedes Bunz, die sich bereits vor dem Bekanntwerden von Prism mehr “Whistleblowing” wünschte, die Ausmaße der aktuellen Enthüllungen nicht voraussehen. Aber vielleicht tragen diese Enthüllungen ja dazu bei, dass wir kritischer hinterfragen, welche Datenspuren wir hinterlassen und wie diese Daten von uns unbekannten Spurensuchern gelesen und genutzt werden. Es lohnt sich, den Blick hinter die schöne Benutzeroberfläche wagen. Mittelfristig wird diese Entwicklung auch für Unternehmen Risiko und Chance zugleich sein. Verbunden mit dem Appell, das Recht der Bevölkerung auf Transparenz und Privatheit  ernster zu nehmen. Doch die Früchte, die die ausufernden Möglichkeiten der Datenverknüpfung bieten, hängen verführerisch tief. Zuletzt ist Datenverarbeitung nicht nur eine technische oder ökonomische, sondern auch eine moralische Frage.

Artikel kommentieren

Ähnliche Beiträge