Wer sich im Netz bewegt, kommt nicht um Algorithmen herum, auch wenn diese für den Nutzer auf den ersten Blick nicht sichtbar sind. Dennoch werden jede Suchanfrage und jeder angeklickte Beitrag von Algorithmen registriert. Sie sammeln Daten und werten diese aus. Auf Grundlage dieser Informationen personalisieren sie die angezeigten Inhalte wie Werbung, Beiträge und Suchergebnisse. So bestimmt das Verhalten eines Nutzers, was ihm in Zukunft präsentiert wird. Unternehmen, die sich Algorithmen bedienen, betonen in erster Linie die Vorteile eines personalisierten Internets. Im Hinblick auf Datenschutz und Meinungsbildung sind Algorithmen allerdings kritisch zu betrachten.
Was steckt hinter einem Algorithmus?
Bei einem Algorithmus handelt es sich um eine Anwendung, die zur Lösung eines bestimmten Problems eingesetzt wird – ähnlich einer mathematischen Formel. Die Vorgehensweise wird dabei zuvor definiert, sodass die Lösungsfindung immer nach dem gleichen Muster abläuft. Algorithmen sind jedoch keine starren Gebilde. Vielmehr sind sie in der Lage, sich an plötzlich auftretende Umstände oder Veränderungen anzupassen. So werden Algorithmen bei Navigationssystemen eingesetzt, um nach bestimmten Kriterien die richtige Route zu ermitteln und im Falle einer Sperrung eine alternative Route zu berechnen. Beim Schachspielen können sie menschliche Gegner schlagen und auf Online-Dating-Portalen potenzielle Partner vorschlagen.
Big Data macht es möglich
Algorithmen bedienen sich einer schier unendlichen Menge an Nutzungsdaten. Klickt ein User ein bestimmtes Angebot oder einen Werbebanner an, wird dieser Klick durch Algorithmen registriert und die Schaltung zukünftiger Werbung automatisch an die Interessen des Nutzers angepasst. Große Onlineshops nutzen Algorithmen, um das Kaufverhalten ihrer Kunden zu analysieren und diese durch Produktvorschläge zum Kaufen zu animieren. Bei Werbung und Onlineshopping mag dies harmlos erscheinen. Mit seinem Buch „Filter Bubble“ machte Eli Pariser dagegen bereits 2011 auf die Gefahren von Big Data und Algorithmen aufmerksam. Der Internetaktivist weist vor allem auf das kritische Phänomen hin, dass auch Suchanfragen bei Google oder vorgeschlagene Inhalte auf Facebook durch Algorithmen beeinflusst werden. Dies führe über kurz oder lang dazu, dass Menschen nur noch mit Inhalten konfrontiert werden, die ihrer eigenen Meinung entsprechen oder nahekommen. Sie befinden sich also in einer sogenannten „Filterblase“, die den Blick über den Tellerrand erschwert.
Soziale Netzwerke als Gefahrenquellen
Gerade im Hinblick auf die politische Meinungsbildung rückten in den letzten Monaten vermehrt die sozialen Netzwerke in den Mittelpunkt der Aufmerksamkeit. Bezogen auf die Diskriminierung bestimmter Personengruppen, die Einstellung zu einem politischen Kandidaten oder die Wahrnehmung des Meinungsklimas zu einem bestimmten Thema, stellen Algorithmen eine Gefahr dar. Durch die personalisierte Auswahl an Beiträgen und Meinungen wird der Nutzer in seiner bisherigen Ansicht bestärkt. So erhält ein Facebook User nicht alle geteilten Inhalte seiner Freunde in chronologischer Reihenfolge, sondern eine von Facebook zuvor nach Relevanz sortierte Auswahl. Wie genau der Algorithmus funktioniert, dem der Newsfeed bei Facebook unterliegt, ist nicht bekannt. Erste Studien belegen jedoch, dass Facebook durch seine Filterung unter Umständen die Radikalisierung seiner Nutzer begünstigt. Denn wer bereits eine radikale Einstellung vertritt, fühlt sich durch die präsentierten Inhalte, die seiner Meinung entsprechen, noch zusätzlich bestätigt.
Algorithmen müssen kontrolliert werden
Längst ist das Problem von Algorithmen bekannt. Doch von einem politischen Einschreiten kann momentan noch nicht die Rede sein. Trotzdem tut sich etwas: Die deutsche Initiative „AlgorithmWatch“ hat es sich zum Ziel gesetzt, Algorithmen auf ihren Einfluss auf das menschliche Verhalten zu untersuchen. Explizit dann, wenn die Entscheidungsfindungsprozesse von Algorithmen zu ethischen Konflikten führen. Etwa, wenn Frauen aufgrund eines Algorithmus bei ihrer Jobsuche automatisch Stellenangebote angezeigt werden, die tendenziell schlechter bezahlt werden. Solche Algorithmen müssen nicht ursprünglich auf diese Weise programmiert worden sein. Vielmehr „lernt“ ein Algorithmus im Laufe der Zeit aufgrund sich wiederholender Muster dazu, wodurch im Zweifelsfall problematische Auswahlprozesse entstehen können. In diesem Fall gilt es, diese Algorithmen zu korrigieren. Darüber hinaus fordern immer mehr Spezialisten und Medientreibende mehr Kontrolle und Mitbestimmung und fördern damit den Diskurs über mögliche Regulationen.
Transparenz dort, wo sie schützt
Vielfach wird mehr Transparenz gefordert, wenn es um das Sammeln und Speichern von Daten geht. Bei der Programmierung von Algorithmen kann zu viel Transparenz aber auch bedeuten, dass Suchanfragen bis zu einem gewissen Maße manipuliert werden können. Man denke hier an die Suchmaschinenoptimierung bei Google, die nur dadurch möglich gemacht wird, dass Informationen über den Suchmaschinen-Algorithmus bekannt sind. In anderen Bereichen aber, in denen Personen automatisch bewertet werden, sollten die Kriterien, nach denen der Algorithmus arbeitet, einsichtig sein. So etwa bei der Vergabe von Arbeits- und Studienplätzen oder medizinischen Verfahren, beispielsweise zur Erkennung von Tumoren. Für die Zukunft scheinen Initiativen wie „AlgorithmWatch“ deshalb an Relevanz zu gewinnen. Zu überlegen wäre darüber hinaus, ob die stichprobenhafte Überprüfung von Algorithmen ein neues Berufsfeld darstellen könnte. In jedem Fall sollte sich jeder Internetnutzer der Beeinflussung seiner Suchergebnisse und der Personalisierung angezeigter Inhalte bewusst sein. Möglicherweise gilt es dafür, das Thema in den Medien und in Bildungseinrichtungen verstärkt einzubringen.
Foto: @pixabay