re:publica 2018: Im Zeitalter der Algorithmen
Ein Wort ist an der re:publica 2018 in fast jeder Veranstaltung gefallen: Algorithmus. Dabei ist Europas grösste Internet-Konferenz, die alljährlich in Berlin stattfindet, alles andere als Treffpunkt für Entwickler. Aber der immense Einfluss von Algorithmen auf politische, wirtschaftliche und gesellschaftliche Entwicklungen ist inzwischen jedem bewusst, auch wenn er sie nicht selbst programmiert. Und das gibt Anlass zur Sorge, denn Algorithmen sind oft fehlerbehaftet, manipulierbar, diskriminierend.
«Algorithms are not neutral!» warnte etwa Wistleblowerin Chelsea Manning, die erstmals seit ihrer Begnadigung durch Barak Obama ausserhalb der USA auftrat. Der Stargast der diesjährigen re:publica appellierte an die Verantwortung von Entwicklern, die mit ihrer Arbeit über weit mehr entscheiden als nur über die Sortierung eines News Feeds oder die Einblendung von personalisierter Werbung. Chelsea warnte eindringlich davor, dass Big Data und die darauf basierenden Algorithmen innert Kürze zu einer totalen Überwachung führen werden, falls die Zivilgesellschaft nicht Widerstand leistet.
Dass Algorithmen unfehlbar sind, wollte auch Pandu Nayak, Vice President of Search bei Google, nicht behaupten. So habe der Algorithmus der Google-Suchmaschine nach wie vor Schwierigkeiten, Fake News zu erkennen. Das Probleme habe man nur teilweise in den Griff bekommen, indem der Algorithmus nun die Herkunft einer Nachricht (also die Page Authority) stärker gewichte. Zudem sieht Nayak einen grundlegenden Zielkonflikt: Google wolle eine pluralistische Gesellschaft mit Meinungsfreiheit bedienen – wenn Algorithmen jedoch die einzig richtige Antwort auf eine Suchanfragen liefern müssen, dann bleibt die Vielfalt der Standpunkte (Stichwort: Diversity) auf der Strecke.
Safiya Umoja Noble sieht in Algorithmen sogar eine Fortsetzung von Rassismus und Frauendiskriminierung, und sie spricht deshalb von Algorithms of Oppression. Ihr Untersuchungsgegenstand ist ebenfalls Google, und sie zeigte anhand der simplen Suchanfrage «back girls», wie die Resultate des Suchmaschinen-Monopolisten ein Bild von schwarzen Frauen zeichnet, das von jahrhundertealte Stereotypen geprägt ist.
Algorithmen sind aber nicht nur imperfekt oder durch die Vorurteile ihrer Entwickler geprägt – sie bieten auch ein erhebliches Potential für Manipulationen. Dies zeigte etwa Danah Boyd, Forscherin bei Microsoft Research, in ihrer Opening Keynote auf: Dank den Automatismen des Internets können auch kleine Gruppen und ihre Bots ein Thema im Netz derart pushen, dass sie irgendwann auch von den Mainstream-Medien aufgegriffen werden und so die gewünschte Reichweite erzielen. Dadurch gelingt es ihnen, breite Bevölkerungsschichten zu verunsichern, selbst wenn es um Themen geht, die an sich durch Fakten klar belegt sind (etwa der Holocaust oder die Klimaerwärmung).
Dass Mark Zuckerberg kürzlich wegen des Datenmissbrauchs durch Cambridge Analytica vor dem US-Kongress aussagen musste, hat sicher dazu beigetragen, dass mehr Menschen über Daten und Algorithmen nachdenken. Die re:publica hat aber gezeigt, dass der Facebook-Skandal nur die Spitze des Eisbergs darstellt und deshalb das Problem auch dadurch nicht gelöst ist, dass ausgerechnet heute bekannt wurde, dass Cambridge Analytica ihre Geschäftstätigkeit aufgibt. Und dabei wurde an der re:publica noch kaum über den fundamentalen Unterschied zwischen traditionellen Algorithmen (die von Menschen ausprogrammiert werden) und Künstlicher Intelligenz (die selbständig lernt) gesprochen.
Dein Kommentar
An Diskussion beteiligen?Hinterlasse uns Deinen Kommentar!