Vorüberlegungen zu einer Kritik der Algorithmen

Marcus Burkhardt

In: Jahrbuch Technikphilosophie 3 (2017): 55–67.

Das Schlagwort Big Data ist seit einigen Jahren in aller Munde. Hinterdiesem Hype steht das Versprechen, dass mit der Verfügbarkeit immergrößerer Datenbestände und der immer genaueren Vermessung der physischenund sozialen Welt eine neue Ära der Wissensproduktion anbricht. ChrisAnderson, der damalige Chefredakteur von Wired, brachte dies bereits imSommer 2008 ebenso plakativ wie polarisierend auf den Punkt: »Withenough data, the numbers speak for themselves«.1 Doch auch wenn Daten unter den Bedingungen von Big Data vermeintlich für sich selbst sprechen können, so sprechen sie nie aus sich heraus, sondern werden durch Algorithmen zum Sprechen gebracht.2

Infolgedessen gelangen jüngst auch Algorithmen als diejenigencomputertechnischen Verfahren, die Daten automatisiert in Wissenübersetzen und aus diesem Wissen Entscheidungen ableiten, verstärkt inden Fokus der öffentlichen sowie der geistes-, kultur- undsozialwissenschaftlichen Aufmerksamkeit. Mit einigem Unbehagen wirddabei nach der Macht von Algorithmen gefragt, die in der Tiefe der »unsichtbare[n] Maschine«3 Computer rechnen, analysieren,entscheiden und agieren. Algorithmen erscheinen hierbei als Black Boxes,die verbergen, wie und was genau durch sie gewusst bzw. nicht gewusstwird, und auf welche Weisen dieses Wissen Konsequenzen zeitigt. Denn dasWissen der Algorithmen bleibt selten bloß deskriptiv, sondern wird inEmpfehlungssystemen, bei Sicherheitskontrollen, beim Aktienhandel oderin Suchmaschinen performativ. Am Kreuzungspunkt von Analyse undEntscheidung regt sich der Verdacht, »dass mathematische Algorithmen,die wir nicht kennen und nicht verstehen, uns steuern«.4 Hieraufzielt die Debatte um die Macht der Algorithmen, welche im Folgendenzunächst als Symptom einer grundlegenden Verunsicherung gegenüberunserer technisierten Lebenswelt begriffen werden soll. In Anbetrachtdessen scheint eine kritische Auseinandersetzung mit Algorithmennotwendig. Aufgrund der operativen Unsichtbarkeit algorithmischerProzesse sind die möglichen Konturen einer solchen Kritik aber nochimmer unscharf. Im Folgenden sollen daher schlaglichtartig dreiHerausforderungen für eine künftige Kritik der Algorithmen benanntwerden, die sich im Spannungsfeld von Wissen und Nichtwissen situieren.Ausgehend von der Frage danach, was Algorithmen eigentlich sind, wird imersten Schritt problematisiert, worauf genau eine kritischeAuseinandersetzung mit Algorithmen abzielt. Hierauf aufbauend werden mitder Hinwendung zur Umweltlichkeit von Algorithmen im zweiten und derSozialität von Algorithmen im dritten Abschnitt zwei konkreteProblemkontexte beleuchtet, die sich in der gegenwärtigenalgorithmischen Kultur abzeichnen: die Forderung nach Transparenzeinerseits und die parametrisierende Metaisierung der menschlichenHandlungsmacht andererseits. Die Frage nach dem Nichtwissen, welchessich im Wissen über und Wissen durch Computertechnologien einnistet,drängt sich in den drei Annäherungen an eine Kritik der Algorithmendabei auf je unterschiedliche Weise immer wieder aufs Neue auf. Das Zieldes Beitrags ist es weniger, abschließende Antworten zu geben, alsvielmehr Fragen für eine künftige Kritik der Algorithmen zu formulieren.Denn eine kritisch-deskriptive Annäherung an die technologischeBedingung unserer von algorithmischen Systemen durchzogenen undstrukturierten Lebenswelt erfordert zuallererst eine Kritik deraktuellen Debatten über die Macht der Algorithmen.

Algorithmen zwischen abstrakten Verfahren und konkreten Technologien

In den Diskussionen über die Macht der Algorithmen bleibt gerade derBegriff des Algorithmus zumeist weithin unbestimmt. So merkt TedStriphas beispielsweise kritisch an: »It is as if the meaning of theword were [sic!] plainly apparent: it’s just procedural math, right,mostly statistical in nature and focused on large data sets?«5 AuchTarleton Gillespie weist auf die problematische Verwendung des Begriffshin, der seines Erachtens in technischen, sozial- undkulturwissenschaftlichen sowie öffentlichen Diskussionen jeunterschiedliche Bedeutungen anzunehmen scheint. Es sei als teile man

»common words«, aber spreche »different languages«.6 Jenseitstechnikwissenschaftlicher Diskurse wird der Begriff Gillespie zufolgezum einen häufig als Synekdoche verwendet, wobei Algorithmenparadigmatisch für das Ganze des computertechnischen Systems derVerzeichnung, Verrechnung und Steuerung von Dingen, Sachverhalten,Menschen stehen, d.h. für ein »socio-technical ensemble, part of afamily of authoritative systems for knowledge production ordecision-making«.7 Algorithmen erweisen sich dabei alsProjektionsfläche hinter der sich ein komplexes Gefüge von Technologien,Infrastrukturen sowie Praktiken ihrer Verfertigung, Veränderung undVerwendung verbirgt. Zum anderen dient der Verweis auf Algorithmen oftauch als »powerful talisman«,8 um Kritik abzuweisen. Angespielt wirdhierbei auf die vermeintliche Objektivität und Autorität vonAlgorithmen, welche der auf Mathematik, Quantifizierung und Automationberuhenden Funktionslogik von algorithmischen Verfahren attribuiertwird. Doch der Hinweis auf die Technizität des Technischen erweist sichgemeinhin als rhetorisches Täuschungsmanöver, wie Ted Nelson polemischherausgestellt hat: »[D]on’t fall for the word ›technology‹. It soundsdeterminate. It hides the fights and the alternatives. And mostly it’sintended to make you submissive.«9

Der skizzierte vieldeutige, unspezifische und instrumentalisierendeGebrauch des Worts Algorithmus könnte als Symptom eines problematischentechnischen Nichtwissens betrachtet werden, dem durch Aufklärung überdie präzise Bedeutung zu begegnen sei, die dem Begriff Algorithmus inder Informatik gegeben wird. Doch wie im Folgenden deutlich wird, vermagdie definitorische Klärung des Begriffs, die Algorithmen innewohnendeVieldeutigkeit nur partiell aufzulösen, da ihre Definition selbstfunktional unterbestimmt ist und Algorithmen ihre Funktion nie selbstverbürgen können. Was also sind Algorithmen aus technischer Sicht? Indem Standardwerk Introduction to Algorithms schlagen Cormen u.a.folgende Definition vor:

»[A]n algorithm is any well-defined computational procedure that takessome value, or set of values, as input and produces some value, or setof values, as output. An algorithm is thus a sequence of computationalsteps that transform the input into the output.«10

Algorithmen sind Cormen u.a. zufolge also wohldefinierte Verfahren derschrittweisen Übersetzung eines Ausgangszustands in einen Endzustand. ImVordergrund stehen dabei die Regeln, welche einen beliebigen, aberfesten Input in einen Output überführen. Das Verstehen des Input ist fürdie in Algorithmen formalisierten Verfahren irrelevant. In dieserHinsicht weist der Begriff des Algorithmus eine große Nähe zu SybilleKrämers Verständnis von Kulturtechniken auf, die dadurch charakterisiertsind, dass sie den rein operativen Umgang mit »symbolischen Welten«ermöglichen, »ohne Verstehen zu müssen«.11 Diese von Kulturtechnikenvollbrachte Entsemantisierungsleistung hat nach Ansicht Krämers zurFolge, dass »das Wissen, wie eine Aufgabe zu lösen ist, vom Wissen,warum diese Lösung ›funktioniert‹«, entkoppelt wird.12Kulturtechniken wohnt somit eine funktionale Dimension inne, die auchAlgorithmen attribuiert werden kann, wie Cormen u.a. ihrer Definitionhinzufügen:

»We can also view an algorithm as a tool for solving a well-specifiedcomputational problem. The statement of the problem specifies in generalterms the desired input/output relationship. The algorithm describes aspecific computational procedure for achieving that input/outputrelationship.«13

Durch die Festlegung einer erwünschten Input-Output-Beziehung erhaltenAlgorithmen eine spezifische Funktion und können infolgedessen alsProblemlösungsverfahren begriffen werden. Auch wenn diese instrumentelleSicht das technikwissenschaftliche Verständnis von Algorithmen weithindominiert, ist die Funktion dem Verfahren nicht inhärent, sondern wirddiesem zugeschrieben.14 Eben diese Erfahrung hat Malte Ziewitz in demExperiment des Entwurfs eines Algorithmus für einen Stadtrundganggemacht. Hierfür erfanden er und sein Begleiter eine relativ einfacheRegel, die ihnen an jedem Entscheidungspunkt eines Spaziergangs, d.h. anjeder Kreuzung vorgab, welchen Weg sie weitergehen müssen:

»[W]e had to come up with a tellable story for our walk. [...] Animportant part of the operation was thus to pose ourselves a problem,which we then claimed to solve with our algorithm [...]. We couldthen come up with a tellable story about the algorithm and our projectbegan to make sense«.15

Die Funktionen, die Algorithmen erfüllen, werden auf diese projiziert.Es sind kontingente Rationalisierungen der Input-Output-Verhältnisse,die durch algorithmische Verfahren hergestellt werden. Diese Einsichtmag bei Algorithmen vielleicht irritieren, denen eine relativ einfachemathematische Funktion zugeschrieben wird, wie z.B. die Multiplikationzweier Zahlen. Bedenkt man jedoch Funktionen, die keine objektivrichtige Lösung besitzen, sondern nur ein mehr oder weniger vagedefiniertes Ziel erreichen sollen, dann tritt diese Kontingenz deutlichzu Tage.16 Ein Beispiel hierfür sind die Ergebnislisten vonInternetsuchmaschinen, welche Links zu den »passendsten«, »besten« und

»relevantesten« Webseiten für eine Suchanfrage enthalten sollen. Woranaber Kriterien wie »Passung«, »Qualität« und »Relevanz« genau zubemessen sind, lässt sich nicht abschließend und eindeutig entscheiden.Dies zeigen nicht zuletzt auch die Debatten über mögliche Verzerrungenin Suchmaschinenergebnissen und damit einhergehend über die Macht derSuchmaschinenbetreiber.17

Der Mangel an eindeutigen, mathematisch formalisierbaren Kriterien kannauch nicht durch den Verweis auf die vermeintlich objektive Autoritätdes Algorithmus kompensiert werden. Ebenso wie die Funktion ist derenLegitimation Algorithmen nicht intrinsisch. An dieser Stelle zeigt sicheine weitere Parallele zu Krämers Begriff der Kulturtechnik: Verstandenals operative Verfahren können Kulturtechniken ihr Funktionieren nichtselbst begründen. Ihnen ist ein Rezeptewissen eingeschrieben, doch dasBegründungswissen bleibt Kulturtechniken notwendig extrinsisch: Es »trennt sich das Wissen, wie eine Aufgabe zu lösen ist, vom Wissen,warum diese Lösung ›funktioniert‹«.18 Dementsprechend können auchalgorithmische Verfahren ihr Funktionieren nicht selbst beweisen,sondern nur performativ zur Schau stellen, indem sie beispielsweise fürNutzer subjektiv nützliche Suchergebnisse liefern. Diese performativeSelbstlegitimation ist aber nicht über jeden Verdacht erhaben, da stetsgefragt werden kann, was trotz allem verborgen bleibt, d.h. welchepotenziell relevanten Ergebnisse Nutzer mit Websuchmaschinen nichtfinden können. Für eine Algorithmenkritik erweist sich das Wissen darum,was nicht durch Algorithmen gewusst werden kann, als zentral. Ebendieses Wissen ist den Verfahren aber notwendig äußerlich.

Die Logik des Verdachts und damit einhergehend die Frage derLegitimation berühren einen wichtigen Punkt der Debatte um die Macht derAlgorithmen. Sie sind eng mit der funktionalen Unbestimmtheit derprozeduralen Definition des Begriffs Algorithmus verwoben, die wiederumdas Symptom der charakteristischen Unbestimmtheit, Heterogenität undOffenheit des Computers als Medientechnologie ist. Dies aber erweistsich als eine Herausforderung für eine mögliche Kritik der Algorithmen.Denn der Computer »is a strange type of machine«,19 wie NoahWardrip-Fruin festgestellt hat. Sein Zweck besteht darin, offen fürZwecke zu sein, die ihm in Form von Programmen gegeben werden, welchedie operativen Verfahren von Algorithmen implementieren. Daher entziehtsich der Computer einer einfachen Definition: »Alles ist eins, und:nichts im Computer ist, was es ist«, wie auch Georg Tholenherausgestellt hat.20 Als programmierte Maschinen sind Computerhingegen auf spezifische Zwecke festgelegt. Folglich bewegt sich derComputer als Medientechnologie stets zwischen zweckoffenerProgrammierbarkeit und zweckhaftem Gebrauch: In Computern könnenprogrammierend nahezu alle Funktionen realisiert werden und alles, wasmit Computern getan wird, kann auf unterschiedliche Weise getanwerden.21 Der allgemeine Verweis auf Algorithmen in kritischenAuseinandersetzungen erweist sich infolgedessen als zu weit undunspezifisch. Nicht etwa, weil der Begriff nicht hinlänglich genaudefiniert wäre, sondern weil dieser einen nahezu universellenMöglichkeitsraum optionaler Verfahren aufspannt, dessen Offenheit derMöglichkeit einer kritischen Betrachtung entgegenläuft.22

Die Frage nach der Macht der Algorithmen lässt sich nicht losgelöst vonkonkreten Gebrauchskontexten beantworten, in denen stets partikularealgorithmische Verfahren eingesetzt werden. Eine Kritik der Algorithmenmuss daher von den kontingenten Gebrauchsformen des Computers ausgehenund ihn als programmierte Maschine betrachten, ohne dabei jedoch diepolitischen und ökonomischen Motive, praktischen Erwägungen sowieZufälle aus dem Blick zu verlieren, welche die Entwicklung von konkretenAnwendungen leiten und während der Entwicklung in diese eingeschriebenwerden. Insofern ist die generalisierende und abstrakte Redeweise vonAlgorithmen teilweise irreführend, da stets nur partikulare Algorithmenund die Weisen ihres Gebrauchs in spezifischen Kontexten in Frage stehenkönnen.

Tatsächlich sind es selten Algorithmen im Allgemeinen, sondern zumeistspezifische algorithmische Anwendungen, auf die die Frage nach der Machtder Algorithmen abzielt, wie z.B. der Hochfrequenzbörsenhandel, dasPredictive Policing, der Facebook News Feed, Twitter Trends etc.23Durch die generalisierende und undifferenzierte Redeweise vonAlgorithmen treten diese partikularen Gebrauchskontexte jedoch inaktuellen Diskussionen allzu schnell in den Hintergrund und verschwindenin der diskursiven Black Box des Algorithmus. Trotz dieserproblematischen diskursiven Gemengelage kann die Insistenz auf dasAlgorithmische als ein Indiz dafür genommen werden, wogegen sich in dengenannten Anwendungskontexten Unbehagen regt. Denn auch wenn diemedienphilosophische Frage nach Algorithmen an ihren Gebrauch inpartikularen Systemen zurückgebunden werden muss, benennt der Begriffzugleich eine spezifische Ebene, die es in den Blick zu nehmen gilt:jene Ebene der operativen Verfahrenslogiken der Kalkulation von Wissenund des Treffens von Entscheidungen, die in digital-technischen Systemenoperativ werden. Infolgedessen kann der Fokus einer Kritik derAlgorithmen weder auf Algorithmen im Allgemeinen liegen, noch aufsämtlichen Algorithmen, die in einer partikularen Anwendung am Werksind. Die Sorge, die in der Debatte über die Macht der Algorithmen zumAusdruck kommt, richtet sich vielmehr auf spezifische Verarbeitungs-,Verrechnungs- und Entscheidungslogiken, die in partikularen Anwendungenam Werk sind und die eine gesellschaftliche und kulturelle Relevanzentfalten, weil sie sich, so die Vermutung, in unsere Lebenswelteinschreiben und diese strukturieren. Eine Kritik der Algorithmen musses sich zur Aufgabe machen, diese algorithmischen Logiken präzise zubenennen und zu analysieren, auf welche Weise und in welchem MaßAlgorithmen strukturierend in unsere Lebenswelt eingreifen.

Operative Unsichtbarkeit und konstitutive Intransparenz

Die genaue Analyse, wie sich spezifische algorithmische Verfahren inunsere Lebenswelt einschreiben, erweist sich als schwierig, daalgorithmische Systeme in ihrem operativen Vollzug unsichtbar bleibenund ihr genaues Funktionieren häufig der Geheimhaltung unterliegt, seienes die Ranking-Algorithmen von Google oder die Empfehlungsalgorithmenvon Amazon, Netflix, Tinder etc. oder die genauen Machine Learning undData Mining-Verfahren, die Geheimdienste einsetzen, um potenzielleGefahren zu identifizieren. Hinzu kommt, wie Katherine Hayles bereits2007 in einem Interview beschrieben hat, dass sich Computeranwendungenzunehmend »out of the box and into the environment« bewegen.24Infolgedessen herrscht oft nicht nur Unwissen über die genaueFunktionsweise von Algorithmen, sondern auch darüber, dass wir überhauptvon algorithmischen Systemen vermessen und analysiert werden, mit ihneninteragieren bzw. durch sie agieren. Eben dies hat sich einmal mehrgezeigt, als die softwaregesteuerte Manipulation von Abgastests inDieselmotoren von Volkswagen bekannt wurde.

Der Unsichtbarkeit und somit dem Unwissen über das Wirkenalgorithmischer Systeme in unserer Umwelt wird häufig mit der Forderungnach mehr Transparenz begegnet. Suchmaschinenbetreiber wie Google sollenbeispielsweise ihre Algorithmen offenlegen, damit systematischeVerzerrungen in der Bewertung von Webseiten sichtbar gemacht werdenkönnen und die Entscheidungen über Kriterien für Qualität, Relevanz undPassung nicht bloß hinter den verschlossenen Türen vonEntwicklungsabteilungen getroffen werden, sondern in einerdemokratischen Debatte: »As a first step we would demand full andtruthful disclosure of the underlying rules (or algorithms) governingindexing, searching, and prioritizing, stated in a way that ismeaningful to the majority of Web [sic!] users«.25 Doch Vorschlägewie diese verkennen einen weiteren wichtigen Punkt: AlgorithmischeSysteme durchdringen nicht nur zunehmend unsere Umwelt, sie entfaltenihre je eigene Umwelt oder, wie im Anschluss an Gilbert Simondon gesagtwerden kann, ein »assoziiertes Milieu«,26 welches als »Mediateur derRelation zwischen den hergestellten technischen Elementen und dennatürlichen Elementen [fungiert, M.B.], in deren Mitte das technischeWesen funktioniert«.27

Eine wichtige Wegmarke im Bereich der Suchmaschinenentwicklung stelltdie Erfindung des PageRank-Algorithmus Ende der 1990er Jahre dar,welcher den Erfolg von Google begründete.28 Auch wenn dieseRelevanzmetrik heute eine immer geringere Rolle spielt, besteht dasdurch den PageRank aufgespannte Funktionsschema fort, weshalb dieser zumAusgangspunkt genommen werden kann, um sich der Umweltlichkeitalgorithmischer Systeme anzunähern. Der PageRank beruht auf der Idee,dass Links eine Art Votum für die Qualität einer Webseite darstellen undsich aus der Linktopologie des Webs somit ein Popularitätsindex ableitenlässt, der zur Grundlage einer effizient funktionierenden Suchmaschinegemacht werden kann. Um die Popularität von Webseiten zu bewerten,müsste Google das Web jedoch zunächst duplizieren, denn nur hierdurchwar es möglich, das Web nicht als ein verteiltes Netzwerk zu betrachten,sondern als Ganzes zu berechnen. Jene Doublette des Web bildet alsassoziiertes Milieu der Suchmaschine die Grundlage der Kalkulation vonRelevanzwerten, die sich wiederum in den Rangfolgen der Ergebnislistenwiederspiegeln. Heute fließt eine große Zahl weiterer Signale in dieBerechnung des Webindex ein, wie z.B. das Suchverhalten von Nutzern,deren Selektionen von Ergebnissen, ihr Ort, der Kontext der Suche etc.,welche das assoziierte Milieu der Websuchmaschine rekonfiguriert und ihrweiteres Funktionieren absichern soll. Diese Ergänzungen, Änderungen undVariationen in den Bewertungskriterien von Suchmaschinen sind notwendig,da Google kein »objektives«, weil algorithmisch errechnetes Bild des Weberstellt, sondern ein Milieu aufspannt, das selbst wiederum Gegenstandtechnischer Operationen und algorithmischer Interventionen wird.

Das assoziierte Milieu von Websuchmaschinen gewährleistet somit nichtnur ihr Funktionieren, sondern birgt auch die Gefahr ihrer Dysfunktion.Denn da Suchmaschinen die Aufmerksamkeit von Nutzern lenken, habenDritte ein großes Interesse daran, ihre Angebote möglichst gut in denErgebnislisten von Google, Bing etc. zu positionieren. Mit deralgorithmischen Zuschreibung von Relevanz durch Suchmaschinen ist somitauch ihr soziotechnisches Pendant entstanden: Suchmaschinenoptimierung (SEO), d.h. die strategische Modifikation von Webangeboten, um einbesseres Suchmaschinenranking zu erreichen. SEO ist aus Sicht vonSuchmaschinenbetreibern aber keineswegs ausschließlich schlecht, sondernzum Teil sogar erwünscht. So stellt Google Webmastern selbstInformationen und »Leitfäden zur Erstellung qualitativ hochwertiger undsuchmaschinenfreundlicher Websites«29 zur Verfügung. Was genau eine ›gute‹ und ›suchmaschinenfreundliche‹ Webseite auszeichnet, wird abervon der Suchtechnologie und somit von den Softwareentwicklern bei Googledefiniert.30 Auf diese Weise schreibt sich die Suchmaschine in dasWeb ein und transformiert dieses.

Neben den erwünschten Optimierungspraktiken sind Suchmaschinenbetreiberjedoch stets auch mit gezielten Manipulationsversuchen konfrontiert,welche versuchen die Prinzipien der Zuschreibung von Relevanzstrategisch auszunutzen. Diese Formen der Suchmaschinenoptimierung sindumso erfolgreicher, je genauer die Suchmaschinenalgorithmen bekanntsind. Und so hat Eric Enge festgestellt: »[L]inks were a betterquality signal when the world didn’t know that they were a signal. But,those days are gone«.31 Die Offenlegung von Googles Algorithmen würdedemzufolge nicht zu einer Demokratisierung der Suche führen, sondern zurDysfunktion der Suchalgorithmen, da deren assoziiertes Milieu nun selbstzum Adressat algorithmischer Verfahren werden würde. Das Nichtwissenüber Algorithmen ist in diesem Kontext konstitutiv für derenFunktionieren. Die ständigen Justierungen, Anpassungen, Veränderungenund Updates, denen Suchalgorithmen unterliegen, sind ein Versuch diesesNichtwissen aufrecht zu erhalten, um zu sichern, dass Nutzer auchkünftig (mehr oder weniger leicht) finden können, was sie suchen. Demaber begegnen SEOs durch experimentelle Praktiken, mittels derer sieversuchen, die Änderungen am Algorithmus zu rekonstruieren.

Für eine Kritik der Algorithmen hat dies zur Folge, dass diese sich zwareinerseits an konkreten Gebrauchs- und Anwendungskontexten orientierenmuss, sie andererseits aber nicht zu den genauen Algorithmen vordringenkann, die von gesellschaftlichem und kulturellem Interesse sind. ImSpannungsfeld von Konkretheit und Abstraktion müssen Strategien gefundenwerden, um die Funktionsschemata algorithmischer Systeme theoretischbeschreiben und empirisch erforschen zu können. Im Vordergrund einersolchen Beschreibung sollten aber nicht ihre technischenFunktionsbedingungen stehen, sondern die Analyse der spezifischenUmweltlichkeit algorithmischer Systeme sowie die Frage danach, wie dieseunsere Lebenswelt rekonfigurieren. Das technische Nichtwissen, welchesdieser kritischen Annäherung an algorithmische Systeme innewohnt, giltes dabei nicht zu überwinden. Vielmehr sollte man es sich zum Zielmachen, dem Nichtwissen, in dessen Horizont algorithmische Systemefunktionieren, ein Wissen der abstrakten Funktionsschemata vonAlgorithmen ergänzend gegenüberzustellen. Es gilt also das Abstrakte imKonkreten zu suchen, wie Andrew Goffey in Anschluss an Deleuze undGuattari vorgeschlagen hat:

»[T]he problem with the purely formal conception of the algorithm asan abstract machine is not that it is abstract. It is that it is notabstract enough. That is to say, it is not capable of understanding theplace of the algorithm in a process which traverses machine andhuman.«32

Parametrisierendes Handeln

Die abstrakte Frage nach den Umwelten, die algorithmische Systemeentfalten, ist ein Versuch, sich der spezifischen Technizität unsereralgorithmisch durchwobenen Lebenswelt in einem konkretenGebrauchskontext anzunähern. Ebenso könnte aber auch die Frage nach derSozialität von Algorithmen aufgeworfen werden. Denn algorithmischeSysteme strukturieren nicht nur unsere Lebens- und Erfahrungsräume. Wiragieren ebenso mit ihnen und durch sie hindurch, Algorithmen agierenaber auch mit- und allzu häufig gegeneinander. Letzteres zeigt sichbeispielsweise an den bekannt gewordenen (Un)Fällen einer kuriosenPreisexplosion für antiquarische Bücher im Amazon Marketplace oder denimmer wieder vorkommenden Kursturbulenzen beim algorithmischenHochfrequenzbörsenhandel. Gemeinsam ist diesen Beispielen, dassverschiedene algorithmische Akteure miteinander in Interaktion getretensind. Aus dem Zusammenspiel ihrer Verfahrenslogiken sind dabeiunvorhergesehene und vielleicht sogar unvorhersehbare Effekteresultiert.

Im April 2011 berichtete der Biologe Michael Eisen beispielsweise aufseinem Blog über die bemerkenswerte Preisentwicklung für antiquarischeExemplare des entwicklungsbiologischen Standardwerks The Making of a Flyvon Peter Lawrence bei Amazon.33 Den Höhepunkt erreichte dieEntwicklung am 18. April 2011 als das Buch von einem Anbieter für23,698,655.93 US-Dollar angeboten wurde. Hierüber verwundertrekonstruierte Eisen diese kuriose Preisentwicklung und konnte zeigen,dass zwei Anbieter ihre tägliche Preisfestlegung wechselseitiganeinander orientierten. Während der Anbieter profnath Bücher stetsetwas billiger einpreiste als der Konkurrent bordeebook (Faktor0.99830), bot bordeebook seine Bücher immer 1.27059-mal teurer an alsprofnath. Dies führte zu einer Preisspirale, welche mit 23 MillionenDollar ihren Höhepunkt erreichte bevor der Anbieter profnath den Preisam 18. April 2011 auf 106.23 US-Dollar zurücksetzte.

Der irrationale Preisanstieg für The Making of a Fly ist Eisen zufolgedem Zusammenspiel zweier algorithmischer Systeme geschuldet, derenwechselseitige Interaktion nicht vorhergesehen wurde und denen ein »build-in sanity check«34 fehlte. Aufgrund der nur einmal täglichdurchgeführten Preisanpassung dauerte es in diesem Fall Wochen bis dieInteraktion der algorithmischen Akteure zu dem Preis von mehr als 23Millionen Dollar geführt hat. Im Fall des Hochfrequenzbörsenhandelskönnen diese Wechselwirkungen innerhalb weniger Minuten zu rapidenKurswechseln führen.35 Da Algorithmen hier automatisiert inMillisekunden Käufe und Verkäufe tätigen und somit in einem Zeithorizontagieren, der die menschliche Aufnahme-, Reaktions- undHandlungsfähigkeit unterschreitet, verschiebt sich die Rolle dermenschlichen Händler grundlegend. Jedoch auch wenn algorithmischeAkteure die eigentliche Kaufhandlung formal vollziehen, indem sieentscheiden zu welchem Zeitpunkt welches Angebot angenommen wird, werdenAktienbroker nicht gänzlich ihrer Handlungs- und Entscheidungsfähigkeitberaubt. Sie verschiebt sich vielmehr auf eine andere Ebene, auf der diemenschlichen Akteure strategisch Algorithmen auswählen und kombinierensowie die Parameter der vorzunehmenden Kaufhandlungen festlegen. DerBroker handelt somit nicht mehr direkt, sondern mittelbar durchalgorithmische Akteure, welche mit anderen algorithmischen AkteurenHandel treiben.

Die mit dieser Mediatisierung des Handels einhergehende Metaisierung derHandlungsmacht von Aktienbrokern wird begleitet von einer weiteren Formtechnischen Nichtwissens: dem Nichtwissen darüber, ob Kursentwicklungentatsächliche Marktentwicklungen widerspiegeln oder ob sie ausunerwünschten Interaktionen zwischen algorithmischen Akteurenresultieren. Aus diesem Grund institutionalisieren BörsenSicherheitsmechanismen, die – selbst wieder algorithmisch mediatisiert – als problematisch erachtete Entwicklungen im Handelsaufkommenüberwachen und gegebenenfalls den Handel aussetzen.36 In diesenSicherheitsvorkehrungen werden antizipierte, aber unerwünschte Unfälleeingeschrieben, d.h. sie enthalten Projektionen möglicher Zukünfte,deren Auftreten es zu verhindern gilt. Vor unvorhergesehenen Unfällenkönnen diese algorithmischen Sicherheitssysteme aber nicht schützen.Dieses Außerhalb der algorithmischen Antizipation, welches sich inmittenalgorithmischer Prozesse situiert und aus der unvorhergesehenenInteraktion algorithmischer Akteure resultiert, erweist sich nicht nurals Problem, sondern auch als Chance. Antoinette Rouvroy nimmt mit ihremKonzept der algorithmischen Gouvernementalität jene präemptiven, aufData Mining und Machine Learning-Verfahren basierenden Techniken derVoraussage, Vorwegnahme und der Kontrolle künftiger Risiken im Heute inden Blick, die gleichermaßen von Sicherheitsbehörden wie vonMarketingunternehmen, Banken und Versicherungen eingesetzt werden. WennRouvroy in diesem Zusammenhang kritisch vor der algorithmischenAbschließung unserer Zukunft warnt, dann verweist jenes Außen desalgorithmisch Vorherseh- und Regulierbaren auf eine offene Zukunft,deren Konturen zu beschreiben sich eine künftige Kritik der Algorithmenebenso zur Aufgabe machen muss.37


  1. Chris Anderson: »The End of Theory. The Data Deluge Makes the Scientific Method Obsolete«, in: Wired 16 (2008), Heft 7, S. 108–109, hier S. 108. ↩︎

  2. Dies hat Anderson selbst zugestanden: »We can throw the numbers into the biggest computing clusters the world has ever seen and let statistical algorithms find patterns where science cannot.«; ebd., S. 109. ↩︎

  3. Niklas Luhmann: Die Gesellschaft der Gesellschaft, Frankfurt am Main 1998, S. 304. ↩︎

  4. Günter M. Ziegler: »Die Macht der Algorithmen: Mathematik im Alltag«, in: Mitteilungen der Deutschen Mathematiker-Vereinigung 18 (2010), Heft 2, S. 100–102, hier S. 102. ↩︎

  5. Ted Striphas: »What is an Algorithm?«, in: Culture Digitally 2012, http://culturedigitally.org/2012/02/what-is-an-algorithm/ (aufgerufen: 1.1.2016). ↩︎

  6. Tarleton Gillespie: »Algorithm [draft] [#digitalkeywords]«, in: Culture Digitally 2014, http://culturedigitally.org/2014/06/algorithm-draft-digitalkeyword/ (aufgerufen: 1.4.2016). ↩︎

  7. Ebd. ↩︎

  8. Ebd. ↩︎

  9. Theodor H. Nelson: Geeks Bearing Gifts. How the computer world got this way, Sausalito 2009, S. 196. ↩︎

  10. Thomas H. Cormen u.a.: Introduction to Algorithms, Cambridge 2001, S. 5. ↩︎

  11. Sybille Krämer: »›Schriftbildlichkeit‹ oder: Über eine (fast) vergessene Dimension der Schrift«, in: Sybille Krämer und Horst Bredekamp (Hg.): Bild, Schrift, Zahl, München 2003, S. 157–176, hier S. 169f. ↩︎

  12. Ebd., S. 170. ↩︎

  13. Cormen u.a.: Introduction to Algorithms, a.a.O., S. 5. ↩︎

  14. Die Dominanz der instrumentellen Sicht auf Algorithmen zeigt sich beispielsweise an folgender dem Lexikon der Informatik entnommenen Definition: »Problemlösungsverfahren mittels einer endlichen Folge von eindeutig bestimmten und tatsächlich durchführbaren Teilhandlungen«; Peter Fischer und Peter Hofer: Lexikon der Informatik, Berlin 2008, S.32. ↩︎

  15. Malte Ziewitz: »How to think about an algorithm. Notes from a not quite random walk, Discussion paper Symposium “Knowledge Machines between Freedom and Control«, 2011, http://zwtz.org/files /ziewitz_algorithm.pdf (aufgerufen: 30.5.2016). ↩︎

  16. Die Unterscheidung zwischen eindeutig lösbaren Problemen und vage definierten Zielen verdanke ich Gillespie: »Algorithm [draft] [#digitalkeywords]«, a.a.O. ↩︎

  17. Eine Rekonstruktion der Debatte über die Macht von Suchmaschinen findet sich in: Theo Röhle: Der Google-Komplex. Über Macht im Zeitalter des Internets, Bielefeld 2010. Siehe weiterführend auch die Beiträge in dem Sammelband: Konrad Becker und Felix Stalder (Hg.): Deep Search. Politik des Suchens jenseits von Google, Innsbruck 2009. ↩︎

  18. Krämer: »›Schriftbildlichkeit‹«, a.a.O., S. 170. ↩︎

  19. Noah Wardrip-Fruin: Expressive Processing. Digital Fictions, Computer Games, and Software Studies, Cambridge 2009, S. 1. ↩︎

  20. Georg Christoph Tholen: Die Zäsur der Medien. Kulturphilosophische Konturen, Frankfurt am Main 2002, S. 43. ↩︎

  21. Die Programmierbarkeit von Computern hat durchaus Grenzen. So gibt es Funktionen, die Computer nie erfüllen werden können. Ein Beispiel dafür ist als Halteproblem bekannt: Es kann keinen Algorithmus geben, der es Computern ermöglicht zu entscheiden, ob ein anderer Algorithmus nach endlich vielen Schritten anhält oder ob er in eine Endlosschleife gerät. Diesem Problem hat sich Alan Turing mit seinem Gedankenexperiment einer Papiermaschine gewidmet, die noch immer als prototypisches Modell des Computers gilt. Die Auslotung der Grenze des algorithmisch Berechenbaren steht somit am Anfang der Entwicklung des Computers. Siehe Alan M. Turing: »On Computable Numbers with an Application to the Entscheidungsproblem«, in: Proceedings of the London Mathematical Society 42 (1937), Heft 2, S. 230–265. ↩︎

  22. Es sei angemerkt, dass die formale Definition des Begriffs Algorithmus selbst in der Informatik nicht unumstritten ist. In diesem Zusammenhang bezweifelt der theoretische Informatiker Yuri Gurevich sogar, dass eine einheitliche und abschließende Definition von Algorithmen möglich sei. Im Anschluss an einen Vorschlag von Andreas Blass vergleicht er Algorithmen mit Zahlen: »Many kinds of numbers have been introduced throughout history: positive integers, natural numbers, rationals, reals, complex numbers, quaternions, infinite cardinals, infinite ordinals, etc. Similarly many kinds of algorithms have been introduced. [...] The notions of numbers and algorithms have not crystallized (and maybe never will) to support rigorous definitions«; Yuri Gurevich: »What is an Algorithm?«, in: Microsoft Research Technical Report MSR-TR-2011-116, 2011, https://www.microsoft.com/en-us/research/wp-content/uploads/201 6/02/209-3.pdf (aufgerufen: 30.5.16), S. 4. Für die vorliegende Diskussion ist diese Begriffsdebatte in der Informatik nebensächlich. ↩︎

  23. Siehe hierzu exemplarisch die Webseite der Initiative Algorithm Watch, http://algorithmwatch.org/ (aufgerufen: 28.6.2015). ↩︎

  24. Nicholas Gane u.a.: »Ubiquitous Surveillance. Interview with Katherine Hayles«, in: Theory, Culture & Society 24 (2007), Heft 7–8, S. 349–358, hier S. 349. ↩︎

  25. Lucas D. Introna und Helen Nissenbaum: »Shaping the Web. Why the Politics of Search Engines Matters«, in: The Information Society 16 (2000), Heft 3, S. 169–185, hier S. 181. ↩︎

  26. Gilbert Simondon, Die Existenzweise technischer Objekte, Zürich 2012, S. 53. ↩︎

  27. Ebd. ↩︎

  28. Siehe Sergey Brin und Lawrence Page: »The Anatomy of a Large-Scale Hypertextual Web Search Engine«, in: Computer Networks and ISDN Systems 30 (1998), S. 107–117. ↩︎

  29. Google, Google Webmasters, https://www.google.com/webmasters/ (aufgerufen: 3.3.2016). ↩︎

  30. Vgl. Röhle: Der Google-Komplex, a.a.O., S. 93ff. 31 ↩︎

  31. Eric Enge: »The End of Link Building as We’ve Known and Loved it«, in: Search Engine Watch 2012, http://searchenginewatch.com/article/2137556/The-End-of-Link-Building-as-Wev e-Known-and-Loved-it (aufgerufen 21.4.2014). ↩︎

  32. Andrew Goffey: »Algorithm«, in: Matthew Fuller (Hg.): Software Studies. A Lexicon, Cambridge 2008, S. 15–20, hier S. 18. ↩︎

  33. Michael Eisen: »Amazon’s $23,698,655.93 book about flies«, in: it is NOT junk 2011, http://www.michaeleisen.org/blog/?p=358 (aufgerufen: 3.1.2016). ↩︎

  34. Ebd. ↩︎

  35. Vgl. Frank Pasquale: The Black Box Society. The Secret Algorithms that Control Money and Information, Cambridge 2015, S. 128f. ↩︎

  36. Siehe hierzu exemplarisch Marc Lenglet: »Conflicting Codes and Codings. How Algorithmic Trading is Reshaping Financial Regulation«, in: Theory, Culture & Society 28 (2011), Heft 6, S. 44–66; Jakob Arnoldi: »Computer Algorithms, Market Manipulation and the Institutionalization of High Frequency Trading«, in: Theory, Culture & Society 33 (2016), Heft 1, S. 29– 52. ↩︎

  37. Vgl. Antoinette Rouvroy: »The end(s) of critique. Data behaviourism versus due process«, in: Mireille Hildebrandt und Katja de Vries (Hg.): Privacy, Due Process and the Computational Turn. The Philosophy of Law meets the Philosophy of Technology, Abingdon 2013, S. 143– 167, hier S. 159f ↩︎