Interventionen in die Produktion algorithmischer Öffentlichkeiten. Recommender Systeme als Herausforderung für öffentlich-rechtliche Sendeanstalten

Nikolaus Pöchhacker, Marcus Burkhardt, Andrea Geipel, Jan-Hendrik Passoth

In: Kommunikation @ Gesellschaft 18 (2017): 5.1-5.25.

1 Einleitung

Medientechnische Innovationen eröffnen nicht nur neuartige Möglichkeiten der Artikulation, Kommunikation, Interaktion und Distribution, sondern irritieren stets auch das fragile Gefüge etablierter Medien. Im Zuge der fortschreitenden Digitalisierung und Vernetzung nahezu aller Bereiche des gesellschaftlichen und kulturellen Lebens stehen seit dem ausgehenden 20. Jahrhundert insbesondere die klassischen Massenmedien unter dem Druck neuer konkurrierender Angebote, aber auch sich verändernder Rezeptionsgewohnheiten und Publikumspräferenzen. Hiervon sind die öffentlich-rechtlichen Rundfunkanstalten in Deutschland nicht unberührt geblieben, deren Angebote längst nicht mehr nur mit denen privater Rundfunkanbieter oder der Printmedien konkurrieren.Videoplattformen wie YouTube und Streamingdienste wie Netflix, Amazon Prime Video und Spotify werden dabei häufig zugleich als Konkurrenten und Vorbilder betrachtet, da sie dem linearen Programm des Rundfunks erfolgreich ein non-lineares On-Demand Paradigma gegenüberstellen. Die wachsende Beliebtheit derartiger non-linearer Angebote verdeutlicht, dass sich das Konsumverhalten der Nutzerinnen, insbesondere der jüngeren Generation, zunehmend am flexiblen Angebot digitaler Medien, v.a. in Bezug auf Verbreitung und inhaltliche Gestaltung, orientiert.

Das Aufkommen von On-Demand Angeboten wird im Allgemeinen von einer Ermächtigungsrhetorik begleitet: Aus dem Programmkorsett des linearen Rundfunks befreit haben Nutzerinnen nunmehr die Möglichkeit aus der Fülle vorhandener Formate zu jeder Zeit diejenigen auszuwählen, die für sie von Interesse sind. On-Demand Angebote unterstützen ihre Nutzerinnen bei dieser Auswahlentscheidung zumeist durch Recommender Systeme, die auf Grundlage von explizit geäußerten oder implizit abgeleiteten Nutzerpräferenzen automatisch Vorschläge generieren, die Nutzerinnen als individualisierte Rezeptionsempfehlungen präsentiert werden. In der Aufmerksamkeitsökonomie des Web, die permanent und unentschieden zwischen der Klage über die Flut vorhandener Informationen und der Forderung nach mehr Informationen oszilliert, haben sich Recommender Systeme als überaus funktional erwiesen. Die algorithmisch auf Grundlage von Nutzerinnenund Nutzungsdaten kalkulierten Empfehlungen fungieren als vision machines (Rieder 2005: 29), welche eine Orientierung in der Vielfalt potenziell zugänglicher Inhalte ermöglichen. In dieser Hinsicht reduzieren Empfehlungssysteme die Komplexität von nutzerseitigen Auswahlentscheidungen, indem algorithmisch attribuierte Relevanzsetzungen mit ebenfalls algorithmisch attribuierten Präferenzsetzungen korreliert und hieraus Schlüsse gezogen werden.

An diesem Umstand regt sich zugleich immer wieder Kritik, die den Einfluss derartiger Systeme bei der Lenkung der Aufmerksamkeit von Nutzerinnen problematisiert. Durch ihre zentrale Position als Vermittler zwischen Informationen und Nutzerinnen sind Informationsgateways, wie z.B. Suchmaschinen, in der Lage, die präsentierten Ergebnisse zu beeinflussen (Lewandowski et al. 2014). Intransparente computertechnische Empfehlungssysteme, so das „alluring and compelling drama" (Neyland 2016: 51) der rezenten Kritik, gründen auf einer Ideologie der Personalisierung, die den Einschluss von Nutzerinnen in Filter Bubbles (Pariser 2012) oder Echo Chambers (Sunstein 2009) ihrer eigenen Meinungen und Präferenzen zur Konsequenz hat. Mit diesem Problem sehen sich insbesondere auch öffentlich-rechtliche Rundfunkanbieter in Deutschland konfrontiert, die algorithmische Empfehlungssysteme in ihre Online-Angebote integrieren wollen, um den sich wandelnden Rezeptionsgewohnheiten ihrer Zuschauerinnen mit einem zeitgemäßen und attraktiven non-linearen Rundfunkangebot zu begegnen (vgl. Helberger 2015).

Der folgende Beitrag diskutiert die komplexen technischen, institutionellen und gesellschaftlichen Aushandlungsprozesse, welche die Entwicklung einer Mediathek der Zukunft im Bayerischen Rundfunk (BR) begleiten. Die Beobachtungen und Überlegungen sind Zwischenresultate eines gemeinsam mit der Softwareentwicklungsabteilung des BR durchgeführten Projekts, welches die Implementierung einer neuen Online-Mediathek zum Ziel hat, die Nutzerinnen neben redaktionell kuratierten Inhalten auch algorithmisch personalisierte Empfehlungen präsentieren soll. Im Rahmen dieses interdisziplinären Projekts, das im Munich Center for Internet Research von der Bayerischen Staatsregierung gefördert wird, führen Beteiligte aus der Softwareentwicklung, Medien- und Kommunikationswissenschaften sowie den Science & Technology Studies in einem ethnographischen Zugang sozial- und kulturwissenschaftliche Forschung zur Rolle von Daten und Algorithmen auf der Grundlage von Beobachtungen, Interviews und Fokusgruppen durch. Sie haben auf der einen Seite im Sinne einer praxeologischen Auslegung die Herstellung eines kritischen Verständnisses algorithmischen Entscheidens zum Gegenstand. Auf der anderen Seite aber spielen die wissenschaftlichen Projektmitglieder die – immer vorläufigen – Zwischenergebnisse in all ihrer Kontingenz und Unabgeschlossenheit in einer kollaborativen Forschungshaltung in die Softwareentwicklung zurück: Anstelle von außen die Black Boxes unterschiedlicher Recommender Systeme zu untersuchen, beleuchten eben jene Wissenschaftlerinnen aus der Innenperspektive eines konkreten Entwicklungsprojekts, wie die für den Journalismus zentrale Frage der Relevanzsetzung (und das damit verbundene Legitimierungsproblem des öffentlich-rechtlichen Rundfunks) in Zeiten non-linearer und algorithmisch vermittelter Angebote neu aufgerollt bzw. verhandelt wird.

Im Spannungsfeld von journalistischen Qualitätskriterien, Publikumsinteressen, dem gesellschaftlichen Auftrag des öffentlich-rechtlichen Rundfunks und gewachsenen technischen Infrastrukturen werden im Zuge der Entwicklung der Mediathek organisationale Transformationsprozesse ebenso betrachtet wie die Frage, was informationelle Grundversorgung unter den Bedingungen algorithmischer Empfehlungssysteme bedeuten kann. Im Folgenden werden daher der Grundauftrag zur informationellen Grundversorgung sowie dessen Spannungsverhältnis zu Popularitätsindikatoren diskutiert und Wege aufgezeigt, wie man in einem algorithmisch vermittelten Medienumfeld Möglichkeiten der Intervention denken kann.

2 Informationelle Grundversorgung und der Programmauftrag des öffentlich-rechtlichen Rundfunks

Eckpfeiler des öffentlich-rechtlichen Rundfunksystems in Deutschland ist dessen gesellschaftlicher Auftrag, aus dem sich abstrakte Anforderungen an die Entwicklung einer Mediathek der Zukunft und darin implementierte Empfehlungsalgorithmen ableiten lassen. Bevor die Übersetzung dieses gesellschaftlichen Anspruchs in ein konkretes technisches System beschrieben und Interventionsmöglichkeiten diskutiert werden, sollen an dieser Stelle die juristischen Rahmenbedingungen des öffentlich-rechtlichen Rundfunks in Deutschland punktuell rekonstruiert werden. Hierbei zeigt sich, dass der gesellschaftliche Auftrag des öffentlich-rechtlichen Rundfunks das Resultat komplexer und kontinuierlicher Aushandlungsprozesse ist und dass sich die Spezifika seiner sozio-technischen Realisierung unter den Bedingungen medialer Transformationen auch immer wieder verschieben.

Ausgehend von den Erfahrungen vor und während des Zweiten Weltkriegs und der Rolle des Rundfunks als Propagandainstrument wurde die öffentlich-rechtliche Medienlandschaft Deutschlands von den Alliierten als dezentralisiertes und neutrales Rundfunksystem konzipiert und in der neu gegründeten Bundesrepublik realisiert. Die im Rundfunkstaatsvertrag festgeschriebenen Grundsätze der Objektivität und Unparteilichkeit sowie die Berücksichtigung der Meinungsvielfalt sollen dabei eine möglichst umfassende Berichterstattung gewährleisten und ein Ungleichgewicht bezüglich einer oder weniger Weltanschauungen verhindern (vgl. § 11 Abs. 2 RStV).

Dabei wird dem öffentlich-rechtlichen Rundfunk in Deutschland von der Politik sowie in der Rechtsprechung eine wesentliche demokratiesichernde Aufgabe zugesprochen. Denn indem Bürgerinnen ein möglichst objektives und der Vielfalt der Meinungen und Perspektiven adäquates Programmangebot präsentiert bekommen, ist eine freie und demokratische Meinungsund Willensbildung möglich. Dieser Anspruch spiegelt sich in der Idee bzw. dem Ideal einer informationellen Grundversorgung wieder, welches erstmals 1975 von Günter Herrmann, damals juristischer Direktor des WDR, formuliert wurde (Grassmuck 2014a).

Abgeleitet und rechtlich begründet wird der Programmauftrag aus dem deutschen Grundgesetz, genauer aus dem §5 des Grundgesetzes, der Grassmuck zufolge „Ausgangspunkt für alles Medienrecht ist" (2014b: 90). Neben dem Recht auf freie Meinungsäußerung sind hier die Pressefreiheit sowie die Programmfreiheit des Rundfunks verfassungsrechtlich verankert:

Jeder hat das Recht, seine Meinung in Wort, Schrift und Bild frei zu äußern und zu verbreiten und sich aus allgemein zugänglichen Quellen ungehindert zu unterrichten. Die Pressefreiheit und die Freiheit der Berichterstattung durch Rundfunk und Film werden gewährleistet. Eine Zensur findet nicht statt. (§ 5 Abs. 1 GG)

Die proklamierte Freiheit der Berichterstattung wurde seit in Kraft treten des Grundgesetzes in mehreren Verfahren und Urteilen des Bundesverfassungsgerichtes interpretiert und führte zu einer „schier unüberschaubaren Regelungstiefe [der] Institutionen Radio und Fernsehen" (Hagen 2013: 269). Aus der Verbindung der Programmfreiheit des Rundfunks mit dem Recht, sich aus allgemein zugänglichen Quellen zu unterrichten, leitet sich der Programmauftrag des öffentlich-rechtlichen Rundfunks ab. Das Bundesverfassungsgericht versteht diesen als eine Verpflichtung der Öffentlich-Rechtlichen, einen solchen ungehinderten Zugang zu ermöglichen.

Die Idee der Grundversorgung der Bevölkerung mit umfassenden Informationen wurde vom Bundesverfassungsgericht erstmals im Jahr 1986 in der sogenannten 4. Rundfunkentscheidung aufgegriffen (BVerfG 73, 118). Das Recht zur freien Berichterstattung wird dabei zugleich als eine Verpflichtung begriffen, wie auch in einer weiteren Entscheidung des Gerichts am 11. September 2007 erneut unterstrichen wurde:

Die Rundfunkfreiheit dient der freien, individuellen und öffentlichen Meinungsbildung. [...] Der in Art. 5 Abs. 1 Satz 2 GG enthaltene Auftrag zur Gewährleistung der Rundfunkfreiheit zielt auf eine Ordnung, die sicherstellt, dass die Vielfalt der bestehenden Meinungen im Rundfunk in möglichster Breite und Vollständigkeit Ausdruck findet (BVerfG, Urt. v. 11.09.2007, Rn. 115).

Dies soll nicht zuletzt durch eine Ausstrahlung aller – oder zumindest vieler – unterschiedlicher Positionen und Meinungen gewährleistet werden, um „einen umfassenden Überblick über das internationale, europäische, nationale und regionale Geschehen in allen wesentlichen Lebensbereichen zu geben" (§ 11 Abs. 1 RStV). Hierdurch soll der gesellschaftliche Zusammenhalt gestärkt und eine demokratische und freie Willensbildung der Bürgerinnen ermöglicht werden. Informationelle Grundversorgung zielt somit nicht nur auf die bloße allgemeine Verfügbarkeit von Rundfunkangeboten ab, sondern betrifft auch die inhaltliche Gestaltung des Programms.

Ein zentraler Aspekt ist dabei eben jene breite Versorgung der Bevölkerung mit Informationen, um so eine vorherrschende Meinungsmacht zu verhindern und die Vielfalt der präsentierten Informationen zu gewährleisten (Grassmuck 2014a). Zur Erfüllung des gesellschaftlichen Auftrags wird der öffentlich-rechtliche Rundfunk maßgeblich durch Rundfunkgebühren finanziert. Anders als private Rundfunkanbieter unterliegen die Öffentlich-Rechtlichen also nicht der Logik der Maximierung von Reichweite bzw. Marktanteilen und einer damit einhergehenden Gewinnmaximierung. Da die öffentlich-rechtlichen Sender somit keinem kommerziellen Programmdruck unterliegen, werden an diese zugleich höhere Anforderungen hinsichtlich der Breite des Programmangebots und der Sicherung gleichgewichtiger Vielfalt gestellt.1

Unter den Bedingungen der fortschreitenden Digitalisierung werden die Ansprüche an den öffentlich-rechtlichen Rundfunk neu ausgehandelt, nicht zuletzt da durch das Internet die traditionellen Grenzen zwischen Print- und Rundfunkmedien fließend sind und im Netz neue Logiken der Inhaltsvermittlung an Bedeutung gewinnen.2 Zugleich stellt die Zugänglichmachung von öffentlich-rechtlichen Programmangeboten in diesen digitalen Kommunikationsräumen eine Herausforderung für den Grundversorgungsauftrag dar. Bezüglich des verfassungsrechtlich auch für die Onlineangebote von öffentlich-rechtlichen Rundfunkanstalten vorgeschriebenen Vielfaltsziels äußerte der Bundesverfassungsgerichtshof bereits in einem Urteil von 2007 Bedenken:

Die neuen Technologien erlauben im Übrigen den Einsatz von Navigatoren und elektronischen Programmführern, deren Software ihrerseits zur Beeinflussung der Auswahlentscheidung von Rezipienten genutzt werden kann (BVerG, Urt. v. 11.09.2007, Rn. 118).

Auch in jüngeren Debatten wird immer wieder auf diese Problematik hingewiesen. So unterstreicht beispielsweise ein aktuelles Rechtsgutachten zwar einerseits die verfassungsrechtliche Notwendigkeit von Onlineangeboten des öffentlich-rechtlichen Rundfunks, warnt aber zugleich vor der Entstehung von Filter Bubbles oder Echo Chambers durch Vorschlagssysteme (Dörr et al. 2016). Aufgrund einer medientechnischen Rekonfiguration der Relation zwischen der Öffentlichkeit und medialen Angeboten ergeben sich gerade in diesem Bereich neue Herausforderungen für die Realisierung des Programmauftrags, welche es nötig machen, die Rolle des öffentlich-rechtlichen Rundfunks in der modernen Medienlandschaft zu überdenken (vgl. hierzu auch Grassmuck 2014a).

Diese neuen Logiken der Inhaltsvermittlung werden nicht zuletzt in Softwareentwicklungsabteilungen mitgestaltet und implizit oder explizit ausgehandelt. Vorschlagssysteme als algorithmische Vermittler von Medieninhalten nehmen in Bezug auf die Idee der informationellen Grundversorgung eine spezielle Rolle ein, da sie durch Methoden der Personalisierung spezifische Selektionskriterien auf das Medienangebot anwenden. Daraus resultiert eine Einschränkung des verfügbaren Medienangebots, welches in individualisierten Filter Bubbles resultiert. Im Folgenden werden daher die Herausforderungen von algorithmisch vermittelten Medieninhalten und deren eingeschriebene Logiken der Inhaltsselektion für die informationelle Grundversorgung erörtert.

#3 Algorithmische Öffentlichkeiten

Der im Programmauftrag artikulierte Anspruch eines vielfältigen, unvoreingenommenen und allgemein zugänglichen Rundfunkangebots erfüllt eine regulative und normierende Rahmungsfunktion für die journalistischen, redaktionellen und institutionellen Praktiken öffentlich-rechtlicher Rundfunkanbieter. In diesen Praktiken wird der abstrakte gesellschaftliche Auftrag in ein konkretes Programmangebot übersetzt. Die vertraglich festgeschriebenen und verfassungsrechtlich bestätigten Ziele der informationellen Grundversorgung fungieren dabei als gesellschaftliche Relevanzkriterien, die sich in die redaktionelle und journalistische Arbeit einschreiben. Hieraus resultiert im linearen Rundfunk ein Programmangebot, welches die Öffentlichkeit adressiert und sich zugleich an dieser orientiert. Die Medienanbieter erweitern ihr Angebot jedoch sukzessive auf den digitalen Raum. Angesichts algorithmisch vermittelter Medienangebote verändern sich dabei die Prozesse der Relevanzsetzung. Ausgehend von der Transformation der linearen Logik der Inhaltsvermittlung zu einer non-linearen ergeben sich neue Herausforderungen für die öffentlich-rechtlichen Sendeanstalten. Diese können jedoch nur benannt werden, indem die Mechanismen der Produktion von Öffentlichkeiten untersucht werden.

Wenn im Folgenden die Frage bzw. das Problem der Konstitution algorithmisch vermittelter Öffentlichkeiten adressiert werden soll, dann gilt es zunächst zu betrachten wie die Öffentlichkeit unter den Bedingungen klassischer linearer Rundfunkangebote als adressierbares Publikum konstituiert wird. Dabei weist die deutsche Sprache eine interessante etymologische Besonderheit auf, die dazu führt, dass Öffentlichkeit immer mitschwingt, wenn vom Publikum die Rede ist. Während das englische und französische Wort Audience immer auf die am Akt der Rezeption – genauer: des Zuhörens – Beteiligten bezogen ist und Public vor allem auf die Offenheit und Öffentlichkeit der Darstellung, meint die deutsche Version Publikum seit dem 18. Jahrhundert immer zugleich beides. Diese etymologische Anekdote ist bemerkenswert, da Audience und Public, d.h. das Publikum qua aktuelle Zuschauerinnen und das Publikum qua potentielle Öffentlichkeit unter massenmedialen Bedingungen nicht nur in ihrer Wortbedeutung, sondern auch soziotechnisch eng miteinander verwoben sind: Denn schon unter linearen Bedingungen konnten auf die Frage, wie sich ein konkretes Angebot an einer Öffentlichkeit orientieren kann, technisch, institutionell und praktisch niemals endgültige und verbindliche, sondern immer wieder aufs Neue ganz konkrete und vermittelnde Antworten gefunden werden.

Unter massenmedialen Bedingungen (der durch die Rundfunktechnik fehlenden Möglichkeit der Rückkopplung zwischen Rezeption und Angebot) konnte aus der regulativen und normierenden Kategorie „Öffentlichkeit" nur durch Hinzufügung einer immer komplexer ausgestalteten Konfiguration von Erhebungsmethoden, Auswertungsverfahren und standardisierten Messgrößen eine handhabbare und praktisch nutzbare Vorstellung vom Publikum werden (vgl. Wehner/Passoth 2012). Publikumsforschung spielt, um Michel Callons Interpretation eines Konzepts von John Austin aufzugreifen, bei der Produktion des Publikums eine performative Rolle (Callon 2008): sie erzeugt ein Publikum, von dem sie unterstellt, dass sie es nur beschreibt. Sie ist, in den Worten Donald MacKenzies, der Callons Performativitätskonzept in Bezug auf die Rolle ökonomischer Theorie und Forschung für die Produktion von Märkten verwendet und weiterentwickelt hat, eine „Engine, not a Camera" (MacKenzie 2006). Die Konturen des Publikums treten vor allem dadurch hervor, weil die Publikumsforschung es, um die schöne Formulierung von Ian Ang zu verwenden, so verzweifelt sucht (Ang 1991). Die Versuche seitens der Medienproduzenten, ein „taxonomisches Kollektiv" (Wehner 2008) namens Publikum zu produzieren, mit Hilfe dessen man sich an einer unterstellten Öffentlichkeit orientieren kann, lassen sich in verschiedenen historischen Momenten der Medienentwicklung beobachten: von den Anfängen der qualitativen Radioforschung in den 1920er Jahren über die standardisierten Haushaltsmessungen, wie sie Nielsen in den USA oder die GfK in Deutschland seit den 1970er Jahren zur Goldwährung der „Quote" entwickelt haben, bis zu den aktuellen Versuchen, adäquate Systeme für die Herausforderung von Medienkonvergenz und die Ausweitung der Rezeptionsmöglichkeiten durch mobile und internetbasierte Endgeräte zu finden (vgl. Wieser 2013). Ohne Publikumsforschung kein Publikum, weder als quantitativ vermessene Zuschauerinnen noch als Öffentlichkeit.

Mittels eines so konstruierten Publikums wird unter massenmedialen Bedingungen bestimmt, welche Formate gestärkt werden sollen, wie sich die Präsentation von Inhalten zu ändern hat, etc. Denn auch die öffentlich-rechtlichen Rundfunkanbieter müssen sich die Frage nach ihrer Reichweite stellen. Ein Programm, welches zwar eine breite Palette an Meinungen und Ansichten präsentiert, damit allerdings niemanden erreicht, hat den eigentlichen Zweck, nämlich den gesellschaftlichen Diskurs mitzugestalten, verfehlt. Auf diese Weise wird Popularität, vermittelt durch Publikumsforschung, immer wieder als Relevanzkriterium zur Programmgestaltung von den Redaktionen aufgenommen. Dies ist gut am Beispiel der jeweils im Frühjahr und Sommer durchgeführten Befragungen der AG Media-Analysen e.V. zu erkennen: Weil es gerade beim Radio keine sinnvollen Rückkopplungswege gibt, werden in Deutschland nach wie vor auf der Grundlage der groß angelegten telefonischen Befragungen Entscheidungen über die Vergabe von Frequenzen und über Zusammenlegungen, Umgestaltungen und Abschaffungen von Programmangeboten getroffen. Die in den USA üblichen alternativen „Radio Diaries" und der „Portable People Meter", ein wie ein Pager getragenes Gerät, das ins Radio-Programm eingebundene und kaum hörbare Signale aufzeichnet, sind weitere Beispiele für die soziotechnische Infrastruktur der Orientierung an Popularität, die für das klassische, lineare Programm in Stellung gebracht wurde.

Die konkrete Praxis der Programmierung eines öffentlich-rechtlichen Rundfunkangebots findet somit in einem Spannungsverhältnis von mindestens drei verschiedenen Relevanzdimensionen statt, welche sich in der Auswahl und Produktion von Beiträgen sowie der Zusammenstellung des Gesamtprogramms niederschlagen: Den Sendern muss nämlich dabei der Balanceakt zwischen populären Inhalten und redaktionell interessanten Mitteilungen gelingen (vgl. Fürst 2017). Darüber hinaus besteht bei den öffentlich-rechtlichen Rundfunkanbietern noch der vom Gesetzgeber formulierte Anspruch des Grundauftrags, den es zu berücksichtigen gilt. Ein Angebot des öffentlich-rechtlichen Rundfunks, welches nur entlang einer der Dimensionen ausgerichtet ist, würde sehr spezifische und damit nicht anschlussfähige Zugänge zu und Perspektiven auf die allgemeine Infosphäre eröffnen. In der Praxis überlagern sich freilich stets alle drei Dimensionen und werden miteinander verhandelt und gegeneinander bzw. miteinander abgewogen.

Welche Formate und Inhalte von den Programmplanerinnen in das stark begrenzte Korsett von 24 Stunden täglicher Sendezeit aufgenommen werden, ist das Ergebnis eben jener Abwägungen zwischen Popularität, redaktioneller Relevanz und dem Grundauftrag. Die lineare Logik des traditionellen Rundfunks erzeugt in diesem Sinne eine Verknappung von Sendezeit, welche eine begründete Auswahl von Inhalten notwendig macht. Dabei ist die zeitliche Dimension der Selektion zumindest noch in einem zweiten Aspekt von erheblicher Bedeutung für die Relevanzsetzung innerhalb des Programms. Aufgrund der linearen, d.h. vorgegebenen Zeitlichkeit der Abfolge der Inhalte sind spezifische Sendeplätze wertvoller als andere. Die Platzierung der Nachrichten und der Wettervorhersage vor dem Hauptabendprogramm ist keineswegs zufällig, sondern orientiert sich an den Lebensrhythmen der Zuschauerinnen. Der Programmplatz einer Sendung spiegelt demnach auch wieder, welche Bedeutung die Programmplanerinnen dieser Sendung geben. Folglich stellt die Programmgestaltung, d.h. die Selektion interessanter und relevanter Inhalte und deren Verteilung auf Sendeplätze bereits eine Ordnung des medialen Diskurses dar.

Irritiert werden diese etablierten Aushandlungsprozesse zwischen den unterschiedlichen Relevanzlogiken aktuell von einer immer stärkeren Orientierung der Medienanbieter in Richtung neue Medien und Internet. Denn: „Mediale Grundversorgung muss dort geleistet werden, wo Bürgerinnen und Bürger sich ihre Meinung bilden, also im Netz" (Grassmuck 2014b: 78). Dabei erzeugt die Verlagerung der Aufgaben öffentlich-rechtlicher Rundfunkanstalten ins Netz nicht nur ein Reichweitenproblem, sondern wirft auch die Frage nach der algorithmischen Vermittlung von Medieninhalten auf (Gillespie 2014). Die algorithmische und stark quantitativ getriebene Vermittlung von Inhalten muss sich also nun basierend auf einer neuen Logik der Zugänglichmachung von Inhalten im Dreieck von Popularität, redaktioneller Arbeit und Grundauftrag positionieren. Die oben dargestellten Aushandlungsprozesse zwischen unterschiedlichen Relevanzdimensionen in der redaktionellen und institutionellen Praxis des öffentlich-rechtlichen Rundfunks verschieben sich im Zuge der Etablierung neuer non-linearer Angebote somit auf eine neue Ebene: sie wandern in die Black Boxes computertechnischer Vorschlagssysteme, welche subsidiäre und lokale Bewertungsschemata erzeugen.

Ähnlich wie Redakteurinnen können auch algorithmische Systeme als cultural intermediaries (Bourdieu 1992) begriffen werden, die das Medienangebot auf ihre je eigene Weise kuratieren. Über diese Kuratierung, sprich diese unterschiedlichen Modi der Bewertung von einzelnen Beiträgen, werden Programmangebote zusammengestellt und so eine Verbindung zwischen den Zuschauerinnen bzw. Nutzerinnen und den Inhalten hergestellt. Sowohl Redakteurinnen als auch algorithmische Systeme stellen diese Verbindungen aufgrund einer eigenen Logik her (Beer/Burrows 2013) – der Algorithmus wird aufgrund seiner zentralen Vermittlungsrolle zu einem Infomediary (Morris 2015). Die Kuratierung der Inhalte durch den Algorithmus basiert nicht mehr auf einem abstrakten kulturellen Kapital, sondern auf einer Analyse von Ähnlichkeiten zwischen Nutzern. Die Mechanismen der Selektion dienen nicht mehr der sichtbaren Distinktion, wie dies bei cultural intermediaries der Fall ist, sondern der Verortung von Nutzerinnen in ausdifferenzierten Medienmilieus.

Während jedoch auch in die redaktionelle Arbeit Daten mit einfließen, um das Angebot an öffentliche Sehgewohnheiten anzupassen, passiert dies in algorithmischen und datenintensiven Systemen fluider und die Struktur der angesprochenen Öffentlichkeit wird variabler (Baumann 2000). Unentwegt werden von Anbietern Daten über die Nutzung der eigenen Plattform gesammelt. In den sozialen Medien sammelt man Daten über Freunde, Posts, betrachtete Artikel, angeklickte Werbung, etc.. Auf Medienplattformen landen Daten über angesehene Videos, Dauer des Besuchs der Plattform, Bewertung der Videos, welche Geräte zum Besuch der Plattform genutzt werden, etc. in dem persönlichen Profil der Nutzerinnen. Durch die Verwertung dieser Transaktionsdaten werden rekursive Datenströme erzeugt, indem die beobachteten bzw. gesetzten Auswahlkriterien der Nutzerinnen, z.B. beliebte Genres oder berechnete latente Eigenschaften wie „fröhliche Wissenschaft", durch Algorithmen in die Konstitution dieser Öffentlichkeiten zurückgespielt werden (Beer/Burrows 2013). Recommender Systeme entziehen den bisher bekannten Formen der redaktionellen und institutionellen Arbeit die Möglichkeit der Aus- und Verhandlung zwischen den verschiedenen Relevanzdimensionen – die vormals den Programmplanerinnen und Redakteurinnen vorbehaltene Zusammenstellung des Programms anhand multidimensionaler Bewertungen wird durch den Umbau der medialen Infrastruktur auf eine neue Ebene verschoben und einer festgeschriebenen algorithmischen Logik der Vermittlung unterworfen. Einmal programmiert, entwickelt die vermittelnde Software eine gewisse Trägheit, welche eine Verschiebung der Bewertungssystematiken nur schwer möglich macht. Ähnlich organisationalen Bewertungsprozessen, wird die algorithmische Logik der Inhaltsselektion und -distribution institutionalisiert und dadurch stabilisiert.

Während die Medienforschung bisher durch die Vermessung von einer repräsentativen Stichprobe ein Programm für eine als Einheit angesprochene Öffentlichkeit gestaltet hat, erlaubt die algorithmische Personalisierung die Zusammenstellung individueller Programmangebote. Die Zusammenstellung von Inhalten wird plötzlich nicht mehr auf der allgemeinen Ebene der redaktionellen Programmierung eines einheitlichen Programmangebots verhandelt, sondern verschiebt sich auf die Ebene der datengetriebenen und algorithmischen Infrastruktur. Zielt die Orientierung an Zielgruppen im traditionellen Rundfunkparadigma darauf ab, das gesamte Spektrum unterschiedlicher Interessenlagen im linearen Programm abzubilden, können Programmangebote im Zeitalter algorithmischer Öffentlichkeitsproduktion somit entsprechend den Interessen einzelner Zuschauerinnen zusammengestellt und als Empfehlungen in Mediatheken präsentiert werden. Dies erweist sich insofern als problematisch, als in vielen etablierten Vorschlagssystemen, z.B. im System von Netflix, eine Fokussierung der Relevanzsetzung von Inhalten auf der Grundlage von quantitativen Popularitätsindikatoren stattfindet und so zu einer einseitigen information diet (Kulshrestha et al. 2015) führt. Die Treffsicherheit der Inhaltsvorschläge, welche die Nutzerin hören bzw. sehen will ist bei popularitätsorientierten Recommender Systemen typischerweise sehr hoch, allerdings verschiebt die Privilegierung von Popularität andere Relevanzebenen, wie eben die gesellschaftliche oder demokratische Bedeutung, von diesen Systemen nach hinten.

Darüber hinaus besteht die Gefahr der Segregation bzw. Zersplitterung von Öffentlichkeiten, wenn die Auswahl von Algorithmen getroffen wird und ein Umschalten oft nicht möglich ist. So hat Gandy (2001) kritisch darauf hingewiesen, dass diese verschiedenen Öffentlichkeiten in dem Prozess der Quantifizierung erst festgeschrieben bzw. konstruiert werden, um dann einer quantitativen Logik der segregierten Popularität zu folgen. Und Holmberg et al. (2013) geben zu bedenken, dass die in Recommender Systemen zum Einsatz kommenden statistisch-algorithmischen Methoden parallele Öffentlichkeiten neu erschaffen und auf Dauer reproduzieren. Derart konstituierte algorithmische Parallelöffentlichkeiten stellen, so die allgemeine Kritik, ein Problem für die integrierende Wirkung von öffentlichen Medienanbietern dar. Die so entstehenden Filter Bubbles (Pariser 2012) oder Echo Chambers (Sunstein 2009) unterminieren die Rolle der Medienanstalten als Quelle umfassender und relevanter Information einer breiten Öffentlichkeit (siehe auch Beam 2014).

Wenn an dieser Stelle die Kritik an Recommender Systemen in den Vordergrund gerückt wurde, so geschah dies, um die Herausforderungen zu benennen, mit denen sich das aktuelle Entwicklungsprojekt einer Mediathek der Zukunft im Bayerischen Rundfunk konfrontiert sieht. Grundannahme dieses Projekts ist jedoch, dass der informationelle Grundversorgungsauftrag nicht zwingend im Widerspruch zur Schaffung eines zeitgemäßen Online-Angebots steht, welches den Nutzerinnen durch algorithmische Kuratierung einen gleichermaßen personalisierten wie vielfältigen Zugang zu den Rundfunkangeboten des Bayerischen Rundfunks eröffnet. Im vorliegenden Projekt wird zwischen Entwicklerinnen, Redaktionen und Programmdirektorinnen somit nicht ausgehandelt, ob Vorschlagssysteme gut oder schlecht sind, sondern wie ein solches System gestaltet werden muss, um dem gesellschaftlichen Anspruch ebenso zu genügen, wie den Ansprüchen von Nutzerinnen und Redakteurinnen. Folgt man diesen Praktiken des diversity by design (Helberger 2011), so zeigen sich auf unterschiedlichen Ebenen Gestaltungsmöglichkeiten, welche es erlauben, die Relevanzen von Staat und Redakteuren wieder ins Spiel zu bringen. Welche Formen der Recommender Algorithmen umgesetzt werden, welche Datenbestände genutzt werden können und welche Formen der Verdatung, sowohl der Inhalte als auch der Nutzerinnen, umgesetzt werden, bestimmen nicht zuletzt die Interaktionsmöglichkeiten in einer solchen Medienökologie.

Bevor auf die konkreten sozio-technischen Gestaltungsmöglichkeiten für eine Mediathek der Zukunft des Bayerischen Rundfunks eingegangen werden kann, gilt es die konzeptuellen Black Boxes aktuell verbreiteter Empfehlungsalgorithmen zu öffnen und die ihnen idealtypisch eingeschriebenen Logiken der Produktion algorithmischer Öffentlichkeiten zu beschreiben.

4 Into the black box

Während die Empfehlungssysteme von Netflix, Spotify & Co. Inhalte primär an deren Popularität innerhalb von Sub-Öffentlichkeiten messen, muss der BR als öffentlich-rechtliche Rundfunkanstalt sich der Herausforderung stellen, verschiedene Perspektiven auf Relevanz und deren Beziehungen zueinander in das System zu integrieren. Dabei zeigte sich im Rahmen des Entwicklungsprojekts relativ schnell, dass verschiedene algorithmische Empfehlungsverfahren unterschiedlichen Logiken der Relevanzzuschreibung und somit der Inhaltsdistribution folgen. Es gibt also nicht nur den einen algorithmischen Infomediary (Morris 2015); vielmehr werden die spezifischen Charakteristika der Öffentlichkeitsformierungen in der Entwicklung partikularer Empfehlungssysteme erst bestimmt.

Vorschlagssysteme stützen sich im Wesentlichen auf die Erzeugung von Profilen der Nutzerinnen, welche oft persönliche Daten, z.B. Alter, Geschlecht oder Wohnort, aber auch Daten über das Verhalten auf der Plattform enthalten. Das Ziel der Profilbildung ist es, heterogene Informationen über die Interessen und Präferenzen der Nutzerinnen zu sammeln, um daraus Vorschläge zu generieren. Interessen können direkt aus expliziten Bewertungen von den Inhalten sowie indirekt aus dem Nutzungsverhalten abgeleitet werden, z.B. wie viel Prozent eines Videos tatsächlich gesehen oder wie oft ein Video angeklickt wurde. Wie die explizit von Nutzerinnen artikulierten Präferenzen mit ihrer persönlichen Verhaltensbiographie zu einer Vorhersage des individuellen Geschmacks verbunden werden, ist jedoch von Verfahren zu Verfahren unterschiedlich. Die zwei am meisten verbreiteten idealtypischen Verfahren sind inhaltsbasierte Vorschlagssysteme und kollaborative Verfahren, welche im Folgenden näher beleuchtet werden sollen. Denn auch wenn in der Praxis beide Ansätze häufig miteinander kombiniert werden gilt es, deren jeweilige Stärken und Schwächen zunächst getrennt voneinander zu betrachten um die verschiedenen Logiken der Öffentlichkeitsformung und Inhaltsvermittlung freizulegen sowie Räume der Gestaltungsmöglichkeiten zu identifizieren.

4.1 Inhaltsbasierte Vorschlagssysteme

Inhaltsbasierte Vorschlagssysteme bzw. Verfahren des „content-based filtering" beruhen auf einer Ähnlichkeitsanalyse von Inhalten: auf der Grundlage von in der Vergangenheit konsumierter und positiv bewerteter Inhalte werden ähnliche Inhalte aus dem Gesamtangebot vorgeschlagen. Für die Kalkulation von Ähnlichkeiten müssen entweder die Inhalte direkt maschinell lesbar oder durch Metadaten hinreichend gut beschrieben sein. Im Fall von Videos können die einbezogenen Metadaten z.B. Folgendes umfassen: die Länge, eine Kurzbeschreibung, das Genre, eine Sammlung von deskriptiven Schlagworten, etc.. Unter Zuhilfenahme von Machine Learning Verfahren wird, basierend auf den Daten über die Inhalte sowie den explizit geäußerten und implizit abgeleiteten Präferenzen der Nutzerin, ein Vorhersagemodell entwickelt.

Die Erzeugung von Empfehlungen basiert bei dieser Methode ausschließlich auf den individuell konsumierten Inhalten und bildet damit ausgehend von dem eigenen Verhalten ein individuelles Informationsangebot. Auf diese Weise können stark mono-thematische Medienassemblagen entstehen – ein Problem, welches in der Fachliteratur auch over-specialization genannt wird (Lops et al. 2011). Wie diese inhaltsbasierten Informationsökologien im Einzelfall erstellt werden, ist aber, anders als diese Darstellung auf den ersten Blick vielleicht nahelegen könnte, in der Verantwortung zwischen Redaktionen bzw. Datenarbeiterinnen und Nutzerinnen aufgeteilt. Auf der einen Seite basiert die Zusammenstellung von Empfehlungen, wie beschrieben, auf dem individuellen Nutzungsverhalten der Nutzerin. Auf der anderen Seite bestimmen allerdings die Verdatungspraktiken der sozio-technischen Klassifizierungssysteme, welche Videos als ähnlich gelten. Die Kategorisierung bzw. die Beschreibung der Videos durch Schlagworte folgt seinerseits einer eigenen Logik und stellt Ähnlichkeiten auf der Ebene der Verschlagwortung erst her. Klassifizierungen sind niemals selbstevident, sondern in spezifische Verdatungs- und Beschreibungsregime und -rationaliäten, hier der Redaktion oder des Archivs, eingebettet (Bowker/Star 2000a).

Die Konstruktion verschiedener Öffentlichkeiten basiert bei diesen Verfahren also auf der komplexen Interaktion zwischen Datenarbeiterinnen, Nutzerinnen und dem algorithmischen System als Vermittler, welches die jeweiligen Praktiken durch die Berechnung von Ähnlichkeitsmatrizen aufeinander bezieht. Die interne Logik der Inhaltsbewertung und -produktion ist ein maßgeblicher Faktor für die Konstitution der verschiedenen Öffentlichkeiten und der spezifischen Form der Filter Bubbles.

4.2 Kollaboratives Filtern

Im Gegensatz zu inhaltsbasierten Vorschlagssystemen folgen Verfahren des kollaborativen Filterns einem anderen Ansatz. Anstatt inhaltliche Ähnlichkeiten in der persönlichen Historie konsumierter Inhalte zu suchen, werden in diesem Verfahren Vorschläge für die Einzelne aus dem Verhalten aller Nutzerinnen berechnet (Linden et al. 2003). Wie bei inhaltsbasierten Verfahren müssen beim kollaborativen Filtern ebenfalls Nutzerinnen und Inhalte zueinander in Beziehung gesetzt werden, um Vorschläge errechnen zu können. Dies passiert bei diesem Verfahren aber auf eine fundamental andere Weise. Anstatt Regelmäßigkeiten in den Eigenschaften der individuell konsumierten Inhalte zu suchen, wird nach Mustern und Clustern im Nutzungsverhalten aller Nutzerinnen sowie den explizit geäußerten und implizit abgeleiteten Präferenzbekundungen zu Inhalten – unabhängig von der Beschreibung durch sonstige Metadaten, wie Genre, Schlagwörter, etc. – gesucht. Dazu benötigt das System eine Matrix, welche alle expliziten und impliziten Bewertungen der Inhalte durch Nutzerinnen beinhaltet.

In der Literatur wird darauf hingewiesen, dass explizite Bewertungen, z.B. Sterne-Wertungen auf Amazon, eine höhere Aussagekraft aufweisen, allerdings auf diese Weise die Anzahl der Bewertungen meist zu niedrig ausfällt (vgl. Koren/Bell 2011). Dies stellt ein Problem für die Berechnung von Clustern dar, da die Verfügbarkeit von nur relativ wenigen Daten keine Rückschlüsse auf Ähnlichkeiten zwischen Nutzerinnen zulassen. Es wird daher des Öfteren implizites Feedback verwendet, z.B. ob und wann ein Video abgebrochen wurde. Dies wird als eine Bewertung des Videos herangezogen, um eine hohe Bewertungsdichte zu erreichen.

Diese Verfahren gehen davon aus, dass eine Ähnlichkeit von Bewertungsstrukturen aussagekräftiger ist als eine rein inhaltliche Fokussierung und dass auf diese Weise bei den kalkulierten Empfehlungen ein größeres Themenspektrum abgedeckt werden kann. Um die Vorhersage der Bewertungen zu errechnen gibt es verschiedene Möglichkeiten, wie den Neighborhood Approach oder Latent Factor Models. Der Neighborhood Approach vergleicht die Muster der Bewertungen aller Nutzerinnen und schlägt für die aktuelle Nutzerin jene Elemente vor, welche von besonders ähnlichen Nutzerinnen gut bewertet wurden. Latent Factor Models hingegen berechnen sogenannte latente Dimensionen der Datenmatrix, welche die gesammelten Daten besonders gut beschreiben. Anhand dieser latenten Faktoren werden Elemente vorgeschlagen, welche in dem errechneten Vektorraum nahe an der aktuellen Nutzerin positioniert sind. Welche inhaltlichen Eigenschaften die Auswahl determinieren, ist hierbei unbekannt. Trotz der sehr unterschiedlichen Ansätze ist diesen Verfahren jedoch gemein, dass sie sich auf die Bewertungen anderer Nutzerinnen stützen, um Vorhersagen zu treffen. Es handelt sich hierbei also um mathematisch errechnete Cluster von Präferenzsetzungen.

Diese Methode der Inhaltsvermittlung konstruiert fundamental andere Informationsökologien und stellt somit eine andere Basis für die Formierung von Öffentlichkeiten zur Verfügung, als dies inhaltsbasierte Verfahren tun. Hier formieren sich die Öffentlichkeiten anhand von Relevanzsetzungen im Publikum. Es wird im übertragenen Sinne darüber abgestimmt, welche Inhalte in einer spezifischen Filter Bubble inkludiert oder exkludiert werden. Diese Abstimmung basiert dabei nicht automatisch auf bewusst abgegebenen Stimmen, sondern bezieht sich potentiell auch auf implizite und abgeleitete Bewertungen. Der Infomediary setzt die Assemblage der Medien demnach aufgrund des Verhaltens von identifizierten Clustern zusammen. Es entstehen keine inhaltsgesteuerten Informationsökologien, sondern diese basieren auf dem Verhalten von Personen mit ähnlichen Interessen. Es werden nicht notwendigerweise mono-thematische Blasen erzeugt, da die Inhalte der vorgeschlagenen Beiträge für den Algorithmus nicht weiter von Belang sind. Ähnliche Verhaltensweisen führen zu einer Gruppierung homogener Akteure. Der Akt der Bewertung, implizit als auch explizit, bestimmt demnach, in welcher Öffentlichkeit man sich befindet.

Aufgrund der Orientierung an Bewertungsclustern verschiebt sich aber auch die Linie der Interaktionen anhand derer die Informationsökologie geformt wird. Die algorithmischen Vorschlagssysteme vermitteln nicht mehr nur zwischen Anbieterinnen und Nutzerinnen, sondern primär zwischen Nutzerinnen untereinander. Die Ähnlichkeitsmatrizen basieren nicht mehr auf redaktionell gestalteten Inhaltsbeschreibungen, sondern auf Bewertungen der Nutzerinnen. Das Verhalten anderer Nutzerinnen beeinflusst demnach maßgeblich, wie individuelle Vorschlagslisten gestaltet werden. Als Konsequenz formieren sich Öffentlichkeiten hierbei um populäre Formate oder aufkeimende Diskussionen in der Gesellschaft.

4.3 Logiken der Vermittlung

Die beiden vorgestellten Verfahren implementieren unterschiedliche Logiken der Mediation zwischen Nutzerinnen und Medienangebot. Die Rolle als Infomediary und die Weise, wie Medienassemblagen zusammengestellt werden, stehen in den beiden Ansätzen diametral zueinander. Können inhaltsbasierte Vorschlagssysteme als algorithmisch vermittelter Dialog zwischen Redaktionen und Nutzerinnen verstanden werden, zielt die Logik bei kollaborativen Verfahren auf die Analyse und Reproduktion von Verhaltensclustern ab. Die algorithmisch vermittelte Interaktion findet hier vornehmlich zwischen den Nutzerinnen statt.

Die Formierung von Öffentlichkeiten erzeugt bei beiden Verfahren sehr spezifische Herausforderungen in Bezug auf Diversität bzw. Vielfalt. Während inhaltsbasierte Verfahren eine thematische Isolierung einzelner Nutzerinnen nach sich ziehen, welche eine Abweichung von einmal festgestellten Präferenzen schwierig erscheinen lässt3, weisen kollaborative Verfahren eine potentiell größere thematische Breite auf. Diese wird jedoch durch die Privilegierung von Popularität bewirkt, welche eine Zersplitterung der Nutzerinnen in mehrere Gruppen mit vergleichbaren Medienpraktiken nach sich zieht. Die Vielfalt der Inhalte ist hierbei auf populäre Themen innerhalb einer Gruppe beschränkt. Es entsteht eine Form der mathematisch-digitalen sozialen Kontrolle, welche potentiell in der Lage ist die Selektion der Themen durch die errechnete Gruppenzugehörigkeit zu beeinflussen.

Diese Logiken inhaltsbasierter und kollaborativer Empfehlungssysteme sowie die mit ihnen einhergehenden Herausforderungen wurden hier sehr prototypisch beschrieben. Diese Verfahren weisen allerdings ein hohes Maß an Variabilität auf. Durch die Wahl spezifischer Ähnlichkeitsmaße, durch zugrunde gelegte Beschreibungsschemata von Inhalten und Erhebungsregime von Nutzerpräferenzen sowie durch die Anpassung von Parametern werden die Verfahren stets an die situativen Bedürfnisse angepasst und im Feld umgesetzt. Hinzu kommt, dass diese Verfahren oft miteinander kombiniert werden, um die Effekte des jeweils anderen Verfahrens auszubalancieren. Die genauen Auswirkungen der Öffentlichkeitskonstruktion und die Möglichkeiten der Gestaltung der algorithmischen Systeme in deren konkreter sozio-technischer Umwelt müssen daher situativ bestimmt und ausgestaltet werden.

5 Recommendations: Gestaltung von algorithmischen Systemen

Vor dem Hintergrund der in den vorangegangenen Abschnitten dargestellten gesellschaftlichen Anforderungen an den öffentlich-rechtlichen Rundfunk, der redaktionellen und institutionellen Aushandlungsprozesse zwischen verschiedenen Relevanzkriterien bei der Programmierung eines linearen Rundfunkangebots sowie der idealtypischen technischen Empfehlungsverfahren sollen abschließend die unterschiedlichen Gestaltungsspielräume eines öffentlich-rechtlichen Empfehlungsdienstes angesprochen werden. Die hier diskutierten Möglichkeiten und Ebenen der Gestaltung sind Zwischenresultate eines kollaborativen Prozesses zwischen Sozial- und Kulturwissenschaftlerinnen und Informatikerinnen des Projektes Mediatheken der Zukunft, welches die Implementierung einer neuen Online-Mediathek zum Ziel hat, die Nutzerinnen neben redaktionell kuratierten Inhalten auch algorithmisch personalisierte Empfehlungen präsentieren soll. Sie stützen sich auf Interviews mit Entwicklerinnen und Redakteurinnen, Fokusgruppen mit System- und Netzwerkplanerinnen und – nicht zuletzt – einer kollaborativen Ethnographie der wissenschaftlichen Projektmitarbeiterinnen als aktive Mitglieder des Entwicklungsteams.

Die Position, aus der das Thema daher hier diskutiert wird, ist folglich keine passive und distanzierte, sondern stammt aus der empirischen Mitte der Entwicklungsprozesse selbst. Die theoretischen Betrachtungen sind bereits ein Teil der empirischen Erhebung, und die empirischen Beobachtungen schon immer durch theoretische Denkgebäude eingerahmt. Das gilt im Übrigen ganz analog für beide Konfigurationen epistemischer Praxis: sozial- und kulturwissenschaftlich wie technikwissenschaftlich. In den Praktiken der Entwicklerinnen lassen sich also bereits die theoretischen Einflüsse der wissenschaftlichen Mitarbeiterinnen erkennen. Zugleich wurden abstrakte Konzepte am Widerstand der Realitäten – dies umfasst nicht zuletzt die beschriebenen Logiken und mathematischen Notwendigkeiten verschiedener algorithmischer Verfahren – erprobt und gegebenenfalls angepasst. Eine strikte Trennung zwischen Konzeption (in der sozial- und kulturwissenschaftliche Konzepte sich an der Strenge mathematischer Verfahren reiben) und Beobachtung (in der wiederum technikwissenschaftliche Konzepte und Argumente als Material auftauchen) hieße also sich selbst, und damit einen Teil der beobachteten Prozesse, aus dem sich aufspannenden Bild zu entfernen.

Die begleitende und kollaborative Erforschung der Implementierung eines konkreten non-linearen Angebots eröffnet eine Perspektive auf die verschiedenen Relevanzsysteme des öffentlich-rechtlichen Rundfunks im Allgemeinen und des BR im Besonderen. Dabei geraten die komplexen Aushandlungen von Relevanzkriterien ebenso in den Blick wie die Bruchstellen, Kontroversen und Spannungen, welche sich in diesem Prozess auftun. Denn bisher spielten sich die Aushandlungsprozesse von Relevanzen oft implizit und zwischen den verschiedenen organisatorischen Einheiten der Sendeanstalten ab. Durch die Verlagerung dieser Verhandlungen auf eine infrastrukturelle und datenorientierte Ebene verändern sich allerdings die Mechanismen und Prozesse der Bewertung von Inhalten. Die Zahl der Akteure, welche für eine solche Aushandlung und Balancierung von Relevanzen notwendig sind, hat sich erweitert und schließt jetzt auch Programmiererinnen, Data Scientists, Datenbankadministratorinnen, Webdesignerinnen und Netzwerktechnikerinnen mit ein, welche bisher nicht im Verdacht standen, journalistisch zu arbeiten.

Die Entwicklung einer neuen Mediathek mit Empfehlungsfunktionen erweist sich keineswegs als ein rein technisches Unterfangen, sondern ist eingebettet in ein weitverzweigtes Netzwerk von Praktiken und Informationssystemen. Im Falle des BR stellt sich dies als ein komplexes Zusammenspiel von mehreren hundert Redaktionen, einem digitalen Programmplanungs- system, einem Videoverwaltungssystem, den Mitarbeiterinnen im Archiv und der Software- entwicklungsabteilung dar, um nur ein paar Vertreterinnen zu nennen. Auf der digitalen Ebene wird diese heterogene Ansammlung von Akteuren durch ein zentrales Datenbussystem verbunden, welches die Datenflüsse zwischen den einzelnen Subsystemen koordiniert. An ihren Interaktionen und Schnittstellen kann man die Funktionsweise des Gesamtsystems und die funktionalen Eigenschaften der einzelnen Elemente dieses weit verzweigten Netzwerks verändern, z.B. durch neue Schnittstellen, Programme oder Arbeitspraktiken.

In einer frühen Konzeptionsphase der Mediathek wurde innerhalb des Projektteams mit verschiedenen Ansätzen experimentiert und die Vor- und Nachteile der jeweiligen algorithmischen Verfahren diskutiert und gegeneinander abgewogen. Hierbei stellte sich schnell heraus, dass ein Empfehlungssystem, welches sich auf nur eines der technischen Verfahren stützt, weder dem gesellschaftlichen Anspruch informationeller Grundversorgung noch den eigenen Qualitäts- und Innovationsansprüchen genügen würde. Als Konsequenz dieses kombinierten Ansatzes wurden gemeinsam mehrere soziale und technische Ansatzpunkte für eine Gestaltung non-linearer Medien identifiziert. Betrachtet man das Phänomen der veränderten Praktiken der Relevanzsetzung innerhalb von Recommender Systemen, ergeben sich auf mehreren Ebenen Gestaltungsmöglichkeiten, an denen der Anspruch gesellschaftlicher Relevanz bzw. das Ideal der Perspektivenpluralität in das System hineinverhandelt wird: die Ebene der Algorithmen, die Ebene der Daten und die Ebene des User Interfaces.

5.1 Algorithmische Ebene

Am offensichtlichsten und unmittelbarsten zeigen sich Gestaltungsmöglichkeiten im aktuellen Entwicklungsprozess auf der Ebene der Algorithmen selbst. Hier kann direkt Einfluss auf die Logik der Distribution von Medieninhalten genommen werden und die Entwicklerinnen haben den meisten Einfluss. Zwar muss sich die Formulierung algorithmischer Anweisungen an den Bedingungen der sozio-technischen Umwelt orientieren, aber es gibt doch einigen Spielraum für funktionale Variabilität in der algorithmischen Realisierung des Programmauftrags.

Die einfachste Möglichkeit die Vielfalt der selektierten Inhalte zu erhöhen, ist die Einführung von Zufallselementen – man erzeugt Lärm. Zufallselemente können auf unterschiedlichen Ebenen und mit verschiedenen Konsequenzen eingeführt werden: sei es, dass bei der Neuberechnung der Bewertungsmatrizen die Confidence4 in Bewertungen um einen Zufallswert ergänzt wird, sei es, dass innerhalb der Liste vorgeschlagener Elemente zufällig generierte Item-IDs auftauchen. Mit dieser Methode würde jeder Inhalt, unabhängig von der Bewertung durch die Nutzerinnen, eine Mindestchance bekommen in den jeweiligen Empfehlungen aufzutauchen und so die Möglichkeit eröffnen aus der Filter Bubble auszubrechen.

Die Entwicklung spezifischer Recommender Algorithmen wirft darüber hinaus die Frage auf, welche Merkmale der Nutzerinnen oder des Nutzungskontextes in die Berechnung von Vorschlagslisten mit einbezogen werden. Inhaltsbasierte Recommender Systeme können Aufrufparameter wie Zeit und Ort, d.h. den Kontext der Nutzung, miteinbeziehen. Diese sind einerseits kulturell wie konzeptionell hoch aufgeladen, ermöglichen aber auch eine Präsentation von Inhalten basierend auf den Alltagspraktiken der Nutzerinnen. Merkmale der Nutzerinnen, wie sie z.B. in neighborhood approaches verwendet werden um ähnliche Nutzerinnen zu identifizieren, können der Reproduktion von gesellschaftlich etablierten Unterschieden und Ungleichbehandlungen dienen, welche anderswo vehement bekämpft oder zumindest hinterfragt werden. Eine Produktion von Empfehlungslisten etwa basierend auf der Variable Geschlecht mag zwar auf den ersten Blick zielsicher erscheinen, reproduziert aber zugleich auch stereotype Rollenvorstellungen und Vorurteile und filtert basierend auf diesen impliziten Strukturen systematisch potentiell relevante Inhalte aus, die der Veränderung dieser Muster dienen könnten. Die algorithmische Zuversicht, die richtigen Inhalte zu präsentieren, ist auf einmal politisch stark aufgeladen. Der gesellschaftliche Kontext der ausgewählten Merkmale spielt besonders im Rahmen der Entwicklung der Mediathek eine wichtige Rolle. Dabei stellt z.B. das deutsche Datenschutzgesetz eine nicht zu unterschätzende Hürde für die Nutzung dieser personenbezogenen Daten dar – und das zu Recht.

Bei der Entwicklung der Mediathek waren die Bedeutung und Relevanz verschiedener Nutzerinnenattribute Gegenstand kontroverser Aushandlungsprozesse. Eine für die Entwicklerinnen nicht unwichtige Frage war, ob es rechtlich möglich ist, das Alter der Nutzerinnen in die Berechnung miteinzubeziehen. Dies hat mehrere Hintergründe. Zum einen stellt sich die berechtigte Frage, ob eine altersgemäße Präsentation der Inhalte einem Grundauftrag durch die bessere Treffsicherheit nicht sogar entgegenkommen kann. Kindersendungen werden von Programmplanerinnen nicht zufällig eher früher im Programm platziert. Zum anderen ist der BR auch an die Altersbeschränkungen gewisser Inhalte gebunden. Für dieses Problem wurde letzten Endes ein zeitgesteuerter Filter diskutiert, was die non-lineare Logik algorithmischer Systeme mit Elementen des linearen Rundfunks verbindet.

Eine weitere Möglichkeit, die Handlungsmuster von Algorithmen anzupassen, stellt die Verbindung der entstehenden Öffentlichkeiten über alternative Vorschlagslogiken dar. Während eine Nutzerin Teil eines Clusters von ähnlichen Nutzerinnen ist, kann die Software entsprechend reagieren und beliebte Inhalte anderer Öffentlichkeiten vorschlagen – folgend dem Muster: Menschen, die nicht so sind wie du, sehen diesen Beitrag. Dies würde eine Analyse von Inhalts- und Nutzerinnenclustern notwendig machen, damit die Software auch Vorschläge aus anderen thematischen Hotspots erstellen kann.

Das Entwicklungsteam der Mediathek thematisierte die Möglichkeit eines Recommender Systems, welches Vorschläge basierend auf einer Unähnlichkeit von Nutzerinnen und/oder Inhalten erstellt, schon in einer frühen Projektphase. Wie eine Auswertung eines internen Datensatzes über die Nutzung der bisherigen Mediathek zeigte, gibt es derzeit eine starke Konzentration auf eine geringe Zahl sehr populärer Programme – Dahoam is Dahoam ist hierbei sicher nur das bekannteste, aber auch aussagekräftigste Beispiel.5 Während die Methode des kollaborativen Filterings eine Durchmischung der Formate und Inhalte prinzipiell möglich macht, war es in diesem speziellen Fall schnell klar, dass die Streuung der Themengebiete auch hier notwendigerweise auf der Strecke bleiben würde. Die Daten wiesen auf sehr wenige alternative Öffentlichkeiten hin, womit ein Großteil der produzierten Inhalte nicht sichtbar werden würde. Eine mögliche diskutierte Lösung ist, Diversität nicht aufgrund unähnlicher Nutzerinnen zu produzieren, sondern unähnliche Inhalte heran zu ziehen. Auf diese Weise werden vorgeschlagene Inhalte wiederum sehr beliebig und spiegeln nicht notwendigerweise die aktuellen öffentlichen Debatten und Themenschwerpunkte wider. Daher wurde nach Möglichkeiten gesucht, die starke Konzentration zu umgehen, um doch eine genaue Vorhersage der Nutzerinnenpräferenzen zu gewährleisten, womit die Beliebigkeit der in die Vorschlagsliste eingefügten unähnlichen Elemente abgefedert würde. Diese wurde letzten Endes in der Realisierung eines parallel laufenden „Anti-Recommender Systems" gefunden: Eine eigene Vorschlagsliste, welche auf Inhalten basiert, die nicht dem eigenen Profil entsprechen.

Eine dritte Möglichkeit, Vielfalt und Varianz in die Empfehlungen einzuführen, besteht in der Gewichtung von Messdaten: Bewertungen bestimmter Inhalte werden vom Algorithmus stärker berücksichtigt als andere. So könnten Bewertungen von längerfristig interessanten Inhalten, wie Dokumentationen, stärker gewichtet werden als solche von tagesaktuellen Meldungen. Die Confidence beschreibt hierbei einen Parameter, mit dem der Algorithmus bestimmte Messwerte für die Berechnung einer optimierten Beschreibungsmatrix berücksichtigt. Je höher das Vertrauen in einen Messwert oder dessen Relevanz ist, umso genauer muss die Bewertung durch die Funktion des Algorithmus abgebildet werden. Dazu wurden zwischen Entwicklerinnen und Programmplanerinnen Möglichkeiten der unterschiedlichen Bewertung von Genres diskutiert. Je nachdem, welche Genres wichtiger für die Erfüllung des Programmauftrags scheinen, würden die Bewertungen um einen Genre-spezifischen Standardwert angepasst. Wie stark sich diese Möglichkeit auf die tatsächliche Durchmischung der Inhalte auswirken würde, ist noch nicht klar. Jedoch eröffnet sich dadurch ein Gestaltungsspielraum in der Zusammenstellung des non-linearen Programms. Denkt man diese Option weiter, so wird schnell klar, dass die Kopplung von Confidence und Genre seinerseits eine Verbindung der Datenebene und der algorithmischen Ebene darstellt.

5.2 Datenebene

Algorithmische Systeme im Allgemeinen und Recommender Systeme im Besonderen basieren vornehmlich auf der Verarbeitung von Daten. Vor diesem Hintergrund stellen sich Fragen nach einer integrierten und kohärenten Logik institutionalisierter Verdatungspraktiken, sowohl in Hinblick auf Inhalte als auch auf Nutzerinnen. Die Beschreibung der Inhalte durch Metadaten spiegelt im Falle der Mediathek die Logik des Medienanbieters wieder, welche sich innerhalb der Institution durch organisationale und technische Praktiken einschreibt und somit die Produktion von Vorschlagslisten beeinflussen kann. Dies eröffnet auf der Ebene der Datenhaltung und -bearbeitung zwei wesentliche Möglichkeiten der Gestaltung.

Erstens stellt sich die Frage nach den Klassifizierungsschemata. Aufgrund welcher Ähnlichkeiten von Inhalten und Nutzungsprofilen werden Metadaten, z.B. von Redakteurinnen, vergeben bzw. wie granular oder grob werden Inhalte mit eben jenen Attributen ausgestattet? Je gröber diese Klassifizierungen sind, desto größer werden die Cluster von ähnlichen Ergebnissen. Zweitens kann eine breite und sehr heterogene Vergabe von Datenattributen dazu führen, dass eine größere Varianz in der Auswahl von ähnlichen Inhalten zu finden ist. Zudem lassen sich Daten auch gezielt verändern. Eine Möglichkeit wäre es, Inhalte von besonderer Bedeutung mit Koordinaten in einem sehr populären Cluster zu versehen und auf diese Weise noise zu erzeugen. Hierfür muss zuvor eine genaue Analyse der Auswahlpraktiken geschehen, um sichtbar zu machen, welche Inhalte von den Nutzerinnen bevorzugt werden und auf welche Weise man neue Inhalte in der Datenmatrix, welche durch die Praktiken der Rezipientinnen gestaltet wird, platzieren kann.

Besonders die Transformation der bestehenden Kategorisierungssysteme stellte die Entwicklerinnen und Programmgestalterinnen vor Herausforderungen und wurde gemeinsam in mehreren Sitzungen ausgiebig diskutiert. Die bisher verwendeten Genres basierten auf einer gewachsenen Liste, welche aus den lokalen Beschreibungslogiken der Redaktionen entstanden ist. Auf Basis dieser impliziten und nur schwer nachzuvollziehenden Logiken entstand ein Kategoriensystem, welches unterschiedliche Bedürfnisse an einer zentralen Stelle, nämlich der Programmplanungsdatenbank, vereinte. Dies kann für die Entwicklung des Recommender Systems allerdings weitreichende Auswirkungen haben. Führt man eine Unterscheidung zwischen einem Schwank und einem Bayerischen Schwank ein? Wenn ja, erzeugt man auf der Datenebene eine Unterscheidung zwischen [Bayerisch | nicht Bayerisch], welche sich in inhaltsbasierten Vorschlagssystemen in unterschiedlichen Zusammensetzungen und in letzter Konsequenz in einer bayerischen und einer nicht-bayerischen Schwank-Öffentlichkeit niederschlagen könnte. Je genauer die Klassifizierungen sind, umso spezifischer werden auch die Informationsökologien: Man kann genauere Aussagen über die Präferenzen der Nutzerinnen treffen, reduziert aber zur selben Zeit die Menge der Inhalte, welche in den non-linearen Programmvorschlag inkludiert werden.

Die genannten Klassifizierungen stellen allerdings nicht nur gewachsene Beschreibungssysteme dar, sondern spiegeln auch die Strukturen innerhalb der Organisation, die Selbstverständnisse der einzelnen Redaktionen und deren Blick auf die Zuseherinnen wider. So findet sich in den Genrelisten auch die Unterscheidung zwischen Diskussion, Wirtshaus-Diskurs, Talk-Show und Talk-Runde. Genauso wie Bayerisch/nicht-Bayerisch wird auch hier eine Unterscheidung zwischen verschiedenen Diskussionsformaten gezogen, wobei am auffälligsten sicher der Wirtshaus-Diskurs ist. Dieser bedient eine sehr spezielle Form der Diskussionskultur, welche von den anderen abgegrenzt scheint.

Klassifiziert man nun Inhalte entsprechend dieses Kategorienschemas, erzeugt man sehr spezifische Öffentlichkeiten, welche sich um redaktionell gesetzte Themen drehen. Würde man sich entscheiden, eine alternative Klassifizierung für die Inhalte einzuführen, so hätte dies eine direkte Auswirkung auf die Funktion des Recommender Systems.6 Wenn man etwa Diskussion mit Wirtshaus-Diskurs und Talk-Show mit Talk-Runde zusammenlegt, würde man Öffentlichkeiten rund um Diskussionssendungen und Talk-Sendungen erschaffen und jede der Kategorien würde plötzlich mehr Elemente versammeln und damit die Teilöffentlichkeiten um weitere Elemente bereichern.

5.3 User Interface

Im linearen Angebot waren die Schnittstellen zwischen Nutzerinnen und Sendeanstalten klar definiert. Es gab genau ein Programm und die Platzierung der Inhalte entlang der Zeitachse war ein Indikator für die aus-verhandelte Relevanz von Inhalten. Das lineare Angebot ist damit auf die Abstimmung des Programms mit den täglichen Abläufen des Publikums angewiesen. Daraus ergibt sich die Sendezeit der Hauptnachrichten, meist vor dem Abendprogramm. Prominente Sendeplätze sind in einem nicht-linearen Angebot jedoch nicht mehr durch eine Zeitlichkeit, sondern durch eine Räumlichkeit, speziell die Platzierung auf dem Bildschirm, gekennzeichnet. Designerinnen von User Interfaces haben nicht erst seit Kurzem begonnen, wahrnehmungspsychologische Erkenntnisse in die Gestaltung von Softwareprodukten einfließen zu lassen. Die Frage, wie Inhalte auf der Website räumlich angeordnet werden, spielt dabei eine wichtige Rolle.

Im User Interface artikuliert sich aber nicht nur eine Relevanzzuschreibung auf Inhalte in Form ihrer räumlichen Platzierung, es strukturiert auch die Interaktion und Navigation der Nutzerinnen durch unterschiedliche Angebote. Werden klassisch kuratierte Inhalte etwa auf eine eigene Seite gestellt, welche möglicherweise erst nach zwei, drei Klicks erreichbar ist, so wird diese Form der Medienpräsentation für die Nutzerinnen weniger sichtbar gemacht. Der Aufwand und damit die Wahrscheinlichkeit diese Inhalte wahrzunehmen verändern sich stark, der Aufwand steigt, die Wahrscheinlichkeit sinkt.

Das Konzept der Mediathek sieht vor, die Vorschläge des Recommender Systems nicht unvermittelt oder isoliert vorzustellen, sondern im Rahmen einer umfassenden Präsentation der Inhalte einzubetten. Neben den Recommendations, einer Seite für aktuelle Meldungen, und speziell aufbereiteten Themenseiten, um nur ein paar Elemente zu nennen, soll an relativ prominenter Stelle ein Block mit Vorschlägen platziert werden. Diese Kategorie mit dem sprechenden Arbeitstitel „mal was anderes" soll die Nutzerinnen überraschen und dazu animieren, sich mit Inhalten, welche nicht ihrem Nutzungsprofil entsprechen, auseinanderzusetzen. Sie wird nicht auf eine neue Seite verschoben oder im Menü versteckt, sondern als Teil der Hauptseite integriert. Würde dieses „Anti-Recommender System" nicht diese Position bekommen, wäre die Funktionalität der Präsentation von alternativen Inhalten immer noch erfüllt, aber die Wirkung höchst wahrscheinlich eine wesentlich geringere.

6 Diskussion und Ausblick

Die bisherigen Ergebnisse lassen eine Reihe von Fragestellungen und Überlegungen in den Mittelpunkt rücken, deren Ausführung und Anschluss an die jeweiligen Debatten innerhalb der Medienwissenschaft, der Medien- und Kommunikationssoziologie und der Wissenschafts- und Technikforschung den Rahmen dieses Beitrags überschreiten. Aber sie sollen im Folgenden zumindest angedeutet werden.

Unsere Untersuchungen erlauben es erstens, in der aktuell geführten Debatte um die Macht der Algorithmen einen empirischen und politischen Kontrapunkt zu setzen. Denn auf der einen Seite lässt sich zeigen, dass es bei der Frage nach der Rolle algorithmischer Entscheidungen in zentralen Bereichen modernen Gesellschaften nicht so sehr darauf ankommt, dass Algorithmen an die Stelle von menschlichen Akteuren treten und dort gemäß der in sie unbemerkt eingeschriebenen kulturellen und politischen Werte und Normen Entscheidungen treffen. Vielmehr zeigt der Blick in die soziotechnischen Details der Entwicklerinnenpraxis, dass es darauf ankommt, welche algorithmischen Systeme innerhalb welcher lokaler, institutioneller und regulativer Kontexte wie ausgestaltet werden und mit welchen Konsequenzen bereits während der Entwicklung gerechnet wird. Auf der anderen Seite – das ist der politische Kontrapunkt – ist die Entwicklung und Implementation selbst ein hochgradig entscheidungsabhängiges und damit ein hochgradig politisches Geschehen. Code ist, um die vielzitierte Phrase von Lawrence Lessig (2006) abzuwandeln, nicht einfach nur „Law", sondern der Ort, an dem die Konturen algorithmischer Entscheidungen verhandelt, bestritten und nicht nur mit Worten und Argumenten, sondern ganz materiell umrissen werden. Am Beispiel der Frage danach, wie sich Empfehlungssysteme entwickeln lassen, mit denen der Programmauftrag zu erfüllen ist, zeigt sich, welche Chancen in dieser Politisierung der Entwicklung von Software liegen. Denn hier geht es nicht nur darum, ein vermeintliches Defizit algorithmischer Systeme gegenüber der alten, linearen Logik des Rundfunks zu beheben. Vielmehr bieten sich Möglichkeiten, die Anforderungen des Programmauftrags anders, vielleicht sogar besser zu erfüllen, als dies in der linearen Programmplanung und der notwendigen Orientierung an Quoten möglich war.

Zweitens zeigen unsere Untersuchungen auch, dass es eine Lücke in der aktuellen Debatte um die Rolle der Daten und Algorithmen gibt, die weiterführende Untersuchungen zu schließen haben. Die Entwicklung eines Empfehlungssystems ist ein gutes Beispiel dafür, dass es sich bei den aktuell diskutierten daten-getriebenen Anwendungen nicht um irgendwelche algorithmischen Systeme handelt, sondern dass sich die hohe Abhängigkeit der Funktionalität dieser Systeme von den praktischen und institutionellen Kontexten ihrer Bereitstellung und Nutzung darin äußert, dass ihre Entwicklung sich tief in eine bestehende sozio-technische Infrastruktur eingraben muss oder an dieser sehr spezifische und folgenreiche Rekonfigurationen vornehmen muss. Hier besteht ein großes Desiderat darin, die aktuell heiß geführte Debatte um die Rolle der Algorithmen an die dagegen etwas in den Hintergrund gerückten Diskussionen um den relationalen und verteilten Charakter von Infrastruktursystemen (vgl. Star/Ruhleder 1996; Bowker et al. 2007; Ribes et al. 2013) anzuschließen.

Infrastrukturen sind nicht einfach singuläre Technologien, sie sind bestimmt durch ein komplexes und instabiles Zusammenspiel ganz heterogener lokaler Praxis, gepflegter oder nicht beachteter Schnittstellen, formaler oder lediglich eingespielter Standardisierungen sowie vor allem durch sehr viel und sehr verteilte unsichtbare Arbeit (vgl. Bowker/Star 2000b). Die Debatte um die Rolle der Daten und Algorithmen kann von dieser Perspektive viel gewinnen, sowohl auf konzeptioneller als auch auf empirischer Ebene. Denn mit ihr stellt sich die Frage nach den Bedingungen und Effekten eines algorithmischen Bias neu: sie stellt sich nicht als Frage nach den im Entwicklungsprozess eingeschriebenen Setzungen, sondern als Frage nach den Hilfskonstruktionen, Stabilisierungsprojekten, Anschlussfähigkeiten nach innen als auch nach außen und damit vor allem nach dem infrastrukturellen Erbe, auf dem daten-getriebene Dienste aufbauen und den Funktionszusammenhängen, in die diese eingebunden sind.

Die Funktionsweisen von algorithmischen Vorschlagssystemen und die resultierenden Öffentlichkeiten sind ein emergentes Produkt verschiedener Interaktionen und Praktiken. Interventionen werden demnach möglich, wenn man die Algorithmisierung von Öffentlichkeiten und die Vermittlung von kulturellen Inhalten durch Software nicht als isoliertes Phänomen, sondern als die Errungenschaft eines weiteren Netzwerkes von Dateninfrastrukturen und sozialer Praktiken begreift. Sieht man den Algorithmus als einen, wenn auch wichtigen, Akteur unter vielen, und zeichnet die Muster der Interaktionen zwischen den beteiligten Systemen und Akteuren als Verhandlungspartner nach, erschließen sich Möglichkeiten der Gestaltung und Steuerbarkeit. Daraus folgt aber auch, dass der Algorithmus nicht ohne Berücksichtigung des aktuellen Kontextes seiner Aktionen betrachtet oder verändert werden kann, wenn man die Auswirkungen dieser Änderungen antizipieren will.

Drittens lassen sich aus unseren Ergebnissen auch Konsequenzen für die Rolle und Aufgabe sozial- und kulturwissenschaftlicher Forschung zu Software, Daten und Algorithmen ziehen. Denn die hier skizzierten Überlegungen und ersten empirischen Ergebnisse sind in enger Zusammenarbeit mit praktischer Softwareentwicklung entstanden – aber gerade nicht im Sinne einer anwendungsorientierten Forschung, sondern im Bemühen, sozial- und kulturwissenschaftliche Reflexion nicht von außen stattfinden zu lassen, sondern im Inneren der konkreten Entwicklung algorithmischer Systeme. Die Rolle der Forschenden ist dabei manchmal eine beobachtende und manchmal eine kritische, immer aber eine kollaborative. Gerade weil die Entwicklung und der Einsatz algorithmischer Systeme eine hochgradig politische Praxis ist, sollte sozial- und kulturwissenschaftliche Forschung die Macht der Algorithmen nicht nur von außen beschreiben, sondern inmitten der Dinge intervenieren und an ihrer konkreten Ausgestaltung mitwirken.

Literatur

Ang, Ian, 1991, Desperately Seeking the Audience. London, New York. Routledge.

Bayerischer Rundfunk, 2016, „Hier Erfahren Sie ... Was Sie Schon Immer Zu DiD Wissen Wollten". Online-Publikation: http://www.br.de/br-fernsehen/sendungen/dahoam-is-dahoam/ueber-uns/index.html. (Stand: 22.02.2017)

Beam, Michael A., 2014. Automating the News How Personalized News Recommender System Design Choices Impact News Reception, Communication Research 41 (8): 1019–1041.

Beer, David und Roger Burrows, 2013, Popular Culture, Digital Archives and the New Social Life of Data, Theory, Culture & Society 30 (4): 47–71.

Bourdieu, Pierre, 1992, Die feinen Unterschiede. Frankfurt am Main. Suhrkamp.

Bundesverfassungsgerichtshof (BVerfG), Urteil des Ersten Senats vom 4. November 1986 - 1 BvF 1/84, BVerfGE 73, 118.

Bundesverfassungsgerichtshof (BVerfG), Urteil des Ersten Senats vom 11. September 2007 - 1 BvR 2270/05, BVerfGE 119, 181 – 246.

Bauman, Zygmunt, 2000, Liquid Modernity. Cambridge u.a.. Polity Press.

Bowker, Geoffrey C, und Susan Leigh Star, 2000a, Sorting Things out: Classification and Its Consequences. Cambridge, MA. MIT Press.

Bowker, Geoffrey C. und Susan Leigh Star, 2000b, Invisible mediators of action: Classification and the ubiquity of standards. Mind, Culture, and Activity 7 (1&2): 147–163.

Bowker, Geoffrey C., Karen S. Baker, Florence Millerand und David Ribes, 2007, Towards Information Infrastructure Studies: Ways of Knowing in a Networked Environment, S. 97-119, in Jeremy Hunsinger, Matthew Allen und Lisbeth Klastrup (Hg.): International Handbook of Internet Research. Dordrecht. Springer.

Callon, Michel, 2008, What Does It Mean to Say That Economics Is Performative?, S. 311-357, in: Donald MacKenzie, Fabian Muniesa und Lucia Siu (Hg.): Do Economists Make Markets? On the Performativity of Economics. Princeton, NJ. Princeton University Press.

Dörr, Dieter, Bernd Holznagel und Arnold Picot, 2016, Legitimation und Auftrag des öffentlich-rechtlichen Fernsehens in Zeiten der Cloud. Online-Publikation: https://www.zdf.de/ZDF/zdfportal/blob/45517114/5/data.pdf. (Stand: 08.10.2016)

Europäische Kommission, 2001, Mitteilung der Kommission über die Anwendung der Vorschriften über Staatliche Beihilfen auf den öffentlich-rechtlichen Rundfunk (2001/C 320/04). Online-Publikation: http://eur-lex.europa.eu/legal-content/DE/TXT/PDF/?uri=CELEX:52009XC1027(01). (Stand: 24.10.2016)

Europäische Kommission, 2007, Schreiben an die Bundesregierung, Betreff: Staatliche Beihilfe E 3/2005 (ex-CP 2/2003, CP 232/2002, CP 43/2003, CP 243/2004 und CP 195/2004) – Deutschland. Die Finanzierung der öffentlich-rechtlichen Rundfunkanstalten in Deutschland. Online-Publikation: http://ec.europa.eu/competition/state_aid/cases/198395/198395_680516_260_2.pdf. (Stand: 23.10.2016)

Europäische Union, 1997, Vertrag von Amsterdam zur Änderung des Vertrags über die Europäische Union, der Verträge zur Gründung der Europäischen Gemeinschaften sowie einiger damit zusammenhängender Rechtsakte. Online-Publikation: http://www.europarl.europa.eu/topics/treaty/pdf/amst-de.pdf. (Stand: 20.10.2016)

Fürst, Silke, 2017, Popularität statt Relevanz? Die journalistische Orientierung an Online-Nutzungsdaten, in: Thorben Mämecke, Jan-Hendrik Passoth und Josef Wehner (Hg.): Bedeutende Daten. Modelle, Verfahren und Praxis der Vermessung und Verdatung im Netz. Wiesbaden: Springer VS (im Druck).

Gandy, Oscar H., 2001, Dividing practices: Segmentation and targeting in the emerging public sphere. S. 141-159, in: W. Lance Bennett und Robert M. Entman (Hg.): Mediated politics: Communication in the future of democracy. New York. Cambridge University Press.

Gillespie, Tarleton, 2014, The Relevance of Algorithms. S. 167-193, in: Tarleton Gillespie, Pablo J. Boczkowski und Kirsten A. Foot (Hg.): Media technologies: essays on communication, materiality, and society. Cambridge, MA. The MIT Press.

Grassmuck, Volker, 2014a, Kollisionen und Konvergenz. Politik & Kultur. Dossier: Der öffentlich-rechtliche Rundfunk: 20-21

Grassmuck, Volker, 2014b, Von Daseinsfürsorge zu Public Value. Für einen neuen Gesellschaftsvertrag über unsere mediale Umwelt. S. 77-108, in: Dieter Klumpp, Klaus Lenk und Günter Koch (Hg.): Überwiegend Neuland. Zwischenbilanzen der Wissenschaft zur Gestaltung der Informationsgesellschaft. Berlin. edition sigma.

Grundgesetz für die Bundesrepublik Deutschland (GG) vom 23. Mai 1949 (BGBl. S. 1), zuletzt geändert durch Artikel 1 des Gesetzes vom 23.12.2014 (BGBl. I S. 2438).

Hagen, Wolfgang, 2013, Die Verfassung, der Rundfunk und das Netz. 14 lemmatische Skizzen. S. 266-282, in: Lutz Hachmeister und Dieter Anschlag (Hg.). Rundfunkpolitik und Netzpolitik. Strukturwandel der Medienpolitk in Deutschland. Edition Medienpraxis. Köln. Halem.

Helberger, Natali, 2011, Diversity by design, Journal of Information Policy 1: 441–469.

Helberger, Natali, 2015, Merely Facilitating or Actively Stimulating Diverse Media Choices? Public Service Media at the Crossroad, International Journal of Communication 9: 1324–1340.

Holmberg, Christine, Christine Bischof und Susanne Bauer, 2013, Making Predictions Computing Populations, Science, Technology & Human Values 38 (3): 398–420.

Koren, Yehuda und Robert Bell, 2011, Advances in Collaborative Filtering. S. 145-186, in: Francesco Ricci, Lior Rokach, Bracha Shapira und Paul. B Kantor (Hg.): Recommender Systems Handbook. New York, Dordrecht, Heidelberg, London. Springer

Kulshrestha, Juhi; Muhammad Bilal Zafar; Lisette Espin Noboa; Krishna P. Gummadi; Saptarshi Ghosh, 2015, Characterizing information diets of social media users. S. 218-227, in: Daniele Quercia und Bernie Hogan (Hg.): Proceedings of the 9th International AAAI Conference on Web and Social Media. Palo Alto, CA. AAAI.

Lessig, Lawrence, 2006, Code: Version 2.0. New York. Basic Books.

Lewandowski, Dirk. Friederike Kerkmann und Sebastian Sünkler, 2014, Wie Nutzer im Suchprozess gelenkt werden: Zwischen technischer Unterstützung und interessengeleiteter Darstellung. S. 75–97, in: Birgit Stark, Dieter Dörr und Stefan Aufenanger (Hg.): Die Googleisierung der Informationssuche: Suchmaschinen zwischen Nutzung und Regulierung. Berlin. De Gruyter.

Linden, Greg, Brent Smith und Jeremy York, 2003, Amazon.com Recommendations: Item-to-Item Collaborative Filtering, IEEE Internet Computing 7 (1): 76–80.

Lops, Pasquale, Marco de Gemmis und Giovanni Semeraro, 2011, Content-based Recommender Systems: State of the Art and Trends. S. 73-106, in: Francesco Ricci, Lior Rokach, Bracha Shapira und Paul B. Kantor (Hg.): Recommender Systems Handbook. New York, Dordrecht, Heidelberg, London. Springer.

MacKenzie, Donald, 2006, An Engine, not a Camera: How Financial Models shape Markets. Cambridge, MA. MIT Press.

Morris, Jeremy W., 2015, Curation by Code: Infomediaries and the Data Mining of Taste, European Journal of Cultural Studies 18 (4–5): 446–463.

Neyland, Daniel, 2016, Bearing Account-Able Witness to the Ethical Algorithmic System, Science, Technology & Human Values 41 (1): 50–76.

Pariser, Eli, 2012, The filter bubble: how the new personalized Web is changing what we read and how we think. New York, N.Y.. Penguin.

Ribes, David, Steven Jackson, Stuart R. Geiger, Matthew Burton und Thomas Finholt, 2013, Artifacts that organize: Delegation in the distributed organization, Information and Organization 23 (1): 1–14.

Rieder, Bernhard, 2005, Networked Control: Search Engines and the Symmetry of Confidence, International Review of Information Ethics 3: 26–32.

Star, Susan Leigh und Karen Ruhleder, 1996, Steps Toward an Ecology of Infrastructure: Design and Access for Large Information Spaces, Information Systems Research 7 (1): 111–133.

Sunstein, Cass R., 2009, Republic.com 2.0. Princeton, N.J. Princeton University Press.

Staatsvertrag für Rundfunk und Telemedien (Rundfunkstaatsvertrag) vom 31. August 1991, zuletzt geändert durch den Achtzehnten Rundfunkänderungsstaatsvertrag vom 9. bis 28. September 2015.

Wehner, Josef, 2008, Taxonomische Kollektive. Zur Vermessung des Internet, S. 363-383, in: Herbert Willems (Hg.): Weltweite Welten: Internet-Figurationen aus wissenssoziologischer Perspektive. Wiesbaden. VS Verlag für Sozialwissenschaften.

Wehner, Josef und Jan-Hendrik Passoth, 2012, Von der Quote zum Nutzerprofil – Quantifizierung in den Medien, in: Hans Georg Soeffner (Hg.): Transnationale Vergesellschaftungen. Kongressband zum 35. Kongress der Deutschen Gesellschaft für Soziologie. Wiesbaden. Springer VS.

Wieser, Matthias, 2013, Wenn das Wohnzimmer zum Labor wird. Medienmessungen als Akteur-Netzwerk, S. 231-253, in: Jan-Hendrik Passoth und Josef Wehner (Hg.): Quoten, Kurven und Profile – Zur Vermessung der sozialen Welt. Wiesbaden. Springer VS.


  1. Aus dem Auftrag der informationellen Grundversorgung leitet das Bundesverfassungsgericht ab, dass an die Breite des Programmangebots und die Sicherung gleichgewichtiger Vielfalt im öffentlich-rechtlichen Rundfunk höhere Anforderungen gestellt werden als im privaten Rundfunk. Gleichzeitig ermöglichen öffentlich finanzierte Sendeanstalten das sog. duale System. Da die Aufgabe der informationellen Grundversorgung durch die öffentlich-rechtlichen Sender gewährleistet wird, werden private Sender, wie wir sie heute kennen überhaupt erst ermöglicht. Dieses duale System nahm in Deutschland im Jahre 1984 in Niedersachsen seinen Anfang. Wie in der gesamten Konzeption des Rundfunksystems der BRD stand auch hier die britische Medienpolitik Pate, welche das duale System schon 1955 einführte (Grassmuck 2014b). ↩︎

  2. Das Europäische Recht untersagt staatliche Förderungen von Unternehmen. Rundfunkbeiträge gelten europarechtlich jedoch als eine eben solche. 1997 wurde eine Ausnahme für den öffentlich-rechtlichen Rundfunk in den Mitgliedsstaaten formuliert (Europäische Union 1997). In diesem wird die Legitimität von Rundfunkbeiträgen direkt an die Erfüllung des Programmauftrages gekoppelt. Der öffentliche Auftrag muss allerdings klar und präzise definiert sein, welchen man mittels Rechtshandlungen auf ein Unternehmen übertragen kann (Europäische Kommission 2001). ↩︎

  3. Diese Betrachtung ist auf jeden Fall zugespitzt und geht in dieser vereinfachten Form davon aus, dass keine Ausbruchsversuche über direkte Verlinkungen, redaktionell bearbeitete Seiten oder die Suche stattfinden. ↩︎

  4. Confidence bezeichnet einen Wert, welcher widerspiegelt, wie viel „Vertrauen" der Algorithmus der Bewertung eines Inhalts durch die Nutzerin schenkt. ↩︎

  5. „Dahoam is Dahoam" ist eine erfolgreiche Serie des Bayerischen Rundfunks und „erzählt mit typisch bayerischen Charakteren liebevolle Geschichten aus dem Leben rund um das fiktive Dorf Lansing" (Bayerischer Rundfunk 2016). ↩︎

  6. Bei Verfassen des Aufsatzes ist noch nicht klar, wie die endgültige Kategorienliste aussehen wird. Aufgrund der zunehmenden Wichtigkeit dieser Kategoriensysteme ist eine Überarbeitung der Liste aktuell im Gange. ↩︎