Algorithmische Vorschlagssysteme und der Programmauftrag

Zwischen Datenwissenschaft, journalistischem Anspruch und demokratiepolitischer Aufgabe

Nikolaus Pöchhacker, Andrea Geipel, Marcus Burkhardt, Jan-Hendrik Passoth

In: (Un)Berechenbar?: Algorithmen Und Automatisierung in Staat Und Gesellschaft, edited by Resa Mohabbat Kar, Basanta Thapa, and Peter Parycek, 417–39. Berlin: Kompetenzzentrum Öffentliche IT, 2018.

1. Einleitung

In den letzten Jahren zeigen sich zwei wesentliche Trends in der Kommunikation von digitalisierten Gesellschaften. Sowohl die Alltagskommunikation als auch die öffentliche Diskussion verlagern sich immer mehr ins Netz der Netze. Etablierte Medien suchen daher neue Strategien und Geschäftsmodelle, welche diesen neuen Kommunikationsformen gerecht werden. Von diesem Trend sind auch die öffentlich-rechtlichen Rundfunkanstalten in Deutschland nicht unberührt geblieben, deren Angebote längst nicht mehr nur mit denen privater Rundfunkanbieter oder jenen der Printmedien konkurrieren. Zunehmend haben sich auch Streamingdienste wie Netflix, Amazon Prime Video und Spotify im täglichen Medienkonsum etabliert. Insbesondere die jüngere Generation fühlt sich durch das im Kontrast zum linearen Programm stehende On-Demand-Paradigma dieser Anbieter angesprochen. In diesem Sinne gelten Streamingdienste nicht nur als Konkurrenz, sondern zugleich als Vorbild für traditionelle Medienanbieter.

Mit einer stärkeren Verbreitung von On-Demand-Angeboten stellt sich jedoch immer mehr die Frage nach der Auswahl aus einer schier endlos scheinenden Menge potenziell verfügbarer Medieninhalte. Ist in linearen Programmangeboten die Selektion der Inhalte weitestgehend Aufgabe einer Programmredaktion, so verlagert sich diese bei On-Demand-Angeboten auf die Seite der Nutzerinnen. In der sich entfaltenden Medienökologie, welche durch die stete Zunahme an Informationen einerseits und eine informationelle Überforderung der Nutzerinnen andererseits geprägt ist, nehmen Recommender-Systeme eine Vermittlerrolle ein, welche in der Lage sind, die Komplexität des Informationsangebots auf ein handhabbares Maß zu reduzieren. Dabei haben Recommender-Systeme längst eine zentrale Funktion innerhalb verschiedener Bereiche des Internets eingenommen. Amazon bewirbt Produkte in Kategorien wie »Nutzer, welche diesen Artikel bestellt haben, bestellten auch ...«, die Startseite von YouTube wird durchgehend von verschiedensten Vorschlagssystemen strukturiert und Netflix räumt der algorithmisch-individuellen Zusammenstellung von Angeboten eine zentrale strategische Bedeutung ein. So experimentiert Netflix seit neuestem nicht nur mit individuellen Angeboten, sondern auch mit individuellen Präsentationen von ein und demselben Film durch personalisierte Teaserbilder.11

Algorithmische Vorschlagssysteme fungieren somit in vielen Bereichen des täglichen Lebens als Vision Machines2, welche eine Navigation in einem Meer aus Daten ermöglichen, aber auch steuernd in die individuellen Zugänge zu digitalen Informationsökologien eingreifen. Durch ihre zentrale Position als Vermittler zwischen Inhalten und Nutzerinnen und der damit verbundenen Möglichkeit zur Einflussnahme auf die Meinungsbildung eben dieser Nutzerinnen sind Vorschlagssysteme und Suchmaschinen schon länger im Fokus der Kritik.3 Andererseits erlaubt eben diese zentrale Position den neuen Informationsagenten, eine Kuratierung von Inhalten vorzunehmen und so die Komplexität der Informationslandschaft zu reduzieren. Morris4 nennt diese algorithmischen Akteure Infomediaries und vergleicht ihre Funktion mit kulturellen Intermediären, welche eine Auswahl an ansprechenden bzw. anschlussfähigen Kulturgütern innerhalb eines bestimmten Milieus für ihre Kundschaft vornehmen. Sie sind für ihn »organizations that monitor, mine and mediate the use of digital cultural products (e.g. e-Books, music files, video streams, etc.) as well as audience responses to those products via social and new media technologies«5. Damit haben diese Intermediäre eine zentrale Funktion in der Produktion von gemeinsamen Symbolräumen, welche eine Zugehörigkeit zu einer Schicht oder Klasse ausweisen.6 Sowohl der kulturelle als auch der informationelle Intermediär erzeugt also durch die Produktion gemeinsamer Rezeptionsräume die gesellschaftliche Struktur.

Diese algorithmischen Infomediaries, so das »alluring and compelling drama«7 der oft vorgetragenen Kritik, operieren dabei mit einer Logik der Personalisierung. Durch das beständige Aufnehmen und Verarbeiten von persönlichen Präferenzen entsteht ein (scheinbar) individueller und persönlich zugeschnittener Zugang zur Infosphäre, was in dem Einschluss von Nutzerinnen in Filterblasen8 oder Echokammern9 ihrer eigenen Meinungen und Präferenzen resultiert. Die Informationsselektion orientiert sich dabei stark an der persönlichen Historie der Nutzerin und schließt Ereignisse und Informationen, welche nicht in deren Profil passen, mit einer hohen Wahrscheinlichkeit aus. Vorschlagssysteme, welche mit dieser Personalisierungslogik operieren, führen demnach zu einer selektiven Präsentation der Welt. Dies führt potenziell zu einer informationellen Isolierung einzelner Interessensgruppen und somit zu einer Verstärkung der Segregation der Gesellschaft. Meinungen anderer werden nicht nur nicht geteilt – sie werden auch nicht sichtbar. Die daraus resultierende Sicht der Welt bestimmt Prozesse der Wahrheitsfindung in gesellschaftlichen Gruppen. Die Antwort auf die Frage, wie die Welt beschaffen ist und was als wahr anerkannt wird, speist sich aus einer Weltsicht, die durch gefilterte Informationen erschaffen wird. So zeigt sich zum Beispiel in einer Studie zur Informationsvermittlung über Google zum Thema Impfen, dass einseitige Informationen zu einer entsprechenden Attitüde bzw. Meinungsbildung führen.10 Dies zeigt sich ebenso in der Auswirkung von SearchEngine-Manipulationen in Bezug auf Präferenzverschiebungen in demokratischen Wahlen.11 In Kombination zu dem mittlerweile gut erforschten Confirmation Bias lässt sich somit gut ableiten, wie Technologien der Personalisierung nicht nur zu einer individuellen Reduktion von Informationskomplexität führen, sondern auch zu etwas, das man personalisierte Wahrheiten nennen könnte. Die Meinungsbildung ist abhängig von bereits geäußerten Meinungen und unterliegt somit einem sich selbst stabilisierenden Regelkreis der Wahrheitsdefinition.

Der vermehrte Einsatz von Recommender-Systemen ist hierbei sicher nicht alleine für die voranschreitende Segregation von Informationsräumen verantwortlich zu machen. Selektive Wahrnehmungen sind kein neues Phänomen digitaler Gesellschaften des 21sten Jahrhunderts. Vielmehr begleiteten Formen der Informationsselektion und sozial konstruierter Echokammern schon immer die Formierung sozialer Gemeinschaften.12 Der beobachtbare Vertrauensverlust in etablierte Formen der Vermittlung – Stichwort Fake News – in Kombination mit und der rhetorischen Macht von Algorithmen13 als scheinbar neutralen und objektiven Systemen lässt jedoch Vorschlagssystemen und Suchmaschinen eine gewichtige Rolle zukommen. Denn: Nutzerinnen vertrauen immer stärker auf algorithmisch vermittelte Inhalte.14

Öffentlich-rechtliche Rundfunkanbieter sind mit diesem Problem jedoch in spezifischer Weise konfrontiert. Denn: Eine zentrale Aufgabe der öffentlich-rechtlichen Medien ist es, eben jenen Filterblasen ein breites Informationsangebot entgegenzusetzen und so die Möglichkeit der umfassenden Informationsbeschaffung zu eröffnen. Öffentlich-rechtliche Medienanbieter stehen somit vor der Aufgabe, den Programmauftrag auch dort zu realisieren, »wo Bürgerinnen und Bürger sich ihre Meinung bilden, also im Netz«15 und zur selben Zeit den sich wandelnden Rezeptionsgewohnheiten ihrer Zuschauerinnen mit einem zeitgemäßen und attraktiven non-linearen Rundfunkangebot zu begegnen16. Dies schließt auch die Implementierung von Vorschlagssystemen ein. Dieser Modus der Inhaltsvermittlung entspricht immer mehr den Rezeptionsgewohnheiten von Nutzerinnen, welche Informationen auch immer stärker über das Internet beziehen. Der Programmauftrag, welcher die medienpolitische Verantwortung des öffentlich-rechtlichen Rundfunks definiert und sowohl vom Grundgesetz abgeleitet als auch im Rundfunkstaatsvertrag festgehalten ist, steht dem Ziel einer personalisierten Informationsselektion jedoch grundlegend entgegen. Vor diesem Hintergrund stellt sich die Frage, wie die demokratiepolitische Verantwortung von öffentlich-rechtlichen Rundfunkanbietern in der Medienökologie des 21. Jahrhunderts interpretiert, aber auch über algorithmische Systeme realisiert werden kann.

2. Algorithmische Vorschlagssysteme als Herausforderung für den öffentlich-rechtlichen Programmauftrag

Ist vom Programmauftrag des öffentlich-rechtlichen Rundfunks sowie der informationellen Grundversorgung die Rede, dann ist es wichtig, sich die historischen und rechtlichen Grundlagen des öffentlich-rechtlichen Mediensystems zu vergegenwärtigen. Basierend auf den Erfahrungen des zweiten Weltkrieges und der Funktion des Rundfunksystems als Instrument staatlicher Propaganda wurde das öffentlich-rechtliche Mediensystem im Nachkriegsdeutschland, nach dem Vorbild der BBC, von den Alliierten als dezentralisiertes, objektives und neutrales Rundfunksystem neu konzipiert und von der neu gegründeten Bundesrepublik realisiert. Die Aufgabe dieser staatlichen Medienanstalten war es, objektiv und unparteilich über das politische, soziale und kulturelle Leben in der Bundesrepublik zu berichten und so die Meinungsvielfalt möglichst gut im eigenen Programm abzudecken. Diese Grundsätze sollten eine Verengung der Berichterstattung zugunsten einer oder weniger Weltanschauungen verhindern und wurden so im Rundfunkstaatsvertrag festgehalten17. Die Wiedergabe der Vielfalt öffentlicher Meinungen sollte einen demokratischen Diskurs ermöglichen und die Bürgerinnen in die Lage versetzen, sich mit verschiedenen Sichtweisen und Argumentationen vertraut zu machen. Damit kommt - so der Grundgedanke - dem öffentlich-rechtlichen Rundfunk eine wesentliche demokratiesichernde Funktion zu. Denn: Nur, wenn alle Meinungen, Perspektiven und Informationen zugänglich sind, ist eine freie und demokratische Meinungs- und Willensbildung gewährleistet. Dieses Ideal der umfassenden Informationsvermittlung wurde erstmals von Günter Herrmann, damals juristischer Direktor des WDR, als informationelle Grundversorgung bezeichnet.18

Ein Spezifikum des Programmauftrages ist es jedoch, dass dieser nicht direkt durch die Legislative festgeschrieben ist, sondern vor allem durch das Bundesverfassungsgericht vom §5 des Grundgesetzes abgeleitet wird, welcher Grassmuck zufolge »Ausgangspunkt für alles Medienrecht ist«19. Dort heißt es:

»(1) Jeder hat das Recht, seine Meinung in Wort, Schrift und Bild frei zu äußern und zu verbreiten und sich aus allgemein zugänglichen Quellen ungehindert zu unterrichten. Die Pressefreiheit und die Freiheit der Berichterstattung durch Rundfunk und Film werden gewährleistet. Eine Zensur findet nicht statt.«20

Aus der Formulierung, dass Bürgerinnen in der Lage sein müssen, sich ungehindert zu unterrichten, leitet sich der Programmauftrag ab. Denn nur, wenn ein umfassendes Informationsangebot vorhanden ist, kann, so die Argumentation, ein ungehinderter Zugang zu Informationen wahrgenommen werden. Das Recht der freien Berichterstattung wurde folglich vom Bundesverfassungsgericht auch als Verpflichtung gedeutet, diesen ungehinderten Zugang zu ermöglichen:

»Die Rundfunkfreiheit dient der freien, individuellen und öffentlichen Meinungsbildung. [...] Der in Art. 5 Abs. 1 Satz 2 GG enthaltene Auftrag zur Gewährleistung der Rundfunkfreiheit zielt auf eine Ordnung, die sicherstellt, dass die Vielfalt der bestehenden Meinungen im Rundfunk in möglichster Breite und Vollständigkeit Ausdruck findet.«21

Die Programmfreiheit wird somit direkt mit einer inhaltlichen Gestaltung in Verbindung gebracht, welche einen umfassenden Überblick über alle wesentlichen Bereiche des Lebens geben soll.22 Die Einrichtung eines öffentlich-rechtlichen Rundfunksystems, das vor direkten politischen Eingriffen geschützt ist, dient folglich im Wesentlichen der Errichtung einer gemeinsamen Informationssphäre, welche möglichst inklusiv betreffend der vermittelten Informationen ist und somit eine Meinungshoheit qua Informationsselektion verhindert.23 Um eine Programmgestaltung zu ermöglichen, welche andere Prioritäten als pure Relevanz verfolgt, wurde der Rundfunkbeitrag - oder neuerdings die Haushaltsabgabe - zur Finanzierung des öffentlich-rechtlichen Rundfunksystems eingeführt. Die Programmgestaltung ist durch diesen Umstand vom Druck der Reichweitenmaximierung befreit, muss sich jedoch dadurch anderen Bewertungsmaßstäben, nämlich der politisch-demokratischen Relevanz, unterwerfen.

Unter den Rahmenbedingungen der digitalen Transformation unserer Medienökologien stellen sich nun neue Herausforderungen in Bezug auf diese rechtlichen Grundlagen - welche hier nur schematisch dargestellt wurden. Rezeptionsgewohnheiten der Bürgerinnen als auch die Informationsmenge machen den Einsatz neuer technologischer Zugänge zu Informationen auch und gerade für den öffentlich-rechtlichen Medienbetrieb notwendig, andererseits basieren etablierte Methoden der Recommender-Systeme auf der Idee der Popularität von Inhalten. Darüber hinaus verfolgen diese Methoden eine Strategie der Informationsvermittlung, welche individuell auf die Nutzerin oder auf eine spezielle Klasse von Nutzerinnen bezogen ist. Vorschlagssysteme, wie sie im Moment im Einsatz sind, stehen damit auf zweierlei Art in Konflikt mit dem Programmauftrag. Zum einen wird kein gemeinsamer Informationsraum mehr geschaffen, was einer informierten Diskussion zumindest hinderlich gegenüber steht. Zum anderen wird durch den Einsatz von Recommender-Systemen der freie Zugang zu Informationen - zumindest über diesen Kanal - eingeschränkt. Dies wurde auch schon vom Bundesverfassungsgerichtshof festgestellt.

»Die neuen Technologien erlauben im Übrigen den Einsatz von Navigatoren und elektronischen Programmführern, deren Software ihrerseits zur Beeinflussung der Auswahlentscheidung von Rezipienten genutzt werden kann.«24

Besonders für öffentlich-rechtliche Sender ist diese Spannung daher problematisch, weil sie zwischen Legitimation durch politischen Anspruch und Legitimation durch Reichweite balancieren müssen. Es ist auch festzuhalten, dass dieser Umstand nicht als ein allgemeines Verbot von Vorschlagssystemen verstanden werden kann, oder – wie wir meinen – soll. Vielmehr sollte man die Bemerkung des Bundesverfassungsgerichts wörtlich nehmen. Zwar können Recommender-Systeme zu einer Zersplitterung der medialen Öffentlichkeit führen, jedoch lassen sowohl die rechtlichen Bestimmungen als auch die technischen Verfahren Gestaltungsspielraum offen, sodass dem Programmauftrag als auch den geänderten Rezeptionsgewohnheiten der Nutzerinnen Rechnung getragen werden kann. Ja, es besteht möglicherweise sogar die Option, mittels dieser neuen Technologien den Programmauftrag neu zu denken und erfolgreich in die digitale Welt zu übersetzen.

3. Was tun?

Spricht man von öffentlich-rechtlichen Sendern, so schwingt stets eine zu adressierende Öffentlichkeit im Hintergrund mit. Denn dies ist die Aufgabe von Rundfunkanstalten: der Öffentlichkeit ein mediales Angebot zu machen, aus dem diese auswählen kann. Aus sozial- und medienwissenschaftlicher Sicht stellt sich jedoch die Frage, was denn genau diese Öffentlichkeit qualifiziert - nicht zuletzt in einer digitalen Vermittlungslogik. Dies gilt umso mehr, wenn man anerkennt, dass die regulative und normative Vorstellung der Öffentlichkeit, an die man sich richtet, innerhalb der Redaktionen und Programmkoordinatorinnen erst vorhanden sein muss. Im Laufe der Zeit hat sich ein breites Instrumentarium von Erhebungsmethoden, Auswertungsverfahren und standardisierten Messgrößen entwickelt, welches »die Öffentlichkeit« vermessbar und damit adressierbar gemacht hat.25 Die Publikumsforschung erzeugt demnach erst die Öffentlichkeit, an welche sich ein Programm richten kann.26 Damit soll allerdings nicht behauptet werden, dass nicht erfasste Menschen automatisch den Empfangsgeräten fernbleiben. Vielmehr richtet sich das Handeln der Redaktionen an der durch die Publikumsforschung erzeugten Öffentlichkeit aus. Die Vorstellung der Öffentlichkeit hat demnach eine manifeste Auswirkung auf die Mediengestaltung - sie wirkt performativ.27 Öffentlich-rechtliche Sender standen seit jeher vor dem Problem zwischen vermessbarer Popularität und Programmauftrag abzuwägen. Einerseits sind die Programmgestalterinnen auf die Vermessung des Publikums angewiesen, um eine begründete Auswahl und Platzierung von Inhalten innerhalb des Sendeschemas vorzunehmen. Andererseits müssen die Relevanzsetzungen entsprechend den demokratiepolitischen Aufgaben der Sendeanstalt angepasst und ausgerichtet werden. Durch den Einsatz von algorithmischer Vermittlung von Informationen wird aber ein anderes Instrument der Publikumsvermessung und -konstruktion in den Vordergrund gerückt, welches auf dem Tracking von Nutzerinnenverhalten, und damit dem Erstellen von Profilen basiert. Gleichzeitig dienen diese über individuelle Sehgewohnheiten gewonnenen Daten als Grundlage für die Berechnung weiterer Vorschläge. Damit rücken Vorschlagssysteme als ein Maß für Popularität auch als Vermessungswerkzeug in den Fokus öffentlich-rechtlicher Rundfunkanbieter.

Grob lassen sich diese in personalisierte und nicht-personalisierte Vorschlagssysteme unterscheiden. Ein Beispiel für die letztere Verfahrensweise ist die Vorschlagskategorie »Trending«, d. h. Inhalte, welche innerhalb der letzten Zeit innerhalb der ganzen Community die meiste Popularität gewonnen haben, werden angezeigt. Personalisierte Vorschlagsysteme sind jedoch weit häufiger anzutreffen - sie stellen nicht nur Informationen, welche für die Allgemeinheit gerade wichtig erscheinen, zur Verfügung, sondern präsentieren Inhalte, welche für mich

  • besser: für Menschen mit meinem Nutzungsprofil - relevant erscheinen. Daraus ergibt sich, abseits einer starken Fokussierung auf Popularität, noch ein weiteres Problem: Es entsteht eine personalisierte Filterblase.28 Die vermessene Öffentlichkeit - das Publikum, an das man sich richtet - muss von einem aufs andere Mal im Plural gedacht werden. Denn durch die algorithmischen Verfahren von personalisierten Recommender-Systemen werden verschiedene Öffentlichkeiten anhand von ähnlichen Nutzungsprofilen berechnet. Durch die Vermittlungstätigkeit des algorithmischen Systems wird dann in der Folge jeweils anders darauf reagiert. Die Öffentlichkeit zersplittert damit in mehrere Teil-Öffentlichkeiten, welche durch die Informationsselektion in ihren jeweiligen Informationsökologien eingehegt werden. Das Problem der Filterblase stellt sich für öffentlich-rechtliche Sendeanstalten also in der Form der Zersplitterung der zu adressierten Öffentlichkeit. Darüber hinaus sind diese formierten Öffentlichkeiten für die Publikumsforschung nur noch schwer benennbar, da die Erhebung wie die Berechnung und auch die Reaktionen auf Nutzungsprofile innerhalb der Logik des algorithmischen Systems stattfinden. Dieses ist jedoch nicht mehr direkt erkennbar, so auch wen oder was man denn hier vermessen hat. Algorithmisch-mathematische Verfahren basieren dabei unter anderem auf Methoden, welche hochdimensionale Vektorräume aufspannen und sogenannte latente Faktoren berechnen oder mittels neuronaler Netzwerke Vorhersagen über unsere Vorlieben erzeugen. Viele dieser Verfahren sind jedoch entweder durch ihre Komplexität oder durch die grundlegenden Verfahren nicht mehr einer bisher bekannten Rationalität zugänglich - es handelt sich um Black Boxes.29 Dies bricht allerdings mit der Vorstellung, dass die Vermessung das »Publikum erst erzeugt, das es doch so verzweifelt sucht«.30 Die Suche bleibt ergebnislos – allerdings nicht ohne Effekt. Algorithmische Vorschlagssysteme erzeugen ein Publikum, aber wir wissen nicht welches.

Hinsichtlich des skizzierten Spannungsverhältnisses zwischen Programmauftrag und Vorschlagssystemen eröffnet die Einsicht in die sozio-technische Konstruiertheit von Öffentlichkeiten die Perspektive für einen möglichen Lösungsansatz, der so trivial wie paradox wirkt: Um den Programmauftrag in digitalen Umwelten erfüllbar zu machen, müssen öffentlich-rechtliche Sendeanstalten noch viel mehr als bisher auf datengetriebene Vermittlung von Inhalten setzen. Hierbei gilt es, die Anforderungen an die informationelle Grundversorgung und den damit einhergehenden Sendebetrieb auf einer grundlegenden Ebene digital zu denken. Diversität von vermittelten Informationsangeboten muss durch die gezielte Gestaltung und Einbettung algorithmischer Vorschlagssysteme erzeugt werden. Es ergeben sich aus diesen Einsichten zwei Notwendigkeiten einer digitalen Umsetzung des Programmauftrags: eine Ausrichtung organisationaler und technischer Prozesse an nicht-linearen Vermittlungslogiken und die Etablierung einer kritischen sozio-technischen Praxis, welche datenwissenschaftliche und journalistische Expertise vereint.

Die Vermittlung medialer Inhalte durch algorithmische Systeme zu gestalten, erfordert eine technische und organisationale Umgebung, welche die Interventionsmöglichkeiten in die ansonsten automatisch ablaufenden Vorschlagssysteme ermöglicht. In der Praxis zeigen sich oft Herausforderungen in dem Zusammenspiel zwischen Redaktionen und der digitalen Infrastruktur, welche notwendig ist, um Vorschlagssysteme mit Daten zu versorgen, sowie der Anbindung verschiedener Systeme an den Online-Ausspielweg.31 Organisationale und technische Strukturen wurden – aus gutem Grund – an Logiken zeitlich-linearer Programmgestaltung ausgerichtet. Im Vordergrund der redaktionellen Praxis standen bisher Fragen einer störungsfreien Ausstrahlung, der erwartungssicheren Gestaltung eines zeitlichen Rahmens und die Beschreibung von Inhalten für Programmhefte. Eine non-lineare Gestaltung des Medienangebots jedoch muss auch die Anforderungen algorithmischer Systeme mitdenken. So müssen für die Verarbeitung wie auch für die Darstellung von medialen Inhalten in digitalen Umwelten vergleichsweise mehr Daten zu den medialen Beständen produziert werden. Durch eine Beschreibung der Medien werden diese algorithmisch erst erfassbar. Es müssen maschinenlesbare Beschreibungen über Keywords, Beschreibungstexte, welche die wichtigsten Begriffe enthalten, und Teaserbilder, welche eine Darstellung auf einer Website ermöglichen und sich an den Rezeptionsgewohnheiten von Nutzerinnen orientieren, zur Verfügung gestellt werden – was über die Notwendigkeiten bisheriger Kurationspraktiken hinausgeht. Dies stellt eine sozio-technische Struktur jedoch vor das Problem, sowohl eine gemeinsame Praxis der Datenzuweisung und Interpretation zu erzeugen als auch diese Daten über technische Infrastrukturen für das algorithmische System verfügbar zu machen.

Darüber hinaus besteht für die Erfüllung des Programmauftrages im digitalen Raum die Notwendigkeit, journalistische Arbeit auch als einen Umgang mit und die kritische Reflexion von Daten zu verstehen. Um den Zugang zu einem möglichst breiten Spektrum an Inhalten, Meinungen und Perspektiven zu gewährleisten, muss die Produktion algorithmischer Öffentlichkeiten sichtbar und greifbar gemacht werden. Wie sich allerdings algorithmisch erzeugte Öffentlichkeiten zusammensetzen und wie diese zueinander in Relation stehen, ist im Wesentlichen eine analytische Frage, welche mittels Methoden der gerade entstehenden Datenwissenschaften beantwortet werden kann. Berechnungen von Vorhersagen beruhen auf der Analyse von Ähnlichkeiten und Mustern. Jedoch erlauben diese Berechnungen auch Aussagen darüber, welche Inhalte gerade nicht dem Nutzungsmuster entsprechen und erlauben auf diesem Wege eine gezielte Diversifizierung von Inhaltsselektionen über eine informierte Auswahl an alternativen Informationen. Eine redaktionelle Praxis muss folglich neben der Aufbereitung von Medieninhalten oder zeitlicher Programmschemata auch und im Besonderen die Erfassung und Analyse von Nutzungsdaten beinhalten. Eine Aussage, welche berechneten Teilpublika mit welchen Informationen versorgt werden müssen, um einem demokratiepolitischen Anspruch gerecht zu werden, kann nur durch redaktionelle Expertise beantwortet werden. Das erfordert eine neue Form des Hybrids zwischen Redakteurin und Data Scientist. Algorithmische Vorschlagssysteme müssen, will man den Programmauftrag auch im digitalen Raum erfüllen, durch kalkulative Praktiken ergänzt werden, die nicht ausschließlich auf Personalisierung setzen, sondern demokratischen Idealen folgen. Welche spezifischen Formen diese kalkulativen Praktiken annehmen können und welche Methoden der Öffentlichkeitsvermessung eingeführt werden müssen, ist dabei Gegenstand aktueller und zukünftiger Forschung. Die Art und Weise jedoch, wie man Wissen über die vermessene Gesellschaft erzeugt, muss an die jeweiligen institutionellen und gesellschaftlichen Ziele angepasst werden. Mögliche Zugänge sind eine nachträgliche qualitative Untersuchung berechneter Cluster von Nutzerinnen. Welche Inhalte werden in diesen Filter Bubbles präsentiert und welche werden unsichtbar gemacht? Um diese Frage zu beantworten, bedarf es der Fähigkeit, das Clusterverfahren zu verstehen, also auch einer redaktionellen Praxis, welche diese Inhalte identifiziert und ihnen Alternativen gegenüber stellt. Somit ist es möglich, das Angebot für individuelle Nutzerinnen auf eine Weise anzupassen, die einen gemeinsamen Informationsraum produziert, ohne die Funktionalität von Vorschlagssystemen zu unterminieren. Daraus resultiert, dass eine Anpassung des Angebots auf neue Rezeptionspraktiken der Bürgerinnen wie auch eine Erfüllung des Programmauftrages möglich scheint.

4. Conclusio

Die Notwendigkeit von (zentralen) Instanzen der Informationsselektion kann vor dem Hintergrund der ständig wachsenden Informations- und Datenmenge kaum mehr bestritten werden. Nicht nur die stets steigende Informationsmenge, sondern auch die Verlagerung der politischen Kommunikation stellt moderne Gesellschaften vor ein Problem. Diskussionen über die potenzielle Einflussnahme von außerstaatlichen Akteuren in demokratische Wahlen32 oder die Experimente, welche Facebook durch die Manipulation der Timeline durchführt33, zeigen, dass auch und gerade der digitale Kommunikationsraum mediale Vermittlungsinstanzen benötigt, welche eben nicht einem Paradigma der Gewinnoptimierung und der Popularität von Inhalten unterliegen.34 Stattdessen müssen diese demokratiepolitische Maßstäbe anlegen, wenn es um die Selektion und Darstellung des gesellschaftlichen und politischen Lebens geht. Öffentlich-rechtliche Rundfunkanstalten - so antiquiert dieses Modell vor der Hintergrundkulisse des Silicon Valley erscheinen mag - können diese Rolle im 21sten Jahrhundert übernehmen. Technologien allerdings sind nicht neutral, sondern in die jeweiligen Vorstellungen, Wertungen, und Gestaltungspraktiken eingebunden. Um Kranzberg zu zitieren: »Technology is neither good nor bad; nor is it neutral«35. Dies trifft nicht nur, aber eben auch auf algorithmische Recommender-Systeme zu. Etablierte Verfahren und Best Practices wurden für die Geschäftsmodelle privater Anbieter wie Netflix, Amazon oder auch Facebook entwickelt. Daraus resultiert eine entsprechend starke Orientierung an Vorstellungen von Personalisierung und Popularität in diesen Technologien. Eine Anpassung bzw. Weiterentwicklung dieser Verfahren basierend auf einer Idee von demokratischen Berechnungen scheint jedoch nicht nur möglich, sondern ist, will man die Grundsätze des Programmauftrages und des nun jahrzehntelang erarbeiteten Verständnisses des §5 des Grundgesetzes nicht über Bord werfen, auch notwendig.

Um diese institutionellen Aufgaben und technologischen Entwicklungen zu ermöglichen, ist nicht zuletzt eine Anpassung des öffentlich-rechtlichen Rundfunksystems und dessen rechtlicher Maßstäbe an die Informationsvermittlung im digitalen Raum notwendig. Wenn für die Privatwirtschaft Daten das neue Öl sind, muss die Öffentlichkeit (im Singular!) Daten als eine neue Arena der demokratisch-politischen Auseinandersetzung verstehen. Aus dieser Forderung ergibt sich sowohl ein redaktionell-journalistisches Arbeitsverständnis, welches zunehmend auf Methoden und Zugänge der Datenwissenschaften zurückgreifen muss, als auch die Notwendigkeit, die Regeln, welche den öffentlich-rechtlichen Sendern für ihre Auftritte im Netz auferlegt wurden, grundlegend zu überdenken und deren Tauglichkeit für eine Informationsökologie des 21. Jahrhunderts neu zu evaluieren.

Quellen

Allam, A., Schulz, P. J. & Nakamoto, K. (2014). The Impact of Search Engine Selection and Sorting Criteria on Vaccination Beliefs and Attitudes: Two Experiments Manipulating Google Output. Journal of Medical Internet Research, 16(4).

Anderson, B. (2006). Imagined Communities: Reflections on the Origin and Spread of Nationalism (Revised). London; New York: Verso

Ang, I. (1991). Desperately Seeking the Audience. London; New York: Routledge

Beer, D. (2017). The Social Power of Algorithms. Information, Communication & Society, 20 (1), S. 1–13.

Becker, K., & Stalder, F. (Hrsg.). (2009). Deep Search: The Politics of Search beyond Google (1. Ausgabe). Innsbruck; Piscataway, N.J.: Studien Verlag

Booth, R. (2014). Facebook reveals news feed experiment to control emotions. Abgerufen am 10.02.2018 von http://s.fhg.de/bjS

Bourdieu, P. (1992). Die feinen Unterschiede. Kritik der gesellschaftlichen Urteilskraft. Frankfurt am Main: Suhrkamp

Burrell, J. (2016). How the machine ‘thinks’: Understanding opacity in machine learning algorithms. Big Data & Society, 3(1)

Callon, M. (2007). What does it mean to say that economics is performative? In D. MacKenzie, F. Muniesa, & L. Siu (Hrsg.), Do Economists Make Markets? On the Performativity of Economics (S. 311–357). Princeton: Princeton University Press

Epstein, R. & Robertson, R. E. (2015). The search engine manipulation effect (SEME) and its possible impact on the outcomes of elections. Proceedings of the National Academy of Sciences, 112 (33), S. E4512–E4521.

Grassmuck, V. (2014a). Kollisionen und Konvergenz. Politik & Kultur. Dossier: Der öffentlich-rechtliche Rundfunk, S. 20 – 21

Grassmuck, V. (2014b). Von Daseinsfürsorge zu Public Value: Für einen neuen Gesellschaftsvertrag über unsere mediale Umwelt. In D. Klumpp, K. Lenk, & G. Koch (Hrsg.), Überwiegend Neuland. Zwischenbilanzen der Wissenschaft zur Gestaltung der Informationsgesellschaft (S. 77–108).

Grundgesetz für die Bundesrepublik Deutschland (GG) vom 23. Mai 1949 (BGBl. S. 1), zuletzt geändert durch Artikel 1 des Gesetzes vom 23.12.2014 (BGBl. I S. 2438)

Helberger, N. (2015). Public Service Media. Merely Facilitating or Actively Stimulating Diverse Media Choices? Public Service Media at the Crossroad. International Journal of Communication, 9, S. 1324–1340

Hern, A. (2017). Can Facebook win its battle against election interference in 2018? Abgerufen am 10.02.2018 von http://s.fhg.de/7k4

Kranzberg, M. (1986). Technology and History: »Kranzberg’s Laws«. Technology and Culture, 27(3), S. 544–560

Lewandowski, D., Kerkmann, F. & Sünkler, S. (2014). Wie Nutzer im Suchprozess gelenkt werden: Zwischen technischer Unterstützung und interessengeleiteter Darstellung. In B. Stark, D. Dörr, & S. Aufenanger (Eds.), Die Googleisierung der Informationssuche: Suchmaschinen zwischen Nutzung und Regulierung (S. 75–97). Berlin: De Gruyter

Morris, J. W. (2015). Curation by code: Infomediaries and the data mining of taste. European Journal of Cultural Studies, 18(4–5), S. 446–463.

Newman, N., Fletcher, R., Kalogeropoulos, A., Levy, D. A. L. & Nielsen, R. K. (2017). Digital News Report 2017.Reuters Institute for the Study of Journalism. http://s.fhg.de/5aZ

Neyland, D. (2016). Bearing Accountable Witness to the Ethical Algorithmic System. Science, Technology & Human Values, 41 (1), S. 50–76.

Pariser, E. (2012). The filter bubble: how the new personalized Web is changing what we read and how we think. New York, N.Y.: Penguin Books/Penguin Press

Pasquale, F. (2015). The Black Box Society: The Secret Algorithms that Control Money and Information. Cambridge: Harvard University Press

Pöchhacker, N., Burkhardt, M., Geipel, A. & Passoth, J.-H. (2017). Interventionen in die Produktion algorithmischer Öffentlichkeiten: Recommender Systeme als Herausforderung für öffentlich-rechtliche Sendeanstalten. kommunikation @ gesellschaft, S. 18–25

Rieder, B. (2005). Networked Control: Search Engines and the Symmetry of Confidence. International Review of Information Ethics, 3, S. 26–32

Staatsvertrag für Rundfunk und Telemedien (Rundfunkstaatsvertrag) vom 31. August 1991, zuletzt geändert durch den Achtzehnten Rundfunkänderungsstaatsvertrag vom 9. bis 28. September 2015

Sunstein, C. R. (2009). Republic.com 2.0. Princeton: Princeton University Press

Wehner, J. & Passoth, J.-H. (2012). Von der Quote zum Nutzerprofil - Quantifizierung in den Medien. In Transnationale Vergesellschaftungen. Kongressband zum 35. Kongress der Deutschen Gesellschaft für Soziologie. Wiesbaden: Springer VS

Hinweis

Dieser Artikel basiert auf den Erkenntnissen des Forschungsprojektes »Mediatheken der Zukunft«, welches in Kooperation zwischen der Technischen Universität München, dem Bayerischen Rundfunk und dem Institut für Kommunikationswissenschaft der Ludwig-Maximilians-Universität München im Rahmen des Munich Center for Internet Research (MCIR) durchgeführt wurde.


  1. http://s.fhg.de/q8z, abgerufen am 08.02.2018 ↩︎

  2. Rieder, 2005, S. 29 ↩︎

  3. Becker & Stalder, 2009; Lewandowski et al., 2014 ↩︎

  4. Morris, 2015 ↩︎

  5. Morris 2015, S. 447 ↩︎

  6. vgl. Bourdieu 1992 ↩︎

  7. Neyland 2016, S. 51 ↩︎

  8. Pariser 2012 ↩︎

  9. Sunstein 2009 ↩︎

  10. Allam, Schulz & Nakamoto 2014 ↩︎

  11. Epstein & Robertson 2015 ↩︎

  12. vgl. u. a. Anderson 2006 ↩︎

  13. Beer 2017 ↩︎

  14. Newman et al. 2017 ↩︎

  15. Grassmuck 2014b, S. 78 ↩︎

  16. vgl. Helberger 2015 ↩︎

  17. vgl. § 11 Abs. 2 RStV ↩︎

  18. Grassmuck 2014a ↩︎

  19. Grassmuck 2014b, S. 90 ↩︎

  20. § 5 Abs. 1 Satz 2 GG ↩︎

  21. BVerfG, Urt. v. 11.09.2007, Rn. 115 ↩︎

  22. vgl. auch §11 Abs. 1 RStV ↩︎

  23. Grassmuck 2014a ↩︎

  24. BVerfG, Urt. v. 11.09.2007, Abs. 118 ↩︎

  25. vgl. Wehner & Passoth 2012 ↩︎

  26. Ang 1991 ↩︎

  27. Callon 2008 ↩︎

  28. Pariser 2012 ↩︎

  29. Burrel 2016; Pasquale 2015 ↩︎

  30. Ang 1991 ↩︎

  31. Pöchhacker et al. 2017 ↩︎

  32. Hern 2017 ↩︎

  33. Booth 2014 ↩︎

  34. vgl. Fürst 2017 ↩︎

  35. Kranzberg 1986, S. 545 ↩︎