Markus Beiler: Nachrichtensuche im Internet

Einzelrezension
2140 Aufrufe

Rezensiert von Christoph Neuberger

Nachrichtensuche Internet_onlineEinzelrezension
Nachrichtensuchmaschinen sollen journalistische Arbeit automatisieren. Deshalb ist die Frage angemessen, ob sie Qualitätserwartungen an den Journalismus gerecht werden. Sie greifen zwar auf fremden Content zurück, doch sollen sie zur Selektion nach journalistischen Maßstäben in der Lage sein. Dabei lässt sich zwischen der aktiven und passiven Nutzung von Nachrichtensuchmaschinen unterscheiden (vgl. 18): Entweder stellt der User selbst eine Anfrage zu einem Thema, das ihn interessiert, und er erhält dazu eine Auswahl an passenden Ergebnissen. Oder aber die Nachrichtensuchmaschine selektiert selbstständig Beiträge zu verschiedenen Themen und bringt sie auf der Homepage in eine bestimmte Reihenfolge, die ihrer Wichtigkeit entsprechen soll. So funktionieren z.B. Google News und netzeitung.de.

Zeitungsleser und TV-Nachrichten-Zuschauer erwarten typischerweise ein solches ‘Gatekeeping’, d.h. eine redaktionelle Vorauswahl und Gewichtung von Themen, um einen Überblick zu gewinnen und die wichtigsten Neuigkeiten zu erfahren. Demgegenüber ist die aktive Suche nach bereits bekannten Themen eher un­ty­pisch für das journalistische Publikum. Auf diese Leistung von Nachrichtensuchmaschinen hat sich jedoch Markus Beiler in seiner empirischen Untersuchung beschränkt, die er im Rahmen seiner Dissertation durchgeführt hat. Er stellt Suchanfragen zu fünf Themen und analysiert die monothematischen Ergebnislisten.

Für die Messung von Relevanz stützt sich Beiler auf die Nachrichtenwerttheorie. Dass die Theorie sinnvoll auf die Beiträge zu nur einem Thema anwendbar ist und die Nachrichtenfaktoren ausreichend zwischen ihnen diskriminieren können, wäre eine Diskussion wert gewesen. Üblicherweise dient die Theorie dazu, die Auswahl und Gewichtung von Nachrichten zu einer Vielzahl unterschiedlicher Themen zu erklären. Die Varianz innerhalb eines Themas dürfte gering sein – und sie wird noch geringer, wenn das Ranking von tagesaktuellen Beiträgen zum gleichen Thema erklärt werden soll, die sich alle – mehr oder weniger – mit dem identischen Geschehen befassen. Und weil die Texte, auf die verwiesen wird, auch noch in hohem Maße übereinstimmen – 40 Prozent hatten den gleichen oder einen ähnlichen Titel wie mindestens ein weiterer Text auf derselben Top 20-Ergebnisliste (vgl. 255) –, stellt Beiler maximale Anforderungen an die Sensibilität der Algorithmen für das Ranking nach Nachrichtenfaktoren und -wert. Wäre irgendein Journalist in der Lage, hier eine sinnvolle Reihenfolge zu finden? Das Versagen, das Beiler den Nachrichtensuch­ma­schi­nen am Ende seiner Studie bescheinigt (vgl. 383), ist damit quasi vorprogrammiert gewesen.

In den Regressionsanalysen gelingt es jedenfalls nicht, den Rang in der Ergebnisliste durch Nachrichtenfaktoren und -wert zu erklären. Wenn sich die in einer Liste gerankten Beiträge nur geringfügig unterscheiden, dann ist es keine Überraschung, wenn diese Rangordnung stattdessen besser durch technische Faktoren (Suchwort in Internetadresse, Titel-Tag oder Überschrift, Suchwortdichte, Zeitspanne seit der Indexierung) erklärt werden kann.

Der Alarmismus, den Beiler im Fazit seiner Arbeit verbreitet (“Umkehrung des bisherigen Verständnisses von Relevanz” [389]), ist also unberechtigt. Schon der Umstand, dass professionell-journalistische Quellen ausgewertet werden, garantiert ein ausreichendes Maß an Relevanz. Die Wahl eines anderen Studiendesigns hätte möglicherweise zu einem völlig anderen Ergebnis geführt. So hätte z.B. die automatisierte Rangzuweisung für die verschiedenen aktuellen Themen auf den Homepages von Nachrichtensuchmaschinen untersucht und diese zusätzlich mit jener auf den Homepages journalistischer Websites verglichen werden können. Die Schwächen des eigenen Vorgehens und die Alternativen, die es dazu gegeben hätte, bleiben aber unreflektiert.

Das Kriterium ‘Relevanz’ steht im Mittelpunkt der Messung der Suchmaschinenleistungen, die mit einigem Arbeitsaufwand und statistisch sorgfältig durchgeführt wurde. Relevanz ist aber nur eines von insgesamt vier Qualitätskriterien, die Beiler untersucht hat. Wie begründet er ihre Wahl? Im Theorieteil der Dissertation referiert er zunächst auf rund hundert Seiten Ergebnisse der Qualitätsforschung. Dies geschieht so ausufernd, dass z.B. dem bekannten Aufsatz von Schatz/Schulz (1992) über Fernsehqualität vier Seiten gewidmet sind (vgl. 55ff.). Knapp wird die Darstellung aber dort, wo eigene Entwicklungsarbeit notwendig gewesen wäre. Die Frage nach der Qualität im Internet wird auf ganzen fünf Seiten abgehandelt (vgl. 64ff.) – und das auf einer sehr schmalen und veralteten Literaturbasis (als Überblick vgl. z.B. Neuberger 2011). Was Beiler wiederholt anderen Autoren vorwirft, dass sie nämlich ihre Kriterien der Qualität nicht theoretisch ableiten, angemessen systematisieren und operationalisieren sowie auf das Internet übertragen – diesem Anspruch wird er selbst nicht gerecht: Auf Seite 84 werden vier Kriterien für Nachrichtensuchmaschinen ‘aus dem Hut gezaubert’: Transparenz, Vielfalt, Aktualität und Relevanz. Die Wahl von Transparenz wird damit erklärt, dass sie “in verschiedenen Systematiken journalistischer Qualität genannt” (85) wird. Auch bei Vielfalt, Aktualität und Relevanz reichen dem Autor Hinweise auf andere Studien, die sich damit befasst haben. Ein ‘Begründungsweg’ ist hier nicht erkennbar.

Wie ließe sich ein solcher Weg finden? Zwar erwähnt Beiler die Vielzahl der Perspektiven, in denen Qualitätsansprüche gestellt und begründet werden, gleich­wohl will er nur die gesellschaftliche Per­spek­tive gelten lassen (vgl. 43). Die – längst gut erforschte – Perspektive der Suchmaschinen-Nutzer bleibt so außen vor. Um Qualitätskriterien in der gesellschaftlichen Perspektive zu bestimmen, wäre es notwendig gewesen, die Rolle der Nachrichtensuch­maschinen im breiteren Kontext der Netzöffentlichkeit zu analysieren. Man erfährt in der Arbeit aber kaum etwas über ihre Rolle als technische Vermittler in der Netzöffentlichkeit sowie ihr Verhältnis zu professionellen und partizipativen Vermittlern, zum Publikum und zu den Quellen.

Aus der Sicht des professionellen Journalismus und der Medienunternehmen sind Google News & Co. bekanntlich eine ambivalente Angelegenheit: Sie können darüber sowohl Leser gewinnen als auch verlieren. Das Interesse der Verlage, das zeigte unlängst die Debatte über das Leistungsschutzrecht, besteht darin, dass Nutzer in den ‘Snippets’ nicht zu viel erfahren, damit sie sich zum vollständigen Artikel auf der Zeitungs-Website, d.h. zum Nachrichtenproduzenten ‘durchklicken’. Beiler verwendet jedoch die Vollständigkeit der Beantwortung der W-Fragen als Indikator für die Erfüllung des Qualitätskriteriums ‘Transparenz’: Je ausführlicher der Text wiedergegeben wird, desto besser – so lautet auch seine abschließende Empfehlung (vgl. 371). Hier fehlt der Blick für den größeren Zu­sam­menhang und den ökonomischen Hintergrund. Auf den juristischen Streit wird lediglich in einer Fußnote verwiesen (vgl. 21). Und gar nicht erörtert wird die Frage, wie viele Nutzer sich mit den ‘Snippets’ begnügen.

Mit der Dissertation von Beiler und der – ebenfalls kürzlich erschienenen – Dis­ser­tation von Sven Engesser (2013) liegen zwei ähnliche Studien vor, die sich für einen Vergleich geradezu aufdrängen: Während sich Beiler mit der Qualität technischer Vermittler im Netz beschäftigt, hat sich Engesser mit der Qualität partizipativer Vermittler befasst. Engesser diskutiert eine Vielzahl von Begründungskontexten für Qualitätskriterien im partizipativen Journalismus, bildet daraus eine überzeugende Synthese und stützt sich darauf konsequent in seinen empirischen Studien. Eine ähnliche argumentative Stringenz habe ich in der Arbeit über Nachrichten­such­maschinen vermisst.

Literatur:

  • Engesser, S.: Die Qualität des Partizipativen Journalis­mus im Web. Bausteine für ein integratives theoretisches Konzept und eine explanative empirische Analyse. Wies­ba­den [Springer VS] 2013.
  • Neuberger, C.: Definition und Messung publizistischer Qualität im Internet: Herausforderungen des Drei-Stufen-Tests. Berlin [Vistas] 2011.
  • Schatz, H.; W. Schulz (1992): Qualität von Fernsehprogram­men. Kriterien und Me­thoden zur Beurteilung von Programmqualität im dualen Fern­sehsystem. In: Media Per­spekti­ven, 11, 1992, S. 690-712.

Links:

Über das BuchMarkus Beiler: Nachrichtensuche im Internet. Inhaltsanalyse zur journalistischen Qualität von Nachrichtensuchmaschinen. Konstanz [UVK] 2013, 490 Seiten, 59,- Euro.Empfohlene ZitierweiseMarkus Beiler: Nachrichtensuche im Internet. von Neuberger, Christoph in rezensionen:kommunikation:medien, 17. Dezember 2013, abrufbar unter http://www.rkm-journal.de/archives/15171
Getagged mit: , ,
Veröffentlicht unter Einzelrezension
Teilen
facebooktwittergoogle+
Drucken
Druck-Version PDF-Version
Verwandte Rezensionen
Rezensent/in
Christoph Neuberger ist Professor am Institut für Kommunikationswissenschaft und Medienforschung an der Ludwig-Maximilians-Universität München. Seine Forschungsschwerpunkte sind Journalismus (Theorie, Arbeitsmarkt und Qualifizierung), Internet (Öffentlichkeit und Journalismus im Internet, Aktivitäten von Presse und Rundfunk im Internet, Suchmaschinen, partizipative Formate), Medienqualität und -regulierung sowie Medienwandel.