Veröffentlichung von Nachrichten im Zeitalter der Automatisierung

Kann Journalismus so weit automatisiert werden, dass er kaum noch oder gar keiner direkten menschlichen Kontrolle mehr unterliegt? Nein – nicht in all seinen Facetten und Methoden. Die Notwendigkeit, Aufgaben in reguläre, wiederholbare Routinehandlungen zu zerlegen und die Abhängigkeit des maschinellen Lernens von »Trainingsdaten« aus vorigen Beispieldaten schränken den Automatisierungsspielraum in den komplexen und kreativen Aufgaben des Journalismus ein. Diese Einschränkungen haben allerdings nicht verhindert, dass die Automatisierung in einige Aufgabenbereiche eingedrungen ist, die Journalisten wahrnehmen. Hierzu gehören die Identifizierung von story leads, die Verifizierung von Informationen, die Erstellung von Nachrichtentexten und Entscheidungen darüber, welche Storys für wen und mit welcher Priorität veröffentlicht werden sollen. Auf der einen Seite erfüllt die Automatisierung im Journalismus sehr reale Anforderungen und bietet europäischen Unternehmen Chancen. Auf der anderen Seite müssen wir die Anforderungen und Entscheidungen der sich entwickelnden automatisierten Systeme prüfen.

Berichtenswerte Nachrichten aufspüren und filtern

Seit geraumer Zeit fordern Journalisten Tools, mit deren Hilfe Berichtenswertes in der stetig ansteigenden Informationsflut gefunden und herausgefiltert werden kann. Diese Tools sollen zudem Richtlinien für die Glaubwürdigkeit von Inhalten und Berichterstattern bereitstellen können. In diesem Bereich sind viele der Tools amerikanischen Ursprungs und einige, wie Dataminr, sind mit den US-Sicherheitsbehörden und den US-Geheimdiensten verbunden. Da sich Journalisten immer mehr auf solche Tools verlassen, tauchen Fragen nach der Abhängigkeit externer und undurchsichtiger Systeme auf, die als Torwächter agieren – Fragen nach den Entscheidungen, die diese Systeme treffen und inwiefern sie als vertrauenswürdig zu beurteilen sind. Die Erstellung von Nachrichtentexten wird ebenfalls automatisiert, hierbei kommen die datengestützte Generierung natürlicher Sprache (natural language generation) und künstliche Intelligenz zum Einsatz. Erste Forschungsergebnisse legen nahe, dass die kurzen und relativ einfachen Texte kaum von den von Menschen produzierten Pendants zu unterscheiden sind. Solche Fortschritte in der journalistischen Produktivität haben nach Auffassung einiger Kommentatoren das Potenzial, die wackeligen Finanzen des Journalismus zu stützen und sogar Ressourcen für den Enthüllungsjournalismus freizusetzen. Dieses »robotische Schreiben« hat bereits damit begonnen, Daten von öffentlichem ­Interesse in einfache Lokalnachrichten zu verwandeln, in einer Größenordnung, die mit menschlichen Ressourcen nicht erreicht werden kann. Diese Technologie hat das Potenzial, traditionelle Nachrichtenanbieter außen vor zu lassen, indem sie etwa Datenanbietern wie Sportverbänden ermöglicht, sich direkt an Fans zu wenden. Dies geschieht bereits jetzt und führt zu einer weiteren Entflechtung des Nachrichtenprodukts mit Konsequenzen für das Überleben des Public-Affairs-Journalismus, der traditionell durch populärere Nachrichtenprodukte wie den Sport quersubventioniert wird.

Signale vom Lärm unterscheiden

Obwohl robotisches Schreibens nützlich sein kann, ­ergeben sich allgemeinere Fragen zu den Konsequenzen des daraus resultierenden Nachrichtenanstiegs. Wer oder was wird bei der zunehmenden Informationsflut das Signal vom Lärm unterscheiden, und wie? Automatisierung kann Verbrauchern helfen, die Nachrichten zu finden, die sie wollen, auch wenn eine solche Personalisierung eher für als durch sie vorgenommen wird. Die Adressaten solcher Nachrichten haben wenig Zeit oder Interesse daran, die Parameter dieser Personalisierung aktiv zu verwalten, und erlauben stattdessen anderen Instanzen, ihre Präferenzen zu erraten. Da die Bürger nicht aktiv daran beteiligt sind, wie sich die Personalisierungsparameter entwickeln, obliegt es Politikern, Verlagen und Plattformen sicherzustellen, dass Nutzerdaten respektiert werden und dass durch Algorithmen personalisierte Nachrichten die Relevanz und Vielfalt ausbalancieren. Somit bieten sie nicht allein das an, was im Interesse der einzelnen Bürger wäre, sondern auch das, was im öffentlichen Interesse aller wissenswert ist.

Prof. Dr. Neil Thurman (48) ist Professor für Kommunikation an der LMU München und Freigeist-Fellow der VolkswagenStiftung. Er war das erste Fakultätsmitglied im Bereich Electronic Publishing an der City, University of London, und leitete Masterstudiengänge in den Bereichen Electronic Publishing, Journalismus und Globalisierung.