Algorithmen und Bots waren definitiv eines der großen Über-Themen auf dem International Journalism Festival 2017 in Perugia. Neben dem Algorithmus, der die Platzierung von Inhalten steuert (und den wir vor allem von Google und Facebook kennen) streift das Thema dann relativ schnell die Frage, ob Computer auch ganze Texte schreiben sollten und was diese Entwicklung bedeutet.
Hilfe, die Roboter kommen!
Manchmal gibt es ja lustige Koinzidenzen. Völlig unabhängig von meinem Besuch beim #ijf17 bin ich kurz darauf beim Aufräumen meines Blogs über diesen Eintrag aus dem Jahr 2005 gestolpert:
Die Redaktion der Zukunft…
…stelle ich mir ungefähr so vor, wie uns das laut sueddeutsche.de ein paar Studenten in den USA demonstriert haben: Der Computer wird mit ein paar Daten gefüttert und baut sich selber ellenlange Texte zusammen. Wir haben in der Redaktion auch mal überlegt, ob das nicht bei Unfallmeldungen ginge: Man füttert die Maschine mit ein paar Zahlen und Daten, den Rest baut der sich dann mit Textbausteinen selbst zusammen. Geht sicher auch bei vielen anderen Themen. Schließlich ist nicht alles, was von Hand getextet wurde, unbedingt besser… 😉
Nun war ich keiner der Studenten in den USA und den im Original verlinkten Artikel gibt es auch nicht mehr. Insofern kann ich weder ernsthaft behaupten, den Roboterjournalismus erfunden zu haben, noch nachvollziehen, was eigentlich aus den damaligen Experimenten geworden ist. Doch genau die Idee, die ich damals am Beispiel eines – zugegebenermaßen etwas makabren Themas – skizziert hatte, ist heute Wirklichkeit geworden: Man füttert Computerprogramme mit (meist in strukturierter Form vorliegenden) Daten und am Ende kommt ein Text raus. Das ist heute vor allem bei Nachrichtenagenturen kein ungewöhnlicher Vorgang.
Noch kein Journalist hat seinen Job wegen eines Roboters verloren
Für viele Journalisten klingt alleine das Wort „Roboterjournalismus“ bedrohlich. Es klingt nach menschenähnlichen Gestalten aus Metall, die sich an die Tastaturen setzen (und wird meistens so bebildert), es klingt nach Roboterarmeen, die in Redaktionen einmarschieren und die Kontrolle übernehmen, und es klingt nach wegrationalisierten Jobs.
Das ist nicht die Realität. Die Realität ist, dass automatisierte Texte in großen Mengen durch Computerprogramme erstellt werden, die mit Daten in strukturierter Form gefüttert werden. Die Realität ist auch, dass jemand mit journalistischem Sachverstand diese automatische Texterstellung beaufsichtigen, ggf. Texte korrigieren, vor allem aber die Algorithmen und Sprachstrukturen entwickeln muss. Also: Es braucht dafür vielleicht nicht unbedingt Journalisten, aber es hilft natürlich (sowohl den Journalisten, als auch den Programmen). Vor allem aber entstehen durch diese Computerprogramme nun zahlreiche Texte in kurzer Zeit, die es früher in dieser Menge und dieser Geschwindigkeit nicht geben hätte können.
Deshalb halte ich den Begriff „Roboterjournalismus“ für irreführend und gefährlich, weil er negative Assoziationen weckt, wo es eigentlich eine positive Entwicklung gibt.
Die Journalismus-Bots sind bereits unter uns
Alexander Fanta von der österreichischen Nachrichtenagentur APA forscht in Oxford im Rahmen des Reuters International Fellowships for Journalism darüber, wie Journalisten den Trend zum „Automated Journalism“ wahrnehmen und führt dazu Interviews mit Journalisten oder befragt sie per E-Mail zu diesem Themenbereich. Einige Zwischenergebnisse stellte er in Perugia bei einem Lightning Talk vor.
Fanta berichtete, dass 10 von 15 Nachrichtenagenturen bereits automatisierte Texte produzieren – vor allem zu Sport- und Finanzthemen. Offenbar sind die Kunden zufrieden damit und niemand beschwert sich. Warum auch: In aller Regel handelt es sich ja um Artikel, wie sie nie ein Mensch zuvor geschrieben hat, weil der Aufwand zu groß gewesen wäre. Texte, die nur Ergebnisse referieren und immer die gleiche Geschichte erzählen – die also auch kein Journalist gerne schreibt (siehe oben mein Beispiel mit den Unfallmeldungen). Aber Texte, die für einen Teil der Zielgruppen relevant sind und für die Nutzer am Ende einen Mehrwert darstellen.
Ein Beispiel: Nehmen wir an, mein Lieblingsbasketballverein spielt in der dritten Liga (bitte liebe Basketballfans, steinigt mich nicht, ich habe in Wirklichkeit natürlich keine Ahnung). Keine Redaktion kann es sich leisten, für die Handvoll Fans einen Journalisten dranzusetzen, um die Ergebnisse dieses phänomenalen Vereins in Textform aufzubereiten. Ich wäre aber sehr froh, wenn ich immer direkt nach Spielen in Textform über die Ergebnisse meines Lieblingsvereins informiert würde.
Computer klagen nicht
Besonders spannend wird automatisierter Journalismus da, wo die speziellen Fähigkeiten von Computern gefragt sind – z.B. große Mengen strukturierter Informationen in kurzer Zeit zu verarbeiten. Martin Belam vom Guardian brachte das in einer anderen Diskussion, bei der es um Algorithmen ging, mit dem schönen Satz „Computers can do a lot of stuff and never complain about it“ auf den Punkt.
Das ist es auch, was laut Alexander Fanta der große Vorteil von automatisiertem Journalismus ist, wenn es um die Verarbeitung großer Datenmengen geht: „Machines will find stories in the data and write it.“
Als einfaches Beispiel fällt mir der Quakebot der LA Times ein, der direkt an die entsprechenden Datenquellen des geologischen Instituts angeschlossen ist und automatisch eine Meldung schreibt, wenn es ein Erdbeben über einer bestimmten Magnitude gab. Wenige Minuten nach dem Beben ist die erste Meldung online. Und hier kommen die Journalisten ins Spiel: Über Opfer, Schäden, Wahrnehmung der Menschen, Panik, Folgen kann der Bot natürlich nicht schreiben. Das müssen immer noch Menschen tun und das ist auch gut so. Der Bot findet nur die Geschichte in den Daten und schreibt sie auf. Dann müssen echte Journalisten übernehmen. Deswegen ist es auch wichtig, dass Redaktionen diese Daten selbst zur Verfügung haben und kontrollieren können, meint Alexander Fanta.
Warum wir automatisierten Journalismus brauchen
Man muss übrigens – wenn man an automatisierten Journalismus denkt – noch nicht mal an komplette Texte denken. Es kann ja auch sein, dass Computer nur die Geschichten aus großen Datenmengen ausgraben, die dann in Handarbeit aufbereitet werden. Genau das passiert, wenn Datenjournalismus als investigative Recherchemethode eingesetzt wird.
Oder dass durch Algorithmen personalisierte Timelines für die User erstellt werden, die auf deren Interessen … - oh, Moment mal, hat das nicht schon jemand gemacht? Und ärgern wir uns nicht oft genug darüber, dass wir die Algorithmen von Facebook, Google, etc. nicht verstehen? Dann könnten wir es ja einfach besser machen: Algorithmen bauen, die wir selbst bestimmen und gegenüber unseren Nutzerinnen und Nutzern erklären können.
Schließlich liegt darin, Routine- und Rechenaufgaben Computern zu überlassen, eine große Chance für Journalisten: Man kann sich auf das Wesentliche konzentrieren, nämlich spannende Geschichten zu schreiben, die nicht jeder andere auch schreibt. Das ist es ja, worum es eigentlich geht.
Keine Angst vor den Robotern!
Aus alledem kann man meines Erachtens folgende Regeln machen, die für den Einsatz von Computerprogrammen und Algorithmen in Redaktionen gelten sollten.
- Wenn es ein Computerprogramm besser oder schneller kann, sollte es das Computerprogramm machen.
- Journalisten sollten sich auf Geschichten konzentrieren, die Computer nicht besser schreiben können.
- Für die User sollte immer klar sein, ob es ein Mensch geschrieben hat oder eine Maschine. Idealerweise erklärt man dabei, wie der Algorithmus funktioniert.
Ich glaube, wenn wir uns alle darauf verständigen könnten, müssten wir keine Angst vor den Roboterjournalisten haben.
Titelfoto: Karolina Grabowska / kaboompics