Roboterjournalismus - So geht's...

TastaturMomentan wird viel über das Thema „Roboterjournalismus“ in den Medien berichtet und in der Verlagsbranche diskutiert. Unter „Roboterjournalismus“ versteht man die computergestützte Erstellung von Texten ohne Mithilfe von Menschen. Interessante Artikel dazu: „Wenn Roboter die Newsticker übernehmen“, „Roboterjournalismus Texte in null Komma nichts“, und „Roboter-Journalismus hält in Redaktionen Einzug

Dieses Video erklärt in Kürze, worum es geht:

Ein Algorithmus ersetzt hierbei die bisherigen Tätigkeiten von Redakteuren. Da aber ein Computer immer nur das schreiben kann, was er kennt und gelernt hat, wird es (zumindest in den nächsten Jahren) nicht möglich sein, dass er emotionale Artikel oder Reportagen schreiben könnte. Es gibt aber Bereiche, die bestimmten Regeln unterliegen und auf Daten beruhen. Dies können z.B. Wettervorhersagen, Erdbebenmeldungen, Sportberichte oder Finanznachrichten sein. In diesen Bereichen ist Roboterjournalismus möglich.

Was brauchen wir:

1. Eine gute Datenbasis:
Wir benötigen eine gute Datenbasis in dem Themengebiet, die am besten per API erreichbar ist. Beispiele: wetter.com (Wetter-Daten), optasports (Sport-Daten)

2. Regeln zur Auswertung der Daten:
Jeder Artikel zu diesen Themen wird nach einem bestimmten Schema geschrieben. Normalerweise hat hierbei ein menschlicher Redakteur auch z.B. nur Wetterdaten, Zeiten, Ereignisse oder Werte vorliegen. Diese analysiert er und schreibt entsprechend seiner Auswertung einen Artikel. Diese Daten reichen auch für den Roboterjournalisten. Beim Wetter hat man zum Beispiel die Temperaturen und Niederschlagswahrscheinlichkeiten für bestimmte Zeitpunkte. Diese würde ein Redakteur in einem Satz entsprechend formulieren: „Die Sonne scheint morgens bei 22 Grad. Mit Niederschlägen ist nicht zu rechnen“. Hierbei muss natürlich die Abhängigkeit von verschiedenen Datensätzen betrachtet werden ("If this then that"-Prinzip). Denn bei dem erwähnten Beispiel kann es mittags schon ganz anders aussehen. Dann sollte man z.B. nicht empfehlen, ohne Schirm aus dem Haus zu gehen. Die Regeln werden somit recht komplex. Aber alles das sind auch Zusammenhänge, die er Mensch irgendwann mal gelernt hat. Also kann ein System dies auch lernen. Für das Zusammentragen der Regeln kann man sich aber bereits bestehend Artikel anschauen und auch die Phrasen übernehmen.

3. Ein System zur Berechnung:
Für die Verwaltung der Regeln und Berechnung der Daten benötigt man natürlich ein System (Programmiersprache, Server, Datenbank). Die Pflege der Regeln bedeutet den größten Aufwand und kann sehr mühselig werden. Deshalb sollte die Verwaltung auch gut durchdacht sein.

4. Textvielfalt bei der Ausgabe:
Wenn jedes Mal derselbe Text bei einer Regel geschrieben wird, wäre dies schnell langweilig für den Leser und somit unbrauchbar. Ein menschlicher Redakteur hat seinen eigenen Wortschatz und er bildet aufgrund dieses Wissens unterschiedliche, aber gleichbedeutende Sätze. Für einen Roboterjournalisten ist dies ebenso möglich. Anhand von Synonymen kann ein Satz umgeschrieben werden. Im SEO-Bereich nutzt man z.B. häufig Text Spinner, die mit Hilfe von Synonym-Datenbanken wie openthesaurus gleichbedeutende Sätze automatisch generieren können. Eine Funktion in dieser Richtungt benötigt man auch für den Roboterjournalisten. Ich habe mal ein kleines Beispiel vorbereitet mit dem man per Klick immer wieder neue Sätze zu ermittelten Wetterbedingungen ausgeben kann.

Mit diesen vier Schritten kann man sich ein mächtiges Werkzeug bauen. Natürlich ist erst einmal etwas Arbeit notwendig, aber auf Dauer rentiert sich das für einen Verlag, da man Personalkosten sparen kann bzw. die Möglichkeit hat, sein Personal für wertvollere Tätigkeiten, wie z.B. Reportagen/Recherchen einzusetzen. In Zeiten, wo Qualitätsjournalismus fast schon mit einer Paywall gleichzusetzen ist, benötigt man immer mehr und besserere Inhalte, damit Leser auch gerne dafür bezahlen würden. Der Einsatz von Robotorjournalismus kann somit letztendlich dazu führen, dass die Verlage noch mehr Qualität bieten können - bei gleichem Kosteneinsatz. Ein Text, der per Algorithmus in den passenden Themengebieten geschrieben wurde, wird sich bald eh nicht mehr von Texten menschlicher Redakteure unterscheiden.

Autor

Björn Schumacher

COO/Co-Founder von 247GRAD Labs, Business Development bei einem regionalen Online-Verlag und Analysen von Nachrichten und Influencern.

Kommentare

comments powered by Disqus