Highlight

Những điều thú vị khi dùng Trí tuệ nhân tạo của Viettel

Những người dùng Internet tại Việt Nam thường lấy “chị Google” ra để… giải trí. Khi “chị” đọc văn bản hay chỉ đường cho người tham gia gi...

Saturday, December 10, 2016

Roboter-Journalismus: Kein Allheilmittel gegen Fake News


Algorithmen, Big Data und Künstliche Intelligenz sollen helfen, Faktenchecks durchzuführen und den Journalismus zu revolutionieren. Doch es gibt keine Garantie, dass News-Automaten nicht selbst falsche Nachrichten ausspucken.
Die Digitalisierung macht auch vor dem Verlagswesen nicht halt, große Daten- und Informationsmengen spielen im Redaktionsalltag eine immer größere Rolle. Algorithmen könnten da etwa helfen, potenzielle Storys ausfindig zu machen oder Fakten in Echtzeit zu prüfen, weiß der Münchner Kommunikationswissenschaftler Neil Thurman. Parallel entwickle sich der Roboter-Journalismus, bei dem die Maschine Daten in erzählende Nachrichtentexte zu konvertieren suche. Die Agentur Associated Press (AP) etwa sei ein Vorreiter auf diesem Gebiet und lasse inzwischen automatisch tausende Wirtschaftsmeldungen jedes Jahr erstellen.

Falsche Fütterung

Auch die dabei eingesetzten Formen Künstlicher Intelligenz seien aber kein Patentrezept gegen Fake News, räumt Saim Rolf Alkan ein, Geschäftsführer der Firma AX Semantics. "Es gibt keine Garantie", dass die von der Maschine erstellten Nachrichten korrekt seien, erklärte der Spezialist für Textroboter am Dienstag bei einer Diskussion in Berlin, zu der die von Google initiierte Denkfabrik Collaboratory geladen hatte.
AP könne ein Lied von der Problematik singen, meinte Alkan. Nachdem die Nachrichtenagentur die einschlägige Technik von Automated Insights eingeführt habe, seien die Ergebnisse im eigenen Hause zunächst ein Jahr kontrolliert worden. Danach sei AP dazu übergegangen, mit der Lösung automatisch generierte Quartalsberichte einfach zu verbreiten. Daraufhin sei in einer Meldung Netflix im Juli 2015 untergejubelt worden, mit den Umsatzergebnissen die Erwartungen der Analysten enttäuscht zu haben. Tatsächlich war das Gegenteil der Fall. Medien wie die "Los Angeles Times" oder "CNBC" übernahmen die Ente. Ursache war Alkan zufolge, dass die "Datenbank falsch gefüttert war".

Maschinentraining

Der Wirtschaftsingenieur warnte daher davor, sich komplett auf die Maschine zu verlassen. Zudem riet er den Einsatz von Kollege Roboter gegenüber den Lesern transparent zu machen. Noch viel zu viele seiner Kunden legten dagegen Wert auf Stillschweigevereinbarungen, sodass er in der Regel keine Namen nennen dürfe. Generell gab er zu bedenken: "Wenn kein Journalist die Maschine trainiert, kommt am Ende nichts raus außer den eingegebenen Daten." Die Redaktion behalte so letztlich die Kontrolle über den News-Ausstoß.
Prinzipiell machte Alkan an einigen Stellen im Roboter-Journalismus Licht und Schatten aus. "Das Werkzeug misst selbständig, welcher Text besonders gut gelaufen ist", führte er aus. So könnten mehr ähnliche Meldungen generiert und erfolgreiche verstärkt ausgespielt werden. Auch die Personalisierung sei ein wichtiger Punkt. Ein Fußballfan könne sich etwa den Spielablauf immer so schildern lassen, dass jeder Elfmeter gegen die favorisierte Mannschaft als fraglich dargestellt werde. Die Filterblase lasse sich so perfektionieren. Die Maschine könne auch bereits emotional schreiben; eine empathische Flüchtlingsreportage gelänge ihr aber wohl erst, wenn man jedem Syrer auf dem Marsch einen Sensor an den Hals setzte.

Themenaufbereitung

Einen breiten Ansatz, den Journalismus mithilfe von Big Data und Algorithmen aufzubohren, vermisste der Innovationsmanager bei der Deutschen Welle, Mirko Lorenz. Der Rundfunksender selbst beteilige sich gerade zusammen mit der dpa an dem Forschungsprojekt News-Stream. Ziel sei es, gemeinsam mit den Technologiepartnern in Form des Fraunhofer-Instituts für Intelligente Analyse- und Informationssysteme (IAIS) und der Berliner Firma Neofonie Inhalte etwa von Video-Portalen, RSS-Feeds, Medienarchiven oder sozialen Netzwerken thematisch zu bündeln sowie aktuelle Ereignisse in Echtzeit zu beobachten und aufzubereiten.
Konkret experimentiere man so mit semantischen Inhaltsanalysen, um die Meldungsverbreitung oder Plagiate zu verfolgen, Sprecher zu erkennen oder mit einem "O-Ton-Produzenten" Zitaten auf die Spur zu kommen. Derlei Systeme machten mittlerweile große Qualitätssprünge, sodass sich die Nachrichtenproduzenten damit auseinandersetzen müssten. Der Versuch, mit der Technik mehr Qualität in die Berichterstattung zu bringen, sei vielversprechend, im Wettrennen mit den großen Internetplattformen wie Google oder Facebook aber auch mühsam.

Rein deskriptiv

Der Züricher Medienforscher Konstantin Dörr gab zu bedenken, dass "automatisierter Journalismus nur funktioniert, wenn Sie eingegrenzte Daten haben". Sport, Wetter oder Verkehr könnten passable Einsatzgebiete sein. Die "Arschkarte" hätten aber die Medienhäuser gezogen, da sie nur die leere Plattform geliefert bekämen und schon die Trainingsinformationen strukturiert ins System einpflegen müssten. Roboter-Journalismus dürfte sich nach Ansicht des Experten für viele Verlage oder Sender nicht lohnen, da die Leser wohl kaum bereit seien, für rein deskriptive Nachrichten mit großem Wiederholungsfaktor zu bezahlen. (kbe) 

No comments:

Post a Comment