Markt Magazin

Adobe Stock / Aleksei

Internet: KI erkennt Fake News mit Bezug zum Finanzmarkt

Fake News verbreiten sich seit Jahren ungehindert im Internet. An der Universität Ulm forschen Prof. Christian Montag und Dr. Cornelia Sindermann zu dem Phänomen. Da der Begriff in Wissenschaft und Politik unterschiedlich benutzt werde, gebe es keine allgemein gültige Definition, erklärte die Hochschule. Die beiden Psychologen bedienten sich einer kommunikationswissenschaftlichen Begriffsbestimmung: Demnach sind Fake News „Inhalte mit geringem Wahrheitswert, die bewusst erstellt und in einem journalistischen Format verbreitet“ würden.

Oft verfolgten die Absender politische oder kommerzielle Interessen, hieß es weiter. Studien zeigen demnach, dass sich Fake News stärker, schneller und weiter als sonstige Nachrichten verbreiten würden, denn sie zielten oft auf Ärger, Angst und Aufregung ab. „Das alte Säugetier in uns springt auf solche Meldungen an: Neues und Ungewöhnliches erregt unsere Aufmerksamkeit“, so Christian Montag, Leiter der Abteilung für Molekulare Psychologie der Uni Um. Vielen UserInnen bereiten vor allem Falschinformation auf Facebook Probleme: Diese wurden laut einer Studie der Stiftung Neue Verantwortung von lediglich 43 Prozent der Befragten erkannt, während 33 Prozent auch hierin fälschlicherweise eine Information gesehen hätten.

Förderung durch das BMBF
Fake News bedrohen zunehmend auch den Finanzsektor. Das Kölner Institut für Wirtschaftsinformatik (CIIS) der Universität zu Köln unter der Leitung von Prof. Dr. Detlef Schoder und ein Bonner Big Data-Unternehmen starteten am 1. Oktober 2021 gemeinsam ein umfangreiches Forschungsprojekt zur automatischen Erkennung von Falschmeldungen mit Bezug zum Finanzmarkt. Im Rahmen der Nationalen Strategie Künstliche Intelligenz (KI) der Bundesregierung sowie der Hightech-Strategie 2025 werde das Verbundprojekt maßgeblich durch das Bundesministerium für Bildung und Forschung (BMBF) gefördert, teilte die Uni Köln mit.

Ziel des Vorhabens sei es, eine intelligente Software zu entwickeln, die so genannte Fake News, die vor allem durch bösartige Social Bots oder Fake Accounts generiert und verbreitet würden, „automatisch und praktisch in Echtzeit erkennt, kategorisiert und an entsprechende Stellen meldet, wie etwa Aufsichts- und Regulierungsbehörden, interne Überwachungsstellen von Börsenplatzbetreibern sowie an Banken und Finanzdienstleister.“

„Zur verlässlichen Filterung von manipulativen Beiträgen in Social Media nutzen wir die jüngst zu verzeichnenden, erheblichen Fortschritte im Bereich Machine Learning insbesondere bei Verfahren des Natural Language Processing – kurz NLP“, erläuterte Prof. Dr. Detlef Schoder, geschäftsführender Direktor des CIIS. Seine Forschungen konzentrieren sich den Angaben zufolge auf digitale Transformation, NLP-basierte Analyse von Daten, datenzentrierte Geschäftsmodellinnovation und Anwendungen von KI zur Entscheidungsunterstützung etwa auf Finanzmärkten.

Musterkennung mit Machine-Learning-Ansätzen
Schoder erklärte auf Anfrage der Redaktion KINOTE: „Es gibt verschiedene Ansätze, die zu einer bestmöglichen Erkennungsrate von manipulativen Beiträgen in Social Media beitragen sollen. Die Bewertung der Nutzer oder Autoren der Beiträge ist hierbei ein zentraler Bestandteil. Diese nutzerbasierte Analyse schließt viele verschiedene Datenpunkte ein, z.B. den Zeitpunkt des ersten Posts, die Anzahl der Posts über eine bestimmte Zeitperiode, Anzahl der Follower, Anzahl Retweets oder Antworten, usw. Auf der Basis dieser Datenpunkte können mit Hilfe von Machine-Learning-Ansätzen Muster erkannt werden, die mit bestimmten Wahrscheinlichkeiten, Erklärungsansätze für Nutzungsverhalten liefern.“ Damit könnten potenziell weniger einflussreiche Autoren von solchen mit stärkerem Einfluss getrennt werden, so Schoder. Auch die Erkennung von (Social) Bots sollte damit leichter möglich werden.

Ein weiterer Ansatz in diesem Zusammenhang sei die Klassifizierung der Beiträge über deren Inhalt, so der Experte weiter: „Dafür setzen wir z.B. Techniken aus dem Deep Learning ein, z.B. HDBScan (Clustering Verfahren) und Sentence Transformers, die im Rahmen von BERT benutzt werden können. BERT ist eine maschinelle Lernmethode für NLP, die Kontextinformationen eines Worts erfasst, um seine Worteinbettung zu generieren. Es ist dabei das Ziel, damit einen sogenannten Novelty- oder Newness-Faktor von Beiträgen zu generieren, also eine Aussage über den neuen Informationsgehalt eines Beitrags, der nicht einem existierenden Beitragscluster zugeordnet werden kann“, erläuterte Schoder.  

Die Datenbasis sei über die vergangenen elf Jahre aufgebaut worden und bestehe hauptsächlich aus Social-Media-Beiträgen und traditionellen Nachrichten mit Bezug zum Finanz- und Aktienmarkt. Schoder: „Social Media umfasst z.B. Quellen wie Twitter, Stocktwits, Reddit, Foren, Kommentarspalten von Nachrichtenseiten, Blogs, etc. Alles, was unter die Definition nutzergenerierte Inhalte fällt, kann dazu gezählt werden. Die Crawler laufen 24 Stunden und sieben Tage in der Woche. Gecrawlt werden nur öffentlich zugängliche Quellen. Alle Daten werden strukturiert in Datenbanken abgelegt. Basierend auf den hauptsächlich textbasierten Daten setzen wir unsere Analysekonzepte ein.“

Kooperation mit der Deutschen Börse
Schoder fügte hinzu, unter anderem mit der Handelsüberwachungsstelle der Deutschen Börse zusammenzuarbeiten: „Die Börse nutzt die Daten bereits für die Analyse bei zweifelhaften Kursbewegungen. Alle großen Banken oder Finanzinstitutionen haben in der Regel Handelsüberwachungsaufgaben. Für diese Institutionen wird es angesichts der Entwicklung von Social Media und dessen Bedeutung für den Finanzmarkt immer relevanter werden, dieses Medium im Blick zu behalten. Je strukturierter und präziser die Informationen zur Verfügung gestellt werden können, desto werthaltiger für diese Gruppe.

Mit dem neuen Forschungsprojekt würden die Erkennung von Fake News und insbesondere auch die Weiterleitung in Echtzeit an relevante Behörden oder Überwachungsstellen „massiv verbessert“, hieß es laut Uni Köln weiter. Zudem werde die zu entwickelnde Systematik – leicht adaptiert – auch für andere, gesellschaftlich relevante Bereiche genutzt werden können, um die dort verbreiteten Fake News möglichst automatisiert erkennen zu können.

Autor
Von Dogan Michael Ulusoy

Stichworte

Verwandte Artikel

Anzeige

Lexikoneinträge