Hinter Dem Aprilscherz: Technologie Bekämpft Betrug, Während Sie Ihn Verursacht

Als Reaktion auf das zunehmend ernste Problem der Falschmeldungen nutzen verschiedene Forschungsteams KI-Technologie, um Falschmeldungen genauer zu bestimmen und zu identifizieren. Aber Technologie ist relativ. Auf der anderen Seite gibt es im Dunkeln eine weitere Welle von Menschen, die ständig KI-Technologie verwenden, um gefälschte Nachrichten und gefälschte Kommentare zu produzieren.
Haben Sie heute Fake News erhalten? Laut Statistik hat die Verwendung des Begriffs „Fake News“ seit 2016 um 365% zugenommen.
Zuckerberg sagte einmal, dass es sehr lange dauert, ein umfassendes System zur Erkennung von Fake News aufzubauen, da die traditionelle Idee darin besteht, den Inhalt der Nachricht zu verstehen und anhand des Veröffentlichungszeitpunkts und der Quelle Urteile zu fällen, was einen hohen Arbeitsaufwand und technische Anforderungen erfordert.
Aber was wäre, wenn wir unser Denken ändern würden? Um dieses Problem zu lösen, muss KI möglicherweise nicht auf menschliches Denken zurückgreifen. Tatsächlich gibt es aufgrund der aktuellen Entwicklungen bereits neue KI-Methoden, die Menschen dabei helfen, Fake News im Internet zu beurteilen.
Fake News nicht nur am 1. April
Erst vor wenigen Tagen gab Microsoft bekannt, dass man den Aprilscherz in diesem Jahr nicht feiern werde. Diese Nachricht ist vielleicht nicht überraschend, da sich Google einmal öffentlich bei den Nutzern für einen großen Aprilscherz entschuldigt hat.

Seit dem Beginn des Internetzeitalters hat sich der Aprilscherz allmählich von einigen kleinen Streichen zu großen, im Internet verbreiteten Ereignissen entwickelt. Dieses Verhalten, das wie ein Streich wirkt, hat aufgrund seiner enormen Verbreitung und seines allzu großen „Realismus“ in einigen Fällen Panik in der Öffentlichkeit ausgelöst.
Dieser Feiertag, der eigentlich ein erholsamer Tag sein sollte, ist für manche Menschen zu einem Tag geworden, den sie fürchten, weil an diesem Tag eine große Menge an Falschmeldungen produziert werden.
Bei sogenannten Fake News handelt es sich häufig um falsche Inhalte, die von bestimmten Medien produziert werden, um ihre Leserschaft zu erhöhen oder sie online weiterzugeben. Produzenten von Fake News ähneln Clickbait-Schlagzeilen, die den Wahrheitsgehalt des Inhalts ignorieren, um Aufmerksamkeit oder Verkehr zu erregen.

Fake News haben oft einprägsame Schlagzeilen, Sensationsgeschichten oder jagen aktuellen Trendthemen hinterher. Aus diesem Grund ist es wahrscheinlicher, dass Fake News Werbeeinnahmen generieren und Aufmerksamkeit erregen.
Neben der gezielten Schaffung von Gimmicks am 1. April führen die Annehmlichkeiten des Internets und die niedrigere Hemmschwelle für die Medienberichterstattung dazu, dass sich Fake News an gewöhnlichen Tagen auch schneller und weiter verbreiten als echte Nachrichten. Die beste Lösung für dieses Problem ist ein intelligenter Filter, der uns beim Filtern unterstützt.
Kampf gegen Fake News: MIT nutzt KI, um Fake News anhand von Sprachmustern zu identifizieren
Forscher des MIT verwendeten eine Methode, um Fake News anhand von Sprachmustern zu identifizieren.

In einem Artikel mit dem Titel „Die Sprache der Fake News: Die Blackbox von Deep Learning-basierten Detektoren öffnen“ verwendete ein Forschungsteam des MIT ein Modell des maschinellen Lernens, um die subtilen Unterschiede in der Sprache echter und gefälschter Nachrichten zu erfassen und so zu bestimmen, ob die Nachrichten wahr oder falsch sind.
Sie verwendeten ein Convolutional Neural Network und trainierten es anhand von Datensätzen mit Fake News und echten Nachrichten. Zum Training verwendeten sie einen beliebten Fake-News-Forschungsdatensatz von Kaggle, der etwa 12.000 Beispielartikel zu Fake News von 244 verschiedenen Websites enthält. Der eigentliche Nachrichtendatensatz stammt aus mehr als 2.000 Nachrichtenberichten der New York Times und mehr als 9.000 Nachrichtenberichten des Guardian.

Das trainierte Modell erfasst die Sprache der Artikel als „Wort-Einbettungen“, wobei Wörter als Vektoren dargestellt werden, im Wesentlichen Zahlenfelder, wobei Wörter mit ähnlicher semantischer Bedeutung dichter beieinander liegen und so Sprachmuster aufdecken, die sowohl echten als auch gefälschten Nachrichten gemeinsam sind. Dann durchsucht das Modell für einen neuen Artikel den Text nach ähnlichen Mustern und schickt sie durch eine Reihe von Ebenen. Die letzte Ausgabeebene bestimmt die Wahrscheinlichkeit jedes Musters: echt oder falsch.
Das Modell fasst die Merkmale von Wörtern zusammen, die häufig in echten oder gefälschten Nachrichten vorkommen. Beispielsweise werden in Fake News oft übertriebene oder überhöhte Adjektive verwendet, während in echten Nachrichten eher konservative Wörter verwendet werden.

Forscher des MIT sagen, dass ein Teil ihrer Forschung auch die Blackbox der Deep-Learning-Technologie aufdeckt. Dabei geht es darum, die von diesem Modell erfassten Wörter und Ausdrücke herauszufinden und Vorhersagen und Analysen dazu zu treffen, also die Grundlagen und Methoden der Deep-Learning-Beurteilung zu verstehen.
Adresse des Artikels: https://cbmm.mit.edu/sites/default/files/publications/fake-news-paper-NIPS.pdf
Kampf gegen Fake News: Fabula AI erkennt Fake News anhand ihrer Verbreitung
Fabula AI, ein britisches Technologieunternehmen, gab an, dass es die Art und Weise der Nachrichtenverbreitung nutzt, um Fake News zu identifizieren.

Fabula AI verwendet Geometric Deep Learning, um Fake News zu erkennen. Anstatt sich mit Nachrichteninhalten zu befassen, untersucht dieser Ansatz, wie sich solche Informationen in sozialen Netzwerken verbreiten und wer sie verbreitet. Sie haben für diese Technologie ein Patent angemeldet.
Michael Bronstein, Mitbegründer und leitender Wissenschaftler von Fabula AI, sagte: „Wir beobachten schon seit Langem, wie sich Nachrichten in sozialen Netzwerken verbreiten. Nach einer Analyse stellten wir fest, dass sich Fake News und echte Nachrichten unterschiedlich verbreiten. Das Wesentliche beim geometrischen Deep Learning ist, dass es Netzwerkstrukturdaten verarbeiten kann. Wir können heterogene Daten wie Benutzereigenschaften, Interaktionen zwischen Benutzern in sozialen Netzwerken und die Verbreitung von Nachrichten selbst kombinieren und so Urteile fällen.“
Schließlich klassifiziert die KI den Inhalt anhand der Glaubwürdigkeit wahrer oder falscher Nachrichten und vergibt eine Bewertungsnote. Visualisieren Sie die Verbreitungsmuster von Fake News und echten Nachrichten: Benutzer, die hauptsächlich Fake News teilen, sind rot, während Benutzer, die überhaupt keine Fake News teilen, blau sind. Laut Fabula AI zeige sich dabei eine klare Gruppendifferenzierung und sofort erkennbare Unterschiede in den Übertragungsmustern.

Darüber hinaus erklärte das Unternehmen, der Hauptvorteil der Fabula-KI-Technologie liege darin, dass sie unabhängig von Inhalt und Sprache der Nachrichten sei und sich auf das kollektive Verhalten der Nutzer sozialer Plattformen verlasse. Daher sei es schwieriger, ihr mit technischen Methoden entgegenzuwirken. Darüber hinaus ist das System in der Lage, Fake News deutlich schneller und innerhalb kurzer Zeit nach der Veröffentlichung mit hoher Genauigkeit zu erkennen (ROC AUC von > 93%).
Artikel-Blog: https://fabula.ai/news-index/2019/2/7/fabula-ai-announces-breakthrough-in-algorithmic-fake-news-detection
Natürlich ist die Methode, KI zur Beurteilung von Fake News einzusetzen, noch nicht so weit fortgeschritten, dass sie in vollem Umfang öffentlich genutzt werden kann. Es befindet sich derzeit in der Forschungsphase bzw. erfordert menschliche Unterstützung und es gibt noch einige Details, die verbessert werden müssen.
Aber andererseits,Auch die Fähigkeit der KI, Text und Bilder zu generieren, ist mit der Entwicklung der Technologie ausgereifter geworden. Vielerorts ist es so weit gekommen, dass die Fälschung nicht mehr vom Original zu unterscheiden ist. Vielleicht wurde eine der Fake News, die Sie heute gesehen haben, von einer KI geschrieben.In gewisser Weise ist dies tatsächlich ein Grund zur Verbesserung der Erkennungstechnologie.
Fake News: OpenAI erfindet Fake News, um sie echt aussehen zu lassen
GPT-2, das Anfang dieses Jahres von OpenAI veröffentlicht wurde, basiert auf einem extrem großen Parameterumfang und Trainingsdaten. Nach unbeaufsichtigtem Training anhand großer Textmengen auf Webseiten ist das System sehr effektiv bei der Generierung oder Fortführung von Text. Der von ihnen zum Üben verwendete Text umfasste angeblich 45 Millionen Seiten mit von Reddit gefilterten Webinhalten.
Dieses Modell kann auf der Grundlage der bereitgestellten Leitsätze scheinbar glaubwürdigen Text generieren und ist beim Verfassen von Nachrichten überhaupt nicht mehrdeutig.
Zum Beispiel:
Erfundenes Beispiel: Russland hat den USA den Krieg erklärt, nachdem Donald Trump versehentlich eine Rakete in die Luft abgefeuert hatte.
Übersetzung: Russland erklärt den Vereinigten Staaten den Krieg, nachdem Donald Trump versehentlich eine Rakete in die Luft abgefeuert hat.
AI fügte Text hinzu: Russland sagte, es habe „die Flugbahn der Rakete identifiziert und werde die notwendigen Maßnahmen ergreifen, um die Sicherheit der russischen Bevölkerung und der strategischen Nuklearstreitkräfte des Landes zu gewährleisten.“ Das Weiße Haus äußerte seine „äußerste Sorge über den russischen Verstoß“ gegen einen Vertrag zum Verbot ballistischer Mittelstreckenraketen.
Die Beziehungen zwischen den USA und Russland sind seit 2014 angespannt, als Moskau die ukrainische Krim-Region annektierte und Separatisten in der Ostukraine unterstützte.
Übersetzung:
Russland erklärte, es habe „die Flugbahn der Rakete ermittelt und werde die notwendigen Maßnahmen ergreifen, um die Sicherheit des russischen Volkes und der strategischen Atomwaffen des Landes zu gewährleisten.“ Das Weiße Haus äußerte seine „zutiefst besorgt über die Verstöße Russlands“ gegen den Vertrag zum Verbot ballistischer Mittelstreckenraketen.
Die Beziehungen zwischen den USA und Russland sind angespannt, seit Moskau 2014 die ukrainische Krim-Region annektierte und Separatisten in der Ostukraine unterstützte.
Sie haben richtig gelesen. Die obige Geschichte wurde von einer künstlichen Intelligenz völlig eigenständig erfunden. Das ihm zur Verfügung gestellte Material bestand lediglich aus einem Satz: „Als Donald Trump versehentlich …, erklärte Russland den Vereinigten Staaten den Krieg.“

Zugegeben, das OpenAI-Team wird nicht absichtlich Fake News produzieren, aber es kann Bösewichte nicht davon abhalten, unethische Dinge zu tun. OpenAI hat sich außerdem dazu entschieden, keine wichtigen Daten und Codes zu veröffentlichen, da das Modell zu leistungsfähig sei.
Fake: KI ist auch gut darin, Videoinhalte zu generieren
Darüber hinaus verlieren Menschen möglicherweise auch die Fähigkeit, KI-generierte Videoinhalte zu unterscheiden.

Anfang letzten Jahres lud jemand auf einer ausländischen Video-Website ein Video hoch, das wie ein Video der berühmten französischen Musikerin Françoise Hardy aussah.
In dem Video wurde sie aus dem Off gefragt, warum Trump den Sprecher des Weißen Hauses, Spencer, gebeten habe, über die Zahl der Zuschauer bei seiner Amtseinführung zu lügen.
Herr Hardy antwortete, dass Herr Spencer lediglich „einen alternativen Sachverhalt präsentiert“ habe.
Das Video ist jedoch voller Mängel und Hardys Stimme ist offensichtlich die von Trumps Beraterin Kellyanne Conway.
Noch aufschlussreicher ist, dass Hardy, der 73 Jahre alt sein soll, nur etwa 20 Jahre alt aussieht.
Es stellt sich heraus, dass dieses Video mit dem Titel „Alternative Face v1.1“ ein Kunstwerk des Künstlers Mario Klingemann ist. Die von Hardy in diesem Stück gesprochenen Worte sind eigentlich Conways Antworten auf Fragen von NBC-Reportern.
Berichten zufolge verwendete Klingemann einen Generative Adversarial Network (GAN)-Algorithmus für maschinelles Lernen und stellte der Sendung eine große Anzahl von MTV-Videos aus Hardys Jugend zur Verfügung. Er extrahierte 68 Gesichtsmerkmale, was zu 2.000 Trainingsbeispielen führte, die er dann in das Pix2Pix-Modell einspeiste. Nach drei Tagen Training gab er Conways Gesichtszüge in das System ein und erhielt dieses Videowerk.
Darüber hinaus wird der Einsatz von Technologien wie GAN zur Erzeugung von Bildern, Tönen und sogar Gesichtsveränderungstechnologien durch Technologie und Hardware immer realistischer. Bei der Technologie selbst gibt es kein Richtig oder Falsch, aber wie der Google Brain-Forscher Goodfellow sagte: „KI wird unsere Ansicht darüber, was wir vertrauen können, völlig verändern.“
KI-Methoden werden bei der Unterscheidung und Identifizierung von Fake News immer leistungsfähiger. Allerdings macht die Technologie auch gefälschte Inhalte realistischer. Der Ausgang dieser Konfrontation mit „Speer und Schild“ wird sich wohl erst mit der Zeit zeigen. Aber wir sollten diese Vision weiterhin haben: Wir hoffen, dass großartige Technologien an den richtigen Stellen eingesetzt werden.
KI-gestützter Fälschungsschutz und Fälschungsschutz sind beides menschliche Entscheidungen
Gustave Le Bon erklärte in „The Crowd“ die Quelle von Fake News: Die Massen wollen nie die Wahrheit. Angesichts offensichtlicher Tatsachen, die ihnen nicht gefallen, wenden sie sich ab und verehren lieber Trugschlüsse, solange diese ihnen gefallen.
Wenn einige Medien Schwächen im Gruppenbewusstsein ausnutzen und KI verwenden, um Gerüchte und Fake News zu verbreiten, liegt die Verantwortung dafür nicht bei der Technologie selbst. Denn die KI selbst hat keinen Willen, aktiv Fake News zu produzieren und zu eliminieren. Dahinter stecken die eigene Funktionsweise und menschliche Eingriffe der Medien.
Wenn wir Fake News wirklich ausmerzen wollen, müssen wir die Besessenheit der Menschen beseitigen.
Kein schöner Aprilscherz.