HyperAI

Vier Bürogebäude Von Facebook Wurden Dringend Evakuiert. War Es Eine Terroristische Rache Oder Ein Fehler?

vor 6 Jahren
Information
神经小兮
特色图像

Soziale Medien sind zur wichtigsten Propagandaplattform für Terrororganisationen geworden, was auch sozialen Medien wie Facebook und Twitter Kopfzerbrechen bereitet hat. Um diese Terroristen und Extremisten zu bekämpfen, werden sie KI-Technologie einsetzen, um relevante Beiträge rechtzeitig und automatisch zu löschen. Aber deshalb haben sie auch erfundene Beschwerden gegen Terroristen erhoben …

Ausländischen Medienberichten zufolge erhielt das Facebook-Büro in Menlo Park, Kalifornien, am 1. Juli gegen 11 Uhr pazifischer Zeit ein „verdächtiges Paket“. Bei Routinetests wurde Sarin-Gas (ein tödliches Nervengas) nachgewiesen, was zu mutmaßlichen Terroranschlägen führte und Panik unter den Mitarbeitern auslöste.

Derzeit wurde das Federal Bureau of Investigation (FBI) um Unterstützung in diesem Fall gebeten.

Verdacht auf Sarin-Gasangriff auf Facebook-Zentrale

Das New York Police Department erhielt einen anonymen Hinweis auf eine Bombendrohung auf dem Facebook-Bürogelände in Menlo Park, Kalifornien, und alarmierte gegen 16:30 Uhr die örtlichen Behörden, so ein Sprecher der Polizei von Menlo Park, Kalifornien.

Der Bericht besagt, dass es sich bei dem verdächtigen Paket, das Facebook erhalten hat, um ein Großer Postsack, das viel Post enthielt, wurde positiv auf Sarin getestet, nachdem es durch einen Postscanner in der Einrichtung in Menlo Park gelaufen war. Auch wenn es sich möglicherweise um einen Fehlalarm handelt, kann die Gefahr nicht ausgeschlossen werden.

Nachdem Facebook vier Gebäude evakuiert hatte, schaltete sich das FBI in die Ermittlungen ein

Vier Gebäude auf dem Silicon Valley-Campus von Facebook wurden am Dienstag evakuiert, da Befürchtungen bestanden, dass Pakete in einer Postfiliale den Nervenkampfstoff Sarin enthielten.

Sarin ist ein extrem flüchtiger Nervenkampfstoff, da es von einer Flüssigkeit in einen gasförmigen Zustand verdampfen kann. Sarin ist klar, farblos, geruchlos und geschmacklos. Wenn Menschen über die Haut, die Augen oder den Atem mit Sarin in Kontakt kommen, kann ein Tropfen Sarin von der Größe eines Stecknadelkopfes einen Erwachsenen schnell töten.

Dies ist nicht das erste Mal, dass Facebook eine Terrordrohung erhält!

Am Nachmittag des 11. Dezember 2018 (Ortszeit) evakuierte die US-Polizei aufgrund einer Explosionsgefahr ein Gebäude auf dem Gelände der Facebook-Zentrale. Bei einer mehrstündigen Suche wurden jedoch keine Hinweise auf einen Sprengsatz gefunden, und der Alarm wurde daraufhin aufgehoben.

Die Vorfälle, mit denen Facebook konfrontiert wurde, haben viel mit dem Kampf des Unternehmens gegen gewalttätige und misstönende Äußerungen im Internet zu tun. Als Hauptverkehrskonsument in den sozialen Medien hat Facebook enorme Anstrengungen unternommen und dabei sogar seine Existenz aufs Spiel gesetzt, um die Netzwerkumgebung anzugehen und zu handhaben.

Sämtliche Inhalte auf Facebook, die extremistische Gruppen loben, unterstützen oder repräsentieren, die weltweit Hass und Rassismus verbreiten, müssen entfernt werden. Deshalb ist Facebook, das auf der Seite der Regierung steht, zum Angriffsziel dieser Organisationen geworden.

Eine Kurzgeschichte: Die Entstehung extremer Ideen

Um das Jahr 2014 herum war der IS auf dem Vormarsch und die Verbreitung von Informationen in den sozialen Medien und über das mobile Internet explodierte.

Obwohl die von ISIS vertretenen Ideen äußerst konservativ sind, nutzt der IS eine Vielzahl von Kommunikationsmethoden wie Twitter, Facebook und YouTube, um extremistische Ideen zu verbreiten und Anhänger aus der ganzen Welt zu gewinnen.

Facebook und Twitter sind am stärksten von ISIS betroffen

Sie wissen sogar, wie sie ihre eigene Persönlichkeit aufbauen. Sie veröffentlichen nicht nur Videos brutaler Bestrafungen, sondern versuchen auch, jungen Internetnutzern zu gefallen.

Sogar ein Katzen des Islamischen StaatesKonten, die Fotos und Videos von Kätzchen in ihrem Leben veröffentlichten, bis diese Konten nach und nach von Twitter und Facebook geschlossen wurden.

Vor seiner Sperrung war dies einer der beliebtesten ISIS-Accounts auf Twitter.

Im ersten Quartal 2018 löschte Facebook insgesamt 28,8837 Millionen Beiträge und schloss und löschte rund 583 Millionen gefälschte Konten, hauptsächlich Informationen und Konten im Zusammenhang mit Terrorismus und Hassreden.

Die Macht der Riesen: Spuren der Disharmonie stillschweigend beseitigen

Facebook erklärte, dass man beim Blockieren und Löschen von Beiträgen zunehmend auf menschliches Eingreifen setze. 99,5 % Beiträge mit Bezug zum Terrorismus werden von Facebook mithilfe künstlicher Intelligenz gefunden.

Eine dieser Techniken istBilderkennung und -abgleichSobald ein von einem Nutzer gepostetes Bild verdächtig erscheint, gleicht Facebook es automatisch über einen Algorithmus ab, um herauszufinden, ob das Bild mit ISIS-Propagandavideos in Verbindung steht oder ob es mit gelöschten extremistischen Bildern oder Videos in Verbindung gebracht werden kann, und ergreift dann Sperrmaßnahmen.

Das technische Team von Facebook bloggte einmal„Rosetta: Text in Bildern und Videos mit maschinellem Lernen verstehen“, beschreibt die Funktionsweise des Bilderkennungstools Rosetta.

Das Bilderkennungstool Rosetta hat eine spezielle Verarbeitung für die arabische Erkennung entwickelt

Rosetta verwendet Faster R-CNN zum Erkennen von Zeichen und verwendet dann das vollständig konvolutionale ResNet-18-Modell mit CTC-Verlust (Connectionist Temporal Classification) zum Durchführen der Texterkennung und verwendet LSTM zum Verbessern der Genauigkeit.

Die endgültig generierte Struktur des Texterkennungsmodells

Darüber hinaus führt Facebook auchTextanalyseforschung, analysieren Sie die Sprache, die Terroristen auf der Website verwenden könnten, und ergreifen Sie sofort entsprechende Gegenmaßnahmen, wenn die veröffentlichten Inhalte terroristische Themen betreffen.

Zusätzlich zu den immer leistungsfähigeren KI-Überprüfungstools verfügt Facebook auch über ein starkes manuelles Überprüfungsteam. Ihr Sicherheitsteam ist in zwei Teams unterteilt: Community-Operationen und Community-Integrität. Das Community Integrity Team ist in erster Linie für die Entwicklung automatisierter Tools für den Berichts-Antwort-Mechanismus verantwortlich.

Derzeit hat dieses Handbuchüberprüfungsteam mehr als 20.000 Personen erreicht. Basierend auf den derzeit 2 Milliarden aktiven Facebook-Benutzern muss jeder Sicherheitsbeauftragte 100.000 Benutzer abdecken.

Mit großer Macht geht große Verantwortung einher

Alle Arten von Informationen, mit denen wir in Kontakt kommen, werden erstellt, nachdem sie durch mehrere Algorithmenschichten gefiltert wurden. Plattformen wie Facebook, Twitter, Weibo und Douyin blockieren und entfernen täglich eine große Menge negativer Nachrichteninhalte mit Bezug zu Terrorismus, Reaktionen, Pornografie usw., was zwangsläufig die Interessen einiger Organisationen beeinträchtigt.

Hinzu kommt, dass in dieser Welt Kräfte unterschiedlicher Regierungen, Organisationen, Nationalitäten und Kulturen in die Präsentation von Informationen eingreifen.

Zuvor hatte der IS bereits Charlie Hebdo in Paris angegriffen, und nun wurde Facebook wiederholt von Vorfällen heimgesucht. Ob es um Technologie oder Plattform geht, sie vertreten oft ihre neutrale Position, können sich jedoch nicht vollständig davon distanzieren. In der heutigen Welt können gute Menschen den Kampf gegen terroristische Kräfte nur fortsetzen, wenn sie sich selbst schützen.

In der Marvel-Welt hat mehr als ein Superheld Folgendes gesagt:

Mit großer Macht geht große Verantwortung einher.
Mit großer Macht geht große Verantwortung einher

--über--

Klicken Sie hier, um den Originalartikel zu lesen