エイプリル フールの裏側: テクノロジーは一方では偽造と闘い、他方では不正行為を生み出しています

特色图像

ますます深刻になるフェイクニュースの問題に関しては、さまざまな研究チームがAI技術を活用してフェイクニュースをより正確に判断し、選別しようとしている。しかし、その一方で、テクノロジーは相対的なものであり、闇の中でAIテクノロジーを利用してフェイクニュースやコメントを生み出す人々の新たな波が存在しています。

今日フェイクニュースを受け取りましたか?統計によると、2016 年以降、「フェイク ニュース」という用語の使用は 365% 増加しました。

ザッカーバーグ氏は、従来の考え方はメッセージの内容を理解し、公開時間とソースに基づいて判断することであり、それには多大な労力と技術が必要なため、包括的な誤ニュース検出を構築するには長い時間がかかると述べた。要件。

しかし、違う考え方をしたらどうなるでしょうか? AI はこの問題を解決するために人間の思考を使用する必要はないかもしれません。実際、現在の開発では、新しい AI 手法がすでに人々がインターネット上のフェイク ニュースを判断するのに役立っています。

フェイクニュースはエイプリルフールだけのものではない

ほんの数日前、マイクロソフトは今年はエイプリル フールを祝わないことを発表しました。おそらくこのニュースは驚くべきことではない。なぜなら、Googleはかつてエイプリルフールに盛大なジョークをし、ユーザーに公に謝罪したからだ。

2016 年のエイプリル フールに、Gmail がメールに「マイクを投げるミニオン」の絵文字を追加したことで怒りを引き起こしました。

インターネット時代に入り、エイプリルフールは小さな仕掛けから、インターネット上で広がる大きなイベントへと徐々に発展していきました。いたずらのように見えるこの行為は、場合によっては、その規模の広がりとあまりに「リアル」であるために、一般大衆の間でパニックを引き起こすこともありました。

のんびりとした休日であるはずのこの日が、なぜ一部の人にとって恐怖を感じる日になってしまったのかというと、この日にはフェイクニュースが大量に生み出されるからです。

いわゆるフェイク ニュースは、多くの場合、読者やネットワーク共有を増やすために一部のメディアによって作成された虚偽のコンテンツです。フェイクニュース制作者は、注目を集めたりアクセスを集めたりするためにコンテンツの信頼性を無視するヘッドラインメーカーと似ています。

フェイクニュースには、多くの場合、キャッチーな見出し、センセーショナルな記事、またはトレンドのトピックが含まれています。このため、フェイクニュースは広告収入を得やすく、注目を集めやすいのです。

エイプリル フールにターゲットを絞ったスタントを作成することに加えて、インターネットの利便性とメディア報道の敷居の低さにより、フェイク ニュースは通常の日の本物のニュースよりも速く、より広範囲に拡散します。この厄介な問題に対する最善のアイデアは、フィルタリングに役立つスマート フィルターを用意することです。

フェイクニュースとの戦い: MIT は AI を使用して言語パターンからフェイクニュースを識別します

MIT の研究者は、言語パターンに基づいてフェイク ニュースを特定する方法を使用しました。

「フェイクニュースの言語: ディープラーニングベースの検出器のブラックボックスを開く」と題した論文の中で、MIT 研究チームは機械学習モデルを使用して、本物のニュースとフェイクニュースの言語の微妙な違いを捉え、ニュースの品質を判断しました。真実と偽りのニュース。

彼らは、フェイク ニュースと本物のニュースのデータセットでトレーニングされた畳み込みニューラル ネットワークを使用しました。トレーニングには、Kaggle と呼ばれる人気のあるフェイク ニュース調査データセットを使用しました。このデータセットには、244 の異なる Web サイトからの約 12,000 のフェイク ニュースのサンプル記事が含まれています。実際のニュース データ セットの場合、ニューヨーク タイムズ紙の 2,000 件以上のニュースとガーディアン紙の 9,000 件以上のニュースから得られます。

このモデルを実際のニュース分析に使用すると、紫色と赤色の単語が多数含まれることになります。

トレーニングされたモデルは、記事の言語を「単語埋め込み」としてキャプチャし、単語は基本的に数値の配列であるベクトルとして表現され、同様の意味を持つ単語がより緊密にクラスター化され、本物のニュースとフェイクニュースの両方に共通する言語パターンを分析します。 。次に、新しい記事の場合、モデルはテキストをスキャンして類似のパターンを探し、それらを一連のレイヤーを通じて送信します。最終的な出力層は、各パターンの確率 (true または false) を決定します。

このモデルは、リアルニュースまたはフェイクニュースで頻繁に出現する単語の特徴をまとめたものです。たとえば、フェイクニュースでは誇張された、または最上級の形容詞が使用される傾向がありますが、本物のニュースでは比較的保守的な言葉が使用される傾向があります。

このモデルは GTP-2 の架空のフェイク ニュース分析で使用されており、黄色の識別語のみが使用されています

MITの研究者らは、研究の一部でこの深層学習技術のブラックボックス、つまりこのモデルが捉えた単語やフレーズを見つけ出し、その内容を予測して分析すること、つまり深層学習の基礎と基礎を知ることも明らかになったと述べた。方法。

論文アドレス: https://cbmm.mit.edu/sites/default/files/publications/fake-news-paper-NIPS.pdf

フェイクニュースとの戦い: Fabula AI は、拡散方法に基づいてフェイクニュースを識別します

英国のテクノロジー企業である Fabula AI は、ニュースの拡散方法を利用してフェイクニュースを特定していると報告しました。

Fabula AI企業サイトのスローガン

Fabula AI は幾何学的な深層学習を使用してフェイク ニュースを検出します。このアプローチでは、ニュース コンテンツから始めるのではなく、そのような情報がソーシャル ネットワーク上でどのように拡散するのか、誰が拡散するのかに注目します。彼らはこの技術の特許を申請した。

Fabula AIの共同創設者兼主任科学者であるマイケル・ブロンスタイン氏は、「私たちはソーシャルネットワーク上でニュースがどのように拡散するかを長期的に観察してきました。私たちの分析では、フェイクニュースと本物のニュースの拡散方法が異なることが示されました。幾何学的なディープラーニングの本質は、ネットワーク構造データを処理できるので、ユーザーの特性、ユーザー間のソーシャルネットワークでのやり取り、ニュース自体の拡散などの異種データを組み合わせて判断を下すことができます。」

最後に、AI が真実と偽のニュースの信頼性に基づいてコンテンツを分類し、評価スコアを与えます。伝播パターンの観点からフェイク ニュースと本物のニュースを視覚化します。フェイク ニュースを主に共有するユーザーは赤で表示され、フェイク ニュースをまったく共有しないユーザーは青で表示されます。 Fabula AIは、これは明確なグループの差別化を示しているだけでなく、感染の広がり方においてすぐに識別できる違いを示していると述べている。

ユーザーをタグ付けするための Fabula AI のアプローチ

さらに同社は、Fabula AI技術の主な利点はニュースの内容や言語に依存しないことであり、ソーシャルプラットフォームユーザーの集団行動に依存しているため、技術的手法で対抗するのがより困難であると述べた。また、このシステムは、公開後の短期間でフェイク ニュースをより迅速かつ非常に正確に検出できます (93% の ROC AUC を超える)。

記事ブログ:https://fabula.ai/news-index/2019/2/7/fabula-ai-announces-breakthrough-in-algorithmic-fake-news-detection

もちろん、AIを使ってフェイクニュースを判断する方法は、まだ完全に公開・活用できる段階には至っていない、あるいは人間の支援が必要な段階であり、細部にはまだ改善が必要な部分もある。改善されること。

しかしその一方で、テクノロジーの発展に伴い、AI のテキストや画像を生成する能力もますます成熟しており、多くの場所で、今日見られるフェイク ニュースの一部は AI によって書かれたものである可能性があります。これは見方によっては検出技術の向上を促すことにもなります。

虚偽: OpenAI は偽のニュースを本物のニュースのように捏造します

今年の初めに OpenAI によって発表された GPT-2 は、非常に大きなパラメーター スケールとトレーニング データに依存しており、Web ページ上の大量のテキストに対する教師なしトレーニングの後、システムは非常に良好な結果をもたらすテキストを生成または継続します。練習に使用したテキストは、Redditでフィルタリングされた4,500万ページのWebコンテンツを網羅したものだという。

Open AI は GPT-2 に関するツイートを公開し、多くの注目と議論を集めました。

このモデルは、提供されたガイド文に基づいて一見信頼できるテキストを生成でき、ニュースを作成するために使用すると、まったく曖昧になりません。

例えば:

人為的な例を挙げると、ドナルド・トランプが誤って空中にミサイルを発射した後、ロシアは米国に宣戦布告した。

翻訳: ドナルド・トランプが誤って空中にミサイルを発射した後、ロシアは米国に宣戦布告。

AIはテキストを追加した:ロシアは「ミサイルの軌道を特定し、ロシア国民とロシアの戦略的核戦力の安全を確保するために必要な措置を講じる」と述べた、ホワイトハウスは「ロシアの違反行為を非常に懸念している」と述べた。中距離弾道ミサイルを禁止する条約。

米国とロシアは、ロシアがウクライナのクリミア地域を併合し、ウクライナ東部の分離主義者を支援した2014年以来、不安定な関係にある。

翻訳:

ロシアは「ミサイルの軌道を決定し、ロシア国民とロシアの戦略核兵器の安全を確保するために必要な措置を講じる」と述べた。ホワイトハウスは、ロシアによる中距離弾道ミサイル禁止条約への違反を「非常に懸念している」と述べた。

ロシアが2014年にウクライナのクリミア地方を併合し、ウクライナ東部の分離主義者を支援して以来、米ロ関係は緊張している。

おっしゃるとおり、上記の話は人工知能によって完全に独自に捏造されたものです。そこに提供された資料は、「もしドナルド・トランプが誤って…、ロシアが米国に宣戦布告したとしたら」という一文だけだった。

GPT-2 で生成されたテキストの例

確かに、OpenAI チームが意図的にフェイクニュースを生成するわけではありませんが、犯罪者の非倫理的な行為を阻止することはできません。また、OpenAI は、このモデルが強力すぎるため、主要なデータとコードを公開しないことを選択しました。

フェイク: AI はビデオ コンテンツの生成に関しては怠け者ではありません

さらに、人々は AI によって生成されたビデオ コンテンツを区別する能力を失う可能性もあります。

あるAIモデルが偽のポートレートを生成する例

昨年の初め、何者かがフランスの有名ミュージシャン、フランソワーズ・アルディに似た動画を海外の動画サイトにアップロードした。

動画ではナレーションで、トランプ大統領がホワイトハウスのスペンサー報道官に大統領就任式の出席者数について嘘をつくよう求めた理由を彼女に尋ねた。

ハーディ氏は、スペンサー氏は単に「別の事実を提示している」だけだと答えた。

しかし、このビデオには欠陥がたくさんある。ハーディの声は明らかにトランプ大統領顧問のケリーアン・コンウェイのものである。

さらに明らかなのは、73歳であるはずのハーディが20歳くらいに見えることだ。

「Alternative Face v1.1」と呼ばれるこのビデオは、アーティストのMario Klingemannによって作成されたアート作品であることが判明しました。本作でハーディが語る言葉は、実はNBC記者の質問に対するコンウェイの答えである。

報道によると、クリンゲマン氏は敵対的生成ネットワーク(GAN)の機械学習アルゴリズムを利用し、ハーディ氏の若い頃を映した大量のMTVビデオをこの番組に提供したという。彼は 68 個の顔のランドマークを抽出し、2000 個のトレーニング サンプルを取得し、それらを pix2pix モデルに入力しました。 3日間のトレーニングの後、彼はコンウェイの顔の特徴をシステムに入力し、このビデオ作品を入手しました。

さらに、GAN やその他のテクノロジーを使用して、画像、音声、さらには顔変更テクノロジーを生成することは、テクノロジーとハードウェアによってますます現実的になってきています。テクノロジー自体に善悪はありませんが、Google Brain 研究者のグッドフェロー氏は「AI は、何を信頼できるのかという私たちの見方を完全に変えるでしょう」と述べています。

フェイクニュースを区別して選別するために、AI の手法はますます強力になってきていますが、テクノロジーによってフェイク コンテンツもより現実的なものになり、この種の「槍と盾」の対決の結果が試される時期が来ているのかもしれません。しかし、私たちは依然としてこのビジョンを持つべきです。強力なテクノロジーが適切な場所で使用されることを期待しています。

AI の偽造防止と偽造はどちらも人間の選択です

ギュスターヴ・ルペンは『群衆』の初期に、フェイクニュースの起源を明らかにした:群衆は決して真実を望んでいない。自分たちが気に入らない明らかな事実に直面すると、彼らは目を背け、それが自分たちにとって魅力的である限り、誤謬を崇拝することを好みます。

一部のメディアが集団意識の弱点を利用し、AIを利用して噂やフェイクニュースを作り出した場合、その責任はテクノロジー自体にあるわけではありません。 AI自体には意志はなく、能動的にフェイクニュースを生み出したり排除したりするため、その背後にはメディア自身の操作と人間の介入がある。

本当にフェイクニュースをなくしたいのであれば、取り除く必要があるのは、実は人々の執着なのです。

嬉しくないエイプリルフール。

クリックすると原文が読めます