Derrière Le Poisson D'avril : La Technologie Combat La Fraude Tout En La Créant

En réponse au problème de plus en plus grave des fausses nouvelles, différentes équipes de recherche utilisent la technologie de l’IA pour déterminer et identifier plus précisément les fausses nouvelles. Mais la technologie est relative. D’un autre côté, dans l’obscurité, il y a une autre vague de personnes qui utilisent constamment la technologie de l’IA pour produire de fausses nouvelles et de faux commentaires.
Avez-vous reçu de fausses nouvelles aujourd'hui ? Selon les statistiques, l'utilisation du terme « fake news » a augmenté de 365% depuis 2016.
Zuckerberg a déclaré un jour qu'il fallait beaucoup de temps pour construire un système complet de détection des fausses nouvelles, car l'idée traditionnelle est de comprendre le contenu du message et de porter des jugements en fonction de l'heure de diffusion et de la source, ce qui nécessite beaucoup de travail ou d'exigences techniques.
Mais que se passerait-il si nous changions notre façon de penser ? L’IA n’a peut-être pas besoin de recourir à la pensée humaine pour résoudre ce problème. En fait, avec les développements actuels, il existe déjà de nouvelles méthodes d’IA qui aident les gens à juger les fausses nouvelles sur Internet.
Les fausses nouvelles ne se limitent pas au 1er avril
Il y a quelques jours à peine, Microsoft a annoncé qu'il ne célébrerait pas le poisson d'avril cette année. Cette nouvelle n'est peut-être pas surprenante, puisque Google s'est déjà excusé publiquement auprès de ses utilisateurs pour une grosse blague du 1er avril.

Après être entré dans l'ère d'Internet, le 1er avril a progressivement évolué, passant de petites farces à des événements majeurs diffusés sur Internet. Ce comportement, qui ressemble à une farce, a provoqué la panique dans le public à certaines occasions en raison de sa grande propagation et de son caractère trop « réel ».
Cette fête, qui était censée être une journée de détente, est devenue un jour que certaines personnes craignent car une grande quantité de fausses nouvelles sont produites ce jour-là.
Les soi-disant fausses nouvelles sont souvent des contenus erronés produits par certains médias afin d’augmenter leur lectorat ou leur partage en ligne. Les producteurs de fausses nouvelles sont similaires aux titres clickbait, qui ignorent la véracité du contenu afin d'attirer l'attention ou le trafic.

Les fausses nouvelles ont souvent des titres accrocheurs, des histoires sensationnelles ou s’attaquent à des sujets tendance. De ce fait, les fausses nouvelles sont plus susceptibles de générer des revenus publicitaires et d’attirer l’attention.
Outre la création ciblée de gadgets le 1er avril, avec la commodité d'Internet et le seuil plus bas pour les reportages médiatiques, les fausses nouvelles se propagent également plus rapidement et plus largement que les vraies nouvelles les jours ordinaires. La meilleure façon de résoudre ce casse-tête est d’avoir un filtre intelligent pour nous aider à filtrer.
Lutte contre les fausses nouvelles : le MIT utilise l'IA pour identifier les fausses nouvelles à partir de modèles linguistiques
Des chercheurs du MIT ont utilisé une méthode pour identifier les fausses nouvelles en fonction des modèles linguistiques.

Dans un article intitulé « Le langage des fausses nouvelles : ouvrir la boîte noire des détecteurs basés sur l'apprentissage profond », une équipe de recherche du MIT a utilisé un modèle d'apprentissage automatique pour capturer les différences subtiles dans le langage des vraies nouvelles et des fausses nouvelles afin de déterminer si les nouvelles sont vraies ou fausses.
Ils ont utilisé un réseau neuronal convolutif et l’ont formé sur des ensembles de données de fausses et de vraies nouvelles. Pour la formation, ils ont utilisé un ensemble de données de recherche de fausses nouvelles populaire de Kaggle, qui contient environ 12 000 exemples d'articles de fausses nouvelles provenant de 244 sites Web différents. L'ensemble des données d'actualité réelles provient de plus de 2 000 reportages du New York Times et de plus de 9 000 reportages du Guardian.

Le modèle formé capture le langage des articles sous forme de « plongées de mots », où les mots sont représentés sous forme de vecteurs, essentiellement des tableaux de nombres, avec des mots ayant des significations sémantiques similaires regroupés plus étroitement, révélant des modèles de langage communs aux vraies et aux fausses nouvelles. Ensuite, pour un nouvel article, le modèle analyse le texte à la recherche de modèles similaires et les envoie à travers une série de calques. La couche de sortie finale détermine la probabilité de chaque modèle : réel ou faux.
Le modèle résume les caractéristiques des mots qui apparaissent fréquemment dans les nouvelles réelles ou fausses. Par exemple, les fausses nouvelles ont tendance à utiliser des adjectifs exagérés ou superlatifs, tandis que les vraies nouvelles ont tendance à utiliser des mots relativement conservateurs.

Les chercheurs du MIT affirment qu'une partie de leurs recherches révèle également la boîte noire de la technologie d'apprentissage en profondeur, qui consiste à découvrir les mots et les phrases capturés par ce modèle et à faire des prédictions et des analyses sur eux, c'est-à-dire à connaître la base et la méthode de jugement de l'apprentissage en profondeur.
Adresse du document : https://cbmm.mit.edu/sites/default/files/publications/fake-news-paper-NIPS.pdf
Lutte contre les fausses nouvelles : Fabula AI identifie les fausses nouvelles en fonction de leur mode de diffusion
Fabula AI, une société technologique britannique, a indiqué qu'elle utilisait la manière dont les nouvelles sont diffusées pour identifier les fausses nouvelles.

Fabula AI utilise le Deep Learning géométrique pour détecter les fausses nouvelles. Plutôt que de s’intéresser au contenu des nouvelles, cette approche s’intéresse à la manière dont ces informations se propagent sur les réseaux sociaux et à qui les diffuse. Ils ont déposé une demande de brevet pour cette technologie.
Michael Bronstein, cofondateur et directeur scientifique de Fabula AI, a déclaré : « Nous observons depuis longtemps la façon dont les informations se propagent sur les réseaux sociaux. Après analyse, nous avons constaté que les fausses et les vraies informations se propagent différemment. L'essence même de l'apprentissage profond géométrique réside dans sa capacité à traiter les données de structure des réseaux. Nous pouvons combiner des données hétérogènes telles que les caractéristiques des utilisateurs, les interactions entre utilisateurs sur les réseaux sociaux et la diffusion des informations elle-même, et ainsi formuler des jugements. »
Enfin, l’IA classera le contenu en fonction de la crédibilité des nouvelles vraies ou fausses et attribuera une note. Visualisez les modèles de diffusion des fausses et vraies nouvelles : les utilisateurs qui partagent principalement des fausses nouvelles sont en rouge, tandis que les utilisateurs qui ne partagent pas du tout de fausses nouvelles sont en bleu. Fabula AI a déclaré que cela montrait une différenciation claire des groupes et des différences immédiatement reconnaissables dans les modèles de transmission.

En outre, la société a déclaré que le principal avantage de la technologie Fabula AI est qu'elle est indépendante du contenu et de la langue des nouvelles, et parce qu'elle repose sur le comportement collectif des utilisateurs des plateformes sociales, il est plus difficile de la contrer avec des méthodes techniques. De plus, le système est capable de détecter les fausses nouvelles à une vitesse beaucoup plus rapide et dans un court laps de temps après leur publication avec une grande précision (ROC AUC de > 93%).
Article de blog : https://fabula.ai/news-index/2019/2/7/fabula-ai-announces-breakthrough-in-algorithmic-fake-news-detection
Bien entendu, la méthode d’utilisation de l’IA pour juger les fausses nouvelles n’a pas encore atteint le stade où elle peut être pleinement utilisée publiquement. Il est actuellement en phase de recherche ou nécessite une assistance humaine, et il reste encore quelques détails à améliorer.
Mais d’un autre côté,La capacité de l’IA à générer du texte et des images est également devenue plus mature avec le développement de la technologie. Dans de nombreux endroits, on en est arrivé au point où le faux est impossible à distinguer du vrai. Peut-être qu’une fausse nouvelle que vous avez vue aujourd’hui a été écrite par l’IA.D’une certaine manière, cela incite à améliorer la technologie de détection.
Fake news : OpenAI fabrique de fausses nouvelles pour les faire paraître réelles
GPT-2, publié par OpenAI au début de cette année, s'appuie sur une échelle de paramètres et des données de formation extrêmement importantes. Après un entraînement non supervisé sur de grandes quantités de texte sur des pages Web, le système est très efficace pour générer ou continuer du texte. Le texte qu'ils ont utilisé pour s'entraîner aurait couvert 45 millions de pages de contenu Web examinées par Reddit.
Ce modèle peut générer un texte apparemment crédible basé sur les phrases directrices fournies, et il n'est pas du tout ambigu lorsqu'il est utilisé pour écrire des nouvelles.
Par exemple:
Exemple artificiel : la Russie a déclaré la guerre aux États-Unis après que Donald Trump a accidentellement tiré un missile en l’air.
Traduction : La Russie déclare la guerre aux États-Unis après que Donald Trump a accidentellement tiré un missile en l'air.
AI a ajouté un texte : La Russie a déclaré qu'elle avait « identifié la trajectoire du missile et qu'elle prendrait les mesures nécessaires pour assurer la sécurité de la population russe et des forces nucléaires stratégiques du pays ». La Maison Blanche a déclaré être « extrêmement préoccupée par la violation par la Russie » d'un traité interdisant les missiles balistiques à portée intermédiaire.
Les États-Unis et la Russie entretiennent des relations difficiles depuis 2014, lorsque Moscou a annexé la région ukrainienne de Crimée et soutenu les séparatistes dans l'est de l'Ukraine.
Traduction:
La Russie a déclaré avoir « déterminé la trajectoire du missile et qu'elle prendrait les mesures nécessaires pour assurer la sécurité du peuple russe et de l'armement nucléaire stratégique du pays ». La Maison Blanche a déclaré être « profondément préoccupée par les violations par la Russie » du traité interdisant les missiles balistiques à portée intermédiaire.
Les relations entre les États-Unis et la Russie sont tendues depuis que Moscou a annexé la région ukrainienne de Crimée en 2014 et soutenu les séparatistes dans l'est de l'Ukraine.
Vous avez bien lu. L’histoire ci-dessus a été entièrement fabriquée de manière indépendante par l’intelligence artificielle. Le matériel qui lui a été fourni se résumait à une seule phrase : « Lorsque Donald Trump a accidentellement..., la Russie a déclaré la guerre aux États-Unis. »

Certes, l’équipe d’OpenAI ne générera pas intentionnellement de fausses nouvelles, mais elle ne peut pas empêcher les méchants de faire des choses contraires à l’éthique. OpenAI a également choisi de ne pas publier de données et de codes clés car le modèle est trop puissant.
Faux : l'IA n'est pas en reste pour générer du contenu visuel
De plus, les gens peuvent également perdre la capacité de distinguer le contenu vidéo généré par l’IA.

Au début de l’année dernière, quelqu’un a mis en ligne sur un site de vidéo étranger une vidéo qui ressemblait à une vidéo de la célèbre musicienne française Françoise Hardy.
Dans la vidéo, une voix off lui a demandé pourquoi Trump avait demandé au porte-parole de la Maison Blanche Spencer de mentir sur le nombre de personnes qui regardaient son investiture présidentielle.
M. Hardy a répondu que M. Spencer avait simplement « présenté un ensemble de faits alternatifs ».
Cependant, la vidéo est pleine de défauts, et la voix de Hardy est évidemment celle de la conseillère de Trump, Kellyanne Conway.
Ce qui est encore plus révélateur, c'est que Hardy, qui est censé avoir 73 ans, semble n'en avoir que 20.
Il s'avère que cette vidéo intitulée « Alternative Face v1.1 » est une œuvre d'art créée par l'artiste Mario Klingemann. Les mots prononcés par Hardy dans cet article sont en fait les réponses de Conway aux questions des journalistes de NBC.
Selon certaines informations, Klingemann aurait utilisé un algorithme d'apprentissage automatique de type réseau antagoniste génératif (GAN) et aurait fourni au programme un grand nombre de vidéos MTV de la jeunesse de Hardy. Il a extrait 68 repères faciaux, ce qui a donné lieu à 2 000 exemples d'entraînement, qu'il a ensuite introduits dans le modèle pix2pix. Après trois jours de formation, il a saisi les traits du visage de Conway dans le système et a obtenu cette œuvre vidéo.
De plus, l’utilisation de technologies telles que GAN pour générer des images, des sons et même des technologies de changement de visage devient de plus en plus réaliste grâce à la technologie et au matériel. Il n’y a pas de bien ou de mal dans la technologie elle-même, mais comme l’a déclaré Goodfellow, chercheur chez Google Brain : « L’IA va complètement changer notre vision de ce à quoi nous pouvons faire confiance. »
Les méthodes d’IA deviennent de plus en plus puissantes pour distinguer et identifier les fausses nouvelles. Cependant, la technologie rend également les faux contenus plus réalistes. L'issue de cette confrontation « lance et bouclier » ne sera peut-être testée que par le temps. Mais nous devons toujours garder cette vision : nous espérons que les grandes technologies seront utilisées aux bons endroits.
L’IA anti-contrefaçon et la contrefaçon sont toutes deux des choix humains
Gustave Le Bon explique la source des fake news dans « La Foule » : les masses ne désirent jamais la vérité. Face à des faits évidents qui ne leur plaisent pas, ils se détourneront et préféreront adorer les sophismes tant qu'ils les séduisent.
Lorsque certains médias exploitent les faiblesses de la conscience collective et utilisent l’IA pour créer des rumeurs et de fausses nouvelles, la responsabilité n’incombe pas à la technologie elle-même. Parce que l’IA elle-même n’a pas la volonté de produire et d’éliminer activement les fausses nouvelles. Derrière tout cela se cachent les opérations des médias eux-mêmes et l’intervention humaine.
Si nous voulons vraiment éliminer les fausses nouvelles, ce que nous devons éliminer, c’est en réalité l’obsession des gens.
Ce n'est pas un joyeux poisson d'avril.