HyperAI

L'article Que Vous Êtes Sur Le Point De Lire a Peut-être Été Écrit Par L'intelligence Artificielle

il y a 6 ans
Titres
Liste recommandée
Dao Wei
特色图像

Par Super Neuro

Lorsque l’IA peut écrire de manière brillante, sentez-vous le souffle d’une nouvelle ère ?

Voici une IA qui est meilleure en programmation que les humains

Donner un début et demander à l’autre personne d’écrire le reste de l’histoire peut être difficile pour certaines personnes. Mais si nous le confions à l’IA, à quel point peuvent-elles faire du bien ?

Récemment, OpenAI a publié un modèle de génération automatique de texte capable d'écrire des articles pleins de « réalisme ».

Avec une introduction manuelle, ce modèle d'IA peut rapidement compléter l'article en un manuscrit complet. Quant à la lisibilité et à la fluidité du texte, si on ne vous le dit pas à l’avance, vous ne devinerez peut-être pas que cela a été fait par l’IA.

Par exemple, donnez-lui un début comme celui-ci :Des scientifiques ont fait une découverte choquante : un groupe de licornes vit dans une vallée reculée et inexplorée des Andes. Ce qui est encore plus surprenant, c’est que ces licornes parlent parfaitement anglais.

L'article généré par ce modèle d'IA est le suivant (partiel) :

Ces créatures ont des cornes uniques, c'est pourquoi les scientifiques les ont nommées la licorne d'Ovide. La créature blanche argentée à quatre cornes était auparavant inconnue de la communauté scientifique.

Bien que les origines de ces créatures ne soient pas claires, certains pensent qu'elles sont nées de l'interaction entre un homme et une licorne, avant l'existence de la civilisation humaine. « C’est un phénomène très courant en Amérique du Sud », a déclaré le professeur Pérez.

S’il s’agit de confirmer qu’ils sont les descendants d’une race disparue, les tests ADN pourraient être la seule solution.

En plus de pouvoir écrire des manuscrits réalistes, il possède également des capacités de compréhension de lecture, de questions et réponses, de génération de résumés d'articles et de traduction de textes.

Traduction : du français vers l'anglais

Ensemble de données : WMT-14 Fr-En


Phrase originale

Expérience inoubliable avec opération gratuite qu'il avait subie pour soigner une hernie lui permettre de travailler à nouveau.

Artificiel

Un homme a expliqué que l’opération gratuite de la hernie qu’il avait reçue lui permettrait de travailler à nouveau.

Traduction IA

Un homme m’a dit que l’indemnité d’opération qui lui avait été promise ne lui permettrait pas de voyager.

Cette IA est un peu forte

Ce modèle d’IA s’appelle GPT-2, qui est une « version améliorée » de GPT. La brutalité de cette méthode réside dans le fait qu’elle utilise cette fois davantage de données d’entraînement. Le principe est le même que la version précédente, mais GPT-2 est un agrandissement direct du modèle GPT. Il est formé sur 10 fois plus de données et possède 10 fois plus de paramètres.

GPT-2 peut exécuter des fonctions de traitement de texte de base en analysant le texte d'entrée et excelle dans les tâches de modélisation du langage, c'est-à-dire la capacité d'un programme à prédire le mot suivant dans une phrase. Donnez-lui un titre aléatoire et l'IA écrira parfaitement le reste de l'article, en y ajoutant même de fausses citations et statistiques.

Quelqu'un a dit à ce sujet : « Envie d'une nouvelle ? Dès la première ligne, vous obtiendrez une histoire inattendue et merveilleuse. Avec les bonnes pistes, on peut même écrire un roman. »

L’objectif de l’entraînement GPT-2 est simple : étant donné les mots précédents d’un texte, prédire le mot suivant. La diversité de l’ensemble de données de formation lui permet de générer du texte dans un grand nombre de domaines différents.

Bien qu'il n'y ait rien de nouveau en termes de technologie, les gens ont reçu une formation de niveau minier, c'est pourquoi ils ont créé de nouveaux outils de niveau monstre.

Les chercheurs d'OpenAI ont déclaré que GPT-2 a obtenu d'excellents scores d'évaluation dans les tests de modélisation linguistique sur divers ensembles de données spécifiques à un domaine. En tant que modèle qui n'a pas été spécifiquement formé sur des données dans aucun domaine, ses performances sont meilleures que celles des modèles spécialement construits.

L'ère de l'essor de la PNL ?

Le modèle de langage BERT lancé par Google il y a quelques mois a attiré une large attention dans l'industrie et est resté constamment à l'écran pendant un certain temps. Son exploit de battre 11 records avec 300 millions de paramètres a été salué par le public. Mais le GPT-2 lancé par OpenAI est cette fois encore plus puissant, avec 1,5 milliard de paramètres.

Comparé aux modèles d'IA de pointe précédents, le modèle GPT2 est « 12 fois plus grand, utilise un ensemble de données 15 fois plus grand et couvre une gamme plus large ». Il a été formé sur un ensemble de données d'environ 10 millions d'articles sélectionnés par des liens d'actualité avec plus de 3 votes sur Reddit. Les données d’entraînement peuvent atteindre 40 Go !

Avant que BERT ne remporte tous les principaux indicateurs NLP (traitement du langage naturel), le GTP d'OpenAI figurait déjà parmi les meilleurs experts, et la quantité de données entraînées par le GPT-2 récemment publié a directement porté ce domaine à un nouveau sommet.

Avec BERT et GPT-2, la route du PNL sera certainement prospère. Quant à la manière de mieux servir l’humanité, il s’agit encore d’un sujet prudent.

Ani Kembhavi, chercheur à l'Institut Allen pour l'intelligence artificielle, a déclaré qu'une des raisons d'être enthousiasmé par GPT-2 est que la prédiction de texte peut être considérée comme une « super tâche » pour les ordinateurs, et une fois ce défi résolu, cela ouvrira la porte à l'intelligence.

Serait-ce la boîte de Pandore ?

Malheureusement, un outil aussi puissant ne peut pas être mis à la disposition du public pour le moment. La considération derrière cela est les dangers cachés potentiels que cela peut entraîner, tels que la génération de fausses nouvelles, de commentaires malveillants, la création de spam, etc. Si de telles armes sont utilisées de manière illégale, les conséquences seront catastrophiques.

Les développeurs sont également préoccupés par cet aspect. Les chercheurs d’OpenAI affirment qu’ils ne peuvent pas prédire ce que cela apportera. Ils sont toujours en train d'explorer. Pour diverses raisons, ils sont très prudents quant à ce qu'ils partagent sur le projet et gardent actuellement privés le code de base principal et les données de formation.

Une autre raison de prudence, notent-ils, est que cela pourrait créer une situation dangereuse si quelqu’un alimente GPT-2 avec des textes racistes, violents, misogynes ou abusifs. Après tout, cela repose sur la formation sur Internet.

Il est indéniable que cette technologie apportera des changements considérables, mais tout outil, entre les mains de quelqu’un avec de mauvaises intentions, peut avoir des conséquences désastreuses.

De plus, comme les textes écrits par GPT-2 sont nouvellement générés, il n'y a pas de problème de copier-coller, et il est plus difficile de les détecter et de les vérifier en utilisant les méthodes de détection précédentes, ce qui constituera une menace potentielle.

Alors, voici la question clé : cet article a-t-il été écrit par l’IA ?