Der Artikel, Den Sie Gleich Lesen Werden, Wurde Möglicherweise Von Künstlicher Intelligenz Geschrieben

Von Super Neuro
Wenn KI brillant schreiben kann, spüren Sie dann den Anbruch einer neuen Ära?
Hier kommt eine KI, die besser programmieren kann als Menschen
Für manche Menschen kann es schwierig sein, einen Anfang zu machen und die andere Person zu bitten, den Rest der Geschichte zu schreiben. Aber wenn wir es der KI überlassen, wie gut kann sie es dann machen?
Vor Kurzem hat OpenAI ein Modell zur automatischen Textgenerierung veröffentlicht, mit dem Artikel voller „Realismus“ geschrieben werden können.
Mit einer manuellen Einführung kann dieses KI-Modell den Artikel schnell zu einem vollständigen Manuskript fertigstellen. Was die Lesbarkeit und Flüssigkeit des Textes angeht, würden Sie möglicherweise nicht vermuten, dass dieser von einer KI erstellt wurde, wenn Sie nicht im Voraus informiert würden.
Geben Sie ihm beispielsweise einen Anfang wie diesen:Wissenschaftler haben eine schockierende Entdeckung gemacht: Eine Gruppe Einhörner lebt in einem abgelegenen und unerforschten Tal in den Anden. Noch überraschender ist, dass diese Einhörner perfektes Englisch sprechen.
Der von diesem KI-Modell generierte Artikel lautet wie folgt (auszugsweise):
Diese Kreaturen haben einzigartige Hörner, weshalb Wissenschaftler sie Ovids Einhorn nannten. Das silberweiße Wesen mit den vier Hörnern war der Wissenschaft bisher unbekannt.
…
Obwohl der Ursprung dieser Kreaturen unklar ist, glauben manche, dass sie aus dem Geschlechtsverkehr zwischen einem Menschen und einem Einhorn entstanden sind, bevor es die menschliche Zivilisation gab. „Dies ist ein in Südamerika sehr verbreitetes Phänomen“, sagte Professor Pérez.
…
Soll bestätigt werden, dass sie Nachkommen einer ausgestorbenen Rasse sind, ist ein DNA-Test möglicherweise die einzige Möglichkeit.
Neben der Fähigkeit, realistische Manuskripte zu schreiben, verfügt es auch über die Fähigkeiten zum Leseverstehen, Fragen und Antworten, Erstellen von Artikelzusammenfassungen und Übersetzen von Texten.

Übersetzung: Vom Französischen ins Englische
Datensatz: WMT-14 Fr-En
Ursprünglicher Satz | Unvergessliche Erfahrung mit der kostenlosen Operation, die Ihnen zur Verfügung steht, um eine neue Herausforderung zu meistern. |
Künstlich | Ein Mann erklärte, dass er dank der kostenlosen Hernienoperation, die er erhalten hatte, wieder arbeiten könne. |
KI-Übersetzung | Ein Mann erzählte mir, dass ihm die ihm versprochene Operationsprämie nicht die Reise ermöglichen würde. |
Diese KI ist etwas stark
Dieses KI-Modell heißt GPT-2 und ist eine „verbesserte Version“ von GPT. Das Brutale daran ist, dass diesmal mehr Trainingsdaten verwendet werden. Das Prinzip ist dasselbe wie bei der vorherigen Version, aber GPT-2 ist eine direkte Erweiterung des GPT-Modells. Es wird mit zehnmal mehr Daten trainiert und verfügt über zehnmal mehr Parameter.
GPT-2 kann durch die Analyse von Eingabetext grundlegende Textverarbeitungsfunktionen ausführen und zeichnet sich durch Sprachmodellierungsaufgaben aus, d. h. die Fähigkeit eines Programms, das nächste Wort in einem Satz vorherzusagen. Geben Sie ihm einen zufälligen Titel und die KI schreibt den Rest des Artikels perfekt und fügt sogar falsche Zitate und Statistiken ein.

Jemand sagte dazu: „Möchten Sie eine Kurzgeschichte? Geben Sie ihm einfach die erste Zeile und Sie erhalten eine unerwartete und wunderbare Geschichte. Mit den richtigen Anregungen lässt sich sogar ein Roman daraus schreiben.“
Das Ziel des GPT-2-Trainings ist einfach: Vorhersage des nächsten Wortes anhand der vorherigen Wörter in einem Text. Die Vielfalt des Trainingsdatensatzes ermöglicht die Generierung von Texten in einer großen Anzahl unterschiedlicher Felder.
Obwohl es in technologischer Hinsicht nichts Neues gibt, haben die Leute eine Ausbildung auf Bergbauniveau erhalten und deshalb neue Werkzeuge auf Monsterniveau geschaffen.
Forscher von OpenAI sagten, dass GPT-2 in Sprachmodellierungstests mit verschiedenen domänenspezifischen Datensätzen hervorragende Bewertungsergebnisse erzielt habe. Da es sich um ein Modell handelt, das nicht speziell anhand von Daten aus irgendeinem Bereich trainiert wurde, ist seine Leistung besser als die dieser speziell erstellten Modelle.
Die Ära des Aufstiegs von NLP?
Das vor einigen Monaten von Google vorgestellte Sprachmodell BERT erregte in der Branche große Aufmerksamkeit und war eine Zeit lang ständig auf dem Bildschirm zu sehen. Seine Leistung, 11 Rekorde mit 300 Millionen Parametern zu brechen, wurde von den Leuten gelobt. Aber das diesmal von OpenAI eingeführte GPT-2 ist mit 1,5 Milliarden Parametern noch leistungsfähiger.

Im Vergleich zu früheren hochmodernen KI-Modellen ist das GPT2-Modell „12-mal größer, verwendet einen 15-mal größeren Datensatz und deckt einen größeren Bereich ab.“ Es wurde anhand eines Datensatzes von etwa 10 Millionen Artikeln trainiert, die von News-Links mit mehr als 3 Stimmen auf Reddit ausgewählt wurden. Die Trainingsdaten sind bis zu 40 GB groß!
Bevor BERT alle Top-Indikatoren für NLP (Natural Language Processing) abräumte, gehörte GTP von OpenAI bereits zu den Top-Experten, und die Menge an Daten, die mit dem neu veröffentlichten GPT-2 trainiert wurden, hat dieses Feld direkt auf ein neues Niveau gebracht.

Mit BERT und GPT-2 wird der Weg der NLP definitiv erfolgreich sein. Die Frage, wie der Menschheit besser geholfen werden kann, ist noch immer ein heikles Thema.
Ani Kembhavi, Forscherin am Allen Institute for Artificial Intelligence, sagte, ein Grund zur Begeisterung für GPT-2 liege darin, dass die Vorhersage von Text als eine „Superaufgabe“ für Computer betrachtet werden könne und dass die Lösung dieser Herausforderung die Tür zur Intelligenz öffnen werde.
Könnte es die Büchse der Pandora sein?
Leider kann ein so leistungsstarkes Tool derzeit nicht der Öffentlichkeit zugänglich gemacht werden. Dahinter stehen die möglichen versteckten Gefahren, die damit verbunden sein können, wie etwa die Verbreitung von Fake News, bösartigen Kommentaren, Spam usw. Der illegale Einsatz solcher Waffen wird katastrophale Folgen haben.

Auch dieser Aspekt bereitet den Entwicklern Sorgen. Die Forscher von OpenAI sagen, sie könnten nicht vorhersagen, was dies bringen wird. Sie erkunden es noch. Aus verschiedenen Gründen sind sie sehr vorsichtig, was sie über das Projekt preisgeben, und halten den wichtigsten Basiscode und die Trainingsdaten derzeit geheim.
Ein weiterer Grund zur Vorsicht sei, so die Autoren, dass es zu einer gefährlichen Situation kommen könne, wenn jemand GPT-2 mit rassistischen, gewalttätigen, frauenfeindlichen oder beleidigenden Texten füge. Schließlich setzt es auf Internet-Schulungen.
Es lässt sich nicht leugnen, dass diese Technologie enorme Veränderungen mit sich bringen wird, doch jedes Werkzeug in den Händen einer Person mit schlechten Absichten kann verheerende Folgen haben.
Da die von GPT-2 geschriebenen Texte zudem neu generiert werden, gibt es kein Problem beim Kopieren und Einfügen und es ist schwieriger, sie mit früheren Erkennungsmethoden zu erkennen und zu überprüfen, was eine potenzielle Bedrohung darstellt.
Hier kommt also die Schlüsselfrage: Wurde dieser Artikel von einer KI geschrieben?
