RedGPT: Ein Durch Referenzinformationen Erweitertes Dialoggenerierungsmodell
Datum
Größe
Veröffentlichungs-URL
Lizenz
其他
RedGPT (Referenz-Erleuchteter-Dialog-GPT) Es handelt sich um ein durch Referenzinformationen erweitertes Dialoggenerierungsmodell.
Wie wir alle wissen, ist die sachliche Richtigkeit eine große Schwäche von ChatGPT und eine große Herausforderung für alle Kollegen, die versuchen, ChatGPT zu reproduzieren. Um die Genauigkeit der Fakten zu verbessern, können Sie eine große Menge sachlicher Gesprächsdaten (z. B. zu Personen, Technologie, medizinischer Versorgung, Recht und Kunst) mit Anmerkungen versehen, um das GPT-Modell zu optimieren. Um die hohen Kosten einer manuellen Annotation zu vermeiden, schlagen wir eine Methode zur automatischen Generierung sachlicher Dialoge vor und machen einen Teil unserer Daten öffentlich zugänglich. Der erste von uns veröffentlichte Datensatz (RedGPT-Dataset-V1-CN) enthält insgesamt 50.000 mehrstufige Gespräche auf Chinesisch.
Methodeneinführung
Das Ziel dieses Datensatzes besteht darin, automatisch umfangreiche, qualitativ hochwertige und sachliche Dialoge über mehrere Runden zu generieren, um GPT zu trainieren und seine sachliche Richtigkeit zu verbessern.
Wir generieren Daten automatisch mit der folgenden Methode:
- Wir sammeln hochwertige Sachdokumente, die wir als Referenzen bezeichnen. Die Quellen können E-Books, Wikipedia und hochwertige vertikale Websites sein. Das Dokument muss möglichst viele Themen abdecken, unter anderem Menschen, Institutionen, Technologie, medizinische Versorgung, Recht, Geisteswissenschaften, Wirtschaft, Zuhause, Autos, Reisen, Essen, Mode, Sport, Bildung und Haustiere.
- Verwenden Sie vorhandenes LLM (z. B. kostenpflichtige API), um mehrstufige Dialoge zu generieren. Die Eingabe ist eine Referenz und die Eingabeaufforderung lautet etwa: „Bitte erstellen Sie mehrere Runden mit Fragen und Antworten basierend auf diesem Artikel.“ Die API gibt einen mehrstufigen Dialog aus. Diese Methode wandelt Dokumente, die ursprünglich nur für das Vortraining geeignet waren, in mehrrunde Dialoge um, die fein abgestimmt werden können.
- In Schritt 2 wird eine große Anzahl von Referenz-Dialog-Dyaden gesammelt. Optimieren Sie ein GPT-Modell mithilfe von „Referenz“ und „Eingabeaufforderung“ als Eingabe und „Dialog“ als Ziel (kann auf einer vortrainierten Basis von LLaMA oder BLOOM basieren). Wir nennen das fein abgestimmte Modell Referenz-Erleuchteter-Dialog GPT,Abkürzung RedGPT . Mit RedGPT können Sie mehrere Dialogrunden auf Referenzbasis generieren und riesige Datenmengen erhalten.
Um diese Methode zu reproduzieren, beachten Sie bitte zwei wichtige Punkte:
- Die Qualität und Breite der Referenz. Die Qualität der Referenzinhalte muss hoch sein, beispielsweise Seiten von hochwertigen vertikalen Websites (z. B. medizinische Websites) und nicht-obskure Einträge auf Wikipedia, und die Webseiten müssen bereinigt sein. Die Referenzbreite sollte breit sein und darf nicht auf eine einzige vertikale Kategorie oder eine einzige Website beschränkt sein.
- Wenn Sie ein vorhandenes LLM aufrufen, müssen Sie eine Eingabeaufforderung schreiben und verschiedene Eingabeaufforderungen sorgfältig ausprobieren, damit der vom LLM generierte mehrstufige Dialog Ihren Erwartungen entspricht.