HyperAIHyperAI
vor 6 Tagen

SearchInstruct: Verbesserung der Domänenanpassung durch die Erstellung von anhand der Recherche basierenden Anweisungsdatasets

Iman Barati, Mostafa Amiri, Heshaam Faili
SearchInstruct: Verbesserung der Domänenanpassung durch die Erstellung von anhand der Recherche basierenden Anweisungsdatasets
Abstract

Überwachtes Feintuning (Supervised Fine-Tuning, SFT) ist entscheidend für die Ausbildung großer Sprachmodelle (Large Language Models, LLMs) und verbessert kritische Fähigkeiten wie die Befolgung von Anweisungen und das Lernen im Kontext erheblich. Dennoch bleibt die Erstellung geeigneter Trainingsdatensätze, die spezifischen Domänen angepasst sind, aufgrund einzigartiger domänenspezifischer Anforderungen und Datenknappheit herausfordernd. In diesem Paper stellen wir SearchInstruct vor – eine innovative Methode, die gezielt zur Erstellung hochwertiger Anweisungsdatensätze für das SFT entwickelt wurde. Unser Ansatz beginnt mit einer begrenzten Menge an domänenspezifischen, von Menschen generierten Fragen, die systematisch mit Hilfe eines großen Sprachmodells erweitert werden. Anschließend werden dynamisch domänenrelevante Ressourcen abgerufen, um für jede erweiterte Frage präzise und kontextangemessene Antworten zu generieren. Experimentelle Evaluierungen zeigen, dass SearchInstruct sowohl die Vielfalt als auch die Qualität von SFT-Datensätzen verbessert und somit messbare Fortschritte in der Leistung von LLMs in spezialisierten Domänen ermöglicht. Zudem zeigen wir, dass die vorgeschlagene Methode über die Datensatzgenerierung hinaus auch effektiv bei Aufgaben wie der Modellbearbeitung eingesetzt werden kann, wodurch bestehende Modelle effizient aktualisiert werden können. Um Reproduzierbarkeit und breite Akzeptanz in der Forschungsgemeinschaft zu fördern, stellen wir vollständige Implementierungsdetails, die gesamte Sammlung generierter Anweisungs-Antwort-Paare sowie den Quellcode in einem öffentlich zugänglichen Git-Repository bereit:https://github.com/mostafaamiri/SearchInstruct