MedTSS: Die abstraktive Zusammenfassung wissenschaftlicher Artikel durch sprachliche Analyse und Konzeptverstärkung transformieren
Diese Forschung befasst sich mit den Grenzen vortrainierter Modelle (Pretrained Models, PTMs) bei der Erzeugung genauer und umfassender abstraktiver Zusammenfassungen wissenschaftlicher Artikel, wobei besonderes Augenmerk auf die Herausforderungen durch medizinische Forschung gelegt wird. Der vorgeschlagene Ansatz, medizinischer Textvereinfachungs- und Zusammenfassungsprozess (MedTSS), führt ein spezifisches Modul ein, das darauf abzielt, den Eingabetext für PTMs zu bereichern. MedTSS löst Probleme im Zusammenhang mit Token-Grenzen, verstärkt mehrere Konzepte und mindert Probleme der Entitäten-Halluzination, ohne zusätzliche Trainingsphase zu erfordern. Darüber hinaus führt das Modul eine linguistische Analyse durch, um die generierten Zusammenfassungen zu vereinfachen, wobei besonderes Augenmerk auf die komplexe Struktur medizinischer Forschungsartikel gelegt wird. Die Ergebnisse zeigen eine erhebliche Verbesserung: MedTSS steigert den Rouge-1-Score von 16,46 auf 35,17, ohne zusätzliche Anpassung des Modells notwendig zu machen. Durch die Betonung wissensbasiert ausgerichteter Komponenten bietet dieser Ansatz eine eigenständige Perspektive und stellt die gängige These von „mehr Daten“ oder „mehr Parametern“ in Frage. Dieser alternative Ansatz, der insbesondere in gesundheitsbezogenen Anwendungsbereichen von Bedeutung ist, stellt einen wesentlichen Beitrag zum Bereich der natürlichen Sprachverarbeitung (NLP) dar. MedTSS fungiert als innovatives Modell, das nicht nur die Komplexität der Zusammenfassung medizinischer Forschungsarbeiten adressiert, sondern auch eine Paradigmenverschiebung darstellt, die weitreichende Implikationen für vielfältige Anwendungsbereiche jenseits des ursprünglichen Fokus hat.