Wöchentlicher Bericht Von AI Paper | ReasonMed, Der Größte Datensatz Für Medizinisches Denken, Enthält 370.000 Beispiele. Microsoft, Die Peking-Universität Und Die Tsinghua-Universität Schlugen Ein Vortraining Mit Bestärkendem Lernen Vor, Um Die Genauigkeit Der Nächsten Token-Vorhersage Zu Verbessern.

Mit der rasanten Entwicklung der KI-Technologie tauchen immer mehr akademische Forschungsergebnisse und Forschungsarbeiten auf. Laut dem Weißbuch zur wissenschaftlichen Intelligenz 2025 hat sich die Zahl der weltweiten KI-Fachzeitschriftenartikel im letzten Jahrzehnt mehr als verdreifacht – von 308.900 auf 954.500. Hinter diesen riesigen Datenmengen verbirgt sich nicht nur das Wissen der Forscher, sondern auch ihre Erfolgsgeschichten bei der Überwindung von Schwierigkeiten und der Erforschung der Zukunft.
Von der Transformer-Architektur, die einen Durchbruch bei Sprachmodellen ermöglichte, bis zum Diffusionsmodell, das die Möglichkeiten der Bilderzeugung neu definierte; von der umfassenden Anwendung des bestärkenden Lernens im Bereich des autonomen Fahrens bis zu den bedeutenden Fortschritten in der KI-gestützten medizinischen Diagnose … Jeder Fortschritt im Bereich der künstlichen Intelligenz begann mit einer Reihe von wissenschaftlichen Arbeiten, die Wissen bündelten. Diese wertvollen akademischen Erkenntnisse sind zusammen die „technische Landkarte“ geworden, die die Entwicklung der Branche vorantreibt.
Um mehr Nutzer über die neuesten Entwicklungen im Bereich der künstlichen Intelligenz im akademischen Bereich zu informieren, wurde auf der offiziellen Website von HyperAI (hyper.ai) der Bereich „Neueste Artikel“ eingerichtet. Täglich werden dort aktuelle Forschungsarbeiten zum Thema KI aktualisiert, die verschiedene vertikale Bereiche wie maschinelles Lernen, Computersprachen, Computer Vision und Mustererkennung sowie Mensch-Computer-Interaktion abdecken. Schauen Sie vorbei!
Neueste KI-Artikel:https://go.hyper.ai/owxf6
Im Folgenden hat HyperAI sorgfältig fünf beliebte KI-Artikel ausgewählt, die vom 9. bis 13. Juni aktualisiert wurden. Lernen wir gemeinsam!
Die Zeitungsempfehlung dieser Woche
1 Verstärkung vor dem Training
Diese Studie schlägt eine neue Methode für das Vortraining von Sprachmodellen vor: das verstärkte Vortraining (RPT). Es wandelt die Aufgabe der nächsten Wortvorhersage in eine Inferenzaufgabe um und nutzt bestärkendes Lernen für das Training, um das Modell zu ermutigen, das nächste Wort im gegebenen Kontext korrekt vorherzusagen. Experimentelle Ergebnisse zeigen, dass RPT nicht nur die Vorhersagegenauigkeit des Sprachmodells deutlich verbessern, sondern auch eine solidere Grundlage für die anschließende Feinabstimmung des RL bietet und so die Leistung bei Zero-Shot-Transfer-Learning-Aufgaben verbessert.
Link zum Artikel:https://go.hyper.ai/Pxpgk


2 Vertrauen ist alles, was Sie brauchen: Feinabstimmung von Sprachmodellen mit wenigen RL-Shots
Diese Studie stellt eine Methode für das bestärkende Lernen mit großen Sprachmodellen (LLMs) vor, nämlich die unüberwachte Modellfeinabstimmung durch Selbstvertrauen (RLSC). Experimentelle Ergebnisse zeigen, dass diese Methode mit einer geringen Anzahl von Stichproben (16 Stichproben pro Frage und 10 bis 20 Trainingsschritte) die Genauigkeit des Modells bei mehreren mathematischen Denkaufgaben deutlich verbessern kann.
Link zum Artikel:https://go.hyper.ai/rFuVl


3 Wird es morgen noch wahr sein? Mehrsprachige Evergreen-Frage Klassifizierung zur Verbesserung Vertrauenswürdige Qualitätssicherung
Diese Studie schlägt eine neue Methode zur Bewertung und Verbesserung der Leistung großer Sprachmodelle (LLMs) in Frage-Antwort-Aufgaben vor, wobei der Schwerpunkt auf der Zeitsensitivität der Fragen bzw. der Frage liegt, ob es sich um „zeitlose“ Fragen handelt. Die Studie zeigt, dass EG-E5 bei der Beurteilung zeitloser Fragen allen getesteten Modellen überlegen ist. Weitere Untersuchungen zeigen, dass bei der Verwendung von Unsicherheitsindikatoren zur Bewertung des Wissens von LLMs die Kombination der Wahrscheinlichkeitsinformationen „zeitloser“ Fragen die Qualität und Genauigkeit der Bewertung deutlich verbessern kann.
Link zum Artikel:https://go.hyper.ai/zOGjT


4 ReasonMed: Ein 370K Multi-Agent Generierter Datensatz zum Weiterkommen Medizinische Argumentation
Diese Studie stellt einen umfangreichen Datensatz zum medizinischen Denken (ReasonMed) vor, der von einem Multiagentensystem generiert wurde und die Fähigkeit zur Beantwortung medizinischer Fragen auf Basis von Sprachmodellen verbessern soll. Der Datensatz wird durch etwa 1,7 Millionen initiale Denkpfade über verschiedene umfangreiche Sprachmodelle generiert und nach gründlicher Überprüfung und Optimierung schließlich auf 370.000 hochwertige Beispiele verfeinert. Der Artikel untersucht außerdem den Einfluss verschiedener Trainingsstrategien auf die Leistung medizinischer Denkmodelle und kommt zu dem Ergebnis, dass eine hybride Methode, die detailliertes Chained Thinking (CoT) mit einer prägnanten Antwortzusammenfassung kombiniert, am effektivsten ist.
Link zum Artikel:https://go.hyper.ai/XyO0s


5 UniSim: Ein einheitlicher Simulator für Zeitvergröberte Dynamik von Biomolekülen
Diese Studie stellt ein neues Deep-Learning-Modell vor, den Unified Simulator (UniSim). Ziel ist es, das Verständnis des Verhaltens molekularer Systeme auf atomarer Ebene durch domänenübergreifendes Wissen zu verbessern und eine effiziente Langzeitdynamiksimulation zu ermöglichen. Experimentelle Ergebnisse zeigen, dass UniSim in verschiedenen Bereichen wie kleinen Molekülen, Peptidketten und Proteinen, insbesondere bei Transferlernfähigkeiten und Langzeitdynamiksimulation, eine äußerst wettbewerbsfähige Leistung gezeigt hat.
Link zum Artikel:https://go.hyper.ai/0Eqsu


Dies ist der gesamte Inhalt der Papierempfehlung dieser Woche. Weitere aktuelle KI-Forschungspapiere finden Sie unter hyper.ai „Neuestes Papier“Platte.
Wir freuen uns auch über die Einreichung hochwertiger Ergebnisse und Veröffentlichungen durch Forschungsteams. Interessierte können sich im NeuroStar WeChat anmelden (WeChat-ID: Hyperai01).
Bis nächste Woche!