Einsendeschluss Für AAAI'25 Ist Heute! SD-Kernmitglieder Stellen Ein Leistungsfähigeres Textbasiertes Graphenmodell Als Midjourney Als Open Source Bereit, Das Jetzt Per Ein-Klick-Start Verfügbar Ist

Midjourney ist wirklich nicht mehr beliebt! Nach der Open-Source-Veröffentlichung von Stable Diffusion 3 im Juni leitete Robin Rombach, ein ehemaliges Kernmitglied von Stability AI, Anfang dieses Monats ein neues Team, das die Bildgenerierungsmodellfamilie FLUX.1 auf den Markt brachte. Die offiziellen Angaben besagen, dass FLUX.1 die Hauptmodelle von Midjourney v6.0 und DALL·E 3 sowie andere kulturelle Karten in mehreren Schlüsselindikatoren übertrifft und zudem Open Source ist. Es klingt so kraftvoll, möchten Sie es auch unbedingt ausprobieren?
Auf der offiziellen Website von hyper.ai wurde jetzt im Tutorial-Bereich die „FLUX.1-schnell Vincent Figure Demo“ veröffentlicht.Klonen Sie es einfach mit einem Klick und beginnen Sie zu spielen. Scrollen Sie im Artikel nach unten, um den Link zu erhalten~
Vom 12. bis 16. August gibt es Updates auf der offiziellen Website von hyper.ai:
* Auswahl an hochwertigen Tutorials: 3
* Hochwertige öffentliche Datensätze: 10
* Community-Artikelauswahl: 4 Artikel
* Beliebte Enzyklopädieeinträge: 5
* Top-Konferenzen mit Deadline im August: 2
Besuchen Sie die offizielle Website:hyper.ai
Ausgewählte öffentliche Tutorials
1. FLUX.1-schnell Vincent Figurendemo
FLUX.1 ist ein großes Modell mit 12 Milliarden Parametern, das Bilder aus Textbeschreibungen generieren kann und dabei hochmoderne Ergebnisse in Bezug auf sofortiges Tracking, visuelle Qualität, Bilddetails und Ausgabevielfalt erzielt. Dieses Tutorial verwendet das Modell der Version FLUX.1 [schnell]. Das Modell und die Umgebung werden bereitgestellt. Sie können das große Modell gemäß den Anweisungen des Tutorials direkt zur Inferenzgenerierung verwenden.
Direkte Verwendung:https://go.hyper.ai/peksE
Der ControlNet-Autor Lvmin Zhang hat ein neues Projekt namens Paints-Undo entwickelt, mit dem der Malprozess jedes Bildes schnell zerlegt werden kann und das Anfängern hilft, die Maltechniken verschiedener Bildstile besser zu verstehen. HyperAI hat jetzt die „Paints-Undo-Demo des gesamten Malprozesses, der aus einem Bild generiert wurde“ veröffentlicht. Dieses Tutorial hat eine Umgebung für alle erstellt. Sie müssen keine Befehle eingeben, Sie können es mit dem Klonen per Mausklick starten!
Direkte Verwendung:https://go.hyper.ai/EwBE0
3. Ein-Klick-Bereitstellung der Puke-Chemiegroßmodell-Demo ChemLLM-7B-Chat
ChemLLM-7B-Chat ist das erste Open-Source-Sprachmodell im großen Maßstab für Chemie und Molekularwissenschaften „Puke Chemistry (ChemLLM)“, das 2024 vom Shanghai Artificial Intelligence Laboratory (Shanghai AI Laboratory) als Open Source bereitgestellt wurde. Dieses Tutorial ist eine Demo des Modells zur Bereitstellung mit einem Klick. Sie müssen nur den Container klonen und starten und die generierte API-Adresse direkt kopieren, um die Inferenz des Modells zu erleben.
Direkte Verwendung:https://go.hyper.ai/X8V9z
Ausgewählte öffentliche Datensätze
1. ChemData-Datensatz für chemische Aufgaben
Dieser Datensatz wurde vom Shanghai Artificial Intelligence Laboratory zusammen mit seinem ersten großen wissenschaftlichen Modell, dem Pu Ke Chemical Big Model (ChemLLM), als Open Source zur Verfügung gestellt. Es umfasst hauptsächlich 9 chemische Kernaufgaben, 730.000 hochwertige Fragen und Antworten sowie große Sprachmodelle und Feinabstimmungsdatensätze für Anweisungen zu chemischen Fähigkeiten.
Direkte Verwendung:https://go.hyper.ai/94tF1
2. ChemBench4K Benchmark-Datensatz zur Bewertung der chemischen Fähigkeiten
Der Datensatz besteht aus 9 Aufgaben zu chemischen Molekülen und Reaktionen, darunter 4.100 Multiple-Choice-Fragen. Der Benchmark legt den Grundstein für die objektive Messung des Chemieniveaus großer Sprachmodelle.
Direkte Verwendung:https://go.hyper.ai/itsdU
3. BRIGHT Text Retrieval Benchmark-Datensatz
Der Datensatz sammelt 1.385 echte Abfragen aus verschiedenen Bereichen (StackExchange, LeetCode und Mathematikwettbewerbe), die alle aus echten künstlichen Daten stammen. Der BRIGHT-Datensatz wurde speziell dafür entwickelt, zu testen, ob das Abfragesystem solche tiefen logischen Beziehungen erkennen und relevante wissenschaftliche Artikel oder Berichte finden kann.
Direkte Verwendung:https://go.hyper.ai/s735d
4. Multimodaler ArXiv-Datensatz zum wissenschaftlichen Verständnis
Multimodales ArXiv besteht aus ArXivCap und ArXivQA, um das wissenschaftliche Verständnis in LVLM zu verbessern. ArXivCap ist ein Datensatz mit Graphunterschriften, der 6,4 Millionen Bilder und 3,9 Millionen Beschriftungen enthält. ArXivQA ist ein von GPT-4V generierter Frage-Antwort-Datensatz basierend auf wissenschaftlichen Grafiken über Eingabeaufforderungen. Die entsprechenden Ergebnisse wurden von ACL 2024 akzeptiert.
Direkte Verwendung:https://go.hyper.ai/n64Jh
5. SPIQA Multimodaler Datensatz zur Beantwortung wissenschaftlicher Fragen
Dies ist der erste groß angelegte QA-Datensatz, der speziell für die Interpretation komplexer Abbildungen und Tabellen in wissenschaftlichen Forschungsartikeln in verschiedenen Bereichen der Informatik entwickelt wurde. Es enthält 270.000 Fragen, aufgeteilt in Trainings-, Validierungs- und drei verschiedene Evaluierungsteile. Durch die Durchführung umfangreicher Experimente mit 12 bekannten Basismodellen bewertete das Team die Fähigkeit aktueller multimodaler Systeme, subtile Aspekte von Forschungsartikeln zu verstehen.
Direkte Verwendung:https://go.hyper.ai/qd7I2
6. MMEvaIPro Multimodaler Benchmark-Evaluationsdatensatz
MMEvalPro verbessert bestehende Bewertungsmethoden durch das Hinzufügen von zwei „Ankerfragen“ (1 Wahrnehmungsfrage und 1 Wissensfrage) und bildet so ein „Fragentriplett“, das verschiedene Aspekte des multimodalen Verständnisses des Modells testet. Der endgültige Benchmark enthält 2.138 Fragentripel, also insgesamt 6.414 verschiedene Fragen zu unterschiedlichen Themen und Schwierigkeitsgraden.
Direkte Verwendung:https://go.hyper.ai/Hw8JA
7. PubMedVision Großer medizinischer VQA-Datensatz
PubMedVision ist ein umfangreicher, hochwertiger medizinischer multimodaler Datensatz. Das Forschungsteam verwendete hochentwickelte Datenverarbeitungsmethoden, um medizinisch relevante Bilder und informative Bildbeschreibungen aus Artikeln in internationalen medizinischen Fachzeitschriften von PubMed herauszufiltern und so eine große Anzahl medizinisch irrelevanter Bilder und kontextirrelevanter Inhalte effektiv herauszufiltern.
Direkte Verwendung:https://go.hyper.ai/Uy8XM
8. Multimodaler selbstanweisender multimodaler Benchmark-Datensatz
Der Datensatz enthält insgesamt 11.193 abstrakte Bilder mit relevanten Fragen und deckt 8 Hauptkategorien ab, darunter Dashboards, Roadmaps, Diagramme, Tabellen, Flussdiagramme, Beziehungsdiagramme, visuelle Rätsel und 2D-Grundrisse, sowie weitere 62.476 Daten zur Feinabstimmung des Modells.
Direkte Verwendung:https://go.hyper.ai/FwGuz
9. Assetto Corsa Gym Groß angelegter Benchmark für autonome Rennsimulationen
Der Datensatz sammelt 64 Millionen Schritte an Rennfahrdaten, von denen 2,3 Millionen Schritte von menschlichen Fahrern mit unterschiedlichen Fahrfähigkeiten stammen und der Rest aus Soft Actor-Critic (SAC)-Richtlinien stammt.
Direkte Verwendung:https://go.hyper.ai/6tfuM
10. MiraData: Ein umfangreicher Videodatensatz mit langer Dauer und strukturierten Untertiteln
MiraData konzentriert sich auf ungeschnittene Videoclips von 1 bis 2 Minuten (durchschnittliche Länge 72,1 Sekunden). Jedes Video wird von einer strukturierten Beschreibung aus verschiedenen Blickwinkeln begleitet, wobei die durchschnittliche Beschreibungslänge 318 Wörter beträgt, wodurch eine umfassende Präsentation des Videoinhalts gewährleistet wird. Dieser Datensatz bietet wertvolle Ressourcen und neue Herausforderungen für Forscher in den Bereichen der Generierung langer Videos sowie des Verständnisses und der Generierung von Videoinhalten.
Direkte Verwendung:https://go.hyper.ai/2LmEJ
Weitere öffentliche Datensätze finden Sie unter:
Community-Artikel
1. ACL 2024 gibt die 7 besten Arbeiten bekannt, und ein HUST-Student gewinnt den Preis als Erstautor
Am 14. August wurden nacheinander die verschiedenen Auszeichnungen des ACL 2024 bekannt gegeben. Insgesamt 7 Ergebnisse wurden als bestes Paper ausgezeichnet. Den Preis gewann das gemeinsam von der Huazhong University of Science and Technology, der University of Adelaide, der Anyang Normal University und der South China University of Technology veröffentlichte Buch „Deciphering Oracle Bone Language with Diffusion Models“. Das HyperAI Super Neural Network lieferte allen eine detaillierte Interpretation.
Den vollständigen Bericht ansehen:https://go.hyper.ai/t5Zon
Vor kurzem analysierten Pratyusha Sharma vom MIT und Forscher des CETI mithilfe von maschinellem Lernen Aufnahmen von Pottwalen und bestätigten, dass die von Pottwalen erzeugten Laute durch eine Kombination verschiedener Merkmale strukturiert und geformt sind. Sie isolierten außerdem das Aussprachealphabet des Pottwals, das dem menschlichen Sprachausdruckssystem große Ähnlichkeiten aufweist. Dieser Artikel ist eine detaillierte Interpretation und Weitergabe des Forschungspapiers.
Den vollständigen Bericht ansehen:https://go.hyper.ai/nA23S
Kürzlich erkannte das Forschungsteam um den Akademiemitglied Dai Qionghai und den Professor Fang Lu von der Tsinghua-Universität die Symmetrie der Photonenausbreitung, indem es die Vorwärts- und Rückwärtsausbreitung beim Training neuronaler Netzwerke mit der Vorwärtsausbreitung von Licht gleichsetzte und eine Methode für vollständiges Vorwärtslernen entwickelte. Dieser Artikel ist eine detaillierte Interpretation und Weitergabe des Forschungspapiers.
Den vollständigen Bericht ansehen:https://go.hyper.ai/lxNhj
Um den neuronalen Netzwerkalgorithmus und den DFT-Algorithmus organischer zu kombinieren, schlug die Forschungsgruppe von Xu Yong und Duan Wenhui von der Tsinghua-Universität das Framework der Dichtefunktionaltheorie neuronaler Netzwerke (neuronales Netzwerk DFT) vor. Dieses Framework vereint die Minimierung von Verlustfunktionen in neuronalen Netzwerken und die Optimierung von Energiefunktionalen in der Dichtefunktionaltheorie. Im Vergleich zu herkömmlichen überwachten Lernmethoden weist es eine höhere Genauigkeit und Effizienz auf und eröffnet einen neuen Weg für die Entwicklung von Deep-Learning-DFT-Methoden. Dieser Artikel ist eine detaillierte Interpretation und Weitergabe des Forschungspapiers.
Den vollständigen Bericht ansehen:https://go.hyper.ai/oE7nH
Beliebte Enzyklopädieartikel
1. Gepaarter t-Test
2. Reziproke Sortierfusion RRF
3. Pareto-Front
4. Umfangreiches Multitasking-Sprachverständnis (MMLU)
5. Datenerweiterung
Hier sind Hunderte von KI-bezogenen Begriffen zusammengestellt, die Ihnen helfen sollen, „künstliche Intelligenz“ zu verstehen:

Zentrale Verfolgung der wichtigsten wissenschaftlichen KI-Konferenzen:https://go.hyper.ai/event
Das Obige ist der gesamte Inhalt der Auswahl des Herausgebers dieser Woche. Wenn Sie über Ressourcen verfügen, die Sie auf der offiziellen Website von hyper.ai veröffentlichen möchten, können Sie uns auch gerne eine Nachricht hinterlassen oder einen Artikel einreichen!
Bis nächste Woche!
Über HyperAI
HyperAI (hyper.ai) ist eine führende Community für künstliche Intelligenz und Hochleistungsrechnen in China.Wir haben uns zum Ziel gesetzt, die Infrastruktur im Bereich der Datenwissenschaft in China zu werden und inländischen Entwicklern umfangreiche und qualitativ hochwertige öffentliche Ressourcen bereitzustellen. Bisher haben wir:
* Bereitstellung inländischer beschleunigter Download-Knoten für über 1300 öffentliche Datensätze
* Enthält über 400 klassische und beliebte Online-Tutorials
* Interpretation von über 100 AI4Science-Papierfällen
* Unterstützt die Suche nach über 500 verwandten Begriffen
* Hosting der ersten vollständigen chinesischen Apache TVM-Dokumentation in China
Besuchen Sie die offizielle Website, um Ihre Lernreise zu beginnen: