Halbieren Sie Die Schulungskosten! OmniConsistency Erreicht SOTA-Ergebnisse Mit 2,6k Bildern; Wan2.1-VACE-14B Eröffnet Eine Neue Dimension Der Videogenerierung

Mit dem Boom der digitalen Bildverarbeitung haben Open-Source-Modelle bedeutende Durchbrüche in der Bildstilisierung erzielt. Allerdings besteht hinsichtlich der Stilisierungskonsistenz noch immer eine erhebliche Lücke zu kommerziellen Modellen. Um diesen technischen Engpass zu überwinden, hat Show Lab OmniConsistency eingeführt, ein Konsistenz-Plugin, das auf einem groß angelegten Diffusionstransformator basiert und die Leistungslücke zwischen Open-Source-Methoden und kommerziellen Modellen schließen soll.
OmniConsistency verwendet eine zweistufige progressive Lernstrategie, um das Stillernen von der Konsistenz zu entkoppeln und so das Problem der Stilverschlechterung wirksam zu lindern.Verbessert die visuelle Kohärenz und ästhetische Qualität erheblich und erreicht eine Leistung, die mit dem kommerziellen Spitzenmodell GPT-4o vergleichbar ist.
Um das Training und die Auswertung des Modells zu unterstützen, hat das Forschungsteam außerdem den OmniConsistency-Datensatz für stilisierte Bildpaare erstellt.Dieser Datensatz verwendet GPT-4o, um Eingabebilder aus 22 verschiedenen künstlerischen Stilen zu synthetisieren und generiert entsprechende beschreibende Textanmerkungen für die Quellbilder und stilisierten Bilder, um den unterschiedlichen kreativen Anforderungen gerecht zu werden.
Derzeit hat HyperAI „OmniConsistency: GPT-4o-Level-Charakterstil-Transfermodell“ und „OmniConsistency-Stil-Bildpaar-Datensatz“ veröffentlicht. Probieren Sie es aus!
OmniConsistency: Zeichenstil-Übertragungsmodell auf GPT-4o-Ebene
Online-Nutzung:https://go.hyper.ai/WU5fY
OmniConsistency-Datensatz für stilisierte Bildpaare
Online-Nutzung:https://go.hyper.ai/RxZk9
Vom 9. bis 13. Juni gibt es Updates auf der offiziellen Website von hyper.ai:
* Hochwertige öffentliche Datensätze: 10
* Hochwertige Tutorials: 13
* Empfohlene Artikel dieser Woche: 5
* Interpretation von Community-Artikeln: 4 Artikel
* Beliebte Enzyklopädieeinträge: 5
* Top-Konferenzen mit Deadlines im Juni und Juli: 6
Besuchen Sie die offizielle Website:hyper.ai
Ausgewählte öffentliche Datensätze
1. OpenThoughts3-1.2M Reasoning-Datensatz
OpenThoughts3-1.2M ist ein Open-Source-Datensatz zum folgerichtigen Denken, der 850.000 Mathematikfragen, 250.000 Codefragen und 100.000 Wissenschaftsfragen enthält. Die Anmerkungen werden mithilfe des Modells QwQ-32B vervollständigt.
Direkte Verwendung:https://go.hyper.ai/1u77Q

2. OpenThoughts2-1M Reasoning-Datensatz
Der Datensatz basiert auf dem OpenThoughts-114k-Datensatz und ergänzt bestehende Datensätze wie OpenR1 sowie weitere Daten aus den Bereichen Mathematik und Code-Reasoning. Die Daten enthalten 1 Million hochwertige Beispiele aus den Bereichen Mathematik, Naturwissenschaften, Code und Rätsel. Die Leistung des mit diesem Datensatz trainierten OpenThinker2-Modells ist vergleichbar mit der des DeepSeek-R1-Distill-Modells.
Direkte Verwendung:https://go.hyper.ai/FK1Z3

3. OmniConsistency-Datensatz für stilisierte Bildpaare
OmniConsistency ist ein umfangreicher Datensatz mit Bildpaaren in verschiedenen Stilen. Der Schwerpunkt liegt auf Bildstilisierung und modalübergreifendem Konsistenzlernen. Ziel ist es, standardisierte Ressourcen für die Bildgenerierung, Stilübertragung und das multimodale Modelltraining bereitzustellen. Der Datensatz deckt 22 verschiedene Kunststile ab, darunter Cartoons, Ölgemälde, traditionelle Kunst, Pixelkunst usw., um vielfältigen kreativen Anforderungen gerecht zu werden.
Direkte Verwendung:https://go.hyper.ai/RxZk9
4. Nemotron-Personas-Zeichendatensatz
Der Datensatz enthält künstlich synthetisierte Charaktere, die auf realen demografischen Daten, geografischer Verteilung und Persönlichkeitsmerkmalen basieren und die Vielfalt und den Reichtum der Bevölkerung erfassen sollen. Es ist der erste Datensatz seiner Art, der Statistiken zu Attributen wie Name, Geschlecht, Alter, Herkunft, Familienstand, Bildung, Beruf und Wohnort enthält.
Direkte Verwendung:https://go.hyper.ai/uwpRH
5. VCBench-Benchmark-Datensatz für mathematisches Denken
VCBench ist ein Benchmark-Datensatz zur Bewertung multimodalen mathematischen Denkens mit expliziten visuellen Abhängigkeiten. Der Datensatz enthält 1.720 Frage-Antwort-Paare und insgesamt 6.697 Bilder.
Direkte Verwendung:https://go.hyper.ai/4Ck1t
6. AudioTrust Audio-Benchmark-Datensatz
Bei diesem Datensatz handelt es sich um einen umfangreichen Audiotext-Benchmark-Datensatz. Als erster mehrdimensionaler Benchmark zur Vertrauensbewertung, der auf große Audiomodelle zugeschnitten ist, konzentriert sich AudioTrust auf die Bewertung der mehrdimensionalen Glaubwürdigkeit von großen Audiosprachenmodellen (ALLMs).
Direkte Verwendung:https://go.hyper.ai/WgJSW
7. LEXam Legal Reasoning Benchmark-Datensatz
Der Datensatz enthält 340 echte juristische Prüfungen aus verschiedenen Studiengängen und Stufen (Bachelor und Master) der Juristischen Fakultät der Universität Zürich, Schweiz. Sie decken Schweizer, europäisches und internationales Recht sowie Rechtstheorie und Rechtsgeschichte ab. Der Datensatz umfasst insgesamt 4.886 Fragen, darunter 2.841 Fragen mit Langantworten und 2.045 Multiple-Choice-Fragen.
Direkte Verwendung:https://go.hyper.ai/qYpoL
8. ReasonMap-Verkehrsdiagramm-Benchmark-Datensatz
ReasonMap legt den Schwerpunkt auf räumliche Beziehungen und Routenbetrachtung in Bildern. Es ist der erste Benchmark für multimodale Argumentation, der sich auf hochauflösende Verkehrskarten (hauptsächlich U-Bahn-Karten) konzentriert und die Fähigkeit großer Modelle bewertet, feinkörnige, strukturierte räumliche Informationen in Bildern zu verstehen.
Direkte Verwendung:https://go.hyper.ai/5ejzs
9. Chinesisch-LiPS-Datensatz zur multimodalen Spracherkennung
Als erster chinesischer multimodaler Spracherkennungsdatensatz, der „Informationen zum Lippenlesen + semantische Informationen zum Gleiten“ kombiniert, deckt Chinese-LiPS komplexe Kontexte wie chinesische Erklärungen, Populärwissenschaft, Unterricht und Wissensverbreitung ab und engagiert sich für die Förderung der Entwicklung der chinesischen multimodalen Spracherkennungstechnologie.
Direkte Verwendung:https://go.hyper.ai/uaDMt
10. Hirntumor-Datensatz
Bei diesem Datensatz handelt es sich um einen Datensatz zur Segmentierung und Klassifizierung von Hirntumoren im MRT. Er soll hochwertige Datenunterstützung für die medizinische Bildanalyse von Hirntumoren bieten und eignet sich für Aufgaben zur Segmentierung und Klassifizierung von Hirntumoren. Die Daten enthalten etwa 5.000 MRT-Schnitte.
Direkte Verwendung:https://go.hyper.ai/8qq5w
Ausgewählte öffentliche Tutorials
Diese Woche haben wir 4 Kategorien hochwertiger öffentlicher Tutorials zusammengefasst:
* Tutorials zur Videogenerierung: 3
* Tutorials zur Bildverarbeitung: 3
*Tutorials zur Sprachgenerierung: 2
*Tutorial zur Bereitstellung großer Modelle: 2
*KI für Wissenschafts-Tutorials: 2
VideogenerierungLernprogramm
1. ComfyUI HunyuanTutorial zum Workflow für die benutzerdefinierte Videogenerierung
HunyuanCustom ist ein multimodales Framework zur benutzerdefinierten Videogenerierung. Es handelt sich um ein multimodales, bedingt steuerbares Generierungsmodell, das auf dem Hunyuan-Videogenerierungsframework basiert und auf Themenkonsistenz ausgerichtet ist. Es unterstützt die Generierung themenkonsistenter Videos basierend auf Text-, Bild-, Audio- und Videoeingaben. Mit den multimodalen Funktionen von HunyuanCustom können viele nachgelagerte Aufgaben erledigt werden.
Dieses Tutorial verwendet eine einzelne RTX 4090-Karte als Ressource. Die Videogenerierung dauert etwa 10 Minuten. Für eine bessere Generierungsqualität wird die Verwendung einer GPU mit 80 GB Speicher empfohlen.
Online ausführen:https://go.hyper.ai/Vw6bJ

2. ComfyUI Wan2.1-VACE-14B Bild-zu-Video-Workflow-Tutorial
Das Modell basiert auf Tongyi Wanxiang V2.1 und ist das branchenweit erste Video-KI-Tool, das die flexible Kombination mehrerer Aufgaben unterstützt. Es kann den gesamten Prozess von der Videoerstellung bis zur Feinbearbeitung in einem Schritt abschließen. Es unterstützt die Umwandlung von Text in Video, Bild in Video, erstem und letztem Frame in Video usw.
Dieses Tutorial verwendet eine einzelne A6000-Karte. Die Videoerstellung dauert etwa 30 Minuten. Wir empfehlen die Verwendung einer höheren Rechenleistung.
Online ausführen:https://go.hyper.ai/4ULKi
3. Vchitect-2.0 Video-Diffusionsmodell-Demo
Das Modell verwendet ein innovatives paralleles Transformer-Architekturdesign mit 2 Milliarden Parametern und kann basierend auf Textaufforderungen flüssige, qualitativ hochwertige Videoinhalte generieren.
Dieses Tutorial verwendet eine A6000-Einzelkarte als Ressource, die mit einem Klick bereitgestellt werden kann, um benutzerdefinierte Videos zu generieren.
Online ausführen:https://go.hyper.ai/r6OC2
Tutorial zur Bildverarbeitung
1. JoyCaption Beta 1 Demo des visuellen Untertitel-Sprachmodells
Das Modell deckt ein breites Spektrum an Bildstilen, Inhalten, ethnischer Zugehörigkeit, Geschlecht und Orientierung ab und nutzt dabei nur minimale Filter, um alle Aspekte der Welt zu verstehen, ohne jedoch illegale Inhalte zu unterstützen. Nutzer können verschiedene Modi und Eingabeaufforderungen nutzen, um aussagekräftige Bildunterschriften für verschiedene Anwendungsszenarien zu generieren, z. B. für Social-Media-Beiträge, Produktlisten usw.
Dieses Tutorial verwendet eine einzelne RTX 4090-Karte als Ressource. Geben Sie den Link ein, um Untertitel zu generieren, die optimal zum Inhalt passen.
Online ausführen:https://go.hyper.ai/13wrE
2. Beschreiben Sie alles Modelldemo
Das Modell kann detaillierte Beschreibungen basierend auf benutzerdefinierten Bereichen (Punkten, Kästchen, Kritzeleien oder Masken) generieren. Bei Videoinhalten kann eine vollständige Beschreibung durch einfaches Annotieren des Bereichs in einem beliebigen Frame erstellt werden.
Dieses Tutorial verwendet eine einzelne RTX 4090-Karte als Ressource. Sie können sie mit einem Klick bereitstellen und einfach auf die gewünschte Stelle klicken.
Online ausführen:https://go.hyper.ai/aitMs
3. OmniConsistency: Zeichenstil-Übertragungsmodell auf GPT-4o-Ebene
OmniConsistency verbessert die visuelle Kohärenz und ästhetische Qualität deutlich und erreicht eine Leistung, die mit dem fortschrittlichsten kommerziellen Modell GPT-4o vergleichbar ist. Es schließt die Leistungslücke zwischen Open-Source- und kommerziellen Modellen hinsichtlich der Stilkonsistenz, bietet eine kostengünstige, hochgradig kontrollierbare Lösung für die KI-Erstellung und fördert die Demokratisierung der Bilderzeugungstechnologie. Seine Kompatibilität und Plug-and-Play-Funktionen senken zudem die Hemmschwelle für Entwickler und Kreative, es zu nutzen.
Die Rechenressourcen dieses Tutorials nutzen eine einzelne RTX A6000-Karte. Geben Sie den Link ein, um eine personalisierte Erstellung zu erreichen~
Online ausführen:https://go.hyper.ai/WU5fY

Tutorial zur Sprachgenerierung
1. Stable-audio-open-small: Demo des Audiogenerierungsmodells
Stable-audio-open-small konzentriert sich auf die effiziente Erstellung hochwertiger kurzer Audioinhalte. Basierend auf fortschrittlicher Diffusionsmodelltechnologie unterstützt es Benutzer bei der schnellen Generierung vielfältiger Audioinhalte wie Musikclips, Soundeffekte und Umgebungsgeräusche (z. B. Drumloops, Melodieclips oder natürliche Klanglandschaften) durch Textansagen. Dies eignet sich für Musikproduktion, Spieleentwicklung, Film- und Fernsehsoundtracks und andere Szenarien.
Dieses Tutorial verwendet Ressourcen für eine einzelne A6000-Karte und eine Ein-Klick-Bereitstellung, um exklusive Musik zu machen!
Online ausführen:https://go.hyper.ai/jl9Y3
2. Chatterbox TTS: Demo zur Sprachsynthese
Chatterbox ist das erste Open-Source-TTS-Modell, das übertriebene Emotionssteuerung unterstützt. Es basiert auf der LLaMA-Architektur mit 500 Millionen Parametern und wurde mit über 500.000 Stunden ausgewählter Audiodaten trainiert. Es unterstützt die Generierung mehrerer Sprachen und Klangfarben und übertrifft mit seiner Leistung die von Closed-Source-Systemen wie ElevenLabs. Eine seiner Kernfunktionen ist das Zero-Sample-Voice-Cloning, das mit nur fünf Sekunden Referenzaudio hochrealistische personalisierte Stimmen generiert, ohne dass ein komplexer Trainingsprozess erforderlich ist.
Die in diesem Tutorial verwendeten Rechenressourcen sind eine einzelne RTX 4090-Karte. Die Modellansagen unterstützen nur Englisch. Klonen Sie Ihre eigene Stimme mit einem Klick.
Online ausführen:https://go.hyper.ai/KAF8M
Tutorial zur Bereitstellung großer Modelle
1. Bereitstellung von DeepSeek-R1-0528-Qwen3-8B mit einem Klick
Das Modell verfügt über 8 Milliarden Parameter. Durch die Übertragung der komplexen Reasoning-Fähigkeiten von DeepSeek-R1-0528 auf das kleinere Qwen3-8B-Basismodell kombiniert es die Mehrsprachigkeit von Qwen3 mit der Reasoning-Optimierung von DeepSeek-R1. Seine Leistung ist mit der von GPT-4 vergleichbar und unterstützt die effiziente Bereitstellung auf einer einzelnen Karte. Damit ist es die ideale Wahl für akademische und Unternehmensanwendungen.
Die in diesem Tutorial verwendeten Rechenressourcen sind eine einzelne RTX 4090-Karte. Geben Sie den Link ein, um das erweiterte große Modell mit einem Klick bereitzustellen.
Online ausführen:https://go.hyper.ai/UnQEa
2. vLLM+Open WebUI setzt das dichte Sprachmodell AM-Thinking-v1 ein
AM-Thinking-v1 ist ein 32B-Sprachmodell mit hoher Dichte, das sich auf die Verbesserung der Denkfähigkeiten konzentriert. Das Modell zeigt eine starke Leistung bei Denkbenchmarks, vergleichbar mit großen MoE-Modellen wie DeepSeek-R1, Qwen3-235B-A22B, Seed1.5-Thinking und größeren, dichten Modellen wie Nemotron-Ultra-253B-v1.
Dieses Tutorial verwendet A6000-Ressourcen mit zwei Karten und ermöglicht das Klonen mit einem Klick und einem 32B-Dense-Sprachmodell!
Online ausführen:https://go.hyper.ai/mbAMu
KI für die Wissenschaft Lernprogramm
1. Feinabstimmung des Kraftfelds für maschinelles Lernen von VASP
VASP ist ein Computerprogramm zur Materialmodellierung auf atomarer Ebene basierend auf grundlegenden Prinzipien, wie z. B. Berechnungen der elektronischen Struktur und quantenmechanischer Molekulardynamik. In diesem Tutorial generieren wir eine Reihe entsprechender Phononenspektren durch kontinuierliche Änderung der Hyperparameter des maschinellen Lernens und erhalten die entsprechende Datei mit den optimalen Kraftfeldparametern des maschinellen Lernens.
Online ausführen:https://go.hyper.ai/2DmyQ
2. VASP-Maschinenlernkraftfeld berechnet Silizium-Phononenspektrum
Phonopy ist ein Python-Toolkit zur Berechnung der Phononenbandstruktur, der thermischen Eigenschaften, der Gruppengeschwindigkeit und anderer phononenbezogener Größen auf harmonischer und quasiharmonischer Ebene. In diesem Tutorial demonstrieren wir anhand eines automatisierten Skripts den Berechnungsprozess des Kraftfeld-Phononenspektrums mittels maschinellem Lernen.
Online ausführen:https://go.hyper.ai/tmnQ4
Die Zeitungsempfehlung dieser Woche
1. Technischer Bericht zu MiMo-VL
Dieser Artikel stellt zwei Open-Source-Modelle vor: MiMo-VL-7B-SFT und MiMo-VL-7B-RL. Diese leistungsstarken visuellen Sprachmodelle erzielen Spitzenleistungen im allgemeinen visuellen Verständnis und multimodalen Denken. MiMo-VL-7B-RL übertrifft Qwen2.5-VL-7B in 35 der 40 bewerteten Aufgaben und erreicht auf OlympiadBench 59,4 Punkte. Damit übertrifft es Modelle mit bis zu 78 Milliarden Parametern. Darüber hinaus bietet der Artikel umfassende Evaluierungstools für über 50 Aufgaben, um die Reproduzierbarkeit zu fördern und das Forschungsfeld weiterzuentwickeln.
Link zum Artikel:https://go.hyper.ai/0v2Lr
2. Gilt das auch morgen noch? Mehrsprachige Evergreen-Fragenklassifizierung für eine vertrauenswürdige Qualitätssicherung
Große Sprachmodelle (LLMs) führen bei Frage-Antwort-Aufgaben (QA) häufig zu Halluzinationen. Ein kritischer, aber wenig erforschter Faktor ist der zeitliche Charakter von Fragen – d. h., ob die Frage dauerhaft (die Antwort bleibt über die Zeit stabil) oder veränderlich (die Antwort ändert sich mit der Zeit) ist. Dieses Papier stellt EverGreenQA vor, den ersten mehrsprachigen QA-Datensatz mit dauerhaft gültigen Labels, der sowohl Evaluation als auch Training unterstützt. Mit EverGreenQA vergleichen wir 12 moderne große Sprachmodelle, um zu bewerten, ob sie den zeitlichen Charakter von Fragen explizit (durch verbale Urteile) oder implizit (durch Unsicherheitssignale) kodieren.
Link zum Artikel:https://go.hyper.ai/UnDRj
3. MambaNeXt-YOLO: Ein hybrides Zustandsraummodell zur Echtzeit-Objekterkennung
Dieses Dokument stellt MambaNeXt-YOLO vor, ein neues Framework zur Zielerkennung, das Genauigkeit und Effizienz in Einklang bringt. Seine spezifischen Beiträge umfassen die folgenden drei Aspekte: MambaNeXt-Modul: ein Hybriddesign, das Convolutional Neural Networks (CNNs) mit der Mamba-Zustandsraumstruktur kombiniert, wodurch lokale Merkmale effektiv extrahiert und Abhängigkeiten über große Entfernungen modelliert werden können; Multi-Branch Asymmetric Fusion Pyramid Network (MAFPN): eine erweiterte Merkmalspyramidenstruktur zur Verbesserung der mehrskaligen Erkennungsfähigkeiten von Zielen unterschiedlicher Größe; Effizienzoptimierung für Edge-Geräte: Ohne Vortraining erreicht unsere Methode einen mAP von 66,61 TP3T und eine Inferenzgeschwindigkeit von 31,9 FPS im PASCAL VOC-Datensatz und unterstützt so den effizienten Einsatz auf Edge-Geräten wie NVIDIA Jetson Xavier NX und Orin NX.
Link zum Artikel:https://go.hyper.ai/FGaro
4. ComfyUI-Copilot: Ein intelligenter Assistent für die automatisierte Workflow-Entwicklung
Dieses Dokument stellt ComfyUI-Copilot vor, ein auf einem großen Sprachmodell basierendes Plugin zur Verbesserung der Benutzerfreundlichkeit und Effizienz von ComfyUI. Der Kern des ComfyUI-Copilot-Systems basiert auf einem hierarchischen Multi-Agenten-Framework, das einen zentralen Assistenzagenten für die Aufgabenzuweisung und mehrere spezialisierte Worker-Agenten für Aufgaben mit unterschiedlichen Zwecken umfasst. Die Ergebnisse zeigen, dass es Knoten präzise empfehlen und die Workflow-Entwicklung beschleunigen kann.
Link zum Artikel:https://go.hyper.ai/n0WyZ
5. Prot42: eine neue Familie von Protein-Sprachmodellen für die zielorientierte Generierung von Proteinbindern
Diese Arbeit stellt eine neue Familie von Proteinsprachenmodellen vor: Prot42, die auf der Grundlage massiver, unmarkierter Proteinsequenzen vortrainiert ist. Prot42 verwendet eine reine Decoder-Architektur, nutzt die neuesten Erkenntnisse der natürlichen Sprachverarbeitung und kann die Evolution, Struktur und Funktion von Proteinen detailliert erfassen. Dies erweitert die Möglichkeiten des sprachbasierten computergestützten Proteindesigns erheblich.
Link zum Artikel:https://go.hyper.ai/nHOJA
Weitere Artikel zu den Grenzen der KI:https://go.hyper.ai/iSYSZ
Interpretation von Gemeinschaftsartikeln
Ein gemeinsames Forschungsteam des Inception AI Institute in Abu Dhabi und von Cerebras Systems im Silicon Valley entwickelte Prot42, die erste Familie von Protein-Sprachmodellen (PLMs), die ausschließlich auf Proteinsequenzinformationen basiert und keine 3D-Struktureingabe benötigt. Sie ermöglicht die Modellierung langer Sequenzen und die Generierung hochaffiner Binder und sorgt so für bahnbrechende Durchbrüche im Bereich des Proteindesigns.
Den vollständigen Bericht ansehen:https://go.hyper.ai/UMKY8
Innovationen und Praktiken rund um den Upstream und Downstream von KI-Compilern entstehen ständig, und die Aufmerksamkeit aller auf diesem Gebiet nimmt zu! Um Spitzenforschung und Anwendungsszenarien besser zu verknüpfen, veranstaltet HyperAI am 5. Juli in Peking den 7. Meet AI Compiler Technology Salon. Der 7. Meet AI Compiler Technology Salon 2025 findet am 5. Juli im Garage Coffee in Peking statt.
Den vollständigen Bericht ansehen:https://go.hyper.ai/QM1xm
Die Gruppe von Professor Liu Yang von der Tsinghua-Universität und die Gruppe von Professor Huang Wenbing von der Gaoling School of Artificial Intelligence an der Renmin-Universität in China haben gemeinsam einen einheitlichen biomolekularen Zeitvergröberungsdynamiksimulator namens UniSim vorgeschlagen, der erstmals eine einheitliche Zeitvergröberungsdynamiksimulation über Molekültypen (kleine Moleküle, Peptide, Proteine) und chemische Umgebungen hinweg realisiert.
Den vollständigen Bericht ansehen:https://go.hyper.ai/gQ1ob
Das Team der Georg-August-Universität entwickelte einen innovativen Algorithmus für die Computerbiologie, SimplifiedBondfinder, um mehr als 86.000 hochauflösende Röntgenproteinstrukturen systematisch zu analysieren und entdeckte dabei eine neue Art von NOS-Bindung zwischen Arginin (Arg)-Cystein und Glycin (Gly)-Cystein, die noch nie zuvor beobachtet worden war.
Den vollständigen Bericht ansehen:https://go.hyper.ai/nurdR
Beliebte Enzyklopädieartikel
1. DALL-E
2. Reziproke Sortierfusion RRF
3. Pareto-Front
4. Umfangreiches Multitasking-Sprachverständnis (MMLU)
5. Kontrastives Lernen
Hier sind Hunderte von KI-bezogenen Begriffen zusammengestellt, die Ihnen helfen sollen, „künstliche Intelligenz“ zu verstehen:
Anmeldeschluss für die Konferenz ist Juni-Juli
19. Juni 7:59:59 ICDE 2026
2. Juli 7:59:59 VLDB 2026
11. Juli 7:59:59 POPL 2026
15. Juli 7:59:59 SODA 2026
18. Juli 7:59:59 SIGMOD 2026
19. Juli 7:59:59 ICSE 2026
Zentrale Verfolgung der wichtigsten wissenschaftlichen KI-Konferenzen:https://go.hyper.ai/event
Das Obige ist der gesamte Inhalt der Auswahl des Herausgebers dieser Woche. Wenn Sie über Ressourcen verfügen, die Sie auf der offiziellen Website von hyper.ai veröffentlichen möchten, können Sie uns auch gerne eine Nachricht hinterlassen oder einen Artikel einreichen!
Bis nächste Woche!