HyperAI

CVPR 20-Ergebnisse Bekannt Gegeben! 1470 Beiträge Wurden Angenommen, Und Ein Team Von Huawei Erhielt 7 Von 11.

特色图像

Heute hat die führende Computer Vision-Konferenz CVPR die Ergebnisse veröffentlicht; insgesamt stehen 1.470 Beiträge auf der Liste. Einige großartige Spieler haben bereits begonnen, ihre Transkripte zu veröffentlichen. Werfen wir einen Blick darauf.

Die Ergebnisse der Top-Computer-Vision-Konferenz CVPR sind da! Heute Nachmittag hat CVPR die IDs der angenommenen Beiträge bekannt gegeben.Insgesamt wurden 1470 Arbeiten aufgenommen.

Dieses Jahr beträgt die Anzahl der gültigen Einsendungen 6656, alsoDie Akzeptanzrate beträgt 22%——Weniger als 25% im Jahr 2019 und 29% im Jahr 2018.

Adresse der Liste der akzeptierten Papier-IDs:
http://cvpr2020.thecvf.com/sites/default/files/2020-02/accepted_list.txt

Berichten zufolge sind beim CVPR 2020 insgesamt 3.664 Gutachter und 198 Fachbereichsleiter mit der Überprüfung der Beiträge beschäftigt, um deren Qualität zu kontrollieren. Da die Zahl der Einsendungen von Jahr zu Jahr steigt, wird die Qualitätskontrolle weiterhin streng durchgeführt.

Die Meister zeigen gerne ihre Zeugnisse 

Nach Bekanntgabe der Ergebnisse kam es zu umfangreichen Diskussionen unter Wissenschaftlern im In- und Ausland.

Auf Zhihu wurden einem Autor sieben Artikel ausgewählt und er veröffentlichte sein Zeugnis, wobei der Bildschirm vor Freude überlief.

Das Team reichte 11 Beiträge ein und 7 wurden angenommen.

Auch die Experten auf Twitter präsentieren ihre Ergebnisse freudig:

Wenn man sich umschaut und jedes Jahr die Ergebnisse der Top-Konferenzen bekannt gibt, gibt es immer einige, die glücklich sind, und einige, die traurig sind. Ich hoffe, dass jeder dem mit einer positiven Einstellung begegnen kann.

Die Zahl der Einreichungen steigt von Jahr zu Jahr, die Annahmequote ist jedoch in den letzten Jahren zurückgegangen 

Als führende Konferenz im Bereich Computer Vision hat die CVPR in den letzten Jahren jedes Jahr neue Rekorde bei der Anzahl gültiger Einreichungen aufgestellt.

Die letztjährige CVPR-Konferenz 2019 veröffentlichte folgende Daten: Die Zahl der gültigen Einreichungen zur Konferenz vor 2005 lag unter 1.000 und die Zahl der angenommenen Beiträge unter 500.

Bis 2017 lag die Zahl der eingereichten gültigen Beiträge jedoch bei über 2.500 und stieg im Jahr 2018 auf 3.500.Im Jahr 2019 lag die Zahl direkt über 5.000.

Der rote Prozentsatz ist die jährliche Annahmequote für Beiträge

Obwohl die Zahl der Einreichungen von Jahr zu Jahr zunimmt, sinkt die Akzeptanzrate der Beiträge durch die Gutachter von Jahr zu Jahr.

Ein Gutachter kommentierte die Veröffentlichung der CVPR-Ergebnisse.

Auf Weibo sagte er einmal, dass die Konkurrenz im Bereich Lebensläufe zu groß sei. Der Anhang eines von ihm geprüften CVPR-Papiers umfasste ganze 20 Seiten, während für die Konferenz nur 8 Seiten Haupttext (ohne Referenzen) erforderlich waren. In einem derart wettbewerbsintensiven Umfeld helfen keine noch so großen Zusatzmaterialien, wenn die Methoden nicht innovativ genug sind.

CVPR 2019 Classic Rückblick

Obwohl die offiziellen IDs der enthaltenen Dokumente bekannt gegeben wurden, wurden die detaillierten Informationen zu den Dokumenten noch nicht veröffentlicht. Anlässlich der Bekanntgabe der Ergebnisse werfen wir einen Blick auf die klassischen Gewinnerarbeiten des CVPR 2019.

 Bestes Papier 

Papieradresse: http://dwz.date/7qa

Zusammenfassung: Die Forscher schlugen eineNeue Theorie des Licht-Fermat-Pfades,Dieses Licht befindet sich zwischen der bekannten sichtbaren Szene und unbekannten Objekten, die sich nicht in der Sichtlinie der vorübergehenden Kamera befinden. Die Wege dieser Lichter werden entweder von Spiegeloberflächen oder von den Grenzen der Objekte reflektiert und kodieren so die Form des verborgenen Objekts.

Die Forscher zeigten, dass der Fermat-Pfad einer Diskontinuität in transienten Messungen entspricht. Dann leiteten sie eineNeue Einschränkung, die die räumliche Ableitung der Pfadlänge an diesen Diskontinuitäten mit der Oberflächennormale in Beziehung setzt.

Basierend auf dieser Theorie schlugen die Forscher eine Der Algorithmus von Fermat Flow wird verwendet, um die Form von Objekten abzuschätzen, die sich nicht in der Sichtlinie befinden.Mit dieser Methode können erstmals die Formen komplexer Objekte, von diffusen bis hin zu spiegelnden Reflexionen, die um Ecken und hinter Diffusoren verborgen sind, präzise ermittelt werden.

Schließlich ist die Methode unabhängig von der spezifischen Technik, die für die vorübergehende Bildgebung verwendet wird. Daher demonstrierten die Forscher die Wiederherstellung der Form im Millimeterbereich aus Transienten im Pikosekundenbereich unter Verwendung von SPADs und ultraschnellen Lasern sowie die Rekonstruktion von Transienten im Femtosekundenbereich bis hin zum Mikrometerbereich unter Verwendung von Interferometrie.

 Beste studentische Arbeit 

Adresse des Artikels: https://arxiv.org/pdf/1811.10092.pdf

Zusammenfassung:Vision-Language Navigation (VLN) ist die Aufgabe, einen konkreten Agenten in einer realistischen 3D-Umgebung so zu navigieren, dass er Anweisungen in natürlicher Sprache befolgt.

In diesem Artikel untersuchen Forscher, wie drei zentrale Herausforderungen dieser Aufgabe bewältigt werden können:Cross-modale Erdung, schlecht gestelltes Feedback und das Generalisierungsproblem.

Zunächst schlugen sie eine neuartige Methode des verstärkten Cross-Modal-Matching (RCM) vor, die die Cross-Modal-Grounding lokal und global durch bestärkendes Lernen (RL) erzwingt. Insbesondere wird ein Matching-Kritiker verwendet, um intrinsische Belohnungen bereitzustellen, die eine globale Übereinstimmung zwischen Anweisungen und Trajektorien fördern, und ein Reasoning-Navigator wird verwendet, um eine modalübergreifende Erdung in lokalen visuellen Szenen durchzuführen.

Die Auswertung des VLN-Benchmark-Datensatzes zeigt, dass ihr RCM-Modell vorherige Methoden beim Schalldruckpegel um 10 % übertrifft und eine hochmoderne Leistung erreicht.

Um die Generalisierbarkeit der erlernten Strategien zu verbessern,Wir führen außerdem eine Methode des selbstüberwachten Imitationslernens (SIL) ein, um unbekannte Umgebungen zu erkunden, indem wir unsere eigenen richtigen Entscheidungen aus der Vergangenheit nachahmen.

Wir zeigen letztendlich, dass SIL eine bessere und effizientere Richtlinie erreichen kann, indem es die Leistungslücke in der Erfolgsrate zwischen sichtbaren und unsichtbaren Umgebungen minimiert (von 30,7 % auf 11,7 %).

 Longuet-Higgins-Preis 

Darüber hinaus ist es erwähnenswert, dass im CVPR 2019 das Papier, das höher ist als das beste Papier Der Longuet-Higgins-Preis wurde Deng Jia, Li Feifei, Li Jia und anderen für ihre ImageNet-Arbeit „ImageNet: A Large-Scale Hierarchical Image Database“ verliehen.

Dieses PapierVeröffentlicht in CVPR 2009 und bisher 11.508 Mal zitiert.

Im zweiten Jahr nach der Veröffentlichung dieses Artikels startete die ImageNet Challenge, ein großes Event im Bereich Computer Vision. ImageNet hat sich seitdem zu einem Maßstab im Bereich der Computer-Vision-Erkennung entwickelt und große Durchbrüche auf diesem Gebiet ermöglicht.

-- über--