CVPR 20 결과가 발표되었습니다! 1,470편의 논문이 수락되었고, 화웨이 팀은 11편 중 7편을 받았습니다.

오늘, 세계 최대 규모의 컴퓨터 비전 컨퍼런스인 CVPR이 결과를 공개했는데, 목록에는 총 1,470편의 논문이 올랐습니다. 몇몇 뛰어난 선수들이 이미 자신의 경기 내용을 게시하기 시작했으니, 살펴보도록 하겠습니다.
최고의 컴퓨터 비전 컨퍼런스인 CVPR의 결과가 나왔습니다! 오늘 오후, CVPR은 수락된 논문의 ID를 발표했습니다.총 1470편의 논문이 포함되었습니다.
올해 유효한 제출 건수는 6656건이므로합격률은 22%입니다.——2019년 25%, 2018년 29%보다 낮습니다.
접수된 논문 ID 목록 주소:
http://cvpr2020.thecvf.com/sites/default/files/2020-02/accepted_list.txt
CVPR 2020에는 총 3,664명의 심사위원과 198명의 현장 심사 의장이 참여하여 논문의 질을 관리하고 논문을 심사한다고 합니다. 제출되는 작품의 수는 해마다 늘어나지만, 품질 관리는 여전히 엄격합니다.
선생님들은 성적표를 보여주고 싶어합니다.
결과가 발표되자 국내외 학자들 사이에서 광범위한 논의가 촉발되었습니다.
지후에서는 한 작가가 7개의 논문을 선정하여 성적표를 올렸는데, 기쁨이 화면을 가득 채웠다.

트위터의 전문가들도 기꺼이 자신의 결과를 보여주고 있습니다.

주변을 둘러보면, 매년 최고의 컨퍼런스가 결과를 발표할 때면 항상 기뻐하는 사람도 있고 슬퍼하는 사람도 있습니다. 모두가 긍정적인 태도로 이를 극복할 수 있기를 바랍니다.
제출 건수는 매년 증가하고 있지만 최근 몇 년 동안 수락률은 감소하고 있습니다.
컴퓨터 비전 분야의 최고 학회인 CVPR은 최근 몇 년 동안 매년 유효한 제출물 수에서 새로운 기록을 세웠습니다.
작년 CVPR 2019 컨퍼런스에서 다음과 같은 데이터가 공개되었습니다. 2005년 이전에 컨퍼런스에 제출된 유효한 논문 수는 1,000편 미만이었고, 승인된 논문 수는 500편 미만이었습니다.
그러나 2017년에는 유효한 논문 제출 건수가 2,500건을 넘어섰고, 2018년에는 3,500건으로 증가했습니다.2019년에는 그 수가 5,000명을 넘어섰습니다.

제출된 논문의 수는 해마다 증가하고 있지만, 심사위원이 논문을 수락하는 비율은 해마다 감소하고 있습니다.
한 심사자는 CVPR 결과 발표에 대해 의견을 밝혔습니다.

그는 웨이보에서 이력서 작성 분야의 경쟁이 너무 치열하다고 말한 적이 있다. 그가 검토한 CVPR 논문의 첨부 파일은 무려 20페이지에 달했지만, 학회에서 요구한 본문은 참고문헌을 제외하고 8페이지에 불과했습니다. 이처럼 경쟁이 치열한 환경에서는 아무리 많은 보충 자료가 있어도 방법이 혁신적이지 않다면 아무런 도움이 되지 않습니다.
CVPR 2019 클래식 리뷰
포함된 논문의 공식 ID는 발표되었지만, 논문의 자세한 정보는 아직 공개되지 않았습니다. 결과 발표를 맞아 CVPR 2019의 고전적인 수상 작품을 다시 한번 살펴보겠습니다.
최우수 논문

요약: 연구자들은 제안했다빛의 새로운 이론 페르마 경로,이 빛은 알려진 가시적 장면과 순간적 카메라의 시야에 들어오지 않는 알려지지 않은 물체 사이에 있습니다. 이러한 빛의 경로는 거울 표면이나 물체의 경계에서 반사되어 숨겨진 물체의 모양을 인코딩합니다.
연구자들은 페르마 경로가 과도 측정의 불연속성에 해당한다는 것을 보여주었습니다. 그런 다음 그들은 다음을 유도했습니다.이러한 불연속점에서 경로 길이의 공간적 미분을 표면 법선과 연관시키는 새로운 제약 조건입니다.
이 이론을 바탕으로 연구자들은 페르마 흐름 알고리즘은 시야에 없는 물체의 모양을 추정하는 데 사용됩니다.이 방법은 모서리와 확산기 뒤에 숨겨진 확산 반사에서 반사 반사에 이르기까지 복잡한 물체의 모양을 처음으로 정확하게 복구합니다.
마지막으로, 이 방법은 일시적 영상에 사용되는 특정 기술과는 무관합니다. 따라서 연구진은 SPAD와 초고속 레이저를 사용하여 피코초 규모의 과도 현상에서 밀리미터 규모의 형상을 복구하고, 간섭계를 사용하여 펨토초 규모의 과도 현상에서 마이크로미터 규모로 재구성하는 것을 보여주었습니다.
최우수 학생 논문

요약:시각-언어 탐색(VLN)은 자연어 지시를 따르기 위해 현실적인 3D 환경에서 구체적인 에이전트를 탐색하는 작업입니다.
이 논문에서 연구자들은 이 작업의 세 가지 핵심 과제를 해결하는 방법을 연구합니다.교차 모달 접지, 잘못된 피드백, 일반화 문제.
첫째, 그들은 강화 학습(RL)을 통해 지역적, 전역적으로 교차 모달 접지를 강화하는 새로운 강화된 교차 모달 매칭(RCM) 방법을 제안했습니다. 특히, 매칭 비평가는 명령어와 궤적 간의 전역적 매칭을 장려하기 위해 내재적 보상을 제공하는 데 사용되고, 추론 내비게이터는 로컬 시각적 장면에서 교차 모달 접지를 수행하는 데 사용됩니다.
VLN 벤치마크 데이터세트에 대한 평가 결과, RCM 모델이 SPL에서 기존 방식보다 10% 더 우수한 성능을 보이며 최첨단 성능을 달성한 것으로 나타났습니다.
그들은 학습한 정책의 일반화 가능성을 향상시키기 위해또한, 우리는 이전에 우리가 내린 올바른 결정을 모방하여 보이지 않는 환경을 탐색하는 자기 지도 모방 학습(SIL) 방법을 소개합니다.
궁극적으로 우리는 SIL이 더 나은, 더 효율적인 정책에 근접할 수 있고, 보이는 환경과 보이지 않는 환경 사이의 성공률 격차(30.7%에서 11.7%)를 최소화할 수 있음을 보여줍니다.
롱게-히긴스 상
또한 CVPR 2019에서는 Best Paper보다 높은 논문이 발표된다는 점도 언급할 가치가 있습니다. Longuet-Higgins 상은 ImageNet 작업 "ImageNet: 대규모 계층적 이미지 데이터베이스"로 Deng Jia, Li Feifei, Li Jia 등에게 수여되었습니다.

이 논문2009년 CVPR에 출판되었으며, 지금까지 11,508회 인용되었습니다.
이 논문이 발표된 지 2년 만에 컴퓨터 비전 분야의 대규모 행사인 ImageNet 챌린지가 시작되었습니다. ImageNet은 그 이후로 컴퓨터 비전 인식 분야의 벤치마크가 되었으며 이 분야에서 큰 혁신을 이루었습니다.
-- 위에--