본문 바로가기

논문 리뷰30

[ICCV 2023] Tracking Everything Everywhere All at Once 논문 요약 기존의 optical flow이나 particle video tracking 알고리즘은 제한된 temporal windows 내에서만 작동하여 occlusions를 추적하고 움직임 궤적(motion trajectories)의 전체적인 일관성을 유지하는 데 어려움이 있다. 제안하는 OmniMotion은 비디오를 quasi-3D canonical volume으로 나타내고, 로컬과 글로벌 공간 간의 일대일 대응(bijections)을 사용하여 모든 픽셀의 움직임을 추적합니다. 이를 통해 전체 비디오에 걸쳐 정확한 움직임 추정이 가능해지며, occlusions를 추적하며 카메라 및 객체의 모든 움직임 조합을 모델링할 수 있다. TAP-Vid 벤치마크와 real world 영상에 대한 평가 결과, Om.. 2024. 3. 8.
[SIGGRAPH 2023] 3D Gaussian Splatting for Real-Time Radiance Field Rendering 논문 요약 Neural Field 기법은 다양한 이미지와 비디오에서의 뷰 합성(view synthesis)에 혁신적인 발전을 가져왔다. 그러나 고품질의 결과를 얻기 위해선 상당한 훈련 및 렌더링 비용이 드는 신경망이 필요했다. 최근에는 1080p 해상도의 렌더링을 처리할 수 있게 되었지만, 여전히 실시간 디스플레이 속도를 달성하기는 어려운 상황이었다. 본 논문은 경쟁력 있는 훈련 시간을 통해 1080p 해상도에서 실시간(≥ 30 fps)으로 뷰 합성을 할 수 있게 하는 방법을 제안한다. 1) 3D 가우시안으로 장면 표현: 카메라로 찍은 몇 개의 점을 이용해, 장면을 3D 가우시안(3차원 형태의 분포)으로 나타내어, 실제 장면처럼 보이게 한다. 2) 가우시안 최적화: 이 3D 가우시안들을 조정하여, 장면을.. 2024. 3. 7.
[CVPR 2023] AnyFlow: Arbitrary Scale Optical Flow with Implicit Neural Representation 논문 요약 Optical flow를 활용할 때 보통 컴퓨팅 비용을 줄이기 위해 입력 이미지의 크기를 작게 만든다. 하지만 이는 객체와 모션을 작게 만들어 작은 객체에 대한 정확도가 떨어지고 경계가 불분명해진다. 이를 해결하기 위해, 본 논문은 임의의 스케일의 이미지에서 정확한 flow를 예측할 수 있게 하는 AnyFlow를 제안한다. 1. Paper Bibliography 논문 제목 AnyFlow: Arbitrary Scale Optical Flow with Implicit Neural Representation. 저자 Jung, Hyunyoung, et al. 출판 정보 / 학술대회 발표 정보 Proceedings of the IEEE/CVF Conference on Computer Vision and.. 2023. 6. 28.
[ICLR 2023] DFlow: Learning to Synthesize Better Optical Flow Datasets via a Differentiable Pipeline. 논문 요약 Learning-based optical flow estimation의 정확성 향상을 이끄는 속성을 밝히기 위해 많은 synthetic optical flow dataset이 연구되었다. 그러나 이러한 속성을 수동으로 식별하고 검증하는 것은 비효율적이며 많은 실험과 생성 시간이 필요하다. 본 논문에서는 DFlow라는 미분 가능한 optical flow data 생성 파이프라인과 이를 위한 손실 함수를 제안하며 이를 통해 효율적으로 목표 도메인에 맞는 데이터셋을 합성한다. 1. Paper Bibliography 논문 제목 DFlow: Learning to Synthesize Better Optical Flow Datasets via a Differentiable Pipeline. 저자 Byung.. 2023. 6. 26.
[2019_CVPR_SelFlow] SelFlow: Self-Supervised Learning of Optical Flow 논문 요약 본 논문은 optical flow estimation을 위한 self-supervised 학습 방법을 소개한다. 저자들은 먼저 non-occluded pixels에 대해 학습하여 믿을 수 있는 flow를 만든다. 이를 가이드로 사용하여 occlusions이 있는 상황에서도 flow를 잘 예측할 수 있도록 학습한다. 이와 더불어 여러 프레임의 시간적 정보를 활용해 더 정확한 flow를 예측할 수 있는 CNN을 디자인하였다. 1. Paper Bibliography 논문 제목 - SelFlow: Self-Supervised Learning of Optical Flow 저자 - Liu, Pengpeng, et al. 출판 정보 / 학술대회 발표 정보 - CVPR 2019 2. Problems & .. 2023. 6. 2.
[2012_ECCV_Sintel_Dataset] A Naturalistic Open Source Movie for Optical Flow Evaluation 논문 요약 본 논문은 오픈소스 3D 애니메이션 단편영화인 'Sintel'을 통해 제작한 optical flow dataset을 소개한다. 이 데이터는 긴 시퀀스로 이루어져 있으며 큰 움직임, 반사, 모션 블러, 초점 블러, 대기 효과 등을 포함했다는 특징을 지닌다. 저자는 이 합성 데이터를 평가하기 위해 이미지와 flow 통계를 실제 세계 데이터와 비교하여 이들이 유사함을 보여준다. 1. Paper Bibliography 논문 제목 - A naturalistic open source movie for optical flow evaluation. 저자 - Butler, Daniel J., et al.et al. 출판 정보 / 학술대회 발표 정보 - ECCV 2012 2. Problems & Motivat.. 2023. 5. 25.