본문 바로가기

논문 리뷰33

[CVPR 2024] Mip-Splatting: Alias-free 3D Gaussian Splatting Paper InfoCVPR 2024 (Best Student Paper)Zehao Yu, Anpei Chen, Binbin Huang, Torsten Sattler, Andreas Geiger University of Tubingen | Tubingen AI Center | ShanghaiTech University | Czech Technical University in Prague Introduction  Novel View Synthesis는 VR,  로보틱스 등에서 중요한 과제이며, 최근 3D Gaussian Splatting(3DGS)이 실시간 고해상도 합성을 제공하는 유망한 방법으로 주목받고 있다. 3DGS는 3D 장면을 확장된 3D Gaussian들의 집합으로 표현하고, 이를 스크린 공간에 .. 2025. 1. 23.
[ECCV 2024] MVSGaussian: Fast Generalizable Gaussian Splatting Reconstruction from Multi-View Stereo Paper InfoECCV 2024Tianqi Liu, Guangcong Wang, Shoukang Hu, Liao Shen, Xinyi Ye, Yuhang Zang, Zhiguo Cao, Wei Li, Ziwei LiuJiahui Zhang, Fangneng Zhan, Muyu Xu, Shijian Lu, Eric XingHuazhong University of Science and Technology | S-Lab, Nanyang Technological University | Great Bay University | Shanghai AI Laboratory Introduction Novel View Synthesis(NVS)은 여러 시점에서 촬영된 소스 이미지를 바탕으로 새로운 시점의 이미지를 합성.. 2025. 1. 22.
[CVPR 2024] FreGS: 3D Gaussian Splatting with Progressive Frequency Regularization Paper InfoCVPR 2024Jiahui Zhang, Fangneng Zhan, Muyu Xu, Shijian Lu, Eric XingNanyang Technological University | Max Planck Institute for Informatics | Carnegie Mellon University | MBZUAI Introduction  Novel View Synthesis(NVS)는 한 장면(scene)을 여러 시점에서 촬영한 이미지를 바탕으로 장면을 정밀하게 모델링하여, 임의의 뷰포인트에서 이미지를 생성하는 것을 목표로 한다. 최근에는 NeRF를 기반으로 발전을 이루어 왔으나 긴 학습 및 렌더링 시간이 소요된다는 문제가 있다. NeRF의 유력한 대안으로 주목받는 3D Gaussi.. 2025. 1. 20.
[ICCV 2023] Tracking Everything Everywhere All at Once 논문 요약 기존의 optical flow이나 particle video tracking 알고리즘은 제한된 temporal windows 내에서만 작동하여 occlusions를 추적하고 움직임 궤적(motion trajectories)의 전체적인 일관성을 유지하는 데 어려움이 있다. 제안하는 OmniMotion은 비디오를 quasi-3D canonical volume으로 나타내고, 로컬과 글로벌 공간 간의 일대일 대응(bijections)을 사용하여 모든 픽셀의 움직임을 추적합니다. 이를 통해 전체 비디오에 걸쳐 정확한 움직임 추정이 가능해지며, occlusions를 추적하며 카메라 및 객체의 모든 움직임 조합을 모델링할 수 있다. TAP-Vid 벤치마크와 real world 영상에 대한 평가 결과, Om.. 2024. 3. 8.
[SIGGRAPH 2023] 3D Gaussian Splatting for Real-Time Radiance Field Rendering 논문 요약Neural Field 기법은 다양한 이미지와 비디오에서의 뷰 합성(view synthesis)에 혁신적인 발전을 가져왔다. 그러나 고품질의 결과를 얻기 위해선 상당한 훈련 및 렌더링 비용이 드는 신경망이 필요했다. 최근에는 1080p 해상도의 렌더링을 처리할 수 있게 되었지만, 여전히 실시간 디스플레이 속도를 달성하기는 어려운 상황이었다. 본 논문은 경쟁력 있는 훈련 시간을 통해 1080p 해상도에서 실시간(≥ 30 fps)으로 뷰 합성을 할 수 있게 하는 방법을 제안한다.  1) 3D 가우시안으로 장면 표현: 카메라로 찍은 몇 개의 점을 이용해, 장면을 3D 가우시안(3차원 형태의 분포)으로 나타내어, 실제 장면처럼 보이게 한다.2) 가우시안 최적화: 이 3D 가우시안들을 조정하여, 장면을 .. 2024. 3. 7.
[CVPR 2023] AnyFlow: Arbitrary Scale Optical Flow with Implicit Neural Representation 논문 요약 Optical flow를 활용할 때 보통 컴퓨팅 비용을 줄이기 위해 입력 이미지의 크기를 작게 만든다. 하지만 이는 객체와 모션을 작게 만들어 작은 객체에 대한 정확도가 떨어지고 경계가 불분명해진다. 이를 해결하기 위해, 본 논문은 임의의 스케일의 이미지에서 정확한 flow를 예측할 수 있게 하는 AnyFlow를 제안한다. 1. Paper Bibliography 논문 제목 AnyFlow: Arbitrary Scale Optical Flow with Implicit Neural Representation. 저자 Jung, Hyunyoung, et al. 출판 정보 / 학술대회 발표 정보 Proceedings of the IEEE/CVF Conference on Computer Vision and.. 2023. 6. 28.