안녕하세요.
딥러닝 하시는 분들,.. 우분투 많이 사용하시죠?
우분투에서 데이터를 다운 받을 때 한번에 여러개를 받아야 하는 일이 생기기도 합니다. 데이터의 양이 워낙 크기 때문에 나눠서 저장되어 있는 경우가 있으니까요.
보통 wget [데이터 주소] 이런 식으로 많이 받는 데 이것을 한번에 할 수 있는 방법입니다
REDS 데이터셋
REDS 데이터셋은 REalistic and Dynamic Scenes dataset으로 video deblurring이나 super-resolution에서 사용하는 데이터입니다
이것을 받는 방법은 여러가지가 있지만 wget으로 받는 것을 예시로 보겠습니다
이런 식으로 데이터가 있는데
단 하나!만 받는다 하면
wget http://data.cv.snu.ac.kr:8008/webdav/dataset/REDS/orig/train_orig_part0.zip
이것을 치면 됩니다. (저자의 깃허브에 나와있다 )
하지만 part가 0~15까지 있는데 이것을 하나하나 치려면 매우 귀찮아집니다.
이것을 한번에 하기 위해서는! sh 파일을 작성해 실행시면 됩니다
sh 파일이 무엇이고.. 이런 설명은 저도 잘 모르기 때문에 생략하고 이용법만 봅시다
1. sh 파일 작성
우선 sh 파일을 만들어야 합니다.
vim filename.sh 를 입력해서 만듭시다. (파일 이름은 자유롭게~)
가장 위에 #! /bin/bash 이것을 쳐주고 아래에 실행시킬 명령어들(우리의 경우 wget [파일명])을 써줍니다
주의) mobaxterm에서 create new file로 만들면 실행시킬 때 에러가 납니다
이상한 %0D가 붙은 것 보이죠?
2. sh 파일 실행
sh 파일을 만들어 저장한 다음 할 것은 실행입니다
실행 명령어는 sh filename.sh 입니다
아래 사진을 보면 명령어를 입력하면 데이터가 다운로드 되기 시작하고 한 개의 데이터가 다운로드 된후 그 다음 것이 자동으로 다운로드 되는 것을 볼 수 있습니다
(중간.. 에러는 무시합시다)
'기타 정보' 카테고리의 다른 글
Optical Flow (0) | 2022.04.01 |
---|---|
논문 scheme 뜻 (0) | 2022.03.06 |
Video Super Resolution Based on Deep Learning (0) | 2022.02.28 |
BasicSR Project 사용하기 (0) | 2022.02.12 |
[OpenCV] OpenCV로 image resize를 하면 channel이 사라진다? (0) | 2022.02.10 |
댓글