S3 버킷과 큰 파일의 URL이 있습니다. URL에있는 내용을 S3 버킷에 저장하고 싶습니다.
파일을 로컬 컴퓨터에 다운로드 한 다음 Cloudberry 또는 Jungledisk 등으로 S3에 업로드 할 수 있습니다. 그러나 파일이 크면 파일을 두 번 전송해야하고 네트워크 연결이 Amazon보다 훨씬 느리기 때문에 시간이 오래 걸릴 수 있습니다.
S3에 저장할 데이터가 많으면 EC2 인스턴스를 시작하고 curl 또는 wget을 사용하여 파일을 인스턴스로 검색 한 다음 EC2 인스턴스에서 S3으로 데이터를 푸시 할 수 있습니다. 이것은 효과가 있지만 하나의 파일을 보관하려면 많은 단계가 필요합니다.
어떤 제안?