신사-도움을 주신 모든 분들께 감사드립니다. 부분적으로 귀하의 모든 제안은 최종 결과를 얻는 데 도움이되었습니다. 답장에 대한 모든 크레딧을 주었지만 다른 사람들에게 도움이되기를 바랍니다. 나는 그것이 일반적으로 수행되는 것이 아니라는 것을 알고 있지만,이 경우 솔루션을 형성 할 수있는 많은 영역이 있으므로 아래의 하나에 모두 묶었습니다.
AWS S3를 사용하는 데 필요한 서비스를 설치하십시오.
# > sudo apt-get install python-pip
# > sudo pip install awscli
자신의 Amazon 계정으로 https://aws.amazon.com/s3/ 로 AWS S3 서비스에 가입 하십시오.
'액세스 키-> 새 액세스 키 만들기'를 통해 사용자 계정의 새 액세스 키를 정의하고 약속 된 경우 CSV 파일을 다운로드하십시오. 이 작업을 수행하지 않으면 명령 줄 S3 기능을 사용할 수 없습니다 : https://console.aws.amazon.com/iam/home?#security_credential
ROOTKEY.CSV 파일을 열고 'aws configure'를 시작할 때 프롬프트가 표시되면 포함 된 AccessKeyID 값과 SecretKey 값을 복사하여 붙여 넣으십시오. Linux에서 AWS를 사용하기 전에 명령 행에서 실행합니다.
> aws configure
Enter your access key and secret key when asked. You can leave the third and fourth empty or as 'None'.
sample.txt 파일을 사용하여 파일을 연결하고 업로드 할 수 있는지 테스트하십시오.
> aws s3 mv ~/SourceFolder/sample.txt s3://NameOfYourAWSS3Bucket
/ AFolderYouHaveCreated
빌드 지침에 따라 mjpg_streamer를 다운로드하여 설치하십시오. https://github.com/jacksonliam/mjpg-streamer#building--installation
완료되면 해당 폴더로 이동 하십시오.
> cd mjpg_streamer
mjpg 스 트리머를 시작하십시오.
> mjpg_streamer -i "./input_uvc.so -f 15 -r 1280x960" -o "./output_http.so -w ./www"
웹 브라우저에서 다음 링크를 방문하여 실행 중인지 확인하십시오.
http://127.0.0.1:8080/stream.html
다음과 같이 단일 날짜 및 시간 스탬프 파일을 가져 와서 실행중인 로컬 디렉토리에 저장하십시오.
> wget http://127.0.0.1:8080/?action=snapshot -O output-$(date +"%Y-%m-%d-%k-%M-%S").jpg
이렇게하면 2016 년 9 월 1 일 22:35에 실행되는 경우 mjpeg_streamer 폴더의 'www'하위 폴더에 'output-16-09-01-22-35-30.jpg'라는 파일이 생성됩니다.
새 bash 스크립트 (예 : MyScript.sh)를 작성하고 실행 권한을 부여하고 맨 아래에 컨텐츠를 복사하십시오. 실행하면 현재 날짜가 지정된 종료 날짜가 될 때까지 5 초마다 타임 스탬프 된 JPEG가 생성됩니다. 이 경우 날짜 A에서 시작하여 날짜 B에서 끝납니다. 자신의 날짜를 대체하십시오.
관련 경로를 대체하여 스크립트에 복사하십시오.
#!/bin/bash
SOURCE="/home/YourUser/YourSourceFolder"
DESTINATION="s3://YourS3Bucket/DestinationFolder"
input_start=2016-8-29
input_end=2016-9-9
startdate=$(date -I -d "$input_start") || exit -1
enddate=$(date -I -d "$input_end") || exit -1
d="$startdate"
while [ "$d" != "$enddate" ]; do
sleep 5
wget "http://127.0.0.1:8080/?action=snapshot" -O output-$(date +"%Y-%m-%d-%k-%M-%S")'.jpg';
aws s3 mv $SOURCE $DESTINATION --recursive;
done
개선을위한 제안을 환영합니다.
또한 AWS S3에서 스토리지의 진행 상황을 확인할 수 있습니다.
aws s3 ls s3://yourbucketname --recursive --human-readable --summarize
나는 매 10 초마다 2 시간 동안 발사하여 74Mb의 업로드를 생성했습니다. 따라서 비용이 발생하는 서비스의 가격 계층보다 적은 주당 6.5Gb로 작동합니다. 8Gb라고 생각합니다.
다시 감사합니다.