wget을 사용하여 404를 확인하고 실제로 리소스를 다운로드 할 수 없습니까? 그렇다면 어떻게? 감사
답변:
--spider
이를위한 명령 줄 매개 변수가 있습니다 . 이 모드에서 wget은 파일을 다운로드하지 않으며 리소스가 발견되면 반환 값은 0이고 찾을 수 없으면 0이 아닙니다. 이것을 시도하십시오 (좋아하는 쉘에서) :
wget -q --spider address
echo $?
또는 전체 출력을 원하면 -q
끄고 wget --spider address
. -nv
일부 출력을 표시하지만 기본값 만큼은 표시하지 않습니다.
wget --spider
GET이 아닌 HEAD 요청 을 보냅니다.
wget --spider
HEAD를 수행하고 성공하면 동일한 URL에 대한 GET을 따릅니다. 따라서 재귀 옵션을 사용하면 서버 측 웹 사이트의 캐시를 구축하는 데 유용합니다.
$를 통해 조용히 확인하고 싶다면? grep'ing wget 출력의 번거 로움없이 다음을 사용할 수 있습니다.
wget -q "http://blah.meh.com/my/path" -O /dev/null
경로 만있는 URL에서도 작동하지만 실제로 다운로드된다는 단점이 있으므로 큰 파일의 존재 여부를 확인할 때 권장하지 않습니다.
--spider
ARG는 않습니다 리턴 코드를 설정합니다. 하지만 아마도 그것은 4 년 3 개월 7 일 후에 거미가 더 똑똑해 졌기 때문일 것입니다.
루트 만 시스템에 쓰기 권한이있는 디렉토리에있는 경우. 그런 다음 wget www.example.com/wget-test
표준 사용자 계정을 사용 하여 직접 사용할 수 있습니다 . 그래서 그것은 URL을 칠 것이지만 쓰기 권한 파일이 없기 때문에 저장되지 않습니다 ..이 방법은 cronjob 에이 방법을 사용하고 있기 때문에 저에게 잘 작동합니다. 감사.
sthx
--spider
이는 영업 이익은 요청 정확히 수행