웹 사이트가 있는데 해당 웹 사이트 내의 모든 페이지 / 링크를 다운로드하고 싶습니다. wget -r
이 URL에서 하고 싶습니다 . 이 특정 디렉토리의 "외부"링크는 없으므로 전체 인터넷을 다운로드하는 것에 대해 걱정하지 않습니다.
결과적으로 원하는 페이지는 웹 사이트의 암호로 보호 된 섹션 뒤에 있습니다. wget을 사용하여 쿠키 협상을 수동으로 수행 할 수는 있지만 브라우저에서 "로그인"하고 firefox 플러그인을 사용하여 모든 것을 재귀 적으로 다운로드하는 것이 훨씬 쉽습니다.
내가 할 수있는 확장 기능이나 무언가가 있습니까? 많은 확장 프로그램이 페이지에서 미디어 / 사진을 얻는 데 중점을 두지 만 (heh. heh.) HTML 및 모든 내용에 관심이 있습니다.
제안?
감사!
편집하다
DownThemAll은 멋진 제안처럼 보입니다. 재귀 다운로드를 할 수 있습니까 ? 에서와 같이 페이지의 모든 링크를 다운로드 한 다음 각 페이지에 포함 된 모든 링크를 다운로드합니까? 기본적으로 링크를 따라 전체 디렉토리 트리를 미러링합니까? -r
옵션이 마음 에 드 wget
십니까?