사이트를 로컬로 미러링하지 않고도 주어진 도메인에서 유효한 모든 URL을 확인하려고합니다.
사람들은 일반적으로 모든 페이지를 다운로드하기를 원하지만 www.example.com/page1, www.example과 같은 특정 도메인 (예 : www.example.com)에서 직접 URL 목록을 가져 오려고합니다. com / page2 등
이것을 위해 wget을 사용하는 방법이 있습니까? 아니면 더 좋은 도구가 있습니까?
2
각 페이지의 링크를 결정하기 위해, 당신은 (즉 그것을 다운로드) 페이지를 참조해야합니다
—
브라이언 애드킨스
@BrianAdkins : 다운로드해도 괜찮지 만 페이지 내용이 아닌 URL 만 유지하고
—
싶습니다
거기의
—
LawrenceC
--spider
페이지를 다운로드하는 옵션은, 그러나 그것을 저장하지 않습니다.