전체 웹 사이트를 다운로드 할 수있는 무료 Mac OS X 응용 프로그램


답변:


21

나는 항상이 이름을 좋아했습니다 : SiteSucker .

업데이트 : 버전 2.5 이상은 더 이상 무료가 아닙니다. 웹 사이트에서 이전 버전을 계속 다운로드 할 수 있습니다.


나도 이것을 좋아한다. 사용하기 쉬운 인터페이스도 있습니다.
Troggy 2009

같게! 이 일은 작동하고 멋진 GUI를 가지고 있으며 구성하기 쉽습니다 ....
Brad Parks

1
무료가 아닙니다. 앱 스토어에서 5 달러를 요구하고 있습니다.
JohnK

2
@JohnK는 2.5.x 이상의 정책이 변경된 것으로 보이지만 이전 버전은 sitesucker.us/mac/versions2.html 에서 무료로 제공 됩니다.
Grzegorz Adam Hankiewicz

1
@GrzegorzAdamHankiewicz 맞아, 당신은 여기에서 자신의 사이트에서 2.4.6을 무료로 다운로드 할 수 있습니다 -ricks-apps.com/osx/sitesucker/archive/2.x/2.4.x/2.4.6/…
csilk

43

스위치 와 함께 wget 을 사용할 수 있습니다 --mirror.

wget-미러 –w 2 –p --HTML 확장 –- 변환 링크 –P / home / user / sitecopy /

추가 스위치는 맨 페이지를 참조 하십시오 .

OSX의 경우을 wget사용하여 쉽게 (및 기타 명령 줄 도구)를 설치할 수 있습니다 brew.

명령 행을 사용하는 것이 너무 어려운 경우 CocoaWget은의 OS X GUI입니다 wget. (버전 2.7.0에는 2008 년 6 월의 wget 1.11.4가 포함되어 있지만 제대로 작동합니다.)


내가 사용 wget을 원하지 않는 소프트웨어 사람이 필요
Am1rr3zA

33
wget은 소프트웨어이며 가장 유연합니다.
John T

7
wget은 훌륭한 소프트웨어이며, 다운로드 할 수있는 원 스톱 상점입니다.
Phoshi 2018

확인 후 Tanx 귀하의 답변
Am1rr3zA

1
Wget은 훌륭합니다. wget --page-requisites --adjust-extension --convert-links단일하지만 완전한 페이지 (문서 등)를 다운로드 할 때 사용 합니다.
ggustafsson

3

SiteSuuker는 이미 권장되었으며 대부분의 웹 사이트에서 적절한 작업을 수행합니다.

또한 DeepVacuum 은 유용한 "사전 설정"이 포함 된 편리하고 간단한 도구입니다.

아래 스크린 샷이 첨부되어 있습니다.

-

"사전 설정"을 포함한 간단한 인터페이스


1
멋진 도구, 내가 필요한 것!
Hello World

정말 간단하고 잘 작동합니다!
madx


1

http://epicware.com/webgrabber.html

나는 이것을 표범에 사용합니다. 눈표범에서 작동하는지 확실하지 않지만 시도해 볼 가치가 있습니다.


1

pavuk 는 지금까지 가장 좋은 옵션입니다 ... 명령 행이지만 설치 디스크에서 설치하거나 다운로드하면 X-Windows GUI가 있습니다. 아마도 누군가가 그것을 위해 아쿠아 쉘을 작성할 수 있습니다.

pavuk은 -mode sync 또는 -mode mirror 옵션을 사용하는 경우 참조되는 외부 javascript 파일의 링크를 찾아 로컬 배포를 가리 킵니다.

os x ports 프로젝트, 설치 포트 및 유형을 통해 사용 가능

port install pavuk

많은 옵션 (옵션의 숲).


0

Mac 용 A1 웹 사이트 다운로드

여기에는 다양한 일반적인 사이트 다운로드 작업에 대한 사전 설정과 세부적으로 구성하려는 사용자를위한 많은 옵션이 있습니다. UI + CLI 지원을 포함합니다.

30 일 평가판으로 시작하여 "무료 모드"로 바뀝니다 (여전히 500 페이지 미만의 소규모 웹 사이트에 적합).


-2

curl을 사용하십시오 .OS X에 기본적으로 설치되어 있습니다. wget은 적어도 내 컴퓨터에는 없습니다 (Leopard).

타자:

curl http://www.thewebsite.com/ > dump.html

현재 폴더의 dump.html 파일로 다운로드됩니다


주요 문제 는 전체 웹 사이트가 아닌 홈페이지를 다운로드한다는 것입니다 .
Phoshi

글쎄, 맨 페이지를보십시오
Fred

2
마지막으로 curl재귀 다운로드를하지 않습니다. 즉, 하이퍼 링크를 따라 다른 웹 페이지와 같은 링크 된 리소스를 다운로드 할 수 없습니다. 따라서 전체 웹 사이트를 실제로 미러링 할 수는 없습니다.
Lawrence Velázquez

그럼, 빠른 스크립트를 작성하여 링크를 얻으십시오, 우리는 명령 행에 있습니까? 그렇지 않으면 그래픽 프론트 엔드 도구를 사용하십시오.
Fred

2
(그리고 그 이름 cURL입니다 ... John T의 편집이 실제로 당신의 답을 향상시키고 있다고 생각합니다.)
Arjan
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.