나는 다음 명령을 시도했다 :
$ wget -q --tries=10 --timeout=20 --spider http://google.com
( 이 SO 게시물에서 . bash에서 인터넷 연결을 확인하고 싶습니다.)
다음과 같은 결과가 나옵니다.
Spider mode enabled. Check if remote file exists.
--2015-09-28 09:55:50-- http://google.com/
Connecting to 127.0.0.1:3128... connected.
Proxy request sent, awaiting response... 302 Found
Location: http://www.google.de/?gfe_rd=cr&ei=k_IIVreaN-yH8Qfe1Yu4CA [following]
Spider mode enabled. Check if remote file exists.
--2015-09-28 09:55:50-- http://www.google.de/?gfe_rd=cr&ei=k_IIVreaN-yH8Qfe1Yu4CA
Connecting to 127.0.0.1:3128... connected.
Proxy request sent, awaiting response... 200 OK
Length: unspecified [text/html]
Remote file exists and could contain further links,
but recursion is disabled -- not retrieving.
괜찮아 보이지만으로 cmd를 실행하면 다음과 sudo
같은 메시지가 나타납니다.
Spider mode enabled. Check if remote file exists.
--2015-09-28 09:55:27-- http://google.com/
Resolving google.com (google.com)... failed: Name or service not known.
wget: unable to resolve host address ‘google.com’
스크립트 에이 줄이 필요합니다.이 스크립트는 sudo
항상 호출 하므로 실패합니다.
누군가 나에게 이유를 말해 줄 수 있습니까? 그 문제를 어떻게 해결할 수 있습니까?
죄송합니다, 실제로 AskUbuntu 에서 질문을 만들고 싶었 습니다 . 여기에 주제가 있는지 잘 모르겠습니다 ...
—
h0ch5tr4355
여기에 주제가 있습니다.
—
Deltik
거기에 화제가 될 것입니다.
—
SnakeDoc
이것은 XY 문제 처럼 보입니다 .
—
David Richerby
wget
google.com에 대해 임의의 항목 을 실행하는 것이 인터넷 연결이 작동하는지 확인하는 좋은 방법이 아닌 것 같습니다. 예를 들어, Google에 HTTP 연결을 허용하지만 스크립트가 실제로 원하는 것을 금지하는 연결에있을 수 있습니다. ; 또는 Google은 자신의 사이트에 대한 wget 액세스를 금지 할 수 있습니다. sudo wget blah
잠재적 인 해결책 이라고 생각하는 실제 문제는 무엇입니까 ?