robots.txt를 확인하기 위해 Google을 호출 할 수 있습니까?


11

이 질문에 대한 답변을 읽었지만 여전히 내 질문을 열어 둡니다. Google은 robots.txt를 캐시합니까?

Google 웹 마스터 도구에서 robots.txt를 다시 다운로드하는 방법을 찾지 못했습니다 .

일부 오류로 인해 robots.txt 가 다음으로 대체되었습니다.

User-agent: *
Disallow: /

이제 모든 콘텐츠가 Google 검색 결과에서 삭제되었습니다.

분명히, 나는 이것을 가능한 빨리 수정하는 데 관심이 있습니다. robots.txt를 이미 교체 했지만 Google에서 캐시 된 버전을 업데이트하는 방법을 찾을 수 없습니다.

여기에 이미지 설명을 입력하십시오


1
그냥 robots.txt에있는 모든 페이지를 허용하지 않는 것은 일반적으로해야 하지 충분 완전히 한 다른 사이트는 여전히 링크로, 구글의 결과에서 제거합니다.
Ilmari Karonen

흠 까다로운 것. ZenCart URL은 robots.txt 웹 크롤러 봇을 혼동하는 것으로 보이며 알고 있기 전에 차단하고 싶지 않은 URL을 차단했습니다. 내 경험은 robots.txt가 없으면 더 나은 웹 사이트를 유지하는 것이 좋습니다. 유효한 URL의 robots.txt 오류 차단으로 인해 많은 웹 순위가 손실되었습니다. ZenCart는 동적 URL을 사용하기 때문에 robots.txt 웹 크롤러를 혼동하여 차단하지 않을 URL이 차단되는 것으로 보입니다. 그것이 ZenCart에서 카테고리를 비활성화 한 다음 해당 카테고리에서 제품을 옮기는 것과 관련이 있는지 확실하지 않습니다.

답변:


10

원하는 경우 robots.txt를 다시 다운로드 할 수 없습니다. Google은 사이트에 적합하다고 생각 될 때마다 다시 크롤링하고 새 데이터를 사용합니다. 그들은 정기적으로 크롤링하는 경향이 있으므로 업데이트 된 파일을 찾고 페이지를 다시 크롤링하고 다시 색인화하는 데 시간이 오래 걸리지 않을 것입니다. 페이지를 다시 크롤링하기 전에 새 robots.txt 파일을 찾은 후 시간이 더 걸리고 Google 검색 결과에 다시 표시되는 데 시간이 더 걸릴 수 있습니다.


1
그들에 따르면 그들은 매일 매일 확인하지만 바쁜 사이트를 더 자주 확인합니다. webmasters.stackexchange.com/a/32949/17430을 참조하십시오 .
studgeek

1

www.satyabrata.com6 월 16 일에 새 웹 사이트 를 시작할 때도 같은 문제에 직면했습니다 .

나는 있었다 Disallow: /내에서 robots.txt를 정확히 올리버처럼. Google 웹 마스터 도구에 차단 된 URL에 대한 경고 메시지도 있습니다.

이 문제는 어제 6 월 18 일에 해결되었습니다. 다음을 수행했습니다. 어느 단계가 효과가 있었는지 잘 모르겠습니다.

  1. 건강-> Fetch as Google : robots.txt 및 홈페이지 그런 다음 색인을 제출하십시오.
  2. 설정-> 선호 도메인 : 표시 URL을 www.satyabrata.com
  3. 최적화-> 사이트 맵 : XML 사이트 맵이 추가되었습니다.

차단 된 URL에 대한 경고 메시지가 사라지고 새로운 robots.txt 가 Google 웹 마스터 도구에 다운로드 된 것으로 표시됩니다.

현재 Google에는 홈페이지와 robots.txt 두 페이지 만 색인되어 있습니다 . 웹 사이트에 10 페이지가 있습니다. 나머지는 곧 색인화되기를 바랍니다.


0

이미지가 별도의 CNAME 서버로 이동되어 이미지 폴더에 허용되지 않는 문제가있었습니다. 내가 분명히하는 방법은 웹 마스터 도구에서 robots.txt를 검색하여 웹 페이지를 Google 도구로 읽는 것입니다. robots.txt를 검색하여 읽었다 고 말하면 제출했습니다. 이로 인해 Google은 robots.txt 파일을 읽었지만 이미지 폴더를 허용하도록 변경 한 규칙과 일치하도록 스파이더 링을 변경하지 않았다고보고 한 이미지를 스캔하는 데 3 개월이 걸렸습니다. 일주일 이내에 이미지가 다시 색인되었습니다.

시도해 볼 가치가 있습니다. Google은 때때로 멈춰 파일을 다시 읽지 못하는 것으로 알려져 있습니다.


내가 게시 한 후 약 6 시간 후에 파일을 다시 읽습니다. 지금까지 모든 것이 정상으로 돌아 왔습니다.
Der Hochstapler

아휴! 그때 트랙으로 돌아와!
Fiasco Labs

robots.txt를 가져 오기 위해 웹 마스터 도구를 요청했지만 robots.txt에 의해 거부되었다고 불평했습니다. :) 따라서 robots.txt가 전체 블록을 수행하는 경우 해당 트릭이 작동하지 않습니다.
studgeek

여기에서도 마찬가지입니다. robots.txt에 대한 robots.txt 요청이 거부되었습니다! 하!
Kasapo

Whelp, 만약 당신이 근본을 부정한다면 당신은 일종의 SOL 일 것입니다. 필자의 경우 거부 된 하위 폴더이므로 제공된 메커니즘을 통해 robots.txt를 다시 읽도록 강제했습니다.
Fiasco Labs


-1

필자의 경우 문제는 afraid.org라는 무료 DNS 서비스를 사용하고 있다는 것이 었습니다.

(무료 도메인은으로 끝났습니다 .us.to)

TLD로 전환하면 작동하기 시작했습니다.


DNS 또는 무료 사이트가 robots.txt와 어떤 관련이 있는지 또는 Google에 다시 가져 오도록 지시하지 않습니다.
Stephen Ostermiller

@ StephenOstermiller : 나도 보이지 않지만 사실은 내 경우에 도움이되었습니다.
Stefan Monov

Google이 robots.txt를 확인하는 데 도움이 되었습니까?
Stephen Ostermiller

@StephenOstermiller : 그렇습니다.
Stefan Monov
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.