사이트에 다음 robots.txt 파일을 사용하고 있습니다. 대상은 Googlebot 및 bingbot이 페이지를 제외한 사이트에 액세스하고 /bedven/bedrijf/*
다른 모든 봇이 사이트를 크롤링하지 못하도록 차단하는 것입니다.
User-agent: googlebot
Disallow: /bedven/bedrijf/*
Crawl-delay: 10
User-agent: google
Disallow: /bedven/bedrijf/*
Crawl-delay: 10
User-agent: bingbot
Disallow: /bedven/bedrijf/*
Crawl-delay: 10
User-agent: bing
Disallow: /bedven/bedrijf/*
Crawl-delay: 10
User-agent: *
Disallow: /
마지막 규칙 User-agent: * Disallow: /
은 모든 봇이 사이트의 모든 페이지를 크롤링하지 못하게 합니까 ?
robots.txt
어쨌든 완전히 무시할 수 있습니다
robots.txt
, 또는 최소한 Disallow: /
규칙 을 따르는 제대로 작동하지 않는 봇의 부족이 없습니다 . 봇 프로그래머가 서버가 256 kbit 연결의 잘못된 끝에서 라즈베리 파이라고 생각하지 않아서 개인 웹 사이트가지면에 망치는 경우 이와 같은 담요 제외가 유용합니다.