규정상의 이유로 자동으로 색인을 생성하거나 검색 할 수없는 사이트가 있습니다. 즉, 모든 로봇을 멀리하고 사이트를 스파이더 링하지 않아야합니다.
분명히 우리는 처음부터 모든 것을 허용하지 않는 robots.txt 파일을 가지고 있습니다. 그러나 robots.txt 파일을 관찰하는 것은 로봇이 잘하는 행동입니다. 최근에 로봇의 동작이 좋지 않은 문제가있었습니다. 몇 가지 사용자 에이전트 를 금지 하도록 Apache를 구성 했지만 그 문제를 해결하는 것은 매우 쉽습니다.
따라서 문제는 로봇과 같은 동작을 감지하고 응답하도록 Apache를 구성 할 수있는 방법이 있습니까? 다른 아이디어가 있습니까?
현재 내가 할 수있는 일은 로그를 수동으로 검사하여 IP 주소를 차단하는 것 뿐이며 이는 장기적으로 실행 가능한 전략이 아닙니다.