답변:
Google은 최근 robots.txt 에서 CSS 또는 JS 파일에 대한 액세스를 차단해서는 안된다고 공식적으로 설명하기 위해 가이드 라인을 업데이트했습니다 . 이를 통해 Google이 사이트를 크롤링 할 때 브라우저처럼 정확하게 사이트를 렌더링 할 수 있습니다.
CSS 또는 JS 파일을 차단하면 순위에서 웹 사이트의 성능이 저하 될 수 있습니다.
자세한 내용은 여기 : 기술 웹 마스터 지침 업데이트 및 여기 : 웹 마스터 지침
이것이 최근의 권장 사항이므로 많은 웹 사이트 및 CMS (예 : Joomla)는 종종 robots.txt 에서 이러한 파일을 차단 합니다 . 그 이유는 일반적으로 검색 엔진이 이러한 파일을 크롤링하거나 색인을 생성 할 필요가 없기 때문에 불필요한 파일과 디렉토리의 색인이 생성되는 것을 막고 '크롤링 예산'을 저장하기 위해 종종 robots.txt 에서 차단됩니다 .
robots.txt에 대한 전략 은 항상 로봇이 크롤링 해서는 안되는 웹 섹션과 로봇 이 크롤링 할 수 없는 섹션에 대한 질문에 대한 답변으로 이루어져야합니다 .
로봇은 자체 로직을 구현하고 여러 가지 목적을 가지고 있습니다 (Google에는 크롤러가 있습니다 ...) CSS와 JS 파일에 의해 로봇이 어떻게 "산만 해졌다"고 가정하면 로봇의 블랙 박스를 열고 무엇을 가정합니다 로봇 의 현재 구현과 현재 의도는 이것은 유용한 장기 전략이 아닙니다.
로봇의 영역에서 생각하는 대신 웹의 컨텐츠 영역에서 생각하십시오.
robots.txt 파일이 보안 메커니즘이 아님 을 지적하고 싶습니다 .