특히 다양한 Stack Exchange 사이트의 사용자 프로필에서 특정 페이지를 다운로드하고 싶습니다. 그러나 cron
명령 줄과 구문 분석 가능한 형식으로 작업을 사용하여 자동으로 수행하고 싶습니다 . 나는 이것을 위해 Linux를 사용하는 것을 선호하지만 필요한 경우 Mac 또는 Windows 컴퓨터에 액세스 할 수 있습니다.
이상적으로는 Wget 또는 cURL 과 같은 도구를 사용 하여 페이지를 가져오고 싶습니다 . 그래도 로그인을 통과하는 방법을 모르겠습니다. Firefox를 통해 로그인하고 관련 쿠키를 내보내고 --load-cookies
옵션을 통해 Wget으로 가져올 수 있다고 언급하는 제안을 보았습니다 . 예를 들어 here 와 here . 방금 로그인하면 작동하지만 잠시 후에는 작동하지 않습니다. ID 토큰을 새로 고쳐야하기 때문에 추측합니다.
따라서 SU에 로그인하고 쿠키를 내 보내면 바로 할 수 있습니다.
wget --load-cookies cookies.txt \
https://superuser.com/users/151431/terdon?tab=responses
몇 분 후 404 오류가 발생합니다.
wget -O ~/stack/$(date +%s) --load-cookies ~/cookies.txt \
https://superuser.com/users/151431/terdon?tab=responses
--2013-08-06 04:04:14-- https://superuser.com/users/151431/terdon?tab=responses
Resolving superuser.com (superuser.com)... 198.252.206.16
Connecting to superuser.com (superuser.com)|198.252.206.16|:80... connected.
HTTP request sent, awaiting response... 404 Not Found
2013-08-06 04:04:15 ERROR 404: Not Found.
명령 줄에서 OpenID 지원 웹 사이트에 자동으로 로그인하려면 어떻게해야합니까?
추신. 내 질문은 실제로 해당 웹 페이지의 실제 세부 사항이 아니라 명령 줄 측면에 관한 것이므로 웹 응용 프로그램보다 여기에 더 적합하다고 생각합니다. 모든 솔루션이 모든 OpenID 사이트에 적용될 수 있다고 생각합니다 .