Python '요청'모듈을 사용하는 프록시


159

Python 의 우수한 요청 모듈에 대한 짧고 간단한 것 입니다.

문서에서 변수 '프록시'에 포함되어야하는 것을 찾을 수없는 것 같습니다. 표준 "IP : PORT"값을 사용하여 dict을 보내면 2 개의 값을 요구하는 것을 거부했습니다. 첫 번째 값은 ip이고 두 번째 포트는 포트라고 생각합니다 (문서에서 다루지 않는 것 같아).

문서는 이것을 언급합니다.

프록시 – (선택 사항) 프록시의 URL에 대한 사전 매핑 프로토콜입니다.

그래서 나는 이것을 시도했다 ... 나는 무엇을해야합니까?

proxy = { ip: port}

dict에 넣기 전에 이것을 어떤 유형으로 변환해야합니까?

r = requests.get(url,headers=headers,proxies=proxy)

답변:


280

proxies'DICT 구문입니다 {"protocol":"ip:port", ...}. 이를 통해 http , httpsftp 프로토콜을 사용하는 요청에 대해 다른 (또는 동일한) 프록시를 지정할 수 있습니다 .

http_proxy  = "http://10.10.1.10:3128"
https_proxy = "https://10.10.1.11:1080"
ftp_proxy   = "ftp://10.10.1.10:3128"

proxyDict = { 
              "http"  : http_proxy, 
              "https" : https_proxy, 
              "ftp"   : ftp_proxy
            }

r = requests.get(url, headers=headers, proxies=proxyDict)

으로부터 추론 requests문서 :

파라미터 :
method – 새로운 Request 객체의 메소드.
url– 새 요청 오브젝트의 URL.
...
proxies– (선택 사항) 프록시URL에 대한 사전 매핑 프로토콜 . ...


Linux HTTP_PROXY에서는 HTTPS_PROXY, 및 FTP_PROXY환경 변수 를 통해이를 수행 할 수도 있습니다 .

export HTTP_PROXY=10.10.1.10:3128
export HTTPS_PROXY=10.10.1.11:1080
export FTP_PROXY=10.10.1.10:3128

Windows에서 :

set http_proxy=10.10.1.10:3128
set https_proxy=10.10.1.11:1080
set ftp_proxy=10.10.1.10:3128

Jay는 이것을 지적 해 주셔서 감사합니다.
구문은 요청 2.0.0으로 변경되었습니다 .
URL에 스키마를 추가해야합니다. https://2.python-requests.org/en/latest/user/advanced/#proxies


@cigar urllib2가 프록시 dict에 대해 정확히 동일한 형식을 사용하고 docs.python-requests.org/en/latest/api/#module-requests를 볼 때 "proxies – (선택 사항) 프록시의 URL입니다. ", 나는 즉시 알고있었습니다.
chown

1
아아, 여기에서 얻은 그것을 제거하기위한 조언 때문에 urllib2와 함께 프록시를 사용하지 않았습니다. 코드 2 페이지를 8 줄로 바꿨습니다 : / re : shoulder :))) 여기에 머 무르십시오. 합계! 당신이 음악 gimme 소리에 대한 도움이 필요하다면, 나는 조언을 줄 수 있습니다. 그렇지 않으면 엄청난 감사 또는 차 한잔 이외의 상환 방법을 생각할 수 없습니다!

프록시를 사용할 때 요청과 urllib3이 CONNECT를 수행 할 수없는 것 같습니다 :(
dzen

@dzen 나는 아직 사용하지 않았 urllib3으므로 그것을 조사해야합니다. 고마워요
chown

3
@chown 구문은 요청 2.0.0으로 변경되었습니다. URL에 스키마를 추가해야합니다. docs.python-requests.org/en/latest/user/advanced/#proxies 여기에 답을 추가 할 수 있다면 좋을 것입니다.
Jay

28

urllib에는 시스템의 프록시 설정을 선택하는 데 정말 좋은 코드가 있으며 직접 사용할 수있는 올바른 형식으로되어 있습니다. 다음과 같이 사용할 수 있습니다.

import urllib

...
r = requests.get('http://example.org', proxies=urllib.request.getproxies())

정말 잘 작동하며 urllib은 Mac OS X 및 Windows 설정에 대해서도 알고 있습니다.


프록시없이 작동합니까? 일부 사용자에게는 프록시가없고 일부 사용자에게는 프록시가 없습니다.
jonasl

1
no_proxy가 포함되어 있고 요청이 no_proxy를 존중합니까? : 신경 끄시 고, 그것은 해결책이있는 것 같다 github.com/kennethreitz/requests/issues/879
jrwren

4
실수 :module 'urllib' has no attribute 'getproxies'
Zahra


1
@Zahra urllib2.getproxies ()
rleelr

25

여기서 프록시 설명서를 참조 할 수 있습니다 .

프록시를 사용해야하는 경우 proxies 인수를 사용하여 모든 요청 방법에 대한 개별 요청을 구성 할 수 있습니다.

import requests

proxies = {
  "http": "http://10.10.1.10:3128",
  "https": "https://10.10.1.10:1080",
}

requests.get("http://example.org", proxies=proxies)

프록시에서 HTTP 기본 인증을 사용하려면 http : // user : password@host.com/ 구문을 사용하십시오.

proxies = {
    "http": "http://user:pass@10.10.1.10:3128/"
}

17

받아 들인 대답은 좋은 출발 이었지만 다음과 같은 오류가 계속 발생했습니다.

AssertionError: Not supported proxy scheme None

이 문제를 해결하려면 프록시 URL에 http : //를 지정하십시오.

http_proxy  = "http://194.62.145.248:8080"
https_proxy  = "https://194.62.145.248:8080"
ftp_proxy   = "10.10.1.10:3128"

proxyDict = {
              "http"  : http_proxy,
              "https" : https_proxy,
              "ftp"   : ftp_proxy
            }

왜 원본이 일부 사람들에게는 효과가 있지만 나에게는 그렇지 않은지에 관심이 있습니다.

편집 : 이제 주 답변이 이것을 반영하도록 업데이트되었습니다. :)


4
2.0.0으로 변경 : 이제 프록시 URL에 명시 적 체계가 있어야합니다. 없는 경우 MissingSchema 예외가 발생합니다.
Jay

4

쿠키와 세션 데이터를 지속적으로 유지하려면 다음과 같이하는 것이 가장 좋습니다.

import requests

proxies = {
    'http': 'http://user:pass@10.10.1.0:3128',
    'https': 'https://user:pass@10.10.1.0:3128',
}

# Create the session and set the proxies.
s = requests.Session()
s.proxies = proxies

# Make the HTTP request through the session.
r = s.get('http://www.showmemyip.com/')

2

8 년 늦었다. 하지만 난 좋아한다:

import os
import requests

os.environ['HTTP_PROXY'] = os.environ['http_proxy'] = 'http://http-connect-proxy:3128/'
os.environ['HTTPS_PROXY'] = os.environ['https_proxy'] = 'http://http-connect-proxy:3128/'
os.environ['NO_PROXY'] = os.environ['no_proxy'] = '127.0.0.1,localhost,.local'

r = requests.get('https://example.com')  # , verify=False

1

다음은 프록시 구성 및 스톱워치가있는 요청 모듈에 대한 파이썬의 기본 클래스입니다!

import requests
import time
class BaseCheck():
    def __init__(self, url):
        self.http_proxy  = "http://user:pw@proxy:8080"
        self.https_proxy = "http://user:pw@proxy:8080"
        self.ftp_proxy   = "http://user:pw@proxy:8080"
        self.proxyDict = {
                      "http"  : self.http_proxy,
                      "https" : self.https_proxy,
                      "ftp"   : self.ftp_proxy
                    }
        self.url = url
        def makearr(tsteps):
            global stemps
            global steps
            stemps = {}
            for step in tsteps:
                stemps[step] = { 'start': 0, 'end': 0 }
            steps = tsteps
        makearr(['init','check'])
        def starttime(typ = ""):
            for stemp in stemps:
                if typ == "":
                    stemps[stemp]['start'] = time.time()
                else:
                    stemps[stemp][typ] = time.time()
        starttime()
    def __str__(self):
        return str(self.url)
    def getrequests(self):
        g=requests.get(self.url,proxies=self.proxyDict)
        print g.status_code
        print g.content
        print self.url
        stemps['init']['end'] = time.time()
        #print stemps['init']['end'] - stemps['init']['start']
        x= stemps['init']['end'] - stemps['init']['start']
        print x


test=BaseCheck(url='http://google.com')
test.getrequests()

1

나는 방금 프록시 graber를 만들었고 여기에 아무런 입력없이 동일한 grabed proxy와 연결할 수 있습니다.

#Import Modules

from termcolor import colored
from selenium import webdriver
import requests
import os
import sys
import time

#Proxy Grab

options = webdriver.ChromeOptions()
options.add_argument('headless')
driver = webdriver.Chrome(chrome_options=options)
driver.get("https://www.sslproxies.org/")
tbody = driver.find_element_by_tag_name("tbody")
cell = tbody.find_elements_by_tag_name("tr")
for column in cell:

        column = column.text.split(" ")
        print(colored(column[0]+":"+column[1],'yellow'))
driver.quit()
print("")

os.system('clear')
os.system('cls')

#Proxy Connection

print(colored('Getting Proxies from graber...','green'))
time.sleep(2)
os.system('clear')
os.system('cls')
proxy = {"http": "http://"+ column[0]+":"+column[1]}
url = 'https://mobile.facebook.com/login'
r = requests.get(url,  proxies=proxy)
print("")
print(colored('Connecting using proxy' ,'green'))
print("")
sts = r.status_code

0

약간 늦었지만 프록시 스크래핑을 단순화하고 http POST 또는 GET을 만드는 래퍼 클래스가 있습니다.

프록시 요청

https://github.com/rootVIII/proxy_requests

0

"https://free-proxy-list.net"사이트에서 프록시를 가져오고 "Elite Proxy Switcher"(형식 IP : PORT)와 같은 도구와 호환되는 파일에 데이터를 저장하는 방법에 대한 코드를 공유합니다.

## PROXY_UPDATER는 -에서 무료로 프록시를 얻을 https://free-proxy-list.net/

from lxml.html import fromstring
import requests
from itertools import cycle
import traceback
import re

######################FIND PROXIES#########################################
def get_proxies():
    url = 'https://free-proxy-list.net/'
    response = requests.get(url)
    parser = fromstring(response.text)
    proxies = set()
    for i in parser.xpath('//tbody/tr')[:299]:   #299 proxies max
        proxy = ":".join([i.xpath('.//td[1]/text()') 
        [0],i.xpath('.//td[2]/text()')[0]])
        proxies.add(proxy)
    return proxies



######################write to file in format   IP:PORT######################
try:
    proxies = get_proxies()
    f=open('proxy_list.txt','w')
    for proxy in proxies:
        f.write(proxy+'\n')
    f.close()
    print ("DONE")
except:
    print ("MAJOR ERROR")
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.