欢迎来到智连IP官方网站!

联系热线:400-998-9776 转3网站地图

python爬虫与代理ip结合使用的步骤

发布时间:2021-02-06 09:59 阅读: 来源:代理ip

  pyhton爬虫是怎么跟代理ip结合使用的?我们需要来看看具体的操作过程。

python爬虫与代理ip结合使用的步骤

  一、这里以python3为例,首先要导入urllib的request,然后调用ProxyHandler,它可以接受代理IP的参数。

  from urllib import request

  px=request.ProxyHandler()

  二、接着把IP地址以字典的形式放入其中,这个IP地址是我从短效优质代理里随便提取的一个IP。设置键为http,当然有些是https的,然后后面就是IP地址以及端口号。

  st.ProxyHandler({'http':'171.11.178.189:38458'})

  三、接着再用build_opener()来构建一个opener对象。

  opener=request.build_opener(px)

  四、然后调用构建好的opener对象里面的open方法来发生请求。实际上urlopen也是类似这样使用内部定义好的opener.open(),这里就相当于我们自己重写。

  req=request.Request('网址')

  res=opener.open(req)

  with open('a.html','wb')as f:

  f.write(res.read())

  五、在使用代理IP的时候,IPIDEA提醒下大家可能会遇到一些错误,比如计算机积极拒绝之类的,这有可能是代理IP已经失效了,需要换个有效的代理IP来使用;也有可能遇到403或者407之类的错误,需要检查下授权的问题。

  以上操作步骤可以作为大家执行python爬虫的参照。

本文源自智连IP官方网站(www.zhilianip.com),转载请注明出处,否则追究法律责任!!

看过本文的人还看过……

热点文章推荐

分享: