写在前面
最近无意中看到一个开源代理词项目,在GitHub上有近5000的Star,我试用了一下,感觉还不错,也发现了一些小问题,让其更加可用,由此在这里做个分享。
github项目截图
代理来源我们平常都会抓西刺,或者一些提供免费代理的网站,本项目的IP来源也是如此,在他的项目内有这样的注释:
"""
66ip.cn
data5u.com
xicidaili.com
goubanjia.com
xdaili.cn
kuaidaili.com
cn-proxy.com
proxy-list.org
www.mimiip.com to do
"""
上面都是都是可以爬免费代理的网站。免费代理的采集也很简单,无非就是:访问页面页面 —> 正则/xpath提取 —> 保存。代码里已经有了,我这里就不多做说明,贴上部分抓取代码
@staticmethod
def freeProxyTen():
"""
云代理 http://www.ip3366.net/free/
:return:
"""
urls = ['http://www.ip3366.net/free/']
request = WebRequest()
for url in urls:
r = request.get(url, timeout=10)
proxies = re.findall(r'<td>(\d{1,3}\.\d{1,3}\.\d{1,3}\.\d{1,3})</td>[\s\S]*?<td>(\d+)</td>', r.text)
for proxy in proxies:
yield ":".join(proxy)
@staticmethod
def freeProxyEleven():
"""
代理ip(www.ipdaili.org) http://www.iphai.com/free/ng
:return:
"""
urls = [
'http://www.iphai.com/free/ng',
'http://www.iphai.com/free/np',
'http://www.iphai.com/free/wg',
'http://www.iphai.com/free/wp'
]
request = WebRequest()
for url in urls:
r = request.get(url, timeout=10)
proxies = re.findall(r'<td>\s*?(\d{1,3}\.\d{1,3}\.\d{1,3}\.\d{1,3})\s*?</td>[\s\S]*?<td>\s*?(\d+)\s*?</td>',
r.text)
for proxy in proxies:
yield ":".join(proxy)
以上是两个网站代理池的解析。感兴趣的可以试试看,大佬直接用正则匹配出来了。
验证代理可以肯定免费的代理IP大部分都是不能用的,不然别人为什么还提供付费的(不过事实是很多代理商的付费IP也不稳定,也有很多是不能用)。所以采集回来的代理IP不能直接使用,可以写检测程序不断的去用这些代理访问一个稳定的网站,看是否可以正常使用。这个过程可以使用多线程或异步的方式,因为检测代理是个很慢的过程。
存储和使用代理项目提供了SSDB,和Redis来做校验IP队列,和可用IP队列,并用flask把代理做成服务。这样我们可以通过API来获取,更新,删除IP,甚至在实现个人的定制化时更加灵活。下面贴一部分flask的内容:
flask的一些接口信息
通过这个文档我们可以看出作者提供了4个API,分别为:
get:随机获得一个可用的代理get_all:获得所有的可用代理delete: 删除一个代理get_status:获得状态基本可以覆盖大部分的使用情况。
项目设计根据项目分包,可以看出代理池由四部分组成:
ProxyApi:用flask写的接口,功能是给爬虫提供get/delete/refresh等接口,方便爬虫直接使用。ProxyGetter: 爬取免费代理Schedule:调度。定时检测DB中的代理可用性,删除不可用的代理。同时也会主动通过ProxyGetter去获取最新代理。看代码好像是5分钟跑一次ProxyGetter。DB:存储模块。使用SSDB,或者redis做可用代理队列的存储。大佬个人博客抄来的架构图
使用我直接把项目拉下来,根据readme设置了配置,直接把我MAC本机的redis做了DB,就可以跑起来了。看项目windows更推荐用Docker拉镜像跑,我这里都不多说了。
遇到的问题由于整个项目的校验机制延时比较长,代码如下:
def run():
scheduler = BackgroundScheduler()
# 不用太快, 网站更新速度比较慢, 太快会加大验证压力, 导致raw_proxy积压
scheduler.add_job(fetchAll, 'interval', minutes=10, id="fetch_proxy")
scheduler.add_job(batchRefresh, "interval", minutes=1) # 每分钟检查一次
scheduler.start()
fetchAll()
while True:
time.sleep(3)
每分钟校验一次可用代理,10分钟爬一次免费网站的代理。我个人感觉校验代理的世界太长了,可以看看我的测试。
跑了一天,代理池记录的代理如图
一天内的可用代理
我特别写的校验机制,循环20次校验拿到的代理可用数,如图:
校验结果
第一次校验通过24个代理可用,第二次只有18,中间耗时4s
校验20次的结果
20次校验后,得到的可用代理只有13个
redis存储的代理
由于项目校验可用代理延时为1分钟,最初可用代理76个。当我使用脚本校验20次后,可用的只有13个。意味着在这段时间内,可用的稳定的代理只有13/76,不到20%的稳定率。
在实际使用中,不管使用何种代理,校验都是必不可少的,但是不到20%的代理可用,这会对爬虫造成巨大的干扰,至少在我看来,在这种机制下,校验的IP还具有很大的提升空间。
解决思路由于是爬取其他网站的活动代理,我们并不在乎我们单位时间的请求数,只需要在当下的代理可用即可。解决核心:76个IP其实还不如5个较为稳定的IP,我们如何让这76个IP变成5个可用的稳定的IP成为这个项目可以应用在实际工程中的核心。
我后面会单独依托这个项目,加入一个新的校验队列的机制,并通过新的API获得它,以在实际的项目中,获得更好的体验。
欢迎关注我的头条,以获得最新的近况。
最后通过代理绕过很多网站的确是很好的办法,但是高端的反爬虫越来越依托于秘钥校验等等,硬实力越来越重要。代理永远都只是一个工具,爬虫工程师的核心永远都是自己的对抗能力。