ProxyPool icon indicating copy to clipboard operation
ProxyPool copied to clipboard

getter引入协程,tester中aiohttp的session优化

Open Hui4401 opened this issue 5 years ago • 4 comments

  1. crawler 中的爬取任务改用协程并发完成,由于异步方式,无法用 logger 记录当前正在爬取的网页了
  2. data5u.py 中重写的爬取方法也做了相应修改
  3. 原 tester 中,测试每个 proxy 都创建了一个 aiohttp.ClientSession,这有点浪费没有复用 session 的连接池,所以我增加了一个 main 方法用一个 session 处理了所有的代理测试。

Hui4401 avatar Sep 01 '20 10:09 Hui4401

感谢贡献,我看其他的 Crawler 的 async 逻辑没有修改,这个其他的 Crawler 就没法用了吧,能麻烦一并修改下吗?

Germey avatar Sep 13 '20 17:09 Germey

  • 没有重写 crawl 方法的 Crawler 默认用的 BaseCrawler 里面的 async crawl 方法,仍然可以用的。
  • 重写了 crawl 方法的就三个:data5u,xicidaili 和 zhandaye。data5u 的 async 逻辑我修改了,另外两个我改完后发现网站有问题,xicidaili 挂了,zhandaye 需要 cookie,不过我看到已经 ignore了,那就没事了。
  • 发现之前没注意到 Crawler 单文件运行代码没有修改,已修复,除了 ignore 外的 Crawler 均已测试成功。

Hui4401 avatar Sep 14 '20 03:09 Hui4401

多谢贡献,我会测试一下,没问题就 merge。

Germey avatar Sep 14 '20 07:09 Germey

aiohttp 不支持 https 代理,这个比较不好,感觉没必要改成这样

everhopingandwaiting avatar Feb 08 '21 02:02 everhopingandwaiting