首页 > 其他 > 详细

爬虫去重策略

时间:2018-11-02 01:28:06      阅读:190      评论:0      收藏:0      [点我收藏+]

1,将所有访问过的url保存在数据库中

2,将访问过的url保存在内存中,只需要o(1)代价就可以查询url

    1000000000*2byte*50个字符/1024/1024/1024≈9G

3,url经过md5等方法哈希后保存到内存中 (scrapy用的方法)

4,用bitmap方法,将访问过的url通过hash函数映射到某一位

5,bloomfilter方法对bitmap进行改进,多重hash函数降低冲突

爬虫去重策略

原文:https://www.cnblogs.com/zhoulixiansen/p/9893476.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!