Crossin的编程教室
标题:
什么样规模的爬虫才用scrapy呢
[打印本页]
作者:
人工智能
时间:
2018-4-10 17:31
标题:
什么样规模的爬虫才用scrapy呢
我现在要爬取大概300个页面的内容吧
我现在是找到了网页url规律 循环生成url然后准备循环爬取这些网页大概 300个url吧 我是应该用scrapy呢
还是用 requests+BeautifulSoup呢
我得到这些url是循环爬取了46个url中的内容, 得到了这300个url 我爬取这46个url 用的是requests+bs
现在这300个再用 requests+bs是不是不太合适了 还有我如果用requests+bs的话能限制并行数量吗
作者:
crossin先生
时间:
2018-4-11 12:05
不需要用
并行数量可以自己通过多线程里的线程数来控制,或者适当增加请求间隔
当然你如果为了学习和练习 scrapy 那也没问题
作者:
zhaolehua
时间:
2018-4-11 14:56
scrapy用的异步IO,你用它会比你的多线程或者多进程快一些,而且不用考虑锁的问题
欢迎光临 Crossin的编程教室 (https://bbs.crossincode.com/)
Powered by Discuz! X2.5