设为首页收藏本站

Crossin的编程教室

 找回密码
 立即加入
查看: 6341|回复: 6
打印 上一主题 下一主题

使用scrapy怎么向使用requests一样使用代理IP呢

[复制链接]

22

主题

6

好友

242

积分

中级会员

Rank: 3Rank: 3

跳转到指定楼层
楼主
发表于 2018-4-3 11:46:24 |只看该作者 |倒序浏览
如题,怕自己的IP被封掉 所以想用代理IP
回复

使用道具 举报

174

主题

45

好友

11万

积分

管理员

Rank: 9Rank: 9Rank: 9

沙发
发表于 2018-4-3 13:46:19 |只看该作者
#==== Crossin的编程教室 ====#
微信ID:crossincode
网站:http://crossincode.com
回复

使用道具 举报

22

主题

6

好友

242

积分

中级会员

Rank: 3Rank: 3

板凳
发表于 2018-4-6 17:22:25 |只看该作者
crossin先生 发表于 2018-4-3 13:46
帮你搜了下
https://blog.csdn.net/u011781521/article/details/70194744?locationNum=4&fps=1

好的我先学学看
回复

使用道具 举报

22

主题

6

好友

242

积分

中级会员

Rank: 3Rank: 3

地板
发表于 2018-4-11 23:10:48 |只看该作者
crossin先生 发表于 2018-4-3 13:46
帮你搜了下
https://blog.csdn.net/u011781521/article/details/70194744?locationNum=4&fps=1

用的requests库实现的爬虫 然后加了个代理  我怎么判断我的代理使用成功了呢
我这样写的:
r = requests.get(url, headers = kv, proxies = PXS, timeout=30)
PXS = {"https":"http://223.241.79.114:8010",
                        "https":"http://183.159.93.238:18118",
                        "https":"http://119.186.241.246:61234"
                   }
回复

使用道具 举报

174

主题

45

好友

11万

积分

管理员

Rank: 9Rank: 9Rank: 9

5#
发表于 2018-4-12 11:38:54 |只看该作者
人工智能 发表于 2018-4-11 23:10
用的requests库实现的爬虫 然后加了个代理  我怎么判断我的代理使用成功了呢
我这样写的:
r = requests. ...

去网上找一些可以返回请求ip的网址,然后测试下它们给你的返回结果是不是代理的ip
#==== Crossin的编程教室 ====#
微信ID:crossincode
网站:http://crossincode.com
回复

使用道具 举报

22

主题

6

好友

242

积分

中级会员

Rank: 3Rank: 3

6#
发表于 2018-4-12 21:41:44 |只看该作者
crossin先生 发表于 2018-4-12 11:38
去网上找一些可以返回请求ip的网址,然后测试下它们给你的返回结果是不是代理的ip ...

嗯 我去看看
回复

使用道具 举报

22

主题

6

好友

242

积分

中级会员

Rank: 3Rank: 3

7#
发表于 2018-4-26 19:07:20 |只看该作者
人工智能 发表于 2018-4-6 17:22
好的我先学学看

scrapy 设置代理IP这么麻烦,每次使用scrapy框架 都要重新设置代理?
难道使用scrapy的人每次都费这么大劲设置一下?还是说用scrapy都不用代理?
有没有什么简单的方法设置一下scrapy的代理呢
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即加入

QQ|手机版|Archiver|Crossin的编程教室 ( 苏ICP备15063769号  

GMT+8, 2024-11-24 10:08 , Processed in 0.025741 second(s), 21 queries .

Powered by Discuz! X2.5

© 2001-2012 Comsenz Inc.

回顶部