1.登陆网站,开启开发者模式。
可以在浏览器中点击右键检查或者F12打开开发者模式。
2.点选 NetWork,DOC,然后刷新页面。
在 network 中选择 doc,在请求的 headers 中搜索 cookie。
3.获取对应的 cookie 以及 user-agent。
4.在代码中添加到 headers 里面。
1
2
3
4
5
6
7
8
9
10
11
12
|
def getHTMLText(url): kv = { 'cookie' : 'adsgadfafegadsgadsfaefasdfaewfadsfag' 'uaer-agent' : 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36' } try : r = requests.get(url, headers = kv, timeout = 30 ) r.raise_for_status() r.encoding = r.apparent_encoding return r.text except : return "gg" |
实例扩展:
程序的结构设计
- 提交商品搜索请求,循环获取页面
- 对于每个页面,提取商品名称和价格信息
- 将信息输出
遇到问题
爬取成功,数据有问题
打印 html 文件,返回如下
1
2
3
4
5
6
7
8
9
10
|
<script type = "text/javascript" > TRLang = { ERROR_NICK_BLANK: "请填写账户名" , ERROR_PASSWORD_BLANK: "请输入密码" , ERROR_NICK_PASSWORD_BLANK: "请输入账户名和密码" , ERROR_CHECKCODE_BLANK: "请输入验证码" , TIPS_REMEMBER_PASSWORD: "记住密码" , TIPS_NOT_REMEMBER_PSW_ON_PUBLIC: "不要在公共计算机记住密码,防止账户被盗" }; < / script> |
到此这篇关于Python爬虫爬取商品失败处理方法的文章就介绍到这了,更多相关Python爬虫爬取商品失败内容请搜索服务器之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持服务器之家!
原文链接:https://www.py.cn/jishu/spider/32181.html