概述
这是一个简单的python爬虫程序,仅用作技术学习与交流,主要是通过一个简单的实际案例来对网络爬虫有个基础的认识。
什么是网络爬虫
简单的讲,网络爬虫就是模拟人访问web站点的行为来获取有价值的数据。专业的解释:百度百科
分析爬虫需求
确定目标
爬取豆瓣热度在top100以内的电影的一些信息,包括电影的名称、豆瓣评分、导演、编剧、主演、类型、制片国家/地区、语言、上映日期、片长、imdb链接等信息。
分析目标
1.借助工具分析目标网页
首先,我们打开豆瓣电影·热门电影,会发现页面总共20部电影,但当查看页面源代码当时候,在源代码中根本找不到这些电影当信息。这是为什么呢?原来豆瓣在这里是通过ajax技术获取电影信息,再动态的将数据加载到页面中的。这就需要借助chrome的开发者工具,先找到获取电影信息的api。
然后对电影详情页进行分析
思路分析
具体实现
开发环境
python3.6
pycharm
主要依赖库
urllib -- 基础性的网络相关操作
lxml -- 通过xpath语法解析html页面
json -- 对通过api获取的json数据进行操作
re -- 正则操作
代码实现
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
|
from urllib import request from lxml import etree import json import re import ssl # 全局取消证书验证 ssl._create_default_https_context = ssl._create_unverified_context def get_headers(): """ 返回请求头信息 :return: """ headers = { 'user-agent' : "mozilla/5.0 (macintosh; intel mac os x 10_12_6) " "applewebkit/537.36 (khtml, like gecko) " "chrome/65.0.3325.181 safari/537.36" } return headers def get_url_content(url): """ 获取指定url的请求内容 :param url: :return: """ content = '' headers = get_headers() res = request.request(url, headers = headers) try : resp = request.urlopen(res, timeout = 10 ) content = resp.read().decode( 'utf-8' ) except exception as e: print ( 'exception: %s' % e) return content def parse_content(content): """ 解析网页 :param content: :return: """ movie = {} html = etree.html(content) try : info = html.xpath( "//div[@id='info']" )[ 0 ] movie[ 'director' ] = info.xpath( "./span[1]/span[2]/a/text()" )[ 0 ] movie[ 'screenwriter' ] = info.xpath( "./span[2]/span[2]/a/text()" )[ 0 ] movie[ 'actors' ] = '/' .join(info.xpath( "./span[3]/span[2]/a/text()" )) movie[ 'type' ] = '/' .join(info.xpath( "./span[@property='v:genre']/" "text()" )) movie[ 'initialreleasedate' ] = '/' .\ join(info.xpath( ".//span[@property='v:initialreleasedate']/text()" )) movie[ 'runtime' ] = \ info.xpath( ".//span[@property='v:runtime']/text()" )[ 0 ] def str_strip(s): return s.strip() def re_parse(key, regex): ret = re.search(regex, content) movie[key] = str_strip(ret[ 1 ]) if ret else '' re_parse( 'region' , r '<span class="pl">制片国家/地区:</span>(.*?)<br/>' ) re_parse( 'language' , r '<span class="pl">语言:</span>(.*?)<br/>' ) re_parse( 'imdb' , r '<span class="pl">imdb链接:</span> <a href="(.*?)" rel="external nofollow" ' r 'target="_blank" >' ) except exception as e: print ( '解析异常: %s' % e) return movie def spider(): """ 爬取豆瓣前100部热门电影 :return: """ recommend_moives = [] movie_api = 'https://movie.douban.com/j/search_subjects?' \ 'type=movie&tag=%e7%83%ad%e9%97%a8&sort=recommend' \ '&page_limit=100&page_start=0' content = get_url_content(movie_api) json_dict = json.loads(content) subjects = json_dict[ 'subjects' ] for subject in subjects: content = get_url_content(subject[ 'url' ]) movie = parse_content(content) movie[ 'title' ] = subject[ 'title' ] movie[ 'rate' ] = subject[ 'rate' ] recommend_moives.append(movie) print ( len (recommend_moives)) print (recommend_moives) if __name__ = = '__main__' : spider() |
效果
总结
本文较详细的阐述了一个爬虫从需求->分析->实现的过程,并给出了具体的代码实现。通过对本文的学习,我们可以了解到网络爬虫的一些基本的知识,以及python的一些基本库的使用方法。接下来我会使用一些高级些的网络操作相关的库以及对抓取到的数据做个存储的方式,来更深层次的理解python网络爬虫。
特别声明
1. 本文涉及到的豆瓣网是国内知名网站,若有侵权之处,请告知。
2. 本文属作者原创,转载请标明出处;未经允许,不得用于商业用途。
3. 本文只是用作网络爬虫技术学习交流,读者涉及到的任何侵权问题,与本文作者无关。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持服务器之家。
原文链接:https://www.cnblogs.com/josephji/archive/2018/04/17/8859249.html