因为项目需求,需要车辆品牌信息和车系信息,昨天用一天时间研究了jsoup爬取网站信息。项目是用maven+spring+springmvc+mybatis写的。
这个是需要爬取网站的地址 https://car.autohome.com.cn/zhaoche/pinpai/
1.首先在pom.xml中添加依赖
因为需要把图片保存到本地所以又添加了commons-net包
1
2
3
4
5
6
7
8
9
10
11
12
|
<!-- https: //mvnrepository.com/artifact/org.jsoup/jsoup --> <dependency> <groupid>org.jsoup</groupid> <artifactid>jsoup</artifactid> <version> 1.10 . 3 </version> </dependency> <!-- https: //mvnrepository.com/artifact/commons-net/commons-net --> <dependency> <groupid>commons-net</groupid> <artifactid>commons-net</artifactid> <version> 3.3 </version> </dependency> |
2.爬虫代码的实现
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
|
@controller @requestmapping ( "/car/" ) public class carcontroller { //图片保存路径 private static final string saveimgpath= "c://imgs" ; /** * @title: insert 品牌名称 和图片爬取和添加 * @description: * @param @throws ioexception * @return void * @throws * @date 2018年1月29日 下午4:42:57 */ @requestmapping ( "add" ) public void insert() throws ioexception { //定义想要爬取数据的地址 string url = "https://car.autohome.com.cn/zhaoche/pinpai/" ; //获取网页文本 document doc = jsoup.connect(url).get(); //根据类名获取文本内容 elements elementsbyclass = doc.getelementsbyclass( "uibox-con" ); //遍历类的集合 for (element element : elementsbyclass) { //获取类的子标签数量 int childnodesize_1 = element.childnodesize(); //循环获取子标签内的内容 for ( int i = 0 ; i < childnodesize_1; i++) { //获取车标图片地址 string tupian = element.child(i).child( 0 ).child( 0 ).child( 0 ).child( 0 ).attr( "src" ); //获取品牌名称 string pinpai = element.child(i).child( 0 ).child( 1 ).text(); //输出获取内容看是否正确 system.out.println( "车标图片地址-----------" + tupian); system.out.println( "品牌-----------" + pinpai); system.out.println(); //把车标图片保存到本地 string tupian_1 = "http:" +tupian; //连接url url url1 = new url(tupian_1); urlconnection uri=url1.openconnection(); //获取数据流 inputstream is=uri.getinputstream(); //获取后缀名 string imagename = tupian.substring(tupian.lastindexof( "/" ) + 1 ,tupian.length()); //写入数据流 outputstream os = new fileoutputstream( new file(saveimgpath, imagename)); byte [] buf = new byte [ 1024 ]; int p= 0 ; while ((p=is.read(buf))!=- 1 ){ os.write(buf, 0 , p); } /** * 因为每个品牌下有多个合资工厂 * 比如一汽大众和上海大众还有进口大众 * 所有需要循环获取合资工厂名称和旗下 * 车系 */ //获取车系数量 int childnodesize_2 = element.child(i).child( 1 ).child( 0 ).childnodesize(); /** * 获取标签下子标签数量 * 如果等于1则没有其他合资工厂 */ int childnodesize_3 = element.child(i).child( 1 ).childnodesize(); if (childnodesize_3== 1 ){ //循环获取车系信息 for ( int j = 0 ; j < childnodesize_2; j++) { string chexi = element.child(i).child( 1 ).child( 0 ).child(j).child( 0 ).child( 0 ).text(); system.out.println( "车系-----------" + chexi); } } else { /** * 如果childnodesize_3大于1 * 则有多个合资工厂 */ //分别获取各个合资工厂旗下车系 for ( int j = 0 ; j < childnodesize_3; j++) { int childnodesize_4 = element.child(i).child( 1 ).child(j).childnodesize(); /** * 如果j是单数则是合资工厂名称 * 否则是车系信息 */ int k = j% 2 ; if (k== 0 ){ //获取合资工厂信息 string hezipinpai = element.child(i).child( 1 ).child(j).child( 0 ).text(); system.out.println( "合资企业名称-----------" + hezipinpai); } else { //int childnodesize_5 = element.child(i).child(1).child(0).childnodesize(); //循环获取合资工厂车系信息 for ( int l = 0 ; l < childnodesize_4; l++){ string chexi = element.child(i).child( 1 ).child(j).child(l).child( 0 ).child( 0 ).text(); system.out.println( "车系-----------" + chexi); } } } } system.out.println( "************************" ); system.out.println( "************************" ); } } } } |
3.运行结果
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持服务器之家。
原文链接:https://www.cnblogs.com/fengzhifei/archive/2018/01/30/8383448.html