本文实例为大家分享了一个基于JAVA的知乎爬虫,抓取知乎用户基本信息,基于HttpClient 4.5,供大家参考,具体内容如下
详细内容:
抓取90W+用户信息(基本上活跃的用户都在里面)
大致思路:
1.首先模拟登录知乎,登录成功后将Cookie序列化到磁盘,不用以后每次都登录(如果不模拟登录,可以直接从浏览器塞入Cookie也是可以的)。
2.创建两个线程池和一个Storage。一个抓取网页线程池,负责执行request请求,并返回网页内容,存到Storage中。另一个是解析网页线程池,负责从Storage中取出网页内容并解析,解析用户资料存入数据库,解析该用户关注的人的首页,将该地址请求又加入抓取网页线程池。一直循环下去。
3.关于url去重,我是直接将访问过的链接md5化后存入数据库,每次访问前,查看数据库中是否存在该链接。
到目前为止,抓了100W用户了,访问过的链接220W+。现在抓取的用户都是一些不太活跃的用户了。比较活跃的用户应该基本上也抓完了。
项目地址:https://github.com/wycm/mycrawler
实现代码:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
|
作者:卧颜沉默 链接:https: //www.zhihu.com/question/36909173/answer/97643000 来源:知乎 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 /** * * @param httpClient Http客户端 * @param context Http上下文 * @return */ public boolean login(CloseableHttpClient httpClient, HttpClientContext context){ String yzm = null ; String loginState = null ; HttpGet getRequest = new HttpGet( "https://www.zhihu.com/#signin" ); HttpClientUtil.getWebPage(httpClient,context, getRequest, "utf-8" , false ); HttpPost request = new HttpPost( "https://www.zhihu.com/login/email" ); List<NameValuePair> formParams = new ArrayList<NameValuePair>(); yzm = yzm(httpClient, context, "https://www.zhihu.com/captcha.gif?type=login" );//肉眼识别验证码 formParams.add( new BasicNameValuePair( "captcha" , yzm)); formParams.add( new BasicNameValuePair( "_xsrf" , "" )); //这个参数可以不用 formParams.add( new BasicNameValuePair( "email" , "邮箱" )); formParams.add( new BasicNameValuePair( "password" , "密码" )); formParams.add( new BasicNameValuePair( "remember_me" , "true" )); UrlEncodedFormEntity entity = null ; try { entity = new UrlEncodedFormEntity(formParams, "utf-8" ); } catch (UnsupportedEncodingException e) { e.printStackTrace(); } request.setEntity(entity); loginState = HttpClientUtil.getWebPage(httpClient,context, request, "utf-8" , false ); //登录 JSONObject jo = new JSONObject(loginState); if (jo.get( "r" ).toString().equals( "0" )){ System.out.println( "登录成功" ); getRequest = new HttpGet( "https://www.zhihu.com" ); HttpClientUtil.getWebPage(httpClient,context ,getRequest, "utf-8" , false ); //访问首页 HttpClientUtil.serializeObject(context.getCookieStore(), "resources/zhihucookies" ); //序列化知乎Cookies,下次登录直接通过该cookies登录 return true ; } else { System.out.println( "登录失败" + loginState); return false ; } } /** * 肉眼识别验证码 * @param httpClient Http客户端 * @param context Http上下文 * @param url 验证码地址 * @return */ public String yzm(CloseableHttpClient httpClient,HttpClientContext context, String url){ HttpClientUtil.downloadFile(httpClient, context, url, "d:/test/" , "1.gif" , true ); Scanner sc = new Scanner(System.in); String yzm = sc.nextLine(); return yzm; } |
效果图:
以上就是本文的全部内容,希望对大家的学习有所帮助。