目标
最近实验室里成立了一个计算机兴趣小组
倡议大家多把自己解决问题的经验记录并分享
就像在csdn写博客一样
虽然刚刚起步
但考虑到后面此类经验记录的资料会越来越多
所以一开始就要做好模板设计(如下所示)
方便后面建立电子数据库
从而使得其他人可以迅速地搜索到相关记录
据说“人生苦短,我用python”
所以决定用python从docx文档中提取文件头的信息
然后把信息更新到一个xls电子表格中,像下面这样(直接po结果好了)
而且点击文件路径可以直接打开对应的文件(含超链接)
代码实现
1. 采集docx里面文件头信息
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
|
# -*- coding:utf-8 -*- # 此程序可扫描log中的docx文件并返回基本信息 word">import docx from docx import document test_d = '../log/sublime搭建python的集成开发环境.docx' def docxinfo(addr): document = document(addr) info = { 'title' :[], 'keywords' :[], 'author' :[], 'date' :[], 'question' :[]} lines = [ 0 for i in range ( len (document.paragraphs))] k = 0 for paragraph in document.paragraphs: lines[k] = paragraph.text k = k + 1 index = [ 0 for i in range ( 5 )] k = 0 for line in lines: if line.startswith( '标题' ): index[ 0 ] = k if line.startswith( '关键词' ): index[ 1 ] = k if line.startswith( '作者' ): index[ 2 ] = k if line.startswith( '日期' ): index[ 3 ] = k if line.startswith( '问题描述' ): index[ 4 ] = k k = k + 1 info[ 'title' ] = lines[index[ 0 ] + 1 ] keywords = [] for line in lines[index[ 1 ] + 1 :index[ 2 ]]: keywords.append(line) info[ 'keywords' ] = keywords info[ 'author' ] = lines[index[ 2 ] + 1 ] info[ 'date' ] = lines[index[ 3 ] + 1 ] info[ 'question' ] = lines[index[ 4 ] + 1 ] return info if __name__ = = '__main__' : print (docxinfo(test_d)) |
2. 遍历log文件夹,进行信息更新
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
|
# -*- coding:utf-8 -*- # 此程序可以批量扫描log中的文件,如果碰到docx文档, # 则调用readfile()提取文档信息,并将信息保存到digger # 日志列表.xls之中,方便后期快速检索 import os,datetime import time import xlrd from xlrd import xldate_as_tuple import xlwt from readfile import docxinfo from xlutils.copy import copy # 打开日志列表读取最近一条记录的更新日期 memo_d = '../log/digger日志列表.xls' sheet0 = memo.sheet_by_index( 0 ) #读取第1张表 memo_date = sheet0.col_values( 5 ) #读取第5列 memo_n = len (memo_date) #去掉标题 if memo_n> 0 : xlsx_date = memo_date[memo_n - 1 ] #读取最后一条记录的日期, latest_date = sheet0.cell_value(memo_n - 1 , 5 ) # 返回时间戳 # 新建一个xlsx memo_new = copy(memo) sheet1 = memo_new.get_sheet( 0 ) # 重建超链接 hyperlinks = sheet0.col_values( 6 ) # xlrd读取的也是text,造成超链接丢失 k = 1 n_hyperlink = len (hyperlinks) for k in range (n_hyperlink): link = 'hyperlink("%s";"%s")' % (hyperlinks[k],hyperlinks[k]) sheet1.write(k, 6 ,xlwt.formula(link)) k = k + 1 # 判断文件后缀 def endwith(s, * endstring): array = map (s.endswith,endstring) if true in array: return true else : return false # 遍历log文件夹并进行查询 log_d = '../log' logfiles = os.listdir(log_d) for file in logfiles: if endwith( file , '.docx' ): timestamp = os.path.getmtime(log_d + '/' + file ) if timestamp>latest_date: info = docxinfo(log_d + '/' + file ) sheet1.write(memo_n, 0 ,info[ 'title' ]) keywords_text = ',' .join(info[ 'keywords' ]) sheet1.write(memo_n, 1 ,keywords_text) sheet1.write(memo_n, 2 ,info[ 'author' ]) sheet1.write(memo_n, 3 ,info[ 'date' ]) sheet1.write(memo_n, 4 ,info[ 'question' ]) #获取当前时间 time_now = time.time() #浮点值,精确到毫秒 sheet1.write(memo_n, 5 , time_now) link = 'hyperlink("%s";"%s")' % ( file , file ) sheet1.write(memo_n, 6 ,xlwt.formula(link)) memo_n = memo_n + 1 os.remove(memo_d) memo_new.save(memo_d) print ( 'memo was updated!' ) |
其实还有一些操作电子表格更好的模块,比如panda、xlsxwriter、openpyxl等。不过上述代码已经基本能实现功能,而且科研狗毕竟没那么多时间写代码做调试,所以后面有空再update吧!
致谢
在此过程中大量借鉴了csdn论坛中各位大神的各种经验!!!
以上这篇使用python批量读取word文档并整理关键信息到excel表格的实例就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持服务器之家。
原文链接:https://blog.csdn.net/sheldonxxd/article/details/80544831