首先看一下来自Wolfram的定义
马尔可夫链是随机变量{X_t}的集合(t贯穿0,1,...),给定当前的状态,未来与过去条件独立。
Wikipedia的定义更清楚一点儿
...马尔可夫链是具有马尔可夫性质的随机过程...[这意味着]状态改变是概率性的,未来的状态仅仅依赖当前的状态。
马尔可夫链具有多种用途,现在让我看一下如何用它生产看起来像模像样的胡言乱语。
算法如下,
- 找一个作为语料库的文本,语料库用于选择接下来的转换。
- 从文本中两个连续的单词开始,最后的两个单词构成当前状态。
- 生成下一个单词的过程就是马尔可夫转换。为了生成下一个单词,首先查看语料库,查找这两个单词之后跟着的单词。从它们中随机选择一个。
- 重复2,直到生成的文本达到需要的大小。
代码如下
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
|
import random class Markov( object ): def __init__( self , open_file): self .cache = {} self .open_file = open_file self .words = self .file_to_words() self .word_size = len ( self .words) self .database() def file_to_words( self ): self .open_file.seek( 0 ) data = self .open_file.read() words = data.split() return words def triples( self ): """ Generates triples from the given data string. So if our string were "What a lovely day", we'd generate (What, a, lovely) and then (a, lovely, day). """ if len ( self .words) < 3 : return for i in range ( len ( self .words) - 2 ): yield ( self .words[i], self .words[i + 1 ], self .words[i + 2 ]) def database( self ): for w1, w2, w3 in self .triples(): key = (w1, w2) if key in self .cache: self .cache[key].append(w3) else : self .cache[key] = [w3] def generate_markov_text( self , size = 25 ): seed = random.randint( 0 , self .word_size - 3 ) seed_word, next_word = self .words[seed], self .words[seed + 1 ] w1, w2 = seed_word, next_word gen_words = [] for i in xrange (size): gen_words.append(w1) w1, w2 = w2, random.choice( self .cache[(w1, w2)]) gen_words.append(w2) return ' ' .join(gen_words) |
为了看到一个示例结果,我们从古腾堡计划中拿了沃德豪斯的《My man jeeves》作为文本,示例结果如下。
1
2
3
4
5
6
7
8
9
10
|
In [ 1 ]: file_ = open ( '/home/shabda/jeeves.txt' ) In [ 2 ]: import markovgen In [ 3 ]: markov = markovgen.Markov(file_) In [ 4 ]: markov.generate_markov_text() Out[ 4 ]: 'Can you put a few years of your twin - brother Alfred, who was apt to rally round a bit. I should strongly advocate the blue with milk' |
[如果想执行这个例子,请下载jeeves.txt和markovgen.py
马尔可夫算法怎样呢?
- 最后两个单词是当前状态。
- 接下来的单词仅仅依赖最后两个单词,也就是当前状态。
- 接下来的单词是从语料库的统计模型中随机选择的。
这是一个示例文本。
这个文本对应的语料库像这样,
1
2
3
4
5
6
7
8
9
10
11
|
{( 'The' , 'quick' ): [ 'brown' ], ( 'brown' , 'fox' ): [ 'jumps' , 'who' , 'who' ], ( 'fox' , 'jumps' ): [ 'over' ], ( 'fox' , 'who' ): [ 'is' , 'is' ], ( 'is' , 'slow' ): [ 'jumps' ], ( 'jumps' , 'over' ): [ 'the' , 'the' ], ( 'over' , 'the' ): [ 'brown' , 'brown' ], ( 'quick' , 'brown' ): [ 'fox' ], ( 'slow' , 'jumps' ): [ 'over' ], ( 'the' , 'brown' ): [ 'fox' , 'fox' ], ( 'who' , 'is' ): [ 'slow' , 'dead.' ]} |
现在如果我们从"brown fox"开始,接下来的单词可以是"jumps"或者"who"。如果我们选择"jumps",然后当前的状态就变成了"fox jumps",再接下的单词就是"over",之后依此类推。
提示
- 我们选择的文本越大,每次转换的选择更多,生成的文本更好看。
- 状态可以设置为依赖一个单词、两个单词或者任意数量的单词。随着每个状态的单词数的增加,生成的文本更不随机。
- 不要去掉标点符号等。它们会使语料库更具代表性,随机文本更好看。