BruceFan's Blog

Stay hungry, stay foolish

0%

朴素贝叶斯

基于贝叶斯决策理论的分类方法

朴素贝叶斯是贝叶斯决策理论的一部分,所以在学习朴素贝叶斯之前先了解一下贝叶斯决策理论。
假设我们有一个数据集,由两类数据组成:

两个参数已知的概率分布,参数决定了分布的形状
假设已知图中两类数据的统计参数。我们现在用p1(x, y)表示数据点(x, y)属于类别1的概率,用p2(x, y)表示数据点(x, y)数据类别2的概率,那么对于一个新数据点(x, y),可以用下面的规则判断它的类别:

  • 如果p1(x, y) > p2(x, y),那么类别为1。
  • 如果p2(x, y) > p1(x, y),那么类别为2。

我们会选择高概率对应的类别,这就是贝叶斯决策理论的核心思想,即选择具有最高概率的决策。
但这两个准则并不是贝叶斯决策理论的所有内容,p1()和p2()是为了简化描述,而真正需要比较的是$p(c_1|x, y)$和$p(c_2|x, y)$。这些符号的具体意义是:给定某个由x、y表示的数据点,那么该数据点来自类别$c_1$和$c_2$的概率。
如果已知概率$p(x, y|c_1)$,可以使用贝叶斯准则来交换概率中的条件与结果:
$$
p(c_i|x, y) = \frac{p(x, y|c_i)p(c_i)}{p(x, y)}
$$

使用朴素贝叶斯进行文档分类

朴素贝叶斯的一个假设是样本的特征之间相互独立,即一个特征或者单词出现的可能性与它和其他单词相邻没有关系。当然,这种假设不正确,这个假设正是朴素贝叶斯分类器中朴素的含义。朴素贝叶斯分类器的另一个假设是,每个特征同等重要。其实这个假设也有问题,尽管上述假设存在一些小瑕疵,但朴素贝叶斯的实际效果却很好。
现在我们要维护一个在线社区留言板,为了不影响社区的发展,我们要屏蔽侮辱性言论,对此问题建立两个类别,侮辱类和非侮辱类,使用1和0分别表示。

准备数据:从文本中构建词向量

下面我们将先建立词汇表,然后将每一篇文档转换为词汇表上的向量:
代码清单 bayes.py

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
def loadDataSet():
postingList = [['my', 'dog', 'has', 'flea', 'problems', 'help', 'please'],
['maybe', 'not', 'take', 'him', 'to', 'dog', 'park', 'stupid'],
['my', 'dalmation', 'is', 'so', 'cute', 'I', 'love', 'him'],
['stop', 'posting', 'stupid', 'worthless', 'garbage'],
['mr', 'licks', 'ate', 'my', 'steak', 'how', 'to', 'stop', 'him'],
['quit', 'buying', 'worthless', 'dog', 'food', 'stupid']] # 列表中的每个列表表示一篇文档
classVec = [0, 1, 0, 1, 0, 1] # 1表示侮辱性文字,0代表正常言论
return postingList, classVec

def createVocabList(dataSet):
vocabSet = set([])
for document in dataSet:
vocabSet = vocabSet | set(document)
# 返回不重复词列表,即词汇表
return list(vocabSet)

def setOfWords2Vec(vocabList, inputSet):
returnVec = [0]*len(vocabList) # 建立一个词汇表长度的0列表
# 将输入的文档转换为词汇表上的向量
for word in inputSet:
if word in vocabList:
returnVec[vocabList.index(word)] = 1
else: print "the word: %s is not in my Vocabulary!" % word
return returnVec

listOPosts, listClasses = loadDataSet()
myVocabList = createVocabList(listOPosts)
print myVocabList
print setOfWords2Vec(myVocabList, listOPosts[0])
1
2
3
$ python bayes.py
['cute', 'love', 'help', 'garbage', 'quit', 'I', 'problems', 'is', 'park', 'stop', 'flea', 'dalmation', 'licks', 'food', 'not', 'him', 'buying', 'posting', 'has', 'worthless', 'ate', 'to', 'maybe', 'please', 'dog', 'how', 'stupid', 'so', 'take', 'mr', 'steak', 'my']
[0, 0, 1, 0, 0, 0, 1, 0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 1, 1, 0, 0, 0, 0, 0, 0, 1]

训练算法:从词向量计算概率

重写贝叶斯准则,将之前的x、y替换为$\boldsymbol{w}$。$\boldsymbol{w}$表示一个向量,由多个数值组成,这里数值个数即词汇表中的词个数。所要求的概率即为:
$$
p(c_i|\boldsymbol{w}) = \frac{p(\boldsymbol{w}|c_i)p(c_i)}{p(\boldsymbol{w})}
$$
$p(c_i)$可以用类别i的文档数除以总的文档数求得。$p(\boldsymbol{w}|c_i)$的计算就要用到朴素贝叶斯假设了,假设所有词相互独立,将$\boldsymbol{w}$展开为一个个独立特征$p(w_0, w_1, w_2..w_n|c_i)$,它可以使用$p(w_0|c_i)p(w_1|c_i)p(w_2|c_i)…p(w_N|c_i)$来计算。
在bayes.py文件中继续添加代码:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
from numpy import *

def trainNB0(trainMatrix, trainCategory):
'''
trainMatrix: 文档转换成的词汇表向量
trainCategory: 文档的分类标签
'''
numTrainDocs = len(trainMatrix) # 文档数6
numWords = len(trainMatrix[0]) # 词汇表长度32
pAbusive = sum(trainCategory)/float(numTrainDocs) # 侮辱性文档概率0.5
p0Num = zeros(numWords); p1Num = zeros(numWords) # 分子向量
p0Denom = 0.0; p1Denom = 0.0 # 分母
for i in range(numTrainDocs):
if trainCategory[i] == 1: # 侮辱性文档
p1Num += trainMatrix[i] # 向量相加,每个词出现的次数(numpy的array加列表,自动转换为array)
p1Denom += sum(trainMatrix[i]) # 出现的所有词的个数
else:
p0Num += trainMatrix[i]
p0Denom += sum(trainMatrix[i])
p1Vect = p1Num/p1Denom # 在侮辱性文档中,每个词出现的概率
p0Vect = p0Num/p0Denom
return p0Vect, p1Vect, pAbusive

listOPosts, listClasses = loadDataSet()
myVocabList = createVocabList(listOPosts)
trainMat = []
for postinDoc in listOPosts:
trainMat.append(setOfWords2Vec(myVocabList, postinDoc))

p0V, p1V, pAb = trainNB0(trainMat, listClasses)
print p0V
print p1V
1
2
3
4
5
6
7
8
9
10
11
12
13
$ python bayes.py
[0.04166667 0.04166667 0.04166667 0. 0. 0.04166667
0.04166667 0.04166667 0. 0.04166667 0.04166667 0.04166667
0.04166667 0. 0. 0.08333333 0. 0.
0.04166667 0. 0.04166667 0.04166667 0. 0.04166667
0.04166667 0.04166667 0. 0.04166667 0. 0.04166667
0.04166667 0.125 ]
[0. 0. 0. 0.05263158 0.05263158 0.
0. 0. 0.05263158 0.05263158 0. 0.
0. 0.05263158 0.05263158 0.05263158 0.05263158 0.05263158
0. 0.10526316 0. 0.05263158 0.05263158 0.
0.10526316 0. 0.15789474 0. 0.05263158 0.
0. 0. ]

测试算法:根据现实情况修改分类器

要计算多个概率的乘积以获得文档属于某个类别的概率,即计算$p(w_0|1)p(w_1|1)p(w_2|1)…$。如果其中一个概率为0,那么最后的乘积也为0,为消除这种影响,将所有词的出现数初始化为1,并将分母初始化为2。
修改bayes.py中trainNB0():

1
2
p0Num = ones(numWords); p1Num = ones(numWords)
p0Denom = 2.0; p1Denom = 2.0

另一个遇到的问题是下溢,这是由于太多很小的数相乘造成的。当计算乘积$p(w_0|c_i)p(w_1|c_i)p(w_2|c_i)…p(w_N|c_i)$时,由于大部分因子都非常小,所以程序会下溢,一种解决办法是对乘积取自然对数。在代数中有$ln(a*b) = ln(a)+ln(b)$,修改return前的两行代码:

1
2
p1Vect = log(p1Num/p1Denom)
p0Vect = log(p0Num/p0Denom)

下面将分类函数添加到bayes.py中:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
def classifyNB(vec2Classify, p0Vec, p1Vec, pClass1):
p1 = sum(vec2Classify * p1Vec) + log(pClass1) # 向量相乘的和
p0 = sum(vec2Classify * p0Vec) + log(1.0 - pClass1)
if p1 > p0:
return 1
else:
return 0

def testingNB():
listOPosts, listClasses = loadDataSet()
myVocabList = createVocabList(listOPosts)
trainMat = []
for postinDoc in listOPosts:
trainMat.append(setOfWords2Vec(myVocabList, postinDoc))

p0V, p1V, pAb = trainNB0(trainMat, listClasses)
testEntry = ['love', 'my', 'dalmation']
thisDoc = setOfWords2Vec(myVocabList, testEntry)
print testEntry, 'classified as: ', classifyNB(thisDoc, p0V, p1V, pAb)

testEntry = ['stupid', 'garbage']
thisDoc = setOfWords2Vec(myVocabList, testEntry)
print testEntry, 'classified as: ', classifyNB(thisDoc, p0V, p1V, pAb)

testingNB()
1
2
3
$ python bayes.py
['love', 'my', 'dalmation'] classified as: 0
['stupid', 'garbage'] classified as: 1

条件概率
$$
P(A|B) = \frac{P(AB)}{P(B)}
$$
贝叶斯准则
$$
p(c|x) = \frac{p(x|c)p(c)}{p(x)}
$$
reference
《机器学习实战》