概率定义:一件事情发生的可能性
1、联合概率 包含多个条件,且所有条件同时成立的概率 记作: P ( A , B ) = P ( A ) P ( B ) P(A, B) = P(A)P(B) P(A,B)=P(A)P(B)
2、条件概率 事件A在另一个事件B已经发生的条件下发生的概率 记作: P ( A ∣ B ) P(A|B) P(A∣B) 特性: P ( A 1 , A 2 ∣ B ) = P ( A 1 ∣ B ) P ( A 2 ∣ B ) P(A1, A2|B) = P(A1|B)P(A2|B) P(A1,A2∣B)=P(A1∣B)P(A2∣B) 注意:此条件概率的成立,是由于A1,A2相互独立的结果
朴素贝叶斯特征独立
贝叶斯公式 P ( C ∣ W ) = P ( W ∣ C ) P ( C ) P ( W ) P(C|W) = \frac{P(W|C)P(C)}{P(W)} P(C∣W)=P(W)P(W∣C)P(C)
=> P ( C ∣ W ) P ( W ) = P ( W ∣ C ) P ( C ) P(C|W)P(W) = P(W|C)P(C) P(C∣W)P(W)=P(W∣C)P(C)
说明: W为给定文档的特征值(频数统计,预测文档提供) C为文档类别
公式理解为: P ( C ∣ F 1 , F 2... ) = P ( F 1 , F 2... ∣ C ) P ( C ) P ( F 1 , F 2... ) P(C|F1,F2...) = \frac{P(F1,F2...|C)P(C)}{P(F1,F2...)} P(C∣F1,F2...)=P(F1,F2...)P(F1,F2...∣C)P(C)
公式分为三个部分 P ( C ) P(C) P(C) 每个文档类别的概率(某文档类别数/总文档数量) P ( W ∣ C ) P(W|C) P(W∣C) 给定类别下特征(被预测文档中出现的词)的概率
计算方法: P ( F 1 ∣ C ) = N i / N P(F1|C) = Ni/N P(F1∣C)=Ni/N Ni 为该F1词在C类别所有文档中出现的次数 N 为所属类别C下的文档所有词出现的次数和
P(F1, F2…) 预测文档中每个词的频率
举例:训练集统计结果
特征 科技类(30) 娱乐类(60) 汇总(90)
商场 9 51 60
影院 8 56 64
支付宝 20 15 35
云计算 63 0 63
汇总 100 121 221
现有预测文档,出现词汇:影院
,支付宝
,云计算
计算属于科技,娱乐的类别概率
P(科技|影院,支付宝,云计算)
= P(影院,支付宝,云计算|科技)P(科技)
= P(影院|科技)P(支付宝|科技)P(云计算|科技)P(科技)
= (8/100)(20/100)(63/100)(30/90)
= 0.0034
P(娱乐|影院,支付宝,云计算)
= P(影院,支付宝,云计算|娱乐)P(娱乐)
= P(影院|娱乐)P(支付宝|娱乐)P(云计算|娱乐)P(娱乐)
= (56/121)(15/121)(0/121)(60/90)
= 0
娱乐的概率为0,这是不合理的
改进方法拉普拉斯平滑系数 P(F1|C) = (Ni + a)/(N + am) a为指定的系数,一般为1 m为训练文档中统计出的特征词个数 作用:防止分类概率为0
改进计算
P(科技|影院,支付宝,云计算)
= ((8+1)/(100+1*4))*((20+1)/(100+1*4))*((63+1)/(100+1*4))*(30/90)
= 0.0036
P(娱乐|影院,支付宝,云计算)
= ((56+1)/(121+1*4))*((15+1)/(121+1*4))*((0+1)/(121+1*4))*(60/90)
= 0.0003
新闻分类
20newsgroups 数据集下载地址: http://qwone.com/~jason/20Newsgroups/20news-bydate.tar.gz
如果直接拷贝pkl文件,需要注意python版本
代码示例# -*- coding: utf-8 -*-
from sklearn.datasets import fetch_20newsgroups
from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.model_selection import train_test_split
from sklearn.naive_bayes import MultinomialNB
import ssl
ssl._create_default_https_context = ssl._create_unverified_context
# 如果获取不到就下载
data = fetch_20newsgroups(subset="all")
# 数据分割
X_train, X_test, y_train, y_test = train_test_split(
data.data, data.target, test_size=0.33, random_state=42
)
# 特征抽取
tfidf = TfidfVectorizer()
# 以训练集中的词列表对每篇文章做重要性统计
X_train = tfidf.fit_transform(X_train)
print(tfidf.get_feature_names())
X_test = tfidf.transform(X_test)
# 朴素贝叶斯算法预测,alpha是拉普拉斯平滑系数
mlt = MultinomialNB(alpha=1.0)
mlt.fit(X_train, y_train)
score = mlt.score(X_test, y_test)
print("socre: {}".format(score))
# socre: 0.83
特点: 训练误差大,结果肯定不好 不需要调参
优点: 1、朴素贝叶斯模型发源于古典数学理论,有稳定的分类效率 2、对缺失数据不太敏感,算法也比较简单,常用于文本分类 3、分类准确度高,速度快
缺点: 假设文章中一些词语和另一些词语是独立关系,不太靠谱 由于使用了样本属性独立性的假设,所以样本属性有关联时,效果不好 训练集中进行统计词,会对结果造成干扰
文本分类 -朴素贝叶斯 -神经网络(效果更好)