您当前的位置: 首页 >  机器学习

凌云时刻

暂无认证

  • 0浏览

    0关注

    1437博文

    0收益

  • 0浏览

    0点赞

    0打赏

    0留言

私信
关注
热门博文

机器学习笔记(二十一):决策边界

凌云时刻 发布时间:2020-07-13 18:30:00 ,浏览量:0

凌云时刻 · 技术

导读:决策边界顾名思义就是需要分类的数据中,区分不同类别的边界,举个不恰当的例子,就像省的地界一样,你处在北京还是处在河北,全看你站在区分北京和河北的那条线的哪边。这节我们来看看使用逻辑回归算法如何绘制鸢尾花前两个分类的决策边界。

作者 | 计缘

来源 | 凌云时刻(微信号:linuxpk)

决策边界

 线性决策边界

再来回顾一下逻辑回归,我们需要找到一‍‍组   值,让这‍‍组   和训‍‍‍‍练数据相乘,然后代入Sigmoid函数,求出某个类别的概率,并且假设,当概率大于等于0.5时,分类为1,当概率小于0.5时,分类为0:

   

   

在Sigmoid函数那节解释过,‍‍当   时‍‍,   ‍‍。当‍‍   时,‍‍   ‍‍,因为‍‍   ‍‍,所以:‍‍

   

那么‍‍当   时‍‍,理论‍‍上   ‍‍就是0.5,分类既可以为0,也可以为1。只不过我们在这里将   是,分类假设为1。由此可见‍‍   就‍‍是逻辑回归中的决策边界,并且是线性决策边界。

下面来解释一下为何说是线性决策边界。我们以前两个分类的鸢尾花为例,将‍‍   ‍‍展开得:

   

‍‍‍‍‍‍‍‍‍‍   就是截距,   和‍‍   ‍‍是‍‍‍‍‍‍‍‍‍‍‍‍系数,这个公式绘制出来的是一条直线,这条直线就是能将鸢尾花数据的前两个分类区分开的直线,既线性决策边界。为了能方便的将这条直线绘制出来,我们对上面的公式做一下转换:

   

下面我们在Jupyter Notebook中绘制出来看看:

  

import numpy as np
import matplotlib.pyplot as plt
from sklearn import datasets

# 还是使用鸢尾花的前两个类型的前两个特征
iris = datasets.load_iris()

X = iris.data
y = iris.target

X = X[y            
关注
打赏
1663816507
查看更多评论
0.1685s