ML为什么要在分类中进行逻辑回归?

2021年5月4日22:56:48 发表评论 864 次浏览

使用线性回归, 所有> = 0.5的预测都可以被视为1, 而其余所有<0.5的预测都可以被视为0。但是随后出现了一个问题, 为什么不能使用它进行分类?

问题–

假设我们将邮件分类为垃圾邮件或非垃圾邮件, 并且我们的输出为ÿ, 可以是0(垃圾邮件)或1(非垃圾邮件)。在线性回归的情况下, hθ(x)可以> 1或<0。尽管我们的预测应该在0到1之间, 但是模型将预测超出范围的值, 即> 1或<0。

因此, 这就是为什么要执行"分类"任务的原因, 即逻辑/乙状结肠回归。

ML |为什么要在分类中进行逻辑回归?1
h _ {\ Theta}(x)= g(\ Theta ^ {T} x)z = \ Theta ^ {T} x g(z)= \ frac {1} {1 + e ^ {-z}}

在这里, 我们插入θŤX转化为逻辑函数, 其中θ是权重/参数, X是输入和Hθ(X)是假设函数。G()是S型函数。

h _ {\ Theta}(x)= P(y = 1 | x; \ Theta)

这意味着x参数化为时y = 1的概率θ

为了获得离散值0或1进行分类, 定义了离散边界。假设功能可以翻译为

h _ {\ Theta}(x)\ geq 0.5 \ rightarrow y = 1 h _ {\ Theta}(x)<0.5 \ rightarrow y = 0
{g(z)\ geq 0.5} \\ {\ Rightarrow \ Theta ^ {T} x \ geq 0.5} \\ {\ Rightarrow z \ geq 0.5}

决策边界是区分y = 0和y = 1区域的线。这些决策边界来自所考虑的假设函数。

通过示例了解决策边界–

让我们的假设函数为

h _ {\ Theta}(x)= g [\ Theta_ {0} + \ Theta_1x_1 + \ Theta_2x_2 + \ Theta_3x_1 ^ 2 + \ Theta_4x_2 ^ 2]

然后决策边界看起来像

ML |为什么要在分类中进行逻辑回归?2

给出权重或参数为–

\ Theta = \开始{bmatrix} -1 \\ 0 \\ 0 \\ 1 \\ 1 \ end {bmatrix}

因此, 如果y = 1

-1 + x_ {1} ^ 2 + x_ {2} ^ 2 \ geqslant 0
\ Rightarrow x_ {1} ^ 2 + x_ {2} ^ 2 \ geqslant 1

那就是半径为1且原点为中心的圆的方程。这是我们定义的假设的决策边界。

首先, 你的面试准备可通过以下方式增强你的数据结构概念:Python DS课程。


木子山

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: