ML Lecture 5: Logistic Regression



Logistic Regression

一樣走機器學習三步驟,以下逐一探討

Step1. Function Set

根據前面的結果,我們知道,我們目標是要找到 Posterior Probability。若機率模型使用 Gaussian 的話,Posterior Probability化簡之後可以得到 P(C₁|x) = σ(z) = σ(wx+b) 。其中w是一個 vector

其實不只Gaussian才可以,很多model化簡之後都會長這樣

function set 如下:

$$ f_{w,b}(x)=P_{w,b}(C_1|x)\\[6pt]=\sigma(z)=\sigma(w{\cdot}x+b) $$

f 下標 w, b 代表 f 被w, b控制,不同的w, b 可以得到不同的function,集合起來就是這個 function set

把這個式子圖像化的話,就會像這樣:

這件事就叫做 Logistic Regression

比較一下 Logistic Regression 與 Linear Regression 在function set 的差別

(w下標 i) 與 (x下標 i) 表w與x這個vector內的所有元素

$$ \text{Logistic Regression}\\[10pt]f_{w,b}(x)=\sigma(\sum_i{w_ix_i+b})\\[6pt] \text{output between 0 and 1} $$

$$ \text{Linear Regression}\\[10pt]f_{w,b}(x)=\sum_i{w_ix_i+b}\\[6pt]\text{output is any value} $$