ML Lecture 5: Logistic Regression
一樣走機器學習三步驟,以下逐一探討
根據前面的結果,我們知道,我們目標是要找到 Posterior Probability。若機率模型使用 Gaussian 的話,Posterior Probability化簡之後可以得到 P(C₁|x) = σ(z) = σ(wx+b) 。其中w是一個 vector
其實不只Gaussian才可以,很多model化簡之後都會長這樣
function set 如下:
$$ f_{w,b}(x)=P_{w,b}(C_1|x)\\[6pt]=\sigma(z)=\sigma(w{\cdot}x+b) $$
f 下標 w, b 代表 f 被w, b控制,不同的w, b 可以得到不同的function,集合起來就是這個 function set
把這個式子圖像化的話,就會像這樣:
這件事就叫做 Logistic Regression
比較一下 Logistic Regression 與 Linear Regression 在function set 的差別
(w下標 i) 與 (x下標 i) 表w與x這個vector內的所有元素
$$ \text{Logistic Regression}\\[10pt]f_{w,b}(x)=\sigma(\sum_i{w_ix_i+b})\\[6pt] \text{output between 0 and 1} $$
$$ \text{Linear Regression}\\[10pt]f_{w,b}(x)=\sum_i{w_ix_i+b}\\[6pt]\text{output is any value} $$