ML Lecture 16: Unsupervised Learning - Auto-encoder



Auto-encoder的想法:

Recap PCA

這邊複習一下PCA:

PCA先有一個input $x$,乘上一個$W$,得到component $c$,乘上$W^T$得到 $\hat x$

minimize input跟reconstructure的結果,也就是讓 $x$ 與 $\hat x$ 越接近越好

如果看成NN,就是一個 input layer 一個 hidden layer (PCA中是linear) 與一個 output layer

這個hidden layer又稱bottleneck ,因為通常input跟output維度都很大,為了降維,這層的維度通常會小很多, 就像一個瓶口這樣

如果把component想成code的話,前面就是在做encode,後面就是在做decode,hidden layer output就是要找的code

PCA只有一層,但auto-encoder可以很deep