Meta Learning - Gradient Descent as LSTM (1/3)
這邊我們希望把熟悉的gradient descent當作一個LSTM,也就是說,LSTM train下去,就可以得到gradient descent algorithm
前面已經提過使用MAML或Reptile來學出初始的參數$\phi$,這邊想要更近一步
其實這整個gradient descent algorithm可以看成一個RNN
這部分可以參考RNN筆記
有一個function $f$ 輸入h, x 輸出 h', y:$f(h,x)=h',y$
每一個timestamp都有一個x作為input,舉例來說一個sequence、一個詞彙等等