GAN Lecture 9 (2018): Sequence Generation
這裡會提到兩個部分:(此處連結皆為本頁內部連結)
只要是要產生一個sequence的task,都算是conditional sequence generation
例如:語音辨識、翻譯、chatbot,如右圖
這些task都可以用seq2seq來做,這邊介紹如何用GAN來做seq2seq model
以chatbot為例,generator中有一個encoder與一個deconder
how are you
I'm good
搜集許多對話的data,然後訓練generator,給他一句話,要他吐出的話與對話越進越好
可以使用maximize likelihood (minimize loss)來train