Pytorch
今天总算了解了neural cf 的各种pytorch code - 也算pytorch 学习的小完毕。
主要了解了怎么load data, 怎么load weight, 怎么去串接个个indivudal component, 怎么去evaluate和save model。
pytorch 相比tensorflow
1. 容易debug
2. 容易parallelize
3. 容易理解
现在还差xtensorflowboard 还没看。
Paper
回过头来,测地了解以后,发现存在的一个问题是,怎么用这个了解来学习?几种可能性:
1. auto-encoder
2. word2vec style (predict 周边,然后output matrix)
neural cf 的有点是,它来帮你combine output matrix, 如果你自己来combine 有什么意思呢?
或者有没有类似topic 需要一个number output 的 ?
3. cf 和tm 的不同时: cf 一部分是已知,我们用已知来推测未知;tm都是已知的,推测的是他们的类别
4. 或者有没有 unsupervised DL来做clustering?
LDA2Vec如果用
P(word| context+document)
来表示的话,其实究根结底就是word concurrence under effect of document
那如果简单的mf,和 deep mf, 其实没什么差异。
Some pointers:
1. Twitter LDA
2. LDA with too few documents (transfer learning)
Pru -0
No comments:
Post a Comment