Thursday, July 4, 2019

pytorch 了解完毕

Pytorch
今天总算了解了neural cf 的各种pytorch code - 也算pytorch 学习的小完毕。
主要了解了怎么load data, 怎么load weight, 怎么去串接个个indivudal component, 怎么去evaluate和save model。

pytorch 相比tensorflow
1. 容易debug
2. 容易parallelize
3. 容易理解

现在还差xtensorflowboard 还没看。


Paper
回过头来,测地了解以后,发现存在的一个问题是,怎么用这个了解来学习?几种可能性:
1. auto-encoder
2. word2vec style (predict 周边,然后output matrix)
neural cf 的有点是,它来帮你combine output matrix, 如果你自己来combine 有什么意思呢?
或者有没有类似topic 需要一个number output 的 ?
3. cf 和tm 的不同时: cf 一部分是已知,我们用已知来推测未知;tm都是已知的,推测的是他们的类别
4. 或者有没有 unsupervised DL来做clustering? 

LDA2Vec如果用
P(word| context+document)
来表示的话,其实究根结底就是word concurrence under effect of document
那如果简单的mf,和 deep mf, 其实没什么差异。  

Some pointers:
1. Twitter LDA 
2. LDA with too few documents (transfer learning)


Pru -0

No comments:

Post a Comment