看了一堆video,终于了解了lda 的思路
用了一个generative process来求word;
然后反过来用word 来求those latent distributions. (posterior process)
开始一直没看懂,折腾了半天。
过程是
1. 看了一堆浅的video
2. 看了david blei的video - (今天早上重复看,希望看懂)
了解了符号什么的,背后思想没有了解主要一个大大误区
a. 认为generative process时,document input 已经存在(把posterior process混在一起了)
3. 后来觉得看着david blei重复的描述想看懂估计没有可能了解,于是找了另一个视屏(https://www.youtube.com/watch?v=fCmIceNqVog),还是没看懂,于是找了https://towardsdatascience.com/light-on-math-machine-learning-intuitive-guide-to-latent-dirichlet-allocation-437c81220158 这个文章。
- 把那个图打印出来,然后对着看了video v1, 然后再联合之前看到的posterior process,搞了半天,一下子通了。哦也!
结论是:
带着错误的assumption - 看不懂,在各种资料下,慢慢发现了错误的assumption, 去除了一瞬间就懂了。
===
其实看世界也一样。
人生来下带有少少assumption (e.g., 眼见为真,耳听为实)
活了30几年,好像什么都懂了,其实脑力充斥了更多地assumption (e.g., 种族文化思想所给于的三观)
要完全贯穿宇宙真理,还得要无思无念,不带任何assumption,这样宇宙真理就会赤裸裸一瞬间的把自己呈现给你。
加油~
ReplyDelete