LKY
策略篇
First principal/Context Analysis - 李光耀说民主对亚洲国家不是最佳的,姑且不论对否,我感觉他有个本事,就是不看现在的表象,而是深入到事情的本质 - 不随大流,就相信自己的分析。
比如美国,在1997年的时候,一片大兴,但那个时候LKY说民主不适合每个国家。
其实现在看起来,如果相比的是美国和国内的政策,国内的政策是比较有助于发展和竞争的,只是起步晚-但是速度快。不过这并不能说明民主好还是不好,就是说明现况。
美国的昌盛,其实有缘于世界大战的兴起,和背后对的发展。但是是民主导致兴盛,还是反之? 其实都有可能。民住需要选民有很大政治觉悟。民主并不是必要和充分的条件,必须因时,因地,因人而定。
说民主适合所有的国家,那不见得。可能民主有利于大国控制小国,所以才被大国鼓吹。
所以context analysis, 然后对症下药很重要。
LKY 就有这种看清事实,不被表象迷惑的本事。
另,在策略上,他会事先想好可能出现的情况,然后来招出其不意。
比如说他把changi airport罢工的人很轻松的叫去,其实他事先已经把这些人研究透彻,会上严厉的责问他们各种问题,威逼利诱,把这些人心防彻底打败。
人品篇
勇敢 -而且他还有个本事,就是相当勇敢 - 从来不在困难面前屈服,用智慧跨过去;关键时候,就会快速下决定行动 - 他甚至对吴总理拖延对9位共产党分子逮捕而责备他。
当年CIA的卧底在新加坡潜伏,把发现后美国否认,他笑说美国竟然deny the undeniable,威胁说如果不道歉就把所有证据拿出来。而且他对轻蔑的美国记者也是重拳回应的 - 对于一群美国记者,他的回答是一贯aggressive的,如果他发现问题里隐藏了炸弹,他会毫不留情的把炸弹丢回给你。
对于属下要求严格,也是他的一大强项,大家都怕他。
话又说回来,美国还需要靠的- LKY是怎么去拿捏得?这一点他的立场是,欢迎美国近来,但是不做美国的傀儡,一切从新加坡利益下手。不过话说回来,菲律宾,马来西亚,都是以这种即谴责又欢迎合作的态度,估计是一种外交战略。
而且他也不在意别人怎么说,他更在意怎么把事情做对。
其实我有很大的一部分看事情的智慧也是从他身上学习的。
责任感 - 而且非常有责任感,和一般政客不同,说到也做到。
自信 - 对自己有着很大的信心。
自律
没有被权力冲昏了脑
没有任何政治献金的问题
生活上也是自律
说了小国需要的是自律,不是民主
说话篇
他很会说故事,而且说话的时候铿锵有力,清晰,条理重点分明,声音底蕴很好,用词遣字恰到好处。
给他一个问题,他能能够说上20分钟,大家也会非常注意他在说什么。
说话方面确实是一流。
Dempsey Hill
这个地方挺好 又去了pscafe。
偶尔去松懈松懈挺好。
我这人有点环境控。
Four Question
1. NCF training:
- One user, one item train one result
2. What is topic occurence
- Cocurrence of words in artcles
3. lda2vec
- Adding document vector as part of the context vector to train
- how to get the final outcome? (on topic in words and documents)
4. what about clustering on work2vec
- It is not aware of the context (document)
Coding
In the process of lda+nmf results
use the same input for the research outcome tmr
Lao ban
Answer using kpi
Question
1. Paper - preparing something on nlu
2. Talk - scheduling
3. The NLU project, can it be past?
4. Mentoring - Randy
Need to focus on paper writing
Paper - lda and nmf initial setup, four question almost address
Pru - 0
Sunday, June 30, 2019
烈焰bbq 及 pytorch 初学
- 今天烈焰下bbq,太有意思,喝了三种烈酒,脑袋有点小星星,后来就学习pytorch了,貌似没有影响。后面后脑袋瓜有点疼,不晓得和饮酒有点关系不。
- 今天走走 发现家附近有人每天定时跳广场舞 于是乎可以让岳母参与。
- company 的话昨天file 了没交cpf, 看看什么回应
- Pytorch 今天学起来了。基本概念就是
1. 向前
y_pred=model.forward(X)
2. 计算loss
loss=criterion(y,y_pred)
3. 往后 (clear/calculate gradient)
optimizer.zero_grad() or model.zero_grad()/loss.backward()
4. Update Param
optimizer.step()
接着开始了text analytics:
里头有field 的概念,需要看懂 - 另,只看了一章。。把一章看懂后还要把剩下的看懂。
懂了pytorch后就方便多了。
Paper - 学习pytorch
Pru - 0
- 今天走走 发现家附近有人每天定时跳广场舞 于是乎可以让岳母参与。
- company 的话昨天file 了没交cpf, 看看什么回应
- Pytorch 今天学起来了。基本概念就是
1. 向前
y_pred=model.forward(X)
2. 计算loss
loss=criterion(y,y_pred)
3. 往后 (clear/calculate gradient)
optimizer.zero_grad() or model.zero_grad()/loss.backward()
4. Update Param
optimizer.step()
接着开始了text analytics:
里头有field 的概念,需要看懂 - 另,只看了一章。。把一章看懂后还要把剩下的看懂。
懂了pytorch后就方便多了。
Paper - 学习pytorch
Pru - 0
Friday, June 28, 2019
新想法
目前有两个新想法比较清晰的呈现了。
决定先一个一个的实验。
现在的有一个关键步骤:
1. pytorch学会;
2. 搭起framework 看结果如何。
另外 发现了一下比较好的video lecture 网站,决定坚持天天一小时观看。
这样,看电视也能学习该学习的。
Paper - 新想法,pytorch学习中.
Pru - 整理昨天学习到的
决定先一个一个的实验。
现在的有一个关键步骤:
1. pytorch学会;
2. 搭起framework 看结果如何。
另外 发现了一下比较好的video lecture 网站,决定坚持天天一小时观看。
这样,看电视也能学习该学习的。
Paper - 新想法,pytorch学习中.
Pru - 整理昨天学习到的
Thursday, June 27, 2019
今天总结
今天总的来说还是有些比较好的进展的。明天就是idea creation time。
Paper - 了解了lda, 主要问题这个和cf还是有点不同的。不过我有些盲目的信心应该可以搞点什么。明天看看那些疑惑的地方,就会有些眉目了。合作的话,决定先不找人,等到搞得差不多了,再去寻觅。
Pru - Cognos analytics talk 听了下,原来ibm 也有像tableau 这样的tool -在这点上ibm这种主攻enterprise的策略相形见绌,很容易被竞争对手超越。现在的business model 都是大部分free, education free, 各种免费来吸引用户好感,争取用户的支持。randy愿意当mentee,这个坎解决了。Trello看了下,没发现太多新东西。Pru的进展问了下,貌似还在negotiate。现在还差一个talk,需要去寻觅。
Paper - 了解了lda, 主要问题这个和cf还是有点不同的。不过我有些盲目的信心应该可以搞点什么。明天看看那些疑惑的地方,就会有些眉目了。合作的话,决定先不找人,等到搞得差不多了,再去寻觅。
Pru - Cognos analytics talk 听了下,原来ibm 也有像tableau 这样的tool -在这点上ibm这种主攻enterprise的策略相形见绌,很容易被竞争对手超越。现在的business model 都是大部分free, education free, 各种免费来吸引用户好感,争取用户的支持。randy愿意当mentee,这个坎解决了。Trello看了下,没发现太多新东西。Pru的进展问了下,貌似还在negotiate。现在还差一个talk,需要去寻觅。
需要的只是简单的optimization
另,任何行动,都要提前计划。各种可能出现的变卦,和应对情况都要想好。不要担心politics, 出现之后,你就必须要有应变计划,多想几步,多排除些概率低的,把他变成一个即简单又完善的计划。
情绪会把事情变得很复杂,如果不夹杂各种复杂的情绪,这世界就是简单的optimization, 你的计划也会看起来无比简单。
情绪会把事情变得很复杂,如果不夹杂各种复杂的情绪,这世界就是简单的optimization, 你的计划也会看起来无比简单。
看破不说破 和 context analysis
看破不说破
发现自己虽然对人观察力挺强的,发现别人没兴趣以后,总想要听见一句拒绝。
这其实是一个不太好的缺点。
创业上,这样能挖到好人才。
研究上,除了忽悠phd学生,两厢情愿的贡献,最好不要走到最后一步,发现别人没兴趣,就要识趣了。毕竟一起搞研究是要两股热情。
这真是大盲点,犯了这种错误好几年,今天总算认识到了。
我觉得大盲点的错误assumption是,别人靠死皮赖脸找对人创业,我能照搬,但是没有发现情况不一样。
context 的分析非常重要。当年如果李光耀照搬两党自由政府,新加坡估计没有今天。李光耀是context analysis的榜样。
发现自己虽然对人观察力挺强的,发现别人没兴趣以后,总想要听见一句拒绝。
这其实是一个不太好的缺点。
创业上,这样能挖到好人才。
研究上,除了忽悠phd学生,两厢情愿的贡献,最好不要走到最后一步,发现别人没兴趣,就要识趣了。毕竟一起搞研究是要两股热情。
这真是大盲点,犯了这种错误好几年,今天总算认识到了。
我觉得大盲点的错误assumption是,别人靠死皮赖脸找对人创业,我能照搬,但是没有发现情况不一样。
context 的分析非常重要。当年如果李光耀照搬两党自由政府,新加坡估计没有今天。李光耀是context analysis的榜样。
LDA and Work
到这里有几个问题需要搞清楚
a. nmf - 这个怎么用?X Y 轴是什么东西呢?和lda 有什么关系?
b. LDA 的三维图像代表的是什么
c. neuro network 里target 要怎么optimize?
- Auto-encoder?
这些之后
how to code in pytorch and tensorflow
Pru
mentor (ask Randy - done)
talk (need to find 1)
2 projects (NLU and Elastic Search) - to be confirmed
OCR/anomaly - to be built
spark/kubernete
a. nmf - 这个怎么用?X Y 轴是什么东西呢?和lda 有什么关系?
b. LDA 的三维图像代表的是什么
c. neuro network 里target 要怎么optimize?
- Auto-encoder?
这些之后
how to code in pytorch and tensorflow
Pru
mentor (ask Randy - done)
talk (need to find 1)
2 projects (NLU and Elastic Search) - to be confirmed
OCR/anomaly - to be built
spark/kubernete
了解了LDA
看了一堆video,终于了解了lda 的思路
用了一个generative process来求word;
然后反过来用word 来求those latent distributions. (posterior process)
开始一直没看懂,折腾了半天。
过程是
1. 看了一堆浅的video
2. 看了david blei的video - (今天早上重复看,希望看懂)
了解了符号什么的,背后思想没有了解主要一个大大误区
a. 认为generative process时,document input 已经存在(把posterior process混在一起了)
3. 后来觉得看着david blei重复的描述想看懂估计没有可能了解,于是找了另一个视屏(https://www.youtube.com/watch?v=fCmIceNqVog),还是没看懂,于是找了https://towardsdatascience.com/light-on-math-machine-learning-intuitive-guide-to-latent-dirichlet-allocation-437c81220158 这个文章。
- 把那个图打印出来,然后对着看了video v1, 然后再联合之前看到的posterior process,搞了半天,一下子通了。哦也!
结论是:
带着错误的assumption - 看不懂,在各种资料下,慢慢发现了错误的assumption, 去除了一瞬间就懂了。
===
其实看世界也一样。
人生来下带有少少assumption (e.g., 眼见为真,耳听为实)
活了30几年,好像什么都懂了,其实脑力充斥了更多地assumption (e.g., 种族文化思想所给于的三观)
要完全贯穿宇宙真理,还得要无思无念,不带任何assumption,这样宇宙真理就会赤裸裸一瞬间的把自己呈现给你。
用了一个generative process来求word;
然后反过来用word 来求those latent distributions. (posterior process)
开始一直没看懂,折腾了半天。
过程是
1. 看了一堆浅的video
2. 看了david blei的video - (今天早上重复看,希望看懂)
了解了符号什么的,背后思想没有了解主要一个大大误区
a. 认为generative process时,document input 已经存在(把posterior process混在一起了)
3. 后来觉得看着david blei重复的描述想看懂估计没有可能了解,于是找了另一个视屏(https://www.youtube.com/watch?v=fCmIceNqVog),还是没看懂,于是找了https://towardsdatascience.com/light-on-math-machine-learning-intuitive-guide-to-latent-dirichlet-allocation-437c81220158 这个文章。
- 把那个图打印出来,然后对着看了video v1, 然后再联合之前看到的posterior process,搞了半天,一下子通了。哦也!
结论是:
带着错误的assumption - 看不懂,在各种资料下,慢慢发现了错误的assumption, 去除了一瞬间就懂了。
===
其实看世界也一样。
人生来下带有少少assumption (e.g., 眼见为真,耳听为实)
活了30几年,好像什么都懂了,其实脑力充斥了更多地assumption (e.g., 种族文化思想所给于的三观)
要完全贯穿宇宙真理,还得要无思无念,不带任何assumption,这样宇宙真理就会赤裸裸一瞬间的把自己呈现给你。
Wednesday, June 26, 2019
LDA(半)深究
看了下LDA
本来是知道个大概,今天深入的看了一部分,还没完全搞懂。
基本他是由几个conditional probability 合起来
但是要对这个conditional probability 求解不容易
于是需要用到Gibb Sampling
另LDA 用途很广,图像什么也用到。
这东西有意思。
明天继续看。
Paper - Pivoting to topic modeling related
Pru - 0
Talk -
1. Think before speak, give good connection
2. Resort to emotion/entertainment/story telling
本来是知道个大概,今天深入的看了一部分,还没完全搞懂。
基本他是由几个conditional probability 合起来
但是要对这个conditional probability 求解不容易
于是需要用到Gibb Sampling
另LDA 用途很广,图像什么也用到。
这东西有意思。
明天继续看。
Paper - Pivoting to topic modeling related
Pru - 0
Talk -
1. Think before speak, give good connection
2. Resort to emotion/entertainment/story telling
暂时决定
暂时决定nlu就搞
Text mining/Topic Modeling
喜欢的原因是帮助我们过滤一些没用的, 按topic寻找自己想看的。
有点被watson的text mining启发
结果还能用在watson 这是挺好的
下面要做的就是survey
1. LDA, NMF, 等等最先进的work
另一个喜爱的topic
Programming by Example
以后看看有没有可能联系上
Text mining/Topic Modeling
喜欢的原因是帮助我们过滤一些没用的, 按topic寻找自己想看的。
有点被watson的text mining启发
结果还能用在watson 这是挺好的
下面要做的就是survey
1. LDA, NMF, 等等最先进的work
另一个喜爱的topic
Programming by Example
以后看看有没有可能联系上
Tuesday, June 25, 2019
financial driven research 可行吗?
1. 我感觉financial 是个无底洞,可以学个不停,然后什么成果也没有。
2. 寻找exotic/new way of market to throw money in, 这也不失为好方法, alpha 不只存在stock 里
3. 写nlu paper 也需要alpha - 但是需要一个bigger picture how to fit everything in with financial
4. 有没有可能有个什么automated 的alpha finding 方法呢?
5. 什么是alpha?
a. 两家售价差
b. 你有paper别人没有
c. 组丝马迹 -> 结果a, 守在结果a
d. 群众的痛点,市场的需要
e. research paper 里的 future work
f. 积攒福分 (本)
我的直觉是financial 会做不出来;
找个nlu的简易alpha+课程搞下可能靠谱一点,而且scalable。
再继续pivoting,找个自己熟悉的来弄下。
2. 寻找exotic/new way of market to throw money in, 这也不失为好方法, alpha 不只存在stock 里
3. 写nlu paper 也需要alpha - 但是需要一个bigger picture how to fit everything in with financial
4. 有没有可能有个什么automated 的alpha finding 方法呢?
5. 什么是alpha?
a. 两家售价差
b. 你有paper别人没有
c. 组丝马迹 -> 结果a, 守在结果a
d. 群众的痛点,市场的需要
e. research paper 里的 future work
f. 积攒福分 (本)
我的直觉是financial 会做不出来;
找个nlu的简易alpha+课程搞下可能靠谱一点,而且scalable。
再继续pivoting,找个自己熟悉的来弄下。
尊重个人 + 学习finance
- LY说澳洲教育强调尊重个人,我觉得这个很好,以后自己的思维也要有这种优良意识,尊重个人的自由意志.
- finance我感觉是个无底洞,想学的话需要找个fintech好点,自学的话需要大量simplify.
pru-0
paper - 看了一下finance尖端,发现真正的predicting不是curve fitting,
1. creative feature:
而是利用当时的economic indicator, 和对company的各种创意observant
a. coffee company - 可以看各国天气状态
b. service company - 可以看credit card 记录,或者各大网站sentiment
c. shipping company - 可以看deck的高度
这里nlu 和visual 都用上了
2. pair trading
利用statistical arbitrage 等用各种pair trading 来hedge 风险,这些pair 需要有cointegration, 就是想同类型(same industry, same size, 像credit card he master card)
3. new/exotic market
alpha is not well explored yet, 但是我的经验是大部分是骗人的。
4. expectation
公司的sales, lower than expectation, 会影响股市
另外 python 上
1. draw reverse chart
plt.plot(stockA['adj_close'])
plt.gca().invert_xaxis()
2. cointegration test
import statsmodels # More info: https://www.statsmodels.org/stable/tsa.html#tsa-tools
from statsmodels.tsa.stattools import coint
#TDL4: Run Cointegration Test on Your 2 stocks
score, pvalue, _ = coint(stockA['adj_close'],stockB['adj_close']) #TDL4
print(pvalue) # the lower the better. <0.05 means the 2 stocks are statistically cointegrated.
print(_)
3. 在做pair trading 前必须normalize
Normalise the data so that the first data point is 1 (Dollar hedging)
- finance我感觉是个无底洞,想学的话需要找个fintech好点,自学的话需要大量simplify.
pru-0
paper - 看了一下finance尖端,发现真正的predicting不是curve fitting,
1. creative feature:
而是利用当时的economic indicator, 和对company的各种创意observant
a. coffee company - 可以看各国天气状态
b. service company - 可以看credit card 记录,或者各大网站sentiment
c. shipping company - 可以看deck的高度
这里nlu 和visual 都用上了
2. pair trading
利用statistical arbitrage 等用各种pair trading 来hedge 风险,这些pair 需要有cointegration, 就是想同类型(same industry, same size, 像credit card he master card)
3. new/exotic market
alpha is not well explored yet, 但是我的经验是大部分是骗人的。
4. expectation
公司的sales, lower than expectation, 会影响股市
另外 python 上
1. draw reverse chart
plt.plot(stockA['adj_close'])
plt.gca().invert_xaxis()
2. cointegration test
import statsmodels # More info: https://www.statsmodels.org/stable/tsa.html#tsa-tools
from statsmodels.tsa.stattools import coint
#TDL4: Run Cointegration Test on Your 2 stocks
score, pvalue, _ = coint(stockA['adj_close'],stockB['adj_close']) #TDL4
print(pvalue) # the lower the better. <0.05 means the 2 stocks are statistically cointegrated.
print(_)
3. 在做pair trading 前必须normalize
Normalise the data so that the first data point is 1 (Dollar hedging)
Monday, June 24, 2019
透明玻璃 +火警
-透明玻璃也是要注意的 一不小心就撞上了。
-今天火警四次,不过我只希望不要在凌晨
明天
- 看下 debiased
- 继续看financial video
Pru -
1. 了解了openscale, 记起了real/batch/evaluation scoring, 明白了spark 在watson里是何等重要,及watson是有相当门槛的因为底层是需要很多功夫才能弄上来的。
2. openscale 的话,里头除了有对fairness attribute monitored values 做掌控,还有reference/monitored value 互换形成purturbed value 来augment data for debiased purpose. 另外,除了fairness, quality of model, 还有监控throughput。这也是挺有意思的。三个pillar。
Paper - financial 里有这种synthetic dataset的概念,很有意思。另外,了解了stock 之间的alignment 可以用SPY这种比较古老的来做alignment。
今天主要一整天在弄Pru。
-今天火警四次,不过我只希望不要在凌晨
明天
- 看下 debiased
- 继续看financial video
Pru -
1. 了解了openscale, 记起了real/batch/evaluation scoring, 明白了spark 在watson里是何等重要,及watson是有相当门槛的因为底层是需要很多功夫才能弄上来的。
2. openscale 的话,里头除了有对fairness attribute monitored values 做掌控,还有reference/monitored value 互换形成purturbed value 来augment data for debiased purpose. 另外,除了fairness, quality of model, 还有监控throughput。这也是挺有意思的。三个pillar。
Paper - financial 里有这种synthetic dataset的概念,很有意思。另外,了解了stock 之间的alignment 可以用SPY这种比较古老的来做alignment。
今天主要一整天在弄Pru。
Sunday, June 23, 2019
Finacial初尝试
一开始有几个难点:
1. Data - 这个比较难有全的
2. Theory - 对于financial 分析的evaluation metric和objective不是很了解, 刚看了一下貌似是降低风险,最大获利
3. MVP - 这个怎么才算个MVP
a. 专注于一个stock
b. 用一个 model
c. 做一个分析
design thinking里说fail cheap fail fast, 这个v0.1 必须异常简单。
1. Data - 这个比较难有全的
2. Theory - 对于financial 分析的evaluation metric和objective不是很了解, 刚看了一下貌似是降低风险,最大获利
3. MVP - 这个怎么才算个MVP
a. 专注于一个stock
b. 用一个 model
c. 做一个分析
design thinking里说fail cheap fail fast, 这个v0.1 必须异常简单。
Financial App
研究要有个用途 不然跟风太没意思了
深觉得自己内心比较想弄个financial app recommender
于是乎决定先弄个prototype
0. Design thinking + OCR
1. Yahoo stock
2. Get the infer
3. Twitter news read
4. Get the infer
Fine tune to improve
Paper - Fix the app
Pru - Tidy up the remaining things to one note + design thinking
深觉得自己内心比较想弄个financial app recommender
于是乎决定先弄个prototype
0. Design thinking + OCR
1. Yahoo stock
2. Get the infer
3. Twitter news read
4. Get the infer
Fine tune to improve
Paper - Fix the app
Pru - Tidy up the remaining things to one note + design thinking
Friday, June 21, 2019
一切就绪
今天把Pru的范围搞清楚了
把facebook问题解决了
把悬而未决的事情都处理干净了
感觉过去几天我把该整理该弄的东西都弄好了
1. 看看最新nlu research在干啥嘞
2. 依靠这个这两天就要把nlu的实验平台搭起来
含
1. bert 的训练
2. transformer
3. multi-layer bi-lstm, with attention and residual
然后选个方向向前行
在这watson 平台其实也用到sparks 和kubernetes,
sparks, kubernetes 也可以一起来学习。
晚间听了个optimization
optimization 其实需要不一样的思维方式
simulation 来测试optimization结果也是一个有意思但没经验的东西
Pru - 范围搞清楚
Paper - 0 (处理杂事)
把facebook问题解决了
把悬而未决的事情都处理干净了
感觉过去几天我把该整理该弄的东西都弄好了
1. 看看最新nlu research在干啥嘞
2. 依靠这个这两天就要把nlu的实验平台搭起来
含
1. bert 的训练
2. transformer
3. multi-layer bi-lstm, with attention and residual
然后选个方向向前行
在这watson 平台其实也用到sparks 和kubernetes,
sparks, kubernetes 也可以一起来学习。
晚间听了个optimization
optimization 其实需要不一样的思维方式
simulation 来测试optimization结果也是一个有意思但没经验的东西
Pru - 范围搞清楚
Paper - 0 (处理杂事)
speech 上的问题
听了一下自己给的speech,有几个问题
1. pause filler 太多 (double clutch, e..the...)
2. 讲的东西不够明确,需要更多地描述 (text recognition, it does some reasonable job on discovering the handwriting, but it is not doing very well)
1. pause filler 太多 (double clutch, e..the...)
2. 讲的东西不够明确,需要更多地描述 (text recognition, it does some reasonable job on discovering the handwriting, but it is not doing very well)
八年
2011 年开了个facebook 账号,担心人数超过5000, 这个担忧一直到现在才需要去解决。
话说故事是
2011年开了个账号
2013年人数2000+的时候,账号被盗
于是从开一个账号
然后把各种好东西从前面的账号一道新账号,
一直到2018年大概是3000+人
然后呢大概半年前,人数出现了飞升,每天增加20几个人
现在每天人数每天增加100人
快hold不住了,目前快4600人
于是开了个page来一劳永逸解决这个问题。
这个趋势有点像创业
开始是孤单的,借着好东西来吸引大家,但是增长缓慢
过了一定的人数后,出现质的飞升。
我呢,其实每天做着一样的事情,
就是分享,
并没有改变。
我发现只要不断有恒的分享,
时间久了人数自然会飞升。
另外,很多东西不用太早担忧,
8年前担忧的事情现在才出现。
重点是consistently share,
这个才是关键。
话说故事是
2011年开了个账号
2013年人数2000+的时候,账号被盗
于是从开一个账号
然后把各种好东西从前面的账号一道新账号,
一直到2018年大概是3000+人
然后呢大概半年前,人数出现了飞升,每天增加20几个人
现在每天人数每天增加100人
快hold不住了,目前快4600人
于是开了个page来一劳永逸解决这个问题。
这个趋势有点像创业
开始是孤单的,借着好东西来吸引大家,但是增长缓慢
过了一定的人数后,出现质的飞升。
我呢,其实每天做着一样的事情,
就是分享,
并没有改变。
我发现只要不断有恒的分享,
时间久了人数自然会飞升。
另外,很多东西不用太早担忧,
8年前担忧的事情现在才出现。
重点是consistently share,
这个才是关键。
复习nlu和推拿
复习了一下一些key concept
wordvector 现在通透的明白为什么会有source 和target 的embedding.
但是他厉害的想法 就是重复用一个网路 来达到一个字predict 周围字
网路重用是重点,这里有点像multi-task learning
attention model 的话,厉害的地方使用了一个one layer network (hidden state + one input -> predict weight)。这里的抢点是local control 在适当的地方增加neuron 来学习。有点像lstm 和 gru。
----
另进去拳气道推拿,刮痧,热敷,拍打,推颈,中药,功效好但是挺贵,半小时90.
相比另一家40贵了一倍多,哪家针灸+热敷+推拿,效果也好。
方法其次,效果重点。拳气道是方法加钱。
----
Pru - Visual recognition api test, watson explorer training
Paper - 复习nlu
wordvector 现在通透的明白为什么会有source 和target 的embedding.
但是他厉害的想法 就是重复用一个网路 来达到一个字predict 周围字
网路重用是重点,这里有点像multi-task learning
attention model 的话,厉害的地方使用了一个one layer network (hidden state + one input -> predict weight)。这里的抢点是local control 在适当的地方增加neuron 来学习。有点像lstm 和 gru。
----
另进去拳气道推拿,刮痧,热敷,拍打,推颈,中药,功效好但是挺贵,半小时90.
相比另一家40贵了一倍多,哪家针灸+热敷+推拿,效果也好。
方法其次,效果重点。拳气道是方法加钱。
----
Pru - Visual recognition api test, watson explorer training
Paper - 复习nlu
Thursday, June 20, 2019
Wednesday, June 19, 2019
整理整理 梳理梳理
今天一天都在整理前面的材料,明天要搞一下累积已久的问题
另外,今天和sandy 聊了下, 发现自己常常犯了一些问题:
1. description 太abstract (Watson studio)
2. 用 acronym (不应该)
3. Example of what you work with
另外觉得那个v for vendetta面具太丑陋了
这个feedback 挺好。
再另外,真觉得没有必要把自己弄得紧紧地
假设自己有无穷多的时间 慢慢弄 搞不好还更快达到目的
impatient 很多时候只会suboptimal
想想当时为了一个deadline,随便改了一个work 就submit了,结果到现在都还没中;
我感觉应该选个promising领域,然后长期投入,这样才是长久之计;
东换西换,只会做的更久,压力更大;
就选nlu了。
想想vikesh, 很投入的,relax的三个小时;
完成的东西,是我一天多的成果。
paper - 需要pivot 成 nlu
pru - 各种 training 学习
另外,今天和sandy 聊了下, 发现自己常常犯了一些问题:
1. description 太abstract (Watson studio)
2. 用 acronym (不应该)
3. Example of what you work with
另外觉得那个v for vendetta面具太丑陋了
这个feedback 挺好。
再另外,真觉得没有必要把自己弄得紧紧地
假设自己有无穷多的时间 慢慢弄 搞不好还更快达到目的
impatient 很多时候只会suboptimal
想想当时为了一个deadline,随便改了一个work 就submit了,结果到现在都还没中;
我感觉应该选个promising领域,然后长期投入,这样才是长久之计;
东换西换,只会做的更久,压力更大;
就选nlu了。
想想vikesh, 很投入的,relax的三个小时;
完成的东西,是我一天多的成果。
paper - 需要pivot 成 nlu
pru - 各种 training 学习
别人怎么看 和 华为一套系统硬搞
1. 在20+人中,有时你会担心你说不说话,但是别人担心的不是你说不说话,而是自己说不说话,说的怎么样。
2. https://cj.sina.com.cn/articles/view/6083295979/16a97baeb019006urj
这篇文章,任正非1998向ibm求教,阐述了只学一套模式,在各种痛苦的情况下,坚决贯行。
重点是 先僵化,后优化,再固化。
这个挺科学的,改革必有痛苦,用在个人也一样。
3. 另
https://baike.baidu.com/item/%E8%B7%AF%E6%98%93%E6%96%AF%C2%B7%E9%83%AD%E5%A3%AB%E7%BA%B3
Louis Gerstner 的休克疗法,依靠着强硬的态度来取得改变。
所以,要大改变,更需要铁一般的实行,因为必有大反弹。
2. https://cj.sina.com.cn/articles/view/6083295979/16a97baeb019006urj
这篇文章,任正非1998向ibm求教,阐述了只学一套模式,在各种痛苦的情况下,坚决贯行。
重点是 先僵化,后优化,再固化。
这个挺科学的,改革必有痛苦,用在个人也一样。
3. 另
https://baike.baidu.com/item/%E8%B7%AF%E6%98%93%E6%96%AF%C2%B7%E9%83%AD%E5%A3%AB%E7%BA%B3
Louis Gerstner 的休克疗法,依靠着强硬的态度来取得改变。
所以,要大改变,更需要铁一般的实行,因为必有大反弹。
Tuesday, June 18, 2019
去公司和听training talk
今天约了几个dse朋友去了公司,老板竟然不在。
间中,学/体会到了一些新东西
a. speech 也挺重要
b. power system 的优和劣
优 是用gpu 作为co-processor, 可以得到意想不到的速度提升
劣 是simd这方面不及intel, 速度又会suboptimal
另 cloud 不用 power system, 因为一些political 的原因。
c. 了解了Trello 上有人complaint
traning talk 上,领会到了shiny app 是个很好的推销工具。
在来给某人讲解nlu时 领会了自己不太记得的东西,需要去复习一下。果然教人自己也可以进步。
另对shap也理解了。
paper 方面又开始纠结了。之前相好的recommender system 貌似好多并行的work, 想打别的旗号,有可能更容易发。
什么东西加上个neuro, 这是一个上到。
间中,学/体会到了一些新东西
a. speech 也挺重要
b. power system 的优和劣
优 是用gpu 作为co-processor, 可以得到意想不到的速度提升
劣 是simd这方面不及intel, 速度又会suboptimal
另 cloud 不用 power system, 因为一些political 的原因。
c. 了解了Trello 上有人complaint
traning talk 上,领会到了shiny app 是个很好的推销工具。
在来给某人讲解nlu时 领会了自己不太记得的东西,需要去复习一下。果然教人自己也可以进步。
另对shap也理解了。
paper 方面又开始纠结了。之前相好的recommender system 貌似好多并行的work, 想打别的旗号,有可能更容易发。
什么东西加上个neuro, 这是一个上到。
Monday, June 17, 2019
Ubuntu
今天星期一 很多的政府部门 医生部门 都开着,于是用了很大部分时间处理琐事。
至于install 东西方面,现在还在进行当中。
发现把在Ubuntu开发的东西放在Windows 里用太不容易了
另,也发现在Windows 里也向往了如Ubuntu一样都command line interface
Pru - 和老板谈了 发了email
Paper - 装系统中。。。
至于install 东西方面,现在还在进行当中。
发现把在Ubuntu开发的东西放在Windows 里用太不容易了
另,也发现在Windows 里也向往了如Ubuntu一样都command line interface
Pru - 和老板谈了 发了email
Paper - 装系统中。。。
第二次engagement lesson
然后呢为我讲解其实deadline oriented 是一种sales gimmick, 这种gimmick 让我惊呆了。
但是我们的deadline和sales的deadline是不同的;不能等他们的deadline。于是乎这次负责人让我draft 了一份email, 说明了我们哪里有blockers, 和哪些sales 来clear - 主要说明不
是在我们这里delay。
这有试一次学习。
我感觉
1. 纠正wrong impression;
2. 保持纯正的理性说明。
是一种很important 的skill。
但是我们的deadline和sales的deadline是不同的;不能等他们的deadline。于是乎这次负责人让我draft 了一份email, 说明了我们哪里有blockers, 和哪些sales 来clear - 主要说明不
是在我们这里delay。
这有试一次学习。
我感觉
1. 纠正wrong impression;
2. 保持纯正的理性说明。
是一种很important 的skill。
完全抽离
发现一般在出去玩,或者聚会的情况下,或在飞机上,能够做到完全抽离 - 就是在敢deadline的情况下,也能够把subject完全忘记。
我觉得这是一种有必要的状态,尤其在执行其他task时。
另,今天看了一下recommender system, 发现如果user 和 item 在pass in 时,也有可能做pairing,这个idea 挺有意思,需要了解下 (what is pairing?)。
user 和 item 可以作为一种embedding来做训练,这个也是另一种有意思的发现。
今天就12点起来,4点就聚会去了,就弄了四个小时。前两个小时整理,后两个小时把multi windows command prompt 等等都设置起来。然后聚会前看了一下paper。
paper - 把software 都装起来了,看了一下recommender system.
我觉得这是一种有必要的状态,尤其在执行其他task时。
另,今天看了一下recommender system, 发现如果user 和 item 在pass in 时,也有可能做pairing,这个idea 挺有意思,需要了解下 (what is pairing?)。
user 和 item 可以作为一种embedding来做训练,这个也是另一种有意思的发现。
今天就12点起来,4点就聚会去了,就弄了四个小时。前两个小时整理,后两个小时把multi windows command prompt 等等都设置起来。然后聚会前看了一下paper。
paper - 把software 都装起来了,看了一下recommender system.
Sunday, June 16, 2019
Toastmasters 的星期六
早上解决了ocr和anomaly detection 的test case
anomaly detection
a. one class svm是用origin 作为唯一positive example
b. clustering, k-means, k-nearest neighbour 都是常用方法 (还有吗?)
c. statistics 也是常用方法
ocr 的话
a. 基本是字的识别,然后字的辨识
Toastmasters 的时候看了recommender system 的survey 和 youtube 的architecture
recommender system
a. recommender system上各种deep learning大家都几乎做了一遍
b. 基本的idea是 collaborative filtering 是 linear 的, deep learning 是non-linear 的,还能combine other features
c. sequantial collaborative filtering 不一定好,有时会overfit, 比如user search 了query后,点击里面的内容 sequential 的话会provide 没点击的内容 (需要看清楚些?)
Toastmasters主要收获是
1. 了解了HR 眼中的interview
a. 需要和hirer 有相似兴趣
b. 需要bring value to hirer 眼中的problem
c. quantitatively say about your contribution
2. 有个talk的机会
====
早上一直弄到一点多
然后11点30才回到
====
Pru - yes
Paper - yes
Algo - no
Algo 需要加油
Pytorch, Tensorflow 搞起来。
anomaly detection
a. one class svm是用origin 作为唯一positive example
b. clustering, k-means, k-nearest neighbour 都是常用方法 (还有吗?)
c. statistics 也是常用方法
ocr 的话
a. 基本是字的识别,然后字的辨识
Toastmasters 的时候看了recommender system 的survey 和 youtube 的architecture
recommender system
a. recommender system上各种deep learning大家都几乎做了一遍
b. 基本的idea是 collaborative filtering 是 linear 的, deep learning 是non-linear 的,还能combine other features
c. sequantial collaborative filtering 不一定好,有时会overfit, 比如user search 了query后,点击里面的内容 sequential 的话会provide 没点击的内容 (需要看清楚些?)
Toastmasters主要收获是
1. 了解了HR 眼中的interview
a. 需要和hirer 有相似兴趣
b. 需要bring value to hirer 眼中的problem
c. quantitatively say about your contribution
2. 有个talk的机会
====
早上一直弄到一点多
然后11点30才回到
====
Pru - yes
Paper - yes
Algo - no
Algo 需要加油
Pytorch, Tensorflow 搞起来。
Saturday, June 15, 2019
相邻点的互动
一个澳洲lecturer, 被老板push, 升上了senior lecturer
香港的富豪,因为法令改变,财产签到了新加坡
两件事情毫无关联,unexpected, 但是有个特征:
领近点因为外力连接了起来。
相邻的点,会有意想不到的互动,这个是新体会。
香港的富豪,因为法令改变,财产签到了新加坡
两件事情毫无关联,unexpected, 但是有个特征:
领近点因为外力连接了起来。
相邻的点,会有意想不到的互动,这个是新体会。
第二次engagement
今天是第二次engagement
Harp on Pru:
1. Business Value driven - 每做一样东西想的是十倍回报
2. Better outcome - Use raw data rather than masked data
3. Better resource utilize - Do more complex project rather than simple one (where their data science can do)
4. Ask for later deadline
Sam pitching
1. Good discount - only for the customer
200k for DSE, appliance, ICPD.
Only 5 discount, quickly chop for ...
Do not move the end of June deadline
2. Praise the customer
a. Yes, that's the phase approach
Me
1. Need to say your name after shake hand, give name cards
2. Let Harp sit first, then sit
====
Pru - Understand contract
Paper - 0
Algo - 0
Too much 心里扰动after talking to Adni. Ultimately, the best state is talk, and forget. And continue to do the work.
====
追根究底,没有持续进行因为没把paper和 algo 看的太重要。
明天
1. OCR + Anomaly detection survey
2. Paper Survey
3. Algo (1 hr)
Harp on Pru:
1. Business Value driven - 每做一样东西想的是十倍回报
2. Better outcome - Use raw data rather than masked data
3. Better resource utilize - Do more complex project rather than simple one (where their data science can do)
4. Ask for later deadline
Sam pitching
1. Good discount - only for the customer
200k for DSE, appliance, ICPD.
Only 5 discount, quickly chop for ...
Do not move the end of June deadline
2. Praise the customer
a. Yes, that's the phase approach
Me
1. Need to say your name after shake hand, give name cards
2. Let Harp sit first, then sit
====
Pru - Understand contract
Paper - 0
Algo - 0
Too much 心里扰动after talking to Adni. Ultimately, the best state is talk, and forget. And continue to do the work.
====
追根究底,没有持续进行因为没把paper和 algo 看的太重要。
明天
1. OCR + Anomaly detection survey
2. Paper Survey
3. Algo (1 hr)
Thursday, June 13, 2019
第400篇
今天的效率还算可以,就是前面太紧,后面就要松。
其实专心到最后,应该要有boring, 就像和vikesh, LY 的partner coding 那样,不紧,就专心致志。我觉得要把专心变成一种自然,这样才是sustainable。
基本对于recommendation有一个比较大体的了解了。
bottleneck:
- 对于pytorch 和 tensorflow的熟练
- 对于recommendation 整体趋势的了解
- algorithm的训练
paper - 整体来说,需要改变的是要松弛,要fun
algorithm - 必须要放一小时进去
pru - 把data science level 要放入进程
其实专心到最后,应该要有boring, 就像和vikesh, LY 的partner coding 那样,不紧,就专心致志。我觉得要把专心变成一种自然,这样才是sustainable。
基本对于recommendation有一个比较大体的了解了。
bottleneck:
- 对于pytorch 和 tensorflow的熟练
- 对于recommendation 整体趋势的了解
- algorithm的训练
paper - 整体来说,需要改变的是要松弛,要fun
algorithm - 必须要放一小时进去
pru - 把data science level 要放入进程
Wednesday, June 12, 2019
Tuesday, June 11, 2019
Engagement Training
今天老板给了个三小时的training, 了解了不少当中该注意的东西。
思考为什么ibm可以survive过一百年,
1. 了解企业,
2. 推销 dse team, medium, linkedin, blog, talk, (这部分要算kpi)
3. 不能work就卖掉 rational, lotus
4. 买公司 ilog, spss, redhat
5. 让员工不断学习
6. 其实有很多东西都是ibm这里发明的像des
也了解了各种不同team 之间的dynamic.
===
Pru - 看了些note。缺乏重点学习。应该把重点聊下来在explore.
Paper - 0
Algo - 0
====
Algo - 8:30pm
a. Crucial thing is to summarize in notes before moving to new algo
Paper- 5:30pm
a. Crucial thing is to setup the code base for the state-of-the-art, and start exploring
Pru-8:00-5:30pm
a. Crucial thing is to setup the code base for models + node for feature engineering
思考为什么ibm可以survive过一百年,
1. 了解企业,
2. 推销 dse team, medium, linkedin, blog, talk, (这部分要算kpi)
3. 不能work就卖掉 rational, lotus
4. 买公司 ilog, spss, redhat
5. 让员工不断学习
6. 其实有很多东西都是ibm这里发明的像des
也了解了各种不同team 之间的dynamic.
===
Pru - 看了些note。缺乏重点学习。应该把重点聊下来在explore.
Paper - 0
Algo - 0
====
Algo - 8:30pm
a. Crucial thing is to summarize in notes before moving to new algo
Paper- 5:30pm
a. Crucial thing is to setup the code base for the state-of-the-art, and start exploring
Pru-8:00-5:30pm
a. Crucial thing is to setup the code base for models + node for feature engineering
Monday, June 10, 2019
见老板 and Pivoting
今天见了interview 一直remotely meeting的老板,对于我们的team and mission 了解不少。
回过头来说,最近刚刚列好给自己的一个小目标,就是发一个paper, 目前考虑recommender system。
想pivoting 一下,把这个博客用于每天的反省,和目标实现的思考和记录,这样免于过了一段时间以后,发现时间扑通扑通的过去了。逼着自己反省。
Takeaways
- 对工作做减法
- video观看不需要看完,只需要知道大概干嘛就好
- 能不自己做的就不要自己做
- 知道不要做什么
- 管理注意力
- pending task 写着之后做
- 心理素质的增加,就是在同一压力情景,变得更淡定,处理事情的能力增加。
Goal
Paper -看了一些 collaborative filtering 的方法。也配上neuro, 感觉需要弄个hidden 的layer 让neuro 来infer。另外,另一种方式是,用collaborative filtering 来learn 一个 representation, 然后用于比较。
Pru - 把XGBoost 和 collaborative filtering the 方法都记下来,把SPSS的方法也记下来
Algo - 已经停歇了两个礼拜了,这个要干净开始。
必需每一个都要伴随slide, 便于future self 复习
Pending
paper (night time and thurs)
1. How neoro collaborative filtering works?
2. Why sparce matrix in collaborative pose challenges to deep learning?
[important] 3. What are the latest collaborative filtering method, and data used?
Pru (Tomorrow and Wednesday)
1. recommendation model and spss method
Algo (massage chair) (Sat morning record)
1. listen to Indian DP video
Saturday, June 8, 2019
想好了
Overall
paper 决定目前摆位first priority
然后sequentially 再进到algorithm和data science use case.
管理经验/名公司经验这种东西是by-chance/luck, 不能具体计划
Now
Engagement use case browse through and record for future usage
Takeaway
- 对工作做减法
- video观看不需要看完,只需要知道大概干嘛就好
- 能不自己做的就不要自己做
- 知道不要做什么
- 管理注意力
- pending task 写着之后做
paper 决定目前摆位first priority
然后sequentially 再进到algorithm和data science use case.
管理经验/名公司经验这种东西是by-chance/luck, 不能具体计划
Now
Engagement use case browse through and record for future usage
Takeaway
- 对工作做减法
- video观看不需要看完,只需要知道大概干嘛就好
- 能不自己做的就不要自己做
- 知道不要做什么
- 管理注意力
- pending task 写着之后做
Thursday, June 6, 2019
记录时间
一个星期一下子就过去了
最近开始记录起自己在干嘛,然后回忆一下什么地方可以进步。
- 对于增加效率最有效的方法是对工作计划作减法 去繁从简 去芜存菁
- 管理注意力,多过于管理时间
- pending task 写着之后做
- 知道自己要什么,把目标减少
- 你要知道你要做什么,你更要知道你不要做什么
目标:
Algorithm ||| Data Science Use Cases/Theoretical 整理成UC (交替)
今天整体来说就是准备明天的engagement, 现在剩下的时间就是把leftover 搞定,
明天早上就对于engagement 的problem 搞清楚,一些model 开始编写。
回来后没有data前,继续把model 弄完.
所以明天基本是搞Model.
晚上留点时间搞Algo.
下面搞一个churn/recommendation models 类似的UC+ Dynamic Programming 的UC.
那paper 呢?
管理经验呢?
大公司经验?
需要思考一下。。。
最近开始记录起自己在干嘛,然后回忆一下什么地方可以进步。
- 对于增加效率最有效的方法是对工作计划作减法 去繁从简 去芜存菁
- 管理注意力,多过于管理时间
- pending task 写着之后做
- 知道自己要什么,把目标减少
- 你要知道你要做什么,你更要知道你不要做什么
目标:
Algorithm ||| Data Science Use Cases/Theoretical 整理成UC (交替)
今天整体来说就是准备明天的engagement, 现在剩下的时间就是把leftover 搞定,
明天早上就对于engagement 的problem 搞清楚,一些model 开始编写。
回来后没有data前,继续把model 弄完.
所以明天基本是搞Model.
晚上留点时间搞Algo.
下面搞一个churn/recommendation models 类似的UC+ Dynamic Programming 的UC.
那paper 呢?
管理经验呢?
大公司经验?
需要思考一下。。。
Subscribe to:
Posts (Atom)