看着自己的paper, 想法多新奇,但是解决的问题都不太重要
看着这种bert 什么的 wordpiece encoder,想法同样新奇,但是解决的场景确实很重要的。
lesson - 选个重要的场景,花着同样的思维,带来同样的研究快感,但产生impact却大大不同。
从现在望向过去,什么是重要?
其实也难说。。。generative AI 一出来,曾经重要又好用的的比如conditional random field,都被取代了。。
重要其实还有阶段性。
但又一些work比如resnet, 比如He Initialization, 想法简单,但是因为够底层,所以relatively invariant to new model, 因为new model也要用上。
No comments:
Post a Comment