不笑不足以为道
记得曾经有这么一个小故事,说是欧几里德上完课有个学生发问:『我学这有什么好处?能得到什么呢?』 欧几里德马上叫来仆人:『给这小子一块金币,让他滚蛋,他想要学有所获。』
古人云:上士闻道,勤而行之;中士闻道,若存若亡;下士闻道,大笑之。不笑不足以为道。
Wir müssen wissen, Wir werden wissen.
Generalization in Deep Learning, Kenji Kawaguchi
Section 5、6 是全文最有趣的地方了,可惜这个地方作者表达得不是特别好。一个比较主要问题就是作者没有说明 $w_\sigma$ 的定义,这导致了很多人往后就开始懵逼。我问了一下 Kenji ,确认了一下我的理解,他也承认这个地方写得不是很好,因为 $w_\sigma = \bar{w}$,他使用不同记号的原因在于在 5.3 里面要解释 two-phase training。
从高中毕业以后,再也没有受过正儿八经的文学熏陶,感觉几乎丢失了表达能力,以前的我是很喜欢用键盘来宣泄情绪的。 而现在的我,无论是生活、感情还是技术都有过不同程度的感悟、提升后,几乎不愿意甚至不再能够行云流水的分享自己的感悟了。现在的我,突然感觉已经加速「衰老」,步入「三十岁中年」了。2017 年过得很累,希望 2018 能够过得好些吧。
这是「人肉计算」系列文章的最后一篇。我们来讨论参与激励的相关问题。
上一篇文章我们讨论了人肉计算中的相关陷阱,这篇文章我们来看看这些陷阱都有什么样的解法。