Changkun's Blog欧长坤的博客

Science and art, life in between.科学与艺术,生活在其间。

  • Home首页
  • Ideas想法
  • Posts文章
  • Tags标签
  • Bio关于
  • TOC目录
  • Overview概览
Changkun Ou

Changkun Ou

Human-AI interaction researcher, engineer, and writer.人机交互研究者、工程师、写作者。

Bridging HCI, AI, and systems programming. Building intelligent human-in-the-loop optimization systems. Informed by psychology, sociology, cognitive science, and philosophy.连接人机交互、AI 与系统编程。构建智能的人在环优化系统。融合心理学、社会学、认知科学与哲学。

Science and art, life in between.科学与艺术,生活在其间。

276 Blogs博客
165 Tags标签
Changkun's Blog欧长坤的博客

别聊,一聊你就暴露

Published at发布于:: 2017-07-07   |   Reading阅读:: 1 min   |   PV/UV: /

这周吃饭的时候遇到个人,说什么自己对机器学习非常有兴趣,一直都在做这个。

好嘛,既然你这么自信我就随便问了几个问题:

  1. What’s the difference between L1 and L2 regularization?
  2. What’s the difference bewteen kernel function and basis function?
  3. What’s the benefits to use Rectified Linear Function instead of Sigmoid Function?
  4. Explain the relationship between Maxout and ReLU.
  5. Is dropout theoretically works when activation function is not a linear function? Why?

好嘛,这几个问题真的很基础,如果你说你做机器学习,搞深度学习,连这几个问题都答不上来,或者答得没办法让我满意。

我最多只能认为你在机器学习领域的建树就是跑过几个 Demo ,了解一些基本概念,把它当「黑盒」来用。

我只能说,基础不牢,连一些基本的东西都搞不清楚的话,真的很难在这条路走得很远。

真的,别聊,别在我面前装,一聊你就暴露水平。

#随笔# #机器学习# #深度学习#
  • Author:作者: Changkun Ou
  • Link:链接: https://changkun.de/blog/posts/do-not-talk/
  • All articles in this blog are licensed under本博客所有文章均采用 CC BY-NC-ND 4.0 unless stating additionally.许可协议,除非另有声明。
人肉计算(9): 陷阱的解法
人肉计算(8): 人肉计算与数据科学中的陷阱

Have thoughts on this?有想法?

I'd love to hear from you — questions, corrections, disagreements, or anything else.欢迎来信交流——问题、勘误、不同看法,或任何想说的。

hi@changkun.de
© 2008 - 2026 Changkun Ou. All rights reserved.保留所有权利。 | PV/UV: /
0%