近日《李小龙传奇》正在热播,偷闲看了一点。领悟有两点:“练武不练功,到老一场空”,“什么对练武有用就学习什么”。
第 一句话对于我经历过的所谓的学了很多种机器学习方法算种警示。记得一位师弟说过,很多我们正在学习的机器学习方法都是花架子。因为我们都未能真正学会。相 反,对于正在进行的研究却没有进行深入的思考。眼看读博第三年快要结束了,应该算是“老人”了,真有一点“一场空”的感觉。还是那句话,只要现在开始,那 就不算晚。好好学习数学咯。
第二句对于我们做计算机应用的人来说至关重要。因为本质上计算机应用没有自身的理论体系,都是在弄一些所谓交叉学科相关的东西。只有兼容并包、从善如流才能保持前进的脚步。
李小龙每天都是在基本功的练习中开始新的一天的。反观自己,想想实际情况,还是学点数学较好。
翻过来再说说这几日看《统计学》这本书的一些感触吧。
说 来也怪,看的东西以前自己都曾经学过,只是时间长了,在脑子里便没有了时常的提醒。这两天看的是相关性和回归分析两部分。在进行统计时,我们很容易被一些 统计量蒙混了双眼。因为很可能正在被计算的两个统计量之间的强相关性是由第三个变量导致的。在没有任何先验知识的情况下,计算机能够发现这种特殊性么?如 果能的话,那就是人工智能了吧 :) 。 相关性分析是特征选择里非常重要的一个东西。这样看来,特征选择也是有改进的余地的。
今天看 到一个有趣的例子。说幼儿园入学时平均智商高的小朋友毕业时平均智商降低了,反倒是入学时智商低的毕业时智商变高了。难道是幼儿园起到了让孩子们智商平均 化的作用么?看到这个例子,我先也是一惊。后来得知,这个叫回归谬论。在回归分析里,第一次统计时很好和很差的结果,往往在第二次统计时会变得次好和次 差。这是因为统计得到的结果是观测值,包含真实值和随机值两部分。先后两次测量的随机部分运气上往往会出现交换。结果就出现了这种回归效应。
这本数学书很不错,那就是几乎不用数学公式,复杂的原理和计算用通俗的文字就能展现。好书一本!
练武不练功这句让我很是感触,刚入研一,第一学期将要结束,打算读博,此语让我找到一些方向
回复删除欢迎常来交流!
回复删除