提起Bayes,俺真的有点头疼,因为无数次的聆听采用Bayes方法的NLP时几乎都会存在疑问:为什么要这么弄呢,有更好的方法么?以至于一听Bayes方面的东东俺就会打瞌睡 :)
在朱慕华的推荐下,俺开始非常认真的学习起Hal Daume III的nlper blog起来。以前就知道这个blog非常不错,朱慕华说Hal在读博期间也曾认为NLP做不动了,然后开始痛下决心,经历万难,学好了概率,然后才成为现在的牛人的。这段经历,不自己看这个blog的人,我想是不会清楚的。感谢朱慕华的推荐。
我打算将这个blog的文章按照时间顺序通读一遍。第一篇是welcome, 第二篇是interesting topics。感觉Hal的眼光还是很独到的,提出了一些非常新颖的问题来。或许大师都是这样的 :)
第三篇就是介绍Hal主持的NIPS的讨论会BayesNLP了。看完之后,不禁让我想起了“木桶定律”(水桶定律:一只水桶能装多少水, 完全取决于它最短的那块木板)。其中还提到了我最为敬仰的一位研究人员Andrew McCallum。原来他们都是认识的啊。
想要仔细了解一下Bayesian方法在NLP上真正的用途,后来看到了HLT-NAACL2006上有Hal做的Tutorial Beyond EM: Bayesian Techniques for Human Language Technology Researchers。苦于找不到这个报告的下载,只能给Hal发信索取了。
两天前的邮件,想不到今天一早收到了Hal的回信。原来,他已经收集整理了一堆Bayes for NLP的资料,当然也包括他在HLT-NAACL2006上的Tutorial。奇怪自己问什么就没有搜索到呢?
呵呵,差点忘了,分享一下Hal告诉我的Bayes for NLP的网页地址:Bayesian Methods for NLP.
让交流成为习惯!
2 条评论:
赞~
学习一下
感觉上贝叶斯思想还是比较直观的,不管怎样毕竟是NLP领域少数基本理论之一
欢迎宇航师弟一起学习,然后讨论~!
发表评论