2016-04-01 Borg
Coursera 华盛顿大学机器学习系列课程回归分析第二周 那么这门课讲的其实还蛮简单的,主要关注如何得到w,所以都在搞gradient descent。John Hopkins的数据科学课程就难多了= =。 传送们 有道好方便,懒得搬啦。。。 继续阅读 »
2016-04-01 Borg
Coursera 华盛顿大学机器学习系列课程回归分析第一周 传送们 有道好方便,懒得搬啦。。。 继续阅读 »
2016-04-10 Borg
如何评估一个回归模型 loss function 首先定义loss function,即预测错误带来的损失,通常使用y-yhat的绝对值或者平方。但不绝对,比如在预测放假时如果估值过高,则可能完全卖不出去,带来的损失更大,因此可以定义loss function使估值过高带来的loss比估值过低带来的loss更大。 继续阅读 »
2016-04-02 Borg
对于以下这样的数据应该如何用回归模型来预测呢? r x 继续阅读 »
2016-05-01 Borg
最后两周懒得做笔记了,一张张截图好费时间。已经把pdf,ipython notebook,data都上传到github,ipython notebook还转换成了markdown文件方便阅读。 Github Repo 华盛顿大学的这门公开课真的很棒,很照顾新手,把用到的数学符号都解释了,同时又不会太水。比起约翰霍普金斯的数据科学偏向理论,后者的回归模型主要讲的怎么用,而这门则是深入讲解回归模型的参数如何得来,还有各种问题以及对应的解决方案。 关键词: Close-form solution gradient descent ridge regression lasso re 继续阅读 »
2016-04-15 Borg
Regularization 上周已经讲了overfitting,那么当我们所有的数据量特别大的时候,即使有很多个特征模型也很难overfit。 继续阅读 »