在NNet这个系列中讲了Matrix Factorization感觉上怪怪的,但是听完第一小节课程就明白了。 林首先介绍了机器学习里面比较困难的一种问题:categorical features 这种问题的特征就是一些ID编号这类的,不是numerical的。 如果要处理这种情况,需要 ...
这节课的题目是Deep learning,个人以为说的跟Deep learning比较浅,跟autoencoder和PCA这块内容比较紧密。 林介绍了deep learning近年来受到了很大的关注:deep NNet概念很早就有,只是受限于硬件的计算能力和参数学习方法。 近年来深度学习长足进步的原因有两个: pre training技术获得了发展 regularization的技术获得了发展 接 ...
2015-08-13 17:03 3 3200 推荐指数:
在NNet这个系列中讲了Matrix Factorization感觉上怪怪的,但是听完第一小节课程就明白了。 林首先介绍了机器学习里面比较困难的一种问题:categorical features 这种问题的特征就是一些ID编号这类的,不是numerical的。 如果要处理这种情况,需要 ...
直接跳过第一讲。从第二讲Perceptron开始,记录这一讲中几个印象深的点: 1. 之前自己的直觉一直对这种图理解的不好,老按照x、y去理解。 a) 这种图的每个坐标代表的是featu ...
这次作业的coding任务量比较大,总的来说需要实现neural network, knn, kmeans三种模型。 Q11~Q14为Neural Network的题目,我用单线程实现的,运行的时间 ...
作业方面,暂时只关注需要编程的题目了,用python完成代码。 Q15~Q17应用的是传统PLA算法,给定的数据集也是保证线性可分的。 代码需要完成的就是实现一个简单的PLA,并且“W = W + speed*yX”中的speed是可以配置的(即学习速率) 代码1 代码 ...
作业一被bubuko抓取了,要是能注明转载就更好了(http://bubuko.com/infodetail-916604.html) 作业二关注的题目是需要coding的Q16~Q20 Q16理 ...
注:本大纲和笔记是根据台大林轩田老师《机器学习基石》和《机器学习技法》视频课程整理而来。林老师讲课幽默风趣,授课内容丰富而又通透,解决了我作为初学者的很多困惑,对此我非常感激。关于林老师的视频课程和相关资料,可参考这里。另外,个人认为,这里面讲解的最最精彩的是SVM和机器学习的可行性这两部分 ...
机器学习基石 | 作业一 个人基础不太好,做题花了挺长时间,分享一下自己的解题方法。基础不太好嘛,可能比较啰嗦。 原题目和编程题的程序(Jupyter Notebook 源文件),还有本解答的 PDF 版本都放在了 此链接 中。 题目 见文件 作业 ...
机器学习(Machine Learning)&深度学习(Deep Learning)资料(Chapter 1) 《Brief History of Machine Learning》 介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机、神经网络、决策树、SVM ...