上一讲讲到的是逻辑回归,并且提出了cross-entropy error(交叉熵误差)的概念,并使用了梯度下降算法;再上一讲讲到是线性回归,第二节课讲的是PLA算法。这三讲将会是我们这一讲的基础。 本节课讲的是用这些线性模型来解决分类问题。
这一堂课是主要讲的是逻辑回归(Logistic Regression)。但是这个回归问题在问题的执行上更像是个分类问题,但是有和分类问题不一样。按照老师的观点:
引言
经过一周的期中考,再次更新啦! 上一讲是主要引入了VC维这个机器学习中非常重要的概念。并梳理了以下这个结论: 如果假设集的VC维有限大,数据足够大,且可以找到一个假设让,数据的Ein≈0,那么机器学习就是可行的。 但是数据集当中会不会含有一些我们认为他是对的东西呢,就是NOISE了,这一讲重点在于此。
由于最近一直在准备比赛的事情就好久没有更新了。没想到的是一回过神就是这么重要的VC维的概念。
这一讲数学的成份非常浓,但是中心思想还是为了希望证明机器学习的可行性条件。其中第五讲中提出的2D perceptrons的成长函数mH(N)是多项式级别的猜想,就是本次课的重点内容。
上一节课,我们通过严谨的推倒知道了当样本数据足够大、假设集合可选择且有限,就知道这样的学习一般是可行的。
本次的这节课,开篇讲的是,我们如何透过已知的数据(样例)得到未知数据的方法的限制条件。也就是是否针对问题进行机器学习。说白了就是讲解机器学习的可行性
这一讲是对于之前机器学习的分类的介绍,也是让我们知道哪些类型的问题适合用什么类别的机器学习演算法进行计算。重点在于不同的分类标准,机器学习的分出的类别也不一样。
第一节课中,主要讲解的是机器学习的基本思路和相关的应用,算是一种对机器学习的大致介绍和简单的科普。到了第二讲,林老师将重点放在了PLA算法上,通过这个算法让机器学习的演算法大门正式打开了。
GAKG is a multimodal Geoscience Academic Knowledge Graph (GAKG) framework by fusing papers' illustrations, text, and bibliometric data.
Supplementary Materials and Recommended Resources FOR EE447
Funded by Yuelu Academy, self-made automatic ancient Chinese language plate classification collection system.
Keyword Search over Federated RDF System Java Implementation
This is a tiny and stupid DataBase implemented by our team.