关于此博客 此博客于2021年基于LNMP搭建,一方面记录学习内容(信息技术为主),生活随想,内容偏向闲聊与娱乐,另一方面趁难得的假期实操一下简单的网站搭建,体验LNMP特性,了解 […]
Continue reading[特别注意]关于18年文章补档
该分类是指18年OIer时期在洛谷博客上发布的文章(主要是题解)的搬运
Continue reading[Chap13]-降维
这节谈一下降维问题(Dimensionality Reduction) 动机1: 数据压缩 通常来说, 我们收集到的数据集有很多特征, 这里挑选其中两个画在这里 两个特征分别是长度 […]
Continue reading[Chap12]-K-means聚类
无监督学习 从这节开始, 我们开始介绍无监督学习算法, 即, 让计算机学习无标签的数据, 而不是此前有标签的 无监督学习的数据看起来是这样的 相比于之前的数据少了标签(y, 点的形 […]
Continue reading[Chap11]-核函数
考察下面的分类问题 为了得到上图的决策边界, 一个可能的模型是 h_\theta(x)=\theta_0+\theta_1x_1+\theta_2x_2+\theta_3x_1x_ […]
Continue reading[Chap10]-支持向量机SVM初步
还有一个更加强大的算法广泛的应用于工业界和学术界,它被称为支持向量机(Support Vector Machine)。 与逻辑回归和神经网络相比,支持向量机,或者简称 SVM,在学 […]
Continue reading[Chap9]-偏斜类的误差度量
偏斜类(Skewed class) 偏斜类指训练集中有非常多同一类的实例,举个例子: 如果我们将一家医院的肿瘤检测数据作为数据集, 可能大部分数据都不是恶行肿瘤(癌症), 比如说, […]
Continue reading[Chap8]-机器学习诊断
这一节的标题叫“机器学习诊断”, 感觉很抽象, 实际上是指分析并解决在实际运用机器学习算法的过程中出现的问题, 并尽可能的避免无谓的时间浪费——原课程这一章叫“决定下一步做什么”, […]
Continue reading[Chap7]-反向传播的注意事项
梯度检验 反向传播算法的实现过程比较复杂,容易产生小错误,并且这些小错误有时并不明显——从小数据的结果来看,并没有严重影响结果,这是非常致命的,因为错误会随着数据增多变得更加明显, […]
Continue reading[Chap6]-反向传播
代价函数 首先做出一些约定,以方便后面讨论 我们假设神经网络的训练样本有m个,分别是(x^{(i)}, y^{(i)}) L表示神经网络的层数 S_l表示第l层的神经元个数,自然的 […]
Continue reading
近期评论