题目描述: 编程实现对率回归,并给出西瓜数据集3.0\(\alpha\)上的结果。 编程实现 对数几率回归最小化损失函数(西瓜书公式3.27)如下: \[l(\beta) = \sum_{i=1}^m (-y_i\beta ^T x_i + ln(1+e^{\beta^T x_i ...
本博客只包含 章代码编程课后习题的伪代码,仅作参考。 第三章 对数几率回归 . 编程实现对率回归,并给出西瓜数据集 . 上的结果 输入:数据集 . a 输出:测试集上的准确率 . 选择两个 UCI 数据集,比较 折交叉验证法和留一法所估计出的对率回归的错误率。 . 数据集的改变方式 留一法: 有m个数据样本,k折交叉验证是把样本划分为 等份,留一法就是k m时的场景,即每次留 个样本做测试集,剩 ...
2021-11-23 22:14 0 127 推荐指数:
题目描述: 编程实现对率回归,并给出西瓜数据集3.0\(\alpha\)上的结果。 编程实现 对数几率回归最小化损失函数(西瓜书公式3.27)如下: \[l(\beta) = \sum_{i=1}^m (-y_i\beta ^T x_i + ln(1+e^{\beta^T x_i ...
题目描述 试用极大似然法估计西瓜数据集3.0中前3个属性的类条件概率。 解答 如果不用极大似然法,直接根据 \[P(x_i,c)=\frac{|D_{c,x_i}|}{|D|} \] 也可以求出条件概率,和用极大似然估计做出一样。但题目要求用极大似然估计,那还是套用一下极大似然法 ...
做这道题花费了五天左右的时间,主要是python基础不怎么样,看着别人的代码,主要是参考https://blog.csdn.net/Snoopy_Yuan/article/details/63684219 一行一行地弄懂,然后再自己写。 一、获得以下经验: 1、在使用梯度下降算法求解 ...
https://blog.csdn.net/kchai31/article/details/78966941 ...
习题 4.1 试证明对于不含冲突数据 (即特征向量完全相同但标记不同) 的训练集, 必存在与训练集一致 (即训练误差为 0)的决策树. 既然每个标记不同的数据特征向量都不同, 只要树的每一条 (从根解点到一个叶节点算一条) 枝干代表一种向量, 这个决策树就与训练集一致. 4.2 ...
习题 6.1 试证明样本空间中任意点 \(\boldsymbol{x}\) 到超平面 \((\boldsymbol{w}, b)\) 的距离为式 \((6.2)\) . 设超平面为 \(\ell(\boldsymbol{w}, b)\) , \(\boldsymbol{x ...
习题 3.1 试析在什么情况下式 \((3.2)\) 中不必考虑偏置项 \(b\) . 书中有提到, 可以把 \(x\) 和 \(b\) 吸收入向量形式 \(\hat{w} = (w;b)\) .此时就不用单独考虑 \(b\) 了. 其实还有很多情况不用, 比如说使用 ...
习题 5.1 试述将线性函数 \(f(\boldsymbol{x}) = \boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}\) 用作神经元激活函数的缺陷. 理想中的激活函数是阶跃函数, 但是它不连续, 不光滑, 所以要一个连续、光滑的函数替代它. 线性 ...