題目描述: 編程實現對率回歸,並給出西瓜數據集3.0\(\alpha\)上的結果。 編程實現 對數幾率回歸最小化損失函數(西瓜書公式3.27)如下: \[l(\beta) = \sum_{i=1}^m (-y_i\beta ^T x_i + ln(1+e^{\beta^T x_i ...
本博客只包含 章代碼編程課后習題的偽代碼,僅作參考。 第三章 對數幾率回歸 . 編程實現對率回歸,並給出西瓜數據集 . 上的結果 輸入:數據集 . a 輸出:測試集上的准確率 . 選擇兩個 UCI 數據集,比較 折交叉驗證法和留一法所估計出的對率回歸的錯誤率。 . 數據集的改變方式 留一法: 有m個數據樣本,k折交叉驗證是把樣本划分為 等份,留一法就是k m時的場景,即每次留 個樣本做測試集,剩 ...
2021-11-23 22:14 0 127 推薦指數:
題目描述: 編程實現對率回歸,並給出西瓜數據集3.0\(\alpha\)上的結果。 編程實現 對數幾率回歸最小化損失函數(西瓜書公式3.27)如下: \[l(\beta) = \sum_{i=1}^m (-y_i\beta ^T x_i + ln(1+e^{\beta^T x_i ...
題目描述 試用極大似然法估計西瓜數據集3.0中前3個屬性的類條件概率。 解答 如果不用極大似然法,直接根據 \[P(x_i,c)=\frac{|D_{c,x_i}|}{|D|} \] 也可以求出條件概率,和用極大似然估計做出一樣。但題目要求用極大似然估計,那還是套用一下極大似然法 ...
做這道題花費了五天左右的時間,主要是python基礎不怎么樣,看着別人的代碼,主要是參考https://blog.csdn.net/Snoopy_Yuan/article/details/63684219 一行一行地弄懂,然后再自己寫。 一、獲得以下經驗: 1、在使用梯度下降算法求解 ...
https://blog.csdn.net/kchai31/article/details/78966941 ...
習題 4.1 試證明對於不含沖突數據 (即特征向量完全相同但標記不同) 的訓練集, 必存在與訓練集一致 (即訓練誤差為 0)的決策樹. 既然每個標記不同的數據特征向量都不同, 只要樹的每一條 (從根解點到一個葉節點算一條) 枝干代表一種向量, 這個決策樹就與訓練集一致. 4.2 ...
習題 6.1 試證明樣本空間中任意點 \(\boldsymbol{x}\) 到超平面 \((\boldsymbol{w}, b)\) 的距離為式 \((6.2)\) . 設超平面為 \(\ell(\boldsymbol{w}, b)\) , \(\boldsymbol{x ...
習題 3.1 試析在什么情況下式 \((3.2)\) 中不必考慮偏置項 \(b\) . 書中有提到, 可以把 \(x\) 和 \(b\) 吸收入向量形式 \(\hat{w} = (w;b)\) .此時就不用單獨考慮 \(b\) 了. 其實還有很多情況不用, 比如說使用 ...
習題 5.1 試述將線性函數 \(f(\boldsymbol{x}) = \boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}\) 用作神經元激活函數的缺陷. 理想中的激活函數是階躍函數, 但是它不連續, 不光滑, 所以要一個連續、光滑的函數替代它. 線性 ...