習題 5.1 試述將線性函數 \(f(\boldsymbol{x}) = \boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}\) 用作神經元激活函數的缺陷. 理想中的激活函數是階躍函數, 但是它不連續, 不光滑, 所以要一個連續、光滑的函數替代它. 線性 ...
習題 . 試析在什么情況下式 . 中不必考慮偏置項 b . 書中有提到, 可以把 x 和 b 吸收入向量形式 hat w w b .此時就不用單獨考慮 b 了. 其實還有很多情況不用, 比如說使用了 mathrm one hot 編碼, 就可以不用考慮偏置項. 更廣泛的情況是, 如果偏置項 b 可以被 包含 在另外的一些離散特征里, 那么就不用考慮. 就是偏置項可以以一定系數加到離散特征中. 可能 ...
2020-01-04 22:03 4 2238 推薦指數:
習題 5.1 試述將線性函數 \(f(\boldsymbol{x}) = \boldsymbol{w}^{\mathrm{T}}\boldsymbol{x}\) 用作神經元激活函數的缺陷. 理想中的激活函數是階躍函數, 但是它不連續, 不光滑, 所以要一個連續、光滑的函數替代它. 線性 ...
習題 4.1 試證明對於不含沖突數據 (即特征向量完全相同但標記不同) 的訓練集, 必存在與訓練集一致 (即訓練誤差為 0)的決策樹. 既然每個標記不同的數據特征向量都不同, 只要樹的每一條 (從根解點到一個葉節點算一條) 枝干代表一種向量, 這個決策樹就與訓練集一致. 4.2 ...
習題 6.1 試證明樣本空間中任意點 \(\boldsymbol{x}\) 到超平面 \((\boldsymbol{w}, b)\) 的距離為式 \((6.2)\) . 設超平面為 \(\ell(\boldsymbol{w}, b)\) , \(\boldsymbol{x ...
【機器學習】《機器學習》周志華西瓜書 筆記/習題答案 總目錄 https://blog.csdn.net/TeFuirnever/article/details/96178919 ...
【第1章 緒論】 1.1 引言 學習算法:機器學習所研究的主要內容,是關於在計算機上從數據中產生“模型”的算法,即“學習算法”。 學習算法的作用:1.基於提供的經驗數據產生模型; 2.面對新情況時,模型 ...
機器學習西瓜書課后習題答案---1、緒論 一、總結 一句話總結: 一些【特別花時間又不太重要】的東西(比如一些概念),可以【多參照別人的視頻解釋】,這樣節約時間 1、試述機器學習在互聯網搜索的哪些環節起什么作用? 1.【消息推送】:比如當我搜索“機器學習”之后,再打開某些網頁 ...
機器學習西瓜書課后習題答案---2、模型評估 一、總結 一句話總結: 理解必然是個【逐步加深】的過程,所以前期可以【最短時間做最高效率】(重點、核心點、視頻)的事情 1、【Min-max】 規范化和【z-score】 規范化的優缺點? 【Min-max】規范化:$$x ...
第一章 緒論 第二章 模型評估與選擇 第三章 線性模型 第四章 決策樹 第五章 神經網絡 第六章 支持向量機 第七章 貝葉斯分類器 第八章 集成學習 第九章 聚類 第十章 降緯與度量學習 第十一章 特征選擇與稀疏學習 第十二章 計算理論學習 第十三章 半監督學習 第十四章 ...