【原】Coursera—Andrew Ng機器學習—Week 3 習題—Logistic Regression 邏輯回歸


課上習題

【1】線性回歸

Answer: D

A 特征縮放不起作用,B for all 不對,C zero error不對

 【2】概率

Answer:A

【3】預測圖形

 

Answer:A

5 - x1 ≥ 0時,y = 1。即x1 ≤ 5時,y = 1

 【4】凸函數

   

【5】代價函數

Answer:ABD

任何情況下都是 預測對時 cost為0,反之為正無窮

 【6】代價函數

 【7】向量化

 

Answer:A

【8】高級優化算法

 

 Answer:C

【9】多分類

 


 

測驗

 AB

 

  Answer:BE

當有一個feature時是一條直線,當有兩個feature時一條曲線,有更多的feature時是一條彎七彎八的曲線 。當feature越來越多時,曲線越來越擬合,即損失函數越來越小

A 邏輯回歸沒有局部最優

B 當增加feature時,擬合的更好. 正確

C 擬合不好但還是會收斂

D 線性回歸

E 直線不會完全擬合這幾個數據。找到最佳的θ,但是J(θ)會大於0。 正確

F 和B相反,錯誤

G 0< hθ(x(i)) <1 不可能大於1。 錯誤

       

 Answer: BCE

AD是線性回歸

F少了一個下標 j

 

 Answer:AB

C 線性回歸用於分類不好使

D 邏輯回歸是凸函數 沒有局部最優解的情況。

 Answer:D

 


 

【1】regularization

 Answer:C

【2】

【3】

 

 

Answer:A

A :新加的feature會提高 train set的擬合度

B :more features能夠更好的 fit 訓練集,同時也容易導致overfit,是more likely而不是 prevent. 不正確

C,D:將正則化方法加入模型並不是每次都能取得好的效果,如果取得太大的化就會導致欠擬合. 這樣不論對 traing set 還是 examples都不好. 不正確  

Answer:B

邏輯回歸中,由於λ的加入 參數Θ會變小

Answer:C

 

 

 

Answer: A

 

Answer:A


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM