課上習題
【1】線性回歸
Answer: D
A 特征縮放不起作用,B for all 不對,C zero error不對
【2】概率
Answer:A
【3】預測圖形
Answer:A
5 - x1 ≥ 0時,y = 1。即x1 ≤ 5時,y = 1
【4】凸函數
【5】代價函數
Answer:ABD
任何情況下都是 預測對時 cost為0,反之為正無窮
【6】代價函數
【7】向量化
Answer:A
【8】高級優化算法
Answer:C
【9】多分類
測驗
AB
Answer:BE
當有一個feature時是一條直線,當有兩個feature時一條曲線,有更多的feature時是一條彎七彎八的曲線 。當feature越來越多時,曲線越來越擬合,即損失函數越來越小
A 邏輯回歸沒有局部最優
B 當增加feature時,擬合的更好. 正確
C 擬合不好但還是會收斂
D 線性回歸
E 直線不會完全擬合這幾個數據。找到最佳的θ,但是J(θ)會大於0。 正確
F 和B相反,錯誤
G 0< hθ(x(i)) <1 不可能大於1。 錯誤
Answer: BCE
AD是線性回歸
F少了一個下標 j
Answer:AB
C 線性回歸用於分類不好使
D 邏輯回歸是凸函數 沒有局部最優解的情況。
Answer:D
【1】regularization
Answer:C
【2】
【3】
Answer:A
A :新加的feature會提高 train set的擬合度
B :more features能夠更好的 fit 訓練集,同時也容易導致overfit,是more likely而不是 prevent. 不正確
C,D:將正則化方法加入模型並不是每次都能取得好的效果,如果取得太大的化就會導致欠擬合. 這樣不論對 traing set 還是 examples都不好. 不正確
Answer:B
邏輯回歸中,由於λ的加入 參數Θ會變小
Answer:C
Answer: A
Answer:A