原文:在線學習和在線凸優化(online learning and online convex optimization)—在線分類問題2

緊接上文,我們講述在線分類問題 令,為 損失,我們做出如下的簡化假設: 學習者的目標是相對於hypotheses set: H具有low regret,其中H中的每個函數是從到 , 的映射,並且regret被定義為: 我們首先證明這是一個不可能完成的任務 如果,沒有算法可以獲得次線性regret bound。考慮,是一個總是返 的函數,是一個總是返 的函數。通過簡單地等待學習者的預測然后提供相反的 ...

2018-08-31 15:05 0 1148 推薦指數:

查看詳情

在線學習和在線優化online learning and online convex optimization)—化方法4

  一些在線預測問題可以轉化到在線優化框架中。下面介紹兩種化技術:   一些在線預測問題似乎不適合在線優化框架。例如,在線分類問題中,預測域(predictions domain)或損失函數不是的。我們描述了兩種化技術,它們允許我們在其他場景中使用在線優化框架 ...

Sun Sep 02 00:47:00 CST 2018 0 1911
在線學習和在線優化online learning and online convex optimization)—FTL算法5

  最自然的學習規則是使用任何在過去回合中損失最小的向量。 這與Consistent算法的精神相同,它在在線優化中通常被稱為Follow-The-Leader,最小化累積損失。   對於任何t:                  我們談到了能最小化累計損失不能說明此算法在在線學習場景 ...

Sun Sep 02 18:33:00 CST 2018 0 784
在線優化求解(Online Optimization)之五:FTRL

在線優化求解(Online Optimization)之五:FTRL 在上一篇博文中中我們從原理上定性比較了L1-FOBOS和L1-RDA在稀疏性上的表現。有實驗證明,L1-FOBOS這一類基於梯度下降的方法有比較高的精度,但是L1-RDA卻能在損失一定精度的情況下產生更好的稀疏性 ...

Thu Jul 30 03:53:00 CST 2015 0 2396
在線優化求解(Online Optimization)之三:FOBOS

在線優化求解(Online Optimization)之三:FOBOS FOBOS (Forward-Backward Splitting)是由John Duchi和Yoram Singer提出的[11]。從全稱上來看,該方法應該叫FOBAS,但是由於一開始作者管這種方法叫FOLOS ...

Thu Jul 30 03:52:00 CST 2015 0 2220
優化(Convex Optimization)淺析

本博客已經遷往http://www.kemaswill.com/, 博客園這邊也會繼續更新, 歡迎關注~ 在機器學習中, 很多情況下我們都需要求得一個 問題的全局最優值(global optimum). 大多數的全局最優值很難求得, 但是對於問題, 我們可以比較高效的找到其全局最優值, 這是 ...

Sun Nov 24 06:47:00 CST 2013 0 8392
編程--在線提交系統(Online Judge)

編程--在線提交系統(Online Judge) 浙江大學 Online Judge(ZOJ)http://acm.zju.edu.cn國內最早也是最有名氣的OJ,有很多高手在上面做題。特點是數據比較刁鑽,經常會有你想不到的邊界數據,很能考驗思維的全面性。 北京大學 ...

Sun Dec 29 07:45:00 CST 2019 0 1197
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM