在线学习和在线凸优化(online learning and online convex optimization)—FTL算法5


  最自然的学习规则是使用任何在过去回合中损失最小的向量。 这与Consistent算法的精神相同,它在在线凸优化中通常被称为Follow-The-Leader,最小化累积损失。

  对于任何t:

           

  

  我们谈到了能最小化累计损失不能说明此算法在在线学习场景是有效,我们需要探究算法的 Regret bound:

  

  采用归纳法证明:

  

  例子1:Online Quadratic Optimization

  

  例子2:Online Linear Optimization

  

  未完,待续。。。。。。

  下一节将讲述FTRL算法

 

  


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM