原文:凸在线学习:理论与实践

为什么写在线学习的博客 有三个原因,一是在线学习在工业界广受欢迎,应用场景较多,尤其是涉及时序数据流的场景,有研究的价值 二是在线学习理论完备且较繁杂,需要仔细梳理归纳总结,硬看 Google 论文里的伪代码很难理解其真正含义 三是在线学习网上学习资源较少,我希望能通过自己的学习和理解,写出一篇综述型博客为后来者提供些许帮助。本人水平有限,时间有限,所以对在线学习无法深挖,只能点到为止,我在写这篇 ...

2018-07-22 19:14 1 1035 推荐指数:

查看详情

在线学习在线优化(online learning and online convex optimization)—在线优化框架3

  近年来,许多有效的在线学习算法的设计受到优化工具的影响。 此外,据观察,大多数先前提出的有效算法可以基于以下优雅模型联合分析:      集的定义:      一个向量 的Regret定义为:      如前所述,算法相对于竞争向量的集合U的Regret被定义 ...

Sat Sep 01 19:15:00 CST 2018 0 840
在线学习在线优化(online learning and online convex optimization)—化方法4

  一些在线预测问题可以转化到在线优化框架中。下面介绍两种化技术:   一些在线预测问题似乎不适合在线优化框架。例如,在线分类问题中,预测域(predictions domain)或损失函数不是的。我们描述了两种化技术,它们允许我们在其他场景中使用在线优化框架 ...

Sun Sep 02 00:47:00 CST 2018 0 1911
优化理论介绍

  因为本人近期在学习优化的内容,所以决定第一篇帖子写一些关于优化理论的相关介绍,希望对那些对优化有兴趣的同学和初学者有帮助。   首先想要和大家说的是,优化听上去是一门很高深的数学理论,其实学习优化的基础要求其实并不是很高,对于大部分大学理工科的本科生应该都没有问题,关键就是高等数学 ...

Thu Jan 09 07:01:00 CST 2014 5 10347
在线学习在线优化(online learning and online convex optimization)—FTL算法5

  最自然的学习规则是使用任何在过去回合中损失最小的向量。 这与Consistent算法的精神相同,它在在线优化中通常被称为Follow-The-Leader,最小化累积损失。   对于任何t:                  我们谈到了能最小化累计损失不能说明此算法在在线学习场景 ...

Sun Sep 02 18:33:00 CST 2018 0 784
理论实践,谈谈我对memcached的学习感悟!

近几天,浏览了大量的memcached相关文章,又自己动手实践了一番至此,对memcached有了更加深入的了解在继续编写memcached操作类(基于java_memcached-release)的同时留下一些自认为比较重要的知识,算是总结一下吧如果其中有理解不当的,请高手给予指点,万分感谢 ...

Sat May 11 07:45:00 CST 2013 5 2416
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM