DARTS 2019-ICLR-DARTS Differentiable Architecture Search 来源:ChenBong 博客园 Institute:CMU、Google Author:Hanxiao Liu、Karen Simonyan、Yiming ...
ICLR : Scene Transformer: A unified architecture for predicting future trajectories of multiple agents Type: ICLR Year: 组织: waymo 参考与前言 openreivew https: openreview.net forum id Wm EA OlHsG pdf Scene ...
2022-04-05 22:08 0 694 推荐指数:
DARTS 2019-ICLR-DARTS Differentiable Architecture Search 来源:ChenBong 博客园 Institute:CMU、Google Author:Hanxiao Liu、Karen Simonyan、Yiming ...
论文地址:https://arxiv.org/pdf/2111.12707.pdf Github:https://github.com/Vegetebird/MHFormer 单位:北大深圳研究生院、苏黎世联邦理工学院、阿里巴巴 摘要 由于深度模糊和自遮挡,从单目视频中估计三维人体姿态 ...
Swin Transformer Swin transformer是一个用了移动窗口的层级式(Hierarchical)transformer。其像卷积神经网络一样,也能做block以及层级式的特征提取。本篇博客结合网上的资料,对该论文进行学习。 摘要 本篇论文提出了一个新 ...
YOLO的一大特点就是快,在处理上可以达到完全的实时。原因在于它整个检测方法非常的简洁,使用回归的方法,直接在原图上进行目标检测与定位。 多任务检测: 网络把目标检测与定位统一到一个深度网络 ...
结束了所有课程,继续更新博客,争取做到自我监督,更新论文笔记。 1 问题描述 在语义分割任务中, 识别上下文关系将有助于场景理解,同一类别之间的相关性(类内上下文)和不同类别之间的差异性(类间上下文)使特征表示具有更强的鲁棒性,减少了可能类别的搜索空间。当前方法如金字塔(如图b)、注意力 ...
论文:Lite Transformer with Long-Short Range Attention by Wu, Liu et al. [ code in github ] LSRA特点:两组head,其中一组头部专注于局部上下文建模(通过卷积),而另一组头部专注于长距离关系建模 ...
这是一篇行人重识别的综述文章,作为我该方向入门的基础读物 Title: Person Re-identification: Past, Present and Future [PDF] Authors: Liang Zheng, Yi Yang, Alexander G. ...
Sensor/组织: Uber Status: Reading Summary: 非常棒!端到端输出map中间态 一种建图 感知 预测 规划的通用框架 Type: CVPR Year: 2021 引用量: 20 参考与前言 论文链接: https ...