論文原址:https://arxiv.org/abs/1707.02921 代碼: https://github.com/LimBee/NTIRE2017 摘要 以DNN進行超分辨的研究比較流行,其中,殘差學習較大的提高了性能。本文提出了增強的深度超分辨網絡(EDST ...
Introduction 對於image text embedding learning,作者提出了 cross modal projection matching CMPM loss 和 cross modal projection classification CMPC loss。前者最小化兩個模態特征投影分布的KL散度 后者基於norm softmax損失,對模態A在模態B上的投影特征進行分 ...
2021-03-01 15:57 0 489 推薦指數:
論文原址:https://arxiv.org/abs/1707.02921 代碼: https://github.com/LimBee/NTIRE2017 摘要 以DNN進行超分辨的研究比較流行,其中,殘差學習較大的提高了性能。本文提出了增強的深度超分辨網絡(EDST ...
Methodology 作者提出TIMAM (Text-Image Modality Adversarial Matching)方法,比較簡潔明了,具體包含三個部分: (1)特征提取器: 文本采用BERT提取詞向量,再輸入LSTM提取文本特征; 圖像采用ResNet101提取特征 ...
Learning Cross-Modal Deep Representations for Robust Pedestrian Detection 2017-04-11 19:40:22 Motivation: 本文主要是考慮了在光照極端惡劣的情況下,如何充分的利用 ...
目錄: 相關鏈接 方法亮點 相關工作 方法細節 實驗結果 總結與收獲 相關鏈接 論文:https://arxiv.org/abs/1803.02077 代碼:https://github.com/roimehrez ...
Stacked Cross Attention for Image-Text Matching 2020-03-06 15:13:08 Paper: https://arxiv.org/pdf/1803.08024.pdf Code: https://github.com ...
一、背景 圖像-文本跨模態檢索是一個具有挑戰性的研究課題,當給定一個模態(圖像或文本句子)的查詢時,它的目標是從數據庫中以另一個模態檢索最相似的樣本。這里的關鍵挑戰是如何通過理解跨模式數據的內容 ...
目錄 相關鏈接 方法亮點 相關工作 方法細節 實驗結果 總結與收獲 參考文獻 相關鏈接: 論文:https://arxiv.org/abs/1808.00948 代碼:https://github.com/HsinYingLee ...
論文原址:https://arxiv.org/pdf/1808.01244.pdf github:https://github.com/princeton-vl/CornerNet 摘要 本文提出了目標檢測算法的新的模型結構,利用單個卷積網絡將框的左上角及右下角 ...