Fully Motion-Aware Network for Video Object Detection
來自清華的一篇文章,發表在ECCV2018上,是對FGFA做的改進。
針對R-FCN這一目標檢測算法做出的專有改進,目前看來這個方法只適合用在R-FCN,無法遷移到其他目標檢測算法,如faster rcnn、SSD等。
具體的做法是這樣的,FGFA就是圖中左半部分,分別提取相鄰幀的圖片特征,並用光流做對齊,這篇文章有意思的點在於他對多幀特征進行的是求和去平均值,
沒用加權平均,作者稱直接取平均得到的結果和加權平均相差不大,還能減少計算量。作者稱左邊這一步為像素級的對齊。右邊是作者提出的實例級的對齊,將每一張圖片的
特征送入檢測網絡,得到多個proposal的位置敏感圖,再利用光流對得到的位置敏感圖進行對齊,將對齊後的結果取平均做一個增強,達到了還不錯的效果。
在VID上達到了78.1的mAP,但文章裏沒有提速度,感覺比FGFA會慢一些。
Fully Motion-Aware Network for Video Object Detection
相關推薦
Fully Motion-Aware Network for Video Object Detection
目標檢測 prop cti bubuko 提取 inf 相差 detect fast 來自清華的一篇文章,發表在ECCV2018上,是對FGFA做的改進。 針對R-FCN這一目標檢測算法做出的專有改進,目前看來這個方法只適合用在R-FCN,無法遷移到其他目標檢測算
MSCNN論文解讀-A Unified Multi-scale Deep Convolutional Neural Network for Fast Object Detection
多尺度深度卷積神經網路進行快速目標檢測: 兩階段目標檢測器,與faster-rcnn相似,分為an object proposal network and an accurate detection network. 文章主要解決的是目標大小不一致的問題,尤其是對小目標的檢測,通過多
20.Flow-Guided Feature Aggregation for Video Object Detection
用於視訊目標檢測的流引導特徵聚合 摘要 將最先進的目標檢測器從影象擴充套件到視訊是具有挑戰性的。檢測的準確性受到視訊中外觀惡化的影響,例如,運動模糊,視訊散焦,罕見姿勢等。現有工作試圖在盒級上利用時間資訊,但是這種方法不是端對端訓練的。我們提出了流引導特徵聚合,一種用於視訊目標檢測的精確的端
Dynamic Zoom-in Network for Fast Object Detection in Large Images 閱讀筆記
摘要 我們引入了一個通用框架, 它降低了物體檢測的計算成本, 同時保留了不同大小的物體在高解析度影象中出現的情況的準確性。檢測過程中以coarse-to-fine的方式進行,首先對影象的down-sampled版本,然後在一系列較高解析度區域上,識別出哪些可能
【論文筆記】視訊物體檢測(VID)系列 FGFA:Flow-Guided Feature Aggregation for Video Object Detection
1.Abstract 視訊中的物體檢測會受到諸如運動模糊、視訊散焦、奇特姿態等的影響。現有的工作嘗試從box-level使用temporal資訊,但是這種方法不能端到端地進行訓練。我們提出了FGFA,在frame-level使用temporal資訊。它將相
論文閱讀筆記(三十八):Dynamic Zoom-in Network for Fast Object Detection in Large Images
We introduce a generic framework that reduces the computational cost of object detection while retaining accuracy for scenarios whe
MODNet-Motion and Appearance based Moving Object Detection Network for Autonomous Driving
相關連線 解決問題 獲得兩種結果,一個是區分運動前景和靜態背景的mask,另外一個是檢測所有車輛的bounding boxes,並且區分 主要貢獻 MODNet 一個雙流的多工學習框架,兩個VGG16的編碼網路,分別提取RGB影象和稠密光流影象的特徵,
【轉】論文閱讀(Chenyi Chen——【ACCV2016】R-CNN for Small Object Detection)
數據 大小 table 使用 con 改進 包括 end 修改 Chenyi Chen——【ACCV2016】R-CNN for Small Object Detection 目錄 作者和相關鏈接 方法概括 創新點和貢獻 方法細節 實驗結果 總結與收獲點 參考文獻
Focal Loss for Dense Object Detection 論文閱讀
因此 分類 技術分享 模型 出發點 oss oca 圖片 同時 何凱明大佬 ICCV 2017 best student paper 作者提出focal loss的出發點也是希望one-stage detector可以達到two-stage detector的準確率,同時
Rich feature hierarchies for accurate object detection and semantic segmentation(理解)
0 - 背景 該論文是2014年CVPR的經典論文,其提出的模型稱為R-CNN(Regions with Convolutional Neural Network Features),曾經是物體檢測領域的state-of-art模型。 1 - 相關知識補充 1.1 - Selective Searc
ECCV 2018 論文閱讀筆記——Acquisition of Localization Confidence for Accurate Object Detection
目標檢測涉及到目標分類和目標定位,但很多基於 CNN 的目標檢測方法都存在分類置信度和定位置信度不匹配的問題。針對這一問題,一種稱之為 IoU-Net 的目標檢測新方法被提出,在基準方法的基礎上實現了顯著的提升。該論文已被將於當地時間 9 月 8
《Frustum PointNets for 3D Object Detection from RGB-D Data》論文及程式碼學習(二)程式碼部分
《Frustum PointNets for 3D Object Detection from RGB-D Data》論文及程式碼學習(二)程式碼部分 文章目錄 《Frustum PointNets for 3D Object Detection from RG
《Frustum PointNets for 3D Object Detection from RGB-D Data》論文及程式碼學習
《Frustum PointNets for 3D Object Detection from RGB-D Data》論文及程式碼學習 《Frustum PointNets for 3D Object Detection from RGB-D Data》一文是Charles R.Qi
Rich feature hierarchies for accurate object detection and semantic segmentation (RCNN)筆記
RCNN系列對比圖,來源 1、本文主要是記錄RCNN。論文相對於以前的傳統方法的改進有: 速度,經典的目標檢測演算法使用滑動視窗依次判斷所有可能的區域。本文則(採用selective Search方法)預先提取一系列較可能是物體的候選區域,之後僅僅在這些候選區域上進行featur
「Computer Vision」Notes on Deep Learning for Generic Object Detection
QQ Group: 428014259 Sina Weibo:小鋒子Shawn Tencent E-mail:[email protected] http://blog.csdn.net/dgyuanshaofeng/article/details/83834249 [1]
[論文理解]Region-Based Convolutional Networks for Accurate Object Detection and Segmentation
Region-Based Convolutional Networks for Accurate Object Detection and Segmentation 概括 這是一篇2016年的目標檢測的文章,也是一篇比較經典的目標檢測的文章。作者介紹到,現在表現最好的方法非常的複雜,而本文的方法,簡單又容
SCBU-Scene conditional background update for moving object detection in a moving camera
專案地址:https://sites.google.com/view/kiminyun/profile 程式碼下載網站:https://github.com/CansenJIANG/SCBU 下載解壓後,執行提示缺 opencv_video249.dll 在D:\opencv
DAVIS2016-A Benchmark Dataset and Evaluation Methodology for Video Object Segmentation
專案網址:https://davischallenge.org/davis2016/code.html 稠密標註的視訊目標分割資料集 可以用於半監督和無監督的方法檢驗 可以用於目標分割問題,也可以用於運動檢測問題 有訓練集,但測試集包含訓練集 後續會更新如何使用該
論文閱讀筆記二十三:Rich feature hierarchies for accurate object detection and semantic segmentation Tech report(R-CNN CVPR2014)
論文源址:http://www.cs.berkeley.edu/~rbg/#girshick2014rcnn 摘要 在PASCAL VOC資料集上,最好的方法的思路是將低階資訊與較高層次的上下文資訊進行結合。該文的兩個亮點:(1)將CNN應用到re
Deep Learning for Generic Object Detection: A Survey
Abstract 通用物件檢測,旨在從自然影象中的大量預定義類別定位物件物體,是計算機視覺中最基本和最具挑戰性的問題之一。 近幾年來,深度學習技術成為了直接從資料中學習特徵表示的有力方法,並在通用物件檢測領域取得了顯著的突破。 鑑於這個快速發展的時代,本文的目標是對深度學習