目標檢測實戰:4種YOLO目標檢測的C++和Python兩種版本實現


本文作者使用C++編寫一套基於OpenCV的YOLO目標檢測,包含了經典的YOLOv3,YOLOv4,Yolo-Fastest和YOLObile這4種YOLO目標檢測的實現。附代碼詳解。 

2020年,新出了幾個新版本的YOLO目標檢測,在微信朋友圈里轉發的最多的有YOLOv4,Yolo-Fastest,YOLObile以及百度提出的PP-YOLO。在此之前,我已經在github發布過YOLOv4,Yolo-Fastest,YOLObile這三種YOLO基於OpenCV做目標檢測的程序,但是這些程序是用Python編寫的。接下來,我就使用C++編寫一套基於OpenCV的YOLO目標檢測,這個程序里包含了經典的YOLOv3,YOLOv4,Yolo-Fastest和YOLObile這4種YOLO目標檢測的實現。

1. 實現思路

用面向對象的思想定義一個類,類的構造函數會調用opencv的dnn模塊讀取輸入的.cfg和.weights文件來初始化YOLO網絡,類有一個成員函數detect對輸入的圖像做目標檢測,主要包括前向推理forward和后處理postprocess。這樣就把YOLO目標檢測模型封裝成了一個類。最后在主函數main里設置一個參數可以選擇任意一種YOLO做目標檢測,讀取一幅圖片,調用YOLO類里的detect函數執行目標檢測,畫出圖片中的物體的類別和矩形框。

2. 實現步驟

定義類的構造函數和成員函數和成員變量,如下所示。其中confThreshold是類別置信度閾值,nmsThreshold是重疊率閾值,inpHeight和inpWidth使輸入圖片的高和寬,netname是yolo模型名稱,classes是存儲類別的數組,本套程序是在COCO數據集上訓練出來的模型,因此它存儲有80個類別。net是使用opencv的dnn模塊讀取配置文件和權重文件后返回的深度學習模型,postprocess是后處理函數,drawPred是在檢測到圖片里的目標后,畫矩形框和類別名。

class YOLO{ public: YOLO(Net_config config); void detect(Mat& frame); private: float confThreshold; float nmsThreshold; int inpWidth; int inpHeight; char netname[20]; vector<string> classes; Net net; void postprocess(Mat& frame, const vector<Mat>& outs); void drawPred(int classId, float conf, int left, int top, int right, int bottom, Mat& frame);};
 

接下來,定義一個結構體和結構體數組,如下所示。結構體里包含了類別置信度閾值,重疊率閾值,模型名稱,配置文件和權重文件的路徑,存儲所有類別信息的文檔的路徑,輸入圖片的高和寬。然后在結構體數組里,包含了四種YOLO模型的參數集合。

struct Net_config{ float confThreshold; // Confidence threshold float nmsThreshold; // Non-maximum suppression threshold int inpWidth; // Width of network's input image int inpHeight; // Height of network's input image string classesFile; string modelConfiguration; string modelWeights; string netname;};
Net_config yolo_nets[4] = { {0.5, 0.4, 416, 416,"coco.names", "yolov3/yolov3.cfg", "yolov3/yolov3.weights", "yolov3"}, {0.5, 0.4, 608, 608,"coco.names", "yolov4/yolov4.cfg", "yolov4/yolov4.weights", "yolov4"}, {0.5, 0.4, 320, 320,"coco.names", "yolo-fastest/yolo-fastest-xl.cfg", "yolo-fastest/yolo-fastest-xl.weights", "yolo-fastest"}, {0.5, 0.4, 320, 320,"coco.names", "yolobile/csdarknet53s-panet-spp.cfg", "yolobile/yolobile.weights", "yolobile"}};
 

接下來是YOLO類的構造函數,如下所示,它會根據輸入的結構體Net_config,來初始化成員變量,這其中就包括opencv讀取配置文件和權重文件后返回的深度學習模型。

YOLO::YOLO(Net_config config){ cout << "Net use " << config.netname << endl; this->confThreshold = config.confThreshold; this->nmsThreshold = config.nmsThreshold; this->inpWidth = config.inpWidth; this->inpHeight = config.inpHeight; strcpy_s(this->netname, config.netname.c_str());
ifstream ifs(config.classesFile.c_str()); string line; while (getline(ifs, line)) this->classes.push_back(line);
this->net = readNetFromDarknet(config.modelConfiguration, config.modelWeights); this->net.setPreferableBackend(DNN_BACKEND_OPENCV); this->net.setPreferableTarget(DNN_TARGET_CPU);}
 

接下來的關鍵的detect函數,在這個函數里,首先使用blobFromImage對輸入圖像做預處理,然后是做forward前向推理和postprocess后處理。

void YOLO::detect(Mat& frame){ Mat blob; blobFromImage(frame, blob, 1 / 255.0, Size(this->inpWidth, this->inpHeight), Scalar(0, 0, 0), true, false); this->net.setInput(blob); vector<Mat> outs; this->net.forward(outs, this->net.getUnconnectedOutLayersNames()); this->postprocess(frame, outs);
vector<double> layersTimes; double freq = getTickFrequency() / 1000; double t = net.getPerfProfile(layersTimes) / freq; string label = format("%s Inference time : %.2f ms", this->netname, t); putText(frame, label, Point(0, 30), FONT_HERSHEY_SIMPLEX, 1, Scalar(0, 0, 255), 2); //imwrite(format("%s_out.jpg", this->netname), frame);}
 

postprocess后處理函數的代碼實現如下,在這個函數里,for循環遍歷所有的候選框outs,計算出每個候選框的最大類別分數值,也就是真實類別分數值,如果真實類別分數值大於confThreshold,那么就對這個候選框做decode計算出矩形框左上角頂點的x, y,高和寬的值,然后把真實類別分數值,真實類別索引id和矩形框左上角頂點的x, y,高和寬的值分別添加到confidences,classIds和boxes這三個vector里。在for循環結束后,執行NMS,去掉重疊率大於nmsThreshold的候選框,剩下的檢測框就調用drawPred在輸入圖片里畫矩形框和類別名稱以及分數值。

void YOLO::postprocess(Mat& frame, const vector<Mat>& outs) // Remove the bounding boxes with low confidence using non-maxima suppression{ vector<int> classIds; vector<float> confidences; vector<Rect> boxes;
for (size_t i = 0; i < outs.size(); ++i) { // Scan through all the bounding boxes output from the network and keep only the // ones with high confidence scores. Assign the box's class label as the class // with the highest score for the box. float* data = (float*)outs[i].data; for (int j = 0; j < outs[i].rows; ++j, data += outs[i].cols) { Mat scores = outs[i].row(j).colRange(5, outs[i].cols); Point classIdPoint; double confidence; // Get the value and location of the maximum score minMaxLoc(scores, 0, &confidence, 0, &classIdPoint); if (confidence > this->confThreshold) { int centerX = (int)(data[0] * frame.cols); int centerY = (int)(data[1] * frame.rows); int width = (int)(data[2] * frame.cols); int height = (int)(data[3] * frame.rows); int left = centerX - width / 2; int top = centerY - height / 2;
classIds.push_back(classIdPoint.x); confidences.push_back((float)confidence); boxes.push_back(Rect(left, top, width, height)); } } }
// Perform non maximum suppression to eliminate redundant overlapping boxes with // lower confidences vector<int> indices; NMSBoxes(boxes, confidences, this->confThreshold, this->nmsThreshold, indices); for (size_t i = 0; i < indices.size(); ++i) { int idx = indices[i]; Rect box = boxes[idx]; this->drawPred(classIds[idx], confidences[idx], box.x, box.y, box.x + box.width, box.y + box.height, frame); }}
void YOLO::drawPred(int classId, float conf, int left, int top, int right, int bottom, Mat& frame) // Draw the predicted bounding box{ //Draw a rectangle displaying the bounding box rectangle(frame, Point(left, top), Point(right, bottom), Scalar(0, 0, 255), 3);
//Get the label for the class name and its confidence string label = format("%.2f", conf); if (!this->classes.empty()) { CV_Assert(classId < (int)this->classes.size()); label = this->classes[classId] + ":" + label; }
//Display the label at the top of the bounding box int baseLine; Size labelSize = getTextSize(label, FONT_HERSHEY_SIMPLEX, 0.5, 1, &baseLine); top = max(top, labelSize.height); //rectangle(frame, Point(left, top - int(1.5 * labelSize.height)), Point(left + int(1.5 * labelSize.width), top + baseLine), Scalar(0, 255, 0), FILLED); putText(frame, label, Point(left, top), FONT_HERSHEY_SIMPLEX, 0.75, Scalar(0, 255, 0), 1);}
 

最后是主函數main,代碼實現如下。在主函數里的第一行代碼,輸入參數yolo_nets[2]表示選擇了四種YOLO模型里的第三個yolo-fastest,使用者可以自由設置這個參數,從而能自由選擇YOLO模型。接下來是定義輸入圖片的路徑,opencv讀取圖片,傳入到yolo_model的detect函數里做目標檢測,最后在窗口顯示檢測結果。

int main(){ YOLO yolo_model(yolo_nets[2]); string imgpath = "person.jpg"; Mat srcimg = imread(imgpath); yolo_model.detect(srcimg);
static const string kWinName = "Deep learning object detection in OpenCV"; namedWindow(kWinName, WINDOW_NORMAL); imshow(kWinName, srcimg); waitKey(0); destroyAllWindows();}
 

在編寫並調試完程序后,我多次運行程序來比較這4種YOLO目標檢測網絡在一幅圖片上的運行耗時。運行程序的環境是win10-cpu,VS2019+opencv4.4.0,這4種YOLO目標檢測網絡在同一幅圖片上的運行耗時的結果如下:

圖片圖片圖片圖片

可以看到Yolo-Fastest運行速度最快,YOLObile號稱是實時的,但是從結果看並不如此。並且查看它們的模型文件,可以看到Yolo-Fastest的是最小的。如果在ubuntu-gpu環境里運行,它還會更快。

圖片

整個程序的運行不依賴任何深度學習框架,只需要依賴OpenCV4這個庫就可以運行整個程序,做到了YOLO目標檢測的極簡主義,這個在硬件平台部署時是很有意義的。建議在ubuntu系統里運行這套程序,上面展示的是在win10-cpu機器上的運行結果,而在ubuntu系統里運行,一張圖片的前向推理耗時只有win10-cpu機器上的十分之一。

我把這套程序發布在github上,這套程序包含了C++和Python兩種版本的實現,地址是 https://github.com/hpc203/yolov34-cpp-opencv-dnn

此外,我也編寫了使用opencv實現yolov5目標檢測,程序依然是包含了C++和Python兩種版本的實現,地址是

https://github.com/hpc203/yolov5-dnn-cpp-python 和 https://github.com/hpc203/yolov5-dnn-cpp-python-v2

 

本文作者使用C++編寫一套基於OpenCV的YOLO目標檢測,包含了經典的YOLOv3,YOLOv4,Yolo-Fastest和YOLObile這4種YOLO目標檢測的實現。附代碼詳解。 

2020年,新出了幾個新版本的YOLO目標檢測,在微信朋友圈里轉發的最多的有YOLOv4,Yolo-Fastest,YOLObile以及百度提出的PP-YOLO。在此之前,我已經在github發布過YOLOv4,Yolo-Fastest,YOLObile這三種YOLO基於OpenCV做目標檢測的程序,但是這些程序是用Python編寫的。接下來,我就使用C++編寫一套基於OpenCV的YOLO目標檢測,這個程序里包含了經典的YOLOv3,YOLOv4,Yolo-Fastest和YOLObile這4種YOLO目標檢測的實現。
1. 實現思路
用面向對象的思想定義一個類,類的構造函數會調用opencv的dnn模塊讀取輸入的.cfg和.weights文件來初始化YOLO網絡,類有一個成員函數detect對輸入的圖像做目標檢測,主要包括前向推理forward和后處理postprocess。這樣就把YOLO目標檢測模型封裝成了一個類。最后在主函數main里設置一個參數可以選擇任意一種YOLO做目標檢測,讀取一幅圖片,調用YOLO類里的detect函數執行目標檢測,畫出圖片中的物體的類別和矩形框。
2. 實現步驟
定義類的構造函數和成員函數和成員變量,如下所示。其中confThreshold是類別置信度閾值,nmsThreshold是重疊率閾值,inpHeight和inpWidth使輸入圖片的高和寬,netname是yolo模型名稱,classes是存儲類別的數組,本套程序是在COCO數據集上訓練出來的模型,因此它存儲有80個類別。net是使用opencv的dnn模塊讀取配置文件和權重文件后返回的深度學習模型,postprocess是后處理函數,drawPred是在檢測到圖片里的目標后,畫矩形框和類別名。
class YOLO
{
  public:
    YOLO(Net_config config);
    void detect(Mat& frame);
  private:
    float confThreshold;
    float nmsThreshold;
    int inpWidth;
    int inpHeight;
    char netname[20];
    vector<string> classes;
    Net net;
    void postprocess(Mat& frame, const vector<Mat>& outs);
    void drawPred(int classId, float conf, int left, int top, int right, int bottom, Mat& frame);
};

接下來,定義一個結構體和結構體數組,如下所示。結構體里包含了類別置信度閾值,重疊率閾值,模型名稱,配置文件和權重文件的路徑,存儲所有類別信息的文檔的路徑,輸入圖片的高和寬。然后在結構體數組里,包含了四種YOLO模型的參數集合。
struct Net_config
{
  float confThreshold; // Confidence threshold
  float nmsThreshold;  // Non-maximum suppression threshold
  int inpWidth;  // Width of network's input image
  int inpHeight; // Height of network's input image
  string classesFile;
  string modelConfiguration;
  string modelWeights;
  string netname;
};

Net_config yolo_nets[4] = {
  {0.5, 0.4, 416, 416,"coco.names", "yolov3/yolov3.cfg", "yolov3/yolov3.weights", "yolov3"},
  {0.5, 0.4, 608, 608,"coco.names", "yolov4/yolov4.cfg", "yolov4/yolov4.weights", "yolov4"},
  {0.5, 0.4, 320, 320,"coco.names", "yolo-fastest/yolo-fastest-xl.cfg", "yolo-fastest/yolo-fastest-xl.weights", "yolo-fastest"},
  {0.5, 0.4, 320, 320,"coco.names", "yolobile/csdarknet53s-panet-spp.cfg", "yolobile/yolobile.weights", "yolobile"}
};

接下來是YOLO類的構造函數,如下所示,它會根據輸入的結構體Net_config,來初始化成員變量,這其中就包括opencv讀取配置文件和權重文件后返回的深度學習模型。
YOLO::YOLO(Net_config config)
{
  cout << "Net use " << config.netname << endl;
  this->confThreshold = config.confThreshold;
  this->nmsThreshold = config.nmsThreshold;
  this->inpWidth = config.inpWidth;
  this->inpHeight = config.inpHeight;
  strcpy_s(this->netname, config.netname.c_str());

  ifstream ifs(config.classesFile.c_str());
  string line;
  while (getline(ifs, line)) this->classes.push_back(line);

  this->net = readNetFromDarknet(config.modelConfiguration, config.modelWeights);
  this->net.setPreferableBackend(DNN_BACKEND_OPENCV);
  this->net.setPreferableTarget(DNN_TARGET_CPU);
}

接下來的關鍵的detect函數,在這個函數里,首先使用blobFromImage對輸入圖像做預處理,然后是做forward前向推理和postprocess后處理。
void YOLO::detect(Mat& frame)
{
  Mat blob;
  blobFromImage(frame, blob, 1 / 255.0, Size(this->inpWidth, this->inpHeight), Scalar(0, 0, 0), true, false);
  this->net.setInput(blob);
  vector<Mat> outs;
  this->net.forward(outs, this->net.getUnconnectedOutLayersNames());
  this->postprocess(frame, outs);

  vector<double> layersTimes;
  double freq = getTickFrequency() / 1000;
  double t = net.getPerfProfile(layersTimes) / freq;
  string label = format("%s Inference time : %.2f ms", this->netname, t);
  putText(frame, label, Point(0, 30), FONT_HERSHEY_SIMPLEX, 1, Scalar(0, 0, 255), 2);
  //imwrite(format("%s_out.jpg", this->netname), frame);
}

postprocess后處理函數的代碼實現如下,在這個函數里,for循環遍歷所有的候選框outs,計算出每個候選框的最大類別分數值,也就是真實類別分數值,如果真實類別分數值大於confThreshold,那么就對這個候選框做decode計算出矩形框左上角頂點的x, y,高和寬的值,然后把真實類別分數值,真實類別索引id和矩形框左上角頂點的x, y,高和寬的值分別添加到confidences,classIds和boxes這三個vector里。在for循環結束后,執行NMS,去掉重疊率大於nmsThreshold的候選框,剩下的檢測框就調用drawPred在輸入圖片里畫矩形框和類別名稱以及分數值。
void YOLO::postprocess(Mat& frame, const vector<Mat>& outs)   // Remove the bounding boxes with low confidence using non-maxima suppression
{
  vector<int> classIds;
  vector<float> confidences;
  vector<Rect> boxes;

  for (size_t i = 0; i < outs.size(); ++i)
  {
    // Scan through all the bounding boxes output from the network and keep only the
    // ones with high confidence scores. Assign the box's class label as the class
    // with the highest score for the box.
    float* data = (float*)outs[i].data;
    for (int j = 0; j < outs[i].rows; ++j, data += outs[i].cols)
    {
      Mat scores = outs[i].row(j).colRange(5, outs[i].cols);
      Point classIdPoint;
      double confidence;
      // Get the value and location of the maximum score
      minMaxLoc(scores, 0, &confidence, 0, &classIdPoint);
      if (confidence > this->confThreshold)
      {
        int centerX = (int)(data[0] * frame.cols);
        int centerY = (int)(data[1] * frame.rows);
        int width = (int)(data[2] * frame.cols);
        int height = (int)(data[3] * frame.rows);
        int left = centerX - width / 2;
        int top = centerY - height / 2;

        classIds.push_back(classIdPoint.x);
        confidences.push_back((float)confidence);
        boxes.push_back(Rect(left, top, width, height));
      }
    }
  }

  // Perform non maximum suppression to eliminate redundant overlapping boxes with
  // lower confidences
  vector<int> indices;
  NMSBoxes(boxes, confidences, this->confThreshold, this->nmsThreshold, indices);
  for (size_t i = 0; i < indices.size(); ++i)
  {
    int idx = indices[i];
    Rect box = boxes[idx];
    this->drawPred(classIds[idx], confidences[idx], box.x, box.y,
      box.x + box.width, box.y + box.height, frame);
  }
}

void YOLO::drawPred(int classId, float conf, int left, int top, int right, int bottom, Mat& frame)   // Draw the predicted bounding box
{
  //Draw a rectangle displaying the bounding box
  rectangle(frame, Point(left, top), Point(right, bottom), Scalar(0, 0, 255), 3);

  //Get the label for the class name and its confidence
  string label = format("%.2f", conf);
  if (!this->classes.empty())
  {
    CV_Assert(classId < (int)this->classes.size());
    label = this->classes[classId] + ":" + label;
  }

  //Display the label at the top of the bounding box
  int baseLine;
  Size labelSize = getTextSize(label, FONT_HERSHEY_SIMPLEX, 0.5, 1, &baseLine);
  top = max(top, labelSize.height);
  //rectangle(frame, Point(left, top - int(1.5 * labelSize.height)), Point(left + int(1.5 * labelSize.width), top + baseLine), Scalar(0, 255, 0), FILLED);
  putText(frame, label, Point(left, top), FONT_HERSHEY_SIMPLEX, 0.75, Scalar(0, 255, 0), 1);
}

最后是主函數main,代碼實現如下。在主函數里的第一行代碼,輸入參數yolo_nets[2]表示選擇了四種YOLO模型里的第三個yolo-fastest,使用者可以自由設置這個參數,從而能自由選擇YOLO模型。接下來是定義輸入圖片的路徑,opencv讀取圖片,傳入到yolo_model的detect函數里做目標檢測,最后在窗口顯示檢測結果。
int main()
{
  YOLO yolo_model(yolo_nets[2]);
  string imgpath = "person.jpg";
  Mat srcimg = imread(imgpath);
  yolo_model.detect(srcimg);

  static const string kWinName = "Deep learning object detection in OpenCV";
  namedWindow(kWinName, WINDOW_NORMAL);
  imshow(kWinName, srcimg);
  waitKey(0);
  destroyAllWindows();
}

在編寫並調試完程序后,我多次運行程序來比較這4種YOLO目標檢測網絡在一幅圖片上的運行耗時。運行程序的環境是win10-cpu,VS2019+opencv4.4.0,這4種YOLO目標檢測網絡在同一幅圖片上的運行耗時的結果如下:
圖片
圖片
圖片
圖片
可以看到Yolo-Fastest運行速度最快,YOLObile號稱是實時的,但是從結果看並不如此。並且查看它們的模型文件,可以看到Yolo-Fastest的是最小的。如果在ubuntu-gpu環境里運行,它還會更快。
圖片
整個程序的運行不依賴任何深度學習框架,只需要依賴OpenCV4這個庫就可以運行整個程序,做到了YOLO目標檢測的極簡主義,這個在硬件平台部署時是很有意義的。建議在ubuntu系統里運行這套程序,上面展示的是在win10-cpu機器上的運行結果,而在ubuntu系統里運行,一張圖片的前向推理耗時只有win10-cpu機器上的十分之一。
我把這套程序發布在github上,這套程序包含了C++和Python兩種版本的實現,地址是 https://github.com/hpc203/yolov34-cpp-opencv-dnn
此外,我也編寫了使用opencv實現yolov5目標檢測,程序依然是包含了C++和Python兩種版本的實現,地址是
https://github.com/hpc203/yolov5-dnn-cpp-python 和 https://github.com/hpc203/yolov5-dnn-cpp-python-v2
考慮到yolov5的模型文件是在pytorch框架里從.pt文件轉換生成的.onnx文件,而之前的yolov3,v4都是在darknet框架里生成的.cfg和.weights文件,還有yolov5的后處理計算與之前的yolov3,v4有所不同,因此我沒有把yolov5添加到上面的4種YOLO目標檢測程序里。
本文僅做學術分享,如有侵權,請聯系刪文。
下載1
在「計算機視覺工坊」公眾號后台回復:深度學習,即可下載深度學習算法、3D深度學習、深度學習框架、目標檢測、GAN等相關內容近30本pdf書籍。

下載2
在「計算機視覺工坊」公眾號后台回復:計算機視覺,即可下載計算機視覺相關17本pdf書籍,包含計算機視覺算法、Python視覺實戰、Opencv3.0學習等。

下載3
在「計算機視覺工坊」公眾號后台回復:SLAM,即可下載獨家SLAM相關視頻課程,包含視覺SLAM、激光SLAM精品課程。
重磅!計算機視覺工坊-學習交流群已成立
掃碼添加小助手微信,可申請加入3D視覺工坊-學術論文寫作與投稿 微信交流群,旨在交流頂會、頂刊、SCI、EI等寫作與投稿事宜。

同時也可申請加入我們的細分方向交流群,目前主要有ORB-SLAM系列源碼學習、3D視覺、CV&深度學習、SLAM、三維重建、點雲后處理、自動駕駛、CV入門、三維測量、VR/AR、3D人臉識別、醫療影像、缺陷檢測、行人重識別、目標跟蹤、視覺產品落地、視覺競賽、車牌識別、硬件選型、深度估計、學術交流、求職交流等微信群,請掃描下面微信號加群,備注:”研究方向+學校/公司+昵稱“,例如:”3D視覺 + 上海交大 + 靜靜“。請按照格式備注,否則不予通過。添加成功后會根據研究方向邀

  

 

 

 

考慮到yolov5的模型文件是在pytorch框架里從.pt文件轉換生成的.onnx文件,而之前的yolov3,v4都是在darknet框架里生成的.cfg和.weights文件,還有yolov5的后處理計算與之前的yolov3,v4有所不同,因此我沒有把yolov5添加到上面的4種YOLO目標檢測程序里。

本文僅做學術分享,如有侵權,請聯系刪文。下載1在「計算機視覺工坊」公眾號后台回復:深度學習,即可下載深度學習算法、3D深度學習、深度學習框架、目標檢測、GAN等相關內容近30本pdf書籍。
下載2在「計算機視覺工坊」公眾號后台回復:計算機視覺,即可下載計算機視覺相關17本pdf書籍,包含計算機視覺算法、Python視覺實戰、Opencv3.0學習等。
下載3在「計算機視覺工坊」公眾號后台回復:SLAM,即可下載獨家SLAM相關視頻課程,包含視覺SLAM、激光SLAM精品課程。

重磅!計算機視覺工坊-學習交流群已成立

掃碼添加小助手微信,可申請加入3D視覺工坊-學術論文寫作與投稿 微信交流群,旨在交流頂會、頂刊、SCI、EI等寫作與投稿事宜。

同時也可申請加入我們的細分方向交流群,目前主要有ORB-SLAM系列源碼學習、3D視覺CV&深度學習SLAM三維重建點雲后處理自動駕駛、CV入門、三維測量、VR/AR、3D人臉識別、醫療影像、缺陷檢測、行人重識別、目標跟蹤、視覺產品落地、視覺競賽、車牌識別、硬件選型、深度估計、學術交流、求職交流等微信群,請掃描下面微信號加群,備注:”研究方向+學校/公司+昵稱“,例如:”3D視覺 + 上海交大 + 靜靜“。請按照格式備注,否則不予通過。添加成功后會根據研究方向邀


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM