移動する物体を追跡する

OpenCVは2値画像では白をモノとして認識する

ダンゴムシは黒色でした。そのため、2値化しても黒くなっています。OpenCVに限らずほとんどの画像処理ライブラリは2値画像においては白をモノとして認識します。したがって、後々の処理の際に便利になるので、この時点で色を反転し、ダンゴムシを白にしてしまいましょう。色の反転は簡単です。チルダ「~」をMat型の前につけると反転した画像になります。下の例のようにします。

Mat img = imread("sample.png", IMREAD_UNCHANGED);
img = ~img; //反転したimgをimgに入れる

 

膨張処理

ダンゴムシの動画を2値化したときのダンゴムシの部分を拡大したのが下の画像の左です。中央の画像はさらに色反転を行ったものです。このまま輪郭を検出することにより、ダンゴムシの認識をしても良いのですが、左側に白い部分が欠けている部分があるため、おそらく楕円形状と認識することはできません。よって、この穴を埋める処理、すなわち、白い部分を膨らませる処理を行います。これはdilate関数により実装されています。今回の動画では3回、この膨張処理を行うことで穴を無くしています(下の画像右)。ただし、膨張処理をした後の画像から面積などを求めるのは不適当であるということには注意してください。文字通り、大きくなっています。

#include "opencv/cv.h"
#include "opencv/highgui.h"
using namespace cv;

int main(){
    Mat img;
    Mat gray_img;
    Mat bin_img;
    Mat element = Mat::ones(3,3,CV_8UC1); //追加 3×3の行列で要素はすべて1 dilate処理に必要な行列
    VideoCapture cap("pillbug.mp4");
    int max_frame=cap.get(CV_CAP_PROP_FRAME_COUNT);
    for(int i=0; i<max_frame;i++){ cap>>img;
        cvtColor(img, gray_img, CV_BGR2GRAY);
        threshold(gray_img,bin_img,70,255,THRESH_BINARY);
        //追加ここから
        bin_img=~bin_img; //色反転
        dilate(bin_img, bin_img, element, Point(-1,-1), 3); //膨張処理3回 最後の引数で回数を設定
        //追加ここまで
        imshow("Video",bin_img);
        waitKey(1);
    }
    return 0;
}

 

画像処理に関する疑問にお答えできます。お気軽にお問い合わせください。


1 個のコメント

  • 私は大学4年生でこのwebページをよく参考にさせてもらってます.
    とてもわかりやすく勉強になります.ありがとうございます.

    このプログラムを真似させてもらい,自分の持っている動画を用いて実行してみたところ
    vector subscript out of range とエラーが出てしまいました.

    このエラーの解決法などありましたら教えていただくことは可能でしょうか.

    コードは以下のように書いています.
    #include
    #include “opencv/cv.h”
    #include “opencv/highgui.h”
    #include
    #include
    #include
    //#include //追加
    #include //追加

    using namespace cv;
    using namespace std;

    int main() {

    //Mat img = imread(“C:\img2.png”, IMREAD_GRAYSCALE);
    //Mat img2 = img.clone();//コピー元(img)とコピー先を別データとしてコピーする,深いコピー

    Mat frame(500,500,CV_8UC1);
    Mat gray_frame; //グレースケールを保存するための行列管理構造体
    Mat thre_frame; //二値化を保存するための行列管理構造体
    //Mat frame2 = frame.clone();

    VideoCapture cap(“C:\細胞引張試験_A7r5元の速度.avi”);
    // 動画ファイルが開けたか調べる
    if (cap.isOpened() == false) {
    printf(“ファイルが開けません。n”);
    return -1;
    }
    //int max_frame = cap.get(CV_CAP_PROP_FRAME_COUNT); //動画の総フレーム数取得

    for (int i = 0; i> frame;
    if (frame.empty())break;
    cvtColor(frame, gray_frame, CV_BGR2GRAY);//グレースケール化
    threshold(gray_frame, thre_frame, 70, 255, THRESH_BINARY);//二値化処理

    printf(“test”);
    vector< vector > contours;
    findContours(thre_frame, contours, CV_RETR_EXTERNAL, CV_CHAIN_APPROX_NONE);

    double max_area = 0;
    int max_area_contour = -1;
    for (int j = 0; j<contours.size(); j++) {
    double area = contourArea(contours.at(j));
    if (max_area<area) {
    max_area = area;
    max_area_contour = j;
    }
    }

    int count = contours.at(max_area_contour).size();
    double x = 0;
    double y = 0;
    for (int k = 0; k<count; k++) {
    x += contours.at(max_area_contour).at(k).x;
    y += contours.at(max_area_contour).at(k).y;
    }
    x /= count;
    y /= count;

    circle(frame, Point(x, y), 50, Scalar(0, 0, 255), 3, 4);

    Moments mu = moments(contours[max_area]);
    Point2f mc = Point2f(mu.m10 / mu.m00, mu.m01 / mu.m00);

    circle(frame, mc, 4, Scalar(100), 2, 4);

    printf("x: %f y: %f", mc.x, mc.y);

    waitKey(0);

    imshow("frame", frame);
    }
    return 0;
    }

  • コメントを残す