[TOC]

1. スクリプト

1.1. 検知/追跡の描写スクリプト(自分メモ)

  • ディレクトリ

    ds:/data0/share/deep_learning/mk_movie

  • サンプル動画

    sample.mp4

  • 実行方法

    python mk_movie.py>det0.mp4track0.mp4が出力

  • 仕様

    • 検知の場合:物体のクラスが異なれば異なる色
    • 追跡の場合:IDが異なれば違う色
  • 詳細

    README.txtを参照

2. 論文

2.1. MOT16入力形式

det.txt

<frame>, <id>, <bb_left>, <bb_top>, <bb_width>,<bb_height>, <conf>, <x>, <y>, <z>

1,-1,772.68,455.43,41.871,127.61,2.1262,-1,-1,-1
1,-1,717.79,451.29,44.948,136.84,1.7969,-1,-1,-1

※bb=Bounding Box

※idは人のID(trackingしていない場合は-1) ※<conf>検知の信頼度 (確率ではない負の値もとるし,1より大きい正の

2.2. 精度比較のための形式

/Users/akirat/project/AIST/DeepSort/data/2akira

<id>, <frame>, <bb_left>, <bb_top>, <bb_right>, <bb_bottom>, <DontCate>

※原点は左上 x軸は右向き y軸は下向きが正の方向

※DontCare:追跡矩形情報を無視するか否かのフラグ(1:無視する,0:しない)(省略可)

2.3. GMMCPの出力

<frame>,<id>,<bb_left>,<bb_top>,<bb_right>,<bb_bottom>

※原点は左上 x軸は右向き y軸は下向きが正の方向

2.4. Yoloの出力フォーマット

ディレクトリ構造

2akira/
    match5-c0_f1.png
    .
    match5-c0_f9000.png
    match5-c0.avi
    match5-c1_f1.png
    .
    match5-c1_f9000.png
    match5-c1.avi
    .
    match5-c3.avi
    pred_c0_f1.txt
        <left> <top> <right> <bottom>
            ※原点は左上 x軸は右向き y軸は下向きが正の方向
            *スペース区切り
    .
    pred_c0_f9000.txt
    .
    pred_c3_f9000.txt
pred/
    pred_c0_f1.jpg
    pred_c0_f1.txt
        <bb_left> <bb_top> <bb_right> <bb_bottom> <pro>
            ※原点は左上 x軸は右向き y軸は下向きが正の方向
            *スペース区切り
            *pro=probability 0~1
    .
    pred_c0_f9000.jpg
    pred_c0_f9000.txt
    .
    pred_c1_f1.jpg
    pred_c1_f1.txt
    .
    pred_c2_f1.jpg
    pred_c2_f1.txt
    .
    pred_c3_f1.jpg
    pred_c3_f1.txt

2.5. 比較実験用ディレクトリ構造DeepSort用

--mot_dir=./MOT16/train

MOT17/test/MOT17-01-DPM

/Users/akirat/project/AIST/data/exp/
    train/
        match5-c0/
            det/det.txt
            img1/
                000001.png
                .
                009000.png
        match5-c1
        match5-c2
        match5-c3
  • 高速だけと精度が悪い(C++Sort)

  • 遅いけど精度が高い(GMMCP)

  • C++SORTの改良(appereanceを入れた)

    deep C++ Sort GitHub

の2つ及び応用先(スポーツ)のRelated Workをまとめる

3. 関連研究

A Causal And-Or Graph Model for Visibility Fluent Reasoning in Tracking Interacting Objects

3.1. 概要

動画から人や車といった物体の認識だけでなく,人が車に乗った(含まれた)なども合わせて予測する手法.最新の手法を組み合わせて事前確率を計算し考えうる物体の状(visible/occluded/contained)の列で最も確率が高いものを0-1整数計画によって定式化している.また,以下に挙げられる最新の既存研究の技術を総動員したアルゴリズムとなっている.

  • Objective Detection(物体の位置と車などのカテゴリを予測する)
  • 画像から特徴量を抜き出す技術(appearance description)
  • 画像から人の骨格の位置を抜き出す技術(human skelton estimation)
  • semantic segmentation(車のドア・トランクなどのパーツの位置を特定)

3.2. 所感

論文では乗用車の乗車・下車が数多く含まれた動画において,追跡精度をKSPと比較していてKSPが精度の面では惨敗している.一方で提案手法のネックと思われる計算時間や事前学習に要した時間などは論文中の記載が一切無いため(隠していると思われる)きちんとした比較はなされていない.類似研究としてIntroductionで軽く述べるのがいいのではないかと思う.

3.3. 詳細

3.3.1. 入力(I​)

監視カメラの映像(1台でもOK)

3.3.2. 出力(M)

各時刻の人や車(object)の位置(location),visible state(visible/occuluded/contained),行動(action),特徴量(appearance features) ※人(ojbect)が車のドアを開けるなどがaction

3.3.3. 定式化

最適解を$M^*$とするとベイズの定理より
であるので, である.

について

移動距離に対する確率と行動に伴うvisible state変化に関する確率の和によって定義.

  • :時刻でのobjectの位置(location)
  • :時刻でのobject のvisible state(visible/occuluded/contained)
  • :時刻でのobject の行動(action)

:単位時間での移動距離が閾値より大きい場合は確率を小さく設定

:車のドアを閉めるときなどは人のvisible stateがvisible->containedになりやすいことなどを考慮

について

出力(M)と映像(I)の一貫性を表し,認識率と行動と映像の一貫性を表すの和

  • :時刻でのobject の特徴量

について:

  • visible stateがvisible->物体の認識率
  • contained->containerの認識率
  • occluded->trackletアルゴリズムを適応して認識率を定義(背景差分などを利用する方法)

$\Gamma$について:

  • objectが人間->人間がドアを空けた時(action毎)の関節の位置を正規分布に従うと過程して確率に変換
  • objectが車->ドアが空けられたとき(action毎)の画像特徴量の平均値とのユークリッド距離を確率に変換

3.3.4. アルゴリズム

各物体(object)ごとに各時刻に対しvisible/occluded/containedの層のノードを用意し,定式化の値が大きくなるようにobjectのvisible stateの遷移を求める(0-1整数計画) イメージはFigure5


3.4. 評価指標(MODP,MODA,MOTP,MOTA)

参考URL,fragment

3.4.1. Term

  • False Negative:undetected ground truth data
  • False Positive: detected boxes that do not overlay any ground truth area

3.4.2. Ovarlap Ratio

  • :i^th ground truth object t^th frame
  • :detected object for
  • : the number of ground truth objects in the i^th frame

3.4.3. Non-binary Decision Threholding

where,

3.4.4. Binary Decision Threholding

where,

3.4.5. Multiple Object Detection Precision(MODP)

  • : the number of mapped object sets in frame

If , then MODP is forced to a zero value.

3.4.6. Multiple Object Detection Accuracy(MODA)

  • : the number of misses
  • : the number of false positives
  • and are the cost functions for the missed detects and false alarm penelties.
  • : the number of ground truth objects in the i^th frame.

3.4.7. Multiple Object Tracking Precision(MOTP)

  • : mapped objects over the entire track as opposed to just the frame
  • : the number of mapped objects in the i^th frame

3.4.8. Multiple Object Tracking Accuracy(MOTA)

  • : the number of missed tracks
  • : the total number of false alarm tracks
  • : the total number of ID switches made by the system output for any given reference ID

Last modified by akirat1993 2019-08-10 18:30:32
Created by akirat1993 2019-05-26 02:56:51

results matching ""

    No results matching ""