2017年に発表されたDeep Learning Many Task、通称Deep MANTA。
位置や角度や車種など、複数の推定タスクを1つのアルゴリズムで解くという触れ込みで期待された。
ではそのDeep MANTAのサンプルコードはどこにあるのだろうか。
Deep MANTAとは
Deep MANTAとは2017年に発表されたDeep Learningを用いた推定手法。
2次元の画像を入力すると、車の3次元の位置や角度や車種などを推定する。
Deep MANTA: A Coarse-to-fine Many-Task Network for joint 2D and 3D vehicle
analysis from monocular image http://zpascal.net/cvpr2017/Chabot_Deep_MANTA_A_CVPR_2017_paper.pdf
Deep MANTA のサンプルコードはどこにある?
結論から言えば、2020年4月現在ではサンプルコードは存在しない。
以降、サンプルコードが無いと判断した根拠を紹介する。
GitHub
GitHubで deep-manta
を検索するとリポジトリが1件出てくる。
Predicting 3D Bounding Boxes for Non-temporal Monocular Images
しかし説明を見る限り、YOLOネットワークを使って3D bounding boxを予測しているので、論文に書かれているような複数のタスクを解決していないのでDeep MANTAではない。
This script utilises the a yolo network to detect pedestrians and cars from and images. The 2D detections are crop out and fed it into the model so that it can predict a 3D bounding box for each of the 2D detections.
paperswithcode.com
また paperswithcode.com を見ても以下のように「コードはありません」という状態なので、コードは無い模様。
No code implementations yet.
中国のサイト
以下の中国のサイトでも、コメント欄にコードの有無について質問されているが、「公開コードは無い」という回答となっている。
这篇论文有源码吗
好像没有呀,没找到
まとめ
車両の3D推定に便利そうなDeep MANTAであるが、
2020年4月現在ではサンプルコードは存在しない。
もし誰かコードを見つけたら教えていただけると幸い。