「Jetson Nano」にUSBカメラをつなげてにゃんこを認識させるJetson Nanoで組み込みAIを試す(4)(3/3 ページ)

» 2019年09月12日 10時00分 公開
[大原雄介MONOist]
前のページへ 1|2|3       

Live Camera Detection Demoのモデル一覧に猫がないのは不本意

 ところで、カメラを使ったJetson Nanoのデモにはもう1つ、Live Camera Detection Demoがある。Live Camera Recognition Demoの方は、カメラで撮影した映像から「それが何か」を認識するデモであるが、Live Camera Detection Demoは映像から「目的のものがどこにあるか」を認識するデモである。使い方はLive Camera Recognition Demoとよく似ており、今回の環境なら以下のようにすればよい。

./detectnet-camera --camera=/dev/video0 --width=320 --height=240 --network=XXXXX

 ここで“--network=XXXXX”の部分が「何を見つけるか」を示す形だ。この部分には学習済みのDetection Model(検知モデル)を指定する形になる。以下の表1に挙げるモデルから選択するが、指定しない場合にはpednetが選択される。

ssd-mobilenet-v1 91種類(COCO classes)
ssd-mobilenet-v2 91種類(COCO classes)
SSD-Inception-v2 91種類(COCO classes)
coco-dog
coco-bottle ボトル
coco-chair 椅子
coco-airplane 飛行機
pednet 歩行者
multiped 歩行者と荷物
facenet
表1 Live Camera Detection Demoで選択できるDetection Model

 今回は試しにfacenetを利用してみた。ターゲットとしてはEE Times Japanのこちらの記事ページをWebブラウザで表示させ、カメラで読み込ませたところ、きちんと画面の中から顔に当たる部分が水色で囲われている(図17)。

図17 図17 EE Times Japan夏の恒例、技術戦略インタビューの広告特集ページ。顔写真多めなのでfacenetのテストに最適(クリックで拡大)

 ちなみに、上記のモデル一覧に猫がないのは不本意(いや、ssd-mobilenet-v1/v2には猫が入っているのだが、筆者の環境ではうまくロードできなかった。おそらく、Detection Modelの構築ができていないので、ビルドのやり直しが必要と思われる)ではあるが、それこそ自分でやれよという話である。ということで、Jetson NanoとUSBカメラを利用しての画像認識までの手順は、これでほぼ実現できることが確認できたわけだ。

前のページへ 1|2|3       

Copyright © ITmedia, Inc. All Rights Reserved.