Embedded×AI 〜組み込みAIの可能性 特集
連載
» 2019年10月23日 10時00分 公開

Jetson Nanoで組み込みAIを試す(5):「Jetson Nano」でにゃんこを判別してLチカで知らせるエッジAIデバイスを作る (4/4)

[大原雄介,MONOist]
前のページへ 1|2|3|4       

それでは実証実験

 以上でプログラムの変更は完了だが、起動の際には/opt/nvidia/jetson-gpio/の下にもライブラリのパスを通しておく必要がある。以下のコマンドを先に1回行っておかなければならない。

export PYTHONPATH="/opt/nvidia/jetson-gpio/lib/python/:${PYTHONPATH}"

 これをやらないと、「RPi.GPIOが見つからない」と怒られる。

 さて起動そのものは前回と同じで、以下のコマンドで行える。

./imagenet-camera.py --camera=/dev/video0

 今回はウチのスタッフ(編注:大原氏の愛猫)が非常に非協力的だったので(図5)、スタッフの顔写真をモニターに映し、これを撮影してみた。

図5 図5 この状態で認識させてみたところ、“Hay(干し草)”という判定結果に……(クリックで拡大)

 映像1がキジトラ(先代ちゅるる女王様)を撮影した場合で、黄色(cat)はかなり早いタイミングで認識するが、緑(tabby)はカメラをちょっと動かすと、やや遅れて認識するといった感じ。

 一方、映像2は茶白の場合で、黄色はちゃんと点灯するけれどもtabbyとは認識されないので緑は点灯しない。こんな具合に、猫を判別してLEDを点灯させるエッジソリューション(??)が完成した。

 ということで非常に簡単ではあるのだが、この程度のことまではJetson Nanoのキットでできる、というサンプルにはなったかと思う。もちろん、ありもののネットワークでは使えないという場合もあるので、その場合は学習からやり直す必要が出る場合もあるだろうが、そちらはJetson Nanoとは別のプラットフォームを構築して行うべきだろう。

 今回はお手軽にLチカをやってみたが、通信なども原理的にはそう難しくはないと思う。もちろん、これも真剣にエッジAIデバイスを構築するにはいろいろ問題は出てくるかもしれないが、まずは簡単に試すにはJetson Nanoは非常に良い題材であろう、ということがお分かりいただけたのではないかと思う。

(連載完)

前のページへ 1|2|3|4       

Copyright © ITmedia, Inc. All Rights Reserved.