2足歩行ロボット研修(inukai編) 二足歩行ロボット研修

2足歩行ロボット研修(inukai編)[7]~Raspberry Pi3B+ (Raspbian) でRealSenseを使う~

IntelRealSense 2足歩行ロボット研修(inukai編)

こんにちは!
inukaiです。

前回紹介した設計をただいま修正中なのですが、息抜きがてらハードウェアだけでなくソフトウェアも少しずつ手を付け始めました。
システム構成で紹介したように、ロボットのCPUにはRaspberry Piを、カメラにはRealSenseを使用する予定です。
というわけで、今回はタイトルの通り、Raspberry PiにRealSenseをセットアップしていきたいと思います。

弊社ショップでもこちらの記事でセットアップ方法が紹介されました。こちらではOSにUbuntu MATEではなくRaspbianを使用します。
個人的には、Ubuntu MATEに比べRaspbianのほうがOS自体の動作が軽い印象があるので、RaspbianでRealSenseを使用できればロボットを制御する際にCPUリソースをより運動制御に割けるかなと思っています。
今回検証した環境はこちら。

ハードウェア
・Raspberry Pi :3B+
・RealSense:D415

ソフトウェア
・OS:Raspbian Stretch with desktop (version April 2019)
・RealSense SDK 2.21

それでは、セットアップ方法を紹介したいと思います!

といっても、IntelRealSense公式のGitHubのドキュメントの中にセットアップ方法があるため、それを実行すればいいです。
順番にコマンドを実行すればよく、私は特に引っ掛かることはありませんでした。

ただもろもろのソフトウェアのコンパイルに時間がかかりますのでご注意ください。
(個人的にはコンパイル時はRaspberry Pi3B+にヒートシンクと冷却ファンを取り付けることをお勧めします。
何も冷却しないと、発熱でCPUクロックが下がり600MHz動作となります。最大動作周波数の1.4GHzの性能がでないため時間がかかります。)

一通りセットアップしたら、最後の下記のコマンドで、セットアップができたか確認します。

$ realsense-viewer

下記のように深度とRGBの画像が表示されれば成功です。

IntelRealSense

今回の環境では、320×240640×480(間違えていましたので修正しました2020/6月)の深度とRGB画像を 15FPSで取得して表示を行うのにかかるCPU負荷は、約150%/400%(1コアあたり100%、4コアあるので最大400%)でした。
RealSenseをRaspberry Piで使用したら処理が重たいかなと思っていたのですが、思いのほか動作は軽快でした。

Raspberry Pi 3B+ (Raspbian)でRealSenseを使用する

というわけで、無事動作したので、今後は設計だけでなくソフトウェアの開発も進めてまいります。
今回はここまで。
ではまた次回!

タイトルとURLをコピーしました