AIによる画像解析はここ数年でぐっと身近になった。
無料・有料を問わず多くの解析AIモデルが公開されているが、ハードウェアを含めて自前で開発環境を整えるとなると、その道のりは決して短くない。カメラやデバイスを選定し、環境を構築し、モデルを読み込んで……というプロセスに、ハードルの高さを感じる人も多いだろう。
そんなハードルを一気に下げてくれるのが、Seeed Studioの「reCamera」だ。約4cm四方の小さな筐体にカメラと開発ボードが一体化しており、PCとUSBでつなぎブラウザを開くだけで物体検出が動き出す。さらに、GUIベースのプログラミング環境「Node-RED」が標準で備わっているため、初心者でもベテランでもAI画像解析の「やってみたい」を最短で実感できるオールインワンなデバイスだ。
本記事では、AI画像解析の初心者である筆者がreCameraのハンズオンに挑戦し、簡単なアプリケーションを作ってみる。また、他の活用事例も交えながら、その魅力をひも解いていこう。
reCameraのラインナップは全4種類。Wi-Fi/Bluetoothによるワイヤレス通信の有無と、ストレージ容量(8GBまたは64GB)の組み合わせで構成されている。今回はSeeed Studioの協力により、そのうち「reCamera 2002w 8GB」(ワイヤレス通信対応、ストレージ8GBモデル)の実機を用いて検証を行った。2025年8月現在の販売価格は、Seeed Studio公式オンラインストアで49.9ドル(約7300円)となっている。
いずれのモデルもAI処理用SoC「SG2002」を搭載し、1TOPS(Int8演算)の性能を持つ。これはオープンソースの物体検出モデル「YOLO」の軽量版をリアルタイムで動かせる水準だ。CPUはRISC-Vベースのデュアルコア(1GHz/700MHz)、メモリは256MB。映像入力は500万画素・30fpsに対応し、カメラセンサーにはOV5647を採用。さらにオンボードマイクと外部スピーカー端子も備えている。その他の仕様は公式のWikiを参照してほしい。
内容物はreCamera本体とUSB Type-C to Type-Aケーブル、イーサネット接続用ケーブルの3点のみ。本体下部にはUSB Type-Cコネクタと三脚ネジ穴があり、既存の三脚に取り付けて自由な場所で使える、ユーザーフレンドリーかつ実用的な仕様だ。
PCとUSBケーブルで接続し電源を入れると、すぐに利用準備が整う。ブラウザで 「192.168.42.1」にアクセスするとロードページが表示され、ユーザー名とパスワードの入力を要求されるので、指示に従ってログインすればOKだ。
ログインが完了すると、reCameraのウェブインターフェースが表示される。プレビュー画面で既に何かが検出されている…!と感動の瞬間だ。
ただし、reCameraの仕様上、USB接続のままではインターネットのブラウジング等に制限がかかる。そのため、まずは外部ネットワークの設定を進めるのがおすすめだ。有線LANによる接続も可能だが、今回はWi-Fiを利用した。左側メニューから「Network」を選び、「Enable Wi-Fi」のトグルをONに変更。その後、任意のSSIDを選びパスワードを入力すれば接続が完了する。
USB接続時、reCameraのIPアドレスは「192.168.42.1」で固定されているが、Wi-Fi接続設定後、PCとのUSB接続を行わず別電源から起動すると、接続先に応じた新しいIPアドレスでしか接続できなくなる。あらかじめ、USB接続解除後に必要となるIPアドレスは手元に控えておこう。
なお、ワイヤレス通信対応のモデルであれば、reCamera自体もアクセスポイントとして使える仕様になっているが、今回の検証ではアクセスポイントとしての表示が安定せず、マニュアル通りの運用ができなかった。今後のバージョンアップによる改善に期待したい。
ネットワークの設定が済んだところで、reCameraのデモをじっくり確認してみよう。プレビュー画面に戻ると、reCameraがとらえたリアルタイム映像に対してラベルづけが行われている。右側の表記によれば「YOLO11n Detection」が稼働中のようだ。
YOLOは画像の中から「どこに」「何があるか」を瞬時に判定する、代表的な物体検出アルゴリズムだ。2015年にワシントン大学の研究から生まれ、以降コミュニティの手で改良が重ねられてきた。現在は米国のUltralytics社が中心となってオープンソースとして公開しており、バージョンアップを続けながら進化している。
reCameraでは、このYOLOの軽量モデル「YOLO11n」が標準で組み込まれており、セットアップ直後からリアルタイムの物体検出を試せるのが大きな特徴だ。
デモには「Counting Person」「Counting Cat」「Counting Dog」「Counting Bottle」といったオプションも用意されている。あいにく犬や猫が近くにいないので、「Counting Bottle」を選び、家にあったペットボトルを並べてみた。
すると、reCameraがBottleとしてカウントした数がリアルタイムに画面へ反映されていく。このスムーズなデモだけでも、「在庫管理」「人数カウント」「安全監視」といった実用シーンが自然と連想できる完成度だ。
プレビュー画面右下の「Workspace」をクリックするか、アドレスバーに「http://<IP address>/#/workspace」と入力すると、Node-REDの編集画面が表示される。IoTやWeb開発に携わる読者にはおなじみの、ノーコード開発環境「Node-RED」がそのままreCamera上で動いているのだ。
あらかじめ本体にインストールされたNode-REDのフローを編集することで、さまざまな画像検出アプリケーションを実装できる。
初期状態のフローの中心にある「model」ノードをダブルクリックすると「Choose Model From」という項目があり、「Device」からreCamera本体にインストール済みの4種類(Detection / Segmentation / Pose / Classification)のYOLO11nモデルを切り替えられる。モデルを選択後にデプロイすれば、プレビュー画面でその検出結果を確認できる。
物体のゾーニングや人の動きの分析といった、これまでニュースや研究発表で目にしていた画像解析が、いとも簡単に自分の環境で再現できる。そのハードルの低さと「本当にできた!」という実感は、特に初心者にとって大きな驚きと興奮を与えてくれるものだろう。
応用として、画像の検出結果をトリガーとしたアプリケーションを考えてみよう。例えば、ペットボトルが一定数以上貯まると「掃除をしなさい!」と叱ってくれる、掃除アドバイザーのような機能が作れそうだ。
もっとも、元々のモデルが扱いやすいため、それほど難しい処理は必要ない。最初のデモでペットボトルの個数は検出できていたのだから、その値をフロー内で取り出し、閾値と比較して結果を分岐させ、メッセージを表示するだけでよい。
追加したのは赤矢印で示した3つのノード。
左:プレビュー画面で閾値を入力するための「number input」ノード
中央:カウント値と閾値を比較して処理を分岐させる「function」ノード
右:結果メッセージをダッシュボードに表示する「text」ノード
「number input」ノードで入力された閾値を「function」ノードで受け取り、その値によって変化するメッセージを「text」ノードに渡す仕組みになっている。「function」ノードの中身は下記の通りだ。
// 入力は2系統:
// (A) number input からのしきい値 … msg.payload が数値
// (B) カウント結果 … msg.count に数、もしくは msg.payload が "Current XXX number: X"
// (A) 数値が来たらしきい値として保存して終了
if (Number.isFinite(msg.payload)) {
flow.set("threshold", Number(msg.payload));
return null;
}
// (B) カウントを取得
let count = Number(msg.count);
if (!Number.isFinite(count)) {
// "Current People number: X" 形式から抽出
const text = String(msg.payload || "");
const m = text.match(/number:\s*(\d+)/i);
count = m ? parseInt(m[1], 10) : 0;
}
// 保存してあるしきい値を読む(未設定なら0)
const threshold = Number(flow.get("threshold") ?? 0);
if(count > threshold){
msg.payload = '片付けてください!';
}else{
msg.payload = 'そんなに汚れていませんね';
}
return msg;
ペットボトルと同じように人間や犬猫の数も検出できるのだから、たとえば「一定以上の人数が集まったら警告ベルを鳴らす」や「犬と猫が同じ画面に収まったら撮影する」といったアレンジも可能だろう。安定した動作とわかりやすい編集画面は、AI画像解析のアイディアをラピッドプロトタイピングする用途でも力を発揮するだろう。
reCameraにプリインストールされたYOLO11nだけでも十分に応用できるが、さらに専門性や精度の高い解析が必要な場合は、SenseCraft AIを使った学習済みモデルの開発や、Node-REDダッシュボードの共有機能を活用できる。有用なモデルやフローが完成したら、公式のGitHubなどでコミュニティに公開するのも一つの楽しみ方だ。
一方ハードウェア面では、reCameraは専用のジンバルが販売されているほか、本体がモジュール構造になっており、内部基板の仕様も公開されている。ジンバルによる人物トラッキングや、マーカー検出によるロボットアーム制御など、Seeed Studioの公式ブログでも応用事例が紹介されており、実用性を高めるヒントとして参照できる。
つまりreCameraは、ソフトウェアとハードウェアの両面で拡張できるオープンなプラットフォームと言える。国内での公開事例はまだ少ないが、ユーザーによるノウハウの積み重ねが共有されるにつれて、活用の幅は着実に広がっていくだろう。
reCameraの最大の魅力は、画像検出に必要なハードウェアと基本的な開発環境がワンパッケージになっている点だ。カメラ選定や環境構築で迷うことなく、すぐプロトタイピングに着手できる。さらにNode-REDベースの開発環境や豊富なデモは初心者にもわかりやすく、各種モデルに対応できる柔軟性は、上級者や実運用を視野に入れた開発にも役立つと感じられた。
気になる点としてはアクセスポイントモードの不安定さがあるが、こちらは今後のバージョンアップでの改善に期待したい。また、国内での活用事例はまだ少ないものの、2025年春以降は徐々にユーザーの事例も公開されはじめている。コミュニティの広がりとともに、今後どんな応用例が登場するのか注目したい。
※記事中で制作したNode-REDフローはこちらで公開しています。
本記事はSponsored記事です。
提供:Seeed Studio / Seeed 株式会社