Categories: ニュース

人間超えの視覚認識チップ、2D材料で動き検出が4倍速に

清華大学などの国際研究チームが2026年2月10日、Nature Communications誌で人間の視覚能力を超える超高速視覚認識システムを発表した。2D材料を使ったシナプストランジスタアレイにより、従来のアルゴリズムと比較して400%の高速化を実現した。

人間の脳を模倣したハードウェア

現在の光学フロー(optical flow)アルゴリズムは、動画から物体の動きベクトルを計算する技術だが、処理に時間がかかる。例えばNvidia V100 GPUでも1920×1080解像度の画像処理に0.6秒以上必要で、これは人間の反応速度(約150ms)の4倍遅い。自動運転では、高速道路で1秒の遅延が27mの制動距離の差になる。

研究チームは、人間の視覚システムが網膜と外側膝状体(LGN)で動きのある領域を優先的に処理する仕組みをハードウェアで再現した。4×4のシナプストランジスタアレイが、明るさの変化を直接エンコードし、アナログかつ不揮発性の状態で蓄積する。これにより、動きのある領域(ROI)を1〜2msで検出できる。

2D材料による高性能デバイス

シナプストランジスタは2Dファンデルワールスヘテロ構造で構成される。下から順に、金のコントロールゲート、酸化アルミニウム(Al2O3)ブロッキング層、多層グラフェン(MLG)フローティングゲート、六方晶窒化ホウ素(h-BN)トンネリング層、二硫化モリブデン(MoS2)チャネルという構造だ。

Fowler-Nordheimトンネリング機構により、ゲート電圧でフローティングゲートの電荷を精密制御できる。応答時間は約100μs、データ保持時間は1万秒以上、耐久性は8000サイクル以上と、高周波数処理に適した性能を持つ。

検出したROIは、従来の光学フローアルゴリズム(Farneback、GMFlow、RAFT)の入力となる。画像全体ではなく動きのある領域のみを処理するため、速度推定と後続タスクの両方が高速化される。

実環境での検証

研究チームは、車両運転、UAV操作、スポーツ活動、ロボットアームによる把持など、複数のシナリオでシステムを評価した。動き予測、物体セグメンテーション、物体追跡といったタスクで、処理時間を平均26.1%に短縮(約4倍の高速化)した。

Farnebackアルゴリズムを使用した場合、加速率は12.5〜58.0%、平均27.5%となった。GMFlowでは4.7〜36.7%(平均20.6%)、RAFTでは16.7〜53.3%(平均29.1%)だった。

精度面でも、時間的な事前情報を組み込むことで、従来手法と同等かそれ以上の性能を達成した。車両運転シナリオでは213.5%、小型UAVシナリオでは157.4%、把持動作では740.9%の精度向上を記録した。

実用化への展望

この技術は、現行システムに対して明確な改善をもたらす可能性がある。

自動運転では、平均0.2秒の処理時間短縮により、時速80kmで走行中の制動距離を4.4m短縮できる。現在、Tesla AutopilotのOccupancy Networksは約10msの遅延だが、光学フロー解析は0.6秒以上かかっている。このボトルネックを解消できれば、より安全な自動運転システムの構築につながる。

UAV分野では、反応時間を従来の3分の1に短縮することで、25fpsのフレームレートでリアルタイム追跡が可能になる。これは理論的な最小遅延に近く、動的環境下でのUAVの耐久性と性能が大幅に向上する。

人間・ロボット相互作用でも、100〜200ms以内の応答が求められるジェスチャー認識や動作理解において、本システムの超高速処理は重要な情報源となる。

また、1〜2msで動き検出を行うハードウェア処理により、GPU依存を減らし、エッジデバイスでの実装も視野に入る。

オープンソースで公開

研究チームは実験に使用したコードをGitHubで公開している。これにより、他の研究者や開発者が同様のシステムを構築し、検証できる。

ただし、自己運動(ego-motion)や未知の動きパターンを含む複雑なシナリオでは性能が低下する。手持ちスマートフォンで撮影したシーケンスでは高速化率が170%に、車載ダッシュカムの実環境では134%に低下した。

それでも、動きの少ないシーンでは強力な性能を発揮する。特定のユースケースにおいては、現行技術を大きく上回る実用的なソリューションとなる可能性がある。

関連情報

論文(Nature Communications)

FabScene編集部

FabScene編集部