Owli-AI Logo Owli-AI
メニュー

日本語表示は実験的なデモです。

一部の内容は機械翻訳またはドイツ語のまま表示される場合があります。

Owli-AI 研究

An Electronic Guide Dog for the Blind based on Artificial Neural Networks

(2021) - Paper

S. Lopatin; F. v. Zabiensky; M. Kreutzer; K. Rinn; D. Bienhaus

Technische Hochschule Mittelhessen, University of Applied Sciences, Institute of Technology and Computer Science, Giessen, Germany

このページは機械翻訳で、現在編集レビュー前です。

ビジュアル

カメラ入力、CNN セグメンテーション、ナビゲーション情報出力を含む Electronic Guide Dog の機能図。
Fig. 1 Electronic Guide Dog の機能構成。

概要

この論文は、公共空間での定位と移動を支援する電子支援システムの実現可能性 を示しています。中核となるアプローチは、ゼロから学習したニューラルネット ワークによる意味論的セグメンテーションを用いて、歩行可能な歩道領域を光学 的に検出することです。実装では、NVIDIA Jetson Nano をモバイル計算ユニット として用い、オンデバイス推論を実現しています。検出した歩道構造からナビ ゲーション情報を導き、音声出力として利用者に提示します。これにより、本研究 はコンピュータビジョンと CNN に基づく携帯型 Electronic Guide Dog の技術的実現 可能性を検証しています。

キーワード

  • electronic travel aid
  • blind sidewalk detection
  • portable ETA system
  • electronic travel aid technology
  • computer vision
  • convolutional neural network

ダウンロード

図版

論文内のビジュアル 7 点。

  1. カメラ入力、CNN セグメンテーション、ナビゲーション情報出力を含む Electronic Guide Dog の機能図。
    Fig. 1 Electronic Guide Dog の機能構成。
  2. カメラ、CNN セグメンテーション、環境解析、音声出力の ROS2 ノードによるシステム構成。
    Fig. 2 データフロー型システムアーキテクチャ。
  3. 各種セグメンテーションモデルの推論速度と mIoU を比較した散布図。
    Fig. 3 速度と精度の比較。
  4. テストデータセットにおける歩道領域のセグメンテーション例。
    Fig. 4 DeepLabV3 と BiSeNetV2 の比較例。
  5. 最適歩道経路からの偏差計算に用いるパラメータ図。
    Fig. 5 最適経路からの偏差計算パラメータ。
  6. 胸部カメラ、計算ユニット、ヘッドホンを備えた実験プロトタイプの写真。
    Fig. 6 フィールドテスト用の実験プロトタイプ。
  7. 歩行可能な歩道領域を示したフィールドテスト中のセグメンテーション例。
    Fig. 7 フィールドテストのセグメンテーション例。