
盲導犬は最大でも約20種類のコマンドしか理解できない。だが米国ニューヨーク州立大学ビンガムトン校の研究チームが開発したロボット盲導犬は、GPT-4を音声コマンドと組み合わせることで、ほぼ自然な会話で指示を受け付ける。研究成果はAI分野の主要学会「AAAI 2026」に発表された(論文タイトル:「From Woofs to Words」)。
このロボットが本物の盲導犬と大きく異なるのは「しゃべる」点だ。出発前に「この会議室まで2つのルートがあります。Aは2分、Bは3分かかります」と選択肢を伝え、移動中は「長い廊下です」「右に障害物があります」などと周囲の状況を音声で知らせる。研究チームはこれを「プラン言語化」と「シーン言語化」と呼んでいる。
視覚に障害がある人は、目が見える人に比べて周囲の状況把握が難しく、先の見通しが持ちにくい。この仕組みは、そうした「先の見通し」を言葉で補うことを目的としている。
実験では、法的に視覚障害に該当する7人の参加者が、複数の部屋からなる大型オフィスでロボットと一緒に目的地まで移動した。事後アンケートでは、プランの説明と移動中の音声案内を組み合わせたアプローチが最も評価が高く、参加者はロボットを生活に取り入れることへの強い関心を示した。
日本を含む多くの国で、盲導犬は需要に対して絶対的に不足している。訓練コストや犬のアレルギーなど、生身の犬が抱える制約をロボットが補える可能性がある。研究チームは今後、屋外での移動距離延長と自律性向上を目指す予定だ。

