視覚障害者向け卓上型ヒューマノイドロボットを用いた触覚に基づく動作学習の探求

(ChatGPT5.2により作成した要約を一部改変)

著者

Kengo Tanaka, Xiyue Wang, Hironobu Takagi, Yoichi Ochiai, Chieko Asakawa (2026)

タイトル

MotionBuddy: Exploring Tactile-Based Motion Learning with a Tabletop Humanoid Robot for Blind People

URL

https://dl.acm.org/doi/abs/10.1145/3757279.3788660

概要

背景と目的

視覚障害者は、運動、ダンス、リハビリテーションなどの身体動作の学習において、常に困難に直面しています。口頭による指示は広く用いられていますが、しばしば曖昧です。触覚グラフィックや3Dモデルは静的な姿勢を示すことはできますが、動作の遷移を示すことはできません。ヒューマノイドロボットは動的な動作を示すことができるため、軌跡や同時的な四肢動作を伝える可能性を秘めています。本研究では、視覚障害者を対象に、ヒューマノイドロボットによるデモンストレーションと音声による指示を比較する探索的研究を実施しました。

方法

11名の視覚障害者と対象に、定量的評価として、再現精度、学習時間、ユーザビリティを評価し、定性的インタビューでは、認識された利点と課題を収集しました。

結果

単純な動作はどちらの方法でも伝えることができましたが、音声では容易に表現できない複雑な動作の遷移や同時的な四肢協調においては、ロボットが特に効果的であることが示されました。

考察

これらの知見は、視覚障害者の動作学習を支援するために、マルチモーダルな指示を統合する設計上の可能性を示唆しています。