ヘッダー・ページの先頭 本文へジャンプ

 【障害者の安全で快適な生活の支援技術の開発】

   サブテーマ2:重度障害者の自立移動を支援する技術の開発

2-1-(2) 不明瞭な音声やジェスチャからの障害者の要求認識
(非拘束非接触動作認識)

現在の位置
個別テーマ一覧 >非拘束非接触動作認識
ここから本文  本文を飛ばす

なんのための研究?

電動車いすのジョイスティック操作に困難が伴う障害者の方々が、人間と同じような2つの眼を持つステレオカメラを用いることで、コードや機器などをいっさい身につけずに、頭部ジェスチャだけで電動車いすを操作できるインタフェースの実現を目指しています。

頭部ジェスチャだけで電動車いすを操作できるインタフェースの装着例の写真

研究のポイントは?

意図した動作とそうでない動作を見分けること。 利用者の個々の特徴に応じて頭部ジェスチャだけでなく、肩などの動きなどにも対応出来るように顔に特化した方法を用いることなく研究を進めています。

非接触・非拘束ジェスチャインタフェースによる電動車いす操作の例

実用に向けて

照明の暗い場所や、逆光等、屋内外あらゆる環境で稼働するシステムを目指して様々な環境で実験をすすめています。 また、搭載が見えない非常にコンパクトな装置の開発を目指しています。 開発を加速させるため磁気センサを使用していますが、ステレオ画像情報だけから電動車いすを制御するのが目標です。

頭部ジェスチャによる車いす制御の様子
研究代表者:独立行政法人産業技術総合研究所 情報技術研究部門 坂上勝彦・依田育士
ホームページ:依田育士:http://staff.aist.go.jp/i-yoda/yoda-j.html USV:http://staff.aist.go.jp/i-yoda/usv/usv.html
本文おわり:
ページの先頭に戻るページ先頭へ
ページおわり ページの先頭に戻る