近年,様々なセンサをベースとしたジェスチャ入力インタフェースが盛んに開発されています.その背景には,スマートウォッチのような人の身体に身につけることが出来るウェアラブルデバイスの出現も大きな要因の一つでしょう.ウェアラブルデバイスの大きな特徴として,手でデバイスを把持せずとも,デバイスから情報を受け取る,デバイスを操作する,といったことが可能になる点です.その中でジェスチャ入力インタフェースは,ウェアラブルデバイスを操作する手段として,有効であると考えられています.
私は,表面筋電を用いたジェスチャ入力インタフェースの開発に関する研究を行っています.特に,本研究の特長としては,物を把持した状態におけるジェスチャ入力に着目している点です.本研究ではこれを実現するため,筋電を用いたジェスチャ入力に関する問題を調査し,従来の筋電を用いたジェスチャ認識手法における問題を発見しました.さらに,それを解決するための新たなジェスチャ認識手法について提案を行いました.
従来手法では,ジェスチャ認識には教師付き学習が用いられてきました.しかし,本研究における調査実験から,表面筋電によるジェスチャ認識において,物を把持しながらジェスチャ認識をする際,把持する物の種類,腕の姿勢,把持した物の重心の乱れ,によって筋電信号が異なってしまうことがわかりました.その結果,学習していたデータとは異なる入力がなされ,ジェスチャを正しく識別することができませんでした.そこで,本研究では,ジェスチャを特定するための識別器を用いずに,任意のジェスチャを複数組み合わせることによって,ジェスチャ認識を行う新たな手法を提案しました.