NEC、腕をキーボード化する「ARmKeypad」開発
http://news.mixi.jp/view_news.pl?media_id=128&from=diary&id=3698131
>>>>>
日本電気(以下、NEC)はウェアラブルグラス用の新しいユーザインタフェースとして、腕をキーボード化する「ARmKeypad(アームキーパッド)」を開発した。
【実際に使用しているイメージ】
ARmKeypadは、ウェアラブルグラスとウェアラブルウォッチを連携させ、キーボードがあたかも腕に表示されているかのように見せるというもの。ウェアラブルグラスにはカメラが内蔵されており、そのカメラで指の操作位置を確認。グラスに映し出された仮想キーボードにタッチをすると、腕に付けられたウェアラブルウォッチの加速度センサーが反応し、その瞬間の指の位置をカメラが認識する。赤外線などで直接腕にキーボードが映し出されているわけではない。
ARmKeypadは11月12〜13日に東京国際フォーラムで開催される「C&Cユーザーフォーラム&iEXPO2015」で展示予定。製造や警備、流通、医療などハンズフリーでの作業が必要となる現場での活用を目指している。
>>>>>
眼鏡がコンピュータを集約する以上、入力をどうするか。
例えば空間にスクリーンを描き出し、それを操作するとする。それはゼスチャーと呼ばれる。早い話がパントマイムをしなさいということ。
押したり引いたりするには、物理的な反力が必要で、それがないと引くことも押すこともできない。だからパントマイムは芸となる。
で空間のスクリーンを描く方法にはふたつの道がある。
・ひとつは反力を必要としないインターフェイスの設計。
・もうひとつが反力を与えてくれる何かを用意する、といううものだ。
今のコンピュータはこのうちの後者を中心に開発されている。キーボードもそうであるし、タブレットも同様である。圧力が感じられることの重要性、フィードバックを得ることの重要性である。
すると前者はどうすれば可能かという研究も必要であることがわかる。腕にキーボードを映すのはいいとして、片手でしか入力できないキーボードでは辛い。
ボタンならまだいいが、それくらいなら腕がいる?
というわけで空間を操作するというこれまでにない全く新しい概念が必要であって、それに最も近いのは、幻聴や幻視という症状だろう。
TEDでオリバー・サックスが語った Hallucination が好例となりはしないか。 そういう空間について人はどう操作しようとするだろうか、
方向を指出したり、消えろと払ったりする。決して押したり、掴んだりしようとはしないだろう。つまり、これまでにないゼスチャーを主体とした新しいインターフェイスというものを想像する時期に来ているのかもしれない。
または、それは夢かもしれない。
ログインしてコメントを確認・投稿する