以下全部自論です。
現在、自分の環境は結構あちら側へ行ってしまっていると思う。
メール、写真、動画、日記、自宅のPCに至るまでほぼどこからでもアクセスできる。
(今この記事を書き、投稿しているのも電車内だったりする)
ただそのために、携帯性に優れたPCとWMを持ち歩いている。
考えてみればかなり億劫なことだ。
あちら側にあるものを利用するのに必要な物を考えてみよう。
1、あちら側へアクセスするネットワーク
2、あちら側の情報をみることのできるインターフェース
3、手元での情報をあちらに伝えるインターフェース
たぶんこの3つで十分だ。
1は必要不可欠。2は今でいうディスプレイであり、3はキーボードやマウス。
2と3、これらもあちら側へ持っていけないか?
ピンとこない人が多いと思う。簡単な例で考えるとするならば
「眼鏡」とはただ今ある風景を見せているだけだから、
このレンズにディスプレイの映像だけ映ってくれればディスプレイという本体そのもは必要ない。
(眼鏡がディスプレイと考えられるがちょっと意味が違うことに注意)
現実の世界に、仮想のディスプレイが現れて(見えて)くれればいい。
これをちょっと実感させてくれたのがAR(拡張現実)だった。
上記映像は自分でテストしてみたARToolkitのデモ。
現実の世界に仮想ディスプレイの表示可能じゃないかと思わせてくれる。
次はキーボードやマウス等の入力装置だが、これもまた見ることが変わりになる。
要はこちらの指や手の動作があちら側へ伝われば問題ないわけで
それを現実化してくれそうなモーションキャプチャの技術があるのだが
ちょっとこいつの映像が見当たらない…orz
デモの中で、人は手や体に何もつけることもしていないのに
しっかりと空間と人の動きの違いというのをリアルタイムで識別していた。
つまりこれを応用すれば仮想ディスプレイを触ることを
あちら側に認識させることも可能と考えられる。
見えている現実の風景の中に、仮想の物体を見せる。
その仮想の物体は全てあちら側から提供されるということだ。
この技術はこれからの目玉だと思う。
1 件のコメント:
まさに電脳の世界、功殻機動隊の世界もそう遠くない現実かもしれないですね。
興味深いお話でした。
コメントを投稿