日本語で「図書館 AR」で検索するとなぜか上位に表示されてしまい、
うっかりこのブログを見てしまった人がハズレくじ引いているのを
常々申し訳なく思っていたので、
いろいろ見たついでにARについて書いておくことにしました。
と、その前に
こないだTEPIAのビデオライブラリーに行ったついでに、
いろいろな技術や商品の展示を見てきたので先にそっちを書きます。
図書館にギリギリ関係ありそうなのは、
AR技術を生かした『動くAR新聞』(大日本印刷株式会社)
※以下の動画は『動くAR新聞』とは別。近そうなものを持ってきただけ。
自動ページめくり器『ブックタイム』(株式会社西澤電機計器製作所)
網膜に害がない程度の微弱な光(残像)を当てて映像を見せてくれる
『メガネ型網膜走査ディスプレイ』(ブラザー工業株式会社)
色を認識して振動の種類を決定できる白杖『マイ・ケーン』(株式会社TNK)
(『図書館を計画する』という本の中に、点字ブロックの難しさについて5行くらい書かれていたことを思い出した。点字ブロックを設置しないために視覚障害者団体から抗議が来たが、設置すると凸凹で車いすやベビーカーに良くないどうしよう、みたいな話だったはず。この杖があれば解決かな?)
あたりでしょうか。他にも面白いものがいろいろあったけど。
さて、本題ですが、
ARってなんだーという方のために簡単な説明を書いておくと、
今までの
webカメラなどで撮影
↓
コンピュータで処理して
↓
リアルタイムな映像をモニタなどに表示
という状態の発展形として、
現実世界にマーカーを設置
(マーカーは2次元バーコードのような形をしていることもある)
↓
webカメラなどでマーカーを含めた景色を撮影
↓
あらかじめCGなどを作っておく
↓
撮影したデータの中からマーカーが検出された場合、モニタにCGを追加表示
↓
現実の映像に仮想のものが混ざった! すごい!
少なくとも僕はこんな技術だと考えています。
一応ARの研究に手を出した人に確認したので、そんなに間違ってはいないはず。
正確さを欠いている可能性はあるけど。
ARには最低でも「出力装置」「情報処理装置」「通信環境」が必要な様子が伺えますね。
まず自分の頭で図書館にどんな応用ができるのかいろいろ考えたんですが、
機械がCGをどの程度処理できるか、通信速度を確保できるか、
CGを作るだけの労力に見合う価値があるかなどのポイントも含めてイマイチピンとこなかった。
博物館だと、化石の展示にマーカーを付けて、
ARで生前のCGを被せるようなことをやっていて、有意義だし面白そうなんだけどね。
たしか国立科学博物館だったかな。
で、今度は事例を探してみたわけですが、こんな動画が見つかりました。
AR Library/GRAtWork(YouTube:2009.7.23 投稿 3分23秒)
この動画の面白いところは、
「探している特定の本」の所在を現実に重ねて表示している(50秒あたりから)という点ですね。
衝撃的!というほどではないけれど、なるほどという感じですね。
他にはあまり面白いものがみつかりませんでしたが、
「ARで本が探しやすくなる」という可能性を見ましたね。
ここから先は僕の妄言になってARとはちょっと違いますが、
図書館というか読書の点から考えると、
「網膜に直接投影するタイプの電子書籍リーダ」ができたらいいなと思っています。
「メガネ型直接映像投影kindle」みたいな。だって手ぶらでよさそうだし。
でもそのままだと操作性がいまいちなので、
視線を感知して自動的に次のページを表示してくれるような装置があったらうれしいです。
焦点を計測する装置は既に存在していた気がするし、
「文章の末尾まで視点が動いたら次のページを表示する」という仕組みは
そんなに難しくなさそうな気がするんだけどね。
誤作動は多そうだけど。
ん? それ以上に、網膜に直接映像を映すってことは、
モニタサイズにとらわれない大きさの画面、
たとえば視界のすべてを画面として扱える可能性もあるわけか。
視覚いっぱいに広がる画面… おぉ…
「モニタを大きくするとウィンドウをいっぱい開けて作業効率が上がる!」
というセリフが過去のものになるのかもしれないわけだ。
これは… 今後の技術の発展に期待せざるを得ないな!
0 件のコメント:
コメントを投稿