deep tagging で動画を webize, googlize する

今, deep tagging がアツい。
deep taggingMotionBox の掲げる, 動画をファイル単位ではなく場面単位といったより粒度の小さい単位で行うタグ付けコンセプトのことだ。deep tagging のようなコンセプトを持っているサービス/ソフトウェアは MotionBox のほかに先日お披露目となった Tagiri がある。

deep tagging の実現した世界では, 例えば "西澤明訓 トラップ" で検索して 2005 シーズンのサッカー動画から西澤明訓の全トラップシーンを検索したり, "家元 カード" で家元主審がカードを出した場面をリストするといった使い方が予想できる。

重要なのは deep tagging によって動画の存在価値や使われ方が変わり, 動画がより重要な存在に化けることだ。端的に言えば, ユビキタスマンでおなじみのライフスライスのような話になってくる。ここにメタデータによるファインダビリティが加われば, 映像の断片は利用価値のある情報となる。

個人的には, 25 年後の世界は atom と bit が透過的に重なった世界,物理世界のオブジェクトを仮想空間の情報が補佐する形で (例えば今で言うカーナビのような情報はリアルな視界に透過的にマップされ, 部屋に新しく入れる棚を選ぶ際には棚のオブジェクトモデルを現実世界にオーバーレイして試すことができる) atom と bit 交じり合う世界を予想している。
そこに至るには仮想世界の情報量はまだまだ貧弱で, より多くの多様な, bit 世界を豊かにするための情報収集装置を生み出しながら爆発的に仮想世界の豊かさを質, 量の両面で増していく必要がある。

今は仮想世界に存在する情報の多くはテキストだが, 画像, 音声, 映像といったテキスト以外のデータも十分な細かさに砕いてメタデータを与える (ファインダビリティを付与する) ことで web の仲間に取り入れることが出来る (もしくは googlize できる)。
AmazonGoogle のやっている Booksearch や Picasa も実はそういう事ではないのか, と考えてしまう。まだ webize (あるいは googlize) されていない web/google 未踏の地をハックしてファインダビリティを付与し, web や google の及ぶ地にする,
それが deep tagging が引き起こすビデオカメラと映像に起こる変化だとしたら何とも面白い。どうだろうか。

(CreativeCommons の曲や画像をネタにすれば断片化, メタデータ付与して remixable にする実験がやりやすそうだと思ったのでメモ。MotionBox や Tagiri が出たら遊んでみたい。web API があると便利そうだ。)