日本の魅力を発掘するだけでなく、他国の環境・法律・文化などを見て、いかに日本が素敵な国かを見直すサイトになります。
いろいろなゲームや映画などで、3Dのキャラクターが動いて、話したり、動いたりする場面を多くの方が目にされていると思います。
そのキャラクターを見て、「かわいい」とか、「かっこいい」とか思った経験もあられるでしょう。心から、愛着を覚えておられる方もいらっしゃるはずです。
こうしたアニメのキャラクターを、自分の身近に置いておきたい。実際、動かしてみたいと思ったアニメファンの方、いらっしゃいませんか?
私もその一人です。でも、こうした技術は、広いスタジオで、カメラを何台も使用して作成されるものですが、この一部でも自分が手にできたらなと思っている方、実際それができるんです。
映画やゲームほどでなくても、自分の好きなキャラクターの表情を、自由に自分自身でコントロールできたとしたら、すごいことです。普通のパソコンとウェブカメラが一台あれば、それができるんです。
自分がキャラクターに表情を付け加えることができるなんて、考えただけでわくわくします。このすごい技術は、慶応大学のミツクラ・ヤスエ准教授が率いるグループが、開発したものです。
このグループは顔がどっちを向いているか、また表情がどう変わるかをとらえ、その動きをアニメのキャラクターに反映する技術を開発しました。
かみ砕いて説明していきますと、パソコンの画面に3Dのキャラクターを用意します。ウェブカメラに、あなたは自分が映るように座り、自分の顔の向きを変えたり、顔の表情をいろいろ変えてみます。
するとパソコンの中のキャラクターが、リアルタイムに自分の顔の動きを真似て、表情が変わっていきます。
このシステムは、ユーザーの顔の中にある主要なパーツ、目、鼻、口などの動きを高速かつ高精度に捉えて、追跡します。また、顔の向きも同様に捉えます。
顔の動きをとらえたアルゴリズムを逐次更新する仕組みになっています。こうした一連の機能が、このシステムの基礎となるテクノロジーです。
また、このシステムでは怒り、笑い、驚きといった感情表現をキャラクターに反映させることも可能です。自分の表情一つで、キャラクターの感情を表現して、しぐさ素振りまでインプットできるなんて、本当にすごいテクノロジーです。
なんだか、自分がキャラクターに命を吹き込んでいるみたいですね。子供のころ、私もアニメが大好きでした。だから、時々思ったものです。このアニメの主人公が、実際に現れないかな?自分の周りに似たような性格の人物がいないかしらと…
子どもの頃のそんな他愛もない夢を、現実に変えてくれるシステムですね。これは、しかも普通にウエブカメラとパソコンさえあればできるんですから、私も、使ってみたいなと思っている人も多いのではないでしょうか。
このシステムは、
といった活用法が、これから期待できるそうです。
何はともあれ早く実用化され、こうした技術を自宅で楽しみたいものです。待ち遠しいです。
では、海外での反応見てみます。
海外でも今すぐにでもほしい。すぐにでも使いたいという声がたくさんあがっています。
待ち遠しいという気持ちが伝わってきます。まるで、のどから手が出るほどほしいとは、こういった状況を言うのかもしれません。
「アバター」とは、本来、バーチャルな空間において自分の“分身”として活用されるキャラクターのことです。もともと“分身”という意味を持っています。
この技術を活用して自分がアバターの表情をコントロールして命を吹き込む。これこそ、アバターが、“真の分身”へと進化していくようなものです。
一般社会において、人気のあるキャラクターが、自分の“真の分身”として活躍してくれる。そんな夢のようなバーチャルライフ、早く実現してくれるといいですね。
(参考) http://www.diginfo.tv/v/12-0107-r-en.php
アバターは今まで既存の顔しか設定できなかったが、この技術があれば自分の顔を使って完全オリジナルのアバターが作れる。
SNSにこのアバターをどんどん取り入れ、バーチャルライフがより楽しめる場になればと思う。