NWNの記事より。
東京大学のネットワークシステム研究所が
Kinectを使ったSL/OpenSIM用の
キャプチャーシステムを開発したとのこと。
しかもオープンソース。
詳細は元記事にリンクされた動画観てください。
ちょっと、びびりました。 ここまできたのか、と。
初音さんは強いな、とも感じました^^
(以下はぐぐる翻訳)
東京大学は、リアルタイムの開発、
オープンソースはKinectからセカンドライフソフトウェア
SLKinect2は、
Second LifeやOpenSimのアバターの動きにKinectによってキャプチャされた
現実の世界の動きを接続するために
東京大学のネットワークシステム研究所で人々によって
開発されているかなりクールなオープンソースプロジェクトです。
ウォッチ:
ふみ井関、NSLを持つ開発者は、
最近のプロジェクトについて詳しく教えてくれました。
"これらのソフトウェアはオープンソースであるため、
誰でも自由にソフトウェアを、ダウンロードコードを読み取り、
それらを使用することができます。"
コードは、ほとんどのライセンスの制限はありません、と
彼らはまた、サードパーティの視聴者が使用するコードを作成しました。
"我々は、サードパーティの視聴者は
私達のパッチが含まれていることを願っています。"
これは、ネットワークシステム研究所による
大規模なSL/ OpenSimの指向プロジェクトの一部です:
SL Kinectオープンソース
"我々は、セカンドライフ/ OpenSimのための
様々なツールを開発しています。
SL/ OS、OS用のOSと
Web InterfaceのためのマネーServerのProxy Serverは、
等SLKinectもその一人だ。
"多くを説明する英語のサイトはここをクリックしてください。
ここで別のデモでは、いくつかのアバターのKinectベースの制御を示す、
次のとおりです。
そこにこれ以上の調整はないが、最終的に、ふみは私に語った、
彼らがこのソフトウェアは、アバターとの間のコミュニケーションを強化したい
、、最終的にこのようなダンスゲームマシニマ作成ツールとなり、と。
それはそういまいましいクールに思われる。
SLの開発者ように、もっとお知りになりたい方はこちら。
0 件のコメント:
コメントを投稿