2018年1月31日

やっていきBlender 第1回 週休七日ドロイド君をつくるまで

droid-on-unity.png

Blenderはじめました。ドロイド君ができてVRChatにオリジナルアバターで乗り込む偉業を達成したので記録しておきます。

続きを読む "やっていきBlender 第1回 週休七日ドロイド君をつくるまで"

2018年1月28日

週報(2018.01.20-2018.01.26)

mebe.jpg
雪が降ったり寒かったりでやっぱり布団の中に引きこもっている時間が長い一週間でした。ついにDroidKaigi 2018がスグソコに迫って来ており、運営スタッフ一同あわあわしております。

気になることを聞く

仕事が発生してこなす

こなしたことによって知識がついた結果、他の人の仕事がわかるようになる

気になる範囲が増える

僕ですらあわあわ感があるのでセッション持ちとかセクションリーダ(?)とかコアに近い人はもっとあわあわしてるんだろうなという感じです。公式アプリリポジトリもOSSとして盛り上がっていますが、イベントは自分から楽しもうと突っ込むとより楽しくなるものです、みんなで盛り上がっていきましょう。

続きを読む "週報(2018.01.20-2018.01.26)"

2018年1月19日

週報(2018.01.13-2018.01.19)

youmeimon.jpg

唐突に日光・鬼怒川温泉に旅に行ってました。行き先が決まってない旅もいいものです。
そんなわけで後半少し旅の話が長めの週報となっております。

続きを読む "週報(2018.01.13-2018.01.19)"

2018年1月15日

ノクターンノベルズ2017

ノクターンノベルズ2016の2017年版です。
昨年に比べると寝床スマホとか移動中スマホの時間がちょっと減った結果、若干ランキング頼りの非積極的な摂取に止まった印象です。それでもそれなりに今年も読んだので紹介させていただきます。

もちろんのことながらがっつりR-18です。お子様はおかえりください。あと昨年も紹介したのは【2016】マークをつけておきます。

続きを読む "ノクターンノベルズ2017"

2017年に楽しんだコンテンツ紹介 VR編

あんまりやってないのでVR関連ガジェットも含めることにします、中身が薄くてすいません。
オススメ度を★から★★★で示そうと思って途中まで書いたのですが、意外と数が多くだらだらと間延びしてしまいそうだったので、オススメ度が★★以上のもののみ残っています。

◯ガジェット・ハード編

・GearVRコントローラ(オススメ度:★★)
Daydream Viewに追従する形で、Gear VRにもコントローラが来ました。GalaxyをS6を最後にそれ以降買っていないこともあり、充電しながらのとりまわしの観点でDaydream派に鞍替えしてしまったのであまり長くは触っていません。

使い勝手としてはDaydream Viewのと同等で、登場以降は標準装備のようになったのでどちらも同じ感覚で使えると思われます。登場時点ではアームモデルのエミュレーションによる腕の姿勢の追従度がDaydreamに比較して若干悪く、腕を模すというよりは体の正面でコントローラを制御してやる度が高かったのですが、最近はどうでしょうか?

・Daydream View(第二世代)(オススメ度:★★★)
やっと日本でも正式に発売され、コントローラの技適()問題がクリアされました。とくに特殊加工のフレネルレンズのできがよく、第一世代と比較してきっちりと視野角が広がって他HMDと同等になっているのが素晴らしいです。

12,000円はできれば9,800円であってほしかったのですが、対応Androidデバイスをもっているのであれば大変オススメです。
ただし、S8+Gear VR環境を持っている人がわざわざ鞍替えするほどのプラットフォームでは現時点ではないように思えます。


◯施設編

VR PARK TOKYO(オススメ度:★★)
渋谷店に4月頭に行ってきました。サークル オブ セイバーズとソロモン・カーペット(のメカ)が目的でしたが、野球(対戦!ハチャメチャスタジアムVR)と360度シューティング(ようこそ・パニック・マンションへ)もフツーに面白く、時間めいっぱい楽しめました。

伝説のハッピーおしゃれタイムが稼働したのでもう一度行ってみたいような、DCEXPOでやったから満足している点もあるような・・・(いろいろ変わってそうではありますが)

VR ZONE SHINJUKU(オススメ度:★★★)
まぁ説明はもういいですよね。物理的に制限が無いのであればぜひ一度は行っとけ、のアミューズメントVRの雄、VR ZONEです。マリカー・釣り・ハネチャリがやっぱりよかったです。


◯コンテンツ編

・PSVR:Joshua Bell VR Experience(オススメ度:★★★)
多視点撮影と3Dモデル化とビルボード(ハリボテ)表現を高い技術レベルで組み合わせたポジトラがゴリゴリ効く映像コンテンツです。最高。あーもう映像コンテンツはやくこれで全部つくってください。

・PSVR:Littlstar VR Cinema(オススメ度:★★)
ストリーミング再生だとコンテンツの増えて来たYouTubeに一歩劣ってしまうのですが、ある時USBメモリ・SDカード上の外部コンテンツの再生に対応して神アプリになりました。手元に非DRMなステレオEquiの動画資産がそれなりにある方にはオススメです。

とは言うもののPSVRとしての利点はEquiを投影した天球内での擬似ポジトラぐらいで、解像度比較もあって「Daydreamでいいや、とりまわしちょっと面倒だし」という位置づけに落ち着いてしまいました。

・PSVR:V!勇者のくせになまいきだR(オススメ度:★★)
箱庭3D見下ろし型タワーディフェンスとしての出来はよく、小清水亜美のムスメちゃんがかわいいのですがそれ以上ではない感じです。

ゲーム部分がゴリ押しじゃない感じであればよかったのですが、結局エレメント系が最強で、「直接有効なところに吸い込んで運ぶ」操作をなるべくすばやくやるだけの訓練ゲームでしかないのが惜しかったので★★にとどめています。

・Daydream:YouTube(オススメ度:★★★)
結局のところ現時点でDaydreamのキラーアプリはYouTubeだと思っています。
Cardboard時代からYouTubeの閲覧はできたわけですが、2017年、この体験は3つの観点で進化しました。

1. Daydreamコントローラでのポインタ操作、ソフトウェアキーボードIMEによるキーワード入力に対応した。
2. YouTubeの「360度」「3D(ステレオ)」絞り込みがまともに機能するようになった
3. やっと360度ステレオなVR MMD動画が増えてきた

(2017年の話というより2016年から投稿されていますが)BONBONBENZAKABA氏の動画他を見て幸せになりましょう。

・Gear VR:Innocent Forest(オススメ度:★★)
VR HMDでも文字が問題なく読み進められるぞおお、というInnocent Forestです。
★★が3つに出来ないのはまだ2ndを読み切ってないのと、僕こういうはっきりしない系の話(あと何話続くのかわかりやすくないの)あんまり好きじゃないんですごめんなさい・・・orz

紙の書籍に対して、ゲーム・ディスプレイインタフェースによる「ビジュアルノベル」が弟切草によって定義されたように、たぶんいろいろな形の「VRを利用したノベル」が多数でてきていんじゃないですかね、雨後のタケノコのようにニョキニョキしてくるのを待っているのですがこなーい。いやコストはわかるのですがこなーい。嗚呼。

・SteamVR:Project LUX(オススメ度:★★)
VR長尺アニメとしてまだ現時点でも唯一でしょうか?
シェーダなのかライティングなのか、妙なところが明るいのは気になるのですが、シナリオとしてはよくありそうな感じによくなさそうな+αでよかったです。
最後の選択肢はトゥルーを最初に選んでしまうとちょっともったいないので、強制バッドエンド後にヒントが出てくるよくあるやつとか入れたらよかったかなとか思っています。

・SteamVR:ぎゃるがんVR(オススメ度:★★★)
エロじゃなくてエッチでフェチなラインのゲームとして最高峰です。カスメはお人形遊びとして本質的すぎて、VRカノジョはパーティーゲームの中、ぎゃるがんVRは良質なVRギャルゲーです。

このゲームの素敵なところは「コントローラに慣れてさえいればまず死ぬことがない低難易度バカゲー」という入り口の遊び方と、全キャラのパンツを撮影するという実績解除にチャレンジしようとした途端「当初の目的を完全に無視してとにかくパンツが撮影可能なアングルに手を伸ばすシュールなフェチゲー」に変貌するのが最高です。
あとどこかで見た気がしますが踏みにくるモードはもっとイヤそうに踏んで欲しかったと思います。

・SteamVR:Hop Step Sing! 気ままに☆サマーバケーション(オススメ度:★★)
単純に新しい曲の方がVRとして良いです。曲とキャラがかわいいのは1曲目からあまり変わっていないのですが、物語のわかりやすさが気ままにサマーバケーションがダントツなので。
ただ、「おっさんがこんな仲良くからまれるはずないだろ、そういう有料裏サロンのVRですか?」みたいな後ろめたい感じになるのでできれば学生とか若いうちにやってみたかったですね。

・Cardboard:オルタナティブガールズ(オススメ度:★★)
VR対応モードのあるスマホゲーだと今でも先頭を突っ走ってるのではないでしょうか。ちゃんとspatialに対応したライブモードがたいへんオススメです。
あと個人的に「エポックメイキングだけど一種のクソ状態の山を築き上げることになったCardboard」に対する妄執をばっさりと斬ってくれたので大変ありがたい気持ちになったコンテンツでもあります。

そのあたり私情を込めまくったエントリをUniteのレポートで書いたのでそのへんについてはそちらを参照願います:)
すべてはVRで美少女をかわいく魅せるために 「オルタナティブガールズ」の技法と情熱【Unite】

ラブプラスEVERYには最低でもオルガル級、できればDaydream/GearVR対応等+αでがっつりと超えていってほしいなと思っています。

週報(2017.01.06-2018.01.12)

DSC08278.JPG

バーチャルYouTuber週報をやるとか先週言った気がしますがウソでした。週報じゃない動画はもう一回ぐらいやりたいとは思っています。
飲んだ翌日は1日寝てるという感じで、寒いせいもあって布団に引きこもっている時間が長かった一週間でした。
ボリュームすくなめの週報になるはずです。ではいってみましょう。

続きを読む "週報(2017.01.06-2018.01.12)"

2018年1月 7日

バーチャルYouTuberのやり方 #VTuber

vtuber1.png
Unity+ViveベースでバーチャルYouTuberを試してみました。

YouTube Liveの実施に引き続き、YouTuberっぽい動画の投稿までやりまして、ひとまず当初の目的は達成しましたので、観測されるバーチャルYouTuberシステム構成の候補、やったことと・コスト(時間・費用)をまとめておきます。
ちなみに、所要時間については「ちらほらVRについては趣味で触って遊んでいる」僕を基準に考えると、「業務でUnity等を触っている方」だとおそらく半分、「まったくプログラミングをしたことがない人のチャレンジ」だと数倍+誰かのサポートが必要だと思われます。

【2018.04.23追記】
このエントリをベースに、YVTuberというVTuberシステムを作ってみた話を加えた技術書の同人誌を作りました。

PDF・原稿(Re:VIEW)のファイル一式を以下のリポジトリで公開しています。よかったら読んでやってください。感想とか、指摘やツッコミなどいただけるとよろこびます。
https://github.com/youten/howto-create-vr-contents3

○システム構成と選択肢

バーチャルYouTuberになるには、バーチャルな部分を担当する3Dモデルと、なんらかのモーションキャプチャシステムが最低限必要です。

A) VR HMDベース
Unity+HTC Vive+Tracker
・Oculus RiftやWindowsMRと比較すると、トラッキング部位を追加で増やせるTrackerに対応したViveが向いています。
・Trackerは腰や膝、肘に装着の上トラッキング精度をあげたり、コントローラ・HMDをTrackerに置き換えることでキャプチャ時の動作自由度をあげるのにも使うことができます。
・Unity+Final IKではなくて、Unreal Engine+IKinemaでも同等のトラッキングが可能そうです。

費用はいわゆるVR Ready PC(10万円前後)+HTC Vive(70,000円)+Tracker(1つ12,500円)でトータルで18万円程度からになります。

※注釈(2018.03.21 更新)
Vive Proが4/6発売の94,000円(税抜)と発表され、同時に元のViveセットが64,250円(税抜)に値下げされました。このVive Pro HMDは「アップグレードキット」であり、ベースステーションやコントローラが別途必要になります。そのため、新規にPro環境を用意しようとすると個別にベースステースションx2とコントローラx2(合計で税込66,000円)を購入しなければならず、あまりお得感はありません。
また、Trackerの在庫がSteam VR 2.0対応の新型が復活した(?)模様で、 値下がりViveと新Trackerを必要に応じて追加購入するのが現状では良さそうです。

B) Perception Neuronベース
(このジャンルとしては)安価(約20万円)なモーショントラッキングのPerception Neuronを使用する方法です。磁気センサまわりの環境相性でトラブることが多く、運用コストが高いですが高精度のトラッキングが可能です。
現行の商用メインストリームYouTuber(?)はこれを前述のVR HMDベースのシステムに追加する形(※注)で運用しているケースが多そうです。
MikuMikuMovingを経由したMMDプラットフォームでも利用が可能ですが、どちらにせよボーン構造やモーションデータに関するそれなりの知識と気合いと根性でのノウハウ蓄積が必要という認識です。

※注釈(2018.01.09 追記)
「Perception NeuronをVR HMDベースのシステムに追加・・・」としれっと書いてしまいましたが、Perception Neuron+PCでVR側のしくみを使わず、単独でモーションキャプチャと声の収録のみを同時に行い、あとから動画を編集するプロセスを採っているところの方が多いかもしれません。
参考:Kigurumi Live Animator KiLA
参考:バーチャルYouTuberだけど、シロちゃんの秘密を探りに「第1回バーチャル YouTuber 勉強会」に行ってきた!|バーチャル美少女ねむの人類美少女計画

C) Kinectベース
DanceEvolutionなどのボディトラッキングに対応したXBOXゲームで有名な、Kinectを使用する方法です。
Kinect自体がEOL(End of Life, 生産終了)となってしまったことが最大の欠点ではありますが、MikuMikuCaptureでvmd形式でのモーションデータが記録できるなどの利点があり、その後モーフ追加なども含むモーション編集もMMDプラットフォーム上で実施することができ、最終ターゲットがあくまで動画であるバーチャルYouTuber目的の際にはアリの選択肢だと思われます。

# Unity-Humanoid対応が必須のルートであるVRChatターゲットと比較すると、バーチャルYouTuberターゲットではMMDプラットフォーム上ですべてが済むルートがあるのがおもしろいところです。niconicoのプラットフォームとしてのメリット低下に伴って定着してしまったYouTubeへのMMD動画投稿のルートとライセンス観点では同等であり、このあたりは「めっちゃ複雑で大変だとは思うけど正確に議論を頼む〜」という気持ちです。

また、同系統のデバイスとして、RealSense単独運用組もいらっしゃるかもしれません。
参考:Archived - Facial Recognition, Emotion Tracking, and 10-Finger Gesture Recognition with the Intel® RealSense™ | Intel® Software
参考:密着!あのバーチャルYouTuberさんみたい!3Dモーションキャプチャーが凄い......! - YouTube こちらはPerceptionNeuron+RealSenseのように見えます。

D) その他
以前FaceRig実況がバズった際にGOROmanさんが試していたコントローラ裁きの疑似再現(参考:中の人(二次元)になる方法【FaceRig × Live2D × Unity × OBS × AVVoiceChanger × 気合】 - Medium)のように、身ぶり手ぶりはぶっちゃけおまけ要素のため、顔の向きとそれっぽい表情の切り替えができればバーチャルYouTuberの要件は満たしているといえます。

Daydreamのようなアームモデルエミュレーション(傾きだけで腕の姿勢をそれっぽく推測する)と、iPhoneXのTrueDepthカメラを組み合わせることができれば片手とフェイシャルのキャプチャが実現するので、2018年中に一点モノレベルだとは思いますが、「バーチャルYouTuberスマホ配信アプリ」までは到達するんじゃないかな、と思っています。

◯カメラデバイスへの頭・両手のモーショントラッキング映像流し込み(3時間)


Hangout等のビデオ通話サービス、YouTube LiveやTwitch等の動画配信サービスと、対応するOBS Studioなどのデスクトップ配信ツールへの対応を想定して、カメラデバイスに映像を流しこむのを最初の目標に設定します。

概ねこのエントリですべてが済んでいるとも言えますが、Unity, IK, モーフ, カメラキャプチャについて、とりすーぷさんのエントリを参考にします。

VRで「結月ゆかり」になって生放送する/@toRisouP
https://qiita.com/toRisouP/items/14fe62f89808013f9f6e

【環境】
・Unity 2017.3.0p1
 ・Final IK 1.3
 ・Steam VR Plugin 1.2.2 (Jun 29, 2017)
 ・UnityCam

・利用モデル
Mikoko/ねこます KemomimiVRchIP
https://nekomasu.wixsite.com/kemomimioukoku/character

・VR IK(Final IK)
とりすーぷさんのエントリから紹介されているはるねずみさんのエントリを参考にします。

Unity+Vive+MMD+VRIKで、キズナアイちゃんになりきりVR
https://qiita.com/halne369/items/daadf0e00330a1019830

ここまでで無事、PCのカメラデバイスとしてViveのHMDを頭、コントローラを両手にマッピングしたIK制御されたキャラクターになりきることができました。

UnityCam補足:2019.01.28追記
UnityCamはWindowsのDirectShow的な仮想カメラデバイスdllを登録して、そこにUnityカメラの映像を流し込むしくみになっています。
そのため、Runme First配下はUnityプロジェクト配下ではなく、どこか半永続的に管理できるように別の固定的なパスに移動し、そこからregisterする方が無難です。


Unityカメラ側のTarget EyeをNone(Main Display)に変更する必要があります。

また、UnityCamは重いので最終目的がカメラデバイスでなく動画の際にはUnityの画面を直接ウィンドウキャプチャした方がFPSが落ちにくいとのことです(Webカメラ設定の60fpsなどにひっぱられる?)

◯HMDが重いのでTrackerに切り替える(2時間)

VR HMDをかぶってしまうとPC操作ができないのでヘッドバンドのように頭の上部に装着していたのですが、さすがに重くて不安定です。 Vive TrackerをHMDの代わりにFinal IKにアサインすることにしました。

Trackerについての基本的な話は@kohack_vこと坪倉さんのエントリが分かりやすく、そしてすべてです。

HTC Vive Trackerの仕様・使い方まとめ | TsubokuLab - ツボクラボ
http://teruaki-tsubokura.com/Lab/htc-vive-tracker/

Viveのコントローラ・Trackerは起動順にIDが割り振られる(っぽい)ので、Unity上で固定IDにしているとFinal IKでのトラッキング対象がずれておかしなことになります。起動後に手動で入れ替えてしまう運用回避が楽で、Unityエディタ上起動でなくexe起動だったとしても、運用回避のための設定UIを作りこんでしまうほうがTrackerの充電交換などにも勝てそうな気がします。

tracker1.png
tracker2.png
VRIKのターゲットをTrackerに向けるのはこのくらい雑な設定で動きます。

◯OBS StudioでYouTube Live(3時間)

こちらはとくにバーチャルYouTuberに特化した話ではありません。他に参考になるサイトがいっぱいあるのでググってください。
OBS Studioのインストーラのダウンロードに苦戦しましたが、BitTorrentクライアントを利用するとすぐにダウンロードできました。

ViveのHMDに付属するマイクが動かないという罠にハマった(ドライバ入れ直しなどを試してみましたがどうも個体不良っぽいです・・・いつから壊れてたのやら)ものの、結局別ヘッドセットのマイクを首に装着することで回避しました。
また、Viveのシステムは2.4GHz帯を使っているので、2.4GHzのWiFi環境と相性が悪いです。5GHz対応ルータの導入と、母体のPCのネットワーク接続を有線LANに切り替えることで回避しました。

◯マイク入力ベースのリップシンク(2時間)
Unity でリップシンクができる OVRLipSync を試してみた - 凹みTips
http://tips.hecomi.com/entry/2016/02/16/202634
Oculus Lipsync Unity | Developer Center | Oculus
https://developer.oculus.com/downloads/package/oculus-lipsync-unity/
1.16.0 | Published 2017/06/30をダウンロードします。

単独ではさっくり動いたのですが、既存のSceneに組み込んだら動かない問題が出て苦戦しました。Sceneをほぼ作り直すことで回避という力技のせいで2時間かかりました。
なお、順調に行けば1時間で済みますが、前提として3Dモデルが音素別の口の形にあわせたBlendShapeに対応している必要があります(ミニマムだと閉じた口と母音5つぐらい?)。ねこますさんのMikokoモデルはVRChatのリップシンク仕様(15種類の音素仕様が同一です)に基づいた音素が全てBlendShapeとして対応しているため、OVRLipSyncの適用はとくに悩む必要がありません。(詳しくないですがたぶんVRChatがOVRLipSyncを使ってるんじゃないかな・・・)

・UnityにフォーカスがないとMic Inputが動かない
 →OVRLipSyncMicInputにバックグラウンドで録音を一時停止する処理がかかれている、スクリプトをコメントアウトする
・キーボード操作でループバック音声再生のON/OFFが切り替わる
 →OVRLipSyncContextにデバッグ用機能として実装されている、邪魔ならキーバインドを変更またはコメントアウトする
・consoleにエラー「OVRPhonemeContext.Start ERROR: Could not create Phoneme context.」が出て動かない
 →OVRLipSyncContextより先にOVRLipSyncがAwakeしないとダメっぽい、新しめのUnityでよく出る。Script Execution Order設定や[DefaultExecutionOrder(-n)]属性の指定などでOVRLipSyncを優先させる。(OVRLipSyncスクリプトの再アタッチよりはOrder設定が望ましい)


何度か敗北したので色々おいかけて動画にまとめました。一番最初に試す際などに参考にしていただけると役に立つかもしれません。

◯自動まばたき(1時間)


プロ生ちゃんに瞬きさせる - Onoty3D
http://onoty3d.hatenablog.com/entry/2015/03/24/211247
を参考に、最低限の動作を確認したのち、ユニティちゃんの瞬きを滑らかにするスクリプト
https://dskjal.com/unity/unitychan-blink-smoother.html
をベースに改造しました。

まぶたまわりのモーフ構造に依存しますので、モデル毎に調整が必要ですが、スクリプトを読むと比較的シンプルな力業で、モデル側が目をつぶるBlendShapeに対応さえしていれば難しくはありません。

Mikokoモデル向け自動まばたき:AutoBlink.cs

◯キー入力によるモーフ切り替え(1時間)
他のYouTuberの方々は、リアルタイムでモーフ切り替え担当者が居るか、モーションキャプチャデータを使った動画編集時に手動で追加している模様です。
僕は個人なので特定キーの押下でを切り替える力技スクリプトを実装しました。

Mikokoモデル向けキー入力モーフ切り替え:MorphKeyController.cs

◯ワキからインゴット召喚+投げ(2時間)


Vive Trackerでモノを掴んで投げる話はFixedJointとColliderの組み合わせで以下のエントリの通りです。

HTC Vive向けにアプリケーションを開発する〜コントローラでインタラクション編〜 - VOYAGE GROUP VR室ブログ
http://vr-lab.voyagegroup.com/entry/2016/10/13/003204

で、インゴットをInstantiateしてFixedJointコンポーネントを追加すると物理特性を扱えるようになるRigidbodyコンポーネントが自動的につきますので、今まで登場していなかった重力まわりが影響するようになり、腕が勝手に下がっていく、といった動きをするようになります。
ViveコントローラのController(left)やController(right)にRigidbodyコンポーネントを追加した際に、「他の仕組みで運動学上の制御が行われるので(RigidbodyとしてUnityの物理演算の影響を受けないようにする)」という意味のisKinematicのチェックを入れておく必要があります。

ViveコントローラでPrefabを生成して投げる:IngotGenerator.cs

◯Viveコントローラで指の形を制御(2時間)



前述のとりすーぷ氏のエントリではMMD4FingerControllerなる「任意の指を好きな度合いで曲げる」便利そうなスクリプトがあったので、HumanoidのFingerまわりにもそういうAPIがあったりするのかな?と思ったのですが、AnimatorからHumanoidの仕様に基づいた指定部位のTransformの参照をもってくるAPIまでしかありませんでしたorz

次に期待したのは、せっかくモデルがMecanim Humanoid対応なので、「グー・チョキ・パーのHumanoid対応モーション拾ってきて、AnimatorControllerで制御すればいけるだろう」と思ったのですが、シンプルな手の形だけのモーションが都合よく見つかったりはしませんでしたo..rz。

もっとサボりたかったのですが、結局「指が5本x3関節x両手分の2=30箇所のlocalRotationを直接いじる」という力技スクリプトを書きました。
今は1フレームで指の形が変化し終わってしまうので不自然なのですが、Lerpでなまして5フレぐらいかけて指の形が変化するあたりまでは実装しようと思っています。

Viveのコントローラのタッチパネルは、少々癖があって「狙ったところを少し指を滑らせるようにしてタッチ」する必要があります。十字キーのように使わせるプログラムをいくらか見るのですが、Viveのチュートリアル中での風船カラーの選択のように「左上・右上・左下・右下」という四象限制御の方が操作難易度が低いように思えます。

Mecanimの指の角度を直接指定する力技グー・チョキ・パー制御:HandController.cs, MecanimHandController.cs

ingotandhandcontroller.png
mecanimhand.png
インゴット投げとグー・チョキ・パー制御スクリプトはViveコントローラ側にアタッチしています。Mecanim手指の制御スクリプトはAnimator.GetBoneTransform APIを使うのでAnimatorコンポーネントがついたMikokoモデルにアタッチしています。

◯モーション録画+音声録音と動画編集(尺5分で3時間)

ここまで動いたらあとはネタを考えて喋って動画を編集します。Unity上で適当なグリーンバックを作ってOBS Studioで必要なところにクロマキー設定を挟みつつ録画・録音したのち、AviUtlの拡張編集でひたすら字幕をつけました。

・台本はがっつり用意した方がいいです。
・字幕だけ読んでも話が通るぐらい字幕もがっつりつけた方が見る側のコストが下がるので良さそうです。
・週報を題材にしたためいきなり数分オーダでしたが、30秒〜1分の小ネタでおさえたほうが色々楽そうです。
・BGM・効果音は次回やる気があったらチャレンジしたいと思います。

あなたも今日からバーチャルYouTuber, 今すぐインストー

週報(2017.12.30-2018.01.05)

先週の週報です。せっかくなのでYouTuberな感じの動画にしてみました。

2018年1月 2日

週報(2017.12.23-2017.12.29)

virutal-youtuber.jpg

あけましておめでたいタイミングですが先週の週報です。今年もよろしくお願いします。

続きを読む "週報(2017.12.23-2017.12.29)"