■ 一人綴り

イロイロやってますが、停滞中。(モノが出来たらアップする感じですから...。)更新はしますが数が減るかも。

■ つぶやき

2017年03月08日 | ☆グラフィックス

 大抵の場合、先端技術の系統を試す場合、仮想現実

である3DCGのほうがそれに対応しやすい事が多い。 

 

 たとえば、ステレオグラムを行う場合に、3DCGの

場合、映像でも対応視野素あったことは確かだし、処

理においても利点は多い。

 

 というのもステレオベースと言うのは、数式が存在

しておりその条件に合うようにステレオベースを調整

すれば、自分でいちいち合わせなくてもそれに対応で

きる3D映画用のリグのような機能をするものが出来る

訳です。

 

 また、フィギュア撮影の場合に行う、

 

【 ステレオベースを小さくして撮影する手法 】

 

がありますが、3DCGの場合、これは真逆の発想で、

 

 【 カメラはそれで固定しておいて、セットの

  スケールを大きくすればいい 】

 

ので、微細な世界のステレオグラムな表現もしやすい

わけです。

 

 VRもそうなんですが、映像においては4Kや8Kも同

様で16bitでACES作業するとなると8Kは既に個人の手

におえる物ではなくなるのですが、高解像度の8bitソー

スや4K辺りまでだと当たり前に個人でも8bitソースで

出力できる時代になっています。

 

 と言ってもMikuMikuDanceとBlenderで8Kに対応し

ていますから、既に8Kの書き出しは可能で、250フレー

ム辺りだと、MikuMikuDanceの非圧縮をHuffYUV辺り

でBlenderを通してエンコードをすると、12.7GB位ま

で圧縮できる(4320/30pの24bitRGBのソースで8秒

と10フレームの代物)なので、351GB位で4分の尺に

できます。というか、非圧縮だと900GBをゆうに超え

て1TBに近い容量が必要になるので、それを考えると

容量が小さいわけですが、相当容量に対してマヒしてく

ること請け合いですが、こうした大容量の条件がつくも

のの8Kの解像度だと3DCGでは対応できる状態がありま

す。

 

 来年から始まる8Kはさすがに個人の環境だと対応で

きませんが、既存の何かよりもすごいことをしようと

思うとこうした選択肢は当たり前に登場します。

 

 2025年からインテグラル立体テレビの内容も技術的

に凄くなったのが見えてきそうですが、この撮影で利用

するレンズアレイについても、3DCGの場合、アレイの

ピッチさえ理解できていれば、Blenderの配列複製で、

それを生成できますから、空間とレンズのサイズの対比

とレンズとピッチの対比でそれを割り出して考え、それ

を作ることも可能です。

 

 大抵の場合、3DCGで少し先の技術を使う事は出来るの

ですが、そのコンテンツが出来ても表示機材が普及してい

ないなどの内容が存在しています。ただし、インテグラル

方式の立体視や、コストが高くなるのですが、多視点の映

像ソースを作る場合においてもそうした事が可能ですから、

利点は多いです。

 

 あと、印刷においてもそうなんですが、裸眼立体視の方

法として、3DSのパララックスバリア方式とは別に、かま

ぼこのような凹凸のあるレンチキュラーレンズを使った方

式があります。これについては、巨大な印刷物の場合、多

くの視点を閉じ込める事が可能なので、恐ろしい金額にな

りますが、巨大なレンチキュラーシートと巨大な印刷物に

20視点位の単一の被写体の像を刻んだそれを入れておくと、

当たり前に裸眼立体視がか野末視差崩壊しにくいものにで

きる訳ですが、これもアナログでやると大変ですが3DCG

だとそうでもなく、コンテンツ自体を作るのは大変ですが、

その出力におけるカメラの設定と映像出力だけだとそんな

に難しい作業ではありません。

 

 その為、大抵の亜太アしい技術を使う場合には、3DCG

ツールでその使用を太mしてみると物は作れる事のほうが

多いので、表示機材が存在しない少し先の技術のモノを試す

としてもそれが可能になっています。

 

 解像度が高いと言う条件だと、昔にそれが無理だったの

は、単に演算性能が追い付いていなかっただけの話なので

ソフトウェアのポテンシャルとして、高解像度ソースへの

対応というのは出来なくもない状態にありました。ただし、

現在のそれと過去のそれでは、技術的な面で異なるので、

個人が持っているPCで出来る作業の場合、過去と今では

品質が異なります。

 

 例えば、20世紀終盤のラジオシティーやレイトレーシ

ングの時代。個人が動画を出そうと思うとスキャンライン

ででh-ディングの効果が薄い物でないと厳しい状態があ

ったわけですが、現在個人がゲーミングデスクトップ辺り

を購入するとMikuMikuDanceは動くので、HLSLでの処理

をしたもので動画が書き出せるので、書き出し時間の関係上

スキャランラインしかない時代とは全く異なります。

 

 また、パストレイサー登場当初も重い状態がありました

から現在のようなGPUレンダーの無償のモノが複数ある時

代と違う(というか、GPUレンダーではないですが、パス

トレーサーだと10年以上前にREDQUEENがあったので無

償のがありましたが...。)のでやはり様子が異なります。

その為、

 

【 個人が現実的に動画を出せる選択肢とその品質が

  異なる 】

 

ので、今の段階で高解像度のモノを出すのと、10年前に出

すのでは全く違う訳です。これは、1997年辺りに3DCGA

を行うのと、2007年では全く異なり、2007年と今では比

較するほうがどうかしてるレベルで違う訳です。

 

 また、1997年にはステレオグラムは可能でしたが、解

像度の制約があり、動画をする場合だと、個人お所有して

いるマシンだと品質を追いかけれる状態にないので、

 

【 解像度があまり高くない物でシーケンシャルを出

  してそれを動画として書き出す 】

 

と言う状態でした。2007年はフルHDが作れる時代ですか

ら、比較してはならないレベルで違いがあります。

 

 そして、現状だと8Kまで大丈夫ですから、2007年と比

較してはならないレベルの差があります。

 

 とりあえず、8Kmお相当重たいのですが、インテグラル

方式のソースの場合、

 

【 1つのレンズモジュールの割り当ての解像度

  をレンズアレイ分だけ掛け合わせた解像度が

  必要 】

 

なので、BlenderのAnmatedTextureのような巨大なモノに

なるわけです。つまり、解像度を上げる程に転送レートと処

理能力が必要になると言う訳です。

 

 結果的に、この技術の場合、8Kが軽く感じるような代物に

なる(仕様的に解像度を高めていくとそうなる)ので、解像

度の低い物だと対応できそうですが、高い物を指定すると相

当厳しくなりそうな気がしますが、多視点については制作可

能になっています。

 

 


最新の画像もっと見る