■ 一人綴り

イロイロやってますが、停滞中。(モノが出来たらアップする感じですから...。)更新はしますが数が減るかも。

【 Infomation 】


【 F1GP 2017 最終戦:アブダビGP 今日から開催中 】

■ F1GP 2017 最終戦:アブダビGP
【 11月24日(金) 】   ■ フリー走行1回目 【 リザルト 】     セバスチャン・ベッテル選手(フェラーリ)   ■ フリー走行2回目 【 リザルト 】     ルイス・ハミルトン選手(メルセデスAMG) 【 11月25日(土) 】   ■ フリー走行3回目 【 リザルト 】     ルイス・ハミルトン選手(メルセデスAMG)   ■ 公 式 予 選 【 リザルト 】     バルテリ・ボッタス選手(メルセデスAMG) 【 11月25日(日) 】   ■ 決     勝 【 リザルト 】     バルテリ・ボッタス選手(メルセデスAMG) (*)メルセデスAMGがコンストラクターズ    タイトル、ルイス・ハミルトン選手(    メルセデスAMG)がワールドタイトルを    獲得しています。
【 今シーズンのレースカレンダー 】 【 今シーズンのチーム&ドライバー 】  


 SUPER-GT 2017年シーズン終了。  GT300はグッドスマイル初音ミクAMGが  タイトル獲得、GT500はKeePer TOM’S  LC500がタイトル獲得となりました。
【 Super GT Round 8 ツインリンクもてぎ 】


【 11月11日(土) 】


  〇 公式練習
 
■ GT300 【 リザルト 】 

  4 グッドスマイル 初音ミク AMG
    Mercedes AMG GT3 / M159

    谷口 信輝選手
    片岡 龍也選手
 

■ GT500 【 リザルト 】

  37 KeePer TOM'S LC500
    LEXUS LC500 / RI4AG

    平川 亮選手
    ニック・キャシディ選手



   〇 予選Q1【 リザルト 】

  ■ GT300

   【4】グッドスマイル 初音ミク AMG
      Mercedes AMG GT3 / M159

      谷口 信輝選手
      片岡 龍也選手

  ■ GT500

   【46】S Road CRAFTSPORTS GT-R
      NISSAN GT-R NISMO GT500 / NR20A

      本山 哲選手
      千代 勝正選手




   〇 予選Q2 【 リザルト 】

  ■ GT300

   【4】グッドスマイル 初音ミク AMG
      Mercedes AMG GT3 / M159

      谷口 信輝選手
      片岡 龍也選手

  ■ GT500
   【23】MOTUL AUTECH GT-R
      NISSAN GT-R NISMO GT500 / NR20A

      松田 次生選手
      ロニー・クインタレッリ選手


【 11月12日(日) 】
 

   〇 決  勝

  ■ GT300【 リザルト 】

   【65】LEON CVSTOS AMG
      Mercedes AMG GT3 / M159

      黒澤 治樹選手
      蒲生 尚弥選手


  ■ GT500【 リザルト 】
   【23】MOTUL AUTECH GT-R
      NISSAN GT-R NISMO GT500 / NR20A

      松田 次生選手
      ロニー・クインタレッリ選手


(*)GT300はグッドスマイル初音ミクAMGが
   タイトル獲得、GT500はKeePer TOM’S
    LC500がタイトル獲得となりました。
 

【 今シーズンのレースカレンダー 】

【 今シーズンのドライバー&チーム 】








■ 交通情報などのリンク
http://blog.goo.ne.jp/kay-nea_l-u
e/8f3d1b94262f05bfe2eee971786294f0

【 最近アップした動画 】

【 差し替え 】Power Director 10 Ultraの2D-3D変換してみた。

■ Linuxでのゲーム制作

2017年03月21日 | ☆グラフィックス

 こうした差円卓において意外と選択肢が増えているので

触れておこうかなと。

 

 まず、マイクロソフトのVisualStudio系の言語の開発が

難しいと言う部分ですが、これは、

 

 ■ MonoDevelop

   http://www.monodevelop.com/

 

の登場で解消されていますが、これと同時に、それよりも

軽い動作でC#のコーディングが可能な

 

 ■ VisualStudio CODE

   https://code.visualstudio.com/ 

 

が存在するので、それを使ってコーディング&コンパイルが

可能になっています。WINDOWS環境だと、同ソフトは、

PowerPhellと連動しており、エイリアスを指定してcsc.

exeなどの絶対パスをsal cscとかで設定すると、

 

【 csc.exeの絶対パス␣cscファイル  】

 

と言う、それを、

 

【 csc␣cscファイル  】

 
で実行できるようになるのですが、コーディングにおい
て、ネットから素にペットのダウンロードなどを行って作
業すると非常に作業がしやすくなる選択としてそうしたモ
ノが存在しています。
 
 
 ゲームを作る場合にも複数の選択肢があります。
 
 まず、元々Linuxのソフトだった
 
 
 ■ Blender
   https://www.blender.org/   
 
 
 
のBGEがありますが、これは、オフラインでゲーム開発が
出来る物になっており、ネットに繋がらな場所でもゲーム
が作れる利点があります。
 
 ある種、javaなどの開発で考えると、完全にオフライ
ンでのインストールが可能な、
 
 
 ■ NetBeans
   https://netbeans.org/   
 
 
が存在していますが、オフラインでの作業&インストールと
なると選択肢が少し狭くなります。
 
 
 基本的にゲームエンジンに関しては、オンラインでの作業
になるので
 
 
 ■ 恐ろしく速いポスプロのマシンのようなPC
   
 
 ■ ギャランティー契約できたらそれに越した
   ことはないが、個人だと高すぎるので、
   最低限登りと下りの速度が見込めるベス
   トエフォートの常時接続の固定回線@光
 
 
あたりでもないと全く駄目なんですが、WINDOWSやMAC環
境だと
 
【 Unity 】(*)Linuxでの制作は出来ません。
 
 ■ Unity
 
 
 
【 Unreal Engine 】
 
  ■ UnrealEngine公式
 
 
  ■ Installing Unreal Engine in Linux Mint/Ubuntu
    【 Cominnuty-Linuxmint.com 】 
    tutorial/view/1898
 
 
【 CryEngine 】(*)Linux非対応
 
  ■ Cry Engine公式
 
 
 
 
 
などが存在していますが、オープンソースのゲームエンジンと
言うのが近年増えており、
 
 
 ■ Godot Engine
 
 
や 
 
 
 ■ The Elder Scrolls III: Morrowind
 
 
のゲームエンジンをそっくりそのままオープン化した
 
 
 ■ Open MV
 
 
 
なども存在しています。平面のゲームを作る場合だと、
LiveMakerなどが対応していたので、AVG制作とかは
結構前から可能だったわけですが、現在は3Dゲームの
制作が可能になています。
 
 基本的に、ゲームエンジンの場合、アセットストア
がある(Blenderにもありますが)ので、そこかアセッ
トを導入して利用すると言う選択がありますが、そうし
たモノが存在しない物の場合、素材は自分で作る事にな
ります。その為、平面にしても3Dにしても、構成要素
である素材の制作の肯定が発生します。つまり、視聴
覚に入ってくる素材制作がそれです。この場合、Linux
だと
 
 
【 音楽制作/SEなどの制作 】
 
  ■ Ardour(登録制になったっぽい)
  ■ LMMS
  ■ Songwrite
  ■ MuseScore
  ■ TuxGuitar
  ■ Hydrogen
  ■ Audacity
 
 
【 画像制作 】
 
  ■ GIMP
  ■ Inkscape
  ■ Krita
 
 
【 動画制作 】
 
  ■ KdenLuive
  ■ Blender
 
 
【 コンポジション 】 
 
  ■ Blender
 
 
【 3DCG制作 】
 
  ■ Blender
 
 
 
と言う感じになるかなと思います。ManuelBastioniや
MakeHumanなどと連携させると更に作業しやすくな
りそうですが、そうした選択が可能になっています。
 
 ただし、この条件で、何かしらのIDEとゲームエン
ジンとこうしたモノをそろえた(というか、Ubuntu
Studioとかが向いていそうなソフトの構成ですね。)
としても、企画やゲームシステムの考案は自分で行う
物なので、そうしたモノはソフトでは生まれてきませ
んから人が考える必要があります。
 
 WINDOWS環境+ネット常時接続の場合だと、
素材制作などでもDAZ 3D Studioが使えるなどの違
いがあるので少し異なるのっですが、ゲームエンジン
の選択肢が存在しており、3Dゲームを作ってみる事
も可能になっています。
 
 

 とりあえず、映像と音の上限ですが、

 

【 映像 】

  ■ BlenderではYouTubeのVR用の

    8192x8192が出力可能

 

【 音声 】

  ■ Blenderは7.1chサラウンドに対応

    (64bit/192KHz対応)

 

  ■ Audacityは32ch出力に対応

    (32bit/384KHzで64bit WAV対応)

 

なので、CD音質以下のものしか個人だと作れないと言う末期な

内容はありません。

 

 あと、4K解像度も物凄く重たいですが出せますから、そうい

う状態になっています。基本的に、4000万画素辺りの解像度が

画像制作ではなく動画制作の解像度になっており、

 

 【 A4の300dpiとかは印刷ではなく動画の解像度 】

 

なので、そういう時代になっています。また、これが、動画だけ

ではなく、現在発売中のPS4 Proや今年マイクロソフトから発表

が続々と出てくるProject Scorpioでゲーム画面の解像度として

存在するので、まかり間違っても画像の解像度ではなく、動くも

のの解像度になっているわけです。

 

 その為、音質や解像度に関しては、そんな感じになっています

が、2K辺りでゲームを書き出す事だとBGEやほかのエンジンでも

可能になっているのでそうしたフルHDと言うのはあまり特別な事

ではなくなっています。

 

 こうした内容から

 

 【 個人が作るとしてもソフトの仕様の上限は物凄く

   高い場所にある 】

 

ので、品質が出ないのは作り方の問題と言う事になります。w

 

 現状で考えると、Ubuntu StudioにはISOを焼いた時点で多くの

ソフト(OSS)が入っているわけですが、これに必要なモノを追加

すると作業は出来るようになります。そして、その多くがオフライ

ンでの作業が可能なので、基本的ンい素材制作はオフラインで行え

ることになります。

 

 前述の素材制作のソフトでいうとArdourお除けばすべてオフラ

インで利用できます。

 

 コーディングに関してもJavaとC++で考えた場合、NetBeans

の場合だとインストールからインストール後まですべてオフライン

ですから、当たり前に作業が出来ます。

 

 WINDOWS環境だと、Linuxコマンドを動かす必要があるので、

SygeinやMinGWをインストールしないとC++はコンパイルでき

ない(ソースコード自体はただのテキストファイルなので書けま

すが、ビルドを行って実行形式にできません。)のですが、Linu

xはC++は当たり前にgccでコンパイルが可能なのでターミナルで

a.outを吐き出せるレベルのものですから、当たり前に作業が出来

ます。

 

 つまり、環境をどれで高っちクするかで変わってくるのですが、

オフラインだと、JavaとC++やWEB系のブラウザベースのもの

の場合、問題なく作業が出来る状態と言えます。あとは島根県産

のRubyとか、BGEやGodotで使うインタプリタ言語のPython

(深層学習:ディープラーニングなどで使われています。)は当た

り前に実行できます。

 

 基本的に、WINDOWSの場合、HLSLのDirect 3Dの利用が

できるのですが、MACやLinuxはGLSLとSDLを弄る事になる

ので、基本的に仕様が異なります。

 

 その為、ライブラリが何かの部分からまるで違うのでコーデ

ィングをする場合にはまるで違う作業になるので注意が必要に

なります。(アーキテクチャが違えば当然そうなりますが。)

 

 ゲームエンジン関連でいうと、

 

 ■ VCMI

   http://forum.vcmi.eu/portal.php

   マイトアンドマジックのエンジン

 

 ■ Infinity Engine

   http://www.gemrb.org/wiki/doku.php?id=start

   RPG制作用のエンジン

 

 ■ Vavoom

   http://www.vavoom-engine.com/

   DoomやHeretic、Hexenなどのゲームエンジン

 

なども存在しており、意外とゲームを作る選択肢は多く存在

しています。

 

 ゲームエンジンを見た場合、相対数は少ないのですが、そ

うした環境は意外と増えているのでLinuxでもゲームを作る

選択肢は存在しています。

 

 


■ GPUの構成で作業が変わる

2017年03月19日 | ☆グラフィックス

 GPUの使用で出来るK十が全く違ってくるのですが、そう

した内容に少し触れておこうかなと。

 

 とりあえず、処理能力とかを除外するために、同じマシン

でCore i7で32GBのメモリーとNVMEのSSDとSATA SSD

の構成でバックアップ用にNASや外付けのHDDが存在する

と言う条件でと言う事にします。まぁ、作業自体が出来ない

状態だと問題があるのでこういう構成を仮定した場合でと言

う話です。

 


コンシューマとワークステーション


 

 基本的にGPUには

 

【 Direct 3Dチューン 】

  ■ NVIDIA : Geforce

  ■ AMD  : RADEON

 

【 Open-GLチューン 】

  ■ NVIDIA : Quadro

  ■ AMD   : FirePro

 

があります。その為、CAD用途や3DCGでおシーン上でのオ

ブジェクトが嵩むような物(モブが多く出没し、ポリゴン数

が嵩む場合など)だと、GLチューンが行われたワークステー

ション用のボードのほうが、SPEC Vieperfのスコアや実際

に動かしたときの挙動においての差が出ます、

 

 コンシューマのボードはDirect 3Dなどでのリアルタイム

レンダリングなので、内容が異なるのですが、制作で使う場

合だとQuadroやFireProになり、コンシューマの用途だと、

GeforceやRADEONになります。

 

 ちなみに、PolarisからRADEON Proが登場してFire Pro

ではない名称になったのですが、基本的に、

 

【 コンシューマのボード 】

  ■ 8bitRGBの出力(256階調)

  ■ 色空間はsRGBまで

  ■ HDMI 2.0などで12bit/4:2:2は出力可能

  ■ ゲーミング用途に向く

  ■ CUDAコアやSPの数の割にGPUが安い

  ■ 単精度浮動小数点演算だけ見ると速い

 

【 ワークステーション用のボード 】

  ■ 10bitRGBの出力(1024階調)

  ■ 色空間はAdobe RGBまで

  ■ HDMI 2.0などで12bit/4:2:2は出力可能

  ■ CADなどに向く

  ■ CUDAコアやSPは価格の割に少な目

  ■ コンシューマと違い桁数が2倍の倍精度

    浮動小数点演算が高速

 

と言う利点があります。つまり、色の多さと階調の深さや

小数点の桁数の多い物を使う用途ではワークステーション

用のボードのほうが向くので、3DCGやコンポジションで

はQuadroやFireProを推奨する場合が多いです。これに対

しある程度倍精度の性能もあるTITAN Xなどがコンポジシ

ョンや動画編集でも使える状態がある訳ですが、フィルタ

ー処理や、CUDAでの恩恵を受けやすいことから、個人の

場合、コンシューマのGPUとSDIのボードで構成し、SDI

出力をした状態でマスモニで色を確認し、コンシューマの

ボードで解像度の部分を担保すると言う方法もあります。

 


CGにおける作業の差異


 実写映像とのコンポジションを想定した場合、コンシュー

マのボードの構成というのは使いにくい気がするのですが、

その最大の理由は、

 

【 IBL用の素材であるAdobe RGBの14bitカラーの

  RAWが使えない 】

 

点につきます。ちなみに、業務用カメラは16bitで持ち帰れ

るので別物なんですが、コンシューマで考えると、この選択

肢はかなり多くのカメラで可能になっています。異なる点が

あるとすれば解像度と記録が非圧縮かロスレスであるかの違

い位でしょうか。

 

 つまり、こうした場合において、

 

【 Quadro+AdobeRGBのカバー率の高いモニター 】

  ■ RAWベースで色を確認し、それをステッチし

    HDR素材を制作できる

 

【 Geforce+sRGBのカバー率の高いモニター 】

  ■ 8bitのJPEGと14bitのRAWの色の差が解らない

    くらい色が出ていないので、色調の確認が不可

    能

 

なので、

 

【 IBLの素材を作る段階で影響が出る 】

 

と言えます。つまり、写真を使う場合だと、選択肢が

確実に代わる訳です。フォトリアルなシーンを求める

場合にiBLそざいとして実写素材の撮影が行わえている

ゲームもあり、その中には、空のシミュレーションをリ

アルに行っているForzaが存在しますが、実写映像で3D

CGを合わせるとなると、そうした選択は必然的に出て

きますから、3DCGやCAD寄りの構成にしたほうがいい

と言えます。

 

 基本的に、モデリングとレンダリングで求める機能が

異なるので、

 

【 GPUレンダリング 】

  CUDAコアやSPの数と速度

 

【 モデリングやシーン構築 】

  GL性能や倍精度浮動小数点演算の性能

 

なので、ラス・ベクの演算だと間違いなくコンシュー

マのボードのほうがコストパフォーマンスは高く、個

人が導入する場合だと利点が多いのですが、モデリン

グ主体となると、CPUレンダリングでGL性能を稼ぐ

構成にしたほうが作業的には快適になる傾向がありま

す。

 

 こうして見てみると、なぜワークステーションはそ

の双方が強い上位のボードの構成なのか?というのが

理解できると思います。つまり、両方やる場合だと一

つのボードでその性能があれば片付くからです。w

 


動画でのGPU


 

 

 CUDAの効果ですが、これは演算で、これについては

GPUレンダリングのパフォーマンスの違いで確認できま

す。BlenderでもGPUレンダリングは可能で、CUDAを

使った処理と、Open-CLを使った処理が出来るので、

RADEONも対応しているわけですが、3DCGのレンダリ

ングと動画のエンコードは少し異なる状態にあり、動画

については、CUDAやOpen-CLのGPUの演算ではなく、

CPUのSIMDであるAVXを使ったほうが高速になります。

 

 つまり、エンコーダーが最新のAVXに対応しているか

否かで様子が変わってきます。コレよりは遅いのですが、

今ではCeleronやPentiumでも実装しているQSVがあり

ますが、これもCore i7でエンコードをすると、GPUの

エンコード速度よりも速くなります。つまり、

 

 AVX > QSV > GPU

 

と言う状態になります。その為、GPUの用途と言うのは、

CUDAなどの使われ方が少し異なり、プレビュー時のフィ

ルターの演算などの処理が高速なものほど効くと言う利点

になります。そうした内容から、CUDAコアやSPの数の割

には、価格がワークステーション用のボードよりも低価格

なコンシューマのボードで処理をしたほうがいいと言う話

になります。

 

 そうした内容から、コンシューマの動画編集だと、

 

 ■ Core i7でAVXやQSVのパフォーマンスを稼ぐ

   (チューンされてるソフトだとAMDの選択肢も

    ある)

 

 ■ メモリーはRAMプレビューで必要になるので

   多く実装する

 

 ■ エフェクト・トランジション・フィルター処理で

   軽くしたいので、高速なコンシューマの上位の

   ボードを追加する

 

 ■ 4Kを想定すると、SSDの必要性がある為、それ

   をストレージ構成に追加する。書き込み速度を

   求める場合だとHDDのRAIDも用意する事になる

 

と言う条件になります。色彩を求める場合だと、これに

 

 ■ 12GのSDIのボード

 ■ DCI-P3 100%カバーのマスモニ

 

などを追加して、色が出せる条件を構築し、LUTを合わ

せて表示する状態になります。当然、GPUは出力が残る

ので、ここに作業用の表示スペースを置きく取れるモニ

ターと高解像度なモニターを使いする事になります。

 

 こうした構成にすると、シネマカメラのように12bit 

のDNGを使える環境での作業が可能になる訳ですが、

コンポジションを想定すると前述のIBLの素材制作とは

異なる状態でそれを追加することになります。

 

 こうした条件から考えると、Quadro Pシリーズの

上位製品を入れてCUDAコアとGL正のも植えたほうがい

いのではないだろうか?と言う結論に行き着く訳ですが、

結果帝に異なる処理で別のマシンが必要になる場合だと

ウルトラハイエンドでなくても、上位のそうした製品で

あったほうが利便性がたっかうなると言う内容からそう

した選択が存在しています。

 

 ただし、作る場合の選択肢の違いの話ですから、LUT

がREC.709を100%カバーする条件のものであれば、R

AW現像同じような構成で対応できますから、キャリブ

レーションとLUTを合わせる作業だけでそうした事が可

能になります。

 

 つまり、10bit/4:2:2でREC.709の動画だと、これに

ついては、RAW現像と同様に、AdobeRGBのモニターと

QuadroやFire Proの構成で対応できることになります。

 

 と言うのも、AdobeRGBはREC.709やCMYKはカバー

しているからです。

 


処理能力による差異


 基本的にGPU自体が安い製品ではないですから、そう

そう誰でも彼でも上位のGPUを導入できるわけではあり

ません。

 

 その為、多かれ少なかれ、構成に寄っての制約は発生

します。

 

 とりあえず、3DCGの場合だと、

 

 ■ プロセッサが遅いと速度は落ちる

 

ので、GPUのベンチマークテストがXEON E3とか、Core

i7の場合だと、同じLGA 1151であっても、Core i5やCor

e i3では何割か速度が下がります。また、PCIeの速度に

ついてもGEN1/GEN2/GEN3で帯域がまるで違うので、

新しいアーキテクチャと古いアーキテクチャでは速度が

まるで違います。

 

 その為【 Coe i7の構成がいい 】と言われます。

 

これと同時に、Sculptにおいてはメモリーを多く求める状

態になり、レンダリング時の解像度が大きくなるほどに実

装メモリーの量が効いてきますから、動画・画像制作と同

様にメモリーを多く実装する必要が出てきます。

 

 基本的にこの三つを抑えておく必要があるのですが、近

年のように【 4Kや8Kの時代になりつつある 】と、

 

 ■ 必然的にテクスチャーの解像度が高くなる

 

 ■ 出力品質が高くなるので、ストレージ帯域が

   必要にあなる

 

 ■ ビットレートが高きうなるので大容量ストレ

   ージが必須となる

 

ので

 

 【 NVMeのSSD構成でRAID 0なども視野に

   入れたつくりを求める事になる 】

 

と言う内容があります。これに関しては、VRやMRなどの

今後、高解像度になると考えられるコンテンツの対応や、

8K映像やインテグラル方式の映像のように高解像度にす

るほどにVRや4360°の映像のように元の解像度が恐ろし

いことになる仕様(イメージ的にはBlenderのAnimated

Textureに近い感じで、アレのフレーム数が支店数だと考

えると解りやすいです。以前書きましたが、16x16で4Kや

8Kを行うと画像らしからぬ容量になるように、視点数を

増やすアプローチをしていくとおのずと、高解像度の重要

性が見えてくることになります。と言っても1億画素は超え

ているので10年以上先には画素数はどうなってリうのかは

解りませんが量子コンピューターも現実的に鳴ってきてい

る内容もありますし、10年経過すれば画素数は桁数が一つ

繰り上がる感じですから、10億画素位のものが存在してい

てもおかしくはありません。と言うのも、1995年の初のデ

ジカメは35万画素程度でしたが、2005年段階で350万画素

のカメラはごろごろと存在し、2015年段階で3500万画素の

カメラはどうだっただろうか?と考えると、上位機種だと

存在しているわけです。そうなると、2025年には3億5千

万画素位のものが存在し、2030年位には4億画素位の物が

合ってもおかしくはありません。)なのでストレージ帯域も

必然的に重要になってきます。

 

 現在進行形のもので考えると、4Kですが、これがゲーム

のようなリアルタイムレンダリングによるものなのか、も

しくは、映像制作時に使うプリレンダリングなのかで内容

が大きく変わってきます。

 

 解像度が何で、どれくらいのストレージ帯域のコンテン

ツを制作するのかでストレージの選択肢は変わってきます

から、その辺りも考える必要性が出てきます。

 


 

 GPUの選択ですが、アプローチの方向性がまるで違うの

で、用途によって選択肢が変わる訳ですが、製品お方向性の

際と言うのはニーズの違いで存在しているので、カテゴリー

が同じだから物まで同じではありません。

 

 その為、作業によって選択するっ機材構成が全く変わって

しまうので、そうした違いが存在しているわけです。

 

 


■ つぶやき

2017年03月08日 | ☆グラフィックス

 大抵の場合、先端技術の系統を試す場合、仮想現実

である3DCGのほうがそれに対応しやすい事が多い。 

 

 たとえば、ステレオグラムを行う場合に、3DCGの

場合、映像でも対応視野素あったことは確かだし、処

理においても利点は多い。

 

 というのもステレオベースと言うのは、数式が存在

しておりその条件に合うようにステレオベースを調整

すれば、自分でいちいち合わせなくてもそれに対応で

きる3D映画用のリグのような機能をするものが出来る

訳です。

 

 また、フィギュア撮影の場合に行う、

 

【 ステレオベースを小さくして撮影する手法 】

 

がありますが、3DCGの場合、これは真逆の発想で、

 

 【 カメラはそれで固定しておいて、セットの

  スケールを大きくすればいい 】

 

ので、微細な世界のステレオグラムな表現もしやすい

わけです。

 

 VRもそうなんですが、映像においては4Kや8Kも同

様で16bitでACES作業するとなると8Kは既に個人の手

におえる物ではなくなるのですが、高解像度の8bitソー

スや4K辺りまでだと当たり前に個人でも8bitソースで

出力できる時代になっています。

 

 と言ってもMikuMikuDanceとBlenderで8Kに対応し

ていますから、既に8Kの書き出しは可能で、250フレー

ム辺りだと、MikuMikuDanceの非圧縮をHuffYUV辺り

でBlenderを通してエンコードをすると、12.7GB位ま

で圧縮できる(4320/30pの24bitRGBのソースで8秒

と10フレームの代物)なので、351GB位で4分の尺に

できます。というか、非圧縮だと900GBをゆうに超え

て1TBに近い容量が必要になるので、それを考えると

容量が小さいわけですが、相当容量に対してマヒしてく

ること請け合いですが、こうした大容量の条件がつくも

のの8Kの解像度だと3DCGでは対応できる状態がありま

す。

 

 来年から始まる8Kはさすがに個人の環境だと対応で

きませんが、既存の何かよりもすごいことをしようと

思うとこうした選択肢は当たり前に登場します。

 

 2025年からインテグラル立体テレビの内容も技術的

に凄くなったのが見えてきそうですが、この撮影で利用

するレンズアレイについても、3DCGの場合、アレイの

ピッチさえ理解できていれば、Blenderの配列複製で、

それを生成できますから、空間とレンズのサイズの対比

とレンズとピッチの対比でそれを割り出して考え、それ

を作ることも可能です。

 

 大抵の場合、3DCGで少し先の技術を使う事は出来るの

ですが、そのコンテンツが出来ても表示機材が普及してい

ないなどの内容が存在しています。ただし、インテグラル

方式の立体視や、コストが高くなるのですが、多視点の映

像ソースを作る場合においてもそうした事が可能ですから、

利点は多いです。

 

 あと、印刷においてもそうなんですが、裸眼立体視の方

法として、3DSのパララックスバリア方式とは別に、かま

ぼこのような凹凸のあるレンチキュラーレンズを使った方

式があります。これについては、巨大な印刷物の場合、多

くの視点を閉じ込める事が可能なので、恐ろしい金額にな

りますが、巨大なレンチキュラーシートと巨大な印刷物に

20視点位の単一の被写体の像を刻んだそれを入れておくと、

当たり前に裸眼立体視がか野末視差崩壊しにくいものにで

きる訳ですが、これもアナログでやると大変ですが3DCG

だとそうでもなく、コンテンツ自体を作るのは大変ですが、

その出力におけるカメラの設定と映像出力だけだとそんな

に難しい作業ではありません。

 

 その為、大抵の亜太アしい技術を使う場合には、3DCG

ツールでその使用を太mしてみると物は作れる事のほうが

多いので、表示機材が存在しない少し先の技術のモノを試す

としてもそれが可能になっています。

 

 解像度が高いと言う条件だと、昔にそれが無理だったの

は、単に演算性能が追い付いていなかっただけの話なので

ソフトウェアのポテンシャルとして、高解像度ソースへの

対応というのは出来なくもない状態にありました。ただし、

現在のそれと過去のそれでは、技術的な面で異なるので、

個人が持っているPCで出来る作業の場合、過去と今では

品質が異なります。

 

 例えば、20世紀終盤のラジオシティーやレイトレーシ

ングの時代。個人が動画を出そうと思うとスキャンライン

ででh-ディングの効果が薄い物でないと厳しい状態があ

ったわけですが、現在個人がゲーミングデスクトップ辺り

を購入するとMikuMikuDanceは動くので、HLSLでの処理

をしたもので動画が書き出せるので、書き出し時間の関係上

スキャランラインしかない時代とは全く異なります。

 

 また、パストレイサー登場当初も重い状態がありました

から現在のようなGPUレンダーの無償のモノが複数ある時

代と違う(というか、GPUレンダーではないですが、パス

トレーサーだと10年以上前にREDQUEENがあったので無

償のがありましたが...。)のでやはり様子が異なります。

その為、

 

【 個人が現実的に動画を出せる選択肢とその品質が

  異なる 】

 

ので、今の段階で高解像度のモノを出すのと、10年前に出

すのでは全く違う訳です。これは、1997年辺りに3DCGA

を行うのと、2007年では全く異なり、2007年と今では比

較するほうがどうかしてるレベルで違う訳です。

 

 また、1997年にはステレオグラムは可能でしたが、解

像度の制約があり、動画をする場合だと、個人お所有して

いるマシンだと品質を追いかけれる状態にないので、

 

【 解像度があまり高くない物でシーケンシャルを出

  してそれを動画として書き出す 】

 

と言う状態でした。2007年はフルHDが作れる時代ですか

ら、比較してはならないレベルで違いがあります。

 

 そして、現状だと8Kまで大丈夫ですから、2007年と比

較してはならないレベルの差があります。

 

 とりあえず、8Kmお相当重たいのですが、インテグラル

方式のソースの場合、

 

【 1つのレンズモジュールの割り当ての解像度

  をレンズアレイ分だけ掛け合わせた解像度が

  必要 】

 

なので、BlenderのAnmatedTextureのような巨大なモノに

なるわけです。つまり、解像度を上げる程に転送レートと処

理能力が必要になると言う訳です。

 

 結果的に、この技術の場合、8Kが軽く感じるような代物に

なる(仕様的に解像度を高めていくとそうなる)ので、解像

度の低い物だと対応できそうですが、高い物を指定すると相

当厳しくなりそうな気がしますが、多視点については制作可

能になっています。

 

 


■ 画像と動画

2017年03月07日 | ☆グラフィックス

 動画と言う尾は画像がフレームレートの指定で変化する事で

存在する構造物ですが、連番をそのまま格納したモノとは異な

ります。現在のMPEG方式では、MotionJPEGとは異なり、GOP

単位で管理している為、処理が全く異なります。

 

 まず、この構造物ですが、Iフレーム・Pフレーム・Bフレーム

が存在しており、Iフレームが画像で、それを予測変換したものと

その差分で構成されているのが、現在の動画になります。つまり、

あからさまに異なるフレームとあまり変化がない・もしくは同じ

フレームと言うのは動画の特性上発生します。例えば、建物の

内観を撮るとか、展示物を撮る場合、カメラは定点になり、テ

ロップ+ナレーションのような構造になりそうですが、その場合、

映像は静止した状態になります。ある種、写真でもよさそうな状

態ですが、そうした表示をする場合、変化がありません。そうな

るとこの場合、Iフレームの穂情報のみでいいのでそのIフレーム

を秒数分用意するのは容量の無駄であるのは理解できると思います。

 

 また、そこから変化が発生するまでに48フレーム位あると、そ

の間の処理は、変化する前までのモノとの差分で処理できるとい

うのは理解できると思うのですが、動いているモノの場合でも、

その挙動があまり差がない場合にはこの完全浅井が発生するまで

のフレーム数と言うのは異なります。仮にこれが4フレームだと

すれば、間の2フレームは近似の差分で処理できるわけです。

 

 そう書くとわかりにくいのでザックリと書くと

 

 【 変化した分だけ動かしてその間は動いた差の分から

   推移を予測して画像補間をする 】

 

ことで処理できるわけです。つまり、この予測変換において差

がない場合にはエンコード処理は発生しないので、エンコード

時間が短くなります。つまり、アニメーの場合は圧縮率が高く

実写の場合は圧縮率が低いというのはこうした理由です。

 

 コーディックには、業務用の中間ファイルや撮影形式とし

て10bitや12bitのソースを使えるProResやAvidの形式など

が存在し、VC-3やVC-5なども存在するわけですが、動画

コーディックの中には

 

【 QuickTime 】

 

  圧縮なし    : 8bit/4:4:4

  アニメーション : 8bitのロスレス

  非圧縮     : 4:2:2

  ProRes     : ProRes形式

             12bit/4:4:4や10bit/4:2:2など

 

などがあります。こうした記録方式ですが、WINDOWS環境だと

EDIUSのCanopus HQとかロスレスがあったり、Cinefonなども

素材しているわけですが、AVIコンテナを使う場合でもロスレス方

式は複数あります。

 

 個人が気軽に使えるものだとLagrithなどもそれに該当します。

これはBlenderでも使えるので、HuffYUVとセットで使う感じに

なりますが、圧縮率の高いロスレスになります。

 

 基本的に、x.264やx.265などは不可逆圧縮なので、エンコード

して指定した形式に変換したモノになり、ロスレスというのは、

元の形式を復元できる可逆圧縮になっています。その為、中間ファ

イルではロスレス・圧縮なし・非圧縮(MACの場合、8bitだとアニ

メーションや圧縮なしで、10bit以上だとProResと言う感じ)を

使う事になります。

 

 こうした映像ソースですが、24bitRGBと32bitRGBというのが

登場します。前者が通常の8bitカラーで256階調の通常のフルカ

ラー(1677万色)になるのですが、32bitと言うと10bitカラーの

ように見えますが、これもTrueColorに該当する8bitカラーになり

ます。つまり、RGBAのような感じで、システム用に8bitが用意さ

れているモノなので、1024階調の色深度を持つソースではありま

せん。その為、RGBAと認識しておくような代物なので注意が必

要です。BMPでそうした選択が存在しますが、32bitはそういう

特性なので注意が必要です。

 

 現状において、プロの映像の現場では16bitモニターとかが利用

されており、16bit環境もあるのですが、RGBの選択肢には、当た

り前のように48bitカラーと言う物が存在します。これが俗にいう

16bitカラー(65535階調)の物がソレになります。

 

 sRGBの色空間になりますが、PNGもそれが使えます。ちなみ

に、TIFFと言う方式がありますが、これはご存知の通りAdobe

RGBの色空間が利用できるため、色深度が深く、階調豊かな状態

で保存できます。sRGB準拠の作業だと、色空間の内容はsRGBのみ

なので発生しないのですが、画像の場合、

 

 ■ 印刷 : CMYK

 ■ 写真 : Adobe RGB

 

があるので、これだけ見ても少し違うのですが、sRGBというのは、

 

【 REC.709相当でガンマの異なる色空間で、実質的に

  CYMKもRC.709もすべての色をカバーできるような

  ものではない 】

 

ので、基本的に、PCで10bitのAdobeRGBのパネル構成がプロ用と

言われるのは、印刷・HDTV・写真・PCの4つにおいてオールマイ

ティーで使えるからです。当然、LUTを合わせてキャリブレーショ

ンする事になりますが、そうした理由から全く異なる訳です。

 

 あと、人の色の認知において8bitと言う内容がまことしやかに語

られていますが、あれは相当かいつまんで物を聞いたのが独り歩き

している内容で、人の目は赤に関しては10bit位見えているので、

映像制作では10bitソリューションであり、プロ用だと16bitを使っ

ています。その為、写真の記録段階の階調はその中から10bitを抜

き出すとしても補正時の劣化を考慮して14bitあり、プロ用の映

像や写真だとそれ以上の16bit程存在するわけです。

 

 解像度の認知も同様で、300万画素位というのも

 

【 dpiの概念がないようなニワカの妄言 】

 

ですから、今時そんな動画以下の写真を見て着れ鵜と思う人間は

いませんし、iPhoneはおろか、iPodToucuにも届かない品質を高

品位に感じる訳がないですから【 WINDOWS 98が出た当時の

話 】なので、もうすぐ20年くらい過ぎようとしてる大昔の話に

なります。つまり、それを概念とはき違えてるのは文明がないで

すから相手にしないほうがいいです。

 

 300万画素ではなく300dpiと言う認識だとしても、これに関

しては、

 

 【 Retinaとそれ以上の物を比較すると、密度の違いは

   確認できる 】

 

ので、結果的に、300dpiが上限というのも疑わしい内容になり

ます。w

 

 とりあえず、そうした内容から、色数と仕様の違いが動画も

そうですが、画像には存在するので、全く異なると言えます。

 

 ちなみに、RGBとITUの動画用の色空間は平面表記でも色空

間に差があるのですが

 

【 範囲が同じでガンマが違う物 】

 

  ■ sRGBとREC.709

  ■ Adobe RGBとDCI-P3

 

という状態になっています。ちなみに、

 

 ACES > REC.2020 > DCI-P3 > Rec.709

 

ですから、当たり前の映像制作の色空間はsRGBでは色抜

けが酷いと言えるので、sRGBパネルでの作業が存在しな

いのですが、実質的に、こうした部分も作業で使う物が

変わってくると言えます。つまり、ITUの色空間だと、

SDIのボードとマスモニになりますし、Adobe RGBだと

QuadroやFire ProにAdobeRGBのカバー率の高い10bit

モニターになります。

 

 あと、画像の容量計算と言うのが可能で、通常のRGBを

想定した場合、

 

( ビット数*解像度 )/8

 

で出せます。まず、ピクセル単位に色のビット数が割り当

てられているのでそれに解像度をかければその状態になる

ので、

 

 ■ 8bitカラー : 24bitなので24

 ■ 10bitカラー : 30bitなので30

 ■ 12bitカラー : 36bitなので36
 
 ■ 16bitカラー : 48bitなので48
 
 
と言う感じです。とりあえず、
 
 
【 4K 】
 
  8bit : 2.49MB
  16bit : 4.98MB
 
【 8K 】
 
  8bit : 9.6MB
  16bit : 19.2MB
 
 
となります。動画の場合、GOPだと異なるのですが、All-Intra
だと、これにフレームレートをかけたものになります。つまり、
60pを想定すると、8Kだと
 
 
 16bit : 1,152MB/sec (9,216Mbps)
  8bit : 576MB/sec  (4,608Mbps)
 
 
になります。つまり、4Kでも1Gbps超過のビットレートがな
いとRGBの処理が無理と言う事になります。
 
 ちなみに、コンシューマの動画は、色差情報が1/4になって
いるので、これよりも軽くなっています。
 

 つまり、その表記がYCbCr(SMPETのデジタル表記)での

輝度Yと色差のCbとCrになるのですが、業務用ソースは、

 

 ■ 10bit/4:2:2

 

なので、CbとCrは4:4:4から間引かれています。それに対し

コンシューマの動画の場合、

 

 ■ 8bit/4:2:0

 

なので、Crの部分が半分になっているのでクォーターの状態

で処理されています。とりあえず、この方式だと黒字に青が

ディテール崩壊を起こすのでいい状態とは言えないのですが、

白地に黄色は意外と粘る感じはあります。

 

 つまり、RGBと比較すると動画は汚く感じると言うのは、

間引かれているので当然の結果なんですが、動画と画像で

は色空間も違いますし処理においても全てが全てAll-Intraや

そMotion JPEGではないので違いがあります。

 


■ そ~いえば

2017年02月24日 | ☆グラフィックス

 BENQからsRGBとREC.709のカバー率が100%の4Kモニターが

発売されるみたいですね。

 

 放送用の何かとsRGBのPCモニターなどのソレでは色空間が違った

のですが、両方カバーのモノが出ると言う、こうした選択は、Ado

be RGBのカバー率の高いモニターとQuadroかFire Proを選んでLUT

で合わせる感じだったのですが、Adobe RGBは全く足りてないです

が、そうしたモニターが出るようです。

 

 あと、Adobe RGBカバー率99%のモニターも出るようで、これ

は14bit LUT対応で、HDRサポートになるようです。今年は、HDR

が一つのキーワードになるのですが、そうしたディスプレイも登場

してくるようです。

 

 HDRと言うと、ゲーム制作でも今後のコンソールゲームはHDR

標準対応ですし、YouTubeも昨年HDR対応(シネマカメラで撮っ

てグレーディングで出す感じになりますが)になっているので、そ

うしたコンテンツも増えるのですが、今後は、

 

 ■ 10bit/4:2:0

 ■ HDR

 ■ 2160/60p

 ■ HEVC

 ■ AC-4

 

の仕様の動画を見かける事が増えると思いますが、そうしたコンテ

ンツへの対応のようにも思えます。

 

 あと、RGBとYCbCr(SMPETの表記。日本ではこれはアナログ

で使われていたのですが、SMPETではデジタルがこれです。なの

で、どの規格の表記でソレになってるのかには注意が必要です。ち

なみに、YUVとこれは別物なのでそこも注意が必要です。)では全

く違うのですが、HDMI 2.0出力時に、

 

■ 2160/60MHz

 

  8bit/4:2:2

  10bit/4:2:2

  12bit/4:2:2

 

というのがあるのですが、これは、まかり間違っても10bit RGBが

出ているわけではないので、HDMIのRGB出力は8bit RGBになり

ます。あと、

 

 ■ 8bit RGB

 ■ 8bit/4:4:4

 

は別物なので変換が必要になりますが、これはHDMI 2.0でも出ま

す。

 

 そうした内容から、10bit RGBなQuadroやFire ProとAdobe R

GB対応のモニターでは異なる訳です。

 

 とりあえず、4K製品も低価格なモノでインチ数が大きなものも

出ていますが、個人が何かを作る上で選ぶ制作用途の製品もいろい

ろ面白いのが出ています。