■ 一人綴り

イロイロやってますが、停滞中。(モノが出来たらアップする感じですから...。)更新はしますが数が減るかも。

【 Infomation 】


【 F1GP 2017 最終戦:アブダビGP 今日から開催中 】

■ F1GP 2017 最終戦:アブダビGP
【 11月24日(金) 】   ■ フリー走行1回目 【 リザルト 】     セバスチャン・ベッテル選手(フェラーリ)   ■ フリー走行2回目 【 リザルト 】     ルイス・ハミルトン選手(メルセデスAMG) 【 11月25日(土) 】   ■ フリー走行3回目 【 リザルト 】     ルイス・ハミルトン選手(メルセデスAMG)   ■ 公 式 予 選 【 リザルト 】     バルテリ・ボッタス選手(メルセデスAMG) 【 11月25日(日) 】   ■ 決     勝 【 リザルト 】     バルテリ・ボッタス選手(メルセデスAMG) (*)メルセデスAMGがコンストラクターズ    タイトル、ルイス・ハミルトン選手(    メルセデスAMG)がワールドタイトルを    獲得しています。
【 今シーズンのレースカレンダー 】 【 今シーズンのチーム&ドライバー 】  


 SUPER-GT 2017年シーズン終了。  GT300はグッドスマイル初音ミクAMGが  タイトル獲得、GT500はKeePer TOM’S  LC500がタイトル獲得となりました。
【 Super GT Round 8 ツインリンクもてぎ 】


【 11月11日(土) 】


  〇 公式練習
 
■ GT300 【 リザルト 】 

  4 グッドスマイル 初音ミク AMG
    Mercedes AMG GT3 / M159

    谷口 信輝選手
    片岡 龍也選手
 

■ GT500 【 リザルト 】

  37 KeePer TOM'S LC500
    LEXUS LC500 / RI4AG

    平川 亮選手
    ニック・キャシディ選手



   〇 予選Q1【 リザルト 】

  ■ GT300

   【4】グッドスマイル 初音ミク AMG
      Mercedes AMG GT3 / M159

      谷口 信輝選手
      片岡 龍也選手

  ■ GT500

   【46】S Road CRAFTSPORTS GT-R
      NISSAN GT-R NISMO GT500 / NR20A

      本山 哲選手
      千代 勝正選手




   〇 予選Q2 【 リザルト 】

  ■ GT300

   【4】グッドスマイル 初音ミク AMG
      Mercedes AMG GT3 / M159

      谷口 信輝選手
      片岡 龍也選手

  ■ GT500
   【23】MOTUL AUTECH GT-R
      NISSAN GT-R NISMO GT500 / NR20A

      松田 次生選手
      ロニー・クインタレッリ選手


【 11月12日(日) 】
 

   〇 決  勝

  ■ GT300【 リザルト 】

   【65】LEON CVSTOS AMG
      Mercedes AMG GT3 / M159

      黒澤 治樹選手
      蒲生 尚弥選手


  ■ GT500【 リザルト 】
   【23】MOTUL AUTECH GT-R
      NISSAN GT-R NISMO GT500 / NR20A

      松田 次生選手
      ロニー・クインタレッリ選手


(*)GT300はグッドスマイル初音ミクAMGが
   タイトル獲得、GT500はKeePer TOM’S
    LC500がタイトル獲得となりました。
 

【 今シーズンのレースカレンダー 】

【 今シーズンのドライバー&チーム 】








■ 交通情報などのリンク
http://blog.goo.ne.jp/kay-nea_l-u
e/8f3d1b94262f05bfe2eee971786294f0

【 最近アップした動画 】

【 差し替え 】Power Director 10 Ultraの2D-3D変換してみた。

■ Blenderの動画関連の機能

2017年03月01日 | ■ 動画関連

 Blenderでは、動画を扱う場合においても相当多機能

なのでそれを紹介しておくかなと。

 


【 カラーマネージメント 】


 

■ 色管理

  https://wiki.blender.org/index.php/Dev:JA/

  Ref/Release_Notes/2.64/Color_Management

 

色空間については、業務用のカラーマネージメント辺りを

見ると解りやすいのですが、RGBのものと、YCbCrの映像

用のものがあります。とりあえず、ACESですが、これに

関しては、業務用の撮影機材に色空間が出てくるわけです

が、Cinema Gamutと同じくらいの広さの色空間になって

います。

 

■ Cannon Log3 TECHNICAL TOPICS

  http://cweb.canon.jp/cinema-eos/special/

  canon-log-3/pdf/cl3.pdf

 

あと、色空間だと、モニターのサイトで印刷用とRGB用と

こうしたYCbCr系の物が並んでいるので比較が出来ます。

 

■ EIZO CG 248-4K

  http://www.eizo.co.jp/products/ce/

  cg2484k/index.html

 
 
 これを見ると、sRGBは何もカバーできてない(HDTVの
Rec.709すらカバーできていない。)のですが、ACESの
広さも同時に確認できると思います。

 

 


【 コンポジット 】


 

■ コンポジットノード

  https://wiki.blender.org/index.php/Doc:JA/

  2.6/Manual/Composite_Nodes

 
これは、マテリアル、テクスチャー、レンダリング結果の
三つを調整できるのですが、動画の場合は、レンダリング
結果を変更する事で、調整します。この時に、クロマ合成
などの、単一色の背景を抜く事も可能なので、同じショット
の合成用の素材の場合、ここで合成できます。
 
 また、色空間のほか、色調補正や他の合成などもここで
行えます。
 
 

■ マスクエディタ

  https://wiki.blender.org/index.php/Dev:JA/

  Ref/Release_Notes/2.64/Mask_Editor

 
 アニメーションマスクはAdfterEffectsのロトブラシでの
作業のようなも音いなるのですが、マスク処理をしてその部
分だけ抽出する事が出来ます。
 
 
 
■ モーショントラッキング
 
 
これはマッチムーブで利用するのですが、動画をトラッキ
ングしてカメラの動きを検知し、3D空間のカメラオブジェ
クトに反映できます。
 
 それを行う事で、3DCGオブジェクトを、そのカメラの
動きに合わせた状態で合成できます。

 

【 動画編集 】

 

 NALエディタでモーションを付けた3DCGAの素材など

を合成する時にも使えるのですが、通常の動画を読み込んで

編集する事も可能です。

 

■ シーケンスエディタ

  https://wiki.blender.org/index.php/Doc:JA/

  2.6/Manual/Sequencer/Usage

 

■ 表示モード

  https://wiki.blender.org/index.php/Doc:JA/

  2.6/Manual/Sequencer/Modes

 
 
輝度や彩度などの確認も可能です。
 
 

■ エフェクト

  https://wiki.blender.org/index.php/Doc:JA/2.6/

  Manual/Sequencer/Effects

 
調整でいうとコンポジットノードを使う感じになります
が、マスクを用意すると、ここでも合成時に透過処理が
可能になります。また、重ねるときにもレイヤー効果の
ような合成が使えます。
 
 

■ オーディオ

  https://wiki.blender.org/index.php/Doc:JA/

  2.6/Manual/Sequencer/Audio

 

パンとボリュームがあるので、ステレオでの定位の作業

のように音の位置を固定できます。また、ピッチ変更も

あるので音の高さの変更が可能になっています。

 


 

コンポジットノードもシーケンスエディタもそうなんで

すが、基本的に、双方ともに

 

 【 シーンの呼び出しと合成 】

 

に対応していますから、動画と3DCGのシーンの合成や

個別のシーンを合成することも可能です。

 

 その為、

 

【 パーティクルとオブジェクトを別に出しておいて

  パーティクル部分だけ別のノードで仕上げて合成

  する 】

 

と言う当たり前の作業もできます。

 

 また、扱えるコーディックに関しても

 

■ ビデオ用作品の準備

  https://wiki.blender.org/index.php/Doc:JA/2.6/

  Manual/Render/Output/Video 

 

に書かれています。

 

 


■ ステレオコピック

2017年01月04日 | ■ 動画関連

 

 現状のVRグラスを使ったコンテンツやスマホのレンズで

視差がついて見えるようなモノは、基本的にステレオ映像

なので、基本的に二視点の映像コンテンツになります。

 

 こうした映像は、二台の光学系を使う方式になるので

すが、こうしたモノについてはステレオグラムと言う二視点

の写真だと相当気軽に撮れる時代になっています。

 

 そこで、ステレオグラムとステレオコピック編集について

書こうかなと思います。

 


ステレオグラム


 

 人間の目は二つですが画像と言うのが一つの視点から

得た情報で描いているモノなので、視差という物が存在しな

いのですが、人間の目で見たような視差が付いた状態で表

現する手法として、二つのカメラの光軸を人の目の幅に合

わせた幅を設けて配置し、そのそれぞれの光を感光体に

刻んで記録すると言う手法が登場しました、これがステレオ

グラムです。

 

 つまり、基本的に二つの視差の異なる写真を横並びに

配置してそれを通常の焦点の相方と異なる状態で見るレ

ンズを実装する事で立体視にするという方法なので、現

在のスマホに装着して利用する3Dグラスと考え方は同じ

です。

 

 基本的にそうしたフィルム製品とビュワーが登場して

いたため、そうしたコンテンツも登場したわけですが、

ステレオグラムの手法で、相当昔に撮影された写真も

存在しています。

 

 この固定されたステレオベースの写真の場合、必

要になるのは、 

 

【 ビュワーを用意した場合の眼鏡と写真の距離 】 

 

になり、これは個人差があるので大昔に存在した木製

のビュワーは眼鏡と写真ホルダーの距離を調整する

機能がついていました。

 

 基本的にカメラの基本的な部分は全く同じで、撮影

についても技法は同様なので、固定された65-70mm

のステレオベースの場合、視差崩壊を起こさないような

最短撮影距離と視差消失をしてしまうような遠方の距離

の範囲というのは特定されるので、その範囲内で撮ると

当たり前の視差が得られるわけです。

 

 つまり、撮る物や、被写体の距離や焦点距離でステレ

オベースが異なると言う訳です。

 

 基本的に撮影段階でこうした事に気を付けないとダメ

なので、こうした撮影は少し大変な部分があります。

 

 


ステレオグラムの撮影


 

〇 二つの光学系を使う方法     

 

 通常の撮影は、三脚にまぐプレートを載せて、カメラを

配置したのちにレンズの中心点の軸を合わせるように光

軸の距離を合わせてステレオベースの確保をし、その状

態で3WAY三脚をお辞儀させて、液晶面が空を向くよう

に指定し、マグプレートの中心線との平行を出します。

 

 二つのカメラの光軸が平行でない場合後処理で補正を

かける事になり、画質の劣化が発生するため、撮影前の

セッティング段階でその問題の発生源をFIXしておく必要

があります。

 

 基本的光軸の向きがあっている場合、あとは三脚の

水平と垂直の内容が絵作りを変えてしまう要素になるの

で、基本的なカメラのセッティングは

 

 ■ 被写体の距離とフレーミングした像の状態

   に応じたステレオベースの確保

 

 ■ マグプレートの中心線と直角になるようにカ

   メラの光軸をセットして二つのカメラの光軸

   が平行になるようにセッティングする

 

と言う二つの作業の身になります。この状態で一つ

のカメラを三脚に載せたのと同じ状態になりますか

ら、あとの三脚の調整は通常の写真のフレーミング

と内容的には変わらないという事になります。

 

 ただし、ここまで書くとお気づきかと思いますが、

 

 【 撮影場所を変えると毎回その作業を行う

   事になる 】

 

のと、

 

 【 天体撮影で赤道偽のセッティングを行うよ

   うな内容が常時発生する 】

 

のでそういう撮影だと理解しておく必要があります。

 

 また、この状態でシャッターをシンクロさせる必要

がるので、同一の直径の二つに枝分かれしたピンジ

ャックコードを使ってLAN-Cとかで同調させるか、赤

外線リモコンでシンクロ撮影するかになります。

 

 この場合、シンクロ時のシャッターラグなどの問題が

出ることがあるので動体が入ると無理があるものの、

カメラの最大解像度で撮影出来る利点があります。

 

〇 一つのカメラで撮影する方法   

 
 こうした場合、Pentaxの3D撮影製品のように、ミ
ラーのついた周辺機器を使うやり方があるのですが、
この場合、解像度は半分になり、左右の視点を一枚
の画像に入れこむ撮影になります。つまり、サイドバ
イサイドでの撮影になります。
 
 今は中古品しかないのですが、動画用カメラだと、
MVC記録のビクターの製品やAVCHD 3Dカムなど
の二つの光学系を実装した製品を使うか、もしくは、
FinePix Real 3D W3のようなものを使う事になり
ます。

 

 この場合、画素数が犠牲になる再度倍再度記録

ではないものの、バッテリーの消費が著しく激しいの

と写真をMPOで撮影する場合もバッテリーの持ちは

悪く 厳しい部分はある物の、2カムで行うようなセッ

ティングなしにいきなり撮影できる利点はあります。

 

 


 

スマホでの3D撮影


 

 VR製品という触れ込みでペンタックスの3Dの

ミラー方式のコンバージョンレンズの系統があるの

ですが、シャッターを二度切るやり方でステレオグ

ラムの撮影が可能なアプリがあります。

 

 【 3DSTEROID 】(Android/iOS)

 

と言うアプリがそうした機能があり、有償版を利用

すると視差を変更して二度シャッターを切る必要が

あるのですが、ステレオグラムを撮影出来て、サイ

ドバイサイドとアナグリフでそれを残す事が出来ま

す。

 

 このアプリの撮影方法ですが、画面内で画像の視

差を考えながら最初の状態からカメラを移動させて視

差を付けて二枚目を撮ると言う手法でステレオグラム

にするわけですが、一般的にこうした手法が必要にな

るのはマクロのようにステレオベースが小さすぎてカメ

ラを二台用意できないような事例などで利用されます。

この最小のステレオベースに関しては後で書きますが、

 それと同じような手法になります。

 


2D-3D変換


 

 現状だと、スマホアプリでもそうした事がd系るものが

登場していますが、平面お画像を立体にする手法と言う

のは厳しいので、それになる選択肢として、デプスマップ

を使うという手法があります。

 

 スマホで【 撮影後にピントを調整出来る 】というの

がありますが、

 

 【 Googleカメラ 】

 (注:オンラインアプリなので、パケットを消費します。)

 

の機能の中に、

 

【 撮影後にカメラをスライドさせることでデプスマップ

  つきの写真を撮影できる 】

 

というものがあります。これは写真に3DCGのZバッファ

画像のようなのを添付したようなファイルで保存している

ので、グレースケールのZバッファ画像を参照して深度と

フォーカスエリアを変更しているわけですが、Zバッファと

言う奥行き情報を持っているため、

 

 ■ ステレオフォトメーカー

   http://stereo.jpn.org/jpn/stphmkr/index.html

 

で変換が可能です。基本的に、2カム撮影の写真を別の形式に

する場合にはPCでこれを使うのですが、Zバッファがある画像を

吐いてそこから3Dにするという方法もあります。

 

 そして、この変換方式は3DCGのようにカメラと被写体の距

離が正確に出せて座標でその距離の正確な情報からZバッフ

ァを作れるソフトの場合、扱いやすい変換方式とも言えます。

 


ステレオ画像の編集


 

 ステレオフォトメーカーで写真を読み込むと

 

 

 な感じで二枚の画像だとそうなるのですが、MPOなども

こうした横並びのフルとハーフやアナグリフ表示が可能に

なります。これをアナグリフ表示にすると

 

 

となるのですが、視差が崩壊している場合、

 

 

のように恐ろしくずれた状態になります。こうした状況で視差崩壊

する場合は

 

 ■ ステレオベースと一番近くにある被写体の距離が

   あっていない

 

と言う内容に尽きるのですが、そうした影響によって視差崩壊が発

生する事があります。

 

 カメラが3Dカメラだと自動視差調整が入るので近すぎない場合に

は影響が出ないのですが、撮影時に崩壊し居ている場合にはどうに

もなりません。その為、補正可能な範囲内の影響程度の事になり

ますが、そうした補正機能があります。

 

 

このソフトだとGUIで画像の位置調整を行い、画像のずれによる視差

崩壊を補正できるので、視差の交点の位置を前後に変更する事が可

能です。また、回転補正などもあるので、そうした調整もできます。

 

 こうした機能ですが、ステレオコピック編集機能を実装した編集ソ

フトの場合、視差を個別に調整できるのですが、トラック及びクリップ

単位で視差調整を入れる事が出来ます。

 

 その為そうしたモノが付いていないソフトの場合、シーケンシャル

に落としてステレオフォトメーカーなどで補正しないと視差の調整が

出来ないので結構不便だと言えますが、ステレオ写真の場合だと、

 PCを使う場合にはこれで対応できます。

 


コンシューマにおける3D映像


 

 俺は再生機材がソレに対応しないと無理と言うのがあるので、現

状だと劇場やアトラクションのような4Kの3D映像と言うのは難しい

部分があります。現状だと、フルHDの3Dプロジェクターと言うのは

4K製品でも実装機能として存在しているモノもありますし、10万円

のプロジェクターでフルHDの3D出力が可能になっています。

 

 その為、4Kに関しては、価格帯でいうとテレビやディスプレイに

なり、方式でいうとげのじゅだとモノクロで作って穴繰り府で見ても

らったほうが色の影響を受けないので ちゃんと作った場合には伝

わりやすいというのがあります。

 

 印刷物だと、現在は個人でもA3ノビとかの製品をフツーに販

売しているので、結構大きめなアナグリフのソレを出力する事も

可能ですし、印刷のサイズが大きいという事は、コストが結構か

かってしまいますが、カメラを複数持ちこんで撮影したものをス

テレオフォトメーカーで多視点にして、その目に合わせたピッチ

幅のシートを導入して、裸眼立体視が出来るものを作ることも

できます。ただ、これはズレれると全く立体に見えないのでそこ

注意が必要です。この方式は、3DSの二視点のパララックスバ

リア方式とは異なるのですが、レンチきゅらーレンズシートのピ

ッチ幅で用紙さ渦を割ったような状態に名売るのでパノラマみた

いに横長のでやったほうが支店数は稼げることになります。

 

 印刷物と映像出力で考えた場合ですが、この場合だと間違

いなく高解像度の表示に関しては、個人がやってみる場合だと

 【 モノクロのアナグリフ 】 のほうがちゃんと見えるような

気がします。

 

 ちなみに、プロジェクターを使う場合ですが、パッシブ方式

の場合だと銀コーティングをした特殊なスクリーンを用意する

必要が出てくるのですが、コンシューマの3D対応製品はフレ

ームシーケンシャル方式なので、映像の表示が左右の視点で

交互に入れ替わってるだけのモノなので通常のスクリーンでも

大丈夫で、注意する点と言うのは、蛍光灯などのリフレッシュノ

ートの点滅の影響が市長時に影響を与える可能性があること

くらいです。低価格なモノや古い製品だとそういう対策が施さ

れていない(3Dテレビや3Dプロジェクターの登場当初の製品

はそういう問題がある。)のでその辺りには注意が必要です。

 

  アナグリフの場合、表示物に対して視差がどの程度ついて

いるかの差に注意して視差を付ける作業のみですから、単に

撮影してきたものをそれにするだけだおt視差補正辺りでどうに

かなり、それを対応形式で書き出す作業になります。そのため

表示機材の仕様の問題でそういった表示が高解像度で対応し

ていないという問題があるので、独自でフレームシーケンシャ

ル方式の製品を作るか、パッシブのパネルを作るかしないと

ダメな状態になっています。

 


編集作業


 

 基本的に、撮影時に視差崩壊してない状態で持ち帰りましょ

うと言うのがステレオ映像の基本なんですが、視差崩壊と言うの

は通常の写真おピンボケ写真と同じようなレベルのモノですから、

ソレに至るとどうしようもなくなります。

 

 これは3Dカメラでも、ミラーを使う手法でも、2カムでもそう

なんですが、そうした点に注意する必要があります。

 

 現在のDSLRの撮影だと、マイクロフォーサーズ製品を購

入するとパナソニックの3Dレンズがあるので、単焦点ですが

そうした撮影が可能になていますが、ペンタックスのミラーを

使うかそれを使うとワンカムでの撮影が可能なモノの、焦点

距離の変化とかカメラの解像度をフルに使えるなどの利点を

考えると、こうしたステレオ映像の制作は2カムでの撮影のほ

うが融通が利きます。

 

 というのも現在は動画を撮るにしても4Kの選択肢が複数

ある上にシーケンシャルではなく動画で持ち帰れますから、

そういった利点を含めて考えると2カムのほうがセッティング

は大変ですが画質面では優位性があると言えます。

 

 また、現在は、4000万画素でシーケンシャルを持ち帰れ

るカメラが増えているので、8KのそれをAdobe RGBの色

空間で14bit RAWの記録が可能ですから、作業時に求め

るマシンスペックが恐ろしいことになりますがステレオ映像

の選択肢にそうしたモノも存在しているわけです。

 

 とりあえず、中判は昨年に1億画素の製品やバックパッ

クが登場しましたから更にすさまじいことになっているわけ

ですが、カメラの最大解像度サイズの写真とシーケンシャ

ルが持ち帰れるので画質の担保をしやすくなっているとい

う内容はあります。

 

  この切り貼りですが、コンシューマのソフトだと2万円以

下のPowerDirectorやVideoStudioなどでも大丈夫なの

で、そうした作業が出来る訳ですが、そうではないソフトを使

う場合だと

 

 ■ シーケンシャルをステレオフォトメーカーで横並びの

   ソースにしてそれを編集する

 

 ■ 4Kの場合、7680x2160のプロジェクトを作成し、そ

   こに、横並びになるように白湯のクリップを配置し、

   シーケンシャルで書き出しをした後に、そのシーケン

   シャルをステレオフォトメーカーで視差補正を行って

   視差の調整を市、アナグリフのシーケンシャルにし

   て書き出しその書き出したシーケンシャルを任意の

   ソフトで読み込んで、元の映像ソースの音声と合わ

   せて書き出し

 

になります。とりあえず、アナグリフでないと4Kディスプレイ

では見れないのでそういう選択になります。

 

 つまり、ステレオコピック部分はステレオフォトメーカーでシ

ーケンシャルの作業でどうにかしましょうと言う状態になります。

 

 そうでない場合には、裸眼立体視用のフルサイズな横並び

ソースで作りった後に必要なサイズで出すかになります。

 

 単なる切り貼りについては、カメラの内部処理でできてるト

リミングと映像の接続と同じ作業ですから、アナグリフやサイ

ドバイサイドの場合特殊なソースでも何でもないので、フツー

の切り貼りの作業になります。

 

  多分に、問題となるのはコンポジションのほうだと思います。

 


コンポジション


 

 この方法ですが、基本的に

 

 ■ そのカメラ位置とカメラの露出などのセッティングで

   荷台のカメラのセンターに位置する場所にカメラを

   同様の条件で撮影し、その映像を元もにトラッキン

   グして、奥行きやカメラの情報を合わせて、その映

   像内に合うような状態でオブジェクトを配置して、

 

    ・ ステレオベースを撮影時の寸法に合わせて

     左右の映像をレンダリング

 

    ・ その状態の映像とZバッファのシーケンシャ

      ルを書き出しステレオフォトメーカーで3D変

      換して利用(マスクも書き出しておくとさらに

      良い)

 

    で出力

 

かなと。この状態だと、マッチムーブの時に配置した位置に

オブジェクトの距離や視差を付ける事が可能になるので、

座標的に合うと思います。

 

 テキストなどは視差を強くつけても仕方ないので、それ

が強調し過ぎないような調整をして作るような状態になり

ます。

 

 この辺りですが、テロップのような素材の場合、画像な

ので作業的には静止画像なので透過素材でそういうのが

出来ていたら問題がないというレベルのモノになります。

 

 そうなると、再度倍再度のソースで作成して上位レイ

ヤーおよび上位トラックにそれを配置すれば影響なくそ

れを利用可能になる訳です。

 

 つまり、縦方向にずれる必要はないので、横方向に

どの程度のずれがある状態で平面的なモノを配置す

るかの話になるので、映像の中においてどの辺りの奥

行きの場所にそれを置くかと言う内容になってくるので、

そうしたモノの場合、画面前面に表示するスーパーや

テロップの場合、映像よりも主張し過ぎない状態で作る

だけの話になります。

 

 基本的に、トラッキングの必要が出てくるものは個

別に行って合わせるか前述の方法で対応するなどに

なりそうですが、トランジションの場合、個別に制作し

なくてはなりません。

 


トランジション


 

 これに関しては、

 

 ■ プッシュ

 ■ 輝度・明度・彩度・色相の変更

 ■ カラーバランス・コンストラストの変化

 ■ フェード(というか、これは明度の操作)

 

については、視差崩壊はしませんから、そのまま使えるので、

サイドバイサイドの場合、左右に像に黒い部分が追従してい

くような状態にする必要があるので、バックに黒のカラーを入

れておく必要があるのですが、基本的に単体の映像のプッシュ

のような効果を横に並べた状態で配置した状態になります。

 

 基本的に、

 

 【 平面的なトラックコントロールのトランジションだと

   問題がない 】

 

のですが、3Dトランジションについては、左右の像を個別にエフ

ェクト用の3DCG素材に配置して個別にレンダリングしないとダメ

なので、作業時に発生する手間は二倍になります。

 

 Blenderの場合、動画テクスチャーの取り扱いはBGEでもで

きるのですが、映像制作時のプリレンダリングの場合だと、レン

ダーがBlenderレンダーでもCyclesでも動画テクスチャー指定

が可能なので、トラッキングとは別に、用意したポリゴンメッシュ

に合わせた状態で映像を配置し、そおオブジェクトのモーションに

追従します。

 

 CUBEが回転して映像が変わるような状態だと、その面に映像

を配置させて回転させることになるのですが、その場合、CUBEに

モーションを付けて必要なクリップを麺に適応するだけになります

が、この条件でも視差の概念は存在するため、そのCUBEが立

体的に見えないとダメですから、ステレオベースを用意する事に

なります。

 

 その為、3Dトランジションの場合ですが、

 

 ■ 平面の映像用のトランジション素材を作り、それがフ

   レーム内で求めた動きになるように仕上げる

 

 ■ ステレオベース文の視差を付けてそのカメラの状態

   で左右の映像を出せるようにしておく。

 

 ■ 左目用の映像素材を貼り付けてフレーム内の状態が

   まともになっているのを確認して、右のカメラ用の画像

   を出力し、その後同様の工程を右目用の素材で行い

   出力

 

 ■ 左右の映像を編集ソフトに読みこみ、素材として利用

 

と言う流れになります。その為、トランジション用のフレーム数

を決めておいて、それを配置し、利用する流れになります。

必要になるのは、そのトランジションおはいる部分なので、そ

の映像の重なる部分は気を付けないと楕円ですが、素材でを

作って処理する場合だとそんな感じになります。

 

 板状の映像が回転して裏返って変わるとか、それが個別に

分かれた状態のモノで切り替わるとかも同様の内容で、テク

スチャーの配置とモーションの話になるのですが、こうしたも

のも視差の概念が発生するのでステレオベースを用意して

出力するようなことになります。

 

 これと同様なのが、3Dテキストやテキストのエフェクトで、

回転やモーションが入る場合にはカメラの視差は必ず発生

するのでステレオベースは合わせておく必要があり、フレー

ム内でどんな感じに見える効果なのかも気を付け売る必要

があります。

 

 パーティクルですが、これはエミッターやオブジェクトもそ

うなんですが、基本的にこの利用を行う場合はトラックング

を行って町ムーブで合わせるような作業になります。

 

 そして、テキストを使うタイポを立体的に配置する場合だ

と、サイズ変更とパースで処理するのではなく、テキストオ

ブジェクトをマッチムーブで構築された空間内に配置する

作業になるので、座標を決めて3Dカメラでステレオベース

を決めて透過資材を書き出してそれを映像素材に合成す

る流れになります。

 

 その為、作業が左右の支店分で発生するため作業量が

倍増するわけです。当然こういうのをタシテンの立体視で行

た場合には更に作業が増えます。

 


ワンショットでは撮れない被写体


 

 これはマクロの系統になるのですが目の前に指を近づけ

てフォーカスが合う部分を探すと特定の位置から合わなくな

り、更に近づけると二重像に見え始めます。つまり、寄り目で

も無理な距離が存在しているわけです。大人だと目から7cm

位で既にその現象が起きるので、3Dのマクロ性能と言うのは

恐ろしく低かったりします。あと、人間の目はカメラのようなマク

ロ性能はありませんから、そうした拡大をする場合には人はレ

ンズを使います。

 

 つまり、ステレオベースが6.5cm位だと視差崩壊が発生

すると言う理由から寄れないわけです。

 

 仮にこの状態で視差崩壊が発生しない距離が30cmだっ

たとします。この場合現実世界で30cmなのでこれを3cm位

まで寄ろうと思うと、縮尺が1/10になれば同条件ですから、

ステレオベースは6.5mmになり、マクロで3cmまで寄れる

製品という事になります。そうなると、6.5cm以内のボディー

の幅でレンズの光軸の間を3.25cm未満という事になります。

そうなると、アクションカムのような形状かもしくはスリムなビ

デオカメラという事になります。

 

 そうなると1cmマクロとなると光軸の制約はさらに厳しく

なるのでワイドマクロの表現となると、この条件を満たす製

品はファイバースコープになってしまいます。

 

 つまり医療用の内視鏡レベルで微細な場合だと相当広く

撮れるので寸法的にはマクロで撮れるものも増えそうですが、

被写体との距離が近くなるほどそれが難しく案るわけです。

その為、3Dのマクロはテレマクロが基本になります。

 

 ワイドマクロの場合には、その撮影距離と被写体の縮尺

を現実世界に合わせた状態で考える必要があるので、カメ

ラのシンクロで動画を撮るのが難しくなります。

 

 そうなると、実際の映像として撮る場合には特殊なレンズ

構成のカメラを用意しましょうと言う話になりますし、DSLR製

品でそれをする場合だとストップモーションアニメなどでないと

無理で、その定点移動とシャッターの動きをCNS制御でもし

ないと無理という事になります。

 

 とりあえず、コンシューマのビデオカメラのボディーが65m

m辺りなので、二つ横並びにしたら丁度人の目のステレオベ

ース相当になるような状態ですから、ミラーレスでそういうの

をする場合だともう少し広い状態になり寄りにくい状態になる

感じです。その為、ステレオベースを稼ぐために、L字のブラ

ケットを使ってカメラを上下さかさまに配置して写真を撮って

ステレオベースを稼ぐという手法が使われているのですが、

DSLR製品で大口径レンズを付けた場合、前球の直径がス

テレオベースになるイメージですからボディーサイズよりも直

径が大きなものだとそうした状態になります。

 

 その為、通常の写真で行えるワイドマクロの場合だと、

ステレオベースの関係で、最初の視点の撮影をのちに、マ

クロスライダーでステレオベース文の移動距離を微調整し

てもう一方の支店の撮影するという動きを連続して行う事に

なる訳です。その為、撮るのが大変なモノになり、撮影手法

もシーケンシャルなので、動かないものに限定されるため、

ストップモーションアニメのような手法に限定されるわけです。

 


 

 とりあえず、3DSだと解像度が低いのですが動画と写真

が撮れるので3Dのそれもそれほど特殊なモノではなくなっ

ているわけですが、3DSteroidのように左右の視点の写

真を個別に撮影する(二度目の撮影の時には前の写真が

オニオンスキン状態で表示さえるので、その像との差があ

まり発生しない状態で平行移動させて撮るときれいに撮れ

ます。)ことで写真は撮れるので、解像度の高いものが得

得られます。

 

 内部処理でそういうのが出来るカメラはないので、スマ

ホアプリを使ってそれをするか、2カムで撮影した写真や

映像をPCで編集するような流れになりますが、そうした手

法を用いた写真や動画を撮るのも環境的に難しくはない時

代になってはいます。ただし、

 

【 撮影時にステレオベースと距離の概念が存在する 】

 

のでそうした部分は気を付ける必要があります。

 

 

 


■ ストリーミングと動画コンテンツ

2016年12月21日 | ■ 動画関連

 現在は動画を個人が撮影して、SNSにアップするなどが可能

になっていますが、こうした選択には、

 

 ■ 撮影した動画のアップ

 ■ ストリーミング

 

の二者があります。こうした選択ですが、YouTubeでも可能に

なっています。

 

 基本的に動画としてアップする場合だと、撮影したモノか編

集した動画をアップできるようになっていますが、その解像度に

ついて【 7,680 x 4,320 】の解像度でアップできるように

なっています。

 

 8Kについては、書き出し対応のソフトでいうと、Canopus HQ

などが対応しているのですが、ペガシスのソフトが8K対応になっ

ているので、エンコードに対応しています。

 

 6kで撮影して、8Kでエンコードする方法と、3DCGを作って、

それを8Kのシーケンシャルで出してそれを書き出しエンコード

と言う選択肢があります。

 

 YouTubeでは、ストリーミングも対応しているのですが、360

度の4Kにも対応しています。

 

 こうした内容から、平面の映像のアップと、リアルタイム映像

のストリーミングの双方に対応しています。

 


ストリーミング


 

 編集したモノをアップするのとは異なり、機材の構成が全く

異なります。

 

 PC環境の場合だと

 

 ■ PC(ディスプレイ含む)

 ■ ネット環境(常時接続でブロードバンド)

 ■ ミキサー

 ■ マイク&ヘッドフォン

 ■ キャプチャー製品

 ■ カメラ

 

と言う構成になります。この場合に、必要になるのは映像の

送信がストリーミング中は常時アップロードをし続ける事に

なるので、上り回線の速度が高い回線契約をすることが必

要になります。その条件で考えると、下り回線も同様の高

速なモノを選択する事になります。

 

 そして、機材構成でいうと、

 

【 映像の入力 】

 

  ■ カメラ => キャプチャー => PC

  ■ 音声 => ミキサー => PC

 
 
と言う流れになり、これを同時に利用して映像・音声の入力と
して利用します。これは、USTREAMのソフトウェアやニコ生
のストリーミング用のソフトウェアでの入力設定でも同じです。
 
 こうした場合に、音声入力の少ないスイッチャー製品を導
入して、利用するとマイクとカメラのみの簡素な構成だとソレ
で配信が可能になります。
 
 こうしたストリーミングですが、現在はゲーム機でゲーム実
況的なモノがクロマ合成も含めて行える状態ですから、そうし
た事が可能になっているわけですが、PCで配信する場合には、
そうした機材構成になります。

 現状でいうと、YouTubeのストリーミングは電話番号の入力

などの作業が入るのですが、

 

 ■ Wirecast for YouTube

 

を使う事になります。

 

機材としては、Live Shellなどの製品を利用し、ストリーミングを

することになるのですが、スタンドアローンで機能しwifiで接続し

カメラの映像をダイレクトに配信できる物も出ています。

 

 4Kとなると、業務用機材になってしまうそうですから、法人の

ライブ配信においてのプレミアム放送のようなのがYouTubeの

4Kや360度配信のような気がします。

 

 基本的に現状だと720pの配信だとそうした機材が存在し、解

像度が高くなるほどにビットレートが上がってしまいますから、当

然のように回線速度とPCの処理能力を高くしておく必要がありま

す。

 

 ニコ生は有償会員でないと無理で、USTは日本から撤退して

いるので既に選択肢がある程度固定さえれているのですが、そ

うした感じで視点変更がないものだと定点カメラとそうした機材で

当たり前に配信をこなう事ができます。

 

 HDMIなどからの入力映像で対応できるのでゲームの実況

配信などもできると言う訳です。

 


■ 配信は基本的に放送


 

 現状のネットの動画コミュと言うのは、

 

 ■ 生放送

 ■ 収録コンテンツ

 

の二種類を一つのアカウントで利用できる仕様になっています。つ

まり、テレビのタイムテーブルのように、ニュースや情報番組などの

生放送コンテンツと、ドラマやアニメや映画がのような収録コンテン

ツの両方が使えるのですが、基本的に、通常の映像は編集すれば

当たり前に動画を作れるわけですが、ストリーミングの場合、通常の

放送と内容は同じです。

 

  その為、ストリーミングを行うPCの向こう側の機材がどういう物

であるかで出来る事が変わってくるというわけです。

 

 NLEの場合、クロマ合成なども出来r呼び出し素材を合成して予

約して配信が可能なんド絵、ニコ生はソフトウェアスイッチャーでそ

うした事が可能なんですが、 そうした機能が存在していない状態で

ソフトウェアで配信をすると言う条件だと、HDMIの入力をする前の

スイッチャーのきのうでそうしたモノを操作する事になります。

 


スイッチャー


 

 基本手kに映像のきりかっをする製品がスイッチャーで、ビデオ

セレクターと考えると解りやすい製品となっています。これが入力

をスイッチで切り替える製品で操作系がハードウェアスイッチャー

になっている製品と、クロマやトランジションなどを操作して映像合

成をして出力が可能な製品があります。

 

 その為、基本的に、クロマやTXTなどを使って映像にタイトルや

別の映像をスーパーインポーズして利用できるものがあるので、そ

うした事を行えば、放送で見かけるような、スーパーを複数重ねて

みたりTXTでテロップを入れてタイムリーな情報を文字情報で配置

してそれを流すこともできます。

 

 現在の放送と言うのは、当たり前にスーパーが複数のチャン

ネルで素材が配置されており、それをスイッチングで切り替えて表

示するような流れになっています。しかし、放送と言うのは、情報

番組だとキャスターとスイッチングをする人間が同じ訳がありませ

んからそうした状態でストリーミングをする場合だと、スイッチングと

写る人間は別の人になります。

 

 これはキャスターが一人で、カメラとマイクが一つで素材のスイ

ッチング飲みでそんな感じなんですが、映像その物をカメラから別

の素材に入れ替えるような切り替えや音声のオンとオフのスイッチ

のみを入れておくと、収録コンテンツを再生して別の準備をする時

間を用意するなどのつくりにした場合、映像の切り替えについては

その素材の呼び出しと切り替えをするのでスイッチャーでのスイッチ

グを行う事になります。

 

 基本的に、入力チャンネル数分だけ、カメラを入れれば、その分、

視点の異なるカメラ映像を着r変えて利用できるのですが、モーター

スポーツなどでピットとコース古城のカメラでは内容が異なる訳で

すが、あれはカメラウィ像をスイッチングさせているのでそれが出来

るわけですが、実際にそうした処理は人が行っています。つまり、確

実にカメラの配置されている映像が特定の場所のカメラだと確認で

きるわけですが、そうした映像を切り替えるとすればその分カメラを

入れておかないとその映像を利用する事は出来ませんから、そうし

たカメラの配置を行い法ぞ層時にスイッチングを行っているわけで

す。そして、単なる映像だと順位も何もわかりませんから、ここで

ビジュアライズされたデータが表示されます。こうしたものはデー

タを元に、スーパーのグラフィックが故合成されて表示されている

わけですが、生放送で利用される素材と言うのは、放送が始まる

前に事前に制作されているモノですから、そうしたモノを作る作業

も放送となると発生します。

 

 つまり、その個別に表示される素材がスーパーインポーズの

素材で、クロマ合成及びルミナンス合成なので、キーイングに

寄る処理になります。

 

 スイッチャー自体がそうした素材を個別に入力してその表示

指定にしてその合成においてサイズや座標やく取ろま処理など

をするのか別の処理にするのかの設定を考えて作業する事に

なるのですが、画像や映像の場合、

 

 ■ PinP

   映像の中に小窓を入れて映像を表示する方式

 

 ■ クロマキー、ルミナンスキー

   カラーもしくは白か黒の単一色の背景を抜いて

   後ろにある映像と重ねて表示する

 

と言う事が出来ます。これとは別に、TXTがあり、これは文字を入

れる事が可能になります。

 

 こうしたものが20世紀には個人のビデオ編集機材でターンキー

と言う名称で販売されていましたから、こういうのはもともと20世紀

から個人で導入してできていたものだという事も付け加えておきます。

(つまり、VHSとHi8の時代にそういうのが可能だった。ちなみに、

MSX Turboとかも規格が終わるころに動画がいじれるような製品

が出ていましたが、そういうのが出来る時代が過去にはあったので、

それをする人としない人では相当知識に格差があり、電気屋に置

いてあっても興味のない人間はその製品の知識すらないので、無

知の極みになるのは当然の話です。そう、オッサンがコンビニのコ

スメで何があるのか知らないのと内容的には全く同じです。むしろ、

知り尽くしていて化粧品売り場を歩いていたら、体の芯からこみ上

げるような恐怖を感じるのは言うまでもない。)

 

 とりあえず、そうした内容から個別の映像ソースもしくは素材の

ソースを入力してそれを各チャンネルに入力をして号しえの仕方

を考えるような状態ですから、入力する映像や画像が変わればそ

の合成する状況も合わると言う訳です。つまり、HDMIの入力が、

スチルをかけて止めているフル表示の映像だったとすれば、それ

を再生できますし、クロップも可能なので、PCの入力をプレイヤー

ソフトにしておいて、表示部分だけを表示させそれを呼び出し、

利用する事が可能になります。

 

 画像の素材などもPCからHDMIで出力を突けば、その画像の

切り替え及びスイッチングでクロマを入れ替える事ができるわけ

です。

 

 当然、単一の素材でできる内容は、各入力で対応しているの

で、素材を複数入力をすれば、素材を合成する事が出来ます。

 

 ただし、スイッチャーで映像入力っをした場合その解像度での

入力になるので、櫃異様なサイズで表示する事が可能である為、

小さなサイズの物を拡大(この場合、ジャギーが出ます。)や縮小

も可能になっています。

 

 これは、画像や映像をそのまま合成すると前面のモノが優先

され、縮小をするとPinPになります。そして、クロマ素材の場合

だと、その背景色の素材を指定して配置する事になるのですが、

その場合には、スーパーで利用する画像や特撮の映像のように

それが全面に表示され、単一色の背景は、背景の映像が反映

されます。これを複数重ねる事が出来、それをスイッチングで

切り替えることになります。そうなると、映像の頭出しや素材の

切り変えとスイッチングの処理などを行うとすれば、その作業だ

けで複数の人が必要になるのは理解できると思います。

 

 ただ、スイッチングと言うのはそういう書林ですから、映像入

力の手前の部分でそうした処理をすれば、当たり前にそうした

事が可能になります。

 


■ ミキサー


 

 これは音声入力を行うためのPA製品で、フェーダーとパンポ

ットで構成されているのですが、この構成になっているのは単純

にステレオミックスをして出力する場合に、音の帝位をする場合に

必要になるからです。音量は奥行きで、パンポットのLRは音の左

右の位置です。つまり、モノラルソースしか知らない人だとステレ

オの理解至らないので、大人がっているというのとステレオ音源

の概念と言うのは全く違います。

 

 こういう物も現在のようにDAWやMIDIシーケンサが誰でも

使える状態になっていた、iOS端末を購入してGarageBandや

CUBSISをインストールしたり、Android環境で、FL Studio 

Mobileをインストールすれば、当たり前に使えますし、PCの

場合だtp、LMMSやDominoやMuseScoreをインストール

すれば、当たり前にに使えるものですかrあ、ミキサー自体が

珍しい物でも何でもないので、見慣れたもので機能は一度見

ればわかるような代物なんですが、そうしたモノを使う感じに

なります。

 

 とりあえず、PAですから、こういう物は、どういう音の収録を

するのかで内容が変わってきます。PAの場合、はそれをステ

レオミックスしてスピーカーから鳴らすの感じになりますが、ア

ナログの時代にはこれを何かしらの媒体に記録する用途で使

うなどの選択もあったのですが、現在の製品は、これがオーデ

ィオインター0フェースのような利用がd系太リ、MTRのような

機能を持っており,SDメモリーカードに記録できるようなモノも

出ています。

 

 基本的にこういうのを考える亜愛だとテレビと言うよりもラジ

オを想定して考えると解りやすいのですが、パーソナリティーの

語りを録音する場合だと、この場合、入力チャンネルは1系統必

要になります。そして、これが複数の人だとマイクの本数は当然

のように増えます。

 

 おそうなると、その音量のレベルの調整をどの辺りで行うの

かもそうですが、毛化k的にのーまらいずが必要になります。自

分が生放送でストリーミングをする場合だと、自分お声のレベ

ルがどの程度だと大丈夫なのか?から始まるわけですが、そ

うした内容が複数人の会話で存在sルう場合、その個人の音

声レベルに合わせて置く必要が出てきます。そうなると、その

作業をする人間が必要になります。

 

 そして、ンググルなどはどう入れるか?で内容が変わるの

ですが、なりものをマイクの前で鳴らす方法と、陣グルを記録

し居た機材で入力チャンネルを消費して接続しておき利用する

などの方法があります。

 

 では、BGMや曲紹介のような場合はどうなのか?と言う話

ですが、この場合、頭出しする音楽を素材として用意しておく

ことになりますが、ここで二系統を要非して番組のコーナー別

の素材とリクエスト曲の音源で分けて使うという方法と一緒くた

にしておくという方法がりますが、安全性を考えれば分けるとい

う選択もあります。

 

 波形編集ソフトやDAWを使った場合にクロスフェードやフェー

ドアウト処理などがありますが、これは、単なる時系列を追った

音量変化ですから、FXを使う場合には、その推移する時間を

指定して処理させるわけですが、リアルタイム処理音場合、こ

れは、ミキサーでの作業ですから、音量変更のためにフェー

ダーをタイミングを合わせて特定のところまで下げることにな

ります。

 

 こうした作業ですがミックスダウン音時に各トラックのFXの

調整をオートメーションで行う場合にフェーダー処理も含めて

そうした事をするわけですが、刺さってるFXはFXのノブで調

整できるので、オートメーションでその状態をリアルタイムに

記録するという事も可能になっていますが、内容的にはあれ

と同じです。

 

 つまり、こうした場合に、どういう状態だとどういう処理にな

る音化?と言うのは、基本的になりものの数とマイクの本数な

どで変わってくるというのが理解できるのではないでしょうか?

 

 つまり、そういう処理用に音をコントロールする人も必要に

なります。映像制作でいうとフィールドレコーディングをする

場合に音の状態をちゃんと聞きながらマスタリングするよう

な作業をする人が必要になりますから、音を扱う場所だけで

数人必要になります。

 

 とりあえず、映像を撮る場合に何をするのかでマイクの数

などが変わってしまうのと同じで、使うマイクも異なるのはそ

うした作業と全く同じです。

 

 つまり、テーブルがあって、複数の人が座って話している

状態でマイクがピンマイクなのか、それともダイナミックマイ

クやコンデンサマイクで音を拾うような感じで複数用意され

ているのか、それとも単一なのかで全くマイクの構成が異な

ります。

 

 音声コンテンツの場合、マイクの量などは決まってくるの

ですが、映像コンテンツの場合、ビジュアルがどういう状態

かで内容が変わってきますから、その場合にどういうマイク

利用方法になり、マイクの数がどうなるのか?も変わってく

るので、何もかも同じと言う訳ではありません。

 


カメラ


 

 放送では複数の異なるカメラが導入されているという

事を書きましたが、これがライブ中継でそうした状態です

から、実際にこの映像の処理はスイッチャーの項目で書

いたようにその処理をする人ありきでどこでどういう映像

にスイッチングするかと言う内容になります。

 

 スマホや定点の生放送のようなものはWEBカムのよう

なものでのライブストリー民フグですが、リアカメラでのラ

イブストリーミングもできるので現状だおt、実質的に、ス

マホと言うのは2カムでのライブストリーミングが出来る

仕様になっているとも言えます。

 

 ただし、三人称の視点で別のモノを撮影しながら撮る

とかPinPとなると、これは少し様子が変わってしまいます。

 

 そうした場合には、カメラマンが必要になるのですが、

カメラ側からの音を使わずに、ミキサーに刺さっているピ

ンマイクやスタンドに固定したダイナミックマイクやコンデ

ンサマイクなどを使うと言う選択肢になるような気がします。

 

 とりあえず、情報番組のように空間に複数のセットを

入れたり、バーチャルセット用のブルースクリーンやグリ

ーンスクリーンの前で撮り、それとは別の何かを用意し

て、移動してそのセットの前で軟化するような条件だと、

やはり、カメラは複数あったほうがいいという事になります。

 

 個人がテレビ局のような事はd系ないので、大道具を

使わずに物事をやろうと考えると、バーチャルセットと、

クロマ素材の合成と言うアプローチで、それを定点でや

るのか、もしくはそれを撮影者が別にいて行うのか?の

選択になります。

 

 カメラについてですが、ライブストリーミングで使えるの

 

 ■ リアルタイム映像

 ■ 収録した動画

 

の二種類です。カメラを使う場合、ライブストリーミング段

階で利用するのはリアルタイムのモノになります。

 

 その為、スイッチャー側に映像の伝送ができていれば、

カメラの映像はスイッチャーの余裕がある分だけ使えると

いう事になりますし、合成素材の数も、ハードウェア側で

処理をすれば、ソフトウェアスイッチャーのような重さにな

りませんから、結果的に、個別に設置したカメラで複数人

の映像をPinPで割り当てて配置して、ゲーム画像にシフ

トするとかもスイッチャーのチャンネル数が多い場合には

可能になります。

 

 と動的なものだとカメラが動く必要があるので、カメラで

撮影する人を複数入れる事にあんりますが、何をどう撮影

するのか?でカメラの構成や機材構成が変わります。

 


 

とりあえず、ライブ中継のようなものの規模を大きくすると

機材費がとんでもないことになるので、個人向けの話では

ないのですが、ストリーミングでは映像のビットレートが決

まっているのとマシンスペックはある程度消費するので、

そうした処理においてストリーミング用の PCのリソースを

使いたくない場合、ミキサーとすいっやーを用意してリソー

スを消費しないようにすると映像の合成処理が入っても、

音声の入力が複数であっても問題がないわけです。

 

 実質的に、放送と同じことをしようと思うと、カメラがあ

ったらできるなんてものではないと言うのは、こうした当た

り前のことを見れば理解できると思いますが、インフラ自

体は同じような事は出来るものお、素材の制作から、そ

の処理をするのには複数の人が必要になるなど、こじん

まりとした処理ではなくなるので、大掛かりなモノになっ

てしまうわけです。

 

 とりあえず、現状においては、ゲーム動画や実況につ

いては、ゲーム機単独でできる時代になっているので、

ストリーミングサーバをグローバルIPとローミング契約を

して行う必要があるような時代と比較すると、相当気軽

にできる時代になってはいますが、機材を簡素にした場

合で通信インフラの速度は必要になるので上り回線の速

度のある契約をしていない場合、こういうのは無理が来る

のでそこは注意が必要です。

 

 

 


■ 色彩

2016年10月30日 | ■ 動画関連

 動画と画像の場合、色空間と色深度という物が存在し、

それが異なると全くないようが異なります。

 

 コンシューマの映像は8bitソースなので、

 

 ■ 階調 : 256階調(2値の8乗数の為)

 ■ 色数 : 256の3乗(RGBのため)

 

となります。つまり、ビット数の少なさはそのまま色の

選択のなさに直結します。こうした内容から、基本的に

色深度の深いソースのほうが色香図が多いという条件に

なります。つまり、選択できる色数はビット数が多い方

が当然のように多く、階調は2のビット数乗なので、こ

れが16bitだと65,535階調ですから、単一色のグラデー

ション表現でも全く異なる状態になります。

 

 つまり、DeepColor対応のパネルで16bitのソースを表

示した場合、通常のBlu-Rayよりも色表現は上になる訳で

す。

 

 そうした内容から、

 

 【 誰がどう見ても、数値の大小の話なので、

   ビット数が高い方がいいに決まっている 】

 

訳です。当然、JPEGなどで欠損するような色の表現が、

RAWだと残るような条件も当たり前に、こうした色深度

の違い(カラーのビット数の違い)も影響しています。

 

 当然、カラーのビット数が高くなれば、その分容量を

多くようするので、映像の場合、当たり前のようにビッ

トレートは高くなります。その為、コンシューマのソー

スと異なり、ProResやDNxHDなどではビットレートが

高くなっています。

 

 それ以上にCinema DNGの12bitだとさらに強烈なビッ

トレートになるのですが、基本的に、色の選択が多い方

が正確な色のチョイスが可能なので、圧縮前から少ない

状態の利点というのはありません。

 

 これが選択できる色の上限と、利用できる階調の話に

なるのですが、これとは別に、映像や画像の中において

カバーしている色数と色の方向性というのがあります。

 

 これが色空間なんですが、コンシューマのソースと言

うのは、基本的に

 

 【 電波で送信している放送準拠の代物 】

 

なので、放送で流すような伝送可能なように圧縮し、軽

くした物を使っています。当然、色数が増えると重くな

るため、基本的に過去にさかのぼるほど、解像度や品質

というのは低くなっています。

 

 現状の映像というのは、ITU-R BT.709(REC.709)に

なるわけですが、これはHDTVの色空間になります。これ

はPCで使われているsRGBとは異なり、広さは同じような

ものなんですが、sRGBしか発色不能なパネルだと、色が

足りていないので、表示されない色が存在しています。

 

 色空間には

 

 ■ sRGB : モバイルやPCの色空間

 ■ CMYK : 印刷用の色空間

 ■ REC.709 : コンシューマの動画全般

 

となっています。この色空間ですが、sRGBパネルだと

以下の二つは表示できないので、基本的にこの三者を

カバーするのは、Adobe RGBになります。

 

 その為、現状でPCでの作業において多くをカバーす

る構成は

 

 ■ QuadroやFire ProのようにAdobe RGBの

   色空間と10bitカラー(1024階調)のカ

   バーをしたグラフィックボード

 

 ■ Adobe RGB野カバー率が高く、キャリブ

   レーションが細かく行えるパネル

 

の組み合わせになります。これにハードウェアキャリブ

レーターを導入して環境のに合った色にする必要があり

ます。

 

 その条件だと、前者の3津はカバーできるのですが、

sRGBとREC.709の関係のように、映像ソースとRGB

では異なるので、デジタルシネマのDCI-P3では表示

しきることができません。

 

 その為、DCI-P3を使う場合だと、色空間をカバー

したマスモニとSDI出力のボードを使うか、EIZOの

モニターを使うとかになります。

 

 その為、撮影ソースもそうですが、素材の収録段

階で撮影して持ち帰るものはすべて同じ物ではない

訳です。そして、放送と同じレベルで圧縮して流し

てる物とマスターでは全く異なるわけです。

 

  基本的に、色彩の違いで言うとそんな感じになっ

ているわけですが、Blu-Rayの仕様と放送のソースは

色空間と色深度は同じで8bit/4:2:0のREC.709なんで

すが、Ultra HD Blu-Rayでは、10bit/4:2:0の仕様に

なっているので、色深度は4倍になっており、色空

間はデジタルシネマのDCI-P3よりも広いものとなる

ITU-R BT.2020となります。これにHDRが加わるの

ですが、基本的に、HDTVの色空間がスタンダード

の時代ももう少しすると終わるので、今後は10bitカ

ラーがスタンダードになる流れになっています。当

然、それを表示する場合に、REC.709ではなく、D

CI-P3よりも広い物になっているので、色彩表現も、

全く違う物になるといえます。

 

 こうした内容から、当然のように表示機材自体が

変わってくるわけですが、8bitパネルで物を見ても、

色の違いを正確に理解することはできませんから、

結果的に、ソースに見合った表示機材を使うことに

なります。

 

 こうした内容ですが、

 

 ■ 表示用のソースの色空間と表示機材の

   色空間を合わせる必要がある

 

のですが、こうした内容は、コンシューマのグラボだ

とsRGBパネルしかあわない感じで、広域パネルを使う

場合にはグラボもそれに合わせる必要が出てくるので、

結果的に、RAW現像や印刷用の色の確認や正確なREC.

709の表示とかになるとそうしたパネルが必要になり

ます。

 

 フォトショにはsRGBでの作業中にCMYKではどう見

えるかをパレット上で確認できるような仕様になって

いますが、この場合もsRGBでのキャリブレーション

をしておく必要が出てきます。

 

 

 つまり、コンポジションをするとしてもノンリニア

編集をするとしても、必要な色空間の表意環境を構築

しておく必要があり、カラービット数も同様にカバー

している環境で藻に多リング環境を構築しないと、意

図下状態で、カラコレやグレーディングが行うことが

できないわけです。

 


■ 撮影機材とソース

2016年10月29日 | ■ 動画関連

 コンシューマのカメラは、8bitカラーなので256階調の

映像になるという使用の問題があるのですが、その仕様に

おいて撮影できるモノはかなり増えてきました。そこで、

少し、カメラで出来ることとそのソースについて囲うかな

と。

 

 現在、iPhone 7でも

 

 ■ ハイスピード撮影

 ■ 4K撮影

 

が可能になっていますが、現在は、こうしたモノについて

は、フルHD解像度のスローと4K撮影という機能を実装し

た製品が増えています。そのため、こうしたソースの撮影

が可能になっています。

 

 こうした映像ソースですが、60p撮影製品を使用した場

合、24F制作の場合だとこのソースを1/2.5倍スローの映像

として利用できます。

 

 そのため、60p撮影製品を使ってスローのシーンを作ると

いう選択肢があります。これについては来年リリースされる

GH4だとこの選択がコンシューマのソースだと可能になりそう

なんですが、4kのハイスピードの表現が来年あたりから出来る

ようになりそうです。こうした内容はFDR AX-1とかのような

業務用カムだとそうしたことが可能だったのですが、DSLR製

品でそうしたことが可能になります。

 

 それ以外は、フルHDでハイスピード撮影をする選択になりま

す。その場合、短時間ですが、RX10シリーズのような撮影が可

能なものもありますが、FZ-1000などのように1080/120F製品

の選択が増えています。

 

 そのため、フルHDに関しては、

 

 ■ アクションカム

 ■ DSLR

 

によってそうした事が可能になっています。つまり、フルHDの

制作については、

 

 ■ 5倍スロー(当然、これはサイレンスです。)

 ■ 通常速度

 

の映像の撮影が可能になります。これとは別にタイムラプスの撮

影のモードも実装しているので、

 

 【 実際の時間の流れを早回しにしたような表現 】

 

が可能になっています。これについては、写真なので、PCで作業

する場合だと、当たり前に、高解像度での作業が可能で、近年の

8K以上の解像度になる製品だと8Kの映像制作が可能になってい

ます。

 

 RAWベースでタイムラプスの素材を撮影した場合、当たり前の

ように

 

 【 14bitで間引きのない非圧縮な画像 】

 

で記録が可能なので、広い色空間と深い色震度のシーケンシャルを

持ち帰ることが出来ます。つまり、その状態から映像制作が出来る

ので、内部処理で動画にして出す状態よりも高品質な映像を作る事

が可能になります。

 

 フィルムの色震度が11bitなので、それよりも階調表現が豊かな

モノを使うので、これからBD品質や8bitソースにするとしても、

品質の高い映像を作ることが可能になります。

 

 シーケンシャルの場合、アニメーションと同じで、フレームレー

トを決めてその分だけシャッターを切る状態になるのですが、通常

は定点撮影のソースで推移をみるような状態になるのですが、映像

のプロジェクトがどういう仕様にするかで撮影枚数は変わってきま

す。そのため、これに関しては、フレームレートで映像の推移する

スピードやなめらかさが変わってくる事になります。

 

 現状において、コンシューマのカメラで撮影できる速度の異なる

ソースになります。

 

 フレームレートはなめらかさなんですが、

 

 ■ 24F : 映画

 ■ 25p : PAL

 ■ 29.97 : NTSC

 ■ 30p : ネットの動画

 ■ 59.94 : Blu-Ray

 

という感じです。60pをそのまま60pでやる場合には、これとは別の

ものになるのですが、代表的なモノはそんな感じになります。

 

 フレームレートが高くなるとなめらかになるのですが、ハ

イスピード撮影の選択が難しくなるのとタイムラプスの場合、

撮影枚数がものすごくなるという影響が出ます。その反面、

24Fで制作するとハイスピード撮影ソースのスローの倍率を

高くできるのと、同じ尺の映像をタイムラプスで作る場合、

60pの映像を作る時よりも、少ない枚数で作れます。ただし、

映像のなめらかさでいうと60pのほうが上になります。

 

 フレームレートの設定が出来る製品だとこうした選択も出

来るのでそうした調整もできます。

 

 このフレームレートと映像の流れる速度とフレームレート

の調整を行宇野とは別に写真同様に

 

 ■ 露出 

 ■ 焦点距離

 ■ 撮影モード

 

を選択することが出来ます。つまり、マクロ撮影や風景撮影

のような寄りと広角の飛車改心度が深いものもそうなんです

が、そうしたモードを個別に使うことが出来ます。

 

 基本的に、AFとMFのいずれかも使えるのでとれる映像の

種類は相当ありますし、フィールドも広いです。

 

 こうした内容から、単一のカメラで、そうした選択が可能

なので、後はレンズの焦点距離の差でとれるフィールドの違い

が出てきます。

 

 映像でいうと、アクションカムのように広角をカバーする

ロケフリな製品と対衝撃性能のあるタフネスデジカメなどの

選択肢がありますが、水中撮影だと対応のケースを使えば、

そうした撮影が可能になるので、製品の選択の幅が広がりま

す。

 

 今年はRX100シリーズの水中ケースが発表となり、1型の

製品で水中撮影が可能になっています。これと同時に、この

製品では、ハイスピード対応なので、そうした製品で水中や

雨天で使えるようになったという事になります。

 

 水中撮影や空撮というと、GH4をサードパーティー製の水

中ケースにいれたり、ドローンに乗せたりして利用されてい

る事例があるのですが、ロケーションについていうとそうし

た機材との併用で、相当フィールドが広くなります。

 

 そのため、撮影できる映像ソースの種類は相当多くなって

いますが、カメラだけで考えると、人が作れる構図のみの選

択になります。

 

 そのため、固定器具やジブアームなどを使ったりする事に

なるのですが、カメラワークにおいてそれがないと出来ない

ものもあります。

 

 たとえば、空撮だと飛行機やヘリを使ってそこからカメ

ラで撮るとか、パラグライダーで撮るなどの方法もありま

すが、現在は、ドローンを使った撮影の選択しもあります。

(ただし、そのどれも航空法の範囲内での撮影になります。

あと、ドローンの場合、撮影禁止区画と当たり前の撮影を

する場合には免許の取得が必要になります。)

 

 こうした選択は近年になって増えたものですが、基本的

にこれは

 

 ■ 俯瞰での移動

 ■ クレーンジブアームではムリな撮影

 ■ 航空機では撮影不能な高さでの撮影

 

画家脳なので、

 

 ■ クレーンジブアームでは物理的な移動がムリ

   なのでその無理な部分のカバー

 

 ■ 航空機が低空飛行をするとすでにテロでしか

   ないのでそんなものは航空法で許されていな

   いのと、物理的に体積と言うサイズが存在し

   ているので、クレーン以上航空法の範囲以下

   の高度のモノをドリーするようなシチュエー

   ションをカバー

 

しています。また、サイズがクレーンジブアームより

は小さいので、小回りが利くという利点があります。

 

 そのため、従来の二種類の俯瞰野撮影とは別の撮影

とその双方では絶対ムリな映像の撮影が出来ます。

 

 たとえば、低空で草むらの上滑空するような撮影だ

と飛行機では蒸すかしく、航空機では無理なモノにな

ります。あと、ここで引き合いにクレーンジブアームを

出していますが、この理由は、この機材でも出来る高度

のある場所でカメラを固定するようなことがドローンで

モノ可能だからです。

 

 ドローンというのは、基本的にアレはヘリですから、

当然のようにホバリングが出来ます。

 

 そのため、空中で制止することが出来るので、クレー

ンジブアームのようなことが出来ます。ただし、これだけ

ではなく、高度の推移がクレーンジブアームではムリな範

囲で移動でき、移動においては三次元空間で移動できるの

でそうした利点があります。

 

 そのため、従来の撮影とは異なる選択肢としてそうした

デジタルなコンピューター制御の機材が存在しているわけ

です。

 

 とりあえず、冒頭に書いたモノはカメラでは当たり前の

内容なので、現在の、カメラ野撮影における進歩とその選

択肢についてふれておきます。

 

 映像において、カメラで被写体を追いかける場合、その

場合、フレーミングをして、その後、パニングなどを行う

事になります。こうした内容は、昔ながらの方法だと、三

脚を使うのが通常のスタイルで、俯瞰だとクレーンジブアー

ムという感じですね。パニングは腰を回して撮りましょう

というのが基本なので、

 

 【 カメラを体で固定して体軸の回転で撮る 】

 

という手法になるのですが、現在は、トランスミッターと

レシーバーを用意して、被写体を追尾する自動雲台があり

ます。

 

 自動雲台というと、コントローラーで調整するような仕

様がありますが、自動追尾させる製品というと、天体撮影

ではお馴染みの赤道儀がありますが、座標追慕の軸数が増

え、それを自動制御できるような仕様のモノが存在してい

ます。確か、自動追尾製品だとスマホ対応製品があるので

すが、被写体がフレームアウトしない製品がすでに出てい

ます。

 

 写真や映像というと、三脚は多くの人が使っているので

見慣れた製品だと思うのですが、星の撮影や長時間露光を

行うような場合には、手落ちでいびつにぶれた意味不明な

写真を撮っても仕方ないので、長時間露光でキッチリと撮

る場合だと、そうした選択になります。

 

 これは定点撮影の選択なので、映像の場合、タイムラプ

スにおけるシーケンシャルの撮影で利用することになりま

す。

 

 三脚というのは、足の部分になるので、このまま固定す

ると本当になにも出来ないので、通常は、その上物の雲台

で構図を作る感じになります。つまり、三脚というのは高

さを決めて固定する足ですから、その上に乗せるもので出

来る事が変わります。といっても、【 万能なゴリラを乗

せてみました 】とかやっても、【 ゴリラは撮影機材で

はないので意図した映像を得ることは出来ない 】ので、

全く持ってだめなんですが、雲台によって内容が相当変わ

ります。映像だと、ジンバル雲台などを使うことになり、

足とジンバルで対加重を稼ぐ感じになります。

 

 通常、写真撮影で三脚だと、

 

 

 ■ ボール雲台(自由雲台)

 ■ 3Way雲台

 

 

などで、そうした構成の製品がありますが、用途によっ

て選択肢が変わります。

 

 雲台だと、ポータブル赤道儀で使う物をみても複数

ありますが、天体撮影をする構成だと

 

 ■ ボール雲台

 ■ フリーアングル雲台

 

を使うことになります。これは、フリーアングル雲台で

距離を稼いで、ボール雲台で固定閣を決定することにな

ります。

 

 フリーアングル雲台というのは、ハンドルで距離を調

整できるものなので、

 

 【 ボール雲台と併用して、真上からみたような

   俯瞰を撮る撮影 】

 

で利用することも可能なんですが、そうした組み合わせ

で自由度を高めることが出来ます。

 

 マクロ撮影をする場合には、マクロレンズの用途があ

る訳ですが、このレンズは通常のレンズよりも最短撮影

距離(レンズ交換式だとバックフォーカス野距離になり

ます。)が短いのですが、こうした製品での撮影での最

短は、MFで最短設定にしてカメラの距離でフォーカスを

合わせる事になります。

 

 基本的にこの状態というのが顕微鏡の焦点を合わせる

作業と同じ状態にますから、微細な距離の変化が必要に

なります。マクロフォト都下でにたようなことをすると

まさにそんな感じになります。こうした撮影をする場合

に使うのが、マクロスライダーです。これを使うことで

微細なカメラの位置の調整が可能になります。この軸移

動は前後・左右での微細な移動が可能なので、そうした

調整をすることが可能になっています。つまり、構図を

作るのはその下の雲台出その上にこれを乗せる状態にな

ります。

 

 マクロスライダー+ベローズ+何かしらの雲台

 

というのが映像撮るカメラでは見かける構成で、これに

ケージとか外部レコーダーとかPCMレコーダーとかモニ

ターとかマイクとかがゴテゴテつくので映像用のカメラ

というのは、原型が何だったか解らないような凄い事に

なるのですが、固定だけでなく距離の調整をする雲台も

存在しています。その代表例が、フリーアングル雲台と

マクロスライダーになります。

 

 つまり、マクロ撮影で寄る場合に定点でフォーカスを

あわせてフォーカスロックをかけて撮る場合(被写界深

度を深くしてこれでやる方が昆虫とか野マクロはいいよ

うな気がします。)だと、マクロスライダーなどは必須

アイテムのような気がします。

 

 次に、映像用の製品なので、写真では間違いなく使わ

なそうなモノに【 スライダー 】があります。

 

 これは、微細な世界のドリー用のレールのようなもの

で、600mm~1000mm超過のものがあり、その範囲

を移動して鳥を行うことが出来ます。当然、ドリーをし

ながらパニングという選択もあるので、雲台の組み合わ

せで出来ることが変わります。ただ、これは低価格なモ

ノだと信じがたい粗悪品があるので、まともな製品を選

ぶ事をおすすめします。三脚と比較すると圧倒的に高く

三脚のようにお手ごろ価格で初心者だとそれでもいいか

もというのがないので、高い製品になります。

 

 こういう野の事例で言うと、昆虫の移動をトラックす

るとかドリーで追従するとかになるのですが、そうした

処理に使い、基本的にレールがフレームに入らないアオ

リに関してのみドリーイン・ドリーアウトが可能で、そ

うではない視点だと、レールの入らない横移動のみとな

ります。つまり、レールの入らない状態で、移動して撮

る感じですが、人の移動を追従するようなドリー製品と

はモノが違います。

 

 ちなみに、通常の映画とかのドリーというのは、レー

ルを引いてトロッコの上をカメラが移動している状態な

んですが、オリンピックの短距離層で、選手と一緒に

走ってるカメラがありますよね。アレは自走式のモノで

すが、撮影手法としてはドリーです。

 

 つまり、そうしたレールの上に台車を乗せて追従する

ように走るのがそれになります。また、アニメのほうが

こうしたのは見かけるのですが、円陣で囲まれた主人公

の周囲をカメラが回る演出ってありますよね。あれは、

黒沢映画が起源とも言われていますが、アレを撮るとき

には

 

【 カメラの移動する円周にレールを敷いて台車を

  走らせて撮る 】

 

という撮影方法になります。この撮影方法はドリー・ア

ラウンドというものになるのですが、撮影の時だけ仮設

のレールを敷いて、そのシーンのためだけに

 

 【 鉄道にとりつかれしモノになり、鉄道を敷く

   作業にいそしむことになる 】

 

わけです。基本的に、ドリーについては、流石に個人で

はムリがある場合も存在しています。

 

 とりあえず、ドリー用の三脚のオプションとして、

 

 【 三脚の足に着ける三角形のトレイにコロがつ

   いた何か 】

 

という

 

 【 三脚をショッピングカートのような状態に

   して、三脚と疾走し、風になれる何か 】

   (いや、目的違いすぎるだろ...。)

 

がありますが、これをつかうと、ショッピングカ

ート同様に凄まじいロードノイズを拾うので、音声

は別録りで、タイムコードであわせることになります。

 

  基本的に人がカメラをホールドして、移動しなが

ら撮るというスタイルもあるのですが、カメラを使う

選択で言うと様々なモノがあり、個人で考えてもそう

した選択があるわけです。

 

 ただ、

 

 【 三脚に移動機能が追加され、走ることを覚え

   たそれとともに俺は風になる的ななにか 】

   (いや、風になるんじゃなくて映像撮れ!)

 

的なドリー製品(これは低価格製品に該当します。)の

場合、単一思考性のマイクで収録するのと、カートの

もの凄いロードのノイズの入らない状態で、アンビエン

トの収録しておかないとカメラ実相マイクでやると凄ま

じいことになる のと、自転車のような謎の手ぶれが加わ

 

 【 単に移動しているだけなのに、砂利道だと

   変な臨場感が出る 】

   (アスファルト辺りでも結構揺れる)

 

ので、後で手ぶれを消すか、そうした揺れでも大丈夫な

製品を使うことになります。

 

 その為、あるにはあるけど、アレを使う場合には機材

の特性で出てしまうノイズを噛まないような音声の収録

が必要になるといえます。

 

 電動式のものもいろいろあり、カメラ実装のドローン

も面白い事になっているのですが、従来の固定器具もそ

んな感じになっています。

 

 カメラでの撮影をする場合、モニターやレコーダー

を実装して使用する場合、三脚の穴が一つだと困るこ

とがありますが、そうした場合。マグプレートを使う

と複数の製品を一つの三脚に固定できるようになりま

す。この製品は、ステレオ撮影をする場合に利用され

る製品で、2カムのシンクロで映像制作や、写真撮影

を行うときに重宝する製品なんですが、デジタル一眼

レフ登場当初は、ライブビューという概念がないので、

デジカメのモニターで像を確認して、それであわせる

ようなイメージで使うとか出そういうのが使われてい

ました。

 

 動画撮影も上モノがかさむ場合には、こうしたモノ

を噛ませるという選択肢があります。ただし、この場

合、それぞれの機材の耐荷重に気をつける必要があり、

三脚はもっとも重量がかかるので 、映像撮影用のもの

を選んだ方がよく、上モノがかさむ場合には、それぞ

れの上物の重量で機材の耐荷重が大丈夫かを考え製品

構成を決めることになります。

 

 基本的に、撮影においてカメラワークを使う場合に

 

 ■ カメラマンで大丈夫な動きなのか

 ■ 三脚で大丈夫なのか?

 ■ クレーンジブアームで大丈夫なのか?

 ■ 乗り物や重機が必要か?

 ■ ドローンを使う必要があるか?

 

で使う物が変わるのですが、そうした条件で考えても、

個人が利用して映像を持ち帰れるシチュエーションと

いうのは増えています。そうした内容から、コンシュー

マのソースに限定するとしても、その選択の幅は広く、

選択肢が多く存在しているわけです。

 

 結果的に映像においての表現手法とその補助機材の

話ですから、なにを撮るのか?やどういう構図で、ど

ういうショットの作りで、どういう物なのか?は機材

が作ってくれる物でも何でもないですから、それは自

分ですべて考えることになりますが、撮影というのを

考えた場合に、そうした選択肢があるわけです。

 

 つまり、水中とか空中とかのように20世紀だと嘘の

ようにコストのかかっていた物が今は個人でもそんな

異様なコストをかけなくても当たり前にとれる時代に

なっています。20世紀の空撮の場合、ヘリやセスナを

チャーターしないと俯瞰で撮る映像はとれませんでし

たし、4kなんて撮れる訳がないので、今と昔では様子

が全く違うわけです。

 

 とりあえず、表現手法の補助が道具ですから、そう

した選択肢があるという話でしかないのですが、これ

はセットとは関係ない機材構成の話なので、ファイン

ダーやモニターで見えている作るもの自体の光と陰の

作り方を同行するような機材ではありません。

 

 そのため、カメラだけでは撮れない物の方が多いの

で、創作となると、フレームの中で存在する物をしっ

かりとした状態にするための照明や美術や衣装や人が

入る場合だとメイクなども必要になるわけです。

 

 メイクと大道具の話ですが、これは8k位になって

くると本当にディテールを詰めないと

 

 【 4000万画素超過のカメラでマクロをする

   ような状態になることがある 】

 

ので、【 偽物は即座に偽物と解ってしまう 】ので

質感の怪しさが露骨に出てしまうわけですが、そうし

た内容も含めて

  

【 カメラの機能はポテンシャルでしかないので、

  結果的にカメラでできる画質というのは露出

  部分野調整のみであり、あくまでも写真や映

  像というのは、カメラ側ではなく、ファイン

  ダーに映るレンズの向こう側の世界をどう作

  るか?のほうが重要 】

 

だったりするわけです。この辺りが崩壊していて、

 

【 カメラがよければ無能でも物は撮れる 】

 

という

 

【 露骨にみ経験者の妄言意外な煮物でもない 】

 

のを口にしてるのが言ますが、ファインダーの向こ

う側の世界がどうでもいい除隊でよくなると言う物

理法則を無視した痛々しい妄言 ですから

 

【 無知合点を突き抜けた結果、ゴリラを越えて

  亜空間の生物に至っていた内容 】

 

という話になります。まぁ、当たり前のことですが、

個人が映像制作をする場合、とりあえず、現在進行

形で考えて、

 

【 僻地や未開の地やグンマーやそれを越えた何か 】

 

程度なので、とりあえず、地球上や銀河系の物理法則

に準拠した環境下で行うことになるので、前述のよう

なブラックホールの境界面から得意点に向かうような

状況で形状的に延びながら時の流れが崩壊した謎の世

界で映像作ってる人や撮影してる人はいません。つま

り、【 その、見た目がムンクの叫びのような状態に

なっている何かだと形状認知ができないのでヘタクソ

も達人もない 】という訳の分からない妄言ですから

相手にしない方がいい内容であるのが理解できると思

います。つまり、結果的に機材をよくしても、作るの

はあくまでも人間ですから、機材が物を作ってくれる

訳ではないですから、あくまで作るための選択肢の一

つであり、その絵を持ち帰るための機材選択という手

段でしかないわけです。

 

 その手段の部分だけをみてもこんな感じで変化し

ており、コンシューマのソースでも撮れる素材の種

類は相当多くなっているわけです。