日々適当
hibitekitou

Mac版Substance Designerでdeleteキーが効かないのですよ

cg |2018-04-24
効かないんです。ついでにBackSpaceキー方向のdeleteキーも効きません。
だからノードの削除が右クリックから"Delete Selection"を選ぶわけですが、その場合リンクのラインだけを消すことができないのですね(ラインを選択して、それをターゲットとした右クリックのメニューが出ないから)。

暫定的な回避方法をさっき知りました。

Control + h

このショートカットがMacのキーボードでのDeleteと同じ動作をします。
つまりはEmacsのショートカットと同じなんですけど、じゃぁBackSpaceキーと同じ動作をするControl + hはというと、これは動作しませんでした。Delete and Relinkが割り振られていますけど、それは出来ないということになります。

でもまぁ、ノードをサクッと消せるようになったのは作業効率に大きく貢献しますな。

しかしググってもこのトラブルにほぼ出会わないのはMacでSubstance Designerを使う人がほぼいないってことなのか、環境に依存する問題ってことなのか…
コメント ( 0 )|Trackback ( 0 )

ネットワーク越しのライセンスファイルを見にいく

cg |2018-04-20
AutodeskのライセンスサーバはFlexLMで、そのライセンスの使用状況の確認は過去こちらのブログでも時々書いてきた通り、

lmutil lmstat -a -c <ライセンスファイル>

ですけど、-c @<server> でネットワーク越しのライセンスサーバのライセンス利用状況を確認できます。つまり、サーバーが 192.168.0.100 とかで動いていたら

lmutil lmstat -a -c @192.168.0.100

ですな。
自宅では(去年保守を切ったけどその時点までの有効な)ライセンスサーバーが動いているので、そのサーバーに対してローカルから上記コマンドを投げるとほぼ一瞬で結果がかえってきます。しかし職場のWindowsをサーバーにしている環境で実行すると、返事が返ってくるまでにすごく待たされるのはなんでなんだろう…。

-fってオプションがありますね。特定の製品の使用状況を知りたいときに利用するそうです。ECSUのを見たければ、例えば

./lmutil lmstat -a -c @192.168.0.100 -f 85807ENCSU_F

とか書くわけですが、何だよ85807ENCSU_Fってって思うわけですよ。この辺りの対応が載っているところってないですかね?
まぁともあれこうして動いているライセンスの状況を見ることができるわけで、このネットワーク越しにライセンスを見にいく事に対するレスポンスが良いのなら、ライセンスの使用状況を確認するためだけのサーバーをライセンスサーバーの外においておくといいんじゃね?って思うようになっている今日この頃です。
例えば、
#!/usr/bin/env python
# -*- coding: utf-8 -*-

import commands

if __name__ == '__main__':
	cmd = "./lmutil lmstat -a -c @192.168.0.100"
	rtn = commands.getstatusoutput(cmd)

	curInfoStr = ""

	headerElm = '''<html>
	<head>
	<title>Autodesk License</title>
	<meta charset="utf8">
	<style type="text/css">
	body {
	margin: 30px;
	padding: 5px;
	font-family: "Hiragino Kaku Gothic Pro", "ヒラギノ角ゴ Pro W3", Meiryo, メイリオ, arial, helvetica, sans-serif;
	font-size: 90%;
	line-height: 150%;
	}
	</style>
	</head>'''
	print(headerElm)
	print("<body>")
	for line in rtn[1].split("\n"):
		print( line + "<br>" )
	print("<p>")
	print('</body></html>')
こんな感じで書いたのを、あるフォルダの下にcgi-binフォルダを作って、そこに置いてやります(getLic.pyとでもしましょう)。
あるフォルダ以下はこんな感じです。
├── cgi-bin
│ └── getLic.py
└── lmutil
lmutilはどうにか手に入れてもらうとして、cgi-binと同じ階層に置きましょう。で、ターミナルでそのフォルダに移動して

python -m CGIHTTPServer &

を実行です。念のため、以上はPython 2.7.x環境でのお話です。そうして、Webブラウザで

http://localhost:8000/cgi-bin/getLic.py

にでもアクセスすればターミナルで ./lmutil lmstat -a -c @192.168.0.100 を実行したのと同じ結果がブラウザ上に表示されるわけです。Python内で整形してもっと見やすくすることも可能でしょう。そうしてやれば、スタッフの誰もがライセンスの状況を簡単に確認できるようになるのではないか、とか考えている人が職場にいたので考えてみた次第です。まぁこれをライセンスサーバーで走らせても(その場合はローカルのライセンスファイルを見に行くという挙動になるけど)そんなに負荷はかけないだろうからそうしたほうがいいのかもしれんが…
コメント ( 0 )|Trackback ( 0 )

メモ:チュートリアルをやりながら

cg |2018-03-17
Substance Designer を少しずつ触り始めています。んで、ゆーっくりと

Substance Designer Getting Started: 01 - Creating a base material part One


こちらのチュートリアルをやり始めているのですが、使ったノードとか忘れがちなのでメモっていきますよ、というエントリです。まずはDirection Warp。



一定の方向への変形をかけるノード。下側の "Intensity Input" にグレースケールの画像を入れることで、その濃淡を参考に変形の強度を変えてくれるんで、チュートリアルだと"Input"(上側のポート)と同じものを差し込んでいるけど、ここを違うものにすると違う結果になる。例えば↓。



Intensity Input には L16のグレースケールな画像を差し込まないと効果がないように見えました。

このノードのパラメータとして、IntensityとWarp Angle があります。Intensityは変形の強度なのでいいとして、Warp Angleには TurnsとDegreesの二つのパラメータがあり、しかしこの二つは連動していて個別には修正ができない、なんだこれ?って思うわけです。単に、同じ値を違う単位で表示しているだけということですね。Turnsは何回転って値、Degreesは何度回転したって値ってことで。

PBR Metal Reflectanceノード。



Quick Preset Helper Nodeってくくりのもの。プレイセットされた純粋な金属の物性として正しい反射色を返すものだそうです。Metallic modelにおけるBasecolorかSpecular/Glossiness modelのSpecularチャンネルに繋げとマニュアルにあります。
金、銀、アルミニウム、鉄、銅、チタン、ニッケル、コバルト、プラチナが用意されたプリセットとなります。

法線マップをCurvatureノードにつなぐ。



注目したいのは真ん中のノード、Curvature。
その左側のNormalは白黒の画像をHightマップに見立てて、それを元に法線マップに変換するノードと考えればいいかな?
で、Curvature Map。曲率マップと訳されるそうで、形状の凹凸を記録したものということです。
なので、このCurvatureノードは法線の向きから凹凸を白黒の濃淡で表現するものに変換するノードということになりますね。凸部分を白、凹部分を黒として表現するのでしょうか。なので、形状の輪郭を得るときにSubstance Desingerでは利用しているようです。
上図では凹部分を右側のLevelsノードで強調し凹部分に効果を乗せるためのマスク素材のための素材に変換しています。

Histogram Scanノード。



入力されたグレースケールからコントラストや明度を直感的にリマップできるノードということです。
Postion, Contrast, Invert Position の三つのパラメータがあります。
内部ではLevelsノードをいじっているようで、Levelsノードには下図のようにヒストグラム上部に3つの下向き三角形があります。



Histogram ScanノードのPositionはその3つの三角形のうち中央のものを、Contrastは左右のものを制御している値って印象ですかね。
ちなみに、Histogram Rangeってノードがありますが、これはLevelsノードの下側の二つの三角形をいじっているようです。

Ambient Occlusionノード。



Hight mapを元にAmbient Occlusionマップを作り出すノードです。
グレースケールの濃淡を見てってことですね。ノード名末尾にHBAOって付いているのは Horizon-Based Ambient Occlusion ってことだから、らしい。これはリアルタイムむけのアンビエントオクルージョンの技術ということです。

といったところまでで、先のムービーのパート2まで終わりました。
引き続きパート3に入っていくものであります。

余談ながらしかし、職場でSubstance Designerを触らねばならぬ状況に至ったためにこうしていじり出しているのだけど、その原因となったソフトウェアのSubstanceへの対応が、DesingerのVer 4.xまでという致命的な問題が発覚して難儀している今日この頃です。まぁ最新版しか使えないとして、その目的となるアプリ以外のmayaとかmaxとかmodoとかUnityでは使えるわけで、そっち方面で積極的に使っていけばいい話なのだけどね。
コメント ( 0 )|Trackback ( 0 )

Pixel Processor への入力

cg |2018-02-10
本当に基本のことですけど。
Substance Desingerで下図のように Pixel Processor にて二つの入力があり、



その二つ入力から演算して一つの出力を得るとき、本当の初心者にわかりづらかったのは、Pixel Processorのどのノードでカラーの情報を取得するのだろう、ということなのでございました。上図は下図の演算で二つのテクスチャの同じ位置の明るさの平均を出している図です。



つまり、サンプラに入力のピクセル情報が入っているという事だったのですね。
わかってみればどうって事ない事なんですけど、(Substance DesingerのPixel Processorに関する知識が何もない状態から)これがわかるまでなんだか苦労してしまいました。

<追記>
どーでもいいことではあるけど(個人的にはどーでもよくないけど)上図の「サンプラで入力を選ぶ」って部分が汚いのはなんでだ? と思い、アップロードしたオリジナルファイルと比べて見たら、縦のピクセル数が変わっている。オリジナルが382あったのが上図は368しかない。何故か少し縮小された上でピクセルが追加されている?(

という事で、オリジナルが同一サイズの写真をアップロードしてみた。



ムゥ、こっちはちゃんと382が保持されている。
gooのアップローダー。アップロードされた画像の性質をみて何かしているのだろうか?(画像をオリジナルと比較してみると(差の絶対値で重ねると)差異がわかるので明らかに再圧縮はしているから、その際にさらに何か処理を加えているのだろうか(再圧縮もやめてほしいなぁ。そのためにPhotoshopでそれなりにファイルサイズが小さくなるようにしていたのに))
</追記>
コメント ( 0 )|Trackback ( 0 )

Mental ray 死亡宣告?

cg |2017-11-19
images.nvidia.com ってところの情報みたいだけど、Mental-Ray-FAQ-201.pdfって物がネット上にあり、そこには以下のように書かれています。
NVIDIA will no longer offer new subscriptions to the Mental Ray plugins for Maya and 3ds Max, as well as Mental Ray standalone.
もうMental rayは提供しませんよってアナウンスのようです。
テクスチャベイクのためのレンダラとしてMayaやMaxのArnoldはほぼ役立たずなところがある事から、職場方面でMental rayのライセンスを検討していたんですけど、これでその案はおじゃんとなりました。
V-rayか、Redshiftか。
未だSoftimageを時々使っている自分としては、V-rayよりもRedshiftを入れたほうがメリットが大きいので、そっちに舵を切らそうと画策はしておりますw

ともあれ、Softimage 3D時代からずーっと使ってきていたMental rayが終焉を迎えることにはある種の感慨があるわけで、Mental ray終了の引き金を引いたのはおそらくはAutodeskのような気がするんで、(Softimageを亡き者にしてくれたことも含め)やっぱりクソって思うわけですよw

ともあれ、もしかしたら順序が逆なのかもしれないとも少しは思ったり。このスケジュールで終了させるよとの連絡があったからAutodeskはArnoldの買収に動いた、とか。実際どうなんでしょうね。
コメント ( 0 )|Trackback ( 0 )

単一露光画像からのHDR画像生成ってのを試してみた

cg |2017-10-29
単一露光画像からのHDR画像生成ってのを試してみた

HDR image reconstruction from a single exposure using deep CNNs

こちらのページ。
難しい理屈や実装手法はさておいて、単一露光画像をHDR画像にしますよって手法をPythonで実装したコードを配布しております。
ということで試してみました。

とはいえ、単にPythonが動くだけじゃダメで、Pythonに標準で入っていないモジュールをいくつか導入する必要があります。試したのはmacOS High Sierra 10.13でございます。もともとHomebrewが入っている環境です。

必要なモジュール(パッケージ)は
TensorFlow, TensorLayer, OpenEXR, NumPy, SciPy
とのこと。つまりは機械学習ですね。TensorFlowはGoogleが提供する機械学習ライブラリ。TensorLayerはそのラッパーライブラリだそうです。まぁつまり、よく分かっていません。機械学習は表面的な部分だけでもそのうちちゃんとやっておきたいです。

環境構築していきます。

TensorFlowを中心とした機械学習環境をMacで構築 [Qiita]

brew install python3
#仮想環境上に構築しようと思います。
pip3 install virtualenv
#カレントディレクトリにtensorflowって名前の仮想環境構築です。
virtualenv -p python3 tensorflow
#仮想環境に移行します。(仮想環境から抜けるときは deactivate を実行するだけ)
source tensorflow/bin/activate
#ここにパッケージを入れていきます。
pip3 install tensorflow
pip3 install tensorlayer
pip3 install openexr
#numpyとscipyは以下を実行すると
#already satisfiedと出ました。
pip3 install numpy
pip3 install scipy

ということで基本環境は出来上がり。
一番上のサイトからダウンロードしたソースコードの入ったzipファイルはhdrcnn-masterというフォルダを作ります。これと仮想環境のtensorflowが同じ階層にあるという想定で、以下は進めています。

使い方を見ると、Trained CNN weights to be used for the inference, can be found here. となっております。CNN。機械学習をやると当たり前に出てくるものみたいですが、当たり前じゃない世界にまだまだ在住しているもので、とりあえずこれが必要とだけ理解しときます。hdrcnn_params.npzというのが落ちてきますので、これをhdrcnn-masterフォルダに入れました。

あとはコマンドを実行するだけ。関連するファイルの階層は以下の通り。

./ ←この階層でコマンド実行。
./hdrcnn-master/hdrcnn_predict.py ←このスクリプトを実行
./hdrcnn-master/hdrcnn_params.npz ←ダウンロードしたCNNに関するもの
./imputImage.png ←この画像ファイルに対して処理を実行(1024x768の画像)

python hdrcnn-master/hdrcnn_predict.py --params hdrcnn-master/hdrcnn_params.npz --im_dir imputImage.png --width 1024 --height 768

となります。
こうして変換してみた画像は、



こんな感じ。左上がオリジナルの画像。左下が変換後の画像(32bit exr)。右側がそれぞれにPhotoshopの露光量を-2にしてみたものとなります。変換後の画像は太陽の芯っぽいものが残っていることがわかりますな。

明るい部分の周囲が完全に白く飽和してしまているような画像に対しても、なんとなく頑張ってくれているように見えます。



肉眼では奥の山の形はほぼ認識できないのだけど、わずかに明度差が生じていたからか、そこから山のすぐ向こうに光源がある的な解釈をして変換をかけたのでしょうか。

これはなかなか良さそうですかね?



ちなみに、変換をかけた画像ってのはTHETA Vで撮影したものですけど、これのオリジナル解像度(5376x2688)だとMacが落ちました(マウスの動きが悪くなり、やがて動かなくなって画面がブラックアウト。再起動がかかる)。処理は半分の解像度に落としたもので実行しています。
コメント ( 0 )|Trackback ( 0 )

Photoshop での3D作業

cg |2017-08-30
Photoshopで3DCG作業ができるわけですけど、これまでなんとなくスルーしておりました。
思うところあり、ちょっといじってみております。

とりあえず分かりやすいところとして、標高のマップデータからメッシュを起こしてみました。



この画像をPhotoshopで開いて、3Dパネルの「深度マップからのメッシュ」で作成してやると





こんな感じでメッシュが作成されます。意図としては地面なので90度回っているのが気にくわないところですけど、とりあえず空間に3Dメッシュが出来上がりました。その結果、3Dパネルはシーンの状況を示す表示となります。



カメラの操作は3Dパネル上でカメラ(現在のビュー)を選んだ状態で、 Shift + Vキーで「回転」「ロール」「ドラッグ」「スライド」「スケール」を切り替えられるみたいです(スケール?)。
オブジェクトのトランスフォームは3Dパネルで対象オブジェクトを選び、ビュー上に現れるマニピュレータを操作、でしょうか。属性パネルで数値入力も可能なので、90度回っていて不満なこちらのメッシュをX軸に90度回しておきます。



でまぁ、ここからこのメッシュに対してテクスチャを設定したく思うわけです。
マテリアルとして「背景」ってのが設定されています(3Dパネルで「深度マップ」オブジェクトの子供のような形で表示されている)。
こいつの属性を見ると「拡散」「スペキュラ」「自己発光」に独自にテクスチャを設定できることがわかり、「拡散」にはすでに適用されていることがわかります。



でも、この「拡散」のテクスチャを新たに作成しなおそうと画策するわけです。新規テクスチャを作成します(下図)。





作成されたテクスチャは、しかしメッシュが細かいので、表示上、UVオーバーレイしていると真っ黒のよくわからない表示になっております。



見辛いのでUVオーバーレイはオフにして(外のツールでモデリングした素材に対してのペイントは、普通はこんな真っ黒なUVなオブジェクトは扱わないから、UVオーバーレイオンの状態でペイントしていった方がいいでしょうが)、その上で、ウインドウ→アレンジ→2アップ(横)とか(縦)とかすると3D表示とテクスチャが横並びに表示されていい感じです。この状態でペイントしていきます。(カメラをタンブルしながらカキカキしていく場合、ショートカットvでカメラを回す状態にして、bでブラシモードにして、ってのを繰り返す感じです)



片方に書いたものがもう片方に反映していきますな。2Dの方は普通にPhotoshopのフィルタ類を適用していけますし、レイヤーも使えます。
ただし、この編集中のテクスチャを任意の場所に保存する、ということはできないのかな? そんな空気を感じます。

編集中のメッシュはpsdとして保存可能。

ということから、3Dペイントのツールとして活用していけそうな予感はありますかね。
(お金あるなら、Substance PainterやらMariやらを、あるいは3Dペイント機能を持ったDCCツール(C4DとかMODOとか)を活用した方がいいかもだけど、Photoshopの使い方そのままでテクスチャを編集可能なのはちょっと魅力的かもしれんですよ?)

ちなみにPhotoshopで作成したメッシュは 3D→3Dレイヤーを書き出し...から出力可能で、3Dオブジェクトを書き出すと同時に、任意のフォーマットで適用されていたテクスチャも書き出されてきます。残念ながらfbxには対応していないようですけど、daeとかで出せばエンターテイメント系のDCCツールに持ち込むことは容易でしょう(objも行けるしね)。

ちょっと真面目に使用を検討してみようかしらん?
コメント ( 0 )|Trackback ( 0 )

Maya 2017 Update 4の問題の解消

cg |2017-06-14
おそらく、うちだけで起こっていた超レアケースについてです。
Maya 2017のグラフエディタ。2017になって新しくなったわけですけど、MacBook Pro 2016上でそのウインドウが開くのに異様に時間がかかっておりました(他のMac環境では特に問題はありません)。Update 3までそれが解消することはなかったのですけど、Update 4で普通になりました。普通にウインドウが開きます。



ちなみにグラフエディタのウインドウを開いたままにしておくぶんには、選択オブジェクトを変更しても、fcurveが表示される速度は普通でした。ウインドウを開く時にだけ、異様に時間がかかっていた、ということでございます。
まぁそれだけのお話です。

その他、Update 3までで個人的に気になっていた問題がましになっているかは、明日以降調べてみませう。

余談。ざっくりシーンの提案をするためにざっくりと絵を作る時、SoftimageのICE、素晴らしい。PointCloud素晴らしい。PointCloudのプリミティブ素晴らしい。とか思っていました、今日。

<追記>
Update 3で作業してたタイムエディタを使ったシーン。タイムエディタがとーっても不安定だったのが、非常にまともに動くようになった、と思いました。
</追記>
コメント ( 0 )|Trackback ( 0 )

Mayaメモ:テクスチャベイク(IBL)

cg |2017-06-13
このビデオ(Maya Learning Channel 21. テクスチャベイク(ライトマップ) [YouTube] )のやり方を。

Render Settings...から使用するレンダラをTURTLEに変更(選択肢にない場合はプラグインマネージャからロードしておく)

TURTLEタブ内 Render Type をBakingに


Enviromentタブ内 Enviroment でImage Based Lighting を選ぶ(状況次第ですが)。


同じタブ内にIBLのセッティングに関する項目があるので、そこでIBLに使用する画像ファイルを選択

Visibleにチェックを入れることで、ビューポートに球体に貼られた形で表示されるようになる。

ビューポートのライティングをFlat Lightingにすることで球に貼られたテクスチャを確認(環境光のイメージ)を確認できる(確認が不要なら邪魔なのでオフにしておく)。Turn Light Domeで貼られるイメージの角度の調整を行う。

Light Emissionの中の Emit Light にチェックを入れる。


以上がライティングのセッティング。続いてベイクの設定を行うべく、Bakingタブに移動する。

TargetsのTargets Surfacesにベイクを行うオブジェクトを追加する。対象となるオブジェクトを選択して Add Selected ボタンを押す。


Common Settingsの中はそのままでやっている。必要に応じて設定をいじることになりますが(どのカメラからの絵を焼き付けるとか、考慮する法線の向きとか等々)

出力する画像ファイルの設定を Texture Bake Settings から行う。
画像サイズ、保存ディレクトリ、ファイルフォーマット。複数オブジェクトを選択している場合、UVを共有しているならMerge to one mapを選んでおく必要がありそう。


Outputs内の Shader Outputs, Adbanced Setthings から出力するレンダリング要素を設定するみたいだけど、この場合は Illumination にチェックを入れる。


以上がレンダリング出力についての設定。

GIの設定も行う。
Global Illuminationタブに移動し、Enable Global Illuminationにチェックを入れる。以上で設定が完了だそうだけど、当然、このタブ内にも細かい設定項目があるんで、微調整をしたい場合にはここを触って行かないといけないのだろう。

以上でベイクのための全設定が終了。レンダリングを行う。


レンダリングが終わったらテクスチャも完成しているわけですが、ビデオではこの後ベイクされたイルミネーションと元々貼られていたマップ(ディフーズカラーのみの要素と思っていいかな)を合成した様子をビューポート上で確認するために、ハイパーシェードの設定説明を行なっています。

レイヤテクスチャノードを使用する、ってことと、ハイパーシェード内ウインドウ→ビューポートで開くウインドウをハイパーシェードに組み込むことで、ビューポート表示の確認をハイパーシェード内だけで完結できる様子を示しております。
コメント ( 0 )|Trackback ( 0 )

超基礎メモ

cg |2017-05-31
メモです。

選択した頂点にオブジェクトのセンターを持っていく



Softimageでは Move Center to Vertices。



MayaではCenter Pivotでピボットを選択中心に持って行ってからBake Pivotでその位置をオブジェクトのローカルの原点として固定させる。

こーゆー↓形状にUVを設定してみる。



Softimageでの自分のやり方の一つがWalking on the Meshを使う方法。


  1. ポリゴン一枚だけ残して全選択。
  2. Walking on the Meshを実行
  3. 選択し残したポリゴン以外はいい感じに
  4. 選択し残したポリゴンを投影マップのBest Fitで
  5. 見やすいように配置している
  6. 縫い合わせる
  7. ノーマライズして完成
もちろん、Unfoldしてもいいだろうし、他にも何かあるかもしんない。

Mayaだとこんな感じでやるのかな?


  1. UVの切れ目となるエッジを選択してUV EditorでCutを実行
  2. Unfoldを実行
  3. Unfoldの実行結果。傾いている。
  4. Orient Shellsを実行すると
  5. 二つのUVシェルが水平に。でも向きが違っているので
  6. Rotateツールでどっちかを回してやって向きを揃える
  7. 縫い付けるエッジを選択して、Stitch Togetherを実行して縫い付けて
  8. Shiftキーを押しながらNormalizeを実行して(これがうまく動かなかったので、実際はメニューからNormalizeのオプションを出した)
  9. 開いたダイアログでオプションを適切に選び実行して完成。
正直、このやり方が効率がいいのか自信がない…
でも、Maya 2017 Update 3からついたこのUV Editorは以前のエディタより個人的にはわかりやすい、ような気がする。

テクスチャを焼き付ける。
SoftimageならRendermapをmentalrayなら使うのだけど、Maya 2017だとArnoldがデフォルトなので、それでの方法を見てみると、世の人々はこれには不満が溜まるだろうなぁという内容ですね。逆にシンプルなんで比較的簡単って言い方もできるかもしれんけど。



オブジェクトを選択してコマンド実行。



たいした数もないオプションを設定し(レンダリング解像度を上図のママでやったら終わる気配がなかったので512にしてやり直した)、レンダリング開始しました。
レンダリング結果のファイルはexrで、ファイル名はオブジェクト名がそのままきます。



左がArnoldのAmbient Occlusion。右が焼き付けたテクスチャを貼っただけ。結果はまぁまぁいい感じだと思いますが、どうなんだろ。
詳しくは

Maya2017 Arnoldでテクスチャベイク(プリライティング)①
Maya2017 Arnoldでテクスチャベイク(プリライティング)②
(いずれもインディーゾーン)

あたりを見ておけば良さそうですが、ベイク機能自体へのやる気のなさは感じますね。2018で内容が充実すればいいけど。
この辺りをやろうと思ったら、Turtleを使うのがお利口みたいです。しかしてオプションが豊富すぎてちゃんと調べないとだな、って感じになりまする。

わからないことだらけであります。

コメント ( 0 )|Trackback ( 0 )
« 前ページ・