00:01 from Twitter for iPhone
Lv10近辺のしょくぎょうを選んで篭って、上がり過ぎたらガタラの町に戻ることを繰り返してようやくアグラニの町のストーリーリーダーと巡り合えてボスと戦えた。5大陸のオープニング見られたのでやっと探索が続けられる。 #DQ10
00:02 from Twitter for iPhone
けど今日はログアウト。 #DQ10
11:11 from Twitter for iPhone
Harmor眺めてたら音階という物自体がシンセサイザーと思えて来た。和音も音作りの限定版なのねきっと。アルペジオとLFOとコード進行は時間経過での変化として一つにくくれそうだけどまだよくわからない。Wave Candyで横線が繋がる様子を眺めてたら見えるかな。
11:14 from Twitter for iPhone
もしかしたらLoop並べてく系のDAWをシンセサイザーと見ることもできるのか。サイン波64トラックも並べたら何でもできそう。
11:39 from Twitter for iPhone
Vocaloid3でリアルタイム廃止したのは、子音付きの音の母音発生タイミングが(ほかのMIDI楽器より)遅くなるのが楽器の文脈で楽器メーカーとして許容できなかったからという見方はどうだろう。
11:45 from Twitter for iPhone
息吹き込んでから音が出るまでラグがある楽器はありそうだけどよくわからないな。叩く系も振り下ろす操作開始から音が出るまでには結構時間がありそう。音声合成が特殊なのは入力系が神経系と筋肉で完結してて信号が取り出しにくいとこか。
11:47 from Twitter for iPhone
でも弦楽器でも操作開始じゃなく弦で振動が発生してからピックアップしてるんだよなあ。
11:50 from Twitter for iPhone
子音の判別可能タイミングが遅かったりそもそも音だけで文脈なしでは判別できないとかもあるか。やっぱ発生後の子音を記号としてリアルタイムに信号を取り出すのは無理かも。
11:57 from Twitter for iPhone
やるとしたらあらかじめ次に発声する母音につく子音を宣言しとくような形になりそう。ペダルとか左手とか。モノフォニックなら左手は妥当そう。ソフト屋的には5本指5bit32通りの子音が選べたら必要充分そうだけど演奏者がついていけるかは不明。素人的にはその辺の楽器より楽そうではある。
12:00 from Twitter for iPhone
母音発生タイミングは合唱経験者なら演奏者の訓練で対応できそうだなあ。
12:05 from Twitter for iPhone
何か色々事実誤認がある気がしてきた。2でも子音のリアルタイム入力はできなかったんだっけ。
12:16 from Twitter for iPhone
アーティキュレータの入力方法的な意味じゃなくアドリブで歌詞作りつつ歌う場合にどういうことが起こってるかとかいう切り口もありそう。それこそメロディは文脈から自動生成で演奏者は歌詞と小節単位の強弱変化だけいじるような。
12:17 from Twitter for iPhone
妄想終わり。
12:19 from Twitter for iPhone
「替え歌支援装置」とかいう段階を経るとリアルタイムボーカロイドの方向が見えたりするかもしれない。
by KimiruHamiru on Twitter
Lv10近辺のしょくぎょうを選んで篭って、上がり過ぎたらガタラの町に戻ることを繰り返してようやくアグラニの町のストーリーリーダーと巡り合えてボスと戦えた。5大陸のオープニング見られたのでやっと探索が続けられる。 #DQ10
00:02 from Twitter for iPhone
けど今日はログアウト。 #DQ10
11:11 from Twitter for iPhone
Harmor眺めてたら音階という物自体がシンセサイザーと思えて来た。和音も音作りの限定版なのねきっと。アルペジオとLFOとコード進行は時間経過での変化として一つにくくれそうだけどまだよくわからない。Wave Candyで横線が繋がる様子を眺めてたら見えるかな。
11:14 from Twitter for iPhone
もしかしたらLoop並べてく系のDAWをシンセサイザーと見ることもできるのか。サイン波64トラックも並べたら何でもできそう。
11:39 from Twitter for iPhone
Vocaloid3でリアルタイム廃止したのは、子音付きの音の母音発生タイミングが(ほかのMIDI楽器より)遅くなるのが楽器の文脈で楽器メーカーとして許容できなかったからという見方はどうだろう。
11:45 from Twitter for iPhone
息吹き込んでから音が出るまでラグがある楽器はありそうだけどよくわからないな。叩く系も振り下ろす操作開始から音が出るまでには結構時間がありそう。音声合成が特殊なのは入力系が神経系と筋肉で完結してて信号が取り出しにくいとこか。
11:47 from Twitter for iPhone
でも弦楽器でも操作開始じゃなく弦で振動が発生してからピックアップしてるんだよなあ。
11:50 from Twitter for iPhone
子音の判別可能タイミングが遅かったりそもそも音だけで文脈なしでは判別できないとかもあるか。やっぱ発生後の子音を記号としてリアルタイムに信号を取り出すのは無理かも。
11:57 from Twitter for iPhone
やるとしたらあらかじめ次に発声する母音につく子音を宣言しとくような形になりそう。ペダルとか左手とか。モノフォニックなら左手は妥当そう。ソフト屋的には5本指5bit32通りの子音が選べたら必要充分そうだけど演奏者がついていけるかは不明。素人的にはその辺の楽器より楽そうではある。
12:00 from Twitter for iPhone
母音発生タイミングは合唱経験者なら演奏者の訓練で対応できそうだなあ。
12:05 from Twitter for iPhone
何か色々事実誤認がある気がしてきた。2でも子音のリアルタイム入力はできなかったんだっけ。
12:16 from Twitter for iPhone
アーティキュレータの入力方法的な意味じゃなくアドリブで歌詞作りつつ歌う場合にどういうことが起こってるかとかいう切り口もありそう。それこそメロディは文脈から自動生成で演奏者は歌詞と小節単位の強弱変化だけいじるような。
12:17 from Twitter for iPhone
妄想終わり。
12:19 from Twitter for iPhone
「替え歌支援装置」とかいう段階を経るとリアルタイムボーカロイドの方向が見えたりするかもしれない。
by KimiruHamiru on Twitter