Lol

ひとこと説明

id:mikeppo 金星 リンク 誕生日 2019年2月からHatenaを利用しています 最終更新:

ミックスとマスタリング

K-systemは、現在ではITU-R BS.1770-3/ EBU R128に取って代わられたからEBUの方を使っていればいいみたい。
K-systemはピークメーターを見る必要がなく耳だけを頼りにしてればいいと申している。統一されたマスターの音量の基準は、0dBFSのピークを意識しなくてよいくらいにヘッドルームを確保している。これってつまり、そもそもミックス時に赤はつけるものじゃないらしい。おのれdefault設定で赤がつく音源や収録レベルがバカでかいサンプルライブラリーさんたちめぇぇ~。


K-systemの環境構築。ピンクノイズを出して手元のヘッドホンやスピーカーのリスニングポジションで83db SPLになるように音量計で測りながら調整する。こういうやりかたをすれば音量を確実に83dB SPLにできるんだね。EBUを使ったラウドネスメーターにもこの機能がついてればいいのに。といってもAndroidの音量計とアプリと測定方法からくる誤差のせいで自分がやっても信頼できない問題があるから、似たような仕様があってもできない悲しみ。

f:id:mikeppo:20210625192923p:plain

K14にすると、-14dBFSを基準0にする。「0がフォルテで4~6の赤をフォルテシモだな~」と思いながら音量を合わせる(ピークなんて気にせずに)

 14db分のダイナミックレンジが確保されているからピークを気にするようなことはない。

f:id:mikeppo:20210625193116p:plain

なんだこれは。14dbで0dBFSの上限にあたったときに右上の謎の数字が6.00を表している。

f:id:mikeppo:20210625193239p:plain

ほーうこっちでも赤のレベルが6.00

レベルメーターの謎の数字は普段はマイナス;負の値で、この数字が0を超えるとメインチャンネルのフェーダーのピークも赤になる。メーターが8dbを超えたら赤になるんだ。つまりメーターの8~14の6db分は基本的に立入禁止なのかな。

f:id:mikeppo:20210625193358p:plain

今気づいたんだけど、赤がついてもすぐには歪まないのねん。フェーダーで6db以上にすると初めてクリッピングするようになる。0dbBFSのクリッピングの上限(CDに入れるとき圧縮するときとかの基本のクリッピングで歪む限界)の上にDAWで再生する機器がクリッピングするまでの6.00分の幅があるってことかなあ。

「ピークがついている状態」って赤がついて0以上になってるタイミングのことであってるよね。あってるのかな。6.00こそがピークだったりして。だってK14の8dbがあまりにもあっさりついてしまうし。……RMSが-9dBFSだったのを-12dbFSになる音量にしたらあっさりつかなくなった。フォルテッシモシモくらいの音量だったから、お役立てできなかったというわけだ。

http://pspunch.com/pd/article/loudness_list.html

トライアングラーは音色がキラキラしてていい感じのイントロの曲だったな。INT(LKFS)を低い方に下げてつくってやると展開の中でもっと大きいアタックを加える選択肢が増える。イントロでアタック潰して音色のキラキラを目立たせるのはいいな(相対してボーカルのトランジション質感が目立つとこもいい)。

 

 

翌日

マスタリングとミックスの分割はdaw内で完結するときは分けなくていい(アナログ時代と違って作業を分割しなくていい)。だから曲同士のバランスを揃えるときは、マスタリングでEQやコンプを使うんでなく、プロジェクトのミックス側で音量を揃えるほうがいい。そのほうが音質がいい結果になる。
ぼくの環境ではわざわざマスタリングをする必要はない。
ピークがずっと0dBFSを叩かなきゃいけないということはない。
https://www.g200kg.com/jp/docs/dic/intersamplepeak.html
リミッター、マキシマイザーで0dBFSまでみちみちにしてる状態をホットシグナルと呼ぶ。インターサンプルピークとは、こんなときのリサンプリングで生じるトゥルーピークの別名。0.2dB~1dbのヘッドルームを設けたりしている音源はこれをさけるためにそうしている。

>戻る
0dBFSは近づく必要がなく、まれに万が一近づくときは決して超えてはならない線としされていた。昨今の長く頭を近づける天井ではなく。
デジタル信号で録音することで、アナログ録音媒体にくらべて速く鋭いアタックを再現できるようになった。
波形を潰すとき、正弦波は短形波に近づく。このとき元の音にない奇数倍音がふかされていく。これは歪んだ状態になっていく。
-14dBFSを中心にRMS値を読み取るようにすればK-meterみたいに上限を気にしない使い方にできそう。
INTでラウドネスを測ったら展開の過多で音量がばらついてしまうんじゃないかと思っていたが、これはBS.1770/R128の綿密に設計されたアルゴリズムが吐き出す値を信じていい。LKFS/LKFUを揃えて各年代の曲を聞くと、どこから再生しても同じようなレベルに感じられるんですって。
米国の放送は「-24LUFSでピークが-2dBFS」、欧州は「-23LUFSでピークが-1dBFS」。めちゃくちゃ小さくてヘッドルームが広い。
スマホでDolbyAtomsを有効にしていると、曲単位より短い尺度で音量調整される。
-13LFUSで収録すると、-16LFUSにラウドネスノーマライズされたときに3db分のダイナミクスを失なってしまうわけだが、-16LFUSで収録すると-13LSUSに上げられたときに3db分が変換器でクリッピングしてしまう。

http://pspunch.com/pd/article/bit_depth/
32bitfloat浮動小数点は、16bitや24bitと違って少数点を移動させる情報を含むため、0.000234とか234000などとどこまででも小さく細かく、または大きく表現できる。再現がないから24bitや16bitでの正負の上限を-1.0、1.0としてそこをピークと決めている。32bitfloatで扱っているうちは、24bitに変換して出力されるまではどんなに大きくしようと歪みは発生しない。天井がないため上限を叩くことがないからだ。例えば16bitや24bitで作業しているときにpeakに~6.00だなんて表示はできない。そもそも0dbの天井より上は存在しないので測りようがない。何dbオーバーしたかが測れないから。

 
EDMのぎっしりした(ダイナミックレンジが狭いという意味での)音圧が高いトラックをMixできると現代的なEDMのサウンドを作れるようになるみたい。レンジ(音域)いっぱいににごりなく詰め込む。
フェーダーでベースを書いたら一部がごりごりしてかっこよくなった。
ハモリ付きのメロディにした。

EXO 엑소 'Don't fight the feeling
#4のベースが気持ちよすぎる。いい#4を通過する。
歌が主役でベースがあまりにも好敵手。
サビでリズムで刻むベースがいい。
ブレイクでアナログのベースみたいにぶぃ↑~↓んってなるのすき。打ち込みが生き物になった。
打ち込みだとピッキング(フィンガリングの)持続するアタックがない。ほんとに頭だけアタックがあるから、リズムに専念できる。

 

RMSなら-11.5dbをターゲットにするんだけど(後で上手い人がミックスをすると大体〇〇~◯◯dBFSに収まる、を参照し直す)、ラウドネス値の目標が決まらない。INTは何でもいいけどどれかの数字にしなきゃいけないということでspotifyの-14dBFSを基準にでもするが(今の所。冊子を読んで決め直す)、MomentaryとShort termの値が決まらない。
後で上手い人がミックスをすると大体〇〇~◯◯dBFSに収まる
INTのターゲットを冊子を読んで決める

 

ラウドネス正規化:概要と対策を17分にまとめてみた - ニコニコ動画

 

RMS-18~-20dBFSくらい小さいレベルでミックスするのは業務スタジオでは一般的なことで、プラグインのそのレベルで使われることを見越して作られている。UADやWAVESプラグインのマニュアルに書いてる。

 

本当にあなたは DAW について知っていて、理解できていますか?

「曲をmixすると平均フェーダーは-20dBFS前後が多いですね」小さすぎると思ってたんだけど本当だった。
Dawの内部のオーディオエンジンのミキサーは(音を統合するところで各社異なるエンジン)基本64bit floatで動いているらしい(Mixer depthの話)。Studio oneも。
実用的には-40dBFSまでがフェーダーを下げる範囲。平均-20DBFS~-40dBFSが主戦場みたい。
32bit Floatをどこで書き出せばいいのかが、32bitFloatで書き出す理由がよくわからなかったため、この記事は理解できてない。Ditherってなんだ

モンゴメリーさんの 【24/192 音源は本当に馬鹿げている】翻訳

人間の耳は40~65hzまで聞こえてその下は聞こえない(カットする部分だな)。

24KHZの音を再現するには48khzの情報があれば可能。192hzまでの情報を対応していない機器で再生すると歪みが生じる。

聞く際には16bitで音の大小の再現は十分を上回っているが、作る際には24bitでヘッドルームを設けることが必要。16bitだと微細にクリップしてそれが集積してしまう。

「人間の脳はパターンや違いが存在しないときでも違いに気づくようにできています」。そうだったんだ。これで調声で再生していないトラックの声を編集していたときに、表現を選択できてたときに説明がついた。

「人間の耳は1db差を意識して区別できる。セールスマンは、判別できないがいい音に聞こえる量とわかっていて0.2db大きくして聞かせた。」Mixのときに0.1dbをフェーダーでちまちまやっても、区別できるもんじゃなかったんだ。0.3db単位くらいに曖昧でいよう。

とーくばっく(vocal Edit)とつながっているひとが記事を書いていて、そのNK ProductionでIchika氏のインタビューをしている。地続きになっていて安心した。 

 

www.youtube.com

歌詞が意味をなしてないのに、これでいいのか。いいことばが羅列。

 

エンジニア視点のギターの音作り

最後にopt(光学式)コンプレッサーを差すとギターの音がだいぶ変わった。ざばざばしていたノイズのような中域の歪みで安っぽかった(Amplitubeそのままみたいな)音が、キラキラした聞き慣れた音になった。コンプなのか。

再現できなかった。効きがわからん。EQだけ今度からやろう。いやらしい中域の歪み、800と2250hz(いやらしい歪みを耳で探す探す)を-2dbでやってみよう。

音楽的なEQとはなんだろう。その製品のアルゴリズムによって倍音にもかかっていくガイン(リダクション)の質が変わって聞こえるのかな。