カテゴリー: MIX

ミキシングの低域処理

 ミキシングも慣れてくるとだんだんコツがわかってきて、作業手順なども効率化できるところはやって、スピードも上がってきます。この楽器のこの音域とボーカルは被るな、などとわかるようになってくる(アナライザーで調べてなくても、音を聞いてわかる)。
 ところが、いつまで経っても効率化できないのが低域の処理。普通のポップスの楽曲なら、ベースとキックドラム(バスドラム)の音の被り防止処理。これはいつもアナライザーとにらめっこしながらEQを調整し、音を聞いて確認し、の繰り返し。キックとベースの組み合わせによって、50-60Hzあたりでどちらかがピークになっているので、ピークは生かして被るところを下げる、という処理。下げすぎると迫力がなくなるし、上げすぎだと低域がボヤけてブーミーな感じになります。なのでカット&トライの連続です。アナログシミュ系コンプやEQなどの癖もあるし、なかなか一発では決まりません。

 これ、なんとかならないかと思って、その種の本を見たり、ミキサーの方のブログやら海外翻訳系の記事を見たりするが、どれも上のような泥臭い処理手順しか書かれていない。つまり、これは誰も効率化できない処理なのですわ(笑)。
 で、結局いつもミックスをモニタースピーカーで聞いたり、ラジカセやらコンポやら大型ステレオ、スマホで、……なんて総動員の事態になっちゃう。こうやってできるだけたくさんの環境で聞いてみる、という至極面倒な手順が、低域(+他の部分も)を確認する唯一の方法ということです。これ、第一線の専業ミキサーの方は必ず書いている方法なんですね。

 面白いことに、ハイ&ミッドは、モニターヘッドフォンでほぼきっちりバランスが取れるんですわ。ただ低域だけは、やはりスピーカーで確認しないとバランスを調整できない。非常に音のエネルギーが大きいので、大抵は上げすぎでボヨボヨした音になりがちです。
 ジャンルによっても低域の処理は違ってくるし(ロックやEDMならド迫力でいい)、このあたりはAI的なミックスプラグインが今後発展するにしても、結局人間が耳で最終確認しないといけないのでしょう。「方針」を決めるのは人間なので。

(スピーカーのことばかり書いたが、様々なヘッドフォンを試すってのも重要。ただ、リファレンスのモニタヘッドフォン&スピーカーできっちりバランスを取ると、大抵他のものでも良いバランスで聞こえます。流石にモニタはそういう目的で作られているだけある。粗捜し専用って感じ)

ミックスTIPS: リバーブとEQの順序

 久々に実用記事っぽいやつ。ミックスダウンの必需品エフェクトといえば、残響系のプラグイン。リバーブ(お風呂場エコー)とかディレイ(山びこ効果)なんかがこれに当たりますね。これらを入れないミックスは皆無といってもいいでしょう。
 ただ、カラオケボックスで歌うだけならともかく、やはりミックスの場合は掛けるだけでは駄目で、EQ(イコライザ)で音質の補正も必要になってきます。
 具体的には、全帯域にエコーを掛けっぱなしにするのではなく、ローかハイをばっさり切って音の篭りを防止します。そうしないと他のトラックと干渉しあって透明度が失われるので。
 ローかハイ、と書いたのは、実はミキシングエンジニアによって正反対のことを言う人がいるからですね(w)。具体的には、濁りを防止するためにローをカットしろ、でも別の人はハイをカットしろ、とかね。曲のジャンルによっても違ってくるというのはあるのでしょう。
 自分は一貫してローカット派なので、そっちにあわせて書きますが、このカットのためのEQを入れる場所というのも、音質に影響してくるのを最近気付きました。

 エコーなどはFXトラックへSENDで音を送ってそちらで掛けるのが常套手段ですが、そこで音質補正のEQもここに挿すわけです。ところが……

(1) EQ -> REVERB
(2) REVERB -> EQ

 この1と2では音質にかなりの差が出るのですね。自分はつい最近までその辺りは気にせずにずっと1の方式で来ましたが、2の方も試してみたところ、かなり「自然」な残業が得られました。逆に少し篭り気味といえばそうです。どちらかといえば、生楽器などに合う並びといえるでしょう。ナチュナル系。
 1だと篭りは感じられない明瞭な感じになりますが、その分音が軽く微かに不自然ではあります。シンセなど電子音や、ドラムの重低音などあまり音が篭っては困る場合に良さそうです。ソリッドな感じ。
(結局カットとした信号にエコーを掛けるか、エコーを掛けてからカットするかの差)

 こんな簡単なことでミックスが改善するのだから、面白いもんです。やっていなかった方はぜひお試し下さい。

 ちなみ、残響系プラグインの中にもローパス・ハイパスフィルタが入っているものがありますが、自分はあまり触りません。プラグインによってフィルタの効きがバラバラで、制御しにくいからです。やっぱり外部のEQでやった方が効きが同じなので制御しやすいですね。

さりげない冒険的ミックス?

 例によって古い洋楽コンピのCDを仕入れて聞いていたら、またもや面白い発見。AORベストという、まあ名前からして80年代あたりの曲しか入ってないやつですわ(w)。

 クリストファー・クロス、この人は非常に美しいボーイソプラノのような歌声のアーティストでしたが、その大ヒット曲「セイリング」。アンプを通しただけのようなナチュラルな音のストラトのアルペジオが印象的な曲です。このストラトが手動ダブリング(つまり2回重ねて弾いている)なのは知っていたけど、今回じっくり聞いてみたら、大編成のストリングスがかなり面白いミックスなのに気付きました(チャンバーオケくらいの陣容)。
 だいたい定石だと、こういうストリングスはスケール感を出すために左右一杯くらいに広げて迫力を出すじゃないですか? こいつはなんと、モノラルか、ってくらいに中央に寄せてあって、これがまた曲全体のサウンドの中で非常にハマっててカッコイイんですわ。逆転の発想。
 この曲は、ちょっと内向的というか、インナーワールドな哲学的な詩の曲でもあるし、アレンジもそうなので、これはミックスした人がわかっててやったんだろうなあ。ちょっとクラシカルな感じがイイネな弦でもあります。

 こうなってくると、今時の派手なミックス処理でなくても、こういうさりげない処理だけでも(定位変えただけなので)、もう立派にアレンジの一要素だなあ、と思えてしまいます。
 これはリアルではありえない定位、逆に他の楽器、例えばドラムのタム類は定石通り派手に左右に振ってあるし。ミックスをするときはついリアルに引っ張られがちだけど、あまり固定概念に捕らわれるのも良くないなあ、と思った次第。
(リアルだと弦だけ50m位奥にいたらこういう音場になるか?w)

 今月に入って急に気温が下がってきました、年末年始お忙しい方ばかりだと思いますが、皆様もどうかお身体にはお気をつけて。

Eギターのミックスで気付いたこと

 といっても例によって打ち込みですが、エレキギターというものはアンプと組み合わさって初めて一個の「楽器」となるわけですね。正確にいうとアンプと(ペダル)エフェクターか。
 今の音楽制作だと、ご存知のない方は驚くと思いますが、ギター音源はギターのほぼ生音そのまんましか入ってない、それに本物と同じように、プラグインのエフェクターやアンプを繋げ、それをマイクで拾う、というところまでパソコン内でできてしまう。こうすると、打ち込みかリアルかの判別は非常に困難といっていい、ベタ打ちじゃない限り。特に歪ませてしまうとまあ判別不能。(それでも微妙なニュアンスや、音の揺れやノイズなどで、結局は本物が一番なのも事実)

 で、こうなると実際と同じように音作りをしなければならないわけで、リアルな分面倒といえば面倒(この分野にもプリセットはあるが)。
 今は打ち込みのことを書いたけど、別段アンプシミュレーターは本物のギターに使ってもいい。リアルタイムの音出しにも、録音にも使えます。というか、今の主流はこっちの用途の方が大きいのかな? エフェクターやアンプを持ち運ばなくてもノートパソコンがあればそれで済んでしまう(やや簡易版だがスマホ用もある)。

(ここからいきなり作曲勢にしかわからん話)
 で、最近少しづつアンプシミュをGuitar Rig5からAmplitube4にしてみてるんだけど、アンプリはリアルで確かに音がいいんだが、その分結局ミックスで苦労するんですわ。Guitar Rigは、作曲中に音を聞くとなんだか冴えない音抜け悪い感じなんだけど、ミックスするとかなりハマる。だから用途が違うのかもしれんね。アンプリはリアル用、ギタリグは打ち込み用の製品じゃないのかしらん。イタリアvsドイツで、音にもお国柄が出てる気がする。アンプリはスカっといい音だが暴れ馬、ギターリグは糞真面目なドイツ人のカチコチ感がある。
 それでも流石にギターリグは音をもう少し何とかして欲しいって思う時があるから、両者のちょうど中間くらいの製品があったら嬉しいんだが。Ver6に期待か。
(BIASもリアルな分、ミックスで苦労するのかな?)

 ちなみにWavesのアンプシミュは、なんだか無印駄アンプの音がして、それはそれで嫌いじゃない(w)。世の中ブランド製品じゃないのも欲しい時があるじゃないですか? 根無し草なのはイスラエルだからか。あとストンプは意外と出来がいいです、皆持ってると思うから一度試して下さい。(これもなんかのモデルって感じじゃないが)

 悩める秋の夜長に。

ミックスTIPS: ボーカルの位相ズレ

 たまには気紛れに実用的なTIPSシリーズ。
 この前のデモ曲で、ボーカルトラックを処理していて気付いたこと。どうも一箇所、位相が狂っているのか、フレーズの最後の部分で、フランジャーが掛かったような音になってしまう箇所がありました。
 変なコンプを強めの設定でかけるとこうなりがちだけど、その時はWaves CLA-2Aとか筋のいいやつしかプラグインチェインの中になかった。
 案の定これをオフにしても同じだし、EQはこれまたかなりインテリジェントなRenaissance EQ、試しにOFFにしても同じ。それでなんだろうと色々と試していた。

(ボーカルトラックの処理は、一番気を遣う箇所です。人間の耳が最も聞き慣れていているのは人の声なので、少しでも変なところがあるとリスナーはすぐに不自然だと気付きます。今回のは放置できない)

 この時も10本程度はプラグインがぶら下がっていました。
 最終的に、犯人は意外なヤツでした。それはDeEsser。これも特殊用途のコンプなんですね、「サ行」の音みたいな気になる音の周波数帯だけ瞬間的に圧縮して軽減します。これが効き過ぎていて、位相が乱れてしまっていたわけ。

 さてどうしたもんか、スレッシュルドを上げると軽減がぬるくなるしな、と思ったのだが、そういやRenaissance DeEsserがあることを思い出し、こいつを挿したら一発で止まりました(w)。やっぱりルネッサンスシリーズは、内部でかなりインテリジェントな処理をしてるんですね、超便利。
 こいつとDeBreath(ブレス軽減プラグイン)は有用なので、もし未使用の向きは使った方が良いです。ほぼ何も考えなくても破綻せず使えますからね。
(まあブレスノイズは必ずWav編集で消してるけど、消せないやつもある)

 他にこの曲だと、特定箇所でエレピの音とボーカルが重なって波形合成現象らしきものが起こって、ブッチ音が発生した、これも2mixに落とすまでは発生しなかった現象。それでミックスにもどって、ここだけエレピの音を一瞬絞って解決した。こういう変なことが、ミックスをやっていると時々起こります。このあたりは本を見ても書いてないし、自分で原因を予想して対処していくしかない。
 ミックスがエンジニアリング(工学)の範疇だといわれるのもわかりますね。

コンプレッサー小論

 最近ミックスしてて気付いたこと。

 ミックスダウンの必需品といえばコンプレッサー。本来はトラックごとの音量感を揃えたり音圧を出したりといった用途のプラグインですが(ハードもあるけど)、最近ではもっと積極的に音質を変えたり、アタックやリリースを調整してノリを変えたりと、音作りツールとしての価値の方が重要視されてる。いわば音の色付けですね。

 そこで、スタジオにあるハードコンプをモデリングしたプラグインが多種多様作られ大人気なわけですが、これらはかなりはっきりと色の付くものが多いように感じます。もしかしたら本物より更に本物っぽい、って言い方も変だが、ちょっとマンガチックに誇張されているものもあるんじゃないだろうか。でないとユーザに文句言われそうだもんね、効果がはっきりしない、なんてね。
 で、それはそれで使う方もわかっていればいいわけで、実際自分も大好物で、打ち込みの楽器をリアルにしたい時に大変効果的だったりします。これは宅録したハードシンセに使っても同じ効果がある、宅録のシンセ類は音がやっぱりアッサリ綺麗すぎるのですね。

 ところが、以前も書いたが、これらのモデリング系コンプをソフトシンセに使うと、ソフトシンセの良さが死んでしまい、まるでハードシンセの音みたいになるんですわ。これは実機モデルのEQやチャンネルストリップでも同じ。前々から薄々感じていたが、今回色々試してみて確信した。面白いもんで、あれだけ技術の粋を集めた実機モデリングが、完全無駄で有害なものになってしまう。
 ソフトシンセって、なんのかんのいって「デジタルな美しさ」があるじゃないですか? 歪み感や汚れとは無縁の無垢で澄み切った感じ。作曲勢の皆様ならわかりますよね(w)。
 これはこのまま活かしたいわけで、となると実機モデルなんてもってのほか。コンプなんかWaves C1でいいし、EQなんかQ10でいい。なんならどっちもDAW付属のやつで充分。余計な色づけは一切ない方が望ましいのです。

 面白いですねえ、ソフトシンセってのはパソコン内のみの“生命体”だから、実機のしがらみ?なんかで汚さない方がいいんだな、こいつらは。逆にハードシンセ風にしたかったら実機モデル使えばいい。
 今風の打ち込み曲だったらこれでOK、今はプラグインも多種多様だから、適材適所で色々と使い分ける必要があるわけです。これらは全て最終的には良い音をリスナーに届けるための工夫。

 作り手としてはリスナーにkneeと微笑んで欲しいわけですね、コンプだけに。
(わかるかな~?w)

ボーカルトラックの処理

 歌物楽曲を制作していると、ミックスの段階でボーカルトラックの処理が発生します。歌物というからには最も重要なのがボーカルなわけで、その処理にはいつも最大の手間を掛けています。
 人間が一番聞きなれている音楽の要素が「歌」なわけで、ここを疎かにすると、即座に曲の難点としてリスナーに認識されてしまう、という事情もある。

(もっとも、これは制作屋の言い方で、歌手・アーティストさんは、まず心に届く歌を吹き込む、というその前の段階がある。実際のレコーディングでも、マイクを「吹かない」歌い方とか、レベルを適正に保つ発声法とか、色々あるはずですね。自分のところへはレコーディング済みのものが届くので)

 で、ここに普通は10前後のプラグインを挿して調整を繰り返し、ようやくCDや配信などで聴くのと同じ品質・音質のトラックになります。EQやコンプレッサーが複数、チャンネルストリップやらディエッサーやら、まあ色々です。その中には外した音程を修正するプラグインもある。
(おっと、その前にトラックのノイズ除去やら、ブレス(息継ぎ)の消去処理、この辺は自分はWAVを直接編集してますが。リズム修正もここ。そして複数テイクから良いところばかりをつなぎ合わせる、ってのも時々ある)

 こんな感じでボーカル処理のプロセスは成り立っているのですが、現代のミキシングエンジニアには必須のスキルといえるでしょう。
 ただ、作業工程がほぼノウハウ化して決まってしまっている分、あまりにガッツリやりすぎると、人間の歌なのにまるでボカロのように聞こえることもままある。もちろん最初からそれを目指している曲ならいいのですが(ケロるやつとかね)、普通の楽曲ではあくまで人間の歌として聞こえて欲しいわけで、今はあきらかに「やりすぎ」の方へ振れているんではないか、と感じることもある。
 極端な話、多少声がかすれたり音程が外れていても、それが音楽的に正解だったら、それでいいじゃないですか? あまりにパラノイア的に直していくと、だんだん人間味が薄れ、「良い音楽」って方向からは外れていくんじゃないか? 個人的にはそんな風に思ってます。
(ジャズやフュージョンなど器楽曲で、音が外れたりリズムを外しても、それがいい演奏・アドリブなら採用されるわけで、それと同じです)

 もっとも、クライアントさんが完全に直してくれ、というリクエストを投げてきたら、この限りではありませんが。

 まあつまり、あまりに完璧にプロセスするとまるでアンドロイドみたいになりますよ、ってことです。どこかに人間味を残しておいた方が、きっとリスナーの心にも届くでしょう。過ぎたるはなんとやらですわ。
 で、結局このあたりの加減は、ミキサーも音楽がわかっていないと正しい判断はできないわけで、やっぱりただの「エンジニア」では務まらないんですね、この職種も。

 自分なりのボーカルトラック処理論を書いてみました。
(昔は、音程の修正とか一切できなかったから、レコーディングは苦労したろうなあと思う)

デモ曲追加・ピアノ曲小品

 デモ曲追加です。

 夜に実家にいたら、野良猫2匹が外で大喧嘩。ガタガタガタガタ、バタバタ、ギャニャニャニャニャ、ガタガタ、フーッって音が家の周りを駆け巡る(笑)。そんな状況からヒントを得た曲です。

「ノラ猫の死闘」

 最後まで聞くと少しほっこりしてもらえます。たまにはこんなのも。

 しかし、意外にピアノだけって曲もミックスは簡単じゃない。綺麗に仕上げようとすると、結局EQやコンプを掛けざるをえなくなる。
 実際のクラシックのピアノ曲の録音現場でも、きっと色々裏でやっていると思う。到底、マイクを立てておけば勝手に録れる、ってもんじゃないですね。

アコーディオンのマイキング

 アコーディオンの録音(マイキング)方法について解説した珍しいページを見つけましたのでシェア。(しばらくアコのことを書かないと禁断症状が…)

アコーディオンのマイキング、8つの方法
http://www.shureblog.jp/shure-notes/%E3%82%A2%E3%82%B3%E3%83%BC%E3%83%87%E3%82%A3%E3%82%AA%E3%83%B3%E3%81%AE%E3%83%9E%E3%82%A4%E3%82%AD%E3%83%B3%E3%82%B0%E3%80%818%E3%81%A4%E3%81%AE%E6%96%B9%E6%B3%95/

 といっても、マイク・音響機器メーカーのSHUREのブログですが、なかなか質のいい情報だったので。あっ……今オヤジギャグ思いついたけど我慢する(←察してくれ)。

 それよりつかみのジョークが凄いぞ。

「あんまり治安が良くない場所で、車の後ろの座席にアコーディオンを置いたまま、車を降りて店に入った人がいたんだって。車に戻ってきたら、窓が開けっぱなしだったことに気がついたんだ。焦って車に乗り込んで、後ろの座席をチェックしたら…アコーディオンが二つに増えてたんだって!」

 いや、ちょっと待て(笑)。欧米ではそれだけありふれた物ってことですかね? ジョン・レノンの最初の楽器もアコーディオンだったって書いてある。
 このページにもあるし、その手の本にも書いてあるけど、アコの原型は紀元前の中国で出来たものらしい。それがいきなり19世紀のヨーロッパで改良・発展して現在の形になったそう。アメリカではピアノ鍵盤のタイプが多く、欧州ではクロマチック(ボタン)が主流って書いてある。

 こういうマイクでこんな風にセッティングするとこんな音で録れるよ、って実例が並べてあるので分かりやすい。アコは右手部分と左手部分のレジスターに、リードがパネル裏表にズラッと並べてあるので、やはり一番実感に近い音で録れるのは、右・左にマイクを1本づつ立てた場合らしい。
 これだと右手(メロ)と左手(ベース&コード)がはっきり分離して録れますね、当然ながら。

 少し離れたところからアンビエンス(残響)も含めて録るってやり方も実はポピュラーで、アンサンブル感を重視する場合は、この方法が多いかも?(いわゆるオフな感じ、前述のやつはオンな音)
 国内のアコーディオン奏者の皆さんの録音を聞いていても、この「L/R分離派」と「アンビエンス派」の2通りに分かれるみたい。(大抵、特定の奏者はどちらかの方式で固定してることが多い、サウンドイメージが変わってしまいますからね)

 さすがにライブのPAだと、レコーディングとは違ってくるとは思いますが。特に、あれだね、襲いくるナマハゲを笑止千万といった表情で待ち受けるアコーディオニストの音を録る時は、クリップマイクみたいなヤツで録るしかないわな、ワイヤレスで(極端な例)。

 まあ、ぶっちゃけ自分は打ち込みなんですけどね、今度試しに録ってみるかなあ。サンプリング音源のアコーディオンでも、高品質なやつはやっぱり左右きっちり分かれてますね、打ち込みも別々入力。ベローズ(ふいご)の開け閉めはMIDIのModulation信号等で行い、音色・音量がリアルタイムで変化します。キーの打鍵音もVelocityで強弱ついたりする。
 といっても、最終的には生楽器(+名プレイヤー)には絶対勝てるわけがないので、このあたりは割り切るしかない。でも、ダメなプレイヤーの生より、今は打ち込みが勝ってしまう時代ではあります。キビシイのよ、音楽業界も。

 逆にそれだけ名プレイヤーの生演奏には、高い価値が認められているということでもあります。テクノロジーの発達で生演奏の価値が上がってるのだから、面白いですね。

ディザリングのニッチな問題話

 いやぁ、最近ちょっとは耳が良くなったかな、earだけに。
 …そろそろ誰か止めてくれ。

 音楽制作で、マスタリングまでやっていると、必然的にぶち当たるのがデジタル変換ノイズの問題。パソコンを使った制作だと、内部的には音もすべてデジタル処理される訳ですが、最後にCDに焼くためのデータ化の時、内部データと仕様が違うと、変換処理しなけばならなくなります。CDと同じデータ形式(44.1kHz/16bit)ならそのままでOKだけど、今は高音質化のため大抵48kHz/24bitで行っているので、ここでどうしてもコンバートが必要になります。ところが何も考えずに変換すると、原理上耳障りなノイズが乗ってしまい、かなりマズいわけ。これを目立たなくするために、わざと最初から極小ノイズを乗っけてカモフラージュする、これがディザリングの原理です。(というか、自分はそう理解しているぞ)

 少し前、CDリリース用のデータを準備する機会があったんですね。それで、マスタリング後のデータ48/24を、44.1/16に書き出したわけです。ここで当然、ディザリングの出番です。Sonnoxのリミッターに16bitディザーが入っているので、これを最終段に通してディザーONにしたんです。
 ところがね……どうもこれが調子良くない。書き出したファイルを確認すると、なんだか全体的に透明度が失われていて、それこそディザーで汚しました感がしっかり出ちゃってる。
 ディザーをオフにしてもまだおかしいので、一度リミッターを外して、そのままで書き出してみた。そうしたら、非常にすっきりと透明度の出た、きれいな音だったわけ。おかしいなあ?ディザリングしてないハズのに、なんでこんなにいい感じに変換できるのか。ミックスの加減でこういうこともあるのかな、などと思っていた。

 しかし、流石にこのまま納品してしまうのも怖い、ディザリングは常識だし……と思い、もしや?とDAWのマニュアルを隅々までチェックしたが、それ系の設定項目はなし。我らが(株)インターネットが誇る最先端DAW「ABILITY PRO2.5」が自動でディザリングなんて気の利くことする訳ないし……と悩んだ末、とうとうサポートに質問投げてみた。

 翌日来た回答は……なんだったと思いますか? なんと、書き出しデータ形式を変えると、自動でディザリング処理してたんですよ! おい、それならそうと早く言え!(笑) あやうく二重に掛けて納品するところだったじゃないか。道理でSonnoxリミッターでノイズが乗ったような音になるわけだわ。これインタネWebの機能比較表には確かに載ってるが、マニュアルには一切記述がない。大丈夫かなあ、自分のほかにもプロで愛用者いると思うが、知らずに二重ディザーやっちまってる人がいたりしないか。ユーザー少ないから大丈夫?そうですか。

 いやもう、自分の耳は信用した方が良い、最後に頼れるのは自分の耳って話ですわ。
 これもデモ曲用に結構マスタリングをやってきたから、耳が出来てきてた、っていう流れなんだと思う、明らかに。

 まあ、ディザリングを切れない(=任意のディザーソフトを使えない)のは問題だけど、48/24のまま書き出してOZONEでやってもいいし……しかし注意書きは欲しかった。

 蛇足ながら、Sonnoxリミッターにも怖ろしいクソ仕様を発見した。こいつのディザーは、オンにすると16bitディザーとして働き、オフにすると24bitディザーになります。
 つまり、どうやっても絶対に切れないって寸法。おいちょっと(笑)、そんなのアリ? 道理でオフにしても音がおかしかったわけだ。ひゅー冷や汗。マスタリング最終段専用やん。
 というか、自動ディザリングのABILITYでは使っていけないリミッターじゃないか(笑)。えぇぇ?これヤバすぎっしょ。インタネさんOFFスイッチ付けて。

 ボカロP時代には良く使ってたが、最近は使ってなかった、ああ良かった。思えば昔はディザーなんて全く気にせずやってたなあ、どうせ128のmp3より音が悪いかも?って世界だったし。

 以上、優雅な生楽器プレイヤーの皆さまには無関係な、制作屋特有のエピソードでございました。

(追記/書き忘れてたが、SonnoxリミッターはABILITYに付属してます。ニッチな問題だけににっちもさっちもいかない、ルイ・アームストロングちゃうで)