カテゴリー: MIX

Eギターのミックスで気付いたこと

 といっても例によって打ち込みですが、エレキギターというものはアンプと組み合わさって初めて一個の「楽器」となるわけですね。正確にいうとアンプと(ペダル)エフェクターか。
 今の音楽制作だと、ご存知のない方は驚くと思いますが、ギター音源はギターのほぼ生音そのまんましか入ってない、それに本物と同じように、プラグインのエフェクターやアンプを繋げ、それをマイクで拾う、というところまでパソコン内でできてしまう。こうすると、打ち込みかリアルかの判別は非常に困難といっていい、ベタ打ちじゃない限り。特に歪ませてしまうとまあ判別不能。(それでも微妙なニュアンスや、音の揺れやノイズなどで、結局は本物が一番なのも事実)

 で、こうなると実際と同じように音作りをしなければならないわけで、リアルな分面倒といえば面倒(この分野にもプリセットはあるが)。
 今は打ち込みのことを書いたけど、別段アンプシミュレーターは本物のギターに使ってもいい。リアルタイムの音出しにも、録音にも使えます。というか、今の主流はこっちの用途の方が大きいのかな? エフェクターやアンプを持ち運ばなくてもノートパソコンがあればそれで済んでしまう(やや簡易版だがスマホ用もある)。

(ここからいきなり作曲勢にしかわからん話)
 で、最近少しづつアンプシミュをGuitar Rig5からAmplitube4にしてみてるんだけど、アンプリはリアルで確かに音がいいんだが、その分結局ミックスで苦労するんですわ。Guitar Rigは、作曲中に音を聞くとなんだか冴えない音抜け悪い感じなんだけど、ミックスするとかなりハマる。だから用途が違うのかもしれんね。アンプリはリアル用、ギタリグは打ち込み用の製品じゃないのかしらん。イタリアvsドイツで、音にもお国柄が出てる気がする。アンプリはスカっといい音だが暴れ馬、ギターリグは糞真面目なドイツ人のカチコチ感がある。
 それでも流石にギターリグは音をもう少し何とかして欲しいって思う時があるから、両者のちょうど中間くらいの製品があったら嬉しいんだが。Ver6に期待か。
(BIASもリアルな分、ミックスで苦労するのかな?)

 ちなみにWavesのアンプシミュは、なんだか無印駄アンプの音がして、それはそれで嫌いじゃない(w)。世の中ブランド製品じゃないのも欲しい時があるじゃないですか? 根無し草なのはイスラエルだからか。あとストンプは意外と出来がいいです、皆持ってると思うから一度試して下さい。(これもなんかのモデルって感じじゃないが)

 悩める秋の夜長に。

ミックスTIPS: ボーカルの位相ズレ

 たまには気紛れに実用的なTIPSシリーズ。
 この前のデモ曲で、ボーカルトラックを処理していて気付いたこと。どうも一箇所、位相が狂っているのか、フレーズの最後の部分で、フランジャーが掛かったような音になってしまう箇所がありました。
 変なコンプを強めの設定でかけるとこうなりがちだけど、その時はWaves CLA-2Aとか筋のいいやつしかプラグインチェインの中になかった。
 案の定これをオフにしても同じだし、EQはこれまたかなりインテリジェントなRenaissance EQ、試しにOFFにしても同じ。それでなんだろうと色々と試していた。

(ボーカルトラックの処理は、一番気を遣う箇所です。人間の耳が最も聞き慣れていているのは人の声なので、少しでも変なところがあるとリスナーはすぐに不自然だと気付きます。今回のは放置できない)

 この時も10本程度はプラグインがぶら下がっていました。
 最終的に、犯人は意外なヤツでした。それはDeEsser。これも特殊用途のコンプなんですね、「サ行」の音みたいな気になる音の周波数帯だけ瞬間的に圧縮して軽減します。これが効き過ぎていて、位相が乱れてしまっていたわけ。

 さてどうしたもんか、スレッシュルドを上げると軽減がぬるくなるしな、と思ったのだが、そういやRenaissance DeEsserがあることを思い出し、こいつを挿したら一発で止まりました(w)。やっぱりルネッサンスシリーズは、内部でかなりインテリジェントな処理をしてるんですね、超便利。
 こいつとDeBreath(ブレス軽減プラグイン)は有用なので、もし未使用の向きは使った方が良いです。ほぼ何も考えなくても破綻せず使えますからね。
(まあブレスノイズは必ずWav編集で消してるけど、消せないやつもある)

 他にこの曲だと、特定箇所でエレピの音とボーカルが重なって波形合成現象らしきものが起こって、ブッチ音が発生した、これも2mixに落とすまでは発生しなかった現象。それでミックスにもどって、ここだけエレピの音を一瞬絞って解決した。こういう変なことが、ミックスをやっていると時々起こります。このあたりは本を見ても書いてないし、自分で原因を予想して対処していくしかない。
 ミックスがエンジニアリング(工学)の範疇だといわれるのもわかりますね。

コンプレッサー小論

 最近ミックスしてて気付いたこと。

 ミックスダウンの必需品といえばコンプレッサー。本来はトラックごとの音量感を揃えたり音圧を出したりといった用途のプラグインですが(ハードもあるけど)、最近ではもっと積極的に音質を変えたり、アタックやリリースを調整してノリを変えたりと、音作りツールとしての価値の方が重要視されてる。いわば音の色付けですね。

 そこで、スタジオにあるハードコンプをモデリングしたプラグインが多種多様作られ大人気なわけですが、これらはかなりはっきりと色の付くものが多いように感じます。もしかしたら本物より更に本物っぽい、って言い方も変だが、ちょっとマンガチックに誇張されているものもあるんじゃないだろうか。でないとユーザに文句言われそうだもんね、効果がはっきりしない、なんてね。
 で、それはそれで使う方もわかっていればいいわけで、実際自分も大好物で、打ち込みの楽器をリアルにしたい時に大変効果的だったりします。これは宅録したハードシンセに使っても同じ効果がある、宅録のシンセ類は音がやっぱりアッサリ綺麗すぎるのですね。

 ところが、以前も書いたが、これらのモデリング系コンプをソフトシンセに使うと、ソフトシンセの良さが死んでしまい、まるでハードシンセの音みたいになるんですわ。これは実機モデルのEQやチャンネルストリップでも同じ。前々から薄々感じていたが、今回色々試してみて確信した。面白いもんで、あれだけ技術の粋を集めた実機モデリングが、完全無駄で有害なものになってしまう。
 ソフトシンセって、なんのかんのいって「デジタルな美しさ」があるじゃないですか? 歪み感や汚れとは無縁の無垢で澄み切った感じ。作曲勢の皆様ならわかりますよね(w)。
 これはこのまま活かしたいわけで、となると実機モデルなんてもってのほか。コンプなんかWaves C1でいいし、EQなんかQ10でいい。なんならどっちもDAW付属のやつで充分。余計な色づけは一切ない方が望ましいのです。

 面白いですねえ、ソフトシンセってのはパソコン内のみの“生命体”だから、実機のしがらみ?なんかで汚さない方がいいんだな、こいつらは。逆にハードシンセ風にしたかったら実機モデル使えばいい。
 今風の打ち込み曲だったらこれでOK、今はプラグインも多種多様だから、適材適所で色々と使い分ける必要があるわけです。これらは全て最終的には良い音をリスナーに届けるための工夫。

 作り手としてはリスナーにkneeと微笑んで欲しいわけですね、コンプだけに。
(わかるかな~?w)

ボーカルトラックの処理

 歌物楽曲を制作していると、ミックスの段階でボーカルトラックの処理が発生します。歌物というからには最も重要なのがボーカルなわけで、その処理にはいつも最大の手間を掛けています。
 人間が一番聞きなれている音楽の要素が「歌」なわけで、ここを疎かにすると、即座に曲の難点としてリスナーに認識されてしまう、という事情もある。

(もっとも、これは制作屋の言い方で、歌手・アーティストさんは、まず心に届く歌を吹き込む、というその前の段階がある。実際のレコーディングでも、マイクを「吹かない」歌い方とか、レベルを適正に保つ発声法とか、色々あるはずですね。自分のところへはレコーディング済みのものが届くので)

 で、ここに普通は10前後のプラグインを挿して調整を繰り返し、ようやくCDや配信などで聴くのと同じ品質・音質のトラックになります。EQやコンプレッサーが複数、チャンネルストリップやらディエッサーやら、まあ色々です。その中には外した音程を修正するプラグインもある。
(おっと、その前にトラックのノイズ除去やら、ブレス(息継ぎ)の消去処理、この辺は自分はWAVを直接編集してますが。リズム修正もここ。そして複数テイクから良いところばかりをつなぎ合わせる、ってのも時々ある)

 こんな感じでボーカル処理のプロセスは成り立っているのですが、現代のミキシングエンジニアには必須のスキルといえるでしょう。
 ただ、作業工程がほぼノウハウ化して決まってしまっている分、あまりにガッツリやりすぎると、人間の歌なのにまるでボカロのように聞こえることもままある。もちろん最初からそれを目指している曲ならいいのですが(ケロるやつとかね)、普通の楽曲ではあくまで人間の歌として聞こえて欲しいわけで、今はあきらかに「やりすぎ」の方へ振れているんではないか、と感じることもある。
 極端な話、多少声がかすれたり音程が外れていても、それが音楽的に正解だったら、それでいいじゃないですか? あまりにパラノイア的に直していくと、だんだん人間味が薄れ、「良い音楽」って方向からは外れていくんじゃないか? 個人的にはそんな風に思ってます。
(ジャズやフュージョンなど器楽曲で、音が外れたりリズムを外しても、それがいい演奏・アドリブなら採用されるわけで、それと同じです)

 もっとも、クライアントさんが完全に直してくれ、というリクエストを投げてきたら、この限りではありませんが。

 まあつまり、あまりに完璧にプロセスするとまるでアンドロイドみたいになりますよ、ってことです。どこかに人間味を残しておいた方が、きっとリスナーの心にも届くでしょう。過ぎたるはなんとやらですわ。
 で、結局このあたりの加減は、ミキサーも音楽がわかっていないと正しい判断はできないわけで、やっぱりただの「エンジニア」では務まらないんですね、この職種も。

 自分なりのボーカルトラック処理論を書いてみました。
(昔は、音程の修正とか一切できなかったから、レコーディングは苦労したろうなあと思う)

デモ曲追加・ピアノ曲小品

 デモ曲追加です。

 夜に実家にいたら、野良猫2匹が外で大喧嘩。ガタガタガタガタ、バタバタ、ギャニャニャニャニャ、ガタガタ、フーッって音が家の周りを駆け巡る(笑)。そんな状況からヒントを得た曲です。

「ノラ猫の死闘」

 最後まで聞くと少しほっこりしてもらえます。たまにはこんなのも。

 しかし、意外にピアノだけって曲もミックスは簡単じゃない。綺麗に仕上げようとすると、結局EQやコンプを掛けざるをえなくなる。
 実際のクラシックのピアノ曲の録音現場でも、きっと色々裏でやっていると思う。到底、マイクを立てておけば勝手に録れる、ってもんじゃないですね。

アコーディオンのマイキング

 アコーディオンの録音(マイキング)方法について解説した珍しいページを見つけましたのでシェア。(しばらくアコのことを書かないと禁断症状が…)

アコーディオンのマイキング、8つの方法
http://www.shureblog.jp/shure-notes/%E3%82%A2%E3%82%B3%E3%83%BC%E3%83%87%E3%82%A3%E3%82%AA%E3%83%B3%E3%81%AE%E3%83%9E%E3%82%A4%E3%82%AD%E3%83%B3%E3%82%B0%E3%80%818%E3%81%A4%E3%81%AE%E6%96%B9%E6%B3%95/

 といっても、マイク・音響機器メーカーのSHUREのブログですが、なかなか質のいい情報だったので。あっ……今オヤジギャグ思いついたけど我慢する(←察してくれ)。

 それよりつかみのジョークが凄いぞ。

「あんまり治安が良くない場所で、車の後ろの座席にアコーディオンを置いたまま、車を降りて店に入った人がいたんだって。車に戻ってきたら、窓が開けっぱなしだったことに気がついたんだ。焦って車に乗り込んで、後ろの座席をチェックしたら…アコーディオンが二つに増えてたんだって!」

 いや、ちょっと待て(笑)。欧米ではそれだけありふれた物ってことですかね? ジョン・レノンの最初の楽器もアコーディオンだったって書いてある。
 このページにもあるし、その手の本にも書いてあるけど、アコの原型は紀元前の中国で出来たものらしい。それがいきなり19世紀のヨーロッパで改良・発展して現在の形になったそう。アメリカではピアノ鍵盤のタイプが多く、欧州ではクロマチック(ボタン)が主流って書いてある。

 こういうマイクでこんな風にセッティングするとこんな音で録れるよ、って実例が並べてあるので分かりやすい。アコは右手部分と左手部分のレジスターに、リードがパネル裏表にズラッと並べてあるので、やはり一番実感に近い音で録れるのは、右・左にマイクを1本づつ立てた場合らしい。
 これだと右手(メロ)と左手(ベース&コード)がはっきり分離して録れますね、当然ながら。

 少し離れたところからアンビエンス(残響)も含めて録るってやり方も実はポピュラーで、アンサンブル感を重視する場合は、この方法が多いかも?(いわゆるオフな感じ、前述のやつはオンな音)
 国内のアコーディオン奏者の皆さんの録音を聞いていても、この「L/R分離派」と「アンビエンス派」の2通りに分かれるみたい。(大抵、特定の奏者はどちらかの方式で固定してることが多い、サウンドイメージが変わってしまいますからね)

 さすがにライブのPAだと、レコーディングとは違ってくるとは思いますが。特に、あれだね、襲いくるナマハゲを笑止千万といった表情で待ち受けるアコーディオニストの音を録る時は、クリップマイクみたいなヤツで録るしかないわな、ワイヤレスで(極端な例)。

 まあ、ぶっちゃけ自分は打ち込みなんですけどね、今度試しに録ってみるかなあ。サンプリング音源のアコーディオンでも、高品質なやつはやっぱり左右きっちり分かれてますね、打ち込みも別々入力。ベローズ(ふいご)の開け閉めはMIDIのModulation信号等で行い、音色・音量がリアルタイムで変化します。キーの打鍵音もVelocityで強弱ついたりする。
 といっても、最終的には生楽器(+名プレイヤー)には絶対勝てるわけがないので、このあたりは割り切るしかない。でも、ダメなプレイヤーの生より、今は打ち込みが勝ってしまう時代ではあります。キビシイのよ、音楽業界も。

 逆にそれだけ名プレイヤーの生演奏には、高い価値が認められているということでもあります。テクノロジーの発達で生演奏の価値が上がってるのだから、面白いですね。

ディザリングのニッチな問題話

 いやぁ、最近ちょっとは耳が良くなったかな、earだけに。
 …そろそろ誰か止めてくれ。

 音楽制作で、マスタリングまでやっていると、必然的にぶち当たるのがデジタル変換ノイズの問題。パソコンを使った制作だと、内部的には音もすべてデジタル処理される訳ですが、最後にCDに焼くためのデータ化の時、内部データと仕様が違うと、変換処理しなけばならなくなります。CDと同じデータ形式(44.1kHz/16bit)ならそのままでOKだけど、今は高音質化のため大抵48kHz/24bitで行っているので、ここでどうしてもコンバートが必要になります。ところが何も考えずに変換すると、原理上耳障りなノイズが乗ってしまい、かなりマズいわけ。これを目立たなくするために、わざと最初から極小ノイズを乗っけてカモフラージュする、これがディザリングの原理です。(というか、自分はそう理解しているぞ)

 少し前、CDリリース用のデータを準備する機会があったんですね。それで、マスタリング後のデータ48/24を、44.1/16に書き出したわけです。ここで当然、ディザリングの出番です。Sonnoxのリミッターに16bitディザーが入っているので、これを最終段に通してディザーONにしたんです。
 ところがね……どうもこれが調子良くない。書き出したファイルを確認すると、なんだか全体的に透明度が失われていて、それこそディザーで汚しました感がしっかり出ちゃってる。
 ディザーをオフにしてもまだおかしいので、一度リミッターを外して、そのままで書き出してみた。そうしたら、非常にすっきりと透明度の出た、きれいな音だったわけ。おかしいなあ?ディザリングしてないハズのに、なんでこんなにいい感じに変換できるのか。ミックスの加減でこういうこともあるのかな、などと思っていた。

 しかし、流石にこのまま納品してしまうのも怖い、ディザリングは常識だし……と思い、もしや?とDAWのマニュアルを隅々までチェックしたが、それ系の設定項目はなし。我らが(株)インターネットが誇る最先端DAW「ABILITY PRO2.5」が自動でディザリングなんて気の利くことする訳ないし……と悩んだ末、とうとうサポートに質問投げてみた。

 翌日来た回答は……なんだったと思いますか? なんと、書き出しデータ形式を変えると、自動でディザリング処理してたんですよ! おい、それならそうと早く言え!(笑) あやうく二重に掛けて納品するところだったじゃないか。道理でSonnoxリミッターでノイズが乗ったような音になるわけだわ。これインタネWebの機能比較表には確かに載ってるが、マニュアルには一切記述がない。大丈夫かなあ、自分のほかにもプロで愛用者いると思うが、知らずに二重ディザーやっちまってる人がいたりしないか。ユーザー少ないから大丈夫?そうですか。

 いやもう、自分の耳は信用した方が良い、最後に頼れるのは自分の耳って話ですわ。
 これもデモ曲用に結構マスタリングをやってきたから、耳が出来てきてた、っていう流れなんだと思う、明らかに。

 まあ、ディザリングを切れない(=任意のディザーソフトを使えない)のは問題だけど、48/24のまま書き出してOZONEでやってもいいし……しかし注意書きは欲しかった。

 蛇足ながら、Sonnoxリミッターにも怖ろしいクソ仕様を発見した。こいつのディザーは、オンにすると16bitディザーとして働き、オフにすると24bitディザーになります。
 つまり、どうやっても絶対に切れないって寸法。おいちょっと(笑)、そんなのアリ? 道理でオフにしても音がおかしかったわけだ。ひゅー冷や汗。マスタリング最終段専用やん。
 というか、自動ディザリングのABILITYでは使っていけないリミッターじゃないか(笑)。えぇぇ?これヤバすぎっしょ。インタネさんOFFスイッチ付けて。

 ボカロP時代には良く使ってたが、最近は使ってなかった、ああ良かった。思えば昔はディザーなんて全く気にせずやってたなあ、どうせ128のmp3より音が悪いかも?って世界だったし。

 以上、優雅な生楽器プレイヤーの皆さまには無関係な、制作屋特有のエピソードでございました。

(追記/書き忘れてたが、SonnoxリミッターはABILITYに付属してます。ニッチな問題だけににっちもさっちもいかない、ルイ・アームストロングちゃうで)

作曲してる時の表情問題

 先日、とあるアーティストさんのキャンペーン・ライブ中の写真を見せて貰ったのですが、なんというか、アーティストの皆さんはやっぱりライブをしている時、一番良い顔をしてらっしゃいますね。正直、格好いいのです。
 シンガーさんなら歌っている時、ピアニストならピアノを弾いている時、それは一番似合っているし、これが音楽の面白く得なところだと思うけど、自然と一挙一動がキマってしまいます。改めて思うがこの格好良さは本当に不思議。結局そこで「表現」が生まれているから、そうなるんでしょうね。
 音楽には形がない、目には見えないから、抽象度が高く、それが故に素晴らしい音を「そこ」で作り出す人は、とてもクールに見えるわけです。

 こうしてみると、作曲家はとても地味な裏方だなあと思う(まあ好きでやってるのですが)。果たして作曲している時、自分はどんな顔をしているだろうか。
 たぶん各段階で違うと思うんだけど、純粋にメロディを作っているときは、モチーフの部分は大抵別録りで関係ないとして、Aメロああでもないこうでもない……とやっている時は、首を捻ったり、詰まれば苦悶(?)。何度もプレイバックしたり、結構ノッポさんの「でっきるかな」感覚。

 コード進行を考えている時は、コードの機能や理論を横に見つつも、もっと感覚的。理論的には正しくても、メロと合わせるとトンデモなくダサい進行ってあるので。結局気持ちいいか気持ち良くないか。非機能的な進行がハマった時はよっしゃあ!って感じ。

 アレンジしているときは、一番空想というイメージを働かせているかもしれない。このパートはこの楽器でこんな動きにしようとか、パートごとの流れを見つつ、やっぱり完成形を脳内イメージしつつ作業。いいアレンジを思いつくと、結構ニコニコしている気がする。人に見せるならここだな(笑)。

 ここまでは世間一般の作曲で、結構脳内のイメージや音感を総動員している感じですが、ミックス作業となると全然頭を使う場所が違ってくる。クリエイティブというのとはちと違う。エンジニアリングといわれる通り、工学であり純粋な作業に近い(もちろん創造性を発揮できる箇所もあるが)。

 まあ、なんといっても、まず人に見せられない顔をしているのは、DAWが落ちた時(笑)。絶対マヌケな顔をしてるはず。「あっ」「ひょっ」「うわ落ちよった」「うそーん」などと、2回に1回くらいは裏返った声出てますしね。そりゃそうだよ、下手すると1時間近い作業が全部飛んでしまうんだから。それでも最近はこまめにセーブするんで、大抵最大10分位で助かっている。
 といっても、自分の使っているDAWがなかなか頑強で作曲中は滅多に落ちないのですが、ミックス中は逆に落ちやすい。重いプラグインを多数のトラックに差しまくるからね。曲をバウンス(オーディオ書き出し)して最後の最後でスッとDAWが落ちた日にゃ、そりゃ声も出るぜ。

 どうですか、作曲勢の皆さんなら覚えがあるでしょう(笑)。僕はあたしは知りません、などとは言わせませんよ。
 DAWが落ちても、いつも静かに笑っていられるような境地になって初めて(そう、まさに「雨ニモ負ケズ」のように)、一流の作曲家といえるだろう。いや本当かこれ。

「ブルーライト・ヨコハマ」の秘密

 いつか聞こうと思い買ってあった古いレコードが何枚かあり、その中に「園まり」のアルバムがありました。調べたら1969年発売のものらしいが、今でいうカバーアルバム。昔の歌手はカバー曲をよく歌っていて、オリジナルアルバムでも半分くらいカバーとか良くあった、しかもほとんどアレンジが同じとか。
 まあそれはいいとして、この中に「いしだあゆみ」の大ヒット曲「ブルーライト・ヨコハマ」が入っていて、懐かしいなあと思い聞いてました。
(今じゃすっかりブルーライトは悪者だけど、港の照明のことだからね)

 さすがに当時は自分も幼稚園に行くか行かないかの子供(w)。ほんと日本人なら誰でも知ってる、という位の流行りようで、「ものすごくきれいな大人のお姉さん」がおしゃれで都会的な歌を歌っているなあ、と、無論そんな言葉も知りませんでしたが、あとから思い返してみればそんな印象。(その後何年も歌番組で歌われていて、そっちの記憶だろうなあ)

 で、園まりのブルーライト・ヨコハマも良かったのですが、やっぱりアレンジがほぼ同じ感じ、しかもボーカルのエコー処理まで同じ、それで「おっ」と思った。
 原曲を知っている方は思い出してみてください。ボーカルに独特のクリアなエコー(ディレイ=やまびこみたいな残響)が掛かっていませんでしたか? あれでかなり曲の印象がお洒落になってると思いますが、まだ1968年ですので、ハードのデジタルディレイなんて絶対ありません。テープレコーダーの技術を応用したテープディレイならありましたが、やはりこんなクリアな音は出ません。
 では、このディレイの正体は何か? なんだと思いますか?(笑)

 これが今回の本題ですが、ほら、やっぱり分析始めちゃうんですよ。
 で、まあ、答えをいうと、これがエコー・チェンバー(ルーム)だったんですが。

 床や壁をタイル張りにして音がよく反響する小部屋を用意します、その中にスピーカーとマイクを入れれば、はい!エコーチェンバーの出来上がり。あとはボーカルだけスピーカーから流してマイクで拾えば、あのクリアなディレイが得られるというワケ。昔はこんな苦労してたんですね、今からするとアナログで物凄く面白いけど。
(このあと鉄板を使ったプレートリバーブや、スプリングリバーブが開発される)

 海外の古いスタジオにはまだ現存するところもあるらしいが、国内にはもうないでしょう。(お大尽のプライベートスタジオならもしや?)

 実はこれ、なんで気付いたかというと、どこかにミキシング話が載っていたわけでもなく、音でわかったのですね。

 最近、またまたWavesのプラグイン、「Abbey Road Chambers」を買いまして。はい、もうオチが分かった人もいると思いますが、これのデフォルトの音がブルーライトヨコハマのディレイとほぼ同じ(笑)。本当に同じ質感なんで、びっくりですわ。エコーチェンバー再現を目的にしてるとはいえ、よく出来たプラグインだなあ、と。流石世界のARスタジオは期待を裏切らない。
 こんなやつです(↓)。部屋、ありますよね。柱は定常波による一種のハウリングを防ぐためのもの。

 50年からの時空を超えて、こんな形でブルーライトヨコハマの謎が解けるとは。という、ファンタスティックな話でした。まあ諸先輩方には常識だったかもしれませんが。

(この曲、Wikipediaによるといしだあゆみさんの26枚目のシングルだそうで、嘘でしょ?当時二十歳そこそこだし……と思ったら、15歳位でデビューし、「毎月」新曲を出していた時期もあったらしい。恐るべし高度成長期の音楽業界! 80年代アイドルの3カ月新曲で驚いている場合じゃない。ってこっちの方が秘密っぽいか)

(思い出したが冨田勲先生が、「新日本紀行」のテーマ曲で柏木に非常に長いリバーブが欲しくなったとき、エコーチェンバーでも足りず、NHKの施設ビルかなんかの階段室で同じことをやった、という話は有名ですね。あの驚異のロングリバーブは、当時謎だったらしいですわ)

デモ曲のミックス改良

 今回はミックスを改良した話。

 生楽器の音が非常によく録れているアルバムを聞いていて(演奏も良かった)、ふと自分のミックスが心配になって、この前書いた曲を聞きなおしてみた。
 するとまあ、こうして比べると低域スカスカのかなり不自然な音に聞こえて、ベースやバスドラがどうこうより、曲全体の空気感が変という感じ。意外とこういうのは気付かないんですね、特にミックス作業の直後は。

 思い当たるところがあって、今回は各トラックの低域をかなりバッサリとEQで削っていて、たぶんそのせいじゃないかと思えた。
 アナライザーで見ても全く信号がない音域なので、いいかと思って。このあたりの音は、目立たないのにエネルギーだけは高いので、うまく処理しないと最終的に音の透明感に影響したり、音圧が上がらなかったります。
 ところが、これが削りすぎるとやはり良くなかったようですね。

 そこでミックスに戻って、削りすぎていたところを戻して、ベースやバスドラも50Hzくらいから下はバッサリいったり、重なっているところはえぐったりしてたので、そのあたりも適宜戻した。あとストラトのエコーが深すぎ他、若干微調整。

 こうして作った新しい2mixに、前と同じ設定のマスターを通して作ったのが、以下のファイルです。
 諸般の事情でmp3ですが320kですし、良いヘッドフォンで聞けば、違いは結構わかると思います。イントロのところが一番分かりやすいと思う。

元ファイル「キミの彼氏はアコーディオン」(若干改良済)

低域EQを修正

 面白いことに、低域をバッサリ削った元のやつのほうが、やはり音圧は上がってるんですね、セオリー通り。ただその分前述のように不自然な感じになるので、やはり(音圧上げだけが目的でないなら)低域の極端なカットは禁物のようです。
(音圧の差は、冒頭のアコーディオンの「鳴り」を聞いて頂ければ、明白ですね)

 参考までに、今回のマスタリング処理で、使用しているプラグインチェインは以下の通りです。

(1)Waves API2500 Compressor
(2)PSP E27 Equalizer
(3)PSP Xenon Limiter

(1)で2mixをまとめつつ若干レベル上げ。
(2)でコンプ処理で失われがちな高域を持ち上げる。
(3)でいよいよ音圧上げ処理。

 API2500は結構はっきりとキャラのつくタイプのコンプで、アメリカンな明るい音になります(悪くいえばチャラい音?)。
 E27も実機のモデリングだそうですが、実機にはトランスが入っているそうで、独特のヌラヌラした音になります。非常に面白い。
 Xenonはオリジナル設計だけど、これまたアナログっぽいイイ感じの歪み成分が付与される感じ、これまた個性的なリミッターです。
 こいつらを通すと、もうDAWで完結しているとは思えないような、アナログ感満載の音になります、お聞き頂いたとおり。こういうところがマスタリングの面白さだったりします。

 で、今回はシンセベース(を、ベースアンプに通してある)とブレイク系の打ち込みドラムのリズムセクションだったので、こういう感じの少し暖かい歪み成分があるマスタリングにしてみましたが(インディーズ風?)、この前買ったWavesのAbbey Road TG Mastering Chainも、せっかくなので試してみました。

 名前の通り、ロンドンのアビーロードスタジオが監修して作られたプラグインです。同シリーズは非常に高品質のプロダクト揃い。
 マスタリングをこいつだけでやってみたのが、以下のファイル。いかがでしょうか? 設定としては前述のやつと似た感じにしたのですが、これは同じ音圧が出ているのにかなり透明感がある仕上がり、しかもアナログっぽいし、ちょっと市販のCDにも近づいた音です。(高域だけは上げすぎてたので若干絞った)

TG Mastering Chainで処理

 かなり優秀だと思いますわ、なかなか使えるやつだと思います。

 ミックスは油断してるとこういうことがあるから、常に気をつけていないといかんですね。

(おっ、でも今聞いたら、コンプを1段抜かした分、2mixのまとまりがなくなってる気がする。こういうの、無限にあるんですよミックス作業はw)