こんばんは。昨日の記事への反応ありがとうございました。
昨日Twitterの質問箱で質問を受けつけたところ、アルバムマスターとは具体的に何が違うのか、という問い合わせがいくつかありました。
どうしても短い文では伝えきれないため、改めて自分の言葉で書いてみようかなと思った次第です。
とはいえ、あらゆるDTM系ブログやYouTube動画解説などで死ぬほどこすられた題材なので、もっと適切な説明はGoogle検索などをすれば容易に見つけられると思います。あくまで、僕の中の捉え方がどうであるか、ということがこの記事の趣旨になると思います
(まさに「いまさらするまでもない音楽の話」なので、ブログタイトル的には本当その通りですね)
さて、音楽の制作、ここでいう制作は「録音物」と定義しますが、実にさまざまな工程を通って出来ています。
みなさんがイメージするところの音楽の制作というのは、おそらくは
・メロディを作る。
・楽器、歌を録音する。
というところが、まあほとんどだと思うのですが
さらにいくつか、重要な工程があります。
その一つが、トラッキングです。
たとえば、みなさんは「多重録音」という言葉を聞いたことがあるかもしれませんが、音楽制作における録音とは、必ずしも同時に演奏して「せーの」で録音してあるとは限りません。
また、同時に演奏されたものでも、たとえばカセットウォークマンやボイスメモのように、ボタンを押してハイおしまい、ということではないものてす。
具体的には、「トラック」や「チャンネル」と呼ばれるものがいくつも並んでいて、たとえば1番にはドラムの音。2番にはベースの音。3番にはギターの音……という形で、別々に録音がされています。
ビートルズの頃(1960年代)には、このトラックというのが4つ使えるテープレコーダーが普及して、それからは8,16……と増えていき。
カセットのようなテープにレコーディングするタイプのものでは、24トラック(チャンネル)というのが、一般的なもので、そのあと、デジタル(データ)に録音するものが開発されたときには、48つも使えるぞ、というのが主流になりました。
さて、当然ながら、いろんな楽器を重ねるには、闇雲に音を重ねていっては、あとで「あれ?ギターの2本目は何番に入っているんだ?」
「コーラスをたくさん重ねてたら、メインボーカルを入れるチャンネルがなくなってしまったよ!」
というような事態に陥ります。
それを防ぐために、何番に何を入れるかを決めて紙などに記載したり、時には4番と5番を混ぜたものを6番に入れて、空いた4番と5番にまた別の楽器を入れて……ということが行われました。これが、トラッキングです。
ですが、ここ20年くらいになって、コンピュータによる録音が手軽に出来るようになりました。
そんな今では、ハードディスクと性能の許す限り、何百チャンネルであろうと録音ができるし、画面上でトラックの名前をつけてしかもそれを並び替えたり、という事が簡単に出来るようになってしまったので、そういう困り事はほぼなくなりました。
とはいえ、このトラッキングと呼ばれる作業に近いことを、データを準備する段階で行わないと、これから紹介しますが、このあとの作業がとても大変になってしまいます。
それがミキシング(またはトラックダウン)と呼ばれる工程です。
すこし音楽に親しみがある方なら、この工程は知っている、という方もいるでしょう。
たとえば、料理を想像してみてください。あなたの前には、パン粉、細切れの肉、じゃがいも、卵が用意されています。
これをそのまま皿に並べても、おいしい食べ物にはなりませんね、これが牛肉コロッケの材料だとすれば、じゃがいもは似てすり潰さなければいけないし、卵とパン粉をつけて揚げないといけません。ちょっと強引な例えですが、この調理に近い作業がミキシングです。
すなわち、録音物をそのまま出しても、曲の持つ感情や情景を完全に表現することはむずかしいのです。
みなさんも、コンサートに行った事があったら、「きょうはボーカルが小さくて、なんだか聴こえなかったよ」とか「ベースが大きすぎて、曲に合わないな」とか感じた事があるかもしれません。
楽器どうしを良く聴くには、当然「バランスを取る」という作業が不可欠なのです。
音量バランスと同時に、例えば「ベースの低音を上げる」「ピアノの高音を下げる」といった、楽器そのものの質感を変える作業も時には行われます。
これは、前述した「トラック」が分かれているから出来ることなんですね。
本来はさらに細かい作業がありますが、それを説明するとそれだけで記事を一つ分は消費してしまいますので割愛します。
そうしてバランスをとった楽曲を、最終的にみなさんが聴くCD、すなわちステレオだったら左と右の合計2チャンネル。それに合成する作業がミキシング(トラックダウン)です。
さて、今回おそらく本題になる「マスタリング」という作業。
前述したミックスダウンが終わった状態の音源(2チャンネルに落とすので2mixなどと呼んだりします。)の、最終的に微調整をする工程です。
これも料理に例えたかったのですがちょっと該当しそうな工程が思いつきませんでした、すみません。
あなたが木を削って彫刻を作ろうとしたとしましょう。
最後に、ヤスリで削って表面を滑らかにしたり、場合によっては色を塗ったりニスを塗ったりして、最終的に綺麗に見えるような仕上げを行うことかと思います。例えるとすれば、これが一番近いかなあと思います。
よくマスタリングについて「音圧(聴感上の音量)を上げる事でしょ?」という声を見かけたりしますが、僕は個人的にはそれはまったく違っていると思っています。
たしかに、一時期のCDにおける音量レベルはとても高く、それこそ一般的なアマチュアが容易に出来るようなものではありませんでした、それはなぜかというと、人間の耳の仕組み的には音量が大きいほうが迫力を感じるとされていて(ライブハウスで大きい音を聴いてたしかにそう感じると思いますが)
結果的に、ラジオやテレビで流れる時に、出来る限り大きい音で鳴るようにしたい、というプロモーションの事情があったのだろうと推測しています。
しかしながら、聴感上の音量を上げる(音圧「上げるというのは、実は非常にリスクの高い行為です。それはなぜかというと、音の大きい部分と小さい部分の差をなくす、すなわち、大きい部分を無理やり潰しているからです。
それは、音楽の持つアタック感や、情感的な音量の変化(ダイナミクスと言ったりします)を損ない、音を歪ませてしまうおそれもあります。
そういった意味で、近年ではあまりそういうことを、しなくはなってきたはずです。
ちょっと導入部分で話が逸れてしまいましたが、ではマスタリングで何をするの?というと、
ひとつは、異なる再生機器で聴いた時の、ばらつきを少なくする。
みなさんの中には、こだわっていいスピーカーを鳴らしたり、高価なヘッドホンを買って使用している方もいるかもしれませんが、音楽を聴く人のほとんどが使用しているスピーカーはそうではないと思います。
たとえば、テレビ。もしくは、ひと昔まえならラジカセ。今ではPC用の小型スピーカー、場合によってはMacbookのスピーカー。もっと言えば、iPhoneやipadのスピーカーのほうが、よっぽど多いかもしれません。
そんな時に、スタジオの高級で巨大なスピーカー、もしくはプロ仕様の高価なヘッドホンで聴いて「完璧だ!」と思った音が、車やテレビで聴いた時に、全然違う印象になってしまっていては、困ります。当然ミックスの段階から、エンジニアやディレクターは、ラジカセや小型スピーカーで確認をしながら、音作りをします。しかし、最終的にはもっと細やかな確認や音質の調整が必要になってきます。
もう一つの要素としては、アルバムにせよシングルにせよラジオにせよ、一つの曲だけを聴くということが、あまりないと言うことです。
1曲目はものすごく低音が出ていて音量も大きい、けど2曲目は低音が少なく音量も小さい、3曲目になったら高域がとても強いけど音量が中ぐらい。そんな感じでは困ってしまいますね。
ミックスダウンの作業は、同じエンジニアが続けて担当することもなくは無いですが、当然必ずしもそうとは限りません。
場合によっては、2006年8月にミックスしたものと、1993年12月にミックスしたものと、2019年3月にミックスしたものが、同じCDに入ることすら考えられます。当然ですが、逆算してその相互の関係を考慮したミックスダウンを行うことなど不可能です。
そんなことがあるので、マスタリングでは、そういう、機材的な差異、あるいは連続的な音楽視聴体験を、ある程度均一化しコントロールする必要があるのです。
それから、ミックスダウンのあと、もう少し音楽的な味付けをしたいことも考えられます。
実際はもう少しボーカルがはっきり聴こえて欲しい。しかし、音量を揃えたらすこし小さく聴こえるようになってしまった……。そんな時に、当然バランスを変えることは不可能ですが、ボーカルが聴こえやすくなるような、調整をすることは可能です。そのためのシビアな技術をエンジニアたちはたくさん持っています。中音域を少し上げてみるのかもしれないし、低音を削るのかもしれない。もしくは、左右にある音だけを全体的に少し下げるかもしれない。
とにかく、「バランスが変わった」というほどのことは当然不可能ですが、聴感でそう感じさせるような処理はここでもすることができます。
結果、マジックのように「ドラムの迫力がより増した!」とか「ボーカルが鮮明に聴こえる……」といったことが、事実上可能なわけです。
要は、ミックスダウンもしくは録音で解決しきれなかった問題や不便を解決し、様々な状況で音楽を楽しめるようにする、ということですね。
よく洋楽なんかの再発盤で「リマスターってなんだよ。何が違うんだ?」と思う方もいらっしゃると思いますが、当然技術や機材は年々進歩していますから、1988年には音量も小さくあまりクリアでなかったものを、今の技術では気持ちよく聴けるようにできるしかもしれません。だから、リマスターというものが行われるわけです。
(しかしながら、前述した音圧を競っていた時代のリマスターは、単に音量を上げすぎてしまった結果、音が悪くなってしまった、ということも、無くはないのですが……。)
さて、そんなマスタリングにはもう一つの工程があります。それは「曲間を決めること」です。
今では配信などの影響で、アルバムを曲順通り続けて聴くことは減ってしまったかもしれませんが、アルバムというのは当然曲順も考えられています。
たとえば、静かなバラードの美しい余韻に浸っている最中に、すぐ次の大盛り上がりな曲のイントロが流れてきてしまったら興醒めしてしまいますね。逆に、踊れる楽曲がせっかく続いているのに、次の曲まで3秒も4秒も空いてしまったら、がっかりしてしまいます。
ですから、気持ち良い視聴体験をするためには、「曲が終わった最後の瞬間」から「次の曲が始まる最初の瞬間」の間隔が、音楽的である必要があるのです。
これを、各曲の最終調整が終わった段階から、集中して考えます。具体的に、「試しに2秒……」といって、長く感じたら「1.5秒で聴いてみよう……」などと、一曲ずつ検証しています。
また、ライブ盤のように、曲番号は分けたいけど、音はぶつ切りにしたくない、ということもありますね。この場合は「ギャップレス」といって、データ上は曲番号が切り替わるけれど、曲間は繋がったまま、という処理もあります。
(対応していない機器では、読み込みのために0.1秒とか、空白ができてしまいますが)
最近はDJ文化もあるのでしょうか、iTunesやSpotifyなんかでは、曲間をつけずにクロスフェードをして滑らかにつなげる機能もついています。ラジオ的にも聴けるし、便利なので僕もつい活用してしまいますが、こうした曲間の余韻を楽しむ感じでなくなっているのは少々寂しくもあります。
そんなわけで、マスタリングというのはとても大切な工程で、かつ、僕もそこに立ち会うことは非常に楽しみでもあります。エンジニアのマジックを感じ、また最後の儀式のような側面も持っていますから、スタジオのやりとりの中で、いよいよこの作品が世の中に出て行くんだ、という気持ちにもさせてくれます。
---------------
すみません、結局ものすごく長い記事になってしまいましたが、これが録音における各工程の違いとその内容です。出来る限り平易でシンプルな表現を心がけましたが、いかがでしたでしょうか?
みなさんも興味があったら、ぜひそんなことにも思いを馳せながら、音楽を聴いてみてくださいね。最後までお読みいただきありがとうございました。