加工


戻る


加工に関する技術的な事柄は、外部リンクのページから辿れるサイトや、Windows版Audacityを使った実際の作業などを参照して欲しい。とくに、お手軽イフェクトイフェクトの順番と流れのページには関連する記述が多いと思う。

イフェクトの設定ファイルはローコスト制作のファイル配布のページで公開している。Audacityの操作法がわからない人はAudacity2の初心者お助け講座プラグインチェイナーの記事も参照のこと。ソフトウェアの紹介はイフェクトソフトの紹介のページなどにある。練習ではなく体験をしてみたい初心者は一足飛びの音楽制作を参照のこと。

ここでは上記の記事に漏れた注意点などを中心に紹介する。また、各配布形態に適したファイル圧縮についても検討する。


モニタの調整

イコライザ(EQ)やディエッサーなどを使用する場合は、モニタ環境の整備がぜひ必要になる。録音のページでもモニタの必要性を強調したが、編集では音が把握できないまま作業すると容易に曲をぶち壊すことになるため、さらに調整を加える。大雑把な作業しかしない人は、次の段落で「万が一ハウリングが起きても耳を傷めない音量設定」と「可聴域外の音声の遮断」だけ確認したら、この項を読み飛ばしてもよい。

最初にやるのは安全対策。臆病にやるなら、普通のサインスイープを小音量で再生して自分の可聴域を確認し、モニタ用のマスター出力にフィルタを挟んで可聴域外を遮断、0dbFSのサインスイープを再生しながら耳が痛くならない音量までレベルを上げるのが無難か(本当は高域だけリミッターをかけたいのだが、そこまでやると初心者にはちょっと手ごわいかもしれない:派手な効果を謳ったイフェクタはたくさんあるが、そういう基本的な機能をちゃんと提供できるものはなかなか見つからなかったりする)。

ハウリングで超高域のノイズが発生することはあまりないだろうが、もし発生した場合の被害を考えると、あまり甘く見ない方がよさそう。また、単純な大音量も耳へのダメージをもたらし得るので、ハードウェア的なリミットがどの辺にあるのか把握するとともに、やたらとハイヘッドルームな機器は注意して組み込もう(アンプやヘッドフォンやスピーカが大切な機材であることは間違いないが、万が一の場合は耳よりも先に壊れて動かなくなってくれた方が、耳が壊れてもまだ動き続けているよりはずっとありがたい)。

安全が確保できたら細かい調整に入る。まずサンプルファイルをダウンロードして、もしflacを再生する環境がない人はNorthern VerseさんのSoundPlayer Lilithなどを用意しておこう(EQやバスブーストなどは、サウンドカードの機能を含めてすべてOFFにしておくこと)。

「laud60.flac」を再生しながら最初の2秒間に再生される音が「普通にはっきり話すくらい」に聴こえるよう調整しておく。その後2秒間休んでから、31.25Hz、62.5Hz、125Hz、250Hz、500Hz、1kHz、2kHz、4kHz、8kHzの音が順に再生されるが、平均的な人の聴覚でこれらすべてが「同じ音量」に聴こえるのが「フラットな」再生環境になる。もちろん、耳の特性自体(とくに高域)にかなりのバラツキがあるので、あくまで「自分の耳に合わせる」ことになる(初心者にはその方が便利だと思う)。EQで音量感を調整しておこう。

「sine_sweep_3min_48000.flac」を再生すると、最初は空気のうねりのようなものかすかに聴こえ、1:42くらいまでは音量がだんだんと上がって、その後わずかに音量が下がり、2:00くらいまでに持ち直して、2:10くらいをピークにだんだん小さくなり、2:45前後でまた少し大きくなってから消えていくような感じが一般的な聴こえ方で、音量が暴れる(乱高下する)場所があれば、スピーカやヘッドフォンの特性がそこで乱れていると思われる(環境によっては、最初の方にチリチリしたノイズが乗るかもしれないが、普通の音楽を再生して問題ないのならあまり気にしなくてよい)。

音量がおかしいと感じる個所の時間を秒に直して(たとえば「1分20秒」のところで音が大きいと思ったら「80秒」に直して)「20 * 10^(t / 60) =」という式の「t」のところに代入してGoogle検索しよう(上記の例なら「20 * 10^(80 / 60) =」で検索)。出てきた数字がその部分の周波数になる(この例では430Hz)。あまりに急激な凹凸はムリヤリ補正せず、適当なところで切り上げた方がよい。また、サンプルファイルはモノラルなので常に正面から音が聴こえるはずだが、左右のスピーカで特性にばらつきがあると、右に行ったり左に行ったりするような聴こえ方になる(これも普通のやり方では補正できない:もしヘッドフォンでもスピーカでも同じような偏り方をする場合は、サウンドカードやアンプを疑おう)。一通り修正し終わったらもう一度「laud60.flac」を再生して問題がないことを確認して、EQの設定を保存しておこう。

なお、ここで見直したのは周波数特性だけだが、それ以外の特性は(測定ももちろんだが、それ以上に)調整が難しい。ムリをする必要はないので、これで万全ではないということだけ覚えておくとよいだろう。機器の性能確認まで踏み込んだもっと詳細で徹底的なテストをぜひやりたいという人は、かえでと衛のホームページというサイトの解説などを元に、efuさんのWaveGeneなどのソフトを利用して自前でチェック信号を作成するか、市販のチェック信号CDなどを探そう(ただし、そこまでやっても万全にはまだ遠いのであしからず)。

さて、これで(とりあえずは)フラットなモニタができたわけだが、このままでは(演奏チェックなどには使えるかもしれないが)ミキシングモニターには使いにくい。100Hz周辺をごく穏やかに、3KHz周辺と7~12KHzあたりを穏やかに持ち上げて、ややドンシャリの環境も作っておこう(高域の持ち上げ方を控えめにして、5KHzあたりに小さな谷を作ると疲れにくい音になる:ちゃんとしたモニタヘッドフォンを使っている人は、結局EQをOFFにするだけ、ということになるかもしれないが、特性を明確に把握できただけでも、やった価値はある)。フルフラットな環境でミックスすると、圧倒的多数派であるドンシャリ環境で聴いた人は「耳が痛い」ということになりがちだからである。

スピーカを使う場合、オーディオのページや機材関連のスピーカのページなどを参照してスピーカセッティングを調整しておく。頭を動かしたり部屋の中で物の位置が変わると、上記のテスト結果がばらつく場合がある(というか、普通ばらつくはず)。スピーカの数を減らす(メインスピーカは2つまで、サブウーファーは1つまで)とマシになるはずだが、それ以上の対策は大掛かりになるので、メインのモニタにはヘッドフォンを使いスピーカは参考までと考えた方がラクだと思う(簡易なものでよいので、なにかしらのスピーカはあった方がよい)。

サインスイープや等ラウドネス信号はスピーカの調整にも使えるが、ヘッドフォンと違いセッティングによる左右差が強く出るので、左右片方づつ調整してから本調整に入るのがよいだろう。オマケとして、2.1chシステムなどサブウーファーを置く構成の人は、メインスピーカをオフにして(あるいはプラグを抜いて)サブウーファーだけから音が出る状況を作り、サンプルファイルの中にある「pinknoise.flac」を再生しつつ、目を瞑っていろいろな方向を向いてみよう。サブウーファーから「定位感に影響を与える音」がどのくらい出ているかわかる(定位感が大切な場面と低域の特性が大切な場面で、サブウーファーのオン/オフ使い分けをするのに役立つ)。


基本となる作業

真っ先に必要なのは音量調整である。Audacityであれば画面左の「+/-」のツマミで大まかに(Shiftキーを押しながら動かすとやや細かく)調整できるほか、効果>増幅やエンベロープツールを使うともっと細かい作業ができる。慣れないうちはまずツマミでの作業を覚えて、順にステップアップしていくのがよいだろう。タイミング合わせもほぼ必須だが、これはタイムシフトツールなどで行う。

PAN(左右バランス:Audacityであれば画面左の「L/R」のツマミ)の調整もやった方がよいが、まずはモノラル(すべての音源がセンターの状態)で「そこそこ聴ける音」を作っておくことを強く勧める(「すばらしい音」を追求する必要はない:問題点を見つけやすくすることも目的のひとつなので、多少の粗があるのは想定内である)。詳しくはモノミックスを作ろうのページに譲るが、モノラルでしっかりと混ぜておけば、そこから左右に振っていくのは難しくない。反対に、モノラルでしっかり混ざっていないものをステレオに振ったところで泥沼が深くなるだけである。

生録音ではハイパス(ローカット)フィルタもほぼ必須になる(MIDIからの録音でも必要に応じて使う)。低音楽器以外ではノッチフィルタも使うが、こちらは慣れてから使用を検討しても差し支えない。低音楽器も含め生録音の場合はたいていコンプをかけるが、音量調整をしっかりやれば省く(または、ごく弱めにしたり、シェイパーで済ませたりする)ことも可能である。

音量調整、タイミング合わせ、フィルタ類をしっかり使いこなせば、基本的な加工はだいたい問題なくこなせるのではないかと思う。ゼロから始める初心者は、まずここまでの作業が確実にこなせるよう、じっくりと練習するのがよいだろう(最終的に、その方が上達が早いと思う)。


付加価値的な作業

基本がしっかりとできたら付加価値的な加工にも手を出したい。筆者が「オイシイ」と思うものをいくつか挙げてみる。

まずはシェイパー、というよりRuby Tubeというイフェクトが非常に有用である。すでに軽く触れたが、ヴォーカルなどの場合音量調整をしっかりやってシェイパーをかければ、コンプを使わなくても済むことが多い。ヴォーカルに使用可能なオーバードライブとしても貴重である(もちろんギターやオルガンにも使える)。ノンリニア編集では、手作業による音量調整>0dbにノーマライズ>必要に応じてリミッターやコンプ>シェイパー>他のトラックとの音量合わせというのが基本的な手順になる。

リバーブも効果は高いがやりすぎると酷いことになるので「自分が適正だと思う半分のレベル」くらいから様子を見るとよいだろう(普通に作業してからウェットトラックを6db下げるのがラクだと思う)。慣れないうちは、ベースとバスドラムにはリバーブをかけないものと思っておいた方がよい(「同じ部屋で演奏している感じ」を出すために、全体にごくごくうっすらとかける場合を除く)。高音と低音の減衰はそれぞれしっかり設定しておかないと、妙な音になりやすいので注意する。一部の打ち込み音源にだけ最初からリバーブがかかっている場合は、できるだけやっておきたい作業である。

音色作り的なコンプは非常に奥が深い。オーバードライブも同様だが、凝りだすと際限がないため他の練習と平行してやるのがよいと思う。いつのまにか「やらない方がよいこと」をやってしまいがちな作業でもあるので、たまに生音を確認して「全体の音は本当によくなっているか」を確認すべきだろう。


慣れたら挑戦したい作業

全般的な注意として、「やらない方がよいこと」をやってしまわないよう、生音との比較を随時行うこと。EQなどを真面目にイジる場合はとくに、一度作業を終了して一晩置いてから聴き直すくらいでもよい。

EQはまず「音同士のぶつかりを解消する」使い方をマスターするべきだろう。近い周波数の音が複数出ているとうるさい感じになりがちなので、部分的に削るわけである。このとき「主役のパートには手を入れない」という方針で作業するのが無難で、たとえば歌モノなら、ヴォーカルには(混ぜる前に加工した分=ヴォーカル単体が必要な響きを得るための処理以外は)手をつけず伴奏の音を削る。

つまり「脇役が主役を邪魔している場合に引っ込ませる」ということである(主役を引っ込ませたら本末転倒だし、主役をさらに前に出したらかえってうるささが増す)。ゼロから始める初心者はとくに、この使い方をしっかりマスターしてから他への応用を考えよう(実際には、主役にも脇役を邪魔しない配慮が当然必要なわけで、慣れたらぜひ挑戦したい)。心得として「音色の変化が明らかにわかるほどの加工」は慎重にやるべきである(が、封印するのもよくない:バランス感覚を養おう)。

EQの使い方は「削り(カット)」が基本で「持ち上げ(ブースト)」はよりいっそうの慎重さを要する。多くの場合、EQ単体で持ち上げるよりも、エンハンサーとかエキサイターと呼ばれる複合イフェクタ(オーバードライブとかファズとかサブハーモニクスシンセサイザーなど原音にない成分を付け足す機能と、EQとかローパスとかハイパスとかコムといったフィルタ類を、セットで連動させる感じのものが多い:ヴォーカルエンハンサとかベースエキサイターとか、加工対象別に特化しているものもあり、ミックス後にまとめてかけるマスターイフェクタとして設計されたものもある)を使った方がラクで早い(もちろん、凝るならオーバードライブを逆相で出して足し算してフィルタをかけて・・・などと手作業でやることも可能)。

変調系(コーラスとかフランジャとかフェイザーとか)など音色作りに関わるイフェクトは、好みや曲調によって必要な作業が大きく変わるため、あまり固定的に考えない方がよい結果を生みやすいと思う。さりげなくかけるのか大々的に使うのかをしっかり意識して、メリハリのある活用を心がけたい。ステレオイフェクトやトレモロやディレイなどにも似たようなことが言える。

イフェクトはたくさんかければよいものではないし、次々に手を出すと収拾がつかなくなるので、導入前に必要性を十分検討して欲しい。ちなみに、2008年10月現在、筆者がAudacity用にインストールしているVSTプラグインは、BLOCKFISH、Chorus CH-2、dominion、F_S_Comp、F_S_Tube、FLOORFISH、Freeverb2、George Yohng's W1 Limiter、RubyTube、SPITFISHだけである(Chorus CH-2とF_S_Tubeは2軍フォルダ行き寸前、dominionとFLOORFISHとSPITFISHも頻繁には使っていない:音色作り系のプラグインはReaperやVSTHostから使うことがほとんどなのでかなり数を絞ってあるが、音色ができた音を録音して編集する用途では、上記のみでほとんど不自由していない)。

他のページでも繰り返し紹介しているが、音量とPANの調整以外に、ハイパス、エキスパンダorゲート、コンプとディエッサー、3極EQ、アンプシミュレータ(オーバードライブ)、ディレイ、リバーブとアーリーリフレクションくらいが使えるようになれば、あとは楽器の音色に慣れて変調系でちょっと遊んでやるくらいで、たいていの加工はできるようになる。自信がついたら、パラメトリックEQ、エンハンサーorエキサイター、エンベロープシェイパーorエンベロープ操作のコンプ、ステレオイフェクトなどに手を出してみるとよい。


演奏を壊していないか

細かいニュアンスとか表情などを活かす作業が理想だが、最低限、演奏内容が変わってしまわない加工を心がけるべきである(特別な意図がない限り)。

とくにありがちなのは、ゲートなどでゴーストノートを潰してしまう、コンプなどでゴーストノートを浮かせてしまう、ハイハットのバランスがおかしくノーマル打ちなのにシンコペ打ちのように聴こえる、アタックが半端に遅いコンプでミュートポイントがボケるなど、ダイナミクス関連でのチョンボ。

これらを避けるには、作業前に「各プレイヤーがどのように演奏しているか」把握しておくという、基本的な確認をしっかりやっておく以外にない。

また、プレイヤーの意図(といっても大げさなものでなく、素朴に理解できる範囲のもの)にも注意したい。たとえば「せっかく古い弦で倍音を殺したベースにエキサイターをかけられた」とか「せっかくステレオディレイをかけたのにPANを思い切り振られた」とか「せっかくユルめのミュートでカッティングしたのにコンプでカクカクにされた」とか、そういう食い違いがないように注意したい(あえてやりたい場合はプレイヤーに一言相談しよう)。

理解を助けるために、加工対象の楽器を自分で弾いてみるとよい(「上手く弾ける」まで練習すれば言うことがないが「ちょっと触ったことがある」程度でも「まったく知らない」よりははるかに理解しやすい)。


意識の問題

音を捉える尺度について。慣れないうちは大雑把な把握を優先すべきだと思う。たとえば(バンド全体に対する相対的な)音量なら「全体でいちばん目立つ」「意識しなくてもはっきり聴こえる」「意識しなくてもなんとなく、意識すればはっきり聴こえる」「意識すればなんとなく聴こえる」「聴こえるような聴こえないような気がするがミュートすると雰囲気が変わる」の5段階くらい、たとえば音色の変化なら「元の音が想像できないくらい別物」「強烈な変化」「音が変わったことが明らかにわかる」「注意深く比較しないと音が変わったことがわからない」の4段階くらいだろうか。

音質を変化させる加工について。モニタ環境に関する記事で「EQよりもまず音量」と述べたが、このことは制作においても忘れるべきでない。ラフミックスを作ったら加工に入る前にまずいろいろな音量で再生してみよう。まったく同じ環境で音量だけ変えても、聴こえ方はずいぶん違うはずである。そしてリスナーがどんな音量で再生するか、作り手は選べないということを、しっかり思い出しておこう。もちろん、リスニング環境全体を視野に入れて検討できればその方がよい。これも「大きな破綻なく鳴って欲しい範囲」「そこそこ意図通りに鳴って欲しい範囲」「メインターゲット」くらいに分けて意識するとよいだろう(ただしあまり欲張っても仕方ない話で、最初は「出音がどれだけ変わるか」を知っておけば十分、そのうえで「自分の手元でしっかりと音が出る」ことをまず目指せばよい)。

パート(楽器)について。メインパートが明確な曲では、常に「メインパートの聴こえ方がどう変わるか」を基準に他の音をイジろう。ただしメインでない楽器も、たとえばギターならギター、ピアノならピアノが「単品でよく鳴る」バランスに1度は寄り道をしておこう。モノミックスを作ろうのページでも触れたが、仕上がりが大きく違ってくる。最終的にドンシャリ環境で鳴らす音源もミックス段階では比較的フラットな環境でモニタする、という話とも共通する考え方。

リバーブについて。空間の演出をまず考えるべきで、リスニング環境も意識しなければならない。もちろんリバーブを音色作りに使うこともでき、スプリングリバーブやプレートリバーブはそのような傾向が比較的強いのだが、まず押さえておくべきポイントはやはり空間認識である。たとえばアコギの弾き語りをギター用とヴォーカル用の2本のマイクで録音したとしよう。この2つの音にまったく別のリバーブをかけるのは面白いチャレンジではあるが「ギターを弾きながら歌っている」印象は当然薄くなる。またスピーカ再生をメインターゲットにする場合、リバーブ(とくにルームリバーブ)は本当に必要なのか、必要だとしたらどの程度なのか、ということを考えてみる必要がある。オンマイク(音源のすぐ近くにセットしたマイク)で録音した場合、生演奏を聴くのとはかなり違った音が録れる(たとえばアコギの生演奏を20cmの距離で鑑賞する人は普通いない)。しかしそれをスピーカで再生すると、部屋の中でそれなりに減衰やら反響やらを起こしてからリスナーの耳に届く。この影響を無視すると面倒なことになりがちである。


ファイルを公開する前に

まずは完成した曲を自分でじっくり聴き込んでみよう。気になる点があったら手間を惜しまず修正に取り組むべきである。

公開したファイルはどのような環境で再生されるかわからないため、さまざまなシチュエーションを試してみる必要もある。環境の手配が難しい場合は、最低限、ヘッドフォン/スピーカ再生と大音量/小音量再生でどの程度印象が変わるかだけでも確認しておきたい。

EQ付きの再生ソフトを使って、フラット、カマボコ(1~5KHzくらいを持ち上げた形で、チープな再生環境で特徴的)、ドンシャリ(低域と高域を持ち上げた形で、味付けのキツい再生機器で特徴的)の3パターンくらいを確認しておけるともっとよい。理想をいえば、安物のラジカセやポータブルオーディオ用のイヤフォンなどでの出音も確認したいところ。ミキシングやマスタリングが本当にバッチリと決まっていれば、どんな環境で再生してもそれなりに破綻なく鳴ってくれるものなのだが、慣れないうちはメインの想定環境を2~3想定して他の環境にはとりあえず目を瞑る方向でも構わないと思う。

できれば、率直な意見を言ってくれる人を探して感想を聞かせてもらうとなおよい。他人の意見に振り回されるのも考え物だが、客観的に聴いているつもりでも、自分では気付かない問題点が1つや2つはあるものである。バンドで制作している人は、メンバーでない人に聴いてもらおう。


公開用ファイルの圧縮

詳細な情報はファイル圧縮についてのページを参照。音質の評価についてはRoberto's public listening testsSebastian's Public Listening Testsなどによるパブリックリスニングテストの結果も参照して欲しい。とくに断りがない限り2008年10月現在の状況に合わせた記述である。

互換性重視だとMP3がファーストチョイスになるが、CBRにするとジョイントステレオで音質が劣化しやすくなる問題(左右の音声がバラバラなパートで「モノラル2本」を圧縮したのと似た状況になり、音質的に苦しくなる)がある。VBRにすれば一応解決するが、MP3を使うメリットは互換性にあるためちょっとした悩みどころになる(コンテナの仕様にもよるが、動画に使う場合、音声をVBRにすると音ズレが生じる可能性がある)。

ナローバンド向けにファイル容量を減らしたい場合はAACが有力候補。エンコードにはiTunesを使うと手軽だろう(Winampなどでもエンコードできるが、コンテナの構成が違うらしく、互換性の面でやや問題になる:iTunesでエンコードすればQuickTime Playerで再生できるため、WindowsでもMacでもとりあえず再生に困らない)。

ファイルサイズと音質のレシオを最優先するなら蒼弓さんによるOgg Vorbis互換エンコーダaoTuV(2008年10月現在、フロントエンドのoggdropXPdはRareWaresなどで入手できる)の利用が考えられる。ある程度知識のある人でないと少し手強いかもしれないが、仕様としてギャップレス(ファイルの先頭に無音が挿入されたりすることがなく、演奏時間がそのまま保たれる)に対応しているのもメリットになる。

だいたい上記3つが2009年現在有力な非可逆圧縮の選択肢だと思われるが、初心者にとって手軽なのはやはりMP3ではないかと思う。エンコーダーの種類が豊富だということもさることながら、公開時に「再生できない」というクレームに対応する必要がほとんどない点がメリットになる。ただし、低ビットレートでは性能的なデメリットがやや目立つので、それは承知しておこう(上記のパブリックリスニングテストでも、128kbpsくらいから遅れを取り始めて80kbpsでは結構な差がついている)。

現在マトモなモニタ環境がないため気合を入れたテストは行えずにいるのだが、ステレオのWaveファイルをモノラル2本に分けて80・96・128・160kbpsのMP3にエンコード(lameを使用、CBR)した後ステレオにまたまとめ、SB Audigy LSのヘッドフォン出力から再生してみたところ、ATH-T22(もらいもののヘッドフォン:新品で買うと1000円ちょっと)では96kbpsから、SE-CL30(カナル型イヤフォン:ヨドバシで2500円)では160kbpsからWaveとの違いが聴き分けられなくなった。

このことから、160kbps/CBR/ジョイントステレオ(=80kbps2本相当)のMP3を使う場合、かなりチープな再生環境でも知覚可能な劣化が生じ得るのではないかと思う(しっかりテストしたわけではないし、常に効率のよいミドルサイドモードが使える音源もあるだろうから、必ずしも160kbpsで不足だということではない:筆者の経験上、左右の音声が似た音源ならほとんど問題ない)。

結局、192kbps/CBR/ジョイントステレオくらいのMP3を使っておけば、互換性の心配もいらず、チープな環境なら左右の音がバラバラでも悪影響が表に出ず、ちょっとマシな環境でも左右の音が似ているパートならほとんど劣化が気にならないという、そこそこバランスの取れたパフォーマンスになるのではないかと思う。筆者自身、自作曲は上記の設定で公開している。音質を優先するなら、aoTuVの設定0.6(192kbps相当)でエンコードすればほとんどの状況で十分なパフォーマンスが得られるだろう。

また、ここで「音が変わる」と言っているのは、ポピュラーミュージックで使う楽器ではほぼシンバルだけに該当する話である(弦楽器なども変わらないではないが、シンバルに比べれば目立たない:デジタルシンセで鋸波や矩形波を出した場合も影響はあるはずだが、これもあまり目立たない)。音声圧縮のビットレートを考える場合、シンバルの質感をどれだけ重視するかを基準にするとやりやすいと思う。



急がば回れの目次に戻る / 音楽メモの目次にもどる

自滅への道トップページ