

昨年、中咽頭がんのため、一切の活動を休止し治療に専念していた坂本龍一。幸いなことに病は癒え、このたび復帰第一作として12月12日に封切られる映画「母と暮せば」(監督:山田洋次、主演:吉永小百合)のサウンドトラックを制作した。東京オペラシティ・コンサート・ホールにて東京フィルハーモニー管弦楽団を自ら指揮し、さらには合唱曲をフィーチャーするという新機軸もあって、そのサウンドは以前にも増して深みが加わっている。ここでは本人ならびにエンジニアリングを担当したzAk氏にインタビューすることで、このサウンドトラックの制作過程について迫ってみることにしよう。また、取材直前に「バードマン あるいは(無知がもたらす予期せぬ奇跡)」でアカデミー賞を獲得し、今世界で最も注目されている監督であるアレハンドロ・ゴンザレス・イニャリトゥの新作「レヴェナント:蘇りし者」(主演:レオナルド・ディカプリオ)のサウンドトラックも手掛けたというニュースも飛び込んできた。まさに完全復活を印象付けている坂本の力強い言葉を紹介していこう。
(Photo: ©Wing Shya / Red Bull Studios Tokyo except * Unknown soul inc.)interview 坂本龍一
── 病気から復帰されて最初のお仕事が映画音楽になったわけですが、これまで坂本さんが手掛けられてきたものと大きく異なるのは、原民喜さんの詩「鎮魂歌」をもとにした合唱曲が重要な位置を占めていることだと思います。山田洋次監督から最初に“歌ありきの映画音楽を作ってくれ”というオーダーだったのでしょうか?
はい、その通りです。しかも、それを長崎市民に歌ってもらうのを撮影するため、撮影に入るかなり前に合唱曲を仕上げる必要がありました。── 映画音楽に限らず、坂本さんは器楽曲を作ることが多いですから、かなり勝手が違ったのではないですか?
ええ、とにかく詞先で音楽を作るというのが久しぶりで。それこそ高校三年生のときに吉本隆明さんの詩に曲を付けたりとか、北野武さんのために谷川俊太郎さんの詩に曲を付けたくらいしか思い出せないですね。── いずれも音楽のために書かれた“詞”ではないですよね。それにメロディを付けるのは難しい作業だったのでは?
確かに難しいですけど、日本語にはもともと言葉の上がり下がりがあって、例えば“な・ま・え”とか“わ・た・し”というように、言葉はメロディを内包しているんですね。それらを注意深くたどって、音楽的なメロディに移し、自分のハーモニーの中に落とし込む作業です。── 歌曲であることが制約となり、坂本さんがこれまで器楽曲で得意としていたメロディ・ラインを封じられたということはありましたか?
多少はありますね。技術的に言うと音域の問題がありますから、自分の好きな通りにメロディを作っていくと歌えなくなってしまう。なのでメロディを移調して歌えるようにしたりしましたが、それはまあ制約というよりは面白い作業でした。── 結果として出来上がったのはとても美しいテーマ曲でした。荘厳でありながら暗過ぎず、救いがあります。
そもそも詩自体が非常に重たいので、そのままだとものすごく暗い音楽になってしまう。実際、この形になる前にものすごく暗い曲ができてしまって、自分でボツにしました。監督からもなるべく明るくという指示もありましたしね。映画全体に言えることですけど、重たいテーマなんだけれども、これまでの山田監督の映画と同じように家族みんなで楽しめるものにと。── 実際の作曲方法についてうかがいたいのですが、まずはピアノで行ったのですか?
ええ、最初の音を選んでいく段階はピアノで、ハーモニーについてはYAMAHA MotifやSEQUENTIAL Prophet-5を使って、AVID Pro Toolsにデモとして録っていきます。── Pro Toolsにはオーディオだけ録るのですか?
オーディオもMIDIも両方録っていきます。それである段階からPro ToolsのMIDIデータをAVID Sibeli usに読み込み、そこから譜面を起こしていきます。── それがオーケストラ用のスコアになっていく?
はい、そうです。最終的なスコアの清書まで自分でやっています。普通そういう作業は専門の方に任せるんでしょうけど、やっぱり自分で譜面を書かないと自分の音にならない。ソフトを使っているわけですから自筆というわけでもないですが、それでも音が違う(笑)。── 作曲はニューヨークのプライベート・スタジオで?
監督からなるべく自分の側で作業してほしいと言われたので、東京のレッドブル・スタジオで作業をしました。でも、実は命令に背いて半分くらいのデモはニューヨークで作ってしまいました(笑)。── 作曲の段階では映像の編集は終わっていた?
テーマの歌曲は別として、僕が音楽を作り始めた時点で編集もほぼ済んでいましたね。── その編集済みの映像をもとに、どのシーンにどういう音楽を付けるかは監督とすり合わせを?
ええ、3月くらいに打ち合わせしたんですが、監督は僕の過去の音源を聴き込んでおられて、いろいろなシーンにそれらを当てはめていた。これまでにやった映画音楽に加え、『out of noise』に入っているプロセッシングしたような音楽もはめていたので、びっくりしたと同時に少し安心もしました(笑)。── でも、仕上がりを聴くとプロセッシングされたサウンドは少なく、オーケストラがメインでしたね。
それは僕の判断です。やっぱりこの映像には生楽器の方が合うなと。── オーケストラのアレンジを進めていく際には、どんな音源を使いましたか?
Motif以外だとNATIVE INSTRUMENTSのライブラリーやVIENNA Vienna Symphonic Libraryなどのソフト音源。あと、「B29」にあるような生楽器とは別の音は、NATIVE INSTRUMENTSのReaktorを多用しています。レッドブルのスタジオでそれこそ鶴の機織りみたいにこもって作業を進めました(笑)。 [caption id="attachment_50570" align="aligncenter" width="650"]── 今回、エンジニアにzAkさんを起用されました。
はい、今回の音楽はデリケートでセンシティブなものでしたので、鋭敏な耳を持っているエンジニアにお願いしたかったんです。── 録音機材は何を使ったのですか?
AVID Pro Toolsに32ビット/96kHzで録っていきました。── 2009年のソロ『out of noise』、2010年の大貫妙子さんとのアルバム『UTAU』はいずれも24ビット/48kHzで録音されていたので、坂本さんはハイサンプリング・レートに興味が無いと思っていました。
興味が無かったわけではなくて、作業が遅くなるのがイヤ……これまでに何度もMacがクラッシュしてデータを失っているのがトラウマになっているので、無理のないスペックで作業をしたいんです。── では、マシンのスペックがもっと上がっていけば、さらにハイサンプリングなフォーマットで行きたい?
ええ、いまだに自分の出している音を記録しきれていない感覚がありますから、本当はPro Toolsを192 kHzで使いたいし、DSDで録音したい。それに対応するため自分のスタジオの卓もアナログのSSL XL Deskにリプレイスしました。── レコーディング場所についてですが、ピアノとオーケストラは別のところで行ったのですか?
はい、ピアノは主に乃木坂のソニーで、それを録り終えてから、東京オペラシティ・コンサート・ホールでオーケストラのレコーディングを行いました。── オーケストラをホールで収録するのは、やはり響きを求めてということでしょうか?
そうです。よく僕は音色からインスピレーションが与えられるっていう話をしますが、響きからのインスピレーションも大きいのです。響きがあってこその音楽なので、演奏のためにも作曲のためにも重要です。── 東京オペラシティはこれまでもピアノ・ソロのコンサートでも使用されましたが、好きな響きなのですか?
好きです。残響が長いんですけど、録音してみると意外と邪魔にならない、不思議なところですね。── オーケストラ収録に際しては坂本さんが指揮をされていました。病気から復帰されたばかりで一日中指揮をされるのは大変だったのでは?
はい、疲れましたね(笑)。それでも音の出方、音の切り方、フレーズの作り方というのは、作った人間にしか分からないところがあるので。指揮はミキシングに似ていて、まさにファイナル・タッチの作業なので、下手でも自分でやった方がいいですね。── 収録の際はそれぞれの音楽が付く予定のシーンを見ながら指揮をされていました。
セリフのタイミングとかカメラの動きとか、いろいろなことが関係してくるので、Pro Toolsの映像トラックにシーンを読み込んでそれを見ながら。── そこにクリックは入れてあったのですか?
曲によってはガイドとしてのクリックは入れてありました。でも、オーケストラのメンバーには送っていないのでクリックを聴いていたのは僕だけ。ですからクリックが無い方が演奏が良くなると判断したら、ヘッドフォンをはずしてやりました。── メイン・テーマのピアノ入りバージョンは、先に乃木坂で録ったピアノを聴きながら指揮をしたのですか?
そうです。あれはもともとクリックを入れてなかったから大変でした。ピアノを弾いたときの自分の息遣い……僕は鼻息が荒いのでそれを頼りに指揮を(笑)。── ミックスはどちらで行ったのですか?
Bunkamuraです。映画用に5.1chサラウンドを先にやり、それから2chミックスを。今回はzAkさんの希望でPro Toolsに録音した音をすべてフェーダーに立ち上げ、リバーブもアウトボードを使ってミックスしました。── 内部だけのミックスとは音が違うのですか?
ええ。ただ、いい場合と悪い場合とがあります。僕はどちらのやり方でもいいですね。── ポストプロダクション作業には立ち会いましたか?
本当はそうしたかったんですけど。スケジュールの都合で今回はお任せしました。5.1chのミックスで自分の世界は出来上がっているわけだし、ポスプロのミキサーがいろいろコントロールできるようにステムにいろんな要素を書き出して渡したので。まあ、音楽の中身をいじられるのはそんなにいい気はしませんけど、音楽とセリフ、音響効果とのバランスは彼らの仕事なので、僕が口を出せることではないですから。── スケジュールの都合とは、すぐにイニャリトゥ監督の新作にかからなければいけなかったからですか?
そうです、休む間もなく(笑)。東京での作業のあとにシアトルに行ってオーケストラの録音をして、その後、ロサンゼルスでシンセをダビングしつつ5.1chのミックスをして、その後、また変更があったのでシアトルにもう一回行ってオーケストラを録音して、またロサンゼルスでそれをミックスして……(笑)。── 2つの映画を続けて手掛けられていかがでしたか?
山田監督がミーティングのたびに「バードマン〜」の話をするんですよ、あれはすごい映画だって。その監督の次回作で僕が音楽をやるんですって言い出せなくて……だから“やられたー”と思っているでしょうね(笑)。でも、80歳を超えてなお他の監督の作品に刺激されているっていうのはやっぱりすごいですよね。そんな山田監督とイニャリトゥ監督という2人の映画音楽を続けてやれたのは本当に光栄なことでした。 [amazonjs asin="B016BKOCAG" locale="JP" title="オリジナル・サウンドトラック「母と暮せば」"]interview zAk
[caption id="attachment_50571" align="aligncenter" width="650"]── zAkさんはMERGING TECHNOLOGIES Pyra mixを使ってDSD録音することも多いですが、今回Pro Toolsを選択したのはなぜですか? まずチャンネル数の問題と、DSDだとミックスをするのが結構大変なんです。坂本さんは普段Pro Toolsで作業をしているから、Pro Tools上でできることを求められても、Pyramixでできないこともある。もちろん工夫すればできるけど、それに時間がかかるはイヤなので。
── すべての現場にPro Toolsを持ち込んだのですか?
いや、それぞれのスタジオに用意されていたものを使いました。ただ、どの現場にもNAKEDのPro Tools用Digi Cableを持ち込みました。── それを使うとどうなるのですか?
解像度が上がります。経験上、外のスタジオを使ってPro Toolsで録音をするとき、そこで聴くと音がクリアでいいけど、自分のスタジオではあまり良くないことが多くて。だから、最初から解像度を上げて録るようにしているんです。── フォーマットとしては32ビット/96kHzで行ったそうですが。
はい、最近僕はずっとそれでやっているのと、坂本さんも同じフォーマットで作り始めていましたので。ビット・デプスが高い方が音の前後の距離感が出やすいんです。もともと僕は立体的な音が好みで、16ビットだとそれは出にくくて、24ビットでまあまあ、32ビットにするとかなりいい感じになります。サンプリング・レートについては192kHzだと縦が広過ぎるんです。のっぺりして、もうちょっと密度が欲しくなる。今は96kHzがちょうどいいですね。もしかしたらオーケストラは192kHzの方がいいかもしれないですけど、坂本さんの音楽ってクラシックがベースにありつつも、ポップな要素が強いから192k Hzだとちょっと違うかなと。── I/Oは何を使いましたか?
今回は全部AVIDのHD I/Oです。若干派手目ですが、今、アメリカで一般的に求められる音になります。── ピアノの録音に使ったマイクを教えてください。
坂本さんのピアノにはAKG C12が合っているのでそれを2本と、そのステレオ・バージョンであるC24をちょっとオフ目に立てて、あとはDPA 4011を2本、そしてSCHOEPS CMC64をペアで。── マイクは一度セッティングしたらそのままですか?
ええ、替えません。例えば、坂本さんがブースのヘッドフォンやコントロール・ルームのモニターで聴いてハイのアタックが強過ぎると思った場合、“マイクの位置を動かしましょうか?”って言っても、“いや、弾き方を変えてやってみる”って。一番正しいやり方ですね。本当はみんなにもそうしてもらいたい(笑)。── 「あんたは元気って」という曲のように、ピアノの高音のパートにだけリバーブがかかっているものはオーバーダブしているのですか?
あれは坂本さんの弾き方とリバーブの設定でそうなっていて、オーバーダブではないです。リバーブもBRI CASTI DESIGN M7のかけ録りですね。── 東京オペラシティでのオーケストラ収録に使われたマイクを教えてください。
デッカ・ツリーにはB&K 4003を3本。あとはバイオリン、ビオラ、チェロにCMC64とNEUMANN KM 84I、木管楽器にSCHOEPS CMC54V、ホルンにNEU MANN TLM49、トランペットとトロンボーンにNEUM ANN TLM103、パーカッションにAKG C414 EBといったところ。合唱にはNEUMANN U87AI、SCHOEP S CMC64。全部で40chくらいかな。── 収録音の確認はホールでは大変だったのでは?
そうですね。なのでMUSIKELECTRONIC GEIT HAIN RL901KとRL904を持ち込んでもらって……レッドブルから乃木坂、Bunkamuraまで全部それらが用意されました。それは坂本さんの希望でもあるし、僕の希望でもありました。── 今回、ミックスはどのようなやり方でしたか?
サラウンド・ミックスを作らなければいけなかったので、BunkamuraのSSL SL4000Gの2種類のパンでフロントとリアのステレオにして、あとはセンターとサブウーファーのバスを別に用意して5.1chを。それと同時にその5.1chをPro Toolsに取り込みつつ、内部でサミングしてステレオ・ミックスも作りました。モニター・コントローラーにGRACE DESIGNのM906を用意して、それぞれのミックスを切り替えながら確認して。── 卓でEQはかけたのですか?
ほんのちょっとかけました。ローパスだけとか。コンプは使いませんでしたね。── アウトボードは先ほどのM7だけですか?
TC ELECTRONICのM6000も使いました。あのリバーブの感じも欲しかったので。── プラグインは使いましたか?
ほとんど使っていないですけど、1曲だけ「回想」というタンゴの曲で、最初はラジオから流れているような音にする部分はAUDIO EASEのSpeakerphone 2を使いましたね。── プラグインもあまり使わずということで、ミックスはほとんどがバランスを取る作業だったのでしょうか?
そうですね。ただ、結構編集はしています。オーケストラを録り終わった晩に、自分のスタジオで、テイクのチェックして……やっぱりああいう現場だと意図しないノイズが乗ったりするので良い部分をつないでいます。合唱も長崎市民の方が歌っているものと東京オペラシティで録ったものがあって、それを合わせるためにずらしたりタイム・ストレッチをかけたり……そういう作業はPro Toolsでないとできませんでしたね。── 仕上がりとして、とてもいい音でした。
僕はいつも出てきた音をそのまま録るように心掛けています(笑)。でも、坂本さんも気に入ってくれていました。坂本さんの弱音が美しいアレンジにオペラシティは合っているんですよね……あれでもっと音量が大きかったり音数が多いと飽和したんじゃないでしょうか。 [caption id="attachment_50572" align="aligncenter" width="650"]オリジナル・ハードウェアからデザインされたカスタム・パッチを豊富に含んだシンセサイザー。
クラシック・シンセと最新のデジタル処理を融合できるデュアル・レイヤー・インストゥルメント。
Falconのウェーブ・テーブル・オシレーターとDSPシェイピング・ツールを装備したデュアル・レイヤー仕様のPDシンセサイザー。
ただ今Cameo発売を記念し、半額以下の特別価格にて販売中(2015年12月14日まで)
製品情報Webページ http://www.uvi.net/jp/cameo.html 販売サイト https://beatcloud.jp/product/592フックアップは、WALDORF初のユーロラック仕様ウェーブ・テーブル・オシレーター・モジュール、NW1を2015年12月25日(金)より発売開始する。同社が誇るウェーブ・テーブル・シンセサイザーの技術を駆使したオシレーター・モジュールで、スペクトラル・エンベロープとノイズを独立してコントロールすることが可能な先進のウェーブ・テーブル・エンジンを備えている。
デザインはWaldorfを伝統を受け継いでおり、モジュラー・シンセサイザーの中では異色の存在感を放っており、サウンドはもちろんのこと、コレクター欲をかき立てる製品に仕上がっている。