本サイトでの Cookie の使用について

Shibuya 03-3477-1776
Umeda 06-6131-3078

Headline

Music
2024/08/20

「ライブを超えたライブ体験」の実現に向けて〜FUKUYAMA MASAHARU LIVE FILM 言霊の幸わう夏〜

今年1月、アーティスト・福山雅治による初監督作品 『FUKUYAMA MASAHARU LIVE FILM 言霊の幸わう夏 @NIPPON BUDOKAN 2023』が公開された。昨年夏に開催された武道館公演を収録した本作は、ドローン撮影による映像やDolby Atmosが採り入れられ、福山本人による監修のもと “ライブを超えたライブ” 体験と銘打たれた作品となっている。今回は特別に、本作の音響制作陣である染谷 和孝氏、三浦 瑞生氏、嶋田 美穂氏にお越しいただき、本作における音響制作についてお話を伺うことができた。 📷 左)三浦 瑞生氏:株式会社ミキサーズラボ 代表取締役社長 レコーディング、ミキシングエンジニア 中)嶋田 美穂氏:株式会社ヒューマックスエンタテインメント ポストプロダクション事業部 リレコーディングミキサー マネジャー 右)染谷 和孝氏:株式会社ソナ 制作技術部 サウンドデザイナー/リレコーディングミキサー ”理想のライブの音”に至るまで Rock oN(以下、R):まずは、今回の企画の経緯について聞かせていただけますか? 染谷:私はこれまで嵐、三代目 J Soul Brothers(以下JSB3)のライブフィルム作品のAtmos ミックスを担当させていただきました。嶋田さんとは前作のJSB3からご一緒させていただいていて、その二作目ということになります。嶋田さんとのお話の中で、私たちが一番注意していたことは、音楽エンジニアの方とのチームワークの構築でした。三浦さんは長年福山さんの音楽を支えてこられた日本を代表するエンジニアさんであり、すでにチーム福山としての完成されたビジョンやチームワークはできあがっています。そこに我々がどのように参加させていただくかを特に慎重に考えました。Atmos制作内容以前に、チームメンバーとしての信頼を得るというのはとても大切な部分です。その配慮を間違えると「作品の最終着地点が変わるな」と感じていましたので、最初に三浦さんにAtmosで制作する上でどういうことができるのか、いくつかのご説明と方向性をご相談させていただきました。そして最終的に、三浦さんと福山さんの中でステレオミックスをまず制作していただいて、その揺るぎない骨子をAtmosミックスに拡張していく方向で制作を進めていくことに決まりました。 R:Atmosで収録した作品として今作で特徴的なのが、ライブの再現ではなく、“ライブを超えたライブ体験”というコンセプトを大事にされていますが、その方向性というのも話し合う中で決まっていったのですか? 染谷:収録が終わり、まず三浦さんがステレオミックスをされて、その後何曲かAtmosミックスを行い、福山さんにお聴かせする機会がありました。そこで福山さんが、オーディエンス(歓声)のバランスを自分の手で調整しながらAtmosの感覚、できることを探っていかれる時間がありました。 嶋田:そこで、閃かれた瞬間がありましたよね。 染谷:武道館特有の上から降ってくるような歓声やセンターステージに立っている福山さんでしか感じられない雰囲気をこのDolby Atmosなら“お客さんに体感・体験していただくことができる“と確信されたんだと思います。その後の作業でも、福山さんの「追体験じゃないんですよ」という言葉がすごく印象に残っています。まさにステージ上での実体験として感じていただくこと、それが私たちのミッションだったわけです。 R:では録音の段階ではどのような構想で進められていたのですか? 染谷:収録段階では、2階、3階と高さ方向での空間的なレイヤーをキャプチャーしたいと考えていました。 嶋田:最終的にオーディエンスマイクは合計で28本になりましたね。PAの前にも立ててみたりはしたのですが、音を聴くと微妙に位相干渉していたので結局は使っていません。 三浦:基本のステレオミックス用がまず20本あって、そこに染谷さんがAtmos用に8本足されました。基本的には、PAスピーカーの指向性からなるべく外れたところから、お客さんの声や拍手を主に狙うように設置しています。 R:オーディエンスの音源の配置は、基本マイク位置をイメージして置かれていますか? 染谷:そうですね。上下で100段階あるとしたら、2階は40、3階は90~100くらいに置いてレイヤー感を出しています。上から降りそそぐ歓声を表現するには、上、下の二段階ではなく、これまでの経験から中間を設けて階層的に降ろしていった方が結果的に良かったので、今回はこのように配置しました。 R:福山さんが向く方向、映像の画角によってアンビエントのバランス感は変えたのですか? 染谷:そこは変えていないです。それをすると音楽との相関関係から音像が崩れていくので、基本的にオーディエンスは一回決めたらあまり動かさない方が良いように思います。楽器の位置なども基本は、三浦さんと福山さんが決められたステレオ音源の位置関係を基準にしてAtmos的な修正をしています。 Atmosミックスのための下準備とは R:収録後はどういった調整をされたのでしょうか? 染谷:録った音をシンプルにAtmosで並べると、当然位相干渉を起こしていますので、タイムアライメント作業で修正を行います。具体的な方法としてはAtmosレンダラーでステレオと9.1.4chを何度も切り替えながらディレイを使用してms単位での補正を行います。レンダラーでステレオにしたときに正しくコントロールできていない場合は、確実に位相干渉するので判断できます。また、嶋田さんのコメントの通り、会場の反射で位相干渉した音が録れている場合もありますから、マイクの選定なども含めて進めていきました。 R:ディレイということは遅らせていく方で調整されたのですか。 染谷:今回はそうですね。ドームなどの広い会場だったら早めていると思うのですが、武道館では遅らせていった方がいい結果が得られました。早めていくと空間が狭くなっていくので、だんだん武道館らしさがなくなり、タイトな方向になってしまうんです。ですので、よりリアルに感じていただけるよう、疑似的に武道館の空間を創りだしています。実際にはセンターステージの真ん中のマイクを基準にして、他のマイクがどのように聴こえてくるかを考えながらディレイ値を導き出していきました。 R:逆にステレオだとオーディエンスを後ろにずらしての調整とかは難しいと思いますがどうでした? 三浦:オーディエンスマイクの時間軸の位置はそのままで、音量バランスで調整しています。フロントマイクをメインにして、お客さんの声の近さなどからバランスをとりました。やっぱり一番気になるのは、ボーカルの声がオーディエンスマイクを上げることで滲まないように、そこは色々な方法で処理しています。 R:Atmos用に追加したマイクはステレオでも使われましたか? 三浦:使っています。Atmosとステレオである程度共通した雰囲気を作る方がいいのかなと思って。スピーカーの数が変わる以上は聴こえ方も変わるのは分かっていましたが、福山さんとの作業の中でステレオ、Atmosで共通のイメージを固めておかないといけないと思ったのもありますし、会場の雰囲気を伝えることでできる音も含まれていましたので。 染谷:三浦さんがステレオの制作をされている間、嶋田さんと私はひたすらiZotope RXを使った収録済みオーディエンス素材のノイズ除去、レストレーション作業の日々でしたね。 嶋田:トータル 3、4ヶ月くらいしてましたよね。 R:RXはある程度まとめてマルチトラックモードでの処理も使われました? 嶋田:これがすごく難しいんですけど、28トラック分まとめて処理する場合も、1トラックずつ処理する場合もあります。私はノイズの種類によって使い方を変えました。例えばお客さんの咳を消したい場合、一番近いマイクだけでなくすべてのマイクに入っているので、綺麗に消したくなりますよね。でもすべて消すと空間のニュアンスまで無くなってしまうので、そのバランスは悩みました。近すぎる拍手なども全部消すのか、薄くするのかの判断は、喝采の拍手なのか、しっとりとした拍手なのかという拍手のニュアンス込みで考えたりもしましたね。 染谷:消せば良いってものでもないんですよ。音に味が無くなるというか。拍手を取る時はDe-Clickを使いますが、Sensitivityをどこの値にもってくるか最初の初期設定が大事です。 R:その設定はお二人で共有されていたんですか? 嶋田:最初に染谷さんがノイズの種類に合わせて大体の値を設定していただいて、そこから微調整しながら進めました。 染谷:作業が進んでいくとだんだんその値から変わっていきますけどね(笑)。リハの時に録っておいたベースノイズをサンプルにして全体にレストレーションをかけることもしています。武道館の空調ノイズって結構大きいんですよ。でもSpectral De-Noiseを若干かけるくらいです。やっぱり抜きすぎてもダメなんです。抜かないのもダメですけど、そこはうまくコントロールする必要があります。 染谷:基本的にクラップなどの素材も音楽チームの方で作っていただいて、とても助かりました。 三浦:ステレオミックスの仕込みの段階で福山さんとミックスの方向性の確認をした際に、通常はオーディエンスのレベルを演奏中は低めにして、演奏後はかなり上げるというようにメリハリをつけていますが、今回は曲中もお客さんのハンドクラップ(手拍子)がしっかり聴こえるくらいレベルを上げ目にしてくれというリクエストがありました。「これは記録フィルムではなくエンターテイメントだから」ということも仰っていたので、ライブ中の他の場所から良いハンドクラップの素材を抜き出し、違和感がない程度にそれを足して音を厚くするなどのお化粧も加えています。 📷三浦氏が用意したAtmos用ステムは合計111トラックに及ぶ。28chをひと固まりとしたオーディエンスは、素材間の繋ぎやバランスを考慮した嶋田氏の細かな編集により何重にも重ねられた。時にはPCモニターに入りきらない量のトラックを一括で操作することもあるため、タイムライン上での素材管理は特に気を張る作業であったという。高解像度なAtmosに合わせたiZotope RXによる修正も、作業全体を通して取り組まれた。 R:その他に足された音源などはありますか? 三浦:シーケンスデータですね。ライブでは打ち込みのリズムトラック、ストリングスなどのシーケンスの音はある程度まとまって扱われます。それはライブPAで扱いやすいように設計されているからなのですが、映画やパッケージの制作ではもう少し細かく分割されたデータを使って楽曲ごとに音色を差別化したくなるので、スタジオ音源(CDトラックに収録されているもの)を制作した際の、シーケンスデータを使用しました。なのでトラック数は膨大な数になっています(笑)。 嶋田:480トラックくらい使われていますよね!Atmos用に持ってきていただいた時には111ステムくらいにまとめてくださりました。 三浦:楽曲ごとにキックの音作りなども変えたくなるので、するとどんどんトラック数は増えていってしまいますよね。作業は大変だけど、その方が良いものになるかなと。今回はAtmosということでオーディエンスも全部分けて仕込んだので、後々少し足したい時にPro Toolsのボイスが足りなくなったんですよ。オーディオだけで1TB以上あるので、弊社のシステムではワークに収まりきらず、SSDから直の読み書きで作業しました。Atmosは初めてのことだったので、これも貴重な体験だったなと思っています。 染谷:本当に想像以上にものすごい数の音が入っているんですよ。 嶋田:相当集中して聴かないと入っているかわからない音もあるんですが、その音をミュートして聴いてみると、やはり楽曲が成立しなくなるんです。そういった大切な音が数多くありました。 R:ステムをやり取りされる中で、データを受け渡す際の要望などはあったのですか? 染谷:僕からお願いしたのは、三浦さんの分けやすいようにということだけです。後から聞くと、後々の修正のことも考えて分けてくださっていたとのことでした。ありがとうございます。 三浦:ステレオではOKが出たとしても、環境が変わってAtmosになれば聴こえ方も変わるだろうというのがあったので、主要な音はできるだけ分けました。その方が後からの修正も対応できるかなと思って、シーケンスデータもいくつかに分けたり、リバーブと元音は分けてお渡ししましたよね。想定通り、Atmosになってからの修正も発生したので、分けておいてよかったなと思っています。 嶋田:その際はすごく助かりました。特に、オーディエンスマイクもまとめることなく28本分を個別で渡してくださったので、MAの段階ですぐに定位が反映できたはとてもありがたかったです。 チームで取り組むDolby Atmos制作 染谷:今回は三浦さんが音楽を担当されて、僕と嶋田さんでAtmosまわりを担当したんですけど、チームの役割分担がすごく明確になっているからこそできたことが沢山ありました。そのなかの一つとして、編集された映像に対して膨大な音素材を嶋田さんが並べ替えて、ミックスができる状態にしてくれる安心感というのはすごく大きかったです。今回、嶋田さんには、大きく2つのお願いをしました。①映像に合わせてのステム管理、使うトラックの選定、とても重要な基本となるAtmosミックス、②足りないオーディエンスを付け足すという作業をしてもらいました。何度も言っちゃいますが、すごいトラック数なので並べるのも大変だったと思います。 三浦:こちらからお渡ししたのはライブ本編まるまる一本分の素材なので、そこから映画の尺、映像に合わせての調整をしていただきました。 嶋田:映像編集の段階で一曲ずつ絶妙な曲間にするための尺調整や曲順の入れ替えがあったり、エディットポイントが多めで、いつもより時間をかけた記憶があります。特に普段のMAでは扱わないこのトラック数を一括で動かすとなると、本当に神経を使う作業になるんですよ。修正素材を張り込む時にも、一旦別のタイムラインに置いて、他のオーディオファイルと一緒に映像のタイムラインに置いたりと、とにかくズレないように工夫をしていました。 R:Atmosで広げるといってもLCRを中心に作られていたなと拝見して感じているんですけれど、やはり映画館ではセンタースピーカーを基本に、スクリーンバックでの音が中心になりますか。 嶋田:映像作品なので、正面のメインステージの楽器の配置、三浦さんのステレオのイメージを崩さないバランスで置きました。空間を作るのはオーディエンスマイクを軸にしています。さらに立体感を出すためにギターを少し後ろに置いてみたりもしました。ボーカルはセンター固定です。しっかりと聴かせたいボーカルをレスポンス良く出すために、LRにこぼすなどはせずに勝負しました。なんですが、、、ラスト2曲はセンターステージの特別感を出すために中央に近い定位に変えています。 染谷:福山さんからの定位に関するリクエスト多くありましたね。印象的な部分では今さんのギターを回したり、SaxやStringsの定位、コーラスの定位はここに置いて欲しい、など曲ごとの細かな指定がありました。 R:ベッドとオブジェクトの使い分けについてはどう設計されました? 嶋田:基本的には楽器はベッド、オーディエンスをオブジェクトにしました。それでもすべてのオーディエンスマイクをオブジェクトにするとオブジェクト数がすぐオーバーするので、その選定はだいぶ計算しました。 染谷:やっぱりどうしてもオブジェクトの数は足りなくなります。 Auxトラックを使用して、オブジェクトトラックに送り込む方法もありますけど、映像の変更が最後まであったり、それに伴うオーディエンスの追加が多くなると、EQを個別に変えたりなどの対応がとても複雑になります。瞬時の判断が求められる作業では、脳内で整理しながら一旦AUXにまとめてレンダラーへ送っている余裕は無くなってきます。やはり1対1の方が即時の対応はしやすかったです。今考えているのは、ベッドってどこまでの移動感を表現できるのか?ということです。先ほどギターを回したと言いましたが、それも実はベッドなんです。ベッドだとアレイで鳴るので、どこの位置で回すかということは考えないといけませんでしたが、最終的に上下のファンタム音像を作って回してあげるとHomeでもCinemaでもある程度の上下感を保って回ってくれることが分かりました。絶対に高さ方向に動くものはすべてオブジェクトじゃなきゃダメ!という固定概念を疑ってみようかなと思って挑戦してみたんですけど。嶋田さんはどのように感じましたか? 嶋田:こんなにベッドで動くんだ、というのが素直な感想です。私も動くものや高さを出すものはオブジェクトじゃないと、という気持ちがずっとあったんですけど、今のオブジェクト数の制約の中ではこういった工夫をしていかないといけないなと思っています。 📷Dolby Atmos Home環境でのプリミックスは、Atmosミックスを担当したお二人が在籍するヒューマックスエンタテインメント、SONAのスタジオが使用された。劇場公開作品でもHome環境を上手に活用することは、制作に伴う時間的・金銭的な問題への重要なアプローチとなりえる。その為には、スピーカーの選定やモニターシステムの調整などCinema環境を意識したHome環境の構築が肝心だ。なお、ファイナルミックスは本編が東映のダビングステージ、予告編がグロービジョンにて行われた。 シネマ環境を意識したプリミックス 染谷:今回、ダビングステージを何ヶ月も拘束することはできないので、Dolby Atmos Home環境でダビングのプリミックスを行いました。Homeのスタジオが増えてきていますが、Homeで完結しない場合もこれから多く出てくると思うので、今回はこういった制作スタイルにトライしてみようと考えました。 嶋田:Homeでのプリミックスでまず気をつけなければならないのが、モニターレベルの設定です。映画館で欲しい音圧感が、普段作業している79dBCでは足りないなと感じたので、Homeから82dBCで作業していました。 染谷:最終確認は85dBCでモニターするべきなんですが、作業では82dBCくらいが良いと感じています、スピーカーとの距離が近いスタジオ環境では85dBCだと圧迫感があって長時間の作業が厳しくなってしまいます。 嶋田:ダビングステージでは空間の空気層が違う(スピーカーとの距離が違う)ので、ダビングステージの音質感や、リバーブのかかり方をHomeでもイメージしながら作業しました。またダビングステージは間接音が多く、Homeでは少し近すぎるかなというクラップも、ダビングステージにいけばもう少し馴染むから大丈夫だとサバ読みしながらの作業です。 染谷:Dolby Atmos Cinemaの制作経験がある我々は、ある程度その変化のイメージが持てますが、慣れていない方はHomeとの違いにものすごくショックを受けられる方も多いと聞いています。三浦さんはどうでした? 三浦:やはり空間が大きいなと、その点ではより武道館のイメージにより近くなるなとは感じましたね。 R:ダビングではどう鳴るか分かって作業しているかが本当に大事ですよね。やはりダビングは、映画館と同等の広さの部屋になりますからね。 染谷:直接音と間接音の比率、スピーカーの距離が全然違いますからね。制作される際はそういったことを含めて、きちんと考えていかないといけません。 嶋田:今回Homeからダビングステージに入ってのイコライジング修正もほぼなかったですね。 染谷:ダビング、試写室、劇場といろんな場所によっても音は変わるんだなというのは思います。どれが本当なんだろうなと思いながらも、現状では80点とれていればいいのかなと思うことにしています。 R:それは映画関係の方々よく仰ってます。ある程度割り切っていかないとやりようがないですよね。三浦さんは今回初めてAtmosの制作を経験されましたが、またやりたいと思われます? 三浦:このチームでなら! 染谷・嶋田:ありがとうございます(笑)。 三浦:染谷さん、嶋田さんには、客席のオーディエンスマイクのレベルを上げると、被っている楽器の音まであがっちゃうんですが、そういう音も綺麗に取っていただいて。 染谷:でも、その基本となる三浦さんのステムの音がめちゃくちゃに良かったです。 嶋田:聴いた瞬間に大丈夫だと思いましたもんね。もう私たちはこれに寄り添っていけばいいんだと思いました。 染谷:今回は特に皆さんのご協力のもと素晴らしいチームワークから素敵な作品が完成しました。短い時間ではありましたが、三浦さんのご尽力で私たち3名のチーム力も発揮できたと感じています。プロフェッショナルな方達と一緒に仕事をするのは楽しいですね。 三浦:そういった話で言うと、最後ダビングステージの最終チェックに伺った際、より音がスッキリと良くなっていると感じたんです。なぜか聞いたらクロックを吟味され変えられたとのことで、最後まで音を良くするために試行錯誤されるこの方達と一緒にやれて良かったなと感じています。 染谷:その部分はずっと嶋田さんと悩んでいた部分でした。DCPのフレームレートは24fpsですが、実際の収録や音響制作は23.976fpsの方が進めやすいです。しかし最終的に24fpsにしなくてはいけない。そこでPro Toolsのセッションを24fpsに変換してトラックインポートかけると、劇的に音が変わってしまう。さらにDCP用Atmosマスター制作時、.rplファイルからMXFファイル(シネマ用プリントマスターファイル)に変換する際にも音が変わってしまうんです。 この2つの関門をどう乗り越えるかは以前からすごく悩んでいました。今回はそれを克服する方法にチャレンジし、ある程度の合格点まで達成できたと感じています。どうしたかというと、今回はSRC(=Sample Rate Convertor)を使いました。Pro Toolsのセッションは23.976fpsのまま、SRCで24fpsに変換してシネマ用のAtmosファイルを作成したところ、三浦さんに聴いていただいたスッキリした音になったんです!今後もこの方法を採用していきたいですね。 R:SRCといっても色々とあると思うのですが、どのメーカーの製品を使われたんですか? 嶋田:Avid MTRXの中で、MADI to MADIでSRCしました。以前から24fpsに変換するタイミングでこんなに音が変わってしまうんだとショックを受けていたんですが、今回で解決策が見つかって良かったです。 染谷:MXFファイルにしたら音が変わる問題も実は解決して、結局シネマサーバーを一度再起動したら改善されました。普段はあまり再起動しない機器らしいので、一回リフレッシュさせてあげるのは特にデジタル機器では大きな意味がありますね。こういった細かなノウハウをみんなで情報共有して、より苦労が減るようになってくれればと願っています。 R:この手の情報は、日々現場で作業をされている方ならではです。今日は、Atmos制作に関わる大変重要なポイントをついたお話を沢山お聞きすることができました。ありがとうございました。 📷本作を題材に特別上映会・トークセッションも今年頭に開催された。 本作はアーティストの脳内にある“ライブの理想像”を追求したことで、Dolby Atmosによるライブ表現の新たな可能性が切り拓かれた作品に仕上がっている。音に関しても、アーティストが、ステージで聴いている音を再現するという、新しい試みだ。それは、アーティストと制作チームがコミュニケーションを通じて共通のビジョンを持ち制作が進められたことで実現された。修正やダビングといったあらゆる工程を見越した上でのワークフローデザインは、作業効率はもちろん最終的なクオリティにも直結するということが、今回のインタビューを通して伝わってきた。入念な準備を行い、マイクアレンジを煮詰めることの重要性を改めて実感する。そして何より、より良い作品作りにはより良いチーム作りからという本制作陣の姿勢は、イマーシブ制作に関係なく大いに参考となるだろう。 FUKUYAMA MASAHARU LIVE FILM言霊の幸わう夏@NIPPON BUDOKAN 2023 監督:福山雅治 出演:福山雅治、柊木陽太 配給:松竹 製作:アミューズ ©︎2024 Amuse Inc.   *ProceedMagazine2024号より転載
Music
2024/08/16

Xylomania Studio「Studio 2」様 / 11.2.6.4イマーシブによる”空間の再現”

スタジオでのレコーディング / ミキシングだけでなく、ライブ音源、映画主題歌、ミュージカルなど多くの作品を手掛ける古賀 健一 氏。音楽分野におけるマルチチャンネル・サラウンド制作の先駆者であり、2020年末には自身のスタジオ「Xylomania Studio」(シロマニアスタジオ)を手作りで9.4.4.5スピーカー・システムへとアップデートしたことも記憶に新しいが、そのXylomania Studioで2部屋目のイマーシブ・オーディオ対応スタジオとなる「Studio 2」がオープンした。11.2.6.4という、スタジオとしては国内最大級のスピーカー・システムが導入され、Dolby Atmos、Sony 360 Reality Audio、5.1 Surround、ステレオといったあらゆる音声制作フォーマットに対応するだけでなく、立体音響の作曲やイマーシブ・コンサートの仕込みも可能。さらに、120inchスクリーンと8Kプロジェクタも設置されており、ポストプロダクションにも対応できるなど、どのような分野の作業にも活用できることを念頭に構築されている。この超ハイスペック・イマーシブ・レンタル・スタジオについて、オープンまでの経緯やそのコンセプトについてお話を伺った。 Beatlesの時代にイマーシブ表現があったら Xylomania Studio 古賀 健一 氏 Official髭男dismのApple Music空間オーディオ制作や第28回 日本プロ音楽録音賞 Immersive部門 最優秀賞の受賞など、名実ともに国内イマーシブ音楽制作の最前線を走る古賀 健一 氏。その活躍の場はコンサートライブや映画主題歌など多岐に渡り、自身の経験をスタジオ作りのコンサルティングなどを通してより多くのエンジニアやアーティストと共有する活動も行っている。 まさにイマーシブの伝道師とも呼べる古賀氏だが、音の空間表現に関心を持ったのはDolby Atmosが生まれるよりもはるか以前、彼の学生時代にまで遡るという。「現場ではたくさんの楽器、たくさんの音が鳴っているのに、それを表現する手段がステレオしかないということにずっと疑問を持っていた」という古賀氏だが、学生時代に出会ったSACDではじめて5.1サラウンドを体験して衝撃を受ける。 「これこそが、音楽表現のあるべき姿だ」と感じた古賀氏だが、「当時はPro Tools LEにサラウンドオプションを追加するお金もなかった」という中で工夫を重ねて再生システムを構築し、5.1サラウンド作品をひたすら聴いていたという。古賀氏といえば、自身のスタジオであるXylomania StudioをDIYでイマーシブ対応に改修し、その様子をサウンド&レコーディング・マガジン誌上で連載していたこともあるが、彼の飽くなき探究心とDIY精神はすでにこのころから備わっていたようだ。 その後も独自に空間表現を探究していた古賀氏だが、Dolby Atmosの登場によって、「これなら、もっと自由でもっと手軽に、音楽表現を追求できるんじゃないか」と感じたことで自身のスタジオをイマーシブ・オーディオ対応へと改修することを決める。しかし、「当初は5.1.4、なんなら、5.1.2で十分だと考えてました。そうしたら、Netflixが出したガイドラインが7.1.4となっていて、個人で用意できる予算では無理だと悟った」ことで、法人としてのXylomania Studioを設立することを決意したのだという。それから最初のスタジオができるまでについては、サンレコ誌への連載が今でもWEBで読めるので、ぜひそちらをご覧いただきたい。 Xylomania Studioがイマーシブ制作に対応したのが2020年12月。それから3年の時を経て、同社ふたつ目のイマーシブ・スタジオがオープンした理由や、この間に古賀氏自身の心境、イマーシブ・オーディオを取り巻く環境に変化はあったのだろうか。「ぼく自身のことを言えば、イマーシブへの関心はますます深まるばかりです。探究したいことはどんどん出てくる。周囲の環境については、やはりApple Musicの”空間オーディオ”の影響は大きいです。それ以前と比べると、関心を持ってくれるひとは確実に増えた。もともと、ぼくはお金になるかどうかは考えて動かないんです。Xylomania Studioも、ただ自分が探究したいという思いだけで作ったものだったので、成功する目論見なんてなかった。それが、ビジネスとしてきちんと成立するところまでたどり着けたことについては、仲間たちと”神風が吹いたね”なんて言っています」という。 今回オープンしたXylomania Studio「Studio 2」の計画がはじまったのは2022年夏。より多くの人にイマーシブ表現の可能性を体験してほしいと考えた古賀氏が、イマーシブ・スタジオの外部貸出を検討したことがスタートとなっている。 音楽ジャンルによってはイマーシブ表現が合わないものもある、という意見もあるが、これに対して古賀氏の「モノにはモノの、ステレオにはステレオのよさがあるのは確か。でも、ぼくは”イマーシブが合わないジャンル”なんてないと思ってます。だって、もしBeatlesの時代にイマーシブ表現があったら、彼らは絶対にやってたと思いませんか?」という言葉には、思わず深く頷いてしまった。「ふたつ目のスタジオを作ろうという気持ちになれたのも、空間オーディオによってイマーシブ制作がビジネスの軌道に乗ることができたからこそ。」という古賀氏。そうした仕事を通して関わったひとたちへの恩返しのためにも、国内のイマーシブ・シーンを盛り上げるようなアクションを積極的に取っていきたいという気持ちがあるようだ。 当初はStudio 1を貸出し、その間に自身が作業をおこなうための部屋を作ろうとしていたようだが、さまざまな紆余曲折を経て、結果的にはStudio 1をも超える、国内最高峰のイマーシブ・レンタル・スタジオが完成した。誌面で語り尽くせぬ豊富なエピソードとともに、以下、Xylomania Studio「Studio 2」のシステムを見ていきたい。 11.2.6.4イマーシブによる”空間の再現” 📷「Studio 2」はサイドの壁面色違いの箇所にインウォールでスピーカーを設置、この解決策により窮屈感はまったくなく、実際よりも広々とした居心地を実現した。肝心のサウンドについても映画館をはるかに超える音響空間を創出している。 11.2.6.4インウォール・スピーカー・システムによるイマーシブ再生環境、Danteを駆使したネットワーク伝送、ハイクオリティなブースとしての機能、大型スクリーンと8Kプロジェクタなど、Xylomania Studio「Studio 2」のトピックは枚挙にいとまがないが、このスタジオの最大の特徴は”限りなく本番環境に近い音場を提供できること”である。Studio 2の先鋭的かつ挑戦的なスペックのすべては、スタジオの中でどれだけ作品の最終形に近い響きを提供できるか、という目的に集約されているからだ。 古賀氏は「自分のスタジオでこう鳴っていれば例えばダビングステージではこういう音になるだろう、ということを想像することはできます。でも、その差を常に想像しながら作業を続けることはすごいストレス。仕込んだ音を現場で鳴らした時に、スタジオで意図した通りに鳴るような、本当の意味での”仕込み”ができる部屋を作りたかった」ということのようだ。「この部屋でミックスしたものをそのままライブに持ち込める、ダビングステージで作業したミックスを持ち込めばそのままここで配信用のマスターが作れる、そんなスタジオにしたかった。」 この、言わば音が響く空間を再現するというコンセプトを可能にしているのは、まぎれもなく11.2.6.4イマーシブ・システムだ。Studio 2のスピーカー配置は一般的なDolby Atmosレイアウトをもとに、サイド・リアとハイトは左右に3本ずつのスピーカーを持ち、それによって映画館やダビングステージのアレイ再生やディフューズ・サラウンド音場を再現している点が大きな特徴。実は、Studio 2の再生環境はその計画の途中まで既存のStudio 1と同じ9.2.6.4のシステムを組む方向で進んでいたのだという。しかし、古賀氏のある経験がきっかけで今の11.2.6.4へと拡張されることになったようだ。「ある映画主題歌の仕事でダビングステージを訪れた時、リア方向に振った音が思っていたより後方まで回り込んだんです。今までのニアフィールドの環境で映画作品の最終形をイメージすることには限界があると感じ、アレイ再生ができる環境を作るために急遽スピーカーを2本追加することにしました。」 📷フロントLCRに採用されたci140。センターとLRの間がサブウーファーのci140sub。 その11.2.6.4イマーシブ・システムを構成するスピーカーは、すべてPCMのインウォール・モデルである「ciシリーズ」。フロントLCR:ci140、ワイド&サラウンド:ci65、ハイト:ci45、ボトム:ci30、SW:ci140sub となっており、2台のサブウーファーはセンター・スピーカーとワイド・スピーカーの間に配置されている。 スピーカーをインウォール中心にするというアイデアも、計画を進める中で生まれたものだという。先述の通り、当初は今のStudio 1を貸出している間に自身が作業をおこなうための部屋を作ろうとしていたため、もともとレコーディング・ブースとして使用していたスペースに、スタンド立てのコンパクトなイマーシブ再生システムを導入しようと考えていたという。だが、スピーカーをスタンドで立ててしまうとブースとして使用するには狭くなりすぎてしまう。ブースとしての機能は削れないため、”もっとコンパクトなシステムにしなければ”という課題に対して古賀氏が辿り着いた結論が、以前にコンサルティングを請け負ったスタジオに導入した、”インウォール・スピーカー”にヒントを得たようだった。システムを小さくするのではなく、逆に大きくしてしまうことで解決するという発想には脱帽だ。 モデルの決定にはメーカーの提案が強く影響しているとのことだが、「ci140は国内にデモ機がなかったので、聴かずに決めました(笑)」というから驚きだ。古賀氏は「チームとして関わってくれる姿勢が何よりも大事。こういう縁は大切にしたいんです」といい、その気概に応えるように、PMCはその後のDolby本社との長いやりとりなどにおいて尽力してくれたという。 📷上左)サラウンドチャンネルをアレイ再生にすることで、映画館と同じディフューズ・サラウンドを再現することを可能にしている。上右)サイド/ワイド/リアはci65。後から角度を微調整できるように固定されておらず、インシュレーターに乗せているだけだという。下左)ハイト・スピーカーはci45。下右)ボトム・スピーカーを設置しているため、Dolby Atmosだけではなく、Sony 360 Reality Audioなどの下方向に音響空間を持つイマーシブ制作にも対応可能。「ボトムはリアにもあった方がよい」という古賀氏の判断で、フロント/リアそれぞれに2本ずつのci30が置かれている。 最後まで追い込んだアコースティック Studio 2が再現できるのは、もちろん映画館の音響空間だけではない。マシンルームに置かれたメインのMac Studioとは別に、Flux:: Spat Revolution Ultimate WFS Add-on optionがインストールされたM1 Mac miniが置かれており、リバーブの処理などを専用で行わせることができる。このSpat Revolution Ultimateに備わっているリバーブエンジンを使用して、Studio 2ではさまざまな音響空間を再現することが可能だ。必要に応じて、波面合成によるさらなるリアリティの追求もできるようになっている。 古賀氏が特に意識しているのは、コンサートライブ空間の再現。「このスタジオを使えば、イマーシブ・コンサートの本番環境とほとんど変わらない音場でシーケンスの仕込みができます。PAエンジニアはもとより、若手の作曲家などにもどんどん活用してほしい。」というが、一方で「ひとつ後悔しているのは、センターに埋め込んだサブウーファーもci140にしておけば、フロンタルファイブのライブと同じ環境にできたこと。それに気付いても、時すでに遅しでしたけど」と言って笑っていた。常に理想を追求する姿勢が、実に古賀氏らしい。 📷Flux:: Spat Revolution Ultimate WFS Add-on option さらに、Spat Revolution UltimateはStudio 2をレコーディング・ブースとして使用した際にも活用することができる。マイクからの入力をSpat Revolution Ultimateに通し、リバーブ成分をイマーシブ・スピーカーから出力するというものだ。こうすることで、歌手や楽器の音とリバーブを同時に録音することができ、あたかもコンサートホールや広いスタジオで収録されたかのような自然な響きを加えることができる。「後からプラグインで足すだけだと、自然な響きは得られない。ぼくは、リバーブは絶対に録りと同時に収録しておいた方がいいと考えています。」 こうした空間再現を可能にするためには、当然、スピーカーのポジションや角度、ルームアコースティック、スピーカーの補正などをシビアに追い込んでいく必要がある。Studio 2はもともと8畳程度の小さな空間に造られており、広さを確保するために平行面を残さざるを得なかったというが、その分、「内装工事中に何度も工事を止め、何度もスピーカーを設置して、実際に音を鳴らしてスピーカーの位置と吸音を追い込んでいきました」という。その結果、どうしても低域の特性に納得できなかった古賀氏は、工事の終盤になってスピーカーの設置全体を後方に5cmずらすことを決めたという。「大工さんからしたら、もう、驚愕ですよ。でも、おかげで音響軸は1mmのずれもなくキマってます。極限まで追い込んだ音を体験したことがある以上、半端なことはしたくなかった。」 電気的な補正を担っているのはTrinnov Audio MC-PROとAvid Pro Tools | MTRX II。MC-PROはDante入力仕様となっており、先にこちらで補正をおこない、MTRX II内蔵のSPQ機能を使用してディレイ値やEQの細かい部分を追い込んでいる。「MC-PROの自動補正は大枠を決めるのにすごく便利。SPQは詳細な補正値を確認しながらマニュアルで追い込んでいけるのが優れている」と感じているようだ。 📷「最初から導入を決めていた」というTrinnov MC PROは数多くの実績を持つ音場補正ソリューション。MC PROもパワーアンプもDante入力を持つモデルを選定しており、システム内の伝送はすべてDanteで賄えるように設計されている。 テクノロジーとユーティリティの両立 📷「Studio 2」のミキシング・デスク。コントロール・サーフェスはPro Tools | S1とPro Tools | Dockの組み合わせ。デスク上にはRedNet X2PやDAD MOMも見える。 Studio 2のシステム内部はすべてデジタル接続。Studio 1 - Studio 2間の音声信号がMADIである以外は、パワーアンプの入力まですべてDanteネットワークによって繋がっている。モニターセクションの音声信号はすべて96kHz伝送だ。パッチ盤を見るとキャノン端子は8口しかなく、DanteやMADI、HDMIなどの端子が備わっていることにスタジオの先進性が見て取れる。 メインMacはMac Studio M2 UltraとSonnet DuoModo xEcho IIIシャーシの組み合わせ。MacBookなどの外部エンジニアの持ち込みを想定して、HDXカードをシャーシに換装できるこの形としている。オーディオI/OはAvidのフラッグシップであるPro Tools | MTRX II。「MTRX IIになって、DanteとSPQが標準搭載になったことは大きい。」という。オプションカードの構成はAD x2、DA x2、Dante x1、MADI x1、DigiLink x2となっており8個のスロットをフルに使用している。確かに、同じ構成を実現するためには初代MTRXだったらベースユニットが2台必要なところだった。合計3組となるDigiLinkポートは、それぞれ、ステレオ、5.1、Dolby Atmos専用としてI/O設定を組んでおり、出力フォーマットが変わるたびにI/O設定を変更する必要がないように配慮されている。 📷左)本文中にもある通り「初代MTRXなら2台導入する必要があった」わけで、結果的にMTRX IIの登場は「Studio 2」の実現にも大きく貢献したということになる。中)メインMacをMac Studio + TBシャーシとすることで、クリエイターがMacを持ちこんだ場合でもHDXカードを使用した作業が可能になっている。RMU I/FのCore 256はあらゆるフォーマットの音声をRMUに接続。「Studio 2」ではDanteまたはMADIを状況に応じて使い分けている。 Dolby Atmosハードウェア・レンダラー(HT-RMU)はMac miniでこちらもCPUはM2仕様。Apple Siliconは長尺の作品でも安定した動作をしてくれるので安心とのこと。RMUのI/FにはDAD Core 256をチョイス。Thunderbolt接続でDante / MADIどちらも受けられることが選定の決め手になったようだ。96kHz作業時はDante、48kHzへのSRCが必要な時はDirectOut Technologies MADI.SRCを介してMADIで信号をやりとりしているという。 Studio 2のサイドラックには、ユーティリティI/OとしてThunderbolt 3オプションが換装されたPro Tools | MTRX Studioが設置されているほか、Focusrite RedNet X2PやNeumann MT48も見える。Studio 2でちょっとした入出力がほしくなったときに、パッと対応できるようにしてあるとのこと。「作曲家やディレクターにとってソフトウェアでの操作はわかりにくい部分があると思うので、直感的に作業できるように便利デバイスとして設置してある」という配慮のようだ。 📷左右のサイドラックには、Logic ProやSpat RevolutionがインストールされたMacBook Pro、フロントパネルで操作が可能なMTRX Studio、各種ショートカットキーをアサインしたタブレット端末などを設置。 個人的に面白いと感じたのは、AudioMovers Listen ToとBinaural Rendererの使い方だ。DAWのマスター出力をインターネット上でストリーミングすることで、リモート環境でのリアルタイム制作を可能にするプラグインなのだが、この機能を使ってスマートフォンにリンクを送り、AirPodsでバイノーラル・ミックスのチェックを行うのだという。たしかに、こうすればわざわざマシンルームまで行ってMacとBluetooth接続をしなくて済んでしまう。 操作性の部分でもこれほどまでに追い込まれているStudio 2だが、「それでも、これをこう使ったらできるんじゃないか!?と思ったことは、実際にはほとんどできなかった」と古賀氏は話す。古賀氏のアイデアは、進歩するテクノロジーをただ追うのではなくむしろ追い越す勢いで溢れ出しているということだろう。 「Amazonで見つけて買った(笑)」というデスクは、キャスターと昇降機能付き。作業内容やフォーマットによってミキシングポイントを移動できるように、ケーブル長も余裕を持たせてあるという。「この部屋にはこれだけのスペックを詰め込みましたけど、内覧会で一番聞かれたのが、そのデスクと腰にフィットする椅子、どこで買ったんですか!?だった(笑)」というが、確かに尋ねたくなる気持ちもわかるスグレモノだと感じた。 紆余曲折を経て、結果的に古賀氏自身のメインスタジオよりも高機能・高品質なスタジオとなったStudio 2だが、このことについて古賀氏は「9.1.4のStudio1を作ってからの3年間で、9.1.6に対応したスタジオは国内にだいぶ増えたと思ってます。だったら、ぼくがまた同じことをやっても意味がない。ぼくが先頭を走れば、必ずそれを追い越すひとたちが現れます。そうやって、国内シーンの盛り上がりに貢献できたらいい」と語ってくれた。「このスタジオのようなスペックが当たり前になった暁には、ぼくはここを売ってまた新しい部屋をつくります!今度は天井高が取れる場所がいいな〜」といって笑う古賀氏だが、遠くない将来、きっとその日が来るのだろうと感じた。   *ProceedMagazine2024号より転載
Music
2024/08/13

Bob Clearmountain〜 伝説のエンジニア ボブ・クリアマウンテンが描くミックス・ノウハウのすべて 〜

去る4月、伝説のレコーディング・エンジニアであるボブ・クリアマウンテン氏が来日。東京・麻布台のSoundCity B Studioにおいて「伝説のエンジニア ボブ・クリアマウンテンが描くミックス・ノウハウのすべて」と題したセミナー・イベントが開催された。受講者20名限定で開催されたこのイベントでは、注目を集める“音楽のイマーシブ・ミックス”について、ボブ・クリアマウンテンがそのワークフローとテクニックを約3時間にわたって解説。途中、一般には公開されていない著名な楽曲のイマーシブ・ミックスが特別に披露されるなど、大変充実した内容のイベントとなった。ここではその模様をダイジェストでお伝えしたい。 イマーシブ・オーディオへの取り組み Bob Clearmountain氏:私は音楽のサラウンド・ミックスにいち早く取り組んだエンジニアのひとりだと思いますが、イマーシブ・オーディオに関しては、妻(注:Apogee ElectronicsのCEO、ベティー・ベネット氏)から、“これは素晴らしいテクノロジーだから、ぜひ取り組むべきだ”と背中を押されたことがきっかけになりました。実際に音楽のイマーシブ・ミックスを手がけたのは、皆さんご存知のザ・バンドが最初です。私はザ・バンドの名盤3作品の5.1chミックスを手がけたのですが、その中の1枚「カフーツ」というアルバムの作業をしているときに、レコード会社の担当者から、“Dolby Atmosでもミックスしてみないか”というオファーがあったのです。 その後間もなく、ジョー・ボナマッサの「Time Clocks」というアルバムもDolby Atmosでミックスしました。これが私にとって音楽のイマーシブ・ミックスの2作目になります。このアルバムのプロデューサーであるケヴィン・シャーリーはオーストラリア出身で、ディジュリドゥのサウンドがとても印象的な作品です。このアルバムは何年も前の作品であったため、レーベル・サイドもアーティスト本人も、最初はDolby Atmos化にあまり関心がありませんでした。ただ、私は自分のスタジオをDolby Atmosに対応させたばかりだったので、Dolby Atmosバージョンをジョー・ボナマッサ本人、ケヴィン・シャーリー、レーベルのスタッフに聴いてもらったのです。そうしたら彼らはそのサウンドに感銘を受け、“これは素晴らしい、ぜひリリースしよう”ということになりました。それがきっかけで、ケヴィンも自身のスタジオをDolby Atmosに対応させましたよ(笑)。 私は1980年代、ロキシー・ミュージックの「Avalon」というアルバムをミックスしましたが、あれだけ様々な要素が含まれている作品がステレオという音場の中に収められているのはもったいないと前々から感じていました。もっと音場が広ければ、要素をいろいろな場所に定位できるのに… という想いが、常に頭の中にあったのです。もちろんそれは、イマーシブ・オーディオどころか、サラウンドが登場する以前の話で、いつかその想いを叶えたいと思っていました。その後、念願かなって「Avalon」のサラウンド・ミックスを作ることができました。そしてイマーシブ・オーディオの時代が到来し、「Avalon」のプロデューサーであるレット・ダヴィースと“これは絶対にDolby Atmosでミックスするべきだ”ということになったのです。 Dolby Atmosバージョンの「Avalon」を体験された方なら分かると思いますが、かなりの要素が後方に配置されており、そのようなバランスの楽曲は珍しいのではないかと思います。たとえば、印象的な女性のコーラスも後方に配置されています。なぜこのようなバランスにしたかと言えば、ステレオ・ミックスを手がけたときもそうだったのですが、演劇のような音響にしたいと考えたからです。楽曲に登場する演者、ボーカリスト、プレーヤーを舞台に配置するようなイメージでしょうか。ですので、キーとなるブライアン・フェリーのボーカルはフロント・センターですが、他の要素は異なる場所に定位させました。 イマーシブ・ミックスというと、多くの要素が動き回るミックスを想起する方も多いのではないかと思います。もちろん、そういうミックスも可能ですが、Dolby Atmosバージョンの「Avalon」ではそういうダイナミックなパンニングはほとんどありません。言ってみれば静的なミックスであり、ジェット機やヘリコプター、アイアンマンが登場するようなミックスではないのです。 SSL 4000Gを使用したイマーシブ・ミックス 📷オーディオの入出力を担うのはApogeeのSymphony I/O Mk II。Atmosミックスとステレオミックスを同時に作るワークフローではこれらを切り替えながら作業を行うことになるが、その際に素早く切り替えを行うことができるSymphony I/O Mk IIのモニター・コントロール機能は重宝されているようだ。SSL 4000Gの後段にある「プリント・リグ」と呼んでいるセクションで下図のようなセッティングを切り替えながら制作が進められていく。 私はイマーシブ・ミックスもアナログ・コンソールのSSL 4000Gでミックスしています。SSL 4000Gには再生用のAvid Pro Toolsから72chのオーディオが入力され、そしてミックスしたオーディオは、“プリント・リグ”と呼んでいる再生用とは別のPro Toolsにレコーディングします。“プリント・リグ”のPro Toolsは、最終のレコーダーであると同時にモニター・コントローラーとしての役割も担っています。 そして再生用Pro Toolsと“プリント・リグ”のPro Tools、両方のオーディオ入出力を担うのは、ApogeeのSymphony I/O Mk IIです。私は、ステレオ・ミックスとDolby Atmosミックスを同時に作りますが、Symphony I/O Mk IIでのモニター・コントロール機能は、まさしく私のワークフローのために搭載されているような機能と言えます。私は7.1.4chのDolby Atmosミックスと、ニア・フィールド・スピーカーやテレビなどに送る3組のステレオ・ミックスを切り替えながら作業を行いますが、Symphony I/O Mk IIではそういったワークフローに最適な機材です。ステレオ・ペアを最大16組作成することができ、非常に柔軟な作業環境を構築できるため、過去に手がけた5.1chのサラウンド・ミックスと比較しながらの作業も容易です。 肝心のミキシングについて、アナログ・コンソールのSSL 4000Gで一体どのようにイマーシブ・ミックスを行っているのか、疑問に感じた人もいるかもしれません。しかし決して特別なことを行っているわけではなく、そのルーティングはストレートでシンプルです。SSL 4000Gに入力した信号は、チャンネル・ストリップで調整した後、Dolby Atmos用のチャンネルとして、スモール・フェーダーのトリム・チャンネルを活用して送っているのです。スモール・フェーダーは基本ユニティーで使用し、レベルはラージ・フェーダーの方で調整してから、ポスト・フェーダーでスモール・フェーダーに送ります。スモール・フェーダーから2本のスピーカーに同時に送ることは基本ありませんが、隣り同士のスピーカーに同じ信号を送って、パンでバランスを調整することはあります。また、このルーティングですと、基本オートメーションを使用することができません。オートメーションを使いたいときは、専用のバスを作り、そちらに送ることで対処しています。 私のSSL SL4000Gは特別仕様で、VCAとバス・コンプレッサーが4基追加で備わっています。標準のステレオ・バスのDCを、追加搭載した4基のVCA / バス・コンプレッサーにパッチすることで、すべてのバス・コンプレッサーの挙動をスレーブさせ、ステレオ・ミックスとマルチ・チャンネル・ミックスのコンプレッションの整合性を取っているのです。ただ、これだけの構成では5.1chのサラウンド・ミックスには対応できても、7.1.4chのイマーシブ・ミックスには対応できません。それでどうしようかと悩んでいたときに、Reverb(編注:楽器・機材専門のオンライン・マーケットプレイス)でSSLのVCA / バス・コンプレッサーをラック仕様にノックダウンした機材を発見し、それを入手して同じようにDC接続することで、7.1.4chのイマーシブ・ミックスに対応させました。これはとてもユニークなシステムで、おそらく世界中を探しても同じようなことをやっている人はいないと思います(笑)。もちろん、サウンドは素晴らしいの一言です。 Dolby Atmosミックスは、7.1.2chのベッドと最大128個のオブジェクトで構成されますが、私は基本的にベッドルーム(7.1.2)でミックスを行います。オブジェクトは動く要素、たとえば映画に登場するヘリコプターなどのサウンドを再現する上では役に立ちますが、音楽のイマーシブ・ミックスにはあまり必要だとは思っていません。ですので、Dolby Atmosミックスと言っても私はハイト・スピーカーを除いた7.1chで音づくりをしています。なお、ハイト・チャンネルに関してDolby Laboratoriesは2chのステレオとして規定していますが、私は4chのクアッドとして捉え、シンセサイザーやスラップバック・ディレイなどを配置したりして活用しています。 ステレオ・ミックスのステムはできるだけ使用しない 先ほどもお話ししたとおり、私はステレオ・ミックスとDolby Atmosミックスを同時に行います。最初にステレオ・ミックスを作り、そこから書き出したステムを使ってDolby Atmosミックスを作る人が多いと思うので、私のワークフローは珍しいかもしれません。なぜステレオ・ミックスとDolby Atmosミックスを同時に行うのかと言えば、私はステレオ・ミックスから書き出したステムに、ミキシングを縛られたくないからです。ステレオ・ミックスのステムは、エフェクトも一緒に書き出されてしまっているため、もう少しフィールドを広げたいと思っても簡単にはいきません。楽曲の中心であるボーカルですらまとめられてしまっているので、私はDolby Atmosミックスに入る前に、iZotope RXを使ってセンターのボーカルとサイドのボーカルを分離します。 ですので、可能な限りオリジナルのセッションからDolby Atmosミックスを作るべきであると考えていますが、これは理想であって、実際には難しいケースもあるでしょう。もちろんステムから作られたDolby Atmosミックスの中にも素晴らしい作品はあります。たとえば、アラバマ・シェイクスのボーカリスト、ブリタニー・ハワードの「What Now」という曲。このミックスを手がけたのはショーン・エヴェレットというエンジニアですが、彼はステムをスピーカーから再生して、それをマイクで録音するなど、抜群のクリエイティビティを発揮しています。まさしくファンキーな彼のキャラクターが反映されたミックスだと思っています。 アーティストの意向を反映させる 最近はレコード会社から、昔の名盤のDolby Atmos化を依頼されることが多くなりました。しかしDolby Atmos化にあたって、アーティスト・サイドの意向がまったく反映されていないことが多いのです。意向が反映されていないどころか、自分の作品がDolby Atmosミックスされたことをリリースされるまで知らなかったというアーティストもいるくらいです。音楽はアーティストが生み出したアート作品です。可能な限りアーティストの意向を反映させるべきであると考えています。 私が1980年代にミックスしたヒューイ・ルイス&ザ・ニュースの「Sports」というアルバムがあります。何年か前にこの作品のディレクターから、“「Sports」のDolby Atmosミックスを作ったので聴いてみないか”という連絡がありました。興味があったので聴きに行ったのですが、その場にいた全員が“これは何かの冗談だろ?”と顔を見合わせるくらいひどいミックスだったのです。試聴環境のセットアップは完璧でしたが、聴くに耐えないミックスでどこかを修正すれば良くなるというものではありません。私はディレクターに、“Dolby Atmosミックスを作り直させてくれないか”と打診しました。予算を使い切ってしまったとのことだったのですが、個人的に思い入れのある作品だったということもあって、無償で引き受けることにしたんです。 この話には余談があります。「Sports」のDolby Atmosミックスは、Apple Musicでの配信直後にリジェクトされてしまったのです。なぜかと言うと、オリジナルのステレオ・ミックスには入っていない歌詞が入っているから。私はDolby Atmosミックスを行う際にあらためてマルチを聴き直してみたのですが、おもしろい歌詞が入っていたので、それを最後に入れてしまったんです(笑)。Appleはオリジナルの歌詞とDolby Atmosミックスの歌詞が同一でないとリジェクトしてしまうので、過去の作品のDolby Atmos化を検討されている方は気をつけてください。彼らはしっかりチェックしているようです(笑)。また、Appleは空間オーディオ・コンテンツの拡充に力を入れていますが、ステレオ・ミックスを単純にアップ・ミックスしただけの作品も基本リジェクトされてしまいます。 一世を風靡した“ボブ・クリアマウンテン・サウンド” 私は古くからの友人であるブライアン・アダムスのヒット曲、「Run To You」もDolby Atmosでミックスしました。Dolby Atmosミックスの話に入る前に、どうやってこの特徴的な’80sサウンドを生み出したのか、少しご紹介しておきましょう。 この曲はカナダのバンクーバーにある「Little Mountain Studio」というスタジオでレコーディングを行いました。私はこの曲のドラムを“ビッグ・サウンド”にしたいと考えたのですが、「Little Mountain Studio」のライブ・ルームはかなりデッドで、私がイメージしていた“ビッグ・サウンド”には不向きな空間だったのです。一体どうしたものか…と思案していたとき、ライブ・ルームの真横にローディング・ベイ、 いわゆるガレージのようなスペースがあることに気付きました。試しにそこで手を叩いてみたところ、コンクリートが気持ちよく反響したので、私はドラムの周囲に比較的硬めの遮蔽板を設置し、残響をローディング・ベイ側に逃すことで、大きな鳴りのドラム・サウンドを作り出したのです。本当に素晴らしいサウンドが得られたので、このセッティングを再現できるように、アシスタントに頼んでドラムやマイクの位置を記録してもらいました。ですので、この“ビッグ・サウンド”は、後にこのスタジオでレコーディングされたボン・ジョヴィやエアロ・スミスの曲でも聴くことができます。 「Run To You」をレコーディングしたのはもう40年も前のことになりますが、自分がやっていることは今も昔も大きく変わっていません。確かに世の中にはトレンドというものがあります。「Run To You」をレコーディングした1980年代はリバーブが強いサウンドが主流でしたが、1990年代になると逆にドライなサウンドが好まれるようになりました。そしてご存知のとおり、現代は再びリバーブを使ったサウンドが主流になっています。そういったトレンドに従うこともありますが、私は天邪鬼なのでまったく違ったサウンドを試すこともあります。いつの時代も自分のスタイルを崩すことはありません。 よく“ボブ・クリアマウンテン・サウンド”と言われることがありますが、私は自分のサウンドについて意識したことはありません。私はあくまでもクライアントであるアーティストのためにミックスを行っているのです。アーティストと一緒に作り上げたサウンドが、結果的に“ボブ・クリアマウンテン・サウンド”になっているのではないかと思っています。 イマーシブ・ミックスにおける各要素の定位 「Run To You」のDolby Atmosミックスについてですが、まずセンターには楽曲の基盤となるボーカル、ベース、スネア、キックといった音を定位させました。こういった音をなぜセンターに集めるかと言うと、私はライブ・コンサートのようなイメージでミックスを行うからです。ロックやポップスのライブ・コンサートでは、これらの音がセンターから聴こえます。ご存知のように、再生環境におけるセンター・スピーカーという考え方は映画から来ています。映画の中心となる音はダイアログで、それはほとんどの場合がセンターに定位されます。その考え方をそのまま音楽に適用しても、問題はないと考えています。 それではサイド、リア、ハイトには、どのような音を定位させるのがいいのでしょうか。楽曲の基盤となる音に関してはセンターに集めた方がいいと言いましたが、同じギターでもパワー・コードのような音ではない、たとえばアコースティック・ギターのような音ならば、サイドに振ってみてもいいかもしれません。キーボードに関しても同じで、ピアノはセンターに定位させる場合が多いですが、シンセサイザーのような音はリアやハイトに定位させると良い結果が得られます。 Dolby Atmosというフォーマットにおいて特徴的な要素と言えるのが、ハイト・スピーカーです。“音楽のミックスで、ハイト・スピーカーなんて使いどころがあるのか?”と思われる人もいるかもしれませんが、実際はとても有用です。たとえば私はアンビエンス… リバーブで作り出した残響ではなく、インパルス・レスポンスにおけるアンビエンスをハイト・スピーカーに送り、これによって空間の高さを演出しています。 もうひとつ、LFEという要素についてです。サブ・ウーファーに関してはミックスを補強してくれる有用な要素ではあるのですが、必須ではないというのが私の考え方です。私はLFEなしでミックスを成立させ、それを補強する際に使用しています。また、ミッド・ファーはバイノーラルのオプションではグレイアウトされて設定することができません。あまりLFEに頼り過ぎてしまうと、ヘッドホンで聴いたときに音像が崩れてしまうので注意が必要です。 イマーシブ・ミックスにおけるエフェクト処理 「Run To You」のDolby Atmosミックスでは、ボーカルだけでなくシンセサイザーのディレイ音もリアに配置しています。タイミングが楽曲のテンポよりもオフなので、一聴すると“曲に合っているのか?”と思う人もいるかもしれませんが、ディエッサーを強めにかけることによってミックスに戻した際に馴染むサウンドを作り出しているのです。ギターに関しても同じく、それだけで聴くとバラバラな印象があったので三連符のディレイを使用し、ディレイ音が返る度にリバーブを付加していき、さらには歪みも加えることで、奥行き感と立体感のあるサウンドを作り出しています。こういったエフェクトには、私が開発に関わったApogee Clearmountain’s Domainを使用しました。先ほども言ったとおり、私の頭の中にあったのはライブ・コンサートのようなサウンドです。私はライブ・サウンドが大好きなので、それをスタジオで再現するという音作りになっています。また、パーカッションが空間の中を飛び回っているように聴こえるかもしれませんが、こういったサウンドもエフェクトのみで作り出しています。このミックスではオブジェクトを使用していません。楽曲を構成する要素はステレオ・ミックスと同一です。スピーカーの構成が違うだけで、こうも印象が変わるという好例だと思います。 プラグインに関して、イマーシブ・ミックスで最も多用しているのがクアッド処理に対応しているリバーブです。具体的にはApogee Clearmountain’s Domainを最もよく使います。イマーシブ・ミックス用のクアッド・リバーブは、そのままフォールドバックしてステレオ・ミックスにも使用します。最近は位相を自動で合わせてくれたりするような管理系のプラグインが多く出回っていますが、そういったツールを使い過ぎるとサウンドのパワー感が失われてしまうような印象を持っています。実際にそういったツールを使ったことがありますが、最終的には使用しない方が良い結果になったケースの方が多かったです。 📷Apogee Clearmountain’s Domain:ミックスでも多用しているというApogee Clearmountain’s Domain。画面左側のシグナルフローに沿うようにボブ・クリアマウンテン独自のFXシグナルチェーンを再現している。もちろん、プリセットもボブ独自のものが用意されており、ロードして「あの」サウンドがどのように構築されているのかを解析するという視点も持つと実に興味深いプラグインだと言えるだろう。 イマーシブ・オーディオで楽曲の物語性を強化する イマーシブ・オーディオは、アーティストが楽曲に込めた物語性を強化してくれるフォーマットであると考えています。私の古くからの友人であるブルース・スプリングスティーンは歌詞をとても重視するアーティストです。彼は歌詞に込めた物語性をいかにサウンドに盛り込むかということを常に考えており、私は彼のそういう想いをミックスで楽曲に反映させようと長年努力してきました。 ブライアン・フェリーの「I Thought」という曲があります。それほど有名ではないかもしれませんが、私のお気に入りの曲です。この曲の歌詞は、男性がガール・フレンドに対して抱いているイメージが、徐々に現実とは違うことに気づいていく… という内容になっています。男性が想っているほどガール・フレンドは彼のことを想っているわけではない…。これはブライアンから聞いたストーリーではなく歌詞を読んだ私の勝手な解釈ですが、私はこの解釈に基いてモノラルで始まるシンプルな音像がどんどん複雑な音像になっていく… というイメージでミックスしました。そして最後は男性の悲しさや虚しさについてをノイズを強調することで表現したのです。ちなみにこの曲はブライアン・フェリー名義ですが、ロキシー・ミュージックのメンバーも参加しています。おそらく最後のノイズはブライアン・イーノのアイデアだったのかなと想像しています。 Dolby Atmos for Everyone! Dolby Atmosに興味はあるけれども、制作できる環境を持っていないという人も多いかもしれません。しかしその敷居は年々低くなっており、いくつかのDAWの最新バージョンにはDolby Atmosレンダラーが標準で搭載されています。その先駆けとなったのがApple Logic Proで、Steinberg NuendoやPro Toolsの最新バージョンにもDolby Atmosレンダラーが統合されています。このようにDolby Atmosは決して特別なものではなく、今や誰でも取り組むことができるフォーマットと言っていいでしょう。もちろん、Symphony I/O Mk IIはこれらすべてのDAWに対応しています。その柔軟なモニター・コントロール機能は、Dolby Atmosコンテンツの制作に最適ですので、ぜひご購入いただければと思います(笑)。Dolby Atmosで作業するには多くのオーディオ入出力が必要になりますが、Symphony I/O Mk IIではDanteに対応しています。コンピューター側に特別なハードウェアを装着しなくても、Dante Virtual Soundcardを使用すれば、Symphony I/O Mk IIとDanteで接続することができます。この際に有用なのがGinger Audioというメーカーが開発しているGroundControl SPHEREで、このソフトウェアを組み合わせることによって複雑なルーティングでも簡単かつ効率よくセットアップすることができます。 私が今日、明確にしておきたいのは、イマーシブ・オーディオというのは新しいテクノロジーではあるのですが、多くのレコード会社がサポートしてくれているので、一時のブームで廃れてしまうようなものではないということです。これからイマーシブ・ミックスされた素晴らしい作品がどんどんリリースされることでしょう。我々ミュージック・プロダクションに携わる者たちは、皆で情報交換をしてこの新しいテクノロジーを積極的にバックアップしていくべきだと考えています。 今回のセミナーでは、私が行なっているDolby Atmosミックスのワークフローについてご紹介しましたが、必ずしもこれが正解というわけではありません。たとえば、私はセンター・スピーカーを重要な要素として捉えていますが、エンジニアの中にはセンター・スピーカーを使用しないという人もいます。そういうミキシングで、アーティストのイメージが反映されるのであれば、もちろん何も問題はないのです。ですので、自分自身のアイデアで、自分自身の手法を見つけてください。 充実の内容となった今回のセミナー。イマーシブサウンドという新たな世界観を自身のワークフローで昇華してさらに一歩先の結果を追い求めている様子がよくわかる。その中でも、アーティストの意図をしっかりと反映するためのミックスという軸は今も昔も変わっておらず、“ボブ・クリアマウンテン・サウンド”とされる名ミックスを生み出す源泉となっているように感じる。レジェンドによる新たな試みはまだまだ続きそうだ。   *ProceedMagazine2024号より転載
Media
2024/08/09

N響「第9」、最先端イマーシブ配信の饗宴。〜NHKテクノロジーズ MPEG-H 3D Audio 22.2ch音響 / NeSTREAM LIVE / KORG Live Extreme〜

年末も差し迫る2023年12月26日に行われた、NHKホールでのNHK交響楽団によるベートーヴェン交響曲第9番「合唱つき」のチャリティーコンサート。 その年の最後を飾る華やかなコンサートと同時に、NHKテクノロジーズ(NT)が主催する次世代を担うコンテンツ配信技術のテストだ。次世代のイマーシブ配信はどのようになるのか、同一のコンテンツをリアルタイムに比較するという貴重な機会である。その模様、そしてどのようなシステムアップが行われたのか、壮大なスケールで行われた実験の詳細をレポートする。 ●取材協力 ・株式会社NHKテクノロジーズ ・株式会社クープ NeSTREAM LIVE ・株式会社コルグ Live Extreme 3つのイマーシブオーディオ配信を同時テスト まずは、この日に行われたテストの全容からお伝えしたい。イマーシブフォーマット・オーディオのリアルタイム配信実験と言ってもただの実験ではない、3種類のフォーマットと圧縮方式の異なるシステムが使われ、それらを比較するということが行われた。1つ目は、次世代の放送規格としての8K MPEG-H(HEVC+22.2ch音響MPEG-H 3D Audio *BaselineProfile level4)の配信テスト。2つ目がNeSTREAM LIVEを使った、4K HDR(Dolby Vision)+ Dolby Atmos 5.1.4ch@48kHzの配信テスト。3つ目がKORG Live Extremeを使った、4K + AURO-3D 5.1.4ch@96kHzの配信テストだ。さらに、NeSTREAM LIVEでは、HDR伝送の実験も併せて行われた。イマーシブフォーマットのライブストリーム配信というだけでも興味深いところなのだが、次世代の技術をにらみ、技術的に現実のものとして登場してきている複数を比較するという取り組みを目にすることができるのは大変貴重な機会だと言える。 全体のシステムを紹介する前に、それぞれのコーデックや同時配信されたフォーマットなどを確認しておきたい。22.2chは、次世代地上デジタル放送での採用も決まったMPEG-H 3D Audioでの試験、NeSTREAM LIVEは、NetflixなどストリーミングサービスでのDolby Atmos配信と同一の技術となるDolby Digital Plusでの配信、KORG Live ExtremeはAURO-3Dの圧縮技術を使った配信となっている。圧縮率はNeSTREAM LiveのDolby Digital Plusが640kbps、次にMPEG-Hの22.2chで1chあたり80kbps。Live Extremeは10Mbps程度となっている。 映像についても触れておこう。22.2chと組み合わされるのは、もちろん8K HEVCの映像、NeSTREAM LIVEは同社初のチャレンジとして4K Dolby Visonコーデックによる4K HDR映像の配信テストが合わせて行われた。KORG Live Extremeは、4Kの動画となっている。次世代フォーマットであるということを考えると当たり前のことかもしれないが、各社イマーシブと組み合わせる音声として4K以上の動画を準備している。KORG Live Extremeでは、HPLコーデックによる2chバイノーラルの伝送実験も行われた。イマーシブの視聴環境がないという想定では、このようなサブチャンネルでのバイノーラル配信というのは必要なファクターである。ちなみに、Dolby Atmosであれば再生アプリ側でバイノーラルを作ることができるためこの部分に関しては大きな問題とならない。 IPで張り巡らされたシステムアップ 📷仮設でのシステム構築のため、長距離の伝送を絡めた大規模なシステムアップとなっている。DanteのFiber伝送、Riedel MediorNet、OTARI LightWinderが各種適材適所で使われている。また、できるかぎり信号の共有を図り、チャンネル数の多いイマーシブサウンド3種類をうまく伝送し、最終の配信ステーションへと送り込んでいるのがわかる。実際のミックスは、22.2chのバランスを基本にそこからダウンコンバート(一部チャンネルカット)を行った信号が使われた。 それでは、テストのために組み上げられた当日のシステムアップを紹介したい。NHKホールでのNHK交響楽団によるベートーヴェン交響曲第9番「合唱つき」のチャリティーコンサートは、ご存知の通り年末の恒例番組として収録が行われオンエアされている。その本番収録のシステムとは別に今回のテスト配信のシステムが組まれた。マイクセッティングについても、通常収録用とは別に会場のイマーシブ収録のためのマイクが天井へ多数準備された。ステージ上空には、メインの3点吊り(デッカベースの5ポイントマイク)以外にもワイドに左右2本ずつ。客席上空には22.2chの高さ2層のレイヤーを意識したグリッド上の17本のマイクが吊られていた。 📷客席上空に吊り下げられたマイク。田の字にマイクが吊られているのが見てとれる。これは22.2chのレイヤーそのものだ。NHKホールは放送局のホールということもあり、柔軟にマイクを吊ることができるよう設計されている。一般的なホールではなかなか見ることができない光景である。 マイクの回線はホール既設の音響回線を経由して、ホール内に仮設されたT-2音声中継車のステージボックスに集約される。ここでDanteに変換されたマイクの音声は、NHKホール脇に駐車されたT-2音声中継車へと送られ、ここでミックスが作られる。この中継車にはSSL System Tが載せられているおり、中継車内で22.2ch、Dolby Atmos準拠の5.1.4chのミックスが制作され出力される。ここまでは、KORG Live Extremeが96kHzでのテストを行うこともあり、96kHzでのシステム運用となっている。 22.2chと5.1.4ch@48kHzの出力は、MADIを介しRIEDEL MediorNetへ渡され、配信用のテスト機材が設置されたNHKホールの配信基地へと送られる。もう一つの5.1.4ch@96kHzの回線はOTARI Lightwinderが使われ、こちらもNHKホールの配信基地へと送られる。ホールの内外をつなぐ長距離伝送部分は、ホールから中継車までがDante。中継車からホールへの戻りは、MediorNetとLightwinderというシステムだ。それぞれネットワークケーブル(距離の関係からオプティカルケーブルである)でのマルチチャンネル伝送となっている。 📷T-2音声中継車とその内部の様子。 ホールの配信基地には22.2ch@MPEG-H、NeSTREAM LIVE、Live Extremeそれぞれの配信用のシステムがずらりと設置されている。ここでそれぞれのエンコードが行われ、インターネット回線へと送り出される。ここで、NeSTREAM LIVEだけは4K HDRの伝送実験を行うために、AJA FS-HDRによる映像信号のHDR化の処理が行われている。会場収録用のカメラは8Kカメラが使われていたが、SDRで出力されたためHDR映像へとコンバートが行われ、万全を期すためにカラリストがその映像の調整を行っていた。機械任せでSDRからHDRの変換を行うだけでは賄えない部分をしっかりと補正、さすが検証用とはいえども万全を期すプロフェッショナルの仕事である。 このようにエンコードされ、インターネットへと送出されたそれぞれのコーデックによる配信は、渋谷ではNHK放送センターの至近にあるNHKテクノロジーズ 本社で受信して視聴が行われるということになる。そのほか渋谷以外でも国内では広島県東広島芸術文化ホールくらら、海外ではドイツでの視聴が行われた。我々取材班は渋谷での視聴に立会いさせていただいたが、他会場でも問題なく受信が行えていたと聞いている。 📷上左)NHKホールの副調整室に設置された3つの配信システム。写真中央の2台並んだデスクトップのシステムは、KORG Live Extremeのシステムだ。上右)こちらが、NeSTREAM LIVEのDolby Atmos信号を生成するためのラック。ここでリアルタイムにDolby Digital Plusへとエンコードが行われる。下左)8K+22.2chを制作するためのPanasonic製レコーダー。8K 60Pの収録を可能とするモンスターマシンで収録が行われた。下右)NeSTREAM LIVEで使われたHDRの信号生成のためのラック。最上段のAJA FS-HDRがアップコンバートのコアエンジン。 それぞれに持つ優位性が明確に 実際に配信された3種類を聴いてみると、それぞれのメリットが際立つ結果となった。イマーシブというフォーマットの臨場感、このポイントに関してはやはりチャンネル数が多い22.2chのフォーマットが圧倒的。密度の濃い空間再現は、やはりチャンネル数の多さに依るところが大きいということを実感する。今回の実験では、ミキシングの都合からDolby Atmos準拠の5.1.4 chでの伝送となった他の2種の倍以上のチャンネル数があるのだから、この結果も抱いていたイメージ通りと言えるだろう。もう一つは、圧縮率によるクオリティーの差異。今回はKORG Live Extremeが96kHzでの伝送となったが、やはり低圧縮であることの優位性が配信を通じても感じられる。NeSTREAM LIVEについては、現実的な帯域幅で必要十分なイマーシブ体験を伝送できる、現在のテクノロジーレベルに一番合致したものであるということも実感した。その中でDolby Visionと組み合わせた4K HDR体験は、映像のクオリティーの高さとともに、音声がイマーシブであることの意味を改めて感じるところ。Dolby Vision HDRによる広色域は、映像をより自然なものとして届けることができる。それと組み合わさるイマーシブ音声はより一層の魅力を持ったものとなっていた。 前述もしているが、それぞれの配信におけるオーディオコーデックの圧縮率は、NeSTREAM LIVEのDolby Digital Plusが640kbps、次にMPEG-Hの22.2chが1chあたり80kbps。Live Extremeは10Mbps程度となっている。このように実際の数字にしてみると、NeSTREAM LIVEの圧縮率の高さが際立つ。640kbpsに映像を加えてと考えると、現時点ではこれが一番現実的な帯域幅であることは間違いない。 ちなみに、YouTubeの執筆時点での標準オーディオコーデックはAAC-LC 320kbpsである。言い換えれば、NeSTREAM LIVEはこの倍の帯域でDolby Atmosを配信できるということである。KORG Live Extremeにおける96kHzのクオリティーは確かに素晴らしかった、しかし10Mbpsという帯域を考えると多数へ行なわれる配信の性格上、汎用的とは言い難い一面も否めない。しかしながらプレミアムな体験を限定数に、というようなケースなど活用の可能性には充分な余地がある。22.2chのチャンネル数による圧倒的な体験はやはり他の追従を許さない。8K映像と合わせてどこまで現実的な送信帯域にまで圧縮できるかが今後の課題だろう。22.2ch音響を伝送したMPEG-H 3D Audioは任意のスピーカーレイアウトやバイノーラル音声に視聴者側で選択し視聴することができる。22.2ch音響の臨場感を保ったまま、視聴者の様々な環境で視聴することが可能となる。AVアンプやサウンドバー、アプリケーションなどの普及に期待したい。 このような貴重な実験の場を取材させていただけたことにまずは感謝申し上げたい。取材ということではあったが、各種フォーマットを同時に比較できるということは非常に大きな体験であり、他では得ることのできない大きな知見となった。伝送帯域やフォーマット、コーデックによる違い、それらを同一のコンテンツで、最新のライブ配信の現場で体験することができるというのは唯一無二のこと。これらの次世代に向けた配信が今後さらに発展し、様々なコンテンツに活用されていくことを切に願うところである。   *ProceedMagazine2024号より転載
NEWS
2024/08/08

Media Composer パーフェクトガイド 発売中!

Media Composerの技術書として日本初出版となる『Media Composer パーフェクトガイド』発売中! Media Composerにこれからはじめて触れる初心者の方や、入社後に編集業務に携わられた方がより深く学んで頂けるような内容になっており、学生・新入社員の教材としてもうってつけの書籍がついに登場しました。 書籍の概要 〜基本操作から実践テクニックまで〜 映像制作の基本となるシークエンスの編集操作から、各種エフェクトや字幕、オーディオ編集など工程を一つひとつ解説。 著者は現役でTV番組のエディター業務に携わられている、Media Composer使用歴27年のもとたかし氏。著者が長年にわたる現場での経験で培った実践的テクニックもふんだんに盛り込まれております。 機能はver.2024.2まで網羅されており、注目のAIテクノロジーAvid Adaの文字起こしや字幕生成についても掲載。 本棚に一冊あれば安心のリファレンス・ブックとして、皆様の助けとなってくれるでしょう! 目次 ◎ CHAPTER 00 Media Composerの基本 ◎ CHAPTER 01 クリップとメディア ◎ CHAPTER 02 シークエンスの作成とタイムライン ◎ CHAPTER 03 シークエンスの編集 ◎ CHAPTER 04 エフェクト ◎ CHAPTER 05 合成・タイトル ◎ CHAPTER 06 カラーコレクション ◎ CHAPTER 07 オーディオ ◎ CHAPTER 08 マルチカメラ・4K&HDR・フィルム ◎ CHAPTER 09 エクスポート・デジタルカット 一部ページはこちらのPDFから確認することができます。 Media Composer パーフェクトガイド もとたかし 著 B5判/544ページ 定価5,280円(本体4,800円+税10%) ISBN 978-4-297-14134-9 出版社サイト:https://gihyo.jp/book/2024/978-4-297-14134-9 著者プロフィール:フリーランスのテクニカルライター/Avidエディター。放送業界にて編集作業に携わる傍ら,Avid製品を中心としたレビュー記事の執筆などを行う。 登場から35年、ポスプロの定番編集機として使用され続けているMedia Composer待望のガイドブックです。日々最新情報をお伝えしておりますが、基礎テクニックに立ち返りMedia Composerをマスターしましょう!Media Composer、Pro Toolsシステムのご相談はROCK ON PROまで!
NEWS
2024/08/07

【8/29まで】Nugen Audio Loudness Toolkitと収録プラグインが約33%OFF!

Nugen Audioのラウドネス管理ツールが約33%OFFとなるビッグセールを開催中です! Nugen Audioのラウドネスツールは、世界中の放送局やポストプロダクションで使用されている業界標準のラウドネス管理ツールです。DAW上またはファイルベースでラウドネスを自動補正するLM-Correct 2、業界標準のラウドネス・メータープラグインVisLM-H 2、7.1chサラウンドまで対応したトゥルーピーク・リミッターISL 2と、これらがセットになったLoudness Toolkit 2バンドルが期間限定のプロモーション価格でお求めいただけます! ライセンス数が足りないと感じていたスタジオ様は、この機会を是非ご活用ください!! もちろん新規でのご購入もお待ちしております! キャンペーン概要 内容:対象の6製品が、期間限定プロモーション価格でご購入いただけます。 期間:2024年8月7日〜8月29日14時まで ◎対象製品 Loudness Toolkit 2 通常価格:¥154,300 →プロモ特価:¥102,080(本体価格:¥92,800) VisLM-H 2 ラウドネス・メーター、LM-Correct 2 ラウドネス自動補正プラグイン、ISL 2 トゥルー・ピーク・リミッターのバンドル製品。業界標準ツールを一度で手に入れられるお得なセット品。 製品の詳細はこちら>> LM-Correct 2 通常価格:¥68,500 →プロモ特価:¥45,320(本体価格:¥41,200) 作成済みのファイルを、ARIB TR-B32、EBU R128、ITU-R B.S 1770-2などの国際ラウドネス規格に自動的に補正します。スタンドアロン、Audio Suiteで動作。 製品の詳細はこちら>> VisLM-H 2 通常価格:¥77,100 →プロモ特価:¥50,930(本体価格:¥46,300) ARIB TR-B32等の規準に対応したラウドネス&トゥルー・ピーク・メーター。インテグレート、ショートタイム、ダイナミクスレンジなど、ラウドネス基準に準じた制作に欠かせない機能を備えています。 製品の詳細はこちら>> ISL 2 | True Peak Limiter 通常価格:¥42,800 →プロモ特価:¥28,270(本体価格:¥25,700) ITU-R B.S.1770で定められたアルゴリズムに準拠した、トゥルー・ピーク・リミッター。 製品の詳細はこちら>> LM-Correct 2 DynApt Extension 通常価格:¥34,200 →プロモ特価:¥22,660(本体価格:¥20,600) LM-Correct 2 with DynApt extension 通常価格:¥98,230 →プロモ特価:¥67,980(本体価格:¥61,800) 製品の詳細はこちら>> ミキシング中に使用するメーター、書き出し時のトゥルー・ピーク・リミッター、制作後の自動補正と、ラウドネスに関連する作業を一手に担うことが可能なNugen Audio。コンテンツ制作に必携のプラグイン集の期間限定プロモーションをお見逃しなく! プロモーションに関するご質問、ご購入の相談、お問い合わせは、ROCK ON PROまでお気軽にお寄せください。
NEWS
2024/08/02

養老孟司と小檜山賢二「虫展」にメディア・インテグレーションが機材提供

大分県立美術館、通称OPAMで7月13日より開催されている「虫展」。養老孟司先生と小檜山賢二先生によるユニークな虫達の展示。その一角に「多様性の部屋」があり、ここでは、映像と音声によるインスタレーション展示が行われている。ここの音響設備に株式会社メディア・インテグレーションは技術提供及び、機材協力を行った。 東京大学名誉教授で、解剖学者の養老孟司。「バカの壁」の著者としても知られるが、趣味のひとつに昆虫採集がある。「論理的に意味がわからないことがたくさんある(からおもしろい)」などと養老節の聞いた数多くの名言を残している。今回の展示で、その養老先生とタッグを組んだのが、慶応大学教授で写真家でもある小檜山賢二。少しずつピントをずらした数百枚の写真を合成して1枚の画像を仕上げる被写界深度合成を、マクロレンズを使用して虫の撮影に適用。なんと初期は、紙焼きした写真を1枚ずつ手で切って、つなぎ合わせて1枚の写真を作っていたというから筋金入りだ。人の目を超えた深度合成写真と、養老孟司の独自の視点。そのコラボレーションが、今回のOPAMで開催されている「虫展」である。 当社が協力した「多様性の部屋」は、演出・アートディレクションを行う宮坂淳氏による映像(先生たちの撮りためた1000枚以上の写真が使われている)と、安田寿之氏による楽曲で構成された映像と音響によるインスタレーション展示。森の中から、大きくなったり小さくなったりする虫たち。パネル上に並べられた虫たちは、1枚として同じ写真は使われておらず、まさに多様性を物語っている。音楽はメインの楽曲とは別に、左右の壁面からそれぞれ個別の音が再生されており、それぞれの再生時間が異なるため、ランダムに組み合わさって一つの音響を作り出している。1日いても、実は一度も同じ音楽にならない。再生される音も多様性を表現するためにこだわり、正面、左右の3方向からの音でイマーシブ感を提供することにも成功している。 📷<写真右下>右から楽曲制作・音響デザインの安田 寿之氏、展示構成・演出・アートディレクションを務めた宮坂 淳氏、ROCK ON PRO 前田洋介。 この音楽の再生には、Focal CI On Wall 301 Blackが使われている。ホームシアター用として設計されたスピーカーではあるが、美術館の展示室に掛けられていても違和感のないデザイン。もちろん音質もFocalということでクリアできらびやかなサウンドを提供する。音楽に加えられた自然界の虫の音なども、自然なサウンドとして「多様性の部屋」に足を踏み入れた観客を包み込む。来場者の皆さまに少しでもよい体験をしていただけるよう、制作者のイメージ、意図が伝えられるよう、当社では機材の提供、スピーカーの設置設計、音響調整の手伝いをさせていただいた。 坂茂氏による国内屈指の建築も一見の価値のある、大分県立美術館へぜひお越しいただきたい。巨大な深度合成写真に興奮した子どもたちの姿とともに、記憶に残る展覧会となることだろう。そして「多様性の部屋」で不思議な虫たちとの交流をお楽しみいただければ幸いだ。 養老孟司と小檜山賢二「虫展」 会期:2024年7月13日(土)~8月25日(日) 開館時間:10:00~19:00 ※金曜日・土曜日は20:00まで(入場は閉館の30分前まで) 会場:大分県立美術館 1階 展示室A 主催者:公益財団法人大分県芸術文化スポーツ振興財団・大分県立美術館 観覧料:一般 1,200円/大学・高校生 1,000円/中学生以下は無料 詳細:https://www.opam.jp/exhibitions/detail/1539
Sales
2024/08/01

Prism Sound ADA-128サマーセール2024開催!

ミックスウェーブ株式会社より、Prism Sound ADA-128 サマーセールのお知らせが届きました! ADA-128は、Prism Soundのフラッグシップである”Dream”シリーズを受け継ぎ昨年7月に発売されたAD/DAコンバーター。4つのホストモジュールと16のI/Oモジュールを組み合わせ大規模システムの核としても柔軟に機能する、まさに夢のモンスターインターフェースです。 そんなADA-128本体が25%OFF!さらにオプションカードやもセール対象になっております!この機会をお見逃しなく! セール詳細 ■セール実施期間 2024年8月1日(木)~2024年8月29日(木) ■実施概要 2024年8月1日から8月29日の期間中、対象のPrism Sound ADA-128関連製品が最大25%オフ! ※商品は本国へのオーダーのため、納期目安は受注後約2ヶ月程度となります。 セール対象製品 ADA-128-Chassis (ADA-128本体のみ) 販売価格:¥ 1,452,000 (本体価格:¥ 1,320,000) →¥1,089,000 (本体価格:¥990,000) Rock oN Line eStoreで購入>> AD128 8Ch-AD オプションカード 販売価格:¥ 506,000 (本体価格:¥ 460,000) →¥446,600 (本体価格:¥406,000) Rock oN Line eStoreで購入>> AD128 8Ch-DA オプションカード 販売価格:¥ 506,000 (本体価格:¥ 460,000) →¥446,600 (本体価格:¥406,000) Rock oN Line eStoreで購入>> ADA-128-DANTE-Chassis (ADA-128-Chassis +Danteカード実装済みモデル) 販売価格:¥ 1,597,200 (本体価格:¥1,452,000) →¥1,258,400 (本体価格:¥1,144,000) ROCK ON PROで見積>> ADA-128-PTHDX-Chassis (ADA-128-Chassis +PTHDXカード実装済みモデル) 販売価格:¥ 1,548,800 (本体価格:¥1,408,000) →¥1,210,000 (本体価格:¥1,100,000) ROCK ON PROで見積>> ADA-128-AES-Chassis (ADA-128-Chassis +AESカード実装済みモデル) 販売価格:¥ 1,548,800 (本体価格:¥1,408,000) →¥1,210,000 (本体価格:¥1,100,000) ROCK ON PROで見積>> Prism Soundが5年の歳月をかけて開発した最高音質のAD/DAコンバーター、ADA-128。Datneカードを実装するとハイエンドStageBoxとしても活用できるなど夢の広がる1台です。 導入やデモなどのご相談はROCK ON PROまでお気軽にお問合せください。
NEWS
2024/07/29

SOUND PARTICLESより、新製品「inDelay(インディレイ)」が登場

コンピュータ・グラフィックの概念に基づいた独自のソフトウェア開発で知られ、近年は3Dシンセ SkyDust 3Dやスマホを利用したイマーシブパンナーSpace Controllerなど唯一無二のプラグインを発表しているポルトガルのメーカーSOUND PARTICLES社が、新製品「inDelay」をリリースしました! さらにinDelayを含めた、新しいプラグイン・バンドル製品や発売記念25%OFFも実施中です! 主な機能〜パーティクル技術によるクリエイティブな効果〜 SOUND PARTICLES社が社名にも掲げる3Dパーティクル技術によって複雑なディレイも簡単に実現が可能。直感的なパラメータ操作で基本的なディレイからダイナミックな音響演出までが制作できます。 機能は大きく3つのモード[チャンネル、タップ、パーティクル]に別れており、入力信号に対するディレイ設定から各タップの詳細な設定、入力信号を元に最大100もの同時出力が可能なパーティクルディレイが設定できます。 UI下部のタイムエディターでは、入力波形に対して視覚的なディレイタイム、レベル調整が行えます。同社のAIRプラグイン技術を応用した、大気による距離や奥行きシミュレート機能も搭載。 全てのプラグインがイマーシブフォーマットに対応しているSOUND PARTICLES社ですので、inDelayももちろんマルチチャンネルに対応。Dolby Atmosは最大11.1.8まで、ハリウッドのサウンドデザインでも使用されていることからIMAX 12.0やAuro 13.1、NHK 22.2などのフォーマットが入力、出力の両方に対応しています。 発売記念セール情報 inDelayの発売を記念して、同社全製品25%オフの「7月セール」も実施中! inDelayを含めた、新しいプラグイン・バンドル 以下3製品も対象です。 - Essential - 8FX - Spatial Music II セール期間:2024年7月24日(水)〜 8月2日(水) ※8月2日(金)以降も、inDelay、AudioMatrix、SkyDust 3D/Stereo、Space Controller Studioは、25%オフの価格が続きます。 製品情報 SOUND PARTICLES / inDelay 標準価格:¥30,800 (本体価格:¥28,000) →25%オフ価格:¥23,100 (本体価格:¥21,000) >>Rock oN eSotreで購入 SOUND PARTICLESよりまたユニークなエフェクトプラグインが登場しました!音楽やサウンドデザインでまだ誰も聞いたことのない音を創り出す強い味方となってくれるはず! イマーシブ制作ツールのご相談はROCK ON PROまでお問い合わせください。
Tech
2024/07/18

マルチトラック録音時のデジタルリファレンスレベルの改定について

既にご存知の方も多いかと思われますが、JAPRS(一般社団法人 日本音楽スタジオ協会)が、デジタルマルチレコーディングにおけるリファレンスレベル推奨値を「0VU=-18dBFS」へと改定しました。 これまでは「0VU(+4dB)=-16dBFS」という推奨値が設定されており、それはデジタルマルチトラックレコーダーが登場した当時、アナログレコーダーとのレベル相関やデジタル機器が持つS/N比、16bitというダイナミックレンジの解像度を踏まえて策定された値でした。 しかし、今日における24bitレコーディング、ハイレゾ等を踏まえた制作環境やfloat型演算などのデジタル信号処理の向上、普及を踏まえたリファレンスレベル改定に関する提案書がエンジニア有志からJAPRSに提出されたのを発端として、協会が検討を重ねた結果今回の改定となったようです。 業務対応(アーカイブやポストプロダクション等)により即座に推奨値への対応が困難なスタジオにおいては、従来の「0VU(+4dB)=- 16 or - 20dBFS」運用も可としていることですが、スタジオにおいて採用しているリファレンスレベルを利用者に分かるように必ず明記することとしています。(「0VU=-16dBFS」を継続採用するスタジオも同様) ※マルチトラック録音時に限る推奨値で、その他のマスタリング等におけるリファレンスレベルについて定めるものではありません。 皆様のスタジオは既にご対応されましたか?ご使用になるスタジオの設定値を確認し、アナログ機器との受け渡しでレベル差が生じないようにお気をつけください。 
5 / 11«...23456789...»

Solution

Solution
制作環境を飛躍させる

Works

Works
システムの実例を知る

Brand

Brand
そのワークフローを実現する

Avid が提供する統合型ソリューションが体験できる Avid Creative Space (ACS) 。Avid Advanced Console、Hybrid Engine、NEXIS + MediaCentral、など規模やワークフローに応じたソリューションを総合的に体験できる3つの空間をぜひご活用ください。

DAWのタイムラインに同期したビデオ再生ソリューションであるVideo Slaveが、その名も新たにVideo Sync 5 Proとして最新バージョンになりました。従来の機能に加え、AvidとのコラボレーションによりStatellite Linkに対応。Pro Tools | Ultimateとのより緊密な同期再生を実現し、プロフェッショナルな現場に、より滑らかなワークフローを提供します。

Focusriteは、1985年に現在ではプロオーディオ界のレジェンドとなっているRupert Neveによって創設された、ハイレベルな計測による高い水準と、音楽的なサウンドの心地よさを追求した英国のメーカーです。

ROCK ON PROはDolby Atmos Mastering Suite Dealerとして認証を受けております。Dolby Atmosの制作環境から、RMU/ Mastering Suiteの導入までご相談ください。

主要取扱ブランドホームページ

リストに掲載がない製品につきましてもお気軽にご相談ください。

»問い合わせフォーム