Shibuya 03-3477-1776
Umeda 06-6131-3078

Headline

Brand
2022/03/18

Avid Creative Space

Avid が提供する統合型ソリューションが体験できる Avid Creative Space (ACS) 。Avid Advanced Console、Hybrid Engine、NEXIS + MediaCentral、など規模やワークフローに応じたソリューションを総合的に体験できる3つの空間をぜひご活用ください。
Tech
2022/03/15

iZotope RX 9 レンダリング速度対決 〜M1 vs Rosetta 2 vs Intel (vs M1 Max)〜 M1対応記念セールも実施中!!

数々の受賞歴を誇る業界標準オーディオリペアツール iZotope RX が最新バージョンv9.3.0より、待望の Apple Silicon M1へのネイティブ対応を果たしました!2021年秋に新たな機能を追加してバージョンアップしたばかりの RX 9 を、現時点でもっともパワフルな環境で使用することが可能となります。 ROCK ON PRO では早速、従来の Intel CPU や Rosetta 2 経由での動作と比較し、Apple M1ネイティブ対応の優位性を検証! さらに、この Apple M1ネイティブ対応を記念して実施中のセール情報をお届けします! iZotope RX 9 の詳細はこちら>> レンダリング速度比較! 〜 M1 vs Rosetta 2 vs Intel Core i7 〜 先日、iZotope RXの Apple M1チップへのネイティブ対応が発表されました。M1搭載のMACをお使いのiZotopianのみなさまは既にお試しいただいてますでしょうか?ネット上では「かなり処理速度が上がった」「体感2倍〜3倍速い」などといったコメントが散見されますが、果たしてどれくらい処理速度は向上しているのか?実際に弊社環境でチェックしてみました。 ◎そもそも「M1ネイティブ対応」とは何か すでにご存知の方も多いかと思いますが、まずは「M1ネイティブ対応」の意味からおさらいしてみたいと思います。 改めてNativeという単語の意味を検索してみると、次のような意味とのことです。 Native=出生地の、自国の、本来の、その国に生まれた、その土地固有の、土着の、(…の)原産で、土産(どさん)で、生まれつきの、生来の (参照:Weblio英和辞典 native) 「M1ネイティブ対応」という文脈においては「本来の」という意味で使用されているようなイメージでしょうか。 RXがM1チップ搭載MACでも使えるようになったのは、RX 8.5からですが、このバージョンから9.2までは「Rosetta 2」経由で処理を行っていました。 Rosetta は特定のアーキテクチャのプログラムコードを持つバイナリを、別のアーキテクチャに適宜変換 (en:Dynamic recompilation) することでバイナリの互換性を維持するAppleの技術。(参照:Wikipedia - Rosetta) これがM1リリースに伴い、インテル製CPU向けアプリケーションとの互換性を保つために新たにRosetta 2 として発表されました。ただしこれはあくまで動作上の互換性を保つためのワークアラウンドであり、M1チップが保つ本来の性能を発揮できていないということになります。 つまり、今回のRXの「M1ネイティブ対応」は「M1本来の処理性能での動作に対応した」という意味になります。 ちなみに、今お使いのアプリケーションがM1で動いているのか、Rosetta 2で動いているかどうかを確認するためには「アクティビティモニタ」の「種類」の項目から確認できます。"Apple"もしくは"Intel"となっており、もしここが"Intel"と表示されている場合、Rosetta 2経由で動作していることを表しています。 ◎検証環境 検証パターン ・2種類のCPU x 2種類のRXバージョン x 3種類の処理項目 = 12パターン  - 2種類のRXバージョン( v9.0.1 or v9.3.0 )  - 2種類のCPU ( M1 or Intel )  - 3種類の処理項目( Dialogue Isolate or Repair Assistant or Music Rebalance) 今回検証に使用するマシンのスペックは以下になります。本来であれば全くの同スペックで検証するのが理想でしたが、現実はそううまくは行きません…。あくまで参考としてお考えください。 まずIntelマシンとして用意したのはMacbook Pro(15-inch,2016)。6年前のモデルということに驚きましたが、Quad-Core Intel Core i7とそれなりにパワフルなCPUを備えています。 MAC①:MacBook Pro(15-inch,2016) ・ OS:macOS 10.15.7 Catalina ・ CPU:2.7 GHz Quad-Core Intel Core i7 ・ メモリ:16GB 2133MHz LPDDR3 ・ グラフィックス:Intel HD Graphics 530 1536MB 対するM1マシンとして用意したのはiMac(24-inch,M1,2021)。iMacのラインナップの中では最もリーズナブルな構成のモデルですが、4つの高性能コアと4つの高効率コアを搭載しており、その処理性能は既に随所で高く評価されています。 MAC②:iMac(24-inch,M1,2021) ・ OS:macOS 11.3 Big Sur ・ CPU:Apple M1 ・ メモリ:8GBユニファイドメモリ ・ グラフィックス:Apple M1 さらに、とある協力者様のご協力によりM1 MAXのデータも得ることができました(V9.3.0のみ) MAC③:MacBook Pro (16-inch ,2021) ・ OS:macOS 11.2 Monterey ・ CPU:Apple M1 MAX ・ メモリ:32GBユニファイドメモリ ・ グラフィックス:Apple M1 MAX RXのバージョンは同一マシンでのRosetta 2経由 / M1ネイティブでの処理速度の違いをみるために、それぞれV9.0.1、そして最新のV9.3.0の2種類のバージョンのRXを用意しました。 処理項目は3種類。雑音の中から音声を分離するDialogue Isolate、最適な処理を提案してくれるRepair Assistant、そして楽曲をパートごとに分離可能なMusic Rebalanceと、比較的CPUへの負担が大きそうな処理項目を使用します。 素材は2種類。工事現場の雑音の中での話し声を録音した音声素材(13秒)と、商用フリーの音楽素材(4分23秒)を用意しました。 検証に使った素材 サンプル1:工事現場の雑音の中での話し声、13秒  -> Dialogue Isolate、Repair Assistant サンプル2:フリーの音楽素材、4分23秒  -> Music Rebalanceでパートごとの個別トラックに分離 測定方法はDialogue IsolateとRepair Assistantについては上記サンプル1を、Music Rebalanceについてはサンプル2を使用し、処理の実行終了後、画面左下に表示される処理時間を記録しました。 1.Dialogue Isolateのパラメータ設定 2.Repair Assistantのパラメータ設定 2.Music Rebalanceのパラメータ設定 計測方法 ●1.Dialogue Isolate  サンプル1(雑音+話し声)を以下のパラメーターで実行し、”Render"ボタン押下〜完了後、画面左下に表示される処理時間を記録。 ●2.Repair Assistant  サンプル1(雑音+話し声)を以下のパラメーターで実行し、”Render"ボタン押下〜分析が終わりサジェストが表示されるまでの実時間を計測。(結果欄ではそれぞれ"_1"、"_2"で表記。) ●3.Music Rebalance  サンプル2(音源)を以下のパラメーターで実行し、”Separate"ボタン押下〜完了後、画面左下に表示される処理時間を記録 検証結果 〜やはりM1ネイティブ対応版は速かった!〜 表1:検証結果 - 全パターン結果 結論から申し上げますと、追加で検証を実施したM1 MAX(Native)がぶっちぎりで速いという結果に。MAXはさておき、無印のM1ネイティブをRosetta 2と比較すると約1.3倍ほど速く、Intelとの比較では約2倍ほど速いという結果になりました。(表3 上段)ちなみにRosetta 2とIntelとの比較でも1.3倍ほど前者が速かったです。また、処理中に表示される推定残り時間を見ていても、明らかにM1ネイティブが少ない残り時間の表示となっていました。 表2:検証結果 - 項目ごとの順位(V9.3抽出) それにしてもM1 MAXの処理速度の速さには驚きです。Intel MBPより平均3.5倍ほど速いです。Music Rebalanceでは、オリジナルが4分23秒の音楽素材をたったの111秒=1分51秒で綺麗に4パートに分離しました。 表3:検証結果 - 速度比(V9.3抽出) 個人的な感想として、M1ネイティブ対応のv9.3.0は比較的キビキビとした挙動で、「仕事で毎日RXを使っている」という方もストレスフリーな作業が期待できると思います。 皆さんも、是非ともM1ネイティブ対応で本領発揮したiZotope RX 9の真価をご体験ください! ※一部、Music Rebalanceについては例外的な結果となっている部分もありますが、今回の結果はあくまで弊社環境によるものですので、あくまで参考程度にお考えください。また分離後の音質の評価までは残念ながら実施できていないので、そのあたりを比べてみると差が出てくるという可能性も大いにあります。 Apple Silicon ネイティブ対応を記念したセールが開催中! Apple Silicon への対応を記念して、2022年3月31日までの期間限定プロモーションが実施中!各種Elementsからのクロスグレードが過去最安値など、RX を手に入れる絶好のチャンス到来です!! ラインナップ詳細、ご購入は Rock oN Company WEBサイト、または下記contactボタンよりROCK ON PRO までお問い合わせください!
NEWS
2022/03/07

Avid NEXIS | EDGE 紹介映像 日本語字幕版が公開中

ワークフローの域を超えて制作環境を拡張し、制作スタジオ/自宅/外出先など、場所を問わないコラボレーションを可能にするAvid NEXIS | EDGE。 その紹介映像の日本語字幕版が、現在Avid Japan 公式You Tubeチャンネルにて公開中です。 Avid NEXIS | EDGE とは? - 日本語字幕版公開中 ●Avid NEXIS | EDGEの主な特長: ・新しいプロキシーフォーマットでメディアを作成、再生 ・使い慣れたAvid NEXISクライアントから、ワークスペースをリモートで接続 ・リモートエディターも Media Composerの共有ビンやプロジェクトにアクセス可能 ・Media Composer | Distributed Processing でプロキシーを作成、リモート編集 ・ブラウズ、音声検索、ログ、再生、編集、コンテンツのレビュー等をシンプルなブラウザ・インターフェースで実行 ・Media Composer | Enterprise や Adobe Premiere Pro をAvid NEXIS | EDGEに接続 ・インターネット接続を切断してもコピーしたメディアで作業を続行 ・すべての EDGE サービスは一つのサーバーで稼働 Avid NEXIS | EDGE https://www.avid.com/ja/products/avid-nexis-edge Avid NEXISについての詳細はこちら https://www.avid.com/ja/products/avid-nexis Avid NEXIS | EDGE システム要件 サーバーの最小要件 (Avid NEXIS | EDGE の実行用): CPU: Dual Intel Xeon クラス、10の物理コア (マルチスレッド処理) RAM: 64 GB ストレージ: 200 GB SSD (オペレーティング・システムとアプリケーション用) ネットワーク・アダプター: 1 つ以上のアダプター。アダプターは、Avid NEXIS ドキュメント に記載の要件を満たしている必要があります ストレージ: Avid NEXIS (オンプレミス・システム) フル機能の編集用 (オンプレミス): Avid Media Composer | Enterprise* 2022.2 以降または Adobe Premiere Pro 15.2 以降 リモート・プロキシ編集用: Media Composer | Enterprise 2022.2 以降 Web クライアント・アクセス用: macOS または Windows 上の Google Chrome * Avid NEXIS | EDGE は追加費用なしで Media Composer | Distributed Processing と共に Media Composer | Enterprise に含まれています。 高解像度メディアとプロキシーメディアをシンプルな操作で切り替え可能で、作業場所を変えてもシームレスに作業の続きができるため、新鮮なクリエイティビティを持続させたまま制作に臨むことができそうですね。下記コンタクトフォームよりお気軽にお問い合わせください。 https://pro.miroc.co.jp/headline/media-composer-2019-12-5/ https://pro.miroc.co.jp/headline/avid-creative-summit-2021-online/
Headline
2022/02/28

【アーカイブ公開中】アスク・エムイー × ROCK ON PRO 共催 NDI / SRT 映像伝送セミナー開催!

渋谷LUSH HUBと千代田区エースタをSRTでリアルタイム伝送しながら生配信! 汎用のインターネットを通じて映像のやり取りが行える規格が登場し、昨年のInterBEEでも大きな注目を集めました。 例えば、これまでにもProceed Magazine等でご案内してきたNDIでは、NDI 5よりNDI Bridge機能が新たに追加されました。 他にもSRT = Secure Reliable Transport と呼ばれるプロトコルが一気に台頭してきています。 その名の通り、安全(Secure)で、信頼性がある(Reliable)、伝送(Transport)ができるところが特徴のSRTと、アプリケーションレベルで実装されたNDI Bridge。 「それぞれの魅力は?」 「具体的には何ができるの?」 「クオリティーは?」 「両方同時に使ったら?」 といった疑問の数々や、今後活用が見込まれるシーン等について、お馴染みの講師陣が丁寧に解説します。 今回は渋谷区にある「Lush Hub」と千代田区にあるアスク・エムイーショールーム「エースタ」を実際にSRTで接続しながら生配信するという初の試み! SRTやNDIに関する皆様の疑問にお答えします! 概要 - アーカイブ映像公開中 アスク・エムイー × ROCK ON PRO 共催 NDI / SRT 映像伝送セミナー 『NDI & SRT を活用した映像伝送 〜SRTで2拠点間をつないでみよう!〜』   日時:3/2 (水) 16時〜17時 参加費:無料 視聴方法:You Tube Live   LUSH HUB側配信 LUSH HUB側配信URL:https://youtu.be/PzibZ3wKPDQ エースタ側配信 エースタ側配信URL:https://www.youtube.com/watch?v=NK8AN1UsCRo 講師紹介 株式会社アスク アスク・エムイー/テクニカルサポート テクニカルサポート 松尾 勝仁NDIの開発元であるNewTek社のライブ映像プロダクションシステム Tricasterのテクニカル担当。 国内でも多くの実績を持つTriCasterを黎明期から技術担当として活躍。 NDI バージョン1発表からこれまで国内各地で紹介している伝道師的な存在。   株式会社リーンフェイズ アスク・エムイー/マーケティングマネージャー 三好 寛季氏NewTek社を始め、アスク・エムイーが取扱う映像機器のマーケティング担当。 4年制専門学校を卒業後に映像制作会社で務めるも短期間で挫折、 フリーランスになるもすぐに挫折、機材好きが高じて現職に落ち着く。常に興味津々なマーケター。   株式会社メディア・インテグレーション ROCK ON PRO / Product Specialist 前田 洋介レコーディングエンジニア、PAエンジニアの現場経験を活かしプロダクトスペシャリストとして様々な商品のデモンストレーションを行っている。映画音楽などの現場経験から、映像と音声を繋ぐワークフロー運用改善、現場で培った音の感性、実体験に基づく商品説明、技術解説、システム構築を行っている。   ウェビナーで使用されていた、NewTek TriCaster、AJA BRIDGELIVEに関するお問合せは下記コンタクトフォームからお願いします。
3D Audio
2022/02/25

360 Reality Audio 制作ツールが待望の国内販売開始!

これまで、ROCK ON PRO WEB サイトや Proceed Magazeine でも紹介している 360 Reality Audio。下方向を含む完全な球面音場を持ち、次世代のイマーシブ音楽フォーマットとして注目を集めるこの 360 Reality Audio を制作するためのアプリケーションである 360 WalkMix Creator™️(旧:360 Reality Audio Creative Suite)を、2022年2月25日より弊社 メディア・インテグレーション MI 事業部が代理店として国内販売を行うことになりました。 360 Reality Audio のための制作ツール『360 WalkMix Creator™️』 360 WalkMix Creator™️はVST3、AAX、AUに対応したプラグインとして動作し、360 Reality Audio フォーマットの作品を全ての主要なDAWで制作可能にします。 360 WalkMix Creator™️では、このプラグインがインサートされたすべてのトラックをひとつのプラグインウィンドウ上でまとめて操作をすることが可能。さらに、球面に配置されたオーディオオブジェクトを直接ドラッグして直感的なミックスを可能にしています。 360 WalkMix Creator™️はモニターシステムが整ったスタジオに限らず、ヘッドホン・モニタリングでも制作可能。パソコンとヘッドホンがあれば楽曲制作に没入できます。 また最新バージョン V1.2からは、作品の納入フォーマットでの出力ができるエンコーダーを搭載。ついに360 Reality Audio 制作環境が整いました。 360 WalkMix Creator 販売価格:未定 国内発売日:2022年3月中旬予定 製品特徴 ・オブジェクトのグループ化 ・最大128のオブジェクトを360度の全天球上に配置 ・トラックオートメーション ・オブジェクトの3D配置 ・オブジェクトの自動分析機能 ・オブジェクトの直感的操作 メディア・インテグレーション360 WalkMix Creator™️ブランドページ メディア・インテグレーション360 WalkMix Creator™️製品ページ 360 WalkMix Creator™️ メーカー公式WEBサイト 国内販売開始とともにv1.2へとアップデート すでに、さまざまなクリエイターからのフィードバックをもとにブラッシュアップを行なっているこのツールの、最新バージョンであるv1.2は国内販売開始と同時期にリリース予定。納品フォーマットでの出力機能が追加されるほか、視認性やトラックネーミング機能の改善など、複雑で大規模になりやすいイマーシブ制作においてクリエイティブを損なわないための工夫が凝らされています。 主な更新内容(予定) ・スタンダード・エクスポート・フローでのMPEG-H (.MP4) での出力機能搭載(納品フォーマットでの出力機能) ・Focusビューでのフェーダー及びメーター視認性の向上 ・パラメーターのネーミングの改善 ・7.1.2 トラック・インポートの適正化 ・不具合の改善 ・安定性の向上 360 Reality Audio とは!? そもそも、360 Reality Audio、イマーシブオーディオとはなんぞや!?ということを知りたい方は、ぜひ以下のROCK ON PRO WEB過去記事、Avid Creative Summit 2021 アーカイブをご覧ください!いくつかの名称や機能などが記事制作時点のものではありますが、360 Reality Audio によって広がる新しいサウンドの世界がイメージできる内容になっております。 https://pro.miroc.co.jp/headline/nagoyageidai-proceed2021-22 https://pro.miroc.co.jp/works/360studio-proceed2021-22 https://pro.miroc.co.jp/solution/sound-on-4%cf%80-360ra-part-1 https://pro.miroc.co.jp/solution/sound-on-4%cf%80-360ra-part-2 https://pro.miroc.co.jp/solution/sound-on-4%cf%80-360ra-part-3 https://pro.miroc.co.jp/solution/sound-on-4%cf%80-360ra-part-4 水平面よりも下方向を含んだ、真の360°/4πオーディオ空間を実現する 360 Reality Audio。その制作を誰もが手軽に行える日が、いよいよ近づいています。360 Reality Audio をはじめとしたイマーシブサウンド制作システムに関するお問い合わせは、お問い合わせフォームからROCK ON PRO までお気軽にご連絡ください。
Event
2022/02/25

ウェブ会議Zoom × Blackmagic Design合同セミナー開催

Zoom x Blackmagic Design合同セミナー  〜ATEM MiniとZoomで広がるウェビナーやウェブ会議の可能性〜 2022年3月1日(火)に、Blackmagic DesignとZVC Japan 株式会社(Zoom)による合同のセミナーが開催されます。 ワンランク上のウェビナーおよびオンライン会議を目指す企業様へ「オンラインプラットフォーム」「映像配信機材」という視点から、配信映像の品質を上げるポイントを解説。他社と差をつけたい皆様、必見です!! 詳細ページ:https://bmduser.jp/training/detail.php?p=p00000149 講座内容 15:00~15:20 ZVC Japan 株式会社(Zoom) 「Zoom オープンプラットフォームと最新機能のご紹介」 15:20~16:00 Blackmagic Design 「ATEM MiniをZoomで効果的に使う方法」 16:00~16:30 パネルディスカッション 日程:2022年3月1日 (火) 時間:15:00~16:30 会場:Zoomを使用してのオンライン開催です。 費用:無料 ※下記URLより参加登録が必要です。 https://bmduser.jp/training/form.php?p=p00000149
Tech
2022/02/24

新作追加!『ラックのウラからヨイコラショ!』〜業界の”?”をだいたい10分で解決!〜

ROCK ON PRO 配信企画が始動!ROCK ON PROの若手スタッフが、経験豊富なハカセたちに音響業界のイマサラキケナイ基礎知識に関する疑問難問をぶつけます!業界で当たり前のように使うコトバやジョーシキが「わからな〜い!?!?」という方も、コレを見ればだいたい10分で分かる…はず!? だいたい月イチ更新予定でお送りいたします! 再生リストはこちら>> だいたい10分でわかるカタログの読み方(マイク編)2022.2.24公開 「おれ、世界一のBeat Boxerになる!」勢いこんで宣言したはいいが、スペック表の読み方がわからないバウンス清水。そんな彼に、洋介ハカセがカタログスペックで抑えておくべき4つのポイントとその意味を丁寧にレクチャー。 だいたい10分で、マイクが持っている様々な特性の意味とマイク選びに大切なポイントがわかります! だいたい10分でわかるマスタークロック 2022.1.28公開 「マスタークロックで音が変わる!?どうして!?」ROCK ON PRO 2019年度ドラフト1位の期待のホープ、しまもんこと嶋田直登の質問に洋介ハカセがマスタークロックのはたらきとなぜマスタークロックを変えると音まで変わるのかを丁寧にレクチャー。 だいたい10分で、オーディオシステムにおけるマスタークロックの役割がわかります! 制作は最先端の音響・映像配信システムを融合したLush Hubで実施! 2021年、渋谷に誕生したクリエイターのための秘密基地Lush Hub。『ラックのウラからヨイコラショ』は撮影から編集、ポストプロダクションまで、この最先端の音響と映像配信が融合したシステムを備える場所で制作されています。いつか、この設備をフル活用してラックのウラから生配信が実現するかも!? Lush Hubについての詳細はこちらから!>> 『ラックのウラからヨイコラショ!』はだいたい月イチペースで動画を追加予定です。YouTube再生リストはこちら、新しい動画は順次こちらのページにも追加する予定ですので、ぜひブックマークをお願いします! ご意見、ご質問、番組で取り上げてほしいテーマのリクエストなどは、contactバナーから、お気軽にROCK ON PRO までご連絡ください!
3D Audio
2022/02/24

We want more Atmos!〜Dolby Atmosコンテンツ制作の最前線〜

Apple Musicの空間オーディオ対応などによりいよいよ一般ユーザーに立体音響を届けられるようになってきた。Proceed Magizineでは、これまで空間オーディオに関する技術的な内容を何度か紹介してきたが、この状況の中で実際にどのような音をユーザーに届けるのかという中身の部分について、深田 晃氏、戸田信子氏、陣内一真氏、古賀 健一氏、murozo氏という様々な分野で活躍されている皆様の制作最前線を伺った。Dolby Atmos制作の舞台裏からAtmos Musicの未来まで、大いに盛り上がりを見せた座談会の様子をお伝えしていく。 ●ご参加者様:プロフィール 深田 晃 レコーディングエンジニア CBS/SONY録音部チーフエンジニア、NHK放送技術局・番組制作技術部チーフエンジニアを歴任。あらゆるジャンルの音楽に関わるが、主にオーケストラレコーディングを担当。1997年、AES NYで「Fukada Tree」を発表後、多くのサラウンド番組制作・国際共同制作に関わる。 2011年 dream window inc. を設立、アーティストCD、映画のスコアリング、クラシック音楽録音、マルチチャンネル音響作品制作や空間音響デザイン行っている。AES Fellow IPS 英国放送音響家協会会員 、JAPRS 日本音楽スタジオ協会理事、米国レコーディングアカデミー(グラミー)会員、洗足学園音楽大学 音楽・音響デザイン客員教授。 戸田信子 x 陣内一真 COMPOSER | MUSIC DIRECTOR| SCORE PRODUCER 東京・ロサンゼルスを拠点とした作曲家ユニット。 2003年、バークリー音楽大学の映画音楽作曲科と現代作曲&プロダクション科を卒業した後、ゲーム「メタルギアソリッド4」でタッグを組み音楽制作をスタート。オーケストラレコーディングとハリウッドの映画音楽制作におけるプロダクションノウハウを学び、2011年サウンドトラックに特化した音楽プロダクション「FILM SCORE LLC」をロサンゼルスに設立。エレクトリックなサウンドデザインとオーケストラとを組み合わせたハイブリッドの音楽制作をLAにあるハンスジマーのラボ「リモートコントロール」の制作チームと共に進めている。ロサンゼルス、ロンドン、プラハなどの海外オーケストラの収録経験も多く、さらにフィルムスコアリングを用いた作曲手法を使い、映像と音楽をフィットさせ相乗効果をあげる音作りで全世界向けの映画、アニメ、ゲーム音楽を手掛けている。マイクロソフトのゲーム「Halo 5」のサントラでは初登場で全米ビルボードのサウンドトラックTOP2入りを果たすなど、近年目覚ましい活躍を続けており、これまでにゴールデンリール賞(MPSE)の長編外国語映画部門音響編集賞や英国アカデミー賞ゲーム部門音楽賞など、様々な音楽賞を受賞している。 主な代表作:『メタルギアソリッド4 ガンズ・オブ・ザ・パトリオット』『太秦ライムライト』『Halo 5』『ULTRAMAN』『攻殻機動隊SAC_2045』『スター・ウォーズ:ビジョンズ 』など多数。​ 古賀 健一 レコーディングエンジニア レコーディング・エンジニア。青葉台スタジオに入社後、フリーランスとして独立。2014年にXylomania Studioを設立。これまでに チャットモンチー、ASIAN KUNG-FU GENERATION、Official 髭男dism、MOSHIMO、ichikoro、D.W.ニコルズなどの作品に携わる。また、商業スタジオやミュージシャンのプライベート・スタジオの音響アドバイスも手掛ける。 Xylomania Studio murozo レコーディングエンジニア Crystal Soundを拠点に活動する気鋭のレコーディング・ミックスエンジニア。超特急、TAEYO、week dudus、Sound’s DeliなどHIPHOP、R&Bからポップスまで様々な楽曲制作に携わり、Dolby AtmosミックスにおいてはSySiSY「Weekend」、Lil’Yukichi 「May I… feat. antihoney」などメジャーからインディーまで幅広く手掛けている。 Crystal Sound 劇伴制作におけるDolby Atmos ROCK ON PRO(以下、R):本日はお忙しい中お集まりいただきありがとうございます。さっそくですが、みなさまそれぞれの「Atmos事情」のようなものあれば伺いたいのですが。 戸田:Netflixが納品形態としてAtmosを推奨していることもあり、実際にAtmos制作に関わる機会は多くなっています。ただ、劇伴音楽という立場からすると、Atmosによって得られる「空間」は効果音で自由に使ってもらう、というスタンスでいるほうがよい結果になると思っています。特殊な効果以外では頭上から音楽が聴こえる必然性はないですし、逆に見ている方を混乱させてしまうことにもなりかねない。そうではなくて、作品の効果を高めるためにどうやって「空間」の中で効果音と共存していくか、ということを考えることが多いですね。 深田 晃 氏 深田:映画の場合は、音楽と効果音の役割分担というものがありますよね。最近関わらせてもらったある映画作品で、少年合唱団が歌うシーンがあって、それは高さが追加されることで7.1chよりもさらにドキドキする、引き込まれるシーンになったなと思っています。 戸田:オブジェクトトラックを使って音楽を動かす、ということはありますか? 古賀:今のぼくのデフォルトのセッティングでは、20個のオブジェクトトラックが常に立ち上がってます。9chのワイドチャンネル用、トップフロント用、トップリア用のセンドを6チャンネル分作ってるんです。あとはSpat Revolutionで9.1.6のリバーブを作って常に送り込んでたりするので、その分はオブジェクトを使いたいって感じですね。でも、別に動かしたいわけではなく鳴らしたいだけ。まだ映画でAtmosをやってないんですけど、たぶんセリフの関係とかで音楽がワイドチャンネルに逃げなきゃいけない場面ってあると思うんです。そのために、それくらいのオブジェクトは必要なんじゃないかなって。ただ、オブジェクトの使い方は難しいな、と。逆に聞いてみたかったんですが、劇伴では音楽に何チャンネルくらいのオブジェクトトラックをもらえるんですか? 戸田:基本的にはベッドのみで、オブジェクトは使わないようにしてます。劇中ではなくオープニング / エンディングとかでオブジェクトを使って音楽を聴かせる、という使い方をする場合はあるんですけど。その時はステムからオブジェクト化して、Atmosにした場合の効果をエンジニアさんと確認しながら制作したんですが、それは全スピーカーを音楽だけに使えるからやれることで…。もちろん、新しい使い方は模索してるんですが、現時点では劇中で音楽を回したり、というのはやはり無理なので、考え方としてはサラウンドから空間をさらに広げるという形になっていますね。 R:ハイトチャンネルからの音ってどんな使い方をするんですか? 戸田 信子 氏 陣内一真 氏 戸田:ビックリさせる効果を出すために使ったりしました。テーマソングがついてる敵キャラがいるんですけど、登場シーンでその歌を上から降らせたりとか。攻殻(註:Netflix『攻殻機動隊 SAC_2045』)だと、ハイトを使ったのはそれくらいですかね。ハイトはやはり主に効果音が使ってました。 古賀:効果音をハイトから出す時って、プラグインで広げたりしたんでしょうか。 陣内:いや、それ用のパンニングと空間処理でやってたと思います。効果の方は正確にはわからないですが、音楽に関しては今回ほとんどがシンセだったので、ものによってはプラグインで広げちゃうと音がスカスカになってしまう。なので、基本的にはパンニングでちゃんとその位置に持ってく、という形でしたね。 古賀:Atmosの仕込みはどうやってますか? 戸田:仕込みはうちのスタジオでやってます。11月公開の劇場版(註:2021年11月12日〜25日に上映された『攻殻機動隊 SAC_2045 持続可能戦争』)の場合は、すでにNetflixで使用したデータをサラウンドのステムで用意してあったので、それをバラしてAtmosにミックスし直しました。12話あったものを2時間にまとめてるのでほぼ付け替えでした。 古賀:Atmosのままとっておくわけではないんですね。 戸田:Atmosのステムだと5、60GBになるわけですよ。データで送るのもままならない(笑) 古賀 健一 氏 古賀:2時間映画だと、何日くらいダビングステージ(註:映画制作で、ファイナルミックスを行うスタジオ)に入られますか? 戸田:向こうだと、普通は2週間はあります。その代わり、終わっても白紙に戻されることもありますよ。 陣内:ダビングまで終わった映画のオープニングを作り直さなきゃならないとか。「スタジオでアシスタントが準備してるから今すぐ行って。午後から監督レビューだから。」とか言われて(笑) 戸田:とある番組では、監督OKまで出てあとは確認チェックだけっていう段階から「これニュースの音楽みたいだから変えて」とか。一週間ダビングしてあともうちょっとで終わるってところで、家に帰って音楽作り直しましたよ(笑) R:日本だとダビングにそんなに時間は割いてもらえないですね。 戸田:そういう点では私たちの環境は恵まれていて。『攻殻機動隊 SAC_2045』はCGの制作ペースに合わせる形で、1ヶ月で2話のペースで制作してたんです。映像に合わせてイチから作ってプレゼンして…「違う」って言われてまた戻る、みたいな(笑)。12話作ると半年なので監督の好みとかもわかってきてすごくやりやすかったです。 陣内:やっぱり、シーンに合わせて書けた方が楽です。効果のガイドももらえたんで、それに合わせて引くところは引くということもできたんで。 R:今回の攻殻はじっくり見させていただいたんですが、音楽と効果音が入れ替わり立ち替わりで場面を作っていくような作品という印象でした。 戸田:ありがとうございます。監督が、もともとフィルムスコアリングをやりたかったという方なので、そういう音になったのかもしれません。今回の作品は展開が激しくて、これはたぶん選曲(註:新たに作曲せず、既存の曲を使用すること)ではできなかったな、って(笑) 陣内:Atmosということで言うと、あらかじめ曲ができていて後からそれを「Atmosで」っていうよりは、全体の音響に対してちゃんと曲をデザインしていける方が効果的なのかなって、ダビングをしていて思いましたね。例えば、10分間バトルし続けるシーンがあったとして、既存の曲を10分間ループさせるわけにはいかないですから。 murozo 氏 古賀:最終的なビジョンを共有していることはすごく大事ですよね。 戸田:特にAtmosだと、効果音がどこから鳴るかだけじゃなくて、効果音の種類とかでも世界が変わっちゃうじゃないですか。シリアスな音楽を作ってきたのに効果音はコミカル、みたいになると全然違うし。そういうことをちゃんと打ち合わせできた方がいいですね。 古賀:効果音がすごく低音を出してきたりすると、「この曲、ベース要らなかったじゃん」みたいになっちゃう。 戸田:BGMが邪魔になっちゃいますからね。 陣内:実際、一番下の音域の使い方は結構気を使いますね。いたるところでドーン!と来るわけにいかない、というか。 戸田:カークラッシュのシーンとか、効果音からすれば一番「ドーン!」といきたいところじゃないですか。そういうシーンでは、キワまで音楽でガァーっと盛り上げてパッ!と逃げる、みたいにするんですけど…たまに効果も逃げちゃって「シーン…」みたいな、「え?新しい演出??」みたいなことになることもあります(笑) 古賀:ピクチャーロック(註:以降、映像に変更がない状態のこと)はあるんですか?アニメだと、あとから映像を変更できるじゃないですか。 戸田:ピクチャーロックは大前提ですね。 陣内:効果のタイミングは特にそうですね。 戸田:シーンごと変わったりしない限り音楽はある程度は対応できますけど、効果音は数フレーム違うだけで気持ち悪いことになっちゃいますから。 音楽制作におけるDolby Atmos R:いわゆる音楽作品の場合はいかがでしょう? 古賀:やっぱりAtmosと相性がいいのはライブものなんですよね。「今回はAtmosでやってみませんか?」っていう提案も、ライブものだと受け入れてもらいやすいです。 R:やっぱりライブ空間を再現する、というのは方向性として分かりやすいですよね。 戸田:やり方としては、コンサートとかライブを収録して再現する方向にした方が、絶対Atmosの良さは生かせますよね。アイドルグループが映画館を貸し切ってAtmosでライブビューイング中継やったりしてますけど、実はあの方向が一番効果的なのかなと思ったりします。 深田:Atmosになって変わったことというと、客席後方に立てていたマイクは使わなくなりましたね。今までは客席で聴いている音場を意識していたんですけど、Atmosになってからは指揮者のあたりをリスニングポイントとして意識するようになりました。以前のフロントLRが、サイドチャンネルに近くなる感じです。立体音響になることでオケに寄っていっても違和感がないように感じます。 R:マイクのお話が出たのでお伺いしますが、Atmos制作にあたってレコーディングに変化はありましたか? 古賀:ぼくはAmbisonicsマイクを立てまくってます。Atmosに使わなくても、2chのアンビとか、あとで何にでも使えますし。ただ、スタジオのメンテがちゃんとしてないといけないんですよ。Ambisonicsだと、1チャンネル録れてなかったら全部ダメになってしまう。4チェンネルのレベルもきれいに揃わないと位置情報がずれるので、HAも精度の高いものが求められます。その辺は悩ましいと思いつつ、スタジオのメンテナンスをするモチベーションと捉えてます(笑) 深田:Atmosになって「ハイトが追加された」と考えると、メインLRの真上に置くとしても、AB、XY、ORTF…組み合わせは無数にあるじゃないですか。そういうものをいろいろと実験してはいますね。 R:サラウンドの時のように新しいアレイが発表されるでしょうか? 深田:AESではいろいろ出てるみたいですよ。ただ、ハイトにマイクを立てるとなると、ミドルレイヤーの音がハイトのマイクに入ってしまうという問題が起こるんです。だから、理屈で言えば単一指向の方が向いているっていうことになるんですけど、そうすると、マイクの距離をどうするかという話にもなる。でも、いろいろ試した結果ではそこはあまり大きな問題にはならなそうでした。 R:まずは「ハイトのマイクがある」ということが重要、ということですね。 深田:そうですね。それと、単一指向の方が中心周波数が高いところにあってクリアーな音になるから、そうした意味でも単一指向の方が立体音響に向いているという理屈になるんですけど…聴いた感じは全指向の方が好きだったり、いろいろ難しいですね(笑)。ぼくはメインのLRマイクの上に立ててるやつは単一で、オケの中で録ってるマイクは全指向にしてます。 古賀:ぼくはホールでは三点吊り(註:ステージ上方にマイクを設置するためのワイヤー機構)にAmbisonicsマイクを立ててます。これにメインのLRマイクを足して、芯はメインでしっかり録るって感じです。三点吊りに複数のマイクをちゃんと設置するのって難しいじゃないですか。何度もやり直すとホールのひとに怒られちゃうので(笑)Ambisonicsマイクはカプセルの位置が固定されてるから、その辺の心配がない(笑)客席とステージ上にも使って、Ambisonicsマイクを3本使ってます。 Dolby Atmosとデジタルミュージック R:Atmos制作ならではの難しさみたいなものはありますか? 戸田:打ち込み制作の限界について、強く感じますね。攻殻のようなSF作品だとサンプルライブラリのようなものを使用する機会も多いんですが、もともとAtmosミックスを前提に収録されていないものが多いので、Atmosの良さを活かしきれていないと感じることがあります。なので、生オケを収録するような場合ははじめから各マイクを各スピーカーに当てられるような配置で演奏を録る、アンビエンスを録る、というようなこと目指してます。 陣内:市販のサンプルライブラリだと、ステレオまでしかないというものも多いですが、それだとその時点で選択肢から外れちゃう。少なくともクアッドで鳴らせるサンプルが必要です。それでも、5.1chの時はまだよかったんですけど、7.1.2chになると音が空っぽすぎるので、メインのほかにルームマイクが収録されているようなライブラリだったらそれも全部立ち上げたりして…なんとか疑似的に作ってはいたんですけど。 戸田:ルームとメインとサラウンド… 陣内:それとスポット。各楽器でそれがステレオで4本ずつ、となると結構データ量がかさんじゃって。 戸田:そうなると、何百トラックも使うような音楽は扱えなくなっちゃうんですよ。特に、96kHzとかで収録してさらにマイクの本数が増えると大変なことになってしまいます。どちらかというと、機材やツールのスペック的なところがまだAtmosに対応できてない部分があるように感じます。Atmosで使用することを前提にした音源も全然少ないですし。 陣内:いまのぼくらのセットアップでいうと、ウッドウィンドとストリングスはAtmosフロント / リアのチャンネルがあるライブラリーなんですよ。けれども、全部立ち上げるとちょっと…音が鳴らなくなっちゃうので(笑)サンプル用のPCが1台1セクションみたいな…ストリングスで1台、ブラスで1台、みたいな感じになっちゃってます。 古賀:昔のGIGA STUDIO時代に戻ってるみたいですね(笑) 陣内:音源のコアのクオリティみたいなものが、顕著に出てくるんです。ソフトシンセにありがちなエフェクトで音ができているようなものだと、リバーブを切ると全然楽器の音にならずに使いものにならないんですよ。リバーブもステレオでかかっちゃってるし。なので、原音がいいシンセに限定されてくるという印象です。書き出す時も、ディレイやリバーブは別系統で出して、ドライはドライで残っている状態で出さないといけない。 深田:そう考えると、生でやった方が楽ですね(笑) 戸田:ほんとにその通りです! Atmos Musicの普及とミックス R:Apple MusicやLogic ProのDolby Atmos対応についてはいかがでしょう。 Murozo:シェアが大きいApple MusicがDolby Atmosに対応したのは大きいと思います。 古賀:ぼくらエンジニアは、どこか馴れちゃってる部分があると思うんですよ。リスナーの方が「理由はわからないけど、明らかにこれまでの音楽とは違う!」って、気付いてる印象があります。特に若い子たちは、そういう新しい表現を貪欲に受け入れてくれてるように見えます。 Murozo:海外と比べて日本のスタートが大きく遅れたわけではないので、海外よりもいいものを制作することもできる大きなチャンスだと思っています。当初は過去作をアップミックスしただけのようなものも多かったですが、最近はAtmosを前提にしたいい作品が出てきているようにも思います。 古賀:すごく熱心な方もいて、昨日も「Atmosはすごくいいから、これでうちのアーティストも出したいんだ!」って方がうちのスタジオに来てくれて。そういうひとたちってやっぱり世界を見てて、「世界のプレイリストの中に並べたら、絶対この子のよさに気づいてもらえる」っていう熱い想いを持った方なんですよ。 戸田:ステレオマスターをプラグインでアップミックスしただけのような作品ばかりになってしまうと、Atmosの良さがうまく伝わらないんじゃないかというのは心配ですね。さっきのサンプル音源の話と同じで、ステレオ前提で録ったものをAtmosにしようとすると、ないものをあるように聴かせるためにいろんな無理が出てきてしまう気がします。これからAtmosの新録作品がどんどん出てくることに期待します。 R:LogicがAtmos対応したのも大きなニュースですね。 Murozo:作家さんが「ちょっとやってみようか」でパッとできるところまで来たということですからね、どんどん挑戦したいです。 古賀:Atmosミックスは難しい、みたいに思っている方もいると思うんですけど、ステレオの方がはるかに難しいですよ。ちゃんと録音しておけば各チャンネルに置くだけで終わりですからね。 R:実はステレオほどシビアなレベル管理は要らないんですよね。 深田:5.1chの時って、スイートスポットからちょっと外れると、リアから出してる音なんか特にすごく不自然に聴こえましたよね。それが、Atmosでは高さ方向があるせいか、そういう状況でもあんまり変な感じにはならないというか…スイートスポットが広がった、という印象がありますね。 古賀:円の外に出て聴くのが楽しくて好き(笑)「あー、半球状だな〜」って思います。 Murozo:円の外で聴いた時に違和感がなくなったら「できたな」って判断してます(笑) 古賀:サウンドトラックについてはどうですか? 戸田:Atmosで配信できるようになって、制作したフォーマットのまま聴いてもらえるようになったのはよかったですね。ただ、それがどういう環境で聴かれてるか、っていうことに関しては逆にわからなくなっちゃうわけで。ステレオを作らなきゃいけない時は、もうダウンミックスですね。 陣内:本来なら、ステレオはステレオのバランスがあるので、別途ミックスしたいですが。 深田:ぼくは5.1chや7.1chとは別に、もう一度ステレオ用のミックスを作ります。作品にもよると思うんですけど、映像作品の音楽って短くなりがちで楽曲として成立しにくいものがありますよね。いまよく一緒に仕事してる作家さんは作品の中で使用されているのとは別に、楽曲として成立する尺のあるバージョンを作曲したりしてますね。 戸田:挿入歌はそういう作り方をしたりしますね。劇伴として使う以上の尺で、2ミックスも別に用意したりします。 ヘッドホンとユーザー体験 深田:ヘッドホンとスピーカーの互換性については、すごく考えさせられます。オブジェクトトラックにしちゃうと、スピーカーのないところは全部ファンタムになるわけですよね。そうすると、ヘッドホンで作ったものを映画館で再生すると「ちょっと違うな」って感じになっちゃう。映画作品だと効果音がいっぱいあってすごく立体感があるように感じるんだけど、音楽だけだとそれほど(立体音響の)効果が感じられないんだよね。だから、最近はあんまり複雑にせずにやろうかな、と思ってるんですけど。 古賀:そう。東映のダビングステージにはじめてAtmos作品を持って行った時に結構ショックを受けて…。映画って7.1.2chなんで、自分が思ってたよりハイトチャンネルの幅が狭かったんです。サイドスピーカーの位置も思ってたよりも上にあるので、要は「ハイト」って思ってた範囲がより狭い。劇場中を回ってるイメージで作った音が、全然回ってなくて、ガッカリして帰ってきたっていう経験があります。(一同:笑) 古賀:それ以降、Atmosの音場が「半球体なんだ」ってことをすごく意識するようになりました。上側の空間っていうのはサイドに比べるとすごく狭い。Appleの空間オーディオの話で言うと、あれもやっぱり半球体だし、イヤホンなんかで聴くと後ろの音は小さくなっちゃうって感じます。それに、バイノーラルにするとショートディレイみたいなものがかかっちゃうんですけど、それを嫌う方もいる。それを避けるには、Ls/Rs(サイドに配置されたL/Rチャンネル)に音を置いちゃうのがよくて、海外のミックスとかでは歌がLs/Rsから出てるものが増えてきてる。ただ、それをやるとスピーカーで聴いた時に破綻するから、最初に「ヘッドホン特化型にしますか?」ってことは必ず確認してます。 Murozo:それで、センターがない楽曲が増えてるんですね。 古賀:LFEもセンターも使わない、メインのパートはLs/Rsにある、っていうヘッドホン特化型のミックスも出てきてますよね。バイノーラルにすると、それが結構バランスがいいんです。Atmosだとモノラル表現ひとつとってもいろいろな方法がある。ハードセンターのモノラル、LRファントムのモノラル、上のチャンネルを使ったモノラル…ヘッドホンで聴くと全部違って聴こえるので、3パターンくらい作って「どのモノラルが好きですか?」って聞いたりしてる。 R:実は、そこがみなさんに一番聞きたかったことで。配信コンテンツやApple Musicのようないまの空間オーディオって、たぶん9割以上の方がヘッドホン / イヤホンで聴くことになると思うんです。下手したらNetflixもそうですし。でも、制作者側はスピーカーで作っていて…。そこの差分はどうやって埋めてますか? Murozo:ぼくはひたすらスピーカーと、Air Podsのような空間オーディオ対応イヤホンとの間を行き来して聴き比べてますね。それがいまできる最善の方法かな、と。 深田:バイノーラルレンダリングすると、LRがハッキリしなくなるんですよね。スピーカーの方がそこはちゃんと出るんだけど、ヘッドホンはもう無視できない時代のようにも感じていて。写真を撮るだけで疑似的に耳型が取れるようなイヤホンとか、ヘッドホン/イヤホンもどんどん性能はよくなってくと思うんですよ。いつも言うんですけど、メガネってみんなそれぞれ違うじゃないですか。同じようにイヤホンもパーソナライズするってことをもっと簡単にできる時代が来るんじゃないかな。 戸田:Atmosをステレオにダウンミックスした時に、もともと作ったミックスとだいぶ違うなっていうようなことが起こったりします。なかなかそういうところまで、事前に確認するのって難しいなと感じています。 古賀:いま個人的に思ってるのは、スピーカーのセッティングと調整をちゃんと追い込めば、その差はかなり埋められるということです。実はある時点でその手応えが得られたのでAtmos用のスピーカーを揃えたっていうのがあります。 陣内:なるほど。 深田:Appleの空間オーディオはAtmosの距離パラメーターは反映してないんですよね。TidalとかAmazonは反映してるんですけど。 古賀:はい。その機能がLogicにはついたんで、Appleの今後に期待ですね。 R:ゲームは何年も前からすでにDolby Atmosに対応していますが、ゲーム音楽での制作はどのようなものだったのでしょう? 陣内:『マーベルアイアンマン VR』の時は、オーディオエンジニアの意向もあって音楽はクアッド納品しましたね。頭を動かしたそのまま音楽も動くというものではなかったんですが、人間の頭部をソースにしたモジュレーションを軽くかける、みたいなことをやってました。上に行ったり下に行ったり激しく動くんですが、そういう部分は音楽では表現できなかったので、画面では伝わりにくいスピード感とかを表現する方向にフォーカスした記憶があります。 戸田:ゲームで難しいのが、仮想空間の中をプレイヤーが360°自由に動けちゃうんですよね。すると、じゃあ音楽ってどこから聴こえるんでしょうね??っていう…。結局、効果音は空間で鳴っているけど、音楽だけヘッドホンで聴いてます、みたいな感じになっちゃうんですよ。 陣内:実際、Xbox Oneから7.1.4で出せますよってことで、あらかじめほかのタイトルを聴いてみたら音楽はステレオだったんですよ。それで、効果音と音楽の空間感にすごく差があって…。効果音は空間に広がっているんだけど、音楽はずっと耳元で鳴ってるみたいな。 深田:だいぶ前ですけど、ビョークのVRコンテンツも音はステレオでした(笑) R:ヘッドトラッキングものはちょっと難しいみたいですね。音楽って、どうしても定位のようなものが必要なんだな、って感じました。 古賀:音楽サブスクリプションサービスの対応は嬉しいんですが、ヘッドホンから先に体験すると「こんなもんか」と思ってしまう人もいるんじゃないかということは心配ですね。先にスピーカーを体験してもらえればAtmosのよさは伝わると思うので、そういう体験の機会が増えるといいですね。 戸田:そういう意味では、やっぱり映画は劇場(=映画館)で見てもらいたいという思いがあるんです。劇場って、作ったものを意図した通りに観せられるという最高の場所のひとつなんですよ。だから、クリストファー・ノーランなんかは、その一回の視聴の中ですべてを体験させることを目指して制作する。それってものすごく高い技術力で緻密に制御されてるから聴けるわけで、音が破綻してたら物語も頭に入ってこない。だから、その作品をしっかり演出できるところまで追い込まないといけない、っていうのは映画をやる上での掟だと思うんですよね。 R:やはり、やる以上はちゃんとしたものを作りたいですよね。 戸田:そうですね。国内でAtmos対応の映画館がやっと3館くらいできた時にインドにはもう60館くらいあって、日本はアジアの中で一番遅れてたわけじゃないですか。Atmosミックスができるスタジオもまだまだ少ない中、せっかく苦労して作っても観られる映画館がないと結局その良さが伝わらないってことになっちゃうんじゃないかな、と。映像の世界もそうだと思うんですけど、設備投資も必要ですし。それをやる必然性みたいなもの…仕事の量とか、Atmosにすることの重要性、あとは周りの声だとかが挙がってこないと、せっかく映画館を作っても外国作品しかないような状態になりかねない。日本も、作品をもっと海外に輸出することを考えれば、予算はちゃんと回るんじゃないかと思うので、ぜひ頑張ってAtmos作品を撮ってほしいですね。 Atmos Musicの展望 戸田:サウンドトラックを専門的に収録するためのオーケストラを立ち上げたんですが、いろんな企業さんに「ぜひ私のオーケストラを使って実験してください」ってお願いしたことがあるんです。その時来てくださった企業さんがやったのは、指揮者の右手前方くらいにマイクを立てて、客席ではなくステージ上で聴こえる音を立体音響で再現するという内容でした。映像も演奏者が指揮者を見る角度からのもので。それはとても面白かったんですけど、じゃあそれを何に使うのか、というところまでは落とし込めなかったんです。 深田:新日本フィルの配信の時に似たようなことをしました。木管、バイオリン、指揮者、ピアニスト…みたいに固定カメラがいくつかあって、それぞれの目線の音を作りたいという内容でした。それで、Atmosミックスを6パターンも作って(笑)、映像を切り替えると音も切り替わる、っていう(笑)。コロナで配信しかできなくなったので、新しいことにチャレンジする試みのひとつで体験としては新鮮で面白かったんですけど、純粋に音楽を楽しむというのとはやはりちょっと違うかな、と。 R:ついつい、意味もなく回してしまったり(笑) 深田:5.1chの初期の頃がそうだったんですが、新しい技術ができて、ツールが生まれて、いろんなことができるようになるとついつい小手先でいろいろと遊びたくなっちゃう(笑)。そういうことに囚われずに音楽の本質を捉えた上で新しい、という作品がどんどん出てきてほしいですね。 古賀:「配信するとCDが売れなくなるから」とか「ステレオはできてるからアップミックスでいいじゃん」みたいな考えの方も残念ながらいらっしゃるんですよね。そういう方に納得してもらうためにも、よりよい環境でAtmosミックスを聴いてもらえる機会を増やしていかないと、と思います。 戸田:根性論みたいであまり言いたくないんですけど、クリエイター、つまりモノを創っているひとたちが、次の時代を創れるかもしれない可能性が目の前にある時に、そこから手を引くっていうことが私は率直に「やだな」って思っちゃうんですよね。もちろん、いろいろな困難がありますけど、そこをなんとかやりくりしてでも「日本から発信できるすごいものができるかもしれない!」っていうことをモチベーションとしてるはずじゃないですか。たとえ社会的なムーブメントがなくても、「私たちがそういう作品を創ればいいじゃん」って考えるのがクリエーターの使命というか、性だと思うんですよ。 古賀:楽観的な話題だと、Atmosカーっていうのがあるんですよね。この前、富山でAtmosタクシーっていうのに乗ったんですよ(笑)そしたら、NetflixとかAmazon HDが入ってて。開発が進めば車でAtmosを聴けるようになるっていうシチュエーションは激増するんじゃないかと思ってるんです。そうなったら、どうやってAtmosのよさを広めようかなんていう心配は5年くらいで全部解決されちゃうんじゃないか、と。 We want more Atmos! 古賀:生収録の話だと、いま国内にはAtmosで活かせる響きを録れるスタジオが少ないんですよね。 深田:スタジオってもともと響きを録るとか音をリッチに録るというのではなくて、なるべく響かないように、ほかのマイクに音がカブらないようにっていう発想で設計されてますからね。ちょっと響くスタジオって、芸大の千住(東京芸術大学 千住キャンパス)のスタジオくらいですね。あれくらい響くスタジオって国内にはないですよ。 戸田:私が立ち上げたオーケストラも、まさにそれが課題で。一番の問題は日本にはスコアリングステージ(註:劇伴制作用の、オーケストラが収録できる大規模スタジオ)がないっていうことだったんですよ。この前も海外作品の音楽を録っていたんですが、録りたいものを録りたい配置で録れるスタジオがない。仕方がないので、ミューザ川崎、オペラシティ、所沢のミューズとか、ホールにオーケストラを入れて、マイクもいろいろと変えて、いわゆる「映画音楽!」的なトラディショナルなクラシックからハイブリッドなものまで…いろいろと試してるんです。それはそれでいいものが録れるんですけど、スタジオで、クロースマイクで録るような芯のある音、映画で使えるっていうレベルまで持っていくというのは難しくて。 深田:今は(コロナによって)難しいですけど、オーケストラの練習場みたいなところって意外にいいんですよ、それこそスコアリングステージみたいで。遮音板みたいのはないんですけど、スペースとしては全然使える。以前、札響さん(札幌交響楽団)の練習場というところで普通のアルバム用のレコーディングをしたことがあるんですよ。広くて、結構スタジオ感覚で使えたんです。 戸田:卓(音声卓)はどこに置いたんですか? 深田:ぼくは卓はほとんど使わないんですよ。HAからI/Fを介して、そのままPCに入れてしまう。 古賀:モニタリングはヘッドフォンですか? 深田:いや、控え室みたいな部屋をひとつ借りて、スピーカーでモニターします。 戸田:クリックがある時はどうしてますか?いまの劇伴だと、いわゆる「同期もの」を録りたいことも多いんですが、オケが80人規模なのでキューボックスが足りなくて…。 古賀:ぼくも小ホールの録音の時とか、自分で持ってるキューボックスを持っていきますが、やっぱり限界がある。下手をするとキューボックスのためだけに外部の業者さんを呼ばなきゃいけなくなる。 戸田:そうですね。スタジオじゃないので、搬入とセッティングで3時間かかったりとかもあって。そういうことを考えるとどうかとも思うんですが、オーケストラが7、80人の規模なのでスタジオでは録れない…なんとかならないかな、と。 古賀:結論としては、日本にスコアリングステージを作ればいいってことに(笑) 戸田:みんなでお金出し合って作りましょうよ〜(泣) 古賀:それやって死ねたら本望かな、と思ってます(笑) 戸田:結局、日本でできないから海外に行かなきゃいけなくなっちゃうんですよ。プラハとか行くと、それこそAtmosの収録とかもどんどんはじめているんですね。今日話したような音源ライブラリの限界もあって、これからAtmosによって生収録が重要視されますし、LAとかからも劇伴制作の依頼があってすごく盛り上がってるんです。海外の映画とか、Netflixでやってるような作品を日本で収録する…そういう制作を輸出するということをやりたいっていうのが、私のひとつの目標としてあるんです。それができたら、日本のAtmosミュージックはもっと盛り上がるな、って。 R:日本にスコアリングステージを作るというのが、一番いい結論なのかも知れないですね。 戸田:ROCK ON PRO で監修してください(笑)というか、ここにいるメンバーでスコアリングステージ作れるんじゃないですか?(一同:笑) それぞれに専門分野の異なるプロフェッショナルたちによる座談会らしく、忌憚のない意見が飛び交うものとなった。配信事業の対応によるDolby Atmos体験の裾野の広がりを歓迎しながらも、制作者の意図しない環境で聴かれてしまう可能性を危惧される様子が印象に残っている。一部ではバズワード化しているDolby Atmos / 空間オーディオというテクノロジーを真に豊かなユーザー体験へと結実させるためには、地に足のついた制作・聴取が必要だと感じた。読者の皆さまの身近なところにも制作ツールは数多く存在するようになっている、ぜひその制作を実際に体験してみてほしい。   *ProceedMagazine2021-22号より転載
Broadcast
2022/02/18

株式会社CBCテレビ様 / 〜革新が従来の文化、ワークフロー、使い勝手と共存する〜

日本初の民間放送局として長い歴史を持つ株式会社CBCテレビ。1951年にわが国初の民間放送としてラジオ放送を開始し、1956年からはテレビ放送をスタートさせている。そのテレビ放送スタートとともに竣工し、幾多に渡る歴史の息吹を現代につなげているCBC会館(通称:本館)のリニューアルに伴い、館内にあるMAスタジオ改装工事のお手伝いをさせていただいた。 完全ファイルベース+イマーシブ対応 数多くの独自番組制作、全国ネット番組を抱えフル稼働を続けるCBCの制作セクション。3年前には新館に第3MA室を開設、同時に仕込み作業用のオープンMAを8ブース、さらにファイルベースワークフローを見越した共有サーバーの導入と、制作環境において大きな変革を行った。その当時は、本館を建て替えるのか?リニューアルするのか?という議論の決着がついていない時期であり、本館にある第1MA、第2MAに関しては最低限の更新にとどめていた。今回は、リニューアルの決まった本館で、将来に渡り第1MA、第2MAを活用すべく大規模なシステムの入れ替えが実施された。 📷 第1MA室 📷 第2MA室 📷 第3MA室 まずは、非常に大きな更新内容となった第1MAを見ていきたい。もともと、このスタジオにあったメインコンソールはSTUDER VISTA 7であったが、今回の更新ではミキサーをなくし、完全なファイルベースのシステムアップとするとともに、将来を見越したイマーシブ・オーディオの制作環境を導入した。基本のシステムは、前回の第3MA開設時と同等のシステムとし、実作業を行うスタッフの習熟への負荷を最低限としている。そこに、イマーシブ制作のためのシステムを加えていく、というのが基本路線である。 第3MAでの基本システムは、Avid Pro Tools HDXシステムとAvid MTRXの組み合わせ。すでに業界標準といっても良いこれらの製品にコントローラーとしてAvid S3を組み合わせている。モニターコントローラーとしてはTAC system VMC-102が採用されているが、スタンドアローンでのシステム運用を考えた際には、やはりこのVMC-102は外せない。Avid MTRXも、多機能なモニターコントロールを実現しているが、PC上でDADmanアプリケーションが起動していないと動作をしないという制約がある。この制約のために、他の事例ではDADmanを起動するためだけに電源を落とさずに運用するPCを1台加えたりといった工夫を行っているのが現状だ。VMC-102の場合、これが起動さえしていればモニターセクションは生きる。これはPCレスでのモニターコントロールができるという価値ある違いにつながっている。 第1MAも、システムの根幹となるこのAvid Pro Tools HDX、Avid MTRX、TAC system VMC-102という構成は同様だ。違いとしては、多チャンネルに対応したAD/DAとしてDirectOut Technologies PRODIGY.MCの採用、そして、イマーシブ・サウンド作りの心臓部としてDolby RMUが加わったということだ。モニターセクションのVMC-102は、Dolby Atmosのモニターコントロールも問題なくこなすことができる製品である。実際にシステムを組もうとすると直面する多チャンネルスピーカーの一括制御。これに対応できる数少ない製品の一つでもある。 📷 第1MAのデスク上はシンプルに纏められている。センターにAvid S3、PC Displayの裏にはVU計がある。右手側にはVMC-102があり、その奥には収録時のフェーダーとしても活用されるSSL SiXがある。SiXの1-2chにMic Preが接続され、InsertにTUBE-TECH LCA2Bがスタンバイ。ステレオフェーダーにはCDとMacProのLine Outが接続されている。 しっかりとしたイマーシブ・サウンドを制作するためにスピーカーはPSIで統一。サウンドキャラクターのばらつきを最小限に、繋がりの良いサウンドを実現している。CBCでは以前よりPSIのスピーカーを使用しており、他のスタジオとのサウンドキャラクターの統一を図ったという側面もある。作業量が一番多いステレオ作業のためのL,RchにはPSI A25-Mを導入し3-Wayの充実したサウンドでの作業を実現。サラウンドにはA17-MとA14-Mを採用している。改装での天井スピーカー設置となったためにここだけはひとサイズ小さなモデルとなるが、できる限りサイズのあるスピーカーを導入したということになる。 📷 上段)ステレオL,Rchに備えられた3WayのPSI A25-M。下段)サラウンドサイドのスピーカーとなるA14-M。特注の金具で取り付けられ、壁面を少しくぼませることでスピーカーの飛び出しを抑える工夫が見て取れる。天井のスピーカーも特注金具により角度の調整などAtmos環境に合わせた設置が可能となっている。 サウンドキャラクターに大きく影響するAD/DAコンバーター部分は、前述もしたDirectOut Technologies PRODIGY.MCを導入している。安定した評価を得ていた同社ANDIAMOの後継となるモジュール式の多機能なコンバーター。モジュール式で将来の拡張性も担保されたこのシステムは、今後の様々な展望を検討されているCBCにとってベストなチョイスとなるのではないかと感じている。IPベースでの室間回線がすぐそこまで来ている今だからこそ、どのような企画にも柔軟に対応できる製品を選択することは、導入検討におけるポイントとなるのではないだろうか。 📷 ラック上部に組み込まれたDirectOut Technologies PRODIGY.MC イマーシブ対応のセットアップ イマーシブ・サウンドに関してのシステムアップは、Avid MTRXとMADIで接続されるDolby RMUという構成。MADIでの接続のメリットは、Dolby Atmosの最大チャンネル数である128chをフルに使い切ることができるという点。Dante接続の構成も作ることはできるがDanteの場合には128ch目にLTCを流す関係から127chまでのチャンネル数となってしまう。フルスペックを求めるのであればMADIとなるということだ。 Windowsで構築されたDolby RMUの出力はVMC-102を通してスピーカーへと接続される。各スピーカーのレベル、ディレイ、EQの補正はAvid MTRXのSPQ moduleで行っている。すでにこれまでの事例紹介でも登場しているこのAvid MTRX SPQ moduleは、非常にパワフルな補正エンジンである。各チャンネルへのレベル、ディレイはもちろん、最大16band-EQも使えるプロセッサーモジュールである。また、Dolby RMUのバイノーラルアウトは、SSL SiXのEXT INへ接続されており、常にヘッドフォンアウトからバイノーラル出力を聴くことができるようになっている。SSL SiXへのセンドは、通常はPro Toolsのステレオアウトが接続されているが、VMC-102の制御によりRMUのバイノーラル出力とボタンひとつで切り替えられるようにしている。バイノーラルで視聴されることが多いと予想されるDolby Atmos。このようにすぐにバイノーラルアウトの確認をできるようにしておくことは効率的で重要なポイントだ。 📷 最下部には各スピーカーのレベル、ディレイ、EQの補正を行うSPQ moduleが組み込まれたAvid MTRXが見える。 放送局が蓄積したリソースをイマーシブへ そもそも放送局にイマーシブ、Dolby Atmosは必要なのか?という問いかけもあるかもしれないが、すでに放送局ではネット配信など多角的なコンテンツの送出を始めている。YouTubeなど、ネット上の動画コンテンツは増え続け、Netflix、Huluなどのオンデマンドサービスが一般化してきているいま、放送局として電波という従来のメディアだけに固執するのではなく、新しい取り組みにチャレンジを始めるというのは自然な流れと感じる。もともと、放送局にはこれまでに積み重ねてきた多くのコンテンツ制作のノウハウ、人材、機材がすべて揃っている。数万再生でもてはやされるユーチューバーと違い、毎日数千万人のリアルタイム同時視聴者を抱えたメディアで戦ってきた実績がある。このノウハウを活かし、これからのコンテンツ制作のために様々な取り組みを行う必要がある。ネットならではの音響技術としてのイマーシブ。特に昨今大きな注目を集めているバイノーラル技術は、いち早く取り組む必要があるという考えだ。バイノーラルであれば電波にも乗せることができる。そして、ネットでの動画視聴者の多くがヘッドフォンや、イヤフォンで視聴をしていることを考えると、そのままの環境で楽しむことができる新しい技術ということも言える。 コンテンツ制作のノウハウ、技術。これまでに積み上げてきたものを発揮すれば内容的には間違いのないものが作れる。そこへ更なる魅力を与えるためにイマーシブ、バイノーラルといった最新の楽しみを加える。これがすぐにできるのは放送局が持ち得たパワーならではのことではないだろうか。技術、テクノロジーだけではなく、コンテンツの中身も伴ってはじめて魅力的なものになるということに異論はないはずだ。スポーツ中継における会場のサウンドのほか、音楽番組など様々なところでの活用が期待される。さらに言えば、その後の番組販売などの際にも付加価値が高まったコンテンツとして扱われることになるだろう。日々の業務に忙殺される中でも、このようなに新しいことへ目を向ける視野の余裕。それこそが次の時代につながるのではないかと、色々とお話を伺う中で強く感じた。 各スタジオ間にはIP伝送網が整備 他のMA室のシステムもご紹介したい。第2MAは、非常にシンプルなシステムアップだ。Avid Pro Tools HDXのシステムにAvid MTRXをI/Oとし、コントローラーにAvid S1、モニターコントローラーにはSPL MTCが採用されている。スピーカーはサウンドキャラクターを統一するためにPSI A17-Mが選ばれた。なお、第1MAの設備からはなくなっているものがある。VTRデッキを廃止し、完全なファイルベースのワークフローへと変貌を遂げている第1MA、VTRがないためにシステム自体もシンプルとなり、これまで設置されていたDigital Consol YAMAHA DM1000などがなくなり、機器類を収めていたラックも廃止されスッキリとしたレイアウトとなった。これは音響面、作業環境としても有利なことは言うまでもないだろう。 📷 第2MAのデスクは今回の更新に合わせて特注された。足元左右にラックが設けられ、左側はファンノイズが考えられる製品が納められ、蓋ができるように対策がなされている。デスク上にはAvid S1、SPL MTC、Umbrella Company Fader ControlがCDの収録用に用意されている。 3年前に更新された第3MAは、新館に新設の部屋として防音室工事からのシステム導入を行った。システムとしてはAvid Pro Tools HDX、Avid MTRX,Avid S3、TAC system VMC-102というコア・コンポーネントを用い、スピーカーにはNESが導入された。 📷 3年前に新設された第3MAがこちら。デスク上には、Avid S3、Avid Dock、VMC-102が並んでおり、第1MAとの共通部分を感じさせるセットアップとなっている。デスクは第2MAと同様に足元にラックスペースが設けられ、左側は蓋付きと同様の仕様になっている。また、I/OとしてAvid MTRXが導入されている。下段右は第3MAのブース。デスクの右にSTUDER Microが見える。これがリモートマイクプリ兼シグナルルーターとして活躍している。これにより、Open MA1,2からもこのブースを共有することができるようにセットアップされている。ブース内にも小型のラックがあり、そこにSTUDER Microの本体が収められている。 この際にポイントとなったのは、同時にシステムアップされたオープンMAと呼ばれる作業スペース。オープンMAは第3MAのすぐそばの隣り合うスペースに設置されている。高いパーテションで区切られた8つのブースにApple iMacでシステムアップが行われた。このオープンMAの2区画は、第3MAのブースを共有し、ナレーション収録ができるようにシステムが組まれ、STUDER MICROがリモートマイクプリとして導入されている。本来は、ラジオオンエア用のコンソールであるこの製品をリモートマイクプリ兼、シグナルルーターとして使っているわけだ。なお、デジタル・コンソールとなるためシグナルルーティングは自由自在である。 また、オープンMAにはAudio InterfaceとしてFocusrite RED 4 PREが導入された。これは将来のDante導入を見越した先行導入という側面もある。Native環境でもHD環境でも同一のInterfaceを使えるというのもこの製品が採用された理由の一つ。不具合時の入れ替えなどを考えると、同一機種で揃えることのメリットが大きいのは言うまでもないだろう。作業データはGBlabs FastNASで共有され、席を変わってもすぐに作業の続きが行える環境となっている。FastNASの音声データのネットワークは各サブへも接続され、音効席のPCへと接続されている。生放送枠の多いCBC、これらのシステムはフルに活用されているということだ。 📷 背の高いパーテションで区切られたこのスペースが、Open MAである。8席が準備され1,2は第3MAのブースを共有しナレーション収録に対応、ブースの様子は小型のLEDで見えるようになっている。それ以外の3~8も基本的なシステムは同等。すべてのブース共通でiMacにセカンドディスプレイが接続され、Audio I/OとしてFocusrite Red 4 Preが採用されている。この機種はDanteでの各所の接続を見越してのものである。 そして、前回の更新時に導入されたGBlabs FastNASへの接続はもちろん、本館のリニューアルに伴い各スタジオ間にはIP伝送網が整備された。このネットワークには、Danteが流れる予定である。取材時には事前工事までではあったが、各スタジオにはDanteの機器が導入され始めているとのこと。本館内の第7スタジオは今回のリニューアルでDanteをバックボーンとするSSL System-Tが導入されたということだ。そのままでも運用は可能だが、各スタジオにDante機器が多数導入され始めると回線の切り替えなどが煩雑になってしまう。それを回避するためにDante Domein Manager=DDMによるセットアップが行われるわけだが、このDDMは各スタジオをドメイン分けして個別に管理し、相互に接続を可能とする回線を絞ることができる。これは室間の回線を設定しておくことにより運用を行いやすくすることにつながっている。 もちろん、他の部屋のパッチを他所から設定変更してしまうといった事故防止にもなる。データの共有だけではなく、回線もIPで共有することによる運用の柔軟性が考えられているということになる。生放送を行っているスタジオの回線を他のスタジオで受け取ることもできるため、実際のオンエアの音声を他のスタジオで受けて、トレーニングのためのミックスを行うなど、これまでではなかなかできなかった運用が実際にテストケースも兼ねて行われているということだ。今後は、中継の受けやスタジオをまたいでのオンエアなど、様々な活用が期待されるシステムアップとなっている。これはサブだけではなくMA室も加わっているために、運用の柔軟性はかなり高いものとなる。 伝統ある放送局の文化にこれから先の放送局のあり方を重ね合わせた、これが現実のものとなっているのが今回のケースではないだろうか。バイノーラルを使ったコンテンツの新しい楽しみ方の提供。ファイルベースだけではなく、放送局の強みでもあるリアルタイムでの制作環境の強化、柔軟性の獲得。さまざまな新しい取り組みが従来のワークフロー、使い勝手と共存している。今後の放送局のシステムのあり方の一つの形がここに完成したのではないだろうか。 📷 株式会社CBCテレビ 技術局 放送技術部 名畑輝彦 氏   *ProceedMagazine2021-22号より転載
Music
2022/02/10

山麓丸スタジオ様 / 〜日本初、360 Reality Audioに特化したプロダクションスタジオ〜

360度全周(4π)に音を配置できるSONY の360 Reality Audio。その制作に特化したスタジオとして作られたのが株式会社ラダ・プロダクションによって設立されたこちらの山麓丸スタジオだ。国内ではソニー・ミュージックスタジオ、ソニーPCLスタジオに続いて3スタジオ目、「360 Reality Audio」専用スタジオとしては初となるという。今回はこちらのスタジオのPro Toolsシステム周りについて導入をさせていただいた。360 Reality Audio制作にはどのようなシステムが必要なのか。制作ワークフローを含め貴重なお話を伺った。 360 Reality Audio作品の専用スタジオを 株式会社ラダ・プロダクション様はCM音楽制作をメインに手がけている音楽制作会社だ。CM以外にも音に関わる企画やプロデュースなど様々な事業をされている会社なのだが、展示や開発系に関わる仕事も増えていく中でソニーと出会ったという。その後、ソニーが開発した波面合成アルゴリズムであるSonic Surf VRのスピーカー開発にも関わり、その時から立体音響に深く関わっていくことになったそうだ。その後、CES 2019で「360 Reality Audio」が発表され、その後ソニーと連携しつつ360 Reality Audio作品制作を手がけるような形になり、スタジオを作るまでに至ったということだ。現在では過去の楽曲の360RA化というものを多く進めているそうだ。広告の仕事を数多く行っているラダ・プロダクションでは展示での立体音響など、360 Reality Audioにとどまらない立体音響の提案を多くしているというお話も伺えた。 全15台のスピーカーをマネジメント 📷 スタジオ正面全景からは、Avid S1やAvid MTRXをコントロールするMOM Baseなど、操作系デバイスをスタンド設置にしてサイドに置き、リスニング環境との干渉へ配慮していることが見て取れる。ラック左列にはAvid MTRX / MTRX Studio、FerroFish / Pulse 16DXが収められ、右列にはヴィンテージアウトボードの数々がまとめられている。 360 Reality Audio制作に使用される360RACS(Reality Audio Creative Suite) 通称:ラックスはDAW上で立ち上げて使用するプラグインだ。ミックスをしているProTools 上で360RACSをインサートして使用することになるのだが、やはりトラック数が多くなったりプラグイン負荷が多くなると1台のマシン内で処理することが厳しくなるかもしれない。そこで、山麓丸スタジオでは大規模なセッションを見越してPro Toolsのミキシングマシン、360RACSを立ち上げるマシンを分けて制作することも想定したシステムアップとなっている。最大で128chのやりとりが必要となるため、Pro ToolsミキシングマシンはHDX2。360RACSについてもPro Tools上で動作させるためにこちらもHDX2を用意。その2台をAvid MTRX1台に接続し、音声をやりとりする形を取っている。 モニタースピーカーはGENELEC / 8331APが13台と7360AP 2台の構成になっている。8331APについてはミドルレイヤー、アッパーレイヤーがともに5ch。ボトムレイヤーが3ch。合計13chという構成だ。モニターのルーティングだが、まず360RACSマシンのHDXからのoutがDigiLink経由でMTRXへ。MTRXからDanteネットワーク上のFerroFish / Pulse 16DXへと信号が渡され、そこでDAがなされてスピーカーへと接続されている。ベースマネージメントを行うためにまず2台の7360APへ信号が送られ、その先に各スピーカーが接続されている形となる。スピーカーの調整についてはGENELECのGLMにて補正が行われている。マルチチャンネルのシステムの場合、GLMは強力な補正ツールとなるため、導入の際にはGENELECのスピーカーがチョイスされる確率が非常に高いのが現状だ。モニターコントロールについてはDADManで行われおり、フィジカルコントローラーのMOM Baseも導入していただいた。柔軟にセットアップできるDaDManでのモニターコントロールは大変ご好評をいただいている。 リスニング環境を損なわないレイアウト 前述のように360 Reality Audioは全周に音を配置できるフォーマットだ。スピーカーでモニターする場合は下方向にもスピーカーが必要なことになる。実際のスタジオ写真でスピーカーレイアウトはある程度把握できるかもしれないが、ここでどのようなレイアウトになっているかご紹介させていただきたい。 スピーカー13本の配置は耳の高さのMidレイヤーが5ch、上方のUpperレイヤーが5ch、下方のBottomレイヤーが3chという構成となる。Mid、UpperともにL,Rはセンタースピーカーから30°の角度、Ls,Rsは110°の角度が推奨されている。BottomレイヤーはL,C,Rの3本。こちらもセンタースピーカーから30°の位置にL,Rが置かれることになる。山麓丸スタジオではBottom L,C,Rの間にサブウーファーが設置されている理想的なスピーカーレイアウトであると言えるだろう。また、UpperはMidに対して30°上方。BottomはMIdに対して20°下方というのが推奨となっている。 通常スタジオではPC操作用のディスプレイ、キーボード、マウスやフェーダーコントローラーを置くためのデスクやコンソールなどが設けられることがほとんどだが、360RA用のスタジオではBottomにスピーカーが設置されることからその存在が邪魔になってしまうのが難しい点だ。山麓丸スタジオではPCディスプレイの役割を前方のTVに担わせている。また、フィジカルに操作を行うキーボード、マウス、Avid /S1、MOM Baseは右側に置かれたスタンドに設置され、極力音への影響が出ないよう工夫がなされている。ちなみに、スタジオ後方にはもう1セットKVMが用意されており、そちらで細かい操作等を行うことも可能だ。 📷 左よりAvid S1、Avid MTRXをコントロールするMOM Base。ブースでのレコーディング用には、Urei 1176LN / API 550A,512C / AMEK System 9098 EQ / N-Tosch HA-S291が用意された。最上段のRME MADIface Xは主にヘッドホンモニタリング用だ。 360 Reality Audio 制作ワークフロー ここからは実際に山麓丸スタジオで行われているワークフローについてお伺いすることができたのでまとめていきたい。 ●1:ステレオミックスを行う まず、マルチトラックのオーディオデータを先方より手に入れたらセッションを作成するのだが、まずはStereo Mixを行うという。このスタジオの顧問も勤めている吉田保氏などにミックスを依頼するケースもあるとのことだ。まずはステレオミックス用のセッションを作成することについては特に疑問はないだろう。元の楽曲がある作品の場合はそれに合わせるような形でステレオミックスが作成される。 ●2:ステレオから360RAへ ステレオでの音作りをしてから、それを360RA上でパンニングして行く形となる。360RACSはプラグインのため、ProToolsのトラックにインサートして使用する形となるのだが、各オーディオトラックにインサートはしない。各オーディオトラックと同数のAUXトラックを用意し、そこにオーディオをルーティングして360RACSをインサートする。これはPro Toolsのフェーダーバランスを活かすためだ。RACSプラグインはインサートされた箇所のオーディオをDAW側から受け取るので、オーディオトラックにそのままインサートしてしまうとフェーダー前の音がプラグインに渡されてしまう形になる。それを避けるためにAUXトラックを経由する形を取っている。次に、作成したAUXトラックのマスターのチャンネルにRACSプラグインをインサートしマスターとして指定する。これが各チャンネルから音を受け取ってOUTPUTする役割を担うようになる。その後、各チャンネルにRACSプラグインをすべてインサートしていく。 📷 プラグインとして360RACSを選択、インサートを行う。 📷 インサートした360RACSプラグインの中からマスターとなるトラックをを選択。 先ほども述べたように、最終的にオーディオデバイスに音を渡すのはPro ToolsではなくRACSプラグインということになるため、RACSプラグイン上のオーディオデバイスでHDXを選択する。そのため、Pro Tools側はプレイバックエンジンでHDX以外のものを選択する必要があるということだ。ProToolsのマスターを通らないため、遅延補正はどうなる?という疑問も生まれるのだが、RACS側に遅延補正の機能があるためそこは心配ご無用ということのようだ。 これで、360RAのミキシングを始める設定が完了したことになる。その後はRACS内でスピーカーレイアウトを指定する。もちろんヘッドフォンでの作業も可能だ。HRTFを測定したファイルを読み込むことができるのでヘッドフォンのモニタリングの精度も非常に高い。 📷 出力デバイスとしてHDXを選択。 📷 ヘッドホンの出力先もプラグイン内で選択する。 ●3:360RAミキシング 設定が完了したら、360RACS上でそれぞれの音のパンニング進めていく形となる。ラダ・プロダクション側で音の配置をある程度進めた状態にし、それを受けたエンジニア側でさらにブラッシュアップを行う。こうして一旦配置を決めるのだがここから再度ミキシングを行う。音の配置による音質の変化が生まれるので、パンニング後、改めて音の調整をエンジニアによって施す作業をしクオリティを上げるそうだ。こうして、その配置で本来鳴らしたい音質で鳴るようにする音作りを行い、でき上がったものがクライアントのチェックに回ることになる。 📷 360度全周にパンニングし、音像スペースを作り出している。 ●4:360RAでのマスタリング オブジェクトベースのフォーマットではステレオのようなリミッター、マキシマイザーを用いたマスタリングは難しい。今回、それをカバーする”技”を伺ったのでご紹介したい。まず、全トラックをAUXのモノトラックにセンドする。そのモノトラックをトリガーとしたマルチバンドコンプやリミッターなどを全トラックにインサートするという手法だ。設定は全トラック同じ設定にする。全ソースが送られているトラックをサイドチェーンのキーインにアサインすることによって、ステレオでのリミッティングを再現する形だ。 📷 全チャンネルにFabfilter Pro-C 2 / Pro-MB / WAVES L2がインサートされている。 ●5:バウンス(書き出し) 通常のPro Toolsのバウンスによって、360RAのフォーマットを書き出すことができるそうだ。なお、書き出す際は360RACSを開いておくことが必要となる。書き出しについては「インターリーブ」「48kHz24bit」「Wav」とし、指定のフォルダに書き出すことが必要とのことで、「書類」の中の「360RACS」の中にある「Export」フォルダを指定する。このフォルダは360RACSをインストールした際に自動ででき上がるフォルダとなっている。 📷 バウンス自体はPro Toolsの画面に沿って行う。 バウンスが終わるとプレビューの調整画面が表示される。ここではどのLEVEL(0.5、1、2、3)で書き出すかを選ぶ。LEVELはMP4を作る際のクオリティに値するものだ。LEVEL2以上でオブジェクトを"スタティック"と”ダイナミック”の選択が可能となっている。独立して聴かせたいVocalなどのメインソースは"ダイナミック"を選択、また動きのあるものも"ダイナミック"を選択することが多いそうだ。ここの設定によってもまた楽曲の聴こえ方が変わるのでここも慎重に行う。すべての設定が行なえたら『OK』を押して書き出しは完了、その後、こちらのデータを使用してエンコードを行いMP4を生成する。 📷 オブジェクトのダイナミック、スタティックの選択が行える。 📷 バウンスを終えるとレベルごとにフォルダ分けされて格納される。 ●6:エンコード 現状でのエンコードは360RACSとは別のアプリケーションを使用して行なっている。こちらのアプリケーションについてはとてもシンプルで、ドラック&ドロップしたデータを変換するのみだ。変換が完了したらデコーダーを使用して、生成されたMP4のチェックを行う。 ここまで細かく360 Realty Audio制作の手法をご紹介させていただいた。ステレオミックスと違い、上下の音の配置をパンニングで行えることが360 Realty Audioの大きな利点なのだが、配置しただけでは聴かせたい音質にならないことが多いのだそうだ。ステレオではマスキングを起こして聴こえなくなってしまう部分があり、それを回避しながらうまくステレオという空間に音を詰め込んでいくスキルが必要だったわけだが、360 Reality Audioは360度どこにでも音を配置できてしまう。言い換えれば、マスキングが起きづらい360 Reality AudioやDolby Atmosでは、より一個一個の音のクオリティが楽曲自体のクオリティを大きく左右することにつながるわけだ。 また、クライアントから渡される素材がステムではなくパラデータだった場合、単体での音作りというところが大きなポイントとなるということだ。その部分をスタジオ顧問の吉田保氏ほか、各所エンジニアの手に委ねるなどの工夫をされている点は大きなポイントのように感じた。そして、360RAパンニング後に「聴かせたい場所で聴かせたい音質」とするための音作りをする点も重要なポイントだ。音の存在感を出すためにサチュレーションを使ったり、EQを再度調整したりさまざまな工夫が施される。 こうしてサウンドは整えられていくが、音を配置しただけでOKということではなく、ReverbやDelayを駆使して360度に広がる「空間」を作ることがとても重要になる。ライブ収録などでは実際に様々なところにマイクを立て360度空間を作ることが可能だが、レコーディング済みの過去作品や打ち込みの作品では新たに360度空間を人工的に作る必要がある。マルチチャンネルで使用できる音楽的なReverbの必要性を感じているというお話も伺えた。制作者側の悩みなどはDolby Atmosの制作と共通する部分も多く、それに呼応するような360度空間制作のためのツールも今後ブラッシュアップされていくのではないだろうか。 Dolby Atmosとともに空間オーディオの将来を担うであろう360 Realty Audio。この二つのフォーマットが両輪となり、空間オーディオはさらに世の中へ浸透していくことになるだろう。360RAは下の方向がある分Dolby Atmosに比べてもさらに自由度が高いため、よりクリエイティブな作品が生まれそうな予感もする。また、ヘッドフォンでの試聴は、スピーカーが鳴っているのではないかと思わず周りを見回してしまうほどの聴こえ方だった。コンシューマにおけるリスナーの視聴環境はヘッドフォン、イヤフォンが中心となるのが現状だろう。その精度が上がっていくとともにコンテンツが充実することによって、今よりリスナーの感動が増すのは間違いない。広く一般的にもステレオの次のフォーマットとして、空間オーディオに対するリスナーの意識が変わっていくことに大きな期待を寄せたい。 株式会社ラダ・プロダクション 山麓丸スタジオ事業部 プロデューサー Chester Beatty 氏 株式会社ラダ・プロダクション 山麓丸スタジオ事業部 チーフ・エンジニア 當麻 拓美氏   *ProceedMagazine2021-22号より転載
3 / 1112345678...»

Solution

Solution
制作環境を飛躍させる

Works

Works
システムの実例を知る

Brand

Brand
そのワークフローを実現する

主要取扱ブランドホームページ

リストに掲載がない製品につきましてもお気軽にご相談ください。

»問い合わせフォーム