3D Audio
Music
2022/05/20
Dolby Atmos Music Panner アップデート情報
このページではDolby Atmos Music Pannerに関する新着情報をお知らせします。
Dolby Atmos Music Pannerとは?
Dolby Atmos Music Pannerプラグインは、Dolby Atmos Rendererに接続されたMac上のDAWで使用し、Dolby Atmos Music ミックス内のオーディオオブジェクトを配置することができます。
ミュージック・パンナーを使ったこの組み合わせでは、3次元のオーディオ空間にオーディオ・オブジェクトを配置することができます。
また、パンナーには、オブジェクトの配置を、DAWのテンポに同期させて動かせるシーケンサーが搭載されています。
Dolby Atmos Music Pannerのインストーラーには、AAX、AU、VST3バージョンが含まれています。
配布先URL:
https://customer.dolby.com/content-creation-and-delivery/dolby-atmos-music-panner-v120
※DLにはcustomer.dolby.comへの登録&ログインが必要です。
システム要件
Dolby Atmos Music Pannerを使用するには、Dolby Atmos Renderer v3.7.1以降が動作するDolby Atmos Production SuiteまたはMastering Suiteが必要です。
対応DAW
・Ableton Live 11.1
・Apple Logic Pro X 10.6.3
・Avid Pro Tools Ultimate 2021.12
・Steinberg Nuendo 11.0.41.448
※macOS Mojave上で動作するNuendoでの使用はサポートされていません。
Dolby Atmos Music Panner V1.2.0 (2022.3.28 更新)
オートメーション書き込みコントロール(Pro Toolsのみ)
Pro Tools 2021.12以降とDolby Atmos Music Panner v1.2(AAXバージョン)では、パンナー・オートメーションをPro Toolsオートメーション・レーンに書き込み、Dolby Atmos Music PannerオートメーションをPro Toolsパン・オートメーションに変換し、Pro ToolsからADM BWF .wav マスターとしてセッションを書き出すときにそのオートメーションのメタデータを含めることができます。
シーケンサのステップを遅くする
x16スイッチを使えば、現在のステップの長さを16倍遅くすることができます。
ステレオオブジェクトのリンク解除
Dolby Atmos Music Pannerステレオプラグインは、ステレオオブジェクトのリンクとアンリンクに対応しています。オブジェクトのリンクが解除されると、左右のチャンネルのX、Y、Z、Sizeを別々に調整することができるようになります。
X/Y/Z、Sizeのロータリーコントロールとポジションディスプレイのオブジェクトアサインラベル表示
X、Y、Z、Sizeのロータリーコントロールとポジションディスプレイには、オブジェクトの割り当てを示すラベルが表示されるようになりました。
Dolby Atmos制作に関するお問い合わせ、モニタリングシステム導入のご相談はこちらのコンタクトフォームからご送信ください。
https://pro.miroc.co.jp/headline/pick-up-pro-tools-studio/
https://pro.miroc.co.jp/headline/protools-lineup-renewal/#.YocNAfPP0-Q
https://pro.miroc.co.jp/headline/dolby-atmos-info-2022/
https://pro.miroc.co.jp/headline/dolby-atmos-renderer-v3-7-2/
https://pro.miroc.co.jp/headline/we-want-more-atmos-proceed2021-22/
Tech
2022/04/04
【2022年最新】今こそはじめよう Dolby Atmos!〜これからDolby Atmos 制作を始めるあなたに役立つ情報まとめ〜
「Dolby Atmos制作に興味があるけど、何から始めればいいのか分からない!」「どこで情報を集めたらいいの?」という方のために、Dolby Atmos関連の最新情報を随時掲載していきます。
Dolby Japan Event Portal - Dolby Japan
◉Dolby Japan Event Portal(ドルビージャパンイベントポータル)
https://www.dolbyjapan.com/
Dolby Atmosに興味を持ったらまず訪れていただきたいのが、Dolby Japan Event Portal(ドルビージャパンイベントポータル)。Dolby技術に対応した各種イベント情報を発信しているサイトです。注目は画面右上"Dolbyイベント"タブ内の"Dolby Atmos Music Creation 101"。
Dolby Atmos制作を始めるにあたり最低限知っておくべき基本から、スタジオの準備、制作ワークフロー、ミキシング、レンダリングと、その手順が丁寧に解説されたビデオが日本語字幕付きで公開されています。1本の動画が10分〜20分前後でサクッと見られる内容にまとまっているため、日々の作業が忙しくてなかなか時間が取れないという方にもオススメです。
また、同サイトには制作者向けワークフロー解説サイト、"Dolby Atmos Music Creator's Summit(ドルビーアトモスミュージッククリエイターズサミット)"も公開されています。こちらはDolby Atmos制作の流れが、視覚的に分かりやすいフローチャートで解説されており、パート毎の要点をすぐにチェックすることできます。後半は制作者インタビュー映像も掲載されており、Dolby Atmos制作の最前線で活躍されているエンジニア/クリエイターの方々のリアルな体験談を視聴することができます。
Dolby Professional Support Learning -
◉Dolby Professional Support Learning(ドルビープロフェッショナルサポートラーニング)
https://learning.dolby.com/hc/en-us
テキストベースで学びたいという方にオススメなのがこちらのサイト、"Dolby Professional Support Learning"です。2022年4月現在、「Dolby Atmos Music」「Dolby Atmos Post Production」「Dolby Vision Post Production」の3項目が公開されています。全文英語ですが、ワークフローの各項目がモジュール形式でロジカルに記述されており、特定の項目のみを重点的に学習したい時に活用できます。
※2022/4/22 追記 "Dolby Atmos Musicトレーニング"が日本語対応しました https://learning.dolby.com/hc/ja/sections/4406037447828-Dolby-Atmos-Music%E3%83%88%E3%83%AC%E3%83%BC%E3%83%8B%E3%83%B3%E3%82%B0
Sound&Recording Magazine(サンレコ)
◉Sound&Recording Magazine(サンレコ)
https://www.snrec.jp/search?q=dolby+atmos
こちらはすでにご存知の方も多くいらっしゃるかと思いますが、"サンレコ"の愛称でお馴染みSound&Recording MagazineさんでもDolby Atmos関連の情報が多く発信されています。特にエンジニアの古賀健一さんによる連載企画「DIYで造るイマーシブ・スタジオ」では、Dolby Atmosとの出会いから、実際にイマーシブ対応スタジオを設計・施工され、その後の活用状況まで詳細にレポートされています。必見です!
英文の翻訳にはDeepLの活用がオススメ!
◉DeepL(ディープエル)
https://www.deepl.com/translator
DeepLは、海外の技術情報を検索する際に非常に便利な翻訳サイトです。「英語は苦手…」「従来の翻訳サイトでは意味がよくわからない…」という方も、ご安心ください!DeepLが自然な日本語に翻訳してくれます。
今後も随時関連情報をアップデートしていきます。Dolby Atmos制作機材、スタジオ施工に関するお問い合わせは実績豊富なROCK ON PROにお任せください。下記コンタクトフォームよりご連絡をお待ちしております。
Dolby Atmos 関連最新情報はこちら
https://pro.miroc.co.jp/headline/dolby-atmos-music-panner-update/#.YocOffPP0-Q
https://pro.miroc.co.jp/headline/dolby-atmos-renderer-v3-7-2/#.YlUAm9PP0-Q
https://pro.miroc.co.jp/headline/dolby-phrtf-app/#.YkqMH5PP0-Q
https://pro.miroc.co.jp/headline/we-want-more-atmos-proceed2021-22/#.YkqMMZPP0-Q
https://pro.miroc.co.jp/works/surebiz-proceed2021-22/#.YkqMOpPP0-Q
https://pro.miroc.co.jp/headline/dolby-atmos-renderer-v3-7-released/#.YkqMV5PP0-Q
NEWS
2022/04/01
Dolby Personalized HRTF App (iOS)ベータ版が公開中
Dolby Personalized HRTF ベータ版が公開中
昨年、Apple Musicが空間オーディオの再生に対応し、大きな話題を集めました。現在Amazon Music HDやTidalといった別のサービスでもロスレスやハイレゾ、空間オーディオの再生に対応し、それらはストリーミングサービスにおける付加価値として、一般の音楽リスナー達にも徐々に受け入れられはじめています。
各フォーマット、一長一短ありますが、中でもバイノーラル再生時の"個人化HRTF"への対応は重要なポイントの一つと言えるでしょう。なぜなら、マルチチャンネルからバイノーラルへのレンダリング時に、個人最適化されたHRTF関数を使うことでより正確な立体音像定位を得られるようになるからです。
例えば過去弊社記事でもご紹介させていただいている通り、360 Reality Audioでは、対応製品とスマートフォンアプリを活用することで、個人最適化された音像定位で音楽を楽しむことができるのが特徴で、同様のサービスはCreative TechnologyのSuper X-fiやEmbodyのImmerseなどが挙げられます。
そんな中、これまでそのような動向が見られなかったDolbyより個人化HRTF作成アプリ「PHRTF Creator」のベータ版が公開されました。これは現段階ではリスナー向けではなく、主に音楽、映画、TV、ゲーム業界でDolby Atmos制作に携わっているプロ向けの機能となっているようです。
Dolby Professionalのページへ:
https://professional.dolby.com/phrtf/
ベータ版試用手順
・必要事項:
- iOS 13以降を搭載したFace IDに対応したiPhone
- Dolby Atmos Renderer v3.7.1 ( こちらからダウンロード可能です。※1)
- 試聴可能なドルビーアトモスコンテンツ
※1:起動にはDolby Atmos Production Suiteのライセンスが必要です。Dolby Atmos Renderer ソフトウェアのダウンロードページでサインアップすると、90 日間の トライアルライセンスをリクエストすることができるようになります。iLokアカウントに認証ライセンスをデポジットしてもらうためには、iLokのログイン情報が必要となりますのでご注意ください。
・ベータ版のインストール方法
1.テストに使用するiOSデバイスにTestFlightをインストールします。
2.iOSデバイスから次のリンクをクリックします。:https://testflight.apple.com/join/7lxusSow
3.「Accept」→「Install」の順にタップします。
4.「PHRTF Creator」アプリを開き、指示に従って操作してください。
5.キャプチャが完了すると、メールとiOSのプッシュ通知が届きます。
・PHRTFのダウンロード
1.PHRTF作成成功の通知を受け取った後、PCから phrtf.dolby.com/renderer にアクセスし、PHRTF Creator Appで使用したものと同じ認証情報でログインしてください。
2.PHRTFをダウンロードします。このファイルは、Creatorアプリで入力した姓名の.personlized_headphoneファイルです。ブラウザからデフォルトのダウンロード場所にダウンロードされます。PHRTF CreatorアプリのLabelフィールドを使用してダウンロードを区別することができますので、任意の時点で追加のキャプチャを作成することができます。
3.ファイルのダウンロードが完了したら、ブラウザウィンドウを閉じます。
・PHRTFを適用する
1.personlized_headphoneファイルをデフォルトのダウンロード先からハードディスク上の以下のフォルダにドラッグ&ドロップしてください。
- macOS:/Users//Library/Application Support/Dolby/Dolby Atmos Renderer/Binaural Configurations
- Windows:ProgramData\Dolby\Dolby Atmos Renderer\Binaural Configurations
2.Dolby Atmos Rendererを起動し、PreferencesのHeadphoneタブで"Headphone processing"が"ON"になっていること、"Render mode"が"Binaural"に設定されていることを確認してください。
3.ヘッドフォンに正しくルーティングするために、PreferencesのDriverタブで"Headphone Only mode"を有効にすることを推奨します。
4.Rendererの右上に"Binaural configurations"というドロップダウンが表示されるようになります。このドロップダウンより、先ほど作成したPHRTFに変更します。
5.ドロップダウンの横にある情報アイコンの上にカーソルを置くと、PHRTFの情報を見ることができます。
6.作成したPHRTFで、アトモスコンテンツをお楽しみください!
Dolby Atmos Rendererをお使いの方は是非お試しください!
Dolby Atmos 制作に関するお問い合わせは下記コンタクトフォームよりお寄せください。
3D Audio
2022/02/25
360 Reality Audio 制作ツールが待望の国内販売開始!
これまで、ROCK ON PRO WEB サイトや Proceed Magazeine でも紹介している 360 Reality Audio。下方向を含む完全な球面音場を持ち、次世代のイマーシブ音楽フォーマットとして注目を集めるこの 360 Reality Audio を制作するためのアプリケーションである 360 WalkMix Creator™️(旧:360 Reality Audio Creative Suite)を、2022年2月25日より弊社 メディア・インテグレーション MI 事業部が代理店として国内販売を行うことになりました。
360 Reality Audio のための制作ツール『360 WalkMix Creator™️』
360 WalkMix Creator™️はVST3、AAX、AUに対応したプラグインとして動作し、360 Reality Audio フォーマットの作品を全ての主要なDAWで制作可能にします。
360 WalkMix Creator™️では、このプラグインがインサートされたすべてのトラックをひとつのプラグインウィンドウ上でまとめて操作をすることが可能。さらに、球面に配置されたオーディオオブジェクトを直接ドラッグして直感的なミックスを可能にしています。
360 WalkMix Creator™️はモニターシステムが整ったスタジオに限らず、ヘッドホン・モニタリングでも制作可能。パソコンとヘッドホンがあれば楽曲制作に没入できます。
また最新バージョン V1.2からは、作品の納入フォーマットでの出力ができるエンコーダーを搭載。ついに360 Reality Audio 制作環境が整いました。
360 WalkMix Creator
販売価格:未定
国内発売日:2022年3月中旬予定
製品特徴
・オブジェクトのグループ化
・最大128のオブジェクトを360度の全天球上に配置
・トラックオートメーション
・オブジェクトの3D配置
・オブジェクトの自動分析機能
・オブジェクトの直感的操作
メディア・インテグレーション360 WalkMix Creator™️ブランドページ
メディア・インテグレーション360 WalkMix Creator™️製品ページ
360 WalkMix Creator™️ メーカー公式WEBサイト
国内販売開始とともにv1.2へとアップデート
すでに、さまざまなクリエイターからのフィードバックをもとにブラッシュアップを行なっているこのツールの、最新バージョンであるv1.2は国内販売開始と同時期にリリース予定。納品フォーマットでの出力機能が追加されるほか、視認性やトラックネーミング機能の改善など、複雑で大規模になりやすいイマーシブ制作においてクリエイティブを損なわないための工夫が凝らされています。
主な更新内容(予定)
・スタンダード・エクスポート・フローでのMPEG-H (.MP4) での出力機能搭載(納品フォーマットでの出力機能)
・Focusビューでのフェーダー及びメーター視認性の向上
・パラメーターのネーミングの改善
・7.1.2 トラック・インポートの適正化
・不具合の改善
・安定性の向上
360 Reality Audio とは!?
そもそも、360 Reality Audio、イマーシブオーディオとはなんぞや!?ということを知りたい方は、ぜひ以下のROCK ON PRO WEB過去記事、Avid Creative Summit 2021 アーカイブをご覧ください!いくつかの名称や機能などが記事制作時点のものではありますが、360 Reality Audio によって広がる新しいサウンドの世界がイメージできる内容になっております。
https://pro.miroc.co.jp/headline/nagoyageidai-proceed2021-22
https://pro.miroc.co.jp/works/360studio-proceed2021-22
https://pro.miroc.co.jp/solution/sound-on-4%cf%80-360ra-part-1
https://pro.miroc.co.jp/solution/sound-on-4%cf%80-360ra-part-2
https://pro.miroc.co.jp/solution/sound-on-4%cf%80-360ra-part-3
https://pro.miroc.co.jp/solution/sound-on-4%cf%80-360ra-part-4
水平面よりも下方向を含んだ、真の360°/4πオーディオ空間を実現する 360 Reality Audio。その制作を誰もが手軽に行える日が、いよいよ近づいています。360 Reality Audio をはじめとしたイマーシブサウンド制作システムに関するお問い合わせは、お問い合わせフォームからROCK ON PRO までお気軽にご連絡ください。
3D Audio
2022/02/24
We want more Atmos!〜Dolby Atmosコンテンツ制作の最前線〜
Apple Musicの空間オーディオ対応などによりいよいよ一般ユーザーに立体音響を届けられるようになってきた。Proceed Magizineでは、これまで空間オーディオに関する技術的な内容を何度か紹介してきたが、この状況の中で実際にどのような音をユーザーに届けるのかという中身の部分について、深田 晃氏、戸田信子氏、陣内一真氏、古賀 健一氏、murozo氏という様々な分野で活躍されている皆様の制作最前線を伺った。Dolby Atmos制作の舞台裏からAtmos Musicの未来まで、大いに盛り上がりを見せた座談会の様子をお伝えしていく。
●ご参加者様:プロフィール
深田 晃
レコーディングエンジニア
CBS/SONY録音部チーフエンジニア、NHK放送技術局・番組制作技術部チーフエンジニアを歴任。あらゆるジャンルの音楽に関わるが、主にオーケストラレコーディングを担当。1997年、AES NYで「Fukada Tree」を発表後、多くのサラウンド番組制作・国際共同制作に関わる。 2011年 dream window inc. を設立、アーティストCD、映画のスコアリング、クラシック音楽録音、マルチチャンネル音響作品制作や空間音響デザイン行っている。AES Fellow IPS 英国放送音響家協会会員 、JAPRS 日本音楽スタジオ協会理事、米国レコーディングアカデミー(グラミー)会員、洗足学園音楽大学 音楽・音響デザイン客員教授。
戸田信子 x 陣内一真
COMPOSER | MUSIC DIRECTOR| SCORE PRODUCER
東京・ロサンゼルスを拠点とした作曲家ユニット。
2003年、バークリー音楽大学の映画音楽作曲科と現代作曲&プロダクション科を卒業した後、ゲーム「メタルギアソリッド4」でタッグを組み音楽制作をスタート。オーケストラレコーディングとハリウッドの映画音楽制作におけるプロダクションノウハウを学び、2011年サウンドトラックに特化した音楽プロダクション「FILM SCORE LLC」をロサンゼルスに設立。エレクトリックなサウンドデザインとオーケストラとを組み合わせたハイブリッドの音楽制作をLAにあるハンスジマーのラボ「リモートコントロール」の制作チームと共に進めている。ロサンゼルス、ロンドン、プラハなどの海外オーケストラの収録経験も多く、さらにフィルムスコアリングを用いた作曲手法を使い、映像と音楽をフィットさせ相乗効果をあげる音作りで全世界向けの映画、アニメ、ゲーム音楽を手掛けている。マイクロソフトのゲーム「Halo 5」のサントラでは初登場で全米ビルボードのサウンドトラックTOP2入りを果たすなど、近年目覚ましい活躍を続けており、これまでにゴールデンリール賞(MPSE)の長編外国語映画部門音響編集賞や英国アカデミー賞ゲーム部門音楽賞など、様々な音楽賞を受賞している。
主な代表作:『メタルギアソリッド4 ガンズ・オブ・ザ・パトリオット』『太秦ライムライト』『Halo 5』『ULTRAMAN』『攻殻機動隊SAC_2045』『スター・ウォーズ:ビジョンズ 』など多数。
古賀 健一
レコーディングエンジニア
レコーディング・エンジニア。青葉台スタジオに入社後、フリーランスとして独立。2014年にXylomania Studioを設立。これまでに チャットモンチー、ASIAN KUNG-FU GENERATION、Official 髭男dism、MOSHIMO、ichikoro、D.W.ニコルズなどの作品に携わる。また、商業スタジオやミュージシャンのプライベート・スタジオの音響アドバイスも手掛ける。
Xylomania Studio
murozo
レコーディングエンジニア
Crystal Soundを拠点に活動する気鋭のレコーディング・ミックスエンジニア。超特急、TAEYO、week dudus、Sound’s DeliなどHIPHOP、R&Bからポップスまで様々な楽曲制作に携わり、Dolby AtmosミックスにおいてはSySiSY「Weekend」、Lil’Yukichi 「May I… feat. antihoney」などメジャーからインディーまで幅広く手掛けている。
Crystal Sound
劇伴制作におけるDolby Atmos
ROCK ON PRO(以下、R):本日はお忙しい中お集まりいただきありがとうございます。さっそくですが、みなさまそれぞれの「Atmos事情」のようなものあれば伺いたいのですが。
戸田:Netflixが納品形態としてAtmosを推奨していることもあり、実際にAtmos制作に関わる機会は多くなっています。ただ、劇伴音楽という立場からすると、Atmosによって得られる「空間」は効果音で自由に使ってもらう、というスタンスでいるほうがよい結果になると思っています。特殊な効果以外では頭上から音楽が聴こえる必然性はないですし、逆に見ている方を混乱させてしまうことにもなりかねない。そうではなくて、作品の効果を高めるためにどうやって「空間」の中で効果音と共存していくか、ということを考えることが多いですね。
深田 晃 氏
深田:映画の場合は、音楽と効果音の役割分担というものがありますよね。最近関わらせてもらったある映画作品で、少年合唱団が歌うシーンがあって、それは高さが追加されることで7.1chよりもさらにドキドキする、引き込まれるシーンになったなと思っています。
戸田:オブジェクトトラックを使って音楽を動かす、ということはありますか?
古賀:今のぼくのデフォルトのセッティングでは、20個のオブジェクトトラックが常に立ち上がってます。9chのワイドチャンネル用、トップフロント用、トップリア用のセンドを6チャンネル分作ってるんです。あとはSpat Revolutionで9.1.6のリバーブを作って常に送り込んでたりするので、その分はオブジェクトを使いたいって感じですね。でも、別に動かしたいわけではなく鳴らしたいだけ。まだ映画でAtmosをやってないんですけど、たぶんセリフの関係とかで音楽がワイドチャンネルに逃げなきゃいけない場面ってあると思うんです。そのために、それくらいのオブジェクトは必要なんじゃないかなって。ただ、オブジェクトの使い方は難しいな、と。逆に聞いてみたかったんですが、劇伴では音楽に何チャンネルくらいのオブジェクトトラックをもらえるんですか?
戸田:基本的にはベッドのみで、オブジェクトは使わないようにしてます。劇中ではなくオープニング / エンディングとかでオブジェクトを使って音楽を聴かせる、という使い方をする場合はあるんですけど。その時はステムからオブジェクト化して、Atmosにした場合の効果をエンジニアさんと確認しながら制作したんですが、それは全スピーカーを音楽だけに使えるからやれることで…。もちろん、新しい使い方は模索してるんですが、現時点では劇中で音楽を回したり、というのはやはり無理なので、考え方としてはサラウンドから空間をさらに広げるという形になっていますね。
R:ハイトチャンネルからの音ってどんな使い方をするんですか?
戸田 信子 氏
陣内一真 氏
戸田:ビックリさせる効果を出すために使ったりしました。テーマソングがついてる敵キャラがいるんですけど、登場シーンでその歌を上から降らせたりとか。攻殻(註:Netflix『攻殻機動隊 SAC_2045』)だと、ハイトを使ったのはそれくらいですかね。ハイトはやはり主に効果音が使ってました。
古賀:効果音をハイトから出す時って、プラグインで広げたりしたんでしょうか。
陣内:いや、それ用のパンニングと空間処理でやってたと思います。効果の方は正確にはわからないですが、音楽に関しては今回ほとんどがシンセだったので、ものによってはプラグインで広げちゃうと音がスカスカになってしまう。なので、基本的にはパンニングでちゃんとその位置に持ってく、という形でしたね。
古賀:Atmosの仕込みはどうやってますか?
戸田:仕込みはうちのスタジオでやってます。11月公開の劇場版(註:2021年11月12日〜25日に上映された『攻殻機動隊 SAC_2045 持続可能戦争』)の場合は、すでにNetflixで使用したデータをサラウンドのステムで用意してあったので、それをバラしてAtmosにミックスし直しました。12話あったものを2時間にまとめてるのでほぼ付け替えでした。
古賀:Atmosのままとっておくわけではないんですね。
戸田:Atmosのステムだと5、60GBになるわけですよ。データで送るのもままならない(笑)
古賀 健一 氏
古賀:2時間映画だと、何日くらいダビングステージ(註:映画制作で、ファイナルミックスを行うスタジオ)に入られますか?
戸田:向こうだと、普通は2週間はあります。その代わり、終わっても白紙に戻されることもありますよ。
陣内:ダビングまで終わった映画のオープニングを作り直さなきゃならないとか。「スタジオでアシスタントが準備してるから今すぐ行って。午後から監督レビューだから。」とか言われて(笑)
戸田:とある番組では、監督OKまで出てあとは確認チェックだけっていう段階から「これニュースの音楽みたいだから変えて」とか。一週間ダビングしてあともうちょっとで終わるってところで、家に帰って音楽作り直しましたよ(笑)
R:日本だとダビングにそんなに時間は割いてもらえないですね。
戸田:そういう点では私たちの環境は恵まれていて。『攻殻機動隊 SAC_2045』はCGの制作ペースに合わせる形で、1ヶ月で2話のペースで制作してたんです。映像に合わせてイチから作ってプレゼンして…「違う」って言われてまた戻る、みたいな(笑)。12話作ると半年なので監督の好みとかもわかってきてすごくやりやすかったです。
陣内:やっぱり、シーンに合わせて書けた方が楽です。効果のガイドももらえたんで、それに合わせて引くところは引くということもできたんで。
R:今回の攻殻はじっくり見させていただいたんですが、音楽と効果音が入れ替わり立ち替わりで場面を作っていくような作品という印象でした。
戸田:ありがとうございます。監督が、もともとフィルムスコアリングをやりたかったという方なので、そういう音になったのかもしれません。今回の作品は展開が激しくて、これはたぶん選曲(註:新たに作曲せず、既存の曲を使用すること)ではできなかったな、って(笑)
陣内:Atmosということで言うと、あらかじめ曲ができていて後からそれを「Atmosで」っていうよりは、全体の音響に対してちゃんと曲をデザインしていける方が効果的なのかなって、ダビングをしていて思いましたね。例えば、10分間バトルし続けるシーンがあったとして、既存の曲を10分間ループさせるわけにはいかないですから。
murozo 氏
古賀:最終的なビジョンを共有していることはすごく大事ですよね。
戸田:特にAtmosだと、効果音がどこから鳴るかだけじゃなくて、効果音の種類とかでも世界が変わっちゃうじゃないですか。シリアスな音楽を作ってきたのに効果音はコミカル、みたいになると全然違うし。そういうことをちゃんと打ち合わせできた方がいいですね。
古賀:効果音がすごく低音を出してきたりすると、「この曲、ベース要らなかったじゃん」みたいになっちゃう。
戸田:BGMが邪魔になっちゃいますからね。
陣内:実際、一番下の音域の使い方は結構気を使いますね。いたるところでドーン!と来るわけにいかない、というか。
戸田:カークラッシュのシーンとか、効果音からすれば一番「ドーン!」といきたいところじゃないですか。そういうシーンでは、キワまで音楽でガァーっと盛り上げてパッ!と逃げる、みたいにするんですけど…たまに効果も逃げちゃって「シーン…」みたいな、「え?新しい演出??」みたいなことになることもあります(笑)
古賀:ピクチャーロック(註:以降、映像に変更がない状態のこと)はあるんですか?アニメだと、あとから映像を変更できるじゃないですか。
戸田:ピクチャーロックは大前提ですね。
陣内:効果のタイミングは特にそうですね。
戸田:シーンごと変わったりしない限り音楽はある程度は対応できますけど、効果音は数フレーム違うだけで気持ち悪いことになっちゃいますから。
音楽制作におけるDolby Atmos
R:いわゆる音楽作品の場合はいかがでしょう?
古賀:やっぱりAtmosと相性がいいのはライブものなんですよね。「今回はAtmosでやってみませんか?」っていう提案も、ライブものだと受け入れてもらいやすいです。
R:やっぱりライブ空間を再現する、というのは方向性として分かりやすいですよね。
戸田:やり方としては、コンサートとかライブを収録して再現する方向にした方が、絶対Atmosの良さは生かせますよね。アイドルグループが映画館を貸し切ってAtmosでライブビューイング中継やったりしてますけど、実はあの方向が一番効果的なのかなと思ったりします。
深田:Atmosになって変わったことというと、客席後方に立てていたマイクは使わなくなりましたね。今までは客席で聴いている音場を意識していたんですけど、Atmosになってからは指揮者のあたりをリスニングポイントとして意識するようになりました。以前のフロントLRが、サイドチャンネルに近くなる感じです。立体音響になることでオケに寄っていっても違和感がないように感じます。
R:マイクのお話が出たのでお伺いしますが、Atmos制作にあたってレコーディングに変化はありましたか?
古賀:ぼくはAmbisonicsマイクを立てまくってます。Atmosに使わなくても、2chのアンビとか、あとで何にでも使えますし。ただ、スタジオのメンテがちゃんとしてないといけないんですよ。Ambisonicsだと、1チャンネル録れてなかったら全部ダメになってしまう。4チェンネルのレベルもきれいに揃わないと位置情報がずれるので、HAも精度の高いものが求められます。その辺は悩ましいと思いつつ、スタジオのメンテナンスをするモチベーションと捉えてます(笑)
深田:Atmosになって「ハイトが追加された」と考えると、メインLRの真上に置くとしても、AB、XY、ORTF…組み合わせは無数にあるじゃないですか。そういうものをいろいろと実験してはいますね。
R:サラウンドの時のように新しいアレイが発表されるでしょうか?
深田:AESではいろいろ出てるみたいですよ。ただ、ハイトにマイクを立てるとなると、ミドルレイヤーの音がハイトのマイクに入ってしまうという問題が起こるんです。だから、理屈で言えば単一指向の方が向いているっていうことになるんですけど、そうすると、マイクの距離をどうするかという話にもなる。でも、いろいろ試した結果ではそこはあまり大きな問題にはならなそうでした。
R:まずは「ハイトのマイクがある」ということが重要、ということですね。
深田:そうですね。それと、単一指向の方が中心周波数が高いところにあってクリアーな音になるから、そうした意味でも単一指向の方が立体音響に向いているという理屈になるんですけど…聴いた感じは全指向の方が好きだったり、いろいろ難しいですね(笑)。ぼくはメインのLRマイクの上に立ててるやつは単一で、オケの中で録ってるマイクは全指向にしてます。
古賀:ぼくはホールでは三点吊り(註:ステージ上方にマイクを設置するためのワイヤー機構)にAmbisonicsマイクを立ててます。これにメインのLRマイクを足して、芯はメインでしっかり録るって感じです。三点吊りに複数のマイクをちゃんと設置するのって難しいじゃないですか。何度もやり直すとホールのひとに怒られちゃうので(笑)Ambisonicsマイクはカプセルの位置が固定されてるから、その辺の心配がない(笑)客席とステージ上にも使って、Ambisonicsマイクを3本使ってます。
Dolby Atmosとデジタルミュージック
R:Atmos制作ならではの難しさみたいなものはありますか?
戸田:打ち込み制作の限界について、強く感じますね。攻殻のようなSF作品だとサンプルライブラリのようなものを使用する機会も多いんですが、もともとAtmosミックスを前提に収録されていないものが多いので、Atmosの良さを活かしきれていないと感じることがあります。なので、生オケを収録するような場合ははじめから各マイクを各スピーカーに当てられるような配置で演奏を録る、アンビエンスを録る、というようなこと目指してます。
陣内:市販のサンプルライブラリだと、ステレオまでしかないというものも多いですが、それだとその時点で選択肢から外れちゃう。少なくともクアッドで鳴らせるサンプルが必要です。それでも、5.1chの時はまだよかったんですけど、7.1.2chになると音が空っぽすぎるので、メインのほかにルームマイクが収録されているようなライブラリだったらそれも全部立ち上げたりして…なんとか疑似的に作ってはいたんですけど。
戸田:ルームとメインとサラウンド…
陣内:それとスポット。各楽器でそれがステレオで4本ずつ、となると結構データ量がかさんじゃって。
戸田:そうなると、何百トラックも使うような音楽は扱えなくなっちゃうんですよ。特に、96kHzとかで収録してさらにマイクの本数が増えると大変なことになってしまいます。どちらかというと、機材やツールのスペック的なところがまだAtmosに対応できてない部分があるように感じます。Atmosで使用することを前提にした音源も全然少ないですし。
陣内:いまのぼくらのセットアップでいうと、ウッドウィンドとストリングスはAtmosフロント / リアのチャンネルがあるライブラリーなんですよ。けれども、全部立ち上げるとちょっと…音が鳴らなくなっちゃうので(笑)サンプル用のPCが1台1セクションみたいな…ストリングスで1台、ブラスで1台、みたいな感じになっちゃってます。
古賀:昔のGIGA STUDIO時代に戻ってるみたいですね(笑)
陣内:音源のコアのクオリティみたいなものが、顕著に出てくるんです。ソフトシンセにありがちなエフェクトで音ができているようなものだと、リバーブを切ると全然楽器の音にならずに使いものにならないんですよ。リバーブもステレオでかかっちゃってるし。なので、原音がいいシンセに限定されてくるという印象です。書き出す時も、ディレイやリバーブは別系統で出して、ドライはドライで残っている状態で出さないといけない。
深田:そう考えると、生でやった方が楽ですね(笑)
戸田:ほんとにその通りです!
Atmos Musicの普及とミックス
R:Apple MusicやLogic ProのDolby Atmos対応についてはいかがでしょう。
Murozo:シェアが大きいApple MusicがDolby Atmosに対応したのは大きいと思います。
古賀:ぼくらエンジニアは、どこか馴れちゃってる部分があると思うんですよ。リスナーの方が「理由はわからないけど、明らかにこれまでの音楽とは違う!」って、気付いてる印象があります。特に若い子たちは、そういう新しい表現を貪欲に受け入れてくれてるように見えます。
Murozo:海外と比べて日本のスタートが大きく遅れたわけではないので、海外よりもいいものを制作することもできる大きなチャンスだと思っています。当初は過去作をアップミックスしただけのようなものも多かったですが、最近はAtmosを前提にしたいい作品が出てきているようにも思います。
古賀:すごく熱心な方もいて、昨日も「Atmosはすごくいいから、これでうちのアーティストも出したいんだ!」って方がうちのスタジオに来てくれて。そういうひとたちってやっぱり世界を見てて、「世界のプレイリストの中に並べたら、絶対この子のよさに気づいてもらえる」っていう熱い想いを持った方なんですよ。
戸田:ステレオマスターをプラグインでアップミックスしただけのような作品ばかりになってしまうと、Atmosの良さがうまく伝わらないんじゃないかというのは心配ですね。さっきのサンプル音源の話と同じで、ステレオ前提で録ったものをAtmosにしようとすると、ないものをあるように聴かせるためにいろんな無理が出てきてしまう気がします。これからAtmosの新録作品がどんどん出てくることに期待します。
R:LogicがAtmos対応したのも大きなニュースですね。
Murozo:作家さんが「ちょっとやってみようか」でパッとできるところまで来たということですからね、どんどん挑戦したいです。
古賀:Atmosミックスは難しい、みたいに思っている方もいると思うんですけど、ステレオの方がはるかに難しいですよ。ちゃんと録音しておけば各チャンネルに置くだけで終わりですからね。
R:実はステレオほどシビアなレベル管理は要らないんですよね。
深田:5.1chの時って、スイートスポットからちょっと外れると、リアから出してる音なんか特にすごく不自然に聴こえましたよね。それが、Atmosでは高さ方向があるせいか、そういう状況でもあんまり変な感じにはならないというか…スイートスポットが広がった、という印象がありますね。
古賀:円の外に出て聴くのが楽しくて好き(笑)「あー、半球状だな〜」って思います。
Murozo:円の外で聴いた時に違和感がなくなったら「できたな」って判断してます(笑)
古賀:サウンドトラックについてはどうですか?
戸田:Atmosで配信できるようになって、制作したフォーマットのまま聴いてもらえるようになったのはよかったですね。ただ、それがどういう環境で聴かれてるか、っていうことに関しては逆にわからなくなっちゃうわけで。ステレオを作らなきゃいけない時は、もうダウンミックスですね。
陣内:本来なら、ステレオはステレオのバランスがあるので、別途ミックスしたいですが。
深田:ぼくは5.1chや7.1chとは別に、もう一度ステレオ用のミックスを作ります。作品にもよると思うんですけど、映像作品の音楽って短くなりがちで楽曲として成立しにくいものがありますよね。いまよく一緒に仕事してる作家さんは作品の中で使用されているのとは別に、楽曲として成立する尺のあるバージョンを作曲したりしてますね。
戸田:挿入歌はそういう作り方をしたりしますね。劇伴として使う以上の尺で、2ミックスも別に用意したりします。
ヘッドホンとユーザー体験
深田:ヘッドホンとスピーカーの互換性については、すごく考えさせられます。オブジェクトトラックにしちゃうと、スピーカーのないところは全部ファンタムになるわけですよね。そうすると、ヘッドホンで作ったものを映画館で再生すると「ちょっと違うな」って感じになっちゃう。映画作品だと効果音がいっぱいあってすごく立体感があるように感じるんだけど、音楽だけだとそれほど(立体音響の)効果が感じられないんだよね。だから、最近はあんまり複雑にせずにやろうかな、と思ってるんですけど。
古賀:そう。東映のダビングステージにはじめてAtmos作品を持って行った時に結構ショックを受けて…。映画って7.1.2chなんで、自分が思ってたよりハイトチャンネルの幅が狭かったんです。サイドスピーカーの位置も思ってたよりも上にあるので、要は「ハイト」って思ってた範囲がより狭い。劇場中を回ってるイメージで作った音が、全然回ってなくて、ガッカリして帰ってきたっていう経験があります。(一同:笑)
古賀:それ以降、Atmosの音場が「半球体なんだ」ってことをすごく意識するようになりました。上側の空間っていうのはサイドに比べるとすごく狭い。Appleの空間オーディオの話で言うと、あれもやっぱり半球体だし、イヤホンなんかで聴くと後ろの音は小さくなっちゃうって感じます。それに、バイノーラルにするとショートディレイみたいなものがかかっちゃうんですけど、それを嫌う方もいる。それを避けるには、Ls/Rs(サイドに配置されたL/Rチャンネル)に音を置いちゃうのがよくて、海外のミックスとかでは歌がLs/Rsから出てるものが増えてきてる。ただ、それをやるとスピーカーで聴いた時に破綻するから、最初に「ヘッドホン特化型にしますか?」ってことは必ず確認してます。
Murozo:それで、センターがない楽曲が増えてるんですね。
古賀:LFEもセンターも使わない、メインのパートはLs/Rsにある、っていうヘッドホン特化型のミックスも出てきてますよね。バイノーラルにすると、それが結構バランスがいいんです。Atmosだとモノラル表現ひとつとってもいろいろな方法がある。ハードセンターのモノラル、LRファントムのモノラル、上のチャンネルを使ったモノラル…ヘッドホンで聴くと全部違って聴こえるので、3パターンくらい作って「どのモノラルが好きですか?」って聞いたりしてる。
R:実は、そこがみなさんに一番聞きたかったことで。配信コンテンツやApple Musicのようないまの空間オーディオって、たぶん9割以上の方がヘッドホン / イヤホンで聴くことになると思うんです。下手したらNetflixもそうですし。でも、制作者側はスピーカーで作っていて…。そこの差分はどうやって埋めてますか?
Murozo:ぼくはひたすらスピーカーと、Air Podsのような空間オーディオ対応イヤホンとの間を行き来して聴き比べてますね。それがいまできる最善の方法かな、と。
深田:バイノーラルレンダリングすると、LRがハッキリしなくなるんですよね。スピーカーの方がそこはちゃんと出るんだけど、ヘッドホンはもう無視できない時代のようにも感じていて。写真を撮るだけで疑似的に耳型が取れるようなイヤホンとか、ヘッドホン/イヤホンもどんどん性能はよくなってくと思うんですよ。いつも言うんですけど、メガネってみんなそれぞれ違うじゃないですか。同じようにイヤホンもパーソナライズするってことをもっと簡単にできる時代が来るんじゃないかな。
戸田:Atmosをステレオにダウンミックスした時に、もともと作ったミックスとだいぶ違うなっていうようなことが起こったりします。なかなかそういうところまで、事前に確認するのって難しいなと感じています。
古賀:いま個人的に思ってるのは、スピーカーのセッティングと調整をちゃんと追い込めば、その差はかなり埋められるということです。実はある時点でその手応えが得られたのでAtmos用のスピーカーを揃えたっていうのがあります。
陣内:なるほど。
深田:Appleの空間オーディオはAtmosの距離パラメーターは反映してないんですよね。TidalとかAmazonは反映してるんですけど。
古賀:はい。その機能がLogicにはついたんで、Appleの今後に期待ですね。
R:ゲームは何年も前からすでにDolby Atmosに対応していますが、ゲーム音楽での制作はどのようなものだったのでしょう?
陣内:『マーベルアイアンマン VR』の時は、オーディオエンジニアの意向もあって音楽はクアッド納品しましたね。頭を動かしたそのまま音楽も動くというものではなかったんですが、人間の頭部をソースにしたモジュレーションを軽くかける、みたいなことをやってました。上に行ったり下に行ったり激しく動くんですが、そういう部分は音楽では表現できなかったので、画面では伝わりにくいスピード感とかを表現する方向にフォーカスした記憶があります。
戸田:ゲームで難しいのが、仮想空間の中をプレイヤーが360°自由に動けちゃうんですよね。すると、じゃあ音楽ってどこから聴こえるんでしょうね??っていう…。結局、効果音は空間で鳴っているけど、音楽だけヘッドホンで聴いてます、みたいな感じになっちゃうんですよ。
陣内:実際、Xbox Oneから7.1.4で出せますよってことで、あらかじめほかのタイトルを聴いてみたら音楽はステレオだったんですよ。それで、効果音と音楽の空間感にすごく差があって…。効果音は空間に広がっているんだけど、音楽はずっと耳元で鳴ってるみたいな。
深田:だいぶ前ですけど、ビョークのVRコンテンツも音はステレオでした(笑)
R:ヘッドトラッキングものはちょっと難しいみたいですね。音楽って、どうしても定位のようなものが必要なんだな、って感じました。
古賀:音楽サブスクリプションサービスの対応は嬉しいんですが、ヘッドホンから先に体験すると「こんなもんか」と思ってしまう人もいるんじゃないかということは心配ですね。先にスピーカーを体験してもらえればAtmosのよさは伝わると思うので、そういう体験の機会が増えるといいですね。
戸田:そういう意味では、やっぱり映画は劇場(=映画館)で見てもらいたいという思いがあるんです。劇場って、作ったものを意図した通りに観せられるという最高の場所のひとつなんですよ。だから、クリストファー・ノーランなんかは、その一回の視聴の中ですべてを体験させることを目指して制作する。それってものすごく高い技術力で緻密に制御されてるから聴けるわけで、音が破綻してたら物語も頭に入ってこない。だから、その作品をしっかり演出できるところまで追い込まないといけない、っていうのは映画をやる上での掟だと思うんですよね。
R:やはり、やる以上はちゃんとしたものを作りたいですよね。
戸田:そうですね。国内でAtmos対応の映画館がやっと3館くらいできた時にインドにはもう60館くらいあって、日本はアジアの中で一番遅れてたわけじゃないですか。Atmosミックスができるスタジオもまだまだ少ない中、せっかく苦労して作っても観られる映画館がないと結局その良さが伝わらないってことになっちゃうんじゃないかな、と。映像の世界もそうだと思うんですけど、設備投資も必要ですし。それをやる必然性みたいなもの…仕事の量とか、Atmosにすることの重要性、あとは周りの声だとかが挙がってこないと、せっかく映画館を作っても外国作品しかないような状態になりかねない。日本も、作品をもっと海外に輸出することを考えれば、予算はちゃんと回るんじゃないかと思うので、ぜひ頑張ってAtmos作品を撮ってほしいですね。
Atmos Musicの展望
戸田:サウンドトラックを専門的に収録するためのオーケストラを立ち上げたんですが、いろんな企業さんに「ぜひ私のオーケストラを使って実験してください」ってお願いしたことがあるんです。その時来てくださった企業さんがやったのは、指揮者の右手前方くらいにマイクを立てて、客席ではなくステージ上で聴こえる音を立体音響で再現するという内容でした。映像も演奏者が指揮者を見る角度からのもので。それはとても面白かったんですけど、じゃあそれを何に使うのか、というところまでは落とし込めなかったんです。
深田:新日本フィルの配信の時に似たようなことをしました。木管、バイオリン、指揮者、ピアニスト…みたいに固定カメラがいくつかあって、それぞれの目線の音を作りたいという内容でした。それで、Atmosミックスを6パターンも作って(笑)、映像を切り替えると音も切り替わる、っていう(笑)。コロナで配信しかできなくなったので、新しいことにチャレンジする試みのひとつで体験としては新鮮で面白かったんですけど、純粋に音楽を楽しむというのとはやはりちょっと違うかな、と。
R:ついつい、意味もなく回してしまったり(笑)
深田:5.1chの初期の頃がそうだったんですが、新しい技術ができて、ツールが生まれて、いろんなことができるようになるとついつい小手先でいろいろと遊びたくなっちゃう(笑)。そういうことに囚われずに音楽の本質を捉えた上で新しい、という作品がどんどん出てきてほしいですね。
古賀:「配信するとCDが売れなくなるから」とか「ステレオはできてるからアップミックスでいいじゃん」みたいな考えの方も残念ながらいらっしゃるんですよね。そういう方に納得してもらうためにも、よりよい環境でAtmosミックスを聴いてもらえる機会を増やしていかないと、と思います。
戸田:根性論みたいであまり言いたくないんですけど、クリエイター、つまりモノを創っているひとたちが、次の時代を創れるかもしれない可能性が目の前にある時に、そこから手を引くっていうことが私は率直に「やだな」って思っちゃうんですよね。もちろん、いろいろな困難がありますけど、そこをなんとかやりくりしてでも「日本から発信できるすごいものができるかもしれない!」っていうことをモチベーションとしてるはずじゃないですか。たとえ社会的なムーブメントがなくても、「私たちがそういう作品を創ればいいじゃん」って考えるのがクリエーターの使命というか、性だと思うんですよ。
古賀:楽観的な話題だと、Atmosカーっていうのがあるんですよね。この前、富山でAtmosタクシーっていうのに乗ったんですよ(笑)そしたら、NetflixとかAmazon HDが入ってて。開発が進めば車でAtmosを聴けるようになるっていうシチュエーションは激増するんじゃないかと思ってるんです。そうなったら、どうやってAtmosのよさを広めようかなんていう心配は5年くらいで全部解決されちゃうんじゃないか、と。
We want more Atmos!
古賀:生収録の話だと、いま国内にはAtmosで活かせる響きを録れるスタジオが少ないんですよね。
深田:スタジオってもともと響きを録るとか音をリッチに録るというのではなくて、なるべく響かないように、ほかのマイクに音がカブらないようにっていう発想で設計されてますからね。ちょっと響くスタジオって、芸大の千住(東京芸術大学 千住キャンパス)のスタジオくらいですね。あれくらい響くスタジオって国内にはないですよ。
戸田:私が立ち上げたオーケストラも、まさにそれが課題で。一番の問題は日本にはスコアリングステージ(註:劇伴制作用の、オーケストラが収録できる大規模スタジオ)がないっていうことだったんですよ。この前も海外作品の音楽を録っていたんですが、録りたいものを録りたい配置で録れるスタジオがない。仕方がないので、ミューザ川崎、オペラシティ、所沢のミューズとか、ホールにオーケストラを入れて、マイクもいろいろと変えて、いわゆる「映画音楽!」的なトラディショナルなクラシックからハイブリッドなものまで…いろいろと試してるんです。それはそれでいいものが録れるんですけど、スタジオで、クロースマイクで録るような芯のある音、映画で使えるっていうレベルまで持っていくというのは難しくて。
深田:今は(コロナによって)難しいですけど、オーケストラの練習場みたいなところって意外にいいんですよ、それこそスコアリングステージみたいで。遮音板みたいのはないんですけど、スペースとしては全然使える。以前、札響さん(札幌交響楽団)の練習場というところで普通のアルバム用のレコーディングをしたことがあるんですよ。広くて、結構スタジオ感覚で使えたんです。
戸田:卓(音声卓)はどこに置いたんですか?
深田:ぼくは卓はほとんど使わないんですよ。HAからI/Fを介して、そのままPCに入れてしまう。
古賀:モニタリングはヘッドフォンですか?
深田:いや、控え室みたいな部屋をひとつ借りて、スピーカーでモニターします。
戸田:クリックがある時はどうしてますか?いまの劇伴だと、いわゆる「同期もの」を録りたいことも多いんですが、オケが80人規模なのでキューボックスが足りなくて…。
古賀:ぼくも小ホールの録音の時とか、自分で持ってるキューボックスを持っていきますが、やっぱり限界がある。下手をするとキューボックスのためだけに外部の業者さんを呼ばなきゃいけなくなる。
戸田:そうですね。スタジオじゃないので、搬入とセッティングで3時間かかったりとかもあって。そういうことを考えるとどうかとも思うんですが、オーケストラが7、80人の規模なのでスタジオでは録れない…なんとかならないかな、と。
古賀:結論としては、日本にスコアリングステージを作ればいいってことに(笑)
戸田:みんなでお金出し合って作りましょうよ〜(泣)
古賀:それやって死ねたら本望かな、と思ってます(笑)
戸田:結局、日本でできないから海外に行かなきゃいけなくなっちゃうんですよ。プラハとか行くと、それこそAtmosの収録とかもどんどんはじめているんですね。今日話したような音源ライブラリの限界もあって、これからAtmosによって生収録が重要視されますし、LAとかからも劇伴制作の依頼があってすごく盛り上がってるんです。海外の映画とか、Netflixでやってるような作品を日本で収録する…そういう制作を輸出するということをやりたいっていうのが、私のひとつの目標としてあるんです。それができたら、日本のAtmosミュージックはもっと盛り上がるな、って。
R:日本にスコアリングステージを作るというのが、一番いい結論なのかも知れないですね。
戸田:ROCK ON PRO で監修してください(笑)というか、ここにいるメンバーでスコアリングステージ作れるんじゃないですか?(一同:笑)
それぞれに専門分野の異なるプロフェッショナルたちによる座談会らしく、忌憚のない意見が飛び交うものとなった。配信事業の対応によるDolby Atmos体験の裾野の広がりを歓迎しながらも、制作者の意図しない環境で聴かれてしまう可能性を危惧される様子が印象に残っている。一部ではバズワード化しているDolby Atmos / 空間オーディオというテクノロジーを真に豊かなユーザー体験へと結実させるためには、地に足のついた制作・聴取が必要だと感じた。読者の皆さまの身近なところにも制作ツールは数多く存在するようになっている、ぜひその制作を実際に体験してみてほしい。
*ProceedMagazine2021-22号より転載
Broadcast
2022/02/18
株式会社CBCテレビ様 / 〜革新が従来の文化、ワークフロー、使い勝手と共存する〜
日本初の民間放送局として長い歴史を持つ株式会社CBCテレビ。1951年にわが国初の民間放送としてラジオ放送を開始し、1956年からはテレビ放送をスタートさせている。そのテレビ放送スタートとともに竣工し、幾多に渡る歴史の息吹を現代につなげているCBC会館(通称:本館)のリニューアルに伴い、館内にあるMAスタジオ改装工事のお手伝いをさせていただいた。
完全ファイルベース+イマーシブ対応
数多くの独自番組制作、全国ネット番組を抱えフル稼働を続けるCBCの制作セクション。3年前には新館に第3MA室を開設、同時に仕込み作業用のオープンMAを8ブース、さらにファイルベースワークフローを見越した共有サーバーの導入と、制作環境において大きな変革を行った。その当時は、本館を建て替えるのか?リニューアルするのか?という議論の決着がついていない時期であり、本館にある第1MA、第2MAに関しては最低限の更新にとどめていた。今回は、リニューアルの決まった本館で、将来に渡り第1MA、第2MAを活用すべく大規模なシステムの入れ替えが実施された。
📷 第1MA室
📷 第2MA室
📷 第3MA室
まずは、非常に大きな更新内容となった第1MAを見ていきたい。もともと、このスタジオにあったメインコンソールはSTUDER VISTA 7であったが、今回の更新ではミキサーをなくし、完全なファイルベースのシステムアップとするとともに、将来を見越したイマーシブ・オーディオの制作環境を導入した。基本のシステムは、前回の第3MA開設時と同等のシステムとし、実作業を行うスタッフの習熟への負荷を最低限としている。そこに、イマーシブ制作のためのシステムを加えていく、というのが基本路線である。
第3MAでの基本システムは、Avid Pro Tools HDXシステムとAvid MTRXの組み合わせ。すでに業界標準といっても良いこれらの製品にコントローラーとしてAvid S3を組み合わせている。モニターコントローラーとしてはTAC system VMC-102が採用されているが、スタンドアローンでのシステム運用を考えた際には、やはりこのVMC-102は外せない。Avid MTRXも、多機能なモニターコントロールを実現しているが、PC上でDADmanアプリケーションが起動していないと動作をしないという制約がある。この制約のために、他の事例ではDADmanを起動するためだけに電源を落とさずに運用するPCを1台加えたりといった工夫を行っているのが現状だ。VMC-102の場合、これが起動さえしていればモニターセクションは生きる。これはPCレスでのモニターコントロールができるという価値ある違いにつながっている。
第1MAも、システムの根幹となるこのAvid Pro Tools HDX、Avid MTRX、TAC system VMC-102という構成は同様だ。違いとしては、多チャンネルに対応したAD/DAとしてDirectOut Technologies PRODIGY.MCの採用、そして、イマーシブ・サウンド作りの心臓部としてDolby RMUが加わったということだ。モニターセクションのVMC-102は、Dolby Atmosのモニターコントロールも問題なくこなすことができる製品である。実際にシステムを組もうとすると直面する多チャンネルスピーカーの一括制御。これに対応できる数少ない製品の一つでもある。
📷 第1MAのデスク上はシンプルに纏められている。センターにAvid S3、PC Displayの裏にはVU計がある。右手側にはVMC-102があり、その奥には収録時のフェーダーとしても活用されるSSL SiXがある。SiXの1-2chにMic Preが接続され、InsertにTUBE-TECH LCA2Bがスタンバイ。ステレオフェーダーにはCDとMacProのLine Outが接続されている。
しっかりとしたイマーシブ・サウンドを制作するためにスピーカーはPSIで統一。サウンドキャラクターのばらつきを最小限に、繋がりの良いサウンドを実現している。CBCでは以前よりPSIのスピーカーを使用しており、他のスタジオとのサウンドキャラクターの統一を図ったという側面もある。作業量が一番多いステレオ作業のためのL,RchにはPSI A25-Mを導入し3-Wayの充実したサウンドでの作業を実現。サラウンドにはA17-MとA14-Mを採用している。改装での天井スピーカー設置となったためにここだけはひとサイズ小さなモデルとなるが、できる限りサイズのあるスピーカーを導入したということになる。
📷 上段)ステレオL,Rchに備えられた3WayのPSI A25-M。下段)サラウンドサイドのスピーカーとなるA14-M。特注の金具で取り付けられ、壁面を少しくぼませることでスピーカーの飛び出しを抑える工夫が見て取れる。天井のスピーカーも特注金具により角度の調整などAtmos環境に合わせた設置が可能となっている。
サウンドキャラクターに大きく影響するAD/DAコンバーター部分は、前述もしたDirectOut Technologies PRODIGY.MCを導入している。安定した評価を得ていた同社ANDIAMOの後継となるモジュール式の多機能なコンバーター。モジュール式で将来の拡張性も担保されたこのシステムは、今後の様々な展望を検討されているCBCにとってベストなチョイスとなるのではないかと感じている。IPベースでの室間回線がすぐそこまで来ている今だからこそ、どのような企画にも柔軟に対応できる製品を選択することは、導入検討におけるポイントとなるのではないだろうか。
📷 ラック上部に組み込まれたDirectOut Technologies PRODIGY.MC
イマーシブ対応のセットアップ
イマーシブ・サウンドに関してのシステムアップは、Avid MTRXとMADIで接続されるDolby RMUという構成。MADIでの接続のメリットは、Dolby Atmosの最大チャンネル数である128chをフルに使い切ることができるという点。Dante接続の構成も作ることはできるがDanteの場合には128ch目にLTCを流す関係から127chまでのチャンネル数となってしまう。フルスペックを求めるのであればMADIとなるということだ。
Windowsで構築されたDolby RMUの出力はVMC-102を通してスピーカーへと接続される。各スピーカーのレベル、ディレイ、EQの補正はAvid MTRXのSPQ moduleで行っている。すでにこれまでの事例紹介でも登場しているこのAvid MTRX SPQ moduleは、非常にパワフルな補正エンジンである。各チャンネルへのレベル、ディレイはもちろん、最大16band-EQも使えるプロセッサーモジュールである。また、Dolby RMUのバイノーラルアウトは、SSL SiXのEXT INへ接続されており、常にヘッドフォンアウトからバイノーラル出力を聴くことができるようになっている。SSL SiXへのセンドは、通常はPro Toolsのステレオアウトが接続されているが、VMC-102の制御によりRMUのバイノーラル出力とボタンひとつで切り替えられるようにしている。バイノーラルで視聴されることが多いと予想されるDolby Atmos。このようにすぐにバイノーラルアウトの確認をできるようにしておくことは効率的で重要なポイントだ。
📷 最下部には各スピーカーのレベル、ディレイ、EQの補正を行うSPQ moduleが組み込まれたAvid MTRXが見える。
放送局が蓄積したリソースをイマーシブへ
そもそも放送局にイマーシブ、Dolby Atmosは必要なのか?という問いかけもあるかもしれないが、すでに放送局ではネット配信など多角的なコンテンツの送出を始めている。YouTubeなど、ネット上の動画コンテンツは増え続け、Netflix、Huluなどのオンデマンドサービスが一般化してきているいま、放送局として電波という従来のメディアだけに固執するのではなく、新しい取り組みにチャレンジを始めるというのは自然な流れと感じる。もともと、放送局にはこれまでに積み重ねてきた多くのコンテンツ制作のノウハウ、人材、機材がすべて揃っている。数万再生でもてはやされるユーチューバーと違い、毎日数千万人のリアルタイム同時視聴者を抱えたメディアで戦ってきた実績がある。このノウハウを活かし、これからのコンテンツ制作のために様々な取り組みを行う必要がある。ネットならではの音響技術としてのイマーシブ。特に昨今大きな注目を集めているバイノーラル技術は、いち早く取り組む必要があるという考えだ。バイノーラルであれば電波にも乗せることができる。そして、ネットでの動画視聴者の多くがヘッドフォンや、イヤフォンで視聴をしていることを考えると、そのままの環境で楽しむことができる新しい技術ということも言える。
コンテンツ制作のノウハウ、技術。これまでに積み上げてきたものを発揮すれば内容的には間違いのないものが作れる。そこへ更なる魅力を与えるためにイマーシブ、バイノーラルといった最新の楽しみを加える。これがすぐにできるのは放送局が持ち得たパワーならではのことではないだろうか。技術、テクノロジーだけではなく、コンテンツの中身も伴ってはじめて魅力的なものになるということに異論はないはずだ。スポーツ中継における会場のサウンドのほか、音楽番組など様々なところでの活用が期待される。さらに言えば、その後の番組販売などの際にも付加価値が高まったコンテンツとして扱われることになるだろう。日々の業務に忙殺される中でも、このようなに新しいことへ目を向ける視野の余裕。それこそが次の時代につながるのではないかと、色々とお話を伺う中で強く感じた。
各スタジオ間にはIP伝送網が整備
他のMA室のシステムもご紹介したい。第2MAは、非常にシンプルなシステムアップだ。Avid Pro Tools HDXのシステムにAvid MTRXをI/Oとし、コントローラーにAvid S1、モニターコントローラーにはSPL MTCが採用されている。スピーカーはサウンドキャラクターを統一するためにPSI A17-Mが選ばれた。なお、第1MAの設備からはなくなっているものがある。VTRデッキを廃止し、完全なファイルベースのワークフローへと変貌を遂げている第1MA、VTRがないためにシステム自体もシンプルとなり、これまで設置されていたDigital Consol YAMAHA DM1000などがなくなり、機器類を収めていたラックも廃止されスッキリとしたレイアウトとなった。これは音響面、作業環境としても有利なことは言うまでもないだろう。
📷 第2MAのデスクは今回の更新に合わせて特注された。足元左右にラックが設けられ、左側はファンノイズが考えられる製品が納められ、蓋ができるように対策がなされている。デスク上にはAvid S1、SPL MTC、Umbrella Company Fader ControlがCDの収録用に用意されている。
3年前に更新された第3MAは、新館に新設の部屋として防音室工事からのシステム導入を行った。システムとしてはAvid Pro Tools HDX、Avid MTRX,Avid S3、TAC system VMC-102というコア・コンポーネントを用い、スピーカーにはNESが導入された。
📷 3年前に新設された第3MAがこちら。デスク上には、Avid S3、Avid Dock、VMC-102が並んでおり、第1MAとの共通部分を感じさせるセットアップとなっている。デスクは第2MAと同様に足元にラックスペースが設けられ、左側は蓋付きと同様の仕様になっている。また、I/OとしてAvid MTRXが導入されている。下段右は第3MAのブース。デスクの右にSTUDER Microが見える。これがリモートマイクプリ兼シグナルルーターとして活躍している。これにより、Open MA1,2からもこのブースを共有することができるようにセットアップされている。ブース内にも小型のラックがあり、そこにSTUDER Microの本体が収められている。
この際にポイントとなったのは、同時にシステムアップされたオープンMAと呼ばれる作業スペース。オープンMAは第3MAのすぐそばの隣り合うスペースに設置されている。高いパーテションで区切られた8つのブースにApple iMacでシステムアップが行われた。このオープンMAの2区画は、第3MAのブースを共有し、ナレーション収録ができるようにシステムが組まれ、STUDER MICROがリモートマイクプリとして導入されている。本来は、ラジオオンエア用のコンソールであるこの製品をリモートマイクプリ兼、シグナルルーターとして使っているわけだ。なお、デジタル・コンソールとなるためシグナルルーティングは自由自在である。
また、オープンMAにはAudio InterfaceとしてFocusrite RED 4 PREが導入された。これは将来のDante導入を見越した先行導入という側面もある。Native環境でもHD環境でも同一のInterfaceを使えるというのもこの製品が採用された理由の一つ。不具合時の入れ替えなどを考えると、同一機種で揃えることのメリットが大きいのは言うまでもないだろう。作業データはGBlabs FastNASで共有され、席を変わってもすぐに作業の続きが行える環境となっている。FastNASの音声データのネットワークは各サブへも接続され、音効席のPCへと接続されている。生放送枠の多いCBC、これらのシステムはフルに活用されているということだ。
📷 背の高いパーテションで区切られたこのスペースが、Open MAである。8席が準備され1,2は第3MAのブースを共有しナレーション収録に対応、ブースの様子は小型のLEDで見えるようになっている。それ以外の3~8も基本的なシステムは同等。すべてのブース共通でiMacにセカンドディスプレイが接続され、Audio I/OとしてFocusrite Red 4 Preが採用されている。この機種はDanteでの各所の接続を見越してのものである。
そして、前回の更新時に導入されたGBlabs FastNASへの接続はもちろん、本館のリニューアルに伴い各スタジオ間にはIP伝送網が整備された。このネットワークには、Danteが流れる予定である。取材時には事前工事までではあったが、各スタジオにはDanteの機器が導入され始めているとのこと。本館内の第7スタジオは今回のリニューアルでDanteをバックボーンとするSSL System-Tが導入されたということだ。そのままでも運用は可能だが、各スタジオにDante機器が多数導入され始めると回線の切り替えなどが煩雑になってしまう。それを回避するためにDante Domein Manager=DDMによるセットアップが行われるわけだが、このDDMは各スタジオをドメイン分けして個別に管理し、相互に接続を可能とする回線を絞ることができる。これは室間の回線を設定しておくことにより運用を行いやすくすることにつながっている。
もちろん、他の部屋のパッチを他所から設定変更してしまうといった事故防止にもなる。データの共有だけではなく、回線もIPで共有することによる運用の柔軟性が考えられているということになる。生放送を行っているスタジオの回線を他のスタジオで受け取ることもできるため、実際のオンエアの音声を他のスタジオで受けて、トレーニングのためのミックスを行うなど、これまでではなかなかできなかった運用が実際にテストケースも兼ねて行われているということだ。今後は、中継の受けやスタジオをまたいでのオンエアなど、様々な活用が期待されるシステムアップとなっている。これはサブだけではなくMA室も加わっているために、運用の柔軟性はかなり高いものとなる。
伝統ある放送局の文化にこれから先の放送局のあり方を重ね合わせた、これが現実のものとなっているのが今回のケースではないだろうか。バイノーラルを使ったコンテンツの新しい楽しみ方の提供。ファイルベースだけではなく、放送局の強みでもあるリアルタイムでの制作環境の強化、柔軟性の獲得。さまざまな新しい取り組みが従来のワークフロー、使い勝手と共存している。今後の放送局のシステムのあり方の一つの形がここに完成したのではないだろうか。
📷 株式会社CBCテレビ 技術局 放送技術部 名畑輝彦 氏
*ProceedMagazine2021-22号より転載
Music
2022/02/10
山麓丸スタジオ様 / 〜日本初、360 Reality Audioに特化したプロダクションスタジオ〜
360度全周(4π)に音を配置できるSONY の360 Reality Audio。その制作に特化したスタジオとして作られたのが株式会社ラダ・プロダクションによって設立されたこちらの山麓丸スタジオだ。国内ではソニー・ミュージックスタジオ、ソニーPCLスタジオに続いて3スタジオ目、「360 Reality Audio」専用スタジオとしては初となるという。今回はこちらのスタジオのPro Toolsシステム周りについて導入をさせていただいた。360 Reality Audio制作にはどのようなシステムが必要なのか。制作ワークフローを含め貴重なお話を伺った。
360 Reality Audio作品の専用スタジオを
株式会社ラダ・プロダクション様はCM音楽制作をメインに手がけている音楽制作会社だ。CM以外にも音に関わる企画やプロデュースなど様々な事業をされている会社なのだが、展示や開発系に関わる仕事も増えていく中でソニーと出会ったという。その後、ソニーが開発した波面合成アルゴリズムであるSonic Surf VRのスピーカー開発にも関わり、その時から立体音響に深く関わっていくことになったそうだ。その後、CES 2019で「360 Reality Audio」が発表され、その後ソニーと連携しつつ360 Reality Audio作品制作を手がけるような形になり、スタジオを作るまでに至ったということだ。現在では過去の楽曲の360RA化というものを多く進めているそうだ。広告の仕事を数多く行っているラダ・プロダクションでは展示での立体音響など、360 Reality Audioにとどまらない立体音響の提案を多くしているというお話も伺えた。
全15台のスピーカーをマネジメント
📷 スタジオ正面全景からは、Avid S1やAvid MTRXをコントロールするMOM Baseなど、操作系デバイスをスタンド設置にしてサイドに置き、リスニング環境との干渉へ配慮していることが見て取れる。ラック左列にはAvid MTRX / MTRX Studio、FerroFish / Pulse 16DXが収められ、右列にはヴィンテージアウトボードの数々がまとめられている。
360 Reality Audio制作に使用される360RACS(Reality Audio Creative Suite) 通称:ラックスはDAW上で立ち上げて使用するプラグインだ。ミックスをしているProTools 上で360RACSをインサートして使用することになるのだが、やはりトラック数が多くなったりプラグイン負荷が多くなると1台のマシン内で処理することが厳しくなるかもしれない。そこで、山麓丸スタジオでは大規模なセッションを見越してPro Toolsのミキシングマシン、360RACSを立ち上げるマシンを分けて制作することも想定したシステムアップとなっている。最大で128chのやりとりが必要となるため、Pro ToolsミキシングマシンはHDX2。360RACSについてもPro Tools上で動作させるためにこちらもHDX2を用意。その2台をAvid MTRX1台に接続し、音声をやりとりする形を取っている。
モニタースピーカーはGENELEC / 8331APが13台と7360AP 2台の構成になっている。8331APについてはミドルレイヤー、アッパーレイヤーがともに5ch。ボトムレイヤーが3ch。合計13chという構成だ。モニターのルーティングだが、まず360RACSマシンのHDXからのoutがDigiLink経由でMTRXへ。MTRXからDanteネットワーク上のFerroFish / Pulse 16DXへと信号が渡され、そこでDAがなされてスピーカーへと接続されている。ベースマネージメントを行うためにまず2台の7360APへ信号が送られ、その先に各スピーカーが接続されている形となる。スピーカーの調整についてはGENELECのGLMにて補正が行われている。マルチチャンネルのシステムの場合、GLMは強力な補正ツールとなるため、導入の際にはGENELECのスピーカーがチョイスされる確率が非常に高いのが現状だ。モニターコントロールについてはDADManで行われおり、フィジカルコントローラーのMOM Baseも導入していただいた。柔軟にセットアップできるDaDManでのモニターコントロールは大変ご好評をいただいている。
リスニング環境を損なわないレイアウト
前述のように360 Reality Audioは全周に音を配置できるフォーマットだ。スピーカーでモニターする場合は下方向にもスピーカーが必要なことになる。実際のスタジオ写真でスピーカーレイアウトはある程度把握できるかもしれないが、ここでどのようなレイアウトになっているかご紹介させていただきたい。
スピーカー13本の配置は耳の高さのMidレイヤーが5ch、上方のUpperレイヤーが5ch、下方のBottomレイヤーが3chという構成となる。Mid、UpperともにL,Rはセンタースピーカーから30°の角度、Ls,Rsは110°の角度が推奨されている。BottomレイヤーはL,C,Rの3本。こちらもセンタースピーカーから30°の位置にL,Rが置かれることになる。山麓丸スタジオではBottom L,C,Rの間にサブウーファーが設置されている理想的なスピーカーレイアウトであると言えるだろう。また、UpperはMidに対して30°上方。BottomはMIdに対して20°下方というのが推奨となっている。
通常スタジオではPC操作用のディスプレイ、キーボード、マウスやフェーダーコントローラーを置くためのデスクやコンソールなどが設けられることがほとんどだが、360RA用のスタジオではBottomにスピーカーが設置されることからその存在が邪魔になってしまうのが難しい点だ。山麓丸スタジオではPCディスプレイの役割を前方のTVに担わせている。また、フィジカルに操作を行うキーボード、マウス、Avid /S1、MOM Baseは右側に置かれたスタンドに設置され、極力音への影響が出ないよう工夫がなされている。ちなみに、スタジオ後方にはもう1セットKVMが用意されており、そちらで細かい操作等を行うことも可能だ。
📷 左よりAvid S1、Avid MTRXをコントロールするMOM Base。ブースでのレコーディング用には、Urei 1176LN / API 550A,512C / AMEK System 9098 EQ / N-Tosch HA-S291が用意された。最上段のRME MADIface Xは主にヘッドホンモニタリング用だ。
360 Reality Audio 制作ワークフロー
ここからは実際に山麓丸スタジオで行われているワークフローについてお伺いすることができたのでまとめていきたい。
●1:ステレオミックスを行う
まず、マルチトラックのオーディオデータを先方より手に入れたらセッションを作成するのだが、まずはStereo Mixを行うという。このスタジオの顧問も勤めている吉田保氏などにミックスを依頼するケースもあるとのことだ。まずはステレオミックス用のセッションを作成することについては特に疑問はないだろう。元の楽曲がある作品の場合はそれに合わせるような形でステレオミックスが作成される。
●2:ステレオから360RAへ
ステレオでの音作りをしてから、それを360RA上でパンニングして行く形となる。360RACSはプラグインのため、ProToolsのトラックにインサートして使用する形となるのだが、各オーディオトラックにインサートはしない。各オーディオトラックと同数のAUXトラックを用意し、そこにオーディオをルーティングして360RACSをインサートする。これはPro Toolsのフェーダーバランスを活かすためだ。RACSプラグインはインサートされた箇所のオーディオをDAW側から受け取るので、オーディオトラックにそのままインサートしてしまうとフェーダー前の音がプラグインに渡されてしまう形になる。それを避けるためにAUXトラックを経由する形を取っている。次に、作成したAUXトラックのマスターのチャンネルにRACSプラグインをインサートしマスターとして指定する。これが各チャンネルから音を受け取ってOUTPUTする役割を担うようになる。その後、各チャンネルにRACSプラグインをすべてインサートしていく。
📷 プラグインとして360RACSを選択、インサートを行う。
📷 インサートした360RACSプラグインの中からマスターとなるトラックをを選択。
先ほども述べたように、最終的にオーディオデバイスに音を渡すのはPro ToolsではなくRACSプラグインということになるため、RACSプラグイン上のオーディオデバイスでHDXを選択する。そのため、Pro Tools側はプレイバックエンジンでHDX以外のものを選択する必要があるということだ。ProToolsのマスターを通らないため、遅延補正はどうなる?という疑問も生まれるのだが、RACS側に遅延補正の機能があるためそこは心配ご無用ということのようだ。
これで、360RAのミキシングを始める設定が完了したことになる。その後はRACS内でスピーカーレイアウトを指定する。もちろんヘッドフォンでの作業も可能だ。HRTFを測定したファイルを読み込むことができるのでヘッドフォンのモニタリングの精度も非常に高い。
📷 出力デバイスとしてHDXを選択。
📷 ヘッドホンの出力先もプラグイン内で選択する。
●3:360RAミキシング
設定が完了したら、360RACS上でそれぞれの音のパンニング進めていく形となる。ラダ・プロダクション側で音の配置をある程度進めた状態にし、それを受けたエンジニア側でさらにブラッシュアップを行う。こうして一旦配置を決めるのだがここから再度ミキシングを行う。音の配置による音質の変化が生まれるので、パンニング後、改めて音の調整をエンジニアによって施す作業をしクオリティを上げるそうだ。こうして、その配置で本来鳴らしたい音質で鳴るようにする音作りを行い、でき上がったものがクライアントのチェックに回ることになる。
📷 360度全周にパンニングし、音像スペースを作り出している。
●4:360RAでのマスタリング
オブジェクトベースのフォーマットではステレオのようなリミッター、マキシマイザーを用いたマスタリングは難しい。今回、それをカバーする”技”を伺ったのでご紹介したい。まず、全トラックをAUXのモノトラックにセンドする。そのモノトラックをトリガーとしたマルチバンドコンプやリミッターなどを全トラックにインサートするという手法だ。設定は全トラック同じ設定にする。全ソースが送られているトラックをサイドチェーンのキーインにアサインすることによって、ステレオでのリミッティングを再現する形だ。
📷 全チャンネルにFabfilter Pro-C 2 / Pro-MB / WAVES L2がインサートされている。
●5:バウンス(書き出し)
通常のPro Toolsのバウンスによって、360RAのフォーマットを書き出すことができるそうだ。なお、書き出す際は360RACSを開いておくことが必要となる。書き出しについては「インターリーブ」「48kHz24bit」「Wav」とし、指定のフォルダに書き出すことが必要とのことで、「書類」の中の「360RACS」の中にある「Export」フォルダを指定する。このフォルダは360RACSをインストールした際に自動ででき上がるフォルダとなっている。
📷 バウンス自体はPro Toolsの画面に沿って行う。
バウンスが終わるとプレビューの調整画面が表示される。ここではどのLEVEL(0.5、1、2、3)で書き出すかを選ぶ。LEVELはMP4を作る際のクオリティに値するものだ。LEVEL2以上でオブジェクトを"スタティック"と”ダイナミック”の選択が可能となっている。独立して聴かせたいVocalなどのメインソースは"ダイナミック"を選択、また動きのあるものも"ダイナミック"を選択することが多いそうだ。ここの設定によってもまた楽曲の聴こえ方が変わるのでここも慎重に行う。すべての設定が行なえたら『OK』を押して書き出しは完了、その後、こちらのデータを使用してエンコードを行いMP4を生成する。
📷 オブジェクトのダイナミック、スタティックの選択が行える。
📷 バウンスを終えるとレベルごとにフォルダ分けされて格納される。
●6:エンコード
現状でのエンコードは360RACSとは別のアプリケーションを使用して行なっている。こちらのアプリケーションについてはとてもシンプルで、ドラック&ドロップしたデータを変換するのみだ。変換が完了したらデコーダーを使用して、生成されたMP4のチェックを行う。
ここまで細かく360 Realty Audio制作の手法をご紹介させていただいた。ステレオミックスと違い、上下の音の配置をパンニングで行えることが360 Realty Audioの大きな利点なのだが、配置しただけでは聴かせたい音質にならないことが多いのだそうだ。ステレオではマスキングを起こして聴こえなくなってしまう部分があり、それを回避しながらうまくステレオという空間に音を詰め込んでいくスキルが必要だったわけだが、360 Reality Audioは360度どこにでも音を配置できてしまう。言い換えれば、マスキングが起きづらい360 Reality AudioやDolby Atmosでは、より一個一個の音のクオリティが楽曲自体のクオリティを大きく左右することにつながるわけだ。
また、クライアントから渡される素材がステムではなくパラデータだった場合、単体での音作りというところが大きなポイントとなるということだ。その部分をスタジオ顧問の吉田保氏ほか、各所エンジニアの手に委ねるなどの工夫をされている点は大きなポイントのように感じた。そして、360RAパンニング後に「聴かせたい場所で聴かせたい音質」とするための音作りをする点も重要なポイントだ。音の存在感を出すためにサチュレーションを使ったり、EQを再度調整したりさまざまな工夫が施される。
こうしてサウンドは整えられていくが、音を配置しただけでOKということではなく、ReverbやDelayを駆使して360度に広がる「空間」を作ることがとても重要になる。ライブ収録などでは実際に様々なところにマイクを立て360度空間を作ることが可能だが、レコーディング済みの過去作品や打ち込みの作品では新たに360度空間を人工的に作る必要がある。マルチチャンネルで使用できる音楽的なReverbの必要性を感じているというお話も伺えた。制作者側の悩みなどはDolby Atmosの制作と共通する部分も多く、それに呼応するような360度空間制作のためのツールも今後ブラッシュアップされていくのではないだろうか。
Dolby Atmosとともに空間オーディオの将来を担うであろう360 Realty Audio。この二つのフォーマットが両輪となり、空間オーディオはさらに世の中へ浸透していくことになるだろう。360RAは下の方向がある分Dolby Atmosに比べてもさらに自由度が高いため、よりクリエイティブな作品が生まれそうな予感もする。また、ヘッドフォンでの試聴は、スピーカーが鳴っているのではないかと思わず周りを見回してしまうほどの聴こえ方だった。コンシューマにおけるリスナーの視聴環境はヘッドフォン、イヤフォンが中心となるのが現状だろう。その精度が上がっていくとともにコンテンツが充実することによって、今よりリスナーの感動が増すのは間違いない。広く一般的にもステレオの次のフォーマットとして、空間オーディオに対するリスナーの意識が変わっていくことに大きな期待を寄せたい。
株式会社ラダ・プロダクション
山麓丸スタジオ事業部
プロデューサー
Chester Beatty 氏
株式会社ラダ・プロダクション
山麓丸スタジオ事業部
チーフ・エンジニア
當麻 拓美氏
*ProceedMagazine2021-22号より転載
Music
2022/02/04
株式会社 SureBiz様 / 〜Dolby Atmos、技術革新に伴って音楽表現が進化する 〜
2021年6月、Appleが空間オーディオの配信をスタートした。そのフォーマットとして採用されているはご存知の通りでDolby Atmosである。以前より、Dolby Atmos Musicというものはもちろん存在していたが、この空間オーディオの配信開始というニュースを皮切りにDolby Atmosへの注目度は一気に高まった。弊社でもシステム導入や制作についてのご相談なども急増したように感じられる。今回はこの状況下でDolby Atmos制作環境を2021年9月に導入された株式会社 SureBizを訪問しお話を伺った。
需要が高まるDolby Atmos環境を
SureBizは楽曲制作をワンストップで請け負うことにできる音楽制作会社。複数の作家、エンジニアが所属しており、作曲、編曲、レコーディング、ミキシング、マスタリングをすべて行えるのが特長だ。都心からもほど近い洗足池にCrystal Soundと銘打たれたスタジオを所有し、そのスタジオで制作からミキシング、マスタリングまで対応している。今回はそのCrystal SoundへDolby Atmos Mixingが行えるシステムが導入された。2020年の後半よりDolby Atmosでのミキシングがどのようなものか検討を進めていたそうだが、Appleの空間オーディオがスタートしたことでDolby Atmosによるミックスの依頼が増えたこと、さらなる普及が予測されることからシステム導入を決断されたという。
我々でも各制作会社のお客様からDolby Atmosに対してのお問合せを多くいただいている状況ではあるが、現状ではヘッドフォンなどで作業したものを、Dolby Atmos環境のあるMAスタジオ等で仕上げるというようなワークフローが多いようだ。その中で、SureBizのような楽曲制作を行っている会社のスタジオにDolby Atmos環境が導入されるということは、制作スキームを一歩前進させる大きく意味のあることではないだろうか。
📷 洗足池駅近くにある"Crystal Sound"。制作、レコーディング、ミキシング、マスタリングと楽曲制作に必要工程がすべてできるようになったスタジオだ。メインモニターはmusikelectronic / RL901K、サブモニターにAmphion / One18。Atmos用モニターにGENELEC / 8330APとなっている。
サウンドとデザインを調和する配置プラン
まず、既存のスタジオへDolby Atmosのシステムを導入する際にネックになるのは天井スピーカーの設置だろう。Crystal Soundは天井高2500mmとそこまで高くはない。そこで、できるだけハイトスピーカーとの距離を取りつつ、Dolbyが出している認証範囲内に収まるようにスピーカーの位置を指定させていただいた。L,C,Rまでの距離は130cm、サイドとリアのスピーカーは175cmにスタンド立てで設置されている。スタジオ施工についてはジーハ防音設計株式会社によるものだ。その際に課題となったのがスタジオのデザインを損なわずにスピーカーを設置できるようにすること。打ち合わせを重ねて、デザイン、コストも考慮し、天井に板のラインを2本作り、そこにスピーカーを設置できるようにして全体のデザインバランスを調和させている。電源ボックス、通線用モールなど黒に統一し、できるだけその存在が意識されないように工夫されている。
📷 紫の矢印の先が平面の7ch。青い矢印の先が天井スピーカーとなっている。これを基にジーハ防音設計株式会社様にて天井板、電源ボックス、配線ルートを施工いただいた。
Redシリーズ、GENELECの組み合わせ
Dolby Atmos Musicの制作ではDAWとRendererを同一Mac内で立ち上げて制作することも可能だ。ただし、そのような形にするとCPUの負荷が重くマシンスペックを必要とする。本スタジオのエンジニアであるmurozo氏は普段からMacBook Proを持ち歩き作業されており、そこにRendererを入れて作業することはできなくはないのだが、やはり動作的に限界を感じていた。そのためCrystal Soundにシステムを導入されるにあたっては、そのCPU負荷を分散するべくRendererは別のMacにて動作させるようシステム設計をした。Renderer側はFocusrite REDNET PCIeR、Red 16LineをI/Oとしている。
RendererのI/OセットアップではREDNET PCIeRがInput、Red 16Line がOutputに指定される。Pro Toolsが立ち上がるMacBook ProのI/OにはDigiface Danteを選択している。Pro Tools 2021.7からNativeでのI/O数が64chに拡張されたので、このシステムでは64chのMixingができるシステムとなる。ちなみに、Pro Tools側をHDX2、MTRXを導入することにより128chのフルスペックまで対応することも可能だが、この仕様はコスト的に見てもハードルが高い。今回の64ch仕様は導入コストを抑えつつ要件を満たした形として、これからの導入を検討するユーザーには是非お勧めしたいプランだ。
📷 CPU処理を分散するため、Pro ToolsのミキシングマシンとDolby Atmos Rendererマシンを分離。Danteを使用したシステムを構築している。64chのDolby Atmosミキシングが可能な環境となっている。Pro Tools 側のハードウェアのアップグレードにより128chのシステムも構築可能だ。
モニターコントロールにはREDNET R1とRed 16Lineの組み合わせを採用している。これがまた優秀だ。SourceとしてRendererから7.1.4ch、Apple TVでの空間オーディオ作品試聴用の7.1.4chを切り替えながら作業ができるようになっている。また、Rendererからバイノーラル変換された信号をHP OUTに送っているため、ヘッドフォンを着ければすぐにバイノーラルのチェックもできる。スピーカーについてはGENELEC 8330APと7360Aが使われており、補正についてはGLMでの補正にて調整している。マルチチャンネルを行う際は補正をどこで行うか、というポイントが課題になるが、GLMはやはりコストパフォーマンスに優れている。今回のFocusrite Redシリーズ、GENELECの組み合わせはDolby Atmos導入を検討されている方にベストマッチとも言える組み合わせと言えるだろう。
📷 左は机下のラック。左列下部に今回導入いただいたRed 16Line(オーディオインターフェース)、SR6015(AVアンプ)、SWR2100P-5G(Danteスイッチ)が確認できる。ラックトレイを使用して、AppleTV、Digiface Danteもこの中に収まっている。右はGENELEC /8330AP。天井スピーカーであっても音の繋がりを重視し平面のスピーカーからサイズを落とさなかった。
Dolby Atmos環境で聴こえてくる発見
実際にDolby Atmosシステムを導入されてからの様子についてどのような印象を持っているかも伺ってみたところ、Apple TVで空間オーディオ作品を聴きながら、REDNET R1で各スピーカーをSoloにしてみて、その定位にどんな音が入っているかなどを研究できるのが便利だというコメントをいただいた。空間オーディオによって音楽の新しい世界がスタートしたわけだが、スタートしたばかりだからこそ様々なクオリティの音源があるという。システムを導入したことにより、スピーカーでDolby Atmos作品を聴く機会が増え、その中での発見も多くあるようだ。ステレオミックスとは異なり、セオリーがまだ固まっていない世界なので、Mixigを重ねるごとに新しい発見や自身の成長を確認できることがすごく楽しいと語ってくれた。その一例となるが、2MixのステムからDolby Atmos Mixをする際は、EQやサチュレーションなどの音作りをした上で配置しないと迫力のあるサウンドにならないなど、数多くの作品に触れて作業を重ねることで、そのノウハウも蓄積されてきているとのことだ。
📷 Dolby Atmos用のモニターコントロールで使用されているREDNET R1、各スピーカーのSolo機能は作品研究に重宝しているとのことだ。Source1にRendererのプレイバックの7.1.4ch。Source2にAppleTVで再生される空間オーディオに試聴の7.1.4chがアサインされている。制作時も聴き比べながら作業が可能だ。
技術革新に伴って音楽表現が進化する
最後に今後の展望をmurozo氏に伺ってみた。現状、Dolby Atmos Mixingによる音楽制作は黎明期にあり、前述のようにApple Musicの空間オーディオでジャンル問わずにリリース曲のチェックを行うと、どの方法論が正しいのか確信が持てないほどの多様さがあり、まだ世界中で戸惑っているエンジニアも多いのではないか、という。その一方で、技術革新に伴って音楽表現が進化することは歴史上明らかなので、Dolby Atmosをはじめとする立体音響技術を活かした表現がこれから益々の進化を遂げることは間違いないとも感じているそうだ。「そんな新しい時代の始まりに少しでも貢献できるように、またアーティストやプロデューサーのニーズに応じて的確なアプローチを提供できるように日々Dolby Atmosの研究を重ね、より多くのリリースに関わっていければと考えています。」と力強いコメントをいただいた。
📷 株式会社SureBiz murozo氏
今後さらなる普及が期待されるDolby Atmos。世界が同じスタートラインに立った状況で、どのような作品が今後出てくるのか。ワールドワイドで拡がるムーブメントの中で、いち早くシステムを導入し研鑽を積み重ねているSureBiz / Crystal Soundからも新たな表現のセオリーやノウハウが数多く見出されていくはずである。そしてそこからどのようなサウンドが生まれてくるのか、進化した音楽表現の登場に期待していきたい。
*ProceedMagazine2021-22号より転載
https://pro.miroc.co.jp/headline/avid-creative-summit-2021-online/#.YfzvmvXP3OQ
3D Audio
2022/01/28
名古屋芸術大学 学生によるオーケストラ・バイノーラル・ライブ配信 ~ Dolby Atmos / 360 Reality Audio / AURO-3D ~
名古屋芸術大学 学生によるオーケストラ・バイノーラル・ライブ配信
~ Dolby Atmos / 360 Reality Audio / AURO-3D ~
Text by 名古屋芸術大学 サウンドメディア・コンポジションコース 長江和哉
2021年1月から8月にかけて3 回に渡り、私が録音を教える本学サウンドメディア・コンポジションコースの学生が中心となり、本学オーケストラのコンサートをバイノーラル音声でライブ配信した。本コースは、作曲、録音、音響を学び、新しい時代に必要となる音楽表現を研究していくコースであるが、このようなコンサートのライブ配信を初めて行ったのはコロナ禍が始まった2020年の3月、本学ウィンドアカデミーコースによるコンサートの際に、学生有志が身の回りにある機材を用いて行ったことが始まりである。
その後、2020年夏に配信の基本的な機材を揃え、2020年10月より音楽的な音声や映像によるライブ配信を目指し、コンサートごとに参加者を募り、その都度配信チームを編成し、この1年半で7回のライブ配信を行ってきた。2021年1月からは、研究のために「何か新しいこと」にトライできたらということで、音声は通常ステレオとバイノーラルと2 つのミックスをリアルタイムに作成しライブ配信を行った。筆者は、これらの取り組みを10月20日から23日に行われた、AES Fall Online 2021 Conventionで、ARTSRIDGE 濱﨑公男氏、東京芸術大学 亀川徹氏、WOWOW 入交英雄氏とともに「Next Generation Audio forAdvanced Music Creations and Distributions - Part 2」と題したワークショップで発表したが、今回はProceed Magazineの読者の皆さんにもその詳細をレポートさせていただきたい。
背景
コロナが私たちの生活を激変させた2020年。芸術大学である本学も、慣れない画面越しでのオンライン授業で前期が始まり、教員、学生とも、パソコン、スマホ、カメラ、マイク、スピーカー、イヤホンなどの機器と毎日接する暮らしが始まった。そんな中、演奏実技や実習系の科目は前期の途中より対面授業となり、人と人のリアルなコミュニケーション、そして、そもそも音楽とはどのようなものであったかを再確認した時間となった。
本学では毎年様々なコンサートを企画しているが、その中でも、コロナ禍の中で最初に行われることになった2020年10月22日のオーケストラコンサートは、有観客を予定しながら、コロナの状況が悪化した場合を考慮して配信も同時に行うことが夏頃に決まった。そもそも本コースは、作曲、録音、音響を学ぶコースであるが、学生達がカメラや映像機材を組織することでコンサートのライブ配信ができるのでは、というアイデアはどこからとなく出てきた。そして、2020年夏にビデオ・スイッチャー ROLAND V-1 SDIを導入し、すでにあったSonyの4Kハンディカムを用いながら、HDMIをSDIに変換し50m伝送するケーブルドラムを自作するなどして配信機器を整えた。
振り返って考えてみると、このアイデアは教員である私自身が、オンライン授業のためのカメラや映像周辺機器を組織した経験がなければ敬遠していたかもしれない。なぜならコロナ以前は全く映像配信の知識はなかったからである。そして、この配信プロジェクトには多くの学生が参加してきたが、このコロナ禍でのオンラインでのコミュニケーションという経験がなければ、学生もこれほど映像配信に興味を示さなかったかもしれない。今、改めて振り返ってみるとこれらの配信はコロナ禍の副産物なのかもしれないと感じている。
3D Audio
2020年から2021年夏にかけて、本学のスタジオのPro Tools システムを14年間使用したPro Tools HD 192 I/O からPro Tools HD HDX MTRXシステムに更新した。この際に、5.1chであったスピーカー環境をCR1は7.1.4ch に、CR2は5.1.4ch に変更した。これらシステムにおける更新のほとんどは、学生と一緒にカスタマイズしながら行った。その後、このスタジオを用いて2020年度の卒業制作では数人の学生が3D Audioの作品に取り組み始めた。今回のバイノーラル配信を始めようとしたきっかけはコロナのみではなく、本学スタジオのシステム入れ替えにも関係があるように感じている。
📷 CR1は、7.1.4 Genelec 8330 11本のシステム。CR2は5.1.4 L-C-R 8030 LS-RS 8020、トップスピーカー4つは8020を設置。Dolby Atmos Production Suite、360 Reality Audio Creative Suite、AURO-3D Creative Tools Suite & Auro-HeadPhone が動作可能な環境となった。
📷 2020年8月、CR1のPro Tools HDXのインストールの様子。この時のPro Toolsの入れ替えはROCK ON PROの前田洋介氏にサポートいただきながら行ったが、2021年8月に行ったCR2の入れ替えは私たちのみで行うことができた。
バイノーラル配信
2020 年10 月に三井住友海上しらかわホールで行った1 回目のオーケストラライブ配信は無事に終了し、2 回目の12 月に愛知芸術劇場コンサートホールで行なったライブ配信も同様に無事に終えることができた。そして、3 回目となる2021 年1 月のコンサートでは、もう一歩進んだ要素をライブ配信に取り入れると良いのではと私から学生に提案した。本来は3D Audio でライブ配信ができたらと思ったが、まだマルチチャンネルで音声を伝送するのは難しい。そこで、私たちは3D Audio 制作ツールの制作の補助や確認のためとなるバイノーラル出力を、そのままライブ配信の音声として使用することはできないかと考えた。
まず最初に、本学が2020年に導入したDolby Atmos Production Suite(DAPS)を用い、学生とともに以前行われたコンサートのマルチトラックファイルを別のPro Toolsより再生しながらMADI経由で各マイクの信号を入力し、ライブバイノーラルミックスをすることができるかのテストを行なったが、それほど困難なく実現できることがわかった。その後、私たちは様々なストレステストを行った。DAPSを用いたライブバイノーラルミックスは、Pro Toolsで録音しながらインプットスルーした信号をDAPSにセンドしバイノーラル処理させ、Pro Toolsにリターンするという、Macにとってはかなりの負荷になることとなるが、そのストレステストを事前に行うことで、「何を行ったらシステムがハングするか」を見極めることができた。このような方法で1月29日は、Dolby Atmos Production Suiteでライブ配信を行った。その後、そのほかのツールでも配信を行いたいという意見が学生から出て、6月3日は360 Reality Audio Creative Suite、8月9日はAURO-3D Creative Tools Suite & Auro-HeadPhoneを用いてライブ配信を行った。
📷 ライブ配信の舞台裏。プロデューサー、テクニカルディレクター、カメラ、スイッチャー、標準ステレオミックス、バイノーラルミックスといった役割にわかれ毎回14名程度のチームを組織した。
📷 カメラマンとスコアラー。スイッチャー担当があらかじめカメラ割りを決め、それに基づき撮影を行ったが、全員が初めての経験からスタートした。
バイノーラル研究
私たちは、バイノーラル3D Audio制作ツールの中でどのようにバイノーラル信号が生成されているかを知る必要があると考えた。バイノーラル音声を作成する方法は、バイノーラルマイクで集音するか、マルチマイクでミキシングされた信号を3D Audio制作ツールを用いて処理するかの2つ方法がある。バイノーラルマイクはマイクのみで完結するが、楽器ごとにバランスを取ることは困難である。となると必然的に3D Audio制作ツールでとなるわけであるが、それらはいったいどのような仕組みであるか?これらのツールの中身はいわゆるブラックボックスであるが、これまで筆者が行った研究では、大きく分けて2つの処理がなされているように察している。
その一つ目がEQ、つまり周波数ドメイン、そしてもう一つがリバーブやディレイと行った時間ドメインである。まず、周波数ドメインについて、それは、DAWにおける各トラックの信号をステレオのようにそのまま出力させるのではなく、その定位を実現するために、頭部伝達関数=HRTF(Head related transfer function) という、音が人間の鼓膜に届くまでの、耳介、外耳道、人頭および肩までふくめた周辺物によって生じる音の変化の伝達関数から導き出されたEQ処理がなされる。そして、時間ドメインについて、再生はヘッドフォンでヘッドホンではあるが実際には部屋で聴いているような印象になるように、リバーブの付加やディレイが用いられ空間的な制御がなされていると察している。
📷 2016年11 月、ドイツトーンマイスター協会主催のコンベンション「Tonmeistertagung 2016」でのAURO-3Dのプレゼンテーションより。左の写真は、耳介に対して上方、前方からの音声の伝達パスについて、どのような周波数のピークディップが起こるかについての説明。右の写真は、バイノーラル処理のプロックダイアグラム。入力信号は、Early Reflection (初期反射) とLate Reverberation (後部残響音) とともにHRTF処理され、ヘッドホンのためのEQを経てBinaural 2.0として出力されると解説されていた。(ドイツ・ケルンメッセにて筆者撮影)
そして、私たちはそれらを具体的に知るために分析を行った。方法はDAWよりピンクノイズを出力し、バイノーラル処理された音声をDAWに戻し、HRTFのEQカーブを分析。また、AUDIO EASEAltiverb 7のリバーブサンプリング用のスイープ音を出力し、付加されるリバーブなどを分析した。その結果、3つの3D Audio制作ツールのそれぞれの処理は三者三様であることがわかった。
📷 ピンクノイズを用いた、Dolby Atmos Production Suiteでのバイノーラル処理研究の様子。距離の設定はmid。トップレイヤの一番後ろに音源を定位した際は、このような周波数ドメインでの処理がされる。同様の方法で、360 Reality Audio Creative Suite、AURO-3D Creative Tools Suite & Auro-HeadPhoneを用いて研究した。
その後、かつて収録したマルチトラックを用いて、どのようにミックスすると音楽的な音色がありながら立体感を得られるかということを検討した。具体的には、Dolby Atmos Production Suiteは、トラックごとにバイノーラル処理するかしないかを選択でき、near mid farという3 つの距離を設定することができる。私たちはその組み合わせについて検討した。1. バイノーラル処理しないもの 2. 全てのトラックをバイノーラル処理したもの 3. メインマイクLCR、HL-HR、Vnのスポットマイクのみバイノーラル処理しないもの、これら3つのミックスを作成し比較した。
📷 Dolby Atmos Production Suite でのバイノーラル処理の設定を3 パターン試し、どのように設定すると、音楽的な音色で立体感が得られるかを検討した。
その結果、音楽的な音色という観点から、すべてのトラックをバイノーラル処理することが常に良いとは限らないことがわかった。 そこで、標準ステレオとバイノーラルのミックスは、まず全く別のミックスを作成する必要があること、また、メインマイク、ルームマイクについて、バイノーラルで多くのルームマイクを用いるとサウンドがコムフィルターの関係で濁ることがわかった。その後、様々な組み合わせを試したが、3Dスピーカーで再生される音源としては多くのルームマイクが必要であるが、バイノーラルではメインマイクから遠く離れたHLS-HRS、つまり、メインマイクと異なる性質を持ったルームマイクとスポットマイク、そしてリバーブも必要であることがわかった。
ライブ配信セットアップ
📷 2021 年1月29日名古屋芸術大学学生オーケストラ with 名古屋芸術大学フィルハーモニー管弦楽団特別演奏会
指揮 : 高谷 光信 ピアノ : 瀧澤 俊(本学学生) 愛知県芸術劇場コンサートホール
バイノーラル研究を経て、通常ステレオとバイノーラルと2つの動画ストリームを配信するために、写真のように収録配信機材を組織した。メインマイクについて、通常ステレオとバイノーラルでは、L-RとHLS-HRSのみ用いたが、事後に行う3Dスピーカーによるミックスのためにこのようにマイクを配置した。
1:2021/1/29:Dolby Atmos Production Suite
名古屋芸術大学学生オーケストラ with 名古屋芸術大学フィルハーモニー管弦楽団特別演奏会
指揮 : 高谷 光信 ピアノ : 瀧澤 俊(本学学生) 愛知県芸術劇場コンサートホール
>>詳細URL
2:2021/6/3:360 Reality Audio Creative Suite
名古屋芸術大学フィルハーモニー管弦楽団 第7回定期演奏会「オール ハイドン プログラム」
指揮 : 松井 慶太 合唱 : 名古屋芸術大学ハルモニア合唱団 Tp. 宮本 弦 Sop. 伊藤 晴 Alt. 谷田 育代
Ten. 中井 亮一 Bar. 塚本 伸彦 愛知県芸術劇場コンサートホール
>>詳細URL
3:2021/8/9:AURO-3D Creative Tools Suite/Auro-HeadPhone
名古屋芸術大学フィルハーモニー管弦楽団 第8 回定期演奏会「オール モーツァルト プログラム」
三井住友海上しらかわホール
>>詳細URL
📷 2014年に導入したRME MADIface XT。2台ありステージボックスからのマイク信号をメイン、バックアップの2式のDAW に分配できる。
📷 ステーシの平台の近くに設置したRME OctaMic XTC。ステージボックスはメインマイク用のRME Micstasyとともに2式あり、光ファイバーNeuatric opticalCONを用いMADIface XTと接続している。ステーシの平台の近くに設置したRME OctaMic XTC。ステージボックスはメインマイク用のRME Micstasyとともに2式あり、光ファイバーNeuatric opticalCONを用いMADIface XTと接続している。
サウンドコンセプト
バイノーラル研究を経て、どのようなサウンドコンセプトにし、各楽器を定位させると良いかを検討した。私たちは、定位について方法は2つあると考えた。それは、まず客席から舞台を見たように定位にするアイデアと、オーケストラの中にいるようなアイデアである。その両方を試したが、前者はヘッドホンで聴くと後ろは響きしかないように感じた。次に、オーケストラの中心、弦楽器と木管楽器の間にいるような定位を試したが、音楽的にはアレンジがより見通せるようになり、また音響的にも包まれている感じが増した。その結果より私たちは後者を選択した。以下は6月3日のコンサートライブ配信のWeb に記したサウンドコンセプトと360 Reality Audio Creative Suite での音源定位である。
📷 2021年6月3日「オール ハイドン プログラム」の定位図。後方に様々な楽器を定位させた。" バイノーラル・ステレオのコンセプトは「舞台上のオーケストラ中央で聴いているような感覚」。客席で聴いているようなサウンドではなく、オーケストラの弦楽器と木管楽器の間の位置で聴いているようにしたいと考えました。具体的には、弦楽器は前、木管楽器や合唱は後といったように360 度の空間に各楽器の音を配置しました。一方で通常ステレオのコンセプトは、「指揮者が聴いているような感覚」。指揮台上に配置したメインマイクを中心としながら左右と奥行きを表現したいと考えました。"
ポストプロダクション
📷 ポストプロダクションの様子。上はDolby Atmos Production Suiteでのバイノーラルミックス。
2020年10月に初めて行なったコンサートライブ配信が無事に終わった後、配信チームのメンバーは、「何度見てもリスナーに観てよかったと満足していただくことができる音楽」とするためには、様々なポストプロダクション作業が必要なことを理解した。映像のスイチングミス、カメラのブレやピントがうまくいかなかったところを他カメラのデータを用い修正、また音声もミキシング操作に起因するバランスがふさわしくないところは再ミックス、他にも演奏が音楽的にふさわしくなかったところはGPのテイクを用いて編集を行う必要もあり、最終的には必要のないノイズを除去するノイズレストレーションも行いながら、アーカイブ版として再度アップすることが必要であることがわかった。1回目の配信ではこれらの作業が大変に感じられたが、2回目以降は作業をどのように分担し、効率よく進めて行くかも考慮することができた。
終わりに
AES Fall Online 2021 Conventionでの発表のために、8月30日から9月6日まで本コースのFacebookとTwitterで告知し、オンラインでアンケートを行った。3回のコンサート音源の同じ箇所を通常ステレオとバイノーラルと交互に再生し、その印象を返答する方式で行い62人から返答を得た。
結果は、「バイノーラルは、標準ステレオよりも音楽に囲まれていると感じたか?」については、リスナーの69%が同意、もしくは強く同意したが、「バイノーラルは、標準ステレオよりその音楽にとっても好ましいと思ったか? 」については、リスナーの50%が同意、もしくは強く同意した。さらに、バイノーラルが将来において標準ステレオに取って代わるかについては、40%が同意しない、もしくはまったく同意しないという意見が得られた。これらの結果からは、私たちの音源制作方法についてはまだ改善の余地があるということと、やはり人々の耳のかたちは様々で、HRTFデータのパーソナライズ化が必須であるのではということを察することができた。
私たちの最終目標は「より音楽に没頭することができる音響体験」をリスナーに届けることである。コロナ禍で今までとは異なる生活様式となったが、本コースでは、このコロナを機にこれまで行って来なかったライブ配信に取り組むことができた。映像と音声を伴った制作は、教員にとっても学生にとっても未知のことに直面したが、これらに挑戦することは、とても貴重な取り組みとなった。今年度後期は、4回のオーケストラや吹奏楽、室内楽のコンサートの配信を予定しているが、これからも新しいテクノロジーを取り入れながら配信を行って行きたい。最後に、今回のバイノーラル配信の技術サポートの対応をいただいた、ドルビージャパン、ソニー ホームエンタテインメント& サウンドプロダクツ事業本部、Auro Technologiesの各氏に感謝申し上げたい。
Interview
配信チームの学生に、ライブ配信に参加してどのようなことを感じたかをインタビューした。
3年:武石智仁さん:テクニカルディレクター担当
本学でのライブ配信は、新型コロナウィルス感染症が流行する初期であった2020年3月に、ウインドアカデミーコースの定期演奏会の配信を学生のみで行ったことから始まりました。その時は十分な機材も知識もなく行いましたが、2020年8月に配信機材が導入され、これまで10回のライブ配信に参加しました。そして、2021年1月からは、何か新しい取り組みをしたいと考え、ステレオ音声だけではなくバイノーラル音声を用いた配信も行うことができました。私自身としては、ここまでの試行錯誤と成長が最も大切な経験となりました。初期の配信ではわからないことが多くありましたが、回数を重ねることで改善することができました。そして、この3回のバイノーラル配信では、技術的な部分をまとめる立場となり、メンバーと一つの配信を作り上げる中で、どのような映像や音声だと演奏がよりその音楽にとってふさわしくリスナーに届けられるかを考えました。回数を重ねるにつれ、単に演奏を伝えるだけでなく、演奏者の思いまでを届けることが大切なのだと気付くことができました。
3年:細川尚弥さん:バイノーラル・バランスエンジニア担当
8月9日の配信の際、AURO-3Dの制作用ツールを用いたバイノーラルミックスを担当しました。ミックスについては、映像とのマッチングのこともあり、前衛的すぎる定位のアイデアは用いることができないながら、ステレオでは作れない独特の空気感を構築することができました。配信中はマウスによるフェーダーワークのみでミックスを行う必要があり慌ただしく感じましたが、「このフェーダーがリスナーに繋がっている」というスリルを感じながらミックスすることができました。実は私は、昨年大学を休学し、半年間 Rock oN Company渋谷店にて働かせていただきました。その際、業界全体で3D Audioの普及に力を入れていることを感じました。そして、今回初めてバイノーラルのミックスに取り組むことができましたが、初めてシステムに触れた際は、通常ステレオとは異なり考えなければならないことが多く難しい印象でした。ただ、今回のミックスのコンセプトはステレオミックスからの拡張をしていく方法であったので、可能性とやりがいを実際に肌で感じることができました。今後は配信とバイノーラルを掛け合わせることについて深く考え、勉強していきたいです。
3年:澤田智季さん:バイノーラル・バランスエンジニア担当
私はこれまでに何度かライブ配信に参加させていただきました。1月29日の際にはバランスエンジニアを担当いたしました。本番ではステレオのミックスを担当しましたが、ポスプロダクションではバイノーラルのミックスを行いました。バイノーラルのミックスは通常のステレオのミックスと比べて、「こういう場合はこうした方が良い」というノウハウが無いので、私たちなりの発想で直感的にミックスを行いました。単に「バイオリンの音が後ろから出たらおもしろそうだから後ろに定位させよう」という考え方でミックスをすると前衛的なサウンドになってしまい、オーケストラ音楽には合わないと感じました。バイノーラルをより音楽的に聴かせようと思うと通常のステレオミックスの理解も必要だと感じました。今後、バイノーラルミックスのクオリティを上げるためには、「ステレオ+α」の考え方でミックスをすること、バイノーラルミックスを行うツールへの理解を深めることが大切だと感じました。
3年:伊東桜佳さん:プロデューサー、スイッチャー、バランスエンジニア担当
私はこれまでの配信の中で、プロデューサー、スイッチャー、バランスエンジニア等、様々なセクションを担当しました。音の面では、バイノーラルという新しい方法でステレオ配信とは違う空間感の良さを " 誰にでも分かりやすく" 伝えることの難しさを感じました。映像の面では、少しのミスもリスナーには気になる点となるため、スイッチャーとしてどう映像を選択していくかに難しさを感じました。音、映像ともにいくら計画を立てていても、本番は予定通りとはいかない分、メンバーとのコミュニケーションを大切にしながら、 " 今" を配信していくことはとても貴重な経験となりました。さらに私たちが伝えたいものを伝えられる配信ができるよう、これからも研究していきたいと思います。
3年:長谷川伊吹さん:カメラ担当
私はこれまで8回にわたりライブ配信に参加し、様々な役割を経験しましたが、その中でカメラの画角の決め方が一番難しく感じました。例えば、同じ楽器を撮る時でも、同じような画にならないようにするにはどうすれば良いのか、ということを心掛けていました。楽器をアップにした画にするのか、人ひとりの全身が入る程度にアップするのか、パート全体を撮るのかなど、様々な選択肢の中から瞬時にふさわしい画を選択することが難しいと感じました。反面、この活動を行なった1年半の中で、技術力だけでなく、事前準備や楽曲の理解が大切なのだと痛感しました。
1年:新留潤青さん:カメラ担当
私はライブ配信の技術を学ぶために配信チームに参加しました。これまで2回参加して2回ともカメラを担当しました。私の最初の考えは「オーケストラの配信なので視聴する人はまず音を重視しているだろう」と考えていました。しかし、実際のところ特に初めてオーケストラをインターネットで視聴する人にとっては、音よりも映像を大切に感じているのではないかと思いました。つまり、クラシックを聴き慣れていない人に、どんな楽器が何人いるか?、どんな会場にいるのか?という情報を音のみで伝えるのは技術的にとても難しいと感じたからです。しかし、今後、3D Audioがあれば音のみでもそれが可能かもしれません。YouTubeでのライブ配信で音楽を伝送する方法は、普段クラシックに馴染みのない人にも勧めやすく良い方法であると感じました。
3年:碓井陽香さん:スイッチャー担当
私は何度かライブ配信に参加させていただきましたが、そのほとんどがカメラやスイッチャーなどの映像関係でした。スイッチャーをやって感じたことは、" このライブ配信を観ている人にストレスを感じさせず画面を切り替えることがいかに難しいか" ということや、" どのように音楽と映像マッチングさせるか" ということです。映像の切り替え部分は事前にスコアに記し、ある程度決めていましたが、本番で違うカメラの方が良い画だと感じたら臨機応変に変えていくことや、音楽のシーンが移り変わっていくのに合わせて、映像もクロスフェードするなど、その場その場で考えてスイッチングしていくのがとてもスリリングで楽しかったです。
3年:中島琢人さん:プロデューサー担当
私は大学の配信チームでプロデューサーを2回担当しました。その際、1つの演奏会にとても多くの方が携わっていることを肌で感じることができました。そして、コロナ禍でも配信を通して音楽を届けられることにやりがいを感じながら、感謝の気持ちを持って取り組むことができ、最終的にはポストプロダクションを終えるまで、メンバーに支えられながらチームをまとめることができました。このように毎回新しいバイノーラルの技術的な取り組みに挑戦しながら互いに知識を高め合い協力して配信を行うことができ、とても貴重な経験になりました。
*ProceedMagazine2021-22号より転載
NEWS
2021/12/22
Proceed Magazine 2021-2022 販売開始! 特集:Sensation -感覚-
Proceed Magazine 2021-2022号が発刊です!ProceedMagazine2021-2022号のテーマは「SENSATION-感覚-」。
Apple Musicでの空間オーディオ配信など、これまで取り上げてきたイマーシブサウンドの世界が、いよいよコンテンツとなって世の中に広まり、新たな感動のカタチを生み出しています。
今号ではその最前線に立って制作を進める深田晃 氏、戸田信子 氏、陣内一真 氏、古賀 健一 氏、murozo 氏によるDolby Atmosクロストークや、日本初の360 Reality Audio専用スタジオとなる山麓丸スタジオのレポート、名古屋芸術大学で行われたバイノーラルライブ配信など、各所で取り組みが進むセンセーショナルな様子をとらえます。
2022年の制作をリードする情報が満載のProceedMagazine、さあ!皆さんもこのムーブメントをシェアしましょう!
Proceed Magazine 2021-2022 特集:SENSATION-感覚-
音楽配信が定着を見せ、現在はさらなる革命が進行中だ。品質の飛躍を第二世代目とするならば第三世代の登場だ。新しい表現空間を音楽に提供するものだと言っていい。もちろん、自然界の音の環境は4π(全方向360度)であり、従来のサラウンドはその再現に重きを置いていたが、今起きているイノベーションは音楽表現を刷新して定義するものになる。まるで美術館のインスタレーションを体験するような感覚だ。ヘッドフォンの普及やモビリティーの自動運転化、サウンドバー等々による音響技術革新は新たな体験機会を大幅に増やし続ける。
制作者はその空間表現をいかに使っていくのか?映像との融合は?制作するためのスタジオのあり方は?実際に音に包まれることでもたらされる感触は、確かにこれまでになかった体験であるが、それがリアルを究極にまで再現することなのか、イマジネーションあふれる新たな表現を行うスペースにするのか、作り手がどのようにこの空間を使うのかという部分はいまだに多くの可能性を秘めている。ひとつだけ確かなことは、それが新たな感動、驚き、喜び、閃き、といった人の感情を揺さぶる必要があるということだ。
Proceed Magazine 2021-2022
全136ページ
販売価格:500円(本体価格463円)
発行:株式会社メディア・インテグレーション
◎SAMPLE (画像クリックで拡大表示)
◎Contents
★People of Sound
SO-SO 氏インタビュー
★Rock oN SOUNDTRIP
Marvel フューチャーレボリューション
★LUSH HUB
時代に立ち向かうクリエイターとオーディエンスのために
★SENSATION -感覚-
We Want More Atmos! / イチからわかる!Dolby Atmos 制作システムアップ! /
360 Reality Audio 山麓丸スタジオのワークフローに迫る
★ROCK ON PRO 導入事例
株式会社CBCテレビ / 株式会社SureBiz
★ROCK ON PRO Technology
WOWOW ωプレイヤー / LUSH SHOWCASE !! /
NDI 5 / しまモンの、だってわかんないんだモン!!
★Build Up Your Studio
パーソナル・スタジオ設計の音響学 その23
特別編 音響設計実践道場 〜第五回 続ロビングエラー〜
★Power of Music
名古屋芸術大学 オーケストラ・バイノーラル・ライブ配信 /
AudioSourceRE / ROTH BART BARON 三船雅也
★BrandNew
iZotope / APOGEE / Universal Audio /
SSL / Focal / RME / Blackmagic Design /
Antelope / KORG / Non-Lethal Applications /
Sound Particles / SONNOX / DPA /
IK Multimedia / Neumann
★FUN FUN FUN
SCFEDイベのゴーゴー探報記〜! HATAKEN 氏
アメリカンミュージックの神髄
◎Proceed Magazineバックナンバーも好評販売中!
Proceed Magazine 2021
Proceed Magazine 2020-2021
Proceed Magazine 2020
Proceed Magazine 2019-2020
Proceed Magazine 2019
Proceed Magazineへの広告掲載依頼や、内容に関するお問い合わせ、ご意見・ご感想などございましたら、下記コンタクトフォームよりご送信ください。
NEWS
2021/12/21
WOWOWがハイレゾ・3D オーディオ再生に対応した新アプリ「ωプレイヤー」のβ版テスターを募集中!
現在、株式会社WOWOWが開発中の新アプリ「ω(オメガ)プレイヤー」のベータテスターを募集しています。リリースによると、2020年10月に同社が行った動画生配信実験での経験をきっかけに、(ハイレゾや3Dオーディオを)"確実に再生できる"プレイヤーアプリの開発を志し、NTTスマートコネクトと共同でそのアプリの実現を進めてきたとのこと。
ご自宅に3Dオーディオのスピーカー再生環境が整っているという方はもちろん、ヘッドホンでのバイノーラル再生にも対応しているため、こうした新時代の音楽体験にご興味をお持ちの方はどなたでも気軽に参加することができそうです。
なお、ωプレイヤーにはMac版とiPhone版の2種類存在し、Mac版はAURO-3Dを使用した3Dオーディオ再生、iPhone版はMQAを使用した高音質再生にフォーカスしているとのこと。(3Dオーディオ再生にはMac版が必要)
詳細は下記PDFよりご確認ください。
案内PDFダウンロード:マニア向け募集ご案内
■モニター期間:2021/12/22(水)~2022/2/10(木)
■対象となる方:iPhone、Mac をお持ちの方
■対応 OS:iOS → iOS14 以降 Mac → MacOS Mojave 以降
登録用リンク https://eq.wowow.co.jp/enq-mem/Hires_3/
※最終登録締め切り日は2022/1/28ですが、定員になると募集を締め切ります。
※初回メールは、ご登録いただいたWEBアカウントのメールアドレスへ12/22(水)にお送りする予定です。
※応募多数の場合、抽選とさせていただく場合があります。その場合、初回メールの配信をもって当選の連絡と代えさせていただきますので届かない場合は何卒ご容赦ください。
関連リンク:https://corporate.wowow.co.jp/
Media
2021/11/02
Sound on 4π Part 4 / ソニーPCL株式会社 〜360 Reality Audioのリアルが究極のコンテンツ体験を生む〜
ソニーグループ内でポストプロダクション等の事業を行っているソニーPCL株式会社(以下、ソニーPCL)。360RAは音楽向けとしてリリースされたが、360RAを含むソニーの360立体音響技術群と呼ばれる要素技術の運用を行っている。昨年システムの更新を行ったMA室はすでに360RAにも対応し、360立体音響技術群のテクノロジーを活用した展示会映像に対する立体音響の制作、360RAでのプロモーションビデオのMA等をすでに行っている。
独自のアウトプットバスで構成されたMA室
ソニーPCLは映像・音響技術による制作ソリューションの提供を行っており、360立体音響技術群を活用した新しいコンテンツ体験の創出にも取り組んでいる。現時点では映像と音声が一緒になった360RAのアウトプット方法は確立されていないため、クライアントのイメージを具現化するための制作ワークフロー構築、イベント等でのアウトプットを踏まえた演出提案など、技術・クリエイティブの両面から制作に携わっている。
この更新されたMA室はDolby Atmosに準拠したスピーカー設置となっている。360RA以前にポストプロダクションとしてDolby Atmosへの対応検討が進んでおり、その後に360RAへの対応という順番でソリューションの導入を行っている。そのため、天井にはすでにスピーカーが設置されていたので、360RAの特徴でもあるボトムへのスピーカーの増設で360RA制作環境を整えた格好だ。360RAはフルオブジェクトのソリューションとなるため、スピーカーの設置位置に合わせてカスタムのアウトプットバスを組むことでどのようなスピーカー環境にも対応可能である。360RACSには最初から様々なパターンのスピーカーレイアウトファイルが準備されているので、たいていはそれらで対応可能である。とはいえスタジオごとのカスタム設定に関しても対応を検討中とのことだ。
📷デスクの前方にはスクリーンが張られており、L,C,Rのスピーカーはこのスクリーンの裏側に設置されている。スクリーンの足元にはボトムの3本のスピーカーが設置されているのがわかる。リスニングポイントに対して机と干渉しないギリギリの高さと角度での設置となっている。
📷できる限り等距離となるように、壁に寄せて設置ができるよう特注のスタンドを用意した。スピーカーは他の製品とのマッチを考え、Neumann KH120が選ばれている。
360RAの制作にあたり、最低これだけのスピーカーがあったほうが良いというガイドラインはある。具体的には、ITU準拠の5chのサラウンド配置のスピーカーが耳の高さにあたる中層と上空の上層にあり、フロントLCRの位置にボトムが3本という「5.0.5.3ch」が推奨されている。フル・オブジェクトということでサブウーファーchは用意されていない。必要であればベースマネージメントによりサブウーファーを活用ということになる。ソニーPCLではDolby Atmos対応の部屋を設計変更することなく、ボトムスピーカーの増設で360RAへと対応させている。厳密に言えば、推奨環境とは異なるが、カスタムのアウトプット・プロファイルを作ることでしっかりと対応している。
ソニーPCLのシステムをご紹介しておきたい。一昨年の改修でそれまでの5.1ch対応の環境から、9.1.4chのDolby Atmos対応のスタジオへとブラッシュアップされている。スピーカーはProcellaを使用。このスピーカーは、奥行きも少なく限られた空間に対して多くのスピーカーを増設する、という立体音響対応の改修に向いている。もちろんそのサウンドクオリティーも非常に高い。筐体の奥行きが短いため、天井への設置時の飛び出しも最低限となり空間を活かすことができる。この更新時では、既存の5.1chシステムに対しアウトプットが増えるということ、それに合わせスピーカープロセッサーに必要とされる処理能力が増えること、これらの要素を考えてAudio I/OにはAvid MTRX、スピーカープロセッサーにはYAMAHA MMP1という組み合わせとなっている。
📷天井のスピーカーはProcellaを使用。内装に極力手を加えずに設置工事が行われた。天井裏の懐が取れないためキャビネットの厚みの薄いこのモデルは飛び出しも最小限にきれいに収まっている。
4π空間を使い、究極のコンテンツ体験を作る
なぜ、ソニーPCLはこれらの新しいオーディオフォーマットに取り組んでいるのであろうか?そこには、歴史的にも最新の音響技術のパイオニアであり、THX認証(THXpm3)でクオリティーの担保された環境を持つトップレベルのスタジオであるということに加えて、顧客に対しても安心して作業をしてもらえる環境を整えていくということに意義を見出しているからだ。5.1chサラウンドに関しても早くから取り組みを始め、先輩方からの技術の系譜というものが脈々と続いている。常に最新の音響技術に対してのファーストランナーであるとともに、3D音響技術に関してもトップランナーで在り続ける。これこそがソニーPCLとしての業界におけるポジションであり、守るべきものであるとのお話をいただいた。エンジニアとしての技術スキルはもちろんだが、スタジオは、音響設計とそこに導入される機材、そのチューニングと様々な要素により成り立っている。THXは一つの指標ではあるが、このライセンスを受けているということは、自信を持ってこのスタジオで聴いた音に間違いはないと言える、大きなファクターでもある。
📷デスク上は作業に応じてレイアウトが変更できるようにアームで取り付けられた2つのPC Displayと、Avid Artist Mix、JL Cooper Surrond Pannerにキーボード、マウスと機材は最小限に留めている。
映像に関してのクオリティーはここで多くは語らないが、国内でもトップレベルのポストプロダクションである。その映像と最新の3D立体音響の組み合わせで、「究極のコンテンツ体験」とも言える作品を作ることができるスタジオになった。これはライブ、コンサート等にとどまらず、歴史的建造物、自然環境などの、空気感をあますことなく残すことができるという意味が含まれている。自然環境と同等の4πの空間を全て使い音の記録ができる、これは画期的だ。商用としてリリースされた初めての完全なる4πのフォーマットと映像の組み合わせ、ここには大きな未来を感じているということだ。
また、映像とのコラボレーションだけではなく、ソニー・ミュージックスタジオのエンジニアとの交流も360RAによりスタートしているということだ。これまでは、音楽スタジオとMAスタジオという関係で素材レベルのやり取りはあったものの、技術的な交流はあまりなかったということだが、360RAを通じて今まで以上のコミュニケーションが生まれているということだ。ソニーR&Dが要素を開発した360立体音響技術群、それを実際のフォーマットに落とし込んだソニーホームエンタテイメント&サウンドプロダクツなど、ソニーグループ内での協業が盛んとなり今までにない広がりを見せているということだ。このソニーグループ内の協業により、どのような新しい展開が生まれるのか?要素技術である360立体音響技術群の大きな可能性を感じる。すでに、展示会場やイベント、アミューズメントパークなど360RAとは異なる環境でこの技術の活用が始まってきている。フルオブジェクトには再生環境を選ばない柔軟性がある。これから登場する様々なコンテンツにも注目をしたいところだ。
現場が触れた360RAのもたらす「リアル」
360RAに最初に触れたときにまず感じたのは、その「リアル」さだったということだ。空間が目の前に広がり、平面のサラウンドでは到達できなかった本当のリアルな空間がそこに再現されていることに大きな驚きがあったという。ポストプロダクションとしては、リアルに空間再現ができるということは究極の目的の一つでもある。音楽に関しては、ステレオとの差異など様々な問題提議が行われ試行錯誤をしているが、映像作品にこれまでにない「リアル」な音響空間が加わるということは大きな意味を持つ。報道、スポーツ中継などでも「リアル」が加わることは重要な要素。当初は即時性とのトレードオフになる部分もあるかもしれない。立体音響でのスポーツ中継など想像しただけでも楽しみになる。
実際の使い勝手の詳細はまだこれからといった段階だが、定位をDAWで操作する感覚はDTS:Xに近いということだ。将来的にはDAWの標準パンナーで動かせるように統合型のインターフェースになってほしいというのが、現場目線で求める将来像だという。すでにDAWメーカー各社へのアプローチは行っているということなので、近い将来360RAネイティブ対応のDAWなども登場するのではないだろうか。
もともとサラウンドミックスを多数手がけられていたことから、サウンドデザイン視点での試行錯誤もお話しいただくことができた。リバーブを使って空間に響きを加える際にクアッド・リバーブを複数使用し立方体を作るような手法。移動を伴うパンニングの際に、オブジェクトの移動とアンプリチュード・パンを使い分ける手法など、360RAの特性を色々と研究しながら最適なミックスをする工夫を行っているということだ。
3Dと呼ばれる立体音響はまさに今黎明期であり、さまざまなテクノロジーが登場している途中の段階とも言える。それぞれのメリット、デメリットをしっかりと理解し、適材適所で活用するスキルがエンジニアに求められるようになってきている。まずは、試すことから始めそのテクノロジーを見極めていく必要があるということをお話いただいた。スペックだけではわからないのが音響の世界である。まずは、実際に触ってミックスをしてみて初めて分かる、気づくことも多くある。そして、立体音響が普及していけばそれに合わせた高品位な映像も必然的に必要となる。高品位な映像があるから必要とされる立体音響。その逆もまた然りということである。
📷上からAntelope Trinity、Avid SYNC HD,Avid MTRX、YAMAHA MMP1が収まる。このラックがこのスタジオのまさに心臓部である。
📷ポスプロとして従来のサラウンドフォーマットへの対応もしっかりと確保している。Dolby Model DP-564はまさにその証ともいえる一台。
📷このiPadでYAMAHA MMP1をコントロールしている。このシステムが多チャンネルのモニターコントロール、スピーカーマネージメントを引き受けている。
ソニーPCLでお話を伺った喜多氏に、これから立体音響、360RAへチャレンジする方へのコメントをいただいた。「まずは、想像力。立体空間を音で表現するためには想像力を膨らませてほしい。従来のステレオ、5.1chサラウンドのイメージに縛られがちなので、想像力によりそれを広げていってもらいたい。この情報過多の世界で具体例を見せられてばかりかもしれないが、そもそも音は見えないものだし、頭の中で全方向からやってくる音をしっかりとイメージして設計をすることで、立体音響ならではの新しい発見ができる。是非とも誰もが想像していなかった新しい体験を作り上げていってほしい」とのことだ。自身もソニーグループ内での協業により、シナジーに対しての高い期待と360RAの持つ大きな可能性を得て、これからの広がりが楽しみだということだ。これから生まれていく360RAを活用した映像作品は間違いなく我々に新しい体験を提供してくれるだろう。
ソニーPCL株式会社
技術部門・アドバンスドプロダクション2部
テクニカルプロダクション1課
サウンドスーパーバイザー 喜多真一 氏
*取材協力:ソニー株式会社
*ProceedMagazine2021号より転載
Media
2021/10/26
Sound on 4π Part 3 / 360 Reality Audio Creative Suite 〜新たなオーディオフォーマットで行う4π空間への定位〜
360 Reality Audio(以下、360RA)の制作ツールとして満を持してこの4月にリリースされた360 Reality Audio Creative Suite(以下、360RACS)。360RAの特徴でもあるフル・オブジェクト・ミキシングを行うツールとしてだけではなく、360RAでのモニター機能にまで及び、将来的には音圧調整機能も対応することを計画している。具体的な使用方法から、どのような機能を持ったソフトウェアなのかに至るまで、様々な切り口で360RACSをご紹介していこう。
>>Part 1 :360 Reality Audio 〜ついにスタート! ソニーが生み出した新たな時代への扉〜
>>Part 2 :ソニー・ミュージックスタジオ 〜360 Reality Audio Mixing、この空間を楽しむ〜
全周=4π空間内に音を配置
360RACSのワークフローはまとめるとこのようになる。プラグインであるということと、プラグインからモニタリング出力がなされるという特殊性。最終のエンコードまでが一つのツールに詰め込まれているというところをご確認いただきたい。
360RACSは、アメリカAudio Futures社がリリースするプラグインソフトである。執筆時点での対応プラグイン・フォーマットはAAX、VSTとなっている。対応フォーマットは今後随時追加されていくということなので、現時点で対応していないDAWをお使いの方も読み飛ばさずに待ってほしい。Audio Futures社は、音楽ソフトウェア開発を行うVirtual Sonic社の子会社であり、ソニーとの共同開発契約をもとに、ソニーから技術提供を受け360RACSを開発している。360RAコンテンツの制作ツールは、当初ソニーが研究、開発用として作ったソフトウェア「Architect」のみであった。しかしこの「Architect」は、制作用途に向いているとは言えなかったため、現場から様々なリクエストが集まっていたことを背景に、それらを汲み取り制作に向いたツールとして新たに開発されたのがこの360RACSということになる。
それでは具体的に360RACSを見ていきたい。冒頭にも書いたが360RACSはプラグインである。DAWの各トラックにインサートすることで動作する。DAWの各トラックにインサートすると、360RACS上にインサートされたトラックが追加されていく。ここまで準備ができれば、あとは360RACS内で全周=4π空間内にそれぞれの音を配置していくこととなる。これまで音像定位を変化させるために使ってきたパンニングという言葉は、水平方向の移動を指す言葉である。ちなみに、縦方向の定位の移動を指す言葉はチルトだ。立体音響においてのパンニングにあたる言葉は確立されておらず、空間に定位・配置させるという表現となってしまうことをご容赦願いたい。
360RACS内で音像を定位させるには、画面に表示された球体にある音像の定位位置を示すボール状のポイントをドラッグして任意の場所に持っていけば良い。後方からと、上空からという2つの視点で表示されたそれぞれを使うことで、簡単に任意の場所へと音像を定位させることができる。定位をさせた位置情報はAzimuth(水平方向を角度で表現)とElevation(垂直方向を角度で表現)の2つのパラメータが与えられる。もちろん、数値としてこれらを入力することも可能である。
📷360RACSに送り込まれた各オブジェクトは、Azimuth(アジマス)、Elavation、Gainの3つのパラメーターにより3D空間内の定位を決めていくこととなる。
360RAでは距離という概念は無い。これは現時点で定義されているMPEG-Hの規格にそのパラメータの運用が明確に定義されていないということだ。とはいえ、今後サウンドを加工することで距離感を演出できるツールやなども登場するかもしれない。もちろん音の強弱によっても遠近をコントロールすることはできるし、様々な工夫により擬似的に実現することは可能である。ただ、あくまでも360RAのフォーマット内で、という限定された説明としては距離のパラメーターは無く、360RAにおいては球体の表面に各ソースとなる音像を定位させることができるということである。この部分はネガティブに捉えないでほしい。工夫次第でいくらでも解決方法がある部分であり、これからノウハウ、テクニックなどが生まれる可能性が残された部分だからだ。シンプルな例を挙げると、360RACSで前後に同じ音を定位させ、そのボリューム差を変化させることで、360RAの空間内にファントム定位を作ることも可能だということである。
4π空間に定位した音は360RACSで出力
360RACSはそのままトラックにインサートするとプリフェーダーでインサートされるのでDAWのフェーダーは使えなくなる。もちろんパンも同様である。これはプラグインのインサートポイントがフェーダー、パンよりも前の段階にあるということに起因しているのだが、360RACS内に各トラックのフェーダーを用意することでこの部分の解決策としている。音像の定位情報とともに、ボリューム情報も各トラックのプラグインへオートメーションできる情報としてフィードバックされているため、ミキシング・オートメーションのデータは全てプラグインのオートメーションデータとしてDAWで記録されることとなる。
📷各トラックにプラグインをインサートし、360RACS内で空間定位を設定する。パンニング・オートメーションはプラグイン・オートメーションとしてDAWに記録されることとなる。
次は、このようにして4π空間に定位した音をどのようにモニタリングするのか?ということになる。360RACSはプラグインではあるが、Audio Interfaceを掴んでそこからアウトプットをすることができる。これは、DAWが掴んでいるAudio Outputは別のものになる。ここでヘッドホンであれば2chのアウトプットを持ったAudio Interfaceを選択すれば、そこから360RACSでレンダリングされたヘッドホン向けのバイノーラル出力が行われるということになる。スピーカーで聴きたい場合には、標準の13ch(5.0.5.3ch)を始め、それ以外にもITU 5.1chなどのアウトプットセットも用意されている。もちろん高さ方向の再現を求めるのであれば、水平面だけではなく上下にもスピーカーが必要となるのは言うまでもない。
📷360RACSの特徴であるプラグインからのオーディオ出力の設定画面。DAWから受け取った信号をそのままスピーカーへと出力することを実現している。
360RACSの機能面を見ていきたい。各DAWのトラックから送られてきたソースは360RACS内でグループを組むことができる。この機能により、ステレオのソースなどの使い勝手が向上している。全てを一つのグループにしてしまえば、空間全体が回転するといったギミックも簡単に作れるということだ。4π空間の表示も上空から見下ろしたTop View、後方から見たHorizontal View、立体的に表示をしたPerspective Viewと3種類が選択できる。これらをの表示を2つ組み合わせることでそれぞれの音像がどのように配置されているのかを確認することができる。それぞれの定位には、送られてきているトラック名が表示されON/OFFも可能、トラック数が多くなった際に文字だらけで見にくくなるということもない。
360RACS内に配置できるオブジェクトは最大128ch分で、各360RACS内のトラックにはMute/Soloも備えられる。360RACSでの作業の際には、DAWはソースとなる音源のプレイヤーという立ち位置になる。各音源は360RACSのプラグインの前段にEQ/Compなどをインサートすることで加工することができるし、編集なども今まで通りDAW上で行えるということになる。その後に、360RACS内で音像定位、ボリュームなどミキシングを行い、レンダリングされたアウトプットを聴くという流れだ。このレンダリングのプロセスにソニーのノウハウ、テクノロジーが詰まっている。詳細は別の機会とするが、360立体音響技術群と呼ばれる要素技術開発で積み重ねられてきた、知見やノウハウにより最適に立体空間に配置されたサウンドを出力している。
Level 1~3のMPEG-Hへエンコード
📷MPEG-Hのデータ作成はプラグインからのExportにより行う。この機能の実装により一つのプラグインで360RAの制作位の工程を包括したツールとなっている。
ミックスが終わった後は、360RAのファイルフォーマットであるMPEG-Hへエンコードするという処理が残っている。ここではLevel 1~3の3つのデータを作成することになり、Level 1が10 Object 64 0kbps、Level 2が16 Object 1Mbps、Level 3が 24 Object 1.5Mbpsのオーディオデータへと変換を行う。つまり、最大128chのオーディオを最小となるLevel 1の10trackまで畳み込む必要があるということだ。具体的には、同じ位置にある音源をグループ化してまとめていくという作業になる。せっかく立体空間に自由に配置したものを、まとめてしまうのはもったいないと感じるかもしれないが、限られた帯域でのストリーミングサービスを念頭とした場合には欠かせない処理だ。
とはいえ、バイノーラルプロセスにおいて人間が認知できる空間はそれほど微細ではないため、できる限り128chパラのままでの再現に近くなるように調整を行うこととなる。後方、下方など微細な定位の認知が難しい場所をまとめたり、動きのあるもの、無いものでの分類したり、そういったことを行いながらまとめることとなる。このエンコード作業も360RACS内でそのサウンドの変化を確認しながら行うことが可能である。同じ360RACSの中で作業を行うことができるため、ミックスに立ち返りながらの作業を手軽に行えるというのは大きなメリットである。このようなエンコードのプロセスを終えて書き出されたファイルが360RAのマスターということになる。MPEG-Hなのでファイルの拡張子は.MP4である。
執筆時点で、動作確認が行われているDAWはAvid Pro ToolsとAbleton Liveとなる。Pro Toolsに関しては、サラウンドバスを必要としないためUltimateでなくても作業が可能だということは特筆すべき点である。言い換えれば、トラック数の制約はあるがPro Tools Firstでも作業ができるということだ。全てが360RACS内で完結するため、ホストDAW側には特殊なバスを必要としない。これも360RACSの魅力の一つである。今後チューニングを進め、他DAWへの対応や他プラグインフォーマットへの展開も予定されている。音楽に、そして広義ではオーディオにとって久々の新フォーマットである360RAは制作への可能性を限りなく拡げそうだ。
*取材協力:ソニー株式会社
*ProceedMagazine2021号より転載
>>Part 2はこちらから
https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-2/
>>Part 1はこちらから
https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-1/
Media
2021/10/19
Sound on 4π Part 2 / ソニー・ミュージックスタジオ 〜360 Reality Audio Mixing、この空間を楽しむ〜
国内の正式ローンチに合わせ、多数の邦楽楽曲が360RAでミックスされた。その作業の中心となったのがソニー・ミュージックスタジオである。マスタリングルームのひとつを360RAのミキシングルームに改装し、2021年初頭より60曲あまりがミキシングされたという。そのソニー・ミュージックスタジオで行われた実際のミキシング作業についてお話を伺った。
>>Part 1:360 Reality Audio 〜ついにスタート! ソニーが生み出した新たな時代への扉〜
2ミックスの音楽性をどう定位していくか
株式会社ソニー・ミュージックソリューションズ ソニー・ミュージックスタジオ
レコーディング&マスタリングエンジニア 鈴木浩二 氏(右)
レコーディングエンジニア 米山雄大 氏(左)
2021年3月23日発のプレスリリースにあった楽曲のほとんどは、ここソニー・ミュージックスタジオでミキシングが行われている。360RAでリリースされた楽曲の選定は、各作品のプロデューサー、アーティストに360RAをプレゼン、実際に体験いただき360RAへの理解を深め、その可能性に賛同を得られた方から制作にあたったということだ。
実際に360RAでミキシングをしてみての率直な感想を伺った。ステレオに関しての経験は言うまでもなく、5.1chサラウンドでの音楽のミキシング作業の経験も豊富にある中でも、360RAのサウンドにはとにかく広大な空間を感じたという。5.1chサラウンドでの音楽制作時にもあった話だが、音楽として成立させるために音の定位はどこの位置までが許容範囲なのか?ということは360RAでも起こること。やはりボーカルなどのメロディーを担うパートが、前方に定位をしていないと違和感を感じてしまうし、平面での360度の表現から高さ方向の表現が加わったことで、5.1chから更に広大な空間に向き合うことになり正直戸惑いもあったということだ。その際は、もともとの2chのミックスを音楽性のリファレンスとし、その音楽性を保ったまま空間に拡張していくというイメージにしたという。
360RAは空間が広いため、定位による表現の自由度は圧倒的だ。白紙の状態から360RAの空間に音を配置して楽曲を成立させるには、やはり従来の2chミキシングで培った表現をベースに拡張させる、という手法を取らないとあまりにも迷いが多い。とはいえ、始まったばかりの立体音響でのミキシング、「正解はない」というのもひとつの答えである。さらなる試行錯誤の中から、新しいセオリー、リファレンスとなるような音像定位が生まれてくるのではないだろうか。もちろん従来のステレオで言われてきた、ピラミッド定位などというミキシングのセオリーをそのまま360RAで表現しても良い。その際に高さを表現するということは、ステレオ・ミキシングでは高度なエンジニアリング・スキルが要求されたが、360RAではオブジェクト・パンの定位を変えるだけ、この簡便さは魅力の一つだ。
試行錯誤の中から得られた経験としては、360RAの広大な空間を広く使いすぎてしまうと、細かな部分や気になる部分が目立ってしまうということ。実際に立体音響のミキシングで直面することだが、良くも悪くもステレオミキシングのようにそれぞれの音は混ざっていかない。言葉で言うのならば、ミキシング(Mixing)というよりもプレイシング(Placing)=配置をしていくという感覚に近い。
また、360RAだけではなく立体音響の大きな魅力ではあるが、クリアに一つ一つのサウンドが聴こえてくるために、ステレオミックスでは気にならなかった部分が気になってしまうということも起こり得る。逆に、アーティストにとってはこだわりを持って入れたサウンド一つ一つのニュアンスが、しっかりとしたセパレーションを持って再生されるためにミックスに埋もれるということがない。これは音楽を生み出す側としては大きな喜びにつながる。このサウンドのセパレーションに関しては、リスナーである我々が2chに収められたサウンドに慣れてしまっているだけかもしれない。これからは、この「混ざらない」という特徴を活かした作品も生まれてくるのではないだろうか。実際に音楽を生み出しているアーティストは2chでの仕上がりを前提に制作し、その2chの音楽性をリファレンスとして360RAのミキシングが行われている。当初より360RAを前提として制作された楽曲であれば、全く新しい世界が誕生するのかもしれない。
実例に即したお話も聞くことができた。ゴスペラーズ「風が聴こえる」を360RAでミキシングをした際に、立体的にサウンドを動かすことができるため、当初は色々と音に動きのあるミキシングを試してみたという。ところが、動かしすぎることにより同時に主題も移動してしまって音楽性が損なわれてしまったそうだ。その後のミックスでは、ステレオよりも広くそれぞれのメンバーを配置することで、ステレオとは異なるワイドなサウンドが表現しているという。360RAでミキシングをすることで、それぞれのメンバーの個々のニュアンスがしっかりとクリアに再生され、ステレオであれば聴こえなかった音がしっかりと届けられるという結果が得られ、好評であったということだ。まさに360RAでのミキシングならではのエピソードと言えるだろう。
📷元々がマスタリングルームあったことを偲ばせる巨大なステレオスピーカーの前に、L,C,R+ボトムL,C,Rの6本のスピーカーがスタンドに設置されている。全てMusik Electornic Gaithain m906が採用され、純正のスタンドを改造してボトムスピーカーが据え付けられている。天井には天吊で同じく906があるのがわかる。
高さ方向をミックスで活用するノウハウ
5.1chサラウンドから、上下方向への拡張がなされた360RA。以前から言われているように人間の聴覚は水平方向に対しての感度は高いが、上下方向に関しては低いという特徴を持っている。これは、物理的に耳が左右についているということに起因する。人間は水平方向の音を左右の耳に届く時間差で認識している、単純に右から来る音は右耳のほうが少しだけ早く聴こえるということだ。しかし、高さ方向に関してはそうはいかない。これは、こういう音はこちらから聴こえている「はず」という人の持つ経験で上下を認識しているためだ。よって、360RAでの上下方向のミキシングはセオリーに沿った音像配置を物理的に行う、ということに向いている。例えば、低音楽器を下に、高音楽器を上にといったことだ。これによりその特徴が強調された表現にもなる。もちろん、逆に配置して違和感を効果的に使うといった手法もあるだろう。また、ステレオMIXでボーカルを少し上から聴こえるようにした「おでこから聴こえる」などと言われるミックスバランスも、物理的にそれを配置することで実現が可能である。これにより、ボーカルの明瞭度を増して際立たせることもできるだろう。
音楽的なバランスを取るためにも、この上下方向をサウンドの明瞭度をつけるために活用するのは有効だ、という経験談もいただくことができた。水平面より少し上のほうが明瞭度が高く聴こえ、下に行けば行くほど明瞭度は落ちる。上方向も行き過ぎるとやはり明瞭度は落ちる。聴かせたいサウンドを配置する高さというのはこれまでにないファクターではあるが、360RAのミキシングのひとつのポイントになるのではないだろうか。また、サウンドとの距離に関しても上下で聴感上の変化があるということ。上方向に比べ、下方向のほうが音は近くに感じるということだ。このように360RAならではのノウハウなども、試行錯誤の中で蓄積が始まっていることが感じられる。
📷天井には、円形にバトンが設置され、そこにスピーカーが吊るされている。このようにすることでリスニングポイントに対して等距離となる工夫がなされている。
📷ボトムのスピーカー。ミドルレイヤーのスピーカーと等距離となるように前方へオフセットして据え付けられているのがわかる。
理解すべき広大な空間が持つ特性
そして、360RAに限らず立体音響全般に言えることなのだが、サウンド一つ一つがクリアになり明瞭度を持って聴こえるという特徴がある。また、トータルコンプの存在していない360RAの制作環境では、どうしてもステレオミックスと比較して迫力やパンチに欠けるサウンドになりやすい。トータルコンプに関しては、オブジェクトベース・オーディオ全てにおいて存在させることが難しい。なぜなら、オブジェクトの状態でエンドユーザーの手元にまで届けられ、最終のレンダリング・プロセスはユーザーが個々に所有する端末上で行われるためだ。また、バイノーラルという技術は、音色(周波数分布)や位相を変化させることで擬似的に上下定位や後方定位を作っている。そのためトータルコンプのような、従来のマスタリング・プロセッサーはそもそも使うことができない。
そして、比較対象とされるステレオ・ミックスはある意味でデフォルメ、加工が前提となっており、ステレオ空間という限られたスペースにノウハウを駆使してサウンドを詰め込んだものとも言える。広大でオープンな空間を持つ立体音響にパンチ感、迫力というものを求めること自体がナンセンスなのかもしれないが、これまでの音楽というものがステレオである以上、これらが比較されてしまうのはある意味致し方がないのかもしれない。360RAにおいても個々の音をオブジェクトとして配置する前にEQ/COMPなどで処理をすることはもちろん可能だ。パンチが欲しいサウンドはそのように聴こえるよう予め処理をしておくことで、かなり求められるニュアンスを出すことはできるということだ。
パンチ感、迫力といったお話をお伺いしていたところ、ステレオと360RAはあくまでも違ったもの、是非とも360RAならではの体験を楽しんでほしいというコメントをいただいた。まさにその通りである。マキシマイズされた迫力、刺激が必要であればステレオという器がすでに存在している。ステレオでは表現、体験のできない新しいものとして360RAを捉えるとその魅力も際立つのではないだろうか。ジャズなどのアコースティック楽器やボーカルがメインのものは不向きかもしれないが、ライブやコンサート音源など空間を表現することが得意な360RAでなければ再現できない世界もある。今後360RAでの完成を前提とした作品が登場すればその魅力は更に増すこととなるだろう。
360RAならではの魅力には、音像がクリアに分離して定位をするということと空間再現能力の高さがある。ライブ会場の観客のリアクションや歓声などといった空気感、これらをしっかりと収録しておくことでまさにその会場にいるかのようなサウンドで追体験できる。これこそ立体音響の持つイマーシブ感=没入感だと言えるだろう。すでに360RAとしてミキシングされたライブ音源は多数リリースされているので是非とも楽しんでみてほしい。きっとステレオでは再現しえない”空間”を感じていただけるであろう。屋根があるのか?壁はどのようになっているのか?といった会場独自のアコースティックから、残響を収録するマイクの設置位置により客席のどのあたりで聴いているようなサウンドにするのか?そういったことまで360RAであれば再現が可能である。
この空間表現という部分に関しては、今後登場するであろうディレイやリバーブに期待がかかる。本稿執筆時点では360RAネイティブ対応のこれら空間系のエフェクトは存在せず、今後のリリースを待つこととなる。もちろん従来のリバーブを使い、360RAの空間に配置することで残響を加えることは可能だが、もっと直感的に作業ができるツール、360RAの特徴に合わせたツールの登場に期待がかかる。
360RAにおけるマスタリング工程の立ち位置
かなり踏み込んだ内容にはなるが、360RAの制作において試行錯誤の中から答えが見つかっていないという部分も聞いた、マスタリングの工程だ。前述の通り、360RAのファイナルのデータはLevel 1~3(10ch~24ch)に畳み込まれたオブジェクト・オーディオである。実作業においては、Level 1~3に畳み込むエンコードを行うことが従来のマスタリングにあたるのだが、ステレオの作業のようにマスタリングエンジニアにミックスマスターを渡すということができない。このLevel 1~3に畳み込むという作業自体がミキシングの延長線上にあるためだ。
例えば、80chのマルチトラックデータを360RAでミキシングをする際には、作業の工程として80ch分のオブジェクト・オーディオを3D空間に配置することになり、これらをグループ化して10ch~24chへと畳み込んでいく。単独のオブジェクトとして畳み込むのか?オブジェクトを2つ使ってファントムとして定位させるのか、そういった工程である。これらの作業を行いつつ、同時に楽曲間のレベル差や音色などを整えるということは至難の業である。また、個々のオブジェクト・オーディオはオーバーレベルをしていなかったとしても、バイノーラルという2chに畳み込む中でオーバーレベルしてしまうということもある。こういった部分のQC=Quality Controlに関しては、まだまだ経験も知見も足りていない。
もちろん、そういったことを簡便にチェックできるツールも揃っていない。色々と工夫をしながら進めているが、現状ではミキシングをしたエンジニアがそのまま作業の流れで行うしかない状況になっているということだ。やはり、マスタリング・エンジニアという第3者により最終のトリートメントを行ってほしいという思いは残る。そうなると、マスタリングエンジニアがマルチトラックデータの取扱いに慣れる必要があるのか?それともミキシングエンジニアが、さらにマスタリングの分野にまで踏み込む必要があるのか?どちらにせよ今まで以上の幅広い技術が必要となることは間違いない。
個人のHRTFデータ取得も現実的な方法に
ヘッドホンでの再生が多くなるイメージがある360RAのミキシングだが、どうしてもバイノーラルとなると細かい部分の詰めまでが行えないため、実際の作業自体はやはりスピーカーがある環境のほうがやりやすいとのことだ。そうとはいえ、360RAに対応したファシリティーは1部屋となるため、ヘッドホンを使ってのミキシングも平行して行っているということだが、その際には360RAのスピーカーが用意されたこの部屋の特性と、耳にマイクを入れて測定をした個人個人のHRTFデータを使い、かなり高い再現性を持った環境でのヘッドホンミックスが行えているということだ。
個人のHRTFデータを組み込むという機能は、360RACSに実装されている。そのデータをどのようにして測定してもらい、ユーザーへ提供することができるようになるのかは、今後の課題である。プライベートHRTFがそれほど手間なく手に入り、それを使ってヘッドホンミックスが行えるようになるということが現実になれば、これは画期的な出来事である。これまで、HRTFの測定には椅子に座ったまま30分程度の計測時間が必要であったが、ソニーの独自技術により耳にマイクを入れて30秒程度で計測が完了するということを筆者も体験している。これが一般にも提供されるようになれば本当に画期的な出来事となる。
📷Pro Tools上に展開された360 Reality Audio Creative Suite(360RACS)
「まだミキシングに関しての正解は見つかっていない。360RACSの登場で手軽に制作に取り組めるようになったので、まずは好きに思うがままに作ってみてほしい。」これから360RAへチャレンジをする方へのコメントだ。360RAにおいても録音をするテクニック、個々のサウンドのトリートメント、サウンドメイクにはエンジニアの技術が必要である。そして、アーティストの持つ生み出す力、創造する力を形にするための360RAのノウハウ。それらが融合することで大きな化学反応が起こるのではないかということだ。試行錯誤は続くが、それ自体が新しい体験であり、非常に楽しんで作業をしているということがにじむ。360RAというフォーマットを楽しむ、これが新たな表現への第一歩となるのではないだろうか。
>>Part 3:360 Reality Audio Creative Suite 〜新たなオーディオフォーマットで行う4π空間への定位〜
*取材協力:ソニー株式会社
*ProceedMagazine2021号より転載
https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-3/
https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-1/
Media
2021/10/12
Sound on 4π Part 1 / 360 Reality Audio 〜ついにスタート! ソニーが生み出した新たな時代への扉〜
ついに2021年4月16日に正式リリースとなった 360 Reality Audio(以下、360RA)。読み方は”サンロクマル・リアリティー・オーディオ”となるこの最新のオーディオ体験。これまでにも色々とお伝えしてきているが、日本国内でのリリースと同時に、360RAの制作用のツールとなる360 Reality Audio Creative Suiteもリリースされている。360RAとは一体何なのか?どのようにして作ればよいのか?まずは、そのオーバービューからご紹介していこう。
ソニーが作り出してきたオーディオの時代
まず最初に、ソニーとAudioの関係性を語らないわけにはいかない。コンシューマ・オーディオの分野では、常にエポックメイキングな製品を市場にリリースしてきている。その代表がウォークマン®であろう。今では当たり前となっている音楽を持ち歩くということを世界で初めて実現した電池駆動のポータブル・カセットテープ・プレイヤーである。10代、20代の読者は馴染みが薄いかもしれないが、据え置きの巨大なオーディオコンポや、ラジオとカセットプレイヤーを一体にしたラジカセが主流だった時代に、電池で動作してヘッドホンでどこでも好きな場所で音楽を楽しむことができるウォークマン®はまさにエポックな製品であり、音楽の聴き方を変えたという意味では、時代を作った製品であった。みんなでスピーカーから出てくる音楽を楽しむというスタイルから、個人が好きな音楽をプライベートで楽しむという変化を起こしたわけだ。これは音楽を聴くという体験に変化をもたらしたとも言えるだろう。
ほかにもソニーは、映画の音声がサラウンドになる際に大きなスクリーンの後ろで通常では3本(L,C,R)となるスピーカーを5本(L,LC,C,RC,R)とする、SDDS=Sony Dynamic Digital Soundというフォーマットを独自で提唱したり、ハイレゾという言葉が一般化する以前よりPCMデジタルデータでは再現できない音を再生するために、DSDを採用したスーパーオーディオCD(SACD)を作ったり、と様々な取り組みを行っている。
そして、プロフェッショナル・オーディオ(音響制作機器)の市場である。1980年代よりマルチチャンネル・デジタルレコーダーPCM-3324/3348シリーズ、Oxford R3コンソール、CDのマスタリングに必須のPCM-1630など、音声、特に音楽制作の中心にはソニー製品があった。いまではヘッドホン、マイクは例外に、プロシューマー・マーケットでソニー製品を見ることが少なくなってしまっているが、その要素技術の研究開発は続けられており、コンシューマー製品へしっかりとフィードバックが行われているのである。「制作=作るため」の製品から「利用する=再生する」製品まで、つまりその技術の入口から出口までの製品を揃えていたソニーのあり方というのは、形を変えながらも続いているのである。
PCM-3348
PCM-3348HR
Oxford R3
PCM-1630
このようなソニーとAudioの歴史から見えてくるキーワードは、ユーザーへの「新しい体験の提供」ということである。CDではノイズのないパッケージを提供し、ウォークマン®ではプライベートで「どこでも」音楽を楽しむという体験を、SDDSは映画館で最高の臨場感を作り出し、SACDはまさしく最高となる音質を提供した。全てが、ユーザーに対して新しい体験を提供するという一つの幹から生えているということがわかる。新しい体験を提供するための技術を、難解なテクノロジーの状態からスタイリッシュな体験に仕立てて提供する。これがまさにソニーのAudio、実際はそれだけではなく映像や音声機器にも共通するポリシーのように感じる。
全周(4π)を再現する360RA
ソニーでは要素技術として高臨場感音響に関しての研究が続けられていた。バーチャル・サラウンド・ヘッドホンや、立体音響を再生できるサラウンドバーなどがこれまでにもリリースされているが、それとはまた別の技術となる全周(4π)を再現するオーディオ技術の研究だ。そして、FraunhoferがMPEG-H Audioを提唱した際にこの技術をもって参画したことで、コンテンツとなるデータがその入れ物(コンテナ)を手に入れて一気に具体化、2019年のCESでの発表につながっている。CES2019の時点ではあくまでも技術展示ということだったが、その年の10月には早くもローンチイベントを行い欧米でのサービスをスタートさせている。日本国内でも各展示会で紹介された360RAは、メディアにも取り上げられその存在を知った方も多いのではないだろうか。特に2020年のCESでは、ソニーのブースでEVコンセプトの自動車となるVISION-Sが展示され大きな話題を呼んだが、この車のオーディオとしても360RAが搭載されている。VISION-Sではシートごとにスピーカーが埋め込まれ立体音響が再生される仕様となっていた、この立体音響というのが360RAをソースとしたものである。
360RAはユーザーに対して「新しい体験」を提供できる。機器自体は従来のスマホや、ヘッドホン、イヤホンであるがそこで聴くことができるサウンドは、まさにイマーシブ(没入)なもの。もちろんバイノーラル技術を使っての再生となるが、ソニーのノウハウが詰まった独自のものであるということだ。また、単純なバイノーラルで収録された音源よりも、ミキシングなど後処理が加えられることで更に多くの表現を手に入れたものとなっている。特にライブ音源の再生においては非常に高い効果を発揮し、最も向いたソースであるという認識を持った。
バイノーラルの再生には、HRTF=頭部伝達関数と呼ばれる数値に基づいたエンコードが行われ、擬似的に左右のヘッドホン or イヤホンで立体的音響を再生する。このHRTFは頭の形、耳の形、耳の穴の形状など様々な要素により決まる個人ごとに差異があるもの。以前にも紹介したYAMAHAのViRealはこのHRTFを一般化しようという研究であったが、ソニーでは「Sony | Headphones Connect」と称されたスマートフォン用アプリで、個々に向けたHRTFを提供している。これは耳の写真をアップロードすることでビッグデータと照合し最適なパラメーターを設定、ヘッドホンフォン再生に適用することで360RAの体験を確実にし、ソニーが配信サービスに技術提供している。
Sony | Headphones Connectは一部のソニー製ヘッドホン用アプリとなるが、汎用のHRTFではなく個人に合わせて最適化されたHRTFで聴くバイノーラルは圧倒的である。ぼんやりとしか認識できなかった音の定位がはっきりし、後方や上下といった認識の難しい定位をしっかりと認識することができる。もちろん、個人差の出てしまう技術であるため一概に言うことはできないが、それでも汎用のHRTFと比較すれば、360RAでの体験をより豊かなものとする非常に有効な手法であると言える。この手法を360RAの体験向上、そしてソニーのビジネスモデルとして技術と製品を結びつけるものとして提供している。体験を最大化するための仕掛けをしっかりと配信サービスに提供するあたり、さすがソニーといったところだ。
360RAはいますぐ体験できる
それでは、360RAが国内でリリースされ、実際にどのようにして聴くことができるようになったのだろうか?まず、ご紹介したいのがAmazon music HDとDeezerの2社だ。両社とも月額課金のサブスクリプション(月額聴き放題形式)のサービスである。ハイレゾ音源の聴き放題の延長線上に、立体音響音源の聴き放題サービスがあるとイメージしていただければいいだろう。視聴方法はこれらの配信サービスと契約し、Amazon music HDであればAmazon Echo Studioという立体音響再生に対応した専用のスピーカーでの再生となる。物理的なスピーカーでの再生はどうしても上下方向の再生が必要となるため特殊な製品が必要だが、前述のAmazon Echo Studioやサラウンドバーのほか、ソニーからも360RA再生に対応した製品としてSRS-RA5000、SRS-RA3000という製品が国内でのサービス開始とともに登場している。
また、Deezerではスマートフォンとヘッドホン、イヤホンでの再生、もしくは360RA再生に対応したBluetoothスピーカーがあれば夏にはスピーカーで360RAを楽しむことができる。スマートフォンは、ソニーのXperiaでなければならないということはない。Android搭載のデバイスでも、iOS搭載のデバイスでも楽しむことができる、端末を選ばないというのは実に魅力的だ。ヘッドホン、イヤホンも普通のステレオ再生ができるもので十分で、どのような製品でも360RAを聴くことができる。Sony | Headphones Connectの対象機種ではない場合はパーソナライズの恩恵は受けられないが、その際にはソニーが準備した汎用のHRTFが用いられることとなる。導入にあたり追加で必要となる特殊な機器もないため、興味を持った方はまずはDeezerで360RAのサウンドを楽しむのが近道だろうか。余談ではあるが、Deezerはハイレゾ音源も聴き放題となるサービス。FLAC圧縮によるハイサンプルの音源も多数あるため、360RAをお試しいただくとともにこちらも併せて聴いてみると、立体音響とはまた違った良さを発見できるはずだ。
そして、前述の2社に加えてnugs.netでも360 Reality Audioの楽曲が配信開始されている。360RAを体験していただければわかるが、立体音響のサウンドはまさに会場にいるかのような没入感を得ることができ、ライブやコンサートなどの臨場感を伝えるのに非常に適している。nugs.net はそのライブ、コンサートのストリーミングをメインのコンテンツとして扱う配信サービスであり、このメリットを最大限に活かしたストリーミングサービスになっていると言えるだろう。
欧米でサービスが展開されているTIDALも月額サブスクリプションのサービスとなり、すでに360RAの配信をスタートしている。サービスの内容はDeezerとほぼ同等だが、ハイレゾの配信方針がDeezerはFLAC、TIDALはMQAと異なるのが興味深い。この音質の差異は是非とも検証してみたいポイントである。TIDALはラッパーのJAY-Zがオーナーのサービスということで、Hip-Hop/R&Bなどポップスに強いという魅力もある。ハイレゾ音源は配信サービスで月額課金で楽しむ時代になってきている。前号でも記事として取り上げたが、ハイレゾでのクオリティーの高いステレオ音源や360RAなどの立体音響、これらの音源を楽しむということは、すでにSpotifyやApple Musicといった馴染みのある配信サービスの延長線上にある。思い立てばいますぐにでも360RAを楽しむことができる環境がすでに整っているということだ。
360RAを収めるMPEG-Hという器
360RAを語るにあたり、技術的な側面としてMPEG-Hに触れないわけにはいかない。MPEG-H自体はモノラルでも、ステレオでも、5.1chサラウンドも、アンビソニックスも、オブジェクトオーディオも、自由に収めることが可能、非常に汎用性の高いデジタルコンテンツを収める入れ物である。このMPEG-Hを360RAではオブジェクトオーディオを収める器として採用しているわけだ。実際の360RAには3つのレベルがあり、最も上位のLevel3は24オブジェクトで1.5Mbpsの帯域を使用、Level2は16オブジェクトで1Mbps、Leve1は10オブジェクトで640kbpsとなっている。このレベルとオブジェクト数に関しては、実際の制作ツールとなる360RA Creative Suiteの解説で詳しく紹介したい。
Pro Tools上に展開された360 Reality Audio Creative Suite(360RACS)
ここでは、その帯域の話よりもMPEG-Hだから実現できた高圧縮かつ高音質という部分にフォーカスを当てていく。月額サブスクリプションでの音楽配信サービスは、現状SpotifyとApple Musicの2強であると言える。両社とも圧縮された音楽をストリーミングで再生するサービスだ。Apple Musicで使われているのはAAC 256kbpsのステレオ音声であり、1chあたりで見れば128kbpsということになる。360RAのチャンネルあたりの帯域を見るとLevel1で64kbps/chとAACやMP3で配信されているサービスよりも高圧縮である。しかし、MPEG-Hは最新の圧縮技術を使用しているため、従来比2倍以上の圧縮効率の確保が可能というのが一般的な認識である。その2倍を照らし合わせればチャンネルあたりの帯域が半分になっても従来と同等、もしくはそれ以上の音質が確保されているということになる。逆に言えば、従来のAAC、MP3という圧縮技術では同等の音質を確保するために倍の帯域が必要となってしまう。これがMPEG-H Audioを採用した1点目の理由だ。
もう一つ挙げたいのはオブジェクトへの対応。360RAのミキシングは全てのソースがオブジェクトとしてミキシングされる。オブジェクトとしてミキシングされたソースを収める器として、オブジェクトの位置情報にあたるメタデータを格納することができるMPEG-Hは都合が良かったということになる。特殊な独自のフォーマットを策定することなく、一般化された規格に360RAのサウンドが収めることができたわけだ。ちなみにMPEG-Hのファイル拡張子は.mp4である。余談にはなるが、MPEG-Hは様々な最新のフォーマットを取り込んでいる。代表的なものが、HEVC=High Efficiency Video Coding、H.265という高圧縮の映像ファイルコーディック、静止画ではHEIF=High Efficiency Image File Format。HEIFはHDR情報を含む画像ファイルで、iPhoneで写真を撮影した際の画像ファイルで見かけた方も多いかもしれない。このようにMPEG-Hは3D Audio向けの規格だけではなく、様々な可能性を含みながら進化を続けているフォーマットである。
拡がりをみせる360RAの将来像
360RAの今後の展開も伺うことができた。まず1つは、配信サービスを提供する会社を増やすという活動、360RAに対応したスピーカーやAVアンプなどの機器を増やすという活動、このような活動から360RAの認知も拡大して、制作も活発化するという好循環を作り健全に保つことが重要とのこと。すでに世界中の配信事業者とのコンタクトは始まっており、制作に関しても欧米でのサービス開始から1年半で4000曲とかなりのハイペースでリリースが続いている。ほかにも、ライブやコンサートとの親和性が高いということから、リアルタイムでのストリーミングに対しても対応をしたいという考えがあるとのこと。これはユーザーとしても非常に楽しみなソリューションである。また、音楽ということにこだわらずに、オーディオ・ドラマなど、まずはオーディオ・オンリーでも楽しめるところから拡張を進めていくということだ。また、360RAの要素技術自体はSound ARなど様々な分野での活用が始まっている。
日本国内では、まさに産声を上げたところである360RA。ソニーの提案する新しい音楽の「体験」。立体音響での音楽視聴はこれまでにない体験をもたらすことは間違いない。そして改めてお伝えしたいのは、そのような技術がすでに現実に生まれていて、いますぐにでも簡単に体験できるということ。ソニーが生み出した新たな時代への扉を皆さんも是非開いてほしい。
>>Part 2:ソニー・ミュージックスタジオ 〜360 Reality Audio Mixing、この空間を楽しむ〜
*取材協力:ソニー株式会社
*ProceedMagazine2021号より転載
https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-2/
3D Audio
2021/10/11
ソニーPCL『劇場版「鬼滅の刃」無限列車編』制作でのAVID製品活用事例 – AVID Blogにて公開中
『劇場版「鬼滅の刃」無限列車編』の編集及びDolby Atmos化のプリ・ミックスを担当
昨年公開され、興行収入は400億円を突破、日本映画史上トップのセールスを記録した話題作『劇場版「鬼滅の刃」無限列車編』。その編集及びMAを担当されたソニーPCL様のアニメ編集におけるMedia Composer活用法、及び劇場版のDolby Atmosプリ・ミックスを手掛けた様子等が解説されたブログ記事が現在AVID Blogにて公開されています。
>>アニメーション作品を手掛けるソニーPCL「高円寺スタジオ」のMedia ComposerおよびPro Tools活用法
https://www.avidblogs.com/ja/media-composer_pro-tools_sonypcl/
みどころご紹介!
・アニメーションの編集においてMedia Composerが信頼されているポイントとは?
・自社開発ツールとの連携ワークフローについて
・HT-RMUの導入について
・Dolby Atmos/360 Reality Audioの両方の制作に対応した『405 Immersive Sound Studio』
Dolby Atmos制作に関するお問い合わせは、導入実績豊富なROCK ON PROまで!下記コンタクトフォームよりお気軽にお問い合わせ下さい。
https://pro.miroc.co.jp/headline/dolby-atmos-renderer-v3-7-released/#.YWO9pGb7TOQ
https://pro.miroc.co.jp/headline/sound-on-4%cf%80-proceed2021/#.YWO9umb7TOQ
https://pro.miroc.co.jp/headline/dolby-atmos-music-creators-summit/#.YWO90Gb7TOQ
https://pro.miroc.co.jp/headline/dolby-atmos-mixing/#.YWO92Wb7TOQ
3D Audio
2021/10/08
Dolby Atmos Renderer 最新版V3.7 がリリース
Dolby Atmos Renderer V3.7 がリリース
Dolby Atmos Production SuiteおよびDolby Atmos Mastering Suiteに含まれる、Dolby Atmos Rendererソフトの最新バージョンが、先日Dolbyよりリリースされました。
V3.7では、Intel MacとM1 Mac(Rosetta 2経由)の両方でmacOS Big Surに対応(※注意点あり)したことや、Dolby Audio Bridgeがv2.0となるなど、多くの改良が加えられています。
Dolby Atmos Renderer V3.7 変更点ハイライト
Big Sur(IntelおよびM1)互換(Intelで認定、Rosetta 2経由でM1と互換性あり)
Dolby Audio Bridge v2.0 –自動的にクロックを供給
LTCプラグインV2.0
MTC機能の削除
バイノーラル設定プラグインv1.1
オーディオをカスタムビデオと共にMP4でエクスポート可能に
Pro Tools、Nuendo、DaVinci Resolveのクイックスタートテンプレート/プリセットを更新
Input/Master設定に関する表示の分離
スピーカーのミュート
アップデート内容の詳細はこちらのリリースノートよりご確認ください。
>>Dolby Atmos Renderer Release Notes 15 September 2021 Software v3.7
https://developer.dolby.com/globalassets/tools--media/production-tools/dolby-atmos-production-suite/dolby_atmos_renderer_v3.7_release_notes.pdf
macOS Big Sur 11.5 対応
macOS Big Sur(Intel及びRosetta 2経由のM1)に対応!ただし、M1ベースのMACの場合、下記にあるようにパフォーマンスに問題が生じる可能性があるとのことですので、現段階ではIntel搭載のマシンの使用を推奨します。
Dolby Atmos Renderer V3.7は、macOS Big Sur 11.5が動作するIntelベースのMacに対応しています。Renderer v3.7は、M1ベースのMac(Rosetta 2搭載)のmacOS Big Sur 11.5と互換性がありますが、Rosetta 2はアプリケーションとARMプロセッサの間のトランスレーションレイヤーであるため、パフォーマンスに問題が生じる可能性があります。
注意:M1ベースのMacでRenderer v3.7にアップグレードする前に、オーディオI/Oとライセンス認証(iLok)に必要なすべてのドライバーがM1に対応していることを確認してください。
Dolby Audio Bridge V2.0
DAWとDolby Atmos Rendererの接続時、Core Audioベースの仮想デバイスとして動作するDolby Audio bridge。今回のバージョンアップにより、出力ハードウェアに対して自動的にクロック同期されるようになったとのこと(!)
設定が少々複雑なアグリゲートデバイスを組む手間がなくなったのは嬉しいですね。
Dolby Audio Bridge v2.0は、出力ハードウェアに対して自動的にクロッキングを行います。これにより、適切なクロックを供給するためにアグリゲートデバイスを使用するというワークアラウンドが不要となりました。
Dolby Audio Bridge仮想ドライバのこの新しいバージョンは,Rendererのインストーラーパッケージに含まれており、インストール時に選択する必要があります。Dolby Audio Bridge v1.0で作成されたアグリゲートデバイスは今後利用できなくなります。
Dolby Audio Bridge v2.0のインストールには、コンピューターの再起動は必要ありません。
注意:v2.0をインストールすると、コンピュータからDolby Audio Bridge v1.0が自動的に削除されます。
重要:古いバージョンのレンダラーをインストールした場合、古いインストーラー・パッケージに含まれるDolby Audio Bridge v1.0(アイコンなし)はインストールしないでください。Dolby Audio Bridge v2.0(図のようなアイコン)をシステム上の唯一のブリッジとして使用してください。ブリッジのv2.0はRenderer v3.5以前で動作しますが、特定のワークフローではアグリゲート・デバイスが依然として必要です。
Dolby LTC Generator V2.0 (AAX、AU、VST3対応、MTCは削除)
Dolby LTC Generatorは今回のバージョンアップにより、フレームレートや開始時刻の設定ができないDAWにも対応できるよう設定項目が増えました。
また、以前からもLTC over Audioでの同期が推奨されてはいたものの、これまでは可能だったMTC同期が本バージョン以降使用できなくなりました。
重要:Dolby LTC Generatorプラグインv1.0を含む古いPro Toolsテンプレートは、プラグインのv2.0を使用するために手動でアップデートする必要があります。
注意:NuendoとResolveにはタイムコード・ジェネレーターがあります。Dolbyが提供するNuendoテンプレートには、Steinberg SMPTEGeneratorプラグインが挿入されたトラックが含まれています。
Pro Tools、Nuendo、DaVinci Resolveのクイックスタートテンプレート/プリセットを更新
今回の様々な仕様変更に伴い、各種DAW用のテンプレートやプリセットもリニューアル。着々とDolby Atmos制作環境の幅が広がっているのを実感します。
Renderer v3.7のインストーラーには、新規または更新されたDAWテンプレートとプリセットが含まれています。
- 新しいテンプレート Nuendo 10.3およびNuendo 11
- 新しいプリセット Resolve Studio 17 Fairlight
- 更新されたテンプレート Pro ToolsおよびNuendo 10
注意:Dolby社が提供するNuendoテンプレートまたはResolveプリセットを使用する前に、テンプレートまたはプリセットの使用に関する情報を参照してください。
Dolby Audio Bridgeを使用したPro Toolsのセッション・テンプレートには、Dolby LTC Generatorプラグインが挿入されたトラックが1つ含まれるようになりました(LTCをプラグインから使用するか、外部ハードウェアから使用するかは問いません)。入力/出力(I/O)設定ファイルは、LTC over Audio信号をRendererのチャンネル129にルーティングするように設定されています。
注意:テンプレートを使用するためには、必ずLTC Generatorプラグインをインストールしてください。このプラグインはRendererのインストーラーに含まれています。
警告: Dolby LTC Generatorからの信号がスピーカーに出力されていないことを確認してください。
デフォルトフレームレートが24fpsに
Rendererのデフォルトフレームレート設定が24fpsに変更されたのは、地味に嬉しい改善ですね!
- Rendererのデフォルトフレームレートが24fpsに変更されました。
Rendererのフレームレートは、プリファレンスの"Driver"から設定でき、メインウィンドウのヘッダーに表示されます。
- デジタルオーディオワークステーション(DAW)とRendererのフレームレートが一致しない場合、フレームレート不一致のエラーメッセージが表示されます。
Rendererのフレームレートが一致しない場合、フレームレート不一致のエラーメッセージが表示されます。これにより、DAWまたはRendererのフレームレートを変更するように警告されます。
注意:このメッセージは、ミスマッチが初めて発生したときに表示されるので、修正する必要があります。修正しない場合は、次回の再初期化までメッセージは表示されません。
このメッセージは、LTC over AudioやSend and Returnプラグインを使用している設定で表示されます。RME MADI PCIカードを使用している場合は、Hammerfall DSPアプリケーションでフレームレートを手動で設定してください。
マスター書き出し時、カスタムのビデオファイルや音声のみでMP4書き出し可能に
マスターファイルをブラックビデオ以外にも任意のビデオファイルと共に書き出したり、音声のみのMP4を書き出しできるようになりました!
"Export master to .mp4"ウインドウには、「ビデオ」セクションが追加され、以下のオプションがあります。
Black video:オーディオエンコードの長さに合わせてブラックビデオを作成します。これはRenderer v3.5以前の動作です。
No video:音声のみのmp4を作成します。ブラックビデオを必要としない音声のみの再生機器では、このオプションを使用してください。
Custom video:出力される.mp4 にカスタムビデオストリームが埋め込まれます。カスタムビデオの入力は、h264ビデオエレメンタリーストリームを持つmp4である必要があります。再生の同期をとるために、ビデオの開始点がオーディオの開始点またはイン点と一致するようにしてください。
注意:音声とビデオの長さが異なる場合、ファイルは長い方に合わせられることを示す警告が表示されます。
Dolby Atmos Production Suiteシステム要件
Dolby Atmos Production Suiteライセンスで動作するDolby Atmos Rendererは、複数の構成でテストされています。Tested CPU、OS、DAWは、Renderer v3.7を実行するDolby Atmos Production Suiteシステムの最小ハードウェアおよびソフトウェアシステム要件を示しています。
Tested CPUs
• MacBook Pro 16,1; Intel Core i9 2.4 GHz, 32 GB random-access memory (RAM)
• MacBook Pro 15,1; Intel Core i7 2.6 GHz, 16 GB RAM
• Mac Pro 7,1; 8-Core Intel Xeon, 3.5 GHz, 32 GB RAM
• Mac Pro 6,1; 6-Core Intel Xeon E5, 3.5 GHz, 32 GB RAM
• Mac mini 8,1; Intel Core i7 3.2 GHz, 16 GB RAM
• Mac mini 9,1; Apple M1, 16 GB RAM (with Rosetta 2)
Tested operating systems
• macOS Big Sur (version 11.4, 11.5)
• macOS Catalina (version 10.15.7)
Tested DAWs
• Ableton Live*
• Live 10.1.9
• Live 10.1.35
• Apple Logic Pro*
• Logic Pro 10.6.2
• Logic Pro 10.4.8
• Avid Pro Tools Ultimate
• Pro Tools Ultimate 2021.6
• Pro Tools Ultimate 2021.3.1
• Pro Tools Ultimate 2020.12
• Resolve Studio 17
• Steinberg Nuendo
• Nuendo 10.3.10
• Nuendo 11.0.20
*Dolby Atmos Music Pannerが必要です。
Apple Musicの空間オーディオ対応もあり、国内におけるDolby Atmosコンテンツの需要も日々高まってきているのを実感します。音楽スタジオやポストプロダクションのMA・ダビングルームをDolby Atmos制作に対応したい!といったご相談は、導入実績豊富なROCK ON PROまで是非お問い合わせください。
https://pro.miroc.co.jp/headline/sound-on-4%cf%80-proceed2021/#.YWATGGb7TOQ
https://pro.miroc.co.jp/headline/dolby-atmos-free-trial-package/#.YV2JlGb7TOQ
https://pro.miroc.co.jp/headline/daps-90day-trial/#.YWASrmb7TOQ
https://pro.miroc.co.jp/headline/netflix-sol-levante-dolby-atmos-pro-tools-session-file-open-source/#.YWASxGb7TOQ
https://pro.miroc.co.jp/headline/mtrx_webinar_archive_202007/#.YWAS42b7TOQ
3D Audio
2021/09/14
Sound on 4π!このムーブメントをシェアしよう!
2021年、いよいよ本格化してきたDolby Atmos Music。音に包み込まれるという体感は今までになかった新たな感動体験を得ることができますよね。今回はそんなイマーシブオーディオへの憧れに想いを馳せているバウンス清水が、Dolby Atmosの匠である染谷和孝氏、古賀健一氏の両名にその魅力から制作の秘訣に至るまで、ざっくばらんに伺っちゃいます!Dolby Atmos環境を整えた古賀氏のXylomania Studioで語られたその内容とは!?
染谷 和孝 氏(株式会社ソナ)
1963年東京生まれ。東京工学院専門学校卒業後、(株)ビクター青山スタジオ、(株)IMAGICA、(株)イメージスタジオ109、ソニーPCL(株)を経て2007年(株)ダイマジック、2014年には(株)ビー・ブルーのDolby Atmos対応スタジオの設立に参加。2020 年に株式会社ソナ制作技術部に所属を移し、サウンドデザイナー/リレコーディングミキサーとして活動中。 2006年よりAES(オーディオ・エンジニアリング・ソサエティー)「Audio for Games部門」のバイスチェアーを務める。また、2010 年よりAES日本支部役員を担当。
古賀 健一 氏
レコーディング・エンジニア。青葉台スタジオに入社後、フリーランスとして独立。2014年にXylomania Studioを設立。これまでにチャットモンチー、ASIAN KUNG-FU GENERATION、Official髭男dism、MOSHIMO、ichikoro、D.W.ニコルズなどの作品に携わる。また、商業スタジオやミュージシャンのプライベート・スタジオの音響アドバイスも手掛ける。
バウンス清水(ROCK ON PRO)
大手レコーディングスタジオでの現場経験から、ヴィンテージ機器の本物の音を知る男。寝ながらでもパンチイン・アウトを行うテクニック、その絶妙なクロスフェードでどんな波形も繋ぐその姿はさながら手術を行うドクターのよう。ソフトなキャラクターとは裏腹に、サウンドに対しての感性とPro Toolsのオペレートテクニックはメジャークラス。Sales Engineerとして『良い音』を目指す全ての方、現場の皆様の役に立つべく日々研鑽を積み重ねている。
音はスクリーンの外も表現できる!
バウンス清水(以下、BS):本日は宜しくお願いします!最初に一番のテーマというか、、一番聞きたかったことをいきなり伺っちゃいます!硬くてスミマセンが、Dolby Atmosの魅力をお二人がどうお考えで、それをどう作品に反映させているのか、というのをお聞かせいただけますでしょうか。
古賀健一氏(以下、K):まず最初に魅力を感じたのはライブミックスですね。元々ライブをどう再現するかっていうのが課題としてあって、サラウンドでミックスしていても何か物足りないな、っていうのがずっとあったんです。会場では上下左右の音を聴いていて、それを僕らは音楽として気持ちいいと思っているから天井にスピーカーがあるというのは会場の再現としてとても効果的だと思います。Dolby Atmos Musicの音だけのミックスはまだやっていないのですが、無限の可能性があるのでアーティストと一緒に何か一つ作品を創ってみたいというのが正直なところですね。自由なキャンパスの中でどうアレンジ・ミックスするか、自分でもワクワクします。
染谷和孝氏(以下、S):僕の方は映像作品が中心なので、映像にまつわることが多くなってくるんですけど、一つ言えることは高さ方向が加わるということは表現力が大きく向上するということですので、音響演出上のポテンシャルが上がったということが大きいですね。古賀さんのお話でもありましたけど「ライブ会場にいる感覚」や「その場にいる感覚」みたいなものが明確に表現できるようになったというのが魅力ですかね。イマーシブは没入って意味じゃないですか、没入感が高くなる、そういった効果が見込めるようになったことですかね。
BS:リアリティを求めて、ってことなんですかね。
S:そのリアルって言葉が難しいんですけど、本当の音場と視聴者の皆さんが感じるリアルっていうのはまた違うんですよ。これはまた別のお話になってきますが、そうですね、簡潔に言えばリアルに感じてもらえる仮想空間を作りやすくなった、というのが一番いい表現かもしれませんね。
BS:さきほど古賀さんのお話に出たDolby Atmos Musicって、言い換えれば音をひとつずつ空間に配置して作品を作るという新たな手法が始まったとも言えると思うんですが、染谷さんもそういった自由度の高い作品って経験されてきたんでしょうか。
S:そうですね、映像作品ですと映像ありきですからね。たとえば、今回の古賀さんとコラボしたライブ作品とかですと、その空間をどのように表現していくべきか?といった「アイデア」を提案できて、しかもそのコントロールを任していただけるようになったというのが大きいですかね。
BS:まず空間を決めるんですか、こういう場所で、どれぐらいの大きさなのかとか。。
S:映像表現は通常スクリーンの中だけですが、音はスクリーンの外も表現できるんですよね。たとえば、登場人物がスクリーンに入って来る前から音を付加することで映像には映りませんが、何かを予感させることができる。そこに高さ方向が加わるので、とても表現力が高くなりますよね。ただ自由度が上がる分しっかり整理していないと時間ばかりかかってしまいます(笑)。
BS:そうですよね!極端なことを言えばスクリーン以外の部分でストーリーが作れてしまうということですもんね!
S:そうなんですよ。オフスクリーンの音響表現も可能ですから、どういうふうに整理整頓して観ている皆さんの没入感を削ぐことなくストーリーを展開するかっていうのはサウンドデザイナーの腕の見せ所じゃないですか。
BS:なるほどー、それは腕と頭脳が要りますよね。。ヤバい!ボク、整理整頓は超苦手っす!
ムーブメントをシェアしよう!
BS:Dolby Atmosは自由度が高いが故の難しさもありそうですよね。現代っ子風に聞いちゃいますが、ズバリAtmos制作のコツとかってありますか?
S:やはり基本になるのは5.1chだと思います。なので、5.1chの基本的な手法をしっかりマスターしておくとAtmosは作りやすいと思いますね。
K:そうですね。5.1chでこうやりたいのにできなかった、ということをDolby Atmosではやれますからね。
BS:なるほど!サラウンドの経験があると近道なんですね!近道大好きです!
S:多分もう古賀さんの頭の中にはAtmosのフォーマットが入っていて、具体的なプランが聴こえていると思うんですよ。頭のなかに7.1.4とか9.1.4があると早いと思いますね。
BS:まず体験するということが大事ということですね!
K:そうですね、この世界を知らないのはもったいなくって、制作者側にも知ってもらいたいですよね、なんせマスキングがないですから!
BS:マスキングがないというのは大きいですよね!ボクもそれは新鮮だと思います。やはり、アーティスト側がいかにAtmosに触れるかが大事な気がするんですが、そういう機会を増やすことが必要ですよね。
K:このスタジオに来たらいいですよ。気軽に聴ける為に作りましたからいくらでも聴かせますよ!(笑)。
S:そうですね。僕らもいろいろなところで提案をさせていただいていますが、やはりシェアをすることが大切なんじゃないかなと思いますね。ムーブメントって独り占めするんじゃなくてみんなで共有しないと続いていかないと思うんです。だからこういうAtmosやイマーシブの説明も多くの方々とノウハウの技術共有するべきだとすごく思うんですよね。世界の人たちは普通に共有していますしね。
K:Atmosってエンジニア同士のコラボができるんですよね。StereoエンジニアとAtmosエンジニアのコラボレーションっていう感じとか。例えば演劇のAtmosだと、PAエンジニアとMAエンジニアのコラボっていうのもできるし、今回のヒゲダンさんも染谷さんと僕とMAエンジニアとのコラボだし。生配信ライブで、Stereo配信とAtmos配信チームのコラボもしました。
S:みんなで創るっていうのが大事ですよね。
BS:音楽制作でいうコラージュみたいな感じですね!ひとつのアーティストに対してさまざまな人が関わって、いろいろな人のカラーが出るようにするみたいな。エンジニアリングの部分もそうなっていくべきという感じですかね?
K:今までもひとつのアーティスト作品に対してさまざまなエンジニアが関わることはあっても、エンジニアはその場に二人はいなくて、でき上がったものを集めるような関わり方だと思うんですよね。そうではなくてひとつの作品に向かって、同じ空間に技術者が複数いて作業するっていうのはとても楽しいことですよ!
S:ツールもコンパクトになって、パーソナルでいろいろなことができるようになっています。ヘッドフォンではバイノーラルのモニターになりますが、ベーシックなことはできるようになっているので、とてもいいチャンスだと思います。
BS:そうですよね!ProTools とDolby Atmos Production Suiteがあれば制作は始められますもんね!
S:家でベーシックを創って、古賀さんのスタジオに創った素材を持って来てAtmosミックスを仕上げるとか可能性は広がりますね。準備ができるってすごいことですよ!
立体音響ってものに触れてほしい!
BS:お二人の話を聞いているとAtmosやるぞー!って気持ちがさらに高まってきました!!うぉーーー!!ちなみにお二人はDolby Atmosやるぞ!となったきっかけみたいなのはあるんですか。
S:AESとかではDolby Atmosというか、ハイト方向のサラウンドっていうのは、2000年明けたぐらいからデモンストレーションをやっていたんですよね。表現力がとんでもなくて、次ってこうなるんだなって思ってたんですけど、フォーマットとしてDolby Atmosが出てきて、それがだんだん浸透してきて、ツール自体も手が届くようになってきたので、新しいことにチャレンジしたい人たちはやはりその方向に進みますよね。なので、必然的に導かれて行ったというのが本当のところだと思います。
K:僕は清水さんのおかげですよ。
BS:えっ!ボクですかっ!?
K:そうですよ。清水さんがいきなりAtmosっていうワードを出してきたとき、僕はまだ5.1chやVR Mixを一所懸命やっていて、Atmosって別の次元の話だと思ってたんですよ。でも清水さんが電話で「古賀さんAtmosやったらいいじゃないですか。Atmosで作って5.1chにダウンミックスすればいいんですよ、僕もパソコンでやってますよAtmos。」とか言っててですね。「はい?!?!」ってなりました(笑)。 そこから興味を持ったんですよね!
BS:めちゃめちゃ偉そうですね、ボク(笑)!でもそう言っていただいて嬉しいですよ〜!
K:で、その言葉がひっかかったまま、ハリウッドに勉強しに行く機会がちょうどあったんですよ。そのとき、ソニー・ピクチャーズのスタジオがちょうどAtmosに改修している最中とかで「やっぱりそういう時代になるよな」って思って。日本でもInterBeeでの展開とかNetflixの話とか聞いて、これはやっぱりやるしかないなって。ちょうど会社を作ろうとしていたタイミングでスタジオも作り直す予定だったので、もうAtmos対応にしちゃおうってなって始めた感じですね。
BS:いろいろタイミングが重なった感じなんですね。すごいっす。
K:当時は5.1.2chでいいかぐらいの軽い気持ちでしたが、最終的には9.1.4chになりました(笑)。
Xylomania Studio
インタビューは古賀氏のスタジオとなるXylomania Studioで行われた。こちらはPMC twotwo6、twotwo5にて9.1.4chの環境を整えており、システムの中枢にはPro Tools | MTRXが据えられてDolby Atmosのモニタリングを司っている。また、もう一つのラックにはBlu-rayのAtmos作品視聴用にDENONのAVC-A110が鎮座。FerroFishのPulse 16 MXにてADしMADIでMTRXへ送られている格好だ。Dolby Atmos RendererはMac miniにて構成されたHT-RMUシステムとなっており、ProToolsとの接続はMADIで行われている。
BS:そういえばRockoNのリファレンススタジオもAtmos対応にしたんですよ。先ほども言ってましたが、まずDolby Atmosを体験してほしいですよね!
K:これから10年で伸びるジャンルだと思うんですよ、立体音響は。別にDolby Atmosじゃなくていいんですよ、AuroでもDTSでもいいんです。まず、立体音響ってものに触れてほしいですね。
S:僕もそう思いますね。フォーマットはいろいろありますけど、体験したことがあれば、違うフォーマットでも流用できるんですよ。チャンネルベース、オブジェクトベースの差はあるにせよ、発想としては同じことだと思います。
K:そういえば、チャンネルベース、オブジェクトベースって最初よくわからないですよね(笑)。いまでこそすんなり入って来ますけど。
BS:いままでなかった概念ですもんね。
S:オブジェクトベースっていうのは「位置情報と音質・音量をミックス」するんですよ、それをやっておくと大きい会場になってもその位置情報と音量・音質はキープされ、いろんな部屋のサイズに合わせてレンダリングしてくれることがオブジェクトベースの素晴らしさですからね。
K:アーティストといつも課題になる"再現度"が上がるっていうのが、Atmosの良さですよね。
S:そうですね。またAtmosは基本になるBedsトラックとオブジェクトトラックで構成されていますから2つの定位表現ができるというのが、とてもいいところですよね。
BS:Beds、オブジェクトの使い分けって決まっていたりするんですか?
K:例えばVocalでいうとちょっと上に音を定位したいとかってあるじゃないですか。僕は上に定位させたオブジェクトを用意しておいて、ちょっと上げたい時にそこにセンドする、っていう手法を使ってます。サビだけそこに送ったりして、印象を変えたりしますね。
BS:基本はBedsでやっているってことですか?
K:まだ試行錯誤中ですが、オブジェクトのセンターとハードセンターって聴こえ方が違って聴こえることがあって使い分けてます。オブジェクトの時はSizeを積極的に調整したりしますね。
BS:オブジェクトはそんなに多くない?ってわけですか。
K:ヒゲダンさんの時は最終的にはオブジェクトは70~80ぐらいですかね。
BS:多いですね(笑)!
K:まぁ、ある程度はBedsで頑張って、オブジェクトを効率的に使うって感じですね。想像力が無限に働くのでやってみたいことはいっぱいあるし、やれることもいっぱいある。自分自身の想像力次第ですね、ほんと。
もうこの際、、、手の内教えてください!
BS:Dolby Atmosってマスタリングってどうすればいいですか?っていうのが疑問であるんですけど。
S:そこはテーマですよね。映像作品においての話をしますとですね、マスタリングということではないんですが、実はマルチチャンネルの音響制作を確実に成功させる方法があるんですよ(笑)。
BS:確実に!?
S:ワークフローから考えると制作プロセスは4つに分割されます。それは①レコーディング、②エディティング、③プリミキシング、④ファイナルミキシングの4つです。①レコーディング、②エディティングは皆さんも頻繁に行っていると思いますのでワークフロー的な世界との差はそんなにないと思うんですが、次のプリミキシング。日本だとどうしてもこの部分を割愛しちゃうんですよね。
K:音楽においてはないですもんね。ほしいですけど。
S:日本でプリミキシングというと、各パートの音源を合わせることになっちゃうんですが、本来はそういうことじゃなくて、素材の段階から各音源をどのように立体化していくかっていうことを処理していきます。たとえばBGと呼ばれる環境音。これを立体化させるためにどういう風なサウンドデザインを行うべきか?は、ある程度のセオリーとマイルストーンが決まっているんですよ。それをハリウッドの人たちは合理的に組み上げていくノウハウを持っていて、それをなぞっていくんですよ。だから、ああいう濃厚で斬新なサウンドができてくる。たとえばLFEの使い方も全然違うじゃないですか。成功に導くためのセオリーとマイルストーンに沿って作っていく、そこに高さが加わっただけなので、彼らはAtmosだからって違和感なくすんなり入っていけるんですよね。昔からの合理的な手法を大切にして進化させているんです。王道は崩してないんですよ。
プリミックスの順番としてお勧めしているのは最初にダイアログ、その次にフォーリーに進めます。この時に環境合わせたReverbも付加します。具体的にはシーンに合った部屋の響きなどを付加するわけです。なぜ、ダイアログの後にフォーリーなのかっていうと、ダイアログの動きにフォーリーも合わせたいからです。その次にバックグラウンドノイズにいって、全体を聴いてみてだんだん雰囲気ができてくるわけですよ。全ての効果音源を組み上げてプリミックスを終わらせるという感じですね。
BS:オンの音から作っていくイメージですかね。オンの音からオフの音へというような。
S:そうですね。また、爆発音みたいなパルシブな音の時は、必ずダイアログを聴きながらプリミックスを進めます。大切なストーリーテリングであるダイアログを妨げないように定位に配慮します。マルチチャンネルの音響制作を成功に導くには、まず①「周波数分布を考えてサウンドデザインを行うこと」、②「定位配分分布を考えること」、最後は③「バランス」ですよ。 Mono のバランス勝負です。
BS:なるほどぉ〜!
K:レコーディングだとマイキングの意識は変わりましたね。高さ情報を録りにいくマイキングが増えました。後でなんとかしようというAtmosと、最初から高さ情報を録ってあるAtmosでは明らかにリアリティが違うんですよね。正直、Reverbで作れるものではないと思っています。より完成を見据えて録るようになりますよね。「あとでなんとかしよう。精神」を打破するやり方ですよね。
BS:ミック沢口さんも同じようなことをおっしゃってましたよ。レコーディングは覚悟だと。
K:やった!目指せ、匠(笑)!ただ、マイクの本数増えるんでアシスタントに嫌われます(笑)。レコーディングは「完成をイメージする」というのが重要ですね。
BS:でも、どうしてもReverbかけるじゃないですか、音を作るために。Reverbの置き位置ってどうされているんですか?
K:7.1.2chのReverbはだいたい法則化できましたね。でも、大事なのはやっぱりL / Rの空間はちゃんと作んなきゃダメです、奥行きを表現しておくのはリバーブに限らず大切です。
BS:いままでのStereoをしっかり作った上で、ということですね!その先はどうやって進めていくんですか。
K:Stereoミックスがよければ、Upミックスしただけでもうすでに気持ちいいんです。最初はそれでもいいかもしれないなって思います。Upミックスして気持ちいいStereoミックスを作るみたいな(笑)。で、Reverbの話ですが、天井は7.1.2chのReverbまでしかないので、僕はQuad Reverbをオブジェクトで上に置きます。それと7.1.2chのReverbを足すと、上に6chのReverbができるのでそういうやり方をしてます。Reverbについても想像力が大事ですね。でもやっぱりマイク立てる方がいいですね。
BS:Atmos Musicとなると実際に録音したマイクの音っていうのはないわけじゃないですか。そうするとReverbを駆使してという感じですかね。
K:でも何かしらレコーディングはするじゃないですか、きっと。ドラム録ったり、ストリングス録ったり、ギターアンプ鳴らしたり。そういう時にオフマイクを立てておいて、後ろの配置してあげたり。Ambeoみたいな一次アンビソニックスマイクを立てておけば、あとでいろいろ変換できますしね。
BS:なるほど!マスタリングについてはどうですか。
K:音楽のマスタリングだとマスタリングで2ミックスにさらに音作りをしてブラッシュアップみたいなことをすると思うんですが、Atmosだとそれができないんですよね。それで考えたのがステムミックスをする感覚でマスタリング用のADMファイルを作ることにしたんです。ミックスが終わったらADMファイルにして、で、ミックスの時にステムミックスをする感覚でグループ分けしたBedsチャンネルを作ったりして。それをマスタリングエンジニアに来てもらってさらに客観的にレベルの調整やEQを再度するっていう。
BS:そのステムミックスを作って行くのって、染谷さんがおっしゃっていたプリミックスに該当する部分のように思うんですが。
K:そうですね。それの音楽版という感じですよね!
BS:やはりまとめ上げる前の下準備が大事ということですね。とても参考になりました!最後になりますが、、Dolby Atmos MusicやSony 360 RAが始まりましたが期待感はどうですか。
K:いやぁ、ほんと広まるといいですね!とても期待してますよ。やはりまず体感してほしいですよね、みなさんRock oNに聴きに行ってください(笑)。
S:そうですね!試聴会とかセミナーとか開催するのが良いのではないでしょうか?
BS:やりたいですね!その際はお二人のお力もお借しください!本日はありがとうございました!
どのお話もDolby Atmos Musicをかじり始めているバウンス清水にとっては刺激的なものばかり。もう、すぐにでも試してみたい!という気持ちの高まりが抑えきれません!うぉーーー!!そして、お話の後に思い至ったのは、やはりDolby Atmosがリスナーに与える感動はStereoの何倍もあるぞ、ということ。このムーブメントが一人でも多くのリスナーに届いてシェアされる、それがコンテンツの持つ感動という力をさらに倍増させるのかもしれませんよね!みなさんもぜひご一緒に!
右:染谷 和孝 氏(株式会社ソナ)、左:古賀 健一 氏、中央:バウンス清水(ROCK ON PRO)
*ProceedMagazine2021号より転載
3D Audio
2021/08/27
いま、名古屋のバイノーラル現場がアツい !! 〜テレビ愛知株式会社のバイノーラル生配信レポート〜
ここ数年、名古屋の立体音響制作界隈が実にアツい 。これまでも在名放送局各社によるバイノーラル制作事例もある中、今年3月にはFlux:: / SPAT Revolutionを用いたバイノーラル配信という実験的な取り組みをテレビ愛知が行った。どのような手法でコンテンツを提供していくのか、制作にあたってのキーポイントはどのようなものか、そして一体名古屋で何が起こっているのか。取材班が見た現地レポートをお届けする。
●ライブライブライブ!3日遅れのひな祭り
<番組情報>
<You Tube アーカイブ:ライブライブライブ!(完全ノーカット版)>
いまこそ求められているバイノーラル制作
アナログ放送が終了し、地上デジタル放送に完全移行して早10年。それに伴って民生向けテレビの画質もフルハイビジョンから4K、8Kと急速に変化を遂げてきた。音に関する技術トレンドは、ハイレゾ音源が普及していく一方で、立体音響へのアプローチが進む。スピーカー配列のバリエーションはステレオから平面のサラウンドになり、そこに高さ方向のスピーカーが加わってイマーシブサラウンド、と年々より臨場感のある音響制作環境へとシフトしてきており、イマーシブ対応のスタジオもここ数年で急速に増加している。
従来、そういったスタジオで制作された本格的な立体音響作品を家庭で楽しむためには、専用のホームシアター環境を整備するほかなかったが、イネーブルドスピーカーやイマーシブ対応サウンドバーの登場により、天井にスピーカーを設置しなくても気軽に楽しめるようになった。しかしながら、日本の密接した住環境を考えると、より多くのユーザーに立体音響を楽しんでもらうにはイヤホンやヘッドホンでの再生ができるようにならなくてはならない。そこで鍵となるのは、もちろんバイノーラル録音・再生の技術だ。技術自体はおよそ1世紀ほど前から存在するが、世間一般的な普及具合はまだまだ伸びしろがあると言ってもいいこの技術。令和の時代を迎え、スマホ+ワイヤレスイヤホンでOTTコンテンツを楽しむ人々が増えたいま、そのポテンシャルがようやく発揮されようとしている。
SPAT Revolutionでバイノーラル出力
テレビ愛知の番組「ライブライブライブ!3日遅れのひな祭り」が今年3月に生配信された。当日は名古屋のご当地アイドル10組による無観客ライブの模様を、You Tube Liveと在名民放4局が立ち上げた動画配信サービスLocipo(ロキポ)にて生配信。後日そのダイジェスト版がテレビでも放送されたそうだ。そして、今回テレビ愛知では初となる取り組みとして、バイノーラルステレオ音声での制作が行われた。アイドルのライブを生配信でバイノーラル配信するという実験的な取り組みだが、そのきっかけは一体なんだったのだろうか。
時は遡り昨年秋、テレビ愛知より「近いうちにアイドルのライブ配信イベントを行うので、そこでイマーシブオーディオの制作に挑戦してみたい」という旨のご相談をいただいた。以前より弊社でも行っていたバイノーラル音源のデモやInter BEEでのプレゼンなどが印象に残っており、イマーシブ制作に触れられるタイミングを窺っていたそうだ。そこで、どういった方法で音をバイノーラル化するかといった部分から検討がスタートし、各種製品検討の結果、直感的にわかりやすいGUI、そしてMACでのPro Toolsとの連携ワークフローの親和性から、Flux:: / SPAT Revolutionを使用することになる。このSPAT Revolutionでは、スピーカーを360度の仮想立体空間上に自由に配置し、任意のスピーカー配列向けに出力できるほか、バイノーラル処理して出力することも可能だ。今回はこのSPAT Revolutionからのバイノーラル出力を配信ミックスを行なっている卓に戻し、各配信エンコーダーへ渡すという手法をとることになった。
📷FLUX:: SPAT Revolution
そこでまず課題となったのが、元々のステレオミックスのオケからどのようにして立体感を演出するかということ。そのためには、SPATの仮想空間上で左右上下に広く空間をとって音源を配置し、広がりを感じさせるように仕向ける必要がある訳だが、ここに関してはボーカルの配置と会場のアンビエントの組み合わせで対応した。まずボーカルの配置については、出演者のハンドマイクを仮想立体空間上にアーチ状の等間隔に並べて、それぞれの分離を良くすることで一人ひとりのボーカルがハッキリと聴こえるような配置としている。オケとなるトラックと現場で収録される演者の音声の対比をはっきりさせることで、さらに空間のコントラストをつける試みがなされた。次に会場のアンビエントについてだが、ライブでありながらも無観客、ということも今の状況下のスタジオ収録では課題となる。どのように会場の空気感を演出するかということになるが、会場PAの音を活かすこと、またスタジオ自体は十分な体積と空間が取れているので、後方にアンビエント収録用のマイク( SCHOEPS MK4 )を設置することである程度の空気感を出せるのではないか、とスタジオ後部上方に4箇所アンビエントマイクが設けられている。
📷スタジオ後方、高さ3〜5mの位置に等間隔で4本設置されていたSCHOEPS MK4。バイノーラル空間上部に広く配置することで、会場の空気感演出に貢献している。
そして配信用のミキサーとのやりとりだが、配信用のミックスにはYamaha QL1が用いられている。そこへ、Focusrite Red 8PreをインターフェースとしたMAC PRO(Late 2013)をDante接続することで、LANケーブル一本でのバイノーラルプロセッシングシステム追加を実現した。
配信環境が持つクセを見抜く
ここで改めて当日のシステム系統を整理する。まず、フロアからの音声をパラボックスで2系統に分割し、1系統はYamaha Rio1608で受けたのち会場PA用のYAMAHA QL1へ、もう1系統はアナログで第一スタジオのサブへと送られる。サブではアナログをYamaha Rio1608で受けたのち、こちらも配信ミックス用のQL1へ入力。ここからDanteの信号をFocusrite Red 8 PRE経由でMAC PROに送っている。Flux SPAT Revolution でバイノーラルプロセッシングを行い、再びDanteでQL1へリターン。QL1から常設のLocipo配信システムと、You Tube Live用のLive Shellへそれぞれ入力し、実際の配信へと音声が乗る仕組みになっている。
なお、You Tube Liveなどのライブ配信プラットフォームでの配信時に、どうしても生じてしまう高音域のロスがある。これは、サービスによっても異なるがそのプラットフォームで採用されている非可逆圧縮方式の音声コーデックの影響によるものだ。例えばAACやMP3といった高圧縮率重視の音声コーデックでは、人間の耳に比較的聴こえにくく、かつ再生に高いビットレートを必要とする15kHz前後から上の帯域をばっさりとフィルターでカットするような処理が行われている。こうして、ある程度の音質を保ちながらも、CD音質比で約90%ものデータ量削減を実現するというメリットはあるものの、トレードオフとなるハイ落ちの問題は避けられない。今回はテスト時からあらかじめハイシェルブのEQで2kHz以上の帯域を3〜6dbほど持ち上げるようにして対応していたが、この点は配信を行う前に事前テストで必ず実際の音声を確認し、解決策を講じておくポイントとなる。
📷演者の立ち位置とバイノーラルパンニングに違和感が無いよう、フロアアシスタントが手渡すマイクの配色でも管理。
また、今回はライブ中にボーカルマイクの音像定位を動かすということは行なっていない。配信映像は随時スイッチングされていくわけだが、これに合わせてリアルタイムにボーカルのパンニングを行うのは視聴者側も定位が次々と変化していくことになり混乱してしまうからだ。そこで、少しでも映像と音の違和感を無くすためにアイドルたちの基本の立ち位置を考慮してハンドマイクを渡すように管理、誰がどの立ち位置でどのマイクを持つのか、サブの配信ミキサーがフロアアシスタントとインカムで常にやりとりし対応している。また、オペレーションとしても常にボーカルの定位をスイッチングやアイドルたちの動きに合わせていくことは現実的ではないため、今回は前述したようにアーチ状の等間隔に配置したボーカル定位を固定して配信が行われている。むしろ、固定パンとすることできちんと空間を認識することができ、一人一人の声が分離してハッキリ聴こえる結果となるため、違和感を感じることなくコンテンツに没頭できる結果になったのではないだろうか。
配信ミックス用のYamaha QL1
QL1とDanteで信号をやり取りするためのFocusrite RED 8 PRE。SPAT RevolutionをインストールしたMAC PROのI/Oとなる。
配信ライブの需要が増えてきたいま、バイノーラルを取り入れた取り組みはリスナーに新たな発見や感動を伝える重要な機会となっている。今回の試みのように、日々研鑽を重ねる現場の音響技術者達の知恵やアイデアと、メーカーが開発意欲を燃やす最新技術、それらを積極的に取り入れたアーティストの制作意欲、これらが組み合わさって新たな技術トレンドが生まれていくのだろう。
まだまだアツいぞ!! 在名各局のバイノーラル!!
●"良いもの"だから使うスタンス / 中京テレビ放送株式会社
中京テレビでは、HPL(HeadPhoneListening)技術を活用したバイノーラルコンテンツのトライアル制作を2019年より行っている。2020年からは4Kや8Kの360°映像も加え、より没入感あふれる次世代コンテンツ制作に取り組んでいるそうだ。トライアルを含めた制作事例としては、2019年3月に地上波「ササシマ MUSIC BASE」 5.1ch放送をバイノーラル化して副音声で放送したのを皮切りに、音楽ライブ素材を使ったヘッドフォン環境での22.2chミキシング、4Kおよび8KVR + 立体音響(22.2ch)、5.1ch→バイノーラルステレオで12時間生配信(!)など、短期間の間に実に多彩な取り組みとなっている。
その中でノウハウも積み重ねられているようだが、やはりスピーカー環境と同様に、HPLをはじめそれぞれのプロセッサーの環境に慣れることでミックスが成立するというのが実感としてあるとのこと。また、基本の2MIX(または5.1ch MIX) とAmbisonicsマイクなどの空間ベースの組み合わせにより放送の延長線上でシステムを組めるという点でも手応えを得ている様子で、3Dオーディオプラグインが増え、DAWを使ってより手軽に立体音響制作ができるようになってきていることも更なる追い風になっているようだ。
表現の拡充、コンテンツの付加価値として効果的であることを技術スタッフ以外も音源を聴いて実感できているとのことで、"真新しいもの"だからではなく、"良いもの"だから使うスタンスでいきたい、とのコメントが印象的。実際に筆者もZoomでのウェビナーと並行して、YouTube Liveにて実際のVR映像を視聴することができたが、バーチャルなライブ会場の中で、巨大なPAスピーカーから音が出ているように感じられ、従来の固定カメラ+ステレオの配信より圧倒的な没入感を体験することができた。こうしたVR+バイノーラル音声でのコンテンツは、今後多くの視聴者にとって、配信ライブにおける付加価値として十分に受け入れられていくのではないだろうか。
●頭外定位で積極的に定位を広げる / メ~テレ(名古屋テレビ放送株式会社)
2020年の夏頃よりバイノーラル制作の事前検証に着手した名古屋テレビ。同年12月に開催された名古屋ギター女子部による、ギタじょぶスペシャルライブ『Live in Re:POP!!』で制作ソリューションを検討することになったそうだ。検証にあたり、ソフト/ハード問わず4種のバイノーラルプロセッサーを比較した上で「低レイテンシーかつ音質変化が少なく自然な音質」との印象から、KLANG:technologiesのKLANG:fabrikを採用している。このKLANG:fabrikは、元々ステージ上のIEM(インイヤーモニター)として開発された製品、昨年サカナクションの配信ライブでも使用されたことで大きな注目を浴びた。
イベント当日、現場でのミキシングのコンセプトとして、実際のステレオMIXの音場より派手で極端なパンニング、会場の響きを感じられるようなアンビエンス感、コーラスのパートでの分離感と立体感、アコースティックギターに包まれているような立体感、という4つのテーマを掲げてセッティング。アンビエンスマイクを会場前方と後方にそれぞれ縦軸向け、横軸向けに設置し、縦軸向けのマイクは4本同じものを使用することで音質的なつながりを重視したり、パンニングを1名だけで行った際に定位感の個人差が生じる可能性を懸念し、2名交代で両者の聴こえ方の中間を取るような工夫を行ったそうだ。
実際のライブ映像は観客による手拍子やアコギの音が、広い空間から包み込まれるように聴こえてくることや、コーラスパートの立体感が特に印象的。ミックスにあたってまず得られたのは、頭外定位させることが可能なのでミキシングの幅を広げることができたとのこと。これは積極的に定位を広げることができることでもあり、立体的な演出表現の可能性を感じさせる。また、今回のアンビエンスマイクは縦軸と横軸を10cm以内のほぼ同軸上に設置し、結果的に時間差を発生させないことで上下配置は自然に感じることができたそうだ。その一方で、頭外定位により分離が良くなるため、ボリューム操作がよりシビアになり緻密なフェーダー操作が必要になるという。フェーダー操作でいかに立体的な音場を作るのか、バイノーラル配信におけるサウンドデザインの鍵も見えてきているのかもしれない。
こちらの 2 局の取り組みについては、AES 日本支部の2021年3月例会「インターネットを用いたライブ配信におけるバイノーラル音声の制作」と題 したウェビナーにて取り上げられ情報共有されている。積極的にバイノーラルに取り組む名古屋の放送各局、得られたノウハウもやはり実践的であり、制作意欲を大いに刺激されるのではないだろうか。
*ProceedMagazine2021号より転載
3D Audio
2021/08/20
Dolby が Atmos Music 制作ワークフローWEBサイトを開設
Dolby Atmos Music 制作者に向けた、ワークフローを紹介するWEBサイトが開設されました。
Dolby Atmos Music Creator's Summit と名付けられたこのページでは、Dolby Atmos Music のワークフローを紹介するビデオや、DAWをはじめとした Dolby Atmos ミックスに必要な制作ツールを紹介するフローチャート、そして、実際に Dolby Atmos Music を制作しているエンジニアの方々のインタビュー動画などをご覧いただけます。
そのほか、Dolby Atmos Music Festival や Dolby × Sports Online Experience などのイベントサイトへのリンク、制作に使用できる機材や Dolby Atmos 対応サービスリストなどへのアクセスも設置されています。
Apple Music や Amazon Music HD が対応したことで、今後大きな広がりを見せるであろう Dolby Atmos Music。その知見を、もう一歩深めることができる内容になっていますので、ご関心をお持ちの方はぜひご覧いただくことをおすすめいたします。
Dolby Atmos Music Creator's Summit WEB ページ
Dolby Atmos 制作ツールやシステム設計に関するお問い合わせは、ROCK ON PRO までお気軽にご連絡ください。
3D Audio
2021/08/19
Dolby Atmos 関連情報 ~ Avid Blog
ここ数年で、Netflix、Amazon、Appleなど、新世代のメディアプラットフォームの旗手が続々と Dolby Atmos 対応を表明し、ユーザーがイマーシブ/空間オーディオを体験する機会は今後も増えていくと予想されます。
Avid Blog には、Pro Tools を使用した環境に限らず、Dolby Atmos 制作にかかわる数多くのノウハウや事例が掲載されています。
これから Dolby Atmos 制作に挑戦したいと考えている方、イマーシブオーディオに関する知見をより深めたいエンジニアのみなさま、ご自身の音楽を Dolby Atmos フォーマットで発表したいと考えているミュージシャンの方々など、どのような方にも参考になりそうな内容ですので、こちらの記事で一気に紹介させていただきます。
Dolby Atmos Music 関連の最新記事
AvidPlayで Dolby Atmos® Music を配信する方法(Apple Music編)
インディーズ系アーティスト/バンドやプロダクションが、AvidPlay を使って Apple Music の空間オーディオでコンテンツ配信する方法を、具体的に解説しています。
Dolby Atmos Musicでミックスするためのヒントとトリック
Dolby Atmos Music をバイノーラルミックスする際のノウハウを、22項目に渡って解説しています。Dolby Atmos でのスピーカー・ミックスに関して、一定以上の知識/経験のある方がバイノーラル・ミックスに挑戦する場合に有効な、少し上級者向けの内容となっています。
まとめページ、動画再生リストなど
Avid Web: Dolby Atmos Music関連情報ランディング・ページ
Dolby Atmos Music 制作のためのAvid ソリューションなどを紹介しているページです。
Pro Tools | Ultimate - Dolby Atmosミキシング関連ビデオ
Pro Tools | Ultimate で Dolby Atmos 制作を行う際の基本的なワークフローを解説しています。設定からデリバリーまで、実際の画面を見ながら確認できます。
Dolby Atmos Music トライアル・パッケージ 無償ダウンロード
こちらの記事でも紹介した、Pro Tools | Ultimate と Dolby Atmos Renderer の無償トライアルパッケージです。
その他、Dolby Atmos 関連ブログ
グラミー賞受賞者 ダレル・ソープのイマーシブミュージック・ミキシングに関する3つのポイント
ヘッドフォンを使用してDolby Atmos Mixを作成する
Netflix :オリジナル作品「Sol Levante」のDolby Atmos Pro Toolsセッション・ファイルを無償公開!
Sound That Moves – イマーシブ・オーディオ・プロダクション統合ワークフローの解説
AvidPlayで Dolby Atmos® Music を配信する方法
Dolby Atmos® Music のミキシング体験とAvidPlayでの配信
Dolby Atmosの中核となるPro Toolsインターフェース
あなたにとって、最適なDolby Atmos® ソフトウェアとは?
Pro Tools | UltimateとMTRXでDolby Atmos Homeファイナル・ミックス・ステージを構築提案!
Pro Tools | Ultimateによる Dolby Atmos 制作フローの概要
ROCK ON PRO では、お客様のご要望に合わせた最適なシステム提案をさせていただいております。ご相談・ご質問は、ぜひ下記 contact ボタンよりお気軽にお問い合わせください。
Music
2021/07/21
Chimpanzee Studio 様 / 〜コンパクトスタジオのスタイルを広げるDolby Atmos〜
本職はプロのミュージシャン。ドラマーを生業としつつ、スタジオの経営を鹿児島で行う大久保氏。そのスタジオにDolby Atmosの制作システムを導入させていただいたので詳細をお伝えしたい。かなり幅広い作品の録音に携わりつつも、自身もミュージシャンとしてステージに立つ大久保氏。どのようにしてスタジオ運営を始め、そしてDolby Atmosに出会ったのだろうか?まずは、スタジオ開設までのお話からお伺いした。
90年代のロスで積み重ねた感覚
それではスタジオ開設に至る経緯をたどってみたい。鹿児島出身である大久保氏は学生時代より楽器を始め、広島の大学に進学。その頃より本格的に音楽活動を始めていたということだ。普通であれば、学生時代に特にミュージシャンとしての道を見出した多くの場合は、ライブハウスの数、レコーディングセッションの数など仕事が多くある東京、大阪、福岡といった大都市をベースに活動を本格化させるのが一般的である。しかし大久保氏は日本を飛び出し、全てにおいて規模が大きく好きな音楽がたくさん生まれたロサンジェルスの地へと一気に飛び立った。ロサンジェルスは、ハリウッドを始めとしたエンターテイメント産業の中心地。大規模なプロジェクト、本場のエンターテイメントに触れることとなる。なぜ、アメリカ、そしてロサンジェルスを選んだのか?その答えは文化の違いとのことだ。アメリカには町ごとに音楽がある。ロス、ニューヨーク、シアトル、アトランタ、それぞれの街にそれぞれの音楽がある。そんな多様性、幅の広さが魅力だという。
Chimpanzee Studio(チンパンジースタジオ)
大久保 重樹 氏
ロスに移住してからは、ミュージシャンとして活躍をする傍ら、住んでいた近くにあったレコーディングスタジオのブッキングマネージメント、日本からのミュージシャンのコンサルなどを行ったということだ。時代は1990年代、まだまだ日本のアーティストたちもこぞってアメリカまでレコーディングに出かけていた時代。そこで、自身もミュージシャンで参加したり、スタジオ・コーディネイトを行ったりと忙しい日々を過ごしていたそうで、ロスでも老舗のSunset Soundやバーニー・グランドマンにも頻繁に通っていたというからその活躍がいかに本格的なものであったかが伺える。
そんな環境下で、スタジオによく出入りをし、実際にレコーディングを数多く経験するうちに、録音というものに興味が湧いてきたということだ。まずは、自身のドラムの音を理想に近づけたい、どうしたらより良いサウンドへと変わるのか?そういったことに興味を持った。そして、今でも現役として使っているBrent Averillのマイクプリを入手することになる。今では名前が変わりBAE Audioとなっているが、当時はまさに自宅の一角に作業場を設け、手作業で一台ずつ製品を作っていた文字通りガレージメーカーだった時代。創業者の名前をそのままにメーカー名をBrent Averillとしていたのも、自身の名前をフロントパネルにサイン代わりにプリントした程度、というなんとものどかな時代である。
大久保氏は、実際にBrent氏の自宅(本社?)へ出向き今でもメインで活用しているMic Preを購入したそうだ。そのエピソードも非常に面白いものなので少し紹介したい。Brentさんの自宅は大久保氏とは近所だったというのも訪問したきっかけだった。そしてそこで対応してもらったのが、なんと現Chandler Limitedの創業者であるWade Goeke氏。その後、世界を代表するアウトボードメーカーを立ち上げることとなるGoeke氏の下積み時代に出会っているというのは、ロサンジェルスという街の懐の深さを感じさせるエピソードだ。
📷Pro ToolsのI/O関連とMicPreは正面デスクの右側に設置。上のラックにはDirectout ANDIAMO、AVID MTRX。下のラックには、DBX 160A、Brent Avirill NEVE 1272、Drawmer 1960が入っている。
ネットの可能性を汲み取った1997年、鹿児島へ
そんなロスでの生活は1990年に始まったそうだが、時代はインターネットが普及への黎明期を迎えていた時期でもある。ロスと日本の通信は国際電話もあったが、すでにEメールが活用され始めていたということ。必然性、仕事のためのツールとしてインターネットにいち早く触れた大久保氏は「これさえあれば世界のどこでも仕事ができる」と感じた。アーティストならではなのだろうか?いち早くその技術の持つ可能性を感じ取り、活用方法を思いつく。感性と一言で言ってしまえば容易いが、人よりも一歩先をゆく感覚を信じ、鹿児島へと居を移すこととなる。ロスで知り合ったいろいろな方とのコネクション、人脈はインターネットがあればつながっていられる。それを信じて帰国の際に地元である鹿児島へと戻ったのである。帰国したのが1997年、日本ではこれからインターネットが本格的に普及しようかというタイミングである。その感性の高さには驚かされる。
鹿児島に帰ってからは、マンションでヤマハのアビテックスで防音した部屋を作りDAWを導入したということだ。最初はDigital PerfomerにADATという当時主流であったシステム。もちろんミュージシャンが本職なので、最初はエンジニアというよりも自分のスキルを上げるための作業といった色合いが強かったそうだ。そのエンジニアリングも、やればやるほど奥が深くどんどんとのめり込んで行き、自身でドラムのレコーディングができるスタジオの設立を夢に描くようになる。ドラムということで防音のことを考え、少し市街地から離れた田んぼの真ん中に土地を見つけ、自宅の引っ越しとともに3年がかりで作り上げたのが、現在のチンパンジースタジオだということだ。今は周りも住宅地となっているが、引っ越した当時は本当に田んぼの真ん中だったということ。音響・防音工事は株式会社SONAに依頼をし、Pro Toolsシステムを導入した。
スタジオのオープンは2007年。オープンしてからは、国内のアーティストだけではなく、韓国のアーティストの作品を手掛けることも多いということだ。チンパンジースタジオができるまではライブハウスや練習スタジオに併設する形での簡易的な録音のできる場所しかなかったそうで、鹿児島で録音に特化したスタジオはここだけとなる。チンパンジースタジオでの録音作業は、地元のCM音楽の制作が一番多いということだ。自身がメインで演奏活動を行うJazzはやはり多くなるものの、ジャンルにこだわりはなく様々なミュージシャンの録音を行っている。
地元ゆかりのアーティストがライブで鹿児島に来た際にレコーディングを行うというケースも多いということだ。名前は挙げられないが大御所のアーティストも地元でゆっくりとしつつ、レコーディングを行うということもあるということ。また面白いのは韓国のアーティストのレコーディング。特に釜山からレコーディングに来るアーティストが多いということだ。福岡の対岸に位置する釜山は、福岡の倍以上の人口を抱える韓国第2の都市でもある。しかし、韓国も日本と同様にソウルへの1極集中が起こっており、釜山には録音のできる施設が無いのが実情の様子。そんな中、海外レコーディング先としてこのチンパンジースタジオが選ばれることが多いということだ。
📷錦江湾から望む鹿児島のシンボルとも言える桜島。チンパンジースタジオは市街から15分ほどの距離にある。
📷Proceed Magazine本誌で別途記事を掲載している鹿児島ジャズフェスティバルのステッカーがここにも、大久保氏はプレイヤーとして参加している。
省スペースDolby Atmos環境のカギ
📷内装のブラッシュアップに合わせ、レッドとブラックを基調としスタイリッシュにリフォームされたコントロールルーム。右にあるSSL XL Deskはもともと正面に設置されていたものだが、DAWでの作業が増えてきたこと、またAtmosの制作作業がメインとなることを考えPCのデスクと位置が入れ替えられている。またリフォームの際にサラウンド側の回線が壁から出るようにコンセントプレートが増設されている様子がわかる。Atmos用のスピーカーはGenelec 8020、メインのステレオスピーカーはADAM A7Xとなっている。
スタジオをオープンさせてからは、憧れであったアナログコンソールSSL XL Deskを導入したりマイクを買い集めていったりと、少しづつその環境を進化をさせていった。そして今回、大きな更新となるDolby Atmos環境の導入を迎えることとなる。Dolby Atmosを知るきっかけは、とあるお客様からDolby Atmosでの制作はできないか?という問い合わせがあったところから。それこそAtmosとは?というところから調べていき、これこそが次の時代を切り拓くものになると感じたということ。この問い合わせがあったのはまさにコロナ禍での自粛中。今まで通りの活動もできずにいたところでもあり、なにか新しいことへの試みをと考えていたこともあってAtmos導入へと踏み切ったそうだ。
当初は、部屋内にトラスを組みスピーカーを取り付けるという追加工事で行おうという簡易的なプランだったというが、やるのであればしっかりやろうということなり天井、壁面の内装工事をやり直してスピーカーを取り付けている。レギュレーションとして45度という角度を要求するDolby Atmosのスピーカー設置位置を理想のポジションへと取り付けるためには、ある程度の天井高が必要であるが、もともとの天井の高さもあり取り付けの位置に関しても理想に近い位置への設置が可能であった。取り付けについても補強を施すことで対応しているという。合わせて、壁面にも補強を行いスピーカーを取り付けている。このような設置とすることで、部屋の中にスピーカースタンドが林立することを避け、すっきりとした仕上がりになっている。また、同時にワイヤリングも壁面内部に埋め込むことで、仕上がりの美しさにもつながっている。環境構築にはパワードスピーカーを用いるケースが多いが、そうなると、天井や後方のサラウンドスピーカーの位置までオーディオ・ケーブルとともに電源も引き回さなければならない。これをきれいに仕上げるためには、やはり内装をやり直すということは効果的な方法と言える。
📷天井のスピーカーはDolby Atmosのリファレンスに沿って、開き角度(Azimuth)45度、仰角(Elevation)45度に設置されている。天井が高く余裕を持って理想の位置へ設置が行われた。
今回のDolby Atmos環境の導入に関しては、内装工事という物理的にスピーカーを取り付ける工事もあったが、システムとしてはオーディオインターフェースをMTRXへと更新し、Dolby Atmos Production Suiteを導入いただいたというシンプルな更新となっている。XL Deskを使ったアナログのシステム部分はそのままにMTRXでモニターコントロールを行うAtmos Speakerシステムを追加したような形だ。録音と従来のステレオミキシングに関しては、今まで通りSSL XL Deskをメインとしたシステムとなるが、Dolby Atmosミックスを行う際にも従来システムとの融合を図った更新が行われている。やはり今回のシステム更新においてMTRXの存在は大きく、ローコストでのDolby Atmos環境構築にはなくてはならないキーデバイスとしてシステムの中核を担っている。
📷今回更新のキーデバイスとなったAvid MTRX、持ち出しての出張レコーディングなどでも利用するため別ラックへのマウントとなっている。
📷収録時のメインコンソールとなるSSL XL Desk。プレイヤーモニターへのCueMixなどはこのミキサーの中で作られる。アナログミキサーなのでピュアにゼロレイテンシーでのモニタリングが可能だ。
📷ブースはドラム収録できる容積が与えられ、天井も高くアコースティックも考えられた設計だ。
Dolby Atmos構築のハードルを下げるには
エンドユーザーに関しては、ヘッドフォンでの視聴がメインとなるDolby Atmos Musicだが、制作段階においてスピーカーでしっかりと確認を行えることは重要だ。仕込み作業をヘッドフォンで行うことはもちろん、ヘッドフォンでのミックスを最終的にしっかりと確認することは必要なポイントではある。しかし、ヘッドフォンでの視聴となるとバイノーラルのプロセッサーを挟んだサウンドを聴くことになる。バイノーラルのプロセスでは、上下や後方といった音像定位を表現するために、周波数分布、位相といったものに手が加わることとなる。サウンドに手を加えることにより、擬似的に通常のヘッドフォン再生では再現できない位置へと音像を定位させているのだ。これは技術的にも必要悪とも言える部分であり、これを無くすことは難しい。スピーカーでの再生であればバイノーラルのプロセスを通らないサウンドを確認することができ、プロセス前のサウンドで位相や定位などがおかしくないか、といったことを確認できる。これは業務として納品物の状態を確認するという視点からも重要だと言える。
制作の流れとしては、スピーカーで仕上げ、その後にヘッドフォンでどのように聴こえるかを確認するわけだが、バイノーラルのプロセスを通っているということは、ここに個人差が生じることになる。よって、ヘッドフォンでの確認に関して絶対ということは無い。ステレオでのMIXでもどのような再生装置で再生するのかによってサウンドは変質するが、その度合がバイノーラルでは耳の形、頭の形といった個人差により更に変化が生じるということになる。ここで、何をリファレンスとすればよいのかという課題が生じ、その答え探しの模索が始まったところだと言えるだろう。バイノーラルのプロセスでは音像を定位させた位置により、音色にも変化が生じる。そういったところをスピーカーとヘッドフォンで聴き比べながら調整を進めるということになる。
制作のノウハウ的な部分に話が脱線してしまったが、スピーカーでサウンドを確認できる環境が重要であるということをご理解いただけたのではないだろうか。省スペースなDolby Atmos環境であっても、物理的に複数のスピーカーを導入するといった機材の追加は、その後に制作される作品のクオリティのために必要となる。また、システムとしてはAvid MTRXの登場が大きい。モニターコントローラーや、スピーカーチューニングなどこれまでであれば個別に必要であった様々な機器を、この一台に集約することができている。チンパンジースタジオでは、このMTRXの機能をフルに活用し、機材の更新は最低限にして、内装更新やスピーカー設置といったフィジカルな部分に予算のウェイトを置いている。前号でご紹介した弊社のリファレンスルームもしかり、そのスペースにおけるキーポイント明らかにし、そこに焦点をあてて予算を投入することで、Dolby Atmos Music制作環境の構築はそれほど高いハードルにはならないということをご理解いただきたい。
大久保氏は今回Dolby Atmosのシステムを導入するまでは、完全にステレオ・オンリーの制作を行ってきており、5.1chサラウンドのミキシング経験もなかったそうだが、今回の導入でステレオから一気にDolby Atmos 7.1.4chへとジャンプアップしている格好だ。お話をお伺いしたときには、まだまだ練習中ですと謙遜されていたが、実際にミックスもすでに行っており本格稼働が近いことも感じられる。今後はアーティストの作品はもちろん、ライブ空間の再現など様々なことにチャレンジしたいと意気込みを聞くことができた。鹿児島で導入されたDolby Atmosが、その活動に新たな扉を開いているようである。
*ProceedMagazine2021号より転載
NEWS
2021/07/09
Dolby AtmosやSONY 360 RA関連記事が一度に見られる!3D Audioボタンを設置しました。
Apple Musicでの配信がスタートしたことで、いよいよ本格的な普及が予想されるDolby Atmos Music。次世代放送規格MPEG-Hコーデックを使用し、これから爆発的な普及もあり得るSONY 360 Reality Audio(360 RA)。
これらに代表される、3Dオーディオ/空間オーディオ/Immersive Sound関連の記事をピックアップして表示することができる「3D Audio」ボタンをROCK ON PRO WEBサイトトップページに設置しました。
この分野の初期から様々な情報を発信してきたROCK ON PROならではの豊富なリソースを、ぜひご活用ください!
3Dオーディオ関連記事一覧>>
NEWS
2021/07/07
Proceed Magazine 2021 販売開始! 特集:Sound on 4π
Proceed Magazine 2021号が発刊です!今号のテーマは「Sound on 4π」。Apple MusicがDolby Atmos対応を果たしたことも記憶に新しいところですが、Amazon Music HDやDeezer、nugs.net、TIDALといった配信サービスがソニーの立体音響技術を活用した360 Reality Audioでの配信をスタートさせるなど、新たなテクノロジーが生む広大な音のフィールドがリスナーの手元に届けられるようになっています。そのオーディオリスニングに新たな体験をもたらすテクノロジーをクリエイターがどう作品に昇華させることができるのか、制作の最前線から技術解説に至るまでを詳細に追いかけました。さあ!皆さんもこのムーブメントをシェアしましょう!
テクノロジーの進化を待たずして日常的な体験をもたらすことが今こそ求められる!
◎特集:Sound on 4π
「4π」、それはソナ中原氏も音場という点でのゴールだという上下空間も含む360度の空間。その空間を描く力は、クリエイターの作品を拡張する手段。しかしその力は、一般ユーザーに届くのか。それが私達の未来を創る。
これまで現実味があるとは言い難かったオンラインでのバーチャルなテクノロジーが、半ば強制的にではあるが実生活に使われ出したのが2020年。そのメリットもデメリットも実感としてあらわになっているが、人々の生活に根付くことで新たなテクノロジーを迎え入れることへの心理的なハードルは間違いなく下がってきている。
これに伴うようにコンテンツの提供方法についても再構築されていくのが2021年の潮流なのではないだろうか。音楽の分野でDolby Atmos Musicが胎動するように、放送・OTT・映画・ゲームなどのコンテンツでもよりイマーシブでパーソナルな環境が提供され出している。ここに音響の側面から新たな価値観を普遍的に提供できるキーテクノロジーとなるのがbinauralであり、広くあまねく多くの人々が4πの新たな音響定位を体験することになる。
テクノロジーの進化を待たずして日常的な体験をもたらすことが今こそ求められる。ユーザーに強いることは意味を持たない。挑まなければならない、それが私達のテーマだ。
Proceed Magazine 2021
全144ページ
販売価格:500円(本体価格463円)
発行:株式会社メディア・インテグレーション
◎SAMPLE (画像クリックで拡大表示)
◎Contents
★People of Sound
Kevin Penkin 氏インタビュー
★ROCK ON PRO 導入事例
洗足学園音楽大学
★Sound on 4π
染谷和孝氏、古賀健一氏 / 360 Reality Audio / 名古屋バイノーラル現場 /
鹿児島チンパンジースタジオ / イマーシブ制作ツールの選び方2021
★Product Inside
AMS Neve 8424 / iZotope Spire Gen2
★ROCK ON PRO 導入事例
株式会社富士巧芸社 FK Studio / 株式会社毎日放送
★ROCK ON PRO Technology
IPビデオ伝送の筆頭格、NDIを知る。 / どんなDAWでもできるぞ!! Dolby Atmos /
しまモンの、だってわかんないんだモン!!
★Build Up Your Studio
パーソナル・スタジオ設計の音響学 その23
特別編 音響設計実践道場 〜第四回 ロビングエラー〜
★Power of Music
鹿児島ジャズフェスティバル / TOONTRACK EZ BASS / ROTH BART BARON 三船雅也
★BrandNew
SSL / Earthworks / Blackmagic Design / Focal / Avid /
Ableton / PHONON / YAMAHA / Sonarworks /
Gamechanger Audio / Focusrite / Modal Electronics /
Antelope / ELEKTRON / Universal Audio / SENNHEISER / SAMSUNG
★FUN FUN FUN
デザインアンダーグラウンド SHIBUYA-BASE
アメリカンミュージックの神髄
◎Proceed Magazineバックナンバーも好評販売中!
Proceed Magazine 2020-2021
Proceed Magazine 2020
Proceed Magazine 2019-2020
Proceed Magazine 2019
Proceed Magazineへの広告掲載依頼や、内容に関するお問い合わせ、ご意見・ご感想などございましたら、下記コンタクトフォームよりご送信ください。
Support
2021/06/17
【AVID】Dolby Atmos Music トライアル・パッケージを配布中!
Apple Musicの"空間オーディオ"対応で世間の関心が高まっているイマがチャンス!
先日、ついにApple Musicの「空間オーディオ」機能の提供が開始されました。「早速試してみた!」という"耳が早い"音楽ファン達によるネット上の反応も概ね上々。いわゆる頭内定位が発生しない(※1)という点が、「音楽はスピーカーでしか聴かない」という層にも徐々に受け入れられ始めているのではないでしょうか。(※1 頭内定位:通常のステレオ音源をイヤフォンやヘッドフォンで聴く際、音像が頭の中で鳴っているように聞こえる現象)
さて、普段よりDAWでの楽曲制作に親しんでいる皆さまの中には、「自分の楽曲をDolby Atmos Music化してみたい!」と思った方も多いはず。本記事では、そんなあなたへの朗報をお届けします!
>>「そもそもDolby Atmosって何!?」という方はこちらの記事をチェック↓
https://pro.miroc.co.jp/solution/dolby-atmos-proceed2020/#.YMs6yDb7TOQ
必要なモノはPCとヘッドフォン!〜Dolby Atmos Music トライアル・パッケージを無料で入手〜
Media
2021/05/31
音楽配信NOW!! 〜イマーシブ時代の音楽配信サービスとは〜
レコードからCDの時代を経て、音楽の聴き方や楽しみ方は日々変化を続けている。すでにパッケージメディアの販売額を配信の売上が超えて何年も経過している。最初は1曲単位での販売からスタートした配信での音楽販売が、月額固定での聴き放題に移行、その月額固定となるサブスクリプション形式での音楽配信サービスに大きな転機が訪れている。新しい音楽のフォーマットとして注目を集めるDolby Atmos Music、SONY 360 Reality Audio。これらの配信を前提としたイマーシブフォーマットの配信サービスがサブスク配信上でスタートしている。いま、何が音楽配信サービスに起こっているかをお伝えしたい。
目次
いよいよ風向きが変わってきたハイレゾ
バイノーラルという付加価値が始まっている
イマーシブは一般的なリスナーにも届く
1.いよいよ風向きが変わってきたハイレゾ
レコードからCDへとそのメディアが変わってから、音楽の最終フォーマットは44.1kHz-16bitのデジタルデータという時代がいまだに続いている。Apple Music、Spotify等のサブスクサービスも44.1kHz-16bitのデジタルデータの圧縮である。そんな現実を振り返ると、2013年頃にハイレゾ(High Resolution Audio)という言葉が一斉を風靡した際に48kHz-24bit以上(これを含む)の音源をハイレゾとするという判断は間違っていなかったとも感じる。逆に言えば、制作の現場でデフォルトとなっている48kHz-24bitというデジタルデータは、まだまだその音源を聴くユーザーの元へ届けられていないということになる。ハイレゾ音源に関しては、付加価値のある音源として1曲単位での販売がインターネット上で行われている。DVD Audioや、SACDなどハイレゾに対応したパッケージも存在はしたが、残念ながらすでに過去のものとなってしまっている。これらの音源は残念ながら一般には広く普及せず、一部の音楽愛好家の層への浸透で終わってしまった。
もちろん、その素晴らしさは誰もが認めるところではあるが、対応した再生機器が高額であったり、そもそも音源自体もCDクオリティーよりも高価に設定されていたため、手を出しにくかったりということもあった。しかし再生機器に関してはスマホが普及価格帯の製品までハイレゾ対応になり、イヤフォンやヘッドフォンもハイレゾを十分に再生できるスペックの製品が安価になってきている。
そのような中、2019年よりハイレゾ音源、96kHz-24bitの音源をサブスクサービスで提供するという動きが活発化している。国内ではAmazon Music HD、mora qualitasが2019年にサービス開始、2020年にはDeezerがスタート、海外に目を向けるとTIDAL、Qobuzがハイレゾ音源のサブスクサービスを開始している。多くのユーザーが利用するSpotifyやApple Musicよりも高額のサブスクサービスだが、ほぼすべての楽曲をロスレスのCDクオリティーで聴くことができ、その一部はハイレゾでも楽しめる。この付加価値に対してユーザーがどこまで付いてくるのか非常に注目度が高い。個人的には「一度ロスレスの音源を聴いてしまうと圧縮音声には戻りたくない」という思いになる。ハイレゾの音源であればなおのこと、その情報量の多さ、圧縮により失われたものがどれだけ多いかを思い知ることになる。あくまでも個人的な感想だが、すでにサブスクサービスにお金を支払って音楽を楽しんでいるユーザーの多くが、さらにハイクオリティーなサブスクサービスへの移行を、たとえ高価であっても検討するのではないかと考えている。
執筆時点では日本国内でのサービスが始まっていないTIDAL。Dolby Atmos、SONY 360 Reality Audio、ハイレゾすべてが聴き放題の配信サービスとなっており、ミュージシャンのJAY-Zがオーナーのサブスク配信サービスとしても有名である。Dolby Atmosを聴くためには、HiFiプランに加入してDolby Atmos対応の端末(下部製品が一例)を利用することとなる。
2.バイノーラルという付加価値が始まっている
今の音楽の楽しみ方は、スマホで再生をして、ヘッドフォンやイヤホンで楽しむ、といった形態が大部分となっている。音楽のヘビーユーザーである若年層の部屋には、ラジカセはもちろん、スピーカーの付いた製品はすでに存在していない状況にある。高価なハイレゾ対応のオーディオコンポで楽しむのではなく、手軽にどこへでも音楽を持ち出し、好きなところで好きな曲を楽しむというのがサブスクサービスの利用者ほとんどの実態ではないだろうか。
好きな音楽を少しでも高音質に楽しみたい。そんな願いを手軽に叶えてくれるのがハイレゾのサブスクサービスである。原盤が96kHz/24bitというのは、ここ数年の作品であれば存在しているものも多い。また海外からはデジタル・リマスター版として過去の名盤が多数ハイレゾフォーマットで登場している。
さらに、音楽の楽しみ方に次の時代がやってきている。Dolby Atmos MusicとSONY 360 Reality Audio(以下、Sony 360RA)という2つのフォーマット。イマーシブ(3D)の音源である。後方や天井にスピーカーを設置して聴くのではなく、バイノーラルに変換したものをヘッドフォンで楽しむ。フォーマットを作ったメーカーもそういった楽しみ方を想定し、ターゲットにして作ったものだ。そしてこれらのフォーマットは、ハイレゾサブスクサービスのさらなる付加価値として提供が始まっている。Dolby Atmos Musicであれば、Amazon Music HD、TIDAL。Sony 360RAは、Amazon Music HD、Deezer、TIDALで楽しむことができる。すべてを楽しもうというのであれば、両者とも対応のTIDALということになる。
表1 主要音楽配信サービス概要(2021年5月現在) ※画像クリックで拡大
(※1)2021年5月追記
2021年後半にはSpotifyが「Spotify HiFi」としていくつかの地域でロスレス配信に対応することを発表しました。さらには、2021年6月にはApple Musicがロスレスとハイレゾ、そして空間オーディオ(Apple製品におけるイマーシブフォーマットの呼称)への対応を発表しています。
ただし、さすがに最新のフォーマットということで少しだけ制約がある。特にDolby Atmosに関しては再生端末がDolby Atmosに対応している必要があるが、これも徐々に対応機器が増えている状況。高価なものだけではなく、Amazon Fire HDといった廉価なタブレットにも対応製品があるのでそれほどのハードルではない。Amazon Music HDでの視聴は執筆時点ではEcho Studioでの再生に限られているのでここも注意が必要だ。また、本記事中に登場するQobuz、TIDALは日本国内でのサービスは提供前の状況となる。
こちらは国内ですでにサービス提供されているAmazon Music HD。このサブスク配信サービスもDolby Atmos、SONY 360 Reality Audio、ハイレゾすべてが聴き放題。ただし、Dolby Atmos、SONY 360 Reality Audioを楽しむことができるのはAmazon Echo Studioのみという対応状況になる。
3.イマーシブは一般的なリスナーにも届く
これらのハイレゾサブスクサービスの展開により、手軽にイマーシブ音響を楽しむ土壌はできあがる。バイノーラルで音楽を楽しむということが普通になるかもしれない。もちろんハイレゾを日々聴くことの楽しみもある。ここで注目をしたいのは、ハイレゾの魅力によりハイレゾサブスクサービスを楽しみ始めたユーザーが、イマーシブも追加のコスト無しで聴けるという点だ。これまでのイマーシブは興味はあっても設備に費用がかかる、スピーカーも多数必要、設置ができない、そういったハードルを超えた先にある存在だった。それが、いま手元にあるスマホとヘッドフォンでサブスクサービスの範囲内で楽しめるということになる。映画館ですらDolby Atmosの特別料金が設定されているが、ハイレゾサブスクサービスにはそれがない。多くのユーザーがその楽しさに気づくことにより、より一層制作も加速することとなるだろう。
制作側の話にも触れておこう。Proceed Magazineでは、以前よりDolby Atmos、SONY 360RAを記事として取り上げてきている。
Dolby Atmosは、7.1.2chのBEDトラックと最大118chのObject Audioにより制作される。Dolby Atmos Musicでは、バイノーラルでの視聴が前提となるため、レンダラーに標準で備わるバイノーラルアウトを使って作業を行うこととなる。となると、最終の仕上げまでDolby Atmos Production Suiteで行えるということになる。Dolby Atmosの制作に対応したPro Tools Ultimate、NUENDOがあれば、Production Suiteの追加でDolby Atmos Musicの制作は始めることができる。
https://pro.miroc.co.jp/headline/daps-90day-trial/#.YK3ozZP7TOQ
SONY 360RAの制作ツールは執筆時点ではベータ版しか存在しない。(※2)まさに、ベータテスターのエンジニアから多くのリクエストを吸収し正式版がその登場の瞬間を待っている状況だ。360RAはベースの技術としてはAmbisonicsが使われており、完全に全天周をカバーする広い音場での制作が可能となる。すでにパンニングのオートメーションなども実装され、DAWとの連携機能も徐々にブラッシュアップされている。正式版がリリースされれば、いち早く本誌紙面でも紹介したいところだ。
(※2)2021年5月追記
360RA制作用プラグイン、360 Reality Audio Creative Suite (通称:360RACS)がリリースされました!
価格:$299
対応フォーマット:AAX、VST
対応DAW:Avid Pro Tools、Ableton Live ※いずれも2021年5月現在
https://360ra.com/ja/
さらなる詳細は次号Proceed Magazine 2021にてご紹介予定です。
←TIDALの音質選択の画面。Normal=高圧縮、High=低圧縮、HiFi=CDクオリティー、Master=ハイレゾの4種類が、対応楽曲であれば選択できる。Wifi接続時とモバイル通信時で別のクオリティー選択ができるのもユーザーに嬉しいポイント。※画像クリックで拡大
←TIDALがDolby Atmosで配信している楽曲リストの一部。最新のヒットソングから70年代のロック、Jazzなど幅広い楽曲がDolby Atmosで提供されている。対応楽曲は、楽曲名の後ろにがDolbyロゴが付いている。※画像クリックで拡大
ハイレゾサブスクサービスは、新しいユーザーへの音楽の楽しみを提供し、そのユーザーがイマーシブ、バイノーラルというさらに新しい楽しみに出会う。CDフォーマットの誕生から40年かかって、やっとデジタル・オーディオの新しいフォーマットが一般化しようとしているように感じる。CDから一旦配信サービスが主流となり、圧縮音声が普及するという回り道をしてきたが、やっと次のステップへの道筋が見えてきたと言えるのではないだろうか。これまでにも色々な試みが行われ、それが過去のものとなっていったが、ハイレゾというすでに評価を得ているフォーマットの一般化の後押しも得て、イマーシブ、バイノーラルといった新たなサウンドがユーザーにも浸透し定着していくことを願ってやまない。
https://pro.miroc.co.jp/headline/rock-on-reference-room-dolby-atmos/#.YLTeSpP7TOQ
https://pro.miroc.co.jp/solution/dolby-atmos-proceed2020/#.YLTeFJP7TOQ
https://pro.miroc.co.jp/headline/netflix-sol-levante-dolby-atmos-pro-tools-session-file-open-source/#.YLTd9ZP7TOQ
https://pro.miroc.co.jp/headline/pro-tools-carbon-proceedmagazine/#.YLTdn5P7TOQ
https://pro.miroc.co.jp/solution/mac-mini-ht-rmu/#.YLTen5P7TOQ
NEWS
2021/02/19
Dolby Atmos Production Suite 90日間トライアルライセンスが入手可能
Dolby Customerサイトにて、Dolby Atmos Production Suiteの90日間トライアルライセンスが提供されています。Dolby Atmos Production Suite(以下DAPS)とは、AVIDストアにて通常約$300で販売されている有償のプラグインで、Dolby Atmos Rendererや、Dolby Audio Bridge、Pro Tools/Nuendo用のテンプレートなど、Dolby Atmos作品の制作に必要なツールが含まれています。※Dolby Audio BridgeはmacOSのCore Audioベースの技術のため、MACのみ対応
90日間トライアルライセンスの入手方法は簡単!
1.こちらのページから名前、メールアドレス、興味のある分野に関する簡単なアンケートを入力、エンドユーザーライセンス契約とプライバシーポリシーに関する文章を読み、ラジオボタンをONにして"SUBMIT"をクリックして次のページへ。
2."Download Version 3.5"をクリックして、最新のDAPSを入手。"GET TRIAL LICENSE"をクリックして次のページへ。
3.iLok IDと登録メールアドレスを入力すると、iLokアカウントにライセンスがデポジットされます。あとはいつも通り、お使いのiLokにライセンスを移動してソフトウェアを起動します。
どうやって作業を始めるの?
いざインストールして、誰しもが最初に試みるのが通称"音源ぐりぐり"だと思いますが、その方法は弊社刊行のProceed Magazine 2020または下記のページにてご確認ください。(Pro Toolsのバージョンが古いため外見が異なっている部分がありますが、基本的な操作は同じです。)
https://pro.miroc.co.jp/solution/dolby-atmos-proceed2020/#6
これを機に、是非、Dolby Atmos Musicのミキシングに挑戦してみてはいかがでしょうか? お問い合わせは下記コンタクトフォームからご送信ください。
その他、Dolby Atmos関連情報
>>Rock oN 渋谷リファレンスルームではDolby Atmosの試聴体験ができます。現在来店は完全ご予約制ですので、こちらからお問い合わせください。
https://pro.miroc.co.jp/headline/rock-on-reference-room-dolby-atmos/#.YC8k2xP7TOQ
>>Netflix :オリジナル作品「Sol Levante」のDolby Atmos Pro Toolsセッション・ファイルを無償公開!
https://pro.miroc.co.jp/headline/netflix-sol-levante-dolby-atmos-pro-tools-session-file-open-source/#.YC8ldhP7TOQ
>>AVID BLOGにてDolby Atmos Music ミキシング体験記が公開中!
https://pro.miroc.co.jp/headline/avid-blog-dolby-atmos-2020-08/#.YC8pzRP7TOQ
・Dolby Atmos制作にもぴったり、AVID MTRX Studioの詳細をCheck!
>>AVID MTRX Studio ウェビナー アーカイブ映像公開中!
https://pro.miroc.co.jp/headline/mtrx_webinar_archive_202007/#.YC-YHxP7TOQ
Broadcast
2021/01/28
朝日放送テレビ株式会社 様 / 〜Immersive制作を実現する、放送局におけるMA室改修を読み解く〜
大阪のテレビ朝日系列の放送局、朝日放送テレビ株式会社のMA室の改修を行った。放送局のMA室ということで、色々なトラブルに対応するための工夫はもちろんのこと、様々なスタッフが利用する施設であるため、操作の簡便化などを念頭に置きつつ、イマーシブフォーマットのオーディオへ対応するため天井へ4本のスピーカーを増設し、5.1.4ch formatのDolby Atmos仕様での最新設備へとブラッシュアップが行われた。朝日放送テレビでは、Flux Spat Revolutionをすでに使用いいただいていたこともあり、このソフトウェアを活用することで、様々なフォーマットの視聴なども行うことを前提として設計が行われている。
AvantをS6 + MTRXで置き換える
朝日放送テレビのMA室はこれまで、SSL Avant 48faderがメインコンソールとして導入され、コンソールミックスを前提とした設備となっていた。そのためMA室には、多数のアウトボード・エフェクトが準備されたシステムが組まれていた格好となる。しかし昨今はDAW内部でのIn The Boxミキシングが主流となっているということもあり、コンソールの更新にあたりデジタルコンソールとともに、DAWコントローラーとして主流となっているAvid S6が並行して検討された。放送局の設備として、コンピューター(DAW)が無いと何もできない製品を採用すべきなのか?という議論が当初は行われた。この部分はAvid MTRXが登場し、これをメインDAWとは別のPCで制御することで、システムの二重化が行えることがわかり、少なくともデジタルコンソールのセンターセクション部分は、十分に代替可能であるという結論となった。他にも様々な側面より検討が進められ、今回の更新ではバックボーンとして広範なトラブルにも対応を可能とする大規模なAvid MTRXを活用したシステムとAvid S6の導入となった。
Avid S6は40 Fader仕様と、従来のAvantと同一の規模。5KnobにDisplay Moduleが組み合わされている。モニターセクションは、MTRXをDADmanでコントロール。この部分は、前述の通りDADman専用にMac miniが用意され、DAW PCを起動せずともモニターセクションが単体で動作するような設計となっている。モニターセクションのリモートにはDAD monが用意され、フィジカルでのコントロールの利便性を上げている。DADman部分を二重化するにあたり、同一のプリセットファイルをサーバー上にバックアップし、PCの不良の際にはそちらからDADmanを起動することで回避できるように工夫がなされている。
これまで使用してきたAvantにはかなり多くの回線が立ち上がっていた、それらを整理しMTRXに立ち上げてある。そのため3台のMTRXが導入されたのだが、その使い分けとしてMain/SubのPro Toolsにそれぞれアナログ入出力、メーター関連、VTR送りとしてほぼ同一の仕様が2台。3台目はMain Pro Toolsに接続され、AV Ampからのアナログ入力及び、外部エフェクトSystem 6000が立ち上がっている。ここもシステム二重化が考えられている部分で、Main Pro Toolsの不具合時には、パッチでSub Pro ToolsがMainの回線を取れるように、また、MainのMTRXが壊れた際にはSubのMTRXを差し替えることで復旧が行えるようになっている。
MTRX3台をブリッジするDante
3台のMTRXは128ch Dante Option Moduleを使用してDante Networkに接続されている。この128chの回線が3台のMTRXの信号のブリッジとして活躍している。Danteであれば信号を分配することが容易なため、例えばAV Ampからの信号は、Dante上でモニターセクションをコントロールしているMain1台目のMTRXとSub MTRXへと送られているということだ。一見ブラックボックスに見えるこのシステムだが、一歩引いて考えれば理にかなったシンプルなシステムであることがわかる。二重化を前提としたシステムではあるが、普段はパッチレスですべての信号がMain/Sub Pro Tools両者で受け取れるよう工夫が行われている。
文字で書いてしまうとたしかにシンプルではあるが、かなりの検討を重ねた結果たどり着いたシステムであることには変わりない。また、実際のハードウェアセットアップにあたっては別の役目(パケットの流れるNetworkの切り分け)にも苦心した。具体的には、実際の音声回線であるDante(Primary/Secandary2系統)、S6をコントロールするEuCon、MTRXを制御するDADman、Pro Tools同士/Media Composerを同期させるVideo Satellite、ファイルベースのワークフローに欠かせないファイルサーバー。これら5つの異なるパケットがNetworkを必要とする。どれとどれを混ぜても大丈夫なのか、分けなければいけないのか?そして、ややこしいことにこれらのほとんどが同じ機器に接続されるNetworkであるということだ。できる限り個別のNetworkとはしていたが、すべてを切り分けることは難しく、かなり苦労をして設計を行うこととなった。様々な機器がNetowork対応となるのは利便性の上で非常に好ましいが、機器の設計者はそれらが同一のNetwork上で安定して共存できるようにしてもらいたいと切に願うところである。せっかく便利なNetoworkを活用した機器も、使いづらくトラブルを引き起こすものとなってしまっては本末転倒である。
朝日放送テレビのMA室には4台のPCがセットアップされている。それぞれ役割としてはMain Pro Tools用、Sub Pro Tools兼Media Composer(Video Satellite)用、DADman用、Flux Spat Revolution用となっている。これらのKVMの切替はAdderView Pro AV4PROが使われている。この製品をコントロールルームに置かれた外部リモコンにより切り替えるシステムだ。切替器本体はマシンルームに置かれ、切替後の信号がコントロールルームまで延長され引き込まれている。これにより延長機の台数を減らすことに成功している。KVM Matrixを実現するシステムはまだまだ高価であり、それに近しい安価で安定したシステムを構築するのであれば、このアイデアは非常に優れていると言えるだろう。
FLUX Spat Revolution専用機、DADman専用機として運用されるMac mini。その上部には、KVM切替器であるAdderが見える。
高さ方向に2層のレイヤーを持つ
スピーカーシステムの話に移ろう。今回のMA室改修ではフロントバッフルを完全に解体し、TVモニターの更新、そしてLCR及びハイトLRの埋め込みが新しいフロントバッフルに対して行われた。サラウンドサイドのハイトスピーカーは、既設のサラウンドスピーカー設置用のパイプを使っている。そのため実際の増設分は、サラウンドLRの2本のスピーカーおよび、スピーカースタンドである。この改修により、Dolby Atmosフォーマットを参考とした5.1.4chのスピーカーシステムが構築された。なぜ7.1.4chにしなかったのか?という部分の疑問はもちろん浮かぶだろうが、朝日放送テレビにとって高さ方向に2層のレイヤーを持てたということの方が、後述するFlux Spat Revorutionの使用を考えると重大事である。スピーカーは元々5.1chのシステムで使用されていたMusik Electronicの同一の製品で4本が増設されている。
スピーカーレイアウトの平面図。L,R,Ls,Rs各スピーカーの上空にTOPスピーカーが配置されている。平面のスピーカーはMusik RL904が5本、上空はRL906が4本、これで5.1.4chのスピーカーレイアウトとなっている。フロントL,Rchはメインであるステレオ作業を考慮しラージスピーカーを理想位置である開き角30度に、Atmosはその内側22.5度に配置している。
スピーカーの補正用プロセッサーは、MTRXのSPQ Optionが活用された。SPQ Optionは、スピーカーの各出力に対して最大で16chのEQ及び、ディレイを掛けることができる強力なプロセッサーカードだ。これはMTRXのOption Moduleスロットを1つ専有してその機能が追加されることとなる。この機能を活用することにより、外部のプロセッサーを使わずにスピーカー補正を行うことができる。システムがシンプルになるというメリットも大きいが、クオリティーが高いMTRXのDA前段でプロセスが行われるため、そのアナログクオリティーをしっかりと享受できるというのも見逃せないポイントだ。
スピーカー正面図
リアハイトのスピーカーは2本のバーに専用金具でクランプ
フロントハイトのスピーカーは高さを得るため半埋め込みに
Ambisonics制作はスタートしている
Flux Spat Revolutionの操作画面(メーカーHPより抜粋)
これまで何度となく名前が挙がっているFlux Spat Revolution。このソフトウェアが何を行っているのかというと、3D空間に自由配置した音声をその一番近傍のスピーカーから再生するということになる。この機能を活用することで、各種イマーシブフォーマットを再現性高く再生することが可能となる。基本的なスピーカーの設置位置はDolby Atmosに倣ったものだが、Auro 3D、22.2ch、さらにAmbisonicsなども最適な環境で視聴することができるということになる。スピーカー数が多ければ多いほどその正確性は増すが、スピーカー数が限られた環境だとしてもその中でベストのパフォーマンスを得ることができるソリューションでもある。そして、このプロセッサーを通して作った(3D空間に配置した)音声は、ありとあらゆるフォーマットの音声として出力することができる。Dolby Atmos 5.1.4chの環境で制作したものを、スピーカーの設置角度の差異などを踏まえAuro 3D 13.1chとして出力できるということだ。
実際にこのFlux Spat Revolutionを使い、Ambisonicsの音声の制作は行われており、今後の配信サービスでの音声として耳にすることがあるかもしれない。直近では、ユネスコの無形文化遺産にも登録されている人形浄瑠璃・文楽の配信動画のVR版の制作に活用されたということだ。都合により、最終の音声はSpat Revolution経由のものではないとのことだが、Ambisonics音声の制作への挑戦がすでに始まっているとのこと。各所に仕込んだマイクの音声をパンニングすることで3D空間に高い再現性を持たせる、つまり、実際に仕込んだマイクの位置をSpat上で再現して、そこで鳴っている空気感をも再現することができているということだ。すでに各所で話題となっている、3D音声を使ったライブ配信などにも活用可能なSpat Revolution。ポストプロダクションからライブ会場まで様々な分野に活躍の場を広げているが、このMA室のようにしっかりと調整された環境で確認をしながら作業が行えるということは、作品のクオリティーアップ、作業効率の向上など様々なメリットをもたらすことだろう。
放送でも広がるイマーシブコンテンツ
スタジオの全景。新しく作られたフロントバッフルには、従来より引き継がれたFostexのラージモニターとハイト方向を含む5本のMusik Electornicのスピーカーが見える。
放送局としては、強みでもあるスポーツ中継などにもこのソリューションの活躍の場を広げるべく様々な実験が行われているということだ。確かに、野球中継、サッカー中継などスタジアムで行われる音声であれば、会場の空気感をAmbisonicsで表現することは可能である。すでにスタジアムの様々な箇所に設置されている観客マイクを、Spat Revolution上に相対的な位置関係を再現することで、かなりクオリティーの高い現場の空気感の再現が可能となるのではないだろうか。これらの結果が早く楽しめるようになれば、現在の動画視聴の多くを占めるスマホ / タブレット+イヤホンの環境での視聴体験を拡張するものとなってくれるだろう。
少し脱線するが、この場合の配信音声はバイノーラルへと変換済みの2chの音声になると予想される。もちろん、一部のDolby Atmos Music、Sony 360 Reality Audioなどのようにマルチチャンネルデータのまま配信を行い、ユーザーの手元のデバイスでバイノーラルプロセスを行うものもあるが、映像配信においてはまだまだ2chが主流であると言える。バイノーラルの音声は、一般的なスピーカーで聞いても破綻のない音声であることは周知の事実である。もちろん、従来のステレオ音声に比べれば、音像が少し遠い、音の輪郭がぼやけるなどはあるものの、破綻をしているような音声ではない。そういったことを考えると、非常に今後に期待のできる技術ではあるし、放送局の持つノウハウを活かしたコンテンツの未来を感じさせるものであると言えるだろう。Spat Revolutionを使ってミキシングを行っていれば、バイノーラルでの出力はもちろんだがDolby Atmos、Auro 3Dなどの他のフォーマットでの出力も用意できることは大きなメリットであると言えるだろう。
スポーツ中継を想定して書き進めてしまったが、ほかにもクラシック・コンサート、オペラ、吹奏楽などの各種コンクール、新喜劇など劇場での公演にも非常に有効な手法であると言える。今回お話を伺った和三氏の2019年のInterBEEでのセミナーでもこれらの取り組みについて取り上げていたが、その中でもこのようにAmbisonicsで制作した会場音声のバイノーラル2chに対して、ナレーションを通常のステレオミックスであるように混ぜることで、会場音声は広がっていつつ、ナレーションは従来どおりの頭内定位を作ることができる、とご講演いただいている。これは大きなヒントであり、ヘッドフォン、イヤフォンでのコンテンツの視聴が増えているいまこそ、この手法が活きるのではないかと感じている。
Immersiveな音声でのコンテンツが今後の放送でも新たな価値を生み出すことになる。それに先駆けて改修対応を行い、多様な3Dサウンドへの最適環境を構築し、すでにコンテンツの制作もスタートしている朝日放送テレビの事例。まずは今回導入された高さ方向のレイヤーを持ったスピーカーレイアウトを活用して制作された音声が、様々なところで聴けるようになることを楽しみにしたいところ、そしてそのコンテンツをまた皆さんにご紹介する機会ができることを期待してやまない。
朝日放送テレビ株式会社 技術局員
出向 株式会社アイネックス
兼技術局制作技術部 設備担当
和三 晃章 氏
*ProceedMagazine2020-2021号より転載
NEWS
2020/12/17
Proceed Magazine 2020-2021 販売開始! 特集:ニューノーマル
ProceedMagazine2020-2021号が発刊です!今回のテーマは「ニューノーマル」。リモートワークにも対応すべく模索されているオンラインワークフローの実際や、2021年のキーワードとなるであろうDolby Atmos Musicをはじめとした3Dオーディオの現在地など、いまに適応したニューノーマルな制作・表現スタイルとは何かを探ります。そのほかにも「ちはやふる」シリーズほか劇伴を中心に第一線で活躍する横山 克 氏インタビュー、大注目のHDXチップ内蔵I/O、Avid Pro Tools|Carbonの詳細など、クリエイティブワークにつながるリアルな情報を満載してお届けします!
「引き寄せられた未来は、新たなる価値を生むのか? 過去の価値は、蘇るのか?」
◎特集:ニューノーマル
「引き寄せられた未来は、新たなる価値を生むのか? 過去の価値は、蘇るのか?」
人の集まりは大きな影響を受け、制作者や技術者も打開策を自問自答している。
今回のProceed Magazineは、ニューノーマルが生み出す「いま」に注目し回答を求める。
1.オンラインにおけるフロー
2.現実と融合される3D空間
この二大要素となるニューノーマルは、これまでの閉塞感を打開する処方箋かもしれない。
もちろんコンテンツ配信、ストリーミングライブ、それを受け止めるユーザーの認識と環境の進化など、クリエイティブを提供する手法も大きく変革を迎えるだろう。
そして、すでに幾度となく取り上げてきたテクノロジーが加速度的に実践の場に投入されている。
4πから2π空間(360度)体験やDolby ATMOS、リモートされるワークフロー、新たな体験の場の事象から是非ヒントを掴んで欲しい!
ニューノーマル、それは新しくも無く、過去でも無い。そんな未来だ。
Proceed Magazine 2020-2021
全136ページ
定価:500円(本体価格463円)
発行:株式会社メディア・インテグレーション
◎SAMPLE (画像クリックで拡大表示)
◎Contents
★People of Sound
横山 克 氏インタビュー
★Product Inside
Avid Pro Tools|Carbon
iZotope RX 8 / くうP 氏
★ROCK ON PRO 導入事例
浜町 日々 / 吹田市文化会館 メイシアター
テレビ愛知株式会社
★ニューノーマル / Online workflow
CAPCOM / SYNCROOM / TubamanShow / オンライン配信ツールの選び方2020
★ニューノーマル / Immersive
音楽配信NOW!! / 朝日放送テレビ株式会社 / Rock oN Shibuya
★Build Up Your Studio
パーソナル・スタジオ設計の音響学 その22
人事編「二人隊長時代の幕開け」〜ミカミ(元)隊長の回顧録〜
★ROCK ON PRO Technology
Pro Sound Effects+LE Sound / しまモンの、だってわかんないんだモン!!
★Power of Music
oeksound / 三船雅也
★BrandNew
Positive Grid / SEQUENTIAL / KLANG / Artiphon / iZotope /
Universal Audio / Blackmagic Design / Antelope / Arturia /
Cranborne / MASCHINE+ / RGBlink / RME / WAVES
★FUN FUN FUN
Minoru Kawazoe Synthesizer Museum
アメリカンミュージックの神髄
↑ご購入はこちらのバナーをクリック!
◎Proceed Magazineバックナンバーも好評販売中です!
Proceed Magazine 2020
Proceed Magazine 2019-2020
Proceed Magazine 2019
Proceed Magazineへの広告掲載依頼や、内容に関するお問い合わせ、ご意見・ご感想などございましたら、下記コンタクトフォームよりご送信ください。
NEWS
2020/11/27
「初音ミクシンフォニー2019」のDolby Atmos®(ドルビーアトモス)音源が Amazon Music HD 向けに全世界配信リリース!!11/27(金)〜
今年、開催5周年を迎える「初音ミクシンフォニー」が、初のサントリーホール公演を2020年9月21日(月・祝)に行い、2020年10月17日(土)に横浜公演、さらに今週 11月27日(金)にフェスティバルホールで大阪公演を迎える。その大阪公演の開催日に、「初音ミクシンフォニー2019」の一部演奏曲をドルビーアトモス音源としてAmazon Music HDにおいて配信リリースすることが決定した。
ドルビーアトモスは、モノラルとステレオの制約を超えて、まったく新しい方法で音楽を表現できる立体音響技術であり、「イマーシブサウンド」と言われる没入感溢れる体験を可能にするもので、開催5周年を迎える初音ミクシンフォニーとして是非体感して欲しい内容となっている。初音ミクシンフォニー大阪公演では、配信リリースを記念して会場ホワイエにてその「初音ミクシンフォニー2019」のドルビーアトモス音源が聴けるAmazon EchoシリーズのEcho Studioを簡易設置した試聴ブースを設ける予定となっている。同ブースでは、Amazon Music HDを通じて没入感のあるサウンドで楽しむことができる。
また、「初音ミクシンフォニー2020〜5th Anniversary〜」では、来年2月3日(水)に今年の横浜公演の模様を収録したBlu- ray、CD(2枚組)の発売を予定しており、大阪公演で予約特典会も開催されることになっている。さらに、大阪公演同日から開催されるマジカルミライ2020 in OSAKAにも「初音ミクシンフォニー」として企業ブース出展を行い、そこで初披露となる「刺繍アート」や「トレーディングアクリルキーホルダー(全7種)」の先行販売も行われる。
■タイトル:
Hatsune Miku Symphony 〜5th Anniversary Dolby Atmos Edition〜
■リリース日
2020 年 11 月 27 日(金)
■収録曲:(初音ミクシンフォニー2019 音源) 1.1/6 -out of the gravity- feat. 初音ミク 2.メモリ feat.巡音ルカ
3.ねぇ、どろどろさん feat. 鏡音リン
4.on the rocks
5.ピアノ×フォルテ×スキャンダル feat. MEIKO
6.ピアノ五重奏・名曲メドレー(トルコ行進曲 - オワタ\(^o^)/、嗚呼、素晴らしきニャン生) 7.Catch the Wave
8.たいせつなこと feat. 初音ミク、鏡音リン、鏡音レン、巡音ルカ、KAITO、MEIKO、重音テト 9.カンタレラ
10.SPiCa feat. 初音ミク
■配信リンク
https://WarnerMusicJapan.lnk.to/hms2019daPu
※「ドルビーアトモス」音源をお楽しみ頂くには、Echo Studioが必要です。
ドルビーアトモス ミュージックとは?
「ドルビーアトモス」は、まったく新しい方法で音楽とつながることを可能にする立体音響技術であり、リスナーは、比類のないクリアさで、楽曲に秘められたニュアンスを発見することができます。また、リスナーの周りに配置された楽器の複雑なハーモニー、部屋を埋める伝説のギターソロ、聴衆の上を流れるドロップ、歌詞の間に吹き込まれた微妙な息吹など、「ドルビーアトモス」は音楽により多くのスペースと自由を与え、アーティストが意図した通りのディテールとニュアンスを解き放ちます。
※Dolby、ドルビー、Dolby Atmos、およびダブルD記号は、アメリカ合衆国と/またはその他の国におけるドルビーラボラトリーズ の商標または登録商標です。
「初音ミクシンフォニー2020〜5th Anniversary〜」横浜公演の Blu-ray&CD 発売決定!! 2021.2.3(水) 発売
■初音ミクシンフォニー 〜Miku Symphony2020 オーケストラライブ Blu-ray 価格:¥6,000+税
品番:WPXL-90246
数量限定!!5 周年記念ホログラム仕様缶バッジ封入!!(7 種ランダム)
■初音ミクシンフォニー〜Miku Symphony2020 オーケストラライブ CD 価格:¥3,000+税
品番:WPCL-13266/7
【初音ミクシンフォニー5 周年テーマ曲】舞台【初音ミクオリジナル曲】
https://youtu.be/Oh7oLGK6ORc
Hatsune Miku Symphony 2020〜5th Anniversary〜2020.09.21 at SUNTORY HALL
https://youtu.be/4J5KJpvgLAU
■イベント概要
初音ミクシンフォニー2020〜5th Anniversary〜 大阪公演 2020 年 11 月 27 日(金)
フェスティバルホール
18:00 開場/19:00 開演
演奏:大阪交響楽団
指揮:栗田博文 MC:初音ミク 他
特別協力:SEGA feat. HATSUNE MIKU Project
※客席の収容率を 50%とし、前後左右に1席ずつ間隔を空けて座席指定をさせていただきます。 ※休憩無し1部制の公演とさせていただきます。
「初音ミクシンフォニー2020〜5th Anniversary〜」横浜公演オフィシャルグッズ通販サイト販売中!!
https://store.wmg.jp/shop/mikusymphony
【初音ミクシンフォニー2020】オフィシャルサイト
https://sp.wmg.jp/mikusymphony/
【初音ミクシンフォニー2020】オフィシャルツイッター
https://twitter.com/mikusymphony
【初音ミクシンフォニー2019】1/6 -out of the gravity- feat. 初音ミク【オーケストラ ライブ CD】
https://youtu.be/CdRig4N6qrk
【初音ミクシンフォニー2019】横浜公演ダイジェスト映像【オーケストラ ライブ CD】
https://youtu.be/59VcXf8Ek3U
Dolby Atmosの制作環境に関するお問い合わせは、実例豊富なROCK ON PROまで!こちらのコンタクトフォームよりご相談ください。↓
Rock oN渋谷リファレンススタジオでは、Dolby Atmosのサウンドを体験できます!↓ ※要事前予約
https://pro.miroc.co.jp/headline/rock-on-reference-room-dolby-atmos/
NetflixがDolby Atmosミックスを行ったPro Toolsセッションファイルを公開中!↓
https://pro.miroc.co.jp/headline/netflix-sol-levante-dolby-atmos-pro-tools-session-file-open-source/
気になるDolby Atmosの仕組み、そして自宅でDolby Atmosミキシングを始めるには? ↓
https://pro.miroc.co.jp/solution/dolby-atmos-proceed2020/
Mac miniではじめるDolby Atmos制作!↓
https://pro.miroc.co.jp/solution/mac-mini-ht-rmu/
Event
2020/11/21
Avid Creative Summit 2020 Online 開催 !!
概要タイムテーブルDAY1DAY2プレゼント同時開催MI FES
クリエイターの「未来」を明らかにする、サウンド制作のためのリアルノウハウイベント。
サウンド制作のクリエイターが描く制作の未来像とは何か。2020年のAvid Creative Summitはオンライン上にその場を移して、Dolby Atmos対応を果たしたRock oN 渋谷リファレンスルームよりお届けします。数々の展示会が国内外ともキャンセルとなる中でも制作の現場は止まりません。必要とされる情報、そしてワークに求められるニーズはこのコロナ禍においても変わることなく、次なる未来のコンテンツをどう創り上げていくのかのチャレンジは続きます。
今回は2日間に渡る日程でAvidソリューションのいま、MTRX / MTRX StudioほかAvid I/Oが見せる世代交代、またコンテンツとしてのニーズが高まるDolby Atmos / Dolby Atmos Musicなど最先端のインフォメーションをお伝えします。オンライン制作時代のリアルとリモートをどうやってバランスするのか、やがて迎えるニューノーマルに向けたヒントを提案し、常に一歩先の情報を必要とするクリエイターの「未来」を明らかにします。2020-21年の制作をリードするインフォメーションを満載したAvid Creative Summit Online、ぜひご覧ください!!
MI FESTIVALと同時開催でスケールアップ!
今回は弊社MI事業部主催の「MI FESTIVAL」を同時開催、Avidソリューションの最新情報のみならず、音楽・映像、クリエイティブ制作に携わるすべての方に向け、これまで以上にスケールアップしたイベントとなりました。MI FESTIVALは36.8chという驚愕のイマーシブ環境を整えた西早稲田Artware hubから、またAvid Creative SummitはDolby Atmos対応を果たした弊社渋谷リファレンスルームから配信です!
全23回のセミナーで最先端のノウハウを幅広く配信!
2日間に渡る日程で、2イベント合わせたセミナー配信は全23回!幅広いユーザーのあらゆるニーズに応えることができる珠玉のセミナーラインナップです。ゲスト講師も多士済々となり、いま必要とされているインフォメーションやノウハウがきっと見つかるはずです、ご期待ください!
2イベント合同企画!総額300万円、制作環境劇的改善プレゼント!!
日頃のご愛顧に感謝して、総額300万円にものぼる豪華プレゼントをご用意いたしました!各セミナーごとに発表されるアンケートフォームからお一人様1通を応募、つまりセミナーを見れば見るほど応募のチャンスが増え、当選確率もアップします!いまの制作において第一線で活躍できる賞品の数々をお見逃しなく!奮ってご応募ください!
◎総額300万円の制作環境劇的改善プレゼント 当選者発表
AMS NEVE 1073LB 北海道 さんかくおにぎり さま
Artiphon ORBA 埼玉県 コネクル さま
Apogee FX Rack Bundle 神奈川県 cf さま
Earthworks SR20 愛知県 もか さま
Eve Audio SC203(ペア) 愛知県 ネムラユウタ さま
Flux:: Studio Session Pack 大阪府 ゆきぼう さま
Focusrite ISA Two 群馬県 Coffee Shop sound さま
Focal Shape50(ペア) 愛知県 aoaka さま
GameChanger Audio PLASMA PEDAL 東京都 ぶっさん さま
iZotope Music Production Suite 4 埼玉県 佐藤 雄二 さま
LEWITT LCT 440 PURE 北海道 ちゅん太郎 さま
Positive Grid Spark 神奈川県 ヒデヒト さま
ROLI ROLI Studio 東京都 もじー さま
teenage engineering OP-Z 大阪府 ヤナギモト さま
Waves Live Mobile Server 香川県 KK さま
Avid Pro Tools|Carbon 東京都 マツイ さま
Avid S1 東京都 まさてる さま
東京都 田中靖志 さま
Avid Pro Tools 年間サブスクリプション 東京都 yellowmasala さま
大阪府 Taiji さま
埼玉県 ジャミング佐竹 さま
東京都 イシイヤスヒロ さま
東京都 あべたつ さま
Avid Media Composer 年間サブスクリプション 東京都 Lenny さま
東京都 こかぶん さま
神奈川県 miru1130 さま
大阪府 イイダマサミチ さま
東京都 ケータ さま
◎ACSU & MIFES タイムテーブル
DAY 1DAY 1TORIENA LIVE feat. ORBA10のジェスチャーで音を操る、新感覚音楽デバイス講師:TORIENAMusic Producer / Vocalノウハウパフォーマンス製品デモパネルセッションLive Only理想のサウンドを追求する、Avidソリューションのいま〜Avid Information for Post〜講師:ダニエル・ラヴェルAvid / APAC オーディオ・ソリューション・スペシャリスト マネージャーノウハウパフォーマンス製品デモパネルセッションLive Only13:0013:45見れば見るほど当たる!総額300万円プレゼント・アンケート現代のミックスアプローチ、ローエンドトリートメントローエンドのトリートメント術講師:土岐 彩香Recording/Mixing engineerノウハウパフォーマンス製品デモパネルセッションLive Onlyダニエル&バウンス清水&RED先生の!アビットーーク!〜<for POST>最新Avid I/Oがワークフローを切り拓く〜講師:ダニエル・ラヴェルAvid / APAC オーディオ・ソリューション・スペシャリスト マネージャー講師:バウンス清水ROCK ON PRO 清水修平講師:RED先生ROCK ON PRO 赤尾真由美ノウハウパフォーマンス製品デモパネルセッションLive Only14:0014:45見れば見るほど当たる!総額300万円プレゼント・アンケートBlack Magic Design meets iZotopeBMDハードウェア製品を用いたOBS Studio配信でのRX音声編集術講師:青木 征洋作編曲家、ギタリスト、エンジニアノウハウパフォーマンス製品デモパネルセッションLive OnlyDolby Atmos Studio Case Study〜そのスタジオは新たな表現をどう手に入れたのか〜講師:中山 郁夫ドルビージャパン株式会社 PR / マーケティング ディレクター講師:前田 洋介ROCK ON PROノウハウパフォーマンス製品デモパネルセッションLive Only15:0015:45見れば見るほど当たる!総額300万円プレゼント・アンケート「キノコ音学校」出張版!! LEWITTコンデンサーマイクをご紹介!講師:Nostalgic Orchestra作曲/編曲 福富雅之作詞/作曲/シンガー 藤本記子ノウハウパフォーマンス製品デモパネルセッションLive OnlyAvidリモートソリューション~今こそ考えよう、リモート制作環境~講師:西岡 崇行 Avid / グローバル・プリセールス ソリューションズ・スペシャリストノウハウパフォーマンス製品デモパネルセッションLive Only16:0016:45見れば見るほど当たる!総額300万円プレゼント・アンケート立体音響でのライブミックスからバイノーラル配信まで最強のイマーシブ・プロセッサーSpat RevolutionとAvid S6Lの統合環境講師:山下 修(株)オーディオ・ブレインズ アプリケーションサポートノウハウパフォーマンス製品デモパネルセッションLive Onlyワールドクラスの音源がプロジェクトをさらなる高みへ〜Pro Sound Effectsがもたらすアプローチ〜講師:牛島正人 氏Sonologic-Design代表/サウンドデザイナーAudiokinetic株式会社 プロダクトエキスパートHAL東京専門学校 非常勤講師講師:田中 慎哉 氏株式会社 gumi G-ROW AUDIO マネージャー講師:前田洋介ROCK ON PRO 赤尾真由美ノウハウパフォーマンス製品デモパネルセッションLive Only17:0017:45見れば見るほど当たる!総額300万円プレゼント・アンケートSASUKE × teenage engineering 「ノンストップ」トラックメイキング・ライブベッドルームでも旅先でも。これがあれば、どこでもライブ会場に!講師:SASUKETRACK MAKING / COMPOSE / FINGER DRUMMING / DANCE / DJ / DRUMINGノウハウパフォーマンス製品デモパネルセッションLive Onlyリモートを活かす、リアルを活かす、オンライン制作の最適解とは〜CAPCOM ゲームオーディオ制作の最前線〜講師:瀧本 和也株式会社カプコン サウンドプロダクション室 シニアサウンドエンジニア講師:前田洋介ROCK ON PROノウハウパフォーマンス製品デモパネルセッションLive Only18:0018:45見れば見るほど当たる!総額300万円プレゼント・アンケート
DAY 2DAY 2Positive Grid “Spark” x YouTuber 瀧澤克成&西尾知矢世界一楽しい、練習が「したくなる」アンプ講師:瀧澤 克成Youtuber講師:西尾 知矢Youtuberノウハウパフォーマンス製品デモパネルセッションLive Onlyアーティストの限界を解き放つ、Avidソリューションのいま〜Avid Information for Music〜講師:ダニエル・ラヴェルAvid / APAC オーディオ・ソリューション・スペシャリスト マネージャーノウハウパフォーマンス製品デモパネルセッションLive Only13:0013:45見れば見るほど当たる!総額300万円プレゼント・アンケートJeff Miyaharaの超速作曲セミナー45分でワンフレーズ歌入れまでやっちゃいます。Supported by SPINNUP (Universal Japan)講師:Jeff MiyaharaMusic Producer & Composerノウハウパフォーマンス製品デモパネルセッションLive Onlyダニエル&バウンス清水&RED先生の!アビットーーク!〜<for MUSIC>最新Avid I/Oがワークフローを切り拓く〜講師:ダニエル・ラヴェルAvid / APAC オーディオ・ソリューション・スペシャリスト マネージャー講師:バウンス清水ROCK ON PRO 清水修平講師:RED先生ROCK ON PRO 赤尾真由美ノウハウパフォーマンス製品デモパネルセッションLive Only14:0014:45見れば見るほど当たる!総額300万円プレゼント・アンケートDTMスクール Sleepfreaksのサウンド・クリニックミックスに関するお悩みにお応えします講師:大鶴 暢彦Sleepfreaks講師/コンポーザー/ソングライターノウハウパフォーマンス製品デモパネルセッションLive Only音楽体験が変わる、Dolby Atmos Music〜実例で知る、2021音楽表現の最先端〜講師:モリシーAwesome City Club講師:前田 洋介ROCK ON PROノウハウパフォーマンス製品デモパネルセッションLive Only15:0015:45見れば見るほど当たる!総額300万円プレゼント・アンケートブティック・インターフェイス・リバイバル!Apogee、Focusrite、Metric Halo最新モデルからこれからのプロダクションフローを読み解く講師:並木 大輔メディア・インテグレーションMI事業部セールス講師:岡田 裕一メディア・インテグレーション MI事業部サポートノウハウパフォーマンス製品デモパネルセッションLive OnlyオーディオクリエイターのためのAvid Media Composerオーディオ制作者に向けたMedia Composerのコンテンツ制作フロー講師:西岡 崇行Avid / グローバル・プリセールス ソリューションズ・スペシャリストノウハウパフォーマンス製品デモパネルセッションLive Only16:0016:45見れば見るほど当たる!総額300万円プレゼント・アンケート時代が必要とする[レジェンド]の個性!AMS Neveがもたらす圧倒のアドバンテージ 講師:山田ノブマサレコーディング・エンジニア/ドラマー/プロデューサーノウハウパフォーマンス製品デモパネルセッションLive Onlyドキュメント映画『相撲道』を支える技術〜Dolby AtomosにおけるRX 8音声編集術〜講師:染谷和孝 氏Sound Designer / Re-Recording Mixerノウハウパフォーマンス製品デモパネルセッションLive Only17:0017:45見れば見るほど当たる!総額300万円プレゼント・アンケート荒田洸のスタジオライブを無料で配信!配信ミックスの裏側も学べます Supported by J-WAVE講師:荒田洸シンガーソングライター/プロデューサー/ビートメーカー/ドラマー。ノウハウパフォーマンス製品デモパネルセッションLive Only18:0018:45総額300万円!プレゼント大抽選会
・全ての応募フォームのご入力は11/21(土)18:00にて締め切りとさせていただきます。
・大変恐縮ですが、抽選集計の都合上11/21(土)18:00「荒田洸のスタジオライブを無料で配信!
配信ミックスの裏側も学べます Supported by J-WAVE」でのプレゼント応募は執り行いません。あらかじめご了承ください。
*【訂正】プレゼント企画告知のご案内文において「ノウハウ満載の全23セミナーのすべてにチャンスあり!!」との記載がございましたが、正しくは11/21(土)18:00「荒田洸のスタジオライブを無料で配信!配信ミックスの裏側も学べます Supported by J-WAVE」開催分を除く、22セミナーでのご応募が可能の内容でございました。訂正のご案内とともに謹んでお詫び申し上げます。
Day1: 11/20.fri
【1st session】 13:00~13:45
理想のサウンドを追求する、Avidソリューションのいま
〜Avid Information for Post〜
理想のサウンドを追求する、Avidソリューションのいま
〜Avid Information for Post〜
Pro Tools | Ultimate 2020にフィーチャーされたポスト・プロダクション向け機能を一気にレビュー!現在サポートしているリモート・ワークフローの紹介やフォルダー・トラックの実戦的な使い方をご紹介します。さらには、S6 を例に強化されたEUCON新機能、そしてそのEUCONサーフェイスからコントロール可能な次世代型オーディオ・インターフェース”MTRX Studio”による、OTTコンテンツ制作に向けた最新Dolby Atmos Homeミキシング環境/機能も紹介します。
講師:
Avid / APAC オーディオ・ソリューション・スペシャリスト マネージャー
ダニエル・ラヴェル氏
ダニエルは、東京在住のニュージーランド人です。オーディオポストから経歴をスタートし、現在ではAvidのオーディオ・アプリケーション・スペシャリストであり、テレビのミキシングとサウンドデザインの仕事にも携わっています。20年に渡るキャリアであるサウンド、音楽、テクノロジーは、生涯におけるパッションとなっています。
【2nd session】 14:00~14:45
ダニエル&バウンス清水&RED先生の!アビットーーク!
〜<for POST>最新Avid I/Oがワークフローを切り拓く〜
ダニエル&バウンス清水&RED先生の!アビットーーク!
〜<for POST>最新Avid I/Oがワークフローを切り拓く〜
ついに発表となったHDXチップ内蔵の革新的新I/O、Pro Tools|Carbon!詳細情報をじっくり掘り下げます!
また、Avidの一台完結型スーパーI/O「MTRX Studio」。HD OMNIが築いてきた10年分のノウハウを積み重ね、Dolby Atmosなどのマルチチャンネルフォーマットでのモニターコントロールも可能とするなど、いまのサウンド制作へのニーズへ対応を果たしています。一方、その上位グレードとなる「MTRX」はAvid I/Oのフラッグシップとして有り余る拡張性を備えており、これまた業界基準とも言えるHD I/Oを置き換える動きが活発です。今回のアビットーークは、この2台をどのように制作に活かすのか?必要とされるシチュエーションで結果を出せるのは?作品のクオリティに大きな影響をもたらすであろう最新Avid I/Oのいまをお届けします!
講師:
Avid / APAC オーディオ・ソリューション・スペシャリスト マネージャー
ダニエル・ラヴェル氏
ダニエルは、東京在住のニュージーランド人です。オーディオポストから経歴をスタートし、現在ではAvidのオーディオ・アプリケーション・スペシャリストであり、テレビのミキシングとサウンドデザインの仕事にも携わっています。20年に渡るキャリアであるサウンド、音楽、テクノロジーは、生涯におけるパッションとなっています。
講師:
ROCK ON PRO Product Specialist
RED先生(ROCK ON PRO 赤尾真由美)
JAPRS Pro Tools資格認定委員としても活躍するPro Toolsのスペシャリストでもある。クラシック系音楽大学出身というバックグラウンドを持ち、確かな聴感とDAW / デジタル・ドメインの豊富な知識を活かし、ミュージックマーケットからブロードキャストまで幅広い層へ提案を行っている。
講師:
ROCK ON PRO Sales Engineer
バウンス清水(ROCK ON PRO 清水修平)
大手レコーディングスタジオでの現場経験から、ヴィンテージ機器の本物の音を知る男。寝ながらでもパンチイン・アウトを行うテクニック、その絶妙なクロスフェードでどんな波形も繋ぐその姿はさながら手術を行うドクターのよう。ソフトなキャラクターとは裏腹に、サウンドに対しての感性とPro Toolsのオペレートテクニックはメジャークラス。Sales Engineerとして『良い音』を目指す全ての方、現場の皆様の役に立つべく日々研鑽を積み重ねている。
【3rd session】 15:00~15:45
Dolby Atmos Studio Case Study
〜そのスタジオは新たな表現をどう手に入れたのか〜
Dolby Atmos Studio Case Study
〜そのスタジオは新たな表現をどう手に入れたのか〜
これまでに導入を行ってきたDolby Atmos対応スタジオ。それらの実例を基に、Atmos導入のノウハウ、そしてAtmosによって広がるスタジオの可能性を様々な方向から検証します。今回はDolby JAPAN株式会社の中山郁夫氏にもご登壇いただき、世界中で新しいフォーマットとしてどのような広がりを見せ、どのような作品で使用されているのか、Dolbyとしてのブランディング、マーケティング的な側面も解説。また、10月にリリースされたDolby Atmos Renderer v3.5とそれに伴う最新情報やスタジオ構築のノウハウなどと併せてご紹介し、Dolby Atmosの現状、そして未来を共有します。
講師:
ドルビージャパン株式会社 PR / マーケティング ディレクター
中山郁夫氏
1990年 ソニー(株)入社。「放送・業務用機器」、「プレイステーション」、「動画共有サービス(eyeVio)」のPR/ブランディング/マーケティング、及び「Sony Open in Hawaii」、 「FIFA World Cup」、「IFA 」、「CES 」等のスポンサードイベント、国際展示会の企画・運営を統括。2013年 マセラティ ジャパン(株)入社。PR / マーケティング ディレクターとして、日本市場におけるPR / ブランディング / マーケティングを統括。2017年 ドルビージャパン(株)入社。現在に至る。
講師:
ROCK ON PRO Product Specialist
前田洋介
レコーディングエンジニア、PAエンジニアの現場経験を活かしプロダクトスペシャリストとして様々な商品のデモンストレーションを行っている。映画音楽などの現場経験から、映像と音声を繋ぐワークフロー運用改善、現場で培った音の感性、実体験に基づく商品説明、技術解説、システム構築を行っている。
【4th session】 16:00~16:45
Avidリモートソリューション
~今こそ考えよう、リモート制作環境~
Avidリモートソリューション
~今こそ考えよう、リモート制作環境~
コロナ禍の今、リモートワークの必要性は、業界を問わず再認識されています。メディア制作の現場においても、それは例外ではありません。それは、感染拡大防止の観点だけではなく、撮影や編集、レビューや承認といった、制作に関わるあらゆる工程をすべてのスタッフが自由にアクセスできることによって、制作全体を効率化するためのものでもあります。現在すでにお持ちのシステムにリモート接続するものから、すべてをパブリッククラウド上に仮想的に構築するものまで、様々な手法でのリモートシステムについて、デモも交えてご紹介します。
講師:
Avid / グローバル・プリセールス ソリューションズ・スペシャリスト-ビデオ
西岡 崇行 氏
Avid DSのアプリケーション・スペシャリストとしてアビッドテクノロジーに入社以来、20年近くに渡ってあらゆるソリューションに関わってきました。アセットマネージメントやストレージ、CGやオーディオ広範囲に渡る知識と経験を活かして、最適なメディア制作ソリューションの提案をミッションとし続けています。
【5th session】 17:00~17:45
ワールドクラスの音源がプロジェクトをさらなる高みへ
〜Pro Sound Effectsがもたらすアプローチ〜
ワールドクラスの音源がプロジェクトをさらなる高みへ
〜Pro Sound Effectsがもたらすアプローチ〜
新たなサウンドライブラリとして、質、量ともに群を抜く存在となったPro Sound Effects。その魅力は、一つ一つのサウンドの質の高さ、バリエーションの豊かさ、ステレオだけではなくサラウンドやAmbisonicsなどに対応するフォーマットの多さなど、他の追従を許さないラインナップとなっているところではないでしょうか。今回は日々、Pro Sound Effectsのライブラリを使用している実際の作業を通じて感じられているPro Sound Effectsの魅力やノウハウをご紹介いただきます。数多くのアピールポイントを持つこの製品、ユーザーそれぞれがメリットに感じるポイントも多彩さを見せます。多角的な視点からワールドクラスの音源をご紹介する本セミナーにご期待ください!
講師:
Sonologic-Design代表/サウンドデザイナー
Audiokinetic株式会社 プロダクトエキスパート
HAL東京専門学校 非常勤講師
牛島正人 氏
Berklee College of Music Music Synthesis 学科にて音響/音楽理論習得。帰国後キャリアをスタート、WWEシリーズでは約3年間サウンドデザイン/ディレクション/仕様作成/通訳を担当。 2015年ソノロジックデザイン(www.sonologic-design.com)を立上げ、ゲーム業界を中心にサウンドデザイン/ディレクション/仕様作成も含めトータルで音のサポート業務を行う。 ゲーム業界のみならず、遊技機/アニメーション/CM/PV等のMA/楽曲制作/ボイスディレクション等、幅広く業務を行う。 2017年3月よりAudiokinetic株式会社プロダクトエキスパートに就任。クリエイター視点からのサポート業務を担当。ProSoundEffectsライブラリー『Tokyo Ambisonics』『Shanghai Ambisonics』のフィールドレコーディングを担当。 ProSoundEffects、Pole Position Production、Baseheadといった世界各国のサウンドライブラリ関連製品販売も取り扱う。
講師:
株式会社 gumi
G-ROW AUDIO マネージャー
田中 慎哉 氏
1982年生まれ。大阪府出身。地元の専門学校で作曲編曲・サウンドデザインを学ぶ。卒業後、フリーランスでの音楽制作・DJ活動を経て、ゲーム開発会社での制作を開始。『NO MORE HEROES』『地球防衛軍3』等、30本以上のコンシューマゲームや遊技機等幅広いプラットフォームでのサウンドデザイン/コンポーズ/ディレクション、仕様作成を行う。2014年に株式会社gumiへ1人目のサウンド職として入社し、現在も運営中の『ファントム オブ キル』『誰ガ為のアルケミスト』等のサウンドデザイン/コンポーズ/ディレクション、仕様作成を行いリリースに携わる。並行して、サウンド制作全体のワークフローやサウンドチームの確立を進める。近年は、サウンドチームのマネージャーとして、チーム管理と並行して、サウンドデザイン/コンポーズ/ディレクションを担当している。
講師:
ROCK ON PRO Product Specialist
前田洋介
レコーディングエンジニア、PAエンジニアの現場経験を活かしプロダクトスペシャリストとして様々な商品のデモンストレーションを行っている。映画音楽などの現場経験から、映像と音声を繋ぐワークフロー運用改善、現場で培った音の感性、実体験に基づく商品説明、技術解説、システム構築を行っている。
【6th session】 18:00~18:45
リモートを活かす、リアルを活かす、オンライン制作の最適解とは
〜CAPCOM ゲームオーディオ制作の最前線〜
リモートを活かす、リアルを活かす、オンライン制作の最適解とは
〜CAPCOM ゲームオーディオ制作の最前線〜
コロナ拡大〜外出自粛要請〜海外渡航自粛、社会に大きなインパクトを現在も残す世界規模のパンデミック。それにより、ポストプロダクション業界もそのあり方を大きく変える必要に迫られています。この環境下でも海外とのコラボレーション収録作業を続けている株式会社カプコンでの実際を同社サウンドプロダクション室の瀧本 和也氏にお伺いします。海外とのリモート制作での課題点、問題点から、それを克服するための工夫やワークフローなど、実際にやってみたからこそわかるノウハウを具体的な事例とともにご紹介します。ニューノーマルと称される世界で大きな要素となるリモートというファクター。音声業界にとってのリモートワークとはどのようなものか、貴重な現場目線でのリモート・プロダクトに関するセッションです。
講師:
株式会社カプコン サウンドプロダクション室 シニアサウンドエンジニア
瀧本 和也氏
1992年、東京のポスプロスタジオ業務に就き、放送、映画等のミキシングを経験後、1997年にカプコンに入社。入社後はバイオシリーズ、モンスターハンターシリーズ等、カプコンのほぼ総てのタイトルに関わり、カットシーンのミキシング、楽曲のレコーディング、ミキシング等を担当。また、ゲーム音響制作現場のシグナルリファレンス策定や、現場環境の整備、ゲームの発音に関するミキシングの視点からのアイデアを制作者と議論し、クオリティアップの下支えを行っている。近年は、「Biohazard7」でゲーム全体のインタラクティブミックスを担当し「Biohazard RE:2」ではカットシーンのオーディオディレクションを手がけるなど、サウンドエンジニアという仕事の幅を広げてより深くゲーム制作に関わっている。
講師:
ROCK ON PRO Product Specialist
前田洋介
レコーディングエンジニア、PAエンジニアの現場経験を活かしプロダクトスペシャリストとして様々な商品のデモンストレーションを行っている。映画音楽などの現場経験から、映像と音声を繋ぐワークフロー運用改善、現場で培った音の感性、実体験に基づく商品説明、技術解説、システム構築を行っている。
Day2: 11/21.sat
【1st session】 13:00~13:45
アーティストの限界を解き放つ、Avidソリューションのいま
〜Avid Information for Music〜
アーティストの限界を解き放つ、Avidソリューションのいま
〜Avid Information for Music〜
本セミナーでは、新製品Pro Tools | Carbonの概要を紹介、そのパワーの源であるハイブリッド・エンジンのデモンストレーションを行います。また、併せてPro Tools 2020にフィーチャーされたミュージック・クリエイション向け機能の数々を振り返ります。フォルダー・トラックの便利な使い方やPro Tools 2020.11の新機能「オーディオ・トゥ・MIDI」などクリエイター必見の内容です。さらに、音楽配信向けデリバリー・サービスAvidplayが対応したDolby Atmos Music向けミックスのPro Tools Ultimateを使った実践方法もご覧いただきます。
講師:
Avid / APAC オーディオ・ソリューション・スペシャリスト マネージャー
ダニエル・ラヴェル氏
ダニエルは、東京在住のニュージーランド人です。オーディオポストから経歴をスタートし、現在ではAvidのオーディオ・アプリケーション・スペシャリストであり、テレビのミキシングとサウンドデザインの仕事にも携わっています。20年に渡るキャリアであるサウンド、音楽、テクノロジーは、生涯におけるパッションとなっています。
【2nd session】 14:00~14:45
ダニエル&バウンス清水&RED先生の!アビットーーク!
〜<for MUSIC>最新Avid I/Oがワークフローを切り拓く〜
ダニエル&バウンス清水&RED先生の!アビットーーク!
〜<for MUSIC>最新Avid I/Oがワークフローを切り拓く〜
ついに発表となったHDXチップ内蔵の革新的新I/O、Pro Tools|Carbon!詳細情報をじっくり掘り下げます!
音楽制作の世界でもいよいよDolby Atmos Musicなどの3Dサウンドミックスが求められる、2021年の制作はここをポイントに進展するのではないでしょうか。新たな音像を得るべく進化するフォーマット、そしてその制作を実現するためには、、、もちろんI/Oの進化も欠かせません!Avidの一台完結型スーパーI/O「MTRX Studio」とフラッグシップモデルとなる多様な拡張性を備えた「MTRX」、アビットーーク2日目では音楽制作に向けた最新Avid I/Oのいまを取り上げ、来るべき3Dサウンドミックスへのシステム構築をどうハンドリングしていくか、注目の最先端I/Oの活かし方を語り尽くします!
講師:
Avid / APAC オーディオ・ソリューション・スペシャリスト マネージャー
ダニエル・ラヴェル氏
ダニエルは、東京在住のニュージーランド人です。オーディオポストから経歴をスタートし、現在ではAvidのオーディオ・アプリケーション・スペシャリストであり、テレビのミキシングとサウンドデザインの仕事にも携わっています。20年に渡るキャリアであるサウンド、音楽、テクノロジーは、生涯におけるパッションとなっています。
講師:
ROCK ON PRO Product Specialist
RED先生(ROCK ON PRO 赤尾真由美)
JAPRS Pro Tools資格認定委員としても活躍するPro Toolsのスペシャリストでもある。クラシック系音楽大学出身というバックグラウンドを持ち、確かな聴感とDAW / デジタル・ドメインの豊富な知識を活かし、ミュージックマーケットからブロードキャストまで幅広い層へ提案を行っている。
講師:
ROCK ON PRO Sales Engineer
バウンス清水(ROCK ON PRO 清水修平)
大手レコーディングスタジオでの現場経験から、ヴィンテージ機器の本物の音を知る男。寝ながらでもパンチイン・アウトを行うテクニック、その絶妙なクロスフェードでどんな波形も繋ぐその姿はさながら手術を行うドクターのよう。ソフトなキャラクターとは裏腹に、サウンドに対しての感性とPro Toolsのオペレートテクニックはメジャークラス。Sales Engineerとして『良い音』を目指す全ての方、現場の皆様の役に立つべく日々研鑽を積み重ねている。
【3rd session】 15:00~15:45
音楽体験が変わる、Dolby Atmos Music
〜実例で知る、2021音楽表現の最先端〜
音楽体験が変わる、Dolby Atmos Music
〜実例で知る、2021音楽表現の最先端〜
すでにアメリカでの配信サービスがスタートしているDolby Atmos Music。音楽の新しい楽しみ方としてDolbyが提唱する、まさに新時代の幕開けとも言えるフォーマット。今回はAwesome City Clubのギタリストであるモリシー氏制作のオリジナルトラックをDolby Atmos MusicとしてPro Toolsミックス。実際の作業はどのように進んだのか?ステレオミックスとの違いは?そのサウンドの魅力とはどのようなものか?アーティストならではの感性でDolby Atmos Musicの実力と制作ノウハウに迫ります。サウンドエンジニアにとってはチャレンジングな作業、アーティストにとっては新しい表現を手に入れる大きなチャンス。Dolbyが掲げるようにNext Era(新時代)はもう訪れています、この機会をお見逃しなく!
講師:
Awesome City Club
モリシー
Awesome City Clubの活動とともにアレンジャー、エンジニアとしても活躍中。2014年にはNACANOのアルバム『GASTRONOMY』のプロデュースとミックス、長棟航平監督の短編映画『みなと、かこ、げんざい』の劇中音楽を担当。2016年には東京女子流、LOVERSSOUL、西恵利香などのレコーディングに参加。近年は、DAOKO、須田景凪、Mega Shinnosukeなどのサポートミュージシャンとしても活躍中。
講師:
ROCK ON PRO Product Specialist
前田洋介
レコーディングエンジニア、PAエンジニアの現場経験を活かしプロダクトスペシャリストとして様々な商品のデモンストレーションを行っている。映画音楽などの現場経験から、映像と音声を繋ぐワークフロー運用改善、現場で培った音の感性、実体験に基づく商品説明、技術解説、システム構築を行っている。
【4th session】 16:00~16:45
オーディオクリエイターのためのAvid Media Composer
オーディオクリエイターのためのAvid Media Composer
Avid Media Composerは、映画やテレビといったプロフェッショナルなコンテンツクリエイターのためのノンリニア編集システムです。Pro Toolsを製品ラインに持つAvidの製品として、Media Composerにもオーディオに関連する魅力的な機能が多く搭載されています。また、すでにPro Toolsをお使いで、映像制作にもご興味があるお客様には、データの互換性や連携の意味において、Media Composerは最適の選択となります。この回では、特にオーディオに関連する機能を中心として、Media Composerの最新の機能についてデモを交えてご紹介していきます。
講師:
Avid / グローバル・プリセールス ソリューションズ・スペシャリスト-ビデオ
西岡 崇行 氏
Avid DSのアプリケーション・スペシャリストとしてアビッドテクノロジーに入社以来、20年近くに渡ってあらゆるソリューションに関わってきました。アセットマネージメントやストレージ、CGやオーディオ広範囲に渡る知識と経験を活かして、最適なメディア制作ソリューションの提案をミッションとし続けています。
【5th session】 17:00~17:45
ドキュメント映画『相撲道』を支える技術 〜Dolby AtomosにおけるRX 8音声編集術〜
ドキュメント映画『相撲道』を支える技術 〜Dolby AtomosにおけるRX 8音声編集術〜
ドキュメンタリー映画『相撲道~サムライを継ぐ者たち~』の公開を記念し、Dolby Atomosによる国技館にいるかのような生々しい臨場感、それを支えるiZotope RX 8のマルチチャンネルでの音声編集技術に迫ります。講師には実際に作品の音声編集を担当された株式会社ソナ制作技術部サウンドデザイナー/リレコーディングミキサーの染谷氏をお迎えし、実際の映画予告編を使用し臨場感の秘訣に迫ります。
講師:
Sound Designer / Re-Recording Mixer
染谷和孝 氏
1963年東京生まれ。東京工学院専門学校卒業後、(株)ビクター青山スタジオ、(株)IMAGICA、(株)イメージスタジオ109、ソニーPCL株式会社を経て2007年(株)ダイマジック、2014年には(株)ビー・ブルーのDolby Atmos対応スタジオの設立に参加。2020年に株式会社ソナ制作技術部に所属を移し、サウンドデザイナー/リレコーディングミキサーとして活動中。2006年よりAES(オーディオ・エンジニアリング・ソサエティー)「Audio for Games部門」のバイスチェアーを務める。また、2019年9月よりAES日本支部 広報理事を担当。
2イベント合同企画!総額300万円、制作環境劇的改善プレゼント!!
セミナーを見れば見るほど確率UP!!イベント合同・大感謝プレゼント祭!!
なんと総額300万円!日頃からのご愛顧に感謝して、セミナーをご覧いただいた方に大感謝プレゼントをご用意しました!各セミナーの中で発表される応募フォームURLに必要事項を入力してご応募、つまり、、、セミナーをじっくりご覧いただければ見れば見るほど当選確率がアップします!!当選発表は11/21(土)18:00からの最終セミナー終了後にて執り行う大抽選会にて! 皆様、奮ってご応募ください!
応募方法、ルール
・YouTubeで配信となる各セミナー内にて、応募フォームのURLを発表致します。
・発表されたURLより応募フォームへアクセスいただき、アンケート回答、必須事項記入、希望プレゼント(1点)のご選択をいただきます。
※ご注意
・各セミナーごとで発表される応募フォームにてお一人様1通のご応募を有効とさせていただきます。
・応募フォームURLは各セミナーごとに異なるアドレスとなりますのでご注意ください。
・応募フォーム入力に不備がある場合は賞品発送が行えませんのでご注意ください。
・賞品送付先は日本国内に限定させていただきます。海外からご視聴の方は恐縮ですが抽選対象外とさせていただきますのでご了承ください。
・ご連絡先の入力に不備があった場合は抽選対象外とさせていただきます。
・全ての応募フォームのご入力は11/21(土)18:00にて締め切りとさせていただきます。
・大変恐縮ですが、抽選集計の都合上11/21(土)18:00「荒田洸のスタジオライブを無料で配信!
配信ミックスの裏側も学べます Supported by J-WAVE」でのプレゼント応募は執り行いません。あらかじめご了承ください。
*【訂正】プレゼント企画告知のご案内文において「ノウハウ満載の全23セミナーのすべてにチャンスあり!!」との記載がございましたが、正しくは11/21(土)18:00「荒田洸のスタジオライブを無料で配信!配信ミックスの裏側も学べます Supported by J-WAVE」開催分を除く、22セミナーでのご応募が可能の内容でございました。訂正のご案内とともに謹んでお詫び申し上げます。
抽選発表
両イベントの最終セミナー枠となる11/21(土)18:00開催 MI Festival「荒田洸のスタジオライブを無料で配信!配信ミックスの裏側も学べます。Supported by J-WAVE」の配信枠にて、セミナー終了後に抽選発表会を執り行います。
対象プレゼント製品
AvidAvid Pro Tools|Carbonついに発表となったHDXチップ内蔵の革新的新I/O、Pro Tools|Carbonを1名様に!大注目の内蔵HDXチップ、そして同時最大25in/34outの豊富な入出力、新開発のマイクプリなど最先端のソリューションで制作環境を劇的に改善!さらに詳しくAvidS18chのコンパクトなコントロールサーフェスとなるS1。Pro tools|Control改め「Avid Control」となったアプリをiPad等のタブレットにインストールしてワイヤレス接続し、S6ライクなビジュアルで各種情報をコントロール。*iPadは付属いたしません。さらに詳しくAvidPro Tools 年間サブスクリプション業界標準DAWとなるPro Tools。年間サブスクリプション版(1年間)を5名様に。永続版と異なり、サブスクリプションとすることで規模の拡大や縮小などユーザーの使用状況によってスケーラブルな体制にも対応します!さらに詳しくAvidMedia Composer 年間サブスクリプション映像編集の世界で確固たるポジションを獲得しているMediaComposer。こちらも年間サブスクリプション版(1年間)を5名様にご提供です!音楽制作のみならず、いまのコンテンツに求められる映像の分野へのチャレンジにご活用ください!さらに詳しくAMS NEVE1073LB500シリーズに搭載可能なClassic Neve® Mic Pre。1073®のパンチのあるサウンドは、ロックからポップス、ヒップホップからラップ、スラッシュからクラシックまで、あらゆるジャンルに最適なサウンドを届けます。さらに詳しくArtiphonORBA手のひらに新しい音楽体験を。ORBAは単体でシンセサイザー、ルーパーとしても、またMac、iOSデバイスに接続して独創的なMIDIコントローラーにもなります。直感的な動作からあなただけの演奏スタイルを見つけてください。さらに詳しくApogeeApogee FX Rack BundleApogee ModComp、ModEQ 6、EQP-1A、MEQ-5、およびOpto3-Aの5つのプラグインを同梱。DAW上でプラグインとして使えるだけでなく、EnsembleやElementシリーズと組み合わせてDSPでの仕様も可能です。さらに詳しくEarthworksSR20優れたカーディオイド特性と高いフィードバック耐性を持ち、ボーカル、ギター、ドラム、ピアノ、管楽器、ストリングスなど、ほぼあらゆるインストゥルメントに対応します。取り外し可能なウインド・スクリーンが付属。さらに詳しくEve AudioSC203(ペア)パッシブラジエーターを搭載し、見た目からは想像がつかないほどの低域を再生します。設置場所が限られた環境でも最高のサウンドを実現します。クリエイターのデスクトップ・モニターとしても、ホーム/ゲームユーザーにも最適なモデルです。さらに詳しくFlux::Studio Session PackEQ、コンプ、リミッター、アナライザーなど、Flux::の製品群から選りすぐり8製品のモノ/ステレオ専用モデルを収録。レコーディングからミキシングまで、プロジェクト・スタジオに優れたサウンドをお届けします。さらに詳しくFocusriteISA Two「最高のマイク・プリアンプ」を2基搭載。伝統的な最高のソリッドステート電子回路と、オリジナルのインプット・トランス Lundahl LL1538を採用しています。ボーカル、楽器の録音やピアノのステレオ収録に最適です。さらに詳しくFocalShape50(ペア)リスニング距離 80cm~を想定して設計された、スモールスタジオ、自宅に最適なFocal Shape 50。亜麻繊維を採用した専用のウーファや、独特の形状でスイートスポットが広く取られたツイーターなどにより、最高のサウンドバランスを実現します。さらに詳しくGameChanger AudioPLASMA PEDAL高電圧のプラズマ放電で音を歪ませるPLASMA Pedal。通常のLED回路やトランジスタ、真空管でクリップするディストーションペダルとは違い、オーバードライブから過激なファズトーンまで、新しいサウンドをあなたに届けます。さらに詳しくiZotopeMusic Production Suite 4A.I.によるアシスタント機能でミックスのスタート地点を作り、楽曲のアイデアを素早く洗練可能なNeutron、Nectar、OzoneのAdvancedと、ノイズを適切に処理するRX Standard、そして楽曲制作に必要なエフェクト、リバーブをひとつにパッケージ。さらに詳しくLEWITTLCT 440 PUREコンパクトな筐体に1インチ・ラージダイアフラムを搭載。見た目からは想像がつかないほど、繊細なサウンドを捉えます。ボーカル、楽器の録音から配信まで、幅広い用途におすすめです。さらに詳しくPositive GridSparkSparkはインテリジェントな機能を数多く搭載。数々の賞を受賞してきたBIASトーンエンジンを使用した、10000を超えるギタートーンをはじめ、コード解析、ジャム機能など、あなたのギター練習を強力にサポートします。さらに詳しくROLIROLI StudioROLI Studioは、Equator、Cypher2、Strobe2、ROLIによる3つのシンセを統合可能なトータルプラットフォームです。買ったその日から豊富なサウンドライブラリを使用可能。音楽制作をスパイスアップするクリエイティブなサポート機能を提供します。さらに詳しくTeenage EngineeringOP-Z先進のポータブル16トラック・シーケンサーとして、ビジュアルライティングのコントローラーとして、またはサンプルからシンセシスまで幅広いサウンドを網羅するシンセサイザーとして。OP-Zは1台で「完全な機能」を搭載しています。さらに詳しくWavesLiveMobile Serverプラグインプロセッシング専用サーバーで、ライブやミキシングのWavesエフェクト処理を強力サポート。Mobile Server ならバックパックに余裕で入るコンパクト設計で、どこにでも連れていけます。さらに詳しく
※ご注意
・各セミナーごとで発表される応募フォームにてお一人様1通のご応募を有効とさせていただきます。
・応募フォームURLは各セミナーごとに異なるアドレスとなりますのでご注意ください。
・応募フォーム入力に不備がある場合は賞品発送が行えませんのでご注意ください。
・賞品送付先は日本国内に限定させていただきます。海外からご視聴の方は恐縮ですが抽選対象外とさせていただきますのでご了承ください。
・ご連絡先の入力に不備があった場合は抽選対象外とさせていただきます。
・全ての応募フォームのご入力は11/21(土)18:00にて締め切りとさせていただきます。
・大変恐縮ですが、抽選集計の都合上11/21(土)18:00「荒田洸のスタジオライブを無料で配信!
配信ミックスの裏側も学べます Supported by J-WAVE」でのプレゼント応募は執り行いません。あらかじめご了承ください。
*【訂正】プレゼント企画告知のご案内文において「ノウハウ満載の全23セミナーのすべてにチャンスあり!!」との記載がございましたが、正しくは11/21(土)18:00「荒田洸のスタジオライブを無料で配信!配信ミックスの裏側も学べます Supported by J-WAVE」開催分を除く、22セミナーでのご応募が可能の内容でございました。訂正のご案内とともに謹んでお詫び申し上げます。
MI FESTIVALと同時開催でスケールアップ!
今回は弊社MI事業部主催の「MI FESTIVAL」を同時開催、Avidソリューションの最新情報のみならず、音楽・映像、クリエイティブ制作に携わるすべての方に向け、これまで以上にスケールアップしたイベントとなりました。MI FESTIVALは36.8chという驚愕のイマーシブ環境を整えた西早稲田Artware hubから、またAvid Creative SummitはDolby Atmos対応を果たした弊社渋谷リファレンスルームから配信です!
NEWS
2020/10/14
Dolby Atmosに対応!Rock oN Shibuyaリファレンスルーム アップデート完了!!
Rock oN ShibuyaリファレンスルームがDolby Atmosに完全対応いたしました。理想的な7.1.4ch Dolby Atmosルームへのアップデートを果たし、文字通りの"リファレンスルーム"となったRock oN Shibuyaでぜひ最新のイマーシブサウンドを体験してください!
画像上段:施工中の様子。スピーカーユニットを収めるキャビネットの取り付けが行われた。 画像下段:スピーカーの設置が完了した様子。フロントはほぼ従来通りだが、ハードセンターを設置できるようにアップデートされている。
ついにDolby Atmos対応を果たした新たなリファレンスルーム。サイド、リアだけでなく天井に埋め込まれたハイトスピーカーがご覧いだけるだろうか。
真下から見るとこのようになる。ダウンライトの内側、ちょうど柱の角付近の天井にスピーカーが埋め込まれている。
Left側。今回新たに設置されたスピーカーは、設備向け新ブランドFocal CIから同軸モデル100 ICW 8を採用。躯体工事が不要な軽量設計とスタイリッシュな外観は、ホームシアターにも最適だ。
こちらはRight側。スピーカーキャビネットは施工を請け負ってくれた株式会社ソナによる製作。天井に埋め込まれたスピーカーも、内部でキャビネットに収められている。
Left側のサイド/リアスピーカーは、壁面に新たな張り出し部分を作りつけた上で埋め込まれている。まるではじめからこのような部屋だったかのように美しい仕上がりは、まさにソナ様の手腕によるものだ。
CIから100 ICW 8近影。なんと、ツイーター部分は角度を調整することが可能。ルームの特性に応じて、最適な音響調整を行うことが可能となっている。
https://youtu.be/EmMyGliTMgI
Dolby Atmosに完全対応 ~Pro ToolsセッションやOTT、Blu-ray、ゲーム試聴までOK!
Dolby Atmos再生環境として理想的な7.1.4chスピーカーレイアウトを実現した今回のアップデート。同時にBlu-rayプレイヤー兼用でXbox oneを導入し、Dolby Atmosコンテンツを幅広くご視聴いただくことが可能となりました。しかし、なんといってもRock oNならではのポイントはPro Toolsセッションを再生することが可能ということ!Dolby Atmosを制作リファレンス環境で気軽に・手軽に体験していただけます!
Rock oN Shibuyaリファレンスルームで体験できること!
Pro ToolsによるDolby Atmosミックスの試聴
Xbox oneを使用したDolby Atmos対応ゲームの視聴
Xbox oneによるOTTコンテンツの視聴
Blu-rayディスクによるDolby Atmosコンテンツの視聴
放送・映画制作に従事されている方のみならず、Dolby Atmosミュージックも本格的に始動しつつある今日、クリエイター/音楽ミキサーの方々も要注目のシステムとなっております!
こんな方におすすめ!
Dolby Atmos用のモニターを探している
普段と違う環境でDolby Atmosセッションをチェックしたい
Dolby Atmos環境でマイクやアウトボード機材を選定したい
Dolby Atmosによるイマーシブサウンドを体験したい
新ブランド Focal CIを導入 ~高品質・軽量設計・短工期!
今回のアップデートに際してサイド・リア・ハイトに設置されたのは、サウンドクオリティに定評のある仏Focal社による新ブランド「Focal CI」から100 ICW 8という同軸モデル。ご存知の通り、多数のスピーカーを配置するイマーシブサウンドにおいては位相の点で圧倒的な優位性を持つ同軸スピーカーは理想的なチョイスです。
Focal CIはFocal社が新たに立ち上げた設備向けブランド。設備向けというと館内放送用や飲食店でBGMを流すためのものというイメージを持たれるかも知れませんが、そこはもともとHi-Fiオーディオ向け製品も展開しているFocal。そうした用途だけでなく、ホームシアターやスタジオも視野に入れて開発された製品となっております。
Focal CI全ラインナップについて、詳しくはこちら>>
この度、Rock oN Shibuya リファレンスルームに導入されたFocla CI 100 ICW 8。以前から「点音源のようだ」と評されるFocalのスピーカーだが、同軸仕様の同モデルは真の点音源となる。11個ものスピーカーが並ぶ中でも位相差による定位感のボヤけやサウンドの濁りを回避し、クリーンなモニター環境を確保することが可能だ。
100 ICW 8について、詳しくはこちら>>
今回の工事が2日間という非常に短い期間で完了することができたのも、この100 ICW 8の導入によるところが大きかったように思えます。通常、埋め込み型のスピーカーを設置する際には耐荷重の問題が障壁となることが多いものです。重量のあるスピーカを壁や天井に埋め込もうとすると建物が持つ耐荷重を超えてしまう可能性があるため、スピーカーの設置工事以前に躯体の補強工事などに多くの日数を費やすことになるからです。
その点、パッシブタイプの100 ICW 8は2kg弱という軽量設計のため、躯体工事の必要性がグッと下がります。実際に、今回の工事でも躯体や壁・天井の補強は行っていません。加えて、さすがフランスのメーカーと言いたくなる美麗な外観は、既存の部屋に後付けしたとは思えないほど美しい仕上がりに貢献しています。そして、1発¥36,300(税込)という価格も非常に魅力的です。
こうしたモデルを選定することで、既存設備のDolby Atmosへのアップデートは想像よりもはるかに気軽に行えることになるでしょうう。。
Focal CI 100 ICW 8のイチオシポイント!
Focal社による信頼のサウンドクオリティ
同軸モデルでイマーシブ環境に最適
1.7kgという軽量設計
ルームの品格を損なわない美しい外観
1ユニット¥36,300(税込)という低価格
Focal CI全ラインナップについて、詳しくはこちら>>
100 ICW 8について、詳しくはこちら>>
Dolby社推奨レイアウトを踏襲 ~Dolby Atmosのリファレンスルームとしてご活用ください!
マルチチャンネルサラウンド・システムの構築で最難関となるポイントは、スピーカーレイアウトかも知れません。部屋の広さや構造によって、どうしても規格に則った配置が不可能な場合もあります。Rock oN Pro Shibuyaリファレンスルームは幸いにもそうした問題をクリアし、リスニングポイントを中心とした各スピーカー間の角度、天井高など、ほとんどの要素がDolby社推奨の理想的なものとなっています。厳密にはサイドスピーカーの位置がやや高いのですが、100 ICW 8に搭載されたツイーター角度調整機構により、サウンド的な問題はまったくありません!
まさに、Dolby Atmosのためのリファレンスルームへと進化したRock oN Shibuya リファレンスルームへ、ぜひお越しください。もちろん、従来同様ステレオでのご試聴も承っております!
Dolby Atmosシステム導入、ご相談などはDolby認定ディーラーであるROCK ON PRO までお気軽にお問い合わせください。
Tech
2020/09/28
Netflix :オリジナル作品「Sol Levante」のDolby Atmos Pro Toolsセッション・ファイルを無償公開!
https://youtu.be/Ecr_02W2Csw
Pro Tools | HDX, S6などを使用してDolby Atmosミックスされた4K HDR/Atmosアニメ作品「Sol Levante」のオーディオ・プロダクション・ストーリーがAvidブログに掲載されました。2020年4月に公開されたこの作品の特徴は、その制作過程や、Pro Toolsセッション・ファイル等の素材も全てオープン・ソースとしてプロダクションに公開していることです。
既にNetflixパートナーとなられているスタジオ様では、ダウンロードして再生なさっているところも多いと思いますが、こういった制作環境やワークフローを、より広く告知したいというAvidからの要望に、Netflixが賛同する形でブログ公開となったようです。
>>Netflix :オリジナル作品「Sol Levante」のDolby Atmos Pro Toolsセッション・ファイルを無償公開!(Avidブログ日本語版)
Dolby Atmosミックスにご関心をお寄せのお客様は、上記リンクより、ぜひご一読されることをおすすめいたします。
ブログ中程にリンクされているムービーでは、文中では触れられていない、ウィル・ファイルズ氏によるS6でのミックスの模様をご覧いただける他、コメントも日本語でご覧いただけます。
Pro Tools セッションファイルを含むオープンソース・コンテンツは、ブログ中程のテキストにリンクされているNetflixのページからダウンロードできるようになっています。
Sound That Moves – イマーシブ・オーディオ・プロダクション統合ワークフローの解説
また、このブログ公開に合わせて、Pro Tools | HDXを初めとするAvidのDolby Atmosミックスに有効な各種製品並びに技術情報をまとめたランディングページも作成されています。Dolby Atmos制作ツールのハウツー的な内容も含まれておりますので、Pro ToolsにおけるDolby Atmosワークフローの概要が掴めるのではないでしょうか。
Dolby Atmos 認定ディーラーであるROCK ON PROなら、システム設計からキッティングまで、Pro Tools | HDXシステムでのDolby Atmos制作ワークフローを完全サポート!下記contactバナーよりお気軽にお問い合わせくださいませ。
Dolby Atmos RMU ブランドページ
Music
2020/08/25
AVID BLOGにてDolby Atmos Music ミキシング体験記が公開中!
AVID BLOGにてDolby Atmos Musicのミキシング体験記が公開されています。記事を執筆したのは、カリフォルニア州ロサンゼルス近郊に音楽スタジオ"The Record House"を構えるミキシングエンジニア、Mert Ozcan氏。公式プロフィールによると、彼はバークリー音楽大学を卒業後、Abbey Road、British Grove、Capitol and Interscope Studiosといった世界的にも権威ある数々の音楽スタジオでエンジニアとしての腕を磨き、同じくエンジニア兼ミュージシャンであるBeto Vargas氏と共にThe Record Houseを立ち上げたそうです。
記事ではMert氏によるDolby Atmos Musicミキシングに関する考察がアツく語られているので、ご興味がある方は是非ともご一読してみてはいかがでしょうか?
◎こちらからチェック!
Dolby Atmos® Music のミキシング体験とAvidPlayでの配信 - AVID BLOG
http://www.avidblogs.com/ja/dolby-atmos-music-avidplay/
「まるでモノクロがカラーになったみたいだ」
「スタジオを変えたくなった」
「普通に音楽を聴くなんてもう無理です」
これらはアーティストやミュージシャンが、The Record House の新しくできたAtmosミックスルームで Dolby Atmos Music を聴いた時のいくつかのコメントです。この体験が特別なものであった事を物語っています。
上記ページより一部抜粋
◎公式サイトからはMert氏らが手がけた音楽作品も実際に試聴可能です!
The Record House 公式サイト
https://the-record-house.com/
◎また、最新号のProceed Magazine 2020ではDolby Atmosに関する基本的な知識から、Pro ToolsでDolby Atmosミキシングを始めるための最初の足掛かりまでを完全解説中!併せてチェック!
https://pro.miroc.co.jp/solution/dolby-atmos-proceed2020/
◎日本語字幕付きPro Tools 解説動画はこちら (Pro ToolsでDolby Atmos Renderを使うワークフローについても紹介されています)
https://pro.miroc.co.jp/headline/avidjapan-youtube-playlists-update-202007/
Dolby Atmosに関するお問い合わせは、下記"Contact"より、お気軽にROCK ON PROまでご連絡ください。
◎Proceed Magazine 最新号発売中! サンプルの試し読みはこちらのページから! https://pro.miroc.co.jp/headline/proceed-magazine-2020/
Media
2020/08/11
ゼロからはじめるDOLBY ATMOS / 3Dオーディオの世界へDIVE IN !!
2020年1月、CES2020にてお披露目された"Dolby Atmos Music"。映画向けの音響規格の一つであるDolby Atmosを、新たなる"3D"音楽体験として取り入れよう、という試みだ。実は、前年5月頃より"Dolby Atmosで音楽を制作しよう”という動きがあり、ドルビーは世界的大手の音楽レーベル、ユニバーサルミュージックとの協業を進めてきた。"Dolby Atmos"は元々映画音響用のフォーマットとして2012年に誕生している。その後、ヨーロッパを中心に対応劇場が急速に増え、海外では既に5000スクリーン以上、国内でもここ数年で30スクリーン以上に渡りDolby Atmosのシステムが導入されてきた。
また、映画の他にもVRやゲーム市場でもすでにその名を轟かせており、今回、満を持しての音楽分野への参入となる。Dolby Atmos Music自体は、既にプロオーディオ系の様々なメディアにて取り上げられているが、「Dolby Atmosという名称は聞いたことがある程度」「Dolby Atmosでの制作に興味があるが、日本語の情報が少ない」という声もまだまだ多い。そこでこの記事では、今のうちに知っておきたいDolby Atmosの基礎知識から、Dolby Atmosミックスの始めの一歩までを出来るだけ分かりやすい表現で紹介していきたい。
目次
コンテンツは消費の時代から”体験”の時代に 〜イマーシブなオーディオ体験とは?〜
まずは Dolby Atmosを体験しよう! / 映画、音楽、ゲームでの採用例
ベッドとオブジェクトって何!? / Dolby Atmos基礎知識
Dolby Atmos制作を始めよう / 必要なものは何?
自宅で始めるDolby Atmosミックス / Dolby Atmos Renderer × Pro Tools 2020.3【Send/Return編】
自宅で始めるDolby Atmosミックス / Dolby Atmos Renderer × Pro Tools 2020.3【CoreAudio編】
1.コンテンツは消費の時代から”体験”の時代に 〜イマーシブなオーディオ体験とは?〜
近年、"3Dオーディオ"という言葉をよく見かけるようになった。今のところ、その厳密な定義は存在していないが、古くからは"立体音響"や"三次元音響"といった言葉でも知られており、文字通り、音の位置方向を360度、立体的に感じられる音響方式のことを指す。その歴史は非常に古く、諸説あるがおよそ1世紀に渡るとも言われている。
点音源のモノラルに始まり、左右を表現できるようになったステレオ。そして、5.1、7.1、9.1…とその数を増やすことによって、さらなる音の広がりや奥行きを表現できるようになったサラウンド。と、ここまででもイマーシブな(*1)オーディオ体験ができていたのだが、そこにいよいよ、天井や足元といった高さ方向にもスピーカーが加わり、三次元空間を飛び回るような音の再生が可能になった。それぞれの方式は厳密には異なるが、3DオーディオフォーマットにはDolby Atmos、Auro-3D、DTS:X、NHK22.2ch、Sony360 Reality Audioなどといったものがある。
基本的に、これまでこうした3Dフォーマットのオーディオを再生するにはチャンネル数に応じた複数のスピーカーが必要だった。そのため、立体的な音像定位の再現性と、そうした再生環境の手軽さはどうしてもトレードオフになっており、なかなか世間一般に浸透しづらいという状況が続いていた。そこで、いま再注目を浴びているのが"バイノーラル(*2)録音・再生方式"だ。個人差はあるものの原理は単純明快で、「人間の頭部を模したダミーヘッドマイクで録音すれば、再生時にも人間が普段自分の耳で聞いているような立体的な音像が得られる」という仕組み。当然ながらデジタル化が進んだ現代においては、もはやダミーヘッドすら必要なく、HRTF関数(*3)を用いれば、デジタルデータ上で人間の頭側部の物理的音響特性を計算・再現してしまうことができる。
バイノーラル再生自体は全くもって新しい技術というわけではないのだが、「音楽をスマホでストリーミング再生しつつ、ヘッドホンorイヤホンで聴く」というスタイルが完全に定着した今、既存の環境で気軽にイマーシブオーディオを楽しめるようになったというのが注目すべきポイントだ。モバイルでのDolby Atmos再生をはじめ、Sonyの360 Rearity Audio、ストリーミングサービスのバイノーラル音声広告といった場面でも活用されている。
*1 イマーシブ=Immersive : 没入型の *2 バイノーラル= Binaural : 両耳(用)の *3 HRTF=Head Related Transfer Function : 頭部伝達関数
2.まずは Dolby Atmosを体験しよう! / 映画、音楽、ゲームでの採用例
では、Dolby Atmosは一体どのようなシーンで採用されているのだろうか。百聞は一見に如かず、これまでDolby Atmos作品に触れたことがないという方は、まずは是非とも体験していただきたい。
映画
映画館でDolby Atmosを体験するためには、専用設計のスクリーンで鑑賞する必要がある。これには2種類あり、一つがオーディオの規格であるDolby Atmosのみに対応したもの、もう一つがDolby Atmosに加え、映像の規格であるDolby Visionにも対応したものだ。後者は"Dolby Cinema"と呼ばれ、現時点では国内7スクリーン(開業予定含む)に導入されている。
Dolby Atmosでの上映に対応している劇場は年々増加していて、2020年4月現在で導入予定含む数値にはなるが、既に国内では 36スクリーン、海外では5000スクリーン以上にも及んでいる。 (いずれもDolby Atmos + Dolby Cinema計)当然ながら対応作品も年々増えており、ライブストリーミング等、映画作品以外のデジタルコンテンツも含めると、国内では130作品、海外ではその10倍の1300を超える作品がDolby Atmosで制作されている。いくつか例を挙げると、国内興行収入130億円を超える大ヒットとなった2018年の「ボヘミアン・ラプソディ」をはじめ、2020年のアカデミーでは作品賞を受賞した「パラサイト 半地下の家族」、同じく録音賞を受賞した「1917 命をかけた伝令」などといった作品がDolby Atmosで制作されている。
●Dolby Atmos採用映画の例
アイアンマン3 / アナと雪の女王 / ラ・ラ・ランド/ パラサイト / フォードvsフェラーリ / ジョーカー / 1917 命をかけた伝令 / ボヘミアンラプソディetc...
*Dolby 公式サイトよりDolby Atmos採用映画一覧を確認できる
ゲーム
Dolby AtmosはPCやXbox Oneといった家庭用ゲームの人気タイトルでも数多く採用されている。特に、近年流行りのFPS(First Person Shooter = 一人称視点シューティング)と呼ばれるジャンルのゲームでは、射撃音を頼りに敵の位置を把握しなければならない。そのため、Dolby Atmosを使った3Dサウンドの再生環境の需要がより高まってきているのだ。
※Windows PCやXbox OneにおいてヘッドホンでDolby Atmosを楽しみたい場合は、Dolby Access(無料)というアプリをインストールし、Dolby Atmos for Headphonesをアプリ内購入する必要がある。
●Dolby Atmos採用ゲームの例
Assassin's Creed Origins(Windows PC, Xbox One) / Final Fantasy XV(Windows PC ,Xbox One)Star / Wars Battlefront(Windows PC ,Xbox One) / ACE COMBAT 7: SKIES UNKNOWN(Windows PC, Xbox One)
音楽
Amazon Echo Studio
そして2020年1月にCES2020で正式発表されたのが、このDolby Atmosの名を冠した新たな3Dオーディオ再生フォーマット、Dolby Atmos Musicだ。現時点で、国内ではAmazonが提供するAmazon Music HD内のみでサービスを提供しており、同社のスマートスピーカー”Amazon Echo Studio”を用いて再生することができる。アメリカでは音楽ストリーミングサービス"TIDAL"でもDolby Atmos Musicを再生することができ、こちらは対応するPCやスマホなどでも楽しめるようになっている。
ここまで、Dolby Atmosを体験してみて、皆さんはどのような感想を持たれただろうか? 当然ながら多少の個人差はあるにしても、映画であればその空間に入り込んだかのような没入感・豊かな臨場感を体験できたのではないだろうか。あるいは、人によっては「期待したほど音像が動き回っている感じが得られなかった」という方もいるだろう。しかし、それでDolby Atmosの魅力を見限るのはやや早計だ。なぜなら、この技術は、"作品の意図として、音を無意識に落とし込む”くらい自然にミックスすることを可能にしているからだ。それを念頭におき、もう一度、繊細な音の表現に耳を澄ましてみてほしい。
3.ベッドとオブジェクトって何!? 〜Dolby Atmos基礎知識〜
体験を終えたところで、ここからは技術的な側面と基礎知識を押さえていこう。ポイントとなるのは以下の3点だ。
● ベッド信号とオブジェクト信号
● 3次元情報を記録するメタデータ
● 再生環境に合わせてレンダリング
Dolby Atmosの立体的な音像定位は、2種類の方式を組み合わせて再現されている。 一つはチャンネルベースの信号 ー 5.1.2や7.1.2などあらかじめ定められたスピーカー配置を想定し、そのスピーカーから出力される信号のことを"Bed"と呼んでいる。例えば、BGMやベースノイズといった、あまり指向性が求められない音の再生に向いている。基本は音源とスピーカーが1対1の関係。従来のステレオやサラウンドのミックスと同じなので比較的イメージがつきやすいだろう。
劇場のように、一つのチャンネルが複数のスピーカーで構成されていた場合、そのチャンネルに送った音は複数のスピーカーから再生されることになる。
そしてもう一つはオブジェクトベースの信号 ー 3次元空間内を縦横無尽に動き回る、点音源(ポイントソース)の再生に適した方式だ。例えば、空を飛ぶ鳥の鳴き声や、アクション映画での動きのある効果音の再生に向いている。原理としては、3次元情報を記録するメタデータをオーディオとともに記録・伝送し、再生機器側でそれらを再生環境に合わせてレンダリング(≒変換)することで、再生環境ごとのスピーカー配列の違いをエンコーダー側で吸収できるという仕組みだ。
ある1点に音源を置いた時に、そこから音が聴こえるように、スピーカー送りを最適化するのがレンダラーの役割
Dolby AtmosのチャンネルフォーマットはBed 7.1.2ch(計10ch) + Object118ch(最大)での制作が基本となっている。この"空間を包み込むような音"の演出が得意なベッドと、”任意の1点から聞こえる音”の演出が得意なオブジェクトの両方を組み合わせることによって、Dolby Atmosは劇場での高い臨場感を生み出しているのだ。
4.Dolby Atmos制作を始めよう 〜必要なものは何?〜
Dolby Atmosはその利用目的によって、大きく2種類のフォーマットに分けられる。
まずは、一番最初に登場した映画館向けのフォーマット、Dolby Atmos Cinemaだ。これはまさにフルスペックのDolby Atmosで、先述した7.1.2chのBEDと118chのObjectにより成り立っている。このフォーマットの制作を行うためにはDolbyの基準を満たした音響空間を持つダビングステージでの作業が必要となる。しかも、劇場向けのマスターファイルを作ることができるCinema Rendering and Mastering Unit (Cinema RMU)はDolbyからの貸し出しでしか入手することができない。
もう一つは、Blu-ray やストリーミング配信向けのフォーマット、 Dolby Atmos Homeだ。実は、こちらの大元となるマスターファイル自体は Cinema 向けのものと全く同じものだ。しかし、このマスターファイルから Home 向けのエンコードを行うことで、128chのオーディオを独自の技術を活用して、できる限りクオリティーを担保したまま少ないチャンネル数に畳み込むができる。この技術によって、Blu-rayやNetflixといった家庭向けの環境でも、Dolby Atmos の迫力のサウンドを楽しめるようになった。こちらも、マスターファイルを作成するためには、HT-RMUと呼ばれるハードウェアレンダラーが必要となるが、HT-RMUは購入してスタジオに常設できるというのがCinemaとは異なる点だ。
●Dolby Atmos制作環境 比較表
※Dolby Atmos Production SuiteはWeb上、AVID Storeからご購入できるほか、Mastering Suiteにも付属している。
※Dolby Atmos Dub with RMUについてはDolby Japan(TEL: 03-3524-7300)へお問い合わせください。
●Cinema
映画館上映を目的としたマスター。ダビングステージでファイナルミックスとマスタリングを行う。Dolby Atmos Print Masterと呼ばれるファイル群をCinema Rendering and Mastering Unit (Cinema RMU)で作成。
●Home
一般家庭での視聴を目的としたマスター。ニアフィールドモニターによるDolby Atmosスピーカー・レイアウトにてミックスとマスタリングを行う。Dolby Atmos Master File(.atmos)と呼ばれるファイル群をHome-Theater-Rendering and Mastering Unit(HT-RMU)で作成。
Cinema用とHome用のRMUでは作成できるファイルが異なり、スピーカーレイアウト/部屋の容積に関する要件もCinema向けとHome向けで異なる。それぞれ、目的に合わせたRMUを使用する必要がある。ミキシング用のツール、DAW、プラグイン等は共通。
ここまで作品や概要を説明してきたが、そろそろDolby Atmosでの制作を皆さんも始めてみたくなってきただろうか?「でも、自宅に7.1.2chをモニターできる環境が無い!「やってみたいけど、すぐには予算が捻出できない!」という声も聞こえてきそうだが、そんな方にとっての朗報がある。Dolby Atmos Production Suiteを使えば、なんと ¥33,000 (Avid Storeで購入の場合)というローコストから、Dolby Atmos ミックスの最低限の環境が導入できてしまうのだ。このソフトウェア以外に別途必要なものはない。必要なものはスペックが少し高めのマシンと、対応DAW(Pro Tools、Nuendo、DaVinchi etc)、そしてモニター用のヘッドホンのみだ。
多少の制約はあるものの、ヘッドホンを使ったバイノーラル再生である程度のミックスができてしまうので、スタジオに持ち込んでのマスタリング前に自宅やオフィスの空き部屋といったパーソナルな環境でDolby Atmosの仕込みを行うことができる。次の項ではそのワークフローを具体的に紹介していく。
5.自宅で始めるDolby Atmosミックス 〜Dolby Atmos Renderer × Pro Tools 2020.3〜
ここからは最新のPro Tools 2020.3 とProduction Suiteを使って実際のDolby Atmosミックスのワークフローをチェックしていきたい。まず、大まかな流れとしては下記のようになる。PTとレンダラーの接続方法は、Send/Returnプラグインを使う方法とCore Audio経由でやり取りする方法の2種類がある。それでは順番に見ていこう。
1.Dolby Atmos Production SuiteをAvid Storeもしくは販売代理店にて購入しインストール。
2.Dolby Atmos Renderer(以後レンダラー)を起動各種設定を行う。
3.Pro Tools(以後PT) を起動各種設定を行う。※正しいルーティングの確立のため、必ずレンダラー →Pro Toolsの順で起動を行うこと。
4.PTの標準パンナーで3Dパンニングのオートメーションを書き込む。
5.Dolby Atmos RMU導入スタジオに持ち込む。
Send/Returnプラグインを使う方法
■Dolby Atmos Renderer の設定
● 左上Dolby Atmos Renderer → Preferences( ⌘+ , )で設定画面を表示
● Audio driver、External Sync sourceをSend/Return Plug-insに設定
● Flame rate、Sample rateを設定 ※PTの設定と合わせる
HeadphoneのRender modeをBinauralにすることで、標準HRTFでバイノーラル化された3Dパンニングを確認することができる。(※聴こえ方には個人差があります。)
■Pro Tools の設定
● 新規作成→プロジェクト名を入力→テンプレートから作成にチェック
● テンプレートグループ:Dolby Atmos Production Suite内”Dolby Atmos Renderer Send Return Mono(またはStereo)”を選択→ファイルタイプ:BWF
● 任意のサンプルレート、ビットデプス、I/O設定を入力→作成
● 設定 → ペリフェラル → Atmosタブ
● チェックボックスに2箇所ともチェックを入れる。
● RMUホストの欄には”MAC名.local”または”LOCALHOST”と入力。
接続状況を示すランプが緑色に点灯すればOK。一度接続した場合、次回からプルダウンメニューで選択できる。
編集ウィンドウを見てみると、英語でコメントが入力されたいくつかのトラックが並んでいる。
● まず、一番上の7.1.2Bedという名称のトラック ーここにBedから出力したい7.1.2の音素材をペーストまたはRECする。
● 次に、その下のObject 11という名称のトラック ーここにObjectから出力したいMonoまたはStereoの音素材をペーストまたはRECする。
● 上の画像の例では、任意の範囲をドラッグして選択、AudioSuite→Other→Signal Genetatorよりピンクノイズを生成している。
● このトラックは、画面左側、非表示になっている”SEND_〇〇_IN_ch数”という表記になっているAUXトラックに送られている。
● このAUXトラックにSendプラグインがインサートされており、パンなどのメタデータとともにレンダラーへと出力される。
試しに再生してみると、レンダラー側が上の画像のような状態になり、信号を受けているチャンネルが点灯している様子が確認できる。
赤丸で囲った部分をクリックしてアウトプットウィンドウを表示し、パンナーのポジションのつまみをぐりぐりと動かしてみよう。
すると、レンダラー内のオブジェクトが連動してぐりぐりと動くのが確認できる。
オートメーションをWriteモードにしてチェックすると、きちんと書き込んだ通りに3Dパンニングされているのが分かる。ここで、トラックの右端”オブジェクト”と書かれているボタンをクリックすると、”バス”という表示に切り替わり、その音はベッドから出力される。つまり、ベッドとオブジェクトをシームレスに切り替えることができるのだ。これは、例えば、映画などで正面のベッドから出力していたダイアローグを、”ワンシーンだけオブジェクトにして、耳元に持ってくる”といった表現に活用できそうだ。
さらにその右隣の三角形のボタンを押すごとに、” このトラックに書き込まれたメタデータをマスターとする ”( 緑点灯 ) か、” 外部のオブジェクトパンニング情報源からREC する ”( 赤丸点灯 ) か、” 何も送受信しない ”( 無点灯 ) か を選択できるようになっている。レンダラー内でレンダリングされた音は、ReturnプラグインからPTへと戻ってくる。あとは、各々のモニター環境に合わせてアウトプットしたり、RECをかけたりすることができる。
以上が、Send/Returnプラグインを利用した一連のルーティングのワークフローになる。今回はテンプレートから作成したが、もちろんはじめから好きなようにルーティングを組むことも可能だ。しかし、チャンネル数が多い場合はやや複雑になってくるので、初めての場合はまずはテンプレートからの作成をおすすめする。
CoreAudioを使う方法
はじめに、Core Audioを使う場合、Sync sourceをMTCかLTC over Audioから選択する必要がある。LTCを使う場合は、PTの130chまでの空きトラックにLTCトラックまたは、Production Suite 付属のLTC Generator プラグインを挿入→レンダラーからそのch番号を指定する。MTCを使う場合はIACバスをというものを作成する必要がある。(※IAC = Inter-application communication)
■IACバスの設定
● Mac →アプリケーション→ユーティリティ→Audio MIDI設定を開く
● タブメニューのウインドウ→IAC Driverをダブルクリック ※装置名がIACドライバなど日本語になっていた場合レンダラーでの文字化けを防ぐため”IAC Driver”など英語に変更しておくとよい
● +ボタンでポートを追加→名称を”MTC”(任意)に変更→適用をクリック
■Dolby Atmos Renderer 側の設定
● 左上Dolby Atmos Rendere → Preferences( ⌘+ , )で設定画面を表示
● Audio driverをCore Audioに設定
● Audio input deviceを”Dolby Audio Bridge”に設定 ※ここに”Dolby Audio Bridge”が表示されていない場合、Macのシステム環境設定→セキュリティとプライバシー内に関連するアラートが出ていないか確認。
● External Sync sourceをMTCに設定し、MTC MIDI deviceで先ほど作成したIAC Driver MTCを選択(またはLTC over Audioに設定しCh数を指定)
● Flame rate、Sample rateを設定 ※PTの設定と合わせる
● ヘッドホンでバイノーラルで作業する場合はHeadphone only modeを有効にすると、リレンダリングのプロセスなどを省くため、マシンに余分な負荷をかけることなく作業できる
■Pro Tools 側の設定
● 設定→プレイバックエンジンを”Dolby Audio Bridge”に。
● キャッシュサイズはできる限り大きめに設定しておくと、プレイバック時にエラーが発生しにくくなる。
● 設定→ペリフェラル→同期→MTC送信ポートを先ほど作成した”IAC Driver,MTC”に設定
● 設定 → ペリフェラル → Atmosタブ(Send/Returnの項目と同様だ)
● チェックボックスに2箇所ともチェックを入れる。
● RMUホストの欄には”MAC名.local”または”LOCALHOST”と入力。接続状況を示すランプが緑色に点灯すればOK。一度接続した場合、次回からプルダウンメニューで選択できる。
以上で、CoreAudio経由でのルーティングは完了だ。Send/Returnプラグインを利用する時のように大量のAUXトラックが必要ないため、非常にシンプルにセッティングを完了できる。また、ソフトウェアレンダラーでの仕込みから最終のマスタリングでRMUのある環境に持ち込む際にも、I/O設定をやり直さなくてよいという点もメリットの1つだろう。こちらも試しにオーディオ素材を置いて動作を確認していただきたい。
マルチチャンネルサラウンドやバイノーラルコンテンツへの需要は、日々着実に高まりつつあることが実感される。今回はゼロからはじめるDolby Atmosということで、Dolby Atmosとはどのようなものなのか、そしてDolby Atmosミックスを始めるためにはどこからスタートすればいいのか、という足がかりまでを紹介してきた。「思ったより気軽に始められそう」と、感じていただいた方も多いのではないのだろうか。
「一度体験すれば、その素晴らしさは分かる。ただ、一度体験させるまでが難しい。」というのが3Dオーディオの抱える最大の命題の命題かもしれない。これを解決するのは何よりも感動のユーザー体験を生み出すことに尽きる。そのために今後どのような3Dオーディオ制作ノウハウを蓄積していけるのか、全てのクリエイターが手を取り合って研鑽することが、未来のコンテンツを創り上げる第一歩と言えるのかもしれない。
*ProceedMagazine2020号より転載
NEWS
2020/08/07
“Pro Tools Tech Tips” 日本語翻訳版がYouTubeにて公開中!
"Stay Home"期間以降、AVIDのプリセールス・チームが継続して制作しているPro Toolsノウハウ・ビデオ・シリーズ、"Pro Tools Tech Tips"。その日本語翻訳版、計52本の動画がYouTubeにて公開されています。
Pro Tools Tech Tips(日本語版)
Pro Tools Tech Tips(日本語版):ここには全てのTech Tipsビデオが収められています。
カテゴリー別プレイリスト
Avid Control/EUCON Tech Tips(日本語版)
Avid S4/S6 Tech Tips(日本語版)
Pro Tools |MTRX Tech Tips(日本語版)
Avid Link Tips(日本語版)
その他関連製品プレイリスト:
Pro Tools | Ultimate - Dolby Atmosミキシング設定と準備
弊社Dolby Atmos関連記事はこちらから https://pro.miroc.co.jp/?s=dolby+atmos
Avid S1関連ビデオ
Pro Toolsご購入に関するお問い合わせは、下記"Contact"より、お気軽にROCK ON PROまでご連絡ください。
◎Proceed Magazine 最新号発売中! サンプルの試し読みはこちらのページから! https://pro.miroc.co.jp/headline/proceed-magazine-2020/
◎その他Pro Tools関連記事リンク
https://pro.miroc.co.jp/headline/avid-support-knowledgebase-localized-japanese/
https://pro.miroc.co.jp/solution/mac-mini-pro-tools/
https://pro.miroc.co.jp/headline/pro-tools-cloud-collaboration/
https://pro.miroc.co.jp/headline/pro-tools-expiration/
Post
2020/08/05
株式会社IMAGICA SDI Studio 様 / 国内外のニーズを両立させる、グローバルスタジオの最先端
長い歴史と高いクオリティを背景に、映像コンテンツのポストプロダクション事業におけるリーディング・カンパニーである株式会社IMAGICA Lab.と、欧米・アジアに数多くの拠点を持ち、メディア・ローカライズ事業をグローバルに展開するSDI Media Group, Inc.。ともにIMAGICA GROUPの一員であるふたつの企業による共同設立という形で株式会社IMAGICA SDI Studioが誕生した。映像コンテンツの日本語へのローカライズと、アニメーション作品の音響制作を主に手掛ける同社の拠点として、2020年2月に旧築地市場付近にオープンした同名のスタジオは、国内外からの様々な要求に応えるために、高品位な機器設備の導入だけでなく、欧米と日本のスタンダードを両立したスタジオ設計を目指したという。本記事では今後ますます起こり得るだろうグローバルな規模でのコンテンツ制作を可能にしたこのスタジオの魅力を紹介していきたい。
国内外双方の要望に応えるポストプロダクション
株式会社IMAGICA Lab.(以下、IMAGICA Lab.)と言えば、名実ともにポストプロダクション業界を代表する企業だ。国内最大規模のポストプロダクション事業を展開する企業であり、その歴史は戦前にまで遡ることができる。国内開催の五輪や万博といった歴史的な事業との関わり、独自技術の開発など、ポストプロダクション業界への貢献は計り知れない。一方、2015年にIMAGICA GROUPに参画したSDI Media Group, Inc.(以下、SDI)は、ロサンゼルスに本拠を置き、欧米とアジアに150を超えるレコーディングルームを持った世界的なローカライズ事業者。グローバルなコンテンツのダビングとサブタイトリングをサービスとして提供している。
そして、業界のリーディングカンパニーであるこの2社が2019年に共同設立したのが株式会社IMAGICA SDI Studioとなるのだが、この2社のコラボレーションの開始は同じグループ企業となった2015年に遡る。当初はIMAGICA Lab.が国内のクライアントから請け負った日本語コンテンツの多言語字幕吹替版の制作事業を中心に行っており、日本語吹替版の制作はIMAGICA Lab.内のMA室を改修したスタジオで2017年から実施されていたという。日本語吹替版制作事業が順調に拡大する中で、海外コンテンツの日本語ローカライズに対する需要の高まりを受け、国内外双方の要望に応えるために両者の共同出資によるグループ内企業を設立。そして、同企業の所有するスタジオとしてのIMAGICA SDI Studioのオープンが決まったということである。
101
102
103
IMAGICA SDI Studioの主な事業は、映像コンテンツの日本語吹き替え版の制作と、アニメーション作品の音響制作ということになるのだが、こちらのスタジオを拠点とした業務にとどまらず、翻訳者や声優のキャスティングから納品物の制作に至るまでを一手に引き受けることができる総合的なプロダクションとなっている。クライアントからすれば、IMAGICA Lab.とSDIの実績を背景とした豊富なノウハウと厳密なクオリティ管理の下に、プロジェクト全体をワンストップで依頼できるというわけだ。まさに時代に即応した現代ポストプロダクションの申し子とも言うべき企業が誕生したと言えるだろう。
海外仕様と日本のメソッドを融合
国内では類例のない広さを持つ102レコーディングブース。台本が見やすいようになるべく明るい部屋を目指したという。マイクはNeumann U 87 Ai。
「IMAGICA Lab.とSDIの両社で作ったスタジオということで、国内のお客様から求められる仕様と海外のお客様から求められる仕様を両方組み合わせて、両方のお客様に応えられるような設備の組み合わせを作ったというところが、一番特徴的かと考えています」と、株式会社IMAGICA SDI Studio 代表取締役社長 野津 仁 氏より伺えた。この国内外両方の顧客ニーズへ応えるために、仕様決定についてはSDI側からのリクエストも仔細に反映されている。当然、それぞれの国ごとに建築事情も違えばワークフローのスタンダードも異なっており、両立するための工夫がスタジオ全体の微に入り細に入り凝らされているが、その中でもこの両者の融合がもっとも顕著に現れているのが集合録り向けの部屋となる102ではないだろうか。
101を除く4部屋にはレコーディングブースが併設されているのだが、この102では国内でよく用いられている"集合録り"を行うための設備が整えられた。天井高:約3m/床面積:約40㎡という広々としたブースは最大25人程度を収容できるキャパシティを備えており、集合録り向けとはいえこれほど広いブースは国内でも珍しい。そこには、演者への快適な居住性の確保という観点はもちろん、海外に数多くの拠点を持つSDIの意向も強く反映されているという。ADRが主流となっている海外の制作現場では、ミキシング時に加工がしやすいクリーンな録り音を求める傾向が強い。リバーブ感も含めた各セリフの味付けは、レコーディング後の処理で追加するものという発想のようだ。そのため、天井高を確保することでブース内での反響を抑制し、可能な限り響きの少ない声を収録することを目指している。今回の音響設計は株式会社SONAの手によるものだが、狙い通り反響の少ない一つ一つの音が聴きやすく、かつS/Nもよい環境に仕上がったようだ。
同じようにブース内での反響を抑制するためにすべてのブースをプロジェクター+スクリーンにしたいとSDIからの要望もあったという。台本を持って収録にのぞむことになる日本のアフレコワークではスクリーンを使用すると部屋が暗くなり過ぎるため、残念ながらこちらは見送りとしたようだが、より反響を抑えるためにブースとコントロールルーム間のガラスを塞ぐことが出来るようにするなど、サウンドへの要望を実現するための工夫は随所に凝らされている。この102のブースは海外のクライアントが求めるサウンドと、日本で行われてきたワークフローとの両立が垣間見える、非常に興味深いスペースとなっている。
101 / 3mの天井高による理想的なDolby Atmos環境
それではスタジオの仕様を見ていきたい。全5部屋あるダビングスタジオのうち、101スタジオだけはレコーディング・ブースを持たないミキシング専用の部屋となっている。そして、この部屋がIMAGICA GROUP初のDolby Atmos対応ミキシング・ルームとなった。これまでもIMAGICA GROUPにはDolby Atmosに対応したプレビュールームなどはあったが、Dolby Atmos Home環境で制作が行えるスタジオはこちらが初めてとなる。
レイアウトはミッドレイヤーに7本、トップには4本のGenelec S360、サブウーファーは7380A 2本を使用した7.1.4ch構成。約3mに及ぶ天井高は、Dolby Atmosなどのイマーシブモニター環境としては理想的だ。この部屋は前述のように7.1.4 Dolby Atmosの構成をとるが、4本のトップレイヤーと、7本のミッドレイヤーとの間に十分な距離を取れないとミキシング作業に支障を来すということで、計画当初から3mの天井高を確保することが視野に入れられていたという。そこにモニタースピーカーとして採用された11本のGenelec S360が、最大出力118dB SPLというパワーで広い部屋の隅々まで音を届けている。
トップレイヤーを取り付けている位置は部屋全体からさらに浮いた構造になっており、音響的な「縁切り」がしっかりと行われている。
DAWは、メイン用と音響効果用に2式のPro Tools HDXシステムが導入された。メイン側のI/OはPro Tools | MTRX、効果用のI/Oは従来モデルのHD I/Oが採用されている。Pro Tools | MTRXはAD/DAに加え、Dolby Atmos RMUと信号をやり取りするためのDanteオプションカードと、ルームチューニング機能を提供するSPQオプションカードが追加された仕様だ。Dolby Atmos Home Mastering制作に必須となるDolby RMUは、昨年DolbyよりアナウンスされたばかりのMac mini構成。Mac miniはDante I/O カードとともにSonnet xMac mini Serverにビルトインされ、1UのコンパクトなサイズでDolby Atmosに必要な128chを処理する。限られたスペースに多数の機材をラッキングしなければならないMAスタジオにとっては、そのコンパクトさは価格も含めて魅力的な構成と言えるだろう。
コントロールサーフェスは、メインに16フェーダー構成のAvid S4、効果用にAvid S3を採用。S4はフラッグシップであるS6 M40に搭載された機能のほとんどを使用することが可能だが、今回はディスプレイモジュールなしとし、3Dパンニング対応のパンナーモジュールが追加されている。S4とS6 M10とのもっとも大きな違いのひとつがディスプレイモジュールへの対応だが、そのディスプレイモジュールを省いたのはこの部屋の映像モニターがスクリーン+プロジェクターであることと関係している。せっかく大型スクリーンで視聴できる環境を整えたのだから、その手前にカラフルなディスプレイモジュールを設置することは望ましくない、という判断だ。
パワフルな機能だけでなくコンパクトさも魅力Avid S4。様々な位置でミックスを確認できるよう、パンナーモジュールは特注ボックスに収納され本体の外に設置されている。
パンナーモジュールは特注専用ボックスと延長ケーブルを使用して、サーフェス本体から離れた位置でもパンニングを行うことができるようになっている。モニターコントローラーは、発売直後の導入となったGRACE DESIGN m908。名機m906の後継機として、Atmos対応を果たした同社の新たなフラッグシップ・モデルだ。IMAGICA Lab.では2部屋ある5.1ch対応MAスタジオの片方にm906が採用されていたのだが、その使い勝手が非常によいということで、こちらでは後継となるm908が全部屋に導入されている。
プラグイン関連に目を向けると、基本的に全部屋共通でWAVES Diamond、NUGEN AUDIO Loudness Tool Kit、iZotope RX7、AUDIO EASE各種、Video Slave 4 Proなど、ポストプロダクション業務でのデファクト・スタンダードが余すところなく導入されている。個人的には、その中にSound Toys Bundleが含まれているところが興味深いと感じた。MAというと、不要なノイズを除去するなど、ついついサウンドを"きれいに"する方向にばかり注目してしまうが、Sound Toysのように積極的に歪ませることが得意なプロダクトも導入されている点は、サウンドに対するこだわりを感じさせる部分ではないだろうか。
102~105 / 国内屈指の規模となる収録ブース群
102コントロールルーム
そして、102~105は収録ブースを備えた部屋となっている。前述の通り102はいわゆる"集合録り"向けの部屋で、天井高:約3m/床面積:約40㎡という広々としたブースは最大25人程度を収容できるキャパシティを備えている。103~105は個別録り向けの部屋となっているが、それでも面積:約17~19㎡ x 高さ:約3mとなっており、一般的なスタジオと比べると大きなスペースを確保している。こちらでも微に入り細に入り不要な反響が発生しない工夫が凝らされており、クリーンな録り音を狙った仕様は102と同様だ。
102レコーディングブース
103レコーディングブース
機材面については、集合録り向けの102のみ収録機材が多いことを除いて、これら4部屋は基本的に同様の構成となっている。IMAGICA Lab.での実績を踏まえたオーセンティックな構成でありながら、課題となっていた部分を解決するためのモデル変更や最新モデルへのアップグレードなどが実施され、よりブラッシュアップされた仕様となっている。モニター環境は、配信系の映像コンテンツでは主流となっている5.1サラウンド構成を採用。モニタースピーカーには、国内出荷直後のGenelec 8351B(サブウーファーは7370A x2)が選ばれている。
そして、DAWは101と同様にPro Tools HDXシステム+Pro Tools | MTRXだが、102~105はHDXカードが1枚、MTRXのオプションカード構成も収録のない101とは異なったものとしている。コントロールサーフェイスにはAvid S3を採用。IMAGICA Lab.ではArtist | Mixを使用していたそうだが、フェーダーのクオリティ向上などを目的にS3が選ばれた格好だ。S3にはパンニング機能を追加できないため、パンナーとしてJL Cooper Eclipse PXが導入されている。102~105は5.1サラウンド仕様ではあるが、将来的な拡張性を考慮し、Dolby Atmos対応の本モデルが採用された。
Pro ToolsのホストマシンとなるMac Proは、101・102が旧モデル(いわゆる"黒Mac Pro")、103~105は発売されたばかりの新型Mac Proとなっている。最新のCPUに加え動画再生にも対応できるようメモリを増設、ホストマシンがワークフローのボトルネックとなることはほぼないのではないだろうか。モニターコントローラーも101と同じ、GRACE DESIGN m908が採用されている。ここにはPro Toolsからのアウトだけでなく、Mac Pro本体のオーディオアウトと、収録のバックアップ機として導入されているZoom F6が繋がっている。Pro Tools起動前に音声を確認したり、収録中に万一Pro Toolsが落ちた場合のブースとの音声のやり取りに使用するためだ。
ミキシング専用の部屋である101とは異なり、レコーディング作業もある102~105にはアナログコンソールが導入されているが、Avid S3と同じデスクの上にならべる必要があるため、そのサウンドクオリティとコンパクトさからSSL X-Deskが採用されている。HAはRupert Neve Design Portico 511とAD Gear KZ-912、Portico 511と同じシャーシにはダイナミクスとしてSSL E Dynamics Moduleもマウントされている。
全会一致で可決!?全部屋に導入されたGenelecスピーカー
IMAGICA SDI Studioのスピーカー構成は101がGenelec S360+7380Aの7.1.4 Dolby Atmos、その他の部屋(102~105)は8351B+7370Aによる5.1 サラウンド仕様となっており、全部屋がGenelec製品で統一されている(101はステレオ用モニターとしてADAM AUDIO S2Vも設置)。前述の通り、設立当時はIMAGICA GROUP内でDolby Atmos対応のMAルームが存在していなかったため、それに応じるように吹き替え事業で需要のあるDolby Atmos対応ミキシングルームが作られた格好だ。その他の部屋も、近年の吹き替え作業での高い需要を鑑みて5.1サラウンド仕様となっている。特に配信系の映像コンテンツでは、現在はステレオよりも5.1サラウンドの方が主流と言ってよいようだ。
導入されたモデルについては、機材選定の段階で検討会を実施した際、ミキサーからの評価が非常に高かった2機種が選ばれている。ちなみに、この時の検討会では国内で試聴できるほとんどすべてのモニタースピーカーを一挙に聴き比べたという。S360については、「音が飛んでくる」「部屋のどこで聴いても音像が変わらない」「帯域のバランスがいい」など、参加したミキサーからの評判が非常に高く、ほぼ全会一致で導入が決定された。およそ3m x 35㎡という広い部屋をカバーするだけの、高い最大出力も魅力だったとのこと。当初は全部屋S360でもいいのではないか!?という程に評判がよかったようだが、101以外の部屋に設置するにはさすがにサイズが大きすぎるということもあり、8351Aが検討されたという経緯だ。その後8351Aについては、ちょうど導入時期にモデルチェンジがあり、8351Aから8351Bへとブラッシュアップされることが発表され、101を除く全部屋は8351Bで統一されることとなった。
S360
7380A
8351B
8351BはGenelecの中でも比較的新しい"One シリーズ"という同軸スピーカーのラインナップに属しているモデルだ。スピーカーを同軸モデルにすることに関してはSDIの担当者も非常に強く推していたそうで、「実際に音を出してみて、彼があれだけこだわった理由もわかるな、と思いました」(丸橋氏)というほど、位相感やサウンドのまとまりにはアドバンテージがあるという。同軸ではないS360との差異も違和感にはならず、却って差別化に繋がっているようで、それぞれのスタジオ環境に応じた的確なセレクトとなったようだ。
GLM+MTRX SPQカードによる音場補正
全部屋のモニタースピーカーにGenelec製品が導入されているため、音場補正はGLM(Genelec Loudspeaker Management)をメインとして行われている。同じく全部屋のPro Tools | MTRXにSPQオプションカードが換装されており、追加の補正を同時に施している。「基本的にはGLMで音作りをするという考え方で、SPQについてはそれプラスアルファ、必要な匙加減の部分を任せる、というような形です。」(池田氏)SPQカードは128のEQチャンネルと最大1,024のフィルターを使用した、非常に精密なチューニングを可能にしてくれる。IMAGICA SDI Studioの場合は、101が唯一スクリーン+プロジェクターという構成で、センタースピーカーがスクリーンの裏側に設置されている。そのため、スクリーン使用時はこのスピーカーだけ高域が僅かに減衰する。こうした部分の微調整を行うために、Pro Tools | MTRX のSPQカードによる追加の処理が施されているということだ。GLMとSPQのそれぞれの強みを活かし、クオリティと運用性の高さを両立していることが窺える。
高い操作性でイマーシブモニタリングにも対応するm908
今回、文字通り発売直後のタイミングで全部屋に導入されたモニターコントローラー GRACE DESIGN m908。そもそも、Dolby Atmosのスピーカー構成に対応できるモニターコントローラーの選択肢が、現状ではほとんど存在しないということも一因だが、現場のエンジニア諸氏が前モデルとなるm906の利便性を高く評価していたことが今回の採用に非常に大きく影響したようだ。
m908の必要十分な大きさのリモートコントローラーは、7.1.4構成時にもトップのスピーカーまで個別にソロ/ミュート用のボタンが存在するなど、作業に必要な操作がワンタッチで行えるように考えられたデザインとなっている。加えて、イン/アウトもコントローラー単体で自由に組めるためカスタマイズ性も高く、説明書を読まずに触ったとしてもセットアップができてしまうと評されるほどのユーザーインターフェイスを併せ持つ。また、m908はオプションカードの追加によって入力の構成を変更することが可能な柔軟性も魅力だ。アナログ信号を入力するためのADカードのほか、DigiLinkカード、Danteカードがあり、スタジオの機器構成に応じて最適な仕様を取ることができる。実際にこちらでもDolby Atmos対応の101とその他の部屋とでは異なるカード構成となっており、多様なスタジオのスタイルに合わせることができている。
これだけの規模のスタジオ新設、それも音関係の部屋のみで作るというのはIMAGICA GROUPの中でも過去にほぼ例がないことだったという。しかも、グローバルなコンテンツ制作への対応に先鞭をつけることが求められる一方で、足元となる国内からのニーズとも両立を計るというミッションがあったわけだから、その完成までの道程にあったクリアすべき課題は推し量るにも余りある。そうしてこれを実現するために2年、3年と行ってきた数々の試行錯誤は、いままさに実を結んだと言えるだろう。国内外のクライアントに最上のクオリティで応えることができる、IMAGICA SDI Studioという新たな拠点がいまスタートを切った。
当日取材に応じてくれた皆様。画像前列向かって右より、株式会社IMAGICA SDI Studio 代表取締役 野津 仁 氏、同社 オペレーション・マネージャー 遠山 正 氏、同社 ミキシング・エンジニア 丸橋 亮介 氏、同社 チーフ・プロデューサー 浦郷 洋 氏、後列向かって右より、株式会社フォトロン 鎌倉氏、ROCK ON PRO 岡田、株式会社ソナ 池田氏、同社 佐藤氏、ROCK ON PRO 沢口、株式会社アンブレラカンパニー 奥野氏
*ProceedMagazine2020号より転載
3D Audio
2020/08/03
AVID MTRX Studio ウェビナー アーカイブ映像公開中!
MTRX Studio 紹介動画公開中です!
現在、絶賛発売中のAVID MTRX Studio!!興味はあるんだけど、もう少し詳しく知りたい、という皆さまに、弊社がこれまで開催したセミナーの様子をご紹介します!
動画内では「サイズ感が知りたい!」「SPQについて詳しく知りたい!」「Dolby Atmosの制作には使えるの?」…などなど、皆様の疑問にお答えしています。
ルーティングの自由度が高いが故に最初は少しとっつきにくいかも知れませんが、慣れるとそれぞれの環境にあわせて非常に便利に使えるということが分かると思います。
その1 話題のMTRX Studio!買ったらどうする? 初期設定ガイド
ROCK ON PRO清水とRockoN Company松本によるトーク形式での初期設定ガイド。MTRX Studioを購入して最初のステップをご案内します。
入出力の数、コネクタの形状は? 2:10〜https://youtu.be/fhPIoSe3e3g?t=130
コントロールソフト、DADmanの使い方、初期設定は? 9:03〜 https://youtu.be/fhPIoSe3e3g?t=543
その2 教えてRED先生!!MTRX Studio 使いこなしガイド
ROCK ON PRO清水と赤尾によるMTRX Studio使いこなしガイド!途中視聴者の疑問に答えながら、MTRX Studioの様々な機能についてじっくり解説していきます。
RED先生によるDADman丁寧解説! 4:37〜https://youtu.be/loMRdctuw_A?t=277
ProToolsからはこう見える! 24:20〜https://youtu.be/loMRdctuw_A?t=1460
SPQについて知りたい方はここから! 1:01:45〜https://youtu.be/loMRdctuw_A?t=3703
その3 ミュージックエンジニアリングのためのAVID MTRX Studio 徹底講習
ROCK ON PRO プロダクトスペシャリスト 洋介とAVID オーディオプリセールスマネジャーのダニエル氏による徹底解説!基本機能から他ハードウェアとの接続性、そしてDolby Atmos制作まで、音楽エンジニアリングに特化したMTRX Studioの使い方をご紹介します!
マイクプリを増やすならDanteがおすすめ! 12:24〜 https://youtu.be/fNlLrs5bmrI?t=864
ミキシングに活用するには? 21:44〜 https://youtu.be/fNlLrs5bmrI?t=1304
Dolby Atmos制作にもぴったり! 26:53〜 https://youtu.be/fNlLrs5bmrI?t=2213
1Uというコンパクトサイズながら沢山の機能が搭載されているMTRX Studio。肝心の出音の良さに関しては、是非RockoNリファレンススタジオにてご自分の耳でご確認くださいませ! ※ご試聴を目的にご来店される際は事前に下記問い合わせフォームまたはお電話にてご連絡ください。
RockoN店頭デモのご予約、購入に関するご相談はこちらから!!
Post
2020/04/17
Mac mini RMU〜コンパクトな構成でDolby Atmos ミキシングを実現
ホームシアター向けDolby Atmos(Dolby Atmos Home)マスターファイルを作成することが出来るHT-RMUシステムをMac miniで構成。劇場映画のBlu-RayリリースやVOD向けのDolby Atmos制作には必須のDolby Atmos HT-RMUシステムは、Dolby社の認証が下りている特定の機器構成でなければ構築することが出来ない。従来、認証が下りていたのは専用にカスタマイズされたWindows機やMac Proといった大型のマシンのみであったが、ついにMac miniを使用した構成の検証が完了し、正式に認可が下りた。
Pro Toolsシステムとの音声信号のやりとりにDanteを使用する構成と、MADIを使用する構成から選択することが可能で、どちらも非常にコンパクトなシステムで、フルチャンネルのDolby Atmos レンダリング/マスタリングを実現可能となっており、サイズ的にも費用的にも従来よりかなりコンパクトになった。
HT-RMUの概要についてはこちらをご覧ください>>
◎主な特徴
Dolby Atmosのマスター・ファイルである「.atmos」ファイルの作成
.atmosファイルから、家庭向けコンテンツ用の各フォーマットに合わせた納品マスターの作成
「.atmos」「Dolby Atmos Print Master」「BWAV」を相互に変換
Dolby Atmos環境でのモニタリング
Dolby Atmosに対応するDAWとの連携
DAWとの接続はDanteまたはMADIから選択可能
◎対応する主なソリューション
Dolby Atmos に対応したBlu-ray作品のミキシング〜マスタリング
Dolby Atmos に対応したデジタル配信コンテンツのミキシング〜マスタリング
Dolby Atmos 映画作品のBlu-ray版制作のためのリミキシング〜リマスタリング
Dolby Atmos 映画作品のデジタル配信版制作のためのリミキシング〜リマスタリング
Dolby Atmos 映画作品のためのプリミキシング
構成例1:Dante
※図はクリックで拡大
RMUとPro Toolsシステムとの接続にDanteを使用する構成。拡張カードを換装したPro Tools | MTRXやFocusrite製品などの、Dante I/Fを持ったI/Oと組み合わせて使用することになる。この構成ではLTCの伝送にDanteを1回線使用してしまうため、扱えるオーディオが実質127chに制限されてしまうのが難点だが、シンプルなワイヤリング、ソフトウェア上でのシグナル制御など、Danteならではの利点も備えている。しかし、最大の魅力はなんと言ってもRMU自体が1U ラックサイズに納ってしまう点ではないだろうか。
構成例2:MADI
※図はクリックで拡大
こちらはMADI接続を使用する構成。歴史があり、安定した動作が期待できるMADIは多チャンネル伝送の分野では今でも高い信頼を得ている。この構成の場合、MADIまたはアナログの端子を使用してLTCを伝送するため、128chをフルにオーディオに割り当てることが出来るのも魅力だ。また、この構成の場合はMADI I/FをボックスタイプとPCIeカードから選択することが出来る。
Broadcast
2020/01/09
株式会社WOWOW様 / 現用の各3Dオーディオフォーマットに準拠した空間
2018年冬に完成したWOWOW様の試写室「オムニクロス」。当初よりDolby AtmosとAuro-3D®そして、DTS:Xの各フォーマットに完全対応した環境が構築されていたが、さらなる追加工事を行い22.2chサラウンド完全準拠のモニター環境を完成させた。当初からの構想にあった現在運用が行われている各3Dオーディオフォーマットに準拠したモニターシステムがついに完全な形として姿を現した。
最新のソリューションを携えた新たな空間
「新 4K8K 衛星放送」における4K放送開局に向け、同社辰巳放送センターのC館の建て替えが行われた。旧C館にあった試写室は、冒頭にも述べたように各種3D オーディオフォーマットへの対応、そして比較試聴が行える空間となり、4K完全対応の最新のソリューションを携えたまったく新しいものへと変革を遂げている。映画向けのフォーマットとして成長しているDolby AtmosとAuro-3D®の両方に対応した設備は、ハリウッドなどの映画制作向けダビングステージで見ることはできるが、ここではさらにDTS:Xそして22.2chの対応をしている設備へとリニューアルされている。
水平角度、仰角それぞれのスピーカ推奨位置に完全に準拠したモニター環境を備えたこの部屋は、世界でも非常に貴重な存在である。写真を見ていただければ分かる通り、天井のスピーカーに関しては移動させることが困難なため、それぞれのスピーカー推奨位置に合わせて固定されている。たとえば、Auro-3D® / 22.2chサラウンド用は、スイートスポットからの仰角30°、Dolby Atmos用は仰角45°に設置といった具合。水平方向に関してもしっかりと角度を測定し、理想的な位置へ設置が行われている。正三角形を理想とするステレオから、ITU-R BS.775-1準拠の5.1chサラウンド、それを拡張したDolby Atmos / Auro-3D®それぞれのスピーカー推奨位置にしっかりと準拠するように考えられたスピーカーの配置だ。最終的に設置されたスピーカは、サブウーファーも合わせるとなんと33本にもなる。水平位置には11本、天井に17本、ボトムにあたる床レベルに3本、サブウーファーは2本という配置となる。
そして、この部屋で制作作業も行えるようにAvid S6を中心とした音声のプロダクションシステムが導入されている。Dolby Atmos Renderer、Auro-3D® Authoring Tools、AURO-MATIC PRO、DTS:X Creater Suite、Flux Spat Revolutionをはじめとする現時点で最新のツールがインストールされているのもその特徴のひとつである。それらを駆使しての研究・制作の場として、また最高の環境での試写・視聴の場としても、様々な用途に対応できるように工夫が凝らされた。プロダクションレベルでの仕上がりの差異を確認できるというのは、作り手として制作ノウハウを獲得する上での重要なポイントだ。仕上がりの確認はもちろんではあるが、制作過程においてのワークフローも併せて学ぶことができる環境でもある。
ベストを見つける最高の比較環境
試写室「オムニクロス」・正面に設置されたスピーカー
それでは、なぜこのような環境を構築する必要があったのだろうか。現在メジャーなフォーマットであるDolby AtmosとAuro-3D®。それぞれに特徴があり、それぞれを相互に変換したらどのように聞こえるのか?コンテンツの種類によってベストな3Dオーディオフォーマットは?単純に比較をするといっても、できるだけイコールな環境で比較をしなければならない。それらを総合的に実現するのが、この試写室ということになる。ハリウッドのダビングステージはあくまでも映画向けの制作環境であり、ホーム・オーディオ向けの環境とはやはり差異がある。サラウンドが、ウォール・サラウンドなのか、ディスクリート・サラウンドなのかという根本的な違いも大きい。ホーム・オーディオ向けの環境として、フルディスクリートのスピーカーシステムで、ここまでの設備を備えた環境は、世界的に見ても貴重な存在である。
また、有料放送事業者にとってベストクオリティのエンターテインメント・メディアを作るということは非常に重要視されている。WOWOWでは「新鮮な驚きと感動を提供し続ける」ことを命題に掲げており、これを技術という側面から見れば「最新のソリューションに挑戦し、その中からベストを見つける」ということが必須になるわけだ。Audioの技術として何がベストなのか?ひとつのものを見るだけではなく、複数の視点からベストなものを探る、そのためには最高の環境で比較ができなければならない。さらには互換性の担保が重要で、Atmosのスピーカ推奨位置で作ったコンテンツが、Auro-3D®のスピーカ推奨位置で聴いたときに印象が大きく異なることは避けなければならない。同一の空間で比較を行える、さらには切り替えながら制作するということは、比較試聴してベストな方法を検討したり、どのフォーマットで聴いても制作意図が伝わる互換性を検討したりとするために重要なポイントである。つまり、この考えを実現するために、この試写室「オムニクロス」は非常に重要な設備となる。
試写室「オムニクロス」 左上方に設置されたスピーカー
その繊細な違いを、しっかりと確認するためにMaster ClockにはAntelope Audio Trinity、DAコンバーターにはAVID MTRX、SpeakerはMusik Electronic Gaithin(LCRはRL901K、それ以外はRL940、BotomとBCはRL906)と、高いクオリティーを持った製品がチョイスされている。192kHz、96kHzといったハイサンプリングレートにも対応し、各種3Dオーディオフォーマットを再生するためにMacProは12-Coreの最高スペックのモデルが導入された。Dolby Atmos Rendererや、Auro-3D® Encorder/Decorder、DTS:X Encorderなどを動作させても余裕をあるスペックとなっている。さらにインスタントに各種3Dオーディオフォーマットの変換を行うためにFlux Spat Revolutionも導入されている。フル・オブジェクトでのミキシングを実現するこのアプリケーション。Dolby Atmos 7.1.4chの出力をインスタントにAuro-3D® 13.1のスピーカー推奨位置で鳴らすということも実現可能である。もちろんその逆や、他の様々なオーディオフォーマットに対しての出力もできる。さらには、オーディオフォーマットの簡易的な変換ということだけではなく、このソフトウェアを使ってのミキシングを行うことで、各オーディオフォーマットでの視聴も行えるように設計されている。
今回のシステム構築にあたり、一番頭を悩ませたのが各オーディオフォーマットに対してのモニターコントローラーセクションの切り替えだ。この部分に関しては、AVID MTRXのモニターコントロール機能を活用してシステム構築を行っている。オープン当初に作成したモニターセクションは、ソース、スピーカーセット、FoldDown3個のボタンの組み合わせでそれらの切り替えを実現していた。今回の更新にあたっては、さらに操作をシンプルにできないか?というリクエストをいただき、Pro Toolsからの出力を整えるという前提に合わせて、いちから再設計を行った。やはり試写室という環境から、技術者が立ち会わずに作品を視聴するというケースもあるとのこと。この複雑なシステムをいかにシンプルにして営業系のスタッフが試写を行えるか?電源のON/OFFやシステムの自動的な切り替えはヒビノアークス様が担当し、AMXを活用してタブレットから用途に合わせたセッティングをGUIを使ったボタンより呼び出せるカスタマイズがなされた。その結果、できるだけ音声の切り替えも手数を減らしたシンプルな操作で間違いのないオペレーションが行えるようになっている。
導入された24FaderのAVID S6
株式会社WOWOW 技術ICT局技術企画部 シニアエキスパート 入交 英雄 氏
4K60Pを稼働させるプロダクトを
AVID ProTools / Media Composer / NEXIS などが納まる映写室のラック
4K対応の試写室ということで、プロジェクターをはじめとする各機器は4K60P対応の製品がセレクトされている。Videoの再生装置としては、AVID Media Composerが導入されPro ToolsのシステムとはVideo Satelliteで接続が行われている。4K60Pの映像出力のため、AVID DNxIQが設置されプロジェクターとはHDMIにより接続が行われている。4K60Pの広帯域なデータ転送速度を必要とするデータストレージにはAVID NEXIS PROが選ばれている。帯域を確保するために、Pro Tools、Media Composerともに10GbEで接続され、400MB/sの速度が担保されている。これにより、非圧縮以外のほとんどの4K60Pのファイルコーデックへの対応を可能としている。
すべてAVIDのシステムを選択することで、安定した運用を目指しているのはもちろんだが、AVID NEXISの持つ帯域保証の機能もこのようなハイエンドの環境を支える助けとなっている。この帯域保証とは、クライアントに対して設定した帯域を保証するという機能。一般的なサーバーであれば、負荷が大きくなった際にはイーサネットのルールに従いベストエフォートでの帯域となるのが普通であるが、AVID NEXISは専用のクライアント・アプリケーションと通信を行わせることでその広帯域を保証するソリューションとなっている。
このMedia ComposerのインストールされたPCはFlux Spat Revolutionを使った作業時には、Flux Spat Revolutionの専用PCとしても動作できるようにシステムアップが行われている。Pro Toolsの接続されたMTRXから出力された2系統のMADI信号をRME MADIFace XTが受け取り、Flux Spat Revolutionが処理をして、再度MADIを経由してMTRXへと信号が戻り、そのモニターコントロールセクションによりコントロールが行われる。スピーカー数も多く、処理負荷も高くなることが予測されるFlux Spat Revolutionは、別PCでの信号処理を前提とした運用が可能なシステムとなる。もうひとつ、こちらのPCへはMAGIX SEQUOIAもインストールされている。ドイツ生まれのクラシック制作・録音ツールとして評価を受けるこちらのソフトウェア、ハイサンプルレート、各種3Dオーディオフォーマットにも対応しておりこちらもこだわりのひとつと言えるだろう。
各3Dオーディオフォーマット対応の核心、モニターセクション設計
それでは、このシステムを設計する上で核心となる、モニターセクションの設計に関して少し解説を行いたい。文字だけではどうしても伝え切れないので、各図版を御覧いただきながら読み進めていただきたいところだ。まずは、Pro Toolsからの出力を整理するところから話を始めよう。これは今回の更新までに入交氏がトライしてきた様々な制作のノウハウの結晶とも言えるものである。各3Dオーディオフォーマットの共通部分を抽出し、統一されたアウトプットフォーマットとして並べる。言葉ではたったの一言であるが、実際に制作を行ってきたからこその、実に理論整然としたチャンネルの並びである。
入力と対になるのが33本のスピーカーへの出力。さきほどのPro ToolsからMTRXへInputされたシグナルは、各オーディオフォーマットに合わせてルーティングが組まれ、MTRX出力から物理スピーカーへと接続される。こちらを行うためには、AVID MTRXにプリセットされているスピーカーセットでは対応することができず、Custom Groupと呼ばれるユーザー任意のスピーカーセットを使ってそのアサインを行った。
こちらの表でRoleとなっている列がCustom Groupである。Custom GroupはAVID MTRXの内部バスとして捉えていただければ理解が早いのではないだろうか。今回のセットアップでは、物理スピーカーアウトプットとCustom Groupのバスを1対1の関係として、固定をすることで設定をシンプルにすることに成功した。アウトプットを固定するのか?インプットを固定するのか?ここはどちらが良いのか両方のセットアップを作成してみたのだが、このあとの話に出るFoldDownの活用を考えると、アウトプットを固定するという方法を取らなければ設計が行えないということが分かり、このような設計となっている。
MTRXのモニターセクションは、インプットソースを選択する際に物理入力とCustom GroupのRoleの組み合わせを設定することができる。これにより、Custom Groupへ流れ込むチャンネルを同時に切り替えるが可能となる。この機能を利用して入力された信号を任意の出力へとルーティングの変更を行っているわけだ。
一般的にはダウンミックスを視聴するために活用されるFoldDownだが、AVID MTRXのこの機能はアップミックスを行うことも可能だ。それをフルに活用し、スイートスポットを広げるためにデフューズ接続を多用したPreviewモードを構築している。特にDolby Atmos時にスクリーン上下のスピーカーを均等に鳴らすことで、スクリーンバックのような効果を出すことに成功している。それ以外にも、Auro-3D®のプレビューモードでは頭上のVOGチャンネルをDolby Atmos配置の上空4本で均等に鳴らすことで、頭上からのサウンドのフォローエリアを広げている。このような自由なシグナルマトリクスを構成できるということは、AVID MTRXのモニターセクションの持つ美点。ほかにプロセッサーを用意せずにここまでのことが行えるのはやはり驚異的と言えるだろう。
このように、スピーカーを増やすことでさらに多様なオーディオフォーマットの確認ができるようにするとともに、操作性に関してはさらにシンプルにするという一見して相反する目的が達成された。追加更新前の状況でも世界的に見て稀有な視聴環境を有していたこの試写室が、さらに機能を向上させて当初の構想を完全な形として完成を見ている。ここでの成果は、WOWOWのコンテンツに間違いなくフィードバックされていくことであろう。さらに、昨今ICTへの取り組みも積極的な同社。様々な形、コンテンツで我々に「新鮮な驚きと感動」を届けてくれることであろう。
(中左)株式会社WOWOW 技術ICT局技術企画部 シニアエキスパート 入交 英雄 氏 / (中右)株式会社WOWOW 技術ICT局制作技術部 エンジニア 栗原 里実 氏
(右端)ROCK ON PRO 岡田 詞朗 / (左端)ROCK ON PRO 前田 洋介
*ProceedMagazine2019-2020号より転載
Post
2019/12/26
株式会社角川大映スタジオ様 / Dolby Atmos導入、いままでのジャンルを越えた制作へ
1933年に開所した日本映画多摩川撮影所から始まり、80年以上の歴史をもつ角川大映スタジオ。そのサウンドを担っているポスプロ棟の中にはDubbing Stage、MA/ADR、Foley、サウンド編集室というスペースが存在している。今回の改修ではMA/ADRのDolby Atmos化、サウンド編集室のサウンドクオリティの向上を図る改修工事のお手伝いをさせていただいた。製品版の導入としては国内初であるDolby Atmos Processer HT-RMU/J(MAC)や、Pro Tools | MTRXの機能を最大限に活かしたシステムアップなど機材面でも注目すべき改修工事となった。
映画、ドラマ、DVD、OTT作品など幅広い作業に対応したスタジオ
今回の改修のスタートだが、実はサウンド編集室の増設とサウンドクオリティ向上のための内装工事というものだった。当初はサウンド編集室をDolby Atmos対応の仕込みができるよう7.1.4chにスピーカーを増設しようというプランがあった。しかし、それだけではその後のマスタリングの工程が社内で行うことができずに、他のスタジオでの作業となってしまう。そして、サウンド編集室の天井高が十分ではないこともあり、理想に近い音環境の構築が困難であるということもあった。それならば、マスタリングまでできる環境としてMA/ADRを改修してしまうのはどうだろうか、と一気に話が進んだということだ。逆にサウンド編集室のDolby Atmos対応に関しては見送られ、MA/ADRで仕込みからマスタリングまでを行うというワークフローとなった。このような経緯でスタートした今回の導入計画その全貌をご紹介していきたい。
メインコンソールとなるAvid S6とその下部に納められたアウトボード類
今回の導入の話の前に、こちらのMA/ADRのスタジオがどのようなスタジオなのかというところを少しご説明させていただきたい。こちらのスタジオは映画、ドラマ、DVDミックス等やアフレコ、ナレーション収録からCMの歌録りなど幅広い作業に対応したスタジオとなっている。昨年メインコンソールをAvid D-ControlからAVID S6+MTRXの構成にアップデートした。Pro ToolsはMain、SE、EXと呼ばれる3台が用意され、映像出力用にWindows仕様のMediaComposerが1台用意されている。サラウンドスピーカーはGENELECで構築、LCRは8250A、サラウンドは8240Aとなっている。DME24とGLMネットワークによりキャリブレーションされ、AVID S6の導入と同じタイミングで5.1chから7.1chへと更新が行われた。今回の改修ではさらにスピーカーをDolby Atmos準拠の7.1.4chへ増設し、Dolby Atmos Processer HT-RMU/J(MAC)を導入。さらにはMTRXオプションカードを増設することによって、シンプルかつ円滑にAtmos制作ができる環境へとアップデートされた。
国内初導入となるDolby Atmos Processer HT-RMU/J(MAC)
今回行われた改修の大きなトピックとなるのが、国内としては初めての導入となるDolby Atmos Processer HT-RMU/J(MAC)の存在だろう。Dolby Atmos Processer HT-RMU/J(MAC)とは「Dolby Atmos Home」制作、マスタリングのためのターンキー・システムである。HT-RMUとは"HomeTheater-Rendering and Mastering Unit"の略で、Dolby Atmos Homeのマスタリングを行うマシンということである。2017年に取り扱いを始めた当初はWindows版しかなかったが、現在ではMac OSでのシステムアップも可能となっている。さらにSoftware Version 3.2からMac miniでの構築が可能となり、導入のしやすさは格段に上がった。コストはMac miniにすることにより抑えられ、Mac mini版のHT-RMUは税別100万円という価格になっている。Windows版、MacPro版は税別200万円であったので、半分のコストで導入することができるようになったわけだ。
HT-RMU/J(MAC)の場合はDanteでDAWと音のやり取りを行う。今回のケースではMTRXの”128Channel IP Audio Dante Card”と接続するだけでProToolsとの信号のやりとりはOKというシンプルな接続となっている。HT-RMU/J(MAC)のハードウェア構成としては、Mac Pro or Mac mini、 Sonnet /xMac Pro Server(III-D、III-Rでも可、Mac miniの場合はxMac mini Server)、Focusrite / RedNet PCIeR、Audinate / ADP-DAI-AU-2X0(タイムコード信号をDanteに変換しRMUに送る役割)、外部ストレージとなる。今回導入となった構成としてはMacPro、Echo Express III-Rという組み合わせとなった。3式のProTools のそれぞれがMac Proとなっており横並びで3台ラッキングされているのだが、その横に1台分の空きがあり、今回導入のHT-RMUのMacをそこへラッキングするためxMac Pro ServerではなくIII-Rの方が都合がよかったというわけだ。
HT-RMUのMacにインストールされたDolby Atmos Rendererアプリケーションにてレンダリング、マスタリングを行うのだが、同一ネットワーク内の別のMacからもそのRendererをコントロールできるRenderer Remoteというアプリケーションが用意されている。今回はHT-RMU含む4台のMacを新しくネットワーク構築している。3台あるProTools のMacすべてにRenderer Remoteがインストールされ、どのMacからもRendererをコントロールできる。また、オブジェクトのメタデータについても3台すべてのPro Toolsから送ることができるようになっている。
DigiLink I/Oカード、Danteカードの増設によりシンプルなシステムを可能にしたMTRX
もう一点今回の改修で大きな鍵をにぎっているのはPro Tools | MTRXだ。新規に導入いただいたオプションカードは”128 Channel IP Audio Dante Card”1枚、 "DigiLink I/O Card"3枚の合計4枚となっている。”128 Channel IP Audio Dante Card”は今回のRMU導入の大きな手助けをしてくれた。128chの送受信を要求するHT-RMUとのやりとりがこのカードを入れるだけで済んでしまう。多チャンネルを扱う際にシンプルに多くのチャンネル数をハンドリングできるAoIP / Danteはかなり利便性に富む。
中央に見える4台並んだMacProの左3台がPro Toolsシステム、一番右のマシンとその上のシャーシの組み合わせにDolby Atmos Rendererをインストール。右ラックの最上段にはAvid MTRXの姿が確認できる。
また"DigiLink I/O Card"を3枚導入することにより、3つあるProTools間での音のやりとりがとてもシンプルでなおかつ多chとなった。導入前はHD I/O とMTRXがAESで信号のやりとりをしていたが、DigiLink I/O Cardの導入により各ProToolsが直接MTRXと接続される形となる。これまで、16chのやりとりであったものが、Main 160ch、SE 64ch、EX 32chと多チャンネルのやりとりができるようになった。SE、EXからMainにダビングするのはもちろんだが、HT-RMUからのRerenderer OUTを3つのProToolsどれでも録音できるようになっている。シグナルルーティングの組み替えはDADmanから操作でき、作業に合わせたプリセットを読み込むことで瞬時の切り替えも可能。このあたりのシグナルルーティングの柔軟性はMTRXならではといったところだろう。
今回の改修によりDanteカード1枚、DigiLinkカード3枚が追加され、ADカード1枚、DAカード2枚、AESカード1枚、と8スロットすべてを使用する形になっている。MTRXを核としたスタジオセットアップは、最近ではデフォルトになりつつあるが今回の構成はとても参考になる部分があるのではないだろうか。
サウンドクオリティ向上を図ったサウンド編集室
今回3部屋に増設となったサウンド編集室、ラックにはYAMAHA MMP1が格納される。後方に備えられたスピーカーの写真は7.1ch対応となっているサウンド編集室1だ。
サウンド編集室の更新も併せてご紹介したい。まず一番大きなポイントは2部屋だったものを3部屋に増設したということだ。もともとの2部屋は防音パネルを貼っていただけの部屋だったため外からの騒音が気になったとのこと。今回の工事では空調を天井隠蔽型に変更し、マシンスペースを分け二重扉を設置した。これにより気になっていた外部からの騒音もシャットアウトされた。また機材についても見直され、もともとはYAMAHA / DM1000が使用されていたが代わりにYAMAHA / MMP1が導入された。3部屋とも機材が統一され使用感に変化がないよう配慮されている。Pro Tools HDXのシステム(I/O はHD I/O 8x8x8)にモニターコントローラ兼モニタープロセッサーとしてYAMAHA / MMP1、スピーカーはGENELECという構成だ。ちなみに、YAMAHA / MMP1はiPadの専用アプリケーションにてコントロールを行なっている。サウンド編集室1は7.1chに対応し、2と3は5.1chなのだが7.1chに後から増設できるよう通線等はされ、将来における拡張性を確保している。
HT-RMUの導入から取材時点ではまだ1ヶ月も経っていないのだが、Atmos制作環境があることによっていままでになかったジャンルの仕事が増えたとのお話を伺えた。これから導入が進むことが予測されるDolby Atmosの制作環境だが、それをいち早く導入したことによるメリットはとても大きいようだ。今後は幅をさらに広げて、Atmos環境を活かしたさまざまな作品を手がけていきたいという。また、今回の導入で感じたことはHT-RMUの導入が身近になってきたということだ。実際、今回の改修では当初サウンド編集室の増設というお話だったが、最終的にはMA/ADRのAtmos化を実現、追加機材の少なさが鍵となったと言える。Dolby Atmos制作環境のご相談をいただく機会は格段に多くなっているが、リニューアルした角川大映スタジオのMA/ADRは、今後のDolby Atmos制作スタジオのケーススタディとして参考にすべき好例となるのではないだろうか。
(左)株式会社 角川大映スタジオ 営業部 ポストプロダクション技術課 課長 竹田 直樹 氏、(右)株式会社 角川大映スタジオ 営業部 ポストプロダクション技術課 サウンドエンジニア 小西 真之 氏
*ProceedMagazine2019-2020号より転載
Media
2019/02/07
Artware hub KAKEHASHI MEMORIAL 様 / レジェンドの描いた夢が実現する、全方位型36.8chイマーシブステージ
早稲田大学を始め教育機関が集中する東京西早稲田、ここにArtware hubと名付けられた新しいサウンド、音楽の拠点となる施設が誕生した。この施設は、Roland株式会社の創業者であり、グラミー賞テクニカルアワード受賞者、ハリウッドロックウォークの殿堂入りも果たしている故 梯郁太郎氏(公益財団法人 かけはし芸術文化振興財団 名誉顧問)の生涯の夢の一つを現実のものとする「音楽の実験室、様々な音環境、音響を実践できる空間」というコンセプトのもと作られている。
この空間の名称であるArtware hubという名称は梯郁太郎氏の生んだ造語「Artware」がその根本にある。ハードウェア・ソフトウェアだけではなく、人間の感性に根ざしたアート感覚を持った映像、音響機器、そして電子楽器を指す「Artware」、それがつなぐ芸術家の輪、絆、共感を生み出す空間としての「hub」、これが掛け合わされているわけだ。そして、もう一つのキーワードである「共感」を生み出すために、多くの方が集える環境、そのパフォーマンスを共有できる環境として設計が行われた。まさにこの空間は、今までにない音響設備を備え、そのコンセプトに沿った設計によりシステムが構築されている。
1:すべて個別に駆動する36.8chのスピーカーシステム
まずは、その環境を実現するためにインストールされた36.8chというスピーカーシステムから見ていきたい。壁面に数多く設置されたスピーカーはTANNOY社のAMS-6DCが採用されている。これだけの多チャンネルシステムであると、スピーカーの構造は物理的に同軸構造であることが望ましい。Stereoであれば気にならないツイーターとウーファーの位相差の問題が、スピーカーの本数分の問題となりサウンドチューニングの妨げとなるからである。このスピーカーの選定には10種類以上の機種の聴き比べを行い、自然なサウンドが得られる製品がセレクトされている。音の飛び出し方、サウンドのキャラクターが単品として優れている製品もあったが、個性の強すぎない、あくまでもナチュラルなニュアンスを持った製品ということでセレクトは進められている。
これらのスピーカーを駆動するアンプはTANNOY社と同じグループ企業であるLab.Gruppen D10:4Lが9台採用された。合わせてサブウーファーには同社VSX 10BPを2本抱き合わせて4箇所に合計8本、こちらのアンプにはLab.Gruppen D20:4Lを2台採用。PA関係を仕事とされている方にはすでに当たり前になっているかもしれないが、SR用のスピーカーのほとんどが専用アンプとのマッチングを前提に設計されており、その組み合わせにより本来のサウンドを生み出すからである。このアンプは1Uのスペースで4chのモデルであるためこのような多チャンネルの個別駆動にはベストなセレクトとなっている。
前後の壁面のスピーカー。正面は「田」の字に9本配置されているのがわかる。
そして、皆さんの興味はこのスピーカー配置に集まるのではないだろうか?壁面にはセンターから30度間隔で12本のスピーカーが2レイヤー配置されている。一般に開放する施設ということで、入場者の邪魔にならない位置、具体的には2.5mの高さに下層のスピーカーは取り付けられている。上層は5mの位置となる。さらに写真ではわかりにくいが、天井に設置されたグリッド上のパイプに9本のスピーカーが取り付けられている。この9本は「田」の字の各交点に設置されているとイメージしていただきたい。さらに仮設として正面床面に直置きでのスピーカーも3本あり、正面の壁面に関しても「田」の字の各交点に9本の配置がなされている。
これらの合計36本のスピーカーはすべて個別に駆動するようなシステムとなっている。さらにサブウーファーを天井グリッド内に4箇所設置、設置位置は前後左右の十字に配置し、それぞれ個別駆動が可能となっている。つまり合計36本のスピーカーと8本のサブウーファーがすべて個別に駆動、全体のシステムとしては36.8chのスピーカーシステムである。
天井のスピーカー。空調ダクト等を避けて写真の位置に9本のスピーカーと8本のサブウーファーが設置された。
2:ロスなく長距離伝送するDanteを採用
スピーカー側より順番に機材を見ていきたいが、アンプの直前にはDante-AnalogのコンバーターとしてFocusrite REDNET A16Rが設置されている。これは1Fに設置されている調整室から3Fにあるアンプルームまでの伝送を、最高のクオリティーを保ったまま行うという目的。そして、これだけの数のスピーカーのマネージメントを行うために導入されたYAMAHA MMP-1をベストなコンディションで動作させるためにDanteが採用されている。1Fの調整室から送られた信号は、Danteにより長距離をロスなく伝送されてくる。それをDante-Analogのコンバーターとして最適なクオリティーを提供するFocusrite社の製品によりAnalogでアンプへと接続が行われているということになる。
このDanteの回線に組み込まれたYAMAHA MMP-1は最新のスピーカー・マネージメント・プロセッサーである。1台で32chのスピーカーマネージメントが行える優れた機器で、システムアップに応じて自在に入力信号を各スピーカーに振り分けたりといったことが可能となっているが、Artware hubの36.8chのスピーカーをプロセスするためには2台が必要となった。サブウーファーのチャンネルに関しては、FIRフィルターによるLPFが使えるというのは特筆に値する機能である。この36.8chのスピーカーの調整には1週間の時間を要した。個別のチャンネルのイコライザーによる周波数特性の調整、ディレイによる位相合わせ、音圧の調整、さすがに36.8chともなるとなかなか終わらない。それぞれ隣合うスピーカーとのファンタム音像に関しても聴感でのピーク・ギャップが無いか、サウンドキャラクターが変化しないか、といったチェックを行っている。この調整作業は株式会社SONAの中原氏に依頼を行い実施した。スタジオのようにリスニングポイントに対してガチガチに調整を行うのではなく、リスニングエリアを広めにとれるように調整は行われている。
Dante Networkの入り口にはFocusrite REDNET D64Rが2台用意され、調整室内の基本回線となるMADIからDanteへのコンバートが行われている。ここでMADIは64chあるので1台で済むのでは?と考えられるかもしれないが、Artware hubのシステムはすべて96kHzで動作するように設計されている。そのため、MADI回線は32chの取り扱いとなり、この部分には2台のREDNET D64Rが導入されることとなった。
3:ハイクオリティを誰もが扱える、スペースとしての命題解決
そして、Artware hubのシステムの中核となるAVID MTRX。Pro ToolsともAVID S6Lとも接続されていない「MADI Matrix Router」としてこの製品がインストールされている。このAVID MTRXには5枚のMADI option moduleがインストールされ13系統のMADI IN/OUTが用意されている。システムのシグナルルーティングを行うだけではなく、システムのボリュームコントロールもこのMTRXが行っている。36.8chものチャンネルのボリュームコントロールが行える機器はなかなか存在しない。しかも、最終の出力は96kHzということもあり2系統のMADIにまたがっている。専任のオペレーターがいる利用時は良いが、講演会やVideoの視聴といった簡易的な利用の場合、誰でも手軽に操作ができるハードウェアコントローラーが必須となる。そこでArtware hubのシステムではAVID MTRXに組み合わせてTAC SYSTEM VMC-102をスピーカーコントローラーとして採用している。
TAC SYSTEM VMC-102はそれ自体にMADIを入力し、モニターソースのセレクトを行い、AVID MTRX/NTP/DADもしくはDirectOut ANDIAMOをコントロールし出力制御を行うという製品。しかし、Artware hubではVMC-102にMADIは接続されていない、AVID MTRXコントロール用にEthernetだけが接続されている。通常でのVMC-102は、入力されたMADI信号をモニターソースとしてそれぞれ選択、選択したものがVMC-102内部のモニターバスを経由してMADIの特定のチャンネルから出力される、という仕様になっている。そして、その出力されたMADIが、接続されるMTRX/NTP/DADもしくはDirectOutの内部のパッチの制御とボリュームの制御を行い、スピーカーセレクトとボリューム調整の機能を提供している。
今回は、このパッチの制御とボリュームコントロールの機能だけを抽出したセットアップを行っている。通常であればVMC-102の出力バスをスピーカーアウトのソースとして設定するのだが、ダイレクトにAVID MTRXの物理インプットを選択している。この直接選択では、物理的な入力ポートをまたいだ設定は出来ないため2つのスピーカーアウトを連動する設定を行い、今回の96kHz/36.8chのシステムに対応している。そして、VMC-102のタッチパネルには、ソースセレクトが表示されているように見えるが、実はこのパネルはスピーカーセレクトである。説明がややこしくなってしまったが、このパネルを選択することにより、AVID MTRXの入力を選択しつつ、出力を選択=内部パッチの打ち換え、を行い、その出力のボリュームコントロールを行っているということになる。YAMAHA MMP-1も同じような機能はあるが、2台を連携させてワンアクションでの操作が行えないためVMC-102を使ったシステムアップとなった。
具体的にどのような設定が行われているかというと、マルチチャンネルスピーカーのディスクリート駆動用に40ch入力、40ch出力というモードが一つ。コンソールからのStereo Outを受けるモードが一つ。Video SwitcherからのStereo Outを受けるモード、そして、袖に用意された簡易ミキサーであるYAMAHA TF-Rackからの入力を受けるモード、この4パターンが用意されている。ちなみにVMC-102は6系統のスピーカーセットの設定が可能である。今後入出力のパターンが増えたとしても、36.8chで2パターン分を同時に使っているので、あと1つであればVMC-102のスピーカーセットは残っているため追加設定可能だ。
システム設計を行う立場として、やはり特注の機器を使わずにこのような特殊フォーマットのスピーカー制御が行えるということは特筆に値する機能であると言える。VMC-102はスピーカーセット一つに対して最大64chのアサインが可能だ。極端なことを言えば48kHzドメインで6系統すべてを同期させれば、384chまでのディスクリート環境の制御が可能ということになる。これがAVID MTRXもしくはNTP/DAD社製品との組み合わせにより200万円足らずで実現してしまうVMC-102。新しい魅力を発見といったところである。AVID MTRXには、Utility IN/OUTとしてDirectOut ANDIAMOが接続されている。この入出力はVideo Systemとのやり取り、パッチ盤といったところへの回線の送受信に活用されている。ここも内部での回線の入れ替えが可能なため、柔軟なシステムアップを行うのに一役買っている部分である。
4:36.8chシステムの中核、FLUX:: SPAT Revolution
そして、本システムのコアとなるFLUX:: SPAT Revolution。このソフトウェアの利用を前提としてこの36.8chのスピーカーシステムは構築されている。SPAT Revolutionは、空間に自由にスピーカーを配置したRoomと呼ばれる空間の中に入力信号を自由自在に配置し、ルームシュミレートを行うという製品。Artware hubのような、特定のサラウンドフォーマットに縛られないスピーカー配置の空間にとって、なくてはならないミキシングツールである。SPAT Revolutionは、単独のPCとしてこれを外部プロセッサーとして専有するシステム構成となっている。
入出力用にはRME HDSPe-MADI FXを採用した。これにより、64ch@96kHzの入出力を確保している。入力は64ch、それを36.8chのスピーカに振り分ける。SPAT Revolutionにはサブウーファーセンドが無いため、この調整は規定値としてYAMAHA MMP-1で行うか、AVID S6Lからのダイレクトセンドということになる。といっても36chのディスクリートチャンネルへのソースの配置、そして信号の振り分けを行ってくれるSPAT RevolutionはArtware hubにとっての心臓とも言えるプロセッサーだ。執筆時点ではベータバージョンではあるが、将来的にはS6Lからのコントロールも可能となる予定である。数多くのバスセンドを持ち、96kHz動作による音質、音楽制作を行っている制作者が慣れ親しんだプラグインの活用、AVID S6LのセレクトもSPAT Revolutionとともに強いシナジーを持ちArtware hubのシステムの中核を担っている。
FLUX:: SPAT Revolutionに関しての深いご紹介は、ROCK ON PRO Webサイトを参照していただきたい。非常に柔軟性に富んだソフトウェアであり、このような特殊なフォーマットも制約なくこなす優れた製品だ。Artware hubでは、既存のDolby AtmosやAUROといったフォーマットの再生も念頭においている。もちろん、完全な互換というわけにはいかないが、これだけの本数のスピーカーがあればかなり近い状態でのモニタリングも可能である。その場合にもSPAT Revolutionは、スピーカーへのシグナルアサインで活躍することとなる。現状では、既存のImmersive Surroundの再生環境は構築されてないが、これは次のステップとして検討課題に挙がっている事案である。
◎FLUX:: 関連記事
FLUX:: / ユーザーから受けた刺激が、 開発意欲をエクスパンドする
Immersive Audioのキー・プロダクト Flux:: / Spat Revolution 〜ROCK ON PRO REVIEW
5:可動式のS6Lでマルチチャンネルミックス
ミキシングコンソールとして導入されたAVID S6Lは、大規模なツアーなどで活躍するフラッグシップコンソールの一つ。コンパクトながら高機能なMixing Engineを備え、96kHzで192chのハンドリング、80chのAux Busを持つ大規模な構成。SPAT Revolutionでのミキシングを考えた際に、Aux Busの数=ソース数となるため非常に重要なポイント。音質とバス数という視点、そして何より前述のSPAT Revolutionをコンソール上からコントロール可能という連携により選択が行われている。そしてこれだけのマルチチャンネル環境である、調整室の中からでは全くミキシングが行えない。そこでS6Lはあえてラックケースに収められ、会場センターのスイートスポットまで移動してのミキシングが可能なように可動式としている。
S6Lには、録音、再生用としてAVID Pro Toolsが接続されている。これは、AVID S6Lの持つ優れた機能の一つであるVirtual Rehearsal機能を活用して行っている。S6Lに入力された信号は、自動的に頭わけでPro Toolsに収録が可能、同様にPro ToolsのPlaybackとInputの切替は、ボタン一つでチャンネル単位で行えるようになっている。マルチトラックで持ち込んだセッションをArtware hubの環境に合わせてミキシングを行ったり、ライブ演奏をSPATを利用してImmersive Soundにしたりとどのようなことも行えるシステムアップとしている。これらのシステムが今後どの様に活用されどのようなArtが生み出されていくのか?それこそが、まさにArtware hubとしての真骨頂である。
AVID S6L はこのように部屋の中央(スピーカー群のセンター位置)まで移動させることが可能。イマーシブミキシング時は音を確認しながら作業が行える。
Artware hubには、音響だけではなく、映像、照明に関しても最新の設備が導入されている。映像の収録は、リモート制御可能な4台の4Kカメラが用意され、個別に4Kでの収録が可能なシステムアップが行われた。4K対応機器を中心にシステムアップが行われ、将来への拡張性を担保したシステムとなっている。音響システムとは、同期の取れる様にLTC/MTCの接続も行われている。照明は、MIDIでの制御に対応し、PCでの事前仕込みの可能な最新の照明卓が導入された。LED照明を中心に少人数でのオペレートで十分な演出が行えるよう配慮されたシステムとなっている。
さまざまなArtistがこのシステムでどのようなサウンドを生み出すのか?実験的な施設でもあるが、観客を入れて多くの人々が同時に新しい音空間を共有できる環境であり、すべてにおいて新しい取り組みとなっている。Roland時代の梯郁太郎氏は早くも1991年にRSS=Roland Sound Spaceという3D Audio Processorを開発リリースしている。その次代を先取りした感性が、今このArtware hubで現実の環境として結実していると思うと感慨深いものがある。
本誌では、これからもArtware hubで生み出されるArtを積極的に取り上げていきたい。また、今回ご紹介したシステム以外にも照明映像関連などで最新の設備が導入されている、これらも順次ご紹介をしたい。最後にはなるがこの設備のコンセプトの中心となった、かけはし芸術文化振興財団専務理事で梯郁太郎氏のご子息である梯郁夫氏、そして同じく理事であるKim Studio伊藤圭一氏の情熱により、この空間、設備が完成したことをお伝えしまとめとしたい。
*ProceedMagazine2018-2019号より転載
Event
2019/01/23
Avid Creative Summit Osaka 2019 〜いま向かい合う、次世代ワークへのフェイズシフト。〜
いま向かい合う、次世代ワークへのフェイズシフト。
音響、映像、ネットワーク、さまざまなメディアを取り巻く環境が日進月歩で進化していくいま、その制作については常に一歩先の感覚と確かな情報が求められています。Avidの「いま」、そしてクリエイターの「未来」を明らかにする今回のAVID CREATIVE SUMMIT in Osakaでは、最新のゲームサウンドとストリーミング配信に対するアプローチ、身近な製品が多数登場し具体化されてきたイマーシブ制作、導入が進み新たなシステムのコアとして活躍するAvid MTRXの実際など、いまクリエイターが向かい合う次世代ワークの未来像を提起、そのフェイズシフトを描くための最新情報をお届けします。そのほかNAMM 2019での情報も最新最速でお届け、2019年の制作をリードするインフォメーションを満載したAVID CREATIVE SUMMIT in Osakaへ、ぜひお越しください!!
◎セミナーのご案内
【1st session】 14:00~14:45
ゲームクリエイターが紐解くマスタリングアプローチ
ゲームクリエイターが紐解くマスタリングアプローチ
〜最新作Devil May Cry 5におけるサウンドメイク、そしてストリーム配信向けのマスタリングアプローチ〜
ゲームサウンドを中心に様々な分野で活躍される株式会社カプコン 瀧本氏を講師に迎え、発売を控えた最新作 Devil May Cry 5のサウンドを先取り!! 実際にLAでレコーディングされた楽曲についてのレコーディングノウハウやゲーム向けクアッドミックス作成アプローチ、そしてストリーム配信向けのマスタリングアプローチを解説。新しい切り口でPro Toolsの活用術を解説いたします。今ここでしか知ることのできない情報が満載です!!
講師:
株式会社カプコン サウンドプロダクション室 シニアサウンドエンジニア
瀧本 和也氏
1992 年、東京のポスプロスタジオ業務に就き、放送、映画等のミキシングを経験後、1997 年にカプコンに入社。入社後はバイオシリーズ、モンスターハンターシリーズ等、カプコンのほぼ総てのタイトルに関わり、カットシーンのミキシング、楽曲のレコーディング、ミキシング等を担当。また、ゲーム音響制作現場のシグナルリファレンス策定や、現場環境の整備、ゲームの発音に関するミキシングの視点からのアイデアを制作者と議論し、クオリティアップの下支えを行っている。近年は、「Biohazard7」でゲーム全体のインタラクティブミックスを担当し、1月25日に発売されたばかりの「Biohazard RE:2」ではカットシーンのオーディオディレクションを手がけるなど、サウンドエンジニアという仕事の幅を広げて、より深くゲーム制作に関わっている。
時間:14:00~14:45
定員:50名
【2nd session】 15:00~15:45
Pro Tools のいまを知る、NAMM2019から最新情報ハンズオン!!
Pro Tools のいまを知る、NAMM2019から最新情報ハンズオン!!
〜最新最速!! NAMM2019リリース情報を大阪で体験!!〜
NAMM2019にて発表された新機能を大阪で体験!! 最新最速の情報をお届けいたします。2018年はPro Tools | Ultimateほか名称も新たにされバージョンネームも改訂、トラックプリセット/プレイリスト機能の強化、Plugsound Avid Editionの提供など、音楽制作やポストプロダクションでの様々なニーズを網羅し進化し続けるPro Tools。NAMM 2019ではいかなる情報がもたらされるのか、どの様な新機能が搭載されているのか、その全貌をAvid Technology ダニエル ラヴェル 氏より解説いただきます、ぜひ会場にてご確認ください。
講師:
Avid Technology
ダニエル ラヴェル 氏
時間:15:00~15:45
定員:50名
【3rd session】 16:00~17:00
Pro Toolsとプラグインで魅せる、イマーシブ・オーディオの世界
DSpatial / Reality
Flux:: / SPAT Revolution
Pro Toolsとプラグインで魅せる、イマーシブ・オーディオの世界
〜DSpatial Reality / Flux:: SPAT Revolution、Pro Toolsで織りなす現在進行形の立体音響表現〜
音響制作においてグローバルなトピックスとなっているイマーシブ・オーディオ。各ソフトウェアがプラグイン対応となり、その制作も身近な存在へとなっています。独自の物理モデリング技術による、イマーシブ・オーディオ制作をPro Tools上で容易に実現するDSpatial / RealityとIRCAMの音響と空間認識の研究成果と長年の経験をベースに開発されたFlux:: / SPAT Revolutionを通して、Pro Toolsで実現するイマーシブ・オーディオのいまを紐解いていきます。
ゲスト
株式会社アイネックス 制作技術部 制作技術課
セクションチーフ 和三 晃章 氏
解説:
株式会社フォーミュラ・オーディオ 小倉 孝司 氏
株式会社メディア・インテグレーション 山口 哲 氏
進行:
ROCK ON PRO Product Specialist 前田 洋介
時間:16:00~17:00
定員:50名
【4th session】 17:15~18:00
ワークフローが進化する!! Avid MTRXが実現した制作現場を知る
ワークフローが進化する!! Avid MTRXが実現した制作現場を知る
〜DanteネットワークからSPQカードの活用まで、拡大するAvid MTRXの最新事例〜
DAD時代から定評のある確かなサウンド、そしてDADmanによる1500マトリクスのルーティング、Danteネットワークの構築など、柔軟かつクオリティあるシステムアップを実現するために、新たな制作のコアとしてAvid MTRXの現場導入が進んでいます。弊社刊行のProceedMagazineでもご紹介している通り、36.8chのステージを擁するArtware hub様では約400ch@96kHzをハンドリングする中枢を担い、松竹映像センター様ではDual体制でのMTRXを導入してそのシステムを支えています。さらに最新のSPQ Speaker Processing CardではDolby Atmosなどの制作における適切な音場構築を可能にしMTRXの持つ可能性はますます拡大。ここではAvid MTRXで実現した最新のシステムアップを紐解いていきます。
講師:
ROCK ON PRO Product Specialist 前田 洋介
時間:17:15~18:00
定員:50名
【Meet the Future!! 懇親会】 18:15~19:15
充実のセミナーのあとは、その熱気のままにご来場のみなさまと懇親会で大いに語り合えればと考えております。関西地区の皆様のつながりを深める場として是非ともご参加ください!!事前登録不要でご自由にご参加いただけます!!
◎募集要項
日時
2019年2月15日(金) 13:30開場・14:00スタート
会場
梅田センタービル 31F ホワイトホール
〒530-0015 大阪府大阪市北区中崎西2-4-12
梅田センタービルHPはこちらから>>
会場MAP PDF
ucb_map_2018
定員: 各回50名様(先着お申し込み順)
◎1st Session 14:00~ 50名
◎2nd Session 15:00~ 50名
◎3nd Session 16:00~ 50名
◎4th Session 17:15~ 50名
参加費用:無料
◎ご注意事項
※複数セッションへのお申し込みも可能です、お申し込みフォームにて参加ご希望のセッションをご選択下さい。
※定員を超えた時点でのご応募の場合は立ち見でのご案内となる場合がございます。
※当日ご参加者様向けの駐車場のご用意はございません、公共交通機関でのご来場もしくは周辺のコインパーキングをご利用下さい。
主催:(株)メディア・インテグレーション ROCK ON PRO事業部
お問い合わせ先:ROCK ON PRO Umeda 06-6131-3078
Broadcast
2019/01/16
株式会社毎日放送 様 / 入念な検討で実現した2日間でのコンソール更新
大阪駅北側に位置する茶屋町に社屋を構える株式会社毎日放送。その社屋の4階にあるMAコンソールの更新工事が行われた。長年に渡り活躍をしてきたAMS NEVE MMC から、次の時代を睨んだAVID S6 + MTRXという最新の機材へと更新が行われている。
1:AVID S6 の構成をどう考えたか
なぜ、コンソールであるAMS NEVE MMCからコントローラーであるAVID S6へと舵を切ったのか?この点からレポートを始めるが、更新が行われた同社屋の7Fにあるもう一つのMAルームでAVID ICON D-Controlを使っていたということが一つの理由。すでにDAWとしてPro Toolsをメインに作業を行っているということで、AVID D-Controlの持つ専用コントローラーとしての完成度の高さはすでに実感済み。その作業効率の良さは十分に理解していた中で、もう一部屋の更新に際しては、Pro Toolsと親和性の高いAVID S6、もしくはS3という候補しか残らなかったということ。そのS3についてはもともとのコンソールが24フェーダーだったということもありスペック的に選択肢から外れ、必然的にAVID S6の構成をどうするかという一点に検討は集中することとなった。なかでも事前のデモンストレーションの段階から、AVID S6の武器であるVisual Feedbackの中心とも言えるDisplayモジュールに注目。Pro Toolsのトラック上を流れる波形データを表示できるという機能は、まさにAVID D-Controlから大きくブラッシュアップされている優れた点だと認識いただいた。まさに、設計者の意図とユーザーのニーズが噛み合った素晴らしいポイントと言える。
Displayモジュール導入、そしてフェーダー数はそれまでのAMS NEVE MMCと同等の24フェーダーということが決まり、次の懸案事項はノブの数。AVID D-Controlではフェーダー操作が中心で、あまりエンコーダーを触っての作業を行ってこなかったということもあり、ここは5-Knobという構成に決まった。この5-Knobに決まったもう一つの理由としては、5-knobの一番奥のエンコーダーはやはり座って操作することを考えると遠い、小柄な女性スタッフでも十分に全ての操作を座ったまま行えるべきだ、という判断もあったということだ。エルゴノミクス・デザインをキーワードのひとつとして設計されたコンパクトなAVID S6だが、すべてを手の届く範囲にと考えるとやはり5-Knobのほうに軍配が上がるということになる。
2:設置の当日まで悩んだレイアウト
モジュールのレイアウトに関しては、設置の当日まで担当の田中氏を悩ませることとなる。Producer Deskと呼ばれるPC Display / Keyboardを設置するスペース、そしてセンターセクションをどこに配置をするのか?ミキシングの際にはフェーダーがセンターに欲しいが、一番時間のかかる編集時にはPC Keyboardがセンターがいい。これを両立することは物理的に難しいため試行錯誤の上、写真に見られるようなモジュールのレイアウトとなっている。
工期が短いということで驚かれた方もいるかもしれないが、AMS NEVE MMCの撤去からシステムのセットアップまで含め、実際に2日間で工事を行っている。もちろん、Pro ToolsのIO関連などの更新は最小限ではあるが、スタジオの中心機器とも言えるコンソールの更新がこの時間内で行えたのは、AVID S6がコントローラーであるということに尽きる。既存のケーブル類を撤去した後に配線をする分量が非常に少なく済むため、このような工事も行えるということだ。そして、配線関係がシンプルになった部分を補うAVID MTRX とS6によるモニターコントロールセクション。複雑な制御を行っているが、AVID MTRX単体でモニターの切替を柔軟に行っている。ソフトウェア上の設定で完結出来るため、効率の良い更新工事が行えたことにも直結している。
3:MTRX のモニターセクションと高い解像度
もう一つの更新ポイントであるAVID MTRXの導入。この部分に関してはAVID S6との連携により、従来のコンソールのマスターセクションを置き換えることができるEuConによるコントロール機能をフル活用いただいている。柔軟な構築が可能なMTRXのモニターセクション。従来このMAルームで行われていた5.1chのサラウンドから、写真にも見えているDOLBY ATMOSに対応した作業など、未来を見据えた実験的な作業を行えるように準備が進められている。もちろん、放送波にDOLBY ATMOSが乗るということは近い将来では考えられないが、これからの放送局のあり方として配信をベースにしたコンテンツの販売などを考えれば、電波だけを考えるのではなく、新しい技術にニーズがあるのであれば積極的にチャレンジしたいということ。それに対して機器の更新なしに対応のできるMTRXはまさにベストチョイスであったということだ。
そして、MTRX にAD/DAを更新したことで音質が向上したのがはっきりと分かるという。取材時点ではブースの更新前ということでADに関しては試されていない状況ではあったが、DAに関してはこれまで使用してきたAVID HD I/Oに比べて明らかな音質向上を実感しているということだ。音質の傾向はクリアで、解像度の高いサウンド。7階のスタジオにあるHD I/OとRL901のほうがスピーカーの性能を考えても上位であることは間違いないのだが、DAでこれまで音質が向上するのは驚きだということだ。特に解像度の高さは誰にでもわかるレベルで向上をしているというコメントをいただいている。
これから、DOLBY ATMOS をはじめとしたイマーシブ・サウンドにも挑戦したいという田中氏。今後、このスタジオからどのような作品が生み出されていくのだろうか、放送局という場から生み出されるイマーシブ・サウンドにもぜひ注目をしていきたい。
株式会社 毎日放送 制作技術局 制作技術部
音声担当 田中 聖二 氏
*ProceedMagazine2018-2019号より転載
Tech
2018/12/25
avexR studioが創り出す、新たなコンテンツのカタチ 〜Dolby Atmosでライブ配信されたa-nationの熱狂〜
2017年12月、東京・南青山にエイベックス新社屋がオープンされた。その中に、常に時代の最先端を求めるエイベックスならではのMAスタジオ「avexR studio」がある。今回はDolby Atmos対応スタジオとして設計されたこのavexR studioと、8月に味の素スタジアムで行われた「a-nation 2018 Supported by dTV & dTVチャンネル」東京公演でのDolby Atmosライブ配信という取り組みをご紹介したい。お話を伺ったのはエイベックス・エンタテインメント株式会社にて映像制作に関する統括、ならびにCEO直轄本部にて主にR&Dや新規開発案件を担当している岡田 康弘氏。スタジアムの熱気を空気感までそのままサラウンド配信するという、新たなコンテンツのあり方をどうマネジメントしたのか掘り起こしていきたい。
インハウスのXR制作ラボ
27年というキャリアの中で様々な業務に携わってきた岡田氏。その多岐にわたる「様々」ぶりを端的に感じさせるのが現在の肩書きで、なんと「映像プロデューサー兼デジタル・ディレクター兼MAエンジニア」と称しているそうだ。これもそのキャリアの成り立ちを伺うとよくわかる。1994年といえばようやくYahooが登場し、Windowsも95以前、Macで言えばPower Macintoshが発売された年だが、このITデジタルの黎明期に音楽ディレクターであるにもかかわらず、当時では珍しいデジタル担当(WEB制作)をしていたそうである。「当時の仲間からは「ハッカー岡田」というありがたいあだ名を頂戴しました(笑)。」とのことだが、この当時の世の中を思い返せばそれも頷ける。
また、初めてのマルチチャンネル(トラック)での業務は、THE STAR CLUBのアルバム「異邦人」(1994)だという。当時のMTRはもちろん、SONYのPCM3324や3348。当時の音楽スタジオの主流は3348に加え、SSL4000シリーズや9000シリーズのアナログコンソールという組み合わせだった。エンジニアのほかにもA&R、原盤制作、編曲、洋楽REPなどに携わるだけでなく、2011年には新たに立ち上がったデジタル部署においてネット配信やアプリ・WEB制作にも関わる。そして2015年からは従来の映像制作セクションと統合された現部署にて、デジタルと映像が融合されたコンテンツを制作、直近ではDolby Atmos シアターで本編上映前に流れるCMも制作している。と、ここまでくれば冒頭の多岐にわたる肩書きも納得となるのではないだろうか。その岡田氏が必要としたMAスタジオがavexR studioである、類を見ない特別なスペースになっていることは想像に難くない。
エイベックス・エンタテインメント株式会社 レーベル事業本部 企画開発グループ 映像制作ユニット マネージャー 岡田康弘 氏
まず、avexR studioの名称だが、これはコンセプトであるVR・AR等を総称したXRとエイベックスが掛け合わされたものだそうだ。dTVのVR専用アプリdTV VRでのコンテンツ配信が特に音楽分野での3DVRとして好評であったこと。またこれが「エイベックスの先進的な取り組みとして」社外にも評価されたほか、組立式の簡易VRゴーグルをCDとセットで販売した「スマプラVR」との関わりもあり、インハウスのXR制作ラボ的な施設を作ろうという流れが社内にできた。構想当初の段階では「5.1chは視聴ができるシステム」をイメージしており、マルチチャンネル編集は付加的要素だったそうだが、その後に「a-nation 2018 Supported by dTV & dTVチャンネル」でのDolby Atmos配信が決まり、スタジオ構想は7.2.4chのDolby Atmos対応スタジオへと拡大。そして完成したのがこのavexR studioである。
MTRXがハンドリングするモニターシステム
avexR studioではコンテンツにあわせて、Stereo、5.1chや7.1chなどのサラウンド、5.1.4chや7.1.4chなどのマルチチャンネルの編集が行われるが、それを可能にしているのがGenelec 8350Aと8340A、7360Aで構成される7.2.4chのスピーカーシステムと、モニターコントロールとなるPro|Mon 2である。メインシステムであるPro Toolsのインターフェイスとして導入されているAvid|MTRXでは、マトリクスルーティングを司るDADmanと、さらにモニターコントロールとして機能するPro|Monを活用しているが、このスタジオはレコーディングスタジオではなくMAがメイン。かつ各種のマルチチャンネルのミックスを行うというスタジオの特性から、プロファイルを読み込むことで瞬時にフォーマット変更やパッチ変更が行われる仕様のDADmanおよびPro|Monは様々なコンテンツを制作するにあたり非常に重要な役割を担っている。こちらののように卓がないスタジオのモニター・セクションとしてはこの機能は秀逸であるという事に尽きる。
今回、MTRXには8ch Mic HAを搭載したMic/Line Prostine ADカードと、Line入力のみのLine Prostine ADカードがそれぞれ1枚づつ搭載されており、Head Ampとしても利用可能なセッティングにしている。ほかにもMic HAはPro|MonでのTB マイク回線HAとしても活用されている。さらに、Neve 1073DPA、XLogic Alpha VHD PREとUniversal Audio 1176LN、TUBE-TECH CL1Bが手元に用意されており、アウトボードもパッチで自由に組み合わせることができる。
16ch分のDAカードは、Pro|Mon 2で設定したモニターアウトが各Genelecスピーカーへと接続されているほか、Boothへのモニター回線としても使用されている。Avid|MTRXを選択した理由の一つとして拡張性が高いことも挙げられており、近い将来はDanteモジュールを追加して、このMAスタジオに併設されている撮影スタジオと連携した多チャンネル収録の対応や、Dolby RMUへの対応も検討しているそうだ。
Nugen Audioの創意された活用
Pro Toolsとともに重宝されているのが、Nugen AudioのHalo Upmix & 3D Immersive Extensionだ。サラウンドミックスには欠かせないHalo Upmixに、さらに垂直方向への音の展開を可能にする3D Immersive Extensionを加えたプラグインは、Dolby Atmosのような立体音響では欠かせないツールとなっており、このスタジオでも欠かせないツールの一つとなっている。
実際の使用方法は、セッション上でステレオ音源をHalo Upmixにて展開し、各チャンネルのアウトプットをAUXトラックで受け、ミックス画面上で各チャンネルの微調整を行なっている。ここで注目したいのが、天井に設置された4つのスピーカーだ。Pro Toolsでは最大7.1.2chまでに対応しているが、垂直方向へは2chまでしか対応していない。そこで、Stsereo to 7.1.2 フォーマットで呼び出したHalo Upmixを画面上で5.1.4へ切り替え、そうすることでHalo Upmix上では5.1.4chフォーマットで展開されることになる。なお、Pro Toolsでは5.1.4chのフォーマットはないため、7.1.2chを単なる10chのバスとして扱い、スタジオで展開するセッションではそれぞれをわかりやすくするため、各チャンネルをモノラルAUXトラックで受けている。
GENELEC DSPで整えられた音場設計
スタジオを設計するにあたり、数多くのこだわりが散りばめられているが、スピーカー個々を含む音場設計に関してはさらに入念な設計がなされている。メインスピーカーとしてチョイスしたのはオレンジにカラーリングされたGENELECの8350Aシリーズ。そのオレンジ色にカラーリングされた8350Aをミッドレイヤーで7発設置。天井にはハイトスピーカーとして8340Aを配置、こちらは天井色に合わせてグレーがチョイスされた。極限までデッドな環境にルームチューニングされている点と、映画等のミックスを踏まえてサブウーファー7360AをLRで設置したこともこだわりの一つである。なお、これらGENELECスピーカーは全てGLM ソフトウェアでの補正、制御がかけられている。また、GENELECとは別にステレオスピーカーとしてFocal Solo6も別に用意されている。現在のミッドレイヤーは7chで構成されているが、さらにチャンネル数が増えたフォーマットも対応できるように設計されている。増設したスピーカーの位置を角度がわかるようにあえて天板で切換を設けて、スピーカーポジションがわかるようになっているため、今後チャンネル数が増えても対応できる仕組みだ。
このように工夫されたポイントは他にもある。スタジオ内で使用する電源ボックスは鋳物で作られているが、これは鋳物にすることで重量が増し、電源ボックスの振動を抑える狙いから。さらに電源ボックスまでのケーブルも床から浮かせるなど、細部にまで音質の追求がされている。そして、黒で統一されたナレーションブース。正面に設置されたテレビモニターは、Pro Toolsのビデオ出力が映る設計となっている。右手にはブース窓が設けられ、コントロールルームとのコンタクトがとれる設計だ。モニターシステムは2種類用意されており、カフシステムとキューボックスから選ぶことが可能。もちろん、モニターシステムへの音声アサインは前述の通り、DADmanのモニターコントロールを介して行われる。
また、MAスタジオとしては非常に珍しいクリアカムシステムも常設。こちらはナレーションブースとのコミュニケーション用途ではなく、MAスタジオの横に併設されている撮影スタジオとのコミュニケーションとして用意されている。現在ではトランクラインが数チャンネル用意されており、マイク数本ならMA室での収録も可能となっている。その他にもこのフロアにはオフライン編集室も併設されている。
MAブース
編集室
撮影スタジオ
Dolby Atmos Mixのライブ配信という初モノ
avexR studioの構想を拡げた今年のa-nationは大阪と東京で行われた4日間の公演がDolby Atmos Mixにてライブ配信された。「Dolbyのスタッフも、野外フェスでのDolby Atmos Mixは初めてと言っており、マイキングも含めて全てが初めての経験でした。」と岡田氏が語るように、今回のa-nationは「誰もやっていないなにか初モノを」というコンセプトのもと未だかつてない斬新な企画が行われていた。
「毎年、a-nationのキックオフ会議では「なにか誰もやってない初モノをやりたいね!」という話題が出ます。今では当たり前になった映像サブスクリプションサービスでの音楽ライブの生配信もdTVでのa-nation(2015年)が初めてでしたし、前にも記したdTV VR(2016年)も「ライブの生ステージの花道のポップアップからVRカメラが突然出てくる」なんて狂気の沙汰(笑)は、当社でなければ思いつきませんし実行しないと思います。」
岡田氏の言葉通りだが、実際、2015年から始まったリアルタイム配信は、翌年になるとVRへとフォーマットを展開し、さらに「何か誰もやっていない初モノ」となるDolby Atmos Mixのライブ配信へと発展していくひとつの導線だったように見える。
会場全体に配置されたアンビエントマイク
それでは、Dolby Atmos Mixのライブ配信がどのように行われたかを見ていきたい。まず、会場にはアリーナ席を取り囲むように16本のアンビエントマイクが設置された。アンビエントマイクのミックスにおいて、Haloとのバランスが非常に重要だったそうだ。今回の会場でのポイントを伺った。
「アンビエントマイクの配置で苦労したのは、高さと反射です。高さに関してはDolby Atmosの肝でもあるので、効果的なマイクの高さと指向を見つけるのが大変でした。反射に関してはスタジアム背面の反射音はリバーヴの深度の可変で調整しやすいのですが、マルチチャンネルは立体的であるため、音の反射の戻りが一定でなく位相のズレが激しいのが難点でした。具体的には上手右側には大きい電光掲示板があるけど、下手左側は普通の観客席だったりと。」
特にDelayの調整はバンドごとに調整が必要だったそうで、そういった意味でもHalo Upmixを展開した5.1.4のマルチアウトは活用されていた。会場のアンビエンスは遅れて届くため、Halo Upmixでプロセスされたマルチアウトチャンネルの方でDelayをかけているのだが、チャンネルによってはDelayを多めにかけたり、少なめにするなどの微調整が必要だった。そのような中でも、リハ中にアンビエントマイクのグループ2MixにHaloを挿して「自分の位相感とHaloが導き出す位相感」のギャップを感覚的に測ってみるため、Pro Toolsセッション上に視聴のためのFaderを用意して比較視聴したそうだ。
二重化されたライブミックスと収録システム、転送システム
今回はPro Toolsを中心とした収録システムが組まれた。ミックスを行なっていたMix用Pro Toolsは本線と予備回線の2回線用意され、それぞれが別の収録用Pro Toolsやマルチチャンネルレコーダーへ送られる仕組みだ。DJ Mixのようなインスト2ch Mix中心のバンドはそのまま2chを、バンドセットの場合は別に用意された収録車にて各パートがSTEM MixされてDolby Atmos Mix車へ、アンビエント等のアナログ回線はDolby Atmos Mix車内にてスプリッタで分岐されて本線と予備回線に分岐。後述するが、車載された3式のPro ToolsのインターフェイスにはすべてAvid|MTRXが採用された。コントロールはPro Toolsが稼働している各Macではなく、制御用のMacBook Proが用意され、3台ともが1台のDADmanからコントロールされていた。特に、本線Macと本線用収録Pro ToolsとはDante接続されており、DADmanの他に、Dante Controlの制御を行う必要がある。今回はライブ配信とマルチチャンネル収録があるため、どのMacでも制御は一切に行わない仕様だ。
Dolby Atmos Mix車、収録車
DADmanで3台のMTRXをコントロール
本線システム
予備システム
本線収録用システム
本線と予備回線はそれぞれSDI Enbedderへ送られる。SDI EnbedderはDolby Atmos Mix車とは別の場所で設営され、そちらでは問題なくEnbeddedされているかどうかを確認するブースが用意されていた。
ちなみに、今回のライブ配信で実際に配信された音声がDolby Atmos Mixとして試聴できた端末はNTTドコモの最新スマートフォンでGalaxy S9、Galaxy S9+、AQUOS R2、HUAWEI P20 Proの4機種となった。これらの4機種ではハードウェアに内蔵されたDolby AtmosデコーダーによりヘッドホンのみだがDolby Atmos Mixが視聴することができる。
リアルタイムミキサーとして選択されたPro ToolsとHalo Upmix
数あるDAWの中からPro Toolsが選ばれたのは、Pro Tools 12.8からDolby Atmosミキシングにネイティブ対応し、Dolby Atmos Pannerプラグインを使用しなくなったのが大きいそうだ。デフォルトで3D Panningができるようになり、3Dオブジェクトのルーティングやパンニングが追加プラグインなしで活用できるようになったり、Pro Tools Ultimate 2018.4以降では各種プラグインも含めてマルチチャンネルの対応幅が広がったことは、ミックスをするにあたり結果にたどり着くまでのプロセスが少なく済む。ライブミックスの場合は、電力やスペースの都合からコンパクトかつ高性能、そして信頼性が大事となるだけに、Pro Toolsのシステムは安心感が持てるからだと岡田氏は語る。
実際にPro Toolsセッションを覗かせてもらうと、16本のアンビエントマイクは、各チャンネルとも7.1.2のバスへアサインされ、実際のマイクに合わせて高さを出すため、Pro Toolsの3Dパンナーを使って高さ方向への配置がされていた。実際にアンビエンスだけで聞かせていただいたが、高さ方向への空気感は会場そのものが再現されている。そして、今回のミックスで核となるのがNugen Audio Halo Upmixである。
「a-nationのようなフェスの場合、出演するアーティストの編成によりバランスが都度変わります。また、各アーティストのリハーサル時間も短いことから、今回は収録車のマルチオーディオ録音チームよりいただいた各種ステムミックスをPro Toolsセッション上で2chにMixした上で、内部バス経由でHaloにて5.1.4ch化を行い、会場のアンビエントとの位相合わせも含め大変活躍しました。」
ひとつのセッション上で各パートのSTEMトラックをミックスし、バックトラックSTEMを内部バスでHalo Upmixへ送ることで、各パートの微調整も容易になる。今回のように、多種多様なアーティストが出演するとなると、楽器構成などが幅広くなりミックスバランスも非常に難しくなるが、アンビエンスのほかにも苦労したポイントはLFEの取り扱いだという。特に今回の試みがdTVチャンネル、NTT docomoの施策ということで、スマホでの視聴でなおかつヘッドフォンでの視聴に限定される。そのため、とりわけLFEの分量には苦労したそうだ。
また、アーティストの出演順によって、バンドセットの後にDJセットが来るときなどは、バランスが大きく異なる、ここもフェスならではのポイントとなった。リハーサルの際にも実際にオペレートされているところを拝見させていただいたが、バンドが変わるごとにセッションの開き直しなどは行わず、グループごとでHalo Upmixでのプリセットのリコールや、各チャンネルのバランス・広がり度合い・アンビエントのボリューム・各チャンネルのでDelay値をバンドごとに修正されていた。
長蛇の列を作ったavexR studioミックスの体験ブース
会場ではスタジアム横に用意されたCommunity Stageやフードブースが並ぶスペースの中央に、オフィシャルパートナーであるdTV・dTV chのブースが用意された。ここでは、一般の方もDolby Atmosでミックスされたコンテンツを視聴できるブースとなっており、今回のために用意されたアーティストのライブ映像のDolby Atmos Mixが無料体験!! とあって常に長蛇の列となった。こちらのミックスも前述のavexR studioにてミックスが行われている。縦方向への音の広がりが、通常のライブビデオとも違う空気感を感じられたのだが、実際にミックスするにあたりステレオにはないミックス方法を実施したとのこと。
手法としては、ステレオ音源をベースにNugen Audio Halo Upmixで5.1.4へと広げるのだが、ここでセンター成分にあえて歪みを出すそうだ。確かにソロでCenterチャンネルだけを聞いてみると歪んでいるのだが、そこへLRチャンネルを足すと歪みは目立たなくなりセンター成分は存在感が保たれる。さらに他のチャンネルもバランスを見てミックスすることで、ライブ感を損なわずに空間を定位させることが可能になるそうだ。通常の音楽ミックスでは決して用いることのない手法だが、ライブMixかつマルチチャンネルミックスだからこその手法である。
昨今の音楽視聴環境がスピーカーからヘッドフォン・イヤホンで、CDから携帯端末内のデータによる視聴へと変化してきている中で、このように身近なスマートフォンという端末でここまでハイクオリティなコンテンツが視聴できるようになることは今後の音楽業界に少なからずの変化をもたらすであろう。スマートフォンのチップがパソコンに迫る処理速度になっていることからも、今後はDolby Atmosだけではなくマルチチャンネルフォーマットがスマートフォン向けのエンジン(アプリ)をリリースするきっかけになるのではと想像される。
「ライブをマルチチャンネルでミックスして配信、またアラカルト販売するにはまだまだコストが掛かり、すぐに沢山のコンテンツが定期的に出てくるとは正直思いません。しかし、Nugen Audio Halo Upmixの様なプラグインが出てきた事により、過去のライブ映像作品の2MIX+アンビエントで迫力あるマルチオ—ディオが低コストで作れるとなると、旧作品の掘り起こしになるのではないでしょうか」と岡田氏は直近の状況を見ている。確かに現在では最新スマホの4機種のみでの視聴であるが、スマートフォン向けのエンジンがアプリに内蔵されれば、iPhoneなど既存機種への対応も期待される。
このa-nation 2018 大阪公演・東京公演の計4日間の模様のダイジェストのうち、東京公演の2日間がavexR studioにてDolby Atmosフォーマットで制作され、11月18日からdTVチャンネルにてオンデマンド配信されている。前述のDolby Atmos対応4機種のユーザーは新たなコンテンツのあり方をすぐに手元で体験できる羨望の環境とも言える。今後の展望として、「avex+XR=avexR studioなのでAR、MR、VRなどの立体映像とオブジェクトオーディオを多用したVRオーディオの両方が制作できる唯一のクリエイティヴ・ハウスとして邁進できれば。」と岡田氏は語る。かつてiTunesにて音楽配信が開始された当初、直ちに国内レーベルとして最多曲数を発表したのもエイベックスだった。「なにか誰もやっていない初モノをやりたい」という精神は今も昔も変わらず業界を牽引している証ではないだろうか。
左からROCK ON PRO 清水 修平、株式会社楽器音響 日下部 紀臣 氏、エイベックス・エンタテインメント株式会社 岡田 康弘 氏、ROCK ON PRO 赤尾 真由美、メディア・インテグレーション株式会社 山口 哲
*ProceedMagazine2018-2019号より転載
Media
2018/05/23
株式会社カプコン様 / Dynamic Mixing Room-[B] / [W]
日本を代表するゲーム会社カプコン。前号でもリニューアルしたDynamic Mixing Stageをご紹介したが、それに続いて新たにDynamic Mixing Room-[B]とDynamic Mixing Room-[W]が作られた。VR、イマーシブといった言葉が先行しているゲーム業界におけるオーディオのミキシングだが、それらのコンテンツを制作する現場はアプローチの手法からして大きな変革の中にある。ゲームではカットシーン(ユーザーが操作をせずに動画が再生され、ストーリを展開する部分)と呼ばれるMovieとして作られたパートが次々と減少し、昨年リリースの同社『バイオハザード7 レジデント イービル』では遂にカットシーンが全くないというところにまでたどり着いている。こういった背景もあり、しっかりとした音環境でDynamic Mixingを行える環境というものが切望されていた。その回答が前回ご紹介したDynamic Mixing Stageであり、今回のDynamic Mixing Roomとなる。
◎求められていたDynamic Mixing「Room」
昨年のDynamic Mixing Stageは各素材の最終確認、そして最後の仕上げという部分を重点的に担っているが、その途中の生成物であるオーディオデータが全てファイナルのミックス時点でオブジェクトに埋め込まれ、プログラムされていくわけではない。しかし、オーディオデータをプログラムに埋め込み、他のサウンドとの兼ね合いを確認しながら作業を行う必要が日に日に大きくなっているのが現状だ。カプコンでは各スタッフに専用のパーテーションで区切られたブースが与えられ、5.1chでの視聴環境が用意されている。ただし、あくまでも仮設の環境であり、スタジオと比べてしまえば音環境としてお世辞にも良いと言えるものではない。ほかにもPro Toolsが常設された防音室が用意され、そこへシステムを持ち込み確認作業が行えるようになっていたが、常設のシステムに対して持ち込みのシステムを繋ぎ込む必要があるため、それなりのエンジニアリング・スキルが要求される環境であった。この環境改善を図ったのが今回の目的の第一点となる。
もちろん、ここにはサウンドクオリティーへの要求も多分に含まれる。海外のゲーム会社を視察した際に、クリエイター各自が作業スペースとしてスタジオクラスの視聴環境で作業しているのを目の当たりにした。これが、世界中のユーザーに対してゲーム開発をおこなうカプコンとして、同じクオリティーを確保するための重要な要素と感じた。各クリエイターが、どれだけしっかりとした環境でサウンドクオリティーを確認することが出来るのか。これこそが、各サウンドパーツレベルのクオリティーの差となり、最終的な仕上がりに影響をしているのではないか、ということだ。これを改善するため、自席のシステムそのままにサウンドの確認を行うことのできるDynamic Mixing Roomへとつながっている。
さらにもう一つ、VRなど技術の発展により、3Dサラウンド環境での確認が必要なタイトルが増えてきたというのも新設の大きな要因。昨年、Xbox OneがDolby Atmosに対応したことなどもその一因となったそうだ。今回はスピーカーの増設だけでその対応を行うということではなく、やるのであればしっかりとした環境自体を構築する、という判断を後押しするポイントになったという。
そして、Dynamic Mixingにおいてサウンドを確認するためには、DAWからの出力を聴くのではなくゲーム開発機からの出力を聴く必要がある。ゲームエンジンが実際に動き、そこにオーディオデータがプログラムとして実装された状況下でどの様に聴こえるのか、プログラムのパラメーターは正しかったか?他のサウンドとのかぶりは?多方面から確認を行う必要があるからだ。そうなると、自分の作っているゲームの開発機を設置して、繋ぎ込んで音を聴くというかなりの労力を要する作業を強いられてしまう。
すでに開発中のデータ自体はネットワーク化されておりサーバー上から動くが、端末はそのスペックにあった環境でなければ正確に再現されない。今回のDynamic Mixing Roomはそういった労力を極力減らすために設計された部屋ということになる。そのコンセプトは利便性とスピード感。この二つに集約されるということだ。
◎部屋と一体になった音響設計
実はこの部屋にはDAWが存在しない、2つの鏡写しに作られた黒い部屋と白い部屋。その間の通路に置かれたラックに開発PCを設置して作業が行えるようになっている。接続された開発PCはHDMIマトリクススイッチャーを経由してそれぞれの部屋へと接続される。開発PCの音声出力はHDMIのため、部屋ではまずAV ampに接続されデコード、モニターコントローラーの役割として導入されたRME UFX+を経由してスピーカーを鳴らす。なぜRME UFX+がモニターコントローラーとして採用されているかは後ほど詳しく説明するとして、まずはサウンドに対してのこだわりから話を始めたい。
この環境を作るにあたりリファレンスとしたのはDynamic Mixing Stage。こちらと今回のDynamic Mixing Roomでサウンドの共通性を持たせ、迷いのない一貫した作業を実現したいというのが一つの大きなコンセプト。全てのスピーカーは音響設計を行なったSONAのカスタムメイドでバッフルマウントとなっている。サラウンド側、そして天井に至るまで全てのスピーカーがバッフルマウントという部屋と一体になった音響設計が行われている。このスピーカーは全てバイアンプ駆動され、そのマネージメントを行うプロセッサーはminiDSPが採用されている。miniDSPはFIRフィルターを搭載し、位相問題のないクリアなコントロールを実現している。しっかりとした音響設計がなされたこのDynamic Mixing RoomはDynamic Mixing Stageと高いサウンドの互換性を確保できたということだ。今後はDynamic Mixing Stageで行われているダイヤログの整音と並行してDynamic Mixing Roomで実装された状態での視聴を行う、といった作業も実現できる環境になっているということ。もちろん、同じクオリティーでサウンドを確認できているので、齟齬も少なく済む。まさに「スピード感」というコンセプトが実現されていると言える。
◎RME Total Mixで実現した柔軟なモニターセクション
それでは、次にRME UFX+の部分に移っていきたい。UFX+の持つTotal Mixを使ったモニター機能は非常に強力。複数のマルチチャンネルソースを自由にルーティングすることが出来る。これまで自席で仕込んだサウンドをしっかりした環境で聴こうと思うと、前述のように自席のPC自体を移動させて仮設する必要があった。この作業をなくすために、DiGiGridのネットワークが構築されている。それぞれのPCからの音声出力はDiGiGridのネットワークに流れ、それがDynamic Mixing RoomのUFX+へと接続。もちろんDiGiGridのままでは接続できないため、DiGiGrid MGO(DiGiGrid - Optical MADI Convertor)を介しMADIとして接続されている。
開発PCからのHDMIはAV ampでデコードしてアナログで接続され、各スタッフの自席PCからはDiGiGirdネットワークを介して接続、ということになる。これらの入力ソースはRME Total Mix上でモニターソースとしてアサインされ、ARC USBによりフィジカルにコントロールされる。このフィジカルコントローラーの存在も大きな決め手だったということだ。そもそも複数の7.1.4サラウンドを切り替えようと思うと具体的な製品がなかなか存在しない。フィジカルコントロールも必要となるとAVID S6 + MTRX、TAC System VMC-102 + MTRXといった大規模なシステムになってしまうのが実情。リリース予定の製品にまで目をやったとしてもGrace Design m908がかろうじて実現出来るかどうかというレベルとなる。その様な中でUFX+とARC USBの組合せは過不足のない機能をしっかりと提供することが出来ており、フィジカルなコントローラーを手に入れたことで使い勝手の高いシステムへと変貌している。実は、Total MixのモニターコントロールはRock oN渋谷店頭でスピーカー試聴の切替にも使用されている。こちらも試聴中に数多くの機器をスムーズに切り替える必要があるのだが、その柔軟性が遺憾なく発揮されている実例でもある。
◎利便性とスピード感を具現化
このDynamic Mixing Roomは3Fに位置しており、先行してDiGiGridのネットワークが構築されたコンポーザーの作業場は14Fとかなり距離が離れていたが、その距離も既存のネットワーク回線を活用することで簡単に連携が実現ができた。ここはネットワークが会社中に張り巡らされているゲーム会社ならではの導入障壁の低さかもしれないが、追加で回線を入れるとしてもネットワーク線の増設工事であれば、と考えてしまうところでもある。ちなみに自席PCはDynamic Mixing Roomから画面共有でリモートしている。画面共有サービスもブラッシュアップされておりレスポンスの良い作業が実現したこともこのシステム導入の後押しになったということだ。
今後は、コンポーザーだけではなくSEスタッフの自席も活用しようと検討しているということだ。全社で70名近いというサウンドスタッフすべてのPCがDiGiGrid Networkを介してつながる、まさに未来的な制作環境が実現していると言えるのではないだろうか。自席PCでサウンドを仕込みながら、持ち込んだ開発PCに実装し、その場で確認を行う。理想としていた制作環境に近づいたということだ。また、開発PCを複数置けるだけのスペースも確保したので、タイトルの開発終了まで設置したままにできる、ということも大きい。HDMI出力と操作画面用のDVI、そして操作用のUSB、これらの繋ぎ変えだけで済むということは、これまで行なっていたPCごと移動するスタイルからの大きな進化。利便性とスピード感。このコンセプトに特化した環境が構築されたと言えるのではないだろうか。
また、Dynamic Mixing Roomには常設のMouseもKeyboardも無い。自席と同じ様な作業環境を簡単に構築できるという考え方のもと、機材の持ち込みは自由にされているということだ。共有の設備にも関わらず、PCもなければMouseもKeyboradもない。少し前では考えられなかったような設備が完成した。言わば「何も置かない」というミニマルさが、ゲームの開発という環境に特化して利便性とスピード感を追求した結果。これは、ゲーム制作だけではなくシェア・ワークフローそのものを考える上で大きな転換点に来ているということを実感する。
すでにITでは数年前からSaaS(Software as a Service)という形態が進化を続けている。手元にあるPCはあくまでも端末として、実際の処理はクラウドサービスとして動作をしているシステム。映像の業界はすでにSaaS、クラウドといったイントラネットから飛び出したインターネット上でのサービスの活用が始まっている。今後は、サウンドの業界もこの様な進化を遂げていくのではないか、そのきっかけとなるのが今回のカプコン Dynamic Mixing Roomの実例なのではないかと感じている。
(手前)株式会社カプコン サウンドプロダクション室 室長 岸 智也 氏 / (奥左)同室 コンポーザー 堀 諭史 氏 / (奥右)同室 オーディオ・ディレクター 鉢迫 渉 氏
*ProceedMagazine2018Spring号より転載
Post
2017/11/14
株式会社Zaxx 様 / GZ-TOKYO ROPPONGI
「いまスタジオを新規で作るのであればDolby ATMOS対応は必ず行うべきだ」という強い意志で設計された株式会社Zaxx / GZ-TOKYO ROPPONGI AS 207をレポートする。同社を率いる舘 英広 氏は中京テレビ放送株式会社の音声技術出身。その現場で培った音に対するこだわり、そしてその鋭い感覚によってこのスタジオは計画された。
◎「これからのオーディオはこれしかない!!」
きっかけは、名古屋にDolby ATMOS対応の映画館が出来た際に、そこで作品を見た瞬間にまで遡るという。テレビ業界を歩んできた舘氏は国内でのサラウンド黎明期より、その技術に対しての造詣が深く、またいち早く自身でもその環境でのミキシングを行っていたというバックグラウンドを持つ。名古屋地区で一番最初にサラウンド環境のあるMAスタジオを持ったのが株式会社Zaxxであり、それをプランニングしたのが舘氏である。地場の放送局がまだ何処もサラウンドの環境を持っていない中でサラウンド対応のMAスタジオを作る。そのような先進性に富んだ感覚が今回のスタジオにも感じられる。
舘氏がDolby ATMOSの作品を映画館で見た際に感じたのは「これからのオーディオはこれしかない!!」というほどの強いインパクトであったという。これまでの平面サラウンドの枠を飛び出した上空からのサウンド、そしてオブジェクトにより劇場中を自由に飛び回るサウンド。次にスタジオを作るのであれば、Dolby ATMOS対応しかないと感じたということ。そしてその思いを実際に形にしたのが、今回のGZ-TOKYO ROPPONGI AS 207だ。仕事があるのか?無いのか?という消極的な選択ではなく、良いものであるのならばそれを作れる環境を用意しよう。そうすればそこから生まれる仕事は絶対にある。仕事が無いのであれば、仕事を作ればいい。それも経営者としての自身の仕事だという。
とはいえ、突然映画のダビングステージを作るという飛躍はなく、従来の作業も快適に行なえ、その上でDolby ATMOSの作業も行うことができる環境を整備するという、今回のGZ-TOKYO ROPPONGIのコンセプトへとその思いは昇華している。
スタジオのシステムをご紹介する前にスタジオに入ってすぐのロビーに少し触れたい。受付があって、打合せ用のスペースがあって、というのが一般的だがGZ-TOKYO ROPPONGIはソファーとバーカウンターがあり、4Kの大型TVでは最新の作品が流れている。新しいアイデアを出すためのスペースとしてその空間が作られているという印象を受けた。また、編集室、MA室の扉はひとつづつが別々のカラーで塗られ、全7室が揃うと一つの虹となるようにレインボーカラーの7色が配置されている。床にもその色が入っており非常にスタイリッシュな仕上りだ。編集室はあえて既存のビルの窓を潰さずに、必要であれば自然光が入るようになっているのも特徴的。もちろん通常は遮光されており色味が分からなくといったことはないが、必要とあれば開放感あふれる空間へと変えることもできる。スペースの居住性にも配慮した意志が感じられる部分だ。
◎9.1.4chのATMOSシステム
前述のようにMAスタジオを作るのであればDOLBY ATMOSは外せない、というコンセプトを持って完成した今回のGZ-TOKYO ROPPONGI AS 207。こちらに導入されたシステムは、Dolby ATMOS Homeに準拠した9.1.4chのシステムとなっている。部屋に対して最大限のスピーカーを設置しDolby ATMOSの良さを引き出そうというシステムだ。一般的な7.1chのサラウンドシステムに、サイドL,Rが追加され、一番間隔の空くフロントスピーカーとサラウンドスピーカーの間を埋める。実際に音を聴くと、フロントとリアのつながりが非常に良くなっていることに気づく。そして、トップには4chのスピーカー。Dolby ATMOS Homeの最大数が確保されている。スケルトンで4mという極端に高さがある物件ではないが、それでもトップスピーカーをしっかりと設置出来るという良いお手本のような仕上がり。天井平面からしっかりとオフセットされ、真下に入って頭をぶつける心配もない。防音、遮音のために床も上がり、天井も下がる環境の中でこの位置関係を成立させることが出来るというのは、今後Dolby ATMOS対応のスタジオを作りたいという方には朗報ではないだろうか。こちらは、音響施工を担当された日本音響エンジニアリング株式会社のノウハウが光る部分だ。
スピーカーの選定に関しては舘氏のこだわりがある。中京テレビの音声時代から愛用しているというGenelecが今回のスタジオでも候補から外れることはなかった。今回Stereo用のラージに導入された1037B等の1000番台を長く使用してきた中、舘氏にとって初めての8000番台となる8040(平面9ch)、8030(Top 4ch)をDolby ATMOS用に導入したということ。従来のラインナップに比べてサウンドのキャラクターは大きく変わっていないが、高域が少しシャープになったという印象を持っているということだ。
Dolby ATMOS導入スタジオには必ずと言っていいほど設置されているDolby RMUがこのスタジオにはない。これはDolbyの提供するSoftware Rendererの性能が上がり、マスタリング以外の作業のうちほぼ9割方の作業が行えるようになったという背景がある。Home向けであれば仕込みからミキシングまでSoftware Rendererで作業を行うことが出来る。Cinema環境向けであったとしても、この環境でオブジェクトの移動感などを確認することももちろん可能だ。仕上がった作品をRMUを持つスタジオでマスタリングすれば、Dolby ATMOSのマスターデータが完成するということになる。RMUの導入コストと、その作業が行われる頻度などを考え、また本スタジオへMAエンジニアの派遣も行うBeBlue Tokyo Studio 0にRMUがある、というのも大きな理由になったのではないだろうか。なお、本スタジオのシステム導入時点でリリースされていなかったということもあり、Pro ToolsはVer.12.8ではなく12.7.1がインストールされている。Avidが次のステップを見せている段階ではあったが、堅実に従来のワークフローを導入している。
◎DAD + ANDIAMO + VMC、充実のI/F
AS 207のPro ToolsシステムはPro Tools HDX1、Audio InterfaceはDAD DX32が直接Digilinkで接続されている。そして、そのフロントエンドにAD/DAコンバーターとしてDirectout ANDIAMOが加わる。SYNC HDと合わせてもたった3Uというコンパクトなサイズに、32chのAD/DA、3系統のMADI、16chのAESと充実のインターフェースを備えたシステムだ。ただし、充実といっても9.1.4chのスピーカーアウトだけで14chを使ってしまう。またVUも10連ということで、こちらも10ch。さすがはDolby ATMOSといった多チャンネルサラウンドとなっており、その接続も頭を悩ましてやりくりをした部分でもある。ちなみに、MacProはSoftware Rendererを利用する際の負荷に1台で耐えられるようにカスタムオーダーでスペックアップを行っている。
Dolby ATMOSの9.1.4chのモニターコントロールはTACsystem VMC-102で行っている。柔軟なモニターセクションと、国内の事情を熟知したコミュニケーションシステムとの連携はやはり一日の長がある。コミュニケーションにはIconicのカスタムI/Fを通じてTB BoxとCuf Boxが接続されている。この部分も事前に接続試験を入念に行い、コストを押さえたカスタムI/Fで必要機能を実現できるのか、株式会社アイコニック 河村氏と検証を行なった部分でもある。なお、今回の導入工事は河村氏の取りまとめで進行した。河村氏は冒頭でも述べた名古屋地区で初めての5.1chサラウンドを備えたMA studioや中京テレビのMA室からと舘氏とも長い付き合い。その要望の実現もアイデアに富んだシステムアップとなった。
◎前後する机で出現する快適な作業空間
Dolby ATMOSのシステムを備えたAS 207だが、やはり普段はステレオ作業も多いことが予想される。サラウンドサークルを最大に確保したセンターのリスニングポジションでは、後方のお客様スペースが圧迫されてしまう。そのためStereoの作業時には、机がコンソールごと前に30cmほど移動する仕掛けが作られた。左右にレールを設け、キャスターで移動するのだが、それほど大きな力をかけずに、簡単に移動することが出来る。机にはMac Proを始めとした機器類のほとんどが実装されているにもかかわらず、これだけ簡単に動く工夫には非常に驚かされる。これにより、Stereo時にはミキサー席後方に十分なスペースが確保され、快適な作業環境が出現する。そしてDolby ATMOSでの作業時には部屋の広さを最大限に活かした、音響空間が確保されるということになる。
◎S6と独立したサラウンドパンナー
コンソールについて、今回のスタジオ設計における初期段階で検討されていたのはAvid S6ではなかったのだが、中京テレビに新設されたMA室のお披露目の際に、導入されたAvid S6を見て新しい部屋ならこのシステムが必要だと直感的に感じたということ。DAWのオペレートは舘氏自身では行わないということだが、音声技術出身ということから現場でのミキシングなど音に触れる作業はいまでも行っている。その機材に対する感性からAvid S6がセレクトされたということは、販売する我々にとっても嬉しい出来事であった。その後検討を重ね、最終的にはフェーダー数16ch、5ノブのS6-M10が導入されている。ディスプレイ・モジュールに関しては、いろいろと検討があったがVUの設置位置との兼ね合い、リスニング環境を優先しての判断となっている。写真からもVU、そしてPC Dispalyの位置関係がよく練られているのが感じられるのではないだろうか。
そして、S6の導入のメリットの一つであるのが高性能なサラウンドパンナーオプションの存在。フレームに組み込むのではなく、個別にした箱に仕込んで好きな位置で操作出来るようにしている。やはりサラウンドパンニングはスイートスポットで行いたい。しかし、ステレオ作業を考えるとフレームの中央に埋め込んでしまっては作業性が損なわれる。その回答がこちらの独立させたサラウンドパンナーということになる。机と合わせ、部屋としての使い勝手にこだわった部分と言えるのではないだろうか。
◎動画再生エンジンにはVideo Slaveを採用
動画の再生エンジンには、ROCK ON PROで2017年1月よりデリバリーを開始したNon-Leathal Application社のVideo Slaveを導入していただいた。Pro ToolsのVideo Track以上に幅広いVideo Fileに対応し、Timecodeキャラのオーバーレイ機能、ADR向けのVisual Cue機能などMA作業に必要とされる様々な機能を持つ同期再生のソリューションだ。4K Fileへの対応など将来的な拡張性もこのアプリケーションの魅力の一つとなっている。VTRから起こしたキャラ付きのMovieデータであればPro ToolsのVideo Trackで、今後増えることが予想されるノンリニアからの直接のデータであればVideo Slaveで、と多様なケースにも対応できるスタンバイがなされている。
◎ニーズに合わせた大小2つのブース
ナレーションブースは大小2つの部屋が用意されている。MA室自体もはっきりとサイズに差を付けて、顧客の幅広いニーズに対応できるようにしている。これはシステムを構築する機材の価格は下がってきているので、ニーズに合わせた広さを持った部屋を準備することが大切という考え方から。大きい方のブースには、壁面にTVがかけられ、アフレコ作業にも対応できるようにセットアップが行われている。逆に小さい方の部屋は、ナレーション専用。隣合わせに2名が最大人数というはっきりとした差別化が図られている。ただし、運用の柔軟性を確保するために2部屋あるMA室からは両方のブースが使用できるようなしくみが作られており、メリハリを付けつつ運用の柔軟性を最大化するという発想が実現されている部分だ。
音声の収録にもこだわりが詰まっている。マイクプリはAD Gear製のKZ-912がブース内に用意され、MA室からのリモートでゲインの調整が行われる。マイクの直近でゲインを稼ぐことで音質を確保する、というこの理にかなった方法は、高価なリモートマイクプリでしか利便性との両立が図れないが、ここが音質にとっていちばん大切な部分ということで妥協なくこのシステムが導入されている。Pro Toolsへの入力前にはSSL X-Deskが置かれ、ここで入力のゲイン調整が行えるようになっている。そしてアナログコンソールで全てを賄うのではなく、ミキシングの部分は機能性に富んだAvid S6で、となる。収録などの音質に直結する部分はこだわりのアナログ機器で固める、というまさに適材適所のハイブリッドなシステムアップが行われている。このX-Deskという選択は、これまでもコンソールは歴代SSLが使われてきたというバックグラウンドからも自然なセレクトと言える。
◎AS 207と共通した機材構成のAS 208
そしてもう一部屋となるAS 208は部屋自体がコンパクトに設計されStereo作業専用となっているが、そのシステム自体はAS 207と全く同じシステムが導入されている。もちろん、コンソールはスペースに合わせてAvid S3が導入されているが、システムのコアはPro Tools HDXにDAD DX32が接続され、Directout AndiamoがAD/DAとしてあり、モニターコントローラーはTAC system VMC-102とAS 207と共通の構成となる。しかも両スタジオとも内部のMatrixなどは全く同一のプリセットが書き込まれている。片方の部屋でトラブルが発生した場合には、単純に交換を行うことで復旧ができるようにシステムの二重化が図られている。放送の現場感覚がよく現れた堅実性の高いシステム構成である。
Dolby ATMOS対応のスタジオをオフィスビルに、というだけでも国内では大きなトピックであると感じるが、様々な工夫と長年の経験に裏付けられた造詣が随所に光るスタジオである。システム設計を行われた株式会社アイコニック河村氏、音響施工を行われた日本音響エンジニアリング株式会社、そして、快く取材をお受けいただきそのスタジオに対する熱い思いをお話いただいた株式会社Zaxx 代表取締役の舘 英広氏に改めて御礼を申し上げてレポートのくくりとさせていただきたい。
写真手前右側が「Zaxx」代表取締役の舘英広氏、左側が同スタジオで音響オペレーターを務める「ビー・ブルー」の中村和教氏、奥右側からROCK ON PRO前田洋介、「アイコニック」の河村聡氏、ビー・ブルー」の川崎玲文氏
Media
2017/11/14
株式会社カプコン様 / Dynamic Mixing Stage
日本を代表するゲーム会社である株式会社カプコン。もともと7.1ch対応のAVID S6が設置されたDubbing Stage、そして7.1ch対応のAVID D-Control(ICON)が設置されたDynamic Mixing Stageの2部屋を擁していたが、今後起こりうるImmersive Audioの制作へ対応するためDynamic Mixing Stageのシステム更新を行った。今回の更新でDOLBY ATMOS HOME対応のシステムが組まれ、今後AURO 3Dなどにも対応できるよう準備が行われている。
◎Dynamic Mixingというコンセプト
今回、スタジオを改修するにあたりそのコンセプトについても根本的に見直しが行われた。これまで、カプコン社内スタジオ「bitMASTERstudio」は、レコーディングと大型セッションのミキシングを可能とする「Dubbing Stage」と、そのサテライトとして同等の能力を持ちつつ、レコーディングを除いたプリミックスや仕上げの手前までを想定した「Dynamic Mixing Stage」という構成であったが、これを従来型のPro ToolsとS6によるミキシングを中心に行う「Dubbing Stage(旧Dubbing Stage)」と、今回改修を行ったスタジオをゲーム内のインタラクティブシーンを中心としたミキシングを行うための「Dynamic Mixing Stage(旧Dynamic Mixing Stage)」としている。
この「Dynamic Mixing」は、ゲームの中でプログラムによって制御される方法でミキシングを行うことを指している。つまり、このステージはゲーム内のプログラムミキシングを行う場所であり、従来のミキシングステージとは一線を画するものだと考えているとのことだ。したがって、この部屋の音響空間及びシステムの設計思想は「リファレンスとなりうる音を再生できる特性を持ち、プログラムによるミキシングを効率的に行えるシステム」であることを第一義としている。
システムを構築する上で大切にしたことは、WindowsPC内にインストールされたゲームエンジンとオーディオミドルウェアのパラメーターを操作するのと同時に、ゲームに組み込むためのオーディオエディット/ミキシングをPro Tools上で効率的に行えるようにすること。Ultra Wideディスプレイと壁付けのTVによってそれらの情報をすべて表示し、ゲーム音声とProTools上の音声を瞬時に切り替え、あるいは同時に再生することのできるシステムにしておくことは、ゲームオーディオ制作では極めて重要、とのことだ。
◎既存スタジオをブラッシュアップするアイデア
メインのミキシング、ナレーションなどの収録に活躍するDubbing Stageと、ユーティリティ性を持たせプレビューなどにも対応できるように設計されたDynamic Mixing Stage。そのDynamic Mixing Stageはモニター環境をブラッシュアップし新しいフォーマットへの準備を行なった格好だ。部屋自体はそれほど広い空間が確保されているわけではなく、天井高も同様。その中にDOLBY ATMOS、そしてAURO 3Dといった次世代のフォーマットへ対応したモニタリングシステムを導入している。音響設計・内装工事を行った株式会社SONAからも様々な提案が行われ、そのアイデアの中から実現したのが、このスタジオのイメージを決定づける音響衝立と一体となったスピーカースタンドだ。天井に関してはスピーカーを設置するために作り直されており、内装壁も全面改修されているが、壁の防音層と床には手を加えずに最低限の予算で今回の工事を完了させている。
併せてDAWシステムについても更新が行われ、コントローラーはAVID D-Control(ICON)からAVID S3へとブラッシュアップされた。また、Dubbing Stageでモニターコントローラーとして活用されていたTAC system VMC-102はDynamic Mixing Stageへと移設され、マルチフォーマット対応のモニターコントローラーとして再セットアップが行われている。Dubbing Stageのモニターセクションには最新のAVID MTRXがインストールされ、AVID S6からの直接のコントロールによるモニタリングを行うようにこちらも再セットアップされている。
◎フォーマットに対応する柔軟性を持つ
それでは、各パートごとに詳細にご案内を行なっていきたい。まずは、何といっても金色に光り輝く音響衝立。これは完全にカスタムで、背の高いものが8本、低いものがセンター用に1本制作された。その設置はITUサラウンドの設置位置に合わせて置かれている。フロントはセンターを中心に30度、60度の角度で、Wide L/Rを含めたフォーマットとして設置が行われている。サラウンドはセンターより110度、150度と基本に忠実な配置。これらの音響衝立は、天井側のレールに沿ってサラウンドサークルの円周上を移動できるようになっている。これは、物理的に出入り口に設置場所がかかってしまっているため、大型の機器の搬入時のためという側面もあるが、今後この8枚の音響衝立の設置の自由度を担保する設計となっている。この衝立の表面は穴の空いた音響拡散パネルで仕上がっており,内部に吸音材が詰められるようになっている。吸音材の種類、ボリュームを調整することで調整が行えるようにという工夫である。
そしてちょうど耳の高さに当たる部分と、最上部の2箇所にスピーカー設置用の金具が用意されている。この金具も工夫が行われており、上下左右全て自由に微調整が行えるような設計だ。写真で設置されている位置がITU-R準拠のサラウンドフォーマットの位置であり、そのままDOLBY ATMOSのセットアップとなる。最上部の金具の位置はAURO 3D用のものであり、Hight Layerの設置位置となる。現状では、AURO 3D用のスピーカーを常設する予定はなく、AURO 3Dに変更する際には追加でこの位置へスピーカーを設置する事となる。完全に縦軸の一致する上下に設置ができるため、理想的な設置環境といえるだろう。
センターだけはTVモニターとの兼ね合いがあり背の低い衝立となっている、また、AURO 3D用のHC設置はTVの上部に設置用の金具が準備される。そして、TVモニターの下の空間にはサブウーファー2台が左右対象の位置に設置されている。天井にはセンターから45度の角度を取り、4本のスピーカーが正方形に配置されている。これが、Top Surround用のスピーカーとなる。もちろんAURO 3D用にTチャンネル用として天井の中心に金具が用意されている。また、wide L/Rの位置にも音響衝立が用意されているので、現状設置されている7.1.4のフォーマットから、9.1.4への変更も容易になっている。
このサラウンド環境はコンパクトな空間を最大限に活かし、完全に等距離、半球上へのスピーカー設置を実現している。そのために、各チャンネルの音のつながりが非常に良いということだ。また、音響衝立の中にスピーカーを設置したことにより、バッフル設置のようなメリットも出ているのではないかと想像する。スピーカー後方には十分な距離があり、そういった余裕からもサウンド面でのメリットも出ているのではないだろうか。
◎3Dにおける同軸モニターの優位性
今回の更新にあたり、スピーカーは一新されている。カプコンでは以前より各制作スタッフのスピーカーをGenelecに統一している。できるだけ作業スペースごとの視聴環境の差をなくし、サウンドクオリティーの向上と作業効率の向上がその目的だ。そのような流れもあり、Dynamic Mixing StageではGenelecの最新機種である8341がフロントLCRの3ch用として、サラウンド及びTop Layerには一回りコンパクトな8331が選定されている。このモデルは同軸2-way+ダブルウーファーという特徴的な設計のモデル。従来の筐体より一回り小さな筐体で1クラス上の低域再生を実現してるため、DOLBY ATMOSのように全てのスピーカーにフルレンジ再生を求める環境に適したモデルの一つと言える。ちなみに8341のカタログスペックでの低域再生能力は45Hz~(-1.5dB)となっている。従来の8030クラスのサイズでこの低域再生は素晴らしい能力といえるのではないだろうか。また、スピーカーの指向性が重要となるこのような環境では、スコーカーとツイーターが同軸設計であるということも見逃せないポイント。2-way,3-wayのスピーカー軸の少しのずれが、マルチチャンネル環境では重なり合って見過ごすことのできない音のにごりの原因となるためである。
これら、Genelecのスピーカー調整はスピーカー内部のGLMにより行われている。自動補正を施したあとに手動で更にパラメーターを追い込み調整が行われた。その調整には、最新のGLM 3.0のベータバージョンが早々に利用された。GLMでは最大30本のスピーカーを調整することが出来る。そのためこの規模のスピーカーの本数であっても、一括してスピーカーマネージメントが可能となっている。
今回の更新に合わせて新しく作り直したデスクは、部屋のサラウンドサークルに合わせて奥側が円を描く形状となっている。手前側も少しアーチを描くことで部屋に自然な広がり感を与えている印象だ。もちろん見た目だけではなく作業スペースを最大限に確保するための工夫でもあるのだが、非常に収まりのよい仕上がりとなっている。このデザインはカプコンのスタッフ皆様のこだわりの結晶でもある。そしてそのアーチを描く机の上には、AVID S3とDock、モニターコントローラーのTAC system VMC-102、そして38inch-wideのPC Dispalyが並ぶ。PC Displayの左右にあるのは、BauXer(ボザール)という国内メーカーのMarty101というスピーカー。独自のタイムドメイン理論に基づく、ピュアサウンドを実現した製品が評価を得ているメーカーだ。タイムドメインというと富士通テンのEclipseシリーズが思い浮かべられるが、同じ観点ながら異なったアプローチによりタイムドメイン理論の理想を実践している製品である。また、さらにMusik RL906をニアフィールドモニターとして設置する予定もあるほか、TVからもプレビューできるようにシステムアップが行われている。
◎AVID MTRXをフル活用したDubbing Stage
Dynamic Mixing StageのシステムはVMC-102とDirectout TechnologyのANDIAMO2.XTが組み合わされている。DAWとしてはPro Tools HDX2が導入され、I/OとしてMADI HDが用意されている。MADI HDから出力されるMADI信号はANDIAMOへ入り、VMC-102のソースとして取り扱われる。ANDIAMOにはATMOS視聴用のAV AMPのPre-OUTが接続されている。AV AMPはDOLBY ATMOS等のサラウンドデコーダーとしてPS4、XBOX oneなどが接続されている。VMC上ではストレートにモニターを行うことも、5.1chへのダウンミックス、5.1chでリアをデフューズで鳴らす、ステレオのダウンミックスといったことが行えるようにセットアップされている。
ちょっとした工夫ではあるが、AV AMPの出力は一旦ANDIAMOに入った後、VMCへのソースとしての送り出しとは別にアナログアウトから出力され、Dubbing Stageでもそのサウンドが視聴できるようにセットアップされている。実はこのANDIAMOは以前よりスタジオで利用されていたものであり、それを上手く流用し今回の更新にかかるコストを最低限に押さえるといった工夫も行われている。
Dubbing StageはVMC-102が移設となったため、新たにAVID MTRIXが導入されている。Pro ToolsのI/Oとして、そしてS6のモニターセクションとしてフルにその機能を活用していただいている。7.1chのスピーカーシステムはそのままに、5,1chダウンミックス、5.1chデフューズ、stereoダウンミックスといった機能が盛り込まれている。また、CUE OUTを利用しSSL Matrixへと信号が送り込まれ、Matrixのモニターセクションで別ソースのモニタリングが可能なようにセットアップされている。AVID MTRXには、MADIで接続された2台のANDIAMO XTがあり、この2台がスピーカーへの送り出し、メーター、そしてブースのマイク回線、AV AMPの入力などを受け持っている。せっかくなので、Dubbing Stage/Bの回線をAVID MTRXに集約させようというアイディアもあったが、サンプルレートの異なった作業を行うことが出来ないというデメリットがあり、このようなシステムアップに落ち着いている。やはり収録、素材段階での96kHz作業は増加の方向にあるという。従来の48kHzでの作業との割合を考えるとスタジオ運営の柔軟性を確保するためにもこの選択がベストであったという。
AVID MTRXのモニターセクションは、AVID S6のモニターコントロールパネル、タッチスクリーンとフィジカルなノブ、ボタンからフルにコントロールすることが可能である。DADmanのアプリケーションを選択すれば、モニターセクション、そしてCUEセンドなどのパラメーターをAVID S6のフェーダーからもコントロールすることもできる。非常に柔軟性の高いこのモニターセクション、VMC-102で実現していた全てのファンクションを網羅することができた。GPIO等の外部制御を持たないAVID MTRXではあるが、AVID S6と組み合わせることでS6 MTMに備わったGPIOを活用し、そのコマンドをEuConとしてMTRXの制御を行うことができる。もう少しブラッシュアップ、設定の柔軟性が欲しいポイントではあるが、TBコマンドを受けてAVID MTRXのDimを連動することができた。少なくともコミュニケーション関係のシステムとS6 + MTRXのシステムは協調して動作することが可能である。今後、AVID S6のファームアップによりこの部分も機能が追加されていくだろう。日本仕様の要望を今後も強く出していきたいと感じた部分だ。
今回の更新ではコンパクトなスペースでもDOLBY ATMOSを実現することが可能であり、工夫次第で非常にタイトでつながりの良いサウンドを得ることができるということを実証されている。これは今後のシステム、スタジオ設計においても非常に大きなトピックとなることだろう。今後の3D Surround、Immersive Soundの広がりとともに、このような設備が増えていくのではないだろうか。この素晴らしいモニター環境を設計された株式会社SONA、そして様々なアイデアをいただいた株式会社カプコンの皆様が今後も素晴らしいコンテンツをこのスタジオから羽ばたかせることを期待して止まない。
左:株式会社カプコン プロダクション部サウンドプロダクション室 瀧本和也氏 右:株式会社ソナ 取締役/オンフューチャー株式会社 代表取締役 中原雅考氏
*ProceedMagazine2017-2018号より転載