本サイトでの Cookie の使用について

Shibuya 03-3477-1776
Umeda 06-6131-3078

Headline

Media
2024/08/30

RIEDEL製品が支えるF1サーカスの舞台裏〜MediorNetで結ばれたIPグローバルネットワーク〜

IP伝送が拡げる可能性は我々が位置する音響の分野のみならず多岐にわたる。音や映像が必要とされる分野であればIP伝送によって従来のシステムにとって代わるワークフローのブレイクスルーが起こり得る。そのひとつが今回取材を行ったF1サーカスとも呼ばれる、世界規模のスポーツイベントにおけるRIEDELの取り組みだ。本誌では以前にもご紹介をしたが、あれから5年を経てそのバックボーンを支える技術、ソリューションはどれほど進化したのだろうか。 レースに欠かせない通信のマネジメント 2024年のF1カレンダーは大きく変わり、日本グランプリが例年の秋の開催から春開催へと移動された。これまでであれば、秋のレースはその年のドライバーチャンピオンが決まるころのレースであり、テクニカルサーキットして世界にその名を馳せる鈴鹿サーキットが最後の腕試しという側面もあったのだが、今年は桜の季節に開催されシーズンも始まったばかりということもあり、パドックは終始和やかなムードに包まれていた。今回取材に入ったのは木曜日。F1は金曜日に練習走行、土曜日に予選、日曜日に決勝というスケジュールとなっており、木曜日はレースデイに向けての準備日といったところ。その準備日だからこそ見ることができるレースの裏側も多く充実の取材となった。まずは、取材協力をいただいたRiedel Communicationsの各位に感謝を申し上げたい。 準備日とはいえ鈴鹿サーキットは、レースに向けた準備がしっかりと進められており、木曜日は恒例のパドックウォークが実施されるということで多くの観客が来場していた。パドックウォークは、レースデイには立ち入ることのできないパドックやメインストレートを歩くことができるイベント。入場券もレースが行われない日ということもあり安く設定されており、さすがにガレージの中までは入れないものの、レースでピットクルーたちがタイヤ交換などを行うその場に立てる、ということでこれを目当てに来場される方も多数。また、この日はメインスタンドも開放されていてサーキットの好きなところに行けるのもパドックウォークの魅力。もちろん、レースデイの高揚感まではないものの、鈴鹿サーキットでF1の雰囲気を味わいたいということであれば、この木曜日の来場にも価値がある。 📷レース前の木曜日に開催されたパドックウォーク。メインストレートも一般開放され賑わいを見せるこの写真の中に、RIEDELの回線敷設スタッフが数日間かけて仕込んだアンテナほかの機材も多数あるのがお分かりになるだろうか。既に木曜のこの段階で準備万端となっているわけだ。 前置きが長くなってしまったが、まずRIEDELのF1における立ち位置を確認しておこう。RIEDELはFIA(F1を主催する国際自動車連盟)から業務依頼を受けて、F1における通信全般をマネージメントしている。通信全般とひとことで言ってもF1会場で取り扱われている通信は膨大な量となる。各チームのインカム、オフィシャルからの無線連絡、ドライバーとのコミュニケーションなどの音声通信。それに、各車6台ずつの車載カメラ映像、審判用にも使われるコースの監視用のカメラ(鈴鹿サーキットでは20台以上がコース脇に設置された)、F1レースカーから送られてくるテレメトリーデータ(エンジン情報、燃料残量、タイヤ温度、ドライバーの操作など車に関するデータ)など多種多様。もちろん、その種類の多さから必然的にデータボリュームも非常に大きなものとなる。 コミュニケーションのメッシュを運用する 📷インカムがずらりと並んだピット内。よく見るとスタッフ個人ごとに名前が記されている。 なぜ、RIEDELがF1の運営に関わるようになったのかという部分にも触れておきたい。RIEDELはMotorola製トランシーバーのレンタル会社としてスタートした。単に機材をレンタルするということだけではなく、イベント会場などで活用されるトランシーバーのグループライン設計や、運営、無線電波の管理なども行い今日に至っている。 F1会場でも各チームへ120台前後のトランシーバーがレンタルされ、その管理運営を行っているということだ。残念ながらチームスポンサードの兼ね合いもあり全20チーム中17チームへの提供となっているとのこと。本来であれば全チーム一括での運営が望ましいのは確かであるが、他の無線機器メーカーなどがスポンサーとなってしまった場合はその限りではないようだ。しかしながら、RIEDEL以外のトランシーバーを使用しているチームの回線もRIEDELがデータを受取りして一括での運営管理を行っていることには変わりない。そのため、各チーム内でのグループラインなどの構築のためにRIEDELから最低1名ずつのスタッフが帯同しているそうだ。これは、それぞれのチーム事情を汲み取り、最適な運用を行うと同時に、チーム間の情報機密などへも配慮した対応だと思われる。 運用は大きく変わらないものの、トランシーバー自体についてはRIEDELのベストセラー製品でもあるBoleroの導入が進んでいるということだ。従来のトランシーバーでは2チャンネルの送受信。チャンネル数がさらに必要なマネージャークラスのスタッフは、2台のトランシーバーを併用し4チャンネルの運用を行っていて、腰の両サイドに2台のトランシーバーをぶら下げたスタイルは、チームの中心人物である証とも言えたのだが、Boleroを使えば1台のベルトパックで6チャンネルの送受信が可能となる。やはりこれば評価が高い、各チームからBolero導入へのリクエストも多く寄せられているそうだ。 各チームで多少の違いはあるのだろうと想像するが、現場で話を聞いたインカムの送受信先を図にして掲載しておく。ドライバーと会話ができるスタッフは最低限とし、レーシングディレクター(監督)がドライバー、ピットクルー、ガレージのそれぞれへ指示を行うことでレースを進行するというのが基本。そのやりとりを聞くだけのスタッフもいれば、発信を行えるスタッフも必要となり、複雑にコミュニケーションのメッシュが構築されている。 さらに、サーキット外のスタッフもこのコミュニケーションに参加する。世界各国にある各チームのヘッドクォーターへと必要な回線が送られ、車の情報などを監視して現場のスタッフへ適切な指示がリアルタイムに出されているということだ。また、回線が送られるのはヘッドクォーターだけではない。例えば、Visa Cash App RB Formula One Team であれば、ヘッドクオーターがイタリアのファエンツァ 、エンジン開発拠点は日本のホンダ・レーシングといったように分かれており、それぞれの国で別のコントロールルームからエンジンの様子などを監視している。 取りまとめると、各チームではサーキットに80名程度、それ以外のヘッドクオーターや各開発拠点に100名以上という人員体制でレースマネージメントが行われているということ。1台のレーシングカーを走らせることには想像以上に数多くのスタッフが関わっている。なお、RIEDELは各チームのヘッドクオーターまでの接続を担当しており、ヘッドクオーターから先の各開発拠点への通信はそれぞれのチームが独自にコミュニケーション回線を持っているということだ。 年間24戦を支えるRIEDELのチーム編成 F1の運営に関わっているRIEDELのスタッフは、大きく3つのチームに分けられている。1つが実際のレースデイの運営を行うテクニカルチーム。それ以外の2チームは、事前に会場内でのワイヤリングを主に請負う回線敷設チームだ。テクニカルチームは基本的に水曜日の現地入り、木曜日にチェック、金曜日からのレースデイという流れだが、回線敷設チームは決勝日の10日程度前に現地に入り、サーキット各所へのカメラの設置、無線アンテナの設営など機材コンテナが到着したらすぐにチェックが行えるよう準備を行っているということ。また、決勝が終わったら撤収作業を行って速やかに次のサーキットへ向かわなければならない。レースは3週連続での開催スケジュールもある。よって交互に世界中を飛び回れるよう回線敷設は2チームが編成されているが、それでもかなり過密なスケジュールをこなすことになる。 ちなみに、すべてのケーブル類は持ち込みされており、現地での機材のレンタルなどは一切行われない。これは、確実性を担保するための重要なポイントであり、今後も変えることはありえないと言っていたのは印象的。質実剛健なドイツ人らしい完璧を求める考え方だ。 セーフティーカーに備えられた通信システム 今回の取材は木曜日ということもあり、レースカーの走行はなくセーフティーカーによるシステムテストが行われていた。セーフティーカーには、F1のレースカーと全く同様の車載カメラ、テレメトリー、ラップ等の計測装置が搭載されており、これらを使って各種テストを行っている。なんと、今回はそのセキュリティーカーに搭載されたこれらの機器を見せていただく機会を得られたのでここで紹介しておきたい。 F1で今年使われているセーフティーカーはAMG GT。そのトランクルームに各種データの送受信装置、データの変換装置が備え付けられている。こちらと同じ機器がレースカーにも備えられ、レースカーに車載された6台ものカメラの映像データも車上で圧縮され無線で送信されている。アンテナもインカム用のアンテナと、それ以外のデータ用のアンテナ、さらには審判用の装置、これらもレースカーと同様だ。 これらはF1レースカーの設計の邪魔にならないようそれぞれが非常にコンパクトであり、パッケージ化されていることがよく分かる。ちなみに、トランクルームの中央にある黒い大きなボックスは、セーフティーカーの灯火類のためのボックス(赤色灯等など)であり、こちらはレースカーに搭載されず、その左右の金色だったりの小さなボックス類が各種計測装置である。右手の金色のボックス類がカメラの映像を圧縮したりといった映像関連、左側がテレメトリーとインカム関連だということだ。 📷システムテストに用いられていたセーフティーカーの様子。トランク内にレースカーと同様の機材が積み込まれている。ルーフ上には各種アンテナが据えられており、そのどれもがレースカーに搭載することを前提にコンパクトな設計がなされている。 航空コンテナの中に設置されたサーバーラック 📷ラックサーバーが収められているという航空コンテナ。このコンテナごと世界各地のF1サーカスを巡っていく。 それでは、実際に用いられている通信の運用について見ていこう。それぞれのチームの無線チャンネル数は各チーム6〜8チャンネル前後、そこへオフィシャルの回線やエマージェンシーの回線などを加え、サーキット全体では200チャンネル前後の無線回線が飛び交っている。これらの信号はすべてIP化され、ネットワークセンターと呼ばれるバックヤードのサーバーラックへと送られている。これらすべての回線は不正のチェックなどにも使用されるため、全回線がレースデイを通して記録されているとのこと。また、サーキットに持ち込まれたサーバーでの収録はもちろん、RIEDEL本社にあるサーバールームでも併せて収録が行われるような仕組みになっている。なお、サーキットに持ち込まれたサーバーはあくまでもバックアップだそうだ。レース終了とともに次の会場への移動のために電源が落とされパッキングが始まってしまうからである。 2019年にもこのネットワークセンターのサーバーラックを見せてもらったのだが、このラックに収まる製品は大幅に変わっていた。まず取り上げたいのは、インカムの総合制御を行うための機器がAll IP化されたことに伴い、最新機種であるArtist 1024の1台に集約されていたことだ。従来の最大構成機種であったArtist 128は、その機種名の通り128chのハンドリングを6Uの筐体で行っていたが、Artist 1024はたった2Uの筐体で1024chのハンドリングを可能としている。このスペックによって予備回線のサブ機までをも含めてもわずか4Uで運用が事足りてしまっている。ラックには従来型の非IPの製品も収まっているが、これらは機材の更新が済んでいないチームで使用されている機器の予備機だということ。3本のラックの内の1本は、予備機材の運搬用ということになる。 他には、テレメトリー・映像データ送信用のMediorNet、多重化された電源、現地のバックアップレコーディング用のストレージサーバーといったところ。前回の取材時には非常に複雑なシステムだと感じたが、2024年版のラックはそれぞれの機器がシンプルに役割を持ち動作している。それらの機器のことを知っている方であれば、ひと目見て全貌が(もちろん、概要レベルだが)把握できるくらいにまでスリム化が行われていた。 📷数多くのインカム回線をハンドリングするArtist 1024。見ての通りArtist 1024を2台、わずか4Uでの構成だ。 これらのラックは、飛行機にそのまま積めるように航空コンテナの中に設置されている。コンテナは2台あり、回線関連の機器が収められたコンテナと、もう1台がストレージサーバー。航空輸送を行うということで、離陸、着陸のショックに耐えられるようかなり厳重な仕掛けが行われていたのも印象的。コンテナの中でラックは前後方向に敷かれたレールの上に設置され、それがかなりのサイズのダンパーで前後の壁面と固定されている。基本的に前後方向の衝撃を想定して、このダンパーでその衝撃を吸収しようということだ。2024年は24戦が世界各地で予定されており、そのたびに飛行機に積まれて次のサーキットへと移動される特殊な環境である。着陸のたびにダメージを受けることがないよう、これまでの経験を活かしてこのような構造を取っているということだ。 ●RIEDEL MediorNet 2009年に登場した世界初となるFiber-BaseのVoIPトランスポート。さらにAudio、GPIO、もちろんRIEDELインカムの制御信号など様々な信号を同時に送受信できる。ファイバーケーブルを使った長距離伝送という特長だけではないこの規格は、世界中の大規模イベントのバックボーンとして使われている。本誌でも取り上げたF1以外にも、世界スポーツ大会、W杯サッカー、アメリカズカップなどが代表的な事例となる。ひとつのトランスポートで現場に流れるすべて(と言ってしまっても差し支えないだろう)の信号を一括で送受信することができるシステムである。 自社専用ダークファイバーで世界中へ これらのコンテナ・ラックに集約された回線は、RIEDEL Networkの持つダークファイバー回線でRIEDEL本社へと送られる。RIEDEL NetworkはRIEDELのグループ会社で、世界中にダークファイバーの回線を持ち、その管理運用を行っている。その拠点まではそれぞれの国の回線を使用するが、世界中にあるRIEDEL Networkの回線が接続されているデータセンターからは自社回線での運用となる。各国内の回線であれば問題が起きることはそれほど多くない、それを他国へ送ろうとした際に問題が発生することが多い。そういったトラブルを回避するためにも自社で世界中にダークファイバーを持っているということになる。 また、RIEDEL本社の地下には、核シェルターに近い構造のセキュリティーレベルが高いデータセンターが設置されている。ここで、F1のすべてのデータが保管されているそうだ。各チームからのリクエストによる再審判や、車載カメラ、コースサイドのカメラ、各チームの無線音声などすべての情報がここに保管されている。FIAから直接の依頼を受けて業務を行っているRIEDELは、さながら運営側・主催者側のバックボーンを担っているといった様相だ。 ちなみに、F1のコントロールセンター(審判室)は、リモートでの運営となっている。RIEDEL本国に送られた回線は、ヨーロッパに設置されたコントロールセンター、そして、各チームのHQへと送られている。まさにRIEDEL本社がF1サーカスのワールドワイドのハブとなっているということだ。一旦レースの現場でデータを束ねて、確実なファシリティ、バックボーンのある本社拠点へ送る。それを必要なものに応じて切り出しを行い、世界中へを再発信する。世界中を転戦するF1サーカスならではの知恵と運用ノウハウである。 ちなみに、我々が楽しんでいるTVなどの中継回線は、コースサイドの映像などが会場で共有され、中継用の別ネットワークとして運営されているということだ。前回取材時の2019年はこの部分もRIEDELの回線を使ったリモートプロダクションが行われていたが、サーキット内での回線分岐で別の運用となっていた。これらの設備を見ることはできなかったが、サーキット内に中継用のブースがあるような様子はなく、RIEDELのスタッフもそのような設備がサーキット内に準備されているのは見たことがないということだったので、リモートプロダクションでの制作が行われているのは確かなようであった。別のネットワークを通じて行われるリモートプロダクション、2024年度の放映権を持つのはDAZNだが、どのようなスキームで制作されているのか興味が尽きないところだ。 総じてみると、2019年と比較してもシステムのコンパクト化、コロナを乗り越えたことによるスタッフの省力化、リモートの活用範囲の拡大などが随所に見られた。そして、バックボーンとなる回線のIP化が進み、Artist 1024のような大規模ルーターが現実のものとして運用されるようになっている。目に見える進化はそれほど大きくないのかもしれないが、そのバックボーンとなる技術はやはり日進月歩で進化を続けている。 IPによる物理回線のボリュームは劇的に減っており、要所要所は一対のファイバーケーブルで賄えるようになっている。ある意味、この記事において写真などで視覚的にお伝えできるものが減っているとも言えるのだが、これこそがIP化が進展した証左であり次世代のシステム、ソリューションの中核が現場に導入されているということに相違ない。 10年以上も前から一対のファイバーケーブルで、映像・音声・シリアル通信まで送受信できるシステムを提案しているRIEDEL。やっと時代が追いついてきているということなのだろうか。F1のような世界規模の現場からのリクエストで制作され鍛え上げられてきたRIEDELの製品。国内でも活用が多く見られるインカムは、RIEDELの持つテクノロジーの一端でしかない。トータルシステムとして導入して本来のバリューを発揮するRIEDELの製品群。今回のような事例から次世代のシステム・ソリューションにおけるヒントを見つけていただければ幸いである。   *ProceedMagazine2024号より転載
Music
2024/08/27

Cross Phase Studio 様 / クリエイティブが交差する、外部貸出も行う関西有数のイマーシブ拠点

大阪城の間近、大阪市天満に居を構えるCross Phase Studio。ゲーム / 遊技機のサウンド制作をメインに、近年では映像作品のポストプロダクション業務も増加するなど、関西圏で大きな存在感を持つCross Phase株式会社の自社スタジオだ。2022年末にイマーシブ・フォーマットへ対応するためのアップデートを果たした同スタジオだが、このたびには自社スタジオの外部貸出も開始させたそうだ。関西でのイマーシブ・オーディオをリードする存在ともなるCross Phase Studioへ早速取材にお邪魔した。 サウンドの持つ力を知る場所を多くの方に Cross Phase株式会社は代表の金子氏が中心となって、数人のクリエイターとともに2015年に設立されたサウンド制作会社。「当時の勤務先ではだんだん管理的な業務のウェイトが増えていて、もっとクリエイティブな部分に携わっていたいと考えていました。きっかけはよくある呑みの席での雑談だったのですが、本当に独立してしまった(笑)」という同氏は元遊技機メーカー勤務。幼少期を海外で過ごしMTVを見て育ったことから大の音楽好きで、同じく好きだった遊技機と音楽の両方を仕事にできる業界を選んだということだ。 設立当初は各クリエイターが自宅の制作環境で制作を行っており本社は事務所機能だけだったが、自社スタジオであるCross Phase Studioを作るにあたり、本社所在地も現在の大阪市天満に移転している。そのスタジオもステレオのみでスタートしたのだが、Apple Digital Masters認定を受けるための過程でDolby Atmosの盛り上がりを知り、大きな可能性を感じたことで2022年末にイマーシブ・オーディオへ対応する運びとなったそうだ。 スタジオを持ってからも同社では積極的にテレワークやリモート制作を取り入れており、そのためのインフラは金子氏がみずから整えているとのこと。最適なソリューションが存在しない場合は自社製の業務ツールやソフトウェアを開発することもあるという。「ゲーム業界は横のつながりが強い。自分たちの経験に加え、サウンド外の情報や情勢も踏まえて効率化、向上化の手段を常に探っています。」といい、クリエイティブな作業に集中できる環境づくりを心がけている。設立時の想いを実践し続けていることが窺える。 📷Cross Phase株式会社 代表の金子氏。 金子氏に限らず全員が元ゲーム / 遊技機メーカー勤務のクリエイター集団である同社の強みは、ゲーム / 遊技機のサウンドに関わる工程すべてを把握しており、サウンドプロジェクト全体をワンストップで請け負える点にある。プロジェクト自体の企画から、楽曲や効果音などの制作、音声収録など各種レコーディング、ゲームや遊技機への実装・デバッグのすべての工程でクライアントと協業することが可能だ。 近年はゲーム / 遊技機分野にとどまらず映像作品の音声制作などへも活躍の場を広げているが、そのきっかけは1本の映画作品だったようだ。「ロケ収録した音声を整音する依頼だったのですが、元の音声があまりいい状態ではなくて…。当社でできる限りいいものにならないか試行錯誤したところ、その結果にクライアントがすごく喜んでくれたんです。それで、みんな音の大切さに気付いてないだけで、いい音を聴いてもらえばわかってくれるんだということに気付いたんです」という。 こうした経験から、もともと自社業務専用と考えていたCross Phase Studioの外部貸出を開始したそうだ。「Dolby Atmosを聴いてもらうと多くのクライアントが興味を示してくれます。当社のクリエイターからも、イマーシブを前提とするとそれ以前とは作曲のコンセプトがまったく変わる、という話もありました。せっかくの環境なのでもっと多くのみなさんにサウンドの持つ力を体験して知ってほしいんです。」そして、「Cross Phaseという社名は、さまざまなクリエイティブが交差する場所にしたいという想いで名付けました。関西圏には才能あるクリエイターがたくさんいるので、みなさんとともに関西発で全国のシーンを盛り上げていきたいと思っています」と熱を込めて語ってくれた。 7.1.4 ch をADAMで構成 Cross Phase Studioのイマーシブシステムは7.1.4構成となっておりDolby Atmosへの対応がメインとなるが、DAWシステムには360 Walkmix Creator™️もインストールされており、360 Reality Audioのプリミックスにも対応が可能だ。 モニタースピーカーはADAM AUDIO。9本のA4VとSub 12という組み合わせとなっている。それとは別に、ステレオミッドフィールドモニターとして同じくADAM AUDIOのA77Xが導入されている。スタイリッシュな内装や質実剛健な機材選定と相まって、見た目にもスタジオ全体に引き締まった印象を与えているが、そのADAM AUDIOが導入された経緯については、「スタジオ開設当初は某有名ブランドのスピーカーを使用してたのですが、あまり音に面白みを感じられなくて…。スピーカーを更新しよう(当時はまだステレオのみ)ということで試聴会を行ったのですが、当社のクリエイターのひとりがADAMを愛用していたので候補の中に入れていたんです。そうしたら、聴いた瞬間(笑)、全員一致でADAMに決まりました。そうした経験があったので、イマーシブ環境の導入に際してもADAM一択でしたね。」とのこと。 📷7.1.4の構成で組まれたスピーカーはスタッフ全員で行った試聴会の結果、ADAMで統一された。天井にも吊られたA4Vのほか、ステレオミッドフィールド用にA77Xが設置されている。 もちろん、ADAM AUDIOも有名ブランドではあるが、その時点での”定番のサウンド”に飽き足らずクリエイターが納得できるものを追求していくという姿勢には、音は映像の添え物ではない、あるいは例えそうした場面であってもクリエイティビティを十二分に発揮して作品に貢献するのだという、エンターテインメント分野を生き抜く同社の強い意志を感じる。そうした意味では、ADAM AUDIOのサウンドは同社全体のアイデンティティでもあると言えるのではないだろうか。関西エリアに拠点を置くクリエイターには、ぜひ一度Cross Phase Studioを借りてそのサウンドを体験してほしい。 デジタル、コンパクト、クリーンな「今」のスタジオ それではCross Phase Studioのシステムを見ていこう。金子氏の「当社はスタジオとしては後発。イマーシブ導入もそうですが、ほかのスタジオにはない特色を打ち出していく必要性を感じていました。今の時代の若いスタジオということで、デジタルをメインにしたコンパクトなシステムで、クリーンなサウンドを念頭に置いて選定しています。」という言葉通り、DAW周りは非常に現代的な構成になっている。 📷メインのデスクと後方のデスクに2組のコントロールサーフェスが組まれているのが大きな特徴。前方メインデスクにはAvid S3とDock、後方にはAvid S1が2台。ステレオとイマーシブで異なるスイートスポットに対応するため、それぞれのミキシングポイントが設けられた格好だ。 スタジオにコンソールはなく、Pro Tools | S3 + Pro Tools | Dock + DAD MOMと、2 x Pro Tools | S1 + DAD MOMというコントロールサーフェスを中心とした構成。サーフェスが二組あるのはステレオ再生とイマーシブ再生ではスイートスポットが変わるため、コントロールルームの中に2ヶ所のミキシングポイントを置いているからである。DAWはもちろんPro Tools Ultimate、バックアップレコーダー兼メディアプレイヤーとしてTASCAM DA3000も導入されている。 オーディオI/FにはPro Tools | MTRX Studioを採用。モニターコントロールはDAD MOMからコントロールするDADmanが担っているため、ステレオ / イマーシブのスピーカーはすべてこのMTRX Studioと直接つながれている。MTRX StudioにはFocusrite A16RがDanteで接続されており、後述するアウトボードのためにアナログI/Oを拡張する役割を担っている。また、スピーカーの音響補正もMTRX Studioに内蔵されているSPQ機能を使用して実施。測定にはsonorworks soundID Referenceを使用したという。現在ではsoundID Referenceで作成したプロファイルを直接DADmanにインポートすることができるが、導入時にはまだその機能がなく、ディレイ値などはすべてDADmanに手打ちしたとのこと。 📷上段にMTRX Studioがあり、その下が本文中でも触れたflock audio The Patch。数々のアウトボードが操作性にも配慮されてラッキングされていた。 必要最小限で済ますならばこれだけでもシステムとしては成立するのだが、スッキリとした見た目と裏腹に同スタジオはアウトボード類も充実している。SSLやBettermakerなどのクリーン系ハイエンド機からAvalon DesignやManleyなどの真空管系、さらに、Kempfer・Fractal Audio Systemsといったアンプシミュレーター、大量のプラグイン処理を実現するWaves SoundGrid Extreme Serverやappolo Twin、そろそろビンテージ機に認定されそうなWaves L2(ハードウェア!)も導入されており、現時点でも対応できる音作りは非常に広いと言えそうだが、「当社のクリエイターたちと相談しながら、その時々に必要と考えた機材はこれからも増やしていく予定です」とのこと。 これらのスタジオ機器の中で、金子氏がもっとも気に入っているのはflock audio The Patchなのだという。金子氏をして「この機材がなかったら当社のスタジオは実現していなかった」とまで言わしめるThe Patchは、1Uの機体の内部にフルアナログで32in / outのシグナルパスを持ち、そのすべてのルーティングをMac / PCから行えるというまさに現代のパッチベイである。Cross Phase Studioではアナログ入力系は基本的に一度このThe Patchに接続され、そこからA16Rを介してDanteでMTRX Studioへ入力される。日々の運用のしやすさだけでなくメンテナンス性や拡張性の観点からも、確かにThe Patchの導入がもたらした恩恵は大きいと言えるだろう。 コントロールルームの隣にはひとつのブースが併設されている。ゲーム / 遊技機分野から始まっているということもあってボーカル・台詞など声の収録がメインだが、必要に応じて楽器の収録もできるように作られている。印象的だったのは、マイクの横に譜面台とともにiPad / タブレットを固定できるアタッチメントが置かれていたことだ。台詞録りといえば今でも紙の台本というイメージが強いが、個別収録の現場では徐々に台本もデジタル化が進んでいるようだ。 📷コントロールルームのすぐ隣にはブースが設置されている、ボーカル・ダイアログなど声の収録だけではなく、楽器にも対応できる充分なスペースを確保している。 ブース内の様子は撮影が可能でコントロールルームにはBlackmagic Design ATEM Miniが設置されていた。「もともと音楽1本だけの会社ではないので、徐々にオファーが増えている映像制作やライブ配信をはじめとした様々な分野にチャレンジしていきたい。最近、知人から当社のブースをビジネス系YouTube動画の制作に使いたいというオファーもありました(笑)。バンドレコーディングはもちろん、“歌みた“などのボーカルレコーディングや楽器録音など、ぜひ色々なクリエイターやアーティストに使って欲しいです。」とのことで、同社が活躍するフィールドはさらに広がっていきそうだ。 最近では海外からのオファーも増えてきたというCross Phase。金子氏は「ゆくゆくは国産メーカーの機器を増やして、日本ならではのスタジオとして海外の方にも来てもらえるようにしたいですね」と語る。イマーシブ制作の環境が整ったスタジオを借りることができるというのは、まだ全国的に見ても珍しい事例である。関西圏を拠点にするクリエイターは、ぜひ一度Cross Phase Studioで「サウンドの持つ力」を体験して知ってほしい。   *ProceedMagazine2024号より転載
Event
2024/08/26

【9/2~4】Rock oN新梅田店にて360VME関西初の体験会を開催!

今年6月より待望の出張測定サービスも開始し、早速スタジオに伺っての測定も実施中の360 Virtual Mixing Environment(360VME)サービス。実際にVMEを使用した制作実績も生まれ、業界内でも測定された方を中心にじわじわとその高い性能が広まっています。 しかし百聞は一見にしかず、ならぬ百見は一聞にしかずの技術なのもまた事実。 そこで、今までの体験会は東京での開催のみでしたが。。。 8/20(金)にプレオープンしたばかりのRock oN新梅田店にて、関西初の360VME体験会を実施します! ご参加いただいた方には出張測定が¥20,000引きとなる特別クーポンも贈呈! 今まで東京の体験会にお越しいただけなかった皆様にもようやく驚きの再現力をご体感いただけます。 またこれより梅田を拠点に出張測定サポートを強化し、西日本の皆様にも測定サービスをスムーズにご利用いただける体制を整備いたします。まずは体験会にお越しいただき、そのクオリティをご確認ください! ◎開催日程 開催日:9月2日〜4日の3日間 開催時間:13時、15時、17時 (各30分) 定員:各時間 定員2名 参加費:無料 参加特典:360VME 〜出張測定〜 20,000円OFFクーポン 体験会お申し込みはコチラ 【ご注意】フォームからのお申し込み時点ではお申し込みは完了しません。 開催日/時間ごとの先着順のためフォーム送信後に落選となる可能性がございます。 こちらからお申し込み完了のご連絡が届いた時点で完了となります。予めご了承下さい。 改めて、360VMEとは 〜スタジオを持ち運ぶ〜 SONY 360 Virtual Mixing Environmentとは、複数のスピーカーで構成されたスタジオの音場を独自の測定技術によりヘッドホンで正確に再現する技術。SONYが長年研究開発してきたバーチャルサラウンドの延長線上にあるテクノロジーであり、プロのクリエイターが制作で扱える最高品質のバイノーラルモニタリング技術として開発された経緯があります。 コロナ禍にはハリウッドのSony Picturesで使用実績を積みトップクリエイターの意見を踏まえて開発された360VMEは、バイノーラルでの再現が特に難しいとされるセンター方向の定位を含め汎用のバイノーラルとは比べ物にならないクオリティを実現しています。 360VMEの大きな特徴がその測定方法にあります。360VMEでは、個々人の頭の形によるプライベートHRTFはもちろんのこと、使用するスピーカー、ヘッドフォンの特性、部屋の反射などを含めた空間の音響特性までをまとめて計測。それにより、まさに測定するその環境その位置で測定者その人の鼓膜に届く音を再現するのです。 また意外と知られていないのが、360VMEはイマーシブフォーマット以外にも、5.1chや7.1chといったサラウンド、ステレオにもお使いいただける技術であるということ。うちにはイマーシブ環境が無いという方でも、お持ちのシステムで測定いただくも良し、MIL Studioのイマーシブ環境をお持ち帰りいただくのも良しのサービスとなっております。 スタジオを持ち運ぶというコンセプトがご理解いただけたでしょうか? MIL Studioの完全4π音響空間をご自身のイマーシブモニター環境とすることも、普段利用されているスタジオの音を自宅に持ち帰って仕込み作業を行うことも可能にする360VMEで、新たな制作スタイルを手に入れましょう。 料金体系 ① 360VME プロファイル料金 1プロファイル/1年 ¥40,000(税別) 1プロファイル/6ヶ月 ¥25,000(税別) ※プロファイルデータは 有効期限付きのサブスクリプションモデルとなります ② 360VME 測定料金 MILスタジオでの測定 1人測定/¥40,000(税別) 出張測定サービス 1出張/¥80,000(税別) ※出張測定サービスは、3プロファイル以上でのお申し込みをお願いします。 ①プロファイルサブスクリプション + ②測定料金 = 360VME測定サービス合計金額となります。 新しくなったRock oN梅田店でまずはその効果をご体験ください!きっと驚かれるはずです。 渋谷店でも引き続き測定デモは実施中です!店頭スタッフへお問い合わせください。 梅田体験会お申し込みはコチラ またVME体験会だけでなく新梅田店では9/6(金)のグランドオープンに向けて様々なイベントを計画中!日々完成へと近づく新たな梅田店を一緒に作り上げてください! プレオープンイベント「みんなで作ろうRock oN」の詳細はコチラをチェック! 出張測定、MILでの測定お申し込みやより詳しい情報は↓↓以下のページからお待ちしております↓↓ https://pro.miroc.co.jp/headline/360vme_new-service_202406/ MIL studioについてはこちら↓ https://www.minet.jp/contents/info/mil-studio/
Event
2024/08/25

【8/30(金)開催】RTW Presents “TouchControl 5 Meets ATMOS” Atmosミックスの第一人者がナビゲート!革新的コントローラーによるモニタリング

8/30(金)、Dante®ベースのAoIPを利用したメータリング機能付きモニターコントローラー『RTW TouchControl 5』をフィーチャーしたセミナーイベントを弊社LUSH HUBにて開催いたします。 このイベントでは、サウンドデザイナーの染谷和孝氏によるDolby Atmosミックスにおいて重要なモニタリングについてのトークセッションに加え、Dolby Atmos 7.1.4環境を備えた別室にてTouchControl 5を実際に操作できるハンズオン体験をご用意しています。さらに軽食やドリンクのご用意もいたしますので、クリエイター同士の交流も深まることでしょう。 さらにさらに!セミナー参加者にはRock oN渋谷店にてTouchControl5が10%OFFで購入できるクーポンコードをプレゼントいたします! 参加費は無料で、抽選で30名様限定となります。この貴重な学びと交流の場をぜひお楽しみください。 お申し込みはこちら イベント概要 日時:2024年8月30日(金) OPEN:16:30 START:17:00 場所:渋谷LUSH HUB 東京都渋谷区神南1-8-18 クオリア神南フラッツB1F ナビゲーター:染谷和孝 氏(サウンドデザイナー) 参加費:無料 定員:完全予約 30名様限定 お申込み締め切り:2024年8月23日(金)24:00 抽選結果ご連絡日:2024年8月26日(月) 主催:ビーテック株式会社 協力:LUSH HUB、ROCK ON PRO RTW TouchControl 5 TouchControl 5はDante®ベースのAoIPを利用したメータリング機能付きモニターコントローラーです。 RTWが長年培ってきた放送クオリティのモニターコントローラーで、直観的に操作できる5″のタッチスクリーンとデスクトップの貴重なスペースを無駄にしないコンパクトサイズとなっています。もちろんRTWの誇るSPLを含む正確なメータリングとビルトインされたマイクによる環境設定も可能です。 ・Dante® Audio over IPネットワークを使用したモニタリング ・SPL測定とトークバック用にマイクロフォンを搭載 ・プレミアムPPM、トゥルーピーク、VUのメーター表示 ナビゲーター:染谷和孝 氏 株式会社ソナ 制作技術部 サウンドデザイナー/リレコーディングミキサー 1963年東京生まれ。東京工学院専門学校卒業後、(株)ビクター青山スタジオ、(株)IMAGICA、(株)イメージスタジオ109、ソニーPCL株式会社を経て、2007年に(株)ダイマジックの7.1ch対応スタジオ、2014年には(株)ビー・ブルーのDolby Atmos対応スタジオの設立に参加。2020年に株式会社ソナ制作技術部に所属を移し、サウンドデザイナー/リレコーディングミキサーとして活動中。2006年よりAES(オーディオ・エンジニアリング・ソサエティー)「Audio for Games部門」のバイスチェアーを務める。また、2019年9月よりAES日本支部 広報理事を担当。 お申し込みはこちら
Music
2024/08/23

日本最大の男祭り、その熱量をコンテンツに込める〜UVERworld KING’S PARADE 男祭り REBORN at Nissan Stadium〜

昨夏、日産スタジアムにて開催された音楽ライブ「UVERworld KING’S PARADE 男祭り REBORN at Nissan Stadium」。この72,000人の観客とともに作り上げた公演を記録した映像作品が全国劇場公開された。男性のみが参加できるという日本最大の「男祭り」、劇場版の音響にはDolby Atmosが採用され、約7万人もの男性観客のみが集ったその熱狂を再現したという本作。音響制作を手がけられたWOWOW 戸田 佳宏氏、VICTOR STUDIO 八反田 亮太氏にお話を伺った。 ライブの熱狂を再現する作品を 📷右)戸田 佳宏 氏 / 株式会社WOWOW 技術センター 制作技術ユニット エンジニア 左)八反田 亮太氏 / VICTOR STUDIO レコーディングエンジニア Rock oN(以下、R):本日はお時間いただきありがとうございます。まず最初に、本作制作の概要についてお聞きしてもよろしいですか? 戸田:今回のDolby Atmos版の制作は、UVERworldさんの男祭りというこれだけの観客が入ってしかも男性だけというこのライブの熱量を表現できないか、追体験を作り出せないかというところからスタートしました。大まかな分担としては、八反田さんがステレオミックスを制作し、それを基に僕がDolby Atmosミックスを制作したという流れです。 R:ステレオとAtmosの制作については、お二人の間でコミュニケーションを取って進められたのでしょうか? 八反田:Dolby Atmosにする段階では、基本的に戸田さんにお任せしていました。戸田さんとはライブ作品をAtmosで制作するのは2度目で、前回の東京ドーム(『UVERworld KING’S PARADE 男祭り FINAL at Tokyo Dome 2019.12.20』)でも一緒に制作をしているので、その経験もあってすり合わせが大きく必要になることはありませんでした。 戸田:このライブ自体のコンセプトでもあるのですが、オーディエンス、演奏の”熱量”というところをステレオ、Atmosともに重要視していました。僕がもともとテレビ番組からミックスを始めているのもあるのかもしれないですが、会場を再現するという作り方に慣れていたので、まず会場をAtmosで再現するところから始めました。そうやって制作するとオーディエンス、会場感が大きいものになっていくので、それを八反田さんに確認していただいて、音楽としてのミックスのクオリティを高めていくという流れですね。逆にCDミックスのような質感に寄りすぎてもライブの熱量が足りなくなっていくので、その境界線を見極めながらの作業になりました。 八反田:作業している時は「もっと熱量を!」というワードが飛び交っていましたね(笑)。 戸田:Atmosミックスではアリーナ前方の位置でライブを見ている感覚をイメージしていました。ライブ会場ではこうだよな、という聴こえ方を再現するという方向ですね。映像作品なのでボーカルに寄る画もあるので、そういった場面でも成立するようなバランスを意識しました。 八反田:ステレオでこれだとドラムが大きすぎるよな、というのもAtmosでは可能なバランスだったりするので、音楽としてのバランスも込みでライブをどう聴かせたいかという理想を突き詰めた部分もあります。 日産スタジアムでのライブ収録 📷1~16がステレオミックス用、17~42がDolby Atmos用に立てられたマイク。色によって高さの階層が分けて記されており、赤がアリーナレベル、青が2Fスタンド、緑がトップ用のマイクとなっている。31~34はバックスクリーン下のスペースに立てられた。 R:収録についてはどういった座組で行われたのでしょうか? 戸田:基本はパッケージ収録用のステレオ前提でライブレコーディングチームがプランニングをされていたので、3Dオーディオ版として足りないところをWOWOWチームで追加しました。事前にステレオのチームとマイク図面の打ち合わせを行い、マイク設置位置を調整しました。録音は音声中継車で録ることができる回線数を20chほど超えてしまったので追加でレコーダーを持ち込みました。ドラムセットが3つあったのもあって、全体で150chくらい使用していますね。そのうちオーディエンスマイクだけでステレオ用で16本、Atmos用でさらに26本立てました。 R:日産スタジアムってかなり広いですよね。回線は信号変換などを行って伝送されたのですか? 戸田:アリーナレベルは、音声中継車までアナログケーブルで引きました。スタンドレベルも端子盤を使って中継車までアナログですね。足りない部分だけOTARI Lightwinderを使ってオプティカルケーブルで引くこともしました。スタジアムはとにかく距離が長いのと、基本的にはサッカーの撮影用に設計された端子盤なので、スタンド席のマイクなどは養生などをして観客の中を通さないといけないのが結構大変でした。 R:ステージのフロントに立っているマイクは観客の方を向いているんですか? 戸田:そうですね。それはステージの端から観客に向けて立てられたマイクです。レスポンスの収録用です。曲中は邪魔にならないように工夫しながらミックスしました。包まれ感には前からのオーディエンスも重要なので。 R:Atmos用に設置したマイクについては、どういった計画で設置されたのでしょうか? 戸田:Atmos用のマイクはステレオ用から足りないところ、スピーカー位置で考えるとサラウンドのサイド、リア、トップなどを埋めていくという考え方で置いていきました。 八反田:キャットウォークに置いたマイクが被りも少なく歓声がよく録れていて、お客さんに包まれる感じ、特に男の一体感を出すのに使えました。イマーシブ用マイクで収録した音源は、ステレオミックスでも使用しています。 約150chの素材によるDolby Atmos ミックス R:これだけ広い会場のアンビエンスだと、タイムアライメントが大変ではなかったですか? 戸田:そこはだいぶ調整しましたね。一番最初の作業がPAミックスと時間軸を調整したアンビエンスをミックスし、会場の雰囲気を作っていくことでした。スタジアムは一番距離があるところで100m以上離れているので、単純計算で0.3〜0.5秒音が遅れてマイクに到達します。 R:合わせる時はオーディオファイルをずらしていったのですか? 戸田:オーディエンスマイクの音を前へ(時間軸として)と調整していきました。ぴったり合うと気持ちいいというわけでもないし、単純にマイク距離に合わせればいいというわけでもないので、波形も見つつ、スピーカーとの距離を考えて経験で調整していきました。正解があったら知りたい作業でしたね。 R:空気感、スタジアム感との兼ね合いということですね。MCのシーンではスタジアムの残響感というか、声が広がっていくのを細かく聴き取ることができました。リバーブは後から足されたりしたのですか? 戸田:MCの場面ではリバーブを付け足す処理などは行なっていません。オーディエンスマイクで拾った音のタイムアライメントを調整して、ほぼそのまま会場の響きを使っています。ステージマイクに対してのリバーブは、一部AltiverbのQuadチャンネルを使っています。 R:ライブではMCからスムーズに歌唱に入るシーンも多かったと思いますが、そこの切り替えはどうされたんですか? 戸田:そこが今回の作品の難しいところでした。見る人にもMCからすっと音楽に入ってもらいたいけど、かといって急に空間が狭くなってしまうと没入感が損なわれてしまうので、会場の広さを感じながらも音楽にフォーカスしてもらえるように、MCと楽曲中のボーカルのリバーブではミックスで差をつけるなどで工夫しています。 R:なるほど。アンビエンスの音処理などはされました? 戸田:曲によってアンビ感が強すぎるものはボーカルと被る帯域を抜いたりはしています。前回の東京ドームでは意図しない音を消すこともしたのですが、今回は距離感を持ってマイクを置けたので近い音を消すことは前回ほどなかったです。 R:オブジェクトの移動は使いました? 戸田:ほぼ動かしていないですね。画や人の動きに合わせて移動もしていないです。バンドとしての音楽作品という前提があるので、そこは崩さないように気を付けています。シーケンスの音は少し動かした所があります。画がない音なので、そういうのは散らばらせても意外と違和感がないかなと感じています。 📷会場内に設置されたマイクの様子。左上はクランプで観客席の手すりに付けられたマイク。すり鉢状になっている会場の下のレイヤーを狙うイメージで立てられた。また、その右の写真は屋根裏のキャットウォークから突き出すようにクランプで設置されたトップ用マイク。天井との距離は近いが、上からの跳ね返りはあまり気にならずオーディエンスの熱気が上手く録れたという。 R:イマーシブになるとチャンネル数が増えて作業量が増えるイメージを持たれている方も多いと思うのですが、逆にイマーシブになることで楽になる部分などはあったりしますか? 戸田:空間の解像度が上がって聴いてもらいたい音が出しやすくなりますね。2chにまとめる必要が無いので。 八反田:確かにそういう意味ではステレオと方向性の違うものとしてAtmosは作っていますね。ステレオとは違うアプローチでの音の分離のさせ方ができますし、Atmosを使えば面や広い空間で鳴らす表現もできます。東京ドームの時もそういうトライはしましたが、今回はより挑戦しました。ドームは閉じた空間で残響も多いので、今回は広く開けたスタジアムとしての音作りを心がけています。 R:被りが減る分、EQワークは楽になりますよね。 戸田:空間を拡げていくと音が抜けてきますね。逆に拡がりよりも固まりが求められる場合は、コンプをかけたりもします。 R:イマーシブミックスのコンプって難しくないですか?ハードコンプになると空間や位相が歪む感じが出ますよね。 戸田:すぐにピークを突いてしまうDolby Atmosでどう音圧を稼ぐかはポイントですよね。今回はサイドチェイン用のAUXバスを使って、モノラル成分をトリガーにオブジェクト全体で同じ動きのコンプをかける工夫をしています。オーディエンスのオブジェクトを一括で叩くコンプなどですね。ベッドのトラックにはNugen Audio ISL2も使っています。 R:スピーカー本数よりマイク本数の方が多いので、間を埋めるポジションも使いつつになると思いますが、パンニングの際はファンタム定位も積極的に使われましたか? 戸田:位相干渉が出てくるのであまりファンタム定位は使わずにいきました。基本の考え方はチャンネルベースの位置に近いパンニングになっていると思います。ダビングステージで聴いた時に、スピーカー位置の関係でどうしても後ろに音が溜まってしまうので、マイクによってはスピーカー・スナップ(近傍のスピーカーにパンニングポジションを定位させる機能)を入れて音が溢れすぎないようにスッキリさせました。 Dolby Atmos Home環境とダビングステージの違い R:丁度ダビングの話が出ましたが、ダビングステージでは正面がスクリーンバックのスピーカーになっていたりとDolby Atmos Homeの環境で仕込んできたものと鳴り方が変わると思うのですが、そこは意識されましたか? 戸田:スクリーンバックというよりは、サラウンドスピーカーの角度とXカーブの影響で変わるなという印象です。東京ドームの時はXカーブをすごく意識して、全体にEQをかけたんですけど、今回違う挑戦として、オーディエンスでなるべくオブジェクトを使う手法にしてみました。とにかく高さ方向のあるものやワイドスピーカーを使いたいものはオブジェクトにしていったら、ダビングステージでもイメージに近い鳴り方をしてくれました。もちろん部屋の広さとスピーカーの位置が違うので、仕込みの時から定位を変えてバランスをとりました。 R:ダビングはスピーカー位置が全部高いですからね。 戸田:全体の定位が上がっていってしまうので、そうするとまとまりも出てこないんですよね。なのでトップに配置していた音をどんどん下げていきました。トップの位置もシネマでは完全に天井ですから、そこから鳴るとまた違和感になってしまう。スタジアムは天井が空いているので、本来観客がいない高い位置からオーディエンスが聴こえてしまうのは不自然になってしまうと考えました。 R:これだけオーディエンスがあると、オブジェクトの数が足りなくなりませんでした? 戸田:そうですね、当時の社内のシステムではオブジェクトが最大54しか使えなかったので工夫しました。サラウンドはベッドでも7chあるので、スピーカー位置の音はベッドでいいかなと。どうしても真後ろに置きたい音などにオブジェクトを使いました。楽器系もオブジェクトにするものはステムにまとめています。 R:シネマ環境のオブジェクトでは、サラウンドがアレイで鳴るかピンポイントで鳴るかという違いが特に大きいですよね。 戸田:はい。なのでオーディエンスがピンポイントで鳴るようにオブジェクトで仕込みました。ベッドを使用しアレイから音を出力すると環境によりますが、8本くらいのスピーカーが鳴ります。オーディエンスの鳴り方をオブジェクトで制御できたことで空間を作るための微調整がやりやすかったです。ただ、観客のレスポンスはベッドを使用してアレイから流すことで、他の音を含めた全体の繋がりが良くなるという発見がありました。 R:最後に、音楽ライブコンテンツとしてDolby Atmosを制作してみてどう感じていますか? 八反田:誤解を恐れずに言えば、2chがライブを“記録“として残すことに対してDolby Atmosは“体験“として残せることにとても可能性を感じています。今回は会場の再現に重きを置きましたが、逆にライブのオーディエンスとしては味わえない体験を表現することも面白そうです。 戸田:Dolby Atmosでは、音楽的に表現できる空間が広くなることで、一度に配置できる音数が増えます。こういう表現手法があることでアーティストの方のインスピレーションに繋がり、新たな制作手法が生まれると嬉しく思います。またライブ作品では、取り扱いの難しいオーディエンスも含めて、会場感を損なわずに音楽を伝えられるというのがDolby Atmos含めイマーシブオーディオの良さなのかなと考えています。 一度きりのライブのあの空間、そして体験を再び作り出すという、ライブコンテンツフォーマットとしてのDolby Atmosのパワーを本作からは強く感じた。72,000人の男性のみという特殊なライブ会場。その熱量をコンテンツに込めるという取り組みは、様々な工夫により作品にしっかりと結実していた。やはり会場の空気感=熱量を捉えるためには、多数のアンビエントマイクによる空間のキャプチャーが重要であり、これは事前のマイクプランから始まることだということを改めて考えさせられた。イマーシブオーディオの制作数も徐々に増えている昨今、制作現場ではプロジェクト毎に実験と挑戦が積み上げられている。過渡期にあるイマーシブコンテンツ制作の潮流の中、自らの表現手法、明日の定石も同じように蓄積されているようだ。 UVERworld KING’S PARADE 男祭り REBORN at Nissan Stadium 出演:UVERworld   製作:Sony Music Labels Inc.    配給:WOWOW ©Sony Music Labels Inc.    *ProceedMagazine2024号より転載
NEWS
2024/08/22

【店頭視聴も!】musikから最小サイズの同軸2way「MO-1 MK.II」が登場!

同軸モニタースピーカーを代表するメーカーであるドイツのmusikelectronic geithainから、待望の新製品が発売となります! MO-1 MK.IIは前作MO-1の意志を引き継ぎmusikラインナップで最小サイズのモニタースピーカーです。中継車のために開発されたという前モデルから再設計が施され、新たにDSPチップを搭載。さらにオプションでDante/AES67対応も可能になっています! 高さ約22cm、横幅約15cmというサイズは限られたスペースでの利用はもちろん、同軸の持つ抜群の定位感を活かしたイマーシブ、サラウンド用スピーカーとしても間違いなく活躍してくれるでしょう。 来週より、日本で唯一の実機展示をRock oN渋谷店/梅田店で実施予定! 最小サイズから繰り出されるmusikサウンドを店頭でぜひご体験ください! Rock oN Shibuya 東京都渋谷区神南1-8-18 クオリア神南フラッツ1F Rock oN Umeda 8/20よりリニューアルプレオープン!詳しくはコチラ 大阪府大阪市北区芝田 1 丁目 4-14 芝田町ビル 6F 機能紹介 ~小型ながらも多機能な1本~ 多くのスタジオで導入されてきた信頼のあるmusik製品群の中でエントリークラスに位置する本機。musikの特徴である同軸設計による定位感の良さ、奥行きの表現力や圧倒的な解像度は業界内でも定評です。 今回新たにユーザー設定可能なDSPが搭載され、数種類のフィルタープリセットやディレイタイムの調整が可能に。なんとオプションによりDante/AES67での接続にも対応するため、マルチチャンネルのシステムもEthernetケーブルでシンプルに構築ができるのは大きなポイント。 2つのXLR入力からはモノダウンミックスが可能な他、PWM方式を採用した内蔵アンプ、高効率なスイッチング電源など、小さな筐体に多くの機能と拡張性が詰め込まれた注目の製品となっています。 製品概要 musikelectronic / MO-1 MK.II ¥660,000(税込) Rock oN eStoreで購入>> アクティブ同軸2ウェイスピーカー 最大音圧レベル:108dB r = 1 m 周波数特性:50Hz~22kHz ±3dB 歪率(83dB/r=1m):-40dB クロスオーバー周波数:3.5kHz 内蔵パワーアンプ出力:95W / 4Ω(低域)、95W / 4Ω(高域) 入力コネクター:XLR 3F アナログ、RJ45 Dante/AES67 (オプション) ユニット構成:低域 100mm コーン、高域 19mm ドームツィーター 消費電力:7VA (アイドル時)、80VA(フルロード時) キャビネット材質:MDF キャビネット仕上:ブラック or セミグロスホワイト 寸法:214 H x 147 W x 192 D mm 重量:3.5 kg musikelectronic久々の新モデルとなるMO-1 MK.IIは、現代のスタジオニーズを意識した広い可能性を持つプロダクトではないでしょうか!ご自宅のスタジオ環境をグレードアップさせる1本としても是非ご検討ください!導入のご相談はROCK ON PROまで。
Music
2024/08/20

「ライブを超えたライブ体験」の実現に向けて〜FUKUYAMA MASAHARU LIVE FILM 言霊の幸わう夏〜

今年1月、アーティスト・福山雅治による初監督作品 『FUKUYAMA MASAHARU LIVE FILM 言霊の幸わう夏 @NIPPON BUDOKAN 2023』が公開された。昨年夏に開催された武道館公演を収録した本作は、ドローン撮影による映像やDolby Atmosが採り入れられ、福山本人による監修のもと “ライブを超えたライブ” 体験と銘打たれた作品となっている。今回は特別に、本作の音響制作陣である染谷 和孝氏、三浦 瑞生氏、嶋田 美穂氏にお越しいただき、本作における音響制作についてお話を伺うことができた。 📷 左)三浦 瑞生氏:株式会社ミキサーズラボ 代表取締役社長 レコーディング、ミキシングエンジニア 中)嶋田 美穂氏:株式会社ヒューマックスエンタテインメント ポストプロダクション事業部 リレコーディングミキサー マネジャー 右)染谷 和孝氏:株式会社ソナ 制作技術部 サウンドデザイナー/リレコーディングミキサー ”理想のライブの音”に至るまで Rock oN(以下、R):まずは、今回の企画の経緯について聞かせていただけますか? 染谷:私はこれまで嵐、三代目 J Soul Brothers(以下JSB3)のライブフィルム作品のAtmos ミックスを担当させていただきました。嶋田さんとは前作のJSB3からご一緒させていただいていて、その二作目ということになります。嶋田さんとのお話の中で、私たちが一番注意していたことは、音楽エンジニアの方とのチームワークの構築でした。三浦さんは長年福山さんの音楽を支えてこられた日本を代表するエンジニアさんであり、すでにチーム福山としての完成されたビジョンやチームワークはできあがっています。そこに我々がどのように参加させていただくかを特に慎重に考えました。Atmos制作内容以前に、チームメンバーとしての信頼を得るというのはとても大切な部分です。その配慮を間違えると「作品の最終着地点が変わるな」と感じていましたので、最初に三浦さんにAtmosで制作する上でどういうことができるのか、いくつかのご説明と方向性をご相談させていただきました。そして最終的に、三浦さんと福山さんの中でステレオミックスをまず制作していただいて、その揺るぎない骨子をAtmosミックスに拡張していく方向で制作を進めていくことに決まりました。 R:Atmosで収録した作品として今作で特徴的なのが、ライブの再現ではなく、“ライブを超えたライブ体験”というコンセプトを大事にされていますが、その方向性というのも話し合う中で決まっていったのですか? 染谷:収録が終わり、まず三浦さんがステレオミックスをされて、その後何曲かAtmosミックスを行い、福山さんにお聴かせする機会がありました。そこで福山さんが、オーディエンス(歓声)のバランスを自分の手で調整しながらAtmosの感覚、できることを探っていかれる時間がありました。 嶋田:そこで、閃かれた瞬間がありましたよね。 染谷:武道館特有の上から降ってくるような歓声やセンターステージに立っている福山さんでしか感じられない雰囲気をこのDolby Atmosなら“お客さんに体感・体験していただくことができる“と確信されたんだと思います。その後の作業でも、福山さんの「追体験じゃないんですよ」という言葉がすごく印象に残っています。まさにステージ上での実体験として感じていただくこと、それが私たちのミッションだったわけです。 R:では録音の段階ではどのような構想で進められていたのですか? 染谷:収録段階では、2階、3階と高さ方向での空間的なレイヤーをキャプチャーしたいと考えていました。 嶋田:最終的にオーディエンスマイクは合計で28本になりましたね。PAの前にも立ててみたりはしたのですが、音を聴くと微妙に位相干渉していたので結局は使っていません。 三浦:基本のステレオミックス用がまず20本あって、そこに染谷さんがAtmos用に8本足されました。基本的には、PAスピーカーの指向性からなるべく外れたところから、お客さんの声や拍手を主に狙うように設置しています。 R:オーディエンスの音源の配置は、基本マイク位置をイメージして置かれていますか? 染谷:そうですね。上下で100段階あるとしたら、2階は40、3階は90~100くらいに置いてレイヤー感を出しています。上から降りそそぐ歓声を表現するには、上、下の二段階ではなく、これまでの経験から中間を設けて階層的に降ろしていった方が結果的に良かったので、今回はこのように配置しました。 R:福山さんが向く方向、映像の画角によってアンビエントのバランス感は変えたのですか? 染谷:そこは変えていないです。それをすると音楽との相関関係から音像が崩れていくので、基本的にオーディエンスは一回決めたらあまり動かさない方が良いように思います。楽器の位置なども基本は、三浦さんと福山さんが決められたステレオ音源の位置関係を基準にしてAtmos的な修正をしています。 Atmosミックスのための下準備とは R:収録後はどういった調整をされたのでしょうか? 染谷:録った音をシンプルにAtmosで並べると、当然位相干渉を起こしていますので、タイムアライメント作業で修正を行います。具体的な方法としてはAtmosレンダラーでステレオと9.1.4chを何度も切り替えながらディレイを使用してms単位での補正を行います。レンダラーでステレオにしたときに正しくコントロールできていない場合は、確実に位相干渉するので判断できます。また、嶋田さんのコメントの通り、会場の反射で位相干渉した音が録れている場合もありますから、マイクの選定なども含めて進めていきました。 R:ディレイということは遅らせていく方で調整されたのですか。 染谷:今回はそうですね。ドームなどの広い会場だったら早めていると思うのですが、武道館では遅らせていった方がいい結果が得られました。早めていくと空間が狭くなっていくので、だんだん武道館らしさがなくなり、タイトな方向になってしまうんです。ですので、よりリアルに感じていただけるよう、疑似的に武道館の空間を創りだしています。実際にはセンターステージの真ん中のマイクを基準にして、他のマイクがどのように聴こえてくるかを考えながらディレイ値を導き出していきました。 R:逆にステレオだとオーディエンスを後ろにずらしての調整とかは難しいと思いますがどうでした? 三浦:オーディエンスマイクの時間軸の位置はそのままで、音量バランスで調整しています。フロントマイクをメインにして、お客さんの声の近さなどからバランスをとりました。やっぱり一番気になるのは、ボーカルの声がオーディエンスマイクを上げることで滲まないように、そこは色々な方法で処理しています。 R:Atmos用に追加したマイクはステレオでも使われましたか? 三浦:使っています。Atmosとステレオである程度共通した雰囲気を作る方がいいのかなと思って。スピーカーの数が変わる以上は聴こえ方も変わるのは分かっていましたが、福山さんとの作業の中でステレオ、Atmosで共通のイメージを固めておかないといけないと思ったのもありますし、会場の雰囲気を伝えることでできる音も含まれていましたので。 染谷:三浦さんがステレオの制作をされている間、嶋田さんと私はひたすらiZotope RXを使った収録済みオーディエンス素材のノイズ除去、レストレーション作業の日々でしたね。 嶋田:トータル 3、4ヶ月くらいしてましたよね。 R:RXはある程度まとめてマルチトラックモードでの処理も使われました? 嶋田:これがすごく難しいんですけど、28トラック分まとめて処理する場合も、1トラックずつ処理する場合もあります。私はノイズの種類によって使い方を変えました。例えばお客さんの咳を消したい場合、一番近いマイクだけでなくすべてのマイクに入っているので、綺麗に消したくなりますよね。でもすべて消すと空間のニュアンスまで無くなってしまうので、そのバランスは悩みました。近すぎる拍手なども全部消すのか、薄くするのかの判断は、喝采の拍手なのか、しっとりとした拍手なのかという拍手のニュアンス込みで考えたりもしましたね。 染谷:消せば良いってものでもないんですよ。音に味が無くなるというか。拍手を取る時はDe-Clickを使いますが、Sensitivityをどこの値にもってくるか最初の初期設定が大事です。 R:その設定はお二人で共有されていたんですか? 嶋田:最初に染谷さんがノイズの種類に合わせて大体の値を設定していただいて、そこから微調整しながら進めました。 染谷:作業が進んでいくとだんだんその値から変わっていきますけどね(笑)。リハの時に録っておいたベースノイズをサンプルにして全体にレストレーションをかけることもしています。武道館の空調ノイズって結構大きいんですよ。でもSpectral De-Noiseを若干かけるくらいです。やっぱり抜きすぎてもダメなんです。抜かないのもダメですけど、そこはうまくコントロールする必要があります。 染谷:基本的にクラップなどの素材も音楽チームの方で作っていただいて、とても助かりました。 三浦:ステレオミックスの仕込みの段階で福山さんとミックスの方向性の確認をした際に、通常はオーディエンスのレベルを演奏中は低めにして、演奏後はかなり上げるというようにメリハリをつけていますが、今回は曲中もお客さんのハンドクラップ(手拍子)がしっかり聴こえるくらいレベルを上げ目にしてくれというリクエストがありました。「これは記録フィルムではなくエンターテイメントだから」ということも仰っていたので、ライブ中の他の場所から良いハンドクラップの素材を抜き出し、違和感がない程度にそれを足して音を厚くするなどのお化粧も加えています。 📷三浦氏が用意したAtmos用ステムは合計111トラックに及ぶ。28chをひと固まりとしたオーディエンスは、素材間の繋ぎやバランスを考慮した嶋田氏の細かな編集により何重にも重ねられた。時にはPCモニターに入りきらない量のトラックを一括で操作することもあるため、タイムライン上での素材管理は特に気を張る作業であったという。高解像度なAtmosに合わせたiZotope RXによる修正も、作業全体を通して取り組まれた。 R:その他に足された音源などはありますか? 三浦:シーケンスデータですね。ライブでは打ち込みのリズムトラック、ストリングスなどのシーケンスの音はある程度まとまって扱われます。それはライブPAで扱いやすいように設計されているからなのですが、映画やパッケージの制作ではもう少し細かく分割されたデータを使って楽曲ごとに音色を差別化したくなるので、スタジオ音源(CDトラックに収録されているもの)を制作した際の、シーケンスデータを使用しました。なのでトラック数は膨大な数になっています(笑)。 嶋田:480トラックくらい使われていますよね!Atmos用に持ってきていただいた時には111ステムくらいにまとめてくださりました。 三浦:楽曲ごとにキックの音作りなども変えたくなるので、するとどんどんトラック数は増えていってしまいますよね。作業は大変だけど、その方が良いものになるかなと。今回はAtmosということでオーディエンスも全部分けて仕込んだので、後々少し足したい時にPro Toolsのボイスが足りなくなったんですよ。オーディオだけで1TB以上あるので、弊社のシステムではワークに収まりきらず、SSDから直の読み書きで作業しました。Atmosは初めてのことだったので、これも貴重な体験だったなと思っています。 染谷:本当に想像以上にものすごい数の音が入っているんですよ。 嶋田:相当集中して聴かないと入っているかわからない音もあるんですが、その音をミュートして聴いてみると、やはり楽曲が成立しなくなるんです。そういった大切な音が数多くありました。 R:ステムをやり取りされる中で、データを受け渡す際の要望などはあったのですか? 染谷:僕からお願いしたのは、三浦さんの分けやすいようにということだけです。後から聞くと、後々の修正のことも考えて分けてくださっていたとのことでした。ありがとうございます。 三浦:ステレオではOKが出たとしても、環境が変わってAtmosになれば聴こえ方も変わるだろうというのがあったので、主要な音はできるだけ分けました。その方が後からの修正も対応できるかなと思って、シーケンスデータもいくつかに分けたり、リバーブと元音は分けてお渡ししましたよね。想定通り、Atmosになってからの修正も発生したので、分けておいてよかったなと思っています。 嶋田:その際はすごく助かりました。特に、オーディエンスマイクもまとめることなく28本分を個別で渡してくださったので、MAの段階ですぐに定位が反映できたはとてもありがたかったです。 チームで取り組むDolby Atmos制作 染谷:今回は三浦さんが音楽を担当されて、僕と嶋田さんでAtmosまわりを担当したんですけど、チームの役割分担がすごく明確になっているからこそできたことが沢山ありました。そのなかの一つとして、編集された映像に対して膨大な音素材を嶋田さんが並べ替えて、ミックスができる状態にしてくれる安心感というのはすごく大きかったです。今回、嶋田さんには、大きく2つのお願いをしました。①映像に合わせてのステム管理、使うトラックの選定、とても重要な基本となるAtmosミックス、②足りないオーディエンスを付け足すという作業をしてもらいました。何度も言っちゃいますが、すごいトラック数なので並べるのも大変だったと思います。 三浦:こちらからお渡ししたのはライブ本編まるまる一本分の素材なので、そこから映画の尺、映像に合わせての調整をしていただきました。 嶋田:映像編集の段階で一曲ずつ絶妙な曲間にするための尺調整や曲順の入れ替えがあったり、エディットポイントが多めで、いつもより時間をかけた記憶があります。特に普段のMAでは扱わないこのトラック数を一括で動かすとなると、本当に神経を使う作業になるんですよ。修正素材を張り込む時にも、一旦別のタイムラインに置いて、他のオーディオファイルと一緒に映像のタイムラインに置いたりと、とにかくズレないように工夫をしていました。 R:Atmosで広げるといってもLCRを中心に作られていたなと拝見して感じているんですけれど、やはり映画館ではセンタースピーカーを基本に、スクリーンバックでの音が中心になりますか。 嶋田:映像作品なので、正面のメインステージの楽器の配置、三浦さんのステレオのイメージを崩さないバランスで置きました。空間を作るのはオーディエンスマイクを軸にしています。さらに立体感を出すためにギターを少し後ろに置いてみたりもしました。ボーカルはセンター固定です。しっかりと聴かせたいボーカルをレスポンス良く出すために、LRにこぼすなどはせずに勝負しました。なんですが、、、ラスト2曲はセンターステージの特別感を出すために中央に近い定位に変えています。 染谷:福山さんからの定位に関するリクエスト多くありましたね。印象的な部分では今さんのギターを回したり、SaxやStringsの定位、コーラスの定位はここに置いて欲しい、など曲ごとの細かな指定がありました。 R:ベッドとオブジェクトの使い分けについてはどう設計されました? 嶋田:基本的には楽器はベッド、オーディエンスをオブジェクトにしました。それでもすべてのオーディエンスマイクをオブジェクトにするとオブジェクト数がすぐオーバーするので、その選定はだいぶ計算しました。 染谷:やっぱりどうしてもオブジェクトの数は足りなくなります。 Auxトラックを使用して、オブジェクトトラックに送り込む方法もありますけど、映像の変更が最後まであったり、それに伴うオーディエンスの追加が多くなると、EQを個別に変えたりなどの対応がとても複雑になります。瞬時の判断が求められる作業では、脳内で整理しながら一旦AUXにまとめてレンダラーへ送っている余裕は無くなってきます。やはり1対1の方が即時の対応はしやすかったです。今考えているのは、ベッドってどこまでの移動感を表現できるのか?ということです。先ほどギターを回したと言いましたが、それも実はベッドなんです。ベッドだとアレイで鳴るので、どこの位置で回すかということは考えないといけませんでしたが、最終的に上下のファンタム音像を作って回してあげるとHomeでもCinemaでもある程度の上下感を保って回ってくれることが分かりました。絶対に高さ方向に動くものはすべてオブジェクトじゃなきゃダメ!という固定概念を疑ってみようかなと思って挑戦してみたんですけど。嶋田さんはどのように感じましたか? 嶋田:こんなにベッドで動くんだ、というのが素直な感想です。私も動くものや高さを出すものはオブジェクトじゃないと、という気持ちがずっとあったんですけど、今のオブジェクト数の制約の中ではこういった工夫をしていかないといけないなと思っています。 📷Dolby Atmos Home環境でのプリミックスは、Atmosミックスを担当したお二人が在籍するヒューマックスエンタテインメント、SONAのスタジオが使用された。劇場公開作品でもHome環境を上手に活用することは、制作に伴う時間的・金銭的な問題への重要なアプローチとなりえる。その為には、スピーカーの選定やモニターシステムの調整などCinema環境を意識したHome環境の構築が肝心だ。なお、ファイナルミックスは本編が東映のダビングステージ、予告編がグロービジョンにて行われた。 シネマ環境を意識したプリミックス 染谷:今回、ダビングステージを何ヶ月も拘束することはできないので、Dolby Atmos Home環境でダビングのプリミックスを行いました。Homeのスタジオが増えてきていますが、Homeで完結しない場合もこれから多く出てくると思うので、今回はこういった制作スタイルにトライしてみようと考えました。 嶋田:Homeでのプリミックスでまず気をつけなければならないのが、モニターレベルの設定です。映画館で欲しい音圧感が、普段作業している79dBCでは足りないなと感じたので、Homeから82dBCで作業していました。 染谷:最終確認は85dBCでモニターするべきなんですが、作業では82dBCくらいが良いと感じています、スピーカーとの距離が近いスタジオ環境では85dBCだと圧迫感があって長時間の作業が厳しくなってしまいます。 嶋田:ダビングステージでは空間の空気層が違う(スピーカーとの距離が違う)ので、ダビングステージの音質感や、リバーブのかかり方をHomeでもイメージしながら作業しました。またダビングステージは間接音が多く、Homeでは少し近すぎるかなというクラップも、ダビングステージにいけばもう少し馴染むから大丈夫だとサバ読みしながらの作業です。 染谷:Dolby Atmos Cinemaの制作経験がある我々は、ある程度その変化のイメージが持てますが、慣れていない方はHomeとの違いにものすごくショックを受けられる方も多いと聞いています。三浦さんはどうでした? 三浦:やはり空間が大きいなと、その点ではより武道館のイメージにより近くなるなとは感じましたね。 R:ダビングではどう鳴るか分かって作業しているかが本当に大事ですよね。やはりダビングは、映画館と同等の広さの部屋になりますからね。 染谷:直接音と間接音の比率、スピーカーの距離が全然違いますからね。制作される際はそういったことを含めて、きちんと考えていかないといけません。 嶋田:今回Homeからダビングステージに入ってのイコライジング修正もほぼなかったですね。 染谷:ダビング、試写室、劇場といろんな場所によっても音は変わるんだなというのは思います。どれが本当なんだろうなと思いながらも、現状では80点とれていればいいのかなと思うことにしています。 R:それは映画関係の方々よく仰ってます。ある程度割り切っていかないとやりようがないですよね。三浦さんは今回初めてAtmosの制作を経験されましたが、またやりたいと思われます? 三浦:このチームでなら! 染谷・嶋田:ありがとうございます(笑)。 三浦:染谷さん、嶋田さんには、客席のオーディエンスマイクのレベルを上げると、被っている楽器の音まであがっちゃうんですが、そういう音も綺麗に取っていただいて。 染谷:でも、その基本となる三浦さんのステムの音がめちゃくちゃに良かったです。 嶋田:聴いた瞬間に大丈夫だと思いましたもんね。もう私たちはこれに寄り添っていけばいいんだと思いました。 染谷:今回は特に皆さんのご協力のもと素晴らしいチームワークから素敵な作品が完成しました。短い時間ではありましたが、三浦さんのご尽力で私たち3名のチーム力も発揮できたと感じています。プロフェッショナルな方達と一緒に仕事をするのは楽しいですね。 三浦:そういった話で言うと、最後ダビングステージの最終チェックに伺った際、より音がスッキリと良くなっていると感じたんです。なぜか聞いたらクロックを吟味され変えられたとのことで、最後まで音を良くするために試行錯誤されるこの方達と一緒にやれて良かったなと感じています。 染谷:その部分はずっと嶋田さんと悩んでいた部分でした。DCPのフレームレートは24fpsですが、実際の収録や音響制作は23.976fpsの方が進めやすいです。しかし最終的に24fpsにしなくてはいけない。そこでPro Toolsのセッションを24fpsに変換してトラックインポートかけると、劇的に音が変わってしまう。さらにDCP用Atmosマスター制作時、.rplファイルからMXFファイル(シネマ用プリントマスターファイル)に変換する際にも音が変わってしまうんです。 この2つの関門をどう乗り越えるかは以前からすごく悩んでいました。今回はそれを克服する方法にチャレンジし、ある程度の合格点まで達成できたと感じています。どうしたかというと、今回はSRC(=Sample Rate Convertor)を使いました。Pro Toolsのセッションは23.976fpsのまま、SRCで24fpsに変換してシネマ用のAtmosファイルを作成したところ、三浦さんに聴いていただいたスッキリした音になったんです!今後もこの方法を採用していきたいですね。 R:SRCといっても色々とあると思うのですが、どのメーカーの製品を使われたんですか? 嶋田:Avid MTRXの中で、MADI to MADIでSRCしました。以前から24fpsに変換するタイミングでこんなに音が変わってしまうんだとショックを受けていたんですが、今回で解決策が見つかって良かったです。 染谷:MXFファイルにしたら音が変わる問題も実は解決して、結局シネマサーバーを一度再起動したら改善されました。普段はあまり再起動しない機器らしいので、一回リフレッシュさせてあげるのは特にデジタル機器では大きな意味がありますね。こういった細かなノウハウをみんなで情報共有して、より苦労が減るようになってくれればと願っています。 R:この手の情報は、日々現場で作業をされている方ならではです。今日は、Atmos制作に関わる大変重要なポイントをついたお話を沢山お聞きすることができました。ありがとうございました。 📷本作を題材に特別上映会・トークセッションも今年頭に開催された。 本作はアーティストの脳内にある“ライブの理想像”を追求したことで、Dolby Atmosによるライブ表現の新たな可能性が切り拓かれた作品に仕上がっている。音に関しても、アーティストが、ステージで聴いている音を再現するという、新しい試みだ。それは、アーティストと制作チームがコミュニケーションを通じて共通のビジョンを持ち制作が進められたことで実現された。修正やダビングといったあらゆる工程を見越した上でのワークフローデザインは、作業効率はもちろん最終的なクオリティにも直結するということが、今回のインタビューを通して伝わってきた。入念な準備を行い、マイクアレンジを煮詰めることの重要性を改めて実感する。そして何より、より良い作品作りにはより良いチーム作りからという本制作陣の姿勢は、イマーシブ制作に関係なく大いに参考となるだろう。 FUKUYAMA MASAHARU LIVE FILM言霊の幸わう夏@NIPPON BUDOKAN 2023 監督:福山雅治 出演:福山雅治、柊木陽太 配給:松竹 製作:アミューズ ©︎2024 Amuse Inc.   *ProceedMagazine2024号より転載
Music
2024/08/16

Xylomania Studio「Studio 2」様 / 11.2.6.4イマーシブによる”空間の再現”

スタジオでのレコーディング / ミキシングだけでなく、ライブ音源、映画主題歌、ミュージカルなど多くの作品を手掛ける古賀 健一 氏。音楽分野におけるマルチチャンネル・サラウンド制作の先駆者であり、2020年末には自身のスタジオ「Xylomania Studio」(シロマニアスタジオ)を手作りで9.4.4.5スピーカー・システムへとアップデートしたことも記憶に新しいが、そのXylomania Studioで2部屋目のイマーシブ・オーディオ対応スタジオとなる「Studio 2」がオープンした。11.2.6.4という、スタジオとしては国内最大級のスピーカー・システムが導入され、Dolby Atmos、Sony 360 Reality Audio、5.1 Surround、ステレオといったあらゆる音声制作フォーマットに対応するだけでなく、立体音響の作曲やイマーシブ・コンサートの仕込みも可能。さらに、120inchスクリーンと8Kプロジェクタも設置されており、ポストプロダクションにも対応できるなど、どのような分野の作業にも活用できることを念頭に構築されている。この超ハイスペック・イマーシブ・レンタル・スタジオについて、オープンまでの経緯やそのコンセプトについてお話を伺った。 Beatlesの時代にイマーシブ表現があったら Xylomania Studio 古賀 健一 氏 Official髭男dismのApple Music空間オーディオ制作や第28回 日本プロ音楽録音賞 Immersive部門 最優秀賞の受賞など、名実ともに国内イマーシブ音楽制作の最前線を走る古賀 健一 氏。その活躍の場はコンサートライブや映画主題歌など多岐に渡り、自身の経験をスタジオ作りのコンサルティングなどを通してより多くのエンジニアやアーティストと共有する活動も行っている。 まさにイマーシブの伝道師とも呼べる古賀氏だが、音の空間表現に関心を持ったのはDolby Atmosが生まれるよりもはるか以前、彼の学生時代にまで遡るという。「現場ではたくさんの楽器、たくさんの音が鳴っているのに、それを表現する手段がステレオしかないということにずっと疑問を持っていた」という古賀氏だが、学生時代に出会ったSACDではじめて5.1サラウンドを体験して衝撃を受ける。 「これこそが、音楽表現のあるべき姿だ」と感じた古賀氏だが、「当時はPro Tools LEにサラウンドオプションを追加するお金もなかった」という中で工夫を重ねて再生システムを構築し、5.1サラウンド作品をひたすら聴いていたという。古賀氏といえば、自身のスタジオであるXylomania StudioをDIYでイマーシブ対応に改修し、その様子をサウンド&レコーディング・マガジン誌上で連載していたこともあるが、彼の飽くなき探究心とDIY精神はすでにこのころから備わっていたようだ。 その後も独自に空間表現を探究していた古賀氏だが、Dolby Atmosの登場によって、「これなら、もっと自由でもっと手軽に、音楽表現を追求できるんじゃないか」と感じたことで自身のスタジオをイマーシブ・オーディオ対応へと改修することを決める。しかし、「当初は5.1.4、なんなら、5.1.2で十分だと考えてました。そうしたら、Netflixが出したガイドラインが7.1.4となっていて、個人で用意できる予算では無理だと悟った」ことで、法人としてのXylomania Studioを設立することを決意したのだという。それから最初のスタジオができるまでについては、サンレコ誌への連載が今でもWEBで読めるので、ぜひそちらをご覧いただきたい。 Xylomania Studioがイマーシブ制作に対応したのが2020年12月。それから3年の時を経て、同社ふたつ目のイマーシブ・スタジオがオープンした理由や、この間に古賀氏自身の心境、イマーシブ・オーディオを取り巻く環境に変化はあったのだろうか。「ぼく自身のことを言えば、イマーシブへの関心はますます深まるばかりです。探究したいことはどんどん出てくる。周囲の環境については、やはりApple Musicの”空間オーディオ”の影響は大きいです。それ以前と比べると、関心を持ってくれるひとは確実に増えた。もともと、ぼくはお金になるかどうかは考えて動かないんです。Xylomania Studioも、ただ自分が探究したいという思いだけで作ったものだったので、成功する目論見なんてなかった。それが、ビジネスとしてきちんと成立するところまでたどり着けたことについては、仲間たちと”神風が吹いたね”なんて言っています」という。 今回オープンしたXylomania Studio「Studio 2」の計画がはじまったのは2022年夏。より多くの人にイマーシブ表現の可能性を体験してほしいと考えた古賀氏が、イマーシブ・スタジオの外部貸出を検討したことがスタートとなっている。 音楽ジャンルによってはイマーシブ表現が合わないものもある、という意見もあるが、これに対して古賀氏の「モノにはモノの、ステレオにはステレオのよさがあるのは確か。でも、ぼくは”イマーシブが合わないジャンル”なんてないと思ってます。だって、もしBeatlesの時代にイマーシブ表現があったら、彼らは絶対にやってたと思いませんか?」という言葉には、思わず深く頷いてしまった。「ふたつ目のスタジオを作ろうという気持ちになれたのも、空間オーディオによってイマーシブ制作がビジネスの軌道に乗ることができたからこそ。」という古賀氏。そうした仕事を通して関わったひとたちへの恩返しのためにも、国内のイマーシブ・シーンを盛り上げるようなアクションを積極的に取っていきたいという気持ちがあるようだ。 当初はStudio 1を貸出し、その間に自身が作業をおこなうための部屋を作ろうとしていたようだが、さまざまな紆余曲折を経て、結果的にはStudio 1をも超える、国内最高峰のイマーシブ・レンタル・スタジオが完成した。誌面で語り尽くせぬ豊富なエピソードとともに、以下、Xylomania Studio「Studio 2」のシステムを見ていきたい。 11.2.6.4イマーシブによる”空間の再現” 📷「Studio 2」はサイドの壁面色違いの箇所にインウォールでスピーカーを設置、この解決策により窮屈感はまったくなく、実際よりも広々とした居心地を実現した。肝心のサウンドについても映画館をはるかに超える音響空間を創出している。 11.2.6.4インウォール・スピーカー・システムによるイマーシブ再生環境、Danteを駆使したネットワーク伝送、ハイクオリティなブースとしての機能、大型スクリーンと8Kプロジェクタなど、Xylomania Studio「Studio 2」のトピックは枚挙にいとまがないが、このスタジオの最大の特徴は”限りなく本番環境に近い音場を提供できること”である。Studio 2の先鋭的かつ挑戦的なスペックのすべては、スタジオの中でどれだけ作品の最終形に近い響きを提供できるか、という目的に集約されているからだ。 古賀氏は「自分のスタジオでこう鳴っていれば例えばダビングステージではこういう音になるだろう、ということを想像することはできます。でも、その差を常に想像しながら作業を続けることはすごいストレス。仕込んだ音を現場で鳴らした時に、スタジオで意図した通りに鳴るような、本当の意味での”仕込み”ができる部屋を作りたかった」ということのようだ。「この部屋でミックスしたものをそのままライブに持ち込める、ダビングステージで作業したミックスを持ち込めばそのままここで配信用のマスターが作れる、そんなスタジオにしたかった。」 この、言わば音が響く空間を再現するというコンセプトを可能にしているのは、まぎれもなく11.2.6.4イマーシブ・システムだ。Studio 2のスピーカー配置は一般的なDolby Atmosレイアウトをもとに、サイド・リアとハイトは左右に3本ずつのスピーカーを持ち、それによって映画館やダビングステージのアレイ再生やディフューズ・サラウンド音場を再現している点が大きな特徴。実は、Studio 2の再生環境はその計画の途中まで既存のStudio 1と同じ9.2.6.4のシステムを組む方向で進んでいたのだという。しかし、古賀氏のある経験がきっかけで今の11.2.6.4へと拡張されることになったようだ。「ある映画主題歌の仕事でダビングステージを訪れた時、リア方向に振った音が思っていたより後方まで回り込んだんです。今までのニアフィールドの環境で映画作品の最終形をイメージすることには限界があると感じ、アレイ再生ができる環境を作るために急遽スピーカーを2本追加することにしました。」 📷フロントLCRに採用されたci140。センターとLRの間がサブウーファーのci140sub。 その11.2.6.4イマーシブ・システムを構成するスピーカーは、すべてPCMのインウォール・モデルである「ciシリーズ」。フロントLCR:ci140、ワイド&サラウンド:ci65、ハイト:ci45、ボトム:ci30、SW:ci140sub となっており、2台のサブウーファーはセンター・スピーカーとワイド・スピーカーの間に配置されている。 スピーカーをインウォール中心にするというアイデアも、計画を進める中で生まれたものだという。先述の通り、当初は今のStudio 1を貸出している間に自身が作業をおこなうための部屋を作ろうとしていたため、もともとレコーディング・ブースとして使用していたスペースに、スタンド立てのコンパクトなイマーシブ再生システムを導入しようと考えていたという。だが、スピーカーをスタンドで立ててしまうとブースとして使用するには狭くなりすぎてしまう。ブースとしての機能は削れないため、”もっとコンパクトなシステムにしなければ”という課題に対して古賀氏が辿り着いた結論が、以前にコンサルティングを請け負ったスタジオに導入した、”インウォール・スピーカー”にヒントを得たようだった。システムを小さくするのではなく、逆に大きくしてしまうことで解決するという発想には脱帽だ。 モデルの決定にはメーカーの提案が強く影響しているとのことだが、「ci140は国内にデモ機がなかったので、聴かずに決めました(笑)」というから驚きだ。古賀氏は「チームとして関わってくれる姿勢が何よりも大事。こういう縁は大切にしたいんです」といい、その気概に応えるように、PMCはその後のDolby本社との長いやりとりなどにおいて尽力してくれたという。 📷上左)サラウンドチャンネルをアレイ再生にすることで、映画館と同じディフューズ・サラウンドを再現することを可能にしている。上右)サイド/ワイド/リアはci65。後から角度を微調整できるように固定されておらず、インシュレーターに乗せているだけだという。下左)ハイト・スピーカーはci45。下右)ボトム・スピーカーを設置しているため、Dolby Atmosだけではなく、Sony 360 Reality Audioなどの下方向に音響空間を持つイマーシブ制作にも対応可能。「ボトムはリアにもあった方がよい」という古賀氏の判断で、フロント/リアそれぞれに2本ずつのci30が置かれている。 最後まで追い込んだアコースティック Studio 2が再現できるのは、もちろん映画館の音響空間だけではない。マシンルームに置かれたメインのMac Studioとは別に、Flux:: Spat Revolution Ultimate WFS Add-on optionがインストールされたM1 Mac miniが置かれており、リバーブの処理などを専用で行わせることができる。このSpat Revolution Ultimateに備わっているリバーブエンジンを使用して、Studio 2ではさまざまな音響空間を再現することが可能だ。必要に応じて、波面合成によるさらなるリアリティの追求もできるようになっている。 古賀氏が特に意識しているのは、コンサートライブ空間の再現。「このスタジオを使えば、イマーシブ・コンサートの本番環境とほとんど変わらない音場でシーケンスの仕込みができます。PAエンジニアはもとより、若手の作曲家などにもどんどん活用してほしい。」というが、一方で「ひとつ後悔しているのは、センターに埋め込んだサブウーファーもci140にしておけば、フロンタルファイブのライブと同じ環境にできたこと。それに気付いても、時すでに遅しでしたけど」と言って笑っていた。常に理想を追求する姿勢が、実に古賀氏らしい。 📷Flux:: Spat Revolution Ultimate WFS Add-on option さらに、Spat Revolution UltimateはStudio 2をレコーディング・ブースとして使用した際にも活用することができる。マイクからの入力をSpat Revolution Ultimateに通し、リバーブ成分をイマーシブ・スピーカーから出力するというものだ。こうすることで、歌手や楽器の音とリバーブを同時に録音することができ、あたかもコンサートホールや広いスタジオで収録されたかのような自然な響きを加えることができる。「後からプラグインで足すだけだと、自然な響きは得られない。ぼくは、リバーブは絶対に録りと同時に収録しておいた方がいいと考えています。」 こうした空間再現を可能にするためには、当然、スピーカーのポジションや角度、ルームアコースティック、スピーカーの補正などをシビアに追い込んでいく必要がある。Studio 2はもともと8畳程度の小さな空間に造られており、広さを確保するために平行面を残さざるを得なかったというが、その分、「内装工事中に何度も工事を止め、何度もスピーカーを設置して、実際に音を鳴らしてスピーカーの位置と吸音を追い込んでいきました」という。その結果、どうしても低域の特性に納得できなかった古賀氏は、工事の終盤になってスピーカーの設置全体を後方に5cmずらすことを決めたという。「大工さんからしたら、もう、驚愕ですよ。でも、おかげで音響軸は1mmのずれもなくキマってます。極限まで追い込んだ音を体験したことがある以上、半端なことはしたくなかった。」 電気的な補正を担っているのはTrinnov Audio MC-PROとAvid Pro Tools | MTRX II。MC-PROはDante入力仕様となっており、先にこちらで補正をおこない、MTRX II内蔵のSPQ機能を使用してディレイ値やEQの細かい部分を追い込んでいる。「MC-PROの自動補正は大枠を決めるのにすごく便利。SPQは詳細な補正値を確認しながらマニュアルで追い込んでいけるのが優れている」と感じているようだ。 📷「最初から導入を決めていた」というTrinnov MC PROは数多くの実績を持つ音場補正ソリューション。MC PROもパワーアンプもDante入力を持つモデルを選定しており、システム内の伝送はすべてDanteで賄えるように設計されている。 テクノロジーとユーティリティの両立 📷「Studio 2」のミキシング・デスク。コントロール・サーフェスはPro Tools | S1とPro Tools | Dockの組み合わせ。デスク上にはRedNet X2PやDAD MOMも見える。 Studio 2のシステム内部はすべてデジタル接続。Studio 1 - Studio 2間の音声信号がMADIである以外は、パワーアンプの入力まですべてDanteネットワークによって繋がっている。モニターセクションの音声信号はすべて96kHz伝送だ。パッチ盤を見るとキャノン端子は8口しかなく、DanteやMADI、HDMIなどの端子が備わっていることにスタジオの先進性が見て取れる。 メインMacはMac Studio M2 UltraとSonnet DuoModo xEcho IIIシャーシの組み合わせ。MacBookなどの外部エンジニアの持ち込みを想定して、HDXカードをシャーシに換装できるこの形としている。オーディオI/OはAvidのフラッグシップであるPro Tools | MTRX II。「MTRX IIになって、DanteとSPQが標準搭載になったことは大きい。」という。オプションカードの構成はAD x2、DA x2、Dante x1、MADI x1、DigiLink x2となっており8個のスロットをフルに使用している。確かに、同じ構成を実現するためには初代MTRXだったらベースユニットが2台必要なところだった。合計3組となるDigiLinkポートは、それぞれ、ステレオ、5.1、Dolby Atmos専用としてI/O設定を組んでおり、出力フォーマットが変わるたびにI/O設定を変更する必要がないように配慮されている。 📷左)本文中にもある通り「初代MTRXなら2台導入する必要があった」わけで、結果的にMTRX IIの登場は「Studio 2」の実現にも大きく貢献したということになる。中)メインMacをMac Studio + TBシャーシとすることで、クリエイターがMacを持ちこんだ場合でもHDXカードを使用した作業が可能になっている。RMU I/FのCore 256はあらゆるフォーマットの音声をRMUに接続。「Studio 2」ではDanteまたはMADIを状況に応じて使い分けている。 Dolby Atmosハードウェア・レンダラー(HT-RMU)はMac miniでこちらもCPUはM2仕様。Apple Siliconは長尺の作品でも安定した動作をしてくれるので安心とのこと。RMUのI/FにはDAD Core 256をチョイス。Thunderbolt接続でDante / MADIどちらも受けられることが選定の決め手になったようだ。96kHz作業時はDante、48kHzへのSRCが必要な時はDirectOut Technologies MADI.SRCを介してMADIで信号をやりとりしているという。 Studio 2のサイドラックには、ユーティリティI/OとしてThunderbolt 3オプションが換装されたPro Tools | MTRX Studioが設置されているほか、Focusrite RedNet X2PやNeumann MT48も見える。Studio 2でちょっとした入出力がほしくなったときに、パッと対応できるようにしてあるとのこと。「作曲家やディレクターにとってソフトウェアでの操作はわかりにくい部分があると思うので、直感的に作業できるように便利デバイスとして設置してある」という配慮のようだ。 📷左右のサイドラックには、Logic ProやSpat RevolutionがインストールされたMacBook Pro、フロントパネルで操作が可能なMTRX Studio、各種ショートカットキーをアサインしたタブレット端末などを設置。 個人的に面白いと感じたのは、AudioMovers Listen ToとBinaural Rendererの使い方だ。DAWのマスター出力をインターネット上でストリーミングすることで、リモート環境でのリアルタイム制作を可能にするプラグインなのだが、この機能を使ってスマートフォンにリンクを送り、AirPodsでバイノーラル・ミックスのチェックを行うのだという。たしかに、こうすればわざわざマシンルームまで行ってMacとBluetooth接続をしなくて済んでしまう。 操作性の部分でもこれほどまでに追い込まれているStudio 2だが、「それでも、これをこう使ったらできるんじゃないか!?と思ったことは、実際にはほとんどできなかった」と古賀氏は話す。古賀氏のアイデアは、進歩するテクノロジーをただ追うのではなくむしろ追い越す勢いで溢れ出しているということだろう。 「Amazonで見つけて買った(笑)」というデスクは、キャスターと昇降機能付き。作業内容やフォーマットによってミキシングポイントを移動できるように、ケーブル長も余裕を持たせてあるという。「この部屋にはこれだけのスペックを詰め込みましたけど、内覧会で一番聞かれたのが、そのデスクと腰にフィットする椅子、どこで買ったんですか!?だった(笑)」というが、確かに尋ねたくなる気持ちもわかるスグレモノだと感じた。 紆余曲折を経て、結果的に古賀氏自身のメインスタジオよりも高機能・高品質なスタジオとなったStudio 2だが、このことについて古賀氏は「9.1.4のStudio1を作ってからの3年間で、9.1.6に対応したスタジオは国内にだいぶ増えたと思ってます。だったら、ぼくがまた同じことをやっても意味がない。ぼくが先頭を走れば、必ずそれを追い越すひとたちが現れます。そうやって、国内シーンの盛り上がりに貢献できたらいい」と語ってくれた。「このスタジオのようなスペックが当たり前になった暁には、ぼくはここを売ってまた新しい部屋をつくります!今度は天井高が取れる場所がいいな〜」といって笑う古賀氏だが、遠くない将来、きっとその日が来るのだろうと感じた。   *ProceedMagazine2024号より転載
Music
2024/08/13

Bob Clearmountain〜 伝説のエンジニア ボブ・クリアマウンテンが描くミックス・ノウハウのすべて 〜

去る4月、伝説のレコーディング・エンジニアであるボブ・クリアマウンテン氏が来日。東京・麻布台のSoundCity B Studioにおいて「伝説のエンジニア ボブ・クリアマウンテンが描くミックス・ノウハウのすべて」と題したセミナー・イベントが開催された。受講者20名限定で開催されたこのイベントでは、注目を集める“音楽のイマーシブ・ミックス”について、ボブ・クリアマウンテンがそのワークフローとテクニックを約3時間にわたって解説。途中、一般には公開されていない著名な楽曲のイマーシブ・ミックスが特別に披露されるなど、大変充実した内容のイベントとなった。ここではその模様をダイジェストでお伝えしたい。 イマーシブ・オーディオへの取り組み Bob Clearmountain氏:私は音楽のサラウンド・ミックスにいち早く取り組んだエンジニアのひとりだと思いますが、イマーシブ・オーディオに関しては、妻(注:Apogee ElectronicsのCEO、ベティー・ベネット氏)から、“これは素晴らしいテクノロジーだから、ぜひ取り組むべきだ”と背中を押されたことがきっかけになりました。実際に音楽のイマーシブ・ミックスを手がけたのは、皆さんご存知のザ・バンドが最初です。私はザ・バンドの名盤3作品の5.1chミックスを手がけたのですが、その中の1枚「カフーツ」というアルバムの作業をしているときに、レコード会社の担当者から、“Dolby Atmosでもミックスしてみないか”というオファーがあったのです。 その後間もなく、ジョー・ボナマッサの「Time Clocks」というアルバムもDolby Atmosでミックスしました。これが私にとって音楽のイマーシブ・ミックスの2作目になります。このアルバムのプロデューサーであるケヴィン・シャーリーはオーストラリア出身で、ディジュリドゥのサウンドがとても印象的な作品です。このアルバムは何年も前の作品であったため、レーベル・サイドもアーティスト本人も、最初はDolby Atmos化にあまり関心がありませんでした。ただ、私は自分のスタジオをDolby Atmosに対応させたばかりだったので、Dolby Atmosバージョンをジョー・ボナマッサ本人、ケヴィン・シャーリー、レーベルのスタッフに聴いてもらったのです。そうしたら彼らはそのサウンドに感銘を受け、“これは素晴らしい、ぜひリリースしよう”ということになりました。それがきっかけで、ケヴィンも自身のスタジオをDolby Atmosに対応させましたよ(笑)。 私は1980年代、ロキシー・ミュージックの「Avalon」というアルバムをミックスしましたが、あれだけ様々な要素が含まれている作品がステレオという音場の中に収められているのはもったいないと前々から感じていました。もっと音場が広ければ、要素をいろいろな場所に定位できるのに… という想いが、常に頭の中にあったのです。もちろんそれは、イマーシブ・オーディオどころか、サラウンドが登場する以前の話で、いつかその想いを叶えたいと思っていました。その後、念願かなって「Avalon」のサラウンド・ミックスを作ることができました。そしてイマーシブ・オーディオの時代が到来し、「Avalon」のプロデューサーであるレット・ダヴィースと“これは絶対にDolby Atmosでミックスするべきだ”ということになったのです。 Dolby Atmosバージョンの「Avalon」を体験された方なら分かると思いますが、かなりの要素が後方に配置されており、そのようなバランスの楽曲は珍しいのではないかと思います。たとえば、印象的な女性のコーラスも後方に配置されています。なぜこのようなバランスにしたかと言えば、ステレオ・ミックスを手がけたときもそうだったのですが、演劇のような音響にしたいと考えたからです。楽曲に登場する演者、ボーカリスト、プレーヤーを舞台に配置するようなイメージでしょうか。ですので、キーとなるブライアン・フェリーのボーカルはフロント・センターですが、他の要素は異なる場所に定位させました。 イマーシブ・ミックスというと、多くの要素が動き回るミックスを想起する方も多いのではないかと思います。もちろん、そういうミックスも可能ですが、Dolby Atmosバージョンの「Avalon」ではそういうダイナミックなパンニングはほとんどありません。言ってみれば静的なミックスであり、ジェット機やヘリコプター、アイアンマンが登場するようなミックスではないのです。 SSL 4000Gを使用したイマーシブ・ミックス 📷オーディオの入出力を担うのはApogeeのSymphony I/O Mk II。Atmosミックスとステレオミックスを同時に作るワークフローではこれらを切り替えながら作業を行うことになるが、その際に素早く切り替えを行うことができるSymphony I/O Mk IIのモニター・コントロール機能は重宝されているようだ。SSL 4000Gの後段にある「プリント・リグ」と呼んでいるセクションで下図のようなセッティングを切り替えながら制作が進められていく。 私はイマーシブ・ミックスもアナログ・コンソールのSSL 4000Gでミックスしています。SSL 4000Gには再生用のAvid Pro Toolsから72chのオーディオが入力され、そしてミックスしたオーディオは、“プリント・リグ”と呼んでいる再生用とは別のPro Toolsにレコーディングします。“プリント・リグ”のPro Toolsは、最終のレコーダーであると同時にモニター・コントローラーとしての役割も担っています。 そして再生用Pro Toolsと“プリント・リグ”のPro Tools、両方のオーディオ入出力を担うのは、ApogeeのSymphony I/O Mk IIです。私は、ステレオ・ミックスとDolby Atmosミックスを同時に作りますが、Symphony I/O Mk IIでのモニター・コントロール機能は、まさしく私のワークフローのために搭載されているような機能と言えます。私は7.1.4chのDolby Atmosミックスと、ニア・フィールド・スピーカーやテレビなどに送る3組のステレオ・ミックスを切り替えながら作業を行いますが、Symphony I/O Mk IIではそういったワークフローに最適な機材です。ステレオ・ペアを最大16組作成することができ、非常に柔軟な作業環境を構築できるため、過去に手がけた5.1chのサラウンド・ミックスと比較しながらの作業も容易です。 肝心のミキシングについて、アナログ・コンソールのSSL 4000Gで一体どのようにイマーシブ・ミックスを行っているのか、疑問に感じた人もいるかもしれません。しかし決して特別なことを行っているわけではなく、そのルーティングはストレートでシンプルです。SSL 4000Gに入力した信号は、チャンネル・ストリップで調整した後、Dolby Atmos用のチャンネルとして、スモール・フェーダーのトリム・チャンネルを活用して送っているのです。スモール・フェーダーは基本ユニティーで使用し、レベルはラージ・フェーダーの方で調整してから、ポスト・フェーダーでスモール・フェーダーに送ります。スモール・フェーダーから2本のスピーカーに同時に送ることは基本ありませんが、隣り同士のスピーカーに同じ信号を送って、パンでバランスを調整することはあります。また、このルーティングですと、基本オートメーションを使用することができません。オートメーションを使いたいときは、専用のバスを作り、そちらに送ることで対処しています。 私のSSL SL4000Gは特別仕様で、VCAとバス・コンプレッサーが4基追加で備わっています。標準のステレオ・バスのDCを、追加搭載した4基のVCA / バス・コンプレッサーにパッチすることで、すべてのバス・コンプレッサーの挙動をスレーブさせ、ステレオ・ミックスとマルチ・チャンネル・ミックスのコンプレッションの整合性を取っているのです。ただ、これだけの構成では5.1chのサラウンド・ミックスには対応できても、7.1.4chのイマーシブ・ミックスには対応できません。それでどうしようかと悩んでいたときに、Reverb(編注:楽器・機材専門のオンライン・マーケットプレイス)でSSLのVCA / バス・コンプレッサーをラック仕様にノックダウンした機材を発見し、それを入手して同じようにDC接続することで、7.1.4chのイマーシブ・ミックスに対応させました。これはとてもユニークなシステムで、おそらく世界中を探しても同じようなことをやっている人はいないと思います(笑)。もちろん、サウンドは素晴らしいの一言です。 Dolby Atmosミックスは、7.1.2chのベッドと最大128個のオブジェクトで構成されますが、私は基本的にベッドルーム(7.1.2)でミックスを行います。オブジェクトは動く要素、たとえば映画に登場するヘリコプターなどのサウンドを再現する上では役に立ちますが、音楽のイマーシブ・ミックスにはあまり必要だとは思っていません。ですので、Dolby Atmosミックスと言っても私はハイト・スピーカーを除いた7.1chで音づくりをしています。なお、ハイト・チャンネルに関してDolby Laboratoriesは2chのステレオとして規定していますが、私は4chのクアッドとして捉え、シンセサイザーやスラップバック・ディレイなどを配置したりして活用しています。 ステレオ・ミックスのステムはできるだけ使用しない 先ほどもお話ししたとおり、私はステレオ・ミックスとDolby Atmosミックスを同時に行います。最初にステレオ・ミックスを作り、そこから書き出したステムを使ってDolby Atmosミックスを作る人が多いと思うので、私のワークフローは珍しいかもしれません。なぜステレオ・ミックスとDolby Atmosミックスを同時に行うのかと言えば、私はステレオ・ミックスから書き出したステムに、ミキシングを縛られたくないからです。ステレオ・ミックスのステムは、エフェクトも一緒に書き出されてしまっているため、もう少しフィールドを広げたいと思っても簡単にはいきません。楽曲の中心であるボーカルですらまとめられてしまっているので、私はDolby Atmosミックスに入る前に、iZotope RXを使ってセンターのボーカルとサイドのボーカルを分離します。 ですので、可能な限りオリジナルのセッションからDolby Atmosミックスを作るべきであると考えていますが、これは理想であって、実際には難しいケースもあるでしょう。もちろんステムから作られたDolby Atmosミックスの中にも素晴らしい作品はあります。たとえば、アラバマ・シェイクスのボーカリスト、ブリタニー・ハワードの「What Now」という曲。このミックスを手がけたのはショーン・エヴェレットというエンジニアですが、彼はステムをスピーカーから再生して、それをマイクで録音するなど、抜群のクリエイティビティを発揮しています。まさしくファンキーな彼のキャラクターが反映されたミックスだと思っています。 アーティストの意向を反映させる 最近はレコード会社から、昔の名盤のDolby Atmos化を依頼されることが多くなりました。しかしDolby Atmos化にあたって、アーティスト・サイドの意向がまったく反映されていないことが多いのです。意向が反映されていないどころか、自分の作品がDolby Atmosミックスされたことをリリースされるまで知らなかったというアーティストもいるくらいです。音楽はアーティストが生み出したアート作品です。可能な限りアーティストの意向を反映させるべきであると考えています。 私が1980年代にミックスしたヒューイ・ルイス&ザ・ニュースの「Sports」というアルバムがあります。何年か前にこの作品のディレクターから、“「Sports」のDolby Atmosミックスを作ったので聴いてみないか”という連絡がありました。興味があったので聴きに行ったのですが、その場にいた全員が“これは何かの冗談だろ?”と顔を見合わせるくらいひどいミックスだったのです。試聴環境のセットアップは完璧でしたが、聴くに耐えないミックスでどこかを修正すれば良くなるというものではありません。私はディレクターに、“Dolby Atmosミックスを作り直させてくれないか”と打診しました。予算を使い切ってしまったとのことだったのですが、個人的に思い入れのある作品だったということもあって、無償で引き受けることにしたんです。 この話には余談があります。「Sports」のDolby Atmosミックスは、Apple Musicでの配信直後にリジェクトされてしまったのです。なぜかと言うと、オリジナルのステレオ・ミックスには入っていない歌詞が入っているから。私はDolby Atmosミックスを行う際にあらためてマルチを聴き直してみたのですが、おもしろい歌詞が入っていたので、それを最後に入れてしまったんです(笑)。Appleはオリジナルの歌詞とDolby Atmosミックスの歌詞が同一でないとリジェクトしてしまうので、過去の作品のDolby Atmos化を検討されている方は気をつけてください。彼らはしっかりチェックしているようです(笑)。また、Appleは空間オーディオ・コンテンツの拡充に力を入れていますが、ステレオ・ミックスを単純にアップ・ミックスしただけの作品も基本リジェクトされてしまいます。 一世を風靡した“ボブ・クリアマウンテン・サウンド” 私は古くからの友人であるブライアン・アダムスのヒット曲、「Run To You」もDolby Atmosでミックスしました。Dolby Atmosミックスの話に入る前に、どうやってこの特徴的な’80sサウンドを生み出したのか、少しご紹介しておきましょう。 この曲はカナダのバンクーバーにある「Little Mountain Studio」というスタジオでレコーディングを行いました。私はこの曲のドラムを“ビッグ・サウンド”にしたいと考えたのですが、「Little Mountain Studio」のライブ・ルームはかなりデッドで、私がイメージしていた“ビッグ・サウンド”には不向きな空間だったのです。一体どうしたものか…と思案していたとき、ライブ・ルームの真横にローディング・ベイ、 いわゆるガレージのようなスペースがあることに気付きました。試しにそこで手を叩いてみたところ、コンクリートが気持ちよく反響したので、私はドラムの周囲に比較的硬めの遮蔽板を設置し、残響をローディング・ベイ側に逃すことで、大きな鳴りのドラム・サウンドを作り出したのです。本当に素晴らしいサウンドが得られたので、このセッティングを再現できるように、アシスタントに頼んでドラムやマイクの位置を記録してもらいました。ですので、この“ビッグ・サウンド”は、後にこのスタジオでレコーディングされたボン・ジョヴィやエアロ・スミスの曲でも聴くことができます。 「Run To You」をレコーディングしたのはもう40年も前のことになりますが、自分がやっていることは今も昔も大きく変わっていません。確かに世の中にはトレンドというものがあります。「Run To You」をレコーディングした1980年代はリバーブが強いサウンドが主流でしたが、1990年代になると逆にドライなサウンドが好まれるようになりました。そしてご存知のとおり、現代は再びリバーブを使ったサウンドが主流になっています。そういったトレンドに従うこともありますが、私は天邪鬼なのでまったく違ったサウンドを試すこともあります。いつの時代も自分のスタイルを崩すことはありません。 よく“ボブ・クリアマウンテン・サウンド”と言われることがありますが、私は自分のサウンドについて意識したことはありません。私はあくまでもクライアントであるアーティストのためにミックスを行っているのです。アーティストと一緒に作り上げたサウンドが、結果的に“ボブ・クリアマウンテン・サウンド”になっているのではないかと思っています。 イマーシブ・ミックスにおける各要素の定位 「Run To You」のDolby Atmosミックスについてですが、まずセンターには楽曲の基盤となるボーカル、ベース、スネア、キックといった音を定位させました。こういった音をなぜセンターに集めるかと言うと、私はライブ・コンサートのようなイメージでミックスを行うからです。ロックやポップスのライブ・コンサートでは、これらの音がセンターから聴こえます。ご存知のように、再生環境におけるセンター・スピーカーという考え方は映画から来ています。映画の中心となる音はダイアログで、それはほとんどの場合がセンターに定位されます。その考え方をそのまま音楽に適用しても、問題はないと考えています。 それではサイド、リア、ハイトには、どのような音を定位させるのがいいのでしょうか。楽曲の基盤となる音に関してはセンターに集めた方がいいと言いましたが、同じギターでもパワー・コードのような音ではない、たとえばアコースティック・ギターのような音ならば、サイドに振ってみてもいいかもしれません。キーボードに関しても同じで、ピアノはセンターに定位させる場合が多いですが、シンセサイザーのような音はリアやハイトに定位させると良い結果が得られます。 Dolby Atmosというフォーマットにおいて特徴的な要素と言えるのが、ハイト・スピーカーです。“音楽のミックスで、ハイト・スピーカーなんて使いどころがあるのか?”と思われる人もいるかもしれませんが、実際はとても有用です。たとえば私はアンビエンス… リバーブで作り出した残響ではなく、インパルス・レスポンスにおけるアンビエンスをハイト・スピーカーに送り、これによって空間の高さを演出しています。 もうひとつ、LFEという要素についてです。サブ・ウーファーに関してはミックスを補強してくれる有用な要素ではあるのですが、必須ではないというのが私の考え方です。私はLFEなしでミックスを成立させ、それを補強する際に使用しています。また、ミッド・ファーはバイノーラルのオプションではグレイアウトされて設定することができません。あまりLFEに頼り過ぎてしまうと、ヘッドホンで聴いたときに音像が崩れてしまうので注意が必要です。 イマーシブ・ミックスにおけるエフェクト処理 「Run To You」のDolby Atmosミックスでは、ボーカルだけでなくシンセサイザーのディレイ音もリアに配置しています。タイミングが楽曲のテンポよりもオフなので、一聴すると“曲に合っているのか?”と思う人もいるかもしれませんが、ディエッサーを強めにかけることによってミックスに戻した際に馴染むサウンドを作り出しているのです。ギターに関しても同じく、それだけで聴くとバラバラな印象があったので三連符のディレイを使用し、ディレイ音が返る度にリバーブを付加していき、さらには歪みも加えることで、奥行き感と立体感のあるサウンドを作り出しています。こういったエフェクトには、私が開発に関わったApogee Clearmountain’s Domainを使用しました。先ほども言ったとおり、私の頭の中にあったのはライブ・コンサートのようなサウンドです。私はライブ・サウンドが大好きなので、それをスタジオで再現するという音作りになっています。また、パーカッションが空間の中を飛び回っているように聴こえるかもしれませんが、こういったサウンドもエフェクトのみで作り出しています。このミックスではオブジェクトを使用していません。楽曲を構成する要素はステレオ・ミックスと同一です。スピーカーの構成が違うだけで、こうも印象が変わるという好例だと思います。 プラグインに関して、イマーシブ・ミックスで最も多用しているのがクアッド処理に対応しているリバーブです。具体的にはApogee Clearmountain’s Domainを最もよく使います。イマーシブ・ミックス用のクアッド・リバーブは、そのままフォールドバックしてステレオ・ミックスにも使用します。最近は位相を自動で合わせてくれたりするような管理系のプラグインが多く出回っていますが、そういったツールを使い過ぎるとサウンドのパワー感が失われてしまうような印象を持っています。実際にそういったツールを使ったことがありますが、最終的には使用しない方が良い結果になったケースの方が多かったです。 📷Apogee Clearmountain’s Domain:ミックスでも多用しているというApogee Clearmountain’s Domain。画面左側のシグナルフローに沿うようにボブ・クリアマウンテン独自のFXシグナルチェーンを再現している。もちろん、プリセットもボブ独自のものが用意されており、ロードして「あの」サウンドがどのように構築されているのかを解析するという視点も持つと実に興味深いプラグインだと言えるだろう。 イマーシブ・オーディオで楽曲の物語性を強化する イマーシブ・オーディオは、アーティストが楽曲に込めた物語性を強化してくれるフォーマットであると考えています。私の古くからの友人であるブルース・スプリングスティーンは歌詞をとても重視するアーティストです。彼は歌詞に込めた物語性をいかにサウンドに盛り込むかということを常に考えており、私は彼のそういう想いをミックスで楽曲に反映させようと長年努力してきました。 ブライアン・フェリーの「I Thought」という曲があります。それほど有名ではないかもしれませんが、私のお気に入りの曲です。この曲の歌詞は、男性がガール・フレンドに対して抱いているイメージが、徐々に現実とは違うことに気づいていく… という内容になっています。男性が想っているほどガール・フレンドは彼のことを想っているわけではない…。これはブライアンから聞いたストーリーではなく歌詞を読んだ私の勝手な解釈ですが、私はこの解釈に基いてモノラルで始まるシンプルな音像がどんどん複雑な音像になっていく… というイメージでミックスしました。そして最後は男性の悲しさや虚しさについてをノイズを強調することで表現したのです。ちなみにこの曲はブライアン・フェリー名義ですが、ロキシー・ミュージックのメンバーも参加しています。おそらく最後のノイズはブライアン・イーノのアイデアだったのかなと想像しています。 Dolby Atmos for Everyone! Dolby Atmosに興味はあるけれども、制作できる環境を持っていないという人も多いかもしれません。しかしその敷居は年々低くなっており、いくつかのDAWの最新バージョンにはDolby Atmosレンダラーが標準で搭載されています。その先駆けとなったのがApple Logic Proで、Steinberg NuendoやPro Toolsの最新バージョンにもDolby Atmosレンダラーが統合されています。このようにDolby Atmosは決して特別なものではなく、今や誰でも取り組むことができるフォーマットと言っていいでしょう。もちろん、Symphony I/O Mk IIはこれらすべてのDAWに対応しています。その柔軟なモニター・コントロール機能は、Dolby Atmosコンテンツの制作に最適ですので、ぜひご購入いただければと思います(笑)。Dolby Atmosで作業するには多くのオーディオ入出力が必要になりますが、Symphony I/O Mk IIではDanteに対応しています。コンピューター側に特別なハードウェアを装着しなくても、Dante Virtual Soundcardを使用すれば、Symphony I/O Mk IIとDanteで接続することができます。この際に有用なのがGinger Audioというメーカーが開発しているGroundControl SPHEREで、このソフトウェアを組み合わせることによって複雑なルーティングでも簡単かつ効率よくセットアップすることができます。 私が今日、明確にしておきたいのは、イマーシブ・オーディオというのは新しいテクノロジーではあるのですが、多くのレコード会社がサポートしてくれているので、一時のブームで廃れてしまうようなものではないということです。これからイマーシブ・ミックスされた素晴らしい作品がどんどんリリースされることでしょう。我々ミュージック・プロダクションに携わる者たちは、皆で情報交換をしてこの新しいテクノロジーを積極的にバックアップしていくべきだと考えています。 今回のセミナーでは、私が行なっているDolby Atmosミックスのワークフローについてご紹介しましたが、必ずしもこれが正解というわけではありません。たとえば、私はセンター・スピーカーを重要な要素として捉えていますが、エンジニアの中にはセンター・スピーカーを使用しないという人もいます。そういうミキシングで、アーティストのイメージが反映されるのであれば、もちろん何も問題はないのです。ですので、自分自身のアイデアで、自分自身の手法を見つけてください。 充実の内容となった今回のセミナー。イマーシブサウンドという新たな世界観を自身のワークフローで昇華してさらに一歩先の結果を追い求めている様子がよくわかる。その中でも、アーティストの意図をしっかりと反映するためのミックスという軸は今も昔も変わっておらず、“ボブ・クリアマウンテン・サウンド”とされる名ミックスを生み出す源泉となっているように感じる。レジェンドによる新たな試みはまだまだ続きそうだ。   *ProceedMagazine2024号より転載
Media
2024/08/09

N響「第9」、最先端イマーシブ配信の饗宴。〜NHKテクノロジーズ MPEG-H 3D Audio 22.2ch音響 / NeSTREAM LIVE / KORG Live Extreme〜

年末も差し迫る2023年12月26日に行われた、NHKホールでのNHK交響楽団によるベートーヴェン交響曲第9番「合唱つき」のチャリティーコンサート。 その年の最後を飾る華やかなコンサートと同時に、NHKテクノロジーズ(NT)が主催する次世代を担うコンテンツ配信技術のテストだ。次世代のイマーシブ配信はどのようになるのか、同一のコンテンツをリアルタイムに比較するという貴重な機会である。その模様、そしてどのようなシステムアップが行われたのか、壮大なスケールで行われた実験の詳細をレポートする。 ●取材協力 ・株式会社NHKテクノロジーズ ・株式会社クープ NeSTREAM LIVE ・株式会社コルグ Live Extreme 3つのイマーシブオーディオ配信を同時テスト まずは、この日に行われたテストの全容からお伝えしたい。イマーシブフォーマット・オーディオのリアルタイム配信実験と言ってもただの実験ではない、3種類のフォーマットと圧縮方式の異なるシステムが使われ、それらを比較するということが行われた。1つ目は、次世代の放送規格としての8K MPEG-H(HEVC+22.2ch音響MPEG-H 3D Audio *BaselineProfile level4)の配信テスト。2つ目がNeSTREAM LIVEを使った、4K HDR(Dolby Vision)+ Dolby Atmos 5.1.4ch@48kHzの配信テスト。3つ目がKORG Live Extremeを使った、4K + AURO-3D 5.1.4ch@96kHzの配信テストだ。さらに、NeSTREAM LIVEでは、HDR伝送の実験も併せて行われた。イマーシブフォーマットのライブストリーム配信というだけでも興味深いところなのだが、次世代の技術をにらみ、技術的に現実のものとして登場してきている複数を比較するという取り組みを目にすることができるのは大変貴重な機会だと言える。 全体のシステムを紹介する前に、それぞれのコーデックや同時配信されたフォーマットなどを確認しておきたい。22.2chは、次世代地上デジタル放送での採用も決まったMPEG-H 3D Audioでの試験、NeSTREAM LIVEは、NetflixなどストリーミングサービスでのDolby Atmos配信と同一の技術となるDolby Digital Plusでの配信、KORG Live ExtremeはAURO-3Dの圧縮技術を使った配信となっている。圧縮率はNeSTREAM LiveのDolby Digital Plusが640kbps、次にMPEG-Hの22.2chで1chあたり80kbps。Live Extremeは10Mbps程度となっている。 映像についても触れておこう。22.2chと組み合わされるのは、もちろん8K HEVCの映像、NeSTREAM LIVEは同社初のチャレンジとして4K Dolby Visonコーデックによる4K HDR映像の配信テストが合わせて行われた。KORG Live Extremeは、4Kの動画となっている。次世代フォーマットであるということを考えると当たり前のことかもしれないが、各社イマーシブと組み合わせる音声として4K以上の動画を準備している。KORG Live Extremeでは、HPLコーデックによる2chバイノーラルの伝送実験も行われた。イマーシブの視聴環境がないという想定では、このようなサブチャンネルでのバイノーラル配信というのは必要なファクターである。ちなみに、Dolby Atmosであれば再生アプリ側でバイノーラルを作ることができるためこの部分に関しては大きな問題とならない。 IPで張り巡らされたシステムアップ 📷仮設でのシステム構築のため、長距離の伝送を絡めた大規模なシステムアップとなっている。DanteのFiber伝送、Riedel MediorNet、OTARI LightWinderが各種適材適所で使われている。また、できるかぎり信号の共有を図り、チャンネル数の多いイマーシブサウンド3種類をうまく伝送し、最終の配信ステーションへと送り込んでいるのがわかる。実際のミックスは、22.2chのバランスを基本にそこからダウンコンバート(一部チャンネルカット)を行った信号が使われた。 それでは、テストのために組み上げられた当日のシステムアップを紹介したい。NHKホールでのNHK交響楽団によるベートーヴェン交響曲第9番「合唱つき」のチャリティーコンサートは、ご存知の通り年末の恒例番組として収録が行われオンエアされている。その本番収録のシステムとは別に今回のテスト配信のシステムが組まれた。マイクセッティングについても、通常収録用とは別に会場のイマーシブ収録のためのマイクが天井へ多数準備された。ステージ上空には、メインの3点吊り(デッカベースの5ポイントマイク)以外にもワイドに左右2本ずつ。客席上空には22.2chの高さ2層のレイヤーを意識したグリッド上の17本のマイクが吊られていた。 📷客席上空に吊り下げられたマイク。田の字にマイクが吊られているのが見てとれる。これは22.2chのレイヤーそのものだ。NHKホールは放送局のホールということもあり、柔軟にマイクを吊ることができるよう設計されている。一般的なホールではなかなか見ることができない光景である。 マイクの回線はホール既設の音響回線を経由して、ホール内に仮設されたT-2音声中継車のステージボックスに集約される。ここでDanteに変換されたマイクの音声は、NHKホール脇に駐車されたT-2音声中継車へと送られ、ここでミックスが作られる。この中継車にはSSL System Tが載せられているおり、中継車内で22.2ch、Dolby Atmos準拠の5.1.4chのミックスが制作され出力される。ここまでは、KORG Live Extremeが96kHzでのテストを行うこともあり、96kHzでのシステム運用となっている。 22.2chと5.1.4ch@48kHzの出力は、MADIを介しRIEDEL MediorNetへ渡され、配信用のテスト機材が設置されたNHKホールの配信基地へと送られる。もう一つの5.1.4ch@96kHzの回線はOTARI Lightwinderが使われ、こちらもNHKホールの配信基地へと送られる。ホールの内外をつなぐ長距離伝送部分は、ホールから中継車までがDante。中継車からホールへの戻りは、MediorNetとLightwinderというシステムだ。それぞれネットワークケーブル(距離の関係からオプティカルケーブルである)でのマルチチャンネル伝送となっている。 📷T-2音声中継車とその内部の様子。 ホールの配信基地には22.2ch@MPEG-H、NeSTREAM LIVE、Live Extremeそれぞれの配信用のシステムがずらりと設置されている。ここでそれぞれのエンコードが行われ、インターネット回線へと送り出される。ここで、NeSTREAM LIVEだけは4K HDRの伝送実験を行うために、AJA FS-HDRによる映像信号のHDR化の処理が行われている。会場収録用のカメラは8Kカメラが使われていたが、SDRで出力されたためHDR映像へとコンバートが行われ、万全を期すためにカラリストがその映像の調整を行っていた。機械任せでSDRからHDRの変換を行うだけでは賄えない部分をしっかりと補正、さすが検証用とはいえども万全を期すプロフェッショナルの仕事である。 このようにエンコードされ、インターネットへと送出されたそれぞれのコーデックによる配信は、渋谷ではNHK放送センターの至近にあるNHKテクノロジーズ 本社で受信して視聴が行われるということになる。そのほか渋谷以外でも国内では広島県東広島芸術文化ホールくらら、海外ではドイツでの視聴が行われた。我々取材班は渋谷での視聴に立会いさせていただいたが、他会場でも問題なく受信が行えていたと聞いている。 📷上左)NHKホールの副調整室に設置された3つの配信システム。写真中央の2台並んだデスクトップのシステムは、KORG Live Extremeのシステムだ。上右)こちらが、NeSTREAM LIVEのDolby Atmos信号を生成するためのラック。ここでリアルタイムにDolby Digital Plusへとエンコードが行われる。下左)8K+22.2chを制作するためのPanasonic製レコーダー。8K 60Pの収録を可能とするモンスターマシンで収録が行われた。下右)NeSTREAM LIVEで使われたHDRの信号生成のためのラック。最上段のAJA FS-HDRがアップコンバートのコアエンジン。 それぞれに持つ優位性が明確に 実際に配信された3種類を聴いてみると、それぞれのメリットが際立つ結果となった。イマーシブというフォーマットの臨場感、このポイントに関してはやはりチャンネル数が多い22.2chのフォーマットが圧倒的。密度の濃い空間再現は、やはりチャンネル数の多さに依るところが大きいということを実感する。今回の実験では、ミキシングの都合からDolby Atmos準拠の5.1.4 chでの伝送となった他の2種の倍以上のチャンネル数があるのだから、この結果も抱いていたイメージ通りと言えるだろう。もう一つは、圧縮率によるクオリティーの差異。今回はKORG Live Extremeが96kHzでの伝送となったが、やはり低圧縮であることの優位性が配信を通じても感じられる。NeSTREAM LIVEについては、現実的な帯域幅で必要十分なイマーシブ体験を伝送できる、現在のテクノロジーレベルに一番合致したものであるということも実感した。その中でDolby Visionと組み合わせた4K HDR体験は、映像のクオリティーの高さとともに、音声がイマーシブであることの意味を改めて感じるところ。Dolby Vision HDRによる広色域は、映像をより自然なものとして届けることができる。それと組み合わさるイマーシブ音声はより一層の魅力を持ったものとなっていた。 前述もしているが、それぞれの配信におけるオーディオコーデックの圧縮率は、NeSTREAM LIVEのDolby Digital Plusが640kbps、次にMPEG-Hの22.2chが1chあたり80kbps。Live Extremeは10Mbps程度となっている。このように実際の数字にしてみると、NeSTREAM LIVEの圧縮率の高さが際立つ。640kbpsに映像を加えてと考えると、現時点ではこれが一番現実的な帯域幅であることは間違いない。 ちなみに、YouTubeの執筆時点での標準オーディオコーデックはAAC-LC 320kbpsである。言い換えれば、NeSTREAM LIVEはこの倍の帯域でDolby Atmosを配信できるということである。KORG Live Extremeにおける96kHzのクオリティーは確かに素晴らしかった、しかし10Mbpsという帯域を考えると多数へ行なわれる配信の性格上、汎用的とは言い難い一面も否めない。しかしながらプレミアムな体験を限定数に、というようなケースなど活用の可能性には充分な余地がある。22.2chのチャンネル数による圧倒的な体験はやはり他の追従を許さない。8K映像と合わせてどこまで現実的な送信帯域にまで圧縮できるかが今後の課題だろう。22.2ch音響を伝送したMPEG-H 3D Audioは任意のスピーカーレイアウトやバイノーラル音声に視聴者側で選択し視聴することができる。22.2ch音響の臨場感を保ったまま、視聴者の様々な環境で視聴することが可能となる。AVアンプやサウンドバー、アプリケーションなどの普及に期待したい。 このような貴重な実験の場を取材させていただけたことにまずは感謝申し上げたい。取材ということではあったが、各種フォーマットを同時に比較できるということは非常に大きな体験であり、他では得ることのできない大きな知見となった。伝送帯域やフォーマット、コーデックによる違い、それらを同一のコンテンツで、最新のライブ配信の現場で体験することができるというのは唯一無二のこと。これらの次世代に向けた配信が今後さらに発展し、様々なコンテンツに活用されていくことを切に願うところである。   *ProceedMagazine2024号より転載
6 / 11«...345678910...»

Solution

Solution
制作環境を飛躍させる

Works

Works
システムの実例を知る

Brand

Brand
そのワークフローを実現する

主要取扱ブランドホームページ

リストに掲載がない製品につきましてもお気軽にご相談ください。

»問い合わせフォーム