Headline
Event
2024/09/06
【9/27(金):Rock oN Umeda開催】RTW Presents “TouchControl 5 Meets ATMOS” Atmosミックスの第一人者がナビゲート!革新的コントローラーによるモニタリング
Dante®ベースのAoIPを利用したメータリング機能付きモニターコントローラー『RTW TouchControl 5』をフィーチャーしたセミナーイベントを弊社Rock oN Umedaにて開催いたします。
最大22.2chのモニターコントロールを実現する完全イマーシブ対応のスタンドアローンモニター・コントローラーである『RTW TouchControl 5』。測定器メーカーとして歴史を紡いできたRTWらしい高度なメータリング機能は、ミキシング環境に何をもたらすのか?このイベントでは、サウンドデザイナーの染谷和孝氏によるDolby Atmosミックスにおいて重要なモニタリングについてのトークに加え、梅田店に新たに誕生したUnlimited Studioの7.1.4ch環境にて、イマーシブミキシングに関してのスペシャルセッションも。新しくなったRock oN梅田店でのセミナー!是非とも奮ってご参加ください。
さらにさらに!セミナー参加者にはRock oN梅田店にてTouchControl5が10%OFFで購入できるクーポンコードをプレゼントいたします!
お申し込みはこちら
イベント概要
日時:2024年9月27日(金)
OPEN:16:30 START:17:00
場所:Rock oN Umeda 大阪府大阪市北区芝田 1 丁目 4-14 芝田町ビル 6F
ナビゲーター:染谷和孝 氏(サウンドデザイナー)
参加費:無料
参加特典:Rock oN 新梅田店 店頭にて、TouchControl 5 を10%OFFで購入できるクーポンコードをプレゼント!
主催:ビーテック株式会社
協力:Rock oN Umeda、ROCK ON PRO
RTW TouchControl 5
TouchControl 5はDante®ベースのAoIPを利用したメータリング機能付きモニターコントローラーです。
RTWが長年培ってきた放送クオリティのモニターコントローラーで、直観的に操作できる5″のタッチスクリーンとデスクトップの貴重なスペースを無駄にしないコンパクトサイズとなっています。もちろんRTWの誇るSPLを含む正確なメータリングとビルトインされたマイクによる環境設定も可能です。
・Dante® Audio over IPネットワークを使用したモニタリング
・SPL測定とトークバック用にマイクロフォンを搭載
・プレミアムPPM、トゥルーピーク、VUのメーター表示
RTW / TouchControl 5
¥ 654,500 (本体価格:¥ 595,000)
Rock oN eStoreでの購入はこちら!
ROCK ON PROでの見積もり依頼も
問い合わせフォームからどうぞ!
ナビゲーター:染谷和孝 氏
株式会社ソナ 制作技術部
サウンドデザイナー/リレコーディングミキサー
1963年東京生まれ。東京工学院専門学校卒業後、(株)ビクター青山スタジオ、(株)IMAGICA、(株)イメージスタジオ109、ソニーPCL株式会社を経て、2007年に(株)ダイマジックの7.1ch対応スタジオ、2014年には(株)ビー・ブルーのDolby Atmos対応スタジオの設立に参加。2020年に株式会社ソナ制作技術部に所属を移し、サウンドデザイナー/リレコーディングミキサーとして活動中。2006年よりAES(オーディオ・エンジニアリング・ソサエティー)「Audio for Games部門」のバイスチェアーを務める。また、2019年9月よりAES日本支部 広報理事を担当。
お申し込みはこちら
Broadcast
2024/09/06
日本初全館フルIP化!オールIP放送局が与えるインパクト〜テレビ大阪株式会社〜
この春、新局舎へと移転を行うテレビ大阪。旧局舎の隣の新築ビルという最高の条件での移転である。新局舎への移転ということもありマスターからすべての設備を一新、これを機に局内のオールIP化を行っている。副調整室のシステムを中心にオールIP化のメリット・デメリット、実際にシステム設計を行ってみての課題点、今後に向けた取り組みなど取り上げていきたい。
マスター、サブ、スタジオのすべてをIP化
在阪のテレビ局各局が新局舎への移転を完了させる中、大阪で一番古い局舎となっていたテレビ大阪。10年ほど前から移転の話は出ていたということだが、具体的なスタートは2020年ごろから、およそ4年をかけて移転更新が行われている。今回、IPソリューションとして採用されているST-2110の実製品のリリースが見られるようになってきたのが2019年ごろだと考えると、まさにST-2110が次世代のMoIPの盟主となることが見え始めたタイミングだと言える。数年早ければ、オールIP化へ踏み切ることはなかったのではないかとも想像してしまうような、絶好のタイミングで更新計画が始められたということになる。
今回の移転工事ではマスター、サブ、スタジオのすべてがMoIP ST-2110で接続されIP化。さらには、局内のいたるところにST-2110のポケットを設け、どこからでも中継が行えるように工夫が行われている。従来であれば、映像・音声・制御・インカムなど様々な回線を各所に引き回す必要があるため、なかなか多数の場所にポケットを設けることは難しかったが、1本のネットワークケーブルで複数回線、かつ双方向の伝送を行うことができるIPネットワークは、多くの場所への回線引き回しを容易にしている。
オールIPベースでの放送システムへ
📷天満橋側の大阪中心部に新しく誕生したテレビ大阪新社屋。幾何学模様を描くファサードが目を引く。エントランスにももちろん、ST-2110の回線が引かれておりここからの中継も行える。
今回のオールIP化の導入に至る経緯にはストーリーがある。TXN系列6局のうち4局合同でマスターの更新を行うという計画が同時期に立ち上がった。これは、系列局で同様のシステムを一括発注することで導入コストの削減と相互運用性の向上を目指すという大規模なプロジェクト。この計画のひとつのテーマとして「IP化されたマスター」というポイントがあった。いまの時代に更新をするのであれば、将来を見越してIPベースでのシステム更新を行うことは必然であったということだ。ちなみに、合同でIPマスター更新を行ったのは、テレビ北海道、テレビせとうち、テレビ九州、そしてテレビ大阪の4局である。すでに他3局ではIPマスターへの更新が完了しており実際に稼働もなされている。
テレビ大阪は、新局舎への移転タイミングでの導入ということもあり、運用は新局舎へのカットオーバーのタイミングからとなる。そして、テレビ大阪はサブ・スタジオなどを含めた一括更新となるため、オールIPの放送局となった点がサブなどは従来設備で運用し順次IP化への更新を待つ他の3局と異なるところ。実のところ、テレビ大阪では当初サブ・スタジオに関してはSDIベースの映像とアナログベースのオーディオを用いた従来システムでの導入を検討していたということだ。しかしながら、系列局合同でIPマスターを導入するというのは大きな契機。現場としては、いまだ実績の少ないIPベースのシステムに対して抵抗感がなかったわけではないが、このタイミングで従来システムを組んでしまうと「最後のベースバンドシステム」となってしまう恐れもある。マスターも含めたオールIP放送局として日本初の試みにチャレンジするのか?最後のレガシーとなるのか?社内での議論が続けられたことは想像に難くない。
IPベースのメリットを活かした制作体制
📷音声卓は36Fader の Calrec Argo-S。モジュール構成となるこの省スペースに機能が詰め込まれている。
今回の移転更新では、2室の同一システムを備えたサブと、大小2部屋のスタジオが新設された。旧局舎と比べると1部屋ずつコンパクトな体制にすることができている、IPベースとしたことの効能が現れた格好だ。まずは、スタジオをそれぞれのサブから共有したり、システムの変更もプリセットを呼び出すだけで完了したりと各部屋の稼働効率の向上が見込める。また、これまではパッチ盤で実際にケーブルを接続したりといった物理的な切り替え作業も多かったが、想定されるクロスポイントを事前にプリセット化しておけば、これまでとは比べ物にならないくらい素早く変更が確実に行えるようになる。IPベースであれば規模をとりまとめてしまったとしても充分に従来業務への対応可能であるという判断に至ったそうだ。
📷2部屋目となる副調整室。各コントローラーがひと回りずつ小さいものになっているが、システム構成は同一のシステムとなっている。片方のシステムを覚えれば両部屋とも使えるようになるよう工夫が随所に行われている。
IP化における最大の課題は「遅延」である。信号が機器を経由するたびに必ず発生するバッファー、IP伝送を行うにあたり避けては通れない必要悪のような存在だ。収録、ポストプロであれば遅延を吸収する余地もあるが、生放送のようなライブプロダクションにおいては問題となるケースも多い。わかりやすい部分で言えば、返しのモニターが挙げられる。ベースバンドであれば各機器の処理遅延のみで済んでいたものが、IPベースではバッファーによる遅延が加わり、最低でも2〜3フレームの遅延が生じてしまう。返しモニター専用にスタジオ内にベースバンドのサブシステム(PAでいうところのステージコンソールのような発想)もあったが、せっかくオールIPに踏み切るのにそれでは意味がないということになり、スイッチャーの一番遅延量の少ない経路での出力を戻しにするということでまずは運用を開始してみることとなった。お話をお聞きした時点では運用開始前であったため、まさに今後の運用の中で適切なワークフローを見つけていくべきポイントだと言える。
従来システムの柔軟性とIPベースの融合
それでは、サブに導入された音声ミックスのシステムを見ていきたい。放送局のシステムとしては驚くほど機材量が少ないということが一目でわかる。スタジオフロアからの回線は基本的にアナログで立ち上がってきており、ワイヤレスなどのレシーバーからはDanteが採用されている。フロアの回線はラックのCalrec AE5743(アナログIP Gateway)でAoIPへと変換されコンソールへと立ち上がる流れ。
ミキサーのミキシングエンジンは、Clarecの最新モデルであるImPulse1が採用されている。これはまさに導入ギリギリのタイミングでリリースとなったIPベースのミキシングエンジンで、たった1Uというコンパクトな筐体で標準で304chのプロセッシングパスという十分なパワーを持つ。ちなみに、ImPulse1は追加ライセンスの購入で最大672パスまで拡張が可能である。これにIOフレームを組み合わせDante、アナログIP Gateway、ST-2110-30それぞれの入出力を行っている。このミキシングエンジンは二重化され、同一仕様のモデルが2台導入された。フレーム自体が1Uとコンパクトなため、ハードウェア・リダンダンシーを取ったシステムとは思えないほどコンパクトにまとまっている。コンソールは、Clarecのこちらも最新モデルであるARGO Sが導入だ。モジュール構成のコンソールで、柔軟な拡張性と構築の自由度を持つ最新サーフェスである。
📷最上段でEthernetケーブルが接続されているのが、副調整室のシステムコアとなるCalrec ImPulse1。たった1Uの筐体で標準で304chもの信号を処理することができ、2台のコアで冗長化が図られている。その下の緑の3Uの機器がCalrec AE5743、Mic / Line 32in / outのIOボックスだ。やはり、オーディオの出入り口としてアナログ音声がなくなることはしばらくないだろう。コネクタの実装などの必然性もあるがコアと比べると大きな機器となる。
当初はDanteのステージボックスをフロアに置き、インプットの回線をすべてDanteで運用するというアイデアも出ていたということだが、バックアップの意味も含め最低限のアナログを残すということを念頭にシステムを構築、ミキシングコンソールでダイレクトにアナログ信号を受けたほうが使い勝手も良いという結論に至ったということだ。やはり、マイクプリのリモートなどのことを考えると理にかなっていると言える。アナログ、AES/EBUといった従来のシステムと同様の柔軟性とIPベースの融合。どこからIPベースの信号とするかというのはシステム設計者の腕の見せどころとなっていくだろう。その最終形態は入口から出口までのオールIPになるのであろうが、マイクやスピーカーというアナログ変換器が最初と最後に存在するオーディオの世界では、なかなかアナログを完全に排除するということは難しい。
📷音声のラックは2本だが詰めれば1本にまとまりそうな程の構成。これでシステムの2重化も達成しているのは驚きである。
ご覧の通り、非常にコンパクトにまとめられたシステム。実際、コンバーターIOフレームなどが主な機器で番組に合わせたシステムの変更を行おうと思い立ったら、Calrecのプリセットを読み替えるだけで大抵のことには対応できる。別スタジオの回線をインプットとして取るのも、IOシェアをしているので自由にアサイン可能だ。このようにシステムがコンパクトとなることで、その設定変更は今まで以上に簡単に素早く行えるようになる。サブを1部屋減らしてもこれまで通りの運用が可能と判断する理由もここにあるわけだ。
逆にIP化のデメリットとしては、信号が目に見えないということを挙げられていた。1本のEtherケーブルの中ではどこからの信号がどのような順番で流れているのか、誰かが知らないうちにクロスポイントを打ち替えたりしていないだろうか、確かに目に見えないところの設定が多いため、シグナルを追いかけるのが難しくなっている。慣れるという部分も大きいのだが、1本のケーブルにどのような信号が流れているのかを簡単に可視化する方法は早期に実現してもらいたい部分でもある。なお、テレビ大阪では事故防止としてクロスポイントの大部分をロックして変更不可とし、確実な運用を目指すとのことだ。
また、Dante とST-2110-30 を併用している理由としては、利便性を考慮してのこと。ワイヤレスマイクのレシーバーなど対応製品の多さでは、Danteに分がある。これまでも使われてきた機材の活用も含め、オーディオのインプット系統ではDanteを使うよう適材適所でのシステムアップが行われているということだ。実際のところとしてはST-2110-30(Audio)の遅延量は、Dante以下の値に設定することもできる。しかし、映像回線として使われているST-2110(Video)の遅延量が大きく、それに引っ張られてオーディオも大きな遅延量となってしまうということだ。
📷左)紫色の機器がPTP v1 のグランドマスター。この機器を入れることでPTP v1 のDante ネットワークの安定性を高めることに成功している。右)もう一部屋のラックがこちら。AE5743は無いが、モジュラーユニットにアナログIOを準備しさらにシンプルな構成。基本的なシステムアップは、同一であることが見て取れる。
SoundGrid Sever、新たな業界標準機へ
さらに収録用のPro Toolsも用意されている。CalrecにはSoundGridの入出力を行うI/Oが準備されている。外部エフェクターとして導入されたSoundGrid Serverとともに、Pro ToolsもCoreAudio用のSoundGrid Driverで信号を受取り収録が行えるようになっている。もちろん、Pro Toolsからの再生もミキシングコンソールへと立ち上がる。これもIPベースならではの柔軟性に富んだシステムである。Pro ToolsのシステムはMacBookで準備され、2部屋のサブの共有機材となっている。常に2部屋で必要でないものは共有する、IPベースならではの簡便な接続環境が成せる技である。
📷外部エフェクターとして導入されたWAVES SUPERRACK。低遅延でWAVESのプラグインを使うことができるこのシステム。Liveサウンド、Broadcastの現場では重宝されている。
ここで導入されたSoundGrid Severは外部エフェクターとしてWAVESのプラグインが使えるというスグレモノ。外部のマルチエフェクターが絶滅危惧種となっている今日において、まさに救世主的な存在。WAVESだけではなくVSTについても動作する製品の情報が届いているので、こちらも業界標準機となる予感がしているところだ。こだわりのあのリバーブを使いたい、などという要望はやはり多いもの。もちろんリコール機能もしっかり備えられており、安心して使用できるプロの現場ならではの製品となるのではないだろうか。
IPシステムでのリスクヘッジ
サブとしてのメイン回線はすべてST-2110に集約されているが、インカムの回線だけは別となっている。インカムはST-2110にも対応したClearCamの製品が導入され、ST-2110での運用を行っているのだが個別のネットワークとしている。これはトラブル時の切り分けや、従来型のシステムが導入されている中継車などとの相互運用性を考えてのことだという。すべて混ぜることもできるが、敢えて切り分ける。こういった工夫も今後のIPシステムでは考えていくべき課題のひとつ。集約することによるスケールメリット、トラブル時の切り分け、運用の可用性、多様なベクトルから判断を行い決定をしていく必要があると改めて考えさせられた。
今後についてもお話を伺った。オールIPとしたことで、今後は中継先との接続もIPベースへとシフトしていきたいということだ。まずは、今回導入のシステムを安定稼働させることが先決ではあるが、IPの持つメリットを最大限に活かしたIPベースでの中継システムの構築や、リモートプロダクションにもチャレンジしていきたいとのこと。また、1ヶ月単位でのスポーツイベントなど、ダークファイバーをレンタルしてリモートプロダクションを行ったりということも視野に入れているということだ。まずは、局内に張り巡らした中継ポイントからの受けからスタートし、徐々に規模を拡大していきたいとのこと。IP伝送による受けサブ、リモートプロダクションというのは今後の大きなトレンドとなることが予想される。こういった取り組みも本誌で取り上げていきたい。
📷左からお話を伺ったテレビ大阪株式会社 技術局 制作技術部 齊藤 智丈 氏、有限会社テーク・ワン オーディオ 代表取締役 岩井 佳明 氏
まさに次世代のシステムと言えるオールIPによるシステム構築の取り組み。課題点である「遅延」に対してどのように対応し、ワークフローを構築していくのか。実稼働後にもぜひともお話を伺いたいところだ。利便性と柔軟性、このポイントに関してIPは圧倒的に優位であることに異論はないだろう。スケールメリットを享受するためには、できうる限り大規模なシステムとするということもポイントのひとつ。これらを併せ持ったシステムがテレビ大阪にはあったということだ。この新局舎への移転というタイミングでの大規模なST-2110の導入は、今後を占う重要なモデルケースとなることだろう。すでに全国の放送局から見学の問い合わせも来ているということ。こういった注目度の高さからも今回導入のシステムが与える放送業界へのインパクトの強さが感じられた。
*ProceedMagazine2024号より転載
Media
2024/09/03
よくわかるAoIP臨時特別講座!「AES67ってなに?」〜AoIPのいま、未来を知る。〜
AoIP、ネットワークオーディオを採用した放送局やレコーディング現場では、従来の(メタル)ケーブルからイーサネットケーブルに取って代わり、IPパケットで音声信号を伝送することで大きなメリットを実現していますが、ご存知のとおりでいくつもの仕様やプロトコルが存在していて、一般ユーザーには若干わかりにくい状況であることは確かです。そして、購入したばかりだというAoIPであるAES67対応の機材を手に「これをしっかり知り尽くしたい!」と意気込んでいるのが今回の講座にやってきたMクン。そんなMクンにROCK ON PRO 洋介がネットワークオーディオの世界を紐解きます。
まずは、AoIPってなに?
Mクン:Dante、RAVENNA、AVB、いくつものオーディオネットワーク規格があって制作現場でも目にすることが多くなってきたんですが、その中でもAES67についてお話を伺いたいんです。
ROCK ON PRO 洋介:なるほど。ところでなんでまた今日はAES67?
Mクン:実はNeumannのスピーカー KH 150 AES67モデルとオーディオインターフェースのMT 48を購入したんです。AES67に対応した製品なんでせっかくなら使いこなしてAES67の恩恵に授かりたいな、と。まずは「AoIPってなに?」というところから教えてもらえませんか?
洋介:了解しました! AoIPは「Audio over Internet Protocol」の略で、TCP/IPベースのイーサネットを使ってオーディオ信号をやりとりする規格です。AoIPのメリットとしてどういうことがあるかというと、信号分配の際に分配器を必要とせず、汎用のイーサネットハブで1対多数のオーディオを含む信号を簡単に送れることです。もうひとつは、1本のケーブルで多チャンネルを送れることですが、多チャンネルオーディオ転送規格に関してはMADIがありますし、またずっと以前からはADATがありますよね。その中でもAES67が優れている点は、回線の通信速度が現在主流となっている1ギガビットイーサネットであれば256ものチャンネルを転送可能だということです。
Mクン:少ないケーブルで多チャンネル送れるというのは、経済的にも、設定や設置の労力的にもメリットですよね。
洋介:実は挙げられるメリットはまだあって、1本のケーブルで「双方向」の通信を行えるのも大きいメリットです。イーサネットケーブル1本に対し、In / Outの概念がなくなるので繋ぎ間違えもなくなりますよね。あとDante Connectが登場して、クラウドネットワークを介した世界中からの接続ができるようになってきているので、遠隔地とのやりとりも特殊な環境を必要とせず汎用の製品やネットワークを使えることでコストの削減を図ることができます。少し未来の話をすると、ダークファイバー(NTTが保有する光回線のうち使用されていない回線)を使えば、汎用のインターネット回線の速度を超えたデータ転送が遠隔地間でもローカルエリア上として行える可能性があります。例えば、東京と地方のオフィスを繋ぐ場合に物理的に離れていても両拠点は同じネットワーク上にいる状態にすることができてしまうんです。
Mクン:ダークファイバーを使って遠隔運用しているところはあるんですか?
洋介:ありますよ。放送業界が先行していて、離れた支局間でダークファイバーを引いている事例があります。例を挙げると、F1の放送では鈴鹿サーキットなど世界中のサーキットとドイツのデータセンター間でダークファイバーを繋げ、世界規模で実況放送を実現しています。では、ここからはAES67制定の経緯について話していきましょう。
📷身近な存在のオーディオi/FやスピーカーでもAES67対応製品がリリースされている。Mクンが購入したというこのKHシリーズ(右)とMT 48(左)の接続ではDAコンバーターも不要となるためシンプルなシステム構成に。
AES67策定の経緯
洋介:AES67の元になった規格は、2010年にMerging Technologies社とLAWO社が立ち上げた「RAVENNA」です。このRAVENNAをベースにして、AES(Audio Engineering Society)がAoIPの規格として制定したのがAES67です。AES67の規格はRAVENNAの仕様により汎用性を持たせる方向で策定されています。例えば、レイテンシーの最小値を大きくしたり、ストリーム数に関してはRAVENNAが最大128chに対し、AES67は8chまでといったように仕様を緩い方向に制定して汎用性を持たせています。
その後、SMPTE ST2110-30(ST2110は映画テレビ技術者協会(SMPTE)によって開発されたメディアをIP経由で移動させるための規格)という規格のオーディオパケット部分としてAES67が採用されます。SMPTE ST2110は、映像パケットとオーディオパケットを別々に送信するのが大きな特徴です。もうひとつ前のVoIP規格にSMPTE ST2022というものがあるのですが、これはSDIの信号をそのままパケットにして送信します。そこからより現代的な新しいテクノロジーを組み込んだIP転送を実現しようという目的で策定されたのがSMPTE ST2110です。オーディオ部分に関していうと、ST2110-30が非圧縮での基本的なAES67互換規格であり、さらにST2110-31になるとメタデータまで含めた通信ができるようになりました。こういったST2110の拡張とともにAES67も今後拡大していくと予想されてます。
Mクン:AES67のサンプリングレートは48kHz固定となっていますが、これは今後変わっていくのでしょうか?
洋介:恐らくですが、48kHzという仕様で一旦固定されたままになるのではないでしょうか。放送業界においては、現時点で一般的に多く使われているのが24Bit / 48kHで、ハイサンプルの需要がほぼなく、それ以上のスペックは必要ないと判断されているようです。このようにRAVENNAから派生したAES67ですが、放送業界、映像業界をバックボーンにして成長を続けています。一方、RAVENNAとDanteの違いを話すと、TCP/IPの規格としてDanteの方が1つジェネレーションが古い規格を一部使用しています。その代表がPTPで、DanteはPTP(Precision Time Protocol)のバージョン1を用いていて、RAVENNAやST2110の基礎技術はPTPのバージョン2です。このバージョン1と2には下位互換がなく、実際は別物というくらい違います。同一ネットワーク上にお互いを流しても問題ないのですが、上位バージョンが下位バージョンの信号を受けることができません。現在の普及具合でいうとDanteのほうが多いのですが、こういったことからDanteを採用しているメーカーは将来性に関して危惧を始めているところがあると聞いています。
PTPバージョン1と2の違い
Mクン:そのバージョン1とバージョン2の違いとは何でしょう?
洋介:ネットワークプロトコルの技術的に複雑な話になるので、ここでは深く立ち入りませんが、単純に互換性がないということだけ覚えておいてください。このPTPですが、TCP/IP通信プロトコルとしてそもそもの大きな役割はクロック同期です。AoIPもVoIPも動作原理上バッファーが必要であり、それによりレイテンシーが必ず発生します。これはIP伝送のデメリットのひとつとして必ず話題に挙がることです。なぜバッファーが必要かというと、ネットワーク経路上にはネットワークインターフェイス、イーサネットスイッチなど多くのデバイスが挟まり、遅延が発生するのは避けることができません。
その事実への対処法として、バッファーへパケットデータを溜め込み、各パケットが送出されるタイミングの同期を行なってデータを出す、という同期のためのタイムスタンプの役割を行うのがPTPです。これは、ワードクロックやビデオクロックといった動作とは異なります。PTPでは各々のパケットに番号札を振って順番を決めるようなイメージで、そのバッファー分の遅延が必ず発生することになります。
Mクン:なるほど。では、オーディオのワードクロックでは精度が高い製品を使えば、一般的に音も良くなると思うんですが、PTPに関しては音質に対して影響するものなのでしょうか?
洋介:音質に影響しないというのが一般的な解釈です。RAVENNAの信号を受け、出力はアナログオーディオの場合の機材にもワードクロックが搭載されているわけで、AD/DAプロセッサーの動作はワードクロックで制御されています。つまり、IPデータの部分とワードクロックが作用する部分は完全に分離されていることになるので音質には影響しない、というのが設計上からの帰結です。現在の主流は、PTPとワードクロックを同時に出力するグランドマスター機能を持った機材を用いてシステム全体の整合性を取っています。
少し話が脱線しますが、AoIPにおけるレイテンシーの問題はグローバルなインターネットを越えても、依然存在し続けることになります。ただし、どれだけレイテンシーが大きくなったとしても、送信順が入れ違いになったとしても、届いたパケットの順番はPTPのタイムスタンプの順に並べられ、順番は変わらないわけです。
長遅延、インターネットを超えての伝送などの際には、このPTPのマスタークロックの上位の存在として、皆さんがカーナビなどでも恩恵を授かっているGPS衛星の信号を活用します。GPS衛星は地球の上空20,000kmに、常時24機(プラス予備7機)が飛行しています。GPS衛星は地球上どこにいても、遮蔽物がない限り6機が視界に入るように運用されています。そして、運用されているGPS衛星はお互いに時刻の同期が取られています。ということは、このGPSの衛星信号を受けられれば、世界中どこにいても同期された同一タイミングを得ることができるわけです。普段、何気なく車のカーナビを使っていますが、同期に関しては壮大な動作が背後にあるんです(笑)。
Mクン:宇宙から同期信号が届いているんですね!そういった先進技術は、今後私たちのような音声技術を扱う業界にも恩恵があるんでしょうか?
洋介:例えば、現在話題のイーロン・マスクが率いるスターリンク社(アメリカの民間企業スペースXが運用している衛星インターネットアクセスサービス)からのデータをPTPマスターとして受け取れるようになれば、もっと面白いことが起こるかもしれないですね。一方でデメリットを挙げるとすれば、やはりどこまでもレイテンシーがつきまとうという点ですね。オーディオの世界ではマイクやスピーカーといったアナログ領域で動作する製品がまだ大部分を占めるので、「信号の経路上、どのタイミングでAoIPにするか」というのはひとつの課題です。マイク自体でDante接続する製品も出てきていますが、ハイエンド製品はまだ市場に出てきてないですよね。これから期待したいところです。
AoIP、レコーディング現場への導入状況は?
Mクン:AoIPの導入は放送業界が先行しているそうですが、レコーディング環境への導入状況はどうなんでしょうか?
洋介:レコーディングスタジオに関してはこれから普及が始まるかどうかといった状況です。大きなスタジオになると設備が建設時に固定されているものが多く、変更する機会がなかなかないということが関係していそうです。また、別の理由としてパッチベイの存在もあるかもしれません。現状使っているレコーディング機器の接続を繋ぎ変えるにあたって、これまで慣れ親しんだパッチベイから離れたくない、という心理もありそうです。まあ、パッチケーブルを抜き差しするだけですからね。
スタジオにはアナログ機器がたくさん存在しますが、AoIPが本当にパワーを発揮するのは端から端までをIPベースにした場合で、ここで初めてメリットが生まれます。一部にでも従来のアナログ機器が存在すると、そこには必然的にAD/DAコンバーター(アナログとAoIPの変換機)が必要になるので、コンバーターの分だけコストが必要になってしまいますよね。Dolby Atmosをはじめとするイマーシブオーディオのような多チャンネルを前提としたシステム設計が必要スタジオには需要があると思います。
Mクン:AoIPでシステムを組む場合、Danteを採用するにしろ、ST2110を採用するにしろ、それに対応した機材更新が必要ですが、どのプロトコルを採用しても対応できるように冗長性を持たせたシステムの組み方は可能ですか?
洋介:システム設計は個別のネットワークとして組まれているケースが多いですね。本誌でも事例として紹介しているテレビ大阪様ではオーディオのフロントエンド(インプット側)はDanteですが、コンソールのアウトや映像のスイッチャーはST2110という構成です。従来の銅線ベースの環境に比べるとシステム図が驚くほどシンプルで、機材数もとても少なくて済みます。放送業界ではフルVoIP化の流れが来ていて、新局舎など施設を一新するタイミングで、副調整室やマスターなど、全設備オールIP化の設計が始まっています。SMPTE ST2110のイーサネットのコンセントを至るところに設置し、局内どこからでも中継ができるシステムが組まれています。
Mクン:そういった大規模な更新のタイミングであれば、既存のアナログ機器を一新したシステムにリニューアルできるメリットがありますね。
洋介:そうですね。未来を見据えてAoIPやVoIPシステムでリニューアルできる大きなチャンスですね。
AES67のメリット
Mクン:話をAES67に戻すと、Danteに比べてAES67のメリットはどんなことがあるんでしょうか? また、対応した製品がますます普及していきそうですが、今後のAoIPはどうなっていくのでしょう?
洋介:まず、Danteについては普及が進んでいるものの、先ほど話したPTPバージョン1の問題が依然として残ります。DanteにもAES67互換モードがすでに搭載されているのですが、Dante Network上のすべての機器をAES67互換モードで動作させることはできず、ネットワーク上の1台のみをAES67互換モードで動作させてゲートウェイとして使うということになります。言い換えると、AoIP / VoIPのメリットであるすべての機器が常に接続されているという状況を作ることが難しいということでもあります。これは、先にもお話したPTPのバージョンの違いにより生じている問題であり、一朝一夕で解決できる問題ではないでしょう。一方、RAVENNAはAES67の上位互換であり、SMPTE ST2110の一部でもあります。放送局など映像業界でのSMPTE ST2110の普及とともに今後導入が進むことが予想されます。音声のみの現場ではDanteが活用され、映像も絡んだ現場ではRAVENNA、というように棲み分けが進むかもしれませんね。
Mクン:私は「AES67 ニアイコール RAVENNA」という認識だったので、ST2110という存在がその先にあるというのは知りませんでした。
洋介:ST2110があってのAES67なんですよね。逆に言うと、ST2110を採用している映像メーカーはAES67対応だったりしますね。
Mクン:なるほど。私が購入したNeumannのオーディオインターフェイスMT 48はAES67に対応しているんですが、「RAVENNAベースのAES67」という表記がされていて納得がいきました。同じく購入したNeumannのスピーカー、KHシリーズもAES67に対応しているんですが、そのメリットはどんなことでしょう?
洋介:RAVENNAはAES67の上位互換なので、RAVENNAと書かれているものはすべてAES67だと考えていいです。一番大きいのはレイテンシーの問題で、AES67は最低1msでそれ以下は難しいんですけど、RAVENNAはもっと短くできます。KHシリーズとMT 48を組み合わせればDAコンバーターいらずになる、というのが大きなメリットです。システム的にもシンプルで気持ちいい構成ですよね。最近の製品の多くは、スピーカー自体でADしDSP処理してアンプ部分に送るという動作なんですが、それなら「デジタルのまんまで良くない?」って思うんですよね(笑)。シグナルとしてシンプルなので。
AoIP普及のこれから
Mクン:これからサウンド・エンジニアの方は音の知識だけでなく、ネットワークの知識も必要になってきそうな感じですね。
洋介:うーん、どうでしょう? まずはブラウザ上で設定するルーティングの仕方、クロスポイントを打つということに慣れるということで良さそうです。そこから先は我々のようなシステム設計、導入を担当する側が受け持ちさせていただきますので。実際、DanteでもRAVENNAやAES67でも基本的に設定項目は全部一緒なので、もちろんGUIの見た目は異なりますが、汎用のTCP/IPベースのイーサネットの世界なのでひとつ覚えれば他にも通じる汎用性があります。
今後、AoIPの普及はさらに進むでしょう。現在はまだシステムの範囲が1部屋で完結しているスケールなのでAoIPを用いるスケールメリットはあまりないのですが、これからさらに外へと繋がっていくと大きく変わっていくはずです。すにで汎用のインターネットで映像や音声がやりとりできる世界になり、グローバルなインターネットで放送クオリティーの伝送が可能となっています。
放送局の場合だと、これまでサブでしか受けられなかった中継回線などが、イーサネットケーブルを引けばMA室でも受けられるようになります。こうなれば受けサブとしてMA室を活用するという使用用途の拡張が見込めます。従来は音声信号に加え、同期信号もすべてケーブルを引っ張らなければいけなかったものが、イーサネットケーブル1本で対応できるようになるのは革新的です。さらに、光ファイバーを導入できれば、同じケーブル設備を使って通信速度、使用可能帯域をアップグレードしていくこともできます、従来のメタル銅線では実現できないことですよね。
Mクン:今日は色々と興味深い話をありがとうございました!
いかがだったでしょうか、「なるほど〜!」連発となったMクンはAES67がどのようなものなのか、そしてAoIPのメリットや抱えている課題点など、オーディオのIP伝送がいま置かれている現状もしっかりと把握できたようです。これからの制作システム設計における大きなキーワードとなるAoIP。もちろんそのメリットは従来のワークフローを大幅に塗り替えていくでしょう、そしてそのシステムが与えるインパクトたるや如何なるものか!?その進展から目が離せませんね!
*ProceedMagazine2024号より転載
Media
2024/08/30
RIEDEL製品が支えるF1サーカスの舞台裏〜MediorNetで結ばれたIPグローバルネットワーク〜
IP伝送が拡げる可能性は我々が位置する音響の分野のみならず多岐にわたる。音や映像が必要とされる分野であればIP伝送によって従来のシステムにとって代わるワークフローのブレイクスルーが起こり得る。そのひとつが今回取材を行ったF1サーカスとも呼ばれる、世界規模のスポーツイベントにおけるRIEDELの取り組みだ。本誌では以前にもご紹介をしたが、あれから5年を経てそのバックボーンを支える技術、ソリューションはどれほど進化したのだろうか。
レースに欠かせない通信のマネジメント
2024年のF1カレンダーは大きく変わり、日本グランプリが例年の秋の開催から春開催へと移動された。これまでであれば、秋のレースはその年のドライバーチャンピオンが決まるころのレースであり、テクニカルサーキットして世界にその名を馳せる鈴鹿サーキットが最後の腕試しという側面もあったのだが、今年は桜の季節に開催されシーズンも始まったばかりということもあり、パドックは終始和やかなムードに包まれていた。今回取材に入ったのは木曜日。F1は金曜日に練習走行、土曜日に予選、日曜日に決勝というスケジュールとなっており、木曜日はレースデイに向けての準備日といったところ。その準備日だからこそ見ることができるレースの裏側も多く充実の取材となった。まずは、取材協力をいただいたRiedel Communicationsの各位に感謝を申し上げたい。
準備日とはいえ鈴鹿サーキットは、レースに向けた準備がしっかりと進められており、木曜日は恒例のパドックウォークが実施されるということで多くの観客が来場していた。パドックウォークは、レースデイには立ち入ることのできないパドックやメインストレートを歩くことができるイベント。入場券もレースが行われない日ということもあり安く設定されており、さすがにガレージの中までは入れないものの、レースでピットクルーたちがタイヤ交換などを行うその場に立てる、ということでこれを目当てに来場される方も多数。また、この日はメインスタンドも開放されていてサーキットの好きなところに行けるのもパドックウォークの魅力。もちろん、レースデイの高揚感まではないものの、鈴鹿サーキットでF1の雰囲気を味わいたいということであれば、この木曜日の来場にも価値がある。
📷レース前の木曜日に開催されたパドックウォーク。メインストレートも一般開放され賑わいを見せるこの写真の中に、RIEDELの回線敷設スタッフが数日間かけて仕込んだアンテナほかの機材も多数あるのがお分かりになるだろうか。既に木曜のこの段階で準備万端となっているわけだ。
前置きが長くなってしまったが、まずRIEDELのF1における立ち位置を確認しておこう。RIEDELはFIA(F1を主催する国際自動車連盟)から業務依頼を受けて、F1における通信全般をマネージメントしている。通信全般とひとことで言ってもF1会場で取り扱われている通信は膨大な量となる。各チームのインカム、オフィシャルからの無線連絡、ドライバーとのコミュニケーションなどの音声通信。それに、各車6台ずつの車載カメラ映像、審判用にも使われるコースの監視用のカメラ(鈴鹿サーキットでは20台以上がコース脇に設置された)、F1レースカーから送られてくるテレメトリーデータ(エンジン情報、燃料残量、タイヤ温度、ドライバーの操作など車に関するデータ)など多種多様。もちろん、その種類の多さから必然的にデータボリュームも非常に大きなものとなる。
コミュニケーションのメッシュを運用する
📷インカムがずらりと並んだピット内。よく見るとスタッフ個人ごとに名前が記されている。
なぜ、RIEDELがF1の運営に関わるようになったのかという部分にも触れておきたい。RIEDELはMotorola製トランシーバーのレンタル会社としてスタートした。単に機材をレンタルするということだけではなく、イベント会場などで活用されるトランシーバーのグループライン設計や、運営、無線電波の管理なども行い今日に至っている。
F1会場でも各チームへ120台前後のトランシーバーがレンタルされ、その管理運営を行っているということだ。残念ながらチームスポンサードの兼ね合いもあり全20チーム中17チームへの提供となっているとのこと。本来であれば全チーム一括での運営が望ましいのは確かであるが、他の無線機器メーカーなどがスポンサーとなってしまった場合はその限りではないようだ。しかしながら、RIEDEL以外のトランシーバーを使用しているチームの回線もRIEDELがデータを受取りして一括での運営管理を行っていることには変わりない。そのため、各チーム内でのグループラインなどの構築のためにRIEDELから最低1名ずつのスタッフが帯同しているそうだ。これは、それぞれのチーム事情を汲み取り、最適な運用を行うと同時に、チーム間の情報機密などへも配慮した対応だと思われる。
運用は大きく変わらないものの、トランシーバー自体についてはRIEDELのベストセラー製品でもあるBoleroの導入が進んでいるということだ。従来のトランシーバーでは2チャンネルの送受信。チャンネル数がさらに必要なマネージャークラスのスタッフは、2台のトランシーバーを併用し4チャンネルの運用を行っていて、腰の両サイドに2台のトランシーバーをぶら下げたスタイルは、チームの中心人物である証とも言えたのだが、Boleroを使えば1台のベルトパックで6チャンネルの送受信が可能となる。やはりこれば評価が高い、各チームからBolero導入へのリクエストも多く寄せられているそうだ。
各チームで多少の違いはあるのだろうと想像するが、現場で話を聞いたインカムの送受信先を図にして掲載しておく。ドライバーと会話ができるスタッフは最低限とし、レーシングディレクター(監督)がドライバー、ピットクルー、ガレージのそれぞれへ指示を行うことでレースを進行するというのが基本。そのやりとりを聞くだけのスタッフもいれば、発信を行えるスタッフも必要となり、複雑にコミュニケーションのメッシュが構築されている。
さらに、サーキット外のスタッフもこのコミュニケーションに参加する。世界各国にある各チームのヘッドクォーターへと必要な回線が送られ、車の情報などを監視して現場のスタッフへ適切な指示がリアルタイムに出されているということだ。また、回線が送られるのはヘッドクォーターだけではない。例えば、Visa Cash App RB Formula One Team であれば、ヘッドクオーターがイタリアのファエンツァ 、エンジン開発拠点は日本のホンダ・レーシングといったように分かれており、それぞれの国で別のコントロールルームからエンジンの様子などを監視している。
取りまとめると、各チームではサーキットに80名程度、それ以外のヘッドクオーターや各開発拠点に100名以上という人員体制でレースマネージメントが行われているということ。1台のレーシングカーを走らせることには想像以上に数多くのスタッフが関わっている。なお、RIEDELは各チームのヘッドクオーターまでの接続を担当しており、ヘッドクオーターから先の各開発拠点への通信はそれぞれのチームが独自にコミュニケーション回線を持っているということだ。
年間24戦を支えるRIEDELのチーム編成
F1の運営に関わっているRIEDELのスタッフは、大きく3つのチームに分けられている。1つが実際のレースデイの運営を行うテクニカルチーム。それ以外の2チームは、事前に会場内でのワイヤリングを主に請負う回線敷設チームだ。テクニカルチームは基本的に水曜日の現地入り、木曜日にチェック、金曜日からのレースデイという流れだが、回線敷設チームは決勝日の10日程度前に現地に入り、サーキット各所へのカメラの設置、無線アンテナの設営など機材コンテナが到着したらすぐにチェックが行えるよう準備を行っているということ。また、決勝が終わったら撤収作業を行って速やかに次のサーキットへ向かわなければならない。レースは3週連続での開催スケジュールもある。よって交互に世界中を飛び回れるよう回線敷設は2チームが編成されているが、それでもかなり過密なスケジュールをこなすことになる。
ちなみに、すべてのケーブル類は持ち込みされており、現地での機材のレンタルなどは一切行われない。これは、確実性を担保するための重要なポイントであり、今後も変えることはありえないと言っていたのは印象的。質実剛健なドイツ人らしい完璧を求める考え方だ。
セーフティーカーに備えられた通信システム
今回の取材は木曜日ということもあり、レースカーの走行はなくセーフティーカーによるシステムテストが行われていた。セーフティーカーには、F1のレースカーと全く同様の車載カメラ、テレメトリー、ラップ等の計測装置が搭載されており、これらを使って各種テストを行っている。なんと、今回はそのセキュリティーカーに搭載されたこれらの機器を見せていただく機会を得られたのでここで紹介しておきたい。
F1で今年使われているセーフティーカーはAMG GT。そのトランクルームに各種データの送受信装置、データの変換装置が備え付けられている。こちらと同じ機器がレースカーにも備えられ、レースカーに車載された6台ものカメラの映像データも車上で圧縮され無線で送信されている。アンテナもインカム用のアンテナと、それ以外のデータ用のアンテナ、さらには審判用の装置、これらもレースカーと同様だ。
これらはF1レースカーの設計の邪魔にならないようそれぞれが非常にコンパクトであり、パッケージ化されていることがよく分かる。ちなみに、トランクルームの中央にある黒い大きなボックスは、セーフティーカーの灯火類のためのボックス(赤色灯等など)であり、こちらはレースカーに搭載されず、その左右の金色だったりの小さなボックス類が各種計測装置である。右手の金色のボックス類がカメラの映像を圧縮したりといった映像関連、左側がテレメトリーとインカム関連だということだ。
📷システムテストに用いられていたセーフティーカーの様子。トランク内にレースカーと同様の機材が積み込まれている。ルーフ上には各種アンテナが据えられており、そのどれもがレースカーに搭載することを前提にコンパクトな設計がなされている。
航空コンテナの中に設置されたサーバーラック
📷ラックサーバーが収められているという航空コンテナ。このコンテナごと世界各地のF1サーカスを巡っていく。
それでは、実際に用いられている通信の運用について見ていこう。それぞれのチームの無線チャンネル数は各チーム6〜8チャンネル前後、そこへオフィシャルの回線やエマージェンシーの回線などを加え、サーキット全体では200チャンネル前後の無線回線が飛び交っている。これらの信号はすべてIP化され、ネットワークセンターと呼ばれるバックヤードのサーバーラックへと送られている。これらすべての回線は不正のチェックなどにも使用されるため、全回線がレースデイを通して記録されているとのこと。また、サーキットに持ち込まれたサーバーでの収録はもちろん、RIEDEL本社にあるサーバールームでも併せて収録が行われるような仕組みになっている。なお、サーキットに持ち込まれたサーバーはあくまでもバックアップだそうだ。レース終了とともに次の会場への移動のために電源が落とされパッキングが始まってしまうからである。
2019年にもこのネットワークセンターのサーバーラックを見せてもらったのだが、このラックに収まる製品は大幅に変わっていた。まず取り上げたいのは、インカムの総合制御を行うための機器がAll IP化されたことに伴い、最新機種であるArtist 1024の1台に集約されていたことだ。従来の最大構成機種であったArtist 128は、その機種名の通り128chのハンドリングを6Uの筐体で行っていたが、Artist 1024はたった2Uの筐体で1024chのハンドリングを可能としている。このスペックによって予備回線のサブ機までをも含めてもわずか4Uで運用が事足りてしまっている。ラックには従来型の非IPの製品も収まっているが、これらは機材の更新が済んでいないチームで使用されている機器の予備機だということ。3本のラックの内の1本は、予備機材の運搬用ということになる。
他には、テレメトリー・映像データ送信用のMediorNet、多重化された電源、現地のバックアップレコーディング用のストレージサーバーといったところ。前回の取材時には非常に複雑なシステムだと感じたが、2024年版のラックはそれぞれの機器がシンプルに役割を持ち動作している。それらの機器のことを知っている方であれば、ひと目見て全貌が(もちろん、概要レベルだが)把握できるくらいにまでスリム化が行われていた。
📷数多くのインカム回線をハンドリングするArtist 1024。見ての通りArtist 1024を2台、わずか4Uでの構成だ。
これらのラックは、飛行機にそのまま積めるように航空コンテナの中に設置されている。コンテナは2台あり、回線関連の機器が収められたコンテナと、もう1台がストレージサーバー。航空輸送を行うということで、離陸、着陸のショックに耐えられるようかなり厳重な仕掛けが行われていたのも印象的。コンテナの中でラックは前後方向に敷かれたレールの上に設置され、それがかなりのサイズのダンパーで前後の壁面と固定されている。基本的に前後方向の衝撃を想定して、このダンパーでその衝撃を吸収しようということだ。2024年は24戦が世界各地で予定されており、そのたびに飛行機に積まれて次のサーキットへと移動される特殊な環境である。着陸のたびにダメージを受けることがないよう、これまでの経験を活かしてこのような構造を取っているということだ。
●RIEDEL MediorNet
2009年に登場した世界初となるFiber-BaseのVoIPトランスポート。さらにAudio、GPIO、もちろんRIEDELインカムの制御信号など様々な信号を同時に送受信できる。ファイバーケーブルを使った長距離伝送という特長だけではないこの規格は、世界中の大規模イベントのバックボーンとして使われている。本誌でも取り上げたF1以外にも、世界スポーツ大会、W杯サッカー、アメリカズカップなどが代表的な事例となる。ひとつのトランスポートで現場に流れるすべて(と言ってしまっても差し支えないだろう)の信号を一括で送受信することができるシステムである。
自社専用ダークファイバーで世界中へ
これらのコンテナ・ラックに集約された回線は、RIEDEL Networkの持つダークファイバー回線でRIEDEL本社へと送られる。RIEDEL NetworkはRIEDELのグループ会社で、世界中にダークファイバーの回線を持ち、その管理運用を行っている。その拠点まではそれぞれの国の回線を使用するが、世界中にあるRIEDEL Networkの回線が接続されているデータセンターからは自社回線での運用となる。各国内の回線であれば問題が起きることはそれほど多くない、それを他国へ送ろうとした際に問題が発生することが多い。そういったトラブルを回避するためにも自社で世界中にダークファイバーを持っているということになる。
また、RIEDEL本社の地下には、核シェルターに近い構造のセキュリティーレベルが高いデータセンターが設置されている。ここで、F1のすべてのデータが保管されているそうだ。各チームからのリクエストによる再審判や、車載カメラ、コースサイドのカメラ、各チームの無線音声などすべての情報がここに保管されている。FIAから直接の依頼を受けて業務を行っているRIEDELは、さながら運営側・主催者側のバックボーンを担っているといった様相だ。
ちなみに、F1のコントロールセンター(審判室)は、リモートでの運営となっている。RIEDEL本国に送られた回線は、ヨーロッパに設置されたコントロールセンター、そして、各チームのHQへと送られている。まさにRIEDEL本社がF1サーカスのワールドワイドのハブとなっているということだ。一旦レースの現場でデータを束ねて、確実なファシリティ、バックボーンのある本社拠点へ送る。それを必要なものに応じて切り出しを行い、世界中へを再発信する。世界中を転戦するF1サーカスならではの知恵と運用ノウハウである。
ちなみに、我々が楽しんでいるTVなどの中継回線は、コースサイドの映像などが会場で共有され、中継用の別ネットワークとして運営されているということだ。前回取材時の2019年はこの部分もRIEDELの回線を使ったリモートプロダクションが行われていたが、サーキット内での回線分岐で別の運用となっていた。これらの設備を見ることはできなかったが、サーキット内に中継用のブースがあるような様子はなく、RIEDELのスタッフもそのような設備がサーキット内に準備されているのは見たことがないということだったので、リモートプロダクションでの制作が行われているのは確かなようであった。別のネットワークを通じて行われるリモートプロダクション、2024年度の放映権を持つのはDAZNだが、どのようなスキームで制作されているのか興味が尽きないところだ。
総じてみると、2019年と比較してもシステムのコンパクト化、コロナを乗り越えたことによるスタッフの省力化、リモートの活用範囲の拡大などが随所に見られた。そして、バックボーンとなる回線のIP化が進み、Artist 1024のような大規模ルーターが現実のものとして運用されるようになっている。目に見える進化はそれほど大きくないのかもしれないが、そのバックボーンとなる技術はやはり日進月歩で進化を続けている。
IPによる物理回線のボリュームは劇的に減っており、要所要所は一対のファイバーケーブルで賄えるようになっている。ある意味、この記事において写真などで視覚的にお伝えできるものが減っているとも言えるのだが、これこそがIP化が進展した証左であり次世代のシステム、ソリューションの中核が現場に導入されているということに相違ない。
10年以上も前から一対のファイバーケーブルで、映像・音声・シリアル通信まで送受信できるシステムを提案しているRIEDEL。やっと時代が追いついてきているということなのだろうか。F1のような世界規模の現場からのリクエストで制作され鍛え上げられてきたRIEDELの製品。国内でも活用が多く見られるインカムは、RIEDELの持つテクノロジーの一端でしかない。トータルシステムとして導入して本来のバリューを発揮するRIEDELの製品群。今回のような事例から次世代のシステム・ソリューションにおけるヒントを見つけていただければ幸いである。
*ProceedMagazine2024号より転載
Music
2024/08/27
Cross Phase Studio 様 / クリエイティブが交差する、外部貸出も行う関西有数のイマーシブ拠点
大阪城の間近、大阪市天満に居を構えるCross Phase Studio。ゲーム / 遊技機のサウンド制作をメインに、近年では映像作品のポストプロダクション業務も増加するなど、関西圏で大きな存在感を持つCross Phase株式会社の自社スタジオだ。2022年末にイマーシブ・フォーマットへ対応するためのアップデートを果たした同スタジオだが、このたびには自社スタジオの外部貸出も開始させたそうだ。関西でのイマーシブ・オーディオをリードする存在ともなるCross Phase Studioへ早速取材にお邪魔した。
サウンドの持つ力を知る場所を多くの方に
Cross Phase株式会社は代表の金子氏が中心となって、数人のクリエイターとともに2015年に設立されたサウンド制作会社。「当時の勤務先ではだんだん管理的な業務のウェイトが増えていて、もっとクリエイティブな部分に携わっていたいと考えていました。きっかけはよくある呑みの席での雑談だったのですが、本当に独立してしまった(笑)」という同氏は元遊技機メーカー勤務。幼少期を海外で過ごしMTVを見て育ったことから大の音楽好きで、同じく好きだった遊技機と音楽の両方を仕事にできる業界を選んだということだ。
設立当初は各クリエイターが自宅の制作環境で制作を行っており本社は事務所機能だけだったが、自社スタジオであるCross Phase Studioを作るにあたり、本社所在地も現在の大阪市天満に移転している。そのスタジオもステレオのみでスタートしたのだが、Apple Digital Masters認定を受けるための過程でDolby Atmosの盛り上がりを知り、大きな可能性を感じたことで2022年末にイマーシブ・オーディオへ対応する運びとなったそうだ。
スタジオを持ってからも同社では積極的にテレワークやリモート制作を取り入れており、そのためのインフラは金子氏がみずから整えているとのこと。最適なソリューションが存在しない場合は自社製の業務ツールやソフトウェアを開発することもあるという。「ゲーム業界は横のつながりが強い。自分たちの経験に加え、サウンド外の情報や情勢も踏まえて効率化、向上化の手段を常に探っています。」といい、クリエイティブな作業に集中できる環境づくりを心がけている。設立時の想いを実践し続けていることが窺える。
📷Cross Phase株式会社 代表の金子氏。
金子氏に限らず全員が元ゲーム / 遊技機メーカー勤務のクリエイター集団である同社の強みは、ゲーム / 遊技機のサウンドに関わる工程すべてを把握しており、サウンドプロジェクト全体をワンストップで請け負える点にある。プロジェクト自体の企画から、楽曲や効果音などの制作、音声収録など各種レコーディング、ゲームや遊技機への実装・デバッグのすべての工程でクライアントと協業することが可能だ。
近年はゲーム / 遊技機分野にとどまらず映像作品の音声制作などへも活躍の場を広げているが、そのきっかけは1本の映画作品だったようだ。「ロケ収録した音声を整音する依頼だったのですが、元の音声があまりいい状態ではなくて…。当社でできる限りいいものにならないか試行錯誤したところ、その結果にクライアントがすごく喜んでくれたんです。それで、みんな音の大切さに気付いてないだけで、いい音を聴いてもらえばわかってくれるんだということに気付いたんです」という。
こうした経験から、もともと自社業務専用と考えていたCross Phase Studioの外部貸出を開始したそうだ。「Dolby Atmosを聴いてもらうと多くのクライアントが興味を示してくれます。当社のクリエイターからも、イマーシブを前提とするとそれ以前とは作曲のコンセプトがまったく変わる、という話もありました。せっかくの環境なのでもっと多くのみなさんにサウンドの持つ力を体験して知ってほしいんです。」そして、「Cross Phaseという社名は、さまざまなクリエイティブが交差する場所にしたいという想いで名付けました。関西圏には才能あるクリエイターがたくさんいるので、みなさんとともに関西発で全国のシーンを盛り上げていきたいと思っています」と熱を込めて語ってくれた。
7.1.4 ch をADAMで構成
Cross Phase Studioのイマーシブシステムは7.1.4構成となっておりDolby Atmosへの対応がメインとなるが、DAWシステムには360 Walkmix Creator™️もインストールされており、360 Reality Audioのプリミックスにも対応が可能だ。
モニタースピーカーはADAM AUDIO。9本のA4VとSub 12という組み合わせとなっている。それとは別に、ステレオミッドフィールドモニターとして同じくADAM AUDIOのA77Xが導入されている。スタイリッシュな内装や質実剛健な機材選定と相まって、見た目にもスタジオ全体に引き締まった印象を与えているが、そのADAM AUDIOが導入された経緯については、「スタジオ開設当初は某有名ブランドのスピーカーを使用してたのですが、あまり音に面白みを感じられなくて…。スピーカーを更新しよう(当時はまだステレオのみ)ということで試聴会を行ったのですが、当社のクリエイターのひとりがADAMを愛用していたので候補の中に入れていたんです。そうしたら、聴いた瞬間(笑)、全員一致でADAMに決まりました。そうした経験があったので、イマーシブ環境の導入に際してもADAM一択でしたね。」とのこと。
📷7.1.4の構成で組まれたスピーカーはスタッフ全員で行った試聴会の結果、ADAMで統一された。天井にも吊られたA4Vのほか、ステレオミッドフィールド用にA77Xが設置されている。
もちろん、ADAM AUDIOも有名ブランドではあるが、その時点での”定番のサウンド”に飽き足らずクリエイターが納得できるものを追求していくという姿勢には、音は映像の添え物ではない、あるいは例えそうした場面であってもクリエイティビティを十二分に発揮して作品に貢献するのだという、エンターテインメント分野を生き抜く同社の強い意志を感じる。そうした意味では、ADAM AUDIOのサウンドは同社全体のアイデンティティでもあると言えるのではないだろうか。関西エリアに拠点を置くクリエイターには、ぜひ一度Cross Phase Studioを借りてそのサウンドを体験してほしい。
デジタル、コンパクト、クリーンな「今」のスタジオ
それではCross Phase Studioのシステムを見ていこう。金子氏の「当社はスタジオとしては後発。イマーシブ導入もそうですが、ほかのスタジオにはない特色を打ち出していく必要性を感じていました。今の時代の若いスタジオということで、デジタルをメインにしたコンパクトなシステムで、クリーンなサウンドを念頭に置いて選定しています。」という言葉通り、DAW周りは非常に現代的な構成になっている。
📷メインのデスクと後方のデスクに2組のコントロールサーフェスが組まれているのが大きな特徴。前方メインデスクにはAvid S3とDock、後方にはAvid S1が2台。ステレオとイマーシブで異なるスイートスポットに対応するため、それぞれのミキシングポイントが設けられた格好だ。
スタジオにコンソールはなく、Pro Tools | S3 + Pro Tools | Dock + DAD MOMと、2 x Pro Tools | S1 + DAD MOMというコントロールサーフェスを中心とした構成。サーフェスが二組あるのはステレオ再生とイマーシブ再生ではスイートスポットが変わるため、コントロールルームの中に2ヶ所のミキシングポイントを置いているからである。DAWはもちろんPro Tools Ultimate、バックアップレコーダー兼メディアプレイヤーとしてTASCAM DA3000も導入されている。
オーディオI/FにはPro Tools | MTRX Studioを採用。モニターコントロールはDAD MOMからコントロールするDADmanが担っているため、ステレオ / イマーシブのスピーカーはすべてこのMTRX Studioと直接つながれている。MTRX StudioにはFocusrite A16RがDanteで接続されており、後述するアウトボードのためにアナログI/Oを拡張する役割を担っている。また、スピーカーの音響補正もMTRX Studioに内蔵されているSPQ機能を使用して実施。測定にはsonorworks soundID Referenceを使用したという。現在ではsoundID Referenceで作成したプロファイルを直接DADmanにインポートすることができるが、導入時にはまだその機能がなく、ディレイ値などはすべてDADmanに手打ちしたとのこと。
📷上段にMTRX Studioがあり、その下が本文中でも触れたflock audio The Patch。数々のアウトボードが操作性にも配慮されてラッキングされていた。
必要最小限で済ますならばこれだけでもシステムとしては成立するのだが、スッキリとした見た目と裏腹に同スタジオはアウトボード類も充実している。SSLやBettermakerなどのクリーン系ハイエンド機からAvalon DesignやManleyなどの真空管系、さらに、Kempfer・Fractal Audio Systemsといったアンプシミュレーター、大量のプラグイン処理を実現するWaves SoundGrid Extreme Serverやappolo Twin、そろそろビンテージ機に認定されそうなWaves L2(ハードウェア!)も導入されており、現時点でも対応できる音作りは非常に広いと言えそうだが、「当社のクリエイターたちと相談しながら、その時々に必要と考えた機材はこれからも増やしていく予定です」とのこと。
これらのスタジオ機器の中で、金子氏がもっとも気に入っているのはflock audio The Patchなのだという。金子氏をして「この機材がなかったら当社のスタジオは実現していなかった」とまで言わしめるThe Patchは、1Uの機体の内部にフルアナログで32in / outのシグナルパスを持ち、そのすべてのルーティングをMac / PCから行えるというまさに現代のパッチベイである。Cross Phase Studioではアナログ入力系は基本的に一度このThe Patchに接続され、そこからA16Rを介してDanteでMTRX Studioへ入力される。日々の運用のしやすさだけでなくメンテナンス性や拡張性の観点からも、確かにThe Patchの導入がもたらした恩恵は大きいと言えるだろう。
コントロールルームの隣にはひとつのブースが併設されている。ゲーム / 遊技機分野から始まっているということもあってボーカル・台詞など声の収録がメインだが、必要に応じて楽器の収録もできるように作られている。印象的だったのは、マイクの横に譜面台とともにiPad / タブレットを固定できるアタッチメントが置かれていたことだ。台詞録りといえば今でも紙の台本というイメージが強いが、個別収録の現場では徐々に台本もデジタル化が進んでいるようだ。
📷コントロールルームのすぐ隣にはブースが設置されている、ボーカル・ダイアログなど声の収録だけではなく、楽器にも対応できる充分なスペースを確保している。
ブース内の様子は撮影が可能でコントロールルームにはBlackmagic Design ATEM Miniが設置されていた。「もともと音楽1本だけの会社ではないので、徐々にオファーが増えている映像制作やライブ配信をはじめとした様々な分野にチャレンジしていきたい。最近、知人から当社のブースをビジネス系YouTube動画の制作に使いたいというオファーもありました(笑)。バンドレコーディングはもちろん、“歌みた“などのボーカルレコーディングや楽器録音など、ぜひ色々なクリエイターやアーティストに使って欲しいです。」とのことで、同社が活躍するフィールドはさらに広がっていきそうだ。
最近では海外からのオファーも増えてきたというCross Phase。金子氏は「ゆくゆくは国産メーカーの機器を増やして、日本ならではのスタジオとして海外の方にも来てもらえるようにしたいですね」と語る。イマーシブ制作の環境が整ったスタジオを借りることができるというのは、まだ全国的に見ても珍しい事例である。関西圏を拠点にするクリエイターは、ぜひ一度Cross Phase Studioで「サウンドの持つ力」を体験して知ってほしい。
*ProceedMagazine2024号より転載
Event
2024/08/26
【9/2~4】Rock oN新梅田店にて360VME関西初の体験会を開催!
今年6月より待望の出張測定サービスも開始し、早速スタジオに伺っての測定も実施中の360 Virtual Mixing Environment(360VME)サービス。実際にVMEを使用した制作実績も生まれ、業界内でも測定された方を中心にじわじわとその高い性能が広まっています。
しかし百聞は一見にしかず、ならぬ百見は一聞にしかずの技術なのもまた事実。
そこで、今までの体験会は東京での開催のみでしたが。。。
8/20(金)にプレオープンしたばかりのRock oN新梅田店にて、関西初の360VME体験会を実施します!
ご参加いただいた方には出張測定が¥20,000引きとなる特別クーポンも贈呈!
今まで東京の体験会にお越しいただけなかった皆様にもようやく驚きの再現力をご体感いただけます。
またこれより梅田を拠点に出張測定サポートを強化し、西日本の皆様にも測定サービスをスムーズにご利用いただける体制を整備いたします。まずは体験会にお越しいただき、そのクオリティをご確認ください!
◎開催日程
開催日:9月2日〜4日の3日間
開催時間:13時、15時、17時 (各30分)
定員:各時間 定員2名
参加費:無料
参加特典:360VME 〜出張測定〜 20,000円OFFクーポン
体験会お申し込みはコチラ
【ご注意】フォームからのお申し込み時点ではお申し込みは完了しません。
開催日/時間ごとの先着順のためフォーム送信後に落選となる可能性がございます。
こちらからお申し込み完了のご連絡が届いた時点で完了となります。予めご了承下さい。
改めて、360VMEとは 〜スタジオを持ち運ぶ〜
SONY 360 Virtual Mixing Environmentとは、複数のスピーカーで構成されたスタジオの音場を独自の測定技術によりヘッドホンで正確に再現する技術。SONYが長年研究開発してきたバーチャルサラウンドの延長線上にあるテクノロジーであり、プロのクリエイターが制作で扱える最高品質のバイノーラルモニタリング技術として開発された経緯があります。
コロナ禍にはハリウッドのSony Picturesで使用実績を積みトップクリエイターの意見を踏まえて開発された360VMEは、バイノーラルでの再現が特に難しいとされるセンター方向の定位を含め汎用のバイノーラルとは比べ物にならないクオリティを実現しています。
360VMEの大きな特徴がその測定方法にあります。360VMEでは、個々人の頭の形によるプライベートHRTFはもちろんのこと、使用するスピーカー、ヘッドフォンの特性、部屋の反射などを含めた空間の音響特性までをまとめて計測。それにより、まさに測定するその環境その位置で測定者その人の鼓膜に届く音を再現するのです。
また意外と知られていないのが、360VMEはイマーシブフォーマット以外にも、5.1chや7.1chといったサラウンド、ステレオにもお使いいただける技術であるということ。うちにはイマーシブ環境が無いという方でも、お持ちのシステムで測定いただくも良し、MIL Studioのイマーシブ環境をお持ち帰りいただくのも良しのサービスとなっております。
スタジオを持ち運ぶというコンセプトがご理解いただけたでしょうか? MIL Studioの完全4π音響空間をご自身のイマーシブモニター環境とすることも、普段利用されているスタジオの音を自宅に持ち帰って仕込み作業を行うことも可能にする360VMEで、新たな制作スタイルを手に入れましょう。
料金体系
① 360VME プロファイル料金
1プロファイル/1年 ¥40,000(税別)
1プロファイル/6ヶ月 ¥25,000(税別)
※プロファイルデータは 有効期限付きのサブスクリプションモデルとなります
② 360VME 測定料金
MILスタジオでの測定 1人測定/¥40,000(税別)
出張測定サービス 1出張/¥80,000(税別)
※出張測定サービスは、3プロファイル以上でのお申し込みをお願いします。
①プロファイルサブスクリプション + ②測定料金 = 360VME測定サービス合計金額となります。
新しくなったRock oN梅田店でまずはその効果をご体験ください!きっと驚かれるはずです。
渋谷店でも引き続き測定デモは実施中です!店頭スタッフへお問い合わせください。
梅田体験会お申し込みはコチラ
またVME体験会だけでなく新梅田店では9/6(金)のグランドオープンに向けて様々なイベントを計画中!日々完成へと近づく新たな梅田店を一緒に作り上げてください!
プレオープンイベント「みんなで作ろうRock oN」の詳細はコチラをチェック!
出張測定、MILでの測定お申し込みやより詳しい情報は↓↓以下のページからお待ちしております↓↓
https://pro.miroc.co.jp/headline/360vme_new-service_202406/
MIL studioについてはこちら↓
https://www.minet.jp/contents/info/mil-studio/
Event
2024/08/25
【8/30(金)開催】RTW Presents “TouchControl 5 Meets ATMOS” Atmosミックスの第一人者がナビゲート!革新的コントローラーによるモニタリング
8/30(金)、Dante®ベースのAoIPを利用したメータリング機能付きモニターコントローラー『RTW TouchControl 5』をフィーチャーしたセミナーイベントを弊社LUSH HUBにて開催いたします。
このイベントでは、サウンドデザイナーの染谷和孝氏によるDolby Atmosミックスにおいて重要なモニタリングについてのトークセッションに加え、Dolby Atmos 7.1.4環境を備えた別室にてTouchControl 5を実際に操作できるハンズオン体験をご用意しています。さらに軽食やドリンクのご用意もいたしますので、クリエイター同士の交流も深まることでしょう。
さらにさらに!セミナー参加者にはRock oN渋谷店にてTouchControl5が10%OFFで購入できるクーポンコードをプレゼントいたします!
参加費は無料で、抽選で30名様限定となります。この貴重な学びと交流の場をぜひお楽しみください。
お申し込みはこちら
イベント概要
日時:2024年8月30日(金)
OPEN:16:30 START:17:00
場所:渋谷LUSH HUB 東京都渋谷区神南1-8-18 クオリア神南フラッツB1F
ナビゲーター:染谷和孝 氏(サウンドデザイナー)
参加費:無料
定員:完全予約 30名様限定
お申込み締め切り:2024年8月23日(金)24:00
抽選結果ご連絡日:2024年8月26日(月)
主催:ビーテック株式会社
協力:LUSH HUB、ROCK ON PRO
RTW TouchControl 5
TouchControl 5はDante®ベースのAoIPを利用したメータリング機能付きモニターコントローラーです。
RTWが長年培ってきた放送クオリティのモニターコントローラーで、直観的に操作できる5″のタッチスクリーンとデスクトップの貴重なスペースを無駄にしないコンパクトサイズとなっています。もちろんRTWの誇るSPLを含む正確なメータリングとビルトインされたマイクによる環境設定も可能です。
・Dante® Audio over IPネットワークを使用したモニタリング
・SPL測定とトークバック用にマイクロフォンを搭載
・プレミアムPPM、トゥルーピーク、VUのメーター表示
ナビゲーター:染谷和孝 氏
株式会社ソナ 制作技術部
サウンドデザイナー/リレコーディングミキサー
1963年東京生まれ。東京工学院専門学校卒業後、(株)ビクター青山スタジオ、(株)IMAGICA、(株)イメージスタジオ109、ソニーPCL株式会社を経て、2007年に(株)ダイマジックの7.1ch対応スタジオ、2014年には(株)ビー・ブルーのDolby Atmos対応スタジオの設立に参加。2020年に株式会社ソナ制作技術部に所属を移し、サウンドデザイナー/リレコーディングミキサーとして活動中。2006年よりAES(オーディオ・エンジニアリング・ソサエティー)「Audio for Games部門」のバイスチェアーを務める。また、2019年9月よりAES日本支部 広報理事を担当。
お申し込みはこちら
Music
2024/08/23
日本最大の男祭り、その熱量をコンテンツに込める〜UVERworld KING’S PARADE 男祭り REBORN at Nissan Stadium〜
昨夏、日産スタジアムにて開催された音楽ライブ「UVERworld KING’S PARADE 男祭り REBORN at Nissan Stadium」。この72,000人の観客とともに作り上げた公演を記録した映像作品が全国劇場公開された。男性のみが参加できるという日本最大の「男祭り」、劇場版の音響にはDolby Atmosが採用され、約7万人もの男性観客のみが集ったその熱狂を再現したという本作。音響制作を手がけられたWOWOW 戸田 佳宏氏、VICTOR STUDIO 八反田 亮太氏にお話を伺った。
ライブの熱狂を再現する作品を
📷右)戸田 佳宏 氏 / 株式会社WOWOW 技術センター 制作技術ユニット エンジニア 左)八反田 亮太氏 / VICTOR STUDIO レコーディングエンジニア
Rock oN(以下、R):本日はお時間いただきありがとうございます。まず最初に、本作制作の概要についてお聞きしてもよろしいですか?
戸田:今回のDolby Atmos版の制作は、UVERworldさんの男祭りというこれだけの観客が入ってしかも男性だけというこのライブの熱量を表現できないか、追体験を作り出せないかというところからスタートしました。大まかな分担としては、八反田さんがステレオミックスを制作し、それを基に僕がDolby Atmosミックスを制作したという流れです。
R:ステレオとAtmosの制作については、お二人の間でコミュニケーションを取って進められたのでしょうか?
八反田:Dolby Atmosにする段階では、基本的に戸田さんにお任せしていました。戸田さんとはライブ作品をAtmosで制作するのは2度目で、前回の東京ドーム(『UVERworld KING’S PARADE 男祭り FINAL at Tokyo Dome 2019.12.20』)でも一緒に制作をしているので、その経験もあってすり合わせが大きく必要になることはありませんでした。
戸田:このライブ自体のコンセプトでもあるのですが、オーディエンス、演奏の”熱量”というところをステレオ、Atmosともに重要視していました。僕がもともとテレビ番組からミックスを始めているのもあるのかもしれないですが、会場を再現するという作り方に慣れていたので、まず会場をAtmosで再現するところから始めました。そうやって制作するとオーディエンス、会場感が大きいものになっていくので、それを八反田さんに確認していただいて、音楽としてのミックスのクオリティを高めていくという流れですね。逆にCDミックスのような質感に寄りすぎてもライブの熱量が足りなくなっていくので、その境界線を見極めながらの作業になりました。
八反田:作業している時は「もっと熱量を!」というワードが飛び交っていましたね(笑)。
戸田:Atmosミックスではアリーナ前方の位置でライブを見ている感覚をイメージしていました。ライブ会場ではこうだよな、という聴こえ方を再現するという方向ですね。映像作品なのでボーカルに寄る画もあるので、そういった場面でも成立するようなバランスを意識しました。
八反田:ステレオでこれだとドラムが大きすぎるよな、というのもAtmosでは可能なバランスだったりするので、音楽としてのバランスも込みでライブをどう聴かせたいかという理想を突き詰めた部分もあります。
日産スタジアムでのライブ収録
📷1~16がステレオミックス用、17~42がDolby Atmos用に立てられたマイク。色によって高さの階層が分けて記されており、赤がアリーナレベル、青が2Fスタンド、緑がトップ用のマイクとなっている。31~34はバックスクリーン下のスペースに立てられた。
R:収録についてはどういった座組で行われたのでしょうか?
戸田:基本はパッケージ収録用のステレオ前提でライブレコーディングチームがプランニングをされていたので、3Dオーディオ版として足りないところをWOWOWチームで追加しました。事前にステレオのチームとマイク図面の打ち合わせを行い、マイク設置位置を調整しました。録音は音声中継車で録ることができる回線数を20chほど超えてしまったので追加でレコーダーを持ち込みました。ドラムセットが3つあったのもあって、全体で150chくらい使用していますね。そのうちオーディエンスマイクだけでステレオ用で16本、Atmos用でさらに26本立てました。
R:日産スタジアムってかなり広いですよね。回線は信号変換などを行って伝送されたのですか?
戸田:アリーナレベルは、音声中継車までアナログケーブルで引きました。スタンドレベルも端子盤を使って中継車までアナログですね。足りない部分だけOTARI Lightwinderを使ってオプティカルケーブルで引くこともしました。スタジアムはとにかく距離が長いのと、基本的にはサッカーの撮影用に設計された端子盤なので、スタンド席のマイクなどは養生などをして観客の中を通さないといけないのが結構大変でした。
R:ステージのフロントに立っているマイクは観客の方を向いているんですか?
戸田:そうですね。それはステージの端から観客に向けて立てられたマイクです。レスポンスの収録用です。曲中は邪魔にならないように工夫しながらミックスしました。包まれ感には前からのオーディエンスも重要なので。
R:Atmos用に設置したマイクについては、どういった計画で設置されたのでしょうか?
戸田:Atmos用のマイクはステレオ用から足りないところ、スピーカー位置で考えるとサラウンドのサイド、リア、トップなどを埋めていくという考え方で置いていきました。
八反田:キャットウォークに置いたマイクが被りも少なく歓声がよく録れていて、お客さんに包まれる感じ、特に男の一体感を出すのに使えました。イマーシブ用マイクで収録した音源は、ステレオミックスでも使用しています。
約150chの素材によるDolby Atmos ミックス
R:これだけ広い会場のアンビエンスだと、タイムアライメントが大変ではなかったですか?
戸田:そこはだいぶ調整しましたね。一番最初の作業がPAミックスと時間軸を調整したアンビエンスをミックスし、会場の雰囲気を作っていくことでした。スタジアムは一番距離があるところで100m以上離れているので、単純計算で0.3〜0.5秒音が遅れてマイクに到達します。
R:合わせる時はオーディオファイルをずらしていったのですか?
戸田:オーディエンスマイクの音を前へ(時間軸として)と調整していきました。ぴったり合うと気持ちいいというわけでもないし、単純にマイク距離に合わせればいいというわけでもないので、波形も見つつ、スピーカーとの距離を考えて経験で調整していきました。正解があったら知りたい作業でしたね。
R:空気感、スタジアム感との兼ね合いということですね。MCのシーンではスタジアムの残響感というか、声が広がっていくのを細かく聴き取ることができました。リバーブは後から足されたりしたのですか?
戸田:MCの場面ではリバーブを付け足す処理などは行なっていません。オーディエンスマイクで拾った音のタイムアライメントを調整して、ほぼそのまま会場の響きを使っています。ステージマイクに対してのリバーブは、一部AltiverbのQuadチャンネルを使っています。
R:ライブではMCからスムーズに歌唱に入るシーンも多かったと思いますが、そこの切り替えはどうされたんですか?
戸田:そこが今回の作品の難しいところでした。見る人にもMCからすっと音楽に入ってもらいたいけど、かといって急に空間が狭くなってしまうと没入感が損なわれてしまうので、会場の広さを感じながらも音楽にフォーカスしてもらえるように、MCと楽曲中のボーカルのリバーブではミックスで差をつけるなどで工夫しています。
R:なるほど。アンビエンスの音処理などはされました?
戸田:曲によってアンビ感が強すぎるものはボーカルと被る帯域を抜いたりはしています。前回の東京ドームでは意図しない音を消すこともしたのですが、今回は距離感を持ってマイクを置けたので近い音を消すことは前回ほどなかったです。
R:オブジェクトの移動は使いました?
戸田:ほぼ動かしていないですね。画や人の動きに合わせて移動もしていないです。バンドとしての音楽作品という前提があるので、そこは崩さないように気を付けています。シーケンスの音は少し動かした所があります。画がない音なので、そういうのは散らばらせても意外と違和感がないかなと感じています。
📷会場内に設置されたマイクの様子。左上はクランプで観客席の手すりに付けられたマイク。すり鉢状になっている会場の下のレイヤーを狙うイメージで立てられた。また、その右の写真は屋根裏のキャットウォークから突き出すようにクランプで設置されたトップ用マイク。天井との距離は近いが、上からの跳ね返りはあまり気にならずオーディエンスの熱気が上手く録れたという。
R:イマーシブになるとチャンネル数が増えて作業量が増えるイメージを持たれている方も多いと思うのですが、逆にイマーシブになることで楽になる部分などはあったりしますか?
戸田:空間の解像度が上がって聴いてもらいたい音が出しやすくなりますね。2chにまとめる必要が無いので。
八反田:確かにそういう意味ではステレオと方向性の違うものとしてAtmosは作っていますね。ステレオとは違うアプローチでの音の分離のさせ方ができますし、Atmosを使えば面や広い空間で鳴らす表現もできます。東京ドームの時もそういうトライはしましたが、今回はより挑戦しました。ドームは閉じた空間で残響も多いので、今回は広く開けたスタジアムとしての音作りを心がけています。
R:被りが減る分、EQワークは楽になりますよね。
戸田:空間を拡げていくと音が抜けてきますね。逆に拡がりよりも固まりが求められる場合は、コンプをかけたりもします。
R:イマーシブミックスのコンプって難しくないですか?ハードコンプになると空間や位相が歪む感じが出ますよね。
戸田:すぐにピークを突いてしまうDolby Atmosでどう音圧を稼ぐかはポイントですよね。今回はサイドチェイン用のAUXバスを使って、モノラル成分をトリガーにオブジェクト全体で同じ動きのコンプをかける工夫をしています。オーディエンスのオブジェクトを一括で叩くコンプなどですね。ベッドのトラックにはNugen Audio ISL2も使っています。
R:スピーカー本数よりマイク本数の方が多いので、間を埋めるポジションも使いつつになると思いますが、パンニングの際はファンタム定位も積極的に使われましたか?
戸田:位相干渉が出てくるのであまりファンタム定位は使わずにいきました。基本の考え方はチャンネルベースの位置に近いパンニングになっていると思います。ダビングステージで聴いた時に、スピーカー位置の関係でどうしても後ろに音が溜まってしまうので、マイクによってはスピーカー・スナップ(近傍のスピーカーにパンニングポジションを定位させる機能)を入れて音が溢れすぎないようにスッキリさせました。
Dolby Atmos Home環境とダビングステージの違い
R:丁度ダビングの話が出ましたが、ダビングステージでは正面がスクリーンバックのスピーカーになっていたりとDolby Atmos Homeの環境で仕込んできたものと鳴り方が変わると思うのですが、そこは意識されましたか?
戸田:スクリーンバックというよりは、サラウンドスピーカーの角度とXカーブの影響で変わるなという印象です。東京ドームの時はXカーブをすごく意識して、全体にEQをかけたんですけど、今回違う挑戦として、オーディエンスでなるべくオブジェクトを使う手法にしてみました。とにかく高さ方向のあるものやワイドスピーカーを使いたいものはオブジェクトにしていったら、ダビングステージでもイメージに近い鳴り方をしてくれました。もちろん部屋の広さとスピーカーの位置が違うので、仕込みの時から定位を変えてバランスをとりました。
R:ダビングはスピーカー位置が全部高いですからね。
戸田:全体の定位が上がっていってしまうので、そうするとまとまりも出てこないんですよね。なのでトップに配置していた音をどんどん下げていきました。トップの位置もシネマでは完全に天井ですから、そこから鳴るとまた違和感になってしまう。スタジアムは天井が空いているので、本来観客がいない高い位置からオーディエンスが聴こえてしまうのは不自然になってしまうと考えました。
R:これだけオーディエンスがあると、オブジェクトの数が足りなくなりませんでした?
戸田:そうですね、当時の社内のシステムではオブジェクトが最大54しか使えなかったので工夫しました。サラウンドはベッドでも7chあるので、スピーカー位置の音はベッドでいいかなと。どうしても真後ろに置きたい音などにオブジェクトを使いました。楽器系もオブジェクトにするものはステムにまとめています。
R:シネマ環境のオブジェクトでは、サラウンドがアレイで鳴るかピンポイントで鳴るかという違いが特に大きいですよね。
戸田:はい。なのでオーディエンスがピンポイントで鳴るようにオブジェクトで仕込みました。ベッドを使用しアレイから音を出力すると環境によりますが、8本くらいのスピーカーが鳴ります。オーディエンスの鳴り方をオブジェクトで制御できたことで空間を作るための微調整がやりやすかったです。ただ、観客のレスポンスはベッドを使用してアレイから流すことで、他の音を含めた全体の繋がりが良くなるという発見がありました。
R:最後に、音楽ライブコンテンツとしてDolby Atmosを制作してみてどう感じていますか?
八反田:誤解を恐れずに言えば、2chがライブを“記録“として残すことに対してDolby Atmosは“体験“として残せることにとても可能性を感じています。今回は会場の再現に重きを置きましたが、逆にライブのオーディエンスとしては味わえない体験を表現することも面白そうです。
戸田:Dolby Atmosでは、音楽的に表現できる空間が広くなることで、一度に配置できる音数が増えます。こういう表現手法があることでアーティストの方のインスピレーションに繋がり、新たな制作手法が生まれると嬉しく思います。またライブ作品では、取り扱いの難しいオーディエンスも含めて、会場感を損なわずに音楽を伝えられるというのがDolby Atmos含めイマーシブオーディオの良さなのかなと考えています。
一度きりのライブのあの空間、そして体験を再び作り出すという、ライブコンテンツフォーマットとしてのDolby Atmosのパワーを本作からは強く感じた。72,000人の男性のみという特殊なライブ会場。その熱量をコンテンツに込めるという取り組みは、様々な工夫により作品にしっかりと結実していた。やはり会場の空気感=熱量を捉えるためには、多数のアンビエントマイクによる空間のキャプチャーが重要であり、これは事前のマイクプランから始まることだということを改めて考えさせられた。イマーシブオーディオの制作数も徐々に増えている昨今、制作現場ではプロジェクト毎に実験と挑戦が積み上げられている。過渡期にあるイマーシブコンテンツ制作の潮流の中、自らの表現手法、明日の定石も同じように蓄積されているようだ。
UVERworld KING’S PARADE 男祭り REBORN at Nissan Stadium
出演:UVERworld
製作:Sony Music Labels Inc.
配給:WOWOW
©Sony Music Labels Inc.
*ProceedMagazine2024号より転載
NEWS
2024/08/22
【店頭視聴も!】musikから最小サイズの同軸2way「MO-1 MK.II」が登場!
同軸モニタースピーカーを代表するメーカーであるドイツのmusikelectronic geithainから、待望の新製品が発売となります!
MO-1 MK.IIは前作MO-1の意志を引き継ぎmusikラインナップで最小サイズのモニタースピーカーです。中継車のために開発されたという前モデルから再設計が施され、新たにDSPチップを搭載。さらにオプションでDante/AES67対応も可能になっています!
高さ約22cm、横幅約15cmというサイズは限られたスペースでの利用はもちろん、同軸の持つ抜群の定位感を活かしたイマーシブ、サラウンド用スピーカーとしても間違いなく活躍してくれるでしょう。
来週より、日本で唯一の実機展示をRock oN渋谷店/梅田店で実施予定!
最小サイズから繰り出されるmusikサウンドを店頭でぜひご体験ください!
Rock oN Shibuya
東京都渋谷区神南1-8-18 クオリア神南フラッツ1F
Rock oN Umeda 8/20よりリニューアルプレオープン!詳しくはコチラ
大阪府大阪市北区芝田 1 丁目 4-14 芝田町ビル 6F
機能紹介 ~小型ながらも多機能な1本~
多くのスタジオで導入されてきた信頼のあるmusik製品群の中でエントリークラスに位置する本機。musikの特徴である同軸設計による定位感の良さ、奥行きの表現力や圧倒的な解像度は業界内でも定評です。
今回新たにユーザー設定可能なDSPが搭載され、数種類のフィルタープリセットやディレイタイムの調整が可能に。なんとオプションによりDante/AES67での接続にも対応するため、マルチチャンネルのシステムもEthernetケーブルでシンプルに構築ができるのは大きなポイント。
2つのXLR入力からはモノダウンミックスが可能な他、PWM方式を採用した内蔵アンプ、高効率なスイッチング電源など、小さな筐体に多くの機能と拡張性が詰め込まれた注目の製品となっています。
製品概要
musikelectronic / MO-1 MK.II
¥660,000(税込)
Rock oN eStoreで購入>>
アクティブ同軸2ウェイスピーカー
最大音圧レベル:108dB r = 1 m
周波数特性:50Hz~22kHz ±3dB
歪率(83dB/r=1m):-40dB
クロスオーバー周波数:3.5kHz
内蔵パワーアンプ出力:95W / 4Ω(低域)、95W / 4Ω(高域)
入力コネクター:XLR 3F アナログ、RJ45 Dante/AES67 (オプション)
ユニット構成:低域 100mm コーン、高域 19mm ドームツィーター
消費電力:7VA (アイドル時)、80VA(フルロード時)
キャビネット材質:MDF
キャビネット仕上:ブラック or セミグロスホワイト
寸法:214 H x 147 W x 192 D mm
重量:3.5 kg
musikelectronic久々の新モデルとなるMO-1 MK.IIは、現代のスタジオニーズを意識した広い可能性を持つプロダクトではないでしょうか!ご自宅のスタジオ環境をグレードアップさせる1本としても是非ご検討ください!導入のご相談はROCK ON PROまで。
Music
2024/08/20
「ライブを超えたライブ体験」の実現に向けて〜FUKUYAMA MASAHARU LIVE FILM 言霊の幸わう夏〜
今年1月、アーティスト・福山雅治による初監督作品 『FUKUYAMA MASAHARU LIVE FILM 言霊の幸わう夏 @NIPPON BUDOKAN 2023』が公開された。昨年夏に開催された武道館公演を収録した本作は、ドローン撮影による映像やDolby Atmosが採り入れられ、福山本人による監修のもと “ライブを超えたライブ” 体験と銘打たれた作品となっている。今回は特別に、本作の音響制作陣である染谷 和孝氏、三浦 瑞生氏、嶋田 美穂氏にお越しいただき、本作における音響制作についてお話を伺うことができた。
📷
左)三浦 瑞生氏:株式会社ミキサーズラボ 代表取締役社長 レコーディング、ミキシングエンジニア
中)嶋田 美穂氏:株式会社ヒューマックスエンタテインメント ポストプロダクション事業部 リレコーディングミキサー マネジャー
右)染谷 和孝氏:株式会社ソナ 制作技術部 サウンドデザイナー/リレコーディングミキサー
”理想のライブの音”に至るまで
Rock oN(以下、R):まずは、今回の企画の経緯について聞かせていただけますか?
染谷:私はこれまで嵐、三代目 J Soul Brothers(以下JSB3)のライブフィルム作品のAtmos ミックスを担当させていただきました。嶋田さんとは前作のJSB3からご一緒させていただいていて、その二作目ということになります。嶋田さんとのお話の中で、私たちが一番注意していたことは、音楽エンジニアの方とのチームワークの構築でした。三浦さんは長年福山さんの音楽を支えてこられた日本を代表するエンジニアさんであり、すでにチーム福山としての完成されたビジョンやチームワークはできあがっています。そこに我々がどのように参加させていただくかを特に慎重に考えました。Atmos制作内容以前に、チームメンバーとしての信頼を得るというのはとても大切な部分です。その配慮を間違えると「作品の最終着地点が変わるな」と感じていましたので、最初に三浦さんにAtmosで制作する上でどういうことができるのか、いくつかのご説明と方向性をご相談させていただきました。そして最終的に、三浦さんと福山さんの中でステレオミックスをまず制作していただいて、その揺るぎない骨子をAtmosミックスに拡張していく方向で制作を進めていくことに決まりました。
R:Atmosで収録した作品として今作で特徴的なのが、ライブの再現ではなく、“ライブを超えたライブ体験”というコンセプトを大事にされていますが、その方向性というのも話し合う中で決まっていったのですか?
染谷:収録が終わり、まず三浦さんがステレオミックスをされて、その後何曲かAtmosミックスを行い、福山さんにお聴かせする機会がありました。そこで福山さんが、オーディエンス(歓声)のバランスを自分の手で調整しながらAtmosの感覚、できることを探っていかれる時間がありました。
嶋田:そこで、閃かれた瞬間がありましたよね。
染谷:武道館特有の上から降ってくるような歓声やセンターステージに立っている福山さんでしか感じられない雰囲気をこのDolby Atmosなら“お客さんに体感・体験していただくことができる“と確信されたんだと思います。その後の作業でも、福山さんの「追体験じゃないんですよ」という言葉がすごく印象に残っています。まさにステージ上での実体験として感じていただくこと、それが私たちのミッションだったわけです。
R:では録音の段階ではどのような構想で進められていたのですか?
染谷:収録段階では、2階、3階と高さ方向での空間的なレイヤーをキャプチャーしたいと考えていました。
嶋田:最終的にオーディエンスマイクは合計で28本になりましたね。PAの前にも立ててみたりはしたのですが、音を聴くと微妙に位相干渉していたので結局は使っていません。
三浦:基本のステレオミックス用がまず20本あって、そこに染谷さんがAtmos用に8本足されました。基本的には、PAスピーカーの指向性からなるべく外れたところから、お客さんの声や拍手を主に狙うように設置しています。
R:オーディエンスの音源の配置は、基本マイク位置をイメージして置かれていますか?
染谷:そうですね。上下で100段階あるとしたら、2階は40、3階は90~100くらいに置いてレイヤー感を出しています。上から降りそそぐ歓声を表現するには、上、下の二段階ではなく、これまでの経験から中間を設けて階層的に降ろしていった方が結果的に良かったので、今回はこのように配置しました。
R:福山さんが向く方向、映像の画角によってアンビエントのバランス感は変えたのですか?
染谷:そこは変えていないです。それをすると音楽との相関関係から音像が崩れていくので、基本的にオーディエンスは一回決めたらあまり動かさない方が良いように思います。楽器の位置なども基本は、三浦さんと福山さんが決められたステレオ音源の位置関係を基準にしてAtmos的な修正をしています。
Atmosミックスのための下準備とは
R:収録後はどういった調整をされたのでしょうか?
染谷:録った音をシンプルにAtmosで並べると、当然位相干渉を起こしていますので、タイムアライメント作業で修正を行います。具体的な方法としてはAtmosレンダラーでステレオと9.1.4chを何度も切り替えながらディレイを使用してms単位での補正を行います。レンダラーでステレオにしたときに正しくコントロールできていない場合は、確実に位相干渉するので判断できます。また、嶋田さんのコメントの通り、会場の反射で位相干渉した音が録れている場合もありますから、マイクの選定なども含めて進めていきました。
R:ディレイということは遅らせていく方で調整されたのですか。
染谷:今回はそうですね。ドームなどの広い会場だったら早めていると思うのですが、武道館では遅らせていった方がいい結果が得られました。早めていくと空間が狭くなっていくので、だんだん武道館らしさがなくなり、タイトな方向になってしまうんです。ですので、よりリアルに感じていただけるよう、疑似的に武道館の空間を創りだしています。実際にはセンターステージの真ん中のマイクを基準にして、他のマイクがどのように聴こえてくるかを考えながらディレイ値を導き出していきました。
R:逆にステレオだとオーディエンスを後ろにずらしての調整とかは難しいと思いますがどうでした?
三浦:オーディエンスマイクの時間軸の位置はそのままで、音量バランスで調整しています。フロントマイクをメインにして、お客さんの声の近さなどからバランスをとりました。やっぱり一番気になるのは、ボーカルの声がオーディエンスマイクを上げることで滲まないように、そこは色々な方法で処理しています。
R:Atmos用に追加したマイクはステレオでも使われましたか?
三浦:使っています。Atmosとステレオである程度共通した雰囲気を作る方がいいのかなと思って。スピーカーの数が変わる以上は聴こえ方も変わるのは分かっていましたが、福山さんとの作業の中でステレオ、Atmosで共通のイメージを固めておかないといけないと思ったのもありますし、会場の雰囲気を伝えることでできる音も含まれていましたので。
染谷:三浦さんがステレオの制作をされている間、嶋田さんと私はひたすらiZotope RXを使った収録済みオーディエンス素材のノイズ除去、レストレーション作業の日々でしたね。
嶋田:トータル 3、4ヶ月くらいしてましたよね。
R:RXはある程度まとめてマルチトラックモードでの処理も使われました?
嶋田:これがすごく難しいんですけど、28トラック分まとめて処理する場合も、1トラックずつ処理する場合もあります。私はノイズの種類によって使い方を変えました。例えばお客さんの咳を消したい場合、一番近いマイクだけでなくすべてのマイクに入っているので、綺麗に消したくなりますよね。でもすべて消すと空間のニュアンスまで無くなってしまうので、そのバランスは悩みました。近すぎる拍手なども全部消すのか、薄くするのかの判断は、喝采の拍手なのか、しっとりとした拍手なのかという拍手のニュアンス込みで考えたりもしましたね。
染谷:消せば良いってものでもないんですよ。音に味が無くなるというか。拍手を取る時はDe-Clickを使いますが、Sensitivityをどこの値にもってくるか最初の初期設定が大事です。
R:その設定はお二人で共有されていたんですか?
嶋田:最初に染谷さんがノイズの種類に合わせて大体の値を設定していただいて、そこから微調整しながら進めました。
染谷:作業が進んでいくとだんだんその値から変わっていきますけどね(笑)。リハの時に録っておいたベースノイズをサンプルにして全体にレストレーションをかけることもしています。武道館の空調ノイズって結構大きいんですよ。でもSpectral De-Noiseを若干かけるくらいです。やっぱり抜きすぎてもダメなんです。抜かないのもダメですけど、そこはうまくコントロールする必要があります。
染谷:基本的にクラップなどの素材も音楽チームの方で作っていただいて、とても助かりました。
三浦:ステレオミックスの仕込みの段階で福山さんとミックスの方向性の確認をした際に、通常はオーディエンスのレベルを演奏中は低めにして、演奏後はかなり上げるというようにメリハリをつけていますが、今回は曲中もお客さんのハンドクラップ(手拍子)がしっかり聴こえるくらいレベルを上げ目にしてくれというリクエストがありました。「これは記録フィルムではなくエンターテイメントだから」ということも仰っていたので、ライブ中の他の場所から良いハンドクラップの素材を抜き出し、違和感がない程度にそれを足して音を厚くするなどのお化粧も加えています。
📷三浦氏が用意したAtmos用ステムは合計111トラックに及ぶ。28chをひと固まりとしたオーディエンスは、素材間の繋ぎやバランスを考慮した嶋田氏の細かな編集により何重にも重ねられた。時にはPCモニターに入りきらない量のトラックを一括で操作することもあるため、タイムライン上での素材管理は特に気を張る作業であったという。高解像度なAtmosに合わせたiZotope RXによる修正も、作業全体を通して取り組まれた。
R:その他に足された音源などはありますか?
三浦:シーケンスデータですね。ライブでは打ち込みのリズムトラック、ストリングスなどのシーケンスの音はある程度まとまって扱われます。それはライブPAで扱いやすいように設計されているからなのですが、映画やパッケージの制作ではもう少し細かく分割されたデータを使って楽曲ごとに音色を差別化したくなるので、スタジオ音源(CDトラックに収録されているもの)を制作した際の、シーケンスデータを使用しました。なのでトラック数は膨大な数になっています(笑)。
嶋田:480トラックくらい使われていますよね!Atmos用に持ってきていただいた時には111ステムくらいにまとめてくださりました。
三浦:楽曲ごとにキックの音作りなども変えたくなるので、するとどんどんトラック数は増えていってしまいますよね。作業は大変だけど、その方が良いものになるかなと。今回はAtmosということでオーディエンスも全部分けて仕込んだので、後々少し足したい時にPro Toolsのボイスが足りなくなったんですよ。オーディオだけで1TB以上あるので、弊社のシステムではワークに収まりきらず、SSDから直の読み書きで作業しました。Atmosは初めてのことだったので、これも貴重な体験だったなと思っています。
染谷:本当に想像以上にものすごい数の音が入っているんですよ。
嶋田:相当集中して聴かないと入っているかわからない音もあるんですが、その音をミュートして聴いてみると、やはり楽曲が成立しなくなるんです。そういった大切な音が数多くありました。
R:ステムをやり取りされる中で、データを受け渡す際の要望などはあったのですか?
染谷:僕からお願いしたのは、三浦さんの分けやすいようにということだけです。後から聞くと、後々の修正のことも考えて分けてくださっていたとのことでした。ありがとうございます。
三浦:ステレオではOKが出たとしても、環境が変わってAtmosになれば聴こえ方も変わるだろうというのがあったので、主要な音はできるだけ分けました。その方が後からの修正も対応できるかなと思って、シーケンスデータもいくつかに分けたり、リバーブと元音は分けてお渡ししましたよね。想定通り、Atmosになってからの修正も発生したので、分けておいてよかったなと思っています。
嶋田:その際はすごく助かりました。特に、オーディエンスマイクもまとめることなく28本分を個別で渡してくださったので、MAの段階ですぐに定位が反映できたはとてもありがたかったです。
チームで取り組むDolby Atmos制作
染谷:今回は三浦さんが音楽を担当されて、僕と嶋田さんでAtmosまわりを担当したんですけど、チームの役割分担がすごく明確になっているからこそできたことが沢山ありました。そのなかの一つとして、編集された映像に対して膨大な音素材を嶋田さんが並べ替えて、ミックスができる状態にしてくれる安心感というのはすごく大きかったです。今回、嶋田さんには、大きく2つのお願いをしました。①映像に合わせてのステム管理、使うトラックの選定、とても重要な基本となるAtmosミックス、②足りないオーディエンスを付け足すという作業をしてもらいました。何度も言っちゃいますが、すごいトラック数なので並べるのも大変だったと思います。
三浦:こちらからお渡ししたのはライブ本編まるまる一本分の素材なので、そこから映画の尺、映像に合わせての調整をしていただきました。
嶋田:映像編集の段階で一曲ずつ絶妙な曲間にするための尺調整や曲順の入れ替えがあったり、エディットポイントが多めで、いつもより時間をかけた記憶があります。特に普段のMAでは扱わないこのトラック数を一括で動かすとなると、本当に神経を使う作業になるんですよ。修正素材を張り込む時にも、一旦別のタイムラインに置いて、他のオーディオファイルと一緒に映像のタイムラインに置いたりと、とにかくズレないように工夫をしていました。
R:Atmosで広げるといってもLCRを中心に作られていたなと拝見して感じているんですけれど、やはり映画館ではセンタースピーカーを基本に、スクリーンバックでの音が中心になりますか。
嶋田:映像作品なので、正面のメインステージの楽器の配置、三浦さんのステレオのイメージを崩さないバランスで置きました。空間を作るのはオーディエンスマイクを軸にしています。さらに立体感を出すためにギターを少し後ろに置いてみたりもしました。ボーカルはセンター固定です。しっかりと聴かせたいボーカルをレスポンス良く出すために、LRにこぼすなどはせずに勝負しました。なんですが、、、ラスト2曲はセンターステージの特別感を出すために中央に近い定位に変えています。
染谷:福山さんからの定位に関するリクエスト多くありましたね。印象的な部分では今さんのギターを回したり、SaxやStringsの定位、コーラスの定位はここに置いて欲しい、など曲ごとの細かな指定がありました。
R:ベッドとオブジェクトの使い分けについてはどう設計されました?
嶋田:基本的には楽器はベッド、オーディエンスをオブジェクトにしました。それでもすべてのオーディエンスマイクをオブジェクトにするとオブジェクト数がすぐオーバーするので、その選定はだいぶ計算しました。
染谷:やっぱりどうしてもオブジェクトの数は足りなくなります。 Auxトラックを使用して、オブジェクトトラックに送り込む方法もありますけど、映像の変更が最後まであったり、それに伴うオーディエンスの追加が多くなると、EQを個別に変えたりなどの対応がとても複雑になります。瞬時の判断が求められる作業では、脳内で整理しながら一旦AUXにまとめてレンダラーへ送っている余裕は無くなってきます。やはり1対1の方が即時の対応はしやすかったです。今考えているのは、ベッドってどこまでの移動感を表現できるのか?ということです。先ほどギターを回したと言いましたが、それも実はベッドなんです。ベッドだとアレイで鳴るので、どこの位置で回すかということは考えないといけませんでしたが、最終的に上下のファンタム音像を作って回してあげるとHomeでもCinemaでもある程度の上下感を保って回ってくれることが分かりました。絶対に高さ方向に動くものはすべてオブジェクトじゃなきゃダメ!という固定概念を疑ってみようかなと思って挑戦してみたんですけど。嶋田さんはどのように感じましたか?
嶋田:こんなにベッドで動くんだ、というのが素直な感想です。私も動くものや高さを出すものはオブジェクトじゃないと、という気持ちがずっとあったんですけど、今のオブジェクト数の制約の中ではこういった工夫をしていかないといけないなと思っています。
📷Dolby Atmos Home環境でのプリミックスは、Atmosミックスを担当したお二人が在籍するヒューマックスエンタテインメント、SONAのスタジオが使用された。劇場公開作品でもHome環境を上手に活用することは、制作に伴う時間的・金銭的な問題への重要なアプローチとなりえる。その為には、スピーカーの選定やモニターシステムの調整などCinema環境を意識したHome環境の構築が肝心だ。なお、ファイナルミックスは本編が東映のダビングステージ、予告編がグロービジョンにて行われた。
シネマ環境を意識したプリミックス
染谷:今回、ダビングステージを何ヶ月も拘束することはできないので、Dolby Atmos Home環境でダビングのプリミックスを行いました。Homeのスタジオが増えてきていますが、Homeで完結しない場合もこれから多く出てくると思うので、今回はこういった制作スタイルにトライしてみようと考えました。
嶋田:Homeでのプリミックスでまず気をつけなければならないのが、モニターレベルの設定です。映画館で欲しい音圧感が、普段作業している79dBCでは足りないなと感じたので、Homeから82dBCで作業していました。
染谷:最終確認は85dBCでモニターするべきなんですが、作業では82dBCくらいが良いと感じています、スピーカーとの距離が近いスタジオ環境では85dBCだと圧迫感があって長時間の作業が厳しくなってしまいます。
嶋田:ダビングステージでは空間の空気層が違う(スピーカーとの距離が違う)ので、ダビングステージの音質感や、リバーブのかかり方をHomeでもイメージしながら作業しました。またダビングステージは間接音が多く、Homeでは少し近すぎるかなというクラップも、ダビングステージにいけばもう少し馴染むから大丈夫だとサバ読みしながらの作業です。
染谷:Dolby Atmos Cinemaの制作経験がある我々は、ある程度その変化のイメージが持てますが、慣れていない方はHomeとの違いにものすごくショックを受けられる方も多いと聞いています。三浦さんはどうでした?
三浦:やはり空間が大きいなと、その点ではより武道館のイメージにより近くなるなとは感じましたね。
R:ダビングではどう鳴るか分かって作業しているかが本当に大事ですよね。やはりダビングは、映画館と同等の広さの部屋になりますからね。
染谷:直接音と間接音の比率、スピーカーの距離が全然違いますからね。制作される際はそういったことを含めて、きちんと考えていかないといけません。
嶋田:今回Homeからダビングステージに入ってのイコライジング修正もほぼなかったですね。
染谷:ダビング、試写室、劇場といろんな場所によっても音は変わるんだなというのは思います。どれが本当なんだろうなと思いながらも、現状では80点とれていればいいのかなと思うことにしています。
R:それは映画関係の方々よく仰ってます。ある程度割り切っていかないとやりようがないですよね。三浦さんは今回初めてAtmosの制作を経験されましたが、またやりたいと思われます?
三浦:このチームでなら!
染谷・嶋田:ありがとうございます(笑)。
三浦:染谷さん、嶋田さんには、客席のオーディエンスマイクのレベルを上げると、被っている楽器の音まであがっちゃうんですが、そういう音も綺麗に取っていただいて。
染谷:でも、その基本となる三浦さんのステムの音がめちゃくちゃに良かったです。
嶋田:聴いた瞬間に大丈夫だと思いましたもんね。もう私たちはこれに寄り添っていけばいいんだと思いました。
染谷:今回は特に皆さんのご協力のもと素晴らしいチームワークから素敵な作品が完成しました。短い時間ではありましたが、三浦さんのご尽力で私たち3名のチーム力も発揮できたと感じています。プロフェッショナルな方達と一緒に仕事をするのは楽しいですね。
三浦:そういった話で言うと、最後ダビングステージの最終チェックに伺った際、より音がスッキリと良くなっていると感じたんです。なぜか聞いたらクロックを吟味され変えられたとのことで、最後まで音を良くするために試行錯誤されるこの方達と一緒にやれて良かったなと感じています。
染谷:その部分はずっと嶋田さんと悩んでいた部分でした。DCPのフレームレートは24fpsですが、実際の収録や音響制作は23.976fpsの方が進めやすいです。しかし最終的に24fpsにしなくてはいけない。そこでPro Toolsのセッションを24fpsに変換してトラックインポートかけると、劇的に音が変わってしまう。さらにDCP用Atmosマスター制作時、.rplファイルからMXFファイル(シネマ用プリントマスターファイル)に変換する際にも音が変わってしまうんです。
この2つの関門をどう乗り越えるかは以前からすごく悩んでいました。今回はそれを克服する方法にチャレンジし、ある程度の合格点まで達成できたと感じています。どうしたかというと、今回はSRC(=Sample Rate Convertor)を使いました。Pro Toolsのセッションは23.976fpsのまま、SRCで24fpsに変換してシネマ用のAtmosファイルを作成したところ、三浦さんに聴いていただいたスッキリした音になったんです!今後もこの方法を採用していきたいですね。
R:SRCといっても色々とあると思うのですが、どのメーカーの製品を使われたんですか?
嶋田:Avid MTRXの中で、MADI to MADIでSRCしました。以前から24fpsに変換するタイミングでこんなに音が変わってしまうんだとショックを受けていたんですが、今回で解決策が見つかって良かったです。
染谷:MXFファイルにしたら音が変わる問題も実は解決して、結局シネマサーバーを一度再起動したら改善されました。普段はあまり再起動しない機器らしいので、一回リフレッシュさせてあげるのは特にデジタル機器では大きな意味がありますね。こういった細かなノウハウをみんなで情報共有して、より苦労が減るようになってくれればと願っています。
R:この手の情報は、日々現場で作業をされている方ならではです。今日は、Atmos制作に関わる大変重要なポイントをついたお話を沢山お聞きすることができました。ありがとうございました。
📷本作を題材に特別上映会・トークセッションも今年頭に開催された。
本作はアーティストの脳内にある“ライブの理想像”を追求したことで、Dolby Atmosによるライブ表現の新たな可能性が切り拓かれた作品に仕上がっている。音に関しても、アーティストが、ステージで聴いている音を再現するという、新しい試みだ。それは、アーティストと制作チームがコミュニケーションを通じて共通のビジョンを持ち制作が進められたことで実現された。修正やダビングといったあらゆる工程を見越した上でのワークフローデザインは、作業効率はもちろん最終的なクオリティにも直結するということが、今回のインタビューを通して伝わってきた。入念な準備を行い、マイクアレンジを煮詰めることの重要性を改めて実感する。そして何より、より良い作品作りにはより良いチーム作りからという本制作陣の姿勢は、イマーシブ制作に関係なく大いに参考となるだろう。
FUKUYAMA MASAHARU LIVE FILM言霊の幸わう夏@NIPPON BUDOKAN 2023
監督:福山雅治
出演:福山雅治、柊木陽太
配給:松竹
製作:アミューズ
©︎2024 Amuse Inc.
*ProceedMagazine2024号より転載