Solution/Works
Broadcast
2025/01/23
NTP、PTP、時刻を司るMeinberg製品
IT関連の時刻同期に活用されているNTP=Network Time Protcol、PTP=Precision Time Protcol規格。MoIPが一気に普及を始めているいま、我々もこれらの規格をしっかりと理解して運用する必要がある。ここでは、Meinberg社のグランドマスタークロック製品をご紹介しながら、NTP、PTPといった規格にも触れていこう。
時刻を司るNTPプロトコル
📷microSync RX
Meinberg社は1979年にドイツで創業した、この分野では歴史あるメーカーだ。当初はNTPのクロックマスターを専業とし、正確な時刻を出力する、まさに時計としてのマスタークロックを生産してきた。NTPは1980年代からコンピューターの時刻同期のための仕組みとして、様々な分野での活用が行われているレガシーな規格。我々の利用しているパソコンやスマートフォンは、インターネットから正確な時刻を得ているわけだが、この基準となっているのがこのNTP信号だ。これにより、インターネットに接続された世界中のPCの時刻は数十ミリ程度の誤差内に収められている。インターネット上には、世界各国が発信する世界標準時=UTCに対応するNTPがあり、日本国内ではNICT=日本標準時グループが発信するものが使用されることが多いのではないだろうか。それ以外にもGoogle、AWSなど世界規模のサービスを展開する企業がNTPを発信していたりもする。
このようにインターネット上には正確なNTPが存在しているのに、なぜローカルにハードウェアとしてのNTPが必要となるのだろうか。これは、NTPの受信に失敗した際や、NTPの受信が難しい状況などにおいても、NTPを使った同期システムを継続して運用するためである。例えば、国内の放送局では基本的にNTPをベースにしたシステムにより番組の放送を行っている。そのため、放送タイミングなどの基準としてNTPは非常に重要なものとなっている。その中での一例を挙げると、放送局内の時計はNTPを受信して正確な時刻を表示させることができる製品が使われていることがほとんどである。局内のNTPマスターから館内に引き回されたNTP信号網により、時計の同期が行われているということになる。
他の業種でもNTPの活用は古くから進んでいる。証券取引も世界規模での時刻同期が必要な分野である。現在はさらに正確性を高めたPTPが運用されているが、古くはNTPによる時刻同期により取引タイミングなどのジャッジが行われていたということだ。また、軍事・防衛関連、航空管制といった世界規模での同期が重要となるクリティカルな分野での活用が行われている。
現場で鍛えられてきたMeinberg製品
📷microSyncシリーズ
ローカルにハードウェアでNTP製品を持つということは、冗長化の意味も含めて重要なポイントである。NTP信号が途切れて同期が崩れてしまうようでは話にならない。信号が復旧するまでの間も正確な時刻を刻み続けられる製品でなければならない。MeinbergではTCXOもしくはOXCOのジェネレーターを搭載するオプションを設定している。再分配するだけであれば必要ない機能だが、信号が途切れた際に継続的に正確な信号を出力するためには、なくてはならないオプション項目である。世界中のクリティカルな現場で鍛えられてきたMeinbergは、自らが生成する信号精度にも自信を持っている。
NTPジェネレーターの専業メーカーとして歴史を積み重ねてきたMeinbergは、2008年よりPTP対応製品をリリースしていたが、さらに2019年にPTP技術を専門とするオーストリアのOregano Systemsを買収することにより様々な分野で活用されているPTPへの対応を加速させている。PTPは、NTP、GPSといった時刻同期に関する標準的な信号を取り扱えない現場で、NTPよりもさらに高い精度での同期を目指した規格。インターネットに接続できない、屋内などでGPSの受信ができない、このような状況は我々の業界では容易に起こり得る環境だ。このような中、NTPではなくPTPが次世代の伝送規格としてAoIPやVoIPのベースクロックとして採用されたのはある意味必然である。もともとミッション・クリティカルな現場や、NTPの安定受信の難しい環境、途切れた際のリダンダンシーなどを念頭にした製品をリリースしてきたMeinbergがPTPの製品を持つことになったのも自然な流れだったのかもしれない。
PTPの基準信号の基本は、GPSクロックを基準としたPTPの生成である。MeinbergのPTP対応製品のすべてはGPS入力を備えている。GPSの送信元は言うまでもなくGPS衛星である。非常に正確な原子時計が登載されたこれらの衛星からの信号は、高い信頼性を持って世界中で運用されている。GPS信号には時刻情報も入っているため、これを基準にPTPやNTP信号を生成することは容易い。余談ではあるが、GPSはアメリカが軍事目的でスタートさせた技術であり、それを民間利用に開放したという経緯がある。GPSは米国の軍事ベース技術となるため、各国では独自のGPSに準拠した衛星システムを持っている。EUは「ガリレオ」、ロシアは「GLONASS」、中国は「北斗」、日本でも「みちびき」と様々なシステムが運用されている。MeinbergはGLONASSへの対応も済んでいる、そのため世界中どこでも高い精度での測位衛星(GPS準拠衛星)からの信号を受けることが可能となっているわけだ。
自己ジェネレート、ホットスワップ
📷IMSシリーズ
放送業界でもMoIPのクロックとして活用が始まったPTPを扱えるということで、MeinbergはNABやIBCといった放送機器展への出展を行い自社製品のアピールを開始している。先に述べているように長年にわたるバックグラウンドがあり、PTPに対応したことで放送業界への参入を果たしたメーカーである、PTPグランドマスターを引っさげて突如現れたメーカーということではない。証券取引、軍事、航空管制といったクリティカルな現場で認められてきたMeinbergの製品。その仕様を見てみると、さすがという部分が多数ある。フラッグシップのラインナップとなるIMSシリーズは、電源、コントローラー、信号生成のための各種規格に対応したジェネレーターがなんとホットスワップ仕様になっている。サーバーの電源部分などでホットスワップ仕様は見ることができるが、クロックジェネレーターの電源でホットスワップ仕様になっているというのは類を見ない。これは、一度設置したら停止することなく不具合部分だけをリプレイスすることで継続利用が可能な仕様ということだ。
PTPには世代があり、Audinate Danteが利用しているPTPv1と、NDI、ST-2110などが利用するPTPv2がある。執筆時点ではMeinbergはPTPv2のみの対応であるが、1年以内のPTPv1対応を目指して開発を進めているとのこと。ちなみにPTPv1はIEEE 1588-2002で定義されたオリジナルの仕様で、PTPv2はIEEE 1588-2008でさらなる精度と堅牢性を求めてブラッシュアップされたものである。残念ながらPTPv2には下位互換性はなく同じPTPという規格ではあるものの相互に互換性はない。
そして、GPSを受信できない環境において、内臓のTCXOもしくはOCXOによる自己ジェネレートが可能となっているのもMeinberg製品の大きな魅力。前述の通り、PTPはGPS信号からの生成を行うことが基本であるため、あくまでもリダンダンシーのための信号回復までの繋ぎの役割として自己生成用のクロックが登載されている製品がほとんどだが、Meinbergでは自己ジェネレートでのPTP信号の利用を前提として設計が行われている。この仕様はスタジオ設計の目線から見ても使いやすい製品と言えるのではないだろうか。まだまだ、スタジオへGPS信号を引き込むのは難しい状況が続いている。自社ビルであればまだしもだが、ビルへ入居している格好であればなおのことだ。
コンパクトなハーフラックサイズの製品から、モジュールによる強力な冗長性を持つ製品まで幅広いラインナップとなるMeinberg製品。マスター、サブなど生放送に対応した場所にはモジュールタイプ、ポストプロなどはハーフラックの製品、といったように選択の幅が広いのも魅力だろう。
全数をドイツ国内の自社工場で組み立てし、1週間のランニングテストの後に出荷するというまさにクリティカルな現場に向けた生産体制。ハーフラックの末っ子にあたるプロダクトでさえ平均故障間隔が60万時間にも及ぶという。IEEE、ITU-R、SMPTEなど業界基準を策定する各団体への参加も行っており、出力信号の確実性もある。そして、ドイツのクラフトマンシップとミッション・クリティカルな現場で鍛え上げられた高い信頼性は、PTPグランドマスターを検討する際の筆頭候補となるだろう。
*ProceedMagazine2024-2025号より転載
Media
2025/01/16
映画音響技術の基礎解説
映画のダビングとテレビにおけるMAは、同じくコンテンツ制作における音声の最終仕上げの段階となるが似て非なるもの。システム的な違いではなく、音響的な部分や視聴環境に求められる事柄の差異となると奥深く、全容を把握するためには整理整頓が必要だ。ここでは映画音響におけるXカーブ、センタースピーカー、ウォールサラウンド、フィルムに対するサウンドトラックといった、様々な特殊要素を技術的な側面から紐解いていきたい。
MA、ダビング、空間の違い
テレビの番組制作のためのMA室、昨今では配信番組など映像に音声を付けて仕上げる幅広い用途で活用されるスタジオだ。ここに求められるファクターは、音の正確性、解像度ということになるだろう。制作されたコンテンツはどのような環境で視聴されるかはわからないため、作品として100点満点の解答はないとも言えるのだが、そんな中でもMA室はリファレンスとなる環境であることが求められる。できる限り正確な音の再生を行うために、周波数特性、音の立ち上がり、強弱の再現、それらを実現するための吸音処理や反射音のコントロールなどを行い、音響設計をしっかりと行った環境を作り上げ、そこで作業を行うこととなる。
それでは、映画音響の仕上げに使われるダビングステージはどうだろうか?映画館での上映を前提に音響の仕上げが行われるダビングステージ。この空間に求められる要素は、どんな映画館で上映されたとしても再現がしっかりと行われるサウンド、ということになるだろう。映画館には上映用の規定があり、音圧に関しては-20dBfs = 85SPLという規定となる。そして、スクリーンの裏に設置されるL,C,R chのスピーカーに対しては、Xカーブと呼ばれる周波数特性に関わるカーブが存在する。ダビングステージはこれらを再現したスタジオであることが求められる。
また、映画館という大空間での再生を前提とするため、大空間での再生の再現というのも重要だ。MA室であれば、遠くても3m程度に設置されるスピーカーが、ダビングステージでは大きな部屋ともなると10mもの距離になる。そして、部屋が広いということは、直接音と間接音とのバランスがニアフィールドとは明らかに違った環境となる。ニアフィールドであれば、直接音が支配的にはなるが、10mも離れたスピーカーでは間接音も含めてその空間のサウンドになることはご想像いただけるだろう。
とはいえ、映画館ごとに間接音の状況は異なる。ダビングステージとしての最適解は、大空間らしいサウンドを保ちつつ、解像度、レスポンス、特性などの担保を行うという、相反した要素をはらむものになる。間接音があるということは、周波数や位相に対しての乱れが必然的に生まれる。リフレクションが加わるということはそういうことだ。ルーム・リバーブ的な要素が含まれると想像いただければイメージしやすいだろうか。その具合の調整がまさに音響設計の腕の見せどころだろう。スピーカーから飛び出したあとの音響建築的な部分での話になるため、機器の電気的な調整だけでは賄いきれないところ。まとめて言い換えれば、この間接音のコントロールがダビングステージのサウンドにおいて重要になるということだ。
Xカーブに合わせた空間調整
小空間で仕込んだ音を、大空間で再生したときに生じる差異。特に高域の特性の変化に関しては100年前にトーキーから光学録音へと映画が進化したころから問題視されている。アカデミーカーブ、Xカーブと言われるものが、まさにそれへ対処するために生み出されたものである。SMPTE ST-202としてその後標準化されるのだが、これらのカーブの求めるところとしては、測定機での周波数特性と聴感上の周波数特性を合わせるということがそのスタート地点にある。
この映画館における音響特性に関する研究は、まさにJBLとDolbyの歴史そのものでもある。再生機器側の性能向上、収録されるマスター音源のテクノロジー、それらの相互に及ぼしあう影響を、これまでの作品の再生とこれから生み出される作品の再生それぞれに対して最適なものとする100年に渡って継続されてきた歴史であり、この部分も興味深いストーリが数多く詰まっている。中でもDolbyの果たす役割は大きく、ノイズリダクションに始まり、フォーマットの進化、マスター音源の進化など、必然性を持って映画のサウンドフォーマットが形作られ継承されている。
スクリーンの透過特性(スクリーンの裏に置かれたスピーカーの高域成分は、サウンドスクリーンだとしても高域減衰が生じる)、低域よりも高域のほうが距離減衰量が大きいことによって、スピーカーから視聴位置が遠いために生じる高域減衰、空間が広いため間接音による干渉などにより生じる高域減衰。様々な要素によりダビングステージの容積に起因する高域減衰というものは、一般的なスタジオと比較しても多く生じる傾向にある。これは、映画館においても同様であり、その再現を求められるダビングステージでも同じように特性の変化が生まれる。
ダビングステージのスイートスポットにおける特性を測れば、当たり前のように高域の減衰した特性が出現する。しかし、これを電気的にフラットにしようとすることは間違いである。なぜなら、直接音に関してはスクリーンの透過特性、距離減衰の影響は受けるものの、ある程度フラットな特性が担保されているためである。反射音、間接音に起因する高域減衰(位相干渉等によるもの)を含めた特性をもとにフラットな特性を狙ってしまうと、結果的に高域が持ち上がった特性を作ることになってしまう。冒頭でも述べたように、大空間における直接音と間接音のバランスに依っており、大空間になればなるほど間接音の比重が大きくなり、高域が下がってくるということである。
お気付きかもしれないが、スイートスポットにおけるフラットな特性を電気的に補正して作ってしまうと、直接音としては高域の持ち上がった特性になるということである。これは、スイートスポットを離れた、特にスクリーンに近い位置での視聴時に顕著となる。直接音が支配的であり、高域の持ち上がったサウンドをダイレクトに聴いてしまうため、視聴体験に大きな影響を及ぼすことになる。
このような高域の持ち上がった特性とならないように、高域をロールオフしたターゲットカーブを設定し、それに合わせた音響調整を行うようにするのが、Xカーブに合わせた調整ということになる。厳密には劇場の座席数に応じたターゲットとなる周波数特性のカーブが設定されており、座席数の少ないものでは高域の減衰量が少なく、多くなれば減衰量が大きくなる、そのようなターゲットとなる特性が提示されている。
これらのターゲットカーブに関しては、ぴったりに周波数特性を合わせ込むということではなく、スピーカー単体としてフラットな特性で出力した際に、スクリーンや部屋などの影響を受けた上でターゲットカーブに収まっているかどうかを確認するところがあくまでもスタートポイントである。言い換えれば、許容誤差の範囲内に収まっているのであれば、それは想定通りの結果であり、それ以上の補正を行う必要はないということでもある。
小空間における映画作品の仕上げに関しては各所ご意見もあるところだろう。大空間における音響再現が行えていないということは確かにあり、それによって再現性が低いというご意見ももっともである。しかし、上記のようにXカーブの成立を紐解いて見ていくと、フラットな特性で作られた音源が空間の大小にかかわらず、ある一定の聴こえ方をするためのターゲットカーブ、とまとめられる。その視点から考えれば、フラットな特性を持ったスタジオで仕上げられた作品であれば、大空間に持っていったとしても一定の基準内での聴こえ方が担保されているので問題ないとも捉えることができる。
ただし、スクリーンの透過特性という物理的なフィルター分に関しては、やはり考慮する必要があると筆者は考えているが、どちらの意見も間違いではないし、ダビングステージといっても数多の映画館すべての再現となるわけではない。完璧な答えを得ることは難しいが、プロフェッショナルの仕事としてどこまでの再現を求めるのかという尺度になるのだろう。そして、これらのことを理解していれば、より良い作品、そしてバランスを作ることができるということでもある。
100年以上の歴史から、映画の音響に関するセオリーはできあがっている。こちらのほうが良いと言っても、一朝一夕に変わることができない過去との互換性や、大空間での平均化された視聴体験に対しての担保など要素を多彩に含んだテクノロジーの結晶体である。だからこそ映画というエンターテイメントのフォーマットは普遍的なものとして歴史を超えて受け継がれ、エンターテイメントの一つの形として存在し続けている。
映画の必須要素、センタースピーカー
次はセンタースピーカーについてを取り上げる。センタースピーカーはITU基準の5.1chにもあるので、それとは何が違うのかということからお話を進めたい。
映画におけるセンタースピーカーは、映画のサウンドトラックが登場した当初から存在する。その当時はモノラル再生環境、センタースピーカー1本からのスタートしたためである。映画館におけるセンタースピーカーが非常に重要であることは、ニアフィールドでのステレオミックスを中心に行っていると、なかなか気が付かないかもしれない。ステレオ作品であれば、センター定位はファントム・センターとして形作られる。しかし、映画館での視聴を想像して欲しい。きっちりとL,Rチャンネルのスピーカーの中心線に座ることができればよいが、1席でも左右にズレてしまうとファントムで作ったセンター定位はズレてしまう。
ハード・スピーカーでのセンターチャンネルがあることで、劇場内どの席からでもスクリーン中央からのセンター定位を感じることができる。これが劇場におけるセンタースピーカーの重要性のほぼすべてと言っても過言ではない。そのため、映画サウンドトラックの進化の歴史は、モノラルの次は3ch(L,C,R ch)、そして初のサラウンドであるアナログ・マトリクス・エンコードを活用したDolby SR(L,C,R + Sround)、そしてDolby Digital (5.1ch)、Dolby Atmosへと進化している。順を追って見ていくと、センターチャンネルを中心に左右へ広がっていったということがおわかりいただけるのではないだろうか。
このようなことから、映画においてセリフの基本はハードセンターである。よほどのことがない限りこのセオリーを外すことはない。画面に二人登場人物がいるので少し左右にパンを振って、ということを思いつくかもしれないが、前述の通りでファントム定位を使用すると劇場に足を運んだユーザーは着席する座席の位置によって定位が変わってしまう。
そうであれば、やはりファントムではなくハードセンターで再生をする。これは、映画における普遍的なものとして受け継がれている。Dolby Atmosになりオブジェクトという新しい技術が採用され、ギミックとして左右の壁面からも点音源として再生を行うということが可能となり、これを活用した作品も見受けられるが、ストーリーテリングを行うダイアログに関しては、やはりハードセンターは外せない。これまでのチャンネルベース・ミキシングの手法を踏襲したうえで、オブジェクト・ミックスがあるというDolbyの判断は正しいと感じている。劇場での再生を念頭においたミックスだからこその要素となるわけだ。
皆さんは、そのセンターチャンネルがどこに設置されているかご存知だろうか。スクリーンの裏にあるため通常は目にすることのないスピーカーではあるが、その名の通りスクリーンのちょうど中心に設置されている。高さ方向としては、スピーカーの音響軸を高さ方向に3等分した上端から1/3の位置というのが設置基準である。高さ方向に関しては素直にスクリーンの中央とイメージしてしまうところかもしれない。なぜ1/3になったのかという理由を解説している文献を探すことはできなかったのだが、すべての客席に対して音を届けるために高さが必要であったとか、サラウンドスピーカーとの高さを揃えようと考えるとこれくらいがちょうどいいなど様々な推測がある。
ちなみにではあるが、サラウンドスピーカーはスクリーンバックのL,C,Rchと音響軸的に平面に収まるように設置されている。壁面のサラウンドスピーカーの並びをそのまま伸ばしたあたりに、スクリーンバックのスピーカーの音響軸があるということだ。逆に言えば、壁面のサラウンドスピーカーの設置位置は、スクリーンサイズによって上下するということでもある。スクリーンが大きければ音響軸は高くなり、サラウンドスピーカーアレイの設置位置も高くなるということだ。
ウォール・サラウンド
もうひとつ、ITU 5.1chとの大きな違いがサラウンドチャンネルに関してだ。ITUでは点音源での再生となるサラウンドチャンネルが、シネマフォーマットではウォール・サラウンドアレイと呼ばれる壁面に設置された複数のスピーカーで再生されることとなる。デフューズ・サラウンドとも呼ばれるこのシステムは、やはり劇場でどの座席であっても一定のサラウンド感を感じられるように、という意図のもとにその設置が考えられている。
しかし、面で再生されるこのサラウンドチャンネルは定位感のある再生には不向きであり、Dolby Digitalまでの作品ではもっぱら環境音や音楽のリバーブなどの再生に活用されていた。もちろん、これは空間を囲むという意味では大きな効果があり、没入感を高めるための仕組みとしては大きな成功を収めている。Dolby Digital以前のSRではマトリクス・エンコードの特性上、正面に対して位相差を持ったサウンドしか配置をすることができず、まさに音を後方にこぼすといったことしかできなかったが、Dolby Digitalになりようやくチャンネルがディスクリートとなり、イメージした音がそこに入れられるようになったという技術的な進化も大きい。
さらに、Dolby Atmosではオブジェクトが使用できるようになり、点音源としてのサラウンド・チャンネルの活用が可能となった。この進化は大きく、ウォールで再生するベッドチャンネルと点音源で再生するオブジェクト・チャンネルを使い分けることで、音による画面外の表現が幅広く行えるようになった。スタジオ設計側としては、サラウンドも全チャンネルフラットにフルレンジの再生を求められることとなり、サラウンドスピーカーの選定において従来とは異なるノウハウが求められるようにもなってきている。再生環境として求められるスペックが増えるということは、逆説的には再生できる表現の可能性が広がったということでもある。これは進化であり大いに歓迎すべきポイントである。
フィルムに対するサウンドトラック
これらの映画音響の歴史は、まさにサウンドトラックの進化の歴史そのものでもあり、互換性が考えられながら新しいものへと連なっている。フィルムを上映して映像だけを楽しむサイレント映画から、それにレコードを同時に再生することで音を付け加えるという試みへと進化するが、まったく同期がとられていないため、当時は雰囲気として音楽を流す程度といったことが主流だったそうだ。
また、当時は活動写真弁士と呼ばれる映画に対して解説を加える解説者がいた。少し脱線するが、活動弁士という文化は日本独自のもの。海外ではテキストで状況説明を加えることで、映像同士に連続性をもたせることでレコードでの音楽再生のみというものが主流だった。しかし、日本では映画以前より人形浄瑠璃における太夫と三味線や、歌舞伎における出語りなど、口頭で場面の解説を加える、今風に言えば解説ナレーションの文化があった。もちろん、落語に代表される話芸の文化が盛んだったこともこのバックボーンにはあったのだろう。当初は、幕間の場繋ぎとしての解説者だったものが、上映中にもそれを盛り上げるための語り部となり、独自の進化を遂げたというのは興味深いところである。
フィルムで上映される映像と音声の記録されたレコードなどの媒体を同期するということは当時の技術では難しく、いくつものテクノロジーが発明されては消えていくということを繰り返していた。フィルム上にサウンドトラックを焼き付けるというサウンド・オン・フィルム。具体的には、光学録音された音声トラックを映像フィルムに焼き付けるという手法により技術革新を迎えるのだが、光学録音自体の特許登録がなされた1907年から、ハリウッドメジャーが共通フォーマットとして互換性を持ったサウンド・オン・フィルム技術を採用する1927年までに、なんと20年もの歳月がかかっている。その間、レコード等の録音媒体を使用した同期再生のチャレンジも続けられたが、確固たる実績となる技術へとは発展しなかった。サウンド・オン・フィルムの光学録音技術は、映画がデジタル化されDCP(Digital Cinema Package)でのデータ上映になるまでのフィルム上映では普通に使われ続けていくこととなる。
無音のサイレント映画に対してトーキー映画と言われる、映画に音をつけるという技術は瞬く間に普及することになる。1927年にハリウッドで採用されたということは前述の通りだが、その移行は早く、ハリウッドで制作された最後のサイレント映画が1929年ということからも、たったの2年間で時代の主流を奪っている。日本国内は活動弁士という独自の文化があったため、1938年になっても国内制作の1/3の映画はサイレントのままであったということだ。活動弁士の職を奪うということもあるが、贔屓の活動弁士による上映を見るため(聴くため)に劇場に足を運ぶということもあったということだ。今となっては想像することしかできないが、日本における最初期の映画とは人形浄瑠璃などの視覚的なエンターテイメントがフィルムになったという感覚だったのではないだろうか。
トーキー映画が黎明期を迎えてからのサウンドトラックの歴史は、まさに光学録音の歴史と言える。光学録音とは今日DAWなどで表示される波形をフィルムに焼き付けるというものだ。非常に細いスリットに光を当ててその記録を行うというのがその始まりだ。
光の強弱はまさに音の強弱であり、電気信号に変換された音声の強弱を光としてフィルム上に記録するということになる。しかし、ノイズや周りへのこぼれ(光なので屈折や解析などで周辺に溢れてしまう)、高域再生不足、様々な問題に直面し、それを乗り越えるノイズリダクションや、多チャンネル化の技術となっていく。光学録音に対して大きくは、ノイズの低減と高域再生特性の改善がそのテーマとして、様々な方式が出現しては消えていくということを繰り返す。それと並行して磁気記録技術が確立され、映像フィルムに磁気を塗布し、そこにサウンドトラックを収録するということも行われた。これは1950年代頃から70年代にかけてであり、Cinerama、Cinema Scopeといったものがその代表である。フロント3ch、サラウンド1chという仕様が一般的であった。
Dolby Atmosへの道筋
このような様々な技術や規格が乱立する中で、業界の標準となり今でも活躍をしているのがDolbyである。ノイズリダクション技術が世界的に認められ、映画の光学録音の収録などでも活用されていたDolby。1976年に開発されたDolby Stereoはマトリクス・エンコードを活用した2chのサウンドトラックでフロント3ch、サラウンド1ch仕様の4chの再生を可能とする技術として瞬く間に世界の標準フォーマットとなる。少しややこしいのだが、Dolby Stereoは2ch音声の技術ではなく、マトリクス・エンコードされた4chサラウンドの技術である。2trの音声トラックの収録であったことからStereoと名乗ったのだろうが、今となっては少し誤解を招く名称である。
このDolby Stereoを世界中が注目するようになるきっかけとなった作品は「スター・ウォーズ エピソード 4 / 新たなる希望」である。このDolby Stereoの特徴となるのが、エンコードされた2chの音声トラックは、そのまま2chステレオで再生しても違和感なく聴くことができるという点。後方互換性を備えたフォーマットであったということは特筆すべきところだ。しかし、そのマトリクス・エンコードの特性から、サラウンドチャンネルに低域成分を加えることはできず、ディレイ処理もエンコード時に加わるため輪郭のあるはっきりとした音をサラウンドに配置することができなかった。とはいえ、このDolby StereoはDolby SR(Spectral Recording)として音響特性を改善させ、多くの映画館で採用されたまさに80年代の業界標準とも言えるフォーマットである。
アナログ時代の真打ちであるDolby Stereoの次の世代は、フィルムにデジタルデータを焼き付けることでその再生を行ったDolby Digitalの登場を待つこととなる。1992年に登場したDolby Digitalは圧縮された5.1chのディスクリート音声をフィルムに焼き付けつけるフォーマットである。しかも、Dolby Stereoの光学2trの音声トラックはそのままに、追加でのデータの焼き込みを可能としている。図版を見ると、パーフォレーションの隙間にQRコードのような図形データとして符号化されたものが書き込まれている。これを読み込み、5.1chの音声を取り出すフォーマットである。
Dolby Stereoの上映館でもDolby Digital上映館でも同一のフィルムで上映できるため、フィルム上映における標準フォーマットとして今日に至るまで標準フォーマットとして採用が続いている。映画館の5.1ch再生のスクリーンは、そのすべてがこのDolby Digitalでの上映と思って差し支えない。もちろん、1990年代にはそれに対抗するフォーマットとして非圧縮の5.1chで高音質を特徴としたDTS、大型スクリーン向けにフロントのチャンネル数を5chとした7.1chサラウンドのSDDS(Sony Dynamic Digital Sound)があった。残念ながら、DTSもSDDSも映画館向けのフォーマットとしては生き残ることができなかった。DTSに関しては、DTS-Xとしてイマーシブを引っ提げて再び映画館に戻ってくる動きもあるのでここは要チェックである。
2000年代半ばに、ネットやコンピューター技術の進化に合わせて映画館での上映が物理的なフィルムから、DCP(Digital Cinema Package)と呼ばれるデータでの上映に切り替わった。現在でも少ないとはいえフィルムでの上映を行っている劇場もあり、やはりフィルムの需要がゼロになったわけではなくDolby Digitalでの制作を行うことが今でも続けられているのだが、DCPであればフィルム上にサウンドトラックを記録するといった物理的な制約もなくなり、ほぼすべてがデータでの上映になっていると言っていい状況だ。
そして、DCPになったからこそ生まれたのが、データ容量が大きいDolby Atmosというフォーマットである。Blu-rayや配信ではDolby True-HDと呼ばれる技術により圧縮が行われているが、映画におけるDolby Atmos Cinemaは、Rendererで収録された最大128chのデータがそのまま収録され、Dolbyのフォーマットとしては初となる非圧縮での劇場上映を実現している。
まだまだ、歴史を紐解くと他のファクターも存在する映画音響に関する様々な特殊要素。ここではその代表とも言えるXカーブ、センタースピーカー、ウォールサラウンド、フィルムに対するサウンドトラックに触れたが、それらすべては大空間において座席に着席して視聴しているすべてのユーザーへより良い音響を届けるために考えられたものであるということを忘れてはならない。
スイートスポットでの視聴はあくまでも制作においての判断を行う場所であり、そこを離れても意図した音響設計が一定以上で再現できる環境構築のために100年の歳月が掛けられたノウハウである。映画の制作に携わることがなければなかなか足を踏み入れることのないダビングステージや映画の音響制作。そこでの考え方や、ノウハウは興味深いものが数多くある。今回の解説が映画音響以外でもサウンドに関わる方にとって何らかの刺激となれば幸いである。
*ProceedMagazine2024-2025号より転載
Post
2025/01/09
劇伴制作のシゴト 東映音楽出版株式会社 本谷氏に訊く
映画の音を構成する要素は大きくDialogue(台詞)、Music(音楽)、Effect(効果音)の3つに分類される。それぞれの要素を録音技師、作曲家や音楽プロデューサー、効果音によるサウンドデザインを行う音響効果、フォーリーといったプロフェッショナルが担当し、1本の映画における音を作り上げる。今回はなかでも劇伴制作に焦点を当て、映画音楽をはじめとした劇伴制作を手がける東映音楽出版株式会社のエンジニア、本谷侑紀氏に制作の流れについて解説いただいた。劇伴制作という仕事はどういったものかという基本的な部分から、劇伴という音楽ならではの制作ポイント、近年の潮流といった内容について制作ワークフローとともにいま一度紐解いていこう。
1:制作依頼
劇伴制作とひとくちに言っても任される範囲は現場によって様々だ。レコーディングエンジニアとしてのみ参加する場合もあれば、音楽プロデューサーとして方向性を決める段階からダビングまで一貫して制作に関わるケースもある。どの段階から制作に参加するか、というのは基本的に音楽制作の枠組みが決まったタイミングで制作が依頼される。というのも、エンジニアとしての依頼は作曲家からの指名で決まることが多い。本谷氏の場合、東映音楽出版に所属する制作エンジニアとして自社作品か外部作品なのかでも関わり方は変化してくるという。社内外で制作・エンジニアとして依頼がある場合や、自社作品の場合は制作依頼を出す立場に回ることもあるそうだ。
また、既成曲(劇中曲)の有無も制作工程に影響してくる。既成曲が無い作品の場合は、現場に作曲家とともに出向くこともあるが、本格的に始動するのは撮影が終わり、オールラッシュ(映像編集において尺やカットが確定した段階)の後からとなる。シーンの尺が決まっていないことには場面に合わせて作曲することもできない。ただし、現場によってはメインテーマなど一部を編集前に制作し、監督が編集を行う際のイメージを手助けするものとして使用されることもある。
一方で既成曲が多い場合、例えばライブシーンがある作品などではプレスコ(プレスコアリング:先に制作されたセリフや音楽に合わせての撮影)となるため、プロジェクトの脚本段階などと並行して音楽が発注され、プレスコ用に編集された上で撮影時に使用される。ここでの制作はあくまでプレスコ用の音源であり、そこからライブシーンでの歓声などが足されるなどの再編集が行われ実際に使用する音源となるのだ。劇中曲の場合は歌モノも多く、そういった場合は劇伴チームとは別の制作チームが立てられることが多い。
2:劇伴プランの設計
オールラッシュが終わりシーンの尺が決定した段階で、「線引き」と呼ばれる打ち合わせに入る。作曲家、監督やプロデューサーといった制作陣とともにどのシーンに音楽を使用するかを決めていく作業だ。この段階で全体の曲数と、曲調の明暗や盛り上げるポイントといったおおまかな曲の方向性を設計していく。監督が編集段階で音楽を入れたい箇所に仮の楽曲を挿入しているケースもあるとのことだ。映画1本のうち劇伴の占める割合については、もちろん作品にもよるが2時間の実写ドラマの場合大体40~50分尺、曲数にして20~25曲あたりが平均だという。
3:作曲
作品に必要な音楽が決まったところで、作曲家による作曲期間に突入する。期間にして約1〜2ヶ月ほど、その中で数曲ずつを監督・制作陣と確認しながらデモを完成させていく。楽曲チェックは少ない映画でも2~3回は繰り返される。作曲に取り掛かる順番は、まずメインテーマとなる曲を作り、次にそのアレンジバージョンを数パターン、その後作品の時系列順に制作していかれることが多いそうだ。作曲期間もエンジニア的な観点からストリングスの最適なサイズや、生録音かシンセ音源かといった音色の提案・判断などを行っていく。
4:レコーディング
作曲の工程が完了すると、譜面作成を経てレコーディングにとりかかる。譜面作成は、作曲家が書いた楽譜の清書やパート譜の作成を行う専門職である写譜屋の仕事だ。劇伴のレコーディングは読者もイメージされている通り、ストリングス、ブラス、木管が多い。数日というレコーディング日程で数十曲にわたる楽曲を録り終えるためにも、とにかくスムーズな進行が肝となる。
ここで本谷氏が実際に行なっているレコーディングのテクニックを紹介する。それは2種類の異なる色合いのマイクを立てておくというもの。5.1chや7.1chサラウンド用のオフマイクセットが基本となるのだが、そこにLRをもう2本追加することによってミックス時にLR+サラウンドワイドなど組み合わせの選択肢が広がる。オンマイクに関してもスタジオ定番のNeumann U 67やU 87に加えて最近はリボンマイク Samar Audio Design VL37をよく使うとのこと。限られたレコーディング時間の中でもミックス時の可能性を確保し、より作品に合致した楽曲を仕上げるための工夫だ。また万が一メインのRECが不調だった時のための保険の意味もあるという。
使用するスタジオは予算、編成のサイズ、響きを出したいか抑えたいか、といった観点から作曲家と相談して決めていく。少ない人数でよく響かせたいならあのスタジオ、8型が入るのはこのスタジオといったように様々なスタジオの特徴を把握していることがもちろん前提となる。
コラム 弦の編成の表し方
「6型」や「8型」とは何でしょうか?これは弦楽器の編成を表す際に使われる用語です。ストリングスの基本構成は1st Violin、2nd Violin、Viola、Cello、Contrabassの5パート。型の数字は1st Violinの人数を表し、そこからパートの音域が低くなるごとに2人(1プルトとも言う)ずつ減らしていくのが基本のパターンです。例えば8型だと以下のとおり。
1st Violin:8人(4プルト) / 2nd Violin:6人(3プルト) / Viola:4人(2プルト) / Cello:4人(2プルト) / Contrabass:2人(1プルト)
これを別の言い方としてパート順に「86442」と呼ぶこともあります。他にも「弦カル」はカルテット(Violin 2人、Viola 1人、Cello 1人)「ダブカル」はダブルカルテット(カルテットの倍の編成)の意味。さらに、大規模なオーケストラでは木・金管、打楽器を含めた1管、2管という編成も存在します。別のジャンルではドラム、ギター、ベース、キーボードの編成を4リズムと言ったりもしますよね。これらは必要なスタジオの広さの指標として使われる用語でもあります。
5:トラックダウン
レコーディングが終了するとすぐにミックス、トラックダウン(TD)の作業がスタートする。録音素材のノイズリダクションに始まり、EQ、コンプといったミキシングからサラウンドパンニングまで音楽ステムの仕込みを行う工程だ。通常の音楽ミックスと大きく異なるのが、ダイアログやエフェクトが入ることを見越しての音楽ミックスになるということ。本谷氏は、セリフが入り音楽のレベルが下がる場合も想定してリアを活かすといったアプローチを行うこともあるという。また、センターチャンネルのダイアログとどう音楽を共存させるかについては、ハードセンター、ファントムセンター、その中間といったミックスのパターンを持っておき、演出や作家の意図に合わせてどう使い分けるかを考えていくとのことだ。
また、ダイアログや効果のエンジニアから制作したステムを共有してもらい、それらのレベルに合わせたミックスを施すことも近年はあるという。劇伴は作曲、レコーディングの工程を経る以上、ダイアログや効果よりも作業が後ろになるため、他の2部門が先に仕込みを終えていることが多くなる。逆にレコーディングデータを参考として共有することもあるという。ダビング前にデータを共有しあうことでより精度の高い仕込み作業が可能になる。完成したデータは自身でダビング作業まで担う場合と、選曲(ミュージックエディター)にステムを受け渡しダビング作業に持ち込まれる場合に分かれる。
6:ダビング
各部門がそれぞれ制作した素材がダビングステージに持ち込まれ、制作の最終的なミックスが行われる。期間として約12日ほどの日程の作業工程を一例として挙げよう。
映画はフィルム時代の慣習から20分弱を1ロールとして本編を区切り、ロールごとにダビングを行うという手順が今でも残っている。前半の仕込み日では実際に各素材が組み合わさってダビングされる際のレベル感を確認し、各自修正作業を行っていく。システムやマシンスペックの向上によりダビングでもマルチトラックのセッションデータをある程度そのまま持ち込めるようになったため、ここで修正が発生した際でもすぐに対応できるようレコーディングの別素材などとスムーズな切り替えが行えるセッションとして下準備を行い臨んでいる。ダビングが完了するとプリントマスターが作成され、晴れて映画の完成だ。
7:近年の劇伴制作の潮流
本谷氏によるとまずここ数年の流れとして、ダビングステージ含めスタジオにAvid S6が普及したことにより仕込みとの差異が少なく作業に入ることが可能になったことが大きいそうだ。エンジニアの多くがS6に慣れ始めて作業効率も上がり、Neve DFCのころと比べてミックスセッションからのスムーズな移行と高い再現性が保たれていることが作業における大きな変化となった。
もうひとつがDolby Atmosの登場だ。ポップスの音楽がApple Musicの対応により国内では映画に先行してAtmos化している傾向は、サラウンドが音楽では広まらなかった今までとは違う現象と捉えており、同じく音楽を扱う劇伴エンジニアも音楽エンジニアとノウハウを共有していければという。
また、Dolby Atmosからダウンミックスして作成した5.1chは、初めから5.1chで制作した音源とは同じチャンネル数でも異なる定位やダイナミクス感が得られるため、新たな発見があることも気に入っているポイントだそう。今後、日本映画界においてDolby Atmosが普及するためには、Dolby Atmos Cinemaに対応したスタジオや劇場が増えること、Dolby Atmos= 制作費が高いという業界のイメージが変わることが鍵となると感じられている。本谷氏は早速Dolby Atmosでの制作にも挑戦されている。
📷東映音楽出版が構えるポスプロスタジオ、Studio”Room”。VoやGtを中心としたレコーディング環境と劇伴制作のTD環境を併せ持つフレキシブルなスタジオだ。今年6月に改修が行われ、7.1.4chのDolby Atmos Homeに対応となった。リアサラウンドにはADAM Audio S2V、ハイトには同じくADAM AudioのA7Xを採用。既存の配線も有効活用し、特注のSP設置金具によって既存のスタジオ環境の中にハイトスピーカーが増設された。モニターコントローラーはGRACE design m908を使用。サラウンドのころから導入していたm908のDante接続により、Dolby Atmos化という回線数の増加にも難なく対応することができた。
日本で劇伴制作に携わるエンジニアの数は増えているとお聞きした。また今回触れることができた職種の他にも、多くのプロフェッショナルが日本映画の音を支えている。映画音響の世界は、新しいテクノロジーの登場とそれを取り入れるスタジオや教育の現場によって、技術はもちろん業界の風習も含めて日々発展しているのだ。そのような中で様々なことに取り組み、もっとできることがあることを皆で知っていきたいという本谷氏の姿勢が強く印象に残っている。
東映音楽出版株式会社
本谷 侑紀 氏
84年生まれ。2005年、東映音楽出版・南麻布スタジオルーム入社。2009年「おと・な・り」(監督・熊澤尚人、音楽・安川午朗)で映画劇伴を初担当。以降は主に映画・ドラマの劇伴にレコーディングエンジニア、ポスプロのミュージックエディターとして携わる。近年の主な作品(Rec,Mix&MusicEditorとして参加)に、『シャイロックの子供たち』(本木克英監督、音楽・安川午朗)、『ある閉ざされた雪の山荘で』(飯塚健監督、音楽・海田庄吾)、『リボルバー・リリー(行定勲監督、音楽・半野喜弘)』、『11人の賊軍(白石和彌監督、音楽・松隈ケンタ)』がある。
*ProceedMagazine2024-2025号より転載
Education
2025/01/02
音響芸術専門学校様 / 未来への入口となるイマーシブ・システム教室
1973年に、国内では初となる音響制作技術の専門教育機関として開校した音響芸術専門学校。この夏、同校教室に満を持してイマーシブ・システムが導入されたということで、早速取材に伺った。応じてくれたのは同校学校長・理事長の見上 陽一郎 氏。イマーシブ・サラウンドの要であるスピーカーの選定や、教育機関ならではのテクノロジーに対する視点など、これからイマーシブ・システムを教室へ導入するにあたっては大いに参考となるだろう。
シンプルかつ充実したシステム
今回、音響芸術専門学校が導入したのは7.1.4ch構成のイマーシブ・サラウンド・システム。学内の教室のひとつを専用の部屋にしたもので、教室の中央前方寄りの位置にトラスとスタンドを使用して組まれている。教室の隅に12Uの機器ラックが置かれており、システムとしてはこれがすべてというコンパクトさだ。機器ラックにはPro ToolsがインストールされたMac Studioのほか、BDプレイヤー、AVアンプ、そしてオーディオI/FとしてMTRX Studioが収められている。MTRX StudioにはThunderbolt 3オプションモジュールが追加されており、Mac StudioとはHDXではなくThunderboltで接続されている。そのため、HDXカードをマウントするための外部シャーシも不要となっている。
MTRX II、およびMTRX Studioに使用することができるThunderbolt 3モジュールの登場は、オーディオ・システム設計における柔軟性を飛躍させたと感じる。MTRXシリーズがHDXカードなしでMacと直接つながるということは、単にオーディオ I/Oの選択肢を広げるということに留まらず、256ch Dante、64ch MADIなどの接続性や、スピーカーマネジメント機能であるSPQをNative環境に提供するということになる。さらに、1台のMTRXに2台のMac(+HDX)を接続できるため、DADmanの持つ巨大なルーティング・マトリクスを活用した大規模なシステム構築をシンプルに実現することも可能だ。そして、こうした拡張の方向とは逆にNative環境でDADmanを使用できるということは、MacとMTRXだけで外部機器とのルーティングやモニターセクションまでを含めたオーディオ・システム全体を完成させることができるということを意味する。音響芸術専門学校のようにシステムを最小化することもまた、Thunderbolt 3モジュールの登場によって可能となるということだ。
スピーカーに選ばれたのはEVE Audioで、2Wayニアフィールド・モニタースピーカーSC205とサブウーファーTS108の組み合わせ。ハイト4本はStage Evolutionの組み立て式パイプトラスにIsoAcousticsのマウンターを介して、平面サラウンド7本はUltimate Supportのスピーカースタンドを使用して設置されており、部屋の内装に手を加えることなくイマーシブ・システムを導入している。
📷イマーシブ・システムの組み上げで課題となるのはハイトの設置をどう行うかだろう。今回の組み上げでは照明用の製品を数多くリリースするStage Evolutionのトラスを使用した。コストパフォーマンスに秀でているだけでなく、堅牢な作りでスピーカーを支えており、ここにIsoAcousticsのマウンターを使用してハイトスピーカーを設置となっている。このように内装工事を行うこともなく簡便にイマーシブ環境を構築できるのは大きな魅力だろう。
国内初となるEVE Audioによるイマーシブ構築
EVE Audioによるイマーシブ・システムの構築は国内ではこれが初の事例となる。今回の導入に先立ち、音響芸術専門学校では10機種におよぶスピーカーの試聴会を実施しており、並み居るライバル機を押さえてこのEVE Audioが採用された格好だ。試聴会には同校の教員の中から、レコーディング・エンジニア、ディレクター、バンドマン、映像エディターなど、様々なバックグラウンドを持つ方々が参加し、多角的な視点でスピーカーを選定している。
試聴したすべての機種に対して、帯域ごとのバランス、反応の早さ、 全体的な印象などを数値化した採点を各教員がおこなったところ、このSC205ともう1機種の点数が目立って高かったという。「試聴会の段階ではまったく予備知識なしで聴かせてもらって、評価の高かった2機種の価格を調べたら、もう1機種とSC205には価格差がだいぶありました。SC205は随分コスパよくない?という話になり、こちらに決まったという感じです」とのことで、必然的に数多くのスピーカーを揃える必要があるイマーシブ・システムにおいては、クオリティの高さだけでなく費用とのバランスも重要であることが改めてわかる。SC205の音については「すごくバランスがよくて、ハイもよく伸びているし低音のレスポンスもすごくクイック。そして、音量が大きめの時と小さめの時であまりバランス感が変わらないところが気に入った」とのことで、 こうした特性も多数のスピーカーを使用するイマーシブ環境において大きな強みと言える。
そのEVE Audioは、リボンツイーターの実力をプロオーディオ業界に知らしめたADAM Audioの創立者でもあるRoland Stenz 氏が2011年に新たにベルリンで立ち上げたメーカー。ADAM Audioと同じくAir Motion Transformer(AMT)方式のリボンツイーターが特徴的だ。一般にリボンツイーターはドームツイーターと比べて軽量のため反応が早く、高域の再生にアドバンテージがある一方で、軽量であるがゆえに能率においてはドームツイーターに劣ると言われている。
これを解決しようとしたのがAMT方式で、この方式ではリボンが蛇腹状に折りたたまれており、折り目に対して垂直方向に電流が流れるように設計されている。すると、蛇腹のヒダを形成する向かい合った面には必ず逆方向の電流が流れるため、ローレンツ力(フレミングの左手の法則で表される電磁場中で運動する荷電粒子が受ける力)によってヒダは互いに寄ったり離れたりを繰り返す。この動きによって各ヒダの間の空気を押し出す形となり、従来のリボンツイーターと比べて約4倍の能率を得ることができるとされている。
また、EVE Audioは当初からDSPによるデジタル・コントロールをフィーチャーした野心的なブランドでもある。再生する帯域に対する適切なユニットのサイズ設計が難しいとされるリボンツイーターを採用しているEVE Audioにとって、クロスオーバーを精密にコントロールできるデジタル回路の搭載はまさに鬼に金棒と言えるだろう。アナログ的な歪みがそのブランドの味だと捉えることもできるが、スピーカー自体が信号に味をつけるべきではないというのがEVE Audioのコンセプトだということだ。
導入の経緯と今後の展望
2021年にApple MusicがDolby Atmosに対応したことをきっかけに、音楽だけでなくあらゆる分野で国内のイマーシブ制作への関心は年々高まっていると感じる。今回の音響芸術専門学校のイマーシブ・システム導入も、そうした流れを受けてのものかと考えていたのだが、専門学校と最新テクノロジーとの関係というのはそれほど単純なものではないようだ。
📷学校法人東京芸術学園 音響芸術専門学校 理事長/学校長 見上 陽一郎 氏
「最先端のものを追いかけても、それが5年後、10年後にはもう最先端ではなくなるし、なくなってしまっているかも知れない。2年間という限られた時間の中で、何がコアで何が枝葉かということは見極めていかないといけません。」と見上氏が言うとおり、軽々に流行りを追いかけてしまうと、学生が身につけなければならなかったはずの技術をないがしろにしてしまう結果になりかねない。専門学校と四年制大学のもっとも大きな違いは、専門学校が実際の現場で活用できる技術の教授をその主な目的としている点にある。それぞれの校風によって違いはあるものの、専門学校と比較すると、大学という場所は研究、つまり知的探求にかなりの比重を置いている場合がほとんどである。学生の卒業後の進路を見ても、大学で音響研究に携わった学生はオーディオ・エンジニアにはならずにそのまま研究職に就くことも多く、制作現場に就職する割合は専門学校卒業生の方がはるかに高いのだという。
極論すれば、大学ではステレオ制作を経験させることなくいきなりイマーシブ・オーディオに取り組ませることも可能であり、将来的にはそうした最新技術をみずから開発できるような人材の育成を目指しているのに対して、制作現場でプロフェッショナルなエンジニアとして活躍できる人材の育成が目的である専門学校にとっては、イマーシブ制作よりも基本となるモノラルやステレオでの制作技術を2年間で身につけさせるということの方が絶対的な命題ということになる。
そうした中で、同校がイマーシブ・システムの導入に踏み切ったきっかけのひとつは、実際に現場で制作をおこなうことになる専門学校生が在学中にイマーシブ制作に取り組むべき時期が来たと感じたからだという。「私はJASのコンクール(RecST:学生の制作する音楽録音作品コンテスト)の審査員や一般社団法人AES日本支部の代表理事を務めているのですが、そのどちらの活動においても、今は大学や大学院に在籍している方々が出してくる作品で2チャンネルのものというのは非常に少くて、大半がイマーシブ・オーディオ系なんです。ただし、 学生時代にそういったマルチチャンネル再生の作品を一生懸命作った大学生や大学院生の大半が、レコーディングエンジニアやMAエンジニアの道へ進まず、実際にその作品づくりをするエンジニアになるのは当校の卒業生など専門学校出身者が中心です。そこで、これからこういう分野リードしていくためには、やはり私たちの学校でもこうしたシステムを導入して、イマーシブ・オーディオ作品を専門学校生が生み出していくようにしないといけないよね、ということをこの2、3年じわじわと感じていたんです。」
導入されたばかりのイマーシブ・システムの今後の運用については、大きく分けてふたつのことを念頭に置いているという。ひとつは、すべての学生にイマーシブ・サラウンドという技術が存在することを知ってもらい、その技術的概要に関する知識を身につけ、実際の音を体験させるということ。「こういうシステムを組むときにはどういう規格に基づいて組まれているのかとか、どんな機材構成になっているのかとか。どのようなソフトを使って、どういう手順で作品が作られているのか。ここまでは全学生を対象に授業でやろうと考えています。つまり、卒業後に現場で出会った時に、イマーシブ・オーディオの世界というのが自分にとって未知のものではなくて、授業でやりました、そこから出てくる音も聴いています、というような状態で学生を世に送り出そうということです。これが一番ベーシックな部分で、全学生が対象ですね。」
もうひとつは、特に意欲の高い学生に対してカリキュラムの枠を超えた体験を提供すること。同校は27名のAES学生会員を擁しており、これは日本の学生会員の中では圧倒的に人数が多い。彼らはAESやRecSTを通して同年代の大学生たちのイマーシブ作品から大いに刺激を受けているようで、卒業制作で早速このシステムを使いたいという学生もいるという。そうした学生の意欲に応えるということも、今回の導入の理由になっているようだ。「2年生の夏ごろになると、2chなら大体ひと通りのことはできる状態になっています。そうした学生たちはこのシステムもすんなり理解できますね。もう、目がキラキラですよ、早く使わせろって言って(笑)。」
ちなみに、機器ラックの上にはPlayStation 4が置かれているのだが、 学校としてはこのシステムを使用してゲームで遊ぶことも奨励しているという。「語弊があるかも知れませんが、ここは学生に遊び場を提供しているようなつもり。作品づくりでもゲームでも、遊びを通してとにかくまずは体験することが重要だと考えています。」とのことだ。実際に学生はゲームをプレイすることを通じてもイマーシブ・オーディオの可能性を体験しているようで、ここでFPSをプレイした教員がとてつもなく良いスコアを出したと学内で話題になったそうだ。見上氏は「そうした話はすぐに学生の中で広まります。そうやって、興味を持つ学生がどんどん増えてくれたらいい」と言って微笑んでいた。
NYやロンドンへの出張の際は、滞在日数よりも多い公演を見るほどのミュージカル好きという見上氏だが、海外の公演で音がフロントからしか鳴らないような作品はもうほとんどないのだという。それに比べると国内のイマーシブ制作はまだまだこれからと言える。その意味で、将来、制作に携わる若者たちが気軽にイマーシブを経験できる場所ができたことは確かな一歩である。「このくらいの規模、このくらいのコストで、こういうところで学生たちが遊べて作品を作って...これが当たり前って感じる環境になってくるんだったらそれで十分ですよね」と見上氏も言うように、イマーシブ・オーディオ・システム導入に対する気持ちの部分でのハードルが少しでも下がってくれればよいと感じている。
*ProceedMagazine2024-2025号より転載
Education
2024/12/26
立命館大学 映像学部 大阪いばらきキャンパス 様 / 驚きの規模感で整備された日本唯一の映像学部
2024年4月、大阪いばらきキャンパスへ移転した立命館大学映像学部。その移転は学部が入る建物から教室に至るまですべてが新設となるビッグプロジェクトとなった。映像学科のコンセプトに沿うように構成された最新機材の導入のうち、ROCK ON PROでお手伝いさせていただいた「映画芸術」ゾーンの施設を中心にご紹介していきたい。
最新のキャンパスへ移転
関西を代表する私立大学である立命館大学。その歴史は古く、1900年の京都法政学校を創設年として124年の歴史を持つ国内でも有数の歴史ある大学である。「立命」の名は、孟子の「尽心章句」の一節である「殀寿(ようじゅ)貳(たが)わず、身を修めて以て之れを俟(ま)つは、命を立つる所以(ゆえん)なり」に由来する。「自由と清新」の建学の精神と「平和と民主主義」の教学理念に基づき、精力的に最新学問分野を修める学部を設置している大学である。この精神は学祖である西園寺公望の国際的な感覚、新しいものへの柔軟な対応、そういったポリシーが受け継がれているのではないだろうか。
今回の移設先である立命館大学大阪いばらきキャンパスは衣笠、草津に次ぐ最新のキャンパスで2015年に開講した真新しいキャンパスである。JR京都線と近畿道に囲まれた立地となるため、移動中に目にしている方も多いのではないだろうか。ちなみに、このキャパス用地の前身はサッポロビール大阪工場である。こちらのほうが馴染みのある方もいるかも知れない。このキャンパスに作られたH棟へは今回ご紹介する映像学部と、情報理工学部が移転している。
日本唯一の総合大学における映像学部
📷Dolby Atmos Cinemaの認証を受けたシアター教室の入口。誇らしげにロゴが掲げられている。音響施工は日本音響エンジニアリング、シネコン等の施工実績のあるヒビノスペーステックがシステム工事を行っている。
ここへ移転した映像学部は、2007年に京都衣笠キャンパスで開講した、立命館大学にとって比較的新しい学部。現在の16学部の中で7番目に新しい学部となるそうだが、その2007年以降にも新設学部が数々あるということからも積極的に新しい学問分野を切り拓こうという立命館大学の姿勢がうかがえる。
映像学部(特に映画芸術ゾーン)は、衣笠キャンパスの直近にある太秦の松竹撮影所との産学連携での活動を行ってきたが、前述の通り2024年4月に大阪いばらきキャンパスに新しく建設されたH棟へと移転を行った。スタジオなどの設備も新規のキャンパスで完全新規での設計が行われ、移転におけるテクノロジー・ターゲットであるイマーシブ・オーディオへの対応を実現している。
芸術分野の学部の中に学科として映像の分野が設置されていることはあるが、こちらは学部として総合的に映像分野をカバーする国内でも稀有な存在。芸術系大学以外では唯一となる映像系の学部であり、単純に映像学部ということで括れば日本唯一となる学部である。また、芸術系の大学ではなく総合大学に設置されているということで、専門性の高い技術者を養成するというだけではなく、映像作品をクリエイトしプロデュースする、という内容の学習を行う学科であるということもその特色のひとつ。
映像学部にはその中に特定の学科が設置されているわけではなく、「映画芸術」「ゲーム・エンターテインメント」「クリエイティブ・テクノロジー」「映像マネジメント」「社会映像」の5つからなる学びのゾーンが展開されている。ゾーンと言うとわかりにくいかもしれないが、具体的には各分野の特色ある講義を選択し、3,4年時のゼミ選択で各分野に特化した学習を行うということになっている。実習授業では実際の映像作品制作を行うことを中心に、幅広い映像分野のテクノロジーに触れ、作品を作るための素養を学ぶということになる。本格的なプロの現場の機材に触れ、それを使用した制作を実習として体験する。どうしたら作品を作ることができるのか、作品を作るためには何をしなければならないのか、ということを総合的に学習しイノベーションあるクリエイターを輩出している。
設置されているゾーンを見ると映像に関連する幅広い分野が網羅されていることがわかる。今回お話を伺った「映画芸術」だけでも、プロデュース、監督、撮影、照明、脚本、演出、音響と7つの分野に特化した実習授業が設置されているということだ。実写からCG、ゲーム、VRに至るまで映像を使った表現すべてを学ぶことができる。そして、それらをプロデューサー目線で学ぶことができるというのが映像学部の最大の特長であろう。
1年時には、実習授業で短編作品を制作し、一つ一つの機材の使い方やその役目を学びながら手探りで作品創りというものに向きあう。その際にも教員は、何を伝えたいのか?何を表現したいのか?という全体像を学生自身が考えた上で、制作をサポートしているということだ。また、「映画芸術」のゼミを受講する学生は、卒業制作として1本の映像作品制作が必修となる。芸術系の大学であればその作品自体が卒業制作となるが、映像学部では作った映像作品に対して自身の学んできた分野に依った解説論文を書き、教授陣の口頭試問を受けるということだ。作品を作るということはあくまでも結果であり、それまでのプロセス、工夫、課題や成果などを考察することで全体を俯瞰した視点を学んでいく。まさにプロデューサー的な視野を持つということを目的としていることがよく分かるカリキュラムである。
立命館大学 映像学部
松蔭 信彦 教授
1961年 大阪生まれ。日本映画・テレビ録音協会会員。
1981年 フリーの録音助手として東映京都テレビプロダクションで、『銭形平次』 (主演大川橋蔵)、『桃太郎侍』(主演高橋英樹)など TV 時代劇を中心に従事した 後、映画『夢千代日記』『吉原炎上』『華の乱』など助手で参加し、1991年『真夏 の少年』で映画録音技師デビュー。以後、映画・TV ドラマ等で活動する。 主な作品歴は『魔界転生』、『男たちの大和 / YAMATO』、『憑神』、『利休にた ずねよ』、『海難 1890』、『エリカ 38』(整音担当)、『名も無い日』(整音担当) など、二度の日本アカデミー賞最優秀録音賞受賞、二度の日本アカデミー賞優秀録音 賞受賞。現在、立命館大学映像学部で後進の育成にも尽力している。
教室、MA、Foley、シアター、驚きの規模感
それでは、大阪いばらきキャンパスの映像作品に対する音響制作のための学習設備を列挙して紹介していきたい。5.1chのサラウンドを備えたMA1、Dolby Atmosの設備を持つMA2、そしてそれぞれのMA室に対応したSound Design Room1(5.1ch)、2(Dolby Atmos)。MA1,2には共有のアナウンスブースが設置されている。さらに、ADRとFoleyがある。ADRとFoleyはL,C,Rの3chのモニター環境が備わっており、収録で使用されていない際には仕込み作業を行える環境としても考えられている。さらに、基礎的な機器の操作を学んだり、ヘッドホンでの仕込み作業に使用される音響編集実習室がある。映像編集など総合的な確認用の設備として、Dolby Atmos Cinemaの視聴が可能なシアター教室。スクリーンでのグレーディングを実現するスクリーニングルームは、小規模な試聴室としての機能も持ち、こちらもDolby Atmos Homeの視聴環境を備えている。映像編集に関しては、8つの編集室と実習用のPCが並んだ教室とCGやデジタルアーカイブ用の実習室が2室あるという充実の環境。
このように、ざっと挙げただけでもその充実ぶりはおわかりいただけるだろう、これでも本誌執筆時点では「ゲーム・エンターテインメント」「映像マネージメント」のゾーンが衣笠キャンパスにまだ残っており、衣笠キャンパスと松竹スタジオをサテライトとして運用されているということ、驚きの規模感である。映像学部の1学年の定員は、2024年度から240名。前年までは160名だったということなので、大阪いばらきキャンパス移転で設備が増強されたことで1.5倍に増員されたということになる。
実習室
📷各デスクにiMacが設置され、Audio I/FにSSL2+、HPアンプ、スピーカーが準備された音響編集実習室。Pro Toolsがインストールされ、ここでDAWの操作方法などの実習授業が行われる。空いている時間には自由に使うことができるため、作品の仕込み作業などを行う生徒も多いということだ。
📷左)こちらは映像編集実習室となる。Avid Media Composer、Adobe Premier、Blackmagic Design DavinciがインストールされたWindowsでの実習が行われる。NLEを使った様々な作業を充実のスペックの環境で学ぶことができるこの実習室、さすがに各席にMaster Monitorは設置されていないが、プレビュー用にEIZOのColorEdgeシリーズが採用されている。中)シンプルにPCディスプレイが並んでいるこの部屋はCG編集実習室。WindowsベースでCG制作の実習が行われる部屋だ。完成した作品を書き出すレンダリング作業を行うために、別途サーバールームにレンダリングファームが準備されている。右)音響編集実習室を学生側から見るとこのような具合だ。DAWでの作業を行うための十分な環境が整えられていることがわかる。
履修争奪戦?人気講座を生む設備
それぞれの設備の内容に触れていこう。まずは、1~2回生の実習で主に利用されるMA1。5.1CHのサラウンド・モニター環境を備えたダビング規模の部屋となる。必修授業でも使うということで多くの生徒が着席できるようになっているこの部屋は、3台のAvid Pro Toolsが導入されている。「映画芸術」ということで映画のダビングを模したシステムアップが行われており、ダイアログ、効果音それぞれの再生用Pro Toolsとダビング用のレコーダーPro Toolsの3台体制である。このシステムにより、映画ダビングで何が行われているのか、どのようなワークフローで作業が行われているのかを実習の中で体験することができるようになっている。
サラウンドシステムに関しては、ウォール・サラウンドではなくシングル・スピーカーによるものだが、実際のウォールサラウンドでの視聴を体験するためにシアター教室が存在しているので、MA室ではそこまでの設備は導入していないということだ。ただし、以前の衣笠キャンパスでは試聴室に唯一の5.1chシステムがあるのみであったことからすると、大きくその環境は進化したと言えるだろう。実際のところ、後述するMA2でのDolby Atmos視聴の体験とともに学生のモチベーションも上がり、今期3回生のゼミ課題の作品では5本の5.1ch作品が制作された。
MA1
📷MA1と呼ばれる5.1chサラウンドの部屋がこちら。32fader仕様のAvid S6が導入され、Dialog、SE、Dubber3台のPro Toolsによるダビング作業の再現が行えるシステムが組まれている。それぞれのPro ToolsにはAvid MTRXがI/Oとして採用されており、最新のシステムが構築されている。スピーカーはGenelecの8461が特注で作られたスタンドに置かれている。さすがにL,C,Rchすべてをスクリーンバックに設置するのは無理があったため、センタースピーカーのみスクリーンバックへの設置となっている。教室ということもありスクリーン脇には演台がある。この写真後方には授業の際に学生が座るベンチシートが置かれている。
📷左)このMA1に対応した仕込み部屋がこちらのSound Design 1。スピーカーにはGenelecの8431、コンソールはAvid S4というこちらも充実の仕様だ。MA1との使い勝手含めた互換性を考えて作られた仕込み用の部屋となる。右)MA1に導入された32fader仕様のAvid S6。
そして、3~4回生の音響実習の講義室としても活用されているMA2。こちらは今回導入にあたってのコンセプトであるイマーシブ・サウンドを実践するために、Dolby Atmos Home準拠の設備を持ったMA室だ。衣笠キャンパス時代の音響実習は定員を満たさないこともあったそうだが、やはりDolby Atmosでの視聴体験という新しいMA2室の魅力の成せるところで、大阪いばらきキャンパスに移転した途端に倍率1.5倍となる人気講座になったそうだ。ちなみに、実習講座を受講することでその設備の使い方を学べば、その後は自由に空き時間でそれらの部屋を使うことができるようになるということ。この仕組みは設備利用のライセンス制だと教えていただいたが、1.5倍という高倍率はこの利用ライセンスを獲得するための履修争奪戦という様相を密かに現しているのかもしれない。
MA2には3台のPro Toolsが設置されている。それぞれの役割はMA1と同様にダイアログ、効果音、ダビングであるが、こちらではさらにDolby Atmosを学ぶためにHT-RMUが導入されている。単独で準備されたHT-RMUはHome対応のものではあるが、Cinemaであったとしてもシグナルのルーティングなどに差異はなく、ワークフローも同一であり、映画のダビングのシステムを理解するための設備としては十分なものである。
これらのMA室に対応した仕込み部屋となるのがSound Design 1と2。Sound Design1はMA1に対応している5.1chの仕込み部屋。Sound Design 2はMA2に対応したDolby Atmos視聴が可能となる部屋である。それぞれPro Toolsは1台が設置された環境となっている。学生に開放されたこのようなサラウンド対応の仕込み設備があるということ自体が珍しいなか、Dolby Atmos環境の部屋までが提供されているのは本当に贅沢な環境である。
MA2
📷Dolby Atmos Homeに対応した7.1.4chの再生環境を備えたMA2。スピーカーはGenelec 8441が採用されている。すべて同一型番のスピーカーということでつながりの良いサラウンド再生環境が実現されている。スクリーンは150インチと大型のものが導入され、「映画芸術」ゾーンとして映画を強く意識した設備であることがわかる。なお、L,C,Rchのスピーカーはしっかりとこのスクリーンの裏に設置された「映画」仕様である。コンソールはAvid S6 24Fader、この導入により他の部屋と共通した操作性を持たせることに成功している。もちろん、このAvid S6とDolby Atmosの制作環境の親和性に関しては疑いの余地はない。MA1と同様のDialog、SE、Dubberの3台に加え、HT-RMUも導入された4台体制でのシステムアップとなっている。
📷左)MA2に対応したSound Design 2がこちら。こちらもGenelec 8431による7.1.4chの設備である。Avid S4との組み合わせで高い互換性を確保した仕込みの設備となっている。Dolby Atmosのレンダラーに関しては、Pro ToolsのInternal RendererもしくはStand alone Rendererによる作業となっている。右)こちらのMA2に導入されたのはAvid S6 24Faderだ。
📷左)MA1、MA2の間に設置されているアナウンスブース。横並びで2名が座れるスペースが確保されている。カーテンが開けられている方がMA2、閉まっている右側の窓の向こうがMA1である。収録用のマイクプリにはGrace m108が準備され、マイクはNeumann U87Ai が常備されている。Avid S6のコンソール上からもリモートコントロールできるようにセットアップされている。右)MA1,2共用のマシンルーム。左右対称に左側にMA1の機材、右にMA2の機材が設置されている。KVMとしてはIHSEが採用されており、MA1,2すべてのPCがKVM Matrixに接続されている。PCに関してはMacProとMacStudioが導入されている。
それでは、ここからは立命館大学 映像学部の充実したファシリティをブロックごとにご紹介していこう。
Foley
📷L,C,Rchのモニターが置かれたFoleyのコントロールルーム。この部屋もGenelec 8431が採用されている。Avid S4が設置されており、仕込み部屋としての使い勝手も考えられた仕様となっている。マイクプリにはGraceのm108が各部屋共通の機材として導入され、Avid S4からのリモートコントロールを可能としている。Foley Stageも充実の設備で、水場から足音を収録するための数々の種類の床が準備されている。部屋自体の広さもあり、国内でも有数の規模のFoley Stageとなっている。そして何と言っても天井が高いので、抜けの良い音が収録できそうな空間である。またこの写真の奥にある倉庫には多種多様な小物などが収納されている。Foleyに使われる小物の数々はそのFoley Stageの歴史でもあり、今後どのような小物が集まって収められていくのか数年後にも覗いてみたいところである。
ADR
📷こちらもL,C,RchにGenelec 8431が置かれたADR。ブース側は十分な広さがあり、4人並びでのアニメスタイルの収録にも対応できるキャパシティーを持っている。天井も高いのでマイクブームを振っての収録も可能だろう。アフレコ、音楽収録どちらにも対応のできる広い空間である。この部屋だけが唯一Avid S1の設置された部屋となる。収録用のマイクはNeumann TLM103、KM184,Audiotechnica AT4040といった定番が揃っている。
サーバールーム / レンダリングファーム
📷今後の拡張を考えた余裕のあるスペースにサーバールーム、兼レンダリングファームが置かれている。実習用のファイルサーバーとしてAvid Nexisが導入されMAルームなど3~4年生が卒業制作を行う部屋のPCが接続されている。PCがずらりと並んだ実習室はその台数があまりにも多いため接続は見送っているということだ。デスクトップPCが棚にずらりと並んでいるのがレンダリングファームである。処理負荷の大きいレンダリング作業をPCの並列化による分散処理を行うことで効率的に完成作品を作ることができる。このような集中して処理を行う仕組みを導入することで、教室の個々のPCのスペックを抑えることができるスマートな導入手法だと感じるところだ。
映像編集室
📷卒業制作などの映像編集を行うための部屋がこちら。SONYのMaster Monitorが置かれたしっかりとした編集室になっている。PCにインストールされているソフトは実習室と同じくAvid Media Composer、Adobe Premier、Blackmagic Design Davinciとのこと。この設備を備えた映像編集室が8部屋も用意されている。この規模感は大規模なポスプロ並みである。それでも卒業制作の追い込み時期になるとこれらの設備は争奪戦になりぎっしりとスケジュールが埋まってしまうということだ。学年あたりで240名も在籍しているのだからこれでも足りないくらいということなのだろう。
Theater
📷約280席のスタジアム状に座席が並んだ大教室がこちらのシアター教室。写真を見ていただいてもわかるようにただの大教室ではなく、Dolby Atmos Cinemaの上映が可能な部屋である。BARCOのシネマプロジェクターとDCPプレイヤーにより映画館と遜色ないクオリティーでの上映が可能である。オーディオもDolby CP950が導入されたDolby Atmos認証の劇場となっている。スピーカーはJBL、パワーアンプはCROWN DCiシリーズ、プロセッサーはBSS BLUと昨今のシネコンなどでの定番の組み合わせである。通常の授業で大教室としての利用や、学生の作品の視聴など様々な用途に活用されているとのこと。将来的にはこの教室にコンソールを接続してダビングとして活用できないかという壮大なアイデアもあるということだ。そうなったら国内最大のダビングステージの誕生である。ぜひとも実現してもらいたい構想だ。
Screening Room
📷30席程度の座席を持つScreening Room。メインの用途としてはカラーグレーディングのための設備だが、そこにDolby Atmos Homeの再生環境が導入されている。これは試写室としての活用も考えられた結果であり、映像はもちろんだがオーディオも充実した視聴環境が構築されている。ウォール・サラウンド仕様の7.1.4chの配置で、JBLのシネマスピーカーが設置されている。フロントのL,C,Rchはもちろんスクリーンバックにシネマスピーカーの採用である。プロジェクターにはDCP Playerも登載され、試写を行う気満々のシステムアップとなっている。
お話を伺った、映画サウンドデザインを専門とする松陰 信彦 教授は、長年映画の録音技師として活躍をされてきた方。研究室にお邪魔したところ、博物館クラスのNAGRAやSONYのポータブル・レコーダー(その当時は持ち運べること自体に価値があった!)が完動状態で置かれていた。映画録音に対する深い造詣、そしてそれを次世代へと伝える熱い思い。学生には「今しかできないこと、社会人になったらできないかもしれないことを、この環境で学び実践して欲しい」という思いを持っているということ。大学であるからこそ、その設備と時間を大いに活用して取り組めることも多いし、それを実現できる環境を整えていきたいとのことだ。機材面はもちろんのこと、技術サポートやノウハウの共有などで私たちも連携し、その想いを支えていければ幸いである。
*ProceedMagazine2024-2025号より転載
Post
2024/12/09
株式会社角川大映スタジオ様 / 最新かつ最大規模のDolby Atmos Cinemaダビングステージ
『静かなる決闘』『大怪獣ガメラ』『Shall we ダンス?』といったヒット作が生みだされ、近年では高精細ディスプレイを使用したバーチャルプロダクション事業も手がける角川大映スタジオ。国内で唯一、自社に美術部を持つことでも有名な同スタジオだが、意外にもダビングステージの誕生は2011年と比較的最近のこと。このダビングステージにオープンから13年を経てついに大規模な改修が施された。待望のDolby Atmos Cinemaへの対応をはじめ、生まれ変わった本スタジオに込められた優れたノウハウを紐解いていきたい。
待望のDolby Atmos Cinema対応
今回の角川大映スタジオダビングステージ改修においてもっともエポックメイキングな点といえば、何よりもDolby Atmos Cinemaへの対応ということになるだろう。国内では、東映デジタルセンター、グロービジョンに続く3部屋目のDolby Atmos対応ダビングステージの誕生になるが、デュアルヘッド72フェーダーのS6を備えた角川大映スタジオは現時点で最新かつ最大規模のDolby Atmosダビングステージということになる。Dolby Atmosへの対応にあたって新たに天井へのスピーカー設置が必要になるため、遮音壁の内側、スクリーン裏のフロントバッフルを除き、ほぼすべての内装意匠を解体してイチからの工事が実施されているほか、フロントLCRを除くすべてのスピーカー+サブウーファーもDolby社のレギュレーションに基づいて新規導入されるなど、まさに生まれ変わったと言って過言ではない大規模な改修となっている。
📷天井と壁面にずらりと並んだサラウンドスピーカー。「Dolby Atmos Theatrical Studio Certification Program Requirements」に基づいて、サイドが左右壁面に7本ずつ、ハイトが天井左右に7本ずつ、リアが背後壁面6本の合計34本のサラウンドに加え、サラウンド用サブウーファー4本が使用されている。
同じDolby Atmosといっても、家庭での視聴を前提とするDolby Atmos Homeと、映画館での視聴を前提とした制作となるDolby Atmos Cinemaでは、Dolby社のレギュレーションを満たすために求められるスピーカーシステムがまったく異なっている。ベッドチャンネルに対して1対1の関係でスピーカーを配置するDolby Atmos Homeに対して、Dolby Atmos Cinemaでは映画館と同様にディフューズ・サラウンドを使用することで面によるサラウンド環境の再生を行うということになる。家庭よりもはるかに広い映画館においては、視聴する位置による音響体験の差を極力なくすことが求められ、作品の音響制作に関わる最終段であるダビングステージでは、その環境を再現することが必須というわけだ。
📷ダビングステージのフロント、透過スクリーンの裏に設置されたLCRは既存のJBL 5742+サブウーファーJBL 4642Aを残している。LCR用のアンプはステージ裏に別途ラッキングされているのだが、今回の更新に伴い、スピーカーケーブルも試写室と同じBELDENに更新されている。
必要なスピーカーの本数はDolby社の「Dolby Atmos Theatrical Studio Certification Program Requirements」という文書に記されており、部屋の横幅と前後の奥行きに応じて、リアサラウンドとサイドおよびハイトスピーカーの本数が細かく指定されている。今回の角川大映スタジオの場合、サイドが左右壁面に7本ずつ、ハイトが天井左右に7本ずつ、リアが背後壁面6本の合計34本のサラウンドに加え、サラウンド用サブウーファー4本が使用されることとなった。ベース・マネージメント用に設置されたこれらのサブウーファーは天井の四隅から少し内側に入ったあたりに設置された。
既存流用となるフロントのJBL 5742に合わせ、サラウンドスピーカーもすべてJBLで揃えられている。基本的にはJBL 9310が採用されているが、カバーエリアの関係でハイトの一部にはJBL AM5212/00が使用されることになった。カバーエリアやスピーカーの設置角度に関してもDolby社の厳密な規定が存在しているのだが、このレギュレーションで興味深いのは、すべてのスピーカーをミキシングポイントとなる1点に向けるのではなく、一部のサラウンドスピーカーはCMA(Critical Mix Area)と呼ばれるミキシング作業をおこなうエリアの四隅または辺縁に向けるよう指定されている点だろう。このあたりも、シネマ制作ならではの仕様と言えるのではないだろうか。
もうひとつ、Dolby Atmos HomeとDolby Atmos Cinemaの大きな違いをあげるのであれば、ソフトウェア・レンダラーが異なっていることだ。シネマ・レンダラーでは、Cinema roomという、ディフューズ・サラウンドを構成するためのスピーカー・アレイ設定ウィンドウのほか、 レンダラー内部でベースマネジメントを行う機能が搭載されている。シネマ・レンダラーは市販されておらず、手に入れるにはそのダビングステージがDolby社の認定を受けなければならない。ベースマネジメントを除くEQ / Delayといった電気的な補正はBSS BLU-806。角川大映スタジオにとって使い慣れたAudio Architectを使用している。シネマ制作においては、Dolby Atmosだけではなく、従来の5.1や7.1サラウンド制作も当然存在する。そうしたフォーマットの違いごとにプリセットを作成し、作業内容に応じて切り替えて使用する形だ。
📷サラウンドスピーカーは一新され、JBL 9310が新規導入された。 写真上で確認できるように、カバーエリアの関係で天井スピーカーのうち6本だけはJBL AM5212/00となっている。
後に詳述するが、今回の角川大映スタジオのシステム構成はMTRX IIとDanteをフル活用した非常にシンプルなものになっている。A-Chainのすべての音声信号はMTRX IIからDante信号として1本のLANケーブルで出力され、ネットワークスイッチを介してB-Chainの入口となる2台のBLU-806に接続されている。ここで電気的な補正(スピーカーマネジメント)を施された音声は再度Danteネットワークへデジタルのまま送られ、RME M-32 DA Pro II-DでDA処理がおこなわれ ている(Dante 対応モデルは国内非取扱)。DAコンバーターは複数の機種を試したうえで、RMEが選ばれている。DAまでの経路において可能な限りフォーマット変換を避けシンプルなシグナルフローとすることで、個々のサウンドの解像度・明瞭度を向上させたいという想いが反映されたシステム構築となる。
DAされた音声は、Crown IT5000HDとDCi 8|600 DAからなるパワーアンプ群に送られる。フロントLCRとすべてのサブウーファーがIT5000HD、サラウンドスピーカーがDCi 8|600 DAという受け持ちだ。 ちなみにそれぞれ、IT5000HDはAES、DCi 8|600 DAはDanteでも接続されており、M-32 DA Pro II-Dをバイパスした信号を受け取ることが可能。万一、DAまでの経路に不具合があった場合にリダンダントとして機能させることが可能になっている。
📷マシンルームの様子。ダクトの下に見えているのが映写機NEC NC2000C。システムからの映像出しは作業に応じてEX Pro ToolsのVideo Trackと、Media ComposerとのSatellite Linkが併用されている。
国内初導入のPost Moduleを含むデュアルヘッドPro Tools S6
📷CMA全景。KVMはIHSE Dracoを使用したマトリクス方式となっており、どの席からどのマシンでも操作可能だ。
もうひとつの大きな変更点は、AMS Neve DFC GeminiからAvid S6への音声卓の更新だ。素材の仕込み段階からすでに作業の中心となっているPro Toolsとの親和性の高さに加えて、今回の改修におけるテーマのひとつであるクリーンで解像度の高いより現代的なサウ ンドを目指すという方向性が大きな決め手になったようだ。そのS6は、国内のシネマ制作ではスタンダードとなりつつあるデュアルヘッ ド、72フェーダー、5ノブという仕様。日本音響エンジニアリング製作の特注デスクによって設置されている。そして、Dolby Atmos対応ということで、これも国内では多数の導入がある移動可能な特注ボックスに収められたJoystick Moduleを備え、さらに、国内初の導入となったPost Moduleが採用されている。
📷特注デスクに収められた72フェーダーのAvid S6。Master Moduleは盤面の中央に置かれている。一見シングルヘッドに見えるが、左側の離れた位置にふたつめのMaster Moduleが設置されている。
デュアルヘッドは1つのシステムにMaster Moduleが2基ある仕様(システムIDはMaster Moduleに紐づいているため、ライセンスとしては2つのシステムを1箇所で使用しているという形)。S6で1つのMaster Moduleが掴めるのは64フェーダーまでのため、72フェーダーという大規模な盤面を実現するにはデュアルヘッドの採用は必須となる。しかし、それよりも重要なのはデュアルヘッドを採用することで、S6の盤面を完全に2つの異なるエリアに分割することができるということだ。映画制作のダビングにおいてはひとつのシーンで同時に様々な音が鳴るため、セリフ、効果音、音楽のように、それぞれ各グループを担当する2〜3人のミキサーが同時に音声卓で作業をするということが一般的。デュアルヘッドを採用しておけば、どちらのMaster Moduleがどこまでのモジュール列を掴むのかがあらかじめ確定されるため、機能的にも視覚的にも各ミキサーが作業するフェーダーを明確に切り分けることができる。
2つのMaster Moduleの内の1つめは72フェーダーを構成する9モジュールを4:5に分割する位置、つまりサーフェスの中央に設置されているが、角川大映スタジオの大きな特徴は、2つめのMaster Moduleが72フェーダーから約1人分の作業スペースを隔てて離れた位置に設置されていることだ。センターのマスターフェーダーを挟んで左側には、セリフのミキサーが、右側には効果音のミキサーがという想定で構成が組まれている。
📷スタジオエンジニア席には2台目のMaster ModuleやMOM、Clarity Mなどのユーティリティ関連機器が置かれている。
この、2つめのMaster Module付近はスタジオエンジニアの作業スペースとして想定されており、ここに国内初の採用となるS6 / S4 Post Moduleが並べて配置されている。このPost Moduleだが、その名称とは異なり、いわゆる国内で言うところのポストプロダクションというよりは映画ダビングに特化した機能を持ったモジュールだ。 モジュールにはトグル切り替えが可能なパドルが並んでおり、これでダバーへ流し込まれる各ステムの再生 / 録音をワンタッチで切り替えることができる。また、S6システムにPost Moduleが含まれていると専用のメーターを表示することができるのだが、このメーターではメインのアウトプットに加えて、 各プレイアウトからの出力を一覧で監視することができる。ちなみに、Post Moduleの前方に設置されたDisplay Moduleはデスクに直接挿さっているのではなく、イギリスのスタジオ家具メーカーであるSoundz Fishyが製作しているS6 Lowered Displayというアタッチメントを使用してデスクに埋め込まれている。デスクはその他モジュールが埋め込まれた部分と同サイズで製作されているので、例えばMaster ModuleとPost Moduleの位置を入れ替えるようなことも可能になっている。
📷左)Master Moduleの左下にあるのが国内初導入となったPost Module。DFCに搭載されていたパドル式のRec / Play切り替え機能を提供するほか、各Macからのアウトプットを監視できる専用メーターをS6に追加する。右)デスク同様、日本音響エンジニアリング製作の特注ボックスに収められたJoy Stick Module。CMAを移動しながら試聴できるよう、ケーブルも延長されている。
MTRX IIが実現したSimple is Bestな機器構成
今回のダビングステージ改修にあたっては、システム設計においても解像度の向上がひとつのテーマとなっている。そのための手法として検討されたのが、システムをシンプルにすることでシグナル・パスを最短化するというものだ。
AMS Neve DFC GeminiやEuphonix System 5といったDSPコンソールからAvid S6への更新においては、大きく分けてふたつの方針が考えられる。まずは、ミキサー用のPro Toolsシステムを導入し、S6を従来のコンソールと同じくミキサーとして使用する方法だ。プレイアウト用の各Pro Toolsからの信号はいったんミキサーを担うPro Tools MTRXに集約され、これに接続されたPro ToolsをS6で操作することでDSPコンソールを使用していた時と同じ、再生機→ミキサー→録音機、というワークフローを再現できるだけでなく、必要に応じてPro Tools内でのインボックス・ミキシングも活用することができるが、当然システム規模は大きくなり、その分信号経路も複雑になる。
角川大映スタジオが採用したのはもうひとつの方針、各プレイアウトPro Toolsが1台のMTRX IIを介しダイレクトにDubber Pro Toolsに接続される構成だ。システムの構成をシンプルにすることで 、音声信号は異なる機器間での受け渡しや、それに伴うフォーマット変換によるロスを最小限に抑えながら、最短経路のみを通ってB-Chainまで到達することができる。
📷左)マシンルームに設置されたラック群。画像内左から2架がプレイアウトPro Tools関連、一番右がB-Chain関連のラックとなっており、その間にはMedia Composerやパッチ盤がラッキングされている。中)B-Chain関連ラック。そのサウンドが高く評価され採用されたRME DA 32 Pro II-D、スピーカーマネジメントを担うBLU-806のほか、Dante信号をヘッドホン出力用にDAするTASCAM ML-32D、ユーティリティとしてMADI-AESコンバーターADI-6432やRME DA/AD 32 Pro II-Dなどがあり、足元にはサラウンドスピーカー用のパワーアンプ類が設置されている。右)Dubber / EX Pro Toolsシステム(右)とRMUのラック(左)。左下にMTRX IIが2台見えるが、2台目は予備機として導入されており、本線はすべて1台目のMTRX IIに接続されている。
ダビングステージに限らず音声を扱うスタジオの機器構成にあたっては、いくらシグナル・フローをシンプルにしたいといっても、Pro Toolsからの信号だけを出せればよいわけではなく、ハードウェア・エフェクターや持ち込み機材などの外部機器との接続、メーターやヘッドホンへの出力などの様々な回線が本線の音声信号系統に加えて必要となる。そうした多数のデジタル信号を同時に扱うことを可能にしているのがPro Tools MTRX IIだ。初代MTRXではDanteがオプション扱いだったため、ダビングステージのような大規模なシステムを初代MTRXで実現しようとした場合は、オプションカード・スロットをほかの拡張カードと取り合いになってしまうという課題があった。どうしても2台のMTRXが必要になってしまう。MTRX IIでは初代でオプション扱いだったDante I/O(256ch)とSPQ機能が本体に標準搭載されたことで、7基のDigilink I/O CardでPro Tools接続したとしても、その上でMADI 3系統(本体1系統、オプションカード2系統)とDante 256chという豊富な数の回線を外部とやり取りすることができたというわけだ。
角川大映スタジオでは、プレイアウトとしてDialogue、Music、SE-1、SE-2、EX、そしてレコーダーとしてDubberが1台からなる合計6台のPro Toolsシステムが運用されている。すべてMac Proによるシステムで、EXがHDX2仕様、その他はすべてHDX3仕様となっており、HDXカードからDigiLinkケーブルで1台のMTRX IIに直接接続されている。DialogueとDubberがHDX2枚分(128ch)、Music・SE-1・SE-2がHDX1枚分(64ch)ずつ、MTRX IIのオプションスロットに換装された7枚のDigilink I/O Cardにつながっており、EXはMTRX II本体の2基のDigiLink ポートに接続されている。MTRX IIの残り1基のオプションスロットにはMADIカードがインストールされており、オンボードのMADIポートと合わせて、RME製 MADI-AD / DA / AESコンバーターを介してアナログ / デジタルのパッチに上がり、アウトボード、持ち込み機器の接続用のトランク回線として使用されている。DanteはB-Chainへの送り出しのほか、TASCAM ML-32Dを介してメーター送りなどの回線として使用されている。
MTRX IIのもうひとつの特徴が、国内では2023年秋頃からリリースされているThunderbolt 3モジュールだ。オプションカード・スロットとは別に用意されたスロットに換装することで、Mac-MTRX II間で256chの信号をやり取りすることが可能になる。Thunderboltと聞くと思わず「MTRX ⅡがNative環境でも使える!」という発想になりそうだが、今回のシステム設計においては、RMUの接続をPro Toolsが接続されているMTRX Ⅱへダイレクトに接続することができるということになり、RMU用のAudio I/Fが不要になる。つまり、RMUを含めたすべてのPCがダイレクトに1台のMTRX IIに接続することができる、ということになる。
RMU含め7台のPCからの640chの信号と、ユーティリティーのDante、MADIの320chという信号を1台で取り扱っていることとなる。すべてをこのMTRX IIに集約することで、非常にシンプルなシステム構築となっていることがおわかりいただけるだろう。
各Mac Proには、持ち込み機材用の入出力やヘッドホンアウトを確保するためのI/Oも接続されているが、ダビング作業における音声信号の本線としては、5台のプレイアウトと1台のDubber、そしてRMUという7台のMacが1台のMTRX IIに集約されており、そして、 このMTRX IIからDante1回線ですべてのアウトプットがB-Chainへと出力されている。スペックとして理解はしていたが、実際に現場で動いているところを目の当たりにすると、MTRX IIの柔軟性と拡張性の高さに改めて驚かされる。
同期を制する者は音を制する!?
📷DXD-16 から出力された10MHzクロックはDCD-24でWordとしてリジェネレートされ各機器へ。10MHzクロックはすべてのSync XがDXD-16からダイレクトに受けている。
今回のダビングステージ改修にあたって、角川大映スタジオがこだわったもうひとつの点が同期系統の刷新だ。このダビングステージでは、24fpsだけではなく23.97fpsなどの様々なフレームレートを持った動画素材を扱う機会があり、音声ファイルにしてもダイアログは48kHz、音楽は96kHzなど複数のサンプリング周波数の素材を同時に扱う場面は多い。こうした状況となる中、多数の機器へ異なるフォーマットの同期信号を1箇所で管理できるようなグランドマスターが求められていた。
そこで採用されたのが、Brainstorm DXD-16。国内では放送局への導入が多い機材だが、ハウスシンクのマスターとしてだけではなく、GPSクロックを受けてのPTP出力が可能ということから中継現場で採用されるケースも多い。受けのMTRX II、出しのDXD-16とでも言うべきか、音声システムにおけるMTRX IIと同様、DXD-16もあまりにも多機能・高機能であるため、その特色を簡潔に解説することは難しい。GPSクロック、PTP v1/v2、10MHz、Video Reference、WC、マスターにもスレーブにもなれるなど、およそクロックに求められる機能はすべて備えていると言っても過言ではない。
実は今回の改修における機材選定にあたっては、B-Chainの音質に大きな影響を与えるDAコンバーターはもちろんだが、マスタークロックの試聴デモも実施されている。国内で入手できるほとんどのマスタークロックを試聴した結果、DXD-16が選ばれたというわけだ。ワークフローの効率化と解像度の向上を高い次元で両立したいという強い熱意を感じるエピソードではないだろうか。国内で入手できるPTP対応機器の場合、GPSシグナルが必須という機器が多く、自身で同期信号を生成するジェネレーターとしての機能を持たないものが多いのだが、DXD-16は自分自身がマスタージェネレーターとなることが可能で、角川大映スタジオではその精度をさらに上げるために内部の発信機をOCXOにグレードアップするオプションを追加している。
角川大映スタジオのダビングステージではこのDXD-16のインターナルOCXOをマスターとして、10MHz、1080p/24fps・NTSC/29.97fpsのVideo Reference、48kHz AES、96kHz WCの全信号を同時に出力しており、DanteネットワークのPTPマスターとしての機能も担っている。
このダビングステージで特徴的なのは、音質の向上を意図して10MHz信号が大きく活用されているところだろう。DXD-16は16個の各出力から同時に異なるフォーマットの同期信号を出力できるのだが、そのうちの半数である8系統を10MHzに割いている。1つはパッチに上がっており、もう1系統はBrainstorm DCD-24に接続、システムへのWCはここで再生成して分配されている。そして、残る6系統はすべてAvid Sync Xにダイレクトに接続され、各Pro Toolsシステムの同期を取っている。SYNC HDからSync Xへの進化において、この10MHz信号への対応は非常に大きなポイントだ。10MHzでPro Toolsシステムの同期を取るというのは、システム設計の段階で今回角川大映スタジオが大きなポイントとしていたところだ。
居住性にもこだわった「和モダン」な内装
📷フロント側から見たダビングステージ全景。明るく柔らかな印象を湛えた仕上がりになっているのがお分かりいただけるだろう。もちろん、試写時には照明を落とし、映画館と同様に部屋を暗くすることが可能だ。
📷組子細工が取り入れられた室内照明。結果的に反射面を減らすことにもつながり、音響特性にも一役買っているという。
今回の改修にあたっては、Dolby Atmos Cinema対応や音の解像度向上といったサウンド面だけではなく、居住性の高さも追求されている。内装工事と音響施工を担当したのは日本音響エンジニアリング。 ダビングステージというと、黒やチャコールといった暗い配色の部屋をイメージすることが多いと思うが、生まれ変わった角川大映スタジオのダビングステージは非常に明るく開放的な雰囲気に仕上げられている。作品によっては1、2週間こもるということも珍しくないということで、長期間にわたる作業になっても気が滅入ることのない居心地のよい空間にしたかったのだという。「和モダン」をコンセプトにデザインされた部屋の壁面には日本伝統の組子細工を取り入れた照明が配されており、暖かな色合いは訪れる者をやさしく迎え入れてくれるようだ。壁面に灯りがあることで圧迫感のない開放的な空間を演出するとともに、日本音響エンジニアリングによれば、組子構造が透過面となることで結果的に音響的な寄与もあったそうだ。
Avid S6の設置は特注デスクによるもので、こちらも日本音響エンジニアリングによる製作。フェーダー面とデスク面が同じ高さになるようにS6が埋め込まれている形で、すでに述べた通り2つめのMater Moduleが離れたアシスタント席に設置されているのが特徴だ。この特注デスクは木材のもともとの色合いを生かしたナチュラルなカラーで、従来のイメージと比べるとかなり明るい印象を受ける。こうしたところにも、明るくあたたかな空間にしたいという強い想いを感じる。
📷左)特注デスクに据え付けられたメーター台。VUメーターと並ぶのはいまだに愛用者の多いDK Technologies。 右)床面やデスク天板は明るい配色であるだけでなく、天然の木目を生かした意匠が心に安らぎを与える。
角川大映スタジオには以前のダビングステージと建築面で同じ構造の試写室があるのだが、試写室には客席があるため、以前のダビングステージに比べて少し響きがデッドになっており、音の明瞭度やサラウンドの解像度という点でダビングステージよりも優れているように感じていたという。今回の改修にあたって、この響きの部分を合わせたいというのも音響における角川大映スタジオの希望だったようだ。
今回はDolby Atmosへの対応ということで、従来は存在しなかった天井へのスピーカー取り付けが必要であり、加えてDolby Atmosに最適な音響空間にするためにスクリーンを含むフロント部分以外は遮音層の内側はほぼすべて解体、吸音層もイチからやり直しということで工事の規模は大きかったが、却って音響的な要望には応えやすかったようだ。明瞭度を向上させつつも必要以上にデッドにならないよう、低域のコントロールに腐心したということで、壁面内部の吸音層の一部にAGSを使用するなどの処置が施されている。壁の内部にAGSが使用されている例は珍しいのではないだろうか。
📷株式会社角川大映スタジオ ポストプロダクション 技術課 竹田直樹 氏(左)、同じく山口慎太郎 氏(右)。システム設計においては主に竹田氏が主導し、現場での使いやすさや内装デザインなどは山口氏が担当された。
文字通り最新のテクノロジーをフル活用しシンプルな機器構成で大規模なシステムを実現しているマシンルームとは裏腹に、居住性を重視した和モダンな内装となった角川大映スタジオダビングステージ。待望の国内3部屋目となるDolby Atmos Cinema対応も果たした本スタジオで、これからどのような作品が生み出されるかが楽しみだ。それだけでなく、Dolby Atmos Cinema制作のためのダビングステージが増えるということは、国内におけるDolby Atmos作品の制作を加速させるという意味も持つ。今回の改修が国内のコンテンツ産業全体へ与えるインパクトの大きさも期待大だ。
📷ダビングステージがあるポストプロダクション棟。手前の建物1Fの食堂では、新旧ガメラを見ながら食事ができる。
*ProceedMagazine2024-2025号より転載
Education
2024/09/10
放送芸術学院専門学校 様 / 幅広い授業に対応するスタジオシステムの最大公約数
放送芸術学院専門学校(BAC)は、大阪市北区天満橋にある放送、音響、映像に関する人材を育成する専門学校であり、関西で唯一となる放送業界が創った学校。また、eスポーツや声優といった分野を中心にした姉妹校、大阪アニメ・声優&eスポーツ専門学校も併設されており、学生の皆さんが様々な業界へのアプローチを行うことができるよう幅広いカリキュラムが用意されている。今回は放送芸術学院専門学校に新設されたコントロールB / Cスタジオの導入事例をご紹介したい。
業界の現場と繋がりが深い放送人材育成校
放送芸術学院専門学校は、その設立経緯にも学校を特色づける大きな特徴を持っている。元々は制作プロダクションの株式会社東通が放送業界の人材育成を目的に創立した学校、つまり放送業界が人材育成のために立ち上げた学校というわけだ。そのため、産学連携教育と銘打って企業の依頼を受けて実際にオンエアされる番組を制作したり、ステージに出演したりと現場で学ぶ実践的なカリキュラムが多数組まれており、いまも放送業界との繋がりが深い。1994年に数多くの専門学校を擁する滋慶学園グループの運営となり、現在の校舎も2012年4月に天満橋に完成、今回取り上げるコントロールB / Cスタジオもこの天満橋校舎に新設されている。2014年の竣工当初からはPro ToolsとMedia ComposerをSatellite Linkで同期させるシステム運用としていたが、今後より音声に特化した授業にも対応するために今回のスタジオ改修が計画された。
幅広いカリキュラムに対応するシステムとは
コントロールルーム
レコーディングスタジオB
レコーディングスタジオC
📷広さを充分にとったスペースで行われる授業は収録のみならず多岐にわたる。このスタジオに挟まれるようにコントロールルームが設置され、両スタジオへの対応はもちろん、校内に張り巡らされたDanteのネットワークで別階にある施設の収録もここで行うことができる。
数多くのカリキュラムを抱える同校の設備である、求められる機能も多岐にわたることとなった。収録関連の授業で信号の流れを把握するためにコンソールは必須となりながらも、そのほかの各コースの授業での使用も想定して、MA・アテレコ・ミックスなど様々な用途に合わせた対応をとる必要もある。レコーディングブースとして使用されることもあれば、ミーティングや別の授業が行われることもあるとのことだ。機材の使われ方という軸で見れば、Blu-rayディスクを視聴するという単純に音声を出力するだけという程度の用途もあるため、Pro Toolsありきの完全なコントロールサーフェスということだけでは、運用として扱いづらい局面も出てきてしまうし、逆にアナログ、もしくはデジタルミキサーだけでは今後の拡張性に欠けてしまう。念頭に置かれたのは、オーディオミキサーとしての用途を満たし、コントロールサーフェスの利便性を備えるシステム。今回はこれをAvid MTRX llとS4の組み合わせで実現したわけだ。
システムの中核にあるMTRX ll
前述の通り、多種多彩な授業への対応を実現するために、豊富な入出力とマトリクスを備えるMTRX llは不可欠となった。そして、校内にシステム構築を進めていくにあたって課題となったのは各スタジオとのコミュニケーション機能の確立である。通常のMAスタジオではアナウンサーブースがあり、コントロールルームとのトークバックシステムが常設されているわけだが、ここでは授業内容に沿ったマイクやトークバックスピーカーを設置する必要もある。もちろん学校ということからも、その仕組みや構成を学ぶことも授業の一環としてあるだろう。常にセッティングされたままとはせずに臨機応変であることが求められる。
その様々な用途に対応するべく駆使されているのが、DADmanのモニタープロファイルだ。トークバックの信号、CDやPro Toolsからの2Mixなどの信号をどこに送るか、トークバックのボタンが押された際に、どの系統にDimがかかりハウリングを防止するかなど、すべての要望にDADmanは応えてくれている。たとえば、各部屋のソースをDADmanのモニタープロファイル機能で扱うことで、各所の音量レベルをすべてS4およびDADman上で操作ができることもメリットのひとつ。そのほか、各スタジオのコネクターボックス下にバウンダリーマイクが仕込まれておりバックトークも可能、コントロールルームでスタジオ内の様子を聞くこともできる。
📷マイクプリはGrace Design m108を採用、その左には708S1の子機。
📷デスク左下のラックには最大7.1ch対応となるTASCAMのBlu-rayプレイヤーBD-MP1やStudio Equipment / 708S1の親機が収められている。
なお、今回はスタジオイクイプメント社のコミュニケーションシステムを用いて構築されているが、S4との連携はMTMのGPI/O機能にて連動ができるよう設定された。マルチチャンネルのオーディオソースをトークバックボタンなどでどのようにDimをかけるかなど、様々な制御をS4のGPI/O機能で可能にできるシステムとしている。Studio Equipment / 708S1のトークバックボタンが押された制御信号をS4が受け取り、DADmanのモニタープロファイルの機能にあるTB Dim機能を働かせることにより、スピーカーなどのDimがかかる仕組みだ。
また、校内にはDante用の回線が張り巡らされており、MTRX llに標準で搭載されているDanteポートを用いて、別フロアの7階・ドリームホールや1階・サブコントロールルームでの収録も可能となっている。B / Cサブがある4階にはAスタジオやラジオスタジオもあり、各スタジオとのDante信号のやりとりも可能となっている。
MTRX llはスタジオの将来を描ける
今回、MTRX llが採用された理由は他にもある。MTRX llが持つ大きな特長である優れた拡張性だ。現状の入出力は必要最小限の拡張カード構成にはなっているが、ここへDAカードを追加することにより容易にイマーシブ対応が可能となり、今後の授業をイマーシブサウンドに対応させていく構想も実現可能だ。また、モニターコントローラーとしての機能もDADmanのモニタープロファイル機能により、高価なイマーシブ対応のハードウェアモニターコントローラーなどを導入せずとも実現が可能となる。イマーシブのミックス環境とレコーディング機能のどちらにも対応できる機材は数少ないのではないだろうか。
📷今回のスタジオを監修した有限会社テーク・ワンオーディオ Sound Engineer 田中 貢 氏(右)、MasteringEngineer 中西 祐之 氏(左)。
Avid S4とMTRX llの導入で柔軟性高いシステムとなったコントロールB / Cスタジオ。今後もイマーシブ対応のみならず放送業界では技術の進歩や視聴者のニーズが常に変遷していくことだろう。そのような業界の動向に沿いながら実習環境を充実させていくためのベースとなる骨格がいまここに整えられた。また、録音関連以外の授業にも対応できるそのフレキシブルさは、同校が抱える幅広いカリキュラムに対する最大公約数とも言えるだろう。
*ProceedMagazine2024号より転載
Broadcast
2024/09/06
日本初全館フルIP化!オールIP放送局が与えるインパクト〜テレビ大阪株式会社〜
この春、新局舎へと移転を行うテレビ大阪。旧局舎の隣の新築ビルという最高の条件での移転である。新局舎への移転ということもありマスターからすべての設備を一新、これを機に局内のオールIP化を行っている。副調整室のシステムを中心にオールIP化のメリット・デメリット、実際にシステム設計を行ってみての課題点、今後に向けた取り組みなど取り上げていきたい。
マスター、サブ、スタジオのすべてをIP化
在阪のテレビ局各局が新局舎への移転を完了させる中、大阪で一番古い局舎となっていたテレビ大阪。10年ほど前から移転の話は出ていたということだが、具体的なスタートは2020年ごろから、およそ4年をかけて移転更新が行われている。今回、IPソリューションとして採用されているST-2110の実製品のリリースが見られるようになってきたのが2019年ごろだと考えると、まさにST-2110が次世代のMoIPの盟主となることが見え始めたタイミングだと言える。数年早ければ、オールIP化へ踏み切ることはなかったのではないかとも想像してしまうような、絶好のタイミングで更新計画が始められたということになる。
今回の移転工事ではマスター、サブ、スタジオのすべてがMoIP ST-2110で接続されIP化。さらには、局内のいたるところにST-2110のポケットを設け、どこからでも中継が行えるように工夫が行われている。従来であれば、映像・音声・制御・インカムなど様々な回線を各所に引き回す必要があるため、なかなか多数の場所にポケットを設けることは難しかったが、1本のネットワークケーブルで複数回線、かつ双方向の伝送を行うことができるIPネットワークは、多くの場所への回線引き回しを容易にしている。
オールIPベースでの放送システムへ
📷天満橋側の大阪中心部に新しく誕生したテレビ大阪新社屋。幾何学模様を描くファサードが目を引く。エントランスにももちろん、ST-2110の回線が引かれておりここからの中継も行える。
今回のオールIP化の導入に至る経緯にはストーリーがある。TXN系列6局のうち4局合同でマスターの更新を行うという計画が同時期に立ち上がった。これは、系列局で同様のシステムを一括発注することで導入コストの削減と相互運用性の向上を目指すという大規模なプロジェクト。この計画のひとつのテーマとして「IP化されたマスター」というポイントがあった。いまの時代に更新をするのであれば、将来を見越してIPベースでのシステム更新を行うことは必然であったということだ。ちなみに、合同でIPマスター更新を行ったのは、テレビ北海道、テレビせとうち、テレビ九州、そしてテレビ大阪の4局である。すでに他3局ではIPマスターへの更新が完了しており実際に稼働もなされている。
テレビ大阪は、新局舎への移転タイミングでの導入ということもあり、運用は新局舎へのカットオーバーのタイミングからとなる。そして、テレビ大阪はサブ・スタジオなどを含めた一括更新となるため、オールIPの放送局となった点がサブなどは従来設備で運用し順次IP化への更新を待つ他の3局と異なるところ。実のところ、テレビ大阪では当初サブ・スタジオに関してはSDIベースの映像とアナログベースのオーディオを用いた従来システムでの導入を検討していたということだ。しかしながら、系列局合同でIPマスターを導入するというのは大きな契機。現場としては、いまだ実績の少ないIPベースのシステムに対して抵抗感がなかったわけではないが、このタイミングで従来システムを組んでしまうと「最後のベースバンドシステム」となってしまう恐れもある。マスターも含めたオールIP放送局として日本初の試みにチャレンジするのか?最後のレガシーとなるのか?社内での議論が続けられたことは想像に難くない。
IPベースのメリットを活かした制作体制
📷音声卓は36Fader の Calrec Argo-S。モジュール構成となるこの省スペースに機能が詰め込まれている。
今回の移転更新では、2室の同一システムを備えたサブと、大小2部屋のスタジオが新設された。旧局舎と比べると1部屋ずつコンパクトな体制にすることができている、IPベースとしたことの効能が現れた格好だ。まずは、スタジオをそれぞれのサブから共有したり、システムの変更もプリセットを呼び出すだけで完了したりと各部屋の稼働効率の向上が見込める。また、これまではパッチ盤で実際にケーブルを接続したりといった物理的な切り替え作業も多かったが、想定されるクロスポイントを事前にプリセット化しておけば、これまでとは比べ物にならないくらい素早く変更が確実に行えるようになる。IPベースであれば規模をとりまとめてしまったとしても充分に従来業務への対応可能であるという判断に至ったそうだ。
📷2部屋目となる副調整室。各コントローラーがひと回りずつ小さいものになっているが、システム構成は同一のシステムとなっている。片方のシステムを覚えれば両部屋とも使えるようになるよう工夫が随所に行われている。
IP化における最大の課題は「遅延」である。信号が機器を経由するたびに必ず発生するバッファー、IP伝送を行うにあたり避けては通れない必要悪のような存在だ。収録、ポストプロであれば遅延を吸収する余地もあるが、生放送のようなライブプロダクションにおいては問題となるケースも多い。わかりやすい部分で言えば、返しのモニターが挙げられる。ベースバンドであれば各機器の処理遅延のみで済んでいたものが、IPベースではバッファーによる遅延が加わり、最低でも2〜3フレームの遅延が生じてしまう。返しモニター専用にスタジオ内にベースバンドのサブシステム(PAでいうところのステージコンソールのような発想)もあったが、せっかくオールIPに踏み切るのにそれでは意味がないということになり、スイッチャーの一番遅延量の少ない経路での出力を戻しにするということでまずは運用を開始してみることとなった。お話をお聞きした時点では運用開始前であったため、まさに今後の運用の中で適切なワークフローを見つけていくべきポイントだと言える。
従来システムの柔軟性とIPベースの融合
それでは、サブに導入された音声ミックスのシステムを見ていきたい。放送局のシステムとしては驚くほど機材量が少ないということが一目でわかる。スタジオフロアからの回線は基本的にアナログで立ち上がってきており、ワイヤレスなどのレシーバーからはDanteが採用されている。フロアの回線はラックのCalrec AE5743(アナログIP Gateway)でAoIPへと変換されコンソールへと立ち上がる流れ。
ミキサーのミキシングエンジンは、Clarecの最新モデルであるImPulse1が採用されている。これはまさに導入ギリギリのタイミングでリリースとなったIPベースのミキシングエンジンで、たった1Uというコンパクトな筐体で標準で304chのプロセッシングパスという十分なパワーを持つ。ちなみに、ImPulse1は追加ライセンスの購入で最大672パスまで拡張が可能である。これにIOフレームを組み合わせDante、アナログIP Gateway、ST-2110-30それぞれの入出力を行っている。このミキシングエンジンは二重化され、同一仕様のモデルが2台導入された。フレーム自体が1Uとコンパクトなため、ハードウェア・リダンダンシーを取ったシステムとは思えないほどコンパクトにまとまっている。コンソールは、Clarecのこちらも最新モデルであるARGO Sが導入だ。モジュール構成のコンソールで、柔軟な拡張性と構築の自由度を持つ最新サーフェスである。
📷最上段でEthernetケーブルが接続されているのが、副調整室のシステムコアとなるCalrec ImPulse1。たった1Uの筐体で標準で304chもの信号を処理することができ、2台のコアで冗長化が図られている。その下の緑の3Uの機器がCalrec AE5743、Mic / Line 32in / outのIOボックスだ。やはり、オーディオの出入り口としてアナログ音声がなくなることはしばらくないだろう。コネクタの実装などの必然性もあるがコアと比べると大きな機器となる。
当初はDanteのステージボックスをフロアに置き、インプットの回線をすべてDanteで運用するというアイデアも出ていたということだが、バックアップの意味も含め最低限のアナログを残すということを念頭にシステムを構築、ミキシングコンソールでダイレクトにアナログ信号を受けたほうが使い勝手も良いという結論に至ったということだ。やはり、マイクプリのリモートなどのことを考えると理にかなっていると言える。アナログ、AES/EBUといった従来のシステムと同様の柔軟性とIPベースの融合。どこからIPベースの信号とするかというのはシステム設計者の腕の見せどころとなっていくだろう。その最終形態は入口から出口までのオールIPになるのであろうが、マイクやスピーカーというアナログ変換器が最初と最後に存在するオーディオの世界では、なかなかアナログを完全に排除するということは難しい。
📷音声のラックは2本だが詰めれば1本にまとまりそうな程の構成。これでシステムの2重化も達成しているのは驚きである。
ご覧の通り、非常にコンパクトにまとめられたシステム。実際、コンバーターIOフレームなどが主な機器で番組に合わせたシステムの変更を行おうと思い立ったら、Calrecのプリセットを読み替えるだけで大抵のことには対応できる。別スタジオの回線をインプットとして取るのも、IOシェアをしているので自由にアサイン可能だ。このようにシステムがコンパクトとなることで、その設定変更は今まで以上に簡単に素早く行えるようになる。サブを1部屋減らしてもこれまで通りの運用が可能と判断する理由もここにあるわけだ。
逆にIP化のデメリットとしては、信号が目に見えないということを挙げられていた。1本のEtherケーブルの中ではどこからの信号がどのような順番で流れているのか、誰かが知らないうちにクロスポイントを打ち替えたりしていないだろうか、確かに目に見えないところの設定が多いため、シグナルを追いかけるのが難しくなっている。慣れるという部分も大きいのだが、1本のケーブルにどのような信号が流れているのかを簡単に可視化する方法は早期に実現してもらいたい部分でもある。なお、テレビ大阪では事故防止としてクロスポイントの大部分をロックして変更不可とし、確実な運用を目指すとのことだ。
また、Dante とST-2110-30 を併用している理由としては、利便性を考慮してのこと。ワイヤレスマイクのレシーバーなど対応製品の多さでは、Danteに分がある。これまでも使われてきた機材の活用も含め、オーディオのインプット系統ではDanteを使うよう適材適所でのシステムアップが行われているということだ。実際のところとしてはST-2110-30(Audio)の遅延量は、Dante以下の値に設定することもできる。しかし、映像回線として使われているST-2110(Video)の遅延量が大きく、それに引っ張られてオーディオも大きな遅延量となってしまうということだ。
📷左)紫色の機器がPTP v1 のグランドマスター。この機器を入れることでPTP v1 のDante ネットワークの安定性を高めることに成功している。右)もう一部屋のラックがこちら。AE5743は無いが、モジュラーユニットにアナログIOを準備しさらにシンプルな構成。基本的なシステムアップは、同一であることが見て取れる。
SoundGrid Sever、新たな業界標準機へ
さらに収録用のPro Toolsも用意されている。CalrecにはSoundGridの入出力を行うI/Oが準備されている。外部エフェクターとして導入されたSoundGrid Serverとともに、Pro ToolsもCoreAudio用のSoundGrid Driverで信号を受取り収録が行えるようになっている。もちろん、Pro Toolsからの再生もミキシングコンソールへと立ち上がる。これもIPベースならではの柔軟性に富んだシステムである。Pro ToolsのシステムはMacBookで準備され、2部屋のサブの共有機材となっている。常に2部屋で必要でないものは共有する、IPベースならではの簡便な接続環境が成せる技である。
📷外部エフェクターとして導入されたWAVES SUPERRACK。低遅延でWAVESのプラグインを使うことができるこのシステム。Liveサウンド、Broadcastの現場では重宝されている。
ここで導入されたSoundGrid Severは外部エフェクターとしてWAVESのプラグインが使えるというスグレモノ。外部のマルチエフェクターが絶滅危惧種となっている今日において、まさに救世主的な存在。WAVESだけではなくVSTについても動作する製品の情報が届いているので、こちらも業界標準機となる予感がしているところだ。こだわりのあのリバーブを使いたい、などという要望はやはり多いもの。もちろんリコール機能もしっかり備えられており、安心して使用できるプロの現場ならではの製品となるのではないだろうか。
IPシステムでのリスクヘッジ
サブとしてのメイン回線はすべてST-2110に集約されているが、インカムの回線だけは別となっている。インカムはST-2110にも対応したClearCamの製品が導入され、ST-2110での運用を行っているのだが個別のネットワークとしている。これはトラブル時の切り分けや、従来型のシステムが導入されている中継車などとの相互運用性を考えてのことだという。すべて混ぜることもできるが、敢えて切り分ける。こういった工夫も今後のIPシステムでは考えていくべき課題のひとつ。集約することによるスケールメリット、トラブル時の切り分け、運用の可用性、多様なベクトルから判断を行い決定をしていく必要があると改めて考えさせられた。
今後についてもお話を伺った。オールIPとしたことで、今後は中継先との接続もIPベースへとシフトしていきたいということだ。まずは、今回導入のシステムを安定稼働させることが先決ではあるが、IPの持つメリットを最大限に活かしたIPベースでの中継システムの構築や、リモートプロダクションにもチャレンジしていきたいとのこと。また、1ヶ月単位でのスポーツイベントなど、ダークファイバーをレンタルしてリモートプロダクションを行ったりということも視野に入れているということだ。まずは、局内に張り巡らした中継ポイントからの受けからスタートし、徐々に規模を拡大していきたいとのこと。IP伝送による受けサブ、リモートプロダクションというのは今後の大きなトレンドとなることが予想される。こういった取り組みも本誌で取り上げていきたい。
📷左からお話を伺ったテレビ大阪株式会社 技術局 制作技術部 齊藤 智丈 氏、有限会社テーク・ワン オーディオ 代表取締役 岩井 佳明 氏
まさに次世代のシステムと言えるオールIPによるシステム構築の取り組み。課題点である「遅延」に対してどのように対応し、ワークフローを構築していくのか。実稼働後にもぜひともお話を伺いたいところだ。利便性と柔軟性、このポイントに関してIPは圧倒的に優位であることに異論はないだろう。スケールメリットを享受するためには、できうる限り大規模なシステムとするということもポイントのひとつ。これらを併せ持ったシステムがテレビ大阪にはあったということだ。この新局舎への移転というタイミングでの大規模なST-2110の導入は、今後を占う重要なモデルケースとなることだろう。すでに全国の放送局から見学の問い合わせも来ているということ。こういった注目度の高さからも今回導入のシステムが与える放送業界へのインパクトの強さが感じられた。
*ProceedMagazine2024号より転載
Media
2024/09/03
よくわかるAoIP臨時特別講座!「AES67ってなに?」〜AoIPのいま、未来を知る。〜
AoIP、ネットワークオーディオを採用した放送局やレコーディング現場では、従来の(メタル)ケーブルからイーサネットケーブルに取って代わり、IPパケットで音声信号を伝送することで大きなメリットを実現していますが、ご存知のとおりでいくつもの仕様やプロトコルが存在していて、一般ユーザーには若干わかりにくい状況であることは確かです。そして、購入したばかりだというAoIPであるAES67対応の機材を手に「これをしっかり知り尽くしたい!」と意気込んでいるのが今回の講座にやってきたMクン。そんなMクンにROCK ON PRO 洋介がネットワークオーディオの世界を紐解きます。
まずは、AoIPってなに?
Mクン:Dante、RAVENNA、AVB、いくつものオーディオネットワーク規格があって制作現場でも目にすることが多くなってきたんですが、その中でもAES67についてお話を伺いたいんです。
ROCK ON PRO 洋介:なるほど。ところでなんでまた今日はAES67?
Mクン:実はNeumannのスピーカー KH 150 AES67モデルとオーディオインターフェースのMT 48を購入したんです。AES67に対応した製品なんでせっかくなら使いこなしてAES67の恩恵に授かりたいな、と。まずは「AoIPってなに?」というところから教えてもらえませんか?
洋介:了解しました! AoIPは「Audio over Internet Protocol」の略で、TCP/IPベースのイーサネットを使ってオーディオ信号をやりとりする規格です。AoIPのメリットとしてどういうことがあるかというと、信号分配の際に分配器を必要とせず、汎用のイーサネットハブで1対多数のオーディオを含む信号を簡単に送れることです。もうひとつは、1本のケーブルで多チャンネルを送れることですが、多チャンネルオーディオ転送規格に関してはMADIがありますし、またずっと以前からはADATがありますよね。その中でもAES67が優れている点は、回線の通信速度が現在主流となっている1ギガビットイーサネットであれば256ものチャンネルを転送可能だということです。
Mクン:少ないケーブルで多チャンネル送れるというのは、経済的にも、設定や設置の労力的にもメリットですよね。
洋介:実は挙げられるメリットはまだあって、1本のケーブルで「双方向」の通信を行えるのも大きいメリットです。イーサネットケーブル1本に対し、In / Outの概念がなくなるので繋ぎ間違えもなくなりますよね。あとDante Connectが登場して、クラウドネットワークを介した世界中からの接続ができるようになってきているので、遠隔地とのやりとりも特殊な環境を必要とせず汎用の製品やネットワークを使えることでコストの削減を図ることができます。少し未来の話をすると、ダークファイバー(NTTが保有する光回線のうち使用されていない回線)を使えば、汎用のインターネット回線の速度を超えたデータ転送が遠隔地間でもローカルエリア上として行える可能性があります。例えば、東京と地方のオフィスを繋ぐ場合に物理的に離れていても両拠点は同じネットワーク上にいる状態にすることができてしまうんです。
Mクン:ダークファイバーを使って遠隔運用しているところはあるんですか?
洋介:ありますよ。放送業界が先行していて、離れた支局間でダークファイバーを引いている事例があります。例を挙げると、F1の放送では鈴鹿サーキットなど世界中のサーキットとドイツのデータセンター間でダークファイバーを繋げ、世界規模で実況放送を実現しています。では、ここからはAES67制定の経緯について話していきましょう。
📷身近な存在のオーディオi/FやスピーカーでもAES67対応製品がリリースされている。Mクンが購入したというこのKHシリーズ(右)とMT 48(左)の接続ではDAコンバーターも不要となるためシンプルなシステム構成に。
AES67策定の経緯
洋介:AES67の元になった規格は、2010年にMerging Technologies社とLAWO社が立ち上げた「RAVENNA」です。このRAVENNAをベースにして、AES(Audio Engineering Society)がAoIPの規格として制定したのがAES67です。AES67の規格はRAVENNAの仕様により汎用性を持たせる方向で策定されています。例えば、レイテンシーの最小値を大きくしたり、ストリーム数に関してはRAVENNAが最大128chに対し、AES67は8chまでといったように仕様を緩い方向に制定して汎用性を持たせています。
その後、SMPTE ST2110-30(ST2110は映画テレビ技術者協会(SMPTE)によって開発されたメディアをIP経由で移動させるための規格)という規格のオーディオパケット部分としてAES67が採用されます。SMPTE ST2110は、映像パケットとオーディオパケットを別々に送信するのが大きな特徴です。もうひとつ前のVoIP規格にSMPTE ST2022というものがあるのですが、これはSDIの信号をそのままパケットにして送信します。そこからより現代的な新しいテクノロジーを組み込んだIP転送を実現しようという目的で策定されたのがSMPTE ST2110です。オーディオ部分に関していうと、ST2110-30が非圧縮での基本的なAES67互換規格であり、さらにST2110-31になるとメタデータまで含めた通信ができるようになりました。こういったST2110の拡張とともにAES67も今後拡大していくと予想されてます。
Mクン:AES67のサンプリングレートは48kHz固定となっていますが、これは今後変わっていくのでしょうか?
洋介:恐らくですが、48kHzという仕様で一旦固定されたままになるのではないでしょうか。放送業界においては、現時点で一般的に多く使われているのが24Bit / 48kHで、ハイサンプルの需要がほぼなく、それ以上のスペックは必要ないと判断されているようです。このようにRAVENNAから派生したAES67ですが、放送業界、映像業界をバックボーンにして成長を続けています。一方、RAVENNAとDanteの違いを話すと、TCP/IPの規格としてDanteの方が1つジェネレーションが古い規格を一部使用しています。その代表がPTPで、DanteはPTP(Precision Time Protocol)のバージョン1を用いていて、RAVENNAやST2110の基礎技術はPTPのバージョン2です。このバージョン1と2には下位互換がなく、実際は別物というくらい違います。同一ネットワーク上にお互いを流しても問題ないのですが、上位バージョンが下位バージョンの信号を受けることができません。現在の普及具合でいうとDanteのほうが多いのですが、こういったことからDanteを採用しているメーカーは将来性に関して危惧を始めているところがあると聞いています。
PTPバージョン1と2の違い
Mクン:そのバージョン1とバージョン2の違いとは何でしょう?
洋介:ネットワークプロトコルの技術的に複雑な話になるので、ここでは深く立ち入りませんが、単純に互換性がないということだけ覚えておいてください。このPTPですが、TCP/IP通信プロトコルとしてそもそもの大きな役割はクロック同期です。AoIPもVoIPも動作原理上バッファーが必要であり、それによりレイテンシーが必ず発生します。これはIP伝送のデメリットのひとつとして必ず話題に挙がることです。なぜバッファーが必要かというと、ネットワーク経路上にはネットワークインターフェイス、イーサネットスイッチなど多くのデバイスが挟まり、遅延が発生するのは避けることができません。
その事実への対処法として、バッファーへパケットデータを溜め込み、各パケットが送出されるタイミングの同期を行なってデータを出す、という同期のためのタイムスタンプの役割を行うのがPTPです。これは、ワードクロックやビデオクロックといった動作とは異なります。PTPでは各々のパケットに番号札を振って順番を決めるようなイメージで、そのバッファー分の遅延が必ず発生することになります。
Mクン:なるほど。では、オーディオのワードクロックでは精度が高い製品を使えば、一般的に音も良くなると思うんですが、PTPに関しては音質に対して影響するものなのでしょうか?
洋介:音質に影響しないというのが一般的な解釈です。RAVENNAの信号を受け、出力はアナログオーディオの場合の機材にもワードクロックが搭載されているわけで、AD/DAプロセッサーの動作はワードクロックで制御されています。つまり、IPデータの部分とワードクロックが作用する部分は完全に分離されていることになるので音質には影響しない、というのが設計上からの帰結です。現在の主流は、PTPとワードクロックを同時に出力するグランドマスター機能を持った機材を用いてシステム全体の整合性を取っています。
少し話が脱線しますが、AoIPにおけるレイテンシーの問題はグローバルなインターネットを越えても、依然存在し続けることになります。ただし、どれだけレイテンシーが大きくなったとしても、送信順が入れ違いになったとしても、届いたパケットの順番はPTPのタイムスタンプの順に並べられ、順番は変わらないわけです。
長遅延、インターネットを超えての伝送などの際には、このPTPのマスタークロックの上位の存在として、皆さんがカーナビなどでも恩恵を授かっているGPS衛星の信号を活用します。GPS衛星は地球の上空20,000kmに、常時24機(プラス予備7機)が飛行しています。GPS衛星は地球上どこにいても、遮蔽物がない限り6機が視界に入るように運用されています。そして、運用されているGPS衛星はお互いに時刻の同期が取られています。ということは、このGPSの衛星信号を受けられれば、世界中どこにいても同期された同一タイミングを得ることができるわけです。普段、何気なく車のカーナビを使っていますが、同期に関しては壮大な動作が背後にあるんです(笑)。
Mクン:宇宙から同期信号が届いているんですね!そういった先進技術は、今後私たちのような音声技術を扱う業界にも恩恵があるんでしょうか?
洋介:例えば、現在話題のイーロン・マスクが率いるスターリンク社(アメリカの民間企業スペースXが運用している衛星インターネットアクセスサービス)からのデータをPTPマスターとして受け取れるようになれば、もっと面白いことが起こるかもしれないですね。一方でデメリットを挙げるとすれば、やはりどこまでもレイテンシーがつきまとうという点ですね。オーディオの世界ではマイクやスピーカーといったアナログ領域で動作する製品がまだ大部分を占めるので、「信号の経路上、どのタイミングでAoIPにするか」というのはひとつの課題です。マイク自体でDante接続する製品も出てきていますが、ハイエンド製品はまだ市場に出てきてないですよね。これから期待したいところです。
AoIP、レコーディング現場への導入状況は?
Mクン:AoIPの導入は放送業界が先行しているそうですが、レコーディング環境への導入状況はどうなんでしょうか?
洋介:レコーディングスタジオに関してはこれから普及が始まるかどうかといった状況です。大きなスタジオになると設備が建設時に固定されているものが多く、変更する機会がなかなかないということが関係していそうです。また、別の理由としてパッチベイの存在もあるかもしれません。現状使っているレコーディング機器の接続を繋ぎ変えるにあたって、これまで慣れ親しんだパッチベイから離れたくない、という心理もありそうです。まあ、パッチケーブルを抜き差しするだけですからね。
スタジオにはアナログ機器がたくさん存在しますが、AoIPが本当にパワーを発揮するのは端から端までをIPベースにした場合で、ここで初めてメリットが生まれます。一部にでも従来のアナログ機器が存在すると、そこには必然的にAD/DAコンバーター(アナログとAoIPの変換機)が必要になるので、コンバーターの分だけコストが必要になってしまいますよね。Dolby Atmosをはじめとするイマーシブオーディオのような多チャンネルを前提としたシステム設計が必要スタジオには需要があると思います。
Mクン:AoIPでシステムを組む場合、Danteを採用するにしろ、ST2110を採用するにしろ、それに対応した機材更新が必要ですが、どのプロトコルを採用しても対応できるように冗長性を持たせたシステムの組み方は可能ですか?
洋介:システム設計は個別のネットワークとして組まれているケースが多いですね。本誌でも事例として紹介しているテレビ大阪様ではオーディオのフロントエンド(インプット側)はDanteですが、コンソールのアウトや映像のスイッチャーはST2110という構成です。従来の銅線ベースの環境に比べるとシステム図が驚くほどシンプルで、機材数もとても少なくて済みます。放送業界ではフルVoIP化の流れが来ていて、新局舎など施設を一新するタイミングで、副調整室やマスターなど、全設備オールIP化の設計が始まっています。SMPTE ST2110のイーサネットのコンセントを至るところに設置し、局内どこからでも中継ができるシステムが組まれています。
Mクン:そういった大規模な更新のタイミングであれば、既存のアナログ機器を一新したシステムにリニューアルできるメリットがありますね。
洋介:そうですね。未来を見据えてAoIPやVoIPシステムでリニューアルできる大きなチャンスですね。
AES67のメリット
Mクン:話をAES67に戻すと、Danteに比べてAES67のメリットはどんなことがあるんでしょうか? また、対応した製品がますます普及していきそうですが、今後のAoIPはどうなっていくのでしょう?
洋介:まず、Danteについては普及が進んでいるものの、先ほど話したPTPバージョン1の問題が依然として残ります。DanteにもAES67互換モードがすでに搭載されているのですが、Dante Network上のすべての機器をAES67互換モードで動作させることはできず、ネットワーク上の1台のみをAES67互換モードで動作させてゲートウェイとして使うということになります。言い換えると、AoIP / VoIPのメリットであるすべての機器が常に接続されているという状況を作ることが難しいということでもあります。これは、先にもお話したPTPのバージョンの違いにより生じている問題であり、一朝一夕で解決できる問題ではないでしょう。一方、RAVENNAはAES67の上位互換であり、SMPTE ST2110の一部でもあります。放送局など映像業界でのSMPTE ST2110の普及とともに今後導入が進むことが予想されます。音声のみの現場ではDanteが活用され、映像も絡んだ現場ではRAVENNA、というように棲み分けが進むかもしれませんね。
Mクン:私は「AES67 ニアイコール RAVENNA」という認識だったので、ST2110という存在がその先にあるというのは知りませんでした。
洋介:ST2110があってのAES67なんですよね。逆に言うと、ST2110を採用している映像メーカーはAES67対応だったりしますね。
Mクン:なるほど。私が購入したNeumannのオーディオインターフェイスMT 48はAES67に対応しているんですが、「RAVENNAベースのAES67」という表記がされていて納得がいきました。同じく購入したNeumannのスピーカー、KHシリーズもAES67に対応しているんですが、そのメリットはどんなことでしょう?
洋介:RAVENNAはAES67の上位互換なので、RAVENNAと書かれているものはすべてAES67だと考えていいです。一番大きいのはレイテンシーの問題で、AES67は最低1msでそれ以下は難しいんですけど、RAVENNAはもっと短くできます。KHシリーズとMT 48を組み合わせればDAコンバーターいらずになる、というのが大きなメリットです。システム的にもシンプルで気持ちいい構成ですよね。最近の製品の多くは、スピーカー自体でADしDSP処理してアンプ部分に送るという動作なんですが、それなら「デジタルのまんまで良くない?」って思うんですよね(笑)。シグナルとしてシンプルなので。
AoIP普及のこれから
Mクン:これからサウンド・エンジニアの方は音の知識だけでなく、ネットワークの知識も必要になってきそうな感じですね。
洋介:うーん、どうでしょう? まずはブラウザ上で設定するルーティングの仕方、クロスポイントを打つということに慣れるということで良さそうです。そこから先は我々のようなシステム設計、導入を担当する側が受け持ちさせていただきますので。実際、DanteでもRAVENNAやAES67でも基本的に設定項目は全部一緒なので、もちろんGUIの見た目は異なりますが、汎用のTCP/IPベースのイーサネットの世界なのでひとつ覚えれば他にも通じる汎用性があります。
今後、AoIPの普及はさらに進むでしょう。現在はまだシステムの範囲が1部屋で完結しているスケールなのでAoIPを用いるスケールメリットはあまりないのですが、これからさらに外へと繋がっていくと大きく変わっていくはずです。すにで汎用のインターネットで映像や音声がやりとりできる世界になり、グローバルなインターネットで放送クオリティーの伝送が可能となっています。
放送局の場合だと、これまでサブでしか受けられなかった中継回線などが、イーサネットケーブルを引けばMA室でも受けられるようになります。こうなれば受けサブとしてMA室を活用するという使用用途の拡張が見込めます。従来は音声信号に加え、同期信号もすべてケーブルを引っ張らなければいけなかったものが、イーサネットケーブル1本で対応できるようになるのは革新的です。さらに、光ファイバーを導入できれば、同じケーブル設備を使って通信速度、使用可能帯域をアップグレードしていくこともできます、従来のメタル銅線では実現できないことですよね。
Mクン:今日は色々と興味深い話をありがとうございました!
いかがだったでしょうか、「なるほど〜!」連発となったMクンはAES67がどのようなものなのか、そしてAoIPのメリットや抱えている課題点など、オーディオのIP伝送がいま置かれている現状もしっかりと把握できたようです。これからの制作システム設計における大きなキーワードとなるAoIP。もちろんそのメリットは従来のワークフローを大幅に塗り替えていくでしょう、そしてそのシステムが与えるインパクトたるや如何なるものか!?その進展から目が離せませんね!
*ProceedMagazine2024号より転載
Media
2024/08/30
RIEDEL製品が支えるF1サーカスの舞台裏〜MediorNetで結ばれたIPグローバルネットワーク〜
IP伝送が拡げる可能性は我々が位置する音響の分野のみならず多岐にわたる。音や映像が必要とされる分野であればIP伝送によって従来のシステムにとって代わるワークフローのブレイクスルーが起こり得る。そのひとつが今回取材を行ったF1サーカスとも呼ばれる、世界規模のスポーツイベントにおけるRIEDELの取り組みだ。本誌では以前にもご紹介をしたが、あれから5年を経てそのバックボーンを支える技術、ソリューションはどれほど進化したのだろうか。
レースに欠かせない通信のマネジメント
2024年のF1カレンダーは大きく変わり、日本グランプリが例年の秋の開催から春開催へと移動された。これまでであれば、秋のレースはその年のドライバーチャンピオンが決まるころのレースであり、テクニカルサーキットして世界にその名を馳せる鈴鹿サーキットが最後の腕試しという側面もあったのだが、今年は桜の季節に開催されシーズンも始まったばかりということもあり、パドックは終始和やかなムードに包まれていた。今回取材に入ったのは木曜日。F1は金曜日に練習走行、土曜日に予選、日曜日に決勝というスケジュールとなっており、木曜日はレースデイに向けての準備日といったところ。その準備日だからこそ見ることができるレースの裏側も多く充実の取材となった。まずは、取材協力をいただいたRiedel Communicationsの各位に感謝を申し上げたい。
準備日とはいえ鈴鹿サーキットは、レースに向けた準備がしっかりと進められており、木曜日は恒例のパドックウォークが実施されるということで多くの観客が来場していた。パドックウォークは、レースデイには立ち入ることのできないパドックやメインストレートを歩くことができるイベント。入場券もレースが行われない日ということもあり安く設定されており、さすがにガレージの中までは入れないものの、レースでピットクルーたちがタイヤ交換などを行うその場に立てる、ということでこれを目当てに来場される方も多数。また、この日はメインスタンドも開放されていてサーキットの好きなところに行けるのもパドックウォークの魅力。もちろん、レースデイの高揚感まではないものの、鈴鹿サーキットでF1の雰囲気を味わいたいということであれば、この木曜日の来場にも価値がある。
📷レース前の木曜日に開催されたパドックウォーク。メインストレートも一般開放され賑わいを見せるこの写真の中に、RIEDELの回線敷設スタッフが数日間かけて仕込んだアンテナほかの機材も多数あるのがお分かりになるだろうか。既に木曜のこの段階で準備万端となっているわけだ。
前置きが長くなってしまったが、まずRIEDELのF1における立ち位置を確認しておこう。RIEDELはFIA(F1を主催する国際自動車連盟)から業務依頼を受けて、F1における通信全般をマネージメントしている。通信全般とひとことで言ってもF1会場で取り扱われている通信は膨大な量となる。各チームのインカム、オフィシャルからの無線連絡、ドライバーとのコミュニケーションなどの音声通信。それに、各車6台ずつの車載カメラ映像、審判用にも使われるコースの監視用のカメラ(鈴鹿サーキットでは20台以上がコース脇に設置された)、F1レースカーから送られてくるテレメトリーデータ(エンジン情報、燃料残量、タイヤ温度、ドライバーの操作など車に関するデータ)など多種多様。もちろん、その種類の多さから必然的にデータボリュームも非常に大きなものとなる。
コミュニケーションのメッシュを運用する
📷インカムがずらりと並んだピット内。よく見るとスタッフ個人ごとに名前が記されている。
なぜ、RIEDELがF1の運営に関わるようになったのかという部分にも触れておきたい。RIEDELはMotorola製トランシーバーのレンタル会社としてスタートした。単に機材をレンタルするということだけではなく、イベント会場などで活用されるトランシーバーのグループライン設計や、運営、無線電波の管理なども行い今日に至っている。
F1会場でも各チームへ120台前後のトランシーバーがレンタルされ、その管理運営を行っているということだ。残念ながらチームスポンサードの兼ね合いもあり全20チーム中17チームへの提供となっているとのこと。本来であれば全チーム一括での運営が望ましいのは確かであるが、他の無線機器メーカーなどがスポンサーとなってしまった場合はその限りではないようだ。しかしながら、RIEDEL以外のトランシーバーを使用しているチームの回線もRIEDELがデータを受取りして一括での運営管理を行っていることには変わりない。そのため、各チーム内でのグループラインなどの構築のためにRIEDELから最低1名ずつのスタッフが帯同しているそうだ。これは、それぞれのチーム事情を汲み取り、最適な運用を行うと同時に、チーム間の情報機密などへも配慮した対応だと思われる。
運用は大きく変わらないものの、トランシーバー自体についてはRIEDELのベストセラー製品でもあるBoleroの導入が進んでいるということだ。従来のトランシーバーでは2チャンネルの送受信。チャンネル数がさらに必要なマネージャークラスのスタッフは、2台のトランシーバーを併用し4チャンネルの運用を行っていて、腰の両サイドに2台のトランシーバーをぶら下げたスタイルは、チームの中心人物である証とも言えたのだが、Boleroを使えば1台のベルトパックで6チャンネルの送受信が可能となる。やはりこれば評価が高い、各チームからBolero導入へのリクエストも多く寄せられているそうだ。
各チームで多少の違いはあるのだろうと想像するが、現場で話を聞いたインカムの送受信先を図にして掲載しておく。ドライバーと会話ができるスタッフは最低限とし、レーシングディレクター(監督)がドライバー、ピットクルー、ガレージのそれぞれへ指示を行うことでレースを進行するというのが基本。そのやりとりを聞くだけのスタッフもいれば、発信を行えるスタッフも必要となり、複雑にコミュニケーションのメッシュが構築されている。
さらに、サーキット外のスタッフもこのコミュニケーションに参加する。世界各国にある各チームのヘッドクォーターへと必要な回線が送られ、車の情報などを監視して現場のスタッフへ適切な指示がリアルタイムに出されているということだ。また、回線が送られるのはヘッドクォーターだけではない。例えば、Visa Cash App RB Formula One Team であれば、ヘッドクオーターがイタリアのファエンツァ 、エンジン開発拠点は日本のホンダ・レーシングといったように分かれており、それぞれの国で別のコントロールルームからエンジンの様子などを監視している。
取りまとめると、各チームではサーキットに80名程度、それ以外のヘッドクオーターや各開発拠点に100名以上という人員体制でレースマネージメントが行われているということ。1台のレーシングカーを走らせることには想像以上に数多くのスタッフが関わっている。なお、RIEDELは各チームのヘッドクオーターまでの接続を担当しており、ヘッドクオーターから先の各開発拠点への通信はそれぞれのチームが独自にコミュニケーション回線を持っているということだ。
年間24戦を支えるRIEDELのチーム編成
F1の運営に関わっているRIEDELのスタッフは、大きく3つのチームに分けられている。1つが実際のレースデイの運営を行うテクニカルチーム。それ以外の2チームは、事前に会場内でのワイヤリングを主に請負う回線敷設チームだ。テクニカルチームは基本的に水曜日の現地入り、木曜日にチェック、金曜日からのレースデイという流れだが、回線敷設チームは決勝日の10日程度前に現地に入り、サーキット各所へのカメラの設置、無線アンテナの設営など機材コンテナが到着したらすぐにチェックが行えるよう準備を行っているということ。また、決勝が終わったら撤収作業を行って速やかに次のサーキットへ向かわなければならない。レースは3週連続での開催スケジュールもある。よって交互に世界中を飛び回れるよう回線敷設は2チームが編成されているが、それでもかなり過密なスケジュールをこなすことになる。
ちなみに、すべてのケーブル類は持ち込みされており、現地での機材のレンタルなどは一切行われない。これは、確実性を担保するための重要なポイントであり、今後も変えることはありえないと言っていたのは印象的。質実剛健なドイツ人らしい完璧を求める考え方だ。
セーフティーカーに備えられた通信システム
今回の取材は木曜日ということもあり、レースカーの走行はなくセーフティーカーによるシステムテストが行われていた。セーフティーカーには、F1のレースカーと全く同様の車載カメラ、テレメトリー、ラップ等の計測装置が搭載されており、これらを使って各種テストを行っている。なんと、今回はそのセキュリティーカーに搭載されたこれらの機器を見せていただく機会を得られたのでここで紹介しておきたい。
F1で今年使われているセーフティーカーはAMG GT。そのトランクルームに各種データの送受信装置、データの変換装置が備え付けられている。こちらと同じ機器がレースカーにも備えられ、レースカーに車載された6台ものカメラの映像データも車上で圧縮され無線で送信されている。アンテナもインカム用のアンテナと、それ以外のデータ用のアンテナ、さらには審判用の装置、これらもレースカーと同様だ。
これらはF1レースカーの設計の邪魔にならないようそれぞれが非常にコンパクトであり、パッケージ化されていることがよく分かる。ちなみに、トランクルームの中央にある黒い大きなボックスは、セーフティーカーの灯火類のためのボックス(赤色灯等など)であり、こちらはレースカーに搭載されず、その左右の金色だったりの小さなボックス類が各種計測装置である。右手の金色のボックス類がカメラの映像を圧縮したりといった映像関連、左側がテレメトリーとインカム関連だということだ。
📷システムテストに用いられていたセーフティーカーの様子。トランク内にレースカーと同様の機材が積み込まれている。ルーフ上には各種アンテナが据えられており、そのどれもがレースカーに搭載することを前提にコンパクトな設計がなされている。
航空コンテナの中に設置されたサーバーラック
📷ラックサーバーが収められているという航空コンテナ。このコンテナごと世界各地のF1サーカスを巡っていく。
それでは、実際に用いられている通信の運用について見ていこう。それぞれのチームの無線チャンネル数は各チーム6〜8チャンネル前後、そこへオフィシャルの回線やエマージェンシーの回線などを加え、サーキット全体では200チャンネル前後の無線回線が飛び交っている。これらの信号はすべてIP化され、ネットワークセンターと呼ばれるバックヤードのサーバーラックへと送られている。これらすべての回線は不正のチェックなどにも使用されるため、全回線がレースデイを通して記録されているとのこと。また、サーキットに持ち込まれたサーバーでの収録はもちろん、RIEDEL本社にあるサーバールームでも併せて収録が行われるような仕組みになっている。なお、サーキットに持ち込まれたサーバーはあくまでもバックアップだそうだ。レース終了とともに次の会場への移動のために電源が落とされパッキングが始まってしまうからである。
2019年にもこのネットワークセンターのサーバーラックを見せてもらったのだが、このラックに収まる製品は大幅に変わっていた。まず取り上げたいのは、インカムの総合制御を行うための機器がAll IP化されたことに伴い、最新機種であるArtist 1024の1台に集約されていたことだ。従来の最大構成機種であったArtist 128は、その機種名の通り128chのハンドリングを6Uの筐体で行っていたが、Artist 1024はたった2Uの筐体で1024chのハンドリングを可能としている。このスペックによって予備回線のサブ機までをも含めてもわずか4Uで運用が事足りてしまっている。ラックには従来型の非IPの製品も収まっているが、これらは機材の更新が済んでいないチームで使用されている機器の予備機だということ。3本のラックの内の1本は、予備機材の運搬用ということになる。
他には、テレメトリー・映像データ送信用のMediorNet、多重化された電源、現地のバックアップレコーディング用のストレージサーバーといったところ。前回の取材時には非常に複雑なシステムだと感じたが、2024年版のラックはそれぞれの機器がシンプルに役割を持ち動作している。それらの機器のことを知っている方であれば、ひと目見て全貌が(もちろん、概要レベルだが)把握できるくらいにまでスリム化が行われていた。
📷数多くのインカム回線をハンドリングするArtist 1024。見ての通りArtist 1024を2台、わずか4Uでの構成だ。
これらのラックは、飛行機にそのまま積めるように航空コンテナの中に設置されている。コンテナは2台あり、回線関連の機器が収められたコンテナと、もう1台がストレージサーバー。航空輸送を行うということで、離陸、着陸のショックに耐えられるようかなり厳重な仕掛けが行われていたのも印象的。コンテナの中でラックは前後方向に敷かれたレールの上に設置され、それがかなりのサイズのダンパーで前後の壁面と固定されている。基本的に前後方向の衝撃を想定して、このダンパーでその衝撃を吸収しようということだ。2024年は24戦が世界各地で予定されており、そのたびに飛行機に積まれて次のサーキットへと移動される特殊な環境である。着陸のたびにダメージを受けることがないよう、これまでの経験を活かしてこのような構造を取っているということだ。
●RIEDEL MediorNet
2009年に登場した世界初となるFiber-BaseのVoIPトランスポート。さらにAudio、GPIO、もちろんRIEDELインカムの制御信号など様々な信号を同時に送受信できる。ファイバーケーブルを使った長距離伝送という特長だけではないこの規格は、世界中の大規模イベントのバックボーンとして使われている。本誌でも取り上げたF1以外にも、世界スポーツ大会、W杯サッカー、アメリカズカップなどが代表的な事例となる。ひとつのトランスポートで現場に流れるすべて(と言ってしまっても差し支えないだろう)の信号を一括で送受信することができるシステムである。
自社専用ダークファイバーで世界中へ
これらのコンテナ・ラックに集約された回線は、RIEDEL Networkの持つダークファイバー回線でRIEDEL本社へと送られる。RIEDEL NetworkはRIEDELのグループ会社で、世界中にダークファイバーの回線を持ち、その管理運用を行っている。その拠点まではそれぞれの国の回線を使用するが、世界中にあるRIEDEL Networkの回線が接続されているデータセンターからは自社回線での運用となる。各国内の回線であれば問題が起きることはそれほど多くない、それを他国へ送ろうとした際に問題が発生することが多い。そういったトラブルを回避するためにも自社で世界中にダークファイバーを持っているということになる。
また、RIEDEL本社の地下には、核シェルターに近い構造のセキュリティーレベルが高いデータセンターが設置されている。ここで、F1のすべてのデータが保管されているそうだ。各チームからのリクエストによる再審判や、車載カメラ、コースサイドのカメラ、各チームの無線音声などすべての情報がここに保管されている。FIAから直接の依頼を受けて業務を行っているRIEDELは、さながら運営側・主催者側のバックボーンを担っているといった様相だ。
ちなみに、F1のコントロールセンター(審判室)は、リモートでの運営となっている。RIEDEL本国に送られた回線は、ヨーロッパに設置されたコントロールセンター、そして、各チームのHQへと送られている。まさにRIEDEL本社がF1サーカスのワールドワイドのハブとなっているということだ。一旦レースの現場でデータを束ねて、確実なファシリティ、バックボーンのある本社拠点へ送る。それを必要なものに応じて切り出しを行い、世界中へを再発信する。世界中を転戦するF1サーカスならではの知恵と運用ノウハウである。
ちなみに、我々が楽しんでいるTVなどの中継回線は、コースサイドの映像などが会場で共有され、中継用の別ネットワークとして運営されているということだ。前回取材時の2019年はこの部分もRIEDELの回線を使ったリモートプロダクションが行われていたが、サーキット内での回線分岐で別の運用となっていた。これらの設備を見ることはできなかったが、サーキット内に中継用のブースがあるような様子はなく、RIEDELのスタッフもそのような設備がサーキット内に準備されているのは見たことがないということだったので、リモートプロダクションでの制作が行われているのは確かなようであった。別のネットワークを通じて行われるリモートプロダクション、2024年度の放映権を持つのはDAZNだが、どのようなスキームで制作されているのか興味が尽きないところだ。
総じてみると、2019年と比較してもシステムのコンパクト化、コロナを乗り越えたことによるスタッフの省力化、リモートの活用範囲の拡大などが随所に見られた。そして、バックボーンとなる回線のIP化が進み、Artist 1024のような大規模ルーターが現実のものとして運用されるようになっている。目に見える進化はそれほど大きくないのかもしれないが、そのバックボーンとなる技術はやはり日進月歩で進化を続けている。
IPによる物理回線のボリュームは劇的に減っており、要所要所は一対のファイバーケーブルで賄えるようになっている。ある意味、この記事において写真などで視覚的にお伝えできるものが減っているとも言えるのだが、これこそがIP化が進展した証左であり次世代のシステム、ソリューションの中核が現場に導入されているということに相違ない。
10年以上も前から一対のファイバーケーブルで、映像・音声・シリアル通信まで送受信できるシステムを提案しているRIEDEL。やっと時代が追いついてきているということなのだろうか。F1のような世界規模の現場からのリクエストで制作され鍛え上げられてきたRIEDELの製品。国内でも活用が多く見られるインカムは、RIEDELの持つテクノロジーの一端でしかない。トータルシステムとして導入して本来のバリューを発揮するRIEDELの製品群。今回のような事例から次世代のシステム・ソリューションにおけるヒントを見つけていただければ幸いである。
*ProceedMagazine2024号より転載
Music
2024/08/27
Cross Phase Studio 様 / クリエイティブが交差する、外部貸出も行う関西有数のイマーシブ拠点
大阪城の間近、大阪市天満に居を構えるCross Phase Studio。ゲーム / 遊技機のサウンド制作をメインに、近年では映像作品のポストプロダクション業務も増加するなど、関西圏で大きな存在感を持つCross Phase株式会社の自社スタジオだ。2022年末にイマーシブ・フォーマットへ対応するためのアップデートを果たした同スタジオだが、このたびには自社スタジオの外部貸出も開始させたそうだ。関西でのイマーシブ・オーディオをリードする存在ともなるCross Phase Studioへ早速取材にお邪魔した。
サウンドの持つ力を知る場所を多くの方に
Cross Phase株式会社は代表の金子氏が中心となって、数人のクリエイターとともに2015年に設立されたサウンド制作会社。「当時の勤務先ではだんだん管理的な業務のウェイトが増えていて、もっとクリエイティブな部分に携わっていたいと考えていました。きっかけはよくある呑みの席での雑談だったのですが、本当に独立してしまった(笑)」という同氏は元遊技機メーカー勤務。幼少期を海外で過ごしMTVを見て育ったことから大の音楽好きで、同じく好きだった遊技機と音楽の両方を仕事にできる業界を選んだということだ。
設立当初は各クリエイターが自宅の制作環境で制作を行っており本社は事務所機能だけだったが、自社スタジオであるCross Phase Studioを作るにあたり、本社所在地も現在の大阪市天満に移転している。そのスタジオもステレオのみでスタートしたのだが、Apple Digital Masters認定を受けるための過程でDolby Atmosの盛り上がりを知り、大きな可能性を感じたことで2022年末にイマーシブ・オーディオへ対応する運びとなったそうだ。
スタジオを持ってからも同社では積極的にテレワークやリモート制作を取り入れており、そのためのインフラは金子氏がみずから整えているとのこと。最適なソリューションが存在しない場合は自社製の業務ツールやソフトウェアを開発することもあるという。「ゲーム業界は横のつながりが強い。自分たちの経験に加え、サウンド外の情報や情勢も踏まえて効率化、向上化の手段を常に探っています。」といい、クリエイティブな作業に集中できる環境づくりを心がけている。設立時の想いを実践し続けていることが窺える。
📷Cross Phase株式会社 代表の金子氏。
金子氏に限らず全員が元ゲーム / 遊技機メーカー勤務のクリエイター集団である同社の強みは、ゲーム / 遊技機のサウンドに関わる工程すべてを把握しており、サウンドプロジェクト全体をワンストップで請け負える点にある。プロジェクト自体の企画から、楽曲や効果音などの制作、音声収録など各種レコーディング、ゲームや遊技機への実装・デバッグのすべての工程でクライアントと協業することが可能だ。
近年はゲーム / 遊技機分野にとどまらず映像作品の音声制作などへも活躍の場を広げているが、そのきっかけは1本の映画作品だったようだ。「ロケ収録した音声を整音する依頼だったのですが、元の音声があまりいい状態ではなくて…。当社でできる限りいいものにならないか試行錯誤したところ、その結果にクライアントがすごく喜んでくれたんです。それで、みんな音の大切さに気付いてないだけで、いい音を聴いてもらえばわかってくれるんだということに気付いたんです」という。
こうした経験から、もともと自社業務専用と考えていたCross Phase Studioの外部貸出を開始したそうだ。「Dolby Atmosを聴いてもらうと多くのクライアントが興味を示してくれます。当社のクリエイターからも、イマーシブを前提とするとそれ以前とは作曲のコンセプトがまったく変わる、という話もありました。せっかくの環境なのでもっと多くのみなさんにサウンドの持つ力を体験して知ってほしいんです。」そして、「Cross Phaseという社名は、さまざまなクリエイティブが交差する場所にしたいという想いで名付けました。関西圏には才能あるクリエイターがたくさんいるので、みなさんとともに関西発で全国のシーンを盛り上げていきたいと思っています」と熱を込めて語ってくれた。
7.1.4 ch をADAMで構成
Cross Phase Studioのイマーシブシステムは7.1.4構成となっておりDolby Atmosへの対応がメインとなるが、DAWシステムには360 Walkmix Creator™️もインストールされており、360 Reality Audioのプリミックスにも対応が可能だ。
モニタースピーカーはADAM AUDIO。9本のA4VとSub 12という組み合わせとなっている。それとは別に、ステレオミッドフィールドモニターとして同じくADAM AUDIOのA77Xが導入されている。スタイリッシュな内装や質実剛健な機材選定と相まって、見た目にもスタジオ全体に引き締まった印象を与えているが、そのADAM AUDIOが導入された経緯については、「スタジオ開設当初は某有名ブランドのスピーカーを使用してたのですが、あまり音に面白みを感じられなくて…。スピーカーを更新しよう(当時はまだステレオのみ)ということで試聴会を行ったのですが、当社のクリエイターのひとりがADAMを愛用していたので候補の中に入れていたんです。そうしたら、聴いた瞬間(笑)、全員一致でADAMに決まりました。そうした経験があったので、イマーシブ環境の導入に際してもADAM一択でしたね。」とのこと。
📷7.1.4の構成で組まれたスピーカーはスタッフ全員で行った試聴会の結果、ADAMで統一された。天井にも吊られたA4Vのほか、ステレオミッドフィールド用にA77Xが設置されている。
もちろん、ADAM AUDIOも有名ブランドではあるが、その時点での”定番のサウンド”に飽き足らずクリエイターが納得できるものを追求していくという姿勢には、音は映像の添え物ではない、あるいは例えそうした場面であってもクリエイティビティを十二分に発揮して作品に貢献するのだという、エンターテインメント分野を生き抜く同社の強い意志を感じる。そうした意味では、ADAM AUDIOのサウンドは同社全体のアイデンティティでもあると言えるのではないだろうか。関西エリアに拠点を置くクリエイターには、ぜひ一度Cross Phase Studioを借りてそのサウンドを体験してほしい。
デジタル、コンパクト、クリーンな「今」のスタジオ
それではCross Phase Studioのシステムを見ていこう。金子氏の「当社はスタジオとしては後発。イマーシブ導入もそうですが、ほかのスタジオにはない特色を打ち出していく必要性を感じていました。今の時代の若いスタジオということで、デジタルをメインにしたコンパクトなシステムで、クリーンなサウンドを念頭に置いて選定しています。」という言葉通り、DAW周りは非常に現代的な構成になっている。
📷メインのデスクと後方のデスクに2組のコントロールサーフェスが組まれているのが大きな特徴。前方メインデスクにはAvid S3とDock、後方にはAvid S1が2台。ステレオとイマーシブで異なるスイートスポットに対応するため、それぞれのミキシングポイントが設けられた格好だ。
スタジオにコンソールはなく、Pro Tools | S3 + Pro Tools | Dock + DAD MOMと、2 x Pro Tools | S1 + DAD MOMというコントロールサーフェスを中心とした構成。サーフェスが二組あるのはステレオ再生とイマーシブ再生ではスイートスポットが変わるため、コントロールルームの中に2ヶ所のミキシングポイントを置いているからである。DAWはもちろんPro Tools Ultimate、バックアップレコーダー兼メディアプレイヤーとしてTASCAM DA3000も導入されている。
オーディオI/FにはPro Tools | MTRX Studioを採用。モニターコントロールはDAD MOMからコントロールするDADmanが担っているため、ステレオ / イマーシブのスピーカーはすべてこのMTRX Studioと直接つながれている。MTRX StudioにはFocusrite A16RがDanteで接続されており、後述するアウトボードのためにアナログI/Oを拡張する役割を担っている。また、スピーカーの音響補正もMTRX Studioに内蔵されているSPQ機能を使用して実施。測定にはsonorworks soundID Referenceを使用したという。現在ではsoundID Referenceで作成したプロファイルを直接DADmanにインポートすることができるが、導入時にはまだその機能がなく、ディレイ値などはすべてDADmanに手打ちしたとのこと。
📷上段にMTRX Studioがあり、その下が本文中でも触れたflock audio The Patch。数々のアウトボードが操作性にも配慮されてラッキングされていた。
必要最小限で済ますならばこれだけでもシステムとしては成立するのだが、スッキリとした見た目と裏腹に同スタジオはアウトボード類も充実している。SSLやBettermakerなどのクリーン系ハイエンド機からAvalon DesignやManleyなどの真空管系、さらに、Kempfer・Fractal Audio Systemsといったアンプシミュレーター、大量のプラグイン処理を実現するWaves SoundGrid Extreme Serverやappolo Twin、そろそろビンテージ機に認定されそうなWaves L2(ハードウェア!)も導入されており、現時点でも対応できる音作りは非常に広いと言えそうだが、「当社のクリエイターたちと相談しながら、その時々に必要と考えた機材はこれからも増やしていく予定です」とのこと。
これらのスタジオ機器の中で、金子氏がもっとも気に入っているのはflock audio The Patchなのだという。金子氏をして「この機材がなかったら当社のスタジオは実現していなかった」とまで言わしめるThe Patchは、1Uの機体の内部にフルアナログで32in / outのシグナルパスを持ち、そのすべてのルーティングをMac / PCから行えるというまさに現代のパッチベイである。Cross Phase Studioではアナログ入力系は基本的に一度このThe Patchに接続され、そこからA16Rを介してDanteでMTRX Studioへ入力される。日々の運用のしやすさだけでなくメンテナンス性や拡張性の観点からも、確かにThe Patchの導入がもたらした恩恵は大きいと言えるだろう。
コントロールルームの隣にはひとつのブースが併設されている。ゲーム / 遊技機分野から始まっているということもあってボーカル・台詞など声の収録がメインだが、必要に応じて楽器の収録もできるように作られている。印象的だったのは、マイクの横に譜面台とともにiPad / タブレットを固定できるアタッチメントが置かれていたことだ。台詞録りといえば今でも紙の台本というイメージが強いが、個別収録の現場では徐々に台本もデジタル化が進んでいるようだ。
📷コントロールルームのすぐ隣にはブースが設置されている、ボーカル・ダイアログなど声の収録だけではなく、楽器にも対応できる充分なスペースを確保している。
ブース内の様子は撮影が可能でコントロールルームにはBlackmagic Design ATEM Miniが設置されていた。「もともと音楽1本だけの会社ではないので、徐々にオファーが増えている映像制作やライブ配信をはじめとした様々な分野にチャレンジしていきたい。最近、知人から当社のブースをビジネス系YouTube動画の制作に使いたいというオファーもありました(笑)。バンドレコーディングはもちろん、“歌みた“などのボーカルレコーディングや楽器録音など、ぜひ色々なクリエイターやアーティストに使って欲しいです。」とのことで、同社が活躍するフィールドはさらに広がっていきそうだ。
最近では海外からのオファーも増えてきたというCross Phase。金子氏は「ゆくゆくは国産メーカーの機器を増やして、日本ならではのスタジオとして海外の方にも来てもらえるようにしたいですね」と語る。イマーシブ制作の環境が整ったスタジオを借りることができるというのは、まだ全国的に見ても珍しい事例である。関西圏を拠点にするクリエイターは、ぜひ一度Cross Phase Studioで「サウンドの持つ力」を体験して知ってほしい。
*ProceedMagazine2024号より転載
Music
2024/08/23
日本最大の男祭り、その熱量をコンテンツに込める〜UVERworld KING’S PARADE 男祭り REBORN at Nissan Stadium〜
昨夏、日産スタジアムにて開催された音楽ライブ「UVERworld KING’S PARADE 男祭り REBORN at Nissan Stadium」。この72,000人の観客とともに作り上げた公演を記録した映像作品が全国劇場公開された。男性のみが参加できるという日本最大の「男祭り」、劇場版の音響にはDolby Atmosが採用され、約7万人もの男性観客のみが集ったその熱狂を再現したという本作。音響制作を手がけられたWOWOW 戸田 佳宏氏、VICTOR STUDIO 八反田 亮太氏にお話を伺った。
ライブの熱狂を再現する作品を
📷右)戸田 佳宏 氏 / 株式会社WOWOW 技術センター 制作技術ユニット エンジニア 左)八反田 亮太氏 / VICTOR STUDIO レコーディングエンジニア
Rock oN(以下、R):本日はお時間いただきありがとうございます。まず最初に、本作制作の概要についてお聞きしてもよろしいですか?
戸田:今回のDolby Atmos版の制作は、UVERworldさんの男祭りというこれだけの観客が入ってしかも男性だけというこのライブの熱量を表現できないか、追体験を作り出せないかというところからスタートしました。大まかな分担としては、八反田さんがステレオミックスを制作し、それを基に僕がDolby Atmosミックスを制作したという流れです。
R:ステレオとAtmosの制作については、お二人の間でコミュニケーションを取って進められたのでしょうか?
八反田:Dolby Atmosにする段階では、基本的に戸田さんにお任せしていました。戸田さんとはライブ作品をAtmosで制作するのは2度目で、前回の東京ドーム(『UVERworld KING’S PARADE 男祭り FINAL at Tokyo Dome 2019.12.20』)でも一緒に制作をしているので、その経験もあってすり合わせが大きく必要になることはありませんでした。
戸田:このライブ自体のコンセプトでもあるのですが、オーディエンス、演奏の”熱量”というところをステレオ、Atmosともに重要視していました。僕がもともとテレビ番組からミックスを始めているのもあるのかもしれないですが、会場を再現するという作り方に慣れていたので、まず会場をAtmosで再現するところから始めました。そうやって制作するとオーディエンス、会場感が大きいものになっていくので、それを八反田さんに確認していただいて、音楽としてのミックスのクオリティを高めていくという流れですね。逆にCDミックスのような質感に寄りすぎてもライブの熱量が足りなくなっていくので、その境界線を見極めながらの作業になりました。
八反田:作業している時は「もっと熱量を!」というワードが飛び交っていましたね(笑)。
戸田:Atmosミックスではアリーナ前方の位置でライブを見ている感覚をイメージしていました。ライブ会場ではこうだよな、という聴こえ方を再現するという方向ですね。映像作品なのでボーカルに寄る画もあるので、そういった場面でも成立するようなバランスを意識しました。
八反田:ステレオでこれだとドラムが大きすぎるよな、というのもAtmosでは可能なバランスだったりするので、音楽としてのバランスも込みでライブをどう聴かせたいかという理想を突き詰めた部分もあります。
日産スタジアムでのライブ収録
📷1~16がステレオミックス用、17~42がDolby Atmos用に立てられたマイク。色によって高さの階層が分けて記されており、赤がアリーナレベル、青が2Fスタンド、緑がトップ用のマイクとなっている。31~34はバックスクリーン下のスペースに立てられた。
R:収録についてはどういった座組で行われたのでしょうか?
戸田:基本はパッケージ収録用のステレオ前提でライブレコーディングチームがプランニングをされていたので、3Dオーディオ版として足りないところをWOWOWチームで追加しました。事前にステレオのチームとマイク図面の打ち合わせを行い、マイク設置位置を調整しました。録音は音声中継車で録ることができる回線数を20chほど超えてしまったので追加でレコーダーを持ち込みました。ドラムセットが3つあったのもあって、全体で150chくらい使用していますね。そのうちオーディエンスマイクだけでステレオ用で16本、Atmos用でさらに26本立てました。
R:日産スタジアムってかなり広いですよね。回線は信号変換などを行って伝送されたのですか?
戸田:アリーナレベルは、音声中継車までアナログケーブルで引きました。スタンドレベルも端子盤を使って中継車までアナログですね。足りない部分だけOTARI Lightwinderを使ってオプティカルケーブルで引くこともしました。スタジアムはとにかく距離が長いのと、基本的にはサッカーの撮影用に設計された端子盤なので、スタンド席のマイクなどは養生などをして観客の中を通さないといけないのが結構大変でした。
R:ステージのフロントに立っているマイクは観客の方を向いているんですか?
戸田:そうですね。それはステージの端から観客に向けて立てられたマイクです。レスポンスの収録用です。曲中は邪魔にならないように工夫しながらミックスしました。包まれ感には前からのオーディエンスも重要なので。
R:Atmos用に設置したマイクについては、どういった計画で設置されたのでしょうか?
戸田:Atmos用のマイクはステレオ用から足りないところ、スピーカー位置で考えるとサラウンドのサイド、リア、トップなどを埋めていくという考え方で置いていきました。
八反田:キャットウォークに置いたマイクが被りも少なく歓声がよく録れていて、お客さんに包まれる感じ、特に男の一体感を出すのに使えました。イマーシブ用マイクで収録した音源は、ステレオミックスでも使用しています。
約150chの素材によるDolby Atmos ミックス
R:これだけ広い会場のアンビエンスだと、タイムアライメントが大変ではなかったですか?
戸田:そこはだいぶ調整しましたね。一番最初の作業がPAミックスと時間軸を調整したアンビエンスをミックスし、会場の雰囲気を作っていくことでした。スタジアムは一番距離があるところで100m以上離れているので、単純計算で0.3〜0.5秒音が遅れてマイクに到達します。
R:合わせる時はオーディオファイルをずらしていったのですか?
戸田:オーディエンスマイクの音を前へ(時間軸として)と調整していきました。ぴったり合うと気持ちいいというわけでもないし、単純にマイク距離に合わせればいいというわけでもないので、波形も見つつ、スピーカーとの距離を考えて経験で調整していきました。正解があったら知りたい作業でしたね。
R:空気感、スタジアム感との兼ね合いということですね。MCのシーンではスタジアムの残響感というか、声が広がっていくのを細かく聴き取ることができました。リバーブは後から足されたりしたのですか?
戸田:MCの場面ではリバーブを付け足す処理などは行なっていません。オーディエンスマイクで拾った音のタイムアライメントを調整して、ほぼそのまま会場の響きを使っています。ステージマイクに対してのリバーブは、一部AltiverbのQuadチャンネルを使っています。
R:ライブではMCからスムーズに歌唱に入るシーンも多かったと思いますが、そこの切り替えはどうされたんですか?
戸田:そこが今回の作品の難しいところでした。見る人にもMCからすっと音楽に入ってもらいたいけど、かといって急に空間が狭くなってしまうと没入感が損なわれてしまうので、会場の広さを感じながらも音楽にフォーカスしてもらえるように、MCと楽曲中のボーカルのリバーブではミックスで差をつけるなどで工夫しています。
R:なるほど。アンビエンスの音処理などはされました?
戸田:曲によってアンビ感が強すぎるものはボーカルと被る帯域を抜いたりはしています。前回の東京ドームでは意図しない音を消すこともしたのですが、今回は距離感を持ってマイクを置けたので近い音を消すことは前回ほどなかったです。
R:オブジェクトの移動は使いました?
戸田:ほぼ動かしていないですね。画や人の動きに合わせて移動もしていないです。バンドとしての音楽作品という前提があるので、そこは崩さないように気を付けています。シーケンスの音は少し動かした所があります。画がない音なので、そういうのは散らばらせても意外と違和感がないかなと感じています。
📷会場内に設置されたマイクの様子。左上はクランプで観客席の手すりに付けられたマイク。すり鉢状になっている会場の下のレイヤーを狙うイメージで立てられた。また、その右の写真は屋根裏のキャットウォークから突き出すようにクランプで設置されたトップ用マイク。天井との距離は近いが、上からの跳ね返りはあまり気にならずオーディエンスの熱気が上手く録れたという。
R:イマーシブになるとチャンネル数が増えて作業量が増えるイメージを持たれている方も多いと思うのですが、逆にイマーシブになることで楽になる部分などはあったりしますか?
戸田:空間の解像度が上がって聴いてもらいたい音が出しやすくなりますね。2chにまとめる必要が無いので。
八反田:確かにそういう意味ではステレオと方向性の違うものとしてAtmosは作っていますね。ステレオとは違うアプローチでの音の分離のさせ方ができますし、Atmosを使えば面や広い空間で鳴らす表現もできます。東京ドームの時もそういうトライはしましたが、今回はより挑戦しました。ドームは閉じた空間で残響も多いので、今回は広く開けたスタジアムとしての音作りを心がけています。
R:被りが減る分、EQワークは楽になりますよね。
戸田:空間を拡げていくと音が抜けてきますね。逆に拡がりよりも固まりが求められる場合は、コンプをかけたりもします。
R:イマーシブミックスのコンプって難しくないですか?ハードコンプになると空間や位相が歪む感じが出ますよね。
戸田:すぐにピークを突いてしまうDolby Atmosでどう音圧を稼ぐかはポイントですよね。今回はサイドチェイン用のAUXバスを使って、モノラル成分をトリガーにオブジェクト全体で同じ動きのコンプをかける工夫をしています。オーディエンスのオブジェクトを一括で叩くコンプなどですね。ベッドのトラックにはNugen Audio ISL2も使っています。
R:スピーカー本数よりマイク本数の方が多いので、間を埋めるポジションも使いつつになると思いますが、パンニングの際はファンタム定位も積極的に使われましたか?
戸田:位相干渉が出てくるのであまりファンタム定位は使わずにいきました。基本の考え方はチャンネルベースの位置に近いパンニングになっていると思います。ダビングステージで聴いた時に、スピーカー位置の関係でどうしても後ろに音が溜まってしまうので、マイクによってはスピーカー・スナップ(近傍のスピーカーにパンニングポジションを定位させる機能)を入れて音が溢れすぎないようにスッキリさせました。
Dolby Atmos Home環境とダビングステージの違い
R:丁度ダビングの話が出ましたが、ダビングステージでは正面がスクリーンバックのスピーカーになっていたりとDolby Atmos Homeの環境で仕込んできたものと鳴り方が変わると思うのですが、そこは意識されましたか?
戸田:スクリーンバックというよりは、サラウンドスピーカーの角度とXカーブの影響で変わるなという印象です。東京ドームの時はXカーブをすごく意識して、全体にEQをかけたんですけど、今回違う挑戦として、オーディエンスでなるべくオブジェクトを使う手法にしてみました。とにかく高さ方向のあるものやワイドスピーカーを使いたいものはオブジェクトにしていったら、ダビングステージでもイメージに近い鳴り方をしてくれました。もちろん部屋の広さとスピーカーの位置が違うので、仕込みの時から定位を変えてバランスをとりました。
R:ダビングはスピーカー位置が全部高いですからね。
戸田:全体の定位が上がっていってしまうので、そうするとまとまりも出てこないんですよね。なのでトップに配置していた音をどんどん下げていきました。トップの位置もシネマでは完全に天井ですから、そこから鳴るとまた違和感になってしまう。スタジアムは天井が空いているので、本来観客がいない高い位置からオーディエンスが聴こえてしまうのは不自然になってしまうと考えました。
R:これだけオーディエンスがあると、オブジェクトの数が足りなくなりませんでした?
戸田:そうですね、当時の社内のシステムではオブジェクトが最大54しか使えなかったので工夫しました。サラウンドはベッドでも7chあるので、スピーカー位置の音はベッドでいいかなと。どうしても真後ろに置きたい音などにオブジェクトを使いました。楽器系もオブジェクトにするものはステムにまとめています。
R:シネマ環境のオブジェクトでは、サラウンドがアレイで鳴るかピンポイントで鳴るかという違いが特に大きいですよね。
戸田:はい。なのでオーディエンスがピンポイントで鳴るようにオブジェクトで仕込みました。ベッドを使用しアレイから音を出力すると環境によりますが、8本くらいのスピーカーが鳴ります。オーディエンスの鳴り方をオブジェクトで制御できたことで空間を作るための微調整がやりやすかったです。ただ、観客のレスポンスはベッドを使用してアレイから流すことで、他の音を含めた全体の繋がりが良くなるという発見がありました。
R:最後に、音楽ライブコンテンツとしてDolby Atmosを制作してみてどう感じていますか?
八反田:誤解を恐れずに言えば、2chがライブを“記録“として残すことに対してDolby Atmosは“体験“として残せることにとても可能性を感じています。今回は会場の再現に重きを置きましたが、逆にライブのオーディエンスとしては味わえない体験を表現することも面白そうです。
戸田:Dolby Atmosでは、音楽的に表現できる空間が広くなることで、一度に配置できる音数が増えます。こういう表現手法があることでアーティストの方のインスピレーションに繋がり、新たな制作手法が生まれると嬉しく思います。またライブ作品では、取り扱いの難しいオーディエンスも含めて、会場感を損なわずに音楽を伝えられるというのがDolby Atmos含めイマーシブオーディオの良さなのかなと考えています。
一度きりのライブのあの空間、そして体験を再び作り出すという、ライブコンテンツフォーマットとしてのDolby Atmosのパワーを本作からは強く感じた。72,000人の男性のみという特殊なライブ会場。その熱量をコンテンツに込めるという取り組みは、様々な工夫により作品にしっかりと結実していた。やはり会場の空気感=熱量を捉えるためには、多数のアンビエントマイクによる空間のキャプチャーが重要であり、これは事前のマイクプランから始まることだということを改めて考えさせられた。イマーシブオーディオの制作数も徐々に増えている昨今、制作現場ではプロジェクト毎に実験と挑戦が積み上げられている。過渡期にあるイマーシブコンテンツ制作の潮流の中、自らの表現手法、明日の定石も同じように蓄積されているようだ。
UVERworld KING’S PARADE 男祭り REBORN at Nissan Stadium
出演:UVERworld
製作:Sony Music Labels Inc.
配給:WOWOW
©Sony Music Labels Inc.
*ProceedMagazine2024号より転載
Music
2024/08/20
「ライブを超えたライブ体験」の実現に向けて〜FUKUYAMA MASAHARU LIVE FILM 言霊の幸わう夏〜
今年1月、アーティスト・福山雅治による初監督作品 『FUKUYAMA MASAHARU LIVE FILM 言霊の幸わう夏 @NIPPON BUDOKAN 2023』が公開された。昨年夏に開催された武道館公演を収録した本作は、ドローン撮影による映像やDolby Atmosが採り入れられ、福山本人による監修のもと “ライブを超えたライブ” 体験と銘打たれた作品となっている。今回は特別に、本作の音響制作陣である染谷 和孝氏、三浦 瑞生氏、嶋田 美穂氏にお越しいただき、本作における音響制作についてお話を伺うことができた。
📷
左)三浦 瑞生氏:株式会社ミキサーズラボ 代表取締役社長 レコーディング、ミキシングエンジニア
中)嶋田 美穂氏:株式会社ヒューマックスエンタテインメント ポストプロダクション事業部 リレコーディングミキサー マネジャー
右)染谷 和孝氏:株式会社ソナ 制作技術部 サウンドデザイナー/リレコーディングミキサー
”理想のライブの音”に至るまで
Rock oN(以下、R):まずは、今回の企画の経緯について聞かせていただけますか?
染谷:私はこれまで嵐、三代目 J Soul Brothers(以下JSB3)のライブフィルム作品のAtmos ミックスを担当させていただきました。嶋田さんとは前作のJSB3からご一緒させていただいていて、その二作目ということになります。嶋田さんとのお話の中で、私たちが一番注意していたことは、音楽エンジニアの方とのチームワークの構築でした。三浦さんは長年福山さんの音楽を支えてこられた日本を代表するエンジニアさんであり、すでにチーム福山としての完成されたビジョンやチームワークはできあがっています。そこに我々がどのように参加させていただくかを特に慎重に考えました。Atmos制作内容以前に、チームメンバーとしての信頼を得るというのはとても大切な部分です。その配慮を間違えると「作品の最終着地点が変わるな」と感じていましたので、最初に三浦さんにAtmosで制作する上でどういうことができるのか、いくつかのご説明と方向性をご相談させていただきました。そして最終的に、三浦さんと福山さんの中でステレオミックスをまず制作していただいて、その揺るぎない骨子をAtmosミックスに拡張していく方向で制作を進めていくことに決まりました。
R:Atmosで収録した作品として今作で特徴的なのが、ライブの再現ではなく、“ライブを超えたライブ体験”というコンセプトを大事にされていますが、その方向性というのも話し合う中で決まっていったのですか?
染谷:収録が終わり、まず三浦さんがステレオミックスをされて、その後何曲かAtmosミックスを行い、福山さんにお聴かせする機会がありました。そこで福山さんが、オーディエンス(歓声)のバランスを自分の手で調整しながらAtmosの感覚、できることを探っていかれる時間がありました。
嶋田:そこで、閃かれた瞬間がありましたよね。
染谷:武道館特有の上から降ってくるような歓声やセンターステージに立っている福山さんでしか感じられない雰囲気をこのDolby Atmosなら“お客さんに体感・体験していただくことができる“と確信されたんだと思います。その後の作業でも、福山さんの「追体験じゃないんですよ」という言葉がすごく印象に残っています。まさにステージ上での実体験として感じていただくこと、それが私たちのミッションだったわけです。
R:では録音の段階ではどのような構想で進められていたのですか?
染谷:収録段階では、2階、3階と高さ方向での空間的なレイヤーをキャプチャーしたいと考えていました。
嶋田:最終的にオーディエンスマイクは合計で28本になりましたね。PAの前にも立ててみたりはしたのですが、音を聴くと微妙に位相干渉していたので結局は使っていません。
三浦:基本のステレオミックス用がまず20本あって、そこに染谷さんがAtmos用に8本足されました。基本的には、PAスピーカーの指向性からなるべく外れたところから、お客さんの声や拍手を主に狙うように設置しています。
R:オーディエンスの音源の配置は、基本マイク位置をイメージして置かれていますか?
染谷:そうですね。上下で100段階あるとしたら、2階は40、3階は90~100くらいに置いてレイヤー感を出しています。上から降りそそぐ歓声を表現するには、上、下の二段階ではなく、これまでの経験から中間を設けて階層的に降ろしていった方が結果的に良かったので、今回はこのように配置しました。
R:福山さんが向く方向、映像の画角によってアンビエントのバランス感は変えたのですか?
染谷:そこは変えていないです。それをすると音楽との相関関係から音像が崩れていくので、基本的にオーディエンスは一回決めたらあまり動かさない方が良いように思います。楽器の位置なども基本は、三浦さんと福山さんが決められたステレオ音源の位置関係を基準にしてAtmos的な修正をしています。
Atmosミックスのための下準備とは
R:収録後はどういった調整をされたのでしょうか?
染谷:録った音をシンプルにAtmosで並べると、当然位相干渉を起こしていますので、タイムアライメント作業で修正を行います。具体的な方法としてはAtmosレンダラーでステレオと9.1.4chを何度も切り替えながらディレイを使用してms単位での補正を行います。レンダラーでステレオにしたときに正しくコントロールできていない場合は、確実に位相干渉するので判断できます。また、嶋田さんのコメントの通り、会場の反射で位相干渉した音が録れている場合もありますから、マイクの選定なども含めて進めていきました。
R:ディレイということは遅らせていく方で調整されたのですか。
染谷:今回はそうですね。ドームなどの広い会場だったら早めていると思うのですが、武道館では遅らせていった方がいい結果が得られました。早めていくと空間が狭くなっていくので、だんだん武道館らしさがなくなり、タイトな方向になってしまうんです。ですので、よりリアルに感じていただけるよう、疑似的に武道館の空間を創りだしています。実際にはセンターステージの真ん中のマイクを基準にして、他のマイクがどのように聴こえてくるかを考えながらディレイ値を導き出していきました。
R:逆にステレオだとオーディエンスを後ろにずらしての調整とかは難しいと思いますがどうでした?
三浦:オーディエンスマイクの時間軸の位置はそのままで、音量バランスで調整しています。フロントマイクをメインにして、お客さんの声の近さなどからバランスをとりました。やっぱり一番気になるのは、ボーカルの声がオーディエンスマイクを上げることで滲まないように、そこは色々な方法で処理しています。
R:Atmos用に追加したマイクはステレオでも使われましたか?
三浦:使っています。Atmosとステレオである程度共通した雰囲気を作る方がいいのかなと思って。スピーカーの数が変わる以上は聴こえ方も変わるのは分かっていましたが、福山さんとの作業の中でステレオ、Atmosで共通のイメージを固めておかないといけないと思ったのもありますし、会場の雰囲気を伝えることでできる音も含まれていましたので。
染谷:三浦さんがステレオの制作をされている間、嶋田さんと私はひたすらiZotope RXを使った収録済みオーディエンス素材のノイズ除去、レストレーション作業の日々でしたね。
嶋田:トータル 3、4ヶ月くらいしてましたよね。
R:RXはある程度まとめてマルチトラックモードでの処理も使われました?
嶋田:これがすごく難しいんですけど、28トラック分まとめて処理する場合も、1トラックずつ処理する場合もあります。私はノイズの種類によって使い方を変えました。例えばお客さんの咳を消したい場合、一番近いマイクだけでなくすべてのマイクに入っているので、綺麗に消したくなりますよね。でもすべて消すと空間のニュアンスまで無くなってしまうので、そのバランスは悩みました。近すぎる拍手なども全部消すのか、薄くするのかの判断は、喝采の拍手なのか、しっとりとした拍手なのかという拍手のニュアンス込みで考えたりもしましたね。
染谷:消せば良いってものでもないんですよ。音に味が無くなるというか。拍手を取る時はDe-Clickを使いますが、Sensitivityをどこの値にもってくるか最初の初期設定が大事です。
R:その設定はお二人で共有されていたんですか?
嶋田:最初に染谷さんがノイズの種類に合わせて大体の値を設定していただいて、そこから微調整しながら進めました。
染谷:作業が進んでいくとだんだんその値から変わっていきますけどね(笑)。リハの時に録っておいたベースノイズをサンプルにして全体にレストレーションをかけることもしています。武道館の空調ノイズって結構大きいんですよ。でもSpectral De-Noiseを若干かけるくらいです。やっぱり抜きすぎてもダメなんです。抜かないのもダメですけど、そこはうまくコントロールする必要があります。
染谷:基本的にクラップなどの素材も音楽チームの方で作っていただいて、とても助かりました。
三浦:ステレオミックスの仕込みの段階で福山さんとミックスの方向性の確認をした際に、通常はオーディエンスのレベルを演奏中は低めにして、演奏後はかなり上げるというようにメリハリをつけていますが、今回は曲中もお客さんのハンドクラップ(手拍子)がしっかり聴こえるくらいレベルを上げ目にしてくれというリクエストがありました。「これは記録フィルムではなくエンターテイメントだから」ということも仰っていたので、ライブ中の他の場所から良いハンドクラップの素材を抜き出し、違和感がない程度にそれを足して音を厚くするなどのお化粧も加えています。
📷三浦氏が用意したAtmos用ステムは合計111トラックに及ぶ。28chをひと固まりとしたオーディエンスは、素材間の繋ぎやバランスを考慮した嶋田氏の細かな編集により何重にも重ねられた。時にはPCモニターに入りきらない量のトラックを一括で操作することもあるため、タイムライン上での素材管理は特に気を張る作業であったという。高解像度なAtmosに合わせたiZotope RXによる修正も、作業全体を通して取り組まれた。
R:その他に足された音源などはありますか?
三浦:シーケンスデータですね。ライブでは打ち込みのリズムトラック、ストリングスなどのシーケンスの音はある程度まとまって扱われます。それはライブPAで扱いやすいように設計されているからなのですが、映画やパッケージの制作ではもう少し細かく分割されたデータを使って楽曲ごとに音色を差別化したくなるので、スタジオ音源(CDトラックに収録されているもの)を制作した際の、シーケンスデータを使用しました。なのでトラック数は膨大な数になっています(笑)。
嶋田:480トラックくらい使われていますよね!Atmos用に持ってきていただいた時には111ステムくらいにまとめてくださりました。
三浦:楽曲ごとにキックの音作りなども変えたくなるので、するとどんどんトラック数は増えていってしまいますよね。作業は大変だけど、その方が良いものになるかなと。今回はAtmosということでオーディエンスも全部分けて仕込んだので、後々少し足したい時にPro Toolsのボイスが足りなくなったんですよ。オーディオだけで1TB以上あるので、弊社のシステムではワークに収まりきらず、SSDから直の読み書きで作業しました。Atmosは初めてのことだったので、これも貴重な体験だったなと思っています。
染谷:本当に想像以上にものすごい数の音が入っているんですよ。
嶋田:相当集中して聴かないと入っているかわからない音もあるんですが、その音をミュートして聴いてみると、やはり楽曲が成立しなくなるんです。そういった大切な音が数多くありました。
R:ステムをやり取りされる中で、データを受け渡す際の要望などはあったのですか?
染谷:僕からお願いしたのは、三浦さんの分けやすいようにということだけです。後から聞くと、後々の修正のことも考えて分けてくださっていたとのことでした。ありがとうございます。
三浦:ステレオではOKが出たとしても、環境が変わってAtmosになれば聴こえ方も変わるだろうというのがあったので、主要な音はできるだけ分けました。その方が後からの修正も対応できるかなと思って、シーケンスデータもいくつかに分けたり、リバーブと元音は分けてお渡ししましたよね。想定通り、Atmosになってからの修正も発生したので、分けておいてよかったなと思っています。
嶋田:その際はすごく助かりました。特に、オーディエンスマイクもまとめることなく28本分を個別で渡してくださったので、MAの段階ですぐに定位が反映できたはとてもありがたかったです。
チームで取り組むDolby Atmos制作
染谷:今回は三浦さんが音楽を担当されて、僕と嶋田さんでAtmosまわりを担当したんですけど、チームの役割分担がすごく明確になっているからこそできたことが沢山ありました。そのなかの一つとして、編集された映像に対して膨大な音素材を嶋田さんが並べ替えて、ミックスができる状態にしてくれる安心感というのはすごく大きかったです。今回、嶋田さんには、大きく2つのお願いをしました。①映像に合わせてのステム管理、使うトラックの選定、とても重要な基本となるAtmosミックス、②足りないオーディエンスを付け足すという作業をしてもらいました。何度も言っちゃいますが、すごいトラック数なので並べるのも大変だったと思います。
三浦:こちらからお渡ししたのはライブ本編まるまる一本分の素材なので、そこから映画の尺、映像に合わせての調整をしていただきました。
嶋田:映像編集の段階で一曲ずつ絶妙な曲間にするための尺調整や曲順の入れ替えがあったり、エディットポイントが多めで、いつもより時間をかけた記憶があります。特に普段のMAでは扱わないこのトラック数を一括で動かすとなると、本当に神経を使う作業になるんですよ。修正素材を張り込む時にも、一旦別のタイムラインに置いて、他のオーディオファイルと一緒に映像のタイムラインに置いたりと、とにかくズレないように工夫をしていました。
R:Atmosで広げるといってもLCRを中心に作られていたなと拝見して感じているんですけれど、やはり映画館ではセンタースピーカーを基本に、スクリーンバックでの音が中心になりますか。
嶋田:映像作品なので、正面のメインステージの楽器の配置、三浦さんのステレオのイメージを崩さないバランスで置きました。空間を作るのはオーディエンスマイクを軸にしています。さらに立体感を出すためにギターを少し後ろに置いてみたりもしました。ボーカルはセンター固定です。しっかりと聴かせたいボーカルをレスポンス良く出すために、LRにこぼすなどはせずに勝負しました。なんですが、、、ラスト2曲はセンターステージの特別感を出すために中央に近い定位に変えています。
染谷:福山さんからの定位に関するリクエスト多くありましたね。印象的な部分では今さんのギターを回したり、SaxやStringsの定位、コーラスの定位はここに置いて欲しい、など曲ごとの細かな指定がありました。
R:ベッドとオブジェクトの使い分けについてはどう設計されました?
嶋田:基本的には楽器はベッド、オーディエンスをオブジェクトにしました。それでもすべてのオーディエンスマイクをオブジェクトにするとオブジェクト数がすぐオーバーするので、その選定はだいぶ計算しました。
染谷:やっぱりどうしてもオブジェクトの数は足りなくなります。 Auxトラックを使用して、オブジェクトトラックに送り込む方法もありますけど、映像の変更が最後まであったり、それに伴うオーディエンスの追加が多くなると、EQを個別に変えたりなどの対応がとても複雑になります。瞬時の判断が求められる作業では、脳内で整理しながら一旦AUXにまとめてレンダラーへ送っている余裕は無くなってきます。やはり1対1の方が即時の対応はしやすかったです。今考えているのは、ベッドってどこまでの移動感を表現できるのか?ということです。先ほどギターを回したと言いましたが、それも実はベッドなんです。ベッドだとアレイで鳴るので、どこの位置で回すかということは考えないといけませんでしたが、最終的に上下のファンタム音像を作って回してあげるとHomeでもCinemaでもある程度の上下感を保って回ってくれることが分かりました。絶対に高さ方向に動くものはすべてオブジェクトじゃなきゃダメ!という固定概念を疑ってみようかなと思って挑戦してみたんですけど。嶋田さんはどのように感じましたか?
嶋田:こんなにベッドで動くんだ、というのが素直な感想です。私も動くものや高さを出すものはオブジェクトじゃないと、という気持ちがずっとあったんですけど、今のオブジェクト数の制約の中ではこういった工夫をしていかないといけないなと思っています。
📷Dolby Atmos Home環境でのプリミックスは、Atmosミックスを担当したお二人が在籍するヒューマックスエンタテインメント、SONAのスタジオが使用された。劇場公開作品でもHome環境を上手に活用することは、制作に伴う時間的・金銭的な問題への重要なアプローチとなりえる。その為には、スピーカーの選定やモニターシステムの調整などCinema環境を意識したHome環境の構築が肝心だ。なお、ファイナルミックスは本編が東映のダビングステージ、予告編がグロービジョンにて行われた。
シネマ環境を意識したプリミックス
染谷:今回、ダビングステージを何ヶ月も拘束することはできないので、Dolby Atmos Home環境でダビングのプリミックスを行いました。Homeのスタジオが増えてきていますが、Homeで完結しない場合もこれから多く出てくると思うので、今回はこういった制作スタイルにトライしてみようと考えました。
嶋田:Homeでのプリミックスでまず気をつけなければならないのが、モニターレベルの設定です。映画館で欲しい音圧感が、普段作業している79dBCでは足りないなと感じたので、Homeから82dBCで作業していました。
染谷:最終確認は85dBCでモニターするべきなんですが、作業では82dBCくらいが良いと感じています、スピーカーとの距離が近いスタジオ環境では85dBCだと圧迫感があって長時間の作業が厳しくなってしまいます。
嶋田:ダビングステージでは空間の空気層が違う(スピーカーとの距離が違う)ので、ダビングステージの音質感や、リバーブのかかり方をHomeでもイメージしながら作業しました。またダビングステージは間接音が多く、Homeでは少し近すぎるかなというクラップも、ダビングステージにいけばもう少し馴染むから大丈夫だとサバ読みしながらの作業です。
染谷:Dolby Atmos Cinemaの制作経験がある我々は、ある程度その変化のイメージが持てますが、慣れていない方はHomeとの違いにものすごくショックを受けられる方も多いと聞いています。三浦さんはどうでした?
三浦:やはり空間が大きいなと、その点ではより武道館のイメージにより近くなるなとは感じましたね。
R:ダビングではどう鳴るか分かって作業しているかが本当に大事ですよね。やはりダビングは、映画館と同等の広さの部屋になりますからね。
染谷:直接音と間接音の比率、スピーカーの距離が全然違いますからね。制作される際はそういったことを含めて、きちんと考えていかないといけません。
嶋田:今回Homeからダビングステージに入ってのイコライジング修正もほぼなかったですね。
染谷:ダビング、試写室、劇場といろんな場所によっても音は変わるんだなというのは思います。どれが本当なんだろうなと思いながらも、現状では80点とれていればいいのかなと思うことにしています。
R:それは映画関係の方々よく仰ってます。ある程度割り切っていかないとやりようがないですよね。三浦さんは今回初めてAtmosの制作を経験されましたが、またやりたいと思われます?
三浦:このチームでなら!
染谷・嶋田:ありがとうございます(笑)。
三浦:染谷さん、嶋田さんには、客席のオーディエンスマイクのレベルを上げると、被っている楽器の音まであがっちゃうんですが、そういう音も綺麗に取っていただいて。
染谷:でも、その基本となる三浦さんのステムの音がめちゃくちゃに良かったです。
嶋田:聴いた瞬間に大丈夫だと思いましたもんね。もう私たちはこれに寄り添っていけばいいんだと思いました。
染谷:今回は特に皆さんのご協力のもと素晴らしいチームワークから素敵な作品が完成しました。短い時間ではありましたが、三浦さんのご尽力で私たち3名のチーム力も発揮できたと感じています。プロフェッショナルな方達と一緒に仕事をするのは楽しいですね。
三浦:そういった話で言うと、最後ダビングステージの最終チェックに伺った際、より音がスッキリと良くなっていると感じたんです。なぜか聞いたらクロックを吟味され変えられたとのことで、最後まで音を良くするために試行錯誤されるこの方達と一緒にやれて良かったなと感じています。
染谷:その部分はずっと嶋田さんと悩んでいた部分でした。DCPのフレームレートは24fpsですが、実際の収録や音響制作は23.976fpsの方が進めやすいです。しかし最終的に24fpsにしなくてはいけない。そこでPro Toolsのセッションを24fpsに変換してトラックインポートかけると、劇的に音が変わってしまう。さらにDCP用Atmosマスター制作時、.rplファイルからMXFファイル(シネマ用プリントマスターファイル)に変換する際にも音が変わってしまうんです。
この2つの関門をどう乗り越えるかは以前からすごく悩んでいました。今回はそれを克服する方法にチャレンジし、ある程度の合格点まで達成できたと感じています。どうしたかというと、今回はSRC(=Sample Rate Convertor)を使いました。Pro Toolsのセッションは23.976fpsのまま、SRCで24fpsに変換してシネマ用のAtmosファイルを作成したところ、三浦さんに聴いていただいたスッキリした音になったんです!今後もこの方法を採用していきたいですね。
R:SRCといっても色々とあると思うのですが、どのメーカーの製品を使われたんですか?
嶋田:Avid MTRXの中で、MADI to MADIでSRCしました。以前から24fpsに変換するタイミングでこんなに音が変わってしまうんだとショックを受けていたんですが、今回で解決策が見つかって良かったです。
染谷:MXFファイルにしたら音が変わる問題も実は解決して、結局シネマサーバーを一度再起動したら改善されました。普段はあまり再起動しない機器らしいので、一回リフレッシュさせてあげるのは特にデジタル機器では大きな意味がありますね。こういった細かなノウハウをみんなで情報共有して、より苦労が減るようになってくれればと願っています。
R:この手の情報は、日々現場で作業をされている方ならではです。今日は、Atmos制作に関わる大変重要なポイントをついたお話を沢山お聞きすることができました。ありがとうございました。
📷本作を題材に特別上映会・トークセッションも今年頭に開催された。
本作はアーティストの脳内にある“ライブの理想像”を追求したことで、Dolby Atmosによるライブ表現の新たな可能性が切り拓かれた作品に仕上がっている。音に関しても、アーティストが、ステージで聴いている音を再現するという、新しい試みだ。それは、アーティストと制作チームがコミュニケーションを通じて共通のビジョンを持ち制作が進められたことで実現された。修正やダビングといったあらゆる工程を見越した上でのワークフローデザインは、作業効率はもちろん最終的なクオリティにも直結するということが、今回のインタビューを通して伝わってきた。入念な準備を行い、マイクアレンジを煮詰めることの重要性を改めて実感する。そして何より、より良い作品作りにはより良いチーム作りからという本制作陣の姿勢は、イマーシブ制作に関係なく大いに参考となるだろう。
FUKUYAMA MASAHARU LIVE FILM言霊の幸わう夏@NIPPON BUDOKAN 2023
監督:福山雅治
出演:福山雅治、柊木陽太
配給:松竹
製作:アミューズ
©︎2024 Amuse Inc.
*ProceedMagazine2024号より転載
Music
2024/08/16
Xylomania Studio「Studio 2」様 / 11.2.6.4イマーシブによる”空間の再現”
スタジオでのレコーディング / ミキシングだけでなく、ライブ音源、映画主題歌、ミュージカルなど多くの作品を手掛ける古賀 健一 氏。音楽分野におけるマルチチャンネル・サラウンド制作の先駆者であり、2020年末には自身のスタジオ「Xylomania Studio」(シロマニアスタジオ)を手作りで9.4.4.5スピーカー・システムへとアップデートしたことも記憶に新しいが、そのXylomania Studioで2部屋目のイマーシブ・オーディオ対応スタジオとなる「Studio 2」がオープンした。11.2.6.4という、スタジオとしては国内最大級のスピーカー・システムが導入され、Dolby Atmos、Sony 360 Reality Audio、5.1 Surround、ステレオといったあらゆる音声制作フォーマットに対応するだけでなく、立体音響の作曲やイマーシブ・コンサートの仕込みも可能。さらに、120inchスクリーンと8Kプロジェクタも設置されており、ポストプロダクションにも対応できるなど、どのような分野の作業にも活用できることを念頭に構築されている。この超ハイスペック・イマーシブ・レンタル・スタジオについて、オープンまでの経緯やそのコンセプトについてお話を伺った。
Beatlesの時代にイマーシブ表現があったら
Xylomania Studio 古賀 健一 氏
Official髭男dismのApple Music空間オーディオ制作や第28回 日本プロ音楽録音賞 Immersive部門 最優秀賞の受賞など、名実ともに国内イマーシブ音楽制作の最前線を走る古賀 健一 氏。その活躍の場はコンサートライブや映画主題歌など多岐に渡り、自身の経験をスタジオ作りのコンサルティングなどを通してより多くのエンジニアやアーティストと共有する活動も行っている。
まさにイマーシブの伝道師とも呼べる古賀氏だが、音の空間表現に関心を持ったのはDolby Atmosが生まれるよりもはるか以前、彼の学生時代にまで遡るという。「現場ではたくさんの楽器、たくさんの音が鳴っているのに、それを表現する手段がステレオしかないということにずっと疑問を持っていた」という古賀氏だが、学生時代に出会ったSACDではじめて5.1サラウンドを体験して衝撃を受ける。
「これこそが、音楽表現のあるべき姿だ」と感じた古賀氏だが、「当時はPro Tools LEにサラウンドオプションを追加するお金もなかった」という中で工夫を重ねて再生システムを構築し、5.1サラウンド作品をひたすら聴いていたという。古賀氏といえば、自身のスタジオであるXylomania StudioをDIYでイマーシブ対応に改修し、その様子をサウンド&レコーディング・マガジン誌上で連載していたこともあるが、彼の飽くなき探究心とDIY精神はすでにこのころから備わっていたようだ。
その後も独自に空間表現を探究していた古賀氏だが、Dolby Atmosの登場によって、「これなら、もっと自由でもっと手軽に、音楽表現を追求できるんじゃないか」と感じたことで自身のスタジオをイマーシブ・オーディオ対応へと改修することを決める。しかし、「当初は5.1.4、なんなら、5.1.2で十分だと考えてました。そうしたら、Netflixが出したガイドラインが7.1.4となっていて、個人で用意できる予算では無理だと悟った」ことで、法人としてのXylomania Studioを設立することを決意したのだという。それから最初のスタジオができるまでについては、サンレコ誌への連載が今でもWEBで読めるので、ぜひそちらをご覧いただきたい。
Xylomania Studioがイマーシブ制作に対応したのが2020年12月。それから3年の時を経て、同社ふたつ目のイマーシブ・スタジオがオープンした理由や、この間に古賀氏自身の心境、イマーシブ・オーディオを取り巻く環境に変化はあったのだろうか。「ぼく自身のことを言えば、イマーシブへの関心はますます深まるばかりです。探究したいことはどんどん出てくる。周囲の環境については、やはりApple Musicの”空間オーディオ”の影響は大きいです。それ以前と比べると、関心を持ってくれるひとは確実に増えた。もともと、ぼくはお金になるかどうかは考えて動かないんです。Xylomania Studioも、ただ自分が探究したいという思いだけで作ったものだったので、成功する目論見なんてなかった。それが、ビジネスとしてきちんと成立するところまでたどり着けたことについては、仲間たちと”神風が吹いたね”なんて言っています」という。
今回オープンしたXylomania Studio「Studio 2」の計画がはじまったのは2022年夏。より多くの人にイマーシブ表現の可能性を体験してほしいと考えた古賀氏が、イマーシブ・スタジオの外部貸出を検討したことがスタートとなっている。
音楽ジャンルによってはイマーシブ表現が合わないものもある、という意見もあるが、これに対して古賀氏の「モノにはモノの、ステレオにはステレオのよさがあるのは確か。でも、ぼくは”イマーシブが合わないジャンル”なんてないと思ってます。だって、もしBeatlesの時代にイマーシブ表現があったら、彼らは絶対にやってたと思いませんか?」という言葉には、思わず深く頷いてしまった。「ふたつ目のスタジオを作ろうという気持ちになれたのも、空間オーディオによってイマーシブ制作がビジネスの軌道に乗ることができたからこそ。」という古賀氏。そうした仕事を通して関わったひとたちへの恩返しのためにも、国内のイマーシブ・シーンを盛り上げるようなアクションを積極的に取っていきたいという気持ちがあるようだ。
当初はStudio 1を貸出し、その間に自身が作業をおこなうための部屋を作ろうとしていたようだが、さまざまな紆余曲折を経て、結果的にはStudio 1をも超える、国内最高峰のイマーシブ・レンタル・スタジオが完成した。誌面で語り尽くせぬ豊富なエピソードとともに、以下、Xylomania Studio「Studio 2」のシステムを見ていきたい。
11.2.6.4イマーシブによる”空間の再現”
📷「Studio 2」はサイドの壁面色違いの箇所にインウォールでスピーカーを設置、この解決策により窮屈感はまったくなく、実際よりも広々とした居心地を実現した。肝心のサウンドについても映画館をはるかに超える音響空間を創出している。
11.2.6.4インウォール・スピーカー・システムによるイマーシブ再生環境、Danteを駆使したネットワーク伝送、ハイクオリティなブースとしての機能、大型スクリーンと8Kプロジェクタなど、Xylomania Studio「Studio 2」のトピックは枚挙にいとまがないが、このスタジオの最大の特徴は”限りなく本番環境に近い音場を提供できること”である。Studio 2の先鋭的かつ挑戦的なスペックのすべては、スタジオの中でどれだけ作品の最終形に近い響きを提供できるか、という目的に集約されているからだ。
古賀氏は「自分のスタジオでこう鳴っていれば例えばダビングステージではこういう音になるだろう、ということを想像することはできます。でも、その差を常に想像しながら作業を続けることはすごいストレス。仕込んだ音を現場で鳴らした時に、スタジオで意図した通りに鳴るような、本当の意味での”仕込み”ができる部屋を作りたかった」ということのようだ。「この部屋でミックスしたものをそのままライブに持ち込める、ダビングステージで作業したミックスを持ち込めばそのままここで配信用のマスターが作れる、そんなスタジオにしたかった。」
この、言わば音が響く空間を再現するというコンセプトを可能にしているのは、まぎれもなく11.2.6.4イマーシブ・システムだ。Studio 2のスピーカー配置は一般的なDolby Atmosレイアウトをもとに、サイド・リアとハイトは左右に3本ずつのスピーカーを持ち、それによって映画館やダビングステージのアレイ再生やディフューズ・サラウンド音場を再現している点が大きな特徴。実は、Studio 2の再生環境はその計画の途中まで既存のStudio 1と同じ9.2.6.4のシステムを組む方向で進んでいたのだという。しかし、古賀氏のある経験がきっかけで今の11.2.6.4へと拡張されることになったようだ。「ある映画主題歌の仕事でダビングステージを訪れた時、リア方向に振った音が思っていたより後方まで回り込んだんです。今までのニアフィールドの環境で映画作品の最終形をイメージすることには限界があると感じ、アレイ再生ができる環境を作るために急遽スピーカーを2本追加することにしました。」
📷フロントLCRに採用されたci140。センターとLRの間がサブウーファーのci140sub。
その11.2.6.4イマーシブ・システムを構成するスピーカーは、すべてPCMのインウォール・モデルである「ciシリーズ」。フロントLCR:ci140、ワイド&サラウンド:ci65、ハイト:ci45、ボトム:ci30、SW:ci140sub となっており、2台のサブウーファーはセンター・スピーカーとワイド・スピーカーの間に配置されている。
スピーカーをインウォール中心にするというアイデアも、計画を進める中で生まれたものだという。先述の通り、当初は今のStudio 1を貸出している間に自身が作業をおこなうための部屋を作ろうとしていたため、もともとレコーディング・ブースとして使用していたスペースに、スタンド立てのコンパクトなイマーシブ再生システムを導入しようと考えていたという。だが、スピーカーをスタンドで立ててしまうとブースとして使用するには狭くなりすぎてしまう。ブースとしての機能は削れないため、”もっとコンパクトなシステムにしなければ”という課題に対して古賀氏が辿り着いた結論が、以前にコンサルティングを請け負ったスタジオに導入した、”インウォール・スピーカー”にヒントを得たようだった。システムを小さくするのではなく、逆に大きくしてしまうことで解決するという発想には脱帽だ。
モデルの決定にはメーカーの提案が強く影響しているとのことだが、「ci140は国内にデモ機がなかったので、聴かずに決めました(笑)」というから驚きだ。古賀氏は「チームとして関わってくれる姿勢が何よりも大事。こういう縁は大切にしたいんです」といい、その気概に応えるように、PMCはその後のDolby本社との長いやりとりなどにおいて尽力してくれたという。
📷上左)サラウンドチャンネルをアレイ再生にすることで、映画館と同じディフューズ・サラウンドを再現することを可能にしている。上右)サイド/ワイド/リアはci65。後から角度を微調整できるように固定されておらず、インシュレーターに乗せているだけだという。下左)ハイト・スピーカーはci45。下右)ボトム・スピーカーを設置しているため、Dolby Atmosだけではなく、Sony 360 Reality Audioなどの下方向に音響空間を持つイマーシブ制作にも対応可能。「ボトムはリアにもあった方がよい」という古賀氏の判断で、フロント/リアそれぞれに2本ずつのci30が置かれている。
最後まで追い込んだアコースティック
Studio 2が再現できるのは、もちろん映画館の音響空間だけではない。マシンルームに置かれたメインのMac Studioとは別に、Flux:: Spat Revolution Ultimate WFS Add-on optionがインストールされたM1 Mac miniが置かれており、リバーブの処理などを専用で行わせることができる。このSpat Revolution Ultimateに備わっているリバーブエンジンを使用して、Studio 2ではさまざまな音響空間を再現することが可能だ。必要に応じて、波面合成によるさらなるリアリティの追求もできるようになっている。
古賀氏が特に意識しているのは、コンサートライブ空間の再現。「このスタジオを使えば、イマーシブ・コンサートの本番環境とほとんど変わらない音場でシーケンスの仕込みができます。PAエンジニアはもとより、若手の作曲家などにもどんどん活用してほしい。」というが、一方で「ひとつ後悔しているのは、センターに埋め込んだサブウーファーもci140にしておけば、フロンタルファイブのライブと同じ環境にできたこと。それに気付いても、時すでに遅しでしたけど」と言って笑っていた。常に理想を追求する姿勢が、実に古賀氏らしい。
📷Flux:: Spat Revolution Ultimate WFS Add-on option
さらに、Spat Revolution UltimateはStudio 2をレコーディング・ブースとして使用した際にも活用することができる。マイクからの入力をSpat Revolution Ultimateに通し、リバーブ成分をイマーシブ・スピーカーから出力するというものだ。こうすることで、歌手や楽器の音とリバーブを同時に録音することができ、あたかもコンサートホールや広いスタジオで収録されたかのような自然な響きを加えることができる。「後からプラグインで足すだけだと、自然な響きは得られない。ぼくは、リバーブは絶対に録りと同時に収録しておいた方がいいと考えています。」
こうした空間再現を可能にするためには、当然、スピーカーのポジションや角度、ルームアコースティック、スピーカーの補正などをシビアに追い込んでいく必要がある。Studio 2はもともと8畳程度の小さな空間に造られており、広さを確保するために平行面を残さざるを得なかったというが、その分、「内装工事中に何度も工事を止め、何度もスピーカーを設置して、実際に音を鳴らしてスピーカーの位置と吸音を追い込んでいきました」という。その結果、どうしても低域の特性に納得できなかった古賀氏は、工事の終盤になってスピーカーの設置全体を後方に5cmずらすことを決めたという。「大工さんからしたら、もう、驚愕ですよ。でも、おかげで音響軸は1mmのずれもなくキマってます。極限まで追い込んだ音を体験したことがある以上、半端なことはしたくなかった。」
電気的な補正を担っているのはTrinnov Audio MC-PROとAvid Pro Tools | MTRX II。MC-PROはDante入力仕様となっており、先にこちらで補正をおこない、MTRX II内蔵のSPQ機能を使用してディレイ値やEQの細かい部分を追い込んでいる。「MC-PROの自動補正は大枠を決めるのにすごく便利。SPQは詳細な補正値を確認しながらマニュアルで追い込んでいけるのが優れている」と感じているようだ。
📷「最初から導入を決めていた」というTrinnov MC PROは数多くの実績を持つ音場補正ソリューション。MC PROもパワーアンプもDante入力を持つモデルを選定しており、システム内の伝送はすべてDanteで賄えるように設計されている。
テクノロジーとユーティリティの両立
📷「Studio 2」のミキシング・デスク。コントロール・サーフェスはPro Tools | S1とPro Tools | Dockの組み合わせ。デスク上にはRedNet X2PやDAD MOMも見える。
Studio 2のシステム内部はすべてデジタル接続。Studio 1 - Studio 2間の音声信号がMADIである以外は、パワーアンプの入力まですべてDanteネットワークによって繋がっている。モニターセクションの音声信号はすべて96kHz伝送だ。パッチ盤を見るとキャノン端子は8口しかなく、DanteやMADI、HDMIなどの端子が備わっていることにスタジオの先進性が見て取れる。
メインMacはMac Studio M2 UltraとSonnet DuoModo xEcho IIIシャーシの組み合わせ。MacBookなどの外部エンジニアの持ち込みを想定して、HDXカードをシャーシに換装できるこの形としている。オーディオI/OはAvidのフラッグシップであるPro Tools | MTRX II。「MTRX IIになって、DanteとSPQが標準搭載になったことは大きい。」という。オプションカードの構成はAD x2、DA x2、Dante x1、MADI x1、DigiLink x2となっており8個のスロットをフルに使用している。確かに、同じ構成を実現するためには初代MTRXだったらベースユニットが2台必要なところだった。合計3組となるDigiLinkポートは、それぞれ、ステレオ、5.1、Dolby Atmos専用としてI/O設定を組んでおり、出力フォーマットが変わるたびにI/O設定を変更する必要がないように配慮されている。
📷左)本文中にもある通り「初代MTRXなら2台導入する必要があった」わけで、結果的にMTRX IIの登場は「Studio 2」の実現にも大きく貢献したということになる。中)メインMacをMac Studio + TBシャーシとすることで、クリエイターがMacを持ちこんだ場合でもHDXカードを使用した作業が可能になっている。RMU I/FのCore 256はあらゆるフォーマットの音声をRMUに接続。「Studio 2」ではDanteまたはMADIを状況に応じて使い分けている。
Dolby Atmosハードウェア・レンダラー(HT-RMU)はMac miniでこちらもCPUはM2仕様。Apple Siliconは長尺の作品でも安定した動作をしてくれるので安心とのこと。RMUのI/FにはDAD Core 256をチョイス。Thunderbolt接続でDante / MADIどちらも受けられることが選定の決め手になったようだ。96kHz作業時はDante、48kHzへのSRCが必要な時はDirectOut Technologies MADI.SRCを介してMADIで信号をやりとりしているという。
Studio 2のサイドラックには、ユーティリティI/OとしてThunderbolt 3オプションが換装されたPro Tools | MTRX Studioが設置されているほか、Focusrite RedNet X2PやNeumann MT48も見える。Studio 2でちょっとした入出力がほしくなったときに、パッと対応できるようにしてあるとのこと。「作曲家やディレクターにとってソフトウェアでの操作はわかりにくい部分があると思うので、直感的に作業できるように便利デバイスとして設置してある」という配慮のようだ。
📷左右のサイドラックには、Logic ProやSpat RevolutionがインストールされたMacBook Pro、フロントパネルで操作が可能なMTRX Studio、各種ショートカットキーをアサインしたタブレット端末などを設置。
個人的に面白いと感じたのは、AudioMovers Listen ToとBinaural Rendererの使い方だ。DAWのマスター出力をインターネット上でストリーミングすることで、リモート環境でのリアルタイム制作を可能にするプラグインなのだが、この機能を使ってスマートフォンにリンクを送り、AirPodsでバイノーラル・ミックスのチェックを行うのだという。たしかに、こうすればわざわざマシンルームまで行ってMacとBluetooth接続をしなくて済んでしまう。
操作性の部分でもこれほどまでに追い込まれているStudio 2だが、「それでも、これをこう使ったらできるんじゃないか!?と思ったことは、実際にはほとんどできなかった」と古賀氏は話す。古賀氏のアイデアは、進歩するテクノロジーをただ追うのではなくむしろ追い越す勢いで溢れ出しているということだろう。
「Amazonで見つけて買った(笑)」というデスクは、キャスターと昇降機能付き。作業内容やフォーマットによってミキシングポイントを移動できるように、ケーブル長も余裕を持たせてあるという。「この部屋にはこれだけのスペックを詰め込みましたけど、内覧会で一番聞かれたのが、そのデスクと腰にフィットする椅子、どこで買ったんですか!?だった(笑)」というが、確かに尋ねたくなる気持ちもわかるスグレモノだと感じた。
紆余曲折を経て、結果的に古賀氏自身のメインスタジオよりも高機能・高品質なスタジオとなったStudio 2だが、このことについて古賀氏は「9.1.4のStudio1を作ってからの3年間で、9.1.6に対応したスタジオは国内にだいぶ増えたと思ってます。だったら、ぼくがまた同じことをやっても意味がない。ぼくが先頭を走れば、必ずそれを追い越すひとたちが現れます。そうやって、国内シーンの盛り上がりに貢献できたらいい」と語ってくれた。「このスタジオのようなスペックが当たり前になった暁には、ぼくはここを売ってまた新しい部屋をつくります!今度は天井高が取れる場所がいいな〜」といって笑う古賀氏だが、遠くない将来、きっとその日が来るのだろうと感じた。
*ProceedMagazine2024号より転載
Music
2024/08/13
Bob Clearmountain〜 伝説のエンジニア ボブ・クリアマウンテンが描くミックス・ノウハウのすべて 〜
去る4月、伝説のレコーディング・エンジニアであるボブ・クリアマウンテン氏が来日。東京・麻布台のSoundCity B Studioにおいて「伝説のエンジニア ボブ・クリアマウンテンが描くミックス・ノウハウのすべて」と題したセミナー・イベントが開催された。受講者20名限定で開催されたこのイベントでは、注目を集める“音楽のイマーシブ・ミックス”について、ボブ・クリアマウンテンがそのワークフローとテクニックを約3時間にわたって解説。途中、一般には公開されていない著名な楽曲のイマーシブ・ミックスが特別に披露されるなど、大変充実した内容のイベントとなった。ここではその模様をダイジェストでお伝えしたい。
イマーシブ・オーディオへの取り組み
Bob Clearmountain氏:私は音楽のサラウンド・ミックスにいち早く取り組んだエンジニアのひとりだと思いますが、イマーシブ・オーディオに関しては、妻(注:Apogee ElectronicsのCEO、ベティー・ベネット氏)から、“これは素晴らしいテクノロジーだから、ぜひ取り組むべきだ”と背中を押されたことがきっかけになりました。実際に音楽のイマーシブ・ミックスを手がけたのは、皆さんご存知のザ・バンドが最初です。私はザ・バンドの名盤3作品の5.1chミックスを手がけたのですが、その中の1枚「カフーツ」というアルバムの作業をしているときに、レコード会社の担当者から、“Dolby Atmosでもミックスしてみないか”というオファーがあったのです。
その後間もなく、ジョー・ボナマッサの「Time Clocks」というアルバムもDolby Atmosでミックスしました。これが私にとって音楽のイマーシブ・ミックスの2作目になります。このアルバムのプロデューサーであるケヴィン・シャーリーはオーストラリア出身で、ディジュリドゥのサウンドがとても印象的な作品です。このアルバムは何年も前の作品であったため、レーベル・サイドもアーティスト本人も、最初はDolby Atmos化にあまり関心がありませんでした。ただ、私は自分のスタジオをDolby Atmosに対応させたばかりだったので、Dolby Atmosバージョンをジョー・ボナマッサ本人、ケヴィン・シャーリー、レーベルのスタッフに聴いてもらったのです。そうしたら彼らはそのサウンドに感銘を受け、“これは素晴らしい、ぜひリリースしよう”ということになりました。それがきっかけで、ケヴィンも自身のスタジオをDolby Atmosに対応させましたよ(笑)。
私は1980年代、ロキシー・ミュージックの「Avalon」というアルバムをミックスしましたが、あれだけ様々な要素が含まれている作品がステレオという音場の中に収められているのはもったいないと前々から感じていました。もっと音場が広ければ、要素をいろいろな場所に定位できるのに… という想いが、常に頭の中にあったのです。もちろんそれは、イマーシブ・オーディオどころか、サラウンドが登場する以前の話で、いつかその想いを叶えたいと思っていました。その後、念願かなって「Avalon」のサラウンド・ミックスを作ることができました。そしてイマーシブ・オーディオの時代が到来し、「Avalon」のプロデューサーであるレット・ダヴィースと“これは絶対にDolby Atmosでミックスするべきだ”ということになったのです。
Dolby Atmosバージョンの「Avalon」を体験された方なら分かると思いますが、かなりの要素が後方に配置されており、そのようなバランスの楽曲は珍しいのではないかと思います。たとえば、印象的な女性のコーラスも後方に配置されています。なぜこのようなバランスにしたかと言えば、ステレオ・ミックスを手がけたときもそうだったのですが、演劇のような音響にしたいと考えたからです。楽曲に登場する演者、ボーカリスト、プレーヤーを舞台に配置するようなイメージでしょうか。ですので、キーとなるブライアン・フェリーのボーカルはフロント・センターですが、他の要素は異なる場所に定位させました。
イマーシブ・ミックスというと、多くの要素が動き回るミックスを想起する方も多いのではないかと思います。もちろん、そういうミックスも可能ですが、Dolby Atmosバージョンの「Avalon」ではそういうダイナミックなパンニングはほとんどありません。言ってみれば静的なミックスであり、ジェット機やヘリコプター、アイアンマンが登場するようなミックスではないのです。
SSL 4000Gを使用したイマーシブ・ミックス
📷オーディオの入出力を担うのはApogeeのSymphony I/O Mk II。Atmosミックスとステレオミックスを同時に作るワークフローではこれらを切り替えながら作業を行うことになるが、その際に素早く切り替えを行うことができるSymphony I/O Mk IIのモニター・コントロール機能は重宝されているようだ。SSL 4000Gの後段にある「プリント・リグ」と呼んでいるセクションで下図のようなセッティングを切り替えながら制作が進められていく。
私はイマーシブ・ミックスもアナログ・コンソールのSSL 4000Gでミックスしています。SSL 4000Gには再生用のAvid Pro Toolsから72chのオーディオが入力され、そしてミックスしたオーディオは、“プリント・リグ”と呼んでいる再生用とは別のPro Toolsにレコーディングします。“プリント・リグ”のPro Toolsは、最終のレコーダーであると同時にモニター・コントローラーとしての役割も担っています。
そして再生用Pro Toolsと“プリント・リグ”のPro Tools、両方のオーディオ入出力を担うのは、ApogeeのSymphony I/O Mk IIです。私は、ステレオ・ミックスとDolby Atmosミックスを同時に作りますが、Symphony I/O Mk IIでのモニター・コントロール機能は、まさしく私のワークフローのために搭載されているような機能と言えます。私は7.1.4chのDolby Atmosミックスと、ニア・フィールド・スピーカーやテレビなどに送る3組のステレオ・ミックスを切り替えながら作業を行いますが、Symphony I/O Mk IIではそういったワークフローに最適な機材です。ステレオ・ペアを最大16組作成することができ、非常に柔軟な作業環境を構築できるため、過去に手がけた5.1chのサラウンド・ミックスと比較しながらの作業も容易です。
肝心のミキシングについて、アナログ・コンソールのSSL 4000Gで一体どのようにイマーシブ・ミックスを行っているのか、疑問に感じた人もいるかもしれません。しかし決して特別なことを行っているわけではなく、そのルーティングはストレートでシンプルです。SSL 4000Gに入力した信号は、チャンネル・ストリップで調整した後、Dolby Atmos用のチャンネルとして、スモール・フェーダーのトリム・チャンネルを活用して送っているのです。スモール・フェーダーは基本ユニティーで使用し、レベルはラージ・フェーダーの方で調整してから、ポスト・フェーダーでスモール・フェーダーに送ります。スモール・フェーダーから2本のスピーカーに同時に送ることは基本ありませんが、隣り同士のスピーカーに同じ信号を送って、パンでバランスを調整することはあります。また、このルーティングですと、基本オートメーションを使用することができません。オートメーションを使いたいときは、専用のバスを作り、そちらに送ることで対処しています。
私のSSL SL4000Gは特別仕様で、VCAとバス・コンプレッサーが4基追加で備わっています。標準のステレオ・バスのDCを、追加搭載した4基のVCA / バス・コンプレッサーにパッチすることで、すべてのバス・コンプレッサーの挙動をスレーブさせ、ステレオ・ミックスとマルチ・チャンネル・ミックスのコンプレッションの整合性を取っているのです。ただ、これだけの構成では5.1chのサラウンド・ミックスには対応できても、7.1.4chのイマーシブ・ミックスには対応できません。それでどうしようかと悩んでいたときに、Reverb(編注:楽器・機材専門のオンライン・マーケットプレイス)でSSLのVCA / バス・コンプレッサーをラック仕様にノックダウンした機材を発見し、それを入手して同じようにDC接続することで、7.1.4chのイマーシブ・ミックスに対応させました。これはとてもユニークなシステムで、おそらく世界中を探しても同じようなことをやっている人はいないと思います(笑)。もちろん、サウンドは素晴らしいの一言です。
Dolby Atmosミックスは、7.1.2chのベッドと最大128個のオブジェクトで構成されますが、私は基本的にベッドルーム(7.1.2)でミックスを行います。オブジェクトは動く要素、たとえば映画に登場するヘリコプターなどのサウンドを再現する上では役に立ちますが、音楽のイマーシブ・ミックスにはあまり必要だとは思っていません。ですので、Dolby Atmosミックスと言っても私はハイト・スピーカーを除いた7.1chで音づくりをしています。なお、ハイト・チャンネルに関してDolby Laboratoriesは2chのステレオとして規定していますが、私は4chのクアッドとして捉え、シンセサイザーやスラップバック・ディレイなどを配置したりして活用しています。
ステレオ・ミックスのステムはできるだけ使用しない
先ほどもお話ししたとおり、私はステレオ・ミックスとDolby Atmosミックスを同時に行います。最初にステレオ・ミックスを作り、そこから書き出したステムを使ってDolby Atmosミックスを作る人が多いと思うので、私のワークフローは珍しいかもしれません。なぜステレオ・ミックスとDolby Atmosミックスを同時に行うのかと言えば、私はステレオ・ミックスから書き出したステムに、ミキシングを縛られたくないからです。ステレオ・ミックスのステムは、エフェクトも一緒に書き出されてしまっているため、もう少しフィールドを広げたいと思っても簡単にはいきません。楽曲の中心であるボーカルですらまとめられてしまっているので、私はDolby Atmosミックスに入る前に、iZotope RXを使ってセンターのボーカルとサイドのボーカルを分離します。
ですので、可能な限りオリジナルのセッションからDolby Atmosミックスを作るべきであると考えていますが、これは理想であって、実際には難しいケースもあるでしょう。もちろんステムから作られたDolby Atmosミックスの中にも素晴らしい作品はあります。たとえば、アラバマ・シェイクスのボーカリスト、ブリタニー・ハワードの「What Now」という曲。このミックスを手がけたのはショーン・エヴェレットというエンジニアですが、彼はステムをスピーカーから再生して、それをマイクで録音するなど、抜群のクリエイティビティを発揮しています。まさしくファンキーな彼のキャラクターが反映されたミックスだと思っています。
アーティストの意向を反映させる
最近はレコード会社から、昔の名盤のDolby Atmos化を依頼されることが多くなりました。しかしDolby Atmos化にあたって、アーティスト・サイドの意向がまったく反映されていないことが多いのです。意向が反映されていないどころか、自分の作品がDolby Atmosミックスされたことをリリースされるまで知らなかったというアーティストもいるくらいです。音楽はアーティストが生み出したアート作品です。可能な限りアーティストの意向を反映させるべきであると考えています。
私が1980年代にミックスしたヒューイ・ルイス&ザ・ニュースの「Sports」というアルバムがあります。何年か前にこの作品のディレクターから、“「Sports」のDolby Atmosミックスを作ったので聴いてみないか”という連絡がありました。興味があったので聴きに行ったのですが、その場にいた全員が“これは何かの冗談だろ?”と顔を見合わせるくらいひどいミックスだったのです。試聴環境のセットアップは完璧でしたが、聴くに耐えないミックスでどこかを修正すれば良くなるというものではありません。私はディレクターに、“Dolby Atmosミックスを作り直させてくれないか”と打診しました。予算を使い切ってしまったとのことだったのですが、個人的に思い入れのある作品だったということもあって、無償で引き受けることにしたんです。
この話には余談があります。「Sports」のDolby Atmosミックスは、Apple Musicでの配信直後にリジェクトされてしまったのです。なぜかと言うと、オリジナルのステレオ・ミックスには入っていない歌詞が入っているから。私はDolby Atmosミックスを行う際にあらためてマルチを聴き直してみたのですが、おもしろい歌詞が入っていたので、それを最後に入れてしまったんです(笑)。Appleはオリジナルの歌詞とDolby Atmosミックスの歌詞が同一でないとリジェクトしてしまうので、過去の作品のDolby Atmos化を検討されている方は気をつけてください。彼らはしっかりチェックしているようです(笑)。また、Appleは空間オーディオ・コンテンツの拡充に力を入れていますが、ステレオ・ミックスを単純にアップ・ミックスしただけの作品も基本リジェクトされてしまいます。
一世を風靡した“ボブ・クリアマウンテン・サウンド”
私は古くからの友人であるブライアン・アダムスのヒット曲、「Run To You」もDolby Atmosでミックスしました。Dolby Atmosミックスの話に入る前に、どうやってこの特徴的な’80sサウンドを生み出したのか、少しご紹介しておきましょう。
この曲はカナダのバンクーバーにある「Little Mountain Studio」というスタジオでレコーディングを行いました。私はこの曲のドラムを“ビッグ・サウンド”にしたいと考えたのですが、「Little Mountain Studio」のライブ・ルームはかなりデッドで、私がイメージしていた“ビッグ・サウンド”には不向きな空間だったのです。一体どうしたものか…と思案していたとき、ライブ・ルームの真横にローディング・ベイ、 いわゆるガレージのようなスペースがあることに気付きました。試しにそこで手を叩いてみたところ、コンクリートが気持ちよく反響したので、私はドラムの周囲に比較的硬めの遮蔽板を設置し、残響をローディング・ベイ側に逃すことで、大きな鳴りのドラム・サウンドを作り出したのです。本当に素晴らしいサウンドが得られたので、このセッティングを再現できるように、アシスタントに頼んでドラムやマイクの位置を記録してもらいました。ですので、この“ビッグ・サウンド”は、後にこのスタジオでレコーディングされたボン・ジョヴィやエアロ・スミスの曲でも聴くことができます。
「Run To You」をレコーディングしたのはもう40年も前のことになりますが、自分がやっていることは今も昔も大きく変わっていません。確かに世の中にはトレンドというものがあります。「Run To You」をレコーディングした1980年代はリバーブが強いサウンドが主流でしたが、1990年代になると逆にドライなサウンドが好まれるようになりました。そしてご存知のとおり、現代は再びリバーブを使ったサウンドが主流になっています。そういったトレンドに従うこともありますが、私は天邪鬼なのでまったく違ったサウンドを試すこともあります。いつの時代も自分のスタイルを崩すことはありません。
よく“ボブ・クリアマウンテン・サウンド”と言われることがありますが、私は自分のサウンドについて意識したことはありません。私はあくまでもクライアントであるアーティストのためにミックスを行っているのです。アーティストと一緒に作り上げたサウンドが、結果的に“ボブ・クリアマウンテン・サウンド”になっているのではないかと思っています。
イマーシブ・ミックスにおける各要素の定位
「Run To You」のDolby Atmosミックスについてですが、まずセンターには楽曲の基盤となるボーカル、ベース、スネア、キックといった音を定位させました。こういった音をなぜセンターに集めるかと言うと、私はライブ・コンサートのようなイメージでミックスを行うからです。ロックやポップスのライブ・コンサートでは、これらの音がセンターから聴こえます。ご存知のように、再生環境におけるセンター・スピーカーという考え方は映画から来ています。映画の中心となる音はダイアログで、それはほとんどの場合がセンターに定位されます。その考え方をそのまま音楽に適用しても、問題はないと考えています。
それではサイド、リア、ハイトには、どのような音を定位させるのがいいのでしょうか。楽曲の基盤となる音に関してはセンターに集めた方がいいと言いましたが、同じギターでもパワー・コードのような音ではない、たとえばアコースティック・ギターのような音ならば、サイドに振ってみてもいいかもしれません。キーボードに関しても同じで、ピアノはセンターに定位させる場合が多いですが、シンセサイザーのような音はリアやハイトに定位させると良い結果が得られます。
Dolby Atmosというフォーマットにおいて特徴的な要素と言えるのが、ハイト・スピーカーです。“音楽のミックスで、ハイト・スピーカーなんて使いどころがあるのか?”と思われる人もいるかもしれませんが、実際はとても有用です。たとえば私はアンビエンス… リバーブで作り出した残響ではなく、インパルス・レスポンスにおけるアンビエンスをハイト・スピーカーに送り、これによって空間の高さを演出しています。
もうひとつ、LFEという要素についてです。サブ・ウーファーに関してはミックスを補強してくれる有用な要素ではあるのですが、必須ではないというのが私の考え方です。私はLFEなしでミックスを成立させ、それを補強する際に使用しています。また、ミッド・ファーはバイノーラルのオプションではグレイアウトされて設定することができません。あまりLFEに頼り過ぎてしまうと、ヘッドホンで聴いたときに音像が崩れてしまうので注意が必要です。
イマーシブ・ミックスにおけるエフェクト処理
「Run To You」のDolby Atmosミックスでは、ボーカルだけでなくシンセサイザーのディレイ音もリアに配置しています。タイミングが楽曲のテンポよりもオフなので、一聴すると“曲に合っているのか?”と思う人もいるかもしれませんが、ディエッサーを強めにかけることによってミックスに戻した際に馴染むサウンドを作り出しているのです。ギターに関しても同じく、それだけで聴くとバラバラな印象があったので三連符のディレイを使用し、ディレイ音が返る度にリバーブを付加していき、さらには歪みも加えることで、奥行き感と立体感のあるサウンドを作り出しています。こういったエフェクトには、私が開発に関わったApogee Clearmountain’s Domainを使用しました。先ほども言ったとおり、私の頭の中にあったのはライブ・コンサートのようなサウンドです。私はライブ・サウンドが大好きなので、それをスタジオで再現するという音作りになっています。また、パーカッションが空間の中を飛び回っているように聴こえるかもしれませんが、こういったサウンドもエフェクトのみで作り出しています。このミックスではオブジェクトを使用していません。楽曲を構成する要素はステレオ・ミックスと同一です。スピーカーの構成が違うだけで、こうも印象が変わるという好例だと思います。
プラグインに関して、イマーシブ・ミックスで最も多用しているのがクアッド処理に対応しているリバーブです。具体的にはApogee Clearmountain’s Domainを最もよく使います。イマーシブ・ミックス用のクアッド・リバーブは、そのままフォールドバックしてステレオ・ミックスにも使用します。最近は位相を自動で合わせてくれたりするような管理系のプラグインが多く出回っていますが、そういったツールを使い過ぎるとサウンドのパワー感が失われてしまうような印象を持っています。実際にそういったツールを使ったことがありますが、最終的には使用しない方が良い結果になったケースの方が多かったです。
📷Apogee Clearmountain’s Domain:ミックスでも多用しているというApogee Clearmountain’s Domain。画面左側のシグナルフローに沿うようにボブ・クリアマウンテン独自のFXシグナルチェーンを再現している。もちろん、プリセットもボブ独自のものが用意されており、ロードして「あの」サウンドがどのように構築されているのかを解析するという視点も持つと実に興味深いプラグインだと言えるだろう。
イマーシブ・オーディオで楽曲の物語性を強化する
イマーシブ・オーディオは、アーティストが楽曲に込めた物語性を強化してくれるフォーマットであると考えています。私の古くからの友人であるブルース・スプリングスティーンは歌詞をとても重視するアーティストです。彼は歌詞に込めた物語性をいかにサウンドに盛り込むかということを常に考えており、私は彼のそういう想いをミックスで楽曲に反映させようと長年努力してきました。
ブライアン・フェリーの「I Thought」という曲があります。それほど有名ではないかもしれませんが、私のお気に入りの曲です。この曲の歌詞は、男性がガール・フレンドに対して抱いているイメージが、徐々に現実とは違うことに気づいていく… という内容になっています。男性が想っているほどガール・フレンドは彼のことを想っているわけではない…。これはブライアンから聞いたストーリーではなく歌詞を読んだ私の勝手な解釈ですが、私はこの解釈に基いてモノラルで始まるシンプルな音像がどんどん複雑な音像になっていく… というイメージでミックスしました。そして最後は男性の悲しさや虚しさについてをノイズを強調することで表現したのです。ちなみにこの曲はブライアン・フェリー名義ですが、ロキシー・ミュージックのメンバーも参加しています。おそらく最後のノイズはブライアン・イーノのアイデアだったのかなと想像しています。
Dolby Atmos for Everyone!
Dolby Atmosに興味はあるけれども、制作できる環境を持っていないという人も多いかもしれません。しかしその敷居は年々低くなっており、いくつかのDAWの最新バージョンにはDolby Atmosレンダラーが標準で搭載されています。その先駆けとなったのがApple Logic Proで、Steinberg NuendoやPro Toolsの最新バージョンにもDolby Atmosレンダラーが統合されています。このようにDolby Atmosは決して特別なものではなく、今や誰でも取り組むことができるフォーマットと言っていいでしょう。もちろん、Symphony I/O Mk IIはこれらすべてのDAWに対応しています。その柔軟なモニター・コントロール機能は、Dolby Atmosコンテンツの制作に最適ですので、ぜひご購入いただければと思います(笑)。Dolby Atmosで作業するには多くのオーディオ入出力が必要になりますが、Symphony I/O Mk IIではDanteに対応しています。コンピューター側に特別なハードウェアを装着しなくても、Dante Virtual Soundcardを使用すれば、Symphony I/O Mk IIとDanteで接続することができます。この際に有用なのがGinger Audioというメーカーが開発しているGroundControl SPHEREで、このソフトウェアを組み合わせることによって複雑なルーティングでも簡単かつ効率よくセットアップすることができます。
私が今日、明確にしておきたいのは、イマーシブ・オーディオというのは新しいテクノロジーではあるのですが、多くのレコード会社がサポートしてくれているので、一時のブームで廃れてしまうようなものではないということです。これからイマーシブ・ミックスされた素晴らしい作品がどんどんリリースされることでしょう。我々ミュージック・プロダクションに携わる者たちは、皆で情報交換をしてこの新しいテクノロジーを積極的にバックアップしていくべきだと考えています。
今回のセミナーでは、私が行なっているDolby Atmosミックスのワークフローについてご紹介しましたが、必ずしもこれが正解というわけではありません。たとえば、私はセンター・スピーカーを重要な要素として捉えていますが、エンジニアの中にはセンター・スピーカーを使用しないという人もいます。そういうミキシングで、アーティストのイメージが反映されるのであれば、もちろん何も問題はないのです。ですので、自分自身のアイデアで、自分自身の手法を見つけてください。
充実の内容となった今回のセミナー。イマーシブサウンドという新たな世界観を自身のワークフローで昇華してさらに一歩先の結果を追い求めている様子がよくわかる。その中でも、アーティストの意図をしっかりと反映するためのミックスという軸は今も昔も変わっておらず、“ボブ・クリアマウンテン・サウンド”とされる名ミックスを生み出す源泉となっているように感じる。レジェンドによる新たな試みはまだまだ続きそうだ。
*ProceedMagazine2024号より転載
Media
2024/08/09
N響「第9」、最先端イマーシブ配信の饗宴。〜NHKテクノロジーズ MPEG-H 3D Audio 22.2ch音響 / NeSTREAM LIVE / KORG Live Extreme〜
年末も差し迫る2023年12月26日に行われた、NHKホールでのNHK交響楽団によるベートーヴェン交響曲第9番「合唱つき」のチャリティーコンサート。 その年の最後を飾る華やかなコンサートと同時に、NHKテクノロジーズ(NT)が主催する次世代を担うコンテンツ配信技術のテストだ。次世代のイマーシブ配信はどのようになるのか、同一のコンテンツをリアルタイムに比較するという貴重な機会である。その模様、そしてどのようなシステムアップが行われたのか、壮大なスケールで行われた実験の詳細をレポートする。
●取材協力
・株式会社NHKテクノロジーズ
・株式会社クープ NeSTREAM LIVE
・株式会社コルグ Live Extreme
3つのイマーシブオーディオ配信を同時テスト
まずは、この日に行われたテストの全容からお伝えしたい。イマーシブフォーマット・オーディオのリアルタイム配信実験と言ってもただの実験ではない、3種類のフォーマットと圧縮方式の異なるシステムが使われ、それらを比較するということが行われた。1つ目は、次世代の放送規格としての8K MPEG-H(HEVC+22.2ch音響MPEG-H 3D Audio *BaselineProfile level4)の配信テスト。2つ目がNeSTREAM LIVEを使った、4K HDR(Dolby Vision)+ Dolby Atmos 5.1.4ch@48kHzの配信テスト。3つ目がKORG Live Extremeを使った、4K + AURO-3D 5.1.4ch@96kHzの配信テストだ。さらに、NeSTREAM LIVEでは、HDR伝送の実験も併せて行われた。イマーシブフォーマットのライブストリーム配信というだけでも興味深いところなのだが、次世代の技術をにらみ、技術的に現実のものとして登場してきている複数を比較するという取り組みを目にすることができるのは大変貴重な機会だと言える。
全体のシステムを紹介する前に、それぞれのコーデックや同時配信されたフォーマットなどを確認しておきたい。22.2chは、次世代地上デジタル放送での採用も決まったMPEG-H 3D Audioでの試験、NeSTREAM LIVEは、NetflixなどストリーミングサービスでのDolby Atmos配信と同一の技術となるDolby Digital Plusでの配信、KORG Live ExtremeはAURO-3Dの圧縮技術を使った配信となっている。圧縮率はNeSTREAM LiveのDolby Digital Plusが640kbps、次にMPEG-Hの22.2chで1chあたり80kbps。Live Extremeは10Mbps程度となっている。
映像についても触れておこう。22.2chと組み合わされるのは、もちろん8K HEVCの映像、NeSTREAM LIVEは同社初のチャレンジとして4K Dolby Visonコーデックによる4K HDR映像の配信テストが合わせて行われた。KORG Live Extremeは、4Kの動画となっている。次世代フォーマットであるということを考えると当たり前のことかもしれないが、各社イマーシブと組み合わせる音声として4K以上の動画を準備している。KORG Live Extremeでは、HPLコーデックによる2chバイノーラルの伝送実験も行われた。イマーシブの視聴環境がないという想定では、このようなサブチャンネルでのバイノーラル配信というのは必要なファクターである。ちなみに、Dolby Atmosであれば再生アプリ側でバイノーラルを作ることができるためこの部分に関しては大きな問題とならない。
IPで張り巡らされたシステムアップ
📷仮設でのシステム構築のため、長距離の伝送を絡めた大規模なシステムアップとなっている。DanteのFiber伝送、Riedel MediorNet、OTARI LightWinderが各種適材適所で使われている。また、できるかぎり信号の共有を図り、チャンネル数の多いイマーシブサウンド3種類をうまく伝送し、最終の配信ステーションへと送り込んでいるのがわかる。実際のミックスは、22.2chのバランスを基本にそこからダウンコンバート(一部チャンネルカット)を行った信号が使われた。
それでは、テストのために組み上げられた当日のシステムアップを紹介したい。NHKホールでのNHK交響楽団によるベートーヴェン交響曲第9番「合唱つき」のチャリティーコンサートは、ご存知の通り年末の恒例番組として収録が行われオンエアされている。その本番収録のシステムとは別に今回のテスト配信のシステムが組まれた。マイクセッティングについても、通常収録用とは別に会場のイマーシブ収録のためのマイクが天井へ多数準備された。ステージ上空には、メインの3点吊り(デッカベースの5ポイントマイク)以外にもワイドに左右2本ずつ。客席上空には22.2chの高さ2層のレイヤーを意識したグリッド上の17本のマイクが吊られていた。
📷客席上空に吊り下げられたマイク。田の字にマイクが吊られているのが見てとれる。これは22.2chのレイヤーそのものだ。NHKホールは放送局のホールということもあり、柔軟にマイクを吊ることができるよう設計されている。一般的なホールではなかなか見ることができない光景である。
マイクの回線はホール既設の音響回線を経由して、ホール内に仮設されたT-2音声中継車のステージボックスに集約される。ここでDanteに変換されたマイクの音声は、NHKホール脇に駐車されたT-2音声中継車へと送られ、ここでミックスが作られる。この中継車にはSSL System Tが載せられているおり、中継車内で22.2ch、Dolby Atmos準拠の5.1.4chのミックスが制作され出力される。ここまでは、KORG Live Extremeが96kHzでのテストを行うこともあり、96kHzでのシステム運用となっている。
22.2chと5.1.4ch@48kHzの出力は、MADIを介しRIEDEL MediorNetへ渡され、配信用のテスト機材が設置されたNHKホールの配信基地へと送られる。もう一つの5.1.4ch@96kHzの回線はOTARI Lightwinderが使われ、こちらもNHKホールの配信基地へと送られる。ホールの内外をつなぐ長距離伝送部分は、ホールから中継車までがDante。中継車からホールへの戻りは、MediorNetとLightwinderというシステムだ。それぞれネットワークケーブル(距離の関係からオプティカルケーブルである)でのマルチチャンネル伝送となっている。
📷T-2音声中継車とその内部の様子。
ホールの配信基地には22.2ch@MPEG-H、NeSTREAM LIVE、Live Extremeそれぞれの配信用のシステムがずらりと設置されている。ここでそれぞれのエンコードが行われ、インターネット回線へと送り出される。ここで、NeSTREAM LIVEだけは4K HDRの伝送実験を行うために、AJA FS-HDRによる映像信号のHDR化の処理が行われている。会場収録用のカメラは8Kカメラが使われていたが、SDRで出力されたためHDR映像へとコンバートが行われ、万全を期すためにカラリストがその映像の調整を行っていた。機械任せでSDRからHDRの変換を行うだけでは賄えない部分をしっかりと補正、さすが検証用とはいえども万全を期すプロフェッショナルの仕事である。
このようにエンコードされ、インターネットへと送出されたそれぞれのコーデックによる配信は、渋谷ではNHK放送センターの至近にあるNHKテクノロジーズ 本社で受信して視聴が行われるということになる。そのほか渋谷以外でも国内では広島県東広島芸術文化ホールくらら、海外ではドイツでの視聴が行われた。我々取材班は渋谷での視聴に立会いさせていただいたが、他会場でも問題なく受信が行えていたと聞いている。
📷上左)NHKホールの副調整室に設置された3つの配信システム。写真中央の2台並んだデスクトップのシステムは、KORG Live Extremeのシステムだ。上右)こちらが、NeSTREAM LIVEのDolby Atmos信号を生成するためのラック。ここでリアルタイムにDolby Digital Plusへとエンコードが行われる。下左)8K+22.2chを制作するためのPanasonic製レコーダー。8K 60Pの収録を可能とするモンスターマシンで収録が行われた。下右)NeSTREAM LIVEで使われたHDRの信号生成のためのラック。最上段のAJA FS-HDRがアップコンバートのコアエンジン。
それぞれに持つ優位性が明確に
実際に配信された3種類を聴いてみると、それぞれのメリットが際立つ結果となった。イマーシブというフォーマットの臨場感、このポイントに関してはやはりチャンネル数が多い22.2chのフォーマットが圧倒的。密度の濃い空間再現は、やはりチャンネル数の多さに依るところが大きいということを実感する。今回の実験では、ミキシングの都合からDolby Atmos準拠の5.1.4 chでの伝送となった他の2種の倍以上のチャンネル数があるのだから、この結果も抱いていたイメージ通りと言えるだろう。もう一つは、圧縮率によるクオリティーの差異。今回はKORG Live Extremeが96kHzでの伝送となったが、やはり低圧縮であることの優位性が配信を通じても感じられる。NeSTREAM LIVEについては、現実的な帯域幅で必要十分なイマーシブ体験を伝送できる、現在のテクノロジーレベルに一番合致したものであるということも実感した。その中でDolby Visionと組み合わせた4K HDR体験は、映像のクオリティーの高さとともに、音声がイマーシブであることの意味を改めて感じるところ。Dolby Vision HDRによる広色域は、映像をより自然なものとして届けることができる。それと組み合わさるイマーシブ音声はより一層の魅力を持ったものとなっていた。
前述もしているが、それぞれの配信におけるオーディオコーデックの圧縮率は、NeSTREAM LIVEのDolby Digital Plusが640kbps、次にMPEG-Hの22.2chが1chあたり80kbps。Live Extremeは10Mbps程度となっている。このように実際の数字にしてみると、NeSTREAM LIVEの圧縮率の高さが際立つ。640kbpsに映像を加えてと考えると、現時点ではこれが一番現実的な帯域幅であることは間違いない。
ちなみに、YouTubeの執筆時点での標準オーディオコーデックはAAC-LC 320kbpsである。言い換えれば、NeSTREAM LIVEはこの倍の帯域でDolby Atmosを配信できるということである。KORG Live Extremeにおける96kHzのクオリティーは確かに素晴らしかった、しかし10Mbpsという帯域を考えると多数へ行なわれる配信の性格上、汎用的とは言い難い一面も否めない。しかしながらプレミアムな体験を限定数に、というようなケースなど活用の可能性には充分な余地がある。22.2chのチャンネル数による圧倒的な体験はやはり他の追従を許さない。8K映像と合わせてどこまで現実的な送信帯域にまで圧縮できるかが今後の課題だろう。22.2ch音響を伝送したMPEG-H 3D Audioは任意のスピーカーレイアウトやバイノーラル音声に視聴者側で選択し視聴することができる。22.2ch音響の臨場感を保ったまま、視聴者の様々な環境で視聴することが可能となる。AVアンプやサウンドバー、アプリケーションなどの普及に期待したい。
このような貴重な実験の場を取材させていただけたことにまずは感謝申し上げたい。取材ということではあったが、各種フォーマットを同時に比較できるということは非常に大きな体験であり、他では得ることのできない大きな知見となった。伝送帯域やフォーマット、コーデックによる違い、それらを同一のコンテンツで、最新のライブ配信の現場で体験することができるというのは唯一無二のこと。これらの次世代に向けた配信が今後さらに発展し、様々なコンテンツに活用されていくことを切に願うところである。
*ProceedMagazine2024号より転載
Music
2024/01/18
DDM + AWS + WAVES クラウドミキシング / Dante Domain Managerでインターネットを越えるIP伝送
Ethernetを活用したAudio over IP(AoIP)伝送の規格、Dante。すでに設備やPAなど様々な分野でその活用が進んでいるこのDanteは、ローカルネットワーク上での規格となるため遠隔地同士の接続には向いていなかった。遠隔地への接続は低レイテンシーでの伝送が必要不可欠、そのためネットワーク・レイテンシーに対する要求はシビアなものとなる。これを解決するために、Danteの開発元であるAudinateが「インターネットを越えるDante」という、新しい一歩のためにDDM=Dante Domain Managerを利用する仕組みを完成させている。
DDM=Dante Domain Manager
ご存知の通り、Danteはローカルネットワーク上で低遅延のAoIPを実現するソリューションである。ローカルでの運用を前提としたDanteをInternetに出そうとすると、ネットワーク・レイテンシーが問題となり上手くいかない。それもそのはず、ローカルでの運用を前提としているため、最長でも5msまでのレイテンシーしか設定できないからである。このレイテンシーの壁を取り払うために最近活用が始まったのが、DDM=Dante Domain Managerである。
このソリューションは、単一IPセグメントの中での運用に限定されているDanteを、さらに大規模なシステムで運用するために作られたもの。ドメインを複数作成することでそれぞれのドメイン内でそれぞれがローカル接続されているかのような挙動をするものとしてリリースされた。例えば、2つのホールを持つ施設で、すべてのDante回線を同一のネットワークとすれば、それぞれの場所も問わず任意のDante機器にアクセスできる、という柔軟性を手に入れることができる。しかし、それぞれのホールにあるすべてのDante機器が見えてしまうと煩雑になってしまう。それを解決するためにDDMを導入してそれぞれのホールを別々のドメインとし、相互に見えてほしいものだけを見えるようにする。このような仕組みがDDMの基本機能である。
AWS上でDDMを動作しレイテンシー回避
このようなDDMの機能を拡張し、インターネットを越えた全く別のドメイン同士を接続するという仕組みが登場している。DDM上でのレイテンシーは40msまで許容され、遠隔地同士だとしても国内程度の距離であれば問題なく接続することが可能となっている。この場合には、送り手、受け手どちらかの拠点にDDMのアプリケーションが動作しているPCを設置して、そこを中継点として伝送を実現するというイメージである。ただし、世界中どこからでも、というわけにはいかない。なぜなら40msというネットワークレイテンシはそれなりに大きな数字ではあるが、回線のコンディション次第ではこの数字を超えるレイテンシーが発生する可能性があるからだ。
この40msを超えるネットワークレイテンシーの改善のためにクラウドサービスを活用するという仕組みも登場している。これはAWS上でDDMを動作させることで、CDNのように分散ネットワーク処理をさせてしまおうという発想だ。ローカルのDante機器は同一国内、もしくは近距離でレイテンシーについて問題がないAWSサーバーで動作するDDMへと接続される。AWS上では世界各地のAWSサーバー同士が同期されているため、その同期されたデータと受け取り先のローカルが、許容レイテンシー内のAWSサーバー上のDDMと接続することでその遅延を回避するという仕組みだ。この仕組みにより、世界中どこからでもDanteを使ったオーディオ伝送が実現されるというわけだ。
📷IBC2023 Audinateブースでの展示は、ロンドンのAWS上で動作するWAVES Cloud MXが動作していた。右の画面にあるようにAudinateでは世界中のAWSを接続しての実証実験を行っている。
WAVES Cloud MXでクラウドミキシング
2023年に入ってからは、このAWS上でDDMが動作するということで、WAVES Cloud MXと連携しての展示がNAB / IBC等の展示会で積極的に行われている。ローカルのDanteデバイスの信号をAWS上のDDMで受け取り、その信号を同一AWS上のWAVES Cloud MXが処理を行うというものだ。ただし、オーディオのクラウドミキサーはまさに始まったばかりの分野。クラウド上にオーディオエンジンがあるということで、どのようにしてそこまでオーディオシグナルを届けるのか?ということが問題となる。DDMはその問題を解決しひとつの答えを導いている。
📷画面を見るだけではクラウドかどうかの判断は難しい。しかしよく見るとeMotion LV1がブラウザの内部で動作していることがわかる。オーディオ・インターフェースはDante Virtual Soundcard、同一AWS内での接続となるのでレイテンシーの問題は無い。
ここで、WAVES Cloud MXについて少しご紹介しておこう。WAVES Cloud MXはプラグインメーカーとして知られるWAVES社がリリースするソフトウェアミキサーのソリューションである。WAVESはeMotion LV1というソフトウェアミキサーをリリースしている。WAVESのプラグインが動作するオーディオミキサーとして、中小規模の現場ですでに活用されているPAミキサーのシステムだ。このソフトウェアをAWS上で動作するようにしたものが、WAVES Clod MXである。ソフトウェアとしてはフル機能であり、全く同一のインターフェースを持つ製品となる。プラグインが動作するのはもちろん、ネットワークMIDIを活用しローカルのフィジカルフェーダーからの操作も実現している。どこにエンジンがあるかを意識させないレイテンシーの低い動作は、クラウド上でのビデオ・スイッチャーを手掛ける各メーカーから注目を集め、NABではSONY、GrassValleyといったメーカーブースでの展示が行われていた。Audioの入出力に関しては、NDI、Danteでの入出力に対応しているのがローカルでのeMotion LV1システムとの一番の違い。ローカルのeMotion LV1では、同社の作った規格であるSoundGridでしかシグナルの入出力は行えない。
WAVESの多彩なプラグインを活用できるため、例えばDanDuganのAutomatic Mixerを組み込んだり、トータルリミッターとしてL3を使ったりと、様々な高度なオーディオ・プロセッシングを実現できている。これは、クラウド上でのビデオ・スイッチャーが持つオーディオ・ミキサーとは別格となるため、その機能を求めてメーカー各社が興味を持つということに繋がっている。Clarity Vxのようなノイズ除去や、Renaissanceシリーズに代表される高品位なEQ、Compの利用を低レイテンシーで行うことができるこのソリューションは魅力的である。その登場当時はなぜクラウドでオーディオミキサーを?という疑問の声も聞かれたが、ここはひとつ先見の明があったということだろう。
世界中どこからの回線でもミックスする
クラウド上でのビデオ・スイッチャー、クラウドミキサーのソリューションは、そのままクラウド上で配信サービスへ接続されることを前提としてスタートしている。ローカルの回線をクラウド上で集約、選択して、そのまま配信の本線へと流す。非常にわかりやすいソリューションである。その次のステップとして考えられているのが、遠隔地同士の接続時に、回線をステム化して送るというソリューション。送信先の機材量を減らすという観点から考えれば、これもひとつの回答となるのではないだろうか。ローカルからは、完全にマルチの状態でクラウドへ信号がアップされ、クラウド上でステムミックスを作り、放送拠点へとダウンストリームされる。クラウド上で前回線のバックアップレコーディングを行うといったことも可能だ。インターネット回線の速度、安定性という不確定要素は常に付きまとうが、現場へ機材を持ち込むにあたっての省力化が行えることは間違いないだろう。
前述の通り、DDMを活用したこのシステムであれば、世界中どこからの回線でもミックスすることが可能である。さらに世界中どこからでもダウンストリームすることができる。国際中継回線など、世界中に同一の信号を配るという部分でも活用が可能なのではないだろうか?オリンピック、ワールドカップなどの大規模なイベントで、世界中の放送局へ信号配信する際にも活用が可能なのではないか、と想像してしまう。IPの優位点である回線の分配というメリットを享受できる一例ではないだろうか。
📷IBC2023 SONYブースにもWAVES Cloud MXが展示されていた。SONYのクラウド・ビデオ・スイッチャーのオーディオエンジンとしての提案である。こちらではDDMではなくNDIを使ってのオーディオのやり取りがスイッチャーと行われていた。手元に置かれたWAVESのフィジカルコントローラー「FIT Controller」はクラウド上のミキシングエンジンを操作している。
まだ、サービスとしてはスタートしたばかりのDDMとAWSを活用した遠隔地の接続。その仕組みにはDante Gatewayなどが盛り込まれ、同期に関してもフォローされたソリューションができあがっている。これらのクラウドを活用したテクノロジーは加速度的に実用化が進みそうである。
*ProceedMagazine2023-2024号より転載
Media
2024/01/02
株式会社Cygames 大阪サウンドフォーリースタジオ様 / 正解は持たずにのぞむ、フォーリーの醍醐味を実現する自社スタジオ
「最高のコンテンツを作る会社」をビジョンに掲げ、妥協のないコンテンツ制作に取り組む株式会社Cygames。ProceedMagazine 2022-2023号では大阪エディットルームの事例として、Dolby Atmos 7.1.4chに対応した可変レイアウトとなるスタジオ2部屋が開設された様子をご紹介したが、それとタイミングを同じくしてフォーリースタジオも大阪に設けられた。ここではそのフォーリースタジオについてレポートしていきたい。
同時期に3タイプのスタジオ開設を進める
Cygamesでは、スマートフォン向けのゲームタイトルだけではなく、コンシューマー系のタイトル開発にも力を入れている。近年のゲームはプラットフォームを問わず映像や音の表現が飛躍的に向上しており、フォトリアルで写実的な映像に合わせたサウンドを作る場面が増えてきた。効果音の制作については、それまでは外部のフォーリースタジオを借りて作業を行っていたが、効率性を考えれば時間や手間が掛かってしまうという制約があった。また、ゲーム作品では、例えばキャラクターの足音一つとっても多くの動作音があるだけでなく、ファンタジーの世界特有の表現が必要である。土、石畳、レンガ等といった様々な素材の音を既存のライブラリから作り上げるのは容易ではなく、完成度を上げていくことは中々に難しい作業だが、フォーリースタジオを使って収録した効果音は、生音ならではの音の良さに加え、ゲームによく馴染む質感の音に仕上がることが多かったという。
やはり自社のスタジオがあればより効率的に時間を使い、かつクオリティを高める試行錯誤も行えるのではないか、という思いを抱いていたところ、Cygamesのコンシューマーゲーム開発の拠点がある大阪でモーションキャプチャースタジオの設立計画が立ち上がったことをきっかけに、建物のスペック等を考慮してフォーリースタジオも同じ場所に設置する形でスタジオ設置に向けて動きだした。以前ご紹介した、MAスタジオの用途を担う大阪エディットルーム開設プロジェクトと合わせると、同時期に2つのサウンドスタジオ開設を進めるという大きなプロジェクトになったそうだ。
制約はアイデアでポジティブに変換する
フォーリースタジオを開設するための要件としてまず挙げられるのは部屋の高さと広さ。通常のレコーディングとは異なって物を振り回したりすることも多いフォーリー収録ではマストな条件となる。天井が低ければ物が当たってしまうのではないかという演者の不安とストレスを低減するため、部屋の中央付近の天井を一段高くする工夫が取り入れられている。広さについてもフォーリー収録時の演技をする上で充分なスペースを確保しているが、加えて壁の反射音の影響が強く出てしまわないよう、床やピットを部屋の真ん中に寄せて配置し、壁からの距離が取れるレイアウトを実現できた点も広さを確保できたメリットだ。
また、スタジオ内の壁面にはぐるりと木製のフローリングが敷かれ、そこも材質の一つとして使用できる。中央には大理石やコンクリート、水を貯められるようなピットが用意され多様な収録に対応できる環境が整えられた。一方、スタジオの広さがある故に反響をどのようにマネジメントするのかは大きな課題となっていたようだ。そこで取られた特徴的な対策だが、壁面の反射を積極的に発生させつつルームモードを起こさないように処理した上で、むしろその反響を収録での選択肢として活かせるようにしたそうだ。もちろん、部屋の外周に沿って用意されたカーテンによって反射面を隠し、反響をダンピングして抑えていくこともできる。さらに、日本音響エンジニアリングの柱状拡散体を設置してアコースティックも整えられており、当初は弊害と考えていた反響音を逆に利用することで、収録できる音の幅を拡げている。
施工は幾度と重なる打ち合わせやシミュレーションを経て行われたのだが、それでも予想できない不確定な要素も出てきたそうだ。例えば、このスタジオの特徴でもある天吊りマイク。天井に取り付けられた金属製のパイプに特型のマイクスタンドを引っ掛けて固定する仕様になっているのだが、実際に収録を行うとパイプに響いているのか、音声信号にノイズを感じることが出てきた。イメージ的にはドラムのオーバーヘッドを立てるイメージに近く、ドラムは音量が大きいためそれほど気になりはしないが、フォーリーの収録となると微細なノイズでも大きく感じることが多くなる。試行錯誤した結果、天吊りマイクスタンドを取り付ける際に固定ネジを締めすぎないようにすることでノイズを軽減できることがわかった。そのほかにも、部屋の天井から高周波の金属音が鳴っているようで調査したところ、空調のダクトが共振していることが判明。金属のダンピングを見直して解決したそうだ。細かな調整だが、このような積み重ねこそが収録のクオリティーアップには必要不可欠であるとのことだ。
📷ダンピングが見直されたという天吊りマイクブーム
集中環境とコミュニケーションの両立
スタジオのコンセプトで重要視している要素として、ストレスフリーであることが必要であると考えているそうだ。ブースとコントロールルームのスタッフの間で意思疎通がストレスなく行われなければ作業効率も落ちてしまい、認識の齟齬も起きがちだ。社内スタジオで自由に使える環境とはいえ、クオリティを高めるトライアンドエラーの時間まで削ってしまっては本末転倒になってしまう。
ところが、このスタジオはブースとコントロールルームが完全にセパレートされており、お互いの姿を確認できるようなガラス面も設けられていない。
一見するとコミュニケーションを妨げる要素になりそうだが、ガラス面を設けないことで演者が集中して演技に取り組める環境を整えられたという。演者にとって、人の目線があると気になって集中力の妨げになることもある。外部のスタジオでは収録の様子をクライアントがコントロールルームから見守るといったことも多いが、このスタジオは社内スタッフでの利用が主となるため、必ずしもコントロールルームから演者を直視できる必要はない。ただし、その分だけコミュニケーションを重視したシステムプランが採用された。
スタジオ内にはフォーリー収録用とは別に天吊りマイクが仕込まれており、コントロールルームからスタジオ内の音を聴くことができ、トークバックと両立できるようなコミュニケーションの制御も行なっている。映像カメラも各所に設置されており、コントロールルーム内のディスプレイにスタジオ内の様子が映され、その映像も各ディスプレイに好きなように出せるスイッチャーが設置されており、オペレーターの好みに合わせて配置することが可能となっている。コントロールルームとブースをアイソレーションすることによって演者が集中できる整った環境と、コミュニケーションを円滑にさせるシステムプランをしっかり両立させている格好だ。
正解を持たずに収録する、トライする機材
📷コントロールルームには左ラックにPUEBLO AUDIO/JR2/2+、右ラックに TUBE-TECH/HLT2Aが収められコンソールレスな環境となっている。
このスタジオではスタッフが持ち込みPCで収録することも想定されており、各種DAWに対応できるシステムが必要であった。シンプルかつシームレスにシステムを切り替えられ、コミュニケーションシステムとも両立させる必要がある。それをシステムの中核に Avid MTRXを据えることで柔軟な対応を実現している。また、「収録段階からの音作りがしっかりできるスタジオにしたい」というコンセプトもあり、アウトボード類の種類も豊富に導入された。コンプレッション、EQはデジタル領域よりもアナログ機材の方が音作りの幅が拡がるということだけではなく、その機材がそこにあるということ自体がスタッフのクリエイティビティを刺激する。スタッフが自宅で録るのではなく、「このスタジオで録りたい」という気持ちが起こるような環境を整えたかったそうだ。
そうして導入された機材のひとつが、PUEBLO AUDIO/JR2/2+。フォーリースタジオではごく小さな音を収録することが多く、ローノイズであることが求められる。過去の現場での実績からもこの機種が際立ってローノイズであることがわかっており、早々に導入が決まったようだ。また、ミキサーコンソールが無くアウトボードで補完する必要があったため、TUBE-TECH/HLT2AがEQとして据えられている。HLT2Aは繊細なEQというよりは極端なEQでサウンドを切り替えることもできるそうで、極端にローを上げて重たい表現ができないか、逆にローを切ってエッジの効いた表現はできないか、といった試行錯誤を可能にする。このほか、ヴィンテージ機材ならではのコンプレッション感が必要な場面も増えてきていることから、NEVE 33609Cも追加で導入されている。今後も機材ラインナップは充実されていくことだろう。
はじめからこういう音が録りたいというターゲットはあっても、正解を持たずに収録していくという工程がフォーリーの醍醐味だという。その中で誰でも使いやすい機材を選定するということを念頭に置き、スタッフからのリクエストも盛り込んでこれらの機材にたどり着いたそうだ。
スタジオは生き物、その成長を期待する
📷何よりもチームワークの良さが感じられた収録中の一コマと、気合いが込められた渾身の一撃も収録!!
こうして完成をみたスタジオであるが、S/Nも良く満足した録音が行えているそうだ。また、5.1chリスニングが可能となっている点もポイント。開発中のタイトルにコンシューマー作品が多く、サラウンド環境が必要なことに加え、映画のようにセンターの重要度が高いことから、ファントムセンターではなくハードセンターで収録したいという要望に沿ったものだ。また、映像作品やゲーム資料を確認しながらすぐに収録することができるため、フォーリーアーティストに映像作品の音を聴かせてクリエイティブへのモチベーションをアップしてもらいながら制作を進める、という点も狙いの一つだ。もちろん、自社スタジオとなったことで時間を気にせずクオリティの向上を目指せることが大きく、求める方向性をより具体化させて収録できるメリットは計り知れない。
今後について伺うと、スタジオは生き物であり、収録できるサウンドの特徴も次第に変わっていくと考えているそうだ。導入する資材が増えればそれが吸音や反射になって音も変わる。ピットについても使用していく経年変化でサウンドにも違いが出てくる。高域が落ち着いたり、もう少し角が取れてきたりと、年月を積み重ねてどのように音が変わっていくのかがすごく楽しみだと語っていただいた。
📷今回お話を伺った、サウンド本部/マネージャーの丸山 雅之氏(左)、サウンド本部/サウンドデザインチーム 村上 健太氏(中央)、妹尾 拓磨氏(右)。
目の前の制約はアイデアでポジティブに変換する、考え抜かれたからこそ実現できたメリット。そして、それを活かしたフォーリー収録には正解を持たずにのぞむ。ここに共通するのは先入観を捨てるということではないだろうか。先入観を「無」にしたならば、そこにあるのは創るというシンプルかつ純粋な衝動のみである。クリエイティブの本質を言い得たような、まさにプロフェッショナルの思考には感銘を受ける。今後もこのスタジオが重ねた年月は成長となって作品に反映されていくのだろう、フォーリー収録された素材がゲームというフィールドで表現されエンターテインメントを高めていくに違いない。
*ProceedMagazine2023-2024号より転載
Post
2023/12/28
maruni studio様 / studio m-one 9.2.6chイマーシブ構築、マルニビル改装工事の舞台裏
取材協力:株式会社エム・ティー・アール
ライブの映像コンテンツやMVをはじめ、CM、企業VP(=Video Package)など、音楽系を中心に幅広いポストプロダクション業務を手がけるマルニスタジオ。長年に渡りレコーディングスタジオとポスプロの両方を運営していた関係で、音楽系の映像コンテンツが全体の6割程度を占めるという。今年3月にリニューアルオープンされた同社所有のマルニビルは、その目玉として地下一階にDolby Atmos対応のサウンドスタジオ「studio m-one」を構えた。Musikelectronic Geithainの同軸スピーカーで統一された9.2.6ch構成のイマーシブサラウンド環境は見た目としても圧巻だが、商用スタジオとしても利用する多くの方にとって快適な環境となるよう、様々な工夫が取り入れられているという。
スケルトンから行ったリニューアル
目黒区青葉台、目黒川に程近い住宅街の一角に佇む自社所有のマルニビルは、およそ30年に渡りこの地でレコーディングスタジオとして運営されてきた。また、青葉台には当初からポスプロ業務をメインとしているもう一つの拠点が今も存在している。そして2020年3月、突然訪れたコロナ禍が世の中の動きを止めてしまったのと同様に、コンテンツ制作もしばらくの間停滞期を迎えることになる。そこで持ち上がったのが、両拠点をポストプロダクション業務に統一するというプロジェクトだ。その後社内協議を経て、自社ビルであることのメリットを活かし、全フロアを一度スケルトンにして再構築する改装工事実施を決断。2022年6月より工事がスタートし、数々の難局を乗り越えながら今年3月リニューアルオープンの運びとなった。
今回の改装工事の舞台裏はどのようなものだったのだろうか。スタジオマネージャー兼MAミキサーの横田智昭氏、MAミキサーの沖圭太氏にお話を伺ったところ、これからイマーシブ対応のスタジオを作りたいと考えている方にとって参考になるであろう、理想的なスタジオ構築へのヒントが見えてきた。
株式会社丸二商会
MARUNI STUDIO
Studio Manager
Chief Sound Engineer
横田智昭 氏
株式会社 丸二商会
MARUNI STUDIO
Sound Engineer
沖 圭太 氏
ROCK ON PRO(以下R):今回のスタジオリニューアルの最初のきっかけは何だったのでしょう。
横田: 率直な話、コロナ禍に突入してレコーディングの業務、スタジオで音を録るという仕事は停滞していた一方で、そういった中でもポスプロ業務の方は順調に稼働していました。そこで、このタイミングでポスプロ業務と拠点を統一しリニューアルしようという提案が社内から挙がったんです。
R:その後、具体的な計画や機材選定が始まったのではないかと思いますが、どのように進めていったのでしょう。
横田: このビルは自社ビルで、さらに吹き抜けがあり広く空間がとれる利点があったのですが、スケルトンまでできるという予算を確保できたのが一番大きかったですね。それが実現したからこそ、スタッフ全員で自由に考えられました。タスクの洗い出しというよりは、「自由にできるからこそ、どうレイアウトしていくのか?」というのを決めていくのが大変でした。あれこれ詰め込みすぎると予算が追いつかなくなったりして。
沖:この段階から冨岡さん(株式会社エム・ティー・アール 冨岡 成一郎氏)に相談でしたね。私はマルニと冨岡さんをつなぐ連絡担当だったのですが、無茶を言ってもレスポンスよく対応してくださいました。あと、実はスケルトンの話が出てくる前に、地下一階ではなく二階でやろうという話もありました。しかし検討していくと天井高も取れないし…ど〜にもならん!と(笑)。商業的に成り立たない、というのが分かったからこそ、思い切って「スケルトンからやろう!」という方向をみんなで向くことができたのは大きかったです。
R:では、リニューアル時にDolby Atmos対応というのは当初からお考えだったということですね。
横田: それは最初から考えていました。ポスプロのスタジオに転向するならAtmos対応にしたいと。
リニューアルが解決したポイント
📷著名な建築家によってデザインされたというこのマルニビルは、コンクリート打ちっぱなしの内壁のクールさと、階段などに見られるアール(曲面)の造形が生み出す人間的な温かみの対比がなんとも美しく印象的だ。
R:この新たなスタジオで解決された、以前からの課題はありましたか?
横田: MA室の場合、クライアントの方が大勢いらっしゃることがあります。中には、当然別の仕事も対応しながら立ち会われるということもありますが、コントロールルームの中ではそれを遠慮がちにされているのもこちらとしては心苦しかったんです。そこで、隣の前室にテレビとソファを用意して、そちらでもコントロールルームと同じ環境の音と画を流すことができるようにしました。クライアントの皆さんが別件対応を前室でしていても、コントロールルームの中で制作がどう進行をしているのかをすぐに確認できるという環境にしています。
また、コントロールルーム内とは別の場所で冷静に画音をチェックできるスペースができたというのは、従来の雑多になりがちな作業環境からすると改善されたポイントです。これは、他のMA室にもなかなか無い部分ではないかと思っています。あとは、極力スタジオ内のモノを減らす、ということですね。見ていただいて分かる通りかなり少ないと思います。音響面も含めてダイレクトな音を重視したいというのはずっと思っていて、卓上のものもなるべく小さくしました。
R:そうですよね、シンプルで洗練された印象を受けました。
📷前室にはDolby Atmos対応のサウンドバーSonos Beamを配置し、テレビのeARC出力からオーディオチャンネルを受けることでシンプルな配線を実現している。
📷優先的に導入したというTorinnov Audio D-MON、そしてDolby Atmos対応AVアンプDENON AVC-X6700Hなどが配置されたラック。
沖:機材的な話で言うと、最初の段階から決まっていたものとしてTorinnov Audio D-MON の導入がありました。これまでのMA室は15年くらい使っているのですが、経年変化もあり音を調整したいタイミングも出てきました。その調整幅が少ないというのはスタジオを長く使っていく上で、言わば足かせになってしまう、というのをすごく感じていたので、スタジオを作って今後も長く使っていけるようにしたかったんです。もちろんアコースティックな部分での調整を追い込むのも大事ですが、プラスして電気的に調整できる「伸びしろみたいなものを取っておきたい!」ということもあって、コストは高くついても「そこだけは譲らない!」というのはありまして、何も考えずに最初に予算に組み込みました(笑)。
R:もちろん出音の改善の意味もあるかと思うのですが、長く使っていく上でメンテナンス性をもたせる意味で導入されたのですね。
沖:当初はそうでしたが、結果的にAtmosの調整にもすごく良い効果が出ていますよ。
17本のMusikが表現する9.2.6ch
R:最初の段階から導入を決めていたものは他にもあるのでしょうか。
横田: 見ての通り、ムジークですね。この901のフロントのLCRは元々レコーディングで使っていたものなんです。これが、レコーディング用途であったとはいえ、私たちも当然よく聴き込んでいて素直にいいなと思わせるサウンドでした。そこで「せっかくあるこの901を活かして全てを組めないか?しかも9.2.6chという形で…」と冨岡さんにも相談させていただいて。そこもこだわりと言えばこだわりです。
R:では、慣れ親しんでいたスピーカーでイマーシブの作業も違和感も無く進められたと。
横田: そうですね。ただ、17本もあると…スゴいんだな、と(笑)。なかなか暴れん坊の子達なんですが、Torinnovが上手くまとめてくれています。
R:今回、9.2.6ch構成にされたのはどういった理由でしょう。
横田: それは僕がここを作る以前に、外部のスタジオで取り組んでいた作品が影響していて、そこでは9.2.4chで作業を行なっていました。その時にワイドスピーカーの利点について使用前と使用後を比較した時に、新しいスタジオを作るのであれば、トップを4chとするか6chとするかはさておき、平面9chはマストだな、と。中間定位が作業上すごく判断しやすい。そこを7.1.4chと比較するとやはり定位がボケる部分が出てくるんですね。結果的に7.1.4chで聴かれている環境があったとしても、制作環境としてはこの部分が物理的に分かると作業がスムーズになってくるというのがありました。
📷Topの6chにはmusikelectronic geithain RL906を採用。スケルトンからの改装により3.1mという余裕ある天井高が確保された。
R:トップスピーカーはどのように活用されていますか?
横田: トップ6chに関しては、トップの真ん中にスピーカーを置くというのは、正直最初は「要るのかな?」とも思っていたんですが、ついこの間、その効果を実感できる機会がありました。Atmosの作業を行なっていた時に雷を落とすシーンがあったんです。部屋の中でのプロジェクションマッピングになっていて、長方形の箱の中でどこからともなくワーッと雷が落ちるシーン。それを音楽の曲中の間奏に入れたかったんです。上方向の定位は分かりづらいものですが、その時の雷の音の定位が非常に分かりやすかったんです、トップの真ん中があることによってすごくやりやすさを感じました。そうしたものを作る上で定位をきちんと確認できるっていうのは良かったなと最近になって実感しています。
R:今回AVID S1を選択されたのはどのような理由からでしょう。
沖:MAという作業柄、フェーダーを頻繁に使う訳ではないので、8chもあれば十分なんです。あとは、卓ごと動かせるようにしたかったというのと、反射音の影響を極力減らすため、スタジオ内のあらゆるものをできるだけコンパクトにしました。S3じゃなくS1というのもそこからです。
横田: やはり、スイートスポットで聴かなければ分からないじゃないですか。中には卓前に座ることに抵抗があるというクライアントの方も意外と多くいらっしゃいます。だったら卓側を動かしてしまって、そこにソファや小さなテーブル、飲み物などを置いて落ち着ける環境にしてしまえば、ど真ん中で聴いていただけるかなと思いました。
📷マシンルームからのケーブルを減らすため、必要最低限かつコンパクトな機器類で構成された特注のデスク。中央にはAVID S1が埋め込まれている。
R:フロアプランに関して、他にも案はありましたか?
横田: リアやサイドのスピーカーをどのように配置できるかというところをしっかり検討して、これはすごく上手くいったと思います。サラウンドサークルのことだけを考えるとクライアントの邪魔になってしまうことがありがちです。それを、しっかりイマーシブ環境にとっての正確な配置を考えつつ、クライアントも快適に過ごせるということを、僕らの意見だけではなく営業サイドの意見も豊富に取り入れてこだわって考えました。
沖:この部屋はあえてMA室とは呼んでいません。コンセプト段階で「MA室を作るのか?」それとも「レコーディングの人もMAの人も使える部屋を作るのか?」という議論がありました。前室のスペースもいっぱいまで使って、3列ディフューズのいわゆるMA室的な部屋を作ろう、というアイデアと、ITU-Rのサラウンドサークルにできるだけ準拠した完璧な真円状に配置しようというアイデアがありまして、そこで色々話し合って揉んでいく中で今の形に落ち着きました。レコーディングの方もMAの方も皆が使える部屋となったので、より広い用途に対応できるという意味合いでもあえてMA室とはせず「studio m-one」としています。
📷将来的なシステム拡張にも柔軟に対応できるAVID MTRX。B-Chainの信号はモニターコントローラーのGrace Design m908を経由し、Torinnov Audio D-MONへと接続されている。
レコーディングとMAを融和するイマーシブ
R:現場の方々から見てDolby Atmos以外の規格も含めてイマーシブ需要の高まりというのは感じますか?
横田: 確かにエンドユーザー的には広がってきているかな、という感覚はあります。そこから「スタジオを使ってもらうようにするにはどうするか?」っていうのがもう一つのテーマであったりもするので、私たちがどうやって携わっていくかというのは毎日考えていることではあります。音楽作品については、いくつかのアーティストがだんだん作り始めているような状況なんですが、これもやってみて思うのは、ノウハウがものすごく大事な部分でもあるし、発注する側からしてもある意味「未知」ではある状態です。「面白そうだけど、どういうふうにすればいいの?」とか、「どういう風にやるの?」とか、「時間はどれだけかかるの?」といった部分がまだまだ分かりづらい状況だと思います。
R:手探りなところは聴き手もそうですよね。
横田: だからこそ、私たちはいいスタジオを作らせてもらったので、これをどう活用していくか、イマーシブのニーズにどう参入していけばいいのかというのは常日頃から営業陣とも話し合っています。そこで、先日取り組んでみたのが企業系のVPコンテンツで、このstudio m-oneでAtmosを体験していただいたのをきっかけにお声がけをいただいて、VPをAtmos化するということを実験的にやらせていただきました。
他にも企画段階から携わって、「カメラアングルこういうのはどうですか?」とか「背景にこれがあるとこういう音が足せるので、こんな空間ができますよ」とか、「こういう動きで…」「俯瞰から撮ると…」とかカメラマンさんとも打ち合わせをさせていただいて、それに対して僕らが効果音をつけて制作してみたというケースもあります。クライアントは、さまざまな企業のコンテンツを受注する制作会社なのですが「どういう風に世に出していいかっていうのはちょっとまだ悩むけれども、できたコンテンツとしてはすごく面白い」という評価で、受注の段階でAtmosの表現もできると提案してみようかという流れも生まれてきているようです。そうなると、これまでAtmosとは無縁と思われた企業の方にも、商品だったり、システムだったり、それが例えば「空間」を表現することでその価値観が高まりそうな商品にはAtmosのような規格がとても効果的だ、と知っていただける機会も増えてきそうです。
R:制作はもちろん、営業面でも広がりを見せそうですよね。
横田: 先ほどの話もありましたが、あえてMA室とは呼んでいません。これまで、サラウンド制作はどちらかというとMAやダビングの世界の話で、言ったら我々には親しみがある分野でした。そこに空間オーディオが出てきてレコーディングの方が一気にAtmosへ取り組む機運が高まると、レコーディングの人たちとMA的なやり方を話すようになってきたんです。そういう時に、我々が今までやってきたサラウンドの話が活きてくる。これまではレコーディングとMAの間に垣根のようなものが感じられていたんですが、空間オーディオのスタートによってその境目が混ざってきた感覚です、これからもっとそうなっていくと思います。studio m-oneもせっかく作るなら、そのどちらにとっても垣根がないスタジオにしたかったというのが最初の展望です。Atmosへの関心にかかわらず、どのような方にでも使ってもらえるような部屋にしたいですね。
📷中央のデスクを移動させ、椅子とサイドテーブルを置くと極上のイマーシブ試聴環境へと早変わりする。この工夫により、クライアントがスタジオ中央のスイートスポットでリラックスして試聴してもらえるようになったという。「卓前で聴いてもらうのが難しいのであれば、卓ごと動かせばいい」、そうした逆転の発想から生まれたまさにクライアントファーストな配慮である。実際にこの場でライブの音源を試聴させていただいたが、非常に解像度の高いMusikサウンド、そしてTorinnov Audio D-MONによる調整の効果も相まって、良い意味でスピーカーの存在が消え、壁の向こう側に広大な空間が広がっているかのように感じられた。
●Speaker System
Dolby Atmos Home 9.2.6ch
L/C/R:musikelectronic geithain | RL901K
Wide/Side/Rear:musikelectronic geithain | RL940
Top:musikelectronic geithain | RL906
Sub:musikelectronic geithain | BASIS 14K×2
スタジオ設立30周年を迎える節目に、ポスプロ業務への一本化という新たな変革へと踏み出したマルニスタジオ。スケルトンからの改装は自由度が高い反面、決めるべきことも増えるため数々の議論が行われてきた。その際に、技術スタッフの意見はもちろん、営業陣の意見にもしっかりと耳を傾けることで、クオリティの高い制作環境を担保しつつ、クライアントを含めた利用する全ての人にとって居心地の良い空間デザインが実現された。あえてMA室と呼んでいないことからも伝わってくる、制作現場における様々な垣根を取り払い、人との対話を重視しながらより良い作品を作っていこうという姿勢には個人的に深い感銘を受けた。このstudio m-oneから、また一つ新たなムーブメントが拡がっていくのではないかという確かな予感を抱かずにはいられなかった。
*ProceedMagazine2023-2024号より転載
Post
2023/12/26
株式会社三和映材社 様 / MAルーム『A2』〜大阪の老舗ポスプロが、これからの10年を見据えてMAルームをリニューアル〜
Text by Mixer
CMや企業VPといった広告案件を数多く手がける大阪の老舗ポスト・プロダクション、株式会社三和映材社が本社ビル内にあるMAルーム『A2』をリニューアルした。長らく使用されてきたヤマハ DM2000はAvid S4に入れ替えられ、モニター・スピーカーはGenelec The Ones 8331Aに更新。システム的にはシンプルながら、8331AとPro Tools | MTRXはAESで接続されるなど、音質 / 使い勝手の両面で妥協のないMAルームに仕上げられている。今回のリニューアルのコンセプトと新機材の選定ポイントについて、株式会社三和映材社 ポストプロダクション部所属のサウンド・エンジニア、筒井靖氏に話を訊いた。
大阪の老舗ポスプロ:三和映材社
大阪・梅田から徒歩圏内、新御堂筋沿いにスタジオを構える三和映材社は、1971年(昭和46年)に設立された老舗のポストプロダクションだ。映画の街:京都で、撮影機材のレンタル会社として創業した同社は、間もなくビデオ機材や照明機器のレンタル業務も手がけるようになり、1980年代にはポストプロダクション事業もスタート。同社ポストプロダクション部所属の筒井靖氏によれば、1985年の本社ビル新設を機に、ポストプロダクション事業を本格化させるようになったという。
「本社ビルは、1階が機材レンタル、3階が撮影スタジオ、5階が映像編集室、6 階が映像編集室とMA ルーム、7階がレコーディング・スタジオという構成になっていて、撮影から映像編集、MA、さらには音楽制作に至るまで、映像コンテンツの制作がワン・ストップで完遂できてしまうのが大きな特色となっています。手がけている仕事は、CMや企業さんのPRが8〜9割を占めています。製品紹介や会社紹介のビデオですね。CMと言っても、昔はテレビがほとんどだったのですが、最近はWebが多くなっています。最近は自分たちで映像編集されるお客様も増えてきたので、MA やカラコレ、合成、フィニッシングだけを弊社に依頼されるパターンも増えていますね」
📷株式会社三和映材社 ポストプロダクション部 サウンド・エンジニア 筒井 靖 氏
本社ビル内の施設は、映像編集室が3部屋(Autodesk Flame ×2、Adobe Premiere Pro ×1)、MAルームが2部屋、レコーディング・スタジオが1部屋という構成で、その他に別館にもボーカル・ダビングなどに使用できるコンパクトなスタジオが用意されているとのこと。2部屋あるMAルームは、フラッグシップの『A1』が5.1chサラウンドに対応、今回リニューアルが実施された『A2』はステレオの部屋で、どちらも1985年、ビルが竣工したときに開設されたという。
「音響設計は、日東紡さん、現在の日本音響エンジニアリングさんにお願いしました。ルーム・アコースティックは基本開設時のままで、その後は痛んだファブリックを張り替えたくらいですね。機材に関しては、『A1』はAMEK AngelaとStuderの24トラック・マルチの組み合わせでスタートし、1993年に卓を7階のレコーディング・スタジオで使用していたSSL 4000Eに入れ替えました。現在の卓は2006年に導入したSSL C300で、かなり年季が入っていますが、今年に入ってからフル・メンテナンスしたので今のところ快調に動いています。
一方の『A2』は、当初は選曲効果の仕込みで使うような部屋だったので、最初はシグマのコンパクト・ミキサーが入っていたくらいでした。その後、『A1』に4000Eを入れたタイミングで、現在のDAWの先駆け的なシステムであるSSL Scenariaを導入し、本格的なMAルームとして運用し始めたんです。Scenariaは、関西一号機のような感じでしたが、映像もノンリニアで再生できる革新的なシステムでしたね。Avid Pro Toolsを導入したのは2006年のことで、『A1』と『A2』に同時に導入しました。『A2』のメイン・コンソールは引き続きScenariaで、Pro Toolsはエディターとして使うという感じでした。映像は、ソニーのDSR-DR1000というディスク・レコーダーを9pinでロックして再生するようになったのですが、あれはワーク上げしながら再生できる画期的なマシンでした。その後、いい加減Scenariaも限界がきたので、2010年にヤマハ DM2000に更新した経緯です。」
S4は使い慣れたARGOSY製デスクに収納
📷もともとはDM2000用として設置されていたARGOSY製のスタジオ・デスクをサイド・パネルを取り外すことで使用。今回導入したAvid S4がきれいに収められた。
そして今年5月、三和映材社はMAルーム『A2』のリニューアルを実施。Pro Tools周りを刷新し、オーディオ・インターフェースとしてAvid Pro Tools | MTRXを新たに導入、長らく使われてきたDM2000はAvid S4に更新された。筒井氏によれば、約2年ほど前にリニューアルの計画が持ち上がったという。
「一番のきっかけは、Pro Tools周りとDM2000の老朽化ですね。弊社の仕事は修正 / 改訂が多いので、どちらの部屋でも作業ができるように、Pro ToolsやOSのバージョンをある程度揃えるようにしているんです。しかし以前『A2』に入っていたMac Proがかなり古く、それが足枷になってPro Toolsをバージョン・アップできないという状態になっていたんですよ。せっかくPro Toolsは進化しているのに、互換性を考慮してバージョン・アップせず、その恩恵を享受しないというのはどうなんだろうと。それでDM2000もところどころ不具合が出ていたこともあり、約2年前からリニューアルを検討し始めました」
DM2000に替わる『A2』の新しいコントロール・センターとして選定されたのが、16フェーダーのS4だ。S4は、CSM×2、MTM×1、MAM×1というコンフィギュレーションとなっている。
「作業の中心となるPro Toolsが最も快適に使えるコンソールということを考え、最終的にS4を選定しました。DM2000やC300のようなスタンドアローン・コンソールには、何か“担保されている安心感”があって良いのですが(笑)、最近はPro Toolsがメインになっていましたので、もはやコンソールにこだわることもないのかなと。一時期はコンソールをミックス・バッファー的に使っていたこともあるのですが、次第にアウトボードすら使わなくなり、完全にPro Toolsミックスになっていましたからね。
ただ、唯一心配だったのがコミュニケーション機能とモニター・セクションだったんです。以前、ICON D-Controlシステムで作られたセッションを貰ったときに、モニターを作るためのバスがずらっと並んでいたことがあって、そういった部分までPro Toolsで作らなければならないのはややこしいなと(笑)。しかしPro Tools | MTRXの登場によって、コミュニケーションとモニター・コントロールというコンソールの重要な機能をPro Toolsとは切り離して実現できるようになり、これだったらコントロール・サーフェスでもいいかなと思ったんです。Pro Toolsで行うのは純粋な音づくりだけで、環境づくりはPro Tools | MTRXがやってくれる。今回のシステムを構築する上では、Pro Tools | MTRXの存在が大きかったですね。
コントロール・サーフェスを導入するにあたり、S6やS1という選択肢もあったのですが、最終的にS4を導入することにしました。Dolby AtmosスタジオであればS6がマストだと思うのですが、ここはステレオの部屋ですし、機能的にそこまでは必要ありません。ただ、この部屋にはクライアントさんもいらっしゃるので、ホーム・スタジオのような見栄えはどうだろうと思い(笑)、S1ではなくS4を選定しました」
📷長らく使われてきたDM2000はAvid S4に更新
S4は、ARGOSY製のスタジオ・デスクに上手く収められている。このデスクは以前、DM2000用を収納して使用していたものとのことで、サイド・パネルを取り外すことで、きれいにS4が収まったという。
「予算の問題もありましたし、S4を設置するデスクをどうするか、ずっと悩んでいたんです。しかしあるときふと、DM2000のデスクにS4が収まるかもしれないと思って。実際、板を1枚抜いて、少しズラすだけできれいに収まりました。奥行きや高さは微妙に合わなかったのですが、そういった問題はコーナンで買ってきた板を敷き詰めることでクリアして(笑)。このARGOSYのデスクは、手前のパーム・レストが大きくて作業がしやすく、とても気に入っています。Macのキーボードも余裕を持って置くことができますしね。
S4の構成に関しては、8フェーダーだと頻繁に切り替えなければならないので、最低16フェーダーというのは最初から考えていたことです。ディスプレイ・モジュールは付けようか悩んだのですが、あれを入れるとPro Toolsのディスプレイを傍に置かなければなりませんし、最終的には無しとしました。各モジュールの配置は、16本のフェーダーに関しては分散させずに集約し、右側がトランスポート・コントロール、左側がフェーダーという隣の部屋のC300のレイアウトを踏襲しています」
📷システムの環境構築に大きく貢献したというAvid Pro Tools | MTRX。
『A2』のPro Toolsは1台で、Intel Xeonを積んだMac ProにHDXカードを1枚装着したシステム。オーディオ・インターフェースとなるPro Tools | MTRXも、ADカードとDAカードが1枚ずつのミニマムな構成で、MADIカードやSPQカードなどは装着していないという。
「音響補正はGenelecの『GLM』でやっているので、SPQカードが入っていない初代のPro Tools | MTRXがちょうど良いスペックでした。VMC-102のようなモニター・コントローラーを導入しなかったのは、ここはステレオのスタジオなので、複雑なモニター・マトリクスが必要ないからです。その代わり今回、カフをスタジオイクイプメント製の新しいものに入れ替えました。映像はPro Toolsのビデオ・トラックで再生し、Blackmagic Design DeckLink 4K Extremeで出力しています。Pro Toolsの現行バージョンは、いろいろなビデオ・フォーマットを再生できるので、ビデオ・トラックでもまったく不自由はありません。2面あるディスプレイは、単にミラーリングしているだけで、右側でアシスタントが編集したものを、左側のぼくがバランスを取るという役割分担になっています。それと今回、ROCK ON PROさんからのご提案でUmbrella CompanyのThe Fader Controlを導入したのですが、これが入力段にあるだけでコンソールのように録音できるので助かっています。録りのレベルも柔軟に調整することができますし、とても気に入っている機材です」
📷S4の脇に備えられたのはUmbrella Company / The Fader Controlだ。
8331AとPro Tools | MTRXをデジタルで接続
今回のリニューアルでは、ニア・フィールド・スピーカーも更新。長らく使用されてきたGenelec 8030AがThe Ones 8331Aにリプレースされた。筒井氏によれば、8331AとPro Tools | MTRXは、AESでデジタル接続されているという。
「ニア・フィールド・スピーカーは、以前はヤマハ NS-10Mを使用していたのですが、2006年にScenariaを使うのを止めたタイミングでGenelecに入れ替えました。Genelecのスピーカーは、聴き心地の良さと、スタジオ・モニターとしての分かりやすさの両方を兼ね備えているところが気に入っています。
今回、The Onesシリーズを導入したのは、別館のレコーディング・スタジオで8331A を使用していて、何度かこの部屋で試聴してみたところ、もの凄く良かったからです。なのでスピーカーに関しては、スタジオのリニューアルを検討し始めたときから、絶対に8331Aにしようと考えていました。8331Aは、8030Aよりも定位がさらにしっかりして、音の粒立ちが良くなったような気がしますね。それと同軸設計のスピーカーではあるのですが、サービス・エリアの狭さを感じないところも良いなと思っています。同軸スピーカー特有の、サービス・エリアを外れた途端に音がもやっとしてしまう感じがないというか。もちろん『GLM』も使用していて、あの機能を使うと“しっかり調整されている”という安心感がありますね(笑)。『GLM』は、左右同一のEQか個別のEQが選べますが、両方試してみたんですけど、今は左右同一のEQで使っています。
今回、8331AとPro Tools | MTRXをデジタルで接続したのは、余計なものを挟まずにピュアな音にこだわりたかったからです。隣の部屋も、C300からヤマハ DME24Nを経由して、Genelecにデジタルで接続しているのですが、その方が安定している印象があります」
今年5月にリニューアル工事が完了したという新生『A2』。完成翌日からフル稼働しているとのことで、その仕上がりにはとても満足しているという。
「皆さんのおかげで、イメージどおりのスタジオが実現できたと大変満足しています。でも、まだ改善の余地が残っていると思うので、さらに使いやすいスタジオになるように、細かい部分を追い込んでいきたいですね。新しいS4に関しては、HUIモードのDM2000とは違ってPro Toolsに直接触れているような感触があります。画面上のフェーダーがそのまま物理フェーダーになったような感覚というか。それとアシスタントがナレーションのノイズを切りながら、こちらではEQを触ったり、2マンでのパラレル作業がとてもやりやすくなりました。今回は思い切ることができませんでしたが、イマーシブ・オーディオにも興味があるので、今後チャンスがあれば挑戦してみたいと思っています。」
*ProceedMagazine2023-2024号より転載
Music
2023/12/21
TOA ME-50FS / スピーカー原器、その違いを正確に再生できる装置を
長さを測るためには、その長さの基準となるメートル原器と呼ばれる標準器が必要。重さを測るのであれば同様にキログラム原器が必要となる。では、スピーカーにとっての基準、トランスデューサーとしての標準はどこにあるのか?そのスピーカーの標準器を目指して開発されたのがTOAのME-50FSだ。非常放送用のスピーカー、駅のホームのスピーカーなど生活に密着した音響設備を作るTOAが、これまでの知識と技術をすべてを詰め込んで作り上げた究極のアナログ・スピーカーである。1dB、1Hzの違いを聴き分けられるスピーカー、その実現はデジタルではなく、むしろアナログで開発しないと達成できないことであったと語る。そのバックグラウンドとなるさまざまな基礎技術、要素技術の積み上げはどのような現場で培われたのだろうか?そして、その高品位な製品はどのように作られているのか?研究開発拠点であるナレッジスクエアと、生産拠点であるアコース綾部工場に伺ってその様子をじっくりと確認させていただいた。
TOA ME-50FS
価格:OPEN / 市場想定価格 ¥2,000,000(税込:ペア)
・電源:AC100V
・消費電力:30W
・周波数特性:40Hz~24kHz (-6dB)
・増幅方式:D級増幅方式
・エンクロージャ形式:バスレフ型
・使用スピーカー 低域:10cm コーン型×2 高域 : 25mmマグネシウムツイーター
・アンプ出力:250W
・アンプ歪率:0.003%
・最大出力音圧レベル:104dB
・仕上げ:木製(バーチ合板) ウレタン塗装
・寸法:290(幅)× 383(高さ)× 342(奥行)mm( 突起物除く)
・質量:約15kg(スピーカー本体1台の質量)
実は身近に必ずあるTOA製品
皆さんはTOAという会社をご存知だろうか?日本で暮らしているのであれば、TOAのスピーカーから出た音を聴いたことが必ずあるはずだ。駅のホーム、学校の教室、体育館、あなたの働いている会社の非常放送用のスピーカーもTOAの製品かもしれない。まさに生活の一部としてさまざまな情報を我々に音で伝えるためのスピーカーメーカー、それがTOAだ。
TOAの創業は、1934年と国内では老舗の電機メーカーである。創業時の社名は東亜特殊電機製造所。神戸に誕生し、マイクロフォンの製造を手掛けるところからその歴史はスタートしている。マイクロフォンと言っても現在一般的に使われている形式のものではなく、カーボンマイクロフォンと呼ばれる製品だ。これは世界で初めてエジソンが発明したマイクロフォンと同じ構造のものであり、黒電話など昔の電話機に多く使われていた形式である。周波数特性は悪いが、耐久性に優れ高い感度を持つため1980年代まで電話機では普通に使われていた。現在でも電磁波の影響を受けない、落雷の影響を受けない、低い電圧(1V程度)で動作するなどの特長から可燃物の多い化学工場や軍事施設など一部のクリティカルな現場では現役である。
このマイクロフォンは、その名の通り、カーボン(炭素)を必要とする製品である。時代は戦時中ということもあり、良質なカーボンを入手することが難しく、なんと砂糖を焼いてカーボンを作ったという逸話が残っている。要は砂糖を焦がした炭である。砂糖が贅沢品であった時代に、この工場からは一日中甘い匂いがしていたそうだ。
次に手掛けたのが、拡声装置。中でも「東亜携帯用増幅器」は、小型のトランクケースに増幅器とスピーカーを内蔵し、持ち運びのできる簡易拡声器として人気があったそうだ。他にもレコード録音装置などさまざまな音響製品を生み出していった同社だが、中心となったのは、拡声装置(アンプとスピーカー)であり、その専業メーカーとして発展をしていく。拡声装置のスピーカーとして当時使われていたのが、ホーン型のスピーカー。ドライバーユニットに徐々に広がる筒、ストレートホーンを取り付けたものである。この筒の設計により、特定の周波数の音を大きく、遠くまで指向性を持たせて届けることができるという特徴を持っている。
TOAが大きく発展するきっかけとなったのがこのホーンスピーカー。現在一般的に使われているホーンスピーカーは、リスニング用途の半円錐状のものを除けばほとんどが折り返し式ホーン。メガホンや、拡声器、選挙カーの屋根などについているものがそれである。この折り返し式ホーンはレフレックストランペットとも呼ばれる。ストレートホーンを折りたたんだ構造をしているため、全長を短くすることができ、さらにはドライバーユニットが奥まった位置にあるため防滴性能を獲得、屋外で使うにあたり優れた特徴を持っている。
このトランペットスピーカーは戦後の急速な復興に併せて大きな需要があった。同社は、黒や灰色の製品ばかりのこの市場に鮮やかな青く塗られたトランペットスピーカーを登場させ、その性能の高さも相まって高い人気を博した。青いトランペットをトレードマークに「トーアのトランペット」「トランペットのトーア」と呼ばれるまでに成長を遂げる。 1957年には、世界初となるトランジスターメガホンを発売。女性でも一人で持ち運べる拡声器としてエポックメイキングな製品となった。旅行先などでガイドさんが使っているのを記憶している方も多いのではないだろうか。いまでも、選挙の街頭演説などで見かけたりするメガホンのルーツが実は「トランペットのトーア」にある。
積み重ねた技術を音響の分野へ
1964年の東京オリンピックでは、全面的にトーアのスピーカーが使われた。東京オリンピックの開会式では世界で初めてトラック側から客席に対してPAするということが行われ、当時主流であった観客後方となるスタジアムの外側からではなく、客席に対して正対する方向からのPAは高い評価を受けた。これには、プログラムの演目に合わせてスピーカーを3分で移動させなければならない、など影の努力がかなりあったとのこと。スポーツ関連はこれをきっかけに国内のさまざまな競技場への導入が進み、お膝元である阪神甲子園球場やノエビアスタジアム神戸をはじめ全国各地でTOA製品が採用され、海外でもウィンブルドンのセンターコートなど数多くの採用実績を誇る。まさにPA=公衆拡声の技術力の高さを感じるところ。遠くまで、多くの人に明瞭な音を届ける。これを実践しているメーカーであると言えるだろう。
また、神戸のメーカーということもあって1970年の大阪万博開催の際には各所で「音によるおもてなし」を行う自動放送システムなど多くの新技術がお披露目された。この自動放送システムは、1975年の京成電鉄成田駅を皮切りに全国への導入が進んでいく。当時は、高価だったメモリーを使ったシステムでサンプラーの原型のようなものを作り、プログラム動作させていたということ。現在、駅で当たり前に流れてくる自動音声による案内放送のルーツとなるものだ。
1985年ごろからは、コンサート用のPAスピーカー、ライブハウスやディスコなどに向けたPAシステムも手掛けるようになる。これまでの「多くの人に明瞭な音を伝える」ということに加えて音質、音圧、さらには、長時間駆動しても壊れない耐久性を持った製品を開発していくことになる。ツアースピーカーには「Z-Drive」という名前が与えられ、大規模なライブ会場や屋外イベントで使われるようになる。そして、さまざまな現場に導入されるスピーカーのチューニングを行うために、世界初となるDSPを使ったサウンドデジタルプロセッサー「SAORI」を誕生させる。
この当時デジタルエフェクターは登場していたが、イコライザーやディレイ、コンプレッサーなどでサウンドチューニングをするためのデジタルプロセッサーはTOAが世界で最初に製品化をしている。このプロセッサーは主に設備として導入されるスピーカーの明瞭度を上げるためのチューニングに使われており、今では当たり前になっているDSPによるスピーカーチューニングの原点がここにある。デジタルコンソールに関しても1990年にix-9000というフルデジタルコンソールをウィーン国立歌劇場のトーンマイスターたちとともに作り上げた。音楽という芸術を伝え、楽しむためのスピーカー、そういった分野へのチャレンジも行われてきたことがわかる。
そして、TOAの中心となるもうひとつの分野が非常用放送設備。火災報知器に連動して室内にいる人々に警告を発したり、業務用放送を非常放送に切り替えたりという、国内では消防法で定められた多くの公共空間に設置されている設備である。人の命を守る音、「聞こえなかった」ということが人命に関わる重要な設備だ。今回お話を伺った松本技監が、「TOAの作る音は音を楽しむ(音楽)ためのものではなく、人の命を守る「音命(おんみょう)」だと再三に渡り言われていたのが印象的。耐火、耐熱性を持たせたスピーカーの開発、アンプ等の放送設備の耐久性・堅牢性へのこだわり、そのようなクリティカルな現場で培われた製品の品質、人命という何よりも重いものを預かる使命に基いた製品の製造を行ってきたということがTOAのもう一つの顔である。
TOA製品に息づくスピリット
さまざまな分野へのチャレンジスピリット、そして非常用設備に始まる失敗の許されない現場への製品供給、そんな土台があったからこそオリンピックや万博などでの成功があったと言える、まさに設備音響としてのトップブランドの一つである。そのチャレンジスピリットを象徴するものとして「超巨大PA通達テスト」についてのお話を伺えた。
音を遠くまで届けるということは、一つのテーマである。その実験のために、口径3メートル、全長6.6メートルという巨大なストレートホーンを製作。巨大なアンプとドライバーにより、音をどれほど遠くまで届けることができるかをテストした。もちろん街中では行うことができないため、いま明石海峡大橋があるあたりから淡路島に向けて実験を行ったということだから驚きだ。おおらかな時代でもあったということもあるが、対岸の淡路島の海岸線沿いにスタッフを配置し、どこまで聴こえているかを試したということだ。もう一回は、比叡山の山頂から琵琶湖に向けてのテストがあったとのこと。この際も琵琶湖の湖畔でどこまで音が聴こえるかを試したということだ。そのテスト結果はなんと最長到達距離12km!もちろん、風などの影響も受ける距離となるが、このような壮大な実験を国内で行ってしまう先達の技術者による挑戦に感銘を覚える。
写真撮影は許可されなかったが、クリティカルな現場に向けて行われる製品テスト用設備の充実度はさすがの一言。基本的に耐久テストは、壊れるまで行うということを基本に、実際の限界を確認しているということだ。電力に対する負荷テストはもちろん、現代社会にあふれる電波、電磁波に対する試験を行うための電波暗室、物理的な耐久性を確かめるための耐震テスト、真水や塩水を製品にかけ続ける耐水、耐塩水テストなど、本当にここは電気製品を作っているところなのかと疑うレベルのヘビーデューティーな試験施設が揃っていた。
これも「音命」に関わる重要な設備、肝心なときに期待通りの動作が求められる製品を作るための重要な設備である。筆者も初めての体験だったが、電波暗室内では外部からの電磁波を遮断した状況下で、製品に電子銃で電波を当ててその動作を確認している。これは対策が脆弱な一般レベルの電子機器であれば動作不良を起こす状況で、どこまで正常動作を行えるか?影響の少ない設計にするにはどうすればよいか?昨今話題になることの多いEMS障害などへの影響を確認しているということだ。また、この実験設備の一室には工作室があり、用意された木工、金属加工などさまざまな工具で製品のプロトタイプは自分たちで作るという。まず、自らの手による技術と発想で課題解決に挑戦するという文化がしっかりと残っており、このような姿勢はTOAすべての製品に息づいているということだ。
スピーカー原器を作ろうという取り組み
東亜特殊電機製造所からスタートし、現在ではTOAとして国内の非常用放送設備のシェア50%、公共交通機関の放送設備や設備音響のトップブランドとなった同社が、なぜここに来てリファレンスモニタースピーカーを発表したのだろうか?もちろん、Z-Driveというコンサート向けのPAシステム、ウィーン歌劇場に認められたフルデジタルコンソールix-9000など伏線はあったものの、これまで、リスニング用・モニター用のスピーカーはリリースしてこなかった。
色々とお話を伺っていくと、TOAでは社員教育の一環として「音塾」というものを実施しているということだ。ここでは、社員に音に対する感性を養ってもらうためのさまざまなトレーニングを行い、1dBの音圧の違いや1Hzの周波数の違いを聴き分けられるようになるところまで聴覚トレーニングを行っているという。
ここで問題となっていたのが、人はトレーニングをすることで聴覚を鍛えることができるのだが、その違いを正確に再生できる装置がないということだ。物理的、電気的、さまざまな要因により、スピーカーには苦手な再生周波数や出力レベルが存在する。わかりやすいところで言えば共振周波数や共鳴周波数による影響である。もちろんそれだけではなく、他にもさまざまな要因があり理想とする特性を持ったスピーカーがない。そこで作り始めたのがこのME-50FSの原型となるプロトタイプの製品。まさに標準器となるスピーカー原器を作ろうという取り組みである。
デジタルの第一人者によるフルアナログ
📷右より3人目がこのプロジェクトの中心人物の一人となる松本技監。
このプロジェクトの中心人物の一人が今回お話をお伺いした松本技監。TOAの歴史の中で紹介した世界初のDSPを用いたサウンドデジタルプロセッサー「SAORI」やツアースピーカー「Z-Drive」を開発した中心人物の一人で、音声信号のデジタル処理やスピーカーチューニングに関する第一人者とも言える方である。この松本技監が究極のスピーカー製作にあたり採用したのがフルアナログによる補正回路である。デジタルを知り尽くしているからこそのデジタル処理によるデメリット。そのまま言葉を借りるとすれば「デジタル処理は誰もが簡単に80点の性能を引き出せる、しかしそれ以上の点数を取ることができない」ということだ。
デジタルとアナログの大きな違いとしてよく挙げられるのが、離散処理か連続処理か、という部分。デジタル処理を行うためには、数値でなければデジタル処理できないということは皆さんもご理解いただけるだろう。よって、必ずサンプリングという行程を踏んで数値化する必要が絶対的に存在する。しかし、連続性を持った「波」である音声を時間軸に沿ってスライスすることで数値化を行っているため、どれだけサンプリング周波数を上げたとしても「連続性を失っている」という事実は覆せない。ほぼ同等というところまではたどり着くのだが、究極的なところで完全一致はできないということである。
もう一つはデジタル処理が一方通行であるということだ。ご存知かもしれないが、スピーカーユニットは磁界の中でコイルを前後に動かすことで空気振動を生み出し音を出力している。このときに逆起電流という現象が発生する。動いた分だけ自身が発電もしてしまうということだ。これにより、アンプ側へ逆方向の電流が流れることとなる。デジタル処理においては逆方向のプロセスは一切行われない。しかしアナログ回路であれば、逆方向の電流に対しても適切な回路設計を行うことができる。
通常のスピーカー設計では影響のない範囲として捨て置くような部分にまで目を向け、その設計を突き詰めようとした際にどうしてもデジタルでは処理をしきれない領域が生まれる。ME-50FSでは、このようなことをすべて解決させるためにフルアナログでの設計が行われているわけだ。DSPプロセッサーの生みの親とも言える松本技監がフルアナログでの回路設計を行うということで、松本氏をよく知る仲間からは驚きの声が聞かれたそうだ。しかしその裏には、デジタルを知り尽くしているからこそのアナログであるという徹底したこだわりがある。デジタル処理ではどうしてもたどり着けない限りなく100点に近い、理想の性能を追い求めるための究極とも言えるこだわりが詰まっている。
こんなことをしている製品は聞いたことがない
ME-50FSにおける設計思想は「スピーカーユニットをいかに入力に対して正確に動かすか」という一点に集約されている。低域再現などにおいて38cmウーハーなど大型のユニットが使われることも多いが、動作させる質量がサイズに比例して大きくなってしまうためレスポンスに優れなくなってしまう。動作する物体の質量が多ければそれだけその動きを止めるための力が必要ということだ。この問題に対してME-50FSでは10cmという小さなスピーカーユニットを採用することにした。口径は小さくしたものの、一般的な製品の3倍程度のストロークを持たせることでその対策がとられている。その低域の再生に抜かりはなく、バスレフ設計のエンクロージャーの設計と合わせて、40Hz(-6dB)という10cmユニットとしては驚異的な低域再生能力を獲得している。スピーカーユニットの質量を減らすことで理想に近い動作を実現し、ストロークを稼ぐことで正確な空気振動を生み出している。
これを実現するためのスピーカーユニットは、後述する自社工場であるアコース綾部工場で製造される。スピーカーユニット単品からコイルの巻数など、微細な部分まで専用設計にできるのが国内に工場を持つメーカーとしての強みである。さらに、専用設計となるこのスピーカーユニットは、実際にスピーカーユニット一つ一つの特性を測定しシリアルナンバーで管理しているということだ。大量生産品では考えられないことだが、ユニットごとの微細な特性の差異に対してもケアがなされているということだ。究極のクオリティを求めた製品であるというエピソードの一つである。修理交換の際には管理されたシリアルから限りなく近い特性のスピーカーユニットによる交換が行われるということ。こんなことをしている製品は聞いたことがない。
理想特性を獲得するための秘密兵器
この製品の最大の特徴となるのが各スピーカーに接続されたボックス。ここにはアナログによるインピーダンス補正回路が組み込まれている。話を聞くとアンプからの入力信号に対して、シンプルにパラレルで接続されているそうだ。まさにフルアナログでの理想特性を獲得するための秘密兵器がここである。アナログ回路であるため、中を覗いても抵抗、コンデンサー、コイルがぎっしりと詰まっているだけであり特別なものは一切入っていない。この回路によってME-50FSは理想的な位相特性、インピーダンス特性を獲得しているのだが、そのパーツ物量は一般的なスピーカーのそれを完全に逸脱している。「インピーダンス補正回路」とTOAが呼ぶこのボックスは、過去の試作基板と比べるとかなり小さくなっているそうで、実際にナレッジスクエアで見せてもらったのだが、4Uのサーバーか?と思わせるような巨大なものであった。ステレオ2ch分の回路が入っているからということではあったが、それにしても大きい。
📷ME-50FSの最大の特徴とも言えるインピーダンス補正回路のプロトタイプ。左右2ch分が一つのボックスに収まっている。これを上写真の赤いボックスにまでサイズダウンして現在の形状に収めている。
「インピーダンス補正回路」の内部のパーツはフルアナログということもあり、前述の通り抵抗、コンデンサー、コイルである。そしてそれぞれのパーツは理想の特性を求めるために吟味を重ねたもの。わかりやすく言えば、コイルは理想の数値を持ったワンオフで自社制作されたもの。抵抗は耐圧の高いメタルクラッド抵抗で、抵抗が特定の周波数以上で持つインダクタンスの影響がスピーカーとして出ないよう無誘導巻のものを用い、大入力に耐えるため熱容量に余裕のある大型のものが使われている。また、コイルは磁界を発生させるため、それらが相互に影響を及ぼさないように基板上の磁界にまで気を配り、縦横、一部のパーツは高さを変えて各パーツを配置。この結果、完全に手作業での製作となることは目に見えているが、究極のスピーカーを作るためには必要なことだというのがスタンスだ。
こういったポイント一つ一つ、すべてにおいてエビデンスのある技術を採用している。オーディオ業界においては非常に多くのプラシーボが存在しているが、良くも悪くも感覚的なものが多くを占める聴覚に頼ったものだからこその出来事。それを楽しむのも一興ではあるのだが、メーカーとして究極を追い求める際にそれらプラシーボは一切排除しているということだ。すべての設計、パーツの取付一つにおいても、すべてにおいて裏付けのある理由があり、必要であればそのエビデンスも提供できるようになっているということである。
スピーカーとしての完全体
こだわりの結晶体とも言えるこのスピーカー。そのポイントを挙げ出したらきりがないのだが、もう一つだけ紹介しておこう。「インピーダンス補正回路」とスピーカー本体を接続するケーブル。これもケーブル自体の持つインダクタンスの値を計算し、スピーカー内部でパラレルに接続される箇所までの長さをミリメートル単位で計算してケーブル長が決められている。設置しやすいように、などという発想ではなくエビデンスに基いた理想の長さということで設計が行われている。
内蔵されるパワーアンプはClass Dのものが採用されている、これも理想の特性を追い求めて選択されたものだ。このClass Dアンプモジュールの選定においても、TOA社内専門家による技術評価および各種測定、耐久力試験に加え、長期間の運用及び試聴評価を経て厳選されたものが使われている。ME-50FSでは、ひとつの理想のパッケージとしてパワーアンプを内蔵としているが、ユーザーにも少しの遊びを許しているポイントがある。それが、スピーカー背面にあるスピーカーI/O端子。Lineレベルの入力であれば、内臓のパワーアンプを介してスピーカーが駆動されるのだが、内蔵のパワーアンプを切り離し、外部のパワーアンプからの入力も持っているということだ。パワードスピーカーとしてはかなり珍しい設計ではないだろうか?
これこそ、このスピーカーに対する自信の現れとも言える。メーカーとしての完全なるパッケージとしての究極は、もちろん内蔵アンプであることは間違いない。しかし、外部アンプの入力を受け付けるということは、外部アンプが持つ実力を100%引き出せる「測定器」としての側面を持つスピーカーであるということでもある。一般的なパワードスピーカーではユニットの特性を補正するためにアンプ自体の出力に癖を持たせるということは少なくない。完全アナログで仕立てられたME-50FSは、どのような入力が来たとしても完全に理想的な動作をするという「スピーカーとしての完全体」を体現しているのである。
アコース綾部工場
TOAの国内の製造拠点であるアコース綾部工場。すでに大量生産品はインドネシアの工場に移行しているが、ハイエンド製品、少量生産品などは国内でひとつずつ手作業で作られている。アコース株式会社はTOA株式会社のグループ企業で、プロオーディオ機器の開発、設計、生産、出荷までを行っている。綾部工場は木工加工を中心にプロオーディオ機器を生産する拠点。もう一つの米原工場は、エレクトロニクス、電子回路などの生産を行っている。2つの工場双方ともに多品種小ロットの生産に適した工場である。
・Made in Japan!日本のものづくり
綾部工場は、京都府の綾部市にある。明智光秀で一躍有名になった福知山市の隣町で旧丹波国となる。もう少し行けば日本海に面した若狭湾、舞鶴港というあたりで、大阪から100km圏であり舞鶴若狭道で1時間強で行くことができる場所。実際のところかなりの田園風景が広がっているのだが、高速が通ってからは工業団地ができたりとそれなりの発展もしている街である。完全に余談ではあるが筆者の出生地はこの綾部市であり馴染みの深い土地である。
このアコース綾部工場は、木工加工を中心とした生産拠点ということでスピーカーエンクロージャーの生産がその中心となる。まずは、その木工加工の現場を見せていただいた。切り出し用のパネルソーや多品種小ロットの生産のためとも言えるNCルーター。多軸、かつデュアルヘッド仕様なので、複雑な加工をスピーディーに行うことができる。プログラムを読み込ませて専用の治具に材木をセットすれば、複雑化形状もあっと言う間に削り出していく。設計で想定した通りの材料がここで切り出されることとなる。
切り出された材料は塗装工程へと回される。長いレールにぶら下げられ人の手により塗装が行われる。低温で一度乾燥させた後に一度冷やし、2階部分にある高温の乾燥室へと送られる。やはりスピーカーエンクロージャーの塗装ということで黒に塗ることが多いのだろう、飛散した塗料で黒くなったこの空間は、この工場でも印象的な空間であった。ここでは、特殊塗料による塗装など、やはり小ロット多品種に対応した工程が行えるようになっている。特別色等の特注製作などもこの工場があるからこそ実現できるということだ。
次に見せていただいたのが、スピーカーの組み立ての現場。さすがにコーン紙、フレームなどは別のところで作ったものを持ってきているとのことだが、スピーカーの心臓部とも言えるマグネットとコイルはここで作っている。巨大な着磁機が並び、製品に応じた素材に対して着磁を行いマグネットを作っている。自社で製造できるということは、磁界強度、サイズなども自由自在ということだ。そして、コイルの製作に使うコイル巻き機。アナログなこの機械はどうやら自分たちで手作りしたようだという。生産に必要なものがなければ作ってしまおうという、まさに職人魂が垣間見える。
📷(左上)スピーカーを駆動するための磁石を作るための着磁機。製造する磁石のサイズに合わせ機械がずらりと並ぶ。(右上)ボイスコイルを巻くための専用機械。過去の先達の手作りであろうということだ。(左下)完成したボイスコイル。これが、コーン紙に貼られスピーカーとなる。(右下)スピーカーユニットの組立工程。コーン紙を専用の器具で接着している。
実際にコイルを巻くところを見せていただいたのだが、スピーカーコイル用の特殊な形状の素材が使われていた。一般的な丸い線材ではなく、きしめん状の平たい銅線で巻いた際に固着するようアルコールで溶ける特殊な溶剤がコーティングされている。このきしめん状の銅線にアルコールを湿らせながら巻いていくことで、巻き終わったコイルは筒状のコイルとなる。一つずつ職人が巻いていくことで巻数は自由。ボビンの経を変えたり、線材の太さを変えることでさまざまな形状のボイスコイルを作ることが可能だ。この機械で巻き終わったコイルは、焼入れを行うことで、さらにしっかりと固着されてユニット組立工程へと渡される。ツイーター等のメタルドームもここで一つずつ手作業でプレスして整形されている。さすがにこの板金用の金型は自社製造ではないということだが、製品ごとさまざまな形状の金型がずらりと準備されていた。組立工程では一つずつ専用の治具を使いエッジ、コーン紙の貼り合わせ、ボイスコイルの接着、フレームの取付などが、ひとりの職人の手によって行われる。
次が組み立ての工程。塗装の終わったエンクロージャーにユニット、キャビネットグリル、ネットワーク回路などのパーツを組み込み、梱包までを一気に行っている。大量生産のラインであれば何人もが担当するような作業を、一人でしかも手作業で行っている。多品種小ロットということで、毎日異なる製品を組み立てているのだが、間違いのないように常にマニュアルが開かれ、工程ごとにページを捲りながら作業を進めていた。組み立てられて梱包される前には、もちろんしっかりと所定の性能が出ているかチェックがなされる。これぞMade in Japan!日本のものづくりの現場を見た思いである。
・綾部という地をスピーカー製造の聖地に
整然と整えられたパーツ庫は、言わばTOAプロオーディオ製品の生まれ故郷。常に数万種類のパーツがストックされ、入念な生産計画に沿って生産が行われているということだ。写真を見ていただければわかるのだが、驚くほどこれらの工程に関わる職人は少ない。自動化できるところは機械に頼り、多品種に対応するため複雑な工程では、一人ひとりが多くの工程をこなすことで、少人数による生産を実現している。管理部門も含めた従業員数は28名、まさにプロフェッショナルの集団と言えるだろう。
このアコース綾部工場では、試作機の製造なども行っている。どのようなカスタムパーツも作ることができるこの拠点があるからこそ、TOAではさまざまな試作を繰り返し、クオリティの高い製品をリリースすることができている。そのための実験設備も備わっており、その一つが無響室だ。試作した製品がどのような特性なのか?それを作ってすぐにテストできる環境があるということだ。さまざまなバリエーションの試作機を作り、それをその場で実際にテストして、設計数値が実現できているかを確認する。まさに理想の開発環境と言える。無響室以外にも-20度〜180度までの環境が再現できるという恒温槽による温度変化による特性、耐久性のテストだったりといことも行える設備がある。
ほかにも試聴用の部屋もあり、実際に聴感テストも行っている。取材時はME-50FSのインビーダンス補正回路を設計するときに使ったであろう様々な治具などが置かれていた。そして、この部屋の片隅にはスピーカーコーン紙の共振測定器が置かれていた。スピーカーが振動しているときにレーザーでその表面の動きを測定し、不要な共振がないかを計測する。実際の素材を使っての実際の測定。計算だけではなく実際の製品で測定することによる正確性の追求。さまざまな素材の融合体であるスピーカーユニットであるからこそ必要とされる実地の重要さが感じられる。
TOAのものづくりの拠点、それがこのアコース綾部工場であり、この試作機を作るための理想的な環境があったからこそME-50FSが妥協を一切許さない製品として世にリリースされたのであろう。コイルの巻数一巻きにまで気を配って生産できるこの環境、理想を追い求めるための究極形である。今回ご案内いただいたTOAの皆さんもこの拠点があったからこそME-50FSは完成し、まさにここがME-50FSの故郷であると仰っていたのが印象的。この綾部という地をスピーカー製造の聖地に、その意気込みが実を結ぶのもそう遠くはなさそうだ。
📷(左)アコース綾部工場 (右)左より工場取材にご協力いただいたTOAの藤巴氏、ジーベックの栗山氏、アコース綾部工場の藤原氏、ME-50FSの生みの親とも言えるTOA技監の松本氏。
Studio BEWEST
ME-50FS取材の最後に訪れたのは実際のユーザーである岡山県津山市のレコーディングスタジオBEWESTにお伺いして、実際の使い勝手やその魅力についてをお話いただいた。オーナーの西本氏はバンドマンからレコーディングエンジニアへと転身した経歴を持ち、岡山市内と津山市に2つのスタジオを構える。BEWESTの独自の取り組みなども併せてお届けしたい。
・サウンドを生み出す立場からの目線
📷Stduio BEWEST オーナー兼エンジニア 西本 直樹 氏
岡山市から北へ60kmほどいったところに津山市はある。大阪からも中国道で150kmほどの距離だ。12年前にオープンしたこのスタジオはレコーディングから、ミックス・マスタリングまでをワンストップで行うスタジオとして稼働していたが、岡山市内に3年前に新しくスタジオを立ち上げたことで、今はミックスとマスタリングの拠点として稼働しているということだ。このスタジオの特長は、ビンテージから最新の製品までずらりと取り揃えられたアウトボードやマイクなどの機材。その機材リストの一部をご紹介すると、マイクはビンテージのNeumann U47 TUBE、オリジナルのtelefunken U47、SONY 800G、Chandler REDD Microphone、Ehrland EHR-Mなどビンテージの名機から、現行の製品まで幅広いラインナップを揃える。この選択の源泉はお話を伺っていくとレコーディングへの向かい合い方にあると感じた。
西本氏のルーツはバンドマンである。バンドのレコーディングを行っていく中で機材に興味を持つ。そしてギタリストとしてバンド活動を行っていた西本氏は、インディーズのレコーディング現場での体験で完成した作品の音に対してメジャーとの差を痛感したという。レコーディングのバジェットが違うから仕方がないと諦めるのではなく、その差は何なのか?この部分に興味を持ち、独学でレコーディングを行うようになっていったそうだ。機材が違うのであれば、同じものを使えば同じクオリティーになるのか?マイクは?マイクプリは?独学でどんどんと掘り下げていき、気が付いたらスタジオを作っていて日本中からレコーディングの依頼を受けるようになっていたということだ。
お話を聞いているとエンジニアとしてスタジオで経験を積んだ方とは、やはり視点が異なることに気付かされる。ミュージシャンの視点で、自身の音がどのような音なのかをしっかりと認識した上で、それがどのような音としてレコーディングされ作品になってほしいか?あくまでもサウンドを生み出す立場からの目線を貫いている。そのため、音がリアルなのか、なにか変質してしまっているのか?そういったところに対して非常に敏感であり、常に一定の音に対しての物差しを持って向かい合っているエンジニアである。
・「このまま置いていってほしい」
その西本氏とME-50FSの出会いはInterBEE 2022で話題になっていたことがきっかけだとのこと。興味を抱いた西本氏がすぐに問い合わせしたところ、TOAは岡山市内のスタジオまでデモ機を持ってきてくれたそうだ。ちょうど、岡山のスタジオでウェストキャンプ@岡山というローカルのエンジニアを日本中から集めた勉強会のようなイベントを予定していたそうで、集まった10数名のエンジニアと試聴を行うことができた。その場にいた全員が強いインパクトを受け、この製品の魅力を体感したということ。やはり雑多なInterBEEの会場ででも聴こえてきたインパクトは本物であり、スタジオでの試聴でもその印象は大きく変わらなかったということだ。その後、ミックス・マスタリングをメインで行っている津山のスタジオで改めてじっくりと試聴。改めて聴き直してもその最初に感じたインパクトは変わらず購入を即決したという。すぐにでもこのスピーカーで作品づくりをしたいという思いが強くなり「購入するので、このまま置いていってほしい」とお願いしたほどだそうだ。
ちなみに、それまでメインで使っていたスピーカーは、Focal Trio11。このスピーカーは今でも気に入っているということだが、ME-50FSとの違いについてはセンター定位のサウンドのアタック感、サスティンの見え方、音の立ち方、減衰の仕方などがはっきりと見える点。これは位相が改善していくとセンター定位がどんどんとはっきりしていくという位相感の良さからくるものだろう。ME-50FSの狙い通り、といった部分を直感的に感じ取っている。
・標準器となるサウンドの魅力
ME-50FSの導入により作業上大きく進化したことがあったそうだ。スタジオではマスタリングまでのワンストップで制作を行っているため、スタジオで作られた音源をさまざまな場所、車内や他のスピーカー環境、ヘッドフォン、イヤフォンなどで違いが出ないかを確認する作業を行っている。やはり、リスニング環境により多少の差異が生じるのは仕方がないが、イメージそのものが異なってはいないか?という部分にはかなり神経を使って仕上げているとのこと。これまでのスピーカー環境では、少なからず修正、微調整の必要があったとのことだが、ME-50FSで作業を行うようになってから、この修正作業がほとんどなくなったということだ。究極の標準器を目指して開発されたME-50FSのポテンシャルを言い表すエピソードではないだろうか。フラットである、位相変化がないということは音に色がついていないということである。そのため、他の環境であったとしてもその環境の色がつくだけで、色自体が変化するということにはならないということではないだろうか。
ほかにもサウンドとしての魅力は、奥行き感、前後の距離感、立体感などを強く感じると言う点にあるという。やはり、位相の良さ、トランジェントの良さがここには大きく影響していると感じるところだとお話いただいた。製品開発にあたりTOAがコンセプトとした部分が実際のコメントにも現れている。開発コンセプト、TOAの目指した標準器としてのサウンドが気に入った方であれば「これしかない」と思わせる実力を持った製品であると言える。
トランジェントが良い、ということは音の立ち上がりが良い、サスティンの余韻が綺麗に減衰するなどといった部分に効果的だ。これを実現するためにTOAでは10cmという小口径のユニットを採用し、ロングストローク化して最低限となる質量のユニットを使い正確にユニットを動かすということでその改善にあたっている。動き出しの軽さ、正確なユニット動作の入力に対するレスポンス。そういったことを考えるとやはりユニット自体の質量は少ないに越したことはない。打楽器などのアタック感も確実に改善しているのだが、このトランジェントの良さを一番感じるのはベースラインだという。高域に関しては他社のスピーカーもトランジェントを突き詰めているが、低域は大口径のユニットを使うため物理的に対処できないところがある。ME-50FSでは、小口径のユニットでその帯域をカバーしているため、圧倒的なトランジェント特性を低域に持たせることに成功している。
BEWESTではスピーカー補正のためにTorinnov Audioを導入している。西本氏はスピーカーを少し動したり、機材配置のレイアウトを変更するたびにTorinnovで測定を行い、自身の感覚だけではなく、測定器として何がどう変化したのかを確認しながらそのチューニングを行っている。ME-50FSを導入した際に測定を行ったところ、位相がほぼフラット!今までに見たことのないフラットな直線状の結果が表示されたということだ。これは、現在製品としてリリースされているスピーカーとしてはありえないこと。シングルスピーカーで無限バッフルといった理想的な環境であればもしかしたらそうなるかもしれない、というレベルの理想に限りなく近い結果である。位相特性は2-way / 3-wayであればそのクロスオーバー周波数付近(フィルターを使用するため)の位相のねじれ。それをME-50FSでは設計の要であるインピーダンス補正回路で解決している。また、ユニット自体の共振周波数による変化、この共振周波数はキャビネットにより生じるものもあれば、バスレフポートにより生じるものもある。スピーカー設計を行った際には、これらが基本的には絶対に生じるものであり、位相特性はかなり暴れたものになるのが普通である。言い換えれば、この位相特性がそのスピーカーの持つ音色ということが言えるのかもしれない。ME-50FSにはこれが無い。良い意味で音色を持たないスピーカーであると言えるだろう。これが、前述した他の試聴環境で聴いた際の破綻のなさに直結している。
・アナログの持つ普遍性を再認識する
同様にウィークポイントに関してもお伺いしたが、これに関してはやはりローエンドのお話が出た。10cmという口径からくるものだと感じたが、やはり大口径スピーカーのサウンドとは違う。しかし、ME-50FSは設計の優秀さもあり、それでも40Hzあたりまではしっかりと音として出力されている。それ以上低い30Hzあたりになるとさすがに苦しいが、音程を持って人間が知覚できる範囲はカバーできていると言えるだろう。このようなこともありTrio 11から移行したばかりのころはローエンドの不足を感じていたが、この部分も量感の違いはあってもしっかりと出力されているので時間とともに慣れてしまったということだ。ただし、マスタリングという観点で考えるとやはり昨今の作品で使われる20~30Hzが欲しくなることはあるそうだ。
このスピーカーを使うエンジニアとしては、アナログだから、デジタルだからという部分に拘りは特に無い。ただ、アナログの持つ普遍性とは、変わらずにあるもの、究極を目指せるものであることを改めて認識したということだ。スタジオを作ってからずっと持ち続けてきた、モニターへの悩み。このスピーカーとの出会いによりその悩みが解消された。やはりイメージして作った音と、他のスピーカーでの再生も含めた出音の差がないというのがスタジオモニターとしての理想であり、それを実現しているこのスピーカーは革命的だという。
色々なお話をお伺いしたが、TOAの開発コンセプトがまさにエンジニアの求める理想のスピーカーであったということを裏付けるかのようなお話をいくつも聞くことができた。TOAのこれまでのスピーカー開発の技術、そのすべてが詰め込まれた結晶体とも言える1台、音の標準器となるME-50FSから出力されるサウンドがどのようなものか是非体感してみていただきたい。
*ProceedMagazine2023-2024号より転載
Music
2023/12/19
MTRX II / MTRX StudioにThunderbolt 3 Moduleが登場!〜新たなオーディオ・ワークフローを実現するシステムアップとは〜
NAMM Show 2023でPro Tools | MTRX IIとともに発表され、大きな話題となった「MTRX Thunderbolt 3 Module」。オーディオ制作者の長年の夢であったかもしれないAvidフラッグシップI/Oをネイティブ環境で使用できる日がついにやってきたことになる。MTRX Thunderbolt 3 Moduleの特徴は、MTRX II / MTRX StudioをCore Audioに接続するだけでなく、DigiLinkポートの入出力と同時にThunderbolt入出力を追加で使用できるという点にもある。つまり、1台のMTRX II / MTRX StudioにHDXシステムとネイティブDAWを同時に接続することが可能で、双方に信号を出し入れすることができるということだ。単に高品位なI/Oをネイティブ環境で使用できるようになるというだけでなく、中規模から大規模なシステム設計にまで影響を及ぼす注目のプロダクト「MTRX Thunderbolt 3 Module」を活用した代表的なシステムアップの例を考えてみたい。
Thunderbolt 3 Module
価格:135,080円(税込)
MTRX IIとMTRX Studioの両製品に対応したThunderbolt 3モジュールのリリースにより、DigiLink接続によるパワフルなDSP統合環境に加えて、 Thunderbolt 3経由で実現する低レイテンシーなCore Audio環境での柔軟性も実現可能となる。Thunderbolt 3オプション・モジュール経由で、MTRX IIでの使用時に最大256ch、MTRX Studioの場合では最大64chにアクセスが可能、Core Audio対応アプリケーション等をDADmanソフトウエアにルートし、より先進的なオーディオ・ワークフローが実現できる。
シーン1:Core Audio対応DAWのI/Oとして使用
MTRX Thunderbolt 3 Moduleの登場によって真っ先に思いつくのはやはり、これまでHDXシステムでしか使用できなかったMTRX II / MTRX Studioをネイティブ環境でI/Oとして使用できるようになったということだろう。Logic Pro、Nuendo、Cubase、Studio OneなどのCoreAudio対応DAW環境でAvidフラッグシップの高品位I/Oを使用することができるだけでなく、巨大なルーティング・マトリクスや柔軟なモニターコントロール機能をシステムに追加することができるようになる。
もちろん、恩恵を受けるのはサードパーティ製のDAWだけではない。HDX非対応のPro Tools Intro、Pro Tools Artist、Pro Tools Studio、さらにPro Tools Ultimateをnon-HDX環境で使用している場合にも、HDXシステムで使用されるものと同じI/Fを使用することができるようになる。特に、Pro Tools Studioはこのオプション・モジュールの登場によって、そのバリューを大きく拡大することになる。Pro Tools Studioは最大7.1.6までのバスを持ち、Dolby Atmosミキシングにも対応するなど、すでにイマーシブReadyな機能を備えているが、従来のAvidのラインナップではこれらの機能をフル活用するだけのI/Oを確保することが難しかった。MTRX Thunderbolt 3 Moduleの登場によって、Avidの統合されたIn the Boxイマーシブ・ミキシングのためのシステムが完成することになる。
シーン2:HDXシステムにダイレクトにMacを追加接続
MTRX II / MTRX Studioのドライバーであり、ルーティング機能やモニターセクション機能のコントロール・アプリでもあるDADman上では、DigiLinkからのオーディオとThunderboltからのオーディオは別々のソースとして認識されるため、これを利用してDigiLink接続のMacとThuderbolt接続のMacとの間でダイレクトに信号のやりとりができる。例えば、Dolby Atmosハードウェア・レンダラーとHDXシステムのI/Fを1台のMTRX II / MTRX Studioに兼任させることが可能になる。Pro Toolsとハードウェア・レンダラーが1:1程度の小規模なミキシングであれば、I/O数を確保しながらシステムをコンパクトにまとめることができるだろう。
もちろん、Dolby Atmosハードウェア・レンダラーだけでなく、CoreAudioにさえ対応していれば、スタンドアローンのソフトウェアシンセ、プロセッサー、DAWなどとPro Toolsの間で信号をやりとりすることができる。シンセでのパフォーマンスをリアルタイムにPro ToolsにRecする、Pro ToolsからSpat Revolutionのようなプロセッサーに信号を送る、といったことが1台のI/Fでできてしまうということだ。Thuderboltからのソースはその他のソースと同様、DADman上で自由にパッチできる。使い方の可能性は、ユーザーごとに無限に存在するだろう。(注:MTRX StudioのThuderbolt 3 I/Oは最大64チャンネル。)
シーン3:Dolby Atmosハードウェア・レンダラーのI/Fとして使用
シンプルに、HDXシステムとDolby Atmosハードウェア・レンダラーのそれぞれにMTRX IIを使用することももちろん可能だ。HDX側のMTRX IIからDanteでレンダラーに信号を送り、レンダラー側のMTRX IIからモニターセクションへ出力することになる。大規模なシステムの場合、複数のプレイアウトPro Toolsからの信号を1台のMTRX IIにまとめると、オプションカードスロットがDigiLinkカードで埋まってしまい、アナログI/Oをまったく確保できないことがある。ハードウェア・レンダラーのI/FとしてMTRX IIを採用した場合には、その空きスロットを利用して外部機器とのI/Oを確保することができる。MTRX II同士をDanteで接続していればひとつのネットワークにオーディオを接続できるので、Dante信号としてではあるがメインのMTRX IIからコントロールすることも可能だ。
NAMM Show 2023での発表以来、多くのユーザーが待ちわびたプロダクトがついに発売開始。In the Boxから大規模システムまであらゆる規模のシステムアップを柔軟にすることができるモジュールの登場により、ユーザーごとのニーズによりマッチした構成を組むことが可能になった。新たなワークフローを生み出すとも言えるこの製品、システム検討の選択肢に加えてみてはいかがだろうか。
*ProceedMagazine2023-2024号より転載
Music
2023/08/16
GPU Audio / 既存概念を超越するオーディオGPU処理の圧倒的パフォーマンス
AES2022で綺羅星の如く登場し、業界の注目を集めているGPU Audio 社。これまで、AudioのPC上でのプロセスはCPUで行う、という認識が暗黙の了解のように存在していたのだが、GPUというこれまで活用してこなかったプロセッサーを使用することで、さらなる処理能力の向上を現実のものとした、まさにゲームチェンジャーとなりうる可能性を秘めた技術を登場させている。
Viennaの動作で実証された驚くべき能力
NAMM 2023の会場では、そのGPUプロセスに対し賛同した複数のメーカーとの共同ブースを構えて展示を行っていた。GPU Audio自体は、独自に開発したプラグインを複数発表しているが、NAMMの会場ではVienna Symphonic Libraryの誇る、高精度だが非常に動作が重いとされるVienna MIR PRO 3Dのセッションを、なんとGPU上で動作させるというデモを行って会場を驚かせていた。
📷コンサートホールを模したバーチャル空間に配置されたインストゥルメント。実際のオーケストラの配置を念頭に各パートが配置されており、そのパート数はなんと63。クオリティーの高さと引き換えに動作が重いことで有名なViennaではあるが、こちらのデモではさらに3D空間でのシュミレーションが加わっている。
このVienna MIRのセッション上には70トラックの音源が同一空間に配置され、3D空間内部での音源として再生が行われていた。CPUでの処理では音にノイズが混ざったりしていたものが、GPU上で動作させると使用率は30%程度に抑えられ、しかも安定して綺麗に再生される、ということがまさに目の前で実践されていた。このデモで使用されていたLaptop PCは、いま考えられる最高のスペックだと自信たっぷりに案内されたのだが、まさにその通りで、CPUはIntel Core i9 13900、メモリ64GB、GPUはNVIDIA GeForce RTX 4090という、現時点における最高の組み合わせ。つまり、その最新世代のCore i9でさえ動かしきれないものを、GPUをもってすれば余裕を持って動作させることができる。これは、GPU Audioがアナウンスしているように、FIRの計算であれば40倍、IIRの計算でも10倍のパフォーマンスが得られるということが現実になっているということだ。
📷クローズアップしたのはGPU Audioの技術により組み込まれたCPU/GPUの切り替えボタン。ベータ版のため実際の製品でもこのような仕様になるかは不明ではあるが、これこそが本記事でご紹介しているGPUによるオーディオ処理を確認できるポイントとなる。GPUがいかに強力とはいえ、有限のプロセッシングパワーであることは間違いない。従来のCPU処理と選択できるというアイデアは、ぜひともリリース版にも搭載してもらいたい機能だ。
並列処理、ベクトル計算を得意とするGPU
📷CPUとGPUでの処理速度の差をグラフ化したものがこちら。一般的に処理が重いと言われているFIR(リニアフェイズ処理)において、30〜40倍の速度向上が見込めるというのが大きなトピック。一般的なEQ処理などで使われるIIRにおいては、CPUとの差は縮まり10~15倍。これは、元々の処理自体が軽いということもありこのような結果になっているようだが、それでも大幅な処理速度向上が見込める。多数のコアを使った並列処理によるFIR処理の高速化は、やはりGPUの真骨頂と言えるのではないだろうか。
なぜ、GPUをAudioのプロセスに使うだろうか?筆者も10年以上前から、Audio Processを行うにあたりCPUは頑張って仕事をしているが、GPUは常に最低限の仕事(ディスプレイへのGPUの表示)しか行っていないのは何とももったいないと感じていた。高価なデスクトップPCを購入すれば、それに見合ったそこそこのグレードにあたるGPUが搭載されてくることがほとんど。搭載されているのにも関わらず、その性能を活かしていないのはなんとももどかしい。しかも、GPUはオーディオ信号処理にとってのエキスパートとなる可能性を持つ部分が数多くある。
まず考えられるのは、大量のトラックを使用し多数のプラグインを駆使してミキシングを行うといったケース。かなり多くの処理が「並行して複数行われる」ということは容易に想像できるだろう。これはまさにGPUが得意とするリアルタイム性が必要な並列処理であり、レイテンシーを縮めることと、並列処理による処理の最適化が行えるはずである。次に、GPUがベクトル計算のプロフェッショナルであるということ。オーディオ波形を扱うにあたり、この特徴は間違いなく活かせるはずである。オーディオの波形編集などで多用されるフーリエ変換などはGPUの方が秀でている分野である。
●GPU(Graphics Processing Unit)とは!?
GPUとはGraphics Processing Unitの略称であり、リアルタイム画像処理に特化した演算装置あるいはプロセッサを指す。通常の演算処理に使用するCPU=Central Processing Unitとの違いは、膨大な並列処理をリアルタイムに演算する必要がある3Dのレンダリング、シェーディングを行うために数多くの演算用のコアを搭載しているということが挙げられる。現行のCPUであれば、4~20個ほどのコアを搭載しているものが一般向けとして流通しているが、それに対しGPUではNVIDEAの現行製品RTX 40シリーズは処理の中心となるCUDAコアを5888~16384個と桁違いの数を搭載している。
このような高度な並列処理が必要となった過程はまさに3D技術の進化とともにあり、Microsoftが1995年に開発した、ゲーム・マルチメディア向けの汎用API Direct Xの歴史とともにハードウェアの進化が二人三脚で続いている。3Dのグラフィックスをディスプレイに表示するには、仮想の3D空間において、指定座標におかれた頂点同士をつなぎ合わせたワイヤーフレームの構築し、そこに面を持たせることで立体的な形状を生成。これを空間内に配置されたオブジェクトすべてにおいて行う。そこに光を当て色の濃淡を表現、後方は影を生成、霧(フォグ)の合成など様々な追加要素を加えてリアリティーを上げていく。こうして作られた仮想の箱庭のような3D空間を、今度は2D表現装置であるディスプレイ表示に合わせて、3D-2Dの座標変換処理、ジオメトリ処理を行うこととなる。これらの作業をリアルタイムに行うためには、高速にいくつもの処理を並列に行う必要がある。それに特化して並列化を進めたものが今日のGPUである。
NVIDIA GPU比較表
このような並列処理に特化したGPUは、2005年ごろよりコンピューティングの並列化に最適なプロセッサーとしてGPGPUという新たな分野を切り拓いている。単一コアの高性能化が一定の水準で頭打ちすることを見越して、処理を並列化することでの効率化、高速化を図るというものである。汎用CPUと比較して明確なメリット・デメリットはあるものの、特定分野(特にベクトル計算)においてはその性能が発揮されるということもあり、スーパーコンピュータ分野で普及が進んでいる。
現在では、Direct X 10以降の世代の汎用GPUであればGPGPU対応となっている。汎用のAPI「C++ AMP」や「OpenACC」などのプログラミング言語環境も整っており、普通に入手可能な製品でもGPGPUの恩恵を受けることは可能である。まさに今回紹介するGPU Audioはこのような特徴を活かしたものと言えるだろう。
オーディオでシビアなレイテンシーを解決
📷NAMM Showの会場でGPU Audioは、そのテクノロジーに賛同するメーカーと共同でブースを構えていた。
リアルタイムかつ、同時に数多くの処理を並列でこなすことのできるGPUが、まさにAudio Processingの救世主となりうる存在であることは、多くのPCフリークが気付いていたはずである。しかし、なぜ今までGPUを活用したオーディオプロセッシング技術は登場してこなかったのだろうか?
ここからは筆者の考察も含めて話を進めていきたい。GPU Audioのスタッフに話を聞いたところ、昨年のAES 2022での発表までに費やした開発期間は、実に8年にも及ぶということだ。一見シンプルにみえるGPU上でのオーディオ処理だが、実現するためには多くの困難があったようだ。その具体的な事例として挙がっていたのはレイテンシーの問題。
そもそもリアルタイム性を重視して設計されているGPUなのだから、問題にはならなさそうな気もするが、グラフィックとオーディオの持つ性質の差が解決を難しくしていたようだ。想像をするに、画像処理であれば一部分の処理が追いつかずにブロックノイズとして表示されてしまったとしても、それは広い画面の中の微細な箇所での出来事であり、クリティカルな問題にはならない。しかしオーディオ処理においてはそうとは行かない。処理遅れにより生じたノイズは明らかなノイズとして即時に聴こえてしまい、オーディオにおいてはクリティカルな問題として顕在化してきてしまう。単純にGPGPUなど、GPUをコンピューティングとして活用する技術は確立されているのだから、プログラムをそれにあった形に変換するだけで動くのではないか?と考えてしまうが、そうではないようだ。
CPUが非力だった時代より今日までオーディオプロセスを行わせるための最適なデジタル処理エンジンは、DSP=Digital Signal Processerである。これに異論はないはずだ。昨今ではFPGAを使用したものも増えてきているが、それらも基本的にはFPGA上にDSPと同様に動作するプログラムを書き込んで動作させている。言い換えれば、FPGAをDSPとして動作させているということだ。
その後、PCの進化とともにCPUでの処理が生まれてくるのだが、これは汎用のプロセッサーの持つ宿命としてレイテンシーが発生してしまう。もちろんDSPの処理でもレイテンシーは発生するのだが、CPUは処理の種類によりレイテンシー量が異なってくる一方で、その遅延量を定量化することが可能なのがDSPの持つ美点である。レイテンシーが定量であるということは、オーディオにとっては非常に重要なこと。問題にならないほどレイテンシーが短いのであれば、あえてディレイを付加することにより遅延量を定量化することは容易いのだが、チャンネル間の位相差などレイテンシー量がバラバラになるとクリティカルな問題に直結してしまう。GPUの持つ可能性がどれほどのものなのかは、今後登場する製品に触れたときに明らかになることだろう。
📷デモではViennaを使っていたが、GPU Audioでは自社でのプラグインのリリースも行う。こちらが自社で開発したコーラス、フランジャーなどのモジュレーション・プラグインと、FIRを活用したリバーブプラグインとなる。従来のCPUベースのプラグインをリリースするサードパーティ各社への技術提供と並行して、このようにGPU Native環境でのプラグイン開発を行うプランが進行している。
デモを見るかぎりGPUが持つ可能性は非常に高いと感じる。PCでのオーディオプロセスとしてはフロンティアとも言える領域に踏み込んだGPU Audio。今まで以上のプロセッシングパワーを提供することで、全く新しい処理を行うことができるプラグインの登場。DAWのミキシングパワーはCPUで、プラグインプロセスはGPUで、といったような処理の分散による安定化など多くのメリットが考えられる。今後、GPU Audioの技術により業界が大きく変化する可能性を大いに感じられるのではないだろうか。
📷プレゼンテーション用のステージではライブパフォーマンスも行われていた。QOSMOはファウンダーであり、自身もミュージシャンであるNao TokuiとBig YUKIによるパフォーマンスを提供。一流ミュージシャンに寄るパフォーマンスが楽しめるのもNAMM showの醍醐味のひとつ。
*ProceedMagazine2023号より転載
Music
2023/08/10
TAOCファクトリーツアー / 鋳鉄のプロフェッショナル集団が生み出す、質実剛健プロダクツ
制振についてのコア技術に特許を持ち、実に40年にわたりホームオーディオの分野で活躍しているTAOC。40年間の製品開発で蓄積したノウハウを基に開発した新たな製品レンジ「STUDIO WORKS」シリーズを投入し、これまでは特注でしか生産されることがなかったプロオーディオ市場へ本格的に参入する。鋳鉄こそが「遮断」と「吸収」という2つの役割を両立できるベストな材質だという鋳鉄のプロフェッショナルたちがどのようにして製品を開発・生産しているのか、愛知県豊田市のアイシン高丘株式会社を訪れた。
振動を制するものはオーディオを制す
TAOCはブレーキディスクローターやシャーシ部品をはじめとした自動車部品を生産するアイシン高丘株式会社を母体に持つ。自動車用鋳造部品の製造ラインで採取される鋳鉄粉を用いて、鋳鉄の制振性や音響特性を活かした製品をホームオーディオの分野で多くリリースしているのがTAOCブランドだ。ほとんどの製品が制振にフォーカスをあてたもので、そのブランド名の頭文字が「Takaoka Anti Oscillation Casting」から成っていることからも、立ち上げ当初より音響機器の最適な振動制御を鋳造(Casting)で達成することを目的に活動してきたことが窺える。また、「異なる厚みの鉄板を密着させ、互いに違った固有値を持つ板材が振動を抑制することで、音質改善を行う二重鉄板構造」について特許を取得したこともあり、現在では多くの金属製スピーカースタンドメーカーが生産する製品の天板に採用されている。
音楽を活かすために「整振」するTAOCの製品には、音像の厚み、広がり、帯域のバランス、解像度といった要件が求められる。この複数の要件を満たすには、密度が高く、硬度が高く、自己の振動を持ち込まない減衰性を併せ持つ材質が必要となるが、これにおいて3拍子揃った材質が鋳鉄だ。
さらに、鋳鉄(言い換えれば黒煙を多量に含んだ鉄)は高い振動吸収性を持つ。鋳鉄はキャベツの葉を剥がしてランダムに並べたような黒鉛構造を持っており、その黒鉛と鉄部分の摩擦によって振動エネルギーは熱エネルギーに変換され制振性を発揮する。これが鋳鉄の大きな特徴であり、安全のためにも不要な振動を抑えておきたいブレーキローターに鋳鉄が用いられているのもうなずける。
📷各素材を特性ごとに並べてみると、鋳鉄がいかに3拍子揃った材質であるかがわかる。例えば、密度が最も高い鉛は一方で硬度が低く、硬度が最も高いセラミックは減衰性が低い。マグネシウムは減衰性に秀でているが、密度が低くなり音の厚みや解像度に劣ってしまう。この3つの特性を高い次元でバランスよく持っているのが鋳鉄だ。
鋳鉄が持つ独特な特性を体験する
アイシン高丘本社に到着後、広大な敷地内でも最奥に位置するTAOCオフィスまで車で移動。鋳鉄工場見学のレクチャーと諸注意を受けつつ、まずTAOC製品に広く用いられる鋳鉄粉のサンプルを見せていただいた。大きめの薬瓶に入れられた鋳鉄粉サンプルは、手に取ると当然ながらズッシリと重い。鉄粉はパウダー状になっている訳ではなく、砂粒ほどの大きさがあり、これが各種製品へ充填されている。試しに手に持って水平に揺らしてみると、ショックレスハンマーと同じ原理が働き、寸止めした時の反対側への反動が少なくピタッと止まる。力量は異なるが、スピーカースタンドの中でもこういった現象が起こっているのかと不思議な体験ができた。
作業着とヘルメットを装着したところで鋳造工場内へ移動を始めるが、大きな炉を拝見する前に、社内の研修施設で今の製造工程や自動化されている機械内処理の説明をいただいた。その研修施設の入口にはダンベルやエンジンブロックのサンプルを使った解説があり、自動車部品以外の鋳物製品や鋳造の成形不良のサンプルも展示されている。その中に音に関係するサンプルもあったのでご紹介しておきたい。そこには鐘形になった鉄4種類、青銅、アルミの成形物が設置されており、これをマレットで叩くことが出来るのだが、叩いてみるとアルミや青銅はサスティンが長くその音色も聴き慣れた美しいものなのだが、比べて鋳鉄を叩いた音色はどれも複雑な倍音をもち、アタックも鈍く、そして減衰が速い。素材自体に制振効果があるということは前知識としてあったが、実際にマレットで衝撃を与えた際の応答は予想以上に顕著なもの。オーディオ製品として鋳鉄が持つ可能性に期待が高まる。
鐘形のサンプルの裏手側には設計から製品になるまでの工程がジオラマ形式で展示され、アイシン高丘の鋳物製造フローが学べる。社員研修や社内技能試験などでは研修施設の機能をフルに活用するとのことだが、今回は鋳鉄粉が出来るまでの一部の工程を説明していただいた。
鋳鉄粉が採取できる工程は、鋳造の後半にあたる後処理工程となる。上型、下型、中子型から製品を取り出す作業が行われ、製品は砂型を壊して取り出される。取り出した製品には型で使われた砂が付着しているため、ショット機と呼ばれるサンドブラストの一種を使用してバリや砂を除去する。この作業によって、素材の表面が剥がれ落ち鋳鉄粉が採取できるわけだ。こうしてショット機からメディアが噴射され後処理が完了すると集塵機には砂、メディア、鋳鉄粉が混ざったものが集まる。これを選別して鋳鉄粉を取り出し、さらに取り出した鋳鉄粉は規格に沿ったメッシュを通して粒を揃えたものを採取する。このような工程で選りすぐられた鋳鉄粉をTAOCではスタンドの制振材として活用している。
📷バリ取りの工程で写真のショット機が使用される。砂型から取り出された製品からサンドブラストの一種であるこちらの機械を使ってバリと砂を除去する。すぐ隣にあるのがショット機用の集塵機。ここに集められたものを規格に沿ったメッシュでふるいにかけ、砂粒状の鋳鉄粉が採取される。
非日常的な迫力の工場内
研修施設での解説を受けたあとは、鋳物を製造している製造ラインへと移動する。人間の背丈を遥かに超える大型機械群に囲まれて、なにが何の為の機械なのかまるで見当がつかない。いよいよ工場にやって来たという感覚が湧いてきた。
ライン見学は製造工程通りに案内され、まずは材料となる鉄を溶かす溶解炉であるキュポラのセクションへ。1400度以上の鉄が連続溶解できるキュポラの足元には6トンほどの溶かされた鉄が入る釜が2基設置されており、満杯になるとレールを伝って鋳込セクションへ運ばれる。残念ながら、先程キュポラから運ばれてきた真っ赤な鉄を注ぐ鋳込の工程自体は外から作業を見ることができなかったのだが、工場内は常に80dBを超える音で満たされており、定期的に聞こえるエアー重機のブローオフは瞬間的に100dBを超える。これだけでも非日常的な迫力を感じることができた。
そして、後処理のセクションへ移動する。研修施設で見たショット機を使ってのバリ取りを行い、まさにいま鋳鉄粉が出来ている工程でこちらも自動化されている。その経路の途中にはセキ折りのセクションがあり、製品から伸びている湯道を切り離す作業のラインを見学。鉄でできた大きなプラモデルとでも言えば良いのだろうか、傍らから見るとランナーからパーツをニッパーで切る作業に似ているのだが、ニッパー風のエアー工具も切り離される製品もやはりそのすべてが大きい。
システムをきちんと機能させる土台
工場内を見学した後はTAOCの開発室兼視聴室へ向かった。視聴室の前は広大な庭が広がっており、アイシン高丘のOBや夜勤明けの従業員がハーフラウンドのゴルフをプレイできるという。これ以外にも社内の取り組みとして工場排熱を利用してスッポンを育てていたり、ショット機で出た砂を再利用してウコンを育てていたこともあるそうだ。鋳鉄粉もTAOC発足前は再びキュポラに戻され製品へリサイクルされていたそうだが、資源の活用とSDG'sへの意識が旧来から全社的に根付いていることがうかがえる。
開発室の中はその半分のスペースがリスニングスペースとなっており、天井や壁面は防音・吸音加工が施されている。残り半分のスペースは様々な資料と音源を収納したラック、ここを囲うようにオリジナルスピーカーや検聴を待つ試作品が並び、そこにはSTUDIO WORKSのデスクトップ型スタンドもあった。同じくSTUDIO WORKSのインシュレーターを手に取ってみると一般的にイメージする鋳物とは思えない仕上がりで、質感はどちらかと言うと鍛造に近い。切削の工程があるのか聞いたところ、仕上げの工程はあるが基本的には鋳込時の流す量と時間で密度をコントロールしているという。それらの製品を設置していただき拝聴後、TAOCチームの南氏、杉田氏、西戸氏にお話を伺った。
Rock oN多田(以下、R):改めてTAOCの持つ特徴をお伺いさせてください。
西戸氏:アイシン高丘は1960年ごろからトヨタ自動車の鋳物部品を生産しており、東洋一の鋳物工場を作るんだという熱意を持ってスタートしました。そしてちょうど40年前の1983年、オイルショックで一時的に鋳物の生産量が少なくなっていく中で自動車部品以外にもこの独自の鋳造加工技術を活かせることはないかと、社内で検討する部署が立ち上げられて、鋳物のスピーカーベースの生産からオーディオアクセサリの事業をスタートしました。鋳物を使ったモノづくりとして、鋳物の墓石を作ってはどうだとか、当時は色々試行錯誤していたと聞いています。また、当時はシミュレーションも少なかったため、製品開発は試行錯誤の体当たりで製作していました。インシュレーター、オーディオボード、オーディオラック、スタンドに加えて鋳鉄製ユニットマウントリングを特長としたスピーカーの製作など、鋳鉄が持つ振動吸収を活かした製品をリリースしています。鋳鉄には素材自体が自分で揺れず、振動を適度に吸収するという特性があります。それを実証するようにスピーカーユニットのリングを作った時は樹脂と比べて真っ直ぐにドライバがストロークしました。これは本来持っている音を出すことができていたとも言えます。
R:STUDIO WORKSという新たなコンセプトで製品を生み出した経緯をお伺いできますか。
南氏:2018年に、とあるマスタリングスタジオのテックエンジニア様から、システム全体の音質向上のためにお声がけいただきTAOC製品を導入いただきました。以降も、エンジニア様とは音質に関する研究交流を続けていた中、杉田の案で2021年のInter beeに2人で行き、特注スタンドのオファーをいただき、要望を伺いながら何本も製作していく中、徐々にプロオーディオ向け製品のコンセプトが定まっていったという経緯があります。
杉田氏:ポタフェス(ヘッドフォン、イヤホン)に行った時も印象深いですね。ポタフェスはポータブルオーディオのイベントではありますが、それを踏まえても音響製品のイベントなのに会場が無音というのはショックを受けました。今までは主に、音を聴く側のお客様に向けての製品作りでしたが、ヘッドフォンの中に聴こえる素晴らしい音を創る側のエンジニア様、音楽家の皆様向けにTAOCとしてお役に立てられないかと思うようになりました。
R:STUDIOWORKSをどういったユーザー層を想定しているのでしょうか。
南氏:プロのエンジニアの方々やミュージシャンの皆様はもちろん、良い音を追求するすべての方々にご体験いただきたいですね。
杉田氏:イレギュラーな使い方や面白いご意見をいただき、そのフィードバックをいただければそこから更に製品の改善にもつながると思います。また個人向けで評価をいただいているこれまでの製品も、プロの方のフィードバックを反映してより良いものが作れると思っています。試作に対してのハードルが低いので、要望はどんどん欲しいですね。なので特注製品、いわゆるワンオフも大歓迎です。製品はすべて国産で製造しているので、フットワークも軽いですよ。
📷本文中でも触れたデスクトップサイズのスタンドも試作されていた。ユーザーの声を素早く反映してラインナップすることはもちろん、ワンオフでの特注にも柔軟に対応できるそうだ。
南氏:TAOCスタジオワークスは一貫して、確かな効果と実用性にこだわり、外観はとてもシンプルな仕様になっています。従来のTAOC製品同様に、20年・30年以上と永く使えるモノづくりをしています。また、今回のスタンドやインシュレーターはどのモデルも、それぞれエンジニア様やロックオンさんと何度も意見交換をしながら完成させたコラボのような製品で、みなさんの熱い思いが詰まっていると感じています。素晴らしい音楽を作られる皆様の鋭い感性と貴重なご意見に、いつも多くの学びがあります。今後も多くのミュージシャン様、エンジニア様とご一緒させていただきながら、TAOCスタジオワークスを進めていきたく思っています。
杉田氏:1983年9月に創業したTAOCは、今年2023年9月に40周年を迎えます。今までのご愛顧に深く感謝をお伝えしながら、次の40年に向けて新しいチャレンジをしていきます。TAOCスタジオワークスも、すでに多くのエンジニア様・ミュージシャン様のスタジオに導入いただけており、手応えを感じています。シリーズ第2弾の製品開発も進めていますので、ぜひ注目していただけると嬉しいですね。
📷写真左より、アイシン高丘エンジニアリング株式会社 TAOCチーム杉田 岳紀 氏、TAOCチーム 西戸 誠志 氏、Rock oN 多田純、ROCK ON PRO 前田洋介、TAOCチーム 南 祐輔 氏。
工場内でキュポラの説明を受けた時にまるでターミネーター2のラストシーンみたいですねと言うと、T-800は鉄の中で沈むので鉄より比重が大きい、おそらくT-800は鉄ではないんですね…と答えが返ってきた。映画のワンシーンにおいても鉄が基準(!)、そのどこまでもアイアンファーストな姿勢はプロオーディオの中で新たなメインストリームを作り出すことになるのではないだろうか。工場で製品が生産される際に生じる余剰となっていた鋳鉄粉だが、それを確かな研究開発の裏付けでリユースし、類まれなる制振特性は40年にわたりオーディオの世界で実績を重ねてきた。そしていま、プロユースの現場にもそのムーブメントが訪れようとしている。
*ProceedMagazine2023号より転載
Music
2023/08/08
ONKIO Acoustics / 音響ハウス開発陣が語る、DAWへ空気感を吹き込むその音の佇まい
1973年の設立から50年にわたり、数多のアーティストから愛され続けているレコーディングスタジオ「音響ハウス」。CITY-POPの総本山として、近年さらに注目を集めているこの音響ハウスにスポットを当てた音楽ドキュメンタリー映画「音響ハウス Melody-Go-Round」が2020年秋に公開された。本作のなかでは日本を代表するアーティストの数々が、音響ハウス独特の空気感や響きの素晴らしさについて語っている。
この映画制作を通じて、その稀有な響きを記録しておくべきだというアーティストや音響ハウスOBからの提言が寄せられ、音響ハウスStudio No.1、No.2のフロアの響きを忠実に再現する構想がスタートしたという。そして約1年半の開発期間を経た2022年秋、音響ハウス公式記録となるソフトウェアONKIO Acousticsが満を持して発売された。ONKIO Acoustics誕生までの足跡と開発秘話、そしてソフトウェアに込められた熱い想いを音響ハウスにて伺うことができた。
●TacSystem / ONKIO Acoustics 価格 ¥10,780(税込)
「録音の聖地」ともいえる音響ハウス Studio No.1 / No.2の空間を、音場再現技術であるVSVerbを用いて忠実に再現したプラグイン「ONKIO Acoustics」。音響ハウスの公式記録として次世代に伝える意義も込め、大変リーズナブルな価格で提供されている。ONKIO Acousticsプラグインでは、マイクのポジションを X軸、Y軸、Z軸 それぞれ-999mm〜+999mm、マイクアングルを-90度から+90度まで変更でき、単一指向性 / 無指向性 の切替えも可能。まるで、実際に音響ハウスでレコーディングを行っているかのような空気を体感することができる。
>>>ONKIO Acoustics製品ホームページ
●ONKIO HAUS Studio No.1
📷音響ビル8FのStudio No.1。コントロールルームにはSSL 9000Jを擁しこれまでも数々の名盤がレコーディングされてきた。ONKIO Acousticsではこちらのメインフロアを再現、マイクポジション設定のほかにもStudio No.1の特徴的な反射板の量までセレクトすることができる。
●ONKIO HAUS Studio No.2
📷プラグイン内での再現ではStudio No.2のメインフロアはもちろん、Booth-Aのソースをブース内、ブース外から収録するシチュエーションも用意された。なお、こちらのコンソールはSSL 4000G、蓄積されたメンテナンスのノウハウがつぎ込まれそのサウンドが維持されている。
VSVerbとの出会い
📷株式会社音響ハウス
執行役員 IFE制作技術センター長
田中誠記 氏
スタジオの響きを忠実に再現するという最初の構想から、ソフトウェア実現に至る第一歩は何から始まったのだろうか?「レコーディングスタジオの生命線となる、スタジオの鳴りや響きをどのようにして記録・再現するか、まずはタックシステム 山崎淳氏に相談することから始まりました」(田中氏)その相談を受けた山崎氏の回答は「株式会社ソナ / オンフューチャー株式会社 中原雅考 氏が研究している特許技術、VSVテクノロジーしかない」と迅速・明快だったという。
音場を再現するにあたり、従来のImpulse Responceによる計測では測定機器の特性や部屋の騒音に左右され、ピュアな音場再現性に欠けるとの問題提起をしてきた中原氏は、仮想音源の空間分布をサンプリングするVSVerb(Virtual sound Sources reVerb)を音響学会およびAESで発表していた。VSVerbは空間の反射音場をサンプリングすることで、任意の空間の響きを再現する音場再現技術である。測定した音響インテンシティーの波形から反射音成分だけを抽出することにより、部屋の騒音をはじめ、マイクやスピーカなど測定時の不要な特性を一切含ないリバーブを生成することができる。それはつまり、不要な音色変化を生じさせない高品位なサンプリングリバーブを意味している。
VSVerbを用いて音響ハウスを再現する最初のデモンストレーションは、生成したVSVerbの畳み込みに Waves IR-L Convolution Reverbを利用して行われた。音響ハウスで20年以上のレコーディング経験を持つ中内氏はそのサウンドを聴いて、自身が楽器にマイクを立てている時の、まさにその空気感を感じて大変驚いたという。スタジオでの話し声でさえリアルに音場が再現されてしまう感動は、他のエンジニア達からも高く評価され、VSVerbを用いてソフトウェア制作に臨むことが決定。2021年夏に開発がスタートした。
●4πサンプリングリバーブ / VSVerb
VSVerbは所望の空間の反射音場をサンプリングすることで、任意の空間の響きを再現する音場再現技術です。反射音場は全周4πsr方向にてサンプリングされるため、1D, 2D, 3Dのあらゆる再生フォーマットに対して響きの再現が可能です。VSVerbをDAWのプラグインに組み込むことで音響制作時に任意の空間の響きの再現が可能となります。
響きの時間特性を方向別にサンプリングする従来の方向別 IRによるサンプリングリバーブとは異なり、VSVerbは一つ一つの反射音の元となる「仮想音源」の空間分布をサンプリングするサンプリングリバーブです。従来の方向別 IRリバーブでは、サンプリングの際のマイキングで再生可能なチャンネルフォーマットが決定してしまいますが、VSVerbはチャンネルに依存しない空間サンプリング方式のため完全なシーンベースのリバーブとなります。そのため、任意の再生フォーマットに対してリバーブエフェクトが可能です。
VSVerbでは測定した音響インテンシティーの波形から反射音成分だけを抽出することでリバーブを生成しているため、部屋の騒音やマイクやスピーカーなど測定時の不要な特性を一切含まないリバーブです。つまり、素材に対して不要な音色変化を生じさせない高品位なリバーブとなります。
(出典:オンフューチャー株式会社 資料)
ACSU2023 Day1 #1
4πへの階段 〜 MILやVSVerb などを通して垣間見るイマーシブ制作のNext Step 〜
https://www.youtube.com/watch?v=yEW4UA0MIwE
📷今春開催されたAvid Creative summit 2023では、株式会社ソナ/オンフューチャー株式会社 中原 雅考氏による「ONKIO Acoustics」のコア技術=VSverbについての技術解説セミナーが催された。音場再現技術についてのロジックをベーシックから解説し、どのように音響ハウスの空間が再現されたのか確認することができる。
スタッフ総出のサンプリング
音響ハウスStudio No.1、No.2の鳴りをサンプリングする作業はスタッフ総出で、B&K(ブリュエル・ケアー)の全指向性スピーカーを床から1.2メートル、マイクをStudio No.1では床から2.7メートル、Studio No.2では2.5メートルの高さに設置して行われた。Senheiser AMBEO VR Micが用いられたが、その4ch出力はAmbisonics方式では処理されず、AMBEO VR Micは音響インテンシティープローブとして使用されたそうだ。
📷スタッフ総出で行われたという、サンプリング作業の様子を見せてくれた。B&K(ブリュエル・ケアー)の全指向性スピーカーとSennheiser AMBEO VR Micを設置する場所や高さは、通常レコーディング時の音源位置と、アンビエンスマイクの位置を想定して決定されたそうだ。
これら4chの音データがオンフューチャーのソフトで解析され、音圧と粒子速度を掛け合わせた音響インテンシティーにより、反射音成分のみが抽出されている。なお、Studio No.1の壁面上部にある反射板は取り外し可能になっているため、サンプリングには反射板の設置パターンがFully(全設置)、Half(半分設置)、None(無し)の3種類が用意された。曲面加工が施され、裏面にパンチカーペットが貼られた木製の反射板1枚1枚が、スタジオの響きをコントロールする重要な役割を果たしている。「Halfという設定は、音響ハウスの響きを熟知している著名なプロデューサーが、ハーフ設定を好んでレコーディングしていることから採用しました」(中内氏)とのことで、その響きがプラグインの中でもしっかりと再現されている。Studio No.2ではメインフロアに加えて、ブース内、ブース外でのサンプリングもおこなわれ、それらの再現もまた音響ハウスを知る多くのミュージシャンから高評価を得ている。
音響ビル社屋をイメージしたGUI
📷株式会社音響ハウス
IFE制作技術センター 技術グループ チーフ
志村祐美 氏
プラグインのGUIデザインは映像編集に携わってきた志村氏が担当に抜擢され、コロナ禍のためリモート会議で制作が進められたそうだ。グラフィックソフトの画面を共有して、リアルタイムにデザインする様子を皆で確認しながら試行錯誤したそうだが、志村氏は「このパーツを修正したい理由を、私が理解できるように説明して下さい!というやり取りが何度もありました(笑)」と当時の苦労を語ってくれた。「GUIのグランドデザインは最初、音響ビルそのものをイメージした縦長サイズで、メニューをクリックしてスタジオを選択するというものでした」(田中氏)その構想は製品版GUIの縦長サイズと、背景にうっすらと見える煙(けむり)のテクスチャへと引き継がれていた。「音響ビル外観をイメージした色使いで、下からフワッと上がるけむりのグラデーションが空気感を表現しています。プラグインが縦に長いと場所をとるので、画面を三つ折りにしたいという私の最初の要望も製品に反映されています」(志村氏)
📷音響ビル社屋をイメージしたという、田中氏が描いた最初期のGUIスケッチ。こちらをスタートに志村氏がデザインを施していった。外部のデザイナーではなく、建物自体をも含めたスタジオの空気感をよく知った社内スタッフで丹念に組み上げられていったことがわかる。
Lexiconのリモートコントローラーをイメージしたフェーダー部は、ストロークの長さにもこだわった。「ストロークが長い方が使いやすいだけでなく、音に関係なかったとしてもパッと見た瞬間のカッコ良い / 悪いが判断基準でした。見えないものを創るという性質上、見えるもので盛り上がりたいという気持ちを大切にしています」(中内氏)そういったスタッフの想いを具現化していく作業は、まるで音楽を生み出すようでスタジオワークにも近かったのではないだろうか?パラメーターを少なくして簡単に音作りできるようにしたい、という開発時からのコンセプトとともに、スタッフそれぞれの哲学が込められたGUIには一切の妥協がなかった。
空気を録音することがコンセプト
📷株式会社音響ハウス
スタジオ事業部門 技術部 音楽グループ
チーフ レコーディングエンジニア
中内茂治 氏
「ONKIO Acousticsは音響ハウスのスタジオを再現するルームリバーブなので、オフマイクを作るのに向いています。例えばレコーディング編成の都合上、ブース内でオンマイク収録した際には、オフマイク音をONKIO Acousticsで再現してオンマイクとブレンドしたりします」(中内氏)さらにその後段でリバーブ処理することにより、豊かな奥行き感を表現するという手法もあるそうだ。また、シンセサイザー音源から出力されるダイレクトなサウンドはアタック成分が強く、特にサンプリング音源の硬さがイコライザーで取れない場合には、ONKIO Acousticsを使用するだけで一発で解決するケースも多いのだとか。「極論を言えば、リバーブ音を構成する LOW / MID / HIGH 3つのバンドレベルのうち、HIGHを下げるだけでほぼ音が馴染んでしまいます。アタックのコントロールと空気感を含めた前後のコントロールが抜群で、コンサートホールに例えると三点吊りマイクで収録したような空気感も得られます。どんなEQよりも簡単迅速に、オケに馴染む音作りを実現してくれますよ。昨今はヘッドホンやイヤホンだけで音楽制作をしているDTMユーザーが増えていますが、そのような環境であればこそ、ONKIO Acousticsの空気感が際立ってくると思います。アレンジや音作りの手がかりとしてもぜひ活用して欲しいです」(中内氏)
📷音響ハウスStudio No.1の反射板は簡単に取り外しが可能とのこと。反射板の場所や数を調整して響きを自在にコントロールできる、そんな稀有な機能を備えたスタジオだ。ONKIO Acousticsプラグイン内でもReflectors:Fully(フル設置)、Reflectors:Half(半分設置)、Reflectors:None(なし)の3種類を選択することができ、Studio No.1の機能をもリアルに再現することができている。
「ONKIO Acousticsはエフェクトカテゴリーとしてはリバーブに相当しますが、空気を通す、つまり空気を録音することがコンセプトにあるので、一般的なリバーブプラグインとは異なります」(田中氏)度々登場するこの "空気" というキーワード。そのなかでも特に、空気を録音するというコンセプトは、音の正体が空気の疎密波であるということを再認識させてくれるのではないだろうか。ONKIO Acousticsは他のプラグインと同様に、パソコン内で音楽制作するツールということに変わりはないが、DAWに空気感を吹き込む、その音の佇まいが最大の魅力ということである。
「次世代の若者に音響ハウスのサウンドを体験して欲しいという思いが一番にあります。プロの方達は実際に音響ハウスに来ることができますが、そうではない方達にレコーディングスタジオの空気感を知って欲しいですね。このプラグインが、自宅だけではできない音作りがあるということに気付くきっかけとなって、数年後にユーザーがエンジニアやアーティストになって音響ハウスを使ってくれれば良いなと。そこで、次世代に伝えたいという意味でも、大変リーズナブルな価格設定で提供しています」(田中氏)驚くのはその価格の低さだけではない。たった29.8MBというプラグインのデータサイズは、サンプリング・リバーブというカテゴリーにおいては驚異的な小容量である。ソフトウェアのデータサイズから見ても、ONKIO Acousticsが通常のリバーブとは根本的に異なることがお分かりいただけるだろう。
空間処理における最強コンビへの構想も!?
📷空気の振動にこだわったONKIO Acousticsとは対照的に、鉄板の振動が温かい響きを生み出すプレートリバーブEMT-140。マシンルームに所狭しと並ぶEMT-140たちをプラグインで再現して欲しい!という声が寄せられているそうだ。
ONKIO Acousticsはバージョン1.2.0で、音響ハウスのOBを含む5名の著名エンジニアによるプリセットが追加された。それらのプリセットはDAW初心者が空気を通した音作りを学べるだけでなく、サウンドプロフェショナルにも新たなアイディアをもたらしてくれるだろう。「ユーザーからGUIに関するリクエストがあれば、ぜひお聞きしたいです」(志村氏)とのことで、今後のバージョンアップにも期待が持てそうだ。また、VSVerbテクノロジーは反射音場を全周4πステラジアン方向でサンプリングする方式のため、1D、2D、3D のあらゆる再生フォーマットに対応できるのも大きな特長である。サラウンドミックスの需要が高まっているなかで、将来的にONKIO Acousticsがサラウンド対応することにも期待したい。
また、ONKIO Acousticsの発売をうけて、音響ハウスが所有している5台のプレート・リバーブ EMT140をぜひプラグインで再現して欲しい!という声も寄せられているようで、「ONKIO PLATE」としてその構想も浮かんできているようだ。「EMT140はアンプがトランジスタのほか真空管モデルもあり、みな個体差があって音が違うので、正常に動いている今のうちに記録して皆で使えるようにしたいですね。サウンド・エンジニアリングの勉強にもなりますよ」(田中氏)とのことで、このONKIO PLATEをONKIO Acousticsと併用すれば、CITY-POPを代表する空間処理の最強コンビになることは間違いないだろう。音響ハウスの新たなるソフトウェア展開が、DAWユーザーとレコーディングスタジオとの関係に新しい空気を吹き込み、次世代に向けて歩み始めている。
*ProceedMagazine2023号より転載
Post
2023/08/04
現場目線から見えてきたダビングステージでのAvid S6 / TOHOスタジオ株式会社 ダビングステージ2
📷今回お話をお伺いしたTOHOスタジオ株式会社ポスト・プロダクション部の皆様。実際にAvid S6での実作業を行われた方にお集まりいただきお話をお伺いした。左上:両角 佳代子氏、右上:早川 文人氏、左下:下總 裕氏、右下:岩城 弘和氏
2022年9月にAvid S6をダビングステージに導入した東宝スタジオ。リニューアルされてから本記事執筆までの7ヶ月で16本の作品のダビングを行ったという。本誌前号ではそのシステムのご紹介を行ったが、実際にダビングの現場におけるAvid S6の使用感や、ワークフローにどのような変化が起こったかなど、現場目線から見えてくるAvid S6導入の効果を伺った。
システムに配されたPro Tools 7台
まずは、NEVE DFCコンソールからAvid S6へと更新されたことによるワークフローの変化からご紹介していきたい。前号でも触れているが、Avid S6へと更新を行うことで、NEVE DFCが担っていたミキシングコンソールとしてのミキシングエンジンは無くなった。それを代替するためにミキサー専用のPro Toolsを2台導入し、その機能を受け持たせるというシステム設計を行っている。プレイアウトのPro Toolsが4台。ミキサーエンジンとしてのPro Toolsが2台、ダバー / レコーダーとしてのPro Toolsが1台という7台構成でのシステムとなっている。
システムとして見れば煩雑になったとも感じられる部分ではあるが、もともとPro Toolsのオペレートに習熟した技師の方が多いということ、またMA室にAvid S6、そしてシグナルルーティングのコアとして稼働しているAvid MTRXが導入済みであったこともあり、現場スタッフの皆さんもそれほど大きな混乱もなくこのシステムを受け入れることができたということだ。外部からの技師の方々も国内の他のダビングステージでAvid S6での作業を経験したことのある方が多かったということでシステムの移行は想定よりもスムーズだったという。
📷スタジオのシステムを簡易に図としたものとなる。非常に多くの音声チャンネルを取り扱うことができるシステムであるが、その接続は想像よりもシンプルに仕上がっているということが見て取れる。各MTRX間のMADI回線は、すべてパッチベイを経由しているため、接続を変更してシステムの構成を簡単に変更することができる。図中にすべてを記載できたわけではないのだが、各MTRXはMADI及びAESがユーティリティー接続用としてパッチ盤へと出力されている回線を持っている。そのため持ち込み機器への対応などもMTRXのパッチを駆使することで柔軟に行うことができるように設計されている。
このシステムを見た方は、なぜ、ミキサーPTが必要なのか?という疑問を持たれるかもしれない。シンプルにステムをダバーで収録するだけであればプレイアウト用のPro Tools内部でステムミックスを行えば良い。しかし、コンソールありきでミキシングを行ってきた経験のある方からすれば、ステムミックスを行うのはあくまでもコンソールであり、プレイアウト用のPro Toolsは音声編集、再生を担当するという考え方が根強い。仕込みが終わり、ダビングステージで他の音源とともにバランスを取る際に、改めてまっさらなフェーダー(0dB位置)でのミックスを行いたいということである。実際にミキシングを行うという目線で考えれば頷けるのではないだろうか。
もちろん実際の作業で、Pro Toolsに慣れ親しんだ方はミキサー用Pro Toolsを使用しないというケースもあったとのこと。ダイアログ、音楽はダイレクトに、効果はミキサーを通してなどというハイブリッドなケースもあり、どのような要望にも応えられる柔軟性を持ったシステムに仕上がっていることが実際の作業でも実証されている。もちろん、東宝スタジオのもう一つのダビングステージにはNEVE DFCがあるので、究極的にはNEVE DFCとAvid S6の選択もお客様のニーズに合わせて行える環境が整っている。
コンソール依存ではないオートメーション管理
実際にAvid S6での作業を行ってみて感じたメリットとしては、オートメーションデータの在り処が挙げられる。このオートメーションデータが、すべてPro Toolsのデータとして存在することによるメリットが非常に大きいということをお話いただいた。
これまで、リテイク(修正作業)や完パケ後のM&Eステム制作作業などを、ダビングステージを使わずに行うことができるようになったということを挙げていただいた。もちろん、リテイク後の確認はダビングで行う必要があるが、Pro Tooleにすべてのオートメーションデータがあるので、Pro Tools単品でのミックスが可能になった。これは、NEVE DFCを使ってミックスを行っていた際には行うことができない作業である。ミキサー用Pro Toolsを使っていたとしても、そのミキシング・オートメーションデータはPro Toolsのセッションファイルとして管理される。そのため、他のPro Toolsへとセッションインポートを行うことでミキシングの状況の再現が可能となる。一方、NEVE DFCでは当たり前だがNEVE DFC内にオートメーションデータがあり、その再現にはNEVE DFCが必須となるからだ。
このメリットは、特に後作業で発生する各種ステムデータの書き出しなどをダビングステージを使用しなくても行えるということにつながる。これにより、今後ダビングステージ自体の稼働も上げることができるのではないか?とのお話をいただくことができた。
システム更新によるメリットは、このような派生作業にまでも影響を与えている。Avid S6はそれ自体がミキシングエンジンを持たないため、コンソールではなくコントローラーだ、などと揶揄されることもあるが、コントローラーだからこそのメリットというものも確実にあるということを改めて確認することができた。
オフラインバウンスを活用する
これは、極端な例なのかもしれないが、オフラインバウンスでのステムデータの書き出しも実現している。ミキサーPro Toolsをバイパスするシステムアップであれば、オフラインバウンスで書き出したデータをダバーに貼り込むというワークフローも現実のものとして成立する。これによる作業時間の短縮などのメリットももちろんある。決まったステムからオフラインバウンスでダバーに渡していくことで、バス数の制限から開放されるといったワークフローも今後視野に入ってくるのではないだろうか。現状ではダバーへ最大128chの回線が確保されている。今後の多チャンネル化などの流れの中ではこのような柔軟な発想での運用も現実のものとなってくるのかもしれない。
このお話を伺っていた際に印象的だったのが、オフラインバウンスで作業をするとどうもダビングをしているという感覚が希薄になってしまうというコメントだ。確かに、というところではあるが、ついにダビングにもオフラインの時代がやってくるのだろうか、省力化・効率化という現代の流れの中で「オフラインバウンスでのダビング」というのものが視野に入ってくることを考えると、筆者も少し寂しい気持ちになってしまうのは嘘ではない。
システムがAvid Pro ToolsとAvid MTRXで完結しているために、作業の事前準備の時間は明らかに短くなっているとのことだ。具体的には、別の場所で仕込んできたPro ToolsセッションのアウトプットをNEVE DFCのバスに合わせて変更するという手間がなくなったのが大きいとのこと。Avid S6であれば、途中にAvid MTRXが存在するので、そこでなんとでも調整できる。事前に出力をするバス数を打ち合わせておけば、Pro Tools側での煩雑なアウトプットマッピングの変更を行うことなくダビング作業に入ることができる。ダビング作業に慣れていない方が来た場合でも、すぐに作業に入ることができるシンプルさがある。準備作業の時間短縮、完パケ後作業を別場所で、などとワークフローにおいても様々なメリットを得ることができている。
Avid S6ならではの使いこなし
📷前号でもご紹介したTOHOスタジオ ダビング2。Avid S6を中心としたシステムが構築されている。コンソールの周りには、プレイアウトのPro Toolsを操作するための端末が配置されている。マシンルームはMacPro 2019とAvid MTRXの構成に統一され、同一性を持ったシステムがずらりと並ぶ。メンテナンス性も考えてできる限り差異をなくした構成を取っているのがわかる。
東宝スタジオでは、国内最大規模となるAvid S6 / 72Fader Dual Head仕様を導入したが、物理的なフェーダー数は充分だろうか?これまでのNEVE DFCではレイヤー切り替えにより操作するフェーダーを切り替えていたが、Avid S6ではレイアウト機能など様々な機能が搭載されている。これらをどのように使いこなしているのだろうか?実際のオペレーションに関してのお話も伺ってみた。
物理フェーダー数に関しては、充分な数が用意されていると感じているそうだ。Pro Toolsのここ最近の新機能であるフォルダートラックと、Avid S6のフェーダースピル機能を活用する方が多いという。フェーダースピル機能とは、フォルダートラックにまとめられた個別のフェーダーをフォルダートラック・フェーダーの右、もしくは左に展開することができる機能である。バスマスターでもあるフォルダートラックのフェーダーを手元に並べ、フェーダースピル機能を使って個別のトラックのバランスの微調整を行う。まさにAvid S6ならではの使いこなしを早速活用していただいている。
オペレートに関して、NEVE DFCからの移行で一番多く質問されるのがオートメーションの各モードの動作。やはりメーカーが異なるということもあり、オートメーションモードの名称に差異がある。具体的には「Latchってどんな動作するんだっけ?」というような質問である。これは、回数を重ねてAvid S6を使っていけば解決する問題ではあるが、NEVE DFCと2種類の異なるコンソールを運用する東宝スタジオならではの悩みとも言えるだろう。また、コンソールとしてのEQ、COMPの操作という部分に関しては、Pro Tools上のプラグインを活用するシステムとなるため、自ずとノブではなくマウスに手が伸びるとのこと。正面を向いてしっかりと音を聴いて作業できる環境、ということを考えるとコンソール上のノブでの操作が有利だが、やはりプラグインの画面が表示されると慣れ親しんだマウスとキーボードで操作することの方が今のところは自然ということだろう。
唯一無二から正確な再現性へ
そして、いちばん気にかかる部分かもしれない音質に関して、Avid S6の導入に合わせて更新されたAvid MTRXと、NEVE DFCとの差異についてお話を聞いてみたところ、やはり、音質に関して違いがあることは確かだ、とのコメントをいただいている。確かにメーカーも異なるし、機器としても違うものなので同列に語ることは難しいかもしれないが、味のあるNEVEに対して、クリアで忠実な再現性を持ったAvid MTRXといったニュアンスを感じているとのこと。NEVEはどこまで行ってもNEVEであり、やはり唯一無二のキャラクターを持っているということに改めて気付かされているということだ。一方、Avid MTRXについては、忠実性、レスポンスなどNEVEでは感じられなかったサウンドを聴くことができるとのこと。
Avid MTRXの持つ正確な再現性は、効果音のタイミングに対して今まで以上にシビアになったりと、これまで気にならなかったところが気になる、という事象となって出現してきているということ。これはさらに作品を磨き上げることとができる音質を手に入れたということでもあり、非常にやりがいを感じる部分でもあるとのことだ。既にMA室でも導入の実績のあるAvid MTRXだが、ダビングステージの音響環境ではさらにその傾向を顕著に聴き取ることができる。これにより、今後の作品の仕上がりがどのように変化するのか楽しみな部分でもある。
音質に関しては、今後マスタークロックや電源などにもこだわっていきたいとのコメントをいただいている。これは、Avid S6が非常に安定して稼働しているということの裏返しでもある。システムのセットアップに必要な時間も短縮され、システム自体の安定度も高い。そういったことから、さらに高い水準での探求を考える余地が見えてきているということとだろう。安定稼働させることで精一杯であれば、音質云々以前にシステムを動作させることで疲弊してしまうというのは想像に難くない。このようなコメントをいただけるということは、システムとしての安定度に関しても高い水準で運用いただいているということが伺い知れる。
こうなってくると、あまり話題に上ることも多くなかったPro Toolsのミキサーエンジンの持つHEATなども活用してみては面白いのではないか?と考えてしまう。テレビのように厳密なレベル管理は行われていない映画。(これは悪い意味で管理されていないということではなく、芸術作品であるがゆえに管理を行っていないということである。)パラメーターによりレベル差が生じるHEATはテレビ向けのポストプロダクションでは使い勝手に難がある機能であったが、映画であれば多少のレベルの変動は許容できるはずである。お話をまとめていてふと、こんな想像もよぎっていった。
●ROCK ON PRO 導入事例
TOHOスタジオ株式会社 ポストプロダクションセンター2 様 / アジア最大規模のS6を擁したダビングステージ
https://pro.miroc.co.jp/works/toho-proceed2022-23/
システムの更新を行いNEVEが懐かしいというお客様も確かにいるが、新しいシステムで安定度高く作業を行うことができるメリットは大きく、好評をいただいているということだ。もう一つのダビングステージには、NEVE DFCがあるということもあり、お客様には幅広い選択肢でのワークフローを提案できる環境が整備されている。これはスタジオにとって大きなメリットであり、今後も継続していきたい部分でもあるということ。
とはいえ、Avid S6によるワークフローの改善、省力化、安定度に対する魅力も大きく、NEVE DFCとAvid S6のHybridコンソールシステムは組めないのか?などという質問も出てきている。ハリウッドでは、このようなシステムアップも現実のものとして稼働している。東宝スタジオのどのように使いたいのかというワークフローを色々と相談をしながら、今後のベストなシステムアップのお手伝いを行えればと考えている。今後の日本映画のポストプロダクションシステムを占うファシリティー。Avid S6へ移行することで獲得した多くのメリットをどのようにこれからのシステムアップに活かしていけるのか?これが今後のテーマになっていくのではないだろうか。
*ProceedMagazine2023号より転載
Broadcast
2023/08/03
Waves Live SuperRack〜あらゆるミキシング・コンソールにアドオン可能なプラグイン・エフェクト・ラック
Dante、MADI、アナログ、AES/EBU…どんな入出力のコンソールにも接続可能で、最大128ch(64chステレオ)のトラックに大量のWavesプラグインをニアゼロ・レイテンシーで走らせることができる、ライブサウンドとブロードキャスト・コンソールのための最先端のプラグイン・エフェクト・ラック。それが「SuperRack SoundGrid」です。
プロセッシングをおこなう専用サーバー本体は2Uのハーフラック・サイズ。1Uまたは2Uハーフラックの専用Windows PCはマルチタッチ・ディスプレイに対応しており、プラグインのパラメータをすばやく直感的に操作することが可能です。
システム内の伝送はWavesが開発したレイヤー2のAoIP規格であるSoundGrid。汎用のネットワークハブを介してLANケーブルのみでシステム全体を接続します。
スタジオ・ミキシングやレコーディングはもちろん、省スペースなシステムでパワフルなデジタルエフェクト処理、冗長性、ニアゼロ・レイテンシーを実現するSuperRack SoundGridは、限られた機材で最高の結果を求められるライブサウンドや中継の現場などにはまさにうってつけのソリューションと言えるでしょう。
◎主な特徴
0.8msのネットワーク・レイテンシー
最大4台のアクティブDSPサーバーをサポートし、プラグインの処理能力をさらに向上
最大4台のリダンダントDSPサーバーをサポートし、冗長性を確保
複数のプラグインを同時に表示・プラグインの表示サイズの変更
マルチタッチ対応のグラフィック・インターフェイス
ワークスペースを最大4台のタッチディスプレイに表示
SoundGrid I/Oをネットワーク上でシェアすることで、大規模なシステムにも対応
Waves mRecallアプリ:保存したスナップショットを、Wi-fi経由でスマートフォン、タブレットから呼び出し可能
個別デモのご用命はROCK ON PRO営業担当、または、contactバナーからお気軽にお申し込みください。
番組や収録のマルチトラック音源をお持ち込みいただければ、Waves SuperRackシステムを使ったミックスを体験頂けます。
◎システム構成例1
図はSuperRack SoundGridを使用したシステムの基本的な構成。例としてMADI I/Oを持ったコンソールを記載しているが、アナログやAES/EBUなどの入出力を持ったコンソールにも対応可能だ。
中列にあるMADI-SoundGridインターフェイスを介して信号をSoundGridに変換、左上の専用PCでプラグインをコントロールし、左下の専用サーバーで実際のプロセスをおこなう。
アナログコンソールやデジタルコンソールと使用したい場合は、中列のSoundGridインターフェイスを、IOCなどのアナログ・AES/EBU入出力を備えたモデルに変更すればよい。
◎システム構成例2
YAMAHA、DiGiCo、Avid Venueなど、オプションカードとしてSoundGridインターフェイスが存在しているコンソールであれば、コンソールから直接ネットワーク・ハブに接続することでシステムをよりシンプルにすることも可能だ。
SuperRackシステムの構成と選択肢
図は前述「システム構成例」からコンソールを省いたSuperRackシステム部分の概念図。ユーザーの選択肢としては、大きく3ヶ所ということになる。
左下のオーディオ入出力部については、SuperRackを接続したいコンソールの仕様によって自ずと決まってくる。SoundGridオプションカードをラインナップしているモデルであれば該当のオプションカード、そうでなければ対応するI/Oを持ったDiGiGridデバイスといった感じだ。
DiGiGrid IOCやCalrec Hydra2のように複数の種類のI/Oを持ったインターフェイスを使用すれば、デジタルコンソールとアナログコンソールで同時にSuperRack SoundGridを使用するといった構成も可能になる。
左上のWindows PCは基本的にプラグインを操作するUI部分のため、求めるマシンパワーに応じて、1UハーフラックのAxis Scopeか2UハーフラックのAxis Protonから選択すればよい。
同時に使用したいWavesプラグインやタッチディスプレイの数、レコーディング用のDAWホストを兼ねるか否かなどが選定の基準になるのではないだろうか。
右上のSoundGrid DSP Serverが、実際にWavesプラグインのプロセッシングをおこなう部分となる。複数の選択肢があるが、ここも同時プロセスの量やリダンダントの有無によって決まってくる部分だろう。
その他、KVMやLANケーブルが別途必要になる。特にケーブルはCat6対応のものが必要である点には留意されたい。
参考価格と比較表
*表はCalrec用の構成例、コンソールに応じてI/Oを選択
**プラグインライセンスは別途購入が必要
渋谷Lush Hubにて個別デモンストレーション受付中!
ROCK ON PROでは、このSuperRackシステムの個別デモンストレーションを渋谷区神南のイベントスペースLUSH HUBで予約制にて受付中です。
LUSH HUBについての詳細はこちら>>
番組や収録のマルチトラック音源をお持ち込みいただければ、Waves SuperRackシステムを使ったミックスを体験頂けます。
デモご予約のご希望は、弊社営業担当、またはcontactバナーからお気軽にお問い合わせください。
Media
2023/07/27
株式会社コジマプロダクション様 / 新たな世界を創り出す、遥かなる航海のためのSpaceship
日本を代表するゲームクリエイター・小島 秀夫氏が2015年に立ち上げた株式会社コジマプロダクション。2016年には第1作目となるタイトル「DEATH STRANDING」を発表し、2019年に待望のPS4Ⓡ版が発売されるやいなや、日本をはじめ世界各地から称賛の声があがり、米国LAで行われたThe Game Awards 2019では8部門にノミネートされ、クリフ役を演じたマッツ・ミケルセンのベスト・パフォーマンス賞を含めると3部門で賞を獲得、世界的なビッグタイトルとしてのポジションを確立した。その後も数々の受賞歴や昨年末の「DEATH STRANDING 2(Working Title)」発表など、ここ最近も話題が絶えないが、実はその裏でオフィスフロアの移転が実施されていたという。フロア移転のプロジェクトがスタートしたのは2020年の1月ごろ、昨年12月に新フロアでの稼働が開始され、サウンド制作についての設備も一新された。今回はTechnical Sound Designerの中山 啓之氏、Recording Engineer永井 将矢氏に、移転計画の舞台裏や新スタジオのシステムについて詳細にお話を伺うことができたのでご紹介していこう。
📷エントランスゲートを通った先に待ち受けている真っ暗な部屋。足元に伸びる一筋の光に導かれるまま進んだ先には、無限に続く白の空間。中央にはコジマプロダクションのシンボルキャラクター「ルーデンス」が力強く佇んでいる。ちなみにこの名前は、オランダの歴史学者ホイジンガが提唱した「ホモ・ルーデンス」(遊ぶ人)に由来しているそうだ。こうした人間の遊び心を刺激するような演出がオフィス内随所に施されていた。
Spaceship Transformation
今回のスタジオ設計のプランニング開始は2021年3月ごろと2年ほど遡る。"Spaceship Transformation"という壮大なコンセプトとともに、事業規模の拡大に伴うフロア移転が社内で伝えられ「それに見合ったスタジオを作れないか?」と、社内で協議するところからスタートしたそうだ。ゲーム制作の「何百人ものスタッフが膨大な創造と作業と時間をかけながら、ひとつのゲーム作品を作り上げていく過程」を「広大な空間を進んでいく宇宙船の航行」として置き換えてみると、制作を行うオフィスフロアはまさに宇宙船の船内やコックピットであり、そこは先進的な技術やデザインで満たされた空間であるべきだろう。勝手ながらな推察ではあるが、こう捉えると"Spaceship Transformation"が意図するところも伝わってくるのではないだろうか。
こうしたコンセプトを念頭に置きながらも、現場スタッフの頭の中には、具体的な業務への思慮が常にある。予算や法律上の問題をはじめ、各所で定められたルールなどの制約がある中で、想定される業務をしっかりとこなせるスタジオを作るというのは、やはり一筋縄ではいかなかったそうだが、しっかりと万が一に備えた冗長性や、将来に向けた拡張性を持たせるような工夫がなされたそうだ。
Rock oN (以下、RoC):本日は宜しくお願いします。まず、お二人の普段の業務内容を伺えますでしょうか。
中山 啓之 氏 (以下、中山):音の制作(サウンドデザイン)を中心にやりつつ、チームのマネジメント業務も行なっています。私は設立後半年経った頃に入社したのですが、その頃からメディア・インテグレーションにはお世話になっています。
RoC:ありがとうございます!個性的なスタッフばかりですみません…(汗)。
永井 将矢 氏 (以下、永井):私はレコーディングエンジニアとして入社したのですが、ちょうど移転の話が始まったタイミングだったため、入社から最近にかけてはスタジオの運営、管理業務を行っています。今後は音声収録の作業がメインになっていく予定です。
RoC:お二人は元々どのようなきっかけでゲームという分野のサウンド制作に携わるようになったのでしょう。
中山:子供の頃からゲームに興味を持っていたのですが、パソコンやFM音源が出始めたころにいわゆる"チップチューン"にどっぷりハマりまして(笑)。そこから趣味がどんどん広がっていく中でゲームサウンドの世界に行き着きました。当時、PC88というパソコンにYM2203というFM音源チップが載っていて、それを使ってパソコンから音を出すところから始まり、音楽を作ったり、効果音を作ったりということを色々やっていました。
RoC:チップチューンというと、やはり同時発音数の制限などもあったり?
中山:FM音源が3つとSSG(矩形波)が3つくらいだったんですけど、そこからPCが進化していって鳴らせる音も増えていって。その後、MIDIが出てきたのでシーケンサを買って、シンセサイザーを買って、というコンピュータミュージックの王道を進んできたという感じです。
永井:私は、新卒時にゲーム業界も興味はあったんですが、映画好きだったこともあってポスプロの道へ進むことにしました。最初はいつまで続けられるか不安だったのですが、収録やミックスをやっているうちにその楽しさに気づき、結果的に7年半ほどやっていました。当時はほとんど吹き替えの仕事が中心だったのですが、仕事の幅を拡げたいなと考えていたところにちょうどいいタイミングでコジマプロダクションでのレコーディングエンジニアの募集があったんです。自分が好きなゲームを制作している会社ということもあって「これはぜひやりたい!」ということで応募しました。
RoC:"Spaceship Transformation"が今回のフロア移転全体のコンセプトとのことですが、そうした大きなテーマの下で、現場レベルでのこだわりやテーマは何だったのでしょうか?
中山:音声収録やMAといった様々な業務が想定される中で、例えば内装デザインなどがそうですが、「会社としての方向性に合わせつつも必要な業務に対応したスタジオを作りたい」というのがありました。とは言え、無尽蔵に場所があるわけでもないですし、予算との兼ね合いもあるので、その中でベストを尽くせるように、まずは必要な部屋数や規模の検討、「こういうことをやりたい」という提示からスタートしました。
RoC:最初の構想は、やはり業務内容などから逆算していって決められたのでしょうか?
中山:今回の場合ですとこのコントロールルームとそれに隣接したレコーディングブース、EDITブースいくつか…というプランから一番最初の「妄想」が始まりました(笑)。そのプランを本当に一枚のテキストページに落とし込んで、それから紆余曲折が始まった格好です。
永井:一応「妄想」通りにはできた感じです(笑)。
RoC:内装も全体的に統一感があり、かなりこだわられていますよね。
中山:基本コンセプトとして、弊社のコーポレートカラーである黒と白をベースにしたデザインを念頭に細部を決めていきました。我々はデザインについては素人ですが、いくらCG技術が発展したとしても、実際に目にするとイメージと異なる部分がどうしても出てくるとは思います。そうした部分は不安でもあり、ワクワクした部分でもありました。
📷カフェテリアの半分は近未来的なデザインのカウンター、もう半分はカフェのような落ち着いた雰囲気の空間演出となっている。サウンドセクションのロビーはソファとテーブルが融合し、照明と対になったデザインがなされている。ラウンジはまさに映画のワンシーンで使われていそうな意匠で、フロアの各所が一度目にしたら忘れられない印象的なデザインとなっていた。また、用途に応じて背景を黒・緑・青の3色に変更できるスタジオも用意されており、映像コンテンツの収録も行うことができる。
RoC:スタジオ稼働に至るまで山ほどタスクがあったかと思いますが、中でも苦労されたポイントはどこでしたか?
中山:共用のオフィスビルなので、当然全てを好き勝手にやるわけにはいかず、消防法やビル管理上のルール、配管や防音構造、荷重の制限など、これまで全く知識がなかったことについて考えながら進める必要があった点です。そうした部分は施工をご担当いただいたSONAさんやビルの管理会社さんなど、色々な方々から知見をいただいて、針の穴を通すような調整をやりつつ進めていきました。
永井:今回は建築上の都合でピットを掘ることができなかったので、施工会社の方々にとっては配管が一番頭を悩まされたのではないかと思います。
中山:やはりピットではないので一度配管を作ってしまうと、後から簡単に変更ができなくなってしまいます。そういうこともあり、配線計画はかなり綿密に行いました。予備の配線も何本か入れてもらっているので、今後の拡張性にも対応しています。それから、バックアップの面については力を入れています。収録中に万が一メインのMacがトラブルを起こしても、MTRX経由で常時接続されているサブ機にスイッチして継続できるように用意してありますし、さらにMTRXについても代わりのI/Oを用意してあるので、すぐに収録が再開できるようになっています。インハウスのスタジオですが、商用スタジオ並みのバックアップシステムを実現しています。
永井:商用スタジオだと複数部屋あったりするのでトラブルが発生したら別の部屋で対応をするということもできますが、そういった意味ではここは一部屋しかないので「何かあった時に絶対何とかしなきゃいけない!」となりますから、色々なシチュエーションを考えてすぐに対応できるようにしています。
理想的なスペースに組んだ7.1.4chのDolby Atmos
📷株式会社ソナのデザインによる音響に配慮された特徴的な柱がぐるりとコントロールルームを取り囲み、その中へ円周上にGenelec 8361Aが配置されている。スクリーンバックにはL,C,R(Genelec 8361A)とその間にサブウーファーGenelec 7370APを4台設置し音圧も十分に確保された。
RoC:機材選定はどのように進めていったのでしょうか?
中山:最初の計画を立てた時に、一番最初に挙げたのは「スクリーンを導入したい!」ということでした。弊社に来られる方は、海外からのお客様や映画関係の方など多種多様にいらっしゃいます。そうしたみなさまにご視聴いただくことを想定すると、小さな液晶画面だと制作の意図が伝わらなかったり、音響の良さを伝えるのが難しかったり、ということがこれまでの経験上ありましたので、スクリーンの設置はぜひとも実現したいポイントでした。併せて、今後主流になっていくであろう4K60pの投影と、それに応じたサウンド設備をということも外せないところでした。その規格に対応させるために、映像配線はSDI-12Gを通してあります。
RoC:今回、コントロールサーフェスにAVID S4を選ばれた理由は何だったのでしょう?
中山:MAの作業の直後に音声収録を行い、その後の来客時にティザーをご覧頂いて、という事も弊社では多くありますので、素早くセッティングを切り替えられるデジタル卓を候補としました。加えて、Pro Toolsのオペレーションが中心ということもあるので、Avid S6、S4か、もしくはYamaha のNuageかという選択肢だったのですが、サイズなども色々検討した結果でAvid S4になりました。S4でもS6と遜色ない機能がありますので。
RoC:特注のアナログフェーダーが組み込まれているのは、まさにこだわりポイントですね!
永井:S6もそうですが、S4はレイアウトを自由に変えられるのが利点ですね。
RoC:MTMとAutomationモジュールが左右に入っているパターンは他ではあまり見ない配置ですが、実際S4を導入して良かったと思うところはありますか?
永井:キーボードの操作も多いので、この配置にしていると手前のスペースを広く取れるのでいいですね。あとは、モニターコントロール周りです。前職でも触れたことはあったのですが、今思えばそこまで使いこなせてなかったなと。DADmanでのソースやアウトプットの切り替えは結構やりやすいなと改めて思いました。最初に操作方法を教わった後は、自分で好きなようにカスタマイズしています。「やりたい」と思ったことが意外とすぐにできるというのは好感触でした。
📷Avid S4のオートメーションモジュール手前には特注の4chアナログフェーダーが収められている。これはスタジオラックに収められたAMS Neve 1073 DPXとMTRXのアナログ入力との間にパッチ盤を介して接続されており、頻繁に触れるであろうボリュームコントロールを手元でスムーズに行えるようにした実用を考慮したカスタムだ。また、マシンルームにはシステムの中枢となるAvid MTRXが設置され、MacProの他にも同ラックにはMac Studioをスタンバイし冗長性を確保している。
RoC:特に、カスタマイズが好きな方にはハマりますよね!スピーカーはGenelecの同軸スピーカー8361A / 8351Bを中心に、4台の7370APを加えた合計15台で構成されています。なぜこの構成になったのでしょう?
中山:スピーカー選定の段階で「Dolby Atmosに対応させよう」というのはありました。かつ、スクリーンバックから鳴らせるということ、あとは部屋のサイズに対して十分な音圧を出せるか、というところがポイントでした。そういった部分から考えていくと自ずと選択肢は絞り込まれていきました。当初は同じGenelecのS360Aで検討していたのですが、角度を変えて上に置いたり横に置いたりすることを考えると、リスニングポジションの関係もあって、最終的に同軸スピーカーの方がいいのではないかという方向に落ち着きました。
📷トップのスピーカーはGenelec 8351Bを4台設置、半球の頂点にあたる部分など各所に配線があらかじめ敷設され、将来の増設も想定されている。
永井:音質面でもすごく素直な音で、クリアで分離がよく音色ひとつひとつが聴き取りやすく感じました。今回、SONAさんに音響調整をお願いしていて私も立ち会ったのですが、デスク前方のプロジェクターが格納されている部分が床からの反射を防ぐ構造になっており、その影響もあってか低域が溜まらずクリアに聴こえるようになっています。
📷デスク前方の傾斜部分の下には、4K60p対応の超短焦点プロジェクターが収められているのだが、こちらは床からの反射音を軽減させる音響調整パネルとしての役割も担っている。
中山:何となく、これも宇宙船のようなデザインに見えますよね。
RoC:確かに、スタートレック感がありますね!
中山:来社されたお客様にも、そのような感想を頂いた事がありました。雰囲気・デザイン的にもそういった要素を色々含めています。
RoC:ウーファーはスクリーンバックに4台となっていますね。
中山:はい、LCRスピーカーのLとC、RとCの間に上下に2台ずつGenelec 7370APが設置されています。最初は2台だけの想定だったのですが、調整していくうちに音圧が足りないかも、ということで、最終的に2台追加することになりました。リスニングポイントからスピーカーまでも3.6mほどあって、天井高も2.7mと高く取れています。サラウンドスピーカーの上下や天井中央にも後からスピーカーを追加できるようにしていて、これからの拡張性も確保しています。
RoC:サラウンドやイマーシブの制作において理想的な半球状の配置になっていますよね。実際にスタジオが稼働しはじめて、周囲からの反応はいかがでしたか?
中山:「すごい」と言ってもらえる機会が多くて嬉しいですね。エンジニアの方からは「音の立ち上がりが速い」という声もあり、好評な意見をいただけていて願ったり叶ったりです(笑)。「妄想」していたスタジオがきちんと実現できたかなという印象です。
永井:いい評判をいただけて本当によかったです。こちらからコンセプトを伝えてなくても「宇宙船みたい」と言ってくれる方もいてデザイン面でも良かったなと。加えて、制作だけではなくプレゼンや海外とのコミュニケーションにも対応できるようにしたので、他部署のスタッフからも「居心地良く仕事ができる」といった声がありました。
RoC:スタジオが取り合いになったりはしないですか?
中山:まだそこまではいってないですが、いずれそうなってくるかもしれませんね(笑)。
📷コントロールルームに隣接したレコーディングブースは、実面積よりも広々とした開放感を感じさせ長時間の使用にも耐えうる快適な空間となっている。また、フロアのカーペット裏には、コンクリートやレンガ、大理石など、材質の異なる床材が仕込まれておりフォーリー収録も行うことができる。
📷Sound Editing Room はA / Bの2部屋が用意されており、いずれもGenelec 8331A + 7360Aで構成された7.1chのモニター環境が構築されている。入出力にはFocusrite Red 8 Line、モニターコントローラーには同R1が用意されており、ここでも拡張性を確保しつつもコンパクトな機材選定がなされている。また、スピーカースタンドとデスクが一体化された設計により、機材の持ち込みなどシチュエーションに応じた活用がフレキシブルに行えるようになっていることもポイントだ。
聴く人の心を動かすようなサウンドを
現在、ゲーム制作においては、映画と同じくサラウンドでの制作が主流となっており、そこからダウンミックスでステレオが作られるとのこと。ゲーミングPCのスペックの向上やバーチャルサラウンド対応ヘッドホンのラインナップが拡充し、手頃な価格でそのサウンドを楽しめる環境が整ってきており、着実にその裾野は広がっているのではないかということだ。これはイマーシブサラウンドについても同様で、一番最初の計画ではイマーシブ対応については検討されていなかったが、天井高が十分取れることが分かった段階で、今後の需要増にも備えてDolby Atmosへの対応を決めたそうだ。
現在、ゲーム制作においては、映画と同じくサラウンドでの制作が主流となっており、そこからダウンミックスでステレオが作られるとのこと。ゲーミングPCのスペックの向上やバーチャルサラウンド対応ヘッドホンのラインナップが拡充し、手頃な価格でそのサウンドを楽しめる環境が整ってきており、着実にその裾野は広がっているのではないかということだ。これはイマーシブサラウンドについても同様で、一番最初の計画ではイマーシブ対応については検討されていなかったが、天井高が十分取れることが分かった段階で、今後の需要増にも備えてDolby Atmosへの対応を決めたそうだ。
RoC:Dolby Atmosのようなイマーシブ対応をすることで、ゲームサウンドの分野でも従来からの変化を感じましたか?
中山:一般のユーザーの方々へどこまでイマーシブ環境が拡がるかということもありますが、ゲームサウンドは3D座標で処理されているものが多いので、イマーシブと相性も良く、今後チャレンジしていきたいです。
永井:ポスプロ時代にもイマーシブについては興味を持っていましたが、やはりゲームは親和性が高いように思います。プレイをしている自分がその場にいるような演出も面白いと思いますし、今後突き詰めていくべきところだと思います。
RoC:それこそチップチューンの時代は、同時発音数など技術的な制約が大きい中での難しさがあったと思いますが、今後は逆に技術的にできることがどんどん増えていく中での難しさも出てくるのでしょうか?
中山:次々と登場する高度な技術のひとつひとつに追いついていくのはなかなか大変ですが、しっかりとその進化に対応して聴く人の心を動かすようなサウンドを作っていきたいですね。
世界的な半導体不足の影響や、高層オフィスビルならではのクリアすべき課題など、大小様々な制約があった中で、現場の要件をクリアしつつコジマプロダクションとしてのコンセプトを見事に反映し完成された今回のスタジオ。Dolby Atmos制作に対応済であることはもちろん、将来的にスピーカーを増やすことになってもすぐに対応できる拡張性や、インハウスのスタジオながら商用スタジオ並みのバックアップシステムも備えており、現時点だけではない制作の将来像も念頭に置いた綿密なシステムアップが行われた。ついに動き出したこの"Spaceship"がどのような新たなる世界へと導いてくれるのか、遥かなる航海がいよいよ始まった。
*ProceedMagazine2023号より転載
Music
2023/07/20
360VME / 立体音響スタジオの音場をヘッドホンで持ち歩く
ソニーが提供するイマーシブの世界がさらに広がろうとしている。360 Reality Audioでの作品リリースはもちろんのことだが、今度は制作側において大きなインパクトがあるサービスとなる「360 Virtual Mixing Environment(360VME)」が発表された。これは、立体音響スタジオの音場を、独自の測定技術によりヘッドホンで正確に再現する技術。つまり、立体音響制作に最適な環境をヘッドホンと360VMEソフトウェアでどこへでも持ち運ぶことが可能となるわけだ。ここではその詳細を見ていこう。
2023.7.13 追記
・7/13(水)より一般受付開始、8月よりMIL Studioでの測定サービスを開始いたします。
詳細は下記URLよりご確認ください。
https://www.minet.jp/contents/info/360-vme-measurement/
📷右に並ぶのが世界で3拠点となる360VMEサービスを提供するスタジオ。上よりアメリカ本土以外では唯一となるMedia Integrationの運営する東京のMIL Studio、本誌でもレポートを掲載しているLAのGOLD-DIGGERS、そしてニューヨークのThe Hit Factory。すべてのスタジオが360 Reality AudioとDolby Atmosの両方に対応したスタジオである。これらのスタジオはソニーが360VMEサービスの測定にふさわしい音響を備えたスタジオとして認定した世界でも有数のファシリティーである。こちらで個人ごとに測定を行って得られたプロファイルをもとに、その音場をヘッドホンで再現させるのが360 Vitual Mixing Environmentだ。
●360 Virtual Mixing Environment ソニーHP
●ソニー / MDR-MV1 / 価格 ¥59,400(税込)
「これはヘッドホンじゃない、スタジオだ。」イマーシブ世代に向けたソニーのStudio Refarence Headphone、MDR-MV1。このキャッチコピーに込められた「スタジオだ」という言葉には360VMEサービスも含まれているのだろうと考えさせられる。スタジオの音響空間を360VMEにより、ヘッドホンに閉じ込めて持ち帰る、そのために高い空間再現能力を与えられたヘッドホンである。360VME無しでも充分に素晴らしい特性を持った製品だが、360VMEと組み合わせることでさらなる真価を発揮するモデルと言えるだろう。
●MDR-MV1 ソニーHP
世界初のプライベートHRTF測定サービス
ついに待望のサービス開始がアナウンスされたSONY 360 VMEサービス。VMEとは「Virtual Mixing Environment」(仮想ミキシング環境)のこと。世界初となるプライベートHRTFを含むプロファイルデータを商用的に測定するサービスだ。SONY R&Dで開発され、ハリウッドのSONY Picturesで試験運用が行われていたテクノロジーで、映画の仕上げを行うダビングステージという特殊なミキシング環境を、ヘッドホンで仮想的に再現してプリミックスの助けとしようということで運用が行われていた。
広い空間でのミキシングを行うダビングステージ。そのファシリティーの運用には当たり前のことだが限界がある。ファシリティーの運用の限界を超えるための仮想化技術として、この空間音響の再現技術が活用され始めたのは2019年のこと。テスト運用を開始してすぐにコロナ禍となったが、SONY Picturesにとってはこの技術が大きな助けとなった。まさに求められる技術が、求められるタイミングで現れたわけだ。
サービス利用の流れ
国内での利用を想定して、東京・MIL Studioでの測定を例にサービス利用の流れを紹介するが、執筆時点(2023年5月下旬)では暫定となる部分もあるため実際のサービス開始時に変更の可能性があることはご容赦いただきたい。まず、利用を希望される方はWebほかで用意されたページより360VMEサービスを申し込む。この段階では測定を行うヘッドホンの個数、必要なスピーカープロファイル数をヒアリングし、いくつのプロファイルを測定する必要があるのか確認、測定費用の見積と測定日の日程調整を行う。実際のMIL Studioでの測定ではヘッドホンの測定も行いその個体差までもを含めたプロファイルを作成するため、使用されるヘッドホンの持ち込みは必須となる。
MIL Studioではそれぞれのプロファイルに合わせて測定を行った後に、そのプロファイルが正しく想定されているかを実際の音源などを使って確認、納得いくプロファイルが測定できているかを確認していただき、360VMEアプリとともにプロファイルデータをお渡しすることとなる。これらを自身の環境へインストールし、利用開始というのが大まかな流れだ。
360VMEのバックボーンとなる技術
ソニーは以前よりバーチャルサラウンドの技術に対して積極的に取り組んできた。民生の製品ではあるが、バーチャル・サラウンド・ヘッドホンなどを実際に発売している、これは5.1chサラウンドをヘッドホンで再生するという技術を盛り込んだ製品であった。このようなサラウンド仮想化の技術は、長きにわたりソニー社内で研究されてきた技術があり、その系譜として今回の360VMEサービスも存在している。そして、今回の360VMEサービスはこれまでにリリースしてきたコンシューマ向けレベルの技術ではなく、プロの現場での使用を想定したハイエンド製品としてリリースされた。このようなバーチャルサラウンド技術の精度向上には、実測に基づくプライベートHRTFの測定が必須となる。実際の使用者のHRTFを含んだデータを測定することで精度は驚くほど向上する。一般化されたHRTFとのその差異は圧倒的である。
●HRTF(Head-Related Transfer Function:頭部伝達関数)とは!?
人が音の方向を認知することが可能なのは、周波数特性の変化、左右の耳への到達時間差などを脳が判断しているからである。耳の形状や体からの反射、表皮に沿った回析など様々な要因により変化する周波数特性、左右の耳へ到達する時間差、反射によるディレイなどを表すインパルス応答特性、このようなパラメータを数値化したものがHRTF(Head-Related Transfer Function:頭部伝達関数)となる。これは個人ごとによって異なるパラメーターで、個人のHRTFを測定したものをプライベートHRTF、それを適用したバイノーラル処理を個人最適化と呼んでいる。
360VMEの技術はプライベートHRTFを測定した部屋を環境ごと測定する。それをヘッドホンのバイノーラル再生として、測定した部屋の音響環境、スピーカーの特性などをそのまま仮想環境として再現する。スピーカーの特性など、測定した部屋の音響環境ごとプロファイル化するため、厳密な意味でのプライベートHRTFではないが、その要素を含んだバイノーラル再現技術ではあると言えるだろう。
正式な意味でのプライベートHRTFは個人の頭部伝達係数であるために、予め特性を確認したスピーカーとマイクによって無響室での測定を行うこととなる。余計な響きのない空間で、単一の方角からの音源から発された音波がどのように変化して鼓膜に届くのかを測定するということになる。360VMEでは測定を行う部屋のスピーカーの個性、部屋の反射などを含めた音響特性、これらが測定したプロファイルに加わることとなる。これまでにも各社より有名スタジオのコントロールルームの音響環境を再現するようなプラグインが登場しているが、これらはプライベートHRTFにあたるデータを持たないため、どうしてもその効果の個人差は大きくなってしまう。360VMEでは、一人ひとり個人のデータを測定するためにプライベートHRTFにあたるデータを持つプロファイルデータの作成が可能となっている。
プライベートHRTFを測定しDAWと連携
それでは、実際の360VMEの測定サービスは、何が行われて何がユーザーへ提供されるのだろうか?まずは測定からご紹介していこう。測定にあたっては、まずは測定者の耳へマイクを装着することとなる。できるだけ鼓膜に近い位置で測定を行うために通称「バネマイク」と呼ばれる特殊な形状のマイクを耳孔に装着する。
マイクを装着し視聴位置に座り、始めにピンクノイズでの音圧の確認が行われる。スピーカーの信号がマイクにどれくらいのボリュームで入力されているのかを確認するということになる。次は測定を行うスピーカーからスイープ音を出力し周波数特性と位相を測定する。更に続けて、リファレンスとするヘッドホンをつけて、ヘッドホンで再生したピンクノイズとスイープを測定する。これにより、ヘッドホンの特性も含めた特性の合わせ込みを行い精度の高い空間再現を行うわけである。
📷こちらに写っているのが、360VME測定用に設計された通称「バネマイク」。このバネのような部分を耳に入れることにより、耳道を塞がずに耳の奥、鼓膜に近い位置での測定を実現している。測定においては、鼓膜にできるだけ近い位置でのデータを取るということが重要なポイント。鼓膜にどのような音が届いているのか?耳の形、耳たぶの形、頭の形など、個人差のある様々な要因により音が変化する様をこのマイクで測定することとなる。360VMEの測定ではスピーカーから出力された音源での測定だけではなく、このマイクを付けたままでヘッドホンの測定も行い精度をさらに高めている。ヘッドホンには個体差があるため、測定に使うヘッドホンは実際に普段から使っているものをお持ちいただくことになる。
測定の作業はここまでとなり、スピーカーからの再生音とヘッドフォンからの再生音、それぞれのデータからプロファイルデータを生成する。ここで生成されたプロファイルデータは、測定サービスを行ったユーザーに提供される360VMEアプリケーションに読み込ませることで、そのデータが利用可能となる。DAWなどの制作ツールと360VMEの接続は、PC内部に用意される仮想オーディオバス360 VME Audio Driverにより接続される。具体的には、DAWのオーディオ出力を360 VME Audio Driverに設定し、360VMEアプリケーションのインプットも360 VME Audio Driverに設定、アウトプットは実際に出力を行いたいオーディオインターフェースを選択するということになる。
このような仕組みにより、DAWから出力されるイマーシブフォーマットのマルチチャンネル出力が、360VMEアプリケーションから測定結果により生成されたプロファイルデータを適用したバイノーラルとして出力される。プライベートHRTFと測定を行ったスタジオのスピーカーや空間、音響特性を含んだ精度の高いバイノーラル環境での作業が可能となるということだ。
このような仕組みのため、測定時のスピーカーセット=制作DAWのアウトプットとする必要がある。そのため、Dolby Atmosの制作向けのスピーカーセットと360 Reality Audio向けのスピーカーセットはそれぞれ別のプロファイルとして測定が必要だ。また、複数のヘッドホンを使い分けたいのであれば、それも別プロファイルとして測定を行う必要がある。ちなみに360VMEの発表と同時にリリースの発表が行われたSONY MDR-MV1ヘッドホンは、360VMEのアプリケーション開発にあたりリファレンスとして使われており、その特性は360VMEアプリケーションのチューニングにも使われているということだ。360VMEサービスの測定を行う際にどのヘッドフォンで測定をしようか迷うようなことがあるのであれば、MDR-MV1を選択するのが一番間違いのない結果が得られることだろう。ただ、他のヘッドホンでも十分な効果を得ることができるので、普段から慣れたヘッドホンがあるのであればそれを使うことは全く問題ない。
●360 Virtual Mixing Environmentアプリ
※上記画像はベータ版
測定をしたプロファイルデータを読み込ませて実際の処理を行うのがこちらの360 Virtual Mixing Environmentアプリ。画像はベータ版となるため、実際のリリースタイミングでは少し見た目が変わるかもしれないが、プロファイルを読み込ませるだけではなく、各チャンネルのMute / Solo、メーターでの監視などが行えるようになっている。シグナルフロー図からもわかるように、360VME Audio Driverと呼ばれる仮想の内部オーディオバスがこのアプリケーションとともにインストールされ、DAWなどからのマルチスピーカーアウトを360VMEアプリへ接続することとなる。あくまでも仮想的にスピーカー出力をバイノーラル化する技術となるため、スピーカーアウト、レンダリングアウトを360VMEアプリへつなぐということがポイントとなる。具体的には360 WalkMix Creator™️のアウトプット、Dolby Atmos Rendererのアウトプットを接続することとなる。もちろん5.1chやステレオをつなぐことも可能だ。その場合には、その本数分のスピーカーが360VMEの技術によりヘッドホンで再現されることとなる。
📷東京・MIL Studioで測定可能となる代表的なフォーマット。これら以外についても対応可能かどうかは申し込み時にご確認いただきたい。(※Auro 3Dフォーマットの測定には2023年7月現在対応しておりません)また、当初のリリースでは16chが最大のチャンネル数として設定されている。技術的にはさらに多くのチャンネル数を処理することも可能とのことだが、DAW併用時の処理負荷とのバランスが取られている。確かに16chあれば360 WalkMix Creator™️の推奨環境である13chも対応でき、Dolby Atmosであれば9.1.6chまで賄えることになる。43.2chというMIL Studioでの測定となると、さらにチャンネル数を求めてしまいたくなるところだが、一般的なスタジオ環境との互換を考えれば必要十分な内容だと言えるだろう。
日米3拠点で測定サービスを提供
この360VMEサービスにおけるスタジオでの測定は、サービス開始当初は世界で3ヶ所のスタジオでの測定となる。日本では弊社の運営する43.2chのディスクリート再生を実現した完全4π環境を持つMIL Studio。他の2ヶ所のスタジオはアメリカにあり、ロサンゼルスのGOLD-DIGGERSとニューヨークのThe Hit Factoryとなり、新進気鋭のスタジオと老舗スタジオがそれぞれ選ばれた格好だ。音響環境や360VMEという通常のスタジオ運営とは異なるサービスへの賛同を行った3拠点で、この360VMEサービスはまず開始となる。本記事の執筆段階でサービス開始は2023年6月末〜7月上旬、価格はそのプロファイル測定数にもよるが、おおよそ7万円程度からでのスタートを予定しているということだ、本誌が発行されるころにはこれらの情報も正式なものが発表されていることだろう。(※)
※2023.7.13 追記
・7/13(水)より一般受付開始、8月中旬よりMIL Studioでの測定開始
・1プロファイル測定:68,000円(税別)+追加の測定 1プロファイルにつき 20,000円(税別) 〜
・測定可能フォーマット、価格につきましてはこちらのページからご確認ください。https://www.minet.jp/contents/info/360-vme-measurement/
360VMEサービスがスタートすることで、イマーシブ制作の環境に劇的な変化が訪れるのではないだろうか?ヘッドホンミックスの精度が上がることで、制作環境における制約が減り、作品を作るためのスタートラインがぐっと下がることを期待したい。もちろんスピーカーがある環境をすぐに揃えられるということであればそれが最高のスタートラインではあるが、スピーカーを揃えることに比べたら圧倒的に安価、かつ手軽にMIL Studioの音場、イマーシブのスピーカー環境をヘッドホンに入れて持ち帰ることができる。この画期的なサービスによる制作環境の変化に期待したいところである。
*ProceedMagazine2023号より転載
Media
2023/01/18
株式会社カプコン bitMASTERstudio 様 / 圧倒的なパフォーマンスと理想的なアコースティック
バイオハザード、モンスターハンター、ロックマン、ストリートファイター、魔界村など数多くの世界的ヒットタイトルを持つ世界を代表するゲームメーカーである株式会社カプコン。そのゲーム開発の拠点である大阪の研究開発ビル。ここにゲームのオーディオを制作するためのミキシングルームがある。効果音、BGMなどを制作するクリエイター、海外で収録されたダイアログや楽曲、それぞれに仕上がってきたサウンドのミックスやマスタリングを行うためのスペースとなるが、そのミキシングルームが内装からの大改修により新しく生まれ変わった。
度重ねた更新と進化、理想のアコースティック
カプコンのbitMASTERstudio が設けられたのは2006 年のこと。ゲームではカットシーンと呼ばれるムービーを使った演出ができるようになるなど、コンソールの進化や技術の進化により放送・映画と遜色たがわないレベルの音声制作環境が求められてきていた時期である。そして、ステレオからサラウンド、さらにはイマーシブへと技術の進歩によりリファレンスとしての視聴環境への要求は日々高まっていく。
こうしたゲーム業界にまつわる進化の中で、カプコンbitMASTERstudio も時代に合わせて更新が行われていくこととなる。PlayStation2 の世代ではステレオ再生が基本とされる中で、DolbyPro Logic 2 を使ったサラウンドでの表現にも挑戦。PlayStation3 /Xbox の登場以降はDolby Digital が使用できるようになり、5.1chサラウンドへの対応が一気に進むことになる。ゲームにおける音声技術の進化に関しては興味が尽きないところではあるが、また別の機会にまとめることとしたい。
2006年にbitMASTERstudioが誕生してから、次世代のスタンダードをにらみ、ゲーム業界の先を見据えた更新を続けていくこととなる。今回のレポートはまさにその集大成とも言えるものである。改めてbitMASTERstudioの歩みを振り返ってみよう。設備導入当初よりAvid Pro Tools でシステムは構築されており、この時点ではDigidesign D-Control がメインのコンソールとして導入されていた。その後、2009 年に2 部屋目となる当時のB-Studio が完成、こちらにもDigidesign D-Control が導入される。2013 年にはA-Studio の収録用ブースを改修してProTools での作業が行えるようシステムアップが行われ、2015 年にはA-Studio のコンソールがAvid S6 へと更新された。
こうして更新を続け、その時点での最新の設備を導入し続ける「bitMASTERstudio」の大きな転機が、2018年に行ったB-studioの内装から手を加えた大規模な改修工事である。ゲームにもイマーシブ・オーディオの波が訪れ、その確認をしっかりと行うことができる設備の重要性が高まってきているということを受け、いち早くイマーシブ・オーディオ対応のスタジオとしてB-stduioが大改修を受けて生まれ変わった。その詳細は以前にも本誌でも取り上げているので記憶にある方も多いのではないだろうか。金色の衝立のようなスピーカースタンドにぐるっと取り囲まれた姿。一度見たら忘れられないインパクトを持つ部屋だ。
この部屋は音響施工を株式会社ソナ(以下、SONA)が行った。この部屋における音響設計面での大きな特徴は、物理的に完全等距離に置かれたスピーカー群、これに尽きるだろう。物理的にスピーカーを等距離に設置をするということは現実的に非常に難しい。扉などの導線、お客様の座るソファー、そもそもの壁の位置など、様々な要素から少なからず妥協せざるをえない部分が存在する。B-studioでは衝立状のスタンドを部屋の中で理想の位置に設置することで完全等距離の環境を実現している。これは、アコースティック的に理想となる配置であり、そこで聴こえてくるサウンドは電気的に補正されたものとは別次元である。この経験から今回のA-studioの改修にあたっても、前回での成功体験からSONAの施工で内装変更とそれぞれのスタジオのイマーシブ化を実施している。
📷 25年に渡りカプコンのサウンドを支えるエンジニアの瀧本氏。ポスプロで培ったサウンドデザイン、音による演出などのエッセンスをゲーム業界にもたらした。
圧倒的なパフォーマンスを求めたスピーカー群
今回の更新は、A-studioおよびそのブース部分である。前述の通りでブースにもPro Toolsが導入され、Pro Toolsでの編集を行えるようにしてあったが、やはり元々は収録ブースである。そこで今回は、ブースとの間仕切りの位置を変更し、ブースをC-studioとしてひとつのスタジオとして成立させることとなった。それにより、A-studioの部屋は若干スペースを取られることになったが、マシンルームへの扉位置の変更を行いつつ、スピーカーの正面を45度斜めに傾けることでサラウンドサークルの有効寸法に影響を与えずに部屋を効率的に使えるような設計が行われた。なお、この部屋は研究開発ビルのフロアに防音間仕切りを立てることで存在している空間である。その外壁面には手を加えずに内部の間仕切り、扉の位置などを変更しつつ今回の更新は行われている。
📷 スタジオ配置がどのように変更されたかを簡単な図とした。間仕切りの変更といっても、かなり大規模な改修が行われたことがわかる。
それではそれぞれのスタジオを見ていこう。まずは、旧A-studio。こちらはDubbing Stageと名称も新たに生まれ変わっている。なんといっても正面のスピーカー群が初めに目を引くだろう。旧A-studioでは、MK社製のスピーカーがこの部屋ができた当初のタイミングから更新されることなく使用されてきた。その際にスピーカーはスクリーンバックに埋め込まれていたのだが、今回はスクリーンバックではなく80 inchの巨大な8K対応TVへと更新されたことで、すべてのスピーカーのフェイスが見えている状態での設置となった。正面に設置されたスピーカーは、一番外側にPMC IB2S XBD-AⅡ、その内側にPMC 6-2、さらに内側にはサブウーファーであるPMC8 SUBが2本ずつ、合計4本。センターチャンネルにPMC 6-2という設置である。
PMC IB2S XBDはIB2SにスーパーローボックスとしてXBDを追加した構成。2段積みで1セットとなるスピーカーである。これはステレオ作業時に最高の音質でソースを確認するために導入された。カプコンでは海外でのオーケストラなどの収録によるBGMなど、高品位な音源を多数制作している。せっかくの音源をヘッドホンやPCのスピーカーで確認するだけというのは何とも心もとない。クリエイター各自の自席にも、Genelec 8020で5.1chのシステムは設置されているが、それでもまだまだスピーカーサイズは小さい。しっかりとした音量で細部に渡り確認を行うためにもこのスピーカーが必要であった。
📷 ダブルウーファー、3-wayで構成されたPMC6-2。PMCのサウンドキャラクターを決定づけているATLのダクトが左に2つ空いているのがわかる。新設計となるスコーカーとそのウェーブガイドもこのスピーカーのキーとなるコンポーネント。
この IB2S XBDが選定されることになった経緯は2019年のInterBEEまで遡ることとなる。この年のInterBEEのPMCブースにはフラッグシップであるQB1-Aが持ち込まれていた。4本の10 inchウーファーを片チャンネル2400wという大出力アンプが奏でる豊かな低域、そして1本辺り150Kgという大質量のキャビネットがそれを支える。解像度と迫力、ボディー、パンチのあるサウンド。文字としてどのように表現したら良いのか非常に難しいところであるが、あの雑多なInterBEEの会場で聴いても、その圧倒的なパフォーマンスを体感できたことは記憶にある。このQB1-Aとの出会いからPMCのスピーカーに興味を持ち、導入にあたりPMCのラインナップの中からIB2Sを選定することとなる。しかし、IB2S単体ではなくXBD付きの構成としたということは、やはりQB1-Aを聴いたときのインパクトを求めるところがあったということだろうか。
📷 PMC QB1-Aがこちら。迫力ある存在感もさることながら、このスピーカーから再生されるサウンドは雑多なInterBEEの会場で聴いても際立ったものであった。ここでのPMCとの出会いから今回の更新へとつながったと考えると感慨深い。
6本のサブウーファーが同時駆動するシステムアップ
📷 天井にも4本のPMC6-2が設置されている。天井からの飛び出しを最低限とするため半分が埋め込まれ、クリアランスとリスニングポイントまでの距離を確保している。
サラウンド、イマーシブ用のスピーカーには、PMCの最新ラインナップであるPMC6-2が選ばれている。当初はTwo-Twoシリーズが検討されていたということだが、導入のタイミングでモデルが切り替わるということで急遽PMC6シリーズの試聴が行われ、PMC6-2に決定したという経緯がある。その際にはPMC6との比較だったということだが、ローエンドの豊かさやボリューム感、スコーカーによる中域帯の表現力はやはり PMC6-2が圧倒したようだ。それにより、天井に設置するスピーカーも含めてPMC6-2を導入することが決まった。天井部分はひと回り小さいスピーカーを選定するケースも多いが、音のつながりなどバランスを考えると同一のスピーカーで揃えることの意味は大きい。この点はスピーカー取り付けの検討を行ったSONAでもかなり頭を悩ませた部分ではあったようだが、結果的には素晴らしい環境に仕上がっている。
📷 音響へのこだわりだけでなく、意匠にもこだわり作られたサラウンド側のPMC6-2専用スタンド。フロントの三日月型のオブジェと一体感を出すため、ここにも同じコンセプトのデザインが奢られている。
サラウンド側のスピーカースタンドは、SONAの技術が詰まった特注のもの。特殊なスパイク構造でPMC6-2をメカニカルアース設置しており、スピーカーのエンクロージャーからの不要な振動を吸収している。スタンドの両サイドにはデザイン的に統一感を持った鏡面仕上げのステンレスがおごられ、無味乾燥なデザインになりがちなスピーカースタンドにデザイン的な装飾が行われている。近年ではあまり見ないことだが「気持ちよく」作業を行うという部分に大きな影響を持つ部分だろう。
サラウンド用のLFEはPMC8 SUBが4本導入された。設置スペースの関係からPMC8 SUBが選ばれているが、実際に音を出して85dBsplのリファレンスでの駆動をさせようとすると、カタログスペック的にも危惧していた点ではあったがクリップランプが点いてしまった。そこで、サブウーファー4本という構成にはなるがそれを補えるように IB2S XBDのXBD部分を同時に鳴らすようにシステムアップされている。結果、都合6本のサブウーファーが同時に駆動していることになり、XBDボックスと同時に鳴らすということで余裕を持った出力を実現できている。6本ものサブウーファーが同時に鳴るスタジオは、さすがとしか言いようがないサウンドに包まれる。
これらのスピーカーは部屋の壁面に対して正面を45度の角度をつけて設置が行われた。従来はマシンルーム向きの壁面を正面にして設置が行われていたが、角度をつけることで多数のスピーカー設置、そしてTVモニターの設置が行われる正面の懐を深く取ることに成功している。そして正面の足元には、そのスピーカーを美しく演出する衝立が設置された。足元をスッキリと見せるだけではなく色の変わる照明をそこに仕込むことで空間演出にも一役買っている。ちょっとした工夫で空間のイメージを大きく変化させることができる素晴らしいアイデアだ。天井や壁面に設置された音響調整のためのパネルはピアノブラックとも言われる鏡面仕上げの黒で仕上げられている。写真ではわかりにくいかもしれないが、クロスのつや消し感のある黒と、この音響パネルの光沢黒の対比は実際に見てみると本当に美しい。影で支える音響パネルが、過度の主張をせず存在感を消さずにいる。
Avid MTRXを中心にシステムをスリム化
📷 Dubbing Stageに導入されているAvid S6 M40は16フェーダー仕様。右半分にはウルトラワイドディスプレイがコンソール上に設置されている。キーボードの左にトラックボールが置かれているのはサウスポー仕様。この部屋を使うエンジニア3名のうち2名が左利きのため民主主義の原則でこの仕様になっているそうだ。
📷 ラックの再配置を行ったマシンルーム。3部屋分の機器がぎっしりと詰まっている。この奥にPMCのパワーアンプ専用のアンプラックがある。
作業用のコンソールに関しては、前システムを引き継いでAvid S6-M40が設置された。これまでは、SSL Matrixを収録用のサブコンソールに使ったりといろいろな機器が設置されていたが、今回の更新では足元のラックを残してそれらはすべて撤去となり、スッキリとしたシステムアップとなった。収録を行う作業の比率が下がったということ、そしてPro Toolsや開発コンソールといったPCでの作業ウェイトが大きくなってきているということが、システムをスリム化した要因だということだ。このシステムを支えるバックボーンは、Avid MTRXが導入されている。これまで使ってきたAvid MTRXはB / C-studio用に譲り、追加で1台導入してこの部屋の専用機としている。社内スタッフ同士での共有作業が中心であったため、機材をある程度共有するシステムアップで運用してきたが、メインスタジオとなるDubbing Stageの機器は独立システムとして成立させた格好だ。
主要なシステムの機器としては、このAvid MTRXとPro Tools HDXシステム、そして持ち込まれた開発PCからの音声を出力するためのAVアンプとなる。開発用PCからはゲームコンソールと同様にHDMIでの映像 / 音声の出力が行われ、これをアナログ音声にデコードするためにAVアンプが使われている。音響補正はAvid MTRX内のSPQモジュールが使われ、PMCスピーカー側のDSPは利用していない状況だ。ベースマネージメント、特に6本のサブウーファーを駆動するための信号の制御や処理がMTRXの内部で行われていることとなる。
同軸で囲む、新設された銀の部屋
📷 Dynamic Mixing Stage - SILVER。GOLDと対となるSILVERの部屋。写真で並べて見るとそのコントラストがわかりやすいだろう。スピーカーはKS Digital、デスク正面には、LCRにC88、サブウーファーとしてB88が合わせて5台設置されている。コンソールはAvid S1が導入されている。
もう一つの新設された部屋である、旧ブースとなるスペースを改修したDynamic Mixing Stage - SILVERをご紹介したい。旧B-StudioにあたるDynamic Mixing Stage - GOLDはその名の通り「GOLD=金」をデザインのテーマに作られている。そしてこちらのSILVERは「SILVER=銀」をデザインのコンセプトとして作られた。ほかの2部屋が黒を基調とした配色となっているが、こちらのSILVERは白がベースとなり音響パネルは銀色に仕上げられているのがわかる。
📷 サラウンド側のスピーカー。音響パネルで調整されたこだわりのスピーカー設置が見て取れる。この音響パネルが銀色に仕上げられており、GOLDの部屋と同様に深みのある色で仕上げられている。
スピーカーから見ていこう。こちらの部屋にはKS Digitalのスピーカーが選定された。GOLDの部屋はGenelec the ONEシリーズ、DubbingはPMCとそれぞれの部屋であえて別々のメーカーのスピーカーが選ばれている。同一のメーカーで統一してサウンドキャラクターに統一感を持たせるということも考えたということだが、様々なキャラクターのスピーカーで確認できるということも別のベクトルで考えれば必要なことだという考えからこのようなセレクトとなってる。また、多チャンネルによるイマーシブ・サラウンド構築において同軸スピーカーを選択するメリットは大きい。特にSILVERのような容積が少なく、サラウンドサークルも小さい部屋であればなおさらである。その観点からも同軸であるKS Digitalの製品がセレクトされている。正面のこれらのスピーカーはSONAのカスタム設計によるスタンドでそれぞれが独立して設置されている。こちらもすべてのスピーカーがメカニカルアース設置され、これだけ密接していても相互の物理的干渉が最低限になるように工夫が凝らされている。物理的な制約のある中で、可能な限り理想的な位置にスピーカーを自然に設置できるように工夫されていることが見て取れる。
SILVERのシステムは、AVID Pro Tools HDX、I/OはGOLDと共有のAVID MTRXが使われている。コントローラーは部屋のサイズからもAvid S1が選ばれている。シグナルのフロントエンドとなるAD/DAコンバーターはGOLDと共有ではなく、それぞれの部屋ごとにDirectout Technologies ANDIAMOが導入されている。このコンバーター部分を部屋ごとに持つことでトラブル発生時の切り分けを行いやすく、シンプルな構築を実現している。
Avid S4へ更新された金の部屋
📷 Dynamic Mixing Stage - GOLD。以前本誌でも取り上げさせていただき、大きな反響があったカプコンにとって最初のイマーシブ対応スタジオだ。
部屋の内装、スピーカーなどに変更は加えられていないが、同時にDynamic Mixing Stage - GOLDのコンソールが同じタイミングで更新されている。これまで使われていたAvid S3からAvid S4へとグレードアップだ。これによりAvid S6が導入されているDynamic Dubbing Stageとの操作性の統一も図られている。やはり、同一メーカーの製品とはいえS3とS6では操作性がかなり異なりストレスを感じることが多かったようだ。S6ならばできるのに、S6だったらもっとスムーズに作業ができたのに、ということがS4へ更新を行うことでほとんどなくなったということだ。ただし、フェーダータッチに関してだけはS6と共通にしてほしかったというコメントもいただいた。制作作業において一番触れることが多い部分だからこそ、共通した仕様であることの意味は大きいのではないだろうか。
📷 今回の更新でコンソールがAvid S4へと更新、カスタム設計の机にユニットが埋め込まれてる。これはスピーカーにかぶらないようにというコンセプトからによるもので、ディスプレイが寝かされていることからも設計のコンセプトが感じられるだろう。
GOLDのAvid S4は製品に付属する専用シャシーを使わずに、カスタム設計となったデスクへの埋め込みとしている。デスクトップのシャシーであるS4は、普通の机にそのまま設置するとどうしても高さが出てしまう。シャシーごと埋め込むというケースは多いのだが、今回はモジュールを取り出してデスクに埋め込むという手法が用いられた。S6ではこれまでにも実績のあるカスタマイズだが、S4でのカスタムデスクへの埋め込みは初の事例である。これは今後スタジオの更新を考えている方にとって参考となるのではないだろうか。
スピーカーでサウンドを確認する意義
📷 デザイン性の高い空間の居住性と、音響のバランスを高いレベルで整えることに成功し、そのコンセプトやここに至る経緯を色々とお話いただいた。GOLDの部屋で実現した理想の音環境をそれ以外の2部屋でも実現できたと語っていただいた。
すべてのスタジオを7.1.4chのイマーシブ対応としたカプコン。これまでにもレポートした検聴用の2部屋と合わせて、しっかりとしたチューニングがなされた7.1.4chの部屋を5部屋持つこととなる。
ゲームではもともとが3Dで作られているのでイマーシブに対しての親和性が高い。どういうことかと言うと、ゲーム(3Dで作られているもの)は映像や中で動くキャラクター、様々な物体すべてが、もともとオブジェクトとして配置され位置座標などを持っている。それに対して音を貼り込んでいけば、オブジェクトミックスを行っていることと一緒である。
最終エンコードを行う音声のフォーマットが何なのか、Dolby Digitalであれば5.1chに畳み込まれ、Dolby True HDであればDolby Atmos。最終フォーマットに変換するツールさえ対応していれば、ゲームとして作った音はもともとが自由空間に配置されたオブジェクトオーディオであり、すでにイマーシブであるということだ。逆にゲーム機から出力するために規格化されたフォーマットに合わせこまれているというイメージが近いのではないだろうか。
そう考えれば、しっかりとした環境でサウンドを確認することの意味は大きい。ヘッドホンでのバイノーラルでも確認はできるが、スピーカーでの確認とはやはり意味合いが異なる。バイノーラルはどうしてもHRTFによる誤差をはらむものである。スピーカーでの再生は物理的な自分の頭という誤差のないHRTFによりサウンドを確認できる。自社内にスピーカーで確認できるシステムがあるということは本当に素晴らしい環境だと言えるだろう。
ゲームにおいて画面外の音という情報の有用性を無意識ながらも体験をしている方は多いのではないだろうか。仮想現実空間であるゲームの世界、そのリアリティーのために重要な要素となるサウンド。世界中のユーザーが期待を寄せるカプコンのゲームタイトルで、そのサウンドに対するこだわりは遥かなる高みを見据えている。
📷 今回の取材にご協力いただいた皆様。左下よりカプコン瀧本和也氏、スタジオデザイン・施工を行ったSONA土倉律子氏、SONA井出将徳氏、左上に移りROCK ON PRO前田洋介、PMCの代理店であるオタリテック株式会社 渡邉浩二氏、ROCK ON PRO森本憲志。
*ProceedMagazine2022-2023号より転載
Music
2023/01/18
イマーシブ表現は新たなステージに。Spat Revolution UltimateにWFS(波面合成)アドオンが登場
2017年のリリース以来、プロダクション、ライブサウンド問わず、イマーシブ・オーディオ・プロセッサーとして独自のポジションを確立しているSpat Revolution Ultimateが、WFS(波面合成)による仮想の音源配置に対応しました。WFSは従来のパンニング方式に比べて、特に大きな会場で、より多くのオーディエンスに優れた定位感を提供できると言われています。この記事では、WFSの基本的な考え方をおさらいした上でそのメリットを確認し、またアルゼンチンで行われた大規模フェスティバルでの導入事例も紹介していきます。
FLUX:: / IRCAM Spat Revolution
Spat Revolution Ultimate
¥297,000(税込)
WFS Add-on option for Spat Revolution Ultimate
¥74,800(税込)
音楽制作やポストプロダクションでは各種DAWと連動させてDolby Atomsなどあらゆるフォーマットに対応したイマーシブ作品の制作に、ライブサウンドではデジタル・コンソールからリモート・コントロール、ライブ会場を取り囲むように配置されたPAスピーカーへの出力をリアルタイムで生成するプロセッサーとして、さまざまなアプリケーションに対応する最も多機能で柔軟性の高い、ソフトウェア・ベースのイマーシブ・オーディオ・プロセッサー。
WFS(波面合成)とは?
WFS(Wave Field Synthesis)は、直線上に並べたラウドスピーカーのアレイを用いた音響再生技術で、従来の技術(ステレオ、5.1chサラウンドなど)の限界を取り払う可能性がある技術です。サラウンド・システムは、ステレオの原理に基づいており、一般的に「スイートスポット」と呼ばれる複数のスピーカーに囲まれた中心部の非常に小さなエリアでのみ音響的な錯覚を起こさせ、音がどの方向からやってくるのかを感じさせます。一方、WFSは、リスニングエリアの広い範囲にわたって、与えられたソースの真の物理的特性を再現することを目的としています。この原理は「媒質(=空気)を伝わる音波の伝搬は、波面に沿って配置されたすべての二次的音源を加えることで定式化できる」というもので、Huyghensの原理(1678年)に基づいています。
WFSを実現するためには、あるサウンドのシーンにおいて音源をオブジェクトとして捉え、そのオブジェクトの数量分の位置情報を把握できていることが前提となります。例えば、動画・音声データにおける圧縮方式の標準規格のひとつであるMPEG-4では、WFS再生と互換性のあるオブジェクトベースのサウンドシーン記述が可能になっています。
現実には、図版で見られるように音源が発する波面と同じようにスピーカーを配置することはあまりにも現実的ではありません。そこで、直線上にラウドスピーカーを配置し、各スピーカーから出力される音量とタイミングをコントロールすることで、仮想に配置された音源からの波面を人工的に生成します。
このように音源をスピーカーの向こう側に”配置”することによって、その部屋や会場にいるリスナーは、音源の位置から音が放出されていると認識します。一人のリスナーが部屋の中を歩き回ったとしても、音源は常にそこにいるように感じられるのです。
📷 「媒質(=空気)を伝わる音波の伝搬は、波面に沿って配置されたすべての二次的音源を加えることで定式化できる」という物理的特性をそのままに、波面に沿って二次的音源を配置した際のレイアウトが左図となりますが、このように音源が発する波面と同じようにスピーカーを配置することはあまりにも現実的ではありません。そこで、右図のように直線上に配置したスピーカーから出力される音量とタイミングをコントロールすることで、複数の音源の波面を同時に合成していくのが「WFS(波面合成)」となります。
なぜライブサウンドでWFSが有効なのか?
📷 Alcons Audio LR7による5本のリニアアレイと設置準備の様子
d&b Soundscapeなどラウドスピーカーのメーカーが提供する立体音響プロセッサーにもWFSの方式をベースとしているものが数多くあります。
これまでのサラウンドコンテンツ制作はチャンネルベースで行われ、規定に基づいたスピーカー配置(5.1や7.1など)で、音響的にも調整されたスタジオで素晴らしいサウンドの制作が行われます。しかし、この作品を別の部屋や同じように定義されたラウドスピーカーがない環境で再生すると、チャンネルベースのソリューションは根本的な問題に直面することになります。音色の完全性が失われ、作品全体のリミックスが必要となるわけです。ツアーカンパニーやライブイベントで、チャンネルベースの5.1や7.1のコンテンツを多くのオーディエンスに均等に届けるのは非常に難しいことだと言えるでしょう。
従来のサラウンドとWFSの違いにも記載しましたが、チャンネルベースまたは従来のステレオパンニングから派生したパンニング方式では、複数のスピーカーに囲まれた中心の狭いエリアでのみ、制作者が意図した定位感を感じることができます。例えば、ライブ会場に5.1chの規定通りにラウドスピーカーを配置できたとしても、Ls chのすぐ近くのリスナーにとっては非常に音量感にばらつきのあるサウンドシーンとしてしか認知できません。
WFSを用いた会場の「より多くのオーディエンスに優れた定位感を提供する」というメリット以外に、WFSでは必ずしも会場を円周上に取り囲んでスピーカーを配置する必要が無いという大きなメリットもあります。常に会場の形状、そしてコストの制約を考慮しなければならないライブ会場でのイマーシブ音響のシステムとしては非常に有利な方式と言えます。
📷 イースペック株式会社主催の機材展2022において、国内では初のSpat RevolutionのWFS Optionを使った本格的なデモでの一コマ。サンパール荒川大ホールに常設されている照明用バトンに、小型のラインアレイAlconsAudio LR7を5組均等間隔に吊り、あたかもステージ上に演奏者がいるかのような音場を実現していた。
Spat Revolutionで行うWFS再生
📷 Spat Revolutionでオーケストラの編成をWFSアレイの向こう側に仮想配置。
コンパクトで軽量なラインアレイであれば、照明用のバトンへ直線上に5アレイを吊ることも可能かもしれません。Spat RevolutionでWFS再生を行うためには最小で5本以上の同じ特性を持ったラウドスピーカーを均等間隔で配置する必要があります。スピーカーの数が増え、スピーカーとスピーカーの間隔が小さくなればなるほど、定位感の再現性が高まります。
Spat Revolutionでは配置するスピーカーの周波数特性や放射特性を定義する項目がありません。だからこそポイントソースであってもラインアレイであってもスピーカーに制約が無いという大きなメリットがあるのですが、そのスピーカーの放射角度によって最適な配置も変わってきますし、聴こえ方にも影響します。指向角度を考慮してSpat Revolution内で設定を行い、実際に設置を行った後に微調整が可能な6つのパラメーターが備わっているので、最後のチューニングは音を聴きながら行うのが現実的でしょう。
そのひとつとなるGain Scalingというパラメーターでは、すべてのソースに対して計算されたゲインをスケーリングすることができます。これは例えばフロントフィルなどリスナーに近いWFS直線アレイ配置の場合に有効で、この割合を減らすとラウドスピーカー・ラインの近くに座っている観客のために、1オブジェクトのソースをアレイ全体から、より多くのラウドスピーカーを使って鳴らすことができます。
Spat Revolutionで構成できるWFSアレイは1本だけではありません。会場を取り囲むように4方向に配置すれば、オブジェクトの可動範囲が前後左右の全方位に広がります。またWFSアレイを上下に並行に増やしていくことも可能で、縦方向の定位表現を加えることも可能です。このように映像や演目と音がシンクロナイズするような、かなり大規模なサウンドシステムのデザインにも対応できることがわかります。
📷 会場を取り囲む4つのWFSアレイ。
VendimiaでのSPAT WFS Option
📷 Vendimia 2022 – Mendoza Argentina
アルゼンチンのメンドーサで開催される収穫祭「Vendimia」は、ブドウ栽培の業界おいて世界で最も重要なイベントのひとつです。2022年はパンデミック後で初の開催とあって、音楽やエンターテインメントにも大きな期待が寄せられていました。
Vendimiaフェスティバルのサウンドシステム設計を担当し、地元アルゼンチンでシステム・インテグレーションとサウンドシステムのレンタル会社Wanzo Produccionesを経営するSebastian Wanzo氏に今回の会場でのシステム設計について伺うことができました。
Wanzo Producciones / Sebastian Wanzo 氏
Wanzo Producciones
「今年のフェスティバルのサウンドデザイナーとして、様々なステージでのオーディオビジュアル効果をサポートし、臨場感を提供するためにイマーシブ・オーディオプロセッシング・システムの導入を提案しました。」とSebastian Wanzo氏は語ります。
この会場でイマーシブ・オーディオ・プロセッシングを実際に行なっていたのが、リリースされたばかりのWFSアドオン・オプションを備えたSPAT Revolution Ultimateです。Vasco HegoburuとWanzo Productionsが提供する4台のAvid Venue S6LコンソールとMerino Productionsが提供するClair Brothersのシステムに介在し、Vendimiaフェスティバル全体のイマーシブ・システムの核となり、プロセシングを行なっていました。
「横幅が80mを超えるステージで、フロントフィルより前にはスピーカーを配置することができないため、Clair Brothersのスピーカーで6.1chのシステムを定義し、設置しました。」
システムのルーティングとコンフィギュレーションはハイブリッド的なセットアップで、1台のS6Lはオーケストラ専用でステレオミックス用、もう1台のS6Lは全てのエフェクトとエフェクトのオートメーション、そして全てのサウンドタワーにイマーシブのフィードを供給していました。3台目のS6Lはオーケストラのモニター卓として、4台目のS6Lは配信用のミックスに使われました。
「2019年にISSP (Immersive Sound System Panning)ソフトウェアを開発したアルゼンチンのIanina CanalisとDB Technologiesのスピーカーでライブサウンドにおけるイマーシブサウンドを体験した時に、我々の業界の未来がこの方向に進んでいることを実感しました。パンデミック以前は、空港やスタジアムのオープニングセレモニーなど、従来のマルチチャンネル・オーディオ・システムで多くの作品を制作していましたが、パンデミックの最中には、ストリーミングによるショーや、観客の少ないライブショーが増えたため、SPAT Revolutionなどのイマーシブ・オーディオ・プロセッサーの経験値を高めていくことになりました。そして次第に、SPAT Revolutionの無限の可能性を確信するようになったのです。」
フェスティバルにおけるシステム設計は、異なるジャンルの音楽が演奏されること、広い面積をカバーするためにスピーカー・クラスタ間の距離が大きく、クラスタより客席側にはスピーカーの設置が不可能なため、Wanzo氏と彼のチームにとってはとても大きな挑戦でした。
「SPAT Revolutionが提供する様々なパンニング方式を試してきましたが、最終的にライブで最も使用したのはWFS(波面合成)でした。我々は、このWFSオプションのベータテスター・チームに早くから参加しており、Vendimiaフェスティバルのようにクラスター間の距離が離れた会場でも、非常にうまく機能することがわかっていました。また、SPAT Revolutionの芸術的な表現の可能性をより深く理解することで、このフェスティバルでは印象的で一貫した結果を得ることができました。」
Vendimiaフェスティバルのシステムでは、4台のS6Lがそれぞれ異なる役割を担当しており、サウンドデザインとイマーシブシステムにおけるWanzo氏の経験により、全てが相互に補完しあい、連動するシステムを作り上げました。
「システム提案の段階では、Spat Revolutionで9.1.4chのシステムを使った一連のデモンストレーションを行い、プロデューサー、ミュージシャン、技術関係者に実際に音を聴いてもらい、意見をもらう機会を設けました。全ての関係者から好意的な反応をもらい、Vendimiaフェスティバルの大規模なシステムの準備に着手しました。SPAT RevolutionをAvid S6Lサーフェスでコントロールできることが、ここでは非常に重要だったのです。」
Wanzo氏のイマーシブオーディオによるサウンドデザインの独創的なアプローチとVendimiaのセットアップについて、ライブサウンドの未来とライブ・プロダクションにおけるイマーシブオーディオの優位性についてもこうコメントしています。
「厳密に技術的な観点から言うと、カバレージとオーバーラップを得る最良の選択は、より多くのスピーカーシステムを使用することです。これにより、スピーカーのサイズを小さくして、システムのヘッドルームを大きくすることができ、従来のステレオでのミキシングのように、ソースを意図する場所に定位させるために、周波数スペクトラムの中で各ソースにイコライザーを多用する必要がなくなります。」
「ライブサウンドにおけるイマーシブの創造的な可能性は無限であり、これまでにないサウンドスケープの再現と創造が現実のものになっています。これは新しい道のりの始まりであり、Vendimiaフェスティバルにおけるイマーシブ・オーディオ・システムはこのイベントの傑出した演出の一つになったと考えています。」
「このプロジェクトを支えてくれたすべての人たち、特にずっとサポートしてくれたFLUX:: Immersiveチームのスタッフには本当に感謝しています。今後も素晴らしいプロジェクトが待っていますし、SPAT Revolutionは進化を遂げながら、間違いなく私たちのメインツールとして使われ続けるでしょう。」
この記事では主に波面合成を実現するSpat Revolution WFS Optionについて紹介してきましたが、ここ日本で最初にSpat Revolutionが導入されたのは、DAW内では編集が非常に困難だった22.2 chサラウンドに対応したコンテンツの制作がきっかけでした。入出力ともアンビソニックス、バイノーラル、5.1、7.1、Dolby Atomosなど、事実上あらゆるサラウンド・フォーマットに対応できるSpat Revolutionは、制作/ライブの垣根を越えて今後の活用が期待されます。
*ProceedMagazine2022-2023号より転載
Music
2023/01/11
株式会社サウンド・シティ様 / 時代が求める最大限の価値を提供していく〜新たなフラッグシップ・スタジオ「tutumu」
麻布台の地において46年間にわたって日本の音楽産業を支え続けてきた「株式会社サウンド・シティ」。前身である「株式会社飛行館スタジオ」時代から数えればその歴史は60年を超えているが、老舗の座に安んじることなく常に時代の先端をとらえ続けてきたスタジオである。この2022年8月には、Dolby Atmos / 360 Reality Audioの両方に対応したイマーシブ・スタジオ「tutumu」(ツツム)をオープン。同社の最新にして最大の挑戦ともなったこのスタジオのシステムや、オープンに至るまでの経緯などについてお話を伺った。
新たなフラッグシップ・スタジオ「tutumu」
「サウンド・シティの、ひいては日本のフラッグシップとなるようなスタジオを作ろう」というコンセプトのもと、Dolby Atmosと360 Reality Audio両対応のイマーシブ・スタジオ開設の構想が生まれたのは2021年7月ごろ。ちょうど、同年6月に中澤氏と明地氏が取締役に就任してまもなく、同社の価値を“リブランディング”しようと考えていた時期だという。
リブランディングにあたっては、音楽レコーディング・スタジオとポストプロダクションというふたつの事業を柱として日本の「音」を支え続けてきた同社の存在意義を「よいレコーディングスタジオ、よい映像編集室、そしてよい人材をはじめとして、映像と音楽を作りたい方々に対して技術面で最大限の価値を提供していくこと」(明地氏)と再定義しており、これからの時代に求められる価値を提供することができる新たなフラッグシップ・スタジオ「tutumu」をオープンすることは、サウンド・シティという“進化を止めない老舗スタジオ”に相応しいプロジェクトだったようだ。
折しもApple Musicが空間オーディオへの対応を開始し、アーティストやクライアントからその作品作りに関する相談を受け始めていたというが、しかしそれはまだごく一部の話。音楽におけるステレオの価値も根強い状況で、これほど大規模なイマーシブ・サウンド対応へ舵を切ったことに何か確信はあったのだろうか。
明地氏によると「これまで存在した、オーディオ・ファイル向けサービスのような技術だったらtutumuの開設は決断しなかった。空間オーディオは従来のマルチチャンネルと違って、既存のストリーミング・サービスの中で聴ける。これは確実に浸透する流れだと判断できたので、だったらそれができる部屋を作ろう、と。それも、サウンド・シティの新しい“顔”になるようなスタジオを作ろうと考えました。」とのことだ。さらに同氏は「テクノロジーの進化速度はすごく速くて、スタジオで作ったモニターをヘッドホン / イヤホンで再現できる時代というのが追いかけてくるはず。その先には、音や映像を立体で楽しむ時代が来ると思う。その舞台が車内なのかメタバースなのかはわからないが、これから先は立体の中で作品を作る時代になる」という確信があるという。
マーケットが成熟してから始めるのではなく、将来、誰もが必要とする技術であるという確信に基づいて作られたtutumuは、サウンド・シティだけでなく、まさに日本の音楽スタジオ全体のフラッグシップとなるべく生まれたスタジオと言えるだろう。これには、プロジェクト発足当初からシステムの設計を中心に携わったオンズ株式会社 井上氏も「このタイミングであれば、真似しようとしてもできないスタジオを作れると思いました。そういう意味では、周りがどうということではなく、ここが発信地だという熱い想いでやらせていただきました。」と語っていた。
Dolby Atmos / 360 Reality Audioハイブリッド
tutumuの特長のひとつは、ひとつのスピーカー・システムでDolby Atmosと360 Reality Audioのどちらにも対応できるという点だ。明地氏によると、これからイマーシブ・オーディオの時代は必ず来るという確信はあったというが、将来、主流になるテクノロジーがDolby Atmosなのか360 Reality Audioなのか、それともまったく別のものになるのかはわからないため、将来的にどんな規格にも対応できるスタジオにしたいという想いがあったという。
スピーカー・レイアウトにおけるDolby Atmosと360 Reality Audioの最大の違いは、Dolby Atmosの音場が半天球であるのに対して360 Reality Audioは全天球である点だが、ただ単にDolby Atmosのレイアウトにボトム・スピーカーを足せばよい、というほど簡単にはいかない。映画館での上映を最終的な目的としているDolby Atmosと、音楽作品を前提としている360 Reality Audioでは、Hightスピーカーのレイアウトに対する考え方が異なっているのだ。
Dolby AtmosにおけるHightスピーカーのレイアウトは「半球面上でFrontのLRと同一の線上、かつ、リスニング・ポイントから前後にそれぞれ45°の角度となる位置」となっており、360 Reality Audioは「ITU-Rに準拠した配置の5.1chを上層にも配する」となっている。誤解を恐れずに言ってしまえば、Dolby Atmosはスピーカー・レイアウト全体が半球面になることを重視しており、360 Reality Audioは水平面におけるスピーカー間の角度に重きを置いているということになるだろうか。
「異なるふたつのレギュレーションを同時に満たすためのスピーカー・レイアウトについては、社内でもかなり議論を重ねた」とは日本音響エンジニアリング株式会社 佐竹氏のコメントだが、「tutumuは天井高が仕上げで3m取れる部屋だったため、ハイトスピーカーも含めて球面に近い距離ですべてのスピーカーを配置する計画が可能だった」という。具体的にはDolby Atmosの配置をベースにしつつ、360 Reality Audioにも対応できる形になっているそうだ。
昨今、イマーシブ・オーディオ対応のスタジオ開設が増えつつあるが、その中で必ず話題に挙がるのが天井の高さについてである。佐竹氏は「天井が高くなければできないということはないが、天井は高い方が有利だと思う」とのことで、この点に関しては同社の崎山氏も「天井高が足りない場合、角度を取るか距離を取るかという話になる。そうすると、例えば電気的なディレイで距離感を調整したりすることになるが、実際にスピーカーとの距離が取れている部屋と同じには決してならない」と話してくれた。「新設でこの高さをリクエストされても、物件がない。あったとしても、通り沿いの商業ビルの1Fとか、アパレルのフラッグシップ店舗が入るような高価なところしかない」(井上氏)と言う通り、新しいビルでイマーシブ・スタジオに相応しい物件を探すのは非常に難しい。
その点、tutumuは先にも述べたとおり天井高が仕上げで3m取れており、スピーカーも理想的な配置がなされている。まさに老舗の強み。社屋までもが現在では手に入れられない価値を持ったビンテージ品となっているようなものだ。そして、その恩恵は天井高だけではない。崎山氏によれば、最近の建築は鉄骨造の躯体が多く、軽量化されているため重量が掛けられず強固な遮音層の構築が難しいのだという。「ここは建物が古いので躯体が重く頑丈。すると、天井が高いだけでなく低域の出方もよくなる。スピーカーのセットをガッチリ作れるので音離れがいいんですよね。」(崎山氏)という恩恵もあるようだ。もしかしたら、理想のスタジオを作るためにあえて古き良き物件を探すということも選択肢になるのかもしれない。
時代が求めるPMCのサウンド
📷 tutumu のスピーカー構成は「9.2.5.3」となる。Dolby Atmos 9.2.4 を基本に、360 Reality Audio はTop Center x1、Bottom x3 を追加した 「9.0.5.3」で出力される。 写真右が Front LCR に用いられた「PMC6-2」、左が今回計 14 台導入された「PMC6」となる。
イマーシブ環境においてどのようなスピーカーを選定するかということは極めて重大なファクターだが、tutumuではイギリスのメーカーであるPMCが採用された。Front LCRは「PMC6-2」、Subwooferは「PMC8-2 SUB」、その他はすべて「PMC6」という構成となっており、これらはすべて発売が開始されたばかりの最新モデルだ。工事に先立ち日本音響エンジニアリングのスタジオでおこなわれたスピーカー選定会には、実はこれらのモデルは間に合わない予定だったという。しかし、奇跡的に選定会当日に到着したデモ機を試聴して、「聴いた瞬間、満場一致でこれに決まった」(サウンド・シティ 中澤氏)というほどそのサウンドに惚れ込んだようだ。
「とにかくバランスがいい。特性的にもナチュラルでイマーシブ向きだと思った」(中澤氏)、「本当に音楽的。音の立ち上がりがよく、ちゃんと動いてちゃんと止まるから余韻でドロつかない。ミキサー目線でもリスナー目線でも、どちらで聴いても完璧。これしかないですね、という感じだった」(秦氏)と大絶賛だ。秦氏によれば「イマーシブって全方向から音を浴びるので、どっと疲れたりするんですけど、これはそうした疲れを感じない」のだという。これらの新モデルについては、「そもそも、Dolbyと半ば共同開発のようにして、イマーシブに対応できることを前提に作られている」(オタリテック 兼本氏)とのこと。
オブジェクト・トラックの音像は、従来のチャンネルベースで制作されたものに比べると分離がよいため、低域をすべてSubwooferに任せてしまうとパンを振った時などに定位がねじれるという聴感上の問題が発生する。PMCの新モデルではスコーカーを新たに設計し、アンプの容量も旧モデルの2倍にすることで、各スピーカーがより広い帯域を歪みなく再生できるようにブラッシュアップされているのだ。それはSubwooferの設計にも現れており、秦氏は「いい意味でSubwooferの存在感を感じさせない音。鳴っているときは気付かないが、ミュートすると明らかな欠如感がある。これはお披露目会に来た方々が口を揃えて言ってくれて、勝った、と思いました(笑)」と嬉しそうに語ってくれた。
兼本氏によれば「音が速く歪みがない、というのはPMCが創業以来ずっと追求してきたこと。メーカーとしては、時代に合わせてアップデートしたというよりは、変わらない価値観がにわかに時代のニーズと合致した印象」とのこと。誠実なプロダクト・デザインが正当に評価される時代がやって来たということは、心から喜ばしいことだと感じたエピソードだ。
室内アコースティックへのこだわり
tutumuは、以前は「Sスタジオ」と呼ばれた音楽ミックス / MAコンバーチブルのスタジオを改修する形で施工されている。Sスタジオは紆余曲折ありながらも、最終的にはtutumuと同じ日本音響エンジニアリングが施工を担当したスタジオで、仮設ではあるものの5.1chサラウンド・ミックスもできる部屋だったという。そうした経緯から、音楽ミックスを行う部屋としての下地はある程度整っていた部屋だったが、今回の改修にあたっては前述のスピーカー・レイアウトのほかにも様々な改良が加えられている。
まず、特徴的なのはWideやBottomを含めたFrontスピーカーがすべて正面の壁に埋め込まれていることだ。これは低域の特性を暴れにくくするためで、Subwooferを除いても17本ものスピーカーを使用するtutumuのようなスタジオでは非常に重要な課題となる。また、すべて一体になっているステージをモルタルで作り直すことで、Frontスピーカー5本の特性を揃えつつ、Subwooferとのセパレートも向上させている。HightやRearスピーカーに関してはFrontのようにステージを作ることができないが、なるべくガッシリと設置できるように工夫がされているという。実際に設置工事に入った段階で天井を開けてみると空調用のダクトが通っていたようだが、こちらもほとんど作り直したようなものだという。電気的な調整では補えない、アコースティックな領域で聴こえ方を揃えていくために、マシンルームの扉も入れ替えられ、ブース扉にあったガラス窓も吸音材で蓋をされている。
📷 スタジオ後方に配されたAGS。拡散系の調音材でイマーシブ・システムの課題であるリスニング・ポイントの狭さを解消し自然な音場を生み出すのに大きな役割を果たしている。
また、tutumuを作るにあたって留意された点として、イマーシブにありがちな“リスニング・ポイントが狭い”という音響には絶対にしたくないという意向があったという。音楽ミックスの現場にはミキサーだけでなく、クライアントやアーティストが同席することもあるため、前後3列で聴いても音像が崩れないように配慮されている。また、「音楽を聴いていたら頭も動くし体も動く。そういう自然な動きを許容できるように調整している」(秦氏・井上氏)とのことだ。そうした“遊び”を作るために活用されたのが、日本音響エンジニアリングが開発・販売する「AGS」だ。「もともと音楽ミックスもできるように壁の裏には拡散系の調音材も設置されていたので、それをなるべく活かしながら、LCRスピーカーの間にもAGSに近い拡散体を仕込んで音場のバランスを整えて、さらに調整を重ねている」(佐竹氏)とのことだ。
高い機能性と品質を兼ね備えたPro Tools | MTRX
📷 3枚配されたディスプレイは左からメーター系、Pro Tools、Dolby Atmos Renderer。それぞれ別々のMacにつながっており、Video Hubで切り替えることができる。トラブルがあった時に切り分けが容易になるように、ということのようだ。iPadはPro Tools | Controlがインストールされているほか、iPhoneなどの音源をAir Dropで受け取ってすぐに再生できるようになっている。
tutumuのミキサー・デスクにはTac System「VMC-102 IP Studio Monitor Controller」とMerging Technologies「ANUBIS」が置かれている。VMC-102 IP Studio Monitor Controllerは、従来モデルVMC-102の機能を受け継ぎながら、MADI I/F とDante I/Fを1系統ずつ備え、Danteネットワーク上のルーティングを制御する「バーチャル / ルーティング」機能を新たに搭載した最新モデルだ。片や、Pyramixで有名なMerging Technologies最新のハードウェアであるANUBISも、システムのモニターセクションとなる機能を有している。こちらはDanteと肩を並べるAoIP規格であるRavenna / AES 67に対応しており、Dolby Atmosはもとより、22.2chフォーマットさえも内部でステレオにダウンミックスすることができる。
tutumuではVMC-102 IPをメインのモニターコントローラーとして使用しながら、ヘッドホンアンプのようにANUBISを使用するシステムになっている。スピーカーシステムへのアウトプットとは別系統でANUBISへのソースが立ち上げられており、例えばANUBISに接続されたヘッドホンを着ければ、メインのモニターセクションを切り替えることなくステレオやバイノーラルをモニターできる、ということが可能になるように設計されている。スピーカーへの出力はアナログ、モニターコントローラーへはDante / Ravenna、Dolby Atmos RMUとの接続はDante、音響補正を担うDatasat「AP-25」へはAES/EBU、さらに要所要所ではMADIも使用するなど、tutumuではあらゆる伝送規格を網羅するかのように様々な信号が行き交っている。この複雑な構成を一手にまとめるためにオーディオI/Fとして採用されたのが、Avidのフラッグシップ・モデル「Pro Tools | MTRX」だ。
📷 2台のPro Tools | MTRXはそれぞれInput系とOutput系を受け持ち、SPQカードによる音場補正も担っている。その上に見えるのはAvid最新のシンクロナイザー「Pro Tools | Sync X」。
Pro Tools | MTRXは、モジュール方式の構成を採用することによって高い拡張性を誇る。オプションカードを追加することで、アナログはもちろん、Dante、MADI、AES/EBU、DigiLinkポートなどといった幅広い信号のI/Oとなることが可能だ。井上氏によれば「I/FがMTRXだからこそシステムとして具現化できた」とのこと。tutumuでは2台のPro Tools | MTRXが導入されているが、1台はインプットとDolby Atmos RMUを管理、もう1台はスピーカー・システムへのアウトプットを担っている。また、Pro Tools | MTRXはシステムのI/Oだけでなく、音場補正も担っている。tutumuではDatasat AP-25で主に周波数/位相/時間特性の最適化補正をし、Pro Tools | MTRXのオプションカードSPQも使用して最終的な微調整をおこなっている。
しかし、Pro Tools | MTRX採用の理由は機能性だけではない。秦氏曰く「最初に聴いた時、こんなに違うか、と驚いた。解像度はもちろんのこと、とにかく音のスピードが速い。」と、オーディオのクオリティについても非常に満足している様子だ。また、今回導入されたPMC6-2およびPMC6にはアナログだけでなくAES3の入力もあるのだが、「MTRXのDAはとても信頼できる(井上氏)」ということで、スピーカーへのアウトプットはアナログ伝送が採用されている。これもPro Tools | MTRXのオーディオ品質の高さを窺わせるエピソードだろう。
📷 (左)デスクにはモニター・コントローラーが2台。VMC-102 IPではスピーカー・アウトプット、ANUBISではバイノーラルなどのHPアウトと、それぞれ異なるソースが割り当てられているほか、秦氏と井上氏による「魔改造」によって、360 WalkmixとPro Toolsからの出力をワンタッチで切り替えられるようになっている。(中)DATASAT AP-25 の「Dirac 音場補正機能」で周波数/位相/時間特性の最適化補正を掛けた後、Pro Tools | MTRX の SPQ で微調整をおこなっている。(右)ブース内の様子。写真右に見えるガラス戸がスピーカーの一時反射面になるということで、外側にもう一枚扉を作る形で吸音を施している。
「これからの音楽スタジオのフラッグシップとして相応しいもの ができた。」という tutumu。オフィシャルなオープンに先立っ て行われたお披露目会では、参加したクリエイターたちが創 作意欲を喚起されている様子がヒシヒシと伝わって来たとい う。この勢いを見ると「コンテンツを立体で楽しむ」という 時代は、そう遠い未来のものでもないのではないだろうか。
📷 写真左より、株式会社サウンド・シティ 取締役 明地 権氏、レコーディングエンジニア 秦 正憲氏、取締役 中澤 智氏。
取材協力:株式会社サウンド・シティ、オンズ株式会社、日本音響エンジニアリング株式会社、オタリテック株式会社
*ProceedMagazine2022-2023号より転載
Media
2022/12/28
ファシリティの効率的活用、Avid NEXIS | EDGE
コロナ禍になり早くも3年が過ぎようとしています。その最中でも、メーカー各社はリモートワークに対応するために様々なワークフローを紹介していますが、Avidでも今年の始めに新たにリモートビデオ編集のフローを実現するシステムNEXIS EDGEを発表し、満を辞して今秋リリースされました。
クラウド?オンプレ?
Avidではこれまでもリモートでのビデオ編集やプレビューをする製品が各種あり、ポストプロダクションのニーズに合わせて、システムを構築できるようにラインナップも取り揃えられています。例えば、Avid Edit On Demandでは、ビデオ編集ソフトMedia ComposerやNEXISストレージをすべてクラウド上に展開し、仮想のポストプロダクションを作ることが可能です。クラウドでの展開は時間や場所を問わず利用できること、使用するソフトウェアの数やストレージの容量の増減を簡単に週・月・年単位で設定し、契約することができ、イニシャルコストがほとんどないことがメリットと言えます。
今回紹介するAvid NEXIS EDGEは先で述べたEdit On Demandのクラウド構築とは異なり、サーバー購入の初期投資が必要になります。クラウド化の進みとともに、CAPEX(設備投資)からOPEX(事業運営費)へという言葉が最近よくささやかれ、今どきオンプレのサーバーは流行らないのでは?という見方はあるかもしれませんが、ポストプロダクション業務としてビデオ編集をする上で、すべてをクラウド上で編集することが必ずしも正解だとは言い切れません。それは、映像データの適切な解像度での再生、正確な色や音のモニタリングに対してクラウド上のシステムではできないこともあるからです。
Avid NEXIS EDGEは、会社内にサーバーを置くオンプレミスでのメディアサーバーシステムとなります。Avid NEXISストレージサーバーを軸にしたシステムとなり、メディアサーバーに加えてWindowsサーバーを追加します。ソフトウェアとしては、Media Composer Enterpriseが最低1ライセンス必要になります。Media Composer EnterpriseライセンスはDP(Distributed Processing)ライセンスが含まれており、プロキシを作成するために使用されます。DPは日本語では分散レンダリングと言われ、ネットワーク上にあるひとつまたはそれ以上のワークステーションを使用して、レンダリングやトランスコード、コンソリデートといったメディア作成の処理を行うことで、編集システムのCPUを使用せずに時間のかかるプロセスを外部で行うことができる機能です。
NEXIS EDGEが持つメリット
📷 NEXIS EDGE Webブラウザのユーザーインターフェース 素材の検索と編集
NEXIS EDGEの特徴は大きく分けて2つあります。1つ目は、NEXIS環境において社内のLAN環境と、汎用のインターネット回線を用いるリモートアクセス機能を簡単に切り替えできることです。つまり、遠隔地にいてもオンプレにあるNEXISサーバにアクセスすることができ、サーバー内にあるシーケンス、ビン、クリップを閲覧、再生、編集することができるのです。クラウドサービスを使用しなくてもクラウドと似た環境を構築することができ、メディアを様々な場所にコピーして分散させずに、オリジナルのメディアを1つの場所に置いて使うことができます。
2つ目は、高解像度メディアとそこから生成されたワーク用のプロキシメディアのメタデータが完全に一致して作られることです。そのため高画質のクリップを用いて編集をしても、プロキシメディアで編集をしても、シーケンスにはどちらのメディアも完全にリンクしており、再生ボタンの切り替えで再生させたいメディアを簡単に選ぶことができます。このシステムでプロキシを作成し、使用することの優位性がいくつかあります。汎用のインターネット回線を介して使用できることがその一つです。そしてプロキシメディアはデータ量も少なくダウンロードするにも時間がかからないため、ダウンロードをしたメディアを使用することができます。いったんメディアをコピーしてしまえば、その後インターネットを接続していなくても、ダウンロードをしたメディアで編集をすることができ、その編集されたビンやシーケンスは、ネットワークのある環境に戻せば、NEXISサーバー内にあるメディアにすぐにリンクすることができます。また、プロキシメディアの優位性はリモート環境で使用することだけではありません。LAN環境でもそのメディアを使うことで、ネットワークの帯域を節約することができます。
ストレージ内のメディアにアクセス
ご自身が社内ではない場所にいる場合、社内にあるNEXISメディアサーバーへアクセスするには通常のNEXISクライアントのリモート機能を使い、アクセス権で管理されたワークスペースをマウントします。Media Composerはプロジェクトの作成画面で、Remote Avid NEXISにチェックを入れて起動します。
📷 NEXISへのリモートアクセス
ビンに表示されているクリップは、プロキシメディアがあるクリップなのかどうかが一目で分かります。プロキシメディアがない場合には、メディア作成権のあるユーザーがMedia Composerからプロキシメディアを生成させることもできます。プロキシの生成は前述したDPが機能するPCで行うため、Media Composerで作業をしているエディターは編集作業をそのまま続けることができ、プロキシが作成された順にそのメディアを使うことができます。この分散レンダリングは、バックグラウンドでレンダリングを行うDP Workerと呼ばれるPCの数で、プロキシ生成やトランスコード等のタスクを分けることができます。そのためDP Workerの数が多ければ処理も早くなります。また、スタジオ内にあるMedia Composerが使用されていなければ、そのシステムもDP Workerとして使うこともできます。
📷 分散レンダリングでプロキシを作成するメニュー
リモートで接続したMedia ComposerからNEXISストレージ上のメディアを再生するときは、そのメディアの解像度を選択します。NEXISストレージ上にあるクリップには、高画質メディアとプロキシメディアの2つのメディアがリンクされており、Media Composerでどちらのメディアを再生するかを選択することができるため、NEXISストレージに接続されている環境に合わせてメディアを再生できます。
📷 再生のための解像度の選択
みんなでコラボ
NEXIS EDGEへのWebアクセスツールでは、クリップやビンへのアクセスはもちろんのこと、簡単なビデオ編集、クリップまたはシーケンスへマーカーやコメントなどを付ける機能があります。アシスタントからプロデューサーまでコンテンツに関わるすべての人々が、簡単な操作で編集作業を効率的に、そして円滑に共有することができます。一方、そのためにメディアの管理にはいっそう気を使わなければなりませんが、そんなときにもNEXIS EDGEではビンロックの機能によるシーケンスやクリップの保護、視聴や編集機能の有無など、ユーザー単位でシステムの機能を制限することができます。
さらに、NEXIS EDGEのPhonetic Indexオプションを使用することで、クリップ内の音声トラックからのキーワード検索をすることができ、素材クリップとそのキーワード箇所を素早く見つけることができます。この機能はWebクライアントでも、Adobe Premiere Proクライアントでも利用することができます。
SRT対応で機能アップ、Media Composer 2022
📷 Media Composerユーザーインターフェース クリップアイコンがオレンジ表示になっている時はプロキシメディアがリンクされている。
今年になり5Gが本格的に普及し、汎用のインターネット回線を使ってのワークフローは今後も増えていくことが期待されます。Media Composerはバージョン2022.4でSRT(Secure Reliable Transport)に対応しました。SRTは以前の本誌でも何回かご紹介したことがありますが、マルチメディア伝送のプロトコルです。2012年にカナダに本社を置くHaivision社によって開発されました。非常に強力な暗号技術を採用し、高い安全性とパケットロスのリカバリ、高画質であることが特徴で、2017年にオープンソース化され、同時に組織化されたSRT Allianceによる推進のもと、今では世界の多様なメーカーによって採用・開発・実装が行われています。コロナ禍で最初は戸惑っていたWeb会議も日常的になりましたが、環境によって回線速度が異なるため、そういったツールでの画質や音質は最低限に抑える必要があり、とてもリアルタイムでのプレビューチェック向きとは言えません。それを回避するためにYouTubeなどを使用することもありますが、設定ミスから意図せず動画が公開されてしまうというリスクはなくなりません。
📷 SRTの設定画面
そういった問題を解決できるのがMedia ComposerでのSRT送信です。Media Composerは内部でSRTのソフトウェアエンコードを行い、リアルタイムでインタネット越しにタイムラインを送信します。SRTを送信するにはMedia Composer内のH/Wボタンから設定を行い、シーケンスを再生するだけです。それを受け取るには、SRTデコーダーを備えたアプリケーションやハードウェアが必要になりますが、フリーのHaivision Playerや VLC Player等を使っても受信することが可能です。そのため、インターネット回線さえあればMedia ComposerのタイムラインをSRTでプレビューできます。例えば、遠方のクライアントに対してプレビューをする時など、前もってファイル転送サービスでファイルを送ったり、YouTubeの限定公開を使うためにファイルをアップロードしたりすることなく、ZoomなどのWeb会議システムで会議をしつつ、タイムラインをプレビューすることができます。そして、プレビュー中に直しがあってもファイルを書き出し直し、そのファイルのアップロードやダウンロードをし直すことなく、まるで編集室で立ち会っているかのようなコニュニケーションを取ることが可能です。
また、10月にリリースされたMedia Composer 2022.10では、Multiplex-IO機能が搭載されました。この機能は、シーケンスをスタジオでモニタリングしながら、同時にSRTやNDIをストリーミングさせることができるため、以前のようにどちらかに接続先を切り替える必要がなくなります。
より良い作品を作ることに必要とされるのが「どんな作品を作るのかという共通の認識」を持つことだとしたら、一番大切なのはコミュニケーションです。スタジオでの立ち合い編集などで時間を共有させてのコミュニケーションも大事ですが、ライフスタイルの変化によって場所も時間も共有できない時には、それを可能にするツールを使ってみてはどうでしょう。NEXIS Edgeはリモート・ビデオ編集を可能にする製品ではありますが、単に在宅作業を促進するためのものではありません。この製品はそう簡単には増やせない編集室の代わりに、場所を選ばない方法で編集作業を可能にするものなのです。
*ProceedMagazine2022-2023号より転載
Music
2022/12/28
エイベックス株式会社 avexR studio様 / ワークフローを加速させる、コンパクトに厳選された機器たち。
「エンタテインメントの可能性に挑み続ける。」という企業理念を基に、映像・音楽・テクノロジーのプロフェッショナルが同じ空間で常に交わりコンテンツを生み出していく。これをコンセプトとして2022年夏にavex groupの新たなクリエイティヴ拠点「MARIA」がオープン、本社にあったavexR studioもこちらへ移転し新たに稼働を始めた。今回の移転先となる物件は、元々スタジオとして使用されていたスペースではなくワインセラーやレストランスペースだったとのこと。全く異なる用途のスペースであったわけだが、設計図を作成し始めてから実際の工事に取り掛かるまでが4ヶ月弱という非常に短時間での準備を行い、2Fフロアをすべて改装してパワーアップしたスタジオへと変貌させた。さらに、ここにはグループ会社であるavex creative factoryのスタジオであるMAX studioも併設され、携わるコンテンツの幅が広がっている。今回はこの施設内に移設しコンパクトでありながらも随所にアップデートした新生avexR studioを紹介したい。
パワーアップしたMAスタジオ
今回更新のメインとなるMAスタジオは同じフロアにある映像編集室、多目的スタジオとセットで「avexR studio」と呼ばれている。映画や配信向けDolby Atmosコンテンツや、アーティストのコンサートフィルムといったような映像が関わる音楽系のコンテンツなど、具体的なコンテンツ名が言えないのが非常にもどかしいが「avexR studio」のMA室では誰もが聞いたことがある話題の作品やアーティストの楽曲がDolby Atmosミックスされている。
前回のMA室と同様、コンセプトカラーはこだわりのオレンジがポイントとなっている。スタジオの色基調をオフホワイトとグレーにしてグラデーションをつけることで、前回よりも落ち着いた印象となった。このスタジオで作られるコンテンツは映画などのMAに限らず音楽系のコンテンツも増えてきており、音楽機材も増えたそうだ。スタジオの大きさについては、横幅が若干コンパクトになったが、奥行きは前回と全く同じサイズで設計されている。全体容積としては移転前から80%ほどになったものの、天井高は現在のスタジオの方が高く、スピーカーと作業位置の距離をITU-R基準の1.8mで確保したレイアウトだ。モニタースピーカーを含む機材は既存の設備を流用となった。以前のMA室と音質は大きく変わらないものの、移転したことで音像がタイトになった印象を持つ。コンパクトながらもLFEスピーカーをステレオで配置するシネマ用の配置を取っているが、部屋の横幅が変わったこともあり、低音の鳴り方が感覚に馴染むように試行錯誤しながら修正をしているところだという。
📷 メインスピーカーのGenelec 8350A、ハイトスピーカーのGenelec 8340A、2ch用としてFocal Solo 6 Be。L・Rの下にはサブウーファー Genelec 8360APMが2台設置されている。
Avid S4、厳選されたコンパクトな構成
機材面で大幅にパワーアップされたのが、Avid S4の導入である。以前はコンソールレスでの作業だったが、やはりDolby Atmosなどのイマーシブオーディオを扱うにあたり、特にオブジェクトを多用するセッションの場合はフィジカルで直感的な作業が難しく、パラメータの数値を打ち込むことがメイン作業となってしまって面白みに欠けてしまうことがあったという。コンソールレスで始めたものの、結局はフィジカルコントローラーを各種試して買い足すということに至ったそうで、移転を機に効率的かつ直感的な部分を補うためにコンソールの導入を決意されたそうだ。フィジカル的なコントロールの解決については以前からの課題とされていたようで、イマーシブオーディオコンテンツの作成が本格的に始まった2017年頃から試行錯誤されていたという。
スタジオに導入されたAvid S4コンソールの構成は、Channel Strip Module 8 Faderに加えて、かねてから念願であったJoystick ModuleとExpansion Knob Module、Display Module x2を加えた3 Bay構成である。イマーシブオーディオだからこそ「オブジェクトオーディオにもフィジカルコントローラーを」ということで導入されたJoystick Moduleは、数あるフィジカルコントローラーの中からAvid S4を選択した最重要ポイントの一つである。特にMA作業は映像を見ながらの作業となるため、コンピューター画面に集中することが難しい。モニター画面とコンピューター画面の視点移動は想像以上にストレスがかかる。特に、Dolby Atmosのオブジェクトオーディオ編集はより一層ストレスがかかるが、Joystick Moduleの導入でそれも随分軽減されているそうだ。
📷 コンパクトに収められたAvid S4は着席したままでもすべてに手が届くサイズ感、ヒヤリングポイントからスピーカーまでの高さは1.8mが確保されている。
そして、Avid S6ではなくAvid S4を選択した大きな理由はサイズだという。MAスタジオとしてはかなりコンパクトな筐体となるため、スペース都合を満たすということはやはり大きな要件となる。ただし、サイズ感という問題だけでAvid S1やAvid S3を選択しなかったのは、Avid S4がモジュール式でレイアウト自在な点だ。もちろん、先ほども述べたJoystick Moduleの存在も大きな理由となるが、センターセクションなどのベース構成から好きなユニットを追加選択し、好きな位置に配置できるのでイマーシブオーディオ制作に特化したレイアウトを組み上げられるのがポイントだという。なお、Joystick Moduleはセンターセクション右手前側に配置し、手がすぐに届いて操作できるレイアウトにした。コンパクトなレイアウトに収まったAvid S4は、そのサイズ感のおかげで操作性も十分に補えているという。今回導入されたAvid S4はセンターセクション左手にチャンネルストリップモジュールが配置されているが、Avid S4ならではのノブ部分のチルト構造のおかげで座ったままS4のすべての機能にアタッチできるという。これも作業効率を上げる重要なポイントとなる。
Avid S4で特に気に入っている機能は、センターセクションに集約されたレイアウトだという。ビジュアル・フィードバック性と完全なトータル・リコールにより、セッションごとでAvid S4の各画面の機能やトラックレイアウト、カスタムプラグインレイアウトなど、さまざまなレイアウトを一括でセッションに保存できるため、セッションを開くだけでレイアウトなど様々な設定がすべて読み込まれる。現在編集中のセッションからロールバックして、古いセッションに切り替えるワークフローがたびたび発生するそうだが、そういった時でもAvid S4のトータルリコールのおかげで、細かい設定など再調整することなく即座に作業に入れる点が大きいという。セッションを切り替えるとすぐに作業に取り掛かれるので、別のミックスダウンで気分転換ができることもあるそうだ。
📷 Avid S4を挟んでデスク下のラックにはアナログボード類、とMac Proが収められている。
直感的な作業をパワフルな環境で
MTRXをインターフェイスとしたPro Tools HDシステムは、今回の移転に伴いMac Proを旧型の2013年モデルから最新の2019年モデルへ、HDXカードも1枚から2枚へと増強したことで大幅にパワーアップした。HT-RMUを導入しているが、昨今の映像コンテンツは4Kも多くなってきており、旧型Mac Proでは処理が追いつかないことも多い。また最近のPro Toolsでもビデオエンジンなどをはじめとする機能拡張の動作においてコンピューターのスペックに依存している機能もあるため、新たに導入したMac Proではメモリが96GBという仕様となった。おかげで作業効率が大幅にアップしたそうだ。なお、HT-RMUのほかDolby Atmos Production Suiteも導入されており、音楽性の強いミックスではProduction Suiteを、オブジェクト・トラックを多用する映像の方向性が強いミックスの際にはHT-RMUをとそれぞれ使い分けているそうだ。また、ビデオインターフェイスも4K対応のBlackmagic Design Ultra Studio miniへ更新されている。
📷 デスク下右手のラックにはMTRX、m908などがコンパクトに集約されている。
今回導入されたAvid S4と以前より導入されているMTRXの連携も抜群だという。モニターコントロールに関しては国内導入1台目だというGrace Designのm908を導入しており、このスタジオではアフレコやナレーションだけではなく効果音なども収録するため、ヘッドフォンやミニスピーカーなど様々なモニタ環境を瞬時に切り替えられるようにリモートコントローラーがセットとなったGraceのモニターコントロールを選択した。
MTRXは、Pro Toolsのインターフェイス機能のほかにマトリクスルーターとして稼働しており、MADIで接続されたHT-RMUの音声をMTRXで切り替えている。以前はコンピューター画面上でDADmanをマウスで操作していたが、Avid S4とDADmanを連携し、さらにソフトキーレイアウトをカスタマイズすることで、Avid S4からソース切り替えを可能とした。フィジカルかつ少ないアクションで操作できるようにカスタマイズ可能な機能はより一層直感的に作業に取り組める環境を構築した。
このスタジオでは恋愛ドラマのようなラジオドラマやポッドキャストも制作することもあるという、演出のために作中の効果音をレコーディングすることもあるそうだ。映像ありのコンテンツでは、その映像に寄り添うために音声のミックスで冒険はしにくいところだが、ラジオドラマは映像がないぶん聴き手が自由に想像できるため、オーバー気味な演出をしても違和感も少なく受け入れられるメディア。作り手も思い切ったミックスにチャレンジができる。手がけるラジオドラマはステレオではなくバイノーラルで配信されるため、Dolby Atmosの環境が活きてくる。Dolby Atmosでミックスしたオーディオは最終段でバイノーラルに変換するため、無理なく一層リアリティが増した完パケとなる。特にホラー作品などは特に恐怖感が倍増してしばらくうなされてしまうかもしれない。
発想を瞬発的にコンテンツへ、MAX Studio
📷 アイデアを即時に形にできるよう設けられたMAX Studio。右手の固定窓の向こう側がブースとなる。
ブースを隔ててMA室の奥にレイアウトされたのが「MAX Studio」である。ここではアイデアが浮かんでからすぐに制作作業に取り掛かり、1日で完パケまでできる環境が整えられた。このスタジオはエイベックスの音楽スタジオであるprime sound studio formともプリプロスタジオとも異なるキャラクターで、プロジェクトスタジオとプロスタジオの中間的な存在だという。昨今の楽曲制作で定番になりつつあるCo-Writeもこのスタジオで多く手がけられているそうで、クリエーターの発想を瞬発的にコンテンツへと形を変えることができるよう、ここでは制作の最初から最後まで一気通貫して行える。
MA室とMAX Studioで兼用となっているブースは両側にFIX窓が設けられており、普段は吸音パネルで塞がれている。MAとしてナレーションをレコーディングする際は、MA室側のパネルを外してMA室のTIE LINEを経由する。同様に、MAX Studioでボーカルのレコーディングを行う際にはMAX Studio側のパネルを外し、MAX StudioのTIE LINEを経由する。両コントロールルームに比べてブースの稼働率は低いので、あえて兼用にすることで両側のコントロールルームのスペースを確保した。
📷 ブースは兼用となりMA室とMAX Studioに挟まれたレイアウト。左右には各スタジオへのTIE LINEが設置されている。
天井高4mオーバーの多目的スタジオ
📷 モーションキャプチャースタジオとして活用されるほか、用途を問わず使用される多目的スタジオ。天井面にはトータル16台のOptiTrackカメラが取り付けられている。
約50平米の多目的スタジオは、その名の通り様々な用途を想定した作りになっている。その中でも一番多いケースとされるのが、モーションキャプチャーのスタジオとしての活用だ。天井にはOptiTrackのPrimeシリーズのカメラが常設されている。一方、下部のカメラについては仮設の形態がとられている。このスタジオでは、モーションキャプチャーのほかにグリーンバックでの合成や、YouTube配信といったものから、社内向けのZoom会議などにも使われるため、用途に合わせて暗幕・グリーンバックの有無などが選べるようになっている。
メインで使用されているモーションキャプチャーは、OptiTrackのPrimeシリーズとMotiveが導入されており、主にVTuber用途に使用されている。Motiveで演算されたデータは、カスタムで制作したエンジンによってキャラクターとリアルタイムで合成する。これら一連のリアルタイム処理された映像をそのまま配信することが可能だ。このような環境のスタジオが都心にあることは珍しい。モーションキャプチャーの特性上から広いスペースと十分な天井高が必要となり、その結果多くのスタジオが郊外に集中している。都心部という好立地ならではの制作業務も多いそうで、リモートワークが当たり前になってきている昨今でもこういった立地環境は必要な要素だと実感する。
多目的スタジオ・映像編集室とMA室の連携が取れるよう、音声・映像・サーバーそれぞれが接続されている環境だという。音声はDanteネットワークでスタジオ間を接続し、配信などを行う際に連携して使用されている。映像に関してはフロアの各部屋がSDIルーターに接続されている。例えば、多目的スタジオでVTuberがMotiveでリアルタイムに合成した映像に、MA室やMAX Studioでアフレコをつける、といったようにフロア全体で大きなスタジオとしても活用できる。
映像編集室では、Adobe Premiereを中心とした映像編集機器やCG編集機器が揃えられている。こちらも移転前の広さからおよそ1/3のスペースまでコンパクトにすることができたのだが、これはコロナ禍による制作スタイイルの変化だという。コロナ前は各自スタッフが集まって編集室で作業していたが、各自在宅で映像編集をできるようコンピューターなどの環境を整えた結果、編集室に集まって作業する必要性が薄くなり、必然的にスペースを確保する必要もなくなったそうだ。なお、こちらではモーションキャプチャーのほかにもLyric Videoなどを手掛けたり、エイベックスのYouTubeチャンネルで8月よりライブ配信されている「[J-POP] avex 24/7 Music Live(24時間365日 音楽ラジオ・24/7 Music Radio)」の画面に登場している「KA」とKAの部屋はこちらの編集室で作られたそうだ。部屋の中にある、見覚えのあるラップトップやスピーカーなど、実際の寸法からCGに落とし込まれており、各メーカーの公認も得ているという。
エイベックスの楽曲を24時間365日、ノンストップでライヴ配信する『avex 24/7 Music Live』。
話題のこのコンテンツも、岡田氏が率いるチームが手がけている
イマーシブオーディオもだいぶ浸透し、ワークフローも確立しつつあるが、昔から変わらないフローのもあるという。特に変わらないのが、こまめなセーブとセッションのバックアップだという。こまめなセーブは当たり前になってきているが、コンピューターが高速かつ安定してきているからこそ、基本であるセーブとバックアップを忘れずにしているという。バックアップに関しては、余計に気にされているそうで、セッションデータを3つのHDDやSSDにバックアップするなど冗長化に努めているそうだ。
📷 avex groupの新たなクリエイティブ拠点「MARIA」には地下にクラブスペースもあり、普段は社内の撮影やイベントに使用しながらも、時には海外のTOP DJがシークレットでプレイすることもあるという。アーティストのSNSにもたびたびこちらの部屋がアップされることも多いというこちらのスペースは、なんとメディア初公開だそうだ。DJブースの両脇には日本ではメーカー以外にここにしかないという、Function OneのDJモニタースピーカーPSM318が鎮座しており、フロアには高さ約3mのDance Stackシリーズのスピーカーセットが前後に4発。ぜひともフルパワーの音を体感してみたい。
今後は映像作品のMAのほかに音楽制作へも力を入れていくとのことで、4年前のa-nationのようなDolby Atmos配信も行っていきたいとのことだ。5Gが一般化されたことで通信環境が格段に良くなっていることや、サーバー環境も進歩しているため、以前よりもストレスなく挑めるだろう。また、イマーシブオーディオの中でも今後は360 Reality Audio(サンロクマル・リアリティオーディオ)向けのコンテンツにも積極的に取り組んでみたいとのこと、どんな作品を手掛けられるのか楽しみである。
📷 エイベックス・エンタテインメント株式会社 レーベル事業本部
クリエイターズグループ NT&ALLIANCE 映像制作ユニット マネージャー
兼ゼネラル・プロデューサー
岡田 康弘 氏
*ProceedMagazine2022-2023号より転載
Post
2022/12/28
TOHOスタジオ株式会社 ポストプロダクションセンター2 様 / アジア最大規模のS6を擁したダビングステージ
長年に渡り数々の名作を生み出してきた東宝スタジオ。その中でも歴史あるポストプロダクションセンター 2 に設けられた国内最大規模のダビングステージ2 で、アジア地域で最大規模の構成となる Avid S6 へのコンソール更新が行われた。竣工からまだ間がない今、ブラッシュアップされたそのシステムの内容についてお伝えしていく。
72フェーダー、デュアルヘッド構成のAvid S6
歴史あるダビングステージで、これまで長年使用されて きた AMS Neve DFC2 から Avid S6 へと更新が行われた。今回導入 の Avid S6 は国内はもちろん、アジア地域で見ても最大規模の構成 での導入となる。その構成は横幅14フレームと巨大なもので、そこに72フェーダー、デュアルヘッド構成でモジュールが収まる。フェーダー数に関しては従来のDFC2と同数を確保し、さすが、映画のダビングコンソールといえるフェーダー数を持つ迫力のサイズとなっている。そして今回はサラウンド作業がメインとなるということでジョイスティックモジュールも導入された。Avid S6となったことで、レイアウト機能やスピルフェーダー機能などを活用し、従来以上のワークフローに対する柔軟性を確保している。
改めて確認をしたのだが、東宝スタジオが現在の世田谷区砧に誕生したのは、今から90年前の1932年。今回Avid S6を導入することとなったポストプロダクションセンター2は、以前は東宝サウンドスタジオ、さらにその前は東宝ダビングのダビングビルと呼ばれていた1957年に完成された建物である。60年以上の時を、まさに日本映画の歴史とともに歩んできたダビングステージ。「七人の侍」の黒澤明監督の作品や、ゴジラシリーズ、「シン・ウルトラマン」に至る多岐にわたる映画が作られていたと思うと非常に感慨深いものがある。内装は何度も改装を行っているということで完成当初の面影は無いとのことだが、以前はフィルムダビング(実際にフィルム上映を行いながらの劇伴録音)も行われていたということで、スクリーン前のひな壇はまさにその名残である。スクリーンを背にオーケストラが並び、指揮者が上映される映像を見ながら指揮棒を振る、そんな光景がここにはあったということだ。
潤沢に用意されたチャンネル数
システムもAvid S6となったことでブラッシュアップされている。従来は4台の再生用(プレイアウト)のPro Tools(セリフ用、音楽用、効果音用2台)がMADIでDFC 2と繋がれミックスされていたが、今回の更新でミキシングエンジンとしてAvid Pro Tools HDX3システムを2式導入、それぞれに192chのI/Oを持ち、相互にMADIで接続されたシステムとなっている。やはり、Avid S6をコンソールとして運用すると考えた際には、ミキシングエンジンとしてPro Toolsを選択するというのが一般的、Avid S6の製品自体のコンセプトにも則ったシステムアップとなる。また、ミキシングエンジンとして導入されたPro Toolsと既存のPro ToolsすべてのI/Oを今回の更新に併せてAvid MTRXへと統一している。メンテナンス性、障害時の入替のたやすさなどを勘案し、すべてのオーディオ・インターフェースがMTRXへ統一された。それぞれのAvid MTRXはMADIで接続され、ユーティリティーとして1系統ずつがパッチへと取り出されている。これにより、Pro Tools内部でのIn The Boxミキシングを行う際にも、MADIのパッチをつなぎ替えるだけでシステム変更が出来るようになっている。
改めてシステム全体を信号の流れに沿ってご紹介していきたい。まず、再生用のPro Toolsが4台、それぞれPro Tools HDX2仕様となる。映画ダビングでは、セリフ用(ダイアログ:Dialogue)、音楽用(ミュージック:Music)、効果音用(エフェクト:Effect)それぞれの再生用にシステムが準備される。これは、それぞれ個別に仕込んできたものを別々に出力できるということだけではなく、修正などが入った際にもそれぞれ個別にパラレルでの作業を行うことができるというメリットもある。効果音は、多数のトラックを使うことが多いため2台のPro Toolsが用意されている。サウンド・エフェクト、フォーリーと分けて使ったりすることも多いとのことだ。音楽用以外のセリフ、効果音用の3台のPro Toolsは同一の仕様となっている。Avid Pro Tools HDXカードから、4本のDIgiLinkケーブルでAvid MTRXへと接続され、それぞれに128chの出力を確保している。この128chの出力は、2本のMADIケーブルでミキサーへと送られる。
そんなに多くのチャンネルが必要なのか、と考える方もいるかもしれないが、サラウンド作業ということもあり、ある程度まとめたステムでの出力を行うことも多い。そうなると、5.1chのステム換算としては、21ステムということになる。同じ種類のサウンドをある程度まとめた中間素材となるステム。例えばドラムステムであれば、音楽ミックスで言うところのドラムをまとめたドラムマスタートラックをイメージしてもらえるとわかりやすいだろう。また、映画の作業でステムを多用するケースとしてはパンニングがある。あらかじめパンニングで移動をするサウンドを、モノラルではなくステムで出力することで事前に仕込んでおくことができるということだ。こうすることで、ミキシングコンソールではボリュームの調整をするだけで作業を先に進めることができる。
📷 本文で解説したスタジオのシステムを簡易に図としたものとなる。非常に多くの音声チャンネルを取り扱うことができるシステムであるが、その接続は想像よりもシンプルに仕上がっているということが見て取れる。各MTRX間のMADI回線は、すべてパッチベイを経由しているため、接続を変更してシステムの構成を簡単に変更することができる。図中にすべてを記載できたわけではないのだが、各MTRXはMADI及びAESがユーティリティー接続用としてパッチ盤へと出力されている回線を持っている。そのため持ち込み機器への対応などもMTRXのパッチを駆使することで柔軟に行うことができるように設計されている。
データをアナログという線形の無限数に戻す
話を戻して先程の紹介から漏れた音楽用のPro Toolsのシステムをご紹介しよう。このPro ToolsはHDXカードから2本のDigiLinkケーブルでMTRXに接続され、64chの出力を確保している。音楽用のPro Toolsシステムだけは、Avid MTRXに32ch分のDAカードを装着している。ここから出力された32chのアナログ信号は、RME M-32ADへ接続されている。そしてRMEでADされMADIに変換された信号がその後のミキサーへ接続されることとなる。
📷 ユーティリティー用のRME M-32 AD/DAがこちら。32chのAnalog-MADI / MADI-Analogのコンバーターである。システムのデジタル化が進んではいるが、まだまだ外部エフェクターなどアナログでの接続はゼロにはならない。DAWごとの持ち込みでアナログ出力を受けるといったケースもあるだろう。
なぜ、一度アナログに戻しているのかというと、デジタルからの「縁を切る」ということが目的だ。音楽は96kHzで仕込まれることが多い。しかし、映画のダビングのフォーマットは48kHzであることが基本である。これは最終のフォーマットが48kHzであることも関係しているが、システム的にもMADIをバックボーンとしているために96kHzにすると、やり取りできるチャンネル数が半減してしまうということも要因にある。こういったことから生じるサンプルレートの不整合を解消するために、一旦アナログで出力をして改めてシステムに則ったサンプルレートのデジタル信号とする、ということが行われている。PC上でファイルとして変換してしまえばいいのではないかとも考えられるが、アナログに戻すという一見面倒とも言える行為を行うことによるメリットは、音質といういちばん大切なものに関わるのである。
デジタルデータ上で単純に半分間引くのではなく、アナログという線形の無限数にすることで、96kHzで収録されてきた情報量を余すこと無く48Khzへと変換する。結果は限りなくイコールかもしれないが、音質へのこだわりはこういった微細な差異を埋めることの積み重ねなのではないだろうか。音楽のチャンネル数は96kHzでDA/ADの回路を経由する場合には32ch、48kHzであれば、そのままMADIケーブルで64chがミキサーへと送り出せるようにシステム設計が行われている。
膨大なチャンネル数をマネジメントする
再生用Pro Toolsは、セリフ・音楽用のミキサーPro Tools、効果用のPro Toolsそれぞれのオーディオ・インターフェースとして用意されているAvid MTRXへと接続される。ミキサーPro ToolsはいずれもHDX 3仕様で、6本のDIgiLinkケーブルで192chの回線が確保されている。セリフ128ch+音楽64ch=192chこちらは問題ないのだが、「効果音1:128ch」+「効果音2:128ch」=256ch、こちらに関しては再生機側ですべてのチャンネルを使われると信号を受け取り切れないということが起こってしまう。Pro Toolsシステムとしての上限があるため仕方のないところなのだが、合計が192chとなるように再生側で調整を行い、Avid MTRXの入力マトリクスで受け取るチャンネルを選択する必要がある。それぞれのミキサーPro Toolsはその内部でミキシングを行うさらにまとまったステムをそれぞれ2本のMADIケーブルで128chを出力する。
ミキサーから出力された信号は、最終のレコーダーとなる録音用Pro Toolsで収録される。このPro Toolsは HDX 2仕様で128chの入出力となる。ここでもセリフ・音楽用ミキサーPro Toolsからの128ch、効果用ミキサーPro Toolsからの128chの合計256chのうち、128chを収録するということになる。それならば、それぞれのミキサーPro ToolsからMADIケーブル1本、64chずつという想定もあるが、それではセリフ・音楽が30ch、効果音が90chといったパターンに対応できない。そのためにこのような接続となっている。
📷 セリフ(ダイアログ)用のデスク。作業のスタイルに併せて移動可能な仕組みとなっている。Pro Toolsの操作画面はIHSEのKVMエクステンダーが用いられ、パッチで操作デスクの入替えが可能なようになっている。
📷 音楽用のデスク。こちらのデスクもセリフ用と同様に、作業に併せて操作するPro Toolsを変更したり、位置を移動したりすることができる。
収録機の次に接続されるのはモニターコントローラーである。収録したミックスを聴くのか、ステムを聴くのか、モニターソース切り替えやボリュームコントロールを行っているのがこちらも今回新規導入となっったTACsystem VMC-102IPである。従来のVMC-102からDante対応となり「IP」という文字が加わっている。従来のVMC-102はMADI2系統が用意されていたが、IPとなったことでDante1系統、MADI 1系統へと変更されている。今回はMADIでの運用となるため64chの信号がVMC-102IPへと接続されている。その中で選択可能な最大数のステムをプリセットとしてモニターソースに設定している。5.1chであれば10ステム、7.1chであれば8ステムといった具合だ。ここでボリューム調整された信号はスピーカー駆動系のB-Chainへと送られる。
ここから先の系統は既存のシステムをそのまま使っているが、この部分もご紹介しておこう。VMC-102IPからのMADI信号は一度Avid MTRXへと戻り、DAされアナログ信号として出力される。B-Chainの入口であるRME ADI-8 QSでデジタル(MADI)へと変換され、モニタープロセッサーとして導入されているTrinnovへ。ここでレベル、EQ、ディレイなどの補正 / 調整が行われる。その先はDAコンバーターであるRME M-16DAでアナログに戻され、それぞれのスピーカーを駆動するパワーアンプへと送られている。もうひと部屋のダビングステージでもTrinnovが導入されているということもあり、同一の補正用のプロセッサー製品を使用するということで、サウンドキャラクターの統一を図っているということだ。
📷 左手前にモニターコントロール用のVMC-102IP、そして、サラウンド作業の効率を上げるS6ジョイスティックモジュールが収まる。デュアルヘッド構成のためマスタータッチモジュールが2つあるのが特徴的だ。コンソールの奥には、サラウンドメーターである8連のVUメーターDKtechnologies MSD-600が設置されている。
📷 コンソールを背面から見たところ、S6の後ろ姿もスッキリとした格好だ。また、ダビングステージならではとなるディフューズサラウンドのスピーカーが壁面に取り付けてあるのも確認できる。両サイドの壁面に4本、背後の壁面に4本のサラウンドスピーカーが設置されている。背後の壁面の黒い窓が映写窓でここからプロジェクターでの投影を行なっている。
📷 今回更新された「ダビングステージ2」がある歴史あるポストプロダクションセンター2。過去の東宝映画作品の中でもその姿を見ることができる。この3階建ての建物の3階まですべての空間を吹き抜けにした天井高の高いダビングステージがこの中にある。
今回更新されたシステム部分を詳細にご紹介してきたが、映画のダビングシステムがどのようなものなのかイメージいただけただろうか。チャンネル数の少ない作品や、ワンマンオペレートに近い作品などでは、ミキサー用のPro Toolsがスキップされ、再生用のPro Toolsから録音用のPro Toolsへと直接接続されるといった運用も考えられる。もちろんシステムとしては、そういった運用も見越してすべてのAvid MTRX間のMADIはパッチ盤に上げてある。それ以外にも持ち込み機器や、外部エフェクトの接続用にRME M-32AD / M-32DAをそれぞれ1台ずつユーティリティー用としてスタンバイしてある。AVid MTRXの持つAES/EBUの入出力と合わせて、様々な運用に対応可能だ。
今後、実際に更新されたシステムを運用してみてのご感想やAvid S6での映画ダビングの作業、そういったワークフローに関わる部分について現場のスタッフ皆さんのご意見も是非お聞かせいただきたいと考えている。伝統あるステージに導入された最新のミキシングシステムからどのような作品が生み出されていくのか、またレポートさせていただきたい。
*ProceedMagazine2022-2023号より転載
Media
2022/12/26
株式会社Cygames様 / 大阪サウンド部 エディットルーム〜妥協ないコンテンツを生み出していく、7.1.4ch可変レイアウト2スタジオ
2011年、第一弾タイトル「神撃のバハムート」を皮切りに、これまで「グランブルーファンタジー」、「Shadowverse」、「プリンセスコネクト!Re:Dive」、「ウマ娘 プリティーダービー」などのゲームタイトルをリリースしてきた株式会社Cygames。その中でも、コンシューマー・ゲーム機向けのコンテンツ制作を主に行う大阪拠点においてDolby Atmos 7.1.4chに対応したスタジオが同時に2部屋開設された。まだまだフォーマットも定まらず過渡期だというゲーム制作のイマーシブ分野において、進取の取り組みが始まった大阪Cygamesサウンド部 エディットルームをご紹介していく。
2つのエディットルーム
大阪Cygames サウンド部エディットルーム(以下、大阪エディットルーム)は梅田中心部、交通アクセスもよく大阪Cygamesの第一拠点の近くに位置する。今回新設された大阪エディットルームはDolby Atmos対応のスタジオが2部屋という構成となり、大阪Cygamesにおけるリスニングスタジオとして機能することになる。Cygamesの東京拠点では、既にエディットルーム(以下、東京エディットルーム)が6部屋稼働しているが、大阪Cygamesで制作中である「GRANBLUE FANTASY: Relink」がサラウンド対応コンテンツとなり、同じようなスタジオの必要性を感じていたことからプロジェクトが開始されることとなった。
現状、スマートフォン向けコンテンツではステレオが基本となっており、コンシューマー機等でのゲームについてはサラウンド対応といったところで、ゲームにおけるイマーシブオーディオについてはどのようなフォーマットがスタンダード化していくのか今後の動向を窺っている状況にあるという。イマーシブオーディオに注目し始めたきっかけはMicrosoftがWindowsとXBOXでDolby Atmosをサポートしたことだったそうだ。コンシューマー・ゲーム機からの視点ではSony PlayStationはHDMIからのイマーシブ系の実出力には対応せず、バイノーラル系の技術で進むなど、大手を振ってこれからはDolby Atmosとは言えない状況ではあるが、現時点ではDolby Atmosがもっともスタンダードに近い存在であり、まずはそれに取り組むことが必要であるとのこと。さらには、Sonyから360 Reality Audioも発表されたため過渡期は引き続きとなるが、新たな規格が登場してくるとそれだけイマーシブオーディオが織りなすゲームの世界がどのように発展するのか期待も高まる。
すでに、5.1chのコンテンツを制作しているが再生環境が整っている家庭はまだ少なく、作り上げたサウンドがプレイヤーに伝わっているのだろうかという歯痒さを感じているそうだ。それでも、イマーシブオーディオという素晴らしいコンテンツを見過ごすわけにはいかないので、5.1ch / 7.1ch / Dolby Atmosを取り入れ妥協することなくゲーム開発に挑戦し続ける。こういった取り組みにも「最高のコンテンツを作る会社」というビジョンが見えてくる。
📷 エディットルーム A
📷 エディットルーム B
そして、今回竣工したのがこのエディットルームだ。こちらはインゲームでサラウンドを正確にリスニングすることが主な用途となっており、エディットルームA/Bという同じDolby Atmos 7.1.4ch対応の2部屋を設置することで、同時に作業ができるよう運用面での効率化が図られている。なお、エディットルームA/Bでは異なったオペレートデスクが設置されており、ルームAは固定デスク、ルームBは可動式デスクとなっている。ここにエディットルームの個性が隠されており、ルームBのデスクを移動することによりルームAはコントロールルーム、ルームBは収録スタジオのレイアウトに可変することができる。そのため、主な目的はリスニングとなってはいるが、ナレーションなども収録できるシステムを備えており、マイクプリアンプなどアウトボード系の機材も充実したラインナップが用意された。
📷 一見だけすると全く同じ部屋の写真に見えてしまうのではないだろうか、左ページが大阪Cygames エディットルームA、右ページが同じくエディットルームBの様子となる。両部屋をつなぐ窓の位置、そしてデスクとラックの形状をよく見るとお互いが連携している隣り合ったスペースであることがわかる。また、本文中でも紹介した通り、エディットルームBを収録スタジオとして使用できるようにBのデスク・ラックは可動式とされており、ナレーション収録など作業のシチュエーションによっては上図のように役割を変化させて制作を進行することができる仕組みだ。
基準となる音場
東京エディットルーム竣工時、様々なブランドのモニタースピーカーの比較試聴を行い、GENELEC The Onesシリーズを採用した。元々GENELECには高低音が強調されるようなイメージを持っていて、本命のブランドではなかったというが、The Onesシリーズを試聴した際にそのドンシャリというネガが消え、非常に良いイメージに変わったとのこと。また同軸スピーカーならではの定位感も高く評価を得ている。その流れを汲み、大阪CygamesエディットルームでもGENLEC 8331AWが採用される運びとなった。
大阪CygamesのスピーカーキャリブレーションはMTRX SPQスピーカープロセッシングを採用している。PCなどの機材が全て常設であるため、竣工時に日本音響エンジニアリングによる音響調整を行い、サウンド部スタッフ全員が同じ環境でモニタリングできるスタジオを作ることができた。なお、先立って稼働している東京エディットルームではGENELEC GLMを採用して音響調整を行なっており、PCやオーディオI/Fなど機材を持ち込むことが可能で、言わばフリースペースのような感覚で使用できるようになっている。そのため、GLMで手軽にオートキャリブレーションできるというメリットを活かしているが、状況によりリファレンスが変わるため、基準となる音場の必要性を感じていたそうだ。今回の大阪エディットルームではPCほかの機材を常設設備にして音響調整を重要視した理由がここにある。
📷 GENELEC 8331AW、Cygamesのコーポレートカラーであるホワイトのモデルをセレクト、ハイトスピーカーとして天井に吊られている。写真下はGENELEC 7350APM。スピーカーシステムと部屋のサイズを考慮し、8インチのサブウーファーが設置されている。
システムの柔軟性
大阪エディットルームでのメインDAWはOM Factory製Windowsマシンで稼働するSteinberg Nuendoとなっている。ゲームの開発環境がWindowsベースとなるため、Windows用DAWとして安定しているNuendoに信頼感があること、また、Nuendoに備えられた「Game Audio Connect」でミドルウェアのWwiseと連携できることは、膨大な音声ファイル数となるゲームのサウンド制作においては大きなメリットとなる。
一方、東京・大阪の各スタッフが使用しているDAWソフトウェアは多種多様で、スタッフ本人の意向に沿ったソフトウェアをそれぞれ導入しているとのこと。Avid Pro Tools、Apple Logic Pro、Steinberg Cubase、PreSonus Studio One、中にはAbleton Liveを使っているスタッフもいるそうだが、スタジオでの作業用として、また社外とのやり取りのためにPro Toolsは共通項。大阪のサウンド・デザイン・チームでは、ゲームサウンド制作に長年携わり、WindowsでNuendoという環境に慣れ親しんだ方が多く、今回のメインDAWについてもNuendoが採用されたのはごく自然な流れだったようだ。
📷 エディットルームAのカスタムオペレートデスク。ノンリニア編集に適するようフリースペースの広い形に設計されている。正面左手はRUPERT NEVE DESIGNS/SHELFORD CHANNEL、George Massenburg Labs / 2032、Empirical Labs/Distressor (EL-8)、Eventide/H9000 Harmonizerを、右手にはVertigo Sound/VSM-2 Full、SPL/Stereo Vitalizer MK2-T (model 9739)がマウントされている。直接操作することが少ないOM Factory製のDAW用PCやAVID Pro Tools|MTRX などは足元に収納されている。
なお、エディットルームでの中核となっているのがAvid MTRXとなっている。もちろんMTRXはProToolsで使用するイメージが強いのだが、多機能なオーディオルーティングやコンバーターとしての顔を持っており、NuendoをメインDAWとした大阪エディットルームでも中核機材として導入されている。今回の例では、各DAW PCに搭載されているYAMAHA AIC128-DからDanteで出された信号がMTRXに入り、スタジオ内のモニタースピーカー、コミュニケーション、アウトボードへアナログ信号で送信されている。また、持ち込みPCによるオペレートも想定しており、持ち込みPC用I/FにRME Fireface UFX+を設置。Fireface UFX+MTRX間はMADI規格が用いられている。
各サウンドデスクやエディットルームへの信号はDanteで張り巡らされており、スタジオ内でのルーティングはDADmanで行い、システム全体のルーティングはDante Controllerで行う、という切り分けがなされている。メインスピーカーのボリュームコントロールはNTP Technology MOM-BASEを用いてMTRXをリモートしているシステムとなっている。このシステムを実現するためという点でも、DAWを選ばず柔軟なシステムに対応するMTRXが選定される理由となった。
オペレートの多様性
今回新設の大きな要望として「4Kの画面をどこでも映せる、どこの4Kの画面でもどこにでも持っていける」、「どの音をどこでも聴ける」というテーマがあった。そのコンセプトに沿って、映像信号はADDERのKVMで、音声はDanteで、という役割分担が行われ、各サウンド部スタッフのデスクとエディットルームの音声および映像信号をやり取りするシステムが構築されている。すべてのデスクにKVMおよびDanteインターフェースが用意されており、各デスクで作業をしながらエディットルームの音声をリスニングしたり出力すると同時に、4Kの映像も映し出すことが可能となっているわけだ。
なお、その際HDMIにエンべデットされているDolby Atomsの信号をどのように各ルームとやりとりするのかが課題となっているのだが、配管の問題もあり実線を張り巡らせるのは現実的ではない。AVアンプを駆使してアナログ音声をデエンベデッドする構成もあるが、映像と音声のズレが発生しないかなど現在も検証を続けているところだ。また、映像と音声の垣根を超えるDante AV規格も選択肢の一つではあるが、現在の条件下でHDMIからDolby Atomsのチャンネル数を同時に転送することは難しいため、こちらはDante AV規格自体の発展に期待が寄せられる。ほかにも、機能拡張として各デスクでDolby Atomsをリスニングできる構想など、いまも将来に向けてスタジオ自体が成長し続けていると言えるだろう。
シンプルかつ多機能な機材レイアウト
竣工当時からの課題ではあったが、スペースの都合上でマシンルームを設けることができなかった。そこで、起動音が小さい機材はエディットルーム内に収納、スイッチングハブなどの起動音が大きい機材はスタジオ外にあるラックケースへ収納することで解決を図っている。結果的に、主だった機材がすべてスタジオ内で操作が可能で、ステータスなども目視確認ができるというメリットも生まれた。ここ近年の機器の進歩によって抑えられた起動音や、MTRXのオールインワン性を活かし必要最小限の機材構成としたからこそ実現できた機材レイアウトである。また、エディットルームAは常設のデスクとなる為、収録時でもストレスなく機材の操作ができるように手元にアウトボード系の機材が設置されている。メモや台本などを置けるスペースも広く、ノンリニア編集の理想的なオペレートスペースを作ることができている。
📷 起動音を考慮し静音ラックに収納され、スタジオ外に設置されたスイッチングハブ YAMAHA/SWR2310-10G。各エディットルームとサウンドデスク間を繋ぐDanteの信号処理を行う中核として機能している。また、左写真は別途に設けられたフォーリースタジオの様子だ。
施工にあたってはデザイン面も重要な要素となった。コーポレートカラーであるブラック / ホワイトを基調としたスペースからスタジオに入ると、内装にフローリングの床面やダークブルーを用いた落ち着いた空間が演出されている。オペレートデスクやスピーカースタンドもすべてカスタムオーダーとなっており、素材選びの段階から製作が行われたとのこと。特に、壁紙のカラーなどは大阪Cygamesが注力して開発している『GRANBLUE FANTASY: Relink』の空を意識した青が基調にされており、より制作しているコンテンツの世界観に没入して制作を進めることができそうだ。ゲーム開発ではどうしても自席でのデスクワークがメインとなるが、根本にはエディットルームをいっぱい使って楽しんで欲しい、リラックス感が感じられるように、という思いがあり、それがデザインに込められている。スタッフのモチベーションを上げるということも目的として重視されているということだ。
📷 右:株式会社Cygames サウンド部マネージャー 丸山雅之 氏 / 左:株式会社Cygames サウンド部サ ウンドデザイナー 城後真貴 氏
経験豊かなクリエイターによって一貫したクオリティでコンテンツ制作を進める大阪サウンド・デザイン・チーム。そのクオリティの基盤となるスタジオが新設されたことで、制作ワークは一層の飛躍を遂げることになるだろう。もちろん、ゲームサウンドにおけるイマーシブ制作といった観点でもここから数々のノウハウが生まれていくに違いない。ソーシャルゲームのみならずコンシューマー・ゲームの開発やアニメ制作、漫画事業など幅広い分野でコンテンツをリリースする株式会社Cygames。その「最高のコンテンツを作る会社」というビジョンの通り、妥協ないコンテンツを生み出していくための拠点がここに完成したと言えるのではないだろうか。
*ProceedMagazine2022-2023号より転載
Support
2022/10/17
360 WalkMix Creator™ 最新V1.4.0 リリース情報、11月1日(火)より価格改定
360 Reality Audio制作ツール「360 WalkMix Creator™」の、V1.4.0がリリースされました。待望のプレイヤー機能や、ADM及びMaster ADM形式での書き出しに対応。また、11月からの値上げもアナウンスされましたので、導入をご検討中の方はこの機会をお見逃しなく!
V1.4.0 新機能とアプリケーション - 2022年10月06日更新
・待望のプレイヤー機能、360 WalkMix Playerが登場
360 WalkMix Playerは、360 WalkMix Creatorと共にアプリケーションとして利用できるようになりました。360 WalkMix Creatorに対応しているあらゆる出力フォーマットで書き出されたオーディオを再生できるようになりました。このアプリケーションはプラグインと一緒にインストールされ、スタンドアローンアプリケーションと同じ手順で起動することができます。360 WalkMix Player を使用するには、360 WalkMix Creatorのライセンスが必要です。
・A/B 比較を実行する機能が追加
360 WalkMix Creator プラグインから、A/B 比較を実行する機能が追加されました。「リファレンス」タブから、ステレオ参照ファイルのアンロードとロード、プレイヘッドの調整、LKFS/LUFSの測定と対比、比較のための波形解析が可能です。
・書き出しの形式を追加
ADMおよびMaster ADM形式での書き出しが可能になりました。
・プラグイン内のアップデート通知からリリース内容の確認が追加
プラグイン内にてソフトウェアアップデートを示す通知には、リリースノートページ https:// 360ra.com/release-notes/ へのリンクが表示され、アップデートが自分のニーズにマッチするかどうかを判断できるようになりました。
↑
V1.4.0 安定性の改善 - 2022年10月06日更新
長時間のセッションやプロジェクトで音声が歪む可能性のある問題を修正しました。
いくつかの細かいグラフィック/Ul問題に対処しました。
過去のリリースノートはこちらからご確認いただけます。
https://360ra.com/ja/release-notes/
2022年11月1日(火)より、価格改定も発表!
さらに360 WalkMix Creatorは、2022年11月1日(火)より、価格改定が行われることも発表されました。
2022年10月31日正午までの通常価格:64,900円(税込)
2022年11月1日以降の通常価格:77,000円(税込)
Rock oN Line eStore 販売ページ:
https://store.miroc.co.jp/product/77346
ROCK ON PROでは、360 Reality Audioをはじめ、Dolby Atmosなど各種イマーシブ制作対応スタジオの導入事例も豊富です。下記コンタクトフォームより、お気軽にお問合せください。
https://pro.miroc.co.jp/headline/360ra-info-2022/#.Y00XT-zP0-Q
https://pro.miroc.co.jp/headline/comparison-of-atmos-360ra/#.Y00j8ezP0-Q
https://pro.miroc.co.jp/solution/360-reality-audio-360-walkmix-creator-proceed2022/#.Y00j_ezP0-Q
https://pro.miroc.co.jp/works/360studio-proceed2021-22/#.Y00kDuzP0-Q
https://pro.miroc.co.jp/headline/nagoyageidai-proceed2021-22/#.Y00kGOzP0-Q
https://pro.miroc.co.jp/solution/sound-on-4%cf%80-360ra-part-3/#.Y00kPuzP0-Q
Media
2022/09/01
【MIL STUDIO技術解説】MIL誕生に寄せて〜鑑賞から体験へ 選択から多様の未来へ〜
チャンネルが少なくなければできないことがある。チャンネルが多くなければ分からないことがある。
オーディオの世界を支配するチャンネルとはいったい?
【技術解説】MIL誕生に寄せて〜鑑賞から体験へ 選択から多様の未来へ〜
中原雅考(株式会社ソナ / オンフューチャー株式会社)
📸 株式会社ソナ / オンフューチャー株式会社
中原 雅考 氏
芸術と工学の融合
スタジオと同じ音で作品を聴いてもらいたい。原音忠実再生といった希望は、多かれ少なかれ音響コンテンツ制作者にとっての願いだと思います。しかし、そのためには、ユーザーもスタジオと同じような環境にスピーカーを設置して作品を試聴しなければなりません。今や時代は多様化し、ユーザーの試聴環境は2chかサラウンドかといった単純な選択肢ではなくなっています。ともすれば、この作品はこのように聴いて欲しいといった制作者の強いこだわりが、ユーザーに対しての不用意な圧力になってしまうかもしれません。本来、作品には自由な表現が与えられるべきだと思いますが、オーディオでは、2ch、5.1ch、7.1.4chなど再生チャンネルの形式によって異なる流儀が要求されてしまいます。そのような制限は、工学が芸術を支配しているような関係にも見えてしまいます。
素晴らしい技術をもったエンジニアがスタジオでつくり出す音は最高です。その素晴らしさを多くのユーザーに伝えたいと思い、スピーカーの設置方法、調整方法、部屋の音響のことなどを様々な場面で伝えてきました。しかしそれは、ユーザーにとっては「高級な鮨屋で食べ方を指導されながらおいしさを味わっている」ような世界かもしれません。どうやら、今一度オーディオと出会った頃のユーザー体験に立ち返る必要がありそうです。工学による芸術の制限を緩和すべく、より一層の芸術と工学の融合を目指して…
誰もが気軽に良さの分かるオーディオ再生とは?
作品やユーザー(聴取者)が主役になるためのオーディオとは?
「モノ」「ステレオ」
Media
2022/09/01
完全4π音響空間で描く新たな世界の始まり。〜フォーマットを越えていく、MIL STUDIO〜
MIL=Media Integration Lab。絶えず時代の流れの中から生まれる、我々Media Integrationのミッション。創造者、クリエイターと共に新しい創造物へのインスピレーションを得るために、昨今の空間オーディオ、3Dサウンド、多彩なフォーマット、様々な可能性を体験し、実感する。そのためのスタジオであり、空間。2021年にオープンしたライブ、配信、エキシビジョンといった皆様とのまさに「ハブ」となる空間「LUSH HUB」に続き、次世代の音響、テクノロジーと体験、共有するための空間としてMILは誕生した。43.2chのディスクリート再生で実現した下方向のスピーカーを備えた完全4π音響空間。研究と体験、そこから得られるインスピレーション。それを実現するためのシステム、音響、これらをコンセプト、テクノロジー、音響など様々な切り口からご紹介していきたい。一つの事象に特化したものではないため、掴みどころがなく感じるかもしれない。しかしそれこそが次のステップであり、新しい表現の始まりでもある。
「4π」での感覚で描かれた音楽を
まずは、MIL(ミル)のコンセプトの部分からご紹介していきたい。長年2chで培われてきた音楽の表現。それは今後も残ることになるが、全く異なった「4π」での感覚で描かれた音楽が主体となる世界が新たに始まる。私たちはそのターニングポイントにあり、このMILは「進化し続けるラボ」として今後誕生するであろう様々なフォーマット、3Dの音響を入れるための器、エンコーダー、デコーダーなど様々なテクノロジーを実際に再生し体験し共有することができる。
そのために、特定のフォーマットにこだわることなく、可能性を維持、持続できる空間として設計がなされた。音響面に関しては、このあとのSONA中原氏の解説に詳細を譲るが、物理的な形状にとらわれることなく、今後進化を続けるように運営が行われていく予定である。スピーカー、音響パネルなどは、簡単に入れ替えられるようなモジュール構造での設計がなされており、かなり深い部分からの変更が可能だ。
また、MILならではの特徴として居住性にこだわった、というところは大きいだろう。各研究施設の実験室、無響室のような環境の方が、より正確な体験が行えるのかもしれない。しかしそのような空間は、まさに「Lab」であり、生み出された作品を「視聴」ではなく「検証」する場という趣である。もちろんそこに意味はあるし、価値もある。しかし、MILでは、作品自体をエンターテイメントとして受け取り、住環境にもこだわりゆっくりと楽しむことのできる環境を目指している。ユーザーの実際に近い環境での「検証」が可能であり、「視聴」を行うというよりコンテンツ自体を楽しむという方向での実験、というよりも体験が可能だ。このあとにも紹介する様々なプロセッサー、ソフトウェアを駆使して、いろいろな音環境でリラックスした環境で様々なコンテンツの視聴を行うことができる。
居住性にこだわりつつも、オーディオ、そしてビジュアルのクオリティーに妥協は無い。そのコンテンツ、作品の持つ最高の魅力を体感するために、最善と思われるオーディオとビジュアルのクオリティーを導入している。オーディオに関しては、水平よりも下方向にもスピーカーを配置した、現時点での音響空間のゴールとも言える4π空間再現による真の360イマーシブ環境を実現している。そのスピーカーにはFocal CIの3-Way Speakerを採用している。多チャンネル、イマーシブの環境では同軸のスピーカーが採用されることが多い。もちろん、2-way、3-wayといったスピーカーよりも物理的に点音源としてオーディオを出力する事ができる同軸スピーカーのメリットは大きい。しかし、設置の条件とサウンド・クオリティーを満たす同軸のユニットがなかったために、MILでは音質を重視して3-Way採用に至っている。スピーカー選定に際しては、ユニット自体の音圧放射の特性を調べ上げ、マルチチャンネルにふさわしいものを選定している。その測定の模様はこれまでの本誌にて株式会社SONA執筆の「パーソナル・スタジオ設計の音響学」に詳しい。
この部分に疑問のある方は、ぜひともMILで実際のサウンドを確認してほしい。イマーシブサウンド以降、立体音響=同軸スピーカー。この組み合わせは正しい回答ではあるが、絶対ではないということを知っていただけるはずだ。ビジュアルに関しても、最新の8K60P信号に対応したプロジェクター、そしてEASTON社のサウンドスクリーンの導入と抜かりはない。最新のテクノロジーを搭載した機材を順次導入していく予定である。多彩なフォーマットの体験の場として、またその体験を通しての学習の場として、あるいは創造の場としても今後MILを活用していく予定である。今後の情報発信、そして様々なコラボレーションなどに期待していただきたい。
📸 右写真にてご紹介するのはMIL STUDIOの設計・施工を手がけた株式会社ソナの中原 雅考 氏。後述となる同氏の技術解説も是非ご覧いただきたい。
43.2ch、4π空間をFocalで包む
ここからは、MILにおけるシステムの特徴についてご紹介していきたい。何はともあれ、この大量のスピーカーが興味の焦点ではないだろうか。スピーカーは水平方向に30度刻みで等間隔に配置される。高さ方向で見ると5層。12本 x 5層=60本。それに真上と真下の2本が加わる。現状のセッティングでは、中下層は水平面のスピーカーのウーファーボックスが設置され、下方向も半分の6本のスピーカーを設置、真下もスタンバイ状況ということで、実際には43chのディスクリートスピーカー配置となっている。それに2本の独立したサブウーファーがある。これで43.2chということだ。
📸 L,C,R chは、上から1000 IW 6、1000 IW LCR UTOPIA、HPVE1084(Low Box)が収まる。間の床にあるのがSUB 1000F(LFE)である。
これらのスピーカーはFocal CI社の最新モデルである1000シリーズがメインに使われている。正面の水平面(L,C,R ch)には同シリーズのフラッグシップである1000 IWLCR UTOPIAが設置されている。Focalではラインナップを問わず最上位モデルにこの「UTOPIA」(ユートピア)というネーミングが与えられる。CI=Custom Install、設備用、壁面埋め込み型ということで設置性重視とも捉えられ、音質が犠牲になっているのでは?と感じられる方もいるかもしれないが、同社が自信を持ってUTOPIAの名前を与えているだけに、このモデルは一切の妥協が感じられない素晴らしいサウンドを出力してくる。
それ以外の水平面と上空のTop Layerには1000 IW LCR 6が採用されている。機種名にLCRと入っていることからもわかるように、メインチャンネルを担当することを想定した3-way+1 Pussive Radiatorを搭載したモデル。Hight Layerには1000 IW 6という2-wayのモデルが設置されている。1000シリーズは、FocalのProfessionalラインで言うところのSolo 6 Be、Twin 6 Beといったラインナップに相当する。同社のアイコンとも言えるベリリウムツイーター、'W'コンポジットサンドウィチコーンを搭載した製品である。すでに高い評価を得ているFocal Solo 6 Beと同等のユニット構成のモデルが1000 IW 6。そう考えれば、そのスピーカー群のクオリティーが想像しやすいのではないだろうか。
📸 L,C,Rch以外のスピーカースタンド。上から1000 IW 6、1000 IW LCR 6、HPVE1084(Low Box)が収まる。
ベリリウムで作られたインバーテットドーム・ツイーターのサウンドは、すでに語られ尽くしているかもしれない。その優れた反応速度、濁りのないピュアな響き、Focalのサウンドキャラクターを決定づけているとも言えるサウンド。そのクオリティーをMILではマルチチャンネル、イマーシブ環境として構築した。Focal CIの1000シリーズは、クローズドバックで厚さはわずか10cm程しかない。その特徴もこのような多チャンネルのスピーカー設置を行う際には大きなメリットとなっている。今後、追加で天井にスピーカーを設置したいといった要望にも柔軟に対応できることだろう。
床下のBottom Layerのスピーカーには300シリーズが採用されている。これは物理的な問題が大きく、300 IWLCR 6がサイズ的に合致したということでこの選択肢となった。この300シリーズは、Focal Professionalで言えばSHAPEに当たるラインナップ。ユニットも同等の製品が使われている。物理的なサイズの制約があったといえ、採用できる限りで最良の選択を行っている。このモデルは300シリーズ内でのフラッグシップとなる。1000 IWLCR 6と比べると一回り以上も小さなモデルだが、ダブルウーファーにより十分な量感のあるサウンドを再生することができる。独立したLFE用のサブ・ウーファーに関してだけは、民生のラインナップであるSUB 1000 Fが採用された。これは、ユニットの整合性を取るための選択であり、Middle Layerのウーファーユニットと同一のサウンドキャラクターを得るための選択である。見ての通り、ユニット自体は全く同一のユニットである。
📸 床下に埋め込まれた300 IW LCR 6。現在は6本が設置されているが、それ以外の箇所もキャビネットは準備されている。
📸 天井に専用設計されたリング状のスピーカーキャビネット。ユニットは1000 IW LCR 6が収まる。
イヤーレベルにあたる、Middle Layerのスピーカーには、全てサブ・ウーファー用のユニットが加えられ、3-way + 1 sub。2.1chシステム的に表記するならば、1.1chのような構成となっている。音色面で支配的になるイヤーレベルのスピーカーユニットに関しては、フルレンジとしての特性を持たせるためにこのような構成をとっている。1000 IWLCR 6で低域が不足するというわけではまったくない。このモデルは、カタログスペックとしても48Hz(-3dB)からとかなりワイドレンジでの再生が可能な製品である。これにサブ・ウーファーを組み合わせることで25Hzからのフラットな特性を持たせることに成功している。
まだまだ、イマーシブ・サウンドで制作されたコンテンツはイヤーレベルに多くの主要なサウンドを配置する傾向にある。5.1chサラウンドなどとのコンパチビリティーや、これまでの制作手法などを考えれば当たり前のことではあるし、主役となるサウンドをあえて高さを変えて配置するということに、今後もそれほど大きな意味が持たされるということは無いだろう。そういったことを鑑みてもイヤーレベルのスピーカーをこのような奢った仕様にするということは間違いではない。
FIR補正、55ch分のパワーアンプ、1300mのケーブル
Focal CIのスピーカーは、全てパッシブである。そのため、このチャンネルと同数分のパワーアンプを準備することとなる。結果、必要なパワーアンプのチャンネル数はなんと55chにものぼった。2chステレオ仕様のアンプで準備をするとしたら28台が必要ということになるが、それほど多くのアンプを設置する場所は確保できないため、主要なスピーカーを4chパワーアンプとして、それ以外をInnosonix MA32/Dという2U 32chアンプを採用することとした。
主要スピーカーとは、イヤーレベルのMiddle Layerのスピーカー群であり、クロスオーバーを組む必要があるそのサブ・ウーファーの駆動用となる。これだけでも24本のスピーカーの駆動が必要であるため、4chアンプをアサインしても6台が必要となった。この6台には、Lab.Gruppen D20:4Lが採用されている。この製品は、アンプ内部にLAKE Processerが搭載されており、クロスオーバー、補正のEQなどをFIR Filterで行うことができる高機能モデルである。クロスオーバーがFIRでできるメリットの解説は専門家に任せることとするが、クロスオーバーで問題となる位相のねじれに対して有利であると覚えておいてもらえればいいのではないだろうか。
📸 Lab.Gruppen D20:4L
それ以外のスピーカーを担当するInnosonix MA32/DもオプションでDSP Processer、FIR Filterを搭載することが可能であり、MILではそれらのオプションを搭載したモデルを導入している。これらのアンプにより、スピーカーの補正はFIRとIIRの双方を駆使することができ、より高度なチューニングを可能としている。また高さごとの各レイヤーのアンプの機種を統一することもできているので、それぞれの音色に関しての差異も最小限とすることに成功している。
📸 Innosonix MA32/D
アンプとスピーカーの接続には、ドイツのSOMMER CABLEが採用された。ELEPHANT ROBUSTという4mm2 x 4芯のOFCケーブルが採用されている。同社の最上位のラインナップであり太い芯線により高い伝導率を確保している。芯線を太くしつつ外径は最低限にすることが重要なポイントであった、引き回しを行うケーブルの本数が多いため、その調整を行うために多くの苦労のあったポイントである。ちなみにMILで使用したスピーカーケーブルの総延長は実に1300mにも及ぶ。
これらのアンプまでの信号は再生機器から、全てDanteで送られる。多チャンネルをシンプルに伝送しようとすると選択肢はDanteもしくはMADIということになる。今回のシステムでは、パワーアンプが両機種ともにDanteに対応していたために、Danteでの伝送を選択した。クリティカルなライブ用途ではないために2重化は行っていないが、ケーブルはできる限り高品位なものをと考え、Cat8のケーブルでマシンラックからアンプラックまでを接続している。また、Dante用のEthernet SwitchはPanasonicのPoE対応の製品を選択。今後のシステム拡張時にも柔軟に対応できる製品をピックアップしている。
Avid MTRXで43.2chを一括コントロール
ここまでで、B-Chainにあたる部分がDanteとパワーアンプ内のDSPで構成されていることをお伝えしてきたが、本システムで一番苦労したのがここからご紹介する、モニターコントローラー部分だ。まず、必要要件として43.2ch(将来的には62.2ch)の一括ボリューム制御ができる製品であることが求められる。これができる製品を考えるとAvid MTRXの一択となる。Avid MTRXのモニター制御部分であるDADmanは、最大64chの一括制御が可能、まさにちょうど収まった格好だ。
そして、MILの環境で決まったフォーマットを再生する際に、どのチャンネルをどのスピーカーで鳴らすのか?この設定を行うのがなかなか頭を悩ませる部分だ。Dolby Atmos、SONY 360Reality Audio、AURO 3D、22.2chなど様々なフォーマットの再生が考えられる。一段プロセッサーを挟んだとしても特定のフォーマットでの再生という部分は外せない要素だ。まずは、SONA中原氏とそれぞれのフォーマットごとにどのスピーカーを駆動するのが最適か?ということを話し合った。そこで決まったスピーカーの配置に対し、各フォーマットの基本となるチャンネルマップからの出力がルーティングされるようにモニターセットを構築していった。こうすることで、再生機側は各フォーマットの標準のアウトプットマッピングのまま出力すればよいということになる。
この仕組みを作ることでシグナルルーティング・マトリクスを一箇所に集中することに成功した。DADman上のボタンで、例えばDAW-Atmos、DAW-AURO、AVamp-Atmos、、、といった具合にソースをセレクトすることし、バックグラウンドで適切にシグナルルーティングが行われる仕掛けとしている。後で詳しく説明するが、再生系としてはDAWもしくは、AVampデコードアウト、SPAT Revolutionのプロセッサーアウトの3種類。それぞれから様々なフォーマットの出力がやってくる。これを一つづつ設定していった。そしてそれらのボタンをDAD MOMのハードボタンにアサインしている。
このようにしておくことでDADmanのソフトウェアの設定に不慣れな方でも、その存在を意識することなくソースセレクトのボタンを押してボリュームをひねれば適切なスピーカーから再生されるというシステムアップを実現している。なお、Avid MTRXはあえてスタンドアローンでの設置としている。もちろんPro ToolsのAudio I/OとしてDigiLinkケーブルで直結することも可能だが、様々なアプリケーションからの再生を行うことを前提としているため、MTRXはモニターコントローラーとしての機能にのみ集中させている。
市販コンテンツからマスター素材まで対応の再生系
📸 プロジェクターはJVC DLA-V90R。「8K、LASER、HDR」と現時点で考えうる最高スペックを持つフラッグシップモデル。EASTONのサウンドスクリーンと組み合わせて最高の音とともに映像にもこだわった。
次に再生側のシステムの説明に移ろう。市販のメディア、コンテンツの再生のためにPanasonic DMR-ZR1(Blu-ray Player)、Apple TVが用意されている。これらのHDMI出力はAV Amp YAMAHA CX-A5100に接続され、このアンプ内でデコードされプリアウトより7.1.4chで出力される。このAV Ampは近い将来STORM AUDIO ISP Elite MK3へと更新される予定だ。この更新が行われれば、更に多チャンネルでのデコードが可能となり、MILのさらなるクオリティーアップへとつながる。このSTORM AUDIOはAURO 3Dの総本山とも言えるベルギー、ギャラクシースタジオ、Auro Technologies社が立ち上げたAV機器ブランドであり、AURO 3Dの高い再現はもちろん、Dolby Atmos、DTS:X pro、IMAX Enhancedといった最新の各種フォーマットに対応している。更に24chものアナログアウトを備え、Dolby Atmosであれば最大11.1.6chという多チャンネルへのデコードを行うことができる強力なAV Ampである。本来は、各スピーカーの自動補正技術なども搭載されているが、MILでは、すでにSONAによりしっかりとスピーカーの調整が行われているのでこの機能は利用しない予定である。このAV Ampの系統では、Apple TVによる各種オンデマンドサービス(Netflix等)の視聴、Apple Musicで配信されている空間オーディオ作品の視聴、Blu-ray Discの視聴を行うこととなる。
📸 映像再生用のPlayerはPanasonic DMR-ZR1が奢られている。4K Ultra Blu-ray対応はもちろん、22.2chの受信(出力時はDolby Atmosに変換)機能などを持つ。
📸 AV ampとして導入を予定しているSTORM AUDIO ISP Elite mk3。Dolby Atmos、Auro 3Dといった市販のコンテンツの魅力を余すことなく引き出すモンスターマシンだ。
もう一つの再生システムがMac Proで構築されたPCからの再生だ。これは各マスターデータやAmbisonicsなどメディアでの提供がなされていない作品の視聴に使われる。現在スタンバイしているソフトウェアとしては、Avid Pro Tools、Virtual Sonics 360 WalkMix Creator™、SONY Architect、Dolby Atmos Renderer、REAPERといったソフトになる。ここは、必要に応じて今後も増強していく予定だ。
📸 Avid Pro Tools
📸 Dolby Atmos Renderer
📸 360 WalkMix Creator™
📸 SONY Architect
📸 REAPER
Dolby Atmos、ソニー 360 Reality Audioに関して言えば、エンコード前のピュアな状態でのマスター素材を再生可能であるということが大きなメリット。配信にせよ、Blu-ray Discにせよ、パッケージ化される際にこれらのイマーシブ・フォーマットは圧縮の工程(エンコード)が必要となる。つまり、Dolby Atmosでも360 Reality Audioでも、マスターデータは最大128chのWAVデータである。さすがにこれをそのままエンドユーザーに届けられない、ということは容易に想像いただけるだろう。Dolby Atmosであれば、Dolby Atmos Rendererの最大出力に迫る9.1.6chでのレンダリング、360 Reality AudioはMILのスピーカー全てを使った43chの出力が可能である(360 Reality AudioはLFEのチャンネルを持っていないため43chとなる)。特に360 Reality Audioの再生は他では体験ができない高密度でのフルオブジェクトデータのレンダリング出力となっている。オブジェクト方式のイマーシブフォーマットの持つ高い情報量を実感することができる貴重な場所である。
REAPERでは、MILの4π空間を最大限に活かす7th orderのAmbisonicsの再生ができる。7th Ambiの持つ4π空間の音情報を43chのスピーカーで再生するという、まさにMILならではの体験が可能だ。現状のセットアップでは、IEM AllRADecoderを使用してのチャンネルベースへのデコードを行っているが、他のソフトウェアとの聴き比べなども行うことができる。この部分もこれからの伸びしろを含んだ部分となる。各フォーマットのレンダリングアウト(チャンネルベース)を一旦7th Ambiに変換して43chに改めてデコードすると言った実験もREAPER上で実施することが可能だ。
それ以外に、Stereo音源の再生のためにiFI Audio Pro iDSDが導入されている。これは、DSD / DXD / MQA / PCM192kHzなど各種ハイレゾ素材の再生に対応したモデル。イマーシブ・サウンドだけではなくステレオ再生にも最高のクオリティーを追い求めたシステム導入が行われている。
スピーカーの仮想化、FLUX SPAT Revolution
📸 視聴空間としてではなく、ラボとして様々なフォーマットの変更を担うのがFLUX:: Spat Revolutionだ。OM FactoryでSPATの動作に最適にチューンされた、カスタムWindows PC上で動作をさせている。実際にMILで利用しているSpat Revolutionのスクリーンショットを掲載しているが、Dolby Atmosの入力をMILの43.2chにアサインしているのがこちらとなる。それ以外にも22.2ch、Auro 3DなどをMILのデフォルトとしてプリセットしている。
この2つの再生系統の他に、Core i9を搭載したパワフルなWindows PCがFLUX SPAT Revolution専用機として準備されている。これは、それぞれの再生機から出力されたレンダリングアウトに対し様々なプロセスを行うものとなる。具体例を挙げるとDolby Atmosであれば、理想位置から出力された際のシュミレーションを行ったりということになる。MILのTOPレイヤーは仰角34度であるため、Dolby Atmosの推奨設置位置である仰角45度とは11度ほど差異が出ている。これをSPAT上で仰角45位置へと仮想化するということである。水平面に関しても、実際に物理的なスピーカーが設置されていない水平角100度、135度という推奨位置へと仮想化することなる。
スピーカーの仮想化というと難しそうだが、シンプルに言い換えればパンニングを行うということになる。SPAT Revolutionでは、このパンニングの方法が選択できる。3Dのパンニングとして一般的であるVBAP=Vector-Based Amplitude Panningに始まり、DBAP=Distance-Based Amplitude Panning、LBAP=Layer-Based Amplitude Panning、SPCAP=Speaker-Placement Correction Amplitude PanningといったAmplitude Pan系のものと、KNN=K Nearest Neighbourが選択できる。これらは今後のバージョンアップで更に追加されていくと見込んでいるのだが、3Dパンニングのタイプを切り替えて聴き比べができるのもSPAT Revolutionならではの魅力だ。水平面であれば、シンプルなAmplitude Panで問題は無いが、3D空間に対しては、垂直方向のパンニング、立体空間に定位させるための係数の考え方の違い、など様々なファクター、計算をどのように行うのかというところに多様なメソッドが考えられており、SPAT Revolutionを用いればこれらの聴き比べができるということになる。更にMILでの実践はできないが、SPATにはオプションでWFS=Wave Field Synthesisも用意されている。
📸 SPATを動作させるOM Factory製カスタムWindows PC
SPAT Revolutionは一般的なChannel-Baseの音声だけではなく、Scene-Baseの音声の取り扱いも可能である。具体的には7th order Ambisonics、バイノーラル音声の扱いが可能ということになる。これらScene-Baseのオーディオデータはさすがに直接の取り扱いというわけではなく、一旦Channel-Baseにデコードした上でSPATの自由空間内で各種操作が行えるということになる。ここで挙げたような3D Audioのミキシングのための様々な考え方は知っておいて損のないことばかりである。今後技術解説としてまとめた記事を掲載したいところである。
映像系統に関しては、AV ampに一旦全てが集約されInputセレクターとしても活用している。選択されたソース信号は、プロジェクターVictor DLA-V90Rに接続される。このモデルは、8k60p信号の入力に対応したハイエンドモデルである。これが、120inchのEaston E8Rサウンドスクリーンに投影される。PCの操作画面はKVM MatrixとしてAdder DDX10で制御され、1画面を切り替えて操作が行えるようにシステムアップされている。
以上が、MILにて導入された各機器である。文章としてはボリュームがあるが、実際にはAV amp以外は全てDanteでの接続のため、あっけないほどシンプルである。一本のEthernet Cableで多チャンネルを扱える、信号の分配など自由自在なルーティングが組めるDanteの恩恵を存分に活用したシステムアップとなっている。各機器がまさに適材適所という形で接続された、まさに次の世代への対応まで整えたと言っていい内容でシステムアップが行われたMILスタジオ。4πの空間再現、音を「MIL」という思いを込め実験施設とは異なった、じっくりと、ゆっくりと音を体験できる場となっている。
【LINK】MIL STUDIOの設計・施工を手がけた株式会社ソナの中原 雅考氏による技術解説
技術解説:MIL STUDIO
*ProceedMagazine2022号より転載
https://pro.miroc.co.jp/headline/proceed-magazine-2022/#.YxG8QezP0-Q
https://pro.miroc.co.jp/headline/360ra-info-2022/#.YxG72ezP0-Q
https://pro.miroc.co.jp/solution/360-reality-audio-360-walkmix-creator-proceed2022/
https://pro.miroc.co.jp/headline/comparison-of-atmos-360ra/#.YxG8EuzP0-Q
Post
2022/08/25
株式会社IMAGICAエンタテインメントメディアサービス 竹芝メディアスタジオ様 / 〜五反田から竹芝への大規模移転、時代の区切りをいま目の当たりに〜
日本を代表するポストプロダクションであるIMAGICAエンタテインメントメディアサービス。その中でも古い歴史を持つ五反田の東京映像センターをクローズし、竹芝メディアスタジオへその機能を移転した。1951年より前身である東洋現像所 五反田工場としてスタートしてから70年余りの歴史に幕を閉じ、新しい竹芝の地でのスタートとなっている。特に映画の関係者にとっては、聖地ともいえる「五反田のイマジカ」。その施設と設備が竹芝でどのように構築されたのか、弊社で導入のお手伝いをしたMAを中心にお伝えしたい。
五反田から竹芝の新拠点へ
様々な映像関連サービスを提供する株式会社IMAGICA GROUP。その中の株式会社IMAGICAエンタテインメントメディアサービスの本拠地とも言える五反田の東京映像センターの設備を新拠点となる竹芝メディアスタジオへ移転させることとなった。五反田の地では、前身の東洋現像所時代より日本の映画制作における中心地としてフィルムを主軸としたサービスが展開されており、その試写室はまさに日本映画のリファレンスとも言われてきた。
昨今のフィルムでの撮影需要の動向により、五反田ではすでにフィルム関連のポストプロダクションサービスを行っていなかったが、2部屋の試写室は初号上映の場として日々活躍してきた。移転にあたっても試写室の設備を作るということで物件の選定には大きな苦労があったということだ。やはり試写室を作るとなると、十分な天井高を確保できる建屋が必要であり、それ以外の編集、ダビング、MAなどの設備もとなると、移転先を探すだけで数年がかりのプロジェクトになったということだ。移転先が決まってからは、非常にスピード感を持って話しが進んだのだが、まさにコロナ禍に突入したタイミングからの移転作業開始となり、多くの苦労がここにはあったそうだ。
5.1chからDolby Atmos Homeまで、高まるニーズ
📷 3F:MA:303
本記事で中心的にお伝えする303と呼ばれるMA室は、4部屋設けられたMA室のうちの1つでDolby Atmos Homeの再生環境を備えた部屋となる。ほぼ同等のサイズの305は、将来的にDolby Atmosの導入が行えるように準備がなされた5.1chの部屋。304、306は、303や305と比べると少し小さいサイズだが、この2部屋も5.1chサラウンドを備えた部屋となっている。五反田時代も仕込み専用の部屋も含めると4部屋が実際にはあったが、お客様をお招きできる部屋は2部屋しかなかったそうだ。竹芝では304、306は基本的には仕込み作業を行う部屋としているが、お客様をお招きしても問題のない設備となるよう設計されている。また、五反田時代に来客対応ができる5.1chサラウンドの部屋は1室の体制であったが、竹芝では全室5.1chサラウンド対応としたことでかなり柔軟な運用を可能としている。
📷 303室の機器が収まった3本のラック。MacProが4台。それぞれの動機を取るためのSync X、そしてAudio I/OはMTRXが設置されている。Pro Toolsは3Setが導入されているがMTRXは1台とし、MTRXの内部で全てがルーティングされたシンプルなシステム構成となっている。奥のラックにはスピーカーを駆動するためのLab.Gruppen Cシリーズのアンプが収まる。
今回Dolby Atmos仕様の部屋が1室、5.1ch仕様の部屋が3室と、サラウンド仕様の部屋を増強した形になっている。ここには、IMAGICAエンタテインメントメディアサービスとしてサラウンド作品の受注が増加しているという背景がある。放送向けの作品はステレオ中心ではあるが、それ以外にストリーミング向けの作品を手掛ける機会が増えているということ。昨今、ストリーミング各社が製作するオリジナルコンテンツは、5.1ch以上のフォーマットでの制作がほとんどであり、5.1chサラウンドの需要は高い状況が続いているとのこと。実際に303の部屋の稼働は半数程度が5.1ch作品になっているそうだ。お話を聞いた時点ではまだDolby Atmosの作品制作は行っていないということだったが、近い将来に予定されているとのことなので、この部屋からDolby Atmos作品が誕生する日は遠くない。前述の通り、同等の広さを持った305室には天井にスピーカー設置の準備までが行われているため、Dolby Atmosの需要動向次第では2部屋に設備を増強することが容易に行える。303にはDolby Atmos Homeのマスタリングを行うことができるDolby HT-RMU(Home Theater - Rendereing and Mastering Unit)が導入されている。これにより、仕上げまでしっかりとした環境で行うことができる設備となっている。
また、竹芝メディアスタジオでは、予算の関係でダビングステージに入れない場合や、映画のプリミックス作業を受注することもあるそうだ。通常のMA設備よりも広く設計したことにより、五反田の時に比べて劇場との差異を軽減できている。試写室との連携も同じ建屋内で完結できるため、直し作業後の確認などもスムースに行うことができるのは一つメリットと言えるだろう。MA室で仕上げた作品を試写室でチェックし、直しがあればまたMA室に戻る、そんな連携での作業も可能となっている。サラウンド作業についてで見ると、MAとダビングではスクリーンバックのスピーカー、サラウンド側スピーカーのデフューズ・サラウンドという点で再生環境に大きな違いがあるが、これをその環境が備わった試写室との運用連携で解消している。同じ建屋内で効率的にリソースを活用している格好だ。
📷 ナレーション収録からアフレコへの対応も考えられた、大きな容積が確保されたブース。アフレコ時には横並びで4名が入れるように設計が行われている。余裕のある空間なので、カメラを入れての収録など様々な用途での活用も可能だ。
音と純粋に向き合う、隠されたスピーカー
303室のスピーカーにはプロセラ社のモデルを採用、ローボックスと組み合わせて3wayの仕様での導入となっている。このスピーカーは移転に際して新しく導入したものだ。五反田で使っていたMusik RL900Aに慣れたお客様にどのように受け入れられるか、当初不安な部分もあったということだが非常に好評を得られているとのこと。写真を見ていただければわかるように、スピーカーは全てサランネットの裏に設置されておりその姿は普段は見えない。そのため、スピーカーは何を使っているのか?という問い合わせを作業後に受けることが多いということだ。これは「いい音だったので何を使っているのかが知りたい」という評価を裏付ける好意的な質問と言えるだろう。
📷 フロントバッフルに埋め込まれたスピーカーはProcella Audio P8と同社のSubWoofer P15SIの組み合わせての3Way構成。この組み合わせで、5ch全て同一のモデルで平面のサラウンドが設置されている。LFE ch用にはProcella Audio P15が2本、L、Rchそれぞれの外側に設置されている。Dolby Atmos用の天井スピーカーはProcella Audio P8が4本設置されている。写真では分かりづらいが、しっかりとセンターに軸を向けてアングルを付けて天井に埋め込まれている。
なお、スピーカーを隠したのは、スピーカーと向き合って音を聴くのではなく、そこで鳴っている音を純粋に聴いてほしいという思いから、あえて見えないようにしているとのことだ。サラウンドサイドなどでスピーカーがサランネットに隠されている環境はよく目にするが、フロント面も全て隠されているというのは新鮮さを感じる。大型のスピーカーは確かにその存在感が大きい。隠すことで音に集中してもらうという発想は今後も各所で取り上げられそうな印象を受けた。
プロセラに組み合わされるアンプは、Lab.Gruppenが採用されている。LAKEプロセッサーによるスピーカーチューニングが行えるということもあるが、サウンドのキャラクターがシャープで立ち上がりの良いサウンドだということもMAの作業には向いているということだ。やはり、余裕を持ってスピーカーを駆動するということを考え、アンプは出力的に一回り大きな容量のモデルを選定したということだ。
シンプルさと柔軟性を両立させるS6 + MTRX
📷 32Fader仕様のAvid S6カスタム。机面に対してアームレストがフラットに収まるようにカスタムデザインのデスクが用意されている。PC DisplayはAdder DDXにより、どの画面からも任意のPCを操作することができるように設計されている。
コンソールは、Avid S6が採用されている。これまではSSL Avantが使われていたが、移転に際しAvid S6の導入となった。2マン〜3マン体制での作業が多いということで、レイアウト機能、スピル・フェーダー機能といったフェーダーの並び替えにおいてAvid S6が持つ高いカスタマイズ性に注目していただき導入となった。複数のDAWをまたいで制御が行えるAvid S6は、ハリウッドで鍛え上げられた複数のエンジニアが並んで作業をするということに対して、様々な機能を持って応えてくれる。フェーダーのみの列を作ったり、必要とされる部分に機器を備えカスタマイズされた仕様となっている。このような盤面の構成の柔軟性もAvid S6がモジュール構造だからこそ実現する美点。必要なモジュールを必要な箇所に設置してセットアップができるようになっている。
また、3人目のエンジニア用にAvid Artist Mixも用意されている。Avid S6での作業も可能だが、独立したコントローラーで自由に作業を行いたい際には、Artist Mixも使えるという作業に柔軟性を持たせるための導入となっている。Dolby Atmos用のJoystickは、好きな場所に持ってきて操作ができるように独立したボックスに納められた、ステレオ作業の際には卓の後ろに隠しておけるコンパクトなサイズのものだ。
📷 コンソール左側のアシスタントデスクには、ヘッドフォンモニター用のtc.electronics BMC-2、Grace Design m908のコントローラーVTRリモコンなどが並ぶ。ダバーを操作したり、Dolby Atmos RMUを操作したりといった作業はこちらのデスクで行うことが多い。
📷 コンソールの左側は、3人目のエンジニアが来た際にAvid S6と切り離して作業ができるよう、Avid Artist Mixが設置されている。併せて個別でのヘッドフォンモニターができるようにtc.electonics BMC-2がここにも用意されている。
システムのバックボーンはAvid MTRXが受け持っている。3台のPro Toolsが常設されているが、1台のAvid MTRXでそのシステムは完結している。モニターコントロール部分は、全MA室のシステムを極力統一したいということもありGrace Designのm908が導入された。Avid MTRXはDAWシステム間のシグナル・ルーティングを受け持ち、最終段のモニターコントロールはGrace Design m908という流れだ。機器の収まったマシンルームの写真をご覧いただければ感じられる通り、複数のDAWが含まれるシステムでありながらも、非常にシンプルかつコンパクトにそれらがまとまっていることがご理解いただけるだろう。
VTRは、HDCAM SR 2台がMA用として設置されている。納品物としてVTRを求められるケースはかなり減ってきているということだが、まだアーカイブ、バックアップとしてテープが欲しいと言われることも多いということだ。2台のVTRはVikixのVideo Routerで信号が切り替えられるようになっており、全てのMA室から共用で利用できるように設計されている。
集約された機能がメリットを生む
ここ、竹芝メディアスタジオには大規模なサーバーシステムが導入され、MA室からもそのサーバーへ接続できるようになっている。基本的に持ち込まれるデータが多いということもあり、サーバー上での作業は行わず編集、試写室、QCとのデータの受け渡しで活用しているとのことだ。なお、編集〜MA〜QCというポスプロ作業一式での作業を受ける作品が多いため、サーバーを介してのデータの受け渡しはかなり頻繁に行われている。五反田時代は建屋が別棟だったこともあり、ワンストップで作業を請け負っていたとしても、編集にはお客様が立ち会うがMAはお任せ、というケースが多かったが、竹芝に来てからは、フロアを移動するだけということもあり、MAにもお客様が立ち会われる機会が増えているということ。これは移転で機能が集約されたことによって出現したメリットの一つだとのこと。
これらのシステムは、かなり多くの部分が五反田からの移設で賄われている。アウトボード類、VTR、DAW用のPCなど移設対象の機器は多岐にわたったのだが、昨今の事情もありつつ、移転に際して非常に苦労の多かったのが「稼働を損なうことなく移設をどのように進めるか」であったという。そのため、スタジオ自体のダウンタイムを最低限に留めつつ新社屋への移転を行うために段階的な引っ越しが行われた。全ての機器を新設で賄うことができれば良いのだが、なかなかそのようなわけにはいかない。竹芝で五反田の機材以外の部分を仕上げ、五反田のシステムから竹芝へ機材を移動し、動作確認を行って即時に稼働させる。そのような段取りが部屋ごとに組まれたそうだ。
竹芝メディアスタジオ-フロアガイド
7フロアに広がる、大規模なポスプロ設備。カラーグレーディング&編集、スクリーンを使ったカラーグレーディング、オフライン編集、メディアサーバー室など様々な設備が一つのビルの中に整っている。広々としたロビーや多くのミーティングスペースなども設けられており先進的な印象を与える空間も多いが、その中でもサウンドに関連する設備をダイジェストでご紹介したい。
●1F:第1試写室 / 第2試写室
📷 1F:第1試写室
📷 1F:第2試写室
100席という中規模なシネコンスクリーンクラスの座席数を備えた第1試写室。4K DLPのプロジェクターと、35mmのフィルム上映が可能な設備を備える。スクリーンはスコープサイズで横幅8.4m。第2試写室は、Dolby Cinema (Dolby Vision + Dolby Atmos)の再生に対応した設備を備えた試写室。Dolby Cinema対応のカラーグレーディング室としても活用される、ハイスペックな試写室である。音響面もDolby Atmosへの対応とともにDTS:Xへも対応。最先端のテクノロジーが導入された51席の試写室である。
●3F:ダビング
📷 3F:ダビング
📷 3F:ダビング
映画館で上映されるコンテンツのミキシングに対応したスクリーンと、デフューズサラウンド仕様のダビングルーム。主には劇場予告編のミキシングが行われている。スピーカーとアンプは試写室と同じメーカーの製品に揃えられ、サウンドキャラクターの差異が最低限になるように設計が行われている。同規模の設備が2室用意されている。
●3F:MA
📷 3F:MA
4室が設けられているMA。全ての部屋が5.1chサラウンド対応である(うち1部屋はDolby Atmos Home対応)。ネットワークでの社内サーバーへの接続により、各編集室、試写室とのデータの連携もスムーズになっている。部屋ごとの設備を出来得る限り統一することで、エンジニアの機器操作に対する負担を軽くするとともに、部屋ごとのサウンドキャラクターの統一を図っている。
●6F:QC
📷 6F:QC
作品が完成したあとのマスターデータのチェックを行う設備である。ハーディングチェックなどにとどまらず、映像の影の有無、カット、編集のミス、音声のノイズ、音量のばらつきなど、機械では判断できないような部分までも要望に応じてチェックが行われる。Dolby Atmos / 4K HDRに対応した部屋が2部屋、5.1ch対応の部屋が3部屋。合計5室のQCルームがある。
様々な苦労が、裏にはあった五反田から竹芝への大規模な移転。そしてそれに伴い行われた様々なチャレンジ。新しいシステム、部屋、音環境、まさにこれから新しい時代がスタートすることを感じさせる大規模な移転である。これから映画の聖地となっていくであろう試写室、Dolby Atmosをはじめ最新メディアに対応したMA、一つの時代の区切りをいま目の当たりにしている、そう感じさせるものであった。
*ProceedMagazine2022号より転載
Media
2022/08/22
IP映像伝送規格 NDI®︎ + SRTで実現する!〜高品質、低遅延、利便性、3拍子揃った映像伝送を考察〜
汎用のインターネットを通じて高品質な映像信号の送受信が行える規格が登場し、InterBEEをはじめとする昨今の放送機器展示会でも大きな注目を集めている。例えば、これまで弊誌でも紹介してきたNDIでは、昨夏にリリースされたNDI 5より新たにNDI Bridge機能が追加され、2拠点間をインターネット越しにNDI接続することが可能となった。今回新たにご紹介するのはSRT = Secure Reliable Transport と呼ばれるプロトコルだ。その名の通り、安全(Secure)で、信頼性がある(Reliable)、伝送(Transport)ができることをその特徴とする。本稿では、今後ますます普及が見込まれる2つの規格の特徴についてご紹介するとともに、今年3月に同テーマで開催されたウェビナーのレポートをお届けする。
同一ネットワーク内で即座に接続確立 利便性のNDI
まずはNDIの特徴をあらためて確認しておこう。NDIとは Network Device Interface(ネットワーク・デバイス・インターフェース)の略称で、その名の通り、ネットワークで接続されたデバイス間で映像や音声をはじめとする様々な信号を送受信可能とする通信規格の一種だ。2015年9月のIBC Showにて米国NewTek社により発表されて以降、1年〜2年のスパンで精力的にメジャーアップデートが行われており、2022年現在は昨年6月に発表されたNDI 5が最新版となっている。このバージョンより、待望されていたインターネットを超えてのNDI接続を可能とするNDI Bridge機能が実装され、その裾野は着実に広がりを見せている。
SMPTE ST-2110が非圧縮映像信号のリアルタイム伝送を目的として策定されたのに対し、NDIは圧縮信号の低遅延 ・高効率伝送を前提とし、利便性を重視したような設計となっているのが大きな特徴だ。具体的には、例えば1080i 59.94のHD信号であれば100Mbit毎秒まで圧縮して伝送することにより、一般的なLANケーブル(ギガビットイーサネットケーブル)でも複数ストリームの送受信ができるというメリットを実現している。当然ながら10Gbイーサネットケーブルを使用すれば、より多くのストリームの送受信も可能だ。
NDIには、大きく分けると2つのバージョンがあり、スタンダードな"NDI"(Full NDI、Full Bandwith NDIとも呼ばれる)と、より高圧縮なコーデックを用いる"NDI | HX"というものが存在する。前者のFull NDIではSpeedHQと呼ばれるMPEG-2と似たような圧縮方式を採用しており、ロスレスに近い高品質ながら1フレーム以下の超低遅延な伝送が可能なため、海外では既にスポーツ中継などの放送現場で活用が始まっている。このNDI向けのソフトウェア開発キット(SDK)はオンラインで公開されており、個人の開発者でもロイヤリティフリーで使用することができる。
一方、後者のNDI | HXは、MPEG-2の2倍の圧縮率をもつH.264や、さらにその2倍の圧縮率をもつH.265といった圧縮方式を採用し、無線LANなど比較的帯域が狭いネットワークで安定した伝送を行うのに向いている。対応のスマートフォンアプリなども数多くリリースされており、スマホカメラの映像やスクリーンキャプチャーをケーブルレスで他のデバイスに伝送できる点が非常に便利だ。こちらのNDI | HXの使用に関しては、現在有償のライセンスが必要となっている。ちなみに、この"HX"というのはHigh Efficiency (高効率)を意味するそうだ。
また、NDIの利便性向上に一役買っている機能として、デバイス間のコネクション確立時に使用されているBonjour(ボンジュール)という方式がある。これは、あるネットワーク内にデバイスが接続された際、自身のサービスやホスト名を同一ネットワーク内にマルチキャストすることで、特に複雑な設定を行わなくとも他のデバイスからの認識を可能とする、Apple社開発・提供のテクノロジーだ。同じくBonjourを採用しているDante対応製品に触れたことがある人はそのイメージがつくだろう。
通常のDNS = Domain Name System においては、例えばDNSサーバなどの、ドメイン名とIPアドレスを変換する仕組みを提供するサーバーが必要となるが、このBonjourにおいては、mDNS = multicast DNSという方式を用いることで、デバイス同士の通信のみでホスト名の解決を行うことが可能となる。仮に、映像スイッチャーソフト等から、ホスト名ではなくデバイスのIPアドレスしか見ることができなかったらどうなるだろうか。「192.168.〇〇.〇〇〜」という数字がずらっと羅列されていても、それがどのデバイスか瞬時に把握することは困難を極めるだろう。そうではなく、「yamadataro-no-macbook.local」「yamadataro-no-iphone.local」といったホスト名が表示されることにより、我々人間にとって分かりやすく、使い勝手の良いインターフェースが実現されている。
やや話が逸れてしまったが、簡潔にまとめるとNDIの魅力は気軽に伝送チャンネルを増やせる柔軟性と、ネットワークに繋げばすぐホスト名が見えてくるという扱いやすさにある。SDKがオープンになっていることにより、vMixやWirecast、OBSなどの配信ソフトや、Media ComposerやDaVinci Resolve、Final Cut Proといった映像編集ソフトでも採用され、数あるVoIP規格の中でもまさに筆頭格とも呼べる勢いで放送・配信・映像制作現場での普及が進んでいる。弊社LUSH HUBの配信システムでも、NewTek TriCasterを中心としたNDIネットワークを構築しているが、従来のSDIやHDMIケーブルと比べ、LANケーブルは長尺でも取り回しが容易である点や、スマホカメラの映像を無線LANでスイッチャーに入力できる点は非常に便利だと感じており、個人的にもNDI導入を積極的にアピールしたいポイントとなっている。
セキュアかつ高品質低遅延な映像伝送を低コストで実現 品質重視ならSRT
SRTもNDI同様のマルチメディア伝送プロトコルの一種で、2012年にカナダに本拠地を置くHaivision社によって開発、翌2013年のIBC Showで初めて一般向けのデモンストレーションが行われた。SRTはSecure Reliable Transport (セキュア・リライアブル・トランスポート)の略称で、その名の通り、より安全(Secure)で、信頼性がある(Reliable)、伝送(Transport)ができることをその特徴とする。それまで遠隔地へ安全に高画質な映像伝送を行うための手段としては、衛星通信やダークファイバー(専用回線)を用いた方法が一般的だったが、伝送コストが高額となることが課題だった。その課題を解決するため、「汎用のインターネット回線を使ってセキュアで高品質な映像伝送したい」というニーズのもとにSRTは誕生した。2017年よりGitHubにてオープンソース化、同時期にSRT Allianceがスタートし、現在ではMicrosoftやTelestream、AVIDを含む500社を超えるメーカーがその開発に参加している。
それではSRTの技術的特徴を具体的に見ていこう。まず安全性に関する技術については、AES(Advanced Encryption Standard)と呼ばれる、世界各国の政府機関などでも採用されている非常に強力な暗号化技術を採用している。SRTの場合AES-128、AES-256に対応しており、付随する数字は暗号化に用いる鍵の長さのbit数を意味している。一般的な暗号化技術において、この鍵長が長いほど第三者による暗号解読が困難になる。仮にAES-256を使用した場合、2の256乗、10進数にしておよそ77桁にも及ぶということを考えると、AES暗号化の突破がいかに困難なことか、その片鱗をご理解いただけるだろう。この強力な暗号化が、通信だけでなく、伝送しているコンテンツそのものに対しても適用されるため、万が一通信パケットを盗聴されたとしても、その中身までは決して解読されることはないだろう。
信頼性については、パケットロスに対するリカバリ機能を備えていることにより、不安定なネットワーク状況下でもほとんどコマ落ちすることのない高品質な映像伝送を実現している。一体なぜそのようなことが出来るのか?その秘密は、低遅延な通信方式であるUDP(User Datagram Protocol)と、データの誤りを制御するためのARQ(Automatic Repeat reQuest [またはQuery] )と呼ばれる機能を組み合わせるという工夫にある。この工夫についてより理解を深めるには、まずはTCP/IPモデルにおけるトランスポート層に位置するプロトコル、TCP(Transmission Control Protocol)とUDPの違いについて触れておく必要がある。
●TCP、UDPって何?
TCPはコネクション型と呼ばれるプロトコルで、データ受信後にACK(アック)という確認応答を送信元に返すことで通信の信頼性を保証する仕組みになっている。そのような確認応答を行なったり、データが届かなかった場合に再送処理を行なったりするため、通信経路の品質が低い場合には比較的大きな遅延が生じるというデメリットがあるが、電子メールなど確実性が重視される用途で主に使われている。ちなみに一昔前まで普及していたAdobe Flash Playerでは、このTCPをベースとしたRTMP(Real Time Messaging Protocol)と呼ばれる通信方式が採用されている。
対するUDPはコネクションレス型のプロトコルで、TCPのように確認応答を返さず、データの再送も行わないため通信効率の面ではこちらが有利だ。いわばデータを通信相手に送りっぱなしにするようなイメージになる。パケットヘッダのサイズを比較しても、TCPは20バイト使うのに対し、UDPは8バイトと小さいため、そもそも送受信する情報量が少ない。ただし、通信経路の品質が低い場合には遅延こそ少なかれ、伝送するコンテンツ自体の品質の劣化が避けられないという欠点がある。そうした理由で、例えばライブ配信やIP電話やなど、確実性よりもリアルタイム性が重視される用途で使われることが多い。
簡単に言うとSRTでは即時性に優れたUDPをベースとしながらも、信頼性に優れたTCPのようなデータの再送要求の仕組みを上位層のアプリケーション層で上手く取り入れている。それが前述したARQである。一般的に、こうしたメディア伝送においては、送り手側となるエンコーダーと受け手側となるデコーダーのそれぞれに多少のバッファーが設けてあり、受け手側はそのバッファー内でパケットの並べ替えなどの処理を行った後、デコーダーにパケットを転送している。
従来型のRTMPでは下りのトラフィック帯域の低下を防ぐため、パケットを受け取るたびにACKを送り返すのではなく、シーケンス、つまり一連のパケットのまとまり毎に応答確認を行う。もしそのシーケンス内でパケットロスが生じていた場合、再度そのシーケンス丸ごと再送が必要となり、その分のタイムロスが生じてしまう。一方、SRTでは受け手側でパケットロスが判明した時点で、その特定のパケットのみを即座に送り手側に再送要求することができる。これが高画質低遅延を実現するための重要なポイントだ。無事に再送されてきたパケットはバッファー内で適切に再配置された後にデコード処理されるため、オリジナルの品質に極めて近い綺麗な映像を受信できるという仕組みだ。ちなみにこのバッファーのサイズは数ミリ秒〜数十秒の範囲で設定できるようになっているため、通信状況に合わせて変更が可能だ。
また、RTMPとSRTのもう一つの大きな違いはパケットヘッダーにタイムスタンプを持てるかどうかである。RTMPでは個々のパケット毎にはタイムスタンプが押されていないため、受信した各パケットを一定の時間内にデコーダーに転送する必要がある。 その際、不安定になりがちなビットレートを安定化させるために、ある程度のバッファを設定する必要が生じる。一方SRTでは、個々のパケット毎に高精度なタイムスタンプが押されているため、受信側で本来の信号特性そのものを再現できるようになる。これにより、バッファリングに要する時間が劇的に短縮されるというメリットもある。
まとめると、SRTの魅力は、従来の衛星通信や専用回線での通信と同レベルの、安全性が高く、極めて高品質な映像伝送を比較的低コストで実現できる点にある。活用が考えられるケースとしては、例えばテレビ番組の生中継などで、「汎用のビデオ会議ツールなどでは満足のいく品質が得られない、かといって衛星通信や専用回線ほどの大掛かりなシステムを構築する予算はない」といった状況に最適なソリューションではないだろうか。
Webiner Report !!
〜2拠点間を実際にSRTで接続しながら生配信するという初の試み〜
今年3月初旬、ROCK ON PRO とアスク・エムイーの共催にてウェビナー『NDI & SRT を活用した映像伝送 〜SRTで2拠点間をつないでみよう!〜』が開催された。本ウェビナーでは、渋谷区にある弊社デモスペース「LUSH HUB」と千代田区のアスク・エムイーショールーム「エースタ」間を、オンライン会議ツールZOOMおよびAJA社の高性能マルチチャンネルビデオエンコーダー BRIDGELIVEを使ってSRT接続し、両拠点からそれぞれのYou Tubeチャンネルで生配信するという、おそらく国内ウェビナー史上初となる試みが行われた。ウェビナー内ではNDIとSRTの概要説明のほか、インターネット越しのNDI接続を可能とするNDI Bridge や、NDIネットワーク内で音声のみの伝送を可能とするNDI Audio Direct の動作も紹介。それぞれの規格がどのような場面での使用に適しているか、またそれらを組み合わせることで生まれる利点についてのプレゼンテーションが行われた。
ROCK ON PRO & アスク・エムイー共催
NDI & SRT を活用した映像伝送 〜SRTで2拠点間をつないでみよう!〜
配信日:3月2日 (水) 16時〜17時
株式会社アスク アスク・エムイー/テクニカルサポート 松尾 勝仁 氏
株式会社リーンフェイズ アスク・エムイー/マーケティングマネージャー 三好 寛季 氏
株式会社メディア・インテグレーション ROCK ON PRO / Product Specialist 前田 洋介
●エースタ側配信
https://youtu.be/NK8AN1UsCRo
●LUSH HUB側配信
https://youtu.be/PzibZ3wKPDQ
●System:当日の接続システム
NDI Bridge、SRT、ZOOMを活用し、3拠点間のコミュニケーション、2拠点から同時配信という内容となる今回のウェビナーについて、まず、ROCK ON PRO 前田洋介より接続システムについての解説が行われた。やや複雑だが図にすると次のような形となる。(下図 )まず、講師陣がいる場所は渋谷のLUSH HUB、千代田区半蔵門のエースタ、そして今回リモート出演となった前田洋介が訪れているRockoN梅田の3拠点となる。3拠点間のコミュニケーションおよび音声の入力には汎用のツールとして使い勝手が良いZOOMを採用。さらに、LUSH HUBとエースタの2拠点間においては、AJA BRIDGE LIVEによるSRT接続とNewTek NDI Bridge接続が並行して確立されており、相互にSRTで高品位な映像伝送を行つつ、相手方のTriCasterの操作も可能となっている。その上で、両拠点からYou Tube Liveへの最終の配信エンコーディングが行われている。
●Digest1:NDIのメリット
まずはアスク・エムイー三好氏より、NDIについての解説が行われた。NDIの最大の特徴は、対応するデバイスやソフトウェア間で、映像、音声、制御などの様々な信号をWi-Fi接続やネットワークケーブル一本で伝送できてしまう点だ。SDK(ソフトウェア開発キット)が無償公開されていることもあり、対応するソフトウェアスイッチャーやスマートフォン向けのカメラアプリなども様々登場している。
●Digest2:NDI Tools
オンラインで無償配布されているNDI Toolsには、NDI信号をWebカメラのソースとして使えるWebcam InputやTriCasterを遠隔操作できるNDI Studio Monitor、インターネット越しのNDI接続を可能とするNDI Bridgeなどが含まれている。WIndows版の方が開発が早かったり、Final CutなどMac版にのみ対応しているソフトウェアもあるため、Win版とMac版でラインナップが異なっている。
●Digest3:NDI5から新たに追加されたNDI Bridge
NDI5から新たに追加された目玉機能の一つがNDI Bridgeで、これによりインターネット越しにNDI接続を行うことが可能となった。現時点ではWin版のみの対応となるが、遠隔地のNDIソースを受信したり、TriCasterやPTZカメラをソフトウェアパネル上からリモートコントロールしたりすることができる。実際にウェビナー内でこのデモンストレーションを行なっているシーンを是非ご覧いただきたい。LUSH HUBにいる松尾氏のPCから、半蔵門エースタのNDIソースが一覧となって表示されている様子が確認できる。さらに、TriCasterの画面に進むと、画面左上にKVMのボタンがあり、これをクリックすることでそのままTriCasterの遠隔操作が可能になるという驚きの手軽さだ。コロナ禍以降、ライブ配信の需要が急速に高まっており、配信のオペレーター不足なども懸念されるが、こうした機能を活用していくことで解決できる課題は山ほどあるだろう。
●Digest4:SRTとはどのようなものか
続いて、SRTに関する説明だ。SRT = Secure Reliable Transportの略称で、Haivision社が開発した。不安定なネットワーク環境でも高品質なライブ映像を実現することを目標に、変動するネットワーク帯域幅を考慮し、映像の整合性や品質を維持するための様々な機能が備わっている。NDI同様オープンソース化されているが、こちらはソフトウェアだけでなくハードウェアへの組み込みもロイヤリティーフリーとなっている。
●Digest5:NDIとSRTを併用するメリット
ここでNDIとSRTの違い、併用するメリットについて話題が移る。NDIは元々、単一ネットワーク内での利便性向上を重視して作られ、後からインターネット越えが可能となった。一方、SRTは開発当初から遠隔地への安定した映像伝送を目標として開発されている。したがって、これらを比較対象として同列に並べるのはそもそも誤りで、むしろ、適材適所で併用することで相乗効果を発揮できる。つまり、NDIとSRTを併用することで「品質をとるか利便性をとるか?」というトレードオフを打破できるわけだ。
●Digest6:実際にNDIとSRTを組み合わせると
その一例がまさに、先に説明した本ウェビナーのシステムそのものだ。NDI Bridgeを活用してカメラやスイッチャー等のリモートコントロールを行いつつ、配信用の映像本線はSRTを使って高画質を実現することができる。(図9)また、その上でZoomなどのオンライン会議ツールを併用すれば、2拠点間のコミュニケーションはもちろん、その場に不在の参加者との連絡も容易だ。
●Digest7:気になる実際の画質を比べてみる
やはり誰もが気になるのが実際の画質についてだと思われるが、ウェビナー中盤からSRT経由の映像、NDI経由の映像、そしてZoom経由の映像を横並びにした配置をご確認いただけるようになっている。左がSRTで受信している映像、中央がNDIで構築したLAN内の映像、右がZoomで受信している映像だ。残念ながら同じカメラで撮影している訳ではないため厳密な比較とは言えないかもしれないが、SRT経由の映像は、ZOOMと比べ、ローカルのNDIとほとんど遜色ない高画質な映像となっているのが確認できる。
日進月歩で発展し続けるIP映像伝送テクノロジーの中でも、本稿では特に注目すべき2つの規格、NDIとSRTについてご紹介した。従来のSDIにとって代わり、とことん利便性を追求したNDIと、衛星通信や専用回線にとって代わり、汎用のインターネットでも高品質低遅延での映像伝送実現を目指したSRT。これらについて議論されるべきなのは、「どちらを使うか?」ではなく、「どのように組み合わせて活用していくか?」という点である。今回我々がみなさんにご提案させていただいたシステムはあくまでほんの一例で、こうしたIP伝送テクノロジーを適材適所に活用することで、世界中の放送・配信の現場それぞれに特有の問題を解決できるのではないかという大きな可能性を感じている。技術的ブレイクスルーによる恩恵、そして新技術を積極的に取り入れ、既存の技術とうまく組み合わせていくことで、これまでなかなか避けられなかったトレードオフも、今後次々と打破されていくことを期待したい。
*ProceedMagazine2022号より転載
Post
2022/08/19
株式会社東京サウンド・プロダクション様 / 〜Avid S4 最大サイズの24フェーダーを誰もが扱いやすく〜
半世紀を超える歴史を持ち、企画・制作・撮影・編集・MA・効果選曲等と、映像に関わるすべてを「ワンストップ」で提供できる総合プロダクションとしての地位を築いている「東京サウンド・プロダクション(TSP)」。2019年の機材更新にあたりFairlight EVOに代えて、同社初の大型コントロールサーフェスとなるAvid S4を導入した『MA-405』について、同社ビデオセンター MA課 テクニカル・マネージャー / ミキシングエンジニアの大形省一氏と同 チーフミキシングエンジニアの川﨑徹氏にお話を伺った。
積極的に取り入れられるテクノロジー
テレビ朝日グループの一員である株式会社東京サウンド・プロダクション(以下、「TSP」)は、1963年に放送局における「音響効果集団」からスタートしている。今や、映像に関わるすべてをワンストップで提供できる総合プロダクションとなった同社だが、2017年には同じグループ企業である株式会社ビデオ・パック・ニッポンと合併し、放送技術に関わる分野、コンテンツ制作、販売という分野にも事業活動を広げている。テレビ朝日系列のものだけでも、地上波、BS、CS、YouTubeなどのコンテンツ制作を請け負っており、また、他局の番組制作や企業PV、自社制作コンテンツなど、さまざまなクライアントからの期待にまさに「ワンストップ」で応え続けている。
TSPのもうひとつの大きな特徴は、最新のテクノロジー / ソリューションに果敢にチャレンジし、それらを積極的に取り入れていこうという強い気概であるという。西麻布・六本木周辺に3拠点を構える同社だが、すべての拠点にAvid NEXISもしくはISISが導入されてネットワークサーバーで繋がっており、どの拠点のどのスタジオからでも任意のデータにアクセスできるだけの環境を整えているとのこと。拠点間を跨いでの制作であっても、データを入れたHDDを持ち歩くようなことはまずないようだ。最近も、コロナ禍という状況の中でクライアントの安全とスムーズな制作を両立するべく、異なるスタジオ間で遅延なくCue出しや収録が可能になるようなシステムを開発中とのこと。若手の層が厚いピラミッド型のスタッフ構成も、こうした姿勢を推進している様子だ。
そんなTSPの旗艦スタジオとも言える『MA-405』には、2021年の更新を機にAvid S4が導入されている。同社初となる大型コントロール・サーフェスの導入に至った経緯と、約半年間の使用感などを伺った。
コンソールミックスからDAWミックスへ
株式会社東京サウンド・プロダクション ビデオセンター MA課 テクニカル・マネージャー / ミキシングエンジニア 大形省一氏
株式会社東京サウンド・プロダクション ビデオセンター MA課 チーフミキシングエンジニア 川﨑徹氏
RockoN(以下、R):『MA-405』は以前はFairlight EVOを使用していたというお話でしたが、これまでのMA機材の変遷を伺えますか?
川﨑:『MA-405』はビデオ・パック・ニッポンの方で運営していたスタジオだったんですが、移設時点ではFairlight EVOのシステムで動いてました。メインのツールとしてはFairlightの稼働率が高く、Pro Toolsはサブ機という状態が長かったです。『MA-405』に関しては一体型のEVOだったので話が別ですが、基本的にはDAW + コンソールというシステムがメインでした。
R:3拠点で9部屋とのことですが、ほかの部屋でコンソールはどんなものをお使いなのでしょうか。
川﨑:SSLが中心で、C300、C200、 現在はC10HDが一番多いです。また、Avid S5 Fusionが入っているMA室も2部屋あります。
大形:Fairlightもまだあるので使えるといえば使えるのですが、現在はメインDAWはすべてPro Toolsです。
川﨑:2017年の合併くらいのタイミングから、「極力Pro Toolsに移行しましょう」という方針で。5年くらいかけて移行しまして、いまはもうほぼPro Toolsです。
R:Pro Tools + SSL というシステムが多いのでしょうか?引き続きミックスはSSLで?
川﨑:ミックスはPro Toolsの中でやってしまうことが多いですね。コンソールはHUI コントローラーとしての側面が大きいです。FairlightとPro Toolsを両方使っていたという状況もありまして、FairlightのみのEVOのようなシステムですと2台をうまく使うことが難しい部分が出てきました。FairlightとPro Tools両方を使う上で、DAWはDAW、コンソールはコンソールで、と切り分けて使うようなシステムで今まではやってきました。
テープ時代の終わりとPro Toolsへの移行
R:おふたりはFairlight歴は長かったんでしょうか?
大形:はい。Fairlightはやっぱり映像系のワークには強かったですね。今でこそ納品物がデータになってきていますが、昔は絶対テープでしたので。テープ・コントロールはやはりFairlightが強かった。Pro Toolsも9pinコントロールはありますけど、Fairlightの操作性に比べると若干劣るところがあったのは否めないですね。
川﨑:ただ、移行に関してはそれほど難しくなかったと思います。序盤こそ、編集の感じが違うとか手癖でうまく動かないとかありましたけど、同じDAW同士、似た点を見つけたりしながらうまく移行できたと思います。
R:合併前からEVOが稼働していた『MA-405』ですが、今回 Avid S4に更新したきっかけはどのようなものだったのでしょうか?
川﨑:EVO自体はまだまだ稼働できたんですが、サポートが終了すること、『MA-405』以外の部屋がPro Tools + SSLのためこの部屋だけが孤立してしまうのを避けたかった、というところが大きいです。合併前のTSPからいた者などはすでにPro Toolsに完全に移行していたので、そういう人たちが使いづらいという状況になってしまうので。
R:入れ替えに当たっては色々と候補を上げて悩まれたのでしょうか?最初からAvidのサーフェスを念頭に置いていましたか?
川﨑:ほかのMAの部屋はSSL C10HD + Pro Toolsが多いので、合わせて同じようなシステムにするという案もありましたが、部屋のサイズ感やシステムを鑑みて、SSLとはまた別のものを導入する余地があるのではないかということが話に挙がりました。『MA-405』は当社のスタジオの中でも上ふたつに当たる大きな部屋なんです。そのため、フラッグシップとしてメインを張れるスタジオにしたい、という気持ちがありました。当社として新しいソリューションにチャレンジするという意味でも、ほかの部屋と同じコンソールではなく、大型コントロールサーフェスの導入に踏み切ってもよいのではないか、という意見が多く上がっていたんです。
📷 MA-405はTSPの持つMAスタジオの中でも「上ふたつ」に入る大きさを持ったメインのスタジオ。今回の更新でFairlight メインDAWもFairlightからPro Toolsへ完全移行した形だ。
使用感にこだわった構成
R:『MA-405』のAvid S4は24フェーダー / 5 フィートという、S4としては最大のサイズです。やはり、あの規模のフェーダーやコントローラーは必要ですか?
川崎:はい。ドラマとか映画のコンテンツでは、複数人が横並びでフェーダーを握ります。その時に小さいものをいくつも並べるよりは、コンソールと同じサイズのもの1台で作業ができるようにした方がよいという判断です。また、Avid S4はモジュール構成ということもあり、24フェーダー(チャンネルストリップ・モジュール x3)あれば、どこかのモジュールに不具合があっても位置を入れ替えれるだけで作業が続行できるというメリットも考えてこの構成になりました。
R:Avid S4はディスプレイモジュールにも対応していますが、今回導入されなかったのは理由がありますか?
川崎:興味はあったのですが、DAWの作業画面を正面に出したかったのでディスプレイモジュールは省きました。マスターモジュールが右に寄っているのも同じ理由です。もちろんマスターモジュールでも操作することはありますが、慣れ親しんだワークフローとしてはキーボードでの操作がメインになりますので。
R:デスクは川崎さん設計・日本音響制作の特注品ですよね。
川崎:そうですね、細かなところですが右手のスペースに半円状の出っ張りを作って、キーボードとマウスを置けるようにしてもらいました。フェーダーの手前にキーボードを置けるスペースはほしいんですが、そこがあまり長いとミックスをする時に手が浮いてしまうということもあるので。デスクの高さについては、私自身が体格のいい方なので、女性や小柄なスタッフに聞き取りしつつ調整しました。ぼくの好みが入っちゃってるとは思うんですけど(笑)、今までのEVOやほかの部屋のC10HDとあまり変わらないようにしてもらいました。
📷 特注デスクに乗せられたAvid S4。メンテナンス性などを考慮して、埋め込みではなくデスク上に置くという選択がなされている。ブランク部分にはTritech製のモニターコントローラーが埋め込まれていて、YAMAHA MRX7-Dのを制御している。これも、外部のミキサーが一目でわかるような物理的なスイッチを配したいという配慮からの選択となっている。
R:Pro Tools システムは、メインがHDX x2 + HD I/O、サブがHDX x1 HD I/Oとなっています。映像再生には何を使用されているのでしょうか。
大形:Non-Lethal Applications Video Sync 5 Proです。
川崎:Video SatelliteでMedia Composerを走らせて、というのも考えたんですけれど、現状、MAワークで4K素材はあまり扱わないのでそこまでやるのは時期尚早かな、と。動作の安定性やTCカウンターのことを考えてVideo Syncにしました。
大形:キャラは絶対に乗せなきゃならないので、そうするとやはりVideo Syncの使い勝手がいいんです。Vidoe Slave 4 Proの頃から便利に使っていましたが、バージョンアップとシステムの更新もあって、以前はたまにあったフレームの飛び込みなどもまったくなくなりスムーズに使用できています。
R:工事完了が2021年9月ですが、これまでS4を使用されて使い勝手はいかがですか?
川崎:ほかの部屋はコンソールとPro Toolsの組み合わせということで、どうしても卓のセッティングをして、DAWのセッティングをして、という2アクションになっちゃうんです。その点、Pro Tools + S4だとセッションを開くだけでセッティングが完了するのは便利です。その分、ミキサーとアシスタントの準備作業もスムーズにいきますし、拠点間を跨いで作業する時もデータひとつですべて完結するので、正直、ほかのスタジオも同じようにしてほしいと希望が上がるくらいですね(笑)あとは、レイアウトの変更などが気軽に行えるというところが、些細なことのようですが作業の中でのストレスがなくなってとてもいいです。
大形:フェーダーが、S5 FusionやPro Tools | S3と比べても滑らかでいいです。ぼくのようなアナログ世代にはエンコーダーも便利ですね。プラグインの操作が直感的にできる。若い人だと、数字で入力しちゃうという人もいるんですけど(笑)、ナレ録りの時などすぐに反応しなきゃいけない時にはエンコーダーが便利です。
川崎:頻繁に使うわけではないんですが、思いつきで手が伸びるところに物理的なスイッチがあるというのは大きいですね。
R:『MA-405』はステレオメインのお部屋ですが、更新にあたってDolby Atmosなどのイマーシブへの対応などは話にあがりましたでしょうか。
川崎:やっぱり話には出ましたね。ただ、今回のS4が大型サーフェスの初めての導入ということもあってシンプルなシステムでいきたいということと、できるだけ稼働を止める期間を短くしたいというのもあって、今回はそちらを優先することになりました。
大形:イマーシブ自体は社内で常に議題にあがります。私たちとしても、そうした先進的な技術にチャレンジしていきたいという思いもあります。タイミングを見計らって、天井高やその他の要素も含めて万全の準備をした上で、ぜひ取り組みたいですね。
📷 建物内の各アナブースとスタジオはDanteで繋がっている。ふたつ以上のアナブースを跨いだ掛け合い収録なども可能だ。
今回取材した『MA-405』は同社の旗艦MAスタジオということもあり、Avid S4だけでなく、その他の機器も「誰が使っても使いやすいように」「外部のミキサーにもわかりやすいように」という配慮が細部に至るまでなされていることが非常に印象的だった。放送業界に深く根ざし、質実剛健でありながらも最新のテクノロジーを積極的に取り入れていこうという若々しい意欲に溢れた同社の
今後の動向に要注目だ。
*ProceedMagazine2022号より転載
Education
2022/08/09
専門学校ESPエンタテインメント大阪様 〜アナログ・コンソールはオーディオの基礎基本を体現する〜
以前にも一度、本誌で取り上げさせていただいた専門学校ESPエンタテインメント大阪。前回は2年次に使用する実習室へのAvid S6導入事例であったが、今回は1年次の実習で使われている実習室にて行われたSSL AWS924導入の様子をレポートしたい。
デジタルとアナログ、両方のコンソールでのカリキュラム
専門学校ESPエンタテイメント大阪は、大阪駅の北側、周りには楽器店なども多い御堂筋線 中津駅至近にある。地上11階建ての本館と地上5階建ての1号館を有しており、音楽アーティスト科や声優芸能科、そして今回AWSを導入された音楽芸能スタッフ科が設けられている。その音楽芸能スタッフ科には2つのコースがあり、PA&レコーディング、レコーディング&MAという2つのコースが設置されている。この2つのコースはともに1年次に今回AWS924が導入された録音実習室を使い、楽器を一つ一つレコーディング、オーバーダブし、1年掛けて1つの楽曲を録音するという授業を行っているとのこと。それぞれの楽器の特性、特徴、マイキングなどをしっかりと実践をもって学べるカリキュラムだということだ。
今回導入されたAWS924はAWS900からのリプレイスとなる。ご存知のようにAWS900の後継機がAWS924であり、これまでの実績や学内に積み重ねられたノウハウも継承できる選択となった。この決定にあたっては、福岡校への導入実績があるNEVE Genesys Blackなど他のアナログコンソールも候補には挙がったそうだが、そんな中でも従来を踏襲したと言えるSSL AWS924が選択されたのには理由がある。
ミキシング・コンソールを1から学ばなければならない1年次に、シグナルの流れやプロセスなどが具体的にわかりやすいアナログコンソールで学ぶということは、生徒にとっても、教える側にとってもメリットが大きい。そして大阪校には実習室が2室あり、もう一つの部屋はすでにAvid S6というDAWを中核としたコンソールが導入されている。そこで、複雑なデジタルでのルーティングなどは2年次にもう一つのAvid S6で学ぶこととし、1年次はアナログコンソールでの授業を行うこととする。そう考えると、従来の機種をキャリーオーバーするような選択であることの方がメリットが大きかったということだ。もちろんデジタルとアナログ、両方のコンソールに触れられるということもメリットとなる。
📷 今回新たに導入されたAWS924は特注デスクに収められている。このデスクはこれまでのAWS900時代からの流用でありながらも、新たに仕上げたかのようなピッタリの収まりである。
写真で見てとれるように今回の更新でリプレイスされたのはSSL AWS924の本体のみとなり、それ以外は更新されていないのだが、引き継がれたデスクはまるでAWS924専用に用意されたかのようにフィットしている。AWS900、AWS924ともにカタログ上のサイズは同じだが、以前のAWS900よりもピッタリとデスク内に収まったと、驚かれていた。ドラムのマルチマイクでの収録にも対応する24chのコンソールは、授業内容にもまさにジャストフィットしているということだ。1年次の実習ということもあってなかなかそこまで使うことはないようだが、AWS924に更新したことでミキシング・コンソール側でのオートメーションも使えるようになった。DAW内でのオートメーションが当たり前だからこそ、このような機能が使えるアナログコンソールに触れる機会は価値があることではないだろうか。
📷 デスクの左には、マイクプリTUBE-TECH MP1A、VINTECH AUDIO DUAL72、そしてオーディオパッチが収まっている。右側にはDBX 160A、Universal Audio 1176LN、Drawmer 1960、NEVE 33609が収まる。専門学校らしく定番と呼ばれる機器が取り揃えられている形だ。
新たなるニューノーマルな傾向?
コロナ禍で実施にも配慮が必要となっている実習授業についてだが、コンサート系コースなどは実際のコンサート・イベントにキャンセルが続いて難しい局面があったものの、音楽芸能スタッフ科ではオンラインでできる授業はそちらにシフトし、実習でしか教えることができない内容のものはこの2年間も学校内で行ったということだ。なお、この部屋を使う2つのコース、PA&レコーディング、レコーディング&MAは、例年であればPA&レコーディングコースのほうが入学者数が多いそうだが、今年の新入生から初めて入学者数が逆転し、MAコースの人数が多くなったということ。これは入学してくる生徒がコンサート、ライブを体験することがほとんどなかったからではないか?ということだ。実際にコンサートに行き、そのスタッフに憧れる。そういった体験がなかなか叶わない一方で、MA映像付きの音響を画面越しに体験をすることでMAに興味を持つ。これも新たなるニューノーマルな傾向なのか興味深いところだ。
また、YouTubeなど配信のサウンド、音響効果に興味を持って入学していくる生徒は年々増加しているという。ここでしっかりとした教育を受けた若者たちが、新たなステージでエンタテイメントの形を作っていく。MAといえばテレビ業界という考え方は、もはやステレオタイプなのかもしれない。そんな未来を感じさせられた。
📷 以前に本誌でも取り上げた 2 年次の実習で使われている Avid S6 を導入したスタジオ。現場での導入実績の高いAvid S6を使っての実習は即戦力育成に直結する。フルアナログの実習室と合わせて、幅広いシステム構成のスタジオでの実習を行うことができる環境が整えられている。
まさに順当とも言える後継機種への更新。改めてあえて変えないことの意味、アナログの大切さ、そういったことを考えさせられた。カルチャー、エンターテイメントは日進月歩で進化を続けている。しかし学びの環境の中での一歩目には、オーディオの基礎基本を体現するアナログ・コンソールがある。やはりこれは大きな価値のあることなのではないだろうか。
専門学校ESPエンタテイメント大阪
音楽芸能スタッフ科 松井 英己先生
*ProceedMagazine2022号より転載
Music
2022/08/02
360 Reality Audio + 360 WalkMix Creator™ 〜全天球4πの世界をオブジェクトベースで描く〜
世界中で始まった実際の配信サービスインから早くも2年が経過、国内でのサービスインからも1年が経過した360 Reality Audioの世界。そしてその制作ツールとなる360 WalkMix Creator™がついに国内で販売開始される。その拡がりもついに第2段階へと突入した360 Reality Audio、360 WalkMix Creator™で実現する新機能のご紹介とともに、360 Reality Audioの現在地をご案内していく。
Chapter 1:360 Reality Audioを構築する
●全天球4πを実現する360 Reality Audio
本誌でも、その詳細を伝え続けているソニー 360 Reality Audio。完全な4π空間へのフルオブジェクト配置による立体音響フォーマットとして、その魅力は高いものであることはすでにおわかりではないだろうか。先行してスタートしているDolby Atmos、Auro 3Dは、ご存知のように「映画」をそのベーシックとして登場している。そのため、これまでの5.1chサラウンドを踏襲し、それを発展させる形で立体音響を実現している。これは、既存設備、映画館、劇場との互換性という観点から重要なポイントであり必要不可欠な要素だった。しかしソニー 360 Reality Audioは、映像とは切り離して考えられ、音楽を楽しむためのフォーマットとして登場している。そのため、これまでの立体音響が辿ってきた経緯とは関係ないところで、理想の音楽を入れるための器として誕生している。北半球とも呼ばれる上半分の2πだけのフォーマットではなく、下方向も含めた全天球4πを実現し、チャンネルベースを廃棄した完全なるオブジェクトベースのフォーマットだ。
Dolby Atmosなど他の立体音響フォーマットとの最大の違い、それは南半球があるということである。南半球に音を配置して効果はあるのか?下方向からの音、それに意味はあるのか?これは、今後様々な音源がリリースされ、その効果の程やクリエイターの考え、感覚により活用が行われていくものだろう。リフレクションを加えることで床を作る、低音楽器を下方向から鳴らすことで重心を下げる、様々なアイデアがありそうだが、まずは表現できる空間が単純に倍になったということは、歓迎すべき素晴らしいことではないだろうか。北半球のみの2π srに対し、全天球4π srは単純に倍の表面積であり、その表現できる範囲も倍であるということだ。これをどのように使いこなすのかという議論はまさにこれから行われていくこととなるだろう。
今までのステレオをヘッドホンで再生すると、頭の中に定位する「頭内定位」となる。言い換えれば右耳から左耳の間に音があるように感じるということだ。これをソニー 360 Reality Audioではヘッドホンで聴いているが、擬似的に頭の周りから音が鳴っているような感覚「頭外定位」を実現している。スピーカーで視聴するための準備が様々に進んできてはいるが、その体験を行う一番簡単な方法はやはりヘッドホンでの再生となる。いま音楽を楽しむ方法として一番シェアの高いヘッドホン/イヤホンでの視聴、それをターゲットにした音楽の体験、それがソニー 360 Reality Audioだ。
●チャンネルベースからの脱却、スピーカー配置の自由
チャンネルベースからの脱却というのも、360 Reality Audioの先進性の現れであると言えよう。冒頭でも述べたように、既存フォーマットとの下位互換性を考えることなく、純粋に次のステップへと歩みを進めた360 Reality Audio。これにより手に入れたのは、スピーカー配置の自由ということになる。クリエーター向け360 Reality Audio HPには、推奨環境としてこのようなスピーカー配置がのぞましいということが明記されている。ただ、これはあくまでもスピーカー配置の一例であり、その全てではない。360 Reality Audioの動作原理から言えば、スピーカーの配置位置、本数、そういった制約は無い。ただし、その音源の再現のために最低限これくらいの本数があったほうが確認を行いやすいという。また、360 WalkMix Creator™での制作時ではスピーカーの出力数を選択し、そのプリセットで選択された本数で再生を行うこととなる。
このスピーカーの配置の自由というのは、これから立体音響に向けてスタジオへスピーカーを増設しようとお考えの方には重要なポイントだろう。水平方向、天井は工夫によりなんとかなるケースが多いが、下方向に関しては、前方に3本(L,C,Rchの位置俯角-30度)設置が推奨されている。一般的に下方向のスピーカー設置となると、それらを遮るようにコンソールや作業用のデスクがあることが多いわけだが、これを左右90度の位置に俯角-30度で設置であれば、実際にレイアウトすることもかなり現実味があるのではないだろうか。
チャンネルベースのソースを持たない360 Reality Audioはフルオブジェクトであるため、スピーカーに対してのレンダリングアウトは自由である。そこにスピーカーがあるとわかるようなスピーカープリセットがあれば良いということになる。なお、スピーカー配置は自由だと書かせていただいたが一つだけ制約があり、それぞれのスピーカーは等距離に設置されている必要がある。ただし、これに関してはDelay調整により距離を仮想化することである程度解消できるものである。
●Dolby Atmos、360 Reality Audioコンパチブル
自由と言われると、実際どうして良いのか混乱を招く部分もあるかもしれない。360 Reality Audioに対応したスタジオのスピーカーアレンジの一例をご紹介するとなると、Dolby Atmosとの互換性を確保したシステムアップというのが一つの具体的な事例になる。
360 Reality Audioは前述の通り、スピーカー配置に関しては自由である。ということは、Dolby Atmosに準拠したスピーカーレイアウトを構築した上で、そこに不足する要素を追加すればよいということになる。具体的には、Dolby Atmosには無い南半球、下方向のスピーカーを増設すればよいということだ。360 Reality Audioの推奨としては、前方L,C,R(30度,0度,-30度)の位置に俯角-30度で設置となっているため、この3本を追加することでDolby Atmosと360 Reality Audioに対応したスタジオを構築できる。以前のスタジオ導入事例でご紹介したソニーPCLのスタジオがまさにこの方法での対応となっている。
📷デスクの前方にはスクリーンが張られており、L,C,Rのスピーカーはこのスクリーンの裏側に設置されている。スクリーンの足元にはボトムの3本のスピーカーが設置されているのがわかる。リスニングポイントに対して机と干渉しないギリギリの高さと角度での設置となっている。
前方下方の設置が難しい場合には、左右下方で対応することも一案である。下方、俯角のついた位置への設置は360 Reality Audioの音像をスピーカーで確認する際には必須の要素である。少なくとも左右へ2本がないと、パンニングの再現があまりにも大雑把になってしまうため、最低2本以上の設置と考えていただきたい。ただ、その設置に関しては前方L,R30度の位置が必須ということではない。この位置がなぜ推奨位置なのかは、後述するエンコードの解説を読んでいただければご理解いただけるだろう。スピーカー配置の自由、という360 Reality Audioの持つ美点は、これから先の進化の中で本当の意味で発揮されるものだからだ。
Chapter 2:BrandNew!! 360 WalkMix Creator™
●エンコーダーを手に入れファイナルデータまで生成
360 Reatily Audio Creative Suiteとして登場した360 Reality Audioの制作ツールが、2022年2月に360 WalkMix Creator™へと名称を変更し、それと同時に大きな機能追加が行われた。360 Reatily Audio Creative Suite時代に作成できる最終のデータは、360 Reality Audioの配信用データであるMPEG-H 3D Audioに準拠した360 Reality Audio Music Formatではなかった。この360 Reality Audio Music Formatへの最終のエンコード作業は、別のアプリケーションで実施する必要があった。360 WalkMix Creator™では、ついに悲願とも言えるこのエンコード機能を手に入れ、360 WalkMix Creator™単体でのファイナルデータ生成までが行えるようになった。テキストで表現すると非常にシンプルではあるが、実作業上は大きな更新である。
これに続く、最後の1ピースはその360 Reality Audio Music Formatデータの再生用のアプリケーションだ。360 WalkMix Creator™の登場で、最終データを生成することはできるようになった。そのデータを確認するためにはArtist ConnectionにアップロードしてArtist Connectionのスマートフォンアプリで360 Reality Audioとして再生ができる。
📸 360 Reatily Audio制作のワークフローはこのような形になっている。パンニングの部分を360 WalkMix Creator™で行うということ以外は、従来のミキシングの手法と大きな違いはない。編集、プラグイン処理などは従来通り。その後の音を混ぜるというミキサーエンジン部分の機能を360 WalkMix Creator™が行うこととなる。ミキシングされたものはエンコードされ、配信用の音源として書き出される。リスナーが実際に視聴する際のバイノーラル処理は、リスナーの使用するプレイヤー側で行うこととなる。
●エンコードでサウンドの純度をどう保つか
では、改めて360 Reality Audioの配信マスターであるMPEG-H 3D Audioに準拠した360 Reality Audio Music Formatへのエンコードについて説明していきたい。360 WalkMix Creator™で扱うことができるオブジェクト数は最大128個である。エンコードにあたっては、10~24オブジェクトにプリレンダリングして圧縮を行うことになる。せっかく作ったオブジェクトをまとめるということに抵抗があるのも事実だが、配信という限られた帯域を使ってのサービスで使用されるということを考えると欠かすことができない必要な工程である。360 WalkMix Creator™では多くの調整項目を持ち、かなり細かくそのチューニングを行うことができる。マスターデータは非圧縮のまま手元に残すことはできるので、いつの日か非圧縮のピュアなサウンドを360 Reatily Audioのエンドユーザーへ提供できる日が来るまで大切に保管しておいてもらいたい。
360 Reality Audio Music Formatへのエンコードを行うにあたり10~24オブジェクトへプリレンダリングして圧縮を行うということだが、その部分を更に詳しく説明していこう。実際には、配信事業者の持つ帯域幅に合わせて4つのレベルでのエンコードを行うこととなる。プリレンダリングはStatic ObjectとDynamic Objectの設定をすることで実行できる。Static Objectはその言葉の通り、固定されたオブジェクトである。この際に選択できるStatic Object Configurationは複数種類が用意されており、ミキシングにおけるパンニングの配置に合わせて最適なものを選択することができるようになっている。デフォルトでは、4.4.2 Static Objectで10オブジェクトを使用し、各Levelの最大オブジェクト数まではDynamic Objectに設定できる。Dynamic Objectはそのトラックを単独のObjectとして書き出すことで、360 WalkMix Creator™上でミキシングしたデータそのままとなり、Static Objectは360 WalkMix Creator™にプリセットされている様々なStatic Object Configurationに合わせてレンダリングアウトが書き出される。
📸 エンコードの際には、こちらの画面のように6種類のデータが書き出される。Level 0.5~3までは本文で解説をしているのでそちらをご参照いただきたい。それ以外の項目となるプリレンダリングは360 Reality Audio Music Formatへエンコードする直前の.wavのデータ、要は非圧縮状態で書き出されたものとなる。選択スピーカー別出力は、モニターするために選択しているスピーカーフォーマットに合わせた.wavファイルの書き出し。例えば、5.5.3のスピーカー配置で視聴しているのであれば、13chの.wavファイルとして各スピーカーに合わせてレンダリングされたものが出力される。
Static Object Configurationのプリセットはかなりの種類が用意されている。前方へ集中的に音を集めているのであれば5.3.2、空間全体に音を配置しているのであれば4.4.2、推奨の制作スピーカーセットを再現するのであれば5.5.3など実音源が多い部分にStatic Object が来るように選択する。いたずらにオブジェクト数の多いものを選択するとDynamic Objectに割り振ることができるオブジェクト数を減らしてしまうので、ここはまさにトレードオフの関係性である。もちろん、オブジェクト数の多いStatic Objectのプリセットを選択することで空間の再現性は向上する。しかし、単独オブジェクトとして存在感高く再生が可能なDynamic Object数が減ってしまうということになる。基本的に音圧の高い、重要なトラックをDynamic Objectとして書き出すことが推奨されている。具体的には、ボーカルなどのメロディーがそれにあたる。それ以外にも特徴的なパンニングオートメーションが書かれているトラックなどもDynamic Objectにすることで効果がより良く残せる。Static Objectに落とし込まずに単独のトラックのままで存在することができるためにそのサウンドの純度が保たれることとなる。
ミキシングをおこなったトラックごとにStaticとするのか、Dynamicとするのかを選択することができる。このStatic/Dynamicの選択、そしてStatic Object Configurationのプリセットの選択が、エンコード作業の肝となる。この選択により出来上がった360 Reality Audio Music Formatのデータはかなり変化する。いかに360 WalkMix Creator™でミックスしたニュアンスを余すことなくエンコードするか、なににフォーカスをするのか、空間をどのように残すのか。まさに制作意図を反映するための判断が必要な部分となる。
●Static Object Configuration設定一覧
これら掲載した画面が360 WalkMix Creator™で選択できるStatic Object Configurationのプリセット一覧となる。プリセットされたレンダリングアウトの位置は、できる限り共通化されていることもこのように一覧すれば見て取ることができるだろう。基本はITU準拠の5.1ch配置からの拡張であり、Dolby Atmosを意識したような配置、AURO 3Dを意識したような配置もあることがわかる。5chサラウンドの拡張の系統とは別に、開き角45度のグループもあり、スピーカー間が90度で等間隔になる最低限の本数で最大の効果が得られるような配置のものも用意されている。
下方向をどれくらい使っているのか?上空は?そういった観点から適切なプリセットを選ぶことで再現性を担保し、重要なトラックに関してはDynamic Objectとして独立させる。Static Objectを多くすればその分全体の再現性は上がるが、使えるDynamic Objectのオブジェクト数が減ってしまう。これは難しい判断を強いられる部分ではあるが、トレードオフの関係となるためあらかじめ念頭に置いておくべきだろう。この仕組みを理解して作業にあたることで、よりよい状態の信号を360 Reality Audio Music Formatファイルで書き出すことが可能となる。
Chapter 3:360 Reality Audioの現在地
Dolby Atmosとの互換性
昨年の空間オーディオのサービスインから、注目を集めているDolby Atmos Music。そのフォーマットで制作した音源と360 Reality Audioの互換性は?やはりイチから作り直さなければならないのか?制作者にとって大きなハードルになっているのではないだろうか。フォーマットが増えたことにより作業量が倍増してしまうのでは、なかなか現場としては受け入れがたいものがあるのも事実。実際のところとしては、Dolby Atmosで制作した音源をRenderingしたWAVファイルを360 WalkMix Creator™でそのチャンネルベースの位置に配置することで再現することが可能である。その際にできる限り多くのスピーカーを使用したWAVをDolby Atmos Redererから書き出すことでその再現性を高めることも可能だ。なお、逆パターンの360 Reality AudioからDolby Atmosの場合には、南半球の取り扱いがあるためそのままというわけにはいかない。どうしても行き先のないトラックが出てきてしまうためである。
📸 360 WalkMix Creator™上でDolby Atmosを展開する一例がこちら。Dolby Atmosから7.1.4のレンダリングアウトを.wavで出力し、360 WalkMix Creator™内に配置したしたという想定だ。さらにチャンネル数を増やすことも可能(Atmos Rendererの最大レンダリング出力は11.1.10)だが、今回はわかりやすくベーシックなものとしている。ここでの問題はLFE chだ。 360 Reatily AudioにはLFEが存在しないため、少し下方向から再生することで効果的に使用することができるのではないか。LFEに関しては特に決まりはないため耳で聴いてちょうどよいバランスに合わせる必要がある。
Dolby Atmos Redererからは、最大11.1.10chの書き出しが可能である。360 Reality AudioにはLFE chが用意されていないため、ここの互換性に注意すれば、南半球は無いがかなり高いレベルでの互換を取れた状態が確保されていると言えるだろう。360 WalkMix Creator™に11.10.0というStatic Objectのプリセットがあれば完璧なのだが、次のアップデートでの実装に期待したいところである。また、Rendering Outを行う際にVocalなどDynamic Objectにアサインしたいものだけを省いておくことでDynamic Objectも活用することができる。もちろん、ワンボタンでという手軽さではないが、イチからミックスをやり直すことなく同等の互換性を確保することが可能なところまできている。
日進月歩の進化を見せる360 Reality Audioの制作環境。制作のための全てのコンポーネントがもうじき出揃うはずである。そして、制作物をユーザーへデリバリーする方法も整ってきている。双璧をなすDolby Atmosとの互換性など制作のノウハウ、実績も日々積み上げられていっているところだ。まさにイマーシブ・オーディオ制作は第2フェーズへと歩みを進めている。ぜひともこの新しい世界へと挑戦してもらいたい。
360 WalkMix Creator™ ¥64,900(税込)
ソニー 360 Reality Audioを制作するためのツールがこの「360 WalkMix Creator™」。AAXはもちろん、VST / AUにも対応しているため、ホストDAWを選ばずに360 Reality Audioのミキシングを行うことができる。
製品購入ページ(RockoN eStore)
製品紹介ページ
クリエーター向け 360 Reality Audio HP
*ProceedMagazine2022号より転載
https://pro.miroc.co.jp/headline/comparison-of-atmos-360ra/
Media
2022/07/14
Avid Media Composer ver.2022.7リリース情報
日本時間 2022年7月8日未明、Avid Media Composer バージョン2022.7がリリースされました。有効なサブスクリプション・ライセンスおよび年間プラン付永続ライセンス・ユーザーは、MyAvidよりダウンロードして使用することが可能です。
Avid Media Composer 2022.7は主に機能改善を目的としてリリースされたバージョンです。
修正されたバグについては、Avid Download Centerから入手可能です。
では、Media Composer 2022.7の新機能について見ていきましょう。
Media Composer 2022.7の新機能
1. グループまたはマルチグループのサブクリップに対するマッチフレームの改善
グループまたはマルチグループクリップのサブクリップからマッチフレームをすると、以前のバージョンでは、元のグループクリップまたはマルチグループクリップがロードされていましたが、このバージョンからはサブクリップがロードされるようになりました。
2. 複数のディスプレイ構成に対応するカスタムワークスペースの追加
使用するディスプレイ数が異なる場合でも、様々なワークスペースを作成し、保存することができます。つまりMedia Composerは接続している複数のディスプレイ数に基づいてウィンドウやツールの位置を記憶することができるようになりました。
現在のディスプレイ構成と一致しないワークスペースに切り替えると、」「New monitor configuration」ウィンドウで、「Your workspaces were set up for a different number of monitors. Now that the number of monitors has changed, would you like to duplicate workspaces for the new configuration?」と表示されます。
「Yes」をクリックすると、新しいモディスプレイ構成に一致する既存のワークスペースが複製されます。「No」を選択すると、モニタ設定に一致しない状態で、現在のワークスペースのままになります。この場合、ウィンドウが正しく見えなくなることもあります。
3. Adobe PremireとDaVinci Resolveの新しいキーボードマッピングオプション
Media Composerの最新バージョンには、Adobe PremireとDaVinci Resolveのキーボードマッピングがデフォルトの設定として追加されます。
新しいキーボード設定がUser設定で見えない場合には、設定ファイルのユーザー設定からユーザー設定の更新をしてください。
4. Titler+のアンカーポイントでのテキスト揃え
Titler +でテキストの位置揃えを変更すると、アンカーポイントの位置を基準にしてテキストレイヤーがシフトするようになりました。
たとえば、テキストの位置揃えを「左揃え」に設定すると、アンカーポイントはレイヤーの左に配置されます(境界ボックスで示されます)。 位置揃え(左、中央、右)を切り替えると、テキストはそれに応じてこの同じアンカーポイントを中心にシフトします。
5. タイムラインメニューに「セグメントツールにフィラーを選択」が追加
「セグメントツールでフィラーを選択」オプションは、通常、タイムライン設定ウィンドウからアクセスできましたが、タイムラインメニューからもアクセスできるようになり、キーボードショートカットとしてマッピングできるようになりました。
6. ネストされたクリップのタイムラインクリップノートの表示
一番上のクリップにタイムラインクリップノートが含まれていないが、その下にネストされたセグメントにノードが含まれている場合、そのノートは一番上のセグメントにも表示されます。
7. デザイン性を向上させた新しい On/Off アイコン
このリリースでは、プロパティのオンとオフを切り替えるために使用される「enabler」が、より一貫したサイズと新しい見た目になりました。これより、より使いやすいインターフェース、そしてオンとオフとが把握し易くなりました。
Media Composerのご購入のご相談、ご質問などはcontactボタンからお気軽にお問い合わせください。
Music
2022/05/20
Dolby Atmos Music Panner アップデート情報
このページではDolby Atmos Music Pannerに関する新着情報をお知らせします。
Dolby Atmos Music Pannerとは?
Dolby Atmos Music Pannerプラグインは、Dolby Atmos Rendererに接続されたMac上のDAWで使用し、Dolby Atmos Music ミックス内のオーディオオブジェクトを配置することができます。
ミュージック・パンナーを使ったこの組み合わせでは、3次元のオーディオ空間にオーディオ・オブジェクトを配置することができます。
また、パンナーには、オブジェクトの配置を、DAWのテンポに同期させて動かせるシーケンサーが搭載されています。
Dolby Atmos Music Pannerのインストーラーには、AAX、AU、VST3バージョンが含まれています。
配布先URL:
https://customer.dolby.com/content-creation-and-delivery/dolby-atmos-music-panner-v120
※DLにはcustomer.dolby.comへの登録&ログインが必要です。
システム要件
Dolby Atmos Music Pannerを使用するには、Dolby Atmos Renderer v3.7.1以降が動作するDolby Atmos Production SuiteまたはMastering Suiteが必要です。
対応DAW
・Ableton Live 11.1
・Apple Logic Pro X 10.6.3
・Avid Pro Tools Ultimate 2021.12
・Steinberg Nuendo 11.0.41.448
※macOS Mojave上で動作するNuendoでの使用はサポートされていません。
Dolby Atmos Music Panner V1.2.0 (2022.3.28 更新)
オートメーション書き込みコントロール(Pro Toolsのみ)
Pro Tools 2021.12以降とDolby Atmos Music Panner v1.2(AAXバージョン)では、パンナー・オートメーションをPro Toolsオートメーション・レーンに書き込み、Dolby Atmos Music PannerオートメーションをPro Toolsパン・オートメーションに変換し、Pro ToolsからADM BWF .wav マスターとしてセッションを書き出すときにそのオートメーションのメタデータを含めることができます。
シーケンサのステップを遅くする
x16スイッチを使えば、現在のステップの長さを16倍遅くすることができます。
ステレオオブジェクトのリンク解除
Dolby Atmos Music Pannerステレオプラグインは、ステレオオブジェクトのリンクとアンリンクに対応しています。オブジェクトのリンクが解除されると、左右のチャンネルのX、Y、Z、Sizeを別々に調整することができるようになります。
X/Y/Z、Sizeのロータリーコントロールとポジションディスプレイのオブジェクトアサインラベル表示
X、Y、Z、Sizeのロータリーコントロールとポジションディスプレイには、オブジェクトの割り当てを示すラベルが表示されるようになりました。
Dolby Atmos制作に関するお問い合わせ、モニタリングシステム導入のご相談はこちらのコンタクトフォームからご送信ください。
https://pro.miroc.co.jp/headline/pick-up-pro-tools-studio/
https://pro.miroc.co.jp/headline/protools-lineup-renewal/#.YocNAfPP0-Q
https://pro.miroc.co.jp/headline/dolby-atmos-info-2022/
https://pro.miroc.co.jp/headline/dolby-atmos-renderer-v3-7-2/
https://pro.miroc.co.jp/headline/we-want-more-atmos-proceed2021-22/
Broadcast
2022/02/18
株式会社CBCテレビ様 / 〜革新が従来の文化、ワークフロー、使い勝手と共存する〜
日本初の民間放送局として長い歴史を持つ株式会社CBCテレビ。1951年にわが国初の民間放送としてラジオ放送を開始し、1956年からはテレビ放送をスタートさせている。そのテレビ放送スタートとともに竣工し、幾多に渡る歴史の息吹を現代につなげているCBC会館(通称:本館)のリニューアルに伴い、館内にあるMAスタジオ改装工事のお手伝いをさせていただいた。
完全ファイルベース+イマーシブ対応
数多くの独自番組制作、全国ネット番組を抱えフル稼働を続けるCBCの制作セクション。3年前には新館に第3MA室を開設、同時に仕込み作業用のオープンMAを8ブース、さらにファイルベースワークフローを見越した共有サーバーの導入と、制作環境において大きな変革を行った。その当時は、本館を建て替えるのか?リニューアルするのか?という議論の決着がついていない時期であり、本館にある第1MA、第2MAに関しては最低限の更新にとどめていた。今回は、リニューアルの決まった本館で、将来に渡り第1MA、第2MAを活用すべく大規模なシステムの入れ替えが実施された。
📷 第1MA室
📷 第2MA室
📷 第3MA室
まずは、非常に大きな更新内容となった第1MAを見ていきたい。もともと、このスタジオにあったメインコンソールはSTUDER VISTA 7であったが、今回の更新ではミキサーをなくし、完全なファイルベースのシステムアップとするとともに、将来を見越したイマーシブ・オーディオの制作環境を導入した。基本のシステムは、前回の第3MA開設時と同等のシステムとし、実作業を行うスタッフの習熟への負荷を最低限としている。そこに、イマーシブ制作のためのシステムを加えていく、というのが基本路線である。
第3MAでの基本システムは、Avid Pro Tools HDXシステムとAvid MTRXの組み合わせ。すでに業界標準といっても良いこれらの製品にコントローラーとしてAvid S3を組み合わせている。モニターコントローラーとしてはTAC system VMC-102が採用されているが、スタンドアローンでのシステム運用を考えた際には、やはりこのVMC-102は外せない。Avid MTRXも、多機能なモニターコントロールを実現しているが、PC上でDADmanアプリケーションが起動していないと動作をしないという制約がある。この制約のために、他の事例ではDADmanを起動するためだけに電源を落とさずに運用するPCを1台加えたりといった工夫を行っているのが現状だ。VMC-102の場合、これが起動さえしていればモニターセクションは生きる。これはPCレスでのモニターコントロールができるという価値ある違いにつながっている。
第1MAも、システムの根幹となるこのAvid Pro Tools HDX、Avid MTRX、TAC system VMC-102という構成は同様だ。違いとしては、多チャンネルに対応したAD/DAとしてDirectOut Technologies PRODIGY.MCの採用、そして、イマーシブ・サウンド作りの心臓部としてDolby RMUが加わったということだ。モニターセクションのVMC-102は、Dolby Atmosのモニターコントロールも問題なくこなすことができる製品である。実際にシステムを組もうとすると直面する多チャンネルスピーカーの一括制御。これに対応できる数少ない製品の一つでもある。
📷 第1MAのデスク上はシンプルに纏められている。センターにAvid S3、PC Displayの裏にはVU計がある。右手側にはVMC-102があり、その奥には収録時のフェーダーとしても活用されるSSL SiXがある。SiXの1-2chにMic Preが接続され、InsertにTUBE-TECH LCA2Bがスタンバイ。ステレオフェーダーにはCDとMacProのLine Outが接続されている。
しっかりとしたイマーシブ・サウンドを制作するためにスピーカーはPSIで統一。サウンドキャラクターのばらつきを最小限に、繋がりの良いサウンドを実現している。CBCでは以前よりPSIのスピーカーを使用しており、他のスタジオとのサウンドキャラクターの統一を図ったという側面もある。作業量が一番多いステレオ作業のためのL,RchにはPSI A25-Mを導入し3-Wayの充実したサウンドでの作業を実現。サラウンドにはA17-MとA14-Mを採用している。改装での天井スピーカー設置となったためにここだけはひとサイズ小さなモデルとなるが、できる限りサイズのあるスピーカーを導入したということになる。
📷 上段)ステレオL,Rchに備えられた3WayのPSI A25-M。下段)サラウンドサイドのスピーカーとなるA14-M。特注の金具で取り付けられ、壁面を少しくぼませることでスピーカーの飛び出しを抑える工夫が見て取れる。天井のスピーカーも特注金具により角度の調整などAtmos環境に合わせた設置が可能となっている。
サウンドキャラクターに大きく影響するAD/DAコンバーター部分は、前述もしたDirectOut Technologies PRODIGY.MCを導入している。安定した評価を得ていた同社ANDIAMOの後継となるモジュール式の多機能なコンバーター。モジュール式で将来の拡張性も担保されたこのシステムは、今後の様々な展望を検討されているCBCにとってベストなチョイスとなるのではないかと感じている。IPベースでの室間回線がすぐそこまで来ている今だからこそ、どのような企画にも柔軟に対応できる製品を選択することは、導入検討におけるポイントとなるのではないだろうか。
📷 ラック上部に組み込まれたDirectOut Technologies PRODIGY.MC
イマーシブ対応のセットアップ
イマーシブ・サウンドに関してのシステムアップは、Avid MTRXとMADIで接続されるDolby RMUという構成。MADIでの接続のメリットは、Dolby Atmosの最大チャンネル数である128chをフルに使い切ることができるという点。Dante接続の構成も作ることはできるがDanteの場合には128ch目にLTCを流す関係から127chまでのチャンネル数となってしまう。フルスペックを求めるのであればMADIとなるということだ。
Windowsで構築されたDolby RMUの出力はVMC-102を通してスピーカーへと接続される。各スピーカーのレベル、ディレイ、EQの補正はAvid MTRXのSPQ moduleで行っている。すでにこれまでの事例紹介でも登場しているこのAvid MTRX SPQ moduleは、非常にパワフルな補正エンジンである。各チャンネルへのレベル、ディレイはもちろん、最大16band-EQも使えるプロセッサーモジュールである。また、Dolby RMUのバイノーラルアウトは、SSL SiXのEXT INへ接続されており、常にヘッドフォンアウトからバイノーラル出力を聴くことができるようになっている。SSL SiXへのセンドは、通常はPro Toolsのステレオアウトが接続されているが、VMC-102の制御によりRMUのバイノーラル出力とボタンひとつで切り替えられるようにしている。バイノーラルで視聴されることが多いと予想されるDolby Atmos。このようにすぐにバイノーラルアウトの確認をできるようにしておくことは効率的で重要なポイントだ。
📷 最下部には各スピーカーのレベル、ディレイ、EQの補正を行うSPQ moduleが組み込まれたAvid MTRXが見える。
放送局が蓄積したリソースをイマーシブへ
そもそも放送局にイマーシブ、Dolby Atmosは必要なのか?という問いかけもあるかもしれないが、すでに放送局ではネット配信など多角的なコンテンツの送出を始めている。YouTubeなど、ネット上の動画コンテンツは増え続け、Netflix、Huluなどのオンデマンドサービスが一般化してきているいま、放送局として電波という従来のメディアだけに固執するのではなく、新しい取り組みにチャレンジを始めるというのは自然な流れと感じる。もともと、放送局にはこれまでに積み重ねてきた多くのコンテンツ制作のノウハウ、人材、機材がすべて揃っている。数万再生でもてはやされるユーチューバーと違い、毎日数千万人のリアルタイム同時視聴者を抱えたメディアで戦ってきた実績がある。このノウハウを活かし、これからのコンテンツ制作のために様々な取り組みを行う必要がある。ネットならではの音響技術としてのイマーシブ。特に昨今大きな注目を集めているバイノーラル技術は、いち早く取り組む必要があるという考えだ。バイノーラルであれば電波にも乗せることができる。そして、ネットでの動画視聴者の多くがヘッドフォンや、イヤフォンで視聴をしていることを考えると、そのままの環境で楽しむことができる新しい技術ということも言える。
コンテンツ制作のノウハウ、技術。これまでに積み上げてきたものを発揮すれば内容的には間違いのないものが作れる。そこへ更なる魅力を与えるためにイマーシブ、バイノーラルといった最新の楽しみを加える。これがすぐにできるのは放送局が持ち得たパワーならではのことではないだろうか。技術、テクノロジーだけではなく、コンテンツの中身も伴ってはじめて魅力的なものになるということに異論はないはずだ。スポーツ中継における会場のサウンドのほか、音楽番組など様々なところでの活用が期待される。さらに言えば、その後の番組販売などの際にも付加価値が高まったコンテンツとして扱われることになるだろう。日々の業務に忙殺される中でも、このようなに新しいことへ目を向ける視野の余裕。それこそが次の時代につながるのではないかと、色々とお話を伺う中で強く感じた。
各スタジオ間にはIP伝送網が整備
他のMA室のシステムもご紹介したい。第2MAは、非常にシンプルなシステムアップだ。Avid Pro Tools HDXのシステムにAvid MTRXをI/Oとし、コントローラーにAvid S1、モニターコントローラーにはSPL MTCが採用されている。スピーカーはサウンドキャラクターを統一するためにPSI A17-Mが選ばれた。なお、第1MAの設備からはなくなっているものがある。VTRデッキを廃止し、完全なファイルベースのワークフローへと変貌を遂げている第1MA、VTRがないためにシステム自体もシンプルとなり、これまで設置されていたDigital Consol YAMAHA DM1000などがなくなり、機器類を収めていたラックも廃止されスッキリとしたレイアウトとなった。これは音響面、作業環境としても有利なことは言うまでもないだろう。
📷 第2MAのデスクは今回の更新に合わせて特注された。足元左右にラックが設けられ、左側はファンノイズが考えられる製品が納められ、蓋ができるように対策がなされている。デスク上にはAvid S1、SPL MTC、Umbrella Company Fader ControlがCDの収録用に用意されている。
3年前に更新された第3MAは、新館に新設の部屋として防音室工事からのシステム導入を行った。システムとしてはAvid Pro Tools HDX、Avid MTRX,Avid S3、TAC system VMC-102というコア・コンポーネントを用い、スピーカーにはNESが導入された。
📷 3年前に新設された第3MAがこちら。デスク上には、Avid S3、Avid Dock、VMC-102が並んでおり、第1MAとの共通部分を感じさせるセットアップとなっている。デスクは第2MAと同様に足元にラックスペースが設けられ、左側は蓋付きと同様の仕様になっている。また、I/OとしてAvid MTRXが導入されている。下段右は第3MAのブース。デスクの右にSTUDER Microが見える。これがリモートマイクプリ兼シグナルルーターとして活躍している。これにより、Open MA1,2からもこのブースを共有することができるようにセットアップされている。ブース内にも小型のラックがあり、そこにSTUDER Microの本体が収められている。
この際にポイントとなったのは、同時にシステムアップされたオープンMAと呼ばれる作業スペース。オープンMAは第3MAのすぐそばの隣り合うスペースに設置されている。高いパーテションで区切られた8つのブースにApple iMacでシステムアップが行われた。このオープンMAの2区画は、第3MAのブースを共有し、ナレーション収録ができるようにシステムが組まれ、STUDER MICROがリモートマイクプリとして導入されている。本来は、ラジオオンエア用のコンソールであるこの製品をリモートマイクプリ兼、シグナルルーターとして使っているわけだ。なお、デジタル・コンソールとなるためシグナルルーティングは自由自在である。
また、オープンMAにはAudio InterfaceとしてFocusrite RED 4 PREが導入された。これは将来のDante導入を見越した先行導入という側面もある。Native環境でもHD環境でも同一のInterfaceを使えるというのもこの製品が採用された理由の一つ。不具合時の入れ替えなどを考えると、同一機種で揃えることのメリットが大きいのは言うまでもないだろう。作業データはGBlabs FastNASで共有され、席を変わってもすぐに作業の続きが行える環境となっている。FastNASの音声データのネットワークは各サブへも接続され、音効席のPCへと接続されている。生放送枠の多いCBC、これらのシステムはフルに活用されているということだ。
📷 背の高いパーテションで区切られたこのスペースが、Open MAである。8席が準備され1,2は第3MAのブースを共有しナレーション収録に対応、ブースの様子は小型のLEDで見えるようになっている。それ以外の3~8も基本的なシステムは同等。すべてのブース共通でiMacにセカンドディスプレイが接続され、Audio I/OとしてFocusrite Red 4 Preが採用されている。この機種はDanteでの各所の接続を見越してのものである。
そして、前回の更新時に導入されたGBlabs FastNASへの接続はもちろん、本館のリニューアルに伴い各スタジオ間にはIP伝送網が整備された。このネットワークには、Danteが流れる予定である。取材時には事前工事までではあったが、各スタジオにはDanteの機器が導入され始めているとのこと。本館内の第7スタジオは今回のリニューアルでDanteをバックボーンとするSSL System-Tが導入されたということだ。そのままでも運用は可能だが、各スタジオにDante機器が多数導入され始めると回線の切り替えなどが煩雑になってしまう。それを回避するためにDante Domein Manager=DDMによるセットアップが行われるわけだが、このDDMは各スタジオをドメイン分けして個別に管理し、相互に接続を可能とする回線を絞ることができる。これは室間の回線を設定しておくことにより運用を行いやすくすることにつながっている。
もちろん、他の部屋のパッチを他所から設定変更してしまうといった事故防止にもなる。データの共有だけではなく、回線もIPで共有することによる運用の柔軟性が考えられているということになる。生放送を行っているスタジオの回線を他のスタジオで受け取ることもできるため、実際のオンエアの音声を他のスタジオで受けて、トレーニングのためのミックスを行うなど、これまでではなかなかできなかった運用が実際にテストケースも兼ねて行われているということだ。今後は、中継の受けやスタジオをまたいでのオンエアなど、様々な活用が期待されるシステムアップとなっている。これはサブだけではなくMA室も加わっているために、運用の柔軟性はかなり高いものとなる。
伝統ある放送局の文化にこれから先の放送局のあり方を重ね合わせた、これが現実のものとなっているのが今回のケースではないだろうか。バイノーラルを使ったコンテンツの新しい楽しみ方の提供。ファイルベースだけではなく、放送局の強みでもあるリアルタイムでの制作環境の強化、柔軟性の獲得。さまざまな新しい取り組みが従来のワークフロー、使い勝手と共存している。今後の放送局のシステムのあり方の一つの形がここに完成したのではないだろうか。
📷 株式会社CBCテレビ 技術局 放送技術部 名畑輝彦 氏
*ProceedMagazine2021-22号より転載
Music
2022/02/10
山麓丸スタジオ様 / 〜日本初、360 Reality Audioに特化したプロダクションスタジオ〜
360度全周(4π)に音を配置できるSONY の360 Reality Audio。その制作に特化したスタジオとして作られたのが株式会社ラダ・プロダクションによって設立されたこちらの山麓丸スタジオだ。国内ではソニー・ミュージックスタジオ、ソニーPCLスタジオに続いて3スタジオ目、「360 Reality Audio」専用スタジオとしては初となるという。今回はこちらのスタジオのPro Toolsシステム周りについて導入をさせていただいた。360 Reality Audio制作にはどのようなシステムが必要なのか。制作ワークフローを含め貴重なお話を伺った。
360 Reality Audio作品の専用スタジオを
株式会社ラダ・プロダクション様はCM音楽制作をメインに手がけている音楽制作会社だ。CM以外にも音に関わる企画やプロデュースなど様々な事業をされている会社なのだが、展示や開発系に関わる仕事も増えていく中でソニーと出会ったという。その後、ソニーが開発した波面合成アルゴリズムであるSonic Surf VRのスピーカー開発にも関わり、その時から立体音響に深く関わっていくことになったそうだ。その後、CES 2019で「360 Reality Audio」が発表され、その後ソニーと連携しつつ360 Reality Audio作品制作を手がけるような形になり、スタジオを作るまでに至ったということだ。現在では過去の楽曲の360RA化というものを多く進めているそうだ。広告の仕事を数多く行っているラダ・プロダクションでは展示での立体音響など、360 Reality Audioにとどまらない立体音響の提案を多くしているというお話も伺えた。
全15台のスピーカーをマネジメント
📷 スタジオ正面全景からは、Avid S1やAvid MTRXをコントロールするMOM Baseなど、操作系デバイスをスタンド設置にしてサイドに置き、リスニング環境との干渉へ配慮していることが見て取れる。ラック左列にはAvid MTRX / MTRX Studio、FerroFish / Pulse 16DXが収められ、右列にはヴィンテージアウトボードの数々がまとめられている。
360 Reality Audio制作に使用される360RACS(Reality Audio Creative Suite) 通称:ラックスはDAW上で立ち上げて使用するプラグインだ。ミックスをしているProTools 上で360RACSをインサートして使用することになるのだが、やはりトラック数が多くなったりプラグイン負荷が多くなると1台のマシン内で処理することが厳しくなるかもしれない。そこで、山麓丸スタジオでは大規模なセッションを見越してPro Toolsのミキシングマシン、360RACSを立ち上げるマシンを分けて制作することも想定したシステムアップとなっている。最大で128chのやりとりが必要となるため、Pro ToolsミキシングマシンはHDX2。360RACSについてもPro Tools上で動作させるためにこちらもHDX2を用意。その2台をAvid MTRX1台に接続し、音声をやりとりする形を取っている。
モニタースピーカーはGENELEC / 8331APが13台と7360AP 2台の構成になっている。8331APについてはミドルレイヤー、アッパーレイヤーがともに5ch。ボトムレイヤーが3ch。合計13chという構成だ。モニターのルーティングだが、まず360RACSマシンのHDXからのoutがDigiLink経由でMTRXへ。MTRXからDanteネットワーク上のFerroFish / Pulse 16DXへと信号が渡され、そこでDAがなされてスピーカーへと接続されている。ベースマネージメントを行うためにまず2台の7360APへ信号が送られ、その先に各スピーカーが接続されている形となる。スピーカーの調整についてはGENELECのGLMにて補正が行われている。マルチチャンネルのシステムの場合、GLMは強力な補正ツールとなるため、導入の際にはGENELECのスピーカーがチョイスされる確率が非常に高いのが現状だ。モニターコントロールについてはDADManで行われおり、フィジカルコントローラーのMOM Baseも導入していただいた。柔軟にセットアップできるDaDManでのモニターコントロールは大変ご好評をいただいている。
リスニング環境を損なわないレイアウト
前述のように360 Reality Audioは全周に音を配置できるフォーマットだ。スピーカーでモニターする場合は下方向にもスピーカーが必要なことになる。実際のスタジオ写真でスピーカーレイアウトはある程度把握できるかもしれないが、ここでどのようなレイアウトになっているかご紹介させていただきたい。
スピーカー13本の配置は耳の高さのMidレイヤーが5ch、上方のUpperレイヤーが5ch、下方のBottomレイヤーが3chという構成となる。Mid、UpperともにL,Rはセンタースピーカーから30°の角度、Ls,Rsは110°の角度が推奨されている。BottomレイヤーはL,C,Rの3本。こちらもセンタースピーカーから30°の位置にL,Rが置かれることになる。山麓丸スタジオではBottom L,C,Rの間にサブウーファーが設置されている理想的なスピーカーレイアウトであると言えるだろう。また、UpperはMidに対して30°上方。BottomはMIdに対して20°下方というのが推奨となっている。
通常スタジオではPC操作用のディスプレイ、キーボード、マウスやフェーダーコントローラーを置くためのデスクやコンソールなどが設けられることがほとんどだが、360RA用のスタジオではBottomにスピーカーが設置されることからその存在が邪魔になってしまうのが難しい点だ。山麓丸スタジオではPCディスプレイの役割を前方のTVに担わせている。また、フィジカルに操作を行うキーボード、マウス、Avid /S1、MOM Baseは右側に置かれたスタンドに設置され、極力音への影響が出ないよう工夫がなされている。ちなみに、スタジオ後方にはもう1セットKVMが用意されており、そちらで細かい操作等を行うことも可能だ。
📷 左よりAvid S1、Avid MTRXをコントロールするMOM Base。ブースでのレコーディング用には、Urei 1176LN / API 550A,512C / AMEK System 9098 EQ / N-Tosch HA-S291が用意された。最上段のRME MADIface Xは主にヘッドホンモニタリング用だ。
360 Reality Audio 制作ワークフロー
ここからは実際に山麓丸スタジオで行われているワークフローについてお伺いすることができたのでまとめていきたい。
●1:ステレオミックスを行う
まず、マルチトラックのオーディオデータを先方より手に入れたらセッションを作成するのだが、まずはStereo Mixを行うという。このスタジオの顧問も勤めている吉田保氏などにミックスを依頼するケースもあるとのことだ。まずはステレオミックス用のセッションを作成することについては特に疑問はないだろう。元の楽曲がある作品の場合はそれに合わせるような形でステレオミックスが作成される。
●2:ステレオから360RAへ
ステレオでの音作りをしてから、それを360RA上でパンニングして行く形となる。360RACSはプラグインのため、ProToolsのトラックにインサートして使用する形となるのだが、各オーディオトラックにインサートはしない。各オーディオトラックと同数のAUXトラックを用意し、そこにオーディオをルーティングして360RACSをインサートする。これはPro Toolsのフェーダーバランスを活かすためだ。RACSプラグインはインサートされた箇所のオーディオをDAW側から受け取るので、オーディオトラックにそのままインサートしてしまうとフェーダー前の音がプラグインに渡されてしまう形になる。それを避けるためにAUXトラックを経由する形を取っている。次に、作成したAUXトラックのマスターのチャンネルにRACSプラグインをインサートしマスターとして指定する。これが各チャンネルから音を受け取ってOUTPUTする役割を担うようになる。その後、各チャンネルにRACSプラグインをすべてインサートしていく。
📷 プラグインとして360RACSを選択、インサートを行う。
📷 インサートした360RACSプラグインの中からマスターとなるトラックをを選択。
先ほども述べたように、最終的にオーディオデバイスに音を渡すのはPro ToolsではなくRACSプラグインということになるため、RACSプラグイン上のオーディオデバイスでHDXを選択する。そのため、Pro Tools側はプレイバックエンジンでHDX以外のものを選択する必要があるということだ。ProToolsのマスターを通らないため、遅延補正はどうなる?という疑問も生まれるのだが、RACS側に遅延補正の機能があるためそこは心配ご無用ということのようだ。
これで、360RAのミキシングを始める設定が完了したことになる。その後はRACS内でスピーカーレイアウトを指定する。もちろんヘッドフォンでの作業も可能だ。HRTFを測定したファイルを読み込むことができるのでヘッドフォンのモニタリングの精度も非常に高い。
📷 出力デバイスとしてHDXを選択。
📷 ヘッドホンの出力先もプラグイン内で選択する。
●3:360RAミキシング
設定が完了したら、360RACS上でそれぞれの音のパンニング進めていく形となる。ラダ・プロダクション側で音の配置をある程度進めた状態にし、それを受けたエンジニア側でさらにブラッシュアップを行う。こうして一旦配置を決めるのだがここから再度ミキシングを行う。音の配置による音質の変化が生まれるので、パンニング後、改めて音の調整をエンジニアによって施す作業をしクオリティを上げるそうだ。こうして、その配置で本来鳴らしたい音質で鳴るようにする音作りを行い、でき上がったものがクライアントのチェックに回ることになる。
📷 360度全周にパンニングし、音像スペースを作り出している。
●4:360RAでのマスタリング
オブジェクトベースのフォーマットではステレオのようなリミッター、マキシマイザーを用いたマスタリングは難しい。今回、それをカバーする”技”を伺ったのでご紹介したい。まず、全トラックをAUXのモノトラックにセンドする。そのモノトラックをトリガーとしたマルチバンドコンプやリミッターなどを全トラックにインサートするという手法だ。設定は全トラック同じ設定にする。全ソースが送られているトラックをサイドチェーンのキーインにアサインすることによって、ステレオでのリミッティングを再現する形だ。
📷 全チャンネルにFabfilter Pro-C 2 / Pro-MB / WAVES L2がインサートされている。
●5:バウンス(書き出し)
通常のPro Toolsのバウンスによって、360RAのフォーマットを書き出すことができるそうだ。なお、書き出す際は360RACSを開いておくことが必要となる。書き出しについては「インターリーブ」「48kHz24bit」「Wav」とし、指定のフォルダに書き出すことが必要とのことで、「書類」の中の「360RACS」の中にある「Export」フォルダを指定する。このフォルダは360RACSをインストールした際に自動ででき上がるフォルダとなっている。
📷 バウンス自体はPro Toolsの画面に沿って行う。
バウンスが終わるとプレビューの調整画面が表示される。ここではどのLEVEL(0.5、1、2、3)で書き出すかを選ぶ。LEVELはMP4を作る際のクオリティに値するものだ。LEVEL2以上でオブジェクトを"スタティック"と”ダイナミック”の選択が可能となっている。独立して聴かせたいVocalなどのメインソースは"ダイナミック"を選択、また動きのあるものも"ダイナミック"を選択することが多いそうだ。ここの設定によってもまた楽曲の聴こえ方が変わるのでここも慎重に行う。すべての設定が行なえたら『OK』を押して書き出しは完了、その後、こちらのデータを使用してエンコードを行いMP4を生成する。
📷 オブジェクトのダイナミック、スタティックの選択が行える。
📷 バウンスを終えるとレベルごとにフォルダ分けされて格納される。
●6:エンコード
現状でのエンコードは360RACSとは別のアプリケーションを使用して行なっている。こちらのアプリケーションについてはとてもシンプルで、ドラック&ドロップしたデータを変換するのみだ。変換が完了したらデコーダーを使用して、生成されたMP4のチェックを行う。
ここまで細かく360 Realty Audio制作の手法をご紹介させていただいた。ステレオミックスと違い、上下の音の配置をパンニングで行えることが360 Realty Audioの大きな利点なのだが、配置しただけでは聴かせたい音質にならないことが多いのだそうだ。ステレオではマスキングを起こして聴こえなくなってしまう部分があり、それを回避しながらうまくステレオという空間に音を詰め込んでいくスキルが必要だったわけだが、360 Reality Audioは360度どこにでも音を配置できてしまう。言い換えれば、マスキングが起きづらい360 Reality AudioやDolby Atmosでは、より一個一個の音のクオリティが楽曲自体のクオリティを大きく左右することにつながるわけだ。
また、クライアントから渡される素材がステムではなくパラデータだった場合、単体での音作りというところが大きなポイントとなるということだ。その部分をスタジオ顧問の吉田保氏ほか、各所エンジニアの手に委ねるなどの工夫をされている点は大きなポイントのように感じた。そして、360RAパンニング後に「聴かせたい場所で聴かせたい音質」とするための音作りをする点も重要なポイントだ。音の存在感を出すためにサチュレーションを使ったり、EQを再度調整したりさまざまな工夫が施される。
こうしてサウンドは整えられていくが、音を配置しただけでOKということではなく、ReverbやDelayを駆使して360度に広がる「空間」を作ることがとても重要になる。ライブ収録などでは実際に様々なところにマイクを立て360度空間を作ることが可能だが、レコーディング済みの過去作品や打ち込みの作品では新たに360度空間を人工的に作る必要がある。マルチチャンネルで使用できる音楽的なReverbの必要性を感じているというお話も伺えた。制作者側の悩みなどはDolby Atmosの制作と共通する部分も多く、それに呼応するような360度空間制作のためのツールも今後ブラッシュアップされていくのではないだろうか。
Dolby Atmosとともに空間オーディオの将来を担うであろう360 Realty Audio。この二つのフォーマットが両輪となり、空間オーディオはさらに世の中へ浸透していくことになるだろう。360RAは下の方向がある分Dolby Atmosに比べてもさらに自由度が高いため、よりクリエイティブな作品が生まれそうな予感もする。また、ヘッドフォンでの試聴は、スピーカーが鳴っているのではないかと思わず周りを見回してしまうほどの聴こえ方だった。コンシューマにおけるリスナーの視聴環境はヘッドフォン、イヤフォンが中心となるのが現状だろう。その精度が上がっていくとともにコンテンツが充実することによって、今よりリスナーの感動が増すのは間違いない。広く一般的にもステレオの次のフォーマットとして、空間オーディオに対するリスナーの意識が変わっていくことに大きな期待を寄せたい。
株式会社ラダ・プロダクション
山麓丸スタジオ事業部
プロデューサー
Chester Beatty 氏
株式会社ラダ・プロダクション
山麓丸スタジオ事業部
チーフ・エンジニア
當麻 拓美氏
*ProceedMagazine2021-22号より転載
Music
2022/02/04
株式会社 SureBiz様 / 〜Dolby Atmos、技術革新に伴って音楽表現が進化する 〜
2021年6月、Appleが空間オーディオの配信をスタートした。そのフォーマットとして採用されているはご存知の通りでDolby Atmosである。以前より、Dolby Atmos Musicというものはもちろん存在していたが、この空間オーディオの配信開始というニュースを皮切りにDolby Atmosへの注目度は一気に高まった。弊社でもシステム導入や制作についてのご相談なども急増したように感じられる。今回はこの状況下でDolby Atmos制作環境を2021年9月に導入された株式会社 SureBizを訪問しお話を伺った。
需要が高まるDolby Atmos環境を
SureBizは楽曲制作をワンストップで請け負うことにできる音楽制作会社。複数の作家、エンジニアが所属しており、作曲、編曲、レコーディング、ミキシング、マスタリングをすべて行えるのが特長だ。都心からもほど近い洗足池にCrystal Soundと銘打たれたスタジオを所有し、そのスタジオで制作からミキシング、マスタリングまで対応している。今回はそのCrystal SoundへDolby Atmos Mixingが行えるシステムが導入された。2020年の後半よりDolby Atmosでのミキシングがどのようなものか検討を進めていたそうだが、Appleの空間オーディオがスタートしたことでDolby Atmosによるミックスの依頼が増えたこと、さらなる普及が予測されることからシステム導入を決断されたという。
我々でも各制作会社のお客様からDolby Atmosに対してのお問合せを多くいただいている状況ではあるが、現状ではヘッドフォンなどで作業したものを、Dolby Atmos環境のあるMAスタジオ等で仕上げるというようなワークフローが多いようだ。その中で、SureBizのような楽曲制作を行っている会社のスタジオにDolby Atmos環境が導入されるということは、制作スキームを一歩前進させる大きく意味のあることではないだろうか。
📷 洗足池駅近くにある"Crystal Sound"。制作、レコーディング、ミキシング、マスタリングと楽曲制作に必要工程がすべてできるようになったスタジオだ。メインモニターはmusikelectronic / RL901K、サブモニターにAmphion / One18。Atmos用モニターにGENELEC / 8330APとなっている。
サウンドとデザインを調和する配置プラン
まず、既存のスタジオへDolby Atmosのシステムを導入する際にネックになるのは天井スピーカーの設置だろう。Crystal Soundは天井高2500mmとそこまで高くはない。そこで、できるだけハイトスピーカーとの距離を取りつつ、Dolbyが出している認証範囲内に収まるようにスピーカーの位置を指定させていただいた。L,C,Rまでの距離は130cm、サイドとリアのスピーカーは175cmにスタンド立てで設置されている。スタジオ施工についてはジーハ防音設計株式会社によるものだ。その際に課題となったのがスタジオのデザインを損なわずにスピーカーを設置できるようにすること。打ち合わせを重ねて、デザイン、コストも考慮し、天井に板のラインを2本作り、そこにスピーカーを設置できるようにして全体のデザインバランスを調和させている。電源ボックス、通線用モールなど黒に統一し、できるだけその存在が意識されないように工夫されている。
📷 紫の矢印の先が平面の7ch。青い矢印の先が天井スピーカーとなっている。これを基にジーハ防音設計株式会社様にて天井板、電源ボックス、配線ルートを施工いただいた。
Redシリーズ、GENELECの組み合わせ
Dolby Atmos Musicの制作ではDAWとRendererを同一Mac内で立ち上げて制作することも可能だ。ただし、そのような形にするとCPUの負荷が重くマシンスペックを必要とする。本スタジオのエンジニアであるmurozo氏は普段からMacBook Proを持ち歩き作業されており、そこにRendererを入れて作業することはできなくはないのだが、やはり動作的に限界を感じていた。そのためCrystal Soundにシステムを導入されるにあたっては、そのCPU負荷を分散するべくRendererは別のMacにて動作させるようシステム設計をした。Renderer側はFocusrite REDNET PCIeR、Red 16LineをI/Oとしている。
RendererのI/OセットアップではREDNET PCIeRがInput、Red 16Line がOutputに指定される。Pro Toolsが立ち上がるMacBook ProのI/OにはDigiface Danteを選択している。Pro Tools 2021.7からNativeでのI/O数が64chに拡張されたので、このシステムでは64chのMixingができるシステムとなる。ちなみに、Pro Tools側をHDX2、MTRXを導入することにより128chのフルスペックまで対応することも可能だが、この仕様はコスト的に見てもハードルが高い。今回の64ch仕様は導入コストを抑えつつ要件を満たした形として、これからの導入を検討するユーザーには是非お勧めしたいプランだ。
📷 CPU処理を分散するため、Pro ToolsのミキシングマシンとDolby Atmos Rendererマシンを分離。Danteを使用したシステムを構築している。64chのDolby Atmosミキシングが可能な環境となっている。Pro Tools 側のハードウェアのアップグレードにより128chのシステムも構築可能だ。
モニターコントロールにはREDNET R1とRed 16Lineの組み合わせを採用している。これがまた優秀だ。SourceとしてRendererから7.1.4ch、Apple TVでの空間オーディオ作品試聴用の7.1.4chを切り替えながら作業ができるようになっている。また、Rendererからバイノーラル変換された信号をHP OUTに送っているため、ヘッドフォンを着ければすぐにバイノーラルのチェックもできる。スピーカーについてはGENELEC 8330APと7360Aが使われており、補正についてはGLMでの補正にて調整している。マルチチャンネルを行う際は補正をどこで行うか、というポイントが課題になるが、GLMはやはりコストパフォーマンスに優れている。今回のFocusrite Redシリーズ、GENELECの組み合わせはDolby Atmos導入を検討されている方にベストマッチとも言える組み合わせと言えるだろう。
📷 左は机下のラック。左列下部に今回導入いただいたRed 16Line(オーディオインターフェース)、SR6015(AVアンプ)、SWR2100P-5G(Danteスイッチ)が確認できる。ラックトレイを使用して、AppleTV、Digiface Danteもこの中に収まっている。右はGENELEC /8330AP。天井スピーカーであっても音の繋がりを重視し平面のスピーカーからサイズを落とさなかった。
Dolby Atmos環境で聴こえてくる発見
実際にDolby Atmosシステムを導入されてからの様子についてどのような印象を持っているかも伺ってみたところ、Apple TVで空間オーディオ作品を聴きながら、REDNET R1で各スピーカーをSoloにしてみて、その定位にどんな音が入っているかなどを研究できるのが便利だというコメントをいただいた。空間オーディオによって音楽の新しい世界がスタートしたわけだが、スタートしたばかりだからこそ様々なクオリティの音源があるという。システムを導入したことにより、スピーカーでDolby Atmos作品を聴く機会が増え、その中での発見も多くあるようだ。ステレオミックスとは異なり、セオリーがまだ固まっていない世界なので、Mixigを重ねるごとに新しい発見や自身の成長を確認できることがすごく楽しいと語ってくれた。その一例となるが、2MixのステムからDolby Atmos Mixをする際は、EQやサチュレーションなどの音作りをした上で配置しないと迫力のあるサウンドにならないなど、数多くの作品に触れて作業を重ねることで、そのノウハウも蓄積されてきているとのことだ。
📷 Dolby Atmos用のモニターコントロールで使用されているREDNET R1、各スピーカーのSolo機能は作品研究に重宝しているとのことだ。Source1にRendererのプレイバックの7.1.4ch。Source2にAppleTVで再生される空間オーディオに試聴の7.1.4chがアサインされている。制作時も聴き比べながら作業が可能だ。
技術革新に伴って音楽表現が進化する
最後に今後の展望をmurozo氏に伺ってみた。現状、Dolby Atmos Mixingによる音楽制作は黎明期にあり、前述のようにApple Musicの空間オーディオでジャンル問わずにリリース曲のチェックを行うと、どの方法論が正しいのか確信が持てないほどの多様さがあり、まだ世界中で戸惑っているエンジニアも多いのではないか、という。その一方で、技術革新に伴って音楽表現が進化することは歴史上明らかなので、Dolby Atmosをはじめとする立体音響技術を活かした表現がこれから益々の進化を遂げることは間違いないとも感じているそうだ。「そんな新しい時代の始まりに少しでも貢献できるように、またアーティストやプロデューサーのニーズに応じて的確なアプローチを提供できるように日々Dolby Atmosの研究を重ね、より多くのリリースに関わっていければと考えています。」と力強いコメントをいただいた。
📷 株式会社SureBiz murozo氏
今後さらなる普及が期待されるDolby Atmos。世界が同じスタートラインに立った状況で、どのような作品が今後出てくるのか。ワールドワイドで拡がるムーブメントの中で、いち早くシステムを導入し研鑽を積み重ねているSureBiz / Crystal Soundからも新たな表現のセオリーやノウハウが数多く見出されていくはずである。そしてそこからどのようなサウンドが生まれてくるのか、進化した音楽表現の登場に期待していきたい。
*ProceedMagazine2021-22号より転載
https://pro.miroc.co.jp/headline/avid-creative-summit-2021-online/#.YfzvmvXP3OQ
Media
2021/11/02
Sound on 4π Part 4 / ソニーPCL株式会社 〜360 Reality Audioのリアルが究極のコンテンツ体験を生む〜
ソニーグループ内でポストプロダクション等の事業を行っているソニーPCL株式会社(以下、ソニーPCL)。360RAは音楽向けとしてリリースされたが、360RAを含むソニーの360立体音響技術群と呼ばれる要素技術の運用を行っている。昨年システムの更新を行ったMA室はすでに360RAにも対応し、360立体音響技術群のテクノロジーを活用した展示会映像に対する立体音響の制作、360RAでのプロモーションビデオのMA等をすでに行っている。
独自のアウトプットバスで構成されたMA室
ソニーPCLは映像・音響技術による制作ソリューションの提供を行っており、360立体音響技術群を活用した新しいコンテンツ体験の創出にも取り組んでいる。現時点では映像と音声が一緒になった360RAのアウトプット方法は確立されていないため、クライアントのイメージを具現化するための制作ワークフロー構築、イベント等でのアウトプットを踏まえた演出提案など、技術・クリエイティブの両面から制作に携わっている。
この更新されたMA室はDolby Atmosに準拠したスピーカー設置となっている。360RA以前にポストプロダクションとしてDolby Atmosへの対応検討が進んでおり、その後に360RAへの対応という順番でソリューションの導入を行っている。そのため、天井にはすでにスピーカーが設置されていたので、360RAの特徴でもあるボトムへのスピーカーの増設で360RA制作環境を整えた格好だ。360RAはフルオブジェクトのソリューションとなるため、スピーカーの設置位置に合わせてカスタムのアウトプットバスを組むことでどのようなスピーカー環境にも対応可能である。360RACSには最初から様々なパターンのスピーカーレイアウトファイルが準備されているので、たいていはそれらで対応可能である。とはいえスタジオごとのカスタム設定に関しても対応を検討中とのことだ。
📷デスクの前方にはスクリーンが張られており、L,C,Rのスピーカーはこのスクリーンの裏側に設置されている。スクリーンの足元にはボトムの3本のスピーカーが設置されているのがわかる。リスニングポイントに対して机と干渉しないギリギリの高さと角度での設置となっている。
📷できる限り等距離となるように、壁に寄せて設置ができるよう特注のスタンドを用意した。スピーカーは他の製品とのマッチを考え、Neumann KH120が選ばれている。
360RAの制作にあたり、最低これだけのスピーカーがあったほうが良いというガイドラインはある。具体的には、ITU準拠の5chのサラウンド配置のスピーカーが耳の高さにあたる中層と上空の上層にあり、フロントLCRの位置にボトムが3本という「5.0.5.3ch」が推奨されている。フル・オブジェクトということでサブウーファーchは用意されていない。必要であればベースマネージメントによりサブウーファーを活用ということになる。ソニーPCLではDolby Atmos対応の部屋を設計変更することなく、ボトムスピーカーの増設で360RAへと対応させている。厳密に言えば、推奨環境とは異なるが、カスタムのアウトプット・プロファイルを作ることでしっかりと対応している。
ソニーPCLのシステムをご紹介しておきたい。一昨年の改修でそれまでの5.1ch対応の環境から、9.1.4chのDolby Atmos対応のスタジオへとブラッシュアップされている。スピーカーはProcellaを使用。このスピーカーは、奥行きも少なく限られた空間に対して多くのスピーカーを増設する、という立体音響対応の改修に向いている。もちろんそのサウンドクオリティーも非常に高い。筐体の奥行きが短いため、天井への設置時の飛び出しも最低限となり空間を活かすことができる。この更新時では、既存の5.1chシステムに対しアウトプットが増えるということ、それに合わせスピーカープロセッサーに必要とされる処理能力が増えること、これらの要素を考えてAudio I/OにはAvid MTRX、スピーカープロセッサーにはYAMAHA MMP1という組み合わせとなっている。
📷天井のスピーカーはProcellaを使用。内装に極力手を加えずに設置工事が行われた。天井裏の懐が取れないためキャビネットの厚みの薄いこのモデルは飛び出しも最小限にきれいに収まっている。
4π空間を使い、究極のコンテンツ体験を作る
なぜ、ソニーPCLはこれらの新しいオーディオフォーマットに取り組んでいるのであろうか?そこには、歴史的にも最新の音響技術のパイオニアであり、THX認証(THXpm3)でクオリティーの担保された環境を持つトップレベルのスタジオであるということに加えて、顧客に対しても安心して作業をしてもらえる環境を整えていくということに意義を見出しているからだ。5.1chサラウンドに関しても早くから取り組みを始め、先輩方からの技術の系譜というものが脈々と続いている。常に最新の音響技術に対してのファーストランナーであるとともに、3D音響技術に関してもトップランナーで在り続ける。これこそがソニーPCLとしての業界におけるポジションであり、守るべきものであるとのお話をいただいた。エンジニアとしての技術スキルはもちろんだが、スタジオは、音響設計とそこに導入される機材、そのチューニングと様々な要素により成り立っている。THXは一つの指標ではあるが、このライセンスを受けているということは、自信を持ってこのスタジオで聴いた音に間違いはないと言える、大きなファクターでもある。
📷デスク上は作業に応じてレイアウトが変更できるようにアームで取り付けられた2つのPC Displayと、Avid Artist Mix、JL Cooper Surrond Pannerにキーボード、マウスと機材は最小限に留めている。
映像に関してのクオリティーはここで多くは語らないが、国内でもトップレベルのポストプロダクションである。その映像と最新の3D立体音響の組み合わせで、「究極のコンテンツ体験」とも言える作品を作ることができるスタジオになった。これはライブ、コンサート等にとどまらず、歴史的建造物、自然環境などの、空気感をあますことなく残すことができるという意味が含まれている。自然環境と同等の4πの空間を全て使い音の記録ができる、これは画期的だ。商用としてリリースされた初めての完全なる4πのフォーマットと映像の組み合わせ、ここには大きな未来を感じているということだ。
また、映像とのコラボレーションだけではなく、ソニー・ミュージックスタジオのエンジニアとの交流も360RAによりスタートしているということだ。これまでは、音楽スタジオとMAスタジオという関係で素材レベルのやり取りはあったものの、技術的な交流はあまりなかったということだが、360RAを通じて今まで以上のコミュニケーションが生まれているということだ。ソニーR&Dが要素を開発した360立体音響技術群、それを実際のフォーマットに落とし込んだソニーホームエンタテイメント&サウンドプロダクツなど、ソニーグループ内での協業が盛んとなり今までにない広がりを見せているということだ。このソニーグループ内の協業により、どのような新しい展開が生まれるのか?要素技術である360立体音響技術群の大きな可能性を感じる。すでに、展示会場やイベント、アミューズメントパークなど360RAとは異なる環境でこの技術の活用が始まってきている。フルオブジェクトには再生環境を選ばない柔軟性がある。これから登場する様々なコンテンツにも注目をしたいところだ。
現場が触れた360RAのもたらす「リアル」
360RAに最初に触れたときにまず感じたのは、その「リアル」さだったということだ。空間が目の前に広がり、平面のサラウンドでは到達できなかった本当のリアルな空間がそこに再現されていることに大きな驚きがあったという。ポストプロダクションとしては、リアルに空間再現ができるということは究極の目的の一つでもある。音楽に関しては、ステレオとの差異など様々な問題提議が行われ試行錯誤をしているが、映像作品にこれまでにない「リアル」な音響空間が加わるということは大きな意味を持つ。報道、スポーツ中継などでも「リアル」が加わることは重要な要素。当初は即時性とのトレードオフになる部分もあるかもしれない。立体音響でのスポーツ中継など想像しただけでも楽しみになる。
実際の使い勝手の詳細はまだこれからといった段階だが、定位をDAWで操作する感覚はDTS:Xに近いということだ。将来的にはDAWの標準パンナーで動かせるように統合型のインターフェースになってほしいというのが、現場目線で求める将来像だという。すでにDAWメーカー各社へのアプローチは行っているということなので、近い将来360RAネイティブ対応のDAWなども登場するのではないだろうか。
もともとサラウンドミックスを多数手がけられていたことから、サウンドデザイン視点での試行錯誤もお話しいただくことができた。リバーブを使って空間に響きを加える際にクアッド・リバーブを複数使用し立方体を作るような手法。移動を伴うパンニングの際に、オブジェクトの移動とアンプリチュード・パンを使い分ける手法など、360RAの特性を色々と研究しながら最適なミックスをする工夫を行っているということだ。
3Dと呼ばれる立体音響はまさに今黎明期であり、さまざまなテクノロジーが登場している途中の段階とも言える。それぞれのメリット、デメリットをしっかりと理解し、適材適所で活用するスキルがエンジニアに求められるようになってきている。まずは、試すことから始めそのテクノロジーを見極めていく必要があるということをお話いただいた。スペックだけではわからないのが音響の世界である。まずは、実際に触ってミックスをしてみて初めて分かる、気づくことも多くある。そして、立体音響が普及していけばそれに合わせた高品位な映像も必然的に必要となる。高品位な映像があるから必要とされる立体音響。その逆もまた然りということである。
📷上からAntelope Trinity、Avid SYNC HD,Avid MTRX、YAMAHA MMP1が収まる。このラックがこのスタジオのまさに心臓部である。
📷ポスプロとして従来のサラウンドフォーマットへの対応もしっかりと確保している。Dolby Model DP-564はまさにその証ともいえる一台。
📷このiPadでYAMAHA MMP1をコントロールしている。このシステムが多チャンネルのモニターコントロール、スピーカーマネージメントを引き受けている。
ソニーPCLでお話を伺った喜多氏に、これから立体音響、360RAへチャレンジする方へのコメントをいただいた。「まずは、想像力。立体空間を音で表現するためには想像力を膨らませてほしい。従来のステレオ、5.1chサラウンドのイメージに縛られがちなので、想像力によりそれを広げていってもらいたい。この情報過多の世界で具体例を見せられてばかりかもしれないが、そもそも音は見えないものだし、頭の中で全方向からやってくる音をしっかりとイメージして設計をすることで、立体音響ならではの新しい発見ができる。是非とも誰もが想像していなかった新しい体験を作り上げていってほしい」とのことだ。自身もソニーグループ内での協業により、シナジーに対しての高い期待と360RAの持つ大きな可能性を得て、これからの広がりが楽しみだということだ。これから生まれていく360RAを活用した映像作品は間違いなく我々に新しい体験を提供してくれるだろう。
ソニーPCL株式会社
技術部門・アドバンスドプロダクション2部
テクニカルプロダクション1課
サウンドスーパーバイザー 喜多真一 氏
*取材協力:ソニー株式会社
*ProceedMagazine2021号より転載
Media
2021/10/26
Sound on 4π Part 3 / 360 Reality Audio Creative Suite 〜新たなオーディオフォーマットで行う4π空間への定位〜
360 Reality Audio(以下、360RA)の制作ツールとして満を持してこの4月にリリースされた360 Reality Audio Creative Suite(以下、360RACS)。360RAの特徴でもあるフル・オブジェクト・ミキシングを行うツールとしてだけではなく、360RAでのモニター機能にまで及び、将来的には音圧調整機能も対応することを計画している。具体的な使用方法から、どのような機能を持ったソフトウェアなのかに至るまで、様々な切り口で360RACSをご紹介していこう。
>>Part 1 :360 Reality Audio 〜ついにスタート! ソニーが生み出した新たな時代への扉〜
>>Part 2 :ソニー・ミュージックスタジオ 〜360 Reality Audio Mixing、この空間を楽しむ〜
全周=4π空間内に音を配置
360RACSのワークフローはまとめるとこのようになる。プラグインであるということと、プラグインからモニタリング出力がなされるという特殊性。最終のエンコードまでが一つのツールに詰め込まれているというところをご確認いただきたい。
360RACSは、アメリカAudio Futures社がリリースするプラグインソフトである。執筆時点での対応プラグイン・フォーマットはAAX、VSTとなっている。対応フォーマットは今後随時追加されていくということなので、現時点で対応していないDAWをお使いの方も読み飛ばさずに待ってほしい。Audio Futures社は、音楽ソフトウェア開発を行うVirtual Sonic社の子会社であり、ソニーとの共同開発契約をもとに、ソニーから技術提供を受け360RACSを開発している。360RAコンテンツの制作ツールは、当初ソニーが研究、開発用として作ったソフトウェア「Architect」のみであった。しかしこの「Architect」は、制作用途に向いているとは言えなかったため、現場から様々なリクエストが集まっていたことを背景に、それらを汲み取り制作に向いたツールとして新たに開発されたのがこの360RACSということになる。
それでは具体的に360RACSを見ていきたい。冒頭にも書いたが360RACSはプラグインである。DAWの各トラックにインサートすることで動作する。DAWの各トラックにインサートすると、360RACS上にインサートされたトラックが追加されていく。ここまで準備ができれば、あとは360RACS内で全周=4π空間内にそれぞれの音を配置していくこととなる。これまで音像定位を変化させるために使ってきたパンニングという言葉は、水平方向の移動を指す言葉である。ちなみに、縦方向の定位の移動を指す言葉はチルトだ。立体音響においてのパンニングにあたる言葉は確立されておらず、空間に定位・配置させるという表現となってしまうことをご容赦願いたい。
360RACS内で音像を定位させるには、画面に表示された球体にある音像の定位位置を示すボール状のポイントをドラッグして任意の場所に持っていけば良い。後方からと、上空からという2つの視点で表示されたそれぞれを使うことで、簡単に任意の場所へと音像を定位させることができる。定位をさせた位置情報はAzimuth(水平方向を角度で表現)とElevation(垂直方向を角度で表現)の2つのパラメータが与えられる。もちろん、数値としてこれらを入力することも可能である。
📷360RACSに送り込まれた各オブジェクトは、Azimuth(アジマス)、Elavation、Gainの3つのパラメーターにより3D空間内の定位を決めていくこととなる。
360RAでは距離という概念は無い。これは現時点で定義されているMPEG-Hの規格にそのパラメータの運用が明確に定義されていないということだ。とはいえ、今後サウンドを加工することで距離感を演出できるツールやなども登場するかもしれない。もちろん音の強弱によっても遠近をコントロールすることはできるし、様々な工夫により擬似的に実現することは可能である。ただ、あくまでも360RAのフォーマット内で、という限定された説明としては距離のパラメーターは無く、360RAにおいては球体の表面に各ソースとなる音像を定位させることができるということである。この部分はネガティブに捉えないでほしい。工夫次第でいくらでも解決方法がある部分であり、これからノウハウ、テクニックなどが生まれる可能性が残された部分だからだ。シンプルな例を挙げると、360RACSで前後に同じ音を定位させ、そのボリューム差を変化させることで、360RAの空間内にファントム定位を作ることも可能だということである。
4π空間に定位した音は360RACSで出力
360RACSはそのままトラックにインサートするとプリフェーダーでインサートされるのでDAWのフェーダーは使えなくなる。もちろんパンも同様である。これはプラグインのインサートポイントがフェーダー、パンよりも前の段階にあるということに起因しているのだが、360RACS内に各トラックのフェーダーを用意することでこの部分の解決策としている。音像の定位情報とともに、ボリューム情報も各トラックのプラグインへオートメーションできる情報としてフィードバックされているため、ミキシング・オートメーションのデータは全てプラグインのオートメーションデータとしてDAWで記録されることとなる。
📷各トラックにプラグインをインサートし、360RACS内で空間定位を設定する。パンニング・オートメーションはプラグイン・オートメーションとしてDAWに記録されることとなる。
次は、このようにして4π空間に定位した音をどのようにモニタリングするのか?ということになる。360RACSはプラグインではあるが、Audio Interfaceを掴んでそこからアウトプットをすることができる。これは、DAWが掴んでいるAudio Outputは別のものになる。ここでヘッドホンであれば2chのアウトプットを持ったAudio Interfaceを選択すれば、そこから360RACSでレンダリングされたヘッドホン向けのバイノーラル出力が行われるということになる。スピーカーで聴きたい場合には、標準の13ch(5.0.5.3ch)を始め、それ以外にもITU 5.1chなどのアウトプットセットも用意されている。もちろん高さ方向の再現を求めるのであれば、水平面だけではなく上下にもスピーカーが必要となるのは言うまでもない。
📷360RACSの特徴であるプラグインからのオーディオ出力の設定画面。DAWから受け取った信号をそのままスピーカーへと出力することを実現している。
360RACSの機能面を見ていきたい。各DAWのトラックから送られてきたソースは360RACS内でグループを組むことができる。この機能により、ステレオのソースなどの使い勝手が向上している。全てを一つのグループにしてしまえば、空間全体が回転するといったギミックも簡単に作れるということだ。4π空間の表示も上空から見下ろしたTop View、後方から見たHorizontal View、立体的に表示をしたPerspective Viewと3種類が選択できる。これらをの表示を2つ組み合わせることでそれぞれの音像がどのように配置されているのかを確認することができる。それぞれの定位には、送られてきているトラック名が表示されON/OFFも可能、トラック数が多くなった際に文字だらけで見にくくなるということもない。
360RACS内に配置できるオブジェクトは最大128ch分で、各360RACS内のトラックにはMute/Soloも備えられる。360RACSでの作業の際には、DAWはソースとなる音源のプレイヤーという立ち位置になる。各音源は360RACSのプラグインの前段にEQ/Compなどをインサートすることで加工することができるし、編集なども今まで通りDAW上で行えるということになる。その後に、360RACS内で音像定位、ボリュームなどミキシングを行い、レンダリングされたアウトプットを聴くという流れだ。このレンダリングのプロセスにソニーのノウハウ、テクノロジーが詰まっている。詳細は別の機会とするが、360立体音響技術群と呼ばれる要素技術開発で積み重ねられてきた、知見やノウハウにより最適に立体空間に配置されたサウンドを出力している。
Level 1~3のMPEG-Hへエンコード
📷MPEG-Hのデータ作成はプラグインからのExportにより行う。この機能の実装により一つのプラグインで360RAの制作位の工程を包括したツールとなっている。
ミックスが終わった後は、360RAのファイルフォーマットであるMPEG-Hへエンコードするという処理が残っている。ここではLevel 1~3の3つのデータを作成することになり、Level 1が10 Object 64 0kbps、Level 2が16 Object 1Mbps、Level 3が 24 Object 1.5Mbpsのオーディオデータへと変換を行う。つまり、最大128chのオーディオを最小となるLevel 1の10trackまで畳み込む必要があるということだ。具体的には、同じ位置にある音源をグループ化してまとめていくという作業になる。せっかく立体空間に自由に配置したものを、まとめてしまうのはもったいないと感じるかもしれないが、限られた帯域でのストリーミングサービスを念頭とした場合には欠かせない処理だ。
とはいえ、バイノーラルプロセスにおいて人間が認知できる空間はそれほど微細ではないため、できる限り128chパラのままでの再現に近くなるように調整を行うこととなる。後方、下方など微細な定位の認知が難しい場所をまとめたり、動きのあるもの、無いものでの分類したり、そういったことを行いながらまとめることとなる。このエンコード作業も360RACS内でそのサウンドの変化を確認しながら行うことが可能である。同じ360RACSの中で作業を行うことができるため、ミックスに立ち返りながらの作業を手軽に行えるというのは大きなメリットである。このようなエンコードのプロセスを終えて書き出されたファイルが360RAのマスターということになる。MPEG-Hなのでファイルの拡張子は.MP4である。
執筆時点で、動作確認が行われているDAWはAvid Pro ToolsとAbleton Liveとなる。Pro Toolsに関しては、サラウンドバスを必要としないためUltimateでなくても作業が可能だということは特筆すべき点である。言い換えれば、トラック数の制約はあるがPro Tools Firstでも作業ができるということだ。全てが360RACS内で完結するため、ホストDAW側には特殊なバスを必要としない。これも360RACSの魅力の一つである。今後チューニングを進め、他DAWへの対応や他プラグインフォーマットへの展開も予定されている。音楽に、そして広義ではオーディオにとって久々の新フォーマットである360RAは制作への可能性を限りなく拡げそうだ。
*取材協力:ソニー株式会社
*ProceedMagazine2021号より転載
>>Part 2はこちらから
https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-2/
>>Part 1はこちらから
https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-1/
Media
2021/10/19
Sound on 4π Part 2 / ソニー・ミュージックスタジオ 〜360 Reality Audio Mixing、この空間を楽しむ〜
国内の正式ローンチに合わせ、多数の邦楽楽曲が360RAでミックスされた。その作業の中心となったのがソニー・ミュージックスタジオである。マスタリングルームのひとつを360RAのミキシングルームに改装し、2021年初頭より60曲あまりがミキシングされたという。そのソニー・ミュージックスタジオで行われた実際のミキシング作業についてお話を伺った。
>>Part 1:360 Reality Audio 〜ついにスタート! ソニーが生み出した新たな時代への扉〜
2ミックスの音楽性をどう定位していくか
株式会社ソニー・ミュージックソリューションズ ソニー・ミュージックスタジオ
レコーディング&マスタリングエンジニア 鈴木浩二 氏(右)
レコーディングエンジニア 米山雄大 氏(左)
2021年3月23日発のプレスリリースにあった楽曲のほとんどは、ここソニー・ミュージックスタジオでミキシングが行われている。360RAでリリースされた楽曲の選定は、各作品のプロデューサー、アーティストに360RAをプレゼン、実際に体験いただき360RAへの理解を深め、その可能性に賛同を得られた方から制作にあたったということだ。
実際に360RAでミキシングをしてみての率直な感想を伺った。ステレオに関しての経験は言うまでもなく、5.1chサラウンドでの音楽のミキシング作業の経験も豊富にある中でも、360RAのサウンドにはとにかく広大な空間を感じたという。5.1chサラウンドでの音楽制作時にもあった話だが、音楽として成立させるために音の定位はどこの位置までが許容範囲なのか?ということは360RAでも起こること。やはりボーカルなどのメロディーを担うパートが、前方に定位をしていないと違和感を感じてしまうし、平面での360度の表現から高さ方向の表現が加わったことで、5.1chから更に広大な空間に向き合うことになり正直戸惑いもあったということだ。その際は、もともとの2chのミックスを音楽性のリファレンスとし、その音楽性を保ったまま空間に拡張していくというイメージにしたという。
360RAは空間が広いため、定位による表現の自由度は圧倒的だ。白紙の状態から360RAの空間に音を配置して楽曲を成立させるには、やはり従来の2chミキシングで培った表現をベースに拡張させる、という手法を取らないとあまりにも迷いが多い。とはいえ、始まったばかりの立体音響でのミキシング、「正解はない」というのもひとつの答えである。さらなる試行錯誤の中から、新しいセオリー、リファレンスとなるような音像定位が生まれてくるのではないだろうか。もちろん従来のステレオで言われてきた、ピラミッド定位などというミキシングのセオリーをそのまま360RAで表現しても良い。その際に高さを表現するということは、ステレオ・ミキシングでは高度なエンジニアリング・スキルが要求されたが、360RAではオブジェクト・パンの定位を変えるだけ、この簡便さは魅力の一つだ。
試行錯誤の中から得られた経験としては、360RAの広大な空間を広く使いすぎてしまうと、細かな部分や気になる部分が目立ってしまうということ。実際に立体音響のミキシングで直面することだが、良くも悪くもステレオミキシングのようにそれぞれの音は混ざっていかない。言葉で言うのならば、ミキシング(Mixing)というよりもプレイシング(Placing)=配置をしていくという感覚に近い。
また、360RAだけではなく立体音響の大きな魅力ではあるが、クリアに一つ一つのサウンドが聴こえてくるために、ステレオミックスでは気にならなかった部分が気になってしまうということも起こり得る。逆に、アーティストにとってはこだわりを持って入れたサウンド一つ一つのニュアンスが、しっかりとしたセパレーションを持って再生されるためにミックスに埋もれるということがない。これは音楽を生み出す側としては大きな喜びにつながる。このサウンドのセパレーションに関しては、リスナーである我々が2chに収められたサウンドに慣れてしまっているだけかもしれない。これからは、この「混ざらない」という特徴を活かした作品も生まれてくるのではないだろうか。実際に音楽を生み出しているアーティストは2chでの仕上がりを前提に制作し、その2chの音楽性をリファレンスとして360RAのミキシングが行われている。当初より360RAを前提として制作された楽曲であれば、全く新しい世界が誕生するのかもしれない。
実例に即したお話も聞くことができた。ゴスペラーズ「風が聴こえる」を360RAでミキシングをした際に、立体的にサウンドを動かすことができるため、当初は色々と音に動きのあるミキシングを試してみたという。ところが、動かしすぎることにより同時に主題も移動してしまって音楽性が損なわれてしまったそうだ。その後のミックスでは、ステレオよりも広くそれぞれのメンバーを配置することで、ステレオとは異なるワイドなサウンドが表現しているという。360RAでミキシングをすることで、それぞれのメンバーの個々のニュアンスがしっかりとクリアに再生され、ステレオであれば聴こえなかった音がしっかりと届けられるという結果が得られ、好評であったということだ。まさに360RAでのミキシングならではのエピソードと言えるだろう。
📷元々がマスタリングルームあったことを偲ばせる巨大なステレオスピーカーの前に、L,C,R+ボトムL,C,Rの6本のスピーカーがスタンドに設置されている。全てMusik Electornic Gaithain m906が採用され、純正のスタンドを改造してボトムスピーカーが据え付けられている。天井には天吊で同じく906があるのがわかる。
高さ方向をミックスで活用するノウハウ
5.1chサラウンドから、上下方向への拡張がなされた360RA。以前から言われているように人間の聴覚は水平方向に対しての感度は高いが、上下方向に関しては低いという特徴を持っている。これは、物理的に耳が左右についているということに起因する。人間は水平方向の音を左右の耳に届く時間差で認識している、単純に右から来る音は右耳のほうが少しだけ早く聴こえるということだ。しかし、高さ方向に関してはそうはいかない。これは、こういう音はこちらから聴こえている「はず」という人の持つ経験で上下を認識しているためだ。よって、360RAでの上下方向のミキシングはセオリーに沿った音像配置を物理的に行う、ということに向いている。例えば、低音楽器を下に、高音楽器を上にといったことだ。これによりその特徴が強調された表現にもなる。もちろん、逆に配置して違和感を効果的に使うといった手法もあるだろう。また、ステレオMIXでボーカルを少し上から聴こえるようにした「おでこから聴こえる」などと言われるミックスバランスも、物理的にそれを配置することで実現が可能である。これにより、ボーカルの明瞭度を増して際立たせることもできるだろう。
音楽的なバランスを取るためにも、この上下方向をサウンドの明瞭度をつけるために活用するのは有効だ、という経験談もいただくことができた。水平面より少し上のほうが明瞭度が高く聴こえ、下に行けば行くほど明瞭度は落ちる。上方向も行き過ぎるとやはり明瞭度は落ちる。聴かせたいサウンドを配置する高さというのはこれまでにないファクターではあるが、360RAのミキシングのひとつのポイントになるのではないだろうか。また、サウンドとの距離に関しても上下で聴感上の変化があるということ。上方向に比べ、下方向のほうが音は近くに感じるということだ。このように360RAならではのノウハウなども、試行錯誤の中で蓄積が始まっていることが感じられる。
📷天井には、円形にバトンが設置され、そこにスピーカーが吊るされている。このようにすることでリスニングポイントに対して等距離となる工夫がなされている。
📷ボトムのスピーカー。ミドルレイヤーのスピーカーと等距離となるように前方へオフセットして据え付けられているのがわかる。
理解すべき広大な空間が持つ特性
そして、360RAに限らず立体音響全般に言えることなのだが、サウンド一つ一つがクリアになり明瞭度を持って聴こえるという特徴がある。また、トータルコンプの存在していない360RAの制作環境では、どうしてもステレオミックスと比較して迫力やパンチに欠けるサウンドになりやすい。トータルコンプに関しては、オブジェクトベース・オーディオ全てにおいて存在させることが難しい。なぜなら、オブジェクトの状態でエンドユーザーの手元にまで届けられ、最終のレンダリング・プロセスはユーザーが個々に所有する端末上で行われるためだ。また、バイノーラルという技術は、音色(周波数分布)や位相を変化させることで擬似的に上下定位や後方定位を作っている。そのためトータルコンプのような、従来のマスタリング・プロセッサーはそもそも使うことができない。
そして、比較対象とされるステレオ・ミックスはある意味でデフォルメ、加工が前提となっており、ステレオ空間という限られたスペースにノウハウを駆使してサウンドを詰め込んだものとも言える。広大でオープンな空間を持つ立体音響にパンチ感、迫力というものを求めること自体がナンセンスなのかもしれないが、これまでの音楽というものがステレオである以上、これらが比較されてしまうのはある意味致し方がないのかもしれない。360RAにおいても個々の音をオブジェクトとして配置する前にEQ/COMPなどで処理をすることはもちろん可能だ。パンチが欲しいサウンドはそのように聴こえるよう予め処理をしておくことで、かなり求められるニュアンスを出すことはできるということだ。
パンチ感、迫力といったお話をお伺いしていたところ、ステレオと360RAはあくまでも違ったもの、是非とも360RAならではの体験を楽しんでほしいというコメントをいただいた。まさにその通りである。マキシマイズされた迫力、刺激が必要であればステレオという器がすでに存在している。ステレオでは表現、体験のできない新しいものとして360RAを捉えるとその魅力も際立つのではないだろうか。ジャズなどのアコースティック楽器やボーカルがメインのものは不向きかもしれないが、ライブやコンサート音源など空間を表現することが得意な360RAでなければ再現できない世界もある。今後360RAでの完成を前提とした作品が登場すればその魅力は更に増すこととなるだろう。
360RAならではの魅力には、音像がクリアに分離して定位をするということと空間再現能力の高さがある。ライブ会場の観客のリアクションや歓声などといった空気感、これらをしっかりと収録しておくことでまさにその会場にいるかのようなサウンドで追体験できる。これこそ立体音響の持つイマーシブ感=没入感だと言えるだろう。すでに360RAとしてミキシングされたライブ音源は多数リリースされているので是非とも楽しんでみてほしい。きっとステレオでは再現しえない”空間”を感じていただけるであろう。屋根があるのか?壁はどのようになっているのか?といった会場独自のアコースティックから、残響を収録するマイクの設置位置により客席のどのあたりで聴いているようなサウンドにするのか?そういったことまで360RAであれば再現が可能である。
この空間表現という部分に関しては、今後登場するであろうディレイやリバーブに期待がかかる。本稿執筆時点では360RAネイティブ対応のこれら空間系のエフェクトは存在せず、今後のリリースを待つこととなる。もちろん従来のリバーブを使い、360RAの空間に配置することで残響を加えることは可能だが、もっと直感的に作業ができるツール、360RAの特徴に合わせたツールの登場に期待がかかる。
360RAにおけるマスタリング工程の立ち位置
かなり踏み込んだ内容にはなるが、360RAの制作において試行錯誤の中から答えが見つかっていないという部分も聞いた、マスタリングの工程だ。前述の通り、360RAのファイナルのデータはLevel 1~3(10ch~24ch)に畳み込まれたオブジェクト・オーディオである。実作業においては、Level 1~3に畳み込むエンコードを行うことが従来のマスタリングにあたるのだが、ステレオの作業のようにマスタリングエンジニアにミックスマスターを渡すということができない。このLevel 1~3に畳み込むという作業自体がミキシングの延長線上にあるためだ。
例えば、80chのマルチトラックデータを360RAでミキシングをする際には、作業の工程として80ch分のオブジェクト・オーディオを3D空間に配置することになり、これらをグループ化して10ch~24chへと畳み込んでいく。単独のオブジェクトとして畳み込むのか?オブジェクトを2つ使ってファントムとして定位させるのか、そういった工程である。これらの作業を行いつつ、同時に楽曲間のレベル差や音色などを整えるということは至難の業である。また、個々のオブジェクト・オーディオはオーバーレベルをしていなかったとしても、バイノーラルという2chに畳み込む中でオーバーレベルしてしまうということもある。こういった部分のQC=Quality Controlに関しては、まだまだ経験も知見も足りていない。
もちろん、そういったことを簡便にチェックできるツールも揃っていない。色々と工夫をしながら進めているが、現状ではミキシングをしたエンジニアがそのまま作業の流れで行うしかない状況になっているということだ。やはり、マスタリング・エンジニアという第3者により最終のトリートメントを行ってほしいという思いは残る。そうなると、マスタリングエンジニアがマルチトラックデータの取扱いに慣れる必要があるのか?それともミキシングエンジニアが、さらにマスタリングの分野にまで踏み込む必要があるのか?どちらにせよ今まで以上の幅広い技術が必要となることは間違いない。
個人のHRTFデータ取得も現実的な方法に
ヘッドホンでの再生が多くなるイメージがある360RAのミキシングだが、どうしてもバイノーラルとなると細かい部分の詰めまでが行えないため、実際の作業自体はやはりスピーカーがある環境のほうがやりやすいとのことだ。そうとはいえ、360RAに対応したファシリティーは1部屋となるため、ヘッドホンを使ってのミキシングも平行して行っているということだが、その際には360RAのスピーカーが用意されたこの部屋の特性と、耳にマイクを入れて測定をした個人個人のHRTFデータを使い、かなり高い再現性を持った環境でのヘッドホンミックスが行えているということだ。
個人のHRTFデータを組み込むという機能は、360RACSに実装されている。そのデータをどのようにして測定してもらい、ユーザーへ提供することができるようになるのかは、今後の課題である。プライベートHRTFがそれほど手間なく手に入り、それを使ってヘッドホンミックスが行えるようになるということが現実になれば、これは画期的な出来事である。これまで、HRTFの測定には椅子に座ったまま30分程度の計測時間が必要であったが、ソニーの独自技術により耳にマイクを入れて30秒程度で計測が完了するということを筆者も体験している。これが一般にも提供されるようになれば本当に画期的な出来事となる。
📷Pro Tools上に展開された360 Reality Audio Creative Suite(360RACS)
「まだミキシングに関しての正解は見つかっていない。360RACSの登場で手軽に制作に取り組めるようになったので、まずは好きに思うがままに作ってみてほしい。」これから360RAへチャレンジをする方へのコメントだ。360RAにおいても録音をするテクニック、個々のサウンドのトリートメント、サウンドメイクにはエンジニアの技術が必要である。そして、アーティストの持つ生み出す力、創造する力を形にするための360RAのノウハウ。それらが融合することで大きな化学反応が起こるのではないかということだ。試行錯誤は続くが、それ自体が新しい体験であり、非常に楽しんで作業をしているということがにじむ。360RAというフォーマットを楽しむ、これが新たな表現への第一歩となるのではないだろうか。
>>Part 3:360 Reality Audio Creative Suite 〜新たなオーディオフォーマットで行う4π空間への定位〜
*取材協力:ソニー株式会社
*ProceedMagazine2021号より転載
https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-3/
https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-1/
Media
2021/10/12
Sound on 4π Part 1 / 360 Reality Audio 〜ついにスタート! ソニーが生み出した新たな時代への扉〜
ついに2021年4月16日に正式リリースとなった 360 Reality Audio(以下、360RA)。読み方は”サンロクマル・リアリティー・オーディオ”となるこの最新のオーディオ体験。これまでにも色々とお伝えしてきているが、日本国内でのリリースと同時に、360RAの制作用のツールとなる360 Reality Audio Creative Suiteもリリースされている。360RAとは一体何なのか?どのようにして作ればよいのか?まずは、そのオーバービューからご紹介していこう。
ソニーが作り出してきたオーディオの時代
まず最初に、ソニーとAudioの関係性を語らないわけにはいかない。コンシューマ・オーディオの分野では、常にエポックメイキングな製品を市場にリリースしてきている。その代表がウォークマン®であろう。今では当たり前となっている音楽を持ち歩くということを世界で初めて実現した電池駆動のポータブル・カセットテープ・プレイヤーである。10代、20代の読者は馴染みが薄いかもしれないが、据え置きの巨大なオーディオコンポや、ラジオとカセットプレイヤーを一体にしたラジカセが主流だった時代に、電池で動作してヘッドホンでどこでも好きな場所で音楽を楽しむことができるウォークマン®はまさにエポックな製品であり、音楽の聴き方を変えたという意味では、時代を作った製品であった。みんなでスピーカーから出てくる音楽を楽しむというスタイルから、個人が好きな音楽をプライベートで楽しむという変化を起こしたわけだ。これは音楽を聴くという体験に変化をもたらしたとも言えるだろう。
ほかにもソニーは、映画の音声がサラウンドになる際に大きなスクリーンの後ろで通常では3本(L,C,R)となるスピーカーを5本(L,LC,C,RC,R)とする、SDDS=Sony Dynamic Digital Soundというフォーマットを独自で提唱したり、ハイレゾという言葉が一般化する以前よりPCMデジタルデータでは再現できない音を再生するために、DSDを採用したスーパーオーディオCD(SACD)を作ったり、と様々な取り組みを行っている。
そして、プロフェッショナル・オーディオ(音響制作機器)の市場である。1980年代よりマルチチャンネル・デジタルレコーダーPCM-3324/3348シリーズ、Oxford R3コンソール、CDのマスタリングに必須のPCM-1630など、音声、特に音楽制作の中心にはソニー製品があった。いまではヘッドホン、マイクは例外に、プロシューマー・マーケットでソニー製品を見ることが少なくなってしまっているが、その要素技術の研究開発は続けられており、コンシューマー製品へしっかりとフィードバックが行われているのである。「制作=作るため」の製品から「利用する=再生する」製品まで、つまりその技術の入口から出口までの製品を揃えていたソニーのあり方というのは、形を変えながらも続いているのである。
PCM-3348
PCM-3348HR
Oxford R3
PCM-1630
このようなソニーとAudioの歴史から見えてくるキーワードは、ユーザーへの「新しい体験の提供」ということである。CDではノイズのないパッケージを提供し、ウォークマン®ではプライベートで「どこでも」音楽を楽しむという体験を、SDDSは映画館で最高の臨場感を作り出し、SACDはまさしく最高となる音質を提供した。全てが、ユーザーに対して新しい体験を提供するという一つの幹から生えているということがわかる。新しい体験を提供するための技術を、難解なテクノロジーの状態からスタイリッシュな体験に仕立てて提供する。これがまさにソニーのAudio、実際はそれだけではなく映像や音声機器にも共通するポリシーのように感じる。
全周(4π)を再現する360RA
ソニーでは要素技術として高臨場感音響に関しての研究が続けられていた。バーチャル・サラウンド・ヘッドホンや、立体音響を再生できるサラウンドバーなどがこれまでにもリリースされているが、それとはまた別の技術となる全周(4π)を再現するオーディオ技術の研究だ。そして、FraunhoferがMPEG-H Audioを提唱した際にこの技術をもって参画したことで、コンテンツとなるデータがその入れ物(コンテナ)を手に入れて一気に具体化、2019年のCESでの発表につながっている。CES2019の時点ではあくまでも技術展示ということだったが、その年の10月には早くもローンチイベントを行い欧米でのサービスをスタートさせている。日本国内でも各展示会で紹介された360RAは、メディアにも取り上げられその存在を知った方も多いのではないだろうか。特に2020年のCESでは、ソニーのブースでEVコンセプトの自動車となるVISION-Sが展示され大きな話題を呼んだが、この車のオーディオとしても360RAが搭載されている。VISION-Sではシートごとにスピーカーが埋め込まれ立体音響が再生される仕様となっていた、この立体音響というのが360RAをソースとしたものである。
360RAはユーザーに対して「新しい体験」を提供できる。機器自体は従来のスマホや、ヘッドホン、イヤホンであるがそこで聴くことができるサウンドは、まさにイマーシブ(没入)なもの。もちろんバイノーラル技術を使っての再生となるが、ソニーのノウハウが詰まった独自のものであるということだ。また、単純なバイノーラルで収録された音源よりも、ミキシングなど後処理が加えられることで更に多くの表現を手に入れたものとなっている。特にライブ音源の再生においては非常に高い効果を発揮し、最も向いたソースであるという認識を持った。
バイノーラルの再生には、HRTF=頭部伝達関数と呼ばれる数値に基づいたエンコードが行われ、擬似的に左右のヘッドホン or イヤホンで立体的音響を再生する。このHRTFは頭の形、耳の形、耳の穴の形状など様々な要素により決まる個人ごとに差異があるもの。以前にも紹介したYAMAHAのViRealはこのHRTFを一般化しようという研究であったが、ソニーでは「Sony | Headphones Connect」と称されたスマートフォン用アプリで、個々に向けたHRTFを提供している。これは耳の写真をアップロードすることでビッグデータと照合し最適なパラメーターを設定、ヘッドホンフォン再生に適用することで360RAの体験を確実にし、ソニーが配信サービスに技術提供している。
Sony | Headphones Connectは一部のソニー製ヘッドホン用アプリとなるが、汎用のHRTFではなく個人に合わせて最適化されたHRTFで聴くバイノーラルは圧倒的である。ぼんやりとしか認識できなかった音の定位がはっきりし、後方や上下といった認識の難しい定位をしっかりと認識することができる。もちろん、個人差の出てしまう技術であるため一概に言うことはできないが、それでも汎用のHRTFと比較すれば、360RAでの体験をより豊かなものとする非常に有効な手法であると言える。この手法を360RAの体験向上、そしてソニーのビジネスモデルとして技術と製品を結びつけるものとして提供している。体験を最大化するための仕掛けをしっかりと配信サービスに提供するあたり、さすがソニーといったところだ。
360RAはいますぐ体験できる
それでは、360RAが国内でリリースされ、実際にどのようにして聴くことができるようになったのだろうか?まず、ご紹介したいのがAmazon music HDとDeezerの2社だ。両社とも月額課金のサブスクリプション(月額聴き放題形式)のサービスである。ハイレゾ音源の聴き放題の延長線上に、立体音響音源の聴き放題サービスがあるとイメージしていただければいいだろう。視聴方法はこれらの配信サービスと契約し、Amazon music HDであればAmazon Echo Studioという立体音響再生に対応した専用のスピーカーでの再生となる。物理的なスピーカーでの再生はどうしても上下方向の再生が必要となるため特殊な製品が必要だが、前述のAmazon Echo Studioやサラウンドバーのほか、ソニーからも360RA再生に対応した製品としてSRS-RA5000、SRS-RA3000という製品が国内でのサービス開始とともに登場している。
また、Deezerではスマートフォンとヘッドホン、イヤホンでの再生、もしくは360RA再生に対応したBluetoothスピーカーがあれば夏にはスピーカーで360RAを楽しむことができる。スマートフォンは、ソニーのXperiaでなければならないということはない。Android搭載のデバイスでも、iOS搭載のデバイスでも楽しむことができる、端末を選ばないというのは実に魅力的だ。ヘッドホン、イヤホンも普通のステレオ再生ができるもので十分で、どのような製品でも360RAを聴くことができる。Sony | Headphones Connectの対象機種ではない場合はパーソナライズの恩恵は受けられないが、その際にはソニーが準備した汎用のHRTFが用いられることとなる。導入にあたり追加で必要となる特殊な機器もないため、興味を持った方はまずはDeezerで360RAのサウンドを楽しむのが近道だろうか。余談ではあるが、Deezerはハイレゾ音源も聴き放題となるサービス。FLAC圧縮によるハイサンプルの音源も多数あるため、360RAをお試しいただくとともにこちらも併せて聴いてみると、立体音響とはまた違った良さを発見できるはずだ。
そして、前述の2社に加えてnugs.netでも360 Reality Audioの楽曲が配信開始されている。360RAを体験していただければわかるが、立体音響のサウンドはまさに会場にいるかのような没入感を得ることができ、ライブやコンサートなどの臨場感を伝えるのに非常に適している。nugs.net はそのライブ、コンサートのストリーミングをメインのコンテンツとして扱う配信サービスであり、このメリットを最大限に活かしたストリーミングサービスになっていると言えるだろう。
欧米でサービスが展開されているTIDALも月額サブスクリプションのサービスとなり、すでに360RAの配信をスタートしている。サービスの内容はDeezerとほぼ同等だが、ハイレゾの配信方針がDeezerはFLAC、TIDALはMQAと異なるのが興味深い。この音質の差異は是非とも検証してみたいポイントである。TIDALはラッパーのJAY-Zがオーナーのサービスということで、Hip-Hop/R&Bなどポップスに強いという魅力もある。ハイレゾ音源は配信サービスで月額課金で楽しむ時代になってきている。前号でも記事として取り上げたが、ハイレゾでのクオリティーの高いステレオ音源や360RAなどの立体音響、これらの音源を楽しむということは、すでにSpotifyやApple Musicといった馴染みのある配信サービスの延長線上にある。思い立てばいますぐにでも360RAを楽しむことができる環境がすでに整っているということだ。
360RAを収めるMPEG-Hという器
360RAを語るにあたり、技術的な側面としてMPEG-Hに触れないわけにはいかない。MPEG-H自体はモノラルでも、ステレオでも、5.1chサラウンドも、アンビソニックスも、オブジェクトオーディオも、自由に収めることが可能、非常に汎用性の高いデジタルコンテンツを収める入れ物である。このMPEG-Hを360RAではオブジェクトオーディオを収める器として採用しているわけだ。実際の360RAには3つのレベルがあり、最も上位のLevel3は24オブジェクトで1.5Mbpsの帯域を使用、Level2は16オブジェクトで1Mbps、Leve1は10オブジェクトで640kbpsとなっている。このレベルとオブジェクト数に関しては、実際の制作ツールとなる360RA Creative Suiteの解説で詳しく紹介したい。
Pro Tools上に展開された360 Reality Audio Creative Suite(360RACS)
ここでは、その帯域の話よりもMPEG-Hだから実現できた高圧縮かつ高音質という部分にフォーカスを当てていく。月額サブスクリプションでの音楽配信サービスは、現状SpotifyとApple Musicの2強であると言える。両社とも圧縮された音楽をストリーミングで再生するサービスだ。Apple Musicで使われているのはAAC 256kbpsのステレオ音声であり、1chあたりで見れば128kbpsということになる。360RAのチャンネルあたりの帯域を見るとLevel1で64kbps/chとAACやMP3で配信されているサービスよりも高圧縮である。しかし、MPEG-Hは最新の圧縮技術を使用しているため、従来比2倍以上の圧縮効率の確保が可能というのが一般的な認識である。その2倍を照らし合わせればチャンネルあたりの帯域が半分になっても従来と同等、もしくはそれ以上の音質が確保されているということになる。逆に言えば、従来のAAC、MP3という圧縮技術では同等の音質を確保するために倍の帯域が必要となってしまう。これがMPEG-H Audioを採用した1点目の理由だ。
もう一つ挙げたいのはオブジェクトへの対応。360RAのミキシングは全てのソースがオブジェクトとしてミキシングされる。オブジェクトとしてミキシングされたソースを収める器として、オブジェクトの位置情報にあたるメタデータを格納することができるMPEG-Hは都合が良かったということになる。特殊な独自のフォーマットを策定することなく、一般化された規格に360RAのサウンドが収めることができたわけだ。ちなみにMPEG-Hのファイル拡張子は.mp4である。余談にはなるが、MPEG-Hは様々な最新のフォーマットを取り込んでいる。代表的なものが、HEVC=High Efficiency Video Coding、H.265という高圧縮の映像ファイルコーディック、静止画ではHEIF=High Efficiency Image File Format。HEIFはHDR情報を含む画像ファイルで、iPhoneで写真を撮影した際の画像ファイルで見かけた方も多いかもしれない。このようにMPEG-Hは3D Audio向けの規格だけではなく、様々な可能性を含みながら進化を続けているフォーマットである。
拡がりをみせる360RAの将来像
360RAの今後の展開も伺うことができた。まず1つは、配信サービスを提供する会社を増やすという活動、360RAに対応したスピーカーやAVアンプなどの機器を増やすという活動、このような活動から360RAの認知も拡大して、制作も活発化するという好循環を作り健全に保つことが重要とのこと。すでに世界中の配信事業者とのコンタクトは始まっており、制作に関しても欧米でのサービス開始から1年半で4000曲とかなりのハイペースでリリースが続いている。ほかにも、ライブやコンサートとの親和性が高いということから、リアルタイムでのストリーミングに対しても対応をしたいという考えがあるとのこと。これはユーザーとしても非常に楽しみなソリューションである。また、音楽ということにこだわらずに、オーディオ・ドラマなど、まずはオーディオ・オンリーでも楽しめるところから拡張を進めていくということだ。また、360RAの要素技術自体はSound ARなど様々な分野での活用が始まっている。
日本国内では、まさに産声を上げたところである360RA。ソニーの提案する新しい音楽の「体験」。立体音響での音楽視聴はこれまでにない体験をもたらすことは間違いない。そして改めてお伝えしたいのは、そのような技術がすでに現実に生まれていて、いますぐにでも簡単に体験できるということ。ソニーが生み出した新たな時代への扉を皆さんも是非開いてほしい。
>>Part 2:ソニー・ミュージックスタジオ 〜360 Reality Audio Mixing、この空間を楽しむ〜
*取材協力:ソニー株式会社
*ProceedMagazine2021号より転載
https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-2/
Post
2021/08/12
株式会社富士巧芸社 FK Studio様 / 〜機能美を追求した質実剛健なシステム設計〜
赤坂駅と赤坂見附駅のちょうど中程にあるビル。ガラス張りのエレベーターから赤坂の街を眺めつつ最上階まで昇ると、この春オープンしたばかりのFK Studioがある。テレビ・放送業界への人材派遣業務を主な事業とする株式会社富士巧芸社が新設し、映像/音響/CG制作で知られるクリエイター集団 株式会社ラフトがプロデュースしたこのスタジオは編集室2部屋、MA室1部屋で構成されており、「誰もが気持ちよく仕事ができること」を目指してシンプルかつ十分なシステムと超高速なネットワーク設備を備えている。現在の番組制作に求められる機能を質実剛健に追求したこのFK Studioを紹介したい。
富士巧芸社の成り立ちからFK Studio開設まで
株式会社 富士巧芸社
代表取締役 内宮 健 氏
株式会社富士巧芸社(以下、「富士巧芸社」)は、テレビ・放送業界への人材派遣業務を主な事業とする企業だ。映像編集やMA業務に関わる制作技術系スタッフが約60名、ADなどの制作に関わるスタッフが約100名、その他にも配信業務・データ放送運用・マスター室の運用などの非制作業務に関わるスタッフなど、現在約300名におよぶテレビ放送の専門スタッフを抱えている。
富士巧芸社のルーツは昭和34年創業の同名の企業にある。かつて四ツ谷にあったその富士巧芸社はテロップやフリップを中心とした美術系制作物を放送局に納めており、内宮氏は同社の社員としてテレビ局への営業を担当していたそうだ。2000年代に入り、テロップなどの制作物の需要が減少したことでかつての富士巧芸社はのれんを降ろすことになったが、「テレビからテロップがなくなることはない。これからは編集機でテロップを打ち込む時代になる」と考えた内宮氏は編集機オペレーターの派遣事業を開始する。その際に、愛着のある「富士巧芸社」という社名だけを譲り受けたというのが、現在の富士巧芸社の成り立ちである。かつての富士巧芸社と現在の富士巧芸社は別々の法人だが、放送業界におけるその長い歴史と実績は内宮氏を通して脈々と受け継がれている。
富士巧芸社がはじめて自社で編集室を持ったのは5年前。同社の派遣オペレーター第一号であり、現在はポストプロダクションチーム チーフマネージャーの洲脇氏の提言によるものだという。「リニア編集が主流だった時代には、編集室を作るには大きな投資が必要でした。しかし、パソコンを使ったノンリニア編集がメインになったことで機材購入にかかる費用は大きく下がりました。当社は派遣業ということで人材は十分に在籍していましたので、これなら自社で編集業務も請け負えるのではないかと考えたんです」(洲脇氏)。
株式会社 ラフト
代表取締役 クリエイティブ・ディレクター
薗部 健 氏
こうして、MAを除くフィニッシングまで行える同社初の自社編集室が銀座にあるマンションの一室に作られた。「4~5年して、ある程度需要があることがわかってきました。銀座では狭い部屋を5人で回してたので、もう少し広くしてあげたいと思ったのもあって」(内宮氏)と、今回のFK Studio設立への計画が動き出したそうだ。「それならMA室も必要だよね、という話になったのですが、当社はMA室に関する知識はまったくなかった。そこで、以前からお付き合いのあったラフトさんに相談しまして「薗部さん、お願いします!」ということに(笑)」(内宮氏)。
このような経緯でFK Studioは株式会社ラフト(以下、「ラフト」)がプロデュース、同社代表取締役・クリエイティブディレクターである薗部氏がフルスケルトンの状態から設計することになった。最上階のフロアをフルスケルトンから作り直すというのは、天井高が確保でき、設計の自由度が高いというメリットもあるが、今回は飲食店からの転用であったため、空調や水回りをすべてやり直す必要があったり、消防法の関係で不燃認定を受けている素材を使用する必要があったりしたそうだ。スタジオでよく見るジャージクロスは難燃認定のため吸音材に使用せず、壁も天井もすべて不燃材を用いている。飲食店からの転用が意外な課題をもたらしていたようだ。
機能美にあふれ、誰もが仕事をしやすい環境
「お客様を迎える場所なので、内装などの見た目にはこだわりたかった」(内宮氏)というFK Studioは、実に洗練された暖かみを感じさせる空間になっている。エレベーターの扉が開くとそこは明るく開放的なロビーになっており、ここはそのまま各スタジオへの動線となっている。あざやかなオレンジ色の椅子が目を引くが、躯体の柱と色を合わせた漆色のテーブルがシックな雰囲気を演出し、ツヤ出し木製パネルの壁がそれらをつなげて、明るいながらも全体的に落ち着いた雰囲気をたたえた内装だ。このように印象的なスペースとなったのは、薗部氏の"機能美”へのこだわりにありそうだ。「見た目が美しくてもハリボテのようなものじゃダメ。ヘビーデューティでありながら美しい…作品を生み出す場所は、そうした"機能美"を備えていることが大切だと思ってます。天井のレールは垂直に、吸音板もスクウェアに、きっちり取り付けてもらいました」(薗部氏)。
📷
明るい色づかいながら、落ち着いた雰囲気のロビー。
こうしたコンセプトは居住性のみならず、スタジオ機能の面にも行き届いている。「編集オペレーターやエンジニアなどの社内スタッフはもちろん、来てくれるお客様にとっても、全員がすごしやすい…仕事がしやすい環境を作るのが一番だと考えていました。ひとが集まるところには自然に仕事が生まれる」(洲脇氏)とのコメントが印象的で、まさにスタジオ全体が内実をともなった美しさに溢れた空間になっているのだと強く感じさせる。
"ヘビーデューティ"なスタジオ設備
FK Studioの機材構成は一見シンプルだが、現代の番組制作をスムーズに行うための必要かつ十分な機能が備わっており、まさに"機能美"ということばがぴったりな仕様となっている。機材構成をメインで担当したのは、編集室が富士巧芸社 洲脇氏、MA室がラフト 音響クリエイターの髙橋氏だ。
📷
編集室 Edit 1。ディスプレイはすべて4K HDR対応。
2部屋ある編集室は、機材面ではまったく同じ構成となっている。メインとなるMac Proと、テロップ制作などを行うためのサブ機であるMac miniの2式構成、NLEはすべてAdobe Premier Proだ。「この規模のポスプロであれば、お客様もほぼPremierで作業している」(洲脇氏)というのが選定の理由だ。この2式のNLEを中心に、映像波形モニター、音声モニター用のステレオスピーカーとラック型のミキサー、そしてクライアント用の映像モニターといたってシンプルな構成となっている。しかし、ディスプレイはすべて4K対応、Mac Proは16コアプロセッサ・96GBメモリに加えGPUがRadeon Pro W5700X x 2に増設されたパワフルな仕様。さらに、ローカルストレージとして8TBの高速SSDレイドが導入され、4Kワークフローでもストレスのない制作が可能となっている。
📷
館内共用機器ラックには12Gルーターやネットワーク機器などを収容。各部屋からの信号は、館内のどのディスプレイにでも出力することができる。
FK Studioの大きな特徴のひとつに、現代的なネットワーク設備が挙げられる。共有ストレージにはSynologyのNASが導入され、すべてのスタジオ内ネットワークはひとつのルーターに接続されている。そのため、ひとつの編集室で書き出した素材をもうひとつの編集室やMA室と瞬時に共有することが可能だ。さらにいえば、ひとつの映像信号をFK Studio内のどのモニターにも出力できるため、ゲストの人数が多い時などはロビーで試写をすることも可能となっている。ちなみに、ラフトでも同じNASを使用しており、どちらのNASも2社が相互にアクセス可能な状態になっているという。「クラウドに近い環境。こうしたパートナーを増やしていけば、番組データの交換なども簡単になるかもしれませんね」(薗部氏)とのことだ。
社内ネットワークはルーターやケーブルも含めてすべて12G対応、インターネットは下り最大2Gbpsの通信速度を誇るNURO Biz。速度的なストレスは皆無の制作環境に仕上がっている。「今まではローカルのデバイスがボトルネックになるケースが多かった。ここ(FK Studio)はローカルデバイスのスペックがかなりいいので、逆にネットワークがボトルネックにならないように注意した」(薗部氏)ということだが、さらに、2Gbpsのインターネット帯域を「ゲスト用と社内用にルーターを分けている。そのため、ゲストが増えても館内ネットワークの速度には影響がない」(薗部氏)という徹底ぶり。まさに、"ヘビーデューティ"という表現がしっくりくる。「編集室にお客様が立ち合わないケースは増えています。完成品をチェックで送る時でも、ネットワークのスピードが高いので助かっている」(洲脇氏)とのことだ。
番組制作にとっての"普遍性"を示したMA室
📷
Pro Tools | S3を採用したことで、大きなゆとりを確保したMA室の作業デスク。台本の位置などを柔軟に運用できるのがメリットだ。メーター類や操作系も、見やすく手の届く範囲にまとめられており、作業に集中できる環境が整えられている。
NAルームが併設されたMA室はステレオ仕様、Pro ToolsシステムはHDXカード1枚、HD I/O、Sync HD、Pro Tools | S3という仕様の1式のみ、そして、Mac miniによるMedia Composerワークステーションという、こちらもシンプルな構成。「最高スペックを視野に入れたシステムを組むと、どうしても甘い部分が出てきてしまう。ならば最初から割り切ってステレオとかにした方がいい。そのかわり、4K HDR対応だし、Mac Proもスペックを整えたもの(8コアIntel Xeon W CPU/96GBメモリ/1TB SSD + BMD DeckLink Studio 4Kビデオカード)。モニターもSonyの業務用にして、TB3HDDレイドも入れてます」(薗部氏)という通り、MA制作に必要な機能に的をしぼることで、近年重視されるようになってきたスペックの部分をしっかりとフォローした"基礎体力"の高いシステムになっている。
I/OはHD I/O、コントロールサーフェスはPro Tools | S3だ。今回のスタジオ設計においては、大型コンソールを入れることははじめから考えていなかったという。「複数のパラメーターを同時に操作したい場合はコンソールが必要ですが、ワークのスタイルを大型コンソールに合わせるよりも、原稿を置く位置など作業スペースのレイアウトをその都度変えられたりといったことの方が重要かな、と。」(髙橋氏)ということが理由のようだ。I/Oについては「ぼくひとりで使うなら、どんなに複雑でも面白いものを作ればいいのでPro Tools | MTRXも考えましたが、誰が来ても見れば使えるというところを重視した結果、HD I/Oという選択になりました」(髙橋氏)という。モニターコントローラーはGrace Design m905が選ばれており、音質はもちろんのこと、その使いやすさが選定の大きな理由となっている。
📷
MA室併設のナレーションブース。圧迫感がなく居住性の高いスペース。
「音の入り口と出口にはリソースを割きたかった」(髙橋氏)ということで、マイクとスピーカーは奇をてらわずも最高峰のものが選ばれている。スピーカーはメインがGenelec 8341A、スモールスピーカーとしてFocal Shape 40が選ばれている。NA用マイクはNeumann U87 Ai、マイクプリはMillenia HV-3Cだ。8341Aは近年ポスプロスタジオでの導入事例が増えているGenelec社の同軸モデルのひとつ。以前、ラフトで代替機として借りた際にそのクオリティが気に入り、今回の選定に至ったという。この機種についての印象を髙橋氏に伺うと、「鳴りと定位感のよさから、番組をやるにあたって聴きやすいという点が気に入っています。以前のGenelecと比べると、最近のモデルはより解像度を重視しているように感じます。」(髙橋氏)という答えが返ってきた。こちらにはGLMを使用したチューニングが施されている。スモールについては「今時のよくある小さめのモニタースピーカーって、どうしても低音を出そうとしているように感じるんです。そもそも、スモールスピーカーを使うというのはテレビの条件に近づけるという意図があったのに、(最近のスピーカーだと)スモールに切り替えると余計に音がこもっちゃってよくわからない、ということが多かったんです。その点、Shapeシリーズはそうしたこもりとかを感じずに、使いやすいな、と感じています。」(髙橋氏)とMA向きな一面をShape 40に見出しているようだ。
📷
MAスタンダードの地位を獲得した感のあるGenelec Oneシリーズ。FK Studioでは8341Aが採用されている。解像度の高さだけでなく、鳴りと定位感の良さが好評だ。自前の補正システムGLMも人気の理由だろう。
📷
独自素材を積極的に開発し、引き締まった音像と定位感のよさに定評のあるFocal Shape 40。髙橋氏は自宅でもShapeシリーズを使用しているとのことで、大きな信頼を寄せている。
ビデオ再生はPro Toolsのビデオトラックだけでなく、Media Composer、Video Slave 4 Proでの再生も可能。スタジオ内のネットワークが高速なため、「編集室からNASにProResで書き出してもらったものをMedia Composerにリンクして再生することが多いです。」(髙橋氏)とのこと。ちなみに、ビデオI/OにはAvid DNxIVが採用されている。オーディオプラグインはWAVES Diamond、iZotope RX Post Production Suite、Nugen Audio Loudness Toolkit 2と、MAワークのスタンダードが並ぶ。特にRXについては「RXなしでは最近のMAは成り立たない」(髙橋氏)と、大きな信頼を寄せる。プラグインに関してもこうしたスタンダードなラインナップに集約することで、FK Studioで制作したセッションがほかのスタジオで開けないといったことを未然に防いでいる。まさに、「誰にとっても気持ちよく仕事ができる環境」作りを徹底しているように思えた。ラウドネス関連ではNugen Audioのほかに、テープ戻し用としてCLARITY M STEREOとFourbit LM-06も設置されている。はじめからあえて的をしぼることで実現された一縷の隙もないシステムは、現代の番組MAにとってひとつの"普遍性"を示していると言えるのではないだろうか。
📷
m905本体、Mac mini、DNxIV。普段は触らない機器もビシッと美しく設置されているところに、薗部氏の透徹した美学が垣間見える。
📷
Clarity M Stereoとm905リモコン。必要なボタンがハードとして存在していることは、スムースなMAワークには欠かせない要素だ。手軽に位置を動かせるコンパクトさも、スタジオのコンセプトにマッチしている。
細部まで徹底的にシビアな視線で設計されていながら、訪れる者には明るさと落ち着きを兼ね備えた居心地のよい空間となっているFK Studio。「仕上がりはイメージ以上。ラフトさんのお力添えなしにはここまでのものは作れませんでした。」という内宮氏。これからの展望をたずねると「これを機に、2号、3号とスタジオを増やして行けたらいいですね。」と答えてくださった。FK Studioから生まれた番組を観られる日が、今から待ち遠しい限りだ。
(前列左より)株式会社 富士巧芸社 代表取締役 内宮 健 氏、株式会社 ラフト 代表取締役 / クリエイティブ・ディレクター 薗部 健 氏 (後列左より)ROCK ON PRO 沢口耕太、株式会社 富士巧芸社 映像グループ ポストプロダクションチーム チーフマネージャー 洲脇 陽平 氏、株式会社ラフト 音響クリエイター 髙橋 友樹 氏、ROCK ON PRO 岡田詞朗
*ProceedMagazine2021号より転載
Broadcast
2021/08/06
株式会社毎日放送様 / ~多様なアウトプットに対応する、正確な回答を導き出せる音環境~
以前にも本誌紙面でご紹介した毎日放送のMA室がリニューアルした。前回のご紹介時にはAvid S6とMTRXの導入を中心にお伝えしたが、今回はそれらの機材はそのままにして内装のブラッシュアップとシステムの大幅な組み換えを行っている。さらには、準備対応であったイマーシブ・オーディオへの対応も本格化するという更新となった。
システム内の役割を切り分けるということ
まずはシステムの更新の部分を見ていこう。今回の更新ではAvid S6はそのままに、モニター周り、Avid S6のマスターセクションをどのように構築するのかという部分に大きなメスが入った。これまでのシステムはスタジオに送られる全ての信号がMTRXに入り、Avid S6のMTMによるモニターセクションが構築されていた。その全ての信号の中にはPro Toolsからの信号も含まれDigiLinkで直接MTRXの入力ソースの一つとして扱われる仕様である。
このシステムをどのように変更したのかというと、まずはMTRXをPro ToolsとDigiLinkで接続し、Audio Interfaceとして使用しないこととした。昨今のシステムアップのトレンドとは逆の発想である。これにはもちろん理由があり、トラブルの要因の切り分けという点が大きい。従来は1台のPro Toolsのシステムであったものが、今回の更新で2台に増強されているのだが、こうなるとトラブル発生時の切り分けの際に、全てがMTRXにダイレクトに接続されていることの弊害が浮かび上がってくるわけだ。MTRXへダイレクトに接続した場合には、Pro ToolsのシステムからAudio Interface、モニターセクションといったスタジオ全体が一つの大きなシステムとなる。俯瞰するとシンプルであり、何でも柔軟に対応できるメリットはあるが、トラブル時にはどこが悪いのか何が問題なのかへたどり着くまで、システムを構成する機器が多いために手間がかかる。これを解決するために、2台に増強されたそれぞれのPro ToolsにAudio Interfaceを持たせ、スタジオのマスターセクションにあたるMTRXへ接続をするというシステムアップをとった。
これは、システムが大きくなった際には非常に有効な手法である。Avid S6以前のシステムを思い返せば、レコーダー / プレイヤー / 編集機としてのPro Tools、そしてミキシング、スタジオのシステムコアとしてのミキサー。このようにそれぞれの機器の役割がはっきりしていたため、トラブル時にどこが悪いのか、何に問題が生じているのかということが非常に明確であった。この役割分担を明確にするという考え方を改めて取り入れたAvid S6のシステムが今回の更新で実現している。
📷Audio Interface関係、VTR、パッチベイは、室内のディレクターデスクにラックマウントされている。手前の列から、映像の切替器、VTR、2台のPro Toolsに直結されたAvid純正のInterface。中央の列には、AntelopeのMasterClock OCX HD、RupertNeve Design 5012、Avid MTRXなど、システムのコアとなる製品が収まる。右列は、パッチベイとBDプレーヤーが収まっている。左から右へと信号の流れに沿ったレイアウトになっている。
MTRXをスタンドアローンで運用する
今回の更新により、MTRXは純粋にAvid S6のモニターセクション、マスターセクションとして独立し、Pro Toolsシステムとは縁が切れている状態となる。MTRXはどうしてもPro ToolsのAudio Interfaceという色合いが強いが、スタンドアローンでも利用できる非常に柔軟性の高い製品である。弊社ではこれまでにも、Artware Hubでの36.8chシステムのモニタープロセッサーとして、また松竹映像センターにおけるダビングシステムのマスターセクションとしてなど、様々な形でMTRXをスタンドアローンで活用していただいている。常にシステムに対しての理解が深い方が利用するのであれば、一つの大きなシステムとしたほうが様々なケースに対応でき、物理パッチからも解放されるなど様々なメリットを享受できるが、不特定多数の方が使用するシステムとなると、やはり従来型のミキサーとレコーダーが独立したシステムのほうが理解が早いというのは確かである。
ある意味逆説的な発想ではあるが、一つの大きく複雑なシステムになっていたものを、紐解いてシンプルな形に落とし込んだとも言えるだろう。この部分に関して、ミキサーとしてのマトリクス・ルーティングというものは、放送用のミキサーで慣れ親しんだものなので抵抗なく馴染める。今回のシステムは、そういったシステムとの整合性も高く、利用する技術者にとってはわかりやすいものとすることができたとお話をいただいている。MTRXをスタンドアローンで運用するため、今回の更新ではDADman を常に起動しておくための専用のPCとしてMac miniを導入いただいている。これにより、まさにAvid S6がMTRXをエンジンとした単体のコンソールのように振る舞うことを実現したわけだ。
📷もう一部屋のMA室でも採用した、コンソールを左右に移動させるという仕組みをこの部屋にも実装している。編集時にはキーボード・マウスなどがセンターに、MIXを行う際にはフェーダーがセンターに来る、という理想的な作業環境を実現するために、コンソール自体を左右に移動できるわけだ。これであれば、ミキサーは常にセンターポジションで作業を行うことができる。なお、専用に作られたミキサースタンドにはキャスターがあり、電動で左右に動く仕組みだ。これにより左右に動かした際、位置が変わることもなく常に理想的なポジションを維持できる。ちなみに一番右の写真はコンソールを動かすための専用リモコンとなっている。
イマーシブ・オーディオへの対応は、モニターセクションとしてスタンバイをする、ということとしている。5.1chサラウンドまでは常設のスピーカーですぐに作業が可能だが、ハイトスピーカーに関しては、もう一部屋のMA室との共有設備となる。これまでもトラスを組んで、仮設でのハイトチャンネル増設でイマーシブ・オーディオの制作を行ってきたが、モニターセクションのアウトとしても準備を行い、ハイト用のスピーカーをスタンドごと持ち込めば準備が完了するようにブラッシュアップが図られた。これにより、5.1.4chのシステム、もしくは7.1.2chのシステムにすぐに変更できるようになっている。地上波ではイマーシブ・オーディオを送り出すことはできない。とはいえ、インターネットの世界ではイマーシブ・オーディオを発信する環境は整いつつある。そしてこれらを見据えて研究、研鑽を積み重ねていくことにも大きな意味がある。まさにこれまでも積極的に5.1chサラウンド作品などを制作してきた毎日放送ならではの未来を見据えたビジョンが見える部分だ。
全てに対して正確な回答を導き出すための要素
📷一番作業としては多いステレオ用のラージスピーカーはMusik Electronic Geithain RL901KとBasis 14Kの組み合わせ。2本のSub Wooferを組み合わせ、2.1chではなく2.2chのシステムとしている。なお、サラウンド用には同社RL906が採用されており、こちらのスピーカースタンドは特注品となっている。
今回のシステム更新において、一番の更新点だと語っていただいたのが、スピーカーの入れ替え。古くなったから更新という既定路線の買い替えに留まらない、大きな含みを持った入れ替えとなっている。従来、この部屋のスピーカーはDynaudio Air6が導入されていたのだが、それをもう一つのMA室に導入されているMusik Electoronic Gaithin社の同一モデルへと更新。Musik社のスピーカーは、サブ(副調整室)にも採用されており、今回の更新で音声の固定設備としてのスピーカーをMusikに全て統一することができたわけだ。同じモデルなのでそのサウンドのキャラクターを揃え、毎日放送としてのリファレンスの音を作ることができたこととなる。
音質に対してのこだわりである、光城精機のAray MK Ⅱはコンソールの足元に設置されている。1台あたりで1000VAの出力を持つAray MK Ⅱが3台、スピーカーの電源及び最終段のアナログMTRX I/Oの電源が供給されている。
「Musikの音」という表現をされていたのが非常に印象的ではあるが、このメーカーのスピーカーは他社には真似のできない独自の世界観、サウンドを持っている。この意見には強く同意をするところである。同軸の正確な定位、ふくよかな低域、解像度の高い高域と言葉では伝えられない魅力を多く持つ製品である。お話を伺う中で、Musikに対してスピーカー界の「仙人」という言葉を使われていたのだが、たしかにMusikはオーディオエンジニアにとって「仙人」という存在なのかもしれない。いろいろなことを教えてくれる、また気づかせてくれる、そして、長時間音を聞いていても疲れない、まさに理想のスピーカーであるとのことだ。
放送局にとってMusikというスピーカーはハイクオリティではないかという意見も聞いたことがある。その意見は正しい部分もあるのかもしれないが、放送局だからこそ様々なアウトプットに対しての制作を求められ、どのような環境にも対応した音環境を持っていなければならない。そのためには、全てに対して正確な回答を導き出せる音環境が必要であり、ハイクオリティな環境であることは却って必要な要素であるというお話をいただいた。筆者もまさにその通りだと感じている。地上波だけではなく様々なアウトプットへの制作が求められるからこそ、ベストを尽くすことへの重要性が高まっているということは間違いない。
このハイクオリティな音環境を象徴するような機器が光城精工のArray 2の導入であろう。一見コンシューマ向け(オーディオマニア)の製品というイメージもあるかもしれないが、光城精工はスタジオ向け電源機器で一斉を風靡したシナノから独立された方が創業されたメーカー。もちろんプロフェッショナル業界のことも熟知した上での製品開発が行われている。Array 2は音響用のクリーン電源として高い評価を得ており、絶縁トランスでも単純なインバーターでもなくクリーン電源を突き詰めた、これも独自の世界を持った製品である。このArray 2が今回の更新ではスピーカー、モニタリングの最終アナログ段の電源として導入されている。アウトプットされるサウンドに対して絶対の信頼を持つため、また自信を持って作品を送り出すために、最高の音環境を整えようという強い意志がここからも読み取ることができる。
これらの更新により、音環境としては高さ方向を含めたマルチチャンネルへの対応、そしてハイレゾへの対応が行われ、スペックとして録音再生ができるということではなく、それらがしっかりと聴いて判断ができる環境というものが構築されている。Dolby Atmos、360 Reality Audio をはじめとするイマーシブ・オーディオ、これから登場するであろう様々なフォーマット、もちろん将来への実験、研鑽を積むためのシステムでもある。頻繁に更新することが難しいスタジオのシステム、今回の更新で未来を見据えたシステムアップが実現できたと強く感じるところである。そして、実験的な取り組みもすでにトライされているようで、これらの成果が実際に我々の環境へ届く日が早く来てほしいと願うばかりだ。この部屋で制作された新しい「音」、「仙人」モードでミックスされた音、非常に楽しみにして待つことにしたい。
(左)株式会社毎日放送 総合技術局 制作技術センター音声担当 部次長 田中 聖二 氏、(右)株式会社毎日放送 総合技術局 制作技術センター音声担当 大谷 紗代 氏
*ProceedMagazine2021号より転載
Media
2021/07/28
IPビデオ伝送の筆頭格、NDIを知る。〜ソフトウェアベースでハンドリングする先進のIP伝送〜
弊社刊行のProceedMagazineでは以前より音声信号、映像信号のIP化を取り上げてきた。新たな規格が登場するたびにそれらの特徴をご紹介してきているが、今回はNewtek社によって開発された、現在世界で最も利用されているIPビデオ伝送方式のひとつであるNDIを取り上げその特徴をじっくりと見ていきたい。IPビデオ伝送ということは、汎用のEthernetを通じVideo/Audio信号を伝送するためのソリューション、ということである。いま現場に必要とされる先進的な要素を多く持つNDI、その全貌に迫る。
一歩先を行くIPビデオ伝送方式
NDI=Network Device Interface。SDI/HDMIとの親和性が高く、映像配信システムなどの構築に向いている利便性の高い規格である。このIP伝送方式は、NewTek社により2015年9月にアムステルダムで開催された国際展示会IBCで発表された。そして、その特徴としてまず挙げられるのがソフトウェアベースであるということであり、マーケティング的にも無償で使用できるロイヤリティー・フリーのSDKが配付されている。ソフトウェアベースであるということは、特定のハードウェアを必要とせず汎用のEthernet機器が活用可能であるということである。これは機器の設計製造などでも有利に働き、特別にカスタム設計した機器でなくとも、汎用製品を組み合わせて活用することで製品コストを抑えられることにつながっている。この特徴を体現した製品はソフトウェアとしていくつもリリースされている。詳しい紹介は後述するが、汎用のPCがプロフェッショナルグレードの映像機器として活用できるようになる、と捉えていただいても良い。
フルHD映像信号をを100Mbit/s程度にまで圧縮を行い、汎用のEthernetで伝送を行うNDIはIBC2015でも非常に高い注目を集め、NewTekのブースには来場者が入りきれないほどであったのを覚えている。以前、ProceedMagazineでも大々的に取り上げたSMPTE ST2110が基礎の部分となるTR-03、TR-04の発表よりも約2ヶ月早いタイミングで、NDIは完成形とも言える圧縮伝送を実現した規格として登場したわけだ。非圧縮でのSDI信号の置換えを目指した規格であるSMPTE ST-2022が注目を集めていた時期に、圧縮での低遅延リアルタイム伝送を実現し、ロイヤリティーフリーで特定のハードウェアを必要とせずにソフトウェアベースで動作するNDIはこの時すでに一歩先を行くテクノロジーであったということが言える。そして、本記事を執筆している時点でNDIはバージョン4.6.2となっている。この更新の中では、さらに圧縮率の高いNDI HX、NDI HX2などを登場させその先進性に磨きがかけられた。
📷これまでにもご紹介してきた放送業界が中心となり進めているSMPTE 2022 / 2110との比較をまとめてみた。大規模なインフラにも対応できるように工夫の凝らされたSMPTE規格に対し、イントラネットでのコンパクトな運用を目指したNDIという特徴が見てとれる。NDIは使い勝手を重視した進化をしていることがこちらの表からも浮かんでくるのではないだろうか。
100Mbit/s、利便性とクオリティ
NDIの詳細部分に踏み込んで見ていこう。テクノロジーとしての特徴は、前述の通り圧縮伝送であるということがまず大きい。映像のクオリティにこだわれば、もちろん非圧縮がベストであることに異論はないが、Full HD/30pで1.5Gbit/sにもなる映像信号を汎用のEhternetで伝送しようと考えた際に、伝送路の帯域が不足してくるということは直感的にご理解いただけるのではないだろうか。シンプルに言い換えれば一般的に普及しているGigabit Ethernetでは非圧縮のFull HD信号の1Streamすら送れないということである。利便性という目線で考えても、普及価格帯になっているGigabit Ethernetを活用できず10GbEthernetが必須になってしまっては、IPビデオ伝送の持つ手軽さや利便性に足かせがついてしまう。
NDIは当初より圧縮信号を前提としており、標準では100Mbit/sまで圧縮した信号を伝送する。圧縮することでGigabitEthernetでの複数Streamの伝送、さらにはワイヤレス(Wi-Fi)の伝送などにも対応している。4K伝送時も同様に圧縮がかかり、こちらもGigabit Ethernetでの伝送が可能である。もちろん10GbEthernetを利用すれば、さらに多くのStreamの伝送が可能となる。放送業界で標準的に使用されているSONY XDCAMの圧縮率が50Mbit/sであることを考えれば、十分にクオリティが担保された映像であることはご想像いただけるだろう。さらにNDI HXでは20Mbit/sまでの圧縮を行いワイヤレス機器などとの親和性を高め、最新の規格となるNDI HX2ではH.265圧縮を活用し、NDIと同様の使い勝手で半分の50Mbit./sでの運用を実現している。
Ethernet Cable 1本でセットできる
代表的なNDI製品であるPTZカメラ。
次の特徴は、Ethernet技術の持つ「双方向性」を非常にうまく使っているということだ。映像信号はもちろん一方向の伝送ではあるが、逆方向の伝送路をタリー信号やPTZカメラのコントロール、各機器の設定変更などに活用している。これらの制御信号は、SMPTE ST2022/ST2110では共通項目として規格化が行われていない部分だ。
NDIではこれらの制御信号も規格化され、メーカーをまたいだ共通化が進められている。わかりやすい部分としてはPTZカメラのコントロールであろう。すでにNDI対応のPTZカメラはPoE=Power over Ethernet対応の製品であれば、Ethernet Cable1本の接続で映像信号の伝送から、カメラコントロール、電源供給までが行えるということになる。従来の製品では3本、もしくはそれ以上のケーブルの接続が必要なシーンでも1本のケーブルで済んでしまうということは大きなメリットだ。天井などに設置をすることが多いPTZカメラ。固定設備としての設置工事時にもこれは大きな魅力となるだろう。NDIに対応した製品であれば、基本的にNDIとして接続されたEthernetケーブルを通じて設定変更などが行える。別途USBケーブル等を接続してPCから設定を流し込む、などといった作業から解放されることになる。
📷左がリモートコントローラーとなる。写真のBirdDog P200であれば、PoE対応なので映像信号、電源供給、コントロール信号が1本のEthernet Cableで済む。
帯域を最大限に有効活用する仕組み
NDIの先進性を物語る特徴はまだある。こちらはあまり目に見える部分ではないが、帯域保護をする機能がNDIには搭載されている。これは前述のタリー信号をカメラ側へ伝送できる機能をさらに活用している部分だ。実際にスイッチャーで選択されていない(双方向で接続は確立されているが、最終の出力としては利用されていない)信号は、データの圧縮率が高められたプロキシ伝送となる。本線として利用されていない(タリーの戻ってきていない)カメラは、自動的にプロキシ伝送に切り替わり帯域の圧縮を防ぐということになる。これは本線で使用されていたとしても、PinP=Picture in Picture の副画像などの場合でも同様だ。画面の1/4以上で利用されている場合にはフルクオリティの出力で、1/4以下であればプロキシへと自動的に切り替わる。双方向に情報を伝達できるNDIはスイッチャーが必要とする時にカメラ側へフルクオリティー画像の伝送をリクエストして切り替える、この機能を利用しているわけだ。数多くのカメラを同一のネットワーク上に接続した場合にはその帯域が不安になることも多いが、NDIであればネットワークの持つ帯域を最大限に有効活用する仕組みが組み込まれている。
信号伝送の帯域に関しての特徴はほかにもあり、MulticastとUnicastの切り替えが可能というのもNDIの特徴だ。接続が確立された機器同士でのUnicast伝送を行うというのがNDIの基本的な考え方だが、スイッチャーから配信機材やレコーダーといった複数に対して信号が送られる場合にはMulticastへと手動で切り替えが可能となっている。もちろん、全ての信号伝送をMulticastできちんと設定してしまえば、特に考えることもなく全ての機器で信号を受け取ることができるが、実際のシステム上では設定も簡易なUnicastで十分な接続がほとんどである。イントラネットを前提とするNDIのシステム規模感であれば、Unicast/Multicast両対応というのは理にかなっている。AoIPであるDanteも同じく基本はUnicastで、必要に応じてMulticastへと変更できるということからも、イントラであればこの考え方が正しいということがわかる。
また、IP機器ということで設定に専門的な知識が必要になるのではと思われるかもしれない。NDIは相互の認識にBonjour(mDNS)を使っている、これはDanteと同様である。同一のネットワーク上に存在している機器であれば自動的に見つけてきてくれるという認識性の高さは、Danteを使ったことのある方であれば体験済みだろう。もちろん、トラブルシュートのために最低限のIPの知識はもっておいたほうが良いが、ITエンジニアレベルの高いスキルを求められる訳ではない。汎用のEthernet Switchに対応機器を接続することで自動的に機器が認識されていき、一度認識すればネットワーク上に障害が生じない限りそのまま使い続けることができる。
IPビデオ伝送ならでは、クラウドベースへ
非圧縮映像信号のリアルタイム伝送を目的として策定された SMPTE ST-2110との比較も気になるポイントだろう。SMPTE ST-2110はMulticastを基本とした大規模なネットワークを前提にしており、Video PacketとAudio Packetが分離できるため、オーディオ・プロダクションとの親和性も考えられている。各メーカーから様々な機器が登場を始めているが、相互の接続性など規格対応製品のスタート時期にありがちな問題の解決中という状況だ。NDIについてはすでに製品のリリースから6年が経過し高い相互接続性を保っている。
NDIはイントラ・ネットワーク限定の単一のシステムアップを前提としているために、大規模なシステムアップのための仕組みという部分では少し物足りないものがあるかもしれない。WWW=World Wide Webを経由してNDIを伝送するというソリューションも登場を始めているが、まだまだNDIとしてはチャレンジ段階であると言える。その取り組みを見ると、2017年には200マイル離れたスタジアムからのカメラ回線をプロダクションするといった実験や、Microsoft Azure、AWSといったクラウドサーバーを介してのプロダクションの実験など、様々なチャレンジが行われたそうだ。なお、こちらの実験ではクラウドサーバーまでNDIの信号を接続し、そこからYoutube Liveへの配信を行うということを実現している。つまり、高い安定性が求められる配信PCをクラウド化し、複数のストリーミング・サービスへの同時配信を行う、といったパワフルなクラウドサーバーを活用したひとつの未来的なアイデアである。このようなクラウド・ベースのソリューションは、まさにIPビデオ伝送ならではの取り組みと言える。業界的にもこれからの活用が模索されるクラウド・サービス、SMPTE ST-2110もNDIもIP伝送方式ということでここに関しての可能性に大きな差異は感じないが、NDIが先行して様々なチャレンジを行っているというのが現状だ。
NDIをハンドリングする無償アプリ
次に、NDIの使い勝手にフォーカスをあてていくが、キーワードとなるのは最大の特徴と言ってもいいソフトウェアベースであるということ。それを端的に表している製品、NewTekが無償で配布しているNDI Toolsを紹介していこう。
NDIを活用するためのアプリケーションが詰まったこのNDI Toolsは、Windows用とMac用が用意され9種類のツールが含まれている。メインとなるツールはネットワーク内を流れるNDI信号=NDIソースのモニターを行うNDI Studio Monitor。NDI信号が流れるネットワークにPCを接続しアプリケーションを起動することで、信号のモニターがPCで可能となる。SDIやHDMIのようにそれぞれの入力を備えたモニターの準備は不要、シンプルながらもIPビデオ伝送ならではの機能を提供するソフトウェアだ。次は、VLCで再生した映像をNDI信号としてPCから出力できるようにするNDI VLC Plugin。こちらを立ち上げれば、外部のVideo PlayerをPCを置き換え可能となる。そして、PCから各種テストパターンを出力するNDI Test Patterns。高価な測定器なしにPCでテストパターンの出力を実現している。ここまでの3点だけでも、最初に調整のためのテストパターンを出力し、調整が終わったらVLCを使ってVideo再生を行いつつ、最終出力のモニタリングをNDI Srtudio Monitorで行う、といったフローがPC1台で組み上げられる。IPビデオ伝送ならではの使い勝手と言えるのではないだろうか。
利便性という面で紹介したいのがNDI Virtual Input。これはWindows用となり、PCが参加しているネットワーク内のNDIソースをWindows Video / Audioソースとして認識させることができる。つまり、NDIの入力信号をウェブカメラ等と同じように扱えるようになるということだ。なお、Mac向けにはNDI Webcam Inputというツールで同じようにWEBカメラとしてNDIソースを認識させることができる。すでにZoom / Skypeはその標準機能でNDIソースへの対応を果たしており、IPベースのシステムのPCとの親和性を物語る。そして、NDI for Adobe CCは、Premier / After Effectの出力をNDI信号としてPCから出力、イントラネット越しに別の場所でのプレビューを行ったり、プレイヤーの代替に使ったりとアイデアが広がるソフトウェアだ。他にもいくつかのソフトウェアが付属するが、ハードウェアで整えようとすればかなりのコストとなる機能が無償のソフトウェアで提供されるというのは大きな魅力と言える。
NDI Tools紹介ページ
NDI Toolsダウンロードページ
NDIの可能性を広げる製品群
続々と登場している製品群にも注目しておきたい。まずは、Medialooks社が無償で配布を行なっているSDI to NDI Converter、NDI to SDI Converter。Blackmagic Design DecklinkシリーズなどでPCに入力されたSDIの信号をNDIとして出力することができる、またその逆を行うことができるソフトウェアで、IPビデオらしくPCを映像のコンバーターとして活用できるアプリケーション。有償のソフトウェアとしてはNDI製品を多数リリースするBirdDog社よりDante NDI Bridgeが登場している。こちらはソフトウェアベースのDante to NDIのコンバーターで、最大6chのDante AudioをNDIに変換して出力する。ステレオ3ペアの信号を3つのNDI信号として出力することも、6chの一つのNDIの信号として出力することもできる使い勝手の良い製品だ。同社のラインナップにはNDI Multiveiwというアプリケーションもある。こちらは、その名の通りネットワーク上のNDI信号のMultiview出力をソフトウェア上で組み立て、自身のDisplay用だけではなくNDI信号として出力するという製品。ソースの名称、オーディオメーター、タリーの表示に対応し、複数のMuliviewをプリセットとして切り替えることが行える。
また、BirdDog社は現場で必須となるインカムの回線をNDIに乗せるというソリューションも展開、SDI / HDMI to NDIのコンバーターにインカム用のヘッドセットIN/OUTを設け、その制御のためのComms Proというアプリケーションをリリースしている。このソリューションはネットワークの持つ双方向性を活用した技術。映像信号とペアでセレクトが可能なためどの映像を撮っているカメラマンなのかが視覚的にも確認できるインカムシステムだ。もちろん、パーティラインなど高度なコミュニケーションラインの構築も可能。ハードウェアとの組み合わせでの機能とはなるが、$299で追加できる機能とは思えないほどの多機能さ。どのような信号でも流すことができるネットワークベースであることのメリットを活かした優れたソリューションと言える。
今回写真でご紹介しているのが、Rock oN渋谷でも導入している NewTek TriCaster Mini 4K、NDI自体を牽引しているとも言えるビデオスイッチャーである。NDIのメリットを前面に出した多機能さが最大のアピールポイント。先述した接続の簡便さ、また、双方向性のメリットとして挙げたPTZカメラのコントロール機能では対応機種であればIRIS、GAINなどの調整も可能となる。そして、TriCasterシリーズはソフトウェアベースとなるためVideo Playerが組み込まれている、これもビデオスイッチャーとしては画期的だ。さらには、Video Recorder機能、Web配信機能などもひとつのシステムの中に盛り込まれる。肝心のビデオスイッチャー部もこのサイズで、4M/E、12Buffer、2DDRという強力な性能を誇っているほか、TriCasterだけでクロマキー合成ができたりとDVEに関しても驚くほど多彩な機能を内包している。
📷
NDIを提唱するNewTekの代表的な製品であるTriCasterシリーズ。こちらはTriCaster Mini 4Kとなる。コンパクトな筐体がエンジン部分、4系統のNDI用の1GbEのポートが見える。TriCasterシリーズは、本体とコントロールパネルがセットになったバンドルでの購入ができる。写真のMini 4Kのバンドルは、エンジン本体、1M/Eのコンパクトなコントローラー、そしてSpeak plus IO 4K(HDMI-NDIコンバーター)が2台のバンドルセットとなる。そのセットがキャリングハンドルの付いたハードケースに収まった状態で納品される。セットアップが簡単なTriCasterシリーズ、こちらを持ち運んで使用するユーザーが多いことの裏付けであろう。
すでにInternetを越えて運用されるNDI
イントラ・ネットワークでの運用を前提としてスタートしたNDIだが、すでにInternetを越えて運用するソリューションも登場している。これから脚光を浴びる分野とも言えるが、その中からも製品をいくつか紹介したい。まずは、Medialooks社のVideo Transport。こちらは、NDIソースをインターネット越しに伝送するアプリケーションだ。PCがトランスミッターとなりNDI信号をH.265で圧縮を行い、ストリーミングサイズを落とすことで一般回線を利用した伝送を実現した。フルクオリティの伝送ではないが、汎用のインターネットを越えて世界中のどこへでも伝送できるということに大きな魅力を感じさせる。また、データサイズを減らしてはいるが、瞬間的な帯域の低下などによるコマ落ちなど、一般回線を使用しているからこその問題をはらんでいる。バッファーサイズの向上など、技術的なブレイクスルーで安定したクオリティーの担保ができるようになることが期待されるソリューションだ。
BirdDog社ではBirdDog Cloudというソリューションを展開している。こちらは実際の挙動をテストできていないが、SRT=Secure Reliable Transportという映像伝送プロトコルを使い、インターネット越しでの安定した伝送を実現している。また、こちらのソリューションはNDIをそのまま伝送するということに加え、同社Comms ProやPTZカメラのコントロールなども同時に通信が可能であるとのこと。しっかりと検証してまたご紹介させていただきたいソリューションだ。
Rock oN渋谷でも近々にNewTek TriCasterを中心としたNDIのシステムを導入を行い、製品ハンズオンはもちろんのことウェビナー配信でもNDIを活用していくことになる。セットアップも簡便なNDIの製品群。ライブ配信の現場での運用がスタートしているが、この使い勝手の良さは今後のスタジオシステムにおけるSDIを置き換えていく可能性が大いにあるのではないだろうか。大規模なシステムアップに向いたSMPTE ST-2110との棲み分けが行われ、その存在感も日増しに高くなっていくことは想像に難くない。IP伝送方式の中でも筆頭格として考えられるNDIがどのようにワークフローに浸透していくのか、この先もその動向に注目しておくべきだろう。
*ProceedMagazine2021号より転載
Music
2021/07/21
Chimpanzee Studio 様 / 〜コンパクトスタジオのスタイルを広げるDolby Atmos〜
本職はプロのミュージシャン。ドラマーを生業としつつ、スタジオの経営を鹿児島で行う大久保氏。そのスタジオにDolby Atmosの制作システムを導入させていただいたので詳細をお伝えしたい。かなり幅広い作品の録音に携わりつつも、自身もミュージシャンとしてステージに立つ大久保氏。どのようにしてスタジオ運営を始め、そしてDolby Atmosに出会ったのだろうか?まずは、スタジオ開設までのお話からお伺いした。
90年代のロスで積み重ねた感覚
それではスタジオ開設に至る経緯をたどってみたい。鹿児島出身である大久保氏は学生時代より楽器を始め、広島の大学に進学。その頃より本格的に音楽活動を始めていたということだ。普通であれば、学生時代に特にミュージシャンとしての道を見出した多くの場合は、ライブハウスの数、レコーディングセッションの数など仕事が多くある東京、大阪、福岡といった大都市をベースに活動を本格化させるのが一般的である。しかし大久保氏は日本を飛び出し、全てにおいて規模が大きく好きな音楽がたくさん生まれたロサンジェルスの地へと一気に飛び立った。ロサンジェルスは、ハリウッドを始めとしたエンターテイメント産業の中心地。大規模なプロジェクト、本場のエンターテイメントに触れることとなる。なぜ、アメリカ、そしてロサンジェルスを選んだのか?その答えは文化の違いとのことだ。アメリカには町ごとに音楽がある。ロス、ニューヨーク、シアトル、アトランタ、それぞれの街にそれぞれの音楽がある。そんな多様性、幅の広さが魅力だという。
Chimpanzee Studio(チンパンジースタジオ)
大久保 重樹 氏
ロスに移住してからは、ミュージシャンとして活躍をする傍ら、住んでいた近くにあったレコーディングスタジオのブッキングマネージメント、日本からのミュージシャンのコンサルなどを行ったということだ。時代は1990年代、まだまだ日本のアーティストたちもこぞってアメリカまでレコーディングに出かけていた時代。そこで、自身もミュージシャンで参加したり、スタジオ・コーディネイトを行ったりと忙しい日々を過ごしていたそうで、ロスでも老舗のSunset Soundやバーニー・グランドマンにも頻繁に通っていたというからその活躍がいかに本格的なものであったかが伺える。
そんな環境下で、スタジオによく出入りをし、実際にレコーディングを数多く経験するうちに、録音というものに興味が湧いてきたということだ。まずは、自身のドラムの音を理想に近づけたい、どうしたらより良いサウンドへと変わるのか?そういったことに興味を持った。そして、今でも現役として使っているBrent Averillのマイクプリを入手することになる。今では名前が変わりBAE Audioとなっているが、当時はまさに自宅の一角に作業場を設け、手作業で一台ずつ製品を作っていた文字通りガレージメーカーだった時代。創業者の名前をそのままにメーカー名をBrent Averillとしていたのも、自身の名前をフロントパネルにサイン代わりにプリントした程度、というなんとものどかな時代である。
大久保氏は、実際にBrent氏の自宅(本社?)へ出向き今でもメインで活用しているMic Preを購入したそうだ。そのエピソードも非常に面白いものなので少し紹介したい。Brentさんの自宅は大久保氏とは近所だったというのも訪問したきっかけだった。そしてそこで対応してもらったのが、なんと現Chandler Limitedの創業者であるWade Goeke氏。その後、世界を代表するアウトボードメーカーを立ち上げることとなるGoeke氏の下積み時代に出会っているというのは、ロサンジェルスという街の懐の深さを感じさせるエピソードだ。
📷Pro ToolsのI/O関連とMicPreは正面デスクの右側に設置。上のラックにはDirectout ANDIAMO、AVID MTRX。下のラックには、DBX 160A、Brent Avirill NEVE 1272、Drawmer 1960が入っている。
ネットの可能性を汲み取った1997年、鹿児島へ
そんなロスでの生活は1990年に始まったそうだが、時代はインターネットが普及への黎明期を迎えていた時期でもある。ロスと日本の通信は国際電話もあったが、すでにEメールが活用され始めていたということ。必然性、仕事のためのツールとしてインターネットにいち早く触れた大久保氏は「これさえあれば世界のどこでも仕事ができる」と感じた。アーティストならではなのだろうか?いち早くその技術の持つ可能性を感じ取り、活用方法を思いつく。感性と一言で言ってしまえば容易いが、人よりも一歩先をゆく感覚を信じ、鹿児島へと居を移すこととなる。ロスで知り合ったいろいろな方とのコネクション、人脈はインターネットがあればつながっていられる。それを信じて帰国の際に地元である鹿児島へと戻ったのである。帰国したのが1997年、日本ではこれからインターネットが本格的に普及しようかというタイミングである。その感性の高さには驚かされる。
鹿児島に帰ってからは、マンションでヤマハのアビテックスで防音した部屋を作りDAWを導入したということだ。最初はDigital PerfomerにADATという当時主流であったシステム。もちろんミュージシャンが本職なので、最初はエンジニアというよりも自分のスキルを上げるための作業といった色合いが強かったそうだ。そのエンジニアリングも、やればやるほど奥が深くどんどんとのめり込んで行き、自身でドラムのレコーディングができるスタジオの設立を夢に描くようになる。ドラムということで防音のことを考え、少し市街地から離れた田んぼの真ん中に土地を見つけ、自宅の引っ越しとともに3年がかりで作り上げたのが、現在のチンパンジースタジオだということだ。今は周りも住宅地となっているが、引っ越した当時は本当に田んぼの真ん中だったということ。音響・防音工事は株式会社SONAに依頼をし、Pro Toolsシステムを導入した。
スタジオのオープンは2007年。オープンしてからは、国内のアーティストだけではなく、韓国のアーティストの作品を手掛けることも多いということだ。チンパンジースタジオができるまではライブハウスや練習スタジオに併設する形での簡易的な録音のできる場所しかなかったそうで、鹿児島で録音に特化したスタジオはここだけとなる。チンパンジースタジオでの録音作業は、地元のCM音楽の制作が一番多いということだ。自身がメインで演奏活動を行うJazzはやはり多くなるものの、ジャンルにこだわりはなく様々なミュージシャンの録音を行っている。
地元ゆかりのアーティストがライブで鹿児島に来た際にレコーディングを行うというケースも多いということだ。名前は挙げられないが大御所のアーティストも地元でゆっくりとしつつ、レコーディングを行うということもあるということ。また面白いのは韓国のアーティストのレコーディング。特に釜山からレコーディングに来るアーティストが多いということだ。福岡の対岸に位置する釜山は、福岡の倍以上の人口を抱える韓国第2の都市でもある。しかし、韓国も日本と同様にソウルへの1極集中が起こっており、釜山には録音のできる施設が無いのが実情の様子。そんな中、海外レコーディング先としてこのチンパンジースタジオが選ばれることが多いということだ。
📷錦江湾から望む鹿児島のシンボルとも言える桜島。チンパンジースタジオは市街から15分ほどの距離にある。
📷Proceed Magazine本誌で別途記事を掲載している鹿児島ジャズフェスティバルのステッカーがここにも、大久保氏はプレイヤーとして参加している。
省スペースDolby Atmos環境のカギ
📷内装のブラッシュアップに合わせ、レッドとブラックを基調としスタイリッシュにリフォームされたコントロールルーム。右にあるSSL XL Deskはもともと正面に設置されていたものだが、DAWでの作業が増えてきたこと、またAtmosの制作作業がメインとなることを考えPCのデスクと位置が入れ替えられている。またリフォームの際にサラウンド側の回線が壁から出るようにコンセントプレートが増設されている様子がわかる。Atmos用のスピーカーはGenelec 8020、メインのステレオスピーカーはADAM A7Xとなっている。
スタジオをオープンさせてからは、憧れであったアナログコンソールSSL XL Deskを導入したりマイクを買い集めていったりと、少しづつその環境を進化をさせていった。そして今回、大きな更新となるDolby Atmos環境の導入を迎えることとなる。Dolby Atmosを知るきっかけは、とあるお客様からDolby Atmosでの制作はできないか?という問い合わせがあったところから。それこそAtmosとは?というところから調べていき、これこそが次の時代を切り拓くものになると感じたということ。この問い合わせがあったのはまさにコロナ禍での自粛中。今まで通りの活動もできずにいたところでもあり、なにか新しいことへの試みをと考えていたこともあってAtmos導入へと踏み切ったそうだ。
当初は、部屋内にトラスを組みスピーカーを取り付けるという追加工事で行おうという簡易的なプランだったというが、やるのであればしっかりやろうということなり天井、壁面の内装工事をやり直してスピーカーを取り付けている。レギュレーションとして45度という角度を要求するDolby Atmosのスピーカー設置位置を理想のポジションへと取り付けるためには、ある程度の天井高が必要であるが、もともとの天井の高さもあり取り付けの位置に関しても理想に近い位置への設置が可能であった。取り付けについても補強を施すことで対応しているという。合わせて、壁面にも補強を行いスピーカーを取り付けている。このような設置とすることで、部屋の中にスピーカースタンドが林立することを避け、すっきりとした仕上がりになっている。また、同時にワイヤリングも壁面内部に埋め込むことで、仕上がりの美しさにもつながっている。環境構築にはパワードスピーカーを用いるケースが多いが、そうなると、天井や後方のサラウンドスピーカーの位置までオーディオ・ケーブルとともに電源も引き回さなければならない。これをきれいに仕上げるためには、やはり内装をやり直すということは効果的な方法と言える。
📷天井のスピーカーはDolby Atmosのリファレンスに沿って、開き角度(Azimuth)45度、仰角(Elevation)45度に設置されている。天井が高く余裕を持って理想の位置へ設置が行われた。
今回のDolby Atmos環境の導入に関しては、内装工事という物理的にスピーカーを取り付ける工事もあったが、システムとしてはオーディオインターフェースをMTRXへと更新し、Dolby Atmos Production Suiteを導入いただいたというシンプルな更新となっている。XL Deskを使ったアナログのシステム部分はそのままにMTRXでモニターコントロールを行うAtmos Speakerシステムを追加したような形だ。録音と従来のステレオミキシングに関しては、今まで通りSSL XL Deskをメインとしたシステムとなるが、Dolby Atmosミックスを行う際にも従来システムとの融合を図った更新が行われている。やはり今回のシステム更新においてMTRXの存在は大きく、ローコストでのDolby Atmos環境構築にはなくてはならないキーデバイスとしてシステムの中核を担っている。
📷今回更新のキーデバイスとなったAvid MTRX、持ち出しての出張レコーディングなどでも利用するため別ラックへのマウントとなっている。
📷収録時のメインコンソールとなるSSL XL Desk。プレイヤーモニターへのCueMixなどはこのミキサーの中で作られる。アナログミキサーなのでピュアにゼロレイテンシーでのモニタリングが可能だ。
📷ブースはドラム収録できる容積が与えられ、天井も高くアコースティックも考えられた設計だ。
Dolby Atmos構築のハードルを下げるには
エンドユーザーに関しては、ヘッドフォンでの視聴がメインとなるDolby Atmos Musicだが、制作段階においてスピーカーでしっかりと確認を行えることは重要だ。仕込み作業をヘッドフォンで行うことはもちろん、ヘッドフォンでのミックスを最終的にしっかりと確認することは必要なポイントではある。しかし、ヘッドフォンでの視聴となるとバイノーラルのプロセッサーを挟んだサウンドを聴くことになる。バイノーラルのプロセスでは、上下や後方といった音像定位を表現するために、周波数分布、位相といったものに手が加わることとなる。サウンドに手を加えることにより、擬似的に通常のヘッドフォン再生では再現できない位置へと音像を定位させているのだ。これは技術的にも必要悪とも言える部分であり、これを無くすことは難しい。スピーカーでの再生であればバイノーラルのプロセスを通らないサウンドを確認することができ、プロセス前のサウンドで位相や定位などがおかしくないか、といったことを確認できる。これは業務として納品物の状態を確認するという視点からも重要だと言える。
制作の流れとしては、スピーカーで仕上げ、その後にヘッドフォンでどのように聴こえるかを確認するわけだが、バイノーラルのプロセスを通っているということは、ここに個人差が生じることになる。よって、ヘッドフォンでの確認に関して絶対ということは無い。ステレオでのMIXでもどのような再生装置で再生するのかによってサウンドは変質するが、その度合がバイノーラルでは耳の形、頭の形といった個人差により更に変化が生じるということになる。ここで、何をリファレンスとすればよいのかという課題が生じ、その答え探しの模索が始まったところだと言えるだろう。バイノーラルのプロセスでは音像を定位させた位置により、音色にも変化が生じる。そういったところをスピーカーとヘッドフォンで聴き比べながら調整を進めるということになる。
制作のノウハウ的な部分に話が脱線してしまったが、スピーカーでサウンドを確認できる環境が重要であるということをご理解いただけたのではないだろうか。省スペースなDolby Atmos環境であっても、物理的に複数のスピーカーを導入するといった機材の追加は、その後に制作される作品のクオリティのために必要となる。また、システムとしてはAvid MTRXの登場が大きい。モニターコントローラーや、スピーカーチューニングなどこれまでであれば個別に必要であった様々な機器を、この一台に集約することができている。チンパンジースタジオでは、このMTRXの機能をフルに活用し、機材の更新は最低限にして、内装更新やスピーカー設置といったフィジカルな部分に予算のウェイトを置いている。前号でご紹介した弊社のリファレンスルームもしかり、そのスペースにおけるキーポイント明らかにし、そこに焦点をあてて予算を投入することで、Dolby Atmos Music制作環境の構築はそれほど高いハードルにはならないということをご理解いただきたい。
大久保氏は今回Dolby Atmosのシステムを導入するまでは、完全にステレオ・オンリーの制作を行ってきており、5.1chサラウンドのミキシング経験もなかったそうだが、今回の導入でステレオから一気にDolby Atmos 7.1.4chへとジャンプアップしている格好だ。お話をお伺いしたときには、まだまだ練習中ですと謙遜されていたが、実際にミックスもすでに行っており本格稼働が近いことも感じられる。今後はアーティストの作品はもちろん、ライブ空間の再現など様々なことにチャレンジしたいと意気込みを聞くことができた。鹿児島で導入されたDolby Atmosが、その活動に新たな扉を開いているようである。
*ProceedMagazine2021号より転載
Education
2021/07/14
洗足学園音楽大学様 / ~作編曲と録音の両分野をシームレスに学ぶハイブリッド環境~
クラシック系、ポピュラー系と実に18もの幅広いコースを持ち業界各所へ卒業生を輩出している洗足学園音楽大学。その中で音楽音響デザインコースの一角である、B305教室、B306教室、B307教室、B308教室の4部屋についてシステムの更新がなされた。作編曲と録音の両分野をシームレスに学ぶ環境を整えることになった今回の更新ではAvid S6が採用され、またその横にはTrident 78が据えられている。アナログ・デジタルのハイブリッドとなった洗足学園音楽大学の最新システムをご紹介したい。
日本国内で一番学生数が多い音楽大学
神奈川県川崎市高津区にある洗足学園音楽大学は1967年に設立された音楽大学で、音楽の基盤となるクラシック系からポピュラー系まで実に多彩な18のコースを有している。大学院まで含めると約2300人の学生が在学しており、現在日本国内で一番学生数が多い音楽大学である。
音楽大学の基盤となるクラシック音楽系のコースはもちろんだが、新しい時代の音楽表現を模索するポピュラー音楽系のコースとして、音楽・音響デザイン、ロック& ポップス、ミュージカル、ジャズコースなど多彩なコースがあり、特に近年は声優アニメソングやバレエ、ダンス、そして舞台スタッフを育成する音楽環境創造コースなど、音楽の周辺分野まで学べるコースも設立されており、近年ますます学生が増え続けているのも特徴である。
各分野には著名な教授陣がおり、音楽制作の分野ではゲーム音楽作曲家の植松伸夫氏、伊藤賢治氏、劇伴音楽やアニソン作曲家の山下康介氏、渡辺俊幸氏、神前暁氏、さらに録音分野の教授として深田晃氏や伊藤圭一氏などが教鞭をとっている。卒業後は国内の主要オーケストラや声楽家、ミュージカル俳優、声優、劇伴作曲家やゲーム会社、大手音楽スタジオエンジニアなどへ卒業生を多数輩出している。
作編曲と録音の両分野をシームレスに
現在、洗足学園では3つのスタジオを含む複数の音響設備を備えた教室が多数稼働している。メインスタジオではオーケストラや吹奏楽など大編成のレコーディングが可能で、ピアノやドラムなどをアイソレート可能なスモールブースも完備されている。これをはじめとする3つのスタジオではSSLのアナログコンソールが導入されており、音楽・音響デザインコースの生徒だけではなく、複数のコースの生徒がレコーディングなどの授業やレッスンで使用している。また、その他にも音響設備が備えられている教室の中には、Auro-3D 13.1chシステムを設置したイマーシブオーディオ用の教室が2つあり、Pro Tools UltimateとFlux:: SPAT Revolutionが導入され、電子音響音楽の制作やゲーム音響のサウンドデザインの授業が行われている。
📷学内にある大編成レコーディングも可能なメインスタジオ、ブースは天井高を高く取られている。
今回教室の改修が行われたのは、洗足学園音楽大学(以下、洗足学園)の音楽音響デザインコースの一角である、B305教室、B306教室、B307教室、B308教室の4部屋だ。近年、音楽・音響デザインコースを専攻する学生が増えており、既存のスタジオに加えてマルチブース完備のスタジオ増設が急務となったそうだ。主科で作編曲を学ぶクリエイター系の学生は音源制作をPC内でほぼ完結しているケースが多いが、さらに録音のスキルも身につけることによってより質の高い音源を制作できるようになる。このように作編曲と録音の両分野をシームレスに学ぶことができる環境を整えることが今回のテーマの一つとなった。そして、今回の改修でのもう一つのテーマは、アナログとデジタルが融合されたハイブリッドシステムを形成すること。これは授業内容なども考慮された大学ならではのシステム設計だろう。
📷今回改修が行われた4部屋の中でも、Avid S6を中心としたコントロールルームの役割を持つB305教室。
Avid S6とTrident 78によるハイブリッド
新たに導入されたPro Tools | MTRXは既存のHD I/Oと合わせてAD/DA 48chの入出力が可能。
今回改修された4教室は大きさがそれぞれ異なり、合わせて使用することで1つのスタジオとして稼働できるよう計画された。一番広いB305教室は、Avid S6を中心としたコントロールルームの役割を持つ。既存のスタジオが主にアナログ機器を中心とした設計なのに対し、今回改修された4教室ではデジタル中心のシステムを組むように考慮され、B305教室の既存Pro Tools HDXシステムには、Pro Tools | MTRXが追加導入された。これらのAvid S6システムは、録音はもちろんMAでも数多く導入実績があり、さらにDolby Atmosなどのイマーシブ・オーディオへの拡張性も申し分ない。授業においてPro Toolsを使用することが前提の教室で、これらの点を考慮した結果、Avid S6以外の選択肢はなかったそうだ。
S6の構成は5Knob・24Faderで、サラウンドミックスに対応できるようにJoystick Moduleも追加されている。もともとこちらの教室ではサラウンドシステムを導入しており、以前はJL CooperのSurround Pannerが使用されていた。なお、Joystick Moduleはファブリックの統一感のために専用スペースに納められている。Pro Tools | MTRXはADカード24ch(うち8chはMic Pre付き)、DAカード24chとSPQカードを増設。さらに既存のHD I/O 2台と組み合わせて、Pro ToolsとしてはトータルでAD/DA 48chの入出力可能なシステムへと強化された。HAはPro Tools | MTRXに増設された8chのほか、SSLやRME、FocusriteなどのMic Preが30ch以上用意されており、好きなMic Preを選択可能のほか、最大48chのマルチチャンネル録音も可能とした。
📷アナログパッチベイとHA類。SSL、RME、FocusriteなどのMic Preが30ch以上用意されている。
今回の改修で特徴となったのが、Avid S6横に設置されたTrident 78。デジタルとアナログのハイブリットシステムを構築しているわけだが、授業ではスタジオ録音を初めて経験する1年生から上級生まで様々な学生が使用するため、デジタル機器だけではなくアナログ機器についての学習も行えるようにハイブリッドシステムが採用されたということだ。Trident 78をHAやサミング・ミキサーとしても使用できるよう、Monitor OutはPro Tools | MTRXへ、Direct OutとGroup OutはHD I/Oへとそれぞれパッチベイ経由で接続されている。特にTrident 78のMonitor Outがパッチベイ経由なのは、デジタル中心のシステムではあるが、授業内容によってはTridentのみでも授業が行えるように、あえてAvid S6とPro Tools | MTRXを経由せずにも使用できるように設計された。
📷B305教室にはAvid S6 5Knob-24faderとTrident 78が並ぶ、アナログ機器の学習も行えるハイブリッドなシステムだ。Trident 78の下にはAV AmpとBlu-rayプレイヤー、Apple TVが収められている。
また、Pro Tools | MTRXはモニターコントロールとしても設定された。AD/DAのチャンネル数が豊富に拡張されているが、モニター系統はいたってシンプルに構成されており、ソースはPro Tools、TridentとAV Ampの3つに絞られたが、5.1chサラウンドで構成されている。AV AmpはBlu-rayプレイヤーのほか、Apple TVとHDMI外部入力が用意されており、持ち込みPCなど映像だけではなく音声もメインスピーカーからサラウンドで視聴が可能だ。民生機系の機材をAV Ampにまとめることで、音声のレベル差なども解消させている。
S6マスターセクションの隣に用意された専用スペースにはJoystick Moduleが収められている。
ソース切り替えに連動させるため、Pro Tools | MTRXとAES/EBU接続されたClarity M。
ワイヤレスで揃えられたマウスとキーボードは授業形態の自由度を高めるために、Avid S6とセパレートされた。
独立して使用可能なB308教室
マルチブースのなかで一番広いB308教室にはドラムセットが常設され、マイクの種類や位置など集中的にマイキングに関する授業やレッスンができるよう考慮された。これらの回線は壁面パネル経由でB305教室での録音を可能にしたほか、B308教室に設置されているPro Toolsシステムでも録音可能である。
こちらの独立したPro ToolsシステムではインターフェイスにPro Tools | Carbonが採用され、こちらでもPro Toolsを中心とした授業が行えるよう設計された。こちらの教室は単独で授業を行うことが多く、作曲系のレッスンで使用されることも多いため、Pro Tools以外にもLogicがインストールされている。こういったHost DAWが複数ある場合、それぞれのアプリケーションで同一インターフェイスを使用することが想定される。従来のインターフェイスであれば、それぞれのアプリケーションを同時に起動することは難しいが、Pro Tools | CarbonのAVB接続ではPro Toolsと他アプリケーションで同時にI/Oを共有できる。AVBのストリームをPro Tools専用の帯域とCore Audioとして使用可能な帯域とで分けることにより、Pro Toolsと他DAWが同時起動できる仕組みは、こちらの教室では非常に有効な機能だ。
📷B308教室の独立したPro Tools システムはPro Tools | Carbonをインターフェイスにし、AVB接続による他DAWと同時起動できる仕組みを活かした授業が行われている。また、こちらのClarity MはUSB接続となっている。
また、Pro Tools | Carbonの特長でもあるハイブリッド・エンジンにより、DSPエンジンの恩恵を受けることができるため、DSPプラグインを使用したり、ローレイテンシーでレコーディングをする、といった作業も可能だ。音質についても講師陣からの評価が非常に高く、作編曲と録音の両分野をシームレスに学ぶという点でも最適なインターフェイスである。システムの中心がPro Tools | Carbonではあるが、こちらの教室でも様々な授業が行われるため、B305教室と同様にHDMI外部入力にも対応したシステムが構築されている。こちらはAvid S6やPro Tools | MTRXのようなシステムはないため、モニターシステムはSPL MTCが導入されている。
4教室を連結、1つのスタジオに
今回の改修において最大の特徴である教室間を連携したシステムは、録音ができるマルチブースを完備するためでもあるが、昨今のコロナ対策として密集を避けて録音授業やレッスンを実施できるようにする目的もある。各教室は一般の録音スタジオのようにガラス窓などは設けられていないが、その代わりに各教室壁面に用意されたパネルには音声トランク回線のほか映像回線も用意されており、全てがB305教室とB308教室へ接続することができる。
📷4分割表示されたモニタディスプレイ。画面の上部には小型カメラが設置されている。
B305教室の映像系ラック。Smart Videohubでソースアサインを可能にしている。
4部屋に用意されたテレビモニターシステムは、モニタディスプレイと上部に設置された監視カメラ用の小型カメラから構成されている。B305教室では、各教室のカメラ回線がBlackmagic Design Smart Videohub Clean Switch 12x12に接続されており、各部屋への分配を可能にしている。さらに組み込まれたMulti View 4で4部屋のカメラ映像をまとめて1画面で表示し、各教室同士でコミュニケーションを可能にした。それだけではなく、分散授業の際にはB305教室の模様を全画面でディスプレイに表示し、B305教室では各部屋の学生の様子をモニタリングしたりと、授業内容によって自由にカスタマイズ可能である。
もちろんCUE Boxも各部屋に配置されているが、授業という形態を取るにあたり受講者全員がヘッドホンモニタリングするということは難しい。そのため、CUEシステムの1、2chをSDIに変換してモニタディスプレイの回線にエンベデッドし、各モニタディスプレイに分配、ディスプレイの音量ボリュームを上げることで、ヘッドホンをしていない受講者もCUE回線を聴くことができるよう設計された。こういった活用方法は一般の音楽スタジオでは見られない設計で、大学の教室ならではの特徴である。
ジャンルを越えていく教室の活用法
実際にAvid S6を使用して、まずはじめにPro Tools | MTRXの音質の良さが際立ったという。音質に定評のあるPro Tools | MTRXは音楽大学の講師陣からも絶賛だ。さらに、Avid |S6はレイアウトモードが大変便利だという。24ch仕様でフェーダー数に限りがあるため、レイアウトをカスタマイズできる機能は操作性が良く、柔軟にレイアウトを組むことができて再現性も高い。レイアウトデータがセッションに保存されるところも特徴で管理がしやすいのも特徴だ。視認性の高さという点では、ディスプレイモジュールに波形が表示され、リアルタイムに縦にスクロール表示されるのも視覚的に発音タイミングを掴みやすいので、MAなどで活用できそうだという。
実際にこちらの教室で行われる授業は、録音系の授業やレッスンでは実習が中心となり、学生作品や他コースからの依頼などで様々なジャンル、編成でのレコーディングやトラックダウンをS6で学び、またTrident 78、SSL Logic Alpha、RME Octamic、MTRXなどの様々なマイクプリの比較や、アナログとデジタルの音質の聴き比べなども行う。今後はMAやゲーム音響制作のレッスンでも使用予定だそうで、今回導入したJoystick Moduleもぜひ活用していきたいと語る。ほかにも、ジャンルの枠にとらわれないコース間のコラボレーション企画や学生の自主企画が多く執り行われており、2021年3月には、声優アニメソングコース、ダンスコース、音楽・音響デザインコース、音楽環境創造コースのコラボレーションによる、2.5次元ミュージカルが上映された。このようにユニークな企画が多く開催されているのも、学生の自主性を重んじる洗足学園ならではである。
また、コロナ禍により全面的な遠隔授業やレッスン室にパーティションを設置するなど、万全の感染対策を施した上で、いち早く対面でのレッスンを実現したことや、年間200回以上も上演されている演奏会では、入場者数の制限や無観客の配信イベントとして開催するなど、学生の学びを止めることなく、実践を積み重ねることで専門性を磨き、能力や技術の幅を広げている。
今後、このS6システムを活用して学生作品のコンペを実施し、優秀作品をこのスタジオで制作することを検討しているという。音楽大学のリソースを活かして、演奏系コースとのレコーディングプロジェクトを進めたり、こちらの教室を中核にした学内の遠隔レコーディングネットワークをさらに充実させる計画もある。アフターコロナでどの音楽大学も学びのスタイルを模索している中ではあるが、このように洗足学園ならではの制作環境を実現し、学びの場を提供し続けていくのではないだろうか。
洗足学園音楽大学 音楽・音響デザインコースで教鞭をとる各氏。前列左から、伊藤 圭一氏、森 威功氏、山下 康介氏、林 洋子氏。また、後列はスタジオ改修に携わった株式会社楽器音響 日下部 紀臣氏(右)、ROCK ON PRO 赤尾真由美(左)
*ProceedMagazine2021号より転載
Media
2021/05/31
音楽配信NOW!! 〜イマーシブ時代の音楽配信サービスとは〜
レコードからCDの時代を経て、音楽の聴き方や楽しみ方は日々変化を続けている。すでにパッケージメディアの販売額を配信の売上が超えて何年も経過している。最初は1曲単位での販売からスタートした配信での音楽販売が、月額固定での聴き放題に移行、その月額固定となるサブスクリプション形式での音楽配信サービスに大きな転機が訪れている。新しい音楽のフォーマットとして注目を集めるDolby Atmos Music、SONY 360 Reality Audio。これらの配信を前提としたイマーシブフォーマットの配信サービスがサブスク配信上でスタートしている。いま、何が音楽配信サービスに起こっているかをお伝えしたい。
目次
いよいよ風向きが変わってきたハイレゾ
バイノーラルという付加価値が始まっている
イマーシブは一般的なリスナーにも届く
1.いよいよ風向きが変わってきたハイレゾ
レコードからCDへとそのメディアが変わってから、音楽の最終フォーマットは44.1kHz-16bitのデジタルデータという時代がいまだに続いている。Apple Music、Spotify等のサブスクサービスも44.1kHz-16bitのデジタルデータの圧縮である。そんな現実を振り返ると、2013年頃にハイレゾ(High Resolution Audio)という言葉が一斉を風靡した際に48kHz-24bit以上(これを含む)の音源をハイレゾとするという判断は間違っていなかったとも感じる。逆に言えば、制作の現場でデフォルトとなっている48kHz-24bitというデジタルデータは、まだまだその音源を聴くユーザーの元へ届けられていないということになる。ハイレゾ音源に関しては、付加価値のある音源として1曲単位での販売がインターネット上で行われている。DVD Audioや、SACDなどハイレゾに対応したパッケージも存在はしたが、残念ながらすでに過去のものとなってしまっている。これらの音源は残念ながら一般には広く普及せず、一部の音楽愛好家の層への浸透で終わってしまった。
もちろん、その素晴らしさは誰もが認めるところではあるが、対応した再生機器が高額であったり、そもそも音源自体もCDクオリティーよりも高価に設定されていたため、手を出しにくかったりということもあった。しかし再生機器に関してはスマホが普及価格帯の製品までハイレゾ対応になり、イヤフォンやヘッドフォンもハイレゾを十分に再生できるスペックの製品が安価になってきている。
そのような中、2019年よりハイレゾ音源、96kHz-24bitの音源をサブスクサービスで提供するという動きが活発化している。国内ではAmazon Music HD、mora qualitasが2019年にサービス開始、2020年にはDeezerがスタート、海外に目を向けるとTIDAL、Qobuzがハイレゾ音源のサブスクサービスを開始している。多くのユーザーが利用するSpotifyやApple Musicよりも高額のサブスクサービスだが、ほぼすべての楽曲をロスレスのCDクオリティーで聴くことができ、その一部はハイレゾでも楽しめる。この付加価値に対してユーザーがどこまで付いてくるのか非常に注目度が高い。個人的には「一度ロスレスの音源を聴いてしまうと圧縮音声には戻りたくない」という思いになる。ハイレゾの音源であればなおのこと、その情報量の多さ、圧縮により失われたものがどれだけ多いかを思い知ることになる。あくまでも個人的な感想だが、すでにサブスクサービスにお金を支払って音楽を楽しんでいるユーザーの多くが、さらにハイクオリティーなサブスクサービスへの移行を、たとえ高価であっても検討するのではないかと考えている。
執筆時点では日本国内でのサービスが始まっていないTIDAL。Dolby Atmos、SONY 360 Reality Audio、ハイレゾすべてが聴き放題の配信サービスとなっており、ミュージシャンのJAY-Zがオーナーのサブスク配信サービスとしても有名である。Dolby Atmosを聴くためには、HiFiプランに加入してDolby Atmos対応の端末(下部製品が一例)を利用することとなる。
2.バイノーラルという付加価値が始まっている
今の音楽の楽しみ方は、スマホで再生をして、ヘッドフォンやイヤホンで楽しむ、といった形態が大部分となっている。音楽のヘビーユーザーである若年層の部屋には、ラジカセはもちろん、スピーカーの付いた製品はすでに存在していない状況にある。高価なハイレゾ対応のオーディオコンポで楽しむのではなく、手軽にどこへでも音楽を持ち出し、好きなところで好きな曲を楽しむというのがサブスクサービスの利用者ほとんどの実態ではないだろうか。
好きな音楽を少しでも高音質に楽しみたい。そんな願いを手軽に叶えてくれるのがハイレゾのサブスクサービスである。原盤が96kHz/24bitというのは、ここ数年の作品であれば存在しているものも多い。また海外からはデジタル・リマスター版として過去の名盤が多数ハイレゾフォーマットで登場している。
さらに、音楽の楽しみ方に次の時代がやってきている。Dolby Atmos MusicとSONY 360 Reality Audio(以下、Sony 360RA)という2つのフォーマット。イマーシブ(3D)の音源である。後方や天井にスピーカーを設置して聴くのではなく、バイノーラルに変換したものをヘッドフォンで楽しむ。フォーマットを作ったメーカーもそういった楽しみ方を想定し、ターゲットにして作ったものだ。そしてこれらのフォーマットは、ハイレゾサブスクサービスのさらなる付加価値として提供が始まっている。Dolby Atmos Musicであれば、Amazon Music HD、TIDAL。Sony 360RAは、Amazon Music HD、Deezer、TIDALで楽しむことができる。すべてを楽しもうというのであれば、両者とも対応のTIDALということになる。
表1 主要音楽配信サービス概要(2021年5月現在) ※画像クリックで拡大
(※1)2021年5月追記
2021年後半にはSpotifyが「Spotify HiFi」としていくつかの地域でロスレス配信に対応することを発表しました。さらには、2021年6月にはApple Musicがロスレスとハイレゾ、そして空間オーディオ(Apple製品におけるイマーシブフォーマットの呼称)への対応を発表しています。
ただし、さすがに最新のフォーマットということで少しだけ制約がある。特にDolby Atmosに関しては再生端末がDolby Atmosに対応している必要があるが、これも徐々に対応機器が増えている状況。高価なものだけではなく、Amazon Fire HDといった廉価なタブレットにも対応製品があるのでそれほどのハードルではない。Amazon Music HDでの視聴は執筆時点ではEcho Studioでの再生に限られているのでここも注意が必要だ。また、本記事中に登場するQobuz、TIDALは日本国内でのサービスは提供前の状況となる。
こちらは国内ですでにサービス提供されているAmazon Music HD。このサブスク配信サービスもDolby Atmos、SONY 360 Reality Audio、ハイレゾすべてが聴き放題。ただし、Dolby Atmos、SONY 360 Reality Audioを楽しむことができるのはAmazon Echo Studioのみという対応状況になる。
3.イマーシブは一般的なリスナーにも届く
これらのハイレゾサブスクサービスの展開により、手軽にイマーシブ音響を楽しむ土壌はできあがる。バイノーラルで音楽を楽しむということが普通になるかもしれない。もちろんハイレゾを日々聴くことの楽しみもある。ここで注目をしたいのは、ハイレゾの魅力によりハイレゾサブスクサービスを楽しみ始めたユーザーが、イマーシブも追加のコスト無しで聴けるという点だ。これまでのイマーシブは興味はあっても設備に費用がかかる、スピーカーも多数必要、設置ができない、そういったハードルを超えた先にある存在だった。それが、いま手元にあるスマホとヘッドフォンでサブスクサービスの範囲内で楽しめるということになる。映画館ですらDolby Atmosの特別料金が設定されているが、ハイレゾサブスクサービスにはそれがない。多くのユーザーがその楽しさに気づくことにより、より一層制作も加速することとなるだろう。
制作側の話にも触れておこう。Proceed Magazineでは、以前よりDolby Atmos、SONY 360RAを記事として取り上げてきている。
Dolby Atmosは、7.1.2chのBEDトラックと最大118chのObject Audioにより制作される。Dolby Atmos Musicでは、バイノーラルでの視聴が前提となるため、レンダラーに標準で備わるバイノーラルアウトを使って作業を行うこととなる。となると、最終の仕上げまでDolby Atmos Production Suiteで行えるということになる。Dolby Atmosの制作に対応したPro Tools Ultimate、NUENDOがあれば、Production Suiteの追加でDolby Atmos Musicの制作は始めることができる。
https://pro.miroc.co.jp/headline/daps-90day-trial/#.YK3ozZP7TOQ
SONY 360RAの制作ツールは執筆時点ではベータ版しか存在しない。(※2)まさに、ベータテスターのエンジニアから多くのリクエストを吸収し正式版がその登場の瞬間を待っている状況だ。360RAはベースの技術としてはAmbisonicsが使われており、完全に全天周をカバーする広い音場での制作が可能となる。すでにパンニングのオートメーションなども実装され、DAWとの連携機能も徐々にブラッシュアップされている。正式版がリリースされれば、いち早く本誌紙面でも紹介したいところだ。
(※2)2021年5月追記
360RA制作用プラグイン、360 Reality Audio Creative Suite (通称:360RACS)がリリースされました!
価格:$299
対応フォーマット:AAX、VST
対応DAW:Avid Pro Tools、Ableton Live ※いずれも2021年5月現在
https://360ra.com/ja/
さらなる詳細は次号Proceed Magazine 2021にてご紹介予定です。
←TIDALの音質選択の画面。Normal=高圧縮、High=低圧縮、HiFi=CDクオリティー、Master=ハイレゾの4種類が、対応楽曲であれば選択できる。Wifi接続時とモバイル通信時で別のクオリティー選択ができるのもユーザーに嬉しいポイント。※画像クリックで拡大
←TIDALがDolby Atmosで配信している楽曲リストの一部。最新のヒットソングから70年代のロック、Jazzなど幅広い楽曲がDolby Atmosで提供されている。対応楽曲は、楽曲名の後ろにがDolbyロゴが付いている。※画像クリックで拡大
ハイレゾサブスクサービスは、新しいユーザーへの音楽の楽しみを提供し、そのユーザーがイマーシブ、バイノーラルというさらに新しい楽しみに出会う。CDフォーマットの誕生から40年かかって、やっとデジタル・オーディオの新しいフォーマットが一般化しようとしているように感じる。CDから一旦配信サービスが主流となり、圧縮音声が普及するという回り道をしてきたが、やっと次のステップへの道筋が見えてきたと言えるのではないだろうか。これまでにも色々な試みが行われ、それが過去のものとなっていったが、ハイレゾというすでに評価を得ているフォーマットの一般化の後押しも得て、イマーシブ、バイノーラルといった新たなサウンドがユーザーにも浸透し定着していくことを願ってやまない。
https://pro.miroc.co.jp/headline/rock-on-reference-room-dolby-atmos/#.YLTeSpP7TOQ
https://pro.miroc.co.jp/solution/dolby-atmos-proceed2020/#.YLTeFJP7TOQ
https://pro.miroc.co.jp/headline/netflix-sol-levante-dolby-atmos-pro-tools-session-file-open-source/#.YLTd9ZP7TOQ
https://pro.miroc.co.jp/headline/pro-tools-carbon-proceedmagazine/#.YLTdn5P7TOQ
https://pro.miroc.co.jp/solution/mac-mini-ht-rmu/#.YLTen5P7TOQ
Media
2021/02/24
浜町 日々 様 / 〜伝統芸能が得た、テクノロジーとの融合〜
福井駅からほど近い浜町。福井の歓楽街といえば片町が有名だが、その片町と市内を流れる足羽川との間の地区が浜町である。古くから花街として賑わい、現在でも料亭が軒を連ね情緒あふれる街。国指定の登録有形文化財としても有名な開花亭や、建築家 隈研吾の設計によるモダンな建築も立ち並ぶ文化の中心地である。そんな浜町に花街の伝統的な遊びをカジュアルに楽しむことの出来る「日々」はある。今回はこのステージ拡張に伴う改修をお手伝いさせていただいた。
芸妓の技。日本の伝統芸能とテクノロジー。
ステージ奥のスクリーンをおろした状態での演目の様子。福井・浜町芸妓組合の理事長である今村 百子氏が伝統的な演目を披露し、背景には福井の風景が流れる。まさに伝統芸能とテクノロジーが出会った瞬間である。
日々は、福井・浜町芸妓組合の理事長でもある今村 百子氏が立ち上げたお店。お座敷という限定された空間で、限定された特別なお客様にしか披露されてこなかった芸妓の技。それを広く、カジュアルに楽しんでもらいたいという思いからスタートしている。バーラウンジのようなお店にステージがあり、そこで毎夜これまでお座敷でしか見ることができなかった芸妓さんたちの日本舞踊や、三味線、唄を楽しむことができる。
この日々のステージがこのたび拡張され、様々な催しに対応できるように改修が行われた。改修にはレコーディングエンジニアでもあり、様々な音楽プロデュースを行うK.I.Mの伊藤圭一氏が携わっており、コンセプトや新しい演目のプロデュースなどを行なっている。元々、日々にあったステージは非常に狭かった。「三畳で芸をする」という芸妓の世界、お座敷がそのステージであることを考えればうなずける。これを広げ、日本の伝統芸能だけではなく、西洋の芸能、最新のテクノロジーと融合させ新しいステージを作ろう、というのがそのコンセプトとなる。
普通に考えれば、クローズドな世界に見える日本の伝統芸能の世界だが、今村氏の持つビジョンはとてもオープンなものだ。2017年には全国の芸妓を福井に集め、大きなステージに50名近くの芸妓が集まり、それぞれに磨いた芸を披露する「花あかり」というイベントを行なっている。芸妓の技を広く、カジュアルに楽しんでもらいたいという考えを具現化したわけだ。このように新しいことへ果敢にチャレンジするスピリットを持った今村氏のイメージを具体化できるステージを作ろう、ということで伝統芸能とテクノロジーの融合というコンセプトがさらに詰められていくことになる。
無拍子である日本の伝統芸能に指揮者代わりの声やクリックを持ち込み、バックトラックに合わせて演奏をする。プロジェクターを使い、福井の映像とともに舞踊を披露する、そしてマイクで集音し拡声する。現代のステージ演出としては当たり前に聞こえることかもしれないが、「日本の伝統芸能を」という枕詞をつけた瞬間にハードルの高いチャレンジとなる。なんといっても無拍子である。様々な演出のきっかけを決めることだけでも困難なことだ。このような多くの課題を持ちながら、ステージの設計は進められていくこととなった。
スクリーンを上げると手作業で金・銀・銅をヘラで塗り重ねた四角錐のホリゾントが現れる(下部左)。和を意識する金と、幾何学的な造形。照明により、表情を変化させる建築デザイナー 大塚先生のアイデアだ。
透過スクリーンに浮かび上がる表現
ステージ天井部分にはホリゾントのスクリーンと透過型スクリーン用に2台の超短焦点型のプロジェクターを準備し、この位置からの投影を可能としている。
まずは、映像演出から見ていこう。ステージのホリゾントは、今回の改修の建築デザイナー、大塚 孝博氏による金の四角錐があしらわれている。一般的には、金屏風や松などが想像されるが、ここに幾何学的な金の四角錐とはなんとも粋である。日本の古来のデザインにも幾何学的な模様は多く使われているが、この四角錐は照明の当たり具合により変幻自在に表情を変える。金・銀・銅をヘラで塗り重ねており、一つ一つ反射の具合も異なる。これにより有機的な表情を得ている。
ここに映像との融合を図るわけだが、さすがにこの四角錐のホリゾントへプロジェクターで投影することはできないため、昇降式の大型スクリーンが吊られている。プロジェクターは超短焦点のレンズと組み合わせてステージ天井からの投写としている。これによりステージ上の人物は、ステージ後方1/3まで下がらなければ影が映らない。プロジェクターでの映像演出と、ステージ上での実演を組み合わせることを可能としている。
さらにステージには、透過型スクリーン(日華化学 ディアルミエ)が設置されている。この透過スクリーンに投影することで、ステージ上に人物を浮かび上がらせたり、視覚効果的に使ったりと様々な演出を行うことができる。例えば、笛を吹いている今村百子さんの映像を投影しながら、実際の今村氏がそれに合わせて三味線と唄を披露するという演目が行われている。周りを暗くすることで、ホログラム的に空間に浮かび上がっているような効果を得ることができている上、ホリゾントのプロジェクターとも同時使用が可能なため、演出の幅はかなり広い。
ステージ手前下手側に吊られた透過型スクリーン(日華化学 ディアルミエ)を使った演出、無拍子の笛に合わせるためにイヤモニでクリックを聴きながら演奏を行っている。また、透過型スクリーンはこのように歌詞を浮かび上がらせたりといった演出にも活用できる。空中にふわっと文字が浮かび上がったような幻想的な空気さえ感じる演出が可能だ。
スピーカーをイメージさせない音環境
音響としては、やはりスピーカーの存在をできるだけ目立たないようにしたいという要望があった。スピーカーが鳴っているというイメージを極力持たせないためにも大切なポイントだが、理想的な音環境を提供しようと考えると設計としては難しいものがある。結論から言えば、今回はステージプロセの上下にスピーカーを設置することとなった。上部は、視界よりも上の位置、下部はネットで覆い客席からは見えないように工夫してある。この上下のスピーカーの調整を行うことで、仮想音響軸をステージ上の演者の高さとするように調整を行っている。
音響ミキサーはYAMAHA TF-RACKを導入している。専門のオペレーターが所属するわけではないため、できるだけ簡単に操作できる製品としてこちらが選択された。接続されているソースは、2台のプロジェクターへそれぞれ映像を投影するために用意された映像プレイヤーからの音声、ステージ天井に仕込まれた2本のマイク、上下の袖にはマイクコンセントが設けられている。仮設の機器としては司会者などを想定したハンドマイクが用意されている。
ステージ天井のマイクはDPA 4017が選ばれた。コンパクトなショットガンタイプで、ステージの決まった位置に座ることが多い演者をピンポイントで狙っている。これらのソースは予めバランスを取り、演目ごとのプリセットとして保存、それを呼び出すことで専門でない方でもオペレートできるよう工夫が凝らされている。
映像に合わせた音声のバックトラックは、映像ファイルに埋め込むことで映像と音声の同期の問題を解消している。それらの仕込みの手間は増えるものの、確実性を考えればこの手法が間違いないと言えるだろう。天井マイクの音声にはリバーブが加えられ、実際の生の音を違和感なく支えられるよう調整が行われた。
プロジェクターの項でご紹介した笛を吹く映像に合わせて三味線と唄を歌うという演目では、演者の今村氏はイヤモニをつけてステージに上がる。無拍子の笛にクリックをつけた音声を聴きながらタイミングを図り演奏を行っているということだ。高い技術があるからこそできる熟練がなせる業である。呼吸を合わせ演奏を行う日本の伝統音楽の奏者にとって、これはまさに未知の体験であったことだろう。より良いステージのため、このようなチャレンジに果敢に取り組まれていることに大きな敬意を抱く。
マイクはステージ上での演奏を集音する為にDPA 4017を設置。音響および映像の再生装置はステージ袖のラックにまとめて設置され、専門ではない方もオペレートできるよう工夫が凝らされている。
ここまでに紹介したような芸妓の技を披露するということだけではなく、今後は西洋楽器とのコラボレーションや、プレゼン会場などの催しなど、様々な利用をしてもらえる、皆様に愛される空間になって欲しいとのコメントが印象的。日本の伝統芸能が、新たなスタイルを携えてこの福井の地から大きく羽ばたく、日々はその発信源になるステージとなるのではないだろうか。
前列左より、株式会社大塚孝博デザイン事務所 大塚孝博氏、浜町日々 女将 今村百子氏、株式会社KIM 伊藤圭一氏、後列左より:前田洋介、森本憲志(ROCK ON PRO)
*ProceedMagazine2020-2021号より転載
Broadcast
2021/02/16
テレビ愛知株式会社 様 / 〜従来の感覚をも引き継ぐ、Avid純正のコンソール更新〜
愛知県を放送エリアとするテレビ東京系列のテレビ愛知、MA室の更新が2020年初頭に行われた。10年以上に渡り使われてきたAvid ICON D-Control(導入当時はDigidesign社)から、Avid S6へと更新されている。同時にファイルベース対応など、最新のトレンドを念頭にシステムを設計、その詳細をレポートしていく。
D-Controlを継承するS6を
テレビ愛知では、MA室のメインコンソールとして10年以上に渡りAvid ICON D-Controlを使用してきた。テレビ局のIn The Box用のコンソールの導入としては、非常に早いタイミングから活用されてきたわけだが、当時、限られた予算の中でもMA室のシステムは今後DAWが主流になるということを予想し、先行して導入に踏み切っている。今回の更新では、逆説的な候補としてアナログコンソールなども挙がってはきたが、やはり、これまでの使い勝手の延長線上にあるAvid S6を導入することとなった。
すでに10年以上に渡りD-Controlを使ってきているため、導入に際してオペレート上の不安も少ないというメリットは大きかったようだ。Avid S6自体もバージョンアップを重ね、D-Controlを使用してきたユーザーからのフィードバックが多数反映されていることも背中を押した一因となっている。物理的なボタンの有無などの差異はもちろんあるが、すでに現在のAvid S6は、ほぼD-Controlで実現していた機能を網羅していると言っていいところまでブラッシュアップされている。
Avid S6の導入にあたりフェーダー数をどうするかは、かなり議論が行われたポイントだ。D-Controlは32 Faderであったが、Avid S6に更新を行うにあたり32Faderが本当に必要かどうか?ということが実機でのデモなどで検証された。Avid S6はLayout Mode、Spill Modeなど様々な工夫が行われており、最低限のFader数でミキシング作業を快適に行えるようになっている。これは、エンジニアが音響的にベストであるセンターの位置に座ったまま作業が行えるようにするという工夫でもあるが、これらの機能を実際に体験いただいて最終的には24 Faderという決着を見ている。メインエンジニアは最低16 Faderあればミキシングが行えるという判断をしていただいているが、やはり、効果担当を含めた2名体制でのミキシングもある。ここは16Faderではさすがに心もとない、ということもあり24 Faderがセレクトされた。
机上にS6が置いてあるようにも見えるが、一体となった専用設計のデスクとなる。センターポジションで、編集もミキシングも両方が行えるようにレイアウトされている。
D-ControlからAvid S6への更新を行ったことにより、コンソール自体のサイズはかなり小さくなった。特に奥行きが短くなり、部屋が広く使えるようになったのが使い勝手としては非常に大きなポイントとなっている。ディレクターのデスクに収められていたアウトボード関係も、必要なものはサイドラックへと移設され、足元の空間を十分に確保することができるようになっている。これはエンジニアだけではなく、ディレクターなどこの部屋を利用する方からも好評であるということだ。このレイアウト変更によりエンジニアは前を向いたまま、ほとんどの作業を手の届く範囲で行うことができるようになった。
Avid S6が収まるデスクも、作業を常に正面を向いて行うことができるように特注設計となっている。Avid S6を購入すると付属するFader手前の手を置く部分はBolsterと呼ばれるのだが、Keyborad、Mouseを置くには少し幅が狭い。Keybordトレイなども準備されているのだが、台本を置いたりということを考えると写真で確認していただけるような形状が望ましい。このデスクはAvid S6の各モジュールを収めるフレームを純正のカバーで仕上げるのではなく、そのままデスクに埋めることで手元のスペース拡大を実現している格好だ。
テレビ愛知株式会社 デジタルネットワーク局技術部 水野 正基 氏
株式会社アイプロ 技術部長 牟禮 康貴 氏
株式会社NAV 名古屋事務所長 高野 矢守至 氏
効率を実現したDAW環境
システム面では、Avid MTRXをAvid Pro ToolsのI/Oとしている。このMTRXで信号の集約を行い、モニターコントローラーとしてはTac System VMC-102を導入した。VMC-102を導入することでDAWのPCが起動していなくてもモニターセクションの切替が行える。一般的なコンソールで言うところのセンターセクションの機能を受け持っているわけだ。これはPCが不具合を起こした際にも最低限の作業は行えるようにという工夫の一つとなっている。また、VMC-102の最新バージョンアップで実装された、Blackmagic Design Smart Videohubのリモート機能も活用している。ブース、コントロールルームに映す映像の切替を、VMC-102での音声のモニターソース切替に連動させることで、オペレートの手順を削減することに成功している。たとえば、モニターソースとしてPro Toolsを選択すれば、各所のVideo MoniterにはPro ToolsのVideo出力が自動でパッチされる。同様にXDCAMを選択すると、音声映像ともにXDCAMに変更されるということだ。これは作業上オペーレートミスを減らすことにも直結しストレスフリーな環境を実現している。
ラックに収まったAVID MTRX。Analog 8IN/8OUT、64ch Danteがオプションとして加わっている。
モニターコントローラーとしてDAW PCが起動していなくてもコントロール可能なTAC SYSTEM VMC-102。映像モニターの切り替えもワンボタンで行えるように設定されている。
DAW環境周辺でのこだわりは、38inchのUltra-Wide Displayにある。多くの情報を見渡すことができるこのDisplayの導入はIn The Boxでのミキシングを前提とした環境においては非常に効果的。タイムラインの表示においては、前後長時間の表示が可能であるし、ミキサー表示においては多くのフェーダーを表示することができる。単純に言えば情報量が増えるということになるが、これは作業を行う上で非常に効果的だと言える。
広大な表示領域を提供する38-inch Ultra wide Display。解像度は3840x1600
予想外のマッチング、ATCとEVE
数多くの機種から選びぬかれたメインモニターのATC SCM25a。3-Wayのスピーカーでスタンドは日本音響エンジニアリングによる特注設計品
ミキサー席右に設置されているラック。元々、背面のディレクターデスクからの移設のSSL X-RACK、NEVE 33609、AJA KiPro GOが収まる
今回の更新ではモニター・スピーカーも一新している。様々な機種を持ち込ませていただき、比較試聴をしていただいた結果、ATC SCM25aが選択された。以前はDynaudio Air15を使われていたのだが、MA室を利用するエンジニアのほぼ全員がATCに好印象を持ったため、このスピーカーが選択されている。しっかりとしたボリューム感を持ちつつタイトに鳴るこのスピーカーは作業がやりやすいと好評であるということだ。スモールとしては、EVE AUDIO SC203を導入いただいている。不思議なことにATCとEVEのキャラクターが非常に似通っているため、切り替えた際の違和感も少なく、バランスを保ったままLarge/Smallの切り替えができるのでこちらも好評であるということ。ATCのスピーカースタンドは、内装工事を担当された日本音響エンジニアリングの特注設計品。また、コンソール背面には同社の特注AGS音響衝立が設置され、メインモニターとコンソール背面まわりの音場を整えることに一役買っている。
テレビ愛知ならではの導入機材としては、AJA KiPro GOが挙げられる。これまでは確認用のデータを民生のDVD Recorder、もしくはSDカードへ録画し、各所へ確認用として配布していたワークフローを更新した格好となる。複数のレコーダーの操作がKiPro GO 1台に集約することができ使い勝手が向上した部分とのことだ。また、機材もコンパクトなため機器の実装スペースの削減にもつながっている。AJA KiPro GOは同時に4系統のHD VideoをUSBメモリに録画できる製品。すでにDVDの需要は減っていたためデータでのワークフローとし、シンプルなこちらの製品へと更新された。
従来環境と違和感なく、効率的でコンパクト
トータルとして見ると放送局ということもあり突飛な選択は行わずに、最新の製品を組み合わせることで効率的でコンパクトなシステムが実現できている。ただし、コンパクトになっても機能面では妥協はなく、ブラッシュアップされた部分も多い。ファイルベース・ワークフローへの対応としてNon-Leathal Application Video Slave Pro 4の導入、VTRもSONY XDCAM Stationへの更新など編集システムの更新により、どのような変化が起こったとしても柔軟に対応できる準備が行われている。また、システムの中心であるPro Tools、およびMTRXに関しては、持ち出し収録用のシステムを同一の製品とすることでバックアップ体制をとっている。MA室のPC、MTRXが故障した際には、可搬のシステムとリプレイスが行えるように冗長化がなされている。
実際にオペレートを行っている方の感想としては、導入直後よりD-Controlに慣れていたこともあり、非常にスムーズにAvid S6へと移行することができたとのことだ。また、コンパクトなサイズになったことで、すべてのスイッチ、ノブへのアクセスが容易となり、作業環境としての使い勝手は間違いなく向上している。やはり手の届くところに様々な機器が実装されているのは便利だ、と非常に高い評価をいただいている。今後、映像含めたファイルサーバーの更新なども予定されているということだが、それらにも柔軟に追従し、使い勝手をキープしたまま作業を行っていただけるシステム更新となっている。
さすがはAvid純正同士のコンソール更新、という面目を保つことができた今回の更新。従来のシステムを知り尽くしたユーザーだからこその気付きも数々ありながら、実際の導入後に満足感の高いコメントをいただけたことは、Avid S6の完成度の高さを改めて証明しているのではないだろうか。
写真手前右から株式会社アイプロ 牟禮康貴氏、渡辺也寸志氏、株式会社NAV 高野矢守至氏、写真奥右からROCK ON PRO 前田洋介、テレビ愛知株式会社 水野正基氏、株式会社アイプロ 山本正博氏、テレビ愛知株式会社 安松侑哉氏、ROCK ON PRO 廣井敏孝
*ProceedMagazine2020-2021号より転載
Music
2021/02/08
吹田市文化会館 メイシアター 様 / 〜DanteとAVBが共存するシステム〜
大阪梅田よりほど近い阪急千里線吹田駅前にある「吹田市文化会館 メイシアター」。吹田市制施行45周年を機に1985年にオープンした多目的文化施設である。正式名称は吹田市文化会館であるが、愛称であるメイシアターが広く知られている。充実した設備を備え、大中小3つのホールと、レセプションホール、展示室、練習室など様々な催しに対応できるキャパの幅広さと、コスト面でもリーズナブルに利用できることから人気を集める施設である。今回ここに音響メインコンソールとしてAvid S6Lが導入されたのでレポートしていきたい。
幅広い演目に対応する舞台環境
今回はAvid S6Lが導入された大ホール、中ホールを中心にご紹介したい。阪急吹田駅の目の前、JR吹田駅からも徒歩圏内とアクセスの良い立地、大阪梅田からは20分程度でアクセスができる利便性の高いロケーションに位置する。愛称のメイシアターの由来は、市の花である「さつき」のメイであること、また新緑あふれる「五月」を表す英語の「MAY」、さらには可能性を表わす助動詞の「May」を連想して、未来への希望を館名に託して命名されている。
大ホールはフルオーケストラにも対応する客席数1382席の多目的ホール。充実した舞台装置、そしてオーケストラピットを備えており、オペラやバレエの公演にも使用できる開口15~18m、奥行き17mの大きな舞台を備えている。音響反射板もあり、クラシックコンサートにもしっかりと対応することが可能だ。中ホールは、通常時客席数492席、舞台を取り囲むように客席を追加してアリーナ形式にすることで最大622席まで拡張することが可能。開口13~19m、奥行き10.5mという大きな舞台を備え、演劇、ミュージカル、古典芸能など様々な演目に対応する。こちらのホールも音響反射板が用意されており、ステージも十分に広いため小編成のオーケストラであれば十分に公演が可能である。ホールは照明設備も充実し常設の設備だけでほとんどの演目に対応できる。
雲が晴れた、音のピントが合った
音響反射板をおろした状態の大ホール。カラム、プロセに見える黒い長方形のものが L-Accousticのラインアレイ6/3で常設設置されている。調整室は、上手壁面が照明、下手壁面に音響がそれぞれある。
設備は1985年の開館の後、1997年~1998年に1回目の大規模な入れ替えが行われ、アナログコンソール、メインスピーカー等を更新しその約15年後デジタルコンソールYAMAHA M7CLに大・中ホールとも更新した。その後、機材の追加はあったものの大規模な改修作業は行われず、2017~2018年に満を持して大規模改修を計画し入札までこぎつけたがあいにく入札不調になり舞台機構、共用トイレのみの改修を当初計画の1年間休館して行った。改修開けの2018年6月18日に大阪北部地震が発生し震源にほど近く、吹田市も最大震度5強を観測した。メイシアターも大ホールの客席天井裏の吊り天井用鉄骨などに被害が出、大ホールの使用を中止した。震源にほど近く、最大震度5強を観測した吹田市ということもあり全館に渡り被害が出た。特に大ホールの被害が大きく、天井の鉄骨が曲がるなど大規模な改修を行わないことには、再開できない状況になってしまったということだ。
大規模な改修作業が必要となったことで2019年7月より2020年8月まで長期に渡る休館を実施。徹底的な改修が行われることとなった。改修は音響改修、ホールの椅子の交換、電源設備の更新など多岐に渡り、最新の設備を備えるホールへと生まれ変わった。音響面の変化は大きく、音響反射板の改修、座席の更新により、ホール自体の音響特性がブラッシュアップされた。具体的には、残響時間が0.4s程度長くなり、2.2s@500Hzと充実した響きを手に入れている。また、常設のプロセ、カラムスピーカーが、会館当時より使われてきた壁面内部に設置されたものから、外部に露出したL-Accoustic社製ラインアレイへと更新。どうしてもこもりがちであった音質面で大きく改善がなされた。
音量が必要な場合には、カラムの下部にグランドスタックを追加することができ、それほど音圧を求められないコンサートであれば十分に対応可能になったということだ。プロセスピーカーは昇降装置を備え、スピーカーユニットの故障等に客席レベルまで降ろすことで修理対応がしやすくなった。クラシックコンサート、オペラ、バレエなどの演目を行うホールにおいて露出型のスピーカーは敬遠される傾向が強かったが、近年ラインアレイ・スピーカーによる音質向上と、カバーエリアの拡大というメリットの方が勝り、また実際の導入例が増えてきていることもあって採用へと踏み切ったということだ。スピーカー駆動のアンプも同時に更新され、各アレイの直近に分散配置されている。コンソールからアンプまではAES/EBUでのデジタル接続で、外部からのノイズへの対策がなされている。また、各アンプラックには安定化電源装置も備えられ、音質への最大限の配慮が行われている。これらの更新により雲が晴れた、音のピントが合った、というような感想を持っていると伺うことができた。
2つのAoIPをどう活躍させるか
その1年に渡る改修作業の中で、大ホール、中ホールへ常設音響メインコンソールとしてAvid S6Lが導入されることとなった。各ホールの音響調整室に設置されたS6Lは24Fader仕様のS6L 24Dをコントロールサーフェスに、エンジンはE6L-144が採用されている。I/Oは調整室、下手袖それぞれにStage64が用意され十分な入出力を用意している。大ホール、中ホールの設備は基本的には同一の設備、設置に関しても同一のレイアウトとなっている。つまり、一つ覚えれば両方のホールでのオペレートに対応できるため、オペレートするスタッフの負担を減らすように配慮されているということだ。
システムの設計上で苦労をしたのは、従来のYAMAHAコンソールを中心にしたシステムとAvid S6Lを共存させるという点。これまではYAMAHAのコンソールを中心としたシステムでDanteを活用したシステムアップが行われており、それらの機材は更新後もそのまま残されている。客席にコンソールを仮設してのミキシングなどのためにYAMAHA QL、TFシリーズ、LS9、M7CLが準備されていることからも、これはまだまだ活躍することになるシステム。一方のAvid S6LのバックボーンはAVBを使っている。そのため、DanteとAVBという2つのAoIPがシステム内に混在することになってしまった。
もちろん、Avid S6LにはSRC付きのDante Optionカードがあるため、そこを通じて接続されているわけだが、チャンネル数が制限されるため、運用の柔軟性を確保するための設計に苦心されたということだ。AoIPの接続はメタルのEthernetケーブルを使っているが、引回し距離は最長でも80mまでに収まるようにしているとのこと。それ以上の距離になる際には、一旦Switchを用意し距離減衰によるエラーが起こらないように注意が払われているということだ。取材時はホール再開直後ということもあり、実運用はまだこれからのタイミングであったが、96kHz駆動のコンソールということもあり、クリアな音質をまず感じているということだ。
中ホールのS6Lは大ホールと共通化された設置。
中ホール舞台より客席を望む。
大規模なツアーなどで目にすることの多いAvid S6Lだが、文化会館クラスの設備ではまだまだ導入例は少ない。固定設備としての導入も、国内では珍しいというのが現実である。若い技術者に今回導入されたコンソールでAvid S6Lに触れ、さらに大きなコンサートなどでのオペレートへと羽ばたいていってほしい、このAvid S6Lの導入が大阪で活躍する技術者の刺激にもなってほしいというとの思いもお話いただいた。将来の世代にも向けた多くの意志を込めたAvid S6Lの導入、是非ともその思いが大きな結果として実を結ぶ日を楽しみにしたい。
今回取材ご協力をいただいた、公益財団法人 吹田市文化振興事業団 舞台管理課 課長代理 前川 幸豊 氏(手前左)、舞台管理課 谷尾 敏 氏(手前右)、ジャトー株式会社 サウンド社サウンドアドバンス部 エンジニアグループ 主任 松尾 茂 氏(奥左)、ROCK ON PRO 森本 憲志。
*ProceedMagazine2020-2021号より転載
Broadcast
2021/01/28
朝日放送テレビ株式会社 様 / 〜Immersive制作を実現する、放送局におけるMA室改修を読み解く〜
大阪のテレビ朝日系列の放送局、朝日放送テレビ株式会社のMA室の改修を行った。放送局のMA室ということで、色々なトラブルに対応するための工夫はもちろんのこと、様々なスタッフが利用する施設であるため、操作の簡便化などを念頭に置きつつ、イマーシブフォーマットのオーディオへ対応するため天井へ4本のスピーカーを増設し、5.1.4ch formatのDolby Atmos仕様での最新設備へとブラッシュアップが行われた。朝日放送テレビでは、Flux Spat Revolutionをすでに使用いいただいていたこともあり、このソフトウェアを活用することで、様々なフォーマットの視聴なども行うことを前提として設計が行われている。
AvantをS6 + MTRXで置き換える
朝日放送テレビのMA室はこれまで、SSL Avant 48faderがメインコンソールとして導入され、コンソールミックスを前提とした設備となっていた。そのためMA室には、多数のアウトボード・エフェクトが準備されたシステムが組まれていた格好となる。しかし昨今はDAW内部でのIn The Boxミキシングが主流となっているということもあり、コンソールの更新にあたりデジタルコンソールとともに、DAWコントローラーとして主流となっているAvid S6が並行して検討された。放送局の設備として、コンピューター(DAW)が無いと何もできない製品を採用すべきなのか?という議論が当初は行われた。この部分はAvid MTRXが登場し、これをメインDAWとは別のPCで制御することで、システムの二重化が行えることがわかり、少なくともデジタルコンソールのセンターセクション部分は、十分に代替可能であるという結論となった。他にも様々な側面より検討が進められ、今回の更新ではバックボーンとして広範なトラブルにも対応を可能とする大規模なAvid MTRXを活用したシステムとAvid S6の導入となった。
Avid S6は40 Fader仕様と、従来のAvantと同一の規模。5KnobにDisplay Moduleが組み合わされている。モニターセクションは、MTRXをDADmanでコントロール。この部分は、前述の通りDADman専用にMac miniが用意され、DAW PCを起動せずともモニターセクションが単体で動作するような設計となっている。モニターセクションのリモートにはDAD monが用意され、フィジカルでのコントロールの利便性を上げている。DADman部分を二重化するにあたり、同一のプリセットファイルをサーバー上にバックアップし、PCの不良の際にはそちらからDADmanを起動することで回避できるように工夫がなされている。
これまで使用してきたAvantにはかなり多くの回線が立ち上がっていた、それらを整理しMTRXに立ち上げてある。そのため3台のMTRXが導入されたのだが、その使い分けとしてMain/SubのPro Toolsにそれぞれアナログ入出力、メーター関連、VTR送りとしてほぼ同一の仕様が2台。3台目はMain Pro Toolsに接続され、AV Ampからのアナログ入力及び、外部エフェクトSystem 6000が立ち上がっている。ここもシステム二重化が考えられている部分で、Main Pro Toolsの不具合時には、パッチでSub Pro ToolsがMainの回線を取れるように、また、MainのMTRXが壊れた際にはSubのMTRXを差し替えることで復旧が行えるようになっている。
MTRX3台をブリッジするDante
3台のMTRXは128ch Dante Option Moduleを使用してDante Networkに接続されている。この128chの回線が3台のMTRXの信号のブリッジとして活躍している。Danteであれば信号を分配することが容易なため、例えばAV Ampからの信号は、Dante上でモニターセクションをコントロールしているMain1台目のMTRXとSub MTRXへと送られているということだ。一見ブラックボックスに見えるこのシステムだが、一歩引いて考えれば理にかなったシンプルなシステムであることがわかる。二重化を前提としたシステムではあるが、普段はパッチレスですべての信号がMain/Sub Pro Tools両者で受け取れるよう工夫が行われている。
文字で書いてしまうとたしかにシンプルではあるが、かなりの検討を重ねた結果たどり着いたシステムであることには変わりない。また、実際のハードウェアセットアップにあたっては別の役目(パケットの流れるNetworkの切り分け)にも苦心した。具体的には、実際の音声回線であるDante(Primary/Secandary2系統)、S6をコントロールするEuCon、MTRXを制御するDADman、Pro Tools同士/Media Composerを同期させるVideo Satellite、ファイルベースのワークフローに欠かせないファイルサーバー。これら5つの異なるパケットがNetworkを必要とする。どれとどれを混ぜても大丈夫なのか、分けなければいけないのか?そして、ややこしいことにこれらのほとんどが同じ機器に接続されるNetworkであるということだ。できる限り個別のNetworkとはしていたが、すべてを切り分けることは難しく、かなり苦労をして設計を行うこととなった。様々な機器がNetowork対応となるのは利便性の上で非常に好ましいが、機器の設計者はそれらが同一のNetwork上で安定して共存できるようにしてもらいたいと切に願うところである。せっかく便利なNetoworkを活用した機器も、使いづらくトラブルを引き起こすものとなってしまっては本末転倒である。
朝日放送テレビのMA室には4台のPCがセットアップされている。それぞれ役割としてはMain Pro Tools用、Sub Pro Tools兼Media Composer(Video Satellite)用、DADman用、Flux Spat Revolution用となっている。これらのKVMの切替はAdderView Pro AV4PROが使われている。この製品をコントロールルームに置かれた外部リモコンにより切り替えるシステムだ。切替器本体はマシンルームに置かれ、切替後の信号がコントロールルームまで延長され引き込まれている。これにより延長機の台数を減らすことに成功している。KVM Matrixを実現するシステムはまだまだ高価であり、それに近しい安価で安定したシステムを構築するのであれば、このアイデアは非常に優れていると言えるだろう。
FLUX Spat Revolution専用機、DADman専用機として運用されるMac mini。その上部には、KVM切替器であるAdderが見える。
高さ方向に2層のレイヤーを持つ
スピーカーシステムの話に移ろう。今回のMA室改修ではフロントバッフルを完全に解体し、TVモニターの更新、そしてLCR及びハイトLRの埋め込みが新しいフロントバッフルに対して行われた。サラウンドサイドのハイトスピーカーは、既設のサラウンドスピーカー設置用のパイプを使っている。そのため実際の増設分は、サラウンドLRの2本のスピーカーおよび、スピーカースタンドである。この改修により、Dolby Atmosフォーマットを参考とした5.1.4chのスピーカーシステムが構築された。なぜ7.1.4chにしなかったのか?という部分の疑問はもちろん浮かぶだろうが、朝日放送テレビにとって高さ方向に2層のレイヤーを持てたということの方が、後述するFlux Spat Revorutionの使用を考えると重大事である。スピーカーは元々5.1chのシステムで使用されていたMusik Electronicの同一の製品で4本が増設されている。
スピーカーレイアウトの平面図。L,R,Ls,Rs各スピーカーの上空にTOPスピーカーが配置されている。平面のスピーカーはMusik RL904が5本、上空はRL906が4本、これで5.1.4chのスピーカーレイアウトとなっている。フロントL,Rchはメインであるステレオ作業を考慮しラージスピーカーを理想位置である開き角30度に、Atmosはその内側22.5度に配置している。
スピーカーの補正用プロセッサーは、MTRXのSPQ Optionが活用された。SPQ Optionは、スピーカーの各出力に対して最大で16chのEQ及び、ディレイを掛けることができる強力なプロセッサーカードだ。これはMTRXのOption Moduleスロットを1つ専有してその機能が追加されることとなる。この機能を活用することにより、外部のプロセッサーを使わずにスピーカー補正を行うことができる。システムがシンプルになるというメリットも大きいが、クオリティーが高いMTRXのDA前段でプロセスが行われるため、そのアナログクオリティーをしっかりと享受できるというのも見逃せないポイントだ。
スピーカー正面図
リアハイトのスピーカーは2本のバーに専用金具でクランプ
フロントハイトのスピーカーは高さを得るため半埋め込みに
Ambisonics制作はスタートしている
Flux Spat Revolutionの操作画面(メーカーHPより抜粋)
これまで何度となく名前が挙がっているFlux Spat Revolution。このソフトウェアが何を行っているのかというと、3D空間に自由配置した音声をその一番近傍のスピーカーから再生するということになる。この機能を活用することで、各種イマーシブフォーマットを再現性高く再生することが可能となる。基本的なスピーカーの設置位置はDolby Atmosに倣ったものだが、Auro 3D、22.2ch、さらにAmbisonicsなども最適な環境で視聴することができるということになる。スピーカー数が多ければ多いほどその正確性は増すが、スピーカー数が限られた環境だとしてもその中でベストのパフォーマンスを得ることができるソリューションでもある。そして、このプロセッサーを通して作った(3D空間に配置した)音声は、ありとあらゆるフォーマットの音声として出力することができる。Dolby Atmos 5.1.4chの環境で制作したものを、スピーカーの設置角度の差異などを踏まえAuro 3D 13.1chとして出力できるということだ。
実際にこのFlux Spat Revolutionを使い、Ambisonicsの音声の制作は行われており、今後の配信サービスでの音声として耳にすることがあるかもしれない。直近では、ユネスコの無形文化遺産にも登録されている人形浄瑠璃・文楽の配信動画のVR版の制作に活用されたということだ。都合により、最終の音声はSpat Revolution経由のものではないとのことだが、Ambisonics音声の制作への挑戦がすでに始まっているとのこと。各所に仕込んだマイクの音声をパンニングすることで3D空間に高い再現性を持たせる、つまり、実際に仕込んだマイクの位置をSpat上で再現して、そこで鳴っている空気感をも再現することができているということだ。すでに各所で話題となっている、3D音声を使ったライブ配信などにも活用可能なSpat Revolution。ポストプロダクションからライブ会場まで様々な分野に活躍の場を広げているが、このMA室のようにしっかりと調整された環境で確認をしながら作業が行えるということは、作品のクオリティーアップ、作業効率の向上など様々なメリットをもたらすことだろう。
放送でも広がるイマーシブコンテンツ
スタジオの全景。新しく作られたフロントバッフルには、従来より引き継がれたFostexのラージモニターとハイト方向を含む5本のMusik Electornicのスピーカーが見える。
放送局としては、強みでもあるスポーツ中継などにもこのソリューションの活躍の場を広げるべく様々な実験が行われているということだ。確かに、野球中継、サッカー中継などスタジアムで行われる音声であれば、会場の空気感をAmbisonicsで表現することは可能である。すでにスタジアムの様々な箇所に設置されている観客マイクを、Spat Revolution上に相対的な位置関係を再現することで、かなりクオリティーの高い現場の空気感の再現が可能となるのではないだろうか。これらの結果が早く楽しめるようになれば、現在の動画視聴の多くを占めるスマホ / タブレット+イヤホンの環境での視聴体験を拡張するものとなってくれるだろう。
少し脱線するが、この場合の配信音声はバイノーラルへと変換済みの2chの音声になると予想される。もちろん、一部のDolby Atmos Music、Sony 360 Reality Audioなどのようにマルチチャンネルデータのまま配信を行い、ユーザーの手元のデバイスでバイノーラルプロセスを行うものもあるが、映像配信においてはまだまだ2chが主流であると言える。バイノーラルの音声は、一般的なスピーカーで聞いても破綻のない音声であることは周知の事実である。もちろん、従来のステレオ音声に比べれば、音像が少し遠い、音の輪郭がぼやけるなどはあるものの、破綻をしているような音声ではない。そういったことを考えると、非常に今後に期待のできる技術ではあるし、放送局の持つノウハウを活かしたコンテンツの未来を感じさせるものであると言えるだろう。Spat Revolutionを使ってミキシングを行っていれば、バイノーラルでの出力はもちろんだがDolby Atmos、Auro 3Dなどの他のフォーマットでの出力も用意できることは大きなメリットであると言えるだろう。
スポーツ中継を想定して書き進めてしまったが、ほかにもクラシック・コンサート、オペラ、吹奏楽などの各種コンクール、新喜劇など劇場での公演にも非常に有効な手法であると言える。今回お話を伺った和三氏の2019年のInterBEEでのセミナーでもこれらの取り組みについて取り上げていたが、その中でもこのようにAmbisonicsで制作した会場音声のバイノーラル2chに対して、ナレーションを通常のステレオミックスであるように混ぜることで、会場音声は広がっていつつ、ナレーションは従来どおりの頭内定位を作ることができる、とご講演いただいている。これは大きなヒントであり、ヘッドフォン、イヤフォンでのコンテンツの視聴が増えているいまこそ、この手法が活きるのではないかと感じている。
Immersiveな音声でのコンテンツが今後の放送でも新たな価値を生み出すことになる。それに先駆けて改修対応を行い、多様な3Dサウンドへの最適環境を構築し、すでにコンテンツの制作もスタートしている朝日放送テレビの事例。まずは今回導入された高さ方向のレイヤーを持ったスピーカーレイアウトを活用して制作された音声が、様々なところで聴けるようになることを楽しみにしたいところ、そしてそのコンテンツをまた皆さんにご紹介する機会ができることを期待してやまない。
朝日放送テレビ株式会社 技術局員
出向 株式会社アイネックス
兼技術局制作技術部 設備担当
和三 晃章 氏
*ProceedMagazine2020-2021号より転載
Media
2021/01/07
手軽に多拠点ストリーミング!〜ATEM Streaming Bridge
ATEM Streaming Bridgeは、ATEM Mini ProシリーズからH.264ストリームを受信して、SDI/HDMIビデオに変換するビデオコンバーター。ATEM Mini Pro / ATEM Mini Pro ISOからのEthenetダイレクトストリーミング信号を受け、SDI/HDMI対応機器にビデオ信号を送ることが出来ます。
つまり、離れた場所にある複数のATEM Mini Pro / ATEM Mini Pro ISOの映像を受け、手元のATEM Mini Pro / ATEM Mini Pro ISOでスイッチングしながらインターネットに配信を行うことが可能になります!
ローカルLANだけでなく、特定のポートを開放することでインターネット越しに信号を受けることも可能。世界中のATEM Mini Pro / ATEM Mini Pro ISOユーザーとコラボレーションしながらの多拠点ストリーミングが手軽に行えます。
セットアップ例
ATEM Streaming Bridgeを使用すると、ATEM Mini Pro / ATEM Mini Pro ISOからのダイレクト配信の配信先としてATEM Streaming Bridgeを指定することができるようになる。図のように、ひとつのビデオスイッチャーに信号をまとめることもできるし、SDI/HDMI対応のレコーダーへ入れてやることもできる。各カメラに1台ずつATEM Mini Pro / ATEM Mini Pro ISOを使用して、離れた場所にいるエンジニアにスイッチングをまるごと任せるような使い方も可能だ。
ATEM Streaming Bridge
販売価格:¥30,778(本体価格:¥ 27,980)
高度なH.264コーデックを使用しており、非常に低いデータレートで高品質を得られるため、ローカル・イーサネットネットワークで離れた場所にビデオを送信したり、インターネット経由で世界中に送信できます!放送局とブロガーがコラボレーションし、ATEM Mini Proを使ったリモート放送スタジオの国際的なネットワークを構築できると想像してみてください。(インターネット経由での受信には特定のポートを開放する必要があります。詳細は製品マニュアルをご参照ください。)
Rock oN Line eStoreでのご購入はこちらから>>
Blackmagic Design ATEM Mini Pro
販売価格:¥ 73,150(本体価格:¥ 66,500)
ATEM Mini Proで追加される機能は「本体からインターネットへのダイレクト配信」「マルチモニタービュー」「プログラム出力の外部SSDへの収録」の3つ。本記事の主旨に則ってオーディオクオリティを優先すると、ダイレクト配信機能は使用する機会がないため、各カメラの映像を確認しながらスイッチングをしたい、または、配信した動画を高品質で取っておきたいのいずれかに該当する場合はこちらを選択することになる。
Rock oN Line eStoreでのご購入はこちらから>>
Blackmagic Design ATEM Mini Pro ISO
販売価格:¥ 113,850(本体価格:¥ 103,500)
ATEM Mini Pro ISOで追加される機能は、ATEM Mini Proの全機能に加え、「全HDMI入出力信号を外部SSDに個別に保存」「スイッチングを施したタイミングをDaVinci Resolveで読み込めるマーカーの記録」の2つ。あとから映像を手直ししたり再編集したりしたい場合にはこちらを選択することになる。アーカイブ映像として公開する前に、本番中に操作を誤ってしまった部分を修正したり、リアルタイムで無料配信したライブを編集し後日有償で販売する、といったことが可能になる。
Rock oN Line eStoreでのご購入はこちらから>>
Rock oN Line eStoreに特設コーナーが誕生!
Rock oN Line eStoreでは、カメラからスイッチャー、配信や収録向けのマイクなど、映像制作に関わる機材を集めた特設コーナーを新設している。本記事に挙げた個別の機材が購入できるのはもちろん、手軽なセット販売や、スタッフに相談できる問い合わせフォームなどもあるので、ぜひ覗いてみてほしい。
eStore特設コーナーへ!!>>
Post
2020/12/18
低負荷、低遅延の秀逸Lo-FiフィルターMcDSP FutzBox 〜Massive Pack Bundleプラグイン紹介!〜
Waves MercuryやiZotope Music Production Suiteをラインナップし、驚異的なクオリティと効率的なワークフローを最大94万円というかつてないValueで提供する、ROCK ON PRO ORIGINAL MASSIVE PACK BUNDLE!このバンドルに含まれるプラグインをピックアップして、その魅力をお伝えいたします!
数量限定のROCK ON PRO ORIGINAL MASSIVE PACK BUNDLE、詳細はこちらからご確認ください!!
通算七回目となる本記事では、独自のSIM(シンセティック・インパルス・モデル)を使用したフィルター系エフェクトプラグイン、McDSP FutzBoxのご紹介です。
過去の記事はこちら
第一回:手持ちの音源から無限のバリエーションを生み出す〜Le Sound AudioTexture
第二回:DAWの機能を「拡張」する NUGEN Producer
第三回:アナログライクなモジュールでサウンドメイク McDSP 6060 Ultimate Module Collection HD
第四回:Eventide Generate で眠れる”カオス”を解き放て!
第五回:最高に普通なEQプラグイン、それこそがクオリティーの証明 SONNOX Oxford EQ
第六回:そのプラグイン、ワザモノにつき Sonnox Oxford SuprEsser
低負荷、低遅延の秘密はMcDSP独自のSIM(シンセティック・インパルス・モデル)にアリ!
McDSP FutzBoxは、ラジオや電話、テレビなど、電化製品の内臓スピーカーを通した音を簡単に再現できるプラグインです。こうした、いわゆる"ラジオボイス"風なサウンドを作る際、よくEQで高域と低域を切って再現したりしますが、このFutzBoxはそうした一般的な処理も行える他、独自のSIM(シンセティック・インパルス・モデル)という技術を採用しています。これにより、コンボリューション(畳み込み)を用いた同様の別のプラグインと比較しても、バリエーションに富んだフィルターサウンドを超低負荷、超低遅延で作り出すことができるのです。
「音の再現性」という意味ではコンボリューションには一歩及びませんが、DSPやCPUに対する負荷の少なさでは圧倒的にこちらの方が有利です。
即戦力のプリセットに加え、様々な電化製品のモデルが大量に用意されており、それらは待ち時間なく即座に切り替え可能なため、時間に追われたポスト・プロダクション現場でも活躍すること間違いなし!さらに、その後段にはMcDSPの定評あるフィルター、EQはもちろん、ディストーション、ノイズ・ジェネレータ、ゲートも実装されているので、すぐに理想のサウンドを実現することができます。
製品の詳細はこちら>>
開発者のColin McDowellさんによる紹介動画もチェック
このMcDSP FutzBoxの他、iZotope Post Production Suite 5や、NLA Video Slave 4 Pro 、LeSound AudioTextureなど人気プラグインが最大94万円のバリューで手に入るMassive Pack Bundleをぜひチェックしてください。
ROCK ON PRO OROGINAL Massive Pack Bundle
ご不明点はこちらのコンタクトフォームよりお気軽にお問い合わせください。
Tech
2020/12/07
Eventide Generate で眠れる”カオス”を解き放て!〜Massive Pack Bundle 付属プラグイン紹介〜
Generateを含むプラグインパックをお得にゲット!ROCK ON PRO ORIGINAL MASSIVE PACK BUNDLEが発売中!!
Waves MercuryやiZotope Music Production Suiteをラインナップし、驚異的なクオリティと効率的なワークフローをかつてないValueで提供する、ROCK ON PRO ORIGINAL MASSIVE PACK BUNDLEが発売中!全44種の組み合わせで最大バリューはなんと94万円!!もちろん、この中には今回ご紹介するEVENTIDE Generateも含まれています!
およそ11年の時を経て登場した、Avid最新テクノロジーとHDX DSPチップを内蔵したオーディオインターフェースPro Tools | Carbon。兄貴分にあたるPro Tools | MTRX、MTRX Studioを加えた新世代Avidインターフェースラインナップをご検討中の方は要チェックのバンドルキャンペーンです!
数量限定のROCK ON PRO ORIGINAL MASSIVE PACK BUNDLE、詳細はこちらからご確認ください。
それでは、早速Generateを詳しく見ていきましょう!
開発はEVENTIDEから派生した気鋭のプラグインメーカー Newfangled Audio
Generateを開発したNewfangled Audioは、Eventideで15年間DSPを設計してきたDan Gillespieが創設した会社です。伝統的なデジタル信号処理技術と新たな機械学習の進歩を組み合わせることで、これまで無かった、クリエイティブかつ革新的なオーディオツールを生み出しています。
サウンドを決定づける5種類のカオティックジェネレーター Double Pendulum、Vortex、Pulsar、Discharge、Turbine
シンセサイザーで音色を作るとき、サイン波、ノコギリ波といった大元の波形を生み出すのがオシレーター部分ですが、それに該当するのがこのChaotic Generatorになります。Double Pendulum、Vortex、Pulsar、Discharge、Turbineという5種類が存在し、発音するとそれぞれの名前からイメージされるようなアルゴリズムで背景のグラフィックがぐねぐねと変化します。とにかく他人と違う、一風かわった音色を作りたい!という方にオススメです。
Double Pendulum(=二重振り子)
Vortex(=渦巻き)
Pulsar(=パルサー)
Discharge(=放電、解放)
Turbine(=タービン)
3種類のウェーブフォルダー Buchla 259、ANIMATED、FRACTAL
Generateのカオスジェネレーターは、選択したWavefolder(Buchla 259 Wavefolder、ANIMATED、またはFRACTAL)を経由し、それぞれにユニークな倍音が追加されます。その後、Don BuchlaのアイデアにインスパイアされたLow Pass Gateが続きます。これらのモジュールをお好きなようにパッチすることで、変化に富んだ個性溢れるモジュレーションがかかり、想像を超えるほどの多種多様な響きを作り出すことができます。使い方がイマイチよく分からない…という方もご安心を!著名なアーティストが手がけたものも含まれる、即戦力となる650以上のプリセット音色も保存されています。じっくりといろんな音色を聞き比べながら、曲の展開を練るのもまた、こうしたソフトシンセの一興ではないでしょうか。
ANIMATED
Media
2020/11/11
Roland V-600U~HD4K/HD混在環境でもハイクオリティなビデオ出力!
放送や映像制作と同じように、イベントやプレゼンテーションなどの演出も4K化が進んでいます。一方で、クライアントや演出者からは従来の HD 機材の対応も同時に求められている。
V-600UHDはそうした現場のニーズに合わせ、従来の HD 環境を段階的に 4K に対応させることが可能。全ての入出力端子にローランド独自の「ULTRA SCALER」を搭載。 この機能によりフル HD と 4K の異なる映像を同時に扱えるだけでなく4K と HD 映像も同時に出力できるため、従来の HD ワークフローの中に4K映像を取り込むことができる。
システムセットアップ
V-600UHD は HDMI(2.0対応)入力を 4 系統、12G-SDI 入力を 2 系統搭載し、PC とメディア・プレーヤーに加え、ステージ用にカメラを使用するようなイベントやライブコンサートに最適。すべての入出力に独自のスケーラーを搭載し、4KとHDを同時に入出力することができるため、両者が混在するシステムでも容易に運用が可能だ。
会場ディスプレイには4K映像を出力しながら、HDモニターやライブ配信用エンコーダー等従来の HD 表示デバイスへの出力も可能。エンベデッド・オーディオの入出力にも対応するほか、XLR入力2系統を備えオーディオミキサーからの出力をもらうこともできる。中規模〜大規模イベントのコアシステムとして高い実用性を誇る。
プロダクト
ROLAND V-600UHD
販売価格:¥ 1,408,000(本体価格:¥ 1,280,000)
HDR、フル・フレームレート 60Hz、Rec.2020 規格、DCI 4K(シネマ4K)解像度など先進のテクノロジーに対応し、高精細な映像を扱うことが可能。さらに、内部映像処理は 4:4:4/10bit に対応し、PC から出力された高精細な映像も鮮明に表示可能で、拡大した映像内の細かな文字も細部まで読み取ることができる。
「ROI(Region of Interest)機能」を使えば、1 台の 4K カメラの映像から必要な部分を最大 8 つ抽出することで、複数のカメラを用意するのと同じような演出が可能になる。スケーラー機能と併せてクロスポイントに割り当てることが可能。カメラの台数に頼ることなく、映像演出の幅を拡げることができる。
Rock oN Line eStoreでのご購入はこちらから>>
ROLAND UVC-01
販売価格:¥ 27,500(本体価格:¥ 25,000)
最大1920×1080/60pに対応するRoland純正のビデオキャプチャー/エンコーダー。Mac/Windowsに対応し、ドライバーのインストール不要、USBバスパワー対応など、普段使いにも便利な取り回しのよさが魅力だ。ほとんどのHDMIカメラやビデオスイッチャーに対応するため、WEB配信の機会が多いユーザーは持っておくと便利かも。
Rock oN Line eStoreでのご購入はこちらから>>
Rock oN Line eStoreに特設コーナーが誕生!
Rock oN Line eStoreでは、カメラからスイッチャー、配信や収録向けのマイクなど、映像制作に関わる機材を集めた特設コーナーを新設している。本記事に挙げた個別の機材が購入できるのはもちろん、手軽なセット販売や、スタッフに相談できる問い合わせフォームなどもあるので、ぜひ覗いてみてほしい。
eStore特設コーナーへ!!>>
Media
2020/11/11
ライブミキサーを使用して4K制作環境でWEB配信!
ついにiPhoneが5Gに対応し、大容量データの高速通信がモバイル環境でもいよいよ実現されつつある。テレビ放送やリアルイベントではすでに4Kの需要は高まっており、その波がWEB配信の世界にも押し寄せることが予想される。折しもコロナ禍の影響で映像配信事業の成熟は加速度的に高まっており、既存メディアと同等のクオリティが求められるようになるまでにそれほど長い時間はかからないだろう。
あらゆるライブイベントをプロ仕様のプログラムとして制作することが出来るビデオスイッチャー、Blackmagic Television Studio Pro 4Kを中心とした、4K対応WEB配信システムを紹介しよう。
システムセットアップ
4K対応ビデオスイッチャーであるATEM Television Studio Pro 4Kから、4K対応のビデオキャプチャーであるUltra Studio 4K Miniで配信用のフォーマットにファイルをエンコード。配信用のMac/PCに信号を流し込む構成だ。
ATEM Television Studio Pro 4Kはマルチビュー出力を備えているため、SDIインプットのあるモニターを使用して各カメラやメディアからの映像を監視しながら映像の切り替えを行うことができる。
図ではオーディオ部分を割愛しているが、ATEM Television Studio Pro 4Kにはオーディオインプット用のXLR2系統が備わっているほか、SDIにエンベッドされたオーディオ信号を扱うこともできる。Ethernet経由でMac/PCを繋ぎ、ATEM Control Softwareを使用すれば内部で音声ミキシングも可能なため、ミキサーからのアウトをATEM Television Studio Pro 4Kに入れ、映像と音をここでまとめることが可能。
オーディオクオリティにこだわるなら、小型のオーディオI/FやI/F機能付きミキサーを使用してミキサーからの信号を配信用のMac/PCに直接入力してもよい。手持ちのミキサーの仕様や求められる品質・運用に鑑みて、柔軟な構成を取ることができる。
キープロダクト
Blackmagic Design ATEM Television Studio Pro 4K
販売価格:¥373,780(本体価格:¥339,800)
8系統の12G-SDI入力を搭載し、ハイエンドの放送用機能に対応したATEM Television Studioシリーズの中でも、ATEM Television Studio Proシリーズはプロ仕様の放送用ハードウェアコントロールパネルが一体化しており、追加のCCUにも対応。すべての入力系統に再同期機能を搭載しており、プロ仕様および民生用カメラで常にクリーンなスイッチングが可能。マルチビュー出力に対応しており、すべてのソースおよびプレビュー、プログラムを単一のスクリーンで確認できる。また、Aux出力、内蔵トークバック、2つのスチルストア、オーディオミキサー、カメラコントロールユニットなどにも対応。
ライブプロダクション、テレビシリーズ、ウェブ番組、オーディオビジュアル、そしてテレビゲーム大会のライブ放送などに最適で、カメラ、ゲーム機、コンピューターなどを接続するだけで簡単にライブスイッチングを開始できる。
Rock oN Line eStoreでのご購入はこちらから>>
Blackmagic Design UltraStudio 4K Mini
販売価格:¥125,180(本体価格:¥ 113,800)
UltraStudio 4K Miniは本来はThunderbolt 3に対応したポータブルなキャプチャー・再生ソリューション。Mac/PCにビデオI/Fとして認識される機能を利用して、4K対応キャプチャーカードとして使用することが可能だ。
最新の放送テクノロジーを搭載しており、4K DCI 60pまでのあらゆるフォーマットで放送品質の8/10-bitハイダイナミックレンジ・キャプチャー、4K DCI 30pまでのあらゆるフォーマットで12-bitハイダイナミックレンジ・キャプチャーを実現。SDカードリーダーを内蔵しているので、カメラメディアを直接コンピューターにマウントすることも可能だ。
Rock oN Line eStoreでのご購入はこちらから>>
Blackmagic Design Blackmagic Web Presenter
販売金額:¥ 62,678(本体価格:¥ 56,980)
素材のみは4Kで録っておき、配信はHD品質でもOK、という方はUltraStudio 4K Miniの代わりにこちらを。
あらゆるSDIまたはHDMIビデオソースをUSBウェブカメラの映像として認識。Skypeなどのソフトウェアや、YouTube Live、Facebook Live、Twitch.tv、Periscopeなどのストリーミング・プラットフォームを使用したウェブストリーミングを一層高い品質で実現。Teranex品質のダウンコンバージョンに対応しているので、あらゆるSD、HD、Ultra HDビデオを、低データレートながらも高品質のストリーミングが可能な720pに変換する。
ドライバ不要で、ハイクオリティの内部エンコーダーとして動作する本機があれば、キャプチャデバイスとコンピューターの相性を気にすることなくWEB配信に集中できる。
Rock oN Line eStoreでのご購入はこちらから>>
Rock oN Line eStoreに特設コーナーが誕生!
Rock oN Line eStoreでは、カメラからスイッチャー、配信や収録向けのマイクなど、映像制作に関わる機材を集めた特設コーナーを新設している。本記事に挙げた個別の機材が購入できるのはもちろん、手軽なセット販売や、スタッフに相談できる問い合わせフォームなどもあるので、ぜひ覗いてみてほしい。
eStore特設コーナーへ!!>>
Media
2020/11/11
ウェブキャスターで高品質配信!音楽演奏配信向けシステムセットアップ例
公共の場でのマスク着用と並んで、映像配信はウィズ・コロナ時代のひとつのマナーとさえ言えるほど急速にひとびとの生活に浸透している。もちろん半分ジョークだが、読者の半数は実感を持ってこのことばを迎えてくれることと思う。なにせ、このような記事を読もうと思ってくれているのだから、あなたも映像配信にある程度の関心があるはずだ。
さて、しかし、いざ自分のパフォーマンスを配信しようと思っても、どのような機材を揃えればいいのか、予算はいくらくらいが妥当なのか、というところで迷ってしまう方もいることだろう。(Z世代のミュージシャンは、そんなことはないのだろうか!?)
そこで、この記事では音楽の生演奏を前提に、低価格かつ高品質な映像配信を実現するシステムアップ例を紹介したいと思う。
システムセットアップ例
スイッチャーはATEM Miniで決まり!?
マルチカメラでの映像配信にこれから挑戦したいという方にぜひおすすめしたいビデオスイッチャーがBlackmagic Design ATEM Miniシリーズだ。4x HDMI入力やプロ仕様のビデオエフェクト、さらにはカメラコントロール機能までついた本格仕様でありながら価格破壊とも言える低価格を実現しており、スイッチャーを初めて導入するという方からコンパクトなスイッチャーを探しているプロフェッショナルまで、幅広くおすすめできるプロダクトだ。
ATEM Mini、ATEM Mini Pro、ATEM Mini Pro ISO、と3つのラインナップがあり、順次機能が増えていく。ATEM Miniでは各カメラ入力をモニターする機能がないため、バンド編成でのライブ配信などにはATEM Mini ProかATEM Mini Pro ISOを選択する方がオペレートしやすいが、弾き語りや小編成ユニットの場合はATEM Miniでも十分だろう。
ATEM Miniシリーズについての詳細はこちらの記事>>も参考にしてほしい。
オーディオI/F機能付きミキサーでサウンドクオリティUP!
ATEM Miniシリーズにはマイク入力が備わっており、ATEM Mini内部でのレベルバランスの調整も可能となっている。しかし、オーディオのクオリティにこだわるなら小型でもよいのでオーディオミキサーの導入が望ましい。ライブやレコーディングで使用できる一般的なマイクを使用することができるし、機種によってはオンボードのエフェクトも使用できる。必要十分な入出力数を確保できるし、なにより経由する機器を減らす方がクオリティは確実に上がる、とメリット尽くしだ。
音声系をいったんミキサーでまとめ、ATEM Miniからの映像信号とは別系統としてMac/PCに入力、OBSなどの配信アプリケーション内で映像と音声のタイミングを合わせるというシステムアップになる。
この時、ミキサーとオーディオI/Fを別々に用意してもよいが、最近の小型ミキサーの中にはUSBオーディオI/F機能を搭載したものも多く、「ウェブキャスター」と呼ばれるWEB配信を特に意識したプロダクトも存在する。
すでにミキサーやオーディオI/Fを所有しているなら足りない方を買い足すのがよいだろうが、これから配信に挑戦しようというならウェブキャスターなどのUSB I/F機能付きミキサーがうってつけのソリューションとなるだろう。チャンネル数、対応サンプリング周波数、マイク入力数など各モデルで特色があるため、自分に必要なスペックがわからない場合は気軽にRock oN Line eStoreに問い合わせてみてほしい。
おすすめI/F機能付きミキサー
YAMAHA AG-06
販売価格:¥ 19,800(本体価格:¥ 18,000)
ウェブキャスターという名称を広めた立役者とも言えるYAMAHA AGシリーズ。ループバック機能、ヘッドセット対応、2x マイク/ライン入力・1x 48Vファンタム電源を含む6入力、USB I/F機能、USBバスパワーなど、ウェブ動画配信に完全対応。さらに最大で192kHz/24bitというハイレゾクオリティのオーディオ性能を誇る。弾き語りや二人組ユニットだけでなく、バックトラックに合わせての演奏やトーク番組風の配信、ゲーム実況まで幅広く対応可能だ。
Rock oN Line eStoreでのご購入はこちらから>>
ZOOM LIVETRAK L-8
販売価格:¥ 39,600(本体価格:¥ 36,000)
ジングルや効果音を鳴らせる6個のサウンドパッド、電話の音声をミックスできるスマートフォン入力、バッテリー駆動でスタジオの外にも持ち出せる機動力。ポッドキャスト番組の収録やライブ演奏のミキシングが手軽に行える、8チャンネル仕様のライブミキサー&レコーダー。内蔵SDカードに録音することが可能で、12chモデル、20chモデルの上位機種もランナップされているためバンドライブの動画配信にはうってつけだろう。
Rock oN Line eStoreでのご購入はこちらから>>
Presonus StudioLive AR8c
販売価格:¥ 55,000(本体価格:¥ 50,000)
ミュージシャン達がミュージシャンのために開発したハイブリッド・ミキサーであるStudioLive® ARcシリーズは、XMAXプリアンプ/EQ/デジタル・エフェクトを搭載したアナログ・ミキサーに、24Bit 96kHz対応のマルチチャンネルUSBオーディオ・インターフェース、SD/SDHCメモリー・カード録音/再生、そしてBluetoothオーディオ・レシーバーによるワイヤレス音楽再生機能を1台に統合。ラインアップは、8チャンネル仕様、12チャンネル仕様、16チャンネル仕様の3機種。レコーディングや音楽制作のためのCapture™/Studio One® Artistソフトウェアも付属し、ライブPA、DJ、バンドリハーサル、ホームスタジオ、ネット配信に理想的なオールインワン・ハイブリッド・ミキサーとなっている。
Rock oN Line eStoreでのご購入はこちらから>>
YAMAHA MG10XU
販売価格:¥ 29,334(本体価格:¥ 26,667)
YAMAHAの定番アナログミキサーであるMGシリーズも、多くがUSB I/F機能を搭載している。WEB配信に特化した製品ではないが、高品位なディスクリートClass-Aマイクプリアンプ「D-PRE」搭載をはじめ、1ノブコンプ、24種類のデジタルエフェクトなど、本格的なミキサーとしての機能を備えており、クオリティ面での不安は皆無と言える。20chまでの豊富なラインナップも魅力。トークやMCではなく「おれたちは音楽の中身で勝負するんだ!」という気概をお持ちなら、ぜひこのクラスに手を伸ばしてほしい。
Rock oN Line eStoreでのご購入はこちらから>>
SOUNDCRAFT Notepad-8FX
販売価格:¥ 14,900(本体価格:¥ 13,545)
ブリティッシュコンソールの老舗メーカーであるSOUNDCRAFTにもUSB I/F機能搭載のコンパクトミキサーがラインナップされている。全3機種の中で上位モデルであるNotepad-12FXと本機Notepad-8FXには、スタジオリバーブの代名詞Lexicon PRO製のエフェクト・プロセッサーを搭載!ディレイやコーラスも搭載しており、これ1台で積極的な音作りが可能となっている。ブリティッシュサウンドを体現する高品位マイクプリ、モノラル入力への3バンドEQ搭載など、コンパクトながら本格的なオーディオクオリティを誇っている。
Rock oN Line eStoreでのご購入はこちらから>>
ALLEN & HEATH ZEDi-8
販売価格:¥ 19,008(本体価格:¥ 17,280)
こちらもイギリスの老舗コンソールメーカーであるALLEN & HEATHが送るUSB I/F対応アナログミキサーがZEDシリーズだ。ZEDi-8はコンパクトな筐体に必要十分で高品質な機能がギュッと凝縮されたようなプロダクトだ。2バンドのEQ以外にオンボードエフェクトは搭載していないが、定評あるGS-R24レコーディング用コンソールのプリアンプ部をベースに新設計されたGSPreプリアンプは同シリーズ32ch大型コンソールに搭載されているのと同じもの。長い歴史を生き抜いてきたアナログミキサー作りのノウハウが詰め込まれた一品と言えそうだ。
Rock oN Line eStoreでのご購入はこちらから>>
あなたに最適なATEM Miniは!?
Blackmagic Design ATEM Mini
販売価格:¥ 39,578(本体価格:¥ 35,980)
4系統のHDMI入力、モニター用のHDMI出力1系統、プロクオリティのスイッチング機能とビデオエフェクトなど、プロクオリティの機能を備えながら圧倒的な低コストを実現するATEM Mini。コンピューターに接続してPowerPointスライドを再生したり、ゲーム機を接続することも可能。ピクチャー・イン・ピクチャー・エフェクトは、生放送にコメンテーターを挿入するのに最適。ウェブカムと同様に機能するUSB出力を搭載しているので、あらゆるビデオソフトウェアに接続可能。導入コストを低く抑えたい方にはおすすめのプロダクトです。
Rock oN Line eStoreでのご購入はこちらから>>
Blackmagic Design ATEM Mini Pro
販売価格:¥ 73,150(本体価格:¥ 66,500)
ATEM Mini Proで追加される機能は「本体からインターネットへのダイレクト配信」「マルチモニタービュー」「プログラム出力の外部SSDへの収録」の3つ。本記事の主旨に則ってオーディオクオリティを優先すると、ダイレクト配信機能は使用する機会がないため、各カメラの映像を確認しながらスイッチングをしたい、または、配信した動画を高品質で取っておきたいのいずれかに該当する場合はこちらを選択することになる。
Rock oN Line eStoreでのご購入はこちらから>>
Blackmagic Design ATEM Mini Pro ISO
販売価格:¥ 113,850(本体価格:¥ 103,500)
ATEM Mini Pro ISOで追加される機能は、ATEM Mini Proの全機能に加え、「全HDMI入出力信号を外部SSDに個別に保存」「スイッチングを施したタイミングをDaVinci Resolveで読み込めるマーカーの記録」の2つ。あとから映像を手直ししたり再編集したりしたい場合にはこちらを選択することになる。アーカイブ映像として公開する前に、本番中に操作を誤ってしまった部分を修正したり、リアルタイムで無料配信したライブを編集し後日有償で販売する、といったことが可能になる。
Rock oN Line eStoreでのご購入はこちらから>>
Rock oN Line eStoreに特設コーナーが誕生!
Rock oN Line eStoreでは、カメラからスイッチャー、配信や収録向けのマイクなど、映像制作に関わる機材を集めた特設コーナーを新設している。本記事に挙げた個別の機材が購入できるのはもちろん、手軽なセット販売や、スタッフに相談できる問い合わせフォームなどもあるので、ぜひ覗いてみてほしい。
eStore特設コーナーへ!!>>
Media
2020/11/11
加速度的に進む普及、ATEM Mini Proが配信を面白くする
ATEM Mini Pro 価格:¥74,778(税込)
いま、注目を集めているのはオンライン・コラボレーションだけではない。音楽ライブ、ゲーム、セミナーなどの配信、特にリアルタイム配信の分野もまた、大きな注目を集め始めている。ここでは、そうしたライブ配信のクオリティアップを手軽に実現できるプロダクトとしてBlackmagic Design ATEM Mini Proを取り上げたい。
スイッチャーの導入で配信をもっと面白く
冒頭に述べたように、オンラインでのコミュニケーションを行う機会が格段に増えている。以前からゲームプレイの中継配信などがメディアにも取り上げらることが多かったが、ここのところではライブを中心に活動していたミュージシャンやライブハウスが新たにライブ配信に参入するケースも出てきた。もちろん普段の生活の中でもオンラインでのセミナー(所謂ウェビナー)や講義・レッスン、さらにはプレゼンの機会も多くなっているだろう。
その音楽ライブの配信は言うまでもなく、ゲーム中継やセミナー、会議やプレゼンでも、ふたつ以上の映像を配信できた方が表現の幅が広がり、視聴者や参加者により多くの事柄を伝えることができる。演奏の様子を配信する場面では、引きと寄りのアングルを切り替えた方が臨場感が増すし、音楽レッスンならフォーム全体と手元のクローズ映像が同時に見られた方がより分かりやすい。講義やプレゼンではメインの資料を大きく映しておいて、ピクチャインピクチャで講師の顔を映しておく、補足資料や参考URLなどを別PCで用意しておく、プロダクトをカメラで撮ってプレゼンする、など使い方を少し思い起こすだけでも数多くの手法が広がることになる。
こうしたニーズを満たすのがビデオスイッチャーと呼ばれるプロダクトになるのだが、現在、市場で見かけるスイッチャーのほとんどは業務用にデザインされたものになっている。サイズの大きいものが多く、また様々な機能が使用できる分だけ一見すると操作方法が分かりにくい場合もある。さらに、入出力もSDI接続である場合がほとんどであり、家庭向けのカメラとの使用には向いていない。そして何より高額だ。
しかし、昨年秋に発表されたBlackmagic Design ATEM Miniは、放送用のトランジションやビデオエフェクト機能を備えた4系統HDMI入力対応のスイッチャーでありながら、税込定価¥40,000を切るプロダクトとして大きな話題を呼んだ。今回紹介するATEM Mini Proは新たに発売された上位版にあたるプロダクトであり、ATME Mini にさらに機能を追加し、業務用途にも耐える仕上がりとなっている。どのような映像を配信したいかは個別のニーズがあるが、インターネットへマルチカムでの映像配信を検討中の方は必見のプロダクトだ。以下で、ATEM Mini、ATEM Mini Proのアドバンテージを概観していきたい。
HDMI 4系統に特化した映像入力
まず、ATEM Miniシリーズが手軽なソリューションである大きな理由は、HDMI 4系統のみというシンプルな入力であることだ。その他の入力系統を大胆に省略し、多くの家庭用カメラが対応するHDMIに接続を特化することで、十分な入力数を確保しながらコンパクトなサイズを実現している。これは、業務用カメラやSDI変換などの高額な機器が不要であるという点で、システム全体の導入費用を大幅に下げることにも貢献する。
外部オーディオ入力端子としてふたつのステレオミニジャックを備えているため、ダイナミックマイクを接続することも可能。画角との兼ね合いでカメラからのオーディオが使用しにくい場合でも、クリアな音質を確保することができる。2020年6月のアップデートで、コントロールソフトウェアで外部からのオーディオ入力にディレイを掛ける機能が追加され、画・音のずれを修正することも可能になった。
システムをコンパクトに
さらに、ATEM Miniシリーズの利点として配信システムに必要なデバイスの数を減らすことができるという点も挙げられる。スイッチャーを中心としてマルチカム配信システムの構成をざっくりと考えると、カメラやMac/PCなどの映像入力機器、スイッチャー、信号を配信に向いたコーデックにエンコードするキャプチャー/WEBキャスター、配信アプリケーションのインストールされたMac/PC、となる。
ATEM Miniはこのうち、スイッチャーとキャプチャーの機能を併せ持っている。Mac/PCからウェブカムとして認識されるため、配信用のMac/PCに接続すればそのままYouTube LiveといったCDNに映像をストリーミングすることができるのだ。それだけでなく、SkypeやZoomなどのコミュニケーションツールからもカメラ入力として認識されるため、会議やプレゼン、オンライン講義などでも簡単に使用することができる。上位機種のATEM Mini Proはこれに加えて、配信アプリケーションの機能も備えている。システムを構成するデバイスを削減できるということは、コスト面でのメリットとなるだけでなく、機材を持ち込んでの配信や、システムが常設でない場合などに、運搬・組み上げの手間が省略できるというアドバンテージがある。
ATEM Miniは図のようにスイッチャー、キャプチャーをひとまとめにした機能を持っているが、上位版のATEM Mini Proではさらに配信環境までカバーする範囲が広がる。まさにオールインワンの配信システムと言える内容だ。
つなぐだけ派にも、プロユースにも
デフォルトの設定では、ATEM Mini / ATEM Mini Proは4系統のHDMIに入力された信号を自動で変換してくれる。つまり、面倒な設定なしでカメラをつなぐだけで「とりあえず画は出る」ということだ。
しかし、ATEM シリーズに無償で同梱される「ATEM Software Control」は、これだけで記事がひとつ書けてしまうほど多機能で、クオリティにとことんこだわりたい場合はこちらから詳細な設定やコントロールを行うことも可能。スイッチングやオーディオレベルの操作は本体のパネルからも行うことができるが、コントロールソフトウェアを使用すれば、さらに追い込んだ操作を行うことが可能になる。このATEM Software Controlの各機能はDaVinci Resolveで培われた技術を使用しているため、オーディオ/ビデオ・エフェクトやメディア管理など、業務レベルに耐えるクオリティの仕上がりになっている。
しかも、ATEM Software Controlはネットワークを介して本体と接続できるため、離れた場所からのスイッチャー操作も可能。HDMIは長尺ケーブルを使用するのがためらわれるが、この機能を使用すればカメラ位置に左右されずにオペレーションするスペースを確保することができる。さらに、同時に複数のATEM Software ControlからひとつのATEM Mini / ATEM Mini Proにアクセスできるため、スイッチング / カメラ補正 / オーディオミキシング、など、役割ごとにオペレーターをつけるというプロフェッショナルな体制を取ることまでできてしまう。
ATEM Software Controlのコントロール画面。なお、オーディオパネルはMackie Control、KORG NanoKontrol、iCON Platform M+などの外部コントローラーに対応している。スペースに余裕が生まれた分、こうした機材を導入して音のクオリティアップで差をつけるのも面白いだろう。
ATME Mini VS ATEM Mini Pro
●CDNにダイレクトにストリーミング
ATEM MiniとATEM Mini Proのもっとも大きな違いと言えるのが、ATEM Mini Proでは本体を有線でインターネットにつなげば、ダイレクトにCDNに映像をストリーミングすることができるということだ。もちろん、ストリーミングキーを入力してやるためのMac/PCは必要になるが、一度キーを設定してしまえば本体から取り外しても問題ない。手元のスペースを節約できるだけでなく、安定した配信を行うためにスペックの高いMac/PCを新たに購入する必要がなくなるし、ストリーミングのように安定度が求められる部分をハードウェアに任せることができるのは大きな安心だ。省スペース、低コスト、高い信頼性、と、この機能の実装によって得られるメリットは非常に大きいのではないだろうか。ライブハウスなどによるビジネス用途ならATEM Mini Pro、すでに十分に高いスペックのマシンを所有しているならATEM Miniと、既存の環境に応じてチョイスするとよいのではないだろうか。
●マルチビュー対応
こちらもパワフルな機能。ATEM Mini ProにはHDMI出力が1系統しか搭載されていないが、一画面で全ての入力ソース、メディアプレイヤー、オーディオとON AIRのステータスを確認することができる。各モニターはタリーインジケーターを表示可能で、どのソースがオンエアされ、次にどのソースへトランジットするかを確認することができる。プレビュー機能も備えており、M/Eがどのようにかかるのかを事前に確認することも可能だ。これらすべてを一画面でモニターできるというコンパクトさと取り回しのよさは、まさに"Pro"という名にふさわしい機能追加と言えるだろう。
●外部デバイスへプログラムをレコーディング
ATEM Mini Proは、プログラムをH.264ビデオファイルとしてUSBフラッシュディスクにダイレクトに記録することができる。しかも、USBハブやBlackmagic Design MultiDockなどのプロダクトを使用すると、複数ディスクへの収録にも対応可能だ。ひとつのディスクがフルになると、自動で次のディスクに移行することで、長時間のストリーミングでも継続した収録を行うことができる。YouTube LiveやFacbook LiveではWEB上にアーカイブを残すことが可能だが、プログラムをその場で手元にメディアとして持っていられることは、ほかの場所で使用することなどを考えると大きなメリットとなるだろう。
実際の自宅からの簡易的な配信を想定したシステム例。ATEM Mini Proで取りまとめさえすれば配信への道は簡単に開けてしまう。音声の面でも48Vファンタム対応の小型ミキサーを使用すればコンデンサーマイクを使用することができる。HDMIアダプタを使用して、スマートフォンやタブレットをカメラ代わりに使うことも可能。別途、配信用のMac/PCを用意すれば、複数の配信サイトにマルチキャストすることもできる。
にわかに活況を呈するコンパクトビデオスイッチャーの世界。小さなスペースで使用でき、持ち運びや設置・バラシも手軽な上に、マルチカメラでの配信をフルHD画質で行うことを可能にするコンパクトスイッチャーをシステムの中心に据えることで、スマホ配信とは別次元のクオリティで映像配信を行うことが可能となる。特にATEM Mini / ATEM Mini Proを使用すれば、ほんの何本かのケーブルを繋ぐだけで、高品質な配信が始められてしまう。ぜひ、多くの方に触れてみてほしいプロダクトだ。
*ProceedMagazine2020号より転載
Media
2020/10/27
On Premise Server パーソナルなオンプレサーバーで大容量制作をハンドリング
Internetの発達に伴って進化を続けている様々なCloudベースのサービス。その一方で、コスト面も含めて個人の自宅でも導入できるサイズの製品も着実な進化を遂げているのがOn Premise(オン・プレミス=敷地内で)のサーバーソリューション。Cloudのように年額、月額で提供されるサービスと比較するとどのようなメリットがあるのか、オンプレのサーバーはNetwork上からどう活かされるのか、オンラインでの協業体制が求められる今だからこそパーソナルユースを視野に入れたエントリーレベルにおけるオンプレサーバー導入のいまを見ていきたい。
Synology Home Server
今回、取り上げる製品はSynology社のホームサーバー。ラインナップは1Drive(HDD1台)のコンパクトな製品からスタートし、1DriveでHDD無しのベアボーンが1万円前半の価格から入手できる。何かと敷居の高いサーバーソリューションの中でも、パーソナル領域におけるラインナップを充実させているメーカーだ。このホームサーバーの主な役割は、ローカルネットワーク上でのファイル共有サービス(NAS機能)と、Internetに接続されたどこからでもアクセス可能なOn Premiseファイル・サーバーということに集約される。
もちろんそれ以外にも、遠隔地に設置されたSynology製品同士での自動同期や、プライベートな音楽/動画配信サーバー機能、ファイルのバージョニング機能、誤って消去してしまったファイルの復元機能など多彩な機能を持ち、ローカルでのファイル共有に関しては汎用のNAS製品と同様に、Windows向けのSMB/NFS共有、MacOS向けのSMB/AFS共有が可能と、それぞれOSの持つ標準機能でアクセスができるシンプルな形式を持つのだが、今回はこのようなローカル環境でのサービスではなく、外出先でも活用ができるサービスに目を向けたい。
Synologyの設定画面。ブラウザでアクセスするとOSライクなGUIで操作できる。
コスト優位が際立つオンプレ
外出先で、サーバー上のデータを取り出せるサービスといえば、DropBox、OneDriveなどのCloudストレージサービスが思い浮かぶ。Synologyの提供するサービスは、一般向けにもサービスの提供されているCloudストレージと比較してどのような違いがあるのだろうか?
まず、SynologyのようなOn Premiseでのサービスの最大のメリットは、容量の大きさにあるだろう。本原稿の執筆時点で一般向けに入手できる最大容量のHDDは16TB。コスト的にこなれてきている8TBのモデルは2万円を切る価格帯で販売されている。これは1TBあたりの単価は¥2,000を切る水準となっており、容量単価のバランスも納得いくレベルなのではないだろうか。
これをCloud Stroageの代表格であるDropBoxで見てみると、1TBの容量が使える有償サービスは年額¥12,000となる。もちろん、機器の購入費用が必要ない、壊れるという心配がない、電気代も必要ない、などCloudのメリットを考えればそのままの比較はできないが、8TBという容量を持つ外出先から接続可能なOn Premiseサーバーの構築が4万円弱の初期投資で行えるということは、コストパフォーマンスが非常に高いと言えるだろう。また、4Drive全てに8TBのHDDを実装しRAID 5の構成を組んだとすれば、実効容量24TBという巨大な容量をNetwork越しに共有することが可能となる。大容量をコストバランスよく実現するという側面をフォーカスすると、On Premiseのメリットが際立ってくる。
利用している帯域など、ステータスもリアルタイムに監視が可能だ。
オンプレの抱える課題とは
このように単純に価格で考えれば、HDDの容量単価の低下が大きく影響するOn Premiseの製品のコストパフォーマンスは非常に高いものがある。その一方で、On Premiseが抱えるデメリットがあることも事実。例えばCloudサービスであれば、データはセキュリティーや防災対策などが万全になされたデータセンターに格納される。データの安全性を考えると自宅に設置された機器との差は非常に大きなものになるだろう。もちろん、Synologyの製品も2Drive以上の製品であればRAIDを構築することができるため、データの保全に対しての対策を構築することも可能だが、これは導入コストとトレードオフの関係になる。実例を考えると、ストレージの速度とデータの保全を両立したRAID 5以上を構築しようとした際には3 Drive以上の製品が必要。製品としては4Drive以上の製品に最低3台以上のHDDを実装する必要があり、初期導入コストは8万円程度が見込まれる。1TB程度の容量までで必要量が足りるのであれば、Cloudサービスの方に軍配があがるケースもある。必要な容量をどう捉えるかが肝要な部分だ。
また、On Premiseの製品は手元にあるために、突如のトラブルに対しては非常に脆弱と言わざるを得ない。前述のようにデータセンターとは比較にならない環境的な要因ではあるが、2〜3年おきにしっかりと機器の更新を行うことで、そういったリスクを低減することはできる。そのデータはどれくらいの期間の保持が必須なのか、重要性はどれほどのものなのか、保全体制に対しての理解をしっかりと持つことで、大容量のデータの共有運用が見えてくる。
オンプレをNetworkから使う
パッケージセンターには数多くのアプリケーションが用意されている。
Synology社のOn Premiseサーバーは、専用のアプリをインストールすることでInternet接続環境があればどこからでも自宅に設置されたサーバーのデータを取り出すことができる。また、DropBoxのサービスのように常時同期をさせることもできれば、特定のフォルダーを第三者へ共有リンクを送り公開する、といった様々なサービスを活用できる。設定もWebブラウザ上からGUIを使うシンプルなオペレーションとなっており、設定も極めて簡便。VPNを使用するというような特別なこともないため、迷うことなく自宅のサーバーからファイル共有を行うことが行えてしまう。ユーザーの専門知識を求めずに運用が可能な水準にまで製品の完成度は高まっていると言えそうだ。
ファイル共有のあり方は多様になっており、ユーザーの必要な条件に合わせてOn Premise、Cloudと使い分けることができるようになってきている。むしろ選択肢は多彩とも言える状況で、メリット、デメリットをしっかりと理解し、どれくらいのデータ量をハンドリングしたいのか、そのデータの重要性をどう考えるか、ユーザーの適切な判断があれば充実したパーソナルサーバー環境はすぐにでも構築、実現できてしまう。今後、ますます大容量となるコンテンツ制作のデータをどう扱えるのかは、パーソナルな制作環境にとっても重要な要素であることは間違いないだろう。それをどのようにハンドリングするかの鍵はここにもありそうだ。
*ProceedMagazine2020号より転載
Media
2020/09/24
Macのワークステーションが今後を”創る” 〜Apple Mac Pro Late2019〜
目次
序論
Apple Mac Pro Late2019概要
Mac Pro Late2019の各構成部品:CPU
Mac Pro Late2019の各構成部品:メモリ
Mac Pro Late2019の各構成部品:PCI Express拡張スロット
Mac Pro Late2019の各構成部品:GPU
Mac Pro Late2019の各構成部品:AfterBurner
考察
1:序論
各業界で注目を集めたApple Mac Pro Late2019は2019年6月に発表、同年12月より発売が開始された。同社CEO Tim Cook氏はWWDC2019の基調講演で「これまでに開発した中で最も強力なMac」と語り「すべてを変えるパワー」と広告される本機種。その驚異的なマシンスペックと拡張性などの紹介から前機種との比較などを通し、Macのワークステーションが作り得る未来への可能性を紐解いていく。
2:Apple Mac Pro Late2019概要
<↑クリックして拡大>
発表当初より、Apple Mac Pro Late2019は注目度も高く、既に発売されているためデザイン面など基本的な情報は皆さんご存知であろう。たださすがにMac Proの最新モデルともあり、オプションも多岐に渡るため構成部品とそのカスタマイズ域についてを別表にまとめるのでご確認いただきたい。また「これまでに開発した中で最も強力なMac」「すべてを変えるパワー」と称されるMac Pro Late2019だが、比較対象に直近3モデル:Mid2012・Late2013・Late2019を取り上げ、CPU / メモリ / GPU / ストレージ、周辺機器との接続性なども同様に別表に掲載する。それでは、次から各構成部品の紹介に移り、Mac Pro Late2019の内容を確認していく。
<↑クリックして拡大>
【特記事項】
・min maxの値:Apple公表値を基準とする。メモリなど3rdパーティー製品による最大値は無視する。
・CPU/GPU:モデル名を表記する。比較はベンチマークで行い後述する。
・メモリ/ストレージ:モデル名は表記せず、容量/動作周波数、容量/PCIe規格といった数値表記とする。
・数値の表記:比較を用意にする為、単位を揃える。(メモリ:GB、ストレージ:TB)
3:Mac Pro Late2019の各構成部品:CPU
Apple HPの広告で搭載CPUについては、”最大28コアのパワー。制限なく作業できます。”と称されている。このモデルではMac史上最多の最大28コアを搭載したIntel XeonWプロセッサを採用、8coreから28coreまで、5つのプロセッサをラインナップしたため、ニーズに合わせた性能を手に入れることができるようになった。CPUはコンピュータの制御や演算や情報転送をつかさどる中枢部分であるが、直近3モデル(Mid2012/Late2013/Late2019)のCPUパフォーマンスを比較し、その実力を見ていく。まずは以下のグラフをご覧いただこう。
図1. Mac Pro CPU(Multi-core)ベンチマーク比較
こちらのグラフは、モデルごとのCPUベンチマーク比較である。横軸左から、Mid2012(青)→Late2013(緑)→Late2019(オレンジ)と並び、各モデルの最低CPUと最高CPUにおける、マルチコアのベンチマーク値を縦軸に示した。ベンチマーク値はGeekBenchで公開されるデータをソースとしている。Late2019の最低CPUの値に注目しラインを引くと、旧モデル最高CPUの値をも超えていることがわかる。たとえ、Late2019で最低のCPUを選んだとしても、旧MacPROの性能を全て超えていくということだ。決して誇大広告でなく、「これまでに開発した中で最も強力なMac」と称される理由の一つだと分かる。数値で示すと以下表になる。参考までに、Single-Coreのベンチマーク値も掲載する。
表3. Late2019/最低CPU と 旧モデル/最高CPUのベンチマーク値
次に、Late2019最大値にもラインを引き、Late2019最低値との差分に注目する。この差分が意味するのは、ユーザーが選択できる”性能幅”である。ユーザーはこの範囲の中から自らの環境に合わせてMacPROをコーディネートしていくことになる。視覚的にも分かる通り、Late2013と比べても圧倒的に性能の選択幅が広くなっている事が分かる。
図2. Mac Pro Late2019 ベンチマーク性能幅
数値を示すと以下のようになる。Late2013と比較すると、約3倍もの性能選択幅があることが分かる。
表4. 性能選択余地の遷移
以上の比較から、旧MacProから乗り換える場合、”Late2019を買えばCPU性能が必ず向上する”ということが分かった。しかし、性能幅も広がった為、新たにLate2019を検討する方は自分に合うCPUを選択する必要がある。Late2013よりも長期的運用が可能だと噂され、CPUが動作速度の根幹であることを考えると、Mac Pro Late2019のCPUは少しオーバースペックなものを選択しても良いかもしれない。参考までに、現行MacのCPU性能比較もご覧いただきたい。なお、現行モデルの比較対象として以下モデルを追加した。iMac Pro Late 2017 / Mac mini Late 2018 / iMac 21.5inch Early 2019 / iMac 27inch Early 2019 / Mac Book Pro 16inch Late 2019(ノート型の参考)
図3. 現行MacとMacPro Late2019との比較
<↑クリックして拡大>
このグラフで注目するのは、Late2019のCPU最低値と16core XeonWの値である。まず、CPU最低値に注目すると、iMacのCPU値と交差することが分かる。また、16core XeonWの値に注目すると交差するCPUが存在しなくなることが分かる。故に、現行モデル以上の性能を求め、他にない性能を実現するには16core XeonW以上の選択が必要となる。また、ワークステーション/PCの性能はCPUのみで決まることではないので、購入の際にはメモリ、GPUや拡張性なども十分考慮していただきたい。
4:Mac Pro Late2019の各構成部品:メモリ
Apple HPの広告でメモリについては、"あなたが知っているメモリは、昨日のメモリです。”と称されている。ユーザーがアクセスできる12の物理的なDIMMスロットを搭載し、プロセッサと互換性のあるメモリであれば、将来的なアップグレードも可能だ。Mac Pro Late2019ではR-DIMMとLR-DIMMのメモリモジュールに対応しているが、同じシステムで2種類のDIMMを使うことはできないので容量追加には注意が必要である。LR-DIMM対応のCPU(24core以上のXeonW)を選択した場合、最大1.5TBの容量を実現する。
ワークステーション/PCの”作業机”と訳される事も多いメモリ。データやプログラムを一時的に記憶する部品であるが、CPU同様に直近3モデルと比較していく。まずは最小構成、最大構成の2種類のグラフをご覧いただこう。
図4. MacPro:メモリ最小構成での比較
図5. MacPro:メモリ最大構成での比較
表5.MacPro:メモリ最小構成での比較
表6.MacPro:メモリ最大構成での比較
横軸はCPU同様、Mac Pro Mid2012/Late2013/Late2019を並べている。縦軸左側はメモリ容量値で青棒グラフで示し、右側は動作周波数をオレンジ丸で示している。図4.最小構成のグラフに注目しメモリ容量を比較すると、おおよそモデル毎に倍々の推移が見られる。また、動作周波数に関しては2次曲線的推移が見られる。モデルの発展とともに、部品としての性能も格段に上がってきている事が分かる。図5.最大構成のグラフに関しては一目瞭然ではあるが、表6.最大構成のLate2019、メモリ容量の前モデル比に注目すると23.44という驚異的な数値を叩く。これもまた、「これまでに開発した中で最も強力なMac」と称される理由の一つだと分かる。
さて、購入検討時のメモリ問題であるが、こちらは後ほどアップグレードできる為、初めは低容量から導入し、足りなければ随時追加という方式が取れる。メモリで浮いた金額をCPUへ割り当てるという判断もできるため、予算を抑えながら導入も可能だ。ただし、CPUによるメモリ容量の搭載上限が決まり、メモリモジュールを合わせる事を念頭に入れ検討する事が重要だ。
5:Mac Pro Late2019の各構成部品:PCI Express拡張スロット
Mac Pro Late2019ではCPUの性能幅やメモリの拡張性に加え、8つのPCI Express拡張スロットの搭載が可能になった。Avid HDX Card や Universal Audio UAD-2 PCIe Cardを搭載してオーディオプロセスを拡張するも良し、加えて、GPU / AfterBurner(後述) / キャプチャボードを搭載し、グラフィック面を拡張しても良い。まさに、クリエイティブなユーザーの思いのままに、Mac Proの拡張が可能になったと言える。さらに、Mac Pro Mid2012と比べるとスロット数が倍になっていることから、PCIeによる機能拡張においても「これまでに開発した中で最も強力なMac」であると分かる。
写真を参考に、搭載可能なPCIeについて確認していこう。上から順に、ハーフレングススロット、シングルワイドスロット、ダブルワイドスロットと並ぶ。下から順に、スロットNo.が1-8までカウントされる。
それでは各種のスロットについて見ていこう。
○ハーフレングススロット:No.8
スロットNo.8には最大 x4 レーンのPCIeカードが搭載可能。ここには標準仕様でApple I/Oカードが既に搭載されており、Thunderbolt 3ポート× 2、USB-Aポート× 2、3.5mm ヘッドフォンジャック× 1を備える。このI/Oカードを取り外して他のハーフレングスPCIeカードに取り替えることもできるが、別のスロットに取り付けることはできないので、変更を検討する場合には注意が必要だ。
○シングルワイドスロット:No.5-7
スロットNo.5には最大 x16レーン、No.6-7には最大 ×8レーンのPCIeカードが搭載可能。スロットNo.5の最大 ×16レーンには、AfterBurnerはに取り付けることが推奨される。後述のGPUとの連携からであろうが、他カードとの兼ね合いから、AfterburnerをNo.5に取り付けられない場合は、後述のスロットNo.3へ、No.3とNo.5が埋まっている場合はスロット4へ取り付けると良い。
○ダブルワイドスロット:No.1-4
スロットNo.1,3,4には最大 x16レーン、No.2には最大 x8レーンのPCIeカードが搭載可能。スロットNo.1、No.4は2列に渡ってPCIeが羅列しているが、これは後述するApple独自のMPX Moduleを搭載する為のレーンになる。MPXモジュール以外で使用する場合は、最大 x16レーンのPCIeスロットとして使用できる。
6:Mac Pro Late2019の各構成部品:GPU
Apple HPの広告でGPUについては、"究極のパフォーマンスを設計しました。”と表現されている。業界初、MPX Module(Mac Pro Expansion Module)が搭載され、業界標準のPCI Expressのコネクタに1つPCIeレーンを加えThunderboltが統合された。また、高パフォーマンスでの動作のため、供給電力を500Wまで増やし、専用スロットによる効率的な冷却を実現している。500Wというと、一般的な冷蔵庫を駆動させたり、小型洗濯機を回したり、炊飯器でご飯を炊けたりしてしまう。また、Mac Pro Late2013の消費電力とほぼ同等である為、相当な量であるとイメージできる。話が逸れたが、GPUに関してもCPU同様に前モデルと比較していく。
図6. MacPro:GPU最小/最大での比較
こちらのグラフは、モデルごとのCPUベンチマーク比較である。横軸左から、Mid2012(青)→Late2013(緑)→Late2019(オレンジ)と並び、各モデルの最低GPUと最高GPUにおける、マルチコアのベンチマーク値を縦軸に示した。ベンチマーク値はGeekBenchで公開されるデータをソースとしているが、Mid2012に関しては有効なベンチマークを取得できなかった為、GPUに関してはLate2013との比較になる。また、AMD VegaⅡDuoは2機搭載だが、この値は単発AMD VegaⅡDuoの値となる。
表7.MacPro:GPU最小部品での比較
表8.MacPro:GPU最大部品での比較
部品単体であっても、前モデルからは最小でも2倍、最大では3倍のパフォーマンスを誇る。最大部品である。AMD Radeon Pro VegaⅡDuoはさらにもう一枚追加できるため、グラフィックの分野でも十分驚異的なスペックが実現できると言える。これも「これまでに開発した中で最も強力なMac」と称される理由の一つとなる。
7:Mac Pro Late2019の各構成部品:AfterBurner
Afterburnerとは、ProRes/Pro Res RAW ビデオファイルのマルチストリームのデコードや再生を高速化するハードウェアアクセラレータカードである。まず、AfterBurnerを導入するメリットを振り返ろう。ProRes や ProRes RAW のマルチストリームを8Kなどの解像度で再生するための演算をこのAfterBurnerに任せられる。逆にない場合、Mac Pro Late2019のCPUで演算を行うため、その負担分が編集作業に回せなくなってしまう。AfterBurnerによる外部演算を取り入れることによりCPUでは他の処理や映像エフェクトの演算に注力できる為、より複雑な3D、映像編集が可能となる。また、ProRes および ProRes RAW のプロジェクトやファイルのトランスコードおよび、共有が高速化する事もメリットの一つである。
AfterBurnerの対応するアプリケーションは、"ProRes または ProRes RAW のファイルを再生するApple製のアプリケーション”である。例えば、Final Cut Pro X、Motion、Compressor、QuickTime Player などで使用可能だ。その他、他社製のアプリが気になるところだが、"他社製の App のデベロッパが、Afterburner のサポートを組み込むことは可能”とのことなので、今後の対応に期待したい。
8:考察
Mac Pro Late2019の登場により、従来のMacからは考えられないようなスペックでワークステーションを導入する事が可能になったが、ハイスペックかつ消費電力も高いため、初期投資およびランニングコストも大きくかかってしまうというリスクもある。しかし、クリエイティブ以外に時間を割いていると感じているならば朗報である。例えば、レンダリング、プロキシファイル変換、変換によって生じるファイルマネジメントなどなど。Mac Pro Late2019の性能は、作品を完成させるまでの待機時間や面倒な時間を圧倒的に減らし、ユーザーのクリエイティブな時間をより多く提供してくれると考える。
従来機よりも早く仕事を終わらせ、次の仕事に取り掛かる、それを終えたらまた次の新しい仕事へと取り掛かる。サイクルの早い循環、クオリティの向上が、他者との差別化に繋がっていく。初期投資、ランニングコストなど懸念点も多いが、その分クリエイティブで勝負して稼いでいく、というスタイルへMac Pro Late2019が導いてくれるかもしれない。これからの時代の働き方を変え、クリエイティブ制作に革新が起きることを期待している。
*ProceedMagazine2020号より転載
Post
2020/09/01
株式会社松竹映像センター 様 / AVID S6 Dual Head + 4 MTRXシステムで進化した 変幻自在のDubbing Stage
株式会社松竹映像センターは、2015年にお台場へ移転をしてから早くも5年。移転前の大船時代より使い続けてきたEuphonix System 5から、映画の本場ハリウッドでも採用が進むAVID S6を中核としたシステムへと更新を行った。今回更新のテーマを大きくまとめると、「音質」と「作業効率」両者を最大限に両立しつつ様々なワークアラウンドに対応できるようにする、ということ。その実現に向けた機器の選定からシステムアップまでお手伝いをさせていただいた。
音質、効率、柔軟性、三拍子揃ったシステムを目指して
システムの中心となるのは、AVID S6とAVID MTRX。Playout4台(*1)、Mixer2台、Dubber1台のPro Toolsと、従来のシステムから引き継がれたMixer3台とDubber1台のNuendo、これらが4台のMTRXに接続され、それぞれの繋ぎ変えにより様々なシステムを構成可能なようにシステムアップが行われている。従来のSystem5が担っていたConsoleのCenter Sectionは、MTRXのMonitor Profileがその機能を引き継いでいる。
以前の記事で松竹映像センターのご紹介を行っているが、大船からお台場へ移転の際に設計されたAnalog SRCとNuendoをMixing Engineとしたシステムは、ワークアラウンドの選択肢の一つとして今回の更新でもそのまま残されている。Analog SRCとは、Digital接続で問題となるサンプルレート、フレームレートの相違による問題の解決と、音質向上を狙ったMixing Engineの96kHz動作を行わせるために、Playout DAWとMixing Engineの間をあえてAnalogで接続するシステムをそのように呼んでいる。Playoutの素材として持ち込まれたデータの大半は48kHz。DAW内でサンプルレート変換を行っても良いのだが、一旦アナログにDAしてから96kHz動作のMixing Engineへと信号を導いたほうがサウンドとして良い結果が得られた。実際に音を聴きながら機器選定を行った結果として、2015年の移設の際に導入させていただいたシステムがこのAnalog SRCとなる。
このAnalog SRCは、サンプルレートの違いを吸収するとともにフレームレートの0.01%の吸収にも役立っている。できる限りデジタル上でのデータの改変は行わない、というのがこのシステムの根底に流れるポリシーとなっている。「デジタルの利便性と音質をいかに両立させるか」というのが、前回の更新の大きなテーマだった。今回の更新ではそこに「作業効率」という新たなテーマが加わった格好だ。
2020年
2015年
(*1)ダビングステージということでPlayout用に、D=Dialog(セリフ)、M=Music(音楽)、E=Effect(効果音)、F=Foley(効果音)のそれぞれに計4台のPro Tools HDXシステムが用意され、Eは128ch、D,M,Fは64chの出力が用意されている。これらはMADIによりMixer用のPro Toolsへと送られる
「現場の音」を届けたい
全てのシステムをシンプルにデジタルで直結することによりピュアなサウンドが保たれるのではないか?信号の経路を最短にすることでシンプルで効率の良いシステムが構築できるのではないか?そういったことが各方面より検討され、ハリウッドなどで活用されるシステムなども、松竹映像センターの吉田様に実際にハリウッド現地の視察を行っていただき、もたらされた情報とともに進められた。同時に、ハリウッドのスタイルでは、PlayoutのPro Toolsの内部である程度のSTEM MIXが行われ、Dubberの内部でFinal Mixが行われる。まさにIn The Boxのスタイルが良くみられる。しかし国内のダビングステージではMixing Consoleが健在であり、In The BoxでのMixingではなく、ConsoleでのMixingを求める声も大きい。
そこで、今回の更新では、AVID S6をSurfaceにMixng Engineとして機能するPro Toolsを2式増設することとなった。なぜ2式のPro ToolsにしたかというとInputのチャンネル数に余裕をもたせるためである。Pro ToolsはHDX card1枚に付き64chのIN/OUTという物理的な制約が存在する。現状最大構成となるHDX3で192chが上限ということになる。ステレオミックスであれば192chのInputは十分に思えるかもしれないが、5.1chを基本とする映画ダビングでは192chというのは、32 stemに当たる。これを4台のPlayoutに分配するとたったの8 stemとなる。設計段階でギリギリのスペックとするのではなく、余裕をもたせたい。その考え方から2台のPro ToolsをMixing Engineとして準備した。AVID S6が同時に8台のDAWをコントロールできるという機能性の高さにも助けられている。
最終段のレコーダーに当たるDubberは、従来のNuendoに加え、Pro Toolsが整備された。Dubberへの回線はAnaSRCを介しての接続と、デジタルダイレクトでの接続が両方選べるように設計されている。Analog SRCの場合には、FInal Mixは一旦DAされ他Analog信号がADされてDubberへと接続される。この接続には松竹映像センター様がお台場移転時に実現した一つの理想形。モニタリングを行っているスピーカーから出力されている信号を聞いて、エンジニアはその良し悪しを判断している。そのサウンドを残すことが、スタジオとしての命題である、という考え方だ。通常のシステムでは、レコーダーに収録された音を最終的に聞くことにより判断を行っている。しかし、レコーディングを行うということは、デジタルにおいても何かしらの変質をはらむ行為となるため、あえてシグナルパスは増えることになるが、ミキシング中に聞いている音との差異を最低限にするための一つの手法としてこの様な選択肢を持っている。
もう一方のデジタルダイレクトでの接続は、出来る限りそのままの信号を残すというデジタル・ドメインの理想形を形にしている。デジタルレコーダーから出力された音声は、デジタルのままピュアにレコーダーまで接続される。現代のデジタル・オーディオのシステムに於いて最後までアナログに戻さずに、劣化の少ないデジタルのまま、シグナルを処理するという理想形の一つだ。
このダビングステージは、サウンドのクオリティーを追い求める飽くなき探究を、実際にシグナルパスの変更により適材適所に選択できる国内有数のシステムとなっている。作品に合わせ、その作業の内容に合わせ、柔軟に変化できるシステムであり、現場の音をどうしたら理想に近いクオリティーで届けられるか、という飽くなき探究の結果が、理想のサウンドに合わせて選べるシグナルパスとして結実している。
アシスタント・デスクは1面増え、全5面のPC DISPLAYが設置されミキサー&レコーダーのコントロールを一括して操作することができる。
Play Out機を操作するカートは、Dual Displayへと改造され操作性が向上している。ユーザーからのリクエストの多かったポイントだ。
Column:AD/DAどちらが音質に効果的?
ADコンバーターと、DAコンバーター。どちらが音質に対して与える影響が大きいのだろうか?もちろん、どちらも”コンバート”=”変換”を行う以上、何かしらのロスをはらむ行為となる。各機種を徹底して聴き比べた結果、Master Clockによる影響が同一だとすれば、ADコンバーターの音色差は、それぞれが持つプライスほどの差を感じなかった。一方のDAコンバーターは、同一のMaster Clockを供給したとしてもその音質差は大きく、メーカーごとの個性が確実に出るということがわかった。ちなみに、Master Clockを供給せずにインターナルで動作させた場合にはADコンバーターも差が大きく出ることを付記しておく。
ADコンバーターの動作原理は、線形波形を時間軸でスライスし(標本化)、その波形の大小を量子化することでPCMのデータを取り出している。標本化する時間間隔が標本化周波数=サンプリングレートであり、48kHzであれば、1秒を48,000等分するということである。そこでスライスされたデータは大小を基に量子化され、デジタルデータとして出力される。その際、WAVデータでは最大値をフルビットとし、無信号との間を24bitであれば16,777,216段階に分割。どの段階が一番近いかということで近似値をデータとして出力している。かなり細かく説明を書いてしまったが、線から点へ間引く作業を行っているとも言える。この間引く間隔がMaster Clockであり、その正確性がデータにダイレクトに反映する部分でもある、この部分が同一であれば、量子化する仕組みはどの機器もほぼ同一のデルタ・シグマ・モジュレーターを採用しているため、差が生まれにくいのだと考えられる。
もう一方のDAコンバーターは、間引かれて点になっているデータを、線形に変換するという作業を行っている。ここではオーバーサンプリングと呼ばれる技術が使われ、点と点の間を補完することで線形に変換している。この”補完”の部分は、ADコンバーターでも使われているデルタ・シグマ・モジュレーターが一般的には使われているが、DAコンバーターの場合には、複数の方式(何倍のオーバーサンプリングなのか、1Bit or マルチBit回路)があり、さらに線形の情報として取り出したあとにラインレベルまで増幅するアナログアンプが存在する。これらの違いにより、機器間の差が大きく出る傾向のようだ。
外的要因=Master Clockにより、その精度が画一化されるADコンバーターと、メーカーの設計による部分の大きいDAコンバーター。感覚的にはADの方が、とも思いがちだが、実際に色々と試してみるとDAの方が顕著な差があるということとなる。この結果は、あくまでもMaster Clockが存在するという前提のもとでの結果だということになる。Internal Clockであれば、その機器の持つClockの精度という、また別の音質に影響を与える要因が生じるということは忘れないでほしい。
“これまでの利便性を活かす”ソリューション
実際のシグナルフローのお話は、後ほどしっかりとさせていただくとして、AVID S6をみてみたい。これまでEuphonix System 5が導入されていたダビングステージ。写真を見ていただきたいのだが、特注で作ったSystem5用のデスクをそのまま流用している。8フェーダーごとにモジュール構成になっていたSystem 5を作業に合わせて、左右を入れ替えて使用していた。今回の改修では、デスクはそのまま、System 5で行っていたようなモジュールの入れ替えにより、サーフェースの変更にも対応する仕組みをこれまで通りに実現している。
これを実現したのが、イギリスのFrozen Fish Designというメーカーがリリースする「Euphonix Hybrid Backet」という製品。AVID S6のモジュールを、Euphonix System 5のモジュールとそっくりそのままのサイズのシャーシに収めてしまうというアイデア製品だ。もともとは、System 5とAVID S6が同居したHybrid Consoleを、というアイデアからの製品である。余談だが、AMS NEVE DFCのモジュールと同じサイズにAVID S6のモジュールを収める製品も同社はリリースしている。このFrozen Fish Design社製品の導入により、従来通りフェーダーを必要な箇所に自由自在に配置できるコンソールを実現している。
もう一つAVID S6としてのトピックは、Dual Head構成となっているということ。通常は1台のMaster Touch Module=MTMがコンソール全体の制御を受け持つのだが、松竹映像センターのAVID S6はサイズも大きく2台のMTMが必要となった(1台のMTMでの上限は64フェーダー)。物理的な問題もそうだが、数多くのDAWを並行して操作するというダビングのシステムにおいて、MTMが2つあることのメリットは大きい。複数のエンジニアがコンソールに向かい作業を行うため、左右で別々の操作・作業を並走することができるDual Head Systemは作業効率に対して大きなメリットをもたらす。基本的には、左手側がD/M、右手側がE/Fのエンジニアが担当することが多いとのことだが、場合によってフェーダー数を増減したり、操作するDAWを入れ替えたりということが、すべてのDAWを同一のネットワーク上に存在させているため簡単に行える。AVID S6の持つ強力なレイアウト機能、スピルゾーン機能などと組み合わせることで、柔軟な運用を実現できるシステムとなっている。
様々なニーズに対応できるS6×MTRXシステムの柔軟性
様々なワークアラウンドが組めるように設計されている、松竹映像センターのダビングステージ。そのワークアラウンドのいくつかをご紹介したい。
●Direct Dubber
一番シンプルなシステムパターンとしては、MixerとなるDAWを介さずにMTRXの内部でSTEM MIXを行うというパターン。PlayoutのPro Tools HDXから出力された信号はHD MADIを通じでMADIとして出力される。この信号はMTRX #1号機もしくはMTRX #2号機を通じてMTRX #3号機へ送られる。4台のPlayout Pro Toolsでは、内部で数本のSTEMにミックスされたチャンネルが出力される。これらのSTEMは、最終的にMTRX #3号機でミックスされ、Dubberへと送られる。この際のサンプルレートは基本的に48kHz。シンプルなワークアラウンドで完結させるフローとなる。MTRX #3号機のミックスのフェーダーはDADmanアプリケーションを通じAVID S6のフェーダーで微調整が行えるというのは、特筆すべき事項である。これにより、これまでEuphonix System 5に委ねていたFinalミックスの作成作業をMTRXの内部で行うことができる。このシグナルフローはハリウッドでよく見られるものとほぼ同等である。
●PT mixer w/Analog SRC
次に、MTRX #1 / #2号機に接続されている、Pro Tools Mixerを使用するパターン。この場合はPlayout内部でミックスを行わず、それぞれの素材がある程度の種類に分けられた複数のSTEMとして出力される。そしてMixer Pro Tools内部でミキシングが行われる。再生機としてのPro Toolsと、MixerとしてのPro Toolsが別々に存在しているというパターン。Pro Tools MixerはまさにSystem5などのハードウェア・コンソールで行っていた機能を代行するものであり、プラグインプロセスなどにより、その機能を拡張するものとして導入が行われている。このパターンでの内部プロセスは48kHzであり、Analog SRCの回路を経由してDubberの直前まですべてがdigitalでダイレクトに接続されている。
●PT mixer w/Analog SRC@96k
Playout Pro ToolsからMTRX #1/#2号機との接続の間にAnalog SRCを挟んだパターン。これにより、Mixer部分はPlayoutの素材のサンプルレートに関わらず96kHzでの動作が可能となる。ミックスを行うプロセスのサンプルレートはやはり音質に対して影響のある部分。ワークアラウンドとしては複雑にはなるが、それでもクオリティーにおいてはプラスに働く要素となりえる。これまでの松竹映像センターのダビングステージで行われていた作業のスタイルをMTRXとPro Toolsを用いてブラッシュアップしたパターンとも言える。48kHzでのマスター素材を収録するDubberの前には、やはりAnalog SRCが存在しているため、サンプルレート変換をPC内部で行うなどの作業は必要ない。まさに、音質と効率の両者を追い求めたシステムアップとなっている。
●Nuendo mixer w/Analog SRC@96k
もちろん、これまで使用されてきたNuendo Mixerも残されている。これによりMixer Engine部分をPro Toolsにするのか、Nuendoにするのかという贅沢な選択も可能となっている。Nuendoの場合には、これまでのシステムと同様に基本的に96kHzの動作でのシステムアップとなっているが、バックボーンとなるシグナルはすべてCoax-MADIに統一されており、パッチ盤での差し替えでいかようにでもシステムを組み変えることができるようになっている。柔軟性と、ダビングステージを使用するお客様のニーズに合わせて変幻自在にその形を変えることができるシステムだ。
マスターセクションとしてのMTRX
MTRXのコントロールアプリ"DADmam"は4台を一括で操作できる。手元には、ハードウェアコントローラーMOMが置かれ、アシスタントは手を伸ばすことなくボリュームコントロールが行える。
今回のシステムアップにおいてMTRX #3号機は、まさにハードウェア・コンソールのマスターセクションを代替するものとしてDADman上での設計が行われている。モニターセクションとして、スピーカーボリュームの調整、視聴ソースの切り替えはもちろん、強力なCue Mixの機能を活用し、Assistant DeskへのHead phone送りのソースの切り替え、MTRX #1/#2号機から送られてくる信号のサミングなど、様々な機能を使いシステムアップが行われている。Avid S6のセンターセクションであるMTMからのコントロールと同時に、Assistant DeskにはDAD MOMが用意され、スタジオスタッフが手元でのボリューム調整が行えるように設計されている。
また、Playout用Pro Toolsのコントロールに使われるカートは、Dual Displayにブラッシュアップされた。やはりスタジオを利用するお客様からの要望が多いポイントであったということで、今回の更新に併せて変更された部分となる。このカートへのDisplay出力の仕組みは、これまで通りSDIへ信号を変換しVideo Patchで自由に組み替えができるシステムとしている。もちろんKVM Matrixシステムが導入できればよいのだが、PCの台数、Displayの台数を考えるとかなり大規模なシステムとなってしまうため、コストを抑えつつ、必要十分な機能を果たすということで、こちらのSDI延長システムを継続してご利用いただいている。
ぎっしりAVID MTRXのオプションスロットに設置されたMADI / Digi Link Module。96kHz稼働時にも十分なチャンネル数を確保できるようになっている。
今回の更新では、Dubbing Stageという環境での様々なニーズに応えるべく、かなり大規模なブラッシュアップが図られた。Dual HeadのAvid S6による操作性、機能性の向上。そして、MTRXの導入によるワークアラウンドの多様化など、そのポイントは実に多岐に渡っている。実際に作業を行った後にお話を伺うことができたのだが、習熟を進めている中であるという部分を差し引いたとしても、システムの柔軟性、利便性の向上はしっかりと感じられているとのこと。
デジタルの利便性へすべての信頼を置いてしまうことに疑問を持ち、制作過程における音質というポイントを思い起こしながら、音質と作業効率という反比例をもしてしまうような2つの要素を高度な次元で両立させたこのDubbing Stage。これから行う様々な作業の中で、今後どのようなワークアラウンドが行われていくのか?どのような選択基準でそれが選ばれたのか?実作業におけるシステム活用の様子にも大きな興味が持たれるところだ。
写真左より、株式会社松竹映像センター ポストプロダクション部 ダビング・MA所属の田中俊 氏、深井康之 氏、吉田優貴 氏、清野守 氏、久保田貫幹 氏、石原美里 氏、ROCK ON PRO 嶋田直登、前田洋介
*ProceedMagazine2020号より転載
NEWS
2020/08/25
AVID BLOGにてDolby Atmos Music ミキシング体験記が公開中!
AVID BLOGにてDolby Atmos Musicのミキシング体験記が公開されています。記事を執筆したのは、カリフォルニア州ロサンゼルス近郊に音楽スタジオ"The Record House"を構えるミキシングエンジニア、Mert Ozcan氏。公式プロフィールによると、彼はバークリー音楽大学を卒業後、Abbey Road、British Grove、Capitol and Interscope Studiosといった世界的にも権威ある数々の音楽スタジオでエンジニアとしての腕を磨き、同じくエンジニア兼ミュージシャンであるBeto Vargas氏と共にThe Record Houseを立ち上げたそうです。
記事ではMert氏によるDolby Atmos Musicミキシングに関する考察がアツく語られているので、ご興味がある方は是非ともご一読してみてはいかがでしょうか?
◎こちらからチェック!
Dolby Atmos® Music のミキシング体験とAvidPlayでの配信 - AVID BLOG
http://www.avidblogs.com/ja/dolby-atmos-music-avidplay/
「まるでモノクロがカラーになったみたいだ」
「スタジオを変えたくなった」
「普通に音楽を聴くなんてもう無理です」
これらはアーティストやミュージシャンが、The Record House の新しくできたAtmosミックスルームで Dolby Atmos Music を聴いた時のいくつかのコメントです。この体験が特別なものであった事を物語っています。
上記ページより一部抜粋
◎公式サイトからはMert氏らが手がけた音楽作品も実際に試聴可能です!
The Record House 公式サイト
https://the-record-house.com/
◎また、最新号のProceed Magazine 2020ではDolby Atmosに関する基本的な知識から、Pro ToolsでDolby Atmosミキシングを始めるための最初の足掛かりまでを完全解説中!併せてチェック!
https://pro.miroc.co.jp/solution/dolby-atmos-proceed2020/
◎日本語字幕付きPro Tools 解説動画はこちら (Pro ToolsでDolby Atmos Renderを使うワークフローについても紹介されています)
https://pro.miroc.co.jp/headline/avidjapan-youtube-playlists-update-202007/
Dolby Atmosに関するお問い合わせは、下記"Contact"より、お気軽にROCK ON PROまでご連絡ください。
◎Proceed Magazine 最新号発売中! サンプルの試し読みはこちらのページから! https://pro.miroc.co.jp/headline/proceed-magazine-2020/
Media
2020/08/19
株式会社ミクシィ 様 / 新たな価値は「コミュニケーションが生まれる」空間のなかに
都内5拠点に分かれていたグループ内の各オフィスを集約させ、2020年3月より渋谷スクランブルスクエアでの稼働を開始した株式会社ミクシィ。渋谷の新たなランドマークともなるこの最先端のオフィスビル内にサウンドグループのコンテンツ収録や、制作プロジェクトにおける外部連携のコミニュティの場を設けるべく、この機に合わせて新たなスタジオが完成した。オフィス移転によるサウンドグループの移転だけでもプランニングは膨大な労力を伴うものとなるが、加えて高層オフィスビルへのスタジオ新設という側面や、何より同社らしいコミュニケーションというキーワードがどのようにスタジオプランに反映されたのか見ていきたい。
スタジオの特色を産み出した決断
これまで、青山学院にもほど近い渋谷ファーストタワーに拠点を置いていたサウンドグループ。そこにも自社スタジオはあり、主にナレーション録りを中心とした作業を行うスペースとなっていた。もちろん、コンテンツ制作を念頭に置いた自社で備えるスタジオとしては十分に考えられた設備が整っていたが、あくまでオフィス内のスペースでありミックスを形にするという設計ではなかった。また、コンテンツ制作には演者、クリエイターからディレクター、企画担当者など社内だけでも多数の関係者が存在するため、スタジオでいかにコミュニケーションを円滑に進められるか、ということは制作進行にとって重要な課題となっていた。そこへ、各所に分散していたオフィスの集約プランが浮上する。
新しいオフィスは当時建設中であった渋谷スクランブルスクエア、その高層階にサウンドグループのスペースが割り当てられる。そもそも全社のオフィス機能集約となるため、移転計画の最初からフロアにおけるスペース位置、間取り、ドアや壁面といった要素はあらかじめ決められていたものであり、高層ビルにおける消防法の制約もあったそうだ。例えば、スタジオ壁に木材が貼られているように見えるが、実はこちらは木目のシートとなっている。壁面に固定された可燃物は使用できないための対応だが、質感や部屋の暖かさもしっかり演出されている。取材の最後に明かされるまで我々も気がつかなかったほどだ。
そして、今回スタジオ向けに用意されたのは大小の2スペース。そもそもにどちらの部屋をコントロールルームとするのか、またその向きは縦長なのか横長なのか、制約ある条件のもと安井氏と岡田氏が試行錯誤を繰り返す中で着眼したのは"コミニュケーション”という課題。
ミクシィ社としてこのスタジオがどうあるべきか、どういう価値を出すのが正しいのか。専属エンジニアがいる商業スタジオではない、コミュニケーションが生まれる環境とはどのようなものなのか。これにマッチすることを突き詰めて考えた結果、レコーディングブースの方を広くとる設計になり、また当初縦長で進めていたコントロールルームの設計も思い切って横長レイアウトに変えたそうだ。もちろん、音響的な解決を機材面や吸音で行う必要もあれば、ブース窓の位置やテレビの高さ、モニタースピーカーの配置など課題は数多くなったが、これをクリアしていくのも楽しみの一つだったという。そしてこれらのポイントの解決に芯を通したのが"コミニュケーション”が如何にいい形で取れるか、ということ。このレイアウト段階での決断がスタジオを特色あるものにしたのではないだろうか。
音でのコミュニケーションを促進させる最初のツール
前述の通り、こちらは商業スタジオではなくミクシィ社でのプロジェクトにおける制作拠点、またその外部との連携に利用できるスペースとして機能している。自社コンテンツでのボイス・ボーカル収録はもちろんのこと、同フロアにある撮影スタジオとも協業で、自社タレントとユーチューバーの楽曲カバーコラボレーション企画のPV制作や、渋谷公園通りにあるXFLAGストアでのインストアライブの配信コンテンツミックスなどがすでに行われており、多種多様なコンテンツの制作がすでにこちらで実現され始めている状況だ。企画案件の規模によってはクリエイターのワークスペースで完結できるものもあるが、このようなプロジェクトで多くの関係者との共同作業を可能にする拠点、というのが今回のスタジオに求められている要件でもある。社外のクリエイターが来てもすぐに使えるような機材・システム選定を念頭に置き、またそこから「コミュニケーションが生まれる」ような環境をどのように整えたのだろうか。それを一番現しているのがアナログミキサーであるSSL X-DESKの導入だ。
コントロールルームの特注デスクにはPro ToolsのIn the boxミキシング用にAvid Artist MixとアナログミキサーのX-DESKが綺麗に収められている。X-DESKにはAvid MTRXから出力された信号、また入力に対しての信号、さらにレコーディングルームからの信号と、コントロールルームに設置されているマイクプリなど様々なソースに対して臨機応変に対応でき、使用するスタッフによって自由に組み替えが可能になっている。ただしデフォルトの設定はシンプルで、基本的にはマイクプリから来ているマイクの信号と、外部入力(iPhoneやPC上の再生)がミキサーに立ち上がっており、内外問わずどんなスタッフでも簡単に作業を始めることができる仕様だ。
これは現場での作業を想定した際に、ギターでボーカルのニュアンスを伝えたいクリエイターもいれば、ブースでボーカリストの横に入ってディレクションするケースであったり、Co-Write(共作)で作業を行う場合など、共同作業がすぐに始めて立ち上げられて、バランスまで取れる環境を考えるとアナログの方が有利という判断。「音でのコミュニケーションを促進させる最初のツール」がアナログミキサーだということだ。
また、デスク左側にはMac miniを中心としたサブシステムが用意されている。こちらのMac miniにはNuendo/Cubaseもインストール、そのインターフェイスとなるRME Fireface UFX II も左側を向けてラッキング。これも来訪者がすぐさま使用開始できるように配慮されている部分だ。
セレクトされたコミュニケーションでの実用性
それでは、デスク右側のラックに目を向けたい。ラックの中でも特に存在感を放っているのが新型のMacProだ。2019年の夏頃から本格的にスタジオの設計を固め、機材選定も大方定まったところで中々導入時期を読めなかったのがこちらのMacPro。周知の通りで2019年末に突如として姿を現すことになったわけだが、このスタジオに導入されたのは、必須となるレコーディング作業だけに限らず、映像の編集も難なくこなせるであろう3.3GHz 12Core、96GBメモリ、SSD 2TBというスペック構成のもの。レンダリングが数多く走るなど負荷がかかる場面はまだあまりないようだが、意外にもその動作はかなり静粛とのことだ。
このラックではMac Proを筆頭に、ビデオ入力、出力の分配を担うBlack Magic Design SmartVideoHub。そしてAvid HDXからMTRXにつながり、MTRXからX-Deskや、各々ルーティングを細く設定できるバンタムパッチベイがある。Ferrofish PULSE16はMTRXからのDANTE Optionを有効活用し、ADATへ変換されBEHRINGER POWERPLAY16(CUE BOX)に繋がれている。その上にはAvid Sync HDがあり、マスタークロックとしてAntelope Audio Trinityがトップ段に設置されている。
また、モニタースピーカーについてはRock oN渋谷店舗にて十数のモニタースピーカーが比較試聴され、KS digital C8 Reference Rosewood(後に同社製のサブウーファーも導入)とAmphion One18が選ばれた。こちらは横長にしたコントロールルームのレイアウトを考慮してニアフィールドにスイートスポットがくる同軸のKS digitalと、バランスを重視してのAmphionというセレクトとなった。使用するスタッフによってナレーションでのボイスの部分にフォーカスしたり、あるいは楽曲全体を聴く必要があるなど、用途は制作内容によってそれぞれとなるためバランスの良さという共通項はありつつも、キャラクターが異なる2種類が用意された。
後席ソファー横にはデシケーターがあり、U87Ai、TLM67、C414 XLSなどが収められている。演者にもよるが特に女性の声優とTLM67がよくマッチするようで好まれて使用されることが多いそうだ。また、マイクモデリングを行えるSlate Digital VMSの姿も見える。こちらは試している段階とのことだが、ボイス収録の幅広さにも適用できるよう積極的に新たな技術も視野に入れているようだ。確実性あるベーシックな機材を押さえつつ、 新MacProやMTRXといった新しいプロダクトを導入し、かつコミュニケーションの実用性を図っているところが、こちらの機材セレクトの特色でありユニークなところと言えるだろう。
レコーディングブースを超えた多目的さ
大小のスペースのうち、広い方を割り当てたブースは主にナレーション録音が行われる。天井のバトンにはYAMAHA HS5Wが5ch分吊るされているのだが、用途としては5.1chサラウンドへの対応だけではなく、イベント向けの制作に効果を発揮するという。イベント会場では吊られたスピーカーから音が出るケースが多く、その環境を想定しての音作りを求められることが多いためだ。多様な企画を行うミクシィ社ならではのスピーカー環境の利用の仕方と言える。なお、センターにあるHS5Wの横にもパッシブモニター YAMAHA VXS5W(パワー・アンプはコントロールルームにYAMAHA MA2030aを設置)がTalkBack用の返しモニターとして設置されている。このようにヘッドフォンに返すのではなく、あえてモニターでTalkBackを送るというのは、コントロールルームとのコミニュケーションをよりよくするために考えられた発想だ。
また、コントロールルームのラックにあったBlackMagic Smart Videohub 12x12にて、ディスプレイモニターには映像の出力やPro Toolsメイン画面を切り替えにて映し出し可能、レコーディングブースでもミキシングも行えるようになっている。急ぎの案件ではブースとコントロールルームでパラレル作業を行い、作業部屋二つのようなスタイルでも使われるとのことだ。そして、壁面のパネルは演者の立ち位置を考慮して4面それぞれに配置されている。4人でのナレーションを録る場合や、さらに声優たちの個別映像出しにモニター出力用のSDI端子、CUE送り用のLAN端子。また、スタッフがブース内でPC/Macを持ち込み映像を見ながら打ち合わせをする場合に備えての社内LAN回線までもが備えられている。ミクシィという企業ではこの先にどんな制作物が発想されてもおかしくない、とのことで考えうる最大限の仕様が織り込まれた格好だ。スピーカーが吊るされたことにより、無駄なくスペースを広く保ち、録音はもちろんコントロールルームと並走したミキシングの機能まで兼ね備えている。単にレコーディングブースと呼ぶには留まらない特徴的な”多目的"スペースを実現している。
コミュニケーションを生み出す仕掛け
コミュニケーションを生み出すというコンセプトによって生み出された工夫はほかにもある。コントロールルームの後方にあるソファは通常はクライアント用と考えられそうだが、こちらは商業スタジオではないためこのスペースも立派に作業スペースとして成り立つ必要がある。そのためこのソファの内部2箇所に可動式のパネルが隠されている。クリエイターやプロデューサーがPC/Macを持ち寄り、その場で持ち込んだ素材(オーディオファイル)の確認や、映像の出力、もちろんディレクションも行えるようにモニターコントローラーとして採用されたGrace Design m905のTalkBackマイクのスイッチがアクセスできるようになっている。当初このアイデアは壁面や床面など設置位置に試行錯誤があったようだが、その結論はなんとソファの中。これによってスタジオのデザイン的な要素や機能面も損なうことなく、コミュニケーションを生み出す仕掛けが実現できている。
また、コントロールルーム正面からそのまま窓越しに演者とコミュニケーションが取れるようにというのが、レイアウトを横長に変更した大きな理由であったが、ブースへの窓はエンジニア席だけではなく、このソファからの視線も考慮されて位置が決定されている。窓位置はモニタースピーカーの位置決定にも関わるし、テレビの配置にも関わる。施行前から座席部分にテープでマーキングして両氏が念入りに試行錯誤を重ねたそうだ。
そして、このフロアにはサウンドスタジオのみではなく、連携して協業する撮影スタジオのほか、会議室、社員の休憩スペースからコンビニエンスストアまで整っている。インタビューを行った会議室や休憩スペースは遠く水平線まで見渡せる開放的なスペースで、集中した作業を行うスタジオ内と実に対照的。作業のON/OFFがはっきりとした環境で生まれるコミュニケーションも良好なものになりそうだ。
最後に話題となったのは、スマートフォンにおける5Gへの対応だ。
「まさに実用が始まったばかりとなる5Gの高速な通信は、端末に頼らなくとも大容量のコンテンツを成立させることができるかもしれない。もちろん、アプリやゲームも5Gの恩恵を受けてより高度な表現を提案することが可能になってくる。サウンドで言えばバイノーラルへの対応でキャラクターへの没入感をより深いものにできるかもしれない。5Gで何ができるのだろうか、提供されるインフラとはどのようなものだろうか、そして顧客へ提供できるサービスとはなんだろうか、このような着想から生み出されるのは各社の特色。そして何に強みを持ってコンテンツを作っていくのか、これによって整えるスタジオの環境も変わってくる。」
インタビュー時の両氏のコメントをまとめたものだが、やはり見据えているのはインフラやプラットフォームまで含めたエンタテインメントコンテンツそのものであるという点で、クリエイティブワークだけではない視野の広さが求められているということが感じられた。このスタジオが生み出すコミュニケーションの積み重ねが、5Gの可能性を引き出し、エンタテインメントの可能性を拡げていく。今後このスペースは従来のスタジオ以上の価値を生み出していくことになる、とも言えるのではないだろうか。
株式会社ミクシィ
モンスト事業本部
デザイン室 サウンドグループ
マネージャー
安井 聡史 氏
株式会社ミクシィ
コーポレートサポート本部
ビジネスサポート室
サウンドライツグループ
岡田 健太郎 氏
*ProceedMagazine2020号より転載
Media
2020/08/11
ゼロからはじめるDOLBY ATMOS / 3Dオーディオの世界へDIVE IN !!
2020年1月、CES2020にてお披露目された"Dolby Atmos Music"。映画向けの音響規格の一つであるDolby Atmosを、新たなる"3D"音楽体験として取り入れよう、という試みだ。実は、前年5月頃より"Dolby Atmosで音楽を制作しよう”という動きがあり、ドルビーは世界的大手の音楽レーベル、ユニバーサルミュージックとの協業を進めてきた。"Dolby Atmos"は元々映画音響用のフォーマットとして2012年に誕生している。その後、ヨーロッパを中心に対応劇場が急速に増え、海外では既に5000スクリーン以上、国内でもここ数年で30スクリーン以上に渡りDolby Atmosのシステムが導入されてきた。
また、映画の他にもVRやゲーム市場でもすでにその名を轟かせており、今回、満を持しての音楽分野への参入となる。Dolby Atmos Music自体は、既にプロオーディオ系の様々なメディアにて取り上げられているが、「Dolby Atmosという名称は聞いたことがある程度」「Dolby Atmosでの制作に興味があるが、日本語の情報が少ない」という声もまだまだ多い。そこでこの記事では、今のうちに知っておきたいDolby Atmosの基礎知識から、Dolby Atmosミックスの始めの一歩までを出来るだけ分かりやすい表現で紹介していきたい。
目次
コンテンツは消費の時代から”体験”の時代に 〜イマーシブなオーディオ体験とは?〜
まずは Dolby Atmosを体験しよう! / 映画、音楽、ゲームでの採用例
ベッドとオブジェクトって何!? / Dolby Atmos基礎知識
Dolby Atmos制作を始めよう / 必要なものは何?
自宅で始めるDolby Atmosミックス / Dolby Atmos Renderer × Pro Tools 2020.3【Send/Return編】
自宅で始めるDolby Atmosミックス / Dolby Atmos Renderer × Pro Tools 2020.3【CoreAudio編】
1.コンテンツは消費の時代から”体験”の時代に 〜イマーシブなオーディオ体験とは?〜
近年、"3Dオーディオ"という言葉をよく見かけるようになった。今のところ、その厳密な定義は存在していないが、古くからは"立体音響"や"三次元音響"といった言葉でも知られており、文字通り、音の位置方向を360度、立体的に感じられる音響方式のことを指す。その歴史は非常に古く、諸説あるがおよそ1世紀に渡るとも言われている。
点音源のモノラルに始まり、左右を表現できるようになったステレオ。そして、5.1、7.1、9.1…とその数を増やすことによって、さらなる音の広がりや奥行きを表現できるようになったサラウンド。と、ここまででもイマーシブな(*1)オーディオ体験ができていたのだが、そこにいよいよ、天井や足元といった高さ方向にもスピーカーが加わり、三次元空間を飛び回るような音の再生が可能になった。それぞれの方式は厳密には異なるが、3DオーディオフォーマットにはDolby Atmos、Auro-3D、DTS:X、NHK22.2ch、Sony360 Reality Audioなどといったものがある。
基本的に、これまでこうした3Dフォーマットのオーディオを再生するにはチャンネル数に応じた複数のスピーカーが必要だった。そのため、立体的な音像定位の再現性と、そうした再生環境の手軽さはどうしてもトレードオフになっており、なかなか世間一般に浸透しづらいという状況が続いていた。そこで、いま再注目を浴びているのが"バイノーラル(*2)録音・再生方式"だ。個人差はあるものの原理は単純明快で、「人間の頭部を模したダミーヘッドマイクで録音すれば、再生時にも人間が普段自分の耳で聞いているような立体的な音像が得られる」という仕組み。当然ながらデジタル化が進んだ現代においては、もはやダミーヘッドすら必要なく、HRTF関数(*3)を用いれば、デジタルデータ上で人間の頭側部の物理的音響特性を計算・再現してしまうことができる。
バイノーラル再生自体は全くもって新しい技術というわけではないのだが、「音楽をスマホでストリーミング再生しつつ、ヘッドホンorイヤホンで聴く」というスタイルが完全に定着した今、既存の環境で気軽にイマーシブオーディオを楽しめるようになったというのが注目すべきポイントだ。モバイルでのDolby Atmos再生をはじめ、Sonyの360 Rearity Audio、ストリーミングサービスのバイノーラル音声広告といった場面でも活用されている。
*1 イマーシブ=Immersive : 没入型の *2 バイノーラル= Binaural : 両耳(用)の *3 HRTF=Head Related Transfer Function : 頭部伝達関数
2.まずは Dolby Atmosを体験しよう! / 映画、音楽、ゲームでの採用例
では、Dolby Atmosは一体どのようなシーンで採用されているのだろうか。百聞は一見に如かず、これまでDolby Atmos作品に触れたことがないという方は、まずは是非とも体験していただきたい。
映画
映画館でDolby Atmosを体験するためには、専用設計のスクリーンで鑑賞する必要がある。これには2種類あり、一つがオーディオの規格であるDolby Atmosのみに対応したもの、もう一つがDolby Atmosに加え、映像の規格であるDolby Visionにも対応したものだ。後者は"Dolby Cinema"と呼ばれ、現時点では国内7スクリーン(開業予定含む)に導入されている。
Dolby Atmosでの上映に対応している劇場は年々増加していて、2020年4月現在で導入予定含む数値にはなるが、既に国内では 36スクリーン、海外では5000スクリーン以上にも及んでいる。 (いずれもDolby Atmos + Dolby Cinema計)当然ながら対応作品も年々増えており、ライブストリーミング等、映画作品以外のデジタルコンテンツも含めると、国内では130作品、海外ではその10倍の1300を超える作品がDolby Atmosで制作されている。いくつか例を挙げると、国内興行収入130億円を超える大ヒットとなった2018年の「ボヘミアン・ラプソディ」をはじめ、2020年のアカデミーでは作品賞を受賞した「パラサイト 半地下の家族」、同じく録音賞を受賞した「1917 命をかけた伝令」などといった作品がDolby Atmosで制作されている。
●Dolby Atmos採用映画の例
アイアンマン3 / アナと雪の女王 / ラ・ラ・ランド/ パラサイト / フォードvsフェラーリ / ジョーカー / 1917 命をかけた伝令 / ボヘミアンラプソディetc...
*Dolby 公式サイトよりDolby Atmos採用映画一覧を確認できる
ゲーム
Dolby AtmosはPCやXbox Oneといった家庭用ゲームの人気タイトルでも数多く採用されている。特に、近年流行りのFPS(First Person Shooter = 一人称視点シューティング)と呼ばれるジャンルのゲームでは、射撃音を頼りに敵の位置を把握しなければならない。そのため、Dolby Atmosを使った3Dサウンドの再生環境の需要がより高まってきているのだ。
※Windows PCやXbox OneにおいてヘッドホンでDolby Atmosを楽しみたい場合は、Dolby Access(無料)というアプリをインストールし、Dolby Atmos for Headphonesをアプリ内購入する必要がある。
●Dolby Atmos採用ゲームの例
Assassin's Creed Origins(Windows PC, Xbox One) / Final Fantasy XV(Windows PC ,Xbox One)Star / Wars Battlefront(Windows PC ,Xbox One) / ACE COMBAT 7: SKIES UNKNOWN(Windows PC, Xbox One)
音楽
Amazon Echo Studio
そして2020年1月にCES2020で正式発表されたのが、このDolby Atmosの名を冠した新たな3Dオーディオ再生フォーマット、Dolby Atmos Musicだ。現時点で、国内ではAmazonが提供するAmazon Music HD内のみでサービスを提供しており、同社のスマートスピーカー”Amazon Echo Studio”を用いて再生することができる。アメリカでは音楽ストリーミングサービス"TIDAL"でもDolby Atmos Musicを再生することができ、こちらは対応するPCやスマホなどでも楽しめるようになっている。
ここまで、Dolby Atmosを体験してみて、皆さんはどのような感想を持たれただろうか? 当然ながら多少の個人差はあるにしても、映画であればその空間に入り込んだかのような没入感・豊かな臨場感を体験できたのではないだろうか。あるいは、人によっては「期待したほど音像が動き回っている感じが得られなかった」という方もいるだろう。しかし、それでDolby Atmosの魅力を見限るのはやや早計だ。なぜなら、この技術は、"作品の意図として、音を無意識に落とし込む”くらい自然にミックスすることを可能にしているからだ。それを念頭におき、もう一度、繊細な音の表現に耳を澄ましてみてほしい。
3.ベッドとオブジェクトって何!? 〜Dolby Atmos基礎知識〜
体験を終えたところで、ここからは技術的な側面と基礎知識を押さえていこう。ポイントとなるのは以下の3点だ。
● ベッド信号とオブジェクト信号
● 3次元情報を記録するメタデータ
● 再生環境に合わせてレンダリング
Dolby Atmosの立体的な音像定位は、2種類の方式を組み合わせて再現されている。 一つはチャンネルベースの信号 ー 5.1.2や7.1.2などあらかじめ定められたスピーカー配置を想定し、そのスピーカーから出力される信号のことを"Bed"と呼んでいる。例えば、BGMやベースノイズといった、あまり指向性が求められない音の再生に向いている。基本は音源とスピーカーが1対1の関係。従来のステレオやサラウンドのミックスと同じなので比較的イメージがつきやすいだろう。
劇場のように、一つのチャンネルが複数のスピーカーで構成されていた場合、そのチャンネルに送った音は複数のスピーカーから再生されることになる。
そしてもう一つはオブジェクトベースの信号 ー 3次元空間内を縦横無尽に動き回る、点音源(ポイントソース)の再生に適した方式だ。例えば、空を飛ぶ鳥の鳴き声や、アクション映画での動きのある効果音の再生に向いている。原理としては、3次元情報を記録するメタデータをオーディオとともに記録・伝送し、再生機器側でそれらを再生環境に合わせてレンダリング(≒変換)することで、再生環境ごとのスピーカー配列の違いをエンコーダー側で吸収できるという仕組みだ。
ある1点に音源を置いた時に、そこから音が聴こえるように、スピーカー送りを最適化するのがレンダラーの役割
Dolby AtmosのチャンネルフォーマットはBed 7.1.2ch(計10ch) + Object118ch(最大)での制作が基本となっている。この"空間を包み込むような音"の演出が得意なベッドと、”任意の1点から聞こえる音”の演出が得意なオブジェクトの両方を組み合わせることによって、Dolby Atmosは劇場での高い臨場感を生み出しているのだ。
4.Dolby Atmos制作を始めよう 〜必要なものは何?〜
Dolby Atmosはその利用目的によって、大きく2種類のフォーマットに分けられる。
まずは、一番最初に登場した映画館向けのフォーマット、Dolby Atmos Cinemaだ。これはまさにフルスペックのDolby Atmosで、先述した7.1.2chのBEDと118chのObjectにより成り立っている。このフォーマットの制作を行うためにはDolbyの基準を満たした音響空間を持つダビングステージでの作業が必要となる。しかも、劇場向けのマスターファイルを作ることができるCinema Rendering and Mastering Unit (Cinema RMU)はDolbyからの貸し出しでしか入手することができない。
もう一つは、Blu-ray やストリーミング配信向けのフォーマット、 Dolby Atmos Homeだ。実は、こちらの大元となるマスターファイル自体は Cinema 向けのものと全く同じものだ。しかし、このマスターファイルから Home 向けのエンコードを行うことで、128chのオーディオを独自の技術を活用して、できる限りクオリティーを担保したまま少ないチャンネル数に畳み込むができる。この技術によって、Blu-rayやNetflixといった家庭向けの環境でも、Dolby Atmos の迫力のサウンドを楽しめるようになった。こちらも、マスターファイルを作成するためには、HT-RMUと呼ばれるハードウェアレンダラーが必要となるが、HT-RMUは購入してスタジオに常設できるというのがCinemaとは異なる点だ。
●Dolby Atmos制作環境 比較表
※Dolby Atmos Production SuiteはWeb上、AVID Storeからご購入できるほか、Mastering Suiteにも付属している。
※Dolby Atmos Dub with RMUについてはDolby Japan(TEL: 03-3524-7300)へお問い合わせください。
●Cinema
映画館上映を目的としたマスター。ダビングステージでファイナルミックスとマスタリングを行う。Dolby Atmos Print Masterと呼ばれるファイル群をCinema Rendering and Mastering Unit (Cinema RMU)で作成。
●Home
一般家庭での視聴を目的としたマスター。ニアフィールドモニターによるDolby Atmosスピーカー・レイアウトにてミックスとマスタリングを行う。Dolby Atmos Master File(.atmos)と呼ばれるファイル群をHome-Theater-Rendering and Mastering Unit(HT-RMU)で作成。
Cinema用とHome用のRMUでは作成できるファイルが異なり、スピーカーレイアウト/部屋の容積に関する要件もCinema向けとHome向けで異なる。それぞれ、目的に合わせたRMUを使用する必要がある。ミキシング用のツール、DAW、プラグイン等は共通。
ここまで作品や概要を説明してきたが、そろそろDolby Atmosでの制作を皆さんも始めてみたくなってきただろうか?「でも、自宅に7.1.2chをモニターできる環境が無い!「やってみたいけど、すぐには予算が捻出できない!」という声も聞こえてきそうだが、そんな方にとっての朗報がある。Dolby Atmos Production Suiteを使えば、なんと ¥33,000 (Avid Storeで購入の場合)というローコストから、Dolby Atmos ミックスの最低限の環境が導入できてしまうのだ。このソフトウェア以外に別途必要なものはない。必要なものはスペックが少し高めのマシンと、対応DAW(Pro Tools、Nuendo、DaVinchi etc)、そしてモニター用のヘッドホンのみだ。
多少の制約はあるものの、ヘッドホンを使ったバイノーラル再生である程度のミックスができてしまうので、スタジオに持ち込んでのマスタリング前に自宅やオフィスの空き部屋といったパーソナルな環境でDolby Atmosの仕込みを行うことができる。次の項ではそのワークフローを具体的に紹介していく。
5.自宅で始めるDolby Atmosミックス 〜Dolby Atmos Renderer × Pro Tools 2020.3〜
ここからは最新のPro Tools 2020.3 とProduction Suiteを使って実際のDolby Atmosミックスのワークフローをチェックしていきたい。まず、大まかな流れとしては下記のようになる。PTとレンダラーの接続方法は、Send/Returnプラグインを使う方法とCore Audio経由でやり取りする方法の2種類がある。それでは順番に見ていこう。
1.Dolby Atmos Production SuiteをAvid Storeもしくは販売代理店にて購入しインストール。
2.Dolby Atmos Renderer(以後レンダラー)を起動各種設定を行う。
3.Pro Tools(以後PT) を起動各種設定を行う。※正しいルーティングの確立のため、必ずレンダラー →Pro Toolsの順で起動を行うこと。
4.PTの標準パンナーで3Dパンニングのオートメーションを書き込む。
5.Dolby Atmos RMU導入スタジオに持ち込む。
Send/Returnプラグインを使う方法
■Dolby Atmos Renderer の設定
● 左上Dolby Atmos Renderer → Preferences( ⌘+ , )で設定画面を表示
● Audio driver、External Sync sourceをSend/Return Plug-insに設定
● Flame rate、Sample rateを設定 ※PTの設定と合わせる
HeadphoneのRender modeをBinauralにすることで、標準HRTFでバイノーラル化された3Dパンニングを確認することができる。(※聴こえ方には個人差があります。)
■Pro Tools の設定
● 新規作成→プロジェクト名を入力→テンプレートから作成にチェック
● テンプレートグループ:Dolby Atmos Production Suite内”Dolby Atmos Renderer Send Return Mono(またはStereo)”を選択→ファイルタイプ:BWF
● 任意のサンプルレート、ビットデプス、I/O設定を入力→作成
● 設定 → ペリフェラル → Atmosタブ
● チェックボックスに2箇所ともチェックを入れる。
● RMUホストの欄には”MAC名.local”または”LOCALHOST”と入力。
接続状況を示すランプが緑色に点灯すればOK。一度接続した場合、次回からプルダウンメニューで選択できる。
編集ウィンドウを見てみると、英語でコメントが入力されたいくつかのトラックが並んでいる。
● まず、一番上の7.1.2Bedという名称のトラック ーここにBedから出力したい7.1.2の音素材をペーストまたはRECする。
● 次に、その下のObject 11という名称のトラック ーここにObjectから出力したいMonoまたはStereoの音素材をペーストまたはRECする。
● 上の画像の例では、任意の範囲をドラッグして選択、AudioSuite→Other→Signal Genetatorよりピンクノイズを生成している。
● このトラックは、画面左側、非表示になっている”SEND_〇〇_IN_ch数”という表記になっているAUXトラックに送られている。
● このAUXトラックにSendプラグインがインサートされており、パンなどのメタデータとともにレンダラーへと出力される。
試しに再生してみると、レンダラー側が上の画像のような状態になり、信号を受けているチャンネルが点灯している様子が確認できる。
赤丸で囲った部分をクリックしてアウトプットウィンドウを表示し、パンナーのポジションのつまみをぐりぐりと動かしてみよう。
すると、レンダラー内のオブジェクトが連動してぐりぐりと動くのが確認できる。
オートメーションをWriteモードにしてチェックすると、きちんと書き込んだ通りに3Dパンニングされているのが分かる。ここで、トラックの右端”オブジェクト”と書かれているボタンをクリックすると、”バス”という表示に切り替わり、その音はベッドから出力される。つまり、ベッドとオブジェクトをシームレスに切り替えることができるのだ。これは、例えば、映画などで正面のベッドから出力していたダイアローグを、”ワンシーンだけオブジェクトにして、耳元に持ってくる”といった表現に活用できそうだ。
さらにその右隣の三角形のボタンを押すごとに、” このトラックに書き込まれたメタデータをマスターとする ”( 緑点灯 ) か、” 外部のオブジェクトパンニング情報源からREC する ”( 赤丸点灯 ) か、” 何も送受信しない ”( 無点灯 ) か を選択できるようになっている。レンダラー内でレンダリングされた音は、ReturnプラグインからPTへと戻ってくる。あとは、各々のモニター環境に合わせてアウトプットしたり、RECをかけたりすることができる。
以上が、Send/Returnプラグインを利用した一連のルーティングのワークフローになる。今回はテンプレートから作成したが、もちろんはじめから好きなようにルーティングを組むことも可能だ。しかし、チャンネル数が多い場合はやや複雑になってくるので、初めての場合はまずはテンプレートからの作成をおすすめする。
CoreAudioを使う方法
はじめに、Core Audioを使う場合、Sync sourceをMTCかLTC over Audioから選択する必要がある。LTCを使う場合は、PTの130chまでの空きトラックにLTCトラックまたは、Production Suite 付属のLTC Generator プラグインを挿入→レンダラーからそのch番号を指定する。MTCを使う場合はIACバスをというものを作成する必要がある。(※IAC = Inter-application communication)
■IACバスの設定
● Mac →アプリケーション→ユーティリティ→Audio MIDI設定を開く
● タブメニューのウインドウ→IAC Driverをダブルクリック ※装置名がIACドライバなど日本語になっていた場合レンダラーでの文字化けを防ぐため”IAC Driver”など英語に変更しておくとよい
● +ボタンでポートを追加→名称を”MTC”(任意)に変更→適用をクリック
■Dolby Atmos Renderer 側の設定
● 左上Dolby Atmos Rendere → Preferences( ⌘+ , )で設定画面を表示
● Audio driverをCore Audioに設定
● Audio input deviceを”Dolby Audio Bridge”に設定 ※ここに”Dolby Audio Bridge”が表示されていない場合、Macのシステム環境設定→セキュリティとプライバシー内に関連するアラートが出ていないか確認。
● External Sync sourceをMTCに設定し、MTC MIDI deviceで先ほど作成したIAC Driver MTCを選択(またはLTC over Audioに設定しCh数を指定)
● Flame rate、Sample rateを設定 ※PTの設定と合わせる
● ヘッドホンでバイノーラルで作業する場合はHeadphone only modeを有効にすると、リレンダリングのプロセスなどを省くため、マシンに余分な負荷をかけることなく作業できる
■Pro Tools 側の設定
● 設定→プレイバックエンジンを”Dolby Audio Bridge”に。
● キャッシュサイズはできる限り大きめに設定しておくと、プレイバック時にエラーが発生しにくくなる。
● 設定→ペリフェラル→同期→MTC送信ポートを先ほど作成した”IAC Driver,MTC”に設定
● 設定 → ペリフェラル → Atmosタブ(Send/Returnの項目と同様だ)
● チェックボックスに2箇所ともチェックを入れる。
● RMUホストの欄には”MAC名.local”または”LOCALHOST”と入力。接続状況を示すランプが緑色に点灯すればOK。一度接続した場合、次回からプルダウンメニューで選択できる。
以上で、CoreAudio経由でのルーティングは完了だ。Send/Returnプラグインを利用する時のように大量のAUXトラックが必要ないため、非常にシンプルにセッティングを完了できる。また、ソフトウェアレンダラーでの仕込みから最終のマスタリングでRMUのある環境に持ち込む際にも、I/O設定をやり直さなくてよいという点もメリットの1つだろう。こちらも試しにオーディオ素材を置いて動作を確認していただきたい。
マルチチャンネルサラウンドやバイノーラルコンテンツへの需要は、日々着実に高まりつつあることが実感される。今回はゼロからはじめるDolby Atmosということで、Dolby Atmosとはどのようなものなのか、そしてDolby Atmosミックスを始めるためにはどこからスタートすればいいのか、という足がかりまでを紹介してきた。「思ったより気軽に始められそう」と、感じていただいた方も多いのではないのだろうか。
「一度体験すれば、その素晴らしさは分かる。ただ、一度体験させるまでが難しい。」というのが3Dオーディオの抱える最大の命題の命題かもしれない。これを解決するのは何よりも感動のユーザー体験を生み出すことに尽きる。そのために今後どのような3Dオーディオ制作ノウハウを蓄積していけるのか、全てのクリエイターが手を取り合って研鑽することが、未来のコンテンツを創り上げる第一歩と言えるのかもしれない。
*ProceedMagazine2020号より転載
Post
2020/08/05
株式会社IMAGICA SDI Studio 様 / 国内外のニーズを両立させる、グローバルスタジオの最先端
長い歴史と高いクオリティを背景に、映像コンテンツのポストプロダクション事業におけるリーディング・カンパニーである株式会社IMAGICA Lab.と、欧米・アジアに数多くの拠点を持ち、メディア・ローカライズ事業をグローバルに展開するSDI Media Group, Inc.。ともにIMAGICA GROUPの一員であるふたつの企業による共同設立という形で株式会社IMAGICA SDI Studioが誕生した。映像コンテンツの日本語へのローカライズと、アニメーション作品の音響制作を主に手掛ける同社の拠点として、2020年2月に旧築地市場付近にオープンした同名のスタジオは、国内外からの様々な要求に応えるために、高品位な機器設備の導入だけでなく、欧米と日本のスタンダードを両立したスタジオ設計を目指したという。本記事では今後ますます起こり得るだろうグローバルな規模でのコンテンツ制作を可能にしたこのスタジオの魅力を紹介していきたい。
国内外双方の要望に応えるポストプロダクション
株式会社IMAGICA Lab.(以下、IMAGICA Lab.)と言えば、名実ともにポストプロダクション業界を代表する企業だ。国内最大規模のポストプロダクション事業を展開する企業であり、その歴史は戦前にまで遡ることができる。国内開催の五輪や万博といった歴史的な事業との関わり、独自技術の開発など、ポストプロダクション業界への貢献は計り知れない。一方、2015年にIMAGICA GROUPに参画したSDI Media Group, Inc.(以下、SDI)は、ロサンゼルスに本拠を置き、欧米とアジアに150を超えるレコーディングルームを持った世界的なローカライズ事業者。グローバルなコンテンツのダビングとサブタイトリングをサービスとして提供している。
そして、業界のリーディングカンパニーであるこの2社が2019年に共同設立したのが株式会社IMAGICA SDI Studioとなるのだが、この2社のコラボレーションの開始は同じグループ企業となった2015年に遡る。当初はIMAGICA Lab.が国内のクライアントから請け負った日本語コンテンツの多言語字幕吹替版の制作事業を中心に行っており、日本語吹替版の制作はIMAGICA Lab.内のMA室を改修したスタジオで2017年から実施されていたという。日本語吹替版制作事業が順調に拡大する中で、海外コンテンツの日本語ローカライズに対する需要の高まりを受け、国内外双方の要望に応えるために両者の共同出資によるグループ内企業を設立。そして、同企業の所有するスタジオとしてのIMAGICA SDI Studioのオープンが決まったということである。
101
102
103
IMAGICA SDI Studioの主な事業は、映像コンテンツの日本語吹き替え版の制作と、アニメーション作品の音響制作ということになるのだが、こちらのスタジオを拠点とした業務にとどまらず、翻訳者や声優のキャスティングから納品物の制作に至るまでを一手に引き受けることができる総合的なプロダクションとなっている。クライアントからすれば、IMAGICA Lab.とSDIの実績を背景とした豊富なノウハウと厳密なクオリティ管理の下に、プロジェクト全体をワンストップで依頼できるというわけだ。まさに時代に即応した現代ポストプロダクションの申し子とも言うべき企業が誕生したと言えるだろう。
海外仕様と日本のメソッドを融合
国内では類例のない広さを持つ102レコーディングブース。台本が見やすいようになるべく明るい部屋を目指したという。マイクはNeumann U 87 Ai。
「IMAGICA Lab.とSDIの両社で作ったスタジオということで、国内のお客様から求められる仕様と海外のお客様から求められる仕様を両方組み合わせて、両方のお客様に応えられるような設備の組み合わせを作ったというところが、一番特徴的かと考えています」と、株式会社IMAGICA SDI Studio 代表取締役社長 野津 仁 氏より伺えた。この国内外両方の顧客ニーズへ応えるために、仕様決定についてはSDI側からのリクエストも仔細に反映されている。当然、それぞれの国ごとに建築事情も違えばワークフローのスタンダードも異なっており、両立するための工夫がスタジオ全体の微に入り細に入り凝らされているが、その中でもこの両者の融合がもっとも顕著に現れているのが集合録り向けの部屋となる102ではないだろうか。
101を除く4部屋にはレコーディングブースが併設されているのだが、この102では国内でよく用いられている"集合録り"を行うための設備が整えられた。天井高:約3m/床面積:約40㎡という広々としたブースは最大25人程度を収容できるキャパシティを備えており、集合録り向けとはいえこれほど広いブースは国内でも珍しい。そこには、演者への快適な居住性の確保という観点はもちろん、海外に数多くの拠点を持つSDIの意向も強く反映されているという。ADRが主流となっている海外の制作現場では、ミキシング時に加工がしやすいクリーンな録り音を求める傾向が強い。リバーブ感も含めた各セリフの味付けは、レコーディング後の処理で追加するものという発想のようだ。そのため、天井高を確保することでブース内での反響を抑制し、可能な限り響きの少ない声を収録することを目指している。今回の音響設計は株式会社SONAの手によるものだが、狙い通り反響の少ない一つ一つの音が聴きやすく、かつS/Nもよい環境に仕上がったようだ。
同じようにブース内での反響を抑制するためにすべてのブースをプロジェクター+スクリーンにしたいとSDIからの要望もあったという。台本を持って収録にのぞむことになる日本のアフレコワークではスクリーンを使用すると部屋が暗くなり過ぎるため、残念ながらこちらは見送りとしたようだが、より反響を抑えるためにブースとコントロールルーム間のガラスを塞ぐことが出来るようにするなど、サウンドへの要望を実現するための工夫は随所に凝らされている。この102のブースは海外のクライアントが求めるサウンドと、日本で行われてきたワークフローとの両立が垣間見える、非常に興味深いスペースとなっている。
101 / 3mの天井高による理想的なDolby Atmos環境
それではスタジオの仕様を見ていきたい。全5部屋あるダビングスタジオのうち、101スタジオだけはレコーディング・ブースを持たないミキシング専用の部屋となっている。そして、この部屋がIMAGICA GROUP初のDolby Atmos対応ミキシング・ルームとなった。これまでもIMAGICA GROUPにはDolby Atmosに対応したプレビュールームなどはあったが、Dolby Atmos Home環境で制作が行えるスタジオはこちらが初めてとなる。
レイアウトはミッドレイヤーに7本、トップには4本のGenelec S360、サブウーファーは7380A 2本を使用した7.1.4ch構成。約3mに及ぶ天井高は、Dolby Atmosなどのイマーシブモニター環境としては理想的だ。この部屋は前述のように7.1.4 Dolby Atmosの構成をとるが、4本のトップレイヤーと、7本のミッドレイヤーとの間に十分な距離を取れないとミキシング作業に支障を来すということで、計画当初から3mの天井高を確保することが視野に入れられていたという。そこにモニタースピーカーとして採用された11本のGenelec S360が、最大出力118dB SPLというパワーで広い部屋の隅々まで音を届けている。
トップレイヤーを取り付けている位置は部屋全体からさらに浮いた構造になっており、音響的な「縁切り」がしっかりと行われている。
DAWは、メイン用と音響効果用に2式のPro Tools HDXシステムが導入された。メイン側のI/OはPro Tools | MTRX、効果用のI/Oは従来モデルのHD I/Oが採用されている。Pro Tools | MTRXはAD/DAに加え、Dolby Atmos RMUと信号をやり取りするためのDanteオプションカードと、ルームチューニング機能を提供するSPQオプションカードが追加された仕様だ。Dolby Atmos Home Mastering制作に必須となるDolby RMUは、昨年DolbyよりアナウンスされたばかりのMac mini構成。Mac miniはDante I/O カードとともにSonnet xMac mini Serverにビルトインされ、1UのコンパクトなサイズでDolby Atmosに必要な128chを処理する。限られたスペースに多数の機材をラッキングしなければならないMAスタジオにとっては、そのコンパクトさは価格も含めて魅力的な構成と言えるだろう。
コントロールサーフェスは、メインに16フェーダー構成のAvid S4、効果用にAvid S3を採用。S4はフラッグシップであるS6 M40に搭載された機能のほとんどを使用することが可能だが、今回はディスプレイモジュールなしとし、3Dパンニング対応のパンナーモジュールが追加されている。S4とS6 M10とのもっとも大きな違いのひとつがディスプレイモジュールへの対応だが、そのディスプレイモジュールを省いたのはこの部屋の映像モニターがスクリーン+プロジェクターであることと関係している。せっかく大型スクリーンで視聴できる環境を整えたのだから、その手前にカラフルなディスプレイモジュールを設置することは望ましくない、という判断だ。
パワフルな機能だけでなくコンパクトさも魅力Avid S4。様々な位置でミックスを確認できるよう、パンナーモジュールは特注ボックスに収納され本体の外に設置されている。
パンナーモジュールは特注専用ボックスと延長ケーブルを使用して、サーフェス本体から離れた位置でもパンニングを行うことができるようになっている。モニターコントローラーは、発売直後の導入となったGRACE DESIGN m908。名機m906の後継機として、Atmos対応を果たした同社の新たなフラッグシップ・モデルだ。IMAGICA Lab.では2部屋ある5.1ch対応MAスタジオの片方にm906が採用されていたのだが、その使い勝手が非常によいということで、こちらでは後継となるm908が全部屋に導入されている。
プラグイン関連に目を向けると、基本的に全部屋共通でWAVES Diamond、NUGEN AUDIO Loudness Tool Kit、iZotope RX7、AUDIO EASE各種、Video Slave 4 Proなど、ポストプロダクション業務でのデファクト・スタンダードが余すところなく導入されている。個人的には、その中にSound Toys Bundleが含まれているところが興味深いと感じた。MAというと、不要なノイズを除去するなど、ついついサウンドを"きれいに"する方向にばかり注目してしまうが、Sound Toysのように積極的に歪ませることが得意なプロダクトも導入されている点は、サウンドに対するこだわりを感じさせる部分ではないだろうか。
102~105 / 国内屈指の規模となる収録ブース群
102コントロールルーム
そして、102~105は収録ブースを備えた部屋となっている。前述の通り102はいわゆる"集合録り"向けの部屋で、天井高:約3m/床面積:約40㎡という広々としたブースは最大25人程度を収容できるキャパシティを備えている。103~105は個別録り向けの部屋となっているが、それでも面積:約17~19㎡ x 高さ:約3mとなっており、一般的なスタジオと比べると大きなスペースを確保している。こちらでも微に入り細に入り不要な反響が発生しない工夫が凝らされており、クリーンな録り音を狙った仕様は102と同様だ。
102レコーディングブース
103レコーディングブース
機材面については、集合録り向けの102のみ収録機材が多いことを除いて、これら4部屋は基本的に同様の構成となっている。IMAGICA Lab.での実績を踏まえたオーセンティックな構成でありながら、課題となっていた部分を解決するためのモデル変更や最新モデルへのアップグレードなどが実施され、よりブラッシュアップされた仕様となっている。モニター環境は、配信系の映像コンテンツでは主流となっている5.1サラウンド構成を採用。モニタースピーカーには、国内出荷直後のGenelec 8351B(サブウーファーは7370A x2)が選ばれている。
そして、DAWは101と同様にPro Tools HDXシステム+Pro Tools | MTRXだが、102~105はHDXカードが1枚、MTRXのオプションカード構成も収録のない101とは異なったものとしている。コントロールサーフェイスにはAvid S3を採用。IMAGICA Lab.ではArtist | Mixを使用していたそうだが、フェーダーのクオリティ向上などを目的にS3が選ばれた格好だ。S3にはパンニング機能を追加できないため、パンナーとしてJL Cooper Eclipse PXが導入されている。102~105は5.1サラウンド仕様ではあるが、将来的な拡張性を考慮し、Dolby Atmos対応の本モデルが採用された。
Pro ToolsのホストマシンとなるMac Proは、101・102が旧モデル(いわゆる"黒Mac Pro")、103~105は発売されたばかりの新型Mac Proとなっている。最新のCPUに加え動画再生にも対応できるようメモリを増設、ホストマシンがワークフローのボトルネックとなることはほぼないのではないだろうか。モニターコントローラーも101と同じ、GRACE DESIGN m908が採用されている。ここにはPro Toolsからのアウトだけでなく、Mac Pro本体のオーディオアウトと、収録のバックアップ機として導入されているZoom F6が繋がっている。Pro Tools起動前に音声を確認したり、収録中に万一Pro Toolsが落ちた場合のブースとの音声のやり取りに使用するためだ。
ミキシング専用の部屋である101とは異なり、レコーディング作業もある102~105にはアナログコンソールが導入されているが、Avid S3と同じデスクの上にならべる必要があるため、そのサウンドクオリティとコンパクトさからSSL X-Deskが採用されている。HAはRupert Neve Design Portico 511とAD Gear KZ-912、Portico 511と同じシャーシにはダイナミクスとしてSSL E Dynamics Moduleもマウントされている。
全会一致で可決!?全部屋に導入されたGenelecスピーカー
IMAGICA SDI Studioのスピーカー構成は101がGenelec S360+7380Aの7.1.4 Dolby Atmos、その他の部屋(102~105)は8351B+7370Aによる5.1 サラウンド仕様となっており、全部屋がGenelec製品で統一されている(101はステレオ用モニターとしてADAM AUDIO S2Vも設置)。前述の通り、設立当時はIMAGICA GROUP内でDolby Atmos対応のMAルームが存在していなかったため、それに応じるように吹き替え事業で需要のあるDolby Atmos対応ミキシングルームが作られた格好だ。その他の部屋も、近年の吹き替え作業での高い需要を鑑みて5.1サラウンド仕様となっている。特に配信系の映像コンテンツでは、現在はステレオよりも5.1サラウンドの方が主流と言ってよいようだ。
導入されたモデルについては、機材選定の段階で検討会を実施した際、ミキサーからの評価が非常に高かった2機種が選ばれている。ちなみに、この時の検討会では国内で試聴できるほとんどすべてのモニタースピーカーを一挙に聴き比べたという。S360については、「音が飛んでくる」「部屋のどこで聴いても音像が変わらない」「帯域のバランスがいい」など、参加したミキサーからの評判が非常に高く、ほぼ全会一致で導入が決定された。およそ3m x 35㎡という広い部屋をカバーするだけの、高い最大出力も魅力だったとのこと。当初は全部屋S360でもいいのではないか!?という程に評判がよかったようだが、101以外の部屋に設置するにはさすがにサイズが大きすぎるということもあり、8351Aが検討されたという経緯だ。その後8351Aについては、ちょうど導入時期にモデルチェンジがあり、8351Aから8351Bへとブラッシュアップされることが発表され、101を除く全部屋は8351Bで統一されることとなった。
S360
7380A
8351B
8351BはGenelecの中でも比較的新しい"One シリーズ"という同軸スピーカーのラインナップに属しているモデルだ。スピーカーを同軸モデルにすることに関してはSDIの担当者も非常に強く推していたそうで、「実際に音を出してみて、彼があれだけこだわった理由もわかるな、と思いました」(丸橋氏)というほど、位相感やサウンドのまとまりにはアドバンテージがあるという。同軸ではないS360との差異も違和感にはならず、却って差別化に繋がっているようで、それぞれのスタジオ環境に応じた的確なセレクトとなったようだ。
GLM+MTRX SPQカードによる音場補正
全部屋のモニタースピーカーにGenelec製品が導入されているため、音場補正はGLM(Genelec Loudspeaker Management)をメインとして行われている。同じく全部屋のPro Tools | MTRXにSPQオプションカードが換装されており、追加の補正を同時に施している。「基本的にはGLMで音作りをするという考え方で、SPQについてはそれプラスアルファ、必要な匙加減の部分を任せる、というような形です。」(池田氏)SPQカードは128のEQチャンネルと最大1,024のフィルターを使用した、非常に精密なチューニングを可能にしてくれる。IMAGICA SDI Studioの場合は、101が唯一スクリーン+プロジェクターという構成で、センタースピーカーがスクリーンの裏側に設置されている。そのため、スクリーン使用時はこのスピーカーだけ高域が僅かに減衰する。こうした部分の微調整を行うために、Pro Tools | MTRX のSPQカードによる追加の処理が施されているということだ。GLMとSPQのそれぞれの強みを活かし、クオリティと運用性の高さを両立していることが窺える。
高い操作性でイマーシブモニタリングにも対応するm908
今回、文字通り発売直後のタイミングで全部屋に導入されたモニターコントローラー GRACE DESIGN m908。そもそも、Dolby Atmosのスピーカー構成に対応できるモニターコントローラーの選択肢が、現状ではほとんど存在しないということも一因だが、現場のエンジニア諸氏が前モデルとなるm906の利便性を高く評価していたことが今回の採用に非常に大きく影響したようだ。
m908の必要十分な大きさのリモートコントローラーは、7.1.4構成時にもトップのスピーカーまで個別にソロ/ミュート用のボタンが存在するなど、作業に必要な操作がワンタッチで行えるように考えられたデザインとなっている。加えて、イン/アウトもコントローラー単体で自由に組めるためカスタマイズ性も高く、説明書を読まずに触ったとしてもセットアップができてしまうと評されるほどのユーザーインターフェイスを併せ持つ。また、m908はオプションカードの追加によって入力の構成を変更することが可能な柔軟性も魅力だ。アナログ信号を入力するためのADカードのほか、DigiLinkカード、Danteカードがあり、スタジオの機器構成に応じて最適な仕様を取ることができる。実際にこちらでもDolby Atmos対応の101とその他の部屋とでは異なるカード構成となっており、多様なスタジオのスタイルに合わせることができている。
これだけの規模のスタジオ新設、それも音関係の部屋のみで作るというのはIMAGICA GROUPの中でも過去にほぼ例がないことだったという。しかも、グローバルなコンテンツ制作への対応に先鞭をつけることが求められる一方で、足元となる国内からのニーズとも両立を計るというミッションがあったわけだから、その完成までの道程にあったクリアすべき課題は推し量るにも余りある。そうしてこれを実現するために2年、3年と行ってきた数々の試行錯誤は、いままさに実を結んだと言えるだろう。国内外のクライアントに最上のクオリティで応えることができる、IMAGICA SDI Studioという新たな拠点がいまスタートを切った。
当日取材に応じてくれた皆様。画像前列向かって右より、株式会社IMAGICA SDI Studio 代表取締役 野津 仁 氏、同社 オペレーション・マネージャー 遠山 正 氏、同社 ミキシング・エンジニア 丸橋 亮介 氏、同社 チーフ・プロデューサー 浦郷 洋 氏、後列向かって右より、株式会社フォトロン 鎌倉氏、ROCK ON PRO 岡田、株式会社ソナ 池田氏、同社 佐藤氏、ROCK ON PRO 沢口、株式会社アンブレラカンパニー 奥野氏
*ProceedMagazine2020号より転載
Post
2020/04/17
Mac mini RMU〜コンパクトな構成でDolby Atmos ミキシングを実現
ホームシアター向けDolby Atmos(Dolby Atmos Home)マスターファイルを作成することが出来るHT-RMUシステムをMac miniで構成。劇場映画のBlu-RayリリースやVOD向けのDolby Atmos制作には必須のDolby Atmos HT-RMUシステムは、Dolby社の認証が下りている特定の機器構成でなければ構築することが出来ない。従来、認証が下りていたのは専用にカスタマイズされたWindows機やMac Proといった大型のマシンのみであったが、ついにMac miniを使用した構成の検証が完了し、正式に認可が下りた。
Pro Toolsシステムとの音声信号のやりとりにDanteを使用する構成と、MADIを使用する構成から選択することが可能で、どちらも非常にコンパクトなシステムで、フルチャンネルのDolby Atmos レンダリング/マスタリングを実現可能となっており、サイズ的にも費用的にも従来よりかなりコンパクトになった。
HT-RMUの概要についてはこちらをご覧ください>>
◎主な特徴
Dolby Atmosのマスター・ファイルである「.atmos」ファイルの作成
.atmosファイルから、家庭向けコンテンツ用の各フォーマットに合わせた納品マスターの作成
「.atmos」「Dolby Atmos Print Master」「BWAV」を相互に変換
Dolby Atmos環境でのモニタリング
Dolby Atmosに対応するDAWとの連携
DAWとの接続はDanteまたはMADIから選択可能
◎対応する主なソリューション
Dolby Atmos に対応したBlu-ray作品のミキシング〜マスタリング
Dolby Atmos に対応したデジタル配信コンテンツのミキシング〜マスタリング
Dolby Atmos 映画作品のBlu-ray版制作のためのリミキシング〜リマスタリング
Dolby Atmos 映画作品のデジタル配信版制作のためのリミキシング〜リマスタリング
Dolby Atmos 映画作品のためのプリミキシング
構成例1:Dante
※図はクリックで拡大
RMUとPro Toolsシステムとの接続にDanteを使用する構成。拡張カードを換装したPro Tools | MTRXやFocusrite製品などの、Dante I/Fを持ったI/Oと組み合わせて使用することになる。この構成ではLTCの伝送にDanteを1回線使用してしまうため、扱えるオーディオが実質127chに制限されてしまうのが難点だが、シンプルなワイヤリング、ソフトウェア上でのシグナル制御など、Danteならではの利点も備えている。しかし、最大の魅力はなんと言ってもRMU自体が1U ラックサイズに納ってしまう点ではないだろうか。
構成例2:MADI
※図はクリックで拡大
こちらはMADI接続を使用する構成。歴史があり、安定した動作が期待できるMADIは多チャンネル伝送の分野では今でも高い信頼を得ている。この構成の場合、MADIまたはアナログの端子を使用してLTCを伝送するため、128chをフルにオーディオに割り当てることが出来るのも魅力だ。また、この構成の場合はMADI I/FをボックスタイプとPCIeカードから選択することが出来る。
Broadcast
2020/01/09
株式会社WOWOW様 / 現用の各3Dオーディオフォーマットに準拠した空間
2018年冬に完成したWOWOW様の試写室「オムニクロス」。当初よりDolby AtmosとAuro-3D®そして、DTS:Xの各フォーマットに完全対応した環境が構築されていたが、さらなる追加工事を行い22.2chサラウンド完全準拠のモニター環境を完成させた。当初からの構想にあった現在運用が行われている各3Dオーディオフォーマットに準拠したモニターシステムがついに完全な形として姿を現した。
最新のソリューションを携えた新たな空間
「新 4K8K 衛星放送」における4K放送開局に向け、同社辰巳放送センターのC館の建て替えが行われた。旧C館にあった試写室は、冒頭にも述べたように各種3D オーディオフォーマットへの対応、そして比較試聴が行える空間となり、4K完全対応の最新のソリューションを携えたまったく新しいものへと変革を遂げている。映画向けのフォーマットとして成長しているDolby AtmosとAuro-3D®の両方に対応した設備は、ハリウッドなどの映画制作向けダビングステージで見ることはできるが、ここではさらにDTS:Xそして22.2chの対応をしている設備へとリニューアルされている。
水平角度、仰角それぞれのスピーカ推奨位置に完全に準拠したモニター環境を備えたこの部屋は、世界でも非常に貴重な存在である。写真を見ていただければ分かる通り、天井のスピーカーに関しては移動させることが困難なため、それぞれのスピーカー推奨位置に合わせて固定されている。たとえば、Auro-3D® / 22.2chサラウンド用は、スイートスポットからの仰角30°、Dolby Atmos用は仰角45°に設置といった具合。水平方向に関してもしっかりと角度を測定し、理想的な位置へ設置が行われている。正三角形を理想とするステレオから、ITU-R BS.775-1準拠の5.1chサラウンド、それを拡張したDolby Atmos / Auro-3D®それぞれのスピーカー推奨位置にしっかりと準拠するように考えられたスピーカーの配置だ。最終的に設置されたスピーカは、サブウーファーも合わせるとなんと33本にもなる。水平位置には11本、天井に17本、ボトムにあたる床レベルに3本、サブウーファーは2本という配置となる。
そして、この部屋で制作作業も行えるようにAvid S6を中心とした音声のプロダクションシステムが導入されている。Dolby Atmos Renderer、Auro-3D® Authoring Tools、AURO-MATIC PRO、DTS:X Creater Suite、Flux Spat Revolutionをはじめとする現時点で最新のツールがインストールされているのもその特徴のひとつである。それらを駆使しての研究・制作の場として、また最高の環境での試写・視聴の場としても、様々な用途に対応できるように工夫が凝らされた。プロダクションレベルでの仕上がりの差異を確認できるというのは、作り手として制作ノウハウを獲得する上での重要なポイントだ。仕上がりの確認はもちろんではあるが、制作過程においてのワークフローも併せて学ぶことができる環境でもある。
ベストを見つける最高の比較環境
試写室「オムニクロス」・正面に設置されたスピーカー
それでは、なぜこのような環境を構築する必要があったのだろうか。現在メジャーなフォーマットであるDolby AtmosとAuro-3D®。それぞれに特徴があり、それぞれを相互に変換したらどのように聞こえるのか?コンテンツの種類によってベストな3Dオーディオフォーマットは?単純に比較をするといっても、できるだけイコールな環境で比較をしなければならない。それらを総合的に実現するのが、この試写室ということになる。ハリウッドのダビングステージはあくまでも映画向けの制作環境であり、ホーム・オーディオ向けの環境とはやはり差異がある。サラウンドが、ウォール・サラウンドなのか、ディスクリート・サラウンドなのかという根本的な違いも大きい。ホーム・オーディオ向けの環境として、フルディスクリートのスピーカーシステムで、ここまでの設備を備えた環境は、世界的に見ても貴重な存在である。
また、有料放送事業者にとってベストクオリティのエンターテインメント・メディアを作るということは非常に重要視されている。WOWOWでは「新鮮な驚きと感動を提供し続ける」ことを命題に掲げており、これを技術という側面から見れば「最新のソリューションに挑戦し、その中からベストを見つける」ということが必須になるわけだ。Audioの技術として何がベストなのか?ひとつのものを見るだけではなく、複数の視点からベストなものを探る、そのためには最高の環境で比較ができなければならない。さらには互換性の担保が重要で、Atmosのスピーカ推奨位置で作ったコンテンツが、Auro-3D®のスピーカ推奨位置で聴いたときに印象が大きく異なることは避けなければならない。同一の空間で比較を行える、さらには切り替えながら制作するということは、比較試聴してベストな方法を検討したり、どのフォーマットで聴いても制作意図が伝わる互換性を検討したりとするために重要なポイントである。つまり、この考えを実現するために、この試写室「オムニクロス」は非常に重要な設備となる。
試写室「オムニクロス」 左上方に設置されたスピーカー
その繊細な違いを、しっかりと確認するためにMaster ClockにはAntelope Audio Trinity、DAコンバーターにはAVID MTRX、SpeakerはMusik Electronic Gaithin(LCRはRL901K、それ以外はRL940、BotomとBCはRL906)と、高いクオリティーを持った製品がチョイスされている。192kHz、96kHzといったハイサンプリングレートにも対応し、各種3Dオーディオフォーマットを再生するためにMacProは12-Coreの最高スペックのモデルが導入された。Dolby Atmos Rendererや、Auro-3D® Encorder/Decorder、DTS:X Encorderなどを動作させても余裕をあるスペックとなっている。さらにインスタントに各種3Dオーディオフォーマットの変換を行うためにFlux Spat Revolutionも導入されている。フル・オブジェクトでのミキシングを実現するこのアプリケーション。Dolby Atmos 7.1.4chの出力をインスタントにAuro-3D® 13.1のスピーカー推奨位置で鳴らすということも実現可能である。もちろんその逆や、他の様々なオーディオフォーマットに対しての出力もできる。さらには、オーディオフォーマットの簡易的な変換ということだけではなく、このソフトウェアを使ってのミキシングを行うことで、各オーディオフォーマットでの視聴も行えるように設計されている。
今回のシステム構築にあたり、一番頭を悩ませたのが各オーディオフォーマットに対してのモニターコントローラーセクションの切り替えだ。この部分に関しては、AVID MTRXのモニターコントロール機能を活用してシステム構築を行っている。オープン当初に作成したモニターセクションは、ソース、スピーカーセット、FoldDown3個のボタンの組み合わせでそれらの切り替えを実現していた。今回の更新にあたっては、さらに操作をシンプルにできないか?というリクエストをいただき、Pro Toolsからの出力を整えるという前提に合わせて、いちから再設計を行った。やはり試写室という環境から、技術者が立ち会わずに作品を視聴するというケースもあるとのこと。この複雑なシステムをいかにシンプルにして営業系のスタッフが試写を行えるか?電源のON/OFFやシステムの自動的な切り替えはヒビノアークス様が担当し、AMXを活用してタブレットから用途に合わせたセッティングをGUIを使ったボタンより呼び出せるカスタマイズがなされた。その結果、できるだけ音声の切り替えも手数を減らしたシンプルな操作で間違いのないオペレーションが行えるようになっている。
導入された24FaderのAVID S6
株式会社WOWOW 技術ICT局技術企画部 シニアエキスパート 入交 英雄 氏
4K60Pを稼働させるプロダクトを
AVID ProTools / Media Composer / NEXIS などが納まる映写室のラック
4K対応の試写室ということで、プロジェクターをはじめとする各機器は4K60P対応の製品がセレクトされている。Videoの再生装置としては、AVID Media Composerが導入されPro ToolsのシステムとはVideo Satelliteで接続が行われている。4K60Pの映像出力のため、AVID DNxIQが設置されプロジェクターとはHDMIにより接続が行われている。4K60Pの広帯域なデータ転送速度を必要とするデータストレージにはAVID NEXIS PROが選ばれている。帯域を確保するために、Pro Tools、Media Composerともに10GbEで接続され、400MB/sの速度が担保されている。これにより、非圧縮以外のほとんどの4K60Pのファイルコーデックへの対応を可能としている。
すべてAVIDのシステムを選択することで、安定した運用を目指しているのはもちろんだが、AVID NEXISの持つ帯域保証の機能もこのようなハイエンドの環境を支える助けとなっている。この帯域保証とは、クライアントに対して設定した帯域を保証するという機能。一般的なサーバーであれば、負荷が大きくなった際にはイーサネットのルールに従いベストエフォートでの帯域となるのが普通であるが、AVID NEXISは専用のクライアント・アプリケーションと通信を行わせることでその広帯域を保証するソリューションとなっている。
このMedia ComposerのインストールされたPCはFlux Spat Revolutionを使った作業時には、Flux Spat Revolutionの専用PCとしても動作できるようにシステムアップが行われている。Pro Toolsの接続されたMTRXから出力された2系統のMADI信号をRME MADIFace XTが受け取り、Flux Spat Revolutionが処理をして、再度MADIを経由してMTRXへと信号が戻り、そのモニターコントロールセクションによりコントロールが行われる。スピーカー数も多く、処理負荷も高くなることが予測されるFlux Spat Revolutionは、別PCでの信号処理を前提とした運用が可能なシステムとなる。もうひとつ、こちらのPCへはMAGIX SEQUOIAもインストールされている。ドイツ生まれのクラシック制作・録音ツールとして評価を受けるこちらのソフトウェア、ハイサンプルレート、各種3Dオーディオフォーマットにも対応しておりこちらもこだわりのひとつと言えるだろう。
各3Dオーディオフォーマット対応の核心、モニターセクション設計
それでは、このシステムを設計する上で核心となる、モニターセクションの設計に関して少し解説を行いたい。文字だけではどうしても伝え切れないので、各図版を御覧いただきながら読み進めていただきたいところだ。まずは、Pro Toolsからの出力を整理するところから話を始めよう。これは今回の更新までに入交氏がトライしてきた様々な制作のノウハウの結晶とも言えるものである。各3Dオーディオフォーマットの共通部分を抽出し、統一されたアウトプットフォーマットとして並べる。言葉ではたったの一言であるが、実際に制作を行ってきたからこその、実に理論整然としたチャンネルの並びである。
入力と対になるのが33本のスピーカーへの出力。さきほどのPro ToolsからMTRXへInputされたシグナルは、各オーディオフォーマットに合わせてルーティングが組まれ、MTRX出力から物理スピーカーへと接続される。こちらを行うためには、AVID MTRXにプリセットされているスピーカーセットでは対応することができず、Custom Groupと呼ばれるユーザー任意のスピーカーセットを使ってそのアサインを行った。
こちらの表でRoleとなっている列がCustom Groupである。Custom GroupはAVID MTRXの内部バスとして捉えていただければ理解が早いのではないだろうか。今回のセットアップでは、物理スピーカーアウトプットとCustom Groupのバスを1対1の関係として、固定をすることで設定をシンプルにすることに成功した。アウトプットを固定するのか?インプットを固定するのか?ここはどちらが良いのか両方のセットアップを作成してみたのだが、このあとの話に出るFoldDownの活用を考えると、アウトプットを固定するという方法を取らなければ設計が行えないということが分かり、このような設計となっている。
MTRXのモニターセクションは、インプットソースを選択する際に物理入力とCustom GroupのRoleの組み合わせを設定することができる。これにより、Custom Groupへ流れ込むチャンネルを同時に切り替えるが可能となる。この機能を利用して入力された信号を任意の出力へとルーティングの変更を行っているわけだ。
一般的にはダウンミックスを視聴するために活用されるFoldDownだが、AVID MTRXのこの機能はアップミックスを行うことも可能だ。それをフルに活用し、スイートスポットを広げるためにデフューズ接続を多用したPreviewモードを構築している。特にDolby Atmos時にスクリーン上下のスピーカーを均等に鳴らすことで、スクリーンバックのような効果を出すことに成功している。それ以外にも、Auro-3D®のプレビューモードでは頭上のVOGチャンネルをDolby Atmos配置の上空4本で均等に鳴らすことで、頭上からのサウンドのフォローエリアを広げている。このような自由なシグナルマトリクスを構成できるということは、AVID MTRXのモニターセクションの持つ美点。ほかにプロセッサーを用意せずにここまでのことが行えるのはやはり驚異的と言えるだろう。
このように、スピーカーを増やすことでさらに多様なオーディオフォーマットの確認ができるようにするとともに、操作性に関してはさらにシンプルにするという一見して相反する目的が達成された。追加更新前の状況でも世界的に見て稀有な視聴環境を有していたこの試写室が、さらに機能を向上させて当初の構想を完全な形として完成を見ている。ここでの成果は、WOWOWのコンテンツに間違いなくフィードバックされていくことであろう。さらに、昨今ICTへの取り組みも積極的な同社。様々な形、コンテンツで我々に「新鮮な驚きと感動」を届けてくれることであろう。
(中左)株式会社WOWOW 技術ICT局技術企画部 シニアエキスパート 入交 英雄 氏 / (中右)株式会社WOWOW 技術ICT局制作技術部 エンジニア 栗原 里実 氏
(右端)ROCK ON PRO 岡田 詞朗 / (左端)ROCK ON PRO 前田 洋介
*ProceedMagazine2019-2020号より転載
Post
2019/12/26
株式会社角川大映スタジオ様 / Dolby Atmos導入、いままでのジャンルを越えた制作へ
1933年に開所した日本映画多摩川撮影所から始まり、80年以上の歴史をもつ角川大映スタジオ。そのサウンドを担っているポスプロ棟の中にはDubbing Stage、MA/ADR、Foley、サウンド編集室というスペースが存在している。今回の改修ではMA/ADRのDolby Atmos化、サウンド編集室のサウンドクオリティの向上を図る改修工事のお手伝いをさせていただいた。製品版の導入としては国内初であるDolby Atmos Processer HT-RMU/J(MAC)や、Pro Tools | MTRXの機能を最大限に活かしたシステムアップなど機材面でも注目すべき改修工事となった。
映画、ドラマ、DVD、OTT作品など幅広い作業に対応したスタジオ
今回の改修のスタートだが、実はサウンド編集室の増設とサウンドクオリティ向上のための内装工事というものだった。当初はサウンド編集室をDolby Atmos対応の仕込みができるよう7.1.4chにスピーカーを増設しようというプランがあった。しかし、それだけではその後のマスタリングの工程が社内で行うことができずに、他のスタジオでの作業となってしまう。そして、サウンド編集室の天井高が十分ではないこともあり、理想に近い音環境の構築が困難であるということもあった。それならば、マスタリングまでできる環境としてMA/ADRを改修してしまうのはどうだろうか、と一気に話が進んだということだ。逆にサウンド編集室のDolby Atmos対応に関しては見送られ、MA/ADRで仕込みからマスタリングまでを行うというワークフローとなった。このような経緯でスタートした今回の導入計画その全貌をご紹介していきたい。
メインコンソールとなるAvid S6とその下部に納められたアウトボード類
今回の導入の話の前に、こちらのMA/ADRのスタジオがどのようなスタジオなのかというところを少しご説明させていただきたい。こちらのスタジオは映画、ドラマ、DVDミックス等やアフレコ、ナレーション収録からCMの歌録りなど幅広い作業に対応したスタジオとなっている。昨年メインコンソールをAvid D-ControlからAVID S6+MTRXの構成にアップデートした。Pro ToolsはMain、SE、EXと呼ばれる3台が用意され、映像出力用にWindows仕様のMediaComposerが1台用意されている。サラウンドスピーカーはGENELECで構築、LCRは8250A、サラウンドは8240Aとなっている。DME24とGLMネットワークによりキャリブレーションされ、AVID S6の導入と同じタイミングで5.1chから7.1chへと更新が行われた。今回の改修ではさらにスピーカーをDolby Atmos準拠の7.1.4chへ増設し、Dolby Atmos Processer HT-RMU/J(MAC)を導入。さらにはMTRXオプションカードを増設することによって、シンプルかつ円滑にAtmos制作ができる環境へとアップデートされた。
国内初導入となるDolby Atmos Processer HT-RMU/J(MAC)
今回行われた改修の大きなトピックとなるのが、国内としては初めての導入となるDolby Atmos Processer HT-RMU/J(MAC)の存在だろう。Dolby Atmos Processer HT-RMU/J(MAC)とは「Dolby Atmos Home」制作、マスタリングのためのターンキー・システムである。HT-RMUとは"HomeTheater-Rendering and Mastering Unit"の略で、Dolby Atmos Homeのマスタリングを行うマシンということである。2017年に取り扱いを始めた当初はWindows版しかなかったが、現在ではMac OSでのシステムアップも可能となっている。さらにSoftware Version 3.2からMac miniでの構築が可能となり、導入のしやすさは格段に上がった。コストはMac miniにすることにより抑えられ、Mac mini版のHT-RMUは税別100万円という価格になっている。Windows版、MacPro版は税別200万円であったので、半分のコストで導入することができるようになったわけだ。
HT-RMU/J(MAC)の場合はDanteでDAWと音のやり取りを行う。今回のケースではMTRXの”128Channel IP Audio Dante Card”と接続するだけでProToolsとの信号のやりとりはOKというシンプルな接続となっている。HT-RMU/J(MAC)のハードウェア構成としては、Mac Pro or Mac mini、 Sonnet /xMac Pro Server(III-D、III-Rでも可、Mac miniの場合はxMac mini Server)、Focusrite / RedNet PCIeR、Audinate / ADP-DAI-AU-2X0(タイムコード信号をDanteに変換しRMUに送る役割)、外部ストレージとなる。今回導入となった構成としてはMacPro、Echo Express III-Rという組み合わせとなった。3式のProTools のそれぞれがMac Proとなっており横並びで3台ラッキングされているのだが、その横に1台分の空きがあり、今回導入のHT-RMUのMacをそこへラッキングするためxMac Pro ServerではなくIII-Rの方が都合がよかったというわけだ。
HT-RMUのMacにインストールされたDolby Atmos Rendererアプリケーションにてレンダリング、マスタリングを行うのだが、同一ネットワーク内の別のMacからもそのRendererをコントロールできるRenderer Remoteというアプリケーションが用意されている。今回はHT-RMU含む4台のMacを新しくネットワーク構築している。3台あるProTools のMacすべてにRenderer Remoteがインストールされ、どのMacからもRendererをコントロールできる。また、オブジェクトのメタデータについても3台すべてのPro Toolsから送ることができるようになっている。
DigiLink I/Oカード、Danteカードの増設によりシンプルなシステムを可能にしたMTRX
もう一点今回の改修で大きな鍵をにぎっているのはPro Tools | MTRXだ。新規に導入いただいたオプションカードは”128 Channel IP Audio Dante Card”1枚、 "DigiLink I/O Card"3枚の合計4枚となっている。”128 Channel IP Audio Dante Card”は今回のRMU導入の大きな手助けをしてくれた。128chの送受信を要求するHT-RMUとのやりとりがこのカードを入れるだけで済んでしまう。多チャンネルを扱う際にシンプルに多くのチャンネル数をハンドリングできるAoIP / Danteはかなり利便性に富む。
中央に見える4台並んだMacProの左3台がPro Toolsシステム、一番右のマシンとその上のシャーシの組み合わせにDolby Atmos Rendererをインストール。右ラックの最上段にはAvid MTRXの姿が確認できる。
また"DigiLink I/O Card"を3枚導入することにより、3つあるProTools間での音のやりとりがとてもシンプルでなおかつ多chとなった。導入前はHD I/O とMTRXがAESで信号のやりとりをしていたが、DigiLink I/O Cardの導入により各ProToolsが直接MTRXと接続される形となる。これまで、16chのやりとりであったものが、Main 160ch、SE 64ch、EX 32chと多チャンネルのやりとりができるようになった。SE、EXからMainにダビングするのはもちろんだが、HT-RMUからのRerenderer OUTを3つのProToolsどれでも録音できるようになっている。シグナルルーティングの組み替えはDADmanから操作でき、作業に合わせたプリセットを読み込むことで瞬時の切り替えも可能。このあたりのシグナルルーティングの柔軟性はMTRXならではといったところだろう。
今回の改修によりDanteカード1枚、DigiLinkカード3枚が追加され、ADカード1枚、DAカード2枚、AESカード1枚、と8スロットすべてを使用する形になっている。MTRXを核としたスタジオセットアップは、最近ではデフォルトになりつつあるが今回の構成はとても参考になる部分があるのではないだろうか。
サウンドクオリティ向上を図ったサウンド編集室
今回3部屋に増設となったサウンド編集室、ラックにはYAMAHA MMP1が格納される。後方に備えられたスピーカーの写真は7.1ch対応となっているサウンド編集室1だ。
サウンド編集室の更新も併せてご紹介したい。まず一番大きなポイントは2部屋だったものを3部屋に増設したということだ。もともとの2部屋は防音パネルを貼っていただけの部屋だったため外からの騒音が気になったとのこと。今回の工事では空調を天井隠蔽型に変更し、マシンスペースを分け二重扉を設置した。これにより気になっていた外部からの騒音もシャットアウトされた。また機材についても見直され、もともとはYAMAHA / DM1000が使用されていたが代わりにYAMAHA / MMP1が導入された。3部屋とも機材が統一され使用感に変化がないよう配慮されている。Pro Tools HDXのシステム(I/O はHD I/O 8x8x8)にモニターコントローラ兼モニタープロセッサーとしてYAMAHA / MMP1、スピーカーはGENELECという構成だ。ちなみに、YAMAHA / MMP1はiPadの専用アプリケーションにてコントロールを行なっている。サウンド編集室1は7.1chに対応し、2と3は5.1chなのだが7.1chに後から増設できるよう通線等はされ、将来における拡張性を確保している。
HT-RMUの導入から取材時点ではまだ1ヶ月も経っていないのだが、Atmos制作環境があることによっていままでになかったジャンルの仕事が増えたとのお話を伺えた。これから導入が進むことが予測されるDolby Atmosの制作環境だが、それをいち早く導入したことによるメリットはとても大きいようだ。今後は幅をさらに広げて、Atmos環境を活かしたさまざまな作品を手がけていきたいという。また、今回の導入で感じたことはHT-RMUの導入が身近になってきたということだ。実際、今回の改修では当初サウンド編集室の増設というお話だったが、最終的にはMA/ADRのAtmos化を実現、追加機材の少なさが鍵となったと言える。Dolby Atmos制作環境のご相談をいただく機会は格段に多くなっているが、リニューアルした角川大映スタジオのMA/ADRは、今後のDolby Atmos制作スタジオのケーススタディとして参考にすべき好例となるのではないだろうか。
(左)株式会社 角川大映スタジオ 営業部 ポストプロダクション技術課 課長 竹田 直樹 氏、(右)株式会社 角川大映スタジオ 営業部 ポストプロダクション技術課 サウンドエンジニア 小西 真之 氏
*ProceedMagazine2019-2020号より転載
Broadcast
2019/12/18
名古屋テレビ放送株式会社様 / ファイルベース、その波のすべてを受け入れられる懐の深いシステムを
局内のファイルベース化へ積極的な更新を行う名古屋テレビ。今年はMAシステムの更新にともない、これまで運用していたシステムの大幅な刷新が行われた。7年前の更新時にいち早く各部屋のシステム統一と作業の共有を実現するためにファイルサーバーを導入。それを活用してきた名古屋テレビの次のステップとなる今回の更新をご紹介したい。
7年間の変化の中にあっても陳腐化しなかった
まずは、これまでどのようなワークフローでの作業を行っていたかをご紹介したい。システムの中心となるファイルサーバーにはGBLabsのSPACE 32TBを採用し、6室あるMA室と、3つの仕込み室の端末それぞれからダイレクトにアクセスを行い、ローカルにファイルコピーを行うことなく作業を行っていた。VTRで持ち込まれたMA素材は、Telestream Pipelineによりインジェストし、ファイルとしてサーバへ取り込みワークビデオとするシステム。編集からファイルで投げ込まれた素材は、こちらもTelestream Episodeで自動的にワーク用のVideoFileへとTranscodeされるシステムを活用し運用を行っていた。
今回の更新までの間でも、HDCAMでの運用からXDCAMとの並行運用となったほか、編集システムの更新にともなうファイルベースでのワークフローの加速と、様々な変化はあった。MAのシステムとしては、当初よりファイルの受け渡しを前提としてNASベースのシステムであるGBlabs SPACEを採用していた。NASベースであるため、編集のシステムから簡単にアクセスでき、ファイルのコピーなどもOSの機能で実現できるという柔軟性が、この7年間の変化の中にあってもシステムが陳腐化しなかったポイントだと言える。
各部屋のMAシステムは、Pro ToolsにYAMAHA DM1000を組み合わせたシステムを運用してきたが、今回の更新ではシステムのさらなるブラッシュアップを目指し、AVID MTRXをシステムの中心としたシステムを構築している。これにより長らく使用してきたDM1000はMAのシステムから外れて非常にシンプルなシステムとなった。モニターコントロールもDADmanを使い、MTRXの機能を活かしている。音質に関しても、定評のあるAVID MTRXのDAを用いて、引き続きの使用となるmusikelectoric Geithain のスピーカーへと接続される。ファイルベースでの作業がメインとなるということでPro ToolsとMTRXが中心となったこのようなシンプルなシステムが成立している。もちろん、すべてのMA室(サラウンド対応の1MAは除く)は、同一のシステムとなっている。 このようなシンプルなシステムとすることで最小限の機材量となり、ワイヤリング量も減らすことができイニシャルコストの削減にもつながった。
各メディアを用いた作業はファイルベース化移行に伴い減っているがいまだに残るHDCAMの作業、現状のメインであるXDCAMの作業となる。こちらに関しては、Vikinxのルーターを活用し、最低限の台数のVTRを各部屋で共有するシステムがこれまで通り活躍している。MA作業に回ってきたVTRはVikinxのルーターでTelestream Pipelineへと接続、インジェストされてファイルベースでの作業を実現する。戻しの際には、Pro Toolsから任意のVTRへとパッチが行えるように設計されている。この部分はメンテナンスを行ったものの、従来通りのシステムが残された。
完全ファイルベースでのXDCAMワークフロー
今回の更新では、サーバー経由でのファイルベースのやり取りに加え、XDCAM Discを前提としたファイルベース化の追加更新が行われた。2台のMac miniがXDCAM Discに対してのファイルベースワーク用に新規導入されている。このMac miniにはSONY PDW-U2が接続され、直接XDCAM Discの中のファイルをサーバーへとコピーできるようになっている。これまでは、Pipelineで実時間を使ってファイルへの起こしを行っていたが、このシステムでファイルコピーを行うことで1/3程度まで高速化が期待できる。このサーバーへのコピーには、SONY Catalyst Browseが活用されている。
このワークフローで問題となるのが、Timecode Characterがないということ。VTRからの出力であれば、TCキャラがついたOUTを選ぶことでTCキャラ付きのファイルを起こすことができた。今回のXDCAM Discからの直接の読み込みでは、TCキャラ付きの素材を得ることはできない。これを解決するために今回の更新ではVideo Slave 4 ProをすべてのPro Tools端末へインストールすることになった。
これまでにも本誌等で紹介しているVideo Slaveは、XDCAM MXFファイルのTImecode情報を読み、TC Overlayとして画面へ表示を行うことができる。さらに、Pro Toolsで読み込むことができないXDCAM MXFファイルのAudio Tracksをエクスポートすることもできる。具体的には、Video SlaveでXDCAM MXFファイルを読み込み、そこからAudio TracksをWAVファイルとして書き出し、それをPro Toolsへ読み込ませる。このようなワークフローとなる。XDCAM MXFを前提としたPro Toolsのワークフローで問題となる部分がこれにより解消されている。
そして、MA作業後のAudio Insertもファイルベースで行うべく、CineDeck社のCineXtoolsが導入された。このソフトウェアは、Video FileをあたかもVTRのように取り扱うことができるソフトウェア。ソフトウェアベースながら、あえて破壊編集を行うことでVTRライクな挙動をする。ファイル全体のAudio Insertも、IN/OUT点を設定しての部分差し替えも設定次第で自由に行うことができる高機能な製品だ。インサートする素材はWAVファイルとなるが、それ以外に任意のトラックを無音にしたり、1Kを挿入したりといったことも可能だ。
XDCAM Discから読み込んだファイルに対し、MA上がりのWAVファイルをInsert編集し、XDCAM DISCへとコピーする。名古屋テレビのシステムは基本的にすべてのデータをサーバー上に置いたままで、というのが前提である。サーバーに接続されたこちらの2台のMac miniはXDCAM Discからコピーしたファイルへも、MA終わりのWAVファイルへも、ダイレクトにアクセスができる状況にある。ファイルコピーを一切行わず、マウントされたサーバー内のデータを参照することですべての作業が行えるということだ。これが、今回の更新で追加された完全ファイルベースでのXDCAMワークフローとなる。ついに、一切ベースバンドを介さないXDCAM Discを使ったMAワークフローの登場である。
ファイルベース・インジェストとcineXtoolsがインストールされた2セットのMacminiシステム。
3段構えのサーバーシステムを構築
もう一つの更新点であるサーバー関連はどうだろう。これまでメリットの大きかったGBLabsのシステムはそのままに、その周りを固めるシステムが大幅に更新されている。今回はさらに一歩踏み込み、アーカイブまで考えたシステムの更新を実施している。中心となるGBLabs SPACE 32TBは、その後継に同社 FastNAS F16 Nitro 96TBへと容量をアップさせての更新となった。そして、長期保存を前提としたニアライン・サーバーとしてSynology社の12Bay + 12Bay拡張シャーシのシステムが導入された。こちらの各ベイには、14TB HDDが収まりトータルで336TBという容量を実現している。これにより、長期間に渡りMAデータをオンラインの状態のまま保管することができるようになる。毎日増分のバックアップがFastNASからSynologyへと行われ、FastNASでデータを消してもSynologyには残っているという状況が構築されている。
今回導入となったSynology、XenData、FastNASが収められたマシンルームのラック。
さらに、長期間のアーカイブ用途にSONY ODA(Optical Disc Archive)が導入されている。そしてこのデータ管理用にXenDataが新たに導入された。XenDataはODAに書き込んだデータのメタを保持し、検索をするということを可能にする。何も準備をせずにODAに書き込むと、どこに何が入っているのかすぐにわからなくなってしまう。このようなメタ管理を実現する製品を導入することでアーカイブを行ったが、いざ使おうと思った際に見つけるのに非常に苦労をするので、結局保存だけして使わなくなってしまった、などということはなくなるのではないだろうか。
さらに、ODAは書き込めるファイル数の上限がある。Pro Toolsのセッションデータのように膨大なファイル数を持つデータをアーカイブしようとすると、Disc自体の容量は空いているのに書き込めなくなるということが起こってしまう。XenDataはセッションデータをフォルダごとにZip圧縮してから書き込むことができるため、ODAの容量いっぱいまで使うことができるシステムとなっている。 また、以前はGBLabs SPACE 32TBから直接ODAにファイルの移動を行っていたため、サーバーの負荷が増しMA作業に影響を与えていた。ニアライン・サーバー構築したことでアーカイブがMA作業に影響を及ぼすこともなくなった。
このように、サーバーシステムは、実運用のための高速な製品=GBLabs FastNAS、速度はほどほどで大容量のニアライン=Synology、長期保存用のアーカイブ=XenData & SONY ODAと3段構えのシステムが構築できた。こちらのワークフローはまさにいま始まったばかり。どれくらい番組の過去素材が必要となるのか?まさに変革のときである放送のあり方、そして各種メディア戦略、そういった部分に密接に関わる部分である。大前提として、消してしまうより保管できるのであればそのほうが良いのは間違いのないことである。今後このシステムがどう運用され、どれくらい活用されていくのかは非常に興味深い部分である。さらにアーカイブのワークフローを自動化することにより作業時間の短縮にもつなげている。
今回の更新では、MTRXの導入というサウンドクオリティーにも直結するブラッシュアップで順当なシステム自体の年次更新を行い、システムの中核となるサーバーに関しても後継のモデルへ更新された。そして、ファイルベース・ワークフローを加速するPDW-U2 & CineXtoolsの端末の導入で、あらゆるパターンのファイルベース運用に対応できるシステムの構築。さらにはニアライン、アーカイブという次の時代を見据えた、制作された後のデータ管理にまで踏み込んだ更新となっている。
VTR運用からファイルべースへ、その過渡期としてのXDCAM Discを介したワークフロー。未来に見える完全ファイルベースでのシステムへと将来性を担保しつつ、いま考えられる最大限の準備が行われ、まさにこれからのMAシステムのあり方を提示するかのようなシステムが完成した。間違いなくファイルベースの流れはとどまること無く様々なシステムを飲み込み、変化を続けるであろう。今回更新のシステムは、その波のすべてを受け入れられる懐の深いシステムといえる。だからこそ、このシステムが周りの状況に合わせてどのように変化するのか、どのような運用がこのシステムから生まれるのか。これからファイルベースワークフローの最新形をここで見ることができるはずだ。
名古屋テレビ放送、東海サウンドスタッフの皆さん
*ProceedMagazine2019-2020号より転載
Music
2019/12/06
Mac mini + Pro Tools / そうだ!Mac miniで行こう!
制作現場の業界標準として導入されているMac Pro。新Mac Proの登場も迫っていますが、もう一つ改めてその存在を取り上げたいのがMac miniです。旧Mac Pro(黒)が衝撃的なフォルムで登場したのは2013年のこと、すでに6年の時間が経過し、ブラッシュアップを重ねて新モデルに移行しようとしています。その一方でMac miniも着実な進化を遂げており、現行モデルでは旧Mac Pro(黒)のスペックを勝るとも劣らない構成が可能に。Pro ToolsほかアプリケーションのMac OSへの対応も考慮すると、安定した旧OSとの組み合わせでの稼働も可能となるMac miniという選択肢は一気に現実味を帯びてきます。安定した制作環境が求められる業務の現場に新たなセレクトを、Mac miniでのシステム構築を見ていきます。
◎チェックすべき4つのポイント
1:安定した旧OSでの対応も可能な制作環境
Pro Toolsのシステム要件とされているのは、macOS 10.12.6, 10.13.6, あるいは 10.14.6 のOSを搭載したIntel® Mac。Mac miniでPro Toolsとも緊密な安定したOS環境を整えることにより万全の制作体制を構築することも可能です。
2:Avid Pro Tools 動作推奨モデル
Avidの推奨動作環境として挙げられていることもMac miniでのシステムアップにとって安心材料です。Pro Toolsシステム要件ではサポートする拡張シャーシなど環境構築に必要な情報も記載していますので、詳細は下記よりご確認ください。
<参照>Avid Knowledge Base:Pro Tools 2018 / 2019 システム要件
3:旧MacProとも劣らない充実のスペック
多彩なオプション選択で、旧Mac Proに勝るとも劣らないほどのスペックを構築。特にCPU・メモリの世代交代はパフォーマンスに大きな影響をもたらしているほか、メモリのオプション設定も旧Mac Proで最大32GBであったのに対し、64GBまで増設可と大きな魅力に。充実のスペックで制作システムのコアとして機能します。
4:導入しやすいコストとサイズ、そして拡張デバイスでの可能性
最大スペックのオプション選択でも¥389,180税込と、導入コストの優位性は見逃せません。約20cm四方・厚さ3.6cmのスクエアな筐体は省スペース性にも優れ、TB3の広帯域に対応した拡張デバイスがシステムをスマートに、そして制作の可能性を広げます。
ベンチマークで見る、いまのMac miniのポジション
◎PassMark・ベンチマークスコア比較
Mac miniのCPUは第8世代Core Processer - Coffee Lakeです。業務導入での比較対象となる旧Mac Pro(黒)は第3世代Core Processer - Ivy Bridgeを採用しています。なんと世代で言えば5世代もの進化の過程があり、単純にクロックスピードだけで比較することはできなさそうです。そこで、ベンチマークテストの結果をまとめてみました。
まず、第3世代のCore i7との比較ですが、当時のフラッグシップとなるクアッドコアのCore i7-3770K(3.5-3.9GHz)のスコアは9487、対してMac miniでオプション選択できるは第8世代 6コア Core i7-8700(3.2-4.6GHz)は15156の数値。実に1.6倍ものスコアの開きがあり、同一クロックであれば約2倍のスペックを持つと考えても良いのではないでしょうか。また、旧Mac Pro(黒)のCPUとなるXeon E5-1650v2(3.5GHz)とも比較すると、第8世代を携えたMac miniのスコアが上回るという逆転現象に行き着きます。世代間でのスペック向上は非常に大きく見逃せない結果です。
メモリに関しても、旧Mac Pro(黒)はDDR3 1866MHz ECC、Mac miniはDDR4 2666MHzとメモリ自体の世代も異なってきます。DDR3とDDR4では理論値として同一クロックでのデータの転送速度は2倍に、さらに動作クロック自体も1.5倍となっていることを考えると、実際の制作作業におけるパフォーマンスは大きく変わってきそうです。
◎Mac miniのプライスレンジを確認
Mac miniのラインナップは主に2つ、クアッドコアと6コアのCPUとなります。そのうちPro Toolsの推奨モデルとしてAvidホームページに掲載されているMac miniは「Late 2018 Mac mini 8,1 6-Core i7 'Coffee Lake' 3.2 GHz」および、「Late 2018 Mac mini 8,1 6-Core i5 'Coffee Lake' 3.0 GHz」の2機種ですが、Pro Tools|UltimateではIntel® Core i7 プロセッサーを推奨していますので、6コア 3.2GHz Core i7のCPUを選択することになります。
ここにメモリの要件「16GB RAM (32GB以上を推奨)」を考慮すると、メモリ容量違いの上記3パターンが基準となって、ストレージ、ネットワークのオプションを選択する流れです。単純比較はできませんが、旧Mac Pro(黒)の6コアベースモデルが3.5GHz、16GBメモリ、256SSDの仕様で¥328,680税込であったことを考えると、Mac miniが3.2GHz 6コア、64GBメモリ、1TB SSDでまったくの同価格という事実は見逃せないポイントです。
<参照>Avid Knowledge Base:Pro Tools 2018 / 2019 システム要件
◎Mac mini + Pro Tools|Ultimate System
・PLAN A:旧MacProに勝るとも劣らないパワフルなフルスペックバージョンで安定の制作環境を。
Mac miniの持つポテンシャルをいかんなく発揮させるのが、このフルスペックバージョン。メモリは64GB、2TBのSSDを選択したうえにビデオ関連デバイスやサーバーストレージとのネットワークも考慮して10GbEのオプションもセレクト。可能な限りのすべてを詰め込んでもこの価格帯に収まります。拡張シャーシとしては3つのSonnet Technoplogy社製品をセレクト。eGFXはTB3対応を果たしながらも低コストで導入できる1 Slotのモデル。Sonnet/Echo Express III-DとラックマウントのIII-Rは3枚のシングル幅、フルサイズのPCIeカードをサポートし、すでに導入実績も多数でHDXカードを複数枚導入するには必須です。
・PLAN B:Pro Tools | Ultimateシステム要件をクリアした、コストパフォーマンスに優れた仕様。
もう一つの選択肢は、Mac miniのコストパフォーマンスを最大限に享受してPro Tools | Ultimateシステム要件をクリアした16GBメモリの仕様。もちろんシャーシを加えたHDXシステムもあれば、HD Native TBを選択してコスト的にPro Tools | Ultimateへの最短距離を取ることもできます。また、業務用途のサブシステムとしても魅力的な価格ゾーンにあり、マシンの将来的な転用も念頭に置けば有効的なセレクトと言えそうです。ちなみに、32GBへの増設は+¥44,000(税別)、64GBへは¥88,000(税別)となっており、実際の制作内容と照らし合わせて選択の落としどころを見つけたいところ。
・ADD ON:HDXシステムはもちろん、RAID構築から4Kを見据えた導入まで拡がる可能性。
Avid HDX/HD NativeでPro Tools | Ultimateシステムを導入することもさることながら、元々のMac miniの拡張性を活かしたRAIDの構築や、外付けのグラフィックアクセラレーターも視野に入ります。Thunderbolt3の一方をシャーシ経由でHDXに、もう一方をeGPU PROに、さらに10GbE経由でNEXISなどサーバーストレージになど、制作システムのコアとしての活用も見えてきます。
◎その実力は、いままさに最適な選択に!
コストやそのサイズ感だけではもうありません。Mac miniは長らくエントリーモデルとしての位置付けであったかもしれませんが、実は必要な機能だけを絞り込んで余計なものは排除した、業務的で実務を見据えたマシンというイメージに変容してきています。さらに最近のニュースでは、Mac OSに対応したDolby AtmosのHT-RMU(HomeTheateer-Rendering and Mastering Unit)もソフトウェアVer.3.2からMac miniでの構築が従来の半分のコストで可能となっており、その活用の幅も広がっています。また、拡張デバイスはさまざまな3rd Partyから提案されていて、その組み合わせも実に多彩。ブレーンにあたる部分をMac miniに請け負わせるシステム構築はスペックも見返すと理にかなっている内容といえそうです。Mac miniを用いた最適な選択で安定の制作環境を。ぜひともご準備ください!
Post
2019/08/09
株式会社NHKテクノロジーズ 様 / Avid S6 x API 1608-II、次世代を見据えたハイブリッドシステム
1984年の設立以来、放送技術および情報システム・IT分野の専門家として、公共放送NHKの一翼を担ってきたNHKテクノロジーズ。その多様な業務の中で、音声ポストプロダクションの中核を担うスタジオであるMA-601が3世代目となる更新を行なった。長年使用されたSSL Avantのサポート終了にともなうスタジオ更新で、MAとトラックダウンを両立させるためにAvid S6とAPI 1608-IIの次世代を見据えたハイブリッドシステムへと進化を遂げている。その導入された機器の多くが日本初導入のもの。今回採用されたシステムの全容をご紹介していきたい。
1:フィジカルコンソール部とレイアウト
今回の更新で最大の特徴となるのはAvid S6と両側に配置された国内初導入となるAPI 1608-II、デジタルとアナログのハイブリットシステムである。中央のS6はPCディスプレイを正面に置けるようにProducer Deskが配置されたが、手前部分はブランクではなく16ch Faderが据えられた。3式あるPro ToolsのうちMain、Subの両システムはS6から制御されトータルリコールシステムを形成しており、情報系番組ではS6を中心としてMA作業を行う。従来よりPro Toolsを使用されていることもあり、24ch Faderのうち右サイド8ch分のみ5Knob構成のチャンネルストリップが用意された。ディスプレイモジュールには、Pro Toolsのトラックを表示するほか、DEMUX回線を表示させる用途にも使用している。一方、音楽のような、アナログコンソールならではの音質を求められる番組の際には1608-IIを中心としてトラックダウンが行える設計となっている。API 1608-IIへはほぼ全てのIN・OUTがこのスタジオの核であるMTRXシステムへと立ち上げられ、Pro Toolsと信号のやりとりが行われるため、APIが持つ音色を損なうことなく、収録・トラックダウン作業を可能とした。
また、スタジオ内の各コンピューター端末はIHSE Draco Tera Compact 480でKVMマトリクスシステムを構成しており、ミキサー席やどの席でも離席せずに各PC端末を操作できる仕組み。このDracoシリーズのKVMシステムは更新前のスタジオでも使用しておりS6が対応している製品でもある。今回のスタジオ更新に併せてKVMシステムがS6に連動するよう設計しなおされた格好だ。例えばワークステーションの切り替えでミキサー席のモニターディスプレイが連動、といったように作業効率はより向上するだろう。このKVM連動は、ミキサー席のモニターディスプレイだけではなくメインTVも連動させている。通常MAやトラックダウンのほか、スタジオを利用した講習会なども視野に入れているそうだ。
2:MTRX4台を駆使したシグナルルーター
今回のシステムの最大の要でコアとなるのがMTRX4台で構築されたシグナルルーティングである。それぞれがAD、DA、モニターコントロール、MADIルーター、と役割を担っており、すべてのソースが各々のMTRXで内部ルーティングされている。その総チャンネル数はIN/OUT合わせて1500を優に超える。そのスタジオのコアとなる4台のMTRXを制御しているDADmanアプリケーションは、システム管理用として用意されたWindows PCへインストールされており、Pro Toolsシステムと切り離されているのも特徴である。
Pro Toolsシステムへの負荷を減らすことも理由として上げられるが、一番のポイントはS6がMTRXをインターフェイスとした「デジタルコンソール」として扱われることであるという。そのため、管理用Windows PCは、BIOS設定で電源通電時に自動で起動できるHPのELITEDESKシリーズを採用した。S6単体ではコントローラーとして扱われがちだが、MTRXに加えてそれ専用のPCを一緒にシステムアップすることでSystem 5のような「デジタルコンソール」と同等のシステムとして扱うことが可能となった。
チャンネル数は1500を超える規模だが、大まかな信号の流れは極力シンプルになるよう設計されている。AD/DAカードを増設した2台のMTRXがルーターMTRXへMADIで128chをルーティング、ルーターMTRXからモニターMTRXへルーティング、といった形だ。もちろん、メーター類やSDIのMUX/DEMUXなどもあるが、回線の半数はMADIが占めている。そのMADI回線の半数が既存流用されている128ch IN/OUTのPro Tools 2式である。なお、96kHz/24bitのハイレゾにも対応できるようにMADIは32chでのルーティングとした。MTRXの特徴でもあるDigiLinkポートに関しては今回のシステムではMTRX4台のうち、新設されたプリプロ用のPro Tools1台のみの使用にとどめている。
NHKテクノロジーズでは現在、MA-601のほかに2部屋のMA室が稼働しており、どちらも1部屋につきHD MADI をインターフェイスとしたPro Toolsシステムがで2システム稼働している。そのため、MA-601では既存のI/Fの活用とともに、ほかのスタジオのIOとの互換性も考えられ、Main Pro ToolsとSub Pro ToolsはHD MADIでの運用となっている、なお、今回のシステム更新にともない両システムともHD MADI 2台の128ch入出力システムへ整備された。そして、今回プリプロとして新設されたPro Toolsは、文字通り整音作業や編集作業ができるように整備され、従来から使用しているKVMマトリクスで、どの席からでも操作ができるように設計されている。
MAスタジオと隣接するオンライン編集室と共用となるマシンルーム。奥手黒いラック部分がオンライン編集分となり、手前のベージュのラックがオーディオ側となる。一番右手にMainDAW/SubDAWのPro Tooolsが収まっている。その隣にはMA室用の映像機器を集約、HDコンテンツはもちろん4Kにも対応した機器が収められている。
「立ち」でのアニメ台詞収録にも対応できる録音ブースでは、その広さを活かしてコントロールルームとは別の作業が可能なスペースを配置した。KVMシステムによりPC端末の操作系統、そしてスピーカーおよびヘッドホンでモニターできる環境が整備された。整音などのプリプロ作業はコントロールルーム内でヘッドホンをしながら編集をするスタイルがよく見られるが、その際にもう一方のDAWで別ソースをスピーカーから試聴しているケースが大半。ヘッドホンをしての作業とはいえ、細かなリップノイズなどの編集作業時にストレスがかかっていた。これを、部屋を分離して、スピーカーで音を鳴らせる設計に変えることで、編集時のストレスを大幅に軽減できるシステムとした。もちろん音声はMTRXからアサインされており、プリプロシステムだけではなく、Main、SubそれぞれのPro Toolsシステムのステレオ音声が、手元でソース選択できるように設計できたのも、MTRXでシステムを構築しているからこその利点である。
3:音質を最大限に生かしたモニターシステム
モニター系統を集約させたMTRXでは、その音質を最大限に活かすため常に96kHzで稼働させている。ハイレゾ対応のために48kHzと96kHzのプロジェクトをどちらも扱えるように、ルーターMTRXとモニターMTRXの間にRME MADI Bridgeを経由したDirectout Technologies MADI.9648が用意されており、プロジェクト次第でMADI.9648を使用するか否かをRME MADI Bridgeで切り替える仕組みとしているのだが、DADmanの設定自体はプリセットファイルが1つのみで管理されている。これは48kHzと96kHzの切り替え作業を最小限にするため、MTRX本体の48kHz/96kHzの周波数設定のみですぐに使用できるようにするためだ。
そのため、前述にもあるようMADIルーティングは全て32chごとにスプリットされたパッチとなっており、96kHzに対応できるように設計されている。通常、Pro ToolsとHD MADIを使用したシステムで、96kHzと48kHzを切り替えるケースではMADI スプリットの設定を戻し忘れるなどのオペレーションミスを起こしやすい。また、DADmanのプリセットを96kHzと48kHzでそれぞれ用意するとなると、ルーティングの変更点やチャンネル数の違いなどそれぞれの相違点を覚える必要も出てくる。チャンネル数は犠牲になるが、MTRXでデジタルルーティングしているチャンネル数は膨大であり目に見えない分だけ煩雑になりやすいため、よりシンプルなワークフローにすることで、ミキサーはMA作業に集中できる環境が得られたわけだ。
写真左がDADmanのコントロール画面、4台のMTRXは赤・緑・青・黄にマトリクスを塗り分けられて管理され、こちらの画面から一括した制御が行えるようになっている。 写真右の中央に見える数字が並んだ機材がDirectoutのMADI Bridge。これを切り替えることでその下に収められたMADI 9648を使用するか否かを選択するようになっている。
4:こだわったスピーカーと96KHz駆動のモニターMTRX
GENELEC 8351Aは昇降式のスタンドに設置され、OceanWayとの重なりを回避することができる仕様。その調整もリモコン式となっているほか、リスニングポイントよりも上がらないよう高さもプリセットが組まれている。
API 1608-IIと同じく国内初導入となったOceanWay Audio HR 3.5。
スタジオのこだわりはモニター部分の随所にも見られる。メインスピーカーとして選択されたのはOceanWay Audio HR3.5。各チャンネルごとにそれぞれチューニングされた専用アンプへデジタルで96kHz接続されている。こちらは国内初導入となるスピーカーで、特許出願中という独自のTri-Amped デュアルハイブリッドウェーブガイドシステムを搭載しており、水平方向へ100度、垂直方向に40度という非常に広い指向性を持っているため、スタジオ内のスイートスポットを広く設けることができる。「レコーディング時のプレイバックでバンドメンバー全員がいい音でリスニングをしたい」という思想のもと設計されたこのスピーカーは、自社で音楽スタジオを持つOceanWay Studioならではの設計である。この広範囲に及ぶスイートスポットは左右方向だけではなく、スタジオ前後方向にかけても有効で、クライアントスペースの音質はミキサー席での音質と驚くほど遜色がない。また、HR3.5用にTrinnov MCプロセッサも用意されており、使用の有無が選択できる。
ステレオスピーカーのレイアウトも更新前のポジションから変更された。2世代目のスタジオを設計した当時はシアター向けのコンテンツ制作が多かったため、リスニングポイントからL/Rの開き角が45°のスピーカー配置だったが、現在は情報系番組や音楽番組などの幅広いコンテンツへの対応のため、この度の更新工事でリニングポイントからL/Rの開き角が60°のITU-R のレイアウトへ変更されている。また、メインモニターもプロジェクターから65型4K有機ELへ更新されたため、いままでスタジオ後方の天井に配置されていたプロジェクターのスペースが撤去された。その分だけ天井高を上げられ、結果として高音の伸びにつながり、ルームアコースティックが向上されている。壁面内部の吸音材とコンソール両脇の壁に設置された拡散壁とが絶妙なバランスで調整されたことと、明るい色が採用されたガラスクロスとともにコントロールルームの居住性も格段と上げられている。
旧来設置されていたプロジェクターを撤去して、音響的にも有利にスペースが広げられた。
サラウンドスピーカーにはGenelec 8351と7360が採用され、こちらもデジタル接続されている。こちらのシリーズは音場補正機能に優れたGLMに対応しておりトータルコントロールがされている。その5.1chスピーカーの配置にも検討が重ねられており、フロント3ch分はラージスピーカーやテレビモニタに被らないように、スタンドを電動昇降式にする工夫がなされている。そのほか、2系統のスモールスピーカーはYamaha NS-10M StudioとGenelec 1031のパッシブとパワードが用意されている。これらのスピーカーは既存のものだが、スピーカーの持ち込みにも対応するためにパッシブとパワードが用意されているとのこと。些細なことだが細やかな配慮がされているのもポイントだ。
前述の通り、モニター回線すべてを司るMTRXユニットが96kHzで駆動しているのも特長であるが、モニターMTRXにはSPQカードがインストールされ、Genelec以外の各モニターアウトは音響調整で測定した各スピーカーの特性に合わせたEQ処理と、全モニターアウトに対してのディレイ調整も行われている。これらのモニター制御は全てMTRXで行なっており、かつS6上で行えるようにS6ソフトキーへアサインされているのも特徴である。ソースセレクトは3台のPro Toolsをはじめとするソース26パターン、スピーカーセレクトはメインスピーカーをはじめとするが6パターンが設定されている。それらのセレクトは全てS6のソフトキーへアサインされ、ホームポジションを移動することなく選択可能だ。
スピーカーおよびソースのセレクトはS6のソフトキーにアサインされ手元で切替が可能となっている。
また、MTRXシステムにはDADのMOMもPoEで接続されており、ディレクター席など、ミキサー席以外のポジションでもボリュームコントロールとスピーカーセレクトを可能にしている。MOMはあくまでも予備的な発想であるが、どのデスクでも音質の変化が極めて少ない設計だからこそ、どのポジションでも活用が見込まれる。
5:Video Hubでコントロールされた映像システムと4Kシステム
スタジオの全景、後方のクライアント席には吸音にも配慮された特注のソファが用意されるほか、詳細が確認しやすいよう大型の液晶モニターも備えられた。
特筆すべき点は、音声だけではない。今回の更新で、映像機器も4Kに対応したシステムに統一された。同フロアにあるオンライン編集室のストレージに接続することで、別フロアのPD編集室から編集・MAまでのワンストップサービスに対応すべく、65型メインモニターディスプレイはもちろんのこと、ディレクター席やブースに設けられたモニターディスプレイすべてが4Kに対応したディスプレイに更新された。65型メインモニターは有機ELのディスプレイとなっているが、クライアント席横の49型モニターは液晶ディスプレイのものを採用しており、液晶と有機ELの違いも同じスタジオ内で見比べることができるのも注目すべき点だ。
また、個々のモニターにはそれぞれ外部タイムコードカウンターが用意されている。通常、テロップが画面下部に入れられたコンテンツの場合、タイムコード表示は画面上部に配置されることになるが、これはナレーション録音の際にナレーターの視線が、原稿とタイムコード表示の間で視線移動が大きくなりストレスとなってしまう。このため、ブースではディスプレイとは別にタイムコードカウンターを画面下部に設け、視線移動のストレスを解消している。また、メインディスプレイ上部に設置されたタイムコードカウンターは、試写時には消灯できるようにスイッチが設けられているのもポイントである。
ディレクター席には手元で映像が確認できるよう、モニターが埋め込まれている。特徴的なのはその上部に赤く光るタイムコード表示。こちらがスタジオ正面のモニター、ナレブースのモニター下部にも設けられた。
ディレクター席のテーブルに埋め込まれた4Kディスプレイにも理由がある。ディレクター席にディスプレイを配置する際はデスク上にスタンドに立てて配置されることが多いが、こちらのスタジオではタイムコードカウンターとともにテーブルに埋め込まれている。これは、モニターディスプレイを不用意に動かされてしまうことを回避するためである。不用意にディスプレイを動かすと、場合によってはミキサー席へ不要な音の反射が発生してしまう。それを避けるために、モニターディスプレイをテーブルに埋め込む方法が採用された。既存のVideo Satellite用AVID Media Composer は2018.11へバージョンアップ、ローカルストレージのSSD化、ビデオインターフェイスの4K対応がなされ、こちらも4K対応されている。同フロアのオンライン編集室とは、10G接続されたDELL EMC Isilonを介して4Kデータの受け渡しが行われる。
いたる箇所で語りつくせないほどの工夫が凝らされたハイブリッドシステム。数あるデジタルコンソールのなかで、S6が選ばれた理由の一つにコスト面もあったという。限られた予算枠のなか、コンソールにかかるコストを下げることで国内初導入となるAPI 1608-IIやOceanWay Audio HR3.5など音に関わる機材により予算を配分することができている。この隅々まで考え抜かれたスタジオで今後どのようなコンテンツが制作されるのか、次世代ハイブリッドシステムが生み出していく作品の登場を楽しみに待ちたい。
写真左よりROCK ON PRO君塚、株式会社NHKテクノロジーズ 番組技術センター 音声部 副部長 青山真之 氏、音声部 専任エンジニア 山口 朗史 氏、ビジネス開発部 副部長 黒沼 和正 氏、ROCK ON PRO赤尾
*ProceedMagazine2019号より転載
Post
2019/08/01
株式会社テクノマックス様 / 統合された環境が生み出すMAワークフロー
テレビ東京グループの株式会社テクノマックスは、ポストプロダクション部門を担当するビデオセンターのすべての施設を旧テレビ東京近く(東京・神谷町)に移転した。その新たなMA施設にはAvid S6、MTRX、NEXISといった最先端のソリューションが導入され、システムは大きく刷新された。ワークフローに大きく変化を与えたこの導入事例を紹介させていただきたい。
今回更新されたMA3室。黄色のラインが壁面にあるMA-Cは5.1ch対応、赤色ラインのMA-Aおよび青色ラインのMA-Bとも共通した機材仕様となり、各部屋で同じクオリティのワークを可能とする意図が伺える。
1:柔軟なルーティングを受け止めるAvid MTRX
オーディオ関連機器のマシンルーム、3室共通の機材が整然とラックマウントされている。
今回の移転工事ではMA-A、B、Cの全3室と2式のProToolsシステムを設備したAudio Work室、そしてMA専用サーバーの導入工事をROCK ON PROで担当した。旧ビデオセンターで課題となっていた設置機材の違いによるMA室間の音響差をすべて解消できるよう、基本設計は3室とも統一されたものとなっている。部屋の基本レイアウト、設置機材を統一することでドラマ、バラエティ、番宣、スポーツと番組ジャンルに縛られず、各部屋で同じクオリティのワークを可能にする、というかねてからの目的を実現し、また効率的な制作リソース確保も可能とした。
MA室にはProTools HDXシステムが、Main DAWと音効用のSub DAWとして2台設けられており、今回のシステムの心臓部であるAvid MTRX1台に対してDigiLinkケーブルでそれぞれが接続されている。MTRXがMain/Sub両方のメインのI/Oを兼ねており、Main DAW側からもSub DAWの入出力ルーティングの設定が可能であるため、音効やアシスタントエンジニアをつけた2人体制のMA作業にも難なく対応することができる。MTRXのコンフィギュレーションは、AD/DAが各8ch、ベースユニットにオプションでAESカードを増設し合計32chのAES/EBU、そして映像の入出力が可能なSDIカードを拡張し、SDI 2IN/2OUT (各Audio 16ch)の構成となっている。
アナブースマイクやスピーカーなどのアナログ系統、メーター機器などデジタル入出力への対応をこのMTRX1台でまかなっている。また従来システムからの大きなアップデート項目としてVTRデッキとはSDI回線での入出力に対応した。更に MTRX ルーティングに内蔵された音声エンベデット / デエンベデットを使用することで、VTRデッキへの入出力数の制限から解放され、機器構成がシンプルになった。更新後は最大16chのオーディオ伝送が可能となりSDI規格の最大値を利用できるようになった。あらゆる入力ソースはMTRXに集約され、Main DAW上のDADmanアプリケーションによって柔軟なルーティング設定が可能となっている。コントロールルーム内のSPだけでなく、バックアップレコーダー、メーター類、さらにブース内に設けられたカフボックスに対しても後述するAvid S6との連携により、イージーな操作でルーティング設定やモニターセレクトなどが可能となっている。
2:3室すべてにAvid S6 M40を導入し環境を統一
今回の更新ではMA室3室すべてにAvid S6を導入し環境を統一した。モジュール構成は24フェーダー5ノブとした。旧ビデオセンターではYAMAHA DM2000をProToolsコントロ ーラーとして使用していたが、移転に際し新たなコントローラーとして、ProToolsと完全互換の取れるS6を選定、コントロール解像度、転送速度が向上した。また、実機を前にして使用感や利便性などの実フローを想定した検討を行い、S6をはじめメーター類、キューランプなどの設置場所にこだわった日本音響エンジニアリングの特注卓が導入された。エンジニアがコンソール前の席に着いた際のフェーダーやノブへのアクセスのしやすさ、ディスプレイやメーター類の視認性など、MA室にS6を設置したあとも細部に至るまで調整を繰り返し、非常に作業性の高いシステムが出来上がった。
Mac上ではDADmanアプリケーションとの連携によりモニターソースやアウトプット先の設定はS6のマスターモジュール上のスイッチやタッチパネルからワンタッチで操作可能になっているほか、ディスプレイモジュールにはレベルメーターとProToolsのオーディオトラックの波形を同時に表示することが可能。Protoolsの音声のみならず、VTRデッキなどMTRXの各インプットソースも表示可能となる。S6とMTRXを組み合わせて導入したことで信号の一括管理だけでなく操作性の向上が実現できた。また、短期間での移転工期でスムーズにDM2000からS6へ移行できたのはProToolsと完全互換が成せるS6だからこそであった。
今回の更新コンセプトを意識しラージスピーカーはPSI Audio A-25M、そしてスモールには同社のA-14Mが3室に共通して導入された。数日間に渡る音響調整により、各部屋の鳴りも同一となるように調整している。そして3室のうち「MA-C」は5.1ch対応となった。このMA-CにはGenelec 8340を5台、サブウーハーに7360APMを導入し5.1chサラウンド環境を構築している。Genelec GLMシステムによるアライメントにも対応しているため、音響設定も柔軟に調整が可能。またLCRのスピーカーはバッフル面に埋め込みジャージクロスで覆っているため、他の部屋と見た目の違いが少なく圧迫感のないスマートなデザインとなっている。もちろん、この5.1ch環境も通常の使用と同様にAvid MTRXやS6システム内にルーティングが組み込まれており、自由なモニタリング設定が行える。ラージSP、スモールSP、5.1chSPのモニターセレクトさらにはダウンミックス、モノラル化が容易に可能となっている。サラウンドパンナーはあえてS6のシャーシ内には組み込まず利便性を向上させた。
ラージ・PSI Audio A-25Mおよびスモール・A-14M。写真からは見てとれないのだが、ラージ上のジャージクロス裏にはサラウンド用途にGenelec 8340が埋め込まれている。
また、MA-CではアナブースもMA-A / Bの2室と比べて大きく設計されており、同時に4名の収録が可能。実況・解説・ゲストといった多人数での収録が必要なスポーツ番組などにも対応している。MTRXによる自由度の高いルーテイング機能とS6による容易な操作性があったからこそ実現した柔軟なシステムといえるだろう。
3:Avid NEXIS E4サーバーによる映像と音声のリアルタイム共有
映像編集およびオーディオ編集用のNEXIS E4がラックされている。
今回の移転工事においてもう一つの核となったのがAvid NEXIS E4サーバーの導入である。ワークスペースの全体容量は40TB(2TバイトHDDx20台+2台の予備HDD)となっており日々大容量のデータを扱う環境にも十分対応している(OSシステムはSSD200Gバイトx2台のリダンダント環境)。各MA室のMain DAW、Sub DAWからAvid NEXIS E4サーバーへは10Gbit Ethernetの高速回線によってアクセスが可能となっている。そのため単純なデータコピーだけではなく、VTRデッキからの映像起こし作業やMA作業についてもサーバーへのダイレクトリード/ライトが可能となったため、サーバー上のデータをローカルストレージへ移すことなくそのまま作業が行える環境となった。
従来の設備ではローカルドライブで作業を行い共有サーバーでデータを保管していたため、作業の前と後で数ギガバイトあるプロジェクトデータの「読み出し」「書き戻し」作業に機材とスタッフが拘束されていた。スピードが求められる現場での容量の大きいデータコピー作業はそれだけで時間のロスになってしまいスムーズなワークフローの妨げとなってしまう。今回のAvid NEXIS E4導入によりその手間は緩和されワークフローも大きく変化することになった。サーバー上ではミキサー別、番組別といったワークスペースを組むことができ、各PCのマネージャーソフトからダブルクリックでマウント、アンマウントが可能。更新コンセプトである3室の仕様統一もそうだが、この点も部屋を選ばずにワークを進められることに大きく貢献している。
また、サーバールームとは離れたAudio Work室に設置した管理用PCからは、SafariやChromeなどのインターネットブラウザによってNEXISマネージメントコンソールにアクセスしてシステム全体の設定を行うことができる。管理画面のGUIは非常にシンプルで視認性が良いため、専門性の高いネットワークの知識がなくともアクセス帯域やワークグループの容量、そのほか必要な管理項目が設定可能、またシステムエラーが発生した際にも一目でわかるようになっている。そのため、日々膨大なデータを扱う中で専門のスタッフがいなくてもフレキシブルな設定変更に対応できることとなった。サーバーの運用にはネットワークの専門性を求められるというイメージを持つかもしれないが、このNEXISサーバーにおいてはその様な印象は完全に払拭されたといえる。
4:クオリティを高めるための要素
そのほかにも今回の移転工事では様々なこだわりを持って機材の導入が行われた。MA室へ入って真っ先に目に入るのはモニターディスプレイの多さではないだろうか。ミキサー用のPro Tools画面からアシスタント、音効、ディレクター、クライアント、ブース内、正面のメインモニターTVまで1室に最大15台が導入されているのだが、エンジニア、クライアント席からの視認性が得られるよう配慮して設置されている。ディスプレイの多さは音響的に気になるところだが、各部屋の音響調整の時に考慮して調整が施されている。
すべてのモニターの映像入力はBlackmagicDesign社のSmartVideoHub20x20で自由に切り替えが可能。入力ソースは編集設備のSDI RouterでアサインされるVTRデッキやMAマシンルームの各機器の映像を作業に合わせて選択する。また、同社のリモートコントローラーVideohub Smart Controlのマクロ機能で、すべてのモニターを用途に合わせて一斉に切り替えることも可能なため設定に手間取ることが無い。SDIでの信号切り替え、モニター直前でのHDMI変換、モニターの機種選択で映像の遅延量にも気を遣った。
メインのビデオI/OはBlackmagicDesign UltraStudio 4K Extremeをセレクト。Non lethal application社のVideoSlaveを導入することでProTools単体では不可能だったタイムコードオーバーレイが可能となった。各種メーター機器も豊富でVUメーターにはYAMAKI製のAES / EBU 8ch仕様を導入。ラウドネスメーターにはASTRODESIGN AM-3805/3807-Aを導入し、別途用意したMac Mini上のリモートソフトと連動することでPCモニター上にもメーターが表示できる設計となっている。さらにMA設備の主幹電源部には電研精機研究所のノイズカットトランスNCT-F5を導入し安定化を実現、スピーカーの機器ノイズをカットしている。実際のフローでは見えにくい部分にもこだわりクオリティの高いワークを目指していることが伺いとれる部分だ。
写真左からYAMAKIのVUメーターとASTRODESIGN AM-3805。中央が同じくASTRODESIGNの AM-3807-A。そして右の写真が主幹電源部に導入された電研精機研究所のノイズカットトランスとなる。
5:MAワークに近い環境を実現したAudioWork
今回、映像の起こし、整音、データ整理などを行うAudio Work室のAudioWork-Aはシステム構成を一新。MTRXを導入することでシステムの中枢を各MA室と統一している。あくまでMAの本ワーク前の準備を担う設備であるため、S6こそないもののメーター類やプラグインもほぼ同等のものを設置し、MA室と近いワークフローで作業することができる。モニターコントローラーにはMA室のDADmanアプリケーションと完全互換のとれるDigitalAudioDenmark MOMを導入して手元でのモニターセレクトを実現した。VTRデッキとの回線も通っているため、MTRXやBlackmagic Design UltraStudio4Kを駆使して、起こし・戻しの作業までできる環境となった。もちろんこのAudioWork-AおよびBもNEXISサーバーへアクセスができ、MA室と互換の取れるプラグインが設備されており、本MAへスムーズな移行が可能となっている。
今回の移転では、通常の業務を極力止めずに新ビデオセンターへ業務移行できるよう、スケジュールについても綿密に打ち合わせをした。限られた時間の中で滞りなく業務移行ができたのは、Avid S6やNEXISがシームレスな連携を前提に設計されたプロダクトであり、かつユーザーにとって扱いやすい製品である証だと言えるだろう。効率的なワークフローと新たなクオリティを実現したスタジオは、統合されたMAワーク環境の最先端を示していると言えるのではないだろうか。
株式会社テクノマックス
ビデオセンター
〒105-0001 東京都港区虎ノ門4丁目3−9 住友新虎ノ門ビル 4階
TEL 03-3432-1200(代表)FAX 03-3432-1275
(写真前列左手より)株式会社テクノマックス 営業本部 副本部長 小島 壯介氏、放送技術本部 編集技術部 主事 大矢 研二 氏、放送技術本部 編集技術部 専任部長 伊東 謙二 氏、放送技術本部 編集技術部 主事 武田 明賢 氏、放送技術本部 編集技術部 高橋 知世 氏、放送技術本部 編集技術部 主事 大前 智浩 氏
(写真後列右手より)ROCK ON PRO 君塚隆志、丹治信子、赤尾真由美、草野博行
*ProceedMagazine2019号より転載
Music
2019/03/26
既存Pro Tools | HDX システムを96kHzライブRec.システムにリーズナブルにグレードアップ〜DiGiGrid MGB/MGO + DLI
プラグインメーカー最大手のひとつであるWAVES社とデジタルコンソールの雄DiGiCo社によって開発されたDiGiGrid製品を活用することで、近年主流となりつつある96kHzでのライブコンサートをマルチチャンネルでPro Tools | HDX システムに接続することが可能になります。
コンパクトな筐体に2系統のMADI入出力ポートを備えたMGB/MGO、2系統のDigiLinkポートを備えたわずか1UのDLIを導入するだけで、既にお持ちのHDXカード1枚につき64ch(48kHz/96kHz)のMADI信号をPro Toolsとの間でやり取りすることが可能です。また、既存のDigiLink対応MADIインターフェイスと比較して、導入費用の面でも大きな魅力を備えています。
◎主な特徴
・ 既存のPro Tools | HDX システムはそのままに、MADI I/O 機能を追加可能
・ HDXカード1枚に対して64ch のMADI信号をPro Toolsとやり取り可能
・ 96kHz時にも64ch分のMADI伝送が可能
・ 1Gbpsネットワークスイッチを導入することで、手軽にバックアップRec機能を追加
・ ネットワークオーディオの利点である柔軟な拡張性と冗長性
◎システム構成例1
システムはMADIとSoundGridのインターフェイスであるMGB/MGO + DigiLinkとSoundGridのインターフェイスであるDLIから成っています。MGB/MGOは単独でPCのネットワーク端子に接続して入出力させることも可能です。また、MGB/MGOは2ポートのMADI端子を搭載しているため、2つのMADIポートを使用して96kHz時でもPro Tools | HDXシステムとの間で最大64Chの入出力が行えます。ライブレコーディングだけでなく、バーチャルリハーサルにも活用可能なシステムを構築可能です。
◎システム構成例2
ネットワークオーディオ・デバイスであるDiGiGrid導入の最大の利点は、1Gbpsネットワークスイッチと併用することで柔軟性の高い拡張性とリダンダシーを手軽に追加することが可能な点です。画像の例では既存PCを流用することでバックアップ用のDAWを追加しています。無償でダウンロードできるWaves社のTracksLiveを使用すれば、ネイティブ環境で合計128chまでのレコーディングとバーチャル・リハーサルのためのプレイバックが可能なシステムを手軽に構築可能です。
ネットワークを活用してさらなる拡張性と機能性を追加可能
また、このようにDLIを導入したシステムでは、様々なSoundGrid対応インターフェイスをPro Tools HDXシステムに追加することが可能です。モニタリング用のインターフェイスを追加して、収録時の検聴やインプットの追加、ADATやAES/EBU機器へのデジタル入出力、Ethernetケーブルを使用するネットワーク接続を生かし、長距離でも自由なI/Oの構築がフレキシブルに行えます。
また、SoundGrid 対応Serverを追加することで、対応プラグインを外部プロセッサーで動作させることができます。レコーディング時にWavesやSonnoxなどのプラグインのかけ録りを行う、低レイテンシーでプラグインをかけて送出するなど、コンピューターのCPUに負担をかけずにプラグインをかけられるDiGiGridシステムは失敗の許されないライブコンサートの現場に相応しいソリューションと言えるのではないでしょうか。
Media
2019/02/07
Artware hub KAKEHASHI MEMORIAL 様 / レジェンドの描いた夢が実現する、全方位型36.8chイマーシブステージ
早稲田大学を始め教育機関が集中する東京西早稲田、ここにArtware hubと名付けられた新しいサウンド、音楽の拠点となる施設が誕生した。この施設は、Roland株式会社の創業者であり、グラミー賞テクニカルアワード受賞者、ハリウッドロックウォークの殿堂入りも果たしている故 梯郁太郎氏(公益財団法人 かけはし芸術文化振興財団 名誉顧問)の生涯の夢の一つを現実のものとする「音楽の実験室、様々な音環境、音響を実践できる空間」というコンセプトのもと作られている。
この空間の名称であるArtware hubという名称は梯郁太郎氏の生んだ造語「Artware」がその根本にある。ハードウェア・ソフトウェアだけではなく、人間の感性に根ざしたアート感覚を持った映像、音響機器、そして電子楽器を指す「Artware」、それがつなぐ芸術家の輪、絆、共感を生み出す空間としての「hub」、これが掛け合わされているわけだ。そして、もう一つのキーワードである「共感」を生み出すために、多くの方が集える環境、そのパフォーマンスを共有できる環境として設計が行われた。まさにこの空間は、今までにない音響設備を備え、そのコンセプトに沿った設計によりシステムが構築されている。
1:すべて個別に駆動する36.8chのスピーカーシステム
まずは、その環境を実現するためにインストールされた36.8chというスピーカーシステムから見ていきたい。壁面に数多く設置されたスピーカーはTANNOY社のAMS-6DCが採用されている。これだけの多チャンネルシステムであると、スピーカーの構造は物理的に同軸構造であることが望ましい。Stereoであれば気にならないツイーターとウーファーの位相差の問題が、スピーカーの本数分の問題となりサウンドチューニングの妨げとなるからである。このスピーカーの選定には10種類以上の機種の聴き比べを行い、自然なサウンドが得られる製品がセレクトされている。音の飛び出し方、サウンドのキャラクターが単品として優れている製品もあったが、個性の強すぎない、あくまでもナチュラルなニュアンスを持った製品ということでセレクトは進められている。
これらのスピーカーを駆動するアンプはTANNOY社と同じグループ企業であるLab.Gruppen D10:4Lが9台採用された。合わせてサブウーファーには同社VSX 10BPを2本抱き合わせて4箇所に合計8本、こちらのアンプにはLab.Gruppen D20:4Lを2台採用。PA関係を仕事とされている方にはすでに当たり前になっているかもしれないが、SR用のスピーカーのほとんどが専用アンプとのマッチングを前提に設計されており、その組み合わせにより本来のサウンドを生み出すからである。このアンプは1Uのスペースで4chのモデルであるためこのような多チャンネルの個別駆動にはベストなセレクトとなっている。
前後の壁面のスピーカー。正面は「田」の字に9本配置されているのがわかる。
そして、皆さんの興味はこのスピーカー配置に集まるのではないだろうか?壁面にはセンターから30度間隔で12本のスピーカーが2レイヤー配置されている。一般に開放する施設ということで、入場者の邪魔にならない位置、具体的には2.5mの高さに下層のスピーカーは取り付けられている。上層は5mの位置となる。さらに写真ではわかりにくいが、天井に設置されたグリッド上のパイプに9本のスピーカーが取り付けられている。この9本は「田」の字の各交点に設置されているとイメージしていただきたい。さらに仮設として正面床面に直置きでのスピーカーも3本あり、正面の壁面に関しても「田」の字の各交点に9本の配置がなされている。
これらの合計36本のスピーカーはすべて個別に駆動するようなシステムとなっている。さらにサブウーファーを天井グリッド内に4箇所設置、設置位置は前後左右の十字に配置し、それぞれ個別駆動が可能となっている。つまり合計36本のスピーカーと8本のサブウーファーがすべて個別に駆動、全体のシステムとしては36.8chのスピーカーシステムである。
天井のスピーカー。空調ダクト等を避けて写真の位置に9本のスピーカーと8本のサブウーファーが設置された。
2:ロスなく長距離伝送するDanteを採用
スピーカー側より順番に機材を見ていきたいが、アンプの直前にはDante-AnalogのコンバーターとしてFocusrite REDNET A16Rが設置されている。これは1Fに設置されている調整室から3Fにあるアンプルームまでの伝送を、最高のクオリティーを保ったまま行うという目的。そして、これだけの数のスピーカーのマネージメントを行うために導入されたYAMAHA MMP-1をベストなコンディションで動作させるためにDanteが採用されている。1Fの調整室から送られた信号は、Danteにより長距離をロスなく伝送されてくる。それをDante-Analogのコンバーターとして最適なクオリティーを提供するFocusrite社の製品によりAnalogでアンプへと接続が行われているということになる。
このDanteの回線に組み込まれたYAMAHA MMP-1は最新のスピーカー・マネージメント・プロセッサーである。1台で32chのスピーカーマネージメントが行える優れた機器で、システムアップに応じて自在に入力信号を各スピーカーに振り分けたりといったことが可能となっているが、Artware hubの36.8chのスピーカーをプロセスするためには2台が必要となった。サブウーファーのチャンネルに関しては、FIRフィルターによるLPFが使えるというのは特筆に値する機能である。この36.8chのスピーカーの調整には1週間の時間を要した。個別のチャンネルのイコライザーによる周波数特性の調整、ディレイによる位相合わせ、音圧の調整、さすがに36.8chともなるとなかなか終わらない。それぞれ隣合うスピーカーとのファンタム音像に関しても聴感でのピーク・ギャップが無いか、サウンドキャラクターが変化しないか、といったチェックを行っている。この調整作業は株式会社SONAの中原氏に依頼を行い実施した。スタジオのようにリスニングポイントに対してガチガチに調整を行うのではなく、リスニングエリアを広めにとれるように調整は行われている。
Dante Networkの入り口にはFocusrite REDNET D64Rが2台用意され、調整室内の基本回線となるMADIからDanteへのコンバートが行われている。ここでMADIは64chあるので1台で済むのでは?と考えられるかもしれないが、Artware hubのシステムはすべて96kHzで動作するように設計されている。そのため、MADI回線は32chの取り扱いとなり、この部分には2台のREDNET D64Rが導入されることとなった。
3:ハイクオリティを誰もが扱える、スペースとしての命題解決
そして、Artware hubのシステムの中核となるAVID MTRX。Pro ToolsともAVID S6Lとも接続されていない「MADI Matrix Router」としてこの製品がインストールされている。このAVID MTRXには5枚のMADI option moduleがインストールされ13系統のMADI IN/OUTが用意されている。システムのシグナルルーティングを行うだけではなく、システムのボリュームコントロールもこのMTRXが行っている。36.8chものチャンネルのボリュームコントロールが行える機器はなかなか存在しない。しかも、最終の出力は96kHzということもあり2系統のMADIにまたがっている。専任のオペレーターがいる利用時は良いが、講演会やVideoの視聴といった簡易的な利用の場合、誰でも手軽に操作ができるハードウェアコントローラーが必須となる。そこでArtware hubのシステムではAVID MTRXに組み合わせてTAC SYSTEM VMC-102をスピーカーコントローラーとして採用している。
TAC SYSTEM VMC-102はそれ自体にMADIを入力し、モニターソースのセレクトを行い、AVID MTRX/NTP/DADもしくはDirectOut ANDIAMOをコントロールし出力制御を行うという製品。しかし、Artware hubではVMC-102にMADIは接続されていない、AVID MTRXコントロール用にEthernetだけが接続されている。通常でのVMC-102は、入力されたMADI信号をモニターソースとしてそれぞれ選択、選択したものがVMC-102内部のモニターバスを経由してMADIの特定のチャンネルから出力される、という仕様になっている。そして、その出力されたMADIが、接続されるMTRX/NTP/DADもしくはDirectOutの内部のパッチの制御とボリュームの制御を行い、スピーカーセレクトとボリューム調整の機能を提供している。
今回は、このパッチの制御とボリュームコントロールの機能だけを抽出したセットアップを行っている。通常であればVMC-102の出力バスをスピーカーアウトのソースとして設定するのだが、ダイレクトにAVID MTRXの物理インプットを選択している。この直接選択では、物理的な入力ポートをまたいだ設定は出来ないため2つのスピーカーアウトを連動する設定を行い、今回の96kHz/36.8chのシステムに対応している。そして、VMC-102のタッチパネルには、ソースセレクトが表示されているように見えるが、実はこのパネルはスピーカーセレクトである。説明がややこしくなってしまったが、このパネルを選択することにより、AVID MTRXの入力を選択しつつ、出力を選択=内部パッチの打ち換え、を行い、その出力のボリュームコントロールを行っているということになる。YAMAHA MMP-1も同じような機能はあるが、2台を連携させてワンアクションでの操作が行えないためVMC-102を使ったシステムアップとなった。
具体的にどのような設定が行われているかというと、マルチチャンネルスピーカーのディスクリート駆動用に40ch入力、40ch出力というモードが一つ。コンソールからのStereo Outを受けるモードが一つ。Video SwitcherからのStereo Outを受けるモード、そして、袖に用意された簡易ミキサーであるYAMAHA TF-Rackからの入力を受けるモード、この4パターンが用意されている。ちなみにVMC-102は6系統のスピーカーセットの設定が可能である。今後入出力のパターンが増えたとしても、36.8chで2パターン分を同時に使っているので、あと1つであればVMC-102のスピーカーセットは残っているため追加設定可能だ。
システム設計を行う立場として、やはり特注の機器を使わずにこのような特殊フォーマットのスピーカー制御が行えるということは特筆に値する機能であると言える。VMC-102はスピーカーセット一つに対して最大64chのアサインが可能だ。極端なことを言えば48kHzドメインで6系統すべてを同期させれば、384chまでのディスクリート環境の制御が可能ということになる。これがAVID MTRXもしくはNTP/DAD社製品との組み合わせにより200万円足らずで実現してしまうVMC-102。新しい魅力を発見といったところである。AVID MTRXには、Utility IN/OUTとしてDirectOut ANDIAMOが接続されている。この入出力はVideo Systemとのやり取り、パッチ盤といったところへの回線の送受信に活用されている。ここも内部での回線の入れ替えが可能なため、柔軟なシステムアップを行うのに一役買っている部分である。
4:36.8chシステムの中核、FLUX:: SPAT Revolution
そして、本システムのコアとなるFLUX:: SPAT Revolution。このソフトウェアの利用を前提としてこの36.8chのスピーカーシステムは構築されている。SPAT Revolutionは、空間に自由にスピーカーを配置したRoomと呼ばれる空間の中に入力信号を自由自在に配置し、ルームシュミレートを行うという製品。Artware hubのような、特定のサラウンドフォーマットに縛られないスピーカー配置の空間にとって、なくてはならないミキシングツールである。SPAT Revolutionは、単独のPCとしてこれを外部プロセッサーとして専有するシステム構成となっている。
入出力用にはRME HDSPe-MADI FXを採用した。これにより、64ch@96kHzの入出力を確保している。入力は64ch、それを36.8chのスピーカに振り分ける。SPAT Revolutionにはサブウーファーセンドが無いため、この調整は規定値としてYAMAHA MMP-1で行うか、AVID S6Lからのダイレクトセンドということになる。といっても36chのディスクリートチャンネルへのソースの配置、そして信号の振り分けを行ってくれるSPAT RevolutionはArtware hubにとっての心臓とも言えるプロセッサーだ。執筆時点ではベータバージョンではあるが、将来的にはS6Lからのコントロールも可能となる予定である。数多くのバスセンドを持ち、96kHz動作による音質、音楽制作を行っている制作者が慣れ親しんだプラグインの活用、AVID S6LのセレクトもSPAT Revolutionとともに強いシナジーを持ちArtware hubのシステムの中核を担っている。
FLUX:: SPAT Revolutionに関しての深いご紹介は、ROCK ON PRO Webサイトを参照していただきたい。非常に柔軟性に富んだソフトウェアであり、このような特殊なフォーマットも制約なくこなす優れた製品だ。Artware hubでは、既存のDolby AtmosやAUROといったフォーマットの再生も念頭においている。もちろん、完全な互換というわけにはいかないが、これだけの本数のスピーカーがあればかなり近い状態でのモニタリングも可能である。その場合にもSPAT Revolutionは、スピーカーへのシグナルアサインで活躍することとなる。現状では、既存のImmersive Surroundの再生環境は構築されてないが、これは次のステップとして検討課題に挙がっている事案である。
◎FLUX:: 関連記事
FLUX:: / ユーザーから受けた刺激が、 開発意欲をエクスパンドする
Immersive Audioのキー・プロダクト Flux:: / Spat Revolution 〜ROCK ON PRO REVIEW
5:可動式のS6Lでマルチチャンネルミックス
ミキシングコンソールとして導入されたAVID S6Lは、大規模なツアーなどで活躍するフラッグシップコンソールの一つ。コンパクトながら高機能なMixing Engineを備え、96kHzで192chのハンドリング、80chのAux Busを持つ大規模な構成。SPAT Revolutionでのミキシングを考えた際に、Aux Busの数=ソース数となるため非常に重要なポイント。音質とバス数という視点、そして何より前述のSPAT Revolutionをコンソール上からコントロール可能という連携により選択が行われている。そしてこれだけのマルチチャンネル環境である、調整室の中からでは全くミキシングが行えない。そこでS6Lはあえてラックケースに収められ、会場センターのスイートスポットまで移動してのミキシングが可能なように可動式としている。
S6Lには、録音、再生用としてAVID Pro Toolsが接続されている。これは、AVID S6Lの持つ優れた機能の一つであるVirtual Rehearsal機能を活用して行っている。S6Lに入力された信号は、自動的に頭わけでPro Toolsに収録が可能、同様にPro ToolsのPlaybackとInputの切替は、ボタン一つでチャンネル単位で行えるようになっている。マルチトラックで持ち込んだセッションをArtware hubの環境に合わせてミキシングを行ったり、ライブ演奏をSPATを利用してImmersive Soundにしたりとどのようなことも行えるシステムアップとしている。これらのシステムが今後どの様に活用されどのようなArtが生み出されていくのか?それこそが、まさにArtware hubとしての真骨頂である。
AVID S6L はこのように部屋の中央(スピーカー群のセンター位置)まで移動させることが可能。イマーシブミキシング時は音を確認しながら作業が行える。
Artware hubには、音響だけではなく、映像、照明に関しても最新の設備が導入されている。映像の収録は、リモート制御可能な4台の4Kカメラが用意され、個別に4Kでの収録が可能なシステムアップが行われた。4K対応機器を中心にシステムアップが行われ、将来への拡張性を担保したシステムとなっている。音響システムとは、同期の取れる様にLTC/MTCの接続も行われている。照明は、MIDIでの制御に対応し、PCでの事前仕込みの可能な最新の照明卓が導入された。LED照明を中心に少人数でのオペレートで十分な演出が行えるよう配慮されたシステムとなっている。
さまざまなArtistがこのシステムでどのようなサウンドを生み出すのか?実験的な施設でもあるが、観客を入れて多くの人々が同時に新しい音空間を共有できる環境であり、すべてにおいて新しい取り組みとなっている。Roland時代の梯郁太郎氏は早くも1991年にRSS=Roland Sound Spaceという3D Audio Processorを開発リリースしている。その次代を先取りした感性が、今このArtware hubで現実の環境として結実していると思うと感慨深いものがある。
本誌では、これからもArtware hubで生み出されるArtを積極的に取り上げていきたい。また、今回ご紹介したシステム以外にも照明映像関連などで最新の設備が導入されている、これらも順次ご紹介をしたい。最後にはなるがこの設備のコンセプトの中心となった、かけはし芸術文化振興財団専務理事で梯郁太郎氏のご子息である梯郁夫氏、そして同じく理事であるKim Studio伊藤圭一氏の情熱により、この空間、設備が完成したことをお伝えしまとめとしたい。
*ProceedMagazine2018-2019号より転載
Education
2019/01/31
専門学校ESPエンタテインメント福岡 様 / AMS NEVE Genesysで実現する充実のカリキュラム
多くの人材を業界へ輩出するESPミュージックアカデミーが福岡に新たな校舎を新設、レコーディング課の実習室として素晴らしいスタジオが作られた。リズムセクション収録の可能な広いブースと、授業を前提に広く作られたコントロールルーム。そして、そこに導入されたAMS NEVEGenesys。細かい部分までこだわりを持って設計されたそのスタジオをレポートしたい。
1:AMS NEVE Genesysという合理的なセレクト
まずは導入されたコンソールの話から始めるが、実は東京・大阪・福岡の各校舎ではそれぞれ異なった機材が導入されている。東京校は2 部屋の実習室があるが、それぞれSSL 4000G+ とSSL 9000が導入されており両方とも大型のアナログコンソールとなる。大阪校も2 部屋の実習室、こちらはSSL AWS948とAVID S6で、アナログコンソールとPro Toolsコントローラーという組み合わせになる。そして今回この福岡校に導入されたのはAMS NEVE Genesysである。ここから読み取れるのは、東京校では最初にアナログコンソールでシグナルフローなどの概念をしっかりと学び、次のステップへというカリキュラム。大阪校では1年目にSSL AWSでアナログコンソールでの実習、2年目はAVID S6で最新環境を体験するという2段構えの想定、福岡校は1 部屋で両方のコンセプトを兼ね備えた実習を行えるAMS NEVE Genesys、と各校とも実に合理的なセレクトが行われていることがわかる。
今回は新校舎ということもありプランニングには1年以上の時間がかけられているのだが、コンソールの選定には多くの候補が検討されたということだ。その中で最後まで残ったのが、今回導入されたAMS NEVE GenesysとAVID S6。学生には現場に出た際に学校で学んだ機材と同じもので作業を行ってほしいという意見もあり、今後のスタンダードとなりうるAVID S6は有力な候補であったが、やはり授業を行うことを前提に考えるとアナログコンソールであるということは外せないという判断にたどり着いたとのこと。ミキシングを教える際に非常に重要なシグナルフロー。デジタルだと柔軟性が高いがゆえにどうしても具体的になっていかないが、アナログコンソールであれば一つ一つのツマミを順に追いかけることで信号がどのような順番で処理が行われているのかがわかる。これは実習を行う上で非常に重要なポイントとして考えているということだ。
今回導入されたAMS NEVE Genesysはチャンネルストリップが16ch実装されたモデル。リズムセクションの収録を考えると16chというのは必須であり、NEVE 製のプリが16ch用意されているこの製品の魅力の一つでもある。残りのフェーダーはDAWコントロールとして働き、インラインコンソールのような使い方も可能。これもマルチトラックレコーディングのフローを教える際には非常に重要なポイントとなる。DAWへ信号を送り、それが戻ってくる(実際には、DAW内部で最終SUMはされるが)という感覚はこのクラスの製品でないと直感的に理解することは難しいのではないだろうか。
2:コントロールされた音響設計と200Vでの駆動
レコーダーとしてはAVID Pro Tools HDXが導入され、HD I/Oが2台接続、AD/DAは24ch が用意される。ここに関しては基本を知るという教育の現場であるためベーシックな構成が選択された。Pro Toolsのオペレート用のデスクは、Erogotronのカートが導入されている。このカートは医療現場用に設計されているために非常に作りもよく、耐久性も高い製品。授業の形態に応じてどこでも操作のできる環境が作り上げられている。ブースはリズムセクションが入れる十分な広さを持った空間で、アンプ類、ドラムセットなども用意された贅沢な空間となっている。楽器類もエントリークラスのものではなく、しっかりとした定番の機種が揃っているあたりにこだわりが感じられる。また、ブースとコントロールルームをつなぐ前室にもコネクターパネルが用意され、ボーカルブースや、アンプブースとしても使えるように工夫が行われている。
コントロールルーム、ブースなどは日本音響エンジニアリングによる音響設計で、しっかりとした遮音とコントロールされた響きにより充実した録音実習が行える空間となっている。ドラムが設置されている部分には、木のストライプやレンガ風塗り壁にしデッドになり過ぎず、自然な響きが得られるようになっていたり、コントロールルームとの間は大きな窓が開き、授業の際に十分な視界を確保することができる、といったように少し現場を見るだけでも考え抜かれた設計であることがわかる。さらに、ここでは音質にこだわり200Vでの駆動を行っているということだ。学校であるということを考えると必要十分以上な設計かもしれないが、本当に良い音を実習の段階から知ることができるのは、卒業して現場に出たときに必ず武器となるはずである。良い音を知らなければ、良い音は作れないのだから。
福岡の地に誕生した充実のスタジオ。ここから巣立つ学生の皆さんがどのような活躍をしていくのか非常に楽しみである。
右: 教務部 音楽アーティスト科 吉田雅史氏
中: サウンドクリエイターコース講師 大崎隼人氏
左: ROCK ON PRO 岡田詞郎
*ProceedMagazine2018-2019号より転載
Broadcast
2019/01/16
株式会社毎日放送 様 / 入念な検討で実現した2日間でのコンソール更新
大阪駅北側に位置する茶屋町に社屋を構える株式会社毎日放送。その社屋の4階にあるMAコンソールの更新工事が行われた。長年に渡り活躍をしてきたAMS NEVE MMC から、次の時代を睨んだAVID S6 + MTRXという最新の機材へと更新が行われている。
1:AVID S6 の構成をどう考えたか
なぜ、コンソールであるAMS NEVE MMCからコントローラーであるAVID S6へと舵を切ったのか?この点からレポートを始めるが、更新が行われた同社屋の7Fにあるもう一つのMAルームでAVID ICON D-Controlを使っていたということが一つの理由。すでにDAWとしてPro Toolsをメインに作業を行っているということで、AVID D-Controlの持つ専用コントローラーとしての完成度の高さはすでに実感済み。その作業効率の良さは十分に理解していた中で、もう一部屋の更新に際しては、Pro Toolsと親和性の高いAVID S6、もしくはS3という候補しか残らなかったということ。そのS3についてはもともとのコンソールが24フェーダーだったということもありスペック的に選択肢から外れ、必然的にAVID S6の構成をどうするかという一点に検討は集中することとなった。なかでも事前のデモンストレーションの段階から、AVID S6の武器であるVisual Feedbackの中心とも言えるDisplayモジュールに注目。Pro Toolsのトラック上を流れる波形データを表示できるという機能は、まさにAVID D-Controlから大きくブラッシュアップされている優れた点だと認識いただいた。まさに、設計者の意図とユーザーのニーズが噛み合った素晴らしいポイントと言える。
Displayモジュール導入、そしてフェーダー数はそれまでのAMS NEVE MMCと同等の24フェーダーということが決まり、次の懸案事項はノブの数。AVID D-Controlではフェーダー操作が中心で、あまりエンコーダーを触っての作業を行ってこなかったということもあり、ここは5-Knobという構成に決まった。この5-Knobに決まったもう一つの理由としては、5-knobの一番奥のエンコーダーはやはり座って操作することを考えると遠い、小柄な女性スタッフでも十分に全ての操作を座ったまま行えるべきだ、という判断もあったということだ。エルゴノミクス・デザインをキーワードのひとつとして設計されたコンパクトなAVID S6だが、すべてを手の届く範囲にと考えるとやはり5-Knobのほうに軍配が上がるということになる。
2:設置の当日まで悩んだレイアウト
モジュールのレイアウトに関しては、設置の当日まで担当の田中氏を悩ませることとなる。Producer Deskと呼ばれるPC Display / Keyboardを設置するスペース、そしてセンターセクションをどこに配置をするのか?ミキシングの際にはフェーダーがセンターに欲しいが、一番時間のかかる編集時にはPC Keyboardがセンターがいい。これを両立することは物理的に難しいため試行錯誤の上、写真に見られるようなモジュールのレイアウトとなっている。
工期が短いということで驚かれた方もいるかもしれないが、AMS NEVE MMCの撤去からシステムのセットアップまで含め、実際に2日間で工事を行っている。もちろん、Pro ToolsのIO関連などの更新は最小限ではあるが、スタジオの中心機器とも言えるコンソールの更新がこの時間内で行えたのは、AVID S6がコントローラーであるということに尽きる。既存のケーブル類を撤去した後に配線をする分量が非常に少なく済むため、このような工事も行えるということだ。そして、配線関係がシンプルになった部分を補うAVID MTRX とS6によるモニターコントロールセクション。複雑な制御を行っているが、AVID MTRX単体でモニターの切替を柔軟に行っている。ソフトウェア上の設定で完結出来るため、効率の良い更新工事が行えたことにも直結している。
3:MTRX のモニターセクションと高い解像度
もう一つの更新ポイントであるAVID MTRXの導入。この部分に関してはAVID S6との連携により、従来のコンソールのマスターセクションを置き換えることができるEuConによるコントロール機能をフル活用いただいている。柔軟な構築が可能なMTRXのモニターセクション。従来このMAルームで行われていた5.1chのサラウンドから、写真にも見えているDOLBY ATMOSに対応した作業など、未来を見据えた実験的な作業を行えるように準備が進められている。もちろん、放送波にDOLBY ATMOSが乗るということは近い将来では考えられないが、これからの放送局のあり方として配信をベースにしたコンテンツの販売などを考えれば、電波だけを考えるのではなく、新しい技術にニーズがあるのであれば積極的にチャレンジしたいということ。それに対して機器の更新なしに対応のできるMTRXはまさにベストチョイスであったということだ。
そして、MTRX にAD/DAを更新したことで音質が向上したのがはっきりと分かるという。取材時点ではブースの更新前ということでADに関しては試されていない状況ではあったが、DAに関してはこれまで使用してきたAVID HD I/Oに比べて明らかな音質向上を実感しているということだ。音質の傾向はクリアで、解像度の高いサウンド。7階のスタジオにあるHD I/OとRL901のほうがスピーカーの性能を考えても上位であることは間違いないのだが、DAでこれまで音質が向上するのは驚きだということだ。特に解像度の高さは誰にでもわかるレベルで向上をしているというコメントをいただいている。
これから、DOLBY ATMOS をはじめとしたイマーシブ・サウンドにも挑戦したいという田中氏。今後、このスタジオからどのような作品が生み出されていくのだろうか、放送局という場から生み出されるイマーシブ・サウンドにもぜひ注目をしていきたい。
株式会社 毎日放送 制作技術局 制作技術部
音声担当 田中 聖二 氏
*ProceedMagazine2018-2019号より転載
Education
2019/01/09
京都造形芸術大学 様 / キャラクターの成立を学ぶMA 実習環境
京都市街の中でも屈指の観光地である東山の北、銀閣寺の近くにキャンパスを構える京都造形芸術大学。東山三十六峰の一つ、瓜生山の裾野に白川通りから斜面に校舎が立ち並んでいるのが特徴的。美術大学の中でも特徴的な学科が揃っており、マンガ学科、空間演出デザイン学科、文芸表現学科、こども芸術学科、歴史遺産学科など独自の学科が並ぶ。そのなかで今回AVID S6 を導入いただいたのはキャラクターデザイン学科である。どのようにAVID S6 そして、AVID Pro Tools が講義の中で活用されているのか、そのような視点も含めご紹介したい。
1:水平設置されたAVID S6
今回導入いただいたAVID S6 は24 フェーダーのモデル。それまで活躍していたAVID ICON D-Control 16 フェーダーモデルからのリプレイスとなる。そのリプレイスに伴い、AVID HD I/O からAVID MTRX への更新も同時に行われている。通常のICON からのリプレイスでは、それまで使用していたAVID X-MON(モニターコントロールユニット)はそのまま継続されるケースが多いのだが、今回は最新の設備へと積極的に更新を行っていただいた。
音質の向上、そしてモニターコントロール部分におけるAVID S6 との統合と、次世代の制作環境を見据えたシステムアップとなっている。同時に映像の再生をそれまでのVideo Satellite システムから、Video Slave へと変更をしている。このあとに活用されている実習などをご紹介するが、シンプルな作業ながら様々なファイルの受け入れが必要となっているため、より柔軟性の高いVideo Slave へと変更がなされている。
システムとしては、非常にシンプルにPro Tools HDX システムにAudio I/O としてAVID MTRX が用意された構成。そこにAVID S6 が組み合わされている。ただし、それを設置する机は特注のデスクが用意され、通常では奥に向かって高くなる傾斜のついたS6 の盤面が水平になるように工夫がなされている。AVID S6 のシャーシがきれいに収まるようにかなり工夫が行われたデスクである。これにより、非常にスッキリとした形状が実現できている。もともとサイズのコンパクトなAVID S6 があたかも机にビルトインされているように見えるなかなか特徴的な仕様となっている。
2:キャラクターに生命を宿すMA 実習
ブース等の内装に関しての更新は行われていないが、奥に広い4 名程度のアフレコが行える広さを持った空間が用意されているのが特徴となる。これは、このキャラクターデザイン学科の実習には無くてはならない広さであり、実習の内容と密接な関わりを持ったものである。キャラクターデザイン学科は、その名の通りアニメーションなどのキャラクターを生み出すことを学ぶ学科である。描き出されたキャラクターは、アイコンとしての存在は確立されるものだが、動画でキャラクターを活かすとなるとボイスが必須となる。声を吹き込むことで初めてキャラクターに生命が注ぎ込まれると言っても過言ではない。
そのため、キャラクターに対してボイスを吹き込む、動画(アニメーションが中心)に対して音声(ボイスだけではなく音楽、効果音なども含め)を加えるMA 作業を行うことになる。そのような実習を行うための空間としてこの教室が存在している。高学年時の選択制の授業のための実習室ということだが、音と映像のコラボレーションの重要性、そしてそれを体感することでの相乗効果など様々なメリットを得るための実践的な授業が行われている。もちろん、卒業制作などの制作物の仕上げとして音声を加えるなど、授業を選択していない学生の作品制作にも活用されているということだ。
ご承知のように、アニメーションは映像が出来上がった時点では、一切の音のない視覚だけの世界である。そこに生命を吹き込み、動きを生み出すのは音響の仕事となる。試しに初めて見るアニメを無音で見てみてほしい。過去に見たことがあるアニメだと、キャラクターの声を覚えてしまっているので向いていない、ドラえもんの映像を見てその声を思い出せない方はいないだろう。はじめてのキャラクターに出会ったときにどのような声でしゃべるのか?これは、キャラクターの設定として非常に重要な要素である。同じ絵柄であったとしても、声色一つで全く別のキャラクターになってしまうからだ。
つまり、絵を書くだけではなくどのようにキャラクターが成立していくのか?そういった部分にまで踏み込んで学ぶこと、それが大学のキャラクターデザイン学科としての教育であり、しかもそれが最新の機材を活用して行われている。ちなみに京都造形芸術大学には、この設備以外にも映画学科が持つ映画用の音声制作設備があるということだ。
アニメーション関係では、卒業生に幾原邦彦(セーラームーンR、少女革命ウテナなど)、山田尚子(けいおん!、聲の形)といった素晴らしい才能が揃う。これからも日本のアニメーションを牽引する逸材がこの現場から登場していくことになるだろう。
京都造形芸術大学 村上聡先生、田口雅敏先生
*ProceedMagazine2018-2019号より転載
Post
2018/12/18
株式会社松竹映像センター 様 / S6・4 Pro Tools・Dual MTRX・MMP1、最新機器が織りなす完成度
2015年、大船にあった映画関連のポストプロダクション施設と、高輪にあったそれ以外のポストプロダクション施設をお台場に移転させて、新しいスタートを切った松竹映像センター。今回はその中でも高輪から移設したMA室のシステムについて更新を行った。移転から早くも3年、統合したことによって生まれたシナジーはすでに芽吹いており、様々な作業での設備の共用、有効活用が始まっている。そのような中でのシステム更新はどのようなものとなったのか?一つづつ見ていきたい。
1:ハリウッドで確認したIn The Box Mixingの流れ
更新の前後を同じアングルで撮影したものである。左が2018年の更新後、右が2015年時点での状況となる。AVID S6のコンパクトさ、特に奥行方向が際立つ。
この部屋はAudio Suiteと呼ばれ、テレビ向け番組のMAから、劇場での予告など様々な作品の作業が行われている。7.1chのサラウンドシステムが構築され、幅広い作業に対応できるよう設計された部屋である。これまでは国内唯一となるAVID D-ControlのDual Headシステムが導入され、ツーマン体制での作業を可能としたスタジオとなっていた。今回の更新ではその作業スタイルを更に拡張し、柔軟かつ、効率の高い作業が行えるよう様々な部分がブラッシュアップされている。
ICON D-Controlの後継機種としては、AVID S6以外の選択肢が登場することはなかった。やはり、Pro Toolsの専用コントローラーとしてのICON D-Controlの優れた操作性を実感しているユーザーとして、いまさらコンソール+DAWという環境へは戻れないというのが本音だろう。そして、ハリウッドでも進むDAWのIn The Box Mixingの流れ、リコール性・作業の柔軟性、そういったことを考えればDAWの内部で完結するシステムというものは理にかなっている。ポストプロダクション向けのコンソールがDigital化したいま、実際にAudio SignalをSummingしているのが、Digital Consoleの内部Mixer上なのか、DAW内部のMixerなのかという違いしか無い。どちらにせよデジタル処理であり、その処理の差異による音質ということになる。しかし、これはデジタル・ドメインでの話であり、日進月歩のSoftware BaseのDAWの優位性はHardware BaseのDigital Consoleとは進化のスピードが違うといえるだろう。とはいえ、Pro Toolsもご承知の通りFPGAとDSPをベースとしたPro Tools HDXというハードウェアベースのシステムである。それまでのTDMシステムからの世代交代により、音質の評価が一気に高まり、世界的にもDAWのIn The Box Mixingで音質的にも問題ないとう流れが生まれたのは間違いない。
また、この更新にあたりハリウッド地区のスタジオ視察にも行き、最新の環境、ワークフローを実感してきていただいている。AVID S6を使った大規模な映画向けのダビングステージなどを目の当たりにし、そのワークフローを見ることでDAW + Controlerという環境でこだわり抜いた作品作りが実際に行われているということを体感していただいた。Digital Consoleがなくとも十分な制作環境が構築できる。これは、AVID S6の提供する優れた操作性、Pro Tools HDXでブラッシュアップされた音質、そして、システムのコアとなるAVID MTRXが揃ったからこそ実現できたソリューションである。
2:11feetのシャーシに収まるS6 48フェーダー
前置きが長くなってしまったが、今回の更新に関して全体像を見ていきたい。ControlerはAVID S6 M40 48フェーダー仕様である。国内でも最大規模の11feetのシャーシに収まり、これまでのICON D-Control 32Fader + Dual Headとほぼ同じサイズに収まっている。最後までS6もDual Headにするかどうか悩まれたところではあるが、AVID S6のLayout機能を使うことで同等のことが、更に柔軟に設計できるということでSingle Headの構成となっている。ノブに関しては、手の届く範囲にあれば十分という判断から5-Knob。JoyStickはセンターポジションで使うことを想定して専用のケースを用意して外部に取り出している。左右には、作業用のProducer Deskを設け、ツーマンでの作業性に配慮が行われている。デスクをカスタムで専用のものを準備しようか?という話も出ていたのだが、これまでのICONとほぼ同一サイズということで左右に余裕が無いためシンプルに純正のLegを活用することとなった。
以前のICON D-Control時代の写真と見比べてもらいたいのだが、左右の幅はほぼ同一ながら、非常にスッキリとした収まりになっているのがわかる。やはり、高さが低く抑えられていることと、奥行きが30cmほど短くなったことが大きく影響しているようだ。フットプリントとしては奥行きの30cm程度なのだが、驚くほどスッキリとした感覚だ。Ergonomics DesginにこだわったAVID S6らしいしつらえになっているのではないかと感じられる。
3:4台体制のPro ToolsとデュアルMTRX
今回の更新は、このAVID S6が目に見える部分での最大の更新となっているが、実はDAW周りも非常に大きく手が入れられている。これまでのシステムをおさらいすると、Main / Sub 2台のPro Tools HDXシステムと、Media Composerを使ったVideo Satelliteの3台のPCを駆使して作業が行われていた。今回の更新では、そこにさらに2台のPro Toolsが加えられ、ダビング仕様のシステムアップが行われている。DAWとしては、Main / Sub-A / Sub-B / Dubberという4台体制に。AVID MTRXをセンターコアとしてそれぞれが、32chずつの信号がやり取り出来るようにシステムアップが行われている。ある程度の規模までのダビング作業であればこなせるシステムであり、各DAW内部でのStem Outを唯一64hの入出力を持つDubberで受けるというシステムアップになっている。大規模なダビング用のシステムは、大きな空間を持つダビングステージを同社内に持つため、それよりも少し規模の小さな作品やハリウッドスタイルでのドラマの仕上げ作業など様々な使い勝手を考えてのシステムアップとなっている。
今回は限られた予算の中で、既存製品の流用を多く考えながらシステムの組み換えが行われていった。それまで、2台のDAWにはそれぞれ2台づつのAVID HD I/Oが使われていた。その4台のHD I/Oを有効活用しつつ、AVID MTRXを加えて4台分のI/Oを捻出しようというのが今回のプランとなる。Main / Sub-Aに関しては、AVID MTRXとDigiLinkにより直結。これにより32chのチャンネル数を確保している。Sub-Bは余剰となったHD I/O2台からのAES接続。Dubberは、64chを確保するためにAVID MTRXをDubber専用にもう一台導入し、2台のMTRXはそれぞれMADIで接続されている。ユーティリティー用のAD/DAとしては、Directout technologiesのANDIAMO 2.XTを準備。メーターアウトなどはここからのAnalogもしくはAES/EBU OUTを活用している。
4:16系統のMonitor Source、MTRXの柔軟さ
このように、構築されたシステムの中核はMain / Sub-AがDigiLink接続されたAVID MTRX。これをDADman経由でAVID S6のMonitor Sectionよりコントロールしている。柔軟なモニターセクションの構築は、優れたユーザビリティーを生み出している。これまでであれば、Sourceに選択できる回線数の制限、ダウンミックスの制約など何かしらの限界が生じるものだが、AVID MTRXを使った構成では、一切の制約のない状況で、思いつくかぎりの設定が可能となる。これは、MTRXに入力されている信号の全てが、Monitor Sourceとして設定可能であり、出力のすべてがSpeaker Outもしくは、Cue Outとしての設定が可能なためである。これにより、各Pro ToolsのOutを7.1ch Surroundで設定しつつ、VTRの戻りを5.1chで、さらにCDなどの外部機器の入力を立ち上げることが可能。実際に16系統のMonitor Sourceを設定している。ダウンミックスも柔軟性が高く、7.1ch to 5.1chはもちろん、Stereo / Monoといったダウンミックスも自由に係数をかけて設定することが可能となっている。
スピーカー棚下部に設けられたラックスペース。ここにDubber以外の回線が集約されている。
個別に入出力の設定が可能なCue Outに関しては、X-Mon互換のコントロールを持つS6のMonitor SectionでA,B,C,Dの4系統が設定可能となる。ここでは、アシスタント用の手元スピーカーの入力切替、Machine Roomに設置されたVTRへの戻しの回線の選択、そして本来のCueの役目であるBoothへのHPモニター回線の選択と、フルにその機能を活用している。ちなみにだが、Machine Roomへの音戻しの回線は、今回の更新でMTRXにSDI optionを追加しているので、これまでのAES経由での回線ではなく、SDI EmbeddedのAudioを直接戻せるように変更が行われている。Video Frameに埋め込まれた状態で音戻しが行えるために、同期精度によらない正確な戻しが実現できている。
5:AdderでPC KVMのマトリクス化を実現
今回の更新により、PCが5台となったためその切替のためにAdder DDXシステムが導入された。これは、低コストでPC KVMのマトリクス化を実現する製品。キーボードのショートカットから操作を行いたいPCを選択することの出来るKVMマトリクスシステムだ。IPベースのシステムであり、切替のスピードも早く最低限のPC Displayで柔軟な操作を行うことのできるシステムとして導入いただいた。大規模なシステムに向く製品ではないが、小規模なシステムであれば、従来のKVM Matirxシステムに比べて低予算で導入可能な優れた製品である。PCの台数が増えたことによるKVM関連のトラブルを危惧されていたが、目立った不具合もなく快適にお使いいただいている部分である。
KVM MatrixであるAdderの選択画面。キーボードショットカットでこの画面をすぐに呼び出せる。
MTRXの設定しているDADman。回線のマトリクスパッチ、モニターコントロール設定、まさにこの設定がスタジオのコアとなる。
もちろん、今回の更新でもスタジオとしていちばん重要な音質部分に関してもブラッシュアップが図られている。その中心は、やはりAVID MTRXによるAD/DAの部分が大きい。Boothのマイクの立ち上げ、スピーカーへの接続回線はAVID MTRXのAD/DAへとブラッシュアップが行われている。これにより、はっきりとしたサウンド変化を感じ取られているようだ。解像度の高さ、空気感、音質という面では非の打ち所のないブラッシュアップされたサウンドは「やはり間違いなくいい」とのコメント。MTRXの音質に関しては、どのユーザーからもネガティブな意見を貰ったことはない。クリアで解像度の高いそのサウンドは、癖のないどのような現場にも受け入れられる高いクオリティーを持っていることを改めて実感した。
それ以外にも、音質にこだわった更新の箇所としてYamaha MMP1の導入があげられる。Boothとのコミュニケーションは、既存のCuf Systemを流用しているのだが、音質に影響のあるCufのOn/Offの連動機能をYamaha MMP1のプロセッサーに預けている。これにより、これまでAnalogで行われていたMicのOn/OffがDigital領域での制御に変更となっている。非常に細かい部分ではあるが、アナログ回路部分を最小限にピュアにADコンバーターまで送り届け、制御をデジタル信号になってから行っているということだ。
MTRXとともに収められたYamaha MMP1
更新されたMic Pre、Shelford Channel
同時にMic Pre AmpもRupert Neve DesignのShelford Channelを2台導入いただいている。これまでにも、Mic Preを更新したいというご相談を何度となく受けていたのだが、ICON D-Controlからのリモートが効かなくなるということもあり、AVID Preを使っていただいていた。今回は念願かなってのMic Pre導入となる。この選定にも、5機種ほどの候補を聴き比べていただきその中からチョイスしている。基礎体力的なサウンドの太さと、破綻のないサウンドバリエーションを提供するShelford Channelは様々な作品を扱うこのスタジオにはピッタリマッチしたとのことだ。特にSILKボタンはお気に入りでBLUE/RED/Normalすべてのモードが、それぞれに魅力的なサウンドキャラクターを持っており、収録するサウンドをより望んだ音質に近づけることができるようになったとのことだ。Textureのパラメーターとともにこれからの録音に活躍させたいとコメントいただいている。もともと導入されていたSSL X-RackにインストールされたEQ / DYNモジュール、NEVE 33609との組み合わせで、様々なサウンドバリエーションを得ることが出来るようになっている。
Yamaha MMP1はCufのコントロール以外にもいくつかの便利な機能がある。その一つがTB Micの制御。TB Micに対してのEQ / Compの処理を行うことで、聞き取りやすいコミュニュケーション環境を提供している。少しの工夫ではあるが、Yamaha MMP1の持つChannel Stripを活用してこれを実現している。プロセッシングパワーのある機器が数多く導入されているため、柔軟かつクオリティーの高い制作環境が整った。
6:ミックスバランスに配慮したスクリーン導入
この更新が行われる前に、Audio Suiteにはスクリーンが導入されている。これは劇場公開作品の仕上げ時に出来る限り近い環境での作業が行えるようにとの配慮からである。単純に画面サイズの違いにより、ミックスバランスに差異が生じることは既知の事実である。このような一歩一歩の更新の集大成として今回のシステムのブラッシュアップがある。小規模なダビング作業から、TV向けのミキシングまで、柔軟に対応のできるオールマイティーなスタジオとして、大規模なダビングステージと、ADR収録用のスタジオを併設する松竹映像センターとして明確な使い分けを行い、どのような作業の依頼が来ても対応できるファシリティーを揃えることに成功している。
今回の更新によりダビングスタイルの作業にも対応したことで、更に対応できる仕事の幅は広がっている。サウンドのクオリティーにも十分に配慮され、今後どのような作業に使われていくのか?次々と新しい作業にチャレンジが続けられることだろう。
株式会社 松竹映像センター ポストプロダクション部 ダビング MA グループ長 吉田 優貴 氏
*ProceedMagazine2018-2019号より転載
Music
2018/06/14
Focusrite Red/RedNetシリーズ ~Danteネットワークによる最新レコーディング環境
Ethernetケーブルによるビデオ/オーディオの伝送に関する規格統一を図ったSMPTE ST2110の制定により、にわかに注目度の上がるAoIP(Audio over IP、ネットワークオーディオ)。そうした動きに応えるように、新製品にDanteコネクションが搭載されている例や、Dante拡張カードのリリースなどのニュースを多く目にするようになりました。
Focusrite Redシリーズ / RedNetシリーズはDanteに標準対応するインターフェイスをラインナップ、必要な規模に応じた柔軟なセットアップと高い拡張性を提供します。Pro Tools HDXやMADIにも対応し、既存システムとの統合にも対応。イーサーネットケーブルで完結するシンプルなセットアップ、信頼度の高いオーディオ伝送、ネットワーク形成による自由なルーティングなど、Danteの持つ利点を最大限に享受することが可能です。
◎主な特徴
・柔軟で拡張性の高いシステム設計
・ネットワーク内であれば完全に自由なルーティング
・Pro Tools | UltimateやMADIなどの既存システムとの統合性の高さ
◎システム構成例1
RedNetシリーズによるレコーディング用途のスタジオセットアップ例。豊富なI/Fにより音声信号の入り口から出口までをDanteによって完結することが可能。Pro Tools | HDXシステムとの統合により、既存のワークフローを最大限維持したまま、Danteによる利点を導入します。システムの中心にコンソールがない環境でも、マイクプリ、キュー/トークバック、モニターコントロールといった業務に欠かせない機能を手元からコントロールすることが出来ます。
◎システム構成例2
コンパクトなDanteシステムに、WAVESプロセッシングを追加した例です。1Uの筐体に8IN/10OUTアナログ(マイクプリ4機を含む)、16x16デジタル、32x32Danteという豊富なI/Oを備えたRed4PreはDigiLinkポートも標準搭載。WGS Bridge for DanteがDanteネットワークとSoundGridネットワークをシームレスに統合。システムにニアゼロ・レイテンシーのWAVESプロセッシングを追加します。
Post
2018/06/13
Pro Tools | S6 + Pro Tools | MTRX ~ミキシングを再定義する革新的コンソール・ソリューション~
DAWの進化とともに、今ではほとんどすべての作業はPro Toolsの内部ミックスで完結するようになりました。Pro Tools | S6は豊富なビジュアル・フィードバックと高いカスタマイズ性・拡張性により、Pro Toolsが持つ多くの機能へより素早く確実にアクセスすることを可能にします。Avid最新のI/OでもあるPro Tools | MTRXに備わるモニターコントロールセクションはPro Tools | S6からコントロールすることが可能。高品位なサウンドをPro Toolsシステムに提供するだけでなく、Pro Tools | S6システムを最新のミキシング・ソリューションへと昇華します。
◎主な特徴
・圧倒的に豊富なビジュアルフィードバックにより、必要な情報を素早く確実に把握。
・モジュール方式のハードウェアは必要十分な規模での導入と、導入後の拡張に柔軟に対応。
・タッチスリーンを採用したセンターセクションで、多くの機能を素早くコントロール。
・Pro Tools | MTRXとの連携により、モノ、ステレオからマルチチャンネル・モニタリングまでを完璧にコントロール。
・最大8までのEucon対応アプリケーションを同時にコントロール。大規模セッションでも効率的にオペレートが可能。
◎システム構成例1
Pro Tools | S6 + Pro Tools | MTRXのもっともシンプルな構成。Pro Tools | MTRXは筐体にMADIポートを備えるほか、必要に応じてオプションカードを追加すれば様々な信号のハブとしてまさにコンソールとしての役割を担うことが可能です。
◎システム構成例2
最大8つまでのEUCON対応DAW/アプリケーションと同時に接続可能なPro Tools | S6のポテンシャルを活用すれば、複数のPro Toolsシステムを1枚のサーフェースでコントロールすることが可能です。フェーダーひとつから、どのシステムのどのチャンネルをアサインするかを選択出来るため、各DAWでS6のエリアを分担して作業することも可能です。
Music
2018/06/12
Pro Tools | S3+Pro Tools | Dock ~Mixをフィジカルにコントロールするプロフェッショナルシステム~
Avid製ライブコンソールS3Lのために開発された堅牢性とスムースな操作性を兼ね備えた16フェーダーのコントロールサーフェスPro Tools | S3。Pro Tools | S6で培われたノウハウを詰め込んだPro Tools | Dock。コンパクトでありながらミックスをパワフルにコントロールするこの組み合わせがあれば、大型コンソールに匹敵するほど効率よくミックス作業を行うことが可能になります。
主な特徴
・上位モデルならではの堅牢でスムースな16フェーダー、豊富なノブ/スイッチ、タッチストリップなどにより、プロジェクトを素早く俯瞰、コントロールを容易にします。(Pro Tools | S3)
・4in/6outのCore Audioインターフェースとして動作(Macのみ)。2つのXLR(Mic/Line)、2つのTRS(Line)インプットも兼ね備え、ボーカルやギターを急遽追加しなければならないような時にも素早く対応が可能。(Pro Tools | S3)
・Pro Tools | Control appをインストールしたiPadとともに使用することで、Pro Tools | S6のセンターセクションに匹敵するコントロールを実現。(Pro Tools | Dock)
・iPadによるタッチスクリーンと高品位なハードウェアにより、スピードと操作性を両立。(Pro Tools | Dock)
システム構成
iPadはWiFi圏内にあればPro Tools | Control appからPro Toolsをコントロールすることが出来ます。iPadを持ってブースへ入り、ブースからレコーディングを開始/停止するなどの操作が可能。LANポートを備えたWiFiルーターを導入することで、S3、Dock、コンピューターのネットワークとiPadの安定運用を同時に実現する組み合わせがお勧めです。ご要望に合わせたiPad、WiFiルーターのモデルをお見積もりいたします。
Post
2018/06/10
Pro Tools | Ultimate + HD MADI ~多チャンネル伝送を実現したコンパクトシステム~
多数のチャンネルを扱うことの多いポストプロダクション業務。5.1chサラウンドが標準となり、Dolby Atmosや22.2chなどのイマーシブサラウンドが浸透していくことで、MA作業で必要とされるチャンネル数はさらに増加していくと考えられます。Pro ToolsシステムのI/OにPro Tools | HD MADIを選べば、わずか1Uの筐体でHDXカード1枚の上限である64ch分の信号を外部とやりとりすることが可能になります。96kHz時も48kHz時と同様、64chを伝送することが出来ることも大きな利点です。
◎主な特徴
・わずか1ラック・スペースのインターフェースと2本のケーブルを介して、最大64のオーディオ・ストリームをPro Tools | HDシステムと他のMADIデバイス間で送受信できます。
・すべての入出力を超高品質でサンプルレート変換できます。セッションを変換したり、外部MADIデバイスをダウンサンプリングしたりする面倒な作業は不要です。
・別のフォーマット・コンバーターを用意することなく、オプティカル接続と同軸接続の両方で、さらに多様なMADIデバイスをレコーディングのセットアップに追加できます。
・出力に対してサンプル・レート変換を使用する際、専用のBNCワード・クロックおよびXLR AES/EBU接続を介して外部クロックと同期することで、ジッターを最小限に抑えます。
◎システム構成
Pro Tools | HD MADIの構成は、HDXカード1枚に対してI/O 1台という極めてシンプルなもの。MADI対応の音声卓となら直接接続が可能なほか、音声卓との間にMADIコンバーターを導入すれば、Pro Toolsと様々なデバイスを多チャンネルで接続することが可能となります。
Media
2018/05/23
株式会社カプコン様 / Dynamic Mixing Room-[B] / [W]
日本を代表するゲーム会社カプコン。前号でもリニューアルしたDynamic Mixing Stageをご紹介したが、それに続いて新たにDynamic Mixing Room-[B]とDynamic Mixing Room-[W]が作られた。VR、イマーシブといった言葉が先行しているゲーム業界におけるオーディオのミキシングだが、それらのコンテンツを制作する現場はアプローチの手法からして大きな変革の中にある。ゲームではカットシーン(ユーザーが操作をせずに動画が再生され、ストーリを展開する部分)と呼ばれるMovieとして作られたパートが次々と減少し、昨年リリースの同社『バイオハザード7 レジデント イービル』では遂にカットシーンが全くないというところにまでたどり着いている。こういった背景もあり、しっかりとした音環境でDynamic Mixingを行える環境というものが切望されていた。その回答が前回ご紹介したDynamic Mixing Stageであり、今回のDynamic Mixing Roomとなる。
◎求められていたDynamic Mixing「Room」
昨年のDynamic Mixing Stageは各素材の最終確認、そして最後の仕上げという部分を重点的に担っているが、その途中の生成物であるオーディオデータが全てファイナルのミックス時点でオブジェクトに埋め込まれ、プログラムされていくわけではない。しかし、オーディオデータをプログラムに埋め込み、他のサウンドとの兼ね合いを確認しながら作業を行う必要が日に日に大きくなっているのが現状だ。カプコンでは各スタッフに専用のパーテーションで区切られたブースが与えられ、5.1chでの視聴環境が用意されている。ただし、あくまでも仮設の環境であり、スタジオと比べてしまえば音環境としてお世辞にも良いと言えるものではない。ほかにもPro Toolsが常設された防音室が用意され、そこへシステムを持ち込み確認作業が行えるようになっていたが、常設のシステムに対して持ち込みのシステムを繋ぎ込む必要があるため、それなりのエンジニアリング・スキルが要求される環境であった。この環境改善を図ったのが今回の目的の第一点となる。
もちろん、ここにはサウンドクオリティーへの要求も多分に含まれる。海外のゲーム会社を視察した際に、クリエイター各自が作業スペースとしてスタジオクラスの視聴環境で作業しているのを目の当たりにした。これが、世界中のユーザーに対してゲーム開発をおこなうカプコンとして、同じクオリティーを確保するための重要な要素と感じた。各クリエイターが、どれだけしっかりとした環境でサウンドクオリティーを確認することが出来るのか。これこそが、各サウンドパーツレベルのクオリティーの差となり、最終的な仕上がりに影響をしているのではないか、ということだ。これを改善するため、自席のシステムそのままにサウンドの確認を行うことのできるDynamic Mixing Roomへとつながっている。
さらにもう一つ、VRなど技術の発展により、3Dサラウンド環境での確認が必要なタイトルが増えてきたというのも新設の大きな要因。昨年、Xbox OneがDolby Atmosに対応したことなどもその一因となったそうだ。今回はスピーカーの増設だけでその対応を行うということではなく、やるのであればしっかりとした環境自体を構築する、という判断を後押しするポイントになったという。
そして、Dynamic Mixingにおいてサウンドを確認するためには、DAWからの出力を聴くのではなくゲーム開発機からの出力を聴く必要がある。ゲームエンジンが実際に動き、そこにオーディオデータがプログラムとして実装された状況下でどの様に聴こえるのか、プログラムのパラメーターは正しかったか?他のサウンドとのかぶりは?多方面から確認を行う必要があるからだ。そうなると、自分の作っているゲームの開発機を設置して、繋ぎ込んで音を聴くというかなりの労力を要する作業を強いられてしまう。
すでに開発中のデータ自体はネットワーク化されておりサーバー上から動くが、端末はそのスペックにあった環境でなければ正確に再現されない。今回のDynamic Mixing Roomはそういった労力を極力減らすために設計された部屋ということになる。そのコンセプトは利便性とスピード感。この二つに集約されるということだ。
◎部屋と一体になった音響設計
実はこの部屋にはDAWが存在しない、2つの鏡写しに作られた黒い部屋と白い部屋。その間の通路に置かれたラックに開発PCを設置して作業が行えるようになっている。接続された開発PCはHDMIマトリクススイッチャーを経由してそれぞれの部屋へと接続される。開発PCの音声出力はHDMIのため、部屋ではまずAV ampに接続されデコード、モニターコントローラーの役割として導入されたRME UFX+を経由してスピーカーを鳴らす。なぜRME UFX+がモニターコントローラーとして採用されているかは後ほど詳しく説明するとして、まずはサウンドに対してのこだわりから話を始めたい。
この環境を作るにあたりリファレンスとしたのはDynamic Mixing Stage。こちらと今回のDynamic Mixing Roomでサウンドの共通性を持たせ、迷いのない一貫した作業を実現したいというのが一つの大きなコンセプト。全てのスピーカーは音響設計を行なったSONAのカスタムメイドでバッフルマウントとなっている。サラウンド側、そして天井に至るまで全てのスピーカーがバッフルマウントという部屋と一体になった音響設計が行われている。このスピーカーは全てバイアンプ駆動され、そのマネージメントを行うプロセッサーはminiDSPが採用されている。miniDSPはFIRフィルターを搭載し、位相問題のないクリアなコントロールを実現している。しっかりとした音響設計がなされたこのDynamic Mixing RoomはDynamic Mixing Stageと高いサウンドの互換性を確保できたということだ。今後はDynamic Mixing Stageで行われているダイヤログの整音と並行してDynamic Mixing Roomで実装された状態での視聴を行う、といった作業も実現できる環境になっているということ。もちろん、同じクオリティーでサウンドを確認できているので、齟齬も少なく済む。まさに「スピード感」というコンセプトが実現されていると言える。
◎RME Total Mixで実現した柔軟なモニターセクション
それでは、次にRME UFX+の部分に移っていきたい。UFX+の持つTotal Mixを使ったモニター機能は非常に強力。複数のマルチチャンネルソースを自由にルーティングすることが出来る。これまで自席で仕込んだサウンドをしっかりした環境で聴こうと思うと、前述のように自席のPC自体を移動させて仮設する必要があった。この作業をなくすために、DiGiGridのネットワークが構築されている。それぞれのPCからの音声出力はDiGiGridのネットワークに流れ、それがDynamic Mixing RoomのUFX+へと接続。もちろんDiGiGridのままでは接続できないため、DiGiGrid MGO(DiGiGrid - Optical MADI Convertor)を介しMADIとして接続されている。
開発PCからのHDMIはAV ampでデコードしてアナログで接続され、各スタッフの自席PCからはDiGiGirdネットワークを介して接続、ということになる。これらの入力ソースはRME Total Mix上でモニターソースとしてアサインされ、ARC USBによりフィジカルにコントロールされる。このフィジカルコントローラーの存在も大きな決め手だったということだ。そもそも複数の7.1.4サラウンドを切り替えようと思うと具体的な製品がなかなか存在しない。フィジカルコントロールも必要となるとAVID S6 + MTRX、TAC System VMC-102 + MTRXといった大規模なシステムになってしまうのが実情。リリース予定の製品にまで目をやったとしてもGrace Design m908がかろうじて実現出来るかどうかというレベルとなる。その様な中でUFX+とARC USBの組合せは過不足のない機能をしっかりと提供することが出来ており、フィジカルなコントローラーを手に入れたことで使い勝手の高いシステムへと変貌している。実は、Total MixのモニターコントロールはRock oN渋谷店頭でスピーカー試聴の切替にも使用されている。こちらも試聴中に数多くの機器をスムーズに切り替える必要があるのだが、その柔軟性が遺憾なく発揮されている実例でもある。
◎利便性とスピード感を具現化
このDynamic Mixing Roomは3Fに位置しており、先行してDiGiGridのネットワークが構築されたコンポーザーの作業場は14Fとかなり距離が離れていたが、その距離も既存のネットワーク回線を活用することで簡単に連携が実現ができた。ここはネットワークが会社中に張り巡らされているゲーム会社ならではの導入障壁の低さかもしれないが、追加で回線を入れるとしてもネットワーク線の増設工事であれば、と考えてしまうところでもある。ちなみに自席PCはDynamic Mixing Roomから画面共有でリモートしている。画面共有サービスもブラッシュアップされておりレスポンスの良い作業が実現したこともこのシステム導入の後押しになったということだ。
今後は、コンポーザーだけではなくSEスタッフの自席も活用しようと検討しているということだ。全社で70名近いというサウンドスタッフすべてのPCがDiGiGrid Networkを介してつながる、まさに未来的な制作環境が実現していると言えるのではないだろうか。自席PCでサウンドを仕込みながら、持ち込んだ開発PCに実装し、その場で確認を行う。理想としていた制作環境に近づいたということだ。また、開発PCを複数置けるだけのスペースも確保したので、タイトルの開発終了まで設置したままにできる、ということも大きい。HDMI出力と操作画面用のDVI、そして操作用のUSB、これらの繋ぎ変えだけで済むということは、これまで行なっていたPCごと移動するスタイルからの大きな進化。利便性とスピード感。このコンセプトに特化した環境が構築されたと言えるのではないだろうか。
また、Dynamic Mixing Roomには常設のMouseもKeyboardも無い。自席と同じ様な作業環境を簡単に構築できるという考え方のもと、機材の持ち込みは自由にされているということだ。共有の設備にも関わらず、PCもなければMouseもKeyboradもない。少し前では考えられなかったような設備が完成した。言わば「何も置かない」というミニマルさが、ゲームの開発という環境に特化して利便性とスピード感を追求した結果。これは、ゲーム制作だけではなくシェア・ワークフローそのものを考える上で大きな転換点に来ているということを実感する。
すでにITでは数年前からSaaS(Software as a Service)という形態が進化を続けている。手元にあるPCはあくまでも端末として、実際の処理はクラウドサービスとして動作をしているシステム。映像の業界はすでにSaaS、クラウドといったイントラネットから飛び出したインターネット上でのサービスの活用が始まっている。今後は、サウンドの業界もこの様な進化を遂げていくのではないか、そのきっかけとなるのが今回のカプコン Dynamic Mixing Roomの実例なのではないかと感じている。
(手前)株式会社カプコン サウンドプロダクション室 室長 岸 智也 氏 / (奥左)同室 コンポーザー 堀 諭史 氏 / (奥右)同室 オーディオ・ディレクター 鉢迫 渉 氏
*ProceedMagazine2018Spring号より転載
Post
2018/05/23
株式会社タノシナル様 / 多様なスペースが連携するタノシナルな空間
2012年創業のタノシナル。その社名「タノシナル」は関西弁で「楽しくなる」という意味。TV局など制作の第一線で働いていたスタッフが起業した会社だ。「世界にタノシナルことを発信し続ける」という企業理念を掲げ、近年大きな飛躍を遂げている。そのタノシナルが「生きた時間と空間を可視化する」というコンセプトのもとに昨年オープンしたのが、新オフィスとカフェやショップなどが併設された複合施設「CASICA」。ROCK ON PROではこちらに新設されたMAスタジオのお手伝いをさせてもらったのだが、ここからどんな「タノシナルこと」を生み出そうとしているのか?興味深い新たな業態について様々な角度から伺った。
◎多様なスペースを持つCASICA
現在、タノシナルはコンテンツ制作とイベント制作を主に手掛けるかたわら、同じ建物内でCASICAの運営も行っている。映像やWebなどの制作は、受け手との距離感を縮めることが難しい。そこで、「実際に行かないと体験出来ない空間」を作りたかったというのだ。新木場という立地に材木倉庫をリノベートした空間として誕生した「CASICA」、その存在は何を可視化しているのだろうか?まずは1階部分を見ていきたい。
「生きた時間と空間を可視化する」そのコンセプトに基づいたショップには、古いものと新しいものが区別なく並んでいる。古いものの良さを押しつけるわけでもなく、新しいものの魅力を伝えるだけでもない。それを見た人の感性に委ねる、そんな空気が感じられる。材木倉庫を改造したショップには天井高のある空間を活かして商品が並べられている。やはり高さのある空間というのは、平面では語りきれない広がりをもたらしていると感じる。
「CIRCUS」の鈴木善雄氏のディレクションによるこの空間に入ると、難しく考えるのではなく「何でも良いんだな」とホッとする感情が湧いてくる。カフェのメニューは、身体からの声に耳を傾け、薬膳やアーユルヴェーダの考えをベースに、食や飲み物を通して身体の求めることを可視化。心身の調和を日常から整え、朗らかで心地よい毎日が送れる「食」、をテーマにしている。
そしてショップに設けられたギャラリースペースだが、元々材木倉庫だった建物ということもあり、吹き抜けの空間(木材の昇降用クレーンがあった場所)を利用し、間口は狭いけれど中に入ると天井高13メートルという異空間を演出。取材で伺った際は多治見の焼き物が飾られていたのだが、オープン当初は古いトランクケースの塔(!)がそびえていたとのこと。現在はCASICAで企画をしていろいろと展示を行っているが、今後は個展などの開催も視野に入れているとのことだ。
さらにCASICAの1Fには木工所までもがある。空間デザインを行なった鈴木善雄氏が代表を務める「焚火工藝集団」の職人たちを中心に、シェアオフィス的に活用をしているということだ。古道具・古家具のリペアであったり、新しいものづくりであったり、ここでも新しい、古いにとらわれない制作が行われている。
◎タノシナルな情報発信
2階には、タノシナルのオフィスがある。冒頭にも記したようにタノシナルは、TV番組の制作に関わっていたスタッフが起業した会社。番組制作も行いつつ、さらにそのノウハウを生かした企業向け映像制作、イベントの制作も行ってきた。その中でも、大成功を納めたのが「品川やきいもテラス」と銘打ったイベント。品川シーズンテラスに全国各地の焼き芋を集め、焼き方、芋の種類それぞれにこだわった数々の焼き芋を楽しめるイベントとして開催された。都心で焼き芋のイベントをやってもそれほど人は集まらないと考えていたが、なんと1週間で3万人が来場!!「真冬に屋外で焼き芋食べたら美味しいよね〜」そんなアイデアに共感して集まったのが3万人と考えると、焼き芋のパワーを感じずにはいられない。写真を見ても来場者の笑顔がはじけているのが分かる。寒空の下で熱々のこだわりの焼き芋を食べる、いつの時代になっても変わらない普遍的な暖かい幸せがそこにはある。ちなみに2018年の第2回は4万3千人が集まったそうだ。
この様に「タノシナル」はやきいもテラスのように楽しさを持ったカルチャーを発信するのが非常に得意。情報の発信力というか、やはりTVに関わるスタッフの見せ方のうまさ、展開力、行動力、そういったバックグラウンドが非常に生きていると感じる。イベント制作を行い、それをWebなどで自己発信を行う。そういった一連の活動が、高いクオリティーとスピード感を持って行われているということだろう。
◎MA/撮影スタジオ新設、ワンストップ制作を実現
もちろん現在もTVの番組制作を請け負っていて、企画、制作、編集を行っている。これまで、MAだけは外部のポストプロダクションを利用していたのだが、「CASICA」への移転にともない完全に社内ワンストップでの制作を行いたい、ということになり、MAスタジオ、そして撮影スタジオがCASICA内に新設されることになる。MAスタジオを作るという意見は社内ではすぐにOKが出て具体的にスタートを切った。しかし、編集のノウハウは十分にあったが、MAは外注作業であったため、そのノウハウは社内にはない。そこでROCK ON PROとの共同作業の中から過不足の無いシステムアップを行なったというのが当初の経緯。なお、MA新設となったきっかけの一つとしては、近年MA作業を行うための機器の価格が安くなったことが大きいという。年間で外注として支払うMA作業費は、自社でスタジオを持てば2年程度でリクープできるのではないか、というチャレンジも込められているとのことだ。
また、MA室を作る上で音の環境にはこだわった。港、そして倉庫が多いこの地域、近くの幹線道路では24時間ひっきりなしに大型トラックが行き交う。リノベート前の建物の壁はコンクリートパネル一枚、天井も同様にコンクリートパネル一枚。倉庫という最低限の雨露がしのげることを目的とした建物であり、お世辞にも、壁が厚く、躯体構造がしっかりしている、というわけではなかった。今回の新設では、そこに浮床・浮天井構造でしっかりと遮音を行い、またMA室自体の位置も建物の中央に近い場所に設定して外部からの音の飛び込みを遮断している。
もう一つ音に関する大切なポイントは、他のMA室と遜色のないモニタリング環境を整えるということ。やはり、他のMA室での作業に慣れているスタッフから、サウンドのクオリティーにがっかりしないように音質を保ちたい、との声が上がった。そこで、モニターコントローラーにはGrace Designのm905、モニタースピーカーにはADAM S3V とFocal Solo6 Be という組合せ。DAW はPro Tools HDXを中心としたシステムであるが、その出力段はこだわりを持ったシステムとしてサウンドクオリティーを高めている。限られた予算を要所へ重点的に投入することで、最も大切なクオリティーを手に入れたお手本のような環境ではないだろうか。
社内制作のMA作業はもちろんだが、外部のお客様からのMA作業受注や、スタジオ貸出も行っている。外部エンジニアの方にも違和感なく作業を行なっていただけているということだ。やはり音への対処をしっかりと行ったことで、サウンド面でも使いやすいスタジオになっている、ということだろう。サウンド以外でも評価されているポイントが、併設されたCASICAカフェで美味しい食事を冷めることなく楽しむことができる、ということ。やはり、カフェ併設となっている点は、このスタジオにとって非常に大きなアピールポイントであり、長時間の作業が当たり前だからこそ、そのホスピタリティーは心に沁み入る。同じフロアの撮影スタジオは、キッチンスタジオを備えた白壁の空間。撮影がない時間には会議室としても活用するなど、多用途なスペースである。こちらも外部に貸出をしているということなので、興味のある方は問い合わせてみてはいかがだろうか?
今回は機材のみではなく、そのスペースや業態をどう活かして音響制作と連携しているのかという事例を追ったが、そこには垣根のないクリエイティブが存在していたと言えるのかもしれない。日々「タノシナル」なことを生み出しているという同社では、毎月全体での会議が行われ社員からのアイデアを集めているそうだ。そのアイデアも会議で賛同を得られると、早い場合では1ヶ月程度で形になるという。このスピード感が次々と業務を加速させ、2012年に6人で立ち上げたタノシナルはすでに40名以上のスタッフ規模になっている。TV番組・イベントなどの制作をしているスタッフ、そしてスタジオのエンジニア、ショップスタッフ、カフェスタッフ、そういった様々なスタッフが一緒になって「タノシナル」ことを考える。企画とその成長が非常に良い循環となり、シナジーを生み成長している、そんな空気が感じられる取材となった。
Post
2017/11/14
株式会社Zaxx 様 / GZ-TOKYO ROPPONGI
「いまスタジオを新規で作るのであればDolby ATMOS対応は必ず行うべきだ」という強い意志で設計された株式会社Zaxx / GZ-TOKYO ROPPONGI AS 207をレポートする。同社を率いる舘 英広 氏は中京テレビ放送株式会社の音声技術出身。その現場で培った音に対するこだわり、そしてその鋭い感覚によってこのスタジオは計画された。
◎「これからのオーディオはこれしかない!!」
きっかけは、名古屋にDolby ATMOS対応の映画館が出来た際に、そこで作品を見た瞬間にまで遡るという。テレビ業界を歩んできた舘氏は国内でのサラウンド黎明期より、その技術に対しての造詣が深く、またいち早く自身でもその環境でのミキシングを行っていたというバックグラウンドを持つ。名古屋地区で一番最初にサラウンド環境のあるMAスタジオを持ったのが株式会社Zaxxであり、それをプランニングしたのが舘氏である。地場の放送局がまだ何処もサラウンドの環境を持っていない中でサラウンド対応のMAスタジオを作る。そのような先進性に富んだ感覚が今回のスタジオにも感じられる。
舘氏がDolby ATMOSの作品を映画館で見た際に感じたのは「これからのオーディオはこれしかない!!」というほどの強いインパクトであったという。これまでの平面サラウンドの枠を飛び出した上空からのサウンド、そしてオブジェクトにより劇場中を自由に飛び回るサウンド。次にスタジオを作るのであれば、Dolby ATMOS対応しかないと感じたということ。そしてその思いを実際に形にしたのが、今回のGZ-TOKYO ROPPONGI AS 207だ。仕事があるのか?無いのか?という消極的な選択ではなく、良いものであるのならばそれを作れる環境を用意しよう。そうすればそこから生まれる仕事は絶対にある。仕事が無いのであれば、仕事を作ればいい。それも経営者としての自身の仕事だという。
とはいえ、突然映画のダビングステージを作るという飛躍はなく、従来の作業も快適に行なえ、その上でDolby ATMOSの作業も行うことができる環境を整備するという、今回のGZ-TOKYO ROPPONGIのコンセプトへとその思いは昇華している。
スタジオのシステムをご紹介する前にスタジオに入ってすぐのロビーに少し触れたい。受付があって、打合せ用のスペースがあって、というのが一般的だがGZ-TOKYO ROPPONGIはソファーとバーカウンターがあり、4Kの大型TVでは最新の作品が流れている。新しいアイデアを出すためのスペースとしてその空間が作られているという印象を受けた。また、編集室、MA室の扉はひとつづつが別々のカラーで塗られ、全7室が揃うと一つの虹となるようにレインボーカラーの7色が配置されている。床にもその色が入っており非常にスタイリッシュな仕上りだ。編集室はあえて既存のビルの窓を潰さずに、必要であれば自然光が入るようになっているのも特徴的。もちろん通常は遮光されており色味が分からなくといったことはないが、必要とあれば開放感あふれる空間へと変えることもできる。スペースの居住性にも配慮した意志が感じられる部分だ。
◎9.1.4chのATMOSシステム
前述のようにMAスタジオを作るのであればDOLBY ATMOSは外せない、というコンセプトを持って完成した今回のGZ-TOKYO ROPPONGI AS 207。こちらに導入されたシステムは、Dolby ATMOS Homeに準拠した9.1.4chのシステムとなっている。部屋に対して最大限のスピーカーを設置しDolby ATMOSの良さを引き出そうというシステムだ。一般的な7.1chのサラウンドシステムに、サイドL,Rが追加され、一番間隔の空くフロントスピーカーとサラウンドスピーカーの間を埋める。実際に音を聴くと、フロントとリアのつながりが非常に良くなっていることに気づく。そして、トップには4chのスピーカー。Dolby ATMOS Homeの最大数が確保されている。スケルトンで4mという極端に高さがある物件ではないが、それでもトップスピーカーをしっかりと設置出来るという良いお手本のような仕上がり。天井平面からしっかりとオフセットされ、真下に入って頭をぶつける心配もない。防音、遮音のために床も上がり、天井も下がる環境の中でこの位置関係を成立させることが出来るというのは、今後Dolby ATMOS対応のスタジオを作りたいという方には朗報ではないだろうか。こちらは、音響施工を担当された日本音響エンジニアリング株式会社のノウハウが光る部分だ。
スピーカーの選定に関しては舘氏のこだわりがある。中京テレビの音声時代から愛用しているというGenelecが今回のスタジオでも候補から外れることはなかった。今回Stereo用のラージに導入された1037B等の1000番台を長く使用してきた中、舘氏にとって初めての8000番台となる8040(平面9ch)、8030(Top 4ch)をDolby ATMOS用に導入したということ。従来のラインナップに比べてサウンドのキャラクターは大きく変わっていないが、高域が少しシャープになったという印象を持っているということだ。
Dolby ATMOS導入スタジオには必ずと言っていいほど設置されているDolby RMUがこのスタジオにはない。これはDolbyの提供するSoftware Rendererの性能が上がり、マスタリング以外の作業のうちほぼ9割方の作業が行えるようになったという背景がある。Home向けであれば仕込みからミキシングまでSoftware Rendererで作業を行うことが出来る。Cinema環境向けであったとしても、この環境でオブジェクトの移動感などを確認することももちろん可能だ。仕上がった作品をRMUを持つスタジオでマスタリングすれば、Dolby ATMOSのマスターデータが完成するということになる。RMUの導入コストと、その作業が行われる頻度などを考え、また本スタジオへMAエンジニアの派遣も行うBeBlue Tokyo Studio 0にRMUがある、というのも大きな理由になったのではないだろうか。なお、本スタジオのシステム導入時点でリリースされていなかったということもあり、Pro ToolsはVer.12.8ではなく12.7.1がインストールされている。Avidが次のステップを見せている段階ではあったが、堅実に従来のワークフローを導入している。
◎DAD + ANDIAMO + VMC、充実のI/F
AS 207のPro ToolsシステムはPro Tools HDX1、Audio InterfaceはDAD DX32が直接Digilinkで接続されている。そして、そのフロントエンドにAD/DAコンバーターとしてDirectout ANDIAMOが加わる。SYNC HDと合わせてもたった3Uというコンパクトなサイズに、32chのAD/DA、3系統のMADI、16chのAESと充実のインターフェースを備えたシステムだ。ただし、充実といっても9.1.4chのスピーカーアウトだけで14chを使ってしまう。またVUも10連ということで、こちらも10ch。さすがはDolby ATMOSといった多チャンネルサラウンドとなっており、その接続も頭を悩ましてやりくりをした部分でもある。ちなみに、MacProはSoftware Rendererを利用する際の負荷に1台で耐えられるようにカスタムオーダーでスペックアップを行っている。
Dolby ATMOSの9.1.4chのモニターコントロールはTACsystem VMC-102で行っている。柔軟なモニターセクションと、国内の事情を熟知したコミュニケーションシステムとの連携はやはり一日の長がある。コミュニケーションにはIconicのカスタムI/Fを通じてTB BoxとCuf Boxが接続されている。この部分も事前に接続試験を入念に行い、コストを押さえたカスタムI/Fで必要機能を実現できるのか、株式会社アイコニック 河村氏と検証を行なった部分でもある。なお、今回の導入工事は河村氏の取りまとめで進行した。河村氏は冒頭でも述べた名古屋地区で初めての5.1chサラウンドを備えたMA studioや中京テレビのMA室からと舘氏とも長い付き合い。その要望の実現もアイデアに富んだシステムアップとなった。
◎前後する机で出現する快適な作業空間
Dolby ATMOSのシステムを備えたAS 207だが、やはり普段はステレオ作業も多いことが予想される。サラウンドサークルを最大に確保したセンターのリスニングポジションでは、後方のお客様スペースが圧迫されてしまう。そのためStereoの作業時には、机がコンソールごと前に30cmほど移動する仕掛けが作られた。左右にレールを設け、キャスターで移動するのだが、それほど大きな力をかけずに、簡単に移動することが出来る。机にはMac Proを始めとした機器類のほとんどが実装されているにもかかわらず、これだけ簡単に動く工夫には非常に驚かされる。これにより、Stereo時にはミキサー席後方に十分なスペースが確保され、快適な作業環境が出現する。そしてDolby ATMOSでの作業時には部屋の広さを最大限に活かした、音響空間が確保されるということになる。
◎S6と独立したサラウンドパンナー
コンソールについて、今回のスタジオ設計における初期段階で検討されていたのはAvid S6ではなかったのだが、中京テレビに新設されたMA室のお披露目の際に、導入されたAvid S6を見て新しい部屋ならこのシステムが必要だと直感的に感じたということ。DAWのオペレートは舘氏自身では行わないということだが、音声技術出身ということから現場でのミキシングなど音に触れる作業はいまでも行っている。その機材に対する感性からAvid S6がセレクトされたということは、販売する我々にとっても嬉しい出来事であった。その後検討を重ね、最終的にはフェーダー数16ch、5ノブのS6-M10が導入されている。ディスプレイ・モジュールに関しては、いろいろと検討があったがVUの設置位置との兼ね合い、リスニング環境を優先しての判断となっている。写真からもVU、そしてPC Dispalyの位置関係がよく練られているのが感じられるのではないだろうか。
そして、S6の導入のメリットの一つであるのが高性能なサラウンドパンナーオプションの存在。フレームに組み込むのではなく、個別にした箱に仕込んで好きな位置で操作出来るようにしている。やはりサラウンドパンニングはスイートスポットで行いたい。しかし、ステレオ作業を考えるとフレームの中央に埋め込んでしまっては作業性が損なわれる。その回答がこちらの独立させたサラウンドパンナーということになる。机と合わせ、部屋としての使い勝手にこだわった部分と言えるのではないだろうか。
◎動画再生エンジンにはVideo Slaveを採用
動画の再生エンジンには、ROCK ON PROで2017年1月よりデリバリーを開始したNon-Leathal Application社のVideo Slaveを導入していただいた。Pro ToolsのVideo Track以上に幅広いVideo Fileに対応し、Timecodeキャラのオーバーレイ機能、ADR向けのVisual Cue機能などMA作業に必要とされる様々な機能を持つ同期再生のソリューションだ。4K Fileへの対応など将来的な拡張性もこのアプリケーションの魅力の一つとなっている。VTRから起こしたキャラ付きのMovieデータであればPro ToolsのVideo Trackで、今後増えることが予想されるノンリニアからの直接のデータであればVideo Slaveで、と多様なケースにも対応できるスタンバイがなされている。
◎ニーズに合わせた大小2つのブース
ナレーションブースは大小2つの部屋が用意されている。MA室自体もはっきりとサイズに差を付けて、顧客の幅広いニーズに対応できるようにしている。これはシステムを構築する機材の価格は下がってきているので、ニーズに合わせた広さを持った部屋を準備することが大切という考え方から。大きい方のブースには、壁面にTVがかけられ、アフレコ作業にも対応できるようにセットアップが行われている。逆に小さい方の部屋は、ナレーション専用。隣合わせに2名が最大人数というはっきりとした差別化が図られている。ただし、運用の柔軟性を確保するために2部屋あるMA室からは両方のブースが使用できるようなしくみが作られており、メリハリを付けつつ運用の柔軟性を最大化するという発想が実現されている部分だ。
音声の収録にもこだわりが詰まっている。マイクプリはAD Gear製のKZ-912がブース内に用意され、MA室からのリモートでゲインの調整が行われる。マイクの直近でゲインを稼ぐことで音質を確保する、というこの理にかなった方法は、高価なリモートマイクプリでしか利便性との両立が図れないが、ここが音質にとっていちばん大切な部分ということで妥協なくこのシステムが導入されている。Pro Toolsへの入力前にはSSL X-Deskが置かれ、ここで入力のゲイン調整が行えるようになっている。そしてアナログコンソールで全てを賄うのではなく、ミキシングの部分は機能性に富んだAvid S6で、となる。収録などの音質に直結する部分はこだわりのアナログ機器で固める、というまさに適材適所のハイブリッドなシステムアップが行われている。このX-Deskという選択は、これまでもコンソールは歴代SSLが使われてきたというバックグラウンドからも自然なセレクトと言える。
◎AS 207と共通した機材構成のAS 208
そしてもう一部屋となるAS 208は部屋自体がコンパクトに設計されStereo作業専用となっているが、そのシステム自体はAS 207と全く同じシステムが導入されている。もちろん、コンソールはスペースに合わせてAvid S3が導入されているが、システムのコアはPro Tools HDXにDAD DX32が接続され、Directout AndiamoがAD/DAとしてあり、モニターコントローラーはTAC system VMC-102とAS 207と共通の構成となる。しかも両スタジオとも内部のMatrixなどは全く同一のプリセットが書き込まれている。片方の部屋でトラブルが発生した場合には、単純に交換を行うことで復旧ができるようにシステムの二重化が図られている。放送の現場感覚がよく現れた堅実性の高いシステム構成である。
Dolby ATMOS対応のスタジオをオフィスビルに、というだけでも国内では大きなトピックであると感じるが、様々な工夫と長年の経験に裏付けられた造詣が随所に光るスタジオである。システム設計を行われた株式会社アイコニック河村氏、音響施工を行われた日本音響エンジニアリング株式会社、そして、快く取材をお受けいただきそのスタジオに対する熱い思いをお話いただいた株式会社Zaxx 代表取締役の舘 英広氏に改めて御礼を申し上げてレポートのくくりとさせていただきたい。
写真手前右側が「Zaxx」代表取締役の舘英広氏、左側が同スタジオで音響オペレーターを務める「ビー・ブルー」の中村和教氏、奥右側からROCK ON PRO前田洋介、「アイコニック」の河村聡氏、ビー・ブルー」の川崎玲文氏
Media
2017/11/14
株式会社カプコン様 / Dynamic Mixing Stage
日本を代表するゲーム会社である株式会社カプコン。もともと7.1ch対応のAVID S6が設置されたDubbing Stage、そして7.1ch対応のAVID D-Control(ICON)が設置されたDynamic Mixing Stageの2部屋を擁していたが、今後起こりうるImmersive Audioの制作へ対応するためDynamic Mixing Stageのシステム更新を行った。今回の更新でDOLBY ATMOS HOME対応のシステムが組まれ、今後AURO 3Dなどにも対応できるよう準備が行われている。
◎Dynamic Mixingというコンセプト
今回、スタジオを改修するにあたりそのコンセプトについても根本的に見直しが行われた。これまで、カプコン社内スタジオ「bitMASTERstudio」は、レコーディングと大型セッションのミキシングを可能とする「Dubbing Stage」と、そのサテライトとして同等の能力を持ちつつ、レコーディングを除いたプリミックスや仕上げの手前までを想定した「Dynamic Mixing Stage」という構成であったが、これを従来型のPro ToolsとS6によるミキシングを中心に行う「Dubbing Stage(旧Dubbing Stage)」と、今回改修を行ったスタジオをゲーム内のインタラクティブシーンを中心としたミキシングを行うための「Dynamic Mixing Stage(旧Dynamic Mixing Stage)」としている。
この「Dynamic Mixing」は、ゲームの中でプログラムによって制御される方法でミキシングを行うことを指している。つまり、このステージはゲーム内のプログラムミキシングを行う場所であり、従来のミキシングステージとは一線を画するものだと考えているとのことだ。したがって、この部屋の音響空間及びシステムの設計思想は「リファレンスとなりうる音を再生できる特性を持ち、プログラムによるミキシングを効率的に行えるシステム」であることを第一義としている。
システムを構築する上で大切にしたことは、WindowsPC内にインストールされたゲームエンジンとオーディオミドルウェアのパラメーターを操作するのと同時に、ゲームに組み込むためのオーディオエディット/ミキシングをPro Tools上で効率的に行えるようにすること。Ultra Wideディスプレイと壁付けのTVによってそれらの情報をすべて表示し、ゲーム音声とProTools上の音声を瞬時に切り替え、あるいは同時に再生することのできるシステムにしておくことは、ゲームオーディオ制作では極めて重要、とのことだ。
◎既存スタジオをブラッシュアップするアイデア
メインのミキシング、ナレーションなどの収録に活躍するDubbing Stageと、ユーティリティ性を持たせプレビューなどにも対応できるように設計されたDynamic Mixing Stage。そのDynamic Mixing Stageはモニター環境をブラッシュアップし新しいフォーマットへの準備を行なった格好だ。部屋自体はそれほど広い空間が確保されているわけではなく、天井高も同様。その中にDOLBY ATMOS、そしてAURO 3Dといった次世代のフォーマットへ対応したモニタリングシステムを導入している。音響設計・内装工事を行った株式会社SONAからも様々な提案が行われ、そのアイデアの中から実現したのが、このスタジオのイメージを決定づける音響衝立と一体となったスピーカースタンドだ。天井に関してはスピーカーを設置するために作り直されており、内装壁も全面改修されているが、壁の防音層と床には手を加えずに最低限の予算で今回の工事を完了させている。
併せてDAWシステムについても更新が行われ、コントローラーはAVID D-Control(ICON)からAVID S3へとブラッシュアップされた。また、Dubbing Stageでモニターコントローラーとして活用されていたTAC system VMC-102はDynamic Mixing Stageへと移設され、マルチフォーマット対応のモニターコントローラーとして再セットアップが行われている。Dubbing Stageのモニターセクションには最新のAVID MTRXがインストールされ、AVID S6からの直接のコントロールによるモニタリングを行うようにこちらも再セットアップされている。
◎フォーマットに対応する柔軟性を持つ
それでは、各パートごとに詳細にご案内を行なっていきたい。まずは、何といっても金色に光り輝く音響衝立。これは完全にカスタムで、背の高いものが8本、低いものがセンター用に1本制作された。その設置はITUサラウンドの設置位置に合わせて置かれている。フロントはセンターを中心に30度、60度の角度で、Wide L/Rを含めたフォーマットとして設置が行われている。サラウンドはセンターより110度、150度と基本に忠実な配置。これらの音響衝立は、天井側のレールに沿ってサラウンドサークルの円周上を移動できるようになっている。これは、物理的に出入り口に設置場所がかかってしまっているため、大型の機器の搬入時のためという側面もあるが、今後この8枚の音響衝立の設置の自由度を担保する設計となっている。この衝立の表面は穴の空いた音響拡散パネルで仕上がっており,内部に吸音材が詰められるようになっている。吸音材の種類、ボリュームを調整することで調整が行えるようにという工夫である。
そしてちょうど耳の高さに当たる部分と、最上部の2箇所にスピーカー設置用の金具が用意されている。この金具も工夫が行われており、上下左右全て自由に微調整が行えるような設計だ。写真で設置されている位置がITU-R準拠のサラウンドフォーマットの位置であり、そのままDOLBY ATMOSのセットアップとなる。最上部の金具の位置はAURO 3D用のものであり、Hight Layerの設置位置となる。現状では、AURO 3D用のスピーカーを常設する予定はなく、AURO 3Dに変更する際には追加でこの位置へスピーカーを設置する事となる。完全に縦軸の一致する上下に設置ができるため、理想的な設置環境といえるだろう。
センターだけはTVモニターとの兼ね合いがあり背の低い衝立となっている、また、AURO 3D用のHC設置はTVの上部に設置用の金具が準備される。そして、TVモニターの下の空間にはサブウーファー2台が左右対象の位置に設置されている。天井にはセンターから45度の角度を取り、4本のスピーカーが正方形に配置されている。これが、Top Surround用のスピーカーとなる。もちろんAURO 3D用にTチャンネル用として天井の中心に金具が用意されている。また、wide L/Rの位置にも音響衝立が用意されているので、現状設置されている7.1.4のフォーマットから、9.1.4への変更も容易になっている。
このサラウンド環境はコンパクトな空間を最大限に活かし、完全に等距離、半球上へのスピーカー設置を実現している。そのために、各チャンネルの音のつながりが非常に良いということだ。また、音響衝立の中にスピーカーを設置したことにより、バッフル設置のようなメリットも出ているのではないかと想像する。スピーカー後方には十分な距離があり、そういった余裕からもサウンド面でのメリットも出ているのではないだろうか。
◎3Dにおける同軸モニターの優位性
今回の更新にあたり、スピーカーは一新されている。カプコンでは以前より各制作スタッフのスピーカーをGenelecに統一している。できるだけ作業スペースごとの視聴環境の差をなくし、サウンドクオリティーの向上と作業効率の向上がその目的だ。そのような流れもあり、Dynamic Mixing StageではGenelecの最新機種である8341がフロントLCRの3ch用として、サラウンド及びTop Layerには一回りコンパクトな8331が選定されている。このモデルは同軸2-way+ダブルウーファーという特徴的な設計のモデル。従来の筐体より一回り小さな筐体で1クラス上の低域再生を実現してるため、DOLBY ATMOSのように全てのスピーカーにフルレンジ再生を求める環境に適したモデルの一つと言える。ちなみに8341のカタログスペックでの低域再生能力は45Hz~(-1.5dB)となっている。従来の8030クラスのサイズでこの低域再生は素晴らしい能力といえるのではないだろうか。また、スピーカーの指向性が重要となるこのような環境では、スコーカーとツイーターが同軸設計であるということも見逃せないポイント。2-way,3-wayのスピーカー軸の少しのずれが、マルチチャンネル環境では重なり合って見過ごすことのできない音のにごりの原因となるためである。
これら、Genelecのスピーカー調整はスピーカー内部のGLMにより行われている。自動補正を施したあとに手動で更にパラメーターを追い込み調整が行われた。その調整には、最新のGLM 3.0のベータバージョンが早々に利用された。GLMでは最大30本のスピーカーを調整することが出来る。そのためこの規模のスピーカーの本数であっても、一括してスピーカーマネージメントが可能となっている。
今回の更新に合わせて新しく作り直したデスクは、部屋のサラウンドサークルに合わせて奥側が円を描く形状となっている。手前側も少しアーチを描くことで部屋に自然な広がり感を与えている印象だ。もちろん見た目だけではなく作業スペースを最大限に確保するための工夫でもあるのだが、非常に収まりのよい仕上がりとなっている。このデザインはカプコンのスタッフ皆様のこだわりの結晶でもある。そしてそのアーチを描く机の上には、AVID S3とDock、モニターコントローラーのTAC system VMC-102、そして38inch-wideのPC Dispalyが並ぶ。PC Displayの左右にあるのは、BauXer(ボザール)という国内メーカーのMarty101というスピーカー。独自のタイムドメイン理論に基づく、ピュアサウンドを実現した製品が評価を得ているメーカーだ。タイムドメインというと富士通テンのEclipseシリーズが思い浮かべられるが、同じ観点ながら異なったアプローチによりタイムドメイン理論の理想を実践している製品である。また、さらにMusik RL906をニアフィールドモニターとして設置する予定もあるほか、TVからもプレビューできるようにシステムアップが行われている。
◎AVID MTRXをフル活用したDubbing Stage
Dynamic Mixing StageのシステムはVMC-102とDirectout TechnologyのANDIAMO2.XTが組み合わされている。DAWとしてはPro Tools HDX2が導入され、I/OとしてMADI HDが用意されている。MADI HDから出力されるMADI信号はANDIAMOへ入り、VMC-102のソースとして取り扱われる。ANDIAMOにはATMOS視聴用のAV AMPのPre-OUTが接続されている。AV AMPはDOLBY ATMOS等のサラウンドデコーダーとしてPS4、XBOX oneなどが接続されている。VMC上ではストレートにモニターを行うことも、5.1chへのダウンミックス、5.1chでリアをデフューズで鳴らす、ステレオのダウンミックスといったことが行えるようにセットアップされている。
ちょっとした工夫ではあるが、AV AMPの出力は一旦ANDIAMOに入った後、VMCへのソースとしての送り出しとは別にアナログアウトから出力され、Dubbing Stageでもそのサウンドが視聴できるようにセットアップされている。実はこのANDIAMOは以前よりスタジオで利用されていたものであり、それを上手く流用し今回の更新にかかるコストを最低限に押さえるといった工夫も行われている。
Dubbing StageはVMC-102が移設となったため、新たにAVID MTRIXが導入されている。Pro ToolsのI/Oとして、そしてS6のモニターセクションとしてフルにその機能を活用していただいている。7.1chのスピーカーシステムはそのままに、5,1chダウンミックス、5.1chデフューズ、stereoダウンミックスといった機能が盛り込まれている。また、CUE OUTを利用しSSL Matrixへと信号が送り込まれ、Matrixのモニターセクションで別ソースのモニタリングが可能なようにセットアップされている。AVID MTRXには、MADIで接続された2台のANDIAMO XTがあり、この2台がスピーカーへの送り出し、メーター、そしてブースのマイク回線、AV AMPの入力などを受け持っている。せっかくなので、Dubbing Stage/Bの回線をAVID MTRXに集約させようというアイディアもあったが、サンプルレートの異なった作業を行うことが出来ないというデメリットがあり、このようなシステムアップに落ち着いている。やはり収録、素材段階での96kHz作業は増加の方向にあるという。従来の48kHzでの作業との割合を考えるとスタジオ運営の柔軟性を確保するためにもこの選択がベストであったという。
AVID MTRXのモニターセクションは、AVID S6のモニターコントロールパネル、タッチスクリーンとフィジカルなノブ、ボタンからフルにコントロールすることが可能である。DADmanのアプリケーションを選択すれば、モニターセクション、そしてCUEセンドなどのパラメーターをAVID S6のフェーダーからもコントロールすることもできる。非常に柔軟性の高いこのモニターセクション、VMC-102で実現していた全てのファンクションを網羅することができた。GPIO等の外部制御を持たないAVID MTRXではあるが、AVID S6と組み合わせることでS6 MTMに備わったGPIOを活用し、そのコマンドをEuConとしてMTRXの制御を行うことができる。もう少しブラッシュアップ、設定の柔軟性が欲しいポイントではあるが、TBコマンドを受けてAVID MTRXのDimを連動することができた。少なくともコミュニケーション関係のシステムとS6 + MTRXのシステムは協調して動作することが可能である。今後、AVID S6のファームアップによりこの部分も機能が追加されていくだろう。日本仕様の要望を今後も強く出していきたいと感じた部分だ。
今回の更新ではコンパクトなスペースでもDOLBY ATMOSを実現することが可能であり、工夫次第で非常にタイトでつながりの良いサウンドを得ることができるということを実証されている。これは今後のシステム、スタジオ設計においても非常に大きなトピックとなることだろう。今後の3D Surround、Immersive Soundの広がりとともに、このような設備が増えていくのではないだろうか。この素晴らしいモニター環境を設計された株式会社SONA、そして様々なアイデアをいただいた株式会社カプコンの皆様が今後も素晴らしいコンテンツをこのスタジオから羽ばたかせることを期待して止まない。
左:株式会社カプコン プロダクション部サウンドプロダクション室 瀧本和也氏 右:株式会社ソナ 取締役/オンフューチャー株式会社 代表取締役 中原雅考氏
*ProceedMagazine2017-2018号より転載
Broadcast
2017/11/14
株式会社テレビ静岡様
◎ファイルベースが導入された新システムがスタート
テレビ静岡は、フジテレビ系列の中部地区における基幹局。2017年の新局舎移転にあたり、2室あるMA室をお手伝いさせていただいた。旧局舎の隣に建てられた新局舎。2つのスタジオと、映像編集、MAと新規に設備の導入が行われた。
これまでは、Marging PyramixをメインDAWにYAMAHA DM2000とAV SmartのTANGOを使用していたテレビ静岡様。新局舎への移転を期に、Pro Toolsシステムへの変更を行なった。Pro Tools | HDをメインDAW、コントローラーにAvid S3とAvid Dockという組合せ。ステレオの作業がメインであるため、シンプルにまとまったシステムとなっている。Videoの再生にはVideo Slave 3 Proが導入されている。
これまでのMarging Pyramixでは同社のVQubeをVideo 再生として利用していたが、Video Slaveへと更新が行われた。これは、トータルのシステムアップの中で、編集との連携を考えた際に、Pro ToolsのもつVideo Trackでは実現できない幾つかの機能を持つことからこの選択となっている。特にタイムコード・キャラのオーバーレイ表示はVideo Slaveの特徴的な機能の一つだ。テレビ静岡の新局舎へ導入されたノンリニア編集機はEDIUSである。EDIUSでは従来コーデックであるCanopus HQXを利用しての運用が想定されている。その為、MAへファイルベースでデータを受け渡す際にも、そのままCanopus HQXでの運用ができないかということになった。Video Slaveではこのコーデックにも対応をしているということも、選択の一つの理由となった。
ファイルベースのシステムは、MAのシステム側に1台NASサーバーを設け、そのサーバーを介して編集とのデータの受け渡しを行っている。このNASサーバーはMAのDAWはもちろん、編集側のEDIUSからもマウントできるようになっている。これにより編集側からこのサーバーへ直接ファイルの書き出しが行えるように設定が行われている。MA側からも完パケのWAVデータをこのサーバー上に書き出すことで編集機から完パケ音声データを拾い上げることが出来るようになっている。テレビ静岡では、MA室にもEDIUSが用意されている。これは完パケデータ作成用の端末であり、映像編集済みのファイルを開き、MAで完成した音声を貼り込んで完パケデータを作成できるようになっている。ニュースなどリミットの厳しい作業時には、編集機の空きを待たずにMA室内で完パケデータが作成できるようにという仕掛けである。
本号の出版時には新局舎での運用が始まっているはずである。ファイルベースシステムが導入された新しいシステムの実稼働がまた一つスタートする。そのお手伝いをさせていただいたことをここに感謝し本レポートの締めくくりとさせていただく。
(左)株式会社テレビ静岡 技術局制作技術センター 佐野 亮 氏
(右) ROCK ON PRO Sales Engineer 廣井 敏孝
*ProceedMagazine2017-2018号より転載
Post
2017/11/14
株式会社タムコ様 / System Tが可能にした音声中継車の未来形
株式会社タムコは以前より稼働中の音声中継車「R-3」「R-4」に加え、新たに「R-1」を新設した。長年にわたる構想の末に満を持して完成した音声中継車「R-1」は、最新鋭の技術が詰め込まれた音声中継車となった。音声中継車の中心核であるコンソールにはSSLの新型デジタルコンソールであるSystem Tが据えられ、信号経路のほとんどをDanteで構築。これが日本1号機となるSystem Tを始め、システムのありとあらゆるポイントが革新的なシステムと言える「R-1」をご紹介したい。
◎96kHzへのニーズに応える中継車を
まずは、今回新たに製造された「R-1」のスペックをご紹介しよう。96kHz 128ch収録可能な音声中継車である「R-1」のコンソール「System T」は2クライアント対応の64フェーダーフレーム・3タッチスクリーンと、1クライアント対応の16リモートフェーダー・1タッチスクリーンPCの計80フェーダーで構成されている。Stage RackはMicPre 64chインプット・Lineアウト16chを基本セットとしたラックが3式用意され、最大で192ch インプット・48ch アウトプットに対応可能だ。そのほか、SSL Local I/Oとして、アナログ56ch(Mic)IN・24ch OUT、AES/EBU 128 I/O(96kHz時)MADI 7 I/O ポートなど、多彩な規格に対しても柔軟に対応できる。
音声中継車を造るという構想はあったものの、なかなか条件に見合うコンソールが見つからず、機材の選定には相当苦労されたようだ。その条件のうちの一つが、ハイ・サンプル・レートでの運用だったという。現在、「R-3」が96kHzに対応しているが、システム的制限でチャンネル数が半分になってしまうという。近年の動向として、放送業務でもマルチ収録が増えているそうで、その中でも96kHzへのニーズも多いという。96kHz対応という意味では「R-3」も対応しているが、システム上の制限があり収録可能なチャンネル数が半減してしまう。その点「R-1」は接続をAES67伝送信号に準拠しているDante HCを採用しており、プロジェクトが96kHzになったとしても収録チャンネル数は128chを確保できる。
新しい音声中継車を計画するにあたってクライアントである民放各局の意見を集めたが、すべての希望にしっかり答えるとなると当時はそれだけのコンソールが市場になかったという。そんな折、IBC 2015にて発表されたSSL System Tの高い拡張性と柔軟性、そして何より音質の良さが決定打となり、System Tが採用されたそうだ。
◎Danteが拡げるSystem Tの可能性
長年に渡った構想の決定打になったSystem T。今回導入されたコンソールが国内では1号機となる。条件の一つであった「ハイ・サンプル・レートながらもマルチ・チャンネル収録が行える」という条件はSystem Tにおいてコンソールに関わるコンポーネントの通信にDanteが採用されたからではないだろうか。
2015年のIBCにて発表されたSystem Tは次世代のブロードキャストオーディオプロダクションシステムで、コントロールインターフェイスからエンジンまですべてがゼロから新規開発されたプラグシップモデルだ。エンジンは、これまでのブロードキャストコンソールであるCシリーズコンソールで採用されていたCenturi Coreとは異なり、64bit 浮動小数点処理のTempestが採用されている。すべてをゼロから設計しているゆえに、Cシリーズの後継機種という位置付けではなく、新たなフラグシップのシリーズとなる。それは音声中継車を造るにあたり一番の条件であった音質にも現れているそうで、SSLサウンドをしっかりと継承しつつ、さらに音質がはるかに向上しているとのことだ。
さらに、System Tはコンソールに関わるコンポーネントがすべてDanteで接続されている。SSL社はMADI フォーマットを規定する際に参画した1社で、これまでMADI関連の製品も多く販売してきた。しかし、MADIは48kHzでの伝送はBNCケーブル1本で64ch扱えるものの、96kHzになればその数は半減してしまう。その点、Danteは規格上Etherケーブル1本で最大512双方向(48kHz)のオーディオチャンネルを扱える。実際に扱えるチャンネル数は接続されるハードウェアにもよるが、規格上はMADIの8倍にも及ぶ。
System Tに採用されているDanteプロトコルは、冗長性にも長けている。Dante機器は1つのハードウェアをPrimaryとSecondaryの二重ネットワークで接続・構成が可能で、万が一Primaryネットワークの通信が遮断されても、瞬時にSecondaryネットワークに切り替えることが可能だ。この冗長性が、昨今のSR市場や音響設備において非常に重宝されている理由の一つでもある。前記の通り、System Tはコンポーネントの全てがDanteで接続されているが、エンジン自体も二重化されており、冗長化を図っている。音声中継車「R-1」においてもDanteは二重化されている。運転席の後方に配置されているラックにはSystem TのエンジンやNetwork I/Oらがラックマウントされているが、その最上部にPrimary、Secondaryと分けてSwitch HUBへと接続されている。さらにケーブルもPrimaryとSecondaryとで色分けされているので、メンテナンス時にも重宝するだろう。
サーフェイスはフロントに64ch、リアに16chの計80フェーダーが用意されている。同一ネットワークに接続されて個別に動作したり同一システムとして動作させることも可能だ。プロジェクトが大きくなれば大きくなるほど扱うチャンネルが増えるが、2マン・オペレートはもちろん、一人はバンド、一人はボーカル、一人はオーディエンスといった、3マン・オペレートで各自がフェーダを握ることも可能だ。タッチスクリーンを基本とした輝度の高いディスプレイは、非常に視認性が高い。タッチスクリーンはタムコとしても初の導入だそうが、その操作性は良いという。マスターセクションにはあまりボタンを多く配置せず、シンプルな設計ながらも、チャンネルストリップ部分には必要なハードウェアスイッチを備えており、必要なボタンにはすぐにアクセスできるように設計されている。なお、コンソールのチャンネルアサインなどのセッティングもこのタッチパネル上から行うので、1箇所で操作が可能だ。チャンネルストリップとセッティングを別々の画面を見ながら操作、という煩わしさからも解放されている。
◎カスタマイズ自由なチャンネル拡張と冗長性
3ブロックからなるStage Rackには、SSL Network I/O Stageboxes SB i16とSB 8.8が計5台ラックマウントされており、1式につきAnalog 64 In/16 outを有している。上段にはラックマウントされたxMac ProServerとMac用のUPSが、下段にはNetwork I/O用のUPSとスライダックがそれぞれマウントされている。
冒頭に「R-1」のスペックをざっとご紹介したが、これはあくまでも「標準仕様」でのチャンネル数だ。Danteネットワークは、機材の追加などの変更が容易。それはもちろんSysytem Tでも例外ではなく、現在車載されている機材の他にも、臨時で入出力を増やしたい場合や異なる音色のHAが欲しい場合は、車載されているDAD TechnologyのAX32のようにDanteに対応したオーディオインターフェイスを接続すれば入出力数を増やすことも可能となる。
逆にチャンネル数が少ないプロジェクトの場合はStage Rackを1式のみ接続する、といった選択も可能だ。今回の「R-1」と同時に「R-2」という別の音声中継車も作成されており、そちらにはSSLのL300というSRコンソールが導入されているそうだ。L300 もSystem T 同様にDante ネットワークでの使用となるため、「R-1」で使用しないStage Rackは「R-2」でStage Rackとして使用したり、既存の音声中継車「R-3」のコンソールAurusに装着されたDanteカードを介してStage Rackを使用することも可能。このように「R-1」のためだけのStage Rackではなく、他の車両のStage Rackとしても活用が想定されている。さらには、音声中継車とは切り離して単独でYAMAHAなどのDante対応SRコンソールと接続したり、単独でのHAとして稼働も想定されているそうだ。フレキシブルに対応できる発想が可能なのはDanteならではだろう。
◎安定した収録システム
車載されているDAWのAvid Pro Tools HDは、HDX2とHD MADI 2台で構成されている。なお、MacProはSonnet TechnologyのxMac Pro Serverにマウントされている。System Tに接続されたNetwork I/O MADI BridgeでDanteからMADIに変換された信号がHD MADIに入力される仕組みとなる。ストレージは3.5インチHDDを採用しており、xMac ProServerのPCIユニットからSonnet Tempo SATAカードを経由してHDDシャーシへアクセスしている。HDDシャーシはフロントからHDDの抜き差しが可能だ。収録が終わったらすぐにHDDを取り出すことができる。
Stage Rack にもマウント可能な MacPro には Nuendo と Dante カードがインストールされており、Pro Tools と同じインプットを Dante 上でパラレルにアサインしてサブ機として収録が可能だ。また、Focusrite RedNetのようなDanteポートを持つ機器をインターフェイスとしたPro Toolsを持ち込めば、こちらもバックアップとして収録をすることも容易にできる。
◎車載された固定スピーカー
「R-1」は車両の長さが9m・幅約2.5mとミドルサイズに収まっている。しかし、コントロールルーム内は非常に広い印象を受ける。コントロールルームは奥行き3.6m、幅2.32m、高さ2mと外寸から比べると非常に広くスペースが取られている。完全カスタマイズの車両はボディがスチール製だが、ミキサー席から後方の壁面はあえて遮音壁を薄くして、低音が少し抜けるように設計されているそうだ。実際、コントロールルームで扉を閉めた時の圧迫感は低く、長時間作業でも苦にならなそうだ。
また「R-1」では常設スピーカーもマウントされた。「R-3」「R-4」では様々なクライアントが好みのスピーカーを設置できるよう対応するため、常設スピーカーは設置されてこなかった。今回常設されたMusikelectronic Geithain RL933K1は同軸3Wayモニタスピーカーだ。常設を選んだ理由としては「R-1の音色」を狙った設置ということだそうだ。もちろん、従来のようにクライアント持ち込みのスピーカーにも対応すべく、スピーカー設置スペースとしてスライド式のスペースも確保されている。その他にも外からアクセス可能なユーティリティースペースが設けられていた。ここにはStage Rack接続用のマルチケーブルなどを収納することができるので、そのまま配線作業が続けられる。こういった細部にも配慮された設計になっている。
既に稼働が始まっているという「R-1」、ユーザーからもそのサウンドは好評を得ているということだ。System Tの操作性と柔軟性、そして冗長性、安定性の確保、さらには他の中継車との運用も見据えた「R-1」は今後の中継車のベンチマークとも言えるべきものとなったのではないだろうか。ハイサンプルにも対応した将来性も豊かな「R-1」は今後も活躍を続けていくに違いない。
*ProceedMagazine2017-2018号より転載