Shibuya | 03-3477-1776 |
---|---|
Umeda | 06-6131-3078 |
Solution
制作環境を飛躍させる
この春、新局舎へと移転を行うテレビ大阪。旧局舎の隣の新築ビルという最高の条件での移転である。新局舎への移転ということもありマスターからすべての設備を一新、これを機に局内のオールIP化を行っている。副調整室のシステムを中心にオールIP化のメリット・デメリット、実際にシステム設計を行ってみての課題点、今後に向けた取り組みなど取り上げていきたい。 マスター、サブ、スタジオのすべてをIP化 在阪のテレビ局各局が新局舎への移転を完了させる中、大阪で一番古い局舎となっていたテレビ大阪。10年ほど前から移転の話は出ていたということだが、具体的なスタートは2020年ごろから、およそ4年をかけて移転更新が行われている。今回、IPソリューションとして採用されているST-2110の実製品のリリースが見られるようになってきたのが2019年ごろだと考えると、まさにST-2110が次世代のMoIPの盟主となることが見え始めたタイミングだと言える。数年早ければ、オールIP化へ踏み切ることはなかったのではないかとも想像してしまうような、絶好のタイミングで更新計画が始められたということになる。 今回の移転工事ではマスター、サブ、スタジオのすべてがMoIP ST-2110で接続されIP化。さらには、局内のいたるところにST-2110のポケットを設け、どこからでも中継が行えるように工夫が行われている。従来であれば、映像・音声・制御・インカムなど様々な回線を各所に引き回す必要があるため、なかなか多数の場所にポケットを設けることは難しかったが、1本のネットワークケーブルで複数回線、かつ双方向の伝送を行うことができるIPネットワークは、多くの場所への回線引き回しを容易にしている。 オールIPベースでの放送システムへ 📷天満橋側の大阪中心部に新しく誕生したテレビ大阪新社屋。幾何学模様を描くファサードが目を引く。エントランスにももちろん、ST-2110の回線が引かれておりここからの中継も行える。 今回のオールIP化の導入に至る経緯にはストーリーがある。TXN系列6局のうち4局合同でマスターの更新を行うという計画が同時期に立ち上がった。これは、系列局で同様のシステムを一括発注することで導入コストの削減と相互運用性の向上を目指すという大規模なプロジェクト。この計画のひとつのテーマとして「IP化されたマスター」というポイントがあった。いまの時代に更新をするのであれば、将来を見越してIPベースでのシステム更新を行うことは必然であったということだ。ちなみに、合同でIPマスター更新を行ったのは、テレビ北海道、テレビせとうち、テレビ九州、そしてテレビ大阪の4局である。すでに他3局ではIPマスターへの更新が完了しており実際に稼働もなされている。 テレビ大阪は、新局舎への移転タイミングでの導入ということもあり、運用は新局舎へのカットオーバーのタイミングからとなる。そして、テレビ大阪はサブ・スタジオなどを含めた一括更新となるため、オールIPの放送局となった点がサブなどは従来設備で運用し順次IP化への更新を待つ他の3局と異なるところ。実のところ、テレビ大阪では当初サブ・スタジオに関してはSDIベースの映像とアナログベースのオーディオを用いた従来システムでの導入を検討していたということだ。しかしながら、系列局合同でIPマスターを導入するというのは大きな契機。現場としては、いまだ実績の少ないIPベースのシステムに対して抵抗感がなかったわけではないが、このタイミングで従来システムを組んでしまうと「最後のベースバンドシステム」となってしまう恐れもある。マスターも含めたオールIP放送局として日本初の試みにチャレンジするのか?最後のレガシーとなるのか?社内での議論が続けられたことは想像に難くない。 IPベースのメリットを活かした制作体制 📷音声卓は36Fader の Calrec Argo-S。モジュール構成となるこの省スペースに機能が詰め込まれている。 今回の移転更新では、2室の同一システムを備えたサブと、大小2部屋のスタジオが新設された。旧局舎と比べると1部屋ずつコンパクトな体制にすることができている、IPベースとしたことの効能が現れた格好だ。まずは、スタジオをそれぞれのサブから共有したり、システムの変更もプリセットを呼び出すだけで完了したりと各部屋の稼働効率の向上が見込める。また、これまではパッチ盤で実際にケーブルを接続したりといった物理的な切り替え作業も多かったが、想定されるクロスポイントを事前にプリセット化しておけば、これまでとは比べ物にならないくらい素早く変更が確実に行えるようになる。IPベースであれば規模をとりまとめてしまったとしても充分に従来業務への対応可能であるという判断に至ったそうだ。 📷2部屋目となる副調整室。各コントローラーがひと回りずつ小さいものになっているが、システム構成は同一のシステムとなっている。片方のシステムを覚えれば両部屋とも使えるようになるよう工夫が随所に行われている。 IP化における最大の課題は「遅延」である。信号が機器を経由するたびに必ず発生するバッファー、IP伝送を行うにあたり避けては通れない必要悪のような存在だ。収録、ポストプロであれば遅延を吸収する余地もあるが、生放送のようなライブプロダクションにおいては問題となるケースも多い。わかりやすい部分で言えば、返しのモニターが挙げられる。ベースバンドであれば各機器の処理遅延のみで済んでいたものが、IPベースではバッファーによる遅延が加わり、最低でも2〜3フレームの遅延が生じてしまう。返しモニター専用にスタジオ内にベースバンドのサブシステム(PAでいうところのステージコンソールのような発想)もあったが、せっかくオールIPに踏み切るのにそれでは意味がないということになり、スイッチャーの一番遅延量の少ない経路での出力を戻しにするということでまずは運用を開始してみることとなった。お話をお聞きした時点では運用開始前であったため、まさに今後の運用の中で適切なワークフローを見つけていくべきポイントだと言える。 従来システムの柔軟性とIPベースの融合 それでは、サブに導入された音声ミックスのシステムを見ていきたい。放送局のシステムとしては驚くほど機材量が少ないということが一目でわかる。スタジオフロアからの回線は基本的にアナログで立ち上がってきており、ワイヤレスなどのレシーバーからはDanteが採用されている。フロアの回線はラックのCalrec AE5743(アナログIP Gateway)でAoIPへと変換されコンソールへと立ち上がる流れ。 ミキサーのミキシングエンジンは、Clarecの最新モデルであるImPulse1が採用されている。これはまさに導入ギリギリのタイミングでリリースとなったIPベースのミキシングエンジンで、たった1Uというコンパクトな筐体で標準で304chのプロセッシングパスという十分なパワーを持つ。ちなみに、ImPulse1は追加ライセンスの購入で最大672パスまで拡張が可能である。これにIOフレームを組み合わせDante、アナログIP Gateway、ST-2110-30それぞれの入出力を行っている。このミキシングエンジンは二重化され、同一仕様のモデルが2台導入された。フレーム自体が1Uとコンパクトなため、ハードウェア・リダンダンシーを取ったシステムとは思えないほどコンパクトにまとまっている。コンソールは、Clarecのこちらも最新モデルであるARGO Sが導入だ。モジュール構成のコンソールで、柔軟な拡張性と構築の自由度を持つ最新サーフェスである。 📷最上段でEthernetケーブルが接続されているのが、副調整室のシステムコアとなるCalrec ImPulse1。たった1Uの筐体で標準で304chもの信号を処理することができ、2台のコアで冗長化が図られている。その下の緑の3Uの機器がCalrec AE5743、Mic / Line 32in / outのIOボックスだ。やはり、オーディオの出入り口としてアナログ音声がなくなることはしばらくないだろう。コネクタの実装などの必然性もあるがコアと比べると大きな機器となる。 当初はDanteのステージボックスをフロアに置き、インプットの回線をすべてDanteで運用するというアイデアも出ていたということだが、バックアップの意味も含め最低限のアナログを残すということを念頭にシステムを構築、ミキシングコンソールでダイレクトにアナログ信号を受けたほうが使い勝手も良いという結論に至ったということだ。やはり、マイクプリのリモートなどのことを考えると理にかなっていると言える。アナログ、AES/EBUといった従来のシステムと同様の柔軟性とIPベースの融合。どこからIPベースの信号とするかというのはシステム設計者の腕の見せどころとなっていくだろう。その最終形態は入口から出口までのオールIPになるのであろうが、マイクやスピーカーというアナログ変換器が最初と最後に存在するオーディオの世界では、なかなかアナログを完全に排除するということは難しい。 📷音声のラックは2本だが詰めれば1本にまとまりそうな程の構成。これでシステムの2重化も達成しているのは驚きである。 ご覧の通り、非常にコンパクトにまとめられたシステム。実際、コンバーターIOフレームなどが主な機器で番組に合わせたシステムの変更を行おうと思い立ったら、Calrecのプリセットを読み替えるだけで大抵のことには対応できる。別スタジオの回線をインプットとして取るのも、IOシェアをしているので自由にアサイン可能だ。このようにシステムがコンパクトとなることで、その設定変更は今まで以上に簡単に素早く行えるようになる。サブを1部屋減らしてもこれまで通りの運用が可能と判断する理由もここにあるわけだ。 逆にIP化のデメリットとしては、信号が目に見えないということを挙げられていた。1本のEtherケーブルの中ではどこからの信号がどのような順番で流れているのか、誰かが知らないうちにクロスポイントを打ち替えたりしていないだろうか、確かに目に見えないところの設定が多いため、シグナルを追いかけるのが難しくなっている。慣れるという部分も大きいのだが、1本のケーブルにどのような信号が流れているのかを簡単に可視化する方法は早期に実現してもらいたい部分でもある。なお、テレビ大阪では事故防止としてクロスポイントの大部分をロックして変更不可とし、確実な運用を目指すとのことだ。 また、Dante とST-2110-30 を併用している理由としては、利便性を考慮してのこと。ワイヤレスマイクのレシーバーなど対応製品の多さでは、Danteに分がある。これまでも使われてきた機材の活用も含め、オーディオのインプット系統ではDanteを使うよう適材適所でのシステムアップが行われているということだ。実際のところとしてはST-2110-30(Audio)の遅延量は、Dante以下の値に設定することもできる。しかし、映像回線として使われているST-2110(Video)の遅延量が大きく、それに引っ張られてオーディオも大きな遅延量となってしまうということだ。 📷左)紫色の機器がPTP v1 のグランドマスター。この機器を入れることでPTP v1 のDante ネットワークの安定性を高めることに成功している。右)もう一部屋のラックがこちら。AE5743は無いが、モジュラーユニットにアナログIOを準備しさらにシンプルな構成。基本的なシステムアップは、同一であることが見て取れる。 SoundGrid Sever、新たな業界標準機へ さらに収録用のPro Toolsも用意されている。CalrecにはSoundGridの入出力を行うI/Oが準備されている。外部エフェクターとして導入されたSoundGrid Serverとともに、Pro ToolsもCoreAudio用のSoundGrid Driverで信号を受取り収録が行えるようになっている。もちろん、Pro Toolsからの再生もミキシングコンソールへと立ち上がる。これもIPベースならではの柔軟性に富んだシステムである。Pro ToolsのシステムはMacBookで準備され、2部屋のサブの共有機材となっている。常に2部屋で必要でないものは共有する、IPベースならではの簡便な接続環境が成せる技である。 📷外部エフェクターとして導入されたWAVES SUPERRACK。低遅延でWAVESのプラグインを使うことができるこのシステム。Liveサウンド、Broadcastの現場では重宝されている。 ここで導入されたSoundGrid Severは外部エフェクターとしてWAVESのプラグインが使えるというスグレモノ。外部のマルチエフェクターが絶滅危惧種となっている今日において、まさに救世主的な存在。WAVESだけではなくVSTについても動作する製品の情報が届いているので、こちらも業界標準機となる予感がしているところだ。こだわりのあのリバーブを使いたい、などという要望はやはり多いもの。もちろんリコール機能もしっかり備えられており、安心して使用できるプロの現場ならではの製品となるのではないだろうか。 IPシステムでのリスクヘッジ サブとしてのメイン回線はすべてST-2110に集約されているが、インカムの回線だけは別となっている。インカムはST-2110にも対応したClearCamの製品が導入され、ST-2110での運用を行っているのだが個別のネットワークとしている。これはトラブル時の切り分けや、従来型のシステムが導入されている中継車などとの相互運用性を考えてのことだという。すべて混ぜることもできるが、敢えて切り分ける。こういった工夫も今後のIPシステムでは考えていくべき課題のひとつ。集約することによるスケールメリット、トラブル時の切り分け、運用の可用性、多様なベクトルから判断を行い決定をしていく必要があると改めて考えさせられた。 今後についてもお話を伺った。オールIPとしたことで、今後は中継先との接続もIPベースへとシフトしていきたいということだ。まずは、今回導入のシステムを安定稼働させることが先決ではあるが、IPの持つメリットを最大限に活かしたIPベースでの中継システムの構築や、リモートプロダクションにもチャレンジしていきたいとのこと。また、1ヶ月単位でのスポーツイベントなど、ダークファイバーをレンタルしてリモートプロダクションを行ったりということも視野に入れているということだ。まずは、局内に張り巡らした中継ポイントからの受けからスタートし、徐々に規模を拡大していきたいとのこと。IP伝送による受けサブ、リモートプロダクションというのは今後の大きなトレンドとなることが予想される。こういった取り組みも本誌で取り上げていきたい。 📷左からお話を伺ったテレビ大阪株式会社 技術局 制作技術部 齊藤 智丈 氏、有限会社テーク・ワン オーディオ 代表取締役 岩井 佳明 氏 まさに次世代のシステムと言えるオールIPによるシステム構築の取り組み。課題点である「遅延」に対してどのように対応し、ワークフローを構築していくのか。実稼働後にもぜひともお話を伺いたいところだ。利便性と柔軟性、このポイントに関してIPは圧倒的に優位であることに異論はないだろう。スケールメリットを享受するためには、できうる限り大規模なシステムとするということもポイントのひとつ。これらを併せ持ったシステムがテレビ大阪にはあったということだ。この新局舎への移転というタイミングでの大規模なST-2110の導入は、今後を占う重要なモデルケースとなることだろう。すでに全国の放送局から見学の問い合わせも来ているということ。こういった注目度の高さからも今回導入のシステムが与える放送業界へのインパクトの強さが感じられた。 *ProceedMagazine2024号より転載
AoIP、ネットワークオーディオを採用した放送局やレコーディング現場では、従来の(メタル)ケーブルからイーサネットケーブルに取って代わり、IPパケットで音声信号を伝送することで大きなメリットを実現していますが、ご存知のとおりでいくつもの仕様やプロトコルが存在していて、一般ユーザーには若干わかりにくい状況であることは確かです。そして、購入したばかりだというAoIPであるAES67対応の機材を手に「これをしっかり知り尽くしたい!」と意気込んでいるのが今回の講座にやってきたMクン。そんなMクンにROCK ON PRO 洋介がネットワークオーディオの世界を紐解きます。 まずは、AoIPってなに? Mクン:Dante、RAVENNA、AVB、いくつものオーディオネットワーク規格があって制作現場でも目にすることが多くなってきたんですが、その中でもAES67についてお話を伺いたいんです。 ROCK ON PRO 洋介:なるほど。ところでなんでまた今日はAES67? Mクン:実はNeumannのスピーカー KH 150 AES67モデルとオーディオインターフェースのMT 48を購入したんです。AES67に対応した製品なんでせっかくなら使いこなしてAES67の恩恵に授かりたいな、と。まずは「AoIPってなに?」というところから教えてもらえませんか? 洋介:了解しました! AoIPは「Audio over Internet Protocol」の略で、TCP/IPベースのイーサネットを使ってオーディオ信号をやりとりする規格です。AoIPのメリットとしてどういうことがあるかというと、信号分配の際に分配器を必要とせず、汎用のイーサネットハブで1対多数のオーディオを含む信号を簡単に送れることです。もうひとつは、1本のケーブルで多チャンネルを送れることですが、多チャンネルオーディオ転送規格に関してはMADIがありますし、またずっと以前からはADATがありますよね。その中でもAES67が優れている点は、回線の通信速度が現在主流となっている1ギガビットイーサネットであれば256ものチャンネルを転送可能だということです。 Mクン:少ないケーブルで多チャンネル送れるというのは、経済的にも、設定や設置の労力的にもメリットですよね。 洋介:実は挙げられるメリットはまだあって、1本のケーブルで「双方向」の通信を行えるのも大きいメリットです。イーサネットケーブル1本に対し、In / Outの概念がなくなるので繋ぎ間違えもなくなりますよね。あとDante Connectが登場して、クラウドネットワークを介した世界中からの接続ができるようになってきているので、遠隔地とのやりとりも特殊な環境を必要とせず汎用の製品やネットワークを使えることでコストの削減を図ることができます。少し未来の話をすると、ダークファイバー(NTTが保有する光回線のうち使用されていない回線)を使えば、汎用のインターネット回線の速度を超えたデータ転送が遠隔地間でもローカルエリア上として行える可能性があります。例えば、東京と地方のオフィスを繋ぐ場合に物理的に離れていても両拠点は同じネットワーク上にいる状態にすることができてしまうんです。 Mクン:ダークファイバーを使って遠隔運用しているところはあるんですか? 洋介:ありますよ。放送業界が先行していて、離れた支局間でダークファイバーを引いている事例があります。例を挙げると、F1の放送では鈴鹿サーキットなど世界中のサーキットとドイツのデータセンター間でダークファイバーを繋げ、世界規模で実況放送を実現しています。では、ここからはAES67制定の経緯について話していきましょう。 📷身近な存在のオーディオi/FやスピーカーでもAES67対応製品がリリースされている。Mクンが購入したというこのKHシリーズ(右)とMT 48(左)の接続ではDAコンバーターも不要となるためシンプルなシステム構成に。 AES67策定の経緯 洋介:AES67の元になった規格は、2010年にMerging Technologies社とLAWO社が立ち上げた「RAVENNA」です。このRAVENNAをベースにして、AES(Audio Engineering Society)がAoIPの規格として制定したのがAES67です。AES67の規格はRAVENNAの仕様により汎用性を持たせる方向で策定されています。例えば、レイテンシーの最小値を大きくしたり、ストリーム数に関してはRAVENNAが最大128chに対し、AES67は8chまでといったように仕様を緩い方向に制定して汎用性を持たせています。 その後、SMPTE ST2110-30(ST2110は映画テレビ技術者協会(SMPTE)によって開発されたメディアをIP経由で移動させるための規格)という規格のオーディオパケット部分としてAES67が採用されます。SMPTE ST2110は、映像パケットとオーディオパケットを別々に送信するのが大きな特徴です。もうひとつ前のVoIP規格にSMPTE ST2022というものがあるのですが、これはSDIの信号をそのままパケットにして送信します。そこからより現代的な新しいテクノロジーを組み込んだIP転送を実現しようという目的で策定されたのがSMPTE ST2110です。オーディオ部分に関していうと、ST2110-30が非圧縮での基本的なAES67互換規格であり、さらにST2110-31になるとメタデータまで含めた通信ができるようになりました。こういったST2110の拡張とともにAES67も今後拡大していくと予想されてます。 Mクン:AES67のサンプリングレートは48kHz固定となっていますが、これは今後変わっていくのでしょうか? 洋介:恐らくですが、48kHzという仕様で一旦固定されたままになるのではないでしょうか。放送業界においては、現時点で一般的に多く使われているのが24Bit / 48kHで、ハイサンプルの需要がほぼなく、それ以上のスペックは必要ないと判断されているようです。このようにRAVENNAから派生したAES67ですが、放送業界、映像業界をバックボーンにして成長を続けています。一方、RAVENNAとDanteの違いを話すと、TCP/IPの規格としてDanteの方が1つジェネレーションが古い規格を一部使用しています。その代表がPTPで、DanteはPTP(Precision Time Protocol)のバージョン1を用いていて、RAVENNAやST2110の基礎技術はPTPのバージョン2です。このバージョン1と2には下位互換がなく、実際は別物というくらい違います。同一ネットワーク上にお互いを流しても問題ないのですが、上位バージョンが下位バージョンの信号を受けることができません。現在の普及具合でいうとDanteのほうが多いのですが、こういったことからDanteを採用しているメーカーは将来性に関して危惧を始めているところがあると聞いています。 PTPバージョン1と2の違い Mクン:そのバージョン1とバージョン2の違いとは何でしょう? 洋介:ネットワークプロトコルの技術的に複雑な話になるので、ここでは深く立ち入りませんが、単純に互換性がないということだけ覚えておいてください。このPTPですが、TCP/IP通信プロトコルとしてそもそもの大きな役割はクロック同期です。AoIPもVoIPも動作原理上バッファーが必要であり、それによりレイテンシーが必ず発生します。これはIP伝送のデメリットのひとつとして必ず話題に挙がることです。なぜバッファーが必要かというと、ネットワーク経路上にはネットワークインターフェイス、イーサネットスイッチなど多くのデバイスが挟まり、遅延が発生するのは避けることができません。 その事実への対処法として、バッファーへパケットデータを溜め込み、各パケットが送出されるタイミングの同期を行なってデータを出す、という同期のためのタイムスタンプの役割を行うのがPTPです。これは、ワードクロックやビデオクロックといった動作とは異なります。PTPでは各々のパケットに番号札を振って順番を決めるようなイメージで、そのバッファー分の遅延が必ず発生することになります。 Mクン:なるほど。では、オーディオのワードクロックでは精度が高い製品を使えば、一般的に音も良くなると思うんですが、PTPに関しては音質に対して影響するものなのでしょうか? 洋介:音質に影響しないというのが一般的な解釈です。RAVENNAの信号を受け、出力はアナログオーディオの場合の機材にもワードクロックが搭載されているわけで、AD/DAプロセッサーの動作はワードクロックで制御されています。つまり、IPデータの部分とワードクロックが作用する部分は完全に分離されていることになるので音質には影響しない、というのが設計上からの帰結です。現在の主流は、PTPとワードクロックを同時に出力するグランドマスター機能を持った機材を用いてシステム全体の整合性を取っています。 少し話が脱線しますが、AoIPにおけるレイテンシーの問題はグローバルなインターネットを越えても、依然存在し続けることになります。ただし、どれだけレイテンシーが大きくなったとしても、送信順が入れ違いになったとしても、届いたパケットの順番はPTPのタイムスタンプの順に並べられ、順番は変わらないわけです。 長遅延、インターネットを超えての伝送などの際には、このPTPのマスタークロックの上位の存在として、皆さんがカーナビなどでも恩恵を授かっているGPS衛星の信号を活用します。GPS衛星は地球の上空20,000kmに、常時24機(プラス予備7機)が飛行しています。GPS衛星は地球上どこにいても、遮蔽物がない限り6機が視界に入るように運用されています。そして、運用されているGPS衛星はお互いに時刻の同期が取られています。ということは、このGPSの衛星信号を受けられれば、世界中どこにいても同期された同一タイミングを得ることができるわけです。普段、何気なく車のカーナビを使っていますが、同期に関しては壮大な動作が背後にあるんです(笑)。 Mクン:宇宙から同期信号が届いているんですね!そういった先進技術は、今後私たちのような音声技術を扱う業界にも恩恵があるんでしょうか? 洋介:例えば、現在話題のイーロン・マスクが率いるスターリンク社(アメリカの民間企業スペースXが運用している衛星インターネットアクセスサービス)からのデータをPTPマスターとして受け取れるようになれば、もっと面白いことが起こるかもしれないですね。一方でデメリットを挙げるとすれば、やはりどこまでもレイテンシーがつきまとうという点ですね。オーディオの世界ではマイクやスピーカーといったアナログ領域で動作する製品がまだ大部分を占めるので、「信号の経路上、どのタイミングでAoIPにするか」というのはひとつの課題です。マイク自体でDante接続する製品も出てきていますが、ハイエンド製品はまだ市場に出てきてないですよね。これから期待したいところです。 AoIP、レコーディング現場への導入状況は? Mクン:AoIPの導入は放送業界が先行しているそうですが、レコーディング環境への導入状況はどうなんでしょうか? 洋介:レコーディングスタジオに関してはこれから普及が始まるかどうかといった状況です。大きなスタジオになると設備が建設時に固定されているものが多く、変更する機会がなかなかないということが関係していそうです。また、別の理由としてパッチベイの存在もあるかもしれません。現状使っているレコーディング機器の接続を繋ぎ変えるにあたって、これまで慣れ親しんだパッチベイから離れたくない、という心理もありそうです。まあ、パッチケーブルを抜き差しするだけですからね。 スタジオにはアナログ機器がたくさん存在しますが、AoIPが本当にパワーを発揮するのは端から端までをIPベースにした場合で、ここで初めてメリットが生まれます。一部にでも従来のアナログ機器が存在すると、そこには必然的にAD/DAコンバーター(アナログとAoIPの変換機)が必要になるので、コンバーターの分だけコストが必要になってしまいますよね。Dolby Atmosをはじめとするイマーシブオーディオのような多チャンネルを前提としたシステム設計が必要スタジオには需要があると思います。 Mクン:AoIPでシステムを組む場合、Danteを採用するにしろ、ST2110を採用するにしろ、それに対応した機材更新が必要ですが、どのプロトコルを採用しても対応できるように冗長性を持たせたシステムの組み方は可能ですか? 洋介:システム設計は個別のネットワークとして組まれているケースが多いですね。本誌でも事例として紹介しているテレビ大阪様ではオーディオのフロントエンド(インプット側)はDanteですが、コンソールのアウトや映像のスイッチャーはST2110という構成です。従来の銅線ベースの環境に比べるとシステム図が驚くほどシンプルで、機材数もとても少なくて済みます。放送業界ではフルVoIP化の流れが来ていて、新局舎など施設を一新するタイミングで、副調整室やマスターなど、全設備オールIP化の設計が始まっています。SMPTE ST2110のイーサネットのコンセントを至るところに設置し、局内どこからでも中継ができるシステムが組まれています。 Mクン:そういった大規模な更新のタイミングであれば、既存のアナログ機器を一新したシステムにリニューアルできるメリットがありますね。 洋介:そうですね。未来を見据えてAoIPやVoIPシステムでリニューアルできる大きなチャンスですね。 AES67のメリット Mクン:話をAES67に戻すと、Danteに比べてAES67のメリットはどんなことがあるんでしょうか? また、対応した製品がますます普及していきそうですが、今後のAoIPはどうなっていくのでしょう? 洋介:まず、Danteについては普及が進んでいるものの、先ほど話したPTPバージョン1の問題が依然として残ります。DanteにもAES67互換モードがすでに搭載されているのですが、Dante Network上のすべての機器をAES67互換モードで動作させることはできず、ネットワーク上の1台のみをAES67互換モードで動作させてゲートウェイとして使うということになります。言い換えると、AoIP / VoIPのメリットであるすべての機器が常に接続されているという状況を作ることが難しいということでもあります。これは、先にもお話したPTPのバージョンの違いにより生じている問題であり、一朝一夕で解決できる問題ではないでしょう。一方、RAVENNAはAES67の上位互換であり、SMPTE ST2110の一部でもあります。放送局など映像業界でのSMPTE ST2110の普及とともに今後導入が進むことが予想されます。音声のみの現場ではDanteが活用され、映像も絡んだ現場ではRAVENNA、というように棲み分けが進むかもしれませんね。 Mクン:私は「AES67 ニアイコール RAVENNA」という認識だったので、ST2110という存在がその先にあるというのは知りませんでした。 洋介:ST2110があってのAES67なんですよね。逆に言うと、ST2110を採用している映像メーカーはAES67対応だったりしますね。 Mクン:なるほど。私が購入したNeumannのオーディオインターフェイスMT 48はAES67に対応しているんですが、「RAVENNAベースのAES67」という表記がされていて納得がいきました。同じく購入したNeumannのスピーカー、KHシリーズもAES67に対応しているんですが、そのメリットはどんなことでしょう? 洋介:RAVENNAはAES67の上位互換なので、RAVENNAと書かれているものはすべてAES67だと考えていいです。一番大きいのはレイテンシーの問題で、AES67は最低1msでそれ以下は難しいんですけど、RAVENNAはもっと短くできます。KHシリーズとMT 48を組み合わせればDAコンバーターいらずになる、というのが大きなメリットです。システム的にもシンプルで気持ちいい構成ですよね。最近の製品の多くは、スピーカー自体でADしDSP処理してアンプ部分に送るという動作なんですが、それなら「デジタルのまんまで良くない?」って思うんですよね(笑)。シグナルとしてシンプルなので。 AoIP普及のこれから Mクン:これからサウンド・エンジニアの方は音の知識だけでなく、ネットワークの知識も必要になってきそうな感じですね。 洋介:うーん、どうでしょう? まずはブラウザ上で設定するルーティングの仕方、クロスポイントを打つということに慣れるということで良さそうです。そこから先は我々のようなシステム設計、導入を担当する側が受け持ちさせていただきますので。実際、DanteでもRAVENNAやAES67でも基本的に設定項目は全部一緒なので、もちろんGUIの見た目は異なりますが、汎用のTCP/IPベースのイーサネットの世界なのでひとつ覚えれば他にも通じる汎用性があります。 今後、AoIPの普及はさらに進むでしょう。現在はまだシステムの範囲が1部屋で完結しているスケールなのでAoIPを用いるスケールメリットはあまりないのですが、これからさらに外へと繋がっていくと大きく変わっていくはずです。すにで汎用のインターネットで映像や音声がやりとりできる世界になり、グローバルなインターネットで放送クオリティーの伝送が可能となっています。 放送局の場合だと、これまでサブでしか受けられなかった中継回線などが、イーサネットケーブルを引けばMA室でも受けられるようになります。こうなれば受けサブとしてMA室を活用するという使用用途の拡張が見込めます。従来は音声信号に加え、同期信号もすべてケーブルを引っ張らなければいけなかったものが、イーサネットケーブル1本で対応できるようになるのは革新的です。さらに、光ファイバーを導入できれば、同じケーブル設備を使って通信速度、使用可能帯域をアップグレードしていくこともできます、従来のメタル銅線では実現できないことですよね。 Mクン:今日は色々と興味深い話をありがとうございました! いかがだったでしょうか、「なるほど〜!」連発となったMクンはAES67がどのようなものなのか、そしてAoIPのメリットや抱えている課題点など、オーディオのIP伝送がいま置かれている現状もしっかりと把握できたようです。これからの制作システム設計における大きなキーワードとなるAoIP。もちろんそのメリットは従来のワークフローを大幅に塗り替えていくでしょう、そしてそのシステムが与えるインパクトたるや如何なるものか!?その進展から目が離せませんね! *ProceedMagazine2024号より転載
IP伝送が拡げる可能性は我々が位置する音響の分野のみならず多岐にわたる。音や映像が必要とされる分野であればIP伝送によって従来のシステムにとって代わるワークフローのブレイクスルーが起こり得る。そのひとつが今回取材を行ったF1サーカスとも呼ばれる、世界規模のスポーツイベントにおけるRIEDELの取り組みだ。本誌では以前にもご紹介をしたが、あれから5年を経てそのバックボーンを支える技術、ソリューションはどれほど進化したのだろうか。 レースに欠かせない通信のマネジメント 2024年のF1カレンダーは大きく変わり、日本グランプリが例年の秋の開催から春開催へと移動された。これまでであれば、秋のレースはその年のドライバーチャンピオンが決まるころのレースであり、テクニカルサーキットして世界にその名を馳せる鈴鹿サーキットが最後の腕試しという側面もあったのだが、今年は桜の季節に開催されシーズンも始まったばかりということもあり、パドックは終始和やかなムードに包まれていた。今回取材に入ったのは木曜日。F1は金曜日に練習走行、土曜日に予選、日曜日に決勝というスケジュールとなっており、木曜日はレースデイに向けての準備日といったところ。その準備日だからこそ見ることができるレースの裏側も多く充実の取材となった。まずは、取材協力をいただいたRiedel Communicationsの各位に感謝を申し上げたい。 準備日とはいえ鈴鹿サーキットは、レースに向けた準備がしっかりと進められており、木曜日は恒例のパドックウォークが実施されるということで多くの観客が来場していた。パドックウォークは、レースデイには立ち入ることのできないパドックやメインストレートを歩くことができるイベント。入場券もレースが行われない日ということもあり安く設定されており、さすがにガレージの中までは入れないものの、レースでピットクルーたちがタイヤ交換などを行うその場に立てる、ということでこれを目当てに来場される方も多数。また、この日はメインスタンドも開放されていてサーキットの好きなところに行けるのもパドックウォークの魅力。もちろん、レースデイの高揚感まではないものの、鈴鹿サーキットでF1の雰囲気を味わいたいということであれば、この木曜日の来場にも価値がある。 📷レース前の木曜日に開催されたパドックウォーク。メインストレートも一般開放され賑わいを見せるこの写真の中に、RIEDELの回線敷設スタッフが数日間かけて仕込んだアンテナほかの機材も多数あるのがお分かりになるだろうか。既に木曜のこの段階で準備万端となっているわけだ。 前置きが長くなってしまったが、まずRIEDELのF1における立ち位置を確認しておこう。RIEDELはFIA(F1を主催する国際自動車連盟)から業務依頼を受けて、F1における通信全般をマネージメントしている。通信全般とひとことで言ってもF1会場で取り扱われている通信は膨大な量となる。各チームのインカム、オフィシャルからの無線連絡、ドライバーとのコミュニケーションなどの音声通信。それに、各車6台ずつの車載カメラ映像、審判用にも使われるコースの監視用のカメラ(鈴鹿サーキットでは20台以上がコース脇に設置された)、F1レースカーから送られてくるテレメトリーデータ(エンジン情報、燃料残量、タイヤ温度、ドライバーの操作など車に関するデータ)など多種多様。もちろん、その種類の多さから必然的にデータボリュームも非常に大きなものとなる。 コミュニケーションのメッシュを運用する 📷インカムがずらりと並んだピット内。よく見るとスタッフ個人ごとに名前が記されている。 なぜ、RIEDELがF1の運営に関わるようになったのかという部分にも触れておきたい。RIEDELはMotorola製トランシーバーのレンタル会社としてスタートした。単に機材をレンタルするということだけではなく、イベント会場などで活用されるトランシーバーのグループライン設計や、運営、無線電波の管理なども行い今日に至っている。 F1会場でも各チームへ120台前後のトランシーバーがレンタルされ、その管理運営を行っているということだ。残念ながらチームスポンサードの兼ね合いもあり全20チーム中17チームへの提供となっているとのこと。本来であれば全チーム一括での運営が望ましいのは確かであるが、他の無線機器メーカーなどがスポンサーとなってしまった場合はその限りではないようだ。しかしながら、RIEDEL以外のトランシーバーを使用しているチームの回線もRIEDELがデータを受取りして一括での運営管理を行っていることには変わりない。そのため、各チーム内でのグループラインなどの構築のためにRIEDELから最低1名ずつのスタッフが帯同しているそうだ。これは、それぞれのチーム事情を汲み取り、最適な運用を行うと同時に、チーム間の情報機密などへも配慮した対応だと思われる。 運用は大きく変わらないものの、トランシーバー自体についてはRIEDELのベストセラー製品でもあるBoleroの導入が進んでいるということだ。従来のトランシーバーでは2チャンネルの送受信。チャンネル数がさらに必要なマネージャークラスのスタッフは、2台のトランシーバーを併用し4チャンネルの運用を行っていて、腰の両サイドに2台のトランシーバーをぶら下げたスタイルは、チームの中心人物である証とも言えたのだが、Boleroを使えば1台のベルトパックで6チャンネルの送受信が可能となる。やはりこれば評価が高い、各チームからBolero導入へのリクエストも多く寄せられているそうだ。 各チームで多少の違いはあるのだろうと想像するが、現場で話を聞いたインカムの送受信先を図にして掲載しておく。ドライバーと会話ができるスタッフは最低限とし、レーシングディレクター(監督)がドライバー、ピットクルー、ガレージのそれぞれへ指示を行うことでレースを進行するというのが基本。そのやりとりを聞くだけのスタッフもいれば、発信を行えるスタッフも必要となり、複雑にコミュニケーションのメッシュが構築されている。 さらに、サーキット外のスタッフもこのコミュニケーションに参加する。世界各国にある各チームのヘッドクォーターへと必要な回線が送られ、車の情報などを監視して現場のスタッフへ適切な指示がリアルタイムに出されているということだ。また、回線が送られるのはヘッドクォーターだけではない。例えば、Visa Cash App RB Formula One Team であれば、ヘッドクオーターがイタリアのファエンツァ 、エンジン開発拠点は日本のホンダ・レーシングといったように分かれており、それぞれの国で別のコントロールルームからエンジンの様子などを監視している。 取りまとめると、各チームではサーキットに80名程度、それ以外のヘッドクオーターや各開発拠点に100名以上という人員体制でレースマネージメントが行われているということ。1台のレーシングカーを走らせることには想像以上に数多くのスタッフが関わっている。なお、RIEDELは各チームのヘッドクオーターまでの接続を担当しており、ヘッドクオーターから先の各開発拠点への通信はそれぞれのチームが独自にコミュニケーション回線を持っているということだ。 年間24戦を支えるRIEDELのチーム編成 F1の運営に関わっているRIEDELのスタッフは、大きく3つのチームに分けられている。1つが実際のレースデイの運営を行うテクニカルチーム。それ以外の2チームは、事前に会場内でのワイヤリングを主に請負う回線敷設チームだ。テクニカルチームは基本的に水曜日の現地入り、木曜日にチェック、金曜日からのレースデイという流れだが、回線敷設チームは決勝日の10日程度前に現地に入り、サーキット各所へのカメラの設置、無線アンテナの設営など機材コンテナが到着したらすぐにチェックが行えるよう準備を行っているということ。また、決勝が終わったら撤収作業を行って速やかに次のサーキットへ向かわなければならない。レースは3週連続での開催スケジュールもある。よって交互に世界中を飛び回れるよう回線敷設は2チームが編成されているが、それでもかなり過密なスケジュールをこなすことになる。 ちなみに、すべてのケーブル類は持ち込みされており、現地での機材のレンタルなどは一切行われない。これは、確実性を担保するための重要なポイントであり、今後も変えることはありえないと言っていたのは印象的。質実剛健なドイツ人らしい完璧を求める考え方だ。 セーフティーカーに備えられた通信システム 今回の取材は木曜日ということもあり、レースカーの走行はなくセーフティーカーによるシステムテストが行われていた。セーフティーカーには、F1のレースカーと全く同様の車載カメラ、テレメトリー、ラップ等の計測装置が搭載されており、これらを使って各種テストを行っている。なんと、今回はそのセキュリティーカーに搭載されたこれらの機器を見せていただく機会を得られたのでここで紹介しておきたい。 F1で今年使われているセーフティーカーはAMG GT。そのトランクルームに各種データの送受信装置、データの変換装置が備え付けられている。こちらと同じ機器がレースカーにも備えられ、レースカーに車載された6台ものカメラの映像データも車上で圧縮され無線で送信されている。アンテナもインカム用のアンテナと、それ以外のデータ用のアンテナ、さらには審判用の装置、これらもレースカーと同様だ。 これらはF1レースカーの設計の邪魔にならないようそれぞれが非常にコンパクトであり、パッケージ化されていることがよく分かる。ちなみに、トランクルームの中央にある黒い大きなボックスは、セーフティーカーの灯火類のためのボックス(赤色灯等など)であり、こちらはレースカーに搭載されず、その左右の金色だったりの小さなボックス類が各種計測装置である。右手の金色のボックス類がカメラの映像を圧縮したりといった映像関連、左側がテレメトリーとインカム関連だということだ。 📷システムテストに用いられていたセーフティーカーの様子。トランク内にレースカーと同様の機材が積み込まれている。ルーフ上には各種アンテナが据えられており、そのどれもがレースカーに搭載することを前提にコンパクトな設計がなされている。 航空コンテナの中に設置されたサーバーラック 📷ラックサーバーが収められているという航空コンテナ。このコンテナごと世界各地のF1サーカスを巡っていく。 それでは、実際に用いられている通信の運用について見ていこう。それぞれのチームの無線チャンネル数は各チーム6〜8チャンネル前後、そこへオフィシャルの回線やエマージェンシーの回線などを加え、サーキット全体では200チャンネル前後の無線回線が飛び交っている。これらの信号はすべてIP化され、ネットワークセンターと呼ばれるバックヤードのサーバーラックへと送られている。これらすべての回線は不正のチェックなどにも使用されるため、全回線がレースデイを通して記録されているとのこと。また、サーキットに持ち込まれたサーバーでの収録はもちろん、RIEDEL本社にあるサーバールームでも併せて収録が行われるような仕組みになっている。なお、サーキットに持ち込まれたサーバーはあくまでもバックアップだそうだ。レース終了とともに次の会場への移動のために電源が落とされパッキングが始まってしまうからである。 2019年にもこのネットワークセンターのサーバーラックを見せてもらったのだが、このラックに収まる製品は大幅に変わっていた。まず取り上げたいのは、インカムの総合制御を行うための機器がAll IP化されたことに伴い、最新機種であるArtist 1024の1台に集約されていたことだ。従来の最大構成機種であったArtist 128は、その機種名の通り128chのハンドリングを6Uの筐体で行っていたが、Artist 1024はたった2Uの筐体で1024chのハンドリングを可能としている。このスペックによって予備回線のサブ機までをも含めてもわずか4Uで運用が事足りてしまっている。ラックには従来型の非IPの製品も収まっているが、これらは機材の更新が済んでいないチームで使用されている機器の予備機だということ。3本のラックの内の1本は、予備機材の運搬用ということになる。 他には、テレメトリー・映像データ送信用のMediorNet、多重化された電源、現地のバックアップレコーディング用のストレージサーバーといったところ。前回の取材時には非常に複雑なシステムだと感じたが、2024年版のラックはそれぞれの機器がシンプルに役割を持ち動作している。それらの機器のことを知っている方であれば、ひと目見て全貌が(もちろん、概要レベルだが)把握できるくらいにまでスリム化が行われていた。 📷数多くのインカム回線をハンドリングするArtist 1024。見ての通りArtist 1024を2台、わずか4Uでの構成だ。 これらのラックは、飛行機にそのまま積めるように航空コンテナの中に設置されている。コンテナは2台あり、回線関連の機器が収められたコンテナと、もう1台がストレージサーバー。航空輸送を行うということで、離陸、着陸のショックに耐えられるようかなり厳重な仕掛けが行われていたのも印象的。コンテナの中でラックは前後方向に敷かれたレールの上に設置され、それがかなりのサイズのダンパーで前後の壁面と固定されている。基本的に前後方向の衝撃を想定して、このダンパーでその衝撃を吸収しようということだ。2024年は24戦が世界各地で予定されており、そのたびに飛行機に積まれて次のサーキットへと移動される特殊な環境である。着陸のたびにダメージを受けることがないよう、これまでの経験を活かしてこのような構造を取っているということだ。 ●RIEDEL MediorNet 2009年に登場した世界初となるFiber-BaseのVoIPトランスポート。さらにAudio、GPIO、もちろんRIEDELインカムの制御信号など様々な信号を同時に送受信できる。ファイバーケーブルを使った長距離伝送という特長だけではないこの規格は、世界中の大規模イベントのバックボーンとして使われている。本誌でも取り上げたF1以外にも、世界スポーツ大会、W杯サッカー、アメリカズカップなどが代表的な事例となる。ひとつのトランスポートで現場に流れるすべて(と言ってしまっても差し支えないだろう)の信号を一括で送受信することができるシステムである。 自社専用ダークファイバーで世界中へ これらのコンテナ・ラックに集約された回線は、RIEDEL Networkの持つダークファイバー回線でRIEDEL本社へと送られる。RIEDEL NetworkはRIEDELのグループ会社で、世界中にダークファイバーの回線を持ち、その管理運用を行っている。その拠点まではそれぞれの国の回線を使用するが、世界中にあるRIEDEL Networkの回線が接続されているデータセンターからは自社回線での運用となる。各国内の回線であれば問題が起きることはそれほど多くない、それを他国へ送ろうとした際に問題が発生することが多い。そういったトラブルを回避するためにも自社で世界中にダークファイバーを持っているということになる。 また、RIEDEL本社の地下には、核シェルターに近い構造のセキュリティーレベルが高いデータセンターが設置されている。ここで、F1のすべてのデータが保管されているそうだ。各チームからのリクエストによる再審判や、車載カメラ、コースサイドのカメラ、各チームの無線音声などすべての情報がここに保管されている。FIAから直接の依頼を受けて業務を行っているRIEDELは、さながら運営側・主催者側のバックボーンを担っているといった様相だ。 ちなみに、F1のコントロールセンター(審判室)は、リモートでの運営となっている。RIEDEL本国に送られた回線は、ヨーロッパに設置されたコントロールセンター、そして、各チームのHQへと送られている。まさにRIEDEL本社がF1サーカスのワールドワイドのハブとなっているということだ。一旦レースの現場でデータを束ねて、確実なファシリティ、バックボーンのある本社拠点へ送る。それを必要なものに応じて切り出しを行い、世界中へを再発信する。世界中を転戦するF1サーカスならではの知恵と運用ノウハウである。 ちなみに、我々が楽しんでいるTVなどの中継回線は、コースサイドの映像などが会場で共有され、中継用の別ネットワークとして運営されているということだ。前回取材時の2019年はこの部分もRIEDELの回線を使ったリモートプロダクションが行われていたが、サーキット内での回線分岐で別の運用となっていた。これらの設備を見ることはできなかったが、サーキット内に中継用のブースがあるような様子はなく、RIEDELのスタッフもそのような設備がサーキット内に準備されているのは見たことがないということだったので、リモートプロダクションでの制作が行われているのは確かなようであった。別のネットワークを通じて行われるリモートプロダクション、2024年度の放映権を持つのはDAZNだが、どのようなスキームで制作されているのか興味が尽きないところだ。 総じてみると、2019年と比較してもシステムのコンパクト化、コロナを乗り越えたことによるスタッフの省力化、リモートの活用範囲の拡大などが随所に見られた。そして、バックボーンとなる回線のIP化が進み、Artist 1024のような大規模ルーターが現実のものとして運用されるようになっている。目に見える進化はそれほど大きくないのかもしれないが、そのバックボーンとなる技術はやはり日進月歩で進化を続けている。 IPによる物理回線のボリュームは劇的に減っており、要所要所は一対のファイバーケーブルで賄えるようになっている。ある意味、この記事において写真などで視覚的にお伝えできるものが減っているとも言えるのだが、これこそがIP化が進展した証左であり次世代のシステム、ソリューションの中核が現場に導入されているということに相違ない。 10年以上も前から一対のファイバーケーブルで、映像・音声・シリアル通信まで送受信できるシステムを提案しているRIEDEL。やっと時代が追いついてきているということなのだろうか。F1のような世界規模の現場からのリクエストで制作され鍛え上げられてきたRIEDELの製品。国内でも活用が多く見られるインカムは、RIEDELの持つテクノロジーの一端でしかない。トータルシステムとして導入して本来のバリューを発揮するRIEDELの製品群。今回のような事例から次世代のシステム・ソリューションにおけるヒントを見つけていただければ幸いである。 *ProceedMagazine2024号より転載
昨夏、日産スタジアムにて開催された音楽ライブ「UVERworld KING’S PARADE 男祭り REBORN at Nissan Stadium」。この72,000人の観客とともに作り上げた公演を記録した映像作品が全国劇場公開された。男性のみが参加できるという日本最大の「男祭り」、劇場版の音響にはDolby Atmosが採用され、約7万人もの男性観客のみが集ったその熱狂を再現したという本作。音響制作を手がけられたWOWOW 戸田 佳宏氏、VICTOR STUDIO 八反田 亮太氏にお話を伺った。 ライブの熱狂を再現する作品を 📷右)戸田 佳宏 氏 / 株式会社WOWOW 技術センター 制作技術ユニット エンジニア 左)八反田 亮太氏 / VICTOR STUDIO レコーディングエンジニア Rock oN(以下、R):本日はお時間いただきありがとうございます。まず最初に、本作制作の概要についてお聞きしてもよろしいですか? 戸田:今回のDolby Atmos版の制作は、UVERworldさんの男祭りというこれだけの観客が入ってしかも男性だけというこのライブの熱量を表現できないか、追体験を作り出せないかというところからスタートしました。大まかな分担としては、八反田さんがステレオミックスを制作し、それを基に僕がDolby Atmosミックスを制作したという流れです。 R:ステレオとAtmosの制作については、お二人の間でコミュニケーションを取って進められたのでしょうか? 八反田:Dolby Atmosにする段階では、基本的に戸田さんにお任せしていました。戸田さんとはライブ作品をAtmosで制作するのは2度目で、前回の東京ドーム(『UVERworld KING’S PARADE 男祭り FINAL at Tokyo Dome 2019.12.20』)でも一緒に制作をしているので、その経験もあってすり合わせが大きく必要になることはありませんでした。 戸田:このライブ自体のコンセプトでもあるのですが、オーディエンス、演奏の”熱量”というところをステレオ、Atmosともに重要視していました。僕がもともとテレビ番組からミックスを始めているのもあるのかもしれないですが、会場を再現するという作り方に慣れていたので、まず会場をAtmosで再現するところから始めました。そうやって制作するとオーディエンス、会場感が大きいものになっていくので、それを八反田さんに確認していただいて、音楽としてのミックスのクオリティを高めていくという流れですね。逆にCDミックスのような質感に寄りすぎてもライブの熱量が足りなくなっていくので、その境界線を見極めながらの作業になりました。 八反田:作業している時は「もっと熱量を!」というワードが飛び交っていましたね(笑)。 戸田:Atmosミックスではアリーナ前方の位置でライブを見ている感覚をイメージしていました。ライブ会場ではこうだよな、という聴こえ方を再現するという方向ですね。映像作品なのでボーカルに寄る画もあるので、そういった場面でも成立するようなバランスを意識しました。 八反田:ステレオでこれだとドラムが大きすぎるよな、というのもAtmosでは可能なバランスだったりするので、音楽としてのバランスも込みでライブをどう聴かせたいかという理想を突き詰めた部分もあります。 日産スタジアムでのライブ収録 📷1~16がステレオミックス用、17~42がDolby Atmos用に立てられたマイク。色によって高さの階層が分けて記されており、赤がアリーナレベル、青が2Fスタンド、緑がトップ用のマイクとなっている。31~34はバックスクリーン下のスペースに立てられた。 R:収録についてはどういった座組で行われたのでしょうか? 戸田:基本はパッケージ収録用のステレオ前提でライブレコーディングチームがプランニングをされていたので、3Dオーディオ版として足りないところをWOWOWチームで追加しました。事前にステレオのチームとマイク図面の打ち合わせを行い、マイク設置位置を調整しました。録音は音声中継車で録ることができる回線数を20chほど超えてしまったので追加でレコーダーを持ち込みました。ドラムセットが3つあったのもあって、全体で150chくらい使用していますね。そのうちオーディエンスマイクだけでステレオ用で16本、Atmos用でさらに26本立てました。 R:日産スタジアムってかなり広いですよね。回線は信号変換などを行って伝送されたのですか? 戸田:アリーナレベルは、音声中継車までアナログケーブルで引きました。スタンドレベルも端子盤を使って中継車までアナログですね。足りない部分だけOTARI Lightwinderを使ってオプティカルケーブルで引くこともしました。スタジアムはとにかく距離が長いのと、基本的にはサッカーの撮影用に設計された端子盤なので、スタンド席のマイクなどは養生などをして観客の中を通さないといけないのが結構大変でした。 R:ステージのフロントに立っているマイクは観客の方を向いているんですか? 戸田:そうですね。それはステージの端から観客に向けて立てられたマイクです。レスポンスの収録用です。曲中は邪魔にならないように工夫しながらミックスしました。包まれ感には前からのオーディエンスも重要なので。 R:Atmos用に設置したマイクについては、どういった計画で設置されたのでしょうか? 戸田:Atmos用のマイクはステレオ用から足りないところ、スピーカー位置で考えるとサラウンドのサイド、リア、トップなどを埋めていくという考え方で置いていきました。 八反田:キャットウォークに置いたマイクが被りも少なく歓声がよく録れていて、お客さんに包まれる感じ、特に男の一体感を出すのに使えました。イマーシブ用マイクで収録した音源は、ステレオミックスでも使用しています。 約150chの素材によるDolby Atmos ミックス R:これだけ広い会場のアンビエンスだと、タイムアライメントが大変ではなかったですか? 戸田:そこはだいぶ調整しましたね。一番最初の作業がPAミックスと時間軸を調整したアンビエンスをミックスし、会場の雰囲気を作っていくことでした。スタジアムは一番距離があるところで100m以上離れているので、単純計算で0.3〜0.5秒音が遅れてマイクに到達します。 R:合わせる時はオーディオファイルをずらしていったのですか? 戸田:オーディエンスマイクの音を前へ(時間軸として)と調整していきました。ぴったり合うと気持ちいいというわけでもないし、単純にマイク距離に合わせればいいというわけでもないので、波形も見つつ、スピーカーとの距離を考えて経験で調整していきました。正解があったら知りたい作業でしたね。 R:空気感、スタジアム感との兼ね合いということですね。MCのシーンではスタジアムの残響感というか、声が広がっていくのを細かく聴き取ることができました。リバーブは後から足されたりしたのですか? 戸田:MCの場面ではリバーブを付け足す処理などは行なっていません。オーディエンスマイクで拾った音のタイムアライメントを調整して、ほぼそのまま会場の響きを使っています。ステージマイクに対してのリバーブは、一部AltiverbのQuadチャンネルを使っています。 R:ライブではMCからスムーズに歌唱に入るシーンも多かったと思いますが、そこの切り替えはどうされたんですか? 戸田:そこが今回の作品の難しいところでした。見る人にもMCからすっと音楽に入ってもらいたいけど、かといって急に空間が狭くなってしまうと没入感が損なわれてしまうので、会場の広さを感じながらも音楽にフォーカスしてもらえるように、MCと楽曲中のボーカルのリバーブではミックスで差をつけるなどで工夫しています。 R:なるほど。アンビエンスの音処理などはされました? 戸田:曲によってアンビ感が強すぎるものはボーカルと被る帯域を抜いたりはしています。前回の東京ドームでは意図しない音を消すこともしたのですが、今回は距離感を持ってマイクを置けたので近い音を消すことは前回ほどなかったです。 R:オブジェクトの移動は使いました? 戸田:ほぼ動かしていないですね。画や人の動きに合わせて移動もしていないです。バンドとしての音楽作品という前提があるので、そこは崩さないように気を付けています。シーケンスの音は少し動かした所があります。画がない音なので、そういうのは散らばらせても意外と違和感がないかなと感じています。 📷会場内に設置されたマイクの様子。左上はクランプで観客席の手すりに付けられたマイク。すり鉢状になっている会場の下のレイヤーを狙うイメージで立てられた。また、その右の写真は屋根裏のキャットウォークから突き出すようにクランプで設置されたトップ用マイク。天井との距離は近いが、上からの跳ね返りはあまり気にならずオーディエンスの熱気が上手く録れたという。 R:イマーシブになるとチャンネル数が増えて作業量が増えるイメージを持たれている方も多いと思うのですが、逆にイマーシブになることで楽になる部分などはあったりしますか? 戸田:空間の解像度が上がって聴いてもらいたい音が出しやすくなりますね。2chにまとめる必要が無いので。 八反田:確かにそういう意味ではステレオと方向性の違うものとしてAtmosは作っていますね。ステレオとは違うアプローチでの音の分離のさせ方ができますし、Atmosを使えば面や広い空間で鳴らす表現もできます。東京ドームの時もそういうトライはしましたが、今回はより挑戦しました。ドームは閉じた空間で残響も多いので、今回は広く開けたスタジアムとしての音作りを心がけています。 R:被りが減る分、EQワークは楽になりますよね。 戸田:空間を拡げていくと音が抜けてきますね。逆に拡がりよりも固まりが求められる場合は、コンプをかけたりもします。 R:イマーシブミックスのコンプって難しくないですか?ハードコンプになると空間や位相が歪む感じが出ますよね。 戸田:すぐにピークを突いてしまうDolby Atmosでどう音圧を稼ぐかはポイントですよね。今回はサイドチェイン用のAUXバスを使って、モノラル成分をトリガーにオブジェクト全体で同じ動きのコンプをかける工夫をしています。オーディエンスのオブジェクトを一括で叩くコンプなどですね。ベッドのトラックにはNugen Audio ISL2も使っています。 R:スピーカー本数よりマイク本数の方が多いので、間を埋めるポジションも使いつつになると思いますが、パンニングの際はファンタム定位も積極的に使われましたか? 戸田:位相干渉が出てくるのであまりファンタム定位は使わずにいきました。基本の考え方はチャンネルベースの位置に近いパンニングになっていると思います。ダビングステージで聴いた時に、スピーカー位置の関係でどうしても後ろに音が溜まってしまうので、マイクによってはスピーカー・スナップ(近傍のスピーカーにパンニングポジションを定位させる機能)を入れて音が溢れすぎないようにスッキリさせました。 Dolby Atmos Home環境とダビングステージの違い R:丁度ダビングの話が出ましたが、ダビングステージでは正面がスクリーンバックのスピーカーになっていたりとDolby Atmos Homeの環境で仕込んできたものと鳴り方が変わると思うのですが、そこは意識されましたか? 戸田:スクリーンバックというよりは、サラウンドスピーカーの角度とXカーブの影響で変わるなという印象です。東京ドームの時はXカーブをすごく意識して、全体にEQをかけたんですけど、今回違う挑戦として、オーディエンスでなるべくオブジェクトを使う手法にしてみました。とにかく高さ方向のあるものやワイドスピーカーを使いたいものはオブジェクトにしていったら、ダビングステージでもイメージに近い鳴り方をしてくれました。もちろん部屋の広さとスピーカーの位置が違うので、仕込みの時から定位を変えてバランスをとりました。 R:ダビングはスピーカー位置が全部高いですからね。 戸田:全体の定位が上がっていってしまうので、そうするとまとまりも出てこないんですよね。なのでトップに配置していた音をどんどん下げていきました。トップの位置もシネマでは完全に天井ですから、そこから鳴るとまた違和感になってしまう。スタジアムは天井が空いているので、本来観客がいない高い位置からオーディエンスが聴こえてしまうのは不自然になってしまうと考えました。 R:これだけオーディエンスがあると、オブジェクトの数が足りなくなりませんでした? 戸田:そうですね、当時の社内のシステムではオブジェクトが最大54しか使えなかったので工夫しました。サラウンドはベッドでも7chあるので、スピーカー位置の音はベッドでいいかなと。どうしても真後ろに置きたい音などにオブジェクトを使いました。楽器系もオブジェクトにするものはステムにまとめています。 R:シネマ環境のオブジェクトでは、サラウンドがアレイで鳴るかピンポイントで鳴るかという違いが特に大きいですよね。 戸田:はい。なのでオーディエンスがピンポイントで鳴るようにオブジェクトで仕込みました。ベッドを使用しアレイから音を出力すると環境によりますが、8本くらいのスピーカーが鳴ります。オーディエンスの鳴り方をオブジェクトで制御できたことで空間を作るための微調整がやりやすかったです。ただ、観客のレスポンスはベッドを使用してアレイから流すことで、他の音を含めた全体の繋がりが良くなるという発見がありました。 R:最後に、音楽ライブコンテンツとしてDolby Atmosを制作してみてどう感じていますか? 八反田:誤解を恐れずに言えば、2chがライブを“記録“として残すことに対してDolby Atmosは“体験“として残せることにとても可能性を感じています。今回は会場の再現に重きを置きましたが、逆にライブのオーディエンスとしては味わえない体験を表現することも面白そうです。 戸田:Dolby Atmosでは、音楽的に表現できる空間が広くなることで、一度に配置できる音数が増えます。こういう表現手法があることでアーティストの方のインスピレーションに繋がり、新たな制作手法が生まれると嬉しく思います。またライブ作品では、取り扱いの難しいオーディエンスも含めて、会場感を損なわずに音楽を伝えられるというのがDolby Atmos含めイマーシブオーディオの良さなのかなと考えています。 一度きりのライブのあの空間、そして体験を再び作り出すという、ライブコンテンツフォーマットとしてのDolby Atmosのパワーを本作からは強く感じた。72,000人の男性のみという特殊なライブ会場。その熱量をコンテンツに込めるという取り組みは、様々な工夫により作品にしっかりと結実していた。やはり会場の空気感=熱量を捉えるためには、多数のアンビエントマイクによる空間のキャプチャーが重要であり、これは事前のマイクプランから始まることだということを改めて考えさせられた。イマーシブオーディオの制作数も徐々に増えている昨今、制作現場ではプロジェクト毎に実験と挑戦が積み上げられている。過渡期にあるイマーシブコンテンツ制作の潮流の中、自らの表現手法、明日の定石も同じように蓄積されているようだ。 UVERworld KING’S PARADE 男祭り REBORN at Nissan Stadium 出演:UVERworld 製作:Sony Music Labels Inc. 配給:WOWOW ©Sony Music Labels Inc. *ProceedMagazine2024号より転載
今年1月、アーティスト・福山雅治による初監督作品 『FUKUYAMA MASAHARU LIVE FILM 言霊の幸わう夏 @NIPPON BUDOKAN 2023』が公開された。昨年夏に開催された武道館公演を収録した本作は、ドローン撮影による映像やDolby Atmosが採り入れられ、福山本人による監修のもと “ライブを超えたライブ” 体験と銘打たれた作品となっている。今回は特別に、本作の音響制作陣である染谷 和孝氏、三浦 瑞生氏、嶋田 美穂氏にお越しいただき、本作における音響制作についてお話を伺うことができた。 📷 左)三浦 瑞生氏:株式会社ミキサーズラボ 代表取締役社長 レコーディング、ミキシングエンジニア 中)嶋田 美穂氏:株式会社ヒューマックスエンタテインメント ポストプロダクション事業部 リレコーディングミキサー マネジャー 右)染谷 和孝氏:株式会社ソナ 制作技術部 サウンドデザイナー/リレコーディングミキサー ”理想のライブの音”に至るまで Rock oN(以下、R):まずは、今回の企画の経緯について聞かせていただけますか? 染谷:私はこれまで嵐、三代目 J Soul Brothers(以下JSB3)のライブフィルム作品のAtmos ミックスを担当させていただきました。嶋田さんとは前作のJSB3からご一緒させていただいていて、その二作目ということになります。嶋田さんとのお話の中で、私たちが一番注意していたことは、音楽エンジニアの方とのチームワークの構築でした。三浦さんは長年福山さんの音楽を支えてこられた日本を代表するエンジニアさんであり、すでにチーム福山としての完成されたビジョンやチームワークはできあがっています。そこに我々がどのように参加させていただくかを特に慎重に考えました。Atmos制作内容以前に、チームメンバーとしての信頼を得るというのはとても大切な部分です。その配慮を間違えると「作品の最終着地点が変わるな」と感じていましたので、最初に三浦さんにAtmosで制作する上でどういうことができるのか、いくつかのご説明と方向性をご相談させていただきました。そして最終的に、三浦さんと福山さんの中でステレオミックスをまず制作していただいて、その揺るぎない骨子をAtmosミックスに拡張していく方向で制作を進めていくことに決まりました。 R:Atmosで収録した作品として今作で特徴的なのが、ライブの再現ではなく、“ライブを超えたライブ体験”というコンセプトを大事にされていますが、その方向性というのも話し合う中で決まっていったのですか? 染谷:収録が終わり、まず三浦さんがステレオミックスをされて、その後何曲かAtmosミックスを行い、福山さんにお聴かせする機会がありました。そこで福山さんが、オーディエンス(歓声)のバランスを自分の手で調整しながらAtmosの感覚、できることを探っていかれる時間がありました。 嶋田:そこで、閃かれた瞬間がありましたよね。 染谷:武道館特有の上から降ってくるような歓声やセンターステージに立っている福山さんでしか感じられない雰囲気をこのDolby Atmosなら“お客さんに体感・体験していただくことができる“と確信されたんだと思います。その後の作業でも、福山さんの「追体験じゃないんですよ」という言葉がすごく印象に残っています。まさにステージ上での実体験として感じていただくこと、それが私たちのミッションだったわけです。 R:では録音の段階ではどのような構想で進められていたのですか? 染谷:収録段階では、2階、3階と高さ方向での空間的なレイヤーをキャプチャーしたいと考えていました。 嶋田:最終的にオーディエンスマイクは合計で28本になりましたね。PAの前にも立ててみたりはしたのですが、音を聴くと微妙に位相干渉していたので結局は使っていません。 三浦:基本のステレオミックス用がまず20本あって、そこに染谷さんがAtmos用に8本足されました。基本的には、PAスピーカーの指向性からなるべく外れたところから、お客さんの声や拍手を主に狙うように設置しています。 R:オーディエンスの音源の配置は、基本マイク位置をイメージして置かれていますか? 染谷:そうですね。上下で100段階あるとしたら、2階は40、3階は90~100くらいに置いてレイヤー感を出しています。上から降りそそぐ歓声を表現するには、上、下の二段階ではなく、これまでの経験から中間を設けて階層的に降ろしていった方が結果的に良かったので、今回はこのように配置しました。 R:福山さんが向く方向、映像の画角によってアンビエントのバランス感は変えたのですか? 染谷:そこは変えていないです。それをすると音楽との相関関係から音像が崩れていくので、基本的にオーディエンスは一回決めたらあまり動かさない方が良いように思います。楽器の位置なども基本は、三浦さんと福山さんが決められたステレオ音源の位置関係を基準にしてAtmos的な修正をしています。 Atmosミックスのための下準備とは R:収録後はどういった調整をされたのでしょうか? 染谷:録った音をシンプルにAtmosで並べると、当然位相干渉を起こしていますので、タイムアライメント作業で修正を行います。具体的な方法としてはAtmosレンダラーでステレオと9.1.4chを何度も切り替えながらディレイを使用してms単位での補正を行います。レンダラーでステレオにしたときに正しくコントロールできていない場合は、確実に位相干渉するので判断できます。また、嶋田さんのコメントの通り、会場の反射で位相干渉した音が録れている場合もありますから、マイクの選定なども含めて進めていきました。 R:ディレイということは遅らせていく方で調整されたのですか。 染谷:今回はそうですね。ドームなどの広い会場だったら早めていると思うのですが、武道館では遅らせていった方がいい結果が得られました。早めていくと空間が狭くなっていくので、だんだん武道館らしさがなくなり、タイトな方向になってしまうんです。ですので、よりリアルに感じていただけるよう、疑似的に武道館の空間を創りだしています。実際にはセンターステージの真ん中のマイクを基準にして、他のマイクがどのように聴こえてくるかを考えながらディレイ値を導き出していきました。 R:逆にステレオだとオーディエンスを後ろにずらしての調整とかは難しいと思いますがどうでした? 三浦:オーディエンスマイクの時間軸の位置はそのままで、音量バランスで調整しています。フロントマイクをメインにして、お客さんの声の近さなどからバランスをとりました。やっぱり一番気になるのは、ボーカルの声がオーディエンスマイクを上げることで滲まないように、そこは色々な方法で処理しています。 R:Atmos用に追加したマイクはステレオでも使われましたか? 三浦:使っています。Atmosとステレオである程度共通した雰囲気を作る方がいいのかなと思って。スピーカーの数が変わる以上は聴こえ方も変わるのは分かっていましたが、福山さんとの作業の中でステレオ、Atmosで共通のイメージを固めておかないといけないと思ったのもありますし、会場の雰囲気を伝えることでできる音も含まれていましたので。 染谷:三浦さんがステレオの制作をされている間、嶋田さんと私はひたすらiZotope RXを使った収録済みオーディエンス素材のノイズ除去、レストレーション作業の日々でしたね。 嶋田:トータル 3、4ヶ月くらいしてましたよね。 R:RXはある程度まとめてマルチトラックモードでの処理も使われました? 嶋田:これがすごく難しいんですけど、28トラック分まとめて処理する場合も、1トラックずつ処理する場合もあります。私はノイズの種類によって使い方を変えました。例えばお客さんの咳を消したい場合、一番近いマイクだけでなくすべてのマイクに入っているので、綺麗に消したくなりますよね。でもすべて消すと空間のニュアンスまで無くなってしまうので、そのバランスは悩みました。近すぎる拍手なども全部消すのか、薄くするのかの判断は、喝采の拍手なのか、しっとりとした拍手なのかという拍手のニュアンス込みで考えたりもしましたね。 染谷:消せば良いってものでもないんですよ。音に味が無くなるというか。拍手を取る時はDe-Clickを使いますが、Sensitivityをどこの値にもってくるか最初の初期設定が大事です。 R:その設定はお二人で共有されていたんですか? 嶋田:最初に染谷さんがノイズの種類に合わせて大体の値を設定していただいて、そこから微調整しながら進めました。 染谷:作業が進んでいくとだんだんその値から変わっていきますけどね(笑)。リハの時に録っておいたベースノイズをサンプルにして全体にレストレーションをかけることもしています。武道館の空調ノイズって結構大きいんですよ。でもSpectral De-Noiseを若干かけるくらいです。やっぱり抜きすぎてもダメなんです。抜かないのもダメですけど、そこはうまくコントロールする必要があります。 染谷:基本的にクラップなどの素材も音楽チームの方で作っていただいて、とても助かりました。 三浦:ステレオミックスの仕込みの段階で福山さんとミックスの方向性の確認をした際に、通常はオーディエンスのレベルを演奏中は低めにして、演奏後はかなり上げるというようにメリハリをつけていますが、今回は曲中もお客さんのハンドクラップ(手拍子)がしっかり聴こえるくらいレベルを上げ目にしてくれというリクエストがありました。「これは記録フィルムではなくエンターテイメントだから」ということも仰っていたので、ライブ中の他の場所から良いハンドクラップの素材を抜き出し、違和感がない程度にそれを足して音を厚くするなどのお化粧も加えています。 📷三浦氏が用意したAtmos用ステムは合計111トラックに及ぶ。28chをひと固まりとしたオーディエンスは、素材間の繋ぎやバランスを考慮した嶋田氏の細かな編集により何重にも重ねられた。時にはPCモニターに入りきらない量のトラックを一括で操作することもあるため、タイムライン上での素材管理は特に気を張る作業であったという。高解像度なAtmosに合わせたiZotope RXによる修正も、作業全体を通して取り組まれた。 R:その他に足された音源などはありますか? 三浦:シーケンスデータですね。ライブでは打ち込みのリズムトラック、ストリングスなどのシーケンスの音はある程度まとまって扱われます。それはライブPAで扱いやすいように設計されているからなのですが、映画やパッケージの制作ではもう少し細かく分割されたデータを使って楽曲ごとに音色を差別化したくなるので、スタジオ音源(CDトラックに収録されているもの)を制作した際の、シーケンスデータを使用しました。なのでトラック数は膨大な数になっています(笑)。 嶋田:480トラックくらい使われていますよね!Atmos用に持ってきていただいた時には111ステムくらいにまとめてくださりました。 三浦:楽曲ごとにキックの音作りなども変えたくなるので、するとどんどんトラック数は増えていってしまいますよね。作業は大変だけど、その方が良いものになるかなと。今回はAtmosということでオーディエンスも全部分けて仕込んだので、後々少し足したい時にPro Toolsのボイスが足りなくなったんですよ。オーディオだけで1TB以上あるので、弊社のシステムではワークに収まりきらず、SSDから直の読み書きで作業しました。Atmosは初めてのことだったので、これも貴重な体験だったなと思っています。 染谷:本当に想像以上にものすごい数の音が入っているんですよ。 嶋田:相当集中して聴かないと入っているかわからない音もあるんですが、その音をミュートして聴いてみると、やはり楽曲が成立しなくなるんです。そういった大切な音が数多くありました。 R:ステムをやり取りされる中で、データを受け渡す際の要望などはあったのですか? 染谷:僕からお願いしたのは、三浦さんの分けやすいようにということだけです。後から聞くと、後々の修正のことも考えて分けてくださっていたとのことでした。ありがとうございます。 三浦:ステレオではOKが出たとしても、環境が変わってAtmosになれば聴こえ方も変わるだろうというのがあったので、主要な音はできるだけ分けました。その方が後からの修正も対応できるかなと思って、シーケンスデータもいくつかに分けたり、リバーブと元音は分けてお渡ししましたよね。想定通り、Atmosになってからの修正も発生したので、分けておいてよかったなと思っています。 嶋田:その際はすごく助かりました。特に、オーディエンスマイクもまとめることなく28本分を個別で渡してくださったので、MAの段階ですぐに定位が反映できたはとてもありがたかったです。 チームで取り組むDolby Atmos制作 染谷:今回は三浦さんが音楽を担当されて、僕と嶋田さんでAtmosまわりを担当したんですけど、チームの役割分担がすごく明確になっているからこそできたことが沢山ありました。そのなかの一つとして、編集された映像に対して膨大な音素材を嶋田さんが並べ替えて、ミックスができる状態にしてくれる安心感というのはすごく大きかったです。今回、嶋田さんには、大きく2つのお願いをしました。①映像に合わせてのステム管理、使うトラックの選定、とても重要な基本となるAtmosミックス、②足りないオーディエンスを付け足すという作業をしてもらいました。何度も言っちゃいますが、すごいトラック数なので並べるのも大変だったと思います。 三浦:こちらからお渡ししたのはライブ本編まるまる一本分の素材なので、そこから映画の尺、映像に合わせての調整をしていただきました。 嶋田:映像編集の段階で一曲ずつ絶妙な曲間にするための尺調整や曲順の入れ替えがあったり、エディットポイントが多めで、いつもより時間をかけた記憶があります。特に普段のMAでは扱わないこのトラック数を一括で動かすとなると、本当に神経を使う作業になるんですよ。修正素材を張り込む時にも、一旦別のタイムラインに置いて、他のオーディオファイルと一緒に映像のタイムラインに置いたりと、とにかくズレないように工夫をしていました。 R:Atmosで広げるといってもLCRを中心に作られていたなと拝見して感じているんですけれど、やはり映画館ではセンタースピーカーを基本に、スクリーンバックでの音が中心になりますか。 嶋田:映像作品なので、正面のメインステージの楽器の配置、三浦さんのステレオのイメージを崩さないバランスで置きました。空間を作るのはオーディエンスマイクを軸にしています。さらに立体感を出すためにギターを少し後ろに置いてみたりもしました。ボーカルはセンター固定です。しっかりと聴かせたいボーカルをレスポンス良く出すために、LRにこぼすなどはせずに勝負しました。なんですが、、、ラスト2曲はセンターステージの特別感を出すために中央に近い定位に変えています。 染谷:福山さんからの定位に関するリクエスト多くありましたね。印象的な部分では今さんのギターを回したり、SaxやStringsの定位、コーラスの定位はここに置いて欲しい、など曲ごとの細かな指定がありました。 R:ベッドとオブジェクトの使い分けについてはどう設計されました? 嶋田:基本的には楽器はベッド、オーディエンスをオブジェクトにしました。それでもすべてのオーディエンスマイクをオブジェクトにするとオブジェクト数がすぐオーバーするので、その選定はだいぶ計算しました。 染谷:やっぱりどうしてもオブジェクトの数は足りなくなります。 Auxトラックを使用して、オブジェクトトラックに送り込む方法もありますけど、映像の変更が最後まであったり、それに伴うオーディエンスの追加が多くなると、EQを個別に変えたりなどの対応がとても複雑になります。瞬時の判断が求められる作業では、脳内で整理しながら一旦AUXにまとめてレンダラーへ送っている余裕は無くなってきます。やはり1対1の方が即時の対応はしやすかったです。今考えているのは、ベッドってどこまでの移動感を表現できるのか?ということです。先ほどギターを回したと言いましたが、それも実はベッドなんです。ベッドだとアレイで鳴るので、どこの位置で回すかということは考えないといけませんでしたが、最終的に上下のファンタム音像を作って回してあげるとHomeでもCinemaでもある程度の上下感を保って回ってくれることが分かりました。絶対に高さ方向に動くものはすべてオブジェクトじゃなきゃダメ!という固定概念を疑ってみようかなと思って挑戦してみたんですけど。嶋田さんはどのように感じましたか? 嶋田:こんなにベッドで動くんだ、というのが素直な感想です。私も動くものや高さを出すものはオブジェクトじゃないと、という気持ちがずっとあったんですけど、今のオブジェクト数の制約の中ではこういった工夫をしていかないといけないなと思っています。 📷Dolby Atmos Home環境でのプリミックスは、Atmosミックスを担当したお二人が在籍するヒューマックスエンタテインメント、SONAのスタジオが使用された。劇場公開作品でもHome環境を上手に活用することは、制作に伴う時間的・金銭的な問題への重要なアプローチとなりえる。その為には、スピーカーの選定やモニターシステムの調整などCinema環境を意識したHome環境の構築が肝心だ。なお、ファイナルミックスは本編が東映のダビングステージ、予告編がグロービジョンにて行われた。 シネマ環境を意識したプリミックス 染谷:今回、ダビングステージを何ヶ月も拘束することはできないので、Dolby Atmos Home環境でダビングのプリミックスを行いました。Homeのスタジオが増えてきていますが、Homeで完結しない場合もこれから多く出てくると思うので、今回はこういった制作スタイルにトライしてみようと考えました。 嶋田:Homeでのプリミックスでまず気をつけなければならないのが、モニターレベルの設定です。映画館で欲しい音圧感が、普段作業している79dBCでは足りないなと感じたので、Homeから82dBCで作業していました。 染谷:最終確認は85dBCでモニターするべきなんですが、作業では82dBCくらいが良いと感じています、スピーカーとの距離が近いスタジオ環境では85dBCだと圧迫感があって長時間の作業が厳しくなってしまいます。 嶋田:ダビングステージでは空間の空気層が違う(スピーカーとの距離が違う)ので、ダビングステージの音質感や、リバーブのかかり方をHomeでもイメージしながら作業しました。またダビングステージは間接音が多く、Homeでは少し近すぎるかなというクラップも、ダビングステージにいけばもう少し馴染むから大丈夫だとサバ読みしながらの作業です。 染谷:Dolby Atmos Cinemaの制作経験がある我々は、ある程度その変化のイメージが持てますが、慣れていない方はHomeとの違いにものすごくショックを受けられる方も多いと聞いています。三浦さんはどうでした? 三浦:やはり空間が大きいなと、その点ではより武道館のイメージにより近くなるなとは感じましたね。 R:ダビングではどう鳴るか分かって作業しているかが本当に大事ですよね。やはりダビングは、映画館と同等の広さの部屋になりますからね。 染谷:直接音と間接音の比率、スピーカーの距離が全然違いますからね。制作される際はそういったことを含めて、きちんと考えていかないといけません。 嶋田:今回Homeからダビングステージに入ってのイコライジング修正もほぼなかったですね。 染谷:ダビング、試写室、劇場といろんな場所によっても音は変わるんだなというのは思います。どれが本当なんだろうなと思いながらも、現状では80点とれていればいいのかなと思うことにしています。 R:それは映画関係の方々よく仰ってます。ある程度割り切っていかないとやりようがないですよね。三浦さんは今回初めてAtmosの制作を経験されましたが、またやりたいと思われます? 三浦:このチームでなら! 染谷・嶋田:ありがとうございます(笑)。 三浦:染谷さん、嶋田さんには、客席のオーディエンスマイクのレベルを上げると、被っている楽器の音まであがっちゃうんですが、そういう音も綺麗に取っていただいて。 染谷:でも、その基本となる三浦さんのステムの音がめちゃくちゃに良かったです。 嶋田:聴いた瞬間に大丈夫だと思いましたもんね。もう私たちはこれに寄り添っていけばいいんだと思いました。 染谷:今回は特に皆さんのご協力のもと素晴らしいチームワークから素敵な作品が完成しました。短い時間ではありましたが、三浦さんのご尽力で私たち3名のチーム力も発揮できたと感じています。プロフェッショナルな方達と一緒に仕事をするのは楽しいですね。 三浦:そういった話で言うと、最後ダビングステージの最終チェックに伺った際、より音がスッキリと良くなっていると感じたんです。なぜか聞いたらクロックを吟味され変えられたとのことで、最後まで音を良くするために試行錯誤されるこの方達と一緒にやれて良かったなと感じています。 染谷:その部分はずっと嶋田さんと悩んでいた部分でした。DCPのフレームレートは24fpsですが、実際の収録や音響制作は23.976fpsの方が進めやすいです。しかし最終的に24fpsにしなくてはいけない。そこでPro Toolsのセッションを24fpsに変換してトラックインポートかけると、劇的に音が変わってしまう。さらにDCP用Atmosマスター制作時、.rplファイルからMXFファイル(シネマ用プリントマスターファイル)に変換する際にも音が変わってしまうんです。 この2つの関門をどう乗り越えるかは以前からすごく悩んでいました。今回はそれを克服する方法にチャレンジし、ある程度の合格点まで達成できたと感じています。どうしたかというと、今回はSRC(=Sample Rate Convertor)を使いました。Pro Toolsのセッションは23.976fpsのまま、SRCで24fpsに変換してシネマ用のAtmosファイルを作成したところ、三浦さんに聴いていただいたスッキリした音になったんです!今後もこの方法を採用していきたいですね。 R:SRCといっても色々とあると思うのですが、どのメーカーの製品を使われたんですか? 嶋田:Avid MTRXの中で、MADI to MADIでSRCしました。以前から24fpsに変換するタイミングでこんなに音が変わってしまうんだとショックを受けていたんですが、今回で解決策が見つかって良かったです。 染谷:MXFファイルにしたら音が変わる問題も実は解決して、結局シネマサーバーを一度再起動したら改善されました。普段はあまり再起動しない機器らしいので、一回リフレッシュさせてあげるのは特にデジタル機器では大きな意味がありますね。こういった細かなノウハウをみんなで情報共有して、より苦労が減るようになってくれればと願っています。 R:この手の情報は、日々現場で作業をされている方ならではです。今日は、Atmos制作に関わる大変重要なポイントをついたお話を沢山お聞きすることができました。ありがとうございました。 📷本作を題材に特別上映会・トークセッションも今年頭に開催された。 本作はアーティストの脳内にある“ライブの理想像”を追求したことで、Dolby Atmosによるライブ表現の新たな可能性が切り拓かれた作品に仕上がっている。音に関しても、アーティストが、ステージで聴いている音を再現するという、新しい試みだ。それは、アーティストと制作チームがコミュニケーションを通じて共通のビジョンを持ち制作が進められたことで実現された。修正やダビングといったあらゆる工程を見越した上でのワークフローデザインは、作業効率はもちろん最終的なクオリティにも直結するということが、今回のインタビューを通して伝わってきた。入念な準備を行い、マイクアレンジを煮詰めることの重要性を改めて実感する。そして何より、より良い作品作りにはより良いチーム作りからという本制作陣の姿勢は、イマーシブ制作に関係なく大いに参考となるだろう。 FUKUYAMA MASAHARU LIVE FILM言霊の幸わう夏@NIPPON BUDOKAN 2023 監督:福山雅治 出演:福山雅治、柊木陽太 配給:松竹 製作:アミューズ ©︎2024 Amuse Inc. *ProceedMagazine2024号より転載
去る4月、伝説のレコーディング・エンジニアであるボブ・クリアマウンテン氏が来日。東京・麻布台のSoundCity B Studioにおいて「伝説のエンジニア ボブ・クリアマウンテンが描くミックス・ノウハウのすべて」と題したセミナー・イベントが開催された。受講者20名限定で開催されたこのイベントでは、注目を集める“音楽のイマーシブ・ミックス”について、ボブ・クリアマウンテンがそのワークフローとテクニックを約3時間にわたって解説。途中、一般には公開されていない著名な楽曲のイマーシブ・ミックスが特別に披露されるなど、大変充実した内容のイベントとなった。ここではその模様をダイジェストでお伝えしたい。 イマーシブ・オーディオへの取り組み Bob Clearmountain氏:私は音楽のサラウンド・ミックスにいち早く取り組んだエンジニアのひとりだと思いますが、イマーシブ・オーディオに関しては、妻(注:Apogee ElectronicsのCEO、ベティー・ベネット氏)から、“これは素晴らしいテクノロジーだから、ぜひ取り組むべきだ”と背中を押されたことがきっかけになりました。実際に音楽のイマーシブ・ミックスを手がけたのは、皆さんご存知のザ・バンドが最初です。私はザ・バンドの名盤3作品の5.1chミックスを手がけたのですが、その中の1枚「カフーツ」というアルバムの作業をしているときに、レコード会社の担当者から、“Dolby Atmosでもミックスしてみないか”というオファーがあったのです。 その後間もなく、ジョー・ボナマッサの「Time Clocks」というアルバムもDolby Atmosでミックスしました。これが私にとって音楽のイマーシブ・ミックスの2作目になります。このアルバムのプロデューサーであるケヴィン・シャーリーはオーストラリア出身で、ディジュリドゥのサウンドがとても印象的な作品です。このアルバムは何年も前の作品であったため、レーベル・サイドもアーティスト本人も、最初はDolby Atmos化にあまり関心がありませんでした。ただ、私は自分のスタジオをDolby Atmosに対応させたばかりだったので、Dolby Atmosバージョンをジョー・ボナマッサ本人、ケヴィン・シャーリー、レーベルのスタッフに聴いてもらったのです。そうしたら彼らはそのサウンドに感銘を受け、“これは素晴らしい、ぜひリリースしよう”ということになりました。それがきっかけで、ケヴィンも自身のスタジオをDolby Atmosに対応させましたよ(笑)。 私は1980年代、ロキシー・ミュージックの「Avalon」というアルバムをミックスしましたが、あれだけ様々な要素が含まれている作品がステレオという音場の中に収められているのはもったいないと前々から感じていました。もっと音場が広ければ、要素をいろいろな場所に定位できるのに… という想いが、常に頭の中にあったのです。もちろんそれは、イマーシブ・オーディオどころか、サラウンドが登場する以前の話で、いつかその想いを叶えたいと思っていました。その後、念願かなって「Avalon」のサラウンド・ミックスを作ることができました。そしてイマーシブ・オーディオの時代が到来し、「Avalon」のプロデューサーであるレット・ダヴィースと“これは絶対にDolby Atmosでミックスするべきだ”ということになったのです。 Dolby Atmosバージョンの「Avalon」を体験された方なら分かると思いますが、かなりの要素が後方に配置されており、そのようなバランスの楽曲は珍しいのではないかと思います。たとえば、印象的な女性のコーラスも後方に配置されています。なぜこのようなバランスにしたかと言えば、ステレオ・ミックスを手がけたときもそうだったのですが、演劇のような音響にしたいと考えたからです。楽曲に登場する演者、ボーカリスト、プレーヤーを舞台に配置するようなイメージでしょうか。ですので、キーとなるブライアン・フェリーのボーカルはフロント・センターですが、他の要素は異なる場所に定位させました。 イマーシブ・ミックスというと、多くの要素が動き回るミックスを想起する方も多いのではないかと思います。もちろん、そういうミックスも可能ですが、Dolby Atmosバージョンの「Avalon」ではそういうダイナミックなパンニングはほとんどありません。言ってみれば静的なミックスであり、ジェット機やヘリコプター、アイアンマンが登場するようなミックスではないのです。 SSL 4000Gを使用したイマーシブ・ミックス 📷オーディオの入出力を担うのはApogeeのSymphony I/O Mk II。Atmosミックスとステレオミックスを同時に作るワークフローではこれらを切り替えながら作業を行うことになるが、その際に素早く切り替えを行うことができるSymphony I/O Mk IIのモニター・コントロール機能は重宝されているようだ。SSL 4000Gの後段にある「プリント・リグ」と呼んでいるセクションで下図のようなセッティングを切り替えながら制作が進められていく。 私はイマーシブ・ミックスもアナログ・コンソールのSSL 4000Gでミックスしています。SSL 4000Gには再生用のAvid Pro Toolsから72chのオーディオが入力され、そしてミックスしたオーディオは、“プリント・リグ”と呼んでいる再生用とは別のPro Toolsにレコーディングします。“プリント・リグ”のPro Toolsは、最終のレコーダーであると同時にモニター・コントローラーとしての役割も担っています。 そして再生用Pro Toolsと“プリント・リグ”のPro Tools、両方のオーディオ入出力を担うのは、ApogeeのSymphony I/O Mk IIです。私は、ステレオ・ミックスとDolby Atmosミックスを同時に作りますが、Symphony I/O Mk IIでのモニター・コントロール機能は、まさしく私のワークフローのために搭載されているような機能と言えます。私は7.1.4chのDolby Atmosミックスと、ニア・フィールド・スピーカーやテレビなどに送る3組のステレオ・ミックスを切り替えながら作業を行いますが、Symphony I/O Mk IIではそういったワークフローに最適な機材です。ステレオ・ペアを最大16組作成することができ、非常に柔軟な作業環境を構築できるため、過去に手がけた5.1chのサラウンド・ミックスと比較しながらの作業も容易です。 肝心のミキシングについて、アナログ・コンソールのSSL 4000Gで一体どのようにイマーシブ・ミックスを行っているのか、疑問に感じた人もいるかもしれません。しかし決して特別なことを行っているわけではなく、そのルーティングはストレートでシンプルです。SSL 4000Gに入力した信号は、チャンネル・ストリップで調整した後、Dolby Atmos用のチャンネルとして、スモール・フェーダーのトリム・チャンネルを活用して送っているのです。スモール・フェーダーは基本ユニティーで使用し、レベルはラージ・フェーダーの方で調整してから、ポスト・フェーダーでスモール・フェーダーに送ります。スモール・フェーダーから2本のスピーカーに同時に送ることは基本ありませんが、隣り同士のスピーカーに同じ信号を送って、パンでバランスを調整することはあります。また、このルーティングですと、基本オートメーションを使用することができません。オートメーションを使いたいときは、専用のバスを作り、そちらに送ることで対処しています。 私のSSL SL4000Gは特別仕様で、VCAとバス・コンプレッサーが4基追加で備わっています。標準のステレオ・バスのDCを、追加搭載した4基のVCA / バス・コンプレッサーにパッチすることで、すべてのバス・コンプレッサーの挙動をスレーブさせ、ステレオ・ミックスとマルチ・チャンネル・ミックスのコンプレッションの整合性を取っているのです。ただ、これだけの構成では5.1chのサラウンド・ミックスには対応できても、7.1.4chのイマーシブ・ミックスには対応できません。それでどうしようかと悩んでいたときに、Reverb(編注:楽器・機材専門のオンライン・マーケットプレイス)でSSLのVCA / バス・コンプレッサーをラック仕様にノックダウンした機材を発見し、それを入手して同じようにDC接続することで、7.1.4chのイマーシブ・ミックスに対応させました。これはとてもユニークなシステムで、おそらく世界中を探しても同じようなことをやっている人はいないと思います(笑)。もちろん、サウンドは素晴らしいの一言です。 Dolby Atmosミックスは、7.1.2chのベッドと最大128個のオブジェクトで構成されますが、私は基本的にベッドルーム(7.1.2)でミックスを行います。オブジェクトは動く要素、たとえば映画に登場するヘリコプターなどのサウンドを再現する上では役に立ちますが、音楽のイマーシブ・ミックスにはあまり必要だとは思っていません。ですので、Dolby Atmosミックスと言っても私はハイト・スピーカーを除いた7.1chで音づくりをしています。なお、ハイト・チャンネルに関してDolby Laboratoriesは2chのステレオとして規定していますが、私は4chのクアッドとして捉え、シンセサイザーやスラップバック・ディレイなどを配置したりして活用しています。 ステレオ・ミックスのステムはできるだけ使用しない 先ほどもお話ししたとおり、私はステレオ・ミックスとDolby Atmosミックスを同時に行います。最初にステレオ・ミックスを作り、そこから書き出したステムを使ってDolby Atmosミックスを作る人が多いと思うので、私のワークフローは珍しいかもしれません。なぜステレオ・ミックスとDolby Atmosミックスを同時に行うのかと言えば、私はステレオ・ミックスから書き出したステムに、ミキシングを縛られたくないからです。ステレオ・ミックスのステムは、エフェクトも一緒に書き出されてしまっているため、もう少しフィールドを広げたいと思っても簡単にはいきません。楽曲の中心であるボーカルですらまとめられてしまっているので、私はDolby Atmosミックスに入る前に、iZotope RXを使ってセンターのボーカルとサイドのボーカルを分離します。 ですので、可能な限りオリジナルのセッションからDolby Atmosミックスを作るべきであると考えていますが、これは理想であって、実際には難しいケースもあるでしょう。もちろんステムから作られたDolby Atmosミックスの中にも素晴らしい作品はあります。たとえば、アラバマ・シェイクスのボーカリスト、ブリタニー・ハワードの「What Now」という曲。このミックスを手がけたのはショーン・エヴェレットというエンジニアですが、彼はステムをスピーカーから再生して、それをマイクで録音するなど、抜群のクリエイティビティを発揮しています。まさしくファンキーな彼のキャラクターが反映されたミックスだと思っています。 アーティストの意向を反映させる 最近はレコード会社から、昔の名盤のDolby Atmos化を依頼されることが多くなりました。しかしDolby Atmos化にあたって、アーティスト・サイドの意向がまったく反映されていないことが多いのです。意向が反映されていないどころか、自分の作品がDolby Atmosミックスされたことをリリースされるまで知らなかったというアーティストもいるくらいです。音楽はアーティストが生み出したアート作品です。可能な限りアーティストの意向を反映させるべきであると考えています。 私が1980年代にミックスしたヒューイ・ルイス&ザ・ニュースの「Sports」というアルバムがあります。何年か前にこの作品のディレクターから、“「Sports」のDolby Atmosミックスを作ったので聴いてみないか”という連絡がありました。興味があったので聴きに行ったのですが、その場にいた全員が“これは何かの冗談だろ?”と顔を見合わせるくらいひどいミックスだったのです。試聴環境のセットアップは完璧でしたが、聴くに耐えないミックスでどこかを修正すれば良くなるというものではありません。私はディレクターに、“Dolby Atmosミックスを作り直させてくれないか”と打診しました。予算を使い切ってしまったとのことだったのですが、個人的に思い入れのある作品だったということもあって、無償で引き受けることにしたんです。 この話には余談があります。「Sports」のDolby Atmosミックスは、Apple Musicでの配信直後にリジェクトされてしまったのです。なぜかと言うと、オリジナルのステレオ・ミックスには入っていない歌詞が入っているから。私はDolby Atmosミックスを行う際にあらためてマルチを聴き直してみたのですが、おもしろい歌詞が入っていたので、それを最後に入れてしまったんです(笑)。Appleはオリジナルの歌詞とDolby Atmosミックスの歌詞が同一でないとリジェクトしてしまうので、過去の作品のDolby Atmos化を検討されている方は気をつけてください。彼らはしっかりチェックしているようです(笑)。また、Appleは空間オーディオ・コンテンツの拡充に力を入れていますが、ステレオ・ミックスを単純にアップ・ミックスしただけの作品も基本リジェクトされてしまいます。 一世を風靡した“ボブ・クリアマウンテン・サウンド” 私は古くからの友人であるブライアン・アダムスのヒット曲、「Run To You」もDolby Atmosでミックスしました。Dolby Atmosミックスの話に入る前に、どうやってこの特徴的な’80sサウンドを生み出したのか、少しご紹介しておきましょう。 この曲はカナダのバンクーバーにある「Little Mountain Studio」というスタジオでレコーディングを行いました。私はこの曲のドラムを“ビッグ・サウンド”にしたいと考えたのですが、「Little Mountain Studio」のライブ・ルームはかなりデッドで、私がイメージしていた“ビッグ・サウンド”には不向きな空間だったのです。一体どうしたものか…と思案していたとき、ライブ・ルームの真横にローディング・ベイ、 いわゆるガレージのようなスペースがあることに気付きました。試しにそこで手を叩いてみたところ、コンクリートが気持ちよく反響したので、私はドラムの周囲に比較的硬めの遮蔽板を設置し、残響をローディング・ベイ側に逃すことで、大きな鳴りのドラム・サウンドを作り出したのです。本当に素晴らしいサウンドが得られたので、このセッティングを再現できるように、アシスタントに頼んでドラムやマイクの位置を記録してもらいました。ですので、この“ビッグ・サウンド”は、後にこのスタジオでレコーディングされたボン・ジョヴィやエアロ・スミスの曲でも聴くことができます。 「Run To You」をレコーディングしたのはもう40年も前のことになりますが、自分がやっていることは今も昔も大きく変わっていません。確かに世の中にはトレンドというものがあります。「Run To You」をレコーディングした1980年代はリバーブが強いサウンドが主流でしたが、1990年代になると逆にドライなサウンドが好まれるようになりました。そしてご存知のとおり、現代は再びリバーブを使ったサウンドが主流になっています。そういったトレンドに従うこともありますが、私は天邪鬼なのでまったく違ったサウンドを試すこともあります。いつの時代も自分のスタイルを崩すことはありません。 よく“ボブ・クリアマウンテン・サウンド”と言われることがありますが、私は自分のサウンドについて意識したことはありません。私はあくまでもクライアントであるアーティストのためにミックスを行っているのです。アーティストと一緒に作り上げたサウンドが、結果的に“ボブ・クリアマウンテン・サウンド”になっているのではないかと思っています。 イマーシブ・ミックスにおける各要素の定位 「Run To You」のDolby Atmosミックスについてですが、まずセンターには楽曲の基盤となるボーカル、ベース、スネア、キックといった音を定位させました。こういった音をなぜセンターに集めるかと言うと、私はライブ・コンサートのようなイメージでミックスを行うからです。ロックやポップスのライブ・コンサートでは、これらの音がセンターから聴こえます。ご存知のように、再生環境におけるセンター・スピーカーという考え方は映画から来ています。映画の中心となる音はダイアログで、それはほとんどの場合がセンターに定位されます。その考え方をそのまま音楽に適用しても、問題はないと考えています。 それではサイド、リア、ハイトには、どのような音を定位させるのがいいのでしょうか。楽曲の基盤となる音に関してはセンターに集めた方がいいと言いましたが、同じギターでもパワー・コードのような音ではない、たとえばアコースティック・ギターのような音ならば、サイドに振ってみてもいいかもしれません。キーボードに関しても同じで、ピアノはセンターに定位させる場合が多いですが、シンセサイザーのような音はリアやハイトに定位させると良い結果が得られます。 Dolby Atmosというフォーマットにおいて特徴的な要素と言えるのが、ハイト・スピーカーです。“音楽のミックスで、ハイト・スピーカーなんて使いどころがあるのか?”と思われる人もいるかもしれませんが、実際はとても有用です。たとえば私はアンビエンス… リバーブで作り出した残響ではなく、インパルス・レスポンスにおけるアンビエンスをハイト・スピーカーに送り、これによって空間の高さを演出しています。 もうひとつ、LFEという要素についてです。サブ・ウーファーに関してはミックスを補強してくれる有用な要素ではあるのですが、必須ではないというのが私の考え方です。私はLFEなしでミックスを成立させ、それを補強する際に使用しています。また、ミッド・ファーはバイノーラルのオプションではグレイアウトされて設定することができません。あまりLFEに頼り過ぎてしまうと、ヘッドホンで聴いたときに音像が崩れてしまうので注意が必要です。 イマーシブ・ミックスにおけるエフェクト処理 「Run To You」のDolby Atmosミックスでは、ボーカルだけでなくシンセサイザーのディレイ音もリアに配置しています。タイミングが楽曲のテンポよりもオフなので、一聴すると“曲に合っているのか?”と思う人もいるかもしれませんが、ディエッサーを強めにかけることによってミックスに戻した際に馴染むサウンドを作り出しているのです。ギターに関しても同じく、それだけで聴くとバラバラな印象があったので三連符のディレイを使用し、ディレイ音が返る度にリバーブを付加していき、さらには歪みも加えることで、奥行き感と立体感のあるサウンドを作り出しています。こういったエフェクトには、私が開発に関わったApogee Clearmountain’s Domainを使用しました。先ほども言ったとおり、私の頭の中にあったのはライブ・コンサートのようなサウンドです。私はライブ・サウンドが大好きなので、それをスタジオで再現するという音作りになっています。また、パーカッションが空間の中を飛び回っているように聴こえるかもしれませんが、こういったサウンドもエフェクトのみで作り出しています。このミックスではオブジェクトを使用していません。楽曲を構成する要素はステレオ・ミックスと同一です。スピーカーの構成が違うだけで、こうも印象が変わるという好例だと思います。 プラグインに関して、イマーシブ・ミックスで最も多用しているのがクアッド処理に対応しているリバーブです。具体的にはApogee Clearmountain’s Domainを最もよく使います。イマーシブ・ミックス用のクアッド・リバーブは、そのままフォールドバックしてステレオ・ミックスにも使用します。最近は位相を自動で合わせてくれたりするような管理系のプラグインが多く出回っていますが、そういったツールを使い過ぎるとサウンドのパワー感が失われてしまうような印象を持っています。実際にそういったツールを使ったことがありますが、最終的には使用しない方が良い結果になったケースの方が多かったです。 📷Apogee Clearmountain’s Domain:ミックスでも多用しているというApogee Clearmountain’s Domain。画面左側のシグナルフローに沿うようにボブ・クリアマウンテン独自のFXシグナルチェーンを再現している。もちろん、プリセットもボブ独自のものが用意されており、ロードして「あの」サウンドがどのように構築されているのかを解析するという視点も持つと実に興味深いプラグインだと言えるだろう。 イマーシブ・オーディオで楽曲の物語性を強化する イマーシブ・オーディオは、アーティストが楽曲に込めた物語性を強化してくれるフォーマットであると考えています。私の古くからの友人であるブルース・スプリングスティーンは歌詞をとても重視するアーティストです。彼は歌詞に込めた物語性をいかにサウンドに盛り込むかということを常に考えており、私は彼のそういう想いをミックスで楽曲に反映させようと長年努力してきました。 ブライアン・フェリーの「I Thought」という曲があります。それほど有名ではないかもしれませんが、私のお気に入りの曲です。この曲の歌詞は、男性がガール・フレンドに対して抱いているイメージが、徐々に現実とは違うことに気づいていく… という内容になっています。男性が想っているほどガール・フレンドは彼のことを想っているわけではない…。これはブライアンから聞いたストーリーではなく歌詞を読んだ私の勝手な解釈ですが、私はこの解釈に基いてモノラルで始まるシンプルな音像がどんどん複雑な音像になっていく… というイメージでミックスしました。そして最後は男性の悲しさや虚しさについてをノイズを強調することで表現したのです。ちなみにこの曲はブライアン・フェリー名義ですが、ロキシー・ミュージックのメンバーも参加しています。おそらく最後のノイズはブライアン・イーノのアイデアだったのかなと想像しています。 Dolby Atmos for Everyone! Dolby Atmosに興味はあるけれども、制作できる環境を持っていないという人も多いかもしれません。しかしその敷居は年々低くなっており、いくつかのDAWの最新バージョンにはDolby Atmosレンダラーが標準で搭載されています。その先駆けとなったのがApple Logic Proで、Steinberg NuendoやPro Toolsの最新バージョンにもDolby Atmosレンダラーが統合されています。このようにDolby Atmosは決して特別なものではなく、今や誰でも取り組むことができるフォーマットと言っていいでしょう。もちろん、Symphony I/O Mk IIはこれらすべてのDAWに対応しています。その柔軟なモニター・コントロール機能は、Dolby Atmosコンテンツの制作に最適ですので、ぜひご購入いただければと思います(笑)。Dolby Atmosで作業するには多くのオーディオ入出力が必要になりますが、Symphony I/O Mk IIではDanteに対応しています。コンピューター側に特別なハードウェアを装着しなくても、Dante Virtual Soundcardを使用すれば、Symphony I/O Mk IIとDanteで接続することができます。この際に有用なのがGinger Audioというメーカーが開発しているGroundControl SPHEREで、このソフトウェアを組み合わせることによって複雑なルーティングでも簡単かつ効率よくセットアップすることができます。 私が今日、明確にしておきたいのは、イマーシブ・オーディオというのは新しいテクノロジーではあるのですが、多くのレコード会社がサポートしてくれているので、一時のブームで廃れてしまうようなものではないということです。これからイマーシブ・ミックスされた素晴らしい作品がどんどんリリースされることでしょう。我々ミュージック・プロダクションに携わる者たちは、皆で情報交換をしてこの新しいテクノロジーを積極的にバックアップしていくべきだと考えています。 今回のセミナーでは、私が行なっているDolby Atmosミックスのワークフローについてご紹介しましたが、必ずしもこれが正解というわけではありません。たとえば、私はセンター・スピーカーを重要な要素として捉えていますが、エンジニアの中にはセンター・スピーカーを使用しないという人もいます。そういうミキシングで、アーティストのイメージが反映されるのであれば、もちろん何も問題はないのです。ですので、自分自身のアイデアで、自分自身の手法を見つけてください。 充実の内容となった今回のセミナー。イマーシブサウンドという新たな世界観を自身のワークフローで昇華してさらに一歩先の結果を追い求めている様子がよくわかる。その中でも、アーティストの意図をしっかりと反映するためのミックスという軸は今も昔も変わっておらず、“ボブ・クリアマウンテン・サウンド”とされる名ミックスを生み出す源泉となっているように感じる。レジェンドによる新たな試みはまだまだ続きそうだ。 *ProceedMagazine2024号より転載
年末も差し迫る2023年12月26日に行われた、NHKホールでのNHK交響楽団によるベートーヴェン交響曲第9番「合唱つき」のチャリティーコンサート。 その年の最後を飾る華やかなコンサートと同時に、NHKテクノロジーズ(NT)が主催する次世代を担うコンテンツ配信技術のテストだ。次世代のイマーシブ配信はどのようになるのか、同一のコンテンツをリアルタイムに比較するという貴重な機会である。その模様、そしてどのようなシステムアップが行われたのか、壮大なスケールで行われた実験の詳細をレポートする。 ●取材協力 ・株式会社NHKテクノロジーズ ・株式会社クープ NeSTREAM LIVE ・株式会社コルグ Live Extreme 3つのイマーシブオーディオ配信を同時テスト まずは、この日に行われたテストの全容からお伝えしたい。イマーシブフォーマット・オーディオのリアルタイム配信実験と言ってもただの実験ではない、3種類のフォーマットと圧縮方式の異なるシステムが使われ、それらを比較するということが行われた。1つ目は、次世代の放送規格としての8K MPEG-H(HEVC+22.2ch音響MPEG-H 3D Audio *BaselineProfile level4)の配信テスト。2つ目がNeSTREAM LIVEを使った、4K HDR(Dolby Vision)+ Dolby Atmos 5.1.4ch@48kHzの配信テスト。3つ目がKORG Live Extremeを使った、4K + AURO-3D 5.1.4ch@96kHzの配信テストだ。さらに、NeSTREAM LIVEでは、HDR伝送の実験も併せて行われた。イマーシブフォーマットのライブストリーム配信というだけでも興味深いところなのだが、次世代の技術をにらみ、技術的に現実のものとして登場してきている複数を比較するという取り組みを目にすることができるのは大変貴重な機会だと言える。 全体のシステムを紹介する前に、それぞれのコーデックや同時配信されたフォーマットなどを確認しておきたい。22.2chは、次世代地上デジタル放送での採用も決まったMPEG-H 3D Audioでの試験、NeSTREAM LIVEは、NetflixなどストリーミングサービスでのDolby Atmos配信と同一の技術となるDolby Digital Plusでの配信、KORG Live ExtremeはAURO-3Dの圧縮技術を使った配信となっている。圧縮率はNeSTREAM LiveのDolby Digital Plusが640kbps、次にMPEG-Hの22.2chで1chあたり80kbps。Live Extremeは10Mbps程度となっている。 映像についても触れておこう。22.2chと組み合わされるのは、もちろん8K HEVCの映像、NeSTREAM LIVEは同社初のチャレンジとして4K Dolby Visonコーデックによる4K HDR映像の配信テストが合わせて行われた。KORG Live Extremeは、4Kの動画となっている。次世代フォーマットであるということを考えると当たり前のことかもしれないが、各社イマーシブと組み合わせる音声として4K以上の動画を準備している。KORG Live Extremeでは、HPLコーデックによる2chバイノーラルの伝送実験も行われた。イマーシブの視聴環境がないという想定では、このようなサブチャンネルでのバイノーラル配信というのは必要なファクターである。ちなみに、Dolby Atmosであれば再生アプリ側でバイノーラルを作ることができるためこの部分に関しては大きな問題とならない。 IPで張り巡らされたシステムアップ 📷仮設でのシステム構築のため、長距離の伝送を絡めた大規模なシステムアップとなっている。DanteのFiber伝送、Riedel MediorNet、OTARI LightWinderが各種適材適所で使われている。また、できるかぎり信号の共有を図り、チャンネル数の多いイマーシブサウンド3種類をうまく伝送し、最終の配信ステーションへと送り込んでいるのがわかる。実際のミックスは、22.2chのバランスを基本にそこからダウンコンバート(一部チャンネルカット)を行った信号が使われた。 それでは、テストのために組み上げられた当日のシステムアップを紹介したい。NHKホールでのNHK交響楽団によるベートーヴェン交響曲第9番「合唱つき」のチャリティーコンサートは、ご存知の通り年末の恒例番組として収録が行われオンエアされている。その本番収録のシステムとは別に今回のテスト配信のシステムが組まれた。マイクセッティングについても、通常収録用とは別に会場のイマーシブ収録のためのマイクが天井へ多数準備された。ステージ上空には、メインの3点吊り(デッカベースの5ポイントマイク)以外にもワイドに左右2本ずつ。客席上空には22.2chの高さ2層のレイヤーを意識したグリッド上の17本のマイクが吊られていた。 📷客席上空に吊り下げられたマイク。田の字にマイクが吊られているのが見てとれる。これは22.2chのレイヤーそのものだ。NHKホールは放送局のホールということもあり、柔軟にマイクを吊ることができるよう設計されている。一般的なホールではなかなか見ることができない光景である。 マイクの回線はホール既設の音響回線を経由して、ホール内に仮設されたT-2音声中継車のステージボックスに集約される。ここでDanteに変換されたマイクの音声は、NHKホール脇に駐車されたT-2音声中継車へと送られ、ここでミックスが作られる。この中継車にはSSL System Tが載せられているおり、中継車内で22.2ch、Dolby Atmos準拠の5.1.4chのミックスが制作され出力される。ここまでは、KORG Live Extremeが96kHzでのテストを行うこともあり、96kHzでのシステム運用となっている。 22.2chと5.1.4ch@48kHzの出力は、MADIを介しRIEDEL MediorNetへ渡され、配信用のテスト機材が設置されたNHKホールの配信基地へと送られる。もう一つの5.1.4ch@96kHzの回線はOTARI Lightwinderが使われ、こちらもNHKホールの配信基地へと送られる。ホールの内外をつなぐ長距離伝送部分は、ホールから中継車までがDante。中継車からホールへの戻りは、MediorNetとLightwinderというシステムだ。それぞれネットワークケーブル(距離の関係からオプティカルケーブルである)でのマルチチャンネル伝送となっている。 📷T-2音声中継車とその内部の様子。 ホールの配信基地には22.2ch@MPEG-H、NeSTREAM LIVE、Live Extremeそれぞれの配信用のシステムがずらりと設置されている。ここでそれぞれのエンコードが行われ、インターネット回線へと送り出される。ここで、NeSTREAM LIVEだけは4K HDRの伝送実験を行うために、AJA FS-HDRによる映像信号のHDR化の処理が行われている。会場収録用のカメラは8Kカメラが使われていたが、SDRで出力されたためHDR映像へとコンバートが行われ、万全を期すためにカラリストがその映像の調整を行っていた。機械任せでSDRからHDRの変換を行うだけでは賄えない部分をしっかりと補正、さすが検証用とはいえども万全を期すプロフェッショナルの仕事である。 このようにエンコードされ、インターネットへと送出されたそれぞれのコーデックによる配信は、渋谷ではNHK放送センターの至近にあるNHKテクノロジーズ 本社で受信して視聴が行われるということになる。そのほか渋谷以外でも国内では広島県東広島芸術文化ホールくらら、海外ではドイツでの視聴が行われた。我々取材班は渋谷での視聴に立会いさせていただいたが、他会場でも問題なく受信が行えていたと聞いている。 📷上左)NHKホールの副調整室に設置された3つの配信システム。写真中央の2台並んだデスクトップのシステムは、KORG Live Extremeのシステムだ。上右)こちらが、NeSTREAM LIVEのDolby Atmos信号を生成するためのラック。ここでリアルタイムにDolby Digital Plusへとエンコードが行われる。下左)8K+22.2chを制作するためのPanasonic製レコーダー。8K 60Pの収録を可能とするモンスターマシンで収録が行われた。下右)NeSTREAM LIVEで使われたHDRの信号生成のためのラック。最上段のAJA FS-HDRがアップコンバートのコアエンジン。 それぞれに持つ優位性が明確に 実際に配信された3種類を聴いてみると、それぞれのメリットが際立つ結果となった。イマーシブというフォーマットの臨場感、このポイントに関してはやはりチャンネル数が多い22.2chのフォーマットが圧倒的。密度の濃い空間再現は、やはりチャンネル数の多さに依るところが大きいということを実感する。今回の実験では、ミキシングの都合からDolby Atmos準拠の5.1.4 chでの伝送となった他の2種の倍以上のチャンネル数があるのだから、この結果も抱いていたイメージ通りと言えるだろう。もう一つは、圧縮率によるクオリティーの差異。今回はKORG Live Extremeが96kHzでの伝送となったが、やはり低圧縮であることの優位性が配信を通じても感じられる。NeSTREAM LIVEについては、現実的な帯域幅で必要十分なイマーシブ体験を伝送できる、現在のテクノロジーレベルに一番合致したものであるということも実感した。その中でDolby Visionと組み合わせた4K HDR体験は、映像のクオリティーの高さとともに、音声がイマーシブであることの意味を改めて感じるところ。Dolby Vision HDRによる広色域は、映像をより自然なものとして届けることができる。それと組み合わさるイマーシブ音声はより一層の魅力を持ったものとなっていた。 前述もしているが、それぞれの配信におけるオーディオコーデックの圧縮率は、NeSTREAM LIVEのDolby Digital Plusが640kbps、次にMPEG-Hの22.2chが1chあたり80kbps。Live Extremeは10Mbps程度となっている。このように実際の数字にしてみると、NeSTREAM LIVEの圧縮率の高さが際立つ。640kbpsに映像を加えてと考えると、現時点ではこれが一番現実的な帯域幅であることは間違いない。 ちなみに、YouTubeの執筆時点での標準オーディオコーデックはAAC-LC 320kbpsである。言い換えれば、NeSTREAM LIVEはこの倍の帯域でDolby Atmosを配信できるということである。KORG Live Extremeにおける96kHzのクオリティーは確かに素晴らしかった、しかし10Mbpsという帯域を考えると多数へ行なわれる配信の性格上、汎用的とは言い難い一面も否めない。しかしながらプレミアムな体験を限定数に、というようなケースなど活用の可能性には充分な余地がある。22.2chのチャンネル数による圧倒的な体験はやはり他の追従を許さない。8K映像と合わせてどこまで現実的な送信帯域にまで圧縮できるかが今後の課題だろう。22.2ch音響を伝送したMPEG-H 3D Audioは任意のスピーカーレイアウトやバイノーラル音声に視聴者側で選択し視聴することができる。22.2ch音響の臨場感を保ったまま、視聴者の様々な環境で視聴することが可能となる。AVアンプやサウンドバー、アプリケーションなどの普及に期待したい。 このような貴重な実験の場を取材させていただけたことにまずは感謝申し上げたい。取材ということではあったが、各種フォーマットを同時に比較できるということは非常に大きな体験であり、他では得ることのできない大きな知見となった。伝送帯域やフォーマット、コーデックによる違い、それらを同一のコンテンツで、最新のライブ配信の現場で体験することができるというのは唯一無二のこと。これらの次世代に向けた配信が今後さらに発展し、様々なコンテンツに活用されていくことを切に願うところである。 *ProceedMagazine2024号より転載
Ethernetを活用したAudio over IP(AoIP)伝送の規格、Dante。すでに設備やPAなど様々な分野でその活用が進んでいるこのDanteは、ローカルネットワーク上での規格となるため遠隔地同士の接続には向いていなかった。遠隔地への接続は低レイテンシーでの伝送が必要不可欠、そのためネットワーク・レイテンシーに対する要求はシビアなものとなる。これを解決するために、Danteの開発元であるAudinateが「インターネットを越えるDante」という、新しい一歩のためにDDM=Dante Domain Managerを利用する仕組みを完成させている。 DDM=Dante Domain Manager ご存知の通り、Danteはローカルネットワーク上で低遅延のAoIPを実現するソリューションである。ローカルでの運用を前提としたDanteをInternetに出そうとすると、ネットワーク・レイテンシーが問題となり上手くいかない。それもそのはず、ローカルでの運用を前提としているため、最長でも5msまでのレイテンシーしか設定できないからである。このレイテンシーの壁を取り払うために最近活用が始まったのが、DDM=Dante Domain Managerである。 このソリューションは、単一IPセグメントの中での運用に限定されているDanteを、さらに大規模なシステムで運用するために作られたもの。ドメインを複数作成することでそれぞれのドメイン内でそれぞれがローカル接続されているかのような挙動をするものとしてリリースされた。例えば、2つのホールを持つ施設で、すべてのDante回線を同一のネットワークとすれば、それぞれの場所も問わず任意のDante機器にアクセスできる、という柔軟性を手に入れることができる。しかし、それぞれのホールにあるすべてのDante機器が見えてしまうと煩雑になってしまう。それを解決するためにDDMを導入してそれぞれのホールを別々のドメインとし、相互に見えてほしいものだけを見えるようにする。このような仕組みがDDMの基本機能である。 AWS上でDDMを動作しレイテンシー回避 このようなDDMの機能を拡張し、インターネットを越えた全く別のドメイン同士を接続するという仕組みが登場している。DDM上でのレイテンシーは40msまで許容され、遠隔地同士だとしても国内程度の距離であれば問題なく接続することが可能となっている。この場合には、送り手、受け手どちらかの拠点にDDMのアプリケーションが動作しているPCを設置して、そこを中継点として伝送を実現するというイメージである。ただし、世界中どこからでも、というわけにはいかない。なぜなら40msというネットワークレイテンシはそれなりに大きな数字ではあるが、回線のコンディション次第ではこの数字を超えるレイテンシーが発生する可能性があるからだ。 この40msを超えるネットワークレイテンシーの改善のためにクラウドサービスを活用するという仕組みも登場している。これはAWS上でDDMを動作させることで、CDNのように分散ネットワーク処理をさせてしまおうという発想だ。ローカルのDante機器は同一国内、もしくは近距離でレイテンシーについて問題がないAWSサーバーで動作するDDMへと接続される。AWS上では世界各地のAWSサーバー同士が同期されているため、その同期されたデータと受け取り先のローカルが、許容レイテンシー内のAWSサーバー上のDDMと接続することでその遅延を回避するという仕組みだ。この仕組みにより、世界中どこからでもDanteを使ったオーディオ伝送が実現されるというわけだ。 📷IBC2023 Audinateブースでの展示は、ロンドンのAWS上で動作するWAVES Cloud MXが動作していた。右の画面にあるようにAudinateでは世界中のAWSを接続しての実証実験を行っている。 WAVES Cloud MXでクラウドミキシング 2023年に入ってからは、このAWS上でDDMが動作するということで、WAVES Cloud MXと連携しての展示がNAB / IBC等の展示会で積極的に行われている。ローカルのDanteデバイスの信号をAWS上のDDMで受け取り、その信号を同一AWS上のWAVES Cloud MXが処理を行うというものだ。ただし、オーディオのクラウドミキサーはまさに始まったばかりの分野。クラウド上にオーディオエンジンがあるということで、どのようにしてそこまでオーディオシグナルを届けるのか?ということが問題となる。DDMはその問題を解決しひとつの答えを導いている。 📷画面を見るだけではクラウドかどうかの判断は難しい。しかしよく見るとeMotion LV1がブラウザの内部で動作していることがわかる。オーディオ・インターフェースはDante Virtual Soundcard、同一AWS内での接続となるのでレイテンシーの問題は無い。 ここで、WAVES Cloud MXについて少しご紹介しておこう。WAVES Cloud MXはプラグインメーカーとして知られるWAVES社がリリースするソフトウェアミキサーのソリューションである。WAVESはeMotion LV1というソフトウェアミキサーをリリースしている。WAVESのプラグインが動作するオーディオミキサーとして、中小規模の現場ですでに活用されているPAミキサーのシステムだ。このソフトウェアをAWS上で動作するようにしたものが、WAVES Clod MXである。ソフトウェアとしてはフル機能であり、全く同一のインターフェースを持つ製品となる。プラグインが動作するのはもちろん、ネットワークMIDIを活用しローカルのフィジカルフェーダーからの操作も実現している。どこにエンジンがあるかを意識させないレイテンシーの低い動作は、クラウド上でのビデオ・スイッチャーを手掛ける各メーカーから注目を集め、NABではSONY、GrassValleyといったメーカーブースでの展示が行われていた。Audioの入出力に関しては、NDI、Danteでの入出力に対応しているのがローカルでのeMotion LV1システムとの一番の違い。ローカルのeMotion LV1では、同社の作った規格であるSoundGridでしかシグナルの入出力は行えない。 WAVESの多彩なプラグインを活用できるため、例えばDanDuganのAutomatic Mixerを組み込んだり、トータルリミッターとしてL3を使ったりと、様々な高度なオーディオ・プロセッシングを実現できている。これは、クラウド上でのビデオ・スイッチャーが持つオーディオ・ミキサーとは別格となるため、その機能を求めてメーカー各社が興味を持つということに繋がっている。Clarity Vxのようなノイズ除去や、Renaissanceシリーズに代表される高品位なEQ、Compの利用を低レイテンシーで行うことができるこのソリューションは魅力的である。その登場当時はなぜクラウドでオーディオミキサーを?という疑問の声も聞かれたが、ここはひとつ先見の明があったということだろう。 世界中どこからの回線でもミックスする クラウド上でのビデオ・スイッチャー、クラウドミキサーのソリューションは、そのままクラウド上で配信サービスへ接続されることを前提としてスタートしている。ローカルの回線をクラウド上で集約、選択して、そのまま配信の本線へと流す。非常にわかりやすいソリューションである。その次のステップとして考えられているのが、遠隔地同士の接続時に、回線をステム化して送るというソリューション。送信先の機材量を減らすという観点から考えれば、これもひとつの回答となるのではないだろうか。ローカルからは、完全にマルチの状態でクラウドへ信号がアップされ、クラウド上でステムミックスを作り、放送拠点へとダウンストリームされる。クラウド上で前回線のバックアップレコーディングを行うといったことも可能だ。インターネット回線の速度、安定性という不確定要素は常に付きまとうが、現場へ機材を持ち込むにあたっての省力化が行えることは間違いないだろう。 前述の通り、DDMを活用したこのシステムであれば、世界中どこからの回線でもミックスすることが可能である。さらに世界中どこからでもダウンストリームすることができる。国際中継回線など、世界中に同一の信号を配るという部分でも活用が可能なのではないだろうか?オリンピック、ワールドカップなどの大規模なイベントで、世界中の放送局へ信号配信する際にも活用が可能なのではないか、と想像してしまう。IPの優位点である回線の分配というメリットを享受できる一例ではないだろうか。 📷IBC2023 SONYブースにもWAVES Cloud MXが展示されていた。SONYのクラウド・ビデオ・スイッチャーのオーディオエンジンとしての提案である。こちらではDDMではなくNDIを使ってのオーディオのやり取りがスイッチャーと行われていた。手元に置かれたWAVESのフィジカルコントローラー「FIT Controller」はクラウド上のミキシングエンジンを操作している。 まだ、サービスとしてはスタートしたばかりのDDMとAWSを活用した遠隔地の接続。その仕組みにはDante Gatewayなどが盛り込まれ、同期に関してもフォローされたソリューションができあがっている。これらのクラウドを活用したテクノロジーは加速度的に実用化が進みそうである。 *ProceedMagazine2023-2024号より転載
長さを測るためには、その長さの基準となるメートル原器と呼ばれる標準器が必要。重さを測るのであれば同様にキログラム原器が必要となる。では、スピーカーにとっての基準、トランスデューサーとしての標準はどこにあるのか?そのスピーカーの標準器を目指して開発されたのがTOAのME-50FSだ。非常放送用のスピーカー、駅のホームのスピーカーなど生活に密着した音響設備を作るTOAが、これまでの知識と技術をすべてを詰め込んで作り上げた究極のアナログ・スピーカーである。1dB、1Hzの違いを聴き分けられるスピーカー、その実現はデジタルではなく、むしろアナログで開発しないと達成できないことであったと語る。そのバックグラウンドとなるさまざまな基礎技術、要素技術の積み上げはどのような現場で培われたのだろうか?そして、その高品位な製品はどのように作られているのか?研究開発拠点であるナレッジスクエアと、生産拠点であるアコース綾部工場に伺ってその様子をじっくりと確認させていただいた。 TOA ME-50FS 価格:OPEN / 市場想定価格 ¥2,000,000(税込:ペア) ・電源:AC100V ・消費電力:30W ・周波数特性:40Hz~24kHz (-6dB) ・増幅方式:D級増幅方式 ・エンクロージャ形式:バスレフ型 ・使用スピーカー 低域:10cm コーン型×2 高域 : 25mmマグネシウムツイーター ・アンプ出力:250W ・アンプ歪率:0.003% ・最大出力音圧レベル:104dB ・仕上げ:木製(バーチ合板) ウレタン塗装 ・寸法:290(幅)× 383(高さ)× 342(奥行)mm( 突起物除く) ・質量:約15kg(スピーカー本体1台の質量) 実は身近に必ずあるTOA製品 皆さんはTOAという会社をご存知だろうか?日本で暮らしているのであれば、TOAのスピーカーから出た音を聴いたことが必ずあるはずだ。駅のホーム、学校の教室、体育館、あなたの働いている会社の非常放送用のスピーカーもTOAの製品かもしれない。まさに生活の一部としてさまざまな情報を我々に音で伝えるためのスピーカーメーカー、それがTOAだ。 TOAの創業は、1934年と国内では老舗の電機メーカーである。創業時の社名は東亜特殊電機製造所。神戸に誕生し、マイクロフォンの製造を手掛けるところからその歴史はスタートしている。マイクロフォンと言っても現在一般的に使われている形式のものではなく、カーボンマイクロフォンと呼ばれる製品だ。これは世界で初めてエジソンが発明したマイクロフォンと同じ構造のものであり、黒電話など昔の電話機に多く使われていた形式である。周波数特性は悪いが、耐久性に優れ高い感度を持つため1980年代まで電話機では普通に使われていた。現在でも電磁波の影響を受けない、落雷の影響を受けない、低い電圧(1V程度)で動作するなどの特長から可燃物の多い化学工場や軍事施設など一部のクリティカルな現場では現役である。 このマイクロフォンは、その名の通り、カーボン(炭素)を必要とする製品である。時代は戦時中ということもあり、良質なカーボンを入手することが難しく、なんと砂糖を焼いてカーボンを作ったという逸話が残っている。要は砂糖を焦がした炭である。砂糖が贅沢品であった時代に、この工場からは一日中甘い匂いがしていたそうだ。 次に手掛けたのが、拡声装置。中でも「東亜携帯用増幅器」は、小型のトランクケースに増幅器とスピーカーを内蔵し、持ち運びのできる簡易拡声器として人気があったそうだ。他にもレコード録音装置などさまざまな音響製品を生み出していった同社だが、中心となったのは、拡声装置(アンプとスピーカー)であり、その専業メーカーとして発展をしていく。拡声装置のスピーカーとして当時使われていたのが、ホーン型のスピーカー。ドライバーユニットに徐々に広がる筒、ストレートホーンを取り付けたものである。この筒の設計により、特定の周波数の音を大きく、遠くまで指向性を持たせて届けることができるという特徴を持っている。 TOAが大きく発展するきっかけとなったのがこのホーンスピーカー。現在一般的に使われているホーンスピーカーは、リスニング用途の半円錐状のものを除けばほとんどが折り返し式ホーン。メガホンや、拡声器、選挙カーの屋根などについているものがそれである。この折り返し式ホーンはレフレックストランペットとも呼ばれる。ストレートホーンを折りたたんだ構造をしているため、全長を短くすることができ、さらにはドライバーユニットが奥まった位置にあるため防滴性能を獲得、屋外で使うにあたり優れた特徴を持っている。 このトランペットスピーカーは戦後の急速な復興に併せて大きな需要があった。同社は、黒や灰色の製品ばかりのこの市場に鮮やかな青く塗られたトランペットスピーカーを登場させ、その性能の高さも相まって高い人気を博した。青いトランペットをトレードマークに「トーアのトランペット」「トランペットのトーア」と呼ばれるまでに成長を遂げる。 1957年には、世界初となるトランジスターメガホンを発売。女性でも一人で持ち運べる拡声器としてエポックメイキングな製品となった。旅行先などでガイドさんが使っているのを記憶している方も多いのではないだろうか。いまでも、選挙の街頭演説などで見かけたりするメガホンのルーツが実は「トランペットのトーア」にある。 積み重ねた技術を音響の分野へ 1964年の東京オリンピックでは、全面的にトーアのスピーカーが使われた。東京オリンピックの開会式では世界で初めてトラック側から客席に対してPAするということが行われ、当時主流であった観客後方となるスタジアムの外側からではなく、客席に対して正対する方向からのPAは高い評価を受けた。これには、プログラムの演目に合わせてスピーカーを3分で移動させなければならない、など影の努力がかなりあったとのこと。スポーツ関連はこれをきっかけに国内のさまざまな競技場への導入が進み、お膝元である阪神甲子園球場やノエビアスタジアム神戸をはじめ全国各地でTOA製品が採用され、海外でもウィンブルドンのセンターコートなど数多くの採用実績を誇る。まさにPA=公衆拡声の技術力の高さを感じるところ。遠くまで、多くの人に明瞭な音を届ける。これを実践しているメーカーであると言えるだろう。 また、神戸のメーカーということもあって1970年の大阪万博開催の際には各所で「音によるおもてなし」を行う自動放送システムなど多くの新技術がお披露目された。この自動放送システムは、1975年の京成電鉄成田駅を皮切りに全国への導入が進んでいく。当時は、高価だったメモリーを使ったシステムでサンプラーの原型のようなものを作り、プログラム動作させていたということ。現在、駅で当たり前に流れてくる自動音声による案内放送のルーツとなるものだ。 1985年ごろからは、コンサート用のPAスピーカー、ライブハウスやディスコなどに向けたPAシステムも手掛けるようになる。これまでの「多くの人に明瞭な音を伝える」ということに加えて音質、音圧、さらには、長時間駆動しても壊れない耐久性を持った製品を開発していくことになる。ツアースピーカーには「Z-Drive」という名前が与えられ、大規模なライブ会場や屋外イベントで使われるようになる。そして、さまざまな現場に導入されるスピーカーのチューニングを行うために、世界初となるDSPを使ったサウンドデジタルプロセッサー「SAORI」を誕生させる。 この当時デジタルエフェクターは登場していたが、イコライザーやディレイ、コンプレッサーなどでサウンドチューニングをするためのデジタルプロセッサーはTOAが世界で最初に製品化をしている。このプロセッサーは主に設備として導入されるスピーカーの明瞭度を上げるためのチューニングに使われており、今では当たり前になっているDSPによるスピーカーチューニングの原点がここにある。デジタルコンソールに関しても1990年にix-9000というフルデジタルコンソールをウィーン国立歌劇場のトーンマイスターたちとともに作り上げた。音楽という芸術を伝え、楽しむためのスピーカー、そういった分野へのチャレンジも行われてきたことがわかる。 そして、TOAの中心となるもうひとつの分野が非常用放送設備。火災報知器に連動して室内にいる人々に警告を発したり、業務用放送を非常放送に切り替えたりという、国内では消防法で定められた多くの公共空間に設置されている設備である。人の命を守る音、「聞こえなかった」ということが人命に関わる重要な設備だ。今回お話を伺った松本技監が、「TOAの作る音は音を楽しむ(音楽)ためのものではなく、人の命を守る「音命(おんみょう)」だと再三に渡り言われていたのが印象的。耐火、耐熱性を持たせたスピーカーの開発、アンプ等の放送設備の耐久性・堅牢性へのこだわり、そのようなクリティカルな現場で培われた製品の品質、人命という何よりも重いものを預かる使命に基いた製品の製造を行ってきたということがTOAのもう一つの顔である。 TOA製品に息づくスピリット さまざまな分野へのチャレンジスピリット、そして非常用設備に始まる失敗の許されない現場への製品供給、そんな土台があったからこそオリンピックや万博などでの成功があったと言える、まさに設備音響としてのトップブランドの一つである。そのチャレンジスピリットを象徴するものとして「超巨大PA通達テスト」についてのお話を伺えた。 音を遠くまで届けるということは、一つのテーマである。その実験のために、口径3メートル、全長6.6メートルという巨大なストレートホーンを製作。巨大なアンプとドライバーにより、音をどれほど遠くまで届けることができるかをテストした。もちろん街中では行うことができないため、いま明石海峡大橋があるあたりから淡路島に向けて実験を行ったということだから驚きだ。おおらかな時代でもあったということもあるが、対岸の淡路島の海岸線沿いにスタッフを配置し、どこまで聴こえているかを試したということだ。もう一回は、比叡山の山頂から琵琶湖に向けてのテストがあったとのこと。この際も琵琶湖の湖畔でどこまで音が聴こえるかを試したということだ。そのテスト結果はなんと最長到達距離12km!もちろん、風などの影響も受ける距離となるが、このような壮大な実験を国内で行ってしまう先達の技術者による挑戦に感銘を覚える。 写真撮影は許可されなかったが、クリティカルな現場に向けて行われる製品テスト用設備の充実度はさすがの一言。基本的に耐久テストは、壊れるまで行うということを基本に、実際の限界を確認しているということだ。電力に対する負荷テストはもちろん、現代社会にあふれる電波、電磁波に対する試験を行うための電波暗室、物理的な耐久性を確かめるための耐震テスト、真水や塩水を製品にかけ続ける耐水、耐塩水テストなど、本当にここは電気製品を作っているところなのかと疑うレベルのヘビーデューティーな試験施設が揃っていた。 これも「音命」に関わる重要な設備、肝心なときに期待通りの動作が求められる製品を作るための重要な設備である。筆者も初めての体験だったが、電波暗室内では外部からの電磁波を遮断した状況下で、製品に電子銃で電波を当ててその動作を確認している。これは対策が脆弱な一般レベルの電子機器であれば動作不良を起こす状況で、どこまで正常動作を行えるか?影響の少ない設計にするにはどうすればよいか?昨今話題になることの多いEMS障害などへの影響を確認しているということだ。また、この実験設備の一室には工作室があり、用意された木工、金属加工などさまざまな工具で製品のプロトタイプは自分たちで作るという。まず、自らの手による技術と発想で課題解決に挑戦するという文化がしっかりと残っており、このような姿勢はTOAすべての製品に息づいているということだ。 スピーカー原器を作ろうという取り組み 東亜特殊電機製造所からスタートし、現在ではTOAとして国内の非常用放送設備のシェア50%、公共交通機関の放送設備や設備音響のトップブランドとなった同社が、なぜここに来てリファレンスモニタースピーカーを発表したのだろうか?もちろん、Z-Driveというコンサート向けのPAシステム、ウィーン歌劇場に認められたフルデジタルコンソールix-9000など伏線はあったものの、これまで、リスニング用・モニター用のスピーカーはリリースしてこなかった。 色々とお話を伺っていくと、TOAでは社員教育の一環として「音塾」というものを実施しているということだ。ここでは、社員に音に対する感性を養ってもらうためのさまざまなトレーニングを行い、1dBの音圧の違いや1Hzの周波数の違いを聴き分けられるようになるところまで聴覚トレーニングを行っているという。 ここで問題となっていたのが、人はトレーニングをすることで聴覚を鍛えることができるのだが、その違いを正確に再生できる装置がないということだ。物理的、電気的、さまざまな要因により、スピーカーには苦手な再生周波数や出力レベルが存在する。わかりやすいところで言えば共振周波数や共鳴周波数による影響である。もちろんそれだけではなく、他にもさまざまな要因があり理想とする特性を持ったスピーカーがない。そこで作り始めたのがこのME-50FSの原型となるプロトタイプの製品。まさに標準器となるスピーカー原器を作ろうという取り組みである。 デジタルの第一人者によるフルアナログ 📷右より3人目がこのプロジェクトの中心人物の一人となる松本技監。 このプロジェクトの中心人物の一人が今回お話をお伺いした松本技監。TOAの歴史の中で紹介した世界初のDSPを用いたサウンドデジタルプロセッサー「SAORI」やツアースピーカー「Z-Drive」を開発した中心人物の一人で、音声信号のデジタル処理やスピーカーチューニングに関する第一人者とも言える方である。この松本技監が究極のスピーカー製作にあたり採用したのがフルアナログによる補正回路である。デジタルを知り尽くしているからこそのデジタル処理によるデメリット。そのまま言葉を借りるとすれば「デジタル処理は誰もが簡単に80点の性能を引き出せる、しかしそれ以上の点数を取ることができない」ということだ。 デジタルとアナログの大きな違いとしてよく挙げられるのが、離散処理か連続処理か、という部分。デジタル処理を行うためには、数値でなければデジタル処理できないということは皆さんもご理解いただけるだろう。よって、必ずサンプリングという行程を踏んで数値化する必要が絶対的に存在する。しかし、連続性を持った「波」である音声を時間軸に沿ってスライスすることで数値化を行っているため、どれだけサンプリング周波数を上げたとしても「連続性を失っている」という事実は覆せない。ほぼ同等というところまではたどり着くのだが、究極的なところで完全一致はできないということである。 もう一つはデジタル処理が一方通行であるということだ。ご存知かもしれないが、スピーカーユニットは磁界の中でコイルを前後に動かすことで空気振動を生み出し音を出力している。このときに逆起電流という現象が発生する。動いた分だけ自身が発電もしてしまうということだ。これにより、アンプ側へ逆方向の電流が流れることとなる。デジタル処理においては逆方向のプロセスは一切行われない。しかしアナログ回路であれば、逆方向の電流に対しても適切な回路設計を行うことができる。 通常のスピーカー設計では影響のない範囲として捨て置くような部分にまで目を向け、その設計を突き詰めようとした際にどうしてもデジタルでは処理をしきれない領域が生まれる。ME-50FSでは、このようなことをすべて解決させるためにフルアナログでの設計が行われているわけだ。DSPプロセッサーの生みの親とも言える松本技監がフルアナログでの回路設計を行うということで、松本氏をよく知る仲間からは驚きの声が聞かれたそうだ。しかしその裏には、デジタルを知り尽くしているからこそのアナログであるという徹底したこだわりがある。デジタル処理ではどうしてもたどり着けない限りなく100点に近い、理想の性能を追い求めるための究極とも言えるこだわりが詰まっている。 こんなことをしている製品は聞いたことがない ME-50FSにおける設計思想は「スピーカーユニットをいかに入力に対して正確に動かすか」という一点に集約されている。低域再現などにおいて38cmウーハーなど大型のユニットが使われることも多いが、動作させる質量がサイズに比例して大きくなってしまうためレスポンスに優れなくなってしまう。動作する物体の質量が多ければそれだけその動きを止めるための力が必要ということだ。この問題に対してME-50FSでは10cmという小さなスピーカーユニットを採用することにした。口径は小さくしたものの、一般的な製品の3倍程度のストロークを持たせることでその対策がとられている。その低域の再生に抜かりはなく、バスレフ設計のエンクロージャーの設計と合わせて、40Hz(-6dB)という10cmユニットとしては驚異的な低域再生能力を獲得している。スピーカーユニットの質量を減らすことで理想に近い動作を実現し、ストロークを稼ぐことで正確な空気振動を生み出している。 これを実現するためのスピーカーユニットは、後述する自社工場であるアコース綾部工場で製造される。スピーカーユニット単品からコイルの巻数など、微細な部分まで専用設計にできるのが国内に工場を持つメーカーとしての強みである。さらに、専用設計となるこのスピーカーユニットは、実際にスピーカーユニット一つ一つの特性を測定しシリアルナンバーで管理しているということだ。大量生産品では考えられないことだが、ユニットごとの微細な特性の差異に対してもケアがなされているということだ。究極のクオリティを求めた製品であるというエピソードの一つである。修理交換の際には管理されたシリアルから限りなく近い特性のスピーカーユニットによる交換が行われるということ。こんなことをしている製品は聞いたことがない。 理想特性を獲得するための秘密兵器 この製品の最大の特徴となるのが各スピーカーに接続されたボックス。ここにはアナログによるインピーダンス補正回路が組み込まれている。話を聞くとアンプからの入力信号に対して、シンプルにパラレルで接続されているそうだ。まさにフルアナログでの理想特性を獲得するための秘密兵器がここである。アナログ回路であるため、中を覗いても抵抗、コンデンサー、コイルがぎっしりと詰まっているだけであり特別なものは一切入っていない。この回路によってME-50FSは理想的な位相特性、インピーダンス特性を獲得しているのだが、そのパーツ物量は一般的なスピーカーのそれを完全に逸脱している。「インピーダンス補正回路」とTOAが呼ぶこのボックスは、過去の試作基板と比べるとかなり小さくなっているそうで、実際にナレッジスクエアで見せてもらったのだが、4Uのサーバーか?と思わせるような巨大なものであった。ステレオ2ch分の回路が入っているからということではあったが、それにしても大きい。 📷ME-50FSの最大の特徴とも言えるインピーダンス補正回路のプロトタイプ。左右2ch分が一つのボックスに収まっている。これを上写真の赤いボックスにまでサイズダウンして現在の形状に収めている。 「インピーダンス補正回路」の内部のパーツはフルアナログということもあり、前述の通り抵抗、コンデンサー、コイルである。そしてそれぞれのパーツは理想の特性を求めるために吟味を重ねたもの。わかりやすく言えば、コイルは理想の数値を持ったワンオフで自社制作されたもの。抵抗は耐圧の高いメタルクラッド抵抗で、抵抗が特定の周波数以上で持つインダクタンスの影響がスピーカーとして出ないよう無誘導巻のものを用い、大入力に耐えるため熱容量に余裕のある大型のものが使われている。また、コイルは磁界を発生させるため、それらが相互に影響を及ぼさないように基板上の磁界にまで気を配り、縦横、一部のパーツは高さを変えて各パーツを配置。この結果、完全に手作業での製作となることは目に見えているが、究極のスピーカーを作るためには必要なことだというのがスタンスだ。 こういったポイント一つ一つ、すべてにおいてエビデンスのある技術を採用している。オーディオ業界においては非常に多くのプラシーボが存在しているが、良くも悪くも感覚的なものが多くを占める聴覚に頼ったものだからこその出来事。それを楽しむのも一興ではあるのだが、メーカーとして究極を追い求める際にそれらプラシーボは一切排除しているということだ。すべての設計、パーツの取付一つにおいても、すべてにおいて裏付けのある理由があり、必要であればそのエビデンスも提供できるようになっているということである。 スピーカーとしての完全体 こだわりの結晶体とも言えるこのスピーカー。そのポイントを挙げ出したらきりがないのだが、もう一つだけ紹介しておこう。「インピーダンス補正回路」とスピーカー本体を接続するケーブル。これもケーブル自体の持つインダクタンスの値を計算し、スピーカー内部でパラレルに接続される箇所までの長さをミリメートル単位で計算してケーブル長が決められている。設置しやすいように、などという発想ではなくエビデンスに基いた理想の長さということで設計が行われている。 内蔵されるパワーアンプはClass Dのものが採用されている、これも理想の特性を追い求めて選択されたものだ。このClass Dアンプモジュールの選定においても、TOA社内専門家による技術評価および各種測定、耐久力試験に加え、長期間の運用及び試聴評価を経て厳選されたものが使われている。ME-50FSでは、ひとつの理想のパッケージとしてパワーアンプを内蔵としているが、ユーザーにも少しの遊びを許しているポイントがある。それが、スピーカー背面にあるスピーカーI/O端子。Lineレベルの入力であれば、内臓のパワーアンプを介してスピーカーが駆動されるのだが、内蔵のパワーアンプを切り離し、外部のパワーアンプからの入力も持っているということだ。パワードスピーカーとしてはかなり珍しい設計ではないだろうか? これこそ、このスピーカーに対する自信の現れとも言える。メーカーとしての完全なるパッケージとしての究極は、もちろん内蔵アンプであることは間違いない。しかし、外部アンプの入力を受け付けるということは、外部アンプが持つ実力を100%引き出せる「測定器」としての側面を持つスピーカーであるということでもある。一般的なパワードスピーカーではユニットの特性を補正するためにアンプ自体の出力に癖を持たせるということは少なくない。完全アナログで仕立てられたME-50FSは、どのような入力が来たとしても完全に理想的な動作をするという「スピーカーとしての完全体」を体現しているのである。 アコース綾部工場 TOAの国内の製造拠点であるアコース綾部工場。すでに大量生産品はインドネシアの工場に移行しているが、ハイエンド製品、少量生産品などは国内でひとつずつ手作業で作られている。アコース株式会社はTOA株式会社のグループ企業で、プロオーディオ機器の開発、設計、生産、出荷までを行っている。綾部工場は木工加工を中心にプロオーディオ機器を生産する拠点。もう一つの米原工場は、エレクトロニクス、電子回路などの生産を行っている。2つの工場双方ともに多品種小ロットの生産に適した工場である。 ・Made in Japan!日本のものづくり 綾部工場は、京都府の綾部市にある。明智光秀で一躍有名になった福知山市の隣町で旧丹波国となる。もう少し行けば日本海に面した若狭湾、舞鶴港というあたりで、大阪から100km圏であり舞鶴若狭道で1時間強で行くことができる場所。実際のところかなりの田園風景が広がっているのだが、高速が通ってからは工業団地ができたりとそれなりの発展もしている街である。完全に余談ではあるが筆者の出生地はこの綾部市であり馴染みの深い土地である。 このアコース綾部工場は、木工加工を中心とした生産拠点ということでスピーカーエンクロージャーの生産がその中心となる。まずは、その木工加工の現場を見せていただいた。切り出し用のパネルソーや多品種小ロットの生産のためとも言えるNCルーター。多軸、かつデュアルヘッド仕様なので、複雑な加工をスピーディーに行うことができる。プログラムを読み込ませて専用の治具に材木をセットすれば、複雑化形状もあっと言う間に削り出していく。設計で想定した通りの材料がここで切り出されることとなる。 切り出された材料は塗装工程へと回される。長いレールにぶら下げられ人の手により塗装が行われる。低温で一度乾燥させた後に一度冷やし、2階部分にある高温の乾燥室へと送られる。やはりスピーカーエンクロージャーの塗装ということで黒に塗ることが多いのだろう、飛散した塗料で黒くなったこの空間は、この工場でも印象的な空間であった。ここでは、特殊塗料による塗装など、やはり小ロット多品種に対応した工程が行えるようになっている。特別色等の特注製作などもこの工場があるからこそ実現できるということだ。 次に見せていただいたのが、スピーカーの組み立ての現場。さすがにコーン紙、フレームなどは別のところで作ったものを持ってきているとのことだが、スピーカーの心臓部とも言えるマグネットとコイルはここで作っている。巨大な着磁機が並び、製品に応じた素材に対して着磁を行いマグネットを作っている。自社で製造できるということは、磁界強度、サイズなども自由自在ということだ。そして、コイルの製作に使うコイル巻き機。アナログなこの機械はどうやら自分たちで手作りしたようだという。生産に必要なものがなければ作ってしまおうという、まさに職人魂が垣間見える。 📷(左上)スピーカーを駆動するための磁石を作るための着磁機。製造する磁石のサイズに合わせ機械がずらりと並ぶ。(右上)ボイスコイルを巻くための専用機械。過去の先達の手作りであろうということだ。(左下)完成したボイスコイル。これが、コーン紙に貼られスピーカーとなる。(右下)スピーカーユニットの組立工程。コーン紙を専用の器具で接着している。 実際にコイルを巻くところを見せていただいたのだが、スピーカーコイル用の特殊な形状の素材が使われていた。一般的な丸い線材ではなく、きしめん状の平たい銅線で巻いた際に固着するようアルコールで溶ける特殊な溶剤がコーティングされている。このきしめん状の銅線にアルコールを湿らせながら巻いていくことで、巻き終わったコイルは筒状のコイルとなる。一つずつ職人が巻いていくことで巻数は自由。ボビンの経を変えたり、線材の太さを変えることでさまざまな形状のボイスコイルを作ることが可能だ。この機械で巻き終わったコイルは、焼入れを行うことで、さらにしっかりと固着されてユニット組立工程へと渡される。ツイーター等のメタルドームもここで一つずつ手作業でプレスして整形されている。さすがにこの板金用の金型は自社製造ではないということだが、製品ごとさまざまな形状の金型がずらりと準備されていた。組立工程では一つずつ専用の治具を使いエッジ、コーン紙の貼り合わせ、ボイスコイルの接着、フレームの取付などが、ひとりの職人の手によって行われる。 次が組み立ての工程。塗装の終わったエンクロージャーにユニット、キャビネットグリル、ネットワーク回路などのパーツを組み込み、梱包までを一気に行っている。大量生産のラインであれば何人もが担当するような作業を、一人でしかも手作業で行っている。多品種小ロットということで、毎日異なる製品を組み立てているのだが、間違いのないように常にマニュアルが開かれ、工程ごとにページを捲りながら作業を進めていた。組み立てられて梱包される前には、もちろんしっかりと所定の性能が出ているかチェックがなされる。これぞMade in Japan!日本のものづくりの現場を見た思いである。 ・綾部という地をスピーカー製造の聖地に 整然と整えられたパーツ庫は、言わばTOAプロオーディオ製品の生まれ故郷。常に数万種類のパーツがストックされ、入念な生産計画に沿って生産が行われているということだ。写真を見ていただければわかるのだが、驚くほどこれらの工程に関わる職人は少ない。自動化できるところは機械に頼り、多品種に対応するため複雑な工程では、一人ひとりが多くの工程をこなすことで、少人数による生産を実現している。管理部門も含めた従業員数は28名、まさにプロフェッショナルの集団と言えるだろう。 このアコース綾部工場では、試作機の製造なども行っている。どのようなカスタムパーツも作ることができるこの拠点があるからこそ、TOAではさまざまな試作を繰り返し、クオリティの高い製品をリリースすることができている。そのための実験設備も備わっており、その一つが無響室だ。試作した製品がどのような特性なのか?それを作ってすぐにテストできる環境があるということだ。さまざまなバリエーションの試作機を作り、それをその場で実際にテストして、設計数値が実現できているかを確認する。まさに理想の開発環境と言える。無響室以外にも-20度〜180度までの環境が再現できるという恒温槽による温度変化による特性、耐久性のテストだったりといことも行える設備がある。 ほかにも試聴用の部屋もあり、実際に聴感テストも行っている。取材時はME-50FSのインビーダンス補正回路を設計するときに使ったであろう様々な治具などが置かれていた。そして、この部屋の片隅にはスピーカーコーン紙の共振測定器が置かれていた。スピーカーが振動しているときにレーザーでその表面の動きを測定し、不要な共振がないかを計測する。実際の素材を使っての実際の測定。計算だけではなく実際の製品で測定することによる正確性の追求。さまざまな素材の融合体であるスピーカーユニットであるからこそ必要とされる実地の重要さが感じられる。 TOAのものづくりの拠点、それがこのアコース綾部工場であり、この試作機を作るための理想的な環境があったからこそME-50FSが妥協を一切許さない製品として世にリリースされたのであろう。コイルの巻数一巻きにまで気を配って生産できるこの環境、理想を追い求めるための究極形である。今回ご案内いただいたTOAの皆さんもこの拠点があったからこそME-50FSは完成し、まさにここがME-50FSの故郷であると仰っていたのが印象的。この綾部という地をスピーカー製造の聖地に、その意気込みが実を結ぶのもそう遠くはなさそうだ。 📷(左)アコース綾部工場 (右)左より工場取材にご協力いただいたTOAの藤巴氏、ジーベックの栗山氏、アコース綾部工場の藤原氏、ME-50FSの生みの親とも言えるTOA技監の松本氏。 Studio BEWEST ME-50FS取材の最後に訪れたのは実際のユーザーである岡山県津山市のレコーディングスタジオBEWESTにお伺いして、実際の使い勝手やその魅力についてをお話いただいた。オーナーの西本氏はバンドマンからレコーディングエンジニアへと転身した経歴を持ち、岡山市内と津山市に2つのスタジオを構える。BEWESTの独自の取り組みなども併せてお届けしたい。 ・サウンドを生み出す立場からの目線 📷Stduio BEWEST オーナー兼エンジニア 西本 直樹 氏 岡山市から北へ60kmほどいったところに津山市はある。大阪からも中国道で150kmほどの距離だ。12年前にオープンしたこのスタジオはレコーディングから、ミックス・マスタリングまでをワンストップで行うスタジオとして稼働していたが、岡山市内に3年前に新しくスタジオを立ち上げたことで、今はミックスとマスタリングの拠点として稼働しているということだ。このスタジオの特長は、ビンテージから最新の製品までずらりと取り揃えられたアウトボードやマイクなどの機材。その機材リストの一部をご紹介すると、マイクはビンテージのNeumann U47 TUBE、オリジナルのtelefunken U47、SONY 800G、Chandler REDD Microphone、Ehrland EHR-Mなどビンテージの名機から、現行の製品まで幅広いラインナップを揃える。この選択の源泉はお話を伺っていくとレコーディングへの向かい合い方にあると感じた。 西本氏のルーツはバンドマンである。バンドのレコーディングを行っていく中で機材に興味を持つ。そしてギタリストとしてバンド活動を行っていた西本氏は、インディーズのレコーディング現場での体験で完成した作品の音に対してメジャーとの差を痛感したという。レコーディングのバジェットが違うから仕方がないと諦めるのではなく、その差は何なのか?この部分に興味を持ち、独学でレコーディングを行うようになっていったそうだ。機材が違うのであれば、同じものを使えば同じクオリティーになるのか?マイクは?マイクプリは?独学でどんどんと掘り下げていき、気が付いたらスタジオを作っていて日本中からレコーディングの依頼を受けるようになっていたということだ。 お話を聞いているとエンジニアとしてスタジオで経験を積んだ方とは、やはり視点が異なることに気付かされる。ミュージシャンの視点で、自身の音がどのような音なのかをしっかりと認識した上で、それがどのような音としてレコーディングされ作品になってほしいか?あくまでもサウンドを生み出す立場からの目線を貫いている。そのため、音がリアルなのか、なにか変質してしまっているのか?そういったところに対して非常に敏感であり、常に一定の音に対しての物差しを持って向かい合っているエンジニアである。 ・「このまま置いていってほしい」 その西本氏とME-50FSの出会いはInterBEE 2022で話題になっていたことがきっかけだとのこと。興味を抱いた西本氏がすぐに問い合わせしたところ、TOAは岡山市内のスタジオまでデモ機を持ってきてくれたそうだ。ちょうど、岡山のスタジオでウェストキャンプ@岡山というローカルのエンジニアを日本中から集めた勉強会のようなイベントを予定していたそうで、集まった10数名のエンジニアと試聴を行うことができた。その場にいた全員が強いインパクトを受け、この製品の魅力を体感したということ。やはり雑多なInterBEEの会場ででも聴こえてきたインパクトは本物であり、スタジオでの試聴でもその印象は大きく変わらなかったということだ。その後、ミックス・マスタリングをメインで行っている津山のスタジオで改めてじっくりと試聴。改めて聴き直してもその最初に感じたインパクトは変わらず購入を即決したという。すぐにでもこのスピーカーで作品づくりをしたいという思いが強くなり「購入するので、このまま置いていってほしい」とお願いしたほどだそうだ。 ちなみに、それまでメインで使っていたスピーカーは、Focal Trio11。このスピーカーは今でも気に入っているということだが、ME-50FSとの違いについてはセンター定位のサウンドのアタック感、サスティンの見え方、音の立ち方、減衰の仕方などがはっきりと見える点。これは位相が改善していくとセンター定位がどんどんとはっきりしていくという位相感の良さからくるものだろう。ME-50FSの狙い通り、といった部分を直感的に感じ取っている。 ・標準器となるサウンドの魅力 ME-50FSの導入により作業上大きく進化したことがあったそうだ。スタジオではマスタリングまでのワンストップで制作を行っているため、スタジオで作られた音源をさまざまな場所、車内や他のスピーカー環境、ヘッドフォン、イヤフォンなどで違いが出ないかを確認する作業を行っている。やはり、リスニング環境により多少の差異が生じるのは仕方がないが、イメージそのものが異なってはいないか?という部分にはかなり神経を使って仕上げているとのこと。これまでのスピーカー環境では、少なからず修正、微調整の必要があったとのことだが、ME-50FSで作業を行うようになってから、この修正作業がほとんどなくなったということだ。究極の標準器を目指して開発されたME-50FSのポテンシャルを言い表すエピソードではないだろうか。フラットである、位相変化がないということは音に色がついていないということである。そのため、他の環境であったとしてもその環境の色がつくだけで、色自体が変化するということにはならないということではないだろうか。 ほかにもサウンドとしての魅力は、奥行き感、前後の距離感、立体感などを強く感じると言う点にあるという。やはり、位相の良さ、トランジェントの良さがここには大きく影響していると感じるところだとお話いただいた。製品開発にあたりTOAがコンセプトとした部分が実際のコメントにも現れている。開発コンセプト、TOAの目指した標準器としてのサウンドが気に入った方であれば「これしかない」と思わせる実力を持った製品であると言える。 トランジェントが良い、ということは音の立ち上がりが良い、サスティンの余韻が綺麗に減衰するなどといった部分に効果的だ。これを実現するためにTOAでは10cmという小口径のユニットを採用し、ロングストローク化して最低限となる質量のユニットを使い正確にユニットを動かすということでその改善にあたっている。動き出しの軽さ、正確なユニット動作の入力に対するレスポンス。そういったことを考えるとやはりユニット自体の質量は少ないに越したことはない。打楽器などのアタック感も確実に改善しているのだが、このトランジェントの良さを一番感じるのはベースラインだという。高域に関しては他社のスピーカーもトランジェントを突き詰めているが、低域は大口径のユニットを使うため物理的に対処できないところがある。ME-50FSでは、小口径のユニットでその帯域をカバーしているため、圧倒的なトランジェント特性を低域に持たせることに成功している。 BEWESTではスピーカー補正のためにTorinnov Audioを導入している。西本氏はスピーカーを少し動したり、機材配置のレイアウトを変更するたびにTorinnovで測定を行い、自身の感覚だけではなく、測定器として何がどう変化したのかを確認しながらそのチューニングを行っている。ME-50FSを導入した際に測定を行ったところ、位相がほぼフラット!今までに見たことのないフラットな直線状の結果が表示されたということだ。これは、現在製品としてリリースされているスピーカーとしてはありえないこと。シングルスピーカーで無限バッフルといった理想的な環境であればもしかしたらそうなるかもしれない、というレベルの理想に限りなく近い結果である。位相特性は2-way / 3-wayであればそのクロスオーバー周波数付近(フィルターを使用するため)の位相のねじれ。それをME-50FSでは設計の要であるインピーダンス補正回路で解決している。また、ユニット自体の共振周波数による変化、この共振周波数はキャビネットにより生じるものもあれば、バスレフポートにより生じるものもある。スピーカー設計を行った際には、これらが基本的には絶対に生じるものであり、位相特性はかなり暴れたものになるのが普通である。言い換えれば、この位相特性がそのスピーカーの持つ音色ということが言えるのかもしれない。ME-50FSにはこれが無い。良い意味で音色を持たないスピーカーであると言えるだろう。これが、前述した他の試聴環境で聴いた際の破綻のなさに直結している。 ・アナログの持つ普遍性を再認識する 同様にウィークポイントに関してもお伺いしたが、これに関してはやはりローエンドのお話が出た。10cmという口径からくるものだと感じたが、やはり大口径スピーカーのサウンドとは違う。しかし、ME-50FSは設計の優秀さもあり、それでも40Hzあたりまではしっかりと音として出力されている。それ以上低い30Hzあたりになるとさすがに苦しいが、音程を持って人間が知覚できる範囲はカバーできていると言えるだろう。このようなこともありTrio 11から移行したばかりのころはローエンドの不足を感じていたが、この部分も量感の違いはあってもしっかりと出力されているので時間とともに慣れてしまったということだ。ただし、マスタリングという観点で考えるとやはり昨今の作品で使われる20~30Hzが欲しくなることはあるそうだ。 このスピーカーを使うエンジニアとしては、アナログだから、デジタルだからという部分に拘りは特に無い。ただ、アナログの持つ普遍性とは、変わらずにあるもの、究極を目指せるものであることを改めて認識したということだ。スタジオを作ってからずっと持ち続けてきた、モニターへの悩み。このスピーカーとの出会いによりその悩みが解消された。やはりイメージして作った音と、他のスピーカーでの再生も含めた出音の差がないというのがスタジオモニターとしての理想であり、それを実現しているこのスピーカーは革命的だという。 色々なお話をお伺いしたが、TOAの開発コンセプトがまさにエンジニアの求める理想のスピーカーであったということを裏付けるかのようなお話をいくつも聞くことができた。TOAのこれまでのスピーカー開発の技術、そのすべてが詰め込まれた結晶体とも言える1台、音の標準器となるME-50FSから出力されるサウンドがどのようなものか是非体感してみていただきたい。 *ProceedMagazine2023-2024号より転載
NAMM Show 2023でPro Tools | MTRX IIとともに発表され、大きな話題となった「MTRX Thunderbolt 3 Module」。オーディオ制作者の長年の夢であったかもしれないAvidフラッグシップI/Oをネイティブ環境で使用できる日がついにやってきたことになる。MTRX Thunderbolt 3 Moduleの特徴は、MTRX II / MTRX StudioをCore Audioに接続するだけでなく、DigiLinkポートの入出力と同時にThunderbolt入出力を追加で使用できるという点にもある。つまり、1台のMTRX II / MTRX StudioにHDXシステムとネイティブDAWを同時に接続することが可能で、双方に信号を出し入れすることができるということだ。単に高品位なI/Oをネイティブ環境で使用できるようになるというだけでなく、中規模から大規模なシステム設計にまで影響を及ぼす注目のプロダクト「MTRX Thunderbolt 3 Module」を活用した代表的なシステムアップの例を考えてみたい。 Thunderbolt 3 Module 価格:135,080円(税込) MTRX IIとMTRX Studioの両製品に対応したThunderbolt 3モジュールのリリースにより、DigiLink接続によるパワフルなDSP統合環境に加えて、 Thunderbolt 3経由で実現する低レイテンシーなCore Audio環境での柔軟性も実現可能となる。Thunderbolt 3オプション・モジュール経由で、MTRX IIでの使用時に最大256ch、MTRX Studioの場合では最大64chにアクセスが可能、Core Audio対応アプリケーション等をDADmanソフトウエアにルートし、より先進的なオーディオ・ワークフローが実現できる。 シーン1:Core Audio対応DAWのI/Oとして使用 MTRX Thunderbolt 3 Moduleの登場によって真っ先に思いつくのはやはり、これまでHDXシステムでしか使用できなかったMTRX II / MTRX Studioをネイティブ環境でI/Oとして使用できるようになったということだろう。Logic Pro、Nuendo、Cubase、Studio OneなどのCoreAudio対応DAW環境でAvidフラッグシップの高品位I/Oを使用することができるだけでなく、巨大なルーティング・マトリクスや柔軟なモニターコントロール機能をシステムに追加することができるようになる。 もちろん、恩恵を受けるのはサードパーティ製のDAWだけではない。HDX非対応のPro Tools Intro、Pro Tools Artist、Pro Tools Studio、さらにPro Tools Ultimateをnon-HDX環境で使用している場合にも、HDXシステムで使用されるものと同じI/Fを使用することができるようになる。特に、Pro Tools Studioはこのオプション・モジュールの登場によって、そのバリューを大きく拡大することになる。Pro Tools Studioは最大7.1.6までのバスを持ち、Dolby Atmosミキシングにも対応するなど、すでにイマーシブReadyな機能を備えているが、従来のAvidのラインナップではこれらの機能をフル活用するだけのI/Oを確保することが難しかった。MTRX Thunderbolt 3 Moduleの登場によって、Avidの統合されたIn the Boxイマーシブ・ミキシングのためのシステムが完成することになる。 シーン2:HDXシステムにダイレクトにMacを追加接続 MTRX II / MTRX Studioのドライバーであり、ルーティング機能やモニターセクション機能のコントロール・アプリでもあるDADman上では、DigiLinkからのオーディオとThunderboltからのオーディオは別々のソースとして認識されるため、これを利用してDigiLink接続のMacとThuderbolt接続のMacとの間でダイレクトに信号のやりとりができる。例えば、Dolby Atmosハードウェア・レンダラーとHDXシステムのI/Fを1台のMTRX II / MTRX Studioに兼任させることが可能になる。Pro Toolsとハードウェア・レンダラーが1:1程度の小規模なミキシングであれば、I/O数を確保しながらシステムをコンパクトにまとめることができるだろう。 もちろん、Dolby Atmosハードウェア・レンダラーだけでなく、CoreAudioにさえ対応していれば、スタンドアローンのソフトウェアシンセ、プロセッサー、DAWなどとPro Toolsの間で信号をやりとりすることができる。シンセでのパフォーマンスをリアルタイムにPro ToolsにRecする、Pro ToolsからSpat Revolutionのようなプロセッサーに信号を送る、といったことが1台のI/Fでできてしまうということだ。Thuderboltからのソースはその他のソースと同様、DADman上で自由にパッチできる。使い方の可能性は、ユーザーごとに無限に存在するだろう。(注:MTRX StudioのThuderbolt 3 I/Oは最大64チャンネル。) シーン3:Dolby Atmosハードウェア・レンダラーのI/Fとして使用 シンプルに、HDXシステムとDolby Atmosハードウェア・レンダラーのそれぞれにMTRX IIを使用することももちろん可能だ。HDX側のMTRX IIからDanteでレンダラーに信号を送り、レンダラー側のMTRX IIからモニターセクションへ出力することになる。大規模なシステムの場合、複数のプレイアウトPro Toolsからの信号を1台のMTRX IIにまとめると、オプションカードスロットがDigiLinkカードで埋まってしまい、アナログI/Oをまったく確保できないことがある。ハードウェア・レンダラーのI/FとしてMTRX IIを採用した場合には、その空きスロットを利用して外部機器とのI/Oを確保することができる。MTRX II同士をDanteで接続していればひとつのネットワークにオーディオを接続できるので、Dante信号としてではあるがメインのMTRX IIからコントロールすることも可能だ。 NAMM Show 2023での発表以来、多くのユーザーが待ちわびたプロダクトがついに発売開始。In the Boxから大規模システムまであらゆる規模のシステムアップを柔軟にすることができるモジュールの登場により、ユーザーごとのニーズによりマッチした構成を組むことが可能になった。新たなワークフローを生み出すとも言えるこの製品、システム検討の選択肢に加えてみてはいかがだろうか。 *ProceedMagazine2023-2024号より転載
AES2022で綺羅星の如く登場し、業界の注目を集めているGPU Audio 社。これまで、AudioのPC上でのプロセスはCPUで行う、という認識が暗黙の了解のように存在していたのだが、GPUというこれまで活用してこなかったプロセッサーを使用することで、さらなる処理能力の向上を現実のものとした、まさにゲームチェンジャーとなりうる可能性を秘めた技術を登場させている。 Viennaの動作で実証された驚くべき能力 NAMM 2023の会場では、そのGPUプロセスに対し賛同した複数のメーカーとの共同ブースを構えて展示を行っていた。GPU Audio自体は、独自に開発したプラグインを複数発表しているが、NAMMの会場ではVienna Symphonic Libraryの誇る、高精度だが非常に動作が重いとされるVienna MIR PRO 3Dのセッションを、なんとGPU上で動作させるというデモを行って会場を驚かせていた。 📷コンサートホールを模したバーチャル空間に配置されたインストゥルメント。実際のオーケストラの配置を念頭に各パートが配置されており、そのパート数はなんと63。クオリティーの高さと引き換えに動作が重いことで有名なViennaではあるが、こちらのデモではさらに3D空間でのシュミレーションが加わっている。 このVienna MIRのセッション上には70トラックの音源が同一空間に配置され、3D空間内部での音源として再生が行われていた。CPUでの処理では音にノイズが混ざったりしていたものが、GPU上で動作させると使用率は30%程度に抑えられ、しかも安定して綺麗に再生される、ということがまさに目の前で実践されていた。このデモで使用されていたLaptop PCは、いま考えられる最高のスペックだと自信たっぷりに案内されたのだが、まさにその通りで、CPUはIntel Core i9 13900、メモリ64GB、GPUはNVIDIA GeForce RTX 4090という、現時点における最高の組み合わせ。つまり、その最新世代のCore i9でさえ動かしきれないものを、GPUをもってすれば余裕を持って動作させることができる。これは、GPU Audioがアナウンスしているように、FIRの計算であれば40倍、IIRの計算でも10倍のパフォーマンスが得られるということが現実になっているということだ。 📷クローズアップしたのはGPU Audioの技術により組み込まれたCPU/GPUの切り替えボタン。ベータ版のため実際の製品でもこのような仕様になるかは不明ではあるが、これこそが本記事でご紹介しているGPUによるオーディオ処理を確認できるポイントとなる。GPUがいかに強力とはいえ、有限のプロセッシングパワーであることは間違いない。従来のCPU処理と選択できるというアイデアは、ぜひともリリース版にも搭載してもらいたい機能だ。 並列処理、ベクトル計算を得意とするGPU 📷CPUとGPUでの処理速度の差をグラフ化したものがこちら。一般的に処理が重いと言われているFIR(リニアフェイズ処理)において、30〜40倍の速度向上が見込めるというのが大きなトピック。一般的なEQ処理などで使われるIIRにおいては、CPUとの差は縮まり10~15倍。これは、元々の処理自体が軽いということもありこのような結果になっているようだが、それでも大幅な処理速度向上が見込める。多数のコアを使った並列処理によるFIR処理の高速化は、やはりGPUの真骨頂と言えるのではないだろうか。 なぜ、GPUをAudioのプロセスに使うだろうか?筆者も10年以上前から、Audio Processを行うにあたりCPUは頑張って仕事をしているが、GPUは常に最低限の仕事(ディスプレイへのGPUの表示)しか行っていないのは何とももったいないと感じていた。高価なデスクトップPCを購入すれば、それに見合ったそこそこのグレードにあたるGPUが搭載されてくることがほとんど。搭載されているのにも関わらず、その性能を活かしていないのはなんとももどかしい。しかも、GPUはオーディオ信号処理にとってのエキスパートとなる可能性を持つ部分が数多くある。 まず考えられるのは、大量のトラックを使用し多数のプラグインを駆使してミキシングを行うといったケース。かなり多くの処理が「並行して複数行われる」ということは容易に想像できるだろう。これはまさにGPUが得意とするリアルタイム性が必要な並列処理であり、レイテンシーを縮めることと、並列処理による処理の最適化が行えるはずである。次に、GPUがベクトル計算のプロフェッショナルであるということ。オーディオ波形を扱うにあたり、この特徴は間違いなく活かせるはずである。オーディオの波形編集などで多用されるフーリエ変換などはGPUの方が秀でている分野である。 ●GPU(Graphics Processing Unit)とは!? GPUとはGraphics Processing Unitの略称であり、リアルタイム画像処理に特化した演算装置あるいはプロセッサを指す。通常の演算処理に使用するCPU=Central Processing Unitとの違いは、膨大な並列処理をリアルタイムに演算する必要がある3Dのレンダリング、シェーディングを行うために数多くの演算用のコアを搭載しているということが挙げられる。現行のCPUであれば、4~20個ほどのコアを搭載しているものが一般向けとして流通しているが、それに対しGPUではNVIDEAの現行製品RTX 40シリーズは処理の中心となるCUDAコアを5888~16384個と桁違いの数を搭載している。 このような高度な並列処理が必要となった過程はまさに3D技術の進化とともにあり、Microsoftが1995年に開発した、ゲーム・マルチメディア向けの汎用API Direct Xの歴史とともにハードウェアの進化が二人三脚で続いている。3Dのグラフィックスをディスプレイに表示するには、仮想の3D空間において、指定座標におかれた頂点同士をつなぎ合わせたワイヤーフレームの構築し、そこに面を持たせることで立体的な形状を生成。これを空間内に配置されたオブジェクトすべてにおいて行う。そこに光を当て色の濃淡を表現、後方は影を生成、霧(フォグ)の合成など様々な追加要素を加えてリアリティーを上げていく。こうして作られた仮想の箱庭のような3D空間を、今度は2D表現装置であるディスプレイ表示に合わせて、3D-2Dの座標変換処理、ジオメトリ処理を行うこととなる。これらの作業をリアルタイムに行うためには、高速にいくつもの処理を並列に行う必要がある。それに特化して並列化を進めたものが今日のGPUである。 NVIDIA GPU比較表 このような並列処理に特化したGPUは、2005年ごろよりコンピューティングの並列化に最適なプロセッサーとしてGPGPUという新たな分野を切り拓いている。単一コアの高性能化が一定の水準で頭打ちすることを見越して、処理を並列化することでの効率化、高速化を図るというものである。汎用CPUと比較して明確なメリット・デメリットはあるものの、特定分野(特にベクトル計算)においてはその性能が発揮されるということもあり、スーパーコンピュータ分野で普及が進んでいる。 現在では、Direct X 10以降の世代の汎用GPUであればGPGPU対応となっている。汎用のAPI「C++ AMP」や「OpenACC」などのプログラミング言語環境も整っており、普通に入手可能な製品でもGPGPUの恩恵を受けることは可能である。まさに今回紹介するGPU Audioはこのような特徴を活かしたものと言えるだろう。 オーディオでシビアなレイテンシーを解決 📷NAMM Showの会場でGPU Audioは、そのテクノロジーに賛同するメーカーと共同でブースを構えていた。 リアルタイムかつ、同時に数多くの処理を並列でこなすことのできるGPUが、まさにAudio Processingの救世主となりうる存在であることは、多くのPCフリークが気付いていたはずである。しかし、なぜ今までGPUを活用したオーディオプロセッシング技術は登場してこなかったのだろうか? ここからは筆者の考察も含めて話を進めていきたい。GPU Audioのスタッフに話を聞いたところ、昨年のAES 2022での発表までに費やした開発期間は、実に8年にも及ぶということだ。一見シンプルにみえるGPU上でのオーディオ処理だが、実現するためには多くの困難があったようだ。その具体的な事例として挙がっていたのはレイテンシーの問題。 そもそもリアルタイム性を重視して設計されているGPUなのだから、問題にはならなさそうな気もするが、グラフィックとオーディオの持つ性質の差が解決を難しくしていたようだ。想像をするに、画像処理であれば一部分の処理が追いつかずにブロックノイズとして表示されてしまったとしても、それは広い画面の中の微細な箇所での出来事であり、クリティカルな問題にはならない。しかしオーディオ処理においてはそうとは行かない。処理遅れにより生じたノイズは明らかなノイズとして即時に聴こえてしまい、オーディオにおいてはクリティカルな問題として顕在化してきてしまう。単純にGPGPUなど、GPUをコンピューティングとして活用する技術は確立されているのだから、プログラムをそれにあった形に変換するだけで動くのではないか?と考えてしまうが、そうではないようだ。 CPUが非力だった時代より今日までオーディオプロセスを行わせるための最適なデジタル処理エンジンは、DSP=Digital Signal Processerである。これに異論はないはずだ。昨今ではFPGAを使用したものも増えてきているが、それらも基本的にはFPGA上にDSPと同様に動作するプログラムを書き込んで動作させている。言い換えれば、FPGAをDSPとして動作させているということだ。 その後、PCの進化とともにCPUでの処理が生まれてくるのだが、これは汎用のプロセッサーの持つ宿命としてレイテンシーが発生してしまう。もちろんDSPの処理でもレイテンシーは発生するのだが、CPUは処理の種類によりレイテンシー量が異なってくる一方で、その遅延量を定量化することが可能なのがDSPの持つ美点である。レイテンシーが定量であるということは、オーディオにとっては非常に重要なこと。問題にならないほどレイテンシーが短いのであれば、あえてディレイを付加することにより遅延量を定量化することは容易いのだが、チャンネル間の位相差などレイテンシー量がバラバラになるとクリティカルな問題に直結してしまう。GPUの持つ可能性がどれほどのものなのかは、今後登場する製品に触れたときに明らかになることだろう。 📷デモではViennaを使っていたが、GPU Audioでは自社でのプラグインのリリースも行う。こちらが自社で開発したコーラス、フランジャーなどのモジュレーション・プラグインと、FIRを活用したリバーブプラグインとなる。従来のCPUベースのプラグインをリリースするサードパーティ各社への技術提供と並行して、このようにGPU Native環境でのプラグイン開発を行うプランが進行している。 デモを見るかぎりGPUが持つ可能性は非常に高いと感じる。PCでのオーディオプロセスとしてはフロンティアとも言える領域に踏み込んだGPU Audio。今まで以上のプロセッシングパワーを提供することで、全く新しい処理を行うことができるプラグインの登場。DAWのミキシングパワーはCPUで、プラグインプロセスはGPUで、といったような処理の分散による安定化など多くのメリットが考えられる。今後、GPU Audioの技術により業界が大きく変化する可能性を大いに感じられるのではないだろうか。 📷プレゼンテーション用のステージではライブパフォーマンスも行われていた。QOSMOはファウンダーであり、自身もミュージシャンであるNao TokuiとBig YUKIによるパフォーマンスを提供。一流ミュージシャンに寄るパフォーマンスが楽しめるのもNAMM showの醍醐味のひとつ。 *ProceedMagazine2023号より転載
制振についてのコア技術に特許を持ち、実に40年にわたりホームオーディオの分野で活躍しているTAOC。40年間の製品開発で蓄積したノウハウを基に開発した新たな製品レンジ「STUDIO WORKS」シリーズを投入し、これまでは特注でしか生産されることがなかったプロオーディオ市場へ本格的に参入する。鋳鉄こそが「遮断」と「吸収」という2つの役割を両立できるベストな材質だという鋳鉄のプロフェッショナルたちがどのようにして製品を開発・生産しているのか、愛知県豊田市のアイシン高丘株式会社を訪れた。 振動を制するものはオーディオを制す TAOCはブレーキディスクローターやシャーシ部品をはじめとした自動車部品を生産するアイシン高丘株式会社を母体に持つ。自動車用鋳造部品の製造ラインで採取される鋳鉄粉を用いて、鋳鉄の制振性や音響特性を活かした製品をホームオーディオの分野で多くリリースしているのがTAOCブランドだ。ほとんどの製品が制振にフォーカスをあてたもので、そのブランド名の頭文字が「Takaoka Anti Oscillation Casting」から成っていることからも、立ち上げ当初より音響機器の最適な振動制御を鋳造(Casting)で達成することを目的に活動してきたことが窺える。また、「異なる厚みの鉄板を密着させ、互いに違った固有値を持つ板材が振動を抑制することで、音質改善を行う二重鉄板構造」について特許を取得したこともあり、現在では多くの金属製スピーカースタンドメーカーが生産する製品の天板に採用されている。 音楽を活かすために「整振」するTAOCの製品には、音像の厚み、広がり、帯域のバランス、解像度といった要件が求められる。この複数の要件を満たすには、密度が高く、硬度が高く、自己の振動を持ち込まない減衰性を併せ持つ材質が必要となるが、これにおいて3拍子揃った材質が鋳鉄だ。 さらに、鋳鉄(言い換えれば黒煙を多量に含んだ鉄)は高い振動吸収性を持つ。鋳鉄はキャベツの葉を剥がしてランダムに並べたような黒鉛構造を持っており、その黒鉛と鉄部分の摩擦によって振動エネルギーは熱エネルギーに変換され制振性を発揮する。これが鋳鉄の大きな特徴であり、安全のためにも不要な振動を抑えておきたいブレーキローターに鋳鉄が用いられているのもうなずける。 📷各素材を特性ごとに並べてみると、鋳鉄がいかに3拍子揃った材質であるかがわかる。例えば、密度が最も高い鉛は一方で硬度が低く、硬度が最も高いセラミックは減衰性が低い。マグネシウムは減衰性に秀でているが、密度が低くなり音の厚みや解像度に劣ってしまう。この3つの特性を高い次元でバランスよく持っているのが鋳鉄だ。 鋳鉄が持つ独特な特性を体験する アイシン高丘本社に到着後、広大な敷地内でも最奥に位置するTAOCオフィスまで車で移動。鋳鉄工場見学のレクチャーと諸注意を受けつつ、まずTAOC製品に広く用いられる鋳鉄粉のサンプルを見せていただいた。大きめの薬瓶に入れられた鋳鉄粉サンプルは、手に取ると当然ながらズッシリと重い。鉄粉はパウダー状になっている訳ではなく、砂粒ほどの大きさがあり、これが各種製品へ充填されている。試しに手に持って水平に揺らしてみると、ショックレスハンマーと同じ原理が働き、寸止めした時の反対側への反動が少なくピタッと止まる。力量は異なるが、スピーカースタンドの中でもこういった現象が起こっているのかと不思議な体験ができた。 作業着とヘルメットを装着したところで鋳造工場内へ移動を始めるが、大きな炉を拝見する前に、社内の研修施設で今の製造工程や自動化されている機械内処理の説明をいただいた。その研修施設の入口にはダンベルやエンジンブロックのサンプルを使った解説があり、自動車部品以外の鋳物製品や鋳造の成形不良のサンプルも展示されている。その中に音に関係するサンプルもあったのでご紹介しておきたい。そこには鐘形になった鉄4種類、青銅、アルミの成形物が設置されており、これをマレットで叩くことが出来るのだが、叩いてみるとアルミや青銅はサスティンが長くその音色も聴き慣れた美しいものなのだが、比べて鋳鉄を叩いた音色はどれも複雑な倍音をもち、アタックも鈍く、そして減衰が速い。素材自体に制振効果があるということは前知識としてあったが、実際にマレットで衝撃を与えた際の応答は予想以上に顕著なもの。オーディオ製品として鋳鉄が持つ可能性に期待が高まる。 鐘形のサンプルの裏手側には設計から製品になるまでの工程がジオラマ形式で展示され、アイシン高丘の鋳物製造フローが学べる。社員研修や社内技能試験などでは研修施設の機能をフルに活用するとのことだが、今回は鋳鉄粉が出来るまでの一部の工程を説明していただいた。 鋳鉄粉が採取できる工程は、鋳造の後半にあたる後処理工程となる。上型、下型、中子型から製品を取り出す作業が行われ、製品は砂型を壊して取り出される。取り出した製品には型で使われた砂が付着しているため、ショット機と呼ばれるサンドブラストの一種を使用してバリや砂を除去する。この作業によって、素材の表面が剥がれ落ち鋳鉄粉が採取できるわけだ。こうしてショット機からメディアが噴射され後処理が完了すると集塵機には砂、メディア、鋳鉄粉が混ざったものが集まる。これを選別して鋳鉄粉を取り出し、さらに取り出した鋳鉄粉は規格に沿ったメッシュを通して粒を揃えたものを採取する。このような工程で選りすぐられた鋳鉄粉をTAOCではスタンドの制振材として活用している。 📷バリ取りの工程で写真のショット機が使用される。砂型から取り出された製品からサンドブラストの一種であるこちらの機械を使ってバリと砂を除去する。すぐ隣にあるのがショット機用の集塵機。ここに集められたものを規格に沿ったメッシュでふるいにかけ、砂粒状の鋳鉄粉が採取される。 非日常的な迫力の工場内 研修施設での解説を受けたあとは、鋳物を製造している製造ラインへと移動する。人間の背丈を遥かに超える大型機械群に囲まれて、なにが何の為の機械なのかまるで見当がつかない。いよいよ工場にやって来たという感覚が湧いてきた。 ライン見学は製造工程通りに案内され、まずは材料となる鉄を溶かす溶解炉であるキュポラのセクションへ。1400度以上の鉄が連続溶解できるキュポラの足元には6トンほどの溶かされた鉄が入る釜が2基設置されており、満杯になるとレールを伝って鋳込セクションへ運ばれる。残念ながら、先程キュポラから運ばれてきた真っ赤な鉄を注ぐ鋳込の工程自体は外から作業を見ることができなかったのだが、工場内は常に80dBを超える音で満たされており、定期的に聞こえるエアー重機のブローオフは瞬間的に100dBを超える。これだけでも非日常的な迫力を感じることができた。 そして、後処理のセクションへ移動する。研修施設で見たショット機を使ってのバリ取りを行い、まさにいま鋳鉄粉が出来ている工程でこちらも自動化されている。その経路の途中にはセキ折りのセクションがあり、製品から伸びている湯道を切り離す作業のラインを見学。鉄でできた大きなプラモデルとでも言えば良いのだろうか、傍らから見るとランナーからパーツをニッパーで切る作業に似ているのだが、ニッパー風のエアー工具も切り離される製品もやはりそのすべてが大きい。 システムをきちんと機能させる土台 工場内を見学した後はTAOCの開発室兼視聴室へ向かった。視聴室の前は広大な庭が広がっており、アイシン高丘のOBや夜勤明けの従業員がハーフラウンドのゴルフをプレイできるという。これ以外にも社内の取り組みとして工場排熱を利用してスッポンを育てていたり、ショット機で出た砂を再利用してウコンを育てていたこともあるそうだ。鋳鉄粉もTAOC発足前は再びキュポラに戻され製品へリサイクルされていたそうだが、資源の活用とSDG'sへの意識が旧来から全社的に根付いていることがうかがえる。 開発室の中はその半分のスペースがリスニングスペースとなっており、天井や壁面は防音・吸音加工が施されている。残り半分のスペースは様々な資料と音源を収納したラック、ここを囲うようにオリジナルスピーカーや検聴を待つ試作品が並び、そこにはSTUDIO WORKSのデスクトップ型スタンドもあった。同じくSTUDIO WORKSのインシュレーターを手に取ってみると一般的にイメージする鋳物とは思えない仕上がりで、質感はどちらかと言うと鍛造に近い。切削の工程があるのか聞いたところ、仕上げの工程はあるが基本的には鋳込時の流す量と時間で密度をコントロールしているという。それらの製品を設置していただき拝聴後、TAOCチームの南氏、杉田氏、西戸氏にお話を伺った。 Rock oN多田(以下、R):改めてTAOCの持つ特徴をお伺いさせてください。 西戸氏:アイシン高丘は1960年ごろからトヨタ自動車の鋳物部品を生産しており、東洋一の鋳物工場を作るんだという熱意を持ってスタートしました。そしてちょうど40年前の1983年、オイルショックで一時的に鋳物の生産量が少なくなっていく中で自動車部品以外にもこの独自の鋳造加工技術を活かせることはないかと、社内で検討する部署が立ち上げられて、鋳物のスピーカーベースの生産からオーディオアクセサリの事業をスタートしました。鋳物を使ったモノづくりとして、鋳物の墓石を作ってはどうだとか、当時は色々試行錯誤していたと聞いています。また、当時はシミュレーションも少なかったため、製品開発は試行錯誤の体当たりで製作していました。インシュレーター、オーディオボード、オーディオラック、スタンドに加えて鋳鉄製ユニットマウントリングを特長としたスピーカーの製作など、鋳鉄が持つ振動吸収を活かした製品をリリースしています。鋳鉄には素材自体が自分で揺れず、振動を適度に吸収するという特性があります。それを実証するようにスピーカーユニットのリングを作った時は樹脂と比べて真っ直ぐにドライバがストロークしました。これは本来持っている音を出すことができていたとも言えます。 R:STUDIO WORKSという新たなコンセプトで製品を生み出した経緯をお伺いできますか。 南氏:2018年に、とあるマスタリングスタジオのテックエンジニア様から、システム全体の音質向上のためにお声がけいただきTAOC製品を導入いただきました。以降も、エンジニア様とは音質に関する研究交流を続けていた中、杉田の案で2021年のInter beeに2人で行き、特注スタンドのオファーをいただき、要望を伺いながら何本も製作していく中、徐々にプロオーディオ向け製品のコンセプトが定まっていったという経緯があります。 杉田氏:ポタフェス(ヘッドフォン、イヤホン)に行った時も印象深いですね。ポタフェスはポータブルオーディオのイベントではありますが、それを踏まえても音響製品のイベントなのに会場が無音というのはショックを受けました。今までは主に、音を聴く側のお客様に向けての製品作りでしたが、ヘッドフォンの中に聴こえる素晴らしい音を創る側のエンジニア様、音楽家の皆様向けにTAOCとしてお役に立てられないかと思うようになりました。 R:STUDIOWORKSをどういったユーザー層を想定しているのでしょうか。 南氏:プロのエンジニアの方々やミュージシャンの皆様はもちろん、良い音を追求するすべての方々にご体験いただきたいですね。 杉田氏:イレギュラーな使い方や面白いご意見をいただき、そのフィードバックをいただければそこから更に製品の改善にもつながると思います。また個人向けで評価をいただいているこれまでの製品も、プロの方のフィードバックを反映してより良いものが作れると思っています。試作に対してのハードルが低いので、要望はどんどん欲しいですね。なので特注製品、いわゆるワンオフも大歓迎です。製品はすべて国産で製造しているので、フットワークも軽いですよ。 📷本文中でも触れたデスクトップサイズのスタンドも試作されていた。ユーザーの声を素早く反映してラインナップすることはもちろん、ワンオフでの特注にも柔軟に対応できるそうだ。 南氏:TAOCスタジオワークスは一貫して、確かな効果と実用性にこだわり、外観はとてもシンプルな仕様になっています。従来のTAOC製品同様に、20年・30年以上と永く使えるモノづくりをしています。また、今回のスタンドやインシュレーターはどのモデルも、それぞれエンジニア様やロックオンさんと何度も意見交換をしながら完成させたコラボのような製品で、みなさんの熱い思いが詰まっていると感じています。素晴らしい音楽を作られる皆様の鋭い感性と貴重なご意見に、いつも多くの学びがあります。今後も多くのミュージシャン様、エンジニア様とご一緒させていただきながら、TAOCスタジオワークスを進めていきたく思っています。 杉田氏:1983年9月に創業したTAOCは、今年2023年9月に40周年を迎えます。今までのご愛顧に深く感謝をお伝えしながら、次の40年に向けて新しいチャレンジをしていきます。TAOCスタジオワークスも、すでに多くのエンジニア様・ミュージシャン様のスタジオに導入いただけており、手応えを感じています。シリーズ第2弾の製品開発も進めていますので、ぜひ注目していただけると嬉しいですね。 📷写真左より、アイシン高丘エンジニアリング株式会社 TAOCチーム杉田 岳紀 氏、TAOCチーム 西戸 誠志 氏、Rock oN 多田純、ROCK ON PRO 前田洋介、TAOCチーム 南 祐輔 氏。 工場内でキュポラの説明を受けた時にまるでターミネーター2のラストシーンみたいですねと言うと、T-800は鉄の中で沈むので鉄より比重が大きい、おそらくT-800は鉄ではないんですね…と答えが返ってきた。映画のワンシーンにおいても鉄が基準(!)、そのどこまでもアイアンファーストな姿勢はプロオーディオの中で新たなメインストリームを作り出すことになるのではないだろうか。工場で製品が生産される際に生じる余剰となっていた鋳鉄粉だが、それを確かな研究開発の裏付けでリユースし、類まれなる制振特性は40年にわたりオーディオの世界で実績を重ねてきた。そしていま、プロユースの現場にもそのムーブメントが訪れようとしている。 *ProceedMagazine2023号より転載
1973年の設立から50年にわたり、数多のアーティストから愛され続けているレコーディングスタジオ「音響ハウス」。CITY-POPの総本山として、近年さらに注目を集めているこの音響ハウスにスポットを当てた音楽ドキュメンタリー映画「音響ハウス Melody-Go-Round」が2020年秋に公開された。本作のなかでは日本を代表するアーティストの数々が、音響ハウス独特の空気感や響きの素晴らしさについて語っている。 この映画制作を通じて、その稀有な響きを記録しておくべきだというアーティストや音響ハウスOBからの提言が寄せられ、音響ハウスStudio No.1、No.2のフロアの響きを忠実に再現する構想がスタートしたという。そして約1年半の開発期間を経た2022年秋、音響ハウス公式記録となるソフトウェアONKIO Acousticsが満を持して発売された。ONKIO Acoustics誕生までの足跡と開発秘話、そしてソフトウェアに込められた熱い想いを音響ハウスにて伺うことができた。 ●TacSystem / ONKIO Acoustics 価格 ¥10,780(税込) 「録音の聖地」ともいえる音響ハウス Studio No.1 / No.2の空間を、音場再現技術であるVSVerbを用いて忠実に再現したプラグイン「ONKIO Acoustics」。音響ハウスの公式記録として次世代に伝える意義も込め、大変リーズナブルな価格で提供されている。ONKIO Acousticsプラグインでは、マイクのポジションを X軸、Y軸、Z軸 それぞれ-999mm〜+999mm、マイクアングルを-90度から+90度まで変更でき、単一指向性 / 無指向性 の切替えも可能。まるで、実際に音響ハウスでレコーディングを行っているかのような空気を体感することができる。 >>>ONKIO Acoustics製品ホームページ ●ONKIO HAUS Studio No.1 📷音響ビル8FのStudio No.1。コントロールルームにはSSL 9000Jを擁しこれまでも数々の名盤がレコーディングされてきた。ONKIO Acousticsではこちらのメインフロアを再現、マイクポジション設定のほかにもStudio No.1の特徴的な反射板の量までセレクトすることができる。 ●ONKIO HAUS Studio No.2 📷プラグイン内での再現ではStudio No.2のメインフロアはもちろん、Booth-Aのソースをブース内、ブース外から収録するシチュエーションも用意された。なお、こちらのコンソールはSSL 4000G、蓄積されたメンテナンスのノウハウがつぎ込まれそのサウンドが維持されている。 VSVerbとの出会い 📷株式会社音響ハウス 執行役員 IFE制作技術センター長 田中誠記 氏 スタジオの響きを忠実に再現するという最初の構想から、ソフトウェア実現に至る第一歩は何から始まったのだろうか?「レコーディングスタジオの生命線となる、スタジオの鳴りや響きをどのようにして記録・再現するか、まずはタックシステム 山崎淳氏に相談することから始まりました」(田中氏)その相談を受けた山崎氏の回答は「株式会社ソナ / オンフューチャー株式会社 中原雅考 氏が研究している特許技術、VSVテクノロジーしかない」と迅速・明快だったという。 音場を再現するにあたり、従来のImpulse Responceによる計測では測定機器の特性や部屋の騒音に左右され、ピュアな音場再現性に欠けるとの問題提起をしてきた中原氏は、仮想音源の空間分布をサンプリングするVSVerb(Virtual sound Sources reVerb)を音響学会およびAESで発表していた。VSVerbは空間の反射音場をサンプリングすることで、任意の空間の響きを再現する音場再現技術である。測定した音響インテンシティーの波形から反射音成分だけを抽出することにより、部屋の騒音をはじめ、マイクやスピーカなど測定時の不要な特性を一切含ないリバーブを生成することができる。それはつまり、不要な音色変化を生じさせない高品位なサンプリングリバーブを意味している。 VSVerbを用いて音響ハウスを再現する最初のデモンストレーションは、生成したVSVerbの畳み込みに Waves IR-L Convolution Reverbを利用して行われた。音響ハウスで20年以上のレコーディング経験を持つ中内氏はそのサウンドを聴いて、自身が楽器にマイクを立てている時の、まさにその空気感を感じて大変驚いたという。スタジオでの話し声でさえリアルに音場が再現されてしまう感動は、他のエンジニア達からも高く評価され、VSVerbを用いてソフトウェア制作に臨むことが決定。2021年夏に開発がスタートした。 ●4πサンプリングリバーブ / VSVerb VSVerbは所望の空間の反射音場をサンプリングすることで、任意の空間の響きを再現する音場再現技術です。反射音場は全周4πsr方向にてサンプリングされるため、1D, 2D, 3Dのあらゆる再生フォーマットに対して響きの再現が可能です。VSVerbをDAWのプラグインに組み込むことで音響制作時に任意の空間の響きの再現が可能となります。 響きの時間特性を方向別にサンプリングする従来の方向別 IRによるサンプリングリバーブとは異なり、VSVerbは一つ一つの反射音の元となる「仮想音源」の空間分布をサンプリングするサンプリングリバーブです。従来の方向別 IRリバーブでは、サンプリングの際のマイキングで再生可能なチャンネルフォーマットが決定してしまいますが、VSVerbはチャンネルに依存しない空間サンプリング方式のため完全なシーンベースのリバーブとなります。そのため、任意の再生フォーマットに対してリバーブエフェクトが可能です。 VSVerbでは測定した音響インテンシティーの波形から反射音成分だけを抽出することでリバーブを生成しているため、部屋の騒音やマイクやスピーカーなど測定時の不要な特性を一切含まないリバーブです。つまり、素材に対して不要な音色変化を生じさせない高品位なリバーブとなります。 (出典:オンフューチャー株式会社 資料) ACSU2023 Day1 #1 4πへの階段 〜 MILやVSVerb などを通して垣間見るイマーシブ制作のNext Step 〜 https://www.youtube.com/watch?v=yEW4UA0MIwE 📷今春開催されたAvid Creative summit 2023では、株式会社ソナ/オンフューチャー株式会社 中原 雅考氏による「ONKIO Acoustics」のコア技術=VSverbについての技術解説セミナーが催された。音場再現技術についてのロジックをベーシックから解説し、どのように音響ハウスの空間が再現されたのか確認することができる。 スタッフ総出のサンプリング 音響ハウスStudio No.1、No.2の鳴りをサンプリングする作業はスタッフ総出で、B&K(ブリュエル・ケアー)の全指向性スピーカーを床から1.2メートル、マイクをStudio No.1では床から2.7メートル、Studio No.2では2.5メートルの高さに設置して行われた。Senheiser AMBEO VR Micが用いられたが、その4ch出力はAmbisonics方式では処理されず、AMBEO VR Micは音響インテンシティープローブとして使用されたそうだ。 📷スタッフ総出で行われたという、サンプリング作業の様子を見せてくれた。B&K(ブリュエル・ケアー)の全指向性スピーカーとSennheiser AMBEO VR Micを設置する場所や高さは、通常レコーディング時の音源位置と、アンビエンスマイクの位置を想定して決定されたそうだ。 これら4chの音データがオンフューチャーのソフトで解析され、音圧と粒子速度を掛け合わせた音響インテンシティーにより、反射音成分のみが抽出されている。なお、Studio No.1の壁面上部にある反射板は取り外し可能になっているため、サンプリングには反射板の設置パターンがFully(全設置)、Half(半分設置)、None(無し)の3種類が用意された。曲面加工が施され、裏面にパンチカーペットが貼られた木製の反射板1枚1枚が、スタジオの響きをコントロールする重要な役割を果たしている。「Halfという設定は、音響ハウスの響きを熟知している著名なプロデューサーが、ハーフ設定を好んでレコーディングしていることから採用しました」(中内氏)とのことで、その響きがプラグインの中でもしっかりと再現されている。Studio No.2ではメインフロアに加えて、ブース内、ブース外でのサンプリングもおこなわれ、それらの再現もまた音響ハウスを知る多くのミュージシャンから高評価を得ている。 音響ビル社屋をイメージしたGUI 📷株式会社音響ハウス IFE制作技術センター 技術グループ チーフ 志村祐美 氏 プラグインのGUIデザインは映像編集に携わってきた志村氏が担当に抜擢され、コロナ禍のためリモート会議で制作が進められたそうだ。グラフィックソフトの画面を共有して、リアルタイムにデザインする様子を皆で確認しながら試行錯誤したそうだが、志村氏は「このパーツを修正したい理由を、私が理解できるように説明して下さい!というやり取りが何度もありました(笑)」と当時の苦労を語ってくれた。「GUIのグランドデザインは最初、音響ビルそのものをイメージした縦長サイズで、メニューをクリックしてスタジオを選択するというものでした」(田中氏)その構想は製品版GUIの縦長サイズと、背景にうっすらと見える煙(けむり)のテクスチャへと引き継がれていた。「音響ビル外観をイメージした色使いで、下からフワッと上がるけむりのグラデーションが空気感を表現しています。プラグインが縦に長いと場所をとるので、画面を三つ折りにしたいという私の最初の要望も製品に反映されています」(志村氏) 📷音響ビル社屋をイメージしたという、田中氏が描いた最初期のGUIスケッチ。こちらをスタートに志村氏がデザインを施していった。外部のデザイナーではなく、建物自体をも含めたスタジオの空気感をよく知った社内スタッフで丹念に組み上げられていったことがわかる。 Lexiconのリモートコントローラーをイメージしたフェーダー部は、ストロークの長さにもこだわった。「ストロークが長い方が使いやすいだけでなく、音に関係なかったとしてもパッと見た瞬間のカッコ良い / 悪いが判断基準でした。見えないものを創るという性質上、見えるもので盛り上がりたいという気持ちを大切にしています」(中内氏)そういったスタッフの想いを具現化していく作業は、まるで音楽を生み出すようでスタジオワークにも近かったのではないだろうか?パラメーターを少なくして簡単に音作りできるようにしたい、という開発時からのコンセプトとともに、スタッフそれぞれの哲学が込められたGUIには一切の妥協がなかった。 空気を録音することがコンセプト 📷株式会社音響ハウス スタジオ事業部門 技術部 音楽グループ チーフ レコーディングエンジニア 中内茂治 氏 「ONKIO Acousticsは音響ハウスのスタジオを再現するルームリバーブなので、オフマイクを作るのに向いています。例えばレコーディング編成の都合上、ブース内でオンマイク収録した際には、オフマイク音をONKIO Acousticsで再現してオンマイクとブレンドしたりします」(中内氏)さらにその後段でリバーブ処理することにより、豊かな奥行き感を表現するという手法もあるそうだ。また、シンセサイザー音源から出力されるダイレクトなサウンドはアタック成分が強く、特にサンプリング音源の硬さがイコライザーで取れない場合には、ONKIO Acousticsを使用するだけで一発で解決するケースも多いのだとか。「極論を言えば、リバーブ音を構成する LOW / MID / HIGH 3つのバンドレベルのうち、HIGHを下げるだけでほぼ音が馴染んでしまいます。アタックのコントロールと空気感を含めた前後のコントロールが抜群で、コンサートホールに例えると三点吊りマイクで収録したような空気感も得られます。どんなEQよりも簡単迅速に、オケに馴染む音作りを実現してくれますよ。昨今はヘッドホンやイヤホンだけで音楽制作をしているDTMユーザーが増えていますが、そのような環境であればこそ、ONKIO Acousticsの空気感が際立ってくると思います。アレンジや音作りの手がかりとしてもぜひ活用して欲しいです」(中内氏) 📷音響ハウスStudio No.1の反射板は簡単に取り外しが可能とのこと。反射板の場所や数を調整して響きを自在にコントロールできる、そんな稀有な機能を備えたスタジオだ。ONKIO Acousticsプラグイン内でもReflectors:Fully(フル設置)、Reflectors:Half(半分設置)、Reflectors:None(なし)の3種類を選択することができ、Studio No.1の機能をもリアルに再現することができている。 「ONKIO Acousticsはエフェクトカテゴリーとしてはリバーブに相当しますが、空気を通す、つまり空気を録音することがコンセプトにあるので、一般的なリバーブプラグインとは異なります」(田中氏)度々登場するこの "空気" というキーワード。そのなかでも特に、空気を録音するというコンセプトは、音の正体が空気の疎密波であるということを再認識させてくれるのではないだろうか。ONKIO Acousticsは他のプラグインと同様に、パソコン内で音楽制作するツールということに変わりはないが、DAWに空気感を吹き込む、その音の佇まいが最大の魅力ということである。 「次世代の若者に音響ハウスのサウンドを体験して欲しいという思いが一番にあります。プロの方達は実際に音響ハウスに来ることができますが、そうではない方達にレコーディングスタジオの空気感を知って欲しいですね。このプラグインが、自宅だけではできない音作りがあるということに気付くきっかけとなって、数年後にユーザーがエンジニアやアーティストになって音響ハウスを使ってくれれば良いなと。そこで、次世代に伝えたいという意味でも、大変リーズナブルな価格設定で提供しています」(田中氏)驚くのはその価格の低さだけではない。たった29.8MBというプラグインのデータサイズは、サンプリング・リバーブというカテゴリーにおいては驚異的な小容量である。ソフトウェアのデータサイズから見ても、ONKIO Acousticsが通常のリバーブとは根本的に異なることがお分かりいただけるだろう。 空間処理における最強コンビへの構想も!? 📷空気の振動にこだわったONKIO Acousticsとは対照的に、鉄板の振動が温かい響きを生み出すプレートリバーブEMT-140。マシンルームに所狭しと並ぶEMT-140たちをプラグインで再現して欲しい!という声が寄せられているそうだ。 ONKIO Acousticsはバージョン1.2.0で、音響ハウスのOBを含む5名の著名エンジニアによるプリセットが追加された。それらのプリセットはDAW初心者が空気を通した音作りを学べるだけでなく、サウンドプロフェショナルにも新たなアイディアをもたらしてくれるだろう。「ユーザーからGUIに関するリクエストがあれば、ぜひお聞きしたいです」(志村氏)とのことで、今後のバージョンアップにも期待が持てそうだ。また、VSVerbテクノロジーは反射音場を全周4πステラジアン方向でサンプリングする方式のため、1D、2D、3D のあらゆる再生フォーマットに対応できるのも大きな特長である。サラウンドミックスの需要が高まっているなかで、将来的にONKIO Acousticsがサラウンド対応することにも期待したい。 また、ONKIO Acousticsの発売をうけて、音響ハウスが所有している5台のプレート・リバーブ EMT140をぜひプラグインで再現して欲しい!という声も寄せられているようで、「ONKIO PLATE」としてその構想も浮かんできているようだ。「EMT140はアンプがトランジスタのほか真空管モデルもあり、みな個体差があって音が違うので、正常に動いている今のうちに記録して皆で使えるようにしたいですね。サウンド・エンジニアリングの勉強にもなりますよ」(田中氏)とのことで、このONKIO PLATEをONKIO Acousticsと併用すれば、CITY-POPを代表する空間処理の最強コンビになることは間違いないだろう。音響ハウスの新たなるソフトウェア展開が、DAWユーザーとレコーディングスタジオとの関係に新しい空気を吹き込み、次世代に向けて歩み始めている。 *ProceedMagazine2023号より転載
📷今回お話をお伺いしたTOHOスタジオ株式会社ポスト・プロダクション部の皆様。実際にAvid S6での実作業を行われた方にお集まりいただきお話をお伺いした。左上:両角 佳代子氏、右上:早川 文人氏、左下:下總 裕氏、右下:岩城 弘和氏 2022年9月にAvid S6をダビングステージに導入した東宝スタジオ。リニューアルされてから本記事執筆までの7ヶ月で16本の作品のダビングを行ったという。本誌前号ではそのシステムのご紹介を行ったが、実際にダビングの現場におけるAvid S6の使用感や、ワークフローにどのような変化が起こったかなど、現場目線から見えてくるAvid S6導入の効果を伺った。 システムに配されたPro Tools 7台 まずは、NEVE DFCコンソールからAvid S6へと更新されたことによるワークフローの変化からご紹介していきたい。前号でも触れているが、Avid S6へと更新を行うことで、NEVE DFCが担っていたミキシングコンソールとしてのミキシングエンジンは無くなった。それを代替するためにミキサー専用のPro Toolsを2台導入し、その機能を受け持たせるというシステム設計を行っている。プレイアウトのPro Toolsが4台。ミキサーエンジンとしてのPro Toolsが2台、ダバー / レコーダーとしてのPro Toolsが1台という7台構成でのシステムとなっている。 システムとして見れば煩雑になったとも感じられる部分ではあるが、もともとPro Toolsのオペレートに習熟した技師の方が多いということ、またMA室にAvid S6、そしてシグナルルーティングのコアとして稼働しているAvid MTRXが導入済みであったこともあり、現場スタッフの皆さんもそれほど大きな混乱もなくこのシステムを受け入れることができたということだ。外部からの技師の方々も国内の他のダビングステージでAvid S6での作業を経験したことのある方が多かったということでシステムの移行は想定よりもスムーズだったという。 📷スタジオのシステムを簡易に図としたものとなる。非常に多くの音声チャンネルを取り扱うことができるシステムであるが、その接続は想像よりもシンプルに仕上がっているということが見て取れる。各MTRX間のMADI回線は、すべてパッチベイを経由しているため、接続を変更してシステムの構成を簡単に変更することができる。図中にすべてを記載できたわけではないのだが、各MTRXはMADI及びAESがユーティリティー接続用としてパッチ盤へと出力されている回線を持っている。そのため持ち込み機器への対応などもMTRXのパッチを駆使することで柔軟に行うことができるように設計されている。 このシステムを見た方は、なぜ、ミキサーPTが必要なのか?という疑問を持たれるかもしれない。シンプルにステムをダバーで収録するだけであればプレイアウト用のPro Tools内部でステムミックスを行えば良い。しかし、コンソールありきでミキシングを行ってきた経験のある方からすれば、ステムミックスを行うのはあくまでもコンソールであり、プレイアウト用のPro Toolsは音声編集、再生を担当するという考え方が根強い。仕込みが終わり、ダビングステージで他の音源とともにバランスを取る際に、改めてまっさらなフェーダー(0dB位置)でのミックスを行いたいということである。実際にミキシングを行うという目線で考えれば頷けるのではないだろうか。 もちろん実際の作業で、Pro Toolsに慣れ親しんだ方はミキサー用Pro Toolsを使用しないというケースもあったとのこと。ダイアログ、音楽はダイレクトに、効果はミキサーを通してなどというハイブリッドなケースもあり、どのような要望にも応えられる柔軟性を持ったシステムに仕上がっていることが実際の作業でも実証されている。もちろん、東宝スタジオのもう一つのダビングステージにはNEVE DFCがあるので、究極的にはNEVE DFCとAvid S6の選択もお客様のニーズに合わせて行える環境が整っている。 コンソール依存ではないオートメーション管理 実際にAvid S6での作業を行ってみて感じたメリットとしては、オートメーションデータの在り処が挙げられる。このオートメーションデータが、すべてPro Toolsのデータとして存在することによるメリットが非常に大きいということをお話いただいた。 これまで、リテイク(修正作業)や完パケ後のM&Eステム制作作業などを、ダビングステージを使わずに行うことができるようになったということを挙げていただいた。もちろん、リテイク後の確認はダビングで行う必要があるが、Pro Tooleにすべてのオートメーションデータがあるので、Pro Tools単品でのミックスが可能になった。これは、NEVE DFCを使ってミックスを行っていた際には行うことができない作業である。ミキサー用Pro Toolsを使っていたとしても、そのミキシング・オートメーションデータはPro Toolsのセッションファイルとして管理される。そのため、他のPro Toolsへとセッションインポートを行うことでミキシングの状況の再現が可能となる。一方、NEVE DFCでは当たり前だがNEVE DFC内にオートメーションデータがあり、その再現にはNEVE DFCが必須となるからだ。 このメリットは、特に後作業で発生する各種ステムデータの書き出しなどをダビングステージを使用しなくても行えるということにつながる。これにより、今後ダビングステージ自体の稼働も上げることができるのではないか?とのお話をいただくことができた。 システム更新によるメリットは、このような派生作業にまでも影響を与えている。Avid S6はそれ自体がミキシングエンジンを持たないため、コンソールではなくコントローラーだ、などと揶揄されることもあるが、コントローラーだからこそのメリットというものも確実にあるということを改めて確認することができた。 オフラインバウンスを活用する これは、極端な例なのかもしれないが、オフラインバウンスでのステムデータの書き出しも実現している。ミキサーPro Toolsをバイパスするシステムアップであれば、オフラインバウンスで書き出したデータをダバーに貼り込むというワークフローも現実のものとして成立する。これによる作業時間の短縮などのメリットももちろんある。決まったステムからオフラインバウンスでダバーに渡していくことで、バス数の制限から開放されるといったワークフローも今後視野に入ってくるのではないだろうか。現状ではダバーへ最大128chの回線が確保されている。今後の多チャンネル化などの流れの中ではこのような柔軟な発想での運用も現実のものとなってくるのかもしれない。 このお話を伺っていた際に印象的だったのが、オフラインバウンスで作業をするとどうもダビングをしているという感覚が希薄になってしまうというコメントだ。確かに、というところではあるが、ついにダビングにもオフラインの時代がやってくるのだろうか、省力化・効率化という現代の流れの中で「オフラインバウンスでのダビング」というのものが視野に入ってくることを考えると、筆者も少し寂しい気持ちになってしまうのは嘘ではない。 システムがAvid Pro ToolsとAvid MTRXで完結しているために、作業の事前準備の時間は明らかに短くなっているとのことだ。具体的には、別の場所で仕込んできたPro ToolsセッションのアウトプットをNEVE DFCのバスに合わせて変更するという手間がなくなったのが大きいとのこと。Avid S6であれば、途中にAvid MTRXが存在するので、そこでなんとでも調整できる。事前に出力をするバス数を打ち合わせておけば、Pro Tools側での煩雑なアウトプットマッピングの変更を行うことなくダビング作業に入ることができる。ダビング作業に慣れていない方が来た場合でも、すぐに作業に入ることができるシンプルさがある。準備作業の時間短縮、完パケ後作業を別場所で、などとワークフローにおいても様々なメリットを得ることができている。 Avid S6ならではの使いこなし 📷前号でもご紹介したTOHOスタジオ ダビング2。Avid S6を中心としたシステムが構築されている。コンソールの周りには、プレイアウトのPro Toolsを操作するための端末が配置されている。マシンルームはMacPro 2019とAvid MTRXの構成に統一され、同一性を持ったシステムがずらりと並ぶ。メンテナンス性も考えてできる限り差異をなくした構成を取っているのがわかる。 東宝スタジオでは、国内最大規模となるAvid S6 / 72Fader Dual Head仕様を導入したが、物理的なフェーダー数は充分だろうか?これまでのNEVE DFCではレイヤー切り替えにより操作するフェーダーを切り替えていたが、Avid S6ではレイアウト機能など様々な機能が搭載されている。これらをどのように使いこなしているのだろうか?実際のオペレーションに関してのお話も伺ってみた。 物理フェーダー数に関しては、充分な数が用意されていると感じているそうだ。Pro Toolsのここ最近の新機能であるフォルダートラックと、Avid S6のフェーダースピル機能を活用する方が多いという。フェーダースピル機能とは、フォルダートラックにまとめられた個別のフェーダーをフォルダートラック・フェーダーの右、もしくは左に展開することができる機能である。バスマスターでもあるフォルダートラックのフェーダーを手元に並べ、フェーダースピル機能を使って個別のトラックのバランスの微調整を行う。まさにAvid S6ならではの使いこなしを早速活用していただいている。 オペレートに関して、NEVE DFCからの移行で一番多く質問されるのがオートメーションの各モードの動作。やはりメーカーが異なるということもあり、オートメーションモードの名称に差異がある。具体的には「Latchってどんな動作するんだっけ?」というような質問である。これは、回数を重ねてAvid S6を使っていけば解決する問題ではあるが、NEVE DFCと2種類の異なるコンソールを運用する東宝スタジオならではの悩みとも言えるだろう。また、コンソールとしてのEQ、COMPの操作という部分に関しては、Pro Tools上のプラグインを活用するシステムとなるため、自ずとノブではなくマウスに手が伸びるとのこと。正面を向いてしっかりと音を聴いて作業できる環境、ということを考えるとコンソール上のノブでの操作が有利だが、やはりプラグインの画面が表示されると慣れ親しんだマウスとキーボードで操作することの方が今のところは自然ということだろう。 唯一無二から正確な再現性へ そして、いちばん気にかかる部分かもしれない音質に関して、Avid S6の導入に合わせて更新されたAvid MTRXと、NEVE DFCとの差異についてお話を聞いてみたところ、やはり、音質に関して違いがあることは確かだ、とのコメントをいただいている。確かにメーカーも異なるし、機器としても違うものなので同列に語ることは難しいかもしれないが、味のあるNEVEに対して、クリアで忠実な再現性を持ったAvid MTRXといったニュアンスを感じているとのこと。NEVEはどこまで行ってもNEVEであり、やはり唯一無二のキャラクターを持っているということに改めて気付かされているということだ。一方、Avid MTRXについては、忠実性、レスポンスなどNEVEでは感じられなかったサウンドを聴くことができるとのこと。 Avid MTRXの持つ正確な再現性は、効果音のタイミングに対して今まで以上にシビアになったりと、これまで気にならなかったところが気になる、という事象となって出現してきているということ。これはさらに作品を磨き上げることとができる音質を手に入れたということでもあり、非常にやりがいを感じる部分でもあるとのことだ。既にMA室でも導入の実績のあるAvid MTRXだが、ダビングステージの音響環境ではさらにその傾向を顕著に聴き取ることができる。これにより、今後の作品の仕上がりがどのように変化するのか楽しみな部分でもある。 音質に関しては、今後マスタークロックや電源などにもこだわっていきたいとのコメントをいただいている。これは、Avid S6が非常に安定して稼働しているということの裏返しでもある。システムのセットアップに必要な時間も短縮され、システム自体の安定度も高い。そういったことから、さらに高い水準での探求を考える余地が見えてきているということとだろう。安定稼働させることで精一杯であれば、音質云々以前にシステムを動作させることで疲弊してしまうというのは想像に難くない。このようなコメントをいただけるということは、システムとしての安定度に関しても高い水準で運用いただいているということが伺い知れる。 こうなってくると、あまり話題に上ることも多くなかったPro Toolsのミキサーエンジンの持つHEATなども活用してみては面白いのではないか?と考えてしまう。テレビのように厳密なレベル管理は行われていない映画。(これは悪い意味で管理されていないということではなく、芸術作品であるがゆえに管理を行っていないということである。)パラメーターによりレベル差が生じるHEATはテレビ向けのポストプロダクションでは使い勝手に難がある機能であったが、映画であれば多少のレベルの変動は許容できるはずである。お話をまとめていてふと、こんな想像もよぎっていった。 ●ROCK ON PRO 導入事例 TOHOスタジオ株式会社 ポストプロダクションセンター2 様 / アジア最大規模のS6を擁したダビングステージ https://pro.miroc.co.jp/works/toho-proceed2022-23/ システムの更新を行いNEVEが懐かしいというお客様も確かにいるが、新しいシステムで安定度高く作業を行うことができるメリットは大きく、好評をいただいているということだ。もう一つのダビングステージには、NEVE DFCがあるということもあり、お客様には幅広い選択肢でのワークフローを提案できる環境が整備されている。これはスタジオにとって大きなメリットであり、今後も継続していきたい部分でもあるということ。 とはいえ、Avid S6によるワークフローの改善、省力化、安定度に対する魅力も大きく、NEVE DFCとAvid S6のHybridコンソールシステムは組めないのか?などという質問も出てきている。ハリウッドでは、このようなシステムアップも現実のものとして稼働している。東宝スタジオのどのように使いたいのかというワークフローを色々と相談をしながら、今後のベストなシステムアップのお手伝いを行えればと考えている。今後の日本映画のポストプロダクションシステムを占うファシリティー。Avid S6へ移行することで獲得した多くのメリットをどのようにこれからのシステムアップに活かしていけるのか?これが今後のテーマになっていくのではないだろうか。 *ProceedMagazine2023号より転載
Dante、MADI、アナログ、AES/EBU…どんな入出力のコンソールにも接続可能で、最大128ch(64chステレオ)のトラックに大量のWavesプラグインをニアゼロ・レイテンシーで走らせることができる、ライブサウンドとブロードキャスト・コンソールのための最先端のプラグイン・エフェクト・ラック。それが「SuperRack SoundGrid」です。 プロセッシングをおこなう専用サーバー本体は2Uのハーフラック・サイズ。1Uまたは2Uハーフラックの専用Windows PCはマルチタッチ・ディスプレイに対応しており、プラグインのパラメータをすばやく直感的に操作することが可能です。 システム内の伝送はWavesが開発したレイヤー2のAoIP規格であるSoundGrid。汎用のネットワークハブを介してLANケーブルのみでシステム全体を接続します。 スタジオ・ミキシングやレコーディングはもちろん、省スペースなシステムでパワフルなデジタルエフェクト処理、冗長性、ニアゼロ・レイテンシーを実現するSuperRack SoundGridは、限られた機材で最高の結果を求められるライブサウンドや中継の現場などにはまさにうってつけのソリューションと言えるでしょう。 ◎主な特徴 0.8msのネットワーク・レイテンシー 最大4台のアクティブDSPサーバーをサポートし、プラグインの処理能力をさらに向上 最大4台のリダンダントDSPサーバーをサポートし、冗長性を確保 複数のプラグインを同時に表示・プラグインの表示サイズの変更 マルチタッチ対応のグラフィック・インターフェイス ワークスペースを最大4台のタッチディスプレイに表示 SoundGrid I/Oをネットワーク上でシェアすることで、大規模なシステムにも対応 Waves mRecallアプリ:保存したスナップショットを、Wi-fi経由でスマートフォン、タブレットから呼び出し可能 個別デモのご用命はROCK ON PRO営業担当、または、contactバナーからお気軽にお申し込みください。 番組や収録のマルチトラック音源をお持ち込みいただければ、Waves SuperRackシステムを使ったミックスを体験頂けます。 ◎システム構成例1 図はSuperRack SoundGridを使用したシステムの基本的な構成。例としてMADI I/Oを持ったコンソールを記載しているが、アナログやAES/EBUなどの入出力を持ったコンソールにも対応可能だ。 中列にあるMADI-SoundGridインターフェイスを介して信号をSoundGridに変換、左上の専用PCでプラグインをコントロールし、左下の専用サーバーで実際のプロセスをおこなう。 アナログコンソールやデジタルコンソールと使用したい場合は、中列のSoundGridインターフェイスを、IOCなどのアナログ・AES/EBU入出力を備えたモデルに変更すればよい。 ◎システム構成例2 YAMAHA、DiGiCo、Avid Venueなど、オプションカードとしてSoundGridインターフェイスが存在しているコンソールであれば、コンソールから直接ネットワーク・ハブに接続することでシステムをよりシンプルにすることも可能だ。 SuperRackシステムの構成と選択肢 図は前述「システム構成例」からコンソールを省いたSuperRackシステム部分の概念図。ユーザーの選択肢としては、大きく3ヶ所ということになる。 左下のオーディオ入出力部については、SuperRackを接続したいコンソールの仕様によって自ずと決まってくる。SoundGridオプションカードをラインナップしているモデルであれば該当のオプションカード、そうでなければ対応するI/Oを持ったDiGiGridデバイスといった感じだ。 DiGiGrid IOCやCalrec Hydra2のように複数の種類のI/Oを持ったインターフェイスを使用すれば、デジタルコンソールとアナログコンソールで同時にSuperRack SoundGridを使用するといった構成も可能になる。 左上のWindows PCは基本的にプラグインを操作するUI部分のため、求めるマシンパワーに応じて、1UハーフラックのAxis Scopeか2UハーフラックのAxis Protonから選択すればよい。 同時に使用したいWavesプラグインやタッチディスプレイの数、レコーディング用のDAWホストを兼ねるか否かなどが選定の基準になるのではないだろうか。 右上のSoundGrid DSP Serverが、実際にWavesプラグインのプロセッシングをおこなう部分となる。複数の選択肢があるが、ここも同時プロセスの量やリダンダントの有無によって決まってくる部分だろう。 その他、KVMやLANケーブルが別途必要になる。特にケーブルはCat6対応のものが必要である点には留意されたい。 参考価格と比較表 *表はCalrec用の構成例、コンソールに応じてI/Oを選択 **プラグインライセンスは別途購入が必要 渋谷Lush Hubにて個別デモンストレーション受付中! ROCK ON PROでは、このSuperRackシステムの個別デモンストレーションを渋谷区神南のイベントスペースLUSH HUBで予約制にて受付中です。 LUSH HUBについての詳細はこちら>> 番組や収録のマルチトラック音源をお持ち込みいただければ、Waves SuperRackシステムを使ったミックスを体験頂けます。 デモご予約のご希望は、弊社営業担当、またはcontactバナーからお気軽にお問い合わせください。
ソニーが提供するイマーシブの世界がさらに広がろうとしている。360 Reality Audioでの作品リリースはもちろんのことだが、今度は制作側において大きなインパクトがあるサービスとなる「360 Virtual Mixing Environment(360VME)」が発表された。これは、立体音響スタジオの音場を、独自の測定技術によりヘッドホンで正確に再現する技術。つまり、立体音響制作に最適な環境をヘッドホンと360VMEソフトウェアでどこへでも持ち運ぶことが可能となるわけだ。ここではその詳細を見ていこう。 2023.7.13 追記 ・7/13(水)より一般受付開始、8月よりMIL Studioでの測定サービスを開始いたします。 詳細は下記URLよりご確認ください。 https://www.minet.jp/contents/info/360-vme-measurement/ 📷右に並ぶのが世界で3拠点となる360VMEサービスを提供するスタジオ。上よりアメリカ本土以外では唯一となるMedia Integrationの運営する東京のMIL Studio、本誌でもレポートを掲載しているLAのGOLD-DIGGERS、そしてニューヨークのThe Hit Factory。すべてのスタジオが360 Reality AudioとDolby Atmosの両方に対応したスタジオである。これらのスタジオはソニーが360VMEサービスの測定にふさわしい音響を備えたスタジオとして認定した世界でも有数のファシリティーである。こちらで個人ごとに測定を行って得られたプロファイルをもとに、その音場をヘッドホンで再現させるのが360 Vitual Mixing Environmentだ。 ●360 Virtual Mixing Environment ソニーHP ●ソニー / MDR-MV1 / 価格 ¥59,400(税込) 「これはヘッドホンじゃない、スタジオだ。」イマーシブ世代に向けたソニーのStudio Refarence Headphone、MDR-MV1。このキャッチコピーに込められた「スタジオだ」という言葉には360VMEサービスも含まれているのだろうと考えさせられる。スタジオの音響空間を360VMEにより、ヘッドホンに閉じ込めて持ち帰る、そのために高い空間再現能力を与えられたヘッドホンである。360VME無しでも充分に素晴らしい特性を持った製品だが、360VMEと組み合わせることでさらなる真価を発揮するモデルと言えるだろう。 ●MDR-MV1 ソニーHP 世界初のプライベートHRTF測定サービス ついに待望のサービス開始がアナウンスされたSONY 360 VMEサービス。VMEとは「Virtual Mixing Environment」(仮想ミキシング環境)のこと。世界初となるプライベートHRTFを含むプロファイルデータを商用的に測定するサービスだ。SONY R&Dで開発され、ハリウッドのSONY Picturesで試験運用が行われていたテクノロジーで、映画の仕上げを行うダビングステージという特殊なミキシング環境を、ヘッドホンで仮想的に再現してプリミックスの助けとしようということで運用が行われていた。 広い空間でのミキシングを行うダビングステージ。そのファシリティーの運用には当たり前のことだが限界がある。ファシリティーの運用の限界を超えるための仮想化技術として、この空間音響の再現技術が活用され始めたのは2019年のこと。テスト運用を開始してすぐにコロナ禍となったが、SONY Picturesにとってはこの技術が大きな助けとなった。まさに求められる技術が、求められるタイミングで現れたわけだ。 サービス利用の流れ 国内での利用を想定して、東京・MIL Studioでの測定を例にサービス利用の流れを紹介するが、執筆時点(2023年5月下旬)では暫定となる部分もあるため実際のサービス開始時に変更の可能性があることはご容赦いただきたい。まず、利用を希望される方はWebほかで用意されたページより360VMEサービスを申し込む。この段階では測定を行うヘッドホンの個数、必要なスピーカープロファイル数をヒアリングし、いくつのプロファイルを測定する必要があるのか確認、測定費用の見積と測定日の日程調整を行う。実際のMIL Studioでの測定ではヘッドホンの測定も行いその個体差までもを含めたプロファイルを作成するため、使用されるヘッドホンの持ち込みは必須となる。 MIL Studioではそれぞれのプロファイルに合わせて測定を行った後に、そのプロファイルが正しく想定されているかを実際の音源などを使って確認、納得いくプロファイルが測定できているかを確認していただき、360VMEアプリとともにプロファイルデータをお渡しすることとなる。これらを自身の環境へインストールし、利用開始というのが大まかな流れだ。 360VMEのバックボーンとなる技術 ソニーは以前よりバーチャルサラウンドの技術に対して積極的に取り組んできた。民生の製品ではあるが、バーチャル・サラウンド・ヘッドホンなどを実際に発売している、これは5.1chサラウンドをヘッドホンで再生するという技術を盛り込んだ製品であった。このようなサラウンド仮想化の技術は、長きにわたりソニー社内で研究されてきた技術があり、その系譜として今回の360VMEサービスも存在している。そして、今回の360VMEサービスはこれまでにリリースしてきたコンシューマ向けレベルの技術ではなく、プロの現場での使用を想定したハイエンド製品としてリリースされた。このようなバーチャルサラウンド技術の精度向上には、実測に基づくプライベートHRTFの測定が必須となる。実際の使用者のHRTFを含んだデータを測定することで精度は驚くほど向上する。一般化されたHRTFとのその差異は圧倒的である。 ●HRTF(Head-Related Transfer Function:頭部伝達関数)とは!? 人が音の方向を認知することが可能なのは、周波数特性の変化、左右の耳への到達時間差などを脳が判断しているからである。耳の形状や体からの反射、表皮に沿った回析など様々な要因により変化する周波数特性、左右の耳へ到達する時間差、反射によるディレイなどを表すインパルス応答特性、このようなパラメータを数値化したものがHRTF(Head-Related Transfer Function:頭部伝達関数)となる。これは個人ごとによって異なるパラメーターで、個人のHRTFを測定したものをプライベートHRTF、それを適用したバイノーラル処理を個人最適化と呼んでいる。 360VMEの技術はプライベートHRTFを測定した部屋を環境ごと測定する。それをヘッドホンのバイノーラル再生として、測定した部屋の音響環境、スピーカーの特性などをそのまま仮想環境として再現する。スピーカーの特性など、測定した部屋の音響環境ごとプロファイル化するため、厳密な意味でのプライベートHRTFではないが、その要素を含んだバイノーラル再現技術ではあると言えるだろう。 正式な意味でのプライベートHRTFは個人の頭部伝達係数であるために、予め特性を確認したスピーカーとマイクによって無響室での測定を行うこととなる。余計な響きのない空間で、単一の方角からの音源から発された音波がどのように変化して鼓膜に届くのかを測定するということになる。360VMEでは測定を行う部屋のスピーカーの個性、部屋の反射などを含めた音響特性、これらが測定したプロファイルに加わることとなる。これまでにも各社より有名スタジオのコントロールルームの音響環境を再現するようなプラグインが登場しているが、これらはプライベートHRTFにあたるデータを持たないため、どうしてもその効果の個人差は大きくなってしまう。360VMEでは、一人ひとり個人のデータを測定するためにプライベートHRTFにあたるデータを持つプロファイルデータの作成が可能となっている。 プライベートHRTFを測定しDAWと連携 それでは、実際の360VMEの測定サービスは、何が行われて何がユーザーへ提供されるのだろうか?まずは測定からご紹介していこう。測定にあたっては、まずは測定者の耳へマイクを装着することとなる。できるだけ鼓膜に近い位置で測定を行うために通称「バネマイク」と呼ばれる特殊な形状のマイクを耳孔に装着する。 マイクを装着し視聴位置に座り、始めにピンクノイズでの音圧の確認が行われる。スピーカーの信号がマイクにどれくらいのボリュームで入力されているのかを確認するということになる。次は測定を行うスピーカーからスイープ音を出力し周波数特性と位相を測定する。更に続けて、リファレンスとするヘッドホンをつけて、ヘッドホンで再生したピンクノイズとスイープを測定する。これにより、ヘッドホンの特性も含めた特性の合わせ込みを行い精度の高い空間再現を行うわけである。 📷こちらに写っているのが、360VME測定用に設計された通称「バネマイク」。このバネのような部分を耳に入れることにより、耳道を塞がずに耳の奥、鼓膜に近い位置での測定を実現している。測定においては、鼓膜にできるだけ近い位置でのデータを取るということが重要なポイント。鼓膜にどのような音が届いているのか?耳の形、耳たぶの形、頭の形など、個人差のある様々な要因により音が変化する様をこのマイクで測定することとなる。360VMEの測定ではスピーカーから出力された音源での測定だけではなく、このマイクを付けたままでヘッドホンの測定も行い精度をさらに高めている。ヘッドホンには個体差があるため、測定に使うヘッドホンは実際に普段から使っているものをお持ちいただくことになる。 測定の作業はここまでとなり、スピーカーからの再生音とヘッドフォンからの再生音、それぞれのデータからプロファイルデータを生成する。ここで生成されたプロファイルデータは、測定サービスを行ったユーザーに提供される360VMEアプリケーションに読み込ませることで、そのデータが利用可能となる。DAWなどの制作ツールと360VMEの接続は、PC内部に用意される仮想オーディオバス360 VME Audio Driverにより接続される。具体的には、DAWのオーディオ出力を360 VME Audio Driverに設定し、360VMEアプリケーションのインプットも360 VME Audio Driverに設定、アウトプットは実際に出力を行いたいオーディオインターフェースを選択するということになる。 このような仕組みにより、DAWから出力されるイマーシブフォーマットのマルチチャンネル出力が、360VMEアプリケーションから測定結果により生成されたプロファイルデータを適用したバイノーラルとして出力される。プライベートHRTFと測定を行ったスタジオのスピーカーや空間、音響特性を含んだ精度の高いバイノーラル環境での作業が可能となるということだ。 このような仕組みのため、測定時のスピーカーセット=制作DAWのアウトプットとする必要がある。そのため、Dolby Atmosの制作向けのスピーカーセットと360 Reality Audio向けのスピーカーセットはそれぞれ別のプロファイルとして測定が必要だ。また、複数のヘッドホンを使い分けたいのであれば、それも別プロファイルとして測定を行う必要がある。ちなみに360VMEの発表と同時にリリースの発表が行われたSONY MDR-MV1ヘッドホンは、360VMEのアプリケーション開発にあたりリファレンスとして使われており、その特性は360VMEアプリケーションのチューニングにも使われているということだ。360VMEサービスの測定を行う際にどのヘッドフォンで測定をしようか迷うようなことがあるのであれば、MDR-MV1を選択するのが一番間違いのない結果が得られることだろう。ただ、他のヘッドホンでも十分な効果を得ることができるので、普段から慣れたヘッドホンがあるのであればそれを使うことは全く問題ない。 ●360 Virtual Mixing Environmentアプリ ※上記画像はベータ版 測定をしたプロファイルデータを読み込ませて実際の処理を行うのがこちらの360 Virtual Mixing Environmentアプリ。画像はベータ版となるため、実際のリリースタイミングでは少し見た目が変わるかもしれないが、プロファイルを読み込ませるだけではなく、各チャンネルのMute / Solo、メーターでの監視などが行えるようになっている。シグナルフロー図からもわかるように、360VME Audio Driverと呼ばれる仮想の内部オーディオバスがこのアプリケーションとともにインストールされ、DAWなどからのマルチスピーカーアウトを360VMEアプリへ接続することとなる。あくまでも仮想的にスピーカー出力をバイノーラル化する技術となるため、スピーカーアウト、レンダリングアウトを360VMEアプリへつなぐということがポイントとなる。具体的には360 WalkMix Creator™️のアウトプット、Dolby Atmos Rendererのアウトプットを接続することとなる。もちろん5.1chやステレオをつなぐことも可能だ。その場合には、その本数分のスピーカーが360VMEの技術によりヘッドホンで再現されることとなる。 📷東京・MIL Studioで測定可能となる代表的なフォーマット。これら以外についても対応可能かどうかは申し込み時にご確認いただきたい。(※Auro 3Dフォーマットの測定には2023年7月現在対応しておりません)また、当初のリリースでは16chが最大のチャンネル数として設定されている。技術的にはさらに多くのチャンネル数を処理することも可能とのことだが、DAW併用時の処理負荷とのバランスが取られている。確かに16chあれば360 WalkMix Creator™️の推奨環境である13chも対応でき、Dolby Atmosであれば9.1.6chまで賄えることになる。43.2chというMIL Studioでの測定となると、さらにチャンネル数を求めてしまいたくなるところだが、一般的なスタジオ環境との互換を考えれば必要十分な内容だと言えるだろう。 日米3拠点で測定サービスを提供 この360VMEサービスにおけるスタジオでの測定は、サービス開始当初は世界で3ヶ所のスタジオでの測定となる。日本では弊社の運営する43.2chのディスクリート再生を実現した完全4π環境を持つMIL Studio。他の2ヶ所のスタジオはアメリカにあり、ロサンゼルスのGOLD-DIGGERSとニューヨークのThe Hit Factoryとなり、新進気鋭のスタジオと老舗スタジオがそれぞれ選ばれた格好だ。音響環境や360VMEという通常のスタジオ運営とは異なるサービスへの賛同を行った3拠点で、この360VMEサービスはまず開始となる。本記事の執筆段階でサービス開始は2023年6月末〜7月上旬、価格はそのプロファイル測定数にもよるが、おおよそ7万円程度からでのスタートを予定しているということだ、本誌が発行されるころにはこれらの情報も正式なものが発表されていることだろう。(※) ※2023.7.13 追記 ・7/13(水)より一般受付開始、8月中旬よりMIL Studioでの測定開始 ・1プロファイル測定:68,000円(税別)+追加の測定 1プロファイルにつき 20,000円(税別) 〜 ・測定可能フォーマット、価格につきましてはこちらのページからご確認ください。https://www.minet.jp/contents/info/360-vme-measurement/ 360VMEサービスがスタートすることで、イマーシブ制作の環境に劇的な変化が訪れるのではないだろうか?ヘッドホンミックスの精度が上がることで、制作環境における制約が減り、作品を作るためのスタートラインがぐっと下がることを期待したい。もちろんスピーカーがある環境をすぐに揃えられるということであればそれが最高のスタートラインではあるが、スピーカーを揃えることに比べたら圧倒的に安価、かつ手軽にMIL Studioの音場、イマーシブのスピーカー環境をヘッドホンに入れて持ち帰ることができる。この画期的なサービスによる制作環境の変化に期待したいところである。 *ProceedMagazine2023号より転載
2017年のリリース以来、プロダクション、ライブサウンド問わず、イマーシブ・オーディオ・プロセッサーとして独自のポジションを確立しているSpat Revolution Ultimateが、WFS(波面合成)による仮想の音源配置に対応しました。WFSは従来のパンニング方式に比べて、特に大きな会場で、より多くのオーディエンスに優れた定位感を提供できると言われています。この記事では、WFSの基本的な考え方をおさらいした上でそのメリットを確認し、またアルゼンチンで行われた大規模フェスティバルでの導入事例も紹介していきます。 FLUX:: / IRCAM Spat Revolution Spat Revolution Ultimate ¥297,000(税込) WFS Add-on option for Spat Revolution Ultimate ¥74,800(税込) 音楽制作やポストプロダクションでは各種DAWと連動させてDolby Atomsなどあらゆるフォーマットに対応したイマーシブ作品の制作に、ライブサウンドではデジタル・コンソールからリモート・コントロール、ライブ会場を取り囲むように配置されたPAスピーカーへの出力をリアルタイムで生成するプロセッサーとして、さまざまなアプリケーションに対応する最も多機能で柔軟性の高い、ソフトウェア・ベースのイマーシブ・オーディオ・プロセッサー。 WFS(波面合成)とは? WFS(Wave Field Synthesis)は、直線上に並べたラウドスピーカーのアレイを用いた音響再生技術で、従来の技術(ステレオ、5.1chサラウンドなど)の限界を取り払う可能性がある技術です。サラウンド・システムは、ステレオの原理に基づいており、一般的に「スイートスポット」と呼ばれる複数のスピーカーに囲まれた中心部の非常に小さなエリアでのみ音響的な錯覚を起こさせ、音がどの方向からやってくるのかを感じさせます。一方、WFSは、リスニングエリアの広い範囲にわたって、与えられたソースの真の物理的特性を再現することを目的としています。この原理は「媒質(=空気)を伝わる音波の伝搬は、波面に沿って配置されたすべての二次的音源を加えることで定式化できる」というもので、Huyghensの原理(1678年)に基づいています。 WFSを実現するためには、あるサウンドのシーンにおいて音源をオブジェクトとして捉え、そのオブジェクトの数量分の位置情報を把握できていることが前提となります。例えば、動画・音声データにおける圧縮方式の標準規格のひとつであるMPEG-4では、WFS再生と互換性のあるオブジェクトベースのサウンドシーン記述が可能になっています。 現実には、図版で見られるように音源が発する波面と同じようにスピーカーを配置することはあまりにも現実的ではありません。そこで、直線上にラウドスピーカーを配置し、各スピーカーから出力される音量とタイミングをコントロールすることで、仮想に配置された音源からの波面を人工的に生成します。 このように音源をスピーカーの向こう側に”配置”することによって、その部屋や会場にいるリスナーは、音源の位置から音が放出されていると認識します。一人のリスナーが部屋の中を歩き回ったとしても、音源は常にそこにいるように感じられるのです。 📷 「媒質(=空気)を伝わる音波の伝搬は、波面に沿って配置されたすべての二次的音源を加えることで定式化できる」という物理的特性をそのままに、波面に沿って二次的音源を配置した際のレイアウトが左図となりますが、このように音源が発する波面と同じようにスピーカーを配置することはあまりにも現実的ではありません。そこで、右図のように直線上に配置したスピーカーから出力される音量とタイミングをコントロールすることで、複数の音源の波面を同時に合成していくのが「WFS(波面合成)」となります。 なぜライブサウンドでWFSが有効なのか? 📷 Alcons Audio LR7による5本のリニアアレイと設置準備の様子 d&b Soundscapeなどラウドスピーカーのメーカーが提供する立体音響プロセッサーにもWFSの方式をベースとしているものが数多くあります。 これまでのサラウンドコンテンツ制作はチャンネルベースで行われ、規定に基づいたスピーカー配置(5.1や7.1など)で、音響的にも調整されたスタジオで素晴らしいサウンドの制作が行われます。しかし、この作品を別の部屋や同じように定義されたラウドスピーカーがない環境で再生すると、チャンネルベースのソリューションは根本的な問題に直面することになります。音色の完全性が失われ、作品全体のリミックスが必要となるわけです。ツアーカンパニーやライブイベントで、チャンネルベースの5.1や7.1のコンテンツを多くのオーディエンスに均等に届けるのは非常に難しいことだと言えるでしょう。 従来のサラウンドとWFSの違いにも記載しましたが、チャンネルベースまたは従来のステレオパンニングから派生したパンニング方式では、複数のスピーカーに囲まれた中心の狭いエリアでのみ、制作者が意図した定位感を感じることができます。例えば、ライブ会場に5.1chの規定通りにラウドスピーカーを配置できたとしても、Ls chのすぐ近くのリスナーにとっては非常に音量感にばらつきのあるサウンドシーンとしてしか認知できません。 WFSを用いた会場の「より多くのオーディエンスに優れた定位感を提供する」というメリット以外に、WFSでは必ずしも会場を円周上に取り囲んでスピーカーを配置する必要が無いという大きなメリットもあります。常に会場の形状、そしてコストの制約を考慮しなければならないライブ会場でのイマーシブ音響のシステムとしては非常に有利な方式と言えます。 📷 イースペック株式会社主催の機材展2022において、国内では初のSpat RevolutionのWFS Optionを使った本格的なデモでの一コマ。サンパール荒川大ホールに常設されている照明用バトンに、小型のラインアレイAlconsAudio LR7を5組均等間隔に吊り、あたかもステージ上に演奏者がいるかのような音場を実現していた。 Spat Revolutionで行うWFS再生 📷 Spat Revolutionでオーケストラの編成をWFSアレイの向こう側に仮想配置。 コンパクトで軽量なラインアレイであれば、照明用のバトンへ直線上に5アレイを吊ることも可能かもしれません。Spat RevolutionでWFS再生を行うためには最小で5本以上の同じ特性を持ったラウドスピーカーを均等間隔で配置する必要があります。スピーカーの数が増え、スピーカーとスピーカーの間隔が小さくなればなるほど、定位感の再現性が高まります。 Spat Revolutionでは配置するスピーカーの周波数特性や放射特性を定義する項目がありません。だからこそポイントソースであってもラインアレイであってもスピーカーに制約が無いという大きなメリットがあるのですが、そのスピーカーの放射角度によって最適な配置も変わってきますし、聴こえ方にも影響します。指向角度を考慮してSpat Revolution内で設定を行い、実際に設置を行った後に微調整が可能な6つのパラメーターが備わっているので、最後のチューニングは音を聴きながら行うのが現実的でしょう。 そのひとつとなるGain Scalingというパラメーターでは、すべてのソースに対して計算されたゲインをスケーリングすることができます。これは例えばフロントフィルなどリスナーに近いWFS直線アレイ配置の場合に有効で、この割合を減らすとラウドスピーカー・ラインの近くに座っている観客のために、1オブジェクトのソースをアレイ全体から、より多くのラウドスピーカーを使って鳴らすことができます。 Spat Revolutionで構成できるWFSアレイは1本だけではありません。会場を取り囲むように4方向に配置すれば、オブジェクトの可動範囲が前後左右の全方位に広がります。またWFSアレイを上下に並行に増やしていくことも可能で、縦方向の定位表現を加えることも可能です。このように映像や演目と音がシンクロナイズするような、かなり大規模なサウンドシステムのデザインにも対応できることがわかります。 📷 会場を取り囲む4つのWFSアレイ。 VendimiaでのSPAT WFS Option 📷 Vendimia 2022 – Mendoza Argentina アルゼンチンのメンドーサで開催される収穫祭「Vendimia」は、ブドウ栽培の業界おいて世界で最も重要なイベントのひとつです。2022年はパンデミック後で初の開催とあって、音楽やエンターテインメントにも大きな期待が寄せられていました。 Vendimiaフェスティバルのサウンドシステム設計を担当し、地元アルゼンチンでシステム・インテグレーションとサウンドシステムのレンタル会社Wanzo Produccionesを経営するSebastian Wanzo氏に今回の会場でのシステム設計について伺うことができました。 Wanzo Producciones / Sebastian Wanzo 氏 Wanzo Producciones 「今年のフェスティバルのサウンドデザイナーとして、様々なステージでのオーディオビジュアル効果をサポートし、臨場感を提供するためにイマーシブ・オーディオプロセッシング・システムの導入を提案しました。」とSebastian Wanzo氏は語ります。 この会場でイマーシブ・オーディオ・プロセッシングを実際に行なっていたのが、リリースされたばかりのWFSアドオン・オプションを備えたSPAT Revolution Ultimateです。Vasco HegoburuとWanzo Productionsが提供する4台のAvid Venue S6LコンソールとMerino Productionsが提供するClair Brothersのシステムに介在し、Vendimiaフェスティバル全体のイマーシブ・システムの核となり、プロセシングを行なっていました。 「横幅が80mを超えるステージで、フロントフィルより前にはスピーカーを配置することができないため、Clair Brothersのスピーカーで6.1chのシステムを定義し、設置しました。」 システムのルーティングとコンフィギュレーションはハイブリッド的なセットアップで、1台のS6Lはオーケストラ専用でステレオミックス用、もう1台のS6Lは全てのエフェクトとエフェクトのオートメーション、そして全てのサウンドタワーにイマーシブのフィードを供給していました。3台目のS6Lはオーケストラのモニター卓として、4台目のS6Lは配信用のミックスに使われました。 「2019年にISSP (Immersive Sound System Panning)ソフトウェアを開発したアルゼンチンのIanina CanalisとDB Technologiesのスピーカーでライブサウンドにおけるイマーシブサウンドを体験した時に、我々の業界の未来がこの方向に進んでいることを実感しました。パンデミック以前は、空港やスタジアムのオープニングセレモニーなど、従来のマルチチャンネル・オーディオ・システムで多くの作品を制作していましたが、パンデミックの最中には、ストリーミングによるショーや、観客の少ないライブショーが増えたため、SPAT Revolutionなどのイマーシブ・オーディオ・プロセッサーの経験値を高めていくことになりました。そして次第に、SPAT Revolutionの無限の可能性を確信するようになったのです。」 フェスティバルにおけるシステム設計は、異なるジャンルの音楽が演奏されること、広い面積をカバーするためにスピーカー・クラスタ間の距離が大きく、クラスタより客席側にはスピーカーの設置が不可能なため、Wanzo氏と彼のチームにとってはとても大きな挑戦でした。 「SPAT Revolutionが提供する様々なパンニング方式を試してきましたが、最終的にライブで最も使用したのはWFS(波面合成)でした。我々は、このWFSオプションのベータテスター・チームに早くから参加しており、Vendimiaフェスティバルのようにクラスター間の距離が離れた会場でも、非常にうまく機能することがわかっていました。また、SPAT Revolutionの芸術的な表現の可能性をより深く理解することで、このフェスティバルでは印象的で一貫した結果を得ることができました。」 Vendimiaフェスティバルのシステムでは、4台のS6Lがそれぞれ異なる役割を担当しており、サウンドデザインとイマーシブシステムにおけるWanzo氏の経験により、全てが相互に補完しあい、連動するシステムを作り上げました。 「システム提案の段階では、Spat Revolutionで9.1.4chのシステムを使った一連のデモンストレーションを行い、プロデューサー、ミュージシャン、技術関係者に実際に音を聴いてもらい、意見をもらう機会を設けました。全ての関係者から好意的な反応をもらい、Vendimiaフェスティバルの大規模なシステムの準備に着手しました。SPAT RevolutionをAvid S6Lサーフェスでコントロールできることが、ここでは非常に重要だったのです。」 Wanzo氏のイマーシブオーディオによるサウンドデザインの独創的なアプローチとVendimiaのセットアップについて、ライブサウンドの未来とライブ・プロダクションにおけるイマーシブオーディオの優位性についてもこうコメントしています。 「厳密に技術的な観点から言うと、カバレージとオーバーラップを得る最良の選択は、より多くのスピーカーシステムを使用することです。これにより、スピーカーのサイズを小さくして、システムのヘッドルームを大きくすることができ、従来のステレオでのミキシングのように、ソースを意図する場所に定位させるために、周波数スペクトラムの中で各ソースにイコライザーを多用する必要がなくなります。」 「ライブサウンドにおけるイマーシブの創造的な可能性は無限であり、これまでにないサウンドスケープの再現と創造が現実のものになっています。これは新しい道のりの始まりであり、Vendimiaフェスティバルにおけるイマーシブ・オーディオ・システムはこのイベントの傑出した演出の一つになったと考えています。」 「このプロジェクトを支えてくれたすべての人たち、特にずっとサポートしてくれたFLUX:: Immersiveチームのスタッフには本当に感謝しています。今後も素晴らしいプロジェクトが待っていますし、SPAT Revolutionは進化を遂げながら、間違いなく私たちのメインツールとして使われ続けるでしょう。」 この記事では主に波面合成を実現するSpat Revolution WFS Optionについて紹介してきましたが、ここ日本で最初にSpat Revolutionが導入されたのは、DAW内では編集が非常に困難だった22.2 chサラウンドに対応したコンテンツの制作がきっかけでした。入出力ともアンビソニックス、バイノーラル、5.1、7.1、Dolby Atomosなど、事実上あらゆるサラウンド・フォーマットに対応できるSpat Revolutionは、制作/ライブの垣根を越えて今後の活用が期待されます。 *ProceedMagazine2022-2023号より転載
昨年10月にNuge Audioよりリリースされた新プラグイン、Halo Vision。"Halo"と言えば同社が既にリリースしている、Halo Upmix/Downmixといった製品を思い浮かべる方もいるかもしれませんね。それらはステレオ〜サラウンド〜イマーシブといったフォーマット間のアップミックス/ダウンミックスを行うためのツールでしたが、今回登場したHalo Visonは、イマーシブサラウンド編集に特化した強力なアナライザーです。 今回、NUGEN Audioはこの製品の開発をスタートするにあたり、「イマーシブ・サウンドを視覚的に表示するとしたら、何が求められているのか」を正確に把握するため、多くのエンジニアを対象に詳細な市場調査を行ったとのこと。その結果生まれたのがこのHalo Visionということで期待大です。本記事では、その活用方法を考察してみたいと思います。 ◎自在にカスタマイズ表示可能な7種類のビュー 表示可能な項目は以下の7種類。何だかあまり聞き慣れない単語が並んでいますが、1つずつ見ていきましょう。 - コリレーション・マトリックス - Correlation Matrix - コリレーション・ウェブ - Correlation Web - 周波数ヘイズ - Frequency Haze - ロケーションヘイズ - Location Haze - スペクトル - Spectrum - トゥルーピーク - True Peak - タイムコード - Timecode ◎コリレーションビューで各チャンネルの位相の相関を可視化する 他のプラグインではあまり見かけない表示がこのコリレーション・ウェブとコリレーション・マトリックス の機能だと思います。まず、蜘蛛の巣状のコリレーション・ウェブですが、これはシンプルに位相が反相関状態になっているチャンネル間の線が点灯し、判別できるようになっています。コリレーション・マトリックスはそれをさらに詳しくしたようなもので、各チャンネル間の位相がどのような関係にあるのか、分かりやすく三色で色分けされるようになっています。具体的には、位相の相関がニュートラルな時は黄色、相関状態の時は緑色、反相関状態の時は赤色になります。 メーカーの説明によると、これらはコンテクスト相関、つまり、単純な相関を示しているわけではなく、チャンネル間のレベル差を考慮し、問題となりそうな相関関係のみを洗い出してくれているとのこと。そしてそのしきい値は標準の設定に加え、自分で設定することも可能です。 ■コリレーション・ウェブ - Correlation Web "相関ウェブは、各スピーカー間の接続線でチャンネルのネットワークを表示します。2つのチャンネル間の位相関係が反相関になると、対応する線が赤い線で結ばれます。" ■コリレーション・マトリックス - Correlation Matrix ”コリレーション・マトリックスは、各チャンネル間の位相関係を色別に表示します。より詳細な分析には大きなアーチ型メーターを使用し、ユーザー定義の閾値で反相関の警告を表示します。” ”これらの表示では、デフォルトでコンテクスト相関が使用されます。一般的な相関メーターの計算方法では、2つの信号が非常に反相関しているように見えることがありますが、一方の信号が他方の信号より非常に大きかったり、小さかったりする場合は、それらを同時に混ぜ合わせても特に問題ない場合があります。Contextual Correlationは、このようなレベル差を補正し、問題となりそうな相関関係のみを強調します。” 任意のチャンネルを選択すると関係する線がハイライトされる コリレーション・ウェブの設定画面 コリレーション・マトリックスの設定画面 ◎ヘイズビューでサラウンドフィールド内の周波数とエネルギーを可視化する "Haze "が日本語で「もや」や、「かすみ」を表す通り、サラウンドフィールド内の周波数分布とエネルギー分布を細かい光の粒子で、可視化することができます。これは同社のHalo Upmix/Downmixを触ったことがある方にはおなじみの表示ですね。なんだかんだ言っても、最終判断はやはり自分の耳で行うことになるとは思いますが、こうしてメーターで機械的に視覚化されることで、聴覚上の感覚と照らし合わせて確認することができるようになるというのは、非常に意味があるのではないでしょうか。 ■周波数ヘイズ - Frequency Haze "円形の周波数ヘイズは、低周波数を中心に、高周波数を外周に配置し、サラウンドフィールド全体の周波数分布を表示し、一般的なスピーカーの位置にチャンネルラベルを表示します。" ■ロケーションヘイズ - Location Haze "ロケーション・ヘイズは、オーディオの知覚位置を視覚化するもので、サラウンド・フィールド全体のエネルギー分布を表示し、明るい部分は「エネルギー」が増大していることを示します。" ◎スペクトル/トゥルーピーク/タイムコード 他の表示については普段からDAWをお使いの方にはお馴染みの機能かもしれませんが、周波数帯域ごとの音量を確認できるスペクトル、サンプルピークメーターでは検出できないアナログ波形のピークを検出するトゥルーピーク、そしてタイムコードの表示が可能となっています。表示色のカスタマイズもでき、非常に見やすいUI設計となっています。 ■スペクトル - Spectrum "Combined' モードでは、全てのチャンネルの FFT レベル対周波数グラフを 1 つのスペクトルで表示します。 Groups' モードでは、各チャンネルをいくつかのスペクトラムグループごとに整理することができます。" ■トゥルーピーク - True Peak "True Peakビューは、各チャンネルのTrue Peak dBレベルメーターを表示します。" ■タイムコード - Timecode "Timecodeビューは、現在のホスト/DAWの再生位置に基づいたタイムコードの読み出しを表示します。" スペクトラム表示も細かく設定が可能 チャンネルグループの設定も自由自在 タイムコードは時:分:秒:フレームごとに色の変更が可能 なんと176色から選択可能!色にこだわりがあるという方も安心 ◎用途 ・7.1.2までのサラウンドおよびイマーシブミックスの解析 ・位相相関のチェック ・空間情報の視覚化 ・異なるチャンネル・フォーマットでのミックスの確認 ・慣れないスタジオや音響特性が好ましくない部屋でのミキシング ◎Dolby Atmos制作時の活用方法 Pro Tools 2022.9からの新機能Aux I/O及び Pro Tools Audio Bridgeを活用することで、Dolby Atmos Rendererからの出力をシンプルにPro Tools内に戻すことが可能となりました。これを活用してDolby Atmos Rendererから出力された7.1.2chをPro Tools内に立ち上げ、そこにHalo Visionをインサートすることでメータリングができるようになる、というわけですね。 Aux I/Oの設定方法はAvid Japanが公開しているこちらの日本語Tips動画よりご確認ください。 関連リンク: Rock oN Line eStoreで購入: https://store.miroc.co.jp/product/80930 国内代理店紹介ページ: https://www.minet.jp/brand/nugen-audio/halo-vision/ Nugen Audio紹介ページ: https://nugenaudio.com/halovision/ イマーシブサラウンド制作システム構築のご相談は、実績豊富なROCK ON PROまで。下記コンタクトフォームよりお気軽にお問い合わせください。
コロナ禍になり早くも3年が過ぎようとしています。その最中でも、メーカー各社はリモートワークに対応するために様々なワークフローを紹介していますが、Avidでも今年の始めに新たにリモートビデオ編集のフローを実現するシステムNEXIS EDGEを発表し、満を辞して今秋リリースされました。 クラウド?オンプレ? Avidではこれまでもリモートでのビデオ編集やプレビューをする製品が各種あり、ポストプロダクションのニーズに合わせて、システムを構築できるようにラインナップも取り揃えられています。例えば、Avid Edit On Demandでは、ビデオ編集ソフトMedia ComposerやNEXISストレージをすべてクラウド上に展開し、仮想のポストプロダクションを作ることが可能です。クラウドでの展開は時間や場所を問わず利用できること、使用するソフトウェアの数やストレージの容量の増減を簡単に週・月・年単位で設定し、契約することができ、イニシャルコストがほとんどないことがメリットと言えます。 今回紹介するAvid NEXIS EDGEは先で述べたEdit On Demandのクラウド構築とは異なり、サーバー購入の初期投資が必要になります。クラウド化の進みとともに、CAPEX(設備投資)からOPEX(事業運営費)へという言葉が最近よくささやかれ、今どきオンプレのサーバーは流行らないのでは?という見方はあるかもしれませんが、ポストプロダクション業務としてビデオ編集をする上で、すべてをクラウド上で編集することが必ずしも正解だとは言い切れません。それは、映像データの適切な解像度での再生、正確な色や音のモニタリングに対してクラウド上のシステムではできないこともあるからです。 Avid NEXIS EDGEは、会社内にサーバーを置くオンプレミスでのメディアサーバーシステムとなります。Avid NEXISストレージサーバーを軸にしたシステムとなり、メディアサーバーに加えてWindowsサーバーを追加します。ソフトウェアとしては、Media Composer Enterpriseが最低1ライセンス必要になります。Media Composer EnterpriseライセンスはDP(Distributed Processing)ライセンスが含まれており、プロキシを作成するために使用されます。DPは日本語では分散レンダリングと言われ、ネットワーク上にあるひとつまたはそれ以上のワークステーションを使用して、レンダリングやトランスコード、コンソリデートといったメディア作成の処理を行うことで、編集システムのCPUを使用せずに時間のかかるプロセスを外部で行うことができる機能です。 NEXIS EDGEが持つメリット 📷 NEXIS EDGE Webブラウザのユーザーインターフェース 素材の検索と編集 NEXIS EDGEの特徴は大きく分けて2つあります。1つ目は、NEXIS環境において社内のLAN環境と、汎用のインターネット回線を用いるリモートアクセス機能を簡単に切り替えできることです。つまり、遠隔地にいてもオンプレにあるNEXISサーバにアクセスすることができ、サーバー内にあるシーケンス、ビン、クリップを閲覧、再生、編集することができるのです。クラウドサービスを使用しなくてもクラウドと似た環境を構築することができ、メディアを様々な場所にコピーして分散させずに、オリジナルのメディアを1つの場所に置いて使うことができます。 2つ目は、高解像度メディアとそこから生成されたワーク用のプロキシメディアのメタデータが完全に一致して作られることです。そのため高画質のクリップを用いて編集をしても、プロキシメディアで編集をしても、シーケンスにはどちらのメディアも完全にリンクしており、再生ボタンの切り替えで再生させたいメディアを簡単に選ぶことができます。このシステムでプロキシを作成し、使用することの優位性がいくつかあります。汎用のインターネット回線を介して使用できることがその一つです。そしてプロキシメディアはデータ量も少なくダウンロードするにも時間がかからないため、ダウンロードをしたメディアを使用することができます。いったんメディアをコピーしてしまえば、その後インターネットを接続していなくても、ダウンロードをしたメディアで編集をすることができ、その編集されたビンやシーケンスは、ネットワークのある環境に戻せば、NEXISサーバー内にあるメディアにすぐにリンクすることができます。また、プロキシメディアの優位性はリモート環境で使用することだけではありません。LAN環境でもそのメディアを使うことで、ネットワークの帯域を節約することができます。 ストレージ内のメディアにアクセス ご自身が社内ではない場所にいる場合、社内にあるNEXISメディアサーバーへアクセスするには通常のNEXISクライアントのリモート機能を使い、アクセス権で管理されたワークスペースをマウントします。Media Composerはプロジェクトの作成画面で、Remote Avid NEXISにチェックを入れて起動します。 📷 NEXISへのリモートアクセス ビンに表示されているクリップは、プロキシメディアがあるクリップなのかどうかが一目で分かります。プロキシメディアがない場合には、メディア作成権のあるユーザーがMedia Composerからプロキシメディアを生成させることもできます。プロキシの生成は前述したDPが機能するPCで行うため、Media Composerで作業をしているエディターは編集作業をそのまま続けることができ、プロキシが作成された順にそのメディアを使うことができます。この分散レンダリングは、バックグラウンドでレンダリングを行うDP Workerと呼ばれるPCの数で、プロキシ生成やトランスコード等のタスクを分けることができます。そのためDP Workerの数が多ければ処理も早くなります。また、スタジオ内にあるMedia Composerが使用されていなければ、そのシステムもDP Workerとして使うこともできます。 📷 分散レンダリングでプロキシを作成するメニュー リモートで接続したMedia ComposerからNEXISストレージ上のメディアを再生するときは、そのメディアの解像度を選択します。NEXISストレージ上にあるクリップには、高画質メディアとプロキシメディアの2つのメディアがリンクされており、Media Composerでどちらのメディアを再生するかを選択することができるため、NEXISストレージに接続されている環境に合わせてメディアを再生できます。 📷 再生のための解像度の選択 みんなでコラボ NEXIS EDGEへのWebアクセスツールでは、クリップやビンへのアクセスはもちろんのこと、簡単なビデオ編集、クリップまたはシーケンスへマーカーやコメントなどを付ける機能があります。アシスタントからプロデューサーまでコンテンツに関わるすべての人々が、簡単な操作で編集作業を効率的に、そして円滑に共有することができます。一方、そのためにメディアの管理にはいっそう気を使わなければなりませんが、そんなときにもNEXIS EDGEではビンロックの機能によるシーケンスやクリップの保護、視聴や編集機能の有無など、ユーザー単位でシステムの機能を制限することができます。 さらに、NEXIS EDGEのPhonetic Indexオプションを使用することで、クリップ内の音声トラックからのキーワード検索をすることができ、素材クリップとそのキーワード箇所を素早く見つけることができます。この機能はWebクライアントでも、Adobe Premiere Proクライアントでも利用することができます。 SRT対応で機能アップ、Media Composer 2022 📷 Media Composerユーザーインターフェース クリップアイコンがオレンジ表示になっている時はプロキシメディアがリンクされている。 今年になり5Gが本格的に普及し、汎用のインターネット回線を使ってのワークフローは今後も増えていくことが期待されます。Media Composerはバージョン2022.4でSRT(Secure Reliable Transport)に対応しました。SRTは以前の本誌でも何回かご紹介したことがありますが、マルチメディア伝送のプロトコルです。2012年にカナダに本社を置くHaivision社によって開発されました。非常に強力な暗号技術を採用し、高い安全性とパケットロスのリカバリ、高画質であることが特徴で、2017年にオープンソース化され、同時に組織化されたSRT Allianceによる推進のもと、今では世界の多様なメーカーによって採用・開発・実装が行われています。コロナ禍で最初は戸惑っていたWeb会議も日常的になりましたが、環境によって回線速度が異なるため、そういったツールでの画質や音質は最低限に抑える必要があり、とてもリアルタイムでのプレビューチェック向きとは言えません。それを回避するためにYouTubeなどを使用することもありますが、設定ミスから意図せず動画が公開されてしまうというリスクはなくなりません。 📷 SRTの設定画面 そういった問題を解決できるのがMedia ComposerでのSRT送信です。Media Composerは内部でSRTのソフトウェアエンコードを行い、リアルタイムでインタネット越しにタイムラインを送信します。SRTを送信するにはMedia Composer内のH/Wボタンから設定を行い、シーケンスを再生するだけです。それを受け取るには、SRTデコーダーを備えたアプリケーションやハードウェアが必要になりますが、フリーのHaivision Playerや VLC Player等を使っても受信することが可能です。そのため、インターネット回線さえあればMedia ComposerのタイムラインをSRTでプレビューできます。例えば、遠方のクライアントに対してプレビューをする時など、前もってファイル転送サービスでファイルを送ったり、YouTubeの限定公開を使うためにファイルをアップロードしたりすることなく、ZoomなどのWeb会議システムで会議をしつつ、タイムラインをプレビューすることができます。そして、プレビュー中に直しがあってもファイルを書き出し直し、そのファイルのアップロードやダウンロードをし直すことなく、まるで編集室で立ち会っているかのようなコニュニケーションを取ることが可能です。 また、10月にリリースされたMedia Composer 2022.10では、Multiplex-IO機能が搭載されました。この機能は、シーケンスをスタジオでモニタリングしながら、同時にSRTやNDIをストリーミングさせることができるため、以前のようにどちらかに接続先を切り替える必要がなくなります。 より良い作品を作ることに必要とされるのが「どんな作品を作るのかという共通の認識」を持つことだとしたら、一番大切なのはコミュニケーションです。スタジオでの立ち合い編集などで時間を共有させてのコミュニケーションも大事ですが、ライフスタイルの変化によって場所も時間も共有できない時には、それを可能にするツールを使ってみてはどうでしょう。NEXIS Edgeはリモート・ビデオ編集を可能にする製品ではありますが、単に在宅作業を促進するためのものではありません。この製品はそう簡単には増やせない編集室の代わりに、場所を選ばない方法で編集作業を可能にするものなのです。 *ProceedMagazine2022-2023号より転載
汎用のインターネットを通じて高品質な映像信号の送受信が行える規格が登場し、InterBEEをはじめとする昨今の放送機器展示会でも大きな注目を集めている。例えば、これまで弊誌でも紹介してきたNDIでは、昨夏にリリースされたNDI 5より新たにNDI Bridge機能が追加され、2拠点間をインターネット越しにNDI接続することが可能となった。今回新たにご紹介するのはSRT = Secure Reliable Transport と呼ばれるプロトコルだ。その名の通り、安全(Secure)で、信頼性がある(Reliable)、伝送(Transport)ができることをその特徴とする。本稿では、今後ますます普及が見込まれる2つの規格の特徴についてご紹介するとともに、今年3月に同テーマで開催されたウェビナーのレポートをお届けする。 同一ネットワーク内で即座に接続確立 利便性のNDI まずはNDIの特徴をあらためて確認しておこう。NDIとは Network Device Interface(ネットワーク・デバイス・インターフェース)の略称で、その名の通り、ネットワークで接続されたデバイス間で映像や音声をはじめとする様々な信号を送受信可能とする通信規格の一種だ。2015年9月のIBC Showにて米国NewTek社により発表されて以降、1年〜2年のスパンで精力的にメジャーアップデートが行われており、2022年現在は昨年6月に発表されたNDI 5が最新版となっている。このバージョンより、待望されていたインターネットを超えてのNDI接続を可能とするNDI Bridge機能が実装され、その裾野は着実に広がりを見せている。 SMPTE ST-2110が非圧縮映像信号のリアルタイム伝送を目的として策定されたのに対し、NDIは圧縮信号の低遅延 ・高効率伝送を前提とし、利便性を重視したような設計となっているのが大きな特徴だ。具体的には、例えば1080i 59.94のHD信号であれば100Mbit毎秒まで圧縮して伝送することにより、一般的なLANケーブル(ギガビットイーサネットケーブル)でも複数ストリームの送受信ができるというメリットを実現している。当然ながら10Gbイーサネットケーブルを使用すれば、より多くのストリームの送受信も可能だ。 NDIには、大きく分けると2つのバージョンがあり、スタンダードな"NDI"(Full NDI、Full Bandwith NDIとも呼ばれる)と、より高圧縮なコーデックを用いる"NDI | HX"というものが存在する。前者のFull NDIではSpeedHQと呼ばれるMPEG-2と似たような圧縮方式を採用しており、ロスレスに近い高品質ながら1フレーム以下の超低遅延な伝送が可能なため、海外では既にスポーツ中継などの放送現場で活用が始まっている。このNDI向けのソフトウェア開発キット(SDK)はオンラインで公開されており、個人の開発者でもロイヤリティフリーで使用することができる。 一方、後者のNDI | HXは、MPEG-2の2倍の圧縮率をもつH.264や、さらにその2倍の圧縮率をもつH.265といった圧縮方式を採用し、無線LANなど比較的帯域が狭いネットワークで安定した伝送を行うのに向いている。対応のスマートフォンアプリなども数多くリリースされており、スマホカメラの映像やスクリーンキャプチャーをケーブルレスで他のデバイスに伝送できる点が非常に便利だ。こちらのNDI | HXの使用に関しては、現在有償のライセンスが必要となっている。ちなみに、この"HX"というのはHigh Efficiency (高効率)を意味するそうだ。 また、NDIの利便性向上に一役買っている機能として、デバイス間のコネクション確立時に使用されているBonjour(ボンジュール)という方式がある。これは、あるネットワーク内にデバイスが接続された際、自身のサービスやホスト名を同一ネットワーク内にマルチキャストすることで、特に複雑な設定を行わなくとも他のデバイスからの認識を可能とする、Apple社開発・提供のテクノロジーだ。同じくBonjourを採用しているDante対応製品に触れたことがある人はそのイメージがつくだろう。 通常のDNS = Domain Name System においては、例えばDNSサーバなどの、ドメイン名とIPアドレスを変換する仕組みを提供するサーバーが必要となるが、このBonjourにおいては、mDNS = multicast DNSという方式を用いることで、デバイス同士の通信のみでホスト名の解決を行うことが可能となる。仮に、映像スイッチャーソフト等から、ホスト名ではなくデバイスのIPアドレスしか見ることができなかったらどうなるだろうか。「192.168.〇〇.〇〇〜」という数字がずらっと羅列されていても、それがどのデバイスか瞬時に把握することは困難を極めるだろう。そうではなく、「yamadataro-no-macbook.local」「yamadataro-no-iphone.local」といったホスト名が表示されることにより、我々人間にとって分かりやすく、使い勝手の良いインターフェースが実現されている。 やや話が逸れてしまったが、簡潔にまとめるとNDIの魅力は気軽に伝送チャンネルを増やせる柔軟性と、ネットワークに繋げばすぐホスト名が見えてくるという扱いやすさにある。SDKがオープンになっていることにより、vMixやWirecast、OBSなどの配信ソフトや、Media ComposerやDaVinci Resolve、Final Cut Proといった映像編集ソフトでも採用され、数あるVoIP規格の中でもまさに筆頭格とも呼べる勢いで放送・配信・映像制作現場での普及が進んでいる。弊社LUSH HUBの配信システムでも、NewTek TriCasterを中心としたNDIネットワークを構築しているが、従来のSDIやHDMIケーブルと比べ、LANケーブルは長尺でも取り回しが容易である点や、スマホカメラの映像を無線LANでスイッチャーに入力できる点は非常に便利だと感じており、個人的にもNDI導入を積極的にアピールしたいポイントとなっている。 セキュアかつ高品質低遅延な映像伝送を低コストで実現 品質重視ならSRT SRTもNDI同様のマルチメディア伝送プロトコルの一種で、2012年にカナダに本拠地を置くHaivision社によって開発、翌2013年のIBC Showで初めて一般向けのデモンストレーションが行われた。SRTはSecure Reliable Transport (セキュア・リライアブル・トランスポート)の略称で、その名の通り、より安全(Secure)で、信頼性がある(Reliable)、伝送(Transport)ができることをその特徴とする。それまで遠隔地へ安全に高画質な映像伝送を行うための手段としては、衛星通信やダークファイバー(専用回線)を用いた方法が一般的だったが、伝送コストが高額となることが課題だった。その課題を解決するため、「汎用のインターネット回線を使ってセキュアで高品質な映像伝送したい」というニーズのもとにSRTは誕生した。2017年よりGitHubにてオープンソース化、同時期にSRT Allianceがスタートし、現在ではMicrosoftやTelestream、AVIDを含む500社を超えるメーカーがその開発に参加している。 それではSRTの技術的特徴を具体的に見ていこう。まず安全性に関する技術については、AES(Advanced Encryption Standard)と呼ばれる、世界各国の政府機関などでも採用されている非常に強力な暗号化技術を採用している。SRTの場合AES-128、AES-256に対応しており、付随する数字は暗号化に用いる鍵の長さのbit数を意味している。一般的な暗号化技術において、この鍵長が長いほど第三者による暗号解読が困難になる。仮にAES-256を使用した場合、2の256乗、10進数にしておよそ77桁にも及ぶということを考えると、AES暗号化の突破がいかに困難なことか、その片鱗をご理解いただけるだろう。この強力な暗号化が、通信だけでなく、伝送しているコンテンツそのものに対しても適用されるため、万が一通信パケットを盗聴されたとしても、その中身までは決して解読されることはないだろう。 信頼性については、パケットロスに対するリカバリ機能を備えていることにより、不安定なネットワーク状況下でもほとんどコマ落ちすることのない高品質な映像伝送を実現している。一体なぜそのようなことが出来るのか?その秘密は、低遅延な通信方式であるUDP(User Datagram Protocol)と、データの誤りを制御するためのARQ(Automatic Repeat reQuest [またはQuery] )と呼ばれる機能を組み合わせるという工夫にある。この工夫についてより理解を深めるには、まずはTCP/IPモデルにおけるトランスポート層に位置するプロトコル、TCP(Transmission Control Protocol)とUDPの違いについて触れておく必要がある。 ●TCP、UDPって何? TCPはコネクション型と呼ばれるプロトコルで、データ受信後にACK(アック)という確認応答を送信元に返すことで通信の信頼性を保証する仕組みになっている。そのような確認応答を行なったり、データが届かなかった場合に再送処理を行なったりするため、通信経路の品質が低い場合には比較的大きな遅延が生じるというデメリットがあるが、電子メールなど確実性が重視される用途で主に使われている。ちなみに一昔前まで普及していたAdobe Flash Playerでは、このTCPをベースとしたRTMP(Real Time Messaging Protocol)と呼ばれる通信方式が採用されている。 対するUDPはコネクションレス型のプロトコルで、TCPのように確認応答を返さず、データの再送も行わないため通信効率の面ではこちらが有利だ。いわばデータを通信相手に送りっぱなしにするようなイメージになる。パケットヘッダのサイズを比較しても、TCPは20バイト使うのに対し、UDPは8バイトと小さいため、そもそも送受信する情報量が少ない。ただし、通信経路の品質が低い場合には遅延こそ少なかれ、伝送するコンテンツ自体の品質の劣化が避けられないという欠点がある。そうした理由で、例えばライブ配信やIP電話やなど、確実性よりもリアルタイム性が重視される用途で使われることが多い。 簡単に言うとSRTでは即時性に優れたUDPをベースとしながらも、信頼性に優れたTCPのようなデータの再送要求の仕組みを上位層のアプリケーション層で上手く取り入れている。それが前述したARQである。一般的に、こうしたメディア伝送においては、送り手側となるエンコーダーと受け手側となるデコーダーのそれぞれに多少のバッファーが設けてあり、受け手側はそのバッファー内でパケットの並べ替えなどの処理を行った後、デコーダーにパケットを転送している。 従来型のRTMPでは下りのトラフィック帯域の低下を防ぐため、パケットを受け取るたびにACKを送り返すのではなく、シーケンス、つまり一連のパケットのまとまり毎に応答確認を行う。もしそのシーケンス内でパケットロスが生じていた場合、再度そのシーケンス丸ごと再送が必要となり、その分のタイムロスが生じてしまう。一方、SRTでは受け手側でパケットロスが判明した時点で、その特定のパケットのみを即座に送り手側に再送要求することができる。これが高画質低遅延を実現するための重要なポイントだ。無事に再送されてきたパケットはバッファー内で適切に再配置された後にデコード処理されるため、オリジナルの品質に極めて近い綺麗な映像を受信できるという仕組みだ。ちなみにこのバッファーのサイズは数ミリ秒〜数十秒の範囲で設定できるようになっているため、通信状況に合わせて変更が可能だ。 また、RTMPとSRTのもう一つの大きな違いはパケットヘッダーにタイムスタンプを持てるかどうかである。RTMPでは個々のパケット毎にはタイムスタンプが押されていないため、受信した各パケットを一定の時間内にデコーダーに転送する必要がある。 その際、不安定になりがちなビットレートを安定化させるために、ある程度のバッファを設定する必要が生じる。一方SRTでは、個々のパケット毎に高精度なタイムスタンプが押されているため、受信側で本来の信号特性そのものを再現できるようになる。これにより、バッファリングに要する時間が劇的に短縮されるというメリットもある。 まとめると、SRTの魅力は、従来の衛星通信や専用回線での通信と同レベルの、安全性が高く、極めて高品質な映像伝送を比較的低コストで実現できる点にある。活用が考えられるケースとしては、例えばテレビ番組の生中継などで、「汎用のビデオ会議ツールなどでは満足のいく品質が得られない、かといって衛星通信や専用回線ほどの大掛かりなシステムを構築する予算はない」といった状況に最適なソリューションではないだろうか。 Webiner Report !! 〜2拠点間を実際にSRTで接続しながら生配信するという初の試み〜 今年3月初旬、ROCK ON PRO とアスク・エムイーの共催にてウェビナー『NDI & SRT を活用した映像伝送 〜SRTで2拠点間をつないでみよう!〜』が開催された。本ウェビナーでは、渋谷区にある弊社デモスペース「LUSH HUB」と千代田区のアスク・エムイーショールーム「エースタ」間を、オンライン会議ツールZOOMおよびAJA社の高性能マルチチャンネルビデオエンコーダー BRIDGELIVEを使ってSRT接続し、両拠点からそれぞれのYou Tubeチャンネルで生配信するという、おそらく国内ウェビナー史上初となる試みが行われた。ウェビナー内ではNDIとSRTの概要説明のほか、インターネット越しのNDI接続を可能とするNDI Bridge や、NDIネットワーク内で音声のみの伝送を可能とするNDI Audio Direct の動作も紹介。それぞれの規格がどのような場面での使用に適しているか、またそれらを組み合わせることで生まれる利点についてのプレゼンテーションが行われた。 ROCK ON PRO & アスク・エムイー共催 NDI & SRT を活用した映像伝送 〜SRTで2拠点間をつないでみよう!〜 配信日:3月2日 (水) 16時〜17時 株式会社アスク アスク・エムイー/テクニカルサポート 松尾 勝仁 氏 株式会社リーンフェイズ アスク・エムイー/マーケティングマネージャー 三好 寛季 氏 株式会社メディア・インテグレーション ROCK ON PRO / Product Specialist 前田 洋介 ●エースタ側配信 https://youtu.be/NK8AN1UsCRo ●LUSH HUB側配信 https://youtu.be/PzibZ3wKPDQ ●System:当日の接続システム NDI Bridge、SRT、ZOOMを活用し、3拠点間のコミュニケーション、2拠点から同時配信という内容となる今回のウェビナーについて、まず、ROCK ON PRO 前田洋介より接続システムについての解説が行われた。やや複雑だが図にすると次のような形となる。(下図 )まず、講師陣がいる場所は渋谷のLUSH HUB、千代田区半蔵門のエースタ、そして今回リモート出演となった前田洋介が訪れているRockoN梅田の3拠点となる。3拠点間のコミュニケーションおよび音声の入力には汎用のツールとして使い勝手が良いZOOMを採用。さらに、LUSH HUBとエースタの2拠点間においては、AJA BRIDGE LIVEによるSRT接続とNewTek NDI Bridge接続が並行して確立されており、相互にSRTで高品位な映像伝送を行つつ、相手方のTriCasterの操作も可能となっている。その上で、両拠点からYou Tube Liveへの最終の配信エンコーディングが行われている。 ●Digest1:NDIのメリット まずはアスク・エムイー三好氏より、NDIについての解説が行われた。NDIの最大の特徴は、対応するデバイスやソフトウェア間で、映像、音声、制御などの様々な信号をWi-Fi接続やネットワークケーブル一本で伝送できてしまう点だ。SDK(ソフトウェア開発キット)が無償公開されていることもあり、対応するソフトウェアスイッチャーやスマートフォン向けのカメラアプリなども様々登場している。 ●Digest2:NDI Tools オンラインで無償配布されているNDI Toolsには、NDI信号をWebカメラのソースとして使えるWebcam InputやTriCasterを遠隔操作できるNDI Studio Monitor、インターネット越しのNDI接続を可能とするNDI Bridgeなどが含まれている。WIndows版の方が開発が早かったり、Final CutなどMac版にのみ対応しているソフトウェアもあるため、Win版とMac版でラインナップが異なっている。 ●Digest3:NDI5から新たに追加されたNDI Bridge NDI5から新たに追加された目玉機能の一つがNDI Bridgeで、これによりインターネット越しにNDI接続を行うことが可能となった。現時点ではWin版のみの対応となるが、遠隔地のNDIソースを受信したり、TriCasterやPTZカメラをソフトウェアパネル上からリモートコントロールしたりすることができる。実際にウェビナー内でこのデモンストレーションを行なっているシーンを是非ご覧いただきたい。LUSH HUBにいる松尾氏のPCから、半蔵門エースタのNDIソースが一覧となって表示されている様子が確認できる。さらに、TriCasterの画面に進むと、画面左上にKVMのボタンがあり、これをクリックすることでそのままTriCasterの遠隔操作が可能になるという驚きの手軽さだ。コロナ禍以降、ライブ配信の需要が急速に高まっており、配信のオペレーター不足なども懸念されるが、こうした機能を活用していくことで解決できる課題は山ほどあるだろう。 ●Digest4:SRTとはどのようなものか 続いて、SRTに関する説明だ。SRT = Secure Reliable Transportの略称で、Haivision社が開発した。不安定なネットワーク環境でも高品質なライブ映像を実現することを目標に、変動するネットワーク帯域幅を考慮し、映像の整合性や品質を維持するための様々な機能が備わっている。NDI同様オープンソース化されているが、こちらはソフトウェアだけでなくハードウェアへの組み込みもロイヤリティーフリーとなっている。 ●Digest5:NDIとSRTを併用するメリット ここでNDIとSRTの違い、併用するメリットについて話題が移る。NDIは元々、単一ネットワーク内での利便性向上を重視して作られ、後からインターネット越えが可能となった。一方、SRTは開発当初から遠隔地への安定した映像伝送を目標として開発されている。したがって、これらを比較対象として同列に並べるのはそもそも誤りで、むしろ、適材適所で併用することで相乗効果を発揮できる。つまり、NDIとSRTを併用することで「品質をとるか利便性をとるか?」というトレードオフを打破できるわけだ。 ●Digest6:実際にNDIとSRTを組み合わせると その一例がまさに、先に説明した本ウェビナーのシステムそのものだ。NDI Bridgeを活用してカメラやスイッチャー等のリモートコントロールを行いつつ、配信用の映像本線はSRTを使って高画質を実現することができる。(図9)また、その上でZoomなどのオンライン会議ツールを併用すれば、2拠点間のコミュニケーションはもちろん、その場に不在の参加者との連絡も容易だ。 ●Digest7:気になる実際の画質を比べてみる やはり誰もが気になるのが実際の画質についてだと思われるが、ウェビナー中盤からSRT経由の映像、NDI経由の映像、そしてZoom経由の映像を横並びにした配置をご確認いただけるようになっている。左がSRTで受信している映像、中央がNDIで構築したLAN内の映像、右がZoomで受信している映像だ。残念ながら同じカメラで撮影している訳ではないため厳密な比較とは言えないかもしれないが、SRT経由の映像は、ZOOMと比べ、ローカルのNDIとほとんど遜色ない高画質な映像となっているのが確認できる。 日進月歩で発展し続けるIP映像伝送テクノロジーの中でも、本稿では特に注目すべき2つの規格、NDIとSRTについてご紹介した。従来のSDIにとって代わり、とことん利便性を追求したNDIと、衛星通信や専用回線にとって代わり、汎用のインターネットでも高品質低遅延での映像伝送実現を目指したSRT。これらについて議論されるべきなのは、「どちらを使うか?」ではなく、「どのように組み合わせて活用していくか?」という点である。今回我々がみなさんにご提案させていただいたシステムはあくまでほんの一例で、こうしたIP伝送テクノロジーを適材適所に活用することで、世界中の放送・配信の現場それぞれに特有の問題を解決できるのではないかという大きな可能性を感じている。技術的ブレイクスルーによる恩恵、そして新技術を積極的に取り入れ、既存の技術とうまく組み合わせていくことで、これまでなかなか避けられなかったトレードオフも、今後次々と打破されていくことを期待したい。 *ProceedMagazine2022号より転載
世界中で始まった実際の配信サービスインから早くも2年が経過、国内でのサービスインからも1年が経過した360 Reality Audioの世界。そしてその制作ツールとなる360 WalkMix Creator™がついに国内で販売開始される。その拡がりもついに第2段階へと突入した360 Reality Audio、360 WalkMix Creator™で実現する新機能のご紹介とともに、360 Reality Audioの現在地をご案内していく。 Chapter 1:360 Reality Audioを構築する ●全天球4πを実現する360 Reality Audio 本誌でも、その詳細を伝え続けているソニー 360 Reality Audio。完全な4π空間へのフルオブジェクト配置による立体音響フォーマットとして、その魅力は高いものであることはすでにおわかりではないだろうか。先行してスタートしているDolby Atmos、Auro 3Dは、ご存知のように「映画」をそのベーシックとして登場している。そのため、これまでの5.1chサラウンドを踏襲し、それを発展させる形で立体音響を実現している。これは、既存設備、映画館、劇場との互換性という観点から重要なポイントであり必要不可欠な要素だった。しかしソニー 360 Reality Audioは、映像とは切り離して考えられ、音楽を楽しむためのフォーマットとして登場している。そのため、これまでの立体音響が辿ってきた経緯とは関係ないところで、理想の音楽を入れるための器として誕生している。北半球とも呼ばれる上半分の2πだけのフォーマットではなく、下方向も含めた全天球4πを実現し、チャンネルベースを廃棄した完全なるオブジェクトベースのフォーマットだ。 Dolby Atmosなど他の立体音響フォーマットとの最大の違い、それは南半球があるということである。南半球に音を配置して効果はあるのか?下方向からの音、それに意味はあるのか?これは、今後様々な音源がリリースされ、その効果の程やクリエイターの考え、感覚により活用が行われていくものだろう。リフレクションを加えることで床を作る、低音楽器を下方向から鳴らすことで重心を下げる、様々なアイデアがありそうだが、まずは表現できる空間が単純に倍になったということは、歓迎すべき素晴らしいことではないだろうか。北半球のみの2π srに対し、全天球4π srは単純に倍の表面積であり、その表現できる範囲も倍であるということだ。これをどのように使いこなすのかという議論はまさにこれから行われていくこととなるだろう。 今までのステレオをヘッドホンで再生すると、頭の中に定位する「頭内定位」となる。言い換えれば右耳から左耳の間に音があるように感じるということだ。これをソニー 360 Reality Audioではヘッドホンで聴いているが、擬似的に頭の周りから音が鳴っているような感覚「頭外定位」を実現している。スピーカーで視聴するための準備が様々に進んできてはいるが、その体験を行う一番簡単な方法はやはりヘッドホンでの再生となる。いま音楽を楽しむ方法として一番シェアの高いヘッドホン/イヤホンでの視聴、それをターゲットにした音楽の体験、それがソニー 360 Reality Audioだ。 ●チャンネルベースからの脱却、スピーカー配置の自由 チャンネルベースからの脱却というのも、360 Reality Audioの先進性の現れであると言えよう。冒頭でも述べたように、既存フォーマットとの下位互換性を考えることなく、純粋に次のステップへと歩みを進めた360 Reality Audio。これにより手に入れたのは、スピーカー配置の自由ということになる。クリエーター向け360 Reality Audio HPには、推奨環境としてこのようなスピーカー配置がのぞましいということが明記されている。ただ、これはあくまでもスピーカー配置の一例であり、その全てではない。360 Reality Audioの動作原理から言えば、スピーカーの配置位置、本数、そういった制約は無い。ただし、その音源の再現のために最低限これくらいの本数があったほうが確認を行いやすいという。また、360 WalkMix Creator™での制作時ではスピーカーの出力数を選択し、そのプリセットで選択された本数で再生を行うこととなる。 このスピーカーの配置の自由というのは、これから立体音響に向けてスタジオへスピーカーを増設しようとお考えの方には重要なポイントだろう。水平方向、天井は工夫によりなんとかなるケースが多いが、下方向に関しては、前方に3本(L,C,Rchの位置俯角-30度)設置が推奨されている。一般的に下方向のスピーカー設置となると、それらを遮るようにコンソールや作業用のデスクがあることが多いわけだが、これを左右90度の位置に俯角-30度で設置であれば、実際にレイアウトすることもかなり現実味があるのではないだろうか。 チャンネルベースのソースを持たない360 Reality Audioはフルオブジェクトであるため、スピーカーに対してのレンダリングアウトは自由である。そこにスピーカーがあるとわかるようなスピーカープリセットがあれば良いということになる。なお、スピーカー配置は自由だと書かせていただいたが一つだけ制約があり、それぞれのスピーカーは等距離に設置されている必要がある。ただし、これに関してはDelay調整により距離を仮想化することである程度解消できるものである。 ●Dolby Atmos、360 Reality Audioコンパチブル 自由と言われると、実際どうして良いのか混乱を招く部分もあるかもしれない。360 Reality Audioに対応したスタジオのスピーカーアレンジの一例をご紹介するとなると、Dolby Atmosとの互換性を確保したシステムアップというのが一つの具体的な事例になる。 360 Reality Audioは前述の通り、スピーカー配置に関しては自由である。ということは、Dolby Atmosに準拠したスピーカーレイアウトを構築した上で、そこに不足する要素を追加すればよいということになる。具体的には、Dolby Atmosには無い南半球、下方向のスピーカーを増設すればよいということだ。360 Reality Audioの推奨としては、前方L,C,R(30度,0度,-30度)の位置に俯角-30度で設置となっているため、この3本を追加することでDolby Atmosと360 Reality Audioに対応したスタジオを構築できる。以前のスタジオ導入事例でご紹介したソニーPCLのスタジオがまさにこの方法での対応となっている。 📷デスクの前方にはスクリーンが張られており、L,C,Rのスピーカーはこのスクリーンの裏側に設置されている。スクリーンの足元にはボトムの3本のスピーカーが設置されているのがわかる。リスニングポイントに対して机と干渉しないギリギリの高さと角度での設置となっている。 前方下方の設置が難しい場合には、左右下方で対応することも一案である。下方、俯角のついた位置への設置は360 Reality Audioの音像をスピーカーで確認する際には必須の要素である。少なくとも左右へ2本がないと、パンニングの再現があまりにも大雑把になってしまうため、最低2本以上の設置と考えていただきたい。ただ、その設置に関しては前方L,R30度の位置が必須ということではない。この位置がなぜ推奨位置なのかは、後述するエンコードの解説を読んでいただければご理解いただけるだろう。スピーカー配置の自由、という360 Reality Audioの持つ美点は、これから先の進化の中で本当の意味で発揮されるものだからだ。 Chapter 2:BrandNew!! 360 WalkMix Creator™ ●エンコーダーを手に入れファイナルデータまで生成 360 Reatily Audio Creative Suiteとして登場した360 Reality Audioの制作ツールが、2022年2月に360 WalkMix Creator™へと名称を変更し、それと同時に大きな機能追加が行われた。360 Reatily Audio Creative Suite時代に作成できる最終のデータは、360 Reality Audioの配信用データであるMPEG-H 3D Audioに準拠した360 Reality Audio Music Formatではなかった。この360 Reality Audio Music Formatへの最終のエンコード作業は、別のアプリケーションで実施する必要があった。360 WalkMix Creator™では、ついに悲願とも言えるこのエンコード機能を手に入れ、360 WalkMix Creator™単体でのファイナルデータ生成までが行えるようになった。テキストで表現すると非常にシンプルではあるが、実作業上は大きな更新である。 これに続く、最後の1ピースはその360 Reality Audio Music Formatデータの再生用のアプリケーションだ。360 WalkMix Creator™の登場で、最終データを生成することはできるようになった。そのデータを確認するためにはArtist ConnectionにアップロードしてArtist Connectionのスマートフォンアプリで360 Reality Audioとして再生ができる。 📸 360 Reatily Audio制作のワークフローはこのような形になっている。パンニングの部分を360 WalkMix Creator™で行うということ以外は、従来のミキシングの手法と大きな違いはない。編集、プラグイン処理などは従来通り。その後の音を混ぜるというミキサーエンジン部分の機能を360 WalkMix Creator™が行うこととなる。ミキシングされたものはエンコードされ、配信用の音源として書き出される。リスナーが実際に視聴する際のバイノーラル処理は、リスナーの使用するプレイヤー側で行うこととなる。 ●エンコードでサウンドの純度をどう保つか では、改めて360 Reality Audioの配信マスターであるMPEG-H 3D Audioに準拠した360 Reality Audio Music Formatへのエンコードについて説明していきたい。360 WalkMix Creator™で扱うことができるオブジェクト数は最大128個である。エンコードにあたっては、10~24オブジェクトにプリレンダリングして圧縮を行うことになる。せっかく作ったオブジェクトをまとめるということに抵抗があるのも事実だが、配信という限られた帯域を使ってのサービスで使用されるということを考えると欠かすことができない必要な工程である。360 WalkMix Creator™では多くの調整項目を持ち、かなり細かくそのチューニングを行うことができる。マスターデータは非圧縮のまま手元に残すことはできるので、いつの日か非圧縮のピュアなサウンドを360 Reatily Audioのエンドユーザーへ提供できる日が来るまで大切に保管しておいてもらいたい。 360 Reality Audio Music Formatへのエンコードを行うにあたり10~24オブジェクトへプリレンダリングして圧縮を行うということだが、その部分を更に詳しく説明していこう。実際には、配信事業者の持つ帯域幅に合わせて4つのレベルでのエンコードを行うこととなる。プリレンダリングはStatic ObjectとDynamic Objectの設定をすることで実行できる。Static Objectはその言葉の通り、固定されたオブジェクトである。この際に選択できるStatic Object Configurationは複数種類が用意されており、ミキシングにおけるパンニングの配置に合わせて最適なものを選択することができるようになっている。デフォルトでは、4.4.2 Static Objectで10オブジェクトを使用し、各Levelの最大オブジェクト数まではDynamic Objectに設定できる。Dynamic Objectはそのトラックを単独のObjectとして書き出すことで、360 WalkMix Creator™上でミキシングしたデータそのままとなり、Static Objectは360 WalkMix Creator™にプリセットされている様々なStatic Object Configurationに合わせてレンダリングアウトが書き出される。 📸 エンコードの際には、こちらの画面のように6種類のデータが書き出される。Level 0.5~3までは本文で解説をしているのでそちらをご参照いただきたい。それ以外の項目となるプリレンダリングは360 Reality Audio Music Formatへエンコードする直前の.wavのデータ、要は非圧縮状態で書き出されたものとなる。選択スピーカー別出力は、モニターするために選択しているスピーカーフォーマットに合わせた.wavファイルの書き出し。例えば、5.5.3のスピーカー配置で視聴しているのであれば、13chの.wavファイルとして各スピーカーに合わせてレンダリングされたものが出力される。 Static Object Configurationのプリセットはかなりの種類が用意されている。前方へ集中的に音を集めているのであれば5.3.2、空間全体に音を配置しているのであれば4.4.2、推奨の制作スピーカーセットを再現するのであれば5.5.3など実音源が多い部分にStatic Object が来るように選択する。いたずらにオブジェクト数の多いものを選択するとDynamic Objectに割り振ることができるオブジェクト数を減らしてしまうので、ここはまさにトレードオフの関係性である。もちろん、オブジェクト数の多いStatic Objectのプリセットを選択することで空間の再現性は向上する。しかし、単独オブジェクトとして存在感高く再生が可能なDynamic Object数が減ってしまうということになる。基本的に音圧の高い、重要なトラックをDynamic Objectとして書き出すことが推奨されている。具体的には、ボーカルなどのメロディーがそれにあたる。それ以外にも特徴的なパンニングオートメーションが書かれているトラックなどもDynamic Objectにすることで効果がより良く残せる。Static Objectに落とし込まずに単独のトラックのままで存在することができるためにそのサウンドの純度が保たれることとなる。 ミキシングをおこなったトラックごとにStaticとするのか、Dynamicとするのかを選択することができる。このStatic/Dynamicの選択、そしてStatic Object Configurationのプリセットの選択が、エンコード作業の肝となる。この選択により出来上がった360 Reality Audio Music Formatのデータはかなり変化する。いかに360 WalkMix Creator™でミックスしたニュアンスを余すことなくエンコードするか、なににフォーカスをするのか、空間をどのように残すのか。まさに制作意図を反映するための判断が必要な部分となる。 ●Static Object Configuration設定一覧 これら掲載した画面が360 WalkMix Creator™で選択できるStatic Object Configurationのプリセット一覧となる。プリセットされたレンダリングアウトの位置は、できる限り共通化されていることもこのように一覧すれば見て取ることができるだろう。基本はITU準拠の5.1ch配置からの拡張であり、Dolby Atmosを意識したような配置、AURO 3Dを意識したような配置もあることがわかる。5chサラウンドの拡張の系統とは別に、開き角45度のグループもあり、スピーカー間が90度で等間隔になる最低限の本数で最大の効果が得られるような配置のものも用意されている。 下方向をどれくらい使っているのか?上空は?そういった観点から適切なプリセットを選ぶことで再現性を担保し、重要なトラックに関してはDynamic Objectとして独立させる。Static Objectを多くすればその分全体の再現性は上がるが、使えるDynamic Objectのオブジェクト数が減ってしまう。これは難しい判断を強いられる部分ではあるが、トレードオフの関係となるためあらかじめ念頭に置いておくべきだろう。この仕組みを理解して作業にあたることで、よりよい状態の信号を360 Reality Audio Music Formatファイルで書き出すことが可能となる。 Chapter 3:360 Reality Audioの現在地 Dolby Atmosとの互換性 昨年の空間オーディオのサービスインから、注目を集めているDolby Atmos Music。そのフォーマットで制作した音源と360 Reality Audioの互換性は?やはりイチから作り直さなければならないのか?制作者にとって大きなハードルになっているのではないだろうか。フォーマットが増えたことにより作業量が倍増してしまうのでは、なかなか現場としては受け入れがたいものがあるのも事実。実際のところとしては、Dolby Atmosで制作した音源をRenderingしたWAVファイルを360 WalkMix Creator™でそのチャンネルベースの位置に配置することで再現することが可能である。その際にできる限り多くのスピーカーを使用したWAVをDolby Atmos Redererから書き出すことでその再現性を高めることも可能だ。なお、逆パターンの360 Reality AudioからDolby Atmosの場合には、南半球の取り扱いがあるためそのままというわけにはいかない。どうしても行き先のないトラックが出てきてしまうためである。 📸 360 WalkMix Creator™上でDolby Atmosを展開する一例がこちら。Dolby Atmosから7.1.4のレンダリングアウトを.wavで出力し、360 WalkMix Creator™内に配置したしたという想定だ。さらにチャンネル数を増やすことも可能(Atmos Rendererの最大レンダリング出力は11.1.10)だが、今回はわかりやすくベーシックなものとしている。ここでの問題はLFE chだ。 360 Reatily AudioにはLFEが存在しないため、少し下方向から再生することで効果的に使用することができるのではないか。LFEに関しては特に決まりはないため耳で聴いてちょうどよいバランスに合わせる必要がある。 Dolby Atmos Redererからは、最大11.1.10chの書き出しが可能である。360 Reality AudioにはLFE chが用意されていないため、ここの互換性に注意すれば、南半球は無いがかなり高いレベルでの互換を取れた状態が確保されていると言えるだろう。360 WalkMix Creator™に11.10.0というStatic Objectのプリセットがあれば完璧なのだが、次のアップデートでの実装に期待したいところである。また、Rendering Outを行う際にVocalなどDynamic Objectにアサインしたいものだけを省いておくことでDynamic Objectも活用することができる。もちろん、ワンボタンでという手軽さではないが、イチからミックスをやり直すことなく同等の互換性を確保することが可能なところまできている。 日進月歩の進化を見せる360 Reality Audioの制作環境。制作のための全てのコンポーネントがもうじき出揃うはずである。そして、制作物をユーザーへデリバリーする方法も整ってきている。双璧をなすDolby Atmosとの互換性など制作のノウハウ、実績も日々積み上げられていっているところだ。まさにイマーシブ・オーディオ制作は第2フェーズへと歩みを進めている。ぜひともこの新しい世界へと挑戦してもらいたい。 360 WalkMix Creator™ ¥64,900(税込) ソニー 360 Reality Audioを制作するためのツールがこの「360 WalkMix Creator™」。AAXはもちろん、VST / AUにも対応しているため、ホストDAWを選ばずに360 Reality Audioのミキシングを行うことができる。 製品購入ページ(RockoN eStore) 製品紹介ページ クリエーター向け 360 Reality Audio HP *ProceedMagazine2022号より転載 https://pro.miroc.co.jp/headline/comparison-of-atmos-360ra/
ソニーグループ内でポストプロダクション等の事業を行っているソニーPCL株式会社(以下、ソニーPCL)。360RAは音楽向けとしてリリースされたが、360RAを含むソニーの360立体音響技術群と呼ばれる要素技術の運用を行っている。昨年システムの更新を行ったMA室はすでに360RAにも対応し、360立体音響技術群のテクノロジーを活用した展示会映像に対する立体音響の制作、360RAでのプロモーションビデオのMA等をすでに行っている。 独自のアウトプットバスで構成されたMA室 ソニーPCLは映像・音響技術による制作ソリューションの提供を行っており、360立体音響技術群を活用した新しいコンテンツ体験の創出にも取り組んでいる。現時点では映像と音声が一緒になった360RAのアウトプット方法は確立されていないため、クライアントのイメージを具現化するための制作ワークフロー構築、イベント等でのアウトプットを踏まえた演出提案など、技術・クリエイティブの両面から制作に携わっている。 この更新されたMA室はDolby Atmosに準拠したスピーカー設置となっている。360RA以前にポストプロダクションとしてDolby Atmosへの対応検討が進んでおり、その後に360RAへの対応という順番でソリューションの導入を行っている。そのため、天井にはすでにスピーカーが設置されていたので、360RAの特徴でもあるボトムへのスピーカーの増設で360RA制作環境を整えた格好だ。360RAはフルオブジェクトのソリューションとなるため、スピーカーの設置位置に合わせてカスタムのアウトプットバスを組むことでどのようなスピーカー環境にも対応可能である。360RACSには最初から様々なパターンのスピーカーレイアウトファイルが準備されているので、たいていはそれらで対応可能である。とはいえスタジオごとのカスタム設定に関しても対応を検討中とのことだ。 📷デスクの前方にはスクリーンが張られており、L,C,Rのスピーカーはこのスクリーンの裏側に設置されている。スクリーンの足元にはボトムの3本のスピーカーが設置されているのがわかる。リスニングポイントに対して机と干渉しないギリギリの高さと角度での設置となっている。 📷できる限り等距離となるように、壁に寄せて設置ができるよう特注のスタンドを用意した。スピーカーは他の製品とのマッチを考え、Neumann KH120が選ばれている。 360RAの制作にあたり、最低これだけのスピーカーがあったほうが良いというガイドラインはある。具体的には、ITU準拠の5chのサラウンド配置のスピーカーが耳の高さにあたる中層と上空の上層にあり、フロントLCRの位置にボトムが3本という「5.0.5.3ch」が推奨されている。フル・オブジェクトということでサブウーファーchは用意されていない。必要であればベースマネージメントによりサブウーファーを活用ということになる。ソニーPCLではDolby Atmos対応の部屋を設計変更することなく、ボトムスピーカーの増設で360RAへと対応させている。厳密に言えば、推奨環境とは異なるが、カスタムのアウトプット・プロファイルを作ることでしっかりと対応している。 ソニーPCLのシステムをご紹介しておきたい。一昨年の改修でそれまでの5.1ch対応の環境から、9.1.4chのDolby Atmos対応のスタジオへとブラッシュアップされている。スピーカーはProcellaを使用。このスピーカーは、奥行きも少なく限られた空間に対して多くのスピーカーを増設する、という立体音響対応の改修に向いている。もちろんそのサウンドクオリティーも非常に高い。筐体の奥行きが短いため、天井への設置時の飛び出しも最低限となり空間を活かすことができる。この更新時では、既存の5.1chシステムに対しアウトプットが増えるということ、それに合わせスピーカープロセッサーに必要とされる処理能力が増えること、これらの要素を考えてAudio I/OにはAvid MTRX、スピーカープロセッサーにはYAMAHA MMP1という組み合わせとなっている。 📷天井のスピーカーはProcellaを使用。内装に極力手を加えずに設置工事が行われた。天井裏の懐が取れないためキャビネットの厚みの薄いこのモデルは飛び出しも最小限にきれいに収まっている。 4π空間を使い、究極のコンテンツ体験を作る なぜ、ソニーPCLはこれらの新しいオーディオフォーマットに取り組んでいるのであろうか?そこには、歴史的にも最新の音響技術のパイオニアであり、THX認証(THXpm3)でクオリティーの担保された環境を持つトップレベルのスタジオであるということに加えて、顧客に対しても安心して作業をしてもらえる環境を整えていくということに意義を見出しているからだ。5.1chサラウンドに関しても早くから取り組みを始め、先輩方からの技術の系譜というものが脈々と続いている。常に最新の音響技術に対してのファーストランナーであるとともに、3D音響技術に関してもトップランナーで在り続ける。これこそがソニーPCLとしての業界におけるポジションであり、守るべきものであるとのお話をいただいた。エンジニアとしての技術スキルはもちろんだが、スタジオは、音響設計とそこに導入される機材、そのチューニングと様々な要素により成り立っている。THXは一つの指標ではあるが、このライセンスを受けているということは、自信を持ってこのスタジオで聴いた音に間違いはないと言える、大きなファクターでもある。 📷デスク上は作業に応じてレイアウトが変更できるようにアームで取り付けられた2つのPC Displayと、Avid Artist Mix、JL Cooper Surrond Pannerにキーボード、マウスと機材は最小限に留めている。 映像に関してのクオリティーはここで多くは語らないが、国内でもトップレベルのポストプロダクションである。その映像と最新の3D立体音響の組み合わせで、「究極のコンテンツ体験」とも言える作品を作ることができるスタジオになった。これはライブ、コンサート等にとどまらず、歴史的建造物、自然環境などの、空気感をあますことなく残すことができるという意味が含まれている。自然環境と同等の4πの空間を全て使い音の記録ができる、これは画期的だ。商用としてリリースされた初めての完全なる4πのフォーマットと映像の組み合わせ、ここには大きな未来を感じているということだ。 また、映像とのコラボレーションだけではなく、ソニー・ミュージックスタジオのエンジニアとの交流も360RAによりスタートしているということだ。これまでは、音楽スタジオとMAスタジオという関係で素材レベルのやり取りはあったものの、技術的な交流はあまりなかったということだが、360RAを通じて今まで以上のコミュニケーションが生まれているということだ。ソニーR&Dが要素を開発した360立体音響技術群、それを実際のフォーマットに落とし込んだソニーホームエンタテイメント&サウンドプロダクツなど、ソニーグループ内での協業が盛んとなり今までにない広がりを見せているということだ。このソニーグループ内の協業により、どのような新しい展開が生まれるのか?要素技術である360立体音響技術群の大きな可能性を感じる。すでに、展示会場やイベント、アミューズメントパークなど360RAとは異なる環境でこの技術の活用が始まってきている。フルオブジェクトには再生環境を選ばない柔軟性がある。これから登場する様々なコンテンツにも注目をしたいところだ。 現場が触れた360RAのもたらす「リアル」 360RAに最初に触れたときにまず感じたのは、その「リアル」さだったということだ。空間が目の前に広がり、平面のサラウンドでは到達できなかった本当のリアルな空間がそこに再現されていることに大きな驚きがあったという。ポストプロダクションとしては、リアルに空間再現ができるということは究極の目的の一つでもある。音楽に関しては、ステレオとの差異など様々な問題提議が行われ試行錯誤をしているが、映像作品にこれまでにない「リアル」な音響空間が加わるということは大きな意味を持つ。報道、スポーツ中継などでも「リアル」が加わることは重要な要素。当初は即時性とのトレードオフになる部分もあるかもしれない。立体音響でのスポーツ中継など想像しただけでも楽しみになる。 実際の使い勝手の詳細はまだこれからといった段階だが、定位をDAWで操作する感覚はDTS:Xに近いということだ。将来的にはDAWの標準パンナーで動かせるように統合型のインターフェースになってほしいというのが、現場目線で求める将来像だという。すでにDAWメーカー各社へのアプローチは行っているということなので、近い将来360RAネイティブ対応のDAWなども登場するのではないだろうか。 もともとサラウンドミックスを多数手がけられていたことから、サウンドデザイン視点での試行錯誤もお話しいただくことができた。リバーブを使って空間に響きを加える際にクアッド・リバーブを複数使用し立方体を作るような手法。移動を伴うパンニングの際に、オブジェクトの移動とアンプリチュード・パンを使い分ける手法など、360RAの特性を色々と研究しながら最適なミックスをする工夫を行っているということだ。 3Dと呼ばれる立体音響はまさに今黎明期であり、さまざまなテクノロジーが登場している途中の段階とも言える。それぞれのメリット、デメリットをしっかりと理解し、適材適所で活用するスキルがエンジニアに求められるようになってきている。まずは、試すことから始めそのテクノロジーを見極めていく必要があるということをお話いただいた。スペックだけではわからないのが音響の世界である。まずは、実際に触ってミックスをしてみて初めて分かる、気づくことも多くある。そして、立体音響が普及していけばそれに合わせた高品位な映像も必然的に必要となる。高品位な映像があるから必要とされる立体音響。その逆もまた然りということである。 📷上からAntelope Trinity、Avid SYNC HD,Avid MTRX、YAMAHA MMP1が収まる。このラックがこのスタジオのまさに心臓部である。 📷ポスプロとして従来のサラウンドフォーマットへの対応もしっかりと確保している。Dolby Model DP-564はまさにその証ともいえる一台。 📷このiPadでYAMAHA MMP1をコントロールしている。このシステムが多チャンネルのモニターコントロール、スピーカーマネージメントを引き受けている。 ソニーPCLでお話を伺った喜多氏に、これから立体音響、360RAへチャレンジする方へのコメントをいただいた。「まずは、想像力。立体空間を音で表現するためには想像力を膨らませてほしい。従来のステレオ、5.1chサラウンドのイメージに縛られがちなので、想像力によりそれを広げていってもらいたい。この情報過多の世界で具体例を見せられてばかりかもしれないが、そもそも音は見えないものだし、頭の中で全方向からやってくる音をしっかりとイメージして設計をすることで、立体音響ならではの新しい発見ができる。是非とも誰もが想像していなかった新しい体験を作り上げていってほしい」とのことだ。自身もソニーグループ内での協業により、シナジーに対しての高い期待と360RAの持つ大きな可能性を得て、これからの広がりが楽しみだということだ。これから生まれていく360RAを活用した映像作品は間違いなく我々に新しい体験を提供してくれるだろう。 ソニーPCL株式会社 技術部門・アドバンスドプロダクション2部 テクニカルプロダクション1課 サウンドスーパーバイザー 喜多真一 氏 *取材協力:ソニー株式会社 *ProceedMagazine2021号より転載
360 Reality Audio(以下、360RA)の制作ツールとして満を持してこの4月にリリースされた360 Reality Audio Creative Suite(以下、360RACS)。360RAの特徴でもあるフル・オブジェクト・ミキシングを行うツールとしてだけではなく、360RAでのモニター機能にまで及び、将来的には音圧調整機能も対応することを計画している。具体的な使用方法から、どのような機能を持ったソフトウェアなのかに至るまで、様々な切り口で360RACSをご紹介していこう。 >>Part 1 :360 Reality Audio 〜ついにスタート! ソニーが生み出した新たな時代への扉〜 >>Part 2 :ソニー・ミュージックスタジオ 〜360 Reality Audio Mixing、この空間を楽しむ〜 全周=4π空間内に音を配置 360RACSのワークフローはまとめるとこのようになる。プラグインであるということと、プラグインからモニタリング出力がなされるという特殊性。最終のエンコードまでが一つのツールに詰め込まれているというところをご確認いただきたい。 360RACSは、アメリカAudio Futures社がリリースするプラグインソフトである。執筆時点での対応プラグイン・フォーマットはAAX、VSTとなっている。対応フォーマットは今後随時追加されていくということなので、現時点で対応していないDAWをお使いの方も読み飛ばさずに待ってほしい。Audio Futures社は、音楽ソフトウェア開発を行うVirtual Sonic社の子会社であり、ソニーとの共同開発契約をもとに、ソニーから技術提供を受け360RACSを開発している。360RAコンテンツの制作ツールは、当初ソニーが研究、開発用として作ったソフトウェア「Architect」のみであった。しかしこの「Architect」は、制作用途に向いているとは言えなかったため、現場から様々なリクエストが集まっていたことを背景に、それらを汲み取り制作に向いたツールとして新たに開発されたのがこの360RACSということになる。 それでは具体的に360RACSを見ていきたい。冒頭にも書いたが360RACSはプラグインである。DAWの各トラックにインサートすることで動作する。DAWの各トラックにインサートすると、360RACS上にインサートされたトラックが追加されていく。ここまで準備ができれば、あとは360RACS内で全周=4π空間内にそれぞれの音を配置していくこととなる。これまで音像定位を変化させるために使ってきたパンニングという言葉は、水平方向の移動を指す言葉である。ちなみに、縦方向の定位の移動を指す言葉はチルトだ。立体音響においてのパンニングにあたる言葉は確立されておらず、空間に定位・配置させるという表現となってしまうことをご容赦願いたい。 360RACS内で音像を定位させるには、画面に表示された球体にある音像の定位位置を示すボール状のポイントをドラッグして任意の場所に持っていけば良い。後方からと、上空からという2つの視点で表示されたそれぞれを使うことで、簡単に任意の場所へと音像を定位させることができる。定位をさせた位置情報はAzimuth(水平方向を角度で表現)とElevation(垂直方向を角度で表現)の2つのパラメータが与えられる。もちろん、数値としてこれらを入力することも可能である。 📷360RACSに送り込まれた各オブジェクトは、Azimuth(アジマス)、Elavation、Gainの3つのパラメーターにより3D空間内の定位を決めていくこととなる。 360RAでは距離という概念は無い。これは現時点で定義されているMPEG-Hの規格にそのパラメータの運用が明確に定義されていないということだ。とはいえ、今後サウンドを加工することで距離感を演出できるツールやなども登場するかもしれない。もちろん音の強弱によっても遠近をコントロールすることはできるし、様々な工夫により擬似的に実現することは可能である。ただ、あくまでも360RAのフォーマット内で、という限定された説明としては距離のパラメーターは無く、360RAにおいては球体の表面に各ソースとなる音像を定位させることができるということである。この部分はネガティブに捉えないでほしい。工夫次第でいくらでも解決方法がある部分であり、これからノウハウ、テクニックなどが生まれる可能性が残された部分だからだ。シンプルな例を挙げると、360RACSで前後に同じ音を定位させ、そのボリューム差を変化させることで、360RAの空間内にファントム定位を作ることも可能だということである。 4π空間に定位した音は360RACSで出力 360RACSはそのままトラックにインサートするとプリフェーダーでインサートされるのでDAWのフェーダーは使えなくなる。もちろんパンも同様である。これはプラグインのインサートポイントがフェーダー、パンよりも前の段階にあるということに起因しているのだが、360RACS内に各トラックのフェーダーを用意することでこの部分の解決策としている。音像の定位情報とともに、ボリューム情報も各トラックのプラグインへオートメーションできる情報としてフィードバックされているため、ミキシング・オートメーションのデータは全てプラグインのオートメーションデータとしてDAWで記録されることとなる。 📷各トラックにプラグインをインサートし、360RACS内で空間定位を設定する。パンニング・オートメーションはプラグイン・オートメーションとしてDAWに記録されることとなる。 次は、このようにして4π空間に定位した音をどのようにモニタリングするのか?ということになる。360RACSはプラグインではあるが、Audio Interfaceを掴んでそこからアウトプットをすることができる。これは、DAWが掴んでいるAudio Outputは別のものになる。ここでヘッドホンであれば2chのアウトプットを持ったAudio Interfaceを選択すれば、そこから360RACSでレンダリングされたヘッドホン向けのバイノーラル出力が行われるということになる。スピーカーで聴きたい場合には、標準の13ch(5.0.5.3ch)を始め、それ以外にもITU 5.1chなどのアウトプットセットも用意されている。もちろん高さ方向の再現を求めるのであれば、水平面だけではなく上下にもスピーカーが必要となるのは言うまでもない。 📷360RACSの特徴であるプラグインからのオーディオ出力の設定画面。DAWから受け取った信号をそのままスピーカーへと出力することを実現している。 360RACSの機能面を見ていきたい。各DAWのトラックから送られてきたソースは360RACS内でグループを組むことができる。この機能により、ステレオのソースなどの使い勝手が向上している。全てを一つのグループにしてしまえば、空間全体が回転するといったギミックも簡単に作れるということだ。4π空間の表示も上空から見下ろしたTop View、後方から見たHorizontal View、立体的に表示をしたPerspective Viewと3種類が選択できる。これらをの表示を2つ組み合わせることでそれぞれの音像がどのように配置されているのかを確認することができる。それぞれの定位には、送られてきているトラック名が表示されON/OFFも可能、トラック数が多くなった際に文字だらけで見にくくなるということもない。 360RACS内に配置できるオブジェクトは最大128ch分で、各360RACS内のトラックにはMute/Soloも備えられる。360RACSでの作業の際には、DAWはソースとなる音源のプレイヤーという立ち位置になる。各音源は360RACSのプラグインの前段にEQ/Compなどをインサートすることで加工することができるし、編集なども今まで通りDAW上で行えるということになる。その後に、360RACS内で音像定位、ボリュームなどミキシングを行い、レンダリングされたアウトプットを聴くという流れだ。このレンダリングのプロセスにソニーのノウハウ、テクノロジーが詰まっている。詳細は別の機会とするが、360立体音響技術群と呼ばれる要素技術開発で積み重ねられてきた、知見やノウハウにより最適に立体空間に配置されたサウンドを出力している。 Level 1~3のMPEG-Hへエンコード 📷MPEG-Hのデータ作成はプラグインからのExportにより行う。この機能の実装により一つのプラグインで360RAの制作位の工程を包括したツールとなっている。 ミックスが終わった後は、360RAのファイルフォーマットであるMPEG-Hへエンコードするという処理が残っている。ここではLevel 1~3の3つのデータを作成することになり、Level 1が10 Object 64 0kbps、Level 2が16 Object 1Mbps、Level 3が 24 Object 1.5Mbpsのオーディオデータへと変換を行う。つまり、最大128chのオーディオを最小となるLevel 1の10trackまで畳み込む必要があるということだ。具体的には、同じ位置にある音源をグループ化してまとめていくという作業になる。せっかく立体空間に自由に配置したものを、まとめてしまうのはもったいないと感じるかもしれないが、限られた帯域でのストリーミングサービスを念頭とした場合には欠かせない処理だ。 とはいえ、バイノーラルプロセスにおいて人間が認知できる空間はそれほど微細ではないため、できる限り128chパラのままでの再現に近くなるように調整を行うこととなる。後方、下方など微細な定位の認知が難しい場所をまとめたり、動きのあるもの、無いものでの分類したり、そういったことを行いながらまとめることとなる。このエンコード作業も360RACS内でそのサウンドの変化を確認しながら行うことが可能である。同じ360RACSの中で作業を行うことができるため、ミックスに立ち返りながらの作業を手軽に行えるというのは大きなメリットである。このようなエンコードのプロセスを終えて書き出されたファイルが360RAのマスターということになる。MPEG-Hなのでファイルの拡張子は.MP4である。 執筆時点で、動作確認が行われているDAWはAvid Pro ToolsとAbleton Liveとなる。Pro Toolsに関しては、サラウンドバスを必要としないためUltimateでなくても作業が可能だということは特筆すべき点である。言い換えれば、トラック数の制約はあるがPro Tools Firstでも作業ができるということだ。全てが360RACS内で完結するため、ホストDAW側には特殊なバスを必要としない。これも360RACSの魅力の一つである。今後チューニングを進め、他DAWへの対応や他プラグインフォーマットへの展開も予定されている。音楽に、そして広義ではオーディオにとって久々の新フォーマットである360RAは制作への可能性を限りなく拡げそうだ。 *取材協力:ソニー株式会社 *ProceedMagazine2021号より転載 >>Part 2はこちらから https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-2/ >>Part 1はこちらから https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-1/
国内の正式ローンチに合わせ、多数の邦楽楽曲が360RAでミックスされた。その作業の中心となったのがソニー・ミュージックスタジオである。マスタリングルームのひとつを360RAのミキシングルームに改装し、2021年初頭より60曲あまりがミキシングされたという。そのソニー・ミュージックスタジオで行われた実際のミキシング作業についてお話を伺った。 >>Part 1:360 Reality Audio 〜ついにスタート! ソニーが生み出した新たな時代への扉〜 2ミックスの音楽性をどう定位していくか 株式会社ソニー・ミュージックソリューションズ ソニー・ミュージックスタジオ レコーディング&マスタリングエンジニア 鈴木浩二 氏(右) レコーディングエンジニア 米山雄大 氏(左) 2021年3月23日発のプレスリリースにあった楽曲のほとんどは、ここソニー・ミュージックスタジオでミキシングが行われている。360RAでリリースされた楽曲の選定は、各作品のプロデューサー、アーティストに360RAをプレゼン、実際に体験いただき360RAへの理解を深め、その可能性に賛同を得られた方から制作にあたったということだ。 実際に360RAでミキシングをしてみての率直な感想を伺った。ステレオに関しての経験は言うまでもなく、5.1chサラウンドでの音楽のミキシング作業の経験も豊富にある中でも、360RAのサウンドにはとにかく広大な空間を感じたという。5.1chサラウンドでの音楽制作時にもあった話だが、音楽として成立させるために音の定位はどこの位置までが許容範囲なのか?ということは360RAでも起こること。やはりボーカルなどのメロディーを担うパートが、前方に定位をしていないと違和感を感じてしまうし、平面での360度の表現から高さ方向の表現が加わったことで、5.1chから更に広大な空間に向き合うことになり正直戸惑いもあったということだ。その際は、もともとの2chのミックスを音楽性のリファレンスとし、その音楽性を保ったまま空間に拡張していくというイメージにしたという。 360RAは空間が広いため、定位による表現の自由度は圧倒的だ。白紙の状態から360RAの空間に音を配置して楽曲を成立させるには、やはり従来の2chミキシングで培った表現をベースに拡張させる、という手法を取らないとあまりにも迷いが多い。とはいえ、始まったばかりの立体音響でのミキシング、「正解はない」というのもひとつの答えである。さらなる試行錯誤の中から、新しいセオリー、リファレンスとなるような音像定位が生まれてくるのではないだろうか。もちろん従来のステレオで言われてきた、ピラミッド定位などというミキシングのセオリーをそのまま360RAで表現しても良い。その際に高さを表現するということは、ステレオ・ミキシングでは高度なエンジニアリング・スキルが要求されたが、360RAではオブジェクト・パンの定位を変えるだけ、この簡便さは魅力の一つだ。 試行錯誤の中から得られた経験としては、360RAの広大な空間を広く使いすぎてしまうと、細かな部分や気になる部分が目立ってしまうということ。実際に立体音響のミキシングで直面することだが、良くも悪くもステレオミキシングのようにそれぞれの音は混ざっていかない。言葉で言うのならば、ミキシング(Mixing)というよりもプレイシング(Placing)=配置をしていくという感覚に近い。 また、360RAだけではなく立体音響の大きな魅力ではあるが、クリアに一つ一つのサウンドが聴こえてくるために、ステレオミックスでは気にならなかった部分が気になってしまうということも起こり得る。逆に、アーティストにとってはこだわりを持って入れたサウンド一つ一つのニュアンスが、しっかりとしたセパレーションを持って再生されるためにミックスに埋もれるということがない。これは音楽を生み出す側としては大きな喜びにつながる。このサウンドのセパレーションに関しては、リスナーである我々が2chに収められたサウンドに慣れてしまっているだけかもしれない。これからは、この「混ざらない」という特徴を活かした作品も生まれてくるのではないだろうか。実際に音楽を生み出しているアーティストは2chでの仕上がりを前提に制作し、その2chの音楽性をリファレンスとして360RAのミキシングが行われている。当初より360RAを前提として制作された楽曲であれば、全く新しい世界が誕生するのかもしれない。 実例に即したお話も聞くことができた。ゴスペラーズ「風が聴こえる」を360RAでミキシングをした際に、立体的にサウンドを動かすことができるため、当初は色々と音に動きのあるミキシングを試してみたという。ところが、動かしすぎることにより同時に主題も移動してしまって音楽性が損なわれてしまったそうだ。その後のミックスでは、ステレオよりも広くそれぞれのメンバーを配置することで、ステレオとは異なるワイドなサウンドが表現しているという。360RAでミキシングをすることで、それぞれのメンバーの個々のニュアンスがしっかりとクリアに再生され、ステレオであれば聴こえなかった音がしっかりと届けられるという結果が得られ、好評であったということだ。まさに360RAでのミキシングならではのエピソードと言えるだろう。 📷元々がマスタリングルームあったことを偲ばせる巨大なステレオスピーカーの前に、L,C,R+ボトムL,C,Rの6本のスピーカーがスタンドに設置されている。全てMusik Electornic Gaithain m906が採用され、純正のスタンドを改造してボトムスピーカーが据え付けられている。天井には天吊で同じく906があるのがわかる。 高さ方向をミックスで活用するノウハウ 5.1chサラウンドから、上下方向への拡張がなされた360RA。以前から言われているように人間の聴覚は水平方向に対しての感度は高いが、上下方向に関しては低いという特徴を持っている。これは、物理的に耳が左右についているということに起因する。人間は水平方向の音を左右の耳に届く時間差で認識している、単純に右から来る音は右耳のほうが少しだけ早く聴こえるということだ。しかし、高さ方向に関してはそうはいかない。これは、こういう音はこちらから聴こえている「はず」という人の持つ経験で上下を認識しているためだ。よって、360RAでの上下方向のミキシングはセオリーに沿った音像配置を物理的に行う、ということに向いている。例えば、低音楽器を下に、高音楽器を上にといったことだ。これによりその特徴が強調された表現にもなる。もちろん、逆に配置して違和感を効果的に使うといった手法もあるだろう。また、ステレオMIXでボーカルを少し上から聴こえるようにした「おでこから聴こえる」などと言われるミックスバランスも、物理的にそれを配置することで実現が可能である。これにより、ボーカルの明瞭度を増して際立たせることもできるだろう。 音楽的なバランスを取るためにも、この上下方向をサウンドの明瞭度をつけるために活用するのは有効だ、という経験談もいただくことができた。水平面より少し上のほうが明瞭度が高く聴こえ、下に行けば行くほど明瞭度は落ちる。上方向も行き過ぎるとやはり明瞭度は落ちる。聴かせたいサウンドを配置する高さというのはこれまでにないファクターではあるが、360RAのミキシングのひとつのポイントになるのではないだろうか。また、サウンドとの距離に関しても上下で聴感上の変化があるということ。上方向に比べ、下方向のほうが音は近くに感じるということだ。このように360RAならではのノウハウなども、試行錯誤の中で蓄積が始まっていることが感じられる。 📷天井には、円形にバトンが設置され、そこにスピーカーが吊るされている。このようにすることでリスニングポイントに対して等距離となる工夫がなされている。 📷ボトムのスピーカー。ミドルレイヤーのスピーカーと等距離となるように前方へオフセットして据え付けられているのがわかる。 理解すべき広大な空間が持つ特性 そして、360RAに限らず立体音響全般に言えることなのだが、サウンド一つ一つがクリアになり明瞭度を持って聴こえるという特徴がある。また、トータルコンプの存在していない360RAの制作環境では、どうしてもステレオミックスと比較して迫力やパンチに欠けるサウンドになりやすい。トータルコンプに関しては、オブジェクトベース・オーディオ全てにおいて存在させることが難しい。なぜなら、オブジェクトの状態でエンドユーザーの手元にまで届けられ、最終のレンダリング・プロセスはユーザーが個々に所有する端末上で行われるためだ。また、バイノーラルという技術は、音色(周波数分布)や位相を変化させることで擬似的に上下定位や後方定位を作っている。そのためトータルコンプのような、従来のマスタリング・プロセッサーはそもそも使うことができない。 そして、比較対象とされるステレオ・ミックスはある意味でデフォルメ、加工が前提となっており、ステレオ空間という限られたスペースにノウハウを駆使してサウンドを詰め込んだものとも言える。広大でオープンな空間を持つ立体音響にパンチ感、迫力というものを求めること自体がナンセンスなのかもしれないが、これまでの音楽というものがステレオである以上、これらが比較されてしまうのはある意味致し方がないのかもしれない。360RAにおいても個々の音をオブジェクトとして配置する前にEQ/COMPなどで処理をすることはもちろん可能だ。パンチが欲しいサウンドはそのように聴こえるよう予め処理をしておくことで、かなり求められるニュアンスを出すことはできるということだ。 パンチ感、迫力といったお話をお伺いしていたところ、ステレオと360RAはあくまでも違ったもの、是非とも360RAならではの体験を楽しんでほしいというコメントをいただいた。まさにその通りである。マキシマイズされた迫力、刺激が必要であればステレオという器がすでに存在している。ステレオでは表現、体験のできない新しいものとして360RAを捉えるとその魅力も際立つのではないだろうか。ジャズなどのアコースティック楽器やボーカルがメインのものは不向きかもしれないが、ライブやコンサート音源など空間を表現することが得意な360RAでなければ再現できない世界もある。今後360RAでの完成を前提とした作品が登場すればその魅力は更に増すこととなるだろう。 360RAならではの魅力には、音像がクリアに分離して定位をするということと空間再現能力の高さがある。ライブ会場の観客のリアクションや歓声などといった空気感、これらをしっかりと収録しておくことでまさにその会場にいるかのようなサウンドで追体験できる。これこそ立体音響の持つイマーシブ感=没入感だと言えるだろう。すでに360RAとしてミキシングされたライブ音源は多数リリースされているので是非とも楽しんでみてほしい。きっとステレオでは再現しえない”空間”を感じていただけるであろう。屋根があるのか?壁はどのようになっているのか?といった会場独自のアコースティックから、残響を収録するマイクの設置位置により客席のどのあたりで聴いているようなサウンドにするのか?そういったことまで360RAであれば再現が可能である。 この空間表現という部分に関しては、今後登場するであろうディレイやリバーブに期待がかかる。本稿執筆時点では360RAネイティブ対応のこれら空間系のエフェクトは存在せず、今後のリリースを待つこととなる。もちろん従来のリバーブを使い、360RAの空間に配置することで残響を加えることは可能だが、もっと直感的に作業ができるツール、360RAの特徴に合わせたツールの登場に期待がかかる。 360RAにおけるマスタリング工程の立ち位置 かなり踏み込んだ内容にはなるが、360RAの制作において試行錯誤の中から答えが見つかっていないという部分も聞いた、マスタリングの工程だ。前述の通り、360RAのファイナルのデータはLevel 1~3(10ch~24ch)に畳み込まれたオブジェクト・オーディオである。実作業においては、Level 1~3に畳み込むエンコードを行うことが従来のマスタリングにあたるのだが、ステレオの作業のようにマスタリングエンジニアにミックスマスターを渡すということができない。このLevel 1~3に畳み込むという作業自体がミキシングの延長線上にあるためだ。 例えば、80chのマルチトラックデータを360RAでミキシングをする際には、作業の工程として80ch分のオブジェクト・オーディオを3D空間に配置することになり、これらをグループ化して10ch~24chへと畳み込んでいく。単独のオブジェクトとして畳み込むのか?オブジェクトを2つ使ってファントムとして定位させるのか、そういった工程である。これらの作業を行いつつ、同時に楽曲間のレベル差や音色などを整えるということは至難の業である。また、個々のオブジェクト・オーディオはオーバーレベルをしていなかったとしても、バイノーラルという2chに畳み込む中でオーバーレベルしてしまうということもある。こういった部分のQC=Quality Controlに関しては、まだまだ経験も知見も足りていない。 もちろん、そういったことを簡便にチェックできるツールも揃っていない。色々と工夫をしながら進めているが、現状ではミキシングをしたエンジニアがそのまま作業の流れで行うしかない状況になっているということだ。やはり、マスタリング・エンジニアという第3者により最終のトリートメントを行ってほしいという思いは残る。そうなると、マスタリングエンジニアがマルチトラックデータの取扱いに慣れる必要があるのか?それともミキシングエンジニアが、さらにマスタリングの分野にまで踏み込む必要があるのか?どちらにせよ今まで以上の幅広い技術が必要となることは間違いない。 個人のHRTFデータ取得も現実的な方法に ヘッドホンでの再生が多くなるイメージがある360RAのミキシングだが、どうしてもバイノーラルとなると細かい部分の詰めまでが行えないため、実際の作業自体はやはりスピーカーがある環境のほうがやりやすいとのことだ。そうとはいえ、360RAに対応したファシリティーは1部屋となるため、ヘッドホンを使ってのミキシングも平行して行っているということだが、その際には360RAのスピーカーが用意されたこの部屋の特性と、耳にマイクを入れて測定をした個人個人のHRTFデータを使い、かなり高い再現性を持った環境でのヘッドホンミックスが行えているということだ。 個人のHRTFデータを組み込むという機能は、360RACSに実装されている。そのデータをどのようにして測定してもらい、ユーザーへ提供することができるようになるのかは、今後の課題である。プライベートHRTFがそれほど手間なく手に入り、それを使ってヘッドホンミックスが行えるようになるということが現実になれば、これは画期的な出来事である。これまで、HRTFの測定には椅子に座ったまま30分程度の計測時間が必要であったが、ソニーの独自技術により耳にマイクを入れて30秒程度で計測が完了するということを筆者も体験している。これが一般にも提供されるようになれば本当に画期的な出来事となる。 📷Pro Tools上に展開された360 Reality Audio Creative Suite(360RACS) 「まだミキシングに関しての正解は見つかっていない。360RACSの登場で手軽に制作に取り組めるようになったので、まずは好きに思うがままに作ってみてほしい。」これから360RAへチャレンジをする方へのコメントだ。360RAにおいても録音をするテクニック、個々のサウンドのトリートメント、サウンドメイクにはエンジニアの技術が必要である。そして、アーティストの持つ生み出す力、創造する力を形にするための360RAのノウハウ。それらが融合することで大きな化学反応が起こるのではないかということだ。試行錯誤は続くが、それ自体が新しい体験であり、非常に楽しんで作業をしているということがにじむ。360RAというフォーマットを楽しむ、これが新たな表現への第一歩となるのではないだろうか。 >>Part 3:360 Reality Audio Creative Suite 〜新たなオーディオフォーマットで行う4π空間への定位〜 *取材協力:ソニー株式会社 *ProceedMagazine2021号より転載 https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-3/ https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-1/
ついに2021年4月16日に正式リリースとなった 360 Reality Audio(以下、360RA)。読み方は”サンロクマル・リアリティー・オーディオ”となるこの最新のオーディオ体験。これまでにも色々とお伝えしてきているが、日本国内でのリリースと同時に、360RAの制作用のツールとなる360 Reality Audio Creative Suiteもリリースされている。360RAとは一体何なのか?どのようにして作ればよいのか?まずは、そのオーバービューからご紹介していこう。 ソニーが作り出してきたオーディオの時代 まず最初に、ソニーとAudioの関係性を語らないわけにはいかない。コンシューマ・オーディオの分野では、常にエポックメイキングな製品を市場にリリースしてきている。その代表がウォークマン®であろう。今では当たり前となっている音楽を持ち歩くということを世界で初めて実現した電池駆動のポータブル・カセットテープ・プレイヤーである。10代、20代の読者は馴染みが薄いかもしれないが、据え置きの巨大なオーディオコンポや、ラジオとカセットプレイヤーを一体にしたラジカセが主流だった時代に、電池で動作してヘッドホンでどこでも好きな場所で音楽を楽しむことができるウォークマン®はまさにエポックな製品であり、音楽の聴き方を変えたという意味では、時代を作った製品であった。みんなでスピーカーから出てくる音楽を楽しむというスタイルから、個人が好きな音楽をプライベートで楽しむという変化を起こしたわけだ。これは音楽を聴くという体験に変化をもたらしたとも言えるだろう。 ほかにもソニーは、映画の音声がサラウンドになる際に大きなスクリーンの後ろで通常では3本(L,C,R)となるスピーカーを5本(L,LC,C,RC,R)とする、SDDS=Sony Dynamic Digital Soundというフォーマットを独自で提唱したり、ハイレゾという言葉が一般化する以前よりPCMデジタルデータでは再現できない音を再生するために、DSDを採用したスーパーオーディオCD(SACD)を作ったり、と様々な取り組みを行っている。 そして、プロフェッショナル・オーディオ(音響制作機器)の市場である。1980年代よりマルチチャンネル・デジタルレコーダーPCM-3324/3348シリーズ、Oxford R3コンソール、CDのマスタリングに必須のPCM-1630など、音声、特に音楽制作の中心にはソニー製品があった。いまではヘッドホン、マイクは例外に、プロシューマー・マーケットでソニー製品を見ることが少なくなってしまっているが、その要素技術の研究開発は続けられており、コンシューマー製品へしっかりとフィードバックが行われているのである。「制作=作るため」の製品から「利用する=再生する」製品まで、つまりその技術の入口から出口までの製品を揃えていたソニーのあり方というのは、形を変えながらも続いているのである。 PCM-3348 PCM-3348HR Oxford R3 PCM-1630 このようなソニーとAudioの歴史から見えてくるキーワードは、ユーザーへの「新しい体験の提供」ということである。CDではノイズのないパッケージを提供し、ウォークマン®ではプライベートで「どこでも」音楽を楽しむという体験を、SDDSは映画館で最高の臨場感を作り出し、SACDはまさしく最高となる音質を提供した。全てが、ユーザーに対して新しい体験を提供するという一つの幹から生えているということがわかる。新しい体験を提供するための技術を、難解なテクノロジーの状態からスタイリッシュな体験に仕立てて提供する。これがまさにソニーのAudio、実際はそれだけではなく映像や音声機器にも共通するポリシーのように感じる。 全周(4π)を再現する360RA ソニーでは要素技術として高臨場感音響に関しての研究が続けられていた。バーチャル・サラウンド・ヘッドホンや、立体音響を再生できるサラウンドバーなどがこれまでにもリリースされているが、それとはまた別の技術となる全周(4π)を再現するオーディオ技術の研究だ。そして、FraunhoferがMPEG-H Audioを提唱した際にこの技術をもって参画したことで、コンテンツとなるデータがその入れ物(コンテナ)を手に入れて一気に具体化、2019年のCESでの発表につながっている。CES2019の時点ではあくまでも技術展示ということだったが、その年の10月には早くもローンチイベントを行い欧米でのサービスをスタートさせている。日本国内でも各展示会で紹介された360RAは、メディアにも取り上げられその存在を知った方も多いのではないだろうか。特に2020年のCESでは、ソニーのブースでEVコンセプトの自動車となるVISION-Sが展示され大きな話題を呼んだが、この車のオーディオとしても360RAが搭載されている。VISION-Sではシートごとにスピーカーが埋め込まれ立体音響が再生される仕様となっていた、この立体音響というのが360RAをソースとしたものである。 360RAはユーザーに対して「新しい体験」を提供できる。機器自体は従来のスマホや、ヘッドホン、イヤホンであるがそこで聴くことができるサウンドは、まさにイマーシブ(没入)なもの。もちろんバイノーラル技術を使っての再生となるが、ソニーのノウハウが詰まった独自のものであるということだ。また、単純なバイノーラルで収録された音源よりも、ミキシングなど後処理が加えられることで更に多くの表現を手に入れたものとなっている。特にライブ音源の再生においては非常に高い効果を発揮し、最も向いたソースであるという認識を持った。 バイノーラルの再生には、HRTF=頭部伝達関数と呼ばれる数値に基づいたエンコードが行われ、擬似的に左右のヘッドホン or イヤホンで立体的音響を再生する。このHRTFは頭の形、耳の形、耳の穴の形状など様々な要素により決まる個人ごとに差異があるもの。以前にも紹介したYAMAHAのViRealはこのHRTFを一般化しようという研究であったが、ソニーでは「Sony | Headphones Connect」と称されたスマートフォン用アプリで、個々に向けたHRTFを提供している。これは耳の写真をアップロードすることでビッグデータと照合し最適なパラメーターを設定、ヘッドホンフォン再生に適用することで360RAの体験を確実にし、ソニーが配信サービスに技術提供している。 Sony | Headphones Connectは一部のソニー製ヘッドホン用アプリとなるが、汎用のHRTFではなく個人に合わせて最適化されたHRTFで聴くバイノーラルは圧倒的である。ぼんやりとしか認識できなかった音の定位がはっきりし、後方や上下といった認識の難しい定位をしっかりと認識することができる。もちろん、個人差の出てしまう技術であるため一概に言うことはできないが、それでも汎用のHRTFと比較すれば、360RAでの体験をより豊かなものとする非常に有効な手法であると言える。この手法を360RAの体験向上、そしてソニーのビジネスモデルとして技術と製品を結びつけるものとして提供している。体験を最大化するための仕掛けをしっかりと配信サービスに提供するあたり、さすがソニーといったところだ。 360RAはいますぐ体験できる それでは、360RAが国内でリリースされ、実際にどのようにして聴くことができるようになったのだろうか?まず、ご紹介したいのがAmazon music HDとDeezerの2社だ。両社とも月額課金のサブスクリプション(月額聴き放題形式)のサービスである。ハイレゾ音源の聴き放題の延長線上に、立体音響音源の聴き放題サービスがあるとイメージしていただければいいだろう。視聴方法はこれらの配信サービスと契約し、Amazon music HDであればAmazon Echo Studioという立体音響再生に対応した専用のスピーカーでの再生となる。物理的なスピーカーでの再生はどうしても上下方向の再生が必要となるため特殊な製品が必要だが、前述のAmazon Echo Studioやサラウンドバーのほか、ソニーからも360RA再生に対応した製品としてSRS-RA5000、SRS-RA3000という製品が国内でのサービス開始とともに登場している。 また、Deezerではスマートフォンとヘッドホン、イヤホンでの再生、もしくは360RA再生に対応したBluetoothスピーカーがあれば夏にはスピーカーで360RAを楽しむことができる。スマートフォンは、ソニーのXperiaでなければならないということはない。Android搭載のデバイスでも、iOS搭載のデバイスでも楽しむことができる、端末を選ばないというのは実に魅力的だ。ヘッドホン、イヤホンも普通のステレオ再生ができるもので十分で、どのような製品でも360RAを聴くことができる。Sony | Headphones Connectの対象機種ではない場合はパーソナライズの恩恵は受けられないが、その際にはソニーが準備した汎用のHRTFが用いられることとなる。導入にあたり追加で必要となる特殊な機器もないため、興味を持った方はまずはDeezerで360RAのサウンドを楽しむのが近道だろうか。余談ではあるが、Deezerはハイレゾ音源も聴き放題となるサービス。FLAC圧縮によるハイサンプルの音源も多数あるため、360RAをお試しいただくとともにこちらも併せて聴いてみると、立体音響とはまた違った良さを発見できるはずだ。 そして、前述の2社に加えてnugs.netでも360 Reality Audioの楽曲が配信開始されている。360RAを体験していただければわかるが、立体音響のサウンドはまさに会場にいるかのような没入感を得ることができ、ライブやコンサートなどの臨場感を伝えるのに非常に適している。nugs.net はそのライブ、コンサートのストリーミングをメインのコンテンツとして扱う配信サービスであり、このメリットを最大限に活かしたストリーミングサービスになっていると言えるだろう。 欧米でサービスが展開されているTIDALも月額サブスクリプションのサービスとなり、すでに360RAの配信をスタートしている。サービスの内容はDeezerとほぼ同等だが、ハイレゾの配信方針がDeezerはFLAC、TIDALはMQAと異なるのが興味深い。この音質の差異は是非とも検証してみたいポイントである。TIDALはラッパーのJAY-Zがオーナーのサービスということで、Hip-Hop/R&Bなどポップスに強いという魅力もある。ハイレゾ音源は配信サービスで月額課金で楽しむ時代になってきている。前号でも記事として取り上げたが、ハイレゾでのクオリティーの高いステレオ音源や360RAなどの立体音響、これらの音源を楽しむということは、すでにSpotifyやApple Musicといった馴染みのある配信サービスの延長線上にある。思い立てばいますぐにでも360RAを楽しむことができる環境がすでに整っているということだ。 360RAを収めるMPEG-Hという器 360RAを語るにあたり、技術的な側面としてMPEG-Hに触れないわけにはいかない。MPEG-H自体はモノラルでも、ステレオでも、5.1chサラウンドも、アンビソニックスも、オブジェクトオーディオも、自由に収めることが可能、非常に汎用性の高いデジタルコンテンツを収める入れ物である。このMPEG-Hを360RAではオブジェクトオーディオを収める器として採用しているわけだ。実際の360RAには3つのレベルがあり、最も上位のLevel3は24オブジェクトで1.5Mbpsの帯域を使用、Level2は16オブジェクトで1Mbps、Leve1は10オブジェクトで640kbpsとなっている。このレベルとオブジェクト数に関しては、実際の制作ツールとなる360RA Creative Suiteの解説で詳しく紹介したい。 Pro Tools上に展開された360 Reality Audio Creative Suite(360RACS) ここでは、その帯域の話よりもMPEG-Hだから実現できた高圧縮かつ高音質という部分にフォーカスを当てていく。月額サブスクリプションでの音楽配信サービスは、現状SpotifyとApple Musicの2強であると言える。両社とも圧縮された音楽をストリーミングで再生するサービスだ。Apple Musicで使われているのはAAC 256kbpsのステレオ音声であり、1chあたりで見れば128kbpsということになる。360RAのチャンネルあたりの帯域を見るとLevel1で64kbps/chとAACやMP3で配信されているサービスよりも高圧縮である。しかし、MPEG-Hは最新の圧縮技術を使用しているため、従来比2倍以上の圧縮効率の確保が可能というのが一般的な認識である。その2倍を照らし合わせればチャンネルあたりの帯域が半分になっても従来と同等、もしくはそれ以上の音質が確保されているということになる。逆に言えば、従来のAAC、MP3という圧縮技術では同等の音質を確保するために倍の帯域が必要となってしまう。これがMPEG-H Audioを採用した1点目の理由だ。 もう一つ挙げたいのはオブジェクトへの対応。360RAのミキシングは全てのソースがオブジェクトとしてミキシングされる。オブジェクトとしてミキシングされたソースを収める器として、オブジェクトの位置情報にあたるメタデータを格納することができるMPEG-Hは都合が良かったということになる。特殊な独自のフォーマットを策定することなく、一般化された規格に360RAのサウンドが収めることができたわけだ。ちなみにMPEG-Hのファイル拡張子は.mp4である。余談にはなるが、MPEG-Hは様々な最新のフォーマットを取り込んでいる。代表的なものが、HEVC=High Efficiency Video Coding、H.265という高圧縮の映像ファイルコーディック、静止画ではHEIF=High Efficiency Image File Format。HEIFはHDR情報を含む画像ファイルで、iPhoneで写真を撮影した際の画像ファイルで見かけた方も多いかもしれない。このようにMPEG-Hは3D Audio向けの規格だけではなく、様々な可能性を含みながら進化を続けているフォーマットである。 拡がりをみせる360RAの将来像 360RAの今後の展開も伺うことができた。まず1つは、配信サービスを提供する会社を増やすという活動、360RAに対応したスピーカーやAVアンプなどの機器を増やすという活動、このような活動から360RAの認知も拡大して、制作も活発化するという好循環を作り健全に保つことが重要とのこと。すでに世界中の配信事業者とのコンタクトは始まっており、制作に関しても欧米でのサービス開始から1年半で4000曲とかなりのハイペースでリリースが続いている。ほかにも、ライブやコンサートとの親和性が高いということから、リアルタイムでのストリーミングに対しても対応をしたいという考えがあるとのこと。これはユーザーとしても非常に楽しみなソリューションである。また、音楽ということにこだわらずに、オーディオ・ドラマなど、まずはオーディオ・オンリーでも楽しめるところから拡張を進めていくということだ。また、360RAの要素技術自体はSound ARなど様々な分野での活用が始まっている。 日本国内では、まさに産声を上げたところである360RA。ソニーの提案する新しい音楽の「体験」。立体音響での音楽視聴はこれまでにない体験をもたらすことは間違いない。そして改めてお伝えしたいのは、そのような技術がすでに現実に生まれていて、いますぐにでも簡単に体験できるということ。ソニーが生み出した新たな時代への扉を皆さんも是非開いてほしい。 >>Part 2:ソニー・ミュージックスタジオ 〜360 Reality Audio Mixing、この空間を楽しむ〜 *取材協力:ソニー株式会社 *ProceedMagazine2021号より転載 https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-2/
弊社刊行のProceedMagazineでは以前より音声信号、映像信号のIP化を取り上げてきた。新たな規格が登場するたびにそれらの特徴をご紹介してきているが、今回はNewtek社によって開発された、現在世界で最も利用されているIPビデオ伝送方式のひとつであるNDIを取り上げその特徴をじっくりと見ていきたい。IPビデオ伝送ということは、汎用のEthernetを通じVideo/Audio信号を伝送するためのソリューション、ということである。いま現場に必要とされる先進的な要素を多く持つNDI、その全貌に迫る。 一歩先を行くIPビデオ伝送方式 NDI=Network Device Interface。SDI/HDMIとの親和性が高く、映像配信システムなどの構築に向いている利便性の高い規格である。このIP伝送方式は、NewTek社により2015年9月にアムステルダムで開催された国際展示会IBCで発表された。そして、その特徴としてまず挙げられるのがソフトウェアベースであるということであり、マーケティング的にも無償で使用できるロイヤリティー・フリーのSDKが配付されている。ソフトウェアベースであるということは、特定のハードウェアを必要とせず汎用のEthernet機器が活用可能であるということである。これは機器の設計製造などでも有利に働き、特別にカスタム設計した機器でなくとも、汎用製品を組み合わせて活用することで製品コストを抑えられることにつながっている。この特徴を体現した製品はソフトウェアとしていくつもリリースされている。詳しい紹介は後述するが、汎用のPCがプロフェッショナルグレードの映像機器として活用できるようになる、と捉えていただいても良い。 フルHD映像信号をを100Mbit/s程度にまで圧縮を行い、汎用のEthernetで伝送を行うNDIはIBC2015でも非常に高い注目を集め、NewTekのブースには来場者が入りきれないほどであったのを覚えている。以前、ProceedMagazineでも大々的に取り上げたSMPTE ST2110が基礎の部分となるTR-03、TR-04の発表よりも約2ヶ月早いタイミングで、NDIは完成形とも言える圧縮伝送を実現した規格として登場したわけだ。非圧縮でのSDI信号の置換えを目指した規格であるSMPTE ST-2022が注目を集めていた時期に、圧縮での低遅延リアルタイム伝送を実現し、ロイヤリティーフリーで特定のハードウェアを必要とせずにソフトウェアベースで動作するNDIはこの時すでに一歩先を行くテクノロジーであったということが言える。そして、本記事を執筆している時点でNDIはバージョン4.6.2となっている。この更新の中では、さらに圧縮率の高いNDI HX、NDI HX2などを登場させその先進性に磨きがかけられた。 📷これまでにもご紹介してきた放送業界が中心となり進めているSMPTE 2022 / 2110との比較をまとめてみた。大規模なインフラにも対応できるように工夫の凝らされたSMPTE規格に対し、イントラネットでのコンパクトな運用を目指したNDIという特徴が見てとれる。NDIは使い勝手を重視した進化をしていることがこちらの表からも浮かんでくるのではないだろうか。 100Mbit/s、利便性とクオリティ NDIの詳細部分に踏み込んで見ていこう。テクノロジーとしての特徴は、前述の通り圧縮伝送であるということがまず大きい。映像のクオリティにこだわれば、もちろん非圧縮がベストであることに異論はないが、Full HD/30pで1.5Gbit/sにもなる映像信号を汎用のEhternetで伝送しようと考えた際に、伝送路の帯域が不足してくるということは直感的にご理解いただけるのではないだろうか。シンプルに言い換えれば一般的に普及しているGigabit Ethernetでは非圧縮のFull HD信号の1Streamすら送れないということである。利便性という目線で考えても、普及価格帯になっているGigabit Ethernetを活用できず10GbEthernetが必須になってしまっては、IPビデオ伝送の持つ手軽さや利便性に足かせがついてしまう。 NDIは当初より圧縮信号を前提としており、標準では100Mbit/sまで圧縮した信号を伝送する。圧縮することでGigabitEthernetでの複数Streamの伝送、さらにはワイヤレス(Wi-Fi)の伝送などにも対応している。4K伝送時も同様に圧縮がかかり、こちらもGigabit Ethernetでの伝送が可能である。もちろん10GbEthernetを利用すれば、さらに多くのStreamの伝送が可能となる。放送業界で標準的に使用されているSONY XDCAMの圧縮率が50Mbit/sであることを考えれば、十分にクオリティが担保された映像であることはご想像いただけるだろう。さらにNDI HXでは20Mbit/sまでの圧縮を行いワイヤレス機器などとの親和性を高め、最新の規格となるNDI HX2ではH.265圧縮を活用し、NDIと同様の使い勝手で半分の50Mbit./sでの運用を実現している。 Ethernet Cable 1本でセットできる 代表的なNDI製品であるPTZカメラ。 次の特徴は、Ethernet技術の持つ「双方向性」を非常にうまく使っているということだ。映像信号はもちろん一方向の伝送ではあるが、逆方向の伝送路をタリー信号やPTZカメラのコントロール、各機器の設定変更などに活用している。これらの制御信号は、SMPTE ST2022/ST2110では共通項目として規格化が行われていない部分だ。 NDIではこれらの制御信号も規格化され、メーカーをまたいだ共通化が進められている。わかりやすい部分としてはPTZカメラのコントロールであろう。すでにNDI対応のPTZカメラはPoE=Power over Ethernet対応の製品であれば、Ethernet Cable1本の接続で映像信号の伝送から、カメラコントロール、電源供給までが行えるということになる。従来の製品では3本、もしくはそれ以上のケーブルの接続が必要なシーンでも1本のケーブルで済んでしまうということは大きなメリットだ。天井などに設置をすることが多いPTZカメラ。固定設備としての設置工事時にもこれは大きな魅力となるだろう。NDIに対応した製品であれば、基本的にNDIとして接続されたEthernetケーブルを通じて設定変更などが行える。別途USBケーブル等を接続してPCから設定を流し込む、などといった作業から解放されることになる。 📷左がリモートコントローラーとなる。写真のBirdDog P200であれば、PoE対応なので映像信号、電源供給、コントロール信号が1本のEthernet Cableで済む。 帯域を最大限に有効活用する仕組み NDIの先進性を物語る特徴はまだある。こちらはあまり目に見える部分ではないが、帯域保護をする機能がNDIには搭載されている。これは前述のタリー信号をカメラ側へ伝送できる機能をさらに活用している部分だ。実際にスイッチャーで選択されていない(双方向で接続は確立されているが、最終の出力としては利用されていない)信号は、データの圧縮率が高められたプロキシ伝送となる。本線として利用されていない(タリーの戻ってきていない)カメラは、自動的にプロキシ伝送に切り替わり帯域の圧縮を防ぐということになる。これは本線で使用されていたとしても、PinP=Picture in Picture の副画像などの場合でも同様だ。画面の1/4以上で利用されている場合にはフルクオリティの出力で、1/4以下であればプロキシへと自動的に切り替わる。双方向に情報を伝達できるNDIはスイッチャーが必要とする時にカメラ側へフルクオリティー画像の伝送をリクエストして切り替える、この機能を利用しているわけだ。数多くのカメラを同一のネットワーク上に接続した場合にはその帯域が不安になることも多いが、NDIであればネットワークの持つ帯域を最大限に有効活用する仕組みが組み込まれている。 信号伝送の帯域に関しての特徴はほかにもあり、MulticastとUnicastの切り替えが可能というのもNDIの特徴だ。接続が確立された機器同士でのUnicast伝送を行うというのがNDIの基本的な考え方だが、スイッチャーから配信機材やレコーダーといった複数に対して信号が送られる場合にはMulticastへと手動で切り替えが可能となっている。もちろん、全ての信号伝送をMulticastできちんと設定してしまえば、特に考えることもなく全ての機器で信号を受け取ることができるが、実際のシステム上では設定も簡易なUnicastで十分な接続がほとんどである。イントラネットを前提とするNDIのシステム規模感であれば、Unicast/Multicast両対応というのは理にかなっている。AoIPであるDanteも同じく基本はUnicastで、必要に応じてMulticastへと変更できるということからも、イントラであればこの考え方が正しいということがわかる。 また、IP機器ということで設定に専門的な知識が必要になるのではと思われるかもしれない。NDIは相互の認識にBonjour(mDNS)を使っている、これはDanteと同様である。同一のネットワーク上に存在している機器であれば自動的に見つけてきてくれるという認識性の高さは、Danteを使ったことのある方であれば体験済みだろう。もちろん、トラブルシュートのために最低限のIPの知識はもっておいたほうが良いが、ITエンジニアレベルの高いスキルを求められる訳ではない。汎用のEthernet Switchに対応機器を接続することで自動的に機器が認識されていき、一度認識すればネットワーク上に障害が生じない限りそのまま使い続けることができる。 IPビデオ伝送ならでは、クラウドベースへ 非圧縮映像信号のリアルタイム伝送を目的として策定された SMPTE ST-2110との比較も気になるポイントだろう。SMPTE ST-2110はMulticastを基本とした大規模なネットワークを前提にしており、Video PacketとAudio Packetが分離できるため、オーディオ・プロダクションとの親和性も考えられている。各メーカーから様々な機器が登場を始めているが、相互の接続性など規格対応製品のスタート時期にありがちな問題の解決中という状況だ。NDIについてはすでに製品のリリースから6年が経過し高い相互接続性を保っている。 NDIはイントラ・ネットワーク限定の単一のシステムアップを前提としているために、大規模なシステムアップのための仕組みという部分では少し物足りないものがあるかもしれない。WWW=World Wide Webを経由してNDIを伝送するというソリューションも登場を始めているが、まだまだNDIとしてはチャレンジ段階であると言える。その取り組みを見ると、2017年には200マイル離れたスタジアムからのカメラ回線をプロダクションするといった実験や、Microsoft Azure、AWSといったクラウドサーバーを介してのプロダクションの実験など、様々なチャレンジが行われたそうだ。なお、こちらの実験ではクラウドサーバーまでNDIの信号を接続し、そこからYoutube Liveへの配信を行うということを実現している。つまり、高い安定性が求められる配信PCをクラウド化し、複数のストリーミング・サービスへの同時配信を行う、といったパワフルなクラウドサーバーを活用したひとつの未来的なアイデアである。このようなクラウド・ベースのソリューションは、まさにIPビデオ伝送ならではの取り組みと言える。業界的にもこれからの活用が模索されるクラウド・サービス、SMPTE ST-2110もNDIもIP伝送方式ということでここに関しての可能性に大きな差異は感じないが、NDIが先行して様々なチャレンジを行っているというのが現状だ。 NDIをハンドリングする無償アプリ 次に、NDIの使い勝手にフォーカスをあてていくが、キーワードとなるのは最大の特徴と言ってもいいソフトウェアベースであるということ。それを端的に表している製品、NewTekが無償で配布しているNDI Toolsを紹介していこう。 NDIを活用するためのアプリケーションが詰まったこのNDI Toolsは、Windows用とMac用が用意され9種類のツールが含まれている。メインとなるツールはネットワーク内を流れるNDI信号=NDIソースのモニターを行うNDI Studio Monitor。NDI信号が流れるネットワークにPCを接続しアプリケーションを起動することで、信号のモニターがPCで可能となる。SDIやHDMIのようにそれぞれの入力を備えたモニターの準備は不要、シンプルながらもIPビデオ伝送ならではの機能を提供するソフトウェアだ。次は、VLCで再生した映像をNDI信号としてPCから出力できるようにするNDI VLC Plugin。こちらを立ち上げれば、外部のVideo PlayerをPCを置き換え可能となる。そして、PCから各種テストパターンを出力するNDI Test Patterns。高価な測定器なしにPCでテストパターンの出力を実現している。ここまでの3点だけでも、最初に調整のためのテストパターンを出力し、調整が終わったらVLCを使ってVideo再生を行いつつ、最終出力のモニタリングをNDI Srtudio Monitorで行う、といったフローがPC1台で組み上げられる。IPビデオ伝送ならではの使い勝手と言えるのではないだろうか。 利便性という面で紹介したいのがNDI Virtual Input。これはWindows用となり、PCが参加しているネットワーク内のNDIソースをWindows Video / Audioソースとして認識させることができる。つまり、NDIの入力信号をウェブカメラ等と同じように扱えるようになるということだ。なお、Mac向けにはNDI Webcam Inputというツールで同じようにWEBカメラとしてNDIソースを認識させることができる。すでにZoom / Skypeはその標準機能でNDIソースへの対応を果たしており、IPベースのシステムのPCとの親和性を物語る。そして、NDI for Adobe CCは、Premier / After Effectの出力をNDI信号としてPCから出力、イントラネット越しに別の場所でのプレビューを行ったり、プレイヤーの代替に使ったりとアイデアが広がるソフトウェアだ。他にもいくつかのソフトウェアが付属するが、ハードウェアで整えようとすればかなりのコストとなる機能が無償のソフトウェアで提供されるというのは大きな魅力と言える。 NDI Tools紹介ページ NDI Toolsダウンロードページ NDIの可能性を広げる製品群 続々と登場している製品群にも注目しておきたい。まずは、Medialooks社が無償で配布を行なっているSDI to NDI Converter、NDI to SDI Converter。Blackmagic Design DecklinkシリーズなどでPCに入力されたSDIの信号をNDIとして出力することができる、またその逆を行うことができるソフトウェアで、IPビデオらしくPCを映像のコンバーターとして活用できるアプリケーション。有償のソフトウェアとしてはNDI製品を多数リリースするBirdDog社よりDante NDI Bridgeが登場している。こちらはソフトウェアベースのDante to NDIのコンバーターで、最大6chのDante AudioをNDIに変換して出力する。ステレオ3ペアの信号を3つのNDI信号として出力することも、6chの一つのNDIの信号として出力することもできる使い勝手の良い製品だ。同社のラインナップにはNDI Multiveiwというアプリケーションもある。こちらは、その名の通りネットワーク上のNDI信号のMultiview出力をソフトウェア上で組み立て、自身のDisplay用だけではなくNDI信号として出力するという製品。ソースの名称、オーディオメーター、タリーの表示に対応し、複数のMuliviewをプリセットとして切り替えることが行える。 また、BirdDog社は現場で必須となるインカムの回線をNDIに乗せるというソリューションも展開、SDI / HDMI to NDIのコンバーターにインカム用のヘッドセットIN/OUTを設け、その制御のためのComms Proというアプリケーションをリリースしている。このソリューションはネットワークの持つ双方向性を活用した技術。映像信号とペアでセレクトが可能なためどの映像を撮っているカメラマンなのかが視覚的にも確認できるインカムシステムだ。もちろん、パーティラインなど高度なコミュニケーションラインの構築も可能。ハードウェアとの組み合わせでの機能とはなるが、$299で追加できる機能とは思えないほどの多機能さ。どのような信号でも流すことができるネットワークベースであることのメリットを活かした優れたソリューションと言える。 今回写真でご紹介しているのが、Rock oN渋谷でも導入している NewTek TriCaster Mini 4K、NDI自体を牽引しているとも言えるビデオスイッチャーである。NDIのメリットを前面に出した多機能さが最大のアピールポイント。先述した接続の簡便さ、また、双方向性のメリットとして挙げたPTZカメラのコントロール機能では対応機種であればIRIS、GAINなどの調整も可能となる。そして、TriCasterシリーズはソフトウェアベースとなるためVideo Playerが組み込まれている、これもビデオスイッチャーとしては画期的だ。さらには、Video Recorder機能、Web配信機能などもひとつのシステムの中に盛り込まれる。肝心のビデオスイッチャー部もこのサイズで、4M/E、12Buffer、2DDRという強力な性能を誇っているほか、TriCasterだけでクロマキー合成ができたりとDVEに関しても驚くほど多彩な機能を内包している。 📷 NDIを提唱するNewTekの代表的な製品であるTriCasterシリーズ。こちらはTriCaster Mini 4Kとなる。コンパクトな筐体がエンジン部分、4系統のNDI用の1GbEのポートが見える。TriCasterシリーズは、本体とコントロールパネルがセットになったバンドルでの購入ができる。写真のMini 4Kのバンドルは、エンジン本体、1M/Eのコンパクトなコントローラー、そしてSpeak plus IO 4K(HDMI-NDIコンバーター)が2台のバンドルセットとなる。そのセットがキャリングハンドルの付いたハードケースに収まった状態で納品される。セットアップが簡単なTriCasterシリーズ、こちらを持ち運んで使用するユーザーが多いことの裏付けであろう。 すでにInternetを越えて運用されるNDI イントラ・ネットワークでの運用を前提としてスタートしたNDIだが、すでにInternetを越えて運用するソリューションも登場している。これから脚光を浴びる分野とも言えるが、その中からも製品をいくつか紹介したい。まずは、Medialooks社のVideo Transport。こちらは、NDIソースをインターネット越しに伝送するアプリケーションだ。PCがトランスミッターとなりNDI信号をH.265で圧縮を行い、ストリーミングサイズを落とすことで一般回線を利用した伝送を実現した。フルクオリティの伝送ではないが、汎用のインターネットを越えて世界中のどこへでも伝送できるということに大きな魅力を感じさせる。また、データサイズを減らしてはいるが、瞬間的な帯域の低下などによるコマ落ちなど、一般回線を使用しているからこその問題をはらんでいる。バッファーサイズの向上など、技術的なブレイクスルーで安定したクオリティーの担保ができるようになることが期待されるソリューションだ。 BirdDog社ではBirdDog Cloudというソリューションを展開している。こちらは実際の挙動をテストできていないが、SRT=Secure Reliable Transportという映像伝送プロトコルを使い、インターネット越しでの安定した伝送を実現している。また、こちらのソリューションはNDIをそのまま伝送するということに加え、同社Comms ProやPTZカメラのコントロールなども同時に通信が可能であるとのこと。しっかりと検証してまたご紹介させていただきたいソリューションだ。 Rock oN渋谷でも近々にNewTek TriCasterを中心としたNDIのシステムを導入を行い、製品ハンズオンはもちろんのことウェビナー配信でもNDIを活用していくことになる。セットアップも簡便なNDIの製品群。ライブ配信の現場での運用がスタートしているが、この使い勝手の良さは今後のスタジオシステムにおけるSDIを置き換えていく可能性が大いにあるのではないだろうか。大規模なシステムアップに向いたSMPTE ST-2110との棲み分けが行われ、その存在感も日増しに高くなっていくことは想像に難くない。IP伝送方式の中でも筆頭格として考えられるNDIがどのようにワークフローに浸透していくのか、この先もその動向に注目しておくべきだろう。 *ProceedMagazine2021号より転載
コロナの影響もあり、Youtube等での配信にすでにチャレンジされた方も多くいらっしゃるのではないでしょうか? カメラ、ビデオ・スイッチャーなどを揃えれば、まずは配信をおこなうことは出来るようになります。 そして、次のステップとしてオーディオミキサーで効果音や、音楽などを加えることにチャレンジ。 次のステップとしては、何があるか?そう考えると、喋っている音をクリアに聞かせるためのマイクが必要ということになるかと思います。 デスクトップタイプのスタンドにSHURE SM58などを準備してもよいですが、両手がフリーになるヘッドセットタイプのマイクをここではご紹介したいと思います。 ヘッドセットマイク?ラベリアマイク? ラベリアマイクもヘッドセットマイクも、大きなくくりとしては同じものです。なぜなら、ラベリアマイク=小型マイクということだからです。 ラベリアマイクを耳掛けできるようにしたものがヘッドセットマイクです。 ラベリアマイクは、代表的な形状としてタイピン型のマイクで襟などにクリップで取り付けるものがあります。撮影の現場などでは、更に小型のマイクを襟の裏側などに仕込んだりということも行われます。 マイクの存在を画面に写さずにその効果を得ることが出来るのが特徴と言えるでしょう。 別に画面に写っても構わないというケースがほとんどだと思われるYoutubeなどの配信では、できるだけ口元の近くで集音の出来るヘッドセット型の製品のほうが有利と言えるでしょう。 音源=口元のできるだけ近くにマイクを設置することが出来る、ということは、言葉を明瞭に捉えることだけでなく、部屋のノイズ(空調音や、ファンノイズ)を低減させることにもつながる一石二鳥のチョイスとなります。 言葉を明瞭にすることのメリットは言うまでもありませんし、両手の塞がらないヘッドセットタイプはこれまで通りのパフォーマンスを可能とします。 ヘッドセットマイクには、片耳掛けと、両耳掛けがあります。それほど激しい動きのない場合はどちらでも良いでしょうが、やはり両耳掛けのほうが一般的には安定します。 ステージなどでのダンスを伴うようなシーンでは逆に片耳掛けで頬に透明テープなどで固定すると行ったことも行われますし、ヘアスタイルに影響の少ない片耳掛けは女性に好まれるといった側面もありますので、ここのチョイスはまさにケースバイケースといったところではないでしょうか。 おすすめヘッドセットマイク audio technica PRO8HE 販売価格:¥ 10,456 (本体価格:¥ 9,505) 高磁力マグネットを搭載したダイナミックマイクロフォン。ファンタム電源不要のため、オーディオミキサーの仕様を選ばず手軽に導入できます。 軽量のヘッドバンドとクッション性の良いサポートパッドを採用し、快適で安定した装着感を実現。マイク本体はフレキシブルに角度を変えられるだけでなく、左右どちらでも使用可能。ハイパーカーディオイド特性により、背面や側面からの不要な音をアイソレート。求める音源を確実に収音し、卓越したハウリングマージンを実現します。 Rock oN Line eStoreでのご購入はこちらから>> SHURE SM35-XLR 販売価格:¥ 19,250 (本体価格:¥ 17,500) ライブパフォーマンス向けマイクでは定番ブランドと言えるSHUREのヘッドセットマイク。激しいパフォーマンス中でも安定した収音が可能な設計となっています。ヘッドセットマイクはワイヤレスでの使用が想定されたものが多い中、こちらは標準的なXLRで接続可能。 ROCK ON PRO presents ACSU 2020 Onlineでメインの出演者に使用されたのもこのモデルです。 Rock oN Line eStoreでのご購入はこちらから>> SHURE BLX14J/P31-JB 販売価格:¥ 44,000 (本体価格:¥ 40,000) ライブパフォーマンスや講義・講演などでは圧倒的に便利なワイヤレスシステム。その利点はWEB配信になっても変わりません。 ライブに強いSHUREはワイヤレスにも当然強い!ということで、お求めやすいエントリーモデルのワイヤレスシステムを紹介致します。 BLX14JはB帯(800MHz帯)対応のワイヤレスレシーバー。耐久性に優れ、簡単なセットアップでわかり易いコントロール機能、ワンタッチで操作できるQuickScanなどの機能により簡単にセットアップできます。 Rock oN Line eStoreでのご購入はこちらから>> Line 6 XD-V55HST 販売価格:¥ 52,800 (本体価格:¥ 48,000) こちらはLine 6の2.4GHz帯対応デジタルワイヤレスシステム。 付属するヘッドセット・システムは安定しているだけでなくセッティングを調整でき、ハイエンドの無指向性マイク・カプセルとダイナミック・フィルターにより不要なポップやバックグラウンド・ノイズを低減できます。 リンク先はマイクのカラーがタンのモデルですが、ブラックモデルもラインナップされています。そちらをご希望の際はぜひRock oN Line eStoreへお問い合わせください! Rock oN Line eStoreでのご購入はこちらから>> Rock oN Line eStoreに特設コーナーが誕生! Rock oN Line eStoreでは、カメラからスイッチャー、配信や収録向けのマイクなど、映像制作に関わる機材を集めた特設コーナーを新設している。本記事に挙げた個別の機材が購入できるのはもちろん、手軽なセット販売や、スタッフに相談できる問い合わせフォームなどもあるので、ぜひ覗いてみてほしい。 eStore特設コーナーへ!!>>
ATEM Streaming Bridgeは、ATEM Mini ProシリーズからH.264ストリームを受信して、SDI/HDMIビデオに変換するビデオコンバーター。ATEM Mini Pro / ATEM Mini Pro ISOからのEthenetダイレクトストリーミング信号を受け、SDI/HDMI対応機器にビデオ信号を送ることが出来ます。 つまり、離れた場所にある複数のATEM Mini Pro / ATEM Mini Pro ISOの映像を受け、手元のATEM Mini Pro / ATEM Mini Pro ISOでスイッチングしながらインターネットに配信を行うことが可能になります! ローカルLANだけでなく、特定のポートを開放することでインターネット越しに信号を受けることも可能。世界中のATEM Mini Pro / ATEM Mini Pro ISOユーザーとコラボレーションしながらの多拠点ストリーミングが手軽に行えます。 セットアップ例 ATEM Streaming Bridgeを使用すると、ATEM Mini Pro / ATEM Mini Pro ISOからのダイレクト配信の配信先としてATEM Streaming Bridgeを指定することができるようになる。図のように、ひとつのビデオスイッチャーに信号をまとめることもできるし、SDI/HDMI対応のレコーダーへ入れてやることもできる。各カメラに1台ずつATEM Mini Pro / ATEM Mini Pro ISOを使用して、離れた場所にいるエンジニアにスイッチングをまるごと任せるような使い方も可能だ。 ATEM Streaming Bridge 販売価格:¥30,778(本体価格:¥ 27,980) 高度なH.264コーデックを使用しており、非常に低いデータレートで高品質を得られるため、ローカル・イーサネットネットワークで離れた場所にビデオを送信したり、インターネット経由で世界中に送信できます!放送局とブロガーがコラボレーションし、ATEM Mini Proを使ったリモート放送スタジオの国際的なネットワークを構築できると想像してみてください。(インターネット経由での受信には特定のポートを開放する必要があります。詳細は製品マニュアルをご参照ください。) Rock oN Line eStoreでのご購入はこちらから>> Blackmagic Design ATEM Mini Pro 販売価格:¥ 73,150(本体価格:¥ 66,500) ATEM Mini Proで追加される機能は「本体からインターネットへのダイレクト配信」「マルチモニタービュー」「プログラム出力の外部SSDへの収録」の3つ。本記事の主旨に則ってオーディオクオリティを優先すると、ダイレクト配信機能は使用する機会がないため、各カメラの映像を確認しながらスイッチングをしたい、または、配信した動画を高品質で取っておきたいのいずれかに該当する場合はこちらを選択することになる。 Rock oN Line eStoreでのご購入はこちらから>> Blackmagic Design ATEM Mini Pro ISO 販売価格:¥ 113,850(本体価格:¥ 103,500) ATEM Mini Pro ISOで追加される機能は、ATEM Mini Proの全機能に加え、「全HDMI入出力信号を外部SSDに個別に保存」「スイッチングを施したタイミングをDaVinci Resolveで読み込めるマーカーの記録」の2つ。あとから映像を手直ししたり再編集したりしたい場合にはこちらを選択することになる。アーカイブ映像として公開する前に、本番中に操作を誤ってしまった部分を修正したり、リアルタイムで無料配信したライブを編集し後日有償で販売する、といったことが可能になる。 Rock oN Line eStoreでのご購入はこちらから>> Rock oN Line eStoreに特設コーナーが誕生! Rock oN Line eStoreでは、カメラからスイッチャー、配信や収録向けのマイクなど、映像制作に関わる機材を集めた特設コーナーを新設している。本記事に挙げた個別の機材が購入できるのはもちろん、手軽なセット販売や、スタッフに相談できる問い合わせフォームなどもあるので、ぜひ覗いてみてほしい。 eStore特設コーナーへ!!>>
放送や映像制作と同じように、イベントやプレゼンテーションなどの演出も4K化が進んでいます。一方で、クライアントや演出者からは従来の HD 機材の対応も同時に求められている。 V-600UHDはそうした現場のニーズに合わせ、従来の HD 環境を段階的に 4K に対応させることが可能。全ての入出力端子にローランド独自の「ULTRA SCALER」を搭載。 この機能によりフル HD と 4K の異なる映像を同時に扱えるだけでなく4K と HD 映像も同時に出力できるため、従来の HD ワークフローの中に4K映像を取り込むことができる。 システムセットアップ V-600UHD は HDMI(2.0対応)入力を 4 系統、12G-SDI 入力を 2 系統搭載し、PC とメディア・プレーヤーに加え、ステージ用にカメラを使用するようなイベントやライブコンサートに最適。すべての入出力に独自のスケーラーを搭載し、4KとHDを同時に入出力することができるため、両者が混在するシステムでも容易に運用が可能だ。 会場ディスプレイには4K映像を出力しながら、HDモニターやライブ配信用エンコーダー等従来の HD 表示デバイスへの出力も可能。エンベデッド・オーディオの入出力にも対応するほか、XLR入力2系統を備えオーディオミキサーからの出力をもらうこともできる。中規模〜大規模イベントのコアシステムとして高い実用性を誇る。 プロダクト ROLAND V-600UHD 販売価格:¥ 1,408,000(本体価格:¥ 1,280,000) HDR、フル・フレームレート 60Hz、Rec.2020 規格、DCI 4K(シネマ4K)解像度など先進のテクノロジーに対応し、高精細な映像を扱うことが可能。さらに、内部映像処理は 4:4:4/10bit に対応し、PC から出力された高精細な映像も鮮明に表示可能で、拡大した映像内の細かな文字も細部まで読み取ることができる。 「ROI(Region of Interest)機能」を使えば、1 台の 4K カメラの映像から必要な部分を最大 8 つ抽出することで、複数のカメラを用意するのと同じような演出が可能になる。スケーラー機能と併せてクロスポイントに割り当てることが可能。カメラの台数に頼ることなく、映像演出の幅を拡げることができる。 Rock oN Line eStoreでのご購入はこちらから>> ROLAND UVC-01 販売価格:¥ 27,500(本体価格:¥ 25,000) 最大1920×1080/60pに対応するRoland純正のビデオキャプチャー/エンコーダー。Mac/Windowsに対応し、ドライバーのインストール不要、USBバスパワー対応など、普段使いにも便利な取り回しのよさが魅力だ。ほとんどのHDMIカメラやビデオスイッチャーに対応するため、WEB配信の機会が多いユーザーは持っておくと便利かも。 Rock oN Line eStoreでのご購入はこちらから>> Rock oN Line eStoreに特設コーナーが誕生! Rock oN Line eStoreでは、カメラからスイッチャー、配信や収録向けのマイクなど、映像制作に関わる機材を集めた特設コーナーを新設している。本記事に挙げた個別の機材が購入できるのはもちろん、手軽なセット販売や、スタッフに相談できる問い合わせフォームなどもあるので、ぜひ覗いてみてほしい。 eStore特設コーナーへ!!>>
ついにiPhoneが5Gに対応し、大容量データの高速通信がモバイル環境でもいよいよ実現されつつある。テレビ放送やリアルイベントではすでに4Kの需要は高まっており、その波がWEB配信の世界にも押し寄せることが予想される。折しもコロナ禍の影響で映像配信事業の成熟は加速度的に高まっており、既存メディアと同等のクオリティが求められるようになるまでにそれほど長い時間はかからないだろう。 あらゆるライブイベントをプロ仕様のプログラムとして制作することが出来るビデオスイッチャー、Blackmagic Television Studio Pro 4Kを中心とした、4K対応WEB配信システムを紹介しよう。 システムセットアップ 4K対応ビデオスイッチャーであるATEM Television Studio Pro 4Kから、4K対応のビデオキャプチャーであるUltra Studio 4K Miniで配信用のフォーマットにファイルをエンコード。配信用のMac/PCに信号を流し込む構成だ。 ATEM Television Studio Pro 4Kはマルチビュー出力を備えているため、SDIインプットのあるモニターを使用して各カメラやメディアからの映像を監視しながら映像の切り替えを行うことができる。 図ではオーディオ部分を割愛しているが、ATEM Television Studio Pro 4Kにはオーディオインプット用のXLR2系統が備わっているほか、SDIにエンベッドされたオーディオ信号を扱うこともできる。Ethernet経由でMac/PCを繋ぎ、ATEM Control Softwareを使用すれば内部で音声ミキシングも可能なため、ミキサーからのアウトをATEM Television Studio Pro 4Kに入れ、映像と音をここでまとめることが可能。 オーディオクオリティにこだわるなら、小型のオーディオI/FやI/F機能付きミキサーを使用してミキサーからの信号を配信用のMac/PCに直接入力してもよい。手持ちのミキサーの仕様や求められる品質・運用に鑑みて、柔軟な構成を取ることができる。 キープロダクト Blackmagic Design ATEM Television Studio Pro 4K 販売価格:¥373,780(本体価格:¥339,800) 8系統の12G-SDI入力を搭載し、ハイエンドの放送用機能に対応したATEM Television Studioシリーズの中でも、ATEM Television Studio Proシリーズはプロ仕様の放送用ハードウェアコントロールパネルが一体化しており、追加のCCUにも対応。すべての入力系統に再同期機能を搭載しており、プロ仕様および民生用カメラで常にクリーンなスイッチングが可能。マルチビュー出力に対応しており、すべてのソースおよびプレビュー、プログラムを単一のスクリーンで確認できる。また、Aux出力、内蔵トークバック、2つのスチルストア、オーディオミキサー、カメラコントロールユニットなどにも対応。 ライブプロダクション、テレビシリーズ、ウェブ番組、オーディオビジュアル、そしてテレビゲーム大会のライブ放送などに最適で、カメラ、ゲーム機、コンピューターなどを接続するだけで簡単にライブスイッチングを開始できる。 Rock oN Line eStoreでのご購入はこちらから>> Blackmagic Design UltraStudio 4K Mini 販売価格:¥125,180(本体価格:¥ 113,800) UltraStudio 4K Miniは本来はThunderbolt 3に対応したポータブルなキャプチャー・再生ソリューション。Mac/PCにビデオI/Fとして認識される機能を利用して、4K対応キャプチャーカードとして使用することが可能だ。 最新の放送テクノロジーを搭載しており、4K DCI 60pまでのあらゆるフォーマットで放送品質の8/10-bitハイダイナミックレンジ・キャプチャー、4K DCI 30pまでのあらゆるフォーマットで12-bitハイダイナミックレンジ・キャプチャーを実現。SDカードリーダーを内蔵しているので、カメラメディアを直接コンピューターにマウントすることも可能だ。 Rock oN Line eStoreでのご購入はこちらから>> Blackmagic Design Blackmagic Web Presenter 販売金額:¥ 62,678(本体価格:¥ 56,980) 素材のみは4Kで録っておき、配信はHD品質でもOK、という方はUltraStudio 4K Miniの代わりにこちらを。 あらゆるSDIまたはHDMIビデオソースをUSBウェブカメラの映像として認識。Skypeなどのソフトウェアや、YouTube Live、Facebook Live、Twitch.tv、Periscopeなどのストリーミング・プラットフォームを使用したウェブストリーミングを一層高い品質で実現。Teranex品質のダウンコンバージョンに対応しているので、あらゆるSD、HD、Ultra HDビデオを、低データレートながらも高品質のストリーミングが可能な720pに変換する。 ドライバ不要で、ハイクオリティの内部エンコーダーとして動作する本機があれば、キャプチャデバイスとコンピューターの相性を気にすることなくWEB配信に集中できる。 Rock oN Line eStoreでのご購入はこちらから>> Rock oN Line eStoreに特設コーナーが誕生! Rock oN Line eStoreでは、カメラからスイッチャー、配信や収録向けのマイクなど、映像制作に関わる機材を集めた特設コーナーを新設している。本記事に挙げた個別の機材が購入できるのはもちろん、手軽なセット販売や、スタッフに相談できる問い合わせフォームなどもあるので、ぜひ覗いてみてほしい。 eStore特設コーナーへ!!>>
公共の場でのマスク着用と並んで、映像配信はウィズ・コロナ時代のひとつのマナーとさえ言えるほど急速にひとびとの生活に浸透している。もちろん半分ジョークだが、読者の半数は実感を持ってこのことばを迎えてくれることと思う。なにせ、このような記事を読もうと思ってくれているのだから、あなたも映像配信にある程度の関心があるはずだ。 さて、しかし、いざ自分のパフォーマンスを配信しようと思っても、どのような機材を揃えればいいのか、予算はいくらくらいが妥当なのか、というところで迷ってしまう方もいることだろう。(Z世代のミュージシャンは、そんなことはないのだろうか!?) そこで、この記事では音楽の生演奏を前提に、低価格かつ高品質な映像配信を実現するシステムアップ例を紹介したいと思う。 システムセットアップ例 スイッチャーはATEM Miniで決まり!? マルチカメラでの映像配信にこれから挑戦したいという方にぜひおすすめしたいビデオスイッチャーがBlackmagic Design ATEM Miniシリーズだ。4x HDMI入力やプロ仕様のビデオエフェクト、さらにはカメラコントロール機能までついた本格仕様でありながら価格破壊とも言える低価格を実現しており、スイッチャーを初めて導入するという方からコンパクトなスイッチャーを探しているプロフェッショナルまで、幅広くおすすめできるプロダクトだ。 ATEM Mini、ATEM Mini Pro、ATEM Mini Pro ISO、と3つのラインナップがあり、順次機能が増えていく。ATEM Miniでは各カメラ入力をモニターする機能がないため、バンド編成でのライブ配信などにはATEM Mini ProかATEM Mini Pro ISOを選択する方がオペレートしやすいが、弾き語りや小編成ユニットの場合はATEM Miniでも十分だろう。 ATEM Miniシリーズについての詳細はこちらの記事>>も参考にしてほしい。 オーディオI/F機能付きミキサーでサウンドクオリティUP! ATEM Miniシリーズにはマイク入力が備わっており、ATEM Mini内部でのレベルバランスの調整も可能となっている。しかし、オーディオのクオリティにこだわるなら小型でもよいのでオーディオミキサーの導入が望ましい。ライブやレコーディングで使用できる一般的なマイクを使用することができるし、機種によってはオンボードのエフェクトも使用できる。必要十分な入出力数を確保できるし、なにより経由する機器を減らす方がクオリティは確実に上がる、とメリット尽くしだ。 音声系をいったんミキサーでまとめ、ATEM Miniからの映像信号とは別系統としてMac/PCに入力、OBSなどの配信アプリケーション内で映像と音声のタイミングを合わせるというシステムアップになる。 この時、ミキサーとオーディオI/Fを別々に用意してもよいが、最近の小型ミキサーの中にはUSBオーディオI/F機能を搭載したものも多く、「ウェブキャスター」と呼ばれるWEB配信を特に意識したプロダクトも存在する。 すでにミキサーやオーディオI/Fを所有しているなら足りない方を買い足すのがよいだろうが、これから配信に挑戦しようというならウェブキャスターなどのUSB I/F機能付きミキサーがうってつけのソリューションとなるだろう。チャンネル数、対応サンプリング周波数、マイク入力数など各モデルで特色があるため、自分に必要なスペックがわからない場合は気軽にRock oN Line eStoreに問い合わせてみてほしい。 おすすめI/F機能付きミキサー YAMAHA AG-06 販売価格:¥ 19,800(本体価格:¥ 18,000) ウェブキャスターという名称を広めた立役者とも言えるYAMAHA AGシリーズ。ループバック機能、ヘッドセット対応、2x マイク/ライン入力・1x 48Vファンタム電源を含む6入力、USB I/F機能、USBバスパワーなど、ウェブ動画配信に完全対応。さらに最大で192kHz/24bitというハイレゾクオリティのオーディオ性能を誇る。弾き語りや二人組ユニットだけでなく、バックトラックに合わせての演奏やトーク番組風の配信、ゲーム実況まで幅広く対応可能だ。 Rock oN Line eStoreでのご購入はこちらから>> ZOOM LIVETRAK L-8 販売価格:¥ 39,600(本体価格:¥ 36,000) ジングルや効果音を鳴らせる6個のサウンドパッド、電話の音声をミックスできるスマートフォン入力、バッテリー駆動でスタジオの外にも持ち出せる機動力。ポッドキャスト番組の収録やライブ演奏のミキシングが手軽に行える、8チャンネル仕様のライブミキサー&レコーダー。内蔵SDカードに録音することが可能で、12chモデル、20chモデルの上位機種もランナップされているためバンドライブの動画配信にはうってつけだろう。 Rock oN Line eStoreでのご購入はこちらから>> Presonus StudioLive AR8c 販売価格:¥ 55,000(本体価格:¥ 50,000) ミュージシャン達がミュージシャンのために開発したハイブリッド・ミキサーであるStudioLive® ARcシリーズは、XMAXプリアンプ/EQ/デジタル・エフェクトを搭載したアナログ・ミキサーに、24Bit 96kHz対応のマルチチャンネルUSBオーディオ・インターフェース、SD/SDHCメモリー・カード録音/再生、そしてBluetoothオーディオ・レシーバーによるワイヤレス音楽再生機能を1台に統合。ラインアップは、8チャンネル仕様、12チャンネル仕様、16チャンネル仕様の3機種。レコーディングや音楽制作のためのCapture™/Studio One® Artistソフトウェアも付属し、ライブPA、DJ、バンドリハーサル、ホームスタジオ、ネット配信に理想的なオールインワン・ハイブリッド・ミキサーとなっている。 Rock oN Line eStoreでのご購入はこちらから>> YAMAHA MG10XU 販売価格:¥ 29,334(本体価格:¥ 26,667) YAMAHAの定番アナログミキサーであるMGシリーズも、多くがUSB I/F機能を搭載している。WEB配信に特化した製品ではないが、高品位なディスクリートClass-Aマイクプリアンプ「D-PRE」搭載をはじめ、1ノブコンプ、24種類のデジタルエフェクトなど、本格的なミキサーとしての機能を備えており、クオリティ面での不安は皆無と言える。20chまでの豊富なラインナップも魅力。トークやMCではなく「おれたちは音楽の中身で勝負するんだ!」という気概をお持ちなら、ぜひこのクラスに手を伸ばしてほしい。 Rock oN Line eStoreでのご購入はこちらから>> SOUNDCRAFT Notepad-8FX 販売価格:¥ 14,900(本体価格:¥ 13,545) ブリティッシュコンソールの老舗メーカーであるSOUNDCRAFTにもUSB I/F機能搭載のコンパクトミキサーがラインナップされている。全3機種の中で上位モデルであるNotepad-12FXと本機Notepad-8FXには、スタジオリバーブの代名詞Lexicon PRO製のエフェクト・プロセッサーを搭載!ディレイやコーラスも搭載しており、これ1台で積極的な音作りが可能となっている。ブリティッシュサウンドを体現する高品位マイクプリ、モノラル入力への3バンドEQ搭載など、コンパクトながら本格的なオーディオクオリティを誇っている。 Rock oN Line eStoreでのご購入はこちらから>> ALLEN & HEATH ZEDi-8 販売価格:¥ 19,008(本体価格:¥ 17,280) こちらもイギリスの老舗コンソールメーカーであるALLEN & HEATHが送るUSB I/F対応アナログミキサーがZEDシリーズだ。ZEDi-8はコンパクトな筐体に必要十分で高品質な機能がギュッと凝縮されたようなプロダクトだ。2バンドのEQ以外にオンボードエフェクトは搭載していないが、定評あるGS-R24レコーディング用コンソールのプリアンプ部をベースに新設計されたGSPreプリアンプは同シリーズ32ch大型コンソールに搭載されているのと同じもの。長い歴史を生き抜いてきたアナログミキサー作りのノウハウが詰め込まれた一品と言えそうだ。 Rock oN Line eStoreでのご購入はこちらから>> あなたに最適なATEM Miniは!? Blackmagic Design ATEM Mini 販売価格:¥ 39,578(本体価格:¥ 35,980) 4系統のHDMI入力、モニター用のHDMI出力1系統、プロクオリティのスイッチング機能とビデオエフェクトなど、プロクオリティの機能を備えながら圧倒的な低コストを実現するATEM Mini。コンピューターに接続してPowerPointスライドを再生したり、ゲーム機を接続することも可能。ピクチャー・イン・ピクチャー・エフェクトは、生放送にコメンテーターを挿入するのに最適。ウェブカムと同様に機能するUSB出力を搭載しているので、あらゆるビデオソフトウェアに接続可能。導入コストを低く抑えたい方にはおすすめのプロダクトです。 Rock oN Line eStoreでのご購入はこちらから>> Blackmagic Design ATEM Mini Pro 販売価格:¥ 73,150(本体価格:¥ 66,500) ATEM Mini Proで追加される機能は「本体からインターネットへのダイレクト配信」「マルチモニタービュー」「プログラム出力の外部SSDへの収録」の3つ。本記事の主旨に則ってオーディオクオリティを優先すると、ダイレクト配信機能は使用する機会がないため、各カメラの映像を確認しながらスイッチングをしたい、または、配信した動画を高品質で取っておきたいのいずれかに該当する場合はこちらを選択することになる。 Rock oN Line eStoreでのご購入はこちらから>> Blackmagic Design ATEM Mini Pro ISO 販売価格:¥ 113,850(本体価格:¥ 103,500) ATEM Mini Pro ISOで追加される機能は、ATEM Mini Proの全機能に加え、「全HDMI入出力信号を外部SSDに個別に保存」「スイッチングを施したタイミングをDaVinci Resolveで読み込めるマーカーの記録」の2つ。あとから映像を手直ししたり再編集したりしたい場合にはこちらを選択することになる。アーカイブ映像として公開する前に、本番中に操作を誤ってしまった部分を修正したり、リアルタイムで無料配信したライブを編集し後日有償で販売する、といったことが可能になる。 Rock oN Line eStoreでのご購入はこちらから>> Rock oN Line eStoreに特設コーナーが誕生! Rock oN Line eStoreでは、カメラからスイッチャー、配信や収録向けのマイクなど、映像制作に関わる機材を集めた特設コーナーを新設している。本記事に挙げた個別の機材が購入できるのはもちろん、手軽なセット販売や、スタッフに相談できる問い合わせフォームなどもあるので、ぜひ覗いてみてほしい。 eStore特設コーナーへ!!>>
ATEM Mini Pro 価格:¥74,778(税込) いま、注目を集めているのはオンライン・コラボレーションだけではない。音楽ライブ、ゲーム、セミナーなどの配信、特にリアルタイム配信の分野もまた、大きな注目を集め始めている。ここでは、そうしたライブ配信のクオリティアップを手軽に実現できるプロダクトとしてBlackmagic Design ATEM Mini Proを取り上げたい。 スイッチャーの導入で配信をもっと面白く 冒頭に述べたように、オンラインでのコミュニケーションを行う機会が格段に増えている。以前からゲームプレイの中継配信などがメディアにも取り上げらることが多かったが、ここのところではライブを中心に活動していたミュージシャンやライブハウスが新たにライブ配信に参入するケースも出てきた。もちろん普段の生活の中でもオンラインでのセミナー(所謂ウェビナー)や講義・レッスン、さらにはプレゼンの機会も多くなっているだろう。 その音楽ライブの配信は言うまでもなく、ゲーム中継やセミナー、会議やプレゼンでも、ふたつ以上の映像を配信できた方が表現の幅が広がり、視聴者や参加者により多くの事柄を伝えることができる。演奏の様子を配信する場面では、引きと寄りのアングルを切り替えた方が臨場感が増すし、音楽レッスンならフォーム全体と手元のクローズ映像が同時に見られた方がより分かりやすい。講義やプレゼンではメインの資料を大きく映しておいて、ピクチャインピクチャで講師の顔を映しておく、補足資料や参考URLなどを別PCで用意しておく、プロダクトをカメラで撮ってプレゼンする、など使い方を少し思い起こすだけでも数多くの手法が広がることになる。 こうしたニーズを満たすのがビデオスイッチャーと呼ばれるプロダクトになるのだが、現在、市場で見かけるスイッチャーのほとんどは業務用にデザインされたものになっている。サイズの大きいものが多く、また様々な機能が使用できる分だけ一見すると操作方法が分かりにくい場合もある。さらに、入出力もSDI接続である場合がほとんどであり、家庭向けのカメラとの使用には向いていない。そして何より高額だ。 しかし、昨年秋に発表されたBlackmagic Design ATEM Miniは、放送用のトランジションやビデオエフェクト機能を備えた4系統HDMI入力対応のスイッチャーでありながら、税込定価¥40,000を切るプロダクトとして大きな話題を呼んだ。今回紹介するATEM Mini Proは新たに発売された上位版にあたるプロダクトであり、ATME Mini にさらに機能を追加し、業務用途にも耐える仕上がりとなっている。どのような映像を配信したいかは個別のニーズがあるが、インターネットへマルチカムでの映像配信を検討中の方は必見のプロダクトだ。以下で、ATEM Mini、ATEM Mini Proのアドバンテージを概観していきたい。 HDMI 4系統に特化した映像入力 まず、ATEM Miniシリーズが手軽なソリューションである大きな理由は、HDMI 4系統のみというシンプルな入力であることだ。その他の入力系統を大胆に省略し、多くの家庭用カメラが対応するHDMIに接続を特化することで、十分な入力数を確保しながらコンパクトなサイズを実現している。これは、業務用カメラやSDI変換などの高額な機器が不要であるという点で、システム全体の導入費用を大幅に下げることにも貢献する。 外部オーディオ入力端子としてふたつのステレオミニジャックを備えているため、ダイナミックマイクを接続することも可能。画角との兼ね合いでカメラからのオーディオが使用しにくい場合でも、クリアな音質を確保することができる。2020年6月のアップデートで、コントロールソフトウェアで外部からのオーディオ入力にディレイを掛ける機能が追加され、画・音のずれを修正することも可能になった。 システムをコンパクトに さらに、ATEM Miniシリーズの利点として配信システムに必要なデバイスの数を減らすことができるという点も挙げられる。スイッチャーを中心としてマルチカム配信システムの構成をざっくりと考えると、カメラやMac/PCなどの映像入力機器、スイッチャー、信号を配信に向いたコーデックにエンコードするキャプチャー/WEBキャスター、配信アプリケーションのインストールされたMac/PC、となる。 ATEM Miniはこのうち、スイッチャーとキャプチャーの機能を併せ持っている。Mac/PCからウェブカムとして認識されるため、配信用のMac/PCに接続すればそのままYouTube LiveといったCDNに映像をストリーミングすることができるのだ。それだけでなく、SkypeやZoomなどのコミュニケーションツールからもカメラ入力として認識されるため、会議やプレゼン、オンライン講義などでも簡単に使用することができる。上位機種のATEM Mini Proはこれに加えて、配信アプリケーションの機能も備えている。システムを構成するデバイスを削減できるということは、コスト面でのメリットとなるだけでなく、機材を持ち込んでの配信や、システムが常設でない場合などに、運搬・組み上げの手間が省略できるというアドバンテージがある。 ATEM Miniは図のようにスイッチャー、キャプチャーをひとまとめにした機能を持っているが、上位版のATEM Mini Proではさらに配信環境までカバーする範囲が広がる。まさにオールインワンの配信システムと言える内容だ。 つなぐだけ派にも、プロユースにも デフォルトの設定では、ATEM Mini / ATEM Mini Proは4系統のHDMIに入力された信号を自動で変換してくれる。つまり、面倒な設定なしでカメラをつなぐだけで「とりあえず画は出る」ということだ。 しかし、ATEM シリーズに無償で同梱される「ATEM Software Control」は、これだけで記事がひとつ書けてしまうほど多機能で、クオリティにとことんこだわりたい場合はこちらから詳細な設定やコントロールを行うことも可能。スイッチングやオーディオレベルの操作は本体のパネルからも行うことができるが、コントロールソフトウェアを使用すれば、さらに追い込んだ操作を行うことが可能になる。このATEM Software Controlの各機能はDaVinci Resolveで培われた技術を使用しているため、オーディオ/ビデオ・エフェクトやメディア管理など、業務レベルに耐えるクオリティの仕上がりになっている。 しかも、ATEM Software Controlはネットワークを介して本体と接続できるため、離れた場所からのスイッチャー操作も可能。HDMIは長尺ケーブルを使用するのがためらわれるが、この機能を使用すればカメラ位置に左右されずにオペレーションするスペースを確保することができる。さらに、同時に複数のATEM Software ControlからひとつのATEM Mini / ATEM Mini Proにアクセスできるため、スイッチング / カメラ補正 / オーディオミキシング、など、役割ごとにオペレーターをつけるというプロフェッショナルな体制を取ることまでできてしまう。 ATEM Software Controlのコントロール画面。なお、オーディオパネルはMackie Control、KORG NanoKontrol、iCON Platform M+などの外部コントローラーに対応している。スペースに余裕が生まれた分、こうした機材を導入して音のクオリティアップで差をつけるのも面白いだろう。 ATME Mini VS ATEM Mini Pro ●CDNにダイレクトにストリーミング ATEM MiniとATEM Mini Proのもっとも大きな違いと言えるのが、ATEM Mini Proでは本体を有線でインターネットにつなげば、ダイレクトにCDNに映像をストリーミングすることができるということだ。もちろん、ストリーミングキーを入力してやるためのMac/PCは必要になるが、一度キーを設定してしまえば本体から取り外しても問題ない。手元のスペースを節約できるだけでなく、安定した配信を行うためにスペックの高いMac/PCを新たに購入する必要がなくなるし、ストリーミングのように安定度が求められる部分をハードウェアに任せることができるのは大きな安心だ。省スペース、低コスト、高い信頼性、と、この機能の実装によって得られるメリットは非常に大きいのではないだろうか。ライブハウスなどによるビジネス用途ならATEM Mini Pro、すでに十分に高いスペックのマシンを所有しているならATEM Miniと、既存の環境に応じてチョイスするとよいのではないだろうか。 ●マルチビュー対応 こちらもパワフルな機能。ATEM Mini ProにはHDMI出力が1系統しか搭載されていないが、一画面で全ての入力ソース、メディアプレイヤー、オーディオとON AIRのステータスを確認することができる。各モニターはタリーインジケーターを表示可能で、どのソースがオンエアされ、次にどのソースへトランジットするかを確認することができる。プレビュー機能も備えており、M/Eがどのようにかかるのかを事前に確認することも可能だ。これらすべてを一画面でモニターできるというコンパクトさと取り回しのよさは、まさに"Pro"という名にふさわしい機能追加と言えるだろう。 ●外部デバイスへプログラムをレコーディング ATEM Mini Proは、プログラムをH.264ビデオファイルとしてUSBフラッシュディスクにダイレクトに記録することができる。しかも、USBハブやBlackmagic Design MultiDockなどのプロダクトを使用すると、複数ディスクへの収録にも対応可能だ。ひとつのディスクがフルになると、自動で次のディスクに移行することで、長時間のストリーミングでも継続した収録を行うことができる。YouTube LiveやFacbook LiveではWEB上にアーカイブを残すことが可能だが、プログラムをその場で手元にメディアとして持っていられることは、ほかの場所で使用することなどを考えると大きなメリットとなるだろう。 実際の自宅からの簡易的な配信を想定したシステム例。ATEM Mini Proで取りまとめさえすれば配信への道は簡単に開けてしまう。音声の面でも48Vファンタム対応の小型ミキサーを使用すればコンデンサーマイクを使用することができる。HDMIアダプタを使用して、スマートフォンやタブレットをカメラ代わりに使うことも可能。別途、配信用のMac/PCを用意すれば、複数の配信サイトにマルチキャストすることもできる。 にわかに活況を呈するコンパクトビデオスイッチャーの世界。小さなスペースで使用でき、持ち運びや設置・バラシも手軽な上に、マルチカメラでの配信をフルHD画質で行うことを可能にするコンパクトスイッチャーをシステムの中心に据えることで、スマホ配信とは別次元のクオリティで映像配信を行うことが可能となる。特にATEM Mini / ATEM Mini Proを使用すれば、ほんの何本かのケーブルを繋ぐだけで、高品質な配信が始められてしまう。ぜひ、多くの方に触れてみてほしいプロダクトだ。 *ProceedMagazine2020号より転載
Internetの発達に伴って進化を続けている様々なCloudベースのサービス。その一方で、コスト面も含めて個人の自宅でも導入できるサイズの製品も着実な進化を遂げているのがOn Premise(オン・プレミス=敷地内で)のサーバーソリューション。Cloudのように年額、月額で提供されるサービスと比較するとどのようなメリットがあるのか、オンプレのサーバーはNetwork上からどう活かされるのか、オンラインでの協業体制が求められる今だからこそパーソナルユースを視野に入れたエントリーレベルにおけるオンプレサーバー導入のいまを見ていきたい。 Synology Home Server 今回、取り上げる製品はSynology社のホームサーバー。ラインナップは1Drive(HDD1台)のコンパクトな製品からスタートし、1DriveでHDD無しのベアボーンが1万円前半の価格から入手できる。何かと敷居の高いサーバーソリューションの中でも、パーソナル領域におけるラインナップを充実させているメーカーだ。このホームサーバーの主な役割は、ローカルネットワーク上でのファイル共有サービス(NAS機能)と、Internetに接続されたどこからでもアクセス可能なOn Premiseファイル・サーバーということに集約される。 もちろんそれ以外にも、遠隔地に設置されたSynology製品同士での自動同期や、プライベートな音楽/動画配信サーバー機能、ファイルのバージョニング機能、誤って消去してしまったファイルの復元機能など多彩な機能を持ち、ローカルでのファイル共有に関しては汎用のNAS製品と同様に、Windows向けのSMB/NFS共有、MacOS向けのSMB/AFS共有が可能と、それぞれOSの持つ標準機能でアクセスができるシンプルな形式を持つのだが、今回はこのようなローカル環境でのサービスではなく、外出先でも活用ができるサービスに目を向けたい。 Synologyの設定画面。ブラウザでアクセスするとOSライクなGUIで操作できる。 コスト優位が際立つオンプレ 外出先で、サーバー上のデータを取り出せるサービスといえば、DropBox、OneDriveなどのCloudストレージサービスが思い浮かぶ。Synologyの提供するサービスは、一般向けにもサービスの提供されているCloudストレージと比較してどのような違いがあるのだろうか? まず、SynologyのようなOn Premiseでのサービスの最大のメリットは、容量の大きさにあるだろう。本原稿の執筆時点で一般向けに入手できる最大容量のHDDは16TB。コスト的にこなれてきている8TBのモデルは2万円を切る価格帯で販売されている。これは1TBあたりの単価は¥2,000を切る水準となっており、容量単価のバランスも納得いくレベルなのではないだろうか。 これをCloud Stroageの代表格であるDropBoxで見てみると、1TBの容量が使える有償サービスは年額¥12,000となる。もちろん、機器の購入費用が必要ない、壊れるという心配がない、電気代も必要ない、などCloudのメリットを考えればそのままの比較はできないが、8TBという容量を持つ外出先から接続可能なOn Premiseサーバーの構築が4万円弱の初期投資で行えるということは、コストパフォーマンスが非常に高いと言えるだろう。また、4Drive全てに8TBのHDDを実装しRAID 5の構成を組んだとすれば、実効容量24TBという巨大な容量をNetwork越しに共有することが可能となる。大容量をコストバランスよく実現するという側面をフォーカスすると、On Premiseのメリットが際立ってくる。 利用している帯域など、ステータスもリアルタイムに監視が可能だ。 オンプレの抱える課題とは このように単純に価格で考えれば、HDDの容量単価の低下が大きく影響するOn Premiseの製品のコストパフォーマンスは非常に高いものがある。その一方で、On Premiseが抱えるデメリットがあることも事実。例えばCloudサービスであれば、データはセキュリティーや防災対策などが万全になされたデータセンターに格納される。データの安全性を考えると自宅に設置された機器との差は非常に大きなものになるだろう。もちろん、Synologyの製品も2Drive以上の製品であればRAIDを構築することができるため、データの保全に対しての対策を構築することも可能だが、これは導入コストとトレードオフの関係になる。実例を考えると、ストレージの速度とデータの保全を両立したRAID 5以上を構築しようとした際には3 Drive以上の製品が必要。製品としては4Drive以上の製品に最低3台以上のHDDを実装する必要があり、初期導入コストは8万円程度が見込まれる。1TB程度の容量までで必要量が足りるのであれば、Cloudサービスの方に軍配があがるケースもある。必要な容量をどう捉えるかが肝要な部分だ。 また、On Premiseの製品は手元にあるために、突如のトラブルに対しては非常に脆弱と言わざるを得ない。前述のようにデータセンターとは比較にならない環境的な要因ではあるが、2〜3年おきにしっかりと機器の更新を行うことで、そういったリスクを低減することはできる。そのデータはどれくらいの期間の保持が必須なのか、重要性はどれほどのものなのか、保全体制に対しての理解をしっかりと持つことで、大容量のデータの共有運用が見えてくる。 オンプレをNetworkから使う パッケージセンターには数多くのアプリケーションが用意されている。 Synology社のOn Premiseサーバーは、専用のアプリをインストールすることでInternet接続環境があればどこからでも自宅に設置されたサーバーのデータを取り出すことができる。また、DropBoxのサービスのように常時同期をさせることもできれば、特定のフォルダーを第三者へ共有リンクを送り公開する、といった様々なサービスを活用できる。設定もWebブラウザ上からGUIを使うシンプルなオペレーションとなっており、設定も極めて簡便。VPNを使用するというような特別なこともないため、迷うことなく自宅のサーバーからファイル共有を行うことが行えてしまう。ユーザーの専門知識を求めずに運用が可能な水準にまで製品の完成度は高まっていると言えそうだ。 ファイル共有のあり方は多様になっており、ユーザーの必要な条件に合わせてOn Premise、Cloudと使い分けることができるようになってきている。むしろ選択肢は多彩とも言える状況で、メリット、デメリットをしっかりと理解し、どれくらいのデータ量をハンドリングしたいのか、そのデータの重要性をどう考えるか、ユーザーの適切な判断があれば充実したパーソナルサーバー環境はすぐにでも構築、実現できてしまう。今後、ますます大容量となるコンテンツ制作のデータをどう扱えるのかは、パーソナルな制作環境にとっても重要な要素であることは間違いないだろう。それをどのようにハンドリングするかの鍵はここにもありそうだ。 *ProceedMagazine2020号より転載
目次 序論 Apple Mac Pro Late2019概要 Mac Pro Late2019の各構成部品:CPU Mac Pro Late2019の各構成部品:メモリ Mac Pro Late2019の各構成部品:PCI Express拡張スロット Mac Pro Late2019の各構成部品:GPU Mac Pro Late2019の各構成部品:AfterBurner 考察 1:序論 各業界で注目を集めたApple Mac Pro Late2019は2019年6月に発表、同年12月より発売が開始された。同社CEO Tim Cook氏はWWDC2019の基調講演で「これまでに開発した中で最も強力なMac」と語り「すべてを変えるパワー」と広告される本機種。その驚異的なマシンスペックと拡張性などの紹介から前機種との比較などを通し、Macのワークステーションが作り得る未来への可能性を紐解いていく。 2:Apple Mac Pro Late2019概要 <↑クリックして拡大> 発表当初より、Apple Mac Pro Late2019は注目度も高く、既に発売されているためデザイン面など基本的な情報は皆さんご存知であろう。たださすがにMac Proの最新モデルともあり、オプションも多岐に渡るため構成部品とそのカスタマイズ域についてを別表にまとめるのでご確認いただきたい。また「これまでに開発した中で最も強力なMac」「すべてを変えるパワー」と称されるMac Pro Late2019だが、比較対象に直近3モデル:Mid2012・Late2013・Late2019を取り上げ、CPU / メモリ / GPU / ストレージ、周辺機器との接続性なども同様に別表に掲載する。それでは、次から各構成部品の紹介に移り、Mac Pro Late2019の内容を確認していく。 <↑クリックして拡大> 【特記事項】 ・min maxの値:Apple公表値を基準とする。メモリなど3rdパーティー製品による最大値は無視する。 ・CPU/GPU:モデル名を表記する。比較はベンチマークで行い後述する。 ・メモリ/ストレージ:モデル名は表記せず、容量/動作周波数、容量/PCIe規格といった数値表記とする。 ・数値の表記:比較を用意にする為、単位を揃える。(メモリ:GB、ストレージ:TB) 3:Mac Pro Late2019の各構成部品:CPU Apple HPの広告で搭載CPUについては、”最大28コアのパワー。制限なく作業できます。”と称されている。このモデルではMac史上最多の最大28コアを搭載したIntel XeonWプロセッサを採用、8coreから28coreまで、5つのプロセッサをラインナップしたため、ニーズに合わせた性能を手に入れることができるようになった。CPUはコンピュータの制御や演算や情報転送をつかさどる中枢部分であるが、直近3モデル(Mid2012/Late2013/Late2019)のCPUパフォーマンスを比較し、その実力を見ていく。まずは以下のグラフをご覧いただこう。 図1. Mac Pro CPU(Multi-core)ベンチマーク比較 こちらのグラフは、モデルごとのCPUベンチマーク比較である。横軸左から、Mid2012(青)→Late2013(緑)→Late2019(オレンジ)と並び、各モデルの最低CPUと最高CPUにおける、マルチコアのベンチマーク値を縦軸に示した。ベンチマーク値はGeekBenchで公開されるデータをソースとしている。Late2019の最低CPUの値に注目しラインを引くと、旧モデル最高CPUの値をも超えていることがわかる。たとえ、Late2019で最低のCPUを選んだとしても、旧MacPROの性能を全て超えていくということだ。決して誇大広告でなく、「これまでに開発した中で最も強力なMac」と称される理由の一つだと分かる。数値で示すと以下表になる。参考までに、Single-Coreのベンチマーク値も掲載する。 表3. Late2019/最低CPU と 旧モデル/最高CPUのベンチマーク値 次に、Late2019最大値にもラインを引き、Late2019最低値との差分に注目する。この差分が意味するのは、ユーザーが選択できる”性能幅”である。ユーザーはこの範囲の中から自らの環境に合わせてMacPROをコーディネートしていくことになる。視覚的にも分かる通り、Late2013と比べても圧倒的に性能の選択幅が広くなっている事が分かる。 図2. Mac Pro Late2019 ベンチマーク性能幅 数値を示すと以下のようになる。Late2013と比較すると、約3倍もの性能選択幅があることが分かる。 表4. 性能選択余地の遷移 以上の比較から、旧MacProから乗り換える場合、”Late2019を買えばCPU性能が必ず向上する”ということが分かった。しかし、性能幅も広がった為、新たにLate2019を検討する方は自分に合うCPUを選択する必要がある。Late2013よりも長期的運用が可能だと噂され、CPUが動作速度の根幹であることを考えると、Mac Pro Late2019のCPUは少しオーバースペックなものを選択しても良いかもしれない。参考までに、現行MacのCPU性能比較もご覧いただきたい。なお、現行モデルの比較対象として以下モデルを追加した。iMac Pro Late 2017 / Mac mini Late 2018 / iMac 21.5inch Early 2019 / iMac 27inch Early 2019 / Mac Book Pro 16inch Late 2019(ノート型の参考) 図3. 現行MacとMacPro Late2019との比較 <↑クリックして拡大> このグラフで注目するのは、Late2019のCPU最低値と16core XeonWの値である。まず、CPU最低値に注目すると、iMacのCPU値と交差することが分かる。また、16core XeonWの値に注目すると交差するCPUが存在しなくなることが分かる。故に、現行モデル以上の性能を求め、他にない性能を実現するには16core XeonW以上の選択が必要となる。また、ワークステーション/PCの性能はCPUのみで決まることではないので、購入の際にはメモリ、GPUや拡張性なども十分考慮していただきたい。 4:Mac Pro Late2019の各構成部品:メモリ Apple HPの広告でメモリについては、"あなたが知っているメモリは、昨日のメモリです。”と称されている。ユーザーがアクセスできる12の物理的なDIMMスロットを搭載し、プロセッサと互換性のあるメモリであれば、将来的なアップグレードも可能だ。Mac Pro Late2019ではR-DIMMとLR-DIMMのメモリモジュールに対応しているが、同じシステムで2種類のDIMMを使うことはできないので容量追加には注意が必要である。LR-DIMM対応のCPU(24core以上のXeonW)を選択した場合、最大1.5TBの容量を実現する。 ワークステーション/PCの”作業机”と訳される事も多いメモリ。データやプログラムを一時的に記憶する部品であるが、CPU同様に直近3モデルと比較していく。まずは最小構成、最大構成の2種類のグラフをご覧いただこう。 図4. MacPro:メモリ最小構成での比較 図5. MacPro:メモリ最大構成での比較 表5.MacPro:メモリ最小構成での比較 表6.MacPro:メモリ最大構成での比較 横軸はCPU同様、Mac Pro Mid2012/Late2013/Late2019を並べている。縦軸左側はメモリ容量値で青棒グラフで示し、右側は動作周波数をオレンジ丸で示している。図4.最小構成のグラフに注目しメモリ容量を比較すると、おおよそモデル毎に倍々の推移が見られる。また、動作周波数に関しては2次曲線的推移が見られる。モデルの発展とともに、部品としての性能も格段に上がってきている事が分かる。図5.最大構成のグラフに関しては一目瞭然ではあるが、表6.最大構成のLate2019、メモリ容量の前モデル比に注目すると23.44という驚異的な数値を叩く。これもまた、「これまでに開発した中で最も強力なMac」と称される理由の一つだと分かる。 さて、購入検討時のメモリ問題であるが、こちらは後ほどアップグレードできる為、初めは低容量から導入し、足りなければ随時追加という方式が取れる。メモリで浮いた金額をCPUへ割り当てるという判断もできるため、予算を抑えながら導入も可能だ。ただし、CPUによるメモリ容量の搭載上限が決まり、メモリモジュールを合わせる事を念頭に入れ検討する事が重要だ。 5:Mac Pro Late2019の各構成部品:PCI Express拡張スロット Mac Pro Late2019ではCPUの性能幅やメモリの拡張性に加え、8つのPCI Express拡張スロットの搭載が可能になった。Avid HDX Card や Universal Audio UAD-2 PCIe Cardを搭載してオーディオプロセスを拡張するも良し、加えて、GPU / AfterBurner(後述) / キャプチャボードを搭載し、グラフィック面を拡張しても良い。まさに、クリエイティブなユーザーの思いのままに、Mac Proの拡張が可能になったと言える。さらに、Mac Pro Mid2012と比べるとスロット数が倍になっていることから、PCIeによる機能拡張においても「これまでに開発した中で最も強力なMac」であると分かる。 写真を参考に、搭載可能なPCIeについて確認していこう。上から順に、ハーフレングススロット、シングルワイドスロット、ダブルワイドスロットと並ぶ。下から順に、スロットNo.が1-8までカウントされる。 それでは各種のスロットについて見ていこう。 ○ハーフレングススロット:No.8 スロットNo.8には最大 x4 レーンのPCIeカードが搭載可能。ここには標準仕様でApple I/Oカードが既に搭載されており、Thunderbolt 3ポート× 2、USB-Aポート× 2、3.5mm ヘッドフォンジャック× 1を備える。このI/Oカードを取り外して他のハーフレングスPCIeカードに取り替えることもできるが、別のスロットに取り付けることはできないので、変更を検討する場合には注意が必要だ。 ○シングルワイドスロット:No.5-7 スロットNo.5には最大 x16レーン、No.6-7には最大 ×8レーンのPCIeカードが搭載可能。スロットNo.5の最大 ×16レーンには、AfterBurnerはに取り付けることが推奨される。後述のGPUとの連携からであろうが、他カードとの兼ね合いから、AfterburnerをNo.5に取り付けられない場合は、後述のスロットNo.3へ、No.3とNo.5が埋まっている場合はスロット4へ取り付けると良い。 ○ダブルワイドスロット:No.1-4 スロットNo.1,3,4には最大 x16レーン、No.2には最大 x8レーンのPCIeカードが搭載可能。スロットNo.1、No.4は2列に渡ってPCIeが羅列しているが、これは後述するApple独自のMPX Moduleを搭載する為のレーンになる。MPXモジュール以外で使用する場合は、最大 x16レーンのPCIeスロットとして使用できる。 6:Mac Pro Late2019の各構成部品:GPU Apple HPの広告でGPUについては、"究極のパフォーマンスを設計しました。”と表現されている。業界初、MPX Module(Mac Pro Expansion Module)が搭載され、業界標準のPCI Expressのコネクタに1つPCIeレーンを加えThunderboltが統合された。また、高パフォーマンスでの動作のため、供給電力を500Wまで増やし、専用スロットによる効率的な冷却を実現している。500Wというと、一般的な冷蔵庫を駆動させたり、小型洗濯機を回したり、炊飯器でご飯を炊けたりしてしまう。また、Mac Pro Late2013の消費電力とほぼ同等である為、相当な量であるとイメージできる。話が逸れたが、GPUに関してもCPU同様に前モデルと比較していく。 図6. MacPro:GPU最小/最大での比較 こちらのグラフは、モデルごとのCPUベンチマーク比較である。横軸左から、Mid2012(青)→Late2013(緑)→Late2019(オレンジ)と並び、各モデルの最低GPUと最高GPUにおける、マルチコアのベンチマーク値を縦軸に示した。ベンチマーク値はGeekBenchで公開されるデータをソースとしているが、Mid2012に関しては有効なベンチマークを取得できなかった為、GPUに関してはLate2013との比較になる。また、AMD VegaⅡDuoは2機搭載だが、この値は単発AMD VegaⅡDuoの値となる。 表7.MacPro:GPU最小部品での比較 表8.MacPro:GPU最大部品での比較 部品単体であっても、前モデルからは最小でも2倍、最大では3倍のパフォーマンスを誇る。最大部品である。AMD Radeon Pro VegaⅡDuoはさらにもう一枚追加できるため、グラフィックの分野でも十分驚異的なスペックが実現できると言える。これも「これまでに開発した中で最も強力なMac」と称される理由の一つとなる。 7:Mac Pro Late2019の各構成部品:AfterBurner Afterburnerとは、ProRes/Pro Res RAW ビデオファイルのマルチストリームのデコードや再生を高速化するハードウェアアクセラレータカードである。まず、AfterBurnerを導入するメリットを振り返ろう。ProRes や ProRes RAW のマルチストリームを8Kなどの解像度で再生するための演算をこのAfterBurnerに任せられる。逆にない場合、Mac Pro Late2019のCPUで演算を行うため、その負担分が編集作業に回せなくなってしまう。AfterBurnerによる外部演算を取り入れることによりCPUでは他の処理や映像エフェクトの演算に注力できる為、より複雑な3D、映像編集が可能となる。また、ProRes および ProRes RAW のプロジェクトやファイルのトランスコードおよび、共有が高速化する事もメリットの一つである。 AfterBurnerの対応するアプリケーションは、"ProRes または ProRes RAW のファイルを再生するApple製のアプリケーション”である。例えば、Final Cut Pro X、Motion、Compressor、QuickTime Player などで使用可能だ。その他、他社製のアプリが気になるところだが、"他社製の App のデベロッパが、Afterburner のサポートを組み込むことは可能”とのことなので、今後の対応に期待したい。 8:考察 Mac Pro Late2019の登場により、従来のMacからは考えられないようなスペックでワークステーションを導入する事が可能になったが、ハイスペックかつ消費電力も高いため、初期投資およびランニングコストも大きくかかってしまうというリスクもある。しかし、クリエイティブ以外に時間を割いていると感じているならば朗報である。例えば、レンダリング、プロキシファイル変換、変換によって生じるファイルマネジメントなどなど。Mac Pro Late2019の性能は、作品を完成させるまでの待機時間や面倒な時間を圧倒的に減らし、ユーザーのクリエイティブな時間をより多く提供してくれると考える。 従来機よりも早く仕事を終わらせ、次の仕事に取り掛かる、それを終えたらまた次の新しい仕事へと取り掛かる。サイクルの早い循環、クオリティの向上が、他者との差別化に繋がっていく。初期投資、ランニングコストなど懸念点も多いが、その分クリエイティブで勝負して稼いでいく、というスタイルへMac Pro Late2019が導いてくれるかもしれない。これからの時代の働き方を変え、クリエイティブ制作に革新が起きることを期待している。 *ProceedMagazine2020号より転載
2020年1月、CES2020にてお披露目された"Dolby Atmos Music"。映画向けの音響規格の一つであるDolby Atmosを、新たなる"3D"音楽体験として取り入れよう、という試みだ。実は、前年5月頃より"Dolby Atmosで音楽を制作しよう”という動きがあり、ドルビーは世界的大手の音楽レーベル、ユニバーサルミュージックとの協業を進めてきた。"Dolby Atmos"は元々映画音響用のフォーマットとして2012年に誕生している。その後、ヨーロッパを中心に対応劇場が急速に増え、海外では既に5000スクリーン以上、国内でもここ数年で30スクリーン以上に渡りDolby Atmosのシステムが導入されてきた。 また、映画の他にもVRやゲーム市場でもすでにその名を轟かせており、今回、満を持しての音楽分野への参入となる。Dolby Atmos Music自体は、既にプロオーディオ系の様々なメディアにて取り上げられているが、「Dolby Atmosという名称は聞いたことがある程度」「Dolby Atmosでの制作に興味があるが、日本語の情報が少ない」という声もまだまだ多い。そこでこの記事では、今のうちに知っておきたいDolby Atmosの基礎知識から、Dolby Atmosミックスの始めの一歩までを出来るだけ分かりやすい表現で紹介していきたい。 目次 コンテンツは消費の時代から”体験”の時代に 〜イマーシブなオーディオ体験とは?〜 まずは Dolby Atmosを体験しよう! / 映画、音楽、ゲームでの採用例 ベッドとオブジェクトって何!? / Dolby Atmos基礎知識 Dolby Atmos制作を始めよう / 必要なものは何? 自宅で始めるDolby Atmosミックス / Dolby Atmos Renderer × Pro Tools 2020.3【Send/Return編】 自宅で始めるDolby Atmosミックス / Dolby Atmos Renderer × Pro Tools 2020.3【CoreAudio編】 1.コンテンツは消費の時代から”体験”の時代に 〜イマーシブなオーディオ体験とは?〜 近年、"3Dオーディオ"という言葉をよく見かけるようになった。今のところ、その厳密な定義は存在していないが、古くからは"立体音響"や"三次元音響"といった言葉でも知られており、文字通り、音の位置方向を360度、立体的に感じられる音響方式のことを指す。その歴史は非常に古く、諸説あるがおよそ1世紀に渡るとも言われている。 点音源のモノラルに始まり、左右を表現できるようになったステレオ。そして、5.1、7.1、9.1…とその数を増やすことによって、さらなる音の広がりや奥行きを表現できるようになったサラウンド。と、ここまででもイマーシブな(*1)オーディオ体験ができていたのだが、そこにいよいよ、天井や足元といった高さ方向にもスピーカーが加わり、三次元空間を飛び回るような音の再生が可能になった。それぞれの方式は厳密には異なるが、3DオーディオフォーマットにはDolby Atmos、Auro-3D、DTS:X、NHK22.2ch、Sony360 Reality Audioなどといったものがある。 基本的に、これまでこうした3Dフォーマットのオーディオを再生するにはチャンネル数に応じた複数のスピーカーが必要だった。そのため、立体的な音像定位の再現性と、そうした再生環境の手軽さはどうしてもトレードオフになっており、なかなか世間一般に浸透しづらいという状況が続いていた。そこで、いま再注目を浴びているのが"バイノーラル(*2)録音・再生方式"だ。個人差はあるものの原理は単純明快で、「人間の頭部を模したダミーヘッドマイクで録音すれば、再生時にも人間が普段自分の耳で聞いているような立体的な音像が得られる」という仕組み。当然ながらデジタル化が進んだ現代においては、もはやダミーヘッドすら必要なく、HRTF関数(*3)を用いれば、デジタルデータ上で人間の頭側部の物理的音響特性を計算・再現してしまうことができる。 バイノーラル再生自体は全くもって新しい技術というわけではないのだが、「音楽をスマホでストリーミング再生しつつ、ヘッドホンorイヤホンで聴く」というスタイルが完全に定着した今、既存の環境で気軽にイマーシブオーディオを楽しめるようになったというのが注目すべきポイントだ。モバイルでのDolby Atmos再生をはじめ、Sonyの360 Rearity Audio、ストリーミングサービスのバイノーラル音声広告といった場面でも活用されている。 *1 イマーシブ=Immersive : 没入型の *2 バイノーラル= Binaural : 両耳(用)の *3 HRTF=Head Related Transfer Function : 頭部伝達関数 2.まずは Dolby Atmosを体験しよう! / 映画、音楽、ゲームでの採用例 では、Dolby Atmosは一体どのようなシーンで採用されているのだろうか。百聞は一見に如かず、これまでDolby Atmos作品に触れたことがないという方は、まずは是非とも体験していただきたい。 映画 映画館でDolby Atmosを体験するためには、専用設計のスクリーンで鑑賞する必要がある。これには2種類あり、一つがオーディオの規格であるDolby Atmosのみに対応したもの、もう一つがDolby Atmosに加え、映像の規格であるDolby Visionにも対応したものだ。後者は"Dolby Cinema"と呼ばれ、現時点では国内7スクリーン(開業予定含む)に導入されている。 Dolby Atmosでの上映に対応している劇場は年々増加していて、2020年4月現在で導入予定含む数値にはなるが、既に国内では 36スクリーン、海外では5000スクリーン以上にも及んでいる。 (いずれもDolby Atmos + Dolby Cinema計)当然ながら対応作品も年々増えており、ライブストリーミング等、映画作品以外のデジタルコンテンツも含めると、国内では130作品、海外ではその10倍の1300を超える作品がDolby Atmosで制作されている。いくつか例を挙げると、国内興行収入130億円を超える大ヒットとなった2018年の「ボヘミアン・ラプソディ」をはじめ、2020年のアカデミーでは作品賞を受賞した「パラサイト 半地下の家族」、同じく録音賞を受賞した「1917 命をかけた伝令」などといった作品がDolby Atmosで制作されている。 ●Dolby Atmos採用映画の例 アイアンマン3 / アナと雪の女王 / ラ・ラ・ランド/ パラサイト / フォードvsフェラーリ / ジョーカー / 1917 命をかけた伝令 / ボヘミアンラプソディetc... *Dolby 公式サイトよりDolby Atmos採用映画一覧を確認できる ゲーム Dolby AtmosはPCやXbox Oneといった家庭用ゲームの人気タイトルでも数多く採用されている。特に、近年流行りのFPS(First Person Shooter = 一人称視点シューティング)と呼ばれるジャンルのゲームでは、射撃音を頼りに敵の位置を把握しなければならない。そのため、Dolby Atmosを使った3Dサウンドの再生環境の需要がより高まってきているのだ。 ※Windows PCやXbox OneにおいてヘッドホンでDolby Atmosを楽しみたい場合は、Dolby Access(無料)というアプリをインストールし、Dolby Atmos for Headphonesをアプリ内購入する必要がある。 ●Dolby Atmos採用ゲームの例 Assassin's Creed Origins(Windows PC, Xbox One) / Final Fantasy XV(Windows PC ,Xbox One)Star / Wars Battlefront(Windows PC ,Xbox One) / ACE COMBAT 7: SKIES UNKNOWN(Windows PC, Xbox One) 音楽 Amazon Echo Studio そして2020年1月にCES2020で正式発表されたのが、このDolby Atmosの名を冠した新たな3Dオーディオ再生フォーマット、Dolby Atmos Musicだ。現時点で、国内ではAmazonが提供するAmazon Music HD内のみでサービスを提供しており、同社のスマートスピーカー”Amazon Echo Studio”を用いて再生することができる。アメリカでは音楽ストリーミングサービス"TIDAL"でもDolby Atmos Musicを再生することができ、こちらは対応するPCやスマホなどでも楽しめるようになっている。 ここまで、Dolby Atmosを体験してみて、皆さんはどのような感想を持たれただろうか? 当然ながら多少の個人差はあるにしても、映画であればその空間に入り込んだかのような没入感・豊かな臨場感を体験できたのではないだろうか。あるいは、人によっては「期待したほど音像が動き回っている感じが得られなかった」という方もいるだろう。しかし、それでDolby Atmosの魅力を見限るのはやや早計だ。なぜなら、この技術は、"作品の意図として、音を無意識に落とし込む”くらい自然にミックスすることを可能にしているからだ。それを念頭におき、もう一度、繊細な音の表現に耳を澄ましてみてほしい。 3.ベッドとオブジェクトって何!? 〜Dolby Atmos基礎知識〜 体験を終えたところで、ここからは技術的な側面と基礎知識を押さえていこう。ポイントとなるのは以下の3点だ。 ● ベッド信号とオブジェクト信号 ● 3次元情報を記録するメタデータ ● 再生環境に合わせてレンダリング Dolby Atmosの立体的な音像定位は、2種類の方式を組み合わせて再現されている。 一つはチャンネルベースの信号 ー 5.1.2や7.1.2などあらかじめ定められたスピーカー配置を想定し、そのスピーカーから出力される信号のことを"Bed"と呼んでいる。例えば、BGMやベースノイズといった、あまり指向性が求められない音の再生に向いている。基本は音源とスピーカーが1対1の関係。従来のステレオやサラウンドのミックスと同じなので比較的イメージがつきやすいだろう。 劇場のように、一つのチャンネルが複数のスピーカーで構成されていた場合、そのチャンネルに送った音は複数のスピーカーから再生されることになる。 そしてもう一つはオブジェクトベースの信号 ー 3次元空間内を縦横無尽に動き回る、点音源(ポイントソース)の再生に適した方式だ。例えば、空を飛ぶ鳥の鳴き声や、アクション映画での動きのある効果音の再生に向いている。原理としては、3次元情報を記録するメタデータをオーディオとともに記録・伝送し、再生機器側でそれらを再生環境に合わせてレンダリング(≒変換)することで、再生環境ごとのスピーカー配列の違いをエンコーダー側で吸収できるという仕組みだ。 ある1点に音源を置いた時に、そこから音が聴こえるように、スピーカー送りを最適化するのがレンダラーの役割 Dolby AtmosのチャンネルフォーマットはBed 7.1.2ch(計10ch) + Object118ch(最大)での制作が基本となっている。この"空間を包み込むような音"の演出が得意なベッドと、”任意の1点から聞こえる音”の演出が得意なオブジェクトの両方を組み合わせることによって、Dolby Atmosは劇場での高い臨場感を生み出しているのだ。 4.Dolby Atmos制作を始めよう 〜必要なものは何?〜 Dolby Atmosはその利用目的によって、大きく2種類のフォーマットに分けられる。 まずは、一番最初に登場した映画館向けのフォーマット、Dolby Atmos Cinemaだ。これはまさにフルスペックのDolby Atmosで、先述した7.1.2chのBEDと118chのObjectにより成り立っている。このフォーマットの制作を行うためにはDolbyの基準を満たした音響空間を持つダビングステージでの作業が必要となる。しかも、劇場向けのマスターファイルを作ることができるCinema Rendering and Mastering Unit (Cinema RMU)はDolbyからの貸し出しでしか入手することができない。 もう一つは、Blu-ray やストリーミング配信向けのフォーマット、 Dolby Atmos Homeだ。実は、こちらの大元となるマスターファイル自体は Cinema 向けのものと全く同じものだ。しかし、このマスターファイルから Home 向けのエンコードを行うことで、128chのオーディオを独自の技術を活用して、できる限りクオリティーを担保したまま少ないチャンネル数に畳み込むができる。この技術によって、Blu-rayやNetflixといった家庭向けの環境でも、Dolby Atmos の迫力のサウンドを楽しめるようになった。こちらも、マスターファイルを作成するためには、HT-RMUと呼ばれるハードウェアレンダラーが必要となるが、HT-RMUは購入してスタジオに常設できるというのがCinemaとは異なる点だ。 ●Dolby Atmos制作環境 比較表 ※Dolby Atmos Production SuiteはWeb上、AVID Storeからご購入できるほか、Mastering Suiteにも付属している。 ※Dolby Atmos Dub with RMUについてはDolby Japan(TEL: 03-3524-7300)へお問い合わせください。 ●Cinema 映画館上映を目的としたマスター。ダビングステージでファイナルミックスとマスタリングを行う。Dolby Atmos Print Masterと呼ばれるファイル群をCinema Rendering and Mastering Unit (Cinema RMU)で作成。 ●Home 一般家庭での視聴を目的としたマスター。ニアフィールドモニターによるDolby Atmosスピーカー・レイアウトにてミックスとマスタリングを行う。Dolby Atmos Master File(.atmos)と呼ばれるファイル群をHome-Theater-Rendering and Mastering Unit(HT-RMU)で作成。 Cinema用とHome用のRMUでは作成できるファイルが異なり、スピーカーレイアウト/部屋の容積に関する要件もCinema向けとHome向けで異なる。それぞれ、目的に合わせたRMUを使用する必要がある。ミキシング用のツール、DAW、プラグイン等は共通。 ここまで作品や概要を説明してきたが、そろそろDolby Atmosでの制作を皆さんも始めてみたくなってきただろうか?「でも、自宅に7.1.2chをモニターできる環境が無い!「やってみたいけど、すぐには予算が捻出できない!」という声も聞こえてきそうだが、そんな方にとっての朗報がある。Dolby Atmos Production Suiteを使えば、なんと ¥33,000 (Avid Storeで購入の場合)というローコストから、Dolby Atmos ミックスの最低限の環境が導入できてしまうのだ。このソフトウェア以外に別途必要なものはない。必要なものはスペックが少し高めのマシンと、対応DAW(Pro Tools、Nuendo、DaVinchi etc)、そしてモニター用のヘッドホンのみだ。 多少の制約はあるものの、ヘッドホンを使ったバイノーラル再生である程度のミックスができてしまうので、スタジオに持ち込んでのマスタリング前に自宅やオフィスの空き部屋といったパーソナルな環境でDolby Atmosの仕込みを行うことができる。次の項ではそのワークフローを具体的に紹介していく。 5.自宅で始めるDolby Atmosミックス 〜Dolby Atmos Renderer × Pro Tools 2020.3〜 ここからは最新のPro Tools 2020.3 とProduction Suiteを使って実際のDolby Atmosミックスのワークフローをチェックしていきたい。まず、大まかな流れとしては下記のようになる。PTとレンダラーの接続方法は、Send/Returnプラグインを使う方法とCore Audio経由でやり取りする方法の2種類がある。それでは順番に見ていこう。 1.Dolby Atmos Production SuiteをAvid Storeもしくは販売代理店にて購入しインストール。 2.Dolby Atmos Renderer(以後レンダラー)を起動各種設定を行う。 3.Pro Tools(以後PT) を起動各種設定を行う。※正しいルーティングの確立のため、必ずレンダラー →Pro Toolsの順で起動を行うこと。 4.PTの標準パンナーで3Dパンニングのオートメーションを書き込む。 5.Dolby Atmos RMU導入スタジオに持ち込む。 Send/Returnプラグインを使う方法 ■Dolby Atmos Renderer の設定 ● 左上Dolby Atmos Renderer → Preferences( ⌘+ , )で設定画面を表示 ● Audio driver、External Sync sourceをSend/Return Plug-insに設定 ● Flame rate、Sample rateを設定 ※PTの設定と合わせる HeadphoneのRender modeをBinauralにすることで、標準HRTFでバイノーラル化された3Dパンニングを確認することができる。(※聴こえ方には個人差があります。) ■Pro Tools の設定 ● 新規作成→プロジェクト名を入力→テンプレートから作成にチェック ● テンプレートグループ:Dolby Atmos Production Suite内”Dolby Atmos Renderer Send Return Mono(またはStereo)”を選択→ファイルタイプ:BWF ● 任意のサンプルレート、ビットデプス、I/O設定を入力→作成 ● 設定 → ペリフェラル → Atmosタブ ● チェックボックスに2箇所ともチェックを入れる。 ● RMUホストの欄には”MAC名.local”または”LOCALHOST”と入力。 接続状況を示すランプが緑色に点灯すればOK。一度接続した場合、次回からプルダウンメニューで選択できる。 編集ウィンドウを見てみると、英語でコメントが入力されたいくつかのトラックが並んでいる。 ● まず、一番上の7.1.2Bedという名称のトラック ーここにBedから出力したい7.1.2の音素材をペーストまたはRECする。 ● 次に、その下のObject 11という名称のトラック ーここにObjectから出力したいMonoまたはStereoの音素材をペーストまたはRECする。 ● 上の画像の例では、任意の範囲をドラッグして選択、AudioSuite→Other→Signal Genetatorよりピンクノイズを生成している。 ● このトラックは、画面左側、非表示になっている”SEND_〇〇_IN_ch数”という表記になっているAUXトラックに送られている。 ● このAUXトラックにSendプラグインがインサートされており、パンなどのメタデータとともにレンダラーへと出力される。 試しに再生してみると、レンダラー側が上の画像のような状態になり、信号を受けているチャンネルが点灯している様子が確認できる。 赤丸で囲った部分をクリックしてアウトプットウィンドウを表示し、パンナーのポジションのつまみをぐりぐりと動かしてみよう。 すると、レンダラー内のオブジェクトが連動してぐりぐりと動くのが確認できる。 オートメーションをWriteモードにしてチェックすると、きちんと書き込んだ通りに3Dパンニングされているのが分かる。ここで、トラックの右端”オブジェクト”と書かれているボタンをクリックすると、”バス”という表示に切り替わり、その音はベッドから出力される。つまり、ベッドとオブジェクトをシームレスに切り替えることができるのだ。これは、例えば、映画などで正面のベッドから出力していたダイアローグを、”ワンシーンだけオブジェクトにして、耳元に持ってくる”といった表現に活用できそうだ。 さらにその右隣の三角形のボタンを押すごとに、” このトラックに書き込まれたメタデータをマスターとする ”( 緑点灯 ) か、” 外部のオブジェクトパンニング情報源からREC する ”( 赤丸点灯 ) か、” 何も送受信しない ”( 無点灯 ) か を選択できるようになっている。レンダラー内でレンダリングされた音は、ReturnプラグインからPTへと戻ってくる。あとは、各々のモニター環境に合わせてアウトプットしたり、RECをかけたりすることができる。 以上が、Send/Returnプラグインを利用した一連のルーティングのワークフローになる。今回はテンプレートから作成したが、もちろんはじめから好きなようにルーティングを組むことも可能だ。しかし、チャンネル数が多い場合はやや複雑になってくるので、初めての場合はまずはテンプレートからの作成をおすすめする。 CoreAudioを使う方法 はじめに、Core Audioを使う場合、Sync sourceをMTCかLTC over Audioから選択する必要がある。LTCを使う場合は、PTの130chまでの空きトラックにLTCトラックまたは、Production Suite 付属のLTC Generator プラグインを挿入→レンダラーからそのch番号を指定する。MTCを使う場合はIACバスをというものを作成する必要がある。(※IAC = Inter-application communication) ■IACバスの設定 ● Mac →アプリケーション→ユーティリティ→Audio MIDI設定を開く ● タブメニューのウインドウ→IAC Driverをダブルクリック ※装置名がIACドライバなど日本語になっていた場合レンダラーでの文字化けを防ぐため”IAC Driver”など英語に変更しておくとよい ● +ボタンでポートを追加→名称を”MTC”(任意)に変更→適用をクリック ■Dolby Atmos Renderer 側の設定 ● 左上Dolby Atmos Rendere → Preferences( ⌘+ , )で設定画面を表示 ● Audio driverをCore Audioに設定 ● Audio input deviceを”Dolby Audio Bridge”に設定 ※ここに”Dolby Audio Bridge”が表示されていない場合、Macのシステム環境設定→セキュリティとプライバシー内に関連するアラートが出ていないか確認。 ● External Sync sourceをMTCに設定し、MTC MIDI deviceで先ほど作成したIAC Driver MTCを選択(またはLTC over Audioに設定しCh数を指定) ● Flame rate、Sample rateを設定 ※PTの設定と合わせる ● ヘッドホンでバイノーラルで作業する場合はHeadphone only modeを有効にすると、リレンダリングのプロセスなどを省くため、マシンに余分な負荷をかけることなく作業できる ■Pro Tools 側の設定 ● 設定→プレイバックエンジンを”Dolby Audio Bridge”に。 ● キャッシュサイズはできる限り大きめに設定しておくと、プレイバック時にエラーが発生しにくくなる。 ● 設定→ペリフェラル→同期→MTC送信ポートを先ほど作成した”IAC Driver,MTC”に設定 ● 設定 → ペリフェラル → Atmosタブ(Send/Returnの項目と同様だ) ● チェックボックスに2箇所ともチェックを入れる。 ● RMUホストの欄には”MAC名.local”または”LOCALHOST”と入力。接続状況を示すランプが緑色に点灯すればOK。一度接続した場合、次回からプルダウンメニューで選択できる。 以上で、CoreAudio経由でのルーティングは完了だ。Send/Returnプラグインを利用する時のように大量のAUXトラックが必要ないため、非常にシンプルにセッティングを完了できる。また、ソフトウェアレンダラーでの仕込みから最終のマスタリングでRMUのある環境に持ち込む際にも、I/O設定をやり直さなくてよいという点もメリットの1つだろう。こちらも試しにオーディオ素材を置いて動作を確認していただきたい。 マルチチャンネルサラウンドやバイノーラルコンテンツへの需要は、日々着実に高まりつつあることが実感される。今回はゼロからはじめるDolby Atmosということで、Dolby Atmosとはどのようなものなのか、そしてDolby Atmosミックスを始めるためにはどこからスタートすればいいのか、という足がかりまでを紹介してきた。「思ったより気軽に始められそう」と、感じていただいた方も多いのではないのだろうか。 「一度体験すれば、その素晴らしさは分かる。ただ、一度体験させるまでが難しい。」というのが3Dオーディオの抱える最大の命題の命題かもしれない。これを解決するのは何よりも感動のユーザー体験を生み出すことに尽きる。そのために今後どのような3Dオーディオ制作ノウハウを蓄積していけるのか、全てのクリエイターが手を取り合って研鑽することが、未来のコンテンツを創り上げる第一歩と言えるのかもしれない。 *ProceedMagazine2020号より転載
ホームシアター向けDolby Atmos(Dolby Atmos Home)マスターファイルを作成することが出来るHT-RMUシステムをMac miniで構成。劇場映画のBlu-RayリリースやVOD向けのDolby Atmos制作には必須のDolby Atmos HT-RMUシステムは、Dolby社の認証が下りている特定の機器構成でなければ構築することが出来ない。従来、認証が下りていたのは専用にカスタマイズされたWindows機やMac Proといった大型のマシンのみであったが、ついにMac miniを使用した構成の検証が完了し、正式に認可が下りた。 Pro Toolsシステムとの音声信号のやりとりにDanteを使用する構成と、MADIを使用する構成から選択することが可能で、どちらも非常にコンパクトなシステムで、フルチャンネルのDolby Atmos レンダリング/マスタリングを実現可能となっており、サイズ的にも費用的にも従来よりかなりコンパクトになった。 HT-RMUの概要についてはこちらをご覧ください>> ◎主な特徴 Dolby Atmosのマスター・ファイルである「.atmos」ファイルの作成 .atmosファイルから、家庭向けコンテンツ用の各フォーマットに合わせた納品マスターの作成 「.atmos」「Dolby Atmos Print Master」「BWAV」を相互に変換 Dolby Atmos環境でのモニタリング Dolby Atmosに対応するDAWとの連携 DAWとの接続はDanteまたはMADIから選択可能 ◎対応する主なソリューション Dolby Atmos に対応したBlu-ray作品のミキシング〜マスタリング Dolby Atmos に対応したデジタル配信コンテンツのミキシング〜マスタリング Dolby Atmos 映画作品のBlu-ray版制作のためのリミキシング〜リマスタリング Dolby Atmos 映画作品のデジタル配信版制作のためのリミキシング〜リマスタリング Dolby Atmos 映画作品のためのプリミキシング 構成例1:Dante ※図はクリックで拡大 RMUとPro Toolsシステムとの接続にDanteを使用する構成。拡張カードを換装したPro Tools | MTRXやFocusrite製品などの、Dante I/Fを持ったI/Oと組み合わせて使用することになる。この構成ではLTCの伝送にDanteを1回線使用してしまうため、扱えるオーディオが実質127chに制限されてしまうのが難点だが、シンプルなワイヤリング、ソフトウェア上でのシグナル制御など、Danteならではの利点も備えている。しかし、最大の魅力はなんと言ってもRMU自体が1U ラックサイズに納ってしまう点ではないだろうか。 構成例2:MADI ※図はクリックで拡大 こちらはMADI接続を使用する構成。歴史があり、安定した動作が期待できるMADIは多チャンネル伝送の分野では今でも高い信頼を得ている。この構成の場合、MADIまたはアナログの端子を使用してLTCを伝送するため、128chをフルにオーディオに割り当てることが出来るのも魅力だ。また、この構成の場合はMADI I/FをボックスタイプとPCIeカードから選択することが出来る。
制作現場の業界標準として導入されているMac Pro。新Mac Proの登場も迫っていますが、もう一つ改めてその存在を取り上げたいのがMac miniです。旧Mac Pro(黒)が衝撃的なフォルムで登場したのは2013年のこと、すでに6年の時間が経過し、ブラッシュアップを重ねて新モデルに移行しようとしています。その一方でMac miniも着実な進化を遂げており、現行モデルでは旧Mac Pro(黒)のスペックを勝るとも劣らない構成が可能に。Pro ToolsほかアプリケーションのMac OSへの対応も考慮すると、安定した旧OSとの組み合わせでの稼働も可能となるMac miniという選択肢は一気に現実味を帯びてきます。安定した制作環境が求められる業務の現場に新たなセレクトを、Mac miniでのシステム構築を見ていきます。 ◎チェックすべき4つのポイント 1:安定した旧OSでの対応も可能な制作環境 Pro Toolsのシステム要件とされているのは、macOS 10.12.6, 10.13.6, あるいは 10.14.6 のOSを搭載したIntel® Mac。Mac miniでPro Toolsとも緊密な安定したOS環境を整えることにより万全の制作体制を構築することも可能です。 2:Avid Pro Tools 動作推奨モデル Avidの推奨動作環境として挙げられていることもMac miniでのシステムアップにとって安心材料です。Pro Toolsシステム要件ではサポートする拡張シャーシなど環境構築に必要な情報も記載していますので、詳細は下記よりご確認ください。 <参照>Avid Knowledge Base:Pro Tools 2018 / 2019 システム要件 3:旧MacProとも劣らない充実のスペック 多彩なオプション選択で、旧Mac Proに勝るとも劣らないほどのスペックを構築。特にCPU・メモリの世代交代はパフォーマンスに大きな影響をもたらしているほか、メモリのオプション設定も旧Mac Proで最大32GBであったのに対し、64GBまで増設可と大きな魅力に。充実のスペックで制作システムのコアとして機能します。 4:導入しやすいコストとサイズ、そして拡張デバイスでの可能性 最大スペックのオプション選択でも¥389,180税込と、導入コストの優位性は見逃せません。約20cm四方・厚さ3.6cmのスクエアな筐体は省スペース性にも優れ、TB3の広帯域に対応した拡張デバイスがシステムをスマートに、そして制作の可能性を広げます。 ベンチマークで見る、いまのMac miniのポジション ◎PassMark・ベンチマークスコア比較 Mac miniのCPUは第8世代Core Processer - Coffee Lakeです。業務導入での比較対象となる旧Mac Pro(黒)は第3世代Core Processer - Ivy Bridgeを採用しています。なんと世代で言えば5世代もの進化の過程があり、単純にクロックスピードだけで比較することはできなさそうです。そこで、ベンチマークテストの結果をまとめてみました。 まず、第3世代のCore i7との比較ですが、当時のフラッグシップとなるクアッドコアのCore i7-3770K(3.5-3.9GHz)のスコアは9487、対してMac miniでオプション選択できるは第8世代 6コア Core i7-8700(3.2-4.6GHz)は15156の数値。実に1.6倍ものスコアの開きがあり、同一クロックであれば約2倍のスペックを持つと考えても良いのではないでしょうか。また、旧Mac Pro(黒)のCPUとなるXeon E5-1650v2(3.5GHz)とも比較すると、第8世代を携えたMac miniのスコアが上回るという逆転現象に行き着きます。世代間でのスペック向上は非常に大きく見逃せない結果です。 メモリに関しても、旧Mac Pro(黒)はDDR3 1866MHz ECC、Mac miniはDDR4 2666MHzとメモリ自体の世代も異なってきます。DDR3とDDR4では理論値として同一クロックでのデータの転送速度は2倍に、さらに動作クロック自体も1.5倍となっていることを考えると、実際の制作作業におけるパフォーマンスは大きく変わってきそうです。 ◎Mac miniのプライスレンジを確認 Mac miniのラインナップは主に2つ、クアッドコアと6コアのCPUとなります。そのうちPro Toolsの推奨モデルとしてAvidホームページに掲載されているMac miniは「Late 2018 Mac mini 8,1 6-Core i7 'Coffee Lake' 3.2 GHz」および、「Late 2018 Mac mini 8,1 6-Core i5 'Coffee Lake' 3.0 GHz」の2機種ですが、Pro Tools|UltimateではIntel® Core i7 プロセッサーを推奨していますので、6コア 3.2GHz Core i7のCPUを選択することになります。 ここにメモリの要件「16GB RAM (32GB以上を推奨)」を考慮すると、メモリ容量違いの上記3パターンが基準となって、ストレージ、ネットワークのオプションを選択する流れです。単純比較はできませんが、旧Mac Pro(黒)の6コアベースモデルが3.5GHz、16GBメモリ、256SSDの仕様で¥328,680税込であったことを考えると、Mac miniが3.2GHz 6コア、64GBメモリ、1TB SSDでまったくの同価格という事実は見逃せないポイントです。 <参照>Avid Knowledge Base:Pro Tools 2018 / 2019 システム要件 ◎Mac mini + Pro Tools|Ultimate System ・PLAN A:旧MacProに勝るとも劣らないパワフルなフルスペックバージョンで安定の制作環境を。 Mac miniの持つポテンシャルをいかんなく発揮させるのが、このフルスペックバージョン。メモリは64GB、2TBのSSDを選択したうえにビデオ関連デバイスやサーバーストレージとのネットワークも考慮して10GbEのオプションもセレクト。可能な限りのすべてを詰め込んでもこの価格帯に収まります。拡張シャーシとしては3つのSonnet Technoplogy社製品をセレクト。eGFXはTB3対応を果たしながらも低コストで導入できる1 Slotのモデル。Sonnet/Echo Express III-DとラックマウントのIII-Rは3枚のシングル幅、フルサイズのPCIeカードをサポートし、すでに導入実績も多数でHDXカードを複数枚導入するには必須です。 ・PLAN B:Pro Tools | Ultimateシステム要件をクリアした、コストパフォーマンスに優れた仕様。 もう一つの選択肢は、Mac miniのコストパフォーマンスを最大限に享受してPro Tools | Ultimateシステム要件をクリアした16GBメモリの仕様。もちろんシャーシを加えたHDXシステムもあれば、HD Native TBを選択してコスト的にPro Tools | Ultimateへの最短距離を取ることもできます。また、業務用途のサブシステムとしても魅力的な価格ゾーンにあり、マシンの将来的な転用も念頭に置けば有効的なセレクトと言えそうです。ちなみに、32GBへの増設は+¥44,000(税別)、64GBへは¥88,000(税別)となっており、実際の制作内容と照らし合わせて選択の落としどころを見つけたいところ。 ・ADD ON:HDXシステムはもちろん、RAID構築から4Kを見据えた導入まで拡がる可能性。 Avid HDX/HD NativeでPro Tools | Ultimateシステムを導入することもさることながら、元々のMac miniの拡張性を活かしたRAIDの構築や、外付けのグラフィックアクセラレーターも視野に入ります。Thunderbolt3の一方をシャーシ経由でHDXに、もう一方をeGPU PROに、さらに10GbE経由でNEXISなどサーバーストレージになど、制作システムのコアとしての活用も見えてきます。 ◎その実力は、いままさに最適な選択に! コストやそのサイズ感だけではもうありません。Mac miniは長らくエントリーモデルとしての位置付けであったかもしれませんが、実は必要な機能だけを絞り込んで余計なものは排除した、業務的で実務を見据えたマシンというイメージに変容してきています。さらに最近のニュースでは、Mac OSに対応したDolby AtmosのHT-RMU(HomeTheateer-Rendering and Mastering Unit)もソフトウェアVer.3.2からMac miniでの構築が従来の半分のコストで可能となっており、その活用の幅も広がっています。また、拡張デバイスはさまざまな3rd Partyから提案されていて、その組み合わせも実に多彩。ブレーンにあたる部分をMac miniに請け負わせるシステム構築はスペックも見返すと理にかなっている内容といえそうです。Mac miniを用いた最適な選択で安定の制作環境を。ぜひともご準備ください!
プラグインメーカー最大手のひとつであるWAVES社とデジタルコンソールの雄DiGiCo社によって開発されたDiGiGrid製品を活用することで、近年主流となりつつある96kHzでのライブコンサートをマルチチャンネルでPro Tools | HDX システムに接続することが可能になります。 コンパクトな筐体に2系統のMADI入出力ポートを備えたMGB/MGO、2系統のDigiLinkポートを備えたわずか1UのDLIを導入するだけで、既にお持ちのHDXカード1枚につき64ch(48kHz/96kHz)のMADI信号をPro Toolsとの間でやり取りすることが可能です。また、既存のDigiLink対応MADIインターフェイスと比較して、導入費用の面でも大きな魅力を備えています。 ◎主な特徴 ・ 既存のPro Tools | HDX システムはそのままに、MADI I/O 機能を追加可能 ・ HDXカード1枚に対して64ch のMADI信号をPro Toolsとやり取り可能 ・ 96kHz時にも64ch分のMADI伝送が可能 ・ 1Gbpsネットワークスイッチを導入することで、手軽にバックアップRec機能を追加 ・ ネットワークオーディオの利点である柔軟な拡張性と冗長性 ◎システム構成例1 システムはMADIとSoundGridのインターフェイスであるMGB/MGO + DigiLinkとSoundGridのインターフェイスであるDLIから成っています。MGB/MGOは単独でPCのネットワーク端子に接続して入出力させることも可能です。また、MGB/MGOは2ポートのMADI端子を搭載しているため、2つのMADIポートを使用して96kHz時でもPro Tools | HDXシステムとの間で最大64Chの入出力が行えます。ライブレコーディングだけでなく、バーチャルリハーサルにも活用可能なシステムを構築可能です。 ◎システム構成例2 ネットワークオーディオ・デバイスであるDiGiGrid導入の最大の利点は、1Gbpsネットワークスイッチと併用することで柔軟性の高い拡張性とリダンダシーを手軽に追加することが可能な点です。画像の例では既存PCを流用することでバックアップ用のDAWを追加しています。無償でダウンロードできるWaves社のTracksLiveを使用すれば、ネイティブ環境で合計128chまでのレコーディングとバーチャル・リハーサルのためのプレイバックが可能なシステムを手軽に構築可能です。 ネットワークを活用してさらなる拡張性と機能性を追加可能 また、このようにDLIを導入したシステムでは、様々なSoundGrid対応インターフェイスをPro Tools HDXシステムに追加することが可能です。モニタリング用のインターフェイスを追加して、収録時の検聴やインプットの追加、ADATやAES/EBU機器へのデジタル入出力、Ethernetケーブルを使用するネットワーク接続を生かし、長距離でも自由なI/Oの構築がフレキシブルに行えます。 また、SoundGrid 対応Serverを追加することで、対応プラグインを外部プロセッサーで動作させることができます。レコーディング時にWavesやSonnoxなどのプラグインのかけ録りを行う、低レイテンシーでプラグインをかけて送出するなど、コンピューターのCPUに負担をかけずにプラグインをかけられるDiGiGridシステムは失敗の許されないライブコンサートの現場に相応しいソリューションと言えるのではないでしょうか。
Ethernetケーブルによるビデオ/オーディオの伝送に関する規格統一を図ったSMPTE ST2110の制定により、にわかに注目度の上がるAoIP(Audio over IP、ネットワークオーディオ)。そうした動きに応えるように、新製品にDanteコネクションが搭載されている例や、Dante拡張カードのリリースなどのニュースを多く目にするようになりました。 Focusrite Redシリーズ / RedNetシリーズはDanteに標準対応するインターフェイスをラインナップ、必要な規模に応じた柔軟なセットアップと高い拡張性を提供します。Pro Tools HDXやMADIにも対応し、既存システムとの統合にも対応。イーサーネットケーブルで完結するシンプルなセットアップ、信頼度の高いオーディオ伝送、ネットワーク形成による自由なルーティングなど、Danteの持つ利点を最大限に享受することが可能です。 ◎主な特徴 ・柔軟で拡張性の高いシステム設計 ・ネットワーク内であれば完全に自由なルーティング ・Pro Tools | UltimateやMADIなどの既存システムとの統合性の高さ ◎システム構成例1 RedNetシリーズによるレコーディング用途のスタジオセットアップ例。豊富なI/Fにより音声信号の入り口から出口までをDanteによって完結することが可能。Pro Tools | HDXシステムとの統合により、既存のワークフローを最大限維持したまま、Danteによる利点を導入します。システムの中心にコンソールがない環境でも、マイクプリ、キュー/トークバック、モニターコントロールといった業務に欠かせない機能を手元からコントロールすることが出来ます。 ◎システム構成例2 コンパクトなDanteシステムに、WAVESプロセッシングを追加した例です。1Uの筐体に8IN/10OUTアナログ(マイクプリ4機を含む)、16x16デジタル、32x32Danteという豊富なI/Oを備えたRed4PreはDigiLinkポートも標準搭載。WGS Bridge for DanteがDanteネットワークとSoundGridネットワークをシームレスに統合。システムにニアゼロ・レイテンシーのWAVESプロセッシングを追加します。
DAWの進化とともに、今ではほとんどすべての作業はPro Toolsの内部ミックスで完結するようになりました。Pro Tools | S6は豊富なビジュアル・フィードバックと高いカスタマイズ性・拡張性により、Pro Toolsが持つ多くの機能へより素早く確実にアクセスすることを可能にします。Avid最新のI/OでもあるPro Tools | MTRXに備わるモニターコントロールセクションはPro Tools | S6からコントロールすることが可能。高品位なサウンドをPro Toolsシステムに提供するだけでなく、Pro Tools | S6システムを最新のミキシング・ソリューションへと昇華します。 ◎主な特徴 ・圧倒的に豊富なビジュアルフィードバックにより、必要な情報を素早く確実に把握。 ・モジュール方式のハードウェアは必要十分な規模での導入と、導入後の拡張に柔軟に対応。 ・タッチスリーンを採用したセンターセクションで、多くの機能を素早くコントロール。 ・Pro Tools | MTRXとの連携により、モノ、ステレオからマルチチャンネル・モニタリングまでを完璧にコントロール。 ・最大8までのEucon対応アプリケーションを同時にコントロール。大規模セッションでも効率的にオペレートが可能。 ◎システム構成例1 Pro Tools | S6 + Pro Tools | MTRXのもっともシンプルな構成。Pro Tools | MTRXは筐体にMADIポートを備えるほか、必要に応じてオプションカードを追加すれば様々な信号のハブとしてまさにコンソールとしての役割を担うことが可能です。 ◎システム構成例2 最大8つまでのEUCON対応DAW/アプリケーションと同時に接続可能なPro Tools | S6のポテンシャルを活用すれば、複数のPro Toolsシステムを1枚のサーフェースでコントロールすることが可能です。フェーダーひとつから、どのシステムのどのチャンネルをアサインするかを選択出来るため、各DAWでS6のエリアを分担して作業することも可能です。
Avid製ライブコンソールS3Lのために開発された堅牢性とスムースな操作性を兼ね備えた16フェーダーのコントロールサーフェスPro Tools | S3。Pro Tools | S6で培われたノウハウを詰め込んだPro Tools | Dock。コンパクトでありながらミックスをパワフルにコントロールするこの組み合わせがあれば、大型コンソールに匹敵するほど効率よくミックス作業を行うことが可能になります。 主な特徴 ・上位モデルならではの堅牢でスムースな16フェーダー、豊富なノブ/スイッチ、タッチストリップなどにより、プロジェクトを素早く俯瞰、コントロールを容易にします。(Pro Tools | S3) ・4in/6outのCore Audioインターフェースとして動作(Macのみ)。2つのXLR(Mic/Line)、2つのTRS(Line)インプットも兼ね備え、ボーカルやギターを急遽追加しなければならないような時にも素早く対応が可能。(Pro Tools | S3) ・Pro Tools | Control appをインストールしたiPadとともに使用することで、Pro Tools | S6のセンターセクションに匹敵するコントロールを実現。(Pro Tools | Dock) ・iPadによるタッチスクリーンと高品位なハードウェアにより、スピードと操作性を両立。(Pro Tools | Dock) システム構成 iPadはWiFi圏内にあればPro Tools | Control appからPro Toolsをコントロールすることが出来ます。iPadを持ってブースへ入り、ブースからレコーディングを開始/停止するなどの操作が可能。LANポートを備えたWiFiルーターを導入することで、S3、Dock、コンピューターのネットワークとiPadの安定運用を同時に実現する組み合わせがお勧めです。ご要望に合わせたiPad、WiFiルーターのモデルをお見積もりいたします。
多数のチャンネルを扱うことの多いポストプロダクション業務。5.1chサラウンドが標準となり、Dolby Atmosや22.2chなどのイマーシブサラウンドが浸透していくことで、MA作業で必要とされるチャンネル数はさらに増加していくと考えられます。Pro ToolsシステムのI/OにPro Tools | HD MADIを選べば、わずか1Uの筐体でHDXカード1枚の上限である64ch分の信号を外部とやりとりすることが可能になります。96kHz時も48kHz時と同様、64chを伝送することが出来ることも大きな利点です。 ◎主な特徴 ・わずか1ラック・スペースのインターフェースと2本のケーブルを介して、最大64のオーディオ・ストリームをPro Tools | HDシステムと他のMADIデバイス間で送受信できます。 ・すべての入出力を超高品質でサンプルレート変換できます。セッションを変換したり、外部MADIデバイスをダウンサンプリングしたりする面倒な作業は不要です。 ・別のフォーマット・コンバーターを用意することなく、オプティカル接続と同軸接続の両方で、さらに多様なMADIデバイスをレコーディングのセットアップに追加できます。 ・出力に対してサンプル・レート変換を使用する際、専用のBNCワード・クロックおよびXLR AES/EBU接続を介して外部クロックと同期することで、ジッターを最小限に抑えます。 ◎システム構成 Pro Tools | HD MADIの構成は、HDXカード1枚に対してI/O 1台という極めてシンプルなもの。MADI対応の音声卓となら直接接続が可能なほか、音声卓との間にMADIコンバーターを導入すれば、Pro Toolsと様々なデバイスを多チャンネルで接続することが可能となります。
Works
システムの実例を知る
『静かなる決闘』『大怪獣ガメラ』『Shall we ダンス?』といったヒット作が生みだされ、近年では高精細ディスプレイを使用したバーチャルプロダクション事業も手がける角川大映スタジオ。国内で唯一、自社に美術部を持つことでも有名な同スタジオだが、意外にもダビングステージの誕生は2011年と比較的最近のこと。このダビングステージにオープンから13年を経てついに大規模な改修が施された。待望のDolby Atmos Cinemaへの対応をはじめ、生まれ変わった本スタジオに込められた優れたノウハウを紐解いていきたい。 待望のDolby Atmos Cinema対応 今回の角川大映スタジオダビングステージ改修においてもっともエポックメイキングな点といえば、何よりもDolby Atmos Cinemaへの対応ということになるだろう。国内では、東映デジタルセンター、グロービジョンに続く3部屋目のDolby Atmos対応ダビングステージの誕生になるが、デュアルヘッド72フェーダーのS6を備えた角川大映スタジオは現時点で最新かつ最大規模のDolby Atmosダビングステージということになる。Dolby Atmosへの対応にあたって新たに天井へのスピーカー設置が必要になるため、遮音壁の内側、スクリーン裏のフロントバッフルを除き、ほぼすべての内装意匠を解体してイチからの工事が実施されているほか、フロントLCRを除くすべてのスピーカー+サブウーファーもDolby社のレギュレーションに基づいて新規導入されるなど、まさに生まれ変わったと言って過言ではない大規模な改修となっている。 📷天井と壁面にずらりと並んだサラウンドスピーカー。「Dolby Atmos Theatrical Studio Certification Program Requirements」に基づいて、サイドが左右壁面に7本ずつ、ハイトが天井左右に7本ずつ、リアが背後壁面6本の合計34本のサラウンドに加え、サラウンド用サブウーファー4本が使用されている。 同じDolby Atmosといっても、家庭での視聴を前提とするDolby Atmos Homeと、映画館での視聴を前提とした制作となるDolby Atmos Cinemaでは、Dolby社のレギュレーションを満たすために求められるスピーカーシステムがまったく異なっている。ベッドチャンネルに対して1対1の関係でスピーカーを配置するDolby Atmos Homeに対して、Dolby Atmos Cinemaでは映画館と同様にディフューズ・サラウンドを使用することで面によるサラウンド環境の再生を行うということになる。家庭よりもはるかに広い映画館においては、視聴する位置による音響体験の差を極力なくすことが求められ、作品の音響制作に関わる最終段であるダビングステージでは、その環境を再現することが必須というわけだ。 📷ダビングステージのフロント、透過スクリーンの裏に設置されたLCRは既存のJBL 5742+サブウーファーJBL 4642Aを残している。LCR用のアンプはステージ裏に別途ラッキングされているのだが、今回の更新に伴い、スピーカーケーブルも試写室と同じBELDENに更新されている。 必要なスピーカーの本数はDolby社の「Dolby Atmos Theatrical Studio Certification Program Requirements」という文書に記されており、部屋の横幅と前後の奥行きに応じて、リアサラウンドとサイドおよびハイトスピーカーの本数が細かく指定されている。今回の角川大映スタジオの場合、サイドが左右壁面に7本ずつ、ハイトが天井左右に7本ずつ、リアが背後壁面6本の合計34本のサラウンドに加え、サラウンド用サブウーファー4本が使用されることとなった。ベース・マネージメント用に設置されたこれらのサブウーファーは天井の四隅から少し内側に入ったあたりに設置された。 既存流用となるフロントのJBL 5742に合わせ、サラウンドスピーカーもすべてJBLで揃えられている。基本的にはJBL 9310が採用されているが、カバーエリアの関係でハイトの一部にはJBL AM5212/00が使用されることになった。カバーエリアやスピーカーの設置角度に関してもDolby社の厳密な規定が存在しているのだが、このレギュレーションで興味深いのは、すべてのスピーカーをミキシングポイントとなる1点に向けるのではなく、一部のサラウンドスピーカーはCMA(Critical Mix Area)と呼ばれるミキシング作業をおこなうエリアの四隅または辺縁に向けるよう指定されている点だろう。このあたりも、シネマ制作ならではの仕様と言えるのではないだろうか。 もうひとつ、Dolby Atmos HomeとDolby Atmos Cinemaの大きな違いをあげるのであれば、ソフトウェア・レンダラーが異なっていることだ。シネマ・レンダラーでは、Cinema roomという、ディフューズ・サラウンドを構成するためのスピーカー・アレイ設定ウィンドウのほか、 レンダラー内部でベースマネジメントを行う機能が搭載されている。シネマ・レンダラーは市販されておらず、手に入れるにはそのダビングステージがDolby社の認定を受けなければならない。ベースマネジメントを除くEQ / Delayといった電気的な補正はBSS BLU-806。角川大映スタジオにとって使い慣れたAudio Architectを使用している。シネマ制作においては、Dolby Atmosだけではなく、従来の5.1や7.1サラウンド制作も当然存在する。そうしたフォーマットの違いごとにプリセットを作成し、作業内容に応じて切り替えて使用する形だ。 📷サラウンドスピーカーは一新され、JBL 9310が新規導入された。 写真上で確認できるように、カバーエリアの関係で天井スピーカーのうち6本だけはJBL AM5212/00となっている。 後に詳述するが、今回の角川大映スタジオのシステム構成はMTRX IIとDanteをフル活用した非常にシンプルなものになっている。A-Chainのすべての音声信号はMTRX IIからDante信号として1本のLANケーブルで出力され、ネットワークスイッチを介してB-Chainの入口となる2台のBLU-806に接続されている。ここで電気的な補正(スピーカーマネジメント)を施された音声は再度Danteネットワークへデジタルのまま送られ、RME M-32 DA Pro II-DでDA処理がおこなわれ ている(Dante 対応モデルは国内非取扱)。DAコンバーターは複数の機種を試したうえで、RMEが選ばれている。DAまでの経路において可能な限りフォーマット変換を避けシンプルなシグナルフローとすることで、個々のサウンドの解像度・明瞭度を向上させたいという想いが反映されたシステム構築となる。 DAされた音声は、Crown IT5000HDとDCi 8|600 DAからなるパワーアンプ群に送られる。フロントLCRとすべてのサブウーファーがIT5000HD、サラウンドスピーカーがDCi 8|600 DAという受け持ちだ。 ちなみにそれぞれ、IT5000HDはAES、DCi 8|600 DAはDanteでも接続されており、M-32 DA Pro II-Dをバイパスした信号を受け取ることが可能。万一、DAまでの経路に不具合があった場合にリダンダントとして機能させることが可能になっている。 📷マシンルームの様子。ダクトの下に見えているのが映写機NEC NC2000C。システムからの映像出しは作業に応じてEX Pro ToolsのVideo Trackと、Media ComposerとのSatellite Linkが併用されている。 国内初導入のPost Moduleを含むデュアルヘッドPro Tools S6 📷CMA全景。KVMはIHSE Dracoを使用したマトリクス方式となっており、どの席からどのマシンでも操作可能だ。 もうひとつの大きな変更点は、AMS Neve DFC GeminiからAvid S6への音声卓の更新だ。素材の仕込み段階からすでに作業の中心となっているPro Toolsとの親和性の高さに加えて、今回の改修におけるテーマのひとつであるクリーンで解像度の高いより現代的なサウ ンドを目指すという方向性が大きな決め手になったようだ。そのS6は、国内のシネマ制作ではスタンダードとなりつつあるデュアルヘッ ド、72フェーダー、5ノブという仕様。日本音響エンジニアリング製作の特注デスクによって設置されている。そして、Dolby Atmos対応ということで、これも国内では多数の導入がある移動可能な特注ボックスに収められたJoystick Moduleを備え、さらに、国内初の導入となったPost Moduleが採用されている。 📷特注デスクに収められた72フェーダーのAvid S6。Master Moduleは盤面の中央に置かれている。一見シングルヘッドに見えるが、左側の離れた位置にふたつめのMaster Moduleが設置されている。 デュアルヘッドは1つのシステムにMaster Moduleが2基ある仕様(システムIDはMaster Moduleに紐づいているため、ライセンスとしては2つのシステムを1箇所で使用しているという形)。S6で1つのMaster Moduleが掴めるのは64フェーダーまでのため、72フェーダーという大規模な盤面を実現するにはデュアルヘッドの採用は必須となる。しかし、それよりも重要なのはデュアルヘッドを採用することで、S6の盤面を完全に2つの異なるエリアに分割することができるということだ。映画制作のダビングにおいてはひとつのシーンで同時に様々な音が鳴るため、セリフ、効果音、音楽のように、それぞれ各グループを担当する2〜3人のミキサーが同時に音声卓で作業をするということが一般的。デュアルヘッドを採用しておけば、どちらのMaster Moduleがどこまでのモジュール列を掴むのかがあらかじめ確定されるため、機能的にも視覚的にも各ミキサーが作業するフェーダーを明確に切り分けることができる。 2つのMaster Moduleの内の1つめは72フェーダーを構成する9モジュールを4:5に分割する位置、つまりサーフェスの中央に設置されているが、角川大映スタジオの大きな特徴は、2つめのMaster Moduleが72フェーダーから約1人分の作業スペースを隔てて離れた位置に設置されていることだ。センターのマスターフェーダーを挟んで左側には、セリフのミキサーが、右側には効果音のミキサーがという想定で構成が組まれている。 📷スタジオエンジニア席には2台目のMaster ModuleやMOM、Clarity Mなどのユーティリティ関連機器が置かれている。 この、2つめのMaster Module付近はスタジオエンジニアの作業スペースとして想定されており、ここに国内初の採用となるS6 / S4 Post Moduleが並べて配置されている。このPost Moduleだが、その名称とは異なり、いわゆる国内で言うところのポストプロダクションというよりは映画ダビングに特化した機能を持ったモジュールだ。 モジュールにはトグル切り替えが可能なパドルが並んでおり、これでダバーへ流し込まれる各ステムの再生 / 録音をワンタッチで切り替えることができる。また、S6システムにPost Moduleが含まれていると専用のメーターを表示することができるのだが、このメーターではメインのアウトプットに加えて、 各プレイアウトからの出力を一覧で監視することができる。ちなみに、Post Moduleの前方に設置されたDisplay Moduleはデスクに直接挿さっているのではなく、イギリスのスタジオ家具メーカーであるSoundz Fishyが製作しているS6 Lowered Displayというアタッチメントを使用してデスクに埋め込まれている。デスクはその他モジュールが埋め込まれた部分と同サイズで製作されているので、例えばMaster ModuleとPost Moduleの位置を入れ替えるようなことも可能になっている。 📷左)Master Moduleの左下にあるのが国内初導入となったPost Module。DFCに搭載されていたパドル式のRec / Play切り替え機能を提供するほか、各Macからのアウトプットを監視できる専用メーターをS6に追加する。右)デスク同様、日本音響エンジニアリング製作の特注ボックスに収められたJoy Stick Module。CMAを移動しながら試聴できるよう、ケーブルも延長されている。 MTRX IIが実現したSimple is Bestな機器構成 今回のダビングステージ改修にあたっては、システム設計においても解像度の向上がひとつのテーマとなっている。そのための手法として検討されたのが、システムをシンプルにすることでシグナル・パスを最短化するというものだ。 AMS Neve DFC GeminiやEuphonix System 5といったDSPコンソールからAvid S6への更新においては、大きく分けてふたつの方針が考えられる。まずは、ミキサー用のPro Toolsシステムを導入し、S6を従来のコンソールと同じくミキサーとして使用する方法だ。プレイアウト用の各Pro Toolsからの信号はいったんミキサーを担うPro Tools MTRXに集約され、これに接続されたPro ToolsをS6で操作することでDSPコンソールを使用していた時と同じ、再生機→ミキサー→録音機、というワークフローを再現できるだけでなく、必要に応じてPro Tools内でのインボックス・ミキシングも活用することができるが、当然システム規模は大きくなり、その分信号経路も複雑になる。 角川大映スタジオが採用したのはもうひとつの方針、各プレイアウトPro Toolsが1台のMTRX IIを介しダイレクトにDubber Pro Toolsに接続される構成だ。システムの構成をシンプルにすることで 、音声信号は異なる機器間での受け渡しや、それに伴うフォーマット変換によるロスを最小限に抑えながら、最短経路のみを通ってB-Chainまで到達することができる。 📷左)マシンルームに設置されたラック群。画像内左から2架がプレイアウトPro Tools関連、一番右がB-Chain関連のラックとなっており、その間にはMedia Composerやパッチ盤がラッキングされている。中)B-Chain関連ラック。そのサウンドが高く評価され採用されたRME DA 32 Pro II-D、スピーカーマネジメントを担うBLU-806のほか、Dante信号をヘッドホン出力用にDAするTASCAM ML-32D、ユーティリティとしてMADI-AESコンバーターADI-6432やRME DA/AD 32 Pro II-Dなどがあり、足元にはサラウンドスピーカー用のパワーアンプ類が設置されている。右)Dubber / EX Pro Toolsシステム(右)とRMUのラック(左)。左下にMTRX IIが2台見えるが、2台目は予備機として導入されており、本線はすべて1台目のMTRX IIに接続されている。 ダビングステージに限らず音声を扱うスタジオの機器構成にあたっては、いくらシグナル・フローをシンプルにしたいといっても、Pro Toolsからの信号だけを出せればよいわけではなく、ハードウェア・エフェクターや持ち込み機材などの外部機器との接続、メーターやヘッドホンへの出力などの様々な回線が本線の音声信号系統に加えて必要となる。そうした多数のデジタル信号を同時に扱うことを可能にしているのがPro Tools MTRX IIだ。初代MTRXではDanteがオプション扱いだったため、ダビングステージのような大規模なシステムを初代MTRXで実現しようとした場合は、オプションカード・スロットをほかの拡張カードと取り合いになってしまうという課題があった。どうしても2台のMTRXが必要になってしまう。MTRX IIでは初代でオプション扱いだったDante I/O(256ch)とSPQ機能が本体に標準搭載されたことで、7基のDigilink I/O CardでPro Tools接続したとしても、その上でMADI 3系統(本体1系統、オプションカード2系統)とDante 256chという豊富な数の回線を外部とやり取りすることができたというわけだ。 角川大映スタジオでは、プレイアウトとしてDialogue、Music、SE-1、SE-2、EX、そしてレコーダーとしてDubberが1台からなる合計6台のPro Toolsシステムが運用されている。すべてMac Proによるシステムで、EXがHDX2仕様、その他はすべてHDX3仕様となっており、HDXカードからDigiLinkケーブルで1台のMTRX IIに直接接続されている。DialogueとDubberがHDX2枚分(128ch)、Music・SE-1・SE-2がHDX1枚分(64ch)ずつ、MTRX IIのオプションスロットに換装された7枚のDigilink I/O Cardにつながっており、EXはMTRX II本体の2基のDigiLink ポートに接続されている。MTRX IIの残り1基のオプションスロットにはMADIカードがインストールされており、オンボードのMADIポートと合わせて、RME製 MADI-AD / DA / AESコンバーターを介してアナログ / デジタルのパッチに上がり、アウトボード、持ち込み機器の接続用のトランク回線として使用されている。DanteはB-Chainへの送り出しのほか、TASCAM ML-32Dを介してメーター送りなどの回線として使用されている。 MTRX IIのもうひとつの特徴が、国内では2023年秋頃からリリースされているThunderbolt 3モジュールだ。オプションカード・スロットとは別に用意されたスロットに換装することで、Mac-MTRX II間で256chの信号をやり取りすることが可能になる。Thunderboltと聞くと思わず「MTRX ⅡがNative環境でも使える!」という発想になりそうだが、今回のシステム設計においては、RMUの接続をPro Toolsが接続されているMTRX Ⅱへダイレクトに接続することができるということになり、RMU用のAudio I/Fが不要になる。つまり、RMUを含めたすべてのPCがダイレクトに1台のMTRX IIに接続することができる、ということになる。 RMU含め7台のPCからの640chの信号と、ユーティリティーのDante、MADIの320chという信号を1台で取り扱っていることとなる。すべてをこのMTRX IIに集約することで、非常にシンプルなシステム構築となっていることがおわかりいただけるだろう。 各Mac Proには、持ち込み機材用の入出力やヘッドホンアウトを確保するためのI/Oも接続されているが、ダビング作業における音声信号の本線としては、5台のプレイアウトと1台のDubber、そしてRMUという7台のMacが1台のMTRX IIに集約されており、そして、 このMTRX IIからDante1回線ですべてのアウトプットがB-Chainへと出力されている。スペックとして理解はしていたが、実際に現場で動いているところを目の当たりにすると、MTRX IIの柔軟性と拡張性の高さに改めて驚かされる。 同期を制する者は音を制する!? 📷DXD-16 から出力された10MHzクロックはDCD-24でWordとしてリジェネレートされ各機器へ。10MHzクロックはすべてのSync XがDXD-16からダイレクトに受けている。 今回のダビングステージ改修にあたって、角川大映スタジオがこだわったもうひとつの点が同期系統の刷新だ。このダビングステージでは、24fpsだけではなく23.97fpsなどの様々なフレームレートを持った動画素材を扱う機会があり、音声ファイルにしてもダイアログは48kHz、音楽は96kHzなど複数のサンプリング周波数の素材を同時に扱う場面は多い。こうした状況となる中、多数の機器へ異なるフォーマットの同期信号を1箇所で管理できるようなグランドマスターが求められていた。 そこで採用されたのが、Brainstorm DXD-16。国内では放送局への導入が多い機材だが、ハウスシンクのマスターとしてだけではなく、GPSクロックを受けてのPTP出力が可能ということから中継現場で採用されるケースも多い。受けのMTRX II、出しのDXD-16とでも言うべきか、音声システムにおけるMTRX IIと同様、DXD-16もあまりにも多機能・高機能であるため、その特色を簡潔に解説することは難しい。GPSクロック、PTP v1/v2、10MHz、Video Reference、WC、マスターにもスレーブにもなれるなど、およそクロックに求められる機能はすべて備えていると言っても過言ではない。 実は今回の改修における機材選定にあたっては、B-Chainの音質に大きな影響を与えるDAコンバーターはもちろんだが、マスタークロックの試聴デモも実施されている。国内で入手できるほとんどのマスタークロックを試聴した結果、DXD-16が選ばれたというわけだ。ワークフローの効率化と解像度の向上を高い次元で両立したいという強い熱意を感じるエピソードではないだろうか。国内で入手できるPTP対応機器の場合、GPSシグナルが必須という機器が多く、自身で同期信号を生成するジェネレーターとしての機能を持たないものが多いのだが、DXD-16は自分自身がマスタージェネレーターとなることが可能で、角川大映スタジオではその精度をさらに上げるために内部の発信機をOCXOにグレードアップするオプションを追加している。 角川大映スタジオのダビングステージではこのDXD-16のインターナルOCXOをマスターとして、10MHz、1080p/24fps・NTSC/29.97fpsのVideo Reference、48kHz AES、96kHz WCの全信号を同時に出力しており、DanteネットワークのPTPマスターとしての機能も担っている。 このダビングステージで特徴的なのは、音質の向上を意図して10MHz信号が大きく活用されているところだろう。DXD-16は16個の各出力から同時に異なるフォーマットの同期信号を出力できるのだが、そのうちの半数である8系統を10MHzに割いている。1つはパッチに上がっており、もう1系統はBrainstorm DCD-24に接続、システムへのWCはここで再生成して分配されている。そして、残る6系統はすべてAvid Sync Xにダイレクトに接続され、各Pro Toolsシステムの同期を取っている。SYNC HDからSync Xへの進化において、この10MHz信号への対応は非常に大きなポイントだ。10MHzでPro Toolsシステムの同期を取るというのは、システム設計の段階で今回角川大映スタジオが大きなポイントとしていたところだ。 居住性にもこだわった「和モダン」な内装 📷フロント側から見たダビングステージ全景。明るく柔らかな印象を湛えた仕上がりになっているのがお分かりいただけるだろう。もちろん、試写時には照明を落とし、映画館と同様に部屋を暗くすることが可能だ。 📷組子細工が取り入れられた室内照明。結果的に反射面を減らすことにもつながり、音響特性にも一役買っているという。 今回の改修にあたっては、Dolby Atmos Cinema対応や音の解像度向上といったサウンド面だけではなく、居住性の高さも追求されている。内装工事と音響施工を担当したのは日本音響エンジニアリング。 ダビングステージというと、黒やチャコールといった暗い配色の部屋をイメージすることが多いと思うが、生まれ変わった角川大映スタジオのダビングステージは非常に明るく開放的な雰囲気に仕上げられている。作品によっては1、2週間こもるということも珍しくないということで、長期間にわたる作業になっても気が滅入ることのない居心地のよい空間にしたかったのだという。「和モダン」をコンセプトにデザインされた部屋の壁面には日本伝統の組子細工を取り入れた照明が配されており、暖かな色合いは訪れる者をやさしく迎え入れてくれるようだ。壁面に灯りがあることで圧迫感のない開放的な空間を演出するとともに、日本音響エンジニアリングによれば、組子構造が透過面となることで結果的に音響的な寄与もあったそうだ。 Avid S6の設置は特注デスクによるもので、こちらも日本音響エンジニアリングによる製作。フェーダー面とデスク面が同じ高さになるようにS6が埋め込まれている形で、すでに述べた通り2つめのMater Moduleが離れたアシスタント席に設置されているのが特徴だ。この特注デスクは木材のもともとの色合いを生かしたナチュラルなカラーで、従来のイメージと比べるとかなり明るい印象を受ける。こうしたところにも、明るくあたたかな空間にしたいという強い想いを感じる。 📷左)特注デスクに据え付けられたメーター台。VUメーターと並ぶのはいまだに愛用者の多いDK Technologies。 右)床面やデスク天板は明るい配色であるだけでなく、天然の木目を生かした意匠が心に安らぎを与える。 角川大映スタジオには以前のダビングステージと建築面で同じ構造の試写室があるのだが、試写室には客席があるため、以前のダビングステージに比べて少し響きがデッドになっており、音の明瞭度やサラウンドの解像度という点でダビングステージよりも優れているように感じていたという。今回の改修にあたって、この響きの部分を合わせたいというのも音響における角川大映スタジオの希望だったようだ。 今回はDolby Atmosへの対応ということで、従来は存在しなかった天井へのスピーカー取り付けが必要であり、加えてDolby Atmosに最適な音響空間にするためにスクリーンを含むフロント部分以外は遮音層の内側はほぼすべて解体、吸音層もイチからやり直しということで工事の規模は大きかったが、却って音響的な要望には応えやすかったようだ。明瞭度を向上させつつも必要以上にデッドにならないよう、低域のコントロールに腐心したということで、壁面内部の吸音層の一部にAGSを使用するなどの処置が施されている。壁の内部にAGSが使用されている例は珍しいのではないだろうか。 📷株式会社角川大映スタジオ ポストプロダクション 技術課 竹田直樹 氏(左)、同じく山口慎太郎 氏(右)。システム設計においては主に竹田氏が主導し、現場での使いやすさや内装デザインなどは山口氏が担当された。 文字通り最新のテクノロジーをフル活用しシンプルな機器構成で大規模なシステムを実現しているマシンルームとは裏腹に、居住性を重視した和モダンな内装となった角川大映スタジオダビングステージ。待望の国内3部屋目となるDolby Atmos Cinema対応も果たした本スタジオで、これからどのような作品が生み出されるかが楽しみだ。それだけでなく、Dolby Atmos Cinema制作のためのダビングステージが増えるということは、国内におけるDolby Atmos作品の制作を加速させるという意味も持つ。今回の改修が国内のコンテンツ産業全体へ与えるインパクトの大きさも期待大だ。 📷ダビングステージがあるポストプロダクション棟。手前の建物1Fの食堂では、新旧ガメラを見ながら食事ができる。 *ProceedMagazine2024-2025号より転載
放送芸術学院専門学校(BAC)は、大阪市北区天満橋にある放送、音響、映像に関する人材を育成する専門学校であり、関西で唯一となる放送業界が創った学校。また、eスポーツや声優といった分野を中心にした姉妹校、大阪アニメ・声優&eスポーツ専門学校も併設されており、学生の皆さんが様々な業界へのアプローチを行うことができるよう幅広いカリキュラムが用意されている。今回は放送芸術学院専門学校に新設されたコントロールB / Cスタジオの導入事例をご紹介したい。 業界の現場と繋がりが深い放送人材育成校 放送芸術学院専門学校は、その設立経緯にも学校を特色づける大きな特徴を持っている。元々は制作プロダクションの株式会社東通が放送業界の人材育成を目的に創立した学校、つまり放送業界が人材育成のために立ち上げた学校というわけだ。そのため、産学連携教育と銘打って企業の依頼を受けて実際にオンエアされる番組を制作したり、ステージに出演したりと現場で学ぶ実践的なカリキュラムが多数組まれており、いまも放送業界との繋がりが深い。1994年に数多くの専門学校を擁する滋慶学園グループの運営となり、現在の校舎も2012年4月に天満橋に完成、今回取り上げるコントロールB / Cスタジオもこの天満橋校舎に新設されている。2014年の竣工当初からはPro ToolsとMedia ComposerをSatellite Linkで同期させるシステム運用としていたが、今後より音声に特化した授業にも対応するために今回のスタジオ改修が計画された。 幅広いカリキュラムに対応するシステムとは コントロールルーム レコーディングスタジオB レコーディングスタジオC 📷広さを充分にとったスペースで行われる授業は収録のみならず多岐にわたる。このスタジオに挟まれるようにコントロールルームが設置され、両スタジオへの対応はもちろん、校内に張り巡らされたDanteのネットワークで別階にある施設の収録もここで行うことができる。 数多くのカリキュラムを抱える同校の設備である、求められる機能も多岐にわたることとなった。収録関連の授業で信号の流れを把握するためにコンソールは必須となりながらも、そのほかの各コースの授業での使用も想定して、MA・アテレコ・ミックスなど様々な用途に合わせた対応をとる必要もある。レコーディングブースとして使用されることもあれば、ミーティングや別の授業が行われることもあるとのことだ。機材の使われ方という軸で見れば、Blu-rayディスクを視聴するという単純に音声を出力するだけという程度の用途もあるため、Pro Toolsありきの完全なコントロールサーフェスということだけでは、運用として扱いづらい局面も出てきてしまうし、逆にアナログ、もしくはデジタルミキサーだけでは今後の拡張性に欠けてしまう。念頭に置かれたのは、オーディオミキサーとしての用途を満たし、コントロールサーフェスの利便性を備えるシステム。今回はこれをAvid MTRX llとS4の組み合わせで実現したわけだ。 システムの中核にあるMTRX ll 前述の通り、多種多彩な授業への対応を実現するために、豊富な入出力とマトリクスを備えるMTRX llは不可欠となった。そして、校内にシステム構築を進めていくにあたって課題となったのは各スタジオとのコミュニケーション機能の確立である。通常のMAスタジオではアナウンサーブースがあり、コントロールルームとのトークバックシステムが常設されているわけだが、ここでは授業内容に沿ったマイクやトークバックスピーカーを設置する必要もある。もちろん学校ということからも、その仕組みや構成を学ぶことも授業の一環としてあるだろう。常にセッティングされたままとはせずに臨機応変であることが求められる。 その様々な用途に対応するべく駆使されているのが、DADmanのモニタープロファイルだ。トークバックの信号、CDやPro Toolsからの2Mixなどの信号をどこに送るか、トークバックのボタンが押された際に、どの系統にDimがかかりハウリングを防止するかなど、すべての要望にDADmanは応えてくれている。たとえば、各部屋のソースをDADmanのモニタープロファイル機能で扱うことで、各所の音量レベルをすべてS4およびDADman上で操作ができることもメリットのひとつ。そのほか、各スタジオのコネクターボックス下にバウンダリーマイクが仕込まれておりバックトークも可能、コントロールルームでスタジオ内の様子を聞くこともできる。 📷マイクプリはGrace Design m108を採用、その左には708S1の子機。 📷デスク左下のラックには最大7.1ch対応となるTASCAMのBlu-rayプレイヤーBD-MP1やStudio Equipment / 708S1の親機が収められている。 なお、今回はスタジオイクイプメント社のコミュニケーションシステムを用いて構築されているが、S4との連携はMTMのGPI/O機能にて連動ができるよう設定された。マルチチャンネルのオーディオソースをトークバックボタンなどでどのようにDimをかけるかなど、様々な制御をS4のGPI/O機能で可能にできるシステムとしている。Studio Equipment / 708S1のトークバックボタンが押された制御信号をS4が受け取り、DADmanのモニタープロファイルの機能にあるTB Dim機能を働かせることにより、スピーカーなどのDimがかかる仕組みだ。 また、校内にはDante用の回線が張り巡らされており、MTRX llに標準で搭載されているDanteポートを用いて、別フロアの7階・ドリームホールや1階・サブコントロールルームでの収録も可能となっている。B / Cサブがある4階にはAスタジオやラジオスタジオもあり、各スタジオとのDante信号のやりとりも可能となっている。 MTRX llはスタジオの将来を描ける 今回、MTRX llが採用された理由は他にもある。MTRX llが持つ大きな特長である優れた拡張性だ。現状の入出力は必要最小限の拡張カード構成にはなっているが、ここへDAカードを追加することにより容易にイマーシブ対応が可能となり、今後の授業をイマーシブサウンドに対応させていく構想も実現可能だ。また、モニターコントローラーとしての機能もDADmanのモニタープロファイル機能により、高価なイマーシブ対応のハードウェアモニターコントローラーなどを導入せずとも実現が可能となる。イマーシブのミックス環境とレコーディング機能のどちらにも対応できる機材は数少ないのではないだろうか。 📷今回のスタジオを監修した有限会社テーク・ワンオーディオ Sound Engineer 田中 貢 氏(右)、MasteringEngineer 中西 祐之 氏(左)。 Avid S4とMTRX llの導入で柔軟性高いシステムとなったコントロールB / Cスタジオ。今後もイマーシブ対応のみならず放送業界では技術の進歩や視聴者のニーズが常に変遷していくことだろう。そのような業界の動向に沿いながら実習環境を充実させていくためのベースとなる骨格がいまここに整えられた。また、録音関連以外の授業にも対応できるそのフレキシブルさは、同校が抱える幅広いカリキュラムに対する最大公約数とも言えるだろう。 *ProceedMagazine2024号より転載
大阪城の間近、大阪市天満に居を構えるCross Phase Studio。ゲーム / 遊技機のサウンド制作をメインに、近年では映像作品のポストプロダクション業務も増加するなど、関西圏で大きな存在感を持つCross Phase株式会社の自社スタジオだ。2022年末にイマーシブ・フォーマットへ対応するためのアップデートを果たした同スタジオだが、このたびには自社スタジオの外部貸出も開始させたそうだ。関西でのイマーシブ・オーディオをリードする存在ともなるCross Phase Studioへ早速取材にお邪魔した。 サウンドの持つ力を知る場所を多くの方に Cross Phase株式会社は代表の金子氏が中心となって、数人のクリエイターとともに2015年に設立されたサウンド制作会社。「当時の勤務先ではだんだん管理的な業務のウェイトが増えていて、もっとクリエイティブな部分に携わっていたいと考えていました。きっかけはよくある呑みの席での雑談だったのですが、本当に独立してしまった(笑)」という同氏は元遊技機メーカー勤務。幼少期を海外で過ごしMTVを見て育ったことから大の音楽好きで、同じく好きだった遊技機と音楽の両方を仕事にできる業界を選んだということだ。 設立当初は各クリエイターが自宅の制作環境で制作を行っており本社は事務所機能だけだったが、自社スタジオであるCross Phase Studioを作るにあたり、本社所在地も現在の大阪市天満に移転している。そのスタジオもステレオのみでスタートしたのだが、Apple Digital Masters認定を受けるための過程でDolby Atmosの盛り上がりを知り、大きな可能性を感じたことで2022年末にイマーシブ・オーディオへ対応する運びとなったそうだ。 スタジオを持ってからも同社では積極的にテレワークやリモート制作を取り入れており、そのためのインフラは金子氏がみずから整えているとのこと。最適なソリューションが存在しない場合は自社製の業務ツールやソフトウェアを開発することもあるという。「ゲーム業界は横のつながりが強い。自分たちの経験に加え、サウンド外の情報や情勢も踏まえて効率化、向上化の手段を常に探っています。」といい、クリエイティブな作業に集中できる環境づくりを心がけている。設立時の想いを実践し続けていることが窺える。 📷Cross Phase株式会社 代表の金子氏。 金子氏に限らず全員が元ゲーム / 遊技機メーカー勤務のクリエイター集団である同社の強みは、ゲーム / 遊技機のサウンドに関わる工程すべてを把握しており、サウンドプロジェクト全体をワンストップで請け負える点にある。プロジェクト自体の企画から、楽曲や効果音などの制作、音声収録など各種レコーディング、ゲームや遊技機への実装・デバッグのすべての工程でクライアントと協業することが可能だ。 近年はゲーム / 遊技機分野にとどまらず映像作品の音声制作などへも活躍の場を広げているが、そのきっかけは1本の映画作品だったようだ。「ロケ収録した音声を整音する依頼だったのですが、元の音声があまりいい状態ではなくて…。当社でできる限りいいものにならないか試行錯誤したところ、その結果にクライアントがすごく喜んでくれたんです。それで、みんな音の大切さに気付いてないだけで、いい音を聴いてもらえばわかってくれるんだということに気付いたんです」という。 こうした経験から、もともと自社業務専用と考えていたCross Phase Studioの外部貸出を開始したそうだ。「Dolby Atmosを聴いてもらうと多くのクライアントが興味を示してくれます。当社のクリエイターからも、イマーシブを前提とするとそれ以前とは作曲のコンセプトがまったく変わる、という話もありました。せっかくの環境なのでもっと多くのみなさんにサウンドの持つ力を体験して知ってほしいんです。」そして、「Cross Phaseという社名は、さまざまなクリエイティブが交差する場所にしたいという想いで名付けました。関西圏には才能あるクリエイターがたくさんいるので、みなさんとともに関西発で全国のシーンを盛り上げていきたいと思っています」と熱を込めて語ってくれた。 7.1.4 ch をADAMで構成 Cross Phase Studioのイマーシブシステムは7.1.4構成となっておりDolby Atmosへの対応がメインとなるが、DAWシステムには360 Walkmix Creator™️もインストールされており、360 Reality Audioのプリミックスにも対応が可能だ。 モニタースピーカーはADAM AUDIO。9本のA4VとSub 12という組み合わせとなっている。それとは別に、ステレオミッドフィールドモニターとして同じくADAM AUDIOのA77Xが導入されている。スタイリッシュな内装や質実剛健な機材選定と相まって、見た目にもスタジオ全体に引き締まった印象を与えているが、そのADAM AUDIOが導入された経緯については、「スタジオ開設当初は某有名ブランドのスピーカーを使用してたのですが、あまり音に面白みを感じられなくて…。スピーカーを更新しよう(当時はまだステレオのみ)ということで試聴会を行ったのですが、当社のクリエイターのひとりがADAMを愛用していたので候補の中に入れていたんです。そうしたら、聴いた瞬間(笑)、全員一致でADAMに決まりました。そうした経験があったので、イマーシブ環境の導入に際してもADAM一択でしたね。」とのこと。 📷7.1.4の構成で組まれたスピーカーはスタッフ全員で行った試聴会の結果、ADAMで統一された。天井にも吊られたA4Vのほか、ステレオミッドフィールド用にA77Xが設置されている。 もちろん、ADAM AUDIOも有名ブランドではあるが、その時点での”定番のサウンド”に飽き足らずクリエイターが納得できるものを追求していくという姿勢には、音は映像の添え物ではない、あるいは例えそうした場面であってもクリエイティビティを十二分に発揮して作品に貢献するのだという、エンターテインメント分野を生き抜く同社の強い意志を感じる。そうした意味では、ADAM AUDIOのサウンドは同社全体のアイデンティティでもあると言えるのではないだろうか。関西エリアに拠点を置くクリエイターには、ぜひ一度Cross Phase Studioを借りてそのサウンドを体験してほしい。 デジタル、コンパクト、クリーンな「今」のスタジオ それではCross Phase Studioのシステムを見ていこう。金子氏の「当社はスタジオとしては後発。イマーシブ導入もそうですが、ほかのスタジオにはない特色を打ち出していく必要性を感じていました。今の時代の若いスタジオということで、デジタルをメインにしたコンパクトなシステムで、クリーンなサウンドを念頭に置いて選定しています。」という言葉通り、DAW周りは非常に現代的な構成になっている。 📷メインのデスクと後方のデスクに2組のコントロールサーフェスが組まれているのが大きな特徴。前方メインデスクにはAvid S3とDock、後方にはAvid S1が2台。ステレオとイマーシブで異なるスイートスポットに対応するため、それぞれのミキシングポイントが設けられた格好だ。 スタジオにコンソールはなく、Pro Tools | S3 + Pro Tools | Dock + DAD MOMと、2 x Pro Tools | S1 + DAD MOMというコントロールサーフェスを中心とした構成。サーフェスが二組あるのはステレオ再生とイマーシブ再生ではスイートスポットが変わるため、コントロールルームの中に2ヶ所のミキシングポイントを置いているからである。DAWはもちろんPro Tools Ultimate、バックアップレコーダー兼メディアプレイヤーとしてTASCAM DA3000も導入されている。 オーディオI/FにはPro Tools | MTRX Studioを採用。モニターコントロールはDAD MOMからコントロールするDADmanが担っているため、ステレオ / イマーシブのスピーカーはすべてこのMTRX Studioと直接つながれている。MTRX StudioにはFocusrite A16RがDanteで接続されており、後述するアウトボードのためにアナログI/Oを拡張する役割を担っている。また、スピーカーの音響補正もMTRX Studioに内蔵されているSPQ機能を使用して実施。測定にはsonorworks soundID Referenceを使用したという。現在ではsoundID Referenceで作成したプロファイルを直接DADmanにインポートすることができるが、導入時にはまだその機能がなく、ディレイ値などはすべてDADmanに手打ちしたとのこと。 📷上段にMTRX Studioがあり、その下が本文中でも触れたflock audio The Patch。数々のアウトボードが操作性にも配慮されてラッキングされていた。 必要最小限で済ますならばこれだけでもシステムとしては成立するのだが、スッキリとした見た目と裏腹に同スタジオはアウトボード類も充実している。SSLやBettermakerなどのクリーン系ハイエンド機からAvalon DesignやManleyなどの真空管系、さらに、Kempfer・Fractal Audio Systemsといったアンプシミュレーター、大量のプラグイン処理を実現するWaves SoundGrid Extreme Serverやappolo Twin、そろそろビンテージ機に認定されそうなWaves L2(ハードウェア!)も導入されており、現時点でも対応できる音作りは非常に広いと言えそうだが、「当社のクリエイターたちと相談しながら、その時々に必要と考えた機材はこれからも増やしていく予定です」とのこと。 これらのスタジオ機器の中で、金子氏がもっとも気に入っているのはflock audio The Patchなのだという。金子氏をして「この機材がなかったら当社のスタジオは実現していなかった」とまで言わしめるThe Patchは、1Uの機体の内部にフルアナログで32in / outのシグナルパスを持ち、そのすべてのルーティングをMac / PCから行えるというまさに現代のパッチベイである。Cross Phase Studioではアナログ入力系は基本的に一度このThe Patchに接続され、そこからA16Rを介してDanteでMTRX Studioへ入力される。日々の運用のしやすさだけでなくメンテナンス性や拡張性の観点からも、確かにThe Patchの導入がもたらした恩恵は大きいと言えるだろう。 コントロールルームの隣にはひとつのブースが併設されている。ゲーム / 遊技機分野から始まっているということもあってボーカル・台詞など声の収録がメインだが、必要に応じて楽器の収録もできるように作られている。印象的だったのは、マイクの横に譜面台とともにiPad / タブレットを固定できるアタッチメントが置かれていたことだ。台詞録りといえば今でも紙の台本というイメージが強いが、個別収録の現場では徐々に台本もデジタル化が進んでいるようだ。 📷コントロールルームのすぐ隣にはブースが設置されている、ボーカル・ダイアログなど声の収録だけではなく、楽器にも対応できる充分なスペースを確保している。 ブース内の様子は撮影が可能でコントロールルームにはBlackmagic Design ATEM Miniが設置されていた。「もともと音楽1本だけの会社ではないので、徐々にオファーが増えている映像制作やライブ配信をはじめとした様々な分野にチャレンジしていきたい。最近、知人から当社のブースをビジネス系YouTube動画の制作に使いたいというオファーもありました(笑)。バンドレコーディングはもちろん、“歌みた“などのボーカルレコーディングや楽器録音など、ぜひ色々なクリエイターやアーティストに使って欲しいです。」とのことで、同社が活躍するフィールドはさらに広がっていきそうだ。 最近では海外からのオファーも増えてきたというCross Phase。金子氏は「ゆくゆくは国産メーカーの機器を増やして、日本ならではのスタジオとして海外の方にも来てもらえるようにしたいですね」と語る。イマーシブ制作の環境が整ったスタジオを借りることができるというのは、まだ全国的に見ても珍しい事例である。関西圏を拠点にするクリエイターは、ぜひ一度Cross Phase Studioで「サウンドの持つ力」を体験して知ってほしい。 *ProceedMagazine2024号より転載
スタジオでのレコーディング / ミキシングだけでなく、ライブ音源、映画主題歌、ミュージカルなど多くの作品を手掛ける古賀 健一 氏。音楽分野におけるマルチチャンネル・サラウンド制作の先駆者であり、2020年末には自身のスタジオ「Xylomania Studio」(シロマニアスタジオ)を手作りで9.4.4.5スピーカー・システムへとアップデートしたことも記憶に新しいが、そのXylomania Studioで2部屋目のイマーシブ・オーディオ対応スタジオとなる「Studio 2」がオープンした。11.2.6.4という、スタジオとしては国内最大級のスピーカー・システムが導入され、Dolby Atmos、Sony 360 Reality Audio、5.1 Surround、ステレオといったあらゆる音声制作フォーマットに対応するだけでなく、立体音響の作曲やイマーシブ・コンサートの仕込みも可能。さらに、120inchスクリーンと8Kプロジェクタも設置されており、ポストプロダクションにも対応できるなど、どのような分野の作業にも活用できることを念頭に構築されている。この超ハイスペック・イマーシブ・レンタル・スタジオについて、オープンまでの経緯やそのコンセプトについてお話を伺った。 Beatlesの時代にイマーシブ表現があったら Xylomania Studio 古賀 健一 氏 Official髭男dismのApple Music空間オーディオ制作や第28回 日本プロ音楽録音賞 Immersive部門 最優秀賞の受賞など、名実ともに国内イマーシブ音楽制作の最前線を走る古賀 健一 氏。その活躍の場はコンサートライブや映画主題歌など多岐に渡り、自身の経験をスタジオ作りのコンサルティングなどを通してより多くのエンジニアやアーティストと共有する活動も行っている。 まさにイマーシブの伝道師とも呼べる古賀氏だが、音の空間表現に関心を持ったのはDolby Atmosが生まれるよりもはるか以前、彼の学生時代にまで遡るという。「現場ではたくさんの楽器、たくさんの音が鳴っているのに、それを表現する手段がステレオしかないということにずっと疑問を持っていた」という古賀氏だが、学生時代に出会ったSACDではじめて5.1サラウンドを体験して衝撃を受ける。 「これこそが、音楽表現のあるべき姿だ」と感じた古賀氏だが、「当時はPro Tools LEにサラウンドオプションを追加するお金もなかった」という中で工夫を重ねて再生システムを構築し、5.1サラウンド作品をひたすら聴いていたという。古賀氏といえば、自身のスタジオであるXylomania StudioをDIYでイマーシブ対応に改修し、その様子をサウンド&レコーディング・マガジン誌上で連載していたこともあるが、彼の飽くなき探究心とDIY精神はすでにこのころから備わっていたようだ。 その後も独自に空間表現を探究していた古賀氏だが、Dolby Atmosの登場によって、「これなら、もっと自由でもっと手軽に、音楽表現を追求できるんじゃないか」と感じたことで自身のスタジオをイマーシブ・オーディオ対応へと改修することを決める。しかし、「当初は5.1.4、なんなら、5.1.2で十分だと考えてました。そうしたら、Netflixが出したガイドラインが7.1.4となっていて、個人で用意できる予算では無理だと悟った」ことで、法人としてのXylomania Studioを設立することを決意したのだという。それから最初のスタジオができるまでについては、サンレコ誌への連載が今でもWEBで読めるので、ぜひそちらをご覧いただきたい。 Xylomania Studioがイマーシブ制作に対応したのが2020年12月。それから3年の時を経て、同社ふたつ目のイマーシブ・スタジオがオープンした理由や、この間に古賀氏自身の心境、イマーシブ・オーディオを取り巻く環境に変化はあったのだろうか。「ぼく自身のことを言えば、イマーシブへの関心はますます深まるばかりです。探究したいことはどんどん出てくる。周囲の環境については、やはりApple Musicの”空間オーディオ”の影響は大きいです。それ以前と比べると、関心を持ってくれるひとは確実に増えた。もともと、ぼくはお金になるかどうかは考えて動かないんです。Xylomania Studioも、ただ自分が探究したいという思いだけで作ったものだったので、成功する目論見なんてなかった。それが、ビジネスとしてきちんと成立するところまでたどり着けたことについては、仲間たちと”神風が吹いたね”なんて言っています」という。 今回オープンしたXylomania Studio「Studio 2」の計画がはじまったのは2022年夏。より多くの人にイマーシブ表現の可能性を体験してほしいと考えた古賀氏が、イマーシブ・スタジオの外部貸出を検討したことがスタートとなっている。 音楽ジャンルによってはイマーシブ表現が合わないものもある、という意見もあるが、これに対して古賀氏の「モノにはモノの、ステレオにはステレオのよさがあるのは確か。でも、ぼくは”イマーシブが合わないジャンル”なんてないと思ってます。だって、もしBeatlesの時代にイマーシブ表現があったら、彼らは絶対にやってたと思いませんか?」という言葉には、思わず深く頷いてしまった。「ふたつ目のスタジオを作ろうという気持ちになれたのも、空間オーディオによってイマーシブ制作がビジネスの軌道に乗ることができたからこそ。」という古賀氏。そうした仕事を通して関わったひとたちへの恩返しのためにも、国内のイマーシブ・シーンを盛り上げるようなアクションを積極的に取っていきたいという気持ちがあるようだ。 当初はStudio 1を貸出し、その間に自身が作業をおこなうための部屋を作ろうとしていたようだが、さまざまな紆余曲折を経て、結果的にはStudio 1をも超える、国内最高峰のイマーシブ・レンタル・スタジオが完成した。誌面で語り尽くせぬ豊富なエピソードとともに、以下、Xylomania Studio「Studio 2」のシステムを見ていきたい。 11.2.6.4イマーシブによる”空間の再現” 📷「Studio 2」はサイドの壁面色違いの箇所にインウォールでスピーカーを設置、この解決策により窮屈感はまったくなく、実際よりも広々とした居心地を実現した。肝心のサウンドについても映画館をはるかに超える音響空間を創出している。 11.2.6.4インウォール・スピーカー・システムによるイマーシブ再生環境、Danteを駆使したネットワーク伝送、ハイクオリティなブースとしての機能、大型スクリーンと8Kプロジェクタなど、Xylomania Studio「Studio 2」のトピックは枚挙にいとまがないが、このスタジオの最大の特徴は”限りなく本番環境に近い音場を提供できること”である。Studio 2の先鋭的かつ挑戦的なスペックのすべては、スタジオの中でどれだけ作品の最終形に近い響きを提供できるか、という目的に集約されているからだ。 古賀氏は「自分のスタジオでこう鳴っていれば例えばダビングステージではこういう音になるだろう、ということを想像することはできます。でも、その差を常に想像しながら作業を続けることはすごいストレス。仕込んだ音を現場で鳴らした時に、スタジオで意図した通りに鳴るような、本当の意味での”仕込み”ができる部屋を作りたかった」ということのようだ。「この部屋でミックスしたものをそのままライブに持ち込める、ダビングステージで作業したミックスを持ち込めばそのままここで配信用のマスターが作れる、そんなスタジオにしたかった。」 この、言わば音が響く空間を再現するというコンセプトを可能にしているのは、まぎれもなく11.2.6.4イマーシブ・システムだ。Studio 2のスピーカー配置は一般的なDolby Atmosレイアウトをもとに、サイド・リアとハイトは左右に3本ずつのスピーカーを持ち、それによって映画館やダビングステージのアレイ再生やディフューズ・サラウンド音場を再現している点が大きな特徴。実は、Studio 2の再生環境はその計画の途中まで既存のStudio 1と同じ9.2.6.4のシステムを組む方向で進んでいたのだという。しかし、古賀氏のある経験がきっかけで今の11.2.6.4へと拡張されることになったようだ。「ある映画主題歌の仕事でダビングステージを訪れた時、リア方向に振った音が思っていたより後方まで回り込んだんです。今までのニアフィールドの環境で映画作品の最終形をイメージすることには限界があると感じ、アレイ再生ができる環境を作るために急遽スピーカーを2本追加することにしました。」 📷フロントLCRに採用されたci140。センターとLRの間がサブウーファーのci140sub。 その11.2.6.4イマーシブ・システムを構成するスピーカーは、すべてPCMのインウォール・モデルである「ciシリーズ」。フロントLCR:ci140、ワイド&サラウンド:ci65、ハイト:ci45、ボトム:ci30、SW:ci140sub となっており、2台のサブウーファーはセンター・スピーカーとワイド・スピーカーの間に配置されている。 スピーカーをインウォール中心にするというアイデアも、計画を進める中で生まれたものだという。先述の通り、当初は今のStudio 1を貸出している間に自身が作業をおこなうための部屋を作ろうとしていたため、もともとレコーディング・ブースとして使用していたスペースに、スタンド立てのコンパクトなイマーシブ再生システムを導入しようと考えていたという。だが、スピーカーをスタンドで立ててしまうとブースとして使用するには狭くなりすぎてしまう。ブースとしての機能は削れないため、”もっとコンパクトなシステムにしなければ”という課題に対して古賀氏が辿り着いた結論が、以前にコンサルティングを請け負ったスタジオに導入した、”インウォール・スピーカー”にヒントを得たようだった。システムを小さくするのではなく、逆に大きくしてしまうことで解決するという発想には脱帽だ。 モデルの決定にはメーカーの提案が強く影響しているとのことだが、「ci140は国内にデモ機がなかったので、聴かずに決めました(笑)」というから驚きだ。古賀氏は「チームとして関わってくれる姿勢が何よりも大事。こういう縁は大切にしたいんです」といい、その気概に応えるように、PMCはその後のDolby本社との長いやりとりなどにおいて尽力してくれたという。 📷上左)サラウンドチャンネルをアレイ再生にすることで、映画館と同じディフューズ・サラウンドを再現することを可能にしている。上右)サイド/ワイド/リアはci65。後から角度を微調整できるように固定されておらず、インシュレーターに乗せているだけだという。下左)ハイト・スピーカーはci45。下右)ボトム・スピーカーを設置しているため、Dolby Atmosだけではなく、Sony 360 Reality Audioなどの下方向に音響空間を持つイマーシブ制作にも対応可能。「ボトムはリアにもあった方がよい」という古賀氏の判断で、フロント/リアそれぞれに2本ずつのci30が置かれている。 最後まで追い込んだアコースティック Studio 2が再現できるのは、もちろん映画館の音響空間だけではない。マシンルームに置かれたメインのMac Studioとは別に、Flux:: Spat Revolution Ultimate WFS Add-on optionがインストールされたM1 Mac miniが置かれており、リバーブの処理などを専用で行わせることができる。このSpat Revolution Ultimateに備わっているリバーブエンジンを使用して、Studio 2ではさまざまな音響空間を再現することが可能だ。必要に応じて、波面合成によるさらなるリアリティの追求もできるようになっている。 古賀氏が特に意識しているのは、コンサートライブ空間の再現。「このスタジオを使えば、イマーシブ・コンサートの本番環境とほとんど変わらない音場でシーケンスの仕込みができます。PAエンジニアはもとより、若手の作曲家などにもどんどん活用してほしい。」というが、一方で「ひとつ後悔しているのは、センターに埋め込んだサブウーファーもci140にしておけば、フロンタルファイブのライブと同じ環境にできたこと。それに気付いても、時すでに遅しでしたけど」と言って笑っていた。常に理想を追求する姿勢が、実に古賀氏らしい。 📷Flux:: Spat Revolution Ultimate WFS Add-on option さらに、Spat Revolution UltimateはStudio 2をレコーディング・ブースとして使用した際にも活用することができる。マイクからの入力をSpat Revolution Ultimateに通し、リバーブ成分をイマーシブ・スピーカーから出力するというものだ。こうすることで、歌手や楽器の音とリバーブを同時に録音することができ、あたかもコンサートホールや広いスタジオで収録されたかのような自然な響きを加えることができる。「後からプラグインで足すだけだと、自然な響きは得られない。ぼくは、リバーブは絶対に録りと同時に収録しておいた方がいいと考えています。」 こうした空間再現を可能にするためには、当然、スピーカーのポジションや角度、ルームアコースティック、スピーカーの補正などをシビアに追い込んでいく必要がある。Studio 2はもともと8畳程度の小さな空間に造られており、広さを確保するために平行面を残さざるを得なかったというが、その分、「内装工事中に何度も工事を止め、何度もスピーカーを設置して、実際に音を鳴らしてスピーカーの位置と吸音を追い込んでいきました」という。その結果、どうしても低域の特性に納得できなかった古賀氏は、工事の終盤になってスピーカーの設置全体を後方に5cmずらすことを決めたという。「大工さんからしたら、もう、驚愕ですよ。でも、おかげで音響軸は1mmのずれもなくキマってます。極限まで追い込んだ音を体験したことがある以上、半端なことはしたくなかった。」 電気的な補正を担っているのはTrinnov Audio MC-PROとAvid Pro Tools | MTRX II。MC-PROはDante入力仕様となっており、先にこちらで補正をおこない、MTRX II内蔵のSPQ機能を使用してディレイ値やEQの細かい部分を追い込んでいる。「MC-PROの自動補正は大枠を決めるのにすごく便利。SPQは詳細な補正値を確認しながらマニュアルで追い込んでいけるのが優れている」と感じているようだ。 📷「最初から導入を決めていた」というTrinnov MC PROは数多くの実績を持つ音場補正ソリューション。MC PROもパワーアンプもDante入力を持つモデルを選定しており、システム内の伝送はすべてDanteで賄えるように設計されている。 テクノロジーとユーティリティの両立 📷「Studio 2」のミキシング・デスク。コントロール・サーフェスはPro Tools | S1とPro Tools | Dockの組み合わせ。デスク上にはRedNet X2PやDAD MOMも見える。 Studio 2のシステム内部はすべてデジタル接続。Studio 1 - Studio 2間の音声信号がMADIである以外は、パワーアンプの入力まですべてDanteネットワークによって繋がっている。モニターセクションの音声信号はすべて96kHz伝送だ。パッチ盤を見るとキャノン端子は8口しかなく、DanteやMADI、HDMIなどの端子が備わっていることにスタジオの先進性が見て取れる。 メインMacはMac Studio M2 UltraとSonnet DuoModo xEcho IIIシャーシの組み合わせ。MacBookなどの外部エンジニアの持ち込みを想定して、HDXカードをシャーシに換装できるこの形としている。オーディオI/OはAvidのフラッグシップであるPro Tools | MTRX II。「MTRX IIになって、DanteとSPQが標準搭載になったことは大きい。」という。オプションカードの構成はAD x2、DA x2、Dante x1、MADI x1、DigiLink x2となっており8個のスロットをフルに使用している。確かに、同じ構成を実現するためには初代MTRXだったらベースユニットが2台必要なところだった。合計3組となるDigiLinkポートは、それぞれ、ステレオ、5.1、Dolby Atmos専用としてI/O設定を組んでおり、出力フォーマットが変わるたびにI/O設定を変更する必要がないように配慮されている。 📷左)本文中にもある通り「初代MTRXなら2台導入する必要があった」わけで、結果的にMTRX IIの登場は「Studio 2」の実現にも大きく貢献したということになる。中)メインMacをMac Studio + TBシャーシとすることで、クリエイターがMacを持ちこんだ場合でもHDXカードを使用した作業が可能になっている。RMU I/FのCore 256はあらゆるフォーマットの音声をRMUに接続。「Studio 2」ではDanteまたはMADIを状況に応じて使い分けている。 Dolby Atmosハードウェア・レンダラー(HT-RMU)はMac miniでこちらもCPUはM2仕様。Apple Siliconは長尺の作品でも安定した動作をしてくれるので安心とのこと。RMUのI/FにはDAD Core 256をチョイス。Thunderbolt接続でDante / MADIどちらも受けられることが選定の決め手になったようだ。96kHz作業時はDante、48kHzへのSRCが必要な時はDirectOut Technologies MADI.SRCを介してMADIで信号をやりとりしているという。 Studio 2のサイドラックには、ユーティリティI/OとしてThunderbolt 3オプションが換装されたPro Tools | MTRX Studioが設置されているほか、Focusrite RedNet X2PやNeumann MT48も見える。Studio 2でちょっとした入出力がほしくなったときに、パッと対応できるようにしてあるとのこと。「作曲家やディレクターにとってソフトウェアでの操作はわかりにくい部分があると思うので、直感的に作業できるように便利デバイスとして設置してある」という配慮のようだ。 📷左右のサイドラックには、Logic ProやSpat RevolutionがインストールされたMacBook Pro、フロントパネルで操作が可能なMTRX Studio、各種ショートカットキーをアサインしたタブレット端末などを設置。 個人的に面白いと感じたのは、AudioMovers Listen ToとBinaural Rendererの使い方だ。DAWのマスター出力をインターネット上でストリーミングすることで、リモート環境でのリアルタイム制作を可能にするプラグインなのだが、この機能を使ってスマートフォンにリンクを送り、AirPodsでバイノーラル・ミックスのチェックを行うのだという。たしかに、こうすればわざわざマシンルームまで行ってMacとBluetooth接続をしなくて済んでしまう。 操作性の部分でもこれほどまでに追い込まれているStudio 2だが、「それでも、これをこう使ったらできるんじゃないか!?と思ったことは、実際にはほとんどできなかった」と古賀氏は話す。古賀氏のアイデアは、進歩するテクノロジーをただ追うのではなくむしろ追い越す勢いで溢れ出しているということだろう。 「Amazonで見つけて買った(笑)」というデスクは、キャスターと昇降機能付き。作業内容やフォーマットによってミキシングポイントを移動できるように、ケーブル長も余裕を持たせてあるという。「この部屋にはこれだけのスペックを詰め込みましたけど、内覧会で一番聞かれたのが、そのデスクと腰にフィットする椅子、どこで買ったんですか!?だった(笑)」というが、確かに尋ねたくなる気持ちもわかるスグレモノだと感じた。 紆余曲折を経て、結果的に古賀氏自身のメインスタジオよりも高機能・高品質なスタジオとなったStudio 2だが、このことについて古賀氏は「9.1.4のStudio1を作ってからの3年間で、9.1.6に対応したスタジオは国内にだいぶ増えたと思ってます。だったら、ぼくがまた同じことをやっても意味がない。ぼくが先頭を走れば、必ずそれを追い越すひとたちが現れます。そうやって、国内シーンの盛り上がりに貢献できたらいい」と語ってくれた。「このスタジオのようなスペックが当たり前になった暁には、ぼくはここを売ってまた新しい部屋をつくります!今度は天井高が取れる場所がいいな〜」といって笑う古賀氏だが、遠くない将来、きっとその日が来るのだろうと感じた。 *ProceedMagazine2024号より転載
「最高のコンテンツを作る会社」をビジョンに掲げ、妥協のないコンテンツ制作に取り組む株式会社Cygames。ProceedMagazine 2022-2023号では大阪エディットルームの事例として、Dolby Atmos 7.1.4chに対応した可変レイアウトとなるスタジオ2部屋が開設された様子をご紹介したが、それとタイミングを同じくしてフォーリースタジオも大阪に設けられた。ここではそのフォーリースタジオについてレポートしていきたい。 同時期に3タイプのスタジオ開設を進める Cygamesでは、スマートフォン向けのゲームタイトルだけではなく、コンシューマー系のタイトル開発にも力を入れている。近年のゲームはプラットフォームを問わず映像や音の表現が飛躍的に向上しており、フォトリアルで写実的な映像に合わせたサウンドを作る場面が増えてきた。効果音の制作については、それまでは外部のフォーリースタジオを借りて作業を行っていたが、効率性を考えれば時間や手間が掛かってしまうという制約があった。また、ゲーム作品では、例えばキャラクターの足音一つとっても多くの動作音があるだけでなく、ファンタジーの世界特有の表現が必要である。土、石畳、レンガ等といった様々な素材の音を既存のライブラリから作り上げるのは容易ではなく、完成度を上げていくことは中々に難しい作業だが、フォーリースタジオを使って収録した効果音は、生音ならではの音の良さに加え、ゲームによく馴染む質感の音に仕上がることが多かったという。 やはり自社のスタジオがあればより効率的に時間を使い、かつクオリティを高める試行錯誤も行えるのではないか、という思いを抱いていたところ、Cygamesのコンシューマーゲーム開発の拠点がある大阪でモーションキャプチャースタジオの設立計画が立ち上がったことをきっかけに、建物のスペック等を考慮してフォーリースタジオも同じ場所に設置する形でスタジオ設置に向けて動きだした。以前ご紹介した、MAスタジオの用途を担う大阪エディットルーム開設プロジェクトと合わせると、同時期に2つのサウンドスタジオ開設を進めるという大きなプロジェクトになったそうだ。 制約はアイデアでポジティブに変換する フォーリースタジオを開設するための要件としてまず挙げられるのは部屋の高さと広さ。通常のレコーディングとは異なって物を振り回したりすることも多いフォーリー収録ではマストな条件となる。天井が低ければ物が当たってしまうのではないかという演者の不安とストレスを低減するため、部屋の中央付近の天井を一段高くする工夫が取り入れられている。広さについてもフォーリー収録時の演技をする上で充分なスペースを確保しているが、加えて壁の反射音の影響が強く出てしまわないよう、床やピットを部屋の真ん中に寄せて配置し、壁からの距離が取れるレイアウトを実現できた点も広さを確保できたメリットだ。 また、スタジオ内の壁面にはぐるりと木製のフローリングが敷かれ、そこも材質の一つとして使用できる。中央には大理石やコンクリート、水を貯められるようなピットが用意され多様な収録に対応できる環境が整えられた。一方、スタジオの広さがある故に反響をどのようにマネジメントするのかは大きな課題となっていたようだ。そこで取られた特徴的な対策だが、壁面の反射を積極的に発生させつつルームモードを起こさないように処理した上で、むしろその反響を収録での選択肢として活かせるようにしたそうだ。もちろん、部屋の外周に沿って用意されたカーテンによって反射面を隠し、反響をダンピングして抑えていくこともできる。さらに、日本音響エンジニアリングの柱状拡散体を設置してアコースティックも整えられており、当初は弊害と考えていた反響音を逆に利用することで、収録できる音の幅を拡げている。 施工は幾度と重なる打ち合わせやシミュレーションを経て行われたのだが、それでも予想できない不確定な要素も出てきたそうだ。例えば、このスタジオの特徴でもある天吊りマイク。天井に取り付けられた金属製のパイプに特型のマイクスタンドを引っ掛けて固定する仕様になっているのだが、実際に収録を行うとパイプに響いているのか、音声信号にノイズを感じることが出てきた。イメージ的にはドラムのオーバーヘッドを立てるイメージに近く、ドラムは音量が大きいためそれほど気になりはしないが、フォーリーの収録となると微細なノイズでも大きく感じることが多くなる。試行錯誤した結果、天吊りマイクスタンドを取り付ける際に固定ネジを締めすぎないようにすることでノイズを軽減できることがわかった。そのほかにも、部屋の天井から高周波の金属音が鳴っているようで調査したところ、空調のダクトが共振していることが判明。金属のダンピングを見直して解決したそうだ。細かな調整だが、このような積み重ねこそが収録のクオリティーアップには必要不可欠であるとのことだ。 📷ダンピングが見直されたという天吊りマイクブーム 集中環境とコミュニケーションの両立 スタジオのコンセプトで重要視している要素として、ストレスフリーであることが必要であると考えているそうだ。ブースとコントロールルームのスタッフの間で意思疎通がストレスなく行われなければ作業効率も落ちてしまい、認識の齟齬も起きがちだ。社内スタジオで自由に使える環境とはいえ、クオリティを高めるトライアンドエラーの時間まで削ってしまっては本末転倒になってしまう。 ところが、このスタジオはブースとコントロールルームが完全にセパレートされており、お互いの姿を確認できるようなガラス面も設けられていない。 一見するとコミュニケーションを妨げる要素になりそうだが、ガラス面を設けないことで演者が集中して演技に取り組める環境を整えられたという。演者にとって、人の目線があると気になって集中力の妨げになることもある。外部のスタジオでは収録の様子をクライアントがコントロールルームから見守るといったことも多いが、このスタジオは社内スタッフでの利用が主となるため、必ずしもコントロールルームから演者を直視できる必要はない。ただし、その分だけコミュニケーションを重視したシステムプランが採用された。 スタジオ内にはフォーリー収録用とは別に天吊りマイクが仕込まれており、コントロールルームからスタジオ内の音を聴くことができ、トークバックと両立できるようなコミュニケーションの制御も行なっている。映像カメラも各所に設置されており、コントロールルーム内のディスプレイにスタジオ内の様子が映され、その映像も各ディスプレイに好きなように出せるスイッチャーが設置されており、オペレーターの好みに合わせて配置することが可能となっている。コントロールルームとブースをアイソレーションすることによって演者が集中できる整った環境と、コミュニケーションを円滑にさせるシステムプランをしっかり両立させている格好だ。 正解を持たずに収録する、トライする機材 📷コントロールルームには左ラックにPUEBLO AUDIO/JR2/2+、右ラックに TUBE-TECH/HLT2Aが収められコンソールレスな環境となっている。 このスタジオではスタッフが持ち込みPCで収録することも想定されており、各種DAWに対応できるシステムが必要であった。シンプルかつシームレスにシステムを切り替えられ、コミュニケーションシステムとも両立させる必要がある。それをシステムの中核に Avid MTRXを据えることで柔軟な対応を実現している。また、「収録段階からの音作りがしっかりできるスタジオにしたい」というコンセプトもあり、アウトボード類の種類も豊富に導入された。コンプレッション、EQはデジタル領域よりもアナログ機材の方が音作りの幅が拡がるということだけではなく、その機材がそこにあるということ自体がスタッフのクリエイティビティを刺激する。スタッフが自宅で録るのではなく、「このスタジオで録りたい」という気持ちが起こるような環境を整えたかったそうだ。 そうして導入された機材のひとつが、PUEBLO AUDIO/JR2/2+。フォーリースタジオではごく小さな音を収録することが多く、ローノイズであることが求められる。過去の現場での実績からもこの機種が際立ってローノイズであることがわかっており、早々に導入が決まったようだ。また、ミキサーコンソールが無くアウトボードで補完する必要があったため、TUBE-TECH/HLT2AがEQとして据えられている。HLT2Aは繊細なEQというよりは極端なEQでサウンドを切り替えることもできるそうで、極端にローを上げて重たい表現ができないか、逆にローを切ってエッジの効いた表現はできないか、といった試行錯誤を可能にする。このほか、ヴィンテージ機材ならではのコンプレッション感が必要な場面も増えてきていることから、NEVE 33609Cも追加で導入されている。今後も機材ラインナップは充実されていくことだろう。 はじめからこういう音が録りたいというターゲットはあっても、正解を持たずに収録していくという工程がフォーリーの醍醐味だという。その中で誰でも使いやすい機材を選定するということを念頭に置き、スタッフからのリクエストも盛り込んでこれらの機材にたどり着いたそうだ。 スタジオは生き物、その成長を期待する 📷何よりもチームワークの良さが感じられた収録中の一コマと、気合いが込められた渾身の一撃も収録!! こうして完成をみたスタジオであるが、S/Nも良く満足した録音が行えているそうだ。また、5.1chリスニングが可能となっている点もポイント。開発中のタイトルにコンシューマー作品が多く、サラウンド環境が必要なことに加え、映画のようにセンターの重要度が高いことから、ファントムセンターではなくハードセンターで収録したいという要望に沿ったものだ。また、映像作品やゲーム資料を確認しながらすぐに収録することができるため、フォーリーアーティストに映像作品の音を聴かせてクリエイティブへのモチベーションをアップしてもらいながら制作を進める、という点も狙いの一つだ。もちろん、自社スタジオとなったことで時間を気にせずクオリティの向上を目指せることが大きく、求める方向性をより具体化させて収録できるメリットは計り知れない。 今後について伺うと、スタジオは生き物であり、収録できるサウンドの特徴も次第に変わっていくと考えているそうだ。導入する資材が増えればそれが吸音や反射になって音も変わる。ピットについても使用していく経年変化でサウンドにも違いが出てくる。高域が落ち着いたり、もう少し角が取れてきたりと、年月を積み重ねてどのように音が変わっていくのかがすごく楽しみだと語っていただいた。 📷今回お話を伺った、サウンド本部/マネージャーの丸山 雅之氏(左)、サウンド本部/サウンドデザインチーム 村上 健太氏(中央)、妹尾 拓磨氏(右)。 目の前の制約はアイデアでポジティブに変換する、考え抜かれたからこそ実現できたメリット。そして、それを活かしたフォーリー収録には正解を持たずにのぞむ。ここに共通するのは先入観を捨てるということではないだろうか。先入観を「無」にしたならば、そこにあるのは創るというシンプルかつ純粋な衝動のみである。クリエイティブの本質を言い得たような、まさにプロフェッショナルの思考には感銘を受ける。今後もこのスタジオが重ねた年月は成長となって作品に反映されていくのだろう、フォーリー収録された素材がゲームというフィールドで表現されエンターテインメントを高めていくに違いない。 *ProceedMagazine2023-2024号より転載
取材協力:株式会社エム・ティー・アール ライブの映像コンテンツやMVをはじめ、CM、企業VP(=Video Package)など、音楽系を中心に幅広いポストプロダクション業務を手がけるマルニスタジオ。長年に渡りレコーディングスタジオとポスプロの両方を運営していた関係で、音楽系の映像コンテンツが全体の6割程度を占めるという。今年3月にリニューアルオープンされた同社所有のマルニビルは、その目玉として地下一階にDolby Atmos対応のサウンドスタジオ「studio m-one」を構えた。Musikelectronic Geithainの同軸スピーカーで統一された9.2.6ch構成のイマーシブサラウンド環境は見た目としても圧巻だが、商用スタジオとしても利用する多くの方にとって快適な環境となるよう、様々な工夫が取り入れられているという。 スケルトンから行ったリニューアル 目黒区青葉台、目黒川に程近い住宅街の一角に佇む自社所有のマルニビルは、およそ30年に渡りこの地でレコーディングスタジオとして運営されてきた。また、青葉台には当初からポスプロ業務をメインとしているもう一つの拠点が今も存在している。そして2020年3月、突然訪れたコロナ禍が世の中の動きを止めてしまったのと同様に、コンテンツ制作もしばらくの間停滞期を迎えることになる。そこで持ち上がったのが、両拠点をポストプロダクション業務に統一するというプロジェクトだ。その後社内協議を経て、自社ビルであることのメリットを活かし、全フロアを一度スケルトンにして再構築する改装工事実施を決断。2022年6月より工事がスタートし、数々の難局を乗り越えながら今年3月リニューアルオープンの運びとなった。 今回の改装工事の舞台裏はどのようなものだったのだろうか。スタジオマネージャー兼MAミキサーの横田智昭氏、MAミキサーの沖圭太氏にお話を伺ったところ、これからイマーシブ対応のスタジオを作りたいと考えている方にとって参考になるであろう、理想的なスタジオ構築へのヒントが見えてきた。 株式会社丸二商会 MARUNI STUDIO Studio Manager Chief Sound Engineer 横田智昭 氏 株式会社 丸二商会 MARUNI STUDIO Sound Engineer 沖 圭太 氏 ROCK ON PRO(以下R):今回のスタジオリニューアルの最初のきっかけは何だったのでしょう。 横田: 率直な話、コロナ禍に突入してレコーディングの業務、スタジオで音を録るという仕事は停滞していた一方で、そういった中でもポスプロ業務の方は順調に稼働していました。そこで、このタイミングでポスプロ業務と拠点を統一しリニューアルしようという提案が社内から挙がったんです。 R:その後、具体的な計画や機材選定が始まったのではないかと思いますが、どのように進めていったのでしょう。 横田: このビルは自社ビルで、さらに吹き抜けがあり広く空間がとれる利点があったのですが、スケルトンまでできるという予算を確保できたのが一番大きかったですね。それが実現したからこそ、スタッフ全員で自由に考えられました。タスクの洗い出しというよりは、「自由にできるからこそ、どうレイアウトしていくのか?」というのを決めていくのが大変でした。あれこれ詰め込みすぎると予算が追いつかなくなったりして。 沖:この段階から冨岡さん(株式会社エム・ティー・アール 冨岡 成一郎氏)に相談でしたね。私はマルニと冨岡さんをつなぐ連絡担当だったのですが、無茶を言ってもレスポンスよく対応してくださいました。あと、実はスケルトンの話が出てくる前に、地下一階ではなく二階でやろうという話もありました。しかし検討していくと天井高も取れないし…ど〜にもならん!と(笑)。商業的に成り立たない、というのが分かったからこそ、思い切って「スケルトンからやろう!」という方向をみんなで向くことができたのは大きかったです。 R:では、リニューアル時にDolby Atmos対応というのは当初からお考えだったということですね。 横田: それは最初から考えていました。ポスプロのスタジオに転向するならAtmos対応にしたいと。 リニューアルが解決したポイント 📷著名な建築家によってデザインされたというこのマルニビルは、コンクリート打ちっぱなしの内壁のクールさと、階段などに見られるアール(曲面)の造形が生み出す人間的な温かみの対比がなんとも美しく印象的だ。 R:この新たなスタジオで解決された、以前からの課題はありましたか? 横田: MA室の場合、クライアントの方が大勢いらっしゃることがあります。中には、当然別の仕事も対応しながら立ち会われるということもありますが、コントロールルームの中ではそれを遠慮がちにされているのもこちらとしては心苦しかったんです。そこで、隣の前室にテレビとソファを用意して、そちらでもコントロールルームと同じ環境の音と画を流すことができるようにしました。クライアントの皆さんが別件対応を前室でしていても、コントロールルームの中で制作がどう進行をしているのかをすぐに確認できるという環境にしています。 また、コントロールルーム内とは別の場所で冷静に画音をチェックできるスペースができたというのは、従来の雑多になりがちな作業環境からすると改善されたポイントです。これは、他のMA室にもなかなか無い部分ではないかと思っています。あとは、極力スタジオ内のモノを減らす、ということですね。見ていただいて分かる通りかなり少ないと思います。音響面も含めてダイレクトな音を重視したいというのはずっと思っていて、卓上のものもなるべく小さくしました。 R:そうですよね、シンプルで洗練された印象を受けました。 📷前室にはDolby Atmos対応のサウンドバーSonos Beamを配置し、テレビのeARC出力からオーディオチャンネルを受けることでシンプルな配線を実現している。 📷優先的に導入したというTorinnov Audio D-MON、そしてDolby Atmos対応AVアンプDENON AVC-X6700Hなどが配置されたラック。 沖:機材的な話で言うと、最初の段階から決まっていたものとしてTorinnov Audio D-MON の導入がありました。これまでのMA室は15年くらい使っているのですが、経年変化もあり音を調整したいタイミングも出てきました。その調整幅が少ないというのはスタジオを長く使っていく上で、言わば足かせになってしまう、というのをすごく感じていたので、スタジオを作って今後も長く使っていけるようにしたかったんです。もちろんアコースティックな部分での調整を追い込むのも大事ですが、プラスして電気的に調整できる「伸びしろみたいなものを取っておきたい!」ということもあって、コストは高くついても「そこだけは譲らない!」というのはありまして、何も考えずに最初に予算に組み込みました(笑)。 R:もちろん出音の改善の意味もあるかと思うのですが、長く使っていく上でメンテナンス性をもたせる意味で導入されたのですね。 沖:当初はそうでしたが、結果的にAtmosの調整にもすごく良い効果が出ていますよ。 17本のMusikが表現する9.2.6ch R:最初の段階から導入を決めていたものは他にもあるのでしょうか。 横田: 見ての通り、ムジークですね。この901のフロントのLCRは元々レコーディングで使っていたものなんです。これが、レコーディング用途であったとはいえ、私たちも当然よく聴き込んでいて素直にいいなと思わせるサウンドでした。そこで「せっかくあるこの901を活かして全てを組めないか?しかも9.2.6chという形で…」と冨岡さんにも相談させていただいて。そこもこだわりと言えばこだわりです。 R:では、慣れ親しんでいたスピーカーでイマーシブの作業も違和感も無く進められたと。 横田: そうですね。ただ、17本もあると…スゴいんだな、と(笑)。なかなか暴れん坊の子達なんですが、Torinnovが上手くまとめてくれています。 R:今回、9.2.6ch構成にされたのはどういった理由でしょう。 横田: それは僕がここを作る以前に、外部のスタジオで取り組んでいた作品が影響していて、そこでは9.2.4chで作業を行なっていました。その時にワイドスピーカーの利点について使用前と使用後を比較した時に、新しいスタジオを作るのであれば、トップを4chとするか6chとするかはさておき、平面9chはマストだな、と。中間定位が作業上すごく判断しやすい。そこを7.1.4chと比較するとやはり定位がボケる部分が出てくるんですね。結果的に7.1.4chで聴かれている環境があったとしても、制作環境としてはこの部分が物理的に分かると作業がスムーズになってくるというのがありました。 📷Topの6chにはmusikelectronic geithain RL906を採用。スケルトンからの改装により3.1mという余裕ある天井高が確保された。 R:トップスピーカーはどのように活用されていますか? 横田: トップ6chに関しては、トップの真ん中にスピーカーを置くというのは、正直最初は「要るのかな?」とも思っていたんですが、ついこの間、その効果を実感できる機会がありました。Atmosの作業を行なっていた時に雷を落とすシーンがあったんです。部屋の中でのプロジェクションマッピングになっていて、長方形の箱の中でどこからともなくワーッと雷が落ちるシーン。それを音楽の曲中の間奏に入れたかったんです。上方向の定位は分かりづらいものですが、その時の雷の音の定位が非常に分かりやすかったんです、トップの真ん中があることによってすごくやりやすさを感じました。そうしたものを作る上で定位をきちんと確認できるっていうのは良かったなと最近になって実感しています。 R:今回AVID S1を選択されたのはどのような理由からでしょう。 沖:MAという作業柄、フェーダーを頻繁に使う訳ではないので、8chもあれば十分なんです。あとは、卓ごと動かせるようにしたかったというのと、反射音の影響を極力減らすため、スタジオ内のあらゆるものをできるだけコンパクトにしました。S3じゃなくS1というのもそこからです。 横田: やはり、スイートスポットで聴かなければ分からないじゃないですか。中には卓前に座ることに抵抗があるというクライアントの方も意外と多くいらっしゃいます。だったら卓側を動かしてしまって、そこにソファや小さなテーブル、飲み物などを置いて落ち着ける環境にしてしまえば、ど真ん中で聴いていただけるかなと思いました。 📷マシンルームからのケーブルを減らすため、必要最低限かつコンパクトな機器類で構成された特注のデスク。中央にはAVID S1が埋め込まれている。 R:フロアプランに関して、他にも案はありましたか? 横田: リアやサイドのスピーカーをどのように配置できるかというところをしっかり検討して、これはすごく上手くいったと思います。サラウンドサークルのことだけを考えるとクライアントの邪魔になってしまうことがありがちです。それを、しっかりイマーシブ環境にとっての正確な配置を考えつつ、クライアントも快適に過ごせるということを、僕らの意見だけではなく営業サイドの意見も豊富に取り入れてこだわって考えました。 沖:この部屋はあえてMA室とは呼んでいません。コンセプト段階で「MA室を作るのか?」それとも「レコーディングの人もMAの人も使える部屋を作るのか?」という議論がありました。前室のスペースもいっぱいまで使って、3列ディフューズのいわゆるMA室的な部屋を作ろう、というアイデアと、ITU-Rのサラウンドサークルにできるだけ準拠した完璧な真円状に配置しようというアイデアがありまして、そこで色々話し合って揉んでいく中で今の形に落ち着きました。レコーディングの方もMAの方も皆が使える部屋となったので、より広い用途に対応できるという意味合いでもあえてMA室とはせず「studio m-one」としています。 📷将来的なシステム拡張にも柔軟に対応できるAVID MTRX。B-Chainの信号はモニターコントローラーのGrace Design m908を経由し、Torinnov Audio D-MONへと接続されている。 レコーディングとMAを融和するイマーシブ R:現場の方々から見てDolby Atmos以外の規格も含めてイマーシブ需要の高まりというのは感じますか? 横田: 確かにエンドユーザー的には広がってきているかな、という感覚はあります。そこから「スタジオを使ってもらうようにするにはどうするか?」っていうのがもう一つのテーマであったりもするので、私たちがどうやって携わっていくかというのは毎日考えていることではあります。音楽作品については、いくつかのアーティストがだんだん作り始めているような状況なんですが、これもやってみて思うのは、ノウハウがものすごく大事な部分でもあるし、発注する側からしてもある意味「未知」ではある状態です。「面白そうだけど、どういうふうにすればいいの?」とか、「どういう風にやるの?」とか、「時間はどれだけかかるの?」といった部分がまだまだ分かりづらい状況だと思います。 R:手探りなところは聴き手もそうですよね。 横田: だからこそ、私たちはいいスタジオを作らせてもらったので、これをどう活用していくか、イマーシブのニーズにどう参入していけばいいのかというのは常日頃から営業陣とも話し合っています。そこで、先日取り組んでみたのが企業系のVPコンテンツで、このstudio m-oneでAtmosを体験していただいたのをきっかけにお声がけをいただいて、VPをAtmos化するということを実験的にやらせていただきました。 他にも企画段階から携わって、「カメラアングルこういうのはどうですか?」とか「背景にこれがあるとこういう音が足せるので、こんな空間ができますよ」とか、「こういう動きで…」「俯瞰から撮ると…」とかカメラマンさんとも打ち合わせをさせていただいて、それに対して僕らが効果音をつけて制作してみたというケースもあります。クライアントは、さまざまな企業のコンテンツを受注する制作会社なのですが「どういう風に世に出していいかっていうのはちょっとまだ悩むけれども、できたコンテンツとしてはすごく面白い」という評価で、受注の段階でAtmosの表現もできると提案してみようかという流れも生まれてきているようです。そうなると、これまでAtmosとは無縁と思われた企業の方にも、商品だったり、システムだったり、それが例えば「空間」を表現することでその価値観が高まりそうな商品にはAtmosのような規格がとても効果的だ、と知っていただける機会も増えてきそうです。 R:制作はもちろん、営業面でも広がりを見せそうですよね。 横田: 先ほどの話もありましたが、あえてMA室とは呼んでいません。これまで、サラウンド制作はどちらかというとMAやダビングの世界の話で、言ったら我々には親しみがある分野でした。そこに空間オーディオが出てきてレコーディングの方が一気にAtmosへ取り組む機運が高まると、レコーディングの人たちとMA的なやり方を話すようになってきたんです。そういう時に、我々が今までやってきたサラウンドの話が活きてくる。これまではレコーディングとMAの間に垣根のようなものが感じられていたんですが、空間オーディオのスタートによってその境目が混ざってきた感覚です、これからもっとそうなっていくと思います。studio m-oneもせっかく作るなら、そのどちらにとっても垣根がないスタジオにしたかったというのが最初の展望です。Atmosへの関心にかかわらず、どのような方にでも使ってもらえるような部屋にしたいですね。 📷中央のデスクを移動させ、椅子とサイドテーブルを置くと極上のイマーシブ試聴環境へと早変わりする。この工夫により、クライアントがスタジオ中央のスイートスポットでリラックスして試聴してもらえるようになったという。「卓前で聴いてもらうのが難しいのであれば、卓ごと動かせばいい」、そうした逆転の発想から生まれたまさにクライアントファーストな配慮である。実際にこの場でライブの音源を試聴させていただいたが、非常に解像度の高いMusikサウンド、そしてTorinnov Audio D-MONによる調整の効果も相まって、良い意味でスピーカーの存在が消え、壁の向こう側に広大な空間が広がっているかのように感じられた。 ●Speaker System Dolby Atmos Home 9.2.6ch L/C/R:musikelectronic geithain | RL901K Wide/Side/Rear:musikelectronic geithain | RL940 Top:musikelectronic geithain | RL906 Sub:musikelectronic geithain | BASIS 14K×2 スタジオ設立30周年を迎える節目に、ポスプロ業務への一本化という新たな変革へと踏み出したマルニスタジオ。スケルトンからの改装は自由度が高い反面、決めるべきことも増えるため数々の議論が行われてきた。その際に、技術スタッフの意見はもちろん、営業陣の意見にもしっかりと耳を傾けることで、クオリティの高い制作環境を担保しつつ、クライアントを含めた利用する全ての人にとって居心地の良い空間デザインが実現された。あえてMA室と呼んでいないことからも伝わってくる、制作現場における様々な垣根を取り払い、人との対話を重視しながらより良い作品を作っていこうという姿勢には個人的に深い感銘を受けた。このstudio m-oneから、また一つ新たなムーブメントが拡がっていくのではないかという確かな予感を抱かずにはいられなかった。 *ProceedMagazine2023-2024号より転載
Text by Mixer CMや企業VPといった広告案件を数多く手がける大阪の老舗ポスト・プロダクション、株式会社三和映材社が本社ビル内にあるMAルーム『A2』をリニューアルした。長らく使用されてきたヤマハ DM2000はAvid S4に入れ替えられ、モニター・スピーカーはGenelec The Ones 8331Aに更新。システム的にはシンプルながら、8331AとPro Tools | MTRXはAESで接続されるなど、音質 / 使い勝手の両面で妥協のないMAルームに仕上げられている。今回のリニューアルのコンセプトと新機材の選定ポイントについて、株式会社三和映材社 ポストプロダクション部所属のサウンド・エンジニア、筒井靖氏に話を訊いた。 大阪の老舗ポスプロ:三和映材社 大阪・梅田から徒歩圏内、新御堂筋沿いにスタジオを構える三和映材社は、1971年(昭和46年)に設立された老舗のポストプロダクションだ。映画の街:京都で、撮影機材のレンタル会社として創業した同社は、間もなくビデオ機材や照明機器のレンタル業務も手がけるようになり、1980年代にはポストプロダクション事業もスタート。同社ポストプロダクション部所属の筒井靖氏によれば、1985年の本社ビル新設を機に、ポストプロダクション事業を本格化させるようになったという。 「本社ビルは、1階が機材レンタル、3階が撮影スタジオ、5階が映像編集室、6 階が映像編集室とMA ルーム、7階がレコーディング・スタジオという構成になっていて、撮影から映像編集、MA、さらには音楽制作に至るまで、映像コンテンツの制作がワン・ストップで完遂できてしまうのが大きな特色となっています。手がけている仕事は、CMや企業さんのPRが8〜9割を占めています。製品紹介や会社紹介のビデオですね。CMと言っても、昔はテレビがほとんどだったのですが、最近はWebが多くなっています。最近は自分たちで映像編集されるお客様も増えてきたので、MA やカラコレ、合成、フィニッシングだけを弊社に依頼されるパターンも増えていますね」 📷株式会社三和映材社 ポストプロダクション部 サウンド・エンジニア 筒井 靖 氏 本社ビル内の施設は、映像編集室が3部屋(Autodesk Flame ×2、Adobe Premiere Pro ×1)、MAルームが2部屋、レコーディング・スタジオが1部屋という構成で、その他に別館にもボーカル・ダビングなどに使用できるコンパクトなスタジオが用意されているとのこと。2部屋あるMAルームは、フラッグシップの『A1』が5.1chサラウンドに対応、今回リニューアルが実施された『A2』はステレオの部屋で、どちらも1985年、ビルが竣工したときに開設されたという。 「音響設計は、日東紡さん、現在の日本音響エンジニアリングさんにお願いしました。ルーム・アコースティックは基本開設時のままで、その後は痛んだファブリックを張り替えたくらいですね。機材に関しては、『A1』はAMEK AngelaとStuderの24トラック・マルチの組み合わせでスタートし、1993年に卓を7階のレコーディング・スタジオで使用していたSSL 4000Eに入れ替えました。現在の卓は2006年に導入したSSL C300で、かなり年季が入っていますが、今年に入ってからフル・メンテナンスしたので今のところ快調に動いています。 一方の『A2』は、当初は選曲効果の仕込みで使うような部屋だったので、最初はシグマのコンパクト・ミキサーが入っていたくらいでした。その後、『A1』に4000Eを入れたタイミングで、現在のDAWの先駆け的なシステムであるSSL Scenariaを導入し、本格的なMAルームとして運用し始めたんです。Scenariaは、関西一号機のような感じでしたが、映像もノンリニアで再生できる革新的なシステムでしたね。Avid Pro Toolsを導入したのは2006年のことで、『A1』と『A2』に同時に導入しました。『A2』のメイン・コンソールは引き続きScenariaで、Pro Toolsはエディターとして使うという感じでした。映像は、ソニーのDSR-DR1000というディスク・レコーダーを9pinでロックして再生するようになったのですが、あれはワーク上げしながら再生できる画期的なマシンでした。その後、いい加減Scenariaも限界がきたので、2010年にヤマハ DM2000に更新した経緯です。」 S4は使い慣れたARGOSY製デスクに収納 📷もともとはDM2000用として設置されていたARGOSY製のスタジオ・デスクをサイド・パネルを取り外すことで使用。今回導入したAvid S4がきれいに収められた。 そして今年5月、三和映材社はMAルーム『A2』のリニューアルを実施。Pro Tools周りを刷新し、オーディオ・インターフェースとしてAvid Pro Tools | MTRXを新たに導入、長らく使われてきたDM2000はAvid S4に更新された。筒井氏によれば、約2年ほど前にリニューアルの計画が持ち上がったという。 「一番のきっかけは、Pro Tools周りとDM2000の老朽化ですね。弊社の仕事は修正 / 改訂が多いので、どちらの部屋でも作業ができるように、Pro ToolsやOSのバージョンをある程度揃えるようにしているんです。しかし以前『A2』に入っていたMac Proがかなり古く、それが足枷になってPro Toolsをバージョン・アップできないという状態になっていたんですよ。せっかくPro Toolsは進化しているのに、互換性を考慮してバージョン・アップせず、その恩恵を享受しないというのはどうなんだろうと。それでDM2000もところどころ不具合が出ていたこともあり、約2年前からリニューアルを検討し始めました」 DM2000に替わる『A2』の新しいコントロール・センターとして選定されたのが、16フェーダーのS4だ。S4は、CSM×2、MTM×1、MAM×1というコンフィギュレーションとなっている。 「作業の中心となるPro Toolsが最も快適に使えるコンソールということを考え、最終的にS4を選定しました。DM2000やC300のようなスタンドアローン・コンソールには、何か“担保されている安心感”があって良いのですが(笑)、最近はPro Toolsがメインになっていましたので、もはやコンソールにこだわることもないのかなと。一時期はコンソールをミックス・バッファー的に使っていたこともあるのですが、次第にアウトボードすら使わなくなり、完全にPro Toolsミックスになっていましたからね。 ただ、唯一心配だったのがコミュニケーション機能とモニター・セクションだったんです。以前、ICON D-Controlシステムで作られたセッションを貰ったときに、モニターを作るためのバスがずらっと並んでいたことがあって、そういった部分までPro Toolsで作らなければならないのはややこしいなと(笑)。しかしPro Tools | MTRXの登場によって、コミュニケーションとモニター・コントロールというコンソールの重要な機能をPro Toolsとは切り離して実現できるようになり、これだったらコントロール・サーフェスでもいいかなと思ったんです。Pro Toolsで行うのは純粋な音づくりだけで、環境づくりはPro Tools | MTRXがやってくれる。今回のシステムを構築する上では、Pro Tools | MTRXの存在が大きかったですね。 コントロール・サーフェスを導入するにあたり、S6やS1という選択肢もあったのですが、最終的にS4を導入することにしました。Dolby AtmosスタジオであればS6がマストだと思うのですが、ここはステレオの部屋ですし、機能的にそこまでは必要ありません。ただ、この部屋にはクライアントさんもいらっしゃるので、ホーム・スタジオのような見栄えはどうだろうと思い(笑)、S1ではなくS4を選定しました」 📷長らく使われてきたDM2000はAvid S4に更新 S4は、ARGOSY製のスタジオ・デスクに上手く収められている。このデスクは以前、DM2000用を収納して使用していたものとのことで、サイド・パネルを取り外すことで、きれいにS4が収まったという。 「予算の問題もありましたし、S4を設置するデスクをどうするか、ずっと悩んでいたんです。しかしあるときふと、DM2000のデスクにS4が収まるかもしれないと思って。実際、板を1枚抜いて、少しズラすだけできれいに収まりました。奥行きや高さは微妙に合わなかったのですが、そういった問題はコーナンで買ってきた板を敷き詰めることでクリアして(笑)。このARGOSYのデスクは、手前のパーム・レストが大きくて作業がしやすく、とても気に入っています。Macのキーボードも余裕を持って置くことができますしね。 S4の構成に関しては、8フェーダーだと頻繁に切り替えなければならないので、最低16フェーダーというのは最初から考えていたことです。ディスプレイ・モジュールは付けようか悩んだのですが、あれを入れるとPro Toolsのディスプレイを傍に置かなければなりませんし、最終的には無しとしました。各モジュールの配置は、16本のフェーダーに関しては分散させずに集約し、右側がトランスポート・コントロール、左側がフェーダーという隣の部屋のC300のレイアウトを踏襲しています」 📷システムの環境構築に大きく貢献したというAvid Pro Tools | MTRX。 『A2』のPro Toolsは1台で、Intel Xeonを積んだMac ProにHDXカードを1枚装着したシステム。オーディオ・インターフェースとなるPro Tools | MTRXも、ADカードとDAカードが1枚ずつのミニマムな構成で、MADIカードやSPQカードなどは装着していないという。 「音響補正はGenelecの『GLM』でやっているので、SPQカードが入っていない初代のPro Tools | MTRXがちょうど良いスペックでした。VMC-102のようなモニター・コントローラーを導入しなかったのは、ここはステレオのスタジオなので、複雑なモニター・マトリクスが必要ないからです。その代わり今回、カフをスタジオイクイプメント製の新しいものに入れ替えました。映像はPro Toolsのビデオ・トラックで再生し、Blackmagic Design DeckLink 4K Extremeで出力しています。Pro Toolsの現行バージョンは、いろいろなビデオ・フォーマットを再生できるので、ビデオ・トラックでもまったく不自由はありません。2面あるディスプレイは、単にミラーリングしているだけで、右側でアシスタントが編集したものを、左側のぼくがバランスを取るという役割分担になっています。それと今回、ROCK ON PROさんからのご提案でUmbrella CompanyのThe Fader Controlを導入したのですが、これが入力段にあるだけでコンソールのように録音できるので助かっています。録りのレベルも柔軟に調整することができますし、とても気に入っている機材です」 📷S4の脇に備えられたのはUmbrella Company / The Fader Controlだ。 8331AとPro Tools | MTRXをデジタルで接続 今回のリニューアルでは、ニア・フィールド・スピーカーも更新。長らく使用されてきたGenelec 8030AがThe Ones 8331Aにリプレースされた。筒井氏によれば、8331AとPro Tools | MTRXは、AESでデジタル接続されているという。 「ニア・フィールド・スピーカーは、以前はヤマハ NS-10Mを使用していたのですが、2006年にScenariaを使うのを止めたタイミングでGenelecに入れ替えました。Genelecのスピーカーは、聴き心地の良さと、スタジオ・モニターとしての分かりやすさの両方を兼ね備えているところが気に入っています。 今回、The Onesシリーズを導入したのは、別館のレコーディング・スタジオで8331A を使用していて、何度かこの部屋で試聴してみたところ、もの凄く良かったからです。なのでスピーカーに関しては、スタジオのリニューアルを検討し始めたときから、絶対に8331Aにしようと考えていました。8331Aは、8030Aよりも定位がさらにしっかりして、音の粒立ちが良くなったような気がしますね。それと同軸設計のスピーカーではあるのですが、サービス・エリアの狭さを感じないところも良いなと思っています。同軸スピーカー特有の、サービス・エリアを外れた途端に音がもやっとしてしまう感じがないというか。もちろん『GLM』も使用していて、あの機能を使うと“しっかり調整されている”という安心感がありますね(笑)。『GLM』は、左右同一のEQか個別のEQが選べますが、両方試してみたんですけど、今は左右同一のEQで使っています。 今回、8331AとPro Tools | MTRXをデジタルで接続したのは、余計なものを挟まずにピュアな音にこだわりたかったからです。隣の部屋も、C300からヤマハ DME24Nを経由して、Genelecにデジタルで接続しているのですが、その方が安定している印象があります」 今年5月にリニューアル工事が完了したという新生『A2』。完成翌日からフル稼働しているとのことで、その仕上がりにはとても満足しているという。 「皆さんのおかげで、イメージどおりのスタジオが実現できたと大変満足しています。でも、まだ改善の余地が残っていると思うので、さらに使いやすいスタジオになるように、細かい部分を追い込んでいきたいですね。新しいS4に関しては、HUIモードのDM2000とは違ってPro Toolsに直接触れているような感触があります。画面上のフェーダーがそのまま物理フェーダーになったような感覚というか。それとアシスタントがナレーションのノイズを切りながら、こちらではEQを触ったり、2マンでのパラレル作業がとてもやりやすくなりました。今回は思い切ることができませんでしたが、イマーシブ・オーディオにも興味があるので、今後チャンスがあれば挑戦してみたいと思っています。」 *ProceedMagazine2023-2024号より転載
日本を代表するゲームクリエイター・小島 秀夫氏が2015年に立ち上げた株式会社コジマプロダクション。2016年には第1作目となるタイトル「DEATH STRANDING」を発表し、2019年に待望のPS4Ⓡ版が発売されるやいなや、日本をはじめ世界各地から称賛の声があがり、米国LAで行われたThe Game Awards 2019では8部門にノミネートされ、クリフ役を演じたマッツ・ミケルセンのベスト・パフォーマンス賞を含めると3部門で賞を獲得、世界的なビッグタイトルとしてのポジションを確立した。その後も数々の受賞歴や昨年末の「DEATH STRANDING 2(Working Title)」発表など、ここ最近も話題が絶えないが、実はその裏でオフィスフロアの移転が実施されていたという。フロア移転のプロジェクトがスタートしたのは2020年の1月ごろ、昨年12月に新フロアでの稼働が開始され、サウンド制作についての設備も一新された。今回はTechnical Sound Designerの中山 啓之氏、Recording Engineer永井 将矢氏に、移転計画の舞台裏や新スタジオのシステムについて詳細にお話を伺うことができたのでご紹介していこう。 📷エントランスゲートを通った先に待ち受けている真っ暗な部屋。足元に伸びる一筋の光に導かれるまま進んだ先には、無限に続く白の空間。中央にはコジマプロダクションのシンボルキャラクター「ルーデンス」が力強く佇んでいる。ちなみにこの名前は、オランダの歴史学者ホイジンガが提唱した「ホモ・ルーデンス」(遊ぶ人)に由来しているそうだ。こうした人間の遊び心を刺激するような演出がオフィス内随所に施されていた。 Spaceship Transformation 今回のスタジオ設計のプランニング開始は2021年3月ごろと2年ほど遡る。"Spaceship Transformation"という壮大なコンセプトとともに、事業規模の拡大に伴うフロア移転が社内で伝えられ「それに見合ったスタジオを作れないか?」と、社内で協議するところからスタートしたそうだ。ゲーム制作の「何百人ものスタッフが膨大な創造と作業と時間をかけながら、ひとつのゲーム作品を作り上げていく過程」を「広大な空間を進んでいく宇宙船の航行」として置き換えてみると、制作を行うオフィスフロアはまさに宇宙船の船内やコックピットであり、そこは先進的な技術やデザインで満たされた空間であるべきだろう。勝手ながらな推察ではあるが、こう捉えると"Spaceship Transformation"が意図するところも伝わってくるのではないだろうか。 こうしたコンセプトを念頭に置きながらも、現場スタッフの頭の中には、具体的な業務への思慮が常にある。予算や法律上の問題をはじめ、各所で定められたルールなどの制約がある中で、想定される業務をしっかりとこなせるスタジオを作るというのは、やはり一筋縄ではいかなかったそうだが、しっかりと万が一に備えた冗長性や、将来に向けた拡張性を持たせるような工夫がなされたそうだ。 Rock oN (以下、RoC):本日は宜しくお願いします。まず、お二人の普段の業務内容を伺えますでしょうか。 中山 啓之 氏 (以下、中山):音の制作(サウンドデザイン)を中心にやりつつ、チームのマネジメント業務も行なっています。私は設立後半年経った頃に入社したのですが、その頃からメディア・インテグレーションにはお世話になっています。 RoC:ありがとうございます!個性的なスタッフばかりですみません…(汗)。 永井 将矢 氏 (以下、永井):私はレコーディングエンジニアとして入社したのですが、ちょうど移転の話が始まったタイミングだったため、入社から最近にかけてはスタジオの運営、管理業務を行っています。今後は音声収録の作業がメインになっていく予定です。 RoC:お二人は元々どのようなきっかけでゲームという分野のサウンド制作に携わるようになったのでしょう。 中山:子供の頃からゲームに興味を持っていたのですが、パソコンやFM音源が出始めたころにいわゆる"チップチューン"にどっぷりハマりまして(笑)。そこから趣味がどんどん広がっていく中でゲームサウンドの世界に行き着きました。当時、PC88というパソコンにYM2203というFM音源チップが載っていて、それを使ってパソコンから音を出すところから始まり、音楽を作ったり、効果音を作ったりということを色々やっていました。 RoC:チップチューンというと、やはり同時発音数の制限などもあったり? 中山:FM音源が3つとSSG(矩形波)が3つくらいだったんですけど、そこからPCが進化していって鳴らせる音も増えていって。その後、MIDIが出てきたのでシーケンサを買って、シンセサイザーを買って、というコンピュータミュージックの王道を進んできたという感じです。 永井:私は、新卒時にゲーム業界も興味はあったんですが、映画好きだったこともあってポスプロの道へ進むことにしました。最初はいつまで続けられるか不安だったのですが、収録やミックスをやっているうちにその楽しさに気づき、結果的に7年半ほどやっていました。当時はほとんど吹き替えの仕事が中心だったのですが、仕事の幅を拡げたいなと考えていたところにちょうどいいタイミングでコジマプロダクションでのレコーディングエンジニアの募集があったんです。自分が好きなゲームを制作している会社ということもあって「これはぜひやりたい!」ということで応募しました。 RoC:"Spaceship Transformation"が今回のフロア移転全体のコンセプトとのことですが、そうした大きなテーマの下で、現場レベルでのこだわりやテーマは何だったのでしょうか? 中山:音声収録やMAといった様々な業務が想定される中で、例えば内装デザインなどがそうですが、「会社としての方向性に合わせつつも必要な業務に対応したスタジオを作りたい」というのがありました。とは言え、無尽蔵に場所があるわけでもないですし、予算との兼ね合いもあるので、その中でベストを尽くせるように、まずは必要な部屋数や規模の検討、「こういうことをやりたい」という提示からスタートしました。 RoC:最初の構想は、やはり業務内容などから逆算していって決められたのでしょうか? 中山:今回の場合ですとこのコントロールルームとそれに隣接したレコーディングブース、EDITブースいくつか…というプランから一番最初の「妄想」が始まりました(笑)。そのプランを本当に一枚のテキストページに落とし込んで、それから紆余曲折が始まった格好です。 永井:一応「妄想」通りにはできた感じです(笑)。 RoC:内装も全体的に統一感があり、かなりこだわられていますよね。 中山:基本コンセプトとして、弊社のコーポレートカラーである黒と白をベースにしたデザインを念頭に細部を決めていきました。我々はデザインについては素人ですが、いくらCG技術が発展したとしても、実際に目にするとイメージと異なる部分がどうしても出てくるとは思います。そうした部分は不安でもあり、ワクワクした部分でもありました。 📷カフェテリアの半分は近未来的なデザインのカウンター、もう半分はカフェのような落ち着いた雰囲気の空間演出となっている。サウンドセクションのロビーはソファとテーブルが融合し、照明と対になったデザインがなされている。ラウンジはまさに映画のワンシーンで使われていそうな意匠で、フロアの各所が一度目にしたら忘れられない印象的なデザインとなっていた。また、用途に応じて背景を黒・緑・青の3色に変更できるスタジオも用意されており、映像コンテンツの収録も行うことができる。 RoC:スタジオ稼働に至るまで山ほどタスクがあったかと思いますが、中でも苦労されたポイントはどこでしたか? 中山:共用のオフィスビルなので、当然全てを好き勝手にやるわけにはいかず、消防法やビル管理上のルール、配管や防音構造、荷重の制限など、これまで全く知識がなかったことについて考えながら進める必要があった点です。そうした部分は施工をご担当いただいたSONAさんやビルの管理会社さんなど、色々な方々から知見をいただいて、針の穴を通すような調整をやりつつ進めていきました。 永井:今回は建築上の都合でピットを掘ることができなかったので、施工会社の方々にとっては配管が一番頭を悩まされたのではないかと思います。 中山:やはりピットではないので一度配管を作ってしまうと、後から簡単に変更ができなくなってしまいます。そういうこともあり、配線計画はかなり綿密に行いました。予備の配線も何本か入れてもらっているので、今後の拡張性にも対応しています。それから、バックアップの面については力を入れています。収録中に万が一メインのMacがトラブルを起こしても、MTRX経由で常時接続されているサブ機にスイッチして継続できるように用意してありますし、さらにMTRXについても代わりのI/Oを用意してあるので、すぐに収録が再開できるようになっています。インハウスのスタジオですが、商用スタジオ並みのバックアップシステムを実現しています。 永井:商用スタジオだと複数部屋あったりするのでトラブルが発生したら別の部屋で対応をするということもできますが、そういった意味ではここは一部屋しかないので「何かあった時に絶対何とかしなきゃいけない!」となりますから、色々なシチュエーションを考えてすぐに対応できるようにしています。 理想的なスペースに組んだ7.1.4chのDolby Atmos 📷株式会社ソナのデザインによる音響に配慮された特徴的な柱がぐるりとコントロールルームを取り囲み、その中へ円周上にGenelec 8361Aが配置されている。スクリーンバックにはL,C,R(Genelec 8361A)とその間にサブウーファーGenelec 7370APを4台設置し音圧も十分に確保された。 RoC:機材選定はどのように進めていったのでしょうか? 中山:最初の計画を立てた時に、一番最初に挙げたのは「スクリーンを導入したい!」ということでした。弊社に来られる方は、海外からのお客様や映画関係の方など多種多様にいらっしゃいます。そうしたみなさまにご視聴いただくことを想定すると、小さな液晶画面だと制作の意図が伝わらなかったり、音響の良さを伝えるのが難しかったり、ということがこれまでの経験上ありましたので、スクリーンの設置はぜひとも実現したいポイントでした。併せて、今後主流になっていくであろう4K60pの投影と、それに応じたサウンド設備をということも外せないところでした。その規格に対応させるために、映像配線はSDI-12Gを通してあります。 RoC:今回、コントロールサーフェスにAVID S4を選ばれた理由は何だったのでしょう? 中山:MAの作業の直後に音声収録を行い、その後の来客時にティザーをご覧頂いて、という事も弊社では多くありますので、素早くセッティングを切り替えられるデジタル卓を候補としました。加えて、Pro Toolsのオペレーションが中心ということもあるので、Avid S6、S4か、もしくはYamaha のNuageかという選択肢だったのですが、サイズなども色々検討した結果でAvid S4になりました。S4でもS6と遜色ない機能がありますので。 RoC:特注のアナログフェーダーが組み込まれているのは、まさにこだわりポイントですね! 永井:S6もそうですが、S4はレイアウトを自由に変えられるのが利点ですね。 RoC:MTMとAutomationモジュールが左右に入っているパターンは他ではあまり見ない配置ですが、実際S4を導入して良かったと思うところはありますか? 永井:キーボードの操作も多いので、この配置にしていると手前のスペースを広く取れるのでいいですね。あとは、モニターコントロール周りです。前職でも触れたことはあったのですが、今思えばそこまで使いこなせてなかったなと。DADmanでのソースやアウトプットの切り替えは結構やりやすいなと改めて思いました。最初に操作方法を教わった後は、自分で好きなようにカスタマイズしています。「やりたい」と思ったことが意外とすぐにできるというのは好感触でした。 📷Avid S4のオートメーションモジュール手前には特注の4chアナログフェーダーが収められている。これはスタジオラックに収められたAMS Neve 1073 DPXとMTRXのアナログ入力との間にパッチ盤を介して接続されており、頻繁に触れるであろうボリュームコントロールを手元でスムーズに行えるようにした実用を考慮したカスタムだ。また、マシンルームにはシステムの中枢となるAvid MTRXが設置され、MacProの他にも同ラックにはMac Studioをスタンバイし冗長性を確保している。 RoC:特に、カスタマイズが好きな方にはハマりますよね!スピーカーはGenelecの同軸スピーカー8361A / 8351Bを中心に、4台の7370APを加えた合計15台で構成されています。なぜこの構成になったのでしょう? 中山:スピーカー選定の段階で「Dolby Atmosに対応させよう」というのはありました。かつ、スクリーンバックから鳴らせるということ、あとは部屋のサイズに対して十分な音圧を出せるか、というところがポイントでした。そういった部分から考えていくと自ずと選択肢は絞り込まれていきました。当初は同じGenelecのS360Aで検討していたのですが、角度を変えて上に置いたり横に置いたりすることを考えると、リスニングポジションの関係もあって、最終的に同軸スピーカーの方がいいのではないかという方向に落ち着きました。 📷トップのスピーカーはGenelec 8351Bを4台設置、半球の頂点にあたる部分など各所に配線があらかじめ敷設され、将来の増設も想定されている。 永井:音質面でもすごく素直な音で、クリアで分離がよく音色ひとつひとつが聴き取りやすく感じました。今回、SONAさんに音響調整をお願いしていて私も立ち会ったのですが、デスク前方のプロジェクターが格納されている部分が床からの反射を防ぐ構造になっており、その影響もあってか低域が溜まらずクリアに聴こえるようになっています。 📷デスク前方の傾斜部分の下には、4K60p対応の超短焦点プロジェクターが収められているのだが、こちらは床からの反射音を軽減させる音響調整パネルとしての役割も担っている。 中山:何となく、これも宇宙船のようなデザインに見えますよね。 RoC:確かに、スタートレック感がありますね! 中山:来社されたお客様にも、そのような感想を頂いた事がありました。雰囲気・デザイン的にもそういった要素を色々含めています。 RoC:ウーファーはスクリーンバックに4台となっていますね。 中山:はい、LCRスピーカーのLとC、RとCの間に上下に2台ずつGenelec 7370APが設置されています。最初は2台だけの想定だったのですが、調整していくうちに音圧が足りないかも、ということで、最終的に2台追加することになりました。リスニングポイントからスピーカーまでも3.6mほどあって、天井高も2.7mと高く取れています。サラウンドスピーカーの上下や天井中央にも後からスピーカーを追加できるようにしていて、これからの拡張性も確保しています。 RoC:サラウンドやイマーシブの制作において理想的な半球状の配置になっていますよね。実際にスタジオが稼働しはじめて、周囲からの反応はいかがでしたか? 中山:「すごい」と言ってもらえる機会が多くて嬉しいですね。エンジニアの方からは「音の立ち上がりが速い」という声もあり、好評な意見をいただけていて願ったり叶ったりです(笑)。「妄想」していたスタジオがきちんと実現できたかなという印象です。 永井:いい評判をいただけて本当によかったです。こちらからコンセプトを伝えてなくても「宇宙船みたい」と言ってくれる方もいてデザイン面でも良かったなと。加えて、制作だけではなくプレゼンや海外とのコミュニケーションにも対応できるようにしたので、他部署のスタッフからも「居心地良く仕事ができる」といった声がありました。 RoC:スタジオが取り合いになったりはしないですか? 中山:まだそこまではいってないですが、いずれそうなってくるかもしれませんね(笑)。 📷コントロールルームに隣接したレコーディングブースは、実面積よりも広々とした開放感を感じさせ長時間の使用にも耐えうる快適な空間となっている。また、フロアのカーペット裏には、コンクリートやレンガ、大理石など、材質の異なる床材が仕込まれておりフォーリー収録も行うことができる。 📷Sound Editing Room はA / Bの2部屋が用意されており、いずれもGenelec 8331A + 7360Aで構成された7.1chのモニター環境が構築されている。入出力にはFocusrite Red 8 Line、モニターコントローラーには同R1が用意されており、ここでも拡張性を確保しつつもコンパクトな機材選定がなされている。また、スピーカースタンドとデスクが一体化された設計により、機材の持ち込みなどシチュエーションに応じた活用がフレキシブルに行えるようになっていることもポイントだ。 聴く人の心を動かすようなサウンドを 現在、ゲーム制作においては、映画と同じくサラウンドでの制作が主流となっており、そこからダウンミックスでステレオが作られるとのこと。ゲーミングPCのスペックの向上やバーチャルサラウンド対応ヘッドホンのラインナップが拡充し、手頃な価格でそのサウンドを楽しめる環境が整ってきており、着実にその裾野は広がっているのではないかということだ。これはイマーシブサラウンドについても同様で、一番最初の計画ではイマーシブ対応については検討されていなかったが、天井高が十分取れることが分かった段階で、今後の需要増にも備えてDolby Atmosへの対応を決めたそうだ。 現在、ゲーム制作においては、映画と同じくサラウンドでの制作が主流となっており、そこからダウンミックスでステレオが作られるとのこと。ゲーミングPCのスペックの向上やバーチャルサラウンド対応ヘッドホンのラインナップが拡充し、手頃な価格でそのサウンドを楽しめる環境が整ってきており、着実にその裾野は広がっているのではないかということだ。これはイマーシブサラウンドについても同様で、一番最初の計画ではイマーシブ対応については検討されていなかったが、天井高が十分取れることが分かった段階で、今後の需要増にも備えてDolby Atmosへの対応を決めたそうだ。 RoC:Dolby Atmosのようなイマーシブ対応をすることで、ゲームサウンドの分野でも従来からの変化を感じましたか? 中山:一般のユーザーの方々へどこまでイマーシブ環境が拡がるかということもありますが、ゲームサウンドは3D座標で処理されているものが多いので、イマーシブと相性も良く、今後チャレンジしていきたいです。 永井:ポスプロ時代にもイマーシブについては興味を持っていましたが、やはりゲームは親和性が高いように思います。プレイをしている自分がその場にいるような演出も面白いと思いますし、今後突き詰めていくべきところだと思います。 RoC:それこそチップチューンの時代は、同時発音数など技術的な制約が大きい中での難しさがあったと思いますが、今後は逆に技術的にできることがどんどん増えていく中での難しさも出てくるのでしょうか? 中山:次々と登場する高度な技術のひとつひとつに追いついていくのはなかなか大変ですが、しっかりとその進化に対応して聴く人の心を動かすようなサウンドを作っていきたいですね。 世界的な半導体不足の影響や、高層オフィスビルならではのクリアすべき課題など、大小様々な制約があった中で、現場の要件をクリアしつつコジマプロダクションとしてのコンセプトを見事に反映し完成された今回のスタジオ。Dolby Atmos制作に対応済であることはもちろん、将来的にスピーカーを増やすことになってもすぐに対応できる拡張性や、インハウスのスタジオながら商用スタジオ並みのバックアップシステムも備えており、現時点だけではない制作の将来像も念頭に置いた綿密なシステムアップが行われた。ついに動き出したこの"Spaceship"がどのような新たなる世界へと導いてくれるのか、遥かなる航海がいよいよ始まった。 *ProceedMagazine2023号より転載
バイオハザード、モンスターハンター、ロックマン、ストリートファイター、魔界村など数多くの世界的ヒットタイトルを持つ世界を代表するゲームメーカーである株式会社カプコン。そのゲーム開発の拠点である大阪の研究開発ビル。ここにゲームのオーディオを制作するためのミキシングルームがある。効果音、BGMなどを制作するクリエイター、海外で収録されたダイアログや楽曲、それぞれに仕上がってきたサウンドのミックスやマスタリングを行うためのスペースとなるが、そのミキシングルームが内装からの大改修により新しく生まれ変わった。 度重ねた更新と進化、理想のアコースティック カプコンのbitMASTERstudio が設けられたのは2006 年のこと。ゲームではカットシーンと呼ばれるムービーを使った演出ができるようになるなど、コンソールの進化や技術の進化により放送・映画と遜色たがわないレベルの音声制作環境が求められてきていた時期である。そして、ステレオからサラウンド、さらにはイマーシブへと技術の進歩によりリファレンスとしての視聴環境への要求は日々高まっていく。 こうしたゲーム業界にまつわる進化の中で、カプコンbitMASTERstudio も時代に合わせて更新が行われていくこととなる。PlayStation2 の世代ではステレオ再生が基本とされる中で、DolbyPro Logic 2 を使ったサラウンドでの表現にも挑戦。PlayStation3 /Xbox の登場以降はDolby Digital が使用できるようになり、5.1chサラウンドへの対応が一気に進むことになる。ゲームにおける音声技術の進化に関しては興味が尽きないところではあるが、また別の機会にまとめることとしたい。 2006年にbitMASTERstudioが誕生してから、次世代のスタンダードをにらみ、ゲーム業界の先を見据えた更新を続けていくこととなる。今回のレポートはまさにその集大成とも言えるものである。改めてbitMASTERstudioの歩みを振り返ってみよう。設備導入当初よりAvid Pro Tools でシステムは構築されており、この時点ではDigidesign D-Control がメインのコンソールとして導入されていた。その後、2009 年に2 部屋目となる当時のB-Studio が完成、こちらにもDigidesign D-Control が導入される。2013 年にはA-Studio の収録用ブースを改修してProTools での作業が行えるようシステムアップが行われ、2015 年にはA-Studio のコンソールがAvid S6 へと更新された。 こうして更新を続け、その時点での最新の設備を導入し続ける「bitMASTERstudio」の大きな転機が、2018年に行ったB-studioの内装から手を加えた大規模な改修工事である。ゲームにもイマーシブ・オーディオの波が訪れ、その確認をしっかりと行うことができる設備の重要性が高まってきているということを受け、いち早くイマーシブ・オーディオ対応のスタジオとしてB-stduioが大改修を受けて生まれ変わった。その詳細は以前にも本誌でも取り上げているので記憶にある方も多いのではないだろうか。金色の衝立のようなスピーカースタンドにぐるっと取り囲まれた姿。一度見たら忘れられないインパクトを持つ部屋だ。 この部屋は音響施工を株式会社ソナ(以下、SONA)が行った。この部屋における音響設計面での大きな特徴は、物理的に完全等距離に置かれたスピーカー群、これに尽きるだろう。物理的にスピーカーを等距離に設置をするということは現実的に非常に難しい。扉などの導線、お客様の座るソファー、そもそもの壁の位置など、様々な要素から少なからず妥協せざるをえない部分が存在する。B-studioでは衝立状のスタンドを部屋の中で理想の位置に設置することで完全等距離の環境を実現している。これは、アコースティック的に理想となる配置であり、そこで聴こえてくるサウンドは電気的に補正されたものとは別次元である。この経験から今回のA-studioの改修にあたっても、前回での成功体験からSONAの施工で内装変更とそれぞれのスタジオのイマーシブ化を実施している。 📷 25年に渡りカプコンのサウンドを支えるエンジニアの瀧本氏。ポスプロで培ったサウンドデザイン、音による演出などのエッセンスをゲーム業界にもたらした。 圧倒的なパフォーマンスを求めたスピーカー群 今回の更新は、A-studioおよびそのブース部分である。前述の通りでブースにもPro Toolsが導入され、Pro Toolsでの編集を行えるようにしてあったが、やはり元々は収録ブースである。そこで今回は、ブースとの間仕切りの位置を変更し、ブースをC-studioとしてひとつのスタジオとして成立させることとなった。それにより、A-studioの部屋は若干スペースを取られることになったが、マシンルームへの扉位置の変更を行いつつ、スピーカーの正面を45度斜めに傾けることでサラウンドサークルの有効寸法に影響を与えずに部屋を効率的に使えるような設計が行われた。なお、この部屋は研究開発ビルのフロアに防音間仕切りを立てることで存在している空間である。その外壁面には手を加えずに内部の間仕切り、扉の位置などを変更しつつ今回の更新は行われている。 📷 スタジオ配置がどのように変更されたかを簡単な図とした。間仕切りの変更といっても、かなり大規模な改修が行われたことがわかる。 それではそれぞれのスタジオを見ていこう。まずは、旧A-studio。こちらはDubbing Stageと名称も新たに生まれ変わっている。なんといっても正面のスピーカー群が初めに目を引くだろう。旧A-studioでは、MK社製のスピーカーがこの部屋ができた当初のタイミングから更新されることなく使用されてきた。その際にスピーカーはスクリーンバックに埋め込まれていたのだが、今回はスクリーンバックではなく80 inchの巨大な8K対応TVへと更新されたことで、すべてのスピーカーのフェイスが見えている状態での設置となった。正面に設置されたスピーカーは、一番外側にPMC IB2S XBD-AⅡ、その内側にPMC 6-2、さらに内側にはサブウーファーであるPMC8 SUBが2本ずつ、合計4本。センターチャンネルにPMC 6-2という設置である。 PMC IB2S XBDはIB2SにスーパーローボックスとしてXBDを追加した構成。2段積みで1セットとなるスピーカーである。これはステレオ作業時に最高の音質でソースを確認するために導入された。カプコンでは海外でのオーケストラなどの収録によるBGMなど、高品位な音源を多数制作している。せっかくの音源をヘッドホンやPCのスピーカーで確認するだけというのは何とも心もとない。クリエイター各自の自席にも、Genelec 8020で5.1chのシステムは設置されているが、それでもまだまだスピーカーサイズは小さい。しっかりとした音量で細部に渡り確認を行うためにもこのスピーカーが必要であった。 📷 ダブルウーファー、3-wayで構成されたPMC6-2。PMCのサウンドキャラクターを決定づけているATLのダクトが左に2つ空いているのがわかる。新設計となるスコーカーとそのウェーブガイドもこのスピーカーのキーとなるコンポーネント。 この IB2S XBDが選定されることになった経緯は2019年のInterBEEまで遡ることとなる。この年のInterBEEのPMCブースにはフラッグシップであるQB1-Aが持ち込まれていた。4本の10 inchウーファーを片チャンネル2400wという大出力アンプが奏でる豊かな低域、そして1本辺り150Kgという大質量のキャビネットがそれを支える。解像度と迫力、ボディー、パンチのあるサウンド。文字としてどのように表現したら良いのか非常に難しいところであるが、あの雑多なInterBEEの会場で聴いても、その圧倒的なパフォーマンスを体感できたことは記憶にある。このQB1-Aとの出会いからPMCのスピーカーに興味を持ち、導入にあたりPMCのラインナップの中からIB2Sを選定することとなる。しかし、IB2S単体ではなくXBD付きの構成としたということは、やはりQB1-Aを聴いたときのインパクトを求めるところがあったということだろうか。 📷 PMC QB1-Aがこちら。迫力ある存在感もさることながら、このスピーカーから再生されるサウンドは雑多なInterBEEの会場で聴いても際立ったものであった。ここでのPMCとの出会いから今回の更新へとつながったと考えると感慨深い。 6本のサブウーファーが同時駆動するシステムアップ 📷 天井にも4本のPMC6-2が設置されている。天井からの飛び出しを最低限とするため半分が埋め込まれ、クリアランスとリスニングポイントまでの距離を確保している。 サラウンド、イマーシブ用のスピーカーには、PMCの最新ラインナップであるPMC6-2が選ばれている。当初はTwo-Twoシリーズが検討されていたということだが、導入のタイミングでモデルが切り替わるということで急遽PMC6シリーズの試聴が行われ、PMC6-2に決定したという経緯がある。その際にはPMC6との比較だったということだが、ローエンドの豊かさやボリューム感、スコーカーによる中域帯の表現力はやはり PMC6-2が圧倒したようだ。それにより、天井に設置するスピーカーも含めてPMC6-2を導入することが決まった。天井部分はひと回り小さいスピーカーを選定するケースも多いが、音のつながりなどバランスを考えると同一のスピーカーで揃えることの意味は大きい。この点はスピーカー取り付けの検討を行ったSONAでもかなり頭を悩ませた部分ではあったようだが、結果的には素晴らしい環境に仕上がっている。 📷 音響へのこだわりだけでなく、意匠にもこだわり作られたサラウンド側のPMC6-2専用スタンド。フロントの三日月型のオブジェと一体感を出すため、ここにも同じコンセプトのデザインが奢られている。 サラウンド側のスピーカースタンドは、SONAの技術が詰まった特注のもの。特殊なスパイク構造でPMC6-2をメカニカルアース設置しており、スピーカーのエンクロージャーからの不要な振動を吸収している。スタンドの両サイドにはデザイン的に統一感を持った鏡面仕上げのステンレスがおごられ、無味乾燥なデザインになりがちなスピーカースタンドにデザイン的な装飾が行われている。近年ではあまり見ないことだが「気持ちよく」作業を行うという部分に大きな影響を持つ部分だろう。 サラウンド用のLFEはPMC8 SUBが4本導入された。設置スペースの関係からPMC8 SUBが選ばれているが、実際に音を出して85dBsplのリファレンスでの駆動をさせようとすると、カタログスペック的にも危惧していた点ではあったがクリップランプが点いてしまった。そこで、サブウーファー4本という構成にはなるがそれを補えるように IB2S XBDのXBD部分を同時に鳴らすようにシステムアップされている。結果、都合6本のサブウーファーが同時に駆動していることになり、XBDボックスと同時に鳴らすということで余裕を持った出力を実現できている。6本ものサブウーファーが同時に鳴るスタジオは、さすがとしか言いようがないサウンドに包まれる。 これらのスピーカーは部屋の壁面に対して正面を45度の角度をつけて設置が行われた。従来はマシンルーム向きの壁面を正面にして設置が行われていたが、角度をつけることで多数のスピーカー設置、そしてTVモニターの設置が行われる正面の懐を深く取ることに成功している。そして正面の足元には、そのスピーカーを美しく演出する衝立が設置された。足元をスッキリと見せるだけではなく色の変わる照明をそこに仕込むことで空間演出にも一役買っている。ちょっとした工夫で空間のイメージを大きく変化させることができる素晴らしいアイデアだ。天井や壁面に設置された音響調整のためのパネルはピアノブラックとも言われる鏡面仕上げの黒で仕上げられている。写真ではわかりにくいかもしれないが、クロスのつや消し感のある黒と、この音響パネルの光沢黒の対比は実際に見てみると本当に美しい。影で支える音響パネルが、過度の主張をせず存在感を消さずにいる。 Avid MTRXを中心にシステムをスリム化 📷 Dubbing Stageに導入されているAvid S6 M40は16フェーダー仕様。右半分にはウルトラワイドディスプレイがコンソール上に設置されている。キーボードの左にトラックボールが置かれているのはサウスポー仕様。この部屋を使うエンジニア3名のうち2名が左利きのため民主主義の原則でこの仕様になっているそうだ。 📷 ラックの再配置を行ったマシンルーム。3部屋分の機器がぎっしりと詰まっている。この奥にPMCのパワーアンプ専用のアンプラックがある。 作業用のコンソールに関しては、前システムを引き継いでAvid S6-M40が設置された。これまでは、SSL Matrixを収録用のサブコンソールに使ったりといろいろな機器が設置されていたが、今回の更新では足元のラックを残してそれらはすべて撤去となり、スッキリとしたシステムアップとなった。収録を行う作業の比率が下がったということ、そしてPro Toolsや開発コンソールといったPCでの作業ウェイトが大きくなってきているということが、システムをスリム化した要因だということだ。このシステムを支えるバックボーンは、Avid MTRXが導入されている。これまで使ってきたAvid MTRXはB / C-studio用に譲り、追加で1台導入してこの部屋の専用機としている。社内スタッフ同士での共有作業が中心であったため、機材をある程度共有するシステムアップで運用してきたが、メインスタジオとなるDubbing Stageの機器は独立システムとして成立させた格好だ。 主要なシステムの機器としては、このAvid MTRXとPro Tools HDXシステム、そして持ち込まれた開発PCからの音声を出力するためのAVアンプとなる。開発用PCからはゲームコンソールと同様にHDMIでの映像 / 音声の出力が行われ、これをアナログ音声にデコードするためにAVアンプが使われている。音響補正はAvid MTRX内のSPQモジュールが使われ、PMCスピーカー側のDSPは利用していない状況だ。ベースマネージメント、特に6本のサブウーファーを駆動するための信号の制御や処理がMTRXの内部で行われていることとなる。 同軸で囲む、新設された銀の部屋 📷 Dynamic Mixing Stage - SILVER。GOLDと対となるSILVERの部屋。写真で並べて見るとそのコントラストがわかりやすいだろう。スピーカーはKS Digital、デスク正面には、LCRにC88、サブウーファーとしてB88が合わせて5台設置されている。コンソールはAvid S1が導入されている。 もう一つの新設された部屋である、旧ブースとなるスペースを改修したDynamic Mixing Stage - SILVERをご紹介したい。旧B-StudioにあたるDynamic Mixing Stage - GOLDはその名の通り「GOLD=金」をデザインのテーマに作られている。そしてこちらのSILVERは「SILVER=銀」をデザインのコンセプトとして作られた。ほかの2部屋が黒を基調とした配色となっているが、こちらのSILVERは白がベースとなり音響パネルは銀色に仕上げられているのがわかる。 📷 サラウンド側のスピーカー。音響パネルで調整されたこだわりのスピーカー設置が見て取れる。この音響パネルが銀色に仕上げられており、GOLDの部屋と同様に深みのある色で仕上げられている。 スピーカーから見ていこう。こちらの部屋にはKS Digitalのスピーカーが選定された。GOLDの部屋はGenelec the ONEシリーズ、DubbingはPMCとそれぞれの部屋であえて別々のメーカーのスピーカーが選ばれている。同一のメーカーで統一してサウンドキャラクターに統一感を持たせるということも考えたということだが、様々なキャラクターのスピーカーで確認できるということも別のベクトルで考えれば必要なことだという考えからこのようなセレクトとなってる。また、多チャンネルによるイマーシブ・サラウンド構築において同軸スピーカーを選択するメリットは大きい。特にSILVERのような容積が少なく、サラウンドサークルも小さい部屋であればなおさらである。その観点からも同軸であるKS Digitalの製品がセレクトされている。正面のこれらのスピーカーはSONAのカスタム設計によるスタンドでそれぞれが独立して設置されている。こちらもすべてのスピーカーがメカニカルアース設置され、これだけ密接していても相互の物理的干渉が最低限になるように工夫が凝らされている。物理的な制約のある中で、可能な限り理想的な位置にスピーカーを自然に設置できるように工夫されていることが見て取れる。 SILVERのシステムは、AVID Pro Tools HDX、I/OはGOLDと共有のAVID MTRXが使われている。コントローラーは部屋のサイズからもAvid S1が選ばれている。シグナルのフロントエンドとなるAD/DAコンバーターはGOLDと共有ではなく、それぞれの部屋ごとにDirectout Technologies ANDIAMOが導入されている。このコンバーター部分を部屋ごとに持つことでトラブル発生時の切り分けを行いやすく、シンプルな構築を実現している。 Avid S4へ更新された金の部屋 📷 Dynamic Mixing Stage - GOLD。以前本誌でも取り上げさせていただき、大きな反響があったカプコンにとって最初のイマーシブ対応スタジオだ。 部屋の内装、スピーカーなどに変更は加えられていないが、同時にDynamic Mixing Stage - GOLDのコンソールが同じタイミングで更新されている。これまで使われていたAvid S3からAvid S4へとグレードアップだ。これによりAvid S6が導入されているDynamic Dubbing Stageとの操作性の統一も図られている。やはり、同一メーカーの製品とはいえS3とS6では操作性がかなり異なりストレスを感じることが多かったようだ。S6ならばできるのに、S6だったらもっとスムーズに作業ができたのに、ということがS4へ更新を行うことでほとんどなくなったということだ。ただし、フェーダータッチに関してだけはS6と共通にしてほしかったというコメントもいただいた。制作作業において一番触れることが多い部分だからこそ、共通した仕様であることの意味は大きいのではないだろうか。 📷 今回の更新でコンソールがAvid S4へと更新、カスタム設計の机にユニットが埋め込まれてる。これはスピーカーにかぶらないようにというコンセプトからによるもので、ディスプレイが寝かされていることからも設計のコンセプトが感じられるだろう。 GOLDのAvid S4は製品に付属する専用シャシーを使わずに、カスタム設計となったデスクへの埋め込みとしている。デスクトップのシャシーであるS4は、普通の机にそのまま設置するとどうしても高さが出てしまう。シャシーごと埋め込むというケースは多いのだが、今回はモジュールを取り出してデスクに埋め込むという手法が用いられた。S6ではこれまでにも実績のあるカスタマイズだが、S4でのカスタムデスクへの埋め込みは初の事例である。これは今後スタジオの更新を考えている方にとって参考となるのではないだろうか。 スピーカーでサウンドを確認する意義 📷 デザイン性の高い空間の居住性と、音響のバランスを高いレベルで整えることに成功し、そのコンセプトやここに至る経緯を色々とお話いただいた。GOLDの部屋で実現した理想の音環境をそれ以外の2部屋でも実現できたと語っていただいた。 すべてのスタジオを7.1.4chのイマーシブ対応としたカプコン。これまでにもレポートした検聴用の2部屋と合わせて、しっかりとしたチューニングがなされた7.1.4chの部屋を5部屋持つこととなる。 ゲームではもともとが3Dで作られているのでイマーシブに対しての親和性が高い。どういうことかと言うと、ゲーム(3Dで作られているもの)は映像や中で動くキャラクター、様々な物体すべてが、もともとオブジェクトとして配置され位置座標などを持っている。それに対して音を貼り込んでいけば、オブジェクトミックスを行っていることと一緒である。 最終エンコードを行う音声のフォーマットが何なのか、Dolby Digitalであれば5.1chに畳み込まれ、Dolby True HDであればDolby Atmos。最終フォーマットに変換するツールさえ対応していれば、ゲームとして作った音はもともとが自由空間に配置されたオブジェクトオーディオであり、すでにイマーシブであるということだ。逆にゲーム機から出力するために規格化されたフォーマットに合わせこまれているというイメージが近いのではないだろうか。 そう考えれば、しっかりとした環境でサウンドを確認することの意味は大きい。ヘッドホンでのバイノーラルでも確認はできるが、スピーカーでの確認とはやはり意味合いが異なる。バイノーラルはどうしてもHRTFによる誤差をはらむものである。スピーカーでの再生は物理的な自分の頭という誤差のないHRTFによりサウンドを確認できる。自社内にスピーカーで確認できるシステムがあるということは本当に素晴らしい環境だと言えるだろう。 ゲームにおいて画面外の音という情報の有用性を無意識ながらも体験をしている方は多いのではないだろうか。仮想現実空間であるゲームの世界、そのリアリティーのために重要な要素となるサウンド。世界中のユーザーが期待を寄せるカプコンのゲームタイトルで、そのサウンドに対するこだわりは遥かなる高みを見据えている。 📷 今回の取材にご協力いただいた皆様。左下よりカプコン瀧本和也氏、スタジオデザイン・施工を行ったSONA土倉律子氏、SONA井出将徳氏、左上に移りROCK ON PRO前田洋介、PMCの代理店であるオタリテック株式会社 渡邉浩二氏、ROCK ON PRO森本憲志。 *ProceedMagazine2022-2023号より転載
麻布台の地において46年間にわたって日本の音楽産業を支え続けてきた「株式会社サウンド・シティ」。前身である「株式会社飛行館スタジオ」時代から数えればその歴史は60年を超えているが、老舗の座に安んじることなく常に時代の先端をとらえ続けてきたスタジオである。この2022年8月には、Dolby Atmos / 360 Reality Audioの両方に対応したイマーシブ・スタジオ「tutumu」(ツツム)をオープン。同社の最新にして最大の挑戦ともなったこのスタジオのシステムや、オープンに至るまでの経緯などについてお話を伺った。 新たなフラッグシップ・スタジオ「tutumu」 「サウンド・シティの、ひいては日本のフラッグシップとなるようなスタジオを作ろう」というコンセプトのもと、Dolby Atmosと360 Reality Audio両対応のイマーシブ・スタジオ開設の構想が生まれたのは2021年7月ごろ。ちょうど、同年6月に中澤氏と明地氏が取締役に就任してまもなく、同社の価値を“リブランディング”しようと考えていた時期だという。 リブランディングにあたっては、音楽レコーディング・スタジオとポストプロダクションというふたつの事業を柱として日本の「音」を支え続けてきた同社の存在意義を「よいレコーディングスタジオ、よい映像編集室、そしてよい人材をはじめとして、映像と音楽を作りたい方々に対して技術面で最大限の価値を提供していくこと」(明地氏)と再定義しており、これからの時代に求められる価値を提供することができる新たなフラッグシップ・スタジオ「tutumu」をオープンすることは、サウンド・シティという“進化を止めない老舗スタジオ”に相応しいプロジェクトだったようだ。 折しもApple Musicが空間オーディオへの対応を開始し、アーティストやクライアントからその作品作りに関する相談を受け始めていたというが、しかしそれはまだごく一部の話。音楽におけるステレオの価値も根強い状況で、これほど大規模なイマーシブ・サウンド対応へ舵を切ったことに何か確信はあったのだろうか。 明地氏によると「これまで存在した、オーディオ・ファイル向けサービスのような技術だったらtutumuの開設は決断しなかった。空間オーディオは従来のマルチチャンネルと違って、既存のストリーミング・サービスの中で聴ける。これは確実に浸透する流れだと判断できたので、だったらそれができる部屋を作ろう、と。それも、サウンド・シティの新しい“顔”になるようなスタジオを作ろうと考えました。」とのことだ。さらに同氏は「テクノロジーの進化速度はすごく速くて、スタジオで作ったモニターをヘッドホン / イヤホンで再現できる時代というのが追いかけてくるはず。その先には、音や映像を立体で楽しむ時代が来ると思う。その舞台が車内なのかメタバースなのかはわからないが、これから先は立体の中で作品を作る時代になる」という確信があるという。 マーケットが成熟してから始めるのではなく、将来、誰もが必要とする技術であるという確信に基づいて作られたtutumuは、サウンド・シティだけでなく、まさに日本の音楽スタジオ全体のフラッグシップとなるべく生まれたスタジオと言えるだろう。これには、プロジェクト発足当初からシステムの設計を中心に携わったオンズ株式会社 井上氏も「このタイミングであれば、真似しようとしてもできないスタジオを作れると思いました。そういう意味では、周りがどうということではなく、ここが発信地だという熱い想いでやらせていただきました。」と語っていた。 Dolby Atmos / 360 Reality Audioハイブリッド tutumuの特長のひとつは、ひとつのスピーカー・システムでDolby Atmosと360 Reality Audioのどちらにも対応できるという点だ。明地氏によると、これからイマーシブ・オーディオの時代は必ず来るという確信はあったというが、将来、主流になるテクノロジーがDolby Atmosなのか360 Reality Audioなのか、それともまったく別のものになるのかはわからないため、将来的にどんな規格にも対応できるスタジオにしたいという想いがあったという。 スピーカー・レイアウトにおけるDolby Atmosと360 Reality Audioの最大の違いは、Dolby Atmosの音場が半天球であるのに対して360 Reality Audioは全天球である点だが、ただ単にDolby Atmosのレイアウトにボトム・スピーカーを足せばよい、というほど簡単にはいかない。映画館での上映を最終的な目的としているDolby Atmosと、音楽作品を前提としている360 Reality Audioでは、Hightスピーカーのレイアウトに対する考え方が異なっているのだ。 Dolby AtmosにおけるHightスピーカーのレイアウトは「半球面上でFrontのLRと同一の線上、かつ、リスニング・ポイントから前後にそれぞれ45°の角度となる位置」となっており、360 Reality Audioは「ITU-Rに準拠した配置の5.1chを上層にも配する」となっている。誤解を恐れずに言ってしまえば、Dolby Atmosはスピーカー・レイアウト全体が半球面になることを重視しており、360 Reality Audioは水平面におけるスピーカー間の角度に重きを置いているということになるだろうか。 「異なるふたつのレギュレーションを同時に満たすためのスピーカー・レイアウトについては、社内でもかなり議論を重ねた」とは日本音響エンジニアリング株式会社 佐竹氏のコメントだが、「tutumuは天井高が仕上げで3m取れる部屋だったため、ハイトスピーカーも含めて球面に近い距離ですべてのスピーカーを配置する計画が可能だった」という。具体的にはDolby Atmosの配置をベースにしつつ、360 Reality Audioにも対応できる形になっているそうだ。 昨今、イマーシブ・オーディオ対応のスタジオ開設が増えつつあるが、その中で必ず話題に挙がるのが天井の高さについてである。佐竹氏は「天井が高くなければできないということはないが、天井は高い方が有利だと思う」とのことで、この点に関しては同社の崎山氏も「天井高が足りない場合、角度を取るか距離を取るかという話になる。そうすると、例えば電気的なディレイで距離感を調整したりすることになるが、実際にスピーカーとの距離が取れている部屋と同じには決してならない」と話してくれた。「新設でこの高さをリクエストされても、物件がない。あったとしても、通り沿いの商業ビルの1Fとか、アパレルのフラッグシップ店舗が入るような高価なところしかない」(井上氏)と言う通り、新しいビルでイマーシブ・スタジオに相応しい物件を探すのは非常に難しい。 その点、tutumuは先にも述べたとおり天井高が仕上げで3m取れており、スピーカーも理想的な配置がなされている。まさに老舗の強み。社屋までもが現在では手に入れられない価値を持ったビンテージ品となっているようなものだ。そして、その恩恵は天井高だけではない。崎山氏によれば、最近の建築は鉄骨造の躯体が多く、軽量化されているため重量が掛けられず強固な遮音層の構築が難しいのだという。「ここは建物が古いので躯体が重く頑丈。すると、天井が高いだけでなく低域の出方もよくなる。スピーカーのセットをガッチリ作れるので音離れがいいんですよね。」(崎山氏)という恩恵もあるようだ。もしかしたら、理想のスタジオを作るためにあえて古き良き物件を探すということも選択肢になるのかもしれない。 時代が求めるPMCのサウンド 📷 tutumu のスピーカー構成は「9.2.5.3」となる。Dolby Atmos 9.2.4 を基本に、360 Reality Audio はTop Center x1、Bottom x3 を追加した 「9.0.5.3」で出力される。 写真右が Front LCR に用いられた「PMC6-2」、左が今回計 14 台導入された「PMC6」となる。 イマーシブ環境においてどのようなスピーカーを選定するかということは極めて重大なファクターだが、tutumuではイギリスのメーカーであるPMCが採用された。Front LCRは「PMC6-2」、Subwooferは「PMC8-2 SUB」、その他はすべて「PMC6」という構成となっており、これらはすべて発売が開始されたばかりの最新モデルだ。工事に先立ち日本音響エンジニアリングのスタジオでおこなわれたスピーカー選定会には、実はこれらのモデルは間に合わない予定だったという。しかし、奇跡的に選定会当日に到着したデモ機を試聴して、「聴いた瞬間、満場一致でこれに決まった」(サウンド・シティ 中澤氏)というほどそのサウンドに惚れ込んだようだ。 「とにかくバランスがいい。特性的にもナチュラルでイマーシブ向きだと思った」(中澤氏)、「本当に音楽的。音の立ち上がりがよく、ちゃんと動いてちゃんと止まるから余韻でドロつかない。ミキサー目線でもリスナー目線でも、どちらで聴いても完璧。これしかないですね、という感じだった」(秦氏)と大絶賛だ。秦氏によれば「イマーシブって全方向から音を浴びるので、どっと疲れたりするんですけど、これはそうした疲れを感じない」のだという。これらの新モデルについては、「そもそも、Dolbyと半ば共同開発のようにして、イマーシブに対応できることを前提に作られている」(オタリテック 兼本氏)とのこと。 オブジェクト・トラックの音像は、従来のチャンネルベースで制作されたものに比べると分離がよいため、低域をすべてSubwooferに任せてしまうとパンを振った時などに定位がねじれるという聴感上の問題が発生する。PMCの新モデルではスコーカーを新たに設計し、アンプの容量も旧モデルの2倍にすることで、各スピーカーがより広い帯域を歪みなく再生できるようにブラッシュアップされているのだ。それはSubwooferの設計にも現れており、秦氏は「いい意味でSubwooferの存在感を感じさせない音。鳴っているときは気付かないが、ミュートすると明らかな欠如感がある。これはお披露目会に来た方々が口を揃えて言ってくれて、勝った、と思いました(笑)」と嬉しそうに語ってくれた。 兼本氏によれば「音が速く歪みがない、というのはPMCが創業以来ずっと追求してきたこと。メーカーとしては、時代に合わせてアップデートしたというよりは、変わらない価値観がにわかに時代のニーズと合致した印象」とのこと。誠実なプロダクト・デザインが正当に評価される時代がやって来たということは、心から喜ばしいことだと感じたエピソードだ。 室内アコースティックへのこだわり tutumuは、以前は「Sスタジオ」と呼ばれた音楽ミックス / MAコンバーチブルのスタジオを改修する形で施工されている。Sスタジオは紆余曲折ありながらも、最終的にはtutumuと同じ日本音響エンジニアリングが施工を担当したスタジオで、仮設ではあるものの5.1chサラウンド・ミックスもできる部屋だったという。そうした経緯から、音楽ミックスを行う部屋としての下地はある程度整っていた部屋だったが、今回の改修にあたっては前述のスピーカー・レイアウトのほかにも様々な改良が加えられている。 まず、特徴的なのはWideやBottomを含めたFrontスピーカーがすべて正面の壁に埋め込まれていることだ。これは低域の特性を暴れにくくするためで、Subwooferを除いても17本ものスピーカーを使用するtutumuのようなスタジオでは非常に重要な課題となる。また、すべて一体になっているステージをモルタルで作り直すことで、Frontスピーカー5本の特性を揃えつつ、Subwooferとのセパレートも向上させている。HightやRearスピーカーに関してはFrontのようにステージを作ることができないが、なるべくガッシリと設置できるように工夫がされているという。実際に設置工事に入った段階で天井を開けてみると空調用のダクトが通っていたようだが、こちらもほとんど作り直したようなものだという。電気的な調整では補えない、アコースティックな領域で聴こえ方を揃えていくために、マシンルームの扉も入れ替えられ、ブース扉にあったガラス窓も吸音材で蓋をされている。 📷 スタジオ後方に配されたAGS。拡散系の調音材でイマーシブ・システムの課題であるリスニング・ポイントの狭さを解消し自然な音場を生み出すのに大きな役割を果たしている。 また、tutumuを作るにあたって留意された点として、イマーシブにありがちな“リスニング・ポイントが狭い”という音響には絶対にしたくないという意向があったという。音楽ミックスの現場にはミキサーだけでなく、クライアントやアーティストが同席することもあるため、前後3列で聴いても音像が崩れないように配慮されている。また、「音楽を聴いていたら頭も動くし体も動く。そういう自然な動きを許容できるように調整している」(秦氏・井上氏)とのことだ。そうした“遊び”を作るために活用されたのが、日本音響エンジニアリングが開発・販売する「AGS」だ。「もともと音楽ミックスもできるように壁の裏には拡散系の調音材も設置されていたので、それをなるべく活かしながら、LCRスピーカーの間にもAGSに近い拡散体を仕込んで音場のバランスを整えて、さらに調整を重ねている」(佐竹氏)とのことだ。 高い機能性と品質を兼ね備えたPro Tools | MTRX 📷 3枚配されたディスプレイは左からメーター系、Pro Tools、Dolby Atmos Renderer。それぞれ別々のMacにつながっており、Video Hubで切り替えることができる。トラブルがあった時に切り分けが容易になるように、ということのようだ。iPadはPro Tools | Controlがインストールされているほか、iPhoneなどの音源をAir Dropで受け取ってすぐに再生できるようになっている。 tutumuのミキサー・デスクにはTac System「VMC-102 IP Studio Monitor Controller」とMerging Technologies「ANUBIS」が置かれている。VMC-102 IP Studio Monitor Controllerは、従来モデルVMC-102の機能を受け継ぎながら、MADI I/F とDante I/Fを1系統ずつ備え、Danteネットワーク上のルーティングを制御する「バーチャル / ルーティング」機能を新たに搭載した最新モデルだ。片や、Pyramixで有名なMerging Technologies最新のハードウェアであるANUBISも、システムのモニターセクションとなる機能を有している。こちらはDanteと肩を並べるAoIP規格であるRavenna / AES 67に対応しており、Dolby Atmosはもとより、22.2chフォーマットさえも内部でステレオにダウンミックスすることができる。 tutumuではVMC-102 IPをメインのモニターコントローラーとして使用しながら、ヘッドホンアンプのようにANUBISを使用するシステムになっている。スピーカーシステムへのアウトプットとは別系統でANUBISへのソースが立ち上げられており、例えばANUBISに接続されたヘッドホンを着ければ、メインのモニターセクションを切り替えることなくステレオやバイノーラルをモニターできる、ということが可能になるように設計されている。スピーカーへの出力はアナログ、モニターコントローラーへはDante / Ravenna、Dolby Atmos RMUとの接続はDante、音響補正を担うDatasat「AP-25」へはAES/EBU、さらに要所要所ではMADIも使用するなど、tutumuではあらゆる伝送規格を網羅するかのように様々な信号が行き交っている。この複雑な構成を一手にまとめるためにオーディオI/Fとして採用されたのが、Avidのフラッグシップ・モデル「Pro Tools | MTRX」だ。 📷 2台のPro Tools | MTRXはそれぞれInput系とOutput系を受け持ち、SPQカードによる音場補正も担っている。その上に見えるのはAvid最新のシンクロナイザー「Pro Tools | Sync X」。 Pro Tools | MTRXは、モジュール方式の構成を採用することによって高い拡張性を誇る。オプションカードを追加することで、アナログはもちろん、Dante、MADI、AES/EBU、DigiLinkポートなどといった幅広い信号のI/Oとなることが可能だ。井上氏によれば「I/FがMTRXだからこそシステムとして具現化できた」とのこと。tutumuでは2台のPro Tools | MTRXが導入されているが、1台はインプットとDolby Atmos RMUを管理、もう1台はスピーカー・システムへのアウトプットを担っている。また、Pro Tools | MTRXはシステムのI/Oだけでなく、音場補正も担っている。tutumuではDatasat AP-25で主に周波数/位相/時間特性の最適化補正をし、Pro Tools | MTRXのオプションカードSPQも使用して最終的な微調整をおこなっている。 しかし、Pro Tools | MTRX採用の理由は機能性だけではない。秦氏曰く「最初に聴いた時、こんなに違うか、と驚いた。解像度はもちろんのこと、とにかく音のスピードが速い。」と、オーディオのクオリティについても非常に満足している様子だ。また、今回導入されたPMC6-2およびPMC6にはアナログだけでなくAES3の入力もあるのだが、「MTRXのDAはとても信頼できる(井上氏)」ということで、スピーカーへのアウトプットはアナログ伝送が採用されている。これもPro Tools | MTRXのオーディオ品質の高さを窺わせるエピソードだろう。 📷 (左)デスクにはモニター・コントローラーが2台。VMC-102 IPではスピーカー・アウトプット、ANUBISではバイノーラルなどのHPアウトと、それぞれ異なるソースが割り当てられているほか、秦氏と井上氏による「魔改造」によって、360 WalkmixとPro Toolsからの出力をワンタッチで切り替えられるようになっている。(中)DATASAT AP-25 の「Dirac 音場補正機能」で周波数/位相/時間特性の最適化補正を掛けた後、Pro Tools | MTRX の SPQ で微調整をおこなっている。(右)ブース内の様子。写真右に見えるガラス戸がスピーカーの一時反射面になるということで、外側にもう一枚扉を作る形で吸音を施している。 「これからの音楽スタジオのフラッグシップとして相応しいもの ができた。」という tutumu。オフィシャルなオープンに先立っ て行われたお披露目会では、参加したクリエイターたちが創 作意欲を喚起されている様子がヒシヒシと伝わって来たとい う。この勢いを見ると「コンテンツを立体で楽しむ」という 時代は、そう遠い未来のものでもないのではないだろうか。 📷 写真左より、株式会社サウンド・シティ 取締役 明地 権氏、レコーディングエンジニア 秦 正憲氏、取締役 中澤 智氏。 取材協力:株式会社サウンド・シティ、オンズ株式会社、日本音響エンジニアリング株式会社、オタリテック株式会社 *ProceedMagazine2022-2023号より転載
「エンタテインメントの可能性に挑み続ける。」という企業理念を基に、映像・音楽・テクノロジーのプロフェッショナルが同じ空間で常に交わりコンテンツを生み出していく。これをコンセプトとして2022年夏にavex groupの新たなクリエイティヴ拠点「MARIA」がオープン、本社にあったavexR studioもこちらへ移転し新たに稼働を始めた。今回の移転先となる物件は、元々スタジオとして使用されていたスペースではなくワインセラーやレストランスペースだったとのこと。全く異なる用途のスペースであったわけだが、設計図を作成し始めてから実際の工事に取り掛かるまでが4ヶ月弱という非常に短時間での準備を行い、2Fフロアをすべて改装してパワーアップしたスタジオへと変貌させた。さらに、ここにはグループ会社であるavex creative factoryのスタジオであるMAX studioも併設され、携わるコンテンツの幅が広がっている。今回はこの施設内に移設しコンパクトでありながらも随所にアップデートした新生avexR studioを紹介したい。 パワーアップしたMAスタジオ 今回更新のメインとなるMAスタジオは同じフロアにある映像編集室、多目的スタジオとセットで「avexR studio」と呼ばれている。映画や配信向けDolby Atmosコンテンツや、アーティストのコンサートフィルムといったような映像が関わる音楽系のコンテンツなど、具体的なコンテンツ名が言えないのが非常にもどかしいが「avexR studio」のMA室では誰もが聞いたことがある話題の作品やアーティストの楽曲がDolby Atmosミックスされている。 前回のMA室と同様、コンセプトカラーはこだわりのオレンジがポイントとなっている。スタジオの色基調をオフホワイトとグレーにしてグラデーションをつけることで、前回よりも落ち着いた印象となった。このスタジオで作られるコンテンツは映画などのMAに限らず音楽系のコンテンツも増えてきており、音楽機材も増えたそうだ。スタジオの大きさについては、横幅が若干コンパクトになったが、奥行きは前回と全く同じサイズで設計されている。全体容積としては移転前から80%ほどになったものの、天井高は現在のスタジオの方が高く、スピーカーと作業位置の距離をITU-R基準の1.8mで確保したレイアウトだ。モニタースピーカーを含む機材は既存の設備を流用となった。以前のMA室と音質は大きく変わらないものの、移転したことで音像がタイトになった印象を持つ。コンパクトながらもLFEスピーカーをステレオで配置するシネマ用の配置を取っているが、部屋の横幅が変わったこともあり、低音の鳴り方が感覚に馴染むように試行錯誤しながら修正をしているところだという。 📷 メインスピーカーのGenelec 8350A、ハイトスピーカーのGenelec 8340A、2ch用としてFocal Solo 6 Be。L・Rの下にはサブウーファー Genelec 8360APMが2台設置されている。 Avid S4、厳選されたコンパクトな構成 機材面で大幅にパワーアップされたのが、Avid S4の導入である。以前はコンソールレスでの作業だったが、やはりDolby Atmosなどのイマーシブオーディオを扱うにあたり、特にオブジェクトを多用するセッションの場合はフィジカルで直感的な作業が難しく、パラメータの数値を打ち込むことがメイン作業となってしまって面白みに欠けてしまうことがあったという。コンソールレスで始めたものの、結局はフィジカルコントローラーを各種試して買い足すということに至ったそうで、移転を機に効率的かつ直感的な部分を補うためにコンソールの導入を決意されたそうだ。フィジカル的なコントロールの解決については以前からの課題とされていたようで、イマーシブオーディオコンテンツの作成が本格的に始まった2017年頃から試行錯誤されていたという。 スタジオに導入されたAvid S4コンソールの構成は、Channel Strip Module 8 Faderに加えて、かねてから念願であったJoystick ModuleとExpansion Knob Module、Display Module x2を加えた3 Bay構成である。イマーシブオーディオだからこそ「オブジェクトオーディオにもフィジカルコントローラーを」ということで導入されたJoystick Moduleは、数あるフィジカルコントローラーの中からAvid S4を選択した最重要ポイントの一つである。特にMA作業は映像を見ながらの作業となるため、コンピューター画面に集中することが難しい。モニター画面とコンピューター画面の視点移動は想像以上にストレスがかかる。特に、Dolby Atmosのオブジェクトオーディオ編集はより一層ストレスがかかるが、Joystick Moduleの導入でそれも随分軽減されているそうだ。 📷 コンパクトに収められたAvid S4は着席したままでもすべてに手が届くサイズ感、ヒヤリングポイントからスピーカーまでの高さは1.8mが確保されている。 そして、Avid S6ではなくAvid S4を選択した大きな理由はサイズだという。MAスタジオとしてはかなりコンパクトな筐体となるため、スペース都合を満たすということはやはり大きな要件となる。ただし、サイズ感という問題だけでAvid S1やAvid S3を選択しなかったのは、Avid S4がモジュール式でレイアウト自在な点だ。もちろん、先ほども述べたJoystick Moduleの存在も大きな理由となるが、センターセクションなどのベース構成から好きなユニットを追加選択し、好きな位置に配置できるのでイマーシブオーディオ制作に特化したレイアウトを組み上げられるのがポイントだという。なお、Joystick Moduleはセンターセクション右手前側に配置し、手がすぐに届いて操作できるレイアウトにした。コンパクトなレイアウトに収まったAvid S4は、そのサイズ感のおかげで操作性も十分に補えているという。今回導入されたAvid S4はセンターセクション左手にチャンネルストリップモジュールが配置されているが、Avid S4ならではのノブ部分のチルト構造のおかげで座ったままS4のすべての機能にアタッチできるという。これも作業効率を上げる重要なポイントとなる。 Avid S4で特に気に入っている機能は、センターセクションに集約されたレイアウトだという。ビジュアル・フィードバック性と完全なトータル・リコールにより、セッションごとでAvid S4の各画面の機能やトラックレイアウト、カスタムプラグインレイアウトなど、さまざまなレイアウトを一括でセッションに保存できるため、セッションを開くだけでレイアウトなど様々な設定がすべて読み込まれる。現在編集中のセッションからロールバックして、古いセッションに切り替えるワークフローがたびたび発生するそうだが、そういった時でもAvid S4のトータルリコールのおかげで、細かい設定など再調整することなく即座に作業に入れる点が大きいという。セッションを切り替えるとすぐに作業に取り掛かれるので、別のミックスダウンで気分転換ができることもあるそうだ。 📷 Avid S4を挟んでデスク下のラックにはアナログボード類、とMac Proが収められている。 直感的な作業をパワフルな環境で MTRXをインターフェイスとしたPro Tools HDシステムは、今回の移転に伴いMac Proを旧型の2013年モデルから最新の2019年モデルへ、HDXカードも1枚から2枚へと増強したことで大幅にパワーアップした。HT-RMUを導入しているが、昨今の映像コンテンツは4Kも多くなってきており、旧型Mac Proでは処理が追いつかないことも多い。また最近のPro Toolsでもビデオエンジンなどをはじめとする機能拡張の動作においてコンピューターのスペックに依存している機能もあるため、新たに導入したMac Proではメモリが96GBという仕様となった。おかげで作業効率が大幅にアップしたそうだ。なお、HT-RMUのほかDolby Atmos Production Suiteも導入されており、音楽性の強いミックスではProduction Suiteを、オブジェクト・トラックを多用する映像の方向性が強いミックスの際にはHT-RMUをとそれぞれ使い分けているそうだ。また、ビデオインターフェイスも4K対応のBlackmagic Design Ultra Studio miniへ更新されている。 📷 デスク下右手のラックにはMTRX、m908などがコンパクトに集約されている。 今回導入されたAvid S4と以前より導入されているMTRXの連携も抜群だという。モニターコントロールに関しては国内導入1台目だというGrace Designのm908を導入しており、このスタジオではアフレコやナレーションだけではなく効果音なども収録するため、ヘッドフォンやミニスピーカーなど様々なモニタ環境を瞬時に切り替えられるようにリモートコントローラーがセットとなったGraceのモニターコントロールを選択した。 MTRXは、Pro Toolsのインターフェイス機能のほかにマトリクスルーターとして稼働しており、MADIで接続されたHT-RMUの音声をMTRXで切り替えている。以前はコンピューター画面上でDADmanをマウスで操作していたが、Avid S4とDADmanを連携し、さらにソフトキーレイアウトをカスタマイズすることで、Avid S4からソース切り替えを可能とした。フィジカルかつ少ないアクションで操作できるようにカスタマイズ可能な機能はより一層直感的に作業に取り組める環境を構築した。 このスタジオでは恋愛ドラマのようなラジオドラマやポッドキャストも制作することもあるという、演出のために作中の効果音をレコーディングすることもあるそうだ。映像ありのコンテンツでは、その映像に寄り添うために音声のミックスで冒険はしにくいところだが、ラジオドラマは映像がないぶん聴き手が自由に想像できるため、オーバー気味な演出をしても違和感も少なく受け入れられるメディア。作り手も思い切ったミックスにチャレンジができる。手がけるラジオドラマはステレオではなくバイノーラルで配信されるため、Dolby Atmosの環境が活きてくる。Dolby Atmosでミックスしたオーディオは最終段でバイノーラルに変換するため、無理なく一層リアリティが増した完パケとなる。特にホラー作品などは特に恐怖感が倍増してしばらくうなされてしまうかもしれない。 発想を瞬発的にコンテンツへ、MAX Studio 📷 アイデアを即時に形にできるよう設けられたMAX Studio。右手の固定窓の向こう側がブースとなる。 ブースを隔ててMA室の奥にレイアウトされたのが「MAX Studio」である。ここではアイデアが浮かんでからすぐに制作作業に取り掛かり、1日で完パケまでできる環境が整えられた。このスタジオはエイベックスの音楽スタジオであるprime sound studio formともプリプロスタジオとも異なるキャラクターで、プロジェクトスタジオとプロスタジオの中間的な存在だという。昨今の楽曲制作で定番になりつつあるCo-Writeもこのスタジオで多く手がけられているそうで、クリエーターの発想を瞬発的にコンテンツへと形を変えることができるよう、ここでは制作の最初から最後まで一気通貫して行える。 MA室とMAX Studioで兼用となっているブースは両側にFIX窓が設けられており、普段は吸音パネルで塞がれている。MAとしてナレーションをレコーディングする際は、MA室側のパネルを外してMA室のTIE LINEを経由する。同様に、MAX Studioでボーカルのレコーディングを行う際にはMAX Studio側のパネルを外し、MAX StudioのTIE LINEを経由する。両コントロールルームに比べてブースの稼働率は低いので、あえて兼用にすることで両側のコントロールルームのスペースを確保した。 📷 ブースは兼用となりMA室とMAX Studioに挟まれたレイアウト。左右には各スタジオへのTIE LINEが設置されている。 天井高4mオーバーの多目的スタジオ 📷 モーションキャプチャースタジオとして活用されるほか、用途を問わず使用される多目的スタジオ。天井面にはトータル16台のOptiTrackカメラが取り付けられている。 約50平米の多目的スタジオは、その名の通り様々な用途を想定した作りになっている。その中でも一番多いケースとされるのが、モーションキャプチャーのスタジオとしての活用だ。天井にはOptiTrackのPrimeシリーズのカメラが常設されている。一方、下部のカメラについては仮設の形態がとられている。このスタジオでは、モーションキャプチャーのほかにグリーンバックでの合成や、YouTube配信といったものから、社内向けのZoom会議などにも使われるため、用途に合わせて暗幕・グリーンバックの有無などが選べるようになっている。 メインで使用されているモーションキャプチャーは、OptiTrackのPrimeシリーズとMotiveが導入されており、主にVTuber用途に使用されている。Motiveで演算されたデータは、カスタムで制作したエンジンによってキャラクターとリアルタイムで合成する。これら一連のリアルタイム処理された映像をそのまま配信することが可能だ。このような環境のスタジオが都心にあることは珍しい。モーションキャプチャーの特性上から広いスペースと十分な天井高が必要となり、その結果多くのスタジオが郊外に集中している。都心部という好立地ならではの制作業務も多いそうで、リモートワークが当たり前になってきている昨今でもこういった立地環境は必要な要素だと実感する。 多目的スタジオ・映像編集室とMA室の連携が取れるよう、音声・映像・サーバーそれぞれが接続されている環境だという。音声はDanteネットワークでスタジオ間を接続し、配信などを行う際に連携して使用されている。映像に関してはフロアの各部屋がSDIルーターに接続されている。例えば、多目的スタジオでVTuberがMotiveでリアルタイムに合成した映像に、MA室やMAX Studioでアフレコをつける、といったようにフロア全体で大きなスタジオとしても活用できる。 映像編集室では、Adobe Premiereを中心とした映像編集機器やCG編集機器が揃えられている。こちらも移転前の広さからおよそ1/3のスペースまでコンパクトにすることができたのだが、これはコロナ禍による制作スタイイルの変化だという。コロナ前は各自スタッフが集まって編集室で作業していたが、各自在宅で映像編集をできるようコンピューターなどの環境を整えた結果、編集室に集まって作業する必要性が薄くなり、必然的にスペースを確保する必要もなくなったそうだ。なお、こちらではモーションキャプチャーのほかにもLyric Videoなどを手掛けたり、エイベックスのYouTubeチャンネルで8月よりライブ配信されている「[J-POP] avex 24/7 Music Live(24時間365日 音楽ラジオ・24/7 Music Radio)」の画面に登場している「KA」とKAの部屋はこちらの編集室で作られたそうだ。部屋の中にある、見覚えのあるラップトップやスピーカーなど、実際の寸法からCGに落とし込まれており、各メーカーの公認も得ているという。 エイベックスの楽曲を24時間365日、ノンストップでライヴ配信する『avex 24/7 Music Live』。 話題のこのコンテンツも、岡田氏が率いるチームが手がけている イマーシブオーディオもだいぶ浸透し、ワークフローも確立しつつあるが、昔から変わらないフローのもあるという。特に変わらないのが、こまめなセーブとセッションのバックアップだという。こまめなセーブは当たり前になってきているが、コンピューターが高速かつ安定してきているからこそ、基本であるセーブとバックアップを忘れずにしているという。バックアップに関しては、余計に気にされているそうで、セッションデータを3つのHDDやSSDにバックアップするなど冗長化に努めているそうだ。 📷 avex groupの新たなクリエイティブ拠点「MARIA」には地下にクラブスペースもあり、普段は社内の撮影やイベントに使用しながらも、時には海外のTOP DJがシークレットでプレイすることもあるという。アーティストのSNSにもたびたびこちらの部屋がアップされることも多いというこちらのスペースは、なんとメディア初公開だそうだ。DJブースの両脇には日本ではメーカー以外にここにしかないという、Function OneのDJモニタースピーカーPSM318が鎮座しており、フロアには高さ約3mのDance Stackシリーズのスピーカーセットが前後に4発。ぜひともフルパワーの音を体感してみたい。 今後は映像作品のMAのほかに音楽制作へも力を入れていくとのことで、4年前のa-nationのようなDolby Atmos配信も行っていきたいとのことだ。5Gが一般化されたことで通信環境が格段に良くなっていることや、サーバー環境も進歩しているため、以前よりもストレスなく挑めるだろう。また、イマーシブオーディオの中でも今後は360 Reality Audio(サンロクマル・リアリティオーディオ)向けのコンテンツにも積極的に取り組んでみたいとのこと、どんな作品を手掛けられるのか楽しみである。 📷 エイベックス・エンタテインメント株式会社 レーベル事業本部 クリエイターズグループ NT&ALLIANCE 映像制作ユニット マネージャー 兼ゼネラル・プロデューサー 岡田 康弘 氏 *ProceedMagazine2022-2023号より転載
長年に渡り数々の名作を生み出してきた東宝スタジオ。その中でも歴史あるポストプロダクションセンター 2 に設けられた国内最大規模のダビングステージ2 で、アジア地域で最大規模の構成となる Avid S6 へのコンソール更新が行われた。竣工からまだ間がない今、ブラッシュアップされたそのシステムの内容についてお伝えしていく。 72フェーダー、デュアルヘッド構成のAvid S6 歴史あるダビングステージで、これまで長年使用されて きた AMS Neve DFC2 から Avid S6 へと更新が行われた。今回導入 の Avid S6 は国内はもちろん、アジア地域で見ても最大規模の構成 での導入となる。その構成は横幅14フレームと巨大なもので、そこに72フェーダー、デュアルヘッド構成でモジュールが収まる。フェーダー数に関しては従来のDFC2と同数を確保し、さすが、映画のダビングコンソールといえるフェーダー数を持つ迫力のサイズとなっている。そして今回はサラウンド作業がメインとなるということでジョイスティックモジュールも導入された。Avid S6となったことで、レイアウト機能やスピルフェーダー機能などを活用し、従来以上のワークフローに対する柔軟性を確保している。 改めて確認をしたのだが、東宝スタジオが現在の世田谷区砧に誕生したのは、今から90年前の1932年。今回Avid S6を導入することとなったポストプロダクションセンター2は、以前は東宝サウンドスタジオ、さらにその前は東宝ダビングのダビングビルと呼ばれていた1957年に完成された建物である。60年以上の時を、まさに日本映画の歴史とともに歩んできたダビングステージ。「七人の侍」の黒澤明監督の作品や、ゴジラシリーズ、「シン・ウルトラマン」に至る多岐にわたる映画が作られていたと思うと非常に感慨深いものがある。内装は何度も改装を行っているということで完成当初の面影は無いとのことだが、以前はフィルムダビング(実際にフィルム上映を行いながらの劇伴録音)も行われていたということで、スクリーン前のひな壇はまさにその名残である。スクリーンを背にオーケストラが並び、指揮者が上映される映像を見ながら指揮棒を振る、そんな光景がここにはあったということだ。 潤沢に用意されたチャンネル数 システムもAvid S6となったことでブラッシュアップされている。従来は4台の再生用(プレイアウト)のPro Tools(セリフ用、音楽用、効果音用2台)がMADIでDFC 2と繋がれミックスされていたが、今回の更新でミキシングエンジンとしてAvid Pro Tools HDX3システムを2式導入、それぞれに192chのI/Oを持ち、相互にMADIで接続されたシステムとなっている。やはり、Avid S6をコンソールとして運用すると考えた際には、ミキシングエンジンとしてPro Toolsを選択するというのが一般的、Avid S6の製品自体のコンセプトにも則ったシステムアップとなる。また、ミキシングエンジンとして導入されたPro Toolsと既存のPro ToolsすべてのI/Oを今回の更新に併せてAvid MTRXへと統一している。メンテナンス性、障害時の入替のたやすさなどを勘案し、すべてのオーディオ・インターフェースがMTRXへ統一された。それぞれのAvid MTRXはMADIで接続され、ユーティリティーとして1系統ずつがパッチへと取り出されている。これにより、Pro Tools内部でのIn The Boxミキシングを行う際にも、MADIのパッチをつなぎ替えるだけでシステム変更が出来るようになっている。 改めてシステム全体を信号の流れに沿ってご紹介していきたい。まず、再生用のPro Toolsが4台、それぞれPro Tools HDX2仕様となる。映画ダビングでは、セリフ用(ダイアログ:Dialogue)、音楽用(ミュージック:Music)、効果音用(エフェクト:Effect)それぞれの再生用にシステムが準備される。これは、それぞれ個別に仕込んできたものを別々に出力できるということだけではなく、修正などが入った際にもそれぞれ個別にパラレルでの作業を行うことができるというメリットもある。効果音は、多数のトラックを使うことが多いため2台のPro Toolsが用意されている。サウンド・エフェクト、フォーリーと分けて使ったりすることも多いとのことだ。音楽用以外のセリフ、効果音用の3台のPro Toolsは同一の仕様となっている。Avid Pro Tools HDXカードから、4本のDIgiLinkケーブルでAvid MTRXへと接続され、それぞれに128chの出力を確保している。この128chの出力は、2本のMADIケーブルでミキサーへと送られる。 そんなに多くのチャンネルが必要なのか、と考える方もいるかもしれないが、サラウンド作業ということもあり、ある程度まとめたステムでの出力を行うことも多い。そうなると、5.1chのステム換算としては、21ステムということになる。同じ種類のサウンドをある程度まとめた中間素材となるステム。例えばドラムステムであれば、音楽ミックスで言うところのドラムをまとめたドラムマスタートラックをイメージしてもらえるとわかりやすいだろう。また、映画の作業でステムを多用するケースとしてはパンニングがある。あらかじめパンニングで移動をするサウンドを、モノラルではなくステムで出力することで事前に仕込んでおくことができるということだ。こうすることで、ミキシングコンソールではボリュームの調整をするだけで作業を先に進めることができる。 📷 本文で解説したスタジオのシステムを簡易に図としたものとなる。非常に多くの音声チャンネルを取り扱うことができるシステムであるが、その接続は想像よりもシンプルに仕上がっているということが見て取れる。各MTRX間のMADI回線は、すべてパッチベイを経由しているため、接続を変更してシステムの構成を簡単に変更することができる。図中にすべてを記載できたわけではないのだが、各MTRXはMADI及びAESがユーティリティー接続用としてパッチ盤へと出力されている回線を持っている。そのため持ち込み機器への対応などもMTRXのパッチを駆使することで柔軟に行うことができるように設計されている。 データをアナログという線形の無限数に戻す 話を戻して先程の紹介から漏れた音楽用のPro Toolsのシステムをご紹介しよう。このPro ToolsはHDXカードから2本のDigiLinkケーブルでMTRXに接続され、64chの出力を確保している。音楽用のPro Toolsシステムだけは、Avid MTRXに32ch分のDAカードを装着している。ここから出力された32chのアナログ信号は、RME M-32ADへ接続されている。そしてRMEでADされMADIに変換された信号がその後のミキサーへ接続されることとなる。 📷 ユーティリティー用のRME M-32 AD/DAがこちら。32chのAnalog-MADI / MADI-Analogのコンバーターである。システムのデジタル化が進んではいるが、まだまだ外部エフェクターなどアナログでの接続はゼロにはならない。DAWごとの持ち込みでアナログ出力を受けるといったケースもあるだろう。 なぜ、一度アナログに戻しているのかというと、デジタルからの「縁を切る」ということが目的だ。音楽は96kHzで仕込まれることが多い。しかし、映画のダビングのフォーマットは48kHzであることが基本である。これは最終のフォーマットが48kHzであることも関係しているが、システム的にもMADIをバックボーンとしているために96kHzにすると、やり取りできるチャンネル数が半減してしまうということも要因にある。こういったことから生じるサンプルレートの不整合を解消するために、一旦アナログで出力をして改めてシステムに則ったサンプルレートのデジタル信号とする、ということが行われている。PC上でファイルとして変換してしまえばいいのではないかとも考えられるが、アナログに戻すという一見面倒とも言える行為を行うことによるメリットは、音質といういちばん大切なものに関わるのである。 デジタルデータ上で単純に半分間引くのではなく、アナログという線形の無限数にすることで、96kHzで収録されてきた情報量を余すこと無く48Khzへと変換する。結果は限りなくイコールかもしれないが、音質へのこだわりはこういった微細な差異を埋めることの積み重ねなのではないだろうか。音楽のチャンネル数は96kHzでDA/ADの回路を経由する場合には32ch、48kHzであれば、そのままMADIケーブルで64chがミキサーへと送り出せるようにシステム設計が行われている。 膨大なチャンネル数をマネジメントする 再生用Pro Toolsは、セリフ・音楽用のミキサーPro Tools、効果用のPro Toolsそれぞれのオーディオ・インターフェースとして用意されているAvid MTRXへと接続される。ミキサーPro ToolsはいずれもHDX 3仕様で、6本のDIgiLinkケーブルで192chの回線が確保されている。セリフ128ch+音楽64ch=192chこちらは問題ないのだが、「効果音1:128ch」+「効果音2:128ch」=256ch、こちらに関しては再生機側ですべてのチャンネルを使われると信号を受け取り切れないということが起こってしまう。Pro Toolsシステムとしての上限があるため仕方のないところなのだが、合計が192chとなるように再生側で調整を行い、Avid MTRXの入力マトリクスで受け取るチャンネルを選択する必要がある。それぞれのミキサーPro Toolsはその内部でミキシングを行うさらにまとまったステムをそれぞれ2本のMADIケーブルで128chを出力する。 ミキサーから出力された信号は、最終のレコーダーとなる録音用Pro Toolsで収録される。このPro Toolsは HDX 2仕様で128chの入出力となる。ここでもセリフ・音楽用ミキサーPro Toolsからの128ch、効果用ミキサーPro Toolsからの128chの合計256chのうち、128chを収録するということになる。それならば、それぞれのミキサーPro ToolsからMADIケーブル1本、64chずつという想定もあるが、それではセリフ・音楽が30ch、効果音が90chといったパターンに対応できない。そのためにこのような接続となっている。 📷 セリフ(ダイアログ)用のデスク。作業のスタイルに併せて移動可能な仕組みとなっている。Pro Toolsの操作画面はIHSEのKVMエクステンダーが用いられ、パッチで操作デスクの入替えが可能なようになっている。 📷 音楽用のデスク。こちらのデスクもセリフ用と同様に、作業に併せて操作するPro Toolsを変更したり、位置を移動したりすることができる。 収録機の次に接続されるのはモニターコントローラーである。収録したミックスを聴くのか、ステムを聴くのか、モニターソース切り替えやボリュームコントロールを行っているのがこちらも今回新規導入となっったTACsystem VMC-102IPである。従来のVMC-102からDante対応となり「IP」という文字が加わっている。従来のVMC-102はMADI2系統が用意されていたが、IPとなったことでDante1系統、MADI 1系統へと変更されている。今回はMADIでの運用となるため64chの信号がVMC-102IPへと接続されている。その中で選択可能な最大数のステムをプリセットとしてモニターソースに設定している。5.1chであれば10ステム、7.1chであれば8ステムといった具合だ。ここでボリューム調整された信号はスピーカー駆動系のB-Chainへと送られる。 ここから先の系統は既存のシステムをそのまま使っているが、この部分もご紹介しておこう。VMC-102IPからのMADI信号は一度Avid MTRXへと戻り、DAされアナログ信号として出力される。B-Chainの入口であるRME ADI-8 QSでデジタル(MADI)へと変換され、モニタープロセッサーとして導入されているTrinnovへ。ここでレベル、EQ、ディレイなどの補正 / 調整が行われる。その先はDAコンバーターであるRME M-16DAでアナログに戻され、それぞれのスピーカーを駆動するパワーアンプへと送られている。もうひと部屋のダビングステージでもTrinnovが導入されているということもあり、同一の補正用のプロセッサー製品を使用するということで、サウンドキャラクターの統一を図っているということだ。 📷 左手前にモニターコントロール用のVMC-102IP、そして、サラウンド作業の効率を上げるS6ジョイスティックモジュールが収まる。デュアルヘッド構成のためマスタータッチモジュールが2つあるのが特徴的だ。コンソールの奥には、サラウンドメーターである8連のVUメーターDKtechnologies MSD-600が設置されている。 📷 コンソールを背面から見たところ、S6の後ろ姿もスッキリとした格好だ。また、ダビングステージならではとなるディフューズサラウンドのスピーカーが壁面に取り付けてあるのも確認できる。両サイドの壁面に4本、背後の壁面に4本のサラウンドスピーカーが設置されている。背後の壁面の黒い窓が映写窓でここからプロジェクターでの投影を行なっている。 📷 今回更新された「ダビングステージ2」がある歴史あるポストプロダクションセンター2。過去の東宝映画作品の中でもその姿を見ることができる。この3階建ての建物の3階まですべての空間を吹き抜けにした天井高の高いダビングステージがこの中にある。 今回更新されたシステム部分を詳細にご紹介してきたが、映画のダビングシステムがどのようなものなのかイメージいただけただろうか。チャンネル数の少ない作品や、ワンマンオペレートに近い作品などでは、ミキサー用のPro Toolsがスキップされ、再生用のPro Toolsから録音用のPro Toolsへと直接接続されるといった運用も考えられる。もちろんシステムとしては、そういった運用も見越してすべてのAvid MTRX間のMADIはパッチ盤に上げてある。それ以外にも持ち込み機器や、外部エフェクトの接続用にRME M-32AD / M-32DAをそれぞれ1台ずつユーティリティー用としてスタンバイしてある。AVid MTRXの持つAES/EBUの入出力と合わせて、様々な運用に対応可能だ。 今後、実際に更新されたシステムを運用してみてのご感想やAvid S6での映画ダビングの作業、そういったワークフローに関わる部分について現場のスタッフ皆さんのご意見も是非お聞かせいただきたいと考えている。伝統あるステージに導入された最新のミキシングシステムからどのような作品が生み出されていくのか、またレポートさせていただきたい。 *ProceedMagazine2022-2023号より転載
2011年、第一弾タイトル「神撃のバハムート」を皮切りに、これまで「グランブルーファンタジー」、「Shadowverse」、「プリンセスコネクト!Re:Dive」、「ウマ娘 プリティーダービー」などのゲームタイトルをリリースしてきた株式会社Cygames。その中でも、コンシューマー・ゲーム機向けのコンテンツ制作を主に行う大阪拠点においてDolby Atmos 7.1.4chに対応したスタジオが同時に2部屋開設された。まだまだフォーマットも定まらず過渡期だというゲーム制作のイマーシブ分野において、進取の取り組みが始まった大阪Cygamesサウンド部 エディットルームをご紹介していく。 2つのエディットルーム 大阪Cygames サウンド部エディットルーム(以下、大阪エディットルーム)は梅田中心部、交通アクセスもよく大阪Cygamesの第一拠点の近くに位置する。今回新設された大阪エディットルームはDolby Atmos対応のスタジオが2部屋という構成となり、大阪Cygamesにおけるリスニングスタジオとして機能することになる。Cygamesの東京拠点では、既にエディットルーム(以下、東京エディットルーム)が6部屋稼働しているが、大阪Cygamesで制作中である「GRANBLUE FANTASY: Relink」がサラウンド対応コンテンツとなり、同じようなスタジオの必要性を感じていたことからプロジェクトが開始されることとなった。 現状、スマートフォン向けコンテンツではステレオが基本となっており、コンシューマー機等でのゲームについてはサラウンド対応といったところで、ゲームにおけるイマーシブオーディオについてはどのようなフォーマットがスタンダード化していくのか今後の動向を窺っている状況にあるという。イマーシブオーディオに注目し始めたきっかけはMicrosoftがWindowsとXBOXでDolby Atmosをサポートしたことだったそうだ。コンシューマー・ゲーム機からの視点ではSony PlayStationはHDMIからのイマーシブ系の実出力には対応せず、バイノーラル系の技術で進むなど、大手を振ってこれからはDolby Atmosとは言えない状況ではあるが、現時点ではDolby Atmosがもっともスタンダードに近い存在であり、まずはそれに取り組むことが必要であるとのこと。さらには、Sonyから360 Reality Audioも発表されたため過渡期は引き続きとなるが、新たな規格が登場してくるとそれだけイマーシブオーディオが織りなすゲームの世界がどのように発展するのか期待も高まる。 すでに、5.1chのコンテンツを制作しているが再生環境が整っている家庭はまだ少なく、作り上げたサウンドがプレイヤーに伝わっているのだろうかという歯痒さを感じているそうだ。それでも、イマーシブオーディオという素晴らしいコンテンツを見過ごすわけにはいかないので、5.1ch / 7.1ch / Dolby Atmosを取り入れ妥協することなくゲーム開発に挑戦し続ける。こういった取り組みにも「最高のコンテンツを作る会社」というビジョンが見えてくる。 📷 エディットルーム A 📷 エディットルーム B そして、今回竣工したのがこのエディットルームだ。こちらはインゲームでサラウンドを正確にリスニングすることが主な用途となっており、エディットルームA/Bという同じDolby Atmos 7.1.4ch対応の2部屋を設置することで、同時に作業ができるよう運用面での効率化が図られている。なお、エディットルームA/Bでは異なったオペレートデスクが設置されており、ルームAは固定デスク、ルームBは可動式デスクとなっている。ここにエディットルームの個性が隠されており、ルームBのデスクを移動することによりルームAはコントロールルーム、ルームBは収録スタジオのレイアウトに可変することができる。そのため、主な目的はリスニングとなってはいるが、ナレーションなども収録できるシステムを備えており、マイクプリアンプなどアウトボード系の機材も充実したラインナップが用意された。 📷 一見だけすると全く同じ部屋の写真に見えてしまうのではないだろうか、左ページが大阪Cygames エディットルームA、右ページが同じくエディットルームBの様子となる。両部屋をつなぐ窓の位置、そしてデスクとラックの形状をよく見るとお互いが連携している隣り合ったスペースであることがわかる。また、本文中でも紹介した通り、エディットルームBを収録スタジオとして使用できるようにBのデスク・ラックは可動式とされており、ナレーション収録など作業のシチュエーションによっては上図のように役割を変化させて制作を進行することができる仕組みだ。 基準となる音場 東京エディットルーム竣工時、様々なブランドのモニタースピーカーの比較試聴を行い、GENELEC The Onesシリーズを採用した。元々GENELECには高低音が強調されるようなイメージを持っていて、本命のブランドではなかったというが、The Onesシリーズを試聴した際にそのドンシャリというネガが消え、非常に良いイメージに変わったとのこと。また同軸スピーカーならではの定位感も高く評価を得ている。その流れを汲み、大阪CygamesエディットルームでもGENLEC 8331AWが採用される運びとなった。 大阪CygamesのスピーカーキャリブレーションはMTRX SPQスピーカープロセッシングを採用している。PCなどの機材が全て常設であるため、竣工時に日本音響エンジニアリングによる音響調整を行い、サウンド部スタッフ全員が同じ環境でモニタリングできるスタジオを作ることができた。なお、先立って稼働している東京エディットルームではGENELEC GLMを採用して音響調整を行なっており、PCやオーディオI/Fなど機材を持ち込むことが可能で、言わばフリースペースのような感覚で使用できるようになっている。そのため、GLMで手軽にオートキャリブレーションできるというメリットを活かしているが、状況によりリファレンスが変わるため、基準となる音場の必要性を感じていたそうだ。今回の大阪エディットルームではPCほかの機材を常設設備にして音響調整を重要視した理由がここにある。 📷 GENELEC 8331AW、Cygamesのコーポレートカラーであるホワイトのモデルをセレクト、ハイトスピーカーとして天井に吊られている。写真下はGENELEC 7350APM。スピーカーシステムと部屋のサイズを考慮し、8インチのサブウーファーが設置されている。 システムの柔軟性 大阪エディットルームでのメインDAWはOM Factory製Windowsマシンで稼働するSteinberg Nuendoとなっている。ゲームの開発環境がWindowsベースとなるため、Windows用DAWとして安定しているNuendoに信頼感があること、また、Nuendoに備えられた「Game Audio Connect」でミドルウェアのWwiseと連携できることは、膨大な音声ファイル数となるゲームのサウンド制作においては大きなメリットとなる。 一方、東京・大阪の各スタッフが使用しているDAWソフトウェアは多種多様で、スタッフ本人の意向に沿ったソフトウェアをそれぞれ導入しているとのこと。Avid Pro Tools、Apple Logic Pro、Steinberg Cubase、PreSonus Studio One、中にはAbleton Liveを使っているスタッフもいるそうだが、スタジオでの作業用として、また社外とのやり取りのためにPro Toolsは共通項。大阪のサウンド・デザイン・チームでは、ゲームサウンド制作に長年携わり、WindowsでNuendoという環境に慣れ親しんだ方が多く、今回のメインDAWについてもNuendoが採用されたのはごく自然な流れだったようだ。 📷 エディットルームAのカスタムオペレートデスク。ノンリニア編集に適するようフリースペースの広い形に設計されている。正面左手はRUPERT NEVE DESIGNS/SHELFORD CHANNEL、George Massenburg Labs / 2032、Empirical Labs/Distressor (EL-8)、Eventide/H9000 Harmonizerを、右手にはVertigo Sound/VSM-2 Full、SPL/Stereo Vitalizer MK2-T (model 9739)がマウントされている。直接操作することが少ないOM Factory製のDAW用PCやAVID Pro Tools|MTRX などは足元に収納されている。 なお、エディットルームでの中核となっているのがAvid MTRXとなっている。もちろんMTRXはProToolsで使用するイメージが強いのだが、多機能なオーディオルーティングやコンバーターとしての顔を持っており、NuendoをメインDAWとした大阪エディットルームでも中核機材として導入されている。今回の例では、各DAW PCに搭載されているYAMAHA AIC128-DからDanteで出された信号がMTRXに入り、スタジオ内のモニタースピーカー、コミュニケーション、アウトボードへアナログ信号で送信されている。また、持ち込みPCによるオペレートも想定しており、持ち込みPC用I/FにRME Fireface UFX+を設置。Fireface UFX+MTRX間はMADI規格が用いられている。 各サウンドデスクやエディットルームへの信号はDanteで張り巡らされており、スタジオ内でのルーティングはDADmanで行い、システム全体のルーティングはDante Controllerで行う、という切り分けがなされている。メインスピーカーのボリュームコントロールはNTP Technology MOM-BASEを用いてMTRXをリモートしているシステムとなっている。このシステムを実現するためという点でも、DAWを選ばず柔軟なシステムに対応するMTRXが選定される理由となった。 オペレートの多様性 今回新設の大きな要望として「4Kの画面をどこでも映せる、どこの4Kの画面でもどこにでも持っていける」、「どの音をどこでも聴ける」というテーマがあった。そのコンセプトに沿って、映像信号はADDERのKVMで、音声はDanteで、という役割分担が行われ、各サウンド部スタッフのデスクとエディットルームの音声および映像信号をやり取りするシステムが構築されている。すべてのデスクにKVMおよびDanteインターフェースが用意されており、各デスクで作業をしながらエディットルームの音声をリスニングしたり出力すると同時に、4Kの映像も映し出すことが可能となっているわけだ。 なお、その際HDMIにエンべデットされているDolby Atomsの信号をどのように各ルームとやりとりするのかが課題となっているのだが、配管の問題もあり実線を張り巡らせるのは現実的ではない。AVアンプを駆使してアナログ音声をデエンベデッドする構成もあるが、映像と音声のズレが発生しないかなど現在も検証を続けているところだ。また、映像と音声の垣根を超えるDante AV規格も選択肢の一つではあるが、現在の条件下でHDMIからDolby Atomsのチャンネル数を同時に転送することは難しいため、こちらはDante AV規格自体の発展に期待が寄せられる。ほかにも、機能拡張として各デスクでDolby Atomsをリスニングできる構想など、いまも将来に向けてスタジオ自体が成長し続けていると言えるだろう。 シンプルかつ多機能な機材レイアウト 竣工当時からの課題ではあったが、スペースの都合上でマシンルームを設けることができなかった。そこで、起動音が小さい機材はエディットルーム内に収納、スイッチングハブなどの起動音が大きい機材はスタジオ外にあるラックケースへ収納することで解決を図っている。結果的に、主だった機材がすべてスタジオ内で操作が可能で、ステータスなども目視確認ができるというメリットも生まれた。ここ近年の機器の進歩によって抑えられた起動音や、MTRXのオールインワン性を活かし必要最小限の機材構成としたからこそ実現できた機材レイアウトである。また、エディットルームAは常設のデスクとなる為、収録時でもストレスなく機材の操作ができるように手元にアウトボード系の機材が設置されている。メモや台本などを置けるスペースも広く、ノンリニア編集の理想的なオペレートスペースを作ることができている。 📷 起動音を考慮し静音ラックに収納され、スタジオ外に設置されたスイッチングハブ YAMAHA/SWR2310-10G。各エディットルームとサウンドデスク間を繋ぐDanteの信号処理を行う中核として機能している。また、左写真は別途に設けられたフォーリースタジオの様子だ。 施工にあたってはデザイン面も重要な要素となった。コーポレートカラーであるブラック / ホワイトを基調としたスペースからスタジオに入ると、内装にフローリングの床面やダークブルーを用いた落ち着いた空間が演出されている。オペレートデスクやスピーカースタンドもすべてカスタムオーダーとなっており、素材選びの段階から製作が行われたとのこと。特に、壁紙のカラーなどは大阪Cygamesが注力して開発している『GRANBLUE FANTASY: Relink』の空を意識した青が基調にされており、より制作しているコンテンツの世界観に没入して制作を進めることができそうだ。ゲーム開発ではどうしても自席でのデスクワークがメインとなるが、根本にはエディットルームをいっぱい使って楽しんで欲しい、リラックス感が感じられるように、という思いがあり、それがデザインに込められている。スタッフのモチベーションを上げるということも目的として重視されているということだ。 📷 右:株式会社Cygames サウンド部マネージャー 丸山雅之 氏 / 左:株式会社Cygames サウンド部サ ウンドデザイナー 城後真貴 氏 経験豊かなクリエイターによって一貫したクオリティでコンテンツ制作を進める大阪サウンド・デザイン・チーム。そのクオリティの基盤となるスタジオが新設されたことで、制作ワークは一層の飛躍を遂げることになるだろう。もちろん、ゲームサウンドにおけるイマーシブ制作といった観点でもここから数々のノウハウが生まれていくに違いない。ソーシャルゲームのみならずコンシューマー・ゲームの開発やアニメ制作、漫画事業など幅広い分野でコンテンツをリリースする株式会社Cygames。その「最高のコンテンツを作る会社」というビジョンの通り、妥協ないコンテンツを生み出していくための拠点がここに完成したと言えるのではないだろうか。 *ProceedMagazine2022-2023号より転載
チャンネルが少なくなければできないことがある。チャンネルが多くなければ分からないことがある。 オーディオの世界を支配するチャンネルとはいったい? 【技術解説】MIL誕生に寄せて〜鑑賞から体験へ 選択から多様の未来へ〜 中原雅考(株式会社ソナ / オンフューチャー株式会社) 📸 株式会社ソナ / オンフューチャー株式会社 中原 雅考 氏 芸術と工学の融合 スタジオと同じ音で作品を聴いてもらいたい。原音忠実再生といった希望は、多かれ少なかれ音響コンテンツ制作者にとっての願いだと思います。しかし、そのためには、ユーザーもスタジオと同じような環境にスピーカーを設置して作品を試聴しなければなりません。今や時代は多様化し、ユーザーの試聴環境は2chかサラウンドかといった単純な選択肢ではなくなっています。ともすれば、この作品はこのように聴いて欲しいといった制作者の強いこだわりが、ユーザーに対しての不用意な圧力になってしまうかもしれません。本来、作品には自由な表現が与えられるべきだと思いますが、オーディオでは、2ch、5.1ch、7.1.4chなど再生チャンネルの形式によって異なる流儀が要求されてしまいます。そのような制限は、工学が芸術を支配しているような関係にも見えてしまいます。 素晴らしい技術をもったエンジニアがスタジオでつくり出す音は最高です。その素晴らしさを多くのユーザーに伝えたいと思い、スピーカーの設置方法、調整方法、部屋の音響のことなどを様々な場面で伝えてきました。しかしそれは、ユーザーにとっては「高級な鮨屋で食べ方を指導されながらおいしさを味わっている」ような世界かもしれません。どうやら、今一度オーディオと出会った頃のユーザー体験に立ち返る必要がありそうです。工学による芸術の制限を緩和すべく、より一層の芸術と工学の融合を目指して… 誰もが気軽に良さの分かるオーディオ再生とは? 作品やユーザー(聴取者)が主役になるためのオーディオとは? 「モノ」「ステレオ」
MIL=Media Integration Lab。絶えず時代の流れの中から生まれる、我々Media Integrationのミッション。創造者、クリエイターと共に新しい創造物へのインスピレーションを得るために、昨今の空間オーディオ、3Dサウンド、多彩なフォーマット、様々な可能性を体験し、実感する。そのためのスタジオであり、空間。2021年にオープンしたライブ、配信、エキシビジョンといった皆様とのまさに「ハブ」となる空間「LUSH HUB」に続き、次世代の音響、テクノロジーと体験、共有するための空間としてMILは誕生した。43.2chのディスクリート再生で実現した下方向のスピーカーを備えた完全4π音響空間。研究と体験、そこから得られるインスピレーション。それを実現するためのシステム、音響、これらをコンセプト、テクノロジー、音響など様々な切り口からご紹介していきたい。一つの事象に特化したものではないため、掴みどころがなく感じるかもしれない。しかしそれこそが次のステップであり、新しい表現の始まりでもある。 「4π」での感覚で描かれた音楽を まずは、MIL(ミル)のコンセプトの部分からご紹介していきたい。長年2chで培われてきた音楽の表現。それは今後も残ることになるが、全く異なった「4π」での感覚で描かれた音楽が主体となる世界が新たに始まる。私たちはそのターニングポイントにあり、このMILは「進化し続けるラボ」として今後誕生するであろう様々なフォーマット、3Dの音響を入れるための器、エンコーダー、デコーダーなど様々なテクノロジーを実際に再生し体験し共有することができる。 そのために、特定のフォーマットにこだわることなく、可能性を維持、持続できる空間として設計がなされた。音響面に関しては、このあとのSONA中原氏の解説に詳細を譲るが、物理的な形状にとらわれることなく、今後進化を続けるように運営が行われていく予定である。スピーカー、音響パネルなどは、簡単に入れ替えられるようなモジュール構造での設計がなされており、かなり深い部分からの変更が可能だ。 また、MILならではの特徴として居住性にこだわった、というところは大きいだろう。各研究施設の実験室、無響室のような環境の方が、より正確な体験が行えるのかもしれない。しかしそのような空間は、まさに「Lab」であり、生み出された作品を「視聴」ではなく「検証」する場という趣である。もちろんそこに意味はあるし、価値もある。しかし、MILでは、作品自体をエンターテイメントとして受け取り、住環境にもこだわりゆっくりと楽しむことのできる環境を目指している。ユーザーの実際に近い環境での「検証」が可能であり、「視聴」を行うというよりコンテンツ自体を楽しむという方向での実験、というよりも体験が可能だ。このあとにも紹介する様々なプロセッサー、ソフトウェアを駆使して、いろいろな音環境でリラックスした環境で様々なコンテンツの視聴を行うことができる。 居住性にこだわりつつも、オーディオ、そしてビジュアルのクオリティーに妥協は無い。そのコンテンツ、作品の持つ最高の魅力を体感するために、最善と思われるオーディオとビジュアルのクオリティーを導入している。オーディオに関しては、水平よりも下方向にもスピーカーを配置した、現時点での音響空間のゴールとも言える4π空間再現による真の360イマーシブ環境を実現している。そのスピーカーにはFocal CIの3-Way Speakerを採用している。多チャンネル、イマーシブの環境では同軸のスピーカーが採用されることが多い。もちろん、2-way、3-wayといったスピーカーよりも物理的に点音源としてオーディオを出力する事ができる同軸スピーカーのメリットは大きい。しかし、設置の条件とサウンド・クオリティーを満たす同軸のユニットがなかったために、MILでは音質を重視して3-Way採用に至っている。スピーカー選定に際しては、ユニット自体の音圧放射の特性を調べ上げ、マルチチャンネルにふさわしいものを選定している。その測定の模様はこれまでの本誌にて株式会社SONA執筆の「パーソナル・スタジオ設計の音響学」に詳しい。 この部分に疑問のある方は、ぜひともMILで実際のサウンドを確認してほしい。イマーシブサウンド以降、立体音響=同軸スピーカー。この組み合わせは正しい回答ではあるが、絶対ではないということを知っていただけるはずだ。ビジュアルに関しても、最新の8K60P信号に対応したプロジェクター、そしてEASTON社のサウンドスクリーンの導入と抜かりはない。最新のテクノロジーを搭載した機材を順次導入していく予定である。多彩なフォーマットの体験の場として、またその体験を通しての学習の場として、あるいは創造の場としても今後MILを活用していく予定である。今後の情報発信、そして様々なコラボレーションなどに期待していただきたい。 📸 右写真にてご紹介するのはMIL STUDIOの設計・施工を手がけた株式会社ソナの中原 雅考 氏。後述となる同氏の技術解説も是非ご覧いただきたい。 43.2ch、4π空間をFocalで包む ここからは、MILにおけるシステムの特徴についてご紹介していきたい。何はともあれ、この大量のスピーカーが興味の焦点ではないだろうか。スピーカーは水平方向に30度刻みで等間隔に配置される。高さ方向で見ると5層。12本 x 5層=60本。それに真上と真下の2本が加わる。現状のセッティングでは、中下層は水平面のスピーカーのウーファーボックスが設置され、下方向も半分の6本のスピーカーを設置、真下もスタンバイ状況ということで、実際には43chのディスクリートスピーカー配置となっている。それに2本の独立したサブウーファーがある。これで43.2chということだ。 📸 L,C,R chは、上から1000 IW 6、1000 IW LCR UTOPIA、HPVE1084(Low Box)が収まる。間の床にあるのがSUB 1000F(LFE)である。 これらのスピーカーはFocal CI社の最新モデルである1000シリーズがメインに使われている。正面の水平面(L,C,R ch)には同シリーズのフラッグシップである1000 IWLCR UTOPIAが設置されている。Focalではラインナップを問わず最上位モデルにこの「UTOPIA」(ユートピア)というネーミングが与えられる。CI=Custom Install、設備用、壁面埋め込み型ということで設置性重視とも捉えられ、音質が犠牲になっているのでは?と感じられる方もいるかもしれないが、同社が自信を持ってUTOPIAの名前を与えているだけに、このモデルは一切の妥協が感じられない素晴らしいサウンドを出力してくる。 それ以外の水平面と上空のTop Layerには1000 IW LCR 6が採用されている。機種名にLCRと入っていることからもわかるように、メインチャンネルを担当することを想定した3-way+1 Pussive Radiatorを搭載したモデル。Hight Layerには1000 IW 6という2-wayのモデルが設置されている。1000シリーズは、FocalのProfessionalラインで言うところのSolo 6 Be、Twin 6 Beといったラインナップに相当する。同社のアイコンとも言えるベリリウムツイーター、'W'コンポジットサンドウィチコーンを搭載した製品である。すでに高い評価を得ているFocal Solo 6 Beと同等のユニット構成のモデルが1000 IW 6。そう考えれば、そのスピーカー群のクオリティーが想像しやすいのではないだろうか。 📸 L,C,Rch以外のスピーカースタンド。上から1000 IW 6、1000 IW LCR 6、HPVE1084(Low Box)が収まる。 ベリリウムで作られたインバーテットドーム・ツイーターのサウンドは、すでに語られ尽くしているかもしれない。その優れた反応速度、濁りのないピュアな響き、Focalのサウンドキャラクターを決定づけているとも言えるサウンド。そのクオリティーをMILではマルチチャンネル、イマーシブ環境として構築した。Focal CIの1000シリーズは、クローズドバックで厚さはわずか10cm程しかない。その特徴もこのような多チャンネルのスピーカー設置を行う際には大きなメリットとなっている。今後、追加で天井にスピーカーを設置したいといった要望にも柔軟に対応できることだろう。 床下のBottom Layerのスピーカーには300シリーズが採用されている。これは物理的な問題が大きく、300 IWLCR 6がサイズ的に合致したということでこの選択肢となった。この300シリーズは、Focal Professionalで言えばSHAPEに当たるラインナップ。ユニットも同等の製品が使われている。物理的なサイズの制約があったといえ、採用できる限りで最良の選択を行っている。このモデルは300シリーズ内でのフラッグシップとなる。1000 IWLCR 6と比べると一回り以上も小さなモデルだが、ダブルウーファーにより十分な量感のあるサウンドを再生することができる。独立したLFE用のサブ・ウーファーに関してだけは、民生のラインナップであるSUB 1000 Fが採用された。これは、ユニットの整合性を取るための選択であり、Middle Layerのウーファーユニットと同一のサウンドキャラクターを得るための選択である。見ての通り、ユニット自体は全く同一のユニットである。 📸 床下に埋め込まれた300 IW LCR 6。現在は6本が設置されているが、それ以外の箇所もキャビネットは準備されている。 📸 天井に専用設計されたリング状のスピーカーキャビネット。ユニットは1000 IW LCR 6が収まる。 イヤーレベルにあたる、Middle Layerのスピーカーには、全てサブ・ウーファー用のユニットが加えられ、3-way + 1 sub。2.1chシステム的に表記するならば、1.1chのような構成となっている。音色面で支配的になるイヤーレベルのスピーカーユニットに関しては、フルレンジとしての特性を持たせるためにこのような構成をとっている。1000 IWLCR 6で低域が不足するというわけではまったくない。このモデルは、カタログスペックとしても48Hz(-3dB)からとかなりワイドレンジでの再生が可能な製品である。これにサブ・ウーファーを組み合わせることで25Hzからのフラットな特性を持たせることに成功している。 まだまだ、イマーシブ・サウンドで制作されたコンテンツはイヤーレベルに多くの主要なサウンドを配置する傾向にある。5.1chサラウンドなどとのコンパチビリティーや、これまでの制作手法などを考えれば当たり前のことではあるし、主役となるサウンドをあえて高さを変えて配置するということに、今後もそれほど大きな意味が持たされるということは無いだろう。そういったことを鑑みてもイヤーレベルのスピーカーをこのような奢った仕様にするということは間違いではない。 FIR補正、55ch分のパワーアンプ、1300mのケーブル Focal CIのスピーカーは、全てパッシブである。そのため、このチャンネルと同数分のパワーアンプを準備することとなる。結果、必要なパワーアンプのチャンネル数はなんと55chにものぼった。2chステレオ仕様のアンプで準備をするとしたら28台が必要ということになるが、それほど多くのアンプを設置する場所は確保できないため、主要なスピーカーを4chパワーアンプとして、それ以外をInnosonix MA32/Dという2U 32chアンプを採用することとした。 主要スピーカーとは、イヤーレベルのMiddle Layerのスピーカー群であり、クロスオーバーを組む必要があるそのサブ・ウーファーの駆動用となる。これだけでも24本のスピーカーの駆動が必要であるため、4chアンプをアサインしても6台が必要となった。この6台には、Lab.Gruppen D20:4Lが採用されている。この製品は、アンプ内部にLAKE Processerが搭載されており、クロスオーバー、補正のEQなどをFIR Filterで行うことができる高機能モデルである。クロスオーバーがFIRでできるメリットの解説は専門家に任せることとするが、クロスオーバーで問題となる位相のねじれに対して有利であると覚えておいてもらえればいいのではないだろうか。 📸 Lab.Gruppen D20:4L それ以外のスピーカーを担当するInnosonix MA32/DもオプションでDSP Processer、FIR Filterを搭載することが可能であり、MILではそれらのオプションを搭載したモデルを導入している。これらのアンプにより、スピーカーの補正はFIRとIIRの双方を駆使することができ、より高度なチューニングを可能としている。また高さごとの各レイヤーのアンプの機種を統一することもできているので、それぞれの音色に関しての差異も最小限とすることに成功している。 📸 Innosonix MA32/D アンプとスピーカーの接続には、ドイツのSOMMER CABLEが採用された。ELEPHANT ROBUSTという4mm2 x 4芯のOFCケーブルが採用されている。同社の最上位のラインナップであり太い芯線により高い伝導率を確保している。芯線を太くしつつ外径は最低限にすることが重要なポイントであった、引き回しを行うケーブルの本数が多いため、その調整を行うために多くの苦労のあったポイントである。ちなみにMILで使用したスピーカーケーブルの総延長は実に1300mにも及ぶ。 これらのアンプまでの信号は再生機器から、全てDanteで送られる。多チャンネルをシンプルに伝送しようとすると選択肢はDanteもしくはMADIということになる。今回のシステムでは、パワーアンプが両機種ともにDanteに対応していたために、Danteでの伝送を選択した。クリティカルなライブ用途ではないために2重化は行っていないが、ケーブルはできる限り高品位なものをと考え、Cat8のケーブルでマシンラックからアンプラックまでを接続している。また、Dante用のEthernet SwitchはPanasonicのPoE対応の製品を選択。今後のシステム拡張時にも柔軟に対応できる製品をピックアップしている。 Avid MTRXで43.2chを一括コントロール ここまでで、B-Chainにあたる部分がDanteとパワーアンプ内のDSPで構成されていることをお伝えしてきたが、本システムで一番苦労したのがここからご紹介する、モニターコントローラー部分だ。まず、必要要件として43.2ch(将来的には62.2ch)の一括ボリューム制御ができる製品であることが求められる。これができる製品を考えるとAvid MTRXの一択となる。Avid MTRXのモニター制御部分であるDADmanは、最大64chの一括制御が可能、まさにちょうど収まった格好だ。 そして、MILの環境で決まったフォーマットを再生する際に、どのチャンネルをどのスピーカーで鳴らすのか?この設定を行うのがなかなか頭を悩ませる部分だ。Dolby Atmos、SONY 360Reality Audio、AURO 3D、22.2chなど様々なフォーマットの再生が考えられる。一段プロセッサーを挟んだとしても特定のフォーマットでの再生という部分は外せない要素だ。まずは、SONA中原氏とそれぞれのフォーマットごとにどのスピーカーを駆動するのが最適か?ということを話し合った。そこで決まったスピーカーの配置に対し、各フォーマットの基本となるチャンネルマップからの出力がルーティングされるようにモニターセットを構築していった。こうすることで、再生機側は各フォーマットの標準のアウトプットマッピングのまま出力すればよいということになる。 この仕組みを作ることでシグナルルーティング・マトリクスを一箇所に集中することに成功した。DADman上のボタンで、例えばDAW-Atmos、DAW-AURO、AVamp-Atmos、、、といった具合にソースをセレクトすることし、バックグラウンドで適切にシグナルルーティングが行われる仕掛けとしている。後で詳しく説明するが、再生系としてはDAWもしくは、AVampデコードアウト、SPAT Revolutionのプロセッサーアウトの3種類。それぞれから様々なフォーマットの出力がやってくる。これを一つづつ設定していった。そしてそれらのボタンをDAD MOMのハードボタンにアサインしている。 このようにしておくことでDADmanのソフトウェアの設定に不慣れな方でも、その存在を意識することなくソースセレクトのボタンを押してボリュームをひねれば適切なスピーカーから再生されるというシステムアップを実現している。なお、Avid MTRXはあえてスタンドアローンでの設置としている。もちろんPro ToolsのAudio I/OとしてDigiLinkケーブルで直結することも可能だが、様々なアプリケーションからの再生を行うことを前提としているため、MTRXはモニターコントローラーとしての機能にのみ集中させている。 市販コンテンツからマスター素材まで対応の再生系 📸 プロジェクターはJVC DLA-V90R。「8K、LASER、HDR」と現時点で考えうる最高スペックを持つフラッグシップモデル。EASTONのサウンドスクリーンと組み合わせて最高の音とともに映像にもこだわった。 次に再生側のシステムの説明に移ろう。市販のメディア、コンテンツの再生のためにPanasonic DMR-ZR1(Blu-ray Player)、Apple TVが用意されている。これらのHDMI出力はAV Amp YAMAHA CX-A5100に接続され、このアンプ内でデコードされプリアウトより7.1.4chで出力される。このAV Ampは近い将来STORM AUDIO ISP Elite MK3へと更新される予定だ。この更新が行われれば、更に多チャンネルでのデコードが可能となり、MILのさらなるクオリティーアップへとつながる。このSTORM AUDIOはAURO 3Dの総本山とも言えるベルギー、ギャラクシースタジオ、Auro Technologies社が立ち上げたAV機器ブランドであり、AURO 3Dの高い再現はもちろん、Dolby Atmos、DTS:X pro、IMAX Enhancedといった最新の各種フォーマットに対応している。更に24chものアナログアウトを備え、Dolby Atmosであれば最大11.1.6chという多チャンネルへのデコードを行うことができる強力なAV Ampである。本来は、各スピーカーの自動補正技術なども搭載されているが、MILでは、すでにSONAによりしっかりとスピーカーの調整が行われているのでこの機能は利用しない予定である。このAV Ampの系統では、Apple TVによる各種オンデマンドサービス(Netflix等)の視聴、Apple Musicで配信されている空間オーディオ作品の視聴、Blu-ray Discの視聴を行うこととなる。 📸 映像再生用のPlayerはPanasonic DMR-ZR1が奢られている。4K Ultra Blu-ray対応はもちろん、22.2chの受信(出力時はDolby Atmosに変換)機能などを持つ。 📸 AV ampとして導入を予定しているSTORM AUDIO ISP Elite mk3。Dolby Atmos、Auro 3Dといった市販のコンテンツの魅力を余すことなく引き出すモンスターマシンだ。 もう一つの再生システムがMac Proで構築されたPCからの再生だ。これは各マスターデータやAmbisonicsなどメディアでの提供がなされていない作品の視聴に使われる。現在スタンバイしているソフトウェアとしては、Avid Pro Tools、Virtual Sonics 360 WalkMix Creator™、SONY Architect、Dolby Atmos Renderer、REAPERといったソフトになる。ここは、必要に応じて今後も増強していく予定だ。 📸 Avid Pro Tools 📸 Dolby Atmos Renderer 📸 360 WalkMix Creator™ 📸 SONY Architect 📸 REAPER Dolby Atmos、ソニー 360 Reality Audioに関して言えば、エンコード前のピュアな状態でのマスター素材を再生可能であるということが大きなメリット。配信にせよ、Blu-ray Discにせよ、パッケージ化される際にこれらのイマーシブ・フォーマットは圧縮の工程(エンコード)が必要となる。つまり、Dolby Atmosでも360 Reality Audioでも、マスターデータは最大128chのWAVデータである。さすがにこれをそのままエンドユーザーに届けられない、ということは容易に想像いただけるだろう。Dolby Atmosであれば、Dolby Atmos Rendererの最大出力に迫る9.1.6chでのレンダリング、360 Reality AudioはMILのスピーカー全てを使った43chの出力が可能である(360 Reality AudioはLFEのチャンネルを持っていないため43chとなる)。特に360 Reality Audioの再生は他では体験ができない高密度でのフルオブジェクトデータのレンダリング出力となっている。オブジェクト方式のイマーシブフォーマットの持つ高い情報量を実感することができる貴重な場所である。 REAPERでは、MILの4π空間を最大限に活かす7th orderのAmbisonicsの再生ができる。7th Ambiの持つ4π空間の音情報を43chのスピーカーで再生するという、まさにMILならではの体験が可能だ。現状のセットアップでは、IEM AllRADecoderを使用してのチャンネルベースへのデコードを行っているが、他のソフトウェアとの聴き比べなども行うことができる。この部分もこれからの伸びしろを含んだ部分となる。各フォーマットのレンダリングアウト(チャンネルベース)を一旦7th Ambiに変換して43chに改めてデコードすると言った実験もREAPER上で実施することが可能だ。 それ以外に、Stereo音源の再生のためにiFI Audio Pro iDSDが導入されている。これは、DSD / DXD / MQA / PCM192kHzなど各種ハイレゾ素材の再生に対応したモデル。イマーシブ・サウンドだけではなくステレオ再生にも最高のクオリティーを追い求めたシステム導入が行われている。 スピーカーの仮想化、FLUX SPAT Revolution 📸 視聴空間としてではなく、ラボとして様々なフォーマットの変更を担うのがFLUX:: Spat Revolutionだ。OM FactoryでSPATの動作に最適にチューンされた、カスタムWindows PC上で動作をさせている。実際にMILで利用しているSpat Revolutionのスク