Solution
Solution
制作環境を飛躍させる
日本初全館フルIP化!オールIP放送局が与えるインパクト〜テレビ大阪株式会社〜
この春、新局舎へと移転を行うテレビ大阪。旧局舎の隣の新築ビルという最高の条件での移転である。新局舎への移転ということもありマスターからすべての設備を一新、これを機に局内のオールIP化を行っている。副調整室のシステムを中心にオールIP化のメリット・デメリット、実際にシステム設計を行ってみての課題点、今後に向けた取り組みなど取り上げていきたい。 マスター、サブ、スタジオのすべてをIP化 在阪のテレビ局各局が新局舎への移転を完了させる中、大阪で一番古い局舎となっていたテレビ大阪。10年ほど前から移転の話は出ていたということだが、具体的なスタートは2020年ごろから、およそ4年をかけて移転更新が行われている。今回、IPソリューションとして採用されているST-2110の実製品のリリースが見られるようになってきたのが2019年ごろだと考えると、まさにST-2110が次世代のMoIPの盟主となることが見え始めたタイミングだと言える。数年早ければ、オールIP化へ踏み切ることはなかったのではないかとも想像してしまうような、絶好のタイミングで更新計画が始められたということになる。 今回の移転工事ではマスター、サブ、スタジオのすべてがMoIP ST-2110で接続されIP化。さらには、局内のいたるところにST-2110のポケットを設け、どこからでも中継が行えるように工夫が行われている。従来であれば、映像・音声・制御・インカムなど様々な回線を各所に引き回す必要があるため、なかなか多数の場所にポケットを設けることは難しかったが、1本のネットワークケーブルで複数回線、かつ双方向の伝送を行うことができるIPネットワークは、多くの場所への回線引き回しを容易にしている。 オールIPベースでの放送システムへ 📷天満橋側の大阪中心部に新しく誕生したテレビ大阪新社屋。幾何学模様を描くファサードが目を引く。エントランスにももちろん、ST-2110の回線が引かれておりここからの中継も行える。 今回のオールIP化の導入に至る経緯にはストーリーがある。TXN系列6局のうち4局合同でマスターの更新を行うという計画が同時期に立ち上がった。これは、系列局で同様のシステムを一括発注することで導入コストの削減と相互運用性の向上を目指すという大規模なプロジェクト。この計画のひとつのテーマとして「IP化されたマスター」というポイントがあった。いまの時代に更新をするのであれば、将来を見越してIPベースでのシステム更新を行うことは必然であったということだ。ちなみに、合同でIPマスター更新を行ったのは、テレビ北海道、テレビせとうち、テレビ九州、そしてテレビ大阪の4局である。すでに他3局ではIPマスターへの更新が完了しており実際に稼働もなされている。 テレビ大阪は、新局舎への移転タイミングでの導入ということもあり、運用は新局舎へのカットオーバーのタイミングからとなる。そして、テレビ大阪はサブ・スタジオなどを含めた一括更新となるため、オールIPの放送局となった点がサブなどは従来設備で運用し順次IP化への更新を待つ他の3局と異なるところ。実のところ、テレビ大阪では当初サブ・スタジオに関してはSDIベースの映像とアナログベースのオーディオを用いた従来システムでの導入を検討していたということだ。しかしながら、系列局合同でIPマスターを導入するというのは大きな契機。現場としては、いまだ実績の少ないIPベースのシステムに対して抵抗感がなかったわけではないが、このタイミングで従来システムを組んでしまうと「最後のベースバンドシステム」となってしまう恐れもある。マスターも含めたオールIP放送局として日本初の試みにチャレンジするのか?最後のレガシーとなるのか?社内での議論が続けられたことは想像に難くない。 IPベースのメリットを活かした制作体制 📷音声卓は36Fader の Calrec Argo-S。モジュール構成となるこの省スペースに機能が詰め込まれている。 今回の移転更新では、2室の同一システムを備えたサブと、大小2部屋のスタジオが新設された。旧局舎と比べると1部屋ずつコンパクトな体制にすることができている、IPベースとしたことの効能が現れた格好だ。まずは、スタジオをそれぞれのサブから共有したり、システムの変更もプリセットを呼び出すだけで完了したりと各部屋の稼働効率の向上が見込める。また、これまではパッチ盤で実際にケーブルを接続したりといった物理的な切り替え作業も多かったが、想定されるクロスポイントを事前にプリセット化しておけば、これまでとは比べ物にならないくらい素早く変更が確実に行えるようになる。IPベースであれば規模をとりまとめてしまったとしても充分に従来業務への対応可能であるという判断に至ったそうだ。 📷2部屋目となる副調整室。各コントローラーがひと回りずつ小さいものになっているが、システム構成は同一のシステムとなっている。片方のシステムを覚えれば両部屋とも使えるようになるよう工夫が随所に行われている。 IP化における最大の課題は「遅延」である。信号が機器を経由するたびに必ず発生するバッファー、IP伝送を行うにあたり避けては通れない必要悪のような存在だ。収録、ポストプロであれば遅延を吸収する余地もあるが、生放送のようなライブプロダクションにおいては問題となるケースも多い。わかりやすい部分で言えば、返しのモニターが挙げられる。ベースバンドであれば各機器の処理遅延のみで済んでいたものが、IPベースではバッファーによる遅延が加わり、最低でも2〜3フレームの遅延が生じてしまう。返しモニター専用にスタジオ内にベースバンドのサブシステム(PAでいうところのステージコンソールのような発想)もあったが、せっかくオールIPに踏み切るのにそれでは意味がないということになり、スイッチャーの一番遅延量の少ない経路での出力を戻しにするということでまずは運用を開始してみることとなった。お話をお聞きした時点では運用開始前であったため、まさに今後の運用の中で適切なワークフローを見つけていくべきポイントだと言える。 従来システムの柔軟性とIPベースの融合 それでは、サブに導入された音声ミックスのシステムを見ていきたい。放送局のシステムとしては驚くほど機材量が少ないということが一目でわかる。スタジオフロアからの回線は基本的にアナログで立ち上がってきており、ワイヤレスなどのレシーバーからはDanteが採用されている。フロアの回線はラックのCalrec AE5743(アナログIP Gateway)でAoIPへと変換されコンソールへと立ち上がる流れ。 ミキサーのミキシングエンジンは、Clarecの最新モデルであるImPulse1が採用されている。これはまさに導入ギリギリのタイミングでリリースとなったIPベースのミキシングエンジンで、たった1Uというコンパクトな筐体で標準で304chのプロセッシングパスという十分なパワーを持つ。ちなみに、ImPulse1は追加ライセンスの購入で最大672パスまで拡張が可能である。これにIOフレームを組み合わせDante、アナログIP Gateway、ST-2110-30それぞれの入出力を行っている。このミキシングエンジンは二重化され、同一仕様のモデルが2台導入された。フレーム自体が1Uとコンパクトなため、ハードウェア・リダンダンシーを取ったシステムとは思えないほどコンパクトにまとまっている。コンソールは、Clarecのこちらも最新モデルであるARGO Sが導入だ。モジュール構成のコンソールで、柔軟な拡張性と構築の自由度を持つ最新サーフェスである。 📷最上段でEthernetケーブルが接続されているのが、副調整室のシステムコアとなるCalrec ImPulse1。たった1Uの筐体で標準で304chもの信号を処理することができ、2台のコアで冗長化が図られている。その下の緑の3Uの機器がCalrec AE5743、Mic / Line 32in / outのIOボックスだ。やはり、オーディオの出入り口としてアナログ音声がなくなることはしばらくないだろう。コネクタの実装などの必然性もあるがコアと比べると大きな機器となる。 当初はDanteのステージボックスをフロアに置き、インプットの回線をすべてDanteで運用するというアイデアも出ていたということだが、バックアップの意味も含め最低限のアナログを残すということを念頭にシステムを構築、ミキシングコンソールでダイレクトにアナログ信号を受けたほうが使い勝手も良いという結論に至ったということだ。やはり、マイクプリのリモートなどのことを考えると理にかなっていると言える。アナログ、AES/EBUといった従来のシステムと同様の柔軟性とIPベースの融合。どこからIPベースの信号とするかというのはシステム設計者の腕の見せどころとなっていくだろう。その最終形態は入口から出口までのオールIPになるのであろうが、マイクやスピーカーというアナログ変換器が最初と最後に存在するオーディオの世界では、なかなかアナログを完全に排除するということは難しい。 📷音声のラックは2本だが詰めれば1本にまとまりそうな程の構成。これでシステムの2重化も達成しているのは驚きである。 ご覧の通り、非常にコンパクトにまとめられたシステム。実際、コンバーターIOフレームなどが主な機器で番組に合わせたシステムの変更を行おうと思い立ったら、Calrecのプリセットを読み替えるだけで大抵のことには対応できる。別スタジオの回線をインプットとして取るのも、IOシェアをしているので自由にアサイン可能だ。このようにシステムがコンパクトとなることで、その設定変更は今まで以上に簡単に素早く行えるようになる。サブを1部屋減らしてもこれまで通りの運用が可能と判断する理由もここにあるわけだ。 逆にIP化のデメリットとしては、信号が目に見えないということを挙げられていた。1本のEtherケーブルの中ではどこからの信号がどのような順番で流れているのか、誰かが知らないうちにクロスポイントを打ち替えたりしていないだろうか、確かに目に見えないところの設定が多いため、シグナルを追いかけるのが難しくなっている。慣れるという部分も大きいのだが、1本のケーブルにどのような信号が流れているのかを簡単に可視化する方法は早期に実現してもらいたい部分でもある。なお、テレビ大阪では事故防止としてクロスポイントの大部分をロックして変更不可とし、確実な運用を目指すとのことだ。 また、Dante とST-2110-30 を併用している理由としては、利便性を考慮してのこと。ワイヤレスマイクのレシーバーなど対応製品の多さでは、Danteに分がある。これまでも使われてきた機材の活用も含め、オーディオのインプット系統ではDanteを使うよう適材適所でのシステムアップが行われているということだ。実際のところとしてはST-2110-30(Audio)の遅延量は、Dante以下の値に設定することもできる。しかし、映像回線として使われているST-2110(Video)の遅延量が大きく、それに引っ張られてオーディオも大きな遅延量となってしまうということだ。 📷左)紫色の機器がPTP v1 のグランドマスター。この機器を入れることでPTP v1 のDante ネットワークの安定性を高めることに成功している。右)もう一部屋のラックがこちら。AE5743は無いが、モジュラーユニットにアナログIOを準備しさらにシンプルな構成。基本的なシステムアップは、同一であることが見て取れる。 SoundGrid Sever、新たな業界標準機へ さらに収録用のPro Toolsも用意されている。CalrecにはSoundGridの入出力を行うI/Oが準備されている。外部エフェクターとして導入されたSoundGrid Serverとともに、Pro ToolsもCoreAudio用のSoundGrid Driverで信号を受取り収録が行えるようになっている。もちろん、Pro Toolsからの再生もミキシングコンソールへと立ち上がる。これもIPベースならではの柔軟性に富んだシステムである。Pro ToolsのシステムはMacBookで準備され、2部屋のサブの共有機材となっている。常に2部屋で必要でないものは共有する、IPベースならではの簡便な接続環境が成せる技である。 📷外部エフェクターとして導入されたWAVES SUPERRACK。低遅延でWAVESのプラグインを使うことができるこのシステム。Liveサウンド、Broadcastの現場では重宝されている。 ここで導入されたSoundGrid Severは外部エフェクターとしてWAVESのプラグインが使えるというスグレモノ。外部のマルチエフェクターが絶滅危惧種となっている今日において、まさに救世主的な存在。WAVESだけではなくVSTについても動作する製品の情報が届いているので、こちらも業界標準機となる予感がしているところだ。こだわりのあのリバーブを使いたい、などという要望はやはり多いもの。もちろんリコール機能もしっかり備えられており、安心して使用できるプロの現場ならではの製品となるのではないだろうか。 IPシステムでのリスクヘッジ サブとしてのメイン回線はすべてST-2110に集約されているが、インカムの回線だけは別となっている。インカムはST-2110にも対応したClearCamの製品が導入され、ST-2110での運用を行っているのだが個別のネットワークとしている。これはトラブル時の切り分けや、従来型のシステムが導入されている中継車などとの相互運用性を考えてのことだという。すべて混ぜることもできるが、敢えて切り分ける。こういった工夫も今後のIPシステムでは考えていくべき課題のひとつ。集約することによるスケールメリット、トラブル時の切り分け、運用の可用性、多様なベクトルから判断を行い決定をしていく必要があると改めて考えさせられた。 今後についてもお話を伺った。オールIPとしたことで、今後は中継先との接続もIPベースへとシフトしていきたいということだ。まずは、今回導入のシステムを安定稼働させることが先決ではあるが、IPの持つメリットを最大限に活かしたIPベースでの中継システムの構築や、リモートプロダクションにもチャレンジしていきたいとのこと。また、1ヶ月単位でのスポーツイベントなど、ダークファイバーをレンタルしてリモートプロダクションを行ったりということも視野に入れているということだ。まずは、局内に張り巡らした中継ポイントからの受けからスタートし、徐々に規模を拡大していきたいとのこと。IP伝送による受けサブ、リモートプロダクションというのは今後の大きなトレンドとなることが予想される。こういった取り組みも本誌で取り上げていきたい。 📷左からお話を伺ったテレビ大阪株式会社 技術局 制作技術部 齊藤 智丈 氏、有限会社テーク・ワン オーディオ 代表取締役 岩井 佳明 氏 まさに次世代のシステムと言えるオールIPによるシステム構築の取り組み。課題点である「遅延」に対してどのように対応し、ワークフローを構築していくのか。実稼働後にもぜひともお話を伺いたいところだ。利便性と柔軟性、このポイントに関してIPは圧倒的に優位であることに異論はないだろう。スケールメリットを享受するためには、できうる限り大規模なシステムとするということもポイントのひとつ。これらを併せ持ったシステムがテレビ大阪にはあったということだ。この新局舎への移転というタイミングでの大規模なST-2110の導入は、今後を占う重要なモデルケースとなることだろう。すでに全国の放送局から見学の問い合わせも来ているということ。こういった注目度の高さからも今回導入のシステムが与える放送業界へのインパクトの強さが感じられた。 *ProceedMagazine2024号より転載
よくわかるAoIP臨時特別講座!「AES67ってなに?」〜AoIPのいま、未来を知る。〜
AoIP、ネットワークオーディオを採用した放送局やレコーディング現場では、従来の(メタル)ケーブルからイーサネットケーブルに取って代わり、IPパケットで音声信号を伝送することで大きなメリットを実現していますが、ご存知のとおりでいくつもの仕様やプロトコルが存在していて、一般ユーザーには若干わかりにくい状況であることは確かです。そして、購入したばかりだというAoIPであるAES67対応の機材を手に「これをしっかり知り尽くしたい!」と意気込んでいるのが今回の講座にやってきたMクン。そんなMクンにROCK ON PRO 洋介がネットワークオーディオの世界を紐解きます。 まずは、AoIPってなに? Mクン:Dante、RAVENNA、AVB、いくつものオーディオネットワーク規格があって制作現場でも目にすることが多くなってきたんですが、その中でもAES67についてお話を伺いたいんです。 ROCK ON PRO 洋介:なるほど。ところでなんでまた今日はAES67? Mクン:実はNeumannのスピーカー KH 150 AES67モデルとオーディオインターフェースのMT 48を購入したんです。AES67に対応した製品なんでせっかくなら使いこなしてAES67の恩恵に授かりたいな、と。まずは「AoIPってなに?」というところから教えてもらえませんか? 洋介:了解しました! AoIPは「Audio over Internet Protocol」の略で、TCP/IPベースのイーサネットを使ってオーディオ信号をやりとりする規格です。AoIPのメリットとしてどういうことがあるかというと、信号分配の際に分配器を必要とせず、汎用のイーサネットハブで1対多数のオーディオを含む信号を簡単に送れることです。もうひとつは、1本のケーブルで多チャンネルを送れることですが、多チャンネルオーディオ転送規格に関してはMADIがありますし、またずっと以前からはADATがありますよね。その中でもAES67が優れている点は、回線の通信速度が現在主流となっている1ギガビットイーサネットであれば256ものチャンネルを転送可能だということです。 Mクン:少ないケーブルで多チャンネル送れるというのは、経済的にも、設定や設置の労力的にもメリットですよね。 洋介:実は挙げられるメリットはまだあって、1本のケーブルで「双方向」の通信を行えるのも大きいメリットです。イーサネットケーブル1本に対し、In / Outの概念がなくなるので繋ぎ間違えもなくなりますよね。あとDante Connectが登場して、クラウドネットワークを介した世界中からの接続ができるようになってきているので、遠隔地とのやりとりも特殊な環境を必要とせず汎用の製品やネットワークを使えることでコストの削減を図ることができます。少し未来の話をすると、ダークファイバー(NTTが保有する光回線のうち使用されていない回線)を使えば、汎用のインターネット回線の速度を超えたデータ転送が遠隔地間でもローカルエリア上として行える可能性があります。例えば、東京と地方のオフィスを繋ぐ場合に物理的に離れていても両拠点は同じネットワーク上にいる状態にすることができてしまうんです。 Mクン:ダークファイバーを使って遠隔運用しているところはあるんですか? 洋介:ありますよ。放送業界が先行していて、離れた支局間でダークファイバーを引いている事例があります。例を挙げると、F1の放送では鈴鹿サーキットなど世界中のサーキットとドイツのデータセンター間でダークファイバーを繋げ、世界規模で実況放送を実現しています。では、ここからはAES67制定の経緯について話していきましょう。 📷身近な存在のオーディオi/FやスピーカーでもAES67対応製品がリリースされている。Mクンが購入したというこのKHシリーズ(右)とMT 48(左)の接続ではDAコンバーターも不要となるためシンプルなシステム構成に。 AES67策定の経緯 洋介:AES67の元になった規格は、2010年にMerging Technologies社とLAWO社が立ち上げた「RAVENNA」です。このRAVENNAをベースにして、AES(Audio Engineering Society)がAoIPの規格として制定したのがAES67です。AES67の規格はRAVENNAの仕様により汎用性を持たせる方向で策定されています。例えば、レイテンシーの最小値を大きくしたり、ストリーム数に関してはRAVENNAが最大128chに対し、AES67は8chまでといったように仕様を緩い方向に制定して汎用性を持たせています。 その後、SMPTE ST2110-30(ST2110は映画テレビ技術者協会(SMPTE)によって開発されたメディアをIP経由で移動させるための規格)という規格のオーディオパケット部分としてAES67が採用されます。SMPTE ST2110は、映像パケットとオーディオパケットを別々に送信するのが大きな特徴です。もうひとつ前のVoIP規格にSMPTE ST2022というものがあるのですが、これはSDIの信号をそのままパケットにして送信します。そこからより現代的な新しいテクノロジーを組み込んだIP転送を実現しようという目的で策定されたのがSMPTE ST2110です。オーディオ部分に関していうと、ST2110-30が非圧縮での基本的なAES67互換規格であり、さらにST2110-31になるとメタデータまで含めた通信ができるようになりました。こういったST2110の拡張とともにAES67も今後拡大していくと予想されてます。 Mクン:AES67のサンプリングレートは48kHz固定となっていますが、これは今後変わっていくのでしょうか? 洋介:恐らくですが、48kHzという仕様で一旦固定されたままになるのではないでしょうか。放送業界においては、現時点で一般的に多く使われているのが24Bit / 48kHで、ハイサンプルの需要がほぼなく、それ以上のスペックは必要ないと判断されているようです。このようにRAVENNAから派生したAES67ですが、放送業界、映像業界をバックボーンにして成長を続けています。一方、RAVENNAとDanteの違いを話すと、TCP/IPの規格としてDanteの方が1つジェネレーションが古い規格を一部使用しています。その代表がPTPで、DanteはPTP(Precision Time Protocol)のバージョン1を用いていて、RAVENNAやST2110の基礎技術はPTPのバージョン2です。このバージョン1と2には下位互換がなく、実際は別物というくらい違います。同一ネットワーク上にお互いを流しても問題ないのですが、上位バージョンが下位バージョンの信号を受けることができません。現在の普及具合でいうとDanteのほうが多いのですが、こういったことからDanteを採用しているメーカーは将来性に関して危惧を始めているところがあると聞いています。 PTPバージョン1と2の違い Mクン:そのバージョン1とバージョン2の違いとは何でしょう? 洋介:ネットワークプロトコルの技術的に複雑な話になるので、ここでは深く立ち入りませんが、単純に互換性がないということだけ覚えておいてください。このPTPですが、TCP/IP通信プロトコルとしてそもそもの大きな役割はクロック同期です。AoIPもVoIPも動作原理上バッファーが必要であり、それによりレイテンシーが必ず発生します。これはIP伝送のデメリットのひとつとして必ず話題に挙がることです。なぜバッファーが必要かというと、ネットワーク経路上にはネットワークインターフェイス、イーサネットスイッチなど多くのデバイスが挟まり、遅延が発生するのは避けることができません。 その事実への対処法として、バッファーへパケットデータを溜め込み、各パケットが送出されるタイミングの同期を行なってデータを出す、という同期のためのタイムスタンプの役割を行うのがPTPです。これは、ワードクロックやビデオクロックといった動作とは異なります。PTPでは各々のパケットに番号札を振って順番を決めるようなイメージで、そのバッファー分の遅延が必ず発生することになります。 Mクン:なるほど。では、オーディオのワードクロックでは精度が高い製品を使えば、一般的に音も良くなると思うんですが、PTPに関しては音質に対して影響するものなのでしょうか? 洋介:音質に影響しないというのが一般的な解釈です。RAVENNAの信号を受け、出力はアナログオーディオの場合の機材にもワードクロックが搭載されているわけで、AD/DAプロセッサーの動作はワードクロックで制御されています。つまり、IPデータの部分とワードクロックが作用する部分は完全に分離されていることになるので音質には影響しない、というのが設計上からの帰結です。現在の主流は、PTPとワードクロックを同時に出力するグランドマスター機能を持った機材を用いてシステム全体の整合性を取っています。 少し話が脱線しますが、AoIPにおけるレイテンシーの問題はグローバルなインターネットを越えても、依然存在し続けることになります。ただし、どれだけレイテンシーが大きくなったとしても、送信順が入れ違いになったとしても、届いたパケットの順番はPTPのタイムスタンプの順に並べられ、順番は変わらないわけです。 長遅延、インターネットを超えての伝送などの際には、このPTPのマスタークロックの上位の存在として、皆さんがカーナビなどでも恩恵を授かっているGPS衛星の信号を活用します。GPS衛星は地球の上空20,000kmに、常時24機(プラス予備7機)が飛行しています。GPS衛星は地球上どこにいても、遮蔽物がない限り6機が視界に入るように運用されています。そして、運用されているGPS衛星はお互いに時刻の同期が取られています。ということは、このGPSの衛星信号を受けられれば、世界中どこにいても同期された同一タイミングを得ることができるわけです。普段、何気なく車のカーナビを使っていますが、同期に関しては壮大な動作が背後にあるんです(笑)。 Mクン:宇宙から同期信号が届いているんですね!そういった先進技術は、今後私たちのような音声技術を扱う業界にも恩恵があるんでしょうか? 洋介:例えば、現在話題のイーロン・マスクが率いるスターリンク社(アメリカの民間企業スペースXが運用している衛星インターネットアクセスサービス)からのデータをPTPマスターとして受け取れるようになれば、もっと面白いことが起こるかもしれないですね。一方でデメリットを挙げるとすれば、やはりどこまでもレイテンシーがつきまとうという点ですね。オーディオの世界ではマイクやスピーカーといったアナログ領域で動作する製品がまだ大部分を占めるので、「信号の経路上、どのタイミングでAoIPにするか」というのはひとつの課題です。マイク自体でDante接続する製品も出てきていますが、ハイエンド製品はまだ市場に出てきてないですよね。これから期待したいところです。 AoIP、レコーディング現場への導入状況は? Mクン:AoIPの導入は放送業界が先行しているそうですが、レコーディング環境への導入状況はどうなんでしょうか? 洋介:レコーディングスタジオに関してはこれから普及が始まるかどうかといった状況です。大きなスタジオになると設備が建設時に固定されているものが多く、変更する機会がなかなかないということが関係していそうです。また、別の理由としてパッチベイの存在もあるかもしれません。現状使っているレコーディング機器の接続を繋ぎ変えるにあたって、これまで慣れ親しんだパッチベイから離れたくない、という心理もありそうです。まあ、パッチケーブルを抜き差しするだけですからね。 スタジオにはアナログ機器がたくさん存在しますが、AoIPが本当にパワーを発揮するのは端から端までをIPベースにした場合で、ここで初めてメリットが生まれます。一部にでも従来のアナログ機器が存在すると、そこには必然的にAD/DAコンバーター(アナログとAoIPの変換機)が必要になるので、コンバーターの分だけコストが必要になってしまいますよね。Dolby Atmosをはじめとするイマーシブオーディオのような多チャンネルを前提としたシステム設計が必要スタジオには需要があると思います。 Mクン:AoIPでシステムを組む場合、Danteを採用するにしろ、ST2110を採用するにしろ、それに対応した機材更新が必要ですが、どのプロトコルを採用しても対応できるように冗長性を持たせたシステムの組み方は可能ですか? 洋介:システム設計は個別のネットワークとして組まれているケースが多いですね。本誌でも事例として紹介しているテレビ大阪様ではオーディオのフロントエンド(インプット側)はDanteですが、コンソールのアウトや映像のスイッチャーはST2110という構成です。従来の銅線ベースの環境に比べるとシステム図が驚くほどシンプルで、機材数もとても少なくて済みます。放送業界ではフルVoIP化の流れが来ていて、新局舎など施設を一新するタイミングで、副調整室やマスターなど、全設備オールIP化の設計が始まっています。SMPTE ST2110のイーサネットのコンセントを至るところに設置し、局内どこからでも中継ができるシステムが組まれています。 Mクン:そういった大規模な更新のタイミングであれば、既存のアナログ機器を一新したシステムにリニューアルできるメリットがありますね。 洋介:そうですね。未来を見据えてAoIPやVoIPシステムでリニューアルできる大きなチャンスですね。 AES67のメリット Mクン:話をAES67に戻すと、Danteに比べてAES67のメリットはどんなことがあるんでしょうか? また、対応した製品がますます普及していきそうですが、今後のAoIPはどうなっていくのでしょう? 洋介:まず、Danteについては普及が進んでいるものの、先ほど話したPTPバージョン1の問題が依然として残ります。DanteにもAES67互換モードがすでに搭載されているのですが、Dante Network上のすべての機器をAES67互換モードで動作させることはできず、ネットワーク上の1台のみをAES67互換モードで動作させてゲートウェイとして使うということになります。言い換えると、AoIP / VoIPのメリットであるすべての機器が常に接続されているという状況を作ることが難しいということでもあります。これは、先にもお話したPTPのバージョンの違いにより生じている問題であり、一朝一夕で解決できる問題ではないでしょう。一方、RAVENNAはAES67の上位互換であり、SMPTE ST2110の一部でもあります。放送局など映像業界でのSMPTE ST2110の普及とともに今後導入が進むことが予想されます。音声のみの現場ではDanteが活用され、映像も絡んだ現場ではRAVENNA、というように棲み分けが進むかもしれませんね。 Mクン:私は「AES67 ニアイコール RAVENNA」という認識だったので、ST2110という存在がその先にあるというのは知りませんでした。 洋介:ST2110があってのAES67なんですよね。逆に言うと、ST2110を採用している映像メーカーはAES67対応だったりしますね。 Mクン:なるほど。私が購入したNeumannのオーディオインターフェイスMT 48はAES67に対応しているんですが、「RAVENNAベースのAES67」という表記がされていて納得がいきました。同じく購入したNeumannのスピーカー、KHシリーズもAES67に対応しているんですが、そのメリットはどんなことでしょう? 洋介:RAVENNAはAES67の上位互換なので、RAVENNAと書かれているものはすべてAES67だと考えていいです。一番大きいのはレイテンシーの問題で、AES67は最低1msでそれ以下は難しいんですけど、RAVENNAはもっと短くできます。KHシリーズとMT 48を組み合わせればDAコンバーターいらずになる、というのが大きなメリットです。システム的にもシンプルで気持ちいい構成ですよね。最近の製品の多くは、スピーカー自体でADしDSP処理してアンプ部分に送るという動作なんですが、それなら「デジタルのまんまで良くない?」って思うんですよね(笑)。シグナルとしてシンプルなので。 AoIP普及のこれから Mクン:これからサウンド・エンジニアの方は音の知識だけでなく、ネットワークの知識も必要になってきそうな感じですね。 洋介:うーん、どうでしょう? まずはブラウザ上で設定するルーティングの仕方、クロスポイントを打つということに慣れるということで良さそうです。そこから先は我々のようなシステム設計、導入を担当する側が受け持ちさせていただきますので。実際、DanteでもRAVENNAやAES67でも基本的に設定項目は全部一緒なので、もちろんGUIの見た目は異なりますが、汎用のTCP/IPベースのイーサネットの世界なのでひとつ覚えれば他にも通じる汎用性があります。 今後、AoIPの普及はさらに進むでしょう。現在はまだシステムの範囲が1部屋で完結しているスケールなのでAoIPを用いるスケールメリットはあまりないのですが、これからさらに外へと繋がっていくと大きく変わっていくはずです。すにで汎用のインターネットで映像や音声がやりとりできる世界になり、グローバルなインターネットで放送クオリティーの伝送が可能となっています。 放送局の場合だと、これまでサブでしか受けられなかった中継回線などが、イーサネットケーブルを引けばMA室でも受けられるようになります。こうなれば受けサブとしてMA室を活用するという使用用途の拡張が見込めます。従来は音声信号に加え、同期信号もすべてケーブルを引っ張らなければいけなかったものが、イーサネットケーブル1本で対応できるようになるのは革新的です。さらに、光ファイバーを導入できれば、同じケーブル設備を使って通信速度、使用可能帯域をアップグレードしていくこともできます、従来のメタル銅線では実現できないことですよね。 Mクン:今日は色々と興味深い話をありがとうございました! いかがだったでしょうか、「なるほど〜!」連発となったMクンはAES67がどのようなものなのか、そしてAoIPのメリットや抱えている課題点など、オーディオのIP伝送がいま置かれている現状もしっかりと把握できたようです。これからの制作システム設計における大きなキーワードとなるAoIP。もちろんそのメリットは従来のワークフローを大幅に塗り替えていくでしょう、そしてそのシステムが与えるインパクトたるや如何なるものか!?その進展から目が離せませんね! *ProceedMagazine2024号より転載
RIEDEL製品が支えるF1サーカスの舞台裏〜MediorNetで結ばれたIPグローバルネットワーク〜
IP伝送が拡げる可能性は我々が位置する音響の分野のみならず多岐にわたる。音や映像が必要とされる分野であればIP伝送によって従来のシステムにとって代わるワークフローのブレイクスルーが起こり得る。そのひとつが今回取材を行ったF1サーカスとも呼ばれる、世界規模のスポーツイベントにおけるRIEDELの取り組みだ。本誌では以前にもご紹介をしたが、あれから5年を経てそのバックボーンを支える技術、ソリューションはどれほど進化したのだろうか。 レースに欠かせない通信のマネジメント 2024年のF1カレンダーは大きく変わり、日本グランプリが例年の秋の開催から春開催へと移動された。これまでであれば、秋のレースはその年のドライバーチャンピオンが決まるころのレースであり、テクニカルサーキットして世界にその名を馳せる鈴鹿サーキットが最後の腕試しという側面もあったのだが、今年は桜の季節に開催されシーズンも始まったばかりということもあり、パドックは終始和やかなムードに包まれていた。今回取材に入ったのは木曜日。F1は金曜日に練習走行、土曜日に予選、日曜日に決勝というスケジュールとなっており、木曜日はレースデイに向けての準備日といったところ。その準備日だからこそ見ることができるレースの裏側も多く充実の取材となった。まずは、取材協力をいただいたRiedel Communicationsの各位に感謝を申し上げたい。 準備日とはいえ鈴鹿サーキットは、レースに向けた準備がしっかりと進められており、木曜日は恒例のパドックウォークが実施されるということで多くの観客が来場していた。パドックウォークは、レースデイには立ち入ることのできないパドックやメインストレートを歩くことができるイベント。入場券もレースが行われない日ということもあり安く設定されており、さすがにガレージの中までは入れないものの、レースでピットクルーたちがタイヤ交換などを行うその場に立てる、ということでこれを目当てに来場される方も多数。また、この日はメインスタンドも開放されていてサーキットの好きなところに行けるのもパドックウォークの魅力。もちろん、レースデイの高揚感まではないものの、鈴鹿サーキットでF1の雰囲気を味わいたいということであれば、この木曜日の来場にも価値がある。 📷レース前の木曜日に開催されたパドックウォーク。メインストレートも一般開放され賑わいを見せるこの写真の中に、RIEDELの回線敷設スタッフが数日間かけて仕込んだアンテナほかの機材も多数あるのがお分かりになるだろうか。既に木曜のこの段階で準備万端となっているわけだ。 前置きが長くなってしまったが、まずRIEDELのF1における立ち位置を確認しておこう。RIEDELはFIA(F1を主催する国際自動車連盟)から業務依頼を受けて、F1における通信全般をマネージメントしている。通信全般とひとことで言ってもF1会場で取り扱われている通信は膨大な量となる。各チームのインカム、オフィシャルからの無線連絡、ドライバーとのコミュニケーションなどの音声通信。それに、各車6台ずつの車載カメラ映像、審判用にも使われるコースの監視用のカメラ(鈴鹿サーキットでは20台以上がコース脇に設置された)、F1レースカーから送られてくるテレメトリーデータ(エンジン情報、燃料残量、タイヤ温度、ドライバーの操作など車に関するデータ)など多種多様。もちろん、その種類の多さから必然的にデータボリュームも非常に大きなものとなる。 コミュニケーションのメッシュを運用する 📷インカムがずらりと並んだピット内。よく見るとスタッフ個人ごとに名前が記されている。 なぜ、RIEDELがF1の運営に関わるようになったのかという部分にも触れておきたい。RIEDELはMotorola製トランシーバーのレンタル会社としてスタートした。単に機材をレンタルするということだけではなく、イベント会場などで活用されるトランシーバーのグループライン設計や、運営、無線電波の管理なども行い今日に至っている。 F1会場でも各チームへ120台前後のトランシーバーがレンタルされ、その管理運営を行っているということだ。残念ながらチームスポンサードの兼ね合いもあり全20チーム中17チームへの提供となっているとのこと。本来であれば全チーム一括での運営が望ましいのは確かであるが、他の無線機器メーカーなどがスポンサーとなってしまった場合はその限りではないようだ。しかしながら、RIEDEL以外のトランシーバーを使用しているチームの回線もRIEDELがデータを受取りして一括での運営管理を行っていることには変わりない。そのため、各チーム内でのグループラインなどの構築のためにRIEDELから最低1名ずつのスタッフが帯同しているそうだ。これは、それぞれのチーム事情を汲み取り、最適な運用を行うと同時に、チーム間の情報機密などへも配慮した対応だと思われる。 運用は大きく変わらないものの、トランシーバー自体についてはRIEDELのベストセラー製品でもあるBoleroの導入が進んでいるということだ。従来のトランシーバーでは2チャンネルの送受信。チャンネル数がさらに必要なマネージャークラスのスタッフは、2台のトランシーバーを併用し4チャンネルの運用を行っていて、腰の両サイドに2台のトランシーバーをぶら下げたスタイルは、チームの中心人物である証とも言えたのだが、Boleroを使えば1台のベルトパックで6チャンネルの送受信が可能となる。やはりこれば評価が高い、各チームからBolero導入へのリクエストも多く寄せられているそうだ。 各チームで多少の違いはあるのだろうと想像するが、現場で話を聞いたインカムの送受信先を図にして掲載しておく。ドライバーと会話ができるスタッフは最低限とし、レーシングディレクター(監督)がドライバー、ピットクルー、ガレージのそれぞれへ指示を行うことでレースを進行するというのが基本。そのやりとりを聞くだけのスタッフもいれば、発信を行えるスタッフも必要となり、複雑にコミュニケーションのメッシュが構築されている。 さらに、サーキット外のスタッフもこのコミュニケーションに参加する。世界各国にある各チームのヘッドクォーターへと必要な回線が送られ、車の情報などを監視して現場のスタッフへ適切な指示がリアルタイムに出されているということだ。また、回線が送られるのはヘッドクォーターだけではない。例えば、Visa Cash App RB Formula One Team であれば、ヘッドクオーターがイタリアのファエンツァ 、エンジン開発拠点は日本のホンダ・レーシングといったように分かれており、それぞれの国で別のコントロールルームからエンジンの様子などを監視している。 取りまとめると、各チームではサーキットに80名程度、それ以外のヘッドクオーターや各開発拠点に100名以上という人員体制でレースマネージメントが行われているということ。1台のレーシングカーを走らせることには想像以上に数多くのスタッフが関わっている。なお、RIEDELは各チームのヘッドクオーターまでの接続を担当しており、ヘッドクオーターから先の各開発拠点への通信はそれぞれのチームが独自にコミュニケーション回線を持っているということだ。 年間24戦を支えるRIEDELのチーム編成 F1の運営に関わっているRIEDELのスタッフは、大きく3つのチームに分けられている。1つが実際のレースデイの運営を行うテクニカルチーム。それ以外の2チームは、事前に会場内でのワイヤリングを主に請負う回線敷設チームだ。テクニカルチームは基本的に水曜日の現地入り、木曜日にチェック、金曜日からのレースデイという流れだが、回線敷設チームは決勝日の10日程度前に現地に入り、サーキット各所へのカメラの設置、無線アンテナの設営など機材コンテナが到着したらすぐにチェックが行えるよう準備を行っているということ。また、決勝が終わったら撤収作業を行って速やかに次のサーキットへ向かわなければならない。レースは3週連続での開催スケジュールもある。よって交互に世界中を飛び回れるよう回線敷設は2チームが編成されているが、それでもかなり過密なスケジュールをこなすことになる。 ちなみに、すべてのケーブル類は持ち込みされており、現地での機材のレンタルなどは一切行われない。これは、確実性を担保するための重要なポイントであり、今後も変えることはありえないと言っていたのは印象的。質実剛健なドイツ人らしい完璧を求める考え方だ。 セーフティーカーに備えられた通信システム 今回の取材は木曜日ということもあり、レースカーの走行はなくセーフティーカーによるシステムテストが行われていた。セーフティーカーには、F1のレースカーと全く同様の車載カメラ、テレメトリー、ラップ等の計測装置が搭載されており、これらを使って各種テストを行っている。なんと、今回はそのセキュリティーカーに搭載されたこれらの機器を見せていただく機会を得られたのでここで紹介しておきたい。 F1で今年使われているセーフティーカーはAMG GT。そのトランクルームに各種データの送受信装置、データの変換装置が備え付けられている。こちらと同じ機器がレースカーにも備えられ、レースカーに車載された6台ものカメラの映像データも車上で圧縮され無線で送信されている。アンテナもインカム用のアンテナと、それ以外のデータ用のアンテナ、さらには審判用の装置、これらもレースカーと同様だ。 これらはF1レースカーの設計の邪魔にならないようそれぞれが非常にコンパクトであり、パッケージ化されていることがよく分かる。ちなみに、トランクルームの中央にある黒い大きなボックスは、セーフティーカーの灯火類のためのボックス(赤色灯等など)であり、こちらはレースカーに搭載されず、その左右の金色だったりの小さなボックス類が各種計測装置である。右手の金色のボックス類がカメラの映像を圧縮したりといった映像関連、左側がテレメトリーとインカム関連だということだ。 📷システムテストに用いられていたセーフティーカーの様子。トランク内にレースカーと同様の機材が積み込まれている。ルーフ上には各種アンテナが据えられており、そのどれもがレースカーに搭載することを前提にコンパクトな設計がなされている。 航空コンテナの中に設置されたサーバーラック 📷ラックサーバーが収められているという航空コンテナ。このコンテナごと世界各地のF1サーカスを巡っていく。 それでは、実際に用いられている通信の運用について見ていこう。それぞれのチームの無線チャンネル数は各チーム6〜8チャンネル前後、そこへオフィシャルの回線やエマージェンシーの回線などを加え、サーキット全体では200チャンネル前後の無線回線が飛び交っている。これらの信号はすべてIP化され、ネットワークセンターと呼ばれるバックヤードのサーバーラックへと送られている。これらすべての回線は不正のチェックなどにも使用されるため、全回線がレースデイを通して記録されているとのこと。また、サーキットに持ち込まれたサーバーでの収録はもちろん、RIEDEL本社にあるサーバールームでも併せて収録が行われるような仕組みになっている。なお、サーキットに持ち込まれたサーバーはあくまでもバックアップだそうだ。レース終了とともに次の会場への移動のために電源が落とされパッキングが始まってしまうからである。 2019年にもこのネットワークセンターのサーバーラックを見せてもらったのだが、このラックに収まる製品は大幅に変わっていた。まず取り上げたいのは、インカムの総合制御を行うための機器がAll IP化されたことに伴い、最新機種であるArtist 1024の1台に集約されていたことだ。従来の最大構成機種であったArtist 128は、その機種名の通り128chのハンドリングを6Uの筐体で行っていたが、Artist 1024はたった2Uの筐体で1024chのハンドリングを可能としている。このスペックによって予備回線のサブ機までをも含めてもわずか4Uで運用が事足りてしまっている。ラックには従来型の非IPの製品も収まっているが、これらは機材の更新が済んでいないチームで使用されている機器の予備機だということ。3本のラックの内の1本は、予備機材の運搬用ということになる。 他には、テレメトリー・映像データ送信用のMediorNet、多重化された電源、現地のバックアップレコーディング用のストレージサーバーといったところ。前回の取材時には非常に複雑なシステムだと感じたが、2024年版のラックはそれぞれの機器がシンプルに役割を持ち動作している。それらの機器のことを知っている方であれば、ひと目見て全貌が(もちろん、概要レベルだが)把握できるくらいにまでスリム化が行われていた。 📷数多くのインカム回線をハンドリングするArtist 1024。見ての通りArtist 1024を2台、わずか4Uでの構成だ。 これらのラックは、飛行機にそのまま積めるように航空コンテナの中に設置されている。コンテナは2台あり、回線関連の機器が収められたコンテナと、もう1台がストレージサーバー。航空輸送を行うということで、離陸、着陸のショックに耐えられるようかなり厳重な仕掛けが行われていたのも印象的。コンテナの中でラックは前後方向に敷かれたレールの上に設置され、それがかなりのサイズのダンパーで前後の壁面と固定されている。基本的に前後方向の衝撃を想定して、このダンパーでその衝撃を吸収しようということだ。2024年は24戦が世界各地で予定されており、そのたびに飛行機に積まれて次のサーキットへと移動される特殊な環境である。着陸のたびにダメージを受けることがないよう、これまでの経験を活かしてこのような構造を取っているということだ。 ●RIEDEL MediorNet 2009年に登場した世界初となるFiber-BaseのVoIPトランスポート。さらにAudio、GPIO、もちろんRIEDELインカムの制御信号など様々な信号を同時に送受信できる。ファイバーケーブルを使った長距離伝送という特長だけではないこの規格は、世界中の大規模イベントのバックボーンとして使われている。本誌でも取り上げたF1以外にも、世界スポーツ大会、W杯サッカー、アメリカズカップなどが代表的な事例となる。ひとつのトランスポートで現場に流れるすべて(と言ってしまっても差し支えないだろう)の信号を一括で送受信することができるシステムである。 自社専用ダークファイバーで世界中へ これらのコンテナ・ラックに集約された回線は、RIEDEL Networkの持つダークファイバー回線でRIEDEL本社へと送られる。RIEDEL NetworkはRIEDELのグループ会社で、世界中にダークファイバーの回線を持ち、その管理運用を行っている。その拠点まではそれぞれの国の回線を使用するが、世界中にあるRIEDEL Networkの回線が接続されているデータセンターからは自社回線での運用となる。各国内の回線であれば問題が起きることはそれほど多くない、それを他国へ送ろうとした際に問題が発生することが多い。そういったトラブルを回避するためにも自社で世界中にダークファイバーを持っているということになる。 また、RIEDEL本社の地下には、核シェルターに近い構造のセキュリティーレベルが高いデータセンターが設置されている。ここで、F1のすべてのデータが保管されているそうだ。各チームからのリクエストによる再審判や、車載カメラ、コースサイドのカメラ、各チームの無線音声などすべての情報がここに保管されている。FIAから直接の依頼を受けて業務を行っているRIEDELは、さながら運営側・主催者側のバックボーンを担っているといった様相だ。 ちなみに、F1のコントロールセンター(審判室)は、リモートでの運営となっている。RIEDEL本国に送られた回線は、ヨーロッパに設置されたコントロールセンター、そして、各チームのHQへと送られている。まさにRIEDEL本社がF1サーカスのワールドワイドのハブとなっているということだ。一旦レースの現場でデータを束ねて、確実なファシリティ、バックボーンのある本社拠点へ送る。それを必要なものに応じて切り出しを行い、世界中へを再発信する。世界中を転戦するF1サーカスならではの知恵と運用ノウハウである。 ちなみに、我々が楽しんでいるTVなどの中継回線は、コースサイドの映像などが会場で共有され、中継用の別ネットワークとして運営されているということだ。前回取材時の2019年はこの部分もRIEDELの回線を使ったリモートプロダクションが行われていたが、サーキット内での回線分岐で別の運用となっていた。これらの設備を見ることはできなかったが、サーキット内に中継用のブースがあるような様子はなく、RIEDELのスタッフもそのような設備がサーキット内に準備されているのは見たことがないということだったので、リモートプロダクションでの制作が行われているのは確かなようであった。別のネットワークを通じて行われるリモートプロダクション、2024年度の放映権を持つのはDAZNだが、どのようなスキームで制作されているのか興味が尽きないところだ。 総じてみると、2019年と比較してもシステムのコンパクト化、コロナを乗り越えたことによるスタッフの省力化、リモートの活用範囲の拡大などが随所に見られた。そして、バックボーンとなる回線のIP化が進み、Artist 1024のような大規模ルーターが現実のものとして運用されるようになっている。目に見える進化はそれほど大きくないのかもしれないが、そのバックボーンとなる技術はやはり日進月歩で進化を続けている。 IPによる物理回線のボリュームは劇的に減っており、要所要所は一対のファイバーケーブルで賄えるようになっている。ある意味、この記事において写真などで視覚的にお伝えできるものが減っているとも言えるのだが、これこそがIP化が進展した証左であり次世代のシステム、ソリューションの中核が現場に導入されているということに相違ない。 10年以上も前から一対のファイバーケーブルで、映像・音声・シリアル通信まで送受信できるシステムを提案しているRIEDEL。やっと時代が追いついてきているということなのだろうか。F1のような世界規模の現場からのリクエストで制作され鍛え上げられてきたRIEDELの製品。国内でも活用が多く見られるインカムは、RIEDELの持つテクノロジーの一端でしかない。トータルシステムとして導入して本来のバリューを発揮するRIEDELの製品群。今回のような事例から次世代のシステム・ソリューションにおけるヒントを見つけていただければ幸いである。 *ProceedMagazine2024号より転載
日本最大の男祭り、その熱量をコンテンツに込める〜UVERworld KING’S PARADE 男祭り REBORN at Nissan Stadium〜
昨夏、日産スタジアムにて開催された音楽ライブ「UVERworld KING’S PARADE 男祭り REBORN at Nissan Stadium」。この72,000人の観客とともに作り上げた公演を記録した映像作品が全国劇場公開された。男性のみが参加できるという日本最大の「男祭り」、劇場版の音響にはDolby Atmosが採用され、約7万人もの男性観客のみが集ったその熱狂を再現したという本作。音響制作を手がけられたWOWOW 戸田 佳宏氏、VICTOR STUDIO 八反田 亮太氏にお話を伺った。 ライブの熱狂を再現する作品を 📷右)戸田 佳宏 氏 / 株式会社WOWOW 技術センター 制作技術ユニット エンジニア 左)八反田 亮太氏 / VICTOR STUDIO レコーディングエンジニア Rock oN(以下、R):本日はお時間いただきありがとうございます。まず最初に、本作制作の概要についてお聞きしてもよろしいですか? 戸田:今回のDolby Atmos版の制作は、UVERworldさんの男祭りというこれだけの観客が入ってしかも男性だけというこのライブの熱量を表現できないか、追体験を作り出せないかというところからスタートしました。大まかな分担としては、八反田さんがステレオミックスを制作し、それを基に僕がDolby Atmosミックスを制作したという流れです。 R:ステレオとAtmosの制作については、お二人の間でコミュニケーションを取って進められたのでしょうか? 八反田:Dolby Atmosにする段階では、基本的に戸田さんにお任せしていました。戸田さんとはライブ作品をAtmosで制作するのは2度目で、前回の東京ドーム(『UVERworld KING’S PARADE 男祭り FINAL at Tokyo Dome 2019.12.20』)でも一緒に制作をしているので、その経験もあってすり合わせが大きく必要になることはありませんでした。 戸田:このライブ自体のコンセプトでもあるのですが、オーディエンス、演奏の”熱量”というところをステレオ、Atmosともに重要視していました。僕がもともとテレビ番組からミックスを始めているのもあるのかもしれないですが、会場を再現するという作り方に慣れていたので、まず会場をAtmosで再現するところから始めました。そうやって制作するとオーディエンス、会場感が大きいものになっていくので、それを八反田さんに確認していただいて、音楽としてのミックスのクオリティを高めていくという流れですね。逆にCDミックスのような質感に寄りすぎてもライブの熱量が足りなくなっていくので、その境界線を見極めながらの作業になりました。 八反田:作業している時は「もっと熱量を!」というワードが飛び交っていましたね(笑)。 戸田:Atmosミックスではアリーナ前方の位置でライブを見ている感覚をイメージしていました。ライブ会場ではこうだよな、という聴こえ方を再現するという方向ですね。映像作品なのでボーカルに寄る画もあるので、そういった場面でも成立するようなバランスを意識しました。 八反田:ステレオでこれだとドラムが大きすぎるよな、というのもAtmosでは可能なバランスだったりするので、音楽としてのバランスも込みでライブをどう聴かせたいかという理想を突き詰めた部分もあります。 日産スタジアムでのライブ収録 📷1~16がステレオミックス用、17~42がDolby Atmos用に立てられたマイク。色によって高さの階層が分けて記されており、赤がアリーナレベル、青が2Fスタンド、緑がトップ用のマイクとなっている。31~34はバックスクリーン下のスペースに立てられた。 R:収録についてはどういった座組で行われたのでしょうか? 戸田:基本はパッケージ収録用のステレオ前提でライブレコーディングチームがプランニングをされていたので、3Dオーディオ版として足りないところをWOWOWチームで追加しました。事前にステレオのチームとマイク図面の打ち合わせを行い、マイク設置位置を調整しました。録音は音声中継車で録ることができる回線数を20chほど超えてしまったので追加でレコーダーを持ち込みました。ドラムセットが3つあったのもあって、全体で150chくらい使用していますね。そのうちオーディエンスマイクだけでステレオ用で16本、Atmos用でさらに26本立てました。 R:日産スタジアムってかなり広いですよね。回線は信号変換などを行って伝送されたのですか? 戸田:アリーナレベルは、音声中継車までアナログケーブルで引きました。スタンドレベルも端子盤を使って中継車までアナログですね。足りない部分だけOTARI Lightwinderを使ってオプティカルケーブルで引くこともしました。スタジアムはとにかく距離が長いのと、基本的にはサッカーの撮影用に設計された端子盤なので、スタンド席のマイクなどは養生などをして観客の中を通さないといけないのが結構大変でした。 R:ステージのフロントに立っているマイクは観客の方を向いているんですか? 戸田:そうですね。それはステージの端から観客に向けて立てられたマイクです。レスポンスの収録用です。曲中は邪魔にならないように工夫しながらミックスしました。包まれ感には前からのオーディエンスも重要なので。 R:Atmos用に設置したマイクについては、どういった計画で設置されたのでしょうか? 戸田:Atmos用のマイクはステレオ用から足りないところ、スピーカー位置で考えるとサラウンドのサイド、リア、トップなどを埋めていくという考え方で置いていきました。 八反田:キャットウォークに置いたマイクが被りも少なく歓声がよく録れていて、お客さんに包まれる感じ、特に男の一体感を出すのに使えました。イマーシブ用マイクで収録した音源は、ステレオミックスでも使用しています。 約150chの素材によるDolby Atmos ミックス R:これだけ広い会場のアンビエンスだと、タイムアライメントが大変ではなかったですか? 戸田:そこはだいぶ調整しましたね。一番最初の作業がPAミックスと時間軸を調整したアンビエンスをミックスし、会場の雰囲気を作っていくことでした。スタジアムは一番距離があるところで100m以上離れているので、単純計算で0.3〜0.5秒音が遅れてマイクに到達します。 R:合わせる時はオーディオファイルをずらしていったのですか? 戸田:オーディエンスマイクの音を前へ(時間軸として)と調整していきました。ぴったり合うと気持ちいいというわけでもないし、単純にマイク距離に合わせればいいというわけでもないので、波形も見つつ、スピーカーとの距離を考えて経験で調整していきました。正解があったら知りたい作業でしたね。 R:空気感、スタジアム感との兼ね合いということですね。MCのシーンではスタジアムの残響感というか、声が広がっていくのを細かく聴き取ることができました。リバーブは後から足されたりしたのですか? 戸田:MCの場面ではリバーブを付け足す処理などは行なっていません。オーディエンスマイクで拾った音のタイムアライメントを調整して、ほぼそのまま会場の響きを使っています。ステージマイクに対してのリバーブは、一部AltiverbのQuadチャンネルを使っています。 R:ライブではMCからスムーズに歌唱に入るシーンも多かったと思いますが、そこの切り替えはどうされたんですか? 戸田:そこが今回の作品の難しいところでした。見る人にもMCからすっと音楽に入ってもらいたいけど、かといって急に空間が狭くなってしまうと没入感が損なわれてしまうので、会場の広さを感じながらも音楽にフォーカスしてもらえるように、MCと楽曲中のボーカルのリバーブではミックスで差をつけるなどで工夫しています。 R:なるほど。アンビエンスの音処理などはされました? 戸田:曲によってアンビ感が強すぎるものはボーカルと被る帯域を抜いたりはしています。前回の東京ドームでは意図しない音を消すこともしたのですが、今回は距離感を持ってマイクを置けたので近い音を消すことは前回ほどなかったです。 R:オブジェクトの移動は使いました? 戸田:ほぼ動かしていないですね。画や人の動きに合わせて移動もしていないです。バンドとしての音楽作品という前提があるので、そこは崩さないように気を付けています。シーケンスの音は少し動かした所があります。画がない音なので、そういうのは散らばらせても意外と違和感がないかなと感じています。 📷会場内に設置されたマイクの様子。左上はクランプで観客席の手すりに付けられたマイク。すり鉢状になっている会場の下のレイヤーを狙うイメージで立てられた。また、その右の写真は屋根裏のキャットウォークから突き出すようにクランプで設置されたトップ用マイク。天井との距離は近いが、上からの跳ね返りはあまり気にならずオーディエンスの熱気が上手く録れたという。 R:イマーシブになるとチャンネル数が増えて作業量が増えるイメージを持たれている方も多いと思うのですが、逆にイマーシブになることで楽になる部分などはあったりしますか? 戸田:空間の解像度が上がって聴いてもらいたい音が出しやすくなりますね。2chにまとめる必要が無いので。 八反田:確かにそういう意味ではステレオと方向性の違うものとしてAtmosは作っていますね。ステレオとは違うアプローチでの音の分離のさせ方ができますし、Atmosを使えば面や広い空間で鳴らす表現もできます。東京ドームの時もそういうトライはしましたが、今回はより挑戦しました。ドームは閉じた空間で残響も多いので、今回は広く開けたスタジアムとしての音作りを心がけています。 R:被りが減る分、EQワークは楽になりますよね。 戸田:空間を拡げていくと音が抜けてきますね。逆に拡がりよりも固まりが求められる場合は、コンプをかけたりもします。 R:イマーシブミックスのコンプって難しくないですか?ハードコンプになると空間や位相が歪む感じが出ますよね。 戸田:すぐにピークを突いてしまうDolby Atmosでどう音圧を稼ぐかはポイントですよね。今回はサイドチェイン用のAUXバスを使って、モノラル成分をトリガーにオブジェクト全体で同じ動きのコンプをかける工夫をしています。オーディエンスのオブジェクトを一括で叩くコンプなどですね。ベッドのトラックにはNugen Audio ISL2も使っています。 R:スピーカー本数よりマイク本数の方が多いので、間を埋めるポジションも使いつつになると思いますが、パンニングの際はファンタム定位も積極的に使われましたか? 戸田:位相干渉が出てくるのであまりファンタム定位は使わずにいきました。基本の考え方はチャンネルベースの位置に近いパンニングになっていると思います。ダビングステージで聴いた時に、スピーカー位置の関係でどうしても後ろに音が溜まってしまうので、マイクによってはスピーカー・スナップ(近傍のスピーカーにパンニングポジションを定位させる機能)を入れて音が溢れすぎないようにスッキリさせました。 Dolby Atmos Home環境とダビングステージの違い R:丁度ダビングの話が出ましたが、ダビングステージでは正面がスクリーンバックのスピーカーになっていたりとDolby Atmos Homeの環境で仕込んできたものと鳴り方が変わると思うのですが、そこは意識されましたか? 戸田:スクリーンバックというよりは、サラウンドスピーカーの角度とXカーブの影響で変わるなという印象です。東京ドームの時はXカーブをすごく意識して、全体にEQをかけたんですけど、今回違う挑戦として、オーディエンスでなるべくオブジェクトを使う手法にしてみました。とにかく高さ方向のあるものやワイドスピーカーを使いたいものはオブジェクトにしていったら、ダビングステージでもイメージに近い鳴り方をしてくれました。もちろん部屋の広さとスピーカーの位置が違うので、仕込みの時から定位を変えてバランスをとりました。 R:ダビングはスピーカー位置が全部高いですからね。 戸田:全体の定位が上がっていってしまうので、そうするとまとまりも出てこないんですよね。なのでトップに配置していた音をどんどん下げていきました。トップの位置もシネマでは完全に天井ですから、そこから鳴るとまた違和感になってしまう。スタジアムは天井が空いているので、本来観客がいない高い位置からオーディエンスが聴こえてしまうのは不自然になってしまうと考えました。 R:これだけオーディエンスがあると、オブジェクトの数が足りなくなりませんでした? 戸田:そうですね、当時の社内のシステムではオブジェクトが最大54しか使えなかったので工夫しました。サラウンドはベッドでも7chあるので、スピーカー位置の音はベッドでいいかなと。どうしても真後ろに置きたい音などにオブジェクトを使いました。楽器系もオブジェクトにするものはステムにまとめています。 R:シネマ環境のオブジェクトでは、サラウンドがアレイで鳴るかピンポイントで鳴るかという違いが特に大きいですよね。 戸田:はい。なのでオーディエンスがピンポイントで鳴るようにオブジェクトで仕込みました。ベッドを使用しアレイから音を出力すると環境によりますが、8本くらいのスピーカーが鳴ります。オーディエンスの鳴り方をオブジェクトで制御できたことで空間を作るための微調整がやりやすかったです。ただ、観客のレスポンスはベッドを使用してアレイから流すことで、他の音を含めた全体の繋がりが良くなるという発見がありました。 R:最後に、音楽ライブコンテンツとしてDolby Atmosを制作してみてどう感じていますか? 八反田:誤解を恐れずに言えば、2chがライブを“記録“として残すことに対してDolby Atmosは“体験“として残せることにとても可能性を感じています。今回は会場の再現に重きを置きましたが、逆にライブのオーディエンスとしては味わえない体験を表現することも面白そうです。 戸田:Dolby Atmosでは、音楽的に表現できる空間が広くなることで、一度に配置できる音数が増えます。こういう表現手法があることでアーティストの方のインスピレーションに繋がり、新たな制作手法が生まれると嬉しく思います。またライブ作品では、取り扱いの難しいオーディエンスも含めて、会場感を損なわずに音楽を伝えられるというのがDolby Atmos含めイマーシブオーディオの良さなのかなと考えています。 一度きりのライブのあの空間、そして体験を再び作り出すという、ライブコンテンツフォーマットとしてのDolby Atmosのパワーを本作からは強く感じた。72,000人の男性のみという特殊なライブ会場。その熱量をコンテンツに込めるという取り組みは、様々な工夫により作品にしっかりと結実していた。やはり会場の空気感=熱量を捉えるためには、多数のアンビエントマイクによる空間のキャプチャーが重要であり、これは事前のマイクプランから始まることだということを改めて考えさせられた。イマーシブオーディオの制作数も徐々に増えている昨今、制作現場ではプロジェクト毎に実験と挑戦が積み上げられている。過渡期にあるイマーシブコンテンツ制作の潮流の中、自らの表現手法、明日の定石も同じように蓄積されているようだ。 UVERworld KING’S PARADE 男祭り REBORN at Nissan Stadium 出演:UVERworld 製作:Sony Music Labels Inc. 配給:WOWOW ©Sony Music Labels Inc. *ProceedMagazine2024号より転載
「ライブを超えたライブ体験」の実現に向けて〜FUKUYAMA MASAHARU LIVE FILM 言霊の幸わう夏〜
今年1月、アーティスト・福山雅治による初監督作品 『FUKUYAMA MASAHARU LIVE FILM 言霊の幸わう夏 @NIPPON BUDOKAN 2023』が公開された。昨年夏に開催された武道館公演を収録した本作は、ドローン撮影による映像やDolby Atmosが採り入れられ、福山本人による監修のもと “ライブを超えたライブ” 体験と銘打たれた作品となっている。今回は特別に、本作の音響制作陣である染谷 和孝氏、三浦 瑞生氏、嶋田 美穂氏にお越しいただき、本作における音響制作についてお話を伺うことができた。 📷 左)三浦 瑞生氏:株式会社ミキサーズラボ 代表取締役社長 レコーディング、ミキシングエンジニア 中)嶋田 美穂氏:株式会社ヒューマックスエンタテインメント ポストプロダクション事業部 リレコーディングミキサー マネジャー 右)染谷 和孝氏:株式会社ソナ 制作技術部 サウンドデザイナー/リレコーディングミキサー ”理想のライブの音”に至るまで Rock oN(以下、R):まずは、今回の企画の経緯について聞かせていただけますか? 染谷:私はこれまで嵐、三代目 J Soul Brothers(以下JSB3)のライブフィルム作品のAtmos ミックスを担当させていただきました。嶋田さんとは前作のJSB3からご一緒させていただいていて、その二作目ということになります。嶋田さんとのお話の中で、私たちが一番注意していたことは、音楽エンジニアの方とのチームワークの構築でした。三浦さんは長年福山さんの音楽を支えてこられた日本を代表するエンジニアさんであり、すでにチーム福山としての完成されたビジョンやチームワークはできあがっています。そこに我々がどのように参加させていただくかを特に慎重に考えました。Atmos制作内容以前に、チームメンバーとしての信頼を得るというのはとても大切な部分です。その配慮を間違えると「作品の最終着地点が変わるな」と感じていましたので、最初に三浦さんにAtmosで制作する上でどういうことができるのか、いくつかのご説明と方向性をご相談させていただきました。そして最終的に、三浦さんと福山さんの中でステレオミックスをまず制作していただいて、その揺るぎない骨子をAtmosミックスに拡張していく方向で制作を進めていくことに決まりました。 R:Atmosで収録した作品として今作で特徴的なのが、ライブの再現ではなく、“ライブを超えたライブ体験”というコンセプトを大事にされていますが、その方向性というのも話し合う中で決まっていったのですか? 染谷:収録が終わり、まず三浦さんがステレオミックスをされて、その後何曲かAtmosミックスを行い、福山さんにお聴かせする機会がありました。そこで福山さんが、オーディエンス(歓声)のバランスを自分の手で調整しながらAtmosの感覚、できることを探っていかれる時間がありました。 嶋田:そこで、閃かれた瞬間がありましたよね。 染谷:武道館特有の上から降ってくるような歓声やセンターステージに立っている福山さんでしか感じられない雰囲気をこのDolby Atmosなら“お客さんに体感・体験していただくことができる“と確信されたんだと思います。その後の作業でも、福山さんの「追体験じゃないんですよ」という言葉がすごく印象に残っています。まさにステージ上での実体験として感じていただくこと、それが私たちのミッションだったわけです。 R:では録音の段階ではどのような構想で進められていたのですか? 染谷:収録段階では、2階、3階と高さ方向での空間的なレイヤーをキャプチャーしたいと考えていました。 嶋田:最終的にオーディエンスマイクは合計で28本になりましたね。PAの前にも立ててみたりはしたのですが、音を聴くと微妙に位相干渉していたので結局は使っていません。 三浦:基本のステレオミックス用がまず20本あって、そこに染谷さんがAtmos用に8本足されました。基本的には、PAスピーカーの指向性からなるべく外れたところから、お客さんの声や拍手を主に狙うように設置しています。 R:オーディエンスの音源の配置は、基本マイク位置をイメージして置かれていますか? 染谷:そうですね。上下で100段階あるとしたら、2階は40、3階は90~100くらいに置いてレイヤー感を出しています。上から降りそそぐ歓声を表現するには、上、下の二段階ではなく、これまでの経験から中間を設けて階層的に降ろしていった方が結果的に良かったので、今回はこのように配置しました。 R:福山さんが向く方向、映像の画角によってアンビエントのバランス感は変えたのですか? 染谷:そこは変えていないです。それをすると音楽との相関関係から音像が崩れていくので、基本的にオーディエンスは一回決めたらあまり動かさない方が良いように思います。楽器の位置なども基本は、三浦さんと福山さんが決められたステレオ音源の位置関係を基準にしてAtmos的な修正をしています。 Atmosミックスのための下準備とは R:収録後はどういった調整をされたのでしょうか? 染谷:録った音をシンプルにAtmosで並べると、当然位相干渉を起こしていますので、タイムアライメント作業で修正を行います。具体的な方法としてはAtmosレンダラーでステレオと9.1.4chを何度も切り替えながらディレイを使用してms単位での補正を行います。レンダラーでステレオにしたときに正しくコントロールできていない場合は、確実に位相干渉するので判断できます。また、嶋田さんのコメントの通り、会場の反射で位相干渉した音が録れている場合もありますから、マイクの選定なども含めて進めていきました。 R:ディレイということは遅らせていく方で調整されたのですか。 染谷:今回はそうですね。ドームなどの広い会場だったら早めていると思うのですが、武道館では遅らせていった方がいい結果が得られました。早めていくと空間が狭くなっていくので、だんだん武道館らしさがなくなり、タイトな方向になってしまうんです。ですので、よりリアルに感じていただけるよう、疑似的に武道館の空間を創りだしています。実際にはセンターステージの真ん中のマイクを基準にして、他のマイクがどのように聴こえてくるかを考えながらディレイ値を導き出していきました。 R:逆にステレオだとオーディエンスを後ろにずらしての調整とかは難しいと思いますがどうでした? 三浦:オーディエンスマイクの時間軸の位置はそのままで、音量バランスで調整しています。フロントマイクをメインにして、お客さんの声の近さなどからバランスをとりました。やっぱり一番気になるのは、ボーカルの声がオーディエンスマイクを上げることで滲まないように、そこは色々な方法で処理しています。 R:Atmos用に追加したマイクはステレオでも使われましたか? 三浦:使っています。Atmosとステレオである程度共通した雰囲気を作る方がいいのかなと思って。スピーカーの数が変わる以上は聴こえ方も変わるのは分かっていましたが、福山さんとの作業の中でステレオ、Atmosで共通のイメージを固めておかないといけないと思ったのもありますし、会場の雰囲気を伝えることでできる音も含まれていましたので。 染谷:三浦さんがステレオの制作をされている間、嶋田さんと私はひたすらiZotope RXを使った収録済みオーディエンス素材のノイズ除去、レストレーション作業の日々でしたね。 嶋田:トータル 3、4ヶ月くらいしてましたよね。 R:RXはある程度まとめてマルチトラックモードでの処理も使われました? 嶋田:これがすごく難しいんですけど、28トラック分まとめて処理する場合も、1トラックずつ処理する場合もあります。私はノイズの種類によって使い方を変えました。例えばお客さんの咳を消したい場合、一番近いマイクだけでなくすべてのマイクに入っているので、綺麗に消したくなりますよね。でもすべて消すと空間のニュアンスまで無くなってしまうので、そのバランスは悩みました。近すぎる拍手なども全部消すのか、薄くするのかの判断は、喝采の拍手なのか、しっとりとした拍手なのかという拍手のニュアンス込みで考えたりもしましたね。 染谷:消せば良いってものでもないんですよ。音に味が無くなるというか。拍手を取る時はDe-Clickを使いますが、Sensitivityをどこの値にもってくるか最初の初期設定が大事です。 R:その設定はお二人で共有されていたんですか? 嶋田:最初に染谷さんがノイズの種類に合わせて大体の値を設定していただいて、そこから微調整しながら進めました。 染谷:作業が進んでいくとだんだんその値から変わっていきますけどね(笑)。リハの時に録っておいたベースノイズをサンプルにして全体にレストレーションをかけることもしています。武道館の空調ノイズって結構大きいんですよ。でもSpectral De-Noiseを若干かけるくらいです。やっぱり抜きすぎてもダメなんです。抜かないのもダメですけど、そこはうまくコントロールする必要があります。 染谷:基本的にクラップなどの素材も音楽チームの方で作っていただいて、とても助かりました。 三浦:ステレオミックスの仕込みの段階で福山さんとミックスの方向性の確認をした際に、通常はオーディエンスのレベルを演奏中は低めにして、演奏後はかなり上げるというようにメリハリをつけていますが、今回は曲中もお客さんのハンドクラップ(手拍子)がしっかり聴こえるくらいレベルを上げ目にしてくれというリクエストがありました。「これは記録フィルムではなくエンターテイメントだから」ということも仰っていたので、ライブ中の他の場所から良いハンドクラップの素材を抜き出し、違和感がない程度にそれを足して音を厚くするなどのお化粧も加えています。 📷三浦氏が用意したAtmos用ステムは合計111トラックに及ぶ。28chをひと固まりとしたオーディエンスは、素材間の繋ぎやバランスを考慮した嶋田氏の細かな編集により何重にも重ねられた。時にはPCモニターに入りきらない量のトラックを一括で操作することもあるため、タイムライン上での素材管理は特に気を張る作業であったという。高解像度なAtmosに合わせたiZotope RXによる修正も、作業全体を通して取り組まれた。 R:その他に足された音源などはありますか? 三浦:シーケンスデータですね。ライブでは打ち込みのリズムトラック、ストリングスなどのシーケンスの音はある程度まとまって扱われます。それはライブPAで扱いやすいように設計されているからなのですが、映画やパッケージの制作ではもう少し細かく分割されたデータを使って楽曲ごとに音色を差別化したくなるので、スタジオ音源(CDトラックに収録されているもの)を制作した際の、シーケンスデータを使用しました。なのでトラック数は膨大な数になっています(笑)。 嶋田:480トラックくらい使われていますよね!Atmos用に持ってきていただいた時には111ステムくらいにまとめてくださりました。 三浦:楽曲ごとにキックの音作りなども変えたくなるので、するとどんどんトラック数は増えていってしまいますよね。作業は大変だけど、その方が良いものになるかなと。今回はAtmosということでオーディエンスも全部分けて仕込んだので、後々少し足したい時にPro Toolsのボイスが足りなくなったんですよ。オーディオだけで1TB以上あるので、弊社のシステムではワークに収まりきらず、SSDから直の読み書きで作業しました。Atmosは初めてのことだったので、これも貴重な体験だったなと思っています。 染谷:本当に想像以上にものすごい数の音が入っているんですよ。 嶋田:相当集中して聴かないと入っているかわからない音もあるんですが、その音をミュートして聴いてみると、やはり楽曲が成立しなくなるんです。そういった大切な音が数多くありました。 R:ステムをやり取りされる中で、データを受け渡す際の要望などはあったのですか? 染谷:僕からお願いしたのは、三浦さんの分けやすいようにということだけです。後から聞くと、後々の修正のことも考えて分けてくださっていたとのことでした。ありがとうございます。 三浦:ステレオではOKが出たとしても、環境が変わってAtmosになれば聴こえ方も変わるだろうというのがあったので、主要な音はできるだけ分けました。その方が後からの修正も対応できるかなと思って、シーケンスデータもいくつかに分けたり、リバーブと元音は分けてお渡ししましたよね。想定通り、Atmosになってからの修正も発生したので、分けておいてよかったなと思っています。 嶋田:その際はすごく助かりました。特に、オーディエンスマイクもまとめることなく28本分を個別で渡してくださったので、MAの段階ですぐに定位が反映できたはとてもありがたかったです。 チームで取り組むDolby Atmos制作 染谷:今回は三浦さんが音楽を担当されて、僕と嶋田さんでAtmosまわりを担当したんですけど、チームの役割分担がすごく明確になっているからこそできたことが沢山ありました。そのなかの一つとして、編集された映像に対して膨大な音素材を嶋田さんが並べ替えて、ミックスができる状態にしてくれる安心感というのはすごく大きかったです。今回、嶋田さんには、大きく2つのお願いをしました。①映像に合わせてのステム管理、使うトラックの選定、とても重要な基本となるAtmosミックス、②足りないオーディエンスを付け足すという作業をしてもらいました。何度も言っちゃいますが、すごいトラック数なので並べるのも大変だったと思います。 三浦:こちらからお渡ししたのはライブ本編まるまる一本分の素材なので、そこから映画の尺、映像に合わせての調整をしていただきました。 嶋田:映像編集の段階で一曲ずつ絶妙な曲間にするための尺調整や曲順の入れ替えがあったり、エディットポイントが多めで、いつもより時間をかけた記憶があります。特に普段のMAでは扱わないこのトラック数を一括で動かすとなると、本当に神経を使う作業になるんですよ。修正素材を張り込む時にも、一旦別のタイムラインに置いて、他のオーディオファイルと一緒に映像のタイムラインに置いたりと、とにかくズレないように工夫をしていました。 R:Atmosで広げるといってもLCRを中心に作られていたなと拝見して感じているんですけれど、やはり映画館ではセンタースピーカーを基本に、スクリーンバックでの音が中心になりますか。 嶋田:映像作品なので、正面のメインステージの楽器の配置、三浦さんのステレオのイメージを崩さないバランスで置きました。空間を作るのはオーディエンスマイクを軸にしています。さらに立体感を出すためにギターを少し後ろに置いてみたりもしました。ボーカルはセンター固定です。しっかりと聴かせたいボーカルをレスポンス良く出すために、LRにこぼすなどはせずに勝負しました。なんですが、、、ラスト2曲はセンターステージの特別感を出すために中央に近い定位に変えています。 染谷:福山さんからの定位に関するリクエスト多くありましたね。印象的な部分では今さんのギターを回したり、SaxやStringsの定位、コーラスの定位はここに置いて欲しい、など曲ごとの細かな指定がありました。 R:ベッドとオブジェクトの使い分けについてはどう設計されました? 嶋田:基本的には楽器はベッド、オーディエンスをオブジェクトにしました。それでもすべてのオーディエンスマイクをオブジェクトにするとオブジェクト数がすぐオーバーするので、その選定はだいぶ計算しました。 染谷:やっぱりどうしてもオブジェクトの数は足りなくなります。 Auxトラックを使用して、オブジェクトトラックに送り込む方法もありますけど、映像の変更が最後まであったり、それに伴うオーディエンスの追加が多くなると、EQを個別に変えたりなどの対応がとても複雑になります。瞬時の判断が求められる作業では、脳内で整理しながら一旦AUXにまとめてレンダラーへ送っている余裕は無くなってきます。やはり1対1の方が即時の対応はしやすかったです。今考えているのは、ベッドってどこまでの移動感を表現できるのか?ということです。先ほどギターを回したと言いましたが、それも実はベッドなんです。ベッドだとアレイで鳴るので、どこの位置で回すかということは考えないといけませんでしたが、最終的に上下のファンタム音像を作って回してあげるとHomeでもCinemaでもある程度の上下感を保って回ってくれることが分かりました。絶対に高さ方向に動くものはすべてオブジェクトじゃなきゃダメ!という固定概念を疑ってみようかなと思って挑戦してみたんですけど。嶋田さんはどのように感じましたか? 嶋田:こんなにベッドで動くんだ、というのが素直な感想です。私も動くものや高さを出すものはオブジェクトじゃないと、という気持ちがずっとあったんですけど、今のオブジェクト数の制約の中ではこういった工夫をしていかないといけないなと思っています。 📷Dolby Atmos Home環境でのプリミックスは、Atmosミックスを担当したお二人が在籍するヒューマックスエンタテインメント、SONAのスタジオが使用された。劇場公開作品でもHome環境を上手に活用することは、制作に伴う時間的・金銭的な問題への重要なアプローチとなりえる。その為には、スピーカーの選定やモニターシステムの調整などCinema環境を意識したHome環境の構築が肝心だ。なお、ファイナルミックスは本編が東映のダビングステージ、予告編がグロービジョンにて行われた。 シネマ環境を意識したプリミックス 染谷:今回、ダビングステージを何ヶ月も拘束することはできないので、Dolby Atmos Home環境でダビングのプリミックスを行いました。Homeのスタジオが増えてきていますが、Homeで完結しない場合もこれから多く出てくると思うので、今回はこういった制作スタイルにトライしてみようと考えました。 嶋田:Homeでのプリミックスでまず気をつけなければならないのが、モニターレベルの設定です。映画館で欲しい音圧感が、普段作業している79dBCでは足りないなと感じたので、Homeから82dBCで作業していました。 染谷:最終確認は85dBCでモニターするべきなんですが、作業では82dBCくらいが良いと感じています、スピーカーとの距離が近いスタジオ環境では85dBCだと圧迫感があって長時間の作業が厳しくなってしまいます。 嶋田:ダビングステージでは空間の空気層が違う(スピーカーとの距離が違う)ので、ダビングステージの音質感や、リバーブのかかり方をHomeでもイメージしながら作業しました。またダビングステージは間接音が多く、Homeでは少し近すぎるかなというクラップも、ダビングステージにいけばもう少し馴染むから大丈夫だとサバ読みしながらの作業です。 染谷:Dolby Atmos Cinemaの制作経験がある我々は、ある程度その変化のイメージが持てますが、慣れていない方はHomeとの違いにものすごくショックを受けられる方も多いと聞いています。三浦さんはどうでした? 三浦:やはり空間が大きいなと、その点ではより武道館のイメージにより近くなるなとは感じましたね。 R:ダビングではどう鳴るか分かって作業しているかが本当に大事ですよね。やはりダビングは、映画館と同等の広さの部屋になりますからね。 染谷:直接音と間接音の比率、スピーカーの距離が全然違いますからね。制作される際はそういったことを含めて、きちんと考えていかないといけません。 嶋田:今回Homeからダビングステージに入ってのイコライジング修正もほぼなかったですね。 染谷:ダビング、試写室、劇場といろんな場所によっても音は変わるんだなというのは思います。どれが本当なんだろうなと思いながらも、現状では80点とれていればいいのかなと思うことにしています。 R:それは映画関係の方々よく仰ってます。ある程度割り切っていかないとやりようがないですよね。三浦さんは今回初めてAtmosの制作を経験されましたが、またやりたいと思われます? 三浦:このチームでなら! 染谷・嶋田:ありがとうございます(笑)。 三浦:染谷さん、嶋田さんには、客席のオーディエンスマイクのレベルを上げると、被っている楽器の音まであがっちゃうんですが、そういう音も綺麗に取っていただいて。 染谷:でも、その基本となる三浦さんのステムの音がめちゃくちゃに良かったです。 嶋田:聴いた瞬間に大丈夫だと思いましたもんね。もう私たちはこれに寄り添っていけばいいんだと思いました。 染谷:今回は特に皆さんのご協力のもと素晴らしいチームワークから素敵な作品が完成しました。短い時間ではありましたが、三浦さんのご尽力で私たち3名のチーム力も発揮できたと感じています。プロフェッショナルな方達と一緒に仕事をするのは楽しいですね。 三浦:そういった話で言うと、最後ダビングステージの最終チェックに伺った際、より音がスッキリと良くなっていると感じたんです。なぜか聞いたらクロックを吟味され変えられたとのことで、最後まで音を良くするために試行錯誤されるこの方達と一緒にやれて良かったなと感じています。 染谷:その部分はずっと嶋田さんと悩んでいた部分でした。DCPのフレームレートは24fpsですが、実際の収録や音響制作は23.976fpsの方が進めやすいです。しかし最終的に24fpsにしなくてはいけない。そこでPro Toolsのセッションを24fpsに変換してトラックインポートかけると、劇的に音が変わってしまう。さらにDCP用Atmosマスター制作時、.rplファイルからMXFファイル(シネマ用プリントマスターファイル)に変換する際にも音が変わってしまうんです。 この2つの関門をどう乗り越えるかは以前からすごく悩んでいました。今回はそれを克服する方法にチャレンジし、ある程度の合格点まで達成できたと感じています。どうしたかというと、今回はSRC(=Sample Rate Convertor)を使いました。Pro Toolsのセッションは23.976fpsのまま、SRCで24fpsに変換してシネマ用のAtmosファイルを作成したところ、三浦さんに聴いていただいたスッキリした音になったんです!今後もこの方法を採用していきたいですね。 R:SRCといっても色々とあると思うのですが、どのメーカーの製品を使われたんですか? 嶋田:Avid MTRXの中で、MADI to MADIでSRCしました。以前から24fpsに変換するタイミングでこんなに音が変わってしまうんだとショックを受けていたんですが、今回で解決策が見つかって良かったです。 染谷:MXFファイルにしたら音が変わる問題も実は解決して、結局シネマサーバーを一度再起動したら改善されました。普段はあまり再起動しない機器らしいので、一回リフレッシュさせてあげるのは特にデジタル機器では大きな意味がありますね。こういった細かなノウハウをみんなで情報共有して、より苦労が減るようになってくれればと願っています。 R:この手の情報は、日々現場で作業をされている方ならではです。今日は、Atmos制作に関わる大変重要なポイントをついたお話を沢山お聞きすることができました。ありがとうございました。 📷本作を題材に特別上映会・トークセッションも今年頭に開催された。 本作はアーティストの脳内にある“ライブの理想像”を追求したことで、Dolby Atmosによるライブ表現の新たな可能性が切り拓かれた作品に仕上がっている。音に関しても、アーティストが、ステージで聴いている音を再現するという、新しい試みだ。それは、アーティストと制作チームがコミュニケーションを通じて共通のビジョンを持ち制作が進められたことで実現された。修正やダビングといったあらゆる工程を見越した上でのワークフローデザインは、作業効率はもちろん最終的なクオリティにも直結するということが、今回のインタビューを通して伝わってきた。入念な準備を行い、マイクアレンジを煮詰めることの重要性を改めて実感する。そして何より、より良い作品作りにはより良いチーム作りからという本制作陣の姿勢は、イマーシブ制作に関係なく大いに参考となるだろう。 FUKUYAMA MASAHARU LIVE FILM言霊の幸わう夏@NIPPON BUDOKAN 2023 監督:福山雅治 出演:福山雅治、柊木陽太 配給:松竹 製作:アミューズ ©︎2024 Amuse Inc. *ProceedMagazine2024号より転載
Bob Clearmountain〜 伝説のエンジニア ボブ・クリアマウンテンが描くミックス・ノウハウのすべて 〜
去る4月、伝説のレコーディング・エンジニアであるボブ・クリアマウンテン氏が来日。東京・麻布台のSoundCity B Studioにおいて「伝説のエンジニア ボブ・クリアマウンテンが描くミックス・ノウハウのすべて」と題したセミナー・イベントが開催された。受講者20名限定で開催されたこのイベントでは、注目を集める“音楽のイマーシブ・ミックス”について、ボブ・クリアマウンテンがそのワークフローとテクニックを約3時間にわたって解説。途中、一般には公開されていない著名な楽曲のイマーシブ・ミックスが特別に披露されるなど、大変充実した内容のイベントとなった。ここではその模様をダイジェストでお伝えしたい。 イマーシブ・オーディオへの取り組み Bob Clearmountain氏:私は音楽のサラウンド・ミックスにいち早く取り組んだエンジニアのひとりだと思いますが、イマーシブ・オーディオに関しては、妻(注:Apogee ElectronicsのCEO、ベティー・ベネット氏)から、“これは素晴らしいテクノロジーだから、ぜひ取り組むべきだ”と背中を押されたことがきっかけになりました。実際に音楽のイマーシブ・ミックスを手がけたのは、皆さんご存知のザ・バンドが最初です。私はザ・バンドの名盤3作品の5.1chミックスを手がけたのですが、その中の1枚「カフーツ」というアルバムの作業をしているときに、レコード会社の担当者から、“Dolby Atmosでもミックスしてみないか”というオファーがあったのです。 その後間もなく、ジョー・ボナマッサの「Time Clocks」というアルバムもDolby Atmosでミックスしました。これが私にとって音楽のイマーシブ・ミックスの2作目になります。このアルバムのプロデューサーであるケヴィン・シャーリーはオーストラリア出身で、ディジュリドゥのサウンドがとても印象的な作品です。このアルバムは何年も前の作品であったため、レーベル・サイドもアーティスト本人も、最初はDolby Atmos化にあまり関心がありませんでした。ただ、私は自分のスタジオをDolby Atmosに対応させたばかりだったので、Dolby Atmosバージョンをジョー・ボナマッサ本人、ケヴィン・シャーリー、レーベルのスタッフに聴いてもらったのです。そうしたら彼らはそのサウンドに感銘を受け、“これは素晴らしい、ぜひリリースしよう”ということになりました。それがきっかけで、ケヴィンも自身のスタジオをDolby Atmosに対応させましたよ(笑)。 私は1980年代、ロキシー・ミュージックの「Avalon」というアルバムをミックスしましたが、あれだけ様々な要素が含まれている作品がステレオという音場の中に収められているのはもったいないと前々から感じていました。もっと音場が広ければ、要素をいろいろな場所に定位できるのに… という想いが、常に頭の中にあったのです。もちろんそれは、イマーシブ・オーディオどころか、サラウンドが登場する以前の話で、いつかその想いを叶えたいと思っていました。その後、念願かなって「Avalon」のサラウンド・ミックスを作ることができました。そしてイマーシブ・オーディオの時代が到来し、「Avalon」のプロデューサーであるレット・ダヴィースと“これは絶対にDolby Atmosでミックスするべきだ”ということになったのです。 Dolby Atmosバージョンの「Avalon」を体験された方なら分かると思いますが、かなりの要素が後方に配置されており、そのようなバランスの楽曲は珍しいのではないかと思います。たとえば、印象的な女性のコーラスも後方に配置されています。なぜこのようなバランスにしたかと言えば、ステレオ・ミックスを手がけたときもそうだったのですが、演劇のような音響にしたいと考えたからです。楽曲に登場する演者、ボーカリスト、プレーヤーを舞台に配置するようなイメージでしょうか。ですので、キーとなるブライアン・フェリーのボーカルはフロント・センターですが、他の要素は異なる場所に定位させました。 イマーシブ・ミックスというと、多くの要素が動き回るミックスを想起する方も多いのではないかと思います。もちろん、そういうミックスも可能ですが、Dolby Atmosバージョンの「Avalon」ではそういうダイナミックなパンニングはほとんどありません。言ってみれば静的なミックスであり、ジェット機やヘリコプター、アイアンマンが登場するようなミックスではないのです。 SSL 4000Gを使用したイマーシブ・ミックス 📷オーディオの入出力を担うのはApogeeのSymphony I/O Mk II。Atmosミックスとステレオミックスを同時に作るワークフローではこれらを切り替えながら作業を行うことになるが、その際に素早く切り替えを行うことができるSymphony I/O Mk IIのモニター・コントロール機能は重宝されているようだ。SSL 4000Gの後段にある「プリント・リグ」と呼んでいるセクションで下図のようなセッティングを切り替えながら制作が進められていく。 私はイマーシブ・ミックスもアナログ・コンソールのSSL 4000Gでミックスしています。SSL 4000Gには再生用のAvid Pro Toolsから72chのオーディオが入力され、そしてミックスしたオーディオは、“プリント・リグ”と呼んでいる再生用とは別のPro Toolsにレコーディングします。“プリント・リグ”のPro Toolsは、最終のレコーダーであると同時にモニター・コントローラーとしての役割も担っています。 そして再生用Pro Toolsと“プリント・リグ”のPro Tools、両方のオーディオ入出力を担うのは、ApogeeのSymphony I/O Mk IIです。私は、ステレオ・ミックスとDolby Atmosミックスを同時に作りますが、Symphony I/O Mk IIでのモニター・コントロール機能は、まさしく私のワークフローのために搭載されているような機能と言えます。私は7.1.4chのDolby Atmosミックスと、ニア・フィールド・スピーカーやテレビなどに送る3組のステレオ・ミックスを切り替えながら作業を行いますが、Symphony I/O Mk IIではそういったワークフローに最適な機材です。ステレオ・ペアを最大16組作成することができ、非常に柔軟な作業環境を構築できるため、過去に手がけた5.1chのサラウンド・ミックスと比較しながらの作業も容易です。 肝心のミキシングについて、アナログ・コンソールのSSL 4000Gで一体どのようにイマーシブ・ミックスを行っているのか、疑問に感じた人もいるかもしれません。しかし決して特別なことを行っているわけではなく、そのルーティングはストレートでシンプルです。SSL 4000Gに入力した信号は、チャンネル・ストリップで調整した後、Dolby Atmos用のチャンネルとして、スモール・フェーダーのトリム・チャンネルを活用して送っているのです。スモール・フェーダーは基本ユニティーで使用し、レベルはラージ・フェーダーの方で調整してから、ポスト・フェーダーでスモール・フェーダーに送ります。スモール・フェーダーから2本のスピーカーに同時に送ることは基本ありませんが、隣り同士のスピーカーに同じ信号を送って、パンでバランスを調整することはあります。また、このルーティングですと、基本オートメーションを使用することができません。オートメーションを使いたいときは、専用のバスを作り、そちらに送ることで対処しています。 私のSSL SL4000Gは特別仕様で、VCAとバス・コンプレッサーが4基追加で備わっています。標準のステレオ・バスのDCを、追加搭載した4基のVCA / バス・コンプレッサーにパッチすることで、すべてのバス・コンプレッサーの挙動をスレーブさせ、ステレオ・ミックスとマルチ・チャンネル・ミックスのコンプレッションの整合性を取っているのです。ただ、これだけの構成では5.1chのサラウンド・ミックスには対応できても、7.1.4chのイマーシブ・ミックスには対応できません。それでどうしようかと悩んでいたときに、Reverb(編注:楽器・機材専門のオンライン・マーケットプレイス)でSSLのVCA / バス・コンプレッサーをラック仕様にノックダウンした機材を発見し、それを入手して同じようにDC接続することで、7.1.4chのイマーシブ・ミックスに対応させました。これはとてもユニークなシステムで、おそらく世界中を探しても同じようなことをやっている人はいないと思います(笑)。もちろん、サウンドは素晴らしいの一言です。 Dolby Atmosミックスは、7.1.2chのベッドと最大128個のオブジェクトで構成されますが、私は基本的にベッドルーム(7.1.2)でミックスを行います。オブジェクトは動く要素、たとえば映画に登場するヘリコプターなどのサウンドを再現する上では役に立ちますが、音楽のイマーシブ・ミックスにはあまり必要だとは思っていません。ですので、Dolby Atmosミックスと言っても私はハイト・スピーカーを除いた7.1chで音づくりをしています。なお、ハイト・チャンネルに関してDolby Laboratoriesは2chのステレオとして規定していますが、私は4chのクアッドとして捉え、シンセサイザーやスラップバック・ディレイなどを配置したりして活用しています。 ステレオ・ミックスのステムはできるだけ使用しない 先ほどもお話ししたとおり、私はステレオ・ミックスとDolby Atmosミックスを同時に行います。最初にステレオ・ミックスを作り、そこから書き出したステムを使ってDolby Atmosミックスを作る人が多いと思うので、私のワークフローは珍しいかもしれません。なぜステレオ・ミックスとDolby Atmosミックスを同時に行うのかと言えば、私はステレオ・ミックスから書き出したステムに、ミキシングを縛られたくないからです。ステレオ・ミックスのステムは、エフェクトも一緒に書き出されてしまっているため、もう少しフィールドを広げたいと思っても簡単にはいきません。楽曲の中心であるボーカルですらまとめられてしまっているので、私はDolby Atmosミックスに入る前に、iZotope RXを使ってセンターのボーカルとサイドのボーカルを分離します。 ですので、可能な限りオリジナルのセッションからDolby Atmosミックスを作るべきであると考えていますが、これは理想であって、実際には難しいケースもあるでしょう。もちろんステムから作られたDolby Atmosミックスの中にも素晴らしい作品はあります。たとえば、アラバマ・シェイクスのボーカリスト、ブリタニー・ハワードの「What Now」という曲。このミックスを手がけたのはショーン・エヴェレットというエンジニアですが、彼はステムをスピーカーから再生して、それをマイクで録音するなど、抜群のクリエイティビティを発揮しています。まさしくファンキーな彼のキャラクターが反映されたミックスだと思っています。 アーティストの意向を反映させる 最近はレコード会社から、昔の名盤のDolby Atmos化を依頼されることが多くなりました。しかしDolby Atmos化にあたって、アーティスト・サイドの意向がまったく反映されていないことが多いのです。意向が反映されていないどころか、自分の作品がDolby Atmosミックスされたことをリリースされるまで知らなかったというアーティストもいるくらいです。音楽はアーティストが生み出したアート作品です。可能な限りアーティストの意向を反映させるべきであると考えています。 私が1980年代にミックスしたヒューイ・ルイス&ザ・ニュースの「Sports」というアルバムがあります。何年か前にこの作品のディレクターから、“「Sports」のDolby Atmosミックスを作ったので聴いてみないか”という連絡がありました。興味があったので聴きに行ったのですが、その場にいた全員が“これは何かの冗談だろ?”と顔を見合わせるくらいひどいミックスだったのです。試聴環境のセットアップは完璧でしたが、聴くに耐えないミックスでどこかを修正すれば良くなるというものではありません。私はディレクターに、“Dolby Atmosミックスを作り直させてくれないか”と打診しました。予算を使い切ってしまったとのことだったのですが、個人的に思い入れのある作品だったということもあって、無償で引き受けることにしたんです。 この話には余談があります。「Sports」のDolby Atmosミックスは、Apple Musicでの配信直後にリジェクトされてしまったのです。なぜかと言うと、オリジナルのステレオ・ミックスには入っていない歌詞が入っているから。私はDolby Atmosミックスを行う際にあらためてマルチを聴き直してみたのですが、おもしろい歌詞が入っていたので、それを最後に入れてしまったんです(笑)。Appleはオリジナルの歌詞とDolby Atmosミックスの歌詞が同一でないとリジェクトしてしまうので、過去の作品のDolby Atmos化を検討されている方は気をつけてください。彼らはしっかりチェックしているようです(笑)。また、Appleは空間オーディオ・コンテンツの拡充に力を入れていますが、ステレオ・ミックスを単純にアップ・ミックスしただけの作品も基本リジェクトされてしまいます。 一世を風靡した“ボブ・クリアマウンテン・サウンド” 私は古くからの友人であるブライアン・アダムスのヒット曲、「Run To You」もDolby Atmosでミックスしました。Dolby Atmosミックスの話に入る前に、どうやってこの特徴的な’80sサウンドを生み出したのか、少しご紹介しておきましょう。 この曲はカナダのバンクーバーにある「Little Mountain Studio」というスタジオでレコーディングを行いました。私はこの曲のドラムを“ビッグ・サウンド”にしたいと考えたのですが、「Little Mountain Studio」のライブ・ルームはかなりデッドで、私がイメージしていた“ビッグ・サウンド”には不向きな空間だったのです。一体どうしたものか…と思案していたとき、ライブ・ルームの真横にローディング・ベイ、 いわゆるガレージのようなスペースがあることに気付きました。試しにそこで手を叩いてみたところ、コンクリートが気持ちよく反響したので、私はドラムの周囲に比較的硬めの遮蔽板を設置し、残響をローディング・ベイ側に逃すことで、大きな鳴りのドラム・サウンドを作り出したのです。本当に素晴らしいサウンドが得られたので、このセッティングを再現できるように、アシスタントに頼んでドラムやマイクの位置を記録してもらいました。ですので、この“ビッグ・サウンド”は、後にこのスタジオでレコーディングされたボン・ジョヴィやエアロ・スミスの曲でも聴くことができます。 「Run To You」をレコーディングしたのはもう40年も前のことになりますが、自分がやっていることは今も昔も大きく変わっていません。確かに世の中にはトレンドというものがあります。「Run To You」をレコーディングした1980年代はリバーブが強いサウンドが主流でしたが、1990年代になると逆にドライなサウンドが好まれるようになりました。そしてご存知のとおり、現代は再びリバーブを使ったサウンドが主流になっています。そういったトレンドに従うこともありますが、私は天邪鬼なのでまったく違ったサウンドを試すこともあります。いつの時代も自分のスタイルを崩すことはありません。 よく“ボブ・クリアマウンテン・サウンド”と言われることがありますが、私は自分のサウンドについて意識したことはありません。私はあくまでもクライアントであるアーティストのためにミックスを行っているのです。アーティストと一緒に作り上げたサウンドが、結果的に“ボブ・クリアマウンテン・サウンド”になっているのではないかと思っています。 イマーシブ・ミックスにおける各要素の定位 「Run To You」のDolby Atmosミックスについてですが、まずセンターには楽曲の基盤となるボーカル、ベース、スネア、キックといった音を定位させました。こういった音をなぜセンターに集めるかと言うと、私はライブ・コンサートのようなイメージでミックスを行うからです。ロックやポップスのライブ・コンサートでは、これらの音がセンターから聴こえます。ご存知のように、再生環境におけるセンター・スピーカーという考え方は映画から来ています。映画の中心となる音はダイアログで、それはほとんどの場合がセンターに定位されます。その考え方をそのまま音楽に適用しても、問題はないと考えています。 それではサイド、リア、ハイトには、どのような音を定位させるのがいいのでしょうか。楽曲の基盤となる音に関してはセンターに集めた方がいいと言いましたが、同じギターでもパワー・コードのような音ではない、たとえばアコースティック・ギターのような音ならば、サイドに振ってみてもいいかもしれません。キーボードに関しても同じで、ピアノはセンターに定位させる場合が多いですが、シンセサイザーのような音はリアやハイトに定位させると良い結果が得られます。 Dolby Atmosというフォーマットにおいて特徴的な要素と言えるのが、ハイト・スピーカーです。“音楽のミックスで、ハイト・スピーカーなんて使いどころがあるのか?”と思われる人もいるかもしれませんが、実際はとても有用です。たとえば私はアンビエンス… リバーブで作り出した残響ではなく、インパルス・レスポンスにおけるアンビエンスをハイト・スピーカーに送り、これによって空間の高さを演出しています。 もうひとつ、LFEという要素についてです。サブ・ウーファーに関してはミックスを補強してくれる有用な要素ではあるのですが、必須ではないというのが私の考え方です。私はLFEなしでミックスを成立させ、それを補強する際に使用しています。また、ミッド・ファーはバイノーラルのオプションではグレイアウトされて設定することができません。あまりLFEに頼り過ぎてしまうと、ヘッドホンで聴いたときに音像が崩れてしまうので注意が必要です。 イマーシブ・ミックスにおけるエフェクト処理 「Run To You」のDolby Atmosミックスでは、ボーカルだけでなくシンセサイザーのディレイ音もリアに配置しています。タイミングが楽曲のテンポよりもオフなので、一聴すると“曲に合っているのか?”と思う人もいるかもしれませんが、ディエッサーを強めにかけることによってミックスに戻した際に馴染むサウンドを作り出しているのです。ギターに関しても同じく、それだけで聴くとバラバラな印象があったので三連符のディレイを使用し、ディレイ音が返る度にリバーブを付加していき、さらには歪みも加えることで、奥行き感と立体感のあるサウンドを作り出しています。こういったエフェクトには、私が開発に関わったApogee Clearmountain’s Domainを使用しました。先ほども言ったとおり、私の頭の中にあったのはライブ・コンサートのようなサウンドです。私はライブ・サウンドが大好きなので、それをスタジオで再現するという音作りになっています。また、パーカッションが空間の中を飛び回っているように聴こえるかもしれませんが、こういったサウンドもエフェクトのみで作り出しています。このミックスではオブジェクトを使用していません。楽曲を構成する要素はステレオ・ミックスと同一です。スピーカーの構成が違うだけで、こうも印象が変わるという好例だと思います。 プラグインに関して、イマーシブ・ミックスで最も多用しているのがクアッド処理に対応しているリバーブです。具体的にはApogee Clearmountain’s Domainを最もよく使います。イマーシブ・ミックス用のクアッド・リバーブは、そのままフォールドバックしてステレオ・ミックスにも使用します。最近は位相を自動で合わせてくれたりするような管理系のプラグインが多く出回っていますが、そういったツールを使い過ぎるとサウンドのパワー感が失われてしまうような印象を持っています。実際にそういったツールを使ったことがありますが、最終的には使用しない方が良い結果になったケースの方が多かったです。 📷Apogee Clearmountain’s Domain:ミックスでも多用しているというApogee Clearmountain’s Domain。画面左側のシグナルフローに沿うようにボブ・クリアマウンテン独自のFXシグナルチェーンを再現している。もちろん、プリセットもボブ独自のものが用意されており、ロードして「あの」サウンドがどのように構築されているのかを解析するという視点も持つと実に興味深いプラグインだと言えるだろう。 イマーシブ・オーディオで楽曲の物語性を強化する イマーシブ・オーディオは、アーティストが楽曲に込めた物語性を強化してくれるフォーマットであると考えています。私の古くからの友人であるブルース・スプリングスティーンは歌詞をとても重視するアーティストです。彼は歌詞に込めた物語性をいかにサウンドに盛り込むかということを常に考えており、私は彼のそういう想いをミックスで楽曲に反映させようと長年努力してきました。 ブライアン・フェリーの「I Thought」という曲があります。それほど有名ではないかもしれませんが、私のお気に入りの曲です。この曲の歌詞は、男性がガール・フレンドに対して抱いているイメージが、徐々に現実とは違うことに気づいていく… という内容になっています。男性が想っているほどガール・フレンドは彼のことを想っているわけではない…。これはブライアンから聞いたストーリーではなく歌詞を読んだ私の勝手な解釈ですが、私はこの解釈に基いてモノラルで始まるシンプルな音像がどんどん複雑な音像になっていく… というイメージでミックスしました。そして最後は男性の悲しさや虚しさについてをノイズを強調することで表現したのです。ちなみにこの曲はブライアン・フェリー名義ですが、ロキシー・ミュージックのメンバーも参加しています。おそらく最後のノイズはブライアン・イーノのアイデアだったのかなと想像しています。 Dolby Atmos for Everyone! Dolby Atmosに興味はあるけれども、制作できる環境を持っていないという人も多いかもしれません。しかしその敷居は年々低くなっており、いくつかのDAWの最新バージョンにはDolby Atmosレンダラーが標準で搭載されています。その先駆けとなったのがApple Logic Proで、Steinberg NuendoやPro Toolsの最新バージョンにもDolby Atmosレンダラーが統合されています。このようにDolby Atmosは決して特別なものではなく、今や誰でも取り組むことができるフォーマットと言っていいでしょう。もちろん、Symphony I/O Mk IIはこれらすべてのDAWに対応しています。その柔軟なモニター・コントロール機能は、Dolby Atmosコンテンツの制作に最適ですので、ぜひご購入いただければと思います(笑)。Dolby Atmosで作業するには多くのオーディオ入出力が必要になりますが、Symphony I/O Mk IIではDanteに対応しています。コンピューター側に特別なハードウェアを装着しなくても、Dante Virtual Soundcardを使用すれば、Symphony I/O Mk IIとDanteで接続することができます。この際に有用なのがGinger Audioというメーカーが開発しているGroundControl SPHEREで、このソフトウェアを組み合わせることによって複雑なルーティングでも簡単かつ効率よくセットアップすることができます。 私が今日、明確にしておきたいのは、イマーシブ・オーディオというのは新しいテクノロジーではあるのですが、多くのレコード会社がサポートしてくれているので、一時のブームで廃れてしまうようなものではないということです。これからイマーシブ・ミックスされた素晴らしい作品がどんどんリリースされることでしょう。我々ミュージック・プロダクションに携わる者たちは、皆で情報交換をしてこの新しいテクノロジーを積極的にバックアップしていくべきだと考えています。 今回のセミナーでは、私が行なっているDolby Atmosミックスのワークフローについてご紹介しましたが、必ずしもこれが正解というわけではありません。たとえば、私はセンター・スピーカーを重要な要素として捉えていますが、エンジニアの中にはセンター・スピーカーを使用しないという人もいます。そういうミキシングで、アーティストのイメージが反映されるのであれば、もちろん何も問題はないのです。ですので、自分自身のアイデアで、自分自身の手法を見つけてください。 充実の内容となった今回のセミナー。イマーシブサウンドという新たな世界観を自身のワークフローで昇華してさらに一歩先の結果を追い求めている様子がよくわかる。その中でも、アーティストの意図をしっかりと反映するためのミックスという軸は今も昔も変わっておらず、“ボブ・クリアマウンテン・サウンド”とされる名ミックスを生み出す源泉となっているように感じる。レジェンドによる新たな試みはまだまだ続きそうだ。 *ProceedMagazine2024号より転載
N響「第9」、最先端イマーシブ配信の饗宴。〜NHKテクノロジーズ MPEG-H 3D Audio 22.2ch音響 / NeSTREAM LIVE / KORG Live Extreme〜
年末も差し迫る2023年12月26日に行われた、NHKホールでのNHK交響楽団によるベートーヴェン交響曲第9番「合唱つき」のチャリティーコンサート。 その年の最後を飾る華やかなコンサートと同時に、NHKテクノロジーズ(NT)が主催する次世代を担うコンテンツ配信技術のテストだ。次世代のイマーシブ配信はどのようになるのか、同一のコンテンツをリアルタイムに比較するという貴重な機会である。その模様、そしてどのようなシステムアップが行われたのか、壮大なスケールで行われた実験の詳細をレポートする。 ●取材協力 ・株式会社NHKテクノロジーズ ・株式会社クープ NeSTREAM LIVE ・株式会社コルグ Live Extreme 3つのイマーシブオーディオ配信を同時テスト まずは、この日に行われたテストの全容からお伝えしたい。イマーシブフォーマット・オーディオのリアルタイム配信実験と言ってもただの実験ではない、3種類のフォーマットと圧縮方式の異なるシステムが使われ、それらを比較するということが行われた。1つ目は、次世代の放送規格としての8K MPEG-H(HEVC+22.2ch音響MPEG-H 3D Audio *BaselineProfile level4)の配信テスト。2つ目がNeSTREAM LIVEを使った、4K HDR(Dolby Vision)+ Dolby Atmos 5.1.4ch@48kHzの配信テスト。3つ目がKORG Live Extremeを使った、4K + AURO-3D 5.1.4ch@96kHzの配信テストだ。さらに、NeSTREAM LIVEでは、HDR伝送の実験も併せて行われた。イマーシブフォーマットのライブストリーム配信というだけでも興味深いところなのだが、次世代の技術をにらみ、技術的に現実のものとして登場してきている複数を比較するという取り組みを目にすることができるのは大変貴重な機会だと言える。 全体のシステムを紹介する前に、それぞれのコーデックや同時配信されたフォーマットなどを確認しておきたい。22.2chは、次世代地上デジタル放送での採用も決まったMPEG-H 3D Audioでの試験、NeSTREAM LIVEは、NetflixなどストリーミングサービスでのDolby Atmos配信と同一の技術となるDolby Digital Plusでの配信、KORG Live ExtremeはAURO-3Dの圧縮技術を使った配信となっている。圧縮率はNeSTREAM LiveのDolby Digital Plusが640kbps、次にMPEG-Hの22.2chで1chあたり80kbps。Live Extremeは10Mbps程度となっている。 映像についても触れておこう。22.2chと組み合わされるのは、もちろん8K HEVCの映像、NeSTREAM LIVEは同社初のチャレンジとして4K Dolby Visonコーデックによる4K HDR映像の配信テストが合わせて行われた。KORG Live Extremeは、4Kの動画となっている。次世代フォーマットであるということを考えると当たり前のことかもしれないが、各社イマーシブと組み合わせる音声として4K以上の動画を準備している。KORG Live Extremeでは、HPLコーデックによる2chバイノーラルの伝送実験も行われた。イマーシブの視聴環境がないという想定では、このようなサブチャンネルでのバイノーラル配信というのは必要なファクターである。ちなみに、Dolby Atmosであれば再生アプリ側でバイノーラルを作ることができるためこの部分に関しては大きな問題とならない。 IPで張り巡らされたシステムアップ 📷仮設でのシステム構築のため、長距離の伝送を絡めた大規模なシステムアップとなっている。DanteのFiber伝送、Riedel MediorNet、OTARI LightWinderが各種適材適所で使われている。また、できるかぎり信号の共有を図り、チャンネル数の多いイマーシブサウンド3種類をうまく伝送し、最終の配信ステーションへと送り込んでいるのがわかる。実際のミックスは、22.2chのバランスを基本にそこからダウンコンバート(一部チャンネルカット)を行った信号が使われた。 それでは、テストのために組み上げられた当日のシステムアップを紹介したい。NHKホールでのNHK交響楽団によるベートーヴェン交響曲第9番「合唱つき」のチャリティーコンサートは、ご存知の通り年末の恒例番組として収録が行われオンエアされている。その本番収録のシステムとは別に今回のテスト配信のシステムが組まれた。マイクセッティングについても、通常収録用とは別に会場のイマーシブ収録のためのマイクが天井へ多数準備された。ステージ上空には、メインの3点吊り(デッカベースの5ポイントマイク)以外にもワイドに左右2本ずつ。客席上空には22.2chの高さ2層のレイヤーを意識したグリッド上の17本のマイクが吊られていた。 📷客席上空に吊り下げられたマイク。田の字にマイクが吊られているのが見てとれる。これは22.2chのレイヤーそのものだ。NHKホールは放送局のホールということもあり、柔軟にマイクを吊ることができるよう設計されている。一般的なホールではなかなか見ることができない光景である。 マイクの回線はホール既設の音響回線を経由して、ホール内に仮設されたT-2音声中継車のステージボックスに集約される。ここでDanteに変換されたマイクの音声は、NHKホール脇に駐車されたT-2音声中継車へと送られ、ここでミックスが作られる。この中継車にはSSL System Tが載せられているおり、中継車内で22.2ch、Dolby Atmos準拠の5.1.4chのミックスが制作され出力される。ここまでは、KORG Live Extremeが96kHzでのテストを行うこともあり、96kHzでのシステム運用となっている。 22.2chと5.1.4ch@48kHzの出力は、MADIを介しRIEDEL MediorNetへ渡され、配信用のテスト機材が設置されたNHKホールの配信基地へと送られる。もう一つの5.1.4ch@96kHzの回線はOTARI Lightwinderが使われ、こちらもNHKホールの配信基地へと送られる。ホールの内外をつなぐ長距離伝送部分は、ホールから中継車までがDante。中継車からホールへの戻りは、MediorNetとLightwinderというシステムだ。それぞれネットワークケーブル(距離の関係からオプティカルケーブルである)でのマルチチャンネル伝送となっている。 📷T-2音声中継車とその内部の様子。 ホールの配信基地には22.2ch@MPEG-H、NeSTREAM LIVE、Live Extremeそれぞれの配信用のシステムがずらりと設置されている。ここでそれぞれのエンコードが行われ、インターネット回線へと送り出される。ここで、NeSTREAM LIVEだけは4K HDRの伝送実験を行うために、AJA FS-HDRによる映像信号のHDR化の処理が行われている。会場収録用のカメラは8Kカメラが使われていたが、SDRで出力されたためHDR映像へとコンバートが行われ、万全を期すためにカラリストがその映像の調整を行っていた。機械任せでSDRからHDRの変換を行うだけでは賄えない部分をしっかりと補正、さすが検証用とはいえども万全を期すプロフェッショナルの仕事である。 このようにエンコードされ、インターネットへと送出されたそれぞれのコーデックによる配信は、渋谷ではNHK放送センターの至近にあるNHKテクノロジーズ 本社で受信して視聴が行われるということになる。そのほか渋谷以外でも国内では広島県東広島芸術文化ホールくらら、海外ではドイツでの視聴が行われた。我々取材班は渋谷での視聴に立会いさせていただいたが、他会場でも問題なく受信が行えていたと聞いている。 📷上左)NHKホールの副調整室に設置された3つの配信システム。写真中央の2台並んだデスクトップのシステムは、KORG Live Extremeのシステムだ。上右)こちらが、NeSTREAM LIVEのDolby Atmos信号を生成するためのラック。ここでリアルタイムにDolby Digital Plusへとエンコードが行われる。下左)8K+22.2chを制作するためのPanasonic製レコーダー。8K 60Pの収録を可能とするモンスターマシンで収録が行われた。下右)NeSTREAM LIVEで使われたHDRの信号生成のためのラック。最上段のAJA FS-HDRがアップコンバートのコアエンジン。 それぞれに持つ優位性が明確に 実際に配信された3種類を聴いてみると、それぞれのメリットが際立つ結果となった。イマーシブというフォーマットの臨場感、このポイントに関してはやはりチャンネル数が多い22.2chのフォーマットが圧倒的。密度の濃い空間再現は、やはりチャンネル数の多さに依るところが大きいということを実感する。今回の実験では、ミキシングの都合からDolby Atmos準拠の5.1.4 chでの伝送となった他の2種の倍以上のチャンネル数があるのだから、この結果も抱いていたイメージ通りと言えるだろう。もう一つは、圧縮率によるクオリティーの差異。今回はKORG Live Extremeが96kHzでの伝送となったが、やはり低圧縮であることの優位性が配信を通じても感じられる。NeSTREAM LIVEについては、現実的な帯域幅で必要十分なイマーシブ体験を伝送できる、現在のテクノロジーレベルに一番合致したものであるということも実感した。その中でDolby Visionと組み合わせた4K HDR体験は、映像のクオリティーの高さとともに、音声がイマーシブであることの意味を改めて感じるところ。Dolby Vision HDRによる広色域は、映像をより自然なものとして届けることができる。それと組み合わさるイマーシブ音声はより一層の魅力を持ったものとなっていた。 前述もしているが、それぞれの配信におけるオーディオコーデックの圧縮率は、NeSTREAM LIVEのDolby Digital Plusが640kbps、次にMPEG-Hの22.2chが1chあたり80kbps。Live Extremeは10Mbps程度となっている。このように実際の数字にしてみると、NeSTREAM LIVEの圧縮率の高さが際立つ。640kbpsに映像を加えてと考えると、現時点ではこれが一番現実的な帯域幅であることは間違いない。 ちなみに、YouTubeの執筆時点での標準オーディオコーデックはAAC-LC 320kbpsである。言い換えれば、NeSTREAM LIVEはこの倍の帯域でDolby Atmosを配信できるということである。KORG Live Extremeにおける96kHzのクオリティーは確かに素晴らしかった、しかし10Mbpsという帯域を考えると多数へ行なわれる配信の性格上、汎用的とは言い難い一面も否めない。しかしながらプレミアムな体験を限定数に、というようなケースなど活用の可能性には充分な余地がある。22.2chのチャンネル数による圧倒的な体験はやはり他の追従を許さない。8K映像と合わせてどこまで現実的な送信帯域にまで圧縮できるかが今後の課題だろう。22.2ch音響を伝送したMPEG-H 3D Audioは任意のスピーカーレイアウトやバイノーラル音声に視聴者側で選択し視聴することができる。22.2ch音響の臨場感を保ったまま、視聴者の様々な環境で視聴することが可能となる。AVアンプやサウンドバー、アプリケーションなどの普及に期待したい。 このような貴重な実験の場を取材させていただけたことにまずは感謝申し上げたい。取材ということではあったが、各種フォーマットを同時に比較できるということは非常に大きな体験であり、他では得ることのできない大きな知見となった。伝送帯域やフォーマット、コーデックによる違い、それらを同一のコンテンツで、最新のライブ配信の現場で体験することができるというのは唯一無二のこと。これらの次世代に向けた配信が今後さらに発展し、様々なコンテンツに活用されていくことを切に願うところである。 *ProceedMagazine2024号より転載
DDM + AWS + WAVES クラウドミキシング / Dante Domain Managerでインターネットを越えるIP伝送
Ethernetを活用したAudio over IP(AoIP)伝送の規格、Dante。すでに設備やPAなど様々な分野でその活用が進んでいるこのDanteは、ローカルネットワーク上での規格となるため遠隔地同士の接続には向いていなかった。遠隔地への接続は低レイテンシーでの伝送が必要不可欠、そのためネットワーク・レイテンシーに対する要求はシビアなものとなる。これを解決するために、Danteの開発元であるAudinateが「インターネットを越えるDante」という、新しい一歩のためにDDM=Dante Domain Managerを利用する仕組みを完成させている。 DDM=Dante Domain Manager ご存知の通り、Danteはローカルネットワーク上で低遅延のAoIPを実現するソリューションである。ローカルでの運用を前提としたDanteをInternetに出そうとすると、ネットワーク・レイテンシーが問題となり上手くいかない。それもそのはず、ローカルでの運用を前提としているため、最長でも5msまでのレイテンシーしか設定できないからである。このレイテンシーの壁を取り払うために最近活用が始まったのが、DDM=Dante Domain Managerである。 このソリューションは、単一IPセグメントの中での運用に限定されているDanteを、さらに大規模なシステムで運用するために作られたもの。ドメインを複数作成することでそれぞれのドメイン内でそれぞれがローカル接続されているかのような挙動をするものとしてリリースされた。例えば、2つのホールを持つ施設で、すべてのDante回線を同一のネットワークとすれば、それぞれの場所も問わず任意のDante機器にアクセスできる、という柔軟性を手に入れることができる。しかし、それぞれのホールにあるすべてのDante機器が見えてしまうと煩雑になってしまう。それを解決するためにDDMを導入してそれぞれのホールを別々のドメインとし、相互に見えてほしいものだけを見えるようにする。このような仕組みがDDMの基本機能である。 AWS上でDDMを動作しレイテンシー回避 このようなDDMの機能を拡張し、インターネットを越えた全く別のドメイン同士を接続するという仕組みが登場している。DDM上でのレイテンシーは40msまで許容され、遠隔地同士だとしても国内程度の距離であれば問題なく接続することが可能となっている。この場合には、送り手、受け手どちらかの拠点にDDMのアプリケーションが動作しているPCを設置して、そこを中継点として伝送を実現するというイメージである。ただし、世界中どこからでも、というわけにはいかない。なぜなら40msというネットワークレイテンシはそれなりに大きな数字ではあるが、回線のコンディション次第ではこの数字を超えるレイテンシーが発生する可能性があるからだ。 この40msを超えるネットワークレイテンシーの改善のためにクラウドサービスを活用するという仕組みも登場している。これはAWS上でDDMを動作させることで、CDNのように分散ネットワーク処理をさせてしまおうという発想だ。ローカルのDante機器は同一国内、もしくは近距離でレイテンシーについて問題がないAWSサーバーで動作するDDMへと接続される。AWS上では世界各地のAWSサーバー同士が同期されているため、その同期されたデータと受け取り先のローカルが、許容レイテンシー内のAWSサーバー上のDDMと接続することでその遅延を回避するという仕組みだ。この仕組みにより、世界中どこからでもDanteを使ったオーディオ伝送が実現されるというわけだ。 📷IBC2023 Audinateブースでの展示は、ロンドンのAWS上で動作するWAVES Cloud MXが動作していた。右の画面にあるようにAudinateでは世界中のAWSを接続しての実証実験を行っている。 WAVES Cloud MXでクラウドミキシング 2023年に入ってからは、このAWS上でDDMが動作するということで、WAVES Cloud MXと連携しての展示がNAB / IBC等の展示会で積極的に行われている。ローカルのDanteデバイスの信号をAWS上のDDMで受け取り、その信号を同一AWS上のWAVES Cloud MXが処理を行うというものだ。ただし、オーディオのクラウドミキサーはまさに始まったばかりの分野。クラウド上にオーディオエンジンがあるということで、どのようにしてそこまでオーディオシグナルを届けるのか?ということが問題となる。DDMはその問題を解決しひとつの答えを導いている。 📷画面を見るだけではクラウドかどうかの判断は難しい。しかしよく見るとeMotion LV1がブラウザの内部で動作していることがわかる。オーディオ・インターフェースはDante Virtual Soundcard、同一AWS内での接続となるのでレイテンシーの問題は無い。 ここで、WAVES Cloud MXについて少しご紹介しておこう。WAVES Cloud MXはプラグインメーカーとして知られるWAVES社がリリースするソフトウェアミキサーのソリューションである。WAVESはeMotion LV1というソフトウェアミキサーをリリースしている。WAVESのプラグインが動作するオーディオミキサーとして、中小規模の現場ですでに活用されているPAミキサーのシステムだ。このソフトウェアをAWS上で動作するようにしたものが、WAVES Clod MXである。ソフトウェアとしてはフル機能であり、全く同一のインターフェースを持つ製品となる。プラグインが動作するのはもちろん、ネットワークMIDIを活用しローカルのフィジカルフェーダーからの操作も実現している。どこにエンジンがあるかを意識させないレイテンシーの低い動作は、クラウド上でのビデオ・スイッチャーを手掛ける各メーカーから注目を集め、NABではSONY、GrassValleyといったメーカーブースでの展示が行われていた。Audioの入出力に関しては、NDI、Danteでの入出力に対応しているのがローカルでのeMotion LV1システムとの一番の違い。ローカルのeMotion LV1では、同社の作った規格であるSoundGridでしかシグナルの入出力は行えない。 WAVESの多彩なプラグインを活用できるため、例えばDanDuganのAutomatic Mixerを組み込んだり、トータルリミッターとしてL3を使ったりと、様々な高度なオーディオ・プロセッシングを実現できている。これは、クラウド上でのビデオ・スイッチャーが持つオーディオ・ミキサーとは別格となるため、その機能を求めてメーカー各社が興味を持つということに繋がっている。Clarity Vxのようなノイズ除去や、Renaissanceシリーズに代表される高品位なEQ、Compの利用を低レイテンシーで行うことができるこのソリューションは魅力的である。その登場当時はなぜクラウドでオーディオミキサーを?という疑問の声も聞かれたが、ここはひとつ先見の明があったということだろう。 世界中どこからの回線でもミックスする クラウド上でのビデオ・スイッチャー、クラウドミキサーのソリューションは、そのままクラウド上で配信サービスへ接続されることを前提としてスタートしている。ローカルの回線をクラウド上で集約、選択して、そのまま配信の本線へと流す。非常にわかりやすいソリューションである。その次のステップとして考えられているのが、遠隔地同士の接続時に、回線をステム化して送るというソリューション。送信先の機材量を減らすという観点から考えれば、これもひとつの回答となるのではないだろうか。ローカルからは、完全にマルチの状態でクラウドへ信号がアップされ、クラウド上でステムミックスを作り、放送拠点へとダウンストリームされる。クラウド上で前回線のバックアップレコーディングを行うといったことも可能だ。インターネット回線の速度、安定性という不確定要素は常に付きまとうが、現場へ機材を持ち込むにあたっての省力化が行えることは間違いないだろう。 前述の通り、DDMを活用したこのシステムであれば、世界中どこからの回線でもミックスすることが可能である。さらに世界中どこからでもダウンストリームすることができる。国際中継回線など、世界中に同一の信号を配るという部分でも活用が可能なのではないだろうか?オリンピック、ワールドカップなどの大規模なイベントで、世界中の放送局へ信号配信する際にも活用が可能なのではないか、と想像してしまう。IPの優位点である回線の分配というメリットを享受できる一例ではないだろうか。 📷IBC2023 SONYブースにもWAVES Cloud MXが展示されていた。SONYのクラウド・ビデオ・スイッチャーのオーディオエンジンとしての提案である。こちらではDDMではなくNDIを使ってのオーディオのやり取りがスイッチャーと行われていた。手元に置かれたWAVESのフィジカルコントローラー「FIT Controller」はクラウド上のミキシングエンジンを操作している。 まだ、サービスとしてはスタートしたばかりのDDMとAWSを活用した遠隔地の接続。その仕組みにはDante Gatewayなどが盛り込まれ、同期に関してもフォローされたソリューションができあがっている。これらのクラウドを活用したテクノロジーは加速度的に実用化が進みそうである。 *ProceedMagazine2023-2024号より転載
TOA ME-50FS / スピーカー原器、その違いを正確に再生できる装置を
長さを測るためには、その長さの基準となるメートル原器と呼ばれる標準器が必要。重さを測るのであれば同様にキログラム原器が必要となる。では、スピーカーにとっての基準、トランスデューサーとしての標準はどこにあるのか?そのスピーカーの標準器を目指して開発されたのがTOAのME-50FSだ。非常放送用のスピーカー、駅のホームのスピーカーなど生活に密着した音響設備を作るTOAが、これまでの知識と技術をすべてを詰め込んで作り上げた究極のアナログ・スピーカーである。1dB、1Hzの違いを聴き分けられるスピーカー、その実現はデジタルではなく、むしろアナログで開発しないと達成できないことであったと語る。そのバックグラウンドとなるさまざまな基礎技術、要素技術の積み上げはどのような現場で培われたのだろうか?そして、その高品位な製品はどのように作られているのか?研究開発拠点であるナレッジスクエアと、生産拠点であるアコース綾部工場に伺ってその様子をじっくりと確認させていただいた。 TOA ME-50FS 価格:OPEN / 市場想定価格 ¥2,000,000(税込:ペア) ・電源:AC100V ・消費電力:30W ・周波数特性:40Hz~24kHz (-6dB) ・増幅方式:D級増幅方式 ・エンクロージャ形式:バスレフ型 ・使用スピーカー 低域:10cm コーン型×2 高域 : 25mmマグネシウムツイーター ・アンプ出力:250W ・アンプ歪率:0.003% ・最大出力音圧レベル:104dB ・仕上げ:木製(バーチ合板) ウレタン塗装 ・寸法:290(幅)× 383(高さ)× 342(奥行)mm( 突起物除く) ・質量:約15kg(スピーカー本体1台の質量) 実は身近に必ずあるTOA製品 皆さんはTOAという会社をご存知だろうか?日本で暮らしているのであれば、TOAのスピーカーから出た音を聴いたことが必ずあるはずだ。駅のホーム、学校の教室、体育館、あなたの働いている会社の非常放送用のスピーカーもTOAの製品かもしれない。まさに生活の一部としてさまざまな情報を我々に音で伝えるためのスピーカーメーカー、それがTOAだ。 TOAの創業は、1934年と国内では老舗の電機メーカーである。創業時の社名は東亜特殊電機製造所。神戸に誕生し、マイクロフォンの製造を手掛けるところからその歴史はスタートしている。マイクロフォンと言っても現在一般的に使われている形式のものではなく、カーボンマイクロフォンと呼ばれる製品だ。これは世界で初めてエジソンが発明したマイクロフォンと同じ構造のものであり、黒電話など昔の電話機に多く使われていた形式である。周波数特性は悪いが、耐久性に優れ高い感度を持つため1980年代まで電話機では普通に使われていた。現在でも電磁波の影響を受けない、落雷の影響を受けない、低い電圧(1V程度)で動作するなどの特長から可燃物の多い化学工場や軍事施設など一部のクリティカルな現場では現役である。 このマイクロフォンは、その名の通り、カーボン(炭素)を必要とする製品である。時代は戦時中ということもあり、良質なカーボンを入手することが難しく、なんと砂糖を焼いてカーボンを作ったという逸話が残っている。要は砂糖を焦がした炭である。砂糖が贅沢品であった時代に、この工場からは一日中甘い匂いがしていたそうだ。 次に手掛けたのが、拡声装置。中でも「東亜携帯用増幅器」は、小型のトランクケースに増幅器とスピーカーを内蔵し、持ち運びのできる簡易拡声器として人気があったそうだ。他にもレコード録音装置などさまざまな音響製品を生み出していった同社だが、中心となったのは、拡声装置(アンプとスピーカー)であり、その専業メーカーとして発展をしていく。拡声装置のスピーカーとして当時使われていたのが、ホーン型のスピーカー。ドライバーユニットに徐々に広がる筒、ストレートホーンを取り付けたものである。この筒の設計により、特定の周波数の音を大きく、遠くまで指向性を持たせて届けることができるという特徴を持っている。 TOAが大きく発展するきっかけとなったのがこのホーンスピーカー。現在一般的に使われているホーンスピーカーは、リスニング用途の半円錐状のものを除けばほとんどが折り返し式ホーン。メガホンや、拡声器、選挙カーの屋根などについているものがそれである。この折り返し式ホーンはレフレックストランペットとも呼ばれる。ストレートホーンを折りたたんだ構造をしているため、全長を短くすることができ、さらにはドライバーユニットが奥まった位置にあるため防滴性能を獲得、屋外で使うにあたり優れた特徴を持っている。 このトランペットスピーカーは戦後の急速な復興に併せて大きな需要があった。同社は、黒や灰色の製品ばかりのこの市場に鮮やかな青く塗られたトランペットスピーカーを登場させ、その性能の高さも相まって高い人気を博した。青いトランペットをトレードマークに「トーアのトランペット」「トランペットのトーア」と呼ばれるまでに成長を遂げる。 1957年には、世界初となるトランジスターメガホンを発売。女性でも一人で持ち運べる拡声器としてエポックメイキングな製品となった。旅行先などでガイドさんが使っているのを記憶している方も多いのではないだろうか。いまでも、選挙の街頭演説などで見かけたりするメガホンのルーツが実は「トランペットのトーア」にある。 積み重ねた技術を音響の分野へ 1964年の東京オリンピックでは、全面的にトーアのスピーカーが使われた。東京オリンピックの開会式では世界で初めてトラック側から客席に対してPAするということが行われ、当時主流であった観客後方となるスタジアムの外側からではなく、客席に対して正対する方向からのPAは高い評価を受けた。これには、プログラムの演目に合わせてスピーカーを3分で移動させなければならない、など影の努力がかなりあったとのこと。スポーツ関連はこれをきっかけに国内のさまざまな競技場への導入が進み、お膝元である阪神甲子園球場やノエビアスタジアム神戸をはじめ全国各地でTOA製品が採用され、海外でもウィンブルドンのセンターコートなど数多くの採用実績を誇る。まさにPA=公衆拡声の技術力の高さを感じるところ。遠くまで、多くの人に明瞭な音を届ける。これを実践しているメーカーであると言えるだろう。 また、神戸のメーカーということもあって1970年の大阪万博開催の際には各所で「音によるおもてなし」を行う自動放送システムなど多くの新技術がお披露目された。この自動放送システムは、1975年の京成電鉄成田駅を皮切りに全国への導入が進んでいく。当時は、高価だったメモリーを使ったシステムでサンプラーの原型のようなものを作り、プログラム動作させていたということ。現在、駅で当たり前に流れてくる自動音声による案内放送のルーツとなるものだ。 1985年ごろからは、コンサート用のPAスピーカー、ライブハウスやディスコなどに向けたPAシステムも手掛けるようになる。これまでの「多くの人に明瞭な音を伝える」ということに加えて音質、音圧、さらには、長時間駆動しても壊れない耐久性を持った製品を開発していくことになる。ツアースピーカーには「Z-Drive」という名前が与えられ、大規模なライブ会場や屋外イベントで使われるようになる。そして、さまざまな現場に導入されるスピーカーのチューニングを行うために、世界初となるDSPを使ったサウンドデジタルプロセッサー「SAORI」を誕生させる。 この当時デジタルエフェクターは登場していたが、イコライザーやディレイ、コンプレッサーなどでサウンドチューニングをするためのデジタルプロセッサーはTOAが世界で最初に製品化をしている。このプロセッサーは主に設備として導入されるスピーカーの明瞭度を上げるためのチューニングに使われており、今では当たり前になっているDSPによるスピーカーチューニングの原点がここにある。デジタルコンソールに関しても1990年にix-9000というフルデジタルコンソールをウィーン国立歌劇場のトーンマイスターたちとともに作り上げた。音楽という芸術を伝え、楽しむためのスピーカー、そういった分野へのチャレンジも行われてきたことがわかる。 そして、TOAの中心となるもうひとつの分野が非常用放送設備。火災報知器に連動して室内にいる人々に警告を発したり、業務用放送を非常放送に切り替えたりという、国内では消防法で定められた多くの公共空間に設置されている設備である。人の命を守る音、「聞こえなかった」ということが人命に関わる重要な設備だ。今回お話を伺った松本技監が、「TOAの作る音は音を楽しむ(音楽)ためのものではなく、人の命を守る「音命(おんみょう)」だと再三に渡り言われていたのが印象的。耐火、耐熱性を持たせたスピーカーの開発、アンプ等の放送設備の耐久性・堅牢性へのこだわり、そのようなクリティカルな現場で培われた製品の品質、人命という何よりも重いものを預かる使命に基いた製品の製造を行ってきたということがTOAのもう一つの顔である。 TOA製品に息づくスピリット さまざまな分野へのチャレンジスピリット、そして非常用設備に始まる失敗の許されない現場への製品供給、そんな土台があったからこそオリンピックや万博などでの成功があったと言える、まさに設備音響としてのトップブランドの一つである。そのチャレンジスピリットを象徴するものとして「超巨大PA通達テスト」についてのお話を伺えた。 音を遠くまで届けるということは、一つのテーマである。その実験のために、口径3メートル、全長6.6メートルという巨大なストレートホーンを製作。巨大なアンプとドライバーにより、音をどれほど遠くまで届けることができるかをテストした。もちろん街中では行うことができないため、いま明石海峡大橋があるあたりから淡路島に向けて実験を行ったということだから驚きだ。おおらかな時代でもあったということもあるが、対岸の淡路島の海岸線沿いにスタッフを配置し、どこまで聴こえているかを試したということだ。もう一回は、比叡山の山頂から琵琶湖に向けてのテストがあったとのこと。この際も琵琶湖の湖畔でどこまで音が聴こえるかを試したということだ。そのテスト結果はなんと最長到達距離12km!もちろん、風などの影響も受ける距離となるが、このような壮大な実験を国内で行ってしまう先達の技術者による挑戦に感銘を覚える。 写真撮影は許可されなかったが、クリティカルな現場に向けて行われる製品テスト用設備の充実度はさすがの一言。基本的に耐久テストは、壊れるまで行うということを基本に、実際の限界を確認しているということだ。電力に対する負荷テストはもちろん、現代社会にあふれる電波、電磁波に対する試験を行うための電波暗室、物理的な耐久性を確かめるための耐震テスト、真水や塩水を製品にかけ続ける耐水、耐塩水テストなど、本当にここは電気製品を作っているところなのかと疑うレベルのヘビーデューティーな試験施設が揃っていた。 これも「音命」に関わる重要な設備、肝心なときに期待通りの動作が求められる製品を作るための重要な設備である。筆者も初めての体験だったが、電波暗室内では外部からの電磁波を遮断した状況下で、製品に電子銃で電波を当ててその動作を確認している。これは対策が脆弱な一般レベルの電子機器であれば動作不良を起こす状況で、どこまで正常動作を行えるか?影響の少ない設計にするにはどうすればよいか?昨今話題になることの多いEMS障害などへの影響を確認しているということだ。また、この実験設備の一室には工作室があり、用意された木工、金属加工などさまざまな工具で製品のプロトタイプは自分たちで作るという。まず、自らの手による技術と発想で課題解決に挑戦するという文化がしっかりと残っており、このような姿勢はTOAすべての製品に息づいているということだ。 スピーカー原器を作ろうという取り組み 東亜特殊電機製造所からスタートし、現在ではTOAとして国内の非常用放送設備のシェア50%、公共交通機関の放送設備や設備音響のトップブランドとなった同社が、なぜここに来てリファレンスモニタースピーカーを発表したのだろうか?もちろん、Z-Driveというコンサート向けのPAシステム、ウィーン歌劇場に認められたフルデジタルコンソールix-9000など伏線はあったものの、これまで、リスニング用・モニター用のスピーカーはリリースしてこなかった。 色々とお話を伺っていくと、TOAでは社員教育の一環として「音塾」というものを実施しているということだ。ここでは、社員に音に対する感性を養ってもらうためのさまざまなトレーニングを行い、1dBの音圧の違いや1Hzの周波数の違いを聴き分けられるようになるところまで聴覚トレーニングを行っているという。 ここで問題となっていたのが、人はトレーニングをすることで聴覚を鍛えることができるのだが、その違いを正確に再生できる装置がないということだ。物理的、電気的、さまざまな要因により、スピーカーには苦手な再生周波数や出力レベルが存在する。わかりやすいところで言えば共振周波数や共鳴周波数による影響である。もちろんそれだけではなく、他にもさまざまな要因があり理想とする特性を持ったスピーカーがない。そこで作り始めたのがこのME-50FSの原型となるプロトタイプの製品。まさに標準器となるスピーカー原器を作ろうという取り組みである。 デジタルの第一人者によるフルアナログ 📷右より3人目がこのプロジェクトの中心人物の一人となる松本技監。 このプロジェクトの中心人物の一人が今回お話をお伺いした松本技監。TOAの歴史の中で紹介した世界初のDSPを用いたサウンドデジタルプロセッサー「SAORI」やツアースピーカー「Z-Drive」を開発した中心人物の一人で、音声信号のデジタル処理やスピーカーチューニングに関する第一人者とも言える方である。この松本技監が究極のスピーカー製作にあたり採用したのがフルアナログによる補正回路である。デジタルを知り尽くしているからこそのデジタル処理によるデメリット。そのまま言葉を借りるとすれば「デジタル処理は誰もが簡単に80点の性能を引き出せる、しかしそれ以上の点数を取ることができない」ということだ。 デジタルとアナログの大きな違いとしてよく挙げられるのが、離散処理か連続処理か、という部分。デジタル処理を行うためには、数値でなければデジタル処理できないということは皆さんもご理解いただけるだろう。よって、必ずサンプリングという行程を踏んで数値化する必要が絶対的に存在する。しかし、連続性を持った「波」である音声を時間軸に沿ってスライスすることで数値化を行っているため、どれだけサンプリング周波数を上げたとしても「連続性を失っている」という事実は覆せない。ほぼ同等というところまではたどり着くのだが、究極的なところで完全一致はできないということである。 もう一つはデジタル処理が一方通行であるということだ。ご存知かもしれないが、スピーカーユニットは磁界の中でコイルを前後に動かすことで空気振動を生み出し音を出力している。このときに逆起電流という現象が発生する。動いた分だけ自身が発電もしてしまうということだ。これにより、アンプ側へ逆方向の電流が流れることとなる。デジタル処理においては逆方向のプロセスは一切行われない。しかしアナログ回路であれば、逆方向の電流に対しても適切な回路設計を行うことができる。 通常のスピーカー設計では影響のない範囲として捨て置くような部分にまで目を向け、その設計を突き詰めようとした際にどうしてもデジタルでは処理をしきれない領域が生まれる。ME-50FSでは、このようなことをすべて解決させるためにフルアナログでの設計が行われているわけだ。DSPプロセッサーの生みの親とも言える松本技監がフルアナログでの回路設計を行うということで、松本氏をよく知る仲間からは驚きの声が聞かれたそうだ。しかしその裏には、デジタルを知り尽くしているからこそのアナログであるという徹底したこだわりがある。デジタル処理ではどうしてもたどり着けない限りなく100点に近い、理想の性能を追い求めるための究極とも言えるこだわりが詰まっている。 こんなことをしている製品は聞いたことがない ME-50FSにおける設計思想は「スピーカーユニットをいかに入力に対して正確に動かすか」という一点に集約されている。低域再現などにおいて38cmウーハーなど大型のユニットが使われることも多いが、動作させる質量がサイズに比例して大きくなってしまうためレスポンスに優れなくなってしまう。動作する物体の質量が多ければそれだけその動きを止めるための力が必要ということだ。この問題に対してME-50FSでは10cmという小さなスピーカーユニットを採用することにした。口径は小さくしたものの、一般的な製品の3倍程度のストロークを持たせることでその対策がとられている。その低域の再生に抜かりはなく、バスレフ設計のエンクロージャーの設計と合わせて、40Hz(-6dB)という10cmユニットとしては驚異的な低域再生能力を獲得している。スピーカーユニットの質量を減らすことで理想に近い動作を実現し、ストロークを稼ぐことで正確な空気振動を生み出している。 これを実現するためのスピーカーユニットは、後述する自社工場であるアコース綾部工場で製造される。スピーカーユニット単品からコイルの巻数など、微細な部分まで専用設計にできるのが国内に工場を持つメーカーとしての強みである。さらに、専用設計となるこのスピーカーユニットは、実際にスピーカーユニット一つ一つの特性を測定しシリアルナンバーで管理しているということだ。大量生産品では考えられないことだが、ユニットごとの微細な特性の差異に対してもケアがなされているということだ。究極のクオリティを求めた製品であるというエピソードの一つである。修理交換の際には管理されたシリアルから限りなく近い特性のスピーカーユニットによる交換が行われるということ。こんなことをしている製品は聞いたことがない。 理想特性を獲得するための秘密兵器 この製品の最大の特徴となるのが各スピーカーに接続されたボックス。ここにはアナログによるインピーダンス補正回路が組み込まれている。話を聞くとアンプからの入力信号に対して、シンプルにパラレルで接続されているそうだ。まさにフルアナログでの理想特性を獲得するための秘密兵器がここである。アナログ回路であるため、中を覗いても抵抗、コンデンサー、コイルがぎっしりと詰まっているだけであり特別なものは一切入っていない。この回路によってME-50FSは理想的な位相特性、インピーダンス特性を獲得しているのだが、そのパーツ物量は一般的なスピーカーのそれを完全に逸脱している。「インピーダンス補正回路」とTOAが呼ぶこのボックスは、過去の試作基板と比べるとかなり小さくなっているそうで、実際にナレッジスクエアで見せてもらったのだが、4Uのサーバーか?と思わせるような巨大なものであった。ステレオ2ch分の回路が入っているからということではあったが、それにしても大きい。 📷ME-50FSの最大の特徴とも言えるインピーダンス補正回路のプロトタイプ。左右2ch分が一つのボックスに収まっている。これを上写真の赤いボックスにまでサイズダウンして現在の形状に収めている。 「インピーダンス補正回路」の内部のパーツはフルアナログということもあり、前述の通り抵抗、コンデンサー、コイルである。そしてそれぞれのパーツは理想の特性を求めるために吟味を重ねたもの。わかりやすく言えば、コイルは理想の数値を持ったワンオフで自社制作されたもの。抵抗は耐圧の高いメタルクラッド抵抗で、抵抗が特定の周波数以上で持つインダクタンスの影響がスピーカーとして出ないよう無誘導巻のものを用い、大入力に耐えるため熱容量に余裕のある大型のものが使われている。また、コイルは磁界を発生させるため、それらが相互に影響を及ぼさないように基板上の磁界にまで気を配り、縦横、一部のパーツは高さを変えて各パーツを配置。この結果、完全に手作業での製作となることは目に見えているが、究極のスピーカーを作るためには必要なことだというのがスタンスだ。 こういったポイント一つ一つ、すべてにおいてエビデンスのある技術を採用している。オーディオ業界においては非常に多くのプラシーボが存在しているが、良くも悪くも感覚的なものが多くを占める聴覚に頼ったものだからこその出来事。それを楽しむのも一興ではあるのだが、メーカーとして究極を追い求める際にそれらプラシーボは一切排除しているということだ。すべての設計、パーツの取付一つにおいても、すべてにおいて裏付けのある理由があり、必要であればそのエビデンスも提供できるようになっているということである。 スピーカーとしての完全体 こだわりの結晶体とも言えるこのスピーカー。そのポイントを挙げ出したらきりがないのだが、もう一つだけ紹介しておこう。「インピーダンス補正回路」とスピーカー本体を接続するケーブル。これもケーブル自体の持つインダクタンスの値を計算し、スピーカー内部でパラレルに接続される箇所までの長さをミリメートル単位で計算してケーブル長が決められている。設置しやすいように、などという発想ではなくエビデンスに基いた理想の長さということで設計が行われている。 内蔵されるパワーアンプはClass Dのものが採用されている、これも理想の特性を追い求めて選択されたものだ。このClass Dアンプモジュールの選定においても、TOA社内専門家による技術評価および各種測定、耐久力試験に加え、長期間の運用及び試聴評価を経て厳選されたものが使われている。ME-50FSでは、ひとつの理想のパッケージとしてパワーアンプを内蔵としているが、ユーザーにも少しの遊びを許しているポイントがある。それが、スピーカー背面にあるスピーカーI/O端子。Lineレベルの入力であれば、内臓のパワーアンプを介してスピーカーが駆動されるのだが、内蔵のパワーアンプを切り離し、外部のパワーアンプからの入力も持っているということだ。パワードスピーカーとしてはかなり珍しい設計ではないだろうか? これこそ、このスピーカーに対する自信の現れとも言える。メーカーとしての完全なるパッケージとしての究極は、もちろん内蔵アンプであることは間違いない。しかし、外部アンプの入力を受け付けるということは、外部アンプが持つ実力を100%引き出せる「測定器」としての側面を持つスピーカーであるということでもある。一般的なパワードスピーカーではユニットの特性を補正するためにアンプ自体の出力に癖を持たせるということは少なくない。完全アナログで仕立てられたME-50FSは、どのような入力が来たとしても完全に理想的な動作をするという「スピーカーとしての完全体」を体現しているのである。 アコース綾部工場 TOAの国内の製造拠点であるアコース綾部工場。すでに大量生産品はインドネシアの工場に移行しているが、ハイエンド製品、少量生産品などは国内でひとつずつ手作業で作られている。アコース株式会社はTOA株式会社のグループ企業で、プロオーディオ機器の開発、設計、生産、出荷までを行っている。綾部工場は木工加工を中心にプロオーディオ機器を生産する拠点。もう一つの米原工場は、エレクトロニクス、電子回路などの生産を行っている。2つの工場双方ともに多品種小ロットの生産に適した工場である。 ・Made in Japan!日本のものづくり 綾部工場は、京都府の綾部市にある。明智光秀で一躍有名になった福知山市の隣町で旧丹波国となる。もう少し行けば日本海に面した若狭湾、舞鶴港というあたりで、大阪から100km圏であり舞鶴若狭道で1時間強で行くことができる場所。実際のところかなりの田園風景が広がっているのだが、高速が通ってからは工業団地ができたりとそれなりの発展もしている街である。完全に余談ではあるが筆者の出生地はこの綾部市であり馴染みの深い土地である。 このアコース綾部工場は、木工加工を中心とした生産拠点ということでスピーカーエンクロージャーの生産がその中心となる。まずは、その木工加工の現場を見せていただいた。切り出し用のパネルソーや多品種小ロットの生産のためとも言えるNCルーター。多軸、かつデュアルヘッド仕様なので、複雑な加工をスピーディーに行うことができる。プログラムを読み込ませて専用の治具に材木をセットすれば、複雑化形状もあっと言う間に削り出していく。設計で想定した通りの材料がここで切り出されることとなる。 切り出された材料は塗装工程へと回される。長いレールにぶら下げられ人の手により塗装が行われる。低温で一度乾燥させた後に一度冷やし、2階部分にある高温の乾燥室へと送られる。やはりスピーカーエンクロージャーの塗装ということで黒に塗ることが多いのだろう、飛散した塗料で黒くなったこの空間は、この工場でも印象的な空間であった。ここでは、特殊塗料による塗装など、やはり小ロット多品種に対応した工程が行えるようになっている。特別色等の特注製作などもこの工場があるからこそ実現できるということだ。 次に見せていただいたのが、スピーカーの組み立ての現場。さすがにコーン紙、フレームなどは別のところで作ったものを持ってきているとのことだが、スピーカーの心臓部とも言えるマグネットとコイルはここで作っている。巨大な着磁機が並び、製品に応じた素材に対して着磁を行いマグネットを作っている。自社で製造できるということは、磁界強度、サイズなども自由自在ということだ。そして、コイルの製作に使うコイル巻き機。アナログなこの機械はどうやら自分たちで手作りしたようだという。生産に必要なものがなければ作ってしまおうという、まさに職人魂が垣間見える。 📷(左上)スピーカーを駆動するための磁石を作るための着磁機。製造する磁石のサイズに合わせ機械がずらりと並ぶ。(右上)ボイスコイルを巻くための専用機械。過去の先達の手作りであろうということだ。(左下)完成したボイスコイル。これが、コーン紙に貼られスピーカーとなる。(右下)スピーカーユニットの組立工程。コーン紙を専用の器具で接着している。 実際にコイルを巻くところを見せていただいたのだが、スピーカーコイル用の特殊な形状の素材が使われていた。一般的な丸い線材ではなく、きしめん状の平たい銅線で巻いた際に固着するようアルコールで溶ける特殊な溶剤がコーティングされている。このきしめん状の銅線にアルコールを湿らせながら巻いていくことで、巻き終わったコイルは筒状のコイルとなる。一つずつ職人が巻いていくことで巻数は自由。ボビンの経を変えたり、線材の太さを変えることでさまざまな形状のボイスコイルを作ることが可能だ。この機械で巻き終わったコイルは、焼入れを行うことで、さらにしっかりと固着されてユニット組立工程へと渡される。ツイーター等のメタルドームもここで一つずつ手作業でプレスして整形されている。さすがにこの板金用の金型は自社製造ではないということだが、製品ごとさまざまな形状の金型がずらりと準備されていた。組立工程では一つずつ専用の治具を使いエッジ、コーン紙の貼り合わせ、ボイスコイルの接着、フレームの取付などが、ひとりの職人の手によって行われる。 次が組み立ての工程。塗装の終わったエンクロージャーにユニット、キャビネットグリル、ネットワーク回路などのパーツを組み込み、梱包までを一気に行っている。大量生産のラインであれば何人もが担当するような作業を、一人でしかも手作業で行っている。多品種小ロットということで、毎日異なる製品を組み立てているのだが、間違いのないように常にマニュアルが開かれ、工程ごとにページを捲りながら作業を進めていた。組み立てられて梱包される前には、もちろんしっかりと所定の性能が出ているかチェックがなされる。これぞMade in Japan!日本のものづくりの現場を見た思いである。 ・綾部という地をスピーカー製造の聖地に 整然と整えられたパーツ庫は、言わばTOAプロオーディオ製品の生まれ故郷。常に数万種類のパーツがストックされ、入念な生産計画に沿って生産が行われているということだ。写真を見ていただければわかるのだが、驚くほどこれらの工程に関わる職人は少ない。自動化できるところは機械に頼り、多品種に対応するため複雑な工程では、一人ひとりが多くの工程をこなすことで、少人数による生産を実現している。管理部門も含めた従業員数は28名、まさにプロフェッショナルの集団と言えるだろう。 このアコース綾部工場では、試作機の製造なども行っている。どのようなカスタムパーツも作ることができるこの拠点があるからこそ、TOAではさまざまな試作を繰り返し、クオリティの高い製品をリリースすることができている。そのための実験設備も備わっており、その一つが無響室だ。試作した製品がどのような特性なのか?それを作ってすぐにテストできる環境があるということだ。さまざまなバリエーションの試作機を作り、それをその場で実際にテストして、設計数値が実現できているかを確認する。まさに理想の開発環境と言える。無響室以外にも-20度〜180度までの環境が再現できるという恒温槽による温度変化による特性、耐久性のテストだったりといことも行える設備がある。 ほかにも試聴用の部屋もあり、実際に聴感テストも行っている。取材時はME-50FSのインビーダンス補正回路を設計するときに使ったであろう様々な治具などが置かれていた。そして、この部屋の片隅にはスピーカーコーン紙の共振測定器が置かれていた。スピーカーが振動しているときにレーザーでその表面の動きを測定し、不要な共振がないかを計測する。実際の素材を使っての実際の測定。計算だけではなく実際の製品で測定することによる正確性の追求。さまざまな素材の融合体であるスピーカーユニットであるからこそ必要とされる実地の重要さが感じられる。 TOAのものづくりの拠点、それがこのアコース綾部工場であり、この試作機を作るための理想的な環境があったからこそME-50FSが妥協を一切許さない製品として世にリリースされたのであろう。コイルの巻数一巻きにまで気を配って生産できるこの環境、理想を追い求めるための究極形である。今回ご案内いただいたTOAの皆さんもこの拠点があったからこそME-50FSは完成し、まさにここがME-50FSの故郷であると仰っていたのが印象的。この綾部という地をスピーカー製造の聖地に、その意気込みが実を結ぶのもそう遠くはなさそうだ。 📷(左)アコース綾部工場 (右)左より工場取材にご協力いただいたTOAの藤巴氏、ジーベックの栗山氏、アコース綾部工場の藤原氏、ME-50FSの生みの親とも言えるTOA技監の松本氏。 Studio BEWEST ME-50FS取材の最後に訪れたのは実際のユーザーである岡山県津山市のレコーディングスタジオBEWESTにお伺いして、実際の使い勝手やその魅力についてをお話いただいた。オーナーの西本氏はバンドマンからレコーディングエンジニアへと転身した経歴を持ち、岡山市内と津山市に2つのスタジオを構える。BEWESTの独自の取り組みなども併せてお届けしたい。 ・サウンドを生み出す立場からの目線 📷Stduio BEWEST オーナー兼エンジニア 西本 直樹 氏 岡山市から北へ60kmほどいったところに津山市はある。大阪からも中国道で150kmほどの距離だ。12年前にオープンしたこのスタジオはレコーディングから、ミックス・マスタリングまでをワンストップで行うスタジオとして稼働していたが、岡山市内に3年前に新しくスタジオを立ち上げたことで、今はミックスとマスタリングの拠点として稼働しているということだ。このスタジオの特長は、ビンテージから最新の製品までずらりと取り揃えられたアウトボードやマイクなどの機材。その機材リストの一部をご紹介すると、マイクはビンテージのNeumann U47 TUBE、オリジナルのtelefunken U47、SONY 800G、Chandler REDD Microphone、Ehrland EHR-Mなどビンテージの名機から、現行の製品まで幅広いラインナップを揃える。この選択の源泉はお話を伺っていくとレコーディングへの向かい合い方にあると感じた。 西本氏のルーツはバンドマンである。バンドのレコーディングを行っていく中で機材に興味を持つ。そしてギタリストとしてバンド活動を行っていた西本氏は、インディーズのレコーディング現場での体験で完成した作品の音に対してメジャーとの差を痛感したという。レコーディングのバジェットが違うから仕方がないと諦めるのではなく、その差は何なのか?この部分に興味を持ち、独学でレコーディングを行うようになっていったそうだ。機材が違うのであれば、同じものを使えば同じクオリティーになるのか?マイクは?マイクプリは?独学でどんどんと掘り下げていき、気が付いたらスタジオを作っていて日本中からレコーディングの依頼を受けるようになっていたということだ。 お話を聞いているとエンジニアとしてスタジオで経験を積んだ方とは、やはり視点が異なることに気付かされる。ミュージシャンの視点で、自身の音がどのような音なのかをしっかりと認識した上で、それがどのような音としてレコーディングされ作品になってほしいか?あくまでもサウンドを生み出す立場からの目線を貫いている。そのため、音がリアルなのか、なにか変質してしまっているのか?そういったところに対して非常に敏感であり、常に一定の音に対しての物差しを持って向かい合っているエンジニアである。 ・「このまま置いていってほしい」 その西本氏とME-50FSの出会いはInterBEE 2022で話題になっていたことがきっかけだとのこと。興味を抱いた西本氏がすぐに問い合わせしたところ、TOAは岡山市内のスタジオまでデモ機を持ってきてくれたそうだ。ちょうど、岡山のスタジオでウェストキャンプ@岡山というローカルのエンジニアを日本中から集めた勉強会のようなイベントを予定していたそうで、集まった10数名のエンジニアと試聴を行うことができた。その場にいた全員が強いインパクトを受け、この製品の魅力を体感したということ。やはり雑多なInterBEEの会場ででも聴こえてきたインパクトは本物であり、スタジオでの試聴でもその印象は大きく変わらなかったということだ。その後、ミックス・マスタリングをメインで行っている津山のスタジオで改めてじっくりと試聴。改めて聴き直してもその最初に感じたインパクトは変わらず購入を即決したという。すぐにでもこのスピーカーで作品づくりをしたいという思いが強くなり「購入するので、このまま置いていってほしい」とお願いしたほどだそうだ。 ちなみに、それまでメインで使っていたスピーカーは、Focal Trio11。このスピーカーは今でも気に入っているということだが、ME-50FSとの違いについてはセンター定位のサウンドのアタック感、サスティンの見え方、音の立ち方、減衰の仕方などがはっきりと見える点。これは位相が改善していくとセンター定位がどんどんとはっきりしていくという位相感の良さからくるものだろう。ME-50FSの狙い通り、といった部分を直感的に感じ取っている。 ・標準器となるサウンドの魅力 ME-50FSの導入により作業上大きく進化したことがあったそうだ。スタジオではマスタリングまでのワンストップで制作を行っているため、スタジオで作られた音源をさまざまな場所、車内や他のスピーカー環境、ヘッドフォン、イヤフォンなどで違いが出ないかを確認する作業を行っている。やはり、リスニング環境により多少の差異が生じるのは仕方がないが、イメージそのものが異なってはいないか?という部分にはかなり神経を使って仕上げているとのこと。これまでのスピーカー環境では、少なからず修正、微調整の必要があったとのことだが、ME-50FSで作業を行うようになってから、この修正作業がほとんどなくなったということだ。究極の標準器を目指して開発されたME-50FSのポテンシャルを言い表すエピソードではないだろうか。フラットである、位相変化がないということは音に色がついていないということである。そのため、他の環境であったとしてもその環境の色がつくだけで、色自体が変化するということにはならないということではないだろうか。 ほかにもサウンドとしての魅力は、奥行き感、前後の距離感、立体感などを強く感じると言う点にあるという。やはり、位相の良さ、トランジェントの良さがここには大きく影響していると感じるところだとお話いただいた。製品開発にあたりTOAがコンセプトとした部分が実際のコメントにも現れている。開発コンセプト、TOAの目指した標準器としてのサウンドが気に入った方であれば「これしかない」と思わせる実力を持った製品であると言える。 トランジェントが良い、ということは音の立ち上がりが良い、サスティンの余韻が綺麗に減衰するなどといった部分に効果的だ。これを実現するためにTOAでは10cmという小口径のユニットを採用し、ロングストローク化して最低限となる質量のユニットを使い正確にユニットを動かすということでその改善にあたっている。動き出しの軽さ、正確なユニット動作の入力に対するレスポンス。そういったことを考えるとやはりユニット自体の質量は少ないに越したことはない。打楽器などのアタック感も確実に改善しているのだが、このトランジェントの良さを一番感じるのはベースラインだという。高域に関しては他社のスピーカーもトランジェントを突き詰めているが、低域は大口径のユニットを使うため物理的に対処できないところがある。ME-50FSでは、小口径のユニットでその帯域をカバーしているため、圧倒的なトランジェント特性を低域に持たせることに成功している。 BEWESTではスピーカー補正のためにTorinnov Audioを導入している。西本氏はスピーカーを少し動したり、機材配置のレイアウトを変更するたびにTorinnovで測定を行い、自身の感覚だけではなく、測定器として何がどう変化したのかを確認しながらそのチューニングを行っている。ME-50FSを導入した際に測定を行ったところ、位相がほぼフラット!今までに見たことのないフラットな直線状の結果が表示されたということだ。これは、現在製品としてリリースされているスピーカーとしてはありえないこと。シングルスピーカーで無限バッフルといった理想的な環境であればもしかしたらそうなるかもしれない、というレベルの理想に限りなく近い結果である。位相特性は2-way / 3-wayであればそのクロスオーバー周波数付近(フィルターを使用するため)の位相のねじれ。それをME-50FSでは設計の要であるインピーダンス補正回路で解決している。また、ユニット自体の共振周波数による変化、この共振周波数はキャビネットにより生じるものもあれば、バスレフポートにより生じるものもある。スピーカー設計を行った際には、これらが基本的には絶対に生じるものであり、位相特性はかなり暴れたものになるのが普通である。言い換えれば、この位相特性がそのスピーカーの持つ音色ということが言えるのかもしれない。ME-50FSにはこれが無い。良い意味で音色を持たないスピーカーであると言えるだろう。これが、前述した他の試聴環境で聴いた際の破綻のなさに直結している。 ・アナログの持つ普遍性を再認識する 同様にウィークポイントに関してもお伺いしたが、これに関してはやはりローエンドのお話が出た。10cmという口径からくるものだと感じたが、やはり大口径スピーカーのサウンドとは違う。しかし、ME-50FSは設計の優秀さもあり、それでも40Hzあたりまではしっかりと音として出力されている。それ以上低い30Hzあたりになるとさすがに苦しいが、音程を持って人間が知覚できる範囲はカバーできていると言えるだろう。このようなこともありTrio 11から移行したばかりのころはローエンドの不足を感じていたが、この部分も量感の違いはあってもしっかりと出力されているので時間とともに慣れてしまったということだ。ただし、マスタリングという観点で考えるとやはり昨今の作品で使われる20~30Hzが欲しくなることはあるそうだ。 このスピーカーを使うエンジニアとしては、アナログだから、デジタルだからという部分に拘りは特に無い。ただ、アナログの持つ普遍性とは、変わらずにあるもの、究極を目指せるものであることを改めて認識したということだ。スタジオを作ってからずっと持ち続けてきた、モニターへの悩み。このスピーカーとの出会いによりその悩みが解消された。やはりイメージして作った音と、他のスピーカーでの再生も含めた出音の差がないというのがスタジオモニターとしての理想であり、それを実現しているこのスピーカーは革命的だという。 色々なお話をお伺いしたが、TOAの開発コンセプトがまさにエンジニアの求める理想のスピーカーであったということを裏付けるかのようなお話をいくつも聞くことができた。TOAのこれまでのスピーカー開発の技術、そのすべてが詰め込まれた結晶体とも言える1台、音の標準器となるME-50FSから出力されるサウンドがどのようなものか是非体感してみていただきたい。 *ProceedMagazine2023-2024号より転載
MTRX II / MTRX StudioにThunderbolt 3 Moduleが登場!〜新たなオーディオ・ワークフローを実現するシステムアップとは〜
NAMM Show 2023でPro Tools | MTRX IIとともに発表され、大きな話題となった「MTRX Thunderbolt 3 Module」。オーディオ制作者の長年の夢であったかもしれないAvidフラッグシップI/Oをネイティブ環境で使用できる日がついにやってきたことになる。MTRX Thunderbolt 3 Moduleの特徴は、MTRX II / MTRX StudioをCore Audioに接続するだけでなく、DigiLinkポートの入出力と同時にThunderbolt入出力を追加で使用できるという点にもある。つまり、1台のMTRX II / MTRX StudioにHDXシステムとネイティブDAWを同時に接続することが可能で、双方に信号を出し入れすることができるということだ。単に高品位なI/Oをネイティブ環境で使用できるようになるというだけでなく、中規模から大規模なシステム設計にまで影響を及ぼす注目のプロダクト「MTRX Thunderbolt 3 Module」を活用した代表的なシステムアップの例を考えてみたい。 Thunderbolt 3 Module 価格:135,080円(税込) MTRX IIとMTRX Studioの両製品に対応したThunderbolt 3モジュールのリリースにより、DigiLink接続によるパワフルなDSP統合環境に加えて、 Thunderbolt 3経由で実現する低レイテンシーなCore Audio環境での柔軟性も実現可能となる。Thunderbolt 3オプション・モジュール経由で、MTRX IIでの使用時に最大256ch、MTRX Studioの場合では最大64chにアクセスが可能、Core Audio対応アプリケーション等をDADmanソフトウエアにルートし、より先進的なオーディオ・ワークフローが実現できる。 シーン1:Core Audio対応DAWのI/Oとして使用 MTRX Thunderbolt 3 Moduleの登場によって真っ先に思いつくのはやはり、これまでHDXシステムでしか使用できなかったMTRX II / MTRX Studioをネイティブ環境でI/Oとして使用できるようになったということだろう。Logic Pro、Nuendo、Cubase、Studio OneなどのCoreAudio対応DAW環境でAvidフラッグシップの高品位I/Oを使用することができるだけでなく、巨大なルーティング・マトリクスや柔軟なモニターコントロール機能をシステムに追加することができるようになる。 もちろん、恩恵を受けるのはサードパーティ製のDAWだけではない。HDX非対応のPro Tools Intro、Pro Tools Artist、Pro Tools Studio、さらにPro Tools Ultimateをnon-HDX環境で使用している場合にも、HDXシステムで使用されるものと同じI/Fを使用することができるようになる。特に、Pro Tools Studioはこのオプション・モジュールの登場によって、そのバリューを大きく拡大することになる。Pro Tools Studioは最大7.1.6までのバスを持ち、Dolby Atmosミキシングにも対応するなど、すでにイマーシブReadyな機能を備えているが、従来のAvidのラインナップではこれらの機能をフル活用するだけのI/Oを確保することが難しかった。MTRX Thunderbolt 3 Moduleの登場によって、Avidの統合されたIn the Boxイマーシブ・ミキシングのためのシステムが完成することになる。 シーン2:HDXシステムにダイレクトにMacを追加接続 MTRX II / MTRX Studioのドライバーであり、ルーティング機能やモニターセクション機能のコントロール・アプリでもあるDADman上では、DigiLinkからのオーディオとThunderboltからのオーディオは別々のソースとして認識されるため、これを利用してDigiLink接続のMacとThuderbolt接続のMacとの間でダイレクトに信号のやりとりができる。例えば、Dolby Atmosハードウェア・レンダラーとHDXシステムのI/Fを1台のMTRX II / MTRX Studioに兼任させることが可能になる。Pro Toolsとハードウェア・レンダラーが1:1程度の小規模なミキシングであれば、I/O数を確保しながらシステムをコンパクトにまとめることができるだろう。 もちろん、Dolby Atmosハードウェア・レンダラーだけでなく、CoreAudioにさえ対応していれば、スタンドアローンのソフトウェアシンセ、プロセッサー、DAWなどとPro Toolsの間で信号をやりとりすることができる。シンセでのパフォーマンスをリアルタイムにPro ToolsにRecする、Pro ToolsからSpat Revolutionのようなプロセッサーに信号を送る、といったことが1台のI/Fでできてしまうということだ。Thuderboltからのソースはその他のソースと同様、DADman上で自由にパッチできる。使い方の可能性は、ユーザーごとに無限に存在するだろう。(注:MTRX StudioのThuderbolt 3 I/Oは最大64チャンネル。) シーン3:Dolby Atmosハードウェア・レンダラーのI/Fとして使用 シンプルに、HDXシステムとDolby Atmosハードウェア・レンダラーのそれぞれにMTRX IIを使用することももちろん可能だ。HDX側のMTRX IIからDanteでレンダラーに信号を送り、レンダラー側のMTRX IIからモニターセクションへ出力することになる。大規模なシステムの場合、複数のプレイアウトPro Toolsからの信号を1台のMTRX IIにまとめると、オプションカードスロットがDigiLinkカードで埋まってしまい、アナログI/Oをまったく確保できないことがある。ハードウェア・レンダラーのI/FとしてMTRX IIを採用した場合には、その空きスロットを利用して外部機器とのI/Oを確保することができる。MTRX II同士をDanteで接続していればひとつのネットワークにオーディオを接続できるので、Dante信号としてではあるがメインのMTRX IIからコントロールすることも可能だ。 NAMM Show 2023での発表以来、多くのユーザーが待ちわびたプロダクトがついに発売開始。In the Boxから大規模システムまであらゆる規模のシステムアップを柔軟にすることができるモジュールの登場により、ユーザーごとのニーズによりマッチした構成を組むことが可能になった。新たなワークフローを生み出すとも言えるこの製品、システム検討の選択肢に加えてみてはいかがだろうか。 *ProceedMagazine2023-2024号より転載
GPU Audio / 既存概念を超越するオーディオGPU処理の圧倒的パフォーマンス
AES2022で綺羅星の如く登場し、業界の注目を集めているGPU Audio 社。これまで、AudioのPC上でのプロセスはCPUで行う、という認識が暗黙の了解のように存在していたのだが、GPUというこれまで活用してこなかったプロセッサーを使用することで、さらなる処理能力の向上を現実のものとした、まさにゲームチェンジャーとなりうる可能性を秘めた技術を登場させている。 Viennaの動作で実証された驚くべき能力 NAMM 2023の会場では、そのGPUプロセスに対し賛同した複数のメーカーとの共同ブースを構えて展示を行っていた。GPU Audio自体は、独自に開発したプラグインを複数発表しているが、NAMMの会場ではVienna Symphonic Libraryの誇る、高精度だが非常に動作が重いとされるVienna MIR PRO 3Dのセッションを、なんとGPU上で動作させるというデモを行って会場を驚かせていた。 📷コンサートホールを模したバーチャル空間に配置されたインストゥルメント。実際のオーケストラの配置を念頭に各パートが配置されており、そのパート数はなんと63。クオリティーの高さと引き換えに動作が重いことで有名なViennaではあるが、こちらのデモではさらに3D空間でのシュミレーションが加わっている。 このVienna MIRのセッション上には70トラックの音源が同一空間に配置され、3D空間内部での音源として再生が行われていた。CPUでの処理では音にノイズが混ざったりしていたものが、GPU上で動作させると使用率は30%程度に抑えられ、しかも安定して綺麗に再生される、ということがまさに目の前で実践されていた。このデモで使用されていたLaptop PCは、いま考えられる最高のスペックだと自信たっぷりに案内されたのだが、まさにその通りで、CPUはIntel Core i9 13900、メモリ64GB、GPUはNVIDIA GeForce RTX 4090という、現時点における最高の組み合わせ。つまり、その最新世代のCore i9でさえ動かしきれないものを、GPUをもってすれば余裕を持って動作させることができる。これは、GPU Audioがアナウンスしているように、FIRの計算であれば40倍、IIRの計算でも10倍のパフォーマンスが得られるということが現実になっているということだ。 📷クローズアップしたのはGPU Audioの技術により組み込まれたCPU/GPUの切り替えボタン。ベータ版のため実際の製品でもこのような仕様になるかは不明ではあるが、これこそが本記事でご紹介しているGPUによるオーディオ処理を確認できるポイントとなる。GPUがいかに強力とはいえ、有限のプロセッシングパワーであることは間違いない。従来のCPU処理と選択できるというアイデアは、ぜひともリリース版にも搭載してもらいたい機能だ。 並列処理、ベクトル計算を得意とするGPU 📷CPUとGPUでの処理速度の差をグラフ化したものがこちら。一般的に処理が重いと言われているFIR(リニアフェイズ処理)において、30〜40倍の速度向上が見込めるというのが大きなトピック。一般的なEQ処理などで使われるIIRにおいては、CPUとの差は縮まり10~15倍。これは、元々の処理自体が軽いということもありこのような結果になっているようだが、それでも大幅な処理速度向上が見込める。多数のコアを使った並列処理によるFIR処理の高速化は、やはりGPUの真骨頂と言えるのではないだろうか。 なぜ、GPUをAudioのプロセスに使うだろうか?筆者も10年以上前から、Audio Processを行うにあたりCPUは頑張って仕事をしているが、GPUは常に最低限の仕事(ディスプレイへのGPUの表示)しか行っていないのは何とももったいないと感じていた。高価なデスクトップPCを購入すれば、それに見合ったそこそこのグレードにあたるGPUが搭載されてくることがほとんど。搭載されているのにも関わらず、その性能を活かしていないのはなんとももどかしい。しかも、GPUはオーディオ信号処理にとってのエキスパートとなる可能性を持つ部分が数多くある。 まず考えられるのは、大量のトラックを使用し多数のプラグインを駆使してミキシングを行うといったケース。かなり多くの処理が「並行して複数行われる」ということは容易に想像できるだろう。これはまさにGPUが得意とするリアルタイム性が必要な並列処理であり、レイテンシーを縮めることと、並列処理による処理の最適化が行えるはずである。次に、GPUがベクトル計算のプロフェッショナルであるということ。オーディオ波形を扱うにあたり、この特徴は間違いなく活かせるはずである。オーディオの波形編集などで多用されるフーリエ変換などはGPUの方が秀でている分野である。 ●GPU(Graphics Processing Unit)とは!? GPUとはGraphics Processing Unitの略称であり、リアルタイム画像処理に特化した演算装置あるいはプロセッサを指す。通常の演算処理に使用するCPU=Central Processing Unitとの違いは、膨大な並列処理をリアルタイムに演算する必要がある3Dのレンダリング、シェーディングを行うために数多くの演算用のコアを搭載しているということが挙げられる。現行のCPUであれば、4~20個ほどのコアを搭載しているものが一般向けとして流通しているが、それに対しGPUではNVIDEAの現行製品RTX 40シリーズは処理の中心となるCUDAコアを5888~16384個と桁違いの数を搭載している。 このような高度な並列処理が必要となった過程はまさに3D技術の進化とともにあり、Microsoftが1995年に開発した、ゲーム・マルチメディア向けの汎用API Direct Xの歴史とともにハードウェアの進化が二人三脚で続いている。3Dのグラフィックスをディスプレイに表示するには、仮想の3D空間において、指定座標におかれた頂点同士をつなぎ合わせたワイヤーフレームの構築し、そこに面を持たせることで立体的な形状を生成。これを空間内に配置されたオブジェクトすべてにおいて行う。そこに光を当て色の濃淡を表現、後方は影を生成、霧(フォグ)の合成など様々な追加要素を加えてリアリティーを上げていく。こうして作られた仮想の箱庭のような3D空間を、今度は2D表現装置であるディスプレイ表示に合わせて、3D-2Dの座標変換処理、ジオメトリ処理を行うこととなる。これらの作業をリアルタイムに行うためには、高速にいくつもの処理を並列に行う必要がある。それに特化して並列化を進めたものが今日のGPUである。 NVIDIA GPU比較表 このような並列処理に特化したGPUは、2005年ごろよりコンピューティングの並列化に最適なプロセッサーとしてGPGPUという新たな分野を切り拓いている。単一コアの高性能化が一定の水準で頭打ちすることを見越して、処理を並列化することでの効率化、高速化を図るというものである。汎用CPUと比較して明確なメリット・デメリットはあるものの、特定分野(特にベクトル計算)においてはその性能が発揮されるということもあり、スーパーコンピュータ分野で普及が進んでいる。 現在では、Direct X 10以降の世代の汎用GPUであればGPGPU対応となっている。汎用のAPI「C++ AMP」や「OpenACC」などのプログラミング言語環境も整っており、普通に入手可能な製品でもGPGPUの恩恵を受けることは可能である。まさに今回紹介するGPU Audioはこのような特徴を活かしたものと言えるだろう。 オーディオでシビアなレイテンシーを解決 📷NAMM Showの会場でGPU Audioは、そのテクノロジーに賛同するメーカーと共同でブースを構えていた。 リアルタイムかつ、同時に数多くの処理を並列でこなすことのできるGPUが、まさにAudio Processingの救世主となりうる存在であることは、多くのPCフリークが気付いていたはずである。しかし、なぜ今までGPUを活用したオーディオプロセッシング技術は登場してこなかったのだろうか? ここからは筆者の考察も含めて話を進めていきたい。GPU Audioのスタッフに話を聞いたところ、昨年のAES 2022での発表までに費やした開発期間は、実に8年にも及ぶということだ。一見シンプルにみえるGPU上でのオーディオ処理だが、実現するためには多くの困難があったようだ。その具体的な事例として挙がっていたのはレイテンシーの問題。 そもそもリアルタイム性を重視して設計されているGPUなのだから、問題にはならなさそうな気もするが、グラフィックとオーディオの持つ性質の差が解決を難しくしていたようだ。想像をするに、画像処理であれば一部分の処理が追いつかずにブロックノイズとして表示されてしまったとしても、それは広い画面の中の微細な箇所での出来事であり、クリティカルな問題にはならない。しかしオーディオ処理においてはそうとは行かない。処理遅れにより生じたノイズは明らかなノイズとして即時に聴こえてしまい、オーディオにおいてはクリティカルな問題として顕在化してきてしまう。単純にGPGPUなど、GPUをコンピューティングとして活用する技術は確立されているのだから、プログラムをそれにあった形に変換するだけで動くのではないか?と考えてしまうが、そうではないようだ。 CPUが非力だった時代より今日までオーディオプロセスを行わせるための最適なデジタル処理エンジンは、DSP=Digital Signal Processerである。これに異論はないはずだ。昨今ではFPGAを使用したものも増えてきているが、それらも基本的にはFPGA上にDSPと同様に動作するプログラムを書き込んで動作させている。言い換えれば、FPGAをDSPとして動作させているということだ。 その後、PCの進化とともにCPUでの処理が生まれてくるのだが、これは汎用のプロセッサーの持つ宿命としてレイテンシーが発生してしまう。もちろんDSPの処理でもレイテンシーは発生するのだが、CPUは処理の種類によりレイテンシー量が異なってくる一方で、その遅延量を定量化することが可能なのがDSPの持つ美点である。レイテンシーが定量であるということは、オーディオにとっては非常に重要なこと。問題にならないほどレイテンシーが短いのであれば、あえてディレイを付加することにより遅延量を定量化することは容易いのだが、チャンネル間の位相差などレイテンシー量がバラバラになるとクリティカルな問題に直結してしまう。GPUの持つ可能性がどれほどのものなのかは、今後登場する製品に触れたときに明らかになることだろう。 📷デモではViennaを使っていたが、GPU Audioでは自社でのプラグインのリリースも行う。こちらが自社で開発したコーラス、フランジャーなどのモジュレーション・プラグインと、FIRを活用したリバーブプラグインとなる。従来のCPUベースのプラグインをリリースするサードパーティ各社への技術提供と並行して、このようにGPU Native環境でのプラグイン開発を行うプランが進行している。 デモを見るかぎりGPUが持つ可能性は非常に高いと感じる。PCでのオーディオプロセスとしてはフロンティアとも言える領域に踏み込んだGPU Audio。今まで以上のプロセッシングパワーを提供することで、全く新しい処理を行うことができるプラグインの登場。DAWのミキシングパワーはCPUで、プラグインプロセスはGPUで、といったような処理の分散による安定化など多くのメリットが考えられる。今後、GPU Audioの技術により業界が大きく変化する可能性を大いに感じられるのではないだろうか。 📷プレゼンテーション用のステージではライブパフォーマンスも行われていた。QOSMOはファウンダーであり、自身もミュージシャンであるNao TokuiとBig YUKIによるパフォーマンスを提供。一流ミュージシャンに寄るパフォーマンスが楽しめるのもNAMM showの醍醐味のひとつ。 *ProceedMagazine2023号より転載
TAOCファクトリーツアー / 鋳鉄のプロフェッショナル集団が生み出す、質実剛健プロダクツ
制振についてのコア技術に特許を持ち、実に40年にわたりホームオーディオの分野で活躍しているTAOC。40年間の製品開発で蓄積したノウハウを基に開発した新たな製品レンジ「STUDIO WORKS」シリーズを投入し、これまでは特注でしか生産されることがなかったプロオーディオ市場へ本格的に参入する。鋳鉄こそが「遮断」と「吸収」という2つの役割を両立できるベストな材質だという鋳鉄のプロフェッショナルたちがどのようにして製品を開発・生産しているのか、愛知県豊田市のアイシン高丘株式会社を訪れた。 振動を制するものはオーディオを制す TAOCはブレーキディスクローターやシャーシ部品をはじめとした自動車部品を生産するアイシン高丘株式会社を母体に持つ。自動車用鋳造部品の製造ラインで採取される鋳鉄粉を用いて、鋳鉄の制振性や音響特性を活かした製品をホームオーディオの分野で多くリリースしているのがTAOCブランドだ。ほとんどの製品が制振にフォーカスをあてたもので、そのブランド名の頭文字が「Takaoka Anti Oscillation Casting」から成っていることからも、立ち上げ当初より音響機器の最適な振動制御を鋳造(Casting)で達成することを目的に活動してきたことが窺える。また、「異なる厚みの鉄板を密着させ、互いに違った固有値を持つ板材が振動を抑制することで、音質改善を行う二重鉄板構造」について特許を取得したこともあり、現在では多くの金属製スピーカースタンドメーカーが生産する製品の天板に採用されている。 音楽を活かすために「整振」するTAOCの製品には、音像の厚み、広がり、帯域のバランス、解像度といった要件が求められる。この複数の要件を満たすには、密度が高く、硬度が高く、自己の振動を持ち込まない減衰性を併せ持つ材質が必要となるが、これにおいて3拍子揃った材質が鋳鉄だ。 さらに、鋳鉄(言い換えれば黒煙を多量に含んだ鉄)は高い振動吸収性を持つ。鋳鉄はキャベツの葉を剥がしてランダムに並べたような黒鉛構造を持っており、その黒鉛と鉄部分の摩擦によって振動エネルギーは熱エネルギーに変換され制振性を発揮する。これが鋳鉄の大きな特徴であり、安全のためにも不要な振動を抑えておきたいブレーキローターに鋳鉄が用いられているのもうなずける。 📷各素材を特性ごとに並べてみると、鋳鉄がいかに3拍子揃った材質であるかがわかる。例えば、密度が最も高い鉛は一方で硬度が低く、硬度が最も高いセラミックは減衰性が低い。マグネシウムは減衰性に秀でているが、密度が低くなり音の厚みや解像度に劣ってしまう。この3つの特性を高い次元でバランスよく持っているのが鋳鉄だ。 鋳鉄が持つ独特な特性を体験する アイシン高丘本社に到着後、広大な敷地内でも最奥に位置するTAOCオフィスまで車で移動。鋳鉄工場見学のレクチャーと諸注意を受けつつ、まずTAOC製品に広く用いられる鋳鉄粉のサンプルを見せていただいた。大きめの薬瓶に入れられた鋳鉄粉サンプルは、手に取ると当然ながらズッシリと重い。鉄粉はパウダー状になっている訳ではなく、砂粒ほどの大きさがあり、これが各種製品へ充填されている。試しに手に持って水平に揺らしてみると、ショックレスハンマーと同じ原理が働き、寸止めした時の反対側への反動が少なくピタッと止まる。力量は異なるが、スピーカースタンドの中でもこういった現象が起こっているのかと不思議な体験ができた。 作業着とヘルメットを装着したところで鋳造工場内へ移動を始めるが、大きな炉を拝見する前に、社内の研修施設で今の製造工程や自動化されている機械内処理の説明をいただいた。その研修施設の入口にはダンベルやエンジンブロックのサンプルを使った解説があり、自動車部品以外の鋳物製品や鋳造の成形不良のサンプルも展示されている。その中に音に関係するサンプルもあったのでご紹介しておきたい。そこには鐘形になった鉄4種類、青銅、アルミの成形物が設置されており、これをマレットで叩くことが出来るのだが、叩いてみるとアルミや青銅はサスティンが長くその音色も聴き慣れた美しいものなのだが、比べて鋳鉄を叩いた音色はどれも複雑な倍音をもち、アタックも鈍く、そして減衰が速い。素材自体に制振効果があるということは前知識としてあったが、実際にマレットで衝撃を与えた際の応答は予想以上に顕著なもの。オーディオ製品として鋳鉄が持つ可能性に期待が高まる。 鐘形のサンプルの裏手側には設計から製品になるまでの工程がジオラマ形式で展示され、アイシン高丘の鋳物製造フローが学べる。社員研修や社内技能試験などでは研修施設の機能をフルに活用するとのことだが、今回は鋳鉄粉が出来るまでの一部の工程を説明していただいた。 鋳鉄粉が採取できる工程は、鋳造の後半にあたる後処理工程となる。上型、下型、中子型から製品を取り出す作業が行われ、製品は砂型を壊して取り出される。取り出した製品には型で使われた砂が付着しているため、ショット機と呼ばれるサンドブラストの一種を使用してバリや砂を除去する。この作業によって、素材の表面が剥がれ落ち鋳鉄粉が採取できるわけだ。こうしてショット機からメディアが噴射され後処理が完了すると集塵機には砂、メディア、鋳鉄粉が混ざったものが集まる。これを選別して鋳鉄粉を取り出し、さらに取り出した鋳鉄粉は規格に沿ったメッシュを通して粒を揃えたものを採取する。このような工程で選りすぐられた鋳鉄粉をTAOCではスタンドの制振材として活用している。 📷バリ取りの工程で写真のショット機が使用される。砂型から取り出された製品からサンドブラストの一種であるこちらの機械を使ってバリと砂を除去する。すぐ隣にあるのがショット機用の集塵機。ここに集められたものを規格に沿ったメッシュでふるいにかけ、砂粒状の鋳鉄粉が採取される。 非日常的な迫力の工場内 研修施設での解説を受けたあとは、鋳物を製造している製造ラインへと移動する。人間の背丈を遥かに超える大型機械群に囲まれて、なにが何の為の機械なのかまるで見当がつかない。いよいよ工場にやって来たという感覚が湧いてきた。 ライン見学は製造工程通りに案内され、まずは材料となる鉄を溶かす溶解炉であるキュポラのセクションへ。1400度以上の鉄が連続溶解できるキュポラの足元には6トンほどの溶かされた鉄が入る釜が2基設置されており、満杯になるとレールを伝って鋳込セクションへ運ばれる。残念ながら、先程キュポラから運ばれてきた真っ赤な鉄を注ぐ鋳込の工程自体は外から作業を見ることができなかったのだが、工場内は常に80dBを超える音で満たされており、定期的に聞こえるエアー重機のブローオフは瞬間的に100dBを超える。これだけでも非日常的な迫力を感じることができた。 そして、後処理のセクションへ移動する。研修施設で見たショット機を使ってのバリ取りを行い、まさにいま鋳鉄粉が出来ている工程でこちらも自動化されている。その経路の途中にはセキ折りのセクションがあり、製品から伸びている湯道を切り離す作業のラインを見学。鉄でできた大きなプラモデルとでも言えば良いのだろうか、傍らから見るとランナーからパーツをニッパーで切る作業に似ているのだが、ニッパー風のエアー工具も切り離される製品もやはりそのすべてが大きい。 システムをきちんと機能させる土台 工場内を見学した後はTAOCの開発室兼視聴室へ向かった。視聴室の前は広大な庭が広がっており、アイシン高丘のOBや夜勤明けの従業員がハーフラウンドのゴルフをプレイできるという。これ以外にも社内の取り組みとして工場排熱を利用してスッポンを育てていたり、ショット機で出た砂を再利用してウコンを育てていたこともあるそうだ。鋳鉄粉もTAOC発足前は再びキュポラに戻され製品へリサイクルされていたそうだが、資源の活用とSDG'sへの意識が旧来から全社的に根付いていることがうかがえる。 開発室の中はその半分のスペースがリスニングスペースとなっており、天井や壁面は防音・吸音加工が施されている。残り半分のスペースは様々な資料と音源を収納したラック、ここを囲うようにオリジナルスピーカーや検聴を待つ試作品が並び、そこにはSTUDIO WORKSのデスクトップ型スタンドもあった。同じくSTUDIO WORKSのインシュレーターを手に取ってみると一般的にイメージする鋳物とは思えない仕上がりで、質感はどちらかと言うと鍛造に近い。切削の工程があるのか聞いたところ、仕上げの工程はあるが基本的には鋳込時の流す量と時間で密度をコントロールしているという。それらの製品を設置していただき拝聴後、TAOCチームの南氏、杉田氏、西戸氏にお話を伺った。 Rock oN多田(以下、R):改めてTAOCの持つ特徴をお伺いさせてください。 西戸氏:アイシン高丘は1960年ごろからトヨタ自動車の鋳物部品を生産しており、東洋一の鋳物工場を作るんだという熱意を持ってスタートしました。そしてちょうど40年前の1983年、オイルショックで一時的に鋳物の生産量が少なくなっていく中で自動車部品以外にもこの独自の鋳造加工技術を活かせることはないかと、社内で検討する部署が立ち上げられて、鋳物のスピーカーベースの生産からオーディオアクセサリの事業をスタートしました。鋳物を使ったモノづくりとして、鋳物の墓石を作ってはどうだとか、当時は色々試行錯誤していたと聞いています。また、当時はシミュレーションも少なかったため、製品開発は試行錯誤の体当たりで製作していました。インシュレーター、オーディオボード、オーディオラック、スタンドに加えて鋳鉄製ユニットマウントリングを特長としたスピーカーの製作など、鋳鉄が持つ振動吸収を活かした製品をリリースしています。鋳鉄には素材自体が自分で揺れず、振動を適度に吸収するという特性があります。それを実証するようにスピーカーユニットのリングを作った時は樹脂と比べて真っ直ぐにドライバがストロークしました。これは本来持っている音を出すことができていたとも言えます。 R:STUDIO WORKSという新たなコンセプトで製品を生み出した経緯をお伺いできますか。 南氏:2018年に、とあるマスタリングスタジオのテックエンジニア様から、システム全体の音質向上のためにお声がけいただきTAOC製品を導入いただきました。以降も、エンジニア様とは音質に関する研究交流を続けていた中、杉田の案で2021年のInter beeに2人で行き、特注スタンドのオファーをいただき、要望を伺いながら何本も製作していく中、徐々にプロオーディオ向け製品のコンセプトが定まっていったという経緯があります。 杉田氏:ポタフェス(ヘッドフォン、イヤホン)に行った時も印象深いですね。ポタフェスはポータブルオーディオのイベントではありますが、それを踏まえても音響製品のイベントなのに会場が無音というのはショックを受けました。今までは主に、音を聴く側のお客様に向けての製品作りでしたが、ヘッドフォンの中に聴こえる素晴らしい音を創る側のエンジニア様、音楽家の皆様向けにTAOCとしてお役に立てられないかと思うようになりました。 R:STUDIOWORKSをどういったユーザー層を想定しているのでしょうか。 南氏:プロのエンジニアの方々やミュージシャンの皆様はもちろん、良い音を追求するすべての方々にご体験いただきたいですね。 杉田氏:イレギュラーな使い方や面白いご意見をいただき、そのフィードバックをいただければそこから更に製品の改善にもつながると思います。また個人向けで評価をいただいているこれまでの製品も、プロの方のフィードバックを反映してより良いものが作れると思っています。試作に対してのハードルが低いので、要望はどんどん欲しいですね。なので特注製品、いわゆるワンオフも大歓迎です。製品はすべて国産で製造しているので、フットワークも軽いですよ。 📷本文中でも触れたデスクトップサイズのスタンドも試作されていた。ユーザーの声を素早く反映してラインナップすることはもちろん、ワンオフでの特注にも柔軟に対応できるそうだ。 南氏:TAOCスタジオワークスは一貫して、確かな効果と実用性にこだわり、外観はとてもシンプルな仕様になっています。従来のTAOC製品同様に、20年・30年以上と永く使えるモノづくりをしています。また、今回のスタンドやインシュレーターはどのモデルも、それぞれエンジニア様やロックオンさんと何度も意見交換をしながら完成させたコラボのような製品で、みなさんの熱い思いが詰まっていると感じています。素晴らしい音楽を作られる皆様の鋭い感性と貴重なご意見に、いつも多くの学びがあります。今後も多くのミュージシャン様、エンジニア様とご一緒させていただきながら、TAOCスタジオワークスを進めていきたく思っています。 杉田氏:1983年9月に創業したTAOCは、今年2023年9月に40周年を迎えます。今までのご愛顧に深く感謝をお伝えしながら、次の40年に向けて新しいチャレンジをしていきます。TAOCスタジオワークスも、すでに多くのエンジニア様・ミュージシャン様のスタジオに導入いただけており、手応えを感じています。シリーズ第2弾の製品開発も進めていますので、ぜひ注目していただけると嬉しいですね。 📷写真左より、アイシン高丘エンジニアリング株式会社 TAOCチーム杉田 岳紀 氏、TAOCチーム 西戸 誠志 氏、Rock oN 多田純、ROCK ON PRO 前田洋介、TAOCチーム 南 祐輔 氏。 工場内でキュポラの説明を受けた時にまるでターミネーター2のラストシーンみたいですねと言うと、T-800は鉄の中で沈むので鉄より比重が大きい、おそらくT-800は鉄ではないんですね…と答えが返ってきた。映画のワンシーンにおいても鉄が基準(!)、そのどこまでもアイアンファーストな姿勢はプロオーディオの中で新たなメインストリームを作り出すことになるのではないだろうか。工場で製品が生産される際に生じる余剰となっていた鋳鉄粉だが、それを確かな研究開発の裏付けでリユースし、類まれなる制振特性は40年にわたりオーディオの世界で実績を重ねてきた。そしていま、プロユースの現場にもそのムーブメントが訪れようとしている。 *ProceedMagazine2023号より転載
ONKIO Acoustics / 音響ハウス開発陣が語る、DAWへ空気感を吹き込むその音の佇まい
1973年の設立から50年にわたり、数多のアーティストから愛され続けているレコーディングスタジオ「音響ハウス」。CITY-POPの総本山として、近年さらに注目を集めているこの音響ハウスにスポットを当てた音楽ドキュメンタリー映画「音響ハウス Melody-Go-Round」が2020年秋に公開された。本作のなかでは日本を代表するアーティストの数々が、音響ハウス独特の空気感や響きの素晴らしさについて語っている。 この映画制作を通じて、その稀有な響きを記録しておくべきだというアーティストや音響ハウスOBからの提言が寄せられ、音響ハウスStudio No.1、No.2のフロアの響きを忠実に再現する構想がスタートしたという。そして約1年半の開発期間を経た2022年秋、音響ハウス公式記録となるソフトウェアONKIO Acousticsが満を持して発売された。ONKIO Acoustics誕生までの足跡と開発秘話、そしてソフトウェアに込められた熱い想いを音響ハウスにて伺うことができた。 ●TacSystem / ONKIO Acoustics 価格 ¥10,780(税込) 「録音の聖地」ともいえる音響ハウス Studio No.1 / No.2の空間を、音場再現技術であるVSVerbを用いて忠実に再現したプラグイン「ONKIO Acoustics」。音響ハウスの公式記録として次世代に伝える意義も込め、大変リーズナブルな価格で提供されている。ONKIO Acousticsプラグインでは、マイクのポジションを X軸、Y軸、Z軸 それぞれ-999mm〜+999mm、マイクアングルを-90度から+90度まで変更でき、単一指向性 / 無指向性 の切替えも可能。まるで、実際に音響ハウスでレコーディングを行っているかのような空気を体感することができる。 >>>ONKIO Acoustics製品ホームページ ●ONKIO HAUS Studio No.1 📷音響ビル8FのStudio No.1。コントロールルームにはSSL 9000Jを擁しこれまでも数々の名盤がレコーディングされてきた。ONKIO Acousticsではこちらのメインフロアを再現、マイクポジション設定のほかにもStudio No.1の特徴的な反射板の量までセレクトすることができる。 ●ONKIO HAUS Studio No.2 📷プラグイン内での再現ではStudio No.2のメインフロアはもちろん、Booth-Aのソースをブース内、ブース外から収録するシチュエーションも用意された。なお、こちらのコンソールはSSL 4000G、蓄積されたメンテナンスのノウハウがつぎ込まれそのサウンドが維持されている。 VSVerbとの出会い 📷株式会社音響ハウス 執行役員 IFE制作技術センター長 田中誠記 氏 スタジオの響きを忠実に再現するという最初の構想から、ソフトウェア実現に至る第一歩は何から始まったのだろうか?「レコーディングスタジオの生命線となる、スタジオの鳴りや響きをどのようにして記録・再現するか、まずはタックシステム 山崎淳氏に相談することから始まりました」(田中氏)その相談を受けた山崎氏の回答は「株式会社ソナ / オンフューチャー株式会社 中原雅考 氏が研究している特許技術、VSVテクノロジーしかない」と迅速・明快だったという。 音場を再現するにあたり、従来のImpulse Responceによる計測では測定機器の特性や部屋の騒音に左右され、ピュアな音場再現性に欠けるとの問題提起をしてきた中原氏は、仮想音源の空間分布をサンプリングするVSVerb(Virtual sound Sources reVerb)を音響学会およびAESで発表していた。VSVerbは空間の反射音場をサンプリングすることで、任意の空間の響きを再現する音場再現技術である。測定した音響インテンシティーの波形から反射音成分だけを抽出することにより、部屋の騒音をはじめ、マイクやスピーカなど測定時の不要な特性を一切含ないリバーブを生成することができる。それはつまり、不要な音色変化を生じさせない高品位なサンプリングリバーブを意味している。 VSVerbを用いて音響ハウスを再現する最初のデモンストレーションは、生成したVSVerbの畳み込みに Waves IR-L Convolution Reverbを利用して行われた。音響ハウスで20年以上のレコーディング経験を持つ中内氏はそのサウンドを聴いて、自身が楽器にマイクを立てている時の、まさにその空気感を感じて大変驚いたという。スタジオでの話し声でさえリアルに音場が再現されてしまう感動は、他のエンジニア達からも高く評価され、VSVerbを用いてソフトウェア制作に臨むことが決定。2021年夏に開発がスタートした。 ●4πサンプリングリバーブ / VSVerb VSVerbは所望の空間の反射音場をサンプリングすることで、任意の空間の響きを再現する音場再現技術です。反射音場は全周4πsr方向にてサンプリングされるため、1D, 2D, 3Dのあらゆる再生フォーマットに対して響きの再現が可能です。VSVerbをDAWのプラグインに組み込むことで音響制作時に任意の空間の響きの再現が可能となります。 響きの時間特性を方向別にサンプリングする従来の方向別 IRによるサンプリングリバーブとは異なり、VSVerbは一つ一つの反射音の元となる「仮想音源」の空間分布をサンプリングするサンプリングリバーブです。従来の方向別 IRリバーブでは、サンプリングの際のマイキングで再生可能なチャンネルフォーマットが決定してしまいますが、VSVerbはチャンネルに依存しない空間サンプリング方式のため完全なシーンベースのリバーブとなります。そのため、任意の再生フォーマットに対してリバーブエフェクトが可能です。 VSVerbでは測定した音響インテンシティーの波形から反射音成分だけを抽出することでリバーブを生成しているため、部屋の騒音やマイクやスピーカーなど測定時の不要な特性を一切含まないリバーブです。つまり、素材に対して不要な音色変化を生じさせない高品位なリバーブとなります。 (出典:オンフューチャー株式会社 資料) ACSU2023 Day1 #1 4πへの階段 〜 MILやVSVerb などを通して垣間見るイマーシブ制作のNext Step 〜 https://www.youtube.com/watch?v=yEW4UA0MIwE 📷今春開催されたAvid Creative summit 2023では、株式会社ソナ/オンフューチャー株式会社 中原 雅考氏による「ONKIO Acoustics」のコア技術=VSverbについての技術解説セミナーが催された。音場再現技術についてのロジックをベーシックから解説し、どのように音響ハウスの空間が再現されたのか確認することができる。 スタッフ総出のサンプリング 音響ハウスStudio No.1、No.2の鳴りをサンプリングする作業はスタッフ総出で、B&K(ブリュエル・ケアー)の全指向性スピーカーを床から1.2メートル、マイクをStudio No.1では床から2.7メートル、Studio No.2では2.5メートルの高さに設置して行われた。Senheiser AMBEO VR Micが用いられたが、その4ch出力はAmbisonics方式では処理されず、AMBEO VR Micは音響インテンシティープローブとして使用されたそうだ。 📷スタッフ総出で行われたという、サンプリング作業の様子を見せてくれた。B&K(ブリュエル・ケアー)の全指向性スピーカーとSennheiser AMBEO VR Micを設置する場所や高さは、通常レコーディング時の音源位置と、アンビエンスマイクの位置を想定して決定されたそうだ。 これら4chの音データがオンフューチャーのソフトで解析され、音圧と粒子速度を掛け合わせた音響インテンシティーにより、反射音成分のみが抽出されている。なお、Studio No.1の壁面上部にある反射板は取り外し可能になっているため、サンプリングには反射板の設置パターンがFully(全設置)、Half(半分設置)、None(無し)の3種類が用意された。曲面加工が施され、裏面にパンチカーペットが貼られた木製の反射板1枚1枚が、スタジオの響きをコントロールする重要な役割を果たしている。「Halfという設定は、音響ハウスの響きを熟知している著名なプロデューサーが、ハーフ設定を好んでレコーディングしていることから採用しました」(中内氏)とのことで、その響きがプラグインの中でもしっかりと再現されている。Studio No.2ではメインフロアに加えて、ブース内、ブース外でのサンプリングもおこなわれ、それらの再現もまた音響ハウスを知る多くのミュージシャンから高評価を得ている。 音響ビル社屋をイメージしたGUI 📷株式会社音響ハウス IFE制作技術センター 技術グループ チーフ 志村祐美 氏 プラグインのGUIデザインは映像編集に携わってきた志村氏が担当に抜擢され、コロナ禍のためリモート会議で制作が進められたそうだ。グラフィックソフトの画面を共有して、リアルタイムにデザインする様子を皆で確認しながら試行錯誤したそうだが、志村氏は「このパーツを修正したい理由を、私が理解できるように説明して下さい!というやり取りが何度もありました(笑)」と当時の苦労を語ってくれた。「GUIのグランドデザインは最初、音響ビルそのものをイメージした縦長サイズで、メニューをクリックしてスタジオを選択するというものでした」(田中氏)その構想は製品版GUIの縦長サイズと、背景にうっすらと見える煙(けむり)のテクスチャへと引き継がれていた。「音響ビル外観をイメージした色使いで、下からフワッと上がるけむりのグラデーションが空気感を表現しています。プラグインが縦に長いと場所をとるので、画面を三つ折りにしたいという私の最初の要望も製品に反映されています」(志村氏) 📷音響ビル社屋をイメージしたという、田中氏が描いた最初期のGUIスケッチ。こちらをスタートに志村氏がデザインを施していった。外部のデザイナーではなく、建物自体をも含めたスタジオの空気感をよく知った社内スタッフで丹念に組み上げられていったことがわかる。 Lexiconのリモートコントローラーをイメージしたフェーダー部は、ストロークの長さにもこだわった。「ストロークが長い方が使いやすいだけでなく、音に関係なかったとしてもパッと見た瞬間のカッコ良い / 悪いが判断基準でした。見えないものを創るという性質上、見えるもので盛り上がりたいという気持ちを大切にしています」(中内氏)そういったスタッフの想いを具現化していく作業は、まるで音楽を生み出すようでスタジオワークにも近かったのではないだろうか?パラメーターを少なくして簡単に音作りできるようにしたい、という開発時からのコンセプトとともに、スタッフそれぞれの哲学が込められたGUIには一切の妥協がなかった。 空気を録音することがコンセプト 📷株式会社音響ハウス スタジオ事業部門 技術部 音楽グループ チーフ レコーディングエンジニア 中内茂治 氏 「ONKIO Acousticsは音響ハウスのスタジオを再現するルームリバーブなので、オフマイクを作るのに向いています。例えばレコーディング編成の都合上、ブース内でオンマイク収録した際には、オフマイク音をONKIO Acousticsで再現してオンマイクとブレンドしたりします」(中内氏)さらにその後段でリバーブ処理することにより、豊かな奥行き感を表現するという手法もあるそうだ。また、シンセサイザー音源から出力されるダイレクトなサウンドはアタック成分が強く、特にサンプリング音源の硬さがイコライザーで取れない場合には、ONKIO Acousticsを使用するだけで一発で解決するケースも多いのだとか。「極論を言えば、リバーブ音を構成する LOW / MID / HIGH 3つのバンドレベルのうち、HIGHを下げるだけでほぼ音が馴染んでしまいます。アタックのコントロールと空気感を含めた前後のコントロールが抜群で、コンサートホールに例えると三点吊りマイクで収録したような空気感も得られます。どんなEQよりも簡単迅速に、オケに馴染む音作りを実現してくれますよ。昨今はヘッドホンやイヤホンだけで音楽制作をしているDTMユーザーが増えていますが、そのような環境であればこそ、ONKIO Acousticsの空気感が際立ってくると思います。アレンジや音作りの手がかりとしてもぜひ活用して欲しいです」(中内氏) 📷音響ハウスStudio No.1の反射板は簡単に取り外しが可能とのこと。反射板の場所や数を調整して響きを自在にコントロールできる、そんな稀有な機能を備えたスタジオだ。ONKIO Acousticsプラグイン内でもReflectors:Fully(フル設置)、Reflectors:Half(半分設置)、Reflectors:None(なし)の3種類を選択することができ、Studio No.1の機能をもリアルに再現することができている。 「ONKIO Acousticsはエフェクトカテゴリーとしてはリバーブに相当しますが、空気を通す、つまり空気を録音することがコンセプトにあるので、一般的なリバーブプラグインとは異なります」(田中氏)度々登場するこの "空気" というキーワード。そのなかでも特に、空気を録音するというコンセプトは、音の正体が空気の疎密波であるということを再認識させてくれるのではないだろうか。ONKIO Acousticsは他のプラグインと同様に、パソコン内で音楽制作するツールということに変わりはないが、DAWに空気感を吹き込む、その音の佇まいが最大の魅力ということである。 「次世代の若者に音響ハウスのサウンドを体験して欲しいという思いが一番にあります。プロの方達は実際に音響ハウスに来ることができますが、そうではない方達にレコーディングスタジオの空気感を知って欲しいですね。このプラグインが、自宅だけではできない音作りがあるということに気付くきっかけとなって、数年後にユーザーがエンジニアやアーティストになって音響ハウスを使ってくれれば良いなと。そこで、次世代に伝えたいという意味でも、大変リーズナブルな価格設定で提供しています」(田中氏)驚くのはその価格の低さだけではない。たった29.8MBというプラグインのデータサイズは、サンプリング・リバーブというカテゴリーにおいては驚異的な小容量である。ソフトウェアのデータサイズから見ても、ONKIO Acousticsが通常のリバーブとは根本的に異なることがお分かりいただけるだろう。 空間処理における最強コンビへの構想も!? 📷空気の振動にこだわったONKIO Acousticsとは対照的に、鉄板の振動が温かい響きを生み出すプレートリバーブEMT-140。マシンルームに所狭しと並ぶEMT-140たちをプラグインで再現して欲しい!という声が寄せられているそうだ。 ONKIO Acousticsはバージョン1.2.0で、音響ハウスのOBを含む5名の著名エンジニアによるプリセットが追加された。それらのプリセットはDAW初心者が空気を通した音作りを学べるだけでなく、サウンドプロフェショナルにも新たなアイディアをもたらしてくれるだろう。「ユーザーからGUIに関するリクエストがあれば、ぜひお聞きしたいです」(志村氏)とのことで、今後のバージョンアップにも期待が持てそうだ。また、VSVerbテクノロジーは反射音場を全周4πステラジアン方向でサンプリングする方式のため、1D、2D、3D のあらゆる再生フォーマットに対応できるのも大きな特長である。サラウンドミックスの需要が高まっているなかで、将来的にONKIO Acousticsがサラウンド対応することにも期待したい。 また、ONKIO Acousticsの発売をうけて、音響ハウスが所有している5台のプレート・リバーブ EMT140をぜひプラグインで再現して欲しい!という声も寄せられているようで、「ONKIO PLATE」としてその構想も浮かんできているようだ。「EMT140はアンプがトランジスタのほか真空管モデルもあり、みな個体差があって音が違うので、正常に動いている今のうちに記録して皆で使えるようにしたいですね。サウンド・エンジニアリングの勉強にもなりますよ」(田中氏)とのことで、このONKIO PLATEをONKIO Acousticsと併用すれば、CITY-POPを代表する空間処理の最強コンビになることは間違いないだろう。音響ハウスの新たなるソフトウェア展開が、DAWユーザーとレコーディングスタジオとの関係に新しい空気を吹き込み、次世代に向けて歩み始めている。 *ProceedMagazine2023号より転載
現場目線から見えてきたダビングステージでのAvid S6 / TOHOスタジオ株式会社 ダビングステージ2
📷今回お話をお伺いしたTOHOスタジオ株式会社ポスト・プロダクション部の皆様。実際にAvid S6での実作業を行われた方にお集まりいただきお話をお伺いした。左上:両角 佳代子氏、右上:早川 文人氏、左下:下總 裕氏、右下:岩城 弘和氏 2022年9月にAvid S6をダビングステージに導入した東宝スタジオ。リニューアルされてから本記事執筆までの7ヶ月で16本の作品のダビングを行ったという。本誌前号ではそのシステムのご紹介を行ったが、実際にダビングの現場におけるAvid S6の使用感や、ワークフローにどのような変化が起こったかなど、現場目線から見えてくるAvid S6導入の効果を伺った。 システムに配されたPro Tools 7台 まずは、NEVE DFCコンソールからAvid S6へと更新されたことによるワークフローの変化からご紹介していきたい。前号でも触れているが、Avid S6へと更新を行うことで、NEVE DFCが担っていたミキシングコンソールとしてのミキシングエンジンは無くなった。それを代替するためにミキサー専用のPro Toolsを2台導入し、その機能を受け持たせるというシステム設計を行っている。プレイアウトのPro Toolsが4台。ミキサーエンジンとしてのPro Toolsが2台、ダバー / レコーダーとしてのPro Toolsが1台という7台構成でのシステムとなっている。 システムとして見れば煩雑になったとも感じられる部分ではあるが、もともとPro Toolsのオペレートに習熟した技師の方が多いということ、またMA室にAvid S6、そしてシグナルルーティングのコアとして稼働しているAvid MTRXが導入済みであったこともあり、現場スタッフの皆さんもそれほど大きな混乱もなくこのシステムを受け入れることができたということだ。外部からの技師の方々も国内の他のダビングステージでAvid S6での作業を経験したことのある方が多かったということでシステムの移行は想定よりもスムーズだったという。 📷スタジオのシステムを簡易に図としたものとなる。非常に多くの音声チャンネルを取り扱うことができるシステムであるが、その接続は想像よりもシンプルに仕上がっているということが見て取れる。各MTRX間のMADI回線は、すべてパッチベイを経由しているため、接続を変更してシステムの構成を簡単に変更することができる。図中にすべてを記載できたわけではないのだが、各MTRXはMADI及びAESがユーティリティー接続用としてパッチ盤へと出力されている回線を持っている。そのため持ち込み機器への対応などもMTRXのパッチを駆使することで柔軟に行うことができるように設計されている。 このシステムを見た方は、なぜ、ミキサーPTが必要なのか?という疑問を持たれるかもしれない。シンプルにステムをダバーで収録するだけであればプレイアウト用のPro Tools内部でステムミックスを行えば良い。しかし、コンソールありきでミキシングを行ってきた経験のある方からすれば、ステムミックスを行うのはあくまでもコンソールであり、プレイアウト用のPro Toolsは音声編集、再生を担当するという考え方が根強い。仕込みが終わり、ダビングステージで他の音源とともにバランスを取る際に、改めてまっさらなフェーダー(0dB位置)でのミックスを行いたいということである。実際にミキシングを行うという目線で考えれば頷けるのではないだろうか。 もちろん実際の作業で、Pro Toolsに慣れ親しんだ方はミキサー用Pro Toolsを使用しないというケースもあったとのこと。ダイアログ、音楽はダイレクトに、効果はミキサーを通してなどというハイブリッドなケースもあり、どのような要望にも応えられる柔軟性を持ったシステムに仕上がっていることが実際の作業でも実証されている。もちろん、東宝スタジオのもう一つのダビングステージにはNEVE DFCがあるので、究極的にはNEVE DFCとAvid S6の選択もお客様のニーズに合わせて行える環境が整っている。 コンソール依存ではないオートメーション管理 実際にAvid S6での作業を行ってみて感じたメリットとしては、オートメーションデータの在り処が挙げられる。このオートメーションデータが、すべてPro Toolsのデータとして存在することによるメリットが非常に大きいということをお話いただいた。 これまで、リテイク(修正作業)や完パケ後のM&Eステム制作作業などを、ダビングステージを使わずに行うことができるようになったということを挙げていただいた。もちろん、リテイク後の確認はダビングで行う必要があるが、Pro Tooleにすべてのオートメーションデータがあるので、Pro Tools単品でのミックスが可能になった。これは、NEVE DFCを使ってミックスを行っていた際には行うことができない作業である。ミキサー用Pro Toolsを使っていたとしても、そのミキシング・オートメーションデータはPro Toolsのセッションファイルとして管理される。そのため、他のPro Toolsへとセッションインポートを行うことでミキシングの状況の再現が可能となる。一方、NEVE DFCでは当たり前だがNEVE DFC内にオートメーションデータがあり、その再現にはNEVE DFCが必須となるからだ。 このメリットは、特に後作業で発生する各種ステムデータの書き出しなどをダビングステージを使用しなくても行えるということにつながる。これにより、今後ダビングステージ自体の稼働も上げることができるのではないか?とのお話をいただくことができた。 システム更新によるメリットは、このような派生作業にまでも影響を与えている。Avid S6はそれ自体がミキシングエンジンを持たないため、コンソールではなくコントローラーだ、などと揶揄されることもあるが、コントローラーだからこそのメリットというものも確実にあるということを改めて確認することができた。 オフラインバウンスを活用する これは、極端な例なのかもしれないが、オフラインバウンスでのステムデータの書き出しも実現している。ミキサーPro Toolsをバイパスするシステムアップであれば、オフラインバウンスで書き出したデータをダバーに貼り込むというワークフローも現実のものとして成立する。これによる作業時間の短縮などのメリットももちろんある。決まったステムからオフラインバウンスでダバーに渡していくことで、バス数の制限から開放されるといったワークフローも今後視野に入ってくるのではないだろうか。現状ではダバーへ最大128chの回線が確保されている。今後の多チャンネル化などの流れの中ではこのような柔軟な発想での運用も現実のものとなってくるのかもしれない。 このお話を伺っていた際に印象的だったのが、オフラインバウンスで作業をするとどうもダビングをしているという感覚が希薄になってしまうというコメントだ。確かに、というところではあるが、ついにダビングにもオフラインの時代がやってくるのだろうか、省力化・効率化という現代の流れの中で「オフラインバウンスでのダビング」というのものが視野に入ってくることを考えると、筆者も少し寂しい気持ちになってしまうのは嘘ではない。 システムがAvid Pro ToolsとAvid MTRXで完結しているために、作業の事前準備の時間は明らかに短くなっているとのことだ。具体的には、別の場所で仕込んできたPro ToolsセッションのアウトプットをNEVE DFCのバスに合わせて変更するという手間がなくなったのが大きいとのこと。Avid S6であれば、途中にAvid MTRXが存在するので、そこでなんとでも調整できる。事前に出力をするバス数を打ち合わせておけば、Pro Tools側での煩雑なアウトプットマッピングの変更を行うことなくダビング作業に入ることができる。ダビング作業に慣れていない方が来た場合でも、すぐに作業に入ることができるシンプルさがある。準備作業の時間短縮、完パケ後作業を別場所で、などとワークフローにおいても様々なメリットを得ることができている。 Avid S6ならではの使いこなし 📷前号でもご紹介したTOHOスタジオ ダビング2。Avid S6を中心としたシステムが構築されている。コンソールの周りには、プレイアウトのPro Toolsを操作するための端末が配置されている。マシンルームはMacPro 2019とAvid MTRXの構成に統一され、同一性を持ったシステムがずらりと並ぶ。メンテナンス性も考えてできる限り差異をなくした構成を取っているのがわかる。 東宝スタジオでは、国内最大規模となるAvid S6 / 72Fader Dual Head仕様を導入したが、物理的なフェーダー数は充分だろうか?これまでのNEVE DFCではレイヤー切り替えにより操作するフェーダーを切り替えていたが、Avid S6ではレイアウト機能など様々な機能が搭載されている。これらをどのように使いこなしているのだろうか?実際のオペレーションに関してのお話も伺ってみた。 物理フェーダー数に関しては、充分な数が用意されていると感じているそうだ。Pro Toolsのここ最近の新機能であるフォルダートラックと、Avid S6のフェーダースピル機能を活用する方が多いという。フェーダースピル機能とは、フォルダートラックにまとめられた個別のフェーダーをフォルダートラック・フェーダーの右、もしくは左に展開することができる機能である。バスマスターでもあるフォルダートラックのフェーダーを手元に並べ、フェーダースピル機能を使って個別のトラックのバランスの微調整を行う。まさにAvid S6ならではの使いこなしを早速活用していただいている。 オペレートに関して、NEVE DFCからの移行で一番多く質問されるのがオートメーションの各モードの動作。やはりメーカーが異なるということもあり、オートメーションモードの名称に差異がある。具体的には「Latchってどんな動作するんだっけ?」というような質問である。これは、回数を重ねてAvid S6を使っていけば解決する問題ではあるが、NEVE DFCと2種類の異なるコンソールを運用する東宝スタジオならではの悩みとも言えるだろう。また、コンソールとしてのEQ、COMPの操作という部分に関しては、Pro Tools上のプラグインを活用するシステムとなるため、自ずとノブではなくマウスに手が伸びるとのこと。正面を向いてしっかりと音を聴いて作業できる環境、ということを考えるとコンソール上のノブでの操作が有利だが、やはりプラグインの画面が表示されると慣れ親しんだマウスとキーボードで操作することの方が今のところは自然ということだろう。 唯一無二から正確な再現性へ そして、いちばん気にかかる部分かもしれない音質に関して、Avid S6の導入に合わせて更新されたAvid MTRXと、NEVE DFCとの差異についてお話を聞いてみたところ、やはり、音質に関して違いがあることは確かだ、とのコメントをいただいている。確かにメーカーも異なるし、機器としても違うものなので同列に語ることは難しいかもしれないが、味のあるNEVEに対して、クリアで忠実な再現性を持ったAvid MTRXといったニュアンスを感じているとのこと。NEVEはどこまで行ってもNEVEであり、やはり唯一無二のキャラクターを持っているということに改めて気付かされているということだ。一方、Avid MTRXについては、忠実性、レスポンスなどNEVEでは感じられなかったサウンドを聴くことができるとのこと。 Avid MTRXの持つ正確な再現性は、効果音のタイミングに対して今まで以上にシビアになったりと、これまで気にならなかったところが気になる、という事象となって出現してきているということ。これはさらに作品を磨き上げることとができる音質を手に入れたということでもあり、非常にやりがいを感じる部分でもあるとのことだ。既にMA室でも導入の実績のあるAvid MTRXだが、ダビングステージの音響環境ではさらにその傾向を顕著に聴き取ることができる。これにより、今後の作品の仕上がりがどのように変化するのか楽しみな部分でもある。 音質に関しては、今後マスタークロックや電源などにもこだわっていきたいとのコメントをいただいている。これは、Avid S6が非常に安定して稼働しているということの裏返しでもある。システムのセットアップに必要な時間も短縮され、システム自体の安定度も高い。そういったことから、さらに高い水準での探求を考える余地が見えてきているということとだろう。安定稼働させることで精一杯であれば、音質云々以前にシステムを動作させることで疲弊してしまうというのは想像に難くない。このようなコメントをいただけるということは、システムとしての安定度に関しても高い水準で運用いただいているということが伺い知れる。 こうなってくると、あまり話題に上ることも多くなかったPro Toolsのミキサーエンジンの持つHEATなども活用してみては面白いのではないか?と考えてしまう。テレビのように厳密なレベル管理は行われていない映画。(これは悪い意味で管理されていないということではなく、芸術作品であるがゆえに管理を行っていないということである。)パラメーターによりレベル差が生じるHEATはテレビ向けのポストプロダクションでは使い勝手に難がある機能であったが、映画であれば多少のレベルの変動は許容できるはずである。お話をまとめていてふと、こんな想像もよぎっていった。 ●ROCK ON PRO 導入事例 TOHOスタジオ株式会社 ポストプロダクションセンター2 様 / アジア最大規模のS6を擁したダビングステージ https://pro.miroc.co.jp/works/toho-proceed2022-23/ システムの更新を行いNEVEが懐かしいというお客様も確かにいるが、新しいシステムで安定度高く作業を行うことができるメリットは大きく、好評をいただいているということだ。もう一つのダビングステージには、NEVE DFCがあるということもあり、お客様には幅広い選択肢でのワークフローを提案できる環境が整備されている。これはスタジオにとって大きなメリットであり、今後も継続していきたい部分でもあるということ。 とはいえ、Avid S6によるワークフローの改善、省力化、安定度に対する魅力も大きく、NEVE DFCとAvid S6のHybridコンソールシステムは組めないのか?などという質問も出てきている。ハリウッドでは、このようなシステムアップも現実のものとして稼働している。東宝スタジオのどのように使いたいのかというワークフローを色々と相談をしながら、今後のベストなシステムアップのお手伝いを行えればと考えている。今後の日本映画のポストプロダクションシステムを占うファシリティー。Avid S6へ移行することで獲得した多くのメリットをどのようにこれからのシステムアップに活かしていけるのか?これが今後のテーマになっていくのではないだろうか。 *ProceedMagazine2023号より転載
Waves Live SuperRack〜あらゆるミキシング・コンソールにアドオン可能なプラグイン・エフェクト・ラック
Dante、MADI、アナログ、AES/EBU…どんな入出力のコンソールにも接続可能で、最大128ch(64chステレオ)のトラックに大量のWavesプラグインをニアゼロ・レイテンシーで走らせることができる、ライブサウンドとブロードキャスト・コンソールのための最先端のプラグイン・エフェクト・ラック。それが「SuperRack SoundGrid」です。 プロセッシングをおこなう専用サーバー本体は2Uのハーフラック・サイズ。1Uまたは2Uハーフラックの専用Windows PCはマルチタッチ・ディスプレイに対応しており、プラグインのパラメータをすばやく直感的に操作することが可能です。 システム内の伝送はWavesが開発したレイヤー2のAoIP規格であるSoundGrid。汎用のネットワークハブを介してLANケーブルのみでシステム全体を接続します。 スタジオ・ミキシングやレコーディングはもちろん、省スペースなシステムでパワフルなデジタルエフェクト処理、冗長性、ニアゼロ・レイテンシーを実現するSuperRack SoundGridは、限られた機材で最高の結果を求められるライブサウンドや中継の現場などにはまさにうってつけのソリューションと言えるでしょう。 ◎主な特徴 0.8msのネットワーク・レイテンシー 最大4台のアクティブDSPサーバーをサポートし、プラグインの処理能力をさらに向上 最大4台のリダンダントDSPサーバーをサポートし、冗長性を確保 複数のプラグインを同時に表示・プラグインの表示サイズの変更 マルチタッチ対応のグラフィック・インターフェイス ワークスペースを最大4台のタッチディスプレイに表示 SoundGrid I/Oをネットワーク上でシェアすることで、大規模なシステムにも対応 Waves mRecallアプリ:保存したスナップショットを、Wi-fi経由でスマートフォン、タブレットから呼び出し可能 個別デモのご用命はROCK ON PRO営業担当、または、contactバナーからお気軽にお申し込みください。 番組や収録のマルチトラック音源をお持ち込みいただければ、Waves SuperRackシステムを使ったミックスを体験頂けます。 ◎システム構成例1 図はSuperRack SoundGridを使用したシステムの基本的な構成。例としてMADI I/Oを持ったコンソールを記載しているが、アナログやAES/EBUなどの入出力を持ったコンソールにも対応可能だ。 中列にあるMADI-SoundGridインターフェイスを介して信号をSoundGridに変換、左上の専用PCでプラグインをコントロールし、左下の専用サーバーで実際のプロセスをおこなう。 アナログコンソールやデジタルコンソールと使用したい場合は、中列のSoundGridインターフェイスを、IOCなどのアナログ・AES/EBU入出力を備えたモデルに変更すればよい。 ◎システム構成例2 YAMAHA、DiGiCo、Avid Venueなど、オプションカードとしてSoundGridインターフェイスが存在しているコンソールであれば、コンソールから直接ネットワーク・ハブに接続することでシステムをよりシンプルにすることも可能だ。 SuperRackシステムの構成と選択肢 図は前述「システム構成例」からコンソールを省いたSuperRackシステム部分の概念図。ユーザーの選択肢としては、大きく3ヶ所ということになる。 左下のオーディオ入出力部については、SuperRackを接続したいコンソールの仕様によって自ずと決まってくる。SoundGridオプションカードをラインナップしているモデルであれば該当のオプションカード、そうでなければ対応するI/Oを持ったDiGiGridデバイスといった感じだ。 DiGiGrid IOCやCalrec Hydra2のように複数の種類のI/Oを持ったインターフェイスを使用すれば、デジタルコンソールとアナログコンソールで同時にSuperRack SoundGridを使用するといった構成も可能になる。 左上のWindows PCは基本的にプラグインを操作するUI部分のため、求めるマシンパワーに応じて、1UハーフラックのAxis Scopeか2UハーフラックのAxis Protonから選択すればよい。 同時に使用したいWavesプラグインやタッチディスプレイの数、レコーディング用のDAWホストを兼ねるか否かなどが選定の基準になるのではないだろうか。 右上のSoundGrid DSP Serverが、実際にWavesプラグインのプロセッシングをおこなう部分となる。複数の選択肢があるが、ここも同時プロセスの量やリダンダントの有無によって決まってくる部分だろう。 その他、KVMやLANケーブルが別途必要になる。特にケーブルはCat6対応のものが必要である点には留意されたい。 参考価格と比較表 *表はCalrec用の構成例、コンソールに応じてI/Oを選択 **プラグインライセンスは別途購入が必要 渋谷Lush Hubにて個別デモンストレーション受付中! ROCK ON PROでは、このSuperRackシステムの個別デモンストレーションを渋谷区神南のイベントスペースLUSH HUBで予約制にて受付中です。 LUSH HUBについての詳細はこちら>> 番組や収録のマルチトラック音源をお持ち込みいただければ、Waves SuperRackシステムを使ったミックスを体験頂けます。 デモご予約のご希望は、弊社営業担当、またはcontactバナーからお気軽にお問い合わせください。
360VME / 立体音響スタジオの音場をヘッドホンで持ち歩く
ソニーが提供するイマーシブの世界がさらに広がろうとしている。360 Reality Audioでの作品リリースはもちろんのことだが、今度は制作側において大きなインパクトがあるサービスとなる「360 Virtual Mixing Environment(360VME)」が発表された。これは、立体音響スタジオの音場を、独自の測定技術によりヘッドホンで正確に再現する技術。つまり、立体音響制作に最適な環境をヘッドホンと360VMEソフトウェアでどこへでも持ち運ぶことが可能となるわけだ。ここではその詳細を見ていこう。 2023.7.13 追記 ・7/13(水)より一般受付開始、8月よりMIL Studioでの測定サービスを開始いたします。 詳細は下記URLよりご確認ください。 https://www.minet.jp/contents/info/360-vme-measurement/ 📷右に並ぶのが世界で3拠点となる360VMEサービスを提供するスタジオ。上よりアメリカ本土以外では唯一となるMedia Integrationの運営する東京のMIL Studio、本誌でもレポートを掲載しているLAのGOLD-DIGGERS、そしてニューヨークのThe Hit Factory。すべてのスタジオが360 Reality AudioとDolby Atmosの両方に対応したスタジオである。これらのスタジオはソニーが360VMEサービスの測定にふさわしい音響を備えたスタジオとして認定した世界でも有数のファシリティーである。こちらで個人ごとに測定を行って得られたプロファイルをもとに、その音場をヘッドホンで再現させるのが360 Vitual Mixing Environmentだ。 ●360 Virtual Mixing Environment ソニーHP ●ソニー / MDR-MV1 / 価格 ¥59,400(税込) 「これはヘッドホンじゃない、スタジオだ。」イマーシブ世代に向けたソニーのStudio Refarence Headphone、MDR-MV1。このキャッチコピーに込められた「スタジオだ」という言葉には360VMEサービスも含まれているのだろうと考えさせられる。スタジオの音響空間を360VMEにより、ヘッドホンに閉じ込めて持ち帰る、そのために高い空間再現能力を与えられたヘッドホンである。360VME無しでも充分に素晴らしい特性を持った製品だが、360VMEと組み合わせることでさらなる真価を発揮するモデルと言えるだろう。 ●MDR-MV1 ソニーHP 世界初のプライベートHRTF測定サービス ついに待望のサービス開始がアナウンスされたSONY 360 VMEサービス。VMEとは「Virtual Mixing Environment」(仮想ミキシング環境)のこと。世界初となるプライベートHRTFを含むプロファイルデータを商用的に測定するサービスだ。SONY R&Dで開発され、ハリウッドのSONY Picturesで試験運用が行われていたテクノロジーで、映画の仕上げを行うダビングステージという特殊なミキシング環境を、ヘッドホンで仮想的に再現してプリミックスの助けとしようということで運用が行われていた。 広い空間でのミキシングを行うダビングステージ。そのファシリティーの運用には当たり前のことだが限界がある。ファシリティーの運用の限界を超えるための仮想化技術として、この空間音響の再現技術が活用され始めたのは2019年のこと。テスト運用を開始してすぐにコロナ禍となったが、SONY Picturesにとってはこの技術が大きな助けとなった。まさに求められる技術が、求められるタイミングで現れたわけだ。 サービス利用の流れ 国内での利用を想定して、東京・MIL Studioでの測定を例にサービス利用の流れを紹介するが、執筆時点(2023年5月下旬)では暫定となる部分もあるため実際のサービス開始時に変更の可能性があることはご容赦いただきたい。まず、利用を希望される方はWebほかで用意されたページより360VMEサービスを申し込む。この段階では測定を行うヘッドホンの個数、必要なスピーカープロファイル数をヒアリングし、いくつのプロファイルを測定する必要があるのか確認、測定費用の見積と測定日の日程調整を行う。実際のMIL Studioでの測定ではヘッドホンの測定も行いその個体差までもを含めたプロファイルを作成するため、使用されるヘッドホンの持ち込みは必須となる。 MIL Studioではそれぞれのプロファイルに合わせて測定を行った後に、そのプロファイルが正しく想定されているかを実際の音源などを使って確認、納得いくプロファイルが測定できているかを確認していただき、360VMEアプリとともにプロファイルデータをお渡しすることとなる。これらを自身の環境へインストールし、利用開始というのが大まかな流れだ。 360VMEのバックボーンとなる技術 ソニーは以前よりバーチャルサラウンドの技術に対して積極的に取り組んできた。民生の製品ではあるが、バーチャル・サラウンド・ヘッドホンなどを実際に発売している、これは5.1chサラウンドをヘッドホンで再生するという技術を盛り込んだ製品であった。このようなサラウンド仮想化の技術は、長きにわたりソニー社内で研究されてきた技術があり、その系譜として今回の360VMEサービスも存在している。そして、今回の360VMEサービスはこれまでにリリースしてきたコンシューマ向けレベルの技術ではなく、プロの現場での使用を想定したハイエンド製品としてリリースされた。このようなバーチャルサラウンド技術の精度向上には、実測に基づくプライベートHRTFの測定が必須となる。実際の使用者のHRTFを含んだデータを測定することで精度は驚くほど向上する。一般化されたHRTFとのその差異は圧倒的である。 ●HRTF(Head-Related Transfer Function:頭部伝達関数)とは!? 人が音の方向を認知することが可能なのは、周波数特性の変化、左右の耳への到達時間差などを脳が判断しているからである。耳の形状や体からの反射、表皮に沿った回析など様々な要因により変化する周波数特性、左右の耳へ到達する時間差、反射によるディレイなどを表すインパルス応答特性、このようなパラメータを数値化したものがHRTF(Head-Related Transfer Function:頭部伝達関数)となる。これは個人ごとによって異なるパラメーターで、個人のHRTFを測定したものをプライベートHRTF、それを適用したバイノーラル処理を個人最適化と呼んでいる。 360VMEの技術はプライベートHRTFを測定した部屋を環境ごと測定する。それをヘッドホンのバイノーラル再生として、測定した部屋の音響環境、スピーカーの特性などをそのまま仮想環境として再現する。スピーカーの特性など、測定した部屋の音響環境ごとプロファイル化するため、厳密な意味でのプライベートHRTFではないが、その要素を含んだバイノーラル再現技術ではあると言えるだろう。 正式な意味でのプライベートHRTFは個人の頭部伝達係数であるために、予め特性を確認したスピーカーとマイクによって無響室での測定を行うこととなる。余計な響きのない空間で、単一の方角からの音源から発された音波がどのように変化して鼓膜に届くのかを測定するということになる。360VMEでは測定を行う部屋のスピーカーの個性、部屋の反射などを含めた音響特性、これらが測定したプロファイルに加わることとなる。これまでにも各社より有名スタジオのコントロールルームの音響環境を再現するようなプラグインが登場しているが、これらはプライベートHRTFにあたるデータを持たないため、どうしてもその効果の個人差は大きくなってしまう。360VMEでは、一人ひとり個人のデータを測定するためにプライベートHRTFにあたるデータを持つプロファイルデータの作成が可能となっている。 プライベートHRTFを測定しDAWと連携 それでは、実際の360VMEの測定サービスは、何が行われて何がユーザーへ提供されるのだろうか?まずは測定からご紹介していこう。測定にあたっては、まずは測定者の耳へマイクを装着することとなる。できるだけ鼓膜に近い位置で測定を行うために通称「バネマイク」と呼ばれる特殊な形状のマイクを耳孔に装着する。 マイクを装着し視聴位置に座り、始めにピンクノイズでの音圧の確認が行われる。スピーカーの信号がマイクにどれくらいのボリュームで入力されているのかを確認するということになる。次は測定を行うスピーカーからスイープ音を出力し周波数特性と位相を測定する。更に続けて、リファレンスとするヘッドホンをつけて、ヘッドホンで再生したピンクノイズとスイープを測定する。これにより、ヘッドホンの特性も含めた特性の合わせ込みを行い精度の高い空間再現を行うわけである。 📷こちらに写っているのが、360VME測定用に設計された通称「バネマイク」。このバネのような部分を耳に入れることにより、耳道を塞がずに耳の奥、鼓膜に近い位置での測定を実現している。測定においては、鼓膜にできるだけ近い位置でのデータを取るということが重要なポイント。鼓膜にどのような音が届いているのか?耳の形、耳たぶの形、頭の形など、個人差のある様々な要因により音が変化する様をこのマイクで測定することとなる。360VMEの測定ではスピーカーから出力された音源での測定だけではなく、このマイクを付けたままでヘッドホンの測定も行い精度をさらに高めている。ヘッドホンには個体差があるため、測定に使うヘッドホンは実際に普段から使っているものをお持ちいただくことになる。 測定の作業はここまでとなり、スピーカーからの再生音とヘッドフォンからの再生音、それぞれのデータからプロファイルデータを生成する。ここで生成されたプロファイルデータは、測定サービスを行ったユーザーに提供される360VMEアプリケーションに読み込ませることで、そのデータが利用可能となる。DAWなどの制作ツールと360VMEの接続は、PC内部に用意される仮想オーディオバス360 VME Audio Driverにより接続される。具体的には、DAWのオーディオ出力を360 VME Audio Driverに設定し、360VMEアプリケーションのインプットも360 VME Audio Driverに設定、アウトプットは実際に出力を行いたいオーディオインターフェースを選択するということになる。 このような仕組みにより、DAWから出力されるイマーシブフォーマットのマルチチャンネル出力が、360VMEアプリケーションから測定結果により生成されたプロファイルデータを適用したバイノーラルとして出力される。プライベートHRTFと測定を行ったスタジオのスピーカーや空間、音響特性を含んだ精度の高いバイノーラル環境での作業が可能となるということだ。 このような仕組みのため、測定時のスピーカーセット=制作DAWのアウトプットとする必要がある。そのため、Dolby Atmosの制作向けのスピーカーセットと360 Reality Audio向けのスピーカーセットはそれぞれ別のプロファイルとして測定が必要だ。また、複数のヘッドホンを使い分けたいのであれば、それも別プロファイルとして測定を行う必要がある。ちなみに360VMEの発表と同時にリリースの発表が行われたSONY MDR-MV1ヘッドホンは、360VMEのアプリケーション開発にあたりリファレンスとして使われており、その特性は360VMEアプリケーションのチューニングにも使われているということだ。360VMEサービスの測定を行う際にどのヘッドフォンで測定をしようか迷うようなことがあるのであれば、MDR-MV1を選択するのが一番間違いのない結果が得られることだろう。ただ、他のヘッドホンでも十分な効果を得ることができるので、普段から慣れたヘッドホンがあるのであればそれを使うことは全く問題ない。 ●360 Virtual Mixing Environmentアプリ ※上記画像はベータ版 測定をしたプロファイルデータを読み込ませて実際の処理を行うのがこちらの360 Virtual Mixing Environmentアプリ。画像はベータ版となるため、実際のリリースタイミングでは少し見た目が変わるかもしれないが、プロファイルを読み込ませるだけではなく、各チャンネルのMute / Solo、メーターでの監視などが行えるようになっている。シグナルフロー図からもわかるように、360VME Audio Driverと呼ばれる仮想の内部オーディオバスがこのアプリケーションとともにインストールされ、DAWなどからのマルチスピーカーアウトを360VMEアプリへ接続することとなる。あくまでも仮想的にスピーカー出力をバイノーラル化する技術となるため、スピーカーアウト、レンダリングアウトを360VMEアプリへつなぐということがポイントとなる。具体的には360 WalkMix Creator™️のアウトプット、Dolby Atmos Rendererのアウトプットを接続することとなる。もちろん5.1chやステレオをつなぐことも可能だ。その場合には、その本数分のスピーカーが360VMEの技術によりヘッドホンで再現されることとなる。 📷東京・MIL Studioで測定可能となる代表的なフォーマット。これら以外についても対応可能かどうかは申し込み時にご確認いただきたい。(※Auro 3Dフォーマットの測定には2023年7月現在対応しておりません)また、当初のリリースでは16chが最大のチャンネル数として設定されている。技術的にはさらに多くのチャンネル数を処理することも可能とのことだが、DAW併用時の処理負荷とのバランスが取られている。確かに16chあれば360 WalkMix Creator™️の推奨環境である13chも対応でき、Dolby Atmosであれば9.1.6chまで賄えることになる。43.2chというMIL Studioでの測定となると、さらにチャンネル数を求めてしまいたくなるところだが、一般的なスタジオ環境との互換を考えれば必要十分な内容だと言えるだろう。 日米3拠点で測定サービスを提供 この360VMEサービスにおけるスタジオでの測定は、サービス開始当初は世界で3ヶ所のスタジオでの測定となる。日本では弊社の運営する43.2chのディスクリート再生を実現した完全4π環境を持つMIL Studio。他の2ヶ所のスタジオはアメリカにあり、ロサンゼルスのGOLD-DIGGERSとニューヨークのThe Hit Factoryとなり、新進気鋭のスタジオと老舗スタジオがそれぞれ選ばれた格好だ。音響環境や360VMEという通常のスタジオ運営とは異なるサービスへの賛同を行った3拠点で、この360VMEサービスはまず開始となる。本記事の執筆段階でサービス開始は2023年6月末〜7月上旬、価格はそのプロファイル測定数にもよるが、おおよそ7万円程度からでのスタートを予定しているということだ、本誌が発行されるころにはこれらの情報も正式なものが発表されていることだろう。(※) ※2023.7.13 追記 ・7/13(水)より一般受付開始、8月中旬よりMIL Studioでの測定開始 ・1プロファイル測定:68,000円(税別)+追加の測定 1プロファイルにつき 20,000円(税別) 〜 ・測定可能フォーマット、価格につきましてはこちらのページからご確認ください。https://www.minet.jp/contents/info/360-vme-measurement/ 360VMEサービスがスタートすることで、イマーシブ制作の環境に劇的な変化が訪れるのではないだろうか?ヘッドホンミックスの精度が上がることで、制作環境における制約が減り、作品を作るためのスタートラインがぐっと下がることを期待したい。もちろんスピーカーがある環境をすぐに揃えられるということであればそれが最高のスタートラインではあるが、スピーカーを揃えることに比べたら圧倒的に安価、かつ手軽にMIL Studioの音場、イマーシブのスピーカー環境をヘッドホンに入れて持ち帰ることができる。この画期的なサービスによる制作環境の変化に期待したいところである。 *ProceedMagazine2023号より転載
イマーシブ表現は新たなステージに。Spat Revolution UltimateにWFS(波面合成)アドオンが登場
2017年のリリース以来、プロダクション、ライブサウンド問わず、イマーシブ・オーディオ・プロセッサーとして独自のポジションを確立しているSpat Revolution Ultimateが、WFS(波面合成)による仮想の音源配置に対応しました。WFSは従来のパンニング方式に比べて、特に大きな会場で、より多くのオーディエンスに優れた定位感を提供できると言われています。この記事では、WFSの基本的な考え方をおさらいした上でそのメリットを確認し、またアルゼンチンで行われた大規模フェスティバルでの導入事例も紹介していきます。 FLUX:: / IRCAM Spat Revolution Spat Revolution Ultimate ¥297,000(税込) WFS Add-on option for Spat Revolution Ultimate ¥74,800(税込) 音楽制作やポストプロダクションでは各種DAWと連動させてDolby Atomsなどあらゆるフォーマットに対応したイマーシブ作品の制作に、ライブサウンドではデジタル・コンソールからリモート・コントロール、ライブ会場を取り囲むように配置されたPAスピーカーへの出力をリアルタイムで生成するプロセッサーとして、さまざまなアプリケーションに対応する最も多機能で柔軟性の高い、ソフトウェア・ベースのイマーシブ・オーディオ・プロセッサー。 WFS(波面合成)とは? WFS(Wave Field Synthesis)は、直線上に並べたラウドスピーカーのアレイを用いた音響再生技術で、従来の技術(ステレオ、5.1chサラウンドなど)の限界を取り払う可能性がある技術です。サラウンド・システムは、ステレオの原理に基づいており、一般的に「スイートスポット」と呼ばれる複数のスピーカーに囲まれた中心部の非常に小さなエリアでのみ音響的な錯覚を起こさせ、音がどの方向からやってくるのかを感じさせます。一方、WFSは、リスニングエリアの広い範囲にわたって、与えられたソースの真の物理的特性を再現することを目的としています。この原理は「媒質(=空気)を伝わる音波の伝搬は、波面に沿って配置されたすべての二次的音源を加えることで定式化できる」というもので、Huyghensの原理(1678年)に基づいています。 WFSを実現するためには、あるサウンドのシーンにおいて音源をオブジェクトとして捉え、そのオブジェクトの数量分の位置情報を把握できていることが前提となります。例えば、動画・音声データにおける圧縮方式の標準規格のひとつであるMPEG-4では、WFS再生と互換性のあるオブジェクトベースのサウンドシーン記述が可能になっています。 現実には、図版で見られるように音源が発する波面と同じようにスピーカーを配置することはあまりにも現実的ではありません。そこで、直線上にラウドスピーカーを配置し、各スピーカーから出力される音量とタイミングをコントロールすることで、仮想に配置された音源からの波面を人工的に生成します。 このように音源をスピーカーの向こう側に”配置”することによって、その部屋や会場にいるリスナーは、音源の位置から音が放出されていると認識します。一人のリスナーが部屋の中を歩き回ったとしても、音源は常にそこにいるように感じられるのです。 📷 「媒質(=空気)を伝わる音波の伝搬は、波面に沿って配置されたすべての二次的音源を加えることで定式化できる」という物理的特性をそのままに、波面に沿って二次的音源を配置した際のレイアウトが左図となりますが、このように音源が発する波面と同じようにスピーカーを配置することはあまりにも現実的ではありません。そこで、右図のように直線上に配置したスピーカーから出力される音量とタイミングをコントロールすることで、複数の音源の波面を同時に合成していくのが「WFS(波面合成)」となります。 なぜライブサウンドでWFSが有効なのか? 📷 Alcons Audio LR7による5本のリニアアレイと設置準備の様子 d&b Soundscapeなどラウドスピーカーのメーカーが提供する立体音響プロセッサーにもWFSの方式をベースとしているものが数多くあります。 これまでのサラウンドコンテンツ制作はチャンネルベースで行われ、規定に基づいたスピーカー配置(5.1や7.1など)で、音響的にも調整されたスタジオで素晴らしいサウンドの制作が行われます。しかし、この作品を別の部屋や同じように定義されたラウドスピーカーがない環境で再生すると、チャンネルベースのソリューションは根本的な問題に直面することになります。音色の完全性が失われ、作品全体のリミックスが必要となるわけです。ツアーカンパニーやライブイベントで、チャンネルベースの5.1や7.1のコンテンツを多くのオーディエンスに均等に届けるのは非常に難しいことだと言えるでしょう。 従来のサラウンドとWFSの違いにも記載しましたが、チャンネルベースまたは従来のステレオパンニングから派生したパンニング方式では、複数のスピーカーに囲まれた中心の狭いエリアでのみ、制作者が意図した定位感を感じることができます。例えば、ライブ会場に5.1chの規定通りにラウドスピーカーを配置できたとしても、Ls chのすぐ近くのリスナーにとっては非常に音量感にばらつきのあるサウンドシーンとしてしか認知できません。 WFSを用いた会場の「より多くのオーディエンスに優れた定位感を提供する」というメリット以外に、WFSでは必ずしも会場を円周上に取り囲んでスピーカーを配置する必要が無いという大きなメリットもあります。常に会場の形状、そしてコストの制約を考慮しなければならないライブ会場でのイマーシブ音響のシステムとしては非常に有利な方式と言えます。 📷 イースペック株式会社主催の機材展2022において、国内では初のSpat RevolutionのWFS Optionを使った本格的なデモでの一コマ。サンパール荒川大ホールに常設されている照明用バトンに、小型のラインアレイAlconsAudio LR7を5組均等間隔に吊り、あたかもステージ上に演奏者がいるかのような音場を実現していた。 Spat Revolutionで行うWFS再生 📷 Spat Revolutionでオーケストラの編成をWFSアレイの向こう側に仮想配置。 コンパクトで軽量なラインアレイであれば、照明用のバトンへ直線上に5アレイを吊ることも可能かもしれません。Spat RevolutionでWFS再生を行うためには最小で5本以上の同じ特性を持ったラウドスピーカーを均等間隔で配置する必要があります。スピーカーの数が増え、スピーカーとスピーカーの間隔が小さくなればなるほど、定位感の再現性が高まります。 Spat Revolutionでは配置するスピーカーの周波数特性や放射特性を定義する項目がありません。だからこそポイントソースであってもラインアレイであってもスピーカーに制約が無いという大きなメリットがあるのですが、そのスピーカーの放射角度によって最適な配置も変わってきますし、聴こえ方にも影響します。指向角度を考慮してSpat Revolution内で設定を行い、実際に設置を行った後に微調整が可能な6つのパラメーターが備わっているので、最後のチューニングは音を聴きながら行うのが現実的でしょう。 そのひとつとなるGain Scalingというパラメーターでは、すべてのソースに対して計算されたゲインをスケーリングすることができます。これは例えばフロントフィルなどリスナーに近いWFS直線アレイ配置の場合に有効で、この割合を減らすとラウドスピーカー・ラインの近くに座っている観客のために、1オブジェクトのソースをアレイ全体から、より多くのラウドスピーカーを使って鳴らすことができます。 Spat Revolutionで構成できるWFSアレイは1本だけではありません。会場を取り囲むように4方向に配置すれば、オブジェクトの可動範囲が前後左右の全方位に広がります。またWFSアレイを上下に並行に増やしていくことも可能で、縦方向の定位表現を加えることも可能です。このように映像や演目と音がシンクロナイズするような、かなり大規模なサウンドシステムのデザインにも対応できることがわかります。 📷 会場を取り囲む4つのWFSアレイ。 VendimiaでのSPAT WFS Option 📷 Vendimia 2022 – Mendoza Argentina アルゼンチンのメンドーサで開催される収穫祭「Vendimia」は、ブドウ栽培の業界おいて世界で最も重要なイベントのひとつです。2022年はパンデミック後で初の開催とあって、音楽やエンターテインメントにも大きな期待が寄せられていました。 Vendimiaフェスティバルのサウンドシステム設計を担当し、地元アルゼンチンでシステム・インテグレーションとサウンドシステムのレンタル会社Wanzo Produccionesを経営するSebastian Wanzo氏に今回の会場でのシステム設計について伺うことができました。 Wanzo Producciones / Sebastian Wanzo 氏 Wanzo Producciones 「今年のフェスティバルのサウンドデザイナーとして、様々なステージでのオーディオビジュアル効果をサポートし、臨場感を提供するためにイマーシブ・オーディオプロセッシング・システムの導入を提案しました。」とSebastian Wanzo氏は語ります。 この会場でイマーシブ・オーディオ・プロセッシングを実際に行なっていたのが、リリースされたばかりのWFSアドオン・オプションを備えたSPAT Revolution Ultimateです。Vasco HegoburuとWanzo Productionsが提供する4台のAvid Venue S6LコンソールとMerino Productionsが提供するClair Brothersのシステムに介在し、Vendimiaフェスティバル全体のイマーシブ・システムの核となり、プロセシングを行なっていました。 「横幅が80mを超えるステージで、フロントフィルより前にはスピーカーを配置することができないため、Clair Brothersのスピーカーで6.1chのシステムを定義し、設置しました。」 システムのルーティングとコンフィギュレーションはハイブリッド的なセットアップで、1台のS6Lはオーケストラ専用でステレオミックス用、もう1台のS6Lは全てのエフェクトとエフェクトのオートメーション、そして全てのサウンドタワーにイマーシブのフィードを供給していました。3台目のS6Lはオーケストラのモニター卓として、4台目のS6Lは配信用のミックスに使われました。 「2019年にISSP (Immersive Sound System Panning)ソフトウェアを開発したアルゼンチンのIanina CanalisとDB Technologiesのスピーカーでライブサウンドにおけるイマーシブサウンドを体験した時に、我々の業界の未来がこの方向に進んでいることを実感しました。パンデミック以前は、空港やスタジアムのオープニングセレモニーなど、従来のマルチチャンネル・オーディオ・システムで多くの作品を制作していましたが、パンデミックの最中には、ストリーミングによるショーや、観客の少ないライブショーが増えたため、SPAT Revolutionなどのイマーシブ・オーディオ・プロセッサーの経験値を高めていくことになりました。そして次第に、SPAT Revolutionの無限の可能性を確信するようになったのです。」 フェスティバルにおけるシステム設計は、異なるジャンルの音楽が演奏されること、広い面積をカバーするためにスピーカー・クラスタ間の距離が大きく、クラスタより客席側にはスピーカーの設置が不可能なため、Wanzo氏と彼のチームにとってはとても大きな挑戦でした。 「SPAT Revolutionが提供する様々なパンニング方式を試してきましたが、最終的にライブで最も使用したのはWFS(波面合成)でした。我々は、このWFSオプションのベータテスター・チームに早くから参加しており、Vendimiaフェスティバルのようにクラスター間の距離が離れた会場でも、非常にうまく機能することがわかっていました。また、SPAT Revolutionの芸術的な表現の可能性をより深く理解することで、このフェスティバルでは印象的で一貫した結果を得ることができました。」 Vendimiaフェスティバルのシステムでは、4台のS6Lがそれぞれ異なる役割を担当しており、サウンドデザインとイマーシブシステムにおけるWanzo氏の経験により、全てが相互に補完しあい、連動するシステムを作り上げました。 「システム提案の段階では、Spat Revolutionで9.1.4chのシステムを使った一連のデモンストレーションを行い、プロデューサー、ミュージシャン、技術関係者に実際に音を聴いてもらい、意見をもらう機会を設けました。全ての関係者から好意的な反応をもらい、Vendimiaフェスティバルの大規模なシステムの準備に着手しました。SPAT RevolutionをAvid S6Lサーフェスでコントロールできることが、ここでは非常に重要だったのです。」 Wanzo氏のイマーシブオーディオによるサウンドデザインの独創的なアプローチとVendimiaのセットアップについて、ライブサウンドの未来とライブ・プロダクションにおけるイマーシブオーディオの優位性についてもこうコメントしています。 「厳密に技術的な観点から言うと、カバレージとオーバーラップを得る最良の選択は、より多くのスピーカーシステムを使用することです。これにより、スピーカーのサイズを小さくして、システムのヘッドルームを大きくすることができ、従来のステレオでのミキシングのように、ソースを意図する場所に定位させるために、周波数スペクトラムの中で各ソースにイコライザーを多用する必要がなくなります。」 「ライブサウンドにおけるイマーシブの創造的な可能性は無限であり、これまでにないサウンドスケープの再現と創造が現実のものになっています。これは新しい道のりの始まりであり、Vendimiaフェスティバルにおけるイマーシブ・オーディオ・システムはこのイベントの傑出した演出の一つになったと考えています。」 「このプロジェクトを支えてくれたすべての人たち、特にずっとサポートしてくれたFLUX:: Immersiveチームのスタッフには本当に感謝しています。今後も素晴らしいプロジェクトが待っていますし、SPAT Revolutionは進化を遂げながら、間違いなく私たちのメインツールとして使われ続けるでしょう。」 この記事では主に波面合成を実現するSpat Revolution WFS Optionについて紹介してきましたが、ここ日本で最初にSpat Revolutionが導入されたのは、DAW内では編集が非常に困難だった22.2 chサラウンドに対応したコンテンツの制作がきっかけでした。入出力ともアンビソニックス、バイノーラル、5.1、7.1、Dolby Atomosなど、事実上あらゆるサラウンド・フォーマットに対応できるSpat Revolutionは、制作/ライブの垣根を越えて今後の活用が期待されます。 *ProceedMagazine2022-2023号より転載
Nugen Audio Halo Vision クイックレビュー ~ Pro ToolsとDolby Atmos Render での活用方法も紹介 ~
昨年10月にNuge Audioよりリリースされた新プラグイン、Halo Vision。"Halo"と言えば同社が既にリリースしている、Halo Upmix/Downmixといった製品を思い浮かべる方もいるかもしれませんね。それらはステレオ〜サラウンド〜イマーシブといったフォーマット間のアップミックス/ダウンミックスを行うためのツールでしたが、今回登場したHalo Visonは、イマーシブサラウンド編集に特化した強力なアナライザーです。 今回、NUGEN Audioはこの製品の開発をスタートするにあたり、「イマーシブ・サウンドを視覚的に表示するとしたら、何が求められているのか」を正確に把握するため、多くのエンジニアを対象に詳細な市場調査を行ったとのこと。その結果生まれたのがこのHalo Visionということで期待大です。本記事では、その活用方法を考察してみたいと思います。 ◎自在にカスタマイズ表示可能な7種類のビュー 表示可能な項目は以下の7種類。何だかあまり聞き慣れない単語が並んでいますが、1つずつ見ていきましょう。 - コリレーション・マトリックス - Correlation Matrix - コリレーション・ウェブ - Correlation Web - 周波数ヘイズ - Frequency Haze - ロケーションヘイズ - Location Haze - スペクトル - Spectrum - トゥルーピーク - True Peak - タイムコード - Timecode ◎コリレーションビューで各チャンネルの位相の相関を可視化する 他のプラグインではあまり見かけない表示がこのコリレーション・ウェブとコリレーション・マトリックス の機能だと思います。まず、蜘蛛の巣状のコリレーション・ウェブですが、これはシンプルに位相が反相関状態になっているチャンネル間の線が点灯し、判別できるようになっています。コリレーション・マトリックスはそれをさらに詳しくしたようなもので、各チャンネル間の位相がどのような関係にあるのか、分かりやすく三色で色分けされるようになっています。具体的には、位相の相関がニュートラルな時は黄色、相関状態の時は緑色、反相関状態の時は赤色になります。 メーカーの説明によると、これらはコンテクスト相関、つまり、単純な相関を示しているわけではなく、チャンネル間のレベル差を考慮し、問題となりそうな相関関係のみを洗い出してくれているとのこと。そしてそのしきい値は標準の設定に加え、自分で設定することも可能です。 ■コリレーション・ウェブ - Correlation Web "相関ウェブは、各スピーカー間の接続線でチャンネルのネットワークを表示します。2つのチャンネル間の位相関係が反相関になると、対応する線が赤い線で結ばれます。" ■コリレーション・マトリックス - Correlation Matrix ”コリレーション・マトリックスは、各チャンネル間の位相関係を色別に表示します。より詳細な分析には大きなアーチ型メーターを使用し、ユーザー定義の閾値で反相関の警告を表示します。” ”これらの表示では、デフォルトでコンテクスト相関が使用されます。一般的な相関メーターの計算方法では、2つの信号が非常に反相関しているように見えることがありますが、一方の信号が他方の信号より非常に大きかったり、小さかったりする場合は、それらを同時に混ぜ合わせても特に問題ない場合があります。Contextual Correlationは、このようなレベル差を補正し、問題となりそうな相関関係のみを強調します。” 任意のチャンネルを選択すると関係する線がハイライトされる コリレーション・ウェブの設定画面 コリレーション・マトリックスの設定画面 ◎ヘイズビューでサラウンドフィールド内の周波数とエネルギーを可視化する "Haze "が日本語で「もや」や、「かすみ」を表す通り、サラウンドフィールド内の周波数分布とエネルギー分布を細かい光の粒子で、可視化することができます。これは同社のHalo Upmix/Downmixを触ったことがある方にはおなじみの表示ですね。なんだかんだ言っても、最終判断はやはり自分の耳で行うことになるとは思いますが、こうしてメーターで機械的に視覚化されることで、聴覚上の感覚と照らし合わせて確認することができるようになるというのは、非常に意味があるのではないでしょうか。 ■周波数ヘイズ - Frequency Haze "円形の周波数ヘイズは、低周波数を中心に、高周波数を外周に配置し、サラウンドフィールド全体の周波数分布を表示し、一般的なスピーカーの位置にチャンネルラベルを表示します。" ■ロケーションヘイズ - Location Haze "ロケーション・ヘイズは、オーディオの知覚位置を視覚化するもので、サラウンド・フィールド全体のエネルギー分布を表示し、明るい部分は「エネルギー」が増大していることを示します。" ◎スペクトル/トゥルーピーク/タイムコード 他の表示については普段からDAWをお使いの方にはお馴染みの機能かもしれませんが、周波数帯域ごとの音量を確認できるスペクトル、サンプルピークメーターでは検出できないアナログ波形のピークを検出するトゥルーピーク、そしてタイムコードの表示が可能となっています。表示色のカスタマイズもでき、非常に見やすいUI設計となっています。 ■スペクトル - Spectrum "Combined' モードでは、全てのチャンネルの FFT レベル対周波数グラフを 1 つのスペクトルで表示します。 Groups' モードでは、各チャンネルをいくつかのスペクトラムグループごとに整理することができます。" ■トゥルーピーク - True Peak "True Peakビューは、各チャンネルのTrue Peak dBレベルメーターを表示します。" ■タイムコード - Timecode "Timecodeビューは、現在のホスト/DAWの再生位置に基づいたタイムコードの読み出しを表示します。" スペクトラム表示も細かく設定が可能 チャンネルグループの設定も自由自在 タイムコードは時:分:秒:フレームごとに色の変更が可能 なんと176色から選択可能!色にこだわりがあるという方も安心 ◎用途 ・7.1.2までのサラウンドおよびイマーシブミックスの解析 ・位相相関のチェック ・空間情報の視覚化 ・異なるチャンネル・フォーマットでのミックスの確認 ・慣れないスタジオや音響特性が好ましくない部屋でのミキシング ◎Dolby Atmos制作時の活用方法 Pro Tools 2022.9からの新機能Aux I/O及び Pro Tools Audio Bridgeを活用することで、Dolby Atmos Rendererからの出力をシンプルにPro Tools内に戻すことが可能となりました。これを活用してDolby Atmos Rendererから出力された7.1.2chをPro Tools内に立ち上げ、そこにHalo Visionをインサートすることでメータリングができるようになる、というわけですね。 Aux I/Oの設定方法はAvid Japanが公開しているこちらの日本語Tips動画よりご確認ください。 関連リンク: Rock oN Line eStoreで購入: https://store.miroc.co.jp/product/80930 国内代理店紹介ページ: https://www.minet.jp/brand/nugen-audio/halo-vision/ Nugen Audio紹介ページ: https://nugenaudio.com/halovision/ イマーシブサラウンド制作システム構築のご相談は、実績豊富なROCK ON PROまで。下記コンタクトフォームよりお気軽にお問い合わせください。
ファシリティの効率的活用、Avid NEXIS | EDGE
コロナ禍になり早くも3年が過ぎようとしています。その最中でも、メーカー各社はリモートワークに対応するために様々なワークフローを紹介していますが、Avidでも今年の始めに新たにリモートビデオ編集のフローを実現するシステムNEXIS EDGEを発表し、満を辞して今秋リリースされました。 クラウド?オンプレ? Avidではこれまでもリモートでのビデオ編集やプレビューをする製品が各種あり、ポストプロダクションのニーズに合わせて、システムを構築できるようにラインナップも取り揃えられています。例えば、Avid Edit On Demandでは、ビデオ編集ソフトMedia ComposerやNEXISストレージをすべてクラウド上に展開し、仮想のポストプロダクションを作ることが可能です。クラウドでの展開は時間や場所を問わず利用できること、使用するソフトウェアの数やストレージの容量の増減を簡単に週・月・年単位で設定し、契約することができ、イニシャルコストがほとんどないことがメリットと言えます。 今回紹介するAvid NEXIS EDGEは先で述べたEdit On Demandのクラウド構築とは異なり、サーバー購入の初期投資が必要になります。クラウド化の進みとともに、CAPEX(設備投資)からOPEX(事業運営費)へという言葉が最近よくささやかれ、今どきオンプレのサーバーは流行らないのでは?という見方はあるかもしれませんが、ポストプロダクション業務としてビデオ編集をする上で、すべてをクラウド上で編集することが必ずしも正解だとは言い切れません。それは、映像データの適切な解像度での再生、正確な色や音のモニタリングに対してクラウド上のシステムではできないこともあるからです。 Avid NEXIS EDGEは、会社内にサーバーを置くオンプレミスでのメディアサーバーシステムとなります。Avid NEXISストレージサーバーを軸にしたシステムとなり、メディアサーバーに加えてWindowsサーバーを追加します。ソフトウェアとしては、Media Composer Enterpriseが最低1ライセンス必要になります。Media Composer EnterpriseライセンスはDP(Distributed Processing)ライセンスが含まれており、プロキシを作成するために使用されます。DPは日本語では分散レンダリングと言われ、ネットワーク上にあるひとつまたはそれ以上のワークステーションを使用して、レンダリングやトランスコード、コンソリデートといったメディア作成の処理を行うことで、編集システムのCPUを使用せずに時間のかかるプロセスを外部で行うことができる機能です。 NEXIS EDGEが持つメリット 📷 NEXIS EDGE Webブラウザのユーザーインターフェース 素材の検索と編集 NEXIS EDGEの特徴は大きく分けて2つあります。1つ目は、NEXIS環境において社内のLAN環境と、汎用のインターネット回線を用いるリモートアクセス機能を簡単に切り替えできることです。つまり、遠隔地にいてもオンプレにあるNEXISサーバにアクセスすることができ、サーバー内にあるシーケンス、ビン、クリップを閲覧、再生、編集することができるのです。クラウドサービスを使用しなくてもクラウドと似た環境を構築することができ、メディアを様々な場所にコピーして分散させずに、オリジナルのメディアを1つの場所に置いて使うことができます。 2つ目は、高解像度メディアとそこから生成されたワーク用のプロキシメディアのメタデータが完全に一致して作られることです。そのため高画質のクリップを用いて編集をしても、プロキシメディアで編集をしても、シーケンスにはどちらのメディアも完全にリンクしており、再生ボタンの切り替えで再生させたいメディアを簡単に選ぶことができます。このシステムでプロキシを作成し、使用することの優位性がいくつかあります。汎用のインターネット回線を介して使用できることがその一つです。そしてプロキシメディアはデータ量も少なくダウンロードするにも時間がかからないため、ダウンロードをしたメディアを使用することができます。いったんメディアをコピーしてしまえば、その後インターネットを接続していなくても、ダウンロードをしたメディアで編集をすることができ、その編集されたビンやシーケンスは、ネットワークのある環境に戻せば、NEXISサーバー内にあるメディアにすぐにリンクすることができます。また、プロキシメディアの優位性はリモート環境で使用することだけではありません。LAN環境でもそのメディアを使うことで、ネットワークの帯域を節約することができます。 ストレージ内のメディアにアクセス ご自身が社内ではない場所にいる場合、社内にあるNEXISメディアサーバーへアクセスするには通常のNEXISクライアントのリモート機能を使い、アクセス権で管理されたワークスペースをマウントします。Media Composerはプロジェクトの作成画面で、Remote Avid NEXISにチェックを入れて起動します。 📷 NEXISへのリモートアクセス ビンに表示されているクリップは、プロキシメディアがあるクリップなのかどうかが一目で分かります。プロキシメディアがない場合には、メディア作成権のあるユーザーがMedia Composerからプロキシメディアを生成させることもできます。プロキシの生成は前述したDPが機能するPCで行うため、Media Composerで作業をしているエディターは編集作業をそのまま続けることができ、プロキシが作成された順にそのメディアを使うことができます。この分散レンダリングは、バックグラウンドでレンダリングを行うDP Workerと呼ばれるPCの数で、プロキシ生成やトランスコード等のタスクを分けることができます。そのためDP Workerの数が多ければ処理も早くなります。また、スタジオ内にあるMedia Composerが使用されていなければ、そのシステムもDP Workerとして使うこともできます。 📷 分散レンダリングでプロキシを作成するメニュー リモートで接続したMedia ComposerからNEXISストレージ上のメディアを再生するときは、そのメディアの解像度を選択します。NEXISストレージ上にあるクリップには、高画質メディアとプロキシメディアの2つのメディアがリンクされており、Media Composerでどちらのメディアを再生するかを選択することができるため、NEXISストレージに接続されている環境に合わせてメディアを再生できます。 📷 再生のための解像度の選択 みんなでコラボ NEXIS EDGEへのWebアクセスツールでは、クリップやビンへのアクセスはもちろんのこと、簡単なビデオ編集、クリップまたはシーケンスへマーカーやコメントなどを付ける機能があります。アシスタントからプロデューサーまでコンテンツに関わるすべての人々が、簡単な操作で編集作業を効率的に、そして円滑に共有することができます。一方、そのためにメディアの管理にはいっそう気を使わなければなりませんが、そんなときにもNEXIS EDGEではビンロックの機能によるシーケンスやクリップの保護、視聴や編集機能の有無など、ユーザー単位でシステムの機能を制限することができます。 さらに、NEXIS EDGEのPhonetic Indexオプションを使用することで、クリップ内の音声トラックからのキーワード検索をすることができ、素材クリップとそのキーワード箇所を素早く見つけることができます。この機能はWebクライアントでも、Adobe Premiere Proクライアントでも利用することができます。 SRT対応で機能アップ、Media Composer 2022 📷 Media Composerユーザーインターフェース クリップアイコンがオレンジ表示になっている時はプロキシメディアがリンクされている。 今年になり5Gが本格的に普及し、汎用のインターネット回線を使ってのワークフローは今後も増えていくことが期待されます。Media Composerはバージョン2022.4でSRT(Secure Reliable Transport)に対応しました。SRTは以前の本誌でも何回かご紹介したことがありますが、マルチメディア伝送のプロトコルです。2012年にカナダに本社を置くHaivision社によって開発されました。非常に強力な暗号技術を採用し、高い安全性とパケットロスのリカバリ、高画質であることが特徴で、2017年にオープンソース化され、同時に組織化されたSRT Allianceによる推進のもと、今では世界の多様なメーカーによって採用・開発・実装が行われています。コロナ禍で最初は戸惑っていたWeb会議も日常的になりましたが、環境によって回線速度が異なるため、そういったツールでの画質や音質は最低限に抑える必要があり、とてもリアルタイムでのプレビューチェック向きとは言えません。それを回避するためにYouTubeなどを使用することもありますが、設定ミスから意図せず動画が公開されてしまうというリスクはなくなりません。 📷 SRTの設定画面 そういった問題を解決できるのがMedia ComposerでのSRT送信です。Media Composerは内部でSRTのソフトウェアエンコードを行い、リアルタイムでインタネット越しにタイムラインを送信します。SRTを送信するにはMedia Composer内のH/Wボタンから設定を行い、シーケンスを再生するだけです。それを受け取るには、SRTデコーダーを備えたアプリケーションやハードウェアが必要になりますが、フリーのHaivision Playerや VLC Player等を使っても受信することが可能です。そのため、インターネット回線さえあればMedia ComposerのタイムラインをSRTでプレビューできます。例えば、遠方のクライアントに対してプレビューをする時など、前もってファイル転送サービスでファイルを送ったり、YouTubeの限定公開を使うためにファイルをアップロードしたりすることなく、ZoomなどのWeb会議システムで会議をしつつ、タイムラインをプレビューすることができます。そして、プレビュー中に直しがあってもファイルを書き出し直し、そのファイルのアップロードやダウンロードをし直すことなく、まるで編集室で立ち会っているかのようなコニュニケーションを取ることが可能です。 また、10月にリリースされたMedia Composer 2022.10では、Multiplex-IO機能が搭載されました。この機能は、シーケンスをスタジオでモニタリングしながら、同時にSRTやNDIをストリーミングさせることができるため、以前のようにどちらかに接続先を切り替える必要がなくなります。 より良い作品を作ることに必要とされるのが「どんな作品を作るのかという共通の認識」を持つことだとしたら、一番大切なのはコミュニケーションです。スタジオでの立ち合い編集などで時間を共有させてのコミュニケーションも大事ですが、ライフスタイルの変化によって場所も時間も共有できない時には、それを可能にするツールを使ってみてはどうでしょう。NEXIS Edgeはリモート・ビデオ編集を可能にする製品ではありますが、単に在宅作業を促進するためのものではありません。この製品はそう簡単には増やせない編集室の代わりに、場所を選ばない方法で編集作業を可能にするものなのです。 *ProceedMagazine2022-2023号より転載
IP映像伝送規格 NDI®︎ + SRTで実現する!〜高品質、低遅延、利便性、3拍子揃った映像伝送を考察〜
汎用のインターネットを通じて高品質な映像信号の送受信が行える規格が登場し、InterBEEをはじめとする昨今の放送機器展示会でも大きな注目を集めている。例えば、これまで弊誌でも紹介してきたNDIでは、昨夏にリリースされたNDI 5より新たにNDI Bridge機能が追加され、2拠点間をインターネット越しにNDI接続することが可能となった。今回新たにご紹介するのはSRT = Secure Reliable Transport と呼ばれるプロトコルだ。その名の通り、安全(Secure)で、信頼性がある(Reliable)、伝送(Transport)ができることをその特徴とする。本稿では、今後ますます普及が見込まれる2つの規格の特徴についてご紹介するとともに、今年3月に同テーマで開催されたウェビナーのレポートをお届けする。 同一ネットワーク内で即座に接続確立 利便性のNDI まずはNDIの特徴をあらためて確認しておこう。NDIとは Network Device Interface(ネットワーク・デバイス・インターフェース)の略称で、その名の通り、ネットワークで接続されたデバイス間で映像や音声をはじめとする様々な信号を送受信可能とする通信規格の一種だ。2015年9月のIBC Showにて米国NewTek社により発表されて以降、1年〜2年のスパンで精力的にメジャーアップデートが行われており、2022年現在は昨年6月に発表されたNDI 5が最新版となっている。このバージョンより、待望されていたインターネットを超えてのNDI接続を可能とするNDI Bridge機能が実装され、その裾野は着実に広がりを見せている。 SMPTE ST-2110が非圧縮映像信号のリアルタイム伝送を目的として策定されたのに対し、NDIは圧縮信号の低遅延 ・高効率伝送を前提とし、利便性を重視したような設計となっているのが大きな特徴だ。具体的には、例えば1080i 59.94のHD信号であれば100Mbit毎秒まで圧縮して伝送することにより、一般的なLANケーブル(ギガビットイーサネットケーブル)でも複数ストリームの送受信ができるというメリットを実現している。当然ながら10Gbイーサネットケーブルを使用すれば、より多くのストリームの送受信も可能だ。 NDIには、大きく分けると2つのバージョンがあり、スタンダードな"NDI"(Full NDI、Full Bandwith NDIとも呼ばれる)と、より高圧縮なコーデックを用いる"NDI | HX"というものが存在する。前者のFull NDIではSpeedHQと呼ばれるMPEG-2と似たような圧縮方式を採用しており、ロスレスに近い高品質ながら1フレーム以下の超低遅延な伝送が可能なため、海外では既にスポーツ中継などの放送現場で活用が始まっている。このNDI向けのソフトウェア開発キット(SDK)はオンラインで公開されており、個人の開発者でもロイヤリティフリーで使用することができる。 一方、後者のNDI | HXは、MPEG-2の2倍の圧縮率をもつH.264や、さらにその2倍の圧縮率をもつH.265といった圧縮方式を採用し、無線LANなど比較的帯域が狭いネットワークで安定した伝送を行うのに向いている。対応のスマートフォンアプリなども数多くリリースされており、スマホカメラの映像やスクリーンキャプチャーをケーブルレスで他のデバイスに伝送できる点が非常に便利だ。こちらのNDI | HXの使用に関しては、現在有償のライセンスが必要となっている。ちなみに、この"HX"というのはHigh Efficiency (高効率)を意味するそうだ。 また、NDIの利便性向上に一役買っている機能として、デバイス間のコネクション確立時に使用されているBonjour(ボンジュール)という方式がある。これは、あるネットワーク内にデバイスが接続された際、自身のサービスやホスト名を同一ネットワーク内にマルチキャストすることで、特に複雑な設定を行わなくとも他のデバイスからの認識を可能とする、Apple社開発・提供のテクノロジーだ。同じくBonjourを採用しているDante対応製品に触れたことがある人はそのイメージがつくだろう。 通常のDNS = Domain Name System においては、例えばDNSサーバなどの、ドメイン名とIPアドレスを変換する仕組みを提供するサーバーが必要となるが、このBonjourにおいては、mDNS = multicast DNSという方式を用いることで、デバイス同士の通信のみでホスト名の解決を行うことが可能となる。仮に、映像スイッチャーソフト等から、ホスト名ではなくデバイスのIPアドレスしか見ることができなかったらどうなるだろうか。「192.168.〇〇.〇〇〜」という数字がずらっと羅列されていても、それがどのデバイスか瞬時に把握することは困難を極めるだろう。そうではなく、「yamadataro-no-macbook.local」「yamadataro-no-iphone.local」といったホスト名が表示されることにより、我々人間にとって分かりやすく、使い勝手の良いインターフェースが実現されている。 やや話が逸れてしまったが、簡潔にまとめるとNDIの魅力は気軽に伝送チャンネルを増やせる柔軟性と、ネットワークに繋げばすぐホスト名が見えてくるという扱いやすさにある。SDKがオープンになっていることにより、vMixやWirecast、OBSなどの配信ソフトや、Media ComposerやDaVinci Resolve、Final Cut Proといった映像編集ソフトでも採用され、数あるVoIP規格の中でもまさに筆頭格とも呼べる勢いで放送・配信・映像制作現場での普及が進んでいる。弊社LUSH HUBの配信システムでも、NewTek TriCasterを中心としたNDIネットワークを構築しているが、従来のSDIやHDMIケーブルと比べ、LANケーブルは長尺でも取り回しが容易である点や、スマホカメラの映像を無線LANでスイッチャーに入力できる点は非常に便利だと感じており、個人的にもNDI導入を積極的にアピールしたいポイントとなっている。 セキュアかつ高品質低遅延な映像伝送を低コストで実現 品質重視ならSRT SRTもNDI同様のマルチメディア伝送プロトコルの一種で、2012年にカナダに本拠地を置くHaivision社によって開発、翌2013年のIBC Showで初めて一般向けのデモンストレーションが行われた。SRTはSecure Reliable Transport (セキュア・リライアブル・トランスポート)の略称で、その名の通り、より安全(Secure)で、信頼性がある(Reliable)、伝送(Transport)ができることをその特徴とする。それまで遠隔地へ安全に高画質な映像伝送を行うための手段としては、衛星通信やダークファイバー(専用回線)を用いた方法が一般的だったが、伝送コストが高額となることが課題だった。その課題を解決するため、「汎用のインターネット回線を使ってセキュアで高品質な映像伝送したい」というニーズのもとにSRTは誕生した。2017年よりGitHubにてオープンソース化、同時期にSRT Allianceがスタートし、現在ではMicrosoftやTelestream、AVIDを含む500社を超えるメーカーがその開発に参加している。 それではSRTの技術的特徴を具体的に見ていこう。まず安全性に関する技術については、AES(Advanced Encryption Standard)と呼ばれる、世界各国の政府機関などでも採用されている非常に強力な暗号化技術を採用している。SRTの場合AES-128、AES-256に対応しており、付随する数字は暗号化に用いる鍵の長さのbit数を意味している。一般的な暗号化技術において、この鍵長が長いほど第三者による暗号解読が困難になる。仮にAES-256を使用した場合、2の256乗、10進数にしておよそ77桁にも及ぶということを考えると、AES暗号化の突破がいかに困難なことか、その片鱗をご理解いただけるだろう。この強力な暗号化が、通信だけでなく、伝送しているコンテンツそのものに対しても適用されるため、万が一通信パケットを盗聴されたとしても、その中身までは決して解読されることはないだろう。 信頼性については、パケットロスに対するリカバリ機能を備えていることにより、不安定なネットワーク状況下でもほとんどコマ落ちすることのない高品質な映像伝送を実現している。一体なぜそのようなことが出来るのか?その秘密は、低遅延な通信方式であるUDP(User Datagram Protocol)と、データの誤りを制御するためのARQ(Automatic Repeat reQuest [またはQuery] )と呼ばれる機能を組み合わせるという工夫にある。この工夫についてより理解を深めるには、まずはTCP/IPモデルにおけるトランスポート層に位置するプロトコル、TCP(Transmission Control Protocol)とUDPの違いについて触れておく必要がある。 ●TCP、UDPって何? TCPはコネクション型と呼ばれるプロトコルで、データ受信後にACK(アック)という確認応答を送信元に返すことで通信の信頼性を保証する仕組みになっている。そのような確認応答を行なったり、データが届かなかった場合に再送処理を行なったりするため、通信経路の品質が低い場合には比較的大きな遅延が生じるというデメリットがあるが、電子メールなど確実性が重視される用途で主に使われている。ちなみに一昔前まで普及していたAdobe Flash Playerでは、このTCPをベースとしたRTMP(Real Time Messaging Protocol)と呼ばれる通信方式が採用されている。 対するUDPはコネクションレス型のプロトコルで、TCPのように確認応答を返さず、データの再送も行わないため通信効率の面ではこちらが有利だ。いわばデータを通信相手に送りっぱなしにするようなイメージになる。パケットヘッダのサイズを比較しても、TCPは20バイト使うのに対し、UDPは8バイトと小さいため、そもそも送受信する情報量が少ない。ただし、通信経路の品質が低い場合には遅延こそ少なかれ、伝送するコンテンツ自体の品質の劣化が避けられないという欠点がある。そうした理由で、例えばライブ配信やIP電話やなど、確実性よりもリアルタイム性が重視される用途で使われることが多い。 簡単に言うとSRTでは即時性に優れたUDPをベースとしながらも、信頼性に優れたTCPのようなデータの再送要求の仕組みを上位層のアプリケーション層で上手く取り入れている。それが前述したARQである。一般的に、こうしたメディア伝送においては、送り手側となるエンコーダーと受け手側となるデコーダーのそれぞれに多少のバッファーが設けてあり、受け手側はそのバッファー内でパケットの並べ替えなどの処理を行った後、デコーダーにパケットを転送している。 従来型のRTMPでは下りのトラフィック帯域の低下を防ぐため、パケットを受け取るたびにACKを送り返すのではなく、シーケンス、つまり一連のパケットのまとまり毎に応答確認を行う。もしそのシーケンス内でパケットロスが生じていた場合、再度そのシーケンス丸ごと再送が必要となり、その分のタイムロスが生じてしまう。一方、SRTでは受け手側でパケットロスが判明した時点で、その特定のパケットのみを即座に送り手側に再送要求することができる。これが高画質低遅延を実現するための重要なポイントだ。無事に再送されてきたパケットはバッファー内で適切に再配置された後にデコード処理されるため、オリジナルの品質に極めて近い綺麗な映像を受信できるという仕組みだ。ちなみにこのバッファーのサイズは数ミリ秒〜数十秒の範囲で設定できるようになっているため、通信状況に合わせて変更が可能だ。 また、RTMPとSRTのもう一つの大きな違いはパケットヘッダーにタイムスタンプを持てるかどうかである。RTMPでは個々のパケット毎にはタイムスタンプが押されていないため、受信した各パケットを一定の時間内にデコーダーに転送する必要がある。 その際、不安定になりがちなビットレートを安定化させるために、ある程度のバッファを設定する必要が生じる。一方SRTでは、個々のパケット毎に高精度なタイムスタンプが押されているため、受信側で本来の信号特性そのものを再現できるようになる。これにより、バッファリングに要する時間が劇的に短縮されるというメリットもある。 まとめると、SRTの魅力は、従来の衛星通信や専用回線での通信と同レベルの、安全性が高く、極めて高品質な映像伝送を比較的低コストで実現できる点にある。活用が考えられるケースとしては、例えばテレビ番組の生中継などで、「汎用のビデオ会議ツールなどでは満足のいく品質が得られない、かといって衛星通信や専用回線ほどの大掛かりなシステムを構築する予算はない」といった状況に最適なソリューションではないだろうか。 Webiner Report !! 〜2拠点間を実際にSRTで接続しながら生配信するという初の試み〜 今年3月初旬、ROCK ON PRO とアスク・エムイーの共催にてウェビナー『NDI & SRT を活用した映像伝送 〜SRTで2拠点間をつないでみよう!〜』が開催された。本ウェビナーでは、渋谷区にある弊社デモスペース「LUSH HUB」と千代田区のアスク・エムイーショールーム「エースタ」間を、オンライン会議ツールZOOMおよびAJA社の高性能マルチチャンネルビデオエンコーダー BRIDGELIVEを使ってSRT接続し、両拠点からそれぞれのYou Tubeチャンネルで生配信するという、おそらく国内ウェビナー史上初となる試みが行われた。ウェビナー内ではNDIとSRTの概要説明のほか、インターネット越しのNDI接続を可能とするNDI Bridge や、NDIネットワーク内で音声のみの伝送を可能とするNDI Audio Direct の動作も紹介。それぞれの規格がどのような場面での使用に適しているか、またそれらを組み合わせることで生まれる利点についてのプレゼンテーションが行われた。 ROCK ON PRO & アスク・エムイー共催 NDI & SRT を活用した映像伝送 〜SRTで2拠点間をつないでみよう!〜 配信日:3月2日 (水) 16時〜17時 株式会社アスク アスク・エムイー/テクニカルサポート 松尾 勝仁 氏 株式会社リーンフェイズ アスク・エムイー/マーケティングマネージャー 三好 寛季 氏 株式会社メディア・インテグレーション ROCK ON PRO / Product Specialist 前田 洋介 ●エースタ側配信 https://youtu.be/NK8AN1UsCRo ●LUSH HUB側配信 https://youtu.be/PzibZ3wKPDQ ●System:当日の接続システム NDI Bridge、SRT、ZOOMを活用し、3拠点間のコミュニケーション、2拠点から同時配信という内容となる今回のウェビナーについて、まず、ROCK ON PRO 前田洋介より接続システムについての解説が行われた。やや複雑だが図にすると次のような形となる。(下図 )まず、講師陣がいる場所は渋谷のLUSH HUB、千代田区半蔵門のエースタ、そして今回リモート出演となった前田洋介が訪れているRockoN梅田の3拠点となる。3拠点間のコミュニケーションおよび音声の入力には汎用のツールとして使い勝手が良いZOOMを採用。さらに、LUSH HUBとエースタの2拠点間においては、AJA BRIDGE LIVEによるSRT接続とNewTek NDI Bridge接続が並行して確立されており、相互にSRTで高品位な映像伝送を行つつ、相手方のTriCasterの操作も可能となっている。その上で、両拠点からYou Tube Liveへの最終の配信エンコーディングが行われている。 ●Digest1:NDIのメリット まずはアスク・エムイー三好氏より、NDIについての解説が行われた。NDIの最大の特徴は、対応するデバイスやソフトウェア間で、映像、音声、制御などの様々な信号をWi-Fi接続やネットワークケーブル一本で伝送できてしまう点だ。SDK(ソフトウェア開発キット)が無償公開されていることもあり、対応するソフトウェアスイッチャーやスマートフォン向けのカメラアプリなども様々登場している。 ●Digest2:NDI Tools オンラインで無償配布されているNDI Toolsには、NDI信号をWebカメラのソースとして使えるWebcam InputやTriCasterを遠隔操作できるNDI Studio Monitor、インターネット越しのNDI接続を可能とするNDI Bridgeなどが含まれている。WIndows版の方が開発が早かったり、Final CutなどMac版にのみ対応しているソフトウェアもあるため、Win版とMac版でラインナップが異なっている。 ●Digest3:NDI5から新たに追加されたNDI Bridge NDI5から新たに追加された目玉機能の一つがNDI Bridgeで、これによりインターネット越しにNDI接続を行うことが可能となった。現時点ではWin版のみの対応となるが、遠隔地のNDIソースを受信したり、TriCasterやPTZカメラをソフトウェアパネル上からリモートコントロールしたりすることができる。実際にウェビナー内でこのデモンストレーションを行なっているシーンを是非ご覧いただきたい。LUSH HUBにいる松尾氏のPCから、半蔵門エースタのNDIソースが一覧となって表示されている様子が確認できる。さらに、TriCasterの画面に進むと、画面左上にKVMのボタンがあり、これをクリックすることでそのままTriCasterの遠隔操作が可能になるという驚きの手軽さだ。コロナ禍以降、ライブ配信の需要が急速に高まっており、配信のオペレーター不足なども懸念されるが、こうした機能を活用していくことで解決できる課題は山ほどあるだろう。 ●Digest4:SRTとはどのようなものか 続いて、SRTに関する説明だ。SRT = Secure Reliable Transportの略称で、Haivision社が開発した。不安定なネットワーク環境でも高品質なライブ映像を実現することを目標に、変動するネットワーク帯域幅を考慮し、映像の整合性や品質を維持するための様々な機能が備わっている。NDI同様オープンソース化されているが、こちらはソフトウェアだけでなくハードウェアへの組み込みもロイヤリティーフリーとなっている。 ●Digest5:NDIとSRTを併用するメリット ここでNDIとSRTの違い、併用するメリットについて話題が移る。NDIは元々、単一ネットワーク内での利便性向上を重視して作られ、後からインターネット越えが可能となった。一方、SRTは開発当初から遠隔地への安定した映像伝送を目標として開発されている。したがって、これらを比較対象として同列に並べるのはそもそも誤りで、むしろ、適材適所で併用することで相乗効果を発揮できる。つまり、NDIとSRTを併用することで「品質をとるか利便性をとるか?」というトレードオフを打破できるわけだ。 ●Digest6:実際にNDIとSRTを組み合わせると その一例がまさに、先に説明した本ウェビナーのシステムそのものだ。NDI Bridgeを活用してカメラやスイッチャー等のリモートコントロールを行いつつ、配信用の映像本線はSRTを使って高画質を実現することができる。(図9)また、その上でZoomなどのオンライン会議ツールを併用すれば、2拠点間のコミュニケーションはもちろん、その場に不在の参加者との連絡も容易だ。 ●Digest7:気になる実際の画質を比べてみる やはり誰もが気になるのが実際の画質についてだと思われるが、ウェビナー中盤からSRT経由の映像、NDI経由の映像、そしてZoom経由の映像を横並びにした配置をご確認いただけるようになっている。左がSRTで受信している映像、中央がNDIで構築したLAN内の映像、右がZoomで受信している映像だ。残念ながら同じカメラで撮影している訳ではないため厳密な比較とは言えないかもしれないが、SRT経由の映像は、ZOOMと比べ、ローカルのNDIとほとんど遜色ない高画質な映像となっているのが確認できる。 日進月歩で発展し続けるIP映像伝送テクノロジーの中でも、本稿では特に注目すべき2つの規格、NDIとSRTについてご紹介した。従来のSDIにとって代わり、とことん利便性を追求したNDIと、衛星通信や専用回線にとって代わり、汎用のインターネットでも高品質低遅延での映像伝送実現を目指したSRT。これらについて議論されるべきなのは、「どちらを使うか?」ではなく、「どのように組み合わせて活用していくか?」という点である。今回我々がみなさんにご提案させていただいたシステムはあくまでほんの一例で、こうしたIP伝送テクノロジーを適材適所に活用することで、世界中の放送・配信の現場それぞれに特有の問題を解決できるのではないかという大きな可能性を感じている。技術的ブレイクスルーによる恩恵、そして新技術を積極的に取り入れ、既存の技術とうまく組み合わせていくことで、これまでなかなか避けられなかったトレードオフも、今後次々と打破されていくことを期待したい。 *ProceedMagazine2022号より転載
360 Reality Audio + 360 WalkMix Creator™ 〜全天球4πの世界をオブジェクトベースで描く〜
世界中で始まった実際の配信サービスインから早くも2年が経過、国内でのサービスインからも1年が経過した360 Reality Audioの世界。そしてその制作ツールとなる360 WalkMix Creator™がついに国内で販売開始される。その拡がりもついに第2段階へと突入した360 Reality Audio、360 WalkMix Creator™で実現する新機能のご紹介とともに、360 Reality Audioの現在地をご案内していく。 Chapter 1:360 Reality Audioを構築する ●全天球4πを実現する360 Reality Audio 本誌でも、その詳細を伝え続けているソニー 360 Reality Audio。完全な4π空間へのフルオブジェクト配置による立体音響フォーマットとして、その魅力は高いものであることはすでにおわかりではないだろうか。先行してスタートしているDolby Atmos、Auro 3Dは、ご存知のように「映画」をそのベーシックとして登場している。そのため、これまでの5.1chサラウンドを踏襲し、それを発展させる形で立体音響を実現している。これは、既存設備、映画館、劇場との互換性という観点から重要なポイントであり必要不可欠な要素だった。しかしソニー 360 Reality Audioは、映像とは切り離して考えられ、音楽を楽しむためのフォーマットとして登場している。そのため、これまでの立体音響が辿ってきた経緯とは関係ないところで、理想の音楽を入れるための器として誕生している。北半球とも呼ばれる上半分の2πだけのフォーマットではなく、下方向も含めた全天球4πを実現し、チャンネルベースを廃棄した完全なるオブジェクトベースのフォーマットだ。 Dolby Atmosなど他の立体音響フォーマットとの最大の違い、それは南半球があるということである。南半球に音を配置して効果はあるのか?下方向からの音、それに意味はあるのか?これは、今後様々な音源がリリースされ、その効果の程やクリエイターの考え、感覚により活用が行われていくものだろう。リフレクションを加えることで床を作る、低音楽器を下方向から鳴らすことで重心を下げる、様々なアイデアがありそうだが、まずは表現できる空間が単純に倍になったということは、歓迎すべき素晴らしいことではないだろうか。北半球のみの2π srに対し、全天球4π srは単純に倍の表面積であり、その表現できる範囲も倍であるということだ。これをどのように使いこなすのかという議論はまさにこれから行われていくこととなるだろう。 今までのステレオをヘッドホンで再生すると、頭の中に定位する「頭内定位」となる。言い換えれば右耳から左耳の間に音があるように感じるということだ。これをソニー 360 Reality Audioではヘッドホンで聴いているが、擬似的に頭の周りから音が鳴っているような感覚「頭外定位」を実現している。スピーカーで視聴するための準備が様々に進んできてはいるが、その体験を行う一番簡単な方法はやはりヘッドホンでの再生となる。いま音楽を楽しむ方法として一番シェアの高いヘッドホン/イヤホンでの視聴、それをターゲットにした音楽の体験、それがソニー 360 Reality Audioだ。 ●チャンネルベースからの脱却、スピーカー配置の自由 チャンネルベースからの脱却というのも、360 Reality Audioの先進性の現れであると言えよう。冒頭でも述べたように、既存フォーマットとの下位互換性を考えることなく、純粋に次のステップへと歩みを進めた360 Reality Audio。これにより手に入れたのは、スピーカー配置の自由ということになる。クリエーター向け360 Reality Audio HPには、推奨環境としてこのようなスピーカー配置がのぞましいということが明記されている。ただ、これはあくまでもスピーカー配置の一例であり、その全てではない。360 Reality Audioの動作原理から言えば、スピーカーの配置位置、本数、そういった制約は無い。ただし、その音源の再現のために最低限これくらいの本数があったほうが確認を行いやすいという。また、360 WalkMix Creator™での制作時ではスピーカーの出力数を選択し、そのプリセットで選択された本数で再生を行うこととなる。 このスピーカーの配置の自由というのは、これから立体音響に向けてスタジオへスピーカーを増設しようとお考えの方には重要なポイントだろう。水平方向、天井は工夫によりなんとかなるケースが多いが、下方向に関しては、前方に3本(L,C,Rchの位置俯角-30度)設置が推奨されている。一般的に下方向のスピーカー設置となると、それらを遮るようにコンソールや作業用のデスクがあることが多いわけだが、これを左右90度の位置に俯角-30度で設置であれば、実際にレイアウトすることもかなり現実味があるのではないだろうか。 チャンネルベースのソースを持たない360 Reality Audioはフルオブジェクトであるため、スピーカーに対してのレンダリングアウトは自由である。そこにスピーカーがあるとわかるようなスピーカープリセットがあれば良いということになる。なお、スピーカー配置は自由だと書かせていただいたが一つだけ制約があり、それぞれのスピーカーは等距離に設置されている必要がある。ただし、これに関してはDelay調整により距離を仮想化することである程度解消できるものである。 ●Dolby Atmos、360 Reality Audioコンパチブル 自由と言われると、実際どうして良いのか混乱を招く部分もあるかもしれない。360 Reality Audioに対応したスタジオのスピーカーアレンジの一例をご紹介するとなると、Dolby Atmosとの互換性を確保したシステムアップというのが一つの具体的な事例になる。 360 Reality Audioは前述の通り、スピーカー配置に関しては自由である。ということは、Dolby Atmosに準拠したスピーカーレイアウトを構築した上で、そこに不足する要素を追加すればよいということになる。具体的には、Dolby Atmosには無い南半球、下方向のスピーカーを増設すればよいということだ。360 Reality Audioの推奨としては、前方L,C,R(30度,0度,-30度)の位置に俯角-30度で設置となっているため、この3本を追加することでDolby Atmosと360 Reality Audioに対応したスタジオを構築できる。以前のスタジオ導入事例でご紹介したソニーPCLのスタジオがまさにこの方法での対応となっている。 📷デスクの前方にはスクリーンが張られており、L,C,Rのスピーカーはこのスクリーンの裏側に設置されている。スクリーンの足元にはボトムの3本のスピーカーが設置されているのがわかる。リスニングポイントに対して机と干渉しないギリギリの高さと角度での設置となっている。 前方下方の設置が難しい場合には、左右下方で対応することも一案である。下方、俯角のついた位置への設置は360 Reality Audioの音像をスピーカーで確認する際には必須の要素である。少なくとも左右へ2本がないと、パンニングの再現があまりにも大雑把になってしまうため、最低2本以上の設置と考えていただきたい。ただ、その設置に関しては前方L,R30度の位置が必須ということではない。この位置がなぜ推奨位置なのかは、後述するエンコードの解説を読んでいただければご理解いただけるだろう。スピーカー配置の自由、という360 Reality Audioの持つ美点は、これから先の進化の中で本当の意味で発揮されるものだからだ。 Chapter 2:BrandNew!! 360 WalkMix Creator™ ●エンコーダーを手に入れファイナルデータまで生成 360 Reatily Audio Creative Suiteとして登場した360 Reality Audioの制作ツールが、2022年2月に360 WalkMix Creator™へと名称を変更し、それと同時に大きな機能追加が行われた。360 Reatily Audio Creative Suite時代に作成できる最終のデータは、360 Reality Audioの配信用データであるMPEG-H 3D Audioに準拠した360 Reality Audio Music Formatではなかった。この360 Reality Audio Music Formatへの最終のエンコード作業は、別のアプリケーションで実施する必要があった。360 WalkMix Creator™では、ついに悲願とも言えるこのエンコード機能を手に入れ、360 WalkMix Creator™単体でのファイナルデータ生成までが行えるようになった。テキストで表現すると非常にシンプルではあるが、実作業上は大きな更新である。 これに続く、最後の1ピースはその360 Reality Audio Music Formatデータの再生用のアプリケーションだ。360 WalkMix Creator™の登場で、最終データを生成することはできるようになった。そのデータを確認するためにはArtist ConnectionにアップロードしてArtist Connectionのスマートフォンアプリで360 Reality Audioとして再生ができる。 📸 360 Reatily Audio制作のワークフローはこのような形になっている。パンニングの部分を360 WalkMix Creator™で行うということ以外は、従来のミキシングの手法と大きな違いはない。編集、プラグイン処理などは従来通り。その後の音を混ぜるというミキサーエンジン部分の機能を360 WalkMix Creator™が行うこととなる。ミキシングされたものはエンコードされ、配信用の音源として書き出される。リスナーが実際に視聴する際のバイノーラル処理は、リスナーの使用するプレイヤー側で行うこととなる。 ●エンコードでサウンドの純度をどう保つか では、改めて360 Reality Audioの配信マスターであるMPEG-H 3D Audioに準拠した360 Reality Audio Music Formatへのエンコードについて説明していきたい。360 WalkMix Creator™で扱うことができるオブジェクト数は最大128個である。エンコードにあたっては、10~24オブジェクトにプリレンダリングして圧縮を行うことになる。せっかく作ったオブジェクトをまとめるということに抵抗があるのも事実だが、配信という限られた帯域を使ってのサービスで使用されるということを考えると欠かすことができない必要な工程である。360 WalkMix Creator™では多くの調整項目を持ち、かなり細かくそのチューニングを行うことができる。マスターデータは非圧縮のまま手元に残すことはできるので、いつの日か非圧縮のピュアなサウンドを360 Reatily Audioのエンドユーザーへ提供できる日が来るまで大切に保管しておいてもらいたい。 360 Reality Audio Music Formatへのエンコードを行うにあたり10~24オブジェクトへプリレンダリングして圧縮を行うということだが、その部分を更に詳しく説明していこう。実際には、配信事業者の持つ帯域幅に合わせて4つのレベルでのエンコードを行うこととなる。プリレンダリングはStatic ObjectとDynamic Objectの設定をすることで実行できる。Static Objectはその言葉の通り、固定されたオブジェクトである。この際に選択できるStatic Object Configurationは複数種類が用意されており、ミキシングにおけるパンニングの配置に合わせて最適なものを選択することができるようになっている。デフォルトでは、4.4.2 Static Objectで10オブジェクトを使用し、各Levelの最大オブジェクト数まではDynamic Objectに設定できる。Dynamic Objectはそのトラックを単独のObjectとして書き出すことで、360 WalkMix Creator™上でミキシングしたデータそのままとなり、Static Objectは360 WalkMix Creator™にプリセットされている様々なStatic Object Configurationに合わせてレンダリングアウトが書き出される。 📸 エンコードの際には、こちらの画面のように6種類のデータが書き出される。Level 0.5~3までは本文で解説をしているのでそちらをご参照いただきたい。それ以外の項目となるプリレンダリングは360 Reality Audio Music Formatへエンコードする直前の.wavのデータ、要は非圧縮状態で書き出されたものとなる。選択スピーカー別出力は、モニターするために選択しているスピーカーフォーマットに合わせた.wavファイルの書き出し。例えば、5.5.3のスピーカー配置で視聴しているのであれば、13chの.wavファイルとして各スピーカーに合わせてレンダリングされたものが出力される。 Static Object Configurationのプリセットはかなりの種類が用意されている。前方へ集中的に音を集めているのであれば5.3.2、空間全体に音を配置しているのであれば4.4.2、推奨の制作スピーカーセットを再現するのであれば5.5.3など実音源が多い部分にStatic Object が来るように選択する。いたずらにオブジェクト数の多いものを選択するとDynamic Objectに割り振ることができるオブジェクト数を減らしてしまうので、ここはまさにトレードオフの関係性である。もちろん、オブジェクト数の多いStatic Objectのプリセットを選択することで空間の再現性は向上する。しかし、単独オブジェクトとして存在感高く再生が可能なDynamic Object数が減ってしまうということになる。基本的に音圧の高い、重要なトラックをDynamic Objectとして書き出すことが推奨されている。具体的には、ボーカルなどのメロディーがそれにあたる。それ以外にも特徴的なパンニングオートメーションが書かれているトラックなどもDynamic Objectにすることで効果がより良く残せる。Static Objectに落とし込まずに単独のトラックのままで存在することができるためにそのサウンドの純度が保たれることとなる。 ミキシングをおこなったトラックごとにStaticとするのか、Dynamicとするのかを選択することができる。このStatic/Dynamicの選択、そしてStatic Object Configurationのプリセットの選択が、エンコード作業の肝となる。この選択により出来上がった360 Reality Audio Music Formatのデータはかなり変化する。いかに360 WalkMix Creator™でミックスしたニュアンスを余すことなくエンコードするか、なににフォーカスをするのか、空間をどのように残すのか。まさに制作意図を反映するための判断が必要な部分となる。 ●Static Object Configuration設定一覧 これら掲載した画面が360 WalkMix Creator™で選択できるStatic Object Configurationのプリセット一覧となる。プリセットされたレンダリングアウトの位置は、できる限り共通化されていることもこのように一覧すれば見て取ることができるだろう。基本はITU準拠の5.1ch配置からの拡張であり、Dolby Atmosを意識したような配置、AURO 3Dを意識したような配置もあることがわかる。5chサラウンドの拡張の系統とは別に、開き角45度のグループもあり、スピーカー間が90度で等間隔になる最低限の本数で最大の効果が得られるような配置のものも用意されている。 下方向をどれくらい使っているのか?上空は?そういった観点から適切なプリセットを選ぶことで再現性を担保し、重要なトラックに関してはDynamic Objectとして独立させる。Static Objectを多くすればその分全体の再現性は上がるが、使えるDynamic Objectのオブジェクト数が減ってしまう。これは難しい判断を強いられる部分ではあるが、トレードオフの関係となるためあらかじめ念頭に置いておくべきだろう。この仕組みを理解して作業にあたることで、よりよい状態の信号を360 Reality Audio Music Formatファイルで書き出すことが可能となる。 Chapter 3:360 Reality Audioの現在地 Dolby Atmosとの互換性 昨年の空間オーディオのサービスインから、注目を集めているDolby Atmos Music。そのフォーマットで制作した音源と360 Reality Audioの互換性は?やはりイチから作り直さなければならないのか?制作者にとって大きなハードルになっているのではないだろうか。フォーマットが増えたことにより作業量が倍増してしまうのでは、なかなか現場としては受け入れがたいものがあるのも事実。実際のところとしては、Dolby Atmosで制作した音源をRenderingしたWAVファイルを360 WalkMix Creator™でそのチャンネルベースの位置に配置することで再現することが可能である。その際にできる限り多くのスピーカーを使用したWAVをDolby Atmos Redererから書き出すことでその再現性を高めることも可能だ。なお、逆パターンの360 Reality AudioからDolby Atmosの場合には、南半球の取り扱いがあるためそのままというわけにはいかない。どうしても行き先のないトラックが出てきてしまうためである。 📸 360 WalkMix Creator™上でDolby Atmosを展開する一例がこちら。Dolby Atmosから7.1.4のレンダリングアウトを.wavで出力し、360 WalkMix Creator™内に配置したしたという想定だ。さらにチャンネル数を増やすことも可能(Atmos Rendererの最大レンダリング出力は11.1.10)だが、今回はわかりやすくベーシックなものとしている。ここでの問題はLFE chだ。 360 Reatily AudioにはLFEが存在しないため、少し下方向から再生することで効果的に使用することができるのではないか。LFEに関しては特に決まりはないため耳で聴いてちょうどよいバランスに合わせる必要がある。 Dolby Atmos Redererからは、最大11.1.10chの書き出しが可能である。360 Reality AudioにはLFE chが用意されていないため、ここの互換性に注意すれば、南半球は無いがかなり高いレベルでの互換を取れた状態が確保されていると言えるだろう。360 WalkMix Creator™に11.10.0というStatic Objectのプリセットがあれば完璧なのだが、次のアップデートでの実装に期待したいところである。また、Rendering Outを行う際にVocalなどDynamic Objectにアサインしたいものだけを省いておくことでDynamic Objectも活用することができる。もちろん、ワンボタンでという手軽さではないが、イチからミックスをやり直すことなく同等の互換性を確保することが可能なところまできている。 日進月歩の進化を見せる360 Reality Audioの制作環境。制作のための全てのコンポーネントがもうじき出揃うはずである。そして、制作物をユーザーへデリバリーする方法も整ってきている。双璧をなすDolby Atmosとの互換性など制作のノウハウ、実績も日々積み上げられていっているところだ。まさにイマーシブ・オーディオ制作は第2フェーズへと歩みを進めている。ぜひともこの新しい世界へと挑戦してもらいたい。 360 WalkMix Creator™ ¥64,900(税込) ソニー 360 Reality Audioを制作するためのツールがこの「360 WalkMix Creator™」。AAXはもちろん、VST / AUにも対応しているため、ホストDAWを選ばずに360 Reality Audioのミキシングを行うことができる。 製品購入ページ(RockoN eStore) 製品紹介ページ クリエーター向け 360 Reality Audio HP *ProceedMagazine2022号より転載 https://pro.miroc.co.jp/headline/comparison-of-atmos-360ra/
Sound on 4π Part 4 / ソニーPCL株式会社 〜360 Reality Audioのリアルが究極のコンテンツ体験を生む〜
ソニーグループ内でポストプロダクション等の事業を行っているソニーPCL株式会社(以下、ソニーPCL)。360RAは音楽向けとしてリリースされたが、360RAを含むソニーの360立体音響技術群と呼ばれる要素技術の運用を行っている。昨年システムの更新を行ったMA室はすでに360RAにも対応し、360立体音響技術群のテクノロジーを活用した展示会映像に対する立体音響の制作、360RAでのプロモーションビデオのMA等をすでに行っている。 独自のアウトプットバスで構成されたMA室 ソニーPCLは映像・音響技術による制作ソリューションの提供を行っており、360立体音響技術群を活用した新しいコンテンツ体験の創出にも取り組んでいる。現時点では映像と音声が一緒になった360RAのアウトプット方法は確立されていないため、クライアントのイメージを具現化するための制作ワークフロー構築、イベント等でのアウトプットを踏まえた演出提案など、技術・クリエイティブの両面から制作に携わっている。 この更新されたMA室はDolby Atmosに準拠したスピーカー設置となっている。360RA以前にポストプロダクションとしてDolby Atmosへの対応検討が進んでおり、その後に360RAへの対応という順番でソリューションの導入を行っている。そのため、天井にはすでにスピーカーが設置されていたので、360RAの特徴でもあるボトムへのスピーカーの増設で360RA制作環境を整えた格好だ。360RAはフルオブジェクトのソリューションとなるため、スピーカーの設置位置に合わせてカスタムのアウトプットバスを組むことでどのようなスピーカー環境にも対応可能である。360RACSには最初から様々なパターンのスピーカーレイアウトファイルが準備されているので、たいていはそれらで対応可能である。とはいえスタジオごとのカスタム設定に関しても対応を検討中とのことだ。 📷デスクの前方にはスクリーンが張られており、L,C,Rのスピーカーはこのスクリーンの裏側に設置されている。スクリーンの足元にはボトムの3本のスピーカーが設置されているのがわかる。リスニングポイントに対して机と干渉しないギリギリの高さと角度での設置となっている。 📷できる限り等距離となるように、壁に寄せて設置ができるよう特注のスタンドを用意した。スピーカーは他の製品とのマッチを考え、Neumann KH120が選ばれている。 360RAの制作にあたり、最低これだけのスピーカーがあったほうが良いというガイドラインはある。具体的には、ITU準拠の5chのサラウンド配置のスピーカーが耳の高さにあたる中層と上空の上層にあり、フロントLCRの位置にボトムが3本という「5.0.5.3ch」が推奨されている。フル・オブジェクトということでサブウーファーchは用意されていない。必要であればベースマネージメントによりサブウーファーを活用ということになる。ソニーPCLではDolby Atmos対応の部屋を設計変更することなく、ボトムスピーカーの増設で360RAへと対応させている。厳密に言えば、推奨環境とは異なるが、カスタムのアウトプット・プロファイルを作ることでしっかりと対応している。 ソニーPCLのシステムをご紹介しておきたい。一昨年の改修でそれまでの5.1ch対応の環境から、9.1.4chのDolby Atmos対応のスタジオへとブラッシュアップされている。スピーカーはProcellaを使用。このスピーカーは、奥行きも少なく限られた空間に対して多くのスピーカーを増設する、という立体音響対応の改修に向いている。もちろんそのサウンドクオリティーも非常に高い。筐体の奥行きが短いため、天井への設置時の飛び出しも最低限となり空間を活かすことができる。この更新時では、既存の5.1chシステムに対しアウトプットが増えるということ、それに合わせスピーカープロセッサーに必要とされる処理能力が増えること、これらの要素を考えてAudio I/OにはAvid MTRX、スピーカープロセッサーにはYAMAHA MMP1という組み合わせとなっている。 📷天井のスピーカーはProcellaを使用。内装に極力手を加えずに設置工事が行われた。天井裏の懐が取れないためキャビネットの厚みの薄いこのモデルは飛び出しも最小限にきれいに収まっている。 4π空間を使い、究極のコンテンツ体験を作る なぜ、ソニーPCLはこれらの新しいオーディオフォーマットに取り組んでいるのであろうか?そこには、歴史的にも最新の音響技術のパイオニアであり、THX認証(THXpm3)でクオリティーの担保された環境を持つトップレベルのスタジオであるということに加えて、顧客に対しても安心して作業をしてもらえる環境を整えていくということに意義を見出しているからだ。5.1chサラウンドに関しても早くから取り組みを始め、先輩方からの技術の系譜というものが脈々と続いている。常に最新の音響技術に対してのファーストランナーであるとともに、3D音響技術に関してもトップランナーで在り続ける。これこそがソニーPCLとしての業界におけるポジションであり、守るべきものであるとのお話をいただいた。エンジニアとしての技術スキルはもちろんだが、スタジオは、音響設計とそこに導入される機材、そのチューニングと様々な要素により成り立っている。THXは一つの指標ではあるが、このライセンスを受けているということは、自信を持ってこのスタジオで聴いた音に間違いはないと言える、大きなファクターでもある。 📷デスク上は作業に応じてレイアウトが変更できるようにアームで取り付けられた2つのPC Displayと、Avid Artist Mix、JL Cooper Surrond Pannerにキーボード、マウスと機材は最小限に留めている。 映像に関してのクオリティーはここで多くは語らないが、国内でもトップレベルのポストプロダクションである。その映像と最新の3D立体音響の組み合わせで、「究極のコンテンツ体験」とも言える作品を作ることができるスタジオになった。これはライブ、コンサート等にとどまらず、歴史的建造物、自然環境などの、空気感をあますことなく残すことができるという意味が含まれている。自然環境と同等の4πの空間を全て使い音の記録ができる、これは画期的だ。商用としてリリースされた初めての完全なる4πのフォーマットと映像の組み合わせ、ここには大きな未来を感じているということだ。 また、映像とのコラボレーションだけではなく、ソニー・ミュージックスタジオのエンジニアとの交流も360RAによりスタートしているということだ。これまでは、音楽スタジオとMAスタジオという関係で素材レベルのやり取りはあったものの、技術的な交流はあまりなかったということだが、360RAを通じて今まで以上のコミュニケーションが生まれているということだ。ソニーR&Dが要素を開発した360立体音響技術群、それを実際のフォーマットに落とし込んだソニーホームエンタテイメント&サウンドプロダクツなど、ソニーグループ内での協業が盛んとなり今までにない広がりを見せているということだ。このソニーグループ内の協業により、どのような新しい展開が生まれるのか?要素技術である360立体音響技術群の大きな可能性を感じる。すでに、展示会場やイベント、アミューズメントパークなど360RAとは異なる環境でこの技術の活用が始まってきている。フルオブジェクトには再生環境を選ばない柔軟性がある。これから登場する様々なコンテンツにも注目をしたいところだ。 現場が触れた360RAのもたらす「リアル」 360RAに最初に触れたときにまず感じたのは、その「リアル」さだったということだ。空間が目の前に広がり、平面のサラウンドでは到達できなかった本当のリアルな空間がそこに再現されていることに大きな驚きがあったという。ポストプロダクションとしては、リアルに空間再現ができるということは究極の目的の一つでもある。音楽に関しては、ステレオとの差異など様々な問題提議が行われ試行錯誤をしているが、映像作品にこれまでにない「リアル」な音響空間が加わるということは大きな意味を持つ。報道、スポーツ中継などでも「リアル」が加わることは重要な要素。当初は即時性とのトレードオフになる部分もあるかもしれない。立体音響でのスポーツ中継など想像しただけでも楽しみになる。 実際の使い勝手の詳細はまだこれからといった段階だが、定位をDAWで操作する感覚はDTS:Xに近いということだ。将来的にはDAWの標準パンナーで動かせるように統合型のインターフェースになってほしいというのが、現場目線で求める将来像だという。すでにDAWメーカー各社へのアプローチは行っているということなので、近い将来360RAネイティブ対応のDAWなども登場するのではないだろうか。 もともとサラウンドミックスを多数手がけられていたことから、サウンドデザイン視点での試行錯誤もお話しいただくことができた。リバーブを使って空間に響きを加える際にクアッド・リバーブを複数使用し立方体を作るような手法。移動を伴うパンニングの際に、オブジェクトの移動とアンプリチュード・パンを使い分ける手法など、360RAの特性を色々と研究しながら最適なミックスをする工夫を行っているということだ。 3Dと呼ばれる立体音響はまさに今黎明期であり、さまざまなテクノロジーが登場している途中の段階とも言える。それぞれのメリット、デメリットをしっかりと理解し、適材適所で活用するスキルがエンジニアに求められるようになってきている。まずは、試すことから始めそのテクノロジーを見極めていく必要があるということをお話いただいた。スペックだけではわからないのが音響の世界である。まずは、実際に触ってミックスをしてみて初めて分かる、気づくことも多くある。そして、立体音響が普及していけばそれに合わせた高品位な映像も必然的に必要となる。高品位な映像があるから必要とされる立体音響。その逆もまた然りということである。 📷上からAntelope Trinity、Avid SYNC HD,Avid MTRX、YAMAHA MMP1が収まる。このラックがこのスタジオのまさに心臓部である。 📷ポスプロとして従来のサラウンドフォーマットへの対応もしっかりと確保している。Dolby Model DP-564はまさにその証ともいえる一台。 📷このiPadでYAMAHA MMP1をコントロールしている。このシステムが多チャンネルのモニターコントロール、スピーカーマネージメントを引き受けている。 ソニーPCLでお話を伺った喜多氏に、これから立体音響、360RAへチャレンジする方へのコメントをいただいた。「まずは、想像力。立体空間を音で表現するためには想像力を膨らませてほしい。従来のステレオ、5.1chサラウンドのイメージに縛られがちなので、想像力によりそれを広げていってもらいたい。この情報過多の世界で具体例を見せられてばかりかもしれないが、そもそも音は見えないものだし、頭の中で全方向からやってくる音をしっかりとイメージして設計をすることで、立体音響ならではの新しい発見ができる。是非とも誰もが想像していなかった新しい体験を作り上げていってほしい」とのことだ。自身もソニーグループ内での協業により、シナジーに対しての高い期待と360RAの持つ大きな可能性を得て、これからの広がりが楽しみだということだ。これから生まれていく360RAを活用した映像作品は間違いなく我々に新しい体験を提供してくれるだろう。 ソニーPCL株式会社 技術部門・アドバンスドプロダクション2部 テクニカルプロダクション1課 サウンドスーパーバイザー 喜多真一 氏 *取材協力:ソニー株式会社 *ProceedMagazine2021号より転載
Sound on 4π Part 3 / 360 Reality Audio Creative Suite 〜新たなオーディオフォーマットで行う4π空間への定位〜
360 Reality Audio(以下、360RA)の制作ツールとして満を持してこの4月にリリースされた360 Reality Audio Creative Suite(以下、360RACS)。360RAの特徴でもあるフル・オブジェクト・ミキシングを行うツールとしてだけではなく、360RAでのモニター機能にまで及び、将来的には音圧調整機能も対応することを計画している。具体的な使用方法から、どのような機能を持ったソフトウェアなのかに至るまで、様々な切り口で360RACSをご紹介していこう。 >>Part 1 :360 Reality Audio 〜ついにスタート! ソニーが生み出した新たな時代への扉〜 >>Part 2 :ソニー・ミュージックスタジオ 〜360 Reality Audio Mixing、この空間を楽しむ〜 全周=4π空間内に音を配置 360RACSのワークフローはまとめるとこのようになる。プラグインであるということと、プラグインからモニタリング出力がなされるという特殊性。最終のエンコードまでが一つのツールに詰め込まれているというところをご確認いただきたい。 360RACSは、アメリカAudio Futures社がリリースするプラグインソフトである。執筆時点での対応プラグイン・フォーマットはAAX、VSTとなっている。対応フォーマットは今後随時追加されていくということなので、現時点で対応していないDAWをお使いの方も読み飛ばさずに待ってほしい。Audio Futures社は、音楽ソフトウェア開発を行うVirtual Sonic社の子会社であり、ソニーとの共同開発契約をもとに、ソニーから技術提供を受け360RACSを開発している。360RAコンテンツの制作ツールは、当初ソニーが研究、開発用として作ったソフトウェア「Architect」のみであった。しかしこの「Architect」は、制作用途に向いているとは言えなかったため、現場から様々なリクエストが集まっていたことを背景に、それらを汲み取り制作に向いたツールとして新たに開発されたのがこの360RACSということになる。 それでは具体的に360RACSを見ていきたい。冒頭にも書いたが360RACSはプラグインである。DAWの各トラックにインサートすることで動作する。DAWの各トラックにインサートすると、360RACS上にインサートされたトラックが追加されていく。ここまで準備ができれば、あとは360RACS内で全周=4π空間内にそれぞれの音を配置していくこととなる。これまで音像定位を変化させるために使ってきたパンニングという言葉は、水平方向の移動を指す言葉である。ちなみに、縦方向の定位の移動を指す言葉はチルトだ。立体音響においてのパンニングにあたる言葉は確立されておらず、空間に定位・配置させるという表現となってしまうことをご容赦願いたい。 360RACS内で音像を定位させるには、画面に表示された球体にある音像の定位位置を示すボール状のポイントをドラッグして任意の場所に持っていけば良い。後方からと、上空からという2つの視点で表示されたそれぞれを使うことで、簡単に任意の場所へと音像を定位させることができる。定位をさせた位置情報はAzimuth(水平方向を角度で表現)とElevation(垂直方向を角度で表現)の2つのパラメータが与えられる。もちろん、数値としてこれらを入力することも可能である。 📷360RACSに送り込まれた各オブジェクトは、Azimuth(アジマス)、Elavation、Gainの3つのパラメーターにより3D空間内の定位を決めていくこととなる。 360RAでは距離という概念は無い。これは現時点で定義されているMPEG-Hの規格にそのパラメータの運用が明確に定義されていないということだ。とはいえ、今後サウンドを加工することで距離感を演出できるツールやなども登場するかもしれない。もちろん音の強弱によっても遠近をコントロールすることはできるし、様々な工夫により擬似的に実現することは可能である。ただ、あくまでも360RAのフォーマット内で、という限定された説明としては距離のパラメーターは無く、360RAにおいては球体の表面に各ソースとなる音像を定位させることができるということである。この部分はネガティブに捉えないでほしい。工夫次第でいくらでも解決方法がある部分であり、これからノウハウ、テクニックなどが生まれる可能性が残された部分だからだ。シンプルな例を挙げると、360RACSで前後に同じ音を定位させ、そのボリューム差を変化させることで、360RAの空間内にファントム定位を作ることも可能だということである。 4π空間に定位した音は360RACSで出力 360RACSはそのままトラックにインサートするとプリフェーダーでインサートされるのでDAWのフェーダーは使えなくなる。もちろんパンも同様である。これはプラグインのインサートポイントがフェーダー、パンよりも前の段階にあるということに起因しているのだが、360RACS内に各トラックのフェーダーを用意することでこの部分の解決策としている。音像の定位情報とともに、ボリューム情報も各トラックのプラグインへオートメーションできる情報としてフィードバックされているため、ミキシング・オートメーションのデータは全てプラグインのオートメーションデータとしてDAWで記録されることとなる。 📷各トラックにプラグインをインサートし、360RACS内で空間定位を設定する。パンニング・オートメーションはプラグイン・オートメーションとしてDAWに記録されることとなる。 次は、このようにして4π空間に定位した音をどのようにモニタリングするのか?ということになる。360RACSはプラグインではあるが、Audio Interfaceを掴んでそこからアウトプットをすることができる。これは、DAWが掴んでいるAudio Outputは別のものになる。ここでヘッドホンであれば2chのアウトプットを持ったAudio Interfaceを選択すれば、そこから360RACSでレンダリングされたヘッドホン向けのバイノーラル出力が行われるということになる。スピーカーで聴きたい場合には、標準の13ch(5.0.5.3ch)を始め、それ以外にもITU 5.1chなどのアウトプットセットも用意されている。もちろん高さ方向の再現を求めるのであれば、水平面だけではなく上下にもスピーカーが必要となるのは言うまでもない。 📷360RACSの特徴であるプラグインからのオーディオ出力の設定画面。DAWから受け取った信号をそのままスピーカーへと出力することを実現している。 360RACSの機能面を見ていきたい。各DAWのトラックから送られてきたソースは360RACS内でグループを組むことができる。この機能により、ステレオのソースなどの使い勝手が向上している。全てを一つのグループにしてしまえば、空間全体が回転するといったギミックも簡単に作れるということだ。4π空間の表示も上空から見下ろしたTop View、後方から見たHorizontal View、立体的に表示をしたPerspective Viewと3種類が選択できる。これらをの表示を2つ組み合わせることでそれぞれの音像がどのように配置されているのかを確認することができる。それぞれの定位には、送られてきているトラック名が表示されON/OFFも可能、トラック数が多くなった際に文字だらけで見にくくなるということもない。 360RACS内に配置できるオブジェクトは最大128ch分で、各360RACS内のトラックにはMute/Soloも備えられる。360RACSでの作業の際には、DAWはソースとなる音源のプレイヤーという立ち位置になる。各音源は360RACSのプラグインの前段にEQ/Compなどをインサートすることで加工することができるし、編集なども今まで通りDAW上で行えるということになる。その後に、360RACS内で音像定位、ボリュームなどミキシングを行い、レンダリングされたアウトプットを聴くという流れだ。このレンダリングのプロセスにソニーのノウハウ、テクノロジーが詰まっている。詳細は別の機会とするが、360立体音響技術群と呼ばれる要素技術開発で積み重ねられてきた、知見やノウハウにより最適に立体空間に配置されたサウンドを出力している。 Level 1~3のMPEG-Hへエンコード 📷MPEG-Hのデータ作成はプラグインからのExportにより行う。この機能の実装により一つのプラグインで360RAの制作位の工程を包括したツールとなっている。 ミックスが終わった後は、360RAのファイルフォーマットであるMPEG-Hへエンコードするという処理が残っている。ここではLevel 1~3の3つのデータを作成することになり、Level 1が10 Object 64 0kbps、Level 2が16 Object 1Mbps、Level 3が 24 Object 1.5Mbpsのオーディオデータへと変換を行う。つまり、最大128chのオーディオを最小となるLevel 1の10trackまで畳み込む必要があるということだ。具体的には、同じ位置にある音源をグループ化してまとめていくという作業になる。せっかく立体空間に自由に配置したものを、まとめてしまうのはもったいないと感じるかもしれないが、限られた帯域でのストリーミングサービスを念頭とした場合には欠かせない処理だ。 とはいえ、バイノーラルプロセスにおいて人間が認知できる空間はそれほど微細ではないため、できる限り128chパラのままでの再現に近くなるように調整を行うこととなる。後方、下方など微細な定位の認知が難しい場所をまとめたり、動きのあるもの、無いものでの分類したり、そういったことを行いながらまとめることとなる。このエンコード作業も360RACS内でそのサウンドの変化を確認しながら行うことが可能である。同じ360RACSの中で作業を行うことができるため、ミックスに立ち返りながらの作業を手軽に行えるというのは大きなメリットである。このようなエンコードのプロセスを終えて書き出されたファイルが360RAのマスターということになる。MPEG-Hなのでファイルの拡張子は.MP4である。 執筆時点で、動作確認が行われているDAWはAvid Pro ToolsとAbleton Liveとなる。Pro Toolsに関しては、サラウンドバスを必要としないためUltimateでなくても作業が可能だということは特筆すべき点である。言い換えれば、トラック数の制約はあるがPro Tools Firstでも作業ができるということだ。全てが360RACS内で完結するため、ホストDAW側には特殊なバスを必要としない。これも360RACSの魅力の一つである。今後チューニングを進め、他DAWへの対応や他プラグインフォーマットへの展開も予定されている。音楽に、そして広義ではオーディオにとって久々の新フォーマットである360RAは制作への可能性を限りなく拡げそうだ。 *取材協力:ソニー株式会社 *ProceedMagazine2021号より転載 >>Part 2はこちらから https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-2/ >>Part 1はこちらから https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-1/
Sound on 4π Part 2 / ソニー・ミュージックスタジオ 〜360 Reality Audio Mixing、この空間を楽しむ〜
国内の正式ローンチに合わせ、多数の邦楽楽曲が360RAでミックスされた。その作業の中心となったのがソニー・ミュージックスタジオである。マスタリングルームのひとつを360RAのミキシングルームに改装し、2021年初頭より60曲あまりがミキシングされたという。そのソニー・ミュージックスタジオで行われた実際のミキシング作業についてお話を伺った。 >>Part 1:360 Reality Audio 〜ついにスタート! ソニーが生み出した新たな時代への扉〜 2ミックスの音楽性をどう定位していくか 株式会社ソニー・ミュージックソリューションズ ソニー・ミュージックスタジオ レコーディング&マスタリングエンジニア 鈴木浩二 氏(右) レコーディングエンジニア 米山雄大 氏(左) 2021年3月23日発のプレスリリースにあった楽曲のほとんどは、ここソニー・ミュージックスタジオでミキシングが行われている。360RAでリリースされた楽曲の選定は、各作品のプロデューサー、アーティストに360RAをプレゼン、実際に体験いただき360RAへの理解を深め、その可能性に賛同を得られた方から制作にあたったということだ。 実際に360RAでミキシングをしてみての率直な感想を伺った。ステレオに関しての経験は言うまでもなく、5.1chサラウンドでの音楽のミキシング作業の経験も豊富にある中でも、360RAのサウンドにはとにかく広大な空間を感じたという。5.1chサラウンドでの音楽制作時にもあった話だが、音楽として成立させるために音の定位はどこの位置までが許容範囲なのか?ということは360RAでも起こること。やはりボーカルなどのメロディーを担うパートが、前方に定位をしていないと違和感を感じてしまうし、平面での360度の表現から高さ方向の表現が加わったことで、5.1chから更に広大な空間に向き合うことになり正直戸惑いもあったということだ。その際は、もともとの2chのミックスを音楽性のリファレンスとし、その音楽性を保ったまま空間に拡張していくというイメージにしたという。 360RAは空間が広いため、定位による表現の自由度は圧倒的だ。白紙の状態から360RAの空間に音を配置して楽曲を成立させるには、やはり従来の2chミキシングで培った表現をベースに拡張させる、という手法を取らないとあまりにも迷いが多い。とはいえ、始まったばかりの立体音響でのミキシング、「正解はない」というのもひとつの答えである。さらなる試行錯誤の中から、新しいセオリー、リファレンスとなるような音像定位が生まれてくるのではないだろうか。もちろん従来のステレオで言われてきた、ピラミッド定位などというミキシングのセオリーをそのまま360RAで表現しても良い。その際に高さを表現するということは、ステレオ・ミキシングでは高度なエンジニアリング・スキルが要求されたが、360RAではオブジェクト・パンの定位を変えるだけ、この簡便さは魅力の一つだ。 試行錯誤の中から得られた経験としては、360RAの広大な空間を広く使いすぎてしまうと、細かな部分や気になる部分が目立ってしまうということ。実際に立体音響のミキシングで直面することだが、良くも悪くもステレオミキシングのようにそれぞれの音は混ざっていかない。言葉で言うのならば、ミキシング(Mixing)というよりもプレイシング(Placing)=配置をしていくという感覚に近い。 また、360RAだけではなく立体音響の大きな魅力ではあるが、クリアに一つ一つのサウンドが聴こえてくるために、ステレオミックスでは気にならなかった部分が気になってしまうということも起こり得る。逆に、アーティストにとってはこだわりを持って入れたサウンド一つ一つのニュアンスが、しっかりとしたセパレーションを持って再生されるためにミックスに埋もれるということがない。これは音楽を生み出す側としては大きな喜びにつながる。このサウンドのセパレーションに関しては、リスナーである我々が2chに収められたサウンドに慣れてしまっているだけかもしれない。これからは、この「混ざらない」という特徴を活かした作品も生まれてくるのではないだろうか。実際に音楽を生み出しているアーティストは2chでの仕上がりを前提に制作し、その2chの音楽性をリファレンスとして360RAのミキシングが行われている。当初より360RAを前提として制作された楽曲であれば、全く新しい世界が誕生するのかもしれない。 実例に即したお話も聞くことができた。ゴスペラーズ「風が聴こえる」を360RAでミキシングをした際に、立体的にサウンドを動かすことができるため、当初は色々と音に動きのあるミキシングを試してみたという。ところが、動かしすぎることにより同時に主題も移動してしまって音楽性が損なわれてしまったそうだ。その後のミックスでは、ステレオよりも広くそれぞれのメンバーを配置することで、ステレオとは異なるワイドなサウンドが表現しているという。360RAでミキシングをすることで、それぞれのメンバーの個々のニュアンスがしっかりとクリアに再生され、ステレオであれば聴こえなかった音がしっかりと届けられるという結果が得られ、好評であったということだ。まさに360RAでのミキシングならではのエピソードと言えるだろう。 📷元々がマスタリングルームあったことを偲ばせる巨大なステレオスピーカーの前に、L,C,R+ボトムL,C,Rの6本のスピーカーがスタンドに設置されている。全てMusik Electornic Gaithain m906が採用され、純正のスタンドを改造してボトムスピーカーが据え付けられている。天井には天吊で同じく906があるのがわかる。 高さ方向をミックスで活用するノウハウ 5.1chサラウンドから、上下方向への拡張がなされた360RA。以前から言われているように人間の聴覚は水平方向に対しての感度は高いが、上下方向に関しては低いという特徴を持っている。これは、物理的に耳が左右についているということに起因する。人間は水平方向の音を左右の耳に届く時間差で認識している、単純に右から来る音は右耳のほうが少しだけ早く聴こえるということだ。しかし、高さ方向に関してはそうはいかない。これは、こういう音はこちらから聴こえている「はず」という人の持つ経験で上下を認識しているためだ。よって、360RAでの上下方向のミキシングはセオリーに沿った音像配置を物理的に行う、ということに向いている。例えば、低音楽器を下に、高音楽器を上にといったことだ。これによりその特徴が強調された表現にもなる。もちろん、逆に配置して違和感を効果的に使うといった手法もあるだろう。また、ステレオMIXでボーカルを少し上から聴こえるようにした「おでこから聴こえる」などと言われるミックスバランスも、物理的にそれを配置することで実現が可能である。これにより、ボーカルの明瞭度を増して際立たせることもできるだろう。 音楽的なバランスを取るためにも、この上下方向をサウンドの明瞭度をつけるために活用するのは有効だ、という経験談もいただくことができた。水平面より少し上のほうが明瞭度が高く聴こえ、下に行けば行くほど明瞭度は落ちる。上方向も行き過ぎるとやはり明瞭度は落ちる。聴かせたいサウンドを配置する高さというのはこれまでにないファクターではあるが、360RAのミキシングのひとつのポイントになるのではないだろうか。また、サウンドとの距離に関しても上下で聴感上の変化があるということ。上方向に比べ、下方向のほうが音は近くに感じるということだ。このように360RAならではのノウハウなども、試行錯誤の中で蓄積が始まっていることが感じられる。 📷天井には、円形にバトンが設置され、そこにスピーカーが吊るされている。このようにすることでリスニングポイントに対して等距離となる工夫がなされている。 📷ボトムのスピーカー。ミドルレイヤーのスピーカーと等距離となるように前方へオフセットして据え付けられているのがわかる。 理解すべき広大な空間が持つ特性 そして、360RAに限らず立体音響全般に言えることなのだが、サウンド一つ一つがクリアになり明瞭度を持って聴こえるという特徴がある。また、トータルコンプの存在していない360RAの制作環境では、どうしてもステレオミックスと比較して迫力やパンチに欠けるサウンドになりやすい。トータルコンプに関しては、オブジェクトベース・オーディオ全てにおいて存在させることが難しい。なぜなら、オブジェクトの状態でエンドユーザーの手元にまで届けられ、最終のレンダリング・プロセスはユーザーが個々に所有する端末上で行われるためだ。また、バイノーラルという技術は、音色(周波数分布)や位相を変化させることで擬似的に上下定位や後方定位を作っている。そのためトータルコンプのような、従来のマスタリング・プロセッサーはそもそも使うことができない。 そして、比較対象とされるステレオ・ミックスはある意味でデフォルメ、加工が前提となっており、ステレオ空間という限られたスペースにノウハウを駆使してサウンドを詰め込んだものとも言える。広大でオープンな空間を持つ立体音響にパンチ感、迫力というものを求めること自体がナンセンスなのかもしれないが、これまでの音楽というものがステレオである以上、これらが比較されてしまうのはある意味致し方がないのかもしれない。360RAにおいても個々の音をオブジェクトとして配置する前にEQ/COMPなどで処理をすることはもちろん可能だ。パンチが欲しいサウンドはそのように聴こえるよう予め処理をしておくことで、かなり求められるニュアンスを出すことはできるということだ。 パンチ感、迫力といったお話をお伺いしていたところ、ステレオと360RAはあくまでも違ったもの、是非とも360RAならではの体験を楽しんでほしいというコメントをいただいた。まさにその通りである。マキシマイズされた迫力、刺激が必要であればステレオという器がすでに存在している。ステレオでは表現、体験のできない新しいものとして360RAを捉えるとその魅力も際立つのではないだろうか。ジャズなどのアコースティック楽器やボーカルがメインのものは不向きかもしれないが、ライブやコンサート音源など空間を表現することが得意な360RAでなければ再現できない世界もある。今後360RAでの完成を前提とした作品が登場すればその魅力は更に増すこととなるだろう。 360RAならではの魅力には、音像がクリアに分離して定位をするということと空間再現能力の高さがある。ライブ会場の観客のリアクションや歓声などといった空気感、これらをしっかりと収録しておくことでまさにその会場にいるかのようなサウンドで追体験できる。これこそ立体音響の持つイマーシブ感=没入感だと言えるだろう。すでに360RAとしてミキシングされたライブ音源は多数リリースされているので是非とも楽しんでみてほしい。きっとステレオでは再現しえない”空間”を感じていただけるであろう。屋根があるのか?壁はどのようになっているのか?といった会場独自のアコースティックから、残響を収録するマイクの設置位置により客席のどのあたりで聴いているようなサウンドにするのか?そういったことまで360RAであれば再現が可能である。 この空間表現という部分に関しては、今後登場するであろうディレイやリバーブに期待がかかる。本稿執筆時点では360RAネイティブ対応のこれら空間系のエフェクトは存在せず、今後のリリースを待つこととなる。もちろん従来のリバーブを使い、360RAの空間に配置することで残響を加えることは可能だが、もっと直感的に作業ができるツール、360RAの特徴に合わせたツールの登場に期待がかかる。 360RAにおけるマスタリング工程の立ち位置 かなり踏み込んだ内容にはなるが、360RAの制作において試行錯誤の中から答えが見つかっていないという部分も聞いた、マスタリングの工程だ。前述の通り、360RAのファイナルのデータはLevel 1~3(10ch~24ch)に畳み込まれたオブジェクト・オーディオである。実作業においては、Level 1~3に畳み込むエンコードを行うことが従来のマスタリングにあたるのだが、ステレオの作業のようにマスタリングエンジニアにミックスマスターを渡すということができない。このLevel 1~3に畳み込むという作業自体がミキシングの延長線上にあるためだ。 例えば、80chのマルチトラックデータを360RAでミキシングをする際には、作業の工程として80ch分のオブジェクト・オーディオを3D空間に配置することになり、これらをグループ化して10ch~24chへと畳み込んでいく。単独のオブジェクトとして畳み込むのか?オブジェクトを2つ使ってファントムとして定位させるのか、そういった工程である。これらの作業を行いつつ、同時に楽曲間のレベル差や音色などを整えるということは至難の業である。また、個々のオブジェクト・オーディオはオーバーレベルをしていなかったとしても、バイノーラルという2chに畳み込む中でオーバーレベルしてしまうということもある。こういった部分のQC=Quality Controlに関しては、まだまだ経験も知見も足りていない。 もちろん、そういったことを簡便にチェックできるツールも揃っていない。色々と工夫をしながら進めているが、現状ではミキシングをしたエンジニアがそのまま作業の流れで行うしかない状況になっているということだ。やはり、マスタリング・エンジニアという第3者により最終のトリートメントを行ってほしいという思いは残る。そうなると、マスタリングエンジニアがマルチトラックデータの取扱いに慣れる必要があるのか?それともミキシングエンジニアが、さらにマスタリングの分野にまで踏み込む必要があるのか?どちらにせよ今まで以上の幅広い技術が必要となることは間違いない。 個人のHRTFデータ取得も現実的な方法に ヘッドホンでの再生が多くなるイメージがある360RAのミキシングだが、どうしてもバイノーラルとなると細かい部分の詰めまでが行えないため、実際の作業自体はやはりスピーカーがある環境のほうがやりやすいとのことだ。そうとはいえ、360RAに対応したファシリティーは1部屋となるため、ヘッドホンを使ってのミキシングも平行して行っているということだが、その際には360RAのスピーカーが用意されたこの部屋の特性と、耳にマイクを入れて測定をした個人個人のHRTFデータを使い、かなり高い再現性を持った環境でのヘッドホンミックスが行えているということだ。 個人のHRTFデータを組み込むという機能は、360RACSに実装されている。そのデータをどのようにして測定してもらい、ユーザーへ提供することができるようになるのかは、今後の課題である。プライベートHRTFがそれほど手間なく手に入り、それを使ってヘッドホンミックスが行えるようになるということが現実になれば、これは画期的な出来事である。これまで、HRTFの測定には椅子に座ったまま30分程度の計測時間が必要であったが、ソニーの独自技術により耳にマイクを入れて30秒程度で計測が完了するということを筆者も体験している。これが一般にも提供されるようになれば本当に画期的な出来事となる。 📷Pro Tools上に展開された360 Reality Audio Creative Suite(360RACS) 「まだミキシングに関しての正解は見つかっていない。360RACSの登場で手軽に制作に取り組めるようになったので、まずは好きに思うがままに作ってみてほしい。」これから360RAへチャレンジをする方へのコメントだ。360RAにおいても録音をするテクニック、個々のサウンドのトリートメント、サウンドメイクにはエンジニアの技術が必要である。そして、アーティストの持つ生み出す力、創造する力を形にするための360RAのノウハウ。それらが融合することで大きな化学反応が起こるのではないかということだ。試行錯誤は続くが、それ自体が新しい体験であり、非常に楽しんで作業をしているということがにじむ。360RAというフォーマットを楽しむ、これが新たな表現への第一歩となるのではないだろうか。 >>Part 3:360 Reality Audio Creative Suite 〜新たなオーディオフォーマットで行う4π空間への定位〜 *取材協力:ソニー株式会社 *ProceedMagazine2021号より転載 https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-3/ https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-1/
Sound on 4π Part 1 / 360 Reality Audio 〜ついにスタート! ソニーが生み出した新たな時代への扉〜
ついに2021年4月16日に正式リリースとなった 360 Reality Audio(以下、360RA)。読み方は”サンロクマル・リアリティー・オーディオ”となるこの最新のオーディオ体験。これまでにも色々とお伝えしてきているが、日本国内でのリリースと同時に、360RAの制作用のツールとなる360 Reality Audio Creative Suiteもリリースされている。360RAとは一体何なのか?どのようにして作ればよいのか?まずは、そのオーバービューからご紹介していこう。 ソニーが作り出してきたオーディオの時代 まず最初に、ソニーとAudioの関係性を語らないわけにはいかない。コンシューマ・オーディオの分野では、常にエポックメイキングな製品を市場にリリースしてきている。その代表がウォークマン®であろう。今では当たり前となっている音楽を持ち歩くということを世界で初めて実現した電池駆動のポータブル・カセットテープ・プレイヤーである。10代、20代の読者は馴染みが薄いかもしれないが、据え置きの巨大なオーディオコンポや、ラジオとカセットプレイヤーを一体にしたラジカセが主流だった時代に、電池で動作してヘッドホンでどこでも好きな場所で音楽を楽しむことができるウォークマン®はまさにエポックな製品であり、音楽の聴き方を変えたという意味では、時代を作った製品であった。みんなでスピーカーから出てくる音楽を楽しむというスタイルから、個人が好きな音楽をプライベートで楽しむという変化を起こしたわけだ。これは音楽を聴くという体験に変化をもたらしたとも言えるだろう。 ほかにもソニーは、映画の音声がサラウンドになる際に大きなスクリーンの後ろで通常では3本(L,C,R)となるスピーカーを5本(L,LC,C,RC,R)とする、SDDS=Sony Dynamic Digital Soundというフォーマットを独自で提唱したり、ハイレゾという言葉が一般化する以前よりPCMデジタルデータでは再現できない音を再生するために、DSDを採用したスーパーオーディオCD(SACD)を作ったり、と様々な取り組みを行っている。 そして、プロフェッショナル・オーディオ(音響制作機器)の市場である。1980年代よりマルチチャンネル・デジタルレコーダーPCM-3324/3348シリーズ、Oxford R3コンソール、CDのマスタリングに必須のPCM-1630など、音声、特に音楽制作の中心にはソニー製品があった。いまではヘッドホン、マイクは例外に、プロシューマー・マーケットでソニー製品を見ることが少なくなってしまっているが、その要素技術の研究開発は続けられており、コンシューマー製品へしっかりとフィードバックが行われているのである。「制作=作るため」の製品から「利用する=再生する」製品まで、つまりその技術の入口から出口までの製品を揃えていたソニーのあり方というのは、形を変えながらも続いているのである。 PCM-3348 PCM-3348HR Oxford R3 PCM-1630 このようなソニーとAudioの歴史から見えてくるキーワードは、ユーザーへの「新しい体験の提供」ということである。CDではノイズのないパッケージを提供し、ウォークマン®ではプライベートで「どこでも」音楽を楽しむという体験を、SDDSは映画館で最高の臨場感を作り出し、SACDはまさしく最高となる音質を提供した。全てが、ユーザーに対して新しい体験を提供するという一つの幹から生えているということがわかる。新しい体験を提供するための技術を、難解なテクノロジーの状態からスタイリッシュな体験に仕立てて提供する。これがまさにソニーのAudio、実際はそれだけではなく映像や音声機器にも共通するポリシーのように感じる。 全周(4π)を再現する360RA ソニーでは要素技術として高臨場感音響に関しての研究が続けられていた。バーチャル・サラウンド・ヘッドホンや、立体音響を再生できるサラウンドバーなどがこれまでにもリリースされているが、それとはまた別の技術となる全周(4π)を再現するオーディオ技術の研究だ。そして、FraunhoferがMPEG-H Audioを提唱した際にこの技術をもって参画したことで、コンテンツとなるデータがその入れ物(コンテナ)を手に入れて一気に具体化、2019年のCESでの発表につながっている。CES2019の時点ではあくまでも技術展示ということだったが、その年の10月には早くもローンチイベントを行い欧米でのサービスをスタートさせている。日本国内でも各展示会で紹介された360RAは、メディアにも取り上げられその存在を知った方も多いのではないだろうか。特に2020年のCESでは、ソニーのブースでEVコンセプトの自動車となるVISION-Sが展示され大きな話題を呼んだが、この車のオーディオとしても360RAが搭載されている。VISION-Sではシートごとにスピーカーが埋め込まれ立体音響が再生される仕様となっていた、この立体音響というのが360RAをソースとしたものである。 360RAはユーザーに対して「新しい体験」を提供できる。機器自体は従来のスマホや、ヘッドホン、イヤホンであるがそこで聴くことができるサウンドは、まさにイマーシブ(没入)なもの。もちろんバイノーラル技術を使っての再生となるが、ソニーのノウハウが詰まった独自のものであるということだ。また、単純なバイノーラルで収録された音源よりも、ミキシングなど後処理が加えられることで更に多くの表現を手に入れたものとなっている。特にライブ音源の再生においては非常に高い効果を発揮し、最も向いたソースであるという認識を持った。 バイノーラルの再生には、HRTF=頭部伝達関数と呼ばれる数値に基づいたエンコードが行われ、擬似的に左右のヘッドホン or イヤホンで立体的音響を再生する。このHRTFは頭の形、耳の形、耳の穴の形状など様々な要素により決まる個人ごとに差異があるもの。以前にも紹介したYAMAHAのViRealはこのHRTFを一般化しようという研究であったが、ソニーでは「Sony | Headphones Connect」と称されたスマートフォン用アプリで、個々に向けたHRTFを提供している。これは耳の写真をアップロードすることでビッグデータと照合し最適なパラメーターを設定、ヘッドホンフォン再生に適用することで360RAの体験を確実にし、ソニーが配信サービスに技術提供している。 Sony | Headphones Connectは一部のソニー製ヘッドホン用アプリとなるが、汎用のHRTFではなく個人に合わせて最適化されたHRTFで聴くバイノーラルは圧倒的である。ぼんやりとしか認識できなかった音の定位がはっきりし、後方や上下といった認識の難しい定位をしっかりと認識することができる。もちろん、個人差の出てしまう技術であるため一概に言うことはできないが、それでも汎用のHRTFと比較すれば、360RAでの体験をより豊かなものとする非常に有効な手法であると言える。この手法を360RAの体験向上、そしてソニーのビジネスモデルとして技術と製品を結びつけるものとして提供している。体験を最大化するための仕掛けをしっかりと配信サービスに提供するあたり、さすがソニーといったところだ。 360RAはいますぐ体験できる それでは、360RAが国内でリリースされ、実際にどのようにして聴くことができるようになったのだろうか?まず、ご紹介したいのがAmazon music HDとDeezerの2社だ。両社とも月額課金のサブスクリプション(月額聴き放題形式)のサービスである。ハイレゾ音源の聴き放題の延長線上に、立体音響音源の聴き放題サービスがあるとイメージしていただければいいだろう。視聴方法はこれらの配信サービスと契約し、Amazon music HDであればAmazon Echo Studioという立体音響再生に対応した専用のスピーカーでの再生となる。物理的なスピーカーでの再生はどうしても上下方向の再生が必要となるため特殊な製品が必要だが、前述のAmazon Echo Studioやサラウンドバーのほか、ソニーからも360RA再生に対応した製品としてSRS-RA5000、SRS-RA3000という製品が国内でのサービス開始とともに登場している。 また、Deezerではスマートフォンとヘッドホン、イヤホンでの再生、もしくは360RA再生に対応したBluetoothスピーカーがあれば夏にはスピーカーで360RAを楽しむことができる。スマートフォンは、ソニーのXperiaでなければならないということはない。Android搭載のデバイスでも、iOS搭載のデバイスでも楽しむことができる、端末を選ばないというのは実に魅力的だ。ヘッドホン、イヤホンも普通のステレオ再生ができるもので十分で、どのような製品でも360RAを聴くことができる。Sony | Headphones Connectの対象機種ではない場合はパーソナライズの恩恵は受けられないが、その際にはソニーが準備した汎用のHRTFが用いられることとなる。導入にあたり追加で必要となる特殊な機器もないため、興味を持った方はまずはDeezerで360RAのサウンドを楽しむのが近道だろうか。余談ではあるが、Deezerはハイレゾ音源も聴き放題となるサービス。FLAC圧縮によるハイサンプルの音源も多数あるため、360RAをお試しいただくとともにこちらも併せて聴いてみると、立体音響とはまた違った良さを発見できるはずだ。 そして、前述の2社に加えてnugs.netでも360 Reality Audioの楽曲が配信開始されている。360RAを体験していただければわかるが、立体音響のサウンドはまさに会場にいるかのような没入感を得ることができ、ライブやコンサートなどの臨場感を伝えるのに非常に適している。nugs.net はそのライブ、コンサートのストリーミングをメインのコンテンツとして扱う配信サービスであり、このメリットを最大限に活かしたストリーミングサービスになっていると言えるだろう。 欧米でサービスが展開されているTIDALも月額サブスクリプションのサービスとなり、すでに360RAの配信をスタートしている。サービスの内容はDeezerとほぼ同等だが、ハイレゾの配信方針がDeezerはFLAC、TIDALはMQAと異なるのが興味深い。この音質の差異は是非とも検証してみたいポイントである。TIDALはラッパーのJAY-Zがオーナーのサービスということで、Hip-Hop/R&Bなどポップスに強いという魅力もある。ハイレゾ音源は配信サービスで月額課金で楽しむ時代になってきている。前号でも記事として取り上げたが、ハイレゾでのクオリティーの高いステレオ音源や360RAなどの立体音響、これらの音源を楽しむということは、すでにSpotifyやApple Musicといった馴染みのある配信サービスの延長線上にある。思い立てばいますぐにでも360RAを楽しむことができる環境がすでに整っているということだ。 360RAを収めるMPEG-Hという器 360RAを語るにあたり、技術的な側面としてMPEG-Hに触れないわけにはいかない。MPEG-H自体はモノラルでも、ステレオでも、5.1chサラウンドも、アンビソニックスも、オブジェクトオーディオも、自由に収めることが可能、非常に汎用性の高いデジタルコンテンツを収める入れ物である。このMPEG-Hを360RAではオブジェクトオーディオを収める器として採用しているわけだ。実際の360RAには3つのレベルがあり、最も上位のLevel3は24オブジェクトで1.5Mbpsの帯域を使用、Level2は16オブジェクトで1Mbps、Leve1は10オブジェクトで640kbpsとなっている。このレベルとオブジェクト数に関しては、実際の制作ツールとなる360RA Creative Suiteの解説で詳しく紹介したい。 Pro Tools上に展開された360 Reality Audio Creative Suite(360RACS) ここでは、その帯域の話よりもMPEG-Hだから実現できた高圧縮かつ高音質という部分にフォーカスを当てていく。月額サブスクリプションでの音楽配信サービスは、現状SpotifyとApple Musicの2強であると言える。両社とも圧縮された音楽をストリーミングで再生するサービスだ。Apple Musicで使われているのはAAC 256kbpsのステレオ音声であり、1chあたりで見れば128kbpsということになる。360RAのチャンネルあたりの帯域を見るとLevel1で64kbps/chとAACやMP3で配信されているサービスよりも高圧縮である。しかし、MPEG-Hは最新の圧縮技術を使用しているため、従来比2倍以上の圧縮効率の確保が可能というのが一般的な認識である。その2倍を照らし合わせればチャンネルあたりの帯域が半分になっても従来と同等、もしくはそれ以上の音質が確保されているということになる。逆に言えば、従来のAAC、MP3という圧縮技術では同等の音質を確保するために倍の帯域が必要となってしまう。これがMPEG-H Audioを採用した1点目の理由だ。 もう一つ挙げたいのはオブジェクトへの対応。360RAのミキシングは全てのソースがオブジェクトとしてミキシングされる。オブジェクトとしてミキシングされたソースを収める器として、オブジェクトの位置情報にあたるメタデータを格納することができるMPEG-Hは都合が良かったということになる。特殊な独自のフォーマットを策定することなく、一般化された規格に360RAのサウンドが収めることができたわけだ。ちなみにMPEG-Hのファイル拡張子は.mp4である。余談にはなるが、MPEG-Hは様々な最新のフォーマットを取り込んでいる。代表的なものが、HEVC=High Efficiency Video Coding、H.265という高圧縮の映像ファイルコーディック、静止画ではHEIF=High Efficiency Image File Format。HEIFはHDR情報を含む画像ファイルで、iPhoneで写真を撮影した際の画像ファイルで見かけた方も多いかもしれない。このようにMPEG-Hは3D Audio向けの規格だけではなく、様々な可能性を含みながら進化を続けているフォーマットである。 拡がりをみせる360RAの将来像 360RAの今後の展開も伺うことができた。まず1つは、配信サービスを提供する会社を増やすという活動、360RAに対応したスピーカーやAVアンプなどの機器を増やすという活動、このような活動から360RAの認知も拡大して、制作も活発化するという好循環を作り健全に保つことが重要とのこと。すでに世界中の配信事業者とのコンタクトは始まっており、制作に関しても欧米でのサービス開始から1年半で4000曲とかなりのハイペースでリリースが続いている。ほかにも、ライブやコンサートとの親和性が高いということから、リアルタイムでのストリーミングに対しても対応をしたいという考えがあるとのこと。これはユーザーとしても非常に楽しみなソリューションである。また、音楽ということにこだわらずに、オーディオ・ドラマなど、まずはオーディオ・オンリーでも楽しめるところから拡張を進めていくということだ。また、360RAの要素技術自体はSound ARなど様々な分野での活用が始まっている。 日本国内では、まさに産声を上げたところである360RA。ソニーの提案する新しい音楽の「体験」。立体音響での音楽視聴はこれまでにない体験をもたらすことは間違いない。そして改めてお伝えしたいのは、そのような技術がすでに現実に生まれていて、いますぐにでも簡単に体験できるということ。ソニーが生み出した新たな時代への扉を皆さんも是非開いてほしい。 >>Part 2:ソニー・ミュージックスタジオ 〜360 Reality Audio Mixing、この空間を楽しむ〜 *取材協力:ソニー株式会社 *ProceedMagazine2021号より転載 https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-2/
IPビデオ伝送の筆頭格、NDIを知る。〜ソフトウェアベースでハンドリングする先進のIP伝送〜
弊社刊行のProceedMagazineでは以前より音声信号、映像信号のIP化を取り上げてきた。新たな規格が登場するたびにそれらの特徴をご紹介してきているが、今回はNewtek社によって開発された、現在世界で最も利用されているIPビデオ伝送方式のひとつであるNDIを取り上げその特徴をじっくりと見ていきたい。IPビデオ伝送ということは、汎用のEthernetを通じVideo/Audio信号を伝送するためのソリューション、ということである。いま現場に必要とされる先進的な要素を多く持つNDI、その全貌に迫る。 一歩先を行くIPビデオ伝送方式 NDI=Network Device Interface。SDI/HDMIとの親和性が高く、映像配信システムなどの構築に向いている利便性の高い規格である。このIP伝送方式は、NewTek社により2015年9月にアムステルダムで開催された国際展示会IBCで発表された。そして、その特徴としてまず挙げられるのがソフトウェアベースであるということであり、マーケティング的にも無償で使用できるロイヤリティー・フリーのSDKが配付されている。ソフトウェアベースであるということは、特定のハードウェアを必要とせず汎用のEthernet機器が活用可能であるということである。これは機器の設計製造などでも有利に働き、特別にカスタム設計した機器でなくとも、汎用製品を組み合わせて活用することで製品コストを抑えられることにつながっている。この特徴を体現した製品はソフトウェアとしていくつもリリースされている。詳しい紹介は後述するが、汎用のPCがプロフェッショナルグレードの映像機器として活用できるようになる、と捉えていただいても良い。 フルHD映像信号をを100Mbit/s程度にまで圧縮を行い、汎用のEthernetで伝送を行うNDIはIBC2015でも非常に高い注目を集め、NewTekのブースには来場者が入りきれないほどであったのを覚えている。以前、ProceedMagazineでも大々的に取り上げたSMPTE ST2110が基礎の部分となるTR-03、TR-04の発表よりも約2ヶ月早いタイミングで、NDIは完成形とも言える圧縮伝送を実現した規格として登場したわけだ。非圧縮でのSDI信号の置換えを目指した規格であるSMPTE ST-2022が注目を集めていた時期に、圧縮での低遅延リアルタイム伝送を実現し、ロイヤリティーフリーで特定のハードウェアを必要とせずにソフトウェアベースで動作するNDIはこの時すでに一歩先を行くテクノロジーであったということが言える。そして、本記事を執筆している時点でNDIはバージョン4.6.2となっている。この更新の中では、さらに圧縮率の高いNDI HX、NDI HX2などを登場させその先進性に磨きがかけられた。 📷これまでにもご紹介してきた放送業界が中心となり進めているSMPTE 2022 / 2110との比較をまとめてみた。大規模なインフラにも対応できるように工夫の凝らされたSMPTE規格に対し、イントラネットでのコンパクトな運用を目指したNDIという特徴が見てとれる。NDIは使い勝手を重視した進化をしていることがこちらの表からも浮かんでくるのではないだろうか。 100Mbit/s、利便性とクオリティ NDIの詳細部分に踏み込んで見ていこう。テクノロジーとしての特徴は、前述の通り圧縮伝送であるということがまず大きい。映像のクオリティにこだわれば、もちろん非圧縮がベストであることに異論はないが、Full HD/30pで1.5Gbit/sにもなる映像信号を汎用のEhternetで伝送しようと考えた際に、伝送路の帯域が不足してくるということは直感的にご理解いただけるのではないだろうか。シンプルに言い換えれば一般的に普及しているGigabit Ethernetでは非圧縮のFull HD信号の1Streamすら送れないということである。利便性という目線で考えても、普及価格帯になっているGigabit Ethernetを活用できず10GbEthernetが必須になってしまっては、IPビデオ伝送の持つ手軽さや利便性に足かせがついてしまう。 NDIは当初より圧縮信号を前提としており、標準では100Mbit/sまで圧縮した信号を伝送する。圧縮することでGigabitEthernetでの複数Streamの伝送、さらにはワイヤレス(Wi-Fi)の伝送などにも対応している。4K伝送時も同様に圧縮がかかり、こちらもGigabit Ethernetでの伝送が可能である。もちろん10GbEthernetを利用すれば、さらに多くのStreamの伝送が可能となる。放送業界で標準的に使用されているSONY XDCAMの圧縮率が50Mbit/sであることを考えれば、十分にクオリティが担保された映像であることはご想像いただけるだろう。さらにNDI HXでは20Mbit/sまでの圧縮を行いワイヤレス機器などとの親和性を高め、最新の規格となるNDI HX2ではH.265圧縮を活用し、NDIと同様の使い勝手で半分の50Mbit./sでの運用を実現している。 Ethernet Cable 1本でセットできる 代表的なNDI製品であるPTZカメラ。 次の特徴は、Ethernet技術の持つ「双方向性」を非常にうまく使っているということだ。映像信号はもちろん一方向の伝送ではあるが、逆方向の伝送路をタリー信号やPTZカメラのコントロール、各機器の設定変更などに活用している。これらの制御信号は、SMPTE ST2022/ST2110では共通項目として規格化が行われていない部分だ。 NDIではこれらの制御信号も規格化され、メーカーをまたいだ共通化が進められている。わかりやすい部分としてはPTZカメラのコントロールであろう。すでにNDI対応のPTZカメラはPoE=Power over Ethernet対応の製品であれば、Ethernet Cable1本の接続で映像信号の伝送から、カメラコントロール、電源供給までが行えるということになる。従来の製品では3本、もしくはそれ以上のケーブルの接続が必要なシーンでも1本のケーブルで済んでしまうということは大きなメリットだ。天井などに設置をすることが多いPTZカメラ。固定設備としての設置工事時にもこれは大きな魅力となるだろう。NDIに対応した製品であれば、基本的にNDIとして接続されたEthernetケーブルを通じて設定変更などが行える。別途USBケーブル等を接続してPCから設定を流し込む、などといった作業から解放されることになる。 📷左がリモートコントローラーとなる。写真のBirdDog P200であれば、PoE対応なので映像信号、電源供給、コントロール信号が1本のEthernet Cableで済む。 帯域を最大限に有効活用する仕組み NDIの先進性を物語る特徴はまだある。こちらはあまり目に見える部分ではないが、帯域保護をする機能がNDIには搭載されている。これは前述のタリー信号をカメラ側へ伝送できる機能をさらに活用している部分だ。実際にスイッチャーで選択されていない(双方向で接続は確立されているが、最終の出力としては利用されていない)信号は、データの圧縮率が高められたプロキシ伝送となる。本線として利用されていない(タリーの戻ってきていない)カメラは、自動的にプロキシ伝送に切り替わり帯域の圧縮を防ぐということになる。これは本線で使用されていたとしても、PinP=Picture in Picture の副画像などの場合でも同様だ。画面の1/4以上で利用されている場合にはフルクオリティの出力で、1/4以下であればプロキシへと自動的に切り替わる。双方向に情報を伝達できるNDIはスイッチャーが必要とする時にカメラ側へフルクオリティー画像の伝送をリクエストして切り替える、この機能を利用しているわけだ。数多くのカメラを同一のネットワーク上に接続した場合にはその帯域が不安になることも多いが、NDIであればネットワークの持つ帯域を最大限に有効活用する仕組みが組み込まれている。 信号伝送の帯域に関しての特徴はほかにもあり、MulticastとUnicastの切り替えが可能というのもNDIの特徴だ。接続が確立された機器同士でのUnicast伝送を行うというのがNDIの基本的な考え方だが、スイッチャーから配信機材やレコーダーといった複数に対して信号が送られる場合にはMulticastへと手動で切り替えが可能となっている。もちろん、全ての信号伝送をMulticastできちんと設定してしまえば、特に考えることもなく全ての機器で信号を受け取ることができるが、実際のシステム上では設定も簡易なUnicastで十分な接続がほとんどである。イントラネットを前提とするNDIのシステム規模感であれば、Unicast/Multicast両対応というのは理にかなっている。AoIPであるDanteも同じく基本はUnicastで、必要に応じてMulticastへと変更できるということからも、イントラであればこの考え方が正しいということがわかる。 また、IP機器ということで設定に専門的な知識が必要になるのではと思われるかもしれない。NDIは相互の認識にBonjour(mDNS)を使っている、これはDanteと同様である。同一のネットワーク上に存在している機器であれば自動的に見つけてきてくれるという認識性の高さは、Danteを使ったことのある方であれば体験済みだろう。もちろん、トラブルシュートのために最低限のIPの知識はもっておいたほうが良いが、ITエンジニアレベルの高いスキルを求められる訳ではない。汎用のEthernet Switchに対応機器を接続することで自動的に機器が認識されていき、一度認識すればネットワーク上に障害が生じない限りそのまま使い続けることができる。 IPビデオ伝送ならでは、クラウドベースへ 非圧縮映像信号のリアルタイム伝送を目的として策定された SMPTE ST-2110との比較も気になるポイントだろう。SMPTE ST-2110はMulticastを基本とした大規模なネットワークを前提にしており、Video PacketとAudio Packetが分離できるため、オーディオ・プロダクションとの親和性も考えられている。各メーカーから様々な機器が登場を始めているが、相互の接続性など規格対応製品のスタート時期にありがちな問題の解決中という状況だ。NDIについてはすでに製品のリリースから6年が経過し高い相互接続性を保っている。 NDIはイントラ・ネットワーク限定の単一のシステムアップを前提としているために、大規模なシステムアップのための仕組みという部分では少し物足りないものがあるかもしれない。WWW=World Wide Webを経由してNDIを伝送するというソリューションも登場を始めているが、まだまだNDIとしてはチャレンジ段階であると言える。その取り組みを見ると、2017年には200マイル離れたスタジアムからのカメラ回線をプロダクションするといった実験や、Microsoft Azure、AWSといったクラウドサーバーを介してのプロダクションの実験など、様々なチャレンジが行われたそうだ。なお、こちらの実験ではクラウドサーバーまでNDIの信号を接続し、そこからYoutube Liveへの配信を行うということを実現している。つまり、高い安定性が求められる配信PCをクラウド化し、複数のストリーミング・サービスへの同時配信を行う、といったパワフルなクラウドサーバーを活用したひとつの未来的なアイデアである。このようなクラウド・ベースのソリューションは、まさにIPビデオ伝送ならではの取り組みと言える。業界的にもこれからの活用が模索されるクラウド・サービス、SMPTE ST-2110もNDIもIP伝送方式ということでここに関しての可能性に大きな差異は感じないが、NDIが先行して様々なチャレンジを行っているというのが現状だ。 NDIをハンドリングする無償アプリ 次に、NDIの使い勝手にフォーカスをあてていくが、キーワードとなるのは最大の特徴と言ってもいいソフトウェアベースであるということ。それを端的に表している製品、NewTekが無償で配布しているNDI Toolsを紹介していこう。 NDIを活用するためのアプリケーションが詰まったこのNDI Toolsは、Windows用とMac用が用意され9種類のツールが含まれている。メインとなるツールはネットワーク内を流れるNDI信号=NDIソースのモニターを行うNDI Studio Monitor。NDI信号が流れるネットワークにPCを接続しアプリケーションを起動することで、信号のモニターがPCで可能となる。SDIやHDMIのようにそれぞれの入力を備えたモニターの準備は不要、シンプルながらもIPビデオ伝送ならではの機能を提供するソフトウェアだ。次は、VLCで再生した映像をNDI信号としてPCから出力できるようにするNDI VLC Plugin。こちらを立ち上げれば、外部のVideo PlayerをPCを置き換え可能となる。そして、PCから各種テストパターンを出力するNDI Test Patterns。高価な測定器なしにPCでテストパターンの出力を実現している。ここまでの3点だけでも、最初に調整のためのテストパターンを出力し、調整が終わったらVLCを使ってVideo再生を行いつつ、最終出力のモニタリングをNDI Srtudio Monitorで行う、といったフローがPC1台で組み上げられる。IPビデオ伝送ならではの使い勝手と言えるのではないだろうか。 利便性という面で紹介したいのがNDI Virtual Input。これはWindows用となり、PCが参加しているネットワーク内のNDIソースをWindows Video / Audioソースとして認識させることができる。つまり、NDIの入力信号をウェブカメラ等と同じように扱えるようになるということだ。なお、Mac向けにはNDI Webcam Inputというツールで同じようにWEBカメラとしてNDIソースを認識させることができる。すでにZoom / Skypeはその標準機能でNDIソースへの対応を果たしており、IPベースのシステムのPCとの親和性を物語る。そして、NDI for Adobe CCは、Premier / After Effectの出力をNDI信号としてPCから出力、イントラネット越しに別の場所でのプレビューを行ったり、プレイヤーの代替に使ったりとアイデアが広がるソフトウェアだ。他にもいくつかのソフトウェアが付属するが、ハードウェアで整えようとすればかなりのコストとなる機能が無償のソフトウェアで提供されるというのは大きな魅力と言える。 NDI Tools紹介ページ NDI Toolsダウンロードページ NDIの可能性を広げる製品群 続々と登場している製品群にも注目しておきたい。まずは、Medialooks社が無償で配布を行なっているSDI to NDI Converter、NDI to SDI Converter。Blackmagic Design DecklinkシリーズなどでPCに入力されたSDIの信号をNDIとして出力することができる、またその逆を行うことができるソフトウェアで、IPビデオらしくPCを映像のコンバーターとして活用できるアプリケーション。有償のソフトウェアとしてはNDI製品を多数リリースするBirdDog社よりDante NDI Bridgeが登場している。こちらはソフトウェアベースのDante to NDIのコンバーターで、最大6chのDante AudioをNDIに変換して出力する。ステレオ3ペアの信号を3つのNDI信号として出力することも、6chの一つのNDIの信号として出力することもできる使い勝手の良い製品だ。同社のラインナップにはNDI Multiveiwというアプリケーションもある。こちらは、その名の通りネットワーク上のNDI信号のMultiview出力をソフトウェア上で組み立て、自身のDisplay用だけではなくNDI信号として出力するという製品。ソースの名称、オーディオメーター、タリーの表示に対応し、複数のMuliviewをプリセットとして切り替えることが行える。 また、BirdDog社は現場で必須となるインカムの回線をNDIに乗せるというソリューションも展開、SDI / HDMI to NDIのコンバーターにインカム用のヘッドセットIN/OUTを設け、その制御のためのComms Proというアプリケーションをリリースしている。このソリューションはネットワークの持つ双方向性を活用した技術。映像信号とペアでセレクトが可能なためどの映像を撮っているカメラマンなのかが視覚的にも確認できるインカムシステムだ。もちろん、パーティラインなど高度なコミュニケーションラインの構築も可能。ハードウェアとの組み合わせでの機能とはなるが、$299で追加できる機能とは思えないほどの多機能さ。どのような信号でも流すことができるネットワークベースであることのメリットを活かした優れたソリューションと言える。 今回写真でご紹介しているのが、Rock oN渋谷でも導入している NewTek TriCaster Mini 4K、NDI自体を牽引しているとも言えるビデオスイッチャーである。NDIのメリットを前面に出した多機能さが最大のアピールポイント。先述した接続の簡便さ、また、双方向性のメリットとして挙げたPTZカメラのコントロール機能では対応機種であればIRIS、GAINなどの調整も可能となる。そして、TriCasterシリーズはソフトウェアベースとなるためVideo Playerが組み込まれている、これもビデオスイッチャーとしては画期的だ。さらには、Video Recorder機能、Web配信機能などもひとつのシステムの中に盛り込まれる。肝心のビデオスイッチャー部もこのサイズで、4M/E、12Buffer、2DDRという強力な性能を誇っているほか、TriCasterだけでクロマキー合成ができたりとDVEに関しても驚くほど多彩な機能を内包している。 📷 NDIを提唱するNewTekの代表的な製品であるTriCasterシリーズ。こちらはTriCaster Mini 4Kとなる。コンパクトな筐体がエンジン部分、4系統のNDI用の1GbEのポートが見える。TriCasterシリーズは、本体とコントロールパネルがセットになったバンドルでの購入ができる。写真のMini 4Kのバンドルは、エンジン本体、1M/Eのコンパクトなコントローラー、そしてSpeak plus IO 4K(HDMI-NDIコンバーター)が2台のバンドルセットとなる。そのセットがキャリングハンドルの付いたハードケースに収まった状態で納品される。セットアップが簡単なTriCasterシリーズ、こちらを持ち運んで使用するユーザーが多いことの裏付けであろう。 すでにInternetを越えて運用されるNDI イントラ・ネットワークでの運用を前提としてスタートしたNDIだが、すでにInternetを越えて運用するソリューションも登場している。これから脚光を浴びる分野とも言えるが、その中からも製品をいくつか紹介したい。まずは、Medialooks社のVideo Transport。こちらは、NDIソースをインターネット越しに伝送するアプリケーションだ。PCがトランスミッターとなりNDI信号をH.265で圧縮を行い、ストリーミングサイズを落とすことで一般回線を利用した伝送を実現した。フルクオリティの伝送ではないが、汎用のインターネットを越えて世界中のどこへでも伝送できるということに大きな魅力を感じさせる。また、データサイズを減らしてはいるが、瞬間的な帯域の低下などによるコマ落ちなど、一般回線を使用しているからこその問題をはらんでいる。バッファーサイズの向上など、技術的なブレイクスルーで安定したクオリティーの担保ができるようになることが期待されるソリューションだ。 BirdDog社ではBirdDog Cloudというソリューションを展開している。こちらは実際の挙動をテストできていないが、SRT=Secure Reliable Transportという映像伝送プロトコルを使い、インターネット越しでの安定した伝送を実現している。また、こちらのソリューションはNDIをそのまま伝送するということに加え、同社Comms ProやPTZカメラのコントロールなども同時に通信が可能であるとのこと。しっかりと検証してまたご紹介させていただきたいソリューションだ。 Rock oN渋谷でも近々にNewTek TriCasterを中心としたNDIのシステムを導入を行い、製品ハンズオンはもちろんのことウェビナー配信でもNDIを活用していくことになる。セットアップも簡便なNDIの製品群。ライブ配信の現場での運用がスタートしているが、この使い勝手の良さは今後のスタジオシステムにおけるSDIを置き換えていく可能性が大いにあるのではないだろうか。大規模なシステムアップに向いたSMPTE ST-2110との棲み分けが行われ、その存在感も日増しに高くなっていくことは想像に難くない。IP伝送方式の中でも筆頭格として考えられるNDIがどのようにワークフローに浸透していくのか、この先もその動向に注目しておくべきだろう。 *ProceedMagazine2021号より転載
配信環境グレードアップ作戦!〜ヘッドセットマイクでパフォーマンスと声の明瞭度をアップ!!
コロナの影響もあり、Youtube等での配信にすでにチャレンジされた方も多くいらっしゃるのではないでしょうか? カメラ、ビデオ・スイッチャーなどを揃えれば、まずは配信をおこなうことは出来るようになります。 そして、次のステップとしてオーディオミキサーで効果音や、音楽などを加えることにチャレンジ。 次のステップとしては、何があるか?そう考えると、喋っている音をクリアに聞かせるためのマイクが必要ということになるかと思います。 デスクトップタイプのスタンドにSHURE SM58などを準備してもよいですが、両手がフリーになるヘッドセットタイプのマイクをここではご紹介したいと思います。 ヘッドセットマイク?ラベリアマイク? ラベリアマイクもヘッドセットマイクも、大きなくくりとしては同じものです。なぜなら、ラベリアマイク=小型マイクということだからです。 ラベリアマイクを耳掛けできるようにしたものがヘッドセットマイクです。 ラベリアマイクは、代表的な形状としてタイピン型のマイクで襟などにクリップで取り付けるものがあります。撮影の現場などでは、更に小型のマイクを襟の裏側などに仕込んだりということも行われます。 マイクの存在を画面に写さずにその効果を得ることが出来るのが特徴と言えるでしょう。 別に画面に写っても構わないというケースがほとんどだと思われるYoutubeなどの配信では、できるだけ口元の近くで集音の出来るヘッドセット型の製品のほうが有利と言えるでしょう。 音源=口元のできるだけ近くにマイクを設置することが出来る、ということは、言葉を明瞭に捉えることだけでなく、部屋のノイズ(空調音や、ファンノイズ)を低減させることにもつながる一石二鳥のチョイスとなります。 言葉を明瞭にすることのメリットは言うまでもありませんし、両手の塞がらないヘッドセットタイプはこれまで通りのパフォーマンスを可能とします。 ヘッドセットマイクには、片耳掛けと、両耳掛けがあります。それほど激しい動きのない場合はどちらでも良いでしょうが、やはり両耳掛けのほうが一般的には安定します。 ステージなどでのダンスを伴うようなシーンでは逆に片耳掛けで頬に透明テープなどで固定すると行ったことも行われますし、ヘアスタイルに影響の少ない片耳掛けは女性に好まれるといった側面もありますので、ここのチョイスはまさにケースバイケースといったところではないでしょうか。 おすすめヘッドセットマイク audio technica PRO8HE 販売価格:¥ 10,456 (本体価格:¥ 9,505) 高磁力マグネットを搭載したダイナミックマイクロフォン。ファンタム電源不要のため、オーディオミキサーの仕様を選ばず手軽に導入できます。 軽量のヘッドバンドとクッション性の良いサポートパッドを採用し、快適で安定した装着感を実現。マイク本体はフレキシブルに角度を変えられるだけでなく、左右どちらでも使用可能。ハイパーカーディオイド特性により、背面や側面からの不要な音をアイソレート。求める音源を確実に収音し、卓越したハウリングマージンを実現します。 Rock oN Line eStoreでのご購入はこちらから>> SHURE SM35-XLR 販売価格:¥ 19,250 (本体価格:¥ 17,500) ライブパフォーマンス向けマイクでは定番ブランドと言えるSHUREのヘッドセットマイク。激しいパフォーマンス中でも安定した収音が可能な設計となっています。ヘッドセットマイクはワイヤレスでの使用が想定されたものが多い中、こちらは標準的なXLRで接続可能。 ROCK ON PRO presents ACSU 2020 Onlineでメインの出演者に使用されたのもこのモデルです。 Rock oN Line eStoreでのご購入はこちらから>> SHURE BLX14J/P31-JB 販売価格:¥ 44,000 (本体価格:¥ 40,000) ライブパフォーマンスや講義・講演などでは圧倒的に便利なワイヤレスシステム。その利点はWEB配信になっても変わりません。 ライブに強いSHUREはワイヤレスにも当然強い!ということで、お求めやすいエントリーモデルのワイヤレスシステムを紹介致します。 BLX14JはB帯(800MHz帯)対応のワイヤレスレシーバー。耐久性に優れ、簡単なセットアップでわかり易いコントロール機能、ワンタッチで操作できるQuickScanなどの機能により簡単にセットアップできます。 Rock oN Line eStoreでのご購入はこちらから>> Line 6 XD-V55HST 販売価格:¥ 52,800 (本体価格:¥ 48,000) こちらはLine 6の2.4GHz帯対応デジタルワイヤレスシステム。 付属するヘッドセット・システムは安定しているだけでなくセッティングを調整でき、ハイエンドの無指向性マイク・カプセルとダイナミック・フィルターにより不要なポップやバックグラウンド・ノイズを低減できます。 リンク先はマイクのカラーがタンのモデルですが、ブラックモデルもラインナップされています。そちらをご希望の際はぜひRock oN Line eStoreへお問い合わせください! Rock oN Line eStoreでのご購入はこちらから>> Rock oN Line eStoreに特設コーナーが誕生! Rock oN Line eStoreでは、カメラからスイッチャー、配信や収録向けのマイクなど、映像制作に関わる機材を集めた特設コーナーを新設している。本記事に挙げた個別の機材が購入できるのはもちろん、手軽なセット販売や、スタッフに相談できる問い合わせフォームなどもあるので、ぜひ覗いてみてほしい。 eStore特設コーナーへ!!>>
手軽に多拠点ストリーミング!〜ATEM Streaming Bridge
ATEM Streaming Bridgeは、ATEM Mini ProシリーズからH.264ストリームを受信して、SDI/HDMIビデオに変換するビデオコンバーター。ATEM Mini Pro / ATEM Mini Pro ISOからのEthenetダイレクトストリーミング信号を受け、SDI/HDMI対応機器にビデオ信号を送ることが出来ます。 つまり、離れた場所にある複数のATEM Mini Pro / ATEM Mini Pro ISOの映像を受け、手元のATEM Mini Pro / ATEM Mini Pro ISOでスイッチングしながらインターネットに配信を行うことが可能になります! ローカルLANだけでなく、特定のポートを開放することでインターネット越しに信号を受けることも可能。世界中のATEM Mini Pro / ATEM Mini Pro ISOユーザーとコラボレーションしながらの多拠点ストリーミングが手軽に行えます。 セットアップ例 ATEM Streaming Bridgeを使用すると、ATEM Mini Pro / ATEM Mini Pro ISOからのダイレクト配信の配信先としてATEM Streaming Bridgeを指定することができるようになる。図のように、ひとつのビデオスイッチャーに信号をまとめることもできるし、SDI/HDMI対応のレコーダーへ入れてやることもできる。各カメラに1台ずつATEM Mini Pro / ATEM Mini Pro ISOを使用して、離れた場所にいるエンジニアにスイッチングをまるごと任せるような使い方も可能だ。 ATEM Streaming Bridge 販売価格:¥30,778(本体価格:¥ 27,980) 高度なH.264コーデックを使用しており、非常に低いデータレートで高品質を得られるため、ローカル・イーサネットネットワークで離れた場所にビデオを送信したり、インターネット経由で世界中に送信できます!放送局とブロガーがコラボレーションし、ATEM Mini Proを使ったリモート放送スタジオの国際的なネットワークを構築できると想像してみてください。(インターネット経由での受信には特定のポートを開放する必要があります。詳細は製品マニュアルをご参照ください。) Rock oN Line eStoreでのご購入はこちらから>> Blackmagic Design ATEM Mini Pro 販売価格:¥ 73,150(本体価格:¥ 66,500) ATEM Mini Proで追加される機能は「本体からインターネットへのダイレクト配信」「マルチモニタービュー」「プログラム出力の外部SSDへの収録」の3つ。本記事の主旨に則ってオーディオクオリティを優先すると、ダイレクト配信機能は使用する機会がないため、各カメラの映像を確認しながらスイッチングをしたい、または、配信した動画を高品質で取っておきたいのいずれかに該当する場合はこちらを選択することになる。 Rock oN Line eStoreでのご購入はこちらから>> Blackmagic Design ATEM Mini Pro ISO 販売価格:¥ 113,850(本体価格:¥ 103,500) ATEM Mini Pro ISOで追加される機能は、ATEM Mini Proの全機能に加え、「全HDMI入出力信号を外部SSDに個別に保存」「スイッチングを施したタイミングをDaVinci Resolveで読み込めるマーカーの記録」の2つ。あとから映像を手直ししたり再編集したりしたい場合にはこちらを選択することになる。アーカイブ映像として公開する前に、本番中に操作を誤ってしまった部分を修正したり、リアルタイムで無料配信したライブを編集し後日有償で販売する、といったことが可能になる。 Rock oN Line eStoreでのご購入はこちらから>> Rock oN Line eStoreに特設コーナーが誕生! Rock oN Line eStoreでは、カメラからスイッチャー、配信や収録向けのマイクなど、映像制作に関わる機材を集めた特設コーナーを新設している。本記事に挙げた個別の機材が購入できるのはもちろん、手軽なセット販売や、スタッフに相談できる問い合わせフォームなどもあるので、ぜひ覗いてみてほしい。 eStore特設コーナーへ!!>>
Roland V-600U~HD4K/HD混在環境でもハイクオリティなビデオ出力!
放送や映像制作と同じように、イベントやプレゼンテーションなどの演出も4K化が進んでいます。一方で、クライアントや演出者からは従来の HD 機材の対応も同時に求められている。 V-600UHDはそうした現場のニーズに合わせ、従来の HD 環境を段階的に 4K に対応させることが可能。全ての入出力端子にローランド独自の「ULTRA SCALER」を搭載。 この機能によりフル HD と 4K の異なる映像を同時に扱えるだけでなく4K と HD 映像も同時に出力できるため、従来の HD ワークフローの中に4K映像を取り込むことができる。 システムセットアップ V-600UHD は HDMI(2.0対応)入力を 4 系統、12G-SDI 入力を 2 系統搭載し、PC とメディア・プレーヤーに加え、ステージ用にカメラを使用するようなイベントやライブコンサートに最適。すべての入出力に独自のスケーラーを搭載し、4KとHDを同時に入出力することができるため、両者が混在するシステムでも容易に運用が可能だ。 会場ディスプレイには4K映像を出力しながら、HDモニターやライブ配信用エンコーダー等従来の HD 表示デバイスへの出力も可能。エンベデッド・オーディオの入出力にも対応するほか、XLR入力2系統を備えオーディオミキサーからの出力をもらうこともできる。中規模〜大規模イベントのコアシステムとして高い実用性を誇る。 プロダクト ROLAND V-600UHD 販売価格:¥ 1,408,000(本体価格:¥ 1,280,000) HDR、フル・フレームレート 60Hz、Rec.2020 規格、DCI 4K(シネマ4K)解像度など先進のテクノロジーに対応し、高精細な映像を扱うことが可能。さらに、内部映像処理は 4:4:4/10bit に対応し、PC から出力された高精細な映像も鮮明に表示可能で、拡大した映像内の細かな文字も細部まで読み取ることができる。 「ROI(Region of Interest)機能」を使えば、1 台の 4K カメラの映像から必要な部分を最大 8 つ抽出することで、複数のカメラを用意するのと同じような演出が可能になる。スケーラー機能と併せてクロスポイントに割り当てることが可能。カメラの台数に頼ることなく、映像演出の幅を拡げることができる。 Rock oN Line eStoreでのご購入はこちらから>> ROLAND UVC-01 販売価格:¥ 27,500(本体価格:¥ 25,000) 最大1920×1080/60pに対応するRoland純正のビデオキャプチャー/エンコーダー。Mac/Windowsに対応し、ドライバーのインストール不要、USBバスパワー対応など、普段使いにも便利な取り回しのよさが魅力だ。ほとんどのHDMIカメラやビデオスイッチャーに対応するため、WEB配信の機会が多いユーザーは持っておくと便利かも。 Rock oN Line eStoreでのご購入はこちらから>> Rock oN Line eStoreに特設コーナーが誕生! Rock oN Line eStoreでは、カメラからスイッチャー、配信や収録向けのマイクなど、映像制作に関わる機材を集めた特設コーナーを新設している。本記事に挙げた個別の機材が購入できるのはもちろん、手軽なセット販売や、スタッフに相談できる問い合わせフォームなどもあるので、ぜひ覗いてみてほしい。 eStore特設コーナーへ!!>>
ライブミキサーを使用して4K制作環境でWEB配信!
ついにiPhoneが5Gに対応し、大容量データの高速通信がモバイル環境でもいよいよ実現されつつある。テレビ放送やリアルイベントではすでに4Kの需要は高まっており、その波がWEB配信の世界にも押し寄せることが予想される。折しもコロナ禍の影響で映像配信事業の成熟は加速度的に高まっており、既存メディアと同等のクオリティが求められるようになるまでにそれほど長い時間はかからないだろう。 あらゆるライブイベントをプロ仕様のプログラムとして制作することが出来るビデオスイッチャー、Blackmagic Television Studio Pro 4Kを中心とした、4K対応WEB配信システムを紹介しよう。 システムセットアップ 4K対応ビデオスイッチャーであるATEM Television Studio Pro 4Kから、4K対応のビデオキャプチャーであるUltra Studio 4K Miniで配信用のフォーマットにファイルをエンコード。配信用のMac/PCに信号を流し込む構成だ。 ATEM Television Studio Pro 4Kはマルチビュー出力を備えているため、SDIインプットのあるモニターを使用して各カメラやメディアからの映像を監視しながら映像の切り替えを行うことができる。 図ではオーディオ部分を割愛しているが、ATEM Television Studio Pro 4Kにはオーディオインプット用のXLR2系統が備わっているほか、SDIにエンベッドされたオーディオ信号を扱うこともできる。Ethernet経由でMac/PCを繋ぎ、ATEM Control Softwareを使用すれば内部で音声ミキシングも可能なため、ミキサーからのアウトをATEM Television Studio Pro 4Kに入れ、映像と音をここでまとめることが可能。 オーディオクオリティにこだわるなら、小型のオーディオI/FやI/F機能付きミキサーを使用してミキサーからの信号を配信用のMac/PCに直接入力してもよい。手持ちのミキサーの仕様や求められる品質・運用に鑑みて、柔軟な構成を取ることができる。 キープロダクト Blackmagic Design ATEM Television Studio Pro 4K 販売価格:¥373,780(本体価格:¥339,800) 8系統の12G-SDI入力を搭載し、ハイエンドの放送用機能に対応したATEM Television Studioシリーズの中でも、ATEM Television Studio Proシリーズはプロ仕様の放送用ハードウェアコントロールパネルが一体化しており、追加のCCUにも対応。すべての入力系統に再同期機能を搭載しており、プロ仕様および民生用カメラで常にクリーンなスイッチングが可能。マルチビュー出力に対応しており、すべてのソースおよびプレビュー、プログラムを単一のスクリーンで確認できる。また、Aux出力、内蔵トークバック、2つのスチルストア、オーディオミキサー、カメラコントロールユニットなどにも対応。 ライブプロダクション、テレビシリーズ、ウェブ番組、オーディオビジュアル、そしてテレビゲーム大会のライブ放送などに最適で、カメラ、ゲーム機、コンピューターなどを接続するだけで簡単にライブスイッチングを開始できる。 Rock oN Line eStoreでのご購入はこちらから>> Blackmagic Design UltraStudio 4K Mini 販売価格:¥125,180(本体価格:¥ 113,800) UltraStudio 4K Miniは本来はThunderbolt 3に対応したポータブルなキャプチャー・再生ソリューション。Mac/PCにビデオI/Fとして認識される機能を利用して、4K対応キャプチャーカードとして使用することが可能だ。 最新の放送テクノロジーを搭載しており、4K DCI 60pまでのあらゆるフォーマットで放送品質の8/10-bitハイダイナミックレンジ・キャプチャー、4K DCI 30pまでのあらゆるフォーマットで12-bitハイダイナミックレンジ・キャプチャーを実現。SDカードリーダーを内蔵しているので、カメラメディアを直接コンピューターにマウントすることも可能だ。 Rock oN Line eStoreでのご購入はこちらから>> Blackmagic Design Blackmagic Web Presenter 販売金額:¥ 62,678(本体価格:¥ 56,980) 素材のみは4Kで録っておき、配信はHD品質でもOK、という方はUltraStudio 4K Miniの代わりにこちらを。 あらゆるSDIまたはHDMIビデオソースをUSBウェブカメラの映像として認識。Skypeなどのソフトウェアや、YouTube Live、Facebook Live、Twitch.tv、Periscopeなどのストリーミング・プラットフォームを使用したウェブストリーミングを一層高い品質で実現。Teranex品質のダウンコンバージョンに対応しているので、あらゆるSD、HD、Ultra HDビデオを、低データレートながらも高品質のストリーミングが可能な720pに変換する。 ドライバ不要で、ハイクオリティの内部エンコーダーとして動作する本機があれば、キャプチャデバイスとコンピューターの相性を気にすることなくWEB配信に集中できる。 Rock oN Line eStoreでのご購入はこちらから>> Rock oN Line eStoreに特設コーナーが誕生! Rock oN Line eStoreでは、カメラからスイッチャー、配信や収録向けのマイクなど、映像制作に関わる機材を集めた特設コーナーを新設している。本記事に挙げた個別の機材が購入できるのはもちろん、手軽なセット販売や、スタッフに相談できる問い合わせフォームなどもあるので、ぜひ覗いてみてほしい。 eStore特設コーナーへ!!>>
ウェブキャスターで高品質配信!音楽演奏配信向けシステムセットアップ例
公共の場でのマスク着用と並んで、映像配信はウィズ・コロナ時代のひとつのマナーとさえ言えるほど急速にひとびとの生活に浸透している。もちろん半分ジョークだが、読者の半数は実感を持ってこのことばを迎えてくれることと思う。なにせ、このような記事を読もうと思ってくれているのだから、あなたも映像配信にある程度の関心があるはずだ。 さて、しかし、いざ自分のパフォーマンスを配信しようと思っても、どのような機材を揃えればいいのか、予算はいくらくらいが妥当なのか、というところで迷ってしまう方もいることだろう。(Z世代のミュージシャンは、そんなことはないのだろうか!?) そこで、この記事では音楽の生演奏を前提に、低価格かつ高品質な映像配信を実現するシステムアップ例を紹介したいと思う。 システムセットアップ例 スイッチャーはATEM Miniで決まり!? マルチカメラでの映像配信にこれから挑戦したいという方にぜひおすすめしたいビデオスイッチャーがBlackmagic Design ATEM Miniシリーズだ。4x HDMI入力やプロ仕様のビデオエフェクト、さらにはカメラコントロール機能までついた本格仕様でありながら価格破壊とも言える低価格を実現しており、スイッチャーを初めて導入するという方からコンパクトなスイッチャーを探しているプロフェッショナルまで、幅広くおすすめできるプロダクトだ。 ATEM Mini、ATEM Mini Pro、ATEM Mini Pro ISO、と3つのラインナップがあり、順次機能が増えていく。ATEM Miniでは各カメラ入力をモニターする機能がないため、バンド編成でのライブ配信などにはATEM Mini ProかATEM Mini Pro ISOを選択する方がオペレートしやすいが、弾き語りや小編成ユニットの場合はATEM Miniでも十分だろう。 ATEM Miniシリーズについての詳細はこちらの記事>>も参考にしてほしい。 オーディオI/F機能付きミキサーでサウンドクオリティUP! ATEM Miniシリーズにはマイク入力が備わっており、ATEM Mini内部でのレベルバランスの調整も可能となっている。しかし、オーディオのクオリティにこだわるなら小型でもよいのでオーディオミキサーの導入が望ましい。ライブやレコーディングで使用できる一般的なマイクを使用することができるし、機種によってはオンボードのエフェクトも使用できる。必要十分な入出力数を確保できるし、なにより経由する機器を減らす方がクオリティは確実に上がる、とメリット尽くしだ。 音声系をいったんミキサーでまとめ、ATEM Miniからの映像信号とは別系統としてMac/PCに入力、OBSなどの配信アプリケーション内で映像と音声のタイミングを合わせるというシステムアップになる。 この時、ミキサーとオーディオI/Fを別々に用意してもよいが、最近の小型ミキサーの中にはUSBオーディオI/F機能を搭載したものも多く、「ウェブキャスター」と呼ばれるWEB配信を特に意識したプロダクトも存在する。 すでにミキサーやオーディオI/Fを所有しているなら足りない方を買い足すのがよいだろうが、これから配信に挑戦しようというならウェブキャスターなどのUSB I/F機能付きミキサーがうってつけのソリューションとなるだろう。チャンネル数、対応サンプリング周波数、マイク入力数など各モデルで特色があるため、自分に必要なスペックがわからない場合は気軽にRock oN Line eStoreに問い合わせてみてほしい。 おすすめI/F機能付きミキサー YAMAHA AG-06 販売価格:¥ 19,800(本体価格:¥ 18,000) ウェブキャスターという名称を広めた立役者とも言えるYAMAHA AGシリーズ。ループバック機能、ヘッドセット対応、2x マイク/ライン入力・1x 48Vファンタム電源を含む6入力、USB I/F機能、USBバスパワーなど、ウェブ動画配信に完全対応。さらに最大で192kHz/24bitというハイレゾクオリティのオーディオ性能を誇る。弾き語りや二人組ユニットだけでなく、バックトラックに合わせての演奏やトーク番組風の配信、ゲーム実況まで幅広く対応可能だ。 Rock oN Line eStoreでのご購入はこちらから>> ZOOM LIVETRAK L-8 販売価格:¥ 39,600(本体価格:¥ 36,000) ジングルや効果音を鳴らせる6個のサウンドパッド、電話の音声をミックスできるスマートフォン入力、バッテリー駆動でスタジオの外にも持ち出せる機動力。ポッドキャスト番組の収録やライブ演奏のミキシングが手軽に行える、8チャンネル仕様のライブミキサー&レコーダー。内蔵SDカードに録音することが可能で、12chモデル、20chモデルの上位機種もランナップされているためバンドライブの動画配信にはうってつけだろう。 Rock oN Line eStoreでのご購入はこちらから>> Presonus StudioLive AR8c 販売価格:¥ 55,000(本体価格:¥ 50,000) ミュージシャン達がミュージシャンのために開発したハイブリッド・ミキサーであるStudioLive® ARcシリーズは、XMAXプリアンプ/EQ/デジタル・エフェクトを搭載したアナログ・ミキサーに、24Bit 96kHz対応のマルチチャンネルUSBオーディオ・インターフェース、SD/SDHCメモリー・カード録音/再生、そしてBluetoothオーディオ・レシーバーによるワイヤレス音楽再生機能を1台に統合。ラインアップは、8チャンネル仕様、12チャンネル仕様、16チャンネル仕様の3機種。レコーディングや音楽制作のためのCapture™/Studio One® Artistソフトウェアも付属し、ライブPA、DJ、バンドリハーサル、ホームスタジオ、ネット配信に理想的なオールインワン・ハイブリッド・ミキサーとなっている。 Rock oN Line eStoreでのご購入はこちらから>> YAMAHA MG10XU 販売価格:¥ 29,334(本体価格:¥ 26,667) YAMAHAの定番アナログミキサーであるMGシリーズも、多くがUSB I/F機能を搭載している。WEB配信に特化した製品ではないが、高品位なディスクリートClass-Aマイクプリアンプ「D-PRE」搭載をはじめ、1ノブコンプ、24種類のデジタルエフェクトなど、本格的なミキサーとしての機能を備えており、クオリティ面での不安は皆無と言える。20chまでの豊富なラインナップも魅力。トークやMCではなく「おれたちは音楽の中身で勝負するんだ!」という気概をお持ちなら、ぜひこのクラスに手を伸ばしてほしい。 Rock oN Line eStoreでのご購入はこちらから>> SOUNDCRAFT Notepad-8FX 販売価格:¥ 14,900(本体価格:¥ 13,545) ブリティッシュコンソールの老舗メーカーであるSOUNDCRAFTにもUSB I/F機能搭載のコンパクトミキサーがラインナップされている。全3機種の中で上位モデルであるNotepad-12FXと本機Notepad-8FXには、スタジオリバーブの代名詞Lexicon PRO製のエフェクト・プロセッサーを搭載!ディレイやコーラスも搭載しており、これ1台で積極的な音作りが可能となっている。ブリティッシュサウンドを体現する高品位マイクプリ、モノラル入力への3バンドEQ搭載など、コンパクトながら本格的なオーディオクオリティを誇っている。 Rock oN Line eStoreでのご購入はこちらから>> ALLEN & HEATH ZEDi-8 販売価格:¥ 19,008(本体価格:¥ 17,280) こちらもイギリスの老舗コンソールメーカーであるALLEN & HEATHが送るUSB I/F対応アナログミキサーがZEDシリーズだ。ZEDi-8はコンパクトな筐体に必要十分で高品質な機能がギュッと凝縮されたようなプロダクトだ。2バンドのEQ以外にオンボードエフェクトは搭載していないが、定評あるGS-R24レコーディング用コンソールのプリアンプ部をベースに新設計されたGSPreプリアンプは同シリーズ32ch大型コンソールに搭載されているのと同じもの。長い歴史を生き抜いてきたアナログミキサー作りのノウハウが詰め込まれた一品と言えそうだ。 Rock oN Line eStoreでのご購入はこちらから>> あなたに最適なATEM Miniは!? Blackmagic Design ATEM Mini 販売価格:¥ 39,578(本体価格:¥ 35,980) 4系統のHDMI入力、モニター用のHDMI出力1系統、プロクオリティのスイッチング機能とビデオエフェクトなど、プロクオリティの機能を備えながら圧倒的な低コストを実現するATEM Mini。コンピューターに接続してPowerPointスライドを再生したり、ゲーム機を接続することも可能。ピクチャー・イン・ピクチャー・エフェクトは、生放送にコメンテーターを挿入するのに最適。ウェブカムと同様に機能するUSB出力を搭載しているので、あらゆるビデオソフトウェアに接続可能。導入コストを低く抑えたい方にはおすすめのプロダクトです。 Rock oN Line eStoreでのご購入はこちらから>> Blackmagic Design ATEM Mini Pro 販売価格:¥ 73,150(本体価格:¥ 66,500) ATEM Mini Proで追加される機能は「本体からインターネットへのダイレクト配信」「マルチモニタービュー」「プログラム出力の外部SSDへの収録」の3つ。本記事の主旨に則ってオーディオクオリティを優先すると、ダイレクト配信機能は使用する機会がないため、各カメラの映像を確認しながらスイッチングをしたい、または、配信した動画を高品質で取っておきたいのいずれかに該当する場合はこちらを選択することになる。 Rock oN Line eStoreでのご購入はこちらから>> Blackmagic Design ATEM Mini Pro ISO 販売価格:¥ 113,850(本体価格:¥ 103,500) ATEM Mini Pro ISOで追加される機能は、ATEM Mini Proの全機能に加え、「全HDMI入出力信号を外部SSDに個別に保存」「スイッチングを施したタイミングをDaVinci Resolveで読み込めるマーカーの記録」の2つ。あとから映像を手直ししたり再編集したりしたい場合にはこちらを選択することになる。アーカイブ映像として公開する前に、本番中に操作を誤ってしまった部分を修正したり、リアルタイムで無料配信したライブを編集し後日有償で販売する、といったことが可能になる。 Rock oN Line eStoreでのご購入はこちらから>> Rock oN Line eStoreに特設コーナーが誕生! Rock oN Line eStoreでは、カメラからスイッチャー、配信や収録向けのマイクなど、映像制作に関わる機材を集めた特設コーナーを新設している。本記事に挙げた個別の機材が購入できるのはもちろん、手軽なセット販売や、スタッフに相談できる問い合わせフォームなどもあるので、ぜひ覗いてみてほしい。 eStore特設コーナーへ!!>>
加速度的に進む普及、ATEM Mini Proが配信を面白くする
ATEM Mini Pro 価格:¥74,778(税込) いま、注目を集めているのはオンライン・コラボレーションだけではない。音楽ライブ、ゲーム、セミナーなどの配信、特にリアルタイム配信の分野もまた、大きな注目を集め始めている。ここでは、そうしたライブ配信のクオリティアップを手軽に実現できるプロダクトとしてBlackmagic Design ATEM Mini Proを取り上げたい。 スイッチャーの導入で配信をもっと面白く 冒頭に述べたように、オンラインでのコミュニケーションを行う機会が格段に増えている。以前からゲームプレイの中継配信などがメディアにも取り上げらることが多かったが、ここのところではライブを中心に活動していたミュージシャンやライブハウスが新たにライブ配信に参入するケースも出てきた。もちろん普段の生活の中でもオンラインでのセミナー(所謂ウェビナー)や講義・レッスン、さらにはプレゼンの機会も多くなっているだろう。 その音楽ライブの配信は言うまでもなく、ゲーム中継やセミナー、会議やプレゼンでも、ふたつ以上の映像を配信できた方が表現の幅が広がり、視聴者や参加者により多くの事柄を伝えることができる。演奏の様子を配信する場面では、引きと寄りのアングルを切り替えた方が臨場感が増すし、音楽レッスンならフォーム全体と手元のクローズ映像が同時に見られた方がより分かりやすい。講義やプレゼンではメインの資料を大きく映しておいて、ピクチャインピクチャで講師の顔を映しておく、補足資料や参考URLなどを別PCで用意しておく、プロダクトをカメラで撮ってプレゼンする、など使い方を少し思い起こすだけでも数多くの手法が広がることになる。 こうしたニーズを満たすのがビデオスイッチャーと呼ばれるプロダクトになるのだが、現在、市場で見かけるスイッチャーのほとんどは業務用にデザインされたものになっている。サイズの大きいものが多く、また様々な機能が使用できる分だけ一見すると操作方法が分かりにくい場合もある。さらに、入出力もSDI接続である場合がほとんどであり、家庭向けのカメラとの使用には向いていない。そして何より高額だ。 しかし、昨年秋に発表されたBlackmagic Design ATEM Miniは、放送用のトランジションやビデオエフェクト機能を備えた4系統HDMI入力対応のスイッチャーでありながら、税込定価¥40,000を切るプロダクトとして大きな話題を呼んだ。今回紹介するATEM Mini Proは新たに発売された上位版にあたるプロダクトであり、ATME Mini にさらに機能を追加し、業務用途にも耐える仕上がりとなっている。どのような映像を配信したいかは個別のニーズがあるが、インターネットへマルチカムでの映像配信を検討中の方は必見のプロダクトだ。以下で、ATEM Mini、ATEM Mini Proのアドバンテージを概観していきたい。 HDMI 4系統に特化した映像入力 まず、ATEM Miniシリーズが手軽なソリューションである大きな理由は、HDMI 4系統のみというシンプルな入力であることだ。その他の入力系統を大胆に省略し、多くの家庭用カメラが対応するHDMIに接続を特化することで、十分な入力数を確保しながらコンパクトなサイズを実現している。これは、業務用カメラやSDI変換などの高額な機器が不要であるという点で、システム全体の導入費用を大幅に下げることにも貢献する。 外部オーディオ入力端子としてふたつのステレオミニジャックを備えているため、ダイナミックマイクを接続することも可能。画角との兼ね合いでカメラからのオーディオが使用しにくい場合でも、クリアな音質を確保することができる。2020年6月のアップデートで、コントロールソフトウェアで外部からのオーディオ入力にディレイを掛ける機能が追加され、画・音のずれを修正することも可能になった。 システムをコンパクトに さらに、ATEM Miniシリーズの利点として配信システムに必要なデバイスの数を減らすことができるという点も挙げられる。スイッチャーを中心としてマルチカム配信システムの構成をざっくりと考えると、カメラやMac/PCなどの映像入力機器、スイッチャー、信号を配信に向いたコーデックにエンコードするキャプチャー/WEBキャスター、配信アプリケーションのインストールされたMac/PC、となる。 ATEM Miniはこのうち、スイッチャーとキャプチャーの機能を併せ持っている。Mac/PCからウェブカムとして認識されるため、配信用のMac/PCに接続すればそのままYouTube LiveといったCDNに映像をストリーミングすることができるのだ。それだけでなく、SkypeやZoomなどのコミュニケーションツールからもカメラ入力として認識されるため、会議やプレゼン、オンライン講義などでも簡単に使用することができる。上位機種のATEM Mini Proはこれに加えて、配信アプリケーションの機能も備えている。システムを構成するデバイスを削減できるということは、コスト面でのメリットとなるだけでなく、機材を持ち込んでの配信や、システムが常設でない場合などに、運搬・組み上げの手間が省略できるというアドバンテージがある。 ATEM Miniは図のようにスイッチャー、キャプチャーをひとまとめにした機能を持っているが、上位版のATEM Mini Proではさらに配信環境までカバーする範囲が広がる。まさにオールインワンの配信システムと言える内容だ。 つなぐだけ派にも、プロユースにも デフォルトの設定では、ATEM Mini / ATEM Mini Proは4系統のHDMIに入力された信号を自動で変換してくれる。つまり、面倒な設定なしでカメラをつなぐだけで「とりあえず画は出る」ということだ。 しかし、ATEM シリーズに無償で同梱される「ATEM Software Control」は、これだけで記事がひとつ書けてしまうほど多機能で、クオリティにとことんこだわりたい場合はこちらから詳細な設定やコントロールを行うことも可能。スイッチングやオーディオレベルの操作は本体のパネルからも行うことができるが、コントロールソフトウェアを使用すれば、さらに追い込んだ操作を行うことが可能になる。このATEM Software Controlの各機能はDaVinci Resolveで培われた技術を使用しているため、オーディオ/ビデオ・エフェクトやメディア管理など、業務レベルに耐えるクオリティの仕上がりになっている。 しかも、ATEM Software Controlはネットワークを介して本体と接続できるため、離れた場所からのスイッチャー操作も可能。HDMIは長尺ケーブルを使用するのがためらわれるが、この機能を使用すればカメラ位置に左右されずにオペレーションするスペースを確保することができる。さらに、同時に複数のATEM Software ControlからひとつのATEM Mini / ATEM Mini Proにアクセスできるため、スイッチング / カメラ補正 / オーディオミキシング、など、役割ごとにオペレーターをつけるというプロフェッショナルな体制を取ることまでできてしまう。 ATEM Software Controlのコントロール画面。なお、オーディオパネルはMackie Control、KORG NanoKontrol、iCON Platform M+などの外部コントローラーに対応している。スペースに余裕が生まれた分、こうした機材を導入して音のクオリティアップで差をつけるのも面白いだろう。 ATME Mini VS ATEM Mini Pro ●CDNにダイレクトにストリーミング ATEM MiniとATEM Mini Proのもっとも大きな違いと言えるのが、ATEM Mini Proでは本体を有線でインターネットにつなげば、ダイレクトにCDNに映像をストリーミングすることができるということだ。もちろん、ストリーミングキーを入力してやるためのMac/PCは必要になるが、一度キーを設定してしまえば本体から取り外しても問題ない。手元のスペースを節約できるだけでなく、安定した配信を行うためにスペックの高いMac/PCを新たに購入する必要がなくなるし、ストリーミングのように安定度が求められる部分をハードウェアに任せることができるのは大きな安心だ。省スペース、低コスト、高い信頼性、と、この機能の実装によって得られるメリットは非常に大きいのではないだろうか。ライブハウスなどによるビジネス用途ならATEM Mini Pro、すでに十分に高いスペックのマシンを所有しているならATEM Miniと、既存の環境に応じてチョイスするとよいのではないだろうか。 ●マルチビュー対応 こちらもパワフルな機能。ATEM Mini ProにはHDMI出力が1系統しか搭載されていないが、一画面で全ての入力ソース、メディアプレイヤー、オーディオとON AIRのステータスを確認することができる。各モニターはタリーインジケーターを表示可能で、どのソースがオンエアされ、次にどのソースへトランジットするかを確認することができる。プレビュー機能も備えており、M/Eがどのようにかかるのかを事前に確認することも可能だ。これらすべてを一画面でモニターできるというコンパクトさと取り回しのよさは、まさに"Pro"という名にふさわしい機能追加と言えるだろう。 ●外部デバイスへプログラムをレコーディング ATEM Mini Proは、プログラムをH.264ビデオファイルとしてUSBフラッシュディスクにダイレクトに記録することができる。しかも、USBハブやBlackmagic Design MultiDockなどのプロダクトを使用すると、複数ディスクへの収録にも対応可能だ。ひとつのディスクがフルになると、自動で次のディスクに移行することで、長時間のストリーミングでも継続した収録を行うことができる。YouTube LiveやFacbook LiveではWEB上にアーカイブを残すことが可能だが、プログラムをその場で手元にメディアとして持っていられることは、ほかの場所で使用することなどを考えると大きなメリットとなるだろう。 実際の自宅からの簡易的な配信を想定したシステム例。ATEM Mini Proで取りまとめさえすれば配信への道は簡単に開けてしまう。音声の面でも48Vファンタム対応の小型ミキサーを使用すればコンデンサーマイクを使用することができる。HDMIアダプタを使用して、スマートフォンやタブレットをカメラ代わりに使うことも可能。別途、配信用のMac/PCを用意すれば、複数の配信サイトにマルチキャストすることもできる。 にわかに活況を呈するコンパクトビデオスイッチャーの世界。小さなスペースで使用でき、持ち運びや設置・バラシも手軽な上に、マルチカメラでの配信をフルHD画質で行うことを可能にするコンパクトスイッチャーをシステムの中心に据えることで、スマホ配信とは別次元のクオリティで映像配信を行うことが可能となる。特にATEM Mini / ATEM Mini Proを使用すれば、ほんの何本かのケーブルを繋ぐだけで、高品質な配信が始められてしまう。ぜひ、多くの方に触れてみてほしいプロダクトだ。 *ProceedMagazine2020号より転載
On Premise Server パーソナルなオンプレサーバーで大容量制作をハンドリング
Internetの発達に伴って進化を続けている様々なCloudベースのサービス。その一方で、コスト面も含めて個人の自宅でも導入できるサイズの製品も着実な進化を遂げているのがOn Premise(オン・プレミス=敷地内で)のサーバーソリューション。Cloudのように年額、月額で提供されるサービスと比較するとどのようなメリットがあるのか、オンプレのサーバーはNetwork上からどう活かされるのか、オンラインでの協業体制が求められる今だからこそパーソナルユースを視野に入れたエントリーレベルにおけるオンプレサーバー導入のいまを見ていきたい。 Synology Home Server 今回、取り上げる製品はSynology社のホームサーバー。ラインナップは1Drive(HDD1台)のコンパクトな製品からスタートし、1DriveでHDD無しのベアボーンが1万円前半の価格から入手できる。何かと敷居の高いサーバーソリューションの中でも、パーソナル領域におけるラインナップを充実させているメーカーだ。このホームサーバーの主な役割は、ローカルネットワーク上でのファイル共有サービス(NAS機能)と、Internetに接続されたどこからでもアクセス可能なOn Premiseファイル・サーバーということに集約される。 もちろんそれ以外にも、遠隔地に設置されたSynology製品同士での自動同期や、プライベートな音楽/動画配信サーバー機能、ファイルのバージョニング機能、誤って消去してしまったファイルの復元機能など多彩な機能を持ち、ローカルでのファイル共有に関しては汎用のNAS製品と同様に、Windows向けのSMB/NFS共有、MacOS向けのSMB/AFS共有が可能と、それぞれOSの持つ標準機能でアクセスができるシンプルな形式を持つのだが、今回はこのようなローカル環境でのサービスではなく、外出先でも活用ができるサービスに目を向けたい。 Synologyの設定画面。ブラウザでアクセスするとOSライクなGUIで操作できる。 コスト優位が際立つオンプレ 外出先で、サーバー上のデータを取り出せるサービスといえば、DropBox、OneDriveなどのCloudストレージサービスが思い浮かぶ。Synologyの提供するサービスは、一般向けにもサービスの提供されているCloudストレージと比較してどのような違いがあるのだろうか? まず、SynologyのようなOn Premiseでのサービスの最大のメリットは、容量の大きさにあるだろう。本原稿の執筆時点で一般向けに入手できる最大容量のHDDは16TB。コスト的にこなれてきている8TBのモデルは2万円を切る価格帯で販売されている。これは1TBあたりの単価は¥2,000を切る水準となっており、容量単価のバランスも納得いくレベルなのではないだろうか。 これをCloud Stroageの代表格であるDropBoxで見てみると、1TBの容量が使える有償サービスは年額¥12,000となる。もちろん、機器の購入費用が必要ない、壊れるという心配がない、電気代も必要ない、などCloudのメリットを考えればそのままの比較はできないが、8TBという容量を持つ外出先から接続可能なOn Premiseサーバーの構築が4万円弱の初期投資で行えるということは、コストパフォーマンスが非常に高いと言えるだろう。また、4Drive全てに8TBのHDDを実装しRAID 5の構成を組んだとすれば、実効容量24TBという巨大な容量をNetwork越しに共有することが可能となる。大容量をコストバランスよく実現するという側面をフォーカスすると、On Premiseのメリットが際立ってくる。 利用している帯域など、ステータスもリアルタイムに監視が可能だ。 オンプレの抱える課題とは このように単純に価格で考えれば、HDDの容量単価の低下が大きく影響するOn Premiseの製品のコストパフォーマンスは非常に高いものがある。その一方で、On Premiseが抱えるデメリットがあることも事実。例えばCloudサービスであれば、データはセキュリティーや防災対策などが万全になされたデータセンターに格納される。データの安全性を考えると自宅に設置された機器との差は非常に大きなものになるだろう。もちろん、Synologyの製品も2Drive以上の製品であればRAIDを構築することができるため、データの保全に対しての対策を構築することも可能だが、これは導入コストとトレードオフの関係になる。実例を考えると、ストレージの速度とデータの保全を両立したRAID 5以上を構築しようとした際には3 Drive以上の製品が必要。製品としては4Drive以上の製品に最低3台以上のHDDを実装する必要があり、初期導入コストは8万円程度が見込まれる。1TB程度の容量までで必要量が足りるのであれば、Cloudサービスの方に軍配があがるケースもある。必要な容量をどう捉えるかが肝要な部分だ。 また、On Premiseの製品は手元にあるために、突如のトラブルに対しては非常に脆弱と言わざるを得ない。前述のようにデータセンターとは比較にならない環境的な要因ではあるが、2〜3年おきにしっかりと機器の更新を行うことで、そういったリスクを低減することはできる。そのデータはどれくらいの期間の保持が必須なのか、重要性はどれほどのものなのか、保全体制に対しての理解をしっかりと持つことで、大容量のデータの共有運用が見えてくる。 オンプレをNetworkから使う パッケージセンターには数多くのアプリケーションが用意されている。 Synology社のOn Premiseサーバーは、専用のアプリをインストールすることでInternet接続環境があればどこからでも自宅に設置されたサーバーのデータを取り出すことができる。また、DropBoxのサービスのように常時同期をさせることもできれば、特定のフォルダーを第三者へ共有リンクを送り公開する、といった様々なサービスを活用できる。設定もWebブラウザ上からGUIを使うシンプルなオペレーションとなっており、設定も極めて簡便。VPNを使用するというような特別なこともないため、迷うことなく自宅のサーバーからファイル共有を行うことが行えてしまう。ユーザーの専門知識を求めずに運用が可能な水準にまで製品の完成度は高まっていると言えそうだ。 ファイル共有のあり方は多様になっており、ユーザーの必要な条件に合わせてOn Premise、Cloudと使い分けることができるようになってきている。むしろ選択肢は多彩とも言える状況で、メリット、デメリットをしっかりと理解し、どれくらいのデータ量をハンドリングしたいのか、そのデータの重要性をどう考えるか、ユーザーの適切な判断があれば充実したパーソナルサーバー環境はすぐにでも構築、実現できてしまう。今後、ますます大容量となるコンテンツ制作のデータをどう扱えるのかは、パーソナルな制作環境にとっても重要な要素であることは間違いないだろう。それをどのようにハンドリングするかの鍵はここにもありそうだ。 *ProceedMagazine2020号より転載
Macのワークステーションが今後を”創る” 〜Apple Mac Pro Late2019〜
目次 序論 Apple Mac Pro Late2019概要 Mac Pro Late2019の各構成部品:CPU Mac Pro Late2019の各構成部品:メモリ Mac Pro Late2019の各構成部品:PCI Express拡張スロット Mac Pro Late2019の各構成部品:GPU Mac Pro Late2019の各構成部品:AfterBurner 考察 1:序論 各業界で注目を集めたApple Mac Pro Late2019は2019年6月に発表、同年12月より発売が開始された。同社CEO Tim Cook氏はWWDC2019の基調講演で「これまでに開発した中で最も強力なMac」と語り「すべてを変えるパワー」と広告される本機種。その驚異的なマシンスペックと拡張性などの紹介から前機種との比較などを通し、Macのワークステーションが作り得る未来への可能性を紐解いていく。 2:Apple Mac Pro Late2019概要 <↑クリックして拡大> 発表当初より、Apple Mac Pro Late2019は注目度も高く、既に発売されているためデザイン面など基本的な情報は皆さんご存知であろう。たださすがにMac Proの最新モデルともあり、オプションも多岐に渡るため構成部品とそのカスタマイズ域についてを別表にまとめるのでご確認いただきたい。また「これまでに開発した中で最も強力なMac」「すべてを変えるパワー」と称されるMac Pro Late2019だが、比較対象に直近3モデル:Mid2012・Late2013・Late2019を取り上げ、CPU / メモリ / GPU / ストレージ、周辺機器との接続性なども同様に別表に掲載する。それでは、次から各構成部品の紹介に移り、Mac Pro Late2019の内容を確認していく。 <↑クリックして拡大> 【特記事項】 ・min maxの値:Apple公表値を基準とする。メモリなど3rdパーティー製品による最大値は無視する。 ・CPU/GPU:モデル名を表記する。比較はベンチマークで行い後述する。 ・メモリ/ストレージ:モデル名は表記せず、容量/動作周波数、容量/PCIe規格といった数値表記とする。 ・数値の表記:比較を用意にする為、単位を揃える。(メモリ:GB、ストレージ:TB) 3:Mac Pro Late2019の各構成部品:CPU Apple HPの広告で搭載CPUについては、”最大28コアのパワー。制限なく作業できます。”と称されている。このモデルではMac史上最多の最大28コアを搭載したIntel XeonWプロセッサを採用、8coreから28coreまで、5つのプロセッサをラインナップしたため、ニーズに合わせた性能を手に入れることができるようになった。CPUはコンピュータの制御や演算や情報転送をつかさどる中枢部分であるが、直近3モデル(Mid2012/Late2013/Late2019)のCPUパフォーマンスを比較し、その実力を見ていく。まずは以下のグラフをご覧いただこう。 図1. Mac Pro CPU(Multi-core)ベンチマーク比較 こちらのグラフは、モデルごとのCPUベンチマーク比較である。横軸左から、Mid2012(青)→Late2013(緑)→Late2019(オレンジ)と並び、各モデルの最低CPUと最高CPUにおける、マルチコアのベンチマーク値を縦軸に示した。ベンチマーク値はGeekBenchで公開されるデータをソースとしている。Late2019の最低CPUの値に注目しラインを引くと、旧モデル最高CPUの値をも超えていることがわかる。たとえ、Late2019で最低のCPUを選んだとしても、旧MacPROの性能を全て超えていくということだ。決して誇大広告でなく、「これまでに開発した中で最も強力なMac」と称される理由の一つだと分かる。数値で示すと以下表になる。参考までに、Single-Coreのベンチマーク値も掲載する。 表3. Late2019/最低CPU と 旧モデル/最高CPUのベンチマーク値 次に、Late2019最大値にもラインを引き、Late2019最低値との差分に注目する。この差分が意味するのは、ユーザーが選択できる”性能幅”である。ユーザーはこの範囲の中から自らの環境に合わせてMacPROをコーディネートしていくことになる。視覚的にも分かる通り、Late2013と比べても圧倒的に性能の選択幅が広くなっている事が分かる。 図2. Mac Pro Late2019 ベンチマーク性能幅 数値を示すと以下のようになる。Late2013と比較すると、約3倍もの性能選択幅があることが分かる。 表4. 性能選択余地の遷移 以上の比較から、旧MacProから乗り換える場合、”Late2019を買えばCPU性能が必ず向上する”ということが分かった。しかし、性能幅も広がった為、新たにLate2019を検討する方は自分に合うCPUを選択する必要がある。Late2013よりも長期的運用が可能だと噂され、CPUが動作速度の根幹であることを考えると、Mac Pro Late2019のCPUは少しオーバースペックなものを選択しても良いかもしれない。参考までに、現行MacのCPU性能比較もご覧いただきたい。なお、現行モデルの比較対象として以下モデルを追加した。iMac Pro Late 2017 / Mac mini Late 2018 / iMac 21.5inch Early 2019 / iMac 27inch Early 2019 / Mac Book Pro 16inch Late 2019(ノート型の参考) 図3. 現行MacとMacPro Late2019との比較 <↑クリックして拡大> このグラフで注目するのは、Late2019のCPU最低値と16core XeonWの値である。まず、CPU最低値に注目すると、iMacのCPU値と交差することが分かる。また、16core XeonWの値に注目すると交差するCPUが存在しなくなることが分かる。故に、現行モデル以上の性能を求め、他にない性能を実現するには16core XeonW以上の選択が必要となる。また、ワークステーション/PCの性能はCPUのみで決まることではないので、購入の際にはメモリ、GPUや拡張性なども十分考慮していただきたい。 4:Mac Pro Late2019の各構成部品:メモリ Apple HPの広告でメモリについては、"あなたが知っているメモリは、昨日のメモリです。”と称されている。ユーザーがアクセスできる12の物理的なDIMMスロットを搭載し、プロセッサと互換性のあるメモリであれば、将来的なアップグレードも可能だ。Mac Pro Late2019ではR-DIMMとLR-DIMMのメモリモジュールに対応しているが、同じシステムで2種類のDIMMを使うことはできないので容量追加には注意が必要である。LR-DIMM対応のCPU(24core以上のXeonW)を選択した場合、最大1.5TBの容量を実現する。 ワークステーション/PCの”作業机”と訳される事も多いメモリ。データやプログラムを一時的に記憶する部品であるが、CPU同様に直近3モデルと比較していく。まずは最小構成、最大構成の2種類のグラフをご覧いただこう。 図4. MacPro:メモリ最小構成での比較 図5. MacPro:メモリ最大構成での比較 表5.MacPro:メモリ最小構成での比較 表6.MacPro:メモリ最大構成での比較 横軸はCPU同様、Mac Pro Mid2012/Late2013/Late2019を並べている。縦軸左側はメモリ容量値で青棒グラフで示し、右側は動作周波数をオレンジ丸で示している。図4.最小構成のグラフに注目しメモリ容量を比較すると、おおよそモデル毎に倍々の推移が見られる。また、動作周波数に関しては2次曲線的推移が見られる。モデルの発展とともに、部品としての性能も格段に上がってきている事が分かる。図5.最大構成のグラフに関しては一目瞭然ではあるが、表6.最大構成のLate2019、メモリ容量の前モデル比に注目すると23.44という驚異的な数値を叩く。これもまた、「これまでに開発した中で最も強力なMac」と称される理由の一つだと分かる。 さて、購入検討時のメモリ問題であるが、こちらは後ほどアップグレードできる為、初めは低容量から導入し、足りなければ随時追加という方式が取れる。メモリで浮いた金額をCPUへ割り当てるという判断もできるため、予算を抑えながら導入も可能だ。ただし、CPUによるメモリ容量の搭載上限が決まり、メモリモジュールを合わせる事を念頭に入れ検討する事が重要だ。 5:Mac Pro Late2019の各構成部品:PCI Express拡張スロット Mac Pro Late2019ではCPUの性能幅やメモリの拡張性に加え、8つのPCI Express拡張スロットの搭載が可能になった。Avid HDX Card や Universal Audio UAD-2 PCIe Cardを搭載してオーディオプロセスを拡張するも良し、加えて、GPU / AfterBurner(後述) / キャプチャボードを搭載し、グラフィック面を拡張しても良い。まさに、クリエイティブなユーザーの思いのままに、Mac Proの拡張が可能になったと言える。さらに、Mac Pro Mid2012と比べるとスロット数が倍になっていることから、PCIeによる機能拡張においても「これまでに開発した中で最も強力なMac」であると分かる。 写真を参考に、搭載可能なPCIeについて確認していこう。上から順に、ハーフレングススロット、シングルワイドスロット、ダブルワイドスロットと並ぶ。下から順に、スロットNo.が1-8までカウントされる。 それでは各種のスロットについて見ていこう。 ○ハーフレングススロット:No.8 スロットNo.8には最大 x4 レーンのPCIeカードが搭載可能。ここには標準仕様でApple I/Oカードが既に搭載されており、Thunderbolt 3ポート× 2、USB-Aポート× 2、3.5mm ヘッドフォンジャック× 1を備える。このI/Oカードを取り外して他のハーフレングスPCIeカードに取り替えることもできるが、別のスロットに取り付けることはできないので、変更を検討する場合には注意が必要だ。 ○シングルワイドスロット:No.5-7 スロットNo.5には最大 x16レーン、No.6-7には最大 ×8レーンのPCIeカードが搭載可能。スロットNo.5の最大 ×16レーンには、AfterBurnerはに取り付けることが推奨される。後述のGPUとの連携からであろうが、他カードとの兼ね合いから、AfterburnerをNo.5に取り付けられない場合は、後述のスロットNo.3へ、No.3とNo.5が埋まっている場合はスロット4へ取り付けると良い。 ○ダブルワイドスロット:No.1-4 スロットNo.1,3,4には最大 x16レーン、No.2には最大 x8レーンのPCIeカードが搭載可能。スロットNo.1、No.4は2列に渡ってPCIeが羅列しているが、これは後述するApple独自のMPX Moduleを搭載する為のレーンになる。MPXモジュール以外で使用する場合は、最大 x16レーンのPCIeスロットとして使用できる。 6:Mac Pro Late2019の各構成部品:GPU Apple HPの広告でGPUについては、"究極のパフォーマンスを設計しました。”と表現されている。業界初、MPX Module(Mac Pro Expansion Module)が搭載され、業界標準のPCI Expressのコネクタに1つPCIeレーンを加えThunderboltが統合された。また、高パフォーマンスでの動作のため、供給電力を500Wまで増やし、専用スロットによる効率的な冷却を実現している。500Wというと、一般的な冷蔵庫を駆動させたり、小型洗濯機を回したり、炊飯器でご飯を炊けたりしてしまう。また、Mac Pro Late2013の消費電力とほぼ同等である為、相当な量であるとイメージできる。話が逸れたが、GPUに関してもCPU同様に前モデルと比較していく。 図6. MacPro:GPU最小/最大での比較 こちらのグラフは、モデルごとのCPUベンチマーク比較である。横軸左から、Mid2012(青)→Late2013(緑)→Late2019(オレンジ)と並び、各モデルの最低GPUと最高GPUにおける、マルチコアのベンチマーク値を縦軸に示した。ベンチマーク値はGeekBenchで公開されるデータをソースとしているが、Mid2012に関しては有効なベンチマークを取得できなかった為、GPUに関してはLate2013との比較になる。また、AMD VegaⅡDuoは2機搭載だが、この値は単発AMD VegaⅡDuoの値となる。 表7.MacPro:GPU最小部品での比較 表8.MacPro:GPU最大部品での比較 部品単体であっても、前モデルからは最小でも2倍、最大では3倍のパフォーマンスを誇る。最大部品である。AMD Radeon Pro VegaⅡDuoはさらにもう一枚追加できるため、グラフィックの分野でも十分驚異的なスペックが実現できると言える。これも「これまでに開発した中で最も強力なMac」と称される理由の一つとなる。 7:Mac Pro Late2019の各構成部品:AfterBurner Afterburnerとは、ProRes/Pro Res RAW ビデオファイルのマルチストリームのデコードや再生を高速化するハードウェアアクセラレータカードである。まず、AfterBurnerを導入するメリットを振り返ろう。ProRes や ProRes RAW のマルチストリームを8Kなどの解像度で再生するための演算をこのAfterBurnerに任せられる。逆にない場合、Mac Pro Late2019のCPUで演算を行うため、その負担分が編集作業に回せなくなってしまう。AfterBurnerによる外部演算を取り入れることによりCPUでは他の処理や映像エフェクトの演算に注力できる為、より複雑な3D、映像編集が可能となる。また、ProRes および ProRes RAW のプロジェクトやファイルのトランスコードおよび、共有が高速化する事もメリットの一つである。 AfterBurnerの対応するアプリケーションは、"ProRes または ProRes RAW のファイルを再生するApple製のアプリケーション”である。例えば、Final Cut Pro X、Motion、Compressor、QuickTime Player などで使用可能だ。その他、他社製のアプリが気になるところだが、"他社製の App のデベロッパが、Afterburner のサポートを組み込むことは可能”とのことなので、今後の対応に期待したい。 8:考察 Mac Pro Late2019の登場により、従来のMacからは考えられないようなスペックでワークステーションを導入する事が可能になったが、ハイスペックかつ消費電力も高いため、初期投資およびランニングコストも大きくかかってしまうというリスクもある。しかし、クリエイティブ以外に時間を割いていると感じているならば朗報である。例えば、レンダリング、プロキシファイル変換、変換によって生じるファイルマネジメントなどなど。Mac Pro Late2019の性能は、作品を完成させるまでの待機時間や面倒な時間を圧倒的に減らし、ユーザーのクリエイティブな時間をより多く提供してくれると考える。 従来機よりも早く仕事を終わらせ、次の仕事に取り掛かる、それを終えたらまた次の新しい仕事へと取り掛かる。サイクルの早い循環、クオリティの向上が、他者との差別化に繋がっていく。初期投資、ランニングコストなど懸念点も多いが、その分クリエイティブで勝負して稼いでいく、というスタイルへMac Pro Late2019が導いてくれるかもしれない。これからの時代の働き方を変え、クリエイティブ制作に革新が起きることを期待している。 *ProceedMagazine2020号より転載
ゼロからはじめるDOLBY ATMOS / 3Dオーディオの世界へDIVE IN !!
2020年1月、CES2020にてお披露目された"Dolby Atmos Music"。映画向けの音響規格の一つであるDolby Atmosを、新たなる"3D"音楽体験として取り入れよう、という試みだ。実は、前年5月頃より"Dolby Atmosで音楽を制作しよう”という動きがあり、ドルビーは世界的大手の音楽レーベル、ユニバーサルミュージックとの協業を進めてきた。"Dolby Atmos"は元々映画音響用のフォーマットとして2012年に誕生している。その後、ヨーロッパを中心に対応劇場が急速に増え、海外では既に5000スクリーン以上、国内でもここ数年で30スクリーン以上に渡りDolby Atmosのシステムが導入されてきた。 また、映画の他にもVRやゲーム市場でもすでにその名を轟かせており、今回、満を持しての音楽分野への参入となる。Dolby Atmos Music自体は、既にプロオーディオ系の様々なメディアにて取り上げられているが、「Dolby Atmosという名称は聞いたことがある程度」「Dolby Atmosでの制作に興味があるが、日本語の情報が少ない」という声もまだまだ多い。そこでこの記事では、今のうちに知っておきたいDolby Atmosの基礎知識から、Dolby Atmosミックスの始めの一歩までを出来るだけ分かりやすい表現で紹介していきたい。 目次 コンテンツは消費の時代から”体験”の時代に 〜イマーシブなオーディオ体験とは?〜 まずは Dolby Atmosを体験しよう! / 映画、音楽、ゲームでの採用例 ベッドとオブジェクトって何!? / Dolby Atmos基礎知識 Dolby Atmos制作を始めよう / 必要なものは何? 自宅で始めるDolby Atmosミックス / Dolby Atmos Renderer × Pro Tools 2020.3【Send/Return編】 自宅で始めるDolby Atmosミックス / Dolby Atmos Renderer × Pro Tools 2020.3【CoreAudio編】 1.コンテンツは消費の時代から”体験”の時代に 〜イマーシブなオーディオ体験とは?〜 近年、"3Dオーディオ"という言葉をよく見かけるようになった。今のところ、その厳密な定義は存在していないが、古くからは"立体音響"や"三次元音響"といった言葉でも知られており、文字通り、音の位置方向を360度、立体的に感じられる音響方式のことを指す。その歴史は非常に古く、諸説あるがおよそ1世紀に渡るとも言われている。 点音源のモノラルに始まり、左右を表現できるようになったステレオ。そして、5.1、7.1、9.1…とその数を増やすことによって、さらなる音の広がりや奥行きを表現できるようになったサラウンド。と、ここまででもイマーシブな(*1)オーディオ体験ができていたのだが、そこにいよいよ、天井や足元といった高さ方向にもスピーカーが加わり、三次元空間を飛び回るような音の再生が可能になった。それぞれの方式は厳密には異なるが、3DオーディオフォーマットにはDolby Atmos、Auro-3D、DTS:X、NHK22.2ch、Sony360 Reality Audioなどといったものがある。 基本的に、これまでこうした3Dフォーマットのオーディオを再生するにはチャンネル数に応じた複数のスピーカーが必要だった。そのため、立体的な音像定位の再現性と、そうした再生環境の手軽さはどうしてもトレードオフになっており、なかなか世間一般に浸透しづらいという状況が続いていた。そこで、いま再注目を浴びているのが"バイノーラル(*2)録音・再生方式"だ。個人差はあるものの原理は単純明快で、「人間の頭部を模したダミーヘッドマイクで録音すれば、再生時にも人間が普段自分の耳で聞いているような立体的な音像が得られる」という仕組み。当然ながらデジタル化が進んだ現代においては、もはやダミーヘッドすら必要なく、HRTF関数(*3)を用いれば、デジタルデータ上で人間の頭側部の物理的音響特性を計算・再現してしまうことができる。 バイノーラル再生自体は全くもって新しい技術というわけではないのだが、「音楽をスマホでストリーミング再生しつつ、ヘッドホンorイヤホンで聴く」というスタイルが完全に定着した今、既存の環境で気軽にイマーシブオーディオを楽しめるようになったというのが注目すべきポイントだ。モバイルでのDolby Atmos再生をはじめ、Sonyの360 Rearity Audio、ストリーミングサービスのバイノーラル音声広告といった場面でも活用されている。 *1 イマーシブ=Immersive : 没入型の *2 バイノーラル= Binaural : 両耳(用)の *3 HRTF=Head Related Transfer Function : 頭部伝達関数 2.まずは Dolby Atmosを体験しよう! / 映画、音楽、ゲームでの採用例 では、Dolby Atmosは一体どのようなシーンで採用されているのだろうか。百聞は一見に如かず、これまでDolby Atmos作品に触れたことがないという方は、まずは是非とも体験していただきたい。 映画 映画館でDolby Atmosを体験するためには、専用設計のスクリーンで鑑賞する必要がある。これには2種類あり、一つがオーディオの規格であるDolby Atmosのみに対応したもの、もう一つがDolby Atmosに加え、映像の規格であるDolby Visionにも対応したものだ。後者は"Dolby Cinema"と呼ばれ、現時点では国内7スクリーン(開業予定含む)に導入されている。 Dolby Atmosでの上映に対応している劇場は年々増加していて、2020年4月現在で導入予定含む数値にはなるが、既に国内では 36スクリーン、海外では5000スクリーン以上にも及んでいる。 (いずれもDolby Atmos + Dolby Cinema計)当然ながら対応作品も年々増えており、ライブストリーミング等、映画作品以外のデジタルコンテンツも含めると、国内では130作品、海外ではその10倍の1300を超える作品がDolby Atmosで制作されている。いくつか例を挙げると、国内興行収入130億円を超える大ヒットとなった2018年の「ボヘミアン・ラプソディ」をはじめ、2020年のアカデミーでは作品賞を受賞した「パラサイト 半地下の家族」、同じく録音賞を受賞した「1917 命をかけた伝令」などといった作品がDolby Atmosで制作されている。 ●Dolby Atmos採用映画の例 アイアンマン3 / アナと雪の女王 / ラ・ラ・ランド/ パラサイト / フォードvsフェラーリ / ジョーカー / 1917 命をかけた伝令 / ボヘミアンラプソディetc... *Dolby 公式サイトよりDolby Atmos採用映画一覧を確認できる ゲーム Dolby AtmosはPCやXbox Oneといった家庭用ゲームの人気タイトルでも数多く採用されている。特に、近年流行りのFPS(First Person Shooter = 一人称視点シューティング)と呼ばれるジャンルのゲームでは、射撃音を頼りに敵の位置を把握しなければならない。そのため、Dolby Atmosを使った3Dサウンドの再生環境の需要がより高まってきているのだ。 ※Windows PCやXbox OneにおいてヘッドホンでDolby Atmosを楽しみたい場合は、Dolby Access(無料)というアプリをインストールし、Dolby Atmos for Headphonesをアプリ内購入する必要がある。 ●Dolby Atmos採用ゲームの例 Assassin's Creed Origins(Windows PC, Xbox One) / Final Fantasy XV(Windows PC ,Xbox One)Star / Wars Battlefront(Windows PC ,Xbox One) / ACE COMBAT 7: SKIES UNKNOWN(Windows PC, Xbox One) 音楽 Amazon Echo Studio そして2020年1月にCES2020で正式発表されたのが、このDolby Atmosの名を冠した新たな3Dオーディオ再生フォーマット、Dolby Atmos Musicだ。現時点で、国内ではAmazonが提供するAmazon Music HD内のみでサービスを提供しており、同社のスマートスピーカー”Amazon Echo Studio”を用いて再生することができる。アメリカでは音楽ストリーミングサービス"TIDAL"でもDolby Atmos Musicを再生することができ、こちらは対応するPCやスマホなどでも楽しめるようになっている。 ここまで、Dolby Atmosを体験してみて、皆さんはどのような感想を持たれただろうか? 当然ながら多少の個人差はあるにしても、映画であればその空間に入り込んだかのような没入感・豊かな臨場感を体験できたのではないだろうか。あるいは、人によっては「期待したほど音像が動き回っている感じが得られなかった」という方もいるだろう。しかし、それでDolby Atmosの魅力を見限るのはやや早計だ。なぜなら、この技術は、"作品の意図として、音を無意識に落とし込む”くらい自然にミックスすることを可能にしているからだ。それを念頭におき、もう一度、繊細な音の表現に耳を澄ましてみてほしい。 3.ベッドとオブジェクトって何!? 〜Dolby Atmos基礎知識〜 体験を終えたところで、ここからは技術的な側面と基礎知識を押さえていこう。ポイントとなるのは以下の3点だ。 ● ベッド信号とオブジェクト信号 ● 3次元情報を記録するメタデータ ● 再生環境に合わせてレンダリング Dolby Atmosの立体的な音像定位は、2種類の方式を組み合わせて再現されている。 一つはチャンネルベースの信号 ー 5.1.2や7.1.2などあらかじめ定められたスピーカー配置を想定し、そのスピーカーから出力される信号のことを"Bed"と呼んでいる。例えば、BGMやベースノイズといった、あまり指向性が求められない音の再生に向いている。基本は音源とスピーカーが1対1の関係。従来のステレオやサラウンドのミックスと同じなので比較的イメージがつきやすいだろう。 劇場のように、一つのチャンネルが複数のスピーカーで構成されていた場合、そのチャンネルに送った音は複数のスピーカーから再生されることになる。 そしてもう一つはオブジェクトベースの信号 ー 3次元空間内を縦横無尽に動き回る、点音源(ポイントソース)の再生に適した方式だ。例えば、空を飛ぶ鳥の鳴き声や、アクション映画での動きのある効果音の再生に向いている。原理としては、3次元情報を記録するメタデータをオーディオとともに記録・伝送し、再生機器側でそれらを再生環境に合わせてレンダリング(≒変換)することで、再生環境ごとのスピーカー配列の違いをエンコーダー側で吸収できるという仕組みだ。 ある1点に音源を置いた時に、そこから音が聴こえるように、スピーカー送りを最適化するのがレンダラーの役割 Dolby AtmosのチャンネルフォーマットはBed 7.1.2ch(計10ch) + Object118ch(最大)での制作が基本となっている。この"空間を包み込むような音"の演出が得意なベッドと、”任意の1点から聞こえる音”の演出が得意なオブジェクトの両方を組み合わせることによって、Dolby Atmosは劇場での高い臨場感を生み出しているのだ。 4.Dolby Atmos制作を始めよう 〜必要なものは何?〜 Dolby Atmosはその利用目的によって、大きく2種類のフォーマットに分けられる。 まずは、一番最初に登場した映画館向けのフォーマット、Dolby Atmos Cinemaだ。これはまさにフルスペックのDolby Atmosで、先述した7.1.2chのBEDと118chのObjectにより成り立っている。このフォーマットの制作を行うためにはDolbyの基準を満たした音響空間を持つダビングステージでの作業が必要となる。しかも、劇場向けのマスターファイルを作ることができるCinema Rendering and Mastering Unit (Cinema RMU)はDolbyからの貸し出しでしか入手することができない。 もう一つは、Blu-ray やストリーミング配信向けのフォーマット、 Dolby Atmos Homeだ。実は、こちらの大元となるマスターファイル自体は Cinema 向けのものと全く同じものだ。しかし、このマスターファイルから Home 向けのエンコードを行うことで、128chのオーディオを独自の技術を活用して、できる限りクオリティーを担保したまま少ないチャンネル数に畳み込むができる。この技術によって、Blu-rayやNetflixといった家庭向けの環境でも、Dolby Atmos の迫力のサウンドを楽しめるようになった。こちらも、マスターファイルを作成するためには、HT-RMUと呼ばれるハードウェアレンダラーが必要となるが、HT-RMUは購入してスタジオに常設できるというのがCinemaとは異なる点だ。 ●Dolby Atmos制作環境 比較表 ※Dolby Atmos Production SuiteはWeb上、AVID Storeからご購入できるほか、Mastering Suiteにも付属している。 ※Dolby Atmos Dub with RMUについてはDolby Japan(TEL: 03-3524-7300)へお問い合わせください。 ●Cinema 映画館上映を目的としたマスター。ダビングステージでファイナルミックスとマスタリングを行う。Dolby Atmos Print Masterと呼ばれるファイル群をCinema Rendering and Mastering Unit (Cinema RMU)で作成。 ●Home 一般家庭での視聴を目的としたマスター。ニアフィールドモニターによるDolby Atmosスピーカー・レイアウトにてミックスとマスタリングを行う。Dolby Atmos Master File(.atmos)と呼ばれるファイル群をHome-Theater-Rendering and Mastering Unit(HT-RMU)で作成。 Cinema用とHome用のRMUでは作成できるファイルが異なり、スピーカーレイアウト/部屋の容積に関する要件もCinema向けとHome向けで異なる。それぞれ、目的に合わせたRMUを使用する必要がある。ミキシング用のツール、DAW、プラグイン等は共通。 ここまで作品や概要を説明してきたが、そろそろDolby Atmosでの制作を皆さんも始めてみたくなってきただろうか?「でも、自宅に7.1.2chをモニターできる環境が無い!「やってみたいけど、すぐには予算が捻出できない!」という声も聞こえてきそうだが、そんな方にとっての朗報がある。Dolby Atmos Production Suiteを使えば、なんと ¥33,000 (Avid Storeで購入の場合)というローコストから、Dolby Atmos ミックスの最低限の環境が導入できてしまうのだ。このソフトウェア以外に別途必要なものはない。必要なものはスペックが少し高めのマシンと、対応DAW(Pro Tools、Nuendo、DaVinchi etc)、そしてモニター用のヘッドホンのみだ。 多少の制約はあるものの、ヘッドホンを使ったバイノーラル再生である程度のミックスができてしまうので、スタジオに持ち込んでのマスタリング前に自宅やオフィスの空き部屋といったパーソナルな環境でDolby Atmosの仕込みを行うことができる。次の項ではそのワークフローを具体的に紹介していく。 5.自宅で始めるDolby Atmosミックス 〜Dolby Atmos Renderer × Pro Tools 2020.3〜 ここからは最新のPro Tools 2020.3 とProduction Suiteを使って実際のDolby Atmosミックスのワークフローをチェックしていきたい。まず、大まかな流れとしては下記のようになる。PTとレンダラーの接続方法は、Send/Returnプラグインを使う方法とCore Audio経由でやり取りする方法の2種類がある。それでは順番に見ていこう。 1.Dolby Atmos Production SuiteをAvid Storeもしくは販売代理店にて購入しインストール。 2.Dolby Atmos Renderer(以後レンダラー)を起動各種設定を行う。 3.Pro Tools(以後PT) を起動各種設定を行う。※正しいルーティングの確立のため、必ずレンダラー →Pro Toolsの順で起動を行うこと。 4.PTの標準パンナーで3Dパンニングのオートメーションを書き込む。 5.Dolby Atmos RMU導入スタジオに持ち込む。 Send/Returnプラグインを使う方法 ■Dolby Atmos Renderer の設定 ● 左上Dolby Atmos Renderer → Preferences( ⌘+ , )で設定画面を表示 ● Audio driver、External Sync sourceをSend/Return Plug-insに設定 ● Flame rate、Sample rateを設定 ※PTの設定と合わせる HeadphoneのRender modeをBinauralにすることで、標準HRTFでバイノーラル化された3Dパンニングを確認することができる。(※聴こえ方には個人差があります。) ■Pro Tools の設定 ● 新規作成→プロジェクト名を入力→テンプレートから作成にチェック ● テンプレートグループ:Dolby Atmos Production Suite内”Dolby Atmos Renderer Send Return Mono(またはStereo)”を選択→ファイルタイプ:BWF ● 任意のサンプルレート、ビットデプス、I/O設定を入力→作成 ● 設定 → ペリフェラル → Atmosタブ ● チェックボックスに2箇所ともチェックを入れる。 ● RMUホストの欄には”MAC名.local”または”LOCALHOST”と入力。 接続状況を示すランプが緑色に点灯すればOK。一度接続した場合、次回からプルダウンメニューで選択できる。 編集ウィンドウを見てみると、英語でコメントが入力されたいくつかのトラックが並んでいる。 ● まず、一番上の7.1.2Bedという名称のトラック ーここにBedから出力したい7.1.2の音素材をペーストまたはRECする。 ● 次に、その下のObject 11という名称のトラック ーここにObjectから出力したいMonoまたはStereoの音素材をペーストまたはRECする。 ● 上の画像の例では、任意の範囲をドラッグして選択、AudioSuite→Other→Signal Genetatorよりピンクノイズを生成している。 ● このトラックは、画面左側、非表示になっている”SEND_〇〇_IN_ch数”という表記になっているAUXトラックに送られている。 ● このAUXトラックにSendプラグインがインサートされており、パンなどのメタデータとともにレンダラーへと出力される。 試しに再生してみると、レンダラー側が上の画像のような状態になり、信号を受けているチャンネルが点灯している様子が確認できる。 赤丸で囲った部分をクリックしてアウトプットウィンドウを表示し、パンナーのポジションのつまみをぐりぐりと動かしてみよう。 すると、レンダラー内のオブジェクトが連動してぐりぐりと動くのが確認できる。 オートメーションをWriteモードにしてチェックすると、きちんと書き込んだ通りに3Dパンニングされているのが分かる。ここで、トラックの右端”オブジェクト”と書かれているボタンをクリックすると、”バス”という表示に切り替わり、その音はベッドから出力される。つまり、ベッドとオブジェクトをシームレスに切り替えることができるのだ。これは、例えば、映画などで正面のベッドから出力していたダイアローグを、”ワンシーンだけオブジェクトにして、耳元に持ってくる”といった表現に活用できそうだ。 さらにその右隣の三角形のボタンを押すごとに、” このトラックに書き込まれたメタデータをマスターとする ”( 緑点灯 ) か、” 外部のオブジェクトパンニング情報源からREC する ”( 赤丸点灯 ) か、” 何も送受信しない ”( 無点灯 ) か を選択できるようになっている。レンダラー内でレンダリングされた音は、ReturnプラグインからPTへと戻ってくる。あとは、各々のモニター環境に合わせてアウトプットしたり、RECをかけたりすることができる。 以上が、Send/Returnプラグインを利用した一連のルーティングのワークフローになる。今回はテンプレートから作成したが、もちろんはじめから好きなようにルーティングを組むことも可能だ。しかし、チャンネル数が多い場合はやや複雑になってくるので、初めての場合はまずはテンプレートからの作成をおすすめする。 CoreAudioを使う方法 はじめに、Core Audioを使う場合、Sync sourceをMTCかLTC over Audioから選択する必要がある。LTCを使う場合は、PTの130chまでの空きトラックにLTCトラックまたは、Production Suite 付属のLTC Generator プラグインを挿入→レンダラーからそのch番号を指定する。MTCを使う場合はIACバスをというものを作成する必要がある。(※IAC = Inter-application communication) ■IACバスの設定 ● Mac →アプリケーション→ユーティリティ→Audio MIDI設定を開く ● タブメニューのウインドウ→IAC Driverをダブルクリック ※装置名がIACドライバなど日本語になっていた場合レンダラーでの文字化けを防ぐため”IAC Driver”など英語に変更しておくとよい ● +ボタンでポートを追加→名称を”MTC”(任意)に変更→適用をクリック ■Dolby Atmos Renderer 側の設定 ● 左上Dolby Atmos Rendere → Preferences( ⌘+ , )で設定画面を表示 ● Audio driverをCore Audioに設定 ● Audio input deviceを”Dolby Audio Bridge”に設定 ※ここに”Dolby Audio Bridge”が表示されていない場合、Macのシステム環境設定→セキュリティとプライバシー内に関連するアラートが出ていないか確認。 ● External Sync sourceをMTCに設定し、MTC MIDI deviceで先ほど作成したIAC Driver MTCを選択(またはLTC over Audioに設定しCh数を指定) ● Flame rate、Sample rateを設定 ※PTの設定と合わせる ● ヘッドホンでバイノーラルで作業する場合はHeadphone only modeを有効にすると、リレンダリングのプロセスなどを省くため、マシンに余分な負荷をかけることなく作業できる ■Pro Tools 側の設定 ● 設定→プレイバックエンジンを”Dolby Audio Bridge”に。 ● キャッシュサイズはできる限り大きめに設定しておくと、プレイバック時にエラーが発生しにくくなる。 ● 設定→ペリフェラル→同期→MTC送信ポートを先ほど作成した”IAC Driver,MTC”に設定 ● 設定 → ペリフェラル → Atmosタブ(Send/Returnの項目と同様だ) ● チェックボックスに2箇所ともチェックを入れる。 ● RMUホストの欄には”MAC名.local”または”LOCALHOST”と入力。接続状況を示すランプが緑色に点灯すればOK。一度接続した場合、次回からプルダウンメニューで選択できる。 以上で、CoreAudio経由でのルーティングは完了だ。Send/Returnプラグインを利用する時のように大量のAUXトラックが必要ないため、非常にシンプルにセッティングを完了できる。また、ソフトウェアレンダラーでの仕込みから最終のマスタリングでRMUのある環境に持ち込む際にも、I/O設定をやり直さなくてよいという点もメリットの1つだろう。こちらも試しにオーディオ素材を置いて動作を確認していただきたい。 マルチチャンネルサラウンドやバイノーラルコンテンツへの需要は、日々着実に高まりつつあることが実感される。今回はゼロからはじめるDolby Atmosということで、Dolby Atmosとはどのようなものなのか、そしてDolby Atmosミックスを始めるためにはどこからスタートすればいいのか、という足がかりまでを紹介してきた。「思ったより気軽に始められそう」と、感じていただいた方も多いのではないのだろうか。 「一度体験すれば、その素晴らしさは分かる。ただ、一度体験させるまでが難しい。」というのが3Dオーディオの抱える最大の命題の命題かもしれない。これを解決するのは何よりも感動のユーザー体験を生み出すことに尽きる。そのために今後どのような3Dオーディオ制作ノウハウを蓄積していけるのか、全てのクリエイターが手を取り合って研鑽することが、未来のコンテンツを創り上げる第一歩と言えるのかもしれない。 *ProceedMagazine2020号より転載
Mac mini RMU〜コンパクトな構成でDolby Atmos ミキシングを実現
ホームシアター向けDolby Atmos(Dolby Atmos Home)マスターファイルを作成することが出来るHT-RMUシステムをMac miniで構成。劇場映画のBlu-RayリリースやVOD向けのDolby Atmos制作には必須のDolby Atmos HT-RMUシステムは、Dolby社の認証が下りている特定の機器構成でなければ構築することが出来ない。従来、認証が下りていたのは専用にカスタマイズされたWindows機やMac Proといった大型のマシンのみであったが、ついにMac miniを使用した構成の検証が完了し、正式に認可が下りた。 Pro Toolsシステムとの音声信号のやりとりにDanteを使用する構成と、MADIを使用する構成から選択することが可能で、どちらも非常にコンパクトなシステムで、フルチャンネルのDolby Atmos レンダリング/マスタリングを実現可能となっており、サイズ的にも費用的にも従来よりかなりコンパクトになった。 HT-RMUの概要についてはこちらをご覧ください>> ◎主な特徴 Dolby Atmosのマスター・ファイルである「.atmos」ファイルの作成 .atmosファイルから、家庭向けコンテンツ用の各フォーマットに合わせた納品マスターの作成 「.atmos」「Dolby Atmos Print Master」「BWAV」を相互に変換 Dolby Atmos環境でのモニタリング Dolby Atmosに対応するDAWとの連携 DAWとの接続はDanteまたはMADIから選択可能 ◎対応する主なソリューション Dolby Atmos に対応したBlu-ray作品のミキシング〜マスタリング Dolby Atmos に対応したデジタル配信コンテンツのミキシング〜マスタリング Dolby Atmos 映画作品のBlu-ray版制作のためのリミキシング〜リマスタリング Dolby Atmos 映画作品のデジタル配信版制作のためのリミキシング〜リマスタリング Dolby Atmos 映画作品のためのプリミキシング 構成例1:Dante ※図はクリックで拡大 RMUとPro Toolsシステムとの接続にDanteを使用する構成。拡張カードを換装したPro Tools | MTRXやFocusrite製品などの、Dante I/Fを持ったI/Oと組み合わせて使用することになる。この構成ではLTCの伝送にDanteを1回線使用してしまうため、扱えるオーディオが実質127chに制限されてしまうのが難点だが、シンプルなワイヤリング、ソフトウェア上でのシグナル制御など、Danteならではの利点も備えている。しかし、最大の魅力はなんと言ってもRMU自体が1U ラックサイズに納ってしまう点ではないだろうか。 構成例2:MADI ※図はクリックで拡大 こちらはMADI接続を使用する構成。歴史があり、安定した動作が期待できるMADIは多チャンネル伝送の分野では今でも高い信頼を得ている。この構成の場合、MADIまたはアナログの端子を使用してLTCを伝送するため、128chをフルにオーディオに割り当てることが出来るのも魅力だ。また、この構成の場合はMADI I/FをボックスタイプとPCIeカードから選択することが出来る。
Mac mini + Pro Tools / そうだ!Mac miniで行こう!
制作現場の業界標準として導入されているMac Pro。新Mac Proの登場も迫っていますが、もう一つ改めてその存在を取り上げたいのがMac miniです。旧Mac Pro(黒)が衝撃的なフォルムで登場したのは2013年のこと、すでに6年の時間が経過し、ブラッシュアップを重ねて新モデルに移行しようとしています。その一方でMac miniも着実な進化を遂げており、現行モデルでは旧Mac Pro(黒)のスペックを勝るとも劣らない構成が可能に。Pro ToolsほかアプリケーションのMac OSへの対応も考慮すると、安定した旧OSとの組み合わせでの稼働も可能となるMac miniという選択肢は一気に現実味を帯びてきます。安定した制作環境が求められる業務の現場に新たなセレクトを、Mac miniでのシステム構築を見ていきます。 ◎チェックすべき4つのポイント 1:安定した旧OSでの対応も可能な制作環境 Pro Toolsのシステム要件とされているのは、macOS 10.12.6, 10.13.6, あるいは 10.14.6 のOSを搭載したIntel® Mac。Mac miniでPro Toolsとも緊密な安定したOS環境を整えることにより万全の制作体制を構築することも可能です。 2:Avid Pro Tools 動作推奨モデル Avidの推奨動作環境として挙げられていることもMac miniでのシステムアップにとって安心材料です。Pro Toolsシステム要件ではサポートする拡張シャーシなど環境構築に必要な情報も記載していますので、詳細は下記よりご確認ください。 <参照>Avid Knowledge Base:Pro Tools 2018 / 2019 システム要件 3:旧MacProとも劣らない充実のスペック 多彩なオプション選択で、旧Mac Proに勝るとも劣らないほどのスペックを構築。特にCPU・メモリの世代交代はパフォーマンスに大きな影響をもたらしているほか、メモリのオプション設定も旧Mac Proで最大32GBであったのに対し、64GBまで増設可と大きな魅力に。充実のスペックで制作システムのコアとして機能します。 4:導入しやすいコストとサイズ、そして拡張デバイスでの可能性 最大スペックのオプション選択でも¥389,180税込と、導入コストの優位性は見逃せません。約20cm四方・厚さ3.6cmのスクエアな筐体は省スペース性にも優れ、TB3の広帯域に対応した拡張デバイスがシステムをスマートに、そして制作の可能性を広げます。 ベンチマークで見る、いまのMac miniのポジション ◎PassMark・ベンチマークスコア比較 Mac miniのCPUは第8世代Core Processer - Coffee Lakeです。業務導入での比較対象となる旧Mac Pro(黒)は第3世代Core Processer - Ivy Bridgeを採用しています。なんと世代で言えば5世代もの進化の過程があり、単純にクロックスピードだけで比較することはできなさそうです。そこで、ベンチマークテストの結果をまとめてみました。 まず、第3世代のCore i7との比較ですが、当時のフラッグシップとなるクアッドコアのCore i7-3770K(3.5-3.9GHz)のスコアは9487、対してMac miniでオプション選択できるは第8世代 6コア Core i7-8700(3.2-4.6GHz)は15156の数値。実に1.6倍ものスコアの開きがあり、同一クロックであれば約2倍のスペックを持つと考えても良いのではないでしょうか。また、旧Mac Pro(黒)のCPUとなるXeon E5-1650v2(3.5GHz)とも比較すると、第8世代を携えたMac miniのスコアが上回るという逆転現象に行き着きます。世代間でのスペック向上は非常に大きく見逃せない結果です。 メモリに関しても、旧Mac Pro(黒)はDDR3 1866MHz ECC、Mac miniはDDR4 2666MHzとメモリ自体の世代も異なってきます。DDR3とDDR4では理論値として同一クロックでのデータの転送速度は2倍に、さらに動作クロック自体も1.5倍となっていることを考えると、実際の制作作業におけるパフォーマンスは大きく変わってきそうです。 ◎Mac miniのプライスレンジを確認 Mac miniのラインナップは主に2つ、クアッドコアと6コアのCPUとなります。そのうちPro Toolsの推奨モデルとしてAvidホームページに掲載されているMac miniは「Late 2018 Mac mini 8,1 6-Core i7 'Coffee Lake' 3.2 GHz」および、「Late 2018 Mac mini 8,1 6-Core i5 'Coffee Lake' 3.0 GHz」の2機種ですが、Pro Tools|UltimateではIntel® Core i7 プロセッサーを推奨していますので、6コア 3.2GHz Core i7のCPUを選択することになります。 ここにメモリの要件「16GB RAM (32GB以上を推奨)」を考慮すると、メモリ容量違いの上記3パターンが基準となって、ストレージ、ネットワークのオプションを選択する流れです。単純比較はできませんが、旧Mac Pro(黒)の6コアベースモデルが3.5GHz、16GBメモリ、256SSDの仕様で¥328,680税込であったことを考えると、Mac miniが3.2GHz 6コア、64GBメモリ、1TB SSDでまったくの同価格という事実は見逃せないポイントです。 <参照>Avid Knowledge Base:Pro Tools 2018 / 2019 システム要件 ◎Mac mini + Pro Tools|Ultimate System ・PLAN A:旧MacProに勝るとも劣らないパワフルなフルスペックバージョンで安定の制作環境を。 Mac miniの持つポテンシャルをいかんなく発揮させるのが、このフルスペックバージョン。メモリは64GB、2TBのSSDを選択したうえにビデオ関連デバイスやサーバーストレージとのネットワークも考慮して10GbEのオプションもセレクト。可能な限りのすべてを詰め込んでもこの価格帯に収まります。拡張シャーシとしては3つのSonnet Technoplogy社製品をセレクト。eGFXはTB3対応を果たしながらも低コストで導入できる1 Slotのモデル。Sonnet/Echo Express III-DとラックマウントのIII-Rは3枚のシングル幅、フルサイズのPCIeカードをサポートし、すでに導入実績も多数でHDXカードを複数枚導入するには必須です。 ・PLAN B:Pro Tools | Ultimateシステム要件をクリアした、コストパフォーマンスに優れた仕様。 もう一つの選択肢は、Mac miniのコストパフォーマンスを最大限に享受してPro Tools | Ultimateシステム要件をクリアした16GBメモリの仕様。もちろんシャーシを加えたHDXシステムもあれば、HD Native TBを選択してコスト的にPro Tools | Ultimateへの最短距離を取ることもできます。また、業務用途のサブシステムとしても魅力的な価格ゾーンにあり、マシンの将来的な転用も念頭に置けば有効的なセレクトと言えそうです。ちなみに、32GBへの増設は+¥44,000(税別)、64GBへは¥88,000(税別)となっており、実際の制作内容と照らし合わせて選択の落としどころを見つけたいところ。 ・ADD ON:HDXシステムはもちろん、RAID構築から4Kを見据えた導入まで拡がる可能性。 Avid HDX/HD NativeでPro Tools | Ultimateシステムを導入することもさることながら、元々のMac miniの拡張性を活かしたRAIDの構築や、外付けのグラフィックアクセラレーターも視野に入ります。Thunderbolt3の一方をシャーシ経由でHDXに、もう一方をeGPU PROに、さらに10GbE経由でNEXISなどサーバーストレージになど、制作システムのコアとしての活用も見えてきます。 ◎その実力は、いままさに最適な選択に! コストやそのサイズ感だけではもうありません。Mac miniは長らくエントリーモデルとしての位置付けであったかもしれませんが、実は必要な機能だけを絞り込んで余計なものは排除した、業務的で実務を見据えたマシンというイメージに変容してきています。さらに最近のニュースでは、Mac OSに対応したDolby AtmosのHT-RMU(HomeTheateer-Rendering and Mastering Unit)もソフトウェアVer.3.2からMac miniでの構築が従来の半分のコストで可能となっており、その活用の幅も広がっています。また、拡張デバイスはさまざまな3rd Partyから提案されていて、その組み合わせも実に多彩。ブレーンにあたる部分をMac miniに請け負わせるシステム構築はスペックも見返すと理にかなっている内容といえそうです。Mac miniを用いた最適な選択で安定の制作環境を。ぜひともご準備ください!
既存Pro Tools | HDX システムを96kHzライブRec.システムにリーズナブルにグレードアップ〜DiGiGrid MGB/MGO + DLI
プラグインメーカー最大手のひとつであるWAVES社とデジタルコンソールの雄DiGiCo社によって開発されたDiGiGrid製品を活用することで、近年主流となりつつある96kHzでのライブコンサートをマルチチャンネルでPro Tools | HDX システムに接続することが可能になります。 コンパクトな筐体に2系統のMADI入出力ポートを備えたMGB/MGO、2系統のDigiLinkポートを備えたわずか1UのDLIを導入するだけで、既にお持ちのHDXカード1枚につき64ch(48kHz/96kHz)のMADI信号をPro Toolsとの間でやり取りすることが可能です。また、既存のDigiLink対応MADIインターフェイスと比較して、導入費用の面でも大きな魅力を備えています。 ◎主な特徴 ・ 既存のPro Tools | HDX システムはそのままに、MADI I/O 機能を追加可能 ・ HDXカード1枚に対して64ch のMADI信号をPro Toolsとやり取り可能 ・ 96kHz時にも64ch分のMADI伝送が可能 ・ 1Gbpsネットワークスイッチを導入することで、手軽にバックアップRec機能を追加 ・ ネットワークオーディオの利点である柔軟な拡張性と冗長性 ◎システム構成例1 システムはMADIとSoundGridのインターフェイスであるMGB/MGO + DigiLinkとSoundGridのインターフェイスであるDLIから成っています。MGB/MGOは単独でPCのネットワーク端子に接続して入出力させることも可能です。また、MGB/MGOは2ポートのMADI端子を搭載しているため、2つのMADIポートを使用して96kHz時でもPro Tools | HDXシステムとの間で最大64Chの入出力が行えます。ライブレコーディングだけでなく、バーチャルリハーサルにも活用可能なシステムを構築可能です。 ◎システム構成例2 ネットワークオーディオ・デバイスであるDiGiGrid導入の最大の利点は、1Gbpsネットワークスイッチと併用することで柔軟性の高い拡張性とリダンダシーを手軽に追加することが可能な点です。画像の例では既存PCを流用することでバックアップ用のDAWを追加しています。無償でダウンロードできるWaves社のTracksLiveを使用すれば、ネイティブ環境で合計128chまでのレコーディングとバーチャル・リハーサルのためのプレイバックが可能なシステムを手軽に構築可能です。 ネットワークを活用してさらなる拡張性と機能性を追加可能 また、このようにDLIを導入したシステムでは、様々なSoundGrid対応インターフェイスをPro Tools HDXシステムに追加することが可能です。モニタリング用のインターフェイスを追加して、収録時の検聴やインプットの追加、ADATやAES/EBU機器へのデジタル入出力、Ethernetケーブルを使用するネットワーク接続を生かし、長距離でも自由なI/Oの構築がフレキシブルに行えます。 また、SoundGrid 対応Serverを追加することで、対応プラグインを外部プロセッサーで動作させることができます。レコーディング時にWavesやSonnoxなどのプラグインのかけ録りを行う、低レイテンシーでプラグインをかけて送出するなど、コンピューターのCPUに負担をかけずにプラグインをかけられるDiGiGridシステムは失敗の許されないライブコンサートの現場に相応しいソリューションと言えるのではないでしょうか。
Focusrite Red/RedNetシリーズ ~Danteネットワークによる最新レコーディング環境
Ethernetケーブルによるビデオ/オーディオの伝送に関する規格統一を図ったSMPTE ST2110の制定により、にわかに注目度の上がるAoIP(Audio over IP、ネットワークオーディオ)。そうした動きに応えるように、新製品にDanteコネクションが搭載されている例や、Dante拡張カードのリリースなどのニュースを多く目にするようになりました。 Focusrite Redシリーズ / RedNetシリーズはDanteに標準対応するインターフェイスをラインナップ、必要な規模に応じた柔軟なセットアップと高い拡張性を提供します。Pro Tools HDXやMADIにも対応し、既存システムとの統合にも対応。イーサーネットケーブルで完結するシンプルなセットアップ、信頼度の高いオーディオ伝送、ネットワーク形成による自由なルーティングなど、Danteの持つ利点を最大限に享受することが可能です。 ◎主な特徴 ・柔軟で拡張性の高いシステム設計 ・ネットワーク内であれば完全に自由なルーティング ・Pro Tools | UltimateやMADIなどの既存システムとの統合性の高さ ◎システム構成例1 RedNetシリーズによるレコーディング用途のスタジオセットアップ例。豊富なI/Fにより音声信号の入り口から出口までをDanteによって完結することが可能。Pro Tools | HDXシステムとの統合により、既存のワークフローを最大限維持したまま、Danteによる利点を導入します。システムの中心にコンソールがない環境でも、マイクプリ、キュー/トークバック、モニターコントロールといった業務に欠かせない機能を手元からコントロールすることが出来ます。 ◎システム構成例2 コンパクトなDanteシステムに、WAVESプロセッシングを追加した例です。1Uの筐体に8IN/10OUTアナログ(マイクプリ4機を含む)、16x16デジタル、32x32Danteという豊富なI/Oを備えたRed4PreはDigiLinkポートも標準搭載。WGS Bridge for DanteがDanteネットワークとSoundGridネットワークをシームレスに統合。システムにニアゼロ・レイテンシーのWAVESプロセッシングを追加します。
Pro Tools | S6 + Pro Tools | MTRX ~ミキシングを再定義する革新的コンソール・ソリューション~
DAWの進化とともに、今ではほとんどすべての作業はPro Toolsの内部ミックスで完結するようになりました。Pro Tools | S6は豊富なビジュアル・フィードバックと高いカスタマイズ性・拡張性により、Pro Toolsが持つ多くの機能へより素早く確実にアクセスすることを可能にします。Avid最新のI/OでもあるPro Tools | MTRXに備わるモニターコントロールセクションはPro Tools | S6からコントロールすることが可能。高品位なサウンドをPro Toolsシステムに提供するだけでなく、Pro Tools | S6システムを最新のミキシング・ソリューションへと昇華します。 ◎主な特徴 ・圧倒的に豊富なビジュアルフィードバックにより、必要な情報を素早く確実に把握。 ・モジュール方式のハードウェアは必要十分な規模での導入と、導入後の拡張に柔軟に対応。 ・タッチスリーンを採用したセンターセクションで、多くの機能を素早くコントロール。 ・Pro Tools | MTRXとの連携により、モノ、ステレオからマルチチャンネル・モニタリングまでを完璧にコントロール。 ・最大8までのEucon対応アプリケーションを同時にコントロール。大規模セッションでも効率的にオペレートが可能。 ◎システム構成例1 Pro Tools | S6 + Pro Tools | MTRXのもっともシンプルな構成。Pro Tools | MTRXは筐体にMADIポートを備えるほか、必要に応じてオプションカードを追加すれば様々な信号のハブとしてまさにコンソールとしての役割を担うことが可能です。 ◎システム構成例2 最大8つまでのEUCON対応DAW/アプリケーションと同時に接続可能なPro Tools | S6のポテンシャルを活用すれば、複数のPro Toolsシステムを1枚のサーフェースでコントロールすることが可能です。フェーダーひとつから、どのシステムのどのチャンネルをアサインするかを選択出来るため、各DAWでS6のエリアを分担して作業することも可能です。
Pro Tools | S3+Pro Tools | Dock ~Mixをフィジカルにコントロールするプロフェッショナルシステム~
Avid製ライブコンソールS3Lのために開発された堅牢性とスムースな操作性を兼ね備えた16フェーダーのコントロールサーフェスPro Tools | S3。Pro Tools | S6で培われたノウハウを詰め込んだPro Tools | Dock。コンパクトでありながらミックスをパワフルにコントロールするこの組み合わせがあれば、大型コンソールに匹敵するほど効率よくミックス作業を行うことが可能になります。 主な特徴 ・上位モデルならではの堅牢でスムースな16フェーダー、豊富なノブ/スイッチ、タッチストリップなどにより、プロジェクトを素早く俯瞰、コントロールを容易にします。(Pro Tools | S3) ・4in/6outのCore Audioインターフェースとして動作(Macのみ)。2つのXLR(Mic/Line)、2つのTRS(Line)インプットも兼ね備え、ボーカルやギターを急遽追加しなければならないような時にも素早く対応が可能。(Pro Tools | S3) ・Pro Tools | Control appをインストールしたiPadとともに使用することで、Pro Tools | S6のセンターセクションに匹敵するコントロールを実現。(Pro Tools | Dock) ・iPadによるタッチスクリーンと高品位なハードウェアにより、スピードと操作性を両立。(Pro Tools | Dock) システム構成 iPadはWiFi圏内にあればPro Tools | Control appからPro Toolsをコントロールすることが出来ます。iPadを持ってブースへ入り、ブースからレコーディングを開始/停止するなどの操作が可能。LANポートを備えたWiFiルーターを導入することで、S3、Dock、コンピューターのネットワークとiPadの安定運用を同時に実現する組み合わせがお勧めです。ご要望に合わせたiPad、WiFiルーターのモデルをお見積もりいたします。
Pro Tools | Ultimate + HD MADI ~多チャンネル伝送を実現したコンパクトシステム~
多数のチャンネルを扱うことの多いポストプロダクション業務。5.1chサラウンドが標準となり、Dolby Atmosや22.2chなどのイマーシブサラウンドが浸透していくことで、MA作業で必要とされるチャンネル数はさらに増加していくと考えられます。Pro ToolsシステムのI/OにPro Tools | HD MADIを選べば、わずか1Uの筐体でHDXカード1枚の上限である64ch分の信号を外部とやりとりすることが可能になります。96kHz時も48kHz時と同様、64chを伝送することが出来ることも大きな利点です。 ◎主な特徴 ・わずか1ラック・スペースのインターフェースと2本のケーブルを介して、最大64のオーディオ・ストリームをPro Tools | HDシステムと他のMADIデバイス間で送受信できます。 ・すべての入出力を超高品質でサンプルレート変換できます。セッションを変換したり、外部MADIデバイスをダウンサンプリングしたりする面倒な作業は不要です。 ・別のフォーマット・コンバーターを用意することなく、オプティカル接続と同軸接続の両方で、さらに多様なMADIデバイスをレコーディングのセットアップに追加できます。 ・出力に対してサンプル・レート変換を使用する際、専用のBNCワード・クロックおよびXLR AES/EBU接続を介して外部クロックと同期することで、ジッターを最小限に抑えます。 ◎システム構成 Pro Tools | HD MADIの構成は、HDXカード1枚に対してI/O 1台という極めてシンプルなもの。MADI対応の音声卓となら直接接続が可能なほか、音声卓との間にMADIコンバーターを導入すれば、Pro Toolsと様々なデバイスを多チャンネルで接続することが可能となります。