Media
Media
2021/11/02
Sound on 4π Part 4 / ソニーPCL株式会社 〜360 Reality Audioのリアルが究極のコンテンツ体験を生む〜
ソニーグループ内でポストプロダクション等の事業を行っているソニーPCL株式会社(以下、ソニーPCL)。360RAは音楽向けとしてリリースされたが、360RAを含むソニーの360立体音響技術群と呼ばれる要素技術の運用を行っている。昨年システムの更新を行ったMA室はすでに360RAにも対応し、360立体音響技術群のテクノロジーを活用した展示会映像に対する立体音響の制作、360RAでのプロモーションビデオのMA等をすでに行っている。
独自のアウトプットバスで構成されたMA室
ソニーPCLは映像・音響技術による制作ソリューションの提供を行っており、360立体音響技術群を活用した新しいコンテンツ体験の創出にも取り組んでいる。現時点では映像と音声が一緒になった360RAのアウトプット方法は確立されていないため、クライアントのイメージを具現化するための制作ワークフロー構築、イベント等でのアウトプットを踏まえた演出提案など、技術・クリエイティブの両面から制作に携わっている。
この更新されたMA室はDolby Atmosに準拠したスピーカー設置となっている。360RA以前にポストプロダクションとしてDolby Atmosへの対応検討が進んでおり、その後に360RAへの対応という順番でソリューションの導入を行っている。そのため、天井にはすでにスピーカーが設置されていたので、360RAの特徴でもあるボトムへのスピーカーの増設で360RA制作環境を整えた格好だ。360RAはフルオブジェクトのソリューションとなるため、スピーカーの設置位置に合わせてカスタムのアウトプットバスを組むことでどのようなスピーカー環境にも対応可能である。360RACSには最初から様々なパターンのスピーカーレイアウトファイルが準備されているので、たいていはそれらで対応可能である。とはいえスタジオごとのカスタム設定に関しても対応を検討中とのことだ。
📷デスクの前方にはスクリーンが張られており、L,C,Rのスピーカーはこのスクリーンの裏側に設置されている。スクリーンの足元にはボトムの3本のスピーカーが設置されているのがわかる。リスニングポイントに対して机と干渉しないギリギリの高さと角度での設置となっている。
📷できる限り等距離となるように、壁に寄せて設置ができるよう特注のスタンドを用意した。スピーカーは他の製品とのマッチを考え、Neumann KH120が選ばれている。
360RAの制作にあたり、最低これだけのスピーカーがあったほうが良いというガイドラインはある。具体的には、ITU準拠の5chのサラウンド配置のスピーカーが耳の高さにあたる中層と上空の上層にあり、フロントLCRの位置にボトムが3本という「5.0.5.3ch」が推奨されている。フル・オブジェクトということでサブウーファーchは用意されていない。必要であればベースマネージメントによりサブウーファーを活用ということになる。ソニーPCLではDolby Atmos対応の部屋を設計変更することなく、ボトムスピーカーの増設で360RAへと対応させている。厳密に言えば、推奨環境とは異なるが、カスタムのアウトプット・プロファイルを作ることでしっかりと対応している。
ソニーPCLのシステムをご紹介しておきたい。一昨年の改修でそれまでの5.1ch対応の環境から、9.1.4chのDolby Atmos対応のスタジオへとブラッシュアップされている。スピーカーはProcellaを使用。このスピーカーは、奥行きも少なく限られた空間に対して多くのスピーカーを増設する、という立体音響対応の改修に向いている。もちろんそのサウンドクオリティーも非常に高い。筐体の奥行きが短いため、天井への設置時の飛び出しも最低限となり空間を活かすことができる。この更新時では、既存の5.1chシステムに対しアウトプットが増えるということ、それに合わせスピーカープロセッサーに必要とされる処理能力が増えること、これらの要素を考えてAudio I/OにはAvid MTRX、スピーカープロセッサーにはYAMAHA MMP1という組み合わせとなっている。
📷天井のスピーカーはProcellaを使用。内装に極力手を加えずに設置工事が行われた。天井裏の懐が取れないためキャビネットの厚みの薄いこのモデルは飛び出しも最小限にきれいに収まっている。
4π空間を使い、究極のコンテンツ体験を作る
なぜ、ソニーPCLはこれらの新しいオーディオフォーマットに取り組んでいるのであろうか?そこには、歴史的にも最新の音響技術のパイオニアであり、THX認証(THXpm3)でクオリティーの担保された環境を持つトップレベルのスタジオであるということに加えて、顧客に対しても安心して作業をしてもらえる環境を整えていくということに意義を見出しているからだ。5.1chサラウンドに関しても早くから取り組みを始め、先輩方からの技術の系譜というものが脈々と続いている。常に最新の音響技術に対してのファーストランナーであるとともに、3D音響技術に関してもトップランナーで在り続ける。これこそがソニーPCLとしての業界におけるポジションであり、守るべきものであるとのお話をいただいた。エンジニアとしての技術スキルはもちろんだが、スタジオは、音響設計とそこに導入される機材、そのチューニングと様々な要素により成り立っている。THXは一つの指標ではあるが、このライセンスを受けているということは、自信を持ってこのスタジオで聴いた音に間違いはないと言える、大きなファクターでもある。
📷デスク上は作業に応じてレイアウトが変更できるようにアームで取り付けられた2つのPC Displayと、Avid Artist Mix、JL Cooper Surrond Pannerにキーボード、マウスと機材は最小限に留めている。
映像に関してのクオリティーはここで多くは語らないが、国内でもトップレベルのポストプロダクションである。その映像と最新の3D立体音響の組み合わせで、「究極のコンテンツ体験」とも言える作品を作ることができるスタジオになった。これはライブ、コンサート等にとどまらず、歴史的建造物、自然環境などの、空気感をあますことなく残すことができるという意味が含まれている。自然環境と同等の4πの空間を全て使い音の記録ができる、これは画期的だ。商用としてリリースされた初めての完全なる4πのフォーマットと映像の組み合わせ、ここには大きな未来を感じているということだ。
また、映像とのコラボレーションだけではなく、ソニー・ミュージックスタジオのエンジニアとの交流も360RAによりスタートしているということだ。これまでは、音楽スタジオとMAスタジオという関係で素材レベルのやり取りはあったものの、技術的な交流はあまりなかったということだが、360RAを通じて今まで以上のコミュニケーションが生まれているということだ。ソニーR&Dが要素を開発した360立体音響技術群、それを実際のフォーマットに落とし込んだソニーホームエンタテイメント&サウンドプロダクツなど、ソニーグループ内での協業が盛んとなり今までにない広がりを見せているということだ。このソニーグループ内の協業により、どのような新しい展開が生まれるのか?要素技術である360立体音響技術群の大きな可能性を感じる。すでに、展示会場やイベント、アミューズメントパークなど360RAとは異なる環境でこの技術の活用が始まってきている。フルオブジェクトには再生環境を選ばない柔軟性がある。これから登場する様々なコンテンツにも注目をしたいところだ。
現場が触れた360RAのもたらす「リアル」
360RAに最初に触れたときにまず感じたのは、その「リアル」さだったということだ。空間が目の前に広がり、平面のサラウンドでは到達できなかった本当のリアルな空間がそこに再現されていることに大きな驚きがあったという。ポストプロダクションとしては、リアルに空間再現ができるということは究極の目的の一つでもある。音楽に関しては、ステレオとの差異など様々な問題提議が行われ試行錯誤をしているが、映像作品にこれまでにない「リアル」な音響空間が加わるということは大きな意味を持つ。報道、スポーツ中継などでも「リアル」が加わることは重要な要素。当初は即時性とのトレードオフになる部分もあるかもしれない。立体音響でのスポーツ中継など想像しただけでも楽しみになる。
実際の使い勝手の詳細はまだこれからといった段階だが、定位をDAWで操作する感覚はDTS:Xに近いということだ。将来的にはDAWの標準パンナーで動かせるように統合型のインターフェースになってほしいというのが、現場目線で求める将来像だという。すでにDAWメーカー各社へのアプローチは行っているということなので、近い将来360RAネイティブ対応のDAWなども登場するのではないだろうか。
もともとサラウンドミックスを多数手がけられていたことから、サウンドデザイン視点での試行錯誤もお話しいただくことができた。リバーブを使って空間に響きを加える際にクアッド・リバーブを複数使用し立方体を作るような手法。移動を伴うパンニングの際に、オブジェクトの移動とアンプリチュード・パンを使い分ける手法など、360RAの特性を色々と研究しながら最適なミックスをする工夫を行っているということだ。
3Dと呼ばれる立体音響はまさに今黎明期であり、さまざまなテクノロジーが登場している途中の段階とも言える。それぞれのメリット、デメリットをしっかりと理解し、適材適所で活用するスキルがエンジニアに求められるようになってきている。まずは、試すことから始めそのテクノロジーを見極めていく必要があるということをお話いただいた。スペックだけではわからないのが音響の世界である。まずは、実際に触ってミックスをしてみて初めて分かる、気づくことも多くある。そして、立体音響が普及していけばそれに合わせた高品位な映像も必然的に必要となる。高品位な映像があるから必要とされる立体音響。その逆もまた然りということである。
📷上からAntelope Trinity、Avid SYNC HD,Avid MTRX、YAMAHA MMP1が収まる。このラックがこのスタジオのまさに心臓部である。
📷ポスプロとして従来のサラウンドフォーマットへの対応もしっかりと確保している。Dolby Model DP-564はまさにその証ともいえる一台。
📷このiPadでYAMAHA MMP1をコントロールしている。このシステムが多チャンネルのモニターコントロール、スピーカーマネージメントを引き受けている。
ソニーPCLでお話を伺った喜多氏に、これから立体音響、360RAへチャレンジする方へのコメントをいただいた。「まずは、想像力。立体空間を音で表現するためには想像力を膨らませてほしい。従来のステレオ、5.1chサラウンドのイメージに縛られがちなので、想像力によりそれを広げていってもらいたい。この情報過多の世界で具体例を見せられてばかりかもしれないが、そもそも音は見えないものだし、頭の中で全方向からやってくる音をしっかりとイメージして設計をすることで、立体音響ならではの新しい発見ができる。是非とも誰もが想像していなかった新しい体験を作り上げていってほしい」とのことだ。自身もソニーグループ内での協業により、シナジーに対しての高い期待と360RAの持つ大きな可能性を得て、これからの広がりが楽しみだということだ。これから生まれていく360RAを活用した映像作品は間違いなく我々に新しい体験を提供してくれるだろう。
ソニーPCL株式会社
技術部門・アドバンスドプロダクション2部
テクニカルプロダクション1課
サウンドスーパーバイザー 喜多真一 氏
*取材協力:ソニー株式会社
*ProceedMagazine2021号より転載
Media
2021/10/26
Sound on 4π Part 3 / 360 Reality Audio Creative Suite 〜新たなオーディオフォーマットで行う4π空間への定位〜
360 Reality Audio(以下、360RA)の制作ツールとして満を持してこの4月にリリースされた360 Reality Audio Creative Suite(以下、360RACS)。360RAの特徴でもあるフル・オブジェクト・ミキシングを行うツールとしてだけではなく、360RAでのモニター機能にまで及び、将来的には音圧調整機能も対応することを計画している。具体的な使用方法から、どのような機能を持ったソフトウェアなのかに至るまで、様々な切り口で360RACSをご紹介していこう。
>>Part 1 :360 Reality Audio 〜ついにスタート! ソニーが生み出した新たな時代への扉〜
>>Part 2 :ソニー・ミュージックスタジオ 〜360 Reality Audio Mixing、この空間を楽しむ〜
全周=4π空間内に音を配置
360RACSのワークフローはまとめるとこのようになる。プラグインであるということと、プラグインからモニタリング出力がなされるという特殊性。最終のエンコードまでが一つのツールに詰め込まれているというところをご確認いただきたい。
360RACSは、アメリカAudio Futures社がリリースするプラグインソフトである。執筆時点での対応プラグイン・フォーマットはAAX、VSTとなっている。対応フォーマットは今後随時追加されていくということなので、現時点で対応していないDAWをお使いの方も読み飛ばさずに待ってほしい。Audio Futures社は、音楽ソフトウェア開発を行うVirtual Sonic社の子会社であり、ソニーとの共同開発契約をもとに、ソニーから技術提供を受け360RACSを開発している。360RAコンテンツの制作ツールは、当初ソニーが研究、開発用として作ったソフトウェア「Architect」のみであった。しかしこの「Architect」は、制作用途に向いているとは言えなかったため、現場から様々なリクエストが集まっていたことを背景に、それらを汲み取り制作に向いたツールとして新たに開発されたのがこの360RACSということになる。
それでは具体的に360RACSを見ていきたい。冒頭にも書いたが360RACSはプラグインである。DAWの各トラックにインサートすることで動作する。DAWの各トラックにインサートすると、360RACS上にインサートされたトラックが追加されていく。ここまで準備ができれば、あとは360RACS内で全周=4π空間内にそれぞれの音を配置していくこととなる。これまで音像定位を変化させるために使ってきたパンニングという言葉は、水平方向の移動を指す言葉である。ちなみに、縦方向の定位の移動を指す言葉はチルトだ。立体音響においてのパンニングにあたる言葉は確立されておらず、空間に定位・配置させるという表現となってしまうことをご容赦願いたい。
360RACS内で音像を定位させるには、画面に表示された球体にある音像の定位位置を示すボール状のポイントをドラッグして任意の場所に持っていけば良い。後方からと、上空からという2つの視点で表示されたそれぞれを使うことで、簡単に任意の場所へと音像を定位させることができる。定位をさせた位置情報はAzimuth(水平方向を角度で表現)とElevation(垂直方向を角度で表現)の2つのパラメータが与えられる。もちろん、数値としてこれらを入力することも可能である。
📷360RACSに送り込まれた各オブジェクトは、Azimuth(アジマス)、Elavation、Gainの3つのパラメーターにより3D空間内の定位を決めていくこととなる。
360RAでは距離という概念は無い。これは現時点で定義されているMPEG-Hの規格にそのパラメータの運用が明確に定義されていないということだ。とはいえ、今後サウンドを加工することで距離感を演出できるツールやなども登場するかもしれない。もちろん音の強弱によっても遠近をコントロールすることはできるし、様々な工夫により擬似的に実現することは可能である。ただ、あくまでも360RAのフォーマット内で、という限定された説明としては距離のパラメーターは無く、360RAにおいては球体の表面に各ソースとなる音像を定位させることができるということである。この部分はネガティブに捉えないでほしい。工夫次第でいくらでも解決方法がある部分であり、これからノウハウ、テクニックなどが生まれる可能性が残された部分だからだ。シンプルな例を挙げると、360RACSで前後に同じ音を定位させ、そのボリューム差を変化させることで、360RAの空間内にファントム定位を作ることも可能だということである。
4π空間に定位した音は360RACSで出力
360RACSはそのままトラックにインサートするとプリフェーダーでインサートされるのでDAWのフェーダーは使えなくなる。もちろんパンも同様である。これはプラグインのインサートポイントがフェーダー、パンよりも前の段階にあるということに起因しているのだが、360RACS内に各トラックのフェーダーを用意することでこの部分の解決策としている。音像の定位情報とともに、ボリューム情報も各トラックのプラグインへオートメーションできる情報としてフィードバックされているため、ミキシング・オートメーションのデータは全てプラグインのオートメーションデータとしてDAWで記録されることとなる。
📷各トラックにプラグインをインサートし、360RACS内で空間定位を設定する。パンニング・オートメーションはプラグイン・オートメーションとしてDAWに記録されることとなる。
次は、このようにして4π空間に定位した音をどのようにモニタリングするのか?ということになる。360RACSはプラグインではあるが、Audio Interfaceを掴んでそこからアウトプットをすることができる。これは、DAWが掴んでいるAudio Outputは別のものになる。ここでヘッドホンであれば2chのアウトプットを持ったAudio Interfaceを選択すれば、そこから360RACSでレンダリングされたヘッドホン向けのバイノーラル出力が行われるということになる。スピーカーで聴きたい場合には、標準の13ch(5.0.5.3ch)を始め、それ以外にもITU 5.1chなどのアウトプットセットも用意されている。もちろん高さ方向の再現を求めるのであれば、水平面だけではなく上下にもスピーカーが必要となるのは言うまでもない。
📷360RACSの特徴であるプラグインからのオーディオ出力の設定画面。DAWから受け取った信号をそのままスピーカーへと出力することを実現している。
360RACSの機能面を見ていきたい。各DAWのトラックから送られてきたソースは360RACS内でグループを組むことができる。この機能により、ステレオのソースなどの使い勝手が向上している。全てを一つのグループにしてしまえば、空間全体が回転するといったギミックも簡単に作れるということだ。4π空間の表示も上空から見下ろしたTop View、後方から見たHorizontal View、立体的に表示をしたPerspective Viewと3種類が選択できる。これらをの表示を2つ組み合わせることでそれぞれの音像がどのように配置されているのかを確認することができる。それぞれの定位には、送られてきているトラック名が表示されON/OFFも可能、トラック数が多くなった際に文字だらけで見にくくなるということもない。
360RACS内に配置できるオブジェクトは最大128ch分で、各360RACS内のトラックにはMute/Soloも備えられる。360RACSでの作業の際には、DAWはソースとなる音源のプレイヤーという立ち位置になる。各音源は360RACSのプラグインの前段にEQ/Compなどをインサートすることで加工することができるし、編集なども今まで通りDAW上で行えるということになる。その後に、360RACS内で音像定位、ボリュームなどミキシングを行い、レンダリングされたアウトプットを聴くという流れだ。このレンダリングのプロセスにソニーのノウハウ、テクノロジーが詰まっている。詳細は別の機会とするが、360立体音響技術群と呼ばれる要素技術開発で積み重ねられてきた、知見やノウハウにより最適に立体空間に配置されたサウンドを出力している。
Level 1~3のMPEG-Hへエンコード
📷MPEG-Hのデータ作成はプラグインからのExportにより行う。この機能の実装により一つのプラグインで360RAの制作位の工程を包括したツールとなっている。
ミックスが終わった後は、360RAのファイルフォーマットであるMPEG-Hへエンコードするという処理が残っている。ここではLevel 1~3の3つのデータを作成することになり、Level 1が10 Object 64 0kbps、Level 2が16 Object 1Mbps、Level 3が 24 Object 1.5Mbpsのオーディオデータへと変換を行う。つまり、最大128chのオーディオを最小となるLevel 1の10trackまで畳み込む必要があるということだ。具体的には、同じ位置にある音源をグループ化してまとめていくという作業になる。せっかく立体空間に自由に配置したものを、まとめてしまうのはもったいないと感じるかもしれないが、限られた帯域でのストリーミングサービスを念頭とした場合には欠かせない処理だ。
とはいえ、バイノーラルプロセスにおいて人間が認知できる空間はそれほど微細ではないため、できる限り128chパラのままでの再現に近くなるように調整を行うこととなる。後方、下方など微細な定位の認知が難しい場所をまとめたり、動きのあるもの、無いものでの分類したり、そういったことを行いながらまとめることとなる。このエンコード作業も360RACS内でそのサウンドの変化を確認しながら行うことが可能である。同じ360RACSの中で作業を行うことができるため、ミックスに立ち返りながらの作業を手軽に行えるというのは大きなメリットである。このようなエンコードのプロセスを終えて書き出されたファイルが360RAのマスターということになる。MPEG-Hなのでファイルの拡張子は.MP4である。
執筆時点で、動作確認が行われているDAWはAvid Pro ToolsとAbleton Liveとなる。Pro Toolsに関しては、サラウンドバスを必要としないためUltimateでなくても作業が可能だということは特筆すべき点である。言い換えれば、トラック数の制約はあるがPro Tools Firstでも作業ができるということだ。全てが360RACS内で完結するため、ホストDAW側には特殊なバスを必要としない。これも360RACSの魅力の一つである。今後チューニングを進め、他DAWへの対応や他プラグインフォーマットへの展開も予定されている。音楽に、そして広義ではオーディオにとって久々の新フォーマットである360RAは制作への可能性を限りなく拡げそうだ。
*取材協力:ソニー株式会社
*ProceedMagazine2021号より転載
>>Part 2はこちらから
https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-2/
>>Part 1はこちらから
https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-1/
Media
2021/10/19
Sound on 4π Part 2 / ソニー・ミュージックスタジオ 〜360 Reality Audio Mixing、この空間を楽しむ〜
国内の正式ローンチに合わせ、多数の邦楽楽曲が360RAでミックスされた。その作業の中心となったのがソニー・ミュージックスタジオである。マスタリングルームのひとつを360RAのミキシングルームに改装し、2021年初頭より60曲あまりがミキシングされたという。そのソニー・ミュージックスタジオで行われた実際のミキシング作業についてお話を伺った。
>>Part 1:360 Reality Audio 〜ついにスタート! ソニーが生み出した新たな時代への扉〜
2ミックスの音楽性をどう定位していくか
株式会社ソニー・ミュージックソリューションズ ソニー・ミュージックスタジオ
レコーディング&マスタリングエンジニア 鈴木浩二 氏(右)
レコーディングエンジニア 米山雄大 氏(左)
2021年3月23日発のプレスリリースにあった楽曲のほとんどは、ここソニー・ミュージックスタジオでミキシングが行われている。360RAでリリースされた楽曲の選定は、各作品のプロデューサー、アーティストに360RAをプレゼン、実際に体験いただき360RAへの理解を深め、その可能性に賛同を得られた方から制作にあたったということだ。
実際に360RAでミキシングをしてみての率直な感想を伺った。ステレオに関しての経験は言うまでもなく、5.1chサラウンドでの音楽のミキシング作業の経験も豊富にある中でも、360RAのサウンドにはとにかく広大な空間を感じたという。5.1chサラウンドでの音楽制作時にもあった話だが、音楽として成立させるために音の定位はどこの位置までが許容範囲なのか?ということは360RAでも起こること。やはりボーカルなどのメロディーを担うパートが、前方に定位をしていないと違和感を感じてしまうし、平面での360度の表現から高さ方向の表現が加わったことで、5.1chから更に広大な空間に向き合うことになり正直戸惑いもあったということだ。その際は、もともとの2chのミックスを音楽性のリファレンスとし、その音楽性を保ったまま空間に拡張していくというイメージにしたという。
360RAは空間が広いため、定位による表現の自由度は圧倒的だ。白紙の状態から360RAの空間に音を配置して楽曲を成立させるには、やはり従来の2chミキシングで培った表現をベースに拡張させる、という手法を取らないとあまりにも迷いが多い。とはいえ、始まったばかりの立体音響でのミキシング、「正解はない」というのもひとつの答えである。さらなる試行錯誤の中から、新しいセオリー、リファレンスとなるような音像定位が生まれてくるのではないだろうか。もちろん従来のステレオで言われてきた、ピラミッド定位などというミキシングのセオリーをそのまま360RAで表現しても良い。その際に高さを表現するということは、ステレオ・ミキシングでは高度なエンジニアリング・スキルが要求されたが、360RAではオブジェクト・パンの定位を変えるだけ、この簡便さは魅力の一つだ。
試行錯誤の中から得られた経験としては、360RAの広大な空間を広く使いすぎてしまうと、細かな部分や気になる部分が目立ってしまうということ。実際に立体音響のミキシングで直面することだが、良くも悪くもステレオミキシングのようにそれぞれの音は混ざっていかない。言葉で言うのならば、ミキシング(Mixing)というよりもプレイシング(Placing)=配置をしていくという感覚に近い。
また、360RAだけではなく立体音響の大きな魅力ではあるが、クリアに一つ一つのサウンドが聴こえてくるために、ステレオミックスでは気にならなかった部分が気になってしまうということも起こり得る。逆に、アーティストにとってはこだわりを持って入れたサウンド一つ一つのニュアンスが、しっかりとしたセパレーションを持って再生されるためにミックスに埋もれるということがない。これは音楽を生み出す側としては大きな喜びにつながる。このサウンドのセパレーションに関しては、リスナーである我々が2chに収められたサウンドに慣れてしまっているだけかもしれない。これからは、この「混ざらない」という特徴を活かした作品も生まれてくるのではないだろうか。実際に音楽を生み出しているアーティストは2chでの仕上がりを前提に制作し、その2chの音楽性をリファレンスとして360RAのミキシングが行われている。当初より360RAを前提として制作された楽曲であれば、全く新しい世界が誕生するのかもしれない。
実例に即したお話も聞くことができた。ゴスペラーズ「風が聴こえる」を360RAでミキシングをした際に、立体的にサウンドを動かすことができるため、当初は色々と音に動きのあるミキシングを試してみたという。ところが、動かしすぎることにより同時に主題も移動してしまって音楽性が損なわれてしまったそうだ。その後のミックスでは、ステレオよりも広くそれぞれのメンバーを配置することで、ステレオとは異なるワイドなサウンドが表現しているという。360RAでミキシングをすることで、それぞれのメンバーの個々のニュアンスがしっかりとクリアに再生され、ステレオであれば聴こえなかった音がしっかりと届けられるという結果が得られ、好評であったということだ。まさに360RAでのミキシングならではのエピソードと言えるだろう。
📷元々がマスタリングルームあったことを偲ばせる巨大なステレオスピーカーの前に、L,C,R+ボトムL,C,Rの6本のスピーカーがスタンドに設置されている。全てMusik Electornic Gaithain m906が採用され、純正のスタンドを改造してボトムスピーカーが据え付けられている。天井には天吊で同じく906があるのがわかる。
高さ方向をミックスで活用するノウハウ
5.1chサラウンドから、上下方向への拡張がなされた360RA。以前から言われているように人間の聴覚は水平方向に対しての感度は高いが、上下方向に関しては低いという特徴を持っている。これは、物理的に耳が左右についているということに起因する。人間は水平方向の音を左右の耳に届く時間差で認識している、単純に右から来る音は右耳のほうが少しだけ早く聴こえるということだ。しかし、高さ方向に関してはそうはいかない。これは、こういう音はこちらから聴こえている「はず」という人の持つ経験で上下を認識しているためだ。よって、360RAでの上下方向のミキシングはセオリーに沿った音像配置を物理的に行う、ということに向いている。例えば、低音楽器を下に、高音楽器を上にといったことだ。これによりその特徴が強調された表現にもなる。もちろん、逆に配置して違和感を効果的に使うといった手法もあるだろう。また、ステレオMIXでボーカルを少し上から聴こえるようにした「おでこから聴こえる」などと言われるミックスバランスも、物理的にそれを配置することで実現が可能である。これにより、ボーカルの明瞭度を増して際立たせることもできるだろう。
音楽的なバランスを取るためにも、この上下方向をサウンドの明瞭度をつけるために活用するのは有効だ、という経験談もいただくことができた。水平面より少し上のほうが明瞭度が高く聴こえ、下に行けば行くほど明瞭度は落ちる。上方向も行き過ぎるとやはり明瞭度は落ちる。聴かせたいサウンドを配置する高さというのはこれまでにないファクターではあるが、360RAのミキシングのひとつのポイントになるのではないだろうか。また、サウンドとの距離に関しても上下で聴感上の変化があるということ。上方向に比べ、下方向のほうが音は近くに感じるということだ。このように360RAならではのノウハウなども、試行錯誤の中で蓄積が始まっていることが感じられる。
📷天井には、円形にバトンが設置され、そこにスピーカーが吊るされている。このようにすることでリスニングポイントに対して等距離となる工夫がなされている。
📷ボトムのスピーカー。ミドルレイヤーのスピーカーと等距離となるように前方へオフセットして据え付けられているのがわかる。
理解すべき広大な空間が持つ特性
そして、360RAに限らず立体音響全般に言えることなのだが、サウンド一つ一つがクリアになり明瞭度を持って聴こえるという特徴がある。また、トータルコンプの存在していない360RAの制作環境では、どうしてもステレオミックスと比較して迫力やパンチに欠けるサウンドになりやすい。トータルコンプに関しては、オブジェクトベース・オーディオ全てにおいて存在させることが難しい。なぜなら、オブジェクトの状態でエンドユーザーの手元にまで届けられ、最終のレンダリング・プロセスはユーザーが個々に所有する端末上で行われるためだ。また、バイノーラルという技術は、音色(周波数分布)や位相を変化させることで擬似的に上下定位や後方定位を作っている。そのためトータルコンプのような、従来のマスタリング・プロセッサーはそもそも使うことができない。
そして、比較対象とされるステレオ・ミックスはある意味でデフォルメ、加工が前提となっており、ステレオ空間という限られたスペースにノウハウを駆使してサウンドを詰め込んだものとも言える。広大でオープンな空間を持つ立体音響にパンチ感、迫力というものを求めること自体がナンセンスなのかもしれないが、これまでの音楽というものがステレオである以上、これらが比較されてしまうのはある意味致し方がないのかもしれない。360RAにおいても個々の音をオブジェクトとして配置する前にEQ/COMPなどで処理をすることはもちろん可能だ。パンチが欲しいサウンドはそのように聴こえるよう予め処理をしておくことで、かなり求められるニュアンスを出すことはできるということだ。
パンチ感、迫力といったお話をお伺いしていたところ、ステレオと360RAはあくまでも違ったもの、是非とも360RAならではの体験を楽しんでほしいというコメントをいただいた。まさにその通りである。マキシマイズされた迫力、刺激が必要であればステレオという器がすでに存在している。ステレオでは表現、体験のできない新しいものとして360RAを捉えるとその魅力も際立つのではないだろうか。ジャズなどのアコースティック楽器やボーカルがメインのものは不向きかもしれないが、ライブやコンサート音源など空間を表現することが得意な360RAでなければ再現できない世界もある。今後360RAでの完成を前提とした作品が登場すればその魅力は更に増すこととなるだろう。
360RAならではの魅力には、音像がクリアに分離して定位をするということと空間再現能力の高さがある。ライブ会場の観客のリアクションや歓声などといった空気感、これらをしっかりと収録しておくことでまさにその会場にいるかのようなサウンドで追体験できる。これこそ立体音響の持つイマーシブ感=没入感だと言えるだろう。すでに360RAとしてミキシングされたライブ音源は多数リリースされているので是非とも楽しんでみてほしい。きっとステレオでは再現しえない”空間”を感じていただけるであろう。屋根があるのか?壁はどのようになっているのか?といった会場独自のアコースティックから、残響を収録するマイクの設置位置により客席のどのあたりで聴いているようなサウンドにするのか?そういったことまで360RAであれば再現が可能である。
この空間表現という部分に関しては、今後登場するであろうディレイやリバーブに期待がかかる。本稿執筆時点では360RAネイティブ対応のこれら空間系のエフェクトは存在せず、今後のリリースを待つこととなる。もちろん従来のリバーブを使い、360RAの空間に配置することで残響を加えることは可能だが、もっと直感的に作業ができるツール、360RAの特徴に合わせたツールの登場に期待がかかる。
360RAにおけるマスタリング工程の立ち位置
かなり踏み込んだ内容にはなるが、360RAの制作において試行錯誤の中から答えが見つかっていないという部分も聞いた、マスタリングの工程だ。前述の通り、360RAのファイナルのデータはLevel 1~3(10ch~24ch)に畳み込まれたオブジェクト・オーディオである。実作業においては、Level 1~3に畳み込むエンコードを行うことが従来のマスタリングにあたるのだが、ステレオの作業のようにマスタリングエンジニアにミックスマスターを渡すということができない。このLevel 1~3に畳み込むという作業自体がミキシングの延長線上にあるためだ。
例えば、80chのマルチトラックデータを360RAでミキシングをする際には、作業の工程として80ch分のオブジェクト・オーディオを3D空間に配置することになり、これらをグループ化して10ch~24chへと畳み込んでいく。単独のオブジェクトとして畳み込むのか?オブジェクトを2つ使ってファントムとして定位させるのか、そういった工程である。これらの作業を行いつつ、同時に楽曲間のレベル差や音色などを整えるということは至難の業である。また、個々のオブジェクト・オーディオはオーバーレベルをしていなかったとしても、バイノーラルという2chに畳み込む中でオーバーレベルしてしまうということもある。こういった部分のQC=Quality Controlに関しては、まだまだ経験も知見も足りていない。
もちろん、そういったことを簡便にチェックできるツールも揃っていない。色々と工夫をしながら進めているが、現状ではミキシングをしたエンジニアがそのまま作業の流れで行うしかない状況になっているということだ。やはり、マスタリング・エンジニアという第3者により最終のトリートメントを行ってほしいという思いは残る。そうなると、マスタリングエンジニアがマルチトラックデータの取扱いに慣れる必要があるのか?それともミキシングエンジニアが、さらにマスタリングの分野にまで踏み込む必要があるのか?どちらにせよ今まで以上の幅広い技術が必要となることは間違いない。
個人のHRTFデータ取得も現実的な方法に
ヘッドホンでの再生が多くなるイメージがある360RAのミキシングだが、どうしてもバイノーラルとなると細かい部分の詰めまでが行えないため、実際の作業自体はやはりスピーカーがある環境のほうがやりやすいとのことだ。そうとはいえ、360RAに対応したファシリティーは1部屋となるため、ヘッドホンを使ってのミキシングも平行して行っているということだが、その際には360RAのスピーカーが用意されたこの部屋の特性と、耳にマイクを入れて測定をした個人個人のHRTFデータを使い、かなり高い再現性を持った環境でのヘッドホンミックスが行えているということだ。
個人のHRTFデータを組み込むという機能は、360RACSに実装されている。そのデータをどのようにして測定してもらい、ユーザーへ提供することができるようになるのかは、今後の課題である。プライベートHRTFがそれほど手間なく手に入り、それを使ってヘッドホンミックスが行えるようになるということが現実になれば、これは画期的な出来事である。これまで、HRTFの測定には椅子に座ったまま30分程度の計測時間が必要であったが、ソニーの独自技術により耳にマイクを入れて30秒程度で計測が完了するということを筆者も体験している。これが一般にも提供されるようになれば本当に画期的な出来事となる。
📷Pro Tools上に展開された360 Reality Audio Creative Suite(360RACS)
「まだミキシングに関しての正解は見つかっていない。360RACSの登場で手軽に制作に取り組めるようになったので、まずは好きに思うがままに作ってみてほしい。」これから360RAへチャレンジをする方へのコメントだ。360RAにおいても録音をするテクニック、個々のサウンドのトリートメント、サウンドメイクにはエンジニアの技術が必要である。そして、アーティストの持つ生み出す力、創造する力を形にするための360RAのノウハウ。それらが融合することで大きな化学反応が起こるのではないかということだ。試行錯誤は続くが、それ自体が新しい体験であり、非常に楽しんで作業をしているということがにじむ。360RAというフォーマットを楽しむ、これが新たな表現への第一歩となるのではないだろうか。
>>Part 3:360 Reality Audio Creative Suite 〜新たなオーディオフォーマットで行う4π空間への定位〜
*取材協力:ソニー株式会社
*ProceedMagazine2021号より転載
https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-3/
https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-1/
Media
2021/10/12
Sound on 4π Part 1 / 360 Reality Audio 〜ついにスタート! ソニーが生み出した新たな時代への扉〜
ついに2021年4月16日に正式リリースとなった 360 Reality Audio(以下、360RA)。読み方は”サンロクマル・リアリティー・オーディオ”となるこの最新のオーディオ体験。これまでにも色々とお伝えしてきているが、日本国内でのリリースと同時に、360RAの制作用のツールとなる360 Reality Audio Creative Suiteもリリースされている。360RAとは一体何なのか?どのようにして作ればよいのか?まずは、そのオーバービューからご紹介していこう。
ソニーが作り出してきたオーディオの時代
まず最初に、ソニーとAudioの関係性を語らないわけにはいかない。コンシューマ・オーディオの分野では、常にエポックメイキングな製品を市場にリリースしてきている。その代表がウォークマン®であろう。今では当たり前となっている音楽を持ち歩くということを世界で初めて実現した電池駆動のポータブル・カセットテープ・プレイヤーである。10代、20代の読者は馴染みが薄いかもしれないが、据え置きの巨大なオーディオコンポや、ラジオとカセットプレイヤーを一体にしたラジカセが主流だった時代に、電池で動作してヘッドホンでどこでも好きな場所で音楽を楽しむことができるウォークマン®はまさにエポックな製品であり、音楽の聴き方を変えたという意味では、時代を作った製品であった。みんなでスピーカーから出てくる音楽を楽しむというスタイルから、個人が好きな音楽をプライベートで楽しむという変化を起こしたわけだ。これは音楽を聴くという体験に変化をもたらしたとも言えるだろう。
ほかにもソニーは、映画の音声がサラウンドになる際に大きなスクリーンの後ろで通常では3本(L,C,R)となるスピーカーを5本(L,LC,C,RC,R)とする、SDDS=Sony Dynamic Digital Soundというフォーマットを独自で提唱したり、ハイレゾという言葉が一般化する以前よりPCMデジタルデータでは再現できない音を再生するために、DSDを採用したスーパーオーディオCD(SACD)を作ったり、と様々な取り組みを行っている。
そして、プロフェッショナル・オーディオ(音響制作機器)の市場である。1980年代よりマルチチャンネル・デジタルレコーダーPCM-3324/3348シリーズ、Oxford R3コンソール、CDのマスタリングに必須のPCM-1630など、音声、特に音楽制作の中心にはソニー製品があった。いまではヘッドホン、マイクは例外に、プロシューマー・マーケットでソニー製品を見ることが少なくなってしまっているが、その要素技術の研究開発は続けられており、コンシューマー製品へしっかりとフィードバックが行われているのである。「制作=作るため」の製品から「利用する=再生する」製品まで、つまりその技術の入口から出口までの製品を揃えていたソニーのあり方というのは、形を変えながらも続いているのである。
PCM-3348
PCM-3348HR
Oxford R3
PCM-1630
このようなソニーとAudioの歴史から見えてくるキーワードは、ユーザーへの「新しい体験の提供」ということである。CDではノイズのないパッケージを提供し、ウォークマン®ではプライベートで「どこでも」音楽を楽しむという体験を、SDDSは映画館で最高の臨場感を作り出し、SACDはまさしく最高となる音質を提供した。全てが、ユーザーに対して新しい体験を提供するという一つの幹から生えているということがわかる。新しい体験を提供するための技術を、難解なテクノロジーの状態からスタイリッシュな体験に仕立てて提供する。これがまさにソニーのAudio、実際はそれだけではなく映像や音声機器にも共通するポリシーのように感じる。
全周(4π)を再現する360RA
ソニーでは要素技術として高臨場感音響に関しての研究が続けられていた。バーチャル・サラウンド・ヘッドホンや、立体音響を再生できるサラウンドバーなどがこれまでにもリリースされているが、それとはまた別の技術となる全周(4π)を再現するオーディオ技術の研究だ。そして、FraunhoferがMPEG-H Audioを提唱した際にこの技術をもって参画したことで、コンテンツとなるデータがその入れ物(コンテナ)を手に入れて一気に具体化、2019年のCESでの発表につながっている。CES2019の時点ではあくまでも技術展示ということだったが、その年の10月には早くもローンチイベントを行い欧米でのサービスをスタートさせている。日本国内でも各展示会で紹介された360RAは、メディアにも取り上げられその存在を知った方も多いのではないだろうか。特に2020年のCESでは、ソニーのブースでEVコンセプトの自動車となるVISION-Sが展示され大きな話題を呼んだが、この車のオーディオとしても360RAが搭載されている。VISION-Sではシートごとにスピーカーが埋め込まれ立体音響が再生される仕様となっていた、この立体音響というのが360RAをソースとしたものである。
360RAはユーザーに対して「新しい体験」を提供できる。機器自体は従来のスマホや、ヘッドホン、イヤホンであるがそこで聴くことができるサウンドは、まさにイマーシブ(没入)なもの。もちろんバイノーラル技術を使っての再生となるが、ソニーのノウハウが詰まった独自のものであるということだ。また、単純なバイノーラルで収録された音源よりも、ミキシングなど後処理が加えられることで更に多くの表現を手に入れたものとなっている。特にライブ音源の再生においては非常に高い効果を発揮し、最も向いたソースであるという認識を持った。
バイノーラルの再生には、HRTF=頭部伝達関数と呼ばれる数値に基づいたエンコードが行われ、擬似的に左右のヘッドホン or イヤホンで立体的音響を再生する。このHRTFは頭の形、耳の形、耳の穴の形状など様々な要素により決まる個人ごとに差異があるもの。以前にも紹介したYAMAHAのViRealはこのHRTFを一般化しようという研究であったが、ソニーでは「Sony | Headphones Connect」と称されたスマートフォン用アプリで、個々に向けたHRTFを提供している。これは耳の写真をアップロードすることでビッグデータと照合し最適なパラメーターを設定、ヘッドホンフォン再生に適用することで360RAの体験を確実にし、ソニーが配信サービスに技術提供している。
Sony | Headphones Connectは一部のソニー製ヘッドホン用アプリとなるが、汎用のHRTFではなく個人に合わせて最適化されたHRTFで聴くバイノーラルは圧倒的である。ぼんやりとしか認識できなかった音の定位がはっきりし、後方や上下といった認識の難しい定位をしっかりと認識することができる。もちろん、個人差の出てしまう技術であるため一概に言うことはできないが、それでも汎用のHRTFと比較すれば、360RAでの体験をより豊かなものとする非常に有効な手法であると言える。この手法を360RAの体験向上、そしてソニーのビジネスモデルとして技術と製品を結びつけるものとして提供している。体験を最大化するための仕掛けをしっかりと配信サービスに提供するあたり、さすがソニーといったところだ。
360RAはいますぐ体験できる
それでは、360RAが国内でリリースされ、実際にどのようにして聴くことができるようになったのだろうか?まず、ご紹介したいのがAmazon music HDとDeezerの2社だ。両社とも月額課金のサブスクリプション(月額聴き放題形式)のサービスである。ハイレゾ音源の聴き放題の延長線上に、立体音響音源の聴き放題サービスがあるとイメージしていただければいいだろう。視聴方法はこれらの配信サービスと契約し、Amazon music HDであればAmazon Echo Studioという立体音響再生に対応した専用のスピーカーでの再生となる。物理的なスピーカーでの再生はどうしても上下方向の再生が必要となるため特殊な製品が必要だが、前述のAmazon Echo Studioやサラウンドバーのほか、ソニーからも360RA再生に対応した製品としてSRS-RA5000、SRS-RA3000という製品が国内でのサービス開始とともに登場している。
また、Deezerではスマートフォンとヘッドホン、イヤホンでの再生、もしくは360RA再生に対応したBluetoothスピーカーがあれば夏にはスピーカーで360RAを楽しむことができる。スマートフォンは、ソニーのXperiaでなければならないということはない。Android搭載のデバイスでも、iOS搭載のデバイスでも楽しむことができる、端末を選ばないというのは実に魅力的だ。ヘッドホン、イヤホンも普通のステレオ再生ができるもので十分で、どのような製品でも360RAを聴くことができる。Sony | Headphones Connectの対象機種ではない場合はパーソナライズの恩恵は受けられないが、その際にはソニーが準備した汎用のHRTFが用いられることとなる。導入にあたり追加で必要となる特殊な機器もないため、興味を持った方はまずはDeezerで360RAのサウンドを楽しむのが近道だろうか。余談ではあるが、Deezerはハイレゾ音源も聴き放題となるサービス。FLAC圧縮によるハイサンプルの音源も多数あるため、360RAをお試しいただくとともにこちらも併せて聴いてみると、立体音響とはまた違った良さを発見できるはずだ。
そして、前述の2社に加えてnugs.netでも360 Reality Audioの楽曲が配信開始されている。360RAを体験していただければわかるが、立体音響のサウンドはまさに会場にいるかのような没入感を得ることができ、ライブやコンサートなどの臨場感を伝えるのに非常に適している。nugs.net はそのライブ、コンサートのストリーミングをメインのコンテンツとして扱う配信サービスであり、このメリットを最大限に活かしたストリーミングサービスになっていると言えるだろう。
欧米でサービスが展開されているTIDALも月額サブスクリプションのサービスとなり、すでに360RAの配信をスタートしている。サービスの内容はDeezerとほぼ同等だが、ハイレゾの配信方針がDeezerはFLAC、TIDALはMQAと異なるのが興味深い。この音質の差異は是非とも検証してみたいポイントである。TIDALはラッパーのJAY-Zがオーナーのサービスということで、Hip-Hop/R&Bなどポップスに強いという魅力もある。ハイレゾ音源は配信サービスで月額課金で楽しむ時代になってきている。前号でも記事として取り上げたが、ハイレゾでのクオリティーの高いステレオ音源や360RAなどの立体音響、これらの音源を楽しむということは、すでにSpotifyやApple Musicといった馴染みのある配信サービスの延長線上にある。思い立てばいますぐにでも360RAを楽しむことができる環境がすでに整っているということだ。
360RAを収めるMPEG-Hという器
360RAを語るにあたり、技術的な側面としてMPEG-Hに触れないわけにはいかない。MPEG-H自体はモノラルでも、ステレオでも、5.1chサラウンドも、アンビソニックスも、オブジェクトオーディオも、自由に収めることが可能、非常に汎用性の高いデジタルコンテンツを収める入れ物である。このMPEG-Hを360RAではオブジェクトオーディオを収める器として採用しているわけだ。実際の360RAには3つのレベルがあり、最も上位のLevel3は24オブジェクトで1.5Mbpsの帯域を使用、Level2は16オブジェクトで1Mbps、Leve1は10オブジェクトで640kbpsとなっている。このレベルとオブジェクト数に関しては、実際の制作ツールとなる360RA Creative Suiteの解説で詳しく紹介したい。
Pro Tools上に展開された360 Reality Audio Creative Suite(360RACS)
ここでは、その帯域の話よりもMPEG-Hだから実現できた高圧縮かつ高音質という部分にフォーカスを当てていく。月額サブスクリプションでの音楽配信サービスは、現状SpotifyとApple Musicの2強であると言える。両社とも圧縮された音楽をストリーミングで再生するサービスだ。Apple Musicで使われているのはAAC 256kbpsのステレオ音声であり、1chあたりで見れば128kbpsということになる。360RAのチャンネルあたりの帯域を見るとLevel1で64kbps/chとAACやMP3で配信されているサービスよりも高圧縮である。しかし、MPEG-Hは最新の圧縮技術を使用しているため、従来比2倍以上の圧縮効率の確保が可能というのが一般的な認識である。その2倍を照らし合わせればチャンネルあたりの帯域が半分になっても従来と同等、もしくはそれ以上の音質が確保されているということになる。逆に言えば、従来のAAC、MP3という圧縮技術では同等の音質を確保するために倍の帯域が必要となってしまう。これがMPEG-H Audioを採用した1点目の理由だ。
もう一つ挙げたいのはオブジェクトへの対応。360RAのミキシングは全てのソースがオブジェクトとしてミキシングされる。オブジェクトとしてミキシングされたソースを収める器として、オブジェクトの位置情報にあたるメタデータを格納することができるMPEG-Hは都合が良かったということになる。特殊な独自のフォーマットを策定することなく、一般化された規格に360RAのサウンドが収めることができたわけだ。ちなみにMPEG-Hのファイル拡張子は.mp4である。余談にはなるが、MPEG-Hは様々な最新のフォーマットを取り込んでいる。代表的なものが、HEVC=High Efficiency Video Coding、H.265という高圧縮の映像ファイルコーディック、静止画ではHEIF=High Efficiency Image File Format。HEIFはHDR情報を含む画像ファイルで、iPhoneで写真を撮影した際の画像ファイルで見かけた方も多いかもしれない。このようにMPEG-Hは3D Audio向けの規格だけではなく、様々な可能性を含みながら進化を続けているフォーマットである。
拡がりをみせる360RAの将来像
360RAの今後の展開も伺うことができた。まず1つは、配信サービスを提供する会社を増やすという活動、360RAに対応したスピーカーやAVアンプなどの機器を増やすという活動、このような活動から360RAの認知も拡大して、制作も活発化するという好循環を作り健全に保つことが重要とのこと。すでに世界中の配信事業者とのコンタクトは始まっており、制作に関しても欧米でのサービス開始から1年半で4000曲とかなりのハイペースでリリースが続いている。ほかにも、ライブやコンサートとの親和性が高いということから、リアルタイムでのストリーミングに対しても対応をしたいという考えがあるとのこと。これはユーザーとしても非常に楽しみなソリューションである。また、音楽ということにこだわらずに、オーディオ・ドラマなど、まずはオーディオ・オンリーでも楽しめるところから拡張を進めていくということだ。また、360RAの要素技術自体はSound ARなど様々な分野での活用が始まっている。
日本国内では、まさに産声を上げたところである360RA。ソニーの提案する新しい音楽の「体験」。立体音響での音楽視聴はこれまでにない体験をもたらすことは間違いない。そして改めてお伝えしたいのは、そのような技術がすでに現実に生まれていて、いますぐにでも簡単に体験できるということ。ソニーが生み出した新たな時代への扉を皆さんも是非開いてほしい。
>>Part 2:ソニー・ミュージックスタジオ 〜360 Reality Audio Mixing、この空間を楽しむ〜
*取材協力:ソニー株式会社
*ProceedMagazine2021号より転載
https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-2/
Media
2021/07/28
IPビデオ伝送の筆頭格、NDIを知る。〜ソフトウェアベースでハンドリングする先進のIP伝送〜
弊社刊行のProceedMagazineでは以前より音声信号、映像信号のIP化を取り上げてきた。新たな規格が登場するたびにそれらの特徴をご紹介してきているが、今回はNewtek社によって開発された、現在世界で最も利用されているIPビデオ伝送方式のひとつであるNDIを取り上げその特徴をじっくりと見ていきたい。IPビデオ伝送ということは、汎用のEthernetを通じVideo/Audio信号を伝送するためのソリューション、ということである。いま現場に必要とされる先進的な要素を多く持つNDI、その全貌に迫る。
一歩先を行くIPビデオ伝送方式
NDI=Network Device Interface。SDI/HDMIとの親和性が高く、映像配信システムなどの構築に向いている利便性の高い規格である。このIP伝送方式は、NewTek社により2015年9月にアムステルダムで開催された国際展示会IBCで発表された。そして、その特徴としてまず挙げられるのがソフトウェアベースであるということであり、マーケティング的にも無償で使用できるロイヤリティー・フリーのSDKが配付されている。ソフトウェアベースであるということは、特定のハードウェアを必要とせず汎用のEthernet機器が活用可能であるということである。これは機器の設計製造などでも有利に働き、特別にカスタム設計した機器でなくとも、汎用製品を組み合わせて活用することで製品コストを抑えられることにつながっている。この特徴を体現した製品はソフトウェアとしていくつもリリースされている。詳しい紹介は後述するが、汎用のPCがプロフェッショナルグレードの映像機器として活用できるようになる、と捉えていただいても良い。
フルHD映像信号をを100Mbit/s程度にまで圧縮を行い、汎用のEthernetで伝送を行うNDIはIBC2015でも非常に高い注目を集め、NewTekのブースには来場者が入りきれないほどであったのを覚えている。以前、ProceedMagazineでも大々的に取り上げたSMPTE ST2110が基礎の部分となるTR-03、TR-04の発表よりも約2ヶ月早いタイミングで、NDIは完成形とも言える圧縮伝送を実現した規格として登場したわけだ。非圧縮でのSDI信号の置換えを目指した規格であるSMPTE ST-2022が注目を集めていた時期に、圧縮での低遅延リアルタイム伝送を実現し、ロイヤリティーフリーで特定のハードウェアを必要とせずにソフトウェアベースで動作するNDIはこの時すでに一歩先を行くテクノロジーであったということが言える。そして、本記事を執筆している時点でNDIはバージョン4.6.2となっている。この更新の中では、さらに圧縮率の高いNDI HX、NDI HX2などを登場させその先進性に磨きがかけられた。
📷これまでにもご紹介してきた放送業界が中心となり進めているSMPTE 2022 / 2110との比較をまとめてみた。大規模なインフラにも対応できるように工夫の凝らされたSMPTE規格に対し、イントラネットでのコンパクトな運用を目指したNDIという特徴が見てとれる。NDIは使い勝手を重視した進化をしていることがこちらの表からも浮かんでくるのではないだろうか。
100Mbit/s、利便性とクオリティ
NDIの詳細部分に踏み込んで見ていこう。テクノロジーとしての特徴は、前述の通り圧縮伝送であるということがまず大きい。映像のクオリティにこだわれば、もちろん非圧縮がベストであることに異論はないが、Full HD/30pで1.5Gbit/sにもなる映像信号を汎用のEhternetで伝送しようと考えた際に、伝送路の帯域が不足してくるということは直感的にご理解いただけるのではないだろうか。シンプルに言い換えれば一般的に普及しているGigabit Ethernetでは非圧縮のFull HD信号の1Streamすら送れないということである。利便性という目線で考えても、普及価格帯になっているGigabit Ethernetを活用できず10GbEthernetが必須になってしまっては、IPビデオ伝送の持つ手軽さや利便性に足かせがついてしまう。
NDIは当初より圧縮信号を前提としており、標準では100Mbit/sまで圧縮した信号を伝送する。圧縮することでGigabitEthernetでの複数Streamの伝送、さらにはワイヤレス(Wi-Fi)の伝送などにも対応している。4K伝送時も同様に圧縮がかかり、こちらもGigabit Ethernetでの伝送が可能である。もちろん10GbEthernetを利用すれば、さらに多くのStreamの伝送が可能となる。放送業界で標準的に使用されているSONY XDCAMの圧縮率が50Mbit/sであることを考えれば、十分にクオリティが担保された映像であることはご想像いただけるだろう。さらにNDI HXでは20Mbit/sまでの圧縮を行いワイヤレス機器などとの親和性を高め、最新の規格となるNDI HX2ではH.265圧縮を活用し、NDIと同様の使い勝手で半分の50Mbit./sでの運用を実現している。
Ethernet Cable 1本でセットできる
代表的なNDI製品であるPTZカメラ。
次の特徴は、Ethernet技術の持つ「双方向性」を非常にうまく使っているということだ。映像信号はもちろん一方向の伝送ではあるが、逆方向の伝送路をタリー信号やPTZカメラのコントロール、各機器の設定変更などに活用している。これらの制御信号は、SMPTE ST2022/ST2110では共通項目として規格化が行われていない部分だ。
NDIではこれらの制御信号も規格化され、メーカーをまたいだ共通化が進められている。わかりやすい部分としてはPTZカメラのコントロールであろう。すでにNDI対応のPTZカメラはPoE=Power over Ethernet対応の製品であれば、Ethernet Cable1本の接続で映像信号の伝送から、カメラコントロール、電源供給までが行えるということになる。従来の製品では3本、もしくはそれ以上のケーブルの接続が必要なシーンでも1本のケーブルで済んでしまうということは大きなメリットだ。天井などに設置をすることが多いPTZカメラ。固定設備としての設置工事時にもこれは大きな魅力となるだろう。NDIに対応した製品であれば、基本的にNDIとして接続されたEthernetケーブルを通じて設定変更などが行える。別途USBケーブル等を接続してPCから設定を流し込む、などといった作業から解放されることになる。
📷左がリモートコントローラーとなる。写真のBirdDog P200であれば、PoE対応なので映像信号、電源供給、コントロール信号が1本のEthernet Cableで済む。
帯域を最大限に有効活用する仕組み
NDIの先進性を物語る特徴はまだある。こちらはあまり目に見える部分ではないが、帯域保護をする機能がNDIには搭載されている。これは前述のタリー信号をカメラ側へ伝送できる機能をさらに活用している部分だ。実際にスイッチャーで選択されていない(双方向で接続は確立されているが、最終の出力としては利用されていない)信号は、データの圧縮率が高められたプロキシ伝送となる。本線として利用されていない(タリーの戻ってきていない)カメラは、自動的にプロキシ伝送に切り替わり帯域の圧縮を防ぐということになる。これは本線で使用されていたとしても、PinP=Picture in Picture の副画像などの場合でも同様だ。画面の1/4以上で利用されている場合にはフルクオリティの出力で、1/4以下であればプロキシへと自動的に切り替わる。双方向に情報を伝達できるNDIはスイッチャーが必要とする時にカメラ側へフルクオリティー画像の伝送をリクエストして切り替える、この機能を利用しているわけだ。数多くのカメラを同一のネットワーク上に接続した場合にはその帯域が不安になることも多いが、NDIであればネットワークの持つ帯域を最大限に有効活用する仕組みが組み込まれている。
信号伝送の帯域に関しての特徴はほかにもあり、MulticastとUnicastの切り替えが可能というのもNDIの特徴だ。接続が確立された機器同士でのUnicast伝送を行うというのがNDIの基本的な考え方だが、スイッチャーから配信機材やレコーダーといった複数に対して信号が送られる場合にはMulticastへと手動で切り替えが可能となっている。もちろん、全ての信号伝送をMulticastできちんと設定してしまえば、特に考えることもなく全ての機器で信号を受け取ることができるが、実際のシステム上では設定も簡易なUnicastで十分な接続がほとんどである。イントラネットを前提とするNDIのシステム規模感であれば、Unicast/Multicast両対応というのは理にかなっている。AoIPであるDanteも同じく基本はUnicastで、必要に応じてMulticastへと変更できるということからも、イントラであればこの考え方が正しいということがわかる。
また、IP機器ということで設定に専門的な知識が必要になるのではと思われるかもしれない。NDIは相互の認識にBonjour(mDNS)を使っている、これはDanteと同様である。同一のネットワーク上に存在している機器であれば自動的に見つけてきてくれるという認識性の高さは、Danteを使ったことのある方であれば体験済みだろう。もちろん、トラブルシュートのために最低限のIPの知識はもっておいたほうが良いが、ITエンジニアレベルの高いスキルを求められる訳ではない。汎用のEthernet Switchに対応機器を接続することで自動的に機器が認識されていき、一度認識すればネットワーク上に障害が生じない限りそのまま使い続けることができる。
IPビデオ伝送ならでは、クラウドベースへ
非圧縮映像信号のリアルタイム伝送を目的として策定された SMPTE ST-2110との比較も気になるポイントだろう。SMPTE ST-2110はMulticastを基本とした大規模なネットワークを前提にしており、Video PacketとAudio Packetが分離できるため、オーディオ・プロダクションとの親和性も考えられている。各メーカーから様々な機器が登場を始めているが、相互の接続性など規格対応製品のスタート時期にありがちな問題の解決中という状況だ。NDIについてはすでに製品のリリースから6年が経過し高い相互接続性を保っている。
NDIはイントラ・ネットワーク限定の単一のシステムアップを前提としているために、大規模なシステムアップのための仕組みという部分では少し物足りないものがあるかもしれない。WWW=World Wide Webを経由してNDIを伝送するというソリューションも登場を始めているが、まだまだNDIとしてはチャレンジ段階であると言える。その取り組みを見ると、2017年には200マイル離れたスタジアムからのカメラ回線をプロダクションするといった実験や、Microsoft Azure、AWSといったクラウドサーバーを介してのプロダクションの実験など、様々なチャレンジが行われたそうだ。なお、こちらの実験ではクラウドサーバーまでNDIの信号を接続し、そこからYoutube Liveへの配信を行うということを実現している。つまり、高い安定性が求められる配信PCをクラウド化し、複数のストリーミング・サービスへの同時配信を行う、といったパワフルなクラウドサーバーを活用したひとつの未来的なアイデアである。このようなクラウド・ベースのソリューションは、まさにIPビデオ伝送ならではの取り組みと言える。業界的にもこれからの活用が模索されるクラウド・サービス、SMPTE ST-2110もNDIもIP伝送方式ということでここに関しての可能性に大きな差異は感じないが、NDIが先行して様々なチャレンジを行っているというのが現状だ。
NDIをハンドリングする無償アプリ
次に、NDIの使い勝手にフォーカスをあてていくが、キーワードとなるのは最大の特徴と言ってもいいソフトウェアベースであるということ。それを端的に表している製品、NewTekが無償で配布しているNDI Toolsを紹介していこう。
NDIを活用するためのアプリケーションが詰まったこのNDI Toolsは、Windows用とMac用が用意され9種類のツールが含まれている。メインとなるツールはネットワーク内を流れるNDI信号=NDIソースのモニターを行うNDI Studio Monitor。NDI信号が流れるネットワークにPCを接続しアプリケーションを起動することで、信号のモニターがPCで可能となる。SDIやHDMIのようにそれぞれの入力を備えたモニターの準備は不要、シンプルながらもIPビデオ伝送ならではの機能を提供するソフトウェアだ。次は、VLCで再生した映像をNDI信号としてPCから出力できるようにするNDI VLC Plugin。こちらを立ち上げれば、外部のVideo PlayerをPCを置き換え可能となる。そして、PCから各種テストパターンを出力するNDI Test Patterns。高価な測定器なしにPCでテストパターンの出力を実現している。ここまでの3点だけでも、最初に調整のためのテストパターンを出力し、調整が終わったらVLCを使ってVideo再生を行いつつ、最終出力のモニタリングをNDI Srtudio Monitorで行う、といったフローがPC1台で組み上げられる。IPビデオ伝送ならではの使い勝手と言えるのではないだろうか。
利便性という面で紹介したいのがNDI Virtual Input。これはWindows用となり、PCが参加しているネットワーク内のNDIソースをWindows Video / Audioソースとして認識させることができる。つまり、NDIの入力信号をウェブカメラ等と同じように扱えるようになるということだ。なお、Mac向けにはNDI Webcam Inputというツールで同じようにWEBカメラとしてNDIソースを認識させることができる。すでにZoom / Skypeはその標準機能でNDIソースへの対応を果たしており、IPベースのシステムのPCとの親和性を物語る。そして、NDI for Adobe CCは、Premier / After Effectの出力をNDI信号としてPCから出力、イントラネット越しに別の場所でのプレビューを行ったり、プレイヤーの代替に使ったりとアイデアが広がるソフトウェアだ。他にもいくつかのソフトウェアが付属するが、ハードウェアで整えようとすればかなりのコストとなる機能が無償のソフトウェアで提供されるというのは大きな魅力と言える。
NDI Tools紹介ページ
NDI Toolsダウンロードページ
NDIの可能性を広げる製品群
続々と登場している製品群にも注目しておきたい。まずは、Medialooks社が無償で配布を行なっているSDI to NDI Converter、NDI to SDI Converter。Blackmagic Design DecklinkシリーズなどでPCに入力されたSDIの信号をNDIとして出力することができる、またその逆を行うことができるソフトウェアで、IPビデオらしくPCを映像のコンバーターとして活用できるアプリケーション。有償のソフトウェアとしてはNDI製品を多数リリースするBirdDog社よりDante NDI Bridgeが登場している。こちらはソフトウェアベースのDante to NDIのコンバーターで、最大6chのDante AudioをNDIに変換して出力する。ステレオ3ペアの信号を3つのNDI信号として出力することも、6chの一つのNDIの信号として出力することもできる使い勝手の良い製品だ。同社のラインナップにはNDI Multiveiwというアプリケーションもある。こちらは、その名の通りネットワーク上のNDI信号のMultiview出力をソフトウェア上で組み立て、自身のDisplay用だけではなくNDI信号として出力するという製品。ソースの名称、オーディオメーター、タリーの表示に対応し、複数のMuliviewをプリセットとして切り替えることが行える。
また、BirdDog社は現場で必須となるインカムの回線をNDIに乗せるというソリューションも展開、SDI / HDMI to NDIのコンバーターにインカム用のヘッドセットIN/OUTを設け、その制御のためのComms Proというアプリケーションをリリースしている。このソリューションはネットワークの持つ双方向性を活用した技術。映像信号とペアでセレクトが可能なためどの映像を撮っているカメラマンなのかが視覚的にも確認できるインカムシステムだ。もちろん、パーティラインなど高度なコミュニケーションラインの構築も可能。ハードウェアとの組み合わせでの機能とはなるが、$299で追加できる機能とは思えないほどの多機能さ。どのような信号でも流すことができるネットワークベースであることのメリットを活かした優れたソリューションと言える。
今回写真でご紹介しているのが、Rock oN渋谷でも導入している NewTek TriCaster Mini 4K、NDI自体を牽引しているとも言えるビデオスイッチャーである。NDIのメリットを前面に出した多機能さが最大のアピールポイント。先述した接続の簡便さ、また、双方向性のメリットとして挙げたPTZカメラのコントロール機能では対応機種であればIRIS、GAINなどの調整も可能となる。そして、TriCasterシリーズはソフトウェアベースとなるためVideo Playerが組み込まれている、これもビデオスイッチャーとしては画期的だ。さらには、Video Recorder機能、Web配信機能などもひとつのシステムの中に盛り込まれる。肝心のビデオスイッチャー部もこのサイズで、4M/E、12Buffer、2DDRという強力な性能を誇っているほか、TriCasterだけでクロマキー合成ができたりとDVEに関しても驚くほど多彩な機能を内包している。
📷
NDIを提唱するNewTekの代表的な製品であるTriCasterシリーズ。こちらはTriCaster Mini 4Kとなる。コンパクトな筐体がエンジン部分、4系統のNDI用の1GbEのポートが見える。TriCasterシリーズは、本体とコントロールパネルがセットになったバンドルでの購入ができる。写真のMini 4Kのバンドルは、エンジン本体、1M/Eのコンパクトなコントローラー、そしてSpeak plus IO 4K(HDMI-NDIコンバーター)が2台のバンドルセットとなる。そのセットがキャリングハンドルの付いたハードケースに収まった状態で納品される。セットアップが簡単なTriCasterシリーズ、こちらを持ち運んで使用するユーザーが多いことの裏付けであろう。
すでにInternetを越えて運用されるNDI
イントラ・ネットワークでの運用を前提としてスタートしたNDIだが、すでにInternetを越えて運用するソリューションも登場している。これから脚光を浴びる分野とも言えるが、その中からも製品をいくつか紹介したい。まずは、Medialooks社のVideo Transport。こちらは、NDIソースをインターネット越しに伝送するアプリケーションだ。PCがトランスミッターとなりNDI信号をH.265で圧縮を行い、ストリーミングサイズを落とすことで一般回線を利用した伝送を実現した。フルクオリティの伝送ではないが、汎用のインターネットを越えて世界中のどこへでも伝送できるということに大きな魅力を感じさせる。また、データサイズを減らしてはいるが、瞬間的な帯域の低下などによるコマ落ちなど、一般回線を使用しているからこその問題をはらんでいる。バッファーサイズの向上など、技術的なブレイクスルーで安定したクオリティーの担保ができるようになることが期待されるソリューションだ。
BirdDog社ではBirdDog Cloudというソリューションを展開している。こちらは実際の挙動をテストできていないが、SRT=Secure Reliable Transportという映像伝送プロトコルを使い、インターネット越しでの安定した伝送を実現している。また、こちらのソリューションはNDIをそのまま伝送するということに加え、同社Comms ProやPTZカメラのコントロールなども同時に通信が可能であるとのこと。しっかりと検証してまたご紹介させていただきたいソリューションだ。
Rock oN渋谷でも近々にNewTek TriCasterを中心としたNDIのシステムを導入を行い、製品ハンズオンはもちろんのことウェビナー配信でもNDIを活用していくことになる。セットアップも簡便なNDIの製品群。ライブ配信の現場での運用がスタートしているが、この使い勝手の良さは今後のスタジオシステムにおけるSDIを置き換えていく可能性が大いにあるのではないだろうか。大規模なシステムアップに向いたSMPTE ST-2110との棲み分けが行われ、その存在感も日増しに高くなっていくことは想像に難くない。IP伝送方式の中でも筆頭格として考えられるNDIがどのようにワークフローに浸透していくのか、この先もその動向に注目しておくべきだろう。
*ProceedMagazine2021号より転載
Media
2021/05/31
音楽配信NOW!! 〜イマーシブ時代の音楽配信サービスとは〜
レコードからCDの時代を経て、音楽の聴き方や楽しみ方は日々変化を続けている。すでにパッケージメディアの販売額を配信の売上が超えて何年も経過している。最初は1曲単位での販売からスタートした配信での音楽販売が、月額固定での聴き放題に移行、その月額固定となるサブスクリプション形式での音楽配信サービスに大きな転機が訪れている。新しい音楽のフォーマットとして注目を集めるDolby Atmos Music、SONY 360 Reality Audio。これらの配信を前提としたイマーシブフォーマットの配信サービスがサブスク配信上でスタートしている。いま、何が音楽配信サービスに起こっているかをお伝えしたい。
目次
いよいよ風向きが変わってきたハイレゾ
バイノーラルという付加価値が始まっている
イマーシブは一般的なリスナーにも届く
1.いよいよ風向きが変わってきたハイレゾ
レコードからCDへとそのメディアが変わってから、音楽の最終フォーマットは44.1kHz-16bitのデジタルデータという時代がいまだに続いている。Apple Music、Spotify等のサブスクサービスも44.1kHz-16bitのデジタルデータの圧縮である。そんな現実を振り返ると、2013年頃にハイレゾ(High Resolution Audio)という言葉が一斉を風靡した際に48kHz-24bit以上(これを含む)の音源をハイレゾとするという判断は間違っていなかったとも感じる。逆に言えば、制作の現場でデフォルトとなっている48kHz-24bitというデジタルデータは、まだまだその音源を聴くユーザーの元へ届けられていないということになる。ハイレゾ音源に関しては、付加価値のある音源として1曲単位での販売がインターネット上で行われている。DVD Audioや、SACDなどハイレゾに対応したパッケージも存在はしたが、残念ながらすでに過去のものとなってしまっている。これらの音源は残念ながら一般には広く普及せず、一部の音楽愛好家の層への浸透で終わってしまった。
もちろん、その素晴らしさは誰もが認めるところではあるが、対応した再生機器が高額であったり、そもそも音源自体もCDクオリティーよりも高価に設定されていたため、手を出しにくかったりということもあった。しかし再生機器に関してはスマホが普及価格帯の製品までハイレゾ対応になり、イヤフォンやヘッドフォンもハイレゾを十分に再生できるスペックの製品が安価になってきている。
そのような中、2019年よりハイレゾ音源、96kHz-24bitの音源をサブスクサービスで提供するという動きが活発化している。国内ではAmazon Music HD、mora qualitasが2019年にサービス開始、2020年にはDeezerがスタート、海外に目を向けるとTIDAL、Qobuzがハイレゾ音源のサブスクサービスを開始している。多くのユーザーが利用するSpotifyやApple Musicよりも高額のサブスクサービスだが、ほぼすべての楽曲をロスレスのCDクオリティーで聴くことができ、その一部はハイレゾでも楽しめる。この付加価値に対してユーザーがどこまで付いてくるのか非常に注目度が高い。個人的には「一度ロスレスの音源を聴いてしまうと圧縮音声には戻りたくない」という思いになる。ハイレゾの音源であればなおのこと、その情報量の多さ、圧縮により失われたものがどれだけ多いかを思い知ることになる。あくまでも個人的な感想だが、すでにサブスクサービスにお金を支払って音楽を楽しんでいるユーザーの多くが、さらにハイクオリティーなサブスクサービスへの移行を、たとえ高価であっても検討するのではないかと考えている。
執筆時点では日本国内でのサービスが始まっていないTIDAL。Dolby Atmos、SONY 360 Reality Audio、ハイレゾすべてが聴き放題の配信サービスとなっており、ミュージシャンのJAY-Zがオーナーのサブスク配信サービスとしても有名である。Dolby Atmosを聴くためには、HiFiプランに加入してDolby Atmos対応の端末(下部製品が一例)を利用することとなる。
2.バイノーラルという付加価値が始まっている
今の音楽の楽しみ方は、スマホで再生をして、ヘッドフォンやイヤホンで楽しむ、といった形態が大部分となっている。音楽のヘビーユーザーである若年層の部屋には、ラジカセはもちろん、スピーカーの付いた製品はすでに存在していない状況にある。高価なハイレゾ対応のオーディオコンポで楽しむのではなく、手軽にどこへでも音楽を持ち出し、好きなところで好きな曲を楽しむというのがサブスクサービスの利用者ほとんどの実態ではないだろうか。
好きな音楽を少しでも高音質に楽しみたい。そんな願いを手軽に叶えてくれるのがハイレゾのサブスクサービスである。原盤が96kHz/24bitというのは、ここ数年の作品であれば存在しているものも多い。また海外からはデジタル・リマスター版として過去の名盤が多数ハイレゾフォーマットで登場している。
さらに、音楽の楽しみ方に次の時代がやってきている。Dolby Atmos MusicとSONY 360 Reality Audio(以下、Sony 360RA)という2つのフォーマット。イマーシブ(3D)の音源である。後方や天井にスピーカーを設置して聴くのではなく、バイノーラルに変換したものをヘッドフォンで楽しむ。フォーマットを作ったメーカーもそういった楽しみ方を想定し、ターゲットにして作ったものだ。そしてこれらのフォーマットは、ハイレゾサブスクサービスのさらなる付加価値として提供が始まっている。Dolby Atmos Musicであれば、Amazon Music HD、TIDAL。Sony 360RAは、Amazon Music HD、Deezer、TIDALで楽しむことができる。すべてを楽しもうというのであれば、両者とも対応のTIDALということになる。
表1 主要音楽配信サービス概要(2021年5月現在) ※画像クリックで拡大
(※1)2021年5月追記
2021年後半にはSpotifyが「Spotify HiFi」としていくつかの地域でロスレス配信に対応することを発表しました。さらには、2021年6月にはApple Musicがロスレスとハイレゾ、そして空間オーディオ(Apple製品におけるイマーシブフォーマットの呼称)への対応を発表しています。
ただし、さすがに最新のフォーマットということで少しだけ制約がある。特にDolby Atmosに関しては再生端末がDolby Atmosに対応している必要があるが、これも徐々に対応機器が増えている状況。高価なものだけではなく、Amazon Fire HDといった廉価なタブレットにも対応製品があるのでそれほどのハードルではない。Amazon Music HDでの視聴は執筆時点ではEcho Studioでの再生に限られているのでここも注意が必要だ。また、本記事中に登場するQobuz、TIDALは日本国内でのサービスは提供前の状況となる。
こちらは国内ですでにサービス提供されているAmazon Music HD。このサブスク配信サービスもDolby Atmos、SONY 360 Reality Audio、ハイレゾすべてが聴き放題。ただし、Dolby Atmos、SONY 360 Reality Audioを楽しむことができるのはAmazon Echo Studioのみという対応状況になる。
3.イマーシブは一般的なリスナーにも届く
これらのハイレゾサブスクサービスの展開により、手軽にイマーシブ音響を楽しむ土壌はできあがる。バイノーラルで音楽を楽しむということが普通になるかもしれない。もちろんハイレゾを日々聴くことの楽しみもある。ここで注目をしたいのは、ハイレゾの魅力によりハイレゾサブスクサービスを楽しみ始めたユーザーが、イマーシブも追加のコスト無しで聴けるという点だ。これまでのイマーシブは興味はあっても設備に費用がかかる、スピーカーも多数必要、設置ができない、そういったハードルを超えた先にある存在だった。それが、いま手元にあるスマホとヘッドフォンでサブスクサービスの範囲内で楽しめるということになる。映画館ですらDolby Atmosの特別料金が設定されているが、ハイレゾサブスクサービスにはそれがない。多くのユーザーがその楽しさに気づくことにより、より一層制作も加速することとなるだろう。
制作側の話にも触れておこう。Proceed Magazineでは、以前よりDolby Atmos、SONY 360RAを記事として取り上げてきている。
Dolby Atmosは、7.1.2chのBEDトラックと最大118chのObject Audioにより制作される。Dolby Atmos Musicでは、バイノーラルでの視聴が前提となるため、レンダラーに標準で備わるバイノーラルアウトを使って作業を行うこととなる。となると、最終の仕上げまでDolby Atmos Production Suiteで行えるということになる。Dolby Atmosの制作に対応したPro Tools Ultimate、NUENDOがあれば、Production Suiteの追加でDolby Atmos Musicの制作は始めることができる。
https://pro.miroc.co.jp/headline/daps-90day-trial/#.YK3ozZP7TOQ
SONY 360RAの制作ツールは執筆時点ではベータ版しか存在しない。(※2)まさに、ベータテスターのエンジニアから多くのリクエストを吸収し正式版がその登場の瞬間を待っている状況だ。360RAはベースの技術としてはAmbisonicsが使われており、完全に全天周をカバーする広い音場での制作が可能となる。すでにパンニングのオートメーションなども実装され、DAWとの連携機能も徐々にブラッシュアップされている。正式版がリリースされれば、いち早く本誌紙面でも紹介したいところだ。
(※2)2021年5月追記
360RA制作用プラグイン、360 Reality Audio Creative Suite (通称:360RACS)がリリースされました!
価格:$299
対応フォーマット:AAX、VST
対応DAW:Avid Pro Tools、Ableton Live ※いずれも2021年5月現在
https://360ra.com/ja/
さらなる詳細は次号Proceed Magazine 2021にてご紹介予定です。
←TIDALの音質選択の画面。Normal=高圧縮、High=低圧縮、HiFi=CDクオリティー、Master=ハイレゾの4種類が、対応楽曲であれば選択できる。Wifi接続時とモバイル通信時で別のクオリティー選択ができるのもユーザーに嬉しいポイント。※画像クリックで拡大
←TIDALがDolby Atmosで配信している楽曲リストの一部。最新のヒットソングから70年代のロック、Jazzなど幅広い楽曲がDolby Atmosで提供されている。対応楽曲は、楽曲名の後ろにがDolbyロゴが付いている。※画像クリックで拡大
ハイレゾサブスクサービスは、新しいユーザーへの音楽の楽しみを提供し、そのユーザーがイマーシブ、バイノーラルというさらに新しい楽しみに出会う。CDフォーマットの誕生から40年かかって、やっとデジタル・オーディオの新しいフォーマットが一般化しようとしているように感じる。CDから一旦配信サービスが主流となり、圧縮音声が普及するという回り道をしてきたが、やっと次のステップへの道筋が見えてきたと言えるのではないだろうか。これまでにも色々な試みが行われ、それが過去のものとなっていったが、ハイレゾというすでに評価を得ているフォーマットの一般化の後押しも得て、イマーシブ、バイノーラルといった新たなサウンドがユーザーにも浸透し定着していくことを願ってやまない。
https://pro.miroc.co.jp/headline/rock-on-reference-room-dolby-atmos/#.YLTeSpP7TOQ
https://pro.miroc.co.jp/solution/dolby-atmos-proceed2020/#.YLTeFJP7TOQ
https://pro.miroc.co.jp/headline/netflix-sol-levante-dolby-atmos-pro-tools-session-file-open-source/#.YLTd9ZP7TOQ
https://pro.miroc.co.jp/headline/pro-tools-carbon-proceedmagazine/#.YLTdn5P7TOQ
https://pro.miroc.co.jp/solution/mac-mini-ht-rmu/#.YLTen5P7TOQ
Media
2021/02/24
浜町 日々 様 / 〜伝統芸能が得た、テクノロジーとの融合〜
福井駅からほど近い浜町。福井の歓楽街といえば片町が有名だが、その片町と市内を流れる足羽川との間の地区が浜町である。古くから花街として賑わい、現在でも料亭が軒を連ね情緒あふれる街。国指定の登録有形文化財としても有名な開花亭や、建築家 隈研吾の設計によるモダンな建築も立ち並ぶ文化の中心地である。そんな浜町に花街の伝統的な遊びをカジュアルに楽しむことの出来る「日々」はある。今回はこのステージ拡張に伴う改修をお手伝いさせていただいた。
芸妓の技。日本の伝統芸能とテクノロジー。
ステージ奥のスクリーンをおろした状態での演目の様子。福井・浜町芸妓組合の理事長である今村 百子氏が伝統的な演目を披露し、背景には福井の風景が流れる。まさに伝統芸能とテクノロジーが出会った瞬間である。
日々は、福井・浜町芸妓組合の理事長でもある今村 百子氏が立ち上げたお店。お座敷という限定された空間で、限定された特別なお客様にしか披露されてこなかった芸妓の技。それを広く、カジュアルに楽しんでもらいたいという思いからスタートしている。バーラウンジのようなお店にステージがあり、そこで毎夜これまでお座敷でしか見ることができなかった芸妓さんたちの日本舞踊や、三味線、唄を楽しむことができる。
この日々のステージがこのたび拡張され、様々な催しに対応できるように改修が行われた。改修にはレコーディングエンジニアでもあり、様々な音楽プロデュースを行うK.I.Mの伊藤圭一氏が携わっており、コンセプトや新しい演目のプロデュースなどを行なっている。元々、日々にあったステージは非常に狭かった。「三畳で芸をする」という芸妓の世界、お座敷がそのステージであることを考えればうなずける。これを広げ、日本の伝統芸能だけではなく、西洋の芸能、最新のテクノロジーと融合させ新しいステージを作ろう、というのがそのコンセプトとなる。
普通に考えれば、クローズドな世界に見える日本の伝統芸能の世界だが、今村氏の持つビジョンはとてもオープンなものだ。2017年には全国の芸妓を福井に集め、大きなステージに50名近くの芸妓が集まり、それぞれに磨いた芸を披露する「花あかり」というイベントを行なっている。芸妓の技を広く、カジュアルに楽しんでもらいたいという考えを具現化したわけだ。このように新しいことへ果敢にチャレンジするスピリットを持った今村氏のイメージを具体化できるステージを作ろう、ということで伝統芸能とテクノロジーの融合というコンセプトがさらに詰められていくことになる。
無拍子である日本の伝統芸能に指揮者代わりの声やクリックを持ち込み、バックトラックに合わせて演奏をする。プロジェクターを使い、福井の映像とともに舞踊を披露する、そしてマイクで集音し拡声する。現代のステージ演出としては当たり前に聞こえることかもしれないが、「日本の伝統芸能を」という枕詞をつけた瞬間にハードルの高いチャレンジとなる。なんといっても無拍子である。様々な演出のきっかけを決めることだけでも困難なことだ。このような多くの課題を持ちながら、ステージの設計は進められていくこととなった。
スクリーンを上げると手作業で金・銀・銅をヘラで塗り重ねた四角錐のホリゾントが現れる(下部左)。和を意識する金と、幾何学的な造形。照明により、表情を変化させる建築デザイナー 大塚先生のアイデアだ。
透過スクリーンに浮かび上がる表現
ステージ天井部分にはホリゾントのスクリーンと透過型スクリーン用に2台の超短焦点型のプロジェクターを準備し、この位置からの投影を可能としている。
まずは、映像演出から見ていこう。ステージのホリゾントは、今回の改修の建築デザイナー、大塚 孝博氏による金の四角錐があしらわれている。一般的には、金屏風や松などが想像されるが、ここに幾何学的な金の四角錐とはなんとも粋である。日本の古来のデザインにも幾何学的な模様は多く使われているが、この四角錐は照明の当たり具合により変幻自在に表情を変える。金・銀・銅をヘラで塗り重ねており、一つ一つ反射の具合も異なる。これにより有機的な表情を得ている。
ここに映像との融合を図るわけだが、さすがにこの四角錐のホリゾントへプロジェクターで投影することはできないため、昇降式の大型スクリーンが吊られている。プロジェクターは超短焦点のレンズと組み合わせてステージ天井からの投写としている。これによりステージ上の人物は、ステージ後方1/3まで下がらなければ影が映らない。プロジェクターでの映像演出と、ステージ上での実演を組み合わせることを可能としている。
さらにステージには、透過型スクリーン(日華化学 ディアルミエ)が設置されている。この透過スクリーンに投影することで、ステージ上に人物を浮かび上がらせたり、視覚効果的に使ったりと様々な演出を行うことができる。例えば、笛を吹いている今村百子さんの映像を投影しながら、実際の今村氏がそれに合わせて三味線と唄を披露するという演目が行われている。周りを暗くすることで、ホログラム的に空間に浮かび上がっているような効果を得ることができている上、ホリゾントのプロジェクターとも同時使用が可能なため、演出の幅はかなり広い。
ステージ手前下手側に吊られた透過型スクリーン(日華化学 ディアルミエ)を使った演出、無拍子の笛に合わせるためにイヤモニでクリックを聴きながら演奏を行っている。また、透過型スクリーンはこのように歌詞を浮かび上がらせたりといった演出にも活用できる。空中にふわっと文字が浮かび上がったような幻想的な空気さえ感じる演出が可能だ。
スピーカーをイメージさせない音環境
音響としては、やはりスピーカーの存在をできるだけ目立たないようにしたいという要望があった。スピーカーが鳴っているというイメージを極力持たせないためにも大切なポイントだが、理想的な音環境を提供しようと考えると設計としては難しいものがある。結論から言えば、今回はステージプロセの上下にスピーカーを設置することとなった。上部は、視界よりも上の位置、下部はネットで覆い客席からは見えないように工夫してある。この上下のスピーカーの調整を行うことで、仮想音響軸をステージ上の演者の高さとするように調整を行っている。
音響ミキサーはYAMAHA TF-RACKを導入している。専門のオペレーターが所属するわけではないため、できるだけ簡単に操作できる製品としてこちらが選択された。接続されているソースは、2台のプロジェクターへそれぞれ映像を投影するために用意された映像プレイヤーからの音声、ステージ天井に仕込まれた2本のマイク、上下の袖にはマイクコンセントが設けられている。仮設の機器としては司会者などを想定したハンドマイクが用意されている。
ステージ天井のマイクはDPA 4017が選ばれた。コンパクトなショットガンタイプで、ステージの決まった位置に座ることが多い演者をピンポイントで狙っている。これらのソースは予めバランスを取り、演目ごとのプリセットとして保存、それを呼び出すことで専門でない方でもオペレートできるよう工夫が凝らされている。
映像に合わせた音声のバックトラックは、映像ファイルに埋め込むことで映像と音声の同期の問題を解消している。それらの仕込みの手間は増えるものの、確実性を考えればこの手法が間違いないと言えるだろう。天井マイクの音声にはリバーブが加えられ、実際の生の音を違和感なく支えられるよう調整が行われた。
プロジェクターの項でご紹介した笛を吹く映像に合わせて三味線と唄を歌うという演目では、演者の今村氏はイヤモニをつけてステージに上がる。無拍子の笛にクリックをつけた音声を聴きながらタイミングを図り演奏を行っているということだ。高い技術があるからこそできる熟練がなせる業である。呼吸を合わせ演奏を行う日本の伝統音楽の奏者にとって、これはまさに未知の体験であったことだろう。より良いステージのため、このようなチャレンジに果敢に取り組まれていることに大きな敬意を抱く。
マイクはステージ上での演奏を集音する為にDPA 4017を設置。音響および映像の再生装置はステージ袖のラックにまとめて設置され、専門ではない方もオペレートできるよう工夫が凝らされている。
ここまでに紹介したような芸妓の技を披露するということだけではなく、今後は西洋楽器とのコラボレーションや、プレゼン会場などの催しなど、様々な利用をしてもらえる、皆様に愛される空間になって欲しいとのコメントが印象的。日本の伝統芸能が、新たなスタイルを携えてこの福井の地から大きく羽ばたく、日々はその発信源になるステージとなるのではないだろうか。
前列左より、株式会社大塚孝博デザイン事務所 大塚孝博氏、浜町日々 女将 今村百子氏、株式会社KIM 伊藤圭一氏、後列左より:前田洋介、森本憲志(ROCK ON PRO)
*ProceedMagazine2020-2021号より転載
Media
2021/01/07
手軽に多拠点ストリーミング!〜ATEM Streaming Bridge
ATEM Streaming Bridgeは、ATEM Mini ProシリーズからH.264ストリームを受信して、SDI/HDMIビデオに変換するビデオコンバーター。ATEM Mini Pro / ATEM Mini Pro ISOからのEthenetダイレクトストリーミング信号を受け、SDI/HDMI対応機器にビデオ信号を送ることが出来ます。
つまり、離れた場所にある複数のATEM Mini Pro / ATEM Mini Pro ISOの映像を受け、手元のATEM Mini Pro / ATEM Mini Pro ISOでスイッチングしながらインターネットに配信を行うことが可能になります!
ローカルLANだけでなく、特定のポートを開放することでインターネット越しに信号を受けることも可能。世界中のATEM Mini Pro / ATEM Mini Pro ISOユーザーとコラボレーションしながらの多拠点ストリーミングが手軽に行えます。
セットアップ例
ATEM Streaming Bridgeを使用すると、ATEM Mini Pro / ATEM Mini Pro ISOからのダイレクト配信の配信先としてATEM Streaming Bridgeを指定することができるようになる。図のように、ひとつのビデオスイッチャーに信号をまとめることもできるし、SDI/HDMI対応のレコーダーへ入れてやることもできる。各カメラに1台ずつATEM Mini Pro / ATEM Mini Pro ISOを使用して、離れた場所にいるエンジニアにスイッチングをまるごと任せるような使い方も可能だ。
ATEM Streaming Bridge
販売価格:¥30,778(本体価格:¥ 27,980)
高度なH.264コーデックを使用しており、非常に低いデータレートで高品質を得られるため、ローカル・イーサネットネットワークで離れた場所にビデオを送信したり、インターネット経由で世界中に送信できます!放送局とブロガーがコラボレーションし、ATEM Mini Proを使ったリモート放送スタジオの国際的なネットワークを構築できると想像してみてください。(インターネット経由での受信には特定のポートを開放する必要があります。詳細は製品マニュアルをご参照ください。)
Rock oN Line eStoreでのご購入はこちらから>>
Blackmagic Design ATEM Mini Pro
販売価格:¥ 73,150(本体価格:¥ 66,500)
ATEM Mini Proで追加される機能は「本体からインターネットへのダイレクト配信」「マルチモニタービュー」「プログラム出力の外部SSDへの収録」の3つ。本記事の主旨に則ってオーディオクオリティを優先すると、ダイレクト配信機能は使用する機会がないため、各カメラの映像を確認しながらスイッチングをしたい、または、配信した動画を高品質で取っておきたいのいずれかに該当する場合はこちらを選択することになる。
Rock oN Line eStoreでのご購入はこちらから>>
Blackmagic Design ATEM Mini Pro ISO
販売価格:¥ 113,850(本体価格:¥ 103,500)
ATEM Mini Pro ISOで追加される機能は、ATEM Mini Proの全機能に加え、「全HDMI入出力信号を外部SSDに個別に保存」「スイッチングを施したタイミングをDaVinci Resolveで読み込めるマーカーの記録」の2つ。あとから映像を手直ししたり再編集したりしたい場合にはこちらを選択することになる。アーカイブ映像として公開する前に、本番中に操作を誤ってしまった部分を修正したり、リアルタイムで無料配信したライブを編集し後日有償で販売する、といったことが可能になる。
Rock oN Line eStoreでのご購入はこちらから>>
Rock oN Line eStoreに特設コーナーが誕生!
Rock oN Line eStoreでは、カメラからスイッチャー、配信や収録向けのマイクなど、映像制作に関わる機材を集めた特設コーナーを新設している。本記事に挙げた個別の機材が購入できるのはもちろん、手軽なセット販売や、スタッフに相談できる問い合わせフォームなどもあるので、ぜひ覗いてみてほしい。
eStore特設コーナーへ!!>>
Media
2020/11/11
Roland V-600U~HD4K/HD混在環境でもハイクオリティなビデオ出力!
放送や映像制作と同じように、イベントやプレゼンテーションなどの演出も4K化が進んでいます。一方で、クライアントや演出者からは従来の HD 機材の対応も同時に求められている。
V-600UHDはそうした現場のニーズに合わせ、従来の HD 環境を段階的に 4K に対応させることが可能。全ての入出力端子にローランド独自の「ULTRA SCALER」を搭載。 この機能によりフル HD と 4K の異なる映像を同時に扱えるだけでなく4K と HD 映像も同時に出力できるため、従来の HD ワークフローの中に4K映像を取り込むことができる。
システムセットアップ
V-600UHD は HDMI(2.0対応)入力を 4 系統、12G-SDI 入力を 2 系統搭載し、PC とメディア・プレーヤーに加え、ステージ用にカメラを使用するようなイベントやライブコンサートに最適。すべての入出力に独自のスケーラーを搭載し、4KとHDを同時に入出力することができるため、両者が混在するシステムでも容易に運用が可能だ。
会場ディスプレイには4K映像を出力しながら、HDモニターやライブ配信用エンコーダー等従来の HD 表示デバイスへの出力も可能。エンベデッド・オーディオの入出力にも対応するほか、XLR入力2系統を備えオーディオミキサーからの出力をもらうこともできる。中規模〜大規模イベントのコアシステムとして高い実用性を誇る。
プロダクト
ROLAND V-600UHD
販売価格:¥ 1,408,000(本体価格:¥ 1,280,000)
HDR、フル・フレームレート 60Hz、Rec.2020 規格、DCI 4K(シネマ4K)解像度など先進のテクノロジーに対応し、高精細な映像を扱うことが可能。さらに、内部映像処理は 4:4:4/10bit に対応し、PC から出力された高精細な映像も鮮明に表示可能で、拡大した映像内の細かな文字も細部まで読み取ることができる。
「ROI(Region of Interest)機能」を使えば、1 台の 4K カメラの映像から必要な部分を最大 8 つ抽出することで、複数のカメラを用意するのと同じような演出が可能になる。スケーラー機能と併せてクロスポイントに割り当てることが可能。カメラの台数に頼ることなく、映像演出の幅を拡げることができる。
Rock oN Line eStoreでのご購入はこちらから>>
ROLAND UVC-01
販売価格:¥ 27,500(本体価格:¥ 25,000)
最大1920×1080/60pに対応するRoland純正のビデオキャプチャー/エンコーダー。Mac/Windowsに対応し、ドライバーのインストール不要、USBバスパワー対応など、普段使いにも便利な取り回しのよさが魅力だ。ほとんどのHDMIカメラやビデオスイッチャーに対応するため、WEB配信の機会が多いユーザーは持っておくと便利かも。
Rock oN Line eStoreでのご購入はこちらから>>
Rock oN Line eStoreに特設コーナーが誕生!
Rock oN Line eStoreでは、カメラからスイッチャー、配信や収録向けのマイクなど、映像制作に関わる機材を集めた特設コーナーを新設している。本記事に挙げた個別の機材が購入できるのはもちろん、手軽なセット販売や、スタッフに相談できる問い合わせフォームなどもあるので、ぜひ覗いてみてほしい。
eStore特設コーナーへ!!>>
Media
2020/11/11
ライブミキサーを使用して4K制作環境でWEB配信!
ついにiPhoneが5Gに対応し、大容量データの高速通信がモバイル環境でもいよいよ実現されつつある。テレビ放送やリアルイベントではすでに4Kの需要は高まっており、その波がWEB配信の世界にも押し寄せることが予想される。折しもコロナ禍の影響で映像配信事業の成熟は加速度的に高まっており、既存メディアと同等のクオリティが求められるようになるまでにそれほど長い時間はかからないだろう。
あらゆるライブイベントをプロ仕様のプログラムとして制作することが出来るビデオスイッチャー、Blackmagic Television Studio Pro 4Kを中心とした、4K対応WEB配信システムを紹介しよう。
システムセットアップ
4K対応ビデオスイッチャーであるATEM Television Studio Pro 4Kから、4K対応のビデオキャプチャーであるUltra Studio 4K Miniで配信用のフォーマットにファイルをエンコード。配信用のMac/PCに信号を流し込む構成だ。
ATEM Television Studio Pro 4Kはマルチビュー出力を備えているため、SDIインプットのあるモニターを使用して各カメラやメディアからの映像を監視しながら映像の切り替えを行うことができる。
図ではオーディオ部分を割愛しているが、ATEM Television Studio Pro 4Kにはオーディオインプット用のXLR2系統が備わっているほか、SDIにエンベッドされたオーディオ信号を扱うこともできる。Ethernet経由でMac/PCを繋ぎ、ATEM Control Softwareを使用すれば内部で音声ミキシングも可能なため、ミキサーからのアウトをATEM Television Studio Pro 4Kに入れ、映像と音をここでまとめることが可能。
オーディオクオリティにこだわるなら、小型のオーディオI/FやI/F機能付きミキサーを使用してミキサーからの信号を配信用のMac/PCに直接入力してもよい。手持ちのミキサーの仕様や求められる品質・運用に鑑みて、柔軟な構成を取ることができる。
キープロダクト
Blackmagic Design ATEM Television Studio Pro 4K
販売価格:¥373,780(本体価格:¥339,800)
8系統の12G-SDI入力を搭載し、ハイエンドの放送用機能に対応したATEM Television Studioシリーズの中でも、ATEM Television Studio Proシリーズはプロ仕様の放送用ハードウェアコントロールパネルが一体化しており、追加のCCUにも対応。すべての入力系統に再同期機能を搭載しており、プロ仕様および民生用カメラで常にクリーンなスイッチングが可能。マルチビュー出力に対応しており、すべてのソースおよびプレビュー、プログラムを単一のスクリーンで確認できる。また、Aux出力、内蔵トークバック、2つのスチルストア、オーディオミキサー、カメラコントロールユニットなどにも対応。
ライブプロダクション、テレビシリーズ、ウェブ番組、オーディオビジュアル、そしてテレビゲーム大会のライブ放送などに最適で、カメラ、ゲーム機、コンピューターなどを接続するだけで簡単にライブスイッチングを開始できる。
Rock oN Line eStoreでのご購入はこちらから>>
Blackmagic Design UltraStudio 4K Mini
販売価格:¥125,180(本体価格:¥ 113,800)
UltraStudio 4K Miniは本来はThunderbolt 3に対応したポータブルなキャプチャー・再生ソリューション。Mac/PCにビデオI/Fとして認識される機能を利用して、4K対応キャプチャーカードとして使用することが可能だ。
最新の放送テクノロジーを搭載しており、4K DCI 60pまでのあらゆるフォーマットで放送品質の8/10-bitハイダイナミックレンジ・キャプチャー、4K DCI 30pまでのあらゆるフォーマットで12-bitハイダイナミックレンジ・キャプチャーを実現。SDカードリーダーを内蔵しているので、カメラメディアを直接コンピューターにマウントすることも可能だ。
Rock oN Line eStoreでのご購入はこちらから>>
Blackmagic Design Blackmagic Web Presenter
販売金額:¥ 62,678(本体価格:¥ 56,980)
素材のみは4Kで録っておき、配信はHD品質でもOK、という方はUltraStudio 4K Miniの代わりにこちらを。
あらゆるSDIまたはHDMIビデオソースをUSBウェブカメラの映像として認識。Skypeなどのソフトウェアや、YouTube Live、Facebook Live、Twitch.tv、Periscopeなどのストリーミング・プラットフォームを使用したウェブストリーミングを一層高い品質で実現。Teranex品質のダウンコンバージョンに対応しているので、あらゆるSD、HD、Ultra HDビデオを、低データレートながらも高品質のストリーミングが可能な720pに変換する。
ドライバ不要で、ハイクオリティの内部エンコーダーとして動作する本機があれば、キャプチャデバイスとコンピューターの相性を気にすることなくWEB配信に集中できる。
Rock oN Line eStoreでのご購入はこちらから>>
Rock oN Line eStoreに特設コーナーが誕生!
Rock oN Line eStoreでは、カメラからスイッチャー、配信や収録向けのマイクなど、映像制作に関わる機材を集めた特設コーナーを新設している。本記事に挙げた個別の機材が購入できるのはもちろん、手軽なセット販売や、スタッフに相談できる問い合わせフォームなどもあるので、ぜひ覗いてみてほしい。
eStore特設コーナーへ!!>>
Media
2020/11/11
ウェブキャスターで高品質配信!音楽演奏配信向けシステムセットアップ例
公共の場でのマスク着用と並んで、映像配信はウィズ・コロナ時代のひとつのマナーとさえ言えるほど急速にひとびとの生活に浸透している。もちろん半分ジョークだが、読者の半数は実感を持ってこのことばを迎えてくれることと思う。なにせ、このような記事を読もうと思ってくれているのだから、あなたも映像配信にある程度の関心があるはずだ。
さて、しかし、いざ自分のパフォーマンスを配信しようと思っても、どのような機材を揃えればいいのか、予算はいくらくらいが妥当なのか、というところで迷ってしまう方もいることだろう。(Z世代のミュージシャンは、そんなことはないのだろうか!?)
そこで、この記事では音楽の生演奏を前提に、低価格かつ高品質な映像配信を実現するシステムアップ例を紹介したいと思う。
システムセットアップ例
スイッチャーはATEM Miniで決まり!?
マルチカメラでの映像配信にこれから挑戦したいという方にぜひおすすめしたいビデオスイッチャーがBlackmagic Design ATEM Miniシリーズだ。4x HDMI入力やプロ仕様のビデオエフェクト、さらにはカメラコントロール機能までついた本格仕様でありながら価格破壊とも言える低価格を実現しており、スイッチャーを初めて導入するという方からコンパクトなスイッチャーを探しているプロフェッショナルまで、幅広くおすすめできるプロダクトだ。
ATEM Mini、ATEM Mini Pro、ATEM Mini Pro ISO、と3つのラインナップがあり、順次機能が増えていく。ATEM Miniでは各カメラ入力をモニターする機能がないため、バンド編成でのライブ配信などにはATEM Mini ProかATEM Mini Pro ISOを選択する方がオペレートしやすいが、弾き語りや小編成ユニットの場合はATEM Miniでも十分だろう。
ATEM Miniシリーズについての詳細はこちらの記事>>も参考にしてほしい。
オーディオI/F機能付きミキサーでサウンドクオリティUP!
ATEM Miniシリーズにはマイク入力が備わっており、ATEM Mini内部でのレベルバランスの調整も可能となっている。しかし、オーディオのクオリティにこだわるなら小型でもよいのでオーディオミキサーの導入が望ましい。ライブやレコーディングで使用できる一般的なマイクを使用することができるし、機種によってはオンボードのエフェクトも使用できる。必要十分な入出力数を確保できるし、なにより経由する機器を減らす方がクオリティは確実に上がる、とメリット尽くしだ。
音声系をいったんミキサーでまとめ、ATEM Miniからの映像信号とは別系統としてMac/PCに入力、OBSなどの配信アプリケーション内で映像と音声のタイミングを合わせるというシステムアップになる。
この時、ミキサーとオーディオI/Fを別々に用意してもよいが、最近の小型ミキサーの中にはUSBオーディオI/F機能を搭載したものも多く、「ウェブキャスター」と呼ばれるWEB配信を特に意識したプロダクトも存在する。
すでにミキサーやオーディオI/Fを所有しているなら足りない方を買い足すのがよいだろうが、これから配信に挑戦しようというならウェブキャスターなどのUSB I/F機能付きミキサーがうってつけのソリューションとなるだろう。チャンネル数、対応サンプリング周波数、マイク入力数など各モデルで特色があるため、自分に必要なスペックがわからない場合は気軽にRock oN Line eStoreに問い合わせてみてほしい。
おすすめI/F機能付きミキサー
YAMAHA AG-06
販売価格:¥ 19,800(本体価格:¥ 18,000)
ウェブキャスターという名称を広めた立役者とも言えるYAMAHA AGシリーズ。ループバック機能、ヘッドセット対応、2x マイク/ライン入力・1x 48Vファンタム電源を含む6入力、USB I/F機能、USBバスパワーなど、ウェブ動画配信に完全対応。さらに最大で192kHz/24bitというハイレゾクオリティのオーディオ性能を誇る。弾き語りや二人組ユニットだけでなく、バックトラックに合わせての演奏やトーク番組風の配信、ゲーム実況まで幅広く対応可能だ。
Rock oN Line eStoreでのご購入はこちらから>>
ZOOM LIVETRAK L-8
販売価格:¥ 39,600(本体価格:¥ 36,000)
ジングルや効果音を鳴らせる6個のサウンドパッド、電話の音声をミックスできるスマートフォン入力、バッテリー駆動でスタジオの外にも持ち出せる機動力。ポッドキャスト番組の収録やライブ演奏のミキシングが手軽に行える、8チャンネル仕様のライブミキサー&レコーダー。内蔵SDカードに録音することが可能で、12chモデル、20chモデルの上位機種もランナップされているためバンドライブの動画配信にはうってつけだろう。
Rock oN Line eStoreでのご購入はこちらから>>
Presonus StudioLive AR8c
販売価格:¥ 55,000(本体価格:¥ 50,000)
ミュージシャン達がミュージシャンのために開発したハイブリッド・ミキサーであるStudioLive® ARcシリーズは、XMAXプリアンプ/EQ/デジタル・エフェクトを搭載したアナログ・ミキサーに、24Bit 96kHz対応のマルチチャンネルUSBオーディオ・インターフェース、SD/SDHCメモリー・カード録音/再生、そしてBluetoothオーディオ・レシーバーによるワイヤレス音楽再生機能を1台に統合。ラインアップは、8チャンネル仕様、12チャンネル仕様、16チャンネル仕様の3機種。レコーディングや音楽制作のためのCapture™/Studio One® Artistソフトウェアも付属し、ライブPA、DJ、バンドリハーサル、ホームスタジオ、ネット配信に理想的なオールインワン・ハイブリッド・ミキサーとなっている。
Rock oN Line eStoreでのご購入はこちらから>>
YAMAHA MG10XU
販売価格:¥ 29,334(本体価格:¥ 26,667)
YAMAHAの定番アナログミキサーであるMGシリーズも、多くがUSB I/F機能を搭載している。WEB配信に特化した製品ではないが、高品位なディスクリートClass-Aマイクプリアンプ「D-PRE」搭載をはじめ、1ノブコンプ、24種類のデジタルエフェクトなど、本格的なミキサーとしての機能を備えており、クオリティ面での不安は皆無と言える。20chまでの豊富なラインナップも魅力。トークやMCではなく「おれたちは音楽の中身で勝負するんだ!」という気概をお持ちなら、ぜひこのクラスに手を伸ばしてほしい。
Rock oN Line eStoreでのご購入はこちらから>>
SOUNDCRAFT Notepad-8FX
販売価格:¥ 14,900(本体価格:¥ 13,545)
ブリティッシュコンソールの老舗メーカーであるSOUNDCRAFTにもUSB I/F機能搭載のコンパクトミキサーがラインナップされている。全3機種の中で上位モデルであるNotepad-12FXと本機Notepad-8FXには、スタジオリバーブの代名詞Lexicon PRO製のエフェクト・プロセッサーを搭載!ディレイやコーラスも搭載しており、これ1台で積極的な音作りが可能となっている。ブリティッシュサウンドを体現する高品位マイクプリ、モノラル入力への3バンドEQ搭載など、コンパクトながら本格的なオーディオクオリティを誇っている。
Rock oN Line eStoreでのご購入はこちらから>>
ALLEN & HEATH ZEDi-8
販売価格:¥ 19,008(本体価格:¥ 17,280)
こちらもイギリスの老舗コンソールメーカーであるALLEN & HEATHが送るUSB I/F対応アナログミキサーがZEDシリーズだ。ZEDi-8はコンパクトな筐体に必要十分で高品質な機能がギュッと凝縮されたようなプロダクトだ。2バンドのEQ以外にオンボードエフェクトは搭載していないが、定評あるGS-R24レコーディング用コンソールのプリアンプ部をベースに新設計されたGSPreプリアンプは同シリーズ32ch大型コンソールに搭載されているのと同じもの。長い歴史を生き抜いてきたアナログミキサー作りのノウハウが詰め込まれた一品と言えそうだ。
Rock oN Line eStoreでのご購入はこちらから>>
あなたに最適なATEM Miniは!?
Blackmagic Design ATEM Mini
販売価格:¥ 39,578(本体価格:¥ 35,980)
4系統のHDMI入力、モニター用のHDMI出力1系統、プロクオリティのスイッチング機能とビデオエフェクトなど、プロクオリティの機能を備えながら圧倒的な低コストを実現するATEM Mini。コンピューターに接続してPowerPointスライドを再生したり、ゲーム機を接続することも可能。ピクチャー・イン・ピクチャー・エフェクトは、生放送にコメンテーターを挿入するのに最適。ウェブカムと同様に機能するUSB出力を搭載しているので、あらゆるビデオソフトウェアに接続可能。導入コストを低く抑えたい方にはおすすめのプロダクトです。
Rock oN Line eStoreでのご購入はこちらから>>
Blackmagic Design ATEM Mini Pro
販売価格:¥ 73,150(本体価格:¥ 66,500)
ATEM Mini Proで追加される機能は「本体からインターネットへのダイレクト配信」「マルチモニタービュー」「プログラム出力の外部SSDへの収録」の3つ。本記事の主旨に則ってオーディオクオリティを優先すると、ダイレクト配信機能は使用する機会がないため、各カメラの映像を確認しながらスイッチングをしたい、または、配信した動画を高品質で取っておきたいのいずれかに該当する場合はこちらを選択することになる。
Rock oN Line eStoreでのご購入はこちらから>>
Blackmagic Design ATEM Mini Pro ISO
販売価格:¥ 113,850(本体価格:¥ 103,500)
ATEM Mini Pro ISOで追加される機能は、ATEM Mini Proの全機能に加え、「全HDMI入出力信号を外部SSDに個別に保存」「スイッチングを施したタイミングをDaVinci Resolveで読み込めるマーカーの記録」の2つ。あとから映像を手直ししたり再編集したりしたい場合にはこちらを選択することになる。アーカイブ映像として公開する前に、本番中に操作を誤ってしまった部分を修正したり、リアルタイムで無料配信したライブを編集し後日有償で販売する、といったことが可能になる。
Rock oN Line eStoreでのご購入はこちらから>>
Rock oN Line eStoreに特設コーナーが誕生!
Rock oN Line eStoreでは、カメラからスイッチャー、配信や収録向けのマイクなど、映像制作に関わる機材を集めた特設コーナーを新設している。本記事に挙げた個別の機材が購入できるのはもちろん、手軽なセット販売や、スタッフに相談できる問い合わせフォームなどもあるので、ぜひ覗いてみてほしい。
eStore特設コーナーへ!!>>
Media
2020/11/11
加速度的に進む普及、ATEM Mini Proが配信を面白くする
ATEM Mini Pro 価格:¥74,778(税込)
いま、注目を集めているのはオンライン・コラボレーションだけではない。音楽ライブ、ゲーム、セミナーなどの配信、特にリアルタイム配信の分野もまた、大きな注目を集め始めている。ここでは、そうしたライブ配信のクオリティアップを手軽に実現できるプロダクトとしてBlackmagic Design ATEM Mini Proを取り上げたい。
スイッチャーの導入で配信をもっと面白く
冒頭に述べたように、オンラインでのコミュニケーションを行う機会が格段に増えている。以前からゲームプレイの中継配信などがメディアにも取り上げらることが多かったが、ここのところではライブを中心に活動していたミュージシャンやライブハウスが新たにライブ配信に参入するケースも出てきた。もちろん普段の生活の中でもオンラインでのセミナー(所謂ウェビナー)や講義・レッスン、さらにはプレゼンの機会も多くなっているだろう。
その音楽ライブの配信は言うまでもなく、ゲーム中継やセミナー、会議やプレゼンでも、ふたつ以上の映像を配信できた方が表現の幅が広がり、視聴者や参加者により多くの事柄を伝えることができる。演奏の様子を配信する場面では、引きと寄りのアングルを切り替えた方が臨場感が増すし、音楽レッスンならフォーム全体と手元のクローズ映像が同時に見られた方がより分かりやすい。講義やプレゼンではメインの資料を大きく映しておいて、ピクチャインピクチャで講師の顔を映しておく、補足資料や参考URLなどを別PCで用意しておく、プロダクトをカメラで撮ってプレゼンする、など使い方を少し思い起こすだけでも数多くの手法が広がることになる。
こうしたニーズを満たすのがビデオスイッチャーと呼ばれるプロダクトになるのだが、現在、市場で見かけるスイッチャーのほとんどは業務用にデザインされたものになっている。サイズの大きいものが多く、また様々な機能が使用できる分だけ一見すると操作方法が分かりにくい場合もある。さらに、入出力もSDI接続である場合がほとんどであり、家庭向けのカメラとの使用には向いていない。そして何より高額だ。
しかし、昨年秋に発表されたBlackmagic Design ATEM Miniは、放送用のトランジションやビデオエフェクト機能を備えた4系統HDMI入力対応のスイッチャーでありながら、税込定価¥40,000を切るプロダクトとして大きな話題を呼んだ。今回紹介するATEM Mini Proは新たに発売された上位版にあたるプロダクトであり、ATME Mini にさらに機能を追加し、業務用途にも耐える仕上がりとなっている。どのような映像を配信したいかは個別のニーズがあるが、インターネットへマルチカムでの映像配信を検討中の方は必見のプロダクトだ。以下で、ATEM Mini、ATEM Mini Proのアドバンテージを概観していきたい。
HDMI 4系統に特化した映像入力
まず、ATEM Miniシリーズが手軽なソリューションである大きな理由は、HDMI 4系統のみというシンプルな入力であることだ。その他の入力系統を大胆に省略し、多くの家庭用カメラが対応するHDMIに接続を特化することで、十分な入力数を確保しながらコンパクトなサイズを実現している。これは、業務用カメラやSDI変換などの高額な機器が不要であるという点で、システム全体の導入費用を大幅に下げることにも貢献する。
外部オーディオ入力端子としてふたつのステレオミニジャックを備えているため、ダイナミックマイクを接続することも可能。画角との兼ね合いでカメラからのオーディオが使用しにくい場合でも、クリアな音質を確保することができる。2020年6月のアップデートで、コントロールソフトウェアで外部からのオーディオ入力にディレイを掛ける機能が追加され、画・音のずれを修正することも可能になった。
システムをコンパクトに
さらに、ATEM Miniシリーズの利点として配信システムに必要なデバイスの数を減らすことができるという点も挙げられる。スイッチャーを中心としてマルチカム配信システムの構成をざっくりと考えると、カメラやMac/PCなどの映像入力機器、スイッチャー、信号を配信に向いたコーデックにエンコードするキャプチャー/WEBキャスター、配信アプリケーションのインストールされたMac/PC、となる。
ATEM Miniはこのうち、スイッチャーとキャプチャーの機能を併せ持っている。Mac/PCからウェブカムとして認識されるため、配信用のMac/PCに接続すればそのままYouTube LiveといったCDNに映像をストリーミングすることができるのだ。それだけでなく、SkypeやZoomなどのコミュニケーションツールからもカメラ入力として認識されるため、会議やプレゼン、オンライン講義などでも簡単に使用することができる。上位機種のATEM Mini Proはこれに加えて、配信アプリケーションの機能も備えている。システムを構成するデバイスを削減できるということは、コスト面でのメリットとなるだけでなく、機材を持ち込んでの配信や、システムが常設でない場合などに、運搬・組み上げの手間が省略できるというアドバンテージがある。
ATEM Miniは図のようにスイッチャー、キャプチャーをひとまとめにした機能を持っているが、上位版のATEM Mini Proではさらに配信環境までカバーする範囲が広がる。まさにオールインワンの配信システムと言える内容だ。
つなぐだけ派にも、プロユースにも
デフォルトの設定では、ATEM Mini / ATEM Mini Proは4系統のHDMIに入力された信号を自動で変換してくれる。つまり、面倒な設定なしでカメラをつなぐだけで「とりあえず画は出る」ということだ。
しかし、ATEM シリーズに無償で同梱される「ATEM Software Control」は、これだけで記事がひとつ書けてしまうほど多機能で、クオリティにとことんこだわりたい場合はこちらから詳細な設定やコントロールを行うことも可能。スイッチングやオーディオレベルの操作は本体のパネルからも行うことができるが、コントロールソフトウェアを使用すれば、さらに追い込んだ操作を行うことが可能になる。このATEM Software Controlの各機能はDaVinci Resolveで培われた技術を使用しているため、オーディオ/ビデオ・エフェクトやメディア管理など、業務レベルに耐えるクオリティの仕上がりになっている。
しかも、ATEM Software Controlはネットワークを介して本体と接続できるため、離れた場所からのスイッチャー操作も可能。HDMIは長尺ケーブルを使用するのがためらわれるが、この機能を使用すればカメラ位置に左右されずにオペレーションするスペースを確保することができる。さらに、同時に複数のATEM Software ControlからひとつのATEM Mini / ATEM Mini Proにアクセスできるため、スイッチング / カメラ補正 / オーディオミキシング、など、役割ごとにオペレーターをつけるというプロフェッショナルな体制を取ることまでできてしまう。
ATEM Software Controlのコントロール画面。なお、オーディオパネルはMackie Control、KORG NanoKontrol、iCON Platform M+などの外部コントローラーに対応している。スペースに余裕が生まれた分、こうした機材を導入して音のクオリティアップで差をつけるのも面白いだろう。
ATME Mini VS ATEM Mini Pro
●CDNにダイレクトにストリーミング
ATEM MiniとATEM Mini Proのもっとも大きな違いと言えるのが、ATEM Mini Proでは本体を有線でインターネットにつなげば、ダイレクトにCDNに映像をストリーミングすることができるということだ。もちろん、ストリーミングキーを入力してやるためのMac/PCは必要になるが、一度キーを設定してしまえば本体から取り外しても問題ない。手元のスペースを節約できるだけでなく、安定した配信を行うためにスペックの高いMac/PCを新たに購入する必要がなくなるし、ストリーミングのように安定度が求められる部分をハードウェアに任せることができるのは大きな安心だ。省スペース、低コスト、高い信頼性、と、この機能の実装によって得られるメリットは非常に大きいのではないだろうか。ライブハウスなどによるビジネス用途ならATEM Mini Pro、すでに十分に高いスペックのマシンを所有しているならATEM Miniと、既存の環境に応じてチョイスするとよいのではないだろうか。
●マルチビュー対応
こちらもパワフルな機能。ATEM Mini ProにはHDMI出力が1系統しか搭載されていないが、一画面で全ての入力ソース、メディアプレイヤー、オーディオとON AIRのステータスを確認することができる。各モニターはタリーインジケーターを表示可能で、どのソースがオンエアされ、次にどのソースへトランジットするかを確認することができる。プレビュー機能も備えており、M/Eがどのようにかかるのかを事前に確認することも可能だ。これらすべてを一画面でモニターできるというコンパクトさと取り回しのよさは、まさに"Pro"という名にふさわしい機能追加と言えるだろう。
●外部デバイスへプログラムをレコーディング
ATEM Mini Proは、プログラムをH.264ビデオファイルとしてUSBフラッシュディスクにダイレクトに記録することができる。しかも、USBハブやBlackmagic Design MultiDockなどのプロダクトを使用すると、複数ディスクへの収録にも対応可能だ。ひとつのディスクがフルになると、自動で次のディスクに移行することで、長時間のストリーミングでも継続した収録を行うことができる。YouTube LiveやFacbook LiveではWEB上にアーカイブを残すことが可能だが、プログラムをその場で手元にメディアとして持っていられることは、ほかの場所で使用することなどを考えると大きなメリットとなるだろう。
実際の自宅からの簡易的な配信を想定したシステム例。ATEM Mini Proで取りまとめさえすれば配信への道は簡単に開けてしまう。音声の面でも48Vファンタム対応の小型ミキサーを使用すればコンデンサーマイクを使用することができる。HDMIアダプタを使用して、スマートフォンやタブレットをカメラ代わりに使うことも可能。別途、配信用のMac/PCを用意すれば、複数の配信サイトにマルチキャストすることもできる。
にわかに活況を呈するコンパクトビデオスイッチャーの世界。小さなスペースで使用でき、持ち運びや設置・バラシも手軽な上に、マルチカメラでの配信をフルHD画質で行うことを可能にするコンパクトスイッチャーをシステムの中心に据えることで、スマホ配信とは別次元のクオリティで映像配信を行うことが可能となる。特にATEM Mini / ATEM Mini Proを使用すれば、ほんの何本かのケーブルを繋ぐだけで、高品質な配信が始められてしまう。ぜひ、多くの方に触れてみてほしいプロダクトだ。
*ProceedMagazine2020号より転載
Media
2020/10/27
On Premise Server パーソナルなオンプレサーバーで大容量制作をハンドリング
Internetの発達に伴って進化を続けている様々なCloudベースのサービス。その一方で、コスト面も含めて個人の自宅でも導入できるサイズの製品も着実な進化を遂げているのがOn Premise(オン・プレミス=敷地内で)のサーバーソリューション。Cloudのように年額、月額で提供されるサービスと比較するとどのようなメリットがあるのか、オンプレのサーバーはNetwork上からどう活かされるのか、オンラインでの協業体制が求められる今だからこそパーソナルユースを視野に入れたエントリーレベルにおけるオンプレサーバー導入のいまを見ていきたい。
Synology Home Server
今回、取り上げる製品はSynology社のホームサーバー。ラインナップは1Drive(HDD1台)のコンパクトな製品からスタートし、1DriveでHDD無しのベアボーンが1万円前半の価格から入手できる。何かと敷居の高いサーバーソリューションの中でも、パーソナル領域におけるラインナップを充実させているメーカーだ。このホームサーバーの主な役割は、ローカルネットワーク上でのファイル共有サービス(NAS機能)と、Internetに接続されたどこからでもアクセス可能なOn Premiseファイル・サーバーということに集約される。
もちろんそれ以外にも、遠隔地に設置されたSynology製品同士での自動同期や、プライベートな音楽/動画配信サーバー機能、ファイルのバージョニング機能、誤って消去してしまったファイルの復元機能など多彩な機能を持ち、ローカルでのファイル共有に関しては汎用のNAS製品と同様に、Windows向けのSMB/NFS共有、MacOS向けのSMB/AFS共有が可能と、それぞれOSの持つ標準機能でアクセスができるシンプルな形式を持つのだが、今回はこのようなローカル環境でのサービスではなく、外出先でも活用ができるサービスに目を向けたい。
Synologyの設定画面。ブラウザでアクセスするとOSライクなGUIで操作できる。
コスト優位が際立つオンプレ
外出先で、サーバー上のデータを取り出せるサービスといえば、DropBox、OneDriveなどのCloudストレージサービスが思い浮かぶ。Synologyの提供するサービスは、一般向けにもサービスの提供されているCloudストレージと比較してどのような違いがあるのだろうか?
まず、SynologyのようなOn Premiseでのサービスの最大のメリットは、容量の大きさにあるだろう。本原稿の執筆時点で一般向けに入手できる最大容量のHDDは16TB。コスト的にこなれてきている8TBのモデルは2万円を切る価格帯で販売されている。これは1TBあたりの単価は¥2,000を切る水準となっており、容量単価のバランスも納得いくレベルなのではないだろうか。
これをCloud Stroageの代表格であるDropBoxで見てみると、1TBの容量が使える有償サービスは年額¥12,000となる。もちろん、機器の購入費用が必要ない、壊れるという心配がない、電気代も必要ない、などCloudのメリットを考えればそのままの比較はできないが、8TBという容量を持つ外出先から接続可能なOn Premiseサーバーの構築が4万円弱の初期投資で行えるということは、コストパフォーマンスが非常に高いと言えるだろう。また、4Drive全てに8TBのHDDを実装しRAID 5の構成を組んだとすれば、実効容量24TBという巨大な容量をNetwork越しに共有することが可能となる。大容量をコストバランスよく実現するという側面をフォーカスすると、On Premiseのメリットが際立ってくる。
利用している帯域など、ステータスもリアルタイムに監視が可能だ。
オンプレの抱える課題とは
このように単純に価格で考えれば、HDDの容量単価の低下が大きく影響するOn Premiseの製品のコストパフォーマンスは非常に高いものがある。その一方で、On Premiseが抱えるデメリットがあることも事実。例えばCloudサービスであれば、データはセキュリティーや防災対策などが万全になされたデータセンターに格納される。データの安全性を考えると自宅に設置された機器との差は非常に大きなものになるだろう。もちろん、Synologyの製品も2Drive以上の製品であればRAIDを構築することができるため、データの保全に対しての対策を構築することも可能だが、これは導入コストとトレードオフの関係になる。実例を考えると、ストレージの速度とデータの保全を両立したRAID 5以上を構築しようとした際には3 Drive以上の製品が必要。製品としては4Drive以上の製品に最低3台以上のHDDを実装する必要があり、初期導入コストは8万円程度が見込まれる。1TB程度の容量までで必要量が足りるのであれば、Cloudサービスの方に軍配があがるケースもある。必要な容量をどう捉えるかが肝要な部分だ。
また、On Premiseの製品は手元にあるために、突如のトラブルに対しては非常に脆弱と言わざるを得ない。前述のようにデータセンターとは比較にならない環境的な要因ではあるが、2〜3年おきにしっかりと機器の更新を行うことで、そういったリスクを低減することはできる。そのデータはどれくらいの期間の保持が必須なのか、重要性はどれほどのものなのか、保全体制に対しての理解をしっかりと持つことで、大容量のデータの共有運用が見えてくる。
オンプレをNetworkから使う
パッケージセンターには数多くのアプリケーションが用意されている。
Synology社のOn Premiseサーバーは、専用のアプリをインストールすることでInternet接続環境があればどこからでも自宅に設置されたサーバーのデータを取り出すことができる。また、DropBoxのサービスのように常時同期をさせることもできれば、特定のフォルダーを第三者へ共有リンクを送り公開する、といった様々なサービスを活用できる。設定もWebブラウザ上からGUIを使うシンプルなオペレーションとなっており、設定も極めて簡便。VPNを使用するというような特別なこともないため、迷うことなく自宅のサーバーからファイル共有を行うことが行えてしまう。ユーザーの専門知識を求めずに運用が可能な水準にまで製品の完成度は高まっていると言えそうだ。
ファイル共有のあり方は多様になっており、ユーザーの必要な条件に合わせてOn Premise、Cloudと使い分けることができるようになってきている。むしろ選択肢は多彩とも言える状況で、メリット、デメリットをしっかりと理解し、どれくらいのデータ量をハンドリングしたいのか、そのデータの重要性をどう考えるか、ユーザーの適切な判断があれば充実したパーソナルサーバー環境はすぐにでも構築、実現できてしまう。今後、ますます大容量となるコンテンツ制作のデータをどう扱えるのかは、パーソナルな制作環境にとっても重要な要素であることは間違いないだろう。それをどのようにハンドリングするかの鍵はここにもありそうだ。
*ProceedMagazine2020号より転載
Media
2020/09/24
Macのワークステーションが今後を”創る” 〜Apple Mac Pro Late2019〜
目次
序論
Apple Mac Pro Late2019概要
Mac Pro Late2019の各構成部品:CPU
Mac Pro Late2019の各構成部品:メモリ
Mac Pro Late2019の各構成部品:PCI Express拡張スロット
Mac Pro Late2019の各構成部品:GPU
Mac Pro Late2019の各構成部品:AfterBurner
考察
1:序論
各業界で注目を集めたApple Mac Pro Late2019は2019年6月に発表、同年12月より発売が開始された。同社CEO Tim Cook氏はWWDC2019の基調講演で「これまでに開発した中で最も強力なMac」と語り「すべてを変えるパワー」と広告される本機種。その驚異的なマシンスペックと拡張性などの紹介から前機種との比較などを通し、Macのワークステーションが作り得る未来への可能性を紐解いていく。
2:Apple Mac Pro Late2019概要
<↑クリックして拡大>
発表当初より、Apple Mac Pro Late2019は注目度も高く、既に発売されているためデザイン面など基本的な情報は皆さんご存知であろう。たださすがにMac Proの最新モデルともあり、オプションも多岐に渡るため構成部品とそのカスタマイズ域についてを別表にまとめるのでご確認いただきたい。また「これまでに開発した中で最も強力なMac」「すべてを変えるパワー」と称されるMac Pro Late2019だが、比較対象に直近3モデル:Mid2012・Late2013・Late2019を取り上げ、CPU / メモリ / GPU / ストレージ、周辺機器との接続性なども同様に別表に掲載する。それでは、次から各構成部品の紹介に移り、Mac Pro Late2019の内容を確認していく。
<↑クリックして拡大>
【特記事項】
・min maxの値:Apple公表値を基準とする。メモリなど3rdパーティー製品による最大値は無視する。
・CPU/GPU:モデル名を表記する。比較はベンチマークで行い後述する。
・メモリ/ストレージ:モデル名は表記せず、容量/動作周波数、容量/PCIe規格といった数値表記とする。
・数値の表記:比較を用意にする為、単位を揃える。(メモリ:GB、ストレージ:TB)
3:Mac Pro Late2019の各構成部品:CPU
Apple HPの広告で搭載CPUについては、”最大28コアのパワー。制限なく作業できます。”と称されている。このモデルではMac史上最多の最大28コアを搭載したIntel XeonWプロセッサを採用、8coreから28coreまで、5つのプロセッサをラインナップしたため、ニーズに合わせた性能を手に入れることができるようになった。CPUはコンピュータの制御や演算や情報転送をつかさどる中枢部分であるが、直近3モデル(Mid2012/Late2013/Late2019)のCPUパフォーマンスを比較し、その実力を見ていく。まずは以下のグラフをご覧いただこう。
図1. Mac Pro CPU(Multi-core)ベンチマーク比較
こちらのグラフは、モデルごとのCPUベンチマーク比較である。横軸左から、Mid2012(青)→Late2013(緑)→Late2019(オレンジ)と並び、各モデルの最低CPUと最高CPUにおける、マルチコアのベンチマーク値を縦軸に示した。ベンチマーク値はGeekBenchで公開されるデータをソースとしている。Late2019の最低CPUの値に注目しラインを引くと、旧モデル最高CPUの値をも超えていることがわかる。たとえ、Late2019で最低のCPUを選んだとしても、旧MacPROの性能を全て超えていくということだ。決して誇大広告でなく、「これまでに開発した中で最も強力なMac」と称される理由の一つだと分かる。数値で示すと以下表になる。参考までに、Single-Coreのベンチマーク値も掲載する。
表3. Late2019/最低CPU と 旧モデル/最高CPUのベンチマーク値
次に、Late2019最大値にもラインを引き、Late2019最低値との差分に注目する。この差分が意味するのは、ユーザーが選択できる”性能幅”である。ユーザーはこの範囲の中から自らの環境に合わせてMacPROをコーディネートしていくことになる。視覚的にも分かる通り、Late2013と比べても圧倒的に性能の選択幅が広くなっている事が分かる。
図2. Mac Pro Late2019 ベンチマーク性能幅
数値を示すと以下のようになる。Late2013と比較すると、約3倍もの性能選択幅があることが分かる。
表4. 性能選択余地の遷移
以上の比較から、旧MacProから乗り換える場合、”Late2019を買えばCPU性能が必ず向上する”ということが分かった。しかし、性能幅も広がった為、新たにLate2019を検討する方は自分に合うCPUを選択する必要がある。Late2013よりも長期的運用が可能だと噂され、CPUが動作速度の根幹であることを考えると、Mac Pro Late2019のCPUは少しオーバースペックなものを選択しても良いかもしれない。参考までに、現行MacのCPU性能比較もご覧いただきたい。なお、現行モデルの比較対象として以下モデルを追加した。iMac Pro Late 2017 / Mac mini Late 2018 / iMac 21.5inch Early 2019 / iMac 27inch Early 2019 / Mac Book Pro 16inch Late 2019(ノート型の参考)
図3. 現行MacとMacPro Late2019との比較
<↑クリックして拡大>
このグラフで注目するのは、Late2019のCPU最低値と16core XeonWの値である。まず、CPU最低値に注目すると、iMacのCPU値と交差することが分かる。また、16core XeonWの値に注目すると交差するCPUが存在しなくなることが分かる。故に、現行モデル以上の性能を求め、他にない性能を実現するには16core XeonW以上の選択が必要となる。また、ワークステーション/PCの性能はCPUのみで決まることではないので、購入の際にはメモリ、GPUや拡張性なども十分考慮していただきたい。
4:Mac Pro Late2019の各構成部品:メモリ
Apple HPの広告でメモリについては、"あなたが知っているメモリは、昨日のメモリです。”と称されている。ユーザーがアクセスできる12の物理的なDIMMスロットを搭載し、プロセッサと互換性のあるメモリであれば、将来的なアップグレードも可能だ。Mac Pro Late2019ではR-DIMMとLR-DIMMのメモリモジュールに対応しているが、同じシステムで2種類のDIMMを使うことはできないので容量追加には注意が必要である。LR-DIMM対応のCPU(24core以上のXeonW)を選択した場合、最大1.5TBの容量を実現する。
ワークステーション/PCの”作業机”と訳される事も多いメモリ。データやプログラムを一時的に記憶する部品であるが、CPU同様に直近3モデルと比較していく。まずは最小構成、最大構成の2種類のグラフをご覧いただこう。
図4. MacPro:メモリ最小構成での比較
図5. MacPro:メモリ最大構成での比較
表5.MacPro:メモリ最小構成での比較
表6.MacPro:メモリ最大構成での比較
横軸はCPU同様、Mac Pro Mid2012/Late2013/Late2019を並べている。縦軸左側はメモリ容量値で青棒グラフで示し、右側は動作周波数をオレンジ丸で示している。図4.最小構成のグラフに注目しメモリ容量を比較すると、おおよそモデル毎に倍々の推移が見られる。また、動作周波数に関しては2次曲線的推移が見られる。モデルの発展とともに、部品としての性能も格段に上がってきている事が分かる。図5.最大構成のグラフに関しては一目瞭然ではあるが、表6.最大構成のLate2019、メモリ容量の前モデル比に注目すると23.44という驚異的な数値を叩く。これもまた、「これまでに開発した中で最も強力なMac」と称される理由の一つだと分かる。
さて、購入検討時のメモリ問題であるが、こちらは後ほどアップグレードできる為、初めは低容量から導入し、足りなければ随時追加という方式が取れる。メモリで浮いた金額をCPUへ割り当てるという判断もできるため、予算を抑えながら導入も可能だ。ただし、CPUによるメモリ容量の搭載上限が決まり、メモリモジュールを合わせる事を念頭に入れ検討する事が重要だ。
5:Mac Pro Late2019の各構成部品:PCI Express拡張スロット
Mac Pro Late2019ではCPUの性能幅やメモリの拡張性に加え、8つのPCI Express拡張スロットの搭載が可能になった。Avid HDX Card や Universal Audio UAD-2 PCIe Cardを搭載してオーディオプロセスを拡張するも良し、加えて、GPU / AfterBurner(後述) / キャプチャボードを搭載し、グラフィック面を拡張しても良い。まさに、クリエイティブなユーザーの思いのままに、Mac Proの拡張が可能になったと言える。さらに、Mac Pro Mid2012と比べるとスロット数が倍になっていることから、PCIeによる機能拡張においても「これまでに開発した中で最も強力なMac」であると分かる。
写真を参考に、搭載可能なPCIeについて確認していこう。上から順に、ハーフレングススロット、シングルワイドスロット、ダブルワイドスロットと並ぶ。下から順に、スロットNo.が1-8までカウントされる。
それでは各種のスロットについて見ていこう。
○ハーフレングススロット:No.8
スロットNo.8には最大 x4 レーンのPCIeカードが搭載可能。ここには標準仕様でApple I/Oカードが既に搭載されており、Thunderbolt 3ポート× 2、USB-Aポート× 2、3.5mm ヘッドフォンジャック× 1を備える。このI/Oカードを取り外して他のハーフレングスPCIeカードに取り替えることもできるが、別のスロットに取り付けることはできないので、変更を検討する場合には注意が必要だ。
○シングルワイドスロット:No.5-7
スロットNo.5には最大 x16レーン、No.6-7には最大 ×8レーンのPCIeカードが搭載可能。スロットNo.5の最大 ×16レーンには、AfterBurnerはに取り付けることが推奨される。後述のGPUとの連携からであろうが、他カードとの兼ね合いから、AfterburnerをNo.5に取り付けられない場合は、後述のスロットNo.3へ、No.3とNo.5が埋まっている場合はスロット4へ取り付けると良い。
○ダブルワイドスロット:No.1-4
スロットNo.1,3,4には最大 x16レーン、No.2には最大 x8レーンのPCIeカードが搭載可能。スロットNo.1、No.4は2列に渡ってPCIeが羅列しているが、これは後述するApple独自のMPX Moduleを搭載する為のレーンになる。MPXモジュール以外で使用する場合は、最大 x16レーンのPCIeスロットとして使用できる。
6:Mac Pro Late2019の各構成部品:GPU
Apple HPの広告でGPUについては、"究極のパフォーマンスを設計しました。”と表現されている。業界初、MPX Module(Mac Pro Expansion Module)が搭載され、業界標準のPCI Expressのコネクタに1つPCIeレーンを加えThunderboltが統合された。また、高パフォーマンスでの動作のため、供給電力を500Wまで増やし、専用スロットによる効率的な冷却を実現している。500Wというと、一般的な冷蔵庫を駆動させたり、小型洗濯機を回したり、炊飯器でご飯を炊けたりしてしまう。また、Mac Pro Late2013の消費電力とほぼ同等である為、相当な量であるとイメージできる。話が逸れたが、GPUに関してもCPU同様に前モデルと比較していく。
図6. MacPro:GPU最小/最大での比較
こちらのグラフは、モデルごとのCPUベンチマーク比較である。横軸左から、Mid2012(青)→Late2013(緑)→Late2019(オレンジ)と並び、各モデルの最低GPUと最高GPUにおける、マルチコアのベンチマーク値を縦軸に示した。ベンチマーク値はGeekBenchで公開されるデータをソースとしているが、Mid2012に関しては有効なベンチマークを取得できなかった為、GPUに関してはLate2013との比較になる。また、AMD VegaⅡDuoは2機搭載だが、この値は単発AMD VegaⅡDuoの値となる。
表7.MacPro:GPU最小部品での比較
表8.MacPro:GPU最大部品での比較
部品単体であっても、前モデルからは最小でも2倍、最大では3倍のパフォーマンスを誇る。最大部品である。AMD Radeon Pro VegaⅡDuoはさらにもう一枚追加できるため、グラフィックの分野でも十分驚異的なスペックが実現できると言える。これも「これまでに開発した中で最も強力なMac」と称される理由の一つとなる。
7:Mac Pro Late2019の各構成部品:AfterBurner
Afterburnerとは、ProRes/Pro Res RAW ビデオファイルのマルチストリームのデコードや再生を高速化するハードウェアアクセラレータカードである。まず、AfterBurnerを導入するメリットを振り返ろう。ProRes や ProRes RAW のマルチストリームを8Kなどの解像度で再生するための演算をこのAfterBurnerに任せられる。逆にない場合、Mac Pro Late2019のCPUで演算を行うため、その負担分が編集作業に回せなくなってしまう。AfterBurnerによる外部演算を取り入れることによりCPUでは他の処理や映像エフェクトの演算に注力できる為、より複雑な3D、映像編集が可能となる。また、ProRes および ProRes RAW のプロジェクトやファイルのトランスコードおよび、共有が高速化する事もメリットの一つである。
AfterBurnerの対応するアプリケーションは、"ProRes または ProRes RAW のファイルを再生するApple製のアプリケーション”である。例えば、Final Cut Pro X、Motion、Compressor、QuickTime Player などで使用可能だ。その他、他社製のアプリが気になるところだが、"他社製の App のデベロッパが、Afterburner のサポートを組み込むことは可能”とのことなので、今後の対応に期待したい。
8:考察
Mac Pro Late2019の登場により、従来のMacからは考えられないようなスペックでワークステーションを導入する事が可能になったが、ハイスペックかつ消費電力も高いため、初期投資およびランニングコストも大きくかかってしまうというリスクもある。しかし、クリエイティブ以外に時間を割いていると感じているならば朗報である。例えば、レンダリング、プロキシファイル変換、変換によって生じるファイルマネジメントなどなど。Mac Pro Late2019の性能は、作品を完成させるまでの待機時間や面倒な時間を圧倒的に減らし、ユーザーのクリエイティブな時間をより多く提供してくれると考える。
従来機よりも早く仕事を終わらせ、次の仕事に取り掛かる、それを終えたらまた次の新しい仕事へと取り掛かる。サイクルの早い循環、クオリティの向上が、他者との差別化に繋がっていく。初期投資、ランニングコストなど懸念点も多いが、その分クリエイティブで勝負して稼いでいく、というスタイルへMac Pro Late2019が導いてくれるかもしれない。これからの時代の働き方を変え、クリエイティブ制作に革新が起きることを期待している。
*ProceedMagazine2020号より転載
Media
2020/08/19
株式会社ミクシィ 様 / 新たな価値は「コミュニケーションが生まれる」空間のなかに
都内5拠点に分かれていたグループ内の各オフィスを集約させ、2020年3月より渋谷スクランブルスクエアでの稼働を開始した株式会社ミクシィ。渋谷の新たなランドマークともなるこの最先端のオフィスビル内にサウンドグループのコンテンツ収録や、制作プロジェクトにおける外部連携のコミニュティの場を設けるべく、この機に合わせて新たなスタジオが完成した。オフィス移転によるサウンドグループの移転だけでもプランニングは膨大な労力を伴うものとなるが、加えて高層オフィスビルへのスタジオ新設という側面や、何より同社らしいコミュニケーションというキーワードがどのようにスタジオプランに反映されたのか見ていきたい。
スタジオの特色を産み出した決断
これまで、青山学院にもほど近い渋谷ファーストタワーに拠点を置いていたサウンドグループ。そこにも自社スタジオはあり、主にナレーション録りを中心とした作業を行うスペースとなっていた。もちろん、コンテンツ制作を念頭に置いた自社で備えるスタジオとしては十分に考えられた設備が整っていたが、あくまでオフィス内のスペースでありミックスを形にするという設計ではなかった。また、コンテンツ制作には演者、クリエイターからディレクター、企画担当者など社内だけでも多数の関係者が存在するため、スタジオでいかにコミュニケーションを円滑に進められるか、ということは制作進行にとって重要な課題となっていた。そこへ、各所に分散していたオフィスの集約プランが浮上する。
新しいオフィスは当時建設中であった渋谷スクランブルスクエア、その高層階にサウンドグループのスペースが割り当てられる。そもそも全社のオフィス機能集約となるため、移転計画の最初からフロアにおけるスペース位置、間取り、ドアや壁面といった要素はあらかじめ決められていたものであり、高層ビルにおける消防法の制約もあったそうだ。例えば、スタジオ壁に木材が貼られているように見えるが、実はこちらは木目のシートとなっている。壁面に固定された可燃物は使用できないための対応だが、質感や部屋の暖かさもしっかり演出されている。取材の最後に明かされるまで我々も気がつかなかったほどだ。
そして、今回スタジオ向けに用意されたのは大小の2スペース。そもそもにどちらの部屋をコントロールルームとするのか、またその向きは縦長なのか横長なのか、制約ある条件のもと安井氏と岡田氏が試行錯誤を繰り返す中で着眼したのは"コミニュケーション”という課題。
ミクシィ社としてこのスタジオがどうあるべきか、どういう価値を出すのが正しいのか。専属エンジニアがいる商業スタジオではない、コミュニケーションが生まれる環境とはどのようなものなのか。これにマッチすることを突き詰めて考えた結果、レコーディングブースの方を広くとる設計になり、また当初縦長で進めていたコントロールルームの設計も思い切って横長レイアウトに変えたそうだ。もちろん、音響的な解決を機材面や吸音で行う必要もあれば、ブース窓の位置やテレビの高さ、モニタースピーカーの配置など課題は数多くなったが、これをクリアしていくのも楽しみの一つだったという。そしてこれらのポイントの解決に芯を通したのが"コミニュケーション”が如何にいい形で取れるか、ということ。このレイアウト段階での決断がスタジオを特色あるものにしたのではないだろうか。
音でのコミュニケーションを促進させる最初のツール
前述の通り、こちらは商業スタジオではなくミクシィ社でのプロジェクトにおける制作拠点、またその外部との連携に利用できるスペースとして機能している。自社コンテンツでのボイス・ボーカル収録はもちろんのこと、同フロアにある撮影スタジオとも協業で、自社タレントとユーチューバーの楽曲カバーコラボレーション企画のPV制作や、渋谷公園通りにあるXFLAGストアでのインストアライブの配信コンテンツミックスなどがすでに行われており、多種多様なコンテンツの制作がすでにこちらで実現され始めている状況だ。企画案件の規模によってはクリエイターのワークスペースで完結できるものもあるが、このようなプロジェクトで多くの関係者との共同作業を可能にする拠点、というのが今回のスタジオに求められている要件でもある。社外のクリエイターが来てもすぐに使えるような機材・システム選定を念頭に置き、またそこから「コミュニケーションが生まれる」ような環境をどのように整えたのだろうか。それを一番現しているのがアナログミキサーであるSSL X-DESKの導入だ。
コントロールルームの特注デスクにはPro ToolsのIn the boxミキシング用にAvid Artist MixとアナログミキサーのX-DESKが綺麗に収められている。X-DESKにはAvid MTRXから出力された信号、また入力に対しての信号、さらにレコーディングルームからの信号と、コントロールルームに設置されているマイクプリなど様々なソースに対して臨機応変に対応でき、使用するスタッフによって自由に組み替えが可能になっている。ただしデフォルトの設定はシンプルで、基本的にはマイクプリから来ているマイクの信号と、外部入力(iPhoneやPC上の再生)がミキサーに立ち上がっており、内外問わずどんなスタッフでも簡単に作業を始めることができる仕様だ。
これは現場での作業を想定した際に、ギターでボーカルのニュアンスを伝えたいクリエイターもいれば、ブースでボーカリストの横に入ってディレクションするケースであったり、Co-Write(共作)で作業を行う場合など、共同作業がすぐに始めて立ち上げられて、バランスまで取れる環境を考えるとアナログの方が有利という判断。「音でのコミュニケーションを促進させる最初のツール」がアナログミキサーだということだ。
また、デスク左側にはMac miniを中心としたサブシステムが用意されている。こちらのMac miniにはNuendo/Cubaseもインストール、そのインターフェイスとなるRME Fireface UFX II も左側を向けてラッキング。これも来訪者がすぐさま使用開始できるように配慮されている部分だ。
セレクトされたコミュニケーションでの実用性
それでは、デスク右側のラックに目を向けたい。ラックの中でも特に存在感を放っているのが新型のMacProだ。2019年の夏頃から本格的にスタジオの設計を固め、機材選定も大方定まったところで中々導入時期を読めなかったのがこちらのMacPro。周知の通りで2019年末に突如として姿を現すことになったわけだが、このスタジオに導入されたのは、必須となるレコーディング作業だけに限らず、映像の編集も難なくこなせるであろう3.3GHz 12Core、96GBメモリ、SSD 2TBというスペック構成のもの。レンダリングが数多く走るなど負荷がかかる場面はまだあまりないようだが、意外にもその動作はかなり静粛とのことだ。
このラックではMac Proを筆頭に、ビデオ入力、出力の分配を担うBlack Magic Design SmartVideoHub。そしてAvid HDXからMTRXにつながり、MTRXからX-Deskや、各々ルーティングを細く設定できるバンタムパッチベイがある。Ferrofish PULSE16はMTRXからのDANTE Optionを有効活用し、ADATへ変換されBEHRINGER POWERPLAY16(CUE BOX)に繋がれている。その上にはAvid Sync HDがあり、マスタークロックとしてAntelope Audio Trinityがトップ段に設置されている。
また、モニタースピーカーについてはRock oN渋谷店舗にて十数のモニタースピーカーが比較試聴され、KS digital C8 Reference Rosewood(後に同社製のサブウーファーも導入)とAmphion One18が選ばれた。こちらは横長にしたコントロールルームのレイアウトを考慮してニアフィールドにスイートスポットがくる同軸のKS digitalと、バランスを重視してのAmphionというセレクトとなった。使用するスタッフによってナレーションでのボイスの部分にフォーカスしたり、あるいは楽曲全体を聴く必要があるなど、用途は制作内容によってそれぞれとなるためバランスの良さという共通項はありつつも、キャラクターが異なる2種類が用意された。
後席ソファー横にはデシケーターがあり、U87Ai、TLM67、C414 XLSなどが収められている。演者にもよるが特に女性の声優とTLM67がよくマッチするようで好まれて使用されることが多いそうだ。また、マイクモデリングを行えるSlate Digital VMSの姿も見える。こちらは試している段階とのことだが、ボイス収録の幅広さにも適用できるよう積極的に新たな技術も視野に入れているようだ。確実性あるベーシックな機材を押さえつつ、 新MacProやMTRXといった新しいプロダクトを導入し、かつコミュニケーションの実用性を図っているところが、こちらの機材セレクトの特色でありユニークなところと言えるだろう。
レコーディングブースを超えた多目的さ
大小のスペースのうち、広い方を割り当てたブースは主にナレーション録音が行われる。天井のバトンにはYAMAHA HS5Wが5ch分吊るされているのだが、用途としては5.1chサラウンドへの対応だけではなく、イベント向けの制作に効果を発揮するという。イベント会場では吊られたスピーカーから音が出るケースが多く、その環境を想定しての音作りを求められることが多いためだ。多様な企画を行うミクシィ社ならではのスピーカー環境の利用の仕方と言える。なお、センターにあるHS5Wの横にもパッシブモニター YAMAHA VXS5W(パワー・アンプはコントロールルームにYAMAHA MA2030aを設置)がTalkBack用の返しモニターとして設置されている。このようにヘッドフォンに返すのではなく、あえてモニターでTalkBackを送るというのは、コントロールルームとのコミニュケーションをよりよくするために考えられた発想だ。
また、コントロールルームのラックにあったBlackMagic Smart Videohub 12x12にて、ディスプレイモニターには映像の出力やPro Toolsメイン画面を切り替えにて映し出し可能、レコーディングブースでもミキシングも行えるようになっている。急ぎの案件ではブースとコントロールルームでパラレル作業を行い、作業部屋二つのようなスタイルでも使われるとのことだ。そして、壁面のパネルは演者の立ち位置を考慮して4面それぞれに配置されている。4人でのナレーションを録る場合や、さらに声優たちの個別映像出しにモニター出力用のSDI端子、CUE送り用のLAN端子。また、スタッフがブース内でPC/Macを持ち込み映像を見ながら打ち合わせをする場合に備えての社内LAN回線までもが備えられている。ミクシィという企業ではこの先にどんな制作物が発想されてもおかしくない、とのことで考えうる最大限の仕様が織り込まれた格好だ。スピーカーが吊るされたことにより、無駄なくスペースを広く保ち、録音はもちろんコントロールルームと並走したミキシングの機能まで兼ね備えている。単にレコーディングブースと呼ぶには留まらない特徴的な”多目的"スペースを実現している。
コミュニケーションを生み出す仕掛け
コミュニケーションを生み出すというコンセプトによって生み出された工夫はほかにもある。コントロールルームの後方にあるソファは通常はクライアント用と考えられそうだが、こちらは商業スタジオではないためこのスペースも立派に作業スペースとして成り立つ必要がある。そのためこのソファの内部2箇所に可動式のパネルが隠されている。クリエイターやプロデューサーがPC/Macを持ち寄り、その場で持ち込んだ素材(オーディオファイル)の確認や、映像の出力、もちろんディレクションも行えるようにモニターコントローラーとして採用されたGrace Design m905のTalkBackマイクのスイッチがアクセスできるようになっている。当初このアイデアは壁面や床面など設置位置に試行錯誤があったようだが、その結論はなんとソファの中。これによってスタジオのデザイン的な要素や機能面も損なうことなく、コミュニケーションを生み出す仕掛けが実現できている。
また、コントロールルーム正面からそのまま窓越しに演者とコミュニケーションが取れるようにというのが、レイアウトを横長に変更した大きな理由であったが、ブースへの窓はエンジニア席だけではなく、このソファからの視線も考慮されて位置が決定されている。窓位置はモニタースピーカーの位置決定にも関わるし、テレビの配置にも関わる。施行前から座席部分にテープでマーキングして両氏が念入りに試行錯誤を重ねたそうだ。
そして、このフロアにはサウンドスタジオのみではなく、連携して協業する撮影スタジオのほか、会議室、社員の休憩スペースからコンビニエンスストアまで整っている。インタビューを行った会議室や休憩スペースは遠く水平線まで見渡せる開放的なスペースで、集中した作業を行うスタジオ内と実に対照的。作業のON/OFFがはっきりとした環境で生まれるコミュニケーションも良好なものになりそうだ。
最後に話題となったのは、スマートフォンにおける5Gへの対応だ。
「まさに実用が始まったばかりとなる5Gの高速な通信は、端末に頼らなくとも大容量のコンテンツを成立させることができるかもしれない。もちろん、アプリやゲームも5Gの恩恵を受けてより高度な表現を提案することが可能になってくる。サウンドで言えばバイノーラルへの対応でキャラクターへの没入感をより深いものにできるかもしれない。5Gで何ができるのだろうか、提供されるインフラとはどのようなものだろうか、そして顧客へ提供できるサービスとはなんだろうか、このような着想から生み出されるのは各社の特色。そして何に強みを持ってコンテンツを作っていくのか、これによって整えるスタジオの環境も変わってくる。」
インタビュー時の両氏のコメントをまとめたものだが、やはり見据えているのはインフラやプラットフォームまで含めたエンタテインメントコンテンツそのものであるという点で、クリエイティブワークだけではない視野の広さが求められているということが感じられた。このスタジオが生み出すコミュニケーションの積み重ねが、5Gの可能性を引き出し、エンタテインメントの可能性を拡げていく。今後このスペースは従来のスタジオ以上の価値を生み出していくことになる、とも言えるのではないだろうか。
株式会社ミクシィ
モンスト事業本部
デザイン室 サウンドグループ
マネージャー
安井 聡史 氏
株式会社ミクシィ
コーポレートサポート本部
ビジネスサポート室
サウンドライツグループ
岡田 健太郎 氏
*ProceedMagazine2020号より転載
Media
2020/08/11
ゼロからはじめるDOLBY ATMOS / 3Dオーディオの世界へDIVE IN !!
2020年1月、CES2020にてお披露目された"Dolby Atmos Music"。映画向けの音響規格の一つであるDolby Atmosを、新たなる"3D"音楽体験として取り入れよう、という試みだ。実は、前年5月頃より"Dolby Atmosで音楽を制作しよう”という動きがあり、ドルビーは世界的大手の音楽レーベル、ユニバーサルミュージックとの協業を進めてきた。"Dolby Atmos"は元々映画音響用のフォーマットとして2012年に誕生している。その後、ヨーロッパを中心に対応劇場が急速に増え、海外では既に5000スクリーン以上、国内でもここ数年で30スクリーン以上に渡りDolby Atmosのシステムが導入されてきた。
また、映画の他にもVRやゲーム市場でもすでにその名を轟かせており、今回、満を持しての音楽分野への参入となる。Dolby Atmos Music自体は、既にプロオーディオ系の様々なメディアにて取り上げられているが、「Dolby Atmosという名称は聞いたことがある程度」「Dolby Atmosでの制作に興味があるが、日本語の情報が少ない」という声もまだまだ多い。そこでこの記事では、今のうちに知っておきたいDolby Atmosの基礎知識から、Dolby Atmosミックスの始めの一歩までを出来るだけ分かりやすい表現で紹介していきたい。
目次
コンテンツは消費の時代から”体験”の時代に 〜イマーシブなオーディオ体験とは?〜
まずは Dolby Atmosを体験しよう! / 映画、音楽、ゲームでの採用例
ベッドとオブジェクトって何!? / Dolby Atmos基礎知識
Dolby Atmos制作を始めよう / 必要なものは何?
自宅で始めるDolby Atmosミックス / Dolby Atmos Renderer × Pro Tools 2020.3【Send/Return編】
自宅で始めるDolby Atmosミックス / Dolby Atmos Renderer × Pro Tools 2020.3【CoreAudio編】
1.コンテンツは消費の時代から”体験”の時代に 〜イマーシブなオーディオ体験とは?〜
近年、"3Dオーディオ"という言葉をよく見かけるようになった。今のところ、その厳密な定義は存在していないが、古くからは"立体音響"や"三次元音響"といった言葉でも知られており、文字通り、音の位置方向を360度、立体的に感じられる音響方式のことを指す。その歴史は非常に古く、諸説あるがおよそ1世紀に渡るとも言われている。
点音源のモノラルに始まり、左右を表現できるようになったステレオ。そして、5.1、7.1、9.1…とその数を増やすことによって、さらなる音の広がりや奥行きを表現できるようになったサラウンド。と、ここまででもイマーシブな(*1)オーディオ体験ができていたのだが、そこにいよいよ、天井や足元といった高さ方向にもスピーカーが加わり、三次元空間を飛び回るような音の再生が可能になった。それぞれの方式は厳密には異なるが、3DオーディオフォーマットにはDolby Atmos、Auro-3D、DTS:X、NHK22.2ch、Sony360 Reality Audioなどといったものがある。
基本的に、これまでこうした3Dフォーマットのオーディオを再生するにはチャンネル数に応じた複数のスピーカーが必要だった。そのため、立体的な音像定位の再現性と、そうした再生環境の手軽さはどうしてもトレードオフになっており、なかなか世間一般に浸透しづらいという状況が続いていた。そこで、いま再注目を浴びているのが"バイノーラル(*2)録音・再生方式"だ。個人差はあるものの原理は単純明快で、「人間の頭部を模したダミーヘッドマイクで録音すれば、再生時にも人間が普段自分の耳で聞いているような立体的な音像が得られる」という仕組み。当然ながらデジタル化が進んだ現代においては、もはやダミーヘッドすら必要なく、HRTF関数(*3)を用いれば、デジタルデータ上で人間の頭側部の物理的音響特性を計算・再現してしまうことができる。
バイノーラル再生自体は全くもって新しい技術というわけではないのだが、「音楽をスマホでストリーミング再生しつつ、ヘッドホンorイヤホンで聴く」というスタイルが完全に定着した今、既存の環境で気軽にイマーシブオーディオを楽しめるようになったというのが注目すべきポイントだ。モバイルでのDolby Atmos再生をはじめ、Sonyの360 Rearity Audio、ストリーミングサービスのバイノーラル音声広告といった場面でも活用されている。
*1 イマーシブ=Immersive : 没入型の *2 バイノーラル= Binaural : 両耳(用)の *3 HRTF=Head Related Transfer Function : 頭部伝達関数
2.まずは Dolby Atmosを体験しよう! / 映画、音楽、ゲームでの採用例
では、Dolby Atmosは一体どのようなシーンで採用されているのだろうか。百聞は一見に如かず、これまでDolby Atmos作品に触れたことがないという方は、まずは是非とも体験していただきたい。
映画
映画館でDolby Atmosを体験するためには、専用設計のスクリーンで鑑賞する必要がある。これには2種類あり、一つがオーディオの規格であるDolby Atmosのみに対応したもの、もう一つがDolby Atmosに加え、映像の規格であるDolby Visionにも対応したものだ。後者は"Dolby Cinema"と呼ばれ、現時点では国内7スクリーン(開業予定含む)に導入されている。
Dolby Atmosでの上映に対応している劇場は年々増加していて、2020年4月現在で導入予定含む数値にはなるが、既に国内では 36スクリーン、海外では5000スクリーン以上にも及んでいる。 (いずれもDolby Atmos + Dolby Cinema計)当然ながら対応作品も年々増えており、ライブストリーミング等、映画作品以外のデジタルコンテンツも含めると、国内では130作品、海外ではその10倍の1300を超える作品がDolby Atmosで制作されている。いくつか例を挙げると、国内興行収入130億円を超える大ヒットとなった2018年の「ボヘミアン・ラプソディ」をはじめ、2020年のアカデミーでは作品賞を受賞した「パラサイト 半地下の家族」、同じく録音賞を受賞した「1917 命をかけた伝令」などといった作品がDolby Atmosで制作されている。
●Dolby Atmos採用映画の例
アイアンマン3 / アナと雪の女王 / ラ・ラ・ランド/ パラサイト / フォードvsフェラーリ / ジョーカー / 1917 命をかけた伝令 / ボヘミアンラプソディetc...
*Dolby 公式サイトよりDolby Atmos採用映画一覧を確認できる
ゲーム
Dolby AtmosはPCやXbox Oneといった家庭用ゲームの人気タイトルでも数多く採用されている。特に、近年流行りのFPS(First Person Shooter = 一人称視点シューティング)と呼ばれるジャンルのゲームでは、射撃音を頼りに敵の位置を把握しなければならない。そのため、Dolby Atmosを使った3Dサウンドの再生環境の需要がより高まってきているのだ。
※Windows PCやXbox OneにおいてヘッドホンでDolby Atmosを楽しみたい場合は、Dolby Access(無料)というアプリをインストールし、Dolby Atmos for Headphonesをアプリ内購入する必要がある。
●Dolby Atmos採用ゲームの例
Assassin's Creed Origins(Windows PC, Xbox One) / Final Fantasy XV(Windows PC ,Xbox One)Star / Wars Battlefront(Windows PC ,Xbox One) / ACE COMBAT 7: SKIES UNKNOWN(Windows PC, Xbox One)
音楽
Amazon Echo Studio
そして2020年1月にCES2020で正式発表されたのが、このDolby Atmosの名を冠した新たな3Dオーディオ再生フォーマット、Dolby Atmos Musicだ。現時点で、国内ではAmazonが提供するAmazon Music HD内のみでサービスを提供しており、同社のスマートスピーカー”Amazon Echo Studio”を用いて再生することができる。アメリカでは音楽ストリーミングサービス"TIDAL"でもDolby Atmos Musicを再生することができ、こちらは対応するPCやスマホなどでも楽しめるようになっている。
ここまで、Dolby Atmosを体験してみて、皆さんはどのような感想を持たれただろうか? 当然ながら多少の個人差はあるにしても、映画であればその空間に入り込んだかのような没入感・豊かな臨場感を体験できたのではないだろうか。あるいは、人によっては「期待したほど音像が動き回っている感じが得られなかった」という方もいるだろう。しかし、それでDolby Atmosの魅力を見限るのはやや早計だ。なぜなら、この技術は、"作品の意図として、音を無意識に落とし込む”くらい自然にミックスすることを可能にしているからだ。それを念頭におき、もう一度、繊細な音の表現に耳を澄ましてみてほしい。
3.ベッドとオブジェクトって何!? 〜Dolby Atmos基礎知識〜
体験を終えたところで、ここからは技術的な側面と基礎知識を押さえていこう。ポイントとなるのは以下の3点だ。
● ベッド信号とオブジェクト信号
● 3次元情報を記録するメタデータ
● 再生環境に合わせてレンダリング
Dolby Atmosの立体的な音像定位は、2種類の方式を組み合わせて再現されている。 一つはチャンネルベースの信号 ー 5.1.2や7.1.2などあらかじめ定められたスピーカー配置を想定し、そのスピーカーから出力される信号のことを"Bed"と呼んでいる。例えば、BGMやベースノイズといった、あまり指向性が求められない音の再生に向いている。基本は音源とスピーカーが1対1の関係。従来のステレオやサラウンドのミックスと同じなので比較的イメージがつきやすいだろう。
劇場のように、一つのチャンネルが複数のスピーカーで構成されていた場合、そのチャンネルに送った音は複数のスピーカーから再生されることになる。
そしてもう一つはオブジェクトベースの信号 ー 3次元空間内を縦横無尽に動き回る、点音源(ポイントソース)の再生に適した方式だ。例えば、空を飛ぶ鳥の鳴き声や、アクション映画での動きのある効果音の再生に向いている。原理としては、3次元情報を記録するメタデータをオーディオとともに記録・伝送し、再生機器側でそれらを再生環境に合わせてレンダリング(≒変換)することで、再生環境ごとのスピーカー配列の違いをエンコーダー側で吸収できるという仕組みだ。
ある1点に音源を置いた時に、そこから音が聴こえるように、スピーカー送りを最適化するのがレンダラーの役割
Dolby AtmosのチャンネルフォーマットはBed 7.1.2ch(計10ch) + Object118ch(最大)での制作が基本となっている。この"空間を包み込むような音"の演出が得意なベッドと、”任意の1点から聞こえる音”の演出が得意なオブジェクトの両方を組み合わせることによって、Dolby Atmosは劇場での高い臨場感を生み出しているのだ。
4.Dolby Atmos制作を始めよう 〜必要なものは何?〜
Dolby Atmosはその利用目的によって、大きく2種類のフォーマットに分けられる。
まずは、一番最初に登場した映画館向けのフォーマット、Dolby Atmos Cinemaだ。これはまさにフルスペックのDolby Atmosで、先述した7.1.2chのBEDと118chのObjectにより成り立っている。このフォーマットの制作を行うためにはDolbyの基準を満たした音響空間を持つダビングステージでの作業が必要となる。しかも、劇場向けのマスターファイルを作ることができるCinema Rendering and Mastering Unit (Cinema RMU)はDolbyからの貸し出しでしか入手することができない。
もう一つは、Blu-ray やストリーミング配信向けのフォーマット、 Dolby Atmos Homeだ。実は、こちらの大元となるマスターファイル自体は Cinema 向けのものと全く同じものだ。しかし、このマスターファイルから Home 向けのエンコードを行うことで、128chのオーディオを独自の技術を活用して、できる限りクオリティーを担保したまま少ないチャンネル数に畳み込むができる。この技術によって、Blu-rayやNetflixといった家庭向けの環境でも、Dolby Atmos の迫力のサウンドを楽しめるようになった。こちらも、マスターファイルを作成するためには、HT-RMUと呼ばれるハードウェアレンダラーが必要となるが、HT-RMUは購入してスタジオに常設できるというのがCinemaとは異なる点だ。
●Dolby Atmos制作環境 比較表
※Dolby Atmos Production SuiteはWeb上、AVID Storeからご購入できるほか、Mastering Suiteにも付属している。
※Dolby Atmos Dub with RMUについてはDolby Japan(TEL: 03-3524-7300)へお問い合わせください。
●Cinema
映画館上映を目的としたマスター。ダビングステージでファイナルミックスとマスタリングを行う。Dolby Atmos Print Masterと呼ばれるファイル群をCinema Rendering and Mastering Unit (Cinema RMU)で作成。
●Home
一般家庭での視聴を目的としたマスター。ニアフィールドモニターによるDolby Atmosスピーカー・レイアウトにてミックスとマスタリングを行う。Dolby Atmos Master File(.atmos)と呼ばれるファイル群をHome-Theater-Rendering and Mastering Unit(HT-RMU)で作成。
Cinema用とHome用のRMUでは作成できるファイルが異なり、スピーカーレイアウト/部屋の容積に関する要件もCinema向けとHome向けで異なる。それぞれ、目的に合わせたRMUを使用する必要がある。ミキシング用のツール、DAW、プラグイン等は共通。
ここまで作品や概要を説明してきたが、そろそろDolby Atmosでの制作を皆さんも始めてみたくなってきただろうか?「でも、自宅に7.1.2chをモニターできる環境が無い!「やってみたいけど、すぐには予算が捻出できない!」という声も聞こえてきそうだが、そんな方にとっての朗報がある。Dolby Atmos Production Suiteを使えば、なんと ¥33,000 (Avid Storeで購入の場合)というローコストから、Dolby Atmos ミックスの最低限の環境が導入できてしまうのだ。このソフトウェア以外に別途必要なものはない。必要なものはスペックが少し高めのマシンと、対応DAW(Pro Tools、Nuendo、DaVinchi etc)、そしてモニター用のヘッドホンのみだ。
多少の制約はあるものの、ヘッドホンを使ったバイノーラル再生である程度のミックスができてしまうので、スタジオに持ち込んでのマスタリング前に自宅やオフィスの空き部屋といったパーソナルな環境でDolby Atmosの仕込みを行うことができる。次の項ではそのワークフローを具体的に紹介していく。
5.自宅で始めるDolby Atmosミックス 〜Dolby Atmos Renderer × Pro Tools 2020.3〜
ここからは最新のPro Tools 2020.3 とProduction Suiteを使って実際のDolby Atmosミックスのワークフローをチェックしていきたい。まず、大まかな流れとしては下記のようになる。PTとレンダラーの接続方法は、Send/Returnプラグインを使う方法とCore Audio経由でやり取りする方法の2種類がある。それでは順番に見ていこう。
1.Dolby Atmos Production SuiteをAvid Storeもしくは販売代理店にて購入しインストール。
2.Dolby Atmos Renderer(以後レンダラー)を起動各種設定を行う。
3.Pro Tools(以後PT) を起動各種設定を行う。※正しいルーティングの確立のため、必ずレンダラー →Pro Toolsの順で起動を行うこと。
4.PTの標準パンナーで3Dパンニングのオートメーションを書き込む。
5.Dolby Atmos RMU導入スタジオに持ち込む。
Send/Returnプラグインを使う方法
■Dolby Atmos Renderer の設定
● 左上Dolby Atmos Renderer → Preferences( ⌘+ , )で設定画面を表示
● Audio driver、External Sync sourceをSend/Return Plug-insに設定
● Flame rate、Sample rateを設定 ※PTの設定と合わせる
HeadphoneのRender modeをBinauralにすることで、標準HRTFでバイノーラル化された3Dパンニングを確認することができる。(※聴こえ方には個人差があります。)
■Pro Tools の設定
● 新規作成→プロジェクト名を入力→テンプレートから作成にチェック
● テンプレートグループ:Dolby Atmos Production Suite内”Dolby Atmos Renderer Send Return Mono(またはStereo)”を選択→ファイルタイプ:BWF
● 任意のサンプルレート、ビットデプス、I/O設定を入力→作成
● 設定 → ペリフェラル → Atmosタブ
● チェックボックスに2箇所ともチェックを入れる。
● RMUホストの欄には”MAC名.local”または”LOCALHOST”と入力。
接続状況を示すランプが緑色に点灯すればOK。一度接続した場合、次回からプルダウンメニューで選択できる。
編集ウィンドウを見てみると、英語でコメントが入力されたいくつかのトラックが並んでいる。
● まず、一番上の7.1.2Bedという名称のトラック ーここにBedから出力したい7.1.2の音素材をペーストまたはRECする。
● 次に、その下のObject 11という名称のトラック ーここにObjectから出力したいMonoまたはStereoの音素材をペーストまたはRECする。
● 上の画像の例では、任意の範囲をドラッグして選択、AudioSuite→Other→Signal Genetatorよりピンクノイズを生成している。
● このトラックは、画面左側、非表示になっている”SEND_〇〇_IN_ch数”という表記になっているAUXトラックに送られている。
● このAUXトラックにSendプラグインがインサートされており、パンなどのメタデータとともにレンダラーへと出力される。
試しに再生してみると、レンダラー側が上の画像のような状態になり、信号を受けているチャンネルが点灯している様子が確認できる。
赤丸で囲った部分をクリックしてアウトプットウィンドウを表示し、パンナーのポジションのつまみをぐりぐりと動かしてみよう。
すると、レンダラー内のオブジェクトが連動してぐりぐりと動くのが確認できる。
オートメーションをWriteモードにしてチェックすると、きちんと書き込んだ通りに3Dパンニングされているのが分かる。ここで、トラックの右端”オブジェクト”と書かれているボタンをクリックすると、”バス”という表示に切り替わり、その音はベッドから出力される。つまり、ベッドとオブジェクトをシームレスに切り替えることができるのだ。これは、例えば、映画などで正面のベッドから出力していたダイアローグを、”ワンシーンだけオブジェクトにして、耳元に持ってくる”といった表現に活用できそうだ。
さらにその右隣の三角形のボタンを押すごとに、” このトラックに書き込まれたメタデータをマスターとする ”( 緑点灯 ) か、” 外部のオブジェクトパンニング情報源からREC する ”( 赤丸点灯 ) か、” 何も送受信しない ”( 無点灯 ) か を選択できるようになっている。レンダラー内でレンダリングされた音は、ReturnプラグインからPTへと戻ってくる。あとは、各々のモニター環境に合わせてアウトプットしたり、RECをかけたりすることができる。
以上が、Send/Returnプラグインを利用した一連のルーティングのワークフローになる。今回はテンプレートから作成したが、もちろんはじめから好きなようにルーティングを組むことも可能だ。しかし、チャンネル数が多い場合はやや複雑になってくるので、初めての場合はまずはテンプレートからの作成をおすすめする。
CoreAudioを使う方法
はじめに、Core Audioを使う場合、Sync sourceをMTCかLTC over Audioから選択する必要がある。LTCを使う場合は、PTの130chまでの空きトラックにLTCトラックまたは、Production Suite 付属のLTC Generator プラグインを挿入→レンダラーからそのch番号を指定する。MTCを使う場合はIACバスをというものを作成する必要がある。(※IAC = Inter-application communication)
■IACバスの設定
● Mac →アプリケーション→ユーティリティ→Audio MIDI設定を開く
● タブメニューのウインドウ→IAC Driverをダブルクリック ※装置名がIACドライバなど日本語になっていた場合レンダラーでの文字化けを防ぐため”IAC Driver”など英語に変更しておくとよい
● +ボタンでポートを追加→名称を”MTC”(任意)に変更→適用をクリック
■Dolby Atmos Renderer 側の設定
● 左上Dolby Atmos Rendere → Preferences( ⌘+ , )で設定画面を表示
● Audio driverをCore Audioに設定
● Audio input deviceを”Dolby Audio Bridge”に設定 ※ここに”Dolby Audio Bridge”が表示されていない場合、Macのシステム環境設定→セキュリティとプライバシー内に関連するアラートが出ていないか確認。
● External Sync sourceをMTCに設定し、MTC MIDI deviceで先ほど作成したIAC Driver MTCを選択(またはLTC over Audioに設定しCh数を指定)
● Flame rate、Sample rateを設定 ※PTの設定と合わせる
● ヘッドホンでバイノーラルで作業する場合はHeadphone only modeを有効にすると、リレンダリングのプロセスなどを省くため、マシンに余分な負荷をかけることなく作業できる
■Pro Tools 側の設定
● 設定→プレイバックエンジンを”Dolby Audio Bridge”に。
● キャッシュサイズはできる限り大きめに設定しておくと、プレイバック時にエラーが発生しにくくなる。
● 設定→ペリフェラル→同期→MTC送信ポートを先ほど作成した”IAC Driver,MTC”に設定
● 設定 → ペリフェラル → Atmosタブ(Send/Returnの項目と同様だ)
● チェックボックスに2箇所ともチェックを入れる。
● RMUホストの欄には”MAC名.local”または”LOCALHOST”と入力。接続状況を示すランプが緑色に点灯すればOK。一度接続した場合、次回からプルダウンメニューで選択できる。
以上で、CoreAudio経由でのルーティングは完了だ。Send/Returnプラグインを利用する時のように大量のAUXトラックが必要ないため、非常にシンプルにセッティングを完了できる。また、ソフトウェアレンダラーでの仕込みから最終のマスタリングでRMUのある環境に持ち込む際にも、I/O設定をやり直さなくてよいという点もメリットの1つだろう。こちらも試しにオーディオ素材を置いて動作を確認していただきたい。
マルチチャンネルサラウンドやバイノーラルコンテンツへの需要は、日々着実に高まりつつあることが実感される。今回はゼロからはじめるDolby Atmosということで、Dolby Atmosとはどのようなものなのか、そしてDolby Atmosミックスを始めるためにはどこからスタートすればいいのか、という足がかりまでを紹介してきた。「思ったより気軽に始められそう」と、感じていただいた方も多いのではないのだろうか。
「一度体験すれば、その素晴らしさは分かる。ただ、一度体験させるまでが難しい。」というのが3Dオーディオの抱える最大の命題の命題かもしれない。これを解決するのは何よりも感動のユーザー体験を生み出すことに尽きる。そのために今後どのような3Dオーディオ制作ノウハウを蓄積していけるのか、全てのクリエイターが手を取り合って研鑽することが、未来のコンテンツを創り上げる第一歩と言えるのかもしれない。
*ProceedMagazine2020号より転載
Media
2019/02/07
Artware hub KAKEHASHI MEMORIAL 様 / レジェンドの描いた夢が実現する、全方位型36.8chイマーシブステージ
早稲田大学を始め教育機関が集中する東京西早稲田、ここにArtware hubと名付けられた新しいサウンド、音楽の拠点となる施設が誕生した。この施設は、Roland株式会社の創業者であり、グラミー賞テクニカルアワード受賞者、ハリウッドロックウォークの殿堂入りも果たしている故 梯郁太郎氏(公益財団法人 かけはし芸術文化振興財団 名誉顧問)の生涯の夢の一つを現実のものとする「音楽の実験室、様々な音環境、音響を実践できる空間」というコンセプトのもと作られている。
この空間の名称であるArtware hubという名称は梯郁太郎氏の生んだ造語「Artware」がその根本にある。ハードウェア・ソフトウェアだけではなく、人間の感性に根ざしたアート感覚を持った映像、音響機器、そして電子楽器を指す「Artware」、それがつなぐ芸術家の輪、絆、共感を生み出す空間としての「hub」、これが掛け合わされているわけだ。そして、もう一つのキーワードである「共感」を生み出すために、多くの方が集える環境、そのパフォーマンスを共有できる環境として設計が行われた。まさにこの空間は、今までにない音響設備を備え、そのコンセプトに沿った設計によりシステムが構築されている。
1:すべて個別に駆動する36.8chのスピーカーシステム
まずは、その環境を実現するためにインストールされた36.8chというスピーカーシステムから見ていきたい。壁面に数多く設置されたスピーカーはTANNOY社のAMS-6DCが採用されている。これだけの多チャンネルシステムであると、スピーカーの構造は物理的に同軸構造であることが望ましい。Stereoであれば気にならないツイーターとウーファーの位相差の問題が、スピーカーの本数分の問題となりサウンドチューニングの妨げとなるからである。このスピーカーの選定には10種類以上の機種の聴き比べを行い、自然なサウンドが得られる製品がセレクトされている。音の飛び出し方、サウンドのキャラクターが単品として優れている製品もあったが、個性の強すぎない、あくまでもナチュラルなニュアンスを持った製品ということでセレクトは進められている。
これらのスピーカーを駆動するアンプはTANNOY社と同じグループ企業であるLab.Gruppen D10:4Lが9台採用された。合わせてサブウーファーには同社VSX 10BPを2本抱き合わせて4箇所に合計8本、こちらのアンプにはLab.Gruppen D20:4Lを2台採用。PA関係を仕事とされている方にはすでに当たり前になっているかもしれないが、SR用のスピーカーのほとんどが専用アンプとのマッチングを前提に設計されており、その組み合わせにより本来のサウンドを生み出すからである。このアンプは1Uのスペースで4chのモデルであるためこのような多チャンネルの個別駆動にはベストなセレクトとなっている。
前後の壁面のスピーカー。正面は「田」の字に9本配置されているのがわかる。
そして、皆さんの興味はこのスピーカー配置に集まるのではないだろうか?壁面にはセンターから30度間隔で12本のスピーカーが2レイヤー配置されている。一般に開放する施設ということで、入場者の邪魔にならない位置、具体的には2.5mの高さに下層のスピーカーは取り付けられている。上層は5mの位置となる。さらに写真ではわかりにくいが、天井に設置されたグリッド上のパイプに9本のスピーカーが取り付けられている。この9本は「田」の字の各交点に設置されているとイメージしていただきたい。さらに仮設として正面床面に直置きでのスピーカーも3本あり、正面の壁面に関しても「田」の字の各交点に9本の配置がなされている。
これらの合計36本のスピーカーはすべて個別に駆動するようなシステムとなっている。さらにサブウーファーを天井グリッド内に4箇所設置、設置位置は前後左右の十字に配置し、それぞれ個別駆動が可能となっている。つまり合計36本のスピーカーと8本のサブウーファーがすべて個別に駆動、全体のシステムとしては36.8chのスピーカーシステムである。
天井のスピーカー。空調ダクト等を避けて写真の位置に9本のスピーカーと8本のサブウーファーが設置された。
2:ロスなく長距離伝送するDanteを採用
スピーカー側より順番に機材を見ていきたいが、アンプの直前にはDante-AnalogのコンバーターとしてFocusrite REDNET A16Rが設置されている。これは1Fに設置されている調整室から3Fにあるアンプルームまでの伝送を、最高のクオリティーを保ったまま行うという目的。そして、これだけの数のスピーカーのマネージメントを行うために導入されたYAMAHA MMP-1をベストなコンディションで動作させるためにDanteが採用されている。1Fの調整室から送られた信号は、Danteにより長距離をロスなく伝送されてくる。それをDante-Analogのコンバーターとして最適なクオリティーを提供するFocusrite社の製品によりAnalogでアンプへと接続が行われているということになる。
このDanteの回線に組み込まれたYAMAHA MMP-1は最新のスピーカー・マネージメント・プロセッサーである。1台で32chのスピーカーマネージメントが行える優れた機器で、システムアップに応じて自在に入力信号を各スピーカーに振り分けたりといったことが可能となっているが、Artware hubの36.8chのスピーカーをプロセスするためには2台が必要となった。サブウーファーのチャンネルに関しては、FIRフィルターによるLPFが使えるというのは特筆に値する機能である。この36.8chのスピーカーの調整には1週間の時間を要した。個別のチャンネルのイコライザーによる周波数特性の調整、ディレイによる位相合わせ、音圧の調整、さすがに36.8chともなるとなかなか終わらない。それぞれ隣合うスピーカーとのファンタム音像に関しても聴感でのピーク・ギャップが無いか、サウンドキャラクターが変化しないか、といったチェックを行っている。この調整作業は株式会社SONAの中原氏に依頼を行い実施した。スタジオのようにリスニングポイントに対してガチガチに調整を行うのではなく、リスニングエリアを広めにとれるように調整は行われている。
Dante Networkの入り口にはFocusrite REDNET D64Rが2台用意され、調整室内の基本回線となるMADIからDanteへのコンバートが行われている。ここでMADIは64chあるので1台で済むのでは?と考えられるかもしれないが、Artware hubのシステムはすべて96kHzで動作するように設計されている。そのため、MADI回線は32chの取り扱いとなり、この部分には2台のREDNET D64Rが導入されることとなった。
3:ハイクオリティを誰もが扱える、スペースとしての命題解決
そして、Artware hubのシステムの中核となるAVID MTRX。Pro ToolsともAVID S6Lとも接続されていない「MADI Matrix Router」としてこの製品がインストールされている。このAVID MTRXには5枚のMADI option moduleがインストールされ13系統のMADI IN/OUTが用意されている。システムのシグナルルーティングを行うだけではなく、システムのボリュームコントロールもこのMTRXが行っている。36.8chものチャンネルのボリュームコントロールが行える機器はなかなか存在しない。しかも、最終の出力は96kHzということもあり2系統のMADIにまたがっている。専任のオペレーターがいる利用時は良いが、講演会やVideoの視聴といった簡易的な利用の場合、誰でも手軽に操作ができるハードウェアコントローラーが必須となる。そこでArtware hubのシステムではAVID MTRXに組み合わせてTAC SYSTEM VMC-102をスピーカーコントローラーとして採用している。
TAC SYSTEM VMC-102はそれ自体にMADIを入力し、モニターソースのセレクトを行い、AVID MTRX/NTP/DADもしくはDirectOut ANDIAMOをコントロールし出力制御を行うという製品。しかし、Artware hubではVMC-102にMADIは接続されていない、AVID MTRXコントロール用にEthernetだけが接続されている。通常でのVMC-102は、入力されたMADI信号をモニターソースとしてそれぞれ選択、選択したものがVMC-102内部のモニターバスを経由してMADIの特定のチャンネルから出力される、という仕様になっている。そして、その出力されたMADIが、接続されるMTRX/NTP/DADもしくはDirectOutの内部のパッチの制御とボリュームの制御を行い、スピーカーセレクトとボリューム調整の機能を提供している。
今回は、このパッチの制御とボリュームコントロールの機能だけを抽出したセットアップを行っている。通常であればVMC-102の出力バスをスピーカーアウトのソースとして設定するのだが、ダイレクトにAVID MTRXの物理インプットを選択している。この直接選択では、物理的な入力ポートをまたいだ設定は出来ないため2つのスピーカーアウトを連動する設定を行い、今回の96kHz/36.8chのシステムに対応している。そして、VMC-102のタッチパネルには、ソースセレクトが表示されているように見えるが、実はこのパネルはスピーカーセレクトである。説明がややこしくなってしまったが、このパネルを選択することにより、AVID MTRXの入力を選択しつつ、出力を選択=内部パッチの打ち換え、を行い、その出力のボリュームコントロールを行っているということになる。YAMAHA MMP-1も同じような機能はあるが、2台を連携させてワンアクションでの操作が行えないためVMC-102を使ったシステムアップとなった。
具体的にどのような設定が行われているかというと、マルチチャンネルスピーカーのディスクリート駆動用に40ch入力、40ch出力というモードが一つ。コンソールからのStereo Outを受けるモードが一つ。Video SwitcherからのStereo Outを受けるモード、そして、袖に用意された簡易ミキサーであるYAMAHA TF-Rackからの入力を受けるモード、この4パターンが用意されている。ちなみにVMC-102は6系統のスピーカーセットの設定が可能である。今後入出力のパターンが増えたとしても、36.8chで2パターン分を同時に使っているので、あと1つであればVMC-102のスピーカーセットは残っているため追加設定可能だ。
システム設計を行う立場として、やはり特注の機器を使わずにこのような特殊フォーマットのスピーカー制御が行えるということは特筆に値する機能であると言える。VMC-102はスピーカーセット一つに対して最大64chのアサインが可能だ。極端なことを言えば48kHzドメインで6系統すべてを同期させれば、384chまでのディスクリート環境の制御が可能ということになる。これがAVID MTRXもしくはNTP/DAD社製品との組み合わせにより200万円足らずで実現してしまうVMC-102。新しい魅力を発見といったところである。AVID MTRXには、Utility IN/OUTとしてDirectOut ANDIAMOが接続されている。この入出力はVideo Systemとのやり取り、パッチ盤といったところへの回線の送受信に活用されている。ここも内部での回線の入れ替えが可能なため、柔軟なシステムアップを行うのに一役買っている部分である。
4:36.8chシステムの中核、FLUX:: SPAT Revolution
そして、本システムのコアとなるFLUX:: SPAT Revolution。このソフトウェアの利用を前提としてこの36.8chのスピーカーシステムは構築されている。SPAT Revolutionは、空間に自由にスピーカーを配置したRoomと呼ばれる空間の中に入力信号を自由自在に配置し、ルームシュミレートを行うという製品。Artware hubのような、特定のサラウンドフォーマットに縛られないスピーカー配置の空間にとって、なくてはならないミキシングツールである。SPAT Revolutionは、単独のPCとしてこれを外部プロセッサーとして専有するシステム構成となっている。
入出力用にはRME HDSPe-MADI FXを採用した。これにより、64ch@96kHzの入出力を確保している。入力は64ch、それを36.8chのスピーカに振り分ける。SPAT Revolutionにはサブウーファーセンドが無いため、この調整は規定値としてYAMAHA MMP-1で行うか、AVID S6Lからのダイレクトセンドということになる。といっても36chのディスクリートチャンネルへのソースの配置、そして信号の振り分けを行ってくれるSPAT RevolutionはArtware hubにとっての心臓とも言えるプロセッサーだ。執筆時点ではベータバージョンではあるが、将来的にはS6Lからのコントロールも可能となる予定である。数多くのバスセンドを持ち、96kHz動作による音質、音楽制作を行っている制作者が慣れ親しんだプラグインの活用、AVID S6LのセレクトもSPAT Revolutionとともに強いシナジーを持ちArtware hubのシステムの中核を担っている。
FLUX:: SPAT Revolutionに関しての深いご紹介は、ROCK ON PRO Webサイトを参照していただきたい。非常に柔軟性に富んだソフトウェアであり、このような特殊なフォーマットも制約なくこなす優れた製品だ。Artware hubでは、既存のDolby AtmosやAUROといったフォーマットの再生も念頭においている。もちろん、完全な互換というわけにはいかないが、これだけの本数のスピーカーがあればかなり近い状態でのモニタリングも可能である。その場合にもSPAT Revolutionは、スピーカーへのシグナルアサインで活躍することとなる。現状では、既存のImmersive Surroundの再生環境は構築されてないが、これは次のステップとして検討課題に挙がっている事案である。
◎FLUX:: 関連記事
FLUX:: / ユーザーから受けた刺激が、 開発意欲をエクスパンドする
Immersive Audioのキー・プロダクト Flux:: / Spat Revolution 〜ROCK ON PRO REVIEW
5:可動式のS6Lでマルチチャンネルミックス
ミキシングコンソールとして導入されたAVID S6Lは、大規模なツアーなどで活躍するフラッグシップコンソールの一つ。コンパクトながら高機能なMixing Engineを備え、96kHzで192chのハンドリング、80chのAux Busを持つ大規模な構成。SPAT Revolutionでのミキシングを考えた際に、Aux Busの数=ソース数となるため非常に重要なポイント。音質とバス数という視点、そして何より前述のSPAT Revolutionをコンソール上からコントロール可能という連携により選択が行われている。そしてこれだけのマルチチャンネル環境である、調整室の中からでは全くミキシングが行えない。そこでS6Lはあえてラックケースに収められ、会場センターのスイートスポットまで移動してのミキシングが可能なように可動式としている。
S6Lには、録音、再生用としてAVID Pro Toolsが接続されている。これは、AVID S6Lの持つ優れた機能の一つであるVirtual Rehearsal機能を活用して行っている。S6Lに入力された信号は、自動的に頭わけでPro Toolsに収録が可能、同様にPro ToolsのPlaybackとInputの切替は、ボタン一つでチャンネル単位で行えるようになっている。マルチトラックで持ち込んだセッションをArtware hubの環境に合わせてミキシングを行ったり、ライブ演奏をSPATを利用してImmersive Soundにしたりとどのようなことも行えるシステムアップとしている。これらのシステムが今後どの様に活用されどのようなArtが生み出されていくのか?それこそが、まさにArtware hubとしての真骨頂である。
AVID S6L はこのように部屋の中央(スピーカー群のセンター位置)まで移動させることが可能。イマーシブミキシング時は音を確認しながら作業が行える。
Artware hubには、音響だけではなく、映像、照明に関しても最新の設備が導入されている。映像の収録は、リモート制御可能な4台の4Kカメラが用意され、個別に4Kでの収録が可能なシステムアップが行われた。4K対応機器を中心にシステムアップが行われ、将来への拡張性を担保したシステムとなっている。音響システムとは、同期の取れる様にLTC/MTCの接続も行われている。照明は、MIDIでの制御に対応し、PCでの事前仕込みの可能な最新の照明卓が導入された。LED照明を中心に少人数でのオペレートで十分な演出が行えるよう配慮されたシステムとなっている。
さまざまなArtistがこのシステムでどのようなサウンドを生み出すのか?実験的な施設でもあるが、観客を入れて多くの人々が同時に新しい音空間を共有できる環境であり、すべてにおいて新しい取り組みとなっている。Roland時代の梯郁太郎氏は早くも1991年にRSS=Roland Sound Spaceという3D Audio Processorを開発リリースしている。その次代を先取りした感性が、今このArtware hubで現実の環境として結実していると思うと感慨深いものがある。
本誌では、これからもArtware hubで生み出されるArtを積極的に取り上げていきたい。また、今回ご紹介したシステム以外にも照明映像関連などで最新の設備が導入されている、これらも順次ご紹介をしたい。最後にはなるがこの設備のコンセプトの中心となった、かけはし芸術文化振興財団専務理事で梯郁太郎氏のご子息である梯郁夫氏、そして同じく理事であるKim Studio伊藤圭一氏の情熱により、この空間、設備が完成したことをお伝えしまとめとしたい。
*ProceedMagazine2018-2019号より転載
Media
2018/05/23
株式会社カプコン様 / Dynamic Mixing Room-[B] / [W]
日本を代表するゲーム会社カプコン。前号でもリニューアルしたDynamic Mixing Stageをご紹介したが、それに続いて新たにDynamic Mixing Room-[B]とDynamic Mixing Room-[W]が作られた。VR、イマーシブといった言葉が先行しているゲーム業界におけるオーディオのミキシングだが、それらのコンテンツを制作する現場はアプローチの手法からして大きな変革の中にある。ゲームではカットシーン(ユーザーが操作をせずに動画が再生され、ストーリを展開する部分)と呼ばれるMovieとして作られたパートが次々と減少し、昨年リリースの同社『バイオハザード7 レジデント イービル』では遂にカットシーンが全くないというところにまでたどり着いている。こういった背景もあり、しっかりとした音環境でDynamic Mixingを行える環境というものが切望されていた。その回答が前回ご紹介したDynamic Mixing Stageであり、今回のDynamic Mixing Roomとなる。
◎求められていたDynamic Mixing「Room」
昨年のDynamic Mixing Stageは各素材の最終確認、そして最後の仕上げという部分を重点的に担っているが、その途中の生成物であるオーディオデータが全てファイナルのミックス時点でオブジェクトに埋め込まれ、プログラムされていくわけではない。しかし、オーディオデータをプログラムに埋め込み、他のサウンドとの兼ね合いを確認しながら作業を行う必要が日に日に大きくなっているのが現状だ。カプコンでは各スタッフに専用のパーテーションで区切られたブースが与えられ、5.1chでの視聴環境が用意されている。ただし、あくまでも仮設の環境であり、スタジオと比べてしまえば音環境としてお世辞にも良いと言えるものではない。ほかにもPro Toolsが常設された防音室が用意され、そこへシステムを持ち込み確認作業が行えるようになっていたが、常設のシステムに対して持ち込みのシステムを繋ぎ込む必要があるため、それなりのエンジニアリング・スキルが要求される環境であった。この環境改善を図ったのが今回の目的の第一点となる。
もちろん、ここにはサウンドクオリティーへの要求も多分に含まれる。海外のゲーム会社を視察した際に、クリエイター各自が作業スペースとしてスタジオクラスの視聴環境で作業しているのを目の当たりにした。これが、世界中のユーザーに対してゲーム開発をおこなうカプコンとして、同じクオリティーを確保するための重要な要素と感じた。各クリエイターが、どれだけしっかりとした環境でサウンドクオリティーを確認することが出来るのか。これこそが、各サウンドパーツレベルのクオリティーの差となり、最終的な仕上がりに影響をしているのではないか、ということだ。これを改善するため、自席のシステムそのままにサウンドの確認を行うことのできるDynamic Mixing Roomへとつながっている。
さらにもう一つ、VRなど技術の発展により、3Dサラウンド環境での確認が必要なタイトルが増えてきたというのも新設の大きな要因。昨年、Xbox OneがDolby Atmosに対応したことなどもその一因となったそうだ。今回はスピーカーの増設だけでその対応を行うということではなく、やるのであればしっかりとした環境自体を構築する、という判断を後押しするポイントになったという。
そして、Dynamic Mixingにおいてサウンドを確認するためには、DAWからの出力を聴くのではなくゲーム開発機からの出力を聴く必要がある。ゲームエンジンが実際に動き、そこにオーディオデータがプログラムとして実装された状況下でどの様に聴こえるのか、プログラムのパラメーターは正しかったか?他のサウンドとのかぶりは?多方面から確認を行う必要があるからだ。そうなると、自分の作っているゲームの開発機を設置して、繋ぎ込んで音を聴くというかなりの労力を要する作業を強いられてしまう。
すでに開発中のデータ自体はネットワーク化されておりサーバー上から動くが、端末はそのスペックにあった環境でなければ正確に再現されない。今回のDynamic Mixing Roomはそういった労力を極力減らすために設計された部屋ということになる。そのコンセプトは利便性とスピード感。この二つに集約されるということだ。
◎部屋と一体になった音響設計
実はこの部屋にはDAWが存在しない、2つの鏡写しに作られた黒い部屋と白い部屋。その間の通路に置かれたラックに開発PCを設置して作業が行えるようになっている。接続された開発PCはHDMIマトリクススイッチャーを経由してそれぞれの部屋へと接続される。開発PCの音声出力はHDMIのため、部屋ではまずAV ampに接続されデコード、モニターコントローラーの役割として導入されたRME UFX+を経由してスピーカーを鳴らす。なぜRME UFX+がモニターコントローラーとして採用されているかは後ほど詳しく説明するとして、まずはサウンドに対してのこだわりから話を始めたい。
この環境を作るにあたりリファレンスとしたのはDynamic Mixing Stage。こちらと今回のDynamic Mixing Roomでサウンドの共通性を持たせ、迷いのない一貫した作業を実現したいというのが一つの大きなコンセプト。全てのスピーカーは音響設計を行なったSONAのカスタムメイドでバッフルマウントとなっている。サラウンド側、そして天井に至るまで全てのスピーカーがバッフルマウントという部屋と一体になった音響設計が行われている。このスピーカーは全てバイアンプ駆動され、そのマネージメントを行うプロセッサーはminiDSPが採用されている。miniDSPはFIRフィルターを搭載し、位相問題のないクリアなコントロールを実現している。しっかりとした音響設計がなされたこのDynamic Mixing RoomはDynamic Mixing Stageと高いサウンドの互換性を確保できたということだ。今後はDynamic Mixing Stageで行われているダイヤログの整音と並行してDynamic Mixing Roomで実装された状態での視聴を行う、といった作業も実現できる環境になっているということ。もちろん、同じクオリティーでサウンドを確認できているので、齟齬も少なく済む。まさに「スピード感」というコンセプトが実現されていると言える。
◎RME Total Mixで実現した柔軟なモニターセクション
それでは、次にRME UFX+の部分に移っていきたい。UFX+の持つTotal Mixを使ったモニター機能は非常に強力。複数のマルチチャンネルソースを自由にルーティングすることが出来る。これまで自席で仕込んだサウンドをしっかりした環境で聴こうと思うと、前述のように自席のPC自体を移動させて仮設する必要があった。この作業をなくすために、DiGiGridのネットワークが構築されている。それぞれのPCからの音声出力はDiGiGridのネットワークに流れ、それがDynamic Mixing RoomのUFX+へと接続。もちろんDiGiGridのままでは接続できないため、DiGiGrid MGO(DiGiGrid - Optical MADI Convertor)を介しMADIとして接続されている。
開発PCからのHDMIはAV ampでデコードしてアナログで接続され、各スタッフの自席PCからはDiGiGirdネットワークを介して接続、ということになる。これらの入力ソースはRME Total Mix上でモニターソースとしてアサインされ、ARC USBによりフィジカルにコントロールされる。このフィジカルコントローラーの存在も大きな決め手だったということだ。そもそも複数の7.1.4サラウンドを切り替えようと思うと具体的な製品がなかなか存在しない。フィジカルコントロールも必要となるとAVID S6 + MTRX、TAC System VMC-102 + MTRXといった大規模なシステムになってしまうのが実情。リリース予定の製品にまで目をやったとしてもGrace Design m908がかろうじて実現出来るかどうかというレベルとなる。その様な中でUFX+とARC USBの組合せは過不足のない機能をしっかりと提供することが出来ており、フィジカルなコントローラーを手に入れたことで使い勝手の高いシステムへと変貌している。実は、Total MixのモニターコントロールはRock oN渋谷店頭でスピーカー試聴の切替にも使用されている。こちらも試聴中に数多くの機器をスムーズに切り替える必要があるのだが、その柔軟性が遺憾なく発揮されている実例でもある。
◎利便性とスピード感を具現化
このDynamic Mixing Roomは3Fに位置しており、先行してDiGiGridのネットワークが構築されたコンポーザーの作業場は14Fとかなり距離が離れていたが、その距離も既存のネットワーク回線を活用することで簡単に連携が実現ができた。ここはネットワークが会社中に張り巡らされているゲーム会社ならではの導入障壁の低さかもしれないが、追加で回線を入れるとしてもネットワーク線の増設工事であれば、と考えてしまうところでもある。ちなみに自席PCはDynamic Mixing Roomから画面共有でリモートしている。画面共有サービスもブラッシュアップされておりレスポンスの良い作業が実現したこともこのシステム導入の後押しになったということだ。
今後は、コンポーザーだけではなくSEスタッフの自席も活用しようと検討しているということだ。全社で70名近いというサウンドスタッフすべてのPCがDiGiGrid Networkを介してつながる、まさに未来的な制作環境が実現していると言えるのではないだろうか。自席PCでサウンドを仕込みながら、持ち込んだ開発PCに実装し、その場で確認を行う。理想としていた制作環境に近づいたということだ。また、開発PCを複数置けるだけのスペースも確保したので、タイトルの開発終了まで設置したままにできる、ということも大きい。HDMI出力と操作画面用のDVI、そして操作用のUSB、これらの繋ぎ変えだけで済むということは、これまで行なっていたPCごと移動するスタイルからの大きな進化。利便性とスピード感。このコンセプトに特化した環境が構築されたと言えるのではないだろうか。
また、Dynamic Mixing Roomには常設のMouseもKeyboardも無い。自席と同じ様な作業環境を簡単に構築できるという考え方のもと、機材の持ち込みは自由にされているということだ。共有の設備にも関わらず、PCもなければMouseもKeyboradもない。少し前では考えられなかったような設備が完成した。言わば「何も置かない」というミニマルさが、ゲームの開発という環境に特化して利便性とスピード感を追求した結果。これは、ゲーム制作だけではなくシェア・ワークフローそのものを考える上で大きな転換点に来ているということを実感する。
すでにITでは数年前からSaaS(Software as a Service)という形態が進化を続けている。手元にあるPCはあくまでも端末として、実際の処理はクラウドサービスとして動作をしているシステム。映像の業界はすでにSaaS、クラウドといったイントラネットから飛び出したインターネット上でのサービスの活用が始まっている。今後は、サウンドの業界もこの様な進化を遂げていくのではないか、そのきっかけとなるのが今回のカプコン Dynamic Mixing Roomの実例なのではないかと感じている。
(手前)株式会社カプコン サウンドプロダクション室 室長 岸 智也 氏 / (奥左)同室 コンポーザー 堀 諭史 氏 / (奥右)同室 オーディオ・ディレクター 鉢迫 渉 氏
*ProceedMagazine2018Spring号より転載
Media
2017/11/14
株式会社カプコン様 / Dynamic Mixing Stage
日本を代表するゲーム会社である株式会社カプコン。もともと7.1ch対応のAVID S6が設置されたDubbing Stage、そして7.1ch対応のAVID D-Control(ICON)が設置されたDynamic Mixing Stageの2部屋を擁していたが、今後起こりうるImmersive Audioの制作へ対応するためDynamic Mixing Stageのシステム更新を行った。今回の更新でDOLBY ATMOS HOME対応のシステムが組まれ、今後AURO 3Dなどにも対応できるよう準備が行われている。
◎Dynamic Mixingというコンセプト
今回、スタジオを改修するにあたりそのコンセプトについても根本的に見直しが行われた。これまで、カプコン社内スタジオ「bitMASTERstudio」は、レコーディングと大型セッションのミキシングを可能とする「Dubbing Stage」と、そのサテライトとして同等の能力を持ちつつ、レコーディングを除いたプリミックスや仕上げの手前までを想定した「Dynamic Mixing Stage」という構成であったが、これを従来型のPro ToolsとS6によるミキシングを中心に行う「Dubbing Stage(旧Dubbing Stage)」と、今回改修を行ったスタジオをゲーム内のインタラクティブシーンを中心としたミキシングを行うための「Dynamic Mixing Stage(旧Dynamic Mixing Stage)」としている。
この「Dynamic Mixing」は、ゲームの中でプログラムによって制御される方法でミキシングを行うことを指している。つまり、このステージはゲーム内のプログラムミキシングを行う場所であり、従来のミキシングステージとは一線を画するものだと考えているとのことだ。したがって、この部屋の音響空間及びシステムの設計思想は「リファレンスとなりうる音を再生できる特性を持ち、プログラムによるミキシングを効率的に行えるシステム」であることを第一義としている。
システムを構築する上で大切にしたことは、WindowsPC内にインストールされたゲームエンジンとオーディオミドルウェアのパラメーターを操作するのと同時に、ゲームに組み込むためのオーディオエディット/ミキシングをPro Tools上で効率的に行えるようにすること。Ultra Wideディスプレイと壁付けのTVによってそれらの情報をすべて表示し、ゲーム音声とProTools上の音声を瞬時に切り替え、あるいは同時に再生することのできるシステムにしておくことは、ゲームオーディオ制作では極めて重要、とのことだ。
◎既存スタジオをブラッシュアップするアイデア
メインのミキシング、ナレーションなどの収録に活躍するDubbing Stageと、ユーティリティ性を持たせプレビューなどにも対応できるように設計されたDynamic Mixing Stage。そのDynamic Mixing Stageはモニター環境をブラッシュアップし新しいフォーマットへの準備を行なった格好だ。部屋自体はそれほど広い空間が確保されているわけではなく、天井高も同様。その中にDOLBY ATMOS、そしてAURO 3Dといった次世代のフォーマットへ対応したモニタリングシステムを導入している。音響設計・内装工事を行った株式会社SONAからも様々な提案が行われ、そのアイデアの中から実現したのが、このスタジオのイメージを決定づける音響衝立と一体となったスピーカースタンドだ。天井に関してはスピーカーを設置するために作り直されており、内装壁も全面改修されているが、壁の防音層と床には手を加えずに最低限の予算で今回の工事を完了させている。
併せてDAWシステムについても更新が行われ、コントローラーはAVID D-Control(ICON)からAVID S3へとブラッシュアップされた。また、Dubbing Stageでモニターコントローラーとして活用されていたTAC system VMC-102はDynamic Mixing Stageへと移設され、マルチフォーマット対応のモニターコントローラーとして再セットアップが行われている。Dubbing Stageのモニターセクションには最新のAVID MTRXがインストールされ、AVID S6からの直接のコントロールによるモニタリングを行うようにこちらも再セットアップされている。
◎フォーマットに対応する柔軟性を持つ
それでは、各パートごとに詳細にご案内を行なっていきたい。まずは、何といっても金色に光り輝く音響衝立。これは完全にカスタムで、背の高いものが8本、低いものがセンター用に1本制作された。その設置はITUサラウンドの設置位置に合わせて置かれている。フロントはセンターを中心に30度、60度の角度で、Wide L/Rを含めたフォーマットとして設置が行われている。サラウンドはセンターより110度、150度と基本に忠実な配置。これらの音響衝立は、天井側のレールに沿ってサラウンドサークルの円周上を移動できるようになっている。これは、物理的に出入り口に設置場所がかかってしまっているため、大型の機器の搬入時のためという側面もあるが、今後この8枚の音響衝立の設置の自由度を担保する設計となっている。この衝立の表面は穴の空いた音響拡散パネルで仕上がっており,内部に吸音材が詰められるようになっている。吸音材の種類、ボリュームを調整することで調整が行えるようにという工夫である。
そしてちょうど耳の高さに当たる部分と、最上部の2箇所にスピーカー設置用の金具が用意されている。この金具も工夫が行われており、上下左右全て自由に微調整が行えるような設計だ。写真で設置されている位置がITU-R準拠のサラウンドフォーマットの位置であり、そのままDOLBY ATMOSのセットアップとなる。最上部の金具の位置はAURO 3D用のものであり、Hight Layerの設置位置となる。現状では、AURO 3D用のスピーカーを常設する予定はなく、AURO 3Dに変更する際には追加でこの位置へスピーカーを設置する事となる。完全に縦軸の一致する上下に設置ができるため、理想的な設置環境といえるだろう。
センターだけはTVモニターとの兼ね合いがあり背の低い衝立となっている、また、AURO 3D用のHC設置はTVの上部に設置用の金具が準備される。そして、TVモニターの下の空間にはサブウーファー2台が左右対象の位置に設置されている。天井にはセンターから45度の角度を取り、4本のスピーカーが正方形に配置されている。これが、Top Surround用のスピーカーとなる。もちろんAURO 3D用にTチャンネル用として天井の中心に金具が用意されている。また、wide L/Rの位置にも音響衝立が用意されているので、現状設置されている7.1.4のフォーマットから、9.1.4への変更も容易になっている。
このサラウンド環境はコンパクトな空間を最大限に活かし、完全に等距離、半球上へのスピーカー設置を実現している。そのために、各チャンネルの音のつながりが非常に良いということだ。また、音響衝立の中にスピーカーを設置したことにより、バッフル設置のようなメリットも出ているのではないかと想像する。スピーカー後方には十分な距離があり、そういった余裕からもサウンド面でのメリットも出ているのではないだろうか。
◎3Dにおける同軸モニターの優位性
今回の更新にあたり、スピーカーは一新されている。カプコンでは以前より各制作スタッフのスピーカーをGenelecに統一している。できるだけ作業スペースごとの視聴環境の差をなくし、サウンドクオリティーの向上と作業効率の向上がその目的だ。そのような流れもあり、Dynamic Mixing StageではGenelecの最新機種である8341がフロントLCRの3ch用として、サラウンド及びTop Layerには一回りコンパクトな8331が選定されている。このモデルは同軸2-way+ダブルウーファーという特徴的な設計のモデル。従来の筐体より一回り小さな筐体で1クラス上の低域再生を実現してるため、DOLBY ATMOSのように全てのスピーカーにフルレンジ再生を求める環境に適したモデルの一つと言える。ちなみに8341のカタログスペックでの低域再生能力は45Hz~(-1.5dB)となっている。従来の8030クラスのサイズでこの低域再生は素晴らしい能力といえるのではないだろうか。また、スピーカーの指向性が重要となるこのような環境では、スコーカーとツイーターが同軸設計であるということも見逃せないポイント。2-way,3-wayのスピーカー軸の少しのずれが、マルチチャンネル環境では重なり合って見過ごすことのできない音のにごりの原因となるためである。
これら、Genelecのスピーカー調整はスピーカー内部のGLMにより行われている。自動補正を施したあとに手動で更にパラメーターを追い込み調整が行われた。その調整には、最新のGLM 3.0のベータバージョンが早々に利用された。GLMでは最大30本のスピーカーを調整することが出来る。そのためこの規模のスピーカーの本数であっても、一括してスピーカーマネージメントが可能となっている。
今回の更新に合わせて新しく作り直したデスクは、部屋のサラウンドサークルに合わせて奥側が円を描く形状となっている。手前側も少しアーチを描くことで部屋に自然な広がり感を与えている印象だ。もちろん見た目だけではなく作業スペースを最大限に確保するための工夫でもあるのだが、非常に収まりのよい仕上がりとなっている。このデザインはカプコンのスタッフ皆様のこだわりの結晶でもある。そしてそのアーチを描く机の上には、AVID S3とDock、モニターコントローラーのTAC system VMC-102、そして38inch-wideのPC Dispalyが並ぶ。PC Displayの左右にあるのは、BauXer(ボザール)という国内メーカーのMarty101というスピーカー。独自のタイムドメイン理論に基づく、ピュアサウンドを実現した製品が評価を得ているメーカーだ。タイムドメインというと富士通テンのEclipseシリーズが思い浮かべられるが、同じ観点ながら異なったアプローチによりタイムドメイン理論の理想を実践している製品である。また、さらにMusik RL906をニアフィールドモニターとして設置する予定もあるほか、TVからもプレビューできるようにシステムアップが行われている。
◎AVID MTRXをフル活用したDubbing Stage
Dynamic Mixing StageのシステムはVMC-102とDirectout TechnologyのANDIAMO2.XTが組み合わされている。DAWとしてはPro Tools HDX2が導入され、I/OとしてMADI HDが用意されている。MADI HDから出力されるMADI信号はANDIAMOへ入り、VMC-102のソースとして取り扱われる。ANDIAMOにはATMOS視聴用のAV AMPのPre-OUTが接続されている。AV AMPはDOLBY ATMOS等のサラウンドデコーダーとしてPS4、XBOX oneなどが接続されている。VMC上ではストレートにモニターを行うことも、5.1chへのダウンミックス、5.1chでリアをデフューズで鳴らす、ステレオのダウンミックスといったことが行えるようにセットアップされている。
ちょっとした工夫ではあるが、AV AMPの出力は一旦ANDIAMOに入った後、VMCへのソースとしての送り出しとは別にアナログアウトから出力され、Dubbing Stageでもそのサウンドが視聴できるようにセットアップされている。実はこのANDIAMOは以前よりスタジオで利用されていたものであり、それを上手く流用し今回の更新にかかるコストを最低限に押さえるといった工夫も行われている。
Dubbing StageはVMC-102が移設となったため、新たにAVID MTRIXが導入されている。Pro ToolsのI/Oとして、そしてS6のモニターセクションとしてフルにその機能を活用していただいている。7.1chのスピーカーシステムはそのままに、5,1chダウンミックス、5.1chデフューズ、stereoダウンミックスといった機能が盛り込まれている。また、CUE OUTを利用しSSL Matrixへと信号が送り込まれ、Matrixのモニターセクションで別ソースのモニタリングが可能なようにセットアップされている。AVID MTRXには、MADIで接続された2台のANDIAMO XTがあり、この2台がスピーカーへの送り出し、メーター、そしてブースのマイク回線、AV AMPの入力などを受け持っている。せっかくなので、Dubbing Stage/Bの回線をAVID MTRXに集約させようというアイディアもあったが、サンプルレートの異なった作業を行うことが出来ないというデメリットがあり、このようなシステムアップに落ち着いている。やはり収録、素材段階での96kHz作業は増加の方向にあるという。従来の48kHzでの作業との割合を考えるとスタジオ運営の柔軟性を確保するためにもこの選択がベストであったという。
AVID MTRXのモニターセクションは、AVID S6のモニターコントロールパネル、タッチスクリーンとフィジカルなノブ、ボタンからフルにコントロールすることが可能である。DADmanのアプリケーションを選択すれば、モニターセクション、そしてCUEセンドなどのパラメーターをAVID S6のフェーダーからもコントロールすることもできる。非常に柔軟性の高いこのモニターセクション、VMC-102で実現していた全てのファンクションを網羅することができた。GPIO等の外部制御を持たないAVID MTRXではあるが、AVID S6と組み合わせることでS6 MTMに備わったGPIOを活用し、そのコマンドをEuConとしてMTRXの制御を行うことができる。もう少しブラッシュアップ、設定の柔軟性が欲しいポイントではあるが、TBコマンドを受けてAVID MTRXのDimを連動することができた。少なくともコミュニケーション関係のシステムとS6 + MTRXのシステムは協調して動作することが可能である。今後、AVID S6のファームアップによりこの部分も機能が追加されていくだろう。日本仕様の要望を今後も強く出していきたいと感じた部分だ。
今回の更新ではコンパクトなスペースでもDOLBY ATMOSを実現することが可能であり、工夫次第で非常にタイトでつながりの良いサウンドを得ることができるということを実証されている。これは今後のシステム、スタジオ設計においても非常に大きなトピックとなることだろう。今後の3D Surround、Immersive Soundの広がりとともに、このような設備が増えていくのではないだろうか。この素晴らしいモニター環境を設計された株式会社SONA、そして様々なアイデアをいただいた株式会社カプコンの皆様が今後も素晴らしいコンテンツをこのスタジオから羽ばたかせることを期待して止まない。
左:株式会社カプコン プロダクション部サウンドプロダクション室 瀧本和也氏 右:株式会社ソナ 取締役/オンフューチャー株式会社 代表取締役 中原雅考氏
*ProceedMagazine2017-2018号より転載