本サイトでの Cookie の使用について

Shibuya 03-3477-1776
Umeda 06-6131-3078

Headline

NEWS
2024/05/10

360VME出張測定開始&価格改定のお知らせ

360VME、出張測定開始 ついに6月より、360VME出張測定サービスが開始されます!! SONYがイマーシブ制作を行われるクリエイター全てのためにその技術を展開しているSONY 360 Virtual Mixing Environment(360VME)。Rock oNのイマーシブ拠点MILスタジオにてそのサウンドをお持ち帰りいただくべくサービスを展開していましたが、ついに第2フェーズへとSONY 360 VMEサービスは突入します。 ご体験を頂いた方には、非常に高評価を頂いているSONY 360 VMEサービスです。MILスタジオと言うRock oNの誇るイマーシブスタジオのサウンド環境をヘッドフォンに閉じ込めてお持ち帰りいただくという、まさに夢のようなサービス。しかし、すでにイマーシブスタジオをお持ちの方からは自身のスタジオの環境を持ち歩きたいという声を多くいただいていました。 その声に答えるべくSONYと協議を進め、6月より出張測定のサービス開始となります! 料金体系変更のお知らせ あわせて、SONY 360 VMEのStart Up Price期間も終了し、料金体系も変更となります。 ① 360VME プロファイル料金 1プロファイル/1年 ¥40,000(税別) 1プロファイル/6ヶ月 ¥25,000(税別) ※プロファイルデータは 期間限定のサブスクリプションモデルとなります ② 360VME プロファイル測定料金 MILスタジオでの測定 1測定/¥40,000(税別) 出張測定サービス ¥80,000(税別) ※出張測定サービスは、3プロファイル以上でのお申し込みをお願いします。 ①プロファイルサブスクリプション + ②測定料金 = 360VME測定サービス合計金額となります。 Sample Case #1 〜MILでの測定〜MILスタジオで、SONY 360 Reality AudioとDolby Atmosフォーマットのプロファイルを測定。 1年間のサブスクリプション・プロファイルを購入。 2プロファイル/1年 ¥40,000 ✗ 2 = ¥80,000(税別) MILスタジオでの測定(2プロファイル) ¥40,000 ✗ 2 = ¥80,000(税別) 合計 ¥160,000(税別)   Sample Case #2 〜出張測定〜出張測定で、4名分のプロファイルを測定。1年間のサブスクリプション・プロファイルを購入 4プロファイル/1年 ¥40,000 ✗ 4 = ¥160,000(税別) 出張測定サービス(1プロファイル)¥80,000 ✗ 1 = ¥80,000(税別) 合計 ¥240,000(税別) 上記新価格は、6月よりの適用となります。 5月中のお申し込みに関しては、これまでの料金体系でのお受付とさせていただきます。 ◎360VMEプロファイル更新料金に関して 測定を伴わないプロファイル期間更新の料金の設定を行う予定です。こちら、SONY様との協議が完了し次第、告知の方を行わせていただきます。 測定は引き続きこちらのフォームからお申し込みいただけます↓ 360VME測定 お申し込み ご不明な点などございましたら、ROCK ON PROまでお問い合わせください。 360 Virtual Mixing Environment詳細ページはこちら↓ https://www.minet.jp/brand/sony-360-vme/sony-360-vitual-mixing-environment/ MIL studioについてはこちら↓ https://www.minet.jp/contents/info/mil-studio/
Sales
2024/07/16

【7月限定】GRACE designがモニターコントローラー対象のキャッシュバックキャンペーンを開催中!

国内外で数多くのプロフェッショナルスタジオが採用しているGRACE design社のリファレンス・モニターコントローラーを、お得にお買い求めいただけるキャンペーンが開催中です! 対象製品は以下の4機種! ・イマーシブモニターコントローラー m908 ・ステレオモニターコントローラー m905 / m905 Analog ・DAC内蔵ヘッドホンアンプ・プリアンプ m900 原音忠実にこだわりプロフェッショナル・ツールとして日々開発を続けているGRACE designのモニターコントローラーを、この機会にどうぞ! キャンペーン詳細 内容:キャンペーン期間中に対象機種をご購入いただくと、キャッシュバック分をお値引きして販売いたします。 期間:2024年7月31日まで ◎対象製品 m908 通常価格¥1,450,000(税込¥1,595,000) →特別価格¥1,300,000(税込¥1,430,000) Rock oN eStoreで購入!
NEWS
2024/07/12

Avid Huddleリリース!ポスプロのレビューを迅速化!

Avid Huddleが2024年6月20日にリリースされました。 SaaSソリューションのHuddleは、Media ComposerとMicrosoft Teamsを安全にリンクすることで、ポストプロダクションのレビューを迅速化することができるMedia Composerのオプション機能です。 コロナ禍以降、ライフスタイルの変化やネット回線の高速化に伴い、リモートでのプロセスのレビューは多くのクリエターやアーティストに支持されています。 https://youtu.be/rggRVTzyqIE?si=wluPwZjtyQGboeNL では、Avid Huddleを紹介していきましょう。 Avid Huddleの3つのすごい! 即時性 Avid Huddleは、Media ComposerのプルダウンメニューからAvid HuddleとMicrosoftのアカウントにアクセスし、Microsoft Teamsの会議を開始することができます。 Huddleを使うエディタは、Media Composerを介してタイムラインにあるシーケンスの再生をコントロールします。そして、会議参加者はその編集内容をMicrosoft Teams上で確認することができ、さらにMicrosoft Teamsの描画ツールを使って、フレーム内に描画とコメントを追加することができます。 Media Composerからの出力はフルフレーム、そしてフレーム精度でのコマ送りが可能なため、正確な位置で注釈をつけることができます。(YouTubeなどのwebブラウズのプレイヤーでは、このフレーム精度でのコマ送りが難しいことは、皆様もよくお分かりの通りです) また付けられたコメントは会議終了後、シーケンスの「マーカー」として利用したり、PDFファイルを作成することができます。 複数のシーケンスのレビューを行うことができます。 タイムラインに別のシーケンスをロードするだけで、瞬時にレビューするシーケンスを切り替えることができます。会議室に表示されていた最初のシーケンスのコメントは一旦非表示になり、二番目のシーケンスに対してのディスカッションを新しく開始できます。そして最初のシーケンスに戻すと、コメントは最初のシーケンスのコメント表示に戻ります。 安全性 従来からよくあるレビュー方法では、誰もが視聴できる汎用性のあるファイルにエクスポートし、複数の関係者にファイルを送ったり、またはサイトにアップロードしたりすることがあります。 しかし、それら一連の作業は、クリエイティブな作業とは別の時間を費やすことになり、さらに、人為的な作業を介すため、安全性に乏しいプロセスになります。 セキュリティは最も重要な優先事項です。Avid Huddleでは、メディアの作成も、アップロードもありません。ただMedia Composerのタイムラインを再生するだけで、SRTの暗号化された編集結果を共有することができます。 SRTのストリームは傍受したり記録したりすることができず、そのデータはどこにも保存されず、会議終了後にメディアは残りません。 高品質 Media Composerの出力はSRTライブストリームで、Microsoft Teamsに直接送信されます。 SRTはSecure Reliable Transport (セキュア・リライアブル・トランスポート)の略称です。遠隔地への安定した映像伝送を目的とし開発されており、高い安全性、確実性、接続性を可能にする技術として、2017年よりオープンソース化され、現在ではAvidを含む600社以上のメーカーがその開発に参加しています。 以前、この技術についてご紹介しておりますので、詳しく知りたい方はこちらのページもご覧ください。 https://pro.miroc.co.jp/solution/ndi%ef%b8%8e-srt-proceed2022/ Avid Huddleを使うための3つの要件 ◎Avid Huddleライセンス 柔軟な月額サービスモデルにより、必要なときに必要なものだけを支払うことができます。 共同セッションに必要なAvid Huddleライセンスは、タイムラインを再生するMedia Composer用に1つだけです。 通常価格 月額:¥15,290 (本体価格:¥13,900) 通常価格 年額:¥154,000 (本体価格:¥140,000) ◎Media Composer Ultimate / Media Composer Enterprise 2023.12以降 または ◎Media Composer 2024.6以降 ◎Microsoft Teams license (Microsoft 365 Business Basic/Business Standerd/Education) (会議参加者は、Microsoft Teamsにゲストとして参加するためのリンクのみが必要) ご興味のある方は、お気軽にROCK ON PROまでお問い合わせください。 Avid Huddleの優れたビデオ・オーディオストリームミングを是非ご体験ください。
Support
2024/07/08

Pro Tools Dolby Atmos関連ノウハウビデオ情報

2023.12よりPro ToolsにDolby Atmos Renderer機能が追加され、制作環境がまた大きく構築しやすくなったDolby Atmos。AvidよりそんなPro Tools内部レンダラーについてのノウハウビデオが公開されています。スタンドアロンのRendererとはまた異なる設定が必要な内部レンダラーをこのビデオを見て使いこなしましょう! Pro Tools Dolby Atmos 内部レンダラー まずはこちらの動画で、基本的な機能や設定、操作について確認できます。内部レンダラーの初期設定において肝となるのがモニターパス設定ですのでお忘れなく。 リレンダラー機能及び設定解説 ダウンミックスやラウドネス管理には欠かせないリレンダラー機能についてのビデオです。 カスタム・ライブリレンダラー機能を応用したステム出力方法 Group設定をしておけば、Groupごとのソロ、ミュートのほかステム書き出しまで活用することができます。 Apple Music空間オーディオ・バイノーラル・モニター設定 AudiomoversのBinaural Renderer For Apple Musicを組み合わせれば、Logic ProでなくてもApple空間オーディオを意識したモニタリングが可能です。(購入はコチラ) HDX DSPを使ったAtmos環境下での低レーテンシーモニター設定 まさにProToolsの内蔵機能ならではの使い方が可能。HDXシステムやハイブリッドエンジンをお使いの方は知っておいて損はない情報ですね。 まだ対応するPro Toolsをお持ちでない方は、アップグレードでDolby Atmos制作環境をGETしてみてはいかがでしょうか! Pro Tools Ultimate 永続版アップグレード 在庫限り旧価格 ¥57,750 (本体価格:¥ 52,500) Rock oN eStoreで購入
Event
2024/07/05

【7月10~11日開催】関西放送機器展、サウンドフェスタに出展します

ROCK ON PRO/Media Integrationは関西放送機器展、サウンドフェスタにイベント出展いたします。 今年は両イベントが7月10日(水)・11日(木)の同日開催。この機会を活かすべく、なんとサウンドフェスタと関西放送機器展の弊社ブースを最新のIP伝送技術で中継!Danteをインターネット回線に乗せて送出するDanteConnectは国内初展示となります!クラウドスイッチャーを用いたNDIによる映像中継も組み合わせた、次世代の音声映像伝送展示をご覧あれ! 会場では出来立てホヤホヤのProceed Magazine最新号も配布します! ご質問・ご相談だけでもお気軽にお越しください。西日本の皆様とお会い出来ることを楽しみにしております! ■第9回 関西放送機器展 >>公式サイト(https://www.tv-osaka.co.jp/kbe/#outline) 期間:2024年7月10日(水)・11日(木) 場所:大阪南港 ATCホール(大阪市住之江区南港北2-1-10) ☆ROCK ON PROブース番号:A-50 展示概要 サウンドフェスタとDante Connect & NDIを使用したIP中継を実現!クラウド稼働のNDIスイッチャーVizrt Viz Vectar Plusを組み合わせ、クラウド化した放送システムの未来を実際にご覧いただけます!また放送用コンソールと連携するマルチエフェクターWaves Live SuperRack SoundGridも展示! 主な展示機器 Dante Connect、Waves CloudMX、Avid MTRX II +Thunderbolt 3 option、Lewitt RAY、ほか ■サウンドフェスタ2024 >>公式サイト(https://sound-festa.com/sf2024-2) 期間:2024年7月10日(水)・11日(木) 場所:大阪国際会議場 グランキューブ大阪 5F〜7F(大阪市北区中之島5丁目3番51号) ☆ROCK ON PROブース番号:7105(7F) 展示概要 関西放送機器展とDante Connect & NDIを使用したIP中継を実現!Cloud上での音声ミキサー、映像スイッチャーソリューションを実際にご覧いただけます。Pro ToolsとSPAT Revolutionを組み合わせたライブイマーシブシステムデモのほか、今年のNAMMで発表されたWaves SuperRack LiveBox Danteも国内初公開! 主な展示機器 Dante Connect、Waves Cloud MX、SuperRack LiveBox Dante、Avid Pro Tools | Ultimate、SPAT Revolution、Avid MTRX Studio、Focal CI、ほか
Support
2024/07/05

Avid Media Composer ver.2024.6リリース情報〜

日本時間 2024年6月28日未明、Avid Media Composer バージョン2024.6がリリースされました。有効なサブスクリプション・ライセンスおよび年間プラン付永続ライセンス・ユーザーは、AvidLinkまたはMyAvidよりダウンロードして使用することが可能です。 今回のリリースでは、文字起こしツールの効率化、Pro Toolsセッションファイルのインポート新機能に伴うカラーマーカー拡張やオーディオのオーディオボリュームとパンのサブフレームのなど、使いやすさがさらに向上しています。 文字起こしツールは、Media Composer |UltimateとMedia Composer | Enterpriseに標準で含まれます。また、PhraseFindオプションをサブスクライブすることで、Media Composer Standardのサブスクリプション版およびMedia Composer永続ライセンス版でも利用可能です。 それでは新機能を見ていきましょう。 文字起こしウィンドウ [ツール] > [トランスクリプト ツール] を選択して、文字起こしウィンドウを開くことができます。文字起こしツールはソースモニタにロードされているクリップの文字起こしが、タイムコードとスピーカーIDと共に表示されます。 デフォルトでは、起こされた文字とソースモニタの再生ヘッドが連動しており、再生をすると、緑色の文字でテキストを追従します。また、イン点とアウト点をつけると、その範囲のテキストに緑色の帯がつきます。 連動を外す時には、文字起こしウィンドウの左下にあるギャングボタンをクリックします。 スピーカーID Media Composer 2024.2では文字起こしをすると、話し手を識別できるようになりました。このリリースでは、さらにスピーカーIDの名前を変更したり、正しいスピーカーIDに修正することができます。 スピーカーIDを変更するには、名前をダブルクリックし、新しい名前を入力します。スピーカーIDにエラーがある場合には、スピーカーIDの修正ができます。例えば、複数のスピーカーが1つのIDを共有していたりする場合には、スピーカー名を右クリックし、「Add new speaker」で追加します。 サブクリップとグループのマスタークリップ参照 Media Composerでは、マスタークリップの文字起こしだけがデータベースに保存できるようになりました。文字起こしを行うと、マスタークリップの文字起こしを参照するかどうかを決めることができます。 [尋ねる]はデフォルト設定です。 これにより、サブクリップまたはグループクリップの文字起こしにかかる時間が節約できます。 またサブクリップの文字起こしに加えられた変更は、マスタークリップにも反映され、さらにスピーカーIDの変更も同様に更新されます。 クリップの文字起こしをビン単位で管理する デフォルトで、Media Composerはプロジェクト内のすべてのメディアの文字起こしを行います。 しかし、音楽や効果音、オーディオのないメディアなど、文字起こしが不要な場合があります。クリップの文字起こしをさせないことで、コンピュータのリソースを無駄に使用することがなくなります。また、長編の作品を編集する際のリソースの節約にもつながります。 ビンを右クリックし、[文字起こしインでキシングから除外]またはを[文字起こしインでキシングに含める]を選択できます。ビンコンテナサイドバーの右側には、それがどう設定されているかが表示されます。 さらに、トランスクリプト設定ウィンドウに「すべての新規ビンを文字起こしインデクシングに含める」という新しいオプションがあります。この設定のチェックを外すと、すべての新しいビンがトランスクリプションから除外されます。 Pro Toolsセッション (.PTXM) のインポート Pro Toolsのセッションファイルをエクスポートする機能は、2022.12から搭載されましたが、段階的に機能が強化され、今回のバージョンでは、Media Composerでプロツールスのセッションデータがインポートできるようになりました。 Pro ToolsセッションファイルをMedia Composerでインポートすることで、より迅速かつ効率的に作業を行うことができます。 Pro Toolsではファイルを「セッション (Media Composer対応)」として保存すると、Media Composer 2024.6(以上)でインポート可能となる新しい拡張子「.ptxm」が付いたファイルが作成されます。 参考情報(ビデオ):Media Composer 対応セッションを Pro Toolsでエクスポート 制限事項 Pro Toolsからエクスポートされた.ptxmファイルには、次の項目は含まれません。 ・ビデオトラック ・フォルダ ・MIDIトラック(別のトラックのインストゥルメントを介して録音されている場合を除く) ・VCMトラック(ただし、オートメーション データは統合されます) ・マスターフェーダー(レンダリングに直接含まれている場合を除く) また、オーディオを生成する非オーディオ トラック (Aux、ルーティング フォルダー、インストゥルメントなど) は、オーディオ トラックに変換されます。さらに、Media Composerは現在、管理対象メディアとして 32 ビット フロートをサポートしていません。そのため、リンクされた32 ビット フロート ファイルを変換および統合すると、0 dBしきい値を超えるオーディオを含むメディアはクリップされます。 マーカーの色とフィールドの拡張 Media Composerのマーカー色は16色に拡張され、紫、バイオレット、ピンク、デニム、フォレスト、オレンジ、ゴールド、グレーが追加されました。また、「マーカー名」フィールドに含まれていた情報は、「マーカー名」と「ユーザー」に分割されました。 以前のバージョンの Media Composer でマーカーを表示すると、拡張された色オプションは元の8色にマッピングされ、「ユーザー」フィールドは「マーカー名」フィールドに戻ります。マーカーをテキストファイルとしてエクスポートして以前のバージョンにインポートすると、拡張された色はすべてデフォルトで1色になり、「マーカー名」フィールドは無視されます。 ボリュームとパンコントロールのサブフレームオートメーション ボリュームとパンコントロールのサブフレームオートメーションによる読み取りと書き込みが、Media Composerで利用できるようになりました。サブフレームオートメーションにより、Media Composerでオーディオファイルを操作する際の精度が向上し、Pro Toolsとの互換性も向上します。 サブフレームオートメーションは、フレームベースのオートメーションと同様に機能します。まずトラックコントロールパネルのボリューム/パンボタンをクリックして、ボリュームまたはパンのオートメーションを有効にします。サブフレームオートメーションポイントを追加するには、クリップの上にマウスを置き、Shift + Command + Option (macOS) または Shift + Control + Alt (Windows) キーボードコマンドを押したままにします。これにより、「+」記号の付いた小さな手のアイコンが表示されます。次に、1フレーム間で、オートメーションラインセグメントをクリックします。オートメーションポイントをサブフレームの位置に移動するには、Command + Option (macOS) または Control + Alt (Windows) を押したままオートメーションポイントをドラッグします。ユーザーが元の修飾キー、Option (macOS)、または Alt (Windows) を押したままにすると、最初のオートメーション ポイントがフレーム境界にスナップされます。 オーディオミキサーを使用して記録されたオートメーションはフレーム精度が維持されますが、作成後にサブフレームレベルで調整できます。 OpenTimelineIO (OTIO) のパブリック プレビューのアップデート Avidでは、継続的な取り組みの一環として、オープン ソース コミュニティに参加し、ユーザー向けに OpenTimelineIO (OTIO) 機能をサポートしています。2024.2で紹介された時はWindowsのみのサポートでしたが、今回はMacでもサポートされることになりました。 OTIOはEDL (Edit Decision List)のような、ファイル交換形式であり、シーケンス内に配置されるマスタークリップを表します。ただし、EDL とは異なり、OTIO ファイルには複数のビデオ トラックとオーディオ トラックが含むことができます。この形式は主に、簡単にファイルを変換できることを必要とするVFXおよびオンラインワークフローを対象としています。 Media ComposerからOTIO ファイルをエクスポートする場合には、ディゾルブなどの最も基本的なエフェクトのみが含まれます。 Media Composerは、リンクされたメディアを含むシーケンスや、インターリーブされたオーディオ ファイルを含む外部で作成されたクリップのOTIOファイルをエクスポートしません。 また、現在のリリースではOTIOファイルをMedia Composeにインポートすることができません。 Media Composerについてのお問い合わせ、ご相談はお気軽にROCK ON PROまでご連絡ください。
Sales
2024/07/01

【9/30までさらに期間延長!!】MBOX StudioにPro Tools Studio永続ライセンスが期間限定で付属!

MBOX StudioにはPro Tools Studioサブスクリプションが1年間付属していますが、2023年12月7日から2024年1月31日までの期間限定で、このサブスクリプションの代わりにPro Tools Studio永続ライセンスが付与されるキャンペーンが実施されます。 2024年2月1日追記:キャンペーンの終了期間が2024年3月31日まで延長されました! 2024年4月1日追記:キャンペーンの終了期間が2024年6月30日まで再延長されました! 2024年7月1日追記:キャンペーンの終了期間が2024年9月30日まで再々延長されました! 音楽制作に必要なPro Tools Studio、それも、永続版(¥92,290 税込)がまるまる無料になる太っ腹なプロモーション! し・か・も!今なら在庫限りの旧価格特価品あり!! →旧価格在庫はおかげさまで完売いたしました。 MBOX導入を検討中の方は、ぜひこの機会をご活用ください! Avid MBOX Studio 通常販売価格:¥138,600(本体価格:¥126,000) 在庫限り旧価格特価:¥ 116,600 (本体価格:¥ 106,000) 旧価格在庫はおかげさまで完売いたしました。 Rock oN Line eStoreで購入!>> *旧定価在庫が完売次第、通常販売価格での販売となります。 プロモーション概要 期間限定プロモ:MBOX StudioにPro Tools Studio永続ライセンスがバンドル! 実施期間: 2023年12月7日(木)〜2024年1月31日(水) 2024年3月31日(日)まで延長! 2024年6月30日(日)まで再延長! 2024年9月30日(月)まで再々延長! 猶予期間: 2023年11月7日(火)〜12月6日(水)までにご購入いただいたユーザー様も同様の特典を受けられます。 MBOX Studio製品紹介(Avidブログ)>> MBOX Studio製品紹介プレイリスト(Avid公式YouTube) 本プロモの開始日は12/7ですが、30日間の猶予期間(11月7日〜12月7日)が設定されているため、11/7〜本プロモ開始までの期間にMBOX Studioを購入された方にもPro Tools Studio永続ライセンスが提供されるようになっています。 永続ライセンスは、MyAvidの「まだダウンロードされていない製品」セクションに自動的に配信され、Avidでの準備が整い次第、アクティベートできます。また、その旨を知らせるメールも自動的に送信されます。 プロモーション期間中にアクティベーションを行い、すでに有効なサブスクリプションまたは永続契約を結んでいるお客様には、新しいPro Tools Studio永続アクティベーションがMyAvidの「未ダウンロード製品」セクションに表示されます。 関連記事 https://pro.miroc.co.jp/headline/avid-mbox-studio-movies/ https://pro.miroc.co.jp/headline/mbox-studio-user-guide-manual-japanese/ https://pro.miroc.co.jp/headline/avid-mbox-studio-support/ https://pro.miroc.co.jp/headline/avid-mbox-studio-delivery-schedule/ https://pro.miroc.co.jp/headline/mbox-studio-review-recording-movie/ コンパクトなボディに業務用スタジオに匹敵する機能を詰め込んだMBOX Studio。ホームスタジオで「あったら便利」な機能が網羅され、コンデンサー/ダイナミック織り混ぜで8本のマイクを接続することも可能なパワフルなNative I/Fです。 ぜひ、この機会に導入をご検討ください!
NEWS
2024/06/21

Pro Tools 2024.6リリース!ワークフローを加速する多数のアップデートを実施

Pro Tools 2024.6がリリースされました。今回のアップデートではARA 2対応の拡大とRX Spectral Editorの付属、刷新されたセッションインポート機能など、大規模セッションをより効率的かつ確実にハンドリングするための機能強化が図られているほか、MIDIプラグイン追加やSibelius・Media Composerとの連携強化なども施され、ポストプロダクションだけでなく音楽制作においても、より効率的な作業ができるように工夫されています。 有効なサブスクリプション、または、年間サポートプランが有効なライセンスをお持ちのユーザー様は、すでにAvidアカウントからPro Tools 2024.6をダウンロードして使用することが可能です。 ARA 2対応アプリケーションにiZotope RX Spectral Editorなどが追加 すでにARAに対応しているCelemony Melodyneに加え、2024.6からは以下のアプリケーションがARAに対応します。 ・iZotope RX Spectral Editor(現状、その他のモジュールは非対応) ・Sound Radix Auto-Align 2 ・Sound Radix Auto-Align Post 2 ・Synchro Arts RePitch(Elements、Standard) ・Synchro Arts VocAlign(Project、Ultra) ・Synchro Arts Revoice Pro これらのアプリケーションがARAに対応することで、ポストプロダクションで必要とされるオーディオ処理の結果を「ミックスの中で」「リアルタイムに」確認することが可能になります。 RX Spectral Editor、及び、RePitch Elementsは、Pro Tools Artist / Studio / Ultimateに付属します。 Pro Tools Dolby Atmos関連機能の強化 Dolby AtmosレンダラーのUIデザインがより使いやすく変更されました。出力フォーマットの追加、Pro Toolsウィンドウからの設定変更など、より素早いワークフローを実現するアップデートが施されています。 Pro Toolsウィンドウ上で設定変更が可能に これまでメニューに入らないとアクセスできなかった「バイノーラルモードの変更」と「Dolby Atmosグループ設定のアサイン/変更」が、編集/ミックスウィンドウのトラックからダイレクトに操作できるようになりました。 また、これらの設定は再生中にも変更できるようになり、より最適な設定をリアルタイムに選択することができるようになりました。 Dolby Atmosグループのソロ/ミュート 内部レンダラーのUIがブラッシュアップされ、ウィンドウ上部にDolby Atmosグループごとのソロ/ミュートボタンが追加されました。この機能も、再生中に使用可能です。 これまでウィンドウ上部にあった各種設定メニューは、歯車マークをクリックするとウィンドウが拡張して表示されるようになりました。 出力フォーマットの追加 モニタリングとリレンダー出力に「9.1.4」「7.1.2」「ステレオ(Direct)」が追加されました。もちろん、既存の9.1.6、7.1.4、ステレオはそのまま残っています。従来の「ステレオ」は5.1ミックスをダウンミックスしたものを出力していましたが、新しいステレオ(Direct)は、ステレオ用のミックスを別途制作する場合に使用します。 オフラインでのリレンダリングが可能に ライブ・リレンダラーでフリーズ、コミット、トラックのバウンスが可能になりました。もちろん、プラグインのオフラインバウンスにも対応しています。 メモリロケーション機能の強化 メモリロケーションを一括で管理する新しいウィンドウが追加されました。絞り込みやマーカー名での検索機能も備えており、膨大なマーカーをこれまでより効果的に活用することができるようになります。 また、マーカールーラーごとに表示/非表示を切り替える機能や、タイムライン上のマーカーへ移動するためのショートカットなどの機能追加も実施されています。 セッションインポート機能の強化改善 セッションインポート時のメニューがアップデートされ、現代のワークフローによりマッチしたデザインになりました。トラック/マーカーのリストが広くなり、ウィンドウ自体も広げることができるようになり、トラック数が膨大になる現代のセッションファイルをより効率よく扱うことができるようになります。 フォルダトラックはインポートウィンドウ上で展開することも可能、トラック名/マーカー名での検索機能も追加され、目的のトラックをすばやく見つけることができます。 Media Composer・Sibeliusとの連携強化 Pro Toolsのセッション書き出しから、Media Composerにインポートできる新しい形式のファイル「.ptxm」をエクスポートできるようになりました。.ptxmにはステレオ、5.1、7.1バスのボリュームとパンのオートメーションを保存することが可能。Dolby Atmosのリレンダーファイルをエクスポートすることもできます。 Media Composerでは、今後のアップデートで.ptxmファイルをインポートすることができるようになります(開発中)。 Sibeliusとの連携では、これまでSibelius→Pro Toolsで可能だったコピー&ペーストを、Pro Tools→Sibeliusでも実行可能になりました。MIDIノートのコピー&ペーストにも対応しています。 ふたつのMIDIプラグインが新登場 MIDIプラグインに下記2点が追加されました。 ・Mixed In Key Captain Chords Lite:指定したコードからハーモニーを自動生成 ・Human Lite:MIDIトラックに人間的な揺らぎを付加 MIDIエディタの表示オプション MIDIエディタに下記2つの機能が追加されました。 ・キーボードと個別のノートにピッチを表示 ・半音階の#/b表示をワンクリックで切り替え 上記の機能はDock表示・ウィンドウ表示のいずれでも使用可能で、それぞれに別々の設定を施すことも可能です。 ユーザーからの声を反映し、着実に現代的なワークフローに対応するPro Tools。有効なサブスクリプション、または、年間サポートプランが有効なライセンスをお持ちのユーザー様は、すでにAvidアカウントからPro Tools 2024.6をダウンロードして使用することが可能です。 新規導入、アップデート、HDXシステムなど、ご相談はROCK ON PROまでお気軽にお問合せください。
NEWS
2024/06/18

Pro ToolsとDropbox Replayが連携!プロジェクトの共有&レビューフローに革新を

Avid Pro Toolsが新たにDropbox Replayとの機能連携を発表しました! これにより、制作したMAやミックスを共同製作者やプロデューサーと簡単に共有し、得たフィードバックを素早くプロジェクト上に反映することが可能です。共有、フィードバック、編集の一連のフローがメールやテキスト、ファイル共有サービスなどに分散してしまっている方も、Pro ToolsとDropbox Replayによって一括管理してしまいましょう! バウンス&アップロードで簡単共有 Dropbox Replayとは、Dropboxが提供する動画、画像、オーディオ ファイルのレビューツール。クリエイティブツールとして設計されているのでバージョン管理やロスレスHDオーディオ再生対応などの機能も搭載されています。すでにAdobe After EffectsやPremiere Pro、Apple Final Cut Pro、DaVinci Resolveなどの映像編集ソフトとの連携が実装されてきたDropbox Replayが、ついにPro Toolsとも機能連携されました! Dropbox Replayアプリとの連携はボタン一つで簡単に行えます。あとはBounce Mixをアップロードして、共有ワークスペースや共有リンクからシェアするのみ。レビュアーはiPadやブラウザからの確認も可能です。 詳しい使用方法はこちら:https://help.dropbox.com/ja-jp/integrations/dropbox-replay-avid-pro-tools タイムコード付きのコメントをマーカーレーンにインポート! レビュアーは、指摘したい箇所をタイムライン上でコメント可能。コメントにはタイムコードが埋め込まれ、Protoolsにレビューデータを取り込むとそのコメントがセッション上のトラック・マーカーとして表示されます! 修正箇所に素早くアクセスできるのはもちろん、修正についての齟齬も防ぐことができます。エクスポートにインポート、アップロードしてダウンロードして、修正箇所管理、、といった時間を短縮し、より効率よく実制作時間を確保するのに役立ってくれることでしょう。 実際に使用している様子がわかる公式動画はこちら↓ 普段からDropboxを活用されている方も、そうでない方も、制作における事務的なフローを見直してクリエイションを加速させましょう! 制作環境構築に関するご相談もROCK ON PROまでお寄せ下さい!
NEWS
2024/06/14

musikから最小サイズの同軸2way「MO-1 MK.II」が登場!

同軸モニタースピーカーを代表するメーカーであるドイツのmusikelectronic geithainから、待望の新製品が発売となります! MO-1 MK.IIは前作MO-1の意志を引き継ぎmusikラインナップで最小サイズのモニタースピーカーです。中継車のために開発されたという前モデルから再設計が施され、新たにDSPチップを搭載。さらにオプションでDante/AES67対応も可能になっています! 高さ約22cm、横幅約15cmというサイズは限られたスペースでの利用はもちろん、同軸の持つ抜群の定位感を活かしたイマーシブ、サラウンド用スピーカーとしても間違いなく活躍してくれるでしょう。 機能紹介 ~小型ながらも多機能な1本~ 多くのスタジオで導入されてきた信頼のあるmusik製品群の中でエントリークラスに位置する本機。musikの特徴である同軸設計による定位感の良さ、奥行きの表現力や圧倒的な解像度は業界内でも定評です。 今回新たにユーザー設定可能なDSPが搭載され、数種類のフィルタープリセットやディレイタイムの調整が可能に。なんとオプションによりDante/AES67での接続にも対応するため、マルチチャンネルのシステムもEthernetケーブルでシンプルに構築ができるのは大きなポイント。 2つのXLR入力からはモノダウンミックスが可能な他、PWM方式を採用した内蔵アンプ、高効率なスイッチング電源など、小さな筐体に多くの機能と拡張性が詰め込まれた注目の製品となっています。 製品概要 アクティブ同軸2ウェイスピーカー 最大音圧レベル:108dB r = 1 m 周波数特性:50Hz~22kHz ±3dB 歪率(83dB/r=1m):-40dB クロスオーバー周波数:3.5kHz 内蔵パワーアンプ出力:95W / 4Ω(低域)、95W / 4Ω(高域) 入力コネクター:XLR 3F アナログ、RJ45 Dante/AES67 (オプション) ユニット構成:低域 100mm コーン、高域 19mm ドームツィーター 消費電力:7VA (アイドル時)、80VA(フルロード時) キャビネット材質:MDF キャビネット仕上:ブラック or セミグロスホワイト 寸法:214 H x 147 W x 192 D mm 重量:3.5 kg musikelectronic久々の新モデルとなるMO-1 MK.IIは、現代のスタジオニーズを意識した広い可能性を持つプロダクトではないでしょうか!ご自宅のスタジオ環境をグレードアップさせる1本としても是非ご検討ください!導入のご相談はROCK ON PROまで。
Support
2024/06/14

Dolby Atmos Renderer v5.3.0 リリース情報 ~レンダリングプロセスの改善やStereo Directモニタリングが搭載~

Dolby Atmos Renderer v5.3.0 がリリース レンダリング処理による問題を解決 Dolby Atmos Rendererの最新バージョンv5.3.0がリリースされました。前回v5.2.0にて実装されたレンダリング処理への問題の報告を受け、v5.1.0までと同じ旧来のレンダリングプロセスへと戻る更新となりました。 公式サイト: https://customer.dolby.com/content-creation-and-delivery/dolby-atmos-renderer-v530 v5.3.0の主な変更点 サイズ・メタデータのレンダリングをDolby Atmos Renderer v5.1以前と同様の処理に更新 v5.2.0のレンダリングでは、以下の問題が報告されています。 *オブジェクトのサイズに応じてコムフィルターがかかる可能性がある(センターにパンしたドライボーカル信号で顕著) *新しいレンダリングプロセスに導入されたオールパスフィルターは、以前のツールバージョンと比較して、大きなトゥルーピーク・ラウドネスの違いを生む可能性がある よって、レンダリング処理をv5.1以前のものへと戻し、オールパス・フィルターは削除されました。 同様の問題が発生する可能性のあるDolby Atmosツールと、その修正バージョンは以下の通りです。 すべてのオブジェクトとベッド・チャンネルに適用されるオールパス・フィルター(Dolby Atmos Renderer v5.2で導入)を削除し、Dolbyツール間のTrue Peakラウドネスの差を低減 ラウドネスの測定方式をDolby Atmos Album Assembler v1.4と同様に統一 新しくモニタリングとリレンダーのレイアウトとしてStereo Directを追加。 Stereo Directとは Stereo Directが追加のモニタリングおよびリレンダリング・レイアウトとして追加されました。Stereo Directは、レイアウトを介してダウンミックスされるのではなく、Atmosミックスから直接作成されます。ADMにはエクスポートされません。別の成果物としてリレンダリングしエクスポートができます。LFE信号は含まれていません。 このモニタリングおよび再レンダリング出力のトリムは、「トリムとダウンミックス」ウインドウで調整できます。ステレオダイレクトの音量をUIに表示するには、環境設定でヘッドフォン出力をステレオダイレクトに設定してください。 トランスポートタイムラインを追加 スペースバーの再生動作を変更するオプションを追加 マスターの開始/終了が、最も近いサブフレームに丸められた形で表示されるよう変更 マスターの開始/終了をトップパネルのサブフレームに表示するオプションを追加 AmbixリレンダリングのラベルをAmbiX ACN0(W)、AmbiX ACN1(Y)、AmbiX ACN2(Z)、AmbiX ACN3(X)に変更 環境設定でスリープオプションを表示しないよう変更(Macのみ) レンダラーのトランスポートを制御するOSCコマンドに対応 Avid MTRX IIとThunderbolt™ 3オプションモジュールを認定システムに追加 修正された問題 macOS Sonoma 14.4およびVentura 13.6.5以降では、AppleのCore Audioによるセキュリティと安定性の向上のため、Dolby Atmos Renderer 5.2(およびそれ以前)のインストールに失敗する問題を修正 オブジェクトにサイズメタデータが含まれ、特定の位置に配置されている場合、書き出されたMP4のオーディオが無効化されたゾーンを無視する問題を修正 新しく発見された問題 Dolby Atmos Album AssemblerとDAWを同時にDolby Atmos Rendererに接続すると、予期しないメタデータがマスターファイルに書き込まれることがあります。接続すると、Dolby Atmos Album AssemblerがRenderer のプログラムレベルのメタデータ設定に影響します。(PRAU-6597) リリースノート全文はこちら(原文):https://customer.dolby.com/content-creation-and-delivery/dolby-atmos-renderer-v530/release-notes 入手方法 Dolby Atmos Renderer V5.0をお持ちの方、またはすでにアップグレードされている方は、Dolbyカスタマー・サポートまたはAvidアカウントの“製品”(My Products)から最新バージョンをダウンロード可能です。新規で購入の方はAVID Storeよりダウンロード購入可能です。 ◎Production Suiteからのアップグレードはこちら ◎Mastering Suiteからのアップグレードはこちら ◎新規のご購入はこちら ◎エデュケーション版はこちら Dolby Atmos制作環境の構築に関するお問い合わせはROCK ON PROまで!下記コンタクトフォームよりお気軽にお問い合わせください。
1 / 1112345678...»

Solution

Solution
制作環境を飛躍させる

DDM + AWS + WAVES クラウドミキシング / Dante Domain Managerでインターネットを越えるIP伝送

Ethernetを活用したAudio over IP(AoIP)伝送の規格、Dante。すでに設備やPAなど様々な分野でその活用が進んでいるこのDanteは、ローカルネットワーク上での規格となるため遠隔地同士の接続には向いていなかった。遠隔地への接続は低レイテンシーでの伝送が必要不可欠、そのためネットワーク・レイテンシーに対する要求はシビアなものとなる。これを解決するために、Danteの開発元であるAudinateが「インターネットを越えるDante」という、新しい一歩のためにDDM=Dante Domain Managerを利用する仕組みを完成させている。 DDM=Dante Domain Manager ご存知の通り、Danteはローカルネットワーク上で低遅延のAoIPを実現するソリューションである。ローカルでの運用を前提としたDanteをInternetに出そうとすると、ネットワーク・レイテンシーが問題となり上手くいかない。それもそのはず、ローカルでの運用を前提としているため、最長でも5msまでのレイテンシーしか設定できないからである。このレイテンシーの壁を取り払うために最近活用が始まったのが、DDM=Dante Domain Managerである。 このソリューションは、単一IPセグメントの中での運用に限定されているDanteを、さらに大規模なシステムで運用するために作られたもの。ドメインを複数作成することでそれぞれのドメイン内でそれぞれがローカル接続されているかのような挙動をするものとしてリリースされた。例えば、2つのホールを持つ施設で、すべてのDante回線を同一のネットワークとすれば、それぞれの場所も問わず任意のDante機器にアクセスできる、という柔軟性を手に入れることができる。しかし、それぞれのホールにあるすべてのDante機器が見えてしまうと煩雑になってしまう。それを解決するためにDDMを導入してそれぞれのホールを別々のドメインとし、相互に見えてほしいものだけを見えるようにする。このような仕組みがDDMの基本機能である。 AWS上でDDMを動作しレイテンシー回避 このようなDDMの機能を拡張し、インターネットを越えた全く別のドメイン同士を接続するという仕組みが登場している。DDM上でのレイテンシーは40msまで許容され、遠隔地同士だとしても国内程度の距離であれば問題なく接続することが可能となっている。この場合には、送り手、受け手どちらかの拠点にDDMのアプリケーションが動作しているPCを設置して、そこを中継点として伝送を実現するというイメージである。ただし、世界中どこからでも、というわけにはいかない。なぜなら40msというネットワークレイテンシはそれなりに大きな数字ではあるが、回線のコンディション次第ではこの数字を超えるレイテンシーが発生する可能性があるからだ。 この40msを超えるネットワークレイテンシーの改善のためにクラウドサービスを活用するという仕組みも登場している。これはAWS上でDDMを動作させることで、CDNのように分散ネットワーク処理をさせてしまおうという発想だ。ローカルのDante機器は同一国内、もしくは近距離でレイテンシーについて問題がないAWSサーバーで動作するDDMへと接続される。AWS上では世界各地のAWSサーバー同士が同期されているため、その同期されたデータと受け取り先のローカルが、許容レイテンシー内のAWSサーバー上のDDMと接続することでその遅延を回避するという仕組みだ。この仕組みにより、世界中どこからでもDanteを使ったオーディオ伝送が実現されるというわけだ。 📷IBC2023 Audinateブースでの展示は、ロンドンのAWS上で動作するWAVES Cloud MXが動作していた。右の画面にあるようにAudinateでは世界中のAWSを接続しての実証実験を行っている。 WAVES Cloud MXでクラウドミキシング 2023年に入ってからは、このAWS上でDDMが動作するということで、WAVES Cloud MXと連携しての展示がNAB / IBC等の展示会で積極的に行われている。ローカルのDanteデバイスの信号をAWS上のDDMで受け取り、その信号を同一AWS上のWAVES Cloud MXが処理を行うというものだ。ただし、オーディオのクラウドミキサーはまさに始まったばかりの分野。クラウド上にオーディオエンジンがあるということで、どのようにしてそこまでオーディオシグナルを届けるのか?ということが問題となる。DDMはその問題を解決しひとつの答えを導いている。 📷画面を見るだけではクラウドかどうかの判断は難しい。しかしよく見るとeMotion LV1がブラウザの内部で動作していることがわかる。オーディオ・インターフェースはDante Virtual Soundcard、同一AWS内での接続となるのでレイテンシーの問題は無い。 ここで、WAVES Cloud MXについて少しご紹介しておこう。WAVES Cloud MXはプラグインメーカーとして知られるWAVES社がリリースするソフトウェアミキサーのソリューションである。WAVESはeMotion LV1というソフトウェアミキサーをリリースしている。WAVESのプラグインが動作するオーディオミキサーとして、中小規模の現場ですでに活用されているPAミキサーのシステムだ。このソフトウェアをAWS上で動作するようにしたものが、WAVES Clod MXである。ソフトウェアとしてはフル機能であり、全く同一のインターフェースを持つ製品となる。プラグインが動作するのはもちろん、ネットワークMIDIを活用しローカルのフィジカルフェーダーからの操作も実現している。どこにエンジンがあるかを意識させないレイテンシーの低い動作は、クラウド上でのビデオ・スイッチャーを手掛ける各メーカーから注目を集め、NABではSONY、GrassValleyといったメーカーブースでの展示が行われていた。Audioの入出力に関しては、NDI、Danteでの入出力に対応しているのがローカルでのeMotion LV1システムとの一番の違い。ローカルのeMotion LV1では、同社の作った規格であるSoundGridでしかシグナルの入出力は行えない。 WAVESの多彩なプラグインを活用できるため、例えばDanDuganのAutomatic Mixerを組み込んだり、トータルリミッターとしてL3を使ったりと、様々な高度なオーディオ・プロセッシングを実現できている。これは、クラウド上でのビデオ・スイッチャーが持つオーディオ・ミキサーとは別格となるため、その機能を求めてメーカー各社が興味を持つということに繋がっている。Clarity Vxのようなノイズ除去や、Renaissanceシリーズに代表される高品位なEQ、Compの利用を低レイテンシーで行うことができるこのソリューションは魅力的である。その登場当時はなぜクラウドでオーディオミキサーを?という疑問の声も聞かれたが、ここはひとつ先見の明があったということだろう。 世界中どこからの回線でもミックスする クラウド上でのビデオ・スイッチャー、クラウドミキサーのソリューションは、そのままクラウド上で配信サービスへ接続されることを前提としてスタートしている。ローカルの回線をクラウド上で集約、選択して、そのまま配信の本線へと流す。非常にわかりやすいソリューションである。その次のステップとして考えられているのが、遠隔地同士の接続時に、回線をステム化して送るというソリューション。送信先の機材量を減らすという観点から考えれば、これもひとつの回答となるのではないだろうか。ローカルからは、完全にマルチの状態でクラウドへ信号がアップされ、クラウド上でステムミックスを作り、放送拠点へとダウンストリームされる。クラウド上で前回線のバックアップレコーディングを行うといったことも可能だ。インターネット回線の速度、安定性という不確定要素は常に付きまとうが、現場へ機材を持ち込むにあたっての省力化が行えることは間違いないだろう。 前述の通り、DDMを活用したこのシステムであれば、世界中どこからの回線でもミックスすることが可能である。さらに世界中どこからでもダウンストリームすることができる。国際中継回線など、世界中に同一の信号を配るという部分でも活用が可能なのではないだろうか?オリンピック、ワールドカップなどの大規模なイベントで、世界中の放送局へ信号配信する際にも活用が可能なのではないか、と想像してしまう。IPの優位点である回線の分配というメリットを享受できる一例ではないだろうか。 📷IBC2023 SONYブースにもWAVES Cloud MXが展示されていた。SONYのクラウド・ビデオ・スイッチャーのオーディオエンジンとしての提案である。こちらではDDMではなくNDIを使ってのオーディオのやり取りがスイッチャーと行われていた。手元に置かれたWAVESのフィジカルコントローラー「FIT Controller」はクラウド上のミキシングエンジンを操作している。 まだ、サービスとしてはスタートしたばかりのDDMとAWSを活用した遠隔地の接続。その仕組みにはDante Gatewayなどが盛り込まれ、同期に関してもフォローされたソリューションができあがっている。これらのクラウドを活用したテクノロジーは加速度的に実用化が進みそうである。   *ProceedMagazine2023-2024号より転載

Music

TOA ME-50FS / スピーカー原器、その違いを正確に再生できる装置を

長さを測るためには、その長さの基準となるメートル原器と呼ばれる標準器が必要。重さを測るのであれば同様にキログラム原器が必要となる。では、スピーカーにとっての基準、トランスデューサーとしての標準はどこにあるのか?そのスピーカーの標準器を目指して開発されたのがTOAのME-50FSだ。非常放送用のスピーカー、駅のホームのスピーカーなど生活に密着した音響設備を作るTOAが、これまでの知識と技術をすべてを詰め込んで作り上げた究極のアナログ・スピーカーである。1dB、1Hzの違いを聴き分けられるスピーカー、その実現はデジタルではなく、むしろアナログで開発しないと達成できないことであったと語る。そのバックグラウンドとなるさまざまな基礎技術、要素技術の積み上げはどのような現場で培われたのだろうか?そして、その高品位な製品はどのように作られているのか?研究開発拠点であるナレッジスクエアと、生産拠点であるアコース綾部工場に伺ってその様子をじっくりと確認させていただいた。 TOA ME-50FS 価格:OPEN / 市場想定価格 ¥2,000,000(税込:ペア) ・電源:AC100V ・消費電力:30W ・周波数特性:40Hz~24kHz (-6dB) ・増幅方式:D級増幅方式 ・エンクロージャ形式:バスレフ型 ・使用スピーカー 低域:10cm コーン型×2 高域 : 25mmマグネシウムツイーター ・アンプ出力:250W ・アンプ歪率:0.003% ・最大出力音圧レベル:104dB ・仕上げ:木製(バーチ合板) ウレタン塗装 ・寸法:290(幅)× 383(高さ)× 342(奥行)mm( 突起物除く) ・質量:約15kg(スピーカー本体1台の質量) 実は身近に必ずあるTOA製品 皆さんはTOAという会社をご存知だろうか?日本で暮らしているのであれば、TOAのスピーカーから出た音を聴いたことが必ずあるはずだ。駅のホーム、学校の教室、体育館、あなたの働いている会社の非常放送用のスピーカーもTOAの製品かもしれない。まさに生活の一部としてさまざまな情報を我々に音で伝えるためのスピーカーメーカー、それがTOAだ。 TOAの創業は、1934年と国内では老舗の電機メーカーである。創業時の社名は東亜特殊電機製造所。神戸に誕生し、マイクロフォンの製造を手掛けるところからその歴史はスタートしている。マイクロフォンと言っても現在一般的に使われている形式のものではなく、カーボンマイクロフォンと呼ばれる製品だ。これは世界で初めてエジソンが発明したマイクロフォンと同じ構造のものであり、黒電話など昔の電話機に多く使われていた形式である。周波数特性は悪いが、耐久性に優れ高い感度を持つため1980年代まで電話機では普通に使われていた。現在でも電磁波の影響を受けない、落雷の影響を受けない、低い電圧(1V程度)で動作するなどの特長から可燃物の多い化学工場や軍事施設など一部のクリティカルな現場では現役である。 このマイクロフォンは、その名の通り、カーボン(炭素)を必要とする製品である。時代は戦時中ということもあり、良質なカーボンを入手することが難しく、なんと砂糖を焼いてカーボンを作ったという逸話が残っている。要は砂糖を焦がした炭である。砂糖が贅沢品であった時代に、この工場からは一日中甘い匂いがしていたそうだ。 次に手掛けたのが、拡声装置。中でも「東亜携帯用増幅器」は、小型のトランクケースに増幅器とスピーカーを内蔵し、持ち運びのできる簡易拡声器として人気があったそうだ。他にもレコード録音装置などさまざまな音響製品を生み出していった同社だが、中心となったのは、拡声装置(アンプとスピーカー)であり、その専業メーカーとして発展をしていく。拡声装置のスピーカーとして当時使われていたのが、ホーン型のスピーカー。ドライバーユニットに徐々に広がる筒、ストレートホーンを取り付けたものである。この筒の設計により、特定の周波数の音を大きく、遠くまで指向性を持たせて届けることができるという特徴を持っている。 TOAが大きく発展するきっかけとなったのがこのホーンスピーカー。現在一般的に使われているホーンスピーカーは、リスニング用途の半円錐状のものを除けばほとんどが折り返し式ホーン。メガホンや、拡声器、選挙カーの屋根などについているものがそれである。この折り返し式ホーンはレフレックストランペットとも呼ばれる。ストレートホーンを折りたたんだ構造をしているため、全長を短くすることができ、さらにはドライバーユニットが奥まった位置にあるため防滴性能を獲得、屋外で使うにあたり優れた特徴を持っている。 このトランペットスピーカーは戦後の急速な復興に併せて大きな需要があった。同社は、黒や灰色の製品ばかりのこの市場に鮮やかな青く塗られたトランペットスピーカーを登場させ、その性能の高さも相まって高い人気を博した。青いトランペットをトレードマークに「トーアのトランペット」「トランペットのトーア」と呼ばれるまでに成長を遂げる。 1957年には、世界初となるトランジスターメガホンを発売。女性でも一人で持ち運べる拡声器としてエポックメイキングな製品となった。旅行先などでガイドさんが使っているのを記憶している方も多いのではないだろうか。いまでも、選挙の街頭演説などで見かけたりするメガホンのルーツが実は「トランペットのトーア」にある。 積み重ねた技術を音響の分野へ 1964年の東京オリンピックでは、全面的にトーアのスピーカーが使われた。東京オリンピックの開会式では世界で初めてトラック側から客席に対してPAするということが行われ、当時主流であった観客後方となるスタジアムの外側からではなく、客席に対して正対する方向からのPAは高い評価を受けた。これには、プログラムの演目に合わせてスピーカーを3分で移動させなければならない、など影の努力がかなりあったとのこと。スポーツ関連はこれをきっかけに国内のさまざまな競技場への導入が進み、お膝元である阪神甲子園球場やノエビアスタジアム神戸をはじめ全国各地でTOA製品が採用され、海外でもウィンブルドンのセンターコートなど数多くの採用実績を誇る。まさにPA=公衆拡声の技術力の高さを感じるところ。遠くまで、多くの人に明瞭な音を届ける。これを実践しているメーカーであると言えるだろう。 また、神戸のメーカーということもあって1970年の大阪万博開催の際には各所で「音によるおもてなし」を行う自動放送システムなど多くの新技術がお披露目された。この自動放送システムは、1975年の京成電鉄成田駅を皮切りに全国への導入が進んでいく。当時は、高価だったメモリーを使ったシステムでサンプラーの原型のようなものを作り、プログラム動作させていたということ。現在、駅で当たり前に流れてくる自動音声による案内放送のルーツとなるものだ。 1985年ごろからは、コンサート用のPAスピーカー、ライブハウスやディスコなどに向けたPAシステムも手掛けるようになる。これまでの「多くの人に明瞭な音を伝える」ということに加えて音質、音圧、さらには、長時間駆動しても壊れない耐久性を持った製品を開発していくことになる。ツアースピーカーには「Z-Drive」という名前が与えられ、大規模なライブ会場や屋外イベントで使われるようになる。そして、さまざまな現場に導入されるスピーカーのチューニングを行うために、世界初となるDSPを使ったサウンドデジタルプロセッサー「SAORI」を誕生させる。 この当時デジタルエフェクターは登場していたが、イコライザーやディレイ、コンプレッサーなどでサウンドチューニングをするためのデジタルプロセッサーはTOAが世界で最初に製品化をしている。このプロセッサーは主に設備として導入されるスピーカーの明瞭度を上げるためのチューニングに使われており、今では当たり前になっているDSPによるスピーカーチューニングの原点がここにある。デジタルコンソールに関しても1990年にix-9000というフルデジタルコンソールをウィーン国立歌劇場のトーンマイスターたちとともに作り上げた。音楽という芸術を伝え、楽しむためのスピーカー、そういった分野へのチャレンジも行われてきたことがわかる。 そして、TOAの中心となるもうひとつの分野が非常用放送設備。火災報知器に連動して室内にいる人々に警告を発したり、業務用放送を非常放送に切り替えたりという、国内では消防法で定められた多くの公共空間に設置されている設備である。人の命を守る音、「聞こえなかった」ということが人命に関わる重要な設備だ。今回お話を伺った松本技監が、「TOAの作る音は音を楽しむ(音楽)ためのものではなく、人の命を守る「音命(おんみょう)」だと再三に渡り言われていたのが印象的。耐火、耐熱性を持たせたスピーカーの開発、アンプ等の放送設備の耐久性・堅牢性へのこだわり、そのようなクリティカルな現場で培われた製品の品質、人命という何よりも重いものを預かる使命に基いた製品の製造を行ってきたということがTOAのもう一つの顔である。 TOA製品に息づくスピリット さまざまな分野へのチャレンジスピリット、そして非常用設備に始まる失敗の許されない現場への製品供給、そんな土台があったからこそオリンピックや万博などでの成功があったと言える、まさに設備音響としてのトップブランドの一つである。そのチャレンジスピリットを象徴するものとして「超巨大PA通達テスト」についてのお話を伺えた。 音を遠くまで届けるということは、一つのテーマである。その実験のために、口径3メートル、全長6.6メートルという巨大なストレートホーンを製作。巨大なアンプとドライバーにより、音をどれほど遠くまで届けることができるかをテストした。もちろん街中では行うことができないため、いま明石海峡大橋があるあたりから淡路島に向けて実験を行ったということだから驚きだ。おおらかな時代でもあったということもあるが、対岸の淡路島の海岸線沿いにスタッフを配置し、どこまで聴こえているかを試したということだ。もう一回は、比叡山の山頂から琵琶湖に向けてのテストがあったとのこと。この際も琵琶湖の湖畔でどこまで音が聴こえるかを試したということだ。そのテスト結果はなんと最長到達距離12km!もちろん、風などの影響も受ける距離となるが、このような壮大な実験を国内で行ってしまう先達の技術者による挑戦に感銘を覚える。 写真撮影は許可されなかったが、クリティカルな現場に向けて行われる製品テスト用設備の充実度はさすがの一言。基本的に耐久テストは、壊れるまで行うということを基本に、実際の限界を確認しているということだ。電力に対する負荷テストはもちろん、現代社会にあふれる電波、電磁波に対する試験を行うための電波暗室、物理的な耐久性を確かめるための耐震テスト、真水や塩水を製品にかけ続ける耐水、耐塩水テストなど、本当にここは電気製品を作っているところなのかと疑うレベルのヘビーデューティーな試験施設が揃っていた。 これも「音命」に関わる重要な設備、肝心なときに期待通りの動作が求められる製品を作るための重要な設備である。筆者も初めての体験だったが、電波暗室内では外部からの電磁波を遮断した状況下で、製品に電子銃で電波を当ててその動作を確認している。これは対策が脆弱な一般レベルの電子機器であれば動作不良を起こす状況で、どこまで正常動作を行えるか?影響の少ない設計にするにはどうすればよいか?昨今話題になることの多いEMS障害などへの影響を確認しているということだ。また、この実験設備の一室には工作室があり、用意された木工、金属加工などさまざまな工具で製品のプロトタイプは自分たちで作るという。まず、自らの手による技術と発想で課題解決に挑戦するという文化がしっかりと残っており、このような姿勢はTOAすべての製品に息づいているということだ。 スピーカー原器を作ろうという取り組み 東亜特殊電機製造所からスタートし、現在ではTOAとして国内の非常用放送設備のシェア50%、公共交通機関の放送設備や設備音響のトップブランドとなった同社が、なぜここに来てリファレンスモニタースピーカーを発表したのだろうか?もちろん、Z-Driveというコンサート向けのPAシステム、ウィーン歌劇場に認められたフルデジタルコンソールix-9000など伏線はあったものの、これまで、リスニング用・モニター用のスピーカーはリリースしてこなかった。 色々とお話を伺っていくと、TOAでは社員教育の一環として「音塾」というものを実施しているということだ。ここでは、社員に音に対する感性を養ってもらうためのさまざまなトレーニングを行い、1dBの音圧の違いや1Hzの周波数の違いを聴き分けられるようになるところまで聴覚トレーニングを行っているという。 ここで問題となっていたのが、人はトレーニングをすることで聴覚を鍛えることができるのだが、その違いを正確に再生できる装置がないということだ。物理的、電気的、さまざまな要因により、スピーカーには苦手な再生周波数や出力レベルが存在する。わかりやすいところで言えば共振周波数や共鳴周波数による影響である。もちろんそれだけではなく、他にもさまざまな要因があり理想とする特性を持ったスピーカーがない。そこで作り始めたのがこのME-50FSの原型となるプロトタイプの製品。まさに標準器となるスピーカー原器を作ろうという取り組みである。 デジタルの第一人者によるフルアナログ 📷右より3人目がこのプロジェクトの中心人物の一人となる松本技監。 このプロジェクトの中心人物の一人が今回お話をお伺いした松本技監。TOAの歴史の中で紹介した世界初のDSPを用いたサウンドデジタルプロセッサー「SAORI」やツアースピーカー「Z-Drive」を開発した中心人物の一人で、音声信号のデジタル処理やスピーカーチューニングに関する第一人者とも言える方である。この松本技監が究極のスピーカー製作にあたり採用したのがフルアナログによる補正回路である。デジタルを知り尽くしているからこそのデジタル処理によるデメリット。そのまま言葉を借りるとすれば「デジタル処理は誰もが簡単に80点の性能を引き出せる、しかしそれ以上の点数を取ることができない」ということだ。 デジタルとアナログの大きな違いとしてよく挙げられるのが、離散処理か連続処理か、という部分。デジタル処理を行うためには、数値でなければデジタル処理できないということは皆さんもご理解いただけるだろう。よって、必ずサンプリングという行程を踏んで数値化する必要が絶対的に存在する。しかし、連続性を持った「波」である音声を時間軸に沿ってスライスすることで数値化を行っているため、どれだけサンプリング周波数を上げたとしても「連続性を失っている」という事実は覆せない。ほぼ同等というところまではたどり着くのだが、究極的なところで完全一致はできないということである。 もう一つはデジタル処理が一方通行であるということだ。ご存知かもしれないが、スピーカーユニットは磁界の中でコイルを前後に動かすことで空気振動を生み出し音を出力している。このときに逆起電流という現象が発生する。動いた分だけ自身が発電もしてしまうということだ。これにより、アンプ側へ逆方向の電流が流れることとなる。デジタル処理においては逆方向のプロセスは一切行われない。しかしアナログ回路であれば、逆方向の電流に対しても適切な回路設計を行うことができる。 通常のスピーカー設計では影響のない範囲として捨て置くような部分にまで目を向け、その設計を突き詰めようとした際にどうしてもデジタルでは処理をしきれない領域が生まれる。ME-50FSでは、このようなことをすべて解決させるためにフルアナログでの設計が行われているわけだ。DSPプロセッサーの生みの親とも言える松本技監がフルアナログでの回路設計を行うということで、松本氏をよく知る仲間からは驚きの声が聞かれたそうだ。しかしその裏には、デジタルを知り尽くしているからこそのアナログであるという徹底したこだわりがある。デジタル処理ではどうしてもたどり着けない限りなく100点に近い、理想の性能を追い求めるための究極とも言えるこだわりが詰まっている。 こんなことをしている製品は聞いたことがない ME-50FSにおける設計思想は「スピーカーユニットをいかに入力に対して正確に動かすか」という一点に集約されている。低域再現などにおいて38cmウーハーなど大型のユニットが使われることも多いが、動作させる質量がサイズに比例して大きくなってしまうためレスポンスに優れなくなってしまう。動作する物体の質量が多ければそれだけその動きを止めるための力が必要ということだ。この問題に対してME-50FSでは10cmという小さなスピーカーユニットを採用することにした。口径は小さくしたものの、一般的な製品の3倍程度のストロークを持たせることでその対策がとられている。その低域の再生に抜かりはなく、バスレフ設計のエンクロージャーの設計と合わせて、40Hz(-6dB)という10cmユニットとしては驚異的な低域再生能力を獲得している。スピーカーユニットの質量を減らすことで理想に近い動作を実現し、ストロークを稼ぐことで正確な空気振動を生み出している。 これを実現するためのスピーカーユニットは、後述する自社工場であるアコース綾部工場で製造される。スピーカーユニット単品からコイルの巻数など、微細な部分まで専用設計にできるのが国内に工場を持つメーカーとしての強みである。さらに、専用設計となるこのスピーカーユニットは、実際にスピーカーユニット一つ一つの特性を測定しシリアルナンバーで管理しているということだ。大量生産品では考えられないことだが、ユニットごとの微細な特性の差異に対してもケアがなされているということだ。究極のクオリティを求めた製品であるというエピソードの一つである。修理交換の際には管理されたシリアルから限りなく近い特性のスピーカーユニットによる交換が行われるということ。こんなことをしている製品は聞いたことがない。 理想特性を獲得するための秘密兵器 この製品の最大の特徴となるのが各スピーカーに接続されたボックス。ここにはアナログによるインピーダンス補正回路が組み込まれている。話を聞くとアンプからの入力信号に対して、シンプルにパラレルで接続されているそうだ。まさにフルアナログでの理想特性を獲得するための秘密兵器がここである。アナログ回路であるため、中を覗いても抵抗、コンデンサー、コイルがぎっしりと詰まっているだけであり特別なものは一切入っていない。この回路によってME-50FSは理想的な位相特性、インピーダンス特性を獲得しているのだが、そのパーツ物量は一般的なスピーカーのそれを完全に逸脱している。「インピーダンス補正回路」とTOAが呼ぶこのボックスは、過去の試作基板と比べるとかなり小さくなっているそうで、実際にナレッジスクエアで見せてもらったのだが、4Uのサーバーか?と思わせるような巨大なものであった。ステレオ2ch分の回路が入っているからということではあったが、それにしても大きい。 📷ME-50FSの最大の特徴とも言えるインピーダンス補正回路のプロトタイプ。左右2ch分が一つのボックスに収まっている。これを上写真の赤いボックスにまでサイズダウンして現在の形状に収めている。 「インピーダンス補正回路」の内部のパーツはフルアナログということもあり、前述の通り抵抗、コンデンサー、コイルである。そしてそれぞれのパーツは理想の特性を求めるために吟味を重ねたもの。わかりやすく言えば、コイルは理想の数値を持ったワンオフで自社制作されたもの。抵抗は耐圧の高いメタルクラッド抵抗で、抵抗が特定の周波数以上で持つインダクタンスの影響がスピーカーとして出ないよう無誘導巻のものを用い、大入力に耐えるため熱容量に余裕のある大型のものが使われている。また、コイルは磁界を発生させるため、それらが相互に影響を及ぼさないように基板上の磁界にまで気を配り、縦横、一部のパーツは高さを変えて各パーツを配置。この結果、完全に手作業での製作となることは目に見えているが、究極のスピーカーを作るためには必要なことだというのがスタンスだ。 こういったポイント一つ一つ、すべてにおいてエビデンスのある技術を採用している。オーディオ業界においては非常に多くのプラシーボが存在しているが、良くも悪くも感覚的なものが多くを占める聴覚に頼ったものだからこその出来事。それを楽しむのも一興ではあるのだが、メーカーとして究極を追い求める際にそれらプラシーボは一切排除しているということだ。すべての設計、パーツの取付一つにおいても、すべてにおいて裏付けのある理由があり、必要であればそのエビデンスも提供できるようになっているということである。 スピーカーとしての完全体 こだわりの結晶体とも言えるこのスピーカー。そのポイントを挙げ出したらきりがないのだが、もう一つだけ紹介しておこう。「インピーダンス補正回路」とスピーカー本体を接続するケーブル。これもケーブル自体の持つインダクタンスの値を計算し、スピーカー内部でパラレルに接続される箇所までの長さをミリメートル単位で計算してケーブル長が決められている。設置しやすいように、などという発想ではなくエビデンスに基いた理想の長さということで設計が行われている。 内蔵されるパワーアンプはClass Dのものが採用されている、これも理想の特性を追い求めて選択されたものだ。このClass Dアンプモジュールの選定においても、TOA社内専門家による技術評価および各種測定、耐久力試験に加え、長期間の運用及び試聴評価を経て厳選されたものが使われている。ME-50FSでは、ひとつの理想のパッケージとしてパワーアンプを内蔵としているが、ユーザーにも少しの遊びを許しているポイントがある。それが、スピーカー背面にあるスピーカーI/O端子。Lineレベルの入力であれば、内臓のパワーアンプを介してスピーカーが駆動されるのだが、内蔵のパワーアンプを切り離し、外部のパワーアンプからの入力も持っているということだ。パワードスピーカーとしてはかなり珍しい設計ではないだろうか? これこそ、このスピーカーに対する自信の現れとも言える。メーカーとしての完全なるパッケージとしての究極は、もちろん内蔵アンプであることは間違いない。しかし、外部アンプの入力を受け付けるということは、外部アンプが持つ実力を100%引き出せる「測定器」としての側面を持つスピーカーであるということでもある。一般的なパワードスピーカーではユニットの特性を補正するためにアンプ自体の出力に癖を持たせるということは少なくない。完全アナログで仕立てられたME-50FSは、どのような入力が来たとしても完全に理想的な動作をするという「スピーカーとしての完全体」を体現しているのである。 アコース綾部工場 TOAの国内の製造拠点であるアコース綾部工場。すでに大量生産品はインドネシアの工場に移行しているが、ハイエンド製品、少量生産品などは国内でひとつずつ手作業で作られている。アコース株式会社はTOA株式会社のグループ企業で、プロオーディオ機器の開発、設計、生産、出荷までを行っている。綾部工場は木工加工を中心にプロオーディオ機器を生産する拠点。もう一つの米原工場は、エレクトロニクス、電子回路などの生産を行っている。2つの工場双方ともに多品種小ロットの生産に適した工場である。 ・Made in Japan!日本のものづくり 綾部工場は、京都府の綾部市にある。明智光秀で一躍有名になった福知山市の隣町で旧丹波国となる。もう少し行けば日本海に面した若狭湾、舞鶴港というあたりで、大阪から100km圏であり舞鶴若狭道で1時間強で行くことができる場所。実際のところかなりの田園風景が広がっているのだが、高速が通ってからは工業団地ができたりとそれなりの発展もしている街である。完全に余談ではあるが筆者の出生地はこの綾部市であり馴染みの深い土地である。 このアコース綾部工場は、木工加工を中心とした生産拠点ということでスピーカーエンクロージャーの生産がその中心となる。まずは、その木工加工の現場を見せていただいた。切り出し用のパネルソーや多品種小ロットの生産のためとも言えるNCルーター。多軸、かつデュアルヘッド仕様なので、複雑な加工をスピーディーに行うことができる。プログラムを読み込ませて専用の治具に材木をセットすれば、複雑化形状もあっと言う間に削り出していく。設計で想定した通りの材料がここで切り出されることとなる。 切り出された材料は塗装工程へと回される。長いレールにぶら下げられ人の手により塗装が行われる。低温で一度乾燥させた後に一度冷やし、2階部分にある高温の乾燥室へと送られる。やはりスピーカーエンクロージャーの塗装ということで黒に塗ることが多いのだろう、飛散した塗料で黒くなったこの空間は、この工場でも印象的な空間であった。ここでは、特殊塗料による塗装など、やはり小ロット多品種に対応した工程が行えるようになっている。特別色等の特注製作などもこの工場があるからこそ実現できるということだ。 次に見せていただいたのが、スピーカーの組み立ての現場。さすがにコーン紙、フレームなどは別のところで作ったものを持ってきているとのことだが、スピーカーの心臓部とも言えるマグネットとコイルはここで作っている。巨大な着磁機が並び、製品に応じた素材に対して着磁を行いマグネットを作っている。自社で製造できるということは、磁界強度、サイズなども自由自在ということだ。そして、コイルの製作に使うコイル巻き機。アナログなこの機械はどうやら自分たちで手作りしたようだという。生産に必要なものがなければ作ってしまおうという、まさに職人魂が垣間見える。 📷(左上)スピーカーを駆動するための磁石を作るための着磁機。製造する磁石のサイズに合わせ機械がずらりと並ぶ。(右上)ボイスコイルを巻くための専用機械。過去の先達の手作りであろうということだ。(左下)完成したボイスコイル。これが、コーン紙に貼られスピーカーとなる。(右下)スピーカーユニットの組立工程。コーン紙を専用の器具で接着している。 実際にコイルを巻くところを見せていただいたのだが、スピーカーコイル用の特殊な形状の素材が使われていた。一般的な丸い線材ではなく、きしめん状の平たい銅線で巻いた際に固着するようアルコールで溶ける特殊な溶剤がコーティングされている。このきしめん状の銅線にアルコールを湿らせながら巻いていくことで、巻き終わったコイルは筒状のコイルとなる。一つずつ職人が巻いていくことで巻数は自由。ボビンの経を変えたり、線材の太さを変えることでさまざまな形状のボイスコイルを作ることが可能だ。この機械で巻き終わったコイルは、焼入れを行うことで、さらにしっかりと固着されてユニット組立工程へと渡される。ツイーター等のメタルドームもここで一つずつ手作業でプレスして整形されている。さすがにこの板金用の金型は自社製造ではないということだが、製品ごとさまざまな形状の金型がずらりと準備されていた。組立工程では一つずつ専用の治具を使いエッジ、コーン紙の貼り合わせ、ボイスコイルの接着、フレームの取付などが、ひとりの職人の手によって行われる。 次が組み立ての工程。塗装の終わったエンクロージャーにユニット、キャビネットグリル、ネットワーク回路などのパーツを組み込み、梱包までを一気に行っている。大量生産のラインであれば何人もが担当するような作業を、一人でしかも手作業で行っている。多品種小ロットということで、毎日異なる製品を組み立てているのだが、間違いのないように常にマニュアルが開かれ、工程ごとにページを捲りながら作業を進めていた。組み立てられて梱包される前には、もちろんしっかりと所定の性能が出ているかチェックがなされる。これぞMade in Japan!日本のものづくりの現場を見た思いである。 ・綾部という地をスピーカー製造の聖地に 整然と整えられたパーツ庫は、言わばTOAプロオーディオ製品の生まれ故郷。常に数万種類のパーツがストックされ、入念な生産計画に沿って生産が行われているということだ。写真を見ていただければわかるのだが、驚くほどこれらの工程に関わる職人は少ない。自動化できるところは機械に頼り、多品種に対応するため複雑な工程では、一人ひとりが多くの工程をこなすことで、少人数による生産を実現している。管理部門も含めた従業員数は28名、まさにプロフェッショナルの集団と言えるだろう。 このアコース綾部工場では、試作機の製造なども行っている。どのようなカスタムパーツも作ることができるこの拠点があるからこそ、TOAではさまざまな試作を繰り返し、クオリティの高い製品をリリースすることができている。そのための実験設備も備わっており、その一つが無響室だ。試作した製品がどのような特性なのか?それを作ってすぐにテストできる環境があるということだ。さまざまなバリエーションの試作機を作り、それをその場で実際にテストして、設計数値が実現できているかを確認する。まさに理想の開発環境と言える。無響室以外にも-20度〜180度までの環境が再現できるという恒温槽による温度変化による特性、耐久性のテストだったりといことも行える設備がある。 ほかにも試聴用の部屋もあり、実際に聴感テストも行っている。取材時はME-50FSのインビーダンス補正回路を設計するときに使ったであろう様々な治具などが置かれていた。そして、この部屋の片隅にはスピーカーコーン紙の共振測定器が置かれていた。スピーカーが振動しているときにレーザーでその表面の動きを測定し、不要な共振がないかを計測する。実際の素材を使っての実際の測定。計算だけではなく実際の製品で測定することによる正確性の追求。さまざまな素材の融合体であるスピーカーユニットであるからこそ必要とされる実地の重要さが感じられる。 TOAのものづくりの拠点、それがこのアコース綾部工場であり、この試作機を作るための理想的な環境があったからこそME-50FSが妥協を一切許さない製品として世にリリースされたのであろう。コイルの巻数一巻きにまで気を配って生産できるこの環境、理想を追い求めるための究極形である。今回ご案内いただいたTOAの皆さんもこの拠点があったからこそME-50FSは完成し、まさにここがME-50FSの故郷であると仰っていたのが印象的。この綾部という地をスピーカー製造の聖地に、その意気込みが実を結ぶのもそう遠くはなさそうだ。 📷(左)アコース綾部工場 (右)左より工場取材にご協力いただいたTOAの藤巴氏、ジーベックの栗山氏、アコース綾部工場の藤原氏、ME-50FSの生みの親とも言えるTOA技監の松本氏。 Studio BEWEST ME-50FS取材の最後に訪れたのは実際のユーザーである岡山県津山市のレコーディングスタジオBEWESTにお伺いして、実際の使い勝手やその魅力についてをお話いただいた。オーナーの西本氏はバンドマンからレコーディングエンジニアへと転身した経歴を持ち、岡山市内と津山市に2つのスタジオを構える。BEWESTの独自の取り組みなども併せてお届けしたい。 ・サウンドを生み出す立場からの目線 📷Stduio BEWEST オーナー兼エンジニア 西本 直樹 氏 岡山市から北へ60kmほどいったところに津山市はある。大阪からも中国道で150kmほどの距離だ。12年前にオープンしたこのスタジオはレコーディングから、ミックス・マスタリングまでをワンストップで行うスタジオとして稼働していたが、岡山市内に3年前に新しくスタジオを立ち上げたことで、今はミックスとマスタリングの拠点として稼働しているということだ。このスタジオの特長は、ビンテージから最新の製品までずらりと取り揃えられたアウトボードやマイクなどの機材。その機材リストの一部をご紹介すると、マイクはビンテージのNeumann U47 TUBE、オリジナルのtelefunken U47、SONY 800G、Chandler REDD Microphone、Ehrland EHR-Mなどビンテージの名機から、現行の製品まで幅広いラインナップを揃える。この選択の源泉はお話を伺っていくとレコーディングへの向かい合い方にあると感じた。 西本氏のルーツはバンドマンである。バンドのレコーディングを行っていく中で機材に興味を持つ。そしてギタリストとしてバンド活動を行っていた西本氏は、インディーズのレコーディング現場での体験で完成した作品の音に対してメジャーとの差を痛感したという。レコーディングのバジェットが違うから仕方がないと諦めるのではなく、その差は何なのか?この部分に興味を持ち、独学でレコーディングを行うようになっていったそうだ。機材が違うのであれば、同じものを使えば同じクオリティーになるのか?マイクは?マイクプリは?独学でどんどんと掘り下げていき、気が付いたらスタジオを作っていて日本中からレコーディングの依頼を受けるようになっていたということだ。 お話を聞いているとエンジニアとしてスタジオで経験を積んだ方とは、やはり視点が異なることに気付かされる。ミュージシャンの視点で、自身の音がどのような音なのかをしっかりと認識した上で、それがどのような音としてレコーディングされ作品になってほしいか?あくまでもサウンドを生み出す立場からの目線を貫いている。そのため、音がリアルなのか、なにか変質してしまっているのか?そういったところに対して非常に敏感であり、常に一定の音に対しての物差しを持って向かい合っているエンジニアである。 ・「このまま置いていってほしい」 その西本氏とME-50FSの出会いはInterBEE 2022で話題になっていたことがきっかけだとのこと。興味を抱いた西本氏がすぐに問い合わせしたところ、TOAは岡山市内のスタジオまでデモ機を持ってきてくれたそうだ。ちょうど、岡山のスタジオでウェストキャンプ@岡山というローカルのエンジニアを日本中から集めた勉強会のようなイベントを予定していたそうで、集まった10数名のエンジニアと試聴を行うことができた。その場にいた全員が強いインパクトを受け、この製品の魅力を体感したということ。やはり雑多なInterBEEの会場ででも聴こえてきたインパクトは本物であり、スタジオでの試聴でもその印象は大きく変わらなかったということだ。その後、ミックス・マスタリングをメインで行っている津山のスタジオで改めてじっくりと試聴。改めて聴き直してもその最初に感じたインパクトは変わらず購入を即決したという。すぐにでもこのスピーカーで作品づくりをしたいという思いが強くなり「購入するので、このまま置いていってほしい」とお願いしたほどだそうだ。 ちなみに、それまでメインで使っていたスピーカーは、Focal Trio11。このスピーカーは今でも気に入っているということだが、ME-50FSとの違いについてはセンター定位のサウンドのアタック感、サスティンの見え方、音の立ち方、減衰の仕方などがはっきりと見える点。これは位相が改善していくとセンター定位がどんどんとはっきりしていくという位相感の良さからくるものだろう。ME-50FSの狙い通り、といった部分を直感的に感じ取っている。 ・標準器となるサウンドの魅力 ME-50FSの導入により作業上大きく進化したことがあったそうだ。スタジオではマスタリングまでのワンストップで制作を行っているため、スタジオで作られた音源をさまざまな場所、車内や他のスピーカー環境、ヘッドフォン、イヤフォンなどで違いが出ないかを確認する作業を行っている。やはり、リスニング環境により多少の差異が生じるのは仕方がないが、イメージそのものが異なってはいないか?という部分にはかなり神経を使って仕上げているとのこと。これまでのスピーカー環境では、少なからず修正、微調整の必要があったとのことだが、ME-50FSで作業を行うようになってから、この修正作業がほとんどなくなったということだ。究極の標準器を目指して開発されたME-50FSのポテンシャルを言い表すエピソードではないだろうか。フラットである、位相変化がないということは音に色がついていないということである。そのため、他の環境であったとしてもその環境の色がつくだけで、色自体が変化するということにはならないということではないだろうか。 ほかにもサウンドとしての魅力は、奥行き感、前後の距離感、立体感などを強く感じると言う点にあるという。やはり、位相の良さ、トランジェントの良さがここには大きく影響していると感じるところだとお話いただいた。製品開発にあたりTOAがコンセプトとした部分が実際のコメントにも現れている。開発コンセプト、TOAの目指した標準器としてのサウンドが気に入った方であれば「これしかない」と思わせる実力を持った製品であると言える。 トランジェントが良い、ということは音の立ち上がりが良い、サスティンの余韻が綺麗に減衰するなどといった部分に効果的だ。これを実現するためにTOAでは10cmという小口径のユニットを採用し、ロングストローク化して最低限となる質量のユニットを使い正確にユニットを動かすということでその改善にあたっている。動き出しの軽さ、正確なユニット動作の入力に対するレスポンス。そういったことを考えるとやはりユニット自体の質量は少ないに越したことはない。打楽器などのアタック感も確実に改善しているのだが、このトランジェントの良さを一番感じるのはベースラインだという。高域に関しては他社のスピーカーもトランジェントを突き詰めているが、低域は大口径のユニットを使うため物理的に対処できないところがある。ME-50FSでは、小口径のユニットでその帯域をカバーしているため、圧倒的なトランジェント特性を低域に持たせることに成功している。 BEWESTではスピーカー補正のためにTorinnov Audioを導入している。西本氏はスピーカーを少し動したり、機材配置のレイアウトを変更するたびにTorinnovで測定を行い、自身の感覚だけではなく、測定器として何がどう変化したのかを確認しながらそのチューニングを行っている。ME-50FSを導入した際に測定を行ったところ、位相がほぼフラット!今までに見たことのないフラットな直線状の結果が表示されたということだ。これは、現在製品としてリリースされているスピーカーとしてはありえないこと。シングルスピーカーで無限バッフルといった理想的な環境であればもしかしたらそうなるかもしれない、というレベルの理想に限りなく近い結果である。位相特性は2-way / 3-wayであればそのクロスオーバー周波数付近(フィルターを使用するため)の位相のねじれ。それをME-50FSでは設計の要であるインピーダンス補正回路で解決している。また、ユニット自体の共振周波数による変化、この共振周波数はキャビネットにより生じるものもあれば、バスレフポートにより生じるものもある。スピーカー設計を行った際には、これらが基本的には絶対に生じるものであり、位相特性はかなり暴れたものになるのが普通である。言い換えれば、この位相特性がそのスピーカーの持つ音色ということが言えるのかもしれない。ME-50FSにはこれが無い。良い意味で音色を持たないスピーカーであると言えるだろう。これが、前述した他の試聴環境で聴いた際の破綻のなさに直結している。 ・アナログの持つ普遍性を再認識する 同様にウィークポイントに関してもお伺いしたが、これに関してはやはりローエンドのお話が出た。10cmという口径からくるものだと感じたが、やはり大口径スピーカーのサウンドとは違う。しかし、ME-50FSは設計の優秀さもあり、それでも40Hzあたりまではしっかりと音として出力されている。それ以上低い30Hzあたりになるとさすがに苦しいが、音程を持って人間が知覚できる範囲はカバーできていると言えるだろう。このようなこともありTrio 11から移行したばかりのころはローエンドの不足を感じていたが、この部分も量感の違いはあってもしっかりと出力されているので時間とともに慣れてしまったということだ。ただし、マスタリングという観点で考えるとやはり昨今の作品で使われる20~30Hzが欲しくなることはあるそうだ。 このスピーカーを使うエンジニアとしては、アナログだから、デジタルだからという部分に拘りは特に無い。ただ、アナログの持つ普遍性とは、変わらずにあるもの、究極を目指せるものであることを改めて認識したということだ。スタジオを作ってからずっと持ち続けてきた、モニターへの悩み。このスピーカーとの出会いによりその悩みが解消された。やはりイメージして作った音と、他のスピーカーでの再生も含めた出音の差がないというのがスタジオモニターとしての理想であり、それを実現しているこのスピーカーは革命的だという。 色々なお話をお伺いしたが、TOAの開発コンセプトがまさにエンジニアの求める理想のスピーカーであったということを裏付けるかのようなお話をいくつも聞くことができた。TOAのこれまでのスピーカー開発の技術、そのすべてが詰め込まれた結晶体とも言える1台、音の標準器となるME-50FSから出力されるサウンドがどのようなものか是非体感してみていただきたい。   *ProceedMagazine2023-2024号より転載

Music

MTRX II / MTRX StudioにThunderbolt 3 Moduleが登場!〜新たなオーディオ・ワークフローを実現するシステムアップとは〜

NAMM Show 2023でPro Tools | MTRX IIとともに発表され、大きな話題となった「MTRX Thunderbolt 3 Module」。オーディオ制作者の長年の夢であったかもしれないAvidフラッグシップI/Oをネイティブ環境で使用できる日がついにやってきたことになる。MTRX Thunderbolt 3 Moduleの特徴は、MTRX II / MTRX StudioをCore Audioに接続するだけでなく、DigiLinkポートの入出力と同時にThunderbolt入出力を追加で使用できるという点にもある。つまり、1台のMTRX II / MTRX StudioにHDXシステムとネイティブDAWを同時に接続することが可能で、双方に信号を出し入れすることができるということだ。単に高品位なI/Oをネイティブ環境で使用できるようになるというだけでなく、中規模から大規模なシステム設計にまで影響を及ぼす注目のプロダクト「MTRX Thunderbolt 3 Module」を活用した代表的なシステムアップの例を考えてみたい。 Thunderbolt 3 Module 価格:135,080円(税込) MTRX IIとMTRX Studioの両製品に対応したThunderbolt 3モジュールのリリースにより、DigiLink接続によるパワフルなDSP統合環境に加えて、 Thunderbolt 3経由で実現する低レイテンシーなCore Audio環境での柔軟性も実現可能となる。Thunderbolt 3オプション・モジュール経由で、MTRX IIでの使用時に最大256ch、MTRX Studioの場合では最大64chにアクセスが可能、Core Audio対応アプリケーション等をDADmanソフトウエアにルートし、より先進的なオーディオ・ワークフローが実現できる。 シーン1:Core Audio対応DAWのI/Oとして使用 MTRX Thunderbolt 3 Moduleの登場によって真っ先に思いつくのはやはり、これまでHDXシステムでしか使用できなかったMTRX II / MTRX Studioをネイティブ環境でI/Oとして使用できるようになったということだろう。Logic Pro、Nuendo、Cubase、Studio OneなどのCoreAudio対応DAW環境でAvidフラッグシップの高品位I/Oを使用することができるだけでなく、巨大なルーティング・マトリクスや柔軟なモニターコントロール機能をシステムに追加することができるようになる。 もちろん、恩恵を受けるのはサードパーティ製のDAWだけではない。HDX非対応のPro Tools Intro、Pro Tools Artist、Pro Tools Studio、さらにPro Tools Ultimateをnon-HDX環境で使用している場合にも、HDXシステムで使用されるものと同じI/Fを使用することができるようになる。特に、Pro Tools Studioはこのオプション・モジュールの登場によって、そのバリューを大きく拡大することになる。Pro Tools Studioは最大7.1.6までのバスを持ち、Dolby Atmosミキシングにも対応するなど、すでにイマーシブReadyな機能を備えているが、従来のAvidのラインナップではこれらの機能をフル活用するだけのI/Oを確保することが難しかった。MTRX Thunderbolt 3 Moduleの登場によって、Avidの統合されたIn the Boxイマーシブ・ミキシングのためのシステムが完成することになる。 シーン2:HDXシステムにダイレクトにMacを追加接続 MTRX II / MTRX Studioのドライバーであり、ルーティング機能やモニターセクション機能のコントロール・アプリでもあるDADman上では、DigiLinkからのオーディオとThunderboltからのオーディオは別々のソースとして認識されるため、これを利用してDigiLink接続のMacとThuderbolt接続のMacとの間でダイレクトに信号のやりとりができる。例えば、Dolby Atmosハードウェア・レンダラーとHDXシステムのI/Fを1台のMTRX II / MTRX Studioに兼任させることが可能になる。Pro Toolsとハードウェア・レンダラーが1:1程度の小規模なミキシングであれば、I/O数を確保しながらシステムをコンパクトにまとめることができるだろう。 もちろん、Dolby Atmosハードウェア・レンダラーだけでなく、CoreAudioにさえ対応していれば、スタンドアローンのソフトウェアシンセ、プロセッサー、DAWなどとPro Toolsの間で信号をやりとりすることができる。シンセでのパフォーマンスをリアルタイムにPro ToolsにRecする、Pro ToolsからSpat Revolutionのようなプロセッサーに信号を送る、といったことが1台のI/Fでできてしまうということだ。Thuderboltからのソースはその他のソースと同様、DADman上で自由にパッチできる。使い方の可能性は、ユーザーごとに無限に存在するだろう。(注:MTRX StudioのThuderbolt 3 I/Oは最大64チャンネル。) シーン3:Dolby Atmosハードウェア・レンダラーのI/Fとして使用 シンプルに、HDXシステムとDolby Atmosハードウェア・レンダラーのそれぞれにMTRX IIを使用することももちろん可能だ。HDX側のMTRX IIからDanteでレンダラーに信号を送り、レンダラー側のMTRX IIからモニターセクションへ出力することになる。大規模なシステムの場合、複数のプレイアウトPro Toolsからの信号を1台のMTRX IIにまとめると、オプションカードスロットがDigiLinkカードで埋まってしまい、アナログI/Oをまったく確保できないことがある。ハードウェア・レンダラーのI/FとしてMTRX IIを採用した場合には、その空きスロットを利用して外部機器とのI/Oを確保することができる。MTRX II同士をDanteで接続していればひとつのネットワークにオーディオを接続できるので、Dante信号としてではあるがメインのMTRX IIからコントロールすることも可能だ。 NAMM Show 2023での発表以来、多くのユーザーが待ちわびたプロダクトがついに発売開始。In the Boxから大規模システムまであらゆる規模のシステムアップを柔軟にすることができるモジュールの登場により、ユーザーごとのニーズによりマッチした構成を組むことが可能になった。新たなワークフローを生み出すとも言えるこの製品、システム検討の選択肢に加えてみてはいかがだろうか。   *ProceedMagazine2023-2024号より転載

Music

GPU Audio / 既存概念を超越するオーディオGPU処理の圧倒的パフォーマンス

AES2022で綺羅星の如く登場し、業界の注目を集めているGPU Audio 社。これまで、AudioのPC上でのプロセスはCPUで行う、という認識が暗黙の了解のように存在していたのだが、GPUというこれまで活用してこなかったプロセッサーを使用することで、さらなる処理能力の向上を現実のものとした、まさにゲームチェンジャーとなりうる可能性を秘めた技術を登場させている。 Viennaの動作で実証された驚くべき能力 NAMM 2023の会場では、そのGPUプロセスに対し賛同した複数のメーカーとの共同ブースを構えて展示を行っていた。GPU Audio自体は、独自に開発したプラグインを複数発表しているが、NAMMの会場ではVienna Symphonic Libraryの誇る、高精度だが非常に動作が重いとされるVienna MIR PRO 3Dのセッションを、なんとGPU上で動作させるというデモを行って会場を驚かせていた。 📷コンサートホールを模したバーチャル空間に配置されたインストゥルメント。実際のオーケストラの配置を念頭に各パートが配置されており、そのパート数はなんと63。クオリティーの高さと引き換えに動作が重いことで有名なViennaではあるが、こちらのデモではさらに3D空間でのシュミレーションが加わっている。 このVienna MIRのセッション上には70トラックの音源が同一空間に配置され、3D空間内部での音源として再生が行われていた。CPUでの処理では音にノイズが混ざったりしていたものが、GPU上で動作させると使用率は30%程度に抑えられ、しかも安定して綺麗に再生される、ということがまさに目の前で実践されていた。このデモで使用されていたLaptop PCは、いま考えられる最高のスペックだと自信たっぷりに案内されたのだが、まさにその通りで、CPUはIntel Core i9 13900、メモリ64GB、GPUはNVIDIA GeForce RTX 4090という、現時点における最高の組み合わせ。つまり、その最新世代のCore i9でさえ動かしきれないものを、GPUをもってすれば余裕を持って動作させることができる。これは、GPU Audioがアナウンスしているように、FIRの計算であれば40倍、IIRの計算でも10倍のパフォーマンスが得られるということが現実になっているということだ。 📷クローズアップしたのはGPU Audioの技術により組み込まれたCPU/GPUの切り替えボタン。ベータ版のため実際の製品でもこのような仕様になるかは不明ではあるが、これこそが本記事でご紹介しているGPUによるオーディオ処理を確認できるポイントとなる。GPUがいかに強力とはいえ、有限のプロセッシングパワーであることは間違いない。従来のCPU処理と選択できるというアイデアは、ぜひともリリース版にも搭載してもらいたい機能だ。 並列処理、ベクトル計算を得意とするGPU 📷CPUとGPUでの処理速度の差をグラフ化したものがこちら。一般的に処理が重いと言われているFIR(リニアフェイズ処理)において、30〜40倍の速度向上が見込めるというのが大きなトピック。一般的なEQ処理などで使われるIIRにおいては、CPUとの差は縮まり10~15倍。これは、元々の処理自体が軽いということもありこのような結果になっているようだが、それでも大幅な処理速度向上が見込める。多数のコアを使った並列処理によるFIR処理の高速化は、やはりGPUの真骨頂と言えるのではないだろうか。 なぜ、GPUをAudioのプロセスに使うだろうか?筆者も10年以上前から、Audio Processを行うにあたりCPUは頑張って仕事をしているが、GPUは常に最低限の仕事(ディスプレイへのGPUの表示)しか行っていないのは何とももったいないと感じていた。高価なデスクトップPCを購入すれば、それに見合ったそこそこのグレードにあたるGPUが搭載されてくることがほとんど。搭載されているのにも関わらず、その性能を活かしていないのはなんとももどかしい。しかも、GPUはオーディオ信号処理にとってのエキスパートとなる可能性を持つ部分が数多くある。 まず考えられるのは、大量のトラックを使用し多数のプラグインを駆使してミキシングを行うといったケース。かなり多くの処理が「並行して複数行われる」ということは容易に想像できるだろう。これはまさにGPUが得意とするリアルタイム性が必要な並列処理であり、レイテンシーを縮めることと、並列処理による処理の最適化が行えるはずである。次に、GPUがベクトル計算のプロフェッショナルであるということ。オーディオ波形を扱うにあたり、この特徴は間違いなく活かせるはずである。オーディオの波形編集などで多用されるフーリエ変換などはGPUの方が秀でている分野である。 ●GPU(Graphics Processing Unit)とは!? GPUとはGraphics Processing Unitの略称であり、リアルタイム画像処理に特化した演算装置あるいはプロセッサを指す。通常の演算処理に使用するCPU=Central Processing Unitとの違いは、膨大な並列処理をリアルタイムに演算する必要がある3Dのレンダリング、シェーディングを行うために数多くの演算用のコアを搭載しているということが挙げられる。現行のCPUであれば、4~20個ほどのコアを搭載しているものが一般向けとして流通しているが、それに対しGPUではNVIDEAの現行製品RTX 40シリーズは処理の中心となるCUDAコアを5888~16384個と桁違いの数を搭載している。 このような高度な並列処理が必要となった過程はまさに3D技術の進化とともにあり、Microsoftが1995年に開発した、ゲーム・マルチメディア向けの汎用API Direct Xの歴史とともにハードウェアの進化が二人三脚で続いている。3Dのグラフィックスをディスプレイに表示するには、仮想の3D空間において、指定座標におかれた頂点同士をつなぎ合わせたワイヤーフレームの構築し、そこに面を持たせることで立体的な形状を生成。これを空間内に配置されたオブジェクトすべてにおいて行う。そこに光を当て色の濃淡を表現、後方は影を生成、霧(フォグ)の合成など様々な追加要素を加えてリアリティーを上げていく。こうして作られた仮想の箱庭のような3D空間を、今度は2D表現装置であるディスプレイ表示に合わせて、3D-2Dの座標変換処理、ジオメトリ処理を行うこととなる。これらの作業をリアルタイムに行うためには、高速にいくつもの処理を並列に行う必要がある。それに特化して並列化を進めたものが今日のGPUである。 NVIDIA GPU比較表 このような並列処理に特化したGPUは、2005年ごろよりコンピューティングの並列化に最適なプロセッサーとしてGPGPUという新たな分野を切り拓いている。単一コアの高性能化が一定の水準で頭打ちすることを見越して、処理を並列化することでの効率化、高速化を図るというものである。汎用CPUと比較して明確なメリット・デメリットはあるものの、特定分野(特にベクトル計算)においてはその性能が発揮されるということもあり、スーパーコンピュータ分野で普及が進んでいる。 現在では、Direct X 10以降の世代の汎用GPUであればGPGPU対応となっている。汎用のAPI「C++ AMP」や「OpenACC」などのプログラミング言語環境も整っており、普通に入手可能な製品でもGPGPUの恩恵を受けることは可能である。まさに今回紹介するGPU Audioはこのような特徴を活かしたものと言えるだろう。 オーディオでシビアなレイテンシーを解決 📷NAMM Showの会場でGPU Audioは、そのテクノロジーに賛同するメーカーと共同でブースを構えていた。 リアルタイムかつ、同時に数多くの処理を並列でこなすことのできるGPUが、まさにAudio Processingの救世主となりうる存在であることは、多くのPCフリークが気付いていたはずである。しかし、なぜ今までGPUを活用したオーディオプロセッシング技術は登場してこなかったのだろうか? ここからは筆者の考察も含めて話を進めていきたい。GPU Audioのスタッフに話を聞いたところ、昨年のAES 2022での発表までに費やした開発期間は、実に8年にも及ぶということだ。一見シンプルにみえるGPU上でのオーディオ処理だが、実現するためには多くの困難があったようだ。その具体的な事例として挙がっていたのはレイテンシーの問題。 そもそもリアルタイム性を重視して設計されているGPUなのだから、問題にはならなさそうな気もするが、グラフィックとオーディオの持つ性質の差が解決を難しくしていたようだ。想像をするに、画像処理であれば一部分の処理が追いつかずにブロックノイズとして表示されてしまったとしても、それは広い画面の中の微細な箇所での出来事であり、クリティカルな問題にはならない。しかしオーディオ処理においてはそうとは行かない。処理遅れにより生じたノイズは明らかなノイズとして即時に聴こえてしまい、オーディオにおいてはクリティカルな問題として顕在化してきてしまう。単純にGPGPUなど、GPUをコンピューティングとして活用する技術は確立されているのだから、プログラムをそれにあった形に変換するだけで動くのではないか?と考えてしまうが、そうではないようだ。 CPUが非力だった時代より今日までオーディオプロセスを行わせるための最適なデジタル処理エンジンは、DSP=Digital Signal Processerである。これに異論はないはずだ。昨今ではFPGAを使用したものも増えてきているが、それらも基本的にはFPGA上にDSPと同様に動作するプログラムを書き込んで動作させている。言い換えれば、FPGAをDSPとして動作させているということだ。 その後、PCの進化とともにCPUでの処理が生まれてくるのだが、これは汎用のプロセッサーの持つ宿命としてレイテンシーが発生してしまう。もちろんDSPの処理でもレイテンシーは発生するのだが、CPUは処理の種類によりレイテンシー量が異なってくる一方で、その遅延量を定量化することが可能なのがDSPの持つ美点である。レイテンシーが定量であるということは、オーディオにとっては非常に重要なこと。問題にならないほどレイテンシーが短いのであれば、あえてディレイを付加することにより遅延量を定量化することは容易いのだが、チャンネル間の位相差などレイテンシー量がバラバラになるとクリティカルな問題に直結してしまう。GPUの持つ可能性がどれほどのものなのかは、今後登場する製品に触れたときに明らかになることだろう。 📷デモではViennaを使っていたが、GPU Audioでは自社でのプラグインのリリースも行う。こちらが自社で開発したコーラス、フランジャーなどのモジュレーション・プラグインと、FIRを活用したリバーブプラグインとなる。従来のCPUベースのプラグインをリリースするサードパーティ各社への技術提供と並行して、このようにGPU Native環境でのプラグイン開発を行うプランが進行している。 デモを見るかぎりGPUが持つ可能性は非常に高いと感じる。PCでのオーディオプロセスとしてはフロンティアとも言える領域に踏み込んだGPU Audio。今まで以上のプロセッシングパワーを提供することで、全く新しい処理を行うことができるプラグインの登場。DAWのミキシングパワーはCPUで、プラグインプロセスはGPUで、といったような処理の分散による安定化など多くのメリットが考えられる。今後、GPU Audioの技術により業界が大きく変化する可能性を大いに感じられるのではないだろうか。 📷プレゼンテーション用のステージではライブパフォーマンスも行われていた。QOSMOはファウンダーであり、自身もミュージシャンであるNao TokuiとBig YUKIによるパフォーマンスを提供。一流ミュージシャンに寄るパフォーマンスが楽しめるのもNAMM showの醍醐味のひとつ。   *ProceedMagazine2023号より転載

Music

TAOCファクトリーツアー / 鋳鉄のプロフェッショナル集団が生み出す、質実剛健プロダクツ

制振についてのコア技術に特許を持ち、実に40年にわたりホームオーディオの分野で活躍しているTAOC。40年間の製品開発で蓄積したノウハウを基に開発した新たな製品レンジ「STUDIO WORKS」シリーズを投入し、これまでは特注でしか生産されることがなかったプロオーディオ市場へ本格的に参入する。鋳鉄こそが「遮断」と「吸収」という2つの役割を両立できるベストな材質だという鋳鉄のプロフェッショナルたちがどのようにして製品を開発・生産しているのか、愛知県豊田市のアイシン高丘株式会社を訪れた。 振動を制するものはオーディオを制す TAOCはブレーキディスクローターやシャーシ部品をはじめとした自動車部品を生産するアイシン高丘株式会社を母体に持つ。自動車用鋳造部品の製造ラインで採取される鋳鉄粉を用いて、鋳鉄の制振性や音響特性を活かした製品をホームオーディオの分野で多くリリースしているのがTAOCブランドだ。ほとんどの製品が制振にフォーカスをあてたもので、そのブランド名の頭文字が「Takaoka Anti Oscillation Casting」から成っていることからも、立ち上げ当初より音響機器の最適な振動制御を鋳造(Casting)で達成することを目的に活動してきたことが窺える。また、「異なる厚みの鉄板を密着させ、互いに違った固有値を持つ板材が振動を抑制することで、音質改善を行う二重鉄板構造」について特許を取得したこともあり、現在では多くの金属製スピーカースタンドメーカーが生産する製品の天板に採用されている。 音楽を活かすために「整振」するTAOCの製品には、音像の厚み、広がり、帯域のバランス、解像度といった要件が求められる。この複数の要件を満たすには、密度が高く、硬度が高く、自己の振動を持ち込まない減衰性を併せ持つ材質が必要となるが、これにおいて3拍子揃った材質が鋳鉄だ。 さらに、鋳鉄(言い換えれば黒煙を多量に含んだ鉄)は高い振動吸収性を持つ。鋳鉄はキャベツの葉を剥がしてランダムに並べたような黒鉛構造を持っており、その黒鉛と鉄部分の摩擦によって振動エネルギーは熱エネルギーに変換され制振性を発揮する。これが鋳鉄の大きな特徴であり、安全のためにも不要な振動を抑えておきたいブレーキローターに鋳鉄が用いられているのもうなずける。 📷各素材を特性ごとに並べてみると、鋳鉄がいかに3拍子揃った材質であるかがわかる。例えば、密度が最も高い鉛は一方で硬度が低く、硬度が最も高いセラミックは減衰性が低い。マグネシウムは減衰性に秀でているが、密度が低くなり音の厚みや解像度に劣ってしまう。この3つの特性を高い次元でバランスよく持っているのが鋳鉄だ。 鋳鉄が持つ独特な特性を体験する アイシン高丘本社に到着後、広大な敷地内でも最奥に位置するTAOCオフィスまで車で移動。鋳鉄工場見学のレクチャーと諸注意を受けつつ、まずTAOC製品に広く用いられる鋳鉄粉のサンプルを見せていただいた。大きめの薬瓶に入れられた鋳鉄粉サンプルは、手に取ると当然ながらズッシリと重い。鉄粉はパウダー状になっている訳ではなく、砂粒ほどの大きさがあり、これが各種製品へ充填されている。試しに手に持って水平に揺らしてみると、ショックレスハンマーと同じ原理が働き、寸止めした時の反対側への反動が少なくピタッと止まる。力量は異なるが、スピーカースタンドの中でもこういった現象が起こっているのかと不思議な体験ができた。 作業着とヘルメットを装着したところで鋳造工場内へ移動を始めるが、大きな炉を拝見する前に、社内の研修施設で今の製造工程や自動化されている機械内処理の説明をいただいた。その研修施設の入口にはダンベルやエンジンブロックのサンプルを使った解説があり、自動車部品以外の鋳物製品や鋳造の成形不良のサンプルも展示されている。その中に音に関係するサンプルもあったのでご紹介しておきたい。そこには鐘形になった鉄4種類、青銅、アルミの成形物が設置されており、これをマレットで叩くことが出来るのだが、叩いてみるとアルミや青銅はサスティンが長くその音色も聴き慣れた美しいものなのだが、比べて鋳鉄を叩いた音色はどれも複雑な倍音をもち、アタックも鈍く、そして減衰が速い。素材自体に制振効果があるということは前知識としてあったが、実際にマレットで衝撃を与えた際の応答は予想以上に顕著なもの。オーディオ製品として鋳鉄が持つ可能性に期待が高まる。 鐘形のサンプルの裏手側には設計から製品になるまでの工程がジオラマ形式で展示され、アイシン高丘の鋳物製造フローが学べる。社員研修や社内技能試験などでは研修施設の機能をフルに活用するとのことだが、今回は鋳鉄粉が出来るまでの一部の工程を説明していただいた。 鋳鉄粉が採取できる工程は、鋳造の後半にあたる後処理工程となる。上型、下型、中子型から製品を取り出す作業が行われ、製品は砂型を壊して取り出される。取り出した製品には型で使われた砂が付着しているため、ショット機と呼ばれるサンドブラストの一種を使用してバリや砂を除去する。この作業によって、素材の表面が剥がれ落ち鋳鉄粉が採取できるわけだ。こうしてショット機からメディアが噴射され後処理が完了すると集塵機には砂、メディア、鋳鉄粉が混ざったものが集まる。これを選別して鋳鉄粉を取り出し、さらに取り出した鋳鉄粉は規格に沿ったメッシュを通して粒を揃えたものを採取する。このような工程で選りすぐられた鋳鉄粉をTAOCではスタンドの制振材として活用している。 📷バリ取りの工程で写真のショット機が使用される。砂型から取り出された製品からサンドブラストの一種であるこちらの機械を使ってバリと砂を除去する。すぐ隣にあるのがショット機用の集塵機。ここに集められたものを規格に沿ったメッシュでふるいにかけ、砂粒状の鋳鉄粉が採取される。 非日常的な迫力の工場内 研修施設での解説を受けたあとは、鋳物を製造している製造ラインへと移動する。人間の背丈を遥かに超える大型機械群に囲まれて、なにが何の為の機械なのかまるで見当がつかない。いよいよ工場にやって来たという感覚が湧いてきた。 ライン見学は製造工程通りに案内され、まずは材料となる鉄を溶かす溶解炉であるキュポラのセクションへ。1400度以上の鉄が連続溶解できるキュポラの足元には6トンほどの溶かされた鉄が入る釜が2基設置されており、満杯になるとレールを伝って鋳込セクションへ運ばれる。残念ながら、先程キュポラから運ばれてきた真っ赤な鉄を注ぐ鋳込の工程自体は外から作業を見ることができなかったのだが、工場内は常に80dBを超える音で満たされており、定期的に聞こえるエアー重機のブローオフは瞬間的に100dBを超える。これだけでも非日常的な迫力を感じることができた。 そして、後処理のセクションへ移動する。研修施設で見たショット機を使ってのバリ取りを行い、まさにいま鋳鉄粉が出来ている工程でこちらも自動化されている。その経路の途中にはセキ折りのセクションがあり、製品から伸びている湯道を切り離す作業のラインを見学。鉄でできた大きなプラモデルとでも言えば良いのだろうか、傍らから見るとランナーからパーツをニッパーで切る作業に似ているのだが、ニッパー風のエアー工具も切り離される製品もやはりそのすべてが大きい。 システムをきちんと機能させる土台 工場内を見学した後はTAOCの開発室兼視聴室へ向かった。視聴室の前は広大な庭が広がっており、アイシン高丘のOBや夜勤明けの従業員がハーフラウンドのゴルフをプレイできるという。これ以外にも社内の取り組みとして工場排熱を利用してスッポンを育てていたり、ショット機で出た砂を再利用してウコンを育てていたこともあるそうだ。鋳鉄粉もTAOC発足前は再びキュポラに戻され製品へリサイクルされていたそうだが、資源の活用とSDG'sへの意識が旧来から全社的に根付いていることがうかがえる。 開発室の中はその半分のスペースがリスニングスペースとなっており、天井や壁面は防音・吸音加工が施されている。残り半分のスペースは様々な資料と音源を収納したラック、ここを囲うようにオリジナルスピーカーや検聴を待つ試作品が並び、そこにはSTUDIO WORKSのデスクトップ型スタンドもあった。同じくSTUDIO WORKSのインシュレーターを手に取ってみると一般的にイメージする鋳物とは思えない仕上がりで、質感はどちらかと言うと鍛造に近い。切削の工程があるのか聞いたところ、仕上げの工程はあるが基本的には鋳込時の流す量と時間で密度をコントロールしているという。それらの製品を設置していただき拝聴後、TAOCチームの南氏、杉田氏、西戸氏にお話を伺った。 Rock oN多田(以下、R):改めてTAOCの持つ特徴をお伺いさせてください。 西戸氏:アイシン高丘は1960年ごろからトヨタ自動車の鋳物部品を生産しており、東洋一の鋳物工場を作るんだという熱意を持ってスタートしました。そしてちょうど40年前の1983年、オイルショックで一時的に鋳物の生産量が少なくなっていく中で自動車部品以外にもこの独自の鋳造加工技術を活かせることはないかと、社内で検討する部署が立ち上げられて、鋳物のスピーカーベースの生産からオーディオアクセサリの事業をスタートしました。鋳物を使ったモノづくりとして、鋳物の墓石を作ってはどうだとか、当時は色々試行錯誤していたと聞いています。また、当時はシミュレーションも少なかったため、製品開発は試行錯誤の体当たりで製作していました。インシュレーター、オーディオボード、オーディオラック、スタンドに加えて鋳鉄製ユニットマウントリングを特長としたスピーカーの製作など、鋳鉄が持つ振動吸収を活かした製品をリリースしています。鋳鉄には素材自体が自分で揺れず、振動を適度に吸収するという特性があります。それを実証するようにスピーカーユニットのリングを作った時は樹脂と比べて真っ直ぐにドライバがストロークしました。これは本来持っている音を出すことができていたとも言えます。   R:STUDIO WORKSという新たなコンセプトで製品を生み出した経緯をお伺いできますか。 南氏:2018年に、とあるマスタリングスタジオのテックエンジニア様から、システム全体の音質向上のためにお声がけいただきTAOC製品を導入いただきました。以降も、エンジニア様とは音質に関する研究交流を続けていた中、杉田の案で2021年のInter beeに2人で行き、特注スタンドのオファーをいただき、要望を伺いながら何本も製作していく中、徐々にプロオーディオ向け製品のコンセプトが定まっていったという経緯があります。  杉田氏:ポタフェス(ヘッドフォン、イヤホン)に行った時も印象深いですね。ポタフェスはポータブルオーディオのイベントではありますが、それを踏まえても音響製品のイベントなのに会場が無音というのはショックを受けました。今までは主に、音を聴く側のお客様に向けての製品作りでしたが、ヘッドフォンの中に聴こえる素晴らしい音を創る側のエンジニア様、音楽家の皆様向けにTAOCとしてお役に立てられないかと思うようになりました。 R:STUDIOWORKSをどういったユーザー層を想定しているのでしょうか。 南氏:プロのエンジニアの方々やミュージシャンの皆様はもちろん、良い音を追求するすべての方々にご体験いただきたいですね。 杉田氏:イレギュラーな使い方や面白いご意見をいただき、そのフィードバックをいただければそこから更に製品の改善にもつながると思います。また個人向けで評価をいただいているこれまでの製品も、プロの方のフィードバックを反映してより良いものが作れると思っています。試作に対してのハードルが低いので、要望はどんどん欲しいですね。なので特注製品、いわゆるワンオフも大歓迎です。製品はすべて国産で製造しているので、フットワークも軽いですよ。 📷本文中でも触れたデスクトップサイズのスタンドも試作されていた。ユーザーの声を素早く反映してラインナップすることはもちろん、ワンオフでの特注にも柔軟に対応できるそうだ。 南氏:TAOCスタジオワークスは一貫して、確かな効果と実用性にこだわり、外観はとてもシンプルな仕様になっています。従来のTAOC製品同様に、20年・30年以上と永く使えるモノづくりをしています。また、今回のスタンドやインシュレーターはどのモデルも、それぞれエンジニア様やロックオンさんと何度も意見交換をしながら完成させたコラボのような製品で、みなさんの熱い思いが詰まっていると感じています。素晴らしい音楽を作られる皆様の鋭い感性と貴重なご意見に、いつも多くの学びがあります。今後も多くのミュージシャン様、エンジニア様とご一緒させていただきながら、TAOCスタジオワークスを進めていきたく思っています。 杉田氏:1983年9月に創業したTAOCは、今年2023年9月に40周年を迎えます。今までのご愛顧に深く感謝をお伝えしながら、次の40年に向けて新しいチャレンジをしていきます。TAOCスタジオワークスも、すでに多くのエンジニア様・ミュージシャン様のスタジオに導入いただけており、手応えを感じています。シリーズ第2弾の製品開発も進めていますので、ぜひ注目していただけると嬉しいですね。 📷写真左より、アイシン高丘エンジニアリング株式会社 TAOCチーム杉田 岳紀 氏、TAOCチーム 西戸 誠志 氏、Rock oN 多田純、ROCK ON PRO 前田洋介、TAOCチーム 南 祐輔 氏。 工場内でキュポラの説明を受けた時にまるでターミネーター2のラストシーンみたいですねと言うと、T-800は鉄の中で沈むので鉄より比重が大きい、おそらくT-800は鉄ではないんですね…と答えが返ってきた。映画のワンシーンにおいても鉄が基準(!)、そのどこまでもアイアンファーストな姿勢はプロオーディオの中で新たなメインストリームを作り出すことになるのではないだろうか。工場で製品が生産される際に生じる余剰となっていた鋳鉄粉だが、それを確かな研究開発の裏付けでリユースし、類まれなる制振特性は40年にわたりオーディオの世界で実績を重ねてきた。そしていま、プロユースの現場にもそのムーブメントが訪れようとしている。   *ProceedMagazine2023号より転載

Music

ONKIO Acoustics / 音響ハウス開発陣が語る、DAWへ空気感を吹き込むその音の佇まい

1973年の設立から50年にわたり、数多のアーティストから愛され続けているレコーディングスタジオ「音響ハウス」。CITY-POPの総本山として、近年さらに注目を集めているこの音響ハウスにスポットを当てた音楽ドキュメンタリー映画「音響ハウス Melody-Go-Round」が2020年秋に公開された。本作のなかでは日本を代表するアーティストの数々が、音響ハウス独特の空気感や響きの素晴らしさについて語っている。 この映画制作を通じて、その稀有な響きを記録しておくべきだというアーティストや音響ハウスOBからの提言が寄せられ、音響ハウスStudio No.1、No.2のフロアの響きを忠実に再現する構想がスタートしたという。そして約1年半の開発期間を経た2022年秋、音響ハウス公式記録となるソフトウェアONKIO Acousticsが満を持して発売された。ONKIO Acoustics誕生までの足跡と開発秘話、そしてソフトウェアに込められた熱い想いを音響ハウスにて伺うことができた。 ●TacSystem / ONKIO Acoustics  価格 ¥10,780(税込) 「録音の聖地」ともいえる音響ハウス Studio No.1 / No.2の空間を、音場再現技術であるVSVerbを用いて忠実に再現したプラグイン「ONKIO Acoustics」。音響ハウスの公式記録として次世代に伝える意義も込め、大変リーズナブルな価格で提供されている。ONKIO Acousticsプラグインでは、マイクのポジションを X軸、Y軸、Z軸 それぞれ-999mm〜+999mm、マイクアングルを-90度から+90度まで変更でき、単一指向性 / 無指向性 の切替えも可能。まるで、実際に音響ハウスでレコーディングを行っているかのような空気を体感することができる。 >>>ONKIO Acoustics製品ホームページ   ●ONKIO HAUS Studio No.1 📷音響ビル8FのStudio No.1。コントロールルームにはSSL 9000Jを擁しこれまでも数々の名盤がレコーディングされてきた。ONKIO Acousticsではこちらのメインフロアを再現、マイクポジション設定のほかにもStudio No.1の特徴的な反射板の量までセレクトすることができる。 ●ONKIO HAUS Studio No.2 📷プラグイン内での再現ではStudio No.2のメインフロアはもちろん、Booth-Aのソースをブース内、ブース外から収録するシチュエーションも用意された。なお、こちらのコンソールはSSL 4000G、蓄積されたメンテナンスのノウハウがつぎ込まれそのサウンドが維持されている。 VSVerbとの出会い 📷株式会社音響ハウス 執行役員 IFE制作技術センター長 田中誠記 氏 スタジオの響きを忠実に再現するという最初の構想から、ソフトウェア実現に至る第一歩は何から始まったのだろうか?「レコーディングスタジオの生命線となる、スタジオの鳴りや響きをどのようにして記録・再現するか、まずはタックシステム 山崎淳氏に相談することから始まりました」(田中氏)その相談を受けた山崎氏の回答は「株式会社ソナ / オンフューチャー株式会社 中原雅考 氏が研究している特許技術、VSVテクノロジーしかない」と迅速・明快だったという。 音場を再現するにあたり、従来のImpulse Responceによる計測では測定機器の特性や部屋の騒音に左右され、ピュアな音場再現性に欠けるとの問題提起をしてきた中原氏は、仮想音源の空間分布をサンプリングするVSVerb(Virtual sound Sources reVerb)を音響学会およびAESで発表していた。VSVerbは空間の反射音場をサンプリングすることで、任意の空間の響きを再現する音場再現技術である。測定した音響インテンシティーの波形から反射音成分だけを抽出することにより、部屋の騒音をはじめ、マイクやスピーカなど測定時の不要な特性を一切含ないリバーブを生成することができる。それはつまり、不要な音色変化を生じさせない高品位なサンプリングリバーブを意味している。 VSVerbを用いて音響ハウスを再現する最初のデモンストレーションは、生成したVSVerbの畳み込みに Waves IR-L Convolution Reverbを利用して行われた。音響ハウスで20年以上のレコーディング経験を持つ中内氏はそのサウンドを聴いて、自身が楽器にマイクを立てている時の、まさにその空気感を感じて大変驚いたという。スタジオでの話し声でさえリアルに音場が再現されてしまう感動は、他のエンジニア達からも高く評価され、VSVerbを用いてソフトウェア制作に臨むことが決定。2021年夏に開発がスタートした。 ●4πサンプリングリバーブ / VSVerb VSVerbは所望の空間の反射音場をサンプリングすることで、任意の空間の響きを再現する音場再現技術です。反射音場は全周4πsr方向にてサンプリングされるため、1D, 2D, 3Dのあらゆる再生フォーマットに対して響きの再現が可能です。VSVerbをDAWのプラグインに組み込むことで音響制作時に任意の空間の響きの再現が可能となります。 響きの時間特性を方向別にサンプリングする従来の方向別 IRによるサンプリングリバーブとは異なり、VSVerbは一つ一つの反射音の元となる「仮想音源」の空間分布をサンプリングするサンプリングリバーブです。従来の方向別 IRリバーブでは、サンプリングの際のマイキングで再生可能なチャンネルフォーマットが決定してしまいますが、VSVerbはチャンネルに依存しない空間サンプリング方式のため完全なシーンベースのリバーブとなります。そのため、任意の再生フォーマットに対してリバーブエフェクトが可能です。 VSVerbでは測定した音響インテンシティーの波形から反射音成分だけを抽出することでリバーブを生成しているため、部屋の騒音やマイクやスピーカーなど測定時の不要な特性を一切含まないリバーブです。つまり、素材に対して不要な音色変化を生じさせない高品位なリバーブとなります。 (出典:オンフューチャー株式会社 資料) ACSU2023 Day1 #1 4πへの階段 〜 MILやVSVerb などを通して垣間見るイマーシブ制作のNext Step 〜 https://www.youtube.com/watch?v=yEW4UA0MIwE 📷今春開催されたAvid Creative summit 2023では、株式会社ソナ/オンフューチャー株式会社 中原 雅考氏による「ONKIO Acoustics」のコア技術=VSverbについての技術解説セミナーが催された。音場再現技術についてのロジックをベーシックから解説し、どのように音響ハウスの空間が再現されたのか確認することができる。 スタッフ総出のサンプリング 音響ハウスStudio No.1、No.2の鳴りをサンプリングする作業はスタッフ総出で、B&K(ブリュエル・ケアー)の全指向性スピーカーを床から1.2メートル、マイクをStudio No.1では床から2.7メートル、Studio No.2では2.5メートルの高さに設置して行われた。Senheiser AMBEO VR Micが用いられたが、その4ch出力はAmbisonics方式では処理されず、AMBEO VR Micは音響インテンシティープローブとして使用されたそうだ。 📷スタッフ総出で行われたという、サンプリング作業の様子を見せてくれた。B&K(ブリュエル・ケアー)の全指向性スピーカーとSennheiser AMBEO VR Micを設置する場所や高さは、通常レコーディング時の音源位置と、アンビエンスマイクの位置を想定して決定されたそうだ。 これら4chの音データがオンフューチャーのソフトで解析され、音圧と粒子速度を掛け合わせた音響インテンシティーにより、反射音成分のみが抽出されている。なお、Studio No.1の壁面上部にある反射板は取り外し可能になっているため、サンプリングには反射板の設置パターンがFully(全設置)、Half(半分設置)、None(無し)の3種類が用意された。曲面加工が施され、裏面にパンチカーペットが貼られた木製の反射板1枚1枚が、スタジオの響きをコントロールする重要な役割を果たしている。「Halfという設定は、音響ハウスの響きを熟知している著名なプロデューサーが、ハーフ設定を好んでレコーディングしていることから採用しました」(中内氏)とのことで、その響きがプラグインの中でもしっかりと再現されている。Studio No.2ではメインフロアに加えて、ブース内、ブース外でのサンプリングもおこなわれ、それらの再現もまた音響ハウスを知る多くのミュージシャンから高評価を得ている。 音響ビル社屋をイメージしたGUI 📷株式会社音響ハウス IFE制作技術センター 技術グループ チーフ 志村祐美 氏 プラグインのGUIデザインは映像編集に携わってきた志村氏が担当に抜擢され、コロナ禍のためリモート会議で制作が進められたそうだ。グラフィックソフトの画面を共有して、リアルタイムにデザインする様子を皆で確認しながら試行錯誤したそうだが、志村氏は「このパーツを修正したい理由を、私が理解できるように説明して下さい!というやり取りが何度もありました(笑)」と当時の苦労を語ってくれた。「GUIのグランドデザインは最初、音響ビルそのものをイメージした縦長サイズで、メニューをクリックしてスタジオを選択するというものでした」(田中氏)その構想は製品版GUIの縦長サイズと、背景にうっすらと見える煙(けむり)のテクスチャへと引き継がれていた。「音響ビル外観をイメージした色使いで、下からフワッと上がるけむりのグラデーションが空気感を表現しています。プラグインが縦に長いと場所をとるので、画面を三つ折りにしたいという私の最初の要望も製品に反映されています」(志村氏) 📷音響ビル社屋をイメージしたという、田中氏が描いた最初期のGUIスケッチ。こちらをスタートに志村氏がデザインを施していった。外部のデザイナーではなく、建物自体をも含めたスタジオの空気感をよく知った社内スタッフで丹念に組み上げられていったことがわかる。 Lexiconのリモートコントローラーをイメージしたフェーダー部は、ストロークの長さにもこだわった。「ストロークが長い方が使いやすいだけでなく、音に関係なかったとしてもパッと見た瞬間のカッコ良い / 悪いが判断基準でした。見えないものを創るという性質上、見えるもので盛り上がりたいという気持ちを大切にしています」(中内氏)そういったスタッフの想いを具現化していく作業は、まるで音楽を生み出すようでスタジオワークにも近かったのではないだろうか?パラメーターを少なくして簡単に音作りできるようにしたい、という開発時からのコンセプトとともに、スタッフそれぞれの哲学が込められたGUIには一切の妥協がなかった。 空気を録音することがコンセプト 📷株式会社音響ハウス スタジオ事業部門 技術部 音楽グループ チーフ レコーディングエンジニア 中内茂治 氏 「ONKIO Acousticsは音響ハウスのスタジオを再現するルームリバーブなので、オフマイクを作るのに向いています。例えばレコーディング編成の都合上、ブース内でオンマイク収録した際には、オフマイク音をONKIO Acousticsで再現してオンマイクとブレンドしたりします」(中内氏)さらにその後段でリバーブ処理することにより、豊かな奥行き感を表現するという手法もあるそうだ。また、シンセサイザー音源から出力されるダイレクトなサウンドはアタック成分が強く、特にサンプリング音源の硬さがイコライザーで取れない場合には、ONKIO Acousticsを使用するだけで一発で解決するケースも多いのだとか。「極論を言えば、リバーブ音を構成する LOW / MID / HIGH 3つのバンドレベルのうち、HIGHを下げるだけでほぼ音が馴染んでしまいます。アタックのコントロールと空気感を含めた前後のコントロールが抜群で、コンサートホールに例えると三点吊りマイクで収録したような空気感も得られます。どんなEQよりも簡単迅速に、オケに馴染む音作りを実現してくれますよ。昨今はヘッドホンやイヤホンだけで音楽制作をしているDTMユーザーが増えていますが、そのような環境であればこそ、ONKIO Acousticsの空気感が際立ってくると思います。アレンジや音作りの手がかりとしてもぜひ活用して欲しいです」(中内氏) 📷音響ハウスStudio No.1の反射板は簡単に取り外しが可能とのこと。反射板の場所や数を調整して響きを自在にコントロールできる、そんな稀有な機能を備えたスタジオだ。ONKIO Acousticsプラグイン内でもReflectors:Fully(フル設置)、Reflectors:Half(半分設置)、Reflectors:None(なし)の3種類を選択することができ、Studio No.1の機能をもリアルに再現することができている。 「ONKIO Acousticsはエフェクトカテゴリーとしてはリバーブに相当しますが、空気を通す、つまり空気を録音することがコンセプトにあるので、一般的なリバーブプラグインとは異なります」(田中氏)度々登場するこの "空気" というキーワード。そのなかでも特に、空気を録音するというコンセプトは、音の正体が空気の疎密波であるということを再認識させてくれるのではないだろうか。ONKIO Acousticsは他のプラグインと同様に、パソコン内で音楽制作するツールということに変わりはないが、DAWに空気感を吹き込む、その音の佇まいが最大の魅力ということである。 「次世代の若者に音響ハウスのサウンドを体験して欲しいという思いが一番にあります。プロの方達は実際に音響ハウスに来ることができますが、そうではない方達にレコーディングスタジオの空気感を知って欲しいですね。このプラグインが、自宅だけではできない音作りがあるということに気付くきっかけとなって、数年後にユーザーがエンジニアやアーティストになって音響ハウスを使ってくれれば良いなと。そこで、次世代に伝えたいという意味でも、大変リーズナブルな価格設定で提供しています」(田中氏)驚くのはその価格の低さだけではない。たった29.8MBというプラグインのデータサイズは、サンプリング・リバーブというカテゴリーにおいては驚異的な小容量である。ソフトウェアのデータサイズから見ても、ONKIO Acousticsが通常のリバーブとは根本的に異なることがお分かりいただけるだろう。 空間処理における最強コンビへの構想も!? 📷空気の振動にこだわったONKIO Acousticsとは対照的に、鉄板の振動が温かい響きを生み出すプレートリバーブEMT-140。マシンルームに所狭しと並ぶEMT-140たちをプラグインで再現して欲しい!という声が寄せられているそうだ。 ONKIO Acousticsはバージョン1.2.0で、音響ハウスのOBを含む5名の著名エンジニアによるプリセットが追加された。それらのプリセットはDAW初心者が空気を通した音作りを学べるだけでなく、サウンドプロフェショナルにも新たなアイディアをもたらしてくれるだろう。「ユーザーからGUIに関するリクエストがあれば、ぜひお聞きしたいです」(志村氏)とのことで、今後のバージョンアップにも期待が持てそうだ。また、VSVerbテクノロジーは反射音場を全周4πステラジアン方向でサンプリングする方式のため、1D、2D、3D のあらゆる再生フォーマットに対応できるのも大きな特長である。サラウンドミックスの需要が高まっているなかで、将来的にONKIO Acousticsがサラウンド対応することにも期待したい。 また、ONKIO Acousticsの発売をうけて、音響ハウスが所有している5台のプレート・リバーブ EMT140をぜひプラグインで再現して欲しい!という声も寄せられているようで、「ONKIO PLATE」としてその構想も浮かんできているようだ。「EMT140はアンプがトランジスタのほか真空管モデルもあり、みな個体差があって音が違うので、正常に動いている今のうちに記録して皆で使えるようにしたいですね。サウンド・エンジニアリングの勉強にもなりますよ」(田中氏)とのことで、このONKIO PLATEをONKIO Acousticsと併用すれば、CITY-POPを代表する空間処理の最強コンビになることは間違いないだろう。音響ハウスの新たなるソフトウェア展開が、DAWユーザーとレコーディングスタジオとの関係に新しい空気を吹き込み、次世代に向けて歩み始めている。   *ProceedMagazine2023号より転載

Music

現場目線から見えてきたダビングステージでのAvid S6 / TOHOスタジオ株式会社 ダビングステージ2

📷今回お話をお伺いしたTOHOスタジオ株式会社ポスト・プロダクション部の皆様。実際にAvid S6での実作業を行われた方にお集まりいただきお話をお伺いした。左上:両角 佳代子氏、右上:早川 文人氏、左下:下總 裕氏、右下:岩城 弘和氏 2022年9月にAvid S6をダビングステージに導入した東宝スタジオ。リニューアルされてから本記事執筆までの7ヶ月で16本の作品のダビングを行ったという。本誌前号ではそのシステムのご紹介を行ったが、実際にダビングの現場におけるAvid S6の使用感や、ワークフローにどのような変化が起こったかなど、現場目線から見えてくるAvid S6導入の効果を伺った。 システムに配されたPro Tools 7台 まずは、NEVE DFCコンソールからAvid S6へと更新されたことによるワークフローの変化からご紹介していきたい。前号でも触れているが、Avid S6へと更新を行うことで、NEVE DFCが担っていたミキシングコンソールとしてのミキシングエンジンは無くなった。それを代替するためにミキサー専用のPro Toolsを2台導入し、その機能を受け持たせるというシステム設計を行っている。プレイアウトのPro Toolsが4台。ミキサーエンジンとしてのPro Toolsが2台、ダバー / レコーダーとしてのPro Toolsが1台という7台構成でのシステムとなっている。 システムとして見れば煩雑になったとも感じられる部分ではあるが、もともとPro Toolsのオペレートに習熟した技師の方が多いということ、またMA室にAvid S6、そしてシグナルルーティングのコアとして稼働しているAvid MTRXが導入済みであったこともあり、現場スタッフの皆さんもそれほど大きな混乱もなくこのシステムを受け入れることができたということだ。外部からの技師の方々も国内の他のダビングステージでAvid S6での作業を経験したことのある方が多かったということでシステムの移行は想定よりもスムーズだったという。 📷スタジオのシステムを簡易に図としたものとなる。非常に多くの音声チャンネルを取り扱うことができるシステムであるが、その接続は想像よりもシンプルに仕上がっているということが見て取れる。各MTRX間のMADI回線は、すべてパッチベイを経由しているため、接続を変更してシステムの構成を簡単に変更することができる。図中にすべてを記載できたわけではないのだが、各MTRXはMADI及びAESがユーティリティー接続用としてパッチ盤へと出力されている回線を持っている。そのため持ち込み機器への対応などもMTRXのパッチを駆使することで柔軟に行うことができるように設計されている。 このシステムを見た方は、なぜ、ミキサーPTが必要なのか?という疑問を持たれるかもしれない。シンプルにステムをダバーで収録するだけであればプレイアウト用のPro Tools内部でステムミックスを行えば良い。しかし、コンソールありきでミキシングを行ってきた経験のある方からすれば、ステムミックスを行うのはあくまでもコンソールであり、プレイアウト用のPro Toolsは音声編集、再生を担当するという考え方が根強い。仕込みが終わり、ダビングステージで他の音源とともにバランスを取る際に、改めてまっさらなフェーダー(0dB位置)でのミックスを行いたいということである。実際にミキシングを行うという目線で考えれば頷けるのではないだろうか。 もちろん実際の作業で、Pro Toolsに慣れ親しんだ方はミキサー用Pro Toolsを使用しないというケースもあったとのこと。ダイアログ、音楽はダイレクトに、効果はミキサーを通してなどというハイブリッドなケースもあり、どのような要望にも応えられる柔軟性を持ったシステムに仕上がっていることが実際の作業でも実証されている。もちろん、東宝スタジオのもう一つのダビングステージにはNEVE DFCがあるので、究極的にはNEVE DFCとAvid S6の選択もお客様のニーズに合わせて行える環境が整っている。 コンソール依存ではないオートメーション管理 実際にAvid S6での作業を行ってみて感じたメリットとしては、オートメーションデータの在り処が挙げられる。このオートメーションデータが、すべてPro Toolsのデータとして存在することによるメリットが非常に大きいということをお話いただいた。 これまで、リテイク(修正作業)や完パケ後のM&Eステム制作作業などを、ダビングステージを使わずに行うことができるようになったということを挙げていただいた。もちろん、リテイク後の確認はダビングで行う必要があるが、Pro Tooleにすべてのオートメーションデータがあるので、Pro Tools単品でのミックスが可能になった。これは、NEVE DFCを使ってミックスを行っていた際には行うことができない作業である。ミキサー用Pro Toolsを使っていたとしても、そのミキシング・オートメーションデータはPro Toolsのセッションファイルとして管理される。そのため、他のPro Toolsへとセッションインポートを行うことでミキシングの状況の再現が可能となる。一方、NEVE DFCでは当たり前だがNEVE DFC内にオートメーションデータがあり、その再現にはNEVE DFCが必須となるからだ。 このメリットは、特に後作業で発生する各種ステムデータの書き出しなどをダビングステージを使用しなくても行えるということにつながる。これにより、今後ダビングステージ自体の稼働も上げることができるのではないか?とのお話をいただくことができた。 システム更新によるメリットは、このような派生作業にまでも影響を与えている。Avid S6はそれ自体がミキシングエンジンを持たないため、コンソールではなくコントローラーだ、などと揶揄されることもあるが、コントローラーだからこそのメリットというものも確実にあるということを改めて確認することができた。 オフラインバウンスを活用する これは、極端な例なのかもしれないが、オフラインバウンスでのステムデータの書き出しも実現している。ミキサーPro Toolsをバイパスするシステムアップであれば、オフラインバウンスで書き出したデータをダバーに貼り込むというワークフローも現実のものとして成立する。これによる作業時間の短縮などのメリットももちろんある。決まったステムからオフラインバウンスでダバーに渡していくことで、バス数の制限から開放されるといったワークフローも今後視野に入ってくるのではないだろうか。現状ではダバーへ最大128chの回線が確保されている。今後の多チャンネル化などの流れの中ではこのような柔軟な発想での運用も現実のものとなってくるのかもしれない。 このお話を伺っていた際に印象的だったのが、オフラインバウンスで作業をするとどうもダビングをしているという感覚が希薄になってしまうというコメントだ。確かに、というところではあるが、ついにダビングにもオフラインの時代がやってくるのだろうか、省力化・効率化という現代の流れの中で「オフラインバウンスでのダビング」というのものが視野に入ってくることを考えると、筆者も少し寂しい気持ちになってしまうのは嘘ではない。 システムがAvid Pro ToolsとAvid MTRXで完結しているために、作業の事前準備の時間は明らかに短くなっているとのことだ。具体的には、別の場所で仕込んできたPro ToolsセッションのアウトプットをNEVE DFCのバスに合わせて変更するという手間がなくなったのが大きいとのこと。Avid S6であれば、途中にAvid MTRXが存在するので、そこでなんとでも調整できる。事前に出力をするバス数を打ち合わせておけば、Pro Tools側での煩雑なアウトプットマッピングの変更を行うことなくダビング作業に入ることができる。ダビング作業に慣れていない方が来た場合でも、すぐに作業に入ることができるシンプルさがある。準備作業の時間短縮、完パケ後作業を別場所で、などとワークフローにおいても様々なメリットを得ることができている。 Avid S6ならではの使いこなし 📷前号でもご紹介したTOHOスタジオ ダビング2。Avid S6を中心としたシステムが構築されている。コンソールの周りには、プレイアウトのPro Toolsを操作するための端末が配置されている。マシンルームはMacPro 2019とAvid MTRXの構成に統一され、同一性を持ったシステムがずらりと並ぶ。メンテナンス性も考えてできる限り差異をなくした構成を取っているのがわかる。 東宝スタジオでは、国内最大規模となるAvid S6 / 72Fader Dual Head仕様を導入したが、物理的なフェーダー数は充分だろうか?これまでのNEVE DFCではレイヤー切り替えにより操作するフェーダーを切り替えていたが、Avid S6ではレイアウト機能など様々な機能が搭載されている。これらをどのように使いこなしているのだろうか?実際のオペレーションに関してのお話も伺ってみた。 物理フェーダー数に関しては、充分な数が用意されていると感じているそうだ。Pro Toolsのここ最近の新機能であるフォルダートラックと、Avid S6のフェーダースピル機能を活用する方が多いという。フェーダースピル機能とは、フォルダートラックにまとめられた個別のフェーダーをフォルダートラック・フェーダーの右、もしくは左に展開することができる機能である。バスマスターでもあるフォルダートラックのフェーダーを手元に並べ、フェーダースピル機能を使って個別のトラックのバランスの微調整を行う。まさにAvid S6ならではの使いこなしを早速活用していただいている。 オペレートに関して、NEVE DFCからの移行で一番多く質問されるのがオートメーションの各モードの動作。やはりメーカーが異なるということもあり、オートメーションモードの名称に差異がある。具体的には「Latchってどんな動作するんだっけ?」というような質問である。これは、回数を重ねてAvid S6を使っていけば解決する問題ではあるが、NEVE DFCと2種類の異なるコンソールを運用する東宝スタジオならではの悩みとも言えるだろう。また、コンソールとしてのEQ、COMPの操作という部分に関しては、Pro Tools上のプラグインを活用するシステムとなるため、自ずとノブではなくマウスに手が伸びるとのこと。正面を向いてしっかりと音を聴いて作業できる環境、ということを考えるとコンソール上のノブでの操作が有利だが、やはりプラグインの画面が表示されると慣れ親しんだマウスとキーボードで操作することの方が今のところは自然ということだろう。 唯一無二から正確な再現性へ そして、いちばん気にかかる部分かもしれない音質に関して、Avid S6の導入に合わせて更新されたAvid MTRXと、NEVE DFCとの差異についてお話を聞いてみたところ、やはり、音質に関して違いがあることは確かだ、とのコメントをいただいている。確かにメーカーも異なるし、機器としても違うものなので同列に語ることは難しいかもしれないが、味のあるNEVEに対して、クリアで忠実な再現性を持ったAvid MTRXといったニュアンスを感じているとのこと。NEVEはどこまで行ってもNEVEであり、やはり唯一無二のキャラクターを持っているということに改めて気付かされているということだ。一方、Avid MTRXについては、忠実性、レスポンスなどNEVEでは感じられなかったサウンドを聴くことができるとのこと。 Avid MTRXの持つ正確な再現性は、効果音のタイミングに対して今まで以上にシビアになったりと、これまで気にならなかったところが気になる、という事象となって出現してきているということ。これはさらに作品を磨き上げることとができる音質を手に入れたということでもあり、非常にやりがいを感じる部分でもあるとのことだ。既にMA室でも導入の実績のあるAvid MTRXだが、ダビングステージの音響環境ではさらにその傾向を顕著に聴き取ることができる。これにより、今後の作品の仕上がりがどのように変化するのか楽しみな部分でもある。 音質に関しては、今後マスタークロックや電源などにもこだわっていきたいとのコメントをいただいている。これは、Avid S6が非常に安定して稼働しているということの裏返しでもある。システムのセットアップに必要な時間も短縮され、システム自体の安定度も高い。そういったことから、さらに高い水準での探求を考える余地が見えてきているということとだろう。安定稼働させることで精一杯であれば、音質云々以前にシステムを動作させることで疲弊してしまうというのは想像に難くない。このようなコメントをいただけるということは、システムとしての安定度に関しても高い水準で運用いただいているということが伺い知れる。 こうなってくると、あまり話題に上ることも多くなかったPro Toolsのミキサーエンジンの持つHEATなども活用してみては面白いのではないか?と考えてしまう。テレビのように厳密なレベル管理は行われていない映画。(これは悪い意味で管理されていないということではなく、芸術作品であるがゆえに管理を行っていないということである。)パラメーターによりレベル差が生じるHEATはテレビ向けのポストプロダクションでは使い勝手に難がある機能であったが、映画であれば多少のレベルの変動は許容できるはずである。お話をまとめていてふと、こんな想像もよぎっていった。 ●ROCK ON PRO 導入事例 TOHOスタジオ株式会社 ポストプロダクションセンター2 様 / アジア最大規模のS6を擁したダビングステージ https://pro.miroc.co.jp/works/toho-proceed2022-23/ システムの更新を行いNEVEが懐かしいというお客様も確かにいるが、新しいシステムで安定度高く作業を行うことができるメリットは大きく、好評をいただいているということだ。もう一つのダビングステージには、NEVE DFCがあるということもあり、お客様には幅広い選択肢でのワークフローを提案できる環境が整備されている。これはスタジオにとって大きなメリットであり、今後も継続していきたい部分でもあるということ。 とはいえ、Avid S6によるワークフローの改善、省力化、安定度に対する魅力も大きく、NEVE DFCとAvid S6のHybridコンソールシステムは組めないのか?などという質問も出てきている。ハリウッドでは、このようなシステムアップも現実のものとして稼働している。東宝スタジオのどのように使いたいのかというワークフローを色々と相談をしながら、今後のベストなシステムアップのお手伝いを行えればと考えている。今後の日本映画のポストプロダクションシステムを占うファシリティー。Avid S6へ移行することで獲得した多くのメリットをどのようにこれからのシステムアップに活かしていけるのか?これが今後のテーマになっていくのではないだろうか。   *ProceedMagazine2023号より転載

Post

Waves Live SuperRack〜あらゆるミキシング・コンソールにアドオン可能なプラグイン・エフェクト・ラック

Dante、MADI、アナログ、AES/EBU…どんな入出力のコンソールにも接続可能で、最大128ch(64chステレオ)のトラックに大量のWavesプラグインをニアゼロ・レイテンシーで走らせることができる、ライブサウンドとブロードキャスト・コンソールのための最先端のプラグイン・エフェクト・ラック。それが「SuperRack SoundGrid」です。 プロセッシングをおこなう専用サーバー本体は2Uのハーフラック・サイズ。1Uまたは2Uハーフラックの専用Windows PCはマルチタッチ・ディスプレイに対応しており、プラグインのパラメータをすばやく直感的に操作することが可能です。 システム内の伝送はWavesが開発したレイヤー2のAoIP規格であるSoundGrid。汎用のネットワークハブを介してLANケーブルのみでシステム全体を接続します。 スタジオ・ミキシングやレコーディングはもちろん、省スペースなシステムでパワフルなデジタルエフェクト処理、冗長性、ニアゼロ・レイテンシーを実現するSuperRack SoundGridは、限られた機材で最高の結果を求められるライブサウンドや中継の現場などにはまさにうってつけのソリューションと言えるでしょう。 ◎主な特徴 0.8msのネットワーク・レイテンシー 最大4台のアクティブDSPサーバーをサポートし、プラグインの処理能力をさらに向上 最大4台のリダンダントDSPサーバーをサポートし、冗長性を確保 複数のプラグインを同時に表示・プラグインの表示サイズの変更 マルチタッチ対応のグラフィック・インターフェイス ワークスペースを最大4台のタッチディスプレイに表示 SoundGrid I/Oをネットワーク上でシェアすることで、大規模なシステムにも対応 Waves mRecallアプリ:保存したスナップショットを、Wi-fi経由でスマートフォン、タブレットから呼び出し可能 個別デモのご用命はROCK ON PRO営業担当、または、contactバナーからお気軽にお申し込みください。 番組や収録のマルチトラック音源をお持ち込みいただければ、Waves SuperRackシステムを使ったミックスを体験頂けます。 ◎システム構成例1 図はSuperRack SoundGridを使用したシステムの基本的な構成。例としてMADI I/Oを持ったコンソールを記載しているが、アナログやAES/EBUなどの入出力を持ったコンソールにも対応可能だ。 中列にあるMADI-SoundGridインターフェイスを介して信号をSoundGridに変換、左上の専用PCでプラグインをコントロールし、左下の専用サーバーで実際のプロセスをおこなう。 アナログコンソールやデジタルコンソールと使用したい場合は、中列のSoundGridインターフェイスを、IOCなどのアナログ・AES/EBU入出力を備えたモデルに変更すればよい。 ◎システム構成例2 YAMAHA、DiGiCo、Avid Venueなど、オプションカードとしてSoundGridインターフェイスが存在しているコンソールであれば、コンソールから直接ネットワーク・ハブに接続することでシステムをよりシンプルにすることも可能だ。 SuperRackシステムの構成と選択肢 図は前述「システム構成例」からコンソールを省いたSuperRackシステム部分の概念図。ユーザーの選択肢としては、大きく3ヶ所ということになる。 左下のオーディオ入出力部については、SuperRackを接続したいコンソールの仕様によって自ずと決まってくる。SoundGridオプションカードをラインナップしているモデルであれば該当のオプションカード、そうでなければ対応するI/Oを持ったDiGiGridデバイスといった感じだ。 DiGiGrid IOCやCalrec Hydra2のように複数の種類のI/Oを持ったインターフェイスを使用すれば、デジタルコンソールとアナログコンソールで同時にSuperRack SoundGridを使用するといった構成も可能になる。 左上のWindows PCは基本的にプラグインを操作するUI部分のため、求めるマシンパワーに応じて、1UハーフラックのAxis Scopeか2UハーフラックのAxis Protonから選択すればよい。 同時に使用したいWavesプラグインやタッチディスプレイの数、レコーディング用のDAWホストを兼ねるか否かなどが選定の基準になるのではないだろうか。 右上のSoundGrid DSP Serverが、実際にWavesプラグインのプロセッシングをおこなう部分となる。複数の選択肢があるが、ここも同時プロセスの量やリダンダントの有無によって決まってくる部分だろう。 その他、KVMやLANケーブルが別途必要になる。特にケーブルはCat6対応のものが必要である点には留意されたい。 参考価格と比較表 *表はCalrec用の構成例、コンソールに応じてI/Oを選択 **プラグインライセンスは別途購入が必要 渋谷Lush Hubにて個別デモンストレーション受付中! ROCK ON PROでは、このSuperRackシステムの個別デモンストレーションを渋谷区神南のイベントスペースLUSH HUBで予約制にて受付中です。 LUSH HUBについての詳細はこちら>> 番組や収録のマルチトラック音源をお持ち込みいただければ、Waves SuperRackシステムを使ったミックスを体験頂けます。 デモご予約のご希望は、弊社営業担当、またはcontactバナーからお気軽にお問い合わせください。

Broadcast

360VME / 立体音響スタジオの音場をヘッドホンで持ち歩く

ソニーが提供するイマーシブの世界がさらに広がろうとしている。360 Reality Audioでの作品リリースはもちろんのことだが、今度は制作側において大きなインパクトがあるサービスとなる「360 Virtual Mixing Environment(360VME)」が発表された。これは、立体音響スタジオの音場を、独自の測定技術によりヘッドホンで正確に再現する技術。つまり、立体音響制作に最適な環境をヘッドホンと360VMEソフトウェアでどこへでも持ち運ぶことが可能となるわけだ。ここではその詳細を見ていこう。 2023.7.13 追記 ・7/13(水)より一般受付開始、8月よりMIL Studioでの測定サービスを開始いたします。 詳細は下記URLよりご確認ください。 https://www.minet.jp/contents/info/360-vme-measurement/ 📷右に並ぶのが世界で3拠点となる360VMEサービスを提供するスタジオ。上よりアメリカ本土以外では唯一となるMedia Integrationの運営する東京のMIL Studio、本誌でもレポートを掲載しているLAのGOLD-DIGGERS、そしてニューヨークのThe Hit Factory。すべてのスタジオが360 Reality AudioとDolby Atmosの両方に対応したスタジオである。これらのスタジオはソニーが360VMEサービスの測定にふさわしい音響を備えたスタジオとして認定した世界でも有数のファシリティーである。こちらで個人ごとに測定を行って得られたプロファイルをもとに、その音場をヘッドホンで再現させるのが360 Vitual Mixing Environmentだ。 ●360 Virtual Mixing Environment ソニーHP ●ソニー / MDR-MV1 / 価格 ¥59,400(税込) 「これはヘッドホンじゃない、スタジオだ。」イマーシブ世代に向けたソニーのStudio Refarence Headphone、MDR-MV1。このキャッチコピーに込められた「スタジオだ」という言葉には360VMEサービスも含まれているのだろうと考えさせられる。スタジオの音響空間を360VMEにより、ヘッドホンに閉じ込めて持ち帰る、そのために高い空間再現能力を与えられたヘッドホンである。360VME無しでも充分に素晴らしい特性を持った製品だが、360VMEと組み合わせることでさらなる真価を発揮するモデルと言えるだろう。 ●MDR-MV1 ソニーHP 世界初のプライベートHRTF測定サービス ついに待望のサービス開始がアナウンスされたSONY 360 VMEサービス。VMEとは「Virtual Mixing Environment」(仮想ミキシング環境)のこと。世界初となるプライベートHRTFを含むプロファイルデータを商用的に測定するサービスだ。SONY R&Dで開発され、ハリウッドのSONY Picturesで試験運用が行われていたテクノロジーで、映画の仕上げを行うダビングステージという特殊なミキシング環境を、ヘッドホンで仮想的に再現してプリミックスの助けとしようということで運用が行われていた。 広い空間でのミキシングを行うダビングステージ。そのファシリティーの運用には当たり前のことだが限界がある。ファシリティーの運用の限界を超えるための仮想化技術として、この空間音響の再現技術が活用され始めたのは2019年のこと。テスト運用を開始してすぐにコロナ禍となったが、SONY Picturesにとってはこの技術が大きな助けとなった。まさに求められる技術が、求められるタイミングで現れたわけだ。 サービス利用の流れ 国内での利用を想定して、東京・MIL Studioでの測定を例にサービス利用の流れを紹介するが、執筆時点(2023年5月下旬)では暫定となる部分もあるため実際のサービス開始時に変更の可能性があることはご容赦いただきたい。まず、利用を希望される方はWebほかで用意されたページより360VMEサービスを申し込む。この段階では測定を行うヘッドホンの個数、必要なスピーカープロファイル数をヒアリングし、いくつのプロファイルを測定する必要があるのか確認、測定費用の見積と測定日の日程調整を行う。実際のMIL Studioでの測定ではヘッドホンの測定も行いその個体差までもを含めたプロファイルを作成するため、使用されるヘッドホンの持ち込みは必須となる。 MIL Studioではそれぞれのプロファイルに合わせて測定を行った後に、そのプロファイルが正しく想定されているかを実際の音源などを使って確認、納得いくプロファイルが測定できているかを確認していただき、360VMEアプリとともにプロファイルデータをお渡しすることとなる。これらを自身の環境へインストールし、利用開始というのが大まかな流れだ。 360VMEのバックボーンとなる技術 ソニーは以前よりバーチャルサラウンドの技術に対して積極的に取り組んできた。民生の製品ではあるが、バーチャル・サラウンド・ヘッドホンなどを実際に発売している、これは5.1chサラウンドをヘッドホンで再生するという技術を盛り込んだ製品であった。このようなサラウンド仮想化の技術は、長きにわたりソニー社内で研究されてきた技術があり、その系譜として今回の360VMEサービスも存在している。そして、今回の360VMEサービスはこれまでにリリースしてきたコンシューマ向けレベルの技術ではなく、プロの現場での使用を想定したハイエンド製品としてリリースされた。このようなバーチャルサラウンド技術の精度向上には、実測に基づくプライベートHRTFの測定が必須となる。実際の使用者のHRTFを含んだデータを測定することで精度は驚くほど向上する。一般化されたHRTFとのその差異は圧倒的である。 ●HRTF(Head-Related Transfer Function:頭部伝達関数)とは!? 人が音の方向を認知することが可能なのは、周波数特性の変化、左右の耳への到達時間差などを脳が判断しているからである。耳の形状や体からの反射、表皮に沿った回析など様々な要因により変化する周波数特性、左右の耳へ到達する時間差、反射によるディレイなどを表すインパルス応答特性、このようなパラメータを数値化したものがHRTF(Head-Related Transfer Function:頭部伝達関数)となる。これは個人ごとによって異なるパラメーターで、個人のHRTFを測定したものをプライベートHRTF、それを適用したバイノーラル処理を個人最適化と呼んでいる。 360VMEの技術はプライベートHRTFを測定した部屋を環境ごと測定する。それをヘッドホンのバイノーラル再生として、測定した部屋の音響環境、スピーカーの特性などをそのまま仮想環境として再現する。スピーカーの特性など、測定した部屋の音響環境ごとプロファイル化するため、厳密な意味でのプライベートHRTFではないが、その要素を含んだバイノーラル再現技術ではあると言えるだろう。 正式な意味でのプライベートHRTFは個人の頭部伝達係数であるために、予め特性を確認したスピーカーとマイクによって無響室での測定を行うこととなる。余計な響きのない空間で、単一の方角からの音源から発された音波がどのように変化して鼓膜に届くのかを測定するということになる。360VMEでは測定を行う部屋のスピーカーの個性、部屋の反射などを含めた音響特性、これらが測定したプロファイルに加わることとなる。これまでにも各社より有名スタジオのコントロールルームの音響環境を再現するようなプラグインが登場しているが、これらはプライベートHRTFにあたるデータを持たないため、どうしてもその効果の個人差は大きくなってしまう。360VMEでは、一人ひとり個人のデータを測定するためにプライベートHRTFにあたるデータを持つプロファイルデータの作成が可能となっている。 プライベートHRTFを測定しDAWと連携 それでは、実際の360VMEの測定サービスは、何が行われて何がユーザーへ提供されるのだろうか?まずは測定からご紹介していこう。測定にあたっては、まずは測定者の耳へマイクを装着することとなる。できるだけ鼓膜に近い位置で測定を行うために通称「バネマイク」と呼ばれる特殊な形状のマイクを耳孔に装着する。 マイクを装着し視聴位置に座り、始めにピンクノイズでの音圧の確認が行われる。スピーカーの信号がマイクにどれくらいのボリュームで入力されているのかを確認するということになる。次は測定を行うスピーカーからスイープ音を出力し周波数特性と位相を測定する。更に続けて、リファレンスとするヘッドホンをつけて、ヘッドホンで再生したピンクノイズとスイープを測定する。これにより、ヘッドホンの特性も含めた特性の合わせ込みを行い精度の高い空間再現を行うわけである。 📷こちらに写っているのが、360VME測定用に設計された通称「バネマイク」。このバネのような部分を耳に入れることにより、耳道を塞がずに耳の奥、鼓膜に近い位置での測定を実現している。測定においては、鼓膜にできるだけ近い位置でのデータを取るということが重要なポイント。鼓膜にどのような音が届いているのか?耳の形、耳たぶの形、頭の形など、個人差のある様々な要因により音が変化する様をこのマイクで測定することとなる。360VMEの測定ではスピーカーから出力された音源での測定だけではなく、このマイクを付けたままでヘッドホンの測定も行い精度をさらに高めている。ヘッドホンには個体差があるため、測定に使うヘッドホンは実際に普段から使っているものをお持ちいただくことになる。 測定の作業はここまでとなり、スピーカーからの再生音とヘッドフォンからの再生音、それぞれのデータからプロファイルデータを生成する。ここで生成されたプロファイルデータは、測定サービスを行ったユーザーに提供される360VMEアプリケーションに読み込ませることで、そのデータが利用可能となる。DAWなどの制作ツールと360VMEの接続は、PC内部に用意される仮想オーディオバス360 VME Audio Driverにより接続される。具体的には、DAWのオーディオ出力を360 VME Audio Driverに設定し、360VMEアプリケーションのインプットも360 VME Audio Driverに設定、アウトプットは実際に出力を行いたいオーディオインターフェースを選択するということになる。 このような仕組みにより、DAWから出力されるイマーシブフォーマットのマルチチャンネル出力が、360VMEアプリケーションから測定結果により生成されたプロファイルデータを適用したバイノーラルとして出力される。プライベートHRTFと測定を行ったスタジオのスピーカーや空間、音響特性を含んだ精度の高いバイノーラル環境での作業が可能となるということだ。 このような仕組みのため、測定時のスピーカーセット=制作DAWのアウトプットとする必要がある。そのため、Dolby Atmosの制作向けのスピーカーセットと360 Reality Audio向けのスピーカーセットはそれぞれ別のプロファイルとして測定が必要だ。また、複数のヘッドホンを使い分けたいのであれば、それも別プロファイルとして測定を行う必要がある。ちなみに360VMEの発表と同時にリリースの発表が行われたSONY MDR-MV1ヘッドホンは、360VMEのアプリケーション開発にあたりリファレンスとして使われており、その特性は360VMEアプリケーションのチューニングにも使われているということだ。360VMEサービスの測定を行う際にどのヘッドフォンで測定をしようか迷うようなことがあるのであれば、MDR-MV1を選択するのが一番間違いのない結果が得られることだろう。ただ、他のヘッドホンでも十分な効果を得ることができるので、普段から慣れたヘッドホンがあるのであればそれを使うことは全く問題ない。 ●360 Virtual Mixing Environmentアプリ ※上記画像はベータ版 測定をしたプロファイルデータを読み込ませて実際の処理を行うのがこちらの360 Virtual Mixing Environmentアプリ。画像はベータ版となるため、実際のリリースタイミングでは少し見た目が変わるかもしれないが、プロファイルを読み込ませるだけではなく、各チャンネルのMute / Solo、メーターでの監視などが行えるようになっている。シグナルフロー図からもわかるように、360VME Audio Driverと呼ばれる仮想の内部オーディオバスがこのアプリケーションとともにインストールされ、DAWなどからのマルチスピーカーアウトを360VMEアプリへ接続することとなる。あくまでも仮想的にスピーカー出力をバイノーラル化する技術となるため、スピーカーアウト、レンダリングアウトを360VMEアプリへつなぐということがポイントとなる。具体的には360 WalkMix Creator™️のアウトプット、Dolby Atmos Rendererのアウトプットを接続することとなる。もちろん5.1chやステレオをつなぐことも可能だ。その場合には、その本数分のスピーカーが360VMEの技術によりヘッドホンで再現されることとなる。 📷東京・MIL Studioで測定可能となる代表的なフォーマット。これら以外についても対応可能かどうかは申し込み時にご確認いただきたい。(※Auro 3Dフォーマットの測定には2023年7月現在対応しておりません)また、当初のリリースでは16chが最大のチャンネル数として設定されている。技術的にはさらに多くのチャンネル数を処理することも可能とのことだが、DAW併用時の処理負荷とのバランスが取られている。確かに16chあれば360 WalkMix Creator™️の推奨環境である13chも対応でき、Dolby Atmosであれば9.1.6chまで賄えることになる。43.2chというMIL Studioでの測定となると、さらにチャンネル数を求めてしまいたくなるところだが、一般的なスタジオ環境との互換を考えれば必要十分な内容だと言えるだろう。 日米3拠点で測定サービスを提供 この360VMEサービスにおけるスタジオでの測定は、サービス開始当初は世界で3ヶ所のスタジオでの測定となる。日本では弊社の運営する43.2chのディスクリート再生を実現した完全4π環境を持つMIL Studio。他の2ヶ所のスタジオはアメリカにあり、ロサンゼルスのGOLD-DIGGERSとニューヨークのThe Hit Factoryとなり、新進気鋭のスタジオと老舗スタジオがそれぞれ選ばれた格好だ。音響環境や360VMEという通常のスタジオ運営とは異なるサービスへの賛同を行った3拠点で、この360VMEサービスはまず開始となる。本記事の執筆段階でサービス開始は2023年6月末〜7月上旬、価格はそのプロファイル測定数にもよるが、おおよそ7万円程度からでのスタートを予定しているということだ、本誌が発行されるころにはこれらの情報も正式なものが発表されていることだろう。(※) ※2023.7.13 追記 ・7/13(水)より一般受付開始、8月中旬よりMIL Studioでの測定開始 ・1プロファイル測定:68,000円(税別)+追加の測定 1プロファイルにつき 20,000円(税別) 〜 ・測定可能フォーマット、価格につきましてはこちらのページからご確認ください。https://www.minet.jp/contents/info/360-vme-measurement/ 360VMEサービスがスタートすることで、イマーシブ制作の環境に劇的な変化が訪れるのではないだろうか?ヘッドホンミックスの精度が上がることで、制作環境における制約が減り、作品を作るためのスタートラインがぐっと下がることを期待したい。もちろんスピーカーがある環境をすぐに揃えられるということであればそれが最高のスタートラインではあるが、スピーカーを揃えることに比べたら圧倒的に安価、かつ手軽にMIL Studioの音場、イマーシブのスピーカー環境をヘッドホンに入れて持ち帰ることができる。この画期的なサービスによる制作環境の変化に期待したいところである。   *ProceedMagazine2023号より転載

Music

イマーシブ表現は新たなステージに。Spat Revolution UltimateにWFS(波面合成)アドオンが登場

2017年のリリース以来、プロダクション、ライブサウンド問わず、イマーシブ・オーディオ・プロセッサーとして独自のポジションを確立しているSpat Revolution Ultimateが、WFS(波面合成)による仮想の音源配置に対応しました。WFSは従来のパンニング方式に比べて、特に大きな会場で、より多くのオーディエンスに優れた定位感を提供できると言われています。この記事では、WFSの基本的な考え方をおさらいした上でそのメリットを確認し、またアルゼンチンで行われた大規模フェスティバルでの導入事例も紹介していきます。 FLUX:: / IRCAM Spat Revolution Spat Revolution Ultimate ¥297,000(税込) WFS Add-on option for Spat Revolution Ultimate ¥74,800(税込) 音楽制作やポストプロダクションでは各種DAWと連動させてDolby Atomsなどあらゆるフォーマットに対応したイマーシブ作品の制作に、ライブサウンドではデジタル・コンソールからリモート・コントロール、ライブ会場を取り囲むように配置されたPAスピーカーへの出力をリアルタイムで生成するプロセッサーとして、さまざまなアプリケーションに対応する最も多機能で柔軟性の高い、ソフトウェア・ベースのイマーシブ・オーディオ・プロセッサー。 WFS(波面合成)とは? WFS(Wave Field Synthesis)は、直線上に並べたラウドスピーカーのアレイを用いた音響再生技術で、従来の技術(ステレオ、5.1chサラウンドなど)の限界を取り払う可能性がある技術です。サラウンド・システムは、ステレオの原理に基づいており、一般的に「スイートスポット」と呼ばれる複数のスピーカーに囲まれた中心部の非常に小さなエリアでのみ音響的な錯覚を起こさせ、音がどの方向からやってくるのかを感じさせます。一方、WFSは、リスニングエリアの広い範囲にわたって、与えられたソースの真の物理的特性を再現することを目的としています。この原理は「媒質(=空気)を伝わる音波の伝搬は、波面に沿って配置されたすべての二次的音源を加えることで定式化できる」というもので、Huyghensの原理(1678年)に基づいています。 WFSを実現するためには、あるサウンドのシーンにおいて音源をオブジェクトとして捉え、そのオブジェクトの数量分の位置情報を把握できていることが前提となります。例えば、動画・音声データにおける圧縮方式の標準規格のひとつであるMPEG-4では、WFS再生と互換性のあるオブジェクトベースのサウンドシーン記述が可能になっています。 現実には、図版で見られるように音源が発する波面と同じようにスピーカーを配置することはあまりにも現実的ではありません。そこで、直線上にラウドスピーカーを配置し、各スピーカーから出力される音量とタイミングをコントロールすることで、仮想に配置された音源からの波面を人工的に生成します。 このように音源をスピーカーの向こう側に”配置”することによって、その部屋や会場にいるリスナーは、音源の位置から音が放出されていると認識します。一人のリスナーが部屋の中を歩き回ったとしても、音源は常にそこにいるように感じられるのです。 📷 「媒質(=空気)を伝わる音波の伝搬は、波面に沿って配置されたすべての二次的音源を加えることで定式化できる」という物理的特性をそのままに、波面に沿って二次的音源を配置した際のレイアウトが左図となりますが、このように音源が発する波面と同じようにスピーカーを配置することはあまりにも現実的ではありません。そこで、右図のように直線上に配置したスピーカーから出力される音量とタイミングをコントロールすることで、複数の音源の波面を同時に合成していくのが「WFS(波面合成)」となります。 なぜライブサウンドでWFSが有効なのか? 📷 Alcons Audio LR7による5本のリニアアレイと設置準備の様子 d&b Soundscapeなどラウドスピーカーのメーカーが提供する立体音響プロセッサーにもWFSの方式をベースとしているものが数多くあります。 これまでのサラウンドコンテンツ制作はチャンネルベースで行われ、規定に基づいたスピーカー配置(5.1や7.1など)で、音響的にも調整されたスタジオで素晴らしいサウンドの制作が行われます。しかし、この作品を別の部屋や同じように定義されたラウドスピーカーがない環境で再生すると、チャンネルベースのソリューションは根本的な問題に直面することになります。音色の完全性が失われ、作品全体のリミックスが必要となるわけです。ツアーカンパニーやライブイベントで、チャンネルベースの5.1や7.1のコンテンツを多くのオーディエンスに均等に届けるのは非常に難しいことだと言えるでしょう。 従来のサラウンドとWFSの違いにも記載しましたが、チャンネルベースまたは従来のステレオパンニングから派生したパンニング方式では、複数のスピーカーに囲まれた中心の狭いエリアでのみ、制作者が意図した定位感を感じることができます。例えば、ライブ会場に5.1chの規定通りにラウドスピーカーを配置できたとしても、Ls chのすぐ近くのリスナーにとっては非常に音量感にばらつきのあるサウンドシーンとしてしか認知できません。 WFSを用いた会場の「より多くのオーディエンスに優れた定位感を提供する」というメリット以外に、WFSでは必ずしも会場を円周上に取り囲んでスピーカーを配置する必要が無いという大きなメリットもあります。常に会場の形状、そしてコストの制約を考慮しなければならないライブ会場でのイマーシブ音響のシステムとしては非常に有利な方式と言えます。 📷 イースペック株式会社主催の機材展2022において、国内では初のSpat RevolutionのWFS Optionを使った本格的なデモでの一コマ。サンパール荒川大ホールに常設されている照明用バトンに、小型のラインアレイAlconsAudio LR7を5組均等間隔に吊り、あたかもステージ上に演奏者がいるかのような音場を実現していた。 Spat Revolutionで行うWFS再生 📷 Spat Revolutionでオーケストラの編成をWFSアレイの向こう側に仮想配置。 コンパクトで軽量なラインアレイであれば、照明用のバトンへ直線上に5アレイを吊ることも可能かもしれません。Spat RevolutionでWFS再生を行うためには最小で5本以上の同じ特性を持ったラウドスピーカーを均等間隔で配置する必要があります。スピーカーの数が増え、スピーカーとスピーカーの間隔が小さくなればなるほど、定位感の再現性が高まります。 Spat Revolutionでは配置するスピーカーの周波数特性や放射特性を定義する項目がありません。だからこそポイントソースであってもラインアレイであってもスピーカーに制約が無いという大きなメリットがあるのですが、そのスピーカーの放射角度によって最適な配置も変わってきますし、聴こえ方にも影響します。指向角度を考慮してSpat Revolution内で設定を行い、実際に設置を行った後に微調整が可能な6つのパラメーターが備わっているので、最後のチューニングは音を聴きながら行うのが現実的でしょう。 そのひとつとなるGain Scalingというパラメーターでは、すべてのソースに対して計算されたゲインをスケーリングすることができます。これは例えばフロントフィルなどリスナーに近いWFS直線アレイ配置の場合に有効で、この割合を減らすとラウドスピーカー・ラインの近くに座っている観客のために、1オブジェクトのソースをアレイ全体から、より多くのラウドスピーカーを使って鳴らすことができます。 Spat Revolutionで構成できるWFSアレイは1本だけではありません。会場を取り囲むように4方向に配置すれば、オブジェクトの可動範囲が前後左右の全方位に広がります。またWFSアレイを上下に並行に増やしていくことも可能で、縦方向の定位表現を加えることも可能です。このように映像や演目と音がシンクロナイズするような、かなり大規模なサウンドシステムのデザインにも対応できることがわかります。 📷 会場を取り囲む4つのWFSアレイ。 VendimiaでのSPAT WFS Option 📷 Vendimia 2022 – Mendoza Argentina アルゼンチンのメンドーサで開催される収穫祭「Vendimia」は、ブドウ栽培の業界おいて世界で最も重要なイベントのひとつです。2022年はパンデミック後で初の開催とあって、音楽やエンターテインメントにも大きな期待が寄せられていました。 Vendimiaフェスティバルのサウンドシステム設計を担当し、地元アルゼンチンでシステム・インテグレーションとサウンドシステムのレンタル会社Wanzo Produccionesを経営するSebastian Wanzo氏に今回の会場でのシステム設計について伺うことができました。 Wanzo Producciones / Sebastian Wanzo 氏 Wanzo Producciones 「今年のフェスティバルのサウンドデザイナーとして、様々なステージでのオーディオビジュアル効果をサポートし、臨場感を提供するためにイマーシブ・オーディオプロセッシング・システムの導入を提案しました。」とSebastian Wanzo氏は語ります。 この会場でイマーシブ・オーディオ・プロセッシングを実際に行なっていたのが、リリースされたばかりのWFSアドオン・オプションを備えたSPAT Revolution Ultimateです。Vasco HegoburuとWanzo Productionsが提供する4台のAvid Venue S6LコンソールとMerino Productionsが提供するClair Brothersのシステムに介在し、Vendimiaフェスティバル全体のイマーシブ・システムの核となり、プロセシングを行なっていました。 「横幅が80mを超えるステージで、フロントフィルより前にはスピーカーを配置することができないため、Clair Brothersのスピーカーで6.1chのシステムを定義し、設置しました。」 システムのルーティングとコンフィギュレーションはハイブリッド的なセットアップで、1台のS6Lはオーケストラ専用でステレオミックス用、もう1台のS6Lは全てのエフェクトとエフェクトのオートメーション、そして全てのサウンドタワーにイマーシブのフィードを供給していました。3台目のS6Lはオーケストラのモニター卓として、4台目のS6Lは配信用のミックスに使われました。 「2019年にISSP (Immersive Sound System Panning)ソフトウェアを開発したアルゼンチンのIanina CanalisとDB Technologiesのスピーカーでライブサウンドにおけるイマーシブサウンドを体験した時に、我々の業界の未来がこの方向に進んでいることを実感しました。パンデミック以前は、空港やスタジアムのオープニングセレモニーなど、従来のマルチチャンネル・オーディオ・システムで多くの作品を制作していましたが、パンデミックの最中には、ストリーミングによるショーや、観客の少ないライブショーが増えたため、SPAT Revolutionなどのイマーシブ・オーディオ・プロセッサーの経験値を高めていくことになりました。そして次第に、SPAT Revolutionの無限の可能性を確信するようになったのです。」 フェスティバルにおけるシステム設計は、異なるジャンルの音楽が演奏されること、広い面積をカバーするためにスピーカー・クラスタ間の距離が大きく、クラスタより客席側にはスピーカーの設置が不可能なため、Wanzo氏と彼のチームにとってはとても大きな挑戦でした。 「SPAT Revolutionが提供する様々なパンニング方式を試してきましたが、最終的にライブで最も使用したのはWFS(波面合成)でした。我々は、このWFSオプションのベータテスター・チームに早くから参加しており、Vendimiaフェスティバルのようにクラスター間の距離が離れた会場でも、非常にうまく機能することがわかっていました。また、SPAT Revolutionの芸術的な表現の可能性をより深く理解することで、このフェスティバルでは印象的で一貫した結果を得ることができました。」 Vendimiaフェスティバルのシステムでは、4台のS6Lがそれぞれ異なる役割を担当しており、サウンドデザインとイマーシブシステムにおけるWanzo氏の経験により、全てが相互に補完しあい、連動するシステムを作り上げました。 「システム提案の段階では、Spat Revolutionで9.1.4chのシステムを使った一連のデモンストレーションを行い、プロデューサー、ミュージシャン、技術関係者に実際に音を聴いてもらい、意見をもらう機会を設けました。全ての関係者から好意的な反応をもらい、Vendimiaフェスティバルの大規模なシステムの準備に着手しました。SPAT RevolutionをAvid S6Lサーフェスでコントロールできることが、ここでは非常に重要だったのです。」 Wanzo氏のイマーシブオーディオによるサウンドデザインの独創的なアプローチとVendimiaのセットアップについて、ライブサウンドの未来とライブ・プロダクションにおけるイマーシブオーディオの優位性についてもこうコメントしています。 「厳密に技術的な観点から言うと、カバレージとオーバーラップを得る最良の選択は、より多くのスピーカーシステムを使用することです。これにより、スピーカーのサイズを小さくして、システムのヘッドルームを大きくすることができ、従来のステレオでのミキシングのように、ソースを意図する場所に定位させるために、周波数スペクトラムの中で各ソースにイコライザーを多用する必要がなくなります。」 「ライブサウンドにおけるイマーシブの創造的な可能性は無限であり、これまでにないサウンドスケープの再現と創造が現実のものになっています。これは新しい道のりの始まりであり、Vendimiaフェスティバルにおけるイマーシブ・オーディオ・システムはこのイベントの傑出した演出の一つになったと考えています。」 「このプロジェクトを支えてくれたすべての人たち、特にずっとサポートしてくれたFLUX:: Immersiveチームのスタッフには本当に感謝しています。今後も素晴らしいプロジェクトが待っていますし、SPAT Revolutionは進化を遂げながら、間違いなく私たちのメインツールとして使われ続けるでしょう。」 この記事では主に波面合成を実現するSpat Revolution WFS Optionについて紹介してきましたが、ここ日本で最初にSpat Revolutionが導入されたのは、DAW内では編集が非常に困難だった22.2 chサラウンドに対応したコンテンツの制作がきっかけでした。入出力ともアンビソニックス、バイノーラル、5.1、7.1、Dolby Atomosなど、事実上あらゆるサラウンド・フォーマットに対応できるSpat Revolutionは、制作/ライブの垣根を越えて今後の活用が期待されます。   *ProceedMagazine2022-2023号より転載

Music

Nugen Audio Halo Vision クイックレビュー ~ Pro ToolsとDolby Atmos Render での活用方法も紹介 ~

昨年10月にNuge Audioよりリリースされた新プラグイン、Halo Vision。"Halo"と言えば同社が既にリリースしている、Halo Upmix/Downmixといった製品を思い浮かべる方もいるかもしれませんね。それらはステレオ〜サラウンド〜イマーシブといったフォーマット間のアップミックス/ダウンミックスを行うためのツールでしたが、今回登場したHalo Visonは、イマーシブサラウンド編集に特化した強力なアナライザーです。 今回、NUGEN Audioはこの製品の開発をスタートするにあたり、「イマーシブ・サウンドを視覚的に表示するとしたら、何が求められているのか」を正確に把握するため、多くのエンジニアを対象に詳細な市場調査を行ったとのこと。その結果生まれたのがこのHalo Visionということで期待大です。本記事では、その活用方法を考察してみたいと思います。 ◎自在にカスタマイズ表示可能な7種類のビュー 表示可能な項目は以下の7種類。何だかあまり聞き慣れない単語が並んでいますが、1つずつ見ていきましょう。 - コリレーション・マトリックス - Correlation Matrix - コリレーション・ウェブ - Correlation Web - 周波数ヘイズ - Frequency Haze - ロケーションヘイズ - Location Haze - スペクトル - Spectrum - トゥルーピーク - True Peak - タイムコード - Timecode ◎コリレーションビューで各チャンネルの位相の相関を可視化する 他のプラグインではあまり見かけない表示がこのコリレーション・ウェブとコリレーション・マトリックス の機能だと思います。まず、蜘蛛の巣状のコリレーション・ウェブですが、これはシンプルに位相が反相関状態になっているチャンネル間の線が点灯し、判別できるようになっています。コリレーション・マトリックスはそれをさらに詳しくしたようなもので、各チャンネル間の位相がどのような関係にあるのか、分かりやすく三色で色分けされるようになっています。具体的には、位相の相関がニュートラルな時は黄色、相関状態の時は緑色、反相関状態の時は赤色になります。 メーカーの説明によると、これらはコンテクスト相関、つまり、単純な相関を示しているわけではなく、チャンネル間のレベル差を考慮し、問題となりそうな相関関係のみを洗い出してくれているとのこと。そしてそのしきい値は標準の設定に加え、自分で設定することも可能です。 ■コリレーション・ウェブ - Correlation Web "相関ウェブは、各スピーカー間の接続線でチャンネルのネットワークを表示します。2つのチャンネル間の位相関係が反相関になると、対応する線が赤い線で結ばれます。" ■コリレーション・マトリックス - Correlation Matrix ”コリレーション・マトリックスは、各チャンネル間の位相関係を色別に表示します。より詳細な分析には大きなアーチ型メーターを使用し、ユーザー定義の閾値で反相関の警告を表示します。” ”これらの表示では、デフォルトでコンテクスト相関が使用されます。一般的な相関メーターの計算方法では、2つの信号が非常に反相関しているように見えることがありますが、一方の信号が他方の信号より非常に大きかったり、小さかったりする場合は、それらを同時に混ぜ合わせても特に問題ない場合があります。Contextual Correlationは、このようなレベル差を補正し、問題となりそうな相関関係のみを強調します。” 任意のチャンネルを選択すると関係する線がハイライトされる コリレーション・ウェブの設定画面 コリレーション・マトリックスの設定画面 ◎ヘイズビューでサラウンドフィールド内の周波数とエネルギーを可視化する "Haze "が日本語で「もや」や、「かすみ」を表す通り、サラウンドフィールド内の周波数分布とエネルギー分布を細かい光の粒子で、可視化することができます。これは同社のHalo Upmix/Downmixを触ったことがある方にはおなじみの表示ですね。なんだかんだ言っても、最終判断はやはり自分の耳で行うことになるとは思いますが、こうしてメーターで機械的に視覚化されることで、聴覚上の感覚と照らし合わせて確認することができるようになるというのは、非常に意味があるのではないでしょうか。 ■周波数ヘイズ - Frequency Haze "円形の周波数ヘイズは、低周波数を中心に、高周波数を外周に配置し、サラウンドフィールド全体の周波数分布を表示し、一般的なスピーカーの位置にチャンネルラベルを表示します。" ■ロケーションヘイズ - Location Haze "ロケーション・ヘイズは、オーディオの知覚位置を視覚化するもので、サラウンド・フィールド全体のエネルギー分布を表示し、明るい部分は「エネルギー」が増大していることを示します。" ◎スペクトル/トゥルーピーク/タイムコード 他の表示については普段からDAWをお使いの方にはお馴染みの機能かもしれませんが、周波数帯域ごとの音量を確認できるスペクトル、サンプルピークメーターでは検出できないアナログ波形のピークを検出するトゥルーピーク、そしてタイムコードの表示が可能となっています。表示色のカスタマイズもでき、非常に見やすいUI設計となっています。 ■スペクトル - Spectrum "Combined' モードでは、全てのチャンネルの FFT レベル対周波数グラフを 1 つのスペクトルで表示します。 Groups' モードでは、各チャンネルをいくつかのスペクトラムグループごとに整理することができます。" ■トゥルーピーク - True Peak "True Peakビューは、各チャンネルのTrue Peak dBレベルメーターを表示します。" ■タイムコード - Timecode "Timecodeビューは、現在のホスト/DAWの再生位置に基づいたタイムコードの読み出しを表示します。" スペクトラム表示も細かく設定が可能 チャンネルグループの設定も自由自在 タイムコードは時:分:秒:フレームごとに色の変更が可能 なんと176色から選択可能!色にこだわりがあるという方も安心 ◎用途 ・7.1.2までのサラウンドおよびイマーシブミックスの解析 ・位相相関のチェック ・空間情報の視覚化 ・異なるチャンネル・フォーマットでのミックスの確認 ・慣れないスタジオや音響特性が好ましくない部屋でのミキシング ◎Dolby Atmos制作時の活用方法 Pro Tools 2022.9からの新機能Aux I/O及び Pro Tools Audio Bridgeを活用することで、Dolby Atmos Rendererからの出力をシンプルにPro Tools内に戻すことが可能となりました。これを活用してDolby Atmos Rendererから出力された7.1.2chをPro Tools内に立ち上げ、そこにHalo Visionをインサートすることでメータリングができるようになる、というわけですね。 Aux I/Oの設定方法はAvid Japanが公開しているこちらの日本語Tips動画よりご確認ください。 関連リンク: Rock oN Line eStoreで購入: https://store.miroc.co.jp/product/80930 国内代理店紹介ページ: https://www.minet.jp/brand/nugen-audio/halo-vision/ Nugen Audio紹介ページ: https://nugenaudio.com/halovision/ イマーシブサラウンド制作システム構築のご相談は、実績豊富なROCK ON PROまで。下記コンタクトフォームよりお気軽にお問い合わせください。

Solution

ファシリティの効率的活用、Avid NEXIS | EDGE

コロナ禍になり早くも3年が過ぎようとしています。その最中でも、メーカー各社はリモートワークに対応するために様々なワークフローを紹介していますが、Avidでも今年の始めに新たにリモートビデオ編集のフローを実現するシステムNEXIS EDGEを発表し、満を辞して今秋リリースされました。 クラウド?オンプレ? Avidではこれまでもリモートでのビデオ編集やプレビューをする製品が各種あり、ポストプロダクションのニーズに合わせて、システムを構築できるようにラインナップも取り揃えられています。例えば、Avid Edit On Demandでは、ビデオ編集ソフトMedia ComposerやNEXISストレージをすべてクラウド上に展開し、仮想のポストプロダクションを作ることが可能です。クラウドでの展開は時間や場所を問わず利用できること、使用するソフトウェアの数やストレージの容量の増減を簡単に週・月・年単位で設定し、契約することができ、イニシャルコストがほとんどないことがメリットと言えます。 今回紹介するAvid NEXIS EDGEは先で述べたEdit On Demandのクラウド構築とは異なり、サーバー購入の初期投資が必要になります。クラウド化の進みとともに、CAPEX(設備投資)からOPEX(事業運営費)へという言葉が最近よくささやかれ、今どきオンプレのサーバーは流行らないのでは?という見方はあるかもしれませんが、ポストプロダクション業務としてビデオ編集をする上で、すべてをクラウド上で編集することが必ずしも正解だとは言い切れません。それは、映像データの適切な解像度での再生、正確な色や音のモニタリングに対してクラウド上のシステムではできないこともあるからです。 Avid NEXIS EDGEは、会社内にサーバーを置くオンプレミスでのメディアサーバーシステムとなります。Avid NEXISストレージサーバーを軸にしたシステムとなり、メディアサーバーに加えてWindowsサーバーを追加します。ソフトウェアとしては、Media Composer Enterpriseが最低1ライセンス必要になります。Media Composer EnterpriseライセンスはDP(Distributed Processing)ライセンスが含まれており、プロキシを作成するために使用されます。DPは日本語では分散レンダリングと言われ、ネットワーク上にあるひとつまたはそれ以上のワークステーションを使用して、レンダリングやトランスコード、コンソリデートといったメディア作成の処理を行うことで、編集システムのCPUを使用せずに時間のかかるプロセスを外部で行うことができる機能です。 NEXIS EDGEが持つメリット 📷 NEXIS EDGE Webブラウザのユーザーインターフェース 素材の検索と編集 NEXIS EDGEの特徴は大きく分けて2つあります。1つ目は、NEXIS環境において社内のLAN環境と、汎用のインターネット回線を用いるリモートアクセス機能を簡単に切り替えできることです。つまり、遠隔地にいてもオンプレにあるNEXISサーバにアクセスすることができ、サーバー内にあるシーケンス、ビン、クリップを閲覧、再生、編集することができるのです。クラウドサービスを使用しなくてもクラウドと似た環境を構築することができ、メディアを様々な場所にコピーして分散させずに、オリジナルのメディアを1つの場所に置いて使うことができます。 2つ目は、高解像度メディアとそこから生成されたワーク用のプロキシメディアのメタデータが完全に一致して作られることです。そのため高画質のクリップを用いて編集をしても、プロキシメディアで編集をしても、シーケンスにはどちらのメディアも完全にリンクしており、再生ボタンの切り替えで再生させたいメディアを簡単に選ぶことができます。このシステムでプロキシを作成し、使用することの優位性がいくつかあります。汎用のインターネット回線を介して使用できることがその一つです。そしてプロキシメディアはデータ量も少なくダウンロードするにも時間がかからないため、ダウンロードをしたメディアを使用することができます。いったんメディアをコピーしてしまえば、その後インターネットを接続していなくても、ダウンロードをしたメディアで編集をすることができ、その編集されたビンやシーケンスは、ネットワークのある環境に戻せば、NEXISサーバー内にあるメディアにすぐにリンクすることができます。また、プロキシメディアの優位性はリモート環境で使用することだけではありません。LAN環境でもそのメディアを使うことで、ネットワークの帯域を節約することができます。 ストレージ内のメディアにアクセス ご自身が社内ではない場所にいる場合、社内にあるNEXISメディアサーバーへアクセスするには通常のNEXISクライアントのリモート機能を使い、アクセス権で管理されたワークスペースをマウントします。Media Composerはプロジェクトの作成画面で、Remote Avid NEXISにチェックを入れて起動します。 📷 NEXISへのリモートアクセス ビンに表示されているクリップは、プロキシメディアがあるクリップなのかどうかが一目で分かります。プロキシメディアがない場合には、メディア作成権のあるユーザーがMedia Composerからプロキシメディアを生成させることもできます。プロキシの生成は前述したDPが機能するPCで行うため、Media Composerで作業をしているエディターは編集作業をそのまま続けることができ、プロキシが作成された順にそのメディアを使うことができます。この分散レンダリングは、バックグラウンドでレンダリングを行うDP Workerと呼ばれるPCの数で、プロキシ生成やトランスコード等のタスクを分けることができます。そのためDP Workerの数が多ければ処理も早くなります。また、スタジオ内にあるMedia Composerが使用されていなければ、そのシステムもDP Workerとして使うこともできます。 📷 分散レンダリングでプロキシを作成するメニュー  リモートで接続したMedia ComposerからNEXISストレージ上のメディアを再生するときは、そのメディアの解像度を選択します。NEXISストレージ上にあるクリップには、高画質メディアとプロキシメディアの2つのメディアがリンクされており、Media Composerでどちらのメディアを再生するかを選択することができるため、NEXISストレージに接続されている環境に合わせてメディアを再生できます。 📷 再生のための解像度の選択 みんなでコラボ NEXIS EDGEへのWebアクセスツールでは、クリップやビンへのアクセスはもちろんのこと、簡単なビデオ編集、クリップまたはシーケンスへマーカーやコメントなどを付ける機能があります。アシスタントからプロデューサーまでコンテンツに関わるすべての人々が、簡単な操作で編集作業を効率的に、そして円滑に共有することができます。一方、そのためにメディアの管理にはいっそう気を使わなければなりませんが、そんなときにもNEXIS EDGEではビンロックの機能によるシーケンスやクリップの保護、視聴や編集機能の有無など、ユーザー単位でシステムの機能を制限することができます。 さらに、NEXIS EDGEのPhonetic Indexオプションを使用することで、クリップ内の音声トラックからのキーワード検索をすることができ、素材クリップとそのキーワード箇所を素早く見つけることができます。この機能はWebクライアントでも、Adobe Premiere Proクライアントでも利用することができます。 SRT対応で機能アップ、Media Composer 2022 📷 Media Composerユーザーインターフェース クリップアイコンがオレンジ表示になっている時はプロキシメディアがリンクされている。 今年になり5Gが本格的に普及し、汎用のインターネット回線を使ってのワークフローは今後も増えていくことが期待されます。Media Composerはバージョン2022.4でSRT(Secure Reliable Transport)に対応しました。SRTは以前の本誌でも何回かご紹介したことがありますが、マルチメディア伝送のプロトコルです。2012年にカナダに本社を置くHaivision社によって開発されました。非常に強力な暗号技術を採用し、高い安全性とパケットロスのリカバリ、高画質であることが特徴で、2017年にオープンソース化され、同時に組織化されたSRT Allianceによる推進のもと、今では世界の多様なメーカーによって採用・開発・実装が行われています。コロナ禍で最初は戸惑っていたWeb会議も日常的になりましたが、環境によって回線速度が異なるため、そういったツールでの画質や音質は最低限に抑える必要があり、とてもリアルタイムでのプレビューチェック向きとは言えません。それを回避するためにYouTubeなどを使用することもありますが、設定ミスから意図せず動画が公開されてしまうというリスクはなくなりません。 📷 SRTの設定画面 そういった問題を解決できるのがMedia ComposerでのSRT送信です。Media Composerは内部でSRTのソフトウェアエンコードを行い、リアルタイムでインタネット越しにタイムラインを送信します。SRTを送信するにはMedia Composer内のH/Wボタンから設定を行い、シーケンスを再生するだけです。それを受け取るには、SRTデコーダーを備えたアプリケーションやハードウェアが必要になりますが、フリーのHaivision Playerや VLC Player等を使っても受信することが可能です。そのため、インターネット回線さえあればMedia ComposerのタイムラインをSRTでプレビューできます。例えば、遠方のクライアントに対してプレビューをする時など、前もってファイル転送サービスでファイルを送ったり、YouTubeの限定公開を使うためにファイルをアップロードしたりすることなく、ZoomなどのWeb会議システムで会議をしつつ、タイムラインをプレビューすることができます。そして、プレビュー中に直しがあってもファイルを書き出し直し、そのファイルのアップロードやダウンロードをし直すことなく、まるで編集室で立ち会っているかのようなコニュニケーションを取ることが可能です。 また、10月にリリースされたMedia Composer 2022.10では、Multiplex-IO機能が搭載されました。この機能は、シーケンスをスタジオでモニタリングしながら、同時にSRTやNDIをストリーミングさせることができるため、以前のようにどちらかに接続先を切り替える必要がなくなります。 より良い作品を作ることに必要とされるのが「どんな作品を作るのかという共通の認識」を持つことだとしたら、一番大切なのはコミュニケーションです。スタジオでの立ち合い編集などで時間を共有させてのコミュニケーションも大事ですが、ライフスタイルの変化によって場所も時間も共有できない時には、それを可能にするツールを使ってみてはどうでしょう。NEXIS Edgeはリモート・ビデオ編集を可能にする製品ではありますが、単に在宅作業を促進するためのものではありません。この製品はそう簡単には増やせない編集室の代わりに、場所を選ばない方法で編集作業を可能にするものなのです。   *ProceedMagazine2022-2023号より転載

Media

IP映像伝送規格 NDI®︎ + SRTで実現する!〜高品質、低遅延、利便性、3拍子揃った映像伝送を考察〜

汎用のインターネットを通じて高品質な映像信号の送受信が行える規格が登場し、InterBEEをはじめとする昨今の放送機器展示会でも大きな注目を集めている。例えば、これまで弊誌でも紹介してきたNDIでは、昨夏にリリースされたNDI 5より新たにNDI Bridge機能が追加され、2拠点間をインターネット越しにNDI接続することが可能となった。今回新たにご紹介するのはSRT = Secure Reliable Transport と呼ばれるプロトコルだ。その名の通り、安全(Secure)で、信頼性がある(Reliable)、伝送(Transport)ができることをその特徴とする。本稿では、今後ますます普及が見込まれる2つの規格の特徴についてご紹介するとともに、今年3月に同テーマで開催されたウェビナーのレポートをお届けする。 同一ネットワーク内で即座に接続確立 利便性のNDI まずはNDIの特徴をあらためて確認しておこう。NDIとは Network Device Interface(ネットワーク・デバイス・インターフェース)の略称で、その名の通り、ネットワークで接続されたデバイス間で映像や音声をはじめとする様々な信号を送受信可能とする通信規格の一種だ。2015年9月のIBC Showにて米国NewTek社により発表されて以降、1年〜2年のスパンで精力的にメジャーアップデートが行われており、2022年現在は昨年6月に発表されたNDI 5が最新版となっている。このバージョンより、待望されていたインターネットを超えてのNDI接続を可能とするNDI Bridge機能が実装され、その裾野は着実に広がりを見せている。 SMPTE ST-2110が非圧縮映像信号のリアルタイム伝送を目的として策定されたのに対し、NDIは圧縮信号の低遅延 ・高効率伝送を前提とし、利便性を重視したような設計となっているのが大きな特徴だ。具体的には、例えば1080i 59.94のHD信号であれば100Mbit毎秒まで圧縮して伝送することにより、一般的なLANケーブル(ギガビットイーサネットケーブル)でも複数ストリームの送受信ができるというメリットを実現している。当然ながら10Gbイーサネットケーブルを使用すれば、より多くのストリームの送受信も可能だ。 NDIには、大きく分けると2つのバージョンがあり、スタンダードな"NDI"(Full NDI、Full Bandwith NDIとも呼ばれる)と、より高圧縮なコーデックを用いる"NDI | HX"というものが存在する。前者のFull NDIではSpeedHQと呼ばれるMPEG-2と似たような圧縮方式を採用しており、ロスレスに近い高品質ながら1フレーム以下の超低遅延な伝送が可能なため、海外では既にスポーツ中継などの放送現場で活用が始まっている。このNDI向けのソフトウェア開発キット(SDK)はオンラインで公開されており、個人の開発者でもロイヤリティフリーで使用することができる。 一方、後者のNDI | HXは、MPEG-2の2倍の圧縮率をもつH.264や、さらにその2倍の圧縮率をもつH.265といった圧縮方式を採用し、無線LANなど比較的帯域が狭いネットワークで安定した伝送を行うのに向いている。対応のスマートフォンアプリなども数多くリリースされており、スマホカメラの映像やスクリーンキャプチャーをケーブルレスで他のデバイスに伝送できる点が非常に便利だ。こちらのNDI | HXの使用に関しては、現在有償のライセンスが必要となっている。ちなみに、この"HX"というのはHigh Efficiency (高効率)を意味するそうだ。 また、NDIの利便性向上に一役買っている機能として、デバイス間のコネクション確立時に使用されているBonjour(ボンジュール)という方式がある。これは、あるネットワーク内にデバイスが接続された際、自身のサービスやホスト名を同一ネットワーク内にマルチキャストすることで、特に複雑な設定を行わなくとも他のデバイスからの認識を可能とする、Apple社開発・提供のテクノロジーだ。同じくBonjourを採用しているDante対応製品に触れたことがある人はそのイメージがつくだろう。 通常のDNS = Domain Name System においては、例えばDNSサーバなどの、ドメイン名とIPアドレスを変換する仕組みを提供するサーバーが必要となるが、このBonjourにおいては、mDNS = multicast DNSという方式を用いることで、デバイス同士の通信のみでホスト名の解決を行うことが可能となる。仮に、映像スイッチャーソフト等から、ホスト名ではなくデバイスのIPアドレスしか見ることができなかったらどうなるだろうか。「192.168.〇〇.〇〇〜」という数字がずらっと羅列されていても、それがどのデバイスか瞬時に把握することは困難を極めるだろう。そうではなく、「yamadataro-no-macbook.local」「yamadataro-no-iphone.local」といったホスト名が表示されることにより、我々人間にとって分かりやすく、使い勝手の良いインターフェースが実現されている。 やや話が逸れてしまったが、簡潔にまとめるとNDIの魅力は気軽に伝送チャンネルを増やせる柔軟性と、ネットワークに繋げばすぐホスト名が見えてくるという扱いやすさにある。SDKがオープンになっていることにより、vMixやWirecast、OBSなどの配信ソフトや、Media ComposerやDaVinci Resolve、Final Cut Proといった映像編集ソフトでも採用され、数あるVoIP規格の中でもまさに筆頭格とも呼べる勢いで放送・配信・映像制作現場での普及が進んでいる。弊社LUSH HUBの配信システムでも、NewTek TriCasterを中心としたNDIネットワークを構築しているが、従来のSDIやHDMIケーブルと比べ、LANケーブルは長尺でも取り回しが容易である点や、スマホカメラの映像を無線LANでスイッチャーに入力できる点は非常に便利だと感じており、個人的にもNDI導入を積極的にアピールしたいポイントとなっている。 セキュアかつ高品質低遅延な映像伝送を低コストで実現 品質重視ならSRT SRTもNDI同様のマルチメディア伝送プロトコルの一種で、2012年にカナダに本拠地を置くHaivision社によって開発、翌2013年のIBC Showで初めて一般向けのデモンストレーションが行われた。SRTはSecure Reliable Transport (セキュア・リライアブル・トランスポート)の略称で、その名の通り、より安全(Secure)で、信頼性がある(Reliable)、伝送(Transport)ができることをその特徴とする。それまで遠隔地へ安全に高画質な映像伝送を行うための手段としては、衛星通信やダークファイバー(専用回線)を用いた方法が一般的だったが、伝送コストが高額となることが課題だった。その課題を解決するため、「汎用のインターネット回線を使ってセキュアで高品質な映像伝送したい」というニーズのもとにSRTは誕生した。2017年よりGitHubにてオープンソース化、同時期にSRT Allianceがスタートし、現在ではMicrosoftやTelestream、AVIDを含む500社を超えるメーカーがその開発に参加している。 それではSRTの技術的特徴を具体的に見ていこう。まず安全性に関する技術については、AES(Advanced Encryption Standard)と呼ばれる、世界各国の政府機関などでも採用されている非常に強力な暗号化技術を採用している。SRTの場合AES-128、AES-256に対応しており、付随する数字は暗号化に用いる鍵の長さのbit数を意味している。一般的な暗号化技術において、この鍵長が長いほど第三者による暗号解読が困難になる。仮にAES-256を使用した場合、2の256乗、10進数にしておよそ77桁にも及ぶということを考えると、AES暗号化の突破がいかに困難なことか、その片鱗をご理解いただけるだろう。この強力な暗号化が、通信だけでなく、伝送しているコンテンツそのものに対しても適用されるため、万が一通信パケットを盗聴されたとしても、その中身までは決して解読されることはないだろう。 信頼性については、パケットロスに対するリカバリ機能を備えていることにより、不安定なネットワーク状況下でもほとんどコマ落ちすることのない高品質な映像伝送を実現している。一体なぜそのようなことが出来るのか?その秘密は、低遅延な通信方式であるUDP(User Datagram Protocol)と、データの誤りを制御するためのARQ(Automatic Repeat reQuest [またはQuery] )と呼ばれる機能を組み合わせるという工夫にある。この工夫についてより理解を深めるには、まずはTCP/IPモデルにおけるトランスポート層に位置するプロトコル、TCP(Transmission Control Protocol)とUDPの違いについて触れておく必要がある。 ●TCP、UDPって何? TCPはコネクション型と呼ばれるプロトコルで、データ受信後にACK(アック)という確認応答を送信元に返すことで通信の信頼性を保証する仕組みになっている。そのような確認応答を行なったり、データが届かなかった場合に再送処理を行なったりするため、通信経路の品質が低い場合には比較的大きな遅延が生じるというデメリットがあるが、電子メールなど確実性が重視される用途で主に使われている。ちなみに一昔前まで普及していたAdobe Flash Playerでは、このTCPをベースとしたRTMP(Real Time Messaging Protocol)と呼ばれる通信方式が採用されている。 対するUDPはコネクションレス型のプロトコルで、TCPのように確認応答を返さず、データの再送も行わないため通信効率の面ではこちらが有利だ。いわばデータを通信相手に送りっぱなしにするようなイメージになる。パケットヘッダのサイズを比較しても、TCPは20バイト使うのに対し、UDPは8バイトと小さいため、そもそも送受信する情報量が少ない。ただし、通信経路の品質が低い場合には遅延こそ少なかれ、伝送するコンテンツ自体の品質の劣化が避けられないという欠点がある。そうした理由で、例えばライブ配信やIP電話やなど、確実性よりもリアルタイム性が重視される用途で使われることが多い。 簡単に言うとSRTでは即時性に優れたUDPをベースとしながらも、信頼性に優れたTCPのようなデータの再送要求の仕組みを上位層のアプリケーション層で上手く取り入れている。それが前述したARQである。一般的に、こうしたメディア伝送においては、送り手側となるエンコーダーと受け手側となるデコーダーのそれぞれに多少のバッファーが設けてあり、受け手側はそのバッファー内でパケットの並べ替えなどの処理を行った後、デコーダーにパケットを転送している。 従来型のRTMPでは下りのトラフィック帯域の低下を防ぐため、パケットを受け取るたびにACKを送り返すのではなく、シーケンス、つまり一連のパケットのまとまり毎に応答確認を行う。もしそのシーケンス内でパケットロスが生じていた場合、再度そのシーケンス丸ごと再送が必要となり、その分のタイムロスが生じてしまう。一方、SRTでは受け手側でパケットロスが判明した時点で、その特定のパケットのみを即座に送り手側に再送要求することができる。これが高画質低遅延を実現するための重要なポイントだ。無事に再送されてきたパケットはバッファー内で適切に再配置された後にデコード処理されるため、オリジナルの品質に極めて近い綺麗な映像を受信できるという仕組みだ。ちなみにこのバッファーのサイズは数ミリ秒〜数十秒の範囲で設定できるようになっているため、通信状況に合わせて変更が可能だ。 また、RTMPとSRTのもう一つの大きな違いはパケットヘッダーにタイムスタンプを持てるかどうかである。RTMPでは個々のパケット毎にはタイムスタンプが押されていないため、受信した各パケットを一定の時間内にデコーダーに転送する必要がある。 その際、不安定になりがちなビットレートを安定化させるために、ある程度のバッファを設定する必要が生じる。一方SRTでは、個々のパケット毎に高精度なタイムスタンプが押されているため、受信側で本来の信号特性そのものを再現できるようになる。これにより、バッファリングに要する時間が劇的に短縮されるというメリットもある。 まとめると、SRTの魅力は、従来の衛星通信や専用回線での通信と同レベルの、安全性が高く、極めて高品質な映像伝送を比較的低コストで実現できる点にある。活用が考えられるケースとしては、例えばテレビ番組の生中継などで、「汎用のビデオ会議ツールなどでは満足のいく品質が得られない、かといって衛星通信や専用回線ほどの大掛かりなシステムを構築する予算はない」といった状況に最適なソリューションではないだろうか。 Webiner Report !! 〜2拠点間を実際にSRTで接続しながら生配信するという初の試み〜 今年3月初旬、ROCK ON PRO とアスク・エムイーの共催にてウェビナー『NDI & SRT を活用した映像伝送 〜SRTで2拠点間をつないでみよう!〜』が開催された。本ウェビナーでは、渋谷区にある弊社デモスペース「LUSH HUB」と千代田区のアスク・エムイーショールーム「エースタ」間を、オンライン会議ツールZOOMおよびAJA社の高性能マルチチャンネルビデオエンコーダー BRIDGELIVEを使ってSRT接続し、両拠点からそれぞれのYou Tubeチャンネルで生配信するという、おそらく国内ウェビナー史上初となる試みが行われた。ウェビナー内ではNDIとSRTの概要説明のほか、インターネット越しのNDI接続を可能とするNDI Bridge や、NDIネットワーク内で音声のみの伝送を可能とするNDI Audio Direct の動作も紹介。それぞれの規格がどのような場面での使用に適しているか、またそれらを組み合わせることで生まれる利点についてのプレゼンテーションが行われた。 ROCK ON PRO & アスク・エムイー共催 NDI & SRT を活用した映像伝送 〜SRTで2拠点間をつないでみよう!〜 配信日:3月2日 (水) 16時〜17時 株式会社アスク アスク・エムイー/テクニカルサポート 松尾 勝仁 氏 株式会社リーンフェイズ アスク・エムイー/マーケティングマネージャー 三好 寛季 氏 株式会社メディア・インテグレーション ROCK ON PRO / Product Specialist 前田 洋介 ●エースタ側配信 https://youtu.be/NK8AN1UsCRo ●LUSH HUB側配信 https://youtu.be/PzibZ3wKPDQ ●System:当日の接続システム NDI Bridge、SRT、ZOOMを活用し、3拠点間のコミュニケーション、2拠点から同時配信という内容となる今回のウェビナーについて、まず、ROCK ON PRO 前田洋介より接続システムについての解説が行われた。やや複雑だが図にすると次のような形となる。(下図 )まず、講師陣がいる場所は渋谷のLUSH HUB、千代田区半蔵門のエースタ、そして今回リモート出演となった前田洋介が訪れているRockoN梅田の3拠点となる。3拠点間のコミュニケーションおよび音声の入力には汎用のツールとして使い勝手が良いZOOMを採用。さらに、LUSH HUBとエースタの2拠点間においては、AJA BRIDGE LIVEによるSRT接続とNewTek NDI Bridge接続が並行して確立されており、相互にSRTで高品位な映像伝送を行つつ、相手方のTriCasterの操作も可能となっている。その上で、両拠点からYou Tube Liveへの最終の配信エンコーディングが行われている。 ●Digest1:NDIのメリット まずはアスク・エムイー三好氏より、NDIについての解説が行われた。NDIの最大の特徴は、対応するデバイスやソフトウェア間で、映像、音声、制御などの様々な信号をWi-Fi接続やネットワークケーブル一本で伝送できてしまう点だ。SDK(ソフトウェア開発キット)が無償公開されていることもあり、対応するソフトウェアスイッチャーやスマートフォン向けのカメラアプリなども様々登場している。 ●Digest2:NDI Tools オンラインで無償配布されているNDI Toolsには、NDI信号をWebカメラのソースとして使えるWebcam InputやTriCasterを遠隔操作できるNDI Studio Monitor、インターネット越しのNDI接続を可能とするNDI Bridgeなどが含まれている。WIndows版の方が開発が早かったり、Final CutなどMac版にのみ対応しているソフトウェアもあるため、Win版とMac版でラインナップが異なっている。 ●Digest3:NDI5から新たに追加されたNDI Bridge NDI5から新たに追加された目玉機能の一つがNDI Bridgeで、これによりインターネット越しにNDI接続を行うことが可能となった。現時点ではWin版のみの対応となるが、遠隔地のNDIソースを受信したり、TriCasterやPTZカメラをソフトウェアパネル上からリモートコントロールしたりすることができる。実際にウェビナー内でこのデモンストレーションを行なっているシーンを是非ご覧いただきたい。LUSH HUBにいる松尾氏のPCから、半蔵門エースタのNDIソースが一覧となって表示されている様子が確認できる。さらに、TriCasterの画面に進むと、画面左上にKVMのボタンがあり、これをクリックすることでそのままTriCasterの遠隔操作が可能になるという驚きの手軽さだ。コロナ禍以降、ライブ配信の需要が急速に高まっており、配信のオペレーター不足なども懸念されるが、こうした機能を活用していくことで解決できる課題は山ほどあるだろう。 ●Digest4:SRTとはどのようなものか 続いて、SRTに関する説明だ。SRT = Secure Reliable Transportの略称で、Haivision社が開発した。不安定なネットワーク環境でも高品質なライブ映像を実現することを目標に、変動するネットワーク帯域幅を考慮し、映像の整合性や品質を維持するための様々な機能が備わっている。NDI同様オープンソース化されているが、こちらはソフトウェアだけでなくハードウェアへの組み込みもロイヤリティーフリーとなっている。 ●Digest5:NDIとSRTを併用するメリット ここでNDIとSRTの違い、併用するメリットについて話題が移る。NDIは元々、単一ネットワーク内での利便性向上を重視して作られ、後からインターネット越えが可能となった。一方、SRTは開発当初から遠隔地への安定した映像伝送を目標として開発されている。したがって、これらを比較対象として同列に並べるのはそもそも誤りで、むしろ、適材適所で併用することで相乗効果を発揮できる。つまり、NDIとSRTを併用することで「品質をとるか利便性をとるか?」というトレードオフを打破できるわけだ。 ●Digest6:実際にNDIとSRTを組み合わせると その一例がまさに、先に説明した本ウェビナーのシステムそのものだ。NDI Bridgeを活用してカメラやスイッチャー等のリモートコントロールを行いつつ、配信用の映像本線はSRTを使って高画質を実現することができる。(図9)また、その上でZoomなどのオンライン会議ツールを併用すれば、2拠点間のコミュニケーションはもちろん、その場に不在の参加者との連絡も容易だ。 ●Digest7:気になる実際の画質を比べてみる やはり誰もが気になるのが実際の画質についてだと思われるが、ウェビナー中盤からSRT経由の映像、NDI経由の映像、そしてZoom経由の映像を横並びにした配置をご確認いただけるようになっている。左がSRTで受信している映像、中央がNDIで構築したLAN内の映像、右がZoomで受信している映像だ。残念ながら同じカメラで撮影している訳ではないため厳密な比較とは言えないかもしれないが、SRT経由の映像は、ZOOMと比べ、ローカルのNDIとほとんど遜色ない高画質な映像となっているのが確認できる。 日進月歩で発展し続けるIP映像伝送テクノロジーの中でも、本稿では特に注目すべき2つの規格、NDIとSRTについてご紹介した。従来のSDIにとって代わり、とことん利便性を追求したNDIと、衛星通信や専用回線にとって代わり、汎用のインターネットでも高品質低遅延での映像伝送実現を目指したSRT。これらについて議論されるべきなのは、「どちらを使うか?」ではなく、「どのように組み合わせて活用していくか?」という点である。今回我々がみなさんにご提案させていただいたシステムはあくまでほんの一例で、こうしたIP伝送テクノロジーを適材適所に活用することで、世界中の放送・配信の現場それぞれに特有の問題を解決できるのではないかという大きな可能性を感じている。技術的ブレイクスルーによる恩恵、そして新技術を積極的に取り入れ、既存の技術とうまく組み合わせていくことで、これまでなかなか避けられなかったトレードオフも、今後次々と打破されていくことを期待したい。   *ProceedMagazine2022号より転載

Media

360 Reality Audio + 360 WalkMix Creator™ 〜全天球4πの世界をオブジェクトベースで描く〜

世界中で始まった実際の配信サービスインから早くも2年が経過、国内でのサービスインからも1年が経過した360 Reality Audioの世界。そしてその制作ツールとなる360 WalkMix Creator™がついに国内で販売開始される。その拡がりもついに第2段階へと突入した360 Reality Audio、360 WalkMix Creator™で実現する新機能のご紹介とともに、360 Reality Audioの現在地をご案内していく。 Chapter 1:360 Reality Audioを構築する ●全天球4πを実現する360 Reality Audio 本誌でも、その詳細を伝え続けているソニー 360 Reality Audio。完全な4π空間へのフルオブジェクト配置による立体音響フォーマットとして、その魅力は高いものであることはすでにおわかりではないだろうか。先行してスタートしているDolby Atmos、Auro 3Dは、ご存知のように「映画」をそのベーシックとして登場している。そのため、これまでの5.1chサラウンドを踏襲し、それを発展させる形で立体音響を実現している。これは、既存設備、映画館、劇場との互換性という観点から重要なポイントであり必要不可欠な要素だった。しかしソニー 360 Reality Audioは、映像とは切り離して考えられ、音楽を楽しむためのフォーマットとして登場している。そのため、これまでの立体音響が辿ってきた経緯とは関係ないところで、理想の音楽を入れるための器として誕生している。北半球とも呼ばれる上半分の2πだけのフォーマットではなく、下方向も含めた全天球4πを実現し、チャンネルベースを廃棄した完全なるオブジェクトベースのフォーマットだ。 Dolby Atmosなど他の立体音響フォーマットとの最大の違い、それは南半球があるということである。南半球に音を配置して効果はあるのか?下方向からの音、それに意味はあるのか?これは、今後様々な音源がリリースされ、その効果の程やクリエイターの考え、感覚により活用が行われていくものだろう。リフレクションを加えることで床を作る、低音楽器を下方向から鳴らすことで重心を下げる、様々なアイデアがありそうだが、まずは表現できる空間が単純に倍になったということは、歓迎すべき素晴らしいことではないだろうか。北半球のみの2π srに対し、全天球4π srは単純に倍の表面積であり、その表現できる範囲も倍であるということだ。これをどのように使いこなすのかという議論はまさにこれから行われていくこととなるだろう。 今までのステレオをヘッドホンで再生すると、頭の中に定位する「頭内定位」となる。言い換えれば右耳から左耳の間に音があるように感じるということだ。これをソニー 360 Reality Audioではヘッドホンで聴いているが、擬似的に頭の周りから音が鳴っているような感覚「頭外定位」を実現している。スピーカーで視聴するための準備が様々に進んできてはいるが、その体験を行う一番簡単な方法はやはりヘッドホンでの再生となる。いま音楽を楽しむ方法として一番シェアの高いヘッドホン/イヤホンでの視聴、それをターゲットにした音楽の体験、それがソニー 360 Reality Audioだ。 ●チャンネルベースからの脱却、スピーカー配置の自由 チャンネルベースからの脱却というのも、360 Reality Audioの先進性の現れであると言えよう。冒頭でも述べたように、既存フォーマットとの下位互換性を考えることなく、純粋に次のステップへと歩みを進めた360 Reality Audio。これにより手に入れたのは、スピーカー配置の自由ということになる。クリエーター向け360 Reality Audio HPには、推奨環境としてこのようなスピーカー配置がのぞましいということが明記されている。ただ、これはあくまでもスピーカー配置の一例であり、その全てではない。360 Reality Audioの動作原理から言えば、スピーカーの配置位置、本数、そういった制約は無い。ただし、その音源の再現のために最低限これくらいの本数があったほうが確認を行いやすいという。また、360 WalkMix Creator™での制作時ではスピーカーの出力数を選択し、そのプリセットで選択された本数で再生を行うこととなる。 このスピーカーの配置の自由というのは、これから立体音響に向けてスタジオへスピーカーを増設しようとお考えの方には重要なポイントだろう。水平方向、天井は工夫によりなんとかなるケースが多いが、下方向に関しては、前方に3本(L,C,Rchの位置俯角-30度)設置が推奨されている。一般的に下方向のスピーカー設置となると、それらを遮るようにコンソールや作業用のデスクがあることが多いわけだが、これを左右90度の位置に俯角-30度で設置であれば、実際にレイアウトすることもかなり現実味があるのではないだろうか。 チャンネルベースのソースを持たない360 Reality Audioはフルオブジェクトであるため、スピーカーに対してのレンダリングアウトは自由である。そこにスピーカーがあるとわかるようなスピーカープリセットがあれば良いということになる。なお、スピーカー配置は自由だと書かせていただいたが一つだけ制約があり、それぞれのスピーカーは等距離に設置されている必要がある。ただし、これに関してはDelay調整により距離を仮想化することである程度解消できるものである。 ●Dolby Atmos、360 Reality Audioコンパチブル 自由と言われると、実際どうして良いのか混乱を招く部分もあるかもしれない。360 Reality Audioに対応したスタジオのスピーカーアレンジの一例をご紹介するとなると、Dolby Atmosとの互換性を確保したシステムアップというのが一つの具体的な事例になる。 360 Reality Audioは前述の通り、スピーカー配置に関しては自由である。ということは、Dolby Atmosに準拠したスピーカーレイアウトを構築した上で、そこに不足する要素を追加すればよいということになる。具体的には、Dolby Atmosには無い南半球、下方向のスピーカーを増設すればよいということだ。360 Reality Audioの推奨としては、前方L,C,R(30度,0度,-30度)の位置に俯角-30度で設置となっているため、この3本を追加することでDolby Atmosと360 Reality Audioに対応したスタジオを構築できる。以前のスタジオ導入事例でご紹介したソニーPCLのスタジオがまさにこの方法での対応となっている。 📷デスクの前方にはスクリーンが張られており、L,C,Rのスピーカーはこのスクリーンの裏側に設置されている。スクリーンの足元にはボトムの3本のスピーカーが設置されているのがわかる。リスニングポイントに対して机と干渉しないギリギリの高さと角度での設置となっている。 前方下方の設置が難しい場合には、左右下方で対応することも一案である。下方、俯角のついた位置への設置は360 Reality Audioの音像をスピーカーで確認する際には必須の要素である。少なくとも左右へ2本がないと、パンニングの再現があまりにも大雑把になってしまうため、最低2本以上の設置と考えていただきたい。ただ、その設置に関しては前方L,R30度の位置が必須ということではない。この位置がなぜ推奨位置なのかは、後述するエンコードの解説を読んでいただければご理解いただけるだろう。スピーカー配置の自由、という360 Reality Audioの持つ美点は、これから先の進化の中で本当の意味で発揮されるものだからだ。 Chapter 2:BrandNew!! 360 WalkMix Creator™ ●エンコーダーを手に入れファイナルデータまで生成 360 Reatily Audio Creative Suiteとして登場した360 Reality Audioの制作ツールが、2022年2月に360 WalkMix Creator™へと名称を変更し、それと同時に大きな機能追加が行われた。360 Reatily Audio Creative Suite時代に作成できる最終のデータは、360 Reality Audioの配信用データであるMPEG-H 3D Audioに準拠した360 Reality Audio Music Formatではなかった。この360 Reality Audio Music Formatへの最終のエンコード作業は、別のアプリケーションで実施する必要があった。360 WalkMix Creator™では、ついに悲願とも言えるこのエンコード機能を手に入れ、360 WalkMix Creator™単体でのファイナルデータ生成までが行えるようになった。テキストで表現すると非常にシンプルではあるが、実作業上は大きな更新である。 これに続く、最後の1ピースはその360 Reality Audio Music Formatデータの再生用のアプリケーションだ。360 WalkMix Creator™の登場で、最終データを生成することはできるようになった。そのデータを確認するためにはArtist ConnectionにアップロードしてArtist Connectionのスマートフォンアプリで360 Reality Audioとして再生ができる。 📸 360 Reatily Audio制作のワークフローはこのような形になっている。パンニングの部分を360 WalkMix Creator™で行うということ以外は、従来のミキシングの手法と大きな違いはない。編集、プラグイン処理などは従来通り。その後の音を混ぜるというミキサーエンジン部分の機能を360 WalkMix Creator™が行うこととなる。ミキシングされたものはエンコードされ、配信用の音源として書き出される。リスナーが実際に視聴する際のバイノーラル処理は、リスナーの使用するプレイヤー側で行うこととなる。 ●エンコードでサウンドの純度をどう保つか では、改めて360 Reality Audioの配信マスターであるMPEG-H 3D Audioに準拠した360 Reality Audio Music Formatへのエンコードについて説明していきたい。360 WalkMix Creator™で扱うことができるオブジェクト数は最大128個である。エンコードにあたっては、10~24オブジェクトにプリレンダリングして圧縮を行うことになる。せっかく作ったオブジェクトをまとめるということに抵抗があるのも事実だが、配信という限られた帯域を使ってのサービスで使用されるということを考えると欠かすことができない必要な工程である。360 WalkMix Creator™では多くの調整項目を持ち、かなり細かくそのチューニングを行うことができる。マスターデータは非圧縮のまま手元に残すことはできるので、いつの日か非圧縮のピュアなサウンドを360 Reatily Audioのエンドユーザーへ提供できる日が来るまで大切に保管しておいてもらいたい。 360 Reality Audio Music Formatへのエンコードを行うにあたり10~24オブジェクトへプリレンダリングして圧縮を行うということだが、その部分を更に詳しく説明していこう。実際には、配信事業者の持つ帯域幅に合わせて4つのレベルでのエンコードを行うこととなる。プリレンダリングはStatic ObjectとDynamic Objectの設定をすることで実行できる。Static Objectはその言葉の通り、固定されたオブジェクトである。この際に選択できるStatic Object Configurationは複数種類が用意されており、ミキシングにおけるパンニングの配置に合わせて最適なものを選択することができるようになっている。デフォルトでは、4.4.2 Static Objectで10オブジェクトを使用し、各Levelの最大オブジェクト数まではDynamic Objectに設定できる。Dynamic Objectはそのトラックを単独のObjectとして書き出すことで、360 WalkMix Creator™上でミキシングしたデータそのままとなり、Static Objectは360 WalkMix Creator™にプリセットされている様々なStatic Object Configurationに合わせてレンダリングアウトが書き出される。 📸 エンコードの際には、こちらの画面のように6種類のデータが書き出される。Level 0.5~3までは本文で解説をしているのでそちらをご参照いただきたい。それ以外の項目となるプリレンダリングは360 Reality Audio Music Formatへエンコードする直前の.wavのデータ、要は非圧縮状態で書き出されたものとなる。選択スピーカー別出力は、モニターするために選択しているスピーカーフォーマットに合わせた.wavファイルの書き出し。例えば、5.5.3のスピーカー配置で視聴しているのであれば、13chの.wavファイルとして各スピーカーに合わせてレンダリングされたものが出力される。 Static Object Configurationのプリセットはかなりの種類が用意されている。前方へ集中的に音を集めているのであれば5.3.2、空間全体に音を配置しているのであれば4.4.2、推奨の制作スピーカーセットを再現するのであれば5.5.3など実音源が多い部分にStatic Object が来るように選択する。いたずらにオブジェクト数の多いものを選択するとDynamic Objectに割り振ることができるオブジェクト数を減らしてしまうので、ここはまさにトレードオフの関係性である。もちろん、オブジェクト数の多いStatic Objectのプリセットを選択することで空間の再現性は向上する。しかし、単独オブジェクトとして存在感高く再生が可能なDynamic Object数が減ってしまうということになる。基本的に音圧の高い、重要なトラックをDynamic Objectとして書き出すことが推奨されている。具体的には、ボーカルなどのメロディーがそれにあたる。それ以外にも特徴的なパンニングオートメーションが書かれているトラックなどもDynamic Objectにすることで効果がより良く残せる。Static Objectに落とし込まずに単独のトラックのままで存在することができるためにそのサウンドの純度が保たれることとなる。 ミキシングをおこなったトラックごとにStaticとするのか、Dynamicとするのかを選択することができる。このStatic/Dynamicの選択、そしてStatic Object Configurationのプリセットの選択が、エンコード作業の肝となる。この選択により出来上がった360 Reality Audio Music Formatのデータはかなり変化する。いかに360 WalkMix Creator™でミックスしたニュアンスを余すことなくエンコードするか、なににフォーカスをするのか、空間をどのように残すのか。まさに制作意図を反映するための判断が必要な部分となる。 ●Static Object Configuration設定一覧 これら掲載した画面が360 WalkMix Creator™で選択できるStatic Object Configurationのプリセット一覧となる。プリセットされたレンダリングアウトの位置は、できる限り共通化されていることもこのように一覧すれば見て取ることができるだろう。基本はITU準拠の5.1ch配置からの拡張であり、Dolby Atmosを意識したような配置、AURO 3Dを意識したような配置もあることがわかる。5chサラウンドの拡張の系統とは別に、開き角45度のグループもあり、スピーカー間が90度で等間隔になる最低限の本数で最大の効果が得られるような配置のものも用意されている。   下方向をどれくらい使っているのか?上空は?そういった観点から適切なプリセットを選ぶことで再現性を担保し、重要なトラックに関してはDynamic Objectとして独立させる。Static Objectを多くすればその分全体の再現性は上がるが、使えるDynamic Objectのオブジェクト数が減ってしまう。これは難しい判断を強いられる部分ではあるが、トレードオフの関係となるためあらかじめ念頭に置いておくべきだろう。この仕組みを理解して作業にあたることで、よりよい状態の信号を360 Reality Audio Music Formatファイルで書き出すことが可能となる。 Chapter 3:360 Reality Audioの現在地 Dolby Atmosとの互換性 昨年の空間オーディオのサービスインから、注目を集めているDolby Atmos Music。そのフォーマットで制作した音源と360 Reality Audioの互換性は?やはりイチから作り直さなければならないのか?制作者にとって大きなハードルになっているのではないだろうか。フォーマットが増えたことにより作業量が倍増してしまうのでは、なかなか現場としては受け入れがたいものがあるのも事実。実際のところとしては、Dolby Atmosで制作した音源をRenderingしたWAVファイルを360 WalkMix Creator™でそのチャンネルベースの位置に配置することで再現することが可能である。その際にできる限り多くのスピーカーを使用したWAVをDolby Atmos Redererから書き出すことでその再現性を高めることも可能だ。なお、逆パターンの360 Reality AudioからDolby Atmosの場合には、南半球の取り扱いがあるためそのままというわけにはいかない。どうしても行き先のないトラックが出てきてしまうためである。 📸 360 WalkMix Creator™上でDolby Atmosを展開する一例がこちら。Dolby Atmosから7.1.4のレンダリングアウトを.wavで出力し、360 WalkMix Creator™内に配置したしたという想定だ。さらにチャンネル数を増やすことも可能(Atmos Rendererの最大レンダリング出力は11.1.10)だが、今回はわかりやすくベーシックなものとしている。ここでの問題はLFE chだ。 360 Reatily AudioにはLFEが存在しないため、少し下方向から再生することで効果的に使用することができるのではないか。LFEに関しては特に決まりはないため耳で聴いてちょうどよいバランスに合わせる必要がある。 Dolby Atmos Redererからは、最大11.1.10chの書き出しが可能である。360 Reality AudioにはLFE chが用意されていないため、ここの互換性に注意すれば、南半球は無いがかなり高いレベルでの互換を取れた状態が確保されていると言えるだろう。360 WalkMix Creator™に11.10.0というStatic Objectのプリセットがあれば完璧なのだが、次のアップデートでの実装に期待したいところである。また、Rendering Outを行う際にVocalなどDynamic Objectにアサインしたいものだけを省いておくことでDynamic Objectも活用することができる。もちろん、ワンボタンでという手軽さではないが、イチからミックスをやり直すことなく同等の互換性を確保することが可能なところまできている。 日進月歩の進化を見せる360 Reality Audioの制作環境。制作のための全てのコンポーネントがもうじき出揃うはずである。そして、制作物をユーザーへデリバリーする方法も整ってきている。双璧をなすDolby Atmosとの互換性など制作のノウハウ、実績も日々積み上げられていっているところだ。まさにイマーシブ・オーディオ制作は第2フェーズへと歩みを進めている。ぜひともこの新しい世界へと挑戦してもらいたい。 360 WalkMix Creator™ ¥64,900(税込) ソニー 360 Reality Audioを制作するためのツールがこの「360 WalkMix Creator™」。AAXはもちろん、VST / AUにも対応しているため、ホストDAWを選ばずに360 Reality Audioのミキシングを行うことができる。 製品購入ページ(RockoN eStore) 製品紹介ページ クリエーター向け 360 Reality Audio HP   *ProceedMagazine2022号より転載 https://pro.miroc.co.jp/headline/comparison-of-atmos-360ra/

Music

Sound on 4π Part 4 / ソニーPCL株式会社 〜360 Reality Audioのリアルが究極のコンテンツ体験を生む〜

ソニーグループ内でポストプロダクション等の事業を行っているソニーPCL株式会社(以下、ソニーPCL)。360RAは音楽向けとしてリリースされたが、360RAを含むソニーの360立体音響技術群と呼ばれる要素技術の運用を行っている。昨年システムの更新を行ったMA室はすでに360RAにも対応し、360立体音響技術群のテクノロジーを活用した展示会映像に対する立体音響の制作、360RAでのプロモーションビデオのMA等をすでに行っている。 独自のアウトプットバスで構成されたMA室 ソニーPCLは映像・音響技術による制作ソリューションの提供を行っており、360立体音響技術群を活用した新しいコンテンツ体験の創出にも取り組んでいる。現時点では映像と音声が一緒になった360RAのアウトプット方法は確立されていないため、クライアントのイメージを具現化するための制作ワークフロー構築、イベント等でのアウトプットを踏まえた演出提案など、技術・クリエイティブの両面から制作に携わっている。 この更新されたMA室はDolby Atmosに準拠したスピーカー設置となっている。360RA以前にポストプロダクションとしてDolby Atmosへの対応検討が進んでおり、その後に360RAへの対応という順番でソリューションの導入を行っている。そのため、天井にはすでにスピーカーが設置されていたので、360RAの特徴でもあるボトムへのスピーカーの増設で360RA制作環境を整えた格好だ。360RAはフルオブジェクトのソリューションとなるため、スピーカーの設置位置に合わせてカスタムのアウトプットバスを組むことでどのようなスピーカー環境にも対応可能である。360RACSには最初から様々なパターンのスピーカーレイアウトファイルが準備されているので、たいていはそれらで対応可能である。とはいえスタジオごとのカスタム設定に関しても対応を検討中とのことだ。 📷デスクの前方にはスクリーンが張られており、L,C,Rのスピーカーはこのスクリーンの裏側に設置されている。スクリーンの足元にはボトムの3本のスピーカーが設置されているのがわかる。リスニングポイントに対して机と干渉しないギリギリの高さと角度での設置となっている。 📷できる限り等距離となるように、壁に寄せて設置ができるよう特注のスタンドを用意した。スピーカーは他の製品とのマッチを考え、Neumann KH120が選ばれている。 360RAの制作にあたり、最低これだけのスピーカーがあったほうが良いというガイドラインはある。具体的には、ITU準拠の5chのサラウンド配置のスピーカーが耳の高さにあたる中層と上空の上層にあり、フロントLCRの位置にボトムが3本という「5.0.5.3ch」が推奨されている。フル・オブジェクトということでサブウーファーchは用意されていない。必要であればベースマネージメントによりサブウーファーを活用ということになる。ソニーPCLではDolby Atmos対応の部屋を設計変更することなく、ボトムスピーカーの増設で360RAへと対応させている。厳密に言えば、推奨環境とは異なるが、カスタムのアウトプット・プロファイルを作ることでしっかりと対応している。 ソニーPCLのシステムをご紹介しておきたい。一昨年の改修でそれまでの5.1ch対応の環境から、9.1.4chのDolby Atmos対応のスタジオへとブラッシュアップされている。スピーカーはProcellaを使用。このスピーカーは、奥行きも少なく限られた空間に対して多くのスピーカーを増設する、という立体音響対応の改修に向いている。もちろんそのサウンドクオリティーも非常に高い。筐体の奥行きが短いため、天井への設置時の飛び出しも最低限となり空間を活かすことができる。この更新時では、既存の5.1chシステムに対しアウトプットが増えるということ、それに合わせスピーカープロセッサーに必要とされる処理能力が増えること、これらの要素を考えてAudio I/OにはAvid MTRX、スピーカープロセッサーにはYAMAHA MMP1という組み合わせとなっている。 📷天井のスピーカーはProcellaを使用。内装に極力手を加えずに設置工事が行われた。天井裏の懐が取れないためキャビネットの厚みの薄いこのモデルは飛び出しも最小限にきれいに収まっている。 4π空間を使い、究極のコンテンツ体験を作る なぜ、ソニーPCLはこれらの新しいオーディオフォーマットに取り組んでいるのであろうか?そこには、歴史的にも最新の音響技術のパイオニアであり、THX認証(THXpm3)でクオリティーの担保された環境を持つトップレベルのスタジオであるということに加えて、顧客に対しても安心して作業をしてもらえる環境を整えていくということに意義を見出しているからだ。5.1chサラウンドに関しても早くから取り組みを始め、先輩方からの技術の系譜というものが脈々と続いている。常に最新の音響技術に対してのファーストランナーであるとともに、3D音響技術に関してもトップランナーで在り続ける。これこそがソニーPCLとしての業界におけるポジションであり、守るべきものであるとのお話をいただいた。エンジニアとしての技術スキルはもちろんだが、スタジオは、音響設計とそこに導入される機材、そのチューニングと様々な要素により成り立っている。THXは一つの指標ではあるが、このライセンスを受けているということは、自信を持ってこのスタジオで聴いた音に間違いはないと言える、大きなファクターでもある。 📷デスク上は作業に応じてレイアウトが変更できるようにアームで取り付けられた2つのPC Displayと、Avid Artist Mix、JL Cooper Surrond Pannerにキーボード、マウスと機材は最小限に留めている。 映像に関してのクオリティーはここで多くは語らないが、国内でもトップレベルのポストプロダクションである。その映像と最新の3D立体音響の組み合わせで、「究極のコンテンツ体験」とも言える作品を作ることができるスタジオになった。これはライブ、コンサート等にとどまらず、歴史的建造物、自然環境などの、空気感をあますことなく残すことができるという意味が含まれている。自然環境と同等の4πの空間を全て使い音の記録ができる、これは画期的だ。商用としてリリースされた初めての完全なる4πのフォーマットと映像の組み合わせ、ここには大きな未来を感じているということだ。 また、映像とのコラボレーションだけではなく、ソニー・ミュージックスタジオのエンジニアとの交流も360RAによりスタートしているということだ。これまでは、音楽スタジオとMAスタジオという関係で素材レベルのやり取りはあったものの、技術的な交流はあまりなかったということだが、360RAを通じて今まで以上のコミュニケーションが生まれているということだ。ソニーR&Dが要素を開発した360立体音響技術群、それを実際のフォーマットに落とし込んだソニーホームエンタテイメント&サウンドプロダクツなど、ソニーグループ内での協業が盛んとなり今までにない広がりを見せているということだ。このソニーグループ内の協業により、どのような新しい展開が生まれるのか?要素技術である360立体音響技術群の大きな可能性を感じる。すでに、展示会場やイベント、アミューズメントパークなど360RAとは異なる環境でこの技術の活用が始まってきている。フルオブジェクトには再生環境を選ばない柔軟性がある。これから登場する様々なコンテンツにも注目をしたいところだ。 現場が触れた360RAのもたらす「リアル」 360RAに最初に触れたときにまず感じたのは、その「リアル」さだったということだ。空間が目の前に広がり、平面のサラウンドでは到達できなかった本当のリアルな空間がそこに再現されていることに大きな驚きがあったという。ポストプロダクションとしては、リアルに空間再現ができるということは究極の目的の一つでもある。音楽に関しては、ステレオとの差異など様々な問題提議が行われ試行錯誤をしているが、映像作品にこれまでにない「リアル」な音響空間が加わるということは大きな意味を持つ。報道、スポーツ中継などでも「リアル」が加わることは重要な要素。当初は即時性とのトレードオフになる部分もあるかもしれない。立体音響でのスポーツ中継など想像しただけでも楽しみになる。 実際の使い勝手の詳細はまだこれからといった段階だが、定位をDAWで操作する感覚はDTS:Xに近いということだ。将来的にはDAWの標準パンナーで動かせるように統合型のインターフェースになってほしいというのが、現場目線で求める将来像だという。すでにDAWメーカー各社へのアプローチは行っているということなので、近い将来360RAネイティブ対応のDAWなども登場するのではないだろうか。 もともとサラウンドミックスを多数手がけられていたことから、サウンドデザイン視点での試行錯誤もお話しいただくことができた。リバーブを使って空間に響きを加える際にクアッド・リバーブを複数使用し立方体を作るような手法。移動を伴うパンニングの際に、オブジェクトの移動とアンプリチュード・パンを使い分ける手法など、360RAの特性を色々と研究しながら最適なミックスをする工夫を行っているということだ。 3Dと呼ばれる立体音響はまさに今黎明期であり、さまざまなテクノロジーが登場している途中の段階とも言える。それぞれのメリット、デメリットをしっかりと理解し、適材適所で活用するスキルがエンジニアに求められるようになってきている。まずは、試すことから始めそのテクノロジーを見極めていく必要があるということをお話いただいた。スペックだけではわからないのが音響の世界である。まずは、実際に触ってミックスをしてみて初めて分かる、気づくことも多くある。そして、立体音響が普及していけばそれに合わせた高品位な映像も必然的に必要となる。高品位な映像があるから必要とされる立体音響。その逆もまた然りということである。 📷上からAntelope Trinity、Avid SYNC HD,Avid MTRX、YAMAHA MMP1が収まる。このラックがこのスタジオのまさに心臓部である。 📷ポスプロとして従来のサラウンドフォーマットへの対応もしっかりと確保している。Dolby Model DP-564はまさにその証ともいえる一台。 📷このiPadでYAMAHA MMP1をコントロールしている。このシステムが多チャンネルのモニターコントロール、スピーカーマネージメントを引き受けている。 ソニーPCLでお話を伺った喜多氏に、これから立体音響、360RAへチャレンジする方へのコメントをいただいた。「まずは、想像力。立体空間を音で表現するためには想像力を膨らませてほしい。従来のステレオ、5.1chサラウンドのイメージに縛られがちなので、想像力によりそれを広げていってもらいたい。この情報過多の世界で具体例を見せられてばかりかもしれないが、そもそも音は見えないものだし、頭の中で全方向からやってくる音をしっかりとイメージして設計をすることで、立体音響ならではの新しい発見ができる。是非とも誰もが想像していなかった新しい体験を作り上げていってほしい」とのことだ。自身もソニーグループ内での協業により、シナジーに対しての高い期待と360RAの持つ大きな可能性を得て、これからの広がりが楽しみだということだ。これから生まれていく360RAを活用した映像作品は間違いなく我々に新しい体験を提供してくれるだろう。 ソニーPCL株式会社 技術部門・アドバンスドプロダクション2部 テクニカルプロダクション1課 サウンドスーパーバイザー 喜多真一 氏   *取材協力:ソニー株式会社 *ProceedMagazine2021号より転載

Media

Sound on 4π Part 3 / 360 Reality Audio Creative Suite 〜新たなオーディオフォーマットで行う4π空間への定位〜

360 Reality Audio(以下、360RA)の制作ツールとして満を持してこの4月にリリースされた360 Reality Audio Creative Suite(以下、360RACS)。360RAの特徴でもあるフル・オブジェクト・ミキシングを行うツールとしてだけではなく、360RAでのモニター機能にまで及び、将来的には音圧調整機能も対応することを計画している。具体的な使用方法から、どのような機能を持ったソフトウェアなのかに至るまで、様々な切り口で360RACSをご紹介していこう。 >>Part 1 :360 Reality Audio 〜ついにスタート! ソニーが生み出した新たな時代への扉〜 >>Part 2 :ソニー・ミュージックスタジオ 〜360 Reality Audio Mixing、この空間を楽しむ〜 全周=4π空間内に音を配置 360RACSのワークフローはまとめるとこのようになる。プラグインであるということと、プラグインからモニタリング出力がなされるという特殊性。最終のエンコードまでが一つのツールに詰め込まれているというところをご確認いただきたい。 360RACSは、アメリカAudio Futures社がリリースするプラグインソフトである。執筆時点での対応プラグイン・フォーマットはAAX、VSTとなっている。対応フォーマットは今後随時追加されていくということなので、現時点で対応していないDAWをお使いの方も読み飛ばさずに待ってほしい。Audio Futures社は、音楽ソフトウェア開発を行うVirtual Sonic社の子会社であり、ソニーとの共同開発契約をもとに、ソニーから技術提供を受け360RACSを開発している。360RAコンテンツの制作ツールは、当初ソニーが研究、開発用として作ったソフトウェア「Architect」のみであった。しかしこの「Architect」は、制作用途に向いているとは言えなかったため、現場から様々なリクエストが集まっていたことを背景に、それらを汲み取り制作に向いたツールとして新たに開発されたのがこの360RACSということになる。 それでは具体的に360RACSを見ていきたい。冒頭にも書いたが360RACSはプラグインである。DAWの各トラックにインサートすることで動作する。DAWの各トラックにインサートすると、360RACS上にインサートされたトラックが追加されていく。ここまで準備ができれば、あとは360RACS内で全周=4π空間内にそれぞれの音を配置していくこととなる。これまで音像定位を変化させるために使ってきたパンニングという言葉は、水平方向の移動を指す言葉である。ちなみに、縦方向の定位の移動を指す言葉はチルトだ。立体音響においてのパンニングにあたる言葉は確立されておらず、空間に定位・配置させるという表現となってしまうことをご容赦願いたい。 360RACS内で音像を定位させるには、画面に表示された球体にある音像の定位位置を示すボール状のポイントをドラッグして任意の場所に持っていけば良い。後方からと、上空からという2つの視点で表示されたそれぞれを使うことで、簡単に任意の場所へと音像を定位させることができる。定位をさせた位置情報はAzimuth(水平方向を角度で表現)とElevation(垂直方向を角度で表現)の2つのパラメータが与えられる。もちろん、数値としてこれらを入力することも可能である。 📷360RACSに送り込まれた各オブジェクトは、Azimuth(アジマス)、Elavation、Gainの3つのパラメーターにより3D空間内の定位を決めていくこととなる。 360RAでは距離という概念は無い。これは現時点で定義されているMPEG-Hの規格にそのパラメータの運用が明確に定義されていないということだ。とはいえ、今後サウンドを加工することで距離感を演出できるツールやなども登場するかもしれない。もちろん音の強弱によっても遠近をコントロールすることはできるし、様々な工夫により擬似的に実現することは可能である。ただ、あくまでも360RAのフォーマット内で、という限定された説明としては距離のパラメーターは無く、360RAにおいては球体の表面に各ソースとなる音像を定位させることができるということである。この部分はネガティブに捉えないでほしい。工夫次第でいくらでも解決方法がある部分であり、これからノウハウ、テクニックなどが生まれる可能性が残された部分だからだ。シンプルな例を挙げると、360RACSで前後に同じ音を定位させ、そのボリューム差を変化させることで、360RAの空間内にファントム定位を作ることも可能だということである。 4π空間に定位した音は360RACSで出力 360RACSはそのままトラックにインサートするとプリフェーダーでインサートされるのでDAWのフェーダーは使えなくなる。もちろんパンも同様である。これはプラグインのインサートポイントがフェーダー、パンよりも前の段階にあるということに起因しているのだが、360RACS内に各トラックのフェーダーを用意することでこの部分の解決策としている。音像の定位情報とともに、ボリューム情報も各トラックのプラグインへオートメーションできる情報としてフィードバックされているため、ミキシング・オートメーションのデータは全てプラグインのオートメーションデータとしてDAWで記録されることとなる。 📷各トラックにプラグインをインサートし、360RACS内で空間定位を設定する。パンニング・オートメーションはプラグイン・オートメーションとしてDAWに記録されることとなる。 次は、このようにして4π空間に定位した音をどのようにモニタリングするのか?ということになる。360RACSはプラグインではあるが、Audio Interfaceを掴んでそこからアウトプットをすることができる。これは、DAWが掴んでいるAudio Outputは別のものになる。ここでヘッドホンであれば2chのアウトプットを持ったAudio Interfaceを選択すれば、そこから360RACSでレンダリングされたヘッドホン向けのバイノーラル出力が行われるということになる。スピーカーで聴きたい場合には、標準の13ch(5.0.5.3ch)を始め、それ以外にもITU 5.1chなどのアウトプットセットも用意されている。もちろん高さ方向の再現を求めるのであれば、水平面だけではなく上下にもスピーカーが必要となるのは言うまでもない。 📷360RACSの特徴であるプラグインからのオーディオ出力の設定画面。DAWから受け取った信号をそのままスピーカーへと出力することを実現している。 360RACSの機能面を見ていきたい。各DAWのトラックから送られてきたソースは360RACS内でグループを組むことができる。この機能により、ステレオのソースなどの使い勝手が向上している。全てを一つのグループにしてしまえば、空間全体が回転するといったギミックも簡単に作れるということだ。4π空間の表示も上空から見下ろしたTop View、後方から見たHorizontal View、立体的に表示をしたPerspective Viewと3種類が選択できる。これらをの表示を2つ組み合わせることでそれぞれの音像がどのように配置されているのかを確認することができる。それぞれの定位には、送られてきているトラック名が表示されON/OFFも可能、トラック数が多くなった際に文字だらけで見にくくなるということもない。 360RACS内に配置できるオブジェクトは最大128ch分で、各360RACS内のトラックにはMute/Soloも備えられる。360RACSでの作業の際には、DAWはソースとなる音源のプレイヤーという立ち位置になる。各音源は360RACSのプラグインの前段にEQ/Compなどをインサートすることで加工することができるし、編集なども今まで通りDAW上で行えるということになる。その後に、360RACS内で音像定位、ボリュームなどミキシングを行い、レンダリングされたアウトプットを聴くという流れだ。このレンダリングのプロセスにソニーのノウハウ、テクノロジーが詰まっている。詳細は別の機会とするが、360立体音響技術群と呼ばれる要素技術開発で積み重ねられてきた、知見やノウハウにより最適に立体空間に配置されたサウンドを出力している。 Level 1~3のMPEG-Hへエンコード 📷MPEG-Hのデータ作成はプラグインからのExportにより行う。この機能の実装により一つのプラグインで360RAの制作位の工程を包括したツールとなっている。 ミックスが終わった後は、360RAのファイルフォーマットであるMPEG-Hへエンコードするという処理が残っている。ここではLevel 1~3の3つのデータを作成することになり、Level 1が10 Object 64 0kbps、Level 2が16 Object 1Mbps、Level 3が 24 Object 1.5Mbpsのオーディオデータへと変換を行う。つまり、最大128chのオーディオを最小となるLevel 1の10trackまで畳み込む必要があるということだ。具体的には、同じ位置にある音源をグループ化してまとめていくという作業になる。せっかく立体空間に自由に配置したものを、まとめてしまうのはもったいないと感じるかもしれないが、限られた帯域でのストリーミングサービスを念頭とした場合には欠かせない処理だ。 とはいえ、バイノーラルプロセスにおいて人間が認知できる空間はそれほど微細ではないため、できる限り128chパラのままでの再現に近くなるように調整を行うこととなる。後方、下方など微細な定位の認知が難しい場所をまとめたり、動きのあるもの、無いものでの分類したり、そういったことを行いながらまとめることとなる。このエンコード作業も360RACS内でそのサウンドの変化を確認しながら行うことが可能である。同じ360RACSの中で作業を行うことができるため、ミックスに立ち返りながらの作業を手軽に行えるというのは大きなメリットである。このようなエンコードのプロセスを終えて書き出されたファイルが360RAのマスターということになる。MPEG-Hなのでファイルの拡張子は.MP4である。 執筆時点で、動作確認が行われているDAWはAvid Pro ToolsとAbleton Liveとなる。Pro Toolsに関しては、サラウンドバスを必要としないためUltimateでなくても作業が可能だということは特筆すべき点である。言い換えれば、トラック数の制約はあるがPro Tools Firstでも作業ができるということだ。全てが360RACS内で完結するため、ホストDAW側には特殊なバスを必要としない。これも360RACSの魅力の一つである。今後チューニングを進め、他DAWへの対応や他プラグインフォーマットへの展開も予定されている。音楽に、そして広義ではオーディオにとって久々の新フォーマットである360RAは制作への可能性を限りなく拡げそうだ。   *取材協力:ソニー株式会社 *ProceedMagazine2021号より転載 >>Part 2はこちらから https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-2/ >>Part 1はこちらから https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-1/

Media

Sound on 4π Part 2 / ソニー・ミュージックスタジオ 〜360 Reality Audio Mixing、この空間を楽しむ〜

国内の正式ローンチに合わせ、多数の邦楽楽曲が360RAでミックスされた。その作業の中心となったのがソニー・ミュージックスタジオである。マスタリングルームのひとつを360RAのミキシングルームに改装し、2021年初頭より60曲あまりがミキシングされたという。そのソニー・ミュージックスタジオで行われた実際のミキシング作業についてお話を伺った。 >>Part 1:360 Reality Audio 〜ついにスタート! ソニーが生み出した新たな時代への扉〜 2ミックスの音楽性をどう定位していくか 株式会社ソニー・ミュージックソリューションズ ソニー・ミュージックスタジオ レコーディング&マスタリングエンジニア 鈴木浩二 氏(右) レコーディングエンジニア 米山雄大 氏(左) 2021年3月23日発のプレスリリースにあった楽曲のほとんどは、ここソニー・ミュージックスタジオでミキシングが行われている。360RAでリリースされた楽曲の選定は、各作品のプロデューサー、アーティストに360RAをプレゼン、実際に体験いただき360RAへの理解を深め、その可能性に賛同を得られた方から制作にあたったということだ。 実際に360RAでミキシングをしてみての率直な感想を伺った。ステレオに関しての経験は言うまでもなく、5.1chサラウンドでの音楽のミキシング作業の経験も豊富にある中でも、360RAのサウンドにはとにかく広大な空間を感じたという。5.1chサラウンドでの音楽制作時にもあった話だが、音楽として成立させるために音の定位はどこの位置までが許容範囲なのか?ということは360RAでも起こること。やはりボーカルなどのメロディーを担うパートが、前方に定位をしていないと違和感を感じてしまうし、平面での360度の表現から高さ方向の表現が加わったことで、5.1chから更に広大な空間に向き合うことになり正直戸惑いもあったということだ。その際は、もともとの2chのミックスを音楽性のリファレンスとし、その音楽性を保ったまま空間に拡張していくというイメージにしたという。 360RAは空間が広いため、定位による表現の自由度は圧倒的だ。白紙の状態から360RAの空間に音を配置して楽曲を成立させるには、やはり従来の2chミキシングで培った表現をベースに拡張させる、という手法を取らないとあまりにも迷いが多い。とはいえ、始まったばかりの立体音響でのミキシング、「正解はない」というのもひとつの答えである。さらなる試行錯誤の中から、新しいセオリー、リファレンスとなるような音像定位が生まれてくるのではないだろうか。もちろん従来のステレオで言われてきた、ピラミッド定位などというミキシングのセオリーをそのまま360RAで表現しても良い。その際に高さを表現するということは、ステレオ・ミキシングでは高度なエンジニアリング・スキルが要求されたが、360RAではオブジェクト・パンの定位を変えるだけ、この簡便さは魅力の一つだ。 試行錯誤の中から得られた経験としては、360RAの広大な空間を広く使いすぎてしまうと、細かな部分や気になる部分が目立ってしまうということ。実際に立体音響のミキシングで直面することだが、良くも悪くもステレオミキシングのようにそれぞれの音は混ざっていかない。言葉で言うのならば、ミキシング(Mixing)というよりもプレイシング(Placing)=配置をしていくという感覚に近い。 また、360RAだけではなく立体音響の大きな魅力ではあるが、クリアに一つ一つのサウンドが聴こえてくるために、ステレオミックスでは気にならなかった部分が気になってしまうということも起こり得る。逆に、アーティストにとってはこだわりを持って入れたサウンド一つ一つのニュアンスが、しっかりとしたセパレーションを持って再生されるためにミックスに埋もれるということがない。これは音楽を生み出す側としては大きな喜びにつながる。このサウンドのセパレーションに関しては、リスナーである我々が2chに収められたサウンドに慣れてしまっているだけかもしれない。これからは、この「混ざらない」という特徴を活かした作品も生まれてくるのではないだろうか。実際に音楽を生み出しているアーティストは2chでの仕上がりを前提に制作し、その2chの音楽性をリファレンスとして360RAのミキシングが行われている。当初より360RAを前提として制作された楽曲であれば、全く新しい世界が誕生するのかもしれない。 実例に即したお話も聞くことができた。ゴスペラーズ「風が聴こえる」を360RAでミキシングをした際に、立体的にサウンドを動かすことができるため、当初は色々と音に動きのあるミキシングを試してみたという。ところが、動かしすぎることにより同時に主題も移動してしまって音楽性が損なわれてしまったそうだ。その後のミックスでは、ステレオよりも広くそれぞれのメンバーを配置することで、ステレオとは異なるワイドなサウンドが表現しているという。360RAでミキシングをすることで、それぞれのメンバーの個々のニュアンスがしっかりとクリアに再生され、ステレオであれば聴こえなかった音がしっかりと届けられるという結果が得られ、好評であったということだ。まさに360RAでのミキシングならではのエピソードと言えるだろう。 📷元々がマスタリングルームあったことを偲ばせる巨大なステレオスピーカーの前に、L,C,R+ボトムL,C,Rの6本のスピーカーがスタンドに設置されている。全てMusik Electornic Gaithain m906が採用され、純正のスタンドを改造してボトムスピーカーが据え付けられている。天井には天吊で同じく906があるのがわかる。 高さ方向をミックスで活用するノウハウ 5.1chサラウンドから、上下方向への拡張がなされた360RA。以前から言われているように人間の聴覚は水平方向に対しての感度は高いが、上下方向に関しては低いという特徴を持っている。これは、物理的に耳が左右についているということに起因する。人間は水平方向の音を左右の耳に届く時間差で認識している、単純に右から来る音は右耳のほうが少しだけ早く聴こえるということだ。しかし、高さ方向に関してはそうはいかない。これは、こういう音はこちらから聴こえている「はず」という人の持つ経験で上下を認識しているためだ。よって、360RAでの上下方向のミキシングはセオリーに沿った音像配置を物理的に行う、ということに向いている。例えば、低音楽器を下に、高音楽器を上にといったことだ。これによりその特徴が強調された表現にもなる。もちろん、逆に配置して違和感を効果的に使うといった手法もあるだろう。また、ステレオMIXでボーカルを少し上から聴こえるようにした「おでこから聴こえる」などと言われるミックスバランスも、物理的にそれを配置することで実現が可能である。これにより、ボーカルの明瞭度を増して際立たせることもできるだろう。 音楽的なバランスを取るためにも、この上下方向をサウンドの明瞭度をつけるために活用するのは有効だ、という経験談もいただくことができた。水平面より少し上のほうが明瞭度が高く聴こえ、下に行けば行くほど明瞭度は落ちる。上方向も行き過ぎるとやはり明瞭度は落ちる。聴かせたいサウンドを配置する高さというのはこれまでにないファクターではあるが、360RAのミキシングのひとつのポイントになるのではないだろうか。また、サウンドとの距離に関しても上下で聴感上の変化があるということ。上方向に比べ、下方向のほうが音は近くに感じるということだ。このように360RAならではのノウハウなども、試行錯誤の中で蓄積が始まっていることが感じられる。 📷天井には、円形にバトンが設置され、そこにスピーカーが吊るされている。このようにすることでリスニングポイントに対して等距離となる工夫がなされている。 📷ボトムのスピーカー。ミドルレイヤーのスピーカーと等距離となるように前方へオフセットして据え付けられているのがわかる。 理解すべき広大な空間が持つ特性 そして、360RAに限らず立体音響全般に言えることなのだが、サウンド一つ一つがクリアになり明瞭度を持って聴こえるという特徴がある。また、トータルコンプの存在していない360RAの制作環境では、どうしてもステレオミックスと比較して迫力やパンチに欠けるサウンドになりやすい。トータルコンプに関しては、オブジェクトベース・オーディオ全てにおいて存在させることが難しい。なぜなら、オブジェクトの状態でエンドユーザーの手元にまで届けられ、最終のレンダリング・プロセスはユーザーが個々に所有する端末上で行われるためだ。また、バイノーラルという技術は、音色(周波数分布)や位相を変化させることで擬似的に上下定位や後方定位を作っている。そのためトータルコンプのような、従来のマスタリング・プロセッサーはそもそも使うことができない。 そして、比較対象とされるステレオ・ミックスはある意味でデフォルメ、加工が前提となっており、ステレオ空間という限られたスペースにノウハウを駆使してサウンドを詰め込んだものとも言える。広大でオープンな空間を持つ立体音響にパンチ感、迫力というものを求めること自体がナンセンスなのかもしれないが、これまでの音楽というものがステレオである以上、これらが比較されてしまうのはある意味致し方がないのかもしれない。360RAにおいても個々の音をオブジェクトとして配置する前にEQ/COMPなどで処理をすることはもちろん可能だ。パンチが欲しいサウンドはそのように聴こえるよう予め処理をしておくことで、かなり求められるニュアンスを出すことはできるということだ。 パンチ感、迫力といったお話をお伺いしていたところ、ステレオと360RAはあくまでも違ったもの、是非とも360RAならではの体験を楽しんでほしいというコメントをいただいた。まさにその通りである。マキシマイズされた迫力、刺激が必要であればステレオという器がすでに存在している。ステレオでは表現、体験のできない新しいものとして360RAを捉えるとその魅力も際立つのではないだろうか。ジャズなどのアコースティック楽器やボーカルがメインのものは不向きかもしれないが、ライブやコンサート音源など空間を表現することが得意な360RAでなければ再現できない世界もある。今後360RAでの完成を前提とした作品が登場すればその魅力は更に増すこととなるだろう。 360RAならではの魅力には、音像がクリアに分離して定位をするということと空間再現能力の高さがある。ライブ会場の観客のリアクションや歓声などといった空気感、これらをしっかりと収録しておくことでまさにその会場にいるかのようなサウンドで追体験できる。これこそ立体音響の持つイマーシブ感=没入感だと言えるだろう。すでに360RAとしてミキシングされたライブ音源は多数リリースされているので是非とも楽しんでみてほしい。きっとステレオでは再現しえない”空間”を感じていただけるであろう。屋根があるのか?壁はどのようになっているのか?といった会場独自のアコースティックから、残響を収録するマイクの設置位置により客席のどのあたりで聴いているようなサウンドにするのか?そういったことまで360RAであれば再現が可能である。 この空間表現という部分に関しては、今後登場するであろうディレイやリバーブに期待がかかる。本稿執筆時点では360RAネイティブ対応のこれら空間系のエフェクトは存在せず、今後のリリースを待つこととなる。もちろん従来のリバーブを使い、360RAの空間に配置することで残響を加えることは可能だが、もっと直感的に作業ができるツール、360RAの特徴に合わせたツールの登場に期待がかかる。 360RAにおけるマスタリング工程の立ち位置 かなり踏み込んだ内容にはなるが、360RAの制作において試行錯誤の中から答えが見つかっていないという部分も聞いた、マスタリングの工程だ。前述の通り、360RAのファイナルのデータはLevel 1~3(10ch~24ch)に畳み込まれたオブジェクト・オーディオである。実作業においては、Level 1~3に畳み込むエンコードを行うことが従来のマスタリングにあたるのだが、ステレオの作業のようにマスタリングエンジニアにミックスマスターを渡すということができない。このLevel 1~3に畳み込むという作業自体がミキシングの延長線上にあるためだ。 例えば、80chのマルチトラックデータを360RAでミキシングをする際には、作業の工程として80ch分のオブジェクト・オーディオを3D空間に配置することになり、これらをグループ化して10ch~24chへと畳み込んでいく。単独のオブジェクトとして畳み込むのか?オブジェクトを2つ使ってファントムとして定位させるのか、そういった工程である。これらの作業を行いつつ、同時に楽曲間のレベル差や音色などを整えるということは至難の業である。また、個々のオブジェクト・オーディオはオーバーレベルをしていなかったとしても、バイノーラルという2chに畳み込む中でオーバーレベルしてしまうということもある。こういった部分のQC=Quality Controlに関しては、まだまだ経験も知見も足りていない。 もちろん、そういったことを簡便にチェックできるツールも揃っていない。色々と工夫をしながら進めているが、現状ではミキシングをしたエンジニアがそのまま作業の流れで行うしかない状況になっているということだ。やはり、マスタリング・エンジニアという第3者により最終のトリートメントを行ってほしいという思いは残る。そうなると、マスタリングエンジニアがマルチトラックデータの取扱いに慣れる必要があるのか?それともミキシングエンジニアが、さらにマスタリングの分野にまで踏み込む必要があるのか?どちらにせよ今まで以上の幅広い技術が必要となることは間違いない。 個人のHRTFデータ取得も現実的な方法に ヘッドホンでの再生が多くなるイメージがある360RAのミキシングだが、どうしてもバイノーラルとなると細かい部分の詰めまでが行えないため、実際の作業自体はやはりスピーカーがある環境のほうがやりやすいとのことだ。そうとはいえ、360RAに対応したファシリティーは1部屋となるため、ヘッドホンを使ってのミキシングも平行して行っているということだが、その際には360RAのスピーカーが用意されたこの部屋の特性と、耳にマイクを入れて測定をした個人個人のHRTFデータを使い、かなり高い再現性を持った環境でのヘッドホンミックスが行えているということだ。 個人のHRTFデータを組み込むという機能は、360RACSに実装されている。そのデータをどのようにして測定してもらい、ユーザーへ提供することができるようになるのかは、今後の課題である。プライベートHRTFがそれほど手間なく手に入り、それを使ってヘッドホンミックスが行えるようになるということが現実になれば、これは画期的な出来事である。これまで、HRTFの測定には椅子に座ったまま30分程度の計測時間が必要であったが、ソニーの独自技術により耳にマイクを入れて30秒程度で計測が完了するということを筆者も体験している。これが一般にも提供されるようになれば本当に画期的な出来事となる。 📷Pro Tools上に展開された360 Reality Audio Creative Suite(360RACS) 「まだミキシングに関しての正解は見つかっていない。360RACSの登場で手軽に制作に取り組めるようになったので、まずは好きに思うがままに作ってみてほしい。」これから360RAへチャレンジをする方へのコメントだ。360RAにおいても録音をするテクニック、個々のサウンドのトリートメント、サウンドメイクにはエンジニアの技術が必要である。そして、アーティストの持つ生み出す力、創造する力を形にするための360RAのノウハウ。それらが融合することで大きな化学反応が起こるのではないかということだ。試行錯誤は続くが、それ自体が新しい体験であり、非常に楽しんで作業をしているということがにじむ。360RAというフォーマットを楽しむ、これが新たな表現への第一歩となるのではないだろうか。 >>Part 3:360 Reality Audio Creative Suite 〜新たなオーディオフォーマットで行う4π空間への定位〜   *取材協力:ソニー株式会社 *ProceedMagazine2021号より転載 https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-3/ https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-1/

Media

Sound on 4π Part 1 / 360 Reality Audio 〜ついにスタート! ソニーが生み出した新たな時代への扉〜

ついに2021年4月16日に正式リリースとなった 360 Reality Audio(以下、360RA)。読み方は”サンロクマル・リアリティー・オーディオ”となるこの最新のオーディオ体験。これまでにも色々とお伝えしてきているが、日本国内でのリリースと同時に、360RAの制作用のツールとなる360 Reality Audio Creative Suiteもリリースされている。360RAとは一体何なのか?どのようにして作ればよいのか?まずは、そのオーバービューからご紹介していこう。 ソニーが作り出してきたオーディオの時代 まず最初に、ソニーとAudioの関係性を語らないわけにはいかない。コンシューマ・オーディオの分野では、常にエポックメイキングな製品を市場にリリースしてきている。その代表がウォークマン®であろう。今では当たり前となっている音楽を持ち歩くということを世界で初めて実現した電池駆動のポータブル・カセットテープ・プレイヤーである。10代、20代の読者は馴染みが薄いかもしれないが、据え置きの巨大なオーディオコンポや、ラジオとカセットプレイヤーを一体にしたラジカセが主流だった時代に、電池で動作してヘッドホンでどこでも好きな場所で音楽を楽しむことができるウォークマン®はまさにエポックな製品であり、音楽の聴き方を変えたという意味では、時代を作った製品であった。みんなでスピーカーから出てくる音楽を楽しむというスタイルから、個人が好きな音楽をプライベートで楽しむという変化を起こしたわけだ。これは音楽を聴くという体験に変化をもたらしたとも言えるだろう。 ほかにもソニーは、映画の音声がサラウンドになる際に大きなスクリーンの後ろで通常では3本(L,C,R)となるスピーカーを5本(L,LC,C,RC,R)とする、SDDS=Sony Dynamic Digital Soundというフォーマットを独自で提唱したり、ハイレゾという言葉が一般化する以前よりPCMデジタルデータでは再現できない音を再生するために、DSDを採用したスーパーオーディオCD(SACD)を作ったり、と様々な取り組みを行っている。 そして、プロフェッショナル・オーディオ(音響制作機器)の市場である。1980年代よりマルチチャンネル・デジタルレコーダーPCM-3324/3348シリーズ、Oxford R3コンソール、CDのマスタリングに必須のPCM-1630など、音声、特に音楽制作の中心にはソニー製品があった。いまではヘッドホン、マイクは例外に、プロシューマー・マーケットでソニー製品を見ることが少なくなってしまっているが、その要素技術の研究開発は続けられており、コンシューマー製品へしっかりとフィードバックが行われているのである。「制作=作るため」の製品から「利用する=再生する」製品まで、つまりその技術の入口から出口までの製品を揃えていたソニーのあり方というのは、形を変えながらも続いているのである。 PCM-3348 PCM-3348HR Oxford R3 PCM-1630 このようなソニーとAudioの歴史から見えてくるキーワードは、ユーザーへの「新しい体験の提供」ということである。CDではノイズのないパッケージを提供し、ウォークマン®ではプライベートで「どこでも」音楽を楽しむという体験を、SDDSは映画館で最高の臨場感を作り出し、SACDはまさしく最高となる音質を提供した。全てが、ユーザーに対して新しい体験を提供するという一つの幹から生えているということがわかる。新しい体験を提供するための技術を、難解なテクノロジーの状態からスタイリッシュな体験に仕立てて提供する。これがまさにソニーのAudio、実際はそれだけではなく映像や音声機器にも共通するポリシーのように感じる。 全周(4π)を再現する360RA ソニーでは要素技術として高臨場感音響に関しての研究が続けられていた。バーチャル・サラウンド・ヘッドホンや、立体音響を再生できるサラウンドバーなどがこれまでにもリリースされているが、それとはまた別の技術となる全周(4π)を再現するオーディオ技術の研究だ。そして、FraunhoferがMPEG-H Audioを提唱した際にこの技術をもって参画したことで、コンテンツとなるデータがその入れ物(コンテナ)を手に入れて一気に具体化、2019年のCESでの発表につながっている。CES2019の時点ではあくまでも技術展示ということだったが、その年の10月には早くもローンチイベントを行い欧米でのサービスをスタートさせている。日本国内でも各展示会で紹介された360RAは、メディアにも取り上げられその存在を知った方も多いのではないだろうか。特に2020年のCESでは、ソニーのブースでEVコンセプトの自動車となるVISION-Sが展示され大きな話題を呼んだが、この車のオーディオとしても360RAが搭載されている。VISION-Sではシートごとにスピーカーが埋め込まれ立体音響が再生される仕様となっていた、この立体音響というのが360RAをソースとしたものである。 360RAはユーザーに対して「新しい体験」を提供できる。機器自体は従来のスマホや、ヘッドホン、イヤホンであるがそこで聴くことができるサウンドは、まさにイマーシブ(没入)なもの。もちろんバイノーラル技術を使っての再生となるが、ソニーのノウハウが詰まった独自のものであるということだ。また、単純なバイノーラルで収録された音源よりも、ミキシングなど後処理が加えられることで更に多くの表現を手に入れたものとなっている。特にライブ音源の再生においては非常に高い効果を発揮し、最も向いたソースであるという認識を持った。 バイノーラルの再生には、HRTF=頭部伝達関数と呼ばれる数値に基づいたエンコードが行われ、擬似的に左右のヘッドホン or イヤホンで立体的音響を再生する。このHRTFは頭の形、耳の形、耳の穴の形状など様々な要素により決まる個人ごとに差異があるもの。以前にも紹介したYAMAHAのViRealはこのHRTFを一般化しようという研究であったが、ソニーでは「Sony | Headphones Connect」と称されたスマートフォン用アプリで、個々に向けたHRTFを提供している。これは耳の写真をアップロードすることでビッグデータと照合し最適なパラメーターを設定、ヘッドホンフォン再生に適用することで360RAの体験を確実にし、ソニーが配信サービスに技術提供している。 Sony | Headphones Connectは一部のソニー製ヘッドホン用アプリとなるが、汎用のHRTFではなく個人に合わせて最適化されたHRTFで聴くバイノーラルは圧倒的である。ぼんやりとしか認識できなかった音の定位がはっきりし、後方や上下といった認識の難しい定位をしっかりと認識することができる。もちろん、個人差の出てしまう技術であるため一概に言うことはできないが、それでも汎用のHRTFと比較すれば、360RAでの体験をより豊かなものとする非常に有効な手法であると言える。この手法を360RAの体験向上、そしてソニーのビジネスモデルとして技術と製品を結びつけるものとして提供している。体験を最大化するための仕掛けをしっかりと配信サービスに提供するあたり、さすがソニーといったところだ。 360RAはいますぐ体験できる それでは、360RAが国内でリリースされ、実際にどのようにして聴くことができるようになったのだろうか?まず、ご紹介したいのがAmazon music HDとDeezerの2社だ。両社とも月額課金のサブスクリプション(月額聴き放題形式)のサービスである。ハイレゾ音源の聴き放題の延長線上に、立体音響音源の聴き放題サービスがあるとイメージしていただければいいだろう。視聴方法はこれらの配信サービスと契約し、Amazon music HDであればAmazon Echo Studioという立体音響再生に対応した専用のスピーカーでの再生となる。物理的なスピーカーでの再生はどうしても上下方向の再生が必要となるため特殊な製品が必要だが、前述のAmazon Echo Studioやサラウンドバーのほか、ソニーからも360RA再生に対応した製品としてSRS-RA5000、SRS-RA3000という製品が国内でのサービス開始とともに登場している。 また、Deezerではスマートフォンとヘッドホン、イヤホンでの再生、もしくは360RA再生に対応したBluetoothスピーカーがあれば夏にはスピーカーで360RAを楽しむことができる。スマートフォンは、ソニーのXperiaでなければならないということはない。Android搭載のデバイスでも、iOS搭載のデバイスでも楽しむことができる、端末を選ばないというのは実に魅力的だ。ヘッドホン、イヤホンも普通のステレオ再生ができるもので十分で、どのような製品でも360RAを聴くことができる。Sony | Headphones Connectの対象機種ではない場合はパーソナライズの恩恵は受けられないが、その際にはソニーが準備した汎用のHRTFが用いられることとなる。導入にあたり追加で必要となる特殊な機器もないため、興味を持った方はまずはDeezerで360RAのサウンドを楽しむのが近道だろうか。余談ではあるが、Deezerはハイレゾ音源も聴き放題となるサービス。FLAC圧縮によるハイサンプルの音源も多数あるため、360RAをお試しいただくとともにこちらも併せて聴いてみると、立体音響とはまた違った良さを発見できるはずだ。 そして、前述の2社に加えてnugs.netでも360 Reality Audioの楽曲が配信開始されている。360RAを体験していただければわかるが、立体音響のサウンドはまさに会場にいるかのような没入感を得ることができ、ライブやコンサートなどの臨場感を伝えるのに非常に適している。nugs.net はそのライブ、コンサートのストリーミングをメインのコンテンツとして扱う配信サービスであり、このメリットを最大限に活かしたストリーミングサービスになっていると言えるだろう。 欧米でサービスが展開されているTIDALも月額サブスクリプションのサービスとなり、すでに360RAの配信をスタートしている。サービスの内容はDeezerとほぼ同等だが、ハイレゾの配信方針がDeezerはFLAC、TIDALはMQAと異なるのが興味深い。この音質の差異は是非とも検証してみたいポイントである。TIDALはラッパーのJAY-Zがオーナーのサービスということで、Hip-Hop/R&Bなどポップスに強いという魅力もある。ハイレゾ音源は配信サービスで月額課金で楽しむ時代になってきている。前号でも記事として取り上げたが、ハイレゾでのクオリティーの高いステレオ音源や360RAなどの立体音響、これらの音源を楽しむということは、すでにSpotifyやApple Musicといった馴染みのある配信サービスの延長線上にある。思い立てばいますぐにでも360RAを楽しむことができる環境がすでに整っているということだ。 360RAを収めるMPEG-Hという器 360RAを語るにあたり、技術的な側面としてMPEG-Hに触れないわけにはいかない。MPEG-H自体はモノラルでも、ステレオでも、5.1chサラウンドも、アンビソニックスも、オブジェクトオーディオも、自由に収めることが可能、非常に汎用性の高いデジタルコンテンツを収める入れ物である。このMPEG-Hを360RAではオブジェクトオーディオを収める器として採用しているわけだ。実際の360RAには3つのレベルがあり、最も上位のLevel3は24オブジェクトで1.5Mbpsの帯域を使用、Level2は16オブジェクトで1Mbps、Leve1は10オブジェクトで640kbpsとなっている。このレベルとオブジェクト数に関しては、実際の制作ツールとなる360RA Creative Suiteの解説で詳しく紹介したい。 Pro Tools上に展開された360 Reality Audio Creative Suite(360RACS) ここでは、その帯域の話よりもMPEG-Hだから実現できた高圧縮かつ高音質という部分にフォーカスを当てていく。月額サブスクリプションでの音楽配信サービスは、現状SpotifyとApple Musicの2強であると言える。両社とも圧縮された音楽をストリーミングで再生するサービスだ。Apple Musicで使われているのはAAC 256kbpsのステレオ音声であり、1chあたりで見れば128kbpsということになる。360RAのチャンネルあたりの帯域を見るとLevel1で64kbps/chとAACやMP3で配信されているサービスよりも高圧縮である。しかし、MPEG-Hは最新の圧縮技術を使用しているため、従来比2倍以上の圧縮効率の確保が可能というのが一般的な認識である。その2倍を照らし合わせればチャンネルあたりの帯域が半分になっても従来と同等、もしくはそれ以上の音質が確保されているということになる。逆に言えば、従来のAAC、MP3という圧縮技術では同等の音質を確保するために倍の帯域が必要となってしまう。これがMPEG-H Audioを採用した1点目の理由だ。 もう一つ挙げたいのはオブジェクトへの対応。360RAのミキシングは全てのソースがオブジェクトとしてミキシングされる。オブジェクトとしてミキシングされたソースを収める器として、オブジェクトの位置情報にあたるメタデータを格納することができるMPEG-Hは都合が良かったということになる。特殊な独自のフォーマットを策定することなく、一般化された規格に360RAのサウンドが収めることができたわけだ。ちなみにMPEG-Hのファイル拡張子は.mp4である。余談にはなるが、MPEG-Hは様々な最新のフォーマットを取り込んでいる。代表的なものが、HEVC=High Efficiency Video Coding、H.265という高圧縮の映像ファイルコーディック、静止画ではHEIF=High Efficiency Image File Format。HEIFはHDR情報を含む画像ファイルで、iPhoneで写真を撮影した際の画像ファイルで見かけた方も多いかもしれない。このようにMPEG-Hは3D Audio向けの規格だけではなく、様々な可能性を含みながら進化を続けているフォーマットである。 拡がりをみせる360RAの将来像 360RAの今後の展開も伺うことができた。まず1つは、配信サービスを提供する会社を増やすという活動、360RAに対応したスピーカーやAVアンプなどの機器を増やすという活動、このような活動から360RAの認知も拡大して、制作も活発化するという好循環を作り健全に保つことが重要とのこと。すでに世界中の配信事業者とのコンタクトは始まっており、制作に関しても欧米でのサービス開始から1年半で4000曲とかなりのハイペースでリリースが続いている。ほかにも、ライブやコンサートとの親和性が高いということから、リアルタイムでのストリーミングに対しても対応をしたいという考えがあるとのこと。これはユーザーとしても非常に楽しみなソリューションである。また、音楽ということにこだわらずに、オーディオ・ドラマなど、まずはオーディオ・オンリーでも楽しめるところから拡張を進めていくということだ。また、360RAの要素技術自体はSound ARなど様々な分野での活用が始まっている。 日本国内では、まさに産声を上げたところである360RA。ソニーの提案する新しい音楽の「体験」。立体音響での音楽視聴はこれまでにない体験をもたらすことは間違いない。そして改めてお伝えしたいのは、そのような技術がすでに現実に生まれていて、いますぐにでも簡単に体験できるということ。ソニーが生み出した新たな時代への扉を皆さんも是非開いてほしい。 >>Part 2:ソニー・ミュージックスタジオ 〜360 Reality Audio Mixing、この空間を楽しむ〜   *取材協力:ソニー株式会社 *ProceedMagazine2021号より転載 https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-2/

Media

IPビデオ伝送の筆頭格、NDIを知る。〜ソフトウェアベースでハンドリングする先進のIP伝送〜

弊社刊行のProceedMagazineでは以前より音声信号、映像信号のIP化を取り上げてきた。新たな規格が登場するたびにそれらの特徴をご紹介してきているが、今回はNewtek社によって開発された、現在世界で最も利用されているIPビデオ伝送方式のひとつであるNDIを取り上げその特徴をじっくりと見ていきたい。IPビデオ伝送ということは、汎用のEthernetを通じVideo/Audio信号を伝送するためのソリューション、ということである。いま現場に必要とされる先進的な要素を多く持つNDI、その全貌に迫る。 一歩先を行くIPビデオ伝送方式 NDI=Network Device Interface。SDI/HDMIとの親和性が高く、映像配信システムなどの構築に向いている利便性の高い規格である。このIP伝送方式は、NewTek社により2015年9月にアムステルダムで開催された国際展示会IBCで発表された。そして、その特徴としてまず挙げられるのがソフトウェアベースであるということであり、マーケティング的にも無償で使用できるロイヤリティー・フリーのSDKが配付されている。ソフトウェアベースであるということは、特定のハードウェアを必要とせず汎用のEthernet機器が活用可能であるということである。これは機器の設計製造などでも有利に働き、特別にカスタム設計した機器でなくとも、汎用製品を組み合わせて活用することで製品コストを抑えられることにつながっている。この特徴を体現した製品はソフトウェアとしていくつもリリースされている。詳しい紹介は後述するが、汎用のPCがプロフェッショナルグレードの映像機器として活用できるようになる、と捉えていただいても良い。 フルHD映像信号をを100Mbit/s程度にまで圧縮を行い、汎用のEthernetで伝送を行うNDIはIBC2015でも非常に高い注目を集め、NewTekのブースには来場者が入りきれないほどであったのを覚えている。以前、ProceedMagazineでも大々的に取り上げたSMPTE ST2110が基礎の部分となるTR-03、TR-04の発表よりも約2ヶ月早いタイミングで、NDIは完成形とも言える圧縮伝送を実現した規格として登場したわけだ。非圧縮でのSDI信号の置換えを目指した規格であるSMPTE ST-2022が注目を集めていた時期に、圧縮での低遅延リアルタイム伝送を実現し、ロイヤリティーフリーで特定のハードウェアを必要とせずにソフトウェアベースで動作するNDIはこの時すでに一歩先を行くテクノロジーであったということが言える。そして、本記事を執筆している時点でNDIはバージョン4.6.2となっている。この更新の中では、さらに圧縮率の高いNDI HX、NDI HX2などを登場させその先進性に磨きがかけられた。 📷これまでにもご紹介してきた放送業界が中心となり進めているSMPTE 2022 / 2110との比較をまとめてみた。大規模なインフラにも対応できるように工夫の凝らされたSMPTE規格に対し、イントラネットでのコンパクトな運用を目指したNDIという特徴が見てとれる。NDIは使い勝手を重視した進化をしていることがこちらの表からも浮かんでくるのではないだろうか。 100Mbit/s、利便性とクオリティ NDIの詳細部分に踏み込んで見ていこう。テクノロジーとしての特徴は、前述の通り圧縮伝送であるということがまず大きい。映像のクオリティにこだわれば、もちろん非圧縮がベストであることに異論はないが、Full HD/30pで1.5Gbit/sにもなる映像信号を汎用のEhternetで伝送しようと考えた際に、伝送路の帯域が不足してくるということは直感的にご理解いただけるのではないだろうか。シンプルに言い換えれば一般的に普及しているGigabit Ethernetでは非圧縮のFull HD信号の1Streamすら送れないということである。利便性という目線で考えても、普及価格帯になっているGigabit Ethernetを活用できず10GbEthernetが必須になってしまっては、IPビデオ伝送の持つ手軽さや利便性に足かせがついてしまう。 NDIは当初より圧縮信号を前提としており、標準では100Mbit/sまで圧縮した信号を伝送する。圧縮することでGigabitEthernetでの複数Streamの伝送、さらにはワイヤレス(Wi-Fi)の伝送などにも対応している。4K伝送時も同様に圧縮がかかり、こちらもGigabit Ethernetでの伝送が可能である。もちろん10GbEthernetを利用すれば、さらに多くのStreamの伝送が可能となる。放送業界で標準的に使用されているSONY XDCAMの圧縮率が50Mbit/sであることを考えれば、十分にクオリティが担保された映像であることはご想像いただけるだろう。さらにNDI HXでは20Mbit/sまでの圧縮を行いワイヤレス機器などとの親和性を高め、最新の規格となるNDI HX2ではH.265圧縮を活用し、NDIと同様の使い勝手で半分の50Mbit./sでの運用を実現している。 Ethernet Cable 1本でセットできる 代表的なNDI製品であるPTZカメラ。 次の特徴は、Ethernet技術の持つ「双方向性」を非常にうまく使っているということだ。映像信号はもちろん一方向の伝送ではあるが、逆方向の伝送路をタリー信号やPTZカメラのコントロール、各機器の設定変更などに活用している。これらの制御信号は、SMPTE ST2022/ST2110では共通項目として規格化が行われていない部分だ。 NDIではこれらの制御信号も規格化され、メーカーをまたいだ共通化が進められている。わかりやすい部分としてはPTZカメラのコントロールであろう。すでにNDI対応のPTZカメラはPoE=Power over Ethernet対応の製品であれば、Ethernet Cable1本の接続で映像信号の伝送から、カメラコントロール、電源供給までが行えるということになる。従来の製品では3本、もしくはそれ以上のケーブルの接続が必要なシーンでも1本のケーブルで済んでしまうということは大きなメリットだ。天井などに設置をすることが多いPTZカメラ。固定設備としての設置工事時にもこれは大きな魅力となるだろう。NDIに対応した製品であれば、基本的にNDIとして接続されたEthernetケーブルを通じて設定変更などが行える。別途USBケーブル等を接続してPCから設定を流し込む、などといった作業から解放されることになる。 📷左がリモートコントローラーとなる。写真のBirdDog P200であれば、PoE対応なので映像信号、電源供給、コントロール信号が1本のEthernet Cableで済む。 帯域を最大限に有効活用する仕組み NDIの先進性を物語る特徴はまだある。こちらはあまり目に見える部分ではないが、帯域保護をする機能がNDIには搭載されている。これは前述のタリー信号をカメラ側へ伝送できる機能をさらに活用している部分だ。実際にスイッチャーで選択されていない(双方向で接続は確立されているが、最終の出力としては利用されていない)信号は、データの圧縮率が高められたプロキシ伝送となる。本線として利用されていない(タリーの戻ってきていない)カメラは、自動的にプロキシ伝送に切り替わり帯域の圧縮を防ぐということになる。これは本線で使用されていたとしても、PinP=Picture in Picture の副画像などの場合でも同様だ。画面の1/4以上で利用されている場合にはフルクオリティの出力で、1/4以下であればプロキシへと自動的に切り替わる。双方向に情報を伝達できるNDIはスイッチャーが必要とする時にカメラ側へフルクオリティー画像の伝送をリクエストして切り替える、この機能を利用しているわけだ。数多くのカメラを同一のネットワーク上に接続した場合にはその帯域が不安になることも多いが、NDIであればネットワークの持つ帯域を最大限に有効活用する仕組みが組み込まれている。 信号伝送の帯域に関しての特徴はほかにもあり、MulticastとUnicastの切り替えが可能というのもNDIの特徴だ。接続が確立された機器同士でのUnicast伝送を行うというのがNDIの基本的な考え方だが、スイッチャーから配信機材やレコーダーといった複数に対して信号が送られる場合にはMulticastへと手動で切り替えが可能となっている。もちろん、全ての信号伝送をMulticastできちんと設定してしまえば、特に考えることもなく全ての機器で信号を受け取ることができるが、実際のシステム上では設定も簡易なUnicastで十分な接続がほとんどである。イントラネットを前提とするNDIのシステム規模感であれば、Unicast/Multicast両対応というのは理にかなっている。AoIPであるDanteも同じく基本はUnicastで、必要に応じてMulticastへと変更できるということからも、イントラであればこの考え方が正しいということがわかる。 また、IP機器ということで設定に専門的な知識が必要になるのではと思われるかもしれない。NDIは相互の認識にBonjour(mDNS)を使っている、これはDanteと同様である。同一のネットワーク上に存在している機器であれば自動的に見つけてきてくれるという認識性の高さは、Danteを使ったことのある方であれば体験済みだろう。もちろん、トラブルシュートのために最低限のIPの知識はもっておいたほうが良いが、ITエンジニアレベルの高いスキルを求められる訳ではない。汎用のEthernet Switchに対応機器を接続することで自動的に機器が認識されていき、一度認識すればネットワーク上に障害が生じない限りそのまま使い続けることができる。 IPビデオ伝送ならでは、クラウドベースへ 非圧縮映像信号のリアルタイム伝送を目的として策定された SMPTE ST-2110との比較も気になるポイントだろう。SMPTE ST-2110はMulticastを基本とした大規模なネットワークを前提にしており、Video PacketとAudio Packetが分離できるため、オーディオ・プロダクションとの親和性も考えられている。各メーカーから様々な機器が登場を始めているが、相互の接続性など規格対応製品のスタート時期にありがちな問題の解決中という状況だ。NDIについてはすでに製品のリリースから6年が経過し高い相互接続性を保っている。 NDIはイントラ・ネットワーク限定の単一のシステムアップを前提としているために、大規模なシステムアップのための仕組みという部分では少し物足りないものがあるかもしれない。WWW=World Wide Webを経由してNDIを伝送するというソリューションも登場を始めているが、まだまだNDIとしてはチャレンジ段階であると言える。その取り組みを見ると、2017年には200マイル離れたスタジアムからのカメラ回線をプロダクションするといった実験や、Microsoft Azure、AWSといったクラウドサーバーを介してのプロダクションの実験など、様々なチャレンジが行われたそうだ。なお、こちらの実験ではクラウドサーバーまでNDIの信号を接続し、そこからYoutube Liveへの配信を行うということを実現している。つまり、高い安定性が求められる配信PCをクラウド化し、複数のストリーミング・サービスへの同時配信を行う、といったパワフルなクラウドサーバーを活用したひとつの未来的なアイデアである。このようなクラウド・ベースのソリューションは、まさにIPビデオ伝送ならではの取り組みと言える。業界的にもこれからの活用が模索されるクラウド・サービス、SMPTE ST-2110もNDIもIP伝送方式ということでここに関しての可能性に大きな差異は感じないが、NDIが先行して様々なチャレンジを行っているというのが現状だ。 NDIをハンドリングする無償アプリ 次に、NDIの使い勝手にフォーカスをあてていくが、キーワードとなるのは最大の特徴と言ってもいいソフトウェアベースであるということ。それを端的に表している製品、NewTekが無償で配布しているNDI Toolsを紹介していこう。 NDIを活用するためのアプリケーションが詰まったこのNDI Toolsは、Windows用とMac用が用意され9種類のツールが含まれている。メインとなるツールはネットワーク内を流れるNDI信号=NDIソースのモニターを行うNDI Studio Monitor。NDI信号が流れるネットワークにPCを接続しアプリケーションを起動することで、信号のモニターがPCで可能となる。SDIやHDMIのようにそれぞれの入力を備えたモニターの準備は不要、シンプルながらもIPビデオ伝送ならではの機能を提供するソフトウェアだ。次は、VLCで再生した映像をNDI信号としてPCから出力できるようにするNDI VLC Plugin。こちらを立ち上げれば、外部のVideo PlayerをPCを置き換え可能となる。そして、PCから各種テストパターンを出力するNDI Test Patterns。高価な測定器なしにPCでテストパターンの出力を実現している。ここまでの3点だけでも、最初に調整のためのテストパターンを出力し、調整が終わったらVLCを使ってVideo再生を行いつつ、最終出力のモニタリングをNDI Srtudio Monitorで行う、といったフローがPC1台で組み上げられる。IPビデオ伝送ならではの使い勝手と言えるのではないだろうか。 利便性という面で紹介したいのがNDI Virtual Input。これはWindows用となり、PCが参加しているネットワーク内のNDIソースをWindows Video / Audioソースとして認識させることができる。つまり、NDIの入力信号をウェブカメラ等と同じように扱えるようになるということだ。なお、Mac向けにはNDI Webcam Inputというツールで同じようにWEBカメラとしてNDIソースを認識させることができる。すでにZoom / Skypeはその標準機能でNDIソースへの対応を果たしており、IPベースのシステムのPCとの親和性を物語る。そして、NDI for Adobe CCは、Premier / After Effectの出力をNDI信号としてPCから出力、イントラネット越しに別の場所でのプレビューを行ったり、プレイヤーの代替に使ったりとアイデアが広がるソフトウェアだ。他にもいくつかのソフトウェアが付属するが、ハードウェアで整えようとすればかなりのコストとなる機能が無償のソフトウェアで提供されるというのは大きな魅力と言える。 NDI Tools紹介ページ NDI Toolsダウンロードページ NDIの可能性を広げる製品群 続々と登場している製品群にも注目しておきたい。まずは、Medialooks社が無償で配布を行なっているSDI to NDI Converter、NDI to SDI Converter。Blackmagic Design DecklinkシリーズなどでPCに入力されたSDIの信号をNDIとして出力することができる、またその逆を行うことができるソフトウェアで、IPビデオらしくPCを映像のコンバーターとして活用できるアプリケーション。有償のソフトウェアとしてはNDI製品を多数リリースするBirdDog社よりDante NDI Bridgeが登場している。こちらはソフトウェアベースのDante to NDIのコンバーターで、最大6chのDante AudioをNDIに変換して出力する。ステレオ3ペアの信号を3つのNDI信号として出力することも、6chの一つのNDIの信号として出力することもできる使い勝手の良い製品だ。同社のラインナップにはNDI Multiveiwというアプリケーションもある。こちらは、その名の通りネットワーク上のNDI信号のMultiview出力をソフトウェア上で組み立て、自身のDisplay用だけではなくNDI信号として出力するという製品。ソースの名称、オーディオメーター、タリーの表示に対応し、複数のMuliviewをプリセットとして切り替えることが行える。 また、BirdDog社は現場で必須となるインカムの回線をNDIに乗せるというソリューションも展開、SDI / HDMI to NDIのコンバーターにインカム用のヘッドセットIN/OUTを設け、その制御のためのComms Proというアプリケーションをリリースしている。このソリューションはネットワークの持つ双方向性を活用した技術。映像信号とペアでセレクトが可能なためどの映像を撮っているカメラマンなのかが視覚的にも確認できるインカムシステムだ。もちろん、パーティラインなど高度なコミュニケーションラインの構築も可能。ハードウェアとの組み合わせでの機能とはなるが、$299で追加できる機能とは思えないほどの多機能さ。どのような信号でも流すことができるネットワークベースであることのメリットを活かした優れたソリューションと言える。 今回写真でご紹介しているのが、Rock oN渋谷でも導入している NewTek TriCaster Mini 4K、NDI自体を牽引しているとも言えるビデオスイッチャーである。NDIのメリットを前面に出した多機能さが最大のアピールポイント。先述した接続の簡便さ、また、双方向性のメリットとして挙げたPTZカメラのコントロール機能では対応機種であればIRIS、GAINなどの調整も可能となる。そして、TriCasterシリーズはソフトウェアベースとなるためVideo Playerが組み込まれている、これもビデオスイッチャーとしては画期的だ。さらには、Video Recorder機能、Web配信機能などもひとつのシステムの中に盛り込まれる。肝心のビデオスイッチャー部もこのサイズで、4M/E、12Buffer、2DDRという強力な性能を誇っているほか、TriCasterだけでクロマキー合成ができたりとDVEに関しても驚くほど多彩な機能を内包している。 📷 NDIを提唱するNewTekの代表的な製品であるTriCasterシリーズ。こちらはTriCaster Mini 4Kとなる。コンパクトな筐体がエンジン部分、4系統のNDI用の1GbEのポートが見える。TriCasterシリーズは、本体とコントロールパネルがセットになったバンドルでの購入ができる。写真のMini 4Kのバンドルは、エンジン本体、1M/Eのコンパクトなコントローラー、そしてSpeak plus IO 4K(HDMI-NDIコンバーター)が2台のバンドルセットとなる。そのセットがキャリングハンドルの付いたハードケースに収まった状態で納品される。セットアップが簡単なTriCasterシリーズ、こちらを持ち運んで使用するユーザーが多いことの裏付けであろう。 すでにInternetを越えて運用されるNDI イントラ・ネットワークでの運用を前提としてスタートしたNDIだが、すでにInternetを越えて運用するソリューションも登場している。これから脚光を浴びる分野とも言えるが、その中からも製品をいくつか紹介したい。まずは、Medialooks社のVideo Transport。こちらは、NDIソースをインターネット越しに伝送するアプリケーションだ。PCがトランスミッターとなりNDI信号をH.265で圧縮を行い、ストリーミングサイズを落とすことで一般回線を利用した伝送を実現した。フルクオリティの伝送ではないが、汎用のインターネットを越えて世界中のどこへでも伝送できるということに大きな魅力を感じさせる。また、データサイズを減らしてはいるが、瞬間的な帯域の低下などによるコマ落ちなど、一般回線を使用しているからこその問題をはらんでいる。バッファーサイズの向上など、技術的なブレイクスルーで安定したクオリティーの担保ができるようになることが期待されるソリューションだ。 BirdDog社ではBirdDog Cloudというソリューションを展開している。こちらは実際の挙動をテストできていないが、SRT=Secure Reliable Transportという映像伝送プロトコルを使い、インターネット越しでの安定した伝送を実現している。また、こちらのソリューションはNDIをそのまま伝送するということに加え、同社Comms ProやPTZカメラのコントロールなども同時に通信が可能であるとのこと。しっかりと検証してまたご紹介させていただきたいソリューションだ。 Rock oN渋谷でも近々にNewTek TriCasterを中心としたNDIのシステムを導入を行い、製品ハンズオンはもちろんのことウェビナー配信でもNDIを活用していくことになる。セットアップも簡便なNDIの製品群。ライブ配信の現場での運用がスタートしているが、この使い勝手の良さは今後のスタジオシステムにおけるSDIを置き換えていく可能性が大いにあるのではないだろうか。大規模なシステムアップに向いたSMPTE ST-2110との棲み分けが行われ、その存在感も日増しに高くなっていくことは想像に難くない。IP伝送方式の中でも筆頭格として考えられるNDIがどのようにワークフローに浸透していくのか、この先もその動向に注目しておくべきだろう。   *ProceedMagazine2021号より転載

Media

配信環境グレードアップ作戦!〜ヘッドセットマイクでパフォーマンスと声の明瞭度をアップ!!

コロナの影響もあり、Youtube等での配信にすでにチャレンジされた方も多くいらっしゃるのではないでしょうか? カメラ、ビデオ・スイッチャーなどを揃えれば、まずは配信をおこなうことは出来るようになります。 そして、次のステップとしてオーディオミキサーで効果音や、音楽などを加えることにチャレンジ。 次のステップとしては、何があるか?そう考えると、喋っている音をクリアに聞かせるためのマイクが必要ということになるかと思います。 デスクトップタイプのスタンドにSHURE SM58などを準備してもよいですが、両手がフリーになるヘッドセットタイプのマイクをここではご紹介したいと思います。 ヘッドセットマイク?ラベリアマイク? ラベリアマイクもヘッドセットマイクも、大きなくくりとしては同じものです。なぜなら、ラベリアマイク=小型マイクということだからです。 ラベリアマイクを耳掛けできるようにしたものがヘッドセットマイクです。 ラベリアマイクは、代表的な形状としてタイピン型のマイクで襟などにクリップで取り付けるものがあります。撮影の現場などでは、更に小型のマイクを襟の裏側などに仕込んだりということも行われます。 マイクの存在を画面に写さずにその効果を得ることが出来るのが特徴と言えるでしょう。 別に画面に写っても構わないというケースがほとんどだと思われるYoutubeなどの配信では、できるだけ口元の近くで集音の出来るヘッドセット型の製品のほうが有利と言えるでしょう。 音源=口元のできるだけ近くにマイクを設置することが出来る、ということは、言葉を明瞭に捉えることだけでなく、部屋のノイズ(空調音や、ファンノイズ)を低減させることにもつながる一石二鳥のチョイスとなります。 言葉を明瞭にすることのメリットは言うまでもありませんし、両手の塞がらないヘッドセットタイプはこれまで通りのパフォーマンスを可能とします。 ヘッドセットマイクには、片耳掛けと、両耳掛けがあります。それほど激しい動きのない場合はどちらでも良いでしょうが、やはり両耳掛けのほうが一般的には安定します。 ステージなどでのダンスを伴うようなシーンでは逆に片耳掛けで頬に透明テープなどで固定すると行ったことも行われますし、ヘアスタイルに影響の少ない片耳掛けは女性に好まれるといった側面もありますので、ここのチョイスはまさにケースバイケースといったところではないでしょうか。 おすすめヘッドセットマイク audio technica PRO8HE 販売価格:¥ 10,456 (本体価格:¥ 9,505) 高磁力マグネットを搭載したダイナミックマイクロフォン。ファンタム電源不要のため、オーディオミキサーの仕様を選ばず手軽に導入できます。 軽量のヘッドバンドとクッション性の良いサポートパッドを採用し、快適で安定した装着感を実現。マイク本体はフレキシブルに角度を変えられるだけでなく、左右どちらでも使用可能。ハイパーカーディオイド特性により、背面や側面からの不要な音をアイソレート。求める音源を確実に収音し、卓越したハウリングマージンを実現します。 Rock oN Line eStoreでのご購入はこちらから>> SHURE SM35-XLR 販売価格:¥ 19,250 (本体価格:¥ 17,500) ライブパフォーマンス向けマイクでは定番ブランドと言えるSHUREのヘッドセットマイク。激しいパフォーマンス中でも安定した収音が可能な設計となっています。ヘッドセットマイクはワイヤレスでの使用が想定されたものが多い中、こちらは標準的なXLRで接続可能。 ROCK ON PRO presents ACSU 2020 Onlineでメインの出演者に使用されたのもこのモデルです。 Rock oN Line eStoreでのご購入はこちらから>> SHURE BLX14J/P31-JB 販売価格:¥ 44,000 (本体価格:¥ 40,000) ライブパフォーマンスや講義・講演などでは圧倒的に便利なワイヤレスシステム。その利点はWEB配信になっても変わりません。 ライブに強いSHUREはワイヤレスにも当然強い!ということで、お求めやすいエントリーモデルのワイヤレスシステムを紹介致します。 BLX14JはB帯(800MHz帯)対応のワイヤレスレシーバー。耐久性に優れ、簡単なセットアップでわかり易いコントロール機能、ワンタッチで操作できるQuickScanなどの機能により簡単にセットアップできます。 Rock oN Line eStoreでのご購入はこちらから>> Line 6 XD-V55HST 販売価格:¥ 52,800 (本体価格:¥ 48,000) こちらはLine 6の2.4GHz帯対応デジタルワイヤレスシステム。 付属するヘッドセット・システムは安定しているだけでなくセッティングを調整でき、ハイエンドの無指向性マイク・カプセルとダイナミック・フィルターにより不要なポップやバックグラウンド・ノイズを低減できます。 リンク先はマイクのカラーがタンのモデルですが、ブラックモデルもラインナップされています。そちらをご希望の際はぜひRock oN Line eStoreへお問い合わせください! Rock oN Line eStoreでのご購入はこちらから>> Rock oN Line eStoreに特設コーナーが誕生! Rock oN Line eStoreでは、カメラからスイッチャー、配信や収録向けのマイクなど、映像制作に関わる機材を集めた特設コーナーを新設している。本記事に挙げた個別の機材が購入できるのはもちろん、手軽なセット販売や、スタッフに相談できる問い合わせフォームなどもあるので、ぜひ覗いてみてほしい。 eStore特設コーナーへ!!>>

Solution

手軽に多拠点ストリーミング!〜ATEM Streaming Bridge

ATEM Streaming Bridgeは、ATEM Mini ProシリーズからH.264ストリームを受信して、SDI/HDMIビデオに変換するビデオコンバーター。ATEM Mini Pro / ATEM Mini Pro ISOからのEthenetダイレクトストリーミング信号を受け、SDI/HDMI対応機器にビデオ信号を送ることが出来ます。 つまり、離れた場所にある複数のATEM Mini Pro / ATEM Mini Pro ISOの映像を受け、手元のATEM Mini Pro / ATEM Mini Pro ISOでスイッチングしながらインターネットに配信を行うことが可能になります! ローカルLANだけでなく、特定のポートを開放することでインターネット越しに信号を受けることも可能。世界中のATEM Mini Pro / ATEM Mini Pro ISOユーザーとコラボレーションしながらの多拠点ストリーミングが手軽に行えます。 セットアップ例 ATEM Streaming Bridgeを使用すると、ATEM Mini Pro / ATEM Mini Pro ISOからのダイレクト配信の配信先としてATEM Streaming Bridgeを指定することができるようになる。図のように、ひとつのビデオスイッチャーに信号をまとめることもできるし、SDI/HDMI対応のレコーダーへ入れてやることもできる。各カメラに1台ずつATEM Mini Pro / ATEM Mini Pro ISOを使用して、離れた場所にいるエンジニアにスイッチングをまるごと任せるような使い方も可能だ。 ATEM Streaming Bridge 販売価格:¥30,778(本体価格:¥ 27,980) 高度なH.264コーデックを使用しており、非常に低いデータレートで高品質を得られるため、ローカル・イーサネットネットワークで離れた場所にビデオを送信したり、インターネット経由で世界中に送信できます!放送局とブロガーがコラボレーションし、ATEM Mini Proを使ったリモート放送スタジオの国際的なネットワークを構築できると想像してみてください。(インターネット経由での受信には特定のポートを開放する必要があります。詳細は製品マニュアルをご参照ください。) Rock oN Line eStoreでのご購入はこちらから>> Blackmagic Design ATEM Mini Pro 販売価格:¥ 73,150(本体価格:¥ 66,500) ATEM Mini Proで追加される機能は「本体からインターネットへのダイレクト配信」「マルチモニタービュー」「プログラム出力の外部SSDへの収録」の3つ。本記事の主旨に則ってオーディオクオリティを優先すると、ダイレクト配信機能は使用する機会がないため、各カメラの映像を確認しながらスイッチングをしたい、または、配信した動画を高品質で取っておきたいのいずれかに該当する場合はこちらを選択することになる。 Rock oN Line eStoreでのご購入はこちらから>> Blackmagic Design ATEM Mini Pro ISO 販売価格:¥ 113,850(本体価格:¥ 103,500) ATEM Mini Pro ISOで追加される機能は、ATEM Mini Proの全機能に加え、「全HDMI入出力信号を外部SSDに個別に保存」「スイッチングを施したタイミングをDaVinci Resolveで読み込めるマーカーの記録」の2つ。あとから映像を手直ししたり再編集したりしたい場合にはこちらを選択することになる。アーカイブ映像として公開する前に、本番中に操作を誤ってしまった部分を修正したり、リアルタイムで無料配信したライブを編集し後日有償で販売する、といったことが可能になる。 Rock oN Line eStoreでのご購入はこちらから>> Rock oN Line eStoreに特設コーナーが誕生! Rock oN Line eStoreでは、カメラからスイッチャー、配信や収録向けのマイクなど、映像制作に関わる機材を集めた特設コーナーを新設している。本記事に挙げた個別の機材が購入できるのはもちろん、手軽なセット販売や、スタッフに相談できる問い合わせフォームなどもあるので、ぜひ覗いてみてほしい。 eStore特設コーナーへ!!>>

Media

Roland V-600U~HD4K/HD混在環境でもハイクオリティなビデオ出力!

放送や映像制作と同じように、イベントやプレゼンテーションなどの演出も4K化が進んでいます。一方で、クライアントや演出者からは従来の HD 機材の対応も同時に求められている。 V-600UHDはそうした現場のニーズに合わせ、従来の HD 環境を段階的に 4K に対応させることが可能。全ての入出力端子にローランド独自の「ULTRA SCALER」を搭載。 この機能によりフル HD と 4K の異なる映像を同時に扱えるだけでなく4K と HD 映像も同時に出力できるため、従来の HD ワークフローの中に4K映像を取り込むことができる。 システムセットアップ V-600UHD は HDMI(2.0対応)入力を 4 系統、12G-SDI 入力を 2 系統搭載し、PC とメディア・プレーヤーに加え、ステージ用にカメラを使用するようなイベントやライブコンサートに最適。すべての入出力に独自のスケーラーを搭載し、4KとHDを同時に入出力することができるため、両者が混在するシステムでも容易に運用が可能だ。 会場ディスプレイには4K映像を出力しながら、HDモニターやライブ配信用エンコーダー等従来の HD 表示デバイスへの出力も可能。エンベデッド・オーディオの入出力にも対応するほか、XLR入力2系統を備えオーディオミキサーからの出力をもらうこともできる。中規模〜大規模イベントのコアシステムとして高い実用性を誇る。 プロダクト ROLAND V-600UHD 販売価格:¥ 1,408,000(本体価格:¥ 1,280,000) HDR、フル・フレームレート 60Hz、Rec.2020 規格、DCI 4K(シネマ4K)解像度など先進のテクノロジーに対応し、高精細な映像を扱うことが可能。さらに、内部映像処理は 4:4:4/10bit に対応し、PC から出力された高精細な映像も鮮明に表示可能で、拡大した映像内の細かな文字も細部まで読み取ることができる。 「ROI(Region of Interest)機能」を使えば、1 台の 4K カメラの映像から必要な部分を最大 8 つ抽出することで、複数のカメラを用意するのと同じような演出が可能になる。スケーラー機能と併せてクロスポイントに割り当てることが可能。カメラの台数に頼ることなく、映像演出の幅を拡げることができる。 Rock oN Line eStoreでのご購入はこちらから>> ROLAND UVC-01 販売価格:¥ 27,500(本体価格:¥ 25,000) 最大1920×1080/60pに対応するRoland純正のビデオキャプチャー/エンコーダー。Mac/Windowsに対応し、ドライバーのインストール不要、USBバスパワー対応など、普段使いにも便利な取り回しのよさが魅力だ。ほとんどのHDMIカメラやビデオスイッチャーに対応するため、WEB配信の機会が多いユーザーは持っておくと便利かも。 Rock oN Line eStoreでのご購入はこちらから>> Rock oN Line eStoreに特設コーナーが誕生! Rock oN Line eStoreでは、カメラからスイッチャー、配信や収録向けのマイクなど、映像制作に関わる機材を集めた特設コーナーを新設している。本記事に挙げた個別の機材が購入できるのはもちろん、手軽なセット販売や、スタッフに相談できる問い合わせフォームなどもあるので、ぜひ覗いてみてほしい。 eStore特設コーナーへ!!>>

Media

ライブミキサーを使用して4K制作環境でWEB配信!

ついにiPhoneが5Gに対応し、大容量データの高速通信がモバイル環境でもいよいよ実現されつつある。テレビ放送やリアルイベントではすでに4Kの需要は高まっており、その波がWEB配信の世界にも押し寄せることが予想される。折しもコロナ禍の影響で映像配信事業の成熟は加速度的に高まっており、既存メディアと同等のクオリティが求められるようになるまでにそれほど長い時間はかからないだろう。 あらゆるライブイベントをプロ仕様のプログラムとして制作することが出来るビデオスイッチャー、Blackmagic Television Studio Pro 4Kを中心とした、4K対応WEB配信システムを紹介しよう。 システムセットアップ 4K対応ビデオスイッチャーであるATEM Television Studio Pro 4Kから、4K対応のビデオキャプチャーであるUltra Studio 4K Miniで配信用のフォーマットにファイルをエンコード。配信用のMac/PCに信号を流し込む構成だ。 ATEM Television Studio Pro 4Kはマルチビュー出力を備えているため、SDIインプットのあるモニターを使用して各カメラやメディアからの映像を監視しながら映像の切り替えを行うことができる。 図ではオーディオ部分を割愛しているが、ATEM Television Studio Pro 4Kにはオーディオインプット用のXLR2系統が備わっているほか、SDIにエンベッドされたオーディオ信号を扱うこともできる。Ethernet経由でMac/PCを繋ぎ、ATEM Control Softwareを使用すれば内部で音声ミキシングも可能なため、ミキサーからのアウトをATEM Television Studio Pro 4Kに入れ、映像と音をここでまとめることが可能。 オーディオクオリティにこだわるなら、小型のオーディオI/FやI/F機能付きミキサーを使用してミキサーからの信号を配信用のMac/PCに直接入力してもよい。手持ちのミキサーの仕様や求められる品質・運用に鑑みて、柔軟な構成を取ることができる。 キープロダクト Blackmagic Design ATEM Television Studio Pro 4K 販売価格:¥373,780(本体価格:¥339,800) 8系統の12G-SDI入力を搭載し、ハイエンドの放送用機能に対応したATEM Television Studioシリーズの中でも、ATEM Television Studio Proシリーズはプロ仕様の放送用ハードウェアコントロールパネルが一体化しており、追加のCCUにも対応。すべての入力系統に再同期機能を搭載しており、プロ仕様および民生用カメラで常にクリーンなスイッチングが可能。マルチビュー出力に対応しており、すべてのソースおよびプレビュー、プログラムを単一のスクリーンで確認できる。また、Aux出力、内蔵トークバック、2つのスチルストア、オーディオミキサー、カメラコントロールユニットなどにも対応。 ライブプロダクション、テレビシリーズ、ウェブ番組、オーディオビジュアル、そしてテレビゲーム大会のライブ放送などに最適で、カメラ、ゲーム機、コンピューターなどを接続するだけで簡単にライブスイッチングを開始できる。 Rock oN Line eStoreでのご購入はこちらから>> Blackmagic Design UltraStudio 4K Mini 販売価格:¥125,180(本体価格:¥ 113,800) UltraStudio 4K Miniは本来はThunderbolt 3に対応したポータブルなキャプチャー・再生ソリューション。Mac/PCにビデオI/Fとして認識される機能を利用して、4K対応キャプチャーカードとして使用することが可能だ。 最新の放送テクノロジーを搭載しており、4K DCI 60pまでのあらゆるフォーマットで放送品質の8/10-bitハイダイナミックレンジ・キャプチャー、4K DCI 30pまでのあらゆるフォーマットで12-bitハイダイナミックレンジ・キャプチャーを実現。SDカードリーダーを内蔵しているので、カメラメディアを直接コンピューターにマウントすることも可能だ。 Rock oN Line eStoreでのご購入はこちらから>> Blackmagic Design Blackmagic Web Presenter 販売金額:¥ 62,678(本体価格:¥ 56,980) 素材のみは4Kで録っておき、配信はHD品質でもOK、という方はUltraStudio 4K Miniの代わりにこちらを。 あらゆるSDIまたはHDMIビデオソースをUSBウェブカメラの映像として認識。Skypeなどのソフトウェアや、YouTube Live、Facebook Live、Twitch.tv、Periscopeなどのストリーミング・プラットフォームを使用したウェブストリーミングを一層高い品質で実現。Teranex品質のダウンコンバージョンに対応しているので、あらゆるSD、HD、Ultra HDビデオを、低データレートながらも高品質のストリーミングが可能な720pに変換する。 ドライバ不要で、ハイクオリティの内部エンコーダーとして動作する本機があれば、キャプチャデバイスとコンピューターの相性を気にすることなくWEB配信に集中できる。 Rock oN Line eStoreでのご購入はこちらから>> Rock oN Line eStoreに特設コーナーが誕生! Rock oN Line eStoreでは、カメラからスイッチャー、配信や収録向けのマイクなど、映像制作に関わる機材を集めた特設コーナーを新設している。本記事に挙げた個別の機材が購入できるのはもちろん、手軽なセット販売や、スタッフに相談できる問い合わせフォームなどもあるので、ぜひ覗いてみてほしい。 eStore特設コーナーへ!!>>

Media

ウェブキャスターで高品質配信!音楽演奏配信向けシステムセットアップ例

公共の場でのマスク着用と並んで、映像配信はウィズ・コロナ時代のひとつのマナーとさえ言えるほど急速にひとびとの生活に浸透している。もちろん半分ジョークだが、読者の半数は実感を持ってこのことばを迎えてくれることと思う。なにせ、このような記事を読もうと思ってくれているのだから、あなたも映像配信にある程度の関心があるはずだ。 さて、しかし、いざ自分のパフォーマンスを配信しようと思っても、どのような機材を揃えればいいのか、予算はいくらくらいが妥当なのか、というところで迷ってしまう方もいることだろう。(Z世代のミュージシャンは、そんなことはないのだろうか!?) そこで、この記事では音楽の生演奏を前提に、低価格かつ高品質な映像配信を実現するシステムアップ例を紹介したいと思う。 システムセットアップ例 スイッチャーはATEM Miniで決まり!? マルチカメラでの映像配信にこれから挑戦したいという方にぜひおすすめしたいビデオスイッチャーがBlackmagic Design ATEM Miniシリーズだ。4x HDMI入力やプロ仕様のビデオエフェクト、さらにはカメラコントロール機能までついた本格仕様でありながら価格破壊とも言える低価格を実現しており、スイッチャーを初めて導入するという方からコンパクトなスイッチャーを探しているプロフェッショナルまで、幅広くおすすめできるプロダクトだ。 ATEM Mini、ATEM Mini Pro、ATEM Mini Pro ISO、と3つのラインナップがあり、順次機能が増えていく。ATEM Miniでは各カメラ入力をモニターする機能がないため、バンド編成でのライブ配信などにはATEM Mini ProかATEM Mini Pro ISOを選択する方がオペレートしやすいが、弾き語りや小編成ユニットの場合はATEM Miniでも十分だろう。 ATEM Miniシリーズについての詳細はこちらの記事>>も参考にしてほしい。 オーディオI/F機能付きミキサーでサウンドクオリティUP! ATEM Miniシリーズにはマイク入力が備わっており、ATEM Mini内部でのレベルバランスの調整も可能となっている。しかし、オーディオのクオリティにこだわるなら小型でもよいのでオーディオミキサーの導入が望ましい。ライブやレコーディングで使用できる一般的なマイクを使用することができるし、機種によってはオンボードのエフェクトも使用できる。必要十分な入出力数を確保できるし、なにより経由する機器を減らす方がクオリティは確実に上がる、とメリット尽くしだ。 音声系をいったんミキサーでまとめ、ATEM Miniからの映像信号とは別系統としてMac/PCに入力、OBSなどの配信アプリケーション内で映像と音声のタイミングを合わせるというシステムアップになる。 この時、ミキサーとオーディオI/Fを別々に用意してもよいが、最近の小型ミキサーの中にはUSBオーディオI/F機能を搭載したものも多く、「ウェブキャスター」と呼ばれるWEB配信を特に意識したプロダクトも存在する。 すでにミキサーやオーディオI/Fを所有しているなら足りない方を買い足すのがよいだろうが、これから配信に挑戦しようというならウェブキャスターなどのUSB I/F機能付きミキサーがうってつけのソリューションとなるだろう。チャンネル数、対応サンプリング周波数、マイク入力数など各モデルで特色があるため、自分に必要なスペックがわからない場合は気軽にRock oN Line eStoreに問い合わせてみてほしい。 おすすめI/F機能付きミキサー YAMAHA AG-06 販売価格:¥ 19,800(本体価格:¥ 18,000) ウェブキャスターという名称を広めた立役者とも言えるYAMAHA AGシリーズ。ループバック機能、ヘッドセット対応、2x マイク/ライン入力・1x 48Vファンタム電源を含む6入力、USB I/F機能、USBバスパワーなど、ウェブ動画配信に完全対応。さらに最大で192kHz/24bitというハイレゾクオリティのオーディオ性能を誇る。弾き語りや二人組ユニットだけでなく、バックトラックに合わせての演奏やトーク番組風の配信、ゲーム実況まで幅広く対応可能だ。 Rock oN Line eStoreでのご購入はこちらから>> ZOOM LIVETRAK L-8 販売価格:¥ 39,600(本体価格:¥ 36,000) ジングルや効果音を鳴らせる6個のサウンドパッド、電話の音声をミックスできるスマートフォン入力、バッテリー駆動でスタジオの外にも持ち出せる機動力。ポッドキャスト番組の収録やライブ演奏のミキシングが手軽に行える、8チャンネル仕様のライブミキサー&レコーダー。内蔵SDカードに録音することが可能で、12chモデル、20chモデルの上位機種もランナップされているためバンドライブの動画配信にはうってつけだろう。 Rock oN Line eStoreでのご購入はこちらから>> Presonus StudioLive AR8c 販売価格:¥ 55,000(本体価格:¥ 50,000) ミュージシャン達がミュージシャンのために開発したハイブリッド・ミキサーであるStudioLive® ARcシリーズは、XMAXプリアンプ/EQ/デジタル・エフェクトを搭載したアナログ・ミキサーに、24Bit 96kHz対応のマルチチャンネルUSBオーディオ・インターフェース、SD/SDHCメモリー・カード録音/再生、そしてBluetoothオーディオ・レシーバーによるワイヤレス音楽再生機能を1台に統合。ラインアップは、8チャンネル仕様、12チャンネル仕様、16チャンネル仕様の3機種。レコーディングや音楽制作のためのCapture™/Studio One® Artistソフトウェアも付属し、ライブPA、DJ、バンドリハーサル、ホームスタジオ、ネット配信に理想的なオールインワン・ハイブリッド・ミキサーとなっている。 Rock oN Line eStoreでのご購入はこちらから>> YAMAHA MG10XU 販売価格:¥ 29,334(本体価格:¥ 26,667) YAMAHAの定番アナログミキサーであるMGシリーズも、多くがUSB I/F機能を搭載している。WEB配信に特化した製品ではないが、高品位なディスクリートClass-Aマイクプリアンプ「D-PRE」搭載をはじめ、1ノブコンプ、24種類のデジタルエフェクトなど、本格的なミキサーとしての機能を備えており、クオリティ面での不安は皆無と言える。20chまでの豊富なラインナップも魅力。トークやMCではなく「おれたちは音楽の中身で勝負するんだ!」という気概をお持ちなら、ぜひこのクラスに手を伸ばしてほしい。 Rock oN Line eStoreでのご購入はこちらから>> SOUNDCRAFT Notepad-8FX 販売価格:¥ 14,900(本体価格:¥ 13,545) ブリティッシュコンソールの老舗メーカーであるSOUNDCRAFTにもUSB I/F機能搭載のコンパクトミキサーがラインナップされている。全3機種の中で上位モデルであるNotepad-12FXと本機Notepad-8FXには、スタジオリバーブの代名詞Lexicon PRO製のエフェクト・プロセッサーを搭載!ディレイやコーラスも搭載しており、これ1台で積極的な音作りが可能となっている。ブリティッシュサウンドを体現する高品位マイクプリ、モノラル入力への3バンドEQ搭載など、コンパクトながら本格的なオーディオクオリティを誇っている。 Rock oN Line eStoreでのご購入はこちらから>> ALLEN & HEATH ZEDi-8 販売価格:¥ 19,008(本体価格:¥ 17,280) こちらもイギリスの老舗コンソールメーカーであるALLEN & HEATHが送るUSB I/F対応アナログミキサーがZEDシリーズだ。ZEDi-8はコンパクトな筐体に必要十分で高品質な機能がギュッと凝縮されたようなプロダクトだ。2バンドのEQ以外にオンボードエフェクトは搭載していないが、定評あるGS-R24レコーディング用コンソールのプリアンプ部をベースに新設計されたGSPreプリアンプは同シリーズ32ch大型コンソールに搭載されているのと同じもの。長い歴史を生き抜いてきたアナログミキサー作りのノウハウが詰め込まれた一品と言えそうだ。 Rock oN Line eStoreでのご購入はこちらから>> あなたに最適なATEM Miniは!? Blackmagic Design ATEM Mini 販売価格:¥ 39,578(本体価格:¥ 35,980) 4系統のHDMI入力、モニター用のHDMI出力1系統、プロクオリティのスイッチング機能とビデオエフェクトなど、プロクオリティの機能を備えながら圧倒的な低コストを実現するATEM Mini。コンピューターに接続してPowerPointスライドを再生したり、ゲーム機を接続することも可能。ピクチャー・イン・ピクチャー・エフェクトは、生放送にコメンテーターを挿入するのに最適。ウェブカムと同様に機能するUSB出力を搭載しているので、あらゆるビデオソフトウェアに接続可能。導入コストを低く抑えたい方にはおすすめのプロダクトです。 Rock oN Line eStoreでのご購入はこちらから>> Blackmagic Design ATEM Mini Pro 販売価格:¥ 73,150(本体価格:¥ 66,500) ATEM Mini Proで追加される機能は「本体からインターネットへのダイレクト配信」「マルチモニタービュー」「プログラム出力の外部SSDへの収録」の3つ。本記事の主旨に則ってオーディオクオリティを優先すると、ダイレクト配信機能は使用する機会がないため、各カメラの映像を確認しながらスイッチングをしたい、または、配信した動画を高品質で取っておきたいのいずれかに該当する場合はこちらを選択することになる。 Rock oN Line eStoreでのご購入はこちらから>> Blackmagic Design ATEM Mini Pro ISO 販売価格:¥ 113,850(本体価格:¥ 103,500) ATEM Mini Pro ISOで追加される機能は、ATEM Mini Proの全機能に加え、「全HDMI入出力信号を外部SSDに個別に保存」「スイッチングを施したタイミングをDaVinci Resolveで読み込めるマーカーの記録」の2つ。あとから映像を手直ししたり再編集したりしたい場合にはこちらを選択することになる。アーカイブ映像として公開する前に、本番中に操作を誤ってしまった部分を修正したり、リアルタイムで無料配信したライブを編集し後日有償で販売する、といったことが可能になる。 Rock oN Line eStoreでのご購入はこちらから>> Rock oN Line eStoreに特設コーナーが誕生! Rock oN Line eStoreでは、カメラからスイッチャー、配信や収録向けのマイクなど、映像制作に関わる機材を集めた特設コーナーを新設している。本記事に挙げた個別の機材が購入できるのはもちろん、手軽なセット販売や、スタッフに相談できる問い合わせフォームなどもあるので、ぜひ覗いてみてほしい。 eStore特設コーナーへ!!>>

Media

加速度的に進む普及、ATEM Mini Proが配信を面白くする

ATEM Mini Pro 価格:¥74,778(税込) いま、注目を集めているのはオンライン・コラボレーションだけではない。音楽ライブ、ゲーム、セミナーなどの配信、特にリアルタイム配信の分野もまた、大きな注目を集め始めている。ここでは、そうしたライブ配信のクオリティアップを手軽に実現できるプロダクトとしてBlackmagic Design ATEM Mini Proを取り上げたい。 スイッチャーの導入で配信をもっと面白く 冒頭に述べたように、オンラインでのコミュニケーションを行う機会が格段に増えている。以前からゲームプレイの中継配信などがメディアにも取り上げらることが多かったが、ここのところではライブを中心に活動していたミュージシャンやライブハウスが新たにライブ配信に参入するケースも出てきた。もちろん普段の生活の中でもオンラインでのセミナー(所謂ウェビナー)や講義・レッスン、さらにはプレゼンの機会も多くなっているだろう。 その音楽ライブの配信は言うまでもなく、ゲーム中継やセミナー、会議やプレゼンでも、ふたつ以上の映像を配信できた方が表現の幅が広がり、視聴者や参加者により多くの事柄を伝えることができる。演奏の様子を配信する場面では、引きと寄りのアングルを切り替えた方が臨場感が増すし、音楽レッスンならフォーム全体と手元のクローズ映像が同時に見られた方がより分かりやすい。講義やプレゼンではメインの資料を大きく映しておいて、ピクチャインピクチャで講師の顔を映しておく、補足資料や参考URLなどを別PCで用意しておく、プロダクトをカメラで撮ってプレゼンする、など使い方を少し思い起こすだけでも数多くの手法が広がることになる。 こうしたニーズを満たすのがビデオスイッチャーと呼ばれるプロダクトになるのだが、現在、市場で見かけるスイッチャーのほとんどは業務用にデザインされたものになっている。サイズの大きいものが多く、また様々な機能が使用できる分だけ一見すると操作方法が分かりにくい場合もある。さらに、入出力もSDI接続である場合がほとんどであり、家庭向けのカメラとの使用には向いていない。そして何より高額だ。 しかし、昨年秋に発表されたBlackmagic Design ATEM Miniは、放送用のトランジションやビデオエフェクト機能を備えた4系統HDMI入力対応のスイッチャーでありながら、税込定価¥40,000を切るプロダクトとして大きな話題を呼んだ。今回紹介するATEM Mini Proは新たに発売された上位版にあたるプロダクトであり、ATME Mini にさらに機能を追加し、業務用途にも耐える仕上がりとなっている。どのような映像を配信したいかは個別のニーズがあるが、インターネットへマルチカムでの映像配信を検討中の方は必見のプロダクトだ。以下で、ATEM Mini、ATEM Mini Proのアドバンテージを概観していきたい。 HDMI 4系統に特化した映像入力 まず、ATEM Miniシリーズが手軽なソリューションである大きな理由は、HDMI 4系統のみというシンプルな入力であることだ。その他の入力系統を大胆に省略し、多くの家庭用カメラが対応するHDMIに接続を特化することで、十分な入力数を確保しながらコンパクトなサイズを実現している。これは、業務用カメラやSDI変換などの高額な機器が不要であるという点で、システム全体の導入費用を大幅に下げることにも貢献する。 外部オーディオ入力端子としてふたつのステレオミニジャックを備えているため、ダイナミックマイクを接続することも可能。画角との兼ね合いでカメラからのオーディオが使用しにくい場合でも、クリアな音質を確保することができる。2020年6月のアップデートで、コントロールソフトウェアで外部からのオーディオ入力にディレイを掛ける機能が追加され、画・音のずれを修正することも可能になった。 システムをコンパクトに さらに、ATEM Miniシリーズの利点として配信システムに必要なデバイスの数を減らすことができるという点も挙げられる。スイッチャーを中心としてマルチカム配信システムの構成をざっくりと考えると、カメラやMac/PCなどの映像入力機器、スイッチャー、信号を配信に向いたコーデックにエンコードするキャプチャー/WEBキャスター、配信アプリケーションのインストールされたMac/PC、となる。 ATEM Miniはこのうち、スイッチャーとキャプチャーの機能を併せ持っている。Mac/PCからウェブカムとして認識されるため、配信用のMac/PCに接続すればそのままYouTube LiveといったCDNに映像をストリーミングすることができるのだ。それだけでなく、SkypeやZoomなどのコミュニケーションツールからもカメラ入力として認識されるため、会議やプレゼン、オンライン講義などでも簡単に使用することができる。上位機種のATEM Mini Proはこれに加えて、配信アプリケーションの機能も備えている。システムを構成するデバイスを削減できるということは、コスト面でのメリットとなるだけでなく、機材を持ち込んでの配信や、システムが常設でない場合などに、運搬・組み上げの手間が省略できるというアドバンテージがある。 ATEM Miniは図のようにスイッチャー、キャプチャーをひとまとめにした機能を持っているが、上位版のATEM Mini Proではさらに配信環境までカバーする範囲が広がる。まさにオールインワンの配信システムと言える内容だ。 つなぐだけ派にも、プロユースにも デフォルトの設定では、ATEM Mini / ATEM Mini Proは4系統のHDMIに入力された信号を自動で変換してくれる。つまり、面倒な設定なしでカメラをつなぐだけで「とりあえず画は出る」ということだ。 しかし、ATEM シリーズに無償で同梱される「ATEM Software Control」は、これだけで記事がひとつ書けてしまうほど多機能で、クオリティにとことんこだわりたい場合はこちらから詳細な設定やコントロールを行うことも可能。スイッチングやオーディオレベルの操作は本体のパネルからも行うことができるが、コントロールソフトウェアを使用すれば、さらに追い込んだ操作を行うことが可能になる。このATEM Software Controlの各機能はDaVinci Resolveで培われた技術を使用しているため、オーディオ/ビデオ・エフェクトやメディア管理など、業務レベルに耐えるクオリティの仕上がりになっている。 しかも、ATEM Software Controlはネットワークを介して本体と接続できるため、離れた場所からのスイッチャー操作も可能。HDMIは長尺ケーブルを使用するのがためらわれるが、この機能を使用すればカメラ位置に左右されずにオペレーションするスペースを確保することができる。さらに、同時に複数のATEM Software ControlからひとつのATEM Mini / ATEM Mini Proにアクセスできるため、スイッチング / カメラ補正 / オーディオミキシング、など、役割ごとにオペレーターをつけるというプロフェッショナルな体制を取ることまでできてしまう。 ATEM Software Controlのコントロール画面。なお、オーディオパネルはMackie Control、KORG NanoKontrol、iCON Platform M+などの外部コントローラーに対応している。スペースに余裕が生まれた分、こうした機材を導入して音のクオリティアップで差をつけるのも面白いだろう。 ATME Mini VS ATEM Mini Pro ●CDNにダイレクトにストリーミング ATEM MiniとATEM Mini Proのもっとも大きな違いと言えるのが、ATEM Mini Proでは本体を有線でインターネットにつなげば、ダイレクトにCDNに映像をストリーミングすることができるということだ。もちろん、ストリーミングキーを入力してやるためのMac/PCは必要になるが、一度キーを設定してしまえば本体から取り外しても問題ない。手元のスペースを節約できるだけでなく、安定した配信を行うためにスペックの高いMac/PCを新たに購入する必要がなくなるし、ストリーミングのように安定度が求められる部分をハードウェアに任せることができるのは大きな安心だ。省スペース、低コスト、高い信頼性、と、この機能の実装によって得られるメリットは非常に大きいのではないだろうか。ライブハウスなどによるビジネス用途ならATEM Mini Pro、すでに十分に高いスペックのマシンを所有しているならATEM Miniと、既存の環境に応じてチョイスするとよいのではないだろうか。 ●マルチビュー対応 こちらもパワフルな機能。ATEM Mini ProにはHDMI出力が1系統しか搭載されていないが、一画面で全ての入力ソース、メディアプレイヤー、オーディオとON AIRのステータスを確認することができる。各モニターはタリーインジケーターを表示可能で、どのソースがオンエアされ、次にどのソースへトランジットするかを確認することができる。プレビュー機能も備えており、M/Eがどのようにかかるのかを事前に確認することも可能だ。これらすべてを一画面でモニターできるというコンパクトさと取り回しのよさは、まさに"Pro"という名にふさわしい機能追加と言えるだろう。 ●外部デバイスへプログラムをレコーディング ATEM Mini Proは、プログラムをH.264ビデオファイルとしてUSBフラッシュディスクにダイレクトに記録することができる。しかも、USBハブやBlackmagic Design MultiDockなどのプロダクトを使用すると、複数ディスクへの収録にも対応可能だ。ひとつのディスクがフルになると、自動で次のディスクに移行することで、長時間のストリーミングでも継続した収録を行うことができる。YouTube LiveやFacbook LiveではWEB上にアーカイブを残すことが可能だが、プログラムをその場で手元にメディアとして持っていられることは、ほかの場所で使用することなどを考えると大きなメリットとなるだろう。 実際の自宅からの簡易的な配信を想定したシステム例。ATEM Mini Proで取りまとめさえすれば配信への道は簡単に開けてしまう。音声の面でも48Vファンタム対応の小型ミキサーを使用すればコンデンサーマイクを使用することができる。HDMIアダプタを使用して、スマートフォンやタブレットをカメラ代わりに使うことも可能。別途、配信用のMac/PCを用意すれば、複数の配信サイトにマルチキャストすることもできる。 にわかに活況を呈するコンパクトビデオスイッチャーの世界。小さなスペースで使用でき、持ち運びや設置・バラシも手軽な上に、マルチカメラでの配信をフルHD画質で行うことを可能にするコンパクトスイッチャーをシステムの中心に据えることで、スマホ配信とは別次元のクオリティで映像配信を行うことが可能となる。特にATEM Mini / ATEM Mini Proを使用すれば、ほんの何本かのケーブルを繋ぐだけで、高品質な配信が始められてしまう。ぜひ、多くの方に触れてみてほしいプロダクトだ。 *ProceedMagazine2020号より転載

Media

On Premise Server パーソナルなオンプレサーバーで大容量制作をハンドリング

Internetの発達に伴って進化を続けている様々なCloudベースのサービス。その一方で、コスト面も含めて個人の自宅でも導入できるサイズの製品も着実な進化を遂げているのがOn Premise(オン・プレミス=敷地内で)のサーバーソリューション。Cloudのように年額、月額で提供されるサービスと比較するとどのようなメリットがあるのか、オンプレのサーバーはNetwork上からどう活かされるのか、オンラインでの協業体制が求められる今だからこそパーソナルユースを視野に入れたエントリーレベルにおけるオンプレサーバー導入のいまを見ていきたい。 Synology Home Server 今回、取り上げる製品はSynology社のホームサーバー。ラインナップは1Drive(HDD1台)のコンパクトな製品からスタートし、1DriveでHDD無しのベアボーンが1万円前半の価格から入手できる。何かと敷居の高いサーバーソリューションの中でも、パーソナル領域におけるラインナップを充実させているメーカーだ。このホームサーバーの主な役割は、ローカルネットワーク上でのファイル共有サービス(NAS機能)と、Internetに接続されたどこからでもアクセス可能なOn Premiseファイル・サーバーということに集約される。 もちろんそれ以外にも、遠隔地に設置されたSynology製品同士での自動同期や、プライベートな音楽/動画配信サーバー機能、ファイルのバージョニング機能、誤って消去してしまったファイルの復元機能など多彩な機能を持ち、ローカルでのファイル共有に関しては汎用のNAS製品と同様に、Windows向けのSMB/NFS共有、MacOS向けのSMB/AFS共有が可能と、それぞれOSの持つ標準機能でアクセスができるシンプルな形式を持つのだが、今回はこのようなローカル環境でのサービスではなく、外出先でも活用ができるサービスに目を向けたい。 Synologyの設定画面。ブラウザでアクセスするとOSライクなGUIで操作できる。 コスト優位が際立つオンプレ 外出先で、サーバー上のデータを取り出せるサービスといえば、DropBox、OneDriveなどのCloudストレージサービスが思い浮かぶ。Synologyの提供するサービスは、一般向けにもサービスの提供されているCloudストレージと比較してどのような違いがあるのだろうか? まず、SynologyのようなOn Premiseでのサービスの最大のメリットは、容量の大きさにあるだろう。本原稿の執筆時点で一般向けに入手できる最大容量のHDDは16TB。コスト的にこなれてきている8TBのモデルは2万円を切る価格帯で販売されている。これは1TBあたりの単価は¥2,000を切る水準となっており、容量単価のバランスも納得いくレベルなのではないだろうか。 これをCloud Stroageの代表格であるDropBoxで見てみると、1TBの容量が使える有償サービスは年額¥12,000となる。もちろん、機器の購入費用が必要ない、壊れるという心配がない、電気代も必要ない、などCloudのメリットを考えればそのままの比較はできないが、8TBという容量を持つ外出先から接続可能なOn Premiseサーバーの構築が4万円弱の初期投資で行えるということは、コストパフォーマンスが非常に高いと言えるだろう。また、4Drive全てに8TBのHDDを実装しRAID 5の構成を組んだとすれば、実効容量24TBという巨大な容量をNetwork越しに共有することが可能となる。大容量をコストバランスよく実現するという側面をフォーカスすると、On Premiseのメリットが際立ってくる。 利用している帯域など、ステータスもリアルタイムに監視が可能だ。 オンプレの抱える課題とは このように単純に価格で考えれば、HDDの容量単価の低下が大きく影響するOn Premiseの製品のコストパフォーマンスは非常に高いものがある。その一方で、On Premiseが抱えるデメリットがあることも事実。例えばCloudサービスであれば、データはセキュリティーや防災対策などが万全になされたデータセンターに格納される。データの安全性を考えると自宅に設置された機器との差は非常に大きなものになるだろう。もちろん、Synologyの製品も2Drive以上の製品であればRAIDを構築することができるため、データの保全に対しての対策を構築することも可能だが、これは導入コストとトレードオフの関係になる。実例を考えると、ストレージの速度とデータの保全を両立したRAID 5以上を構築しようとした際には3 Drive以上の製品が必要。製品としては4Drive以上の製品に最低3台以上のHDDを実装する必要があり、初期導入コストは8万円程度が見込まれる。1TB程度の容量までで必要量が足りるのであれば、Cloudサービスの方に軍配があがるケースもある。必要な容量をどう捉えるかが肝要な部分だ。 また、On Premiseの製品は手元にあるために、突如のトラブルに対しては非常に脆弱と言わざるを得ない。前述のようにデータセンターとは比較にならない環境的な要因ではあるが、2〜3年おきにしっかりと機器の更新を行うことで、そういったリスクを低減することはできる。そのデータはどれくらいの期間の保持が必須なのか、重要性はどれほどのものなのか、保全体制に対しての理解をしっかりと持つことで、大容量のデータの共有運用が見えてくる。 オンプレをNetworkから使う パッケージセンターには数多くのアプリケーションが用意されている。 Synology社のOn Premiseサーバーは、専用のアプリをインストールすることでInternet接続環境があればどこからでも自宅に設置されたサーバーのデータを取り出すことができる。また、DropBoxのサービスのように常時同期をさせることもできれば、特定のフォルダーを第三者へ共有リンクを送り公開する、といった様々なサービスを活用できる。設定もWebブラウザ上からGUIを使うシンプルなオペレーションとなっており、設定も極めて簡便。VPNを使用するというような特別なこともないため、迷うことなく自宅のサーバーからファイル共有を行うことが行えてしまう。ユーザーの専門知識を求めずに運用が可能な水準にまで製品の完成度は高まっていると言えそうだ。 ファイル共有のあり方は多様になっており、ユーザーの必要な条件に合わせてOn Premise、Cloudと使い分けることができるようになってきている。むしろ選択肢は多彩とも言える状況で、メリット、デメリットをしっかりと理解し、どれくらいのデータ量をハンドリングしたいのか、そのデータの重要性をどう考えるか、ユーザーの適切な判断があれば充実したパーソナルサーバー環境はすぐにでも構築、実現できてしまう。今後、ますます大容量となるコンテンツ制作のデータをどう扱えるのかは、パーソナルな制作環境にとっても重要な要素であることは間違いないだろう。それをどのようにハンドリングするかの鍵はここにもありそうだ。 *ProceedMagazine2020号より転載

Media

Macのワークステーションが今後を”創る” 〜Apple Mac Pro Late2019〜

目次 序論 Apple Mac Pro Late2019概要 Mac Pro Late2019の各構成部品:CPU Mac Pro Late2019の各構成部品:メモリ Mac Pro Late2019の各構成部品:PCI Express拡張スロット Mac Pro Late2019の各構成部品:GPU Mac Pro Late2019の各構成部品:AfterBurner 考察 1:序論 各業界で注目を集めたApple Mac Pro Late2019は2019年6月に発表、同年12月より発売が開始された。同社CEO Tim Cook氏はWWDC2019の基調講演で「これまでに開発した中で最も強力なMac」と語り「すべてを変えるパワー」と広告される本機種。その驚異的なマシンスペックと拡張性などの紹介から前機種との比較などを通し、Macのワークステーションが作り得る未来への可能性を紐解いていく。 2:Apple Mac Pro Late2019概要 <↑クリックして拡大> 発表当初より、Apple Mac Pro Late2019は注目度も高く、既に発売されているためデザイン面など基本的な情報は皆さんご存知であろう。たださすがにMac Proの最新モデルともあり、オプションも多岐に渡るため構成部品とそのカスタマイズ域についてを別表にまとめるのでご確認いただきたい。また「これまでに開発した中で最も強力なMac」「すべてを変えるパワー」と称されるMac Pro Late2019だが、比較対象に直近3モデル:Mid2012・Late2013・Late2019を取り上げ、CPU / メモリ / GPU / ストレージ、周辺機器との接続性なども同様に別表に掲載する。それでは、次から各構成部品の紹介に移り、Mac Pro Late2019の内容を確認していく。 <↑クリックして拡大> 【特記事項】 ・min maxの値:Apple公表値を基準とする。メモリなど3rdパーティー製品による最大値は無視する。 ・CPU/GPU:モデル名を表記する。比較はベンチマークで行い後述する。 ・メモリ/ストレージ:モデル名は表記せず、容量/動作周波数、容量/PCIe規格といった数値表記とする。 ・数値の表記:比較を用意にする為、単位を揃える。(メモリ:GB、ストレージ:TB) 3:Mac Pro Late2019の各構成部品:CPU Apple HPの広告で搭載CPUについては、”最大28コアのパワー。制限なく作業できます。”と称されている。このモデルではMac史上最多の最大28コアを搭載したIntel XeonWプロセッサを採用、8coreから28coreまで、5つのプロセッサをラインナップしたため、ニーズに合わせた性能を手に入れることができるようになった。CPUはコンピュータの制御や演算や情報転送をつかさどる中枢部分であるが、直近3モデル(Mid2012/Late2013/Late2019)のCPUパフォーマンスを比較し、その実力を見ていく。まずは以下のグラフをご覧いただこう。  図1. Mac Pro CPU(Multi-core)ベンチマーク比較 こちらのグラフは、モデルごとのCPUベンチマーク比較である。横軸左から、Mid2012(青)→Late2013(緑)→Late2019(オレンジ)と並び、各モデルの最低CPUと最高CPUにおける、マルチコアのベンチマーク値を縦軸に示した。ベンチマーク値はGeekBenchで公開されるデータをソースとしている。Late2019の最低CPUの値に注目しラインを引くと、旧モデル最高CPUの値をも超えていることがわかる。たとえ、Late2019で最低のCPUを選んだとしても、旧MacPROの性能を全て超えていくということだ。決して誇大広告でなく、「これまでに開発した中で最も強力なMac」と称される理由の一つだと分かる。数値で示すと以下表になる。参考までに、Single-Coreのベンチマーク値も掲載する。 表3. Late2019/最低CPU と 旧モデル/最高CPUのベンチマーク値 次に、Late2019最大値にもラインを引き、Late2019最低値との差分に注目する。この差分が意味するのは、ユーザーが選択できる”性能幅”である。ユーザーはこの範囲の中から自らの環境に合わせてMacPROをコーディネートしていくことになる。視覚的にも分かる通り、Late2013と比べても圧倒的に性能の選択幅が広くなっている事が分かる。 図2. Mac Pro Late2019 ベンチマーク性能幅 数値を示すと以下のようになる。Late2013と比較すると、約3倍もの性能選択幅があることが分かる。 表4. 性能選択余地の遷移 以上の比較から、旧MacProから乗り換える場合、”Late2019を買えばCPU性能が必ず向上する”ということが分かった。しかし、性能幅も広がった為、新たにLate2019を検討する方は自分に合うCPUを選択する必要がある。Late2013よりも長期的運用が可能だと噂され、CPUが動作速度の根幹であることを考えると、Mac Pro Late2019のCPUは少しオーバースペックなものを選択しても良いかもしれない。参考までに、現行MacのCPU性能比較もご覧いただきたい。なお、現行モデルの比較対象として以下モデルを追加した。iMac Pro Late 2017 / Mac mini Late 2018 / iMac 21.5inch Early 2019 / iMac 27inch Early 2019 / Mac Book Pro 16inch Late 2019(ノート型の参考) 図3. 現行MacとMacPro Late2019との比較 <↑クリックして拡大> このグラフで注目するのは、Late2019のCPU最低値と16core XeonWの値である。まず、CPU最低値に注目すると、iMacのCPU値と交差することが分かる。また、16core XeonWの値に注目すると交差するCPUが存在しなくなることが分かる。故に、現行モデル以上の性能を求め、他にない性能を実現するには16core XeonW以上の選択が必要となる。また、ワークステーション/PCの性能はCPUのみで決まることではないので、購入の際にはメモリ、GPUや拡張性なども十分考慮していただきたい。 4:Mac Pro Late2019の各構成部品:メモリ Apple HPの広告でメモリについては、"あなたが知っているメモリは、昨日のメモリです。”と称されている。ユーザーがアクセスできる12の物理的なDIMMスロットを搭載し、プロセッサと互換性のあるメモリであれば、将来的なアップグレードも可能だ。Mac Pro Late2019ではR-DIMMとLR-DIMMのメモリモジュールに対応しているが、同じシステムで2種類のDIMMを使うことはできないので容量追加には注意が必要である。LR-DIMM対応のCPU(24core以上のXeonW)を選択した場合、最大1.5TBの容量を実現する。 ワークステーション/PCの”作業机”と訳される事も多いメモリ。データやプログラムを一時的に記憶する部品であるが、CPU同様に直近3モデルと比較していく。まずは最小構成、最大構成の2種類のグラフをご覧いただこう。 図4. MacPro:メモリ最小構成での比較 図5. MacPro:メモリ最大構成での比較 表5.MacPro:メモリ最小構成での比較 表6.MacPro:メモリ最大構成での比較 横軸はCPU同様、Mac Pro Mid2012/Late2013/Late2019を並べている。縦軸左側はメモリ容量値で青棒グラフで示し、右側は動作周波数をオレンジ丸で示している。図4.最小構成のグラフに注目しメモリ容量を比較すると、おおよそモデル毎に倍々の推移が見られる。また、動作周波数に関しては2次曲線的推移が見られる。モデルの発展とともに、部品としての性能も格段に上がってきている事が分かる。図5.最大構成のグラフに関しては一目瞭然ではあるが、表6.最大構成のLate2019、メモリ容量の前モデル比に注目すると23.44という驚異的な数値を叩く。これもまた、「これまでに開発した中で最も強力なMac」と称される理由の一つだと分かる。 さて、購入検討時のメモリ問題であるが、こちらは後ほどアップグレードできる為、初めは低容量から導入し、足りなければ随時追加という方式が取れる。メモリで浮いた金額をCPUへ割り当てるという判断もできるため、予算を抑えながら導入も可能だ。ただし、CPUによるメモリ容量の搭載上限が決まり、メモリモジュールを合わせる事を念頭に入れ検討する事が重要だ。 5:Mac Pro Late2019の各構成部品:PCI Express拡張スロット Mac Pro Late2019ではCPUの性能幅やメモリの拡張性に加え、8つのPCI Express拡張スロットの搭載が可能になった。Avid HDX Card や Universal Audio UAD-2 PCIe Cardを搭載してオーディオプロセスを拡張するも良し、加えて、GPU / AfterBurner(後述) / キャプチャボードを搭載し、グラフィック面を拡張しても良い。まさに、クリエイティブなユーザーの思いのままに、Mac Proの拡張が可能になったと言える。さらに、Mac Pro Mid2012と比べるとスロット数が倍になっていることから、PCIeによる機能拡張においても「これまでに開発した中で最も強力なMac」であると分かる。 写真を参考に、搭載可能なPCIeについて確認していこう。上から順に、ハーフレングススロット、シングルワイドスロット、ダブルワイドスロットと並ぶ。下から順に、スロットNo.が1-8までカウントされる。 それでは各種のスロットについて見ていこう。 ○ハーフレングススロット:No.8 スロットNo.8には最大 x4 レーンのPCIeカードが搭載可能。ここには標準仕様でApple I/Oカードが既に搭載されており、Thunderbolt 3ポート× 2、USB-Aポート× 2、3.5mm ヘッドフォンジャック× 1を備える。このI/Oカードを取り外して他のハーフレングスPCIeカードに取り替えることもできるが、別のスロットに取り付けることはできないので、変更を検討する場合には注意が必要だ。 ○シングルワイドスロット:No.5-7 スロットNo.5には最大 x16レーン、No.6-7には最大 ×8レーンのPCIeカードが搭載可能。スロットNo.5の最大 ×16レーンには、AfterBurnerはに取り付けることが推奨される。後述のGPUとの連携からであろうが、他カードとの兼ね合いから、AfterburnerをNo.5に取り付けられない場合は、後述のスロットNo.3へ、No.3とNo.5が埋まっている場合はスロット4へ取り付けると良い。 ○ダブルワイドスロット:No.1-4 スロットNo.1,3,4には最大 x16レーン、No.2には最大 x8レーンのPCIeカードが搭載可能。スロットNo.1、No.4は2列に渡ってPCIeが羅列しているが、これは後述するApple独自のMPX Moduleを搭載する為のレーンになる。MPXモジュール以外で使用する場合は、最大 x16レーンのPCIeスロットとして使用できる。 6:Mac Pro Late2019の各構成部品:GPU Apple HPの広告でGPUについては、"究極のパフォーマンスを設計しました。”と表現されている。業界初、MPX Module(Mac Pro Expansion Module)が搭載され、業界標準のPCI Expressのコネクタに1つPCIeレーンを加えThunderboltが統合された。また、高パフォーマンスでの動作のため、供給電力を500Wまで増やし、専用スロットによる効率的な冷却を実現している。500Wというと、一般的な冷蔵庫を駆動させたり、小型洗濯機を回したり、炊飯器でご飯を炊けたりしてしまう。また、Mac Pro Late2013の消費電力とほぼ同等である為、相当な量であるとイメージできる。話が逸れたが、GPUに関してもCPU同様に前モデルと比較していく。 図6. MacPro:GPU最小/最大での比較 こちらのグラフは、モデルごとのCPUベンチマーク比較である。横軸左から、Mid2012(青)→Late2013(緑)→Late2019(オレンジ)と並び、各モデルの最低GPUと最高GPUにおける、マルチコアのベンチマーク値を縦軸に示した。ベンチマーク値はGeekBenchで公開されるデータをソースとしているが、Mid2012に関しては有効なベンチマークを取得できなかった為、GPUに関してはLate2013との比較になる。また、AMD VegaⅡDuoは2機搭載だが、この値は単発AMD VegaⅡDuoの値となる。 表7.MacPro:GPU最小部品での比較 表8.MacPro:GPU最大部品での比較 部品単体であっても、前モデルからは最小でも2倍、最大では3倍のパフォーマンスを誇る。最大部品である。AMD Radeon Pro VegaⅡDuoはさらにもう一枚追加できるため、グラフィックの分野でも十分驚異的なスペックが実現できると言える。これも「これまでに開発した中で最も強力なMac」と称される理由の一つとなる。 7:Mac Pro Late2019の各構成部品:AfterBurner Afterburnerとは、ProRes/Pro Res RAW ビデオファイルのマルチストリームのデコードや再生を高速化するハードウェアアクセラレータカードである。まず、AfterBurnerを導入するメリットを振り返ろう。ProRes や ProRes RAW のマルチストリームを8Kなどの解像度で再生するための演算をこのAfterBurnerに任せられる。逆にない場合、Mac Pro Late2019のCPUで演算を行うため、その負担分が編集作業に回せなくなってしまう。AfterBurnerによる外部演算を取り入れることによりCPUでは他の処理や映像エフェクトの演算に注力できる為、より複雑な3D、映像編集が可能となる。また、ProRes および ProRes RAW のプロジェクトやファイルのトランスコードおよび、共有が高速化する事もメリットの一つである。 AfterBurnerの対応するアプリケーションは、"ProRes または ProRes RAW のファイルを再生するApple製のアプリケーション”である。例えば、Final Cut Pro X、Motion、Compressor、QuickTime Player などで使用可能だ。その他、他社製のアプリが気になるところだが、"他社製の App のデベロッパが、Afterburner のサポートを組み込むことは可能”とのことなので、今後の対応に期待したい。 8:考察 Mac Pro Late2019の登場により、従来のMacからは考えられないようなスペックでワークステーションを導入する事が可能になったが、ハイスペックかつ消費電力も高いため、初期投資およびランニングコストも大きくかかってしまうというリスクもある。しかし、クリエイティブ以外に時間を割いていると感じているならば朗報である。例えば、レンダリング、プロキシファイル変換、変換によって生じるファイルマネジメントなどなど。Mac Pro Late2019の性能は、作品を完成させるまでの待機時間や面倒な時間を圧倒的に減らし、ユーザーのクリエイティブな時間をより多く提供してくれると考える。 従来機よりも早く仕事を終わらせ、次の仕事に取り掛かる、それを終えたらまた次の新しい仕事へと取り掛かる。サイクルの早い循環、クオリティの向上が、他者との差別化に繋がっていく。初期投資、ランニングコストなど懸念点も多いが、その分クリエイティブで勝負して稼いでいく、というスタイルへMac Pro Late2019が導いてくれるかもしれない。これからの時代の働き方を変え、クリエイティブ制作に革新が起きることを期待している。 *ProceedMagazine2020号より転載

Media

ゼロからはじめるDOLBY ATMOS / 3Dオーディオの世界へDIVE IN !!

2020年1月、CES2020にてお披露目された"Dolby Atmos Music"。映画向けの音響規格の一つであるDolby Atmosを、新たなる"3D"音楽体験として取り入れよう、という試みだ。実は、前年5月頃より"Dolby Atmosで音楽を制作しよう”という動きがあり、ドルビーは世界的大手の音楽レーベル、ユニバーサルミュージックとの協業を進めてきた。"Dolby Atmos"は元々映画音響用のフォーマットとして2012年に誕生している。その後、ヨーロッパを中心に対応劇場が急速に増え、海外では既に5000スクリーン以上、国内でもここ数年で30スクリーン以上に渡りDolby Atmosのシステムが導入されてきた。 また、映画の他にもVRやゲーム市場でもすでにその名を轟かせており、今回、満を持しての音楽分野への参入となる。Dolby Atmos Music自体は、既にプロオーディオ系の様々なメディアにて取り上げられているが、「Dolby Atmosという名称は聞いたことがある程度」「Dolby Atmosでの制作に興味があるが、日本語の情報が少ない」という声もまだまだ多い。そこでこの記事では、今のうちに知っておきたいDolby Atmosの基礎知識から、Dolby Atmosミックスの始めの一歩までを出来るだけ分かりやすい表現で紹介していきたい。 目次 コンテンツは消費の時代から”体験”の時代に 〜イマーシブなオーディオ体験とは?〜 まずは Dolby Atmosを体験しよう! / 映画、音楽、ゲームでの採用例 ベッドとオブジェクトって何!? / Dolby Atmos基礎知識 Dolby Atmos制作を始めよう / 必要なものは何? 自宅で始めるDolby Atmosミックス / Dolby Atmos Renderer × Pro Tools 2020.3【Send/Return編】 自宅で始めるDolby Atmosミックス / Dolby Atmos Renderer × Pro Tools 2020.3【CoreAudio編】 1.コンテンツは消費の時代から”体験”の時代に 〜イマーシブなオーディオ体験とは?〜 近年、"3Dオーディオ"という言葉をよく見かけるようになった。今のところ、その厳密な定義は存在していないが、古くからは"立体音響"や"三次元音響"といった言葉でも知られており、文字通り、音の位置方向を360度、立体的に感じられる音響方式のことを指す。その歴史は非常に古く、諸説あるがおよそ1世紀に渡るとも言われている。 点音源のモノラルに始まり、左右を表現できるようになったステレオ。そして、5.1、7.1、9.1…とその数を増やすことによって、さらなる音の広がりや奥行きを表現できるようになったサラウンド。と、ここまででもイマーシブな(*1)オーディオ体験ができていたのだが、そこにいよいよ、天井や足元といった高さ方向にもスピーカーが加わり、三次元空間を飛び回るような音の再生が可能になった。それぞれの方式は厳密には異なるが、3DオーディオフォーマットにはDolby Atmos、Auro-3D、DTS:X、NHK22.2ch、Sony360 Reality Audioなどといったものがある。 基本的に、これまでこうした3Dフォーマットのオーディオを再生するにはチャンネル数に応じた複数のスピーカーが必要だった。そのため、立体的な音像定位の再現性と、そうした再生環境の手軽さはどうしてもトレードオフになっており、なかなか世間一般に浸透しづらいという状況が続いていた。そこで、いま再注目を浴びているのが"バイノーラル(*2)録音・再生方式"だ。個人差はあるものの原理は単純明快で、「人間の頭部を模したダミーヘッドマイクで録音すれば、再生時にも人間が普段自分の耳で聞いているような立体的な音像が得られる」という仕組み。当然ながらデジタル化が進んだ現代においては、もはやダミーヘッドすら必要なく、HRTF関数(*3)を用いれば、デジタルデータ上で人間の頭側部の物理的音響特性を計算・再現してしまうことができる。 バイノーラル再生自体は全くもって新しい技術というわけではないのだが、「音楽をスマホでストリーミング再生しつつ、ヘッドホンorイヤホンで聴く」というスタイルが完全に定着した今、既存の環境で気軽にイマーシブオーディオを楽しめるようになったというのが注目すべきポイントだ。モバイルでのDolby Atmos再生をはじめ、Sonyの360 Rearity Audio、ストリーミングサービスのバイノーラル音声広告といった場面でも活用されている。 *1 イマーシブ=Immersive : 没入型の *2 バイノーラル= Binaural : 両耳(用)の *3 HRTF=Head Related Transfer Function : 頭部伝達関数 2.まずは Dolby Atmosを体験しよう! / 映画、音楽、ゲームでの採用例 では、Dolby Atmosは一体どのようなシーンで採用されているのだろうか。百聞は一見に如かず、これまでDolby Atmos作品に触れたことがないという方は、まずは是非とも体験していただきたい。 映画 映画館でDolby Atmosを体験するためには、専用設計のスクリーンで鑑賞する必要がある。これには2種類あり、一つがオーディオの規格であるDolby Atmosのみに対応したもの、もう一つがDolby Atmosに加え、映像の規格であるDolby Visionにも対応したものだ。後者は"Dolby Cinema"と呼ばれ、現時点では国内7スクリーン(開業予定含む)に導入されている。   Dolby Atmosでの上映に対応している劇場は年々増加していて、2020年4月現在で導入予定含む数値にはなるが、既に国内では 36スクリーン、海外では5000スクリーン以上にも及んでいる。 (いずれもDolby Atmos + Dolby Cinema計)当然ながら対応作品も年々増えており、ライブストリーミング等、映画作品以外のデジタルコンテンツも含めると、国内では130作品、海外ではその10倍の1300を超える作品がDolby Atmosで制作されている。いくつか例を挙げると、国内興行収入130億円を超える大ヒットとなった2018年の「ボヘミアン・ラプソディ」をはじめ、2020年のアカデミーでは作品賞を受賞した「パラサイト 半地下の家族」、同じく録音賞を受賞した「1917 命をかけた伝令」などといった作品がDolby Atmosで制作されている。   ●Dolby Atmos採用映画の例 アイアンマン3 / アナと雪の女王 / ラ・ラ・ランド/ パラサイト / フォードvsフェラーリ / ジョーカー / 1917 命をかけた伝令 / ボヘミアンラプソディetc... *Dolby 公式サイトよりDolby Atmos採用映画一覧を確認できる  ゲーム Dolby AtmosはPCやXbox Oneといった家庭用ゲームの人気タイトルでも数多く採用されている。特に、近年流行りのFPS(First Person Shooter = 一人称視点シューティング)と呼ばれるジャンルのゲームでは、射撃音を頼りに敵の位置を把握しなければならない。そのため、Dolby Atmosを使った3Dサウンドの再生環境の需要がより高まってきているのだ。   ※Windows PCやXbox OneにおいてヘッドホンでDolby Atmosを楽しみたい場合は、Dolby Access(無料)というアプリをインストールし、Dolby Atmos for Headphonesをアプリ内購入する必要がある。   ●Dolby Atmos採用ゲームの例 Assassin's Creed Origins(Windows PC, Xbox One) / Final Fantasy XV(Windows PC ,Xbox One)Star / Wars Battlefront(Windows PC ,Xbox One) / ACE COMBAT 7: SKIES UNKNOWN(Windows PC, Xbox One) 音楽 Amazon Echo Studio そして2020年1月にCES2020で正式発表されたのが、このDolby Atmosの名を冠した新たな3Dオーディオ再生フォーマット、Dolby Atmos Musicだ。現時点で、国内ではAmazonが提供するAmazon Music HD内のみでサービスを提供しており、同社のスマートスピーカー”Amazon Echo Studio”を用いて再生することができる。アメリカでは音楽ストリーミングサービス"TIDAL"でもDolby Atmos Musicを再生することができ、こちらは対応するPCやスマホなどでも楽しめるようになっている。 ここまで、Dolby Atmosを体験してみて、皆さんはどのような感想を持たれただろうか? 当然ながら多少の個人差はあるにしても、映画であればその空間に入り込んだかのような没入感・豊かな臨場感を体験できたのではないだろうか。あるいは、人によっては「期待したほど音像が動き回っている感じが得られなかった」という方もいるだろう。しかし、それでDolby Atmosの魅力を見限るのはやや早計だ。なぜなら、この技術は、"作品の意図として、音を無意識に落とし込む”くらい自然にミックスすることを可能にしているからだ。それを念頭におき、もう一度、繊細な音の表現に耳を澄ましてみてほしい。 3.ベッドとオブジェクトって何!? 〜Dolby Atmos基礎知識〜 体験を終えたところで、ここからは技術的な側面と基礎知識を押さえていこう。ポイントとなるのは以下の3点だ。 ● ベッド信号とオブジェクト信号 ● 3次元情報を記録するメタデータ ● 再生環境に合わせてレンダリング Dolby Atmosの立体的な音像定位は、2種類の方式を組み合わせて再現されている。 一つはチャンネルベースの信号 ー 5.1.2や7.1.2などあらかじめ定められたスピーカー配置を想定し、そのスピーカーから出力される信号のことを"Bed"と呼んでいる。例えば、BGMやベースノイズといった、あまり指向性が求められない音の再生に向いている。基本は音源とスピーカーが1対1の関係。従来のステレオやサラウンドのミックスと同じなので比較的イメージがつきやすいだろう。 劇場のように、一つのチャンネルが複数のスピーカーで構成されていた場合、そのチャンネルに送った音は複数のスピーカーから再生されることになる。 そしてもう一つはオブジェクトベースの信号 ー 3次元空間内を縦横無尽に動き回る、点音源(ポイントソース)の再生に適した方式だ。例えば、空を飛ぶ鳥の鳴き声や、アクション映画での動きのある効果音の再生に向いている。原理としては、3次元情報を記録するメタデータをオーディオとともに記録・伝送し、再生機器側でそれらを再生環境に合わせてレンダリング(≒変換)することで、再生環境ごとのスピーカー配列の違いをエンコーダー側で吸収できるという仕組みだ。 ある1点に音源を置いた時に、そこから音が聴こえるように、スピーカー送りを最適化するのがレンダラーの役割 Dolby AtmosのチャンネルフォーマットはBed 7.1.2ch(計10ch) + Object118ch(最大)での制作が基本となっている。この"空間を包み込むような音"の演出が得意なベッドと、”任意の1点から聞こえる音”の演出が得意なオブジェクトの両方を組み合わせることによって、Dolby Atmosは劇場での高い臨場感を生み出しているのだ。 4.Dolby Atmos制作を始めよう 〜必要なものは何?〜 Dolby Atmosはその利用目的によって、大きく2種類のフォーマットに分けられる。 まずは、一番最初に登場した映画館向けのフォーマット、Dolby Atmos Cinemaだ。これはまさにフルスペックのDolby Atmosで、先述した7.1.2chのBEDと118chのObjectにより成り立っている。このフォーマットの制作を行うためにはDolbyの基準を満たした音響空間を持つダビングステージでの作業が必要となる。しかも、劇場向けのマスターファイルを作ることができるCinema Rendering and Mastering Unit (Cinema RMU)はDolbyからの貸し出しでしか入手することができない。 もう一つは、Blu-ray やストリーミング配信向けのフォーマット、 Dolby Atmos Homeだ。実は、こちらの大元となるマスターファイル自体は Cinema 向けのものと全く同じものだ。しかし、このマスターファイルから Home 向けのエンコードを行うことで、128chのオーディオを独自の技術を活用して、できる限りクオリティーを担保したまま少ないチャンネル数に畳み込むができる。この技術によって、Blu-rayやNetflixといった家庭向けの環境でも、Dolby Atmos の迫力のサウンドを楽しめるようになった。こちらも、マスターファイルを作成するためには、HT-RMUと呼ばれるハードウェアレンダラーが必要となるが、HT-RMUは購入してスタジオに常設できるというのがCinemaとは異なる点だ。 ●Dolby Atmos制作環境 比較表 ※Dolby Atmos Production SuiteはWeb上、AVID Storeからご購入できるほか、Mastering Suiteにも付属している。 ※Dolby Atmos Dub with RMUについてはDolby Japan(TEL: 03-3524-7300)へお問い合わせください。 ●Cinema 映画館上映を目的としたマスター。ダビングステージでファイナルミックスとマスタリングを行う。Dolby Atmos Print Masterと呼ばれるファイル群をCinema Rendering and Mastering Unit (Cinema RMU)で作成。 ●Home 一般家庭での視聴を目的としたマスター。ニアフィールドモニターによるDolby Atmosスピーカー・レイアウトにてミックスとマスタリングを行う。Dolby Atmos Master File(.atmos)と呼ばれるファイル群をHome-Theater-Rendering and Mastering Unit(HT-RMU)で作成。   Cinema用とHome用のRMUでは作成できるファイルが異なり、スピーカーレイアウト/部屋の容積に関する要件もCinema向けとHome向けで異なる。それぞれ、目的に合わせたRMUを使用する必要がある。ミキシング用のツール、DAW、プラグイン等は共通。 ここまで作品や概要を説明してきたが、そろそろDolby Atmosでの制作を皆さんも始めてみたくなってきただろうか?「でも、自宅に7.1.2chをモニターできる環境が無い!「やってみたいけど、すぐには予算が捻出できない!」という声も聞こえてきそうだが、そんな方にとっての朗報がある。Dolby Atmos Production Suiteを使えば、なんと ¥33,000 (Avid Storeで購入の場合)というローコストから、Dolby Atmos ミックスの最低限の環境が導入できてしまうのだ。このソフトウェア以外に別途必要なものはない。必要なものはスペックが少し高めのマシンと、対応DAW(Pro Tools、Nuendo、DaVinchi etc)、そしてモニター用のヘッドホンのみだ。 多少の制約はあるものの、ヘッドホンを使ったバイノーラル再生である程度のミックスができてしまうので、スタジオに持ち込んでのマスタリング前に自宅やオフィスの空き部屋といったパーソナルな環境でDolby Atmosの仕込みを行うことができる。次の項ではそのワークフローを具体的に紹介していく。 5.自宅で始めるDolby Atmosミックス 〜Dolby Atmos Renderer × Pro Tools 2020.3〜 ここからは最新のPro Tools 2020.3 とProduction Suiteを使って実際のDolby Atmosミックスのワークフローをチェックしていきたい。まず、大まかな流れとしては下記のようになる。PTとレンダラーの接続方法は、Send/Returnプラグインを使う方法とCore Audio経由でやり取りする方法の2種類がある。それでは順番に見ていこう。 1.Dolby Atmos Production SuiteをAvid Storeもしくは販売代理店にて購入しインストール。 2.Dolby Atmos Renderer(以後レンダラー)を起動各種設定を行う。 3.Pro Tools(以後PT) を起動各種設定を行う。※正しいルーティングの確立のため、必ずレンダラー →Pro Toolsの順で起動を行うこと。 4.PTの標準パンナーで3Dパンニングのオートメーションを書き込む。 5.Dolby Atmos RMU導入スタジオに持ち込む。 Send/Returnプラグインを使う方法 ■Dolby Atmos Renderer の設定 ● 左上Dolby Atmos Renderer → Preferences( ⌘+ , )で設定画面を表示 ● Audio driver、External Sync sourceをSend/Return Plug-insに設定 ● Flame rate、Sample rateを設定 ※PTの設定と合わせる HeadphoneのRender modeをBinauralにすることで、標準HRTFでバイノーラル化された3Dパンニングを確認することができる。(※聴こえ方には個人差があります。)   ■Pro Tools の設定 ● 新規作成→プロジェクト名を入力→テンプレートから作成にチェック ● テンプレートグループ:Dolby Atmos Production Suite内”Dolby Atmos Renderer Send Return Mono(またはStereo)”を選択→ファイルタイプ:BWF ● 任意のサンプルレート、ビットデプス、I/O設定を入力→作成 ● 設定 → ペリフェラル → Atmosタブ ● チェックボックスに2箇所ともチェックを入れる。 ● RMUホストの欄には”MAC名.local”または”LOCALHOST”と入力。   接続状況を示すランプが緑色に点灯すればOK。一度接続した場合、次回からプルダウンメニューで選択できる。 編集ウィンドウを見てみると、英語でコメントが入力されたいくつかのトラックが並んでいる。   ● まず、一番上の7.1.2Bedという名称のトラック ーここにBedから出力したい7.1.2の音素材をペーストまたはRECする。 ● 次に、その下のObject 11という名称のトラック ーここにObjectから出力したいMonoまたはStereoの音素材をペーストまたはRECする。 ● 上の画像の例では、任意の範囲をドラッグして選択、AudioSuite→Other→Signal Genetatorよりピンクノイズを生成している。 ● このトラックは、画面左側、非表示になっている”SEND_〇〇_IN_ch数”という表記になっているAUXトラックに送られている。 ● このAUXトラックにSendプラグインがインサートされており、パンなどのメタデータとともにレンダラーへと出力される。 試しに再生してみると、レンダラー側が上の画像のような状態になり、信号を受けているチャンネルが点灯している様子が確認できる。 赤丸で囲った部分をクリックしてアウトプットウィンドウを表示し、パンナーのポジションのつまみをぐりぐりと動かしてみよう。 すると、レンダラー内のオブジェクトが連動してぐりぐりと動くのが確認できる。   オートメーションをWriteモードにしてチェックすると、きちんと書き込んだ通りに3Dパンニングされているのが分かる。ここで、トラックの右端”オブジェクト”と書かれているボタンをクリックすると、”バス”という表示に切り替わり、その音はベッドから出力される。つまり、ベッドとオブジェクトをシームレスに切り替えることができるのだ。これは、例えば、映画などで正面のベッドから出力していたダイアローグを、”ワンシーンだけオブジェクトにして、耳元に持ってくる”といった表現に活用できそうだ。   さらにその右隣の三角形のボタンを押すごとに、” このトラックに書き込まれたメタデータをマスターとする ”( 緑点灯 ) か、” 外部のオブジェクトパンニング情報源からREC する ”( 赤丸点灯 ) か、” 何も送受信しない ”( 無点灯 ) か を選択できるようになっている。レンダラー内でレンダリングされた音は、ReturnプラグインからPTへと戻ってくる。あとは、各々のモニター環境に合わせてアウトプットしたり、RECをかけたりすることができる。   以上が、Send/Returnプラグインを利用した一連のルーティングのワークフローになる。今回はテンプレートから作成したが、もちろんはじめから好きなようにルーティングを組むことも可能だ。しかし、チャンネル数が多い場合はやや複雑になってくるので、初めての場合はまずはテンプレートからの作成をおすすめする。 CoreAudioを使う方法 はじめに、Core Audioを使う場合、Sync sourceをMTCかLTC over Audioから選択する必要がある。LTCを使う場合は、PTの130chまでの空きトラックにLTCトラックまたは、Production Suite 付属のLTC Generator プラグインを挿入→レンダラーからそのch番号を指定する。MTCを使う場合はIACバスをというものを作成する必要がある。(※IAC = Inter-application communication)   ■IACバスの設定 ● Mac →アプリケーション→ユーティリティ→Audio MIDI設定を開く ● タブメニューのウインドウ→IAC Driverをダブルクリック ※装置名がIACドライバなど日本語になっていた場合レンダラーでの文字化けを防ぐため”IAC Driver”など英語に変更しておくとよい ● +ボタンでポートを追加→名称を”MTC”(任意)に変更→適用をクリック   ■Dolby Atmos Renderer 側の設定 ● 左上Dolby Atmos Rendere → Preferences( ⌘+ , )で設定画面を表示 ● Audio driverをCore Audioに設定 ● Audio input deviceを”Dolby Audio Bridge”に設定 ※ここに”Dolby Audio Bridge”が表示されていない場合、Macのシステム環境設定→セキュリティとプライバシー内に関連するアラートが出ていないか確認。 ● External Sync sourceをMTCに設定し、MTC MIDI deviceで先ほど作成したIAC Driver MTCを選択(またはLTC over Audioに設定しCh数を指定) ● Flame rate、Sample rateを設定 ※PTの設定と合わせる ● ヘッドホンでバイノーラルで作業する場合はHeadphone only modeを有効にすると、リレンダリングのプロセスなどを省くため、マシンに余分な負荷をかけることなく作業できる   ■Pro Tools 側の設定 ● 設定→プレイバックエンジンを”Dolby Audio Bridge”に。 ● キャッシュサイズはできる限り大きめに設定しておくと、プレイバック時にエラーが発生しにくくなる。 ● 設定→ペリフェラル→同期→MTC送信ポートを先ほど作成した”IAC Driver,MTC”に設定 ● 設定 → ペリフェラル → Atmosタブ(Send/Returnの項目と同様だ) ● チェックボックスに2箇所ともチェックを入れる。 ● RMUホストの欄には”MAC名.local”または”LOCALHOST”と入力。接続状況を示すランプが緑色に点灯すればOK。一度接続した場合、次回からプルダウンメニューで選択できる。 以上で、CoreAudio経由でのルーティングは完了だ。Send/Returnプラグインを利用する時のように大量のAUXトラックが必要ないため、非常にシンプルにセッティングを完了できる。また、ソフトウェアレンダラーでの仕込みから最終のマスタリングでRMUのある環境に持ち込む際にも、I/O設定をやり直さなくてよいという点もメリットの1つだろう。こちらも試しにオーディオ素材を置いて動作を確認していただきたい。   マルチチャンネルサラウンドやバイノーラルコンテンツへの需要は、日々着実に高まりつつあることが実感される。今回はゼロからはじめるDolby Atmosということで、Dolby Atmosとはどのようなものなのか、そしてDolby Atmosミックスを始めるためにはどこからスタートすればいいのか、という足がかりまでを紹介してきた。「思ったより気軽に始められそう」と、感じていただいた方も多いのではないのだろうか。 「一度体験すれば、その素晴らしさは分かる。ただ、一度体験させるまでが難しい。」というのが3Dオーディオの抱える最大の命題の命題かもしれない。これを解決するのは何よりも感動のユーザー体験を生み出すことに尽きる。そのために今後どのような3Dオーディオ制作ノウハウを蓄積していけるのか、全てのクリエイターが手を取り合って研鑽することが、未来のコンテンツを創り上げる第一歩と言えるのかもしれない。 *ProceedMagazine2020号より転載

Media

Mac mini RMU〜コンパクトな構成でDolby Atmos ミキシングを実現

ホームシアター向けDolby Atmos(Dolby Atmos Home)マスターファイルを作成することが出来るHT-RMUシステムをMac miniで構成。劇場映画のBlu-RayリリースやVOD向けのDolby Atmos制作には必須のDolby Atmos HT-RMUシステムは、Dolby社の認証が下りている特定の機器構成でなければ構築することが出来ない。従来、認証が下りていたのは専用にカスタマイズされたWindows機やMac Proといった大型のマシンのみであったが、ついにMac miniを使用した構成の検証が完了し、正式に認可が下りた。 Pro Toolsシステムとの音声信号のやりとりにDanteを使用する構成と、MADIを使用する構成から選択することが可能で、どちらも非常にコンパクトなシステムで、フルチャンネルのDolby Atmos レンダリング/マスタリングを実現可能となっており、サイズ的にも費用的にも従来よりかなりコンパクトになった。 HT-RMUの概要についてはこちらをご覧ください>> ◎主な特徴 Dolby Atmosのマスター・ファイルである「.atmos」ファイルの作成 .atmosファイルから、家庭向けコンテンツ用の各フォーマットに合わせた納品マスターの作成 「.atmos」「Dolby Atmos Print Master」「BWAV」を相互に変換 Dolby Atmos環境でのモニタリング Dolby Atmosに対応するDAWとの連携 DAWとの接続はDanteまたはMADIから選択可能 ◎対応する主なソリューション Dolby Atmos に対応したBlu-ray作品のミキシング〜マスタリング Dolby Atmos に対応したデジタル配信コンテンツのミキシング〜マスタリング Dolby Atmos 映画作品のBlu-ray版制作のためのリミキシング〜リマスタリング Dolby Atmos 映画作品のデジタル配信版制作のためのリミキシング〜リマスタリング Dolby Atmos 映画作品のためのプリミキシング 構成例1:Dante ※図はクリックで拡大 RMUとPro Toolsシステムとの接続にDanteを使用する構成。拡張カードを換装したPro Tools | MTRXやFocusrite製品などの、Dante I/Fを持ったI/Oと組み合わせて使用することになる。この構成ではLTCの伝送にDanteを1回線使用してしまうため、扱えるオーディオが実質127chに制限されてしまうのが難点だが、シンプルなワイヤリング、ソフトウェア上でのシグナル制御など、Danteならではの利点も備えている。しかし、最大の魅力はなんと言ってもRMU自体が1U ラックサイズに納ってしまう点ではないだろうか。 構成例2:MADI ※図はクリックで拡大 こちらはMADI接続を使用する構成。歴史があり、安定した動作が期待できるMADIは多チャンネル伝送の分野では今でも高い信頼を得ている。この構成の場合、MADIまたはアナログの端子を使用してLTCを伝送するため、128chをフルにオーディオに割り当てることが出来るのも魅力だ。また、この構成の場合はMADI I/FをボックスタイプとPCIeカードから選択することが出来る。

Post

Mac mini + Pro Tools / そうだ!Mac miniで行こう!

制作現場の業界標準として導入されているMac Pro。新Mac Proの登場も迫っていますが、もう一つ改めてその存在を取り上げたいのがMac miniです。旧Mac Pro(黒)が衝撃的なフォルムで登場したのは2013年のこと、すでに6年の時間が経過し、ブラッシュアップを重ねて新モデルに移行しようとしています。その一方でMac miniも着実な進化を遂げており、現行モデルでは旧Mac Pro(黒)のスペックを勝るとも劣らない構成が可能に。Pro ToolsほかアプリケーションのMac OSへの対応も考慮すると、安定した旧OSとの組み合わせでの稼働も可能となるMac miniという選択肢は一気に現実味を帯びてきます。安定した制作環境が求められる業務の現場に新たなセレクトを、Mac miniでのシステム構築を見ていきます。 ◎チェックすべき4つのポイント 1:安定した旧OSでの対応も可能な制作環境 Pro Toolsのシステム要件とされているのは、macOS 10.12.6, 10.13.6, あるいは 10.14.6 のOSを搭載したIntel® Mac。Mac miniでPro Toolsとも緊密な安定したOS環境を整えることにより万全の制作体制を構築することも可能です。 2:Avid Pro Tools 動作推奨モデル Avidの推奨動作環境として挙げられていることもMac miniでのシステムアップにとって安心材料です。Pro Toolsシステム要件ではサポートする拡張シャーシなど環境構築に必要な情報も記載していますので、詳細は下記よりご確認ください。 <参照>Avid Knowledge Base:Pro Tools 2018 / 2019 システム要件 3:旧MacProとも劣らない充実のスペック 多彩なオプション選択で、旧Mac Proに勝るとも劣らないほどのスペックを構築。特にCPU・メモリの世代交代はパフォーマンスに大きな影響をもたらしているほか、メモリのオプション設定も旧Mac Proで最大32GBであったのに対し、64GBまで増設可と大きな魅力に。充実のスペックで制作システムのコアとして機能します。 4:導入しやすいコストとサイズ、そして拡張デバイスでの可能性 最大スペックのオプション選択でも¥389,180税込と、導入コストの優位性は見逃せません。約20cm四方・厚さ3.6cmのスクエアな筐体は省スペース性にも優れ、TB3の広帯域に対応した拡張デバイスがシステムをスマートに、そして制作の可能性を広げます。 ベンチマークで見る、いまのMac miniのポジション ◎PassMark・ベンチマークスコア比較 Mac miniのCPUは第8世代Core Processer - Coffee Lakeです。業務導入での比較対象となる旧Mac Pro(黒)は第3世代Core Processer - Ivy Bridgeを採用しています。なんと世代で言えば5世代もの進化の過程があり、単純にクロックスピードだけで比較することはできなさそうです。そこで、ベンチマークテストの結果をまとめてみました。 まず、第3世代のCore i7との比較ですが、当時のフラッグシップとなるクアッドコアのCore i7-3770K(3.5-3.9GHz)のスコアは9487、対してMac miniでオプション選択できるは第8世代 6コア Core i7-8700(3.2-4.6GHz)は15156の数値。実に1.6倍ものスコアの開きがあり、同一クロックであれば約2倍のスペックを持つと考えても良いのではないでしょうか。また、旧Mac Pro(黒)のCPUとなるXeon E5-1650v2(3.5GHz)とも比較すると、第8世代を携えたMac miniのスコアが上回るという逆転現象に行き着きます。世代間でのスペック向上は非常に大きく見逃せない結果です。 メモリに関しても、旧Mac Pro(黒)はDDR3 1866MHz ECC、Mac miniはDDR4 2666MHzとメモリ自体の世代も異なってきます。DDR3とDDR4では理論値として同一クロックでのデータの転送速度は2倍に、さらに動作クロック自体も1.5倍となっていることを考えると、実際の制作作業におけるパフォーマンスは大きく変わってきそうです。 ◎Mac miniのプライスレンジを確認 Mac miniのラインナップは主に2つ、クアッドコアと6コアのCPUとなります。そのうちPro Toolsの推奨モデルとしてAvidホームページに掲載されているMac miniは「Late 2018 Mac mini 8,1 6-Core i7 'Coffee Lake' 3.2 GHz」および、「Late 2018 Mac mini 8,1 6-Core i5 'Coffee Lake' 3.0 GHz」の2機種ですが、Pro Tools|UltimateではIntel® Core i7 プロセッサーを推奨していますので、6コア 3.2GHz Core i7のCPUを選択することになります。 ここにメモリの要件「16GB RAM (32GB以上を推奨)」を考慮すると、メモリ容量違いの上記3パターンが基準となって、ストレージ、ネットワークのオプションを選択する流れです。単純比較はできませんが、旧Mac Pro(黒)の6コアベースモデルが3.5GHz、16GBメモリ、256SSDの仕様で¥328,680税込であったことを考えると、Mac miniが3.2GHz 6コア、64GBメモリ、1TB SSDでまったくの同価格という事実は見逃せないポイントです。 <参照>Avid Knowledge Base:Pro Tools 2018 / 2019 システム要件 ◎Mac mini + Pro Tools|Ultimate System ・PLAN A:旧MacProに勝るとも劣らないパワフルなフルスペックバージョンで安定の制作環境を。 Mac miniの持つポテンシャルをいかんなく発揮させるのが、このフルスペックバージョン。メモリは64GB、2TBのSSDを選択したうえにビデオ関連デバイスやサーバーストレージとのネットワークも考慮して10GbEのオプションもセレクト。可能な限りのすべてを詰め込んでもこの価格帯に収まります。拡張シャーシとしては3つのSonnet Technoplogy社製品をセレクト。eGFXはTB3対応を果たしながらも低コストで導入できる1 Slotのモデル。Sonnet/Echo Express III-DとラックマウントのIII-Rは3枚のシングル幅、フルサイズのPCIeカードをサポートし、すでに導入実績も多数でHDXカードを複数枚導入するには必須です。 ・PLAN B:Pro Tools | Ultimateシステム要件をクリアした、コストパフォーマンスに優れた仕様。 もう一つの選択肢は、Mac miniのコストパフォーマンスを最大限に享受してPro Tools | Ultimateシステム要件をクリアした16GBメモリの仕様。もちろんシャーシを加えたHDXシステムもあれば、HD Native TBを選択してコスト的にPro Tools | Ultimateへの最短距離を取ることもできます。また、業務用途のサブシステムとしても魅力的な価格ゾーンにあり、マシンの将来的な転用も念頭に置けば有効的なセレクトと言えそうです。ちなみに、32GBへの増設は+¥44,000(税別)、64GBへは¥88,000(税別)となっており、実際の制作内容と照らし合わせて選択の落としどころを見つけたいところ。 ・ADD ON:HDXシステムはもちろん、RAID構築から4Kを見据えた導入まで拡がる可能性。 Avid HDX/HD NativeでPro Tools | Ultimateシステムを導入することもさることながら、元々のMac miniの拡張性を活かしたRAIDの構築や、外付けのグラフィックアクセラレーターも視野に入ります。Thunderbolt3の一方をシャーシ経由でHDXに、もう一方をeGPU PROに、さらに10GbE経由でNEXISなどサーバーストレージになど、制作システムのコアとしての活用も見えてきます。 ◎その実力は、いままさに最適な選択に! コストやそのサイズ感だけではもうありません。Mac miniは長らくエントリーモデルとしての位置付けであったかもしれませんが、実は必要な機能だけを絞り込んで余計なものは排除した、業務的で実務を見据えたマシンというイメージに変容してきています。さらに最近のニュースでは、Mac OSに対応したDolby AtmosのHT-RMU(HomeTheateer-Rendering and Mastering Unit)もソフトウェアVer.3.2からMac miniでの構築が従来の半分のコストで可能となっており、その活用の幅も広がっています。また、拡張デバイスはさまざまな3rd Partyから提案されていて、その組み合わせも実に多彩。ブレーンにあたる部分をMac miniに請け負わせるシステム構築はスペックも見返すと理にかなっている内容といえそうです。Mac miniを用いた最適な選択で安定の制作環境を。ぜひともご準備ください!

Music

既存Pro Tools | HDX システムを96kHzライブRec.システムにリーズナブルにグレードアップ〜DiGiGrid MGB/MGO + DLI

プラグインメーカー最大手のひとつであるWAVES社とデジタルコンソールの雄DiGiCo社によって開発されたDiGiGrid製品を活用することで、近年主流となりつつある96kHzでのライブコンサートをマルチチャンネルでPro Tools | HDX システムに接続することが可能になります。 コンパクトな筐体に2系統のMADI入出力ポートを備えたMGB/MGO、2系統のDigiLinkポートを備えたわずか1UのDLIを導入するだけで、既にお持ちのHDXカード1枚につき64ch(48kHz/96kHz)のMADI信号をPro Toolsとの間でやり取りすることが可能です。また、既存のDigiLink対応MADIインターフェイスと比較して、導入費用の面でも大きな魅力を備えています。 ◎主な特徴 ・ 既存のPro Tools | HDX システムはそのままに、MADI I/O 機能を追加可能   ・ HDXカード1枚に対して64ch のMADI信号をPro Toolsとやり取り可能   ・ 96kHz時にも64ch分のMADI伝送が可能   ・ 1Gbpsネットワークスイッチを導入することで、手軽にバックアップRec機能を追加   ・ ネットワークオーディオの利点である柔軟な拡張性と冗長性 ◎システム構成例1 システムはMADIとSoundGridのインターフェイスであるMGB/MGO + DigiLinkとSoundGridのインターフェイスであるDLIから成っています。MGB/MGOは単独でPCのネットワーク端子に接続して入出力させることも可能です。また、MGB/MGOは2ポートのMADI端子を搭載しているため、2つのMADIポートを使用して96kHz時でもPro Tools | HDXシステムとの間で最大64Chの入出力が行えます。ライブレコーディングだけでなく、バーチャルリハーサルにも活用可能なシステムを構築可能です。 ◎システム構成例2 ネットワークオーディオ・デバイスであるDiGiGrid導入の最大の利点は、1Gbpsネットワークスイッチと併用することで柔軟性の高い拡張性とリダンダシーを手軽に追加することが可能な点です。画像の例では既存PCを流用することでバックアップ用のDAWを追加しています。無償でダウンロードできるWaves社のTracksLiveを使用すれば、ネイティブ環境で合計128chまでのレコーディングとバーチャル・リハーサルのためのプレイバックが可能なシステムを手軽に構築可能です。 ネットワークを活用してさらなる拡張性と機能性を追加可能 また、このようにDLIを導入したシステムでは、様々なSoundGrid対応インターフェイスをPro Tools HDXシステムに追加することが可能です。モニタリング用のインターフェイスを追加して、収録時の検聴やインプットの追加、ADATやAES/EBU機器へのデジタル入出力、Ethernetケーブルを使用するネットワーク接続を生かし、長距離でも自由なI/Oの構築がフレキシブルに行えます。 また、SoundGrid 対応Serverを追加することで、対応プラグインを外部プロセッサーで動作させることができます。レコーディング時にWavesやSonnoxなどのプラグインのかけ録りを行う、低レイテンシーでプラグインをかけて送出するなど、コンピューターのCPUに負担をかけずにプラグインをかけられるDiGiGridシステムは失敗の許されないライブコンサートの現場に相応しいソリューションと言えるのではないでしょうか。

Music

Focusrite Red/RedNetシリーズ ~Danteネットワークによる最新レコーディング環境

Ethernetケーブルによるビデオ/オーディオの伝送に関する規格統一を図ったSMPTE ST2110の制定により、にわかに注目度の上がるAoIP(Audio over IP、ネットワークオーディオ)。そうした動きに応えるように、新製品にDanteコネクションが搭載されている例や、Dante拡張カードのリリースなどのニュースを多く目にするようになりました。   Focusrite Redシリーズ / RedNetシリーズはDanteに標準対応するインターフェイスをラインナップ、必要な規模に応じた柔軟なセットアップと高い拡張性を提供します。Pro Tools HDXやMADIにも対応し、既存システムとの統合にも対応。イーサーネットケーブルで完結するシンプルなセットアップ、信頼度の高いオーディオ伝送、ネットワーク形成による自由なルーティングなど、Danteの持つ利点を最大限に享受することが可能です。 ◎主な特徴   ・柔軟で拡張性の高いシステム設計 ・ネットワーク内であれば完全に自由なルーティング ・Pro Tools | UltimateやMADIなどの既存システムとの統合性の高さ ◎システム構成例1 RedNetシリーズによるレコーディング用途のスタジオセットアップ例。豊富なI/Fにより音声信号の入り口から出口までをDanteによって完結することが可能。Pro Tools | HDXシステムとの統合により、既存のワークフローを最大限維持したまま、Danteによる利点を導入します。システムの中心にコンソールがない環境でも、マイクプリ、キュー/トークバック、モニターコントロールといった業務に欠かせない機能を手元からコントロールすることが出来ます。 ◎システム構成例2 コンパクトなDanteシステムに、WAVESプロセッシングを追加した例です。1Uの筐体に8IN/10OUTアナログ(マイクプリ4機を含む)、16x16デジタル、32x32Danteという豊富なI/Oを備えたRed4PreはDigiLinkポートも標準搭載。WGS Bridge for DanteがDanteネットワークとSoundGridネットワークをシームレスに統合。システムにニアゼロ・レイテンシーのWAVESプロセッシングを追加します。

Music

Pro Tools | S6 + Pro Tools | MTRX ~ミキシングを再定義する革新的コンソール・ソリューション~

DAWの進化とともに、今ではほとんどすべての作業はPro Toolsの内部ミックスで完結するようになりました。Pro Tools | S6は豊富なビジュアル・フィードバックと高いカスタマイズ性・拡張性により、Pro Toolsが持つ多くの機能へより素早く確実にアクセスすることを可能にします。Avid最新のI/OでもあるPro Tools | MTRXに備わるモニターコントロールセクションはPro Tools | S6からコントロールすることが可能。高品位なサウンドをPro Toolsシステムに提供するだけでなく、Pro Tools | S6システムを最新のミキシング・ソリューションへと昇華します。 ◎主な特徴   ・圧倒的に豊富なビジュアルフィードバックにより、必要な情報を素早く確実に把握。   ・モジュール方式のハードウェアは必要十分な規模での導入と、導入後の拡張に柔軟に対応。   ・タッチスリーンを採用したセンターセクションで、多くの機能を素早くコントロール。   ・Pro Tools | MTRXとの連携により、モノ、ステレオからマルチチャンネル・モニタリングまでを完璧にコントロール。   ・最大8までのEucon対応アプリケーションを同時にコントロール。大規模セッションでも効率的にオペレートが可能。 ◎システム構成例1 Pro Tools | S6 + Pro Tools | MTRXのもっともシンプルな構成。Pro Tools | MTRXは筐体にMADIポートを備えるほか、必要に応じてオプションカードを追加すれば様々な信号のハブとしてまさにコンソールとしての役割を担うことが可能です。 ◎システム構成例2 最大8つまでのEUCON対応DAW/アプリケーションと同時に接続可能なPro Tools | S6のポテンシャルを活用すれば、複数のPro Toolsシステムを1枚のサーフェースでコントロールすることが可能です。フェーダーひとつから、どのシステムのどのチャンネルをアサインするかを選択出来るため、各DAWでS6のエリアを分担して作業することも可能です。

Post

Pro Tools | S3+Pro Tools | Dock ~Mixをフィジカルにコントロールするプロフェッショナルシステム~

Avid製ライブコンソールS3Lのために開発された堅牢性とスムースな操作性を兼ね備えた16フェーダーのコントロールサーフェスPro Tools | S3。Pro Tools | S6で培われたノウハウを詰め込んだPro Tools | Dock。コンパクトでありながらミックスをパワフルにコントロールするこの組み合わせがあれば、大型コンソールに匹敵するほど効率よくミックス作業を行うことが可能になります。 主な特徴   ・上位モデルならではの堅牢でスムースな16フェーダー、豊富なノブ/スイッチ、タッチストリップなどにより、プロジェクトを素早く俯瞰、コントロールを容易にします。(Pro Tools | S3)   ・4in/6outのCore Audioインターフェースとして動作(Macのみ)。2つのXLR(Mic/Line)、2つのTRS(Line)インプットも兼ね備え、ボーカルやギターを急遽追加しなければならないような時にも素早く対応が可能。(Pro Tools | S3)   ・Pro Tools | Control appをインストールしたiPadとともに使用することで、Pro Tools | S6のセンターセクションに匹敵するコントロールを実現。(Pro Tools | Dock)   ・iPadによるタッチスクリーンと高品位なハードウェアにより、スピードと操作性を両立。(Pro Tools | Dock) システム構成 iPadはWiFi圏内にあればPro Tools | Control appからPro Toolsをコントロールすることが出来ます。iPadを持ってブースへ入り、ブースからレコーディングを開始/停止するなどの操作が可能。LANポートを備えたWiFiルーターを導入することで、S3、Dock、コンピューターのネットワークとiPadの安定運用を同時に実現する組み合わせがお勧めです。ご要望に合わせたiPad、WiFiルーターのモデルをお見積もりいたします。

Music

Pro Tools | Ultimate + HD MADI ~多チャンネル伝送を実現したコンパクトシステム~

多数のチャンネルを扱うことの多いポストプロダクション業務。5.1chサラウンドが標準となり、Dolby Atmosや22.2chなどのイマーシブサラウンドが浸透していくことで、MA作業で必要とされるチャンネル数はさらに増加していくと考えられます。Pro ToolsシステムのI/OにPro Tools | HD MADIを選べば、わずか1Uの筐体でHDXカード1枚の上限である64ch分の信号を外部とやりとりすることが可能になります。96kHz時も48kHz時と同様、64chを伝送することが出来ることも大きな利点です。 ◎主な特徴   ・わずか1ラック・スペースのインターフェースと2本のケーブルを介して、最大64のオーディオ・ストリームをPro Tools | HDシステムと他のMADIデバイス間で送受信できます。   ・すべての入出力を超高品質でサンプルレート変換できます。セッションを変換したり、外部MADIデバイスをダウンサンプリングしたりする面倒な作業は不要です。   ・別のフォーマット・コンバーターを用意することなく、オプティカル接続と同軸接続の両方で、さらに多様なMADIデバイスをレコーディングのセットアップに追加できます。   ・出力に対してサンプル・レート変換を使用する際、専用のBNCワード・クロックおよびXLR AES/EBU接続を介して外部クロックと同期することで、ジッターを最小限に抑えます。 ◎システム構成 Pro Tools | HD MADIの構成は、HDXカード1枚に対してI/O 1台という極めてシンプルなもの。MADI対応の音声卓となら直接接続が可能なほか、音声卓との間にMADIコンバーターを導入すれば、Pro Toolsと様々なデバイスを多チャンネルで接続することが可能となります。

Post

Works

Works
システムの実例を知る

株式会社Cygames 大阪サウンドフォーリースタジオ様 / 正解は持たずにのぞむ、フォーリーの醍醐味を実現する自社スタジオ

「最高のコンテンツを作る会社」をビジョンに掲げ、妥協のないコンテンツ制作に取り組む株式会社Cygames。ProceedMagazine 2022-2023号では大阪エディットルームの事例として、Dolby Atmos 7.1.4chに対応した可変レイアウトとなるスタジオ2部屋が開設された様子をご紹介したが、それとタイミングを同じくしてフォーリースタジオも大阪に設けられた。ここではそのフォーリースタジオについてレポートしていきたい。 同時期に3タイプのスタジオ開設を進める Cygamesでは、スマートフォン向けのゲームタイトルだけではなく、コンシューマー系のタイトル開発にも力を入れている。近年のゲームはプラットフォームを問わず映像や音の表現が飛躍的に向上しており、フォトリアルで写実的な映像に合わせたサウンドを作る場面が増えてきた。効果音の制作については、それまでは外部のフォーリースタジオを借りて作業を行っていたが、効率性を考えれば時間や手間が掛かってしまうという制約があった。また、ゲーム作品では、例えばキャラクターの足音一つとっても多くの動作音があるだけでなく、ファンタジーの世界特有の表現が必要である。土、石畳、レンガ等といった様々な素材の音を既存のライブラリから作り上げるのは容易ではなく、完成度を上げていくことは中々に難しい作業だが、フォーリースタジオを使って収録した効果音は、生音ならではの音の良さに加え、ゲームによく馴染む質感の音に仕上がることが多かったという。 やはり自社のスタジオがあればより効率的に時間を使い、かつクオリティを高める試行錯誤も行えるのではないか、という思いを抱いていたところ、Cygamesのコンシューマーゲーム開発の拠点がある大阪でモーションキャプチャースタジオの設立計画が立ち上がったことをきっかけに、建物のスペック等を考慮してフォーリースタジオも同じ場所に設置する形でスタジオ設置に向けて動きだした。以前ご紹介した、MAスタジオの用途を担う大阪エディットルーム開設プロジェクトと合わせると、同時期に2つのサウンドスタジオ開設を進めるという大きなプロジェクトになったそうだ。 制約はアイデアでポジティブに変換する フォーリースタジオを開設するための要件としてまず挙げられるのは部屋の高さと広さ。通常のレコーディングとは異なって物を振り回したりすることも多いフォーリー収録ではマストな条件となる。天井が低ければ物が当たってしまうのではないかという演者の不安とストレスを低減するため、部屋の中央付近の天井を一段高くする工夫が取り入れられている。広さについてもフォーリー収録時の演技をする上で充分なスペースを確保しているが、加えて壁の反射音の影響が強く出てしまわないよう、床やピットを部屋の真ん中に寄せて配置し、壁からの距離が取れるレイアウトを実現できた点も広さを確保できたメリットだ。 また、スタジオ内の壁面にはぐるりと木製のフローリングが敷かれ、そこも材質の一つとして使用できる。中央には大理石やコンクリート、水を貯められるようなピットが用意され多様な収録に対応できる環境が整えられた。一方、スタジオの広さがある故に反響をどのようにマネジメントするのかは大きな課題となっていたようだ。そこで取られた特徴的な対策だが、壁面の反射を積極的に発生させつつルームモードを起こさないように処理した上で、むしろその反響を収録での選択肢として活かせるようにしたそうだ。もちろん、部屋の外周に沿って用意されたカーテンによって反射面を隠し、反響をダンピングして抑えていくこともできる。さらに、日本音響エンジニアリングの柱状拡散体を設置してアコースティックも整えられており、当初は弊害と考えていた反響音を逆に利用することで、収録できる音の幅を拡げている。 施工は幾度と重なる打ち合わせやシミュレーションを経て行われたのだが、それでも予想できない不確定な要素も出てきたそうだ。例えば、このスタジオの特徴でもある天吊りマイク。天井に取り付けられた金属製のパイプに特型のマイクスタンドを引っ掛けて固定する仕様になっているのだが、実際に収録を行うとパイプに響いているのか、音声信号にノイズを感じることが出てきた。イメージ的にはドラムのオーバーヘッドを立てるイメージに近く、ドラムは音量が大きいためそれほど気になりはしないが、フォーリーの収録となると微細なノイズでも大きく感じることが多くなる。試行錯誤した結果、天吊りマイクスタンドを取り付ける際に固定ネジを締めすぎないようにすることでノイズを軽減できることがわかった。そのほかにも、部屋の天井から高周波の金属音が鳴っているようで調査したところ、空調のダクトが共振していることが判明。金属のダンピングを見直して解決したそうだ。細かな調整だが、このような積み重ねこそが収録のクオリティーアップには必要不可欠であるとのことだ。 📷ダンピングが見直されたという天吊りマイクブーム 集中環境とコミュニケーションの両立 スタジオのコンセプトで重要視している要素として、ストレスフリーであることが必要であると考えているそうだ。ブースとコントロールルームのスタッフの間で意思疎通がストレスなく行われなければ作業効率も落ちてしまい、認識の齟齬も起きがちだ。社内スタジオで自由に使える環境とはいえ、クオリティを高めるトライアンドエラーの時間まで削ってしまっては本末転倒になってしまう。 ところが、このスタジオはブースとコントロールルームが完全にセパレートされており、お互いの姿を確認できるようなガラス面も設けられていない。 一見するとコミュニケーションを妨げる要素になりそうだが、ガラス面を設けないことで演者が集中して演技に取り組める環境を整えられたという。演者にとって、人の目線があると気になって集中力の妨げになることもある。外部のスタジオでは収録の様子をクライアントがコントロールルームから見守るといったことも多いが、このスタジオは社内スタッフでの利用が主となるため、必ずしもコントロールルームから演者を直視できる必要はない。ただし、その分だけコミュニケーションを重視したシステムプランが採用された。 スタジオ内にはフォーリー収録用とは別に天吊りマイクが仕込まれており、コントロールルームからスタジオ内の音を聴くことができ、トークバックと両立できるようなコミュニケーションの制御も行なっている。映像カメラも各所に設置されており、コントロールルーム内のディスプレイにスタジオ内の様子が映され、その映像も各ディスプレイに好きなように出せるスイッチャーが設置されており、オペレーターの好みに合わせて配置することが可能となっている。コントロールルームとブースをアイソレーションすることによって演者が集中できる整った環境と、コミュニケーションを円滑にさせるシステムプランをしっかり両立させている格好だ。 正解を持たずに収録する、トライする機材 📷コントロールルームには左ラックにPUEBLO AUDIO/JR2/2+、右ラックに TUBE-TECH/HLT2Aが収められコンソールレスな環境となっている。 このスタジオではスタッフが持ち込みPCで収録することも想定されており、各種DAWに対応できるシステムが必要であった。シンプルかつシームレスにシステムを切り替えられ、コミュニケーションシステムとも両立させる必要がある。それをシステムの中核に Avid MTRXを据えることで柔軟な対応を実現している。また、「収録段階からの音作りがしっかりできるスタジオにしたい」というコンセプトもあり、アウトボード類の種類も豊富に導入された。コンプレッション、EQはデジタル領域よりもアナログ機材の方が音作りの幅が拡がるということだけではなく、その機材がそこにあるということ自体がスタッフのクリエイティビティを刺激する。スタッフが自宅で録るのではなく、「このスタジオで録りたい」という気持ちが起こるような環境を整えたかったそうだ。 そうして導入された機材のひとつが、PUEBLO AUDIO/JR2/2+。フォーリースタジオではごく小さな音を収録することが多く、ローノイズであることが求められる。過去の現場での実績からもこの機種が際立ってローノイズであることがわかっており、早々に導入が決まったようだ。また、ミキサーコンソールが無くアウトボードで補完する必要があったため、TUBE-TECH/HLT2AがEQとして据えられている。HLT2Aは繊細なEQというよりは極端なEQでサウンドを切り替えることもできるそうで、極端にローを上げて重たい表現ができないか、逆にローを切ってエッジの効いた表現はできないか、といった試行錯誤を可能にする。このほか、ヴィンテージ機材ならではのコンプレッション感が必要な場面も増えてきていることから、NEVE 33609Cも追加で導入されている。今後も機材ラインナップは充実されていくことだろう。 はじめからこういう音が録りたいというターゲットはあっても、正解を持たずに収録していくという工程がフォーリーの醍醐味だという。その中で誰でも使いやすい機材を選定するということを念頭に置き、スタッフからのリクエストも盛り込んでこれらの機材にたどり着いたそうだ。 スタジオは生き物、その成長を期待する 📷何よりもチームワークの良さが感じられた収録中の一コマと、気合いが込められた渾身の一撃も収録!! こうして完成をみたスタジオであるが、S/Nも良く満足した録音が行えているそうだ。また、5.1chリスニングが可能となっている点もポイント。開発中のタイトルにコンシューマー作品が多く、サラウンド環境が必要なことに加え、映画のようにセンターの重要度が高いことから、ファントムセンターではなくハードセンターで収録したいという要望に沿ったものだ。また、映像作品やゲーム資料を確認しながらすぐに収録することができるため、フォーリーアーティストに映像作品の音を聴かせてクリエイティブへのモチベーションをアップしてもらいながら制作を進める、という点も狙いの一つだ。もちろん、自社スタジオとなったことで時間を気にせずクオリティの向上を目指せることが大きく、求める方向性をより具体化させて収録できるメリットは計り知れない。 今後について伺うと、スタジオは生き物であり、収録できるサウンドの特徴も次第に変わっていくと考えているそうだ。導入する資材が増えればそれが吸音や反射になって音も変わる。ピットについても使用していく経年変化でサウンドにも違いが出てくる。高域が落ち着いたり、もう少し角が取れてきたりと、年月を積み重ねてどのように音が変わっていくのかがすごく楽しみだと語っていただいた。 📷今回お話を伺った、サウンド本部/マネージャーの丸山 雅之氏(左)、サウンド本部/サウンドデザインチーム 村上 健太氏(中央)、妹尾 拓磨氏(右)。 目の前の制約はアイデアでポジティブに変換する、考え抜かれたからこそ実現できたメリット。そして、それを活かしたフォーリー収録には正解を持たずにのぞむ。ここに共通するのは先入観を捨てるということではないだろうか。先入観を「無」にしたならば、そこにあるのは創るというシンプルかつ純粋な衝動のみである。クリエイティブの本質を言い得たような、まさにプロフェッショナルの思考には感銘を受ける。今後もこのスタジオが重ねた年月は成長となって作品に反映されていくのだろう、フォーリー収録された素材がゲームというフィールドで表現されエンターテインメントを高めていくに違いない。   *ProceedMagazine2023-2024号より転載

Media

maruni studio様 / studio m-one 9.2.6chイマーシブ構築、マルニビル改装工事の舞台裏

取材協力:株式会社エム・ティー・アール ライブの映像コンテンツやMVをはじめ、CM、企業VP(=Video Package)など、音楽系を中心に幅広いポストプロダクション業務を手がけるマルニスタジオ。長年に渡りレコーディングスタジオとポスプロの両方を運営していた関係で、音楽系の映像コンテンツが全体の6割程度を占めるという。今年3月にリニューアルオープンされた同社所有のマルニビルは、その目玉として地下一階にDolby Atmos対応のサウンドスタジオ「studio m-one」を構えた。Musikelectronic Geithainの同軸スピーカーで統一された9.2.6ch構成のイマーシブサラウンド環境は見た目としても圧巻だが、商用スタジオとしても利用する多くの方にとって快適な環境となるよう、様々な工夫が取り入れられているという。 スケルトンから行ったリニューアル 目黒区青葉台、目黒川に程近い住宅街の一角に佇む自社所有のマルニビルは、およそ30年に渡りこの地でレコーディングスタジオとして運営されてきた。また、青葉台には当初からポスプロ業務をメインとしているもう一つの拠点が今も存在している。そして2020年3月、突然訪れたコロナ禍が世の中の動きを止めてしまったのと同様に、コンテンツ制作もしばらくの間停滞期を迎えることになる。そこで持ち上がったのが、両拠点をポストプロダクション業務に統一するというプロジェクトだ。その後社内協議を経て、自社ビルであることのメリットを活かし、全フロアを一度スケルトンにして再構築する改装工事実施を決断。2022年6月より工事がスタートし、数々の難局を乗り越えながら今年3月リニューアルオープンの運びとなった。 今回の改装工事の舞台裏はどのようなものだったのだろうか。スタジオマネージャー兼MAミキサーの横田智昭氏、MAミキサーの沖圭太氏にお話を伺ったところ、これからイマーシブ対応のスタジオを作りたいと考えている方にとって参考になるであろう、理想的なスタジオ構築へのヒントが見えてきた。 株式会社丸二商会 MARUNI STUDIO Studio Manager Chief Sound Engineer 横田智昭 氏 株式会社 丸二商会 MARUNI STUDIO Sound Engineer 沖 圭太 氏 ROCK ON PRO(以下R):今回のスタジオリニューアルの最初のきっかけは何だったのでしょう。 横田: 率直な話、コロナ禍に突入してレコーディングの業務、スタジオで音を録るという仕事は停滞していた一方で、そういった中でもポスプロ業務の方は順調に稼働していました。そこで、このタイミングでポスプロ業務と拠点を統一しリニューアルしようという提案が社内から挙がったんです。 R:その後、具体的な計画や機材選定が始まったのではないかと思いますが、どのように進めていったのでしょう。 横田: このビルは自社ビルで、さらに吹き抜けがあり広く空間がとれる利点があったのですが、スケルトンまでできるという予算を確保できたのが一番大きかったですね。それが実現したからこそ、スタッフ全員で自由に考えられました。タスクの洗い出しというよりは、「自由にできるからこそ、どうレイアウトしていくのか?」というのを決めていくのが大変でした。あれこれ詰め込みすぎると予算が追いつかなくなったりして。 沖:この段階から冨岡さん(株式会社エム・ティー・アール 冨岡 成一郎氏)に相談でしたね。私はマルニと冨岡さんをつなぐ連絡担当だったのですが、無茶を言ってもレスポンスよく対応してくださいました。あと、実はスケルトンの話が出てくる前に、地下一階ではなく二階でやろうという話もありました。しかし検討していくと天井高も取れないし…ど〜にもならん!と(笑)。商業的に成り立たない、というのが分かったからこそ、思い切って「スケルトンからやろう!」という方向をみんなで向くことができたのは大きかったです。 R:では、リニューアル時にDolby Atmos対応というのは当初からお考えだったということですね。 横田: それは最初から考えていました。ポスプロのスタジオに転向するならAtmos対応にしたいと。 リニューアルが解決したポイント 📷著名な建築家によってデザインされたというこのマルニビルは、コンクリート打ちっぱなしの内壁のクールさと、階段などに見られるアール(曲面)の造形が生み出す人間的な温かみの対比がなんとも美しく印象的だ。 R:この新たなスタジオで解決された、以前からの課題はありましたか? 横田: MA室の場合、クライアントの方が大勢いらっしゃることがあります。中には、当然別の仕事も対応しながら立ち会われるということもありますが、コントロールルームの中ではそれを遠慮がちにされているのもこちらとしては心苦しかったんです。そこで、隣の前室にテレビとソファを用意して、そちらでもコントロールルームと同じ環境の音と画を流すことができるようにしました。クライアントの皆さんが別件対応を前室でしていても、コントロールルームの中で制作がどう進行をしているのかをすぐに確認できるという環境にしています。 また、コントロールルーム内とは別の場所で冷静に画音をチェックできるスペースができたというのは、従来の雑多になりがちな作業環境からすると改善されたポイントです。これは、他のMA室にもなかなか無い部分ではないかと思っています。あとは、極力スタジオ内のモノを減らす、ということですね。見ていただいて分かる通りかなり少ないと思います。音響面も含めてダイレクトな音を重視したいというのはずっと思っていて、卓上のものもなるべく小さくしました。 R:そうですよね、シンプルで洗練された印象を受けました。 📷前室にはDolby Atmos対応のサウンドバーSonos Beamを配置し、テレビのeARC出力からオーディオチャンネルを受けることでシンプルな配線を実現している。 📷優先的に導入したというTorinnov Audio D-MON、そしてDolby Atmos対応AVアンプDENON AVC-X6700Hなどが配置されたラック。 沖:機材的な話で言うと、最初の段階から決まっていたものとしてTorinnov Audio D-MON の導入がありました。これまでのMA室は15年くらい使っているのですが、経年変化もあり音を調整したいタイミングも出てきました。その調整幅が少ないというのはスタジオを長く使っていく上で、言わば足かせになってしまう、というのをすごく感じていたので、スタジオを作って今後も長く使っていけるようにしたかったんです。もちろんアコースティックな部分での調整を追い込むのも大事ですが、プラスして電気的に調整できる「伸びしろみたいなものを取っておきたい!」ということもあって、コストは高くついても「そこだけは譲らない!」というのはありまして、何も考えずに最初に予算に組み込みました(笑)。 R:もちろん出音の改善の意味もあるかと思うのですが、長く使っていく上でメンテナンス性をもたせる意味で導入されたのですね。 沖:当初はそうでしたが、結果的にAtmosの調整にもすごく良い効果が出ていますよ。 17本のMusikが表現する9.2.6ch R:最初の段階から導入を決めていたものは他にもあるのでしょうか。 横田: 見ての通り、ムジークですね。この901のフロントのLCRは元々レコーディングで使っていたものなんです。これが、レコーディング用途であったとはいえ、私たちも当然よく聴き込んでいて素直にいいなと思わせるサウンドでした。そこで「せっかくあるこの901を活かして全てを組めないか?しかも9.2.6chという形で…」と冨岡さんにも相談させていただいて。そこもこだわりと言えばこだわりです。 R:では、慣れ親しんでいたスピーカーでイマーシブの作業も違和感も無く進められたと。 横田: そうですね。ただ、17本もあると…スゴいんだな、と(笑)。なかなか暴れん坊の子達なんですが、Torinnovが上手くまとめてくれています。 R:今回、9.2.6ch構成にされたのはどういった理由でしょう。 横田: それは僕がここを作る以前に、外部のスタジオで取り組んでいた作品が影響していて、そこでは9.2.4chで作業を行なっていました。その時にワイドスピーカーの利点について使用前と使用後を比較した時に、新しいスタジオを作るのであれば、トップを4chとするか6chとするかはさておき、平面9chはマストだな、と。中間定位が作業上すごく判断しやすい。そこを7.1.4chと比較するとやはり定位がボケる部分が出てくるんですね。結果的に7.1.4chで聴かれている環境があったとしても、制作環境としてはこの部分が物理的に分かると作業がスムーズになってくるというのがありました。 📷Topの6chにはmusikelectronic geithain RL906を採用。スケルトンからの改装により3.1mという余裕ある天井高が確保された。 R:トップスピーカーはどのように活用されていますか? 横田: トップ6chに関しては、トップの真ん中にスピーカーを置くというのは、正直最初は「要るのかな?」とも思っていたんですが、ついこの間、その効果を実感できる機会がありました。Atmosの作業を行なっていた時に雷を落とすシーンがあったんです。部屋の中でのプロジェクションマッピングになっていて、長方形の箱の中でどこからともなくワーッと雷が落ちるシーン。それを音楽の曲中の間奏に入れたかったんです。上方向の定位は分かりづらいものですが、その時の雷の音の定位が非常に分かりやすかったんです、トップの真ん中があることによってすごくやりやすさを感じました。そうしたものを作る上で定位をきちんと確認できるっていうのは良かったなと最近になって実感しています。 R:今回AVID S1を選択されたのはどのような理由からでしょう。 沖:MAという作業柄、フェーダーを頻繁に使う訳ではないので、8chもあれば十分なんです。あとは、卓ごと動かせるようにしたかったというのと、反射音の影響を極力減らすため、スタジオ内のあらゆるものをできるだけコンパクトにしました。S3じゃなくS1というのもそこからです。 横田: やはり、スイートスポットで聴かなければ分からないじゃないですか。中には卓前に座ることに抵抗があるというクライアントの方も意外と多くいらっしゃいます。だったら卓側を動かしてしまって、そこにソファや小さなテーブル、飲み物などを置いて落ち着ける環境にしてしまえば、ど真ん中で聴いていただけるかなと思いました。 📷マシンルームからのケーブルを減らすため、必要最低限かつコンパクトな機器類で構成された特注のデスク。中央にはAVID S1が埋め込まれている。 R:フロアプランに関して、他にも案はありましたか? 横田: リアやサイドのスピーカーをどのように配置できるかというところをしっかり検討して、これはすごく上手くいったと思います。サラウンドサークルのことだけを考えるとクライアントの邪魔になってしまうことがありがちです。それを、しっかりイマーシブ環境にとっての正確な配置を考えつつ、クライアントも快適に過ごせるということを、僕らの意見だけではなく営業サイドの意見も豊富に取り入れてこだわって考えました。 沖:この部屋はあえてMA室とは呼んでいません。コンセプト段階で「MA室を作るのか?」それとも「レコーディングの人もMAの人も使える部屋を作るのか?」という議論がありました。前室のスペースもいっぱいまで使って、3列ディフューズのいわゆるMA室的な部屋を作ろう、というアイデアと、ITU-Rのサラウンドサークルにできるだけ準拠した完璧な真円状に配置しようというアイデアがありまして、そこで色々話し合って揉んでいく中で今の形に落ち着きました。レコーディングの方もMAの方も皆が使える部屋となったので、より広い用途に対応できるという意味合いでもあえてMA室とはせず「studio m-one」としています。 📷将来的なシステム拡張にも柔軟に対応できるAVID MTRX。B-Chainの信号はモニターコントローラーのGrace Design m908を経由し、Torinnov Audio D-MONへと接続されている。 レコーディングとMAを融和するイマーシブ R:現場の方々から見てDolby Atmos以外の規格も含めてイマーシブ需要の高まりというのは感じますか? 横田: 確かにエンドユーザー的には広がってきているかな、という感覚はあります。そこから「スタジオを使ってもらうようにするにはどうするか?」っていうのがもう一つのテーマであったりもするので、私たちがどうやって携わっていくかというのは毎日考えていることではあります。音楽作品については、いくつかのアーティストがだんだん作り始めているような状況なんですが、これもやってみて思うのは、ノウハウがものすごく大事な部分でもあるし、発注する側からしてもある意味「未知」ではある状態です。「面白そうだけど、どういうふうにすればいいの?」とか、「どういう風にやるの?」とか、「時間はどれだけかかるの?」といった部分がまだまだ分かりづらい状況だと思います。 R:手探りなところは聴き手もそうですよね。 横田: だからこそ、私たちはいいスタジオを作らせてもらったので、これをどう活用していくか、イマーシブのニーズにどう参入していけばいいのかというのは常日頃から営業陣とも話し合っています。そこで、先日取り組んでみたのが企業系のVPコンテンツで、このstudio m-oneでAtmosを体験していただいたのをきっかけにお声がけをいただいて、VPをAtmos化するということを実験的にやらせていただきました。 他にも企画段階から携わって、「カメラアングルこういうのはどうですか?」とか「背景にこれがあるとこういう音が足せるので、こんな空間ができますよ」とか、「こういう動きで…」「俯瞰から撮ると…」とかカメラマンさんとも打ち合わせをさせていただいて、それに対して僕らが効果音をつけて制作してみたというケースもあります。クライアントは、さまざまな企業のコンテンツを受注する制作会社なのですが「どういう風に世に出していいかっていうのはちょっとまだ悩むけれども、できたコンテンツとしてはすごく面白い」という評価で、受注の段階でAtmosの表現もできると提案してみようかという流れも生まれてきているようです。そうなると、これまでAtmosとは無縁と思われた企業の方にも、商品だったり、システムだったり、それが例えば「空間」を表現することでその価値観が高まりそうな商品にはAtmosのような規格がとても効果的だ、と知っていただける機会も増えてきそうです。 R:制作はもちろん、営業面でも広がりを見せそうですよね。 横田: 先ほどの話もありましたが、あえてMA室とは呼んでいません。これまで、サラウンド制作はどちらかというとMAやダビングの世界の話で、言ったら我々には親しみがある分野でした。そこに空間オーディオが出てきてレコーディングの方が一気にAtmosへ取り組む機運が高まると、レコーディングの人たちとMA的なやり方を話すようになってきたんです。そういう時に、我々が今までやってきたサラウンドの話が活きてくる。これまではレコーディングとMAの間に垣根のようなものが感じられていたんですが、空間オーディオのスタートによってその境目が混ざってきた感覚です、これからもっとそうなっていくと思います。studio m-oneもせっかく作るなら、そのどちらにとっても垣根がないスタジオにしたかったというのが最初の展望です。Atmosへの関心にかかわらず、どのような方にでも使ってもらえるような部屋にしたいですね。 📷中央のデスクを移動させ、椅子とサイドテーブルを置くと極上のイマーシブ試聴環境へと早変わりする。この工夫により、クライアントがスタジオ中央のスイートスポットでリラックスして試聴してもらえるようになったという。「卓前で聴いてもらうのが難しいのであれば、卓ごと動かせばいい」、そうした逆転の発想から生まれたまさにクライアントファーストな配慮である。実際にこの場でライブの音源を試聴させていただいたが、非常に解像度の高いMusikサウンド、そしてTorinnov Audio D-MONによる調整の効果も相まって、良い意味でスピーカーの存在が消え、壁の向こう側に広大な空間が広がっているかのように感じられた。 ●Speaker System Dolby Atmos Home 9.2.6ch L/C/R:musikelectronic geithain | RL901K Wide/Side/Rear:musikelectronic geithain | RL940 Top:musikelectronic geithain | RL906 Sub:musikelectronic geithain | BASIS 14K×2 スタジオ設立30周年を迎える節目に、ポスプロ業務への一本化という新たな変革へと踏み出したマルニスタジオ。スケルトンからの改装は自由度が高い反面、決めるべきことも増えるため数々の議論が行われてきた。その際に、技術スタッフの意見はもちろん、営業陣の意見にもしっかりと耳を傾けることで、クオリティの高い制作環境を担保しつつ、クライアントを含めた利用する全ての人にとって居心地の良い空間デザインが実現された。あえてMA室と呼んでいないことからも伝わってくる、制作現場における様々な垣根を取り払い、人との対話を重視しながらより良い作品を作っていこうという姿勢には個人的に深い感銘を受けた。このstudio m-oneから、また一つ新たなムーブメントが拡がっていくのではないかという確かな予感を抱かずにはいられなかった。   *ProceedMagazine2023-2024号より転載

Post

株式会社三和映材社 様 / MAルーム『A2』〜大阪の老舗ポスプロが、これからの10年を見据えてMAルームをリニューアル〜

Text by Mixer CMや企業VPといった広告案件を数多く手がける大阪の老舗ポスト・プロダクション、株式会社三和映材社が本社ビル内にあるMAルーム『A2』をリニューアルした。長らく使用されてきたヤマハ DM2000はAvid S4に入れ替えられ、モニター・スピーカーはGenelec The Ones 8331Aに更新。システム的にはシンプルながら、8331AとPro Tools | MTRXはAESで接続されるなど、音質 / 使い勝手の両面で妥協のないMAルームに仕上げられている。今回のリニューアルのコンセプトと新機材の選定ポイントについて、株式会社三和映材社 ポストプロダクション部所属のサウンド・エンジニア、筒井靖氏に話を訊いた。 大阪の老舗ポスプロ:三和映材社 大阪・梅田から徒歩圏内、新御堂筋沿いにスタジオを構える三和映材社は、1971年(昭和46年)に設立された老舗のポストプロダクションだ。映画の街:京都で、撮影機材のレンタル会社として創業した同社は、間もなくビデオ機材や照明機器のレンタル業務も手がけるようになり、1980年代にはポストプロダクション事業もスタート。同社ポストプロダクション部所属の筒井靖氏によれば、1985年の本社ビル新設を機に、ポストプロダクション事業を本格化させるようになったという。 「本社ビルは、1階が機材レンタル、3階が撮影スタジオ、5階が映像編集室、6 階が映像編集室とMA ルーム、7階がレコーディング・スタジオという構成になっていて、撮影から映像編集、MA、さらには音楽制作に至るまで、映像コンテンツの制作がワン・ストップで完遂できてしまうのが大きな特色となっています。手がけている仕事は、CMや企業さんのPRが8〜9割を占めています。製品紹介や会社紹介のビデオですね。CMと言っても、昔はテレビがほとんどだったのですが、最近はWebが多くなっています。最近は自分たちで映像編集されるお客様も増えてきたので、MA やカラコレ、合成、フィニッシングだけを弊社に依頼されるパターンも増えていますね」 📷株式会社三和映材社 ポストプロダクション部 サウンド・エンジニア 筒井 靖 氏 本社ビル内の施設は、映像編集室が3部屋(Autodesk Flame ×2、Adobe Premiere Pro ×1)、MAルームが2部屋、レコーディング・スタジオが1部屋という構成で、その他に別館にもボーカル・ダビングなどに使用できるコンパクトなスタジオが用意されているとのこと。2部屋あるMAルームは、フラッグシップの『A1』が5.1chサラウンドに対応、今回リニューアルが実施された『A2』はステレオの部屋で、どちらも1985年、ビルが竣工したときに開設されたという。 「音響設計は、日東紡さん、現在の日本音響エンジニアリングさんにお願いしました。ルーム・アコースティックは基本開設時のままで、その後は痛んだファブリックを張り替えたくらいですね。機材に関しては、『A1』はAMEK AngelaとStuderの24トラック・マルチの組み合わせでスタートし、1993年に卓を7階のレコーディング・スタジオで使用していたSSL 4000Eに入れ替えました。現在の卓は2006年に導入したSSL C300で、かなり年季が入っていますが、今年に入ってからフル・メンテナンスしたので今のところ快調に動いています。 一方の『A2』は、当初は選曲効果の仕込みで使うような部屋だったので、最初はシグマのコンパクト・ミキサーが入っていたくらいでした。その後、『A1』に4000Eを入れたタイミングで、現在のDAWの先駆け的なシステムであるSSL Scenariaを導入し、本格的なMAルームとして運用し始めたんです。Scenariaは、関西一号機のような感じでしたが、映像もノンリニアで再生できる革新的なシステムでしたね。Avid Pro Toolsを導入したのは2006年のことで、『A1』と『A2』に同時に導入しました。『A2』のメイン・コンソールは引き続きScenariaで、Pro Toolsはエディターとして使うという感じでした。映像は、ソニーのDSR-DR1000というディスク・レコーダーを9pinでロックして再生するようになったのですが、あれはワーク上げしながら再生できる画期的なマシンでした。その後、いい加減Scenariaも限界がきたので、2010年にヤマハ DM2000に更新した経緯です。」 S4は使い慣れたARGOSY製デスクに収納 📷もともとはDM2000用として設置されていたARGOSY製のスタジオ・デスクをサイド・パネルを取り外すことで使用。今回導入したAvid S4がきれいに収められた。 そして今年5月、三和映材社はMAルーム『A2』のリニューアルを実施。Pro Tools周りを刷新し、オーディオ・インターフェースとしてAvid Pro Tools | MTRXを新たに導入、長らく使われてきたDM2000はAvid S4に更新された。筒井氏によれば、約2年ほど前にリニューアルの計画が持ち上がったという。 「一番のきっかけは、Pro Tools周りとDM2000の老朽化ですね。弊社の仕事は修正 / 改訂が多いので、どちらの部屋でも作業ができるように、Pro ToolsやOSのバージョンをある程度揃えるようにしているんです。しかし以前『A2』に入っていたMac Proがかなり古く、それが足枷になってPro Toolsをバージョン・アップできないという状態になっていたんですよ。せっかくPro Toolsは進化しているのに、互換性を考慮してバージョン・アップせず、その恩恵を享受しないというのはどうなんだろうと。それでDM2000もところどころ不具合が出ていたこともあり、約2年前からリニューアルを検討し始めました」 DM2000に替わる『A2』の新しいコントロール・センターとして選定されたのが、16フェーダーのS4だ。S4は、CSM×2、MTM×1、MAM×1というコンフィギュレーションとなっている。 「作業の中心となるPro Toolsが最も快適に使えるコンソールということを考え、最終的にS4を選定しました。DM2000やC300のようなスタンドアローン・コンソールには、何か“担保されている安心感”があって良いのですが(笑)、最近はPro Toolsがメインになっていましたので、もはやコンソールにこだわることもないのかなと。一時期はコンソールをミックス・バッファー的に使っていたこともあるのですが、次第にアウトボードすら使わなくなり、完全にPro Toolsミックスになっていましたからね。 ただ、唯一心配だったのがコミュニケーション機能とモニター・セクションだったんです。以前、ICON D-Controlシステムで作られたセッションを貰ったときに、モニターを作るためのバスがずらっと並んでいたことがあって、そういった部分までPro Toolsで作らなければならないのはややこしいなと(笑)。しかしPro Tools | MTRXの登場によって、コミュニケーションとモニター・コントロールというコンソールの重要な機能をPro Toolsとは切り離して実現できるようになり、これだったらコントロール・サーフェスでもいいかなと思ったんです。Pro Toolsで行うのは純粋な音づくりだけで、環境づくりはPro Tools | MTRXがやってくれる。今回のシステムを構築する上では、Pro Tools | MTRXの存在が大きかったですね。 コントロール・サーフェスを導入するにあたり、S6やS1という選択肢もあったのですが、最終的にS4を導入することにしました。Dolby AtmosスタジオであればS6がマストだと思うのですが、ここはステレオの部屋ですし、機能的にそこまでは必要ありません。ただ、この部屋にはクライアントさんもいらっしゃるので、ホーム・スタジオのような見栄えはどうだろうと思い(笑)、S1ではなくS4を選定しました」 📷長らく使われてきたDM2000はAvid S4に更新 S4は、ARGOSY製のスタジオ・デスクに上手く収められている。このデスクは以前、DM2000用を収納して使用していたものとのことで、サイド・パネルを取り外すことで、きれいにS4が収まったという。 「予算の問題もありましたし、S4を設置するデスクをどうするか、ずっと悩んでいたんです。しかしあるときふと、DM2000のデスクにS4が収まるかもしれないと思って。実際、板を1枚抜いて、少しズラすだけできれいに収まりました。奥行きや高さは微妙に合わなかったのですが、そういった問題はコーナンで買ってきた板を敷き詰めることでクリアして(笑)。このARGOSYのデスクは、手前のパーム・レストが大きくて作業がしやすく、とても気に入っています。Macのキーボードも余裕を持って置くことができますしね。 S4の構成に関しては、8フェーダーだと頻繁に切り替えなければならないので、最低16フェーダーというのは最初から考えていたことです。ディスプレイ・モジュールは付けようか悩んだのですが、あれを入れるとPro Toolsのディスプレイを傍に置かなければなりませんし、最終的には無しとしました。各モジュールの配置は、16本のフェーダーに関しては分散させずに集約し、右側がトランスポート・コントロール、左側がフェーダーという隣の部屋のC300のレイアウトを踏襲しています」 📷システムの環境構築に大きく貢献したというAvid Pro Tools | MTRX。 『A2』のPro Toolsは1台で、Intel Xeonを積んだMac ProにHDXカードを1枚装着したシステム。オーディオ・インターフェースとなるPro Tools | MTRXも、ADカードとDAカードが1枚ずつのミニマムな構成で、MADIカードやSPQカードなどは装着していないという。 「音響補正はGenelecの『GLM』でやっているので、SPQカードが入っていない初代のPro Tools | MTRXがちょうど良いスペックでした。VMC-102のようなモニター・コントローラーを導入しなかったのは、ここはステレオのスタジオなので、複雑なモニター・マトリクスが必要ないからです。その代わり今回、カフをスタジオイクイプメント製の新しいものに入れ替えました。映像はPro Toolsのビデオ・トラックで再生し、Blackmagic Design DeckLink 4K Extremeで出力しています。Pro Toolsの現行バージョンは、いろいろなビデオ・フォーマットを再生できるので、ビデオ・トラックでもまったく不自由はありません。2面あるディスプレイは、単にミラーリングしているだけで、右側でアシスタントが編集したものを、左側のぼくがバランスを取るという役割分担になっています。それと今回、ROCK ON PROさんからのご提案でUmbrella CompanyのThe Fader Controlを導入したのですが、これが入力段にあるだけでコンソールのように録音できるので助かっています。録りのレベルも柔軟に調整することができますし、とても気に入っている機材です」 📷S4の脇に備えられたのはUmbrella Company / The Fader Controlだ。 8331AとPro Tools | MTRXをデジタルで接続 今回のリニューアルでは、ニア・フィールド・スピーカーも更新。長らく使用されてきたGenelec 8030AがThe Ones 8331Aにリプレースされた。筒井氏によれば、8331AとPro Tools | MTRXは、AESでデジタル接続されているという。 「ニア・フィールド・スピーカーは、以前はヤマハ NS-10Mを使用していたのですが、2006年にScenariaを使うのを止めたタイミングでGenelecに入れ替えました。Genelecのスピーカーは、聴き心地の良さと、スタジオ・モニターとしての分かりやすさの両方を兼ね備えているところが気に入っています。 今回、The Onesシリーズを導入したのは、別館のレコーディング・スタジオで8331A を使用していて、何度かこの部屋で試聴してみたところ、もの凄く良かったからです。なのでスピーカーに関しては、スタジオのリニューアルを検討し始めたときから、絶対に8331Aにしようと考えていました。8331Aは、8030Aよりも定位がさらにしっかりして、音の粒立ちが良くなったような気がしますね。それと同軸設計のスピーカーではあるのですが、サービス・エリアの狭さを感じないところも良いなと思っています。同軸スピーカー特有の、サービス・エリアを外れた途端に音がもやっとしてしまう感じがないというか。もちろん『GLM』も使用していて、あの機能を使うと“しっかり調整されている”という安心感がありますね(笑)。『GLM』は、左右同一のEQか個別のEQが選べますが、両方試してみたんですけど、今は左右同一のEQで使っています。 今回、8331AとPro Tools | MTRXをデジタルで接続したのは、余計なものを挟まずにピュアな音にこだわりたかったからです。隣の部屋も、C300からヤマハ DME24Nを経由して、Genelecにデジタルで接続しているのですが、その方が安定している印象があります」 今年5月にリニューアル工事が完了したという新生『A2』。完成翌日からフル稼働しているとのことで、その仕上がりにはとても満足しているという。 「皆さんのおかげで、イメージどおりのスタジオが実現できたと大変満足しています。でも、まだ改善の余地が残っていると思うので、さらに使いやすいスタジオになるように、細かい部分を追い込んでいきたいですね。新しいS4に関しては、HUIモードのDM2000とは違ってPro Toolsに直接触れているような感触があります。画面上のフェーダーがそのまま物理フェーダーになったような感覚というか。それとアシスタントがナレーションのノイズを切りながら、こちらではEQを触ったり、2マンでのパラレル作業がとてもやりやすくなりました。今回は思い切ることができませんでしたが、イマーシブ・オーディオにも興味があるので、今後チャンスがあれば挑戦してみたいと思っています。」   *ProceedMagazine2023-2024号より転載

Post

株式会社コジマプロダクション様 / 新たな世界を創り出す、遥かなる航海のためのSpaceship

日本を代表するゲームクリエイター・小島 秀夫氏が2015年に立ち上げた株式会社コジマプロダクション。2016年には第1作目となるタイトル「DEATH STRANDING」を発表し、2019年に待望のPS4Ⓡ版が発売されるやいなや、日本をはじめ世界各地から称賛の声があがり、米国LAで行われたThe Game Awards 2019では8部門にノミネートされ、クリフ役を演じたマッツ・ミケルセンのベスト・パフォーマンス賞を含めると3部門で賞を獲得、世界的なビッグタイトルとしてのポジションを確立した。その後も数々の受賞歴や昨年末の「DEATH STRANDING 2(Working Title)」発表など、ここ最近も話題が絶えないが、実はその裏でオフィスフロアの移転が実施されていたという。フロア移転のプロジェクトがスタートしたのは2020年の1月ごろ、昨年12月に新フロアでの稼働が開始され、サウンド制作についての設備も一新された。今回はTechnical Sound Designerの中山 啓之氏、Recording Engineer永井 将矢氏に、移転計画の舞台裏や新スタジオのシステムについて詳細にお話を伺うことができたのでご紹介していこう。 📷エントランスゲートを通った先に待ち受けている真っ暗な部屋。足元に伸びる一筋の光に導かれるまま進んだ先には、無限に続く白の空間。中央にはコジマプロダクションのシンボルキャラクター「ルーデンス」が力強く佇んでいる。ちなみにこの名前は、オランダの歴史学者ホイジンガが提唱した「ホモ・ルーデンス」(遊ぶ人)に由来しているそうだ。こうした人間の遊び心を刺激するような演出がオフィス内随所に施されていた。 Spaceship Transformation 今回のスタジオ設計のプランニング開始は2021年3月ごろと2年ほど遡る。"Spaceship Transformation"という壮大なコンセプトとともに、事業規模の拡大に伴うフロア移転が社内で伝えられ「それに見合ったスタジオを作れないか?」と、社内で協議するところからスタートしたそうだ。ゲーム制作の「何百人ものスタッフが膨大な創造と作業と時間をかけながら、ひとつのゲーム作品を作り上げていく過程」を「広大な空間を進んでいく宇宙船の航行」として置き換えてみると、制作を行うオフィスフロアはまさに宇宙船の船内やコックピットであり、そこは先進的な技術やデザインで満たされた空間であるべきだろう。勝手ながらな推察ではあるが、こう捉えると"Spaceship Transformation"が意図するところも伝わってくるのではないだろうか。 こうしたコンセプトを念頭に置きながらも、現場スタッフの頭の中には、具体的な業務への思慮が常にある。予算や法律上の問題をはじめ、各所で定められたルールなどの制約がある中で、想定される業務をしっかりとこなせるスタジオを作るというのは、やはり一筋縄ではいかなかったそうだが、しっかりと万が一に備えた冗長性や、将来に向けた拡張性を持たせるような工夫がなされたそうだ。 Rock oN (以下、RoC):本日は宜しくお願いします。まず、お二人の普段の業務内容を伺えますでしょうか。 中山 啓之 氏 (以下、中山):音の制作(サウンドデザイン)を中心にやりつつ、チームのマネジメント業務も行なっています。私は設立後半年経った頃に入社したのですが、その頃からメディア・インテグレーションにはお世話になっています。 RoC:ありがとうございます!個性的なスタッフばかりですみません…(汗)。 永井 将矢 氏 (以下、永井):私はレコーディングエンジニアとして入社したのですが、ちょうど移転の話が始まったタイミングだったため、入社から最近にかけてはスタジオの運営、管理業務を行っています。今後は音声収録の作業がメインになっていく予定です。 RoC:お二人は元々どのようなきっかけでゲームという分野のサウンド制作に携わるようになったのでしょう。 中山:子供の頃からゲームに興味を持っていたのですが、パソコンやFM音源が出始めたころにいわゆる"チップチューン"にどっぷりハマりまして(笑)。そこから趣味がどんどん広がっていく中でゲームサウンドの世界に行き着きました。当時、PC88というパソコンにYM2203というFM音源チップが載っていて、それを使ってパソコンから音を出すところから始まり、音楽を作ったり、効果音を作ったりということを色々やっていました。 RoC:チップチューンというと、やはり同時発音数の制限などもあったり? 中山:FM音源が3つとSSG(矩形波)が3つくらいだったんですけど、そこからPCが進化していって鳴らせる音も増えていって。その後、MIDIが出てきたのでシーケンサを買って、シンセサイザーを買って、というコンピュータミュージックの王道を進んできたという感じです。 永井:私は、新卒時にゲーム業界も興味はあったんですが、映画好きだったこともあってポスプロの道へ進むことにしました。最初はいつまで続けられるか不安だったのですが、収録やミックスをやっているうちにその楽しさに気づき、結果的に7年半ほどやっていました。当時はほとんど吹き替えの仕事が中心だったのですが、仕事の幅を拡げたいなと考えていたところにちょうどいいタイミングでコジマプロダクションでのレコーディングエンジニアの募集があったんです。自分が好きなゲームを制作している会社ということもあって「これはぜひやりたい!」ということで応募しました。 RoC:"Spaceship Transformation"が今回のフロア移転全体のコンセプトとのことですが、そうした大きなテーマの下で、現場レベルでのこだわりやテーマは何だったのでしょうか? 中山:音声収録やMAといった様々な業務が想定される中で、例えば内装デザインなどがそうですが、「会社としての方向性に合わせつつも必要な業務に対応したスタジオを作りたい」というのがありました。とは言え、無尽蔵に場所があるわけでもないですし、予算との兼ね合いもあるので、その中でベストを尽くせるように、まずは必要な部屋数や規模の検討、「こういうことをやりたい」という提示からスタートしました。 RoC:最初の構想は、やはり業務内容などから逆算していって決められたのでしょうか? 中山:今回の場合ですとこのコントロールルームとそれに隣接したレコーディングブース、EDITブースいくつか…というプランから一番最初の「妄想」が始まりました(笑)。そのプランを本当に一枚のテキストページに落とし込んで、それから紆余曲折が始まった格好です。 永井:一応「妄想」通りにはできた感じです(笑)。 RoC:内装も全体的に統一感があり、かなりこだわられていますよね。 中山:基本コンセプトとして、弊社のコーポレートカラーである黒と白をベースにしたデザインを念頭に細部を決めていきました。我々はデザインについては素人ですが、いくらCG技術が発展したとしても、実際に目にするとイメージと異なる部分がどうしても出てくるとは思います。そうした部分は不安でもあり、ワクワクした部分でもありました。 📷カフェテリアの半分は近未来的なデザインのカウンター、もう半分はカフェのような落ち着いた雰囲気の空間演出となっている。サウンドセクションのロビーはソファとテーブルが融合し、照明と対になったデザインがなされている。ラウンジはまさに映画のワンシーンで使われていそうな意匠で、フロアの各所が一度目にしたら忘れられない印象的なデザインとなっていた。また、用途に応じて背景を黒・緑・青の3色に変更できるスタジオも用意されており、映像コンテンツの収録も行うことができる。 RoC:スタジオ稼働に至るまで山ほどタスクがあったかと思いますが、中でも苦労されたポイントはどこでしたか? 中山:共用のオフィスビルなので、当然全てを好き勝手にやるわけにはいかず、消防法やビル管理上のルール、配管や防音構造、荷重の制限など、これまで全く知識がなかったことについて考えながら進める必要があった点です。そうした部分は施工をご担当いただいたSONAさんやビルの管理会社さんなど、色々な方々から知見をいただいて、針の穴を通すような調整をやりつつ進めていきました。 永井:今回は建築上の都合でピットを掘ることができなかったので、施工会社の方々にとっては配管が一番頭を悩まされたのではないかと思います。 中山:やはりピットではないので一度配管を作ってしまうと、後から簡単に変更ができなくなってしまいます。そういうこともあり、配線計画はかなり綿密に行いました。予備の配線も何本か入れてもらっているので、今後の拡張性にも対応しています。それから、バックアップの面については力を入れています。収録中に万が一メインのMacがトラブルを起こしても、MTRX経由で常時接続されているサブ機にスイッチして継続できるように用意してありますし、さらにMTRXについても代わりのI/Oを用意してあるので、すぐに収録が再開できるようになっています。インハウスのスタジオですが、商用スタジオ並みのバックアップシステムを実現しています。 永井:商用スタジオだと複数部屋あったりするのでトラブルが発生したら別の部屋で対応をするということもできますが、そういった意味ではここは一部屋しかないので「何かあった時に絶対何とかしなきゃいけない!」となりますから、色々なシチュエーションを考えてすぐに対応できるようにしています。 理想的なスペースに組んだ7.1.4chのDolby Atmos 📷株式会社ソナのデザインによる音響に配慮された特徴的な柱がぐるりとコントロールルームを取り囲み、その中へ円周上にGenelec 8361Aが配置されている。スクリーンバックにはL,C,R(Genelec 8361A)とその間にサブウーファーGenelec 7370APを4台設置し音圧も十分に確保された。 RoC:機材選定はどのように進めていったのでしょうか? 中山:最初の計画を立てた時に、一番最初に挙げたのは「スクリーンを導入したい!」ということでした。弊社に来られる方は、海外からのお客様や映画関係の方など多種多様にいらっしゃいます。そうしたみなさまにご視聴いただくことを想定すると、小さな液晶画面だと制作の意図が伝わらなかったり、音響の良さを伝えるのが難しかったり、ということがこれまでの経験上ありましたので、スクリーンの設置はぜひとも実現したいポイントでした。併せて、今後主流になっていくであろう4K60pの投影と、それに応じたサウンド設備をということも外せないところでした。その規格に対応させるために、映像配線はSDI-12Gを通してあります。 RoC:今回、コントロールサーフェスにAVID S4を選ばれた理由は何だったのでしょう? 中山:MAの作業の直後に音声収録を行い、その後の来客時にティザーをご覧頂いて、という事も弊社では多くありますので、素早くセッティングを切り替えられるデジタル卓を候補としました。加えて、Pro Toolsのオペレーションが中心ということもあるので、Avid S6、S4か、もしくはYamaha のNuageかという選択肢だったのですが、サイズなども色々検討した結果でAvid S4になりました。S4でもS6と遜色ない機能がありますので。 RoC:特注のアナログフェーダーが組み込まれているのは、まさにこだわりポイントですね! 永井:S6もそうですが、S4はレイアウトを自由に変えられるのが利点ですね。 RoC:MTMとAutomationモジュールが左右に入っているパターンは他ではあまり見ない配置ですが、実際S4を導入して良かったと思うところはありますか? 永井:キーボードの操作も多いので、この配置にしていると手前のスペースを広く取れるのでいいですね。あとは、モニターコントロール周りです。前職でも触れたことはあったのですが、今思えばそこまで使いこなせてなかったなと。DADmanでのソースやアウトプットの切り替えは結構やりやすいなと改めて思いました。最初に操作方法を教わった後は、自分で好きなようにカスタマイズしています。「やりたい」と思ったことが意外とすぐにできるというのは好感触でした。 📷Avid S4のオートメーションモジュール手前には特注の4chアナログフェーダーが収められている。これはスタジオラックに収められたAMS Neve 1073 DPXとMTRXのアナログ入力との間にパッチ盤を介して接続されており、頻繁に触れるであろうボリュームコントロールを手元でスムーズに行えるようにした実用を考慮したカスタムだ。また、マシンルームにはシステムの中枢となるAvid MTRXが設置され、MacProの他にも同ラックにはMac Studioをスタンバイし冗長性を確保している。 RoC:特に、カスタマイズが好きな方にはハマりますよね!スピーカーはGenelecの同軸スピーカー8361A / 8351Bを中心に、4台の7370APを加えた合計15台で構成されています。なぜこの構成になったのでしょう? 中山:スピーカー選定の段階で「Dolby Atmosに対応させよう」というのはありました。かつ、スクリーンバックから鳴らせるということ、あとは部屋のサイズに対して十分な音圧を出せるか、というところがポイントでした。そういった部分から考えていくと自ずと選択肢は絞り込まれていきました。当初は同じGenelecのS360Aで検討していたのですが、角度を変えて上に置いたり横に置いたりすることを考えると、リスニングポジションの関係もあって、最終的に同軸スピーカーの方がいいのではないかという方向に落ち着きました。 📷トップのスピーカーはGenelec 8351Bを4台設置、半球の頂点にあたる部分など各所に配線があらかじめ敷設され、将来の増設も想定されている。 永井:音質面でもすごく素直な音で、クリアで分離がよく音色ひとつひとつが聴き取りやすく感じました。今回、SONAさんに音響調整をお願いしていて私も立ち会ったのですが、デスク前方のプロジェクターが格納されている部分が床からの反射を防ぐ構造になっており、その影響もあってか低域が溜まらずクリアに聴こえるようになっています。 📷デスク前方の傾斜部分の下には、4K60p対応の超短焦点プロジェクターが収められているのだが、こちらは床からの反射音を軽減させる音響調整パネルとしての役割も担っている。 中山:何となく、これも宇宙船のようなデザインに見えますよね。 RoC:確かに、スタートレック感がありますね! 中山:来社されたお客様にも、そのような感想を頂いた事がありました。雰囲気・デザイン的にもそういった要素を色々含めています。 RoC:ウーファーはスクリーンバックに4台となっていますね。 中山:はい、LCRスピーカーのLとC、RとCの間に上下に2台ずつGenelec 7370APが設置されています。最初は2台だけの想定だったのですが、調整していくうちに音圧が足りないかも、ということで、最終的に2台追加することになりました。リスニングポイントからスピーカーまでも3.6mほどあって、天井高も2.7mと高く取れています。サラウンドスピーカーの上下や天井中央にも後からスピーカーを追加できるようにしていて、これからの拡張性も確保しています。 RoC:サラウンドやイマーシブの制作において理想的な半球状の配置になっていますよね。実際にスタジオが稼働しはじめて、周囲からの反応はいかがでしたか? 中山:「すごい」と言ってもらえる機会が多くて嬉しいですね。エンジニアの方からは「音の立ち上がりが速い」という声もあり、好評な意見をいただけていて願ったり叶ったりです(笑)。「妄想」していたスタジオがきちんと実現できたかなという印象です。 永井:いい評判をいただけて本当によかったです。こちらからコンセプトを伝えてなくても「宇宙船みたい」と言ってくれる方もいてデザイン面でも良かったなと。加えて、制作だけではなくプレゼンや海外とのコミュニケーションにも対応できるようにしたので、他部署のスタッフからも「居心地良く仕事ができる」といった声がありました。 RoC:スタジオが取り合いになったりはしないですか? 中山:まだそこまではいってないですが、いずれそうなってくるかもしれませんね(笑)。 📷コントロールルームに隣接したレコーディングブースは、実面積よりも広々とした開放感を感じさせ長時間の使用にも耐えうる快適な空間となっている。また、フロアのカーペット裏には、コンクリートやレンガ、大理石など、材質の異なる床材が仕込まれておりフォーリー収録も行うことができる。 📷Sound Editing Room はA / Bの2部屋が用意されており、いずれもGenelec 8331A + 7360Aで構成された7.1chのモニター環境が構築されている。入出力にはFocusrite Red 8 Line、モニターコントローラーには同R1が用意されており、ここでも拡張性を確保しつつもコンパクトな機材選定がなされている。また、スピーカースタンドとデスクが一体化された設計により、機材の持ち込みなどシチュエーションに応じた活用がフレキシブルに行えるようになっていることもポイントだ。 聴く人の心を動かすようなサウンドを 現在、ゲーム制作においては、映画と同じくサラウンドでの制作が主流となっており、そこからダウンミックスでステレオが作られるとのこと。ゲーミングPCのスペックの向上やバーチャルサラウンド対応ヘッドホンのラインナップが拡充し、手頃な価格でそのサウンドを楽しめる環境が整ってきており、着実にその裾野は広がっているのではないかということだ。これはイマーシブサラウンドについても同様で、一番最初の計画ではイマーシブ対応については検討されていなかったが、天井高が十分取れることが分かった段階で、今後の需要増にも備えてDolby Atmosへの対応を決めたそうだ。 現在、ゲーム制作においては、映画と同じくサラウンドでの制作が主流となっており、そこからダウンミックスでステレオが作られるとのこと。ゲーミングPCのスペックの向上やバーチャルサラウンド対応ヘッドホンのラインナップが拡充し、手頃な価格でそのサウンドを楽しめる環境が整ってきており、着実にその裾野は広がっているのではないかということだ。これはイマーシブサラウンドについても同様で、一番最初の計画ではイマーシブ対応については検討されていなかったが、天井高が十分取れることが分かった段階で、今後の需要増にも備えてDolby Atmosへの対応を決めたそうだ。 RoC:Dolby Atmosのようなイマーシブ対応をすることで、ゲームサウンドの分野でも従来からの変化を感じましたか? 中山:一般のユーザーの方々へどこまでイマーシブ環境が拡がるかということもありますが、ゲームサウンドは3D座標で処理されているものが多いので、イマーシブと相性も良く、今後チャレンジしていきたいです。 永井:ポスプロ時代にもイマーシブについては興味を持っていましたが、やはりゲームは親和性が高いように思います。プレイをしている自分がその場にいるような演出も面白いと思いますし、今後突き詰めていくべきところだと思います。 RoC:それこそチップチューンの時代は、同時発音数など技術的な制約が大きい中での難しさがあったと思いますが、今後は逆に技術的にできることがどんどん増えていく中での難しさも出てくるのでしょうか? 中山:次々と登場する高度な技術のひとつひとつに追いついていくのはなかなか大変ですが、しっかりとその進化に対応して聴く人の心を動かすようなサウンドを作っていきたいですね。 世界的な半導体不足の影響や、高層オフィスビルならではのクリアすべき課題など、大小様々な制約があった中で、現場の要件をクリアしつつコジマプロダクションとしてのコンセプトを見事に反映し完成された今回のスタジオ。Dolby Atmos制作に対応済であることはもちろん、将来的にスピーカーを増やすことになってもすぐに対応できる拡張性や、インハウスのスタジオながら商用スタジオ並みのバックアップシステムも備えており、現時点だけではない制作の将来像も念頭に置いた綿密なシステムアップが行われた。ついに動き出したこの"Spaceship"がどのような新たなる世界へと導いてくれるのか、遥かなる航海がいよいよ始まった。   *ProceedMagazine2023号より転載

Media

株式会社カプコン bitMASTERstudio 様 / 圧倒的なパフォーマンスと理想的なアコースティック

バイオハザード、モンスターハンター、ロックマン、ストリートファイター、魔界村など数多くの世界的ヒットタイトルを持つ世界を代表するゲームメーカーである株式会社カプコン。そのゲーム開発の拠点である大阪の研究開発ビル。ここにゲームのオーディオを制作するためのミキシングルームがある。効果音、BGMなどを制作するクリエイター、海外で収録されたダイアログや楽曲、それぞれに仕上がってきたサウンドのミックスやマスタリングを行うためのスペースとなるが、そのミキシングルームが内装からの大改修により新しく生まれ変わった。 度重ねた更新と進化、理想のアコースティック カプコンのbitMASTERstudio が設けられたのは2006 年のこと。ゲームではカットシーンと呼ばれるムービーを使った演出ができるようになるなど、コンソールの進化や技術の進化により放送・映画と遜色たがわないレベルの音声制作環境が求められてきていた時期である。そして、ステレオからサラウンド、さらにはイマーシブへと技術の進歩によりリファレンスとしての視聴環境への要求は日々高まっていく。 こうしたゲーム業界にまつわる進化の中で、カプコンbitMASTERstudio も時代に合わせて更新が行われていくこととなる。PlayStation2 の世代ではステレオ再生が基本とされる中で、DolbyPro Logic 2 を使ったサラウンドでの表現にも挑戦。PlayStation3 /Xbox の登場以降はDolby Digital が使用できるようになり、5.1chサラウンドへの対応が一気に進むことになる。ゲームにおける音声技術の進化に関しては興味が尽きないところではあるが、また別の機会にまとめることとしたい。 2006年にbitMASTERstudioが誕生してから、次世代のスタンダードをにらみ、ゲーム業界の先を見据えた更新を続けていくこととなる。今回のレポートはまさにその集大成とも言えるものである。改めてbitMASTERstudioの歩みを振り返ってみよう。設備導入当初よりAvid Pro Tools でシステムは構築されており、この時点ではDigidesign D-Control がメインのコンソールとして導入されていた。その後、2009 年に2 部屋目となる当時のB-Studio が完成、こちらにもDigidesign D-Control が導入される。2013 年にはA-Studio の収録用ブースを改修してProTools での作業が行えるようシステムアップが行われ、2015 年にはA-Studio のコンソールがAvid S6 へと更新された。 こうして更新を続け、その時点での最新の設備を導入し続ける「bitMASTERstudio」の大きな転機が、2018年に行ったB-studioの内装から手を加えた大規模な改修工事である。ゲームにもイマーシブ・オーディオの波が訪れ、その確認をしっかりと行うことができる設備の重要性が高まってきているということを受け、いち早くイマーシブ・オーディオ対応のスタジオとしてB-stduioが大改修を受けて生まれ変わった。その詳細は以前にも本誌でも取り上げているので記憶にある方も多いのではないだろうか。金色の衝立のようなスピーカースタンドにぐるっと取り囲まれた姿。一度見たら忘れられないインパクトを持つ部屋だ。 この部屋は音響施工を株式会社ソナ(以下、SONA)が行った。この部屋における音響設計面での大きな特徴は、物理的に完全等距離に置かれたスピーカー群、これに尽きるだろう。物理的にスピーカーを等距離に設置をするということは現実的に非常に難しい。扉などの導線、お客様の座るソファー、そもそもの壁の位置など、様々な要素から少なからず妥協せざるをえない部分が存在する。B-studioでは衝立状のスタンドを部屋の中で理想の位置に設置することで完全等距離の環境を実現している。これは、アコースティック的に理想となる配置であり、そこで聴こえてくるサウンドは電気的に補正されたものとは別次元である。この経験から今回のA-studioの改修にあたっても、前回での成功体験からSONAの施工で内装変更とそれぞれのスタジオのイマーシブ化を実施している。 📷 25年に渡りカプコンのサウンドを支えるエンジニアの瀧本氏。ポスプロで培ったサウンドデザイン、音による演出などのエッセンスをゲーム業界にもたらした。 圧倒的なパフォーマンスを求めたスピーカー群 今回の更新は、A-studioおよびそのブース部分である。前述の通りでブースにもPro Toolsが導入され、Pro Toolsでの編集を行えるようにしてあったが、やはり元々は収録ブースである。そこで今回は、ブースとの間仕切りの位置を変更し、ブースをC-studioとしてひとつのスタジオとして成立させることとなった。それにより、A-studioの部屋は若干スペースを取られることになったが、マシンルームへの扉位置の変更を行いつつ、スピーカーの正面を45度斜めに傾けることでサラウンドサークルの有効寸法に影響を与えずに部屋を効率的に使えるような設計が行われた。なお、この部屋は研究開発ビルのフロアに防音間仕切りを立てることで存在している空間である。その外壁面には手を加えずに内部の間仕切り、扉の位置などを変更しつつ今回の更新は行われている。 📷 スタジオ配置がどのように変更されたかを簡単な図とした。間仕切りの変更といっても、かなり大規模な改修が行われたことがわかる。 それではそれぞれのスタジオを見ていこう。まずは、旧A-studio。こちらはDubbing Stageと名称も新たに生まれ変わっている。なんといっても正面のスピーカー群が初めに目を引くだろう。旧A-studioでは、MK社製のスピーカーがこの部屋ができた当初のタイミングから更新されることなく使用されてきた。その際にスピーカーはスクリーンバックに埋め込まれていたのだが、今回はスクリーンバックではなく80 inchの巨大な8K対応TVへと更新されたことで、すべてのスピーカーのフェイスが見えている状態での設置となった。正面に設置されたスピーカーは、一番外側にPMC IB2S XBD-AⅡ、その内側にPMC 6-2、さらに内側にはサブウーファーであるPMC8 SUBが2本ずつ、合計4本。センターチャンネルにPMC 6-2という設置である。 PMC IB2S XBDはIB2SにスーパーローボックスとしてXBDを追加した構成。2段積みで1セットとなるスピーカーである。これはステレオ作業時に最高の音質でソースを確認するために導入された。カプコンでは海外でのオーケストラなどの収録によるBGMなど、高品位な音源を多数制作している。せっかくの音源をヘッドホンやPCのスピーカーで確認するだけというのは何とも心もとない。クリエイター各自の自席にも、Genelec 8020で5.1chのシステムは設置されているが、それでもまだまだスピーカーサイズは小さい。しっかりとした音量で細部に渡り確認を行うためにもこのスピーカーが必要であった。 📷 ダブルウーファー、3-wayで構成されたPMC6-2。PMCのサウンドキャラクターを決定づけているATLのダクトが左に2つ空いているのがわかる。新設計となるスコーカーとそのウェーブガイドもこのスピーカーのキーとなるコンポーネント。 この IB2S XBDが選定されることになった経緯は2019年のInterBEEまで遡ることとなる。この年のInterBEEのPMCブースにはフラッグシップであるQB1-Aが持ち込まれていた。4本の10 inchウーファーを片チャンネル2400wという大出力アンプが奏でる豊かな低域、そして1本辺り150Kgという大質量のキャビネットがそれを支える。解像度と迫力、ボディー、パンチのあるサウンド。文字としてどのように表現したら良いのか非常に難しいところであるが、あの雑多なInterBEEの会場で聴いても、その圧倒的なパフォーマンスを体感できたことは記憶にある。このQB1-Aとの出会いからPMCのスピーカーに興味を持ち、導入にあたりPMCのラインナップの中からIB2Sを選定することとなる。しかし、IB2S単体ではなくXBD付きの構成としたということは、やはりQB1-Aを聴いたときのインパクトを求めるところがあったということだろうか。 📷 PMC QB1-Aがこちら。迫力ある存在感もさることながら、このスピーカーから再生されるサウンドは雑多なInterBEEの会場で聴いても際立ったものであった。ここでのPMCとの出会いから今回の更新へとつながったと考えると感慨深い。 6本のサブウーファーが同時駆動するシステムアップ 📷 天井にも4本のPMC6-2が設置されている。天井からの飛び出しを最低限とするため半分が埋め込まれ、クリアランスとリスニングポイントまでの距離を確保している。 サラウンド、イマーシブ用のスピーカーには、PMCの最新ラインナップであるPMC6-2が選ばれている。当初はTwo-Twoシリーズが検討されていたということだが、導入のタイミングでモデルが切り替わるということで急遽PMC6シリーズの試聴が行われ、PMC6-2に決定したという経緯がある。その際にはPMC6との比較だったということだが、ローエンドの豊かさやボリューム感、スコーカーによる中域帯の表現力はやはり PMC6-2が圧倒したようだ。それにより、天井に設置するスピーカーも含めてPMC6-2を導入することが決まった。天井部分はひと回り小さいスピーカーを選定するケースも多いが、音のつながりなどバランスを考えると同一のスピーカーで揃えることの意味は大きい。この点はスピーカー取り付けの検討を行ったSONAでもかなり頭を悩ませた部分ではあったようだが、結果的には素晴らしい環境に仕上がっている。 📷 音響へのこだわりだけでなく、意匠にもこだわり作られたサラウンド側のPMC6-2専用スタンド。フロントの三日月型のオブジェと一体感を出すため、ここにも同じコンセプトのデザインが奢られている。 サラウンド側のスピーカースタンドは、SONAの技術が詰まった特注のもの。特殊なスパイク構造でPMC6-2をメカニカルアース設置しており、スピーカーのエンクロージャーからの不要な振動を吸収している。スタンドの両サイドにはデザイン的に統一感を持った鏡面仕上げのステンレスがおごられ、無味乾燥なデザインになりがちなスピーカースタンドにデザイン的な装飾が行われている。近年ではあまり見ないことだが「気持ちよく」作業を行うという部分に大きな影響を持つ部分だろう。 サラウンド用のLFEはPMC8 SUBが4本導入された。設置スペースの関係からPMC8 SUBが選ばれているが、実際に音を出して85dBsplのリファレンスでの駆動をさせようとすると、カタログスペック的にも危惧していた点ではあったがクリップランプが点いてしまった。そこで、サブウーファー4本という構成にはなるがそれを補えるように IB2S XBDのXBD部分を同時に鳴らすようにシステムアップされている。結果、都合6本のサブウーファーが同時に駆動していることになり、XBDボックスと同時に鳴らすということで余裕を持った出力を実現できている。6本ものサブウーファーが同時に鳴るスタジオは、さすがとしか言いようがないサウンドに包まれる。 これらのスピーカーは部屋の壁面に対して正面を45度の角度をつけて設置が行われた。従来はマシンルーム向きの壁面を正面にして設置が行われていたが、角度をつけることで多数のスピーカー設置、そしてTVモニターの設置が行われる正面の懐を深く取ることに成功している。そして正面の足元には、そのスピーカーを美しく演出する衝立が設置された。足元をスッキリと見せるだけではなく色の変わる照明をそこに仕込むことで空間演出にも一役買っている。ちょっとした工夫で空間のイメージを大きく変化させることができる素晴らしいアイデアだ。天井や壁面に設置された音響調整のためのパネルはピアノブラックとも言われる鏡面仕上げの黒で仕上げられている。写真ではわかりにくいかもしれないが、クロスのつや消し感のある黒と、この音響パネルの光沢黒の対比は実際に見てみると本当に美しい。影で支える音響パネルが、過度の主張をせず存在感を消さずにいる。 Avid MTRXを中心にシステムをスリム化 📷 Dubbing Stageに導入されているAvid S6 M40は16フェーダー仕様。右半分にはウルトラワイドディスプレイがコンソール上に設置されている。キーボードの左にトラックボールが置かれているのはサウスポー仕様。この部屋を使うエンジニア3名のうち2名が左利きのため民主主義の原則でこの仕様になっているそうだ。 📷 ラックの再配置を行ったマシンルーム。3部屋分の機器がぎっしりと詰まっている。この奥にPMCのパワーアンプ専用のアンプラックがある。 作業用のコンソールに関しては、前システムを引き継いでAvid S6-M40が設置された。これまでは、SSL Matrixを収録用のサブコンソールに使ったりといろいろな機器が設置されていたが、今回の更新では足元のラックを残してそれらはすべて撤去となり、スッキリとしたシステムアップとなった。収録を行う作業の比率が下がったということ、そしてPro Toolsや開発コンソールといったPCでの作業ウェイトが大きくなってきているということが、システムをスリム化した要因だということだ。このシステムを支えるバックボーンは、Avid MTRXが導入されている。これまで使ってきたAvid MTRXはB / C-studio用に譲り、追加で1台導入してこの部屋の専用機としている。社内スタッフ同士での共有作業が中心であったため、機材をある程度共有するシステムアップで運用してきたが、メインスタジオとなるDubbing Stageの機器は独立システムとして成立させた格好だ。 主要なシステムの機器としては、このAvid MTRXとPro Tools HDXシステム、そして持ち込まれた開発PCからの音声を出力するためのAVアンプとなる。開発用PCからはゲームコンソールと同様にHDMIでの映像 / 音声の出力が行われ、これをアナログ音声にデコードするためにAVアンプが使われている。音響補正はAvid MTRX内のSPQモジュールが使われ、PMCスピーカー側のDSPは利用していない状況だ。ベースマネージメント、特に6本のサブウーファーを駆動するための信号の制御や処理がMTRXの内部で行われていることとなる。 同軸で囲む、新設された銀の部屋 📷 Dynamic Mixing Stage - SILVER。GOLDと対となるSILVERの部屋。写真で並べて見るとそのコントラストがわかりやすいだろう。スピーカーはKS Digital、デスク正面には、LCRにC88、サブウーファーとしてB88が合わせて5台設置されている。コンソールはAvid S1が導入されている。 もう一つの新設された部屋である、旧ブースとなるスペースを改修したDynamic Mixing Stage - SILVERをご紹介したい。旧B-StudioにあたるDynamic Mixing Stage - GOLDはその名の通り「GOLD=金」をデザインのテーマに作られている。そしてこちらのSILVERは「SILVER=銀」をデザインのコンセプトとして作られた。ほかの2部屋が黒を基調とした配色となっているが、こちらのSILVERは白がベースとなり音響パネルは銀色に仕上げられているのがわかる。 📷 サラウンド側のスピーカー。音響パネルで調整されたこだわりのスピーカー設置が見て取れる。この音響パネルが銀色に仕上げられており、GOLDの部屋と同様に深みのある色で仕上げられている。 スピーカーから見ていこう。こちらの部屋にはKS Digitalのスピーカーが選定された。GOLDの部屋はGenelec the ONEシリーズ、DubbingはPMCとそれぞれの部屋であえて別々のメーカーのスピーカーが選ばれている。同一のメーカーで統一してサウンドキャラクターに統一感を持たせるということも考えたということだが、様々なキャラクターのスピーカーで確認できるということも別のベクトルで考えれば必要なことだという考えからこのようなセレクトとなってる。また、多チャンネルによるイマーシブ・サラウンド構築において同軸スピーカーを選択するメリットは大きい。特にSILVERのような容積が少なく、サラウンドサークルも小さい部屋であればなおさらである。その観点からも同軸であるKS Digitalの製品がセレクトされている。正面のこれらのスピーカーはSONAのカスタム設計によるスタンドでそれぞれが独立して設置されている。こちらもすべてのスピーカーがメカニカルアース設置され、これだけ密接していても相互の物理的干渉が最低限になるように工夫が凝らされている。物理的な制約のある中で、可能な限り理想的な位置にスピーカーを自然に設置できるように工夫されていることが見て取れる。 SILVERのシステムは、AVID Pro Tools HDX、I/OはGOLDと共有のAVID MTRXが使われている。コントローラーは部屋のサイズからもAvid S1が選ばれている。シグナルのフロントエンドとなるAD/DAコンバーターはGOLDと共有ではなく、それぞれの部屋ごとにDirectout Technologies ANDIAMOが導入されている。このコンバーター部分を部屋ごとに持つことでトラブル発生時の切り分けを行いやすく、シンプルな構築を実現している。 Avid S4へ更新された金の部屋 📷 Dynamic Mixing Stage - GOLD。以前本誌でも取り上げさせていただき、大きな反響があったカプコンにとって最初のイマーシブ対応スタジオだ。 部屋の内装、スピーカーなどに変更は加えられていないが、同時にDynamic Mixing Stage - GOLDのコンソールが同じタイミングで更新されている。これまで使われていたAvid S3からAvid S4へとグレードアップだ。これによりAvid S6が導入されているDynamic Dubbing Stageとの操作性の統一も図られている。やはり、同一メーカーの製品とはいえS3とS6では操作性がかなり異なりストレスを感じることが多かったようだ。S6ならばできるのに、S6だったらもっとスムーズに作業ができたのに、ということがS4へ更新を行うことでほとんどなくなったということだ。ただし、フェーダータッチに関してだけはS6と共通にしてほしかったというコメントもいただいた。制作作業において一番触れることが多い部分だからこそ、共通した仕様であることの意味は大きいのではないだろうか。 📷 今回の更新でコンソールがAvid S4へと更新、カスタム設計の机にユニットが埋め込まれてる。これはスピーカーにかぶらないようにというコンセプトからによるもので、ディスプレイが寝かされていることからも設計のコンセプトが感じられるだろう。 GOLDのAvid S4は製品に付属する専用シャシーを使わずに、カスタム設計となったデスクへの埋め込みとしている。デスクトップのシャシーであるS4は、普通の机にそのまま設置するとどうしても高さが出てしまう。シャシーごと埋め込むというケースは多いのだが、今回はモジュールを取り出してデスクに埋め込むという手法が用いられた。S6ではこれまでにも実績のあるカスタマイズだが、S4でのカスタムデスクへの埋め込みは初の事例である。これは今後スタジオの更新を考えている方にとって参考となるのではないだろうか。 スピーカーでサウンドを確認する意義 📷 デザイン性の高い空間の居住性と、音響のバランスを高いレベルで整えることに成功し、そのコンセプトやここに至る経緯を色々とお話いただいた。GOLDの部屋で実現した理想の音環境をそれ以外の2部屋でも実現できたと語っていただいた。 すべてのスタジオを7.1.4chのイマーシブ対応としたカプコン。これまでにもレポートした検聴用の2部屋と合わせて、しっかりとしたチューニングがなされた7.1.4chの部屋を5部屋持つこととなる。 ゲームではもともとが3Dで作られているのでイマーシブに対しての親和性が高い。どういうことかと言うと、ゲーム(3Dで作られているもの)は映像や中で動くキャラクター、様々な物体すべてが、もともとオブジェクトとして配置され位置座標などを持っている。それに対して音を貼り込んでいけば、オブジェクトミックスを行っていることと一緒である。 最終エンコードを行う音声のフォーマットが何なのか、Dolby Digitalであれば5.1chに畳み込まれ、Dolby True HDであればDolby Atmos。最終フォーマットに変換するツールさえ対応していれば、ゲームとして作った音はもともとが自由空間に配置されたオブジェクトオーディオであり、すでにイマーシブであるということだ。逆にゲーム機から出力するために規格化されたフォーマットに合わせこまれているというイメージが近いのではないだろうか。 そう考えれば、しっかりとした環境でサウンドを確認することの意味は大きい。ヘッドホンでのバイノーラルでも確認はできるが、スピーカーでの確認とはやはり意味合いが異なる。バイノーラルはどうしてもHRTFによる誤差をはらむものである。スピーカーでの再生は物理的な自分の頭という誤差のないHRTFによりサウンドを確認できる。自社内にスピーカーで確認できるシステムがあるということは本当に素晴らしい環境だと言えるだろう。 ゲームにおいて画面外の音という情報の有用性を無意識ながらも体験をしている方は多いのではないだろうか。仮想現実空間であるゲームの世界、そのリアリティーのために重要な要素となるサウンド。世界中のユーザーが期待を寄せるカプコンのゲームタイトルで、そのサウンドに対するこだわりは遥かなる高みを見据えている。 📷 今回の取材にご協力いただいた皆様。左下よりカプコン瀧本和也氏、スタジオデザイン・施工を行ったSONA土倉律子氏、SONA井出将徳氏、左上に移りROCK ON PRO前田洋介、PMCの代理店であるオタリテック株式会社 渡邉浩二氏、ROCK ON PRO森本憲志。   *ProceedMagazine2022-2023号より転載

Media

株式会社サウンド・シティ様 / 時代が求める最大限の価値を提供していく〜新たなフラッグシップ・スタジオ「tutumu」

麻布台の地において46年間にわたって日本の音楽産業を支え続けてきた「株式会社サウンド・シティ」。前身である「株式会社飛行館スタジオ」時代から数えればその歴史は60年を超えているが、老舗の座に安んじることなく常に時代の先端をとらえ続けてきたスタジオである。この2022年8月には、Dolby Atmos / 360 Reality Audioの両方に対応したイマーシブ・スタジオ「tutumu」(ツツム)をオープン。同社の最新にして最大の挑戦ともなったこのスタジオのシステムや、オープンに至るまでの経緯などについてお話を伺った。 新たなフラッグシップ・スタジオ「tutumu」 「サウンド・シティの、ひいては日本のフラッグシップとなるようなスタジオを作ろう」というコンセプトのもと、Dolby Atmosと360 Reality Audio両対応のイマーシブ・スタジオ開設の構想が生まれたのは2021年7月ごろ。ちょうど、同年6月に中澤氏と明地氏が取締役に就任してまもなく、同社の価値を“リブランディング”しようと考えていた時期だという。 リブランディングにあたっては、音楽レコーディング・スタジオとポストプロダクションというふたつの事業を柱として日本の「音」を支え続けてきた同社の存在意義を「よいレコーディングスタジオ、よい映像編集室、そしてよい人材をはじめとして、映像と音楽を作りたい方々に対して技術面で最大限の価値を提供していくこと」(明地氏)と再定義しており、これからの時代に求められる価値を提供することができる新たなフラッグシップ・スタジオ「tutumu」をオープンすることは、サウンド・シティという“進化を止めない老舗スタジオ”に相応しいプロジェクトだったようだ。 折しもApple Musicが空間オーディオへの対応を開始し、アーティストやクライアントからその作品作りに関する相談を受け始めていたというが、しかしそれはまだごく一部の話。音楽におけるステレオの価値も根強い状況で、これほど大規模なイマーシブ・サウンド対応へ舵を切ったことに何か確信はあったのだろうか。 明地氏によると「これまで存在した、オーディオ・ファイル向けサービスのような技術だったらtutumuの開設は決断しなかった。空間オーディオは従来のマルチチャンネルと違って、既存のストリーミング・サービスの中で聴ける。これは確実に浸透する流れだと判断できたので、だったらそれができる部屋を作ろう、と。それも、サウンド・シティの新しい“顔”になるようなスタジオを作ろうと考えました。」とのことだ。さらに同氏は「テクノロジーの進化速度はすごく速くて、スタジオで作ったモニターをヘッドホン / イヤホンで再現できる時代というのが追いかけてくるはず。その先には、音や映像を立体で楽しむ時代が来ると思う。その舞台が車内なのかメタバースなのかはわからないが、これから先は立体の中で作品を作る時代になる」という確信があるという。 マーケットが成熟してから始めるのではなく、将来、誰もが必要とする技術であるという確信に基づいて作られたtutumuは、サウンド・シティだけでなく、まさに日本の音楽スタジオ全体のフラッグシップとなるべく生まれたスタジオと言えるだろう。これには、プロジェクト発足当初からシステムの設計を中心に携わったオンズ株式会社 井上氏も「このタイミングであれば、真似しようとしてもできないスタジオを作れると思いました。そういう意味では、周りがどうということではなく、ここが発信地だという熱い想いでやらせていただきました。」と語っていた。 Dolby Atmos / 360 Reality Audioハイブリッド tutumuの特長のひとつは、ひとつのスピーカー・システムでDolby Atmosと360 Reality Audioのどちらにも対応できるという点だ。明地氏によると、これからイマーシブ・オーディオの時代は必ず来るという確信はあったというが、将来、主流になるテクノロジーがDolby Atmosなのか360 Reality Audioなのか、それともまったく別のものになるのかはわからないため、将来的にどんな規格にも対応できるスタジオにしたいという想いがあったという。 スピーカー・レイアウトにおけるDolby Atmosと360 Reality Audioの最大の違いは、Dolby Atmosの音場が半天球であるのに対して360 Reality Audioは全天球である点だが、ただ単にDolby Atmosのレイアウトにボトム・スピーカーを足せばよい、というほど簡単にはいかない。映画館での上映を最終的な目的としているDolby Atmosと、音楽作品を前提としている360 Reality Audioでは、Hightスピーカーのレイアウトに対する考え方が異なっているのだ。 Dolby AtmosにおけるHightスピーカーのレイアウトは「半球面上でFrontのLRと同一の線上、かつ、リスニング・ポイントから前後にそれぞれ45°の角度となる位置」となっており、360 Reality Audioは「ITU-Rに準拠した配置の5.1chを上層にも配する」となっている。誤解を恐れずに言ってしまえば、Dolby Atmosはスピーカー・レイアウト全体が半球面になることを重視しており、360 Reality Audioは水平面におけるスピーカー間の角度に重きを置いているということになるだろうか。 「異なるふたつのレギュレーションを同時に満たすためのスピーカー・レイアウトについては、社内でもかなり議論を重ねた」とは日本音響エンジニアリング株式会社 佐竹氏のコメントだが、「tutumuは天井高が仕上げで3m取れる部屋だったため、ハイトスピーカーも含めて球面に近い距離ですべてのスピーカーを配置する計画が可能だった」という。具体的にはDolby Atmosの配置をベースにしつつ、360 Reality Audioにも対応できる形になっているそうだ。 昨今、イマーシブ・オーディオ対応のスタジオ開設が増えつつあるが、その中で必ず話題に挙がるのが天井の高さについてである。佐竹氏は「天井が高くなければできないということはないが、天井は高い方が有利だと思う」とのことで、この点に関しては同社の崎山氏も「天井高が足りない場合、角度を取るか距離を取るかという話になる。そうすると、例えば電気的なディレイで距離感を調整したりすることになるが、実際にスピーカーとの距離が取れている部屋と同じには決してならない」と話してくれた。「新設でこの高さをリクエストされても、物件がない。あったとしても、通り沿いの商業ビルの1Fとか、アパレルのフラッグシップ店舗が入るような高価なところしかない」(井上氏)と言う通り、新しいビルでイマーシブ・スタジオに相応しい物件を探すのは非常に難しい。 その点、tutumuは先にも述べたとおり天井高が仕上げで3m取れており、スピーカーも理想的な配置がなされている。まさに老舗の強み。社屋までもが現在では手に入れられない価値を持ったビンテージ品となっているようなものだ。そして、その恩恵は天井高だけではない。崎山氏によれば、最近の建築は鉄骨造の躯体が多く、軽量化されているため重量が掛けられず強固な遮音層の構築が難しいのだという。「ここは建物が古いので躯体が重く頑丈。すると、天井が高いだけでなく低域の出方もよくなる。スピーカーのセットをガッチリ作れるので音離れがいいんですよね。」(崎山氏)という恩恵もあるようだ。もしかしたら、理想のスタジオを作るためにあえて古き良き物件を探すということも選択肢になるのかもしれない。 時代が求めるPMCのサウンド 📷 tutumu のスピーカー構成は「9.2.5.3」となる。Dolby Atmos 9.2.4 を基本に、360 Reality Audio はTop Center x1、Bottom x3 を追加した 「9.0.5.3」で出力される。 写真右が Front LCR に用いられた「PMC6-2」、左が今回計 14 台導入された「PMC6」となる。 イマーシブ環境においてどのようなスピーカーを選定するかということは極めて重大なファクターだが、tutumuではイギリスのメーカーであるPMCが採用された。Front LCRは「PMC6-2」、Subwooferは「PMC8-2 SUB」、その他はすべて「PMC6」という構成となっており、これらはすべて発売が開始されたばかりの最新モデルだ。工事に先立ち日本音響エンジニアリングのスタジオでおこなわれたスピーカー選定会には、実はこれらのモデルは間に合わない予定だったという。しかし、奇跡的に選定会当日に到着したデモ機を試聴して、「聴いた瞬間、満場一致でこれに決まった」(サウンド・シティ 中澤氏)というほどそのサウンドに惚れ込んだようだ。 「とにかくバランスがいい。特性的にもナチュラルでイマーシブ向きだと思った」(中澤氏)、「本当に音楽的。音の立ち上がりがよく、ちゃんと動いてちゃんと止まるから余韻でドロつかない。ミキサー目線でもリスナー目線でも、どちらで聴いても完璧。これしかないですね、という感じだった」(秦氏)と大絶賛だ。秦氏によれば「イマーシブって全方向から音を浴びるので、どっと疲れたりするんですけど、これはそうした疲れを感じない」のだという。これらの新モデルについては、「そもそも、Dolbyと半ば共同開発のようにして、イマーシブに対応できることを前提に作られている」(オタリテック 兼本氏)とのこと。 オブジェクト・トラックの音像は、従来のチャンネルベースで制作されたものに比べると分離がよいため、低域をすべてSubwooferに任せてしまうとパンを振った時などに定位がねじれるという聴感上の問題が発生する。PMCの新モデルではスコーカーを新たに設計し、アンプの容量も旧モデルの2倍にすることで、各スピーカーがより広い帯域を歪みなく再生できるようにブラッシュアップされているのだ。それはSubwooferの設計にも現れており、秦氏は「いい意味でSubwooferの存在感を感じさせない音。鳴っているときは気付かないが、ミュートすると明らかな欠如感がある。これはお披露目会に来た方々が口を揃えて言ってくれて、勝った、と思いました(笑)」と嬉しそうに語ってくれた。 兼本氏によれば「音が速く歪みがない、というのはPMCが創業以来ずっと追求してきたこと。メーカーとしては、時代に合わせてアップデートしたというよりは、変わらない価値観がにわかに時代のニーズと合致した印象」とのこと。誠実なプロダクト・デザインが正当に評価される時代がやって来たということは、心から喜ばしいことだと感じたエピソードだ。 室内アコースティックへのこだわり tutumuは、以前は「Sスタジオ」と呼ばれた音楽ミックス / MAコンバーチブルのスタジオを改修する形で施工されている。Sスタジオは紆余曲折ありながらも、最終的にはtutumuと同じ日本音響エンジニアリングが施工を担当したスタジオで、仮設ではあるものの5.1chサラウンド・ミックスもできる部屋だったという。そうした経緯から、音楽ミックスを行う部屋としての下地はある程度整っていた部屋だったが、今回の改修にあたっては前述のスピーカー・レイアウトのほかにも様々な改良が加えられている。 まず、特徴的なのはWideやBottomを含めたFrontスピーカーがすべて正面の壁に埋め込まれていることだ。これは低域の特性を暴れにくくするためで、Subwooferを除いても17本ものスピーカーを使用するtutumuのようなスタジオでは非常に重要な課題となる。また、すべて一体になっているステージをモルタルで作り直すことで、Frontスピーカー5本の特性を揃えつつ、Subwooferとのセパレートも向上させている。HightやRearスピーカーに関してはFrontのようにステージを作ることができないが、なるべくガッシリと設置できるように工夫がされているという。実際に設置工事に入った段階で天井を開けてみると空調用のダクトが通っていたようだが、こちらもほとんど作り直したようなものだという。電気的な調整では補えない、アコースティックな領域で聴こえ方を揃えていくために、マシンルームの扉も入れ替えられ、ブース扉にあったガラス窓も吸音材で蓋をされている。 📷 スタジオ後方に配されたAGS。拡散系の調音材でイマーシブ・システムの課題であるリスニング・ポイントの狭さを解消し自然な音場を生み出すのに大きな役割を果たしている。 また、tutumuを作るにあたって留意された点として、イマーシブにありがちな“リスニング・ポイントが狭い”という音響には絶対にしたくないという意向があったという。音楽ミックスの現場にはミキサーだけでなく、クライアントやアーティストが同席することもあるため、前後3列で聴いても音像が崩れないように配慮されている。また、「音楽を聴いていたら頭も動くし体も動く。そういう自然な動きを許容できるように調整している」(秦氏・井上氏)とのことだ。そうした“遊び”を作るために活用されたのが、日本音響エンジニアリングが開発・販売する「AGS」だ。「もともと音楽ミックスもできるように壁の裏には拡散系の調音材も設置されていたので、それをなるべく活かしながら、LCRスピーカーの間にもAGSに近い拡散体を仕込んで音場のバランスを整えて、さらに調整を重ねている」(佐竹氏)とのことだ。 高い機能性と品質を兼ね備えたPro Tools | MTRX 📷 3枚配されたディスプレイは左からメーター系、Pro Tools、Dolby Atmos Renderer。それぞれ別々のMacにつながっており、Video Hubで切り替えることができる。トラブルがあった時に切り分けが容易になるように、ということのようだ。iPadはPro Tools | Controlがインストールされているほか、iPhoneなどの音源をAir Dropで受け取ってすぐに再生できるようになっている。 tutumuのミキサー・デスクにはTac System「VMC-102 IP Studio Monitor Controller」とMerging Technologies「ANUBIS」が置かれている。VMC-102 IP Studio Monitor Controllerは、従来モデルVMC-102の機能を受け継ぎながら、MADI I/F とDante I/Fを1系統ずつ備え、Danteネットワーク上のルーティングを制御する「バーチャル / ルーティング」機能を新たに搭載した最新モデルだ。片や、Pyramixで有名なMerging Technologies最新のハードウェアであるANUBISも、システムのモニターセクションとなる機能を有している。こちらはDanteと肩を並べるAoIP規格であるRavenna / AES 67に対応しており、Dolby Atmosはもとより、22.2chフォーマットさえも内部でステレオにダウンミックスすることができる。 tutumuではVMC-102 IPをメインのモニターコントローラーとして使用しながら、ヘッドホンアンプのようにANUBISを使用するシステムになっている。スピーカーシステムへのアウトプットとは別系統でANUBISへのソースが立ち上げられており、例えばANUBISに接続されたヘッドホンを着ければ、メインのモニターセクションを切り替えることなくステレオやバイノーラルをモニターできる、ということが可能になるように設計されている。スピーカーへの出力はアナログ、モニターコントローラーへはDante / Ravenna、Dolby Atmos RMUとの接続はDante、音響補正を担うDatasat「AP-25」へはAES/EBU、さらに要所要所ではMADIも使用するなど、tutumuではあらゆる伝送規格を網羅するかのように様々な信号が行き交っている。この複雑な構成を一手にまとめるためにオーディオI/Fとして採用されたのが、Avidのフラッグシップ・モデル「Pro Tools | MTRX」だ。 📷 2台のPro Tools | MTRXはそれぞれInput系とOutput系を受け持ち、SPQカードによる音場補正も担っている。その上に見えるのはAvid最新のシンクロナイザー「Pro Tools | Sync X」。 Pro Tools | MTRXは、モジュール方式の構成を採用することによって高い拡張性を誇る。オプションカードを追加することで、アナログはもちろん、Dante、MADI、AES/EBU、DigiLinkポートなどといった幅広い信号のI/Oとなることが可能だ。井上氏によれば「I/FがMTRXだからこそシステムとして具現化できた」とのこと。tutumuでは2台のPro Tools | MTRXが導入されているが、1台はインプットとDolby Atmos RMUを管理、もう1台はスピーカー・システムへのアウトプットを担っている。また、Pro Tools | MTRXはシステムのI/Oだけでなく、音場補正も担っている。tutumuではDatasat AP-25で主に周波数/位相/時間特性の最適化補正をし、Pro Tools | MTRXのオプションカードSPQも使用して最終的な微調整をおこなっている。 しかし、Pro Tools | MTRX採用の理由は機能性だけではない。秦氏曰く「最初に聴いた時、こんなに違うか、と驚いた。解像度はもちろんのこと、とにかく音のスピードが速い。」と、オーディオのクオリティについても非常に満足している様子だ。また、今回導入されたPMC6-2およびPMC6にはアナログだけでなくAES3の入力もあるのだが、「MTRXのDAはとても信頼できる(井上氏)」ということで、スピーカーへのアウトプットはアナログ伝送が採用されている。これもPro Tools | MTRXのオーディオ品質の高さを窺わせるエピソードだろう。 📷 (左)デスクにはモニター・コントローラーが2台。VMC-102 IPではスピーカー・アウトプット、ANUBISではバイノーラルなどのHPアウトと、それぞれ異なるソースが割り当てられているほか、秦氏と井上氏による「魔改造」によって、360 WalkmixとPro Toolsからの出力をワンタッチで切り替えられるようになっている。(中)DATASAT AP-25 の「Dirac 音場補正機能」で周波数/位相/時間特性の最適化補正を掛けた後、Pro Tools | MTRX の SPQ で微調整をおこなっている。(右)ブース内の様子。写真右に見えるガラス戸がスピーカーの一時反射面になるということで、外側にもう一枚扉を作る形で吸音を施している。 「これからの音楽スタジオのフラッグシップとして相応しいもの ができた。」という tutumu。オフィシャルなオープンに先立っ て行われたお披露目会では、参加したクリエイターたちが創 作意欲を喚起されている様子がヒシヒシと伝わって来たとい う。この勢いを見ると「コンテンツを立体で楽しむ」という 時代は、そう遠い未来のものでもないのではないだろうか。 📷 写真左より、株式会社サウンド・シティ 取締役 明地 権氏、レコーディングエンジニア 秦 正憲氏、取締役 中澤 智氏。 取材協力:株式会社サウンド・シティ、オンズ株式会社、日本音響エンジニアリング株式会社、オタリテック株式会社   *ProceedMagazine2022-2023号より転載

Music

エイベックス株式会社 avexR studio様 / ワークフローを加速させる、コンパクトに厳選された機器たち。

「エンタテインメントの可能性に挑み続ける。」という企業理念を基に、映像・音楽・テクノロジーのプロフェッショナルが同じ空間で常に交わりコンテンツを生み出していく。これをコンセプトとして2022年夏にavex groupの新たなクリエイティヴ拠点「MARIA」がオープン、本社にあったavexR studioもこちらへ移転し新たに稼働を始めた。今回の移転先となる物件は、元々スタジオとして使用されていたスペースではなくワインセラーやレストランスペースだったとのこと。全く異なる用途のスペースであったわけだが、設計図を作成し始めてから実際の工事に取り掛かるまでが4ヶ月弱という非常に短時間での準備を行い、2Fフロアをすべて改装してパワーアップしたスタジオへと変貌させた。さらに、ここにはグループ会社であるavex creative factoryのスタジオであるMAX studioも併設され、携わるコンテンツの幅が広がっている。今回はこの施設内に移設しコンパクトでありながらも随所にアップデートした新生avexR studioを紹介したい。 パワーアップしたMAスタジオ 今回更新のメインとなるMAスタジオは同じフロアにある映像編集室、多目的スタジオとセットで「avexR studio」と呼ばれている。映画や配信向けDolby Atmosコンテンツや、アーティストのコンサートフィルムといったような映像が関わる音楽系のコンテンツなど、具体的なコンテンツ名が言えないのが非常にもどかしいが「avexR studio」のMA室では誰もが聞いたことがある話題の作品やアーティストの楽曲がDolby Atmosミックスされている。 前回のMA室と同様、コンセプトカラーはこだわりのオレンジがポイントとなっている。スタジオの色基調をオフホワイトとグレーにしてグラデーションをつけることで、前回よりも落ち着いた印象となった。このスタジオで作られるコンテンツは映画などのMAに限らず音楽系のコンテンツも増えてきており、音楽機材も増えたそうだ。スタジオの大きさについては、横幅が若干コンパクトになったが、奥行きは前回と全く同じサイズで設計されている。全体容積としては移転前から80%ほどになったものの、天井高は現在のスタジオの方が高く、スピーカーと作業位置の距離をITU-R基準の1.8mで確保したレイアウトだ。モニタースピーカーを含む機材は既存の設備を流用となった。以前のMA室と音質は大きく変わらないものの、移転したことで音像がタイトになった印象を持つ。コンパクトながらもLFEスピーカーをステレオで配置するシネマ用の配置を取っているが、部屋の横幅が変わったこともあり、低音の鳴り方が感覚に馴染むように試行錯誤しながら修正をしているところだという。 📷 メインスピーカーのGenelec 8350A、ハイトスピーカーのGenelec 8340A、2ch用としてFocal Solo 6 Be。L・Rの下にはサブウーファー Genelec 8360APMが2台設置されている。 Avid S4、厳選されたコンパクトな構成 機材面で大幅にパワーアップされたのが、Avid S4の導入である。以前はコンソールレスでの作業だったが、やはりDolby Atmosなどのイマーシブオーディオを扱うにあたり、特にオブジェクトを多用するセッションの場合はフィジカルで直感的な作業が難しく、パラメータの数値を打ち込むことがメイン作業となってしまって面白みに欠けてしまうことがあったという。コンソールレスで始めたものの、結局はフィジカルコントローラーを各種試して買い足すということに至ったそうで、移転を機に効率的かつ直感的な部分を補うためにコンソールの導入を決意されたそうだ。フィジカル的なコントロールの解決については以前からの課題とされていたようで、イマーシブオーディオコンテンツの作成が本格的に始まった2017年頃から試行錯誤されていたという。 スタジオに導入されたAvid S4コンソールの構成は、Channel Strip Module 8 Faderに加えて、かねてから念願であったJoystick ModuleとExpansion Knob Module、Display Module x2を加えた3 Bay構成である。イマーシブオーディオだからこそ「オブジェクトオーディオにもフィジカルコントローラーを」ということで導入されたJoystick Moduleは、数あるフィジカルコントローラーの中からAvid S4を選択した最重要ポイントの一つである。特にMA作業は映像を見ながらの作業となるため、コンピューター画面に集中することが難しい。モニター画面とコンピューター画面の視点移動は想像以上にストレスがかかる。特に、Dolby Atmosのオブジェクトオーディオ編集はより一層ストレスがかかるが、Joystick Moduleの導入でそれも随分軽減されているそうだ。 📷 コンパクトに収められたAvid S4は着席したままでもすべてに手が届くサイズ感、ヒヤリングポイントからスピーカーまでの高さは1.8mが確保されている。 そして、Avid S6ではなくAvid S4を選択した大きな理由はサイズだという。MAスタジオとしてはかなりコンパクトな筐体となるため、スペース都合を満たすということはやはり大きな要件となる。ただし、サイズ感という問題だけでAvid S1やAvid S3を選択しなかったのは、Avid S4がモジュール式でレイアウト自在な点だ。もちろん、先ほども述べたJoystick Moduleの存在も大きな理由となるが、センターセクションなどのベース構成から好きなユニットを追加選択し、好きな位置に配置できるのでイマーシブオーディオ制作に特化したレイアウトを組み上げられるのがポイントだという。なお、Joystick Moduleはセンターセクション右手前側に配置し、手がすぐに届いて操作できるレイアウトにした。コンパクトなレイアウトに収まったAvid S4は、そのサイズ感のおかげで操作性も十分に補えているという。今回導入されたAvid S4はセンターセクション左手にチャンネルストリップモジュールが配置されているが、Avid S4ならではのノブ部分のチルト構造のおかげで座ったままS4のすべての機能にアタッチできるという。これも作業効率を上げる重要なポイントとなる。 Avid S4で特に気に入っている機能は、センターセクションに集約されたレイアウトだという。ビジュアル・フィードバック性と完全なトータル・リコールにより、セッションごとでAvid S4の各画面の機能やトラックレイアウト、カスタムプラグインレイアウトなど、さまざまなレイアウトを一括でセッションに保存できるため、セッションを開くだけでレイアウトなど様々な設定がすべて読み込まれる。現在編集中のセッションからロールバックして、古いセッションに切り替えるワークフローがたびたび発生するそうだが、そういった時でもAvid S4のトータルリコールのおかげで、細かい設定など再調整することなく即座に作業に入れる点が大きいという。セッションを切り替えるとすぐに作業に取り掛かれるので、別のミックスダウンで気分転換ができることもあるそうだ。 📷 Avid S4を挟んでデスク下のラックにはアナログボード類、とMac Proが収められている。 直感的な作業をパワフルな環境で MTRXをインターフェイスとしたPro Tools HDシステムは、今回の移転に伴いMac Proを旧型の2013年モデルから最新の2019年モデルへ、HDXカードも1枚から2枚へと増強したことで大幅にパワーアップした。HT-RMUを導入しているが、昨今の映像コンテンツは4Kも多くなってきており、旧型Mac Proでは処理が追いつかないことも多い。また最近のPro Toolsでもビデオエンジンなどをはじめとする機能拡張の動作においてコンピューターのスペックに依存している機能もあるため、新たに導入したMac Proではメモリが96GBという仕様となった。おかげで作業効率が大幅にアップしたそうだ。なお、HT-RMUのほかDolby Atmos Production Suiteも導入されており、音楽性の強いミックスではProduction Suiteを、オブジェクト・トラックを多用する映像の方向性が強いミックスの際にはHT-RMUをとそれぞれ使い分けているそうだ。また、ビデオインターフェイスも4K対応のBlackmagic Design Ultra Studio miniへ更新されている。 📷 デスク下右手のラックにはMTRX、m908などがコンパクトに集約されている。 今回導入されたAvid S4と以前より導入されているMTRXの連携も抜群だという。モニターコントロールに関しては国内導入1台目だというGrace Designのm908を導入しており、このスタジオではアフレコやナレーションだけではなく効果音なども収録するため、ヘッドフォンやミニスピーカーなど様々なモニタ環境を瞬時に切り替えられるようにリモートコントローラーがセットとなったGraceのモニターコントロールを選択した。 MTRXは、Pro Toolsのインターフェイス機能のほかにマトリクスルーターとして稼働しており、MADIで接続されたHT-RMUの音声をMTRXで切り替えている。以前はコンピューター画面上でDADmanをマウスで操作していたが、Avid S4とDADmanを連携し、さらにソフトキーレイアウトをカスタマイズすることで、Avid S4からソース切り替えを可能とした。フィジカルかつ少ないアクションで操作できるようにカスタマイズ可能な機能はより一層直感的に作業に取り組める環境を構築した。 このスタジオでは恋愛ドラマのようなラジオドラマやポッドキャストも制作することもあるという、演出のために作中の効果音をレコーディングすることもあるそうだ。映像ありのコンテンツでは、その映像に寄り添うために音声のミックスで冒険はしにくいところだが、ラジオドラマは映像がないぶん聴き手が自由に想像できるため、オーバー気味な演出をしても違和感も少なく受け入れられるメディア。作り手も思い切ったミックスにチャレンジができる。手がけるラジオドラマはステレオではなくバイノーラルで配信されるため、Dolby Atmosの環境が活きてくる。Dolby Atmosでミックスしたオーディオは最終段でバイノーラルに変換するため、無理なく一層リアリティが増した完パケとなる。特にホラー作品などは特に恐怖感が倍増してしばらくうなされてしまうかもしれない。 発想を瞬発的にコンテンツへ、MAX Studio 📷 アイデアを即時に形にできるよう設けられたMAX Studio。右手の固定窓の向こう側がブースとなる。 ブースを隔ててMA室の奥にレイアウトされたのが「MAX Studio」である。ここではアイデアが浮かんでからすぐに制作作業に取り掛かり、1日で完パケまでできる環境が整えられた。このスタジオはエイベックスの音楽スタジオであるprime sound studio formともプリプロスタジオとも異なるキャラクターで、プロジェクトスタジオとプロスタジオの中間的な存在だという。昨今の楽曲制作で定番になりつつあるCo-Writeもこのスタジオで多く手がけられているそうで、クリエーターの発想を瞬発的にコンテンツへと形を変えることができるよう、ここでは制作の最初から最後まで一気通貫して行える。 MA室とMAX Studioで兼用となっているブースは両側にFIX窓が設けられており、普段は吸音パネルで塞がれている。MAとしてナレーションをレコーディングする際は、MA室側のパネルを外してMA室のTIE LINEを経由する。同様に、MAX Studioでボーカルのレコーディングを行う際にはMAX Studio側のパネルを外し、MAX StudioのTIE LINEを経由する。両コントロールルームに比べてブースの稼働率は低いので、あえて兼用にすることで両側のコントロールルームのスペースを確保した。 📷 ブースは兼用となりMA室とMAX Studioに挟まれたレイアウト。左右には各スタジオへのTIE LINEが設置されている。 天井高4mオーバーの多目的スタジオ 📷 モーションキャプチャースタジオとして活用されるほか、用途を問わず使用される多目的スタジオ。天井面にはトータル16台のOptiTrackカメラが取り付けられている。 約50平米の多目的スタジオは、その名の通り様々な用途を想定した作りになっている。その中でも一番多いケースとされるのが、モーションキャプチャーのスタジオとしての活用だ。天井にはOptiTrackのPrimeシリーズのカメラが常設されている。一方、下部のカメラについては仮設の形態がとられている。このスタジオでは、モーションキャプチャーのほかにグリーンバックでの合成や、YouTube配信といったものから、社内向けのZoom会議などにも使われるため、用途に合わせて暗幕・グリーンバックの有無などが選べるようになっている。 メインで使用されているモーションキャプチャーは、OptiTrackのPrimeシリーズとMotiveが導入されており、主にVTuber用途に使用されている。Motiveで演算されたデータは、カスタムで制作したエンジンによってキャラクターとリアルタイムで合成する。これら一連のリアルタイム処理された映像をそのまま配信することが可能だ。このような環境のスタジオが都心にあることは珍しい。モーションキャプチャーの特性上から広いスペースと十分な天井高が必要となり、その結果多くのスタジオが郊外に集中している。都心部という好立地ならではの制作業務も多いそうで、リモートワークが当たり前になってきている昨今でもこういった立地環境は必要な要素だと実感する。 多目的スタジオ・映像編集室とMA室の連携が取れるよう、音声・映像・サーバーそれぞれが接続されている環境だという。音声はDanteネットワークでスタジオ間を接続し、配信などを行う際に連携して使用されている。映像に関してはフロアの各部屋がSDIルーターに接続されている。例えば、多目的スタジオでVTuberがMotiveでリアルタイムに合成した映像に、MA室やMAX Studioでアフレコをつける、といったようにフロア全体で大きなスタジオとしても活用できる。 映像編集室では、Adobe Premiereを中心とした映像編集機器やCG編集機器が揃えられている。こちらも移転前の広さからおよそ1/3のスペースまでコンパクトにすることができたのだが、これはコロナ禍による制作スタイイルの変化だという。コロナ前は各自スタッフが集まって編集室で作業していたが、各自在宅で映像編集をできるようコンピューターなどの環境を整えた結果、編集室に集まって作業する必要性が薄くなり、必然的にスペースを確保する必要もなくなったそうだ。なお、こちらではモーションキャプチャーのほかにもLyric Videoなどを手掛けたり、エイベックスのYouTubeチャンネルで8月よりライブ配信されている「[J-POP] avex 24/7 Music Live(24時間365日 音楽ラジオ・24/7 Music Radio)」の画面に登場している「KA」とKAの部屋はこちらの編集室で作られたそうだ。部屋の中にある、見覚えのあるラップトップやスピーカーなど、実際の寸法からCGに落とし込まれており、各メーカーの公認も得ているという。 エイベックスの楽曲を24時間365日、ノンストップでライヴ配信する『avex 24/7 Music Live』。 話題のこのコンテンツも、岡田氏が率いるチームが手がけている イマーシブオーディオもだいぶ浸透し、ワークフローも確立しつつあるが、昔から変わらないフローのもあるという。特に変わらないのが、こまめなセーブとセッションのバックアップだという。こまめなセーブは当たり前になってきているが、コンピューターが高速かつ安定してきているからこそ、基本であるセーブとバックアップを忘れずにしているという。バックアップに関しては、余計に気にされているそうで、セッションデータを3つのHDDやSSDにバックアップするなど冗長化に努めているそうだ。 📷 avex groupの新たなクリエイティブ拠点「MARIA」には地下にクラブスペースもあり、普段は社内の撮影やイベントに使用しながらも、時には海外のTOP DJがシークレットでプレイすることもあるという。アーティストのSNSにもたびたびこちらの部屋がアップされることも多いというこちらのスペースは、なんとメディア初公開だそうだ。DJブースの両脇には日本ではメーカー以外にここにしかないという、Function OneのDJモニタースピーカーPSM318が鎮座しており、フロアには高さ約3mのDance Stackシリーズのスピーカーセットが前後に4発。ぜひともフルパワーの音を体感してみたい。 今後は映像作品のMAのほかに音楽制作へも力を入れていくとのことで、4年前のa-nationのようなDolby Atmos配信も行っていきたいとのことだ。5Gが一般化されたことで通信環境が格段に良くなっていることや、サーバー環境も進歩しているため、以前よりもストレスなく挑めるだろう。また、イマーシブオーディオの中でも今後は360 Reality Audio(サンロクマル・リアリティオーディオ)向けのコンテンツにも積極的に取り組んでみたいとのこと、どんな作品を手掛けられるのか楽しみである。 📷 エイベックス・エンタテインメント株式会社 レーベル事業本部 クリエイターズグループ NT&ALLIANCE 映像制作ユニット マネージャー 兼ゼネラル・プロデューサー 岡田 康弘 氏 *ProceedMagazine2022-2023号より転載

Music

TOHOスタジオ株式会社 ポストプロダクションセンター2 様 / アジア最大規模のS6を擁したダビングステージ

長年に渡り数々の名作を生み出してきた東宝スタジオ。その中でも歴史あるポストプロダクションセンター 2 に設けられた国内最大規模のダビングステージ2 で、アジア地域で最大規模の構成となる Avid S6 へのコンソール更新が行われた。竣工からまだ間がない今、ブラッシュアップされたそのシステムの内容についてお伝えしていく。 72フェーダー、デュアルヘッド構成のAvid S6 歴史あるダビングステージで、これまで長年使用されて きた AMS Neve DFC2 から Avid S6 へと更新が行われた。今回導入 の Avid S6 は国内はもちろん、アジア地域で見ても最大規模の構成 での導入となる。その構成は横幅14フレームと巨大なもので、そこに72フェーダー、デュアルヘッド構成でモジュールが収まる。フェーダー数に関しては従来のDFC2と同数を確保し、さすが、映画のダビングコンソールといえるフェーダー数を持つ迫力のサイズとなっている。そして今回はサラウンド作業がメインとなるということでジョイスティックモジュールも導入された。Avid S6となったことで、レイアウト機能やスピルフェーダー機能などを活用し、従来以上のワークフローに対する柔軟性を確保している。 改めて確認をしたのだが、東宝スタジオが現在の世田谷区砧に誕生したのは、今から90年前の1932年。今回Avid S6を導入することとなったポストプロダクションセンター2は、以前は東宝サウンドスタジオ、さらにその前は東宝ダビングのダビングビルと呼ばれていた1957年に完成された建物である。60年以上の時を、まさに日本映画の歴史とともに歩んできたダビングステージ。「七人の侍」の黒澤明監督の作品や、ゴジラシリーズ、「シン・ウルトラマン」に至る多岐にわたる映画が作られていたと思うと非常に感慨深いものがある。内装は何度も改装を行っているということで完成当初の面影は無いとのことだが、以前はフィルムダビング(実際にフィルム上映を行いながらの劇伴録音)も行われていたということで、スクリーン前のひな壇はまさにその名残である。スクリーンを背にオーケストラが並び、指揮者が上映される映像を見ながら指揮棒を振る、そんな光景がここにはあったということだ。 潤沢に用意されたチャンネル数 システムもAvid S6となったことでブラッシュアップされている。従来は4台の再生用(プレイアウト)のPro Tools(セリフ用、音楽用、効果音用2台)がMADIでDFC 2と繋がれミックスされていたが、今回の更新でミキシングエンジンとしてAvid Pro Tools HDX3システムを2式導入、それぞれに192chのI/Oを持ち、相互にMADIで接続されたシステムとなっている。やはり、Avid S6をコンソールとして運用すると考えた際には、ミキシングエンジンとしてPro Toolsを選択するというのが一般的、Avid S6の製品自体のコンセプトにも則ったシステムアップとなる。また、ミキシングエンジンとして導入されたPro Toolsと既存のPro ToolsすべてのI/Oを今回の更新に併せてAvid MTRXへと統一している。メンテナンス性、障害時の入替のたやすさなどを勘案し、すべてのオーディオ・インターフェースがMTRXへ統一された。それぞれのAvid MTRXはMADIで接続され、ユーティリティーとして1系統ずつがパッチへと取り出されている。これにより、Pro Tools内部でのIn The Boxミキシングを行う際にも、MADIのパッチをつなぎ替えるだけでシステム変更が出来るようになっている。 改めてシステム全体を信号の流れに沿ってご紹介していきたい。まず、再生用のPro Toolsが4台、それぞれPro Tools HDX2仕様となる。映画ダビングでは、セリフ用(ダイアログ:Dialogue)、音楽用(ミュージック:Music)、効果音用(エフェクト:Effect)それぞれの再生用にシステムが準備される。これは、それぞれ個別に仕込んできたものを別々に出力できるということだけではなく、修正などが入った際にもそれぞれ個別にパラレルでの作業を行うことができるというメリットもある。効果音は、多数のトラックを使うことが多いため2台のPro Toolsが用意されている。サウンド・エフェクト、フォーリーと分けて使ったりすることも多いとのことだ。音楽用以外のセリフ、効果音用の3台のPro Toolsは同一の仕様となっている。Avid Pro Tools HDXカードから、4本のDIgiLinkケーブルでAvid MTRXへと接続され、それぞれに128chの出力を確保している。この128chの出力は、2本のMADIケーブルでミキサーへと送られる。 そんなに多くのチャンネルが必要なのか、と考える方もいるかもしれないが、サラウンド作業ということもあり、ある程度まとめたステムでの出力を行うことも多い。そうなると、5.1chのステム換算としては、21ステムということになる。同じ種類のサウンドをある程度まとめた中間素材となるステム。例えばドラムステムであれば、音楽ミックスで言うところのドラムをまとめたドラムマスタートラックをイメージしてもらえるとわかりやすいだろう。また、映画の作業でステムを多用するケースとしてはパンニングがある。あらかじめパンニングで移動をするサウンドを、モノラルではなくステムで出力することで事前に仕込んでおくことができるということだ。こうすることで、ミキシングコンソールではボリュームの調整をするだけで作業を先に進めることができる。 📷 本文で解説したスタジオのシステムを簡易に図としたものとなる。非常に多くの音声チャンネルを取り扱うことができるシステムであるが、その接続は想像よりもシンプルに仕上がっているということが見て取れる。各MTRX間のMADI回線は、すべてパッチベイを経由しているため、接続を変更してシステムの構成を簡単に変更することができる。図中にすべてを記載できたわけではないのだが、各MTRXはMADI及びAESがユーティリティー接続用としてパッチ盤へと出力されている回線を持っている。そのため持ち込み機器への対応などもMTRXのパッチを駆使することで柔軟に行うことができるように設計されている。 データをアナログという線形の無限数に戻す 話を戻して先程の紹介から漏れた音楽用のPro Toolsのシステムをご紹介しよう。このPro ToolsはHDXカードから2本のDigiLinkケーブルでMTRXに接続され、64chの出力を確保している。音楽用のPro Toolsシステムだけは、Avid MTRXに32ch分のDAカードを装着している。ここから出力された32chのアナログ信号は、RME M-32ADへ接続されている。そしてRMEでADされMADIに変換された信号がその後のミキサーへ接続されることとなる。 📷 ユーティリティー用のRME M-32 AD/DAがこちら。32chのAnalog-MADI / MADI-Analogのコンバーターである。システムのデジタル化が進んではいるが、まだまだ外部エフェクターなどアナログでの接続はゼロにはならない。DAWごとの持ち込みでアナログ出力を受けるといったケースもあるだろう。 なぜ、一度アナログに戻しているのかというと、デジタルからの「縁を切る」ということが目的だ。音楽は96kHzで仕込まれることが多い。しかし、映画のダビングのフォーマットは48kHzであることが基本である。これは最終のフォーマットが48kHzであることも関係しているが、システム的にもMADIをバックボーンとしているために96kHzにすると、やり取りできるチャンネル数が半減してしまうということも要因にある。こういったことから生じるサンプルレートの不整合を解消するために、一旦アナログで出力をして改めてシステムに則ったサンプルレートのデジタル信号とする、ということが行われている。PC上でファイルとして変換してしまえばいいのではないかとも考えられるが、アナログに戻すという一見面倒とも言える行為を行うことによるメリットは、音質といういちばん大切なものに関わるのである。 デジタルデータ上で単純に半分間引くのではなく、アナログという線形の無限数にすることで、96kHzで収録されてきた情報量を余すこと無く48Khzへと変換する。結果は限りなくイコールかもしれないが、音質へのこだわりはこういった微細な差異を埋めることの積み重ねなのではないだろうか。音楽のチャンネル数は96kHzでDA/ADの回路を経由する場合には32ch、48kHzであれば、そのままMADIケーブルで64chがミキサーへと送り出せるようにシステム設計が行われている。 膨大なチャンネル数をマネジメントする 再生用Pro Toolsは、セリフ・音楽用のミキサーPro Tools、効果用のPro Toolsそれぞれのオーディオ・インターフェースとして用意されているAvid MTRXへと接続される。ミキサーPro ToolsはいずれもHDX 3仕様で、6本のDIgiLinkケーブルで192chの回線が確保されている。セリフ128ch+音楽64ch=192chこちらは問題ないのだが、「効果音1:128ch」+「効果音2:128ch」=256ch、こちらに関しては再生機側ですべてのチャンネルを使われると信号を受け取り切れないということが起こってしまう。Pro Toolsシステムとしての上限があるため仕方のないところなのだが、合計が192chとなるように再生側で調整を行い、Avid MTRXの入力マトリクスで受け取るチャンネルを選択する必要がある。それぞれのミキサーPro Toolsはその内部でミキシングを行うさらにまとまったステムをそれぞれ2本のMADIケーブルで128chを出力する。 ミキサーから出力された信号は、最終のレコーダーとなる録音用Pro Toolsで収録される。このPro Toolsは HDX 2仕様で128chの入出力となる。ここでもセリフ・音楽用ミキサーPro Toolsからの128ch、効果用ミキサーPro Toolsからの128chの合計256chのうち、128chを収録するということになる。それならば、それぞれのミキサーPro ToolsからMADIケーブル1本、64chずつという想定もあるが、それではセリフ・音楽が30ch、効果音が90chといったパターンに対応できない。そのためにこのような接続となっている。 📷 セリフ(ダイアログ)用のデスク。作業のスタイルに併せて移動可能な仕組みとなっている。Pro Toolsの操作画面はIHSEのKVMエクステンダーが用いられ、パッチで操作デスクの入替えが可能なようになっている。 📷 音楽用のデスク。こちらのデスクもセリフ用と同様に、作業に併せて操作するPro Toolsを変更したり、位置を移動したりすることができる。 収録機の次に接続されるのはモニターコントローラーである。収録したミックスを聴くのか、ステムを聴くのか、モニターソース切り替えやボリュームコントロールを行っているのがこちらも今回新規導入となっったTACsystem VMC-102IPである。従来のVMC-102からDante対応となり「IP」という文字が加わっている。従来のVMC-102はMADI2系統が用意されていたが、IPとなったことでDante1系統、MADI 1系統へと変更されている。今回はMADIでの運用となるため64chの信号がVMC-102IPへと接続されている。その中で選択可能な最大数のステムをプリセットとしてモニターソースに設定している。5.1chであれば10ステム、7.1chであれば8ステムといった具合だ。ここでボリューム調整された信号はスピーカー駆動系のB-Chainへと送られる。 ここから先の系統は既存のシステムをそのまま使っているが、この部分もご紹介しておこう。VMC-102IPからのMADI信号は一度Avid MTRXへと戻り、DAされアナログ信号として出力される。B-Chainの入口であるRME ADI-8 QSでデジタル(MADI)へと変換され、モニタープロセッサーとして導入されているTrinnovへ。ここでレベル、EQ、ディレイなどの補正 / 調整が行われる。その先はDAコンバーターであるRME M-16DAでアナログに戻され、それぞれのスピーカーを駆動するパワーアンプへと送られている。もうひと部屋のダビングステージでもTrinnovが導入されているということもあり、同一の補正用のプロセッサー製品を使用するということで、サウンドキャラクターの統一を図っているということだ。 📷 左手前にモニターコントロール用のVMC-102IP、そして、サラウンド作業の効率を上げるS6ジョイスティックモジュールが収まる。デュアルヘッド構成のためマスタータッチモジュールが2つあるのが特徴的だ。コンソールの奥には、サラウンドメーターである8連のVUメーターDKtechnologies MSD-600が設置されている。 📷 コンソールを背面から見たところ、S6の後ろ姿もスッキリとした格好だ。また、ダビングステージならではとなるディフューズサラウンドのスピーカーが壁面に取り付けてあるのも確認できる。両サイドの壁面に4本、背後の壁面に4本のサラウンドスピーカーが設置されている。背後の壁面の黒い窓が映写窓でここからプロジェクターでの投影を行なっている。 📷 今回更新された「ダビングステージ2」がある歴史あるポストプロダクションセンター2。過去の東宝映画作品の中でもその姿を見ることができる。この3階建ての建物の3階まですべての空間を吹き抜けにした天井高の高いダビングステージがこの中にある。 今回更新されたシステム部分を詳細にご紹介してきたが、映画のダビングシステムがどのようなものなのかイメージいただけただろうか。チャンネル数の少ない作品や、ワンマンオペレートに近い作品などでは、ミキサー用のPro Toolsがスキップされ、再生用のPro Toolsから録音用のPro Toolsへと直接接続されるといった運用も考えられる。もちろんシステムとしては、そういった運用も見越してすべてのAvid MTRX間のMADIはパッチ盤に上げてある。それ以外にも持ち込み機器や、外部エフェクトの接続用にRME M-32AD / M-32DAをそれぞれ1台ずつユーティリティー用としてスタンバイしてある。AVid MTRXの持つAES/EBUの入出力と合わせて、様々な運用に対応可能だ。 今後、実際に更新されたシステムを運用してみてのご感想やAvid S6での映画ダビングの作業、そういったワークフローに関わる部分について現場のスタッフ皆さんのご意見も是非お聞かせいただきたいと考えている。伝統あるステージに導入された最新のミキシングシステムからどのような作品が生み出されていくのか、またレポートさせていただきたい。   *ProceedMagazine2022-2023号より転載

Post

株式会社Cygames様 / 大阪サウンド部 エディットルーム〜妥協ないコンテンツを生み出していく、7.1.4ch可変レイアウト2スタジオ

2011年、第一弾タイトル「神撃のバハムート」を皮切りに、これまで「グランブルーファンタジー」、「Shadowverse」、「プリンセスコネクト!Re:Dive」、「ウマ娘 プリティーダービー」などのゲームタイトルをリリースしてきた株式会社Cygames。その中でも、コンシューマー・ゲーム機向けのコンテンツ制作を主に行う大阪拠点においてDolby Atmos 7.1.4chに対応したスタジオが同時に2部屋開設された。まだまだフォーマットも定まらず過渡期だというゲーム制作のイマーシブ分野において、進取の取り組みが始まった大阪Cygamesサウンド部 エディットルームをご紹介していく。 2つのエディットルーム 大阪Cygames サウンド部エディットルーム(以下、大阪エディットルーム)は梅田中心部、交通アクセスもよく大阪Cygamesの第一拠点の近くに位置する。今回新設された大阪エディットルームはDolby Atmos対応のスタジオが2部屋という構成となり、大阪Cygamesにおけるリスニングスタジオとして機能することになる。Cygamesの東京拠点では、既にエディットルーム(以下、東京エディットルーム)が6部屋稼働しているが、大阪Cygamesで制作中である「GRANBLUE FANTASY: Relink」がサラウンド対応コンテンツとなり、同じようなスタジオの必要性を感じていたことからプロジェクトが開始されることとなった。 現状、スマートフォン向けコンテンツではステレオが基本となっており、コンシューマー機等でのゲームについてはサラウンド対応といったところで、ゲームにおけるイマーシブオーディオについてはどのようなフォーマットがスタンダード化していくのか今後の動向を窺っている状況にあるという。イマーシブオーディオに注目し始めたきっかけはMicrosoftがWindowsとXBOXでDolby Atmosをサポートしたことだったそうだ。コンシューマー・ゲーム機からの視点ではSony PlayStationはHDMIからのイマーシブ系の実出力には対応せず、バイノーラル系の技術で進むなど、大手を振ってこれからはDolby Atmosとは言えない状況ではあるが、現時点ではDolby Atmosがもっともスタンダードに近い存在であり、まずはそれに取り組むことが必要であるとのこと。さらには、Sonyから360 Reality Audioも発表されたため過渡期は引き続きとなるが、新たな規格が登場してくるとそれだけイマーシブオーディオが織りなすゲームの世界がどのように発展するのか期待も高まる。 すでに、5.1chのコンテンツを制作しているが再生環境が整っている家庭はまだ少なく、作り上げたサウンドがプレイヤーに伝わっているのだろうかという歯痒さを感じているそうだ。それでも、イマーシブオーディオという素晴らしいコンテンツを見過ごすわけにはいかないので、5.1ch / 7.1ch / Dolby Atmosを取り入れ妥協することなくゲーム開発に挑戦し続ける。こういった取り組みにも「最高のコンテンツを作る会社」というビジョンが見えてくる。 📷 エディットルーム A 📷 エディットルーム B そして、今回竣工したのがこのエディットルームだ。こちらはインゲームでサラウンドを正確にリスニングすることが主な用途となっており、エディットルームA/Bという同じDolby Atmos 7.1.4ch対応の2部屋を設置することで、同時に作業ができるよう運用面での効率化が図られている。なお、エディットルームA/Bでは異なったオペレートデスクが設置されており、ルームAは固定デスク、ルームBは可動式デスクとなっている。ここにエディットルームの個性が隠されており、ルームBのデスクを移動することによりルームAはコントロールルーム、ルームBは収録スタジオのレイアウトに可変することができる。そのため、主な目的はリスニングとなってはいるが、ナレーションなども収録できるシステムを備えており、マイクプリアンプなどアウトボード系の機材も充実したラインナップが用意された。 📷 一見だけすると全く同じ部屋の写真に見えてしまうのではないだろうか、左ページが大阪Cygames エディットルームA、右ページが同じくエディットルームBの様子となる。両部屋をつなぐ窓の位置、そしてデスクとラックの形状をよく見るとお互いが連携している隣り合ったスペースであることがわかる。また、本文中でも紹介した通り、エディットルームBを収録スタジオとして使用できるようにBのデスク・ラックは可動式とされており、ナレーション収録など作業のシチュエーションによっては上図のように役割を変化させて制作を進行することができる仕組みだ。 基準となる音場 東京エディットルーム竣工時、様々なブランドのモニタースピーカーの比較試聴を行い、GENELEC The Onesシリーズを採用した。元々GENELECには高低音が強調されるようなイメージを持っていて、本命のブランドではなかったというが、The Onesシリーズを試聴した際にそのドンシャリというネガが消え、非常に良いイメージに変わったとのこと。また同軸スピーカーならではの定位感も高く評価を得ている。その流れを汲み、大阪CygamesエディットルームでもGENLEC 8331AWが採用される運びとなった。 大阪CygamesのスピーカーキャリブレーションはMTRX SPQスピーカープロセッシングを採用している。PCなどの機材が全て常設であるため、竣工時に日本音響エンジニアリングによる音響調整を行い、サウンド部スタッフ全員が同じ環境でモニタリングできるスタジオを作ることができた。なお、先立って稼働している東京エディットルームではGENELEC GLMを採用して音響調整を行なっており、PCやオーディオI/Fなど機材を持ち込むことが可能で、言わばフリースペースのような感覚で使用できるようになっている。そのため、GLMで手軽にオートキャリブレーションできるというメリットを活かしているが、状況によりリファレンスが変わるため、基準となる音場の必要性を感じていたそうだ。今回の大阪エディットルームではPCほかの機材を常設設備にして音響調整を重要視した理由がここにある。 📷 GENELEC 8331AW、Cygamesのコーポレートカラーであるホワイトのモデルをセレクト、ハイトスピーカーとして天井に吊られている。写真下はGENELEC 7350APM。スピーカーシステムと部屋のサイズを考慮し、8インチのサブウーファーが設置されている。 システムの柔軟性 大阪エディットルームでのメインDAWはOM Factory製Windowsマシンで稼働するSteinberg Nuendoとなっている。ゲームの開発環境がWindowsベースとなるため、Windows用DAWとして安定しているNuendoに信頼感があること、また、Nuendoに備えられた「Game Audio Connect」でミドルウェアのWwiseと連携できることは、膨大な音声ファイル数となるゲームのサウンド制作においては大きなメリットとなる。 一方、東京・大阪の各スタッフが使用しているDAWソフトウェアは多種多様で、スタッフ本人の意向に沿ったソフトウェアをそれぞれ導入しているとのこと。Avid Pro Tools、Apple Logic Pro、Steinberg Cubase、PreSonus Studio One、中にはAbleton Liveを使っているスタッフもいるそうだが、スタジオでの作業用として、また社外とのやり取りのためにPro Toolsは共通項。大阪のサウンド・デザイン・チームでは、ゲームサウンド制作に長年携わり、WindowsでNuendoという環境に慣れ親しんだ方が多く、今回のメインDAWについてもNuendoが採用されたのはごく自然な流れだったようだ。 📷 エディットルームAのカスタムオペレートデスク。ノンリニア編集に適するようフリースペースの広い形に設計されている。正面左手はRUPERT NEVE DESIGNS/SHELFORD CHANNEL、George Massenburg Labs / 2032、Empirical Labs/Distressor (EL-8)、Eventide/H9000 Harmonizerを、右手にはVertigo Sound/VSM-2 Full、SPL/Stereo Vitalizer MK2-T (model 9739)がマウントされている。直接操作することが少ないOM Factory製のDAW用PCやAVID Pro Tools|MTRX などは足元に収納されている。 なお、エディットルームでの中核となっているのがAvid MTRXとなっている。もちろんMTRXはProToolsで使用するイメージが強いのだが、多機能なオーディオルーティングやコンバーターとしての顔を持っており、NuendoをメインDAWとした大阪エディットルームでも中核機材として導入されている。今回の例では、各DAW PCに搭載されているYAMAHA AIC128-DからDanteで出された信号がMTRXに入り、スタジオ内のモニタースピーカー、コミュニケーション、アウトボードへアナログ信号で送信されている。また、持ち込みPCによるオペレートも想定しており、持ち込みPC用I/FにRME Fireface UFX+を設置。Fireface UFX+MTRX間はMADI規格が用いられている。 各サウンドデスクやエディットルームへの信号はDanteで張り巡らされており、スタジオ内でのルーティングはDADmanで行い、システム全体のルーティングはDante Controllerで行う、という切り分けがなされている。メインスピーカーのボリュームコントロールはNTP Technology MOM-BASEを用いてMTRXをリモートしているシステムとなっている。このシステムを実現するためという点でも、DAWを選ばず柔軟なシステムに対応するMTRXが選定される理由となった。 オペレートの多様性 今回新設の大きな要望として「4Kの画面をどこでも映せる、どこの4Kの画面でもどこにでも持っていける」、「どの音をどこでも聴ける」というテーマがあった。そのコンセプトに沿って、映像信号はADDERのKVMで、音声はDanteで、という役割分担が行われ、各サウンド部スタッフのデスクとエディットルームの音声および映像信号をやり取りするシステムが構築されている。すべてのデスクにKVMおよびDanteインターフェースが用意されており、各デスクで作業をしながらエディットルームの音声をリスニングしたり出力すると同時に、4Kの映像も映し出すことが可能となっているわけだ。 なお、その際HDMIにエンべデットされているDolby Atomsの信号をどのように各ルームとやりとりするのかが課題となっているのだが、配管の問題もあり実線を張り巡らせるのは現実的ではない。AVアンプを駆使してアナログ音声をデエンベデッドする構成もあるが、映像と音声のズレが発生しないかなど現在も検証を続けているところだ。また、映像と音声の垣根を超えるDante AV規格も選択肢の一つではあるが、現在の条件下でHDMIからDolby Atomsのチャンネル数を同時に転送することは難しいため、こちらはDante AV規格自体の発展に期待が寄せられる。ほかにも、機能拡張として各デスクでDolby Atomsをリスニングできる構想など、いまも将来に向けてスタジオ自体が成長し続けていると言えるだろう。 シンプルかつ多機能な機材レイアウト 竣工当時からの課題ではあったが、スペースの都合上でマシンルームを設けることができなかった。そこで、起動音が小さい機材はエディットルーム内に収納、スイッチングハブなどの起動音が大きい機材はスタジオ外にあるラックケースへ収納することで解決を図っている。結果的に、主だった機材がすべてスタジオ内で操作が可能で、ステータスなども目視確認ができるというメリットも生まれた。ここ近年の機器の進歩によって抑えられた起動音や、MTRXのオールインワン性を活かし必要最小限の機材構成としたからこそ実現できた機材レイアウトである。また、エディットルームAは常設のデスクとなる為、収録時でもストレスなく機材の操作ができるように手元にアウトボード系の機材が設置されている。メモや台本などを置けるスペースも広く、ノンリニア編集の理想的なオペレートスペースを作ることができている。 📷 起動音を考慮し静音ラックに収納され、スタジオ外に設置されたスイッチングハブ YAMAHA/SWR2310-10G。各エディットルームとサウンドデスク間を繋ぐDanteの信号処理を行う中核として機能している。また、左写真は別途に設けられたフォーリースタジオの様子だ。 施工にあたってはデザイン面も重要な要素となった。コーポレートカラーであるブラック / ホワイトを基調としたスペースからスタジオに入ると、内装にフローリングの床面やダークブルーを用いた落ち着いた空間が演出されている。オペレートデスクやスピーカースタンドもすべてカスタムオーダーとなっており、素材選びの段階から製作が行われたとのこと。特に、壁紙のカラーなどは大阪Cygamesが注力して開発している『GRANBLUE FANTASY: Relink』の空を意識した青が基調にされており、より制作しているコンテンツの世界観に没入して制作を進めることができそうだ。ゲーム開発ではどうしても自席でのデスクワークがメインとなるが、根本にはエディットルームをいっぱい使って楽しんで欲しい、リラックス感が感じられるように、という思いがあり、それがデザインに込められている。スタッフのモチベーションを上げるということも目的として重視されているということだ。 📷 右:株式会社Cygames サウンド部マネージャー 丸山雅之 氏 / 左:株式会社Cygames サウンド部サ ウンドデザイナー 城後真貴 氏 経験豊かなクリエイターによって一貫したクオリティでコンテンツ制作を進める大阪サウンド・デザイン・チーム。そのクオリティの基盤となるスタジオが新設されたことで、制作ワークは一層の飛躍を遂げることになるだろう。もちろん、ゲームサウンドにおけるイマーシブ制作といった観点でもここから数々のノウハウが生まれていくに違いない。ソーシャルゲームのみならずコンシューマー・ゲームの開発やアニメ制作、漫画事業など幅広い分野でコンテンツをリリースする株式会社Cygames。その「最高のコンテンツを作る会社」というビジョンの通り、妥協ないコンテンツを生み出していくための拠点がここに完成したと言えるのではないだろうか。   *ProceedMagazine2022-2023号より転載

Media

【MIL STUDIO技術解説】MIL誕生に寄せて〜鑑賞から体験へ 選択から多様の未来へ〜

チャンネルが少なくなければできないことがある。チャンネルが多くなければ分からないことがある。 オーディオの世界を支配するチャンネルとはいったい? 【技術解説】MIL誕生に寄せて〜鑑賞から体験へ 選択から多様の未来へ〜 中原雅考(株式会社ソナ / オンフューチャー株式会社) 📸 株式会社ソナ / オンフューチャー株式会社 中原 雅考 氏 芸術と工学の融合 スタジオと同じ音で作品を聴いてもらいたい。原音忠実再生といった希望は、多かれ少なかれ音響コンテンツ制作者にとっての願いだと思います。しかし、そのためには、ユーザーもスタジオと同じような環境にスピーカーを設置して作品を試聴しなければなりません。今や時代は多様化し、ユーザーの試聴環境は2chかサラウンドかといった単純な選択肢ではなくなっています。ともすれば、この作品はこのように聴いて欲しいといった制作者の強いこだわりが、ユーザーに対しての不用意な圧力になってしまうかもしれません。本来、作品には自由な表現が与えられるべきだと思いますが、オーディオでは、2ch、5.1ch、7.1.4chなど再生チャンネルの形式によって異なる流儀が要求されてしまいます。そのような制限は、工学が芸術を支配しているような関係にも見えてしまいます。 素晴らしい技術をもったエンジニアがスタジオでつくり出す音は最高です。その素晴らしさを多くのユーザーに伝えたいと思い、スピーカーの設置方法、調整方法、部屋の音響のことなどを様々な場面で伝えてきました。しかしそれは、ユーザーにとっては「高級な鮨屋で食べ方を指導されながらおいしさを味わっている」ような世界かもしれません。どうやら、今一度オーディオと出会った頃のユーザー体験に立ち返る必要がありそうです。工学による芸術の制限を緩和すべく、より一層の芸術と工学の融合を目指して… 誰もが気軽に良さの分かるオーディオ再生とは? 作品やユーザー(聴取者)が主役になるためのオーディオとは? 「モノ」「ステレオ」

Media

完全4π音響空間で描く新たな世界の始まり。〜フォーマットを越えていく、MIL STUDIO〜

MIL=Media Integration Lab。絶えず時代の流れの中から生まれる、我々Media Integrationのミッション。創造者、クリエイターと共に新しい創造物へのインスピレーションを得るために、昨今の空間オーディオ、3Dサウンド、多彩なフォーマット、様々な可能性を体験し、実感する。そのためのスタジオであり、空間。2021年にオープンしたライブ、配信、エキシビジョンといった皆様とのまさに「ハブ」となる空間「LUSH HUB」に続き、次世代の音響、テクノロジーと体験、共有するための空間としてMILは誕生した。43.2chのディスクリート再生で実現した下方向のスピーカーを備えた完全4π音響空間。研究と体験、そこから得られるインスピレーション。それを実現するためのシステム、音響、これらをコンセプト、テクノロジー、音響など様々な切り口からご紹介していきたい。一つの事象に特化したものではないため、掴みどころがなく感じるかもしれない。しかしそれこそが次のステップであり、新しい表現の始まりでもある。 「4π」での感覚で描かれた音楽を まずは、MIL(ミル)のコンセプトの部分からご紹介していきたい。長年2chで培われてきた音楽の表現。それは今後も残ることになるが、全く異なった「4π」での感覚で描かれた音楽が主体となる世界が新たに始まる。私たちはそのターニングポイントにあり、このMILは「進化し続けるラボ」として今後誕生するであろう様々なフォーマット、3Dの音響を入れるための器、エンコーダー、デコーダーなど様々なテクノロジーを実際に再生し体験し共有することができる。 そのために、特定のフォーマットにこだわることなく、可能性を維持、持続できる空間として設計がなされた。音響面に関しては、このあとのSONA中原氏の解説に詳細を譲るが、物理的な形状にとらわれることなく、今後進化を続けるように運営が行われていく予定である。スピーカー、音響パネルなどは、簡単に入れ替えられるようなモジュール構造での設計がなされており、かなり深い部分からの変更が可能だ。 また、MILならではの特徴として居住性にこだわった、というところは大きいだろう。各研究施設の実験室、無響室のような環境の方が、より正確な体験が行えるのかもしれない。しかしそのような空間は、まさに「Lab」であり、生み出された作品を「視聴」ではなく「検証」する場という趣である。もちろんそこに意味はあるし、価値もある。しかし、MILでは、作品自体をエンターテイメントとして受け取り、住環境にもこだわりゆっくりと楽しむことのできる環境を目指している。ユーザーの実際に近い環境での「検証」が可能であり、「視聴」を行うというよりコンテンツ自体を楽しむという方向での実験、というよりも体験が可能だ。このあとにも紹介する様々なプロセッサー、ソフトウェアを駆使して、いろいろな音環境でリラックスした環境で様々なコンテンツの視聴を行うことができる。 居住性にこだわりつつも、オーディオ、そしてビジュアルのクオリティーに妥協は無い。そのコンテンツ、作品の持つ最高の魅力を体感するために、最善と思われるオーディオとビジュアルのクオリティーを導入している。オーディオに関しては、水平よりも下方向にもスピーカーを配置した、現時点での音響空間のゴールとも言える4π空間再現による真の360イマーシブ環境を実現している。そのスピーカーにはFocal CIの3-Way Speakerを採用している。多チャンネル、イマーシブの環境では同軸のスピーカーが採用されることが多い。もちろん、2-way、3-wayといったスピーカーよりも物理的に点音源としてオーディオを出力する事ができる同軸スピーカーのメリットは大きい。しかし、設置の条件とサウンド・クオリティーを満たす同軸のユニットがなかったために、MILでは音質を重視して3-Way採用に至っている。スピーカー選定に際しては、ユニット自体の音圧放射の特性を調べ上げ、マルチチャンネルにふさわしいものを選定している。その測定の模様はこれまでの本誌にて株式会社SONA執筆の「パーソナル・スタジオ設計の音響学」に詳しい。 この部分に疑問のある方は、ぜひともMILで実際のサウンドを確認してほしい。イマーシブサウンド以降、立体音響=同軸スピーカー。この組み合わせは正しい回答ではあるが、絶対ではないということを知っていただけるはずだ。ビジュアルに関しても、最新の8K60P信号に対応したプロジェクター、そしてEASTON社のサウンドスクリーンの導入と抜かりはない。最新のテクノロジーを搭載した機材を順次導入していく予定である。多彩なフォーマットの体験の場として、またその体験を通しての学習の場として、あるいは創造の場としても今後MILを活用していく予定である。今後の情報発信、そして様々なコラボレーションなどに期待していただきたい。 📸 右写真にてご紹介するのはMIL STUDIOの設計・施工を手がけた株式会社ソナの中原 雅考 氏。後述となる同氏の技術解説も是非ご覧いただきたい。 43.2ch、4π空間をFocalで包む ここからは、MILにおけるシステムの特徴についてご紹介していきたい。何はともあれ、この大量のスピーカーが興味の焦点ではないだろうか。スピーカーは水平方向に30度刻みで等間隔に配置される。高さ方向で見ると5層。12本 x 5層=60本。それに真上と真下の2本が加わる。現状のセッティングでは、中下層は水平面のスピーカーのウーファーボックスが設置され、下方向も半分の6本のスピーカーを設置、真下もスタンバイ状況ということで、実際には43chのディスクリートスピーカー配置となっている。それに2本の独立したサブウーファーがある。これで43.2chということだ。 📸 L,C,R chは、上から1000 IW 6、1000 IW LCR UTOPIA、HPVE1084(Low Box)が収まる。間の床にあるのがSUB 1000F(LFE)である。 これらのスピーカーはFocal CI社の最新モデルである1000シリーズがメインに使われている。正面の水平面(L,C,R ch)には同シリーズのフラッグシップである1000 IWLCR UTOPIAが設置されている。Focalではラインナップを問わず最上位モデルにこの「UTOPIA」(ユートピア)というネーミングが与えられる。CI=Custom Install、設備用、壁面埋め込み型ということで設置性重視とも捉えられ、音質が犠牲になっているのでは?と感じられる方もいるかもしれないが、同社が自信を持ってUTOPIAの名前を与えているだけに、このモデルは一切の妥協が感じられない素晴らしいサウンドを出力してくる。 それ以外の水平面と上空のTop Layerには1000 IW LCR 6が採用されている。機種名にLCRと入っていることからもわかるように、メインチャンネルを担当することを想定した3-way+1 Pussive Radiatorを搭載したモデル。Hight Layerには1000 IW 6という2-wayのモデルが設置されている。1000シリーズは、FocalのProfessionalラインで言うところのSolo 6 Be、Twin 6 Beといったラインナップに相当する。同社のアイコンとも言えるベリリウムツイーター、'W'コンポジットサンドウィチコーンを搭載した製品である。すでに高い評価を得ているFocal Solo 6 Beと同等のユニット構成のモデルが1000 IW 6。そう考えれば、そのスピーカー群のクオリティーが想像しやすいのではないだろうか。 📸 L,C,Rch以外のスピーカースタンド。上から1000 IW 6、1000 IW LCR 6、HPVE1084(Low Box)が収まる。 ベリリウムで作られたインバーテットドーム・ツイーターのサウンドは、すでに語られ尽くしているかもしれない。その優れた反応速度、濁りのないピュアな響き、Focalのサウンドキャラクターを決定づけているとも言えるサウンド。そのクオリティーをMILではマルチチャンネル、イマーシブ環境として構築した。Focal CIの1000シリーズは、クローズドバックで厚さはわずか10cm程しかない。その特徴もこのような多チャンネルのスピーカー設置を行う際には大きなメリットとなっている。今後、追加で天井にスピーカーを設置したいといった要望にも柔軟に対応できることだろう。 床下のBottom Layerのスピーカーには300シリーズが採用されている。これは物理的な問題が大きく、300 IWLCR 6がサイズ的に合致したということでこの選択肢となった。この300シリーズは、Focal Professionalで言えばSHAPEに当たるラインナップ。ユニットも同等の製品が使われている。物理的なサイズの制約があったといえ、採用できる限りで最良の選択を行っている。このモデルは300シリーズ内でのフラッグシップとなる。1000 IWLCR 6と比べると一回り以上も小さなモデルだが、ダブルウーファーにより十分な量感のあるサウンドを再生することができる。独立したLFE用のサブ・ウーファーに関してだけは、民生のラインナップであるSUB 1000 Fが採用された。これは、ユニットの整合性を取るための選択であり、Middle Layerのウーファーユニットと同一のサウンドキャラクターを得るための選択である。見ての通り、ユニット自体は全く同一のユニットである。 📸 床下に埋め込まれた300 IW LCR 6。現在は6本が設置されているが、それ以外の箇所もキャビネットは準備されている。 📸 天井に専用設計されたリング状のスピーカーキャビネット。ユニットは1000 IW LCR 6が収まる。 イヤーレベルにあたる、Middle Layerのスピーカーには、全てサブ・ウーファー用のユニットが加えられ、3-way + 1 sub。2.1chシステム的に表記するならば、1.1chのような構成となっている。音色面で支配的になるイヤーレベルのスピーカーユニットに関しては、フルレンジとしての特性を持たせるためにこのような構成をとっている。1000 IWLCR 6で低域が不足するというわけではまったくない。このモデルは、カタログスペックとしても48Hz(-3dB)からとかなりワイドレンジでの再生が可能な製品である。これにサブ・ウーファーを組み合わせることで25Hzからのフラットな特性を持たせることに成功している。 まだまだ、イマーシブ・サウンドで制作されたコンテンツはイヤーレベルに多くの主要なサウンドを配置する傾向にある。5.1chサラウンドなどとのコンパチビリティーや、これまでの制作手法などを考えれば当たり前のことではあるし、主役となるサウンドをあえて高さを変えて配置するということに、今後もそれほど大きな意味が持たされるということは無いだろう。そういったことを鑑みてもイヤーレベルのスピーカーをこのような奢った仕様にするということは間違いではない。 FIR補正、55ch分のパワーアンプ、1300mのケーブル Focal CIのスピーカーは、全てパッシブである。そのため、このチャンネルと同数分のパワーアンプを準備することとなる。結果、必要なパワーアンプのチャンネル数はなんと55chにものぼった。2chステレオ仕様のアンプで準備をするとしたら28台が必要ということになるが、それほど多くのアンプを設置する場所は確保できないため、主要なスピーカーを4chパワーアンプとして、それ以外をInnosonix MA32/Dという2U 32chアンプを採用することとした。 主要スピーカーとは、イヤーレベルのMiddle Layerのスピーカー群であり、クロスオーバーを組む必要があるそのサブ・ウーファーの駆動用となる。これだけでも24本のスピーカーの駆動が必要であるため、4chアンプをアサインしても6台が必要となった。この6台には、Lab.Gruppen D20:4Lが採用されている。この製品は、アンプ内部にLAKE Processerが搭載されており、クロスオーバー、補正のEQなどをFIR Filterで行うことができる高機能モデルである。クロスオーバーがFIRでできるメリットの解説は専門家に任せることとするが、クロスオーバーで問題となる位相のねじれに対して有利であると覚えておいてもらえればいいのではないだろうか。 📸 Lab.Gruppen D20:4L それ以外のスピーカーを担当するInnosonix MA32/DもオプションでDSP Processer、FIR Filterを搭載することが可能であり、MILではそれらのオプションを搭載したモデルを導入している。これらのアンプにより、スピーカーの補正はFIRとIIRの双方を駆使することができ、より高度なチューニングを可能としている。また高さごとの各レイヤーのアンプの機種を統一することもできているので、それぞれの音色に関しての差異も最小限とすることに成功している。 📸 Innosonix MA32/D アンプとスピーカーの接続には、ドイツのSOMMER CABLEが採用された。ELEPHANT ROBUSTという4mm2 x 4芯のOFCケーブルが採用されている。同社の最上位のラインナップであり太い芯線により高い伝導率を確保している。芯線を太くしつつ外径は最低限にすることが重要なポイントであった、引き回しを行うケーブルの本数が多いため、その調整を行うために多くの苦労のあったポイントである。ちなみにMILで使用したスピーカーケーブルの総延長は実に1300mにも及ぶ。 これらのアンプまでの信号は再生機器から、全てDanteで送られる。多チャンネルをシンプルに伝送しようとすると選択肢はDanteもしくはMADIということになる。今回のシステムでは、パワーアンプが両機種ともにDanteに対応していたために、Danteでの伝送を選択した。クリティカルなライブ用途ではないために2重化は行っていないが、ケーブルはできる限り高品位なものをと考え、Cat8のケーブルでマシンラックからアンプラックまでを接続している。また、Dante用のEthernet SwitchはPanasonicのPoE対応の製品を選択。今後のシステム拡張時にも柔軟に対応できる製品をピックアップしている。 Avid MTRXで43.2chを一括コントロール ここまでで、B-Chainにあたる部分がDanteとパワーアンプ内のDSPで構成されていることをお伝えしてきたが、本システムで一番苦労したのがここからご紹介する、モニターコントローラー部分だ。まず、必要要件として43.2ch(将来的には62.2ch)の一括ボリューム制御ができる製品であることが求められる。これができる製品を考えるとAvid MTRXの一択となる。Avid MTRXのモニター制御部分であるDADmanは、最大64chの一括制御が可能、まさにちょうど収まった格好だ。 そして、MILの環境で決まったフォーマットを再生する際に、どのチャンネルをどのスピーカーで鳴らすのか?この設定を行うのがなかなか頭を悩ませる部分だ。Dolby Atmos、SONY 360Reality Audio、AURO 3D、22.2chなど様々なフォーマットの再生が考えられる。一段プロセッサーを挟んだとしても特定のフォーマットでの再生という部分は外せない要素だ。まずは、SONA中原氏とそれぞれのフォーマットごとにどのスピーカーを駆動するのが最適か?ということを話し合った。そこで決まったスピーカーの配置に対し、各フォーマットの基本となるチャンネルマップからの出力がルーティングされるようにモニターセットを構築していった。こうすることで、再生機側は各フォーマットの標準のアウトプットマッピングのまま出力すればよいということになる。 この仕組みを作ることでシグナルルーティング・マトリクスを一箇所に集中することに成功した。DADman上のボタンで、例えばDAW-Atmos、DAW-AURO、AVamp-Atmos、、、といった具合にソースをセレクトすることし、バックグラウンドで適切にシグナルルーティングが行われる仕掛けとしている。後で詳しく説明するが、再生系としてはDAWもしくは、AVampデコードアウト、SPAT Revolutionのプロセッサーアウトの3種類。それぞれから様々なフォーマットの出力がやってくる。これを一つづつ設定していった。そしてそれらのボタンをDAD MOMのハードボタンにアサインしている。 このようにしておくことでDADmanのソフトウェアの設定に不慣れな方でも、その存在を意識することなくソースセレクトのボタンを押してボリュームをひねれば適切なスピーカーから再生されるというシステムアップを実現している。なお、Avid MTRXはあえてスタンドアローンでの設置としている。もちろんPro ToolsのAudio I/OとしてDigiLinkケーブルで直結することも可能だが、様々なアプリケーションからの再生を行うことを前提としているため、MTRXはモニターコントローラーとしての機能にのみ集中させている。 市販コンテンツからマスター素材まで対応の再生系 📸 プロジェクターはJVC DLA-V90R。「8K、LASER、HDR」と現時点で考えうる最高スペックを持つフラッグシップモデル。EASTONのサウンドスクリーンと組み合わせて最高の音とともに映像にもこだわった。 次に再生側のシステムの説明に移ろう。市販のメディア、コンテンツの再生のためにPanasonic DMR-ZR1(Blu-ray Player)、Apple TVが用意されている。これらのHDMI出力はAV Amp YAMAHA CX-A5100に接続され、このアンプ内でデコードされプリアウトより7.1.4chで出力される。このAV Ampは近い将来STORM AUDIO ISP Elite MK3へと更新される予定だ。この更新が行われれば、更に多チャンネルでのデコードが可能となり、MILのさらなるクオリティーアップへとつながる。このSTORM AUDIOはAURO 3Dの総本山とも言えるベルギー、ギャラクシースタジオ、Auro Technologies社が立ち上げたAV機器ブランドであり、AURO 3Dの高い再現はもちろん、Dolby Atmos、DTS:X pro、IMAX Enhancedといった最新の各種フォーマットに対応している。更に24chものアナログアウトを備え、Dolby Atmosであれば最大11.1.6chという多チャンネルへのデコードを行うことができる強力なAV Ampである。本来は、各スピーカーの自動補正技術なども搭載されているが、MILでは、すでにSONAによりしっかりとスピーカーの調整が行われているのでこの機能は利用しない予定である。このAV Ampの系統では、Apple TVによる各種オンデマンドサービス(Netflix等)の視聴、Apple Musicで配信されている空間オーディオ作品の視聴、Blu-ray Discの視聴を行うこととなる。 📸 映像再生用のPlayerはPanasonic DMR-ZR1が奢られている。4K Ultra Blu-ray対応はもちろん、22.2chの受信(出力時はDolby Atmosに変換)機能などを持つ。 📸 AV ampとして導入を予定しているSTORM AUDIO ISP Elite mk3。Dolby Atmos、Auro 3Dといった市販のコンテンツの魅力を余すことなく引き出すモンスターマシンだ。 もう一つの再生システムがMac Proで構築されたPCからの再生だ。これは各マスターデータやAmbisonicsなどメディアでの提供がなされていない作品の視聴に使われる。現在スタンバイしているソフトウェアとしては、Avid Pro Tools、Virtual Sonics 360 WalkMix Creator™、SONY Architect、Dolby Atmos Renderer、REAPERといったソフトになる。ここは、必要に応じて今後も増強していく予定だ。 📸 Avid Pro Tools 📸 Dolby Atmos Renderer 📸 360 WalkMix Creator™ 📸 SONY Architect 📸 REAPER Dolby Atmos、ソニー 360 Reality Audioに関して言えば、エンコード前のピュアな状態でのマスター素材を再生可能であるということが大きなメリット。配信にせよ、Blu-ray Discにせよ、パッケージ化される際にこれらのイマーシブ・フォーマットは圧縮の工程(エンコード)が必要となる。つまり、Dolby Atmosでも360 Reality Audioでも、マスターデータは最大128chのWAVデータである。さすがにこれをそのままエンドユーザーに届けられない、ということは容易に想像いただけるだろう。Dolby Atmosであれば、Dolby Atmos Rendererの最大出力に迫る9.1.6chでのレンダリング、360 Reality AudioはMILのスピーカー全てを使った43chの出力が可能である(360 Reality AudioはLFEのチャンネルを持っていないため43chとなる)。特に360 Reality Audioの再生は他では体験ができない高密度でのフルオブジェクトデータのレンダリング出力となっている。オブジェクト方式のイマーシブフォーマットの持つ高い情報量を実感することができる貴重な場所である。 REAPERでは、MILの4π空間を最大限に活かす7th orderのAmbisonicsの再生ができる。7th Ambiの持つ4π空間の音情報を43chのスピーカーで再生するという、まさにMILならではの体験が可能だ。現状のセットアップでは、IEM AllRADecoderを使用してのチャンネルベースへのデコードを行っているが、他のソフトウェアとの聴き比べなども行うことができる。この部分もこれからの伸びしろを含んだ部分となる。各フォーマットのレンダリングアウト(チャンネルベース)を一旦7th Ambiに変換して43chに改めてデコードすると言った実験もREAPER上で実施することが可能だ。 それ以外に、Stereo音源の再生のためにiFI Audio Pro iDSDが導入されている。これは、DSD / DXD / MQA / PCM192kHzなど各種ハイレゾ素材の再生に対応したモデル。イマーシブ・サウンドだけではなくステレオ再生にも最高のクオリティーを追い求めたシステム導入が行われている。 スピーカーの仮想化、FLUX SPAT Revolution 📸 視聴空間としてではなく、ラボとして様々なフォーマットの変更を担うのがFLUX:: Spat Revolutionだ。OM FactoryでSPATの動作に最適にチューンされた、カスタムWindows PC上で動作をさせている。実際にMILで利用しているSpat Revolutionのスクリーンショットを掲載しているが、Dolby Atmosの入力をMILの43.2chにアサインしているのがこちらとなる。それ以外にも22.2ch、Auro 3DなどをMILのデフォルトとしてプリセットしている。 この2つの再生系統の他に、Core i9を搭載したパワフルなWindows PCがFLUX SPAT Revolution専用機として準備されている。これは、それぞれの再生機から出力されたレンダリングアウトに対し様々なプロセスを行うものとなる。具体例を挙げるとDolby Atmosであれば、理想位置から出力された際のシュミレーションを行ったりということになる。MILのTOPレイヤーは仰角34度であるため、Dolby Atmosの推奨設置位置である仰角45度とは11度ほど差異が出ている。これをSPAT上で仰角45位置へと仮想化するということである。水平面に関しても、実際に物理的なスピーカーが設置されていない水平角100度、135度という推奨位置へと仮想化することなる。 スピーカーの仮想化というと難しそうだが、シンプルに言い換えればパンニングを行うということになる。SPAT Revolutionでは、このパンニングの方法が選択できる。3Dのパンニングとして一般的であるVBAP=Vector-Based Amplitude Panningに始まり、DBAP=Distance-Based Amplitude Panning、LBAP=Layer-Based Amplitude Panning、SPCAP=Speaker-Placement Correction Amplitude PanningといったAmplitude Pan系のものと、KNN=K Nearest Neighbourが選択できる。これらは今後のバージョンアップで更に追加されていくと見込んでいるのだが、3Dパンニングのタイプを切り替えて聴き比べができるのもSPAT Revolutionならではの魅力だ。水平面であれば、シンプルなAmplitude Panで問題は無いが、3D空間に対しては、垂直方向のパンニング、立体空間に定位させるための係数の考え方の違い、など様々なファクター、計算をどのように行うのかというところに多様なメソッドが考えられており、SPAT Revolutionを用いればこれらの聴き比べができるということになる。更にMILでの実践はできないが、SPATにはオプションでWFS=Wave Field Synthesisも用意されている。 📸 SPATを動作させるOM Factory製カスタムWindows PC SPAT Revolutionは一般的なChannel-Baseの音声だけではなく、Scene-Baseの音声の取り扱いも可能である。具体的には7th order Ambisonics、バイノーラル音声の扱いが可能ということになる。これらScene-Baseのオーディオデータはさすがに直接の取り扱いというわけではなく、一旦Channel-Baseにデコードした上でSPATの自由空間内で各種操作が行えるということになる。ここで挙げたような3D Audioのミキシングのための様々な考え方は知っておいて損のないことばかりである。今後技術解説としてまとめた記事を掲載したいところである。 映像系統に関しては、AV ampに一旦全てが集約されInputセレクターとしても活用している。選択されたソース信号は、プロジェクターVictor DLA-V90Rに接続される。このモデルは、8k60p信号の入力に対応したハイエンドモデルである。これが、120inchのEaston E8Rサウンドスクリーンに投影される。PCの操作画面はKVM MatrixとしてAdder DDX10で制御され、1画面を切り替えて操作が行えるようにシステムアップされている。 以上が、MILにて導入された各機器である。文章としてはボリュームがあるが、実際にはAV amp以外は全てDanteでの接続のため、あっけないほどシンプルである。一本のEthernet Cableで多チャンネルを扱える、信号の分配など自由自在なルーティングが組めるDanteの恩恵を存分に活用したシステムアップとなっている。各機器がまさに適材適所という形で接続された、まさに次の世代への対応まで整えたと言っていい内容でシステムアップが行われたMILスタジオ。4πの空間再現、音を「MIL」という思いを込め実験施設とは異なった、じっくりと、ゆっくりと音を体験できる場となっている。 【LINK】MIL STUDIOの設計・施工を手がけた株式会社ソナの中原 雅考氏による技術解説 技術解説:MIL STUDIO   *ProceedMagazine2022号より転載 https://pro.miroc.co.jp/headline/proceed-magazine-2022/#.YxG8QezP0-Q https://pro.miroc.co.jp/headline/360ra-info-2022/#.YxG72ezP0-Q https://pro.miroc.co.jp/solution/360-reality-audio-360-walkmix-creator-proceed2022/ https://pro.miroc.co.jp/headline/comparison-of-atmos-360ra/#.YxG8EuzP0-Q

Media

株式会社IMAGICAエンタテインメントメディアサービス 竹芝メディアスタジオ様 / 〜五反田から竹芝への大規模移転、時代の区切りをいま目の当たりに〜

日本を代表するポストプロダクションであるIMAGICAエンタテインメントメディアサービス。その中でも古い歴史を持つ五反田の東京映像センターをクローズし、竹芝メディアスタジオへその機能を移転した。1951年より前身である東洋現像所 五反田工場としてスタートしてから70年余りの歴史に幕を閉じ、新しい竹芝の地でのスタートとなっている。特に映画の関係者にとっては、聖地ともいえる「五反田のイマジカ」。その施設と設備が竹芝でどのように構築されたのか、弊社で導入のお手伝いをしたMAを中心にお伝えしたい。 五反田から竹芝の新拠点へ 様々な映像関連サービスを提供する株式会社IMAGICA GROUP。その中の株式会社IMAGICAエンタテインメントメディアサービスの本拠地とも言える五反田の東京映像センターの設備を新拠点となる竹芝メディアスタジオへ移転させることとなった。五反田の地では、前身の東洋現像所時代より日本の映画制作における中心地としてフィルムを主軸としたサービスが展開されており、その試写室はまさに日本映画のリファレンスとも言われてきた。 昨今のフィルムでの撮影需要の動向により、五反田ではすでにフィルム関連のポストプロダクションサービスを行っていなかったが、2部屋の試写室は初号上映の場として日々活躍してきた。移転にあたっても試写室の設備を作るということで物件の選定には大きな苦労があったということだ。やはり試写室を作るとなると、十分な天井高を確保できる建屋が必要であり、それ以外の編集、ダビング、MAなどの設備もとなると、移転先を探すだけで数年がかりのプロジェクトになったということだ。移転先が決まってからは、非常にスピード感を持って話しが進んだのだが、まさにコロナ禍に突入したタイミングからの移転作業開始となり、多くの苦労がここにはあったそうだ。 5.1chからDolby Atmos Homeまで、高まるニーズ 📷 3F:MA:303 本記事で中心的にお伝えする303と呼ばれるMA室は、4部屋設けられたMA室のうちの1つでDolby Atmos Homeの再生環境を備えた部屋となる。ほぼ同等のサイズの305は、将来的にDolby Atmosの導入が行えるように準備がなされた5.1chの部屋。304、306は、303や305と比べると少し小さいサイズだが、この2部屋も5.1chサラウンドを備えた部屋となっている。五反田時代も仕込み専用の部屋も含めると4部屋が実際にはあったが、お客様をお招きできる部屋は2部屋しかなかったそうだ。竹芝では304、306は基本的には仕込み作業を行う部屋としているが、お客様をお招きしても問題のない設備となるよう設計されている。また、五反田時代に来客対応ができる5.1chサラウンドの部屋は1室の体制であったが、竹芝では全室5.1chサラウンド対応としたことでかなり柔軟な運用を可能としている。 📷 303室の機器が収まった3本のラック。MacProが4台。それぞれの動機を取るためのSync X、そしてAudio I/OはMTRXが設置されている。Pro Toolsは3Setが導入されているがMTRXは1台とし、MTRXの内部で全てがルーティングされたシンプルなシステム構成となっている。奥のラックにはスピーカーを駆動するためのLab.Gruppen Cシリーズのアンプが収まる。 今回Dolby Atmos仕様の部屋が1室、5.1ch仕様の部屋が3室と、サラウンド仕様の部屋を増強した形になっている。ここには、IMAGICAエンタテインメントメディアサービスとしてサラウンド作品の受注が増加しているという背景がある。放送向けの作品はステレオ中心ではあるが、それ以外にストリーミング向けの作品を手掛ける機会が増えているということ。昨今、ストリーミング各社が製作するオリジナルコンテンツは、5.1ch以上のフォーマットでの制作がほとんどであり、5.1chサラウンドの需要は高い状況が続いているとのこと。実際に303の部屋の稼働は半数程度が5.1ch作品になっているそうだ。お話を聞いた時点ではまだDolby Atmosの作品制作は行っていないということだったが、近い将来に予定されているとのことなので、この部屋からDolby Atmos作品が誕生する日は遠くない。前述の通り、同等の広さを持った305室には天井にスピーカー設置の準備までが行われているため、Dolby Atmosの需要動向次第では2部屋に設備を増強することが容易に行える。303にはDolby Atmos Homeのマスタリングを行うことができるDolby HT-RMU(Home Theater - Rendereing and Mastering Unit)が導入されている。これにより、仕上げまでしっかりとした環境で行うことができる設備となっている。 また、竹芝メディアスタジオでは、予算の関係でダビングステージに入れない場合や、映画のプリミックス作業を受注することもあるそうだ。通常のMA設備よりも広く設計したことにより、五反田の時に比べて劇場との差異を軽減できている。試写室との連携も同じ建屋内で完結できるため、直し作業後の確認などもスムースに行うことができるのは一つメリットと言えるだろう。MA室で仕上げた作品を試写室でチェックし、直しがあればまたMA室に戻る、そんな連携での作業も可能となっている。サラウンド作業についてで見ると、MAとダビングではスクリーンバックのスピーカー、サラウンド側スピーカーのデフューズ・サラウンドという点で再生環境に大きな違いがあるが、これをその環境が備わった試写室との運用連携で解消している。同じ建屋内で効率的にリソースを活用している格好だ。 📷 ナレーション収録からアフレコへの対応も考えられた、大きな容積が確保されたブース。アフレコ時には横並びで4名が入れるように設計が行われている。余裕のある空間なので、カメラを入れての収録など様々な用途での活用も可能だ。 音と純粋に向き合う、隠されたスピーカー 303室のスピーカーにはプロセラ社のモデルを採用、ローボックスと組み合わせて3wayの仕様での導入となっている。このスピーカーは移転に際して新しく導入したものだ。五反田で使っていたMusik RL900Aに慣れたお客様にどのように受け入れられるか、当初不安な部分もあったということだが非常に好評を得られているとのこと。写真を見ていただければわかるように、スピーカーは全てサランネットの裏に設置されておりその姿は普段は見えない。そのため、スピーカーは何を使っているのか?という問い合わせを作業後に受けることが多いということだ。これは「いい音だったので何を使っているのかが知りたい」という評価を裏付ける好意的な質問と言えるだろう。 📷 フロントバッフルに埋め込まれたスピーカーはProcella Audio P8と同社のSubWoofer P15SIの組み合わせての3Way構成。この組み合わせで、5ch全て同一のモデルで平面のサラウンドが設置されている。LFE ch用にはProcella Audio P15が2本、L、Rchそれぞれの外側に設置されている。Dolby Atmos用の天井スピーカーはProcella Audio P8が4本設置されている。写真では分かりづらいが、しっかりとセンターに軸を向けてアングルを付けて天井に埋め込まれている。 なお、スピーカーを隠したのは、スピーカーと向き合って音を聴くのではなく、そこで鳴っている音を純粋に聴いてほしいという思いから、あえて見えないようにしているとのことだ。サラウンドサイドなどでスピーカーがサランネットに隠されている環境はよく目にするが、フロント面も全て隠されているというのは新鮮さを感じる。大型のスピーカーは確かにその存在感が大きい。隠すことで音に集中してもらうという発想は今後も各所で取り上げられそうな印象を受けた。 プロセラに組み合わされるアンプは、Lab.Gruppenが採用されている。LAKEプロセッサーによるスピーカーチューニングが行えるということもあるが、サウンドのキャラクターがシャープで立ち上がりの良いサウンドだということもMAの作業には向いているということだ。やはり、余裕を持ってスピーカーを駆動するということを考え、アンプは出力的に一回り大きな容量のモデルを選定したということだ。 シンプルさと柔軟性を両立させるS6 + MTRX 📷 32Fader仕様のAvid S6カスタム。机面に対してアームレストがフラットに収まるようにカスタムデザインのデスクが用意されている。PC DisplayはAdder DDXにより、どの画面からも任意のPCを操作することができるように設計されている。 コンソールは、Avid S6が採用されている。これまではSSL Avantが使われていたが、移転に際しAvid S6の導入となった。2マン〜3マン体制での作業が多いということで、レイアウト機能、スピル・フェーダー機能といったフェーダーの並び替えにおいてAvid S6が持つ高いカスタマイズ性に注目していただき導入となった。複数のDAWをまたいで制御が行えるAvid S6は、ハリウッドで鍛え上げられた複数のエンジニアが並んで作業をするということに対して、様々な機能を持って応えてくれる。フェーダーのみの列を作ったり、必要とされる部分に機器を備えカスタマイズされた仕様となっている。このような盤面の構成の柔軟性もAvid S6がモジュール構造だからこそ実現する美点。必要なモジュールを必要な箇所に設置してセットアップができるようになっている。 また、3人目のエンジニア用にAvid Artist Mixも用意されている。Avid S6での作業も可能だが、独立したコントローラーで自由に作業を行いたい際には、Artist Mixも使えるという作業に柔軟性を持たせるための導入となっている。Dolby Atmos用のJoystickは、好きな場所に持ってきて操作ができるように独立したボックスに納められた、ステレオ作業の際には卓の後ろに隠しておけるコンパクトなサイズのものだ。 📷 コンソール左側のアシスタントデスクには、ヘッドフォンモニター用のtc.electronics BMC-2、Grace Design m908のコントローラーVTRリモコンなどが並ぶ。ダバーを操作したり、Dolby Atmos RMUを操作したりといった作業はこちらのデスクで行うことが多い。 📷 コンソールの左側は、3人目のエンジニアが来た際にAvid S6と切り離して作業ができるよう、Avid Artist Mixが設置されている。併せて個別でのヘッドフォンモニターができるようにtc.electonics BMC-2がここにも用意されている。 システムのバックボーンはAvid MTRXが受け持っている。3台のPro Toolsが常設されているが、1台のAvid MTRXでそのシステムは完結している。モニターコントロール部分は、全MA室のシステムを極力統一したいということもありGrace Designのm908が導入された。Avid MTRXはDAWシステム間のシグナル・ルーティングを受け持ち、最終段のモニターコントロールはGrace Design m908という流れだ。機器の収まったマシンルームの写真をご覧いただければ感じられる通り、複数のDAWが含まれるシステムでありながらも、非常にシンプルかつコンパクトにそれらがまとまっていることがご理解いただけるだろう。 VTRは、HDCAM SR 2台がMA用として設置されている。納品物としてVTRを求められるケースはかなり減ってきているということだが、まだアーカイブ、バックアップとしてテープが欲しいと言われることも多いということだ。2台のVTRはVikixのVideo Routerで信号が切り替えられるようになっており、全てのMA室から共用で利用できるように設計されている。 集約された機能がメリットを生む ここ、竹芝メディアスタジオには大規模なサーバーシステムが導入され、MA室からもそのサーバーへ接続できるようになっている。基本的に持ち込まれるデータが多いということもあり、サーバー上での作業は行わず編集、試写室、QCとのデータの受け渡しで活用しているとのことだ。なお、編集〜MA〜QCというポスプロ作業一式での作業を受ける作品が多いため、サーバーを介してのデータの受け渡しはかなり頻繁に行われている。五反田時代は建屋が別棟だったこともあり、ワンストップで作業を請け負っていたとしても、編集にはお客様が立ち会うがMAはお任せ、というケースが多かったが、竹芝に来てからは、フロアを移動するだけということもあり、MAにもお客様が立ち会われる機会が増えているということ。これは移転で機能が集約されたことによって出現したメリットの一つだとのこと。 これらのシステムは、かなり多くの部分が五反田からの移設で賄われている。アウトボード類、VTR、DAW用のPCなど移設対象の機器は多岐にわたったのだが、昨今の事情もありつつ、移転に際して非常に苦労の多かったのが「稼働を損なうことなく移設をどのように進めるか」であったという。そのため、スタジオ自体のダウンタイムを最低限に留めつつ新社屋への移転を行うために段階的な引っ越しが行われた。全ての機器を新設で賄うことができれば良いのだが、なかなかそのようなわけにはいかない。竹芝で五反田の機材以外の部分を仕上げ、五反田のシステムから竹芝へ機材を移動し、動作確認を行って即時に稼働させる。そのような段取りが部屋ごとに組まれたそうだ。 竹芝メディアスタジオ-フロアガイド 7フロアに広がる、大規模なポスプロ設備。カラーグレーディング&編集、スクリーンを使ったカラーグレーディング、オフライン編集、メディアサーバー室など様々な設備が一つのビルの中に整っている。広々としたロビーや多くのミーティングスペースなども設けられており先進的な印象を与える空間も多いが、その中でもサウンドに関連する設備をダイジェストでご紹介したい。 ●1F:第1試写室 / 第2試写室 📷 1F:第1試写室 📷 1F:第2試写室 100席という中規模なシネコンスクリーンクラスの座席数を備えた第1試写室。4K DLPのプロジェクターと、35mmのフィルム上映が可能な設備を備える。スクリーンはスコープサイズで横幅8.4m。第2試写室は、Dolby Cinema (Dolby Vision + Dolby Atmos)の再生に対応した設備を備えた試写室。Dolby Cinema対応のカラーグレーディング室としても活用される、ハイスペックな試写室である。音響面もDolby Atmosへの対応とともにDTS:Xへも対応。最先端のテクノロジーが導入された51席の試写室である。 ●3F:ダビング 📷 3F:ダビング 📷 3F:ダビング 映画館で上映されるコンテンツのミキシングに対応したスクリーンと、デフューズサラウンド仕様のダビングルーム。主には劇場予告編のミキシングが行われている。スピーカーとアンプは試写室と同じメーカーの製品に揃えられ、サウンドキャラクターの差異が最低限になるように設計が行われている。同規模の設備が2室用意されている。 ●3F:MA 📷 3F:MA 4室が設けられているMA。全ての部屋が5.1chサラウンド対応である(うち1部屋はDolby Atmos Home対応)。ネットワークでの社内サーバーへの接続により、各編集室、試写室とのデータの連携もスムーズになっている。部屋ごとの設備を出来得る限り統一することで、エンジニアの機器操作に対する負担を軽くするとともに、部屋ごとのサウンドキャラクターの統一を図っている。 ●6F:QC 📷 6F:QC 作品が完成したあとのマスターデータのチェックを行う設備である。ハーディングチェックなどにとどまらず、映像の影の有無、カット、編集のミス、音声のノイズ、音量のばらつきなど、機械では判断できないような部分までも要望に応じてチェックが行われる。Dolby Atmos / 4K HDRに対応した部屋が2部屋、5.1ch対応の部屋が3部屋。合計5室のQCルームがある。 様々な苦労が、裏にはあった五反田から竹芝への大規模な移転。そしてそれに伴い行われた様々なチャレンジ。新しいシステム、部屋、音環境、まさにこれから新しい時代がスタートすることを感じさせる大規模な移転である。これから映画の聖地となっていくであろう試写室、Dolby Atmosをはじめ最新メディアに対応したMA、一つの時代の区切りをいま目の当たりにしている、そう感じさせるものであった。   *ProceedMagazine2022号より転載

Post

株式会社東京サウンド・プロダクション様 / 〜Avid S4 最大サイズの24フェーダーを誰もが扱いやすく〜

半世紀を超える歴史を持ち、企画・制作・撮影・編集・MA・効果選曲等と、映像に関わるすべてを「ワンストップ」で提供できる総合プロダクションとしての地位を築いている「東京サウンド・プロダクション(TSP)」。2019年の機材更新にあたりFairlight EVOに代えて、同社初の大型コントロールサーフェスとなるAvid S4を導入した『MA-405』について、同社ビデオセンター MA課 テクニカル・マネージャー / ミキシングエンジニアの大形省一氏と同 チーフミキシングエンジニアの川﨑徹氏にお話を伺った。 積極的に取り入れられるテクノロジー テレビ朝日グループの一員である株式会社東京サウンド・プロダクション(以下、「TSP」)は、1963年に放送局における「音響効果集団」からスタートしている。今や、映像に関わるすべてをワンストップで提供できる総合プロダクションとなった同社だが、2017年には同じグループ企業である株式会社ビデオ・パック・ニッポンと合併し、放送技術に関わる分野、コンテンツ制作、販売という分野にも事業活動を広げている。テレビ朝日系列のものだけでも、地上波、BS、CS、YouTubeなどのコンテンツ制作を請け負っており、また、他局の番組制作や企業PV、自社制作コンテンツなど、さまざまなクライアントからの期待にまさに「ワンストップ」で応え続けている。 TSPのもうひとつの大きな特徴は、最新のテクノロジー / ソリューションに果敢にチャレンジし、それらを積極的に取り入れていこうという強い気概であるという。西麻布・六本木周辺に3拠点を構える同社だが、すべての拠点にAvid NEXISもしくはISISが導入されてネットワークサーバーで繋がっており、どの拠点のどのスタジオからでも任意のデータにアクセスできるだけの環境を整えているとのこと。拠点間を跨いでの制作であっても、データを入れたHDDを持ち歩くようなことはまずないようだ。最近も、コロナ禍という状況の中でクライアントの安全とスムーズな制作を両立するべく、異なるスタジオ間で遅延なくCue出しや収録が可能になるようなシステムを開発中とのこと。若手の層が厚いピラミッド型のスタッフ構成も、こうした姿勢を推進している様子だ。 そんなTSPの旗艦スタジオとも言える『MA-405』には、2021年の更新を機にAvid S4が導入されている。同社初となる大型コントロール・サーフェスの導入に至った経緯と、約半年間の使用感などを伺った。 コンソールミックスからDAWミックスへ 株式会社東京サウンド・プロダクション ビデオセンター MA課 テクニカル・マネージャー / ミキシングエンジニア 大形省一氏 株式会社東京サウンド・プロダクション ビデオセンター MA課 チーフミキシングエンジニア 川﨑徹氏 RockoN(以下、R):『MA-405』は以前はFairlight EVOを使用していたというお話でしたが、これまでのMA機材の変遷を伺えますか? 川﨑:『MA-405』はビデオ・パック・ニッポンの方で運営していたスタジオだったんですが、移設時点ではFairlight EVOのシステムで動いてました。メインのツールとしてはFairlightの稼働率が高く、Pro Toolsはサブ機という状態が長かったです。『MA-405』に関しては一体型のEVOだったので話が別ですが、基本的にはDAW + コンソールというシステムがメインでした。 R:3拠点で9部屋とのことですが、ほかの部屋でコンソールはどんなものをお使いなのでしょうか。 川﨑:SSLが中心で、C300、C200、 現在はC10HDが一番多いです。また、Avid S5 Fusionが入っているMA室も2部屋あります。 大形:Fairlightもまだあるので使えるといえば使えるのですが、現在はメインDAWはすべてPro Toolsです。 川﨑:2017年の合併くらいのタイミングから、「極力Pro Toolsに移行しましょう」という方針で。5年くらいかけて移行しまして、いまはもうほぼPro Toolsです。 R:Pro Tools + SSL というシステムが多いのでしょうか?引き続きミックスはSSLで? 川﨑:ミックスはPro Toolsの中でやってしまうことが多いですね。コンソールはHUI コントローラーとしての側面が大きいです。FairlightとPro Toolsを両方使っていたという状況もありまして、FairlightのみのEVOのようなシステムですと2台をうまく使うことが難しい部分が出てきました。FairlightとPro Tools両方を使う上で、DAWはDAW、コンソールはコンソールで、と切り分けて使うようなシステムで今まではやってきました。 テープ時代の終わりとPro Toolsへの移行 R:おふたりはFairlight歴は長かったんでしょうか? 大形:はい。Fairlightはやっぱり映像系のワークには強かったですね。今でこそ納品物がデータになってきていますが、昔は絶対テープでしたので。テープ・コントロールはやはりFairlightが強かった。Pro Toolsも9pinコントロールはありますけど、Fairlightの操作性に比べると若干劣るところがあったのは否めないですね。 川﨑:ただ、移行に関してはそれほど難しくなかったと思います。序盤こそ、編集の感じが違うとか手癖でうまく動かないとかありましたけど、同じDAW同士、似た点を見つけたりしながらうまく移行できたと思います。 R:合併前からEVOが稼働していた『MA-405』ですが、今回 Avid S4に更新したきっかけはどのようなものだったのでしょうか? 川﨑:EVO自体はまだまだ稼働できたんですが、サポートが終了すること、『MA-405』以外の部屋がPro Tools + SSLのためこの部屋だけが孤立してしまうのを避けたかった、というところが大きいです。合併前のTSPからいた者などはすでにPro Toolsに完全に移行していたので、そういう人たちが使いづらいという状況になってしまうので。 R:入れ替えに当たっては色々と候補を上げて悩まれたのでしょうか?最初からAvidのサーフェスを念頭に置いていましたか? 川﨑:ほかのMAの部屋はSSL C10HD + Pro Toolsが多いので、合わせて同じようなシステムにするという案もありましたが、部屋のサイズ感やシステムを鑑みて、SSLとはまた別のものを導入する余地があるのではないかということが話に挙がりました。『MA-405』は当社のスタジオの中でも上ふたつに当たる大きな部屋なんです。そのため、フラッグシップとしてメインを張れるスタジオにしたい、という気持ちがありました。当社として新しいソリューションにチャレンジするという意味でも、ほかの部屋と同じコンソールではなく、大型コントロールサーフェスの導入に踏み切ってもよいのではないか、という意見が多く上がっていたんです。 📷 MA-405はTSPの持つMAスタジオの中でも「上ふたつ」に入る大きさを持ったメインのスタジオ。今回の更新でFairlight メインDAWもFairlightからPro Toolsへ完全移行した形だ。 使用感にこだわった構成 R:『MA-405』のAvid S4は24フェーダー / 5 フィートという、S4としては最大のサイズです。やはり、あの規模のフェーダーやコントローラーは必要ですか? 川崎:はい。ドラマとか映画のコンテンツでは、複数人が横並びでフェーダーを握ります。その時に小さいものをいくつも並べるよりは、コンソールと同じサイズのもの1台で作業ができるようにした方がよいという判断です。また、Avid S4はモジュール構成ということもあり、24フェーダー(チャンネルストリップ・モジュール x3)あれば、どこかのモジュールに不具合があっても位置を入れ替えれるだけで作業が続行できるというメリットも考えてこの構成になりました。 R:Avid S4はディスプレイモジュールにも対応していますが、今回導入されなかったのは理由がありますか? 川崎:興味はあったのですが、DAWの作業画面を正面に出したかったのでディスプレイモジュールは省きました。マスターモジュールが右に寄っているのも同じ理由です。もちろんマスターモジュールでも操作することはありますが、慣れ親しんだワークフローとしてはキーボードでの操作がメインになりますので。 R:デスクは川崎さん設計・日本音響制作の特注品ですよね。 川崎:そうですね、細かなところですが右手のスペースに半円状の出っ張りを作って、キーボードとマウスを置けるようにしてもらいました。フェーダーの手前にキーボードを置けるスペースはほしいんですが、そこがあまり長いとミックスをする時に手が浮いてしまうということもあるので。デスクの高さについては、私自身が体格のいい方なので、女性や小柄なスタッフに聞き取りしつつ調整しました。ぼくの好みが入っちゃってるとは思うんですけど(笑)、今までのEVOやほかの部屋のC10HDとあまり変わらないようにしてもらいました。 📷 特注デスクに乗せられたAvid S4。メンテナンス性などを考慮して、埋め込みではなくデスク上に置くという選択がなされている。ブランク部分にはTritech製のモニターコントローラーが埋め込まれていて、YAMAHA MRX7-Dのを制御している。これも、外部のミキサーが一目でわかるような物理的なスイッチを配したいという配慮からの選択となっている。 R:Pro Tools システムは、メインがHDX x2 + HD I/O、サブがHDX x1 HD I/Oとなっています。映像再生には何を使用されているのでしょうか。 大形:Non-Lethal Applications Video Sync 5 Proです。 川崎:Video SatelliteでMedia Composerを走らせて、というのも考えたんですけれど、現状、MAワークで4K素材はあまり扱わないのでそこまでやるのは時期尚早かな、と。動作の安定性やTCカウンターのことを考えてVideo Syncにしました。 大形:キャラは絶対に乗せなきゃならないので、そうするとやはりVideo Syncの使い勝手がいいんです。Vidoe Slave 4 Proの頃から便利に使っていましたが、バージョンアップとシステムの更新もあって、以前はたまにあったフレームの飛び込みなどもまったくなくなりスムーズに使用できています。 R:工事完了が2021年9月ですが、これまでS4を使用されて使い勝手はいかがですか? 川崎:ほかの部屋はコンソールとPro Toolsの組み合わせということで、どうしても卓のセッティングをして、DAWのセッティングをして、という2アクションになっちゃうんです。その点、Pro Tools + S4だとセッションを開くだけでセッティングが完了するのは便利です。その分、ミキサーとアシスタントの準備作業もスムーズにいきますし、拠点間を跨いで作業する時もデータひとつですべて完結するので、正直、ほかのスタジオも同じようにしてほしいと希望が上がるくらいですね(笑)あとは、レイアウトの変更などが気軽に行えるというところが、些細なことのようですが作業の中でのストレスがなくなってとてもいいです。 大形:フェーダーが、S5 FusionやPro Tools | S3と比べても滑らかでいいです。ぼくのようなアナログ世代にはエンコーダーも便利ですね。プラグインの操作が直感的にできる。若い人だと、数字で入力しちゃうという人もいるんですけど(笑)、ナレ録りの時などすぐに反応しなきゃいけない時にはエンコーダーが便利です。 川崎:頻繁に使うわけではないんですが、思いつきで手が伸びるところに物理的なスイッチがあるというのは大きいですね。 R:『MA-405』はステレオメインのお部屋ですが、更新にあたってDolby Atmosなどのイマーシブへの対応などは話にあがりましたでしょうか。 川崎:やっぱり話には出ましたね。ただ、今回のS4が大型サーフェスの初めての導入ということもあってシンプルなシステムでいきたいということと、できるだけ稼働を止める期間を短くしたいというのもあって、今回はそちらを優先することになりました。 大形:イマーシブ自体は社内で常に議題にあがります。私たちとしても、そうした先進的な技術にチャレンジしていきたいという思いもあります。タイミングを見計らって、天井高やその他の要素も含めて万全の準備をした上で、ぜひ取り組みたいですね。 📷 建物内の各アナブースとスタジオはDanteで繋がっている。ふたつ以上のアナブースを跨いだ掛け合い収録なども可能だ。 今回取材した『MA-405』は同社の旗艦MAスタジオということもあり、Avid S4だけでなく、その他の機器も「誰が使っても使いやすいように」「外部のミキサーにもわかりやすいように」という配慮が細部に至るまでなされていることが非常に印象的だった。放送業界に深く根ざし、質実剛健でありながらも最新のテクノロジーを積極的に取り入れていこうという若々しい意欲に溢れた同社の 今後の動向に要注目だ。   *ProceedMagazine2022号より転載

Post

専門学校ESPエンタテインメント大阪様 〜アナログ・コンソールはオーディオの基礎基本を体現する〜

以前にも一度、本誌で取り上げさせていただいた専門学校ESPエンタテインメント大阪。前回は2年次に使用する実習室へのAvid S6導入事例であったが、今回は1年次の実習で使われている実習室にて行われたSSL AWS924導入の様子をレポートしたい。 デジタルとアナログ、両方のコンソールでのカリキュラム 専門学校ESPエンタテイメント大阪は、大阪駅の北側、周りには楽器店なども多い御堂筋線 中津駅至近にある。地上11階建ての本館と地上5階建ての1号館を有しており、音楽アーティスト科や声優芸能科、そして今回AWSを導入された音楽芸能スタッフ科が設けられている。その音楽芸能スタッフ科には2つのコースがあり、PA&レコーディング、レコーディング&MAという2つのコースが設置されている。この2つのコースはともに1年次に今回AWS924が導入された録音実習室を使い、楽器を一つ一つレコーディング、オーバーダブし、1年掛けて1つの楽曲を録音するという授業を行っているとのこと。それぞれの楽器の特性、特徴、マイキングなどをしっかりと実践をもって学べるカリキュラムだということだ。 今回導入されたAWS924はAWS900からのリプレイスとなる。ご存知のようにAWS900の後継機がAWS924であり、これまでの実績や学内に積み重ねられたノウハウも継承できる選択となった。この決定にあたっては、福岡校への導入実績があるNEVE Genesys Blackなど他のアナログコンソールも候補には挙がったそうだが、そんな中でも従来を踏襲したと言えるSSL AWS924が選択されたのには理由がある。 ミキシング・コンソールを1から学ばなければならない1年次に、シグナルの流れやプロセスなどが具体的にわかりやすいアナログコンソールで学ぶということは、生徒にとっても、教える側にとってもメリットが大きい。そして大阪校には実習室が2室あり、もう一つの部屋はすでにAvid S6というDAWを中核としたコンソールが導入されている。そこで、複雑なデジタルでのルーティングなどは2年次にもう一つのAvid S6で学ぶこととし、1年次はアナログコンソールでの授業を行うこととする。そう考えると、従来の機種をキャリーオーバーするような選択であることの方がメリットが大きかったということだ。もちろんデジタルとアナログ、両方のコンソールに触れられるということもメリットとなる。 📷 今回新たに導入されたAWS924は特注デスクに収められている。このデスクはこれまでのAWS900時代からの流用でありながらも、新たに仕上げたかのようなピッタリの収まりである。 写真で見てとれるように今回の更新でリプレイスされたのはSSL AWS924の本体のみとなり、それ以外は更新されていないのだが、引き継がれたデスクはまるでAWS924専用に用意されたかのようにフィットしている。AWS900、AWS924ともにカタログ上のサイズは同じだが、以前のAWS900よりもピッタリとデスク内に収まったと、驚かれていた。ドラムのマルチマイクでの収録にも対応する24chのコンソールは、授業内容にもまさにジャストフィットしているということだ。1年次の実習ということもあってなかなかそこまで使うことはないようだが、AWS924に更新したことでミキシング・コンソール側でのオートメーションも使えるようになった。DAW内でのオートメーションが当たり前だからこそ、このような機能が使えるアナログコンソールに触れる機会は価値があることではないだろうか。 📷 デスクの左には、マイクプリTUBE-TECH MP1A、VINTECH AUDIO DUAL72、そしてオーディオパッチが収まっている。右側にはDBX 160A、Universal Audio 1176LN、Drawmer 1960、NEVE 33609が収まる。専門学校らしく定番と呼ばれる機器が取り揃えられている形だ。 新たなるニューノーマルな傾向? コロナ禍で実施にも配慮が必要となっている実習授業についてだが、コンサート系コースなどは実際のコンサート・イベントにキャンセルが続いて難しい局面があったものの、音楽芸能スタッフ科ではオンラインでできる授業はそちらにシフトし、実習でしか教えることができない内容のものはこの2年間も学校内で行ったということだ。なお、この部屋を使う2つのコース、PA&レコーディング、レコーディング&MAは、例年であればPA&レコーディングコースのほうが入学者数が多いそうだが、今年の新入生から初めて入学者数が逆転し、MAコースの人数が多くなったということ。これは入学してくる生徒がコンサート、ライブを体験することがほとんどなかったからではないか?ということだ。実際にコンサートに行き、そのスタッフに憧れる。そういった体験がなかなか叶わない一方で、MA映像付きの音響を画面越しに体験をすることでMAに興味を持つ。これも新たなるニューノーマルな傾向なのか興味深いところだ。 また、YouTubeなど配信のサウンド、音響効果に興味を持って入学していくる生徒は年々増加しているという。ここでしっかりとした教育を受けた若者たちが、新たなステージでエンタテイメントの形を作っていく。MAといえばテレビ業界という考え方は、もはやステレオタイプなのかもしれない。そんな未来を感じさせられた。 📷 以前に本誌でも取り上げた 2 年次の実習で使われている Avid S6 を導入したスタジオ。現場での導入実績の高いAvid S6を使っての実習は即戦力育成に直結する。フルアナログの実習室と合わせて、幅広いシステム構成のスタジオでの実習を行うことができる環境が整えられている。 まさに順当とも言える後継機種への更新。改めてあえて変えないことの意味、アナログの大切さ、そういったことを考えさせられた。カルチャー、エンターテイメントは日進月歩で進化を続けている。しかし学びの環境の中での一歩目には、オーディオの基礎基本を体現するアナログ・コンソールがある。やはりこれは大きな価値のあることなのではないだろうか。 専門学校ESPエンタテイメント大阪 音楽芸能スタッフ科 松井 英己先生   *ProceedMagazine2022号より転載

Education

株式会社CBCテレビ様 / 〜革新が従来の文化、ワークフロー、使い勝手と共存する〜

日本初の民間放送局として長い歴史を持つ株式会社CBCテレビ。1951年にわが国初の民間放送としてラジオ放送を開始し、1956年からはテレビ放送をスタートさせている。そのテレビ放送スタートとともに竣工し、幾多に渡る歴史の息吹を現代につなげているCBC会館(通称:本館)のリニューアルに伴い、館内にあるMAスタジオ改装工事のお手伝いをさせていただいた。 完全ファイルベース+イマーシブ対応 数多くの独自番組制作、全国ネット番組を抱えフル稼働を続けるCBCの制作セクション。3年前には新館に第3MA室を開設、同時に仕込み作業用のオープンMAを8ブース、さらにファイルベースワークフローを見越した共有サーバーの導入と、制作環境において大きな変革を行った。その当時は、本館を建て替えるのか?リニューアルするのか?という議論の決着がついていない時期であり、本館にある第1MA、第2MAに関しては最低限の更新にとどめていた。今回は、リニューアルの決まった本館で、将来に渡り第1MA、第2MAを活用すべく大規模なシステムの入れ替えが実施された。 📷 第1MA室 📷 第2MA室 📷 第3MA室 まずは、非常に大きな更新内容となった第1MAを見ていきたい。もともと、このスタジオにあったメインコンソールはSTUDER VISTA 7であったが、今回の更新ではミキサーをなくし、完全なファイルベースのシステムアップとするとともに、将来を見越したイマーシブ・オーディオの制作環境を導入した。基本のシステムは、前回の第3MA開設時と同等のシステムとし、実作業を行うスタッフの習熟への負荷を最低限としている。そこに、イマーシブ制作のためのシステムを加えていく、というのが基本路線である。 第3MAでの基本システムは、Avid Pro Tools HDXシステムとAvid MTRXの組み合わせ。すでに業界標準といっても良いこれらの製品にコントローラーとしてAvid S3を組み合わせている。モニターコントローラーとしてはTAC system VMC-102が採用されているが、スタンドアローンでのシステム運用を考えた際には、やはりこのVMC-102は外せない。Avid MTRXも、多機能なモニターコントロールを実現しているが、PC上でDADmanアプリケーションが起動していないと動作をしないという制約がある。この制約のために、他の事例ではDADmanを起動するためだけに電源を落とさずに運用するPCを1台加えたりといった工夫を行っているのが現状だ。VMC-102の場合、これが起動さえしていればモニターセクションは生きる。これはPCレスでのモニターコントロールができるという価値ある違いにつながっている。 第1MAも、システムの根幹となるこのAvid Pro Tools HDX、Avid MTRX、TAC system VMC-102という構成は同様だ。違いとしては、多チャンネルに対応したAD/DAとしてDirectOut Technologies PRODIGY.MCの採用、そして、イマーシブ・サウンド作りの心臓部としてDolby RMUが加わったということだ。モニターセクションのVMC-102は、Dolby Atmosのモニターコントロールも問題なくこなすことができる製品である。実際にシステムを組もうとすると直面する多チャンネルスピーカーの一括制御。これに対応できる数少ない製品の一つでもある。 📷 第1MAのデスク上はシンプルに纏められている。センターにAvid S3、PC Displayの裏にはVU計がある。右手側にはVMC-102があり、その奥には収録時のフェーダーとしても活用されるSSL SiXがある。SiXの1-2chにMic Preが接続され、InsertにTUBE-TECH LCA2Bがスタンバイ。ステレオフェーダーにはCDとMacProのLine Outが接続されている。 しっかりとしたイマーシブ・サウンドを制作するためにスピーカーはPSIで統一。サウンドキャラクターのばらつきを最小限に、繋がりの良いサウンドを実現している。CBCでは以前よりPSIのスピーカーを使用しており、他のスタジオとのサウンドキャラクターの統一を図ったという側面もある。作業量が一番多いステレオ作業のためのL,RchにはPSI A25-Mを導入し3-Wayの充実したサウンドでの作業を実現。サラウンドにはA17-MとA14-Mを採用している。改装での天井スピーカー設置となったためにここだけはひとサイズ小さなモデルとなるが、できる限りサイズのあるスピーカーを導入したということになる。 📷 上段)ステレオL,Rchに備えられた3WayのPSI A25-M。下段)サラウンドサイドのスピーカーとなるA14-M。特注の金具で取り付けられ、壁面を少しくぼませることでスピーカーの飛び出しを抑える工夫が見て取れる。天井のスピーカーも特注金具により角度の調整などAtmos環境に合わせた設置が可能となっている。 サウンドキャラクターに大きく影響するAD/DAコンバーター部分は、前述もしたDirectOut Technologies PRODIGY.MCを導入している。安定した評価を得ていた同社ANDIAMOの後継となるモジュール式の多機能なコンバーター。モジュール式で将来の拡張性も担保されたこのシステムは、今後の様々な展望を検討されているCBCにとってベストなチョイスとなるのではないかと感じている。IPベースでの室間回線がすぐそこまで来ている今だからこそ、どのような企画にも柔軟に対応できる製品を選択することは、導入検討におけるポイントとなるのではないだろうか。 📷 ラック上部に組み込まれたDirectOut Technologies PRODIGY.MC イマーシブ対応のセットアップ イマーシブ・サウンドに関してのシステムアップは、Avid MTRXとMADIで接続されるDolby RMUという構成。MADIでの接続のメリットは、Dolby Atmosの最大チャンネル数である128chをフルに使い切ることができるという点。Dante接続の構成も作ることはできるがDanteの場合には128ch目にLTCを流す関係から127chまでのチャンネル数となってしまう。フルスペックを求めるのであればMADIとなるということだ。 Windowsで構築されたDolby RMUの出力はVMC-102を通してスピーカーへと接続される。各スピーカーのレベル、ディレイ、EQの補正はAvid MTRXのSPQ moduleで行っている。すでにこれまでの事例紹介でも登場しているこのAvid MTRX SPQ moduleは、非常にパワフルな補正エンジンである。各チャンネルへのレベル、ディレイはもちろん、最大16band-EQも使えるプロセッサーモジュールである。また、Dolby RMUのバイノーラルアウトは、SSL SiXのEXT INへ接続されており、常にヘッドフォンアウトからバイノーラル出力を聴くことができるようになっている。SSL SiXへのセンドは、通常はPro Toolsのステレオアウトが接続されているが、VMC-102の制御によりRMUのバイノーラル出力とボタンひとつで切り替えられるようにしている。バイノーラルで視聴されることが多いと予想されるDolby Atmos。このようにすぐにバイノーラルアウトの確認をできるようにしておくことは効率的で重要なポイントだ。 📷 最下部には各スピーカーのレベル、ディレイ、EQの補正を行うSPQ moduleが組み込まれたAvid MTRXが見える。 放送局が蓄積したリソースをイマーシブへ そもそも放送局にイマーシブ、Dolby Atmosは必要なのか?という問いかけもあるかもしれないが、すでに放送局ではネット配信など多角的なコンテンツの送出を始めている。YouTubeなど、ネット上の動画コンテンツは増え続け、Netflix、Huluなどのオンデマンドサービスが一般化してきているいま、放送局として電波という従来のメディアだけに固執するのではなく、新しい取り組みにチャレンジを始めるというのは自然な流れと感じる。もともと、放送局にはこれまでに積み重ねてきた多くのコンテンツ制作のノウハウ、人材、機材がすべて揃っている。数万再生でもてはやされるユーチューバーと違い、毎日数千万人のリアルタイム同時視聴者を抱えたメディアで戦ってきた実績がある。このノウハウを活かし、これからのコンテンツ制作のために様々な取り組みを行う必要がある。ネットならではの音響技術としてのイマーシブ。特に昨今大きな注目を集めているバイノーラル技術は、いち早く取り組む必要があるという考えだ。バイノーラルであれば電波にも乗せることができる。そして、ネットでの動画視聴者の多くがヘッドフォンや、イヤフォンで視聴をしていることを考えると、そのままの環境で楽しむことができる新しい技術ということも言える。 コンテンツ制作のノウハウ、技術。これまでに積み上げてきたものを発揮すれば内容的には間違いのないものが作れる。そこへ更なる魅力を与えるためにイマーシブ、バイノーラルといった最新の楽しみを加える。これがすぐにできるのは放送局が持ち得たパワーならではのことではないだろうか。技術、テクノロジーだけではなく、コンテンツの中身も伴ってはじめて魅力的なものになるということに異論はないはずだ。スポーツ中継における会場のサウンドのほか、音楽番組など様々なところでの活用が期待される。さらに言えば、その後の番組販売などの際にも付加価値が高まったコンテンツとして扱われることになるだろう。日々の業務に忙殺される中でも、このようなに新しいことへ目を向ける視野の余裕。それこそが次の時代につながるのではないかと、色々とお話を伺う中で強く感じた。 各スタジオ間にはIP伝送網が整備 他のMA室のシステムもご紹介したい。第2MAは、非常にシンプルなシステムアップだ。Avid Pro Tools HDXのシステムにAvid MTRXをI/Oとし、コントローラーにAvid S1、モニターコントローラーにはSPL MTCが採用されている。スピーカーはサウンドキャラクターを統一するためにPSI A17-Mが選ばれた。なお、第1MAの設備からはなくなっているものがある。VTRデッキを廃止し、完全なファイルベースのワークフローへと変貌を遂げている第1MA、VTRがないためにシステム自体もシンプルとなり、これまで設置されていたDigital Consol YAMAHA DM1000などがなくなり、機器類を収めていたラックも廃止されスッキリとしたレイアウトとなった。これは音響面、作業環境としても有利なことは言うまでもないだろう。 📷 第2MAのデスクは今回の更新に合わせて特注された。足元左右にラックが設けられ、左側はファンノイズが考えられる製品が納められ、蓋ができるように対策がなされている。デスク上にはAvid S1、SPL MTC、Umbrella Company Fader ControlがCDの収録用に用意されている。 3年前に更新された第3MAは、新館に新設の部屋として防音室工事からのシステム導入を行った。システムとしてはAvid Pro Tools HDX、Avid MTRX,Avid S3、TAC system VMC-102というコア・コンポーネントを用い、スピーカーにはNESが導入された。 📷 3年前に新設された第3MAがこちら。デスク上には、Avid S3、Avid Dock、VMC-102が並んでおり、第1MAとの共通部分を感じさせるセットアップとなっている。デスクは第2MAと同様に足元にラックスペースが設けられ、左側は蓋付きと同様の仕様になっている。また、I/OとしてAvid MTRXが導入されている。下段右は第3MAのブース。デスクの右にSTUDER Microが見える。これがリモートマイクプリ兼シグナルルーターとして活躍している。これにより、Open MA1,2からもこのブースを共有することができるようにセットアップされている。ブース内にも小型のラックがあり、そこにSTUDER Microの本体が収められている。 この際にポイントとなったのは、同時にシステムアップされたオープンMAと呼ばれる作業スペース。オープンMAは第3MAのすぐそばの隣り合うスペースに設置されている。高いパーテションで区切られた8つのブースにApple iMacでシステムアップが行われた。このオープンMAの2区画は、第3MAのブースを共有し、ナレーション収録ができるようにシステムが組まれ、STUDER MICROがリモートマイクプリとして導入されている。本来は、ラジオオンエア用のコンソールであるこの製品をリモートマイクプリ兼、シグナルルーターとして使っているわけだ。なお、デジタル・コンソールとなるためシグナルルーティングは自由自在である。 また、オープンMAにはAudio InterfaceとしてFocusrite RED 4 PREが導入された。これは将来のDante導入を見越した先行導入という側面もある。Native環境でもHD環境でも同一のInterfaceを使えるというのもこの製品が採用された理由の一つ。不具合時の入れ替えなどを考えると、同一機種で揃えることのメリットが大きいのは言うまでもないだろう。作業データはGBlabs FastNASで共有され、席を変わってもすぐに作業の続きが行える環境となっている。FastNASの音声データのネットワークは各サブへも接続され、音効席のPCへと接続されている。生放送枠の多いCBC、これらのシステムはフルに活用されているということだ。 📷 背の高いパーテションで区切られたこのスペースが、Open MAである。8席が準備され1,2は第3MAのブースを共有しナレーション収録に対応、ブースの様子は小型のLEDで見えるようになっている。それ以外の3~8も基本的なシステムは同等。すべてのブース共通でiMacにセカンドディスプレイが接続され、Audio I/OとしてFocusrite Red 4 Preが採用されている。この機種はDanteでの各所の接続を見越してのものである。 そして、前回の更新時に導入されたGBlabs FastNASへの接続はもちろん、本館のリニューアルに伴い各スタジオ間にはIP伝送網が整備された。このネットワークには、Danteが流れる予定である。取材時には事前工事までではあったが、各スタジオにはDanteの機器が導入され始めているとのこと。本館内の第7スタジオは今回のリニューアルでDanteをバックボーンとするSSL System-Tが導入されたということだ。そのままでも運用は可能だが、各スタジオにDante機器が多数導入され始めると回線の切り替えなどが煩雑になってしまう。それを回避するためにDante Domein Manager=DDMによるセットアップが行われるわけだが、このDDMは各スタジオをドメイン分けして個別に管理し、相互に接続を可能とする回線を絞ることができる。これは室間の回線を設定しておくことにより運用を行いやすくすることにつながっている。 もちろん、他の部屋のパッチを他所から設定変更してしまうといった事故防止にもなる。データの共有だけではなく、回線もIPで共有することによる運用の柔軟性が考えられているということになる。生放送を行っているスタジオの回線を他のスタジオで受け取ることもできるため、実際のオンエアの音声を他のスタジオで受けて、トレーニングのためのミックスを行うなど、これまでではなかなかできなかった運用が実際にテストケースも兼ねて行われているということだ。今後は、中継の受けやスタジオをまたいでのオンエアなど、様々な活用が期待されるシステムアップとなっている。これはサブだけではなくMA室も加わっているために、運用の柔軟性はかなり高いものとなる。 伝統ある放送局の文化にこれから先の放送局のあり方を重ね合わせた、これが現実のものとなっているのが今回のケースではないだろうか。バイノーラルを使ったコンテンツの新しい楽しみ方の提供。ファイルベースだけではなく、放送局の強みでもあるリアルタイムでの制作環境の強化、柔軟性の獲得。さまざまな新しい取り組みが従来のワークフロー、使い勝手と共存している。今後の放送局のシステムのあり方の一つの形がここに完成したのではないだろうか。 📷 株式会社CBCテレビ 技術局 放送技術部 名畑輝彦 氏   *ProceedMagazine2021-22号より転載

Broadcast

山麓丸スタジオ様 / 〜日本初、360 Reality Audioに特化したプロダクションスタジオ〜

360度全周(4π)に音を配置できるSONY の360 Reality Audio。その制作に特化したスタジオとして作られたのが株式会社ラダ・プロダクションによって設立されたこちらの山麓丸スタジオだ。国内ではソニー・ミュージックスタジオ、ソニーPCLスタジオに続いて3スタジオ目、「360 Reality Audio」専用スタジオとしては初となるという。今回はこちらのスタジオのPro Toolsシステム周りについて導入をさせていただいた。360 Reality Audio制作にはどのようなシステムが必要なのか。制作ワークフローを含め貴重なお話を伺った。 360 Reality Audio作品の専用スタジオを 株式会社ラダ・プロダクション様はCM音楽制作をメインに手がけている音楽制作会社だ。CM以外にも音に関わる企画やプロデュースなど様々な事業をされている会社なのだが、展示や開発系に関わる仕事も増えていく中でソニーと出会ったという。その後、ソニーが開発した波面合成アルゴリズムであるSonic Surf VRのスピーカー開発にも関わり、その時から立体音響に深く関わっていくことになったそうだ。その後、CES 2019で「360 Reality Audio」が発表され、その後ソニーと連携しつつ360 Reality Audio作品制作を手がけるような形になり、スタジオを作るまでに至ったということだ。現在では過去の楽曲の360RA化というものを多く進めているそうだ。広告の仕事を数多く行っているラダ・プロダクションでは展示での立体音響など、360 Reality Audioにとどまらない立体音響の提案を多くしているというお話も伺えた。 全15台のスピーカーをマネジメント 📷 スタジオ正面全景からは、Avid S1やAvid MTRXをコントロールするMOM Baseなど、操作系デバイスをスタンド設置にしてサイドに置き、リスニング環境との干渉へ配慮していることが見て取れる。ラック左列にはAvid MTRX / MTRX Studio、FerroFish / Pulse 16DXが収められ、右列にはヴィンテージアウトボードの数々がまとめられている。 360 Reality Audio制作に使用される360RACS(Reality Audio Creative Suite) 通称:ラックスはDAW上で立ち上げて使用するプラグインだ。ミックスをしているProTools 上で360RACSをインサートして使用することになるのだが、やはりトラック数が多くなったりプラグイン負荷が多くなると1台のマシン内で処理することが厳しくなるかもしれない。そこで、山麓丸スタジオでは大規模なセッションを見越してPro Toolsのミキシングマシン、360RACSを立ち上げるマシンを分けて制作することも想定したシステムアップとなっている。最大で128chのやりとりが必要となるため、Pro ToolsミキシングマシンはHDX2。360RACSについてもPro Tools上で動作させるためにこちらもHDX2を用意。その2台をAvid MTRX1台に接続し、音声をやりとりする形を取っている。 モニタースピーカーはGENELEC / 8331APが13台と7360AP 2台の構成になっている。8331APについてはミドルレイヤー、アッパーレイヤーがともに5ch。ボトムレイヤーが3ch。合計13chという構成だ。モニターのルーティングだが、まず360RACSマシンのHDXからのoutがDigiLink経由でMTRXへ。MTRXからDanteネットワーク上のFerroFish / Pulse 16DXへと信号が渡され、そこでDAがなされてスピーカーへと接続されている。ベースマネージメントを行うためにまず2台の7360APへ信号が送られ、その先に各スピーカーが接続されている形となる。スピーカーの調整についてはGENELECのGLMにて補正が行われている。マルチチャンネルのシステムの場合、GLMは強力な補正ツールとなるため、導入の際にはGENELECのスピーカーがチョイスされる確率が非常に高いのが現状だ。モニターコントロールについてはDADManで行われおり、フィジカルコントローラーのMOM Baseも導入していただいた。柔軟にセットアップできるDaDManでのモニターコントロールは大変ご好評をいただいている。 リスニング環境を損なわないレイアウト 前述のように360 Reality Audioは全周に音を配置できるフォーマットだ。スピーカーでモニターする場合は下方向にもスピーカーが必要なことになる。実際のスタジオ写真でスピーカーレイアウトはある程度把握できるかもしれないが、ここでどのようなレイアウトになっているかご紹介させていただきたい。 スピーカー13本の配置は耳の高さのMidレイヤーが5ch、上方のUpperレイヤーが5ch、下方のBottomレイヤーが3chという構成となる。Mid、UpperともにL,Rはセンタースピーカーから30°の角度、Ls,Rsは110°の角度が推奨されている。BottomレイヤーはL,C,Rの3本。こちらもセンタースピーカーから30°の位置にL,Rが置かれることになる。山麓丸スタジオではBottom L,C,Rの間にサブウーファーが設置されている理想的なスピーカーレイアウトであると言えるだろう。また、UpperはMidに対して30°上方。BottomはMIdに対して20°下方というのが推奨となっている。 通常スタジオではPC操作用のディスプレイ、キーボード、マウスやフェーダーコントローラーを置くためのデスクやコンソールなどが設けられることがほとんどだが、360RA用のスタジオではBottomにスピーカーが設置されることからその存在が邪魔になってしまうのが難しい点だ。山麓丸スタジオではPCディスプレイの役割を前方のTVに担わせている。また、フィジカルに操作を行うキーボード、マウス、Avid /S1、MOM Baseは右側に置かれたスタンドに設置され、極力音への影響が出ないよう工夫がなされている。ちなみに、スタジオ後方にはもう1セットKVMが用意されており、そちらで細かい操作等を行うことも可能だ。 📷 左よりAvid S1、Avid MTRXをコントロールするMOM Base。ブースでのレコーディング用には、Urei 1176LN / API 550A,512C / AMEK System 9098 EQ / N-Tosch HA-S291が用意された。最上段のRME MADIface Xは主にヘッドホンモニタリング用だ。 360 Reality Audio 制作ワークフロー ここからは実際に山麓丸スタジオで行われているワークフローについてお伺いすることができたのでまとめていきたい。 ●1:ステレオミックスを行う まず、マルチトラックのオーディオデータを先方より手に入れたらセッションを作成するのだが、まずはStereo Mixを行うという。このスタジオの顧問も勤めている吉田保氏などにミックスを依頼するケースもあるとのことだ。まずはステレオミックス用のセッションを作成することについては特に疑問はないだろう。元の楽曲がある作品の場合はそれに合わせるような形でステレオミックスが作成される。 ●2:ステレオから360RAへ ステレオでの音作りをしてから、それを360RA上でパンニングして行く形となる。360RACSはプラグインのため、ProToolsのトラックにインサートして使用する形となるのだが、各オーディオトラックにインサートはしない。各オーディオトラックと同数のAUXトラックを用意し、そこにオーディオをルーティングして360RACSをインサートする。これはPro Toolsのフェーダーバランスを活かすためだ。RACSプラグインはインサートされた箇所のオーディオをDAW側から受け取るので、オーディオトラックにそのままインサートしてしまうとフェーダー前の音がプラグインに渡されてしまう形になる。それを避けるためにAUXトラックを経由する形を取っている。次に、作成したAUXトラックのマスターのチャンネルにRACSプラグインをインサートしマスターとして指定する。これが各チャンネルから音を受け取ってOUTPUTする役割を担うようになる。その後、各チャンネルにRACSプラグインをすべてインサートしていく。 📷 プラグインとして360RACSを選択、インサートを行う。 📷 インサートした360RACSプラグインの中からマスターとなるトラックをを選択。 先ほども述べたように、最終的にオーディオデバイスに音を渡すのはPro ToolsではなくRACSプラグインということになるため、RACSプラグイン上のオーディオデバイスでHDXを選択する。そのため、Pro Tools側はプレイバックエンジンでHDX以外のものを選択する必要があるということだ。ProToolsのマスターを通らないため、遅延補正はどうなる?という疑問も生まれるのだが、RACS側に遅延補正の機能があるためそこは心配ご無用ということのようだ。 これで、360RAのミキシングを始める設定が完了したことになる。その後はRACS内でスピーカーレイアウトを指定する。もちろんヘッドフォンでの作業も可能だ。HRTFを測定したファイルを読み込むことができるのでヘッドフォンのモニタリングの精度も非常に高い。 📷 出力デバイスとしてHDXを選択。 📷 ヘッドホンの出力先もプラグイン内で選択する。 ●3:360RAミキシング 設定が完了したら、360RACS上でそれぞれの音のパンニング進めていく形となる。ラダ・プロダクション側で音の配置をある程度進めた状態にし、それを受けたエンジニア側でさらにブラッシュアップを行う。こうして一旦配置を決めるのだがここから再度ミキシングを行う。音の配置による音質の変化が生まれるので、パンニング後、改めて音の調整をエンジニアによって施す作業をしクオリティを上げるそうだ。こうして、その配置で本来鳴らしたい音質で鳴るようにする音作りを行い、でき上がったものがクライアントのチェックに回ることになる。 📷 360度全周にパンニングし、音像スペースを作り出している。 ●4:360RAでのマスタリング オブジェクトベースのフォーマットではステレオのようなリミッター、マキシマイザーを用いたマスタリングは難しい。今回、それをカバーする”技”を伺ったのでご紹介したい。まず、全トラックをAUXのモノトラックにセンドする。そのモノトラックをトリガーとしたマルチバンドコンプやリミッターなどを全トラックにインサートするという手法だ。設定は全トラック同じ設定にする。全ソースが送られているトラックをサイドチェーンのキーインにアサインすることによって、ステレオでのリミッティングを再現する形だ。 📷 全チャンネルにFabfilter Pro-C 2 / Pro-MB / WAVES L2がインサートされている。 ●5:バウンス(書き出し) 通常のPro Toolsのバウンスによって、360RAのフォーマットを書き出すことができるそうだ。なお、書き出す際は360RACSを開いておくことが必要となる。書き出しについては「インターリーブ」「48kHz24bit」「Wav」とし、指定のフォルダに書き出すことが必要とのことで、「書類」の中の「360RACS」の中にある「Export」フォルダを指定する。このフォルダは360RACSをインストールした際に自動ででき上がるフォルダとなっている。 📷 バウンス自体はPro Toolsの画面に沿って行う。 バウンスが終わるとプレビューの調整画面が表示される。ここではどのLEVEL(0.5、1、2、3)で書き出すかを選ぶ。LEVELはMP4を作る際のクオリティに値するものだ。LEVEL2以上でオブジェクトを"スタティック"と”ダイナミック”の選択が可能となっている。独立して聴かせたいVocalなどのメインソースは"ダイナミック"を選択、また動きのあるものも"ダイナミック"を選択することが多いそうだ。ここの設定によってもまた楽曲の聴こえ方が変わるのでここも慎重に行う。すべての設定が行なえたら『OK』を押して書き出しは完了、その後、こちらのデータを使用してエンコードを行いMP4を生成する。 📷 オブジェクトのダイナミック、スタティックの選択が行える。 📷 バウンスを終えるとレベルごとにフォルダ分けされて格納される。 ●6:エンコード 現状でのエンコードは360RACSとは別のアプリケーションを使用して行なっている。こちらのアプリケーションについてはとてもシンプルで、ドラック&ドロップしたデータを変換するのみだ。変換が完了したらデコーダーを使用して、生成されたMP4のチェックを行う。 ここまで細かく360 Realty Audio制作の手法をご紹介させていただいた。ステレオミックスと違い、上下の音の配置をパンニングで行えることが360 Realty Audioの大きな利点なのだが、配置しただけでは聴かせたい音質にならないことが多いのだそうだ。ステレオではマスキングを起こして聴こえなくなってしまう部分があり、それを回避しながらうまくステレオという空間に音を詰め込んでいくスキルが必要だったわけだが、360 Reality Audioは360度どこにでも音を配置できてしまう。言い換えれば、マスキングが起きづらい360 Reality AudioやDolby Atmosでは、より一個一個の音のクオリティが楽曲自体のクオリティを大きく左右することにつながるわけだ。 また、クライアントから渡される素材がステムではなくパラデータだった場合、単体での音作りというところが大きなポイントとなるということだ。その部分をスタジオ顧問の吉田保氏ほか、各所エンジニアの手に委ねるなどの工夫をされている点は大きなポイントのように感じた。そして、360RAパンニング後に「聴かせたい場所で聴かせたい音質」とするための音作りをする点も重要なポイントだ。音の存在感を出すためにサチュレーションを使ったり、EQを再度調整したりさまざまな工夫が施される。 こうしてサウンドは整えられていくが、音を配置しただけでOKということではなく、ReverbやDelayを駆使して360度に広がる「空間」を作ることがとても重要になる。ライブ収録などでは実際に様々なところにマイクを立て360度空間を作ることが可能だが、レコーディング済みの過去作品や打ち込みの作品では新たに360度空間を人工的に作る必要がある。マルチチャンネルで使用できる音楽的なReverbの必要性を感じているというお話も伺えた。制作者側の悩みなどはDolby Atmosの制作と共通する部分も多く、それに呼応するような360度空間制作のためのツールも今後ブラッシュアップされていくのではないだろうか。 Dolby Atmosとともに空間オーディオの将来を担うであろう360 Realty Audio。この二つのフォーマットが両輪となり、空間オーディオはさらに世の中へ浸透していくことになるだろう。360RAは下の方向がある分Dolby Atmosに比べてもさらに自由度が高いため、よりクリエイティブな作品が生まれそうな予感もする。また、ヘッドフォンでの試聴は、スピーカーが鳴っているのではないかと思わず周りを見回してしまうほどの聴こえ方だった。コンシューマにおけるリスナーの視聴環境はヘッドフォン、イヤフォンが中心となるのが現状だろう。その精度が上がっていくとともにコンテンツが充実することによって、今よりリスナーの感動が増すのは間違いない。広く一般的にもステレオの次のフォーマットとして、空間オーディオに対するリスナーの意識が変わっていくことに大きな期待を寄せたい。 株式会社ラダ・プロダクション 山麓丸スタジオ事業部 プロデューサー Chester Beatty 氏 株式会社ラダ・プロダクション 山麓丸スタジオ事業部 チーフ・エンジニア 當麻 拓美氏   *ProceedMagazine2021-22号より転載

Music

株式会社 SureBiz様 / 〜Dolby Atmos、技術革新に伴って音楽表現が進化する 〜

2021年6月、Appleが空間オーディオの配信をスタートした。そのフォーマットとして採用されているはご存知の通りでDolby Atmosである。以前より、Dolby Atmos Musicというものはもちろん存在していたが、この空間オーディオの配信開始というニュースを皮切りにDolby Atmosへの注目度は一気に高まった。弊社でもシステム導入や制作についてのご相談なども急増したように感じられる。今回はこの状況下でDolby Atmos制作環境を2021年9月に導入された株式会社 SureBizを訪問しお話を伺った。 需要が高まるDolby Atmos環境を SureBizは楽曲制作をワンストップで請け負うことにできる音楽制作会社。複数の作家、エンジニアが所属しており、作曲、編曲、レコーディング、ミキシング、マスタリングをすべて行えるのが特長だ。都心からもほど近い洗足池にCrystal Soundと銘打たれたスタジオを所有し、そのスタジオで制作からミキシング、マスタリングまで対応している。今回はそのCrystal SoundへDolby Atmos Mixingが行えるシステムが導入された。2020年の後半よりDolby Atmosでのミキシングがどのようなものか検討を進めていたそうだが、Appleの空間オーディオがスタートしたことでDolby Atmosによるミックスの依頼が増えたこと、さらなる普及が予測されることからシステム導入を決断されたという。 我々でも各制作会社のお客様からDolby Atmosに対してのお問合せを多くいただいている状況ではあるが、現状ではヘッドフォンなどで作業したものを、Dolby Atmos環境のあるMAスタジオ等で仕上げるというようなワークフローが多いようだ。その中で、SureBizのような楽曲制作を行っている会社のスタジオにDolby Atmos環境が導入されるということは、制作スキームを一歩前進させる大きく意味のあることではないだろうか。 📷 洗足池駅近くにある"Crystal Sound"。制作、レコーディング、ミキシング、マスタリングと楽曲制作に必要工程がすべてできるようになったスタジオだ。メインモニターはmusikelectronic / RL901K、サブモニターにAmphion / One18。Atmos用モニターにGENELEC / 8330APとなっている。 サウンドとデザインを調和する配置プラン まず、既存のスタジオへDolby Atmosのシステムを導入する際にネックになるのは天井スピーカーの設置だろう。Crystal Soundは天井高2500mmとそこまで高くはない。そこで、できるだけハイトスピーカーとの距離を取りつつ、Dolbyが出している認証範囲内に収まるようにスピーカーの位置を指定させていただいた。L,C,Rまでの距離は130cm、サイドとリアのスピーカーは175cmにスタンド立てで設置されている。スタジオ施工についてはジーハ防音設計株式会社によるものだ。その際に課題となったのがスタジオのデザインを損なわずにスピーカーを設置できるようにすること。打ち合わせを重ねて、デザイン、コストも考慮し、天井に板のラインを2本作り、そこにスピーカーを設置できるようにして全体のデザインバランスを調和させている。電源ボックス、通線用モールなど黒に統一し、できるだけその存在が意識されないように工夫されている。 📷 紫の矢印の先が平面の7ch。青い矢印の先が天井スピーカーとなっている。これを基にジーハ防音設計株式会社様にて天井板、電源ボックス、配線ルートを施工いただいた。 Redシリーズ、GENELECの組み合わせ Dolby Atmos Musicの制作ではDAWとRendererを同一Mac内で立ち上げて制作することも可能だ。ただし、そのような形にするとCPUの負荷が重くマシンスペックを必要とする。本スタジオのエンジニアであるmurozo氏は普段からMacBook Proを持ち歩き作業されており、そこにRendererを入れて作業することはできなくはないのだが、やはり動作的に限界を感じていた。そのためCrystal Soundにシステムを導入されるにあたっては、そのCPU負荷を分散するべくRendererは別のMacにて動作させるようシステム設計をした。Renderer側はFocusrite REDNET PCIeR、Red 16LineをI/Oとしている。 RendererのI/OセットアップではREDNET PCIeRがInput、Red 16Line がOutputに指定される。Pro Toolsが立ち上がるMacBook ProのI/OにはDigiface Danteを選択している。Pro Tools 2021.7からNativeでのI/O数が64chに拡張されたので、このシステムでは64chのMixingができるシステムとなる。ちなみに、Pro Tools側をHDX2、MTRXを導入することにより128chのフルスペックまで対応することも可能だが、この仕様はコスト的に見てもハードルが高い。今回の64ch仕様は導入コストを抑えつつ要件を満たした形として、これからの導入を検討するユーザーには是非お勧めしたいプランだ。 📷 CPU処理を分散するため、Pro ToolsのミキシングマシンとDolby Atmos Rendererマシンを分離。Danteを使用したシステムを構築している。64chのDolby Atmosミキシングが可能な環境となっている。Pro Tools 側のハードウェアのアップグレードにより128chのシステムも構築可能だ。 モニターコントロールにはREDNET R1とRed 16Lineの組み合わせを採用している。これがまた優秀だ。SourceとしてRendererから7.1.4ch、Apple TVでの空間オーディオ作品試聴用の7.1.4chを切り替えながら作業ができるようになっている。また、Rendererからバイノーラル変換された信号をHP OUTに送っているため、ヘッドフォンを着ければすぐにバイノーラルのチェックもできる。スピーカーについてはGENELEC 8330APと7360Aが使われており、補正についてはGLMでの補正にて調整している。マルチチャンネルを行う際は補正をどこで行うか、というポイントが課題になるが、GLMはやはりコストパフォーマンスに優れている。今回のFocusrite Redシリーズ、GENELECの組み合わせはDolby Atmos導入を検討されている方にベストマッチとも言える組み合わせと言えるだろう。 📷 左は机下のラック。左列下部に今回導入いただいたRed 16Line(オーディオインターフェース)、SR6015(AVアンプ)、SWR2100P-5G(Danteスイッチ)が確認できる。ラックトレイを使用して、AppleTV、Digiface Danteもこの中に収まっている。右はGENELEC /8330AP。天井スピーカーであっても音の繋がりを重視し平面のスピーカーからサイズを落とさなかった。 Dolby Atmos環境で聴こえてくる発見 実際にDolby Atmosシステムを導入されてからの様子についてどのような印象を持っているかも伺ってみたところ、Apple TVで空間オーディオ作品を聴きながら、REDNET R1で各スピーカーをSoloにしてみて、その定位にどんな音が入っているかなどを研究できるのが便利だというコメントをいただいた。空間オーディオによって音楽の新しい世界がスタートしたわけだが、スタートしたばかりだからこそ様々なクオリティの音源があるという。システムを導入したことにより、スピーカーでDolby Atmos作品を聴く機会が増え、その中での発見も多くあるようだ。ステレオミックスとは異なり、セオリーがまだ固まっていない世界なので、Mixigを重ねるごとに新しい発見や自身の成長を確認できることがすごく楽しいと語ってくれた。その一例となるが、2MixのステムからDolby Atmos Mixをする際は、EQやサチュレーションなどの音作りをした上で配置しないと迫力のあるサウンドにならないなど、数多くの作品に触れて作業を重ねることで、そのノウハウも蓄積されてきているとのことだ。 📷 Dolby Atmos用のモニターコントロールで使用されているREDNET R1、各スピーカーのSolo機能は作品研究に重宝しているとのことだ。Source1にRendererのプレイバックの7.1.4ch。Source2にAppleTVで再生される空間オーディオに試聴の7.1.4chがアサインされている。制作時も聴き比べながら作業が可能だ。 技術革新に伴って音楽表現が進化する 最後に今後の展望をmurozo氏に伺ってみた。現状、Dolby Atmos Mixingによる音楽制作は黎明期にあり、前述のようにApple Musicの空間オーディオでジャンル問わずにリリース曲のチェックを行うと、どの方法論が正しいのか確信が持てないほどの多様さがあり、まだ世界中で戸惑っているエンジニアも多いのではないか、という。その一方で、技術革新に伴って音楽表現が進化することは歴史上明らかなので、Dolby Atmosをはじめとする立体音響技術を活かした表現がこれから益々の進化を遂げることは間違いないとも感じているそうだ。「そんな新しい時代の始まりに少しでも貢献できるように、またアーティストやプロデューサーのニーズに応じて的確なアプローチを提供できるように日々Dolby Atmosの研究を重ね、より多くのリリースに関わっていければと考えています。」と力強いコメントをいただいた。 📷 株式会社SureBiz murozo氏 今後さらなる普及が期待されるDolby Atmos。世界が同じスタートラインに立った状況で、どのような作品が今後出てくるのか。ワールドワイドで拡がるムーブメントの中で、いち早くシステムを導入し研鑽を積み重ねているSureBiz / Crystal Soundからも新たな表現のセオリーやノウハウが数多く見出されていくはずである。そしてそこからどのようなサウンドが生まれてくるのか、進化した音楽表現の登場に期待していきたい。   *ProceedMagazine2021-22号より転載 https://pro.miroc.co.jp/headline/avid-creative-summit-2021-online/#.YfzvmvXP3OQ

Music

株式会社富士巧芸社 FK Studio様 / 〜機能美を追求した質実剛健なシステム設計〜

赤坂駅と赤坂見附駅のちょうど中程にあるビル。ガラス張りのエレベーターから赤坂の街を眺めつつ最上階まで昇ると、この春オープンしたばかりのFK Studioがある。テレビ・放送業界への人材派遣業務を主な事業とする株式会社富士巧芸社が新設し、映像/音響/CG制作で知られるクリエイター集団 株式会社ラフトがプロデュースしたこのスタジオは編集室2部屋、MA室1部屋で構成されており、「誰もが気持ちよく仕事ができること」を目指してシンプルかつ十分なシステムと超高速なネットワーク設備を備えている。現在の番組制作に求められる機能を質実剛健に追求したこのFK Studioを紹介したい。 富士巧芸社の成り立ちからFK Studio開設まで 株式会社 富士巧芸社 代表取締役 内宮 健 氏 株式会社富士巧芸社(以下、「富士巧芸社」)は、テレビ・放送業界への人材派遣業務を主な事業とする企業だ。映像編集やMA業務に関わる制作技術系スタッフが約60名、ADなどの制作に関わるスタッフが約100名、その他にも配信業務・データ放送運用・マスター室の運用などの非制作業務に関わるスタッフなど、現在約300名におよぶテレビ放送の専門スタッフを抱えている。 富士巧芸社のルーツは昭和34年創業の同名の企業にある。かつて四ツ谷にあったその富士巧芸社はテロップやフリップを中心とした美術系制作物を放送局に納めており、内宮氏は同社の社員としてテレビ局への営業を担当していたそうだ。2000年代に入り、テロップなどの制作物の需要が減少したことでかつての富士巧芸社はのれんを降ろすことになったが、「テレビからテロップがなくなることはない。これからは編集機でテロップを打ち込む時代になる」と考えた内宮氏は編集機オペレーターの派遣事業を開始する。その際に、愛着のある「富士巧芸社」という社名だけを譲り受けたというのが、現在の富士巧芸社の成り立ちである。かつての富士巧芸社と現在の富士巧芸社は別々の法人だが、放送業界におけるその長い歴史と実績は内宮氏を通して脈々と受け継がれている。 富士巧芸社がはじめて自社で編集室を持ったのは5年前。同社の派遣オペレーター第一号であり、現在はポストプロダクションチーム チーフマネージャーの洲脇氏の提言によるものだという。「リニア編集が主流だった時代には、編集室を作るには大きな投資が必要でした。しかし、パソコンを使ったノンリニア編集がメインになったことで機材購入にかかる費用は大きく下がりました。当社は派遣業ということで人材は十分に在籍していましたので、これなら自社で編集業務も請け負えるのではないかと考えたんです」(洲脇氏)。 株式会社 ラフト 代表取締役 クリエイティブ・ディレクター 薗部 健 氏 こうして、MAを除くフィニッシングまで行える同社初の自社編集室が銀座にあるマンションの一室に作られた。「4~5年して、ある程度需要があることがわかってきました。銀座では狭い部屋を5人で回してたので、もう少し広くしてあげたいと思ったのもあって」(内宮氏)と、今回のFK Studio設立への計画が動き出したそうだ。「それならMA室も必要だよね、という話になったのですが、当社はMA室に関する知識はまったくなかった。そこで、以前からお付き合いのあったラフトさんに相談しまして「薗部さん、お願いします!」ということに(笑)」(内宮氏)。 このような経緯でFK Studioは株式会社ラフト(以下、「ラフト」)がプロデュース、同社代表取締役・クリエイティブディレクターである薗部氏がフルスケルトンの状態から設計することになった。最上階のフロアをフルスケルトンから作り直すというのは、天井高が確保でき、設計の自由度が高いというメリットもあるが、今回は飲食店からの転用であったため、空調や水回りをすべてやり直す必要があったり、消防法の関係で不燃認定を受けている素材を使用する必要があったりしたそうだ。スタジオでよく見るジャージクロスは難燃認定のため吸音材に使用せず、壁も天井もすべて不燃材を用いている。飲食店からの転用が意外な課題をもたらしていたようだ。 機能美にあふれ、誰もが仕事をしやすい環境 「お客様を迎える場所なので、内装などの見た目にはこだわりたかった」(内宮氏)というFK Studioは、実に洗練された暖かみを感じさせる空間になっている。エレベーターの扉が開くとそこは明るく開放的なロビーになっており、ここはそのまま各スタジオへの動線となっている。あざやかなオレンジ色の椅子が目を引くが、躯体の柱と色を合わせた漆色のテーブルがシックな雰囲気を演出し、ツヤ出し木製パネルの壁がそれらをつなげて、明るいながらも全体的に落ち着いた雰囲気をたたえた内装だ。このように印象的なスペースとなったのは、薗部氏の"機能美”へのこだわりにありそうだ。「見た目が美しくてもハリボテのようなものじゃダメ。ヘビーデューティでありながら美しい…作品を生み出す場所は、そうした"機能美"を備えていることが大切だと思ってます。天井のレールは垂直に、吸音板もスクウェアに、きっちり取り付けてもらいました」(薗部氏)。 📷 明るい色づかいながら、落ち着いた雰囲気のロビー。 こうしたコンセプトは居住性のみならず、スタジオ機能の面にも行き届いている。「編集オペレーターやエンジニアなどの社内スタッフはもちろん、来てくれるお客様にとっても、全員がすごしやすい…仕事がしやすい環境を作るのが一番だと考えていました。ひとが集まるところには自然に仕事が生まれる」(洲脇氏)とのコメントが印象的で、まさにスタジオ全体が内実をともなった美しさに溢れた空間になっているのだと強く感じさせる。 "ヘビーデューティ"なスタジオ設備 FK Studioの機材構成は一見シンプルだが、現代の番組制作をスムーズに行うための必要かつ十分な機能が備わっており、まさに"機能美"ということばがぴったりな仕様となっている。機材構成をメインで担当したのは、編集室が富士巧芸社 洲脇氏、MA室がラフト 音響クリエイターの髙橋氏だ。 📷 編集室 Edit 1。ディスプレイはすべて4K HDR対応。 2部屋ある編集室は、機材面ではまったく同じ構成となっている。メインとなるMac Proと、テロップ制作などを行うためのサブ機であるMac miniの2式構成、NLEはすべてAdobe Premier Proだ。「この規模のポスプロであれば、お客様もほぼPremierで作業している」(洲脇氏)というのが選定の理由だ。この2式のNLEを中心に、映像波形モニター、音声モニター用のステレオスピーカーとラック型のミキサー、そしてクライアント用の映像モニターといたってシンプルな構成となっている。しかし、ディスプレイはすべて4K対応、Mac Proは16コアプロセッサ・96GBメモリに加えGPUがRadeon Pro W5700X x 2に増設されたパワフルな仕様。さらに、ローカルストレージとして8TBの高速SSDレイドが導入され、4Kワークフローでもストレスのない制作が可能となっている。 📷 館内共用機器ラックには12Gルーターやネットワーク機器などを収容。各部屋からの信号は、館内のどのディスプレイにでも出力することができる。 FK Studioの大きな特徴のひとつに、現代的なネットワーク設備が挙げられる。共有ストレージにはSynologyのNASが導入され、すべてのスタジオ内ネットワークはひとつのルーターに接続されている。そのため、ひとつの編集室で書き出した素材をもうひとつの編集室やMA室と瞬時に共有することが可能だ。さらにいえば、ひとつの映像信号をFK Studio内のどのモニターにも出力できるため、ゲストの人数が多い時などはロビーで試写をすることも可能となっている。ちなみに、ラフトでも同じNASを使用しており、どちらのNASも2社が相互にアクセス可能な状態になっているという。「クラウドに近い環境。こうしたパートナーを増やしていけば、番組データの交換なども簡単になるかもしれませんね」(薗部氏)とのことだ。 社内ネットワークはルーターやケーブルも含めてすべて12G対応、インターネットは下り最大2Gbpsの通信速度を誇るNURO Biz。速度的なストレスは皆無の制作環境に仕上がっている。「今まではローカルのデバイスがボトルネックになるケースが多かった。ここ(FK Studio)はローカルデバイスのスペックがかなりいいので、逆にネットワークがボトルネックにならないように注意した」(薗部氏)ということだが、さらに、2Gbpsのインターネット帯域を「ゲスト用と社内用にルーターを分けている。そのため、ゲストが増えても館内ネットワークの速度には影響がない」(薗部氏)という徹底ぶり。まさに、"ヘビーデューティ"という表現がしっくりくる。「編集室にお客様が立ち合わないケースは増えています。完成品をチェックで送る時でも、ネットワークのスピードが高いので助かっている」(洲脇氏)とのことだ。 番組制作にとっての"普遍性"を示したMA室 📷 Pro Tools | S3を採用したことで、大きなゆとりを確保したMA室の作業デスク。台本の位置などを柔軟に運用できるのがメリットだ。メーター類や操作系も、見やすく手の届く範囲にまとめられており、作業に集中できる環境が整えられている。 NAルームが併設されたMA室はステレオ仕様、Pro ToolsシステムはHDXカード1枚、HD I/O、Sync HD、Pro Tools | S3という仕様の1式のみ、そして、Mac miniによるMedia Composerワークステーションという、こちらもシンプルな構成。「最高スペックを視野に入れたシステムを組むと、どうしても甘い部分が出てきてしまう。ならば最初から割り切ってステレオとかにした方がいい。そのかわり、4K HDR対応だし、Mac Proもスペックを整えたもの(8コアIntel Xeon W CPU/96GBメモリ/1TB SSD + BMD DeckLink Studio 4Kビデオカード)。モニターもSonyの業務用にして、TB3HDDレイドも入れてます」(薗部氏)という通り、MA制作に必要な機能に的をしぼることで、近年重視されるようになってきたスペックの部分をしっかりとフォローした"基礎体力"の高いシステムになっている。 I/OはHD I/O、コントロールサーフェスはPro Tools | S3だ。今回のスタジオ設計においては、大型コンソールを入れることははじめから考えていなかったという。「複数のパラメーターを同時に操作したい場合はコンソールが必要ですが、ワークのスタイルを大型コンソールに合わせるよりも、原稿を置く位置など作業スペースのレイアウトをその都度変えられたりといったことの方が重要かな、と。」(髙橋氏)ということが理由のようだ。I/Oについては「ぼくひとりで使うなら、どんなに複雑でも面白いものを作ればいいのでPro Tools | MTRXも考えましたが、誰が来ても見れば使えるというところを重視した結果、HD I/Oという選択になりました」(髙橋氏)という。モニターコントローラーはGrace Design m905が選ばれており、音質はもちろんのこと、その使いやすさが選定の大きな理由となっている。 📷 MA室併設のナレーションブース。圧迫感がなく居住性の高いスペース。 「音の入り口と出口にはリソースを割きたかった」(髙橋氏)ということで、マイクとスピーカーは奇をてらわずも最高峰のものが選ばれている。スピーカーはメインがGenelec 8341A、スモールスピーカーとしてFocal Shape 40が選ばれている。NA用マイクはNeumann U87 Ai、マイクプリはMillenia HV-3Cだ。8341Aは近年ポスプロスタジオでの導入事例が増えているGenelec社の同軸モデルのひとつ。以前、ラフトで代替機として借りた際にそのクオリティが気に入り、今回の選定に至ったという。この機種についての印象を髙橋氏に伺うと、「鳴りと定位感のよさから、番組をやるにあたって聴きやすいという点が気に入っています。以前のGenelecと比べると、最近のモデルはより解像度を重視しているように感じます。」(髙橋氏)という答えが返ってきた。こちらにはGLMを使用したチューニングが施されている。スモールについては「今時のよくある小さめのモニタースピーカーって、どうしても低音を出そうとしているように感じるんです。そもそも、スモールスピーカーを使うというのはテレビの条件に近づけるという意図があったのに、(最近のスピーカーだと)スモールに切り替えると余計に音がこもっちゃってよくわからない、ということが多かったんです。その点、Shapeシリーズはそうしたこもりとかを感じずに、使いやすいな、と感じています。」(髙橋氏)とMA向きな一面をShape 40に見出しているようだ。 📷 MAスタンダードの地位を獲得した感のあるGenelec Oneシリーズ。FK Studioでは8341Aが採用されている。解像度の高さだけでなく、鳴りと定位感の良さが好評だ。自前の補正システムGLMも人気の理由だろう。 📷 独自素材を積極的に開発し、引き締まった音像と定位感のよさに定評のあるFocal Shape 40。髙橋氏は自宅でもShapeシリーズを使用しているとのことで、大きな信頼を寄せている。 ビデオ再生はPro Toolsのビデオトラックだけでなく、Media Composer、Video Slave 4 Proでの再生も可能。スタジオ内のネットワークが高速なため、「編集室からNASにProResで書き出してもらったものをMedia Composerにリンクして再生することが多いです。」(髙橋氏)とのこと。ちなみに、ビデオI/OにはAvid DNxIVが採用されている。オーディオプラグインはWAVES Diamond、iZotope RX Post Production Suite、Nugen Audio Loudness Toolkit 2と、MAワークのスタンダードが並ぶ。特にRXについては「RXなしでは最近のMAは成り立たない」(髙橋氏)と、大きな信頼を寄せる。プラグインに関してもこうしたスタンダードなラインナップに集約することで、FK Studioで制作したセッションがほかのスタジオで開けないといったことを未然に防いでいる。まさに、「誰にとっても気持ちよく仕事ができる環境」作りを徹底しているように思えた。ラウドネス関連ではNugen Audioのほかに、テープ戻し用としてCLARITY M STEREOとFourbit LM-06も設置されている。はじめからあえて的をしぼることで実現された一縷の隙もないシステムは、現代の番組MAにとってひとつの"普遍性"を示していると言えるのではないだろうか。 📷 m905本体、Mac mini、DNxIV。普段は触らない機器もビシッと美しく設置されているところに、薗部氏の透徹した美学が垣間見える。 📷 Clarity M Stereoとm905リモコン。必要なボタンがハードとして存在していることは、スムースなMAワークには欠かせない要素だ。手軽に位置を動かせるコンパクトさも、スタジオのコンセプトにマッチしている。 細部まで徹底的にシビアな視線で設計されていながら、訪れる者には明るさと落ち着きを兼ね備えた居心地のよい空間となっているFK Studio。「仕上がりはイメージ以上。ラフトさんのお力添えなしにはここまでのものは作れませんでした。」という内宮氏。これからの展望をたずねると「これを機に、2号、3号とスタジオを増やして行けたらいいですね。」と答えてくださった。FK Studioから生まれた番組を観られる日が、今から待ち遠しい限りだ。 (前列左より)株式会社 富士巧芸社 代表取締役 内宮 健 氏、株式会社 ラフト 代表取締役 / クリエイティブ・ディレクター 薗部 健 氏 (後列左より)ROCK ON PRO 沢口耕太、株式会社 富士巧芸社 映像グループ ポストプロダクションチーム チーフマネージャー 洲脇 陽平 氏、株式会社ラフト 音響クリエイター 髙橋 友樹 氏、ROCK ON PRO 岡田詞朗   *ProceedMagazine2021号より転載

Post

株式会社毎日放送様 / ~多様なアウトプットに対応する、正確な回答を導き出せる音環境~

以前にも本誌紙面でご紹介した毎日放送のMA室がリニューアルした。前回のご紹介時にはAvid S6とMTRXの導入を中心にお伝えしたが、今回はそれらの機材はそのままにして内装のブラッシュアップとシステムの大幅な組み換えを行っている。さらには、準備対応であったイマーシブ・オーディオへの対応も本格化するという更新となった。 システム内の役割を切り分けるということ まずはシステムの更新の部分を見ていこう。今回の更新ではAvid S6はそのままに、モニター周り、Avid S6のマスターセクションをどのように構築するのかという部分に大きなメスが入った。これまでのシステムはスタジオに送られる全ての信号がMTRXに入り、Avid S6のMTMによるモニターセクションが構築されていた。その全ての信号の中にはPro Toolsからの信号も含まれDigiLinkで直接MTRXの入力ソースの一つとして扱われる仕様である。 このシステムをどのように変更したのかというと、まずはMTRXをPro ToolsとDigiLinkで接続し、Audio Interfaceとして使用しないこととした。昨今のシステムアップのトレンドとは逆の発想である。これにはもちろん理由があり、トラブルの要因の切り分けという点が大きい。従来は1台のPro Toolsのシステムであったものが、今回の更新で2台に増強されているのだが、こうなるとトラブル発生時の切り分けの際に、全てがMTRXにダイレクトに接続されていることの弊害が浮かび上がってくるわけだ。MTRXへダイレクトに接続した場合には、Pro ToolsのシステムからAudio Interface、モニターセクションといったスタジオ全体が一つの大きなシステムとなる。俯瞰するとシンプルであり、何でも柔軟に対応できるメリットはあるが、トラブル時にはどこが悪いのか何が問題なのかへたどり着くまで、システムを構成する機器が多いために手間がかかる。これを解決するために、2台に増強されたそれぞれのPro ToolsにAudio Interfaceを持たせ、スタジオのマスターセクションにあたるMTRXへ接続をするというシステムアップをとった。 これは、システムが大きくなった際には非常に有効な手法である。Avid S6以前のシステムを思い返せば、レコーダー / プレイヤー / 編集機としてのPro Tools、そしてミキシング、スタジオのシステムコアとしてのミキサー。このようにそれぞれの機器の役割がはっきりしていたため、トラブル時にどこが悪いのか、何に問題が生じているのかということが非常に明確であった。この役割分担を明確にするという考え方を改めて取り入れたAvid S6のシステムが今回の更新で実現している。 📷Audio Interface関係、VTR、パッチベイは、室内のディレクターデスクにラックマウントされている。手前の列から、映像の切替器、VTR、2台のPro Toolsに直結されたAvid純正のInterface。中央の列には、AntelopeのMasterClock OCX HD、RupertNeve Design 5012、Avid MTRXなど、システムのコアとなる製品が収まる。右列は、パッチベイとBDプレーヤーが収まっている。左から右へと信号の流れに沿ったレイアウトになっている。 MTRXをスタンドアローンで運用する 今回の更新により、MTRXは純粋にAvid S6のモニターセクション、マスターセクションとして独立し、Pro Toolsシステムとは縁が切れている状態となる。MTRXはどうしてもPro ToolsのAudio Interfaceという色合いが強いが、スタンドアローンでも利用できる非常に柔軟性の高い製品である。弊社ではこれまでにも、Artware Hubでの36.8chシステムのモニタープロセッサーとして、また松竹映像センターにおけるダビングシステムのマスターセクションとしてなど、様々な形でMTRXをスタンドアローンで活用していただいている。常にシステムに対しての理解が深い方が利用するのであれば、一つの大きなシステムとしたほうが様々なケースに対応でき、物理パッチからも解放されるなど様々なメリットを享受できるが、不特定多数の方が使用するシステムとなると、やはり従来型のミキサーとレコーダーが独立したシステムのほうが理解が早いというのは確かである。 ある意味逆説的な発想ではあるが、一つの大きく複雑なシステムになっていたものを、紐解いてシンプルな形に落とし込んだとも言えるだろう。この部分に関して、ミキサーとしてのマトリクス・ルーティングというものは、放送用のミキサーで慣れ親しんだものなので抵抗なく馴染める。今回のシステムは、そういったシステムとの整合性も高く、利用する技術者にとってはわかりやすいものとすることができたとお話をいただいている。MTRXをスタンドアローンで運用するため、今回の更新ではDADman を常に起動しておくための専用のPCとしてMac miniを導入いただいている。これにより、まさにAvid S6がMTRXをエンジンとした単体のコンソールのように振る舞うことを実現したわけだ。 📷もう一部屋のMA室でも採用した、コンソールを左右に移動させるという仕組みをこの部屋にも実装している。編集時にはキーボード・マウスなどがセンターに、MIXを行う際にはフェーダーがセンターに来る、という理想的な作業環境を実現するために、コンソール自体を左右に移動できるわけだ。これであれば、ミキサーは常にセンターポジションで作業を行うことができる。なお、専用に作られたミキサースタンドにはキャスターがあり、電動で左右に動く仕組みだ。これにより左右に動かした際、位置が変わることもなく常に理想的なポジションを維持できる。ちなみに一番右の写真はコンソールを動かすための専用リモコンとなっている。 イマーシブ・オーディオへの対応は、モニターセクションとしてスタンバイをする、ということとしている。5.1chサラウンドまでは常設のスピーカーですぐに作業が可能だが、ハイトスピーカーに関しては、もう一部屋のMA室との共有設備となる。これまでもトラスを組んで、仮設でのハイトチャンネル増設でイマーシブ・オーディオの制作を行ってきたが、モニターセクションのアウトとしても準備を行い、ハイト用のスピーカーをスタンドごと持ち込めば準備が完了するようにブラッシュアップが図られた。これにより、5.1.4chのシステム、もしくは7.1.2chのシステムにすぐに変更できるようになっている。地上波ではイマーシブ・オーディオを送り出すことはできない。とはいえ、インターネットの世界ではイマーシブ・オーディオを発信する環境は整いつつある。そしてこれらを見据えて研究、研鑽を積み重ねていくことにも大きな意味がある。まさにこれまでも積極的に5.1chサラウンド作品などを制作してきた毎日放送ならではの未来を見据えたビジョンが見える部分だ。 全てに対して正確な回答を導き出すための要素 📷一番作業としては多いステレオ用のラージスピーカーはMusik Electronic Geithain RL901KとBasis 14Kの組み合わせ。2本のSub Wooferを組み合わせ、2.1chではなく2.2chのシステムとしている。なお、サラウンド用には同社RL906が採用されており、こちらのスピーカースタンドは特注品となっている。 今回のシステム更新において、一番の更新点だと語っていただいたのが、スピーカーの入れ替え。古くなったから更新という既定路線の買い替えに留まらない、大きな含みを持った入れ替えとなっている。従来、この部屋のスピーカーはDynaudio Air6が導入されていたのだが、それをもう一つのMA室に導入されているMusik Electoronic Gaithin社の同一モデルへと更新。Musik社のスピーカーは、サブ(副調整室)にも採用されており、今回の更新で音声の固定設備としてのスピーカーをMusikに全て統一することができたわけだ。同じモデルなのでそのサウンドのキャラクターを揃え、毎日放送としてのリファレンスの音を作ることができたこととなる。 音質に対してのこだわりである、光城精機のAray MK Ⅱはコンソールの足元に設置されている。1台あたりで1000VAの出力を持つAray MK Ⅱが3台、スピーカーの電源及び最終段のアナログMTRX I/Oの電源が供給されている。 「Musikの音」という表現をされていたのが非常に印象的ではあるが、このメーカーのスピーカーは他社には真似のできない独自の世界観、サウンドを持っている。この意見には強く同意をするところである。同軸の正確な定位、ふくよかな低域、解像度の高い高域と言葉では伝えられない魅力を多く持つ製品である。お話を伺う中で、Musikに対してスピーカー界の「仙人」という言葉を使われていたのだが、たしかにMusikはオーディオエンジニアにとって「仙人」という存在なのかもしれない。いろいろなことを教えてくれる、また気づかせてくれる、そして、長時間音を聞いていても疲れない、まさに理想のスピーカーであるとのことだ。 放送局にとってMusikというスピーカーはハイクオリティではないかという意見も聞いたことがある。その意見は正しい部分もあるのかもしれないが、放送局だからこそ様々なアウトプットに対しての制作を求められ、どのような環境にも対応した音環境を持っていなければならない。そのためには、全てに対して正確な回答を導き出せる音環境が必要であり、ハイクオリティな環境であることは却って必要な要素であるというお話をいただいた。筆者もまさにその通りだと感じている。地上波だけではなく様々なアウトプットへの制作が求められるからこそ、ベストを尽くすことへの重要性が高まっているということは間違いない。 このハイクオリティな音環境を象徴するような機器が光城精工のArray 2の導入であろう。一見コンシューマ向け(オーディオマニア)の製品というイメージもあるかもしれないが、光城精工はスタジオ向け電源機器で一斉を風靡したシナノから独立された方が創業されたメーカー。もちろんプロフェッショナル業界のことも熟知した上での製品開発が行われている。Array 2は音響用のクリーン電源として高い評価を得ており、絶縁トランスでも単純なインバーターでもなくクリーン電源を突き詰めた、これも独自の世界を持った製品である。このArray 2が今回の更新ではスピーカー、モニタリングの最終アナログ段の電源として導入されている。アウトプットされるサウンドに対して絶対の信頼を持つため、また自信を持って作品を送り出すために、最高の音環境を整えようという強い意志がここからも読み取ることができる。 これらの更新により、音環境としては高さ方向を含めたマルチチャンネルへの対応、そしてハイレゾへの対応が行われ、スペックとして録音再生ができるということではなく、それらがしっかりと聴いて判断ができる環境というものが構築されている。Dolby Atmos、360 Reality Audio をはじめとするイマーシブ・オーディオ、これから登場するであろう様々なフォーマット、もちろん将来への実験、研鑽を積むためのシステムでもある。頻繁に更新することが難しいスタジオのシステム、今回の更新で未来を見据えたシステムアップが実現できたと強く感じるところである。そして、実験的な取り組みもすでにトライされているようで、これらの成果が実際に我々の環境へ届く日が早く来てほしいと願うばかりだ。この部屋で制作された新しい「音」、「仙人」モードでミックスされた音、非常に楽しみにして待つことにしたい。 (左)株式会社毎日放送 総合技術局 制作技術センター音声担当 部次長 田中 聖二 氏、(右)株式会社毎日放送 総合技術局 制作技術センター音声担当 大谷 紗代 氏 *ProceedMagazine2021号より転載

Broadcast

Chimpanzee Studio 様 / 〜コンパクトスタジオのスタイルを広げるDolby Atmos〜

本職はプロのミュージシャン。ドラマーを生業としつつ、スタジオの経営を鹿児島で行う大久保氏。そのスタジオにDolby Atmosの制作システムを導入させていただいたので詳細をお伝えしたい。かなり幅広い作品の録音に携わりつつも、自身もミュージシャンとしてステージに立つ大久保氏。どのようにしてスタジオ運営を始め、そしてDolby Atmosに出会ったのだろうか?まずは、スタジオ開設までのお話からお伺いした。 90年代のロスで積み重ねた感覚 それではスタジオ開設に至る経緯をたどってみたい。鹿児島出身である大久保氏は学生時代より楽器を始め、広島の大学に進学。その頃より本格的に音楽活動を始めていたということだ。普通であれば、学生時代に特にミュージシャンとしての道を見出した多くの場合は、ライブハウスの数、レコーディングセッションの数など仕事が多くある東京、大阪、福岡といった大都市をベースに活動を本格化させるのが一般的である。しかし大久保氏は日本を飛び出し、全てにおいて規模が大きく好きな音楽がたくさん生まれたロサンジェルスの地へと一気に飛び立った。ロサンジェルスは、ハリウッドを始めとしたエンターテイメント産業の中心地。大規模なプロジェクト、本場のエンターテイメントに触れることとなる。なぜ、アメリカ、そしてロサンジェルスを選んだのか?その答えは文化の違いとのことだ。アメリカには町ごとに音楽がある。ロス、ニューヨーク、シアトル、アトランタ、それぞれの街にそれぞれの音楽がある。そんな多様性、幅の広さが魅力だという。 Chimpanzee Studio(チンパンジースタジオ) 大久保 重樹 氏 ロスに移住してからは、ミュージシャンとして活躍をする傍ら、住んでいた近くにあったレコーディングスタジオのブッキングマネージメント、日本からのミュージシャンのコンサルなどを行ったということだ。時代は1990年代、まだまだ日本のアーティストたちもこぞってアメリカまでレコーディングに出かけていた時代。そこで、自身もミュージシャンで参加したり、スタジオ・コーディネイトを行ったりと忙しい日々を過ごしていたそうで、ロスでも老舗のSunset Soundやバーニー・グランドマンにも頻繁に通っていたというからその活躍がいかに本格的なものであったかが伺える。 そんな環境下で、スタジオによく出入りをし、実際にレコーディングを数多く経験するうちに、録音というものに興味が湧いてきたということだ。まずは、自身のドラムの音を理想に近づけたい、どうしたらより良いサウンドへと変わるのか?そういったことに興味を持った。そして、今でも現役として使っているBrent Averillのマイクプリを入手することになる。今では名前が変わりBAE Audioとなっているが、当時はまさに自宅の一角に作業場を設け、手作業で一台ずつ製品を作っていた文字通りガレージメーカーだった時代。創業者の名前をそのままにメーカー名をBrent Averillとしていたのも、自身の名前をフロントパネルにサイン代わりにプリントした程度、というなんとものどかな時代である。 大久保氏は、実際にBrent氏の自宅(本社?)へ出向き今でもメインで活用しているMic Preを購入したそうだ。そのエピソードも非常に面白いものなので少し紹介したい。Brentさんの自宅は大久保氏とは近所だったというのも訪問したきっかけだった。そしてそこで対応してもらったのが、なんと現Chandler Limitedの創業者であるWade Goeke氏。その後、世界を代表するアウトボードメーカーを立ち上げることとなるGoeke氏の下積み時代に出会っているというのは、ロサンジェルスという街の懐の深さを感じさせるエピソードだ。 📷Pro ToolsのI/O関連とMicPreは正面デスクの右側に設置。上のラックにはDirectout ANDIAMO、AVID MTRX。下のラックには、DBX 160A、Brent Avirill NEVE 1272、Drawmer 1960が入っている。 ネットの可能性を汲み取った1997年、鹿児島へ そんなロスでの生活は1990年に始まったそうだが、時代はインターネットが普及への黎明期を迎えていた時期でもある。ロスと日本の通信は国際電話もあったが、すでにEメールが活用され始めていたということ。必然性、仕事のためのツールとしてインターネットにいち早く触れた大久保氏は「これさえあれば世界のどこでも仕事ができる」と感じた。アーティストならではなのだろうか?いち早くその技術の持つ可能性を感じ取り、活用方法を思いつく。感性と一言で言ってしまえば容易いが、人よりも一歩先をゆく感覚を信じ、鹿児島へと居を移すこととなる。ロスで知り合ったいろいろな方とのコネクション、人脈はインターネットがあればつながっていられる。それを信じて帰国の際に地元である鹿児島へと戻ったのである。帰国したのが1997年、日本ではこれからインターネットが本格的に普及しようかというタイミングである。その感性の高さには驚かされる。 鹿児島に帰ってからは、マンションでヤマハのアビテックスで防音した部屋を作りDAWを導入したということだ。最初はDigital PerfomerにADATという当時主流であったシステム。もちろんミュージシャンが本職なので、最初はエンジニアというよりも自分のスキルを上げるための作業といった色合いが強かったそうだ。そのエンジニアリングも、やればやるほど奥が深くどんどんとのめり込んで行き、自身でドラムのレコーディングができるスタジオの設立を夢に描くようになる。ドラムということで防音のことを考え、少し市街地から離れた田んぼの真ん中に土地を見つけ、自宅の引っ越しとともに3年がかりで作り上げたのが、現在のチンパンジースタジオだということだ。今は周りも住宅地となっているが、引っ越した当時は本当に田んぼの真ん中だったということ。音響・防音工事は株式会社SONAに依頼をし、Pro Toolsシステムを導入した。 スタジオのオープンは2007年。オープンしてからは、国内のアーティストだけではなく、韓国のアーティストの作品を手掛けることも多いということだ。チンパンジースタジオができるまではライブハウスや練習スタジオに併設する形での簡易的な録音のできる場所しかなかったそうで、鹿児島で録音に特化したスタジオはここだけとなる。チンパンジースタジオでの録音作業は、地元のCM音楽の制作が一番多いということだ。自身がメインで演奏活動を行うJazzはやはり多くなるものの、ジャンルにこだわりはなく様々なミュージシャンの録音を行っている。 地元ゆかりのアーティストがライブで鹿児島に来た際にレコーディングを行うというケースも多いということだ。名前は挙げられないが大御所のアーティストも地元でゆっくりとしつつ、レコーディングを行うということもあるということ。また面白いのは韓国のアーティストのレコーディング。特に釜山からレコーディングに来るアーティストが多いということだ。福岡の対岸に位置する釜山は、福岡の倍以上の人口を抱える韓国第2の都市でもある。しかし、韓国も日本と同様にソウルへの1極集中が起こっており、釜山には録音のできる施設が無いのが実情の様子。そんな中、海外レコーディング先としてこのチンパンジースタジオが選ばれることが多いということだ。 📷錦江湾から望む鹿児島のシンボルとも言える桜島。チンパンジースタジオは市街から15分ほどの距離にある。 📷Proceed Magazine本誌で別途記事を掲載している鹿児島ジャズフェスティバルのステッカーがここにも、大久保氏はプレイヤーとして参加している。 省スペースDolby Atmos環境のカギ 📷内装のブラッシュアップに合わせ、レッドとブラックを基調としスタイリッシュにリフォームされたコントロールルーム。右にあるSSL XL Deskはもともと正面に設置されていたものだが、DAWでの作業が増えてきたこと、またAtmosの制作作業がメインとなることを考えPCのデスクと位置が入れ替えられている。またリフォームの際にサラウンド側の回線が壁から出るようにコンセントプレートが増設されている様子がわかる。Atmos用のスピーカーはGenelec 8020、メインのステレオスピーカーはADAM A7Xとなっている。 スタジオをオープンさせてからは、憧れであったアナログコンソールSSL XL Deskを導入したりマイクを買い集めていったりと、少しづつその環境を進化をさせていった。そして今回、大きな更新となるDolby Atmos環境の導入を迎えることとなる。Dolby Atmosを知るきっかけは、とあるお客様からDolby Atmosでの制作はできないか?という問い合わせがあったところから。それこそAtmosとは?というところから調べていき、これこそが次の時代を切り拓くものになると感じたということ。この問い合わせがあったのはまさにコロナ禍での自粛中。今まで通りの活動もできずにいたところでもあり、なにか新しいことへの試みをと考えていたこともあってAtmos導入へと踏み切ったそうだ。 当初は、部屋内にトラスを組みスピーカーを取り付けるという追加工事で行おうという簡易的なプランだったというが、やるのであればしっかりやろうということなり天井、壁面の内装工事をやり直してスピーカーを取り付けている。レギュレーションとして45度という角度を要求するDolby Atmosのスピーカー設置位置を理想のポジションへと取り付けるためには、ある程度の天井高が必要であるが、もともとの天井の高さもあり取り付けの位置に関しても理想に近い位置への設置が可能であった。取り付けについても補強を施すことで対応しているという。合わせて、壁面にも補強を行いスピーカーを取り付けている。このような設置とすることで、部屋の中にスピーカースタンドが林立することを避け、すっきりとした仕上がりになっている。また、同時にワイヤリングも壁面内部に埋め込むことで、仕上がりの美しさにもつながっている。環境構築にはパワードスピーカーを用いるケースが多いが、そうなると、天井や後方のサラウンドスピーカーの位置までオーディオ・ケーブルとともに電源も引き回さなければならない。これをきれいに仕上げるためには、やはり内装をやり直すということは効果的な方法と言える。 📷天井のスピーカーはDolby Atmosのリファレンスに沿って、開き角度(Azimuth)45度、仰角(Elevation)45度に設置されている。天井が高く余裕を持って理想の位置へ設置が行われた。 今回のDolby Atmos環境の導入に関しては、内装工事という物理的にスピーカーを取り付ける工事もあったが、システムとしてはオーディオインターフェースをMTRXへと更新し、Dolby Atmos Production Suiteを導入いただいたというシンプルな更新となっている。XL Deskを使ったアナログのシステム部分はそのままにMTRXでモニターコントロールを行うAtmos Speakerシステムを追加したような形だ。録音と従来のステレオミキシングに関しては、今まで通りSSL XL Deskをメインとしたシステムとなるが、Dolby Atmosミックスを行う際にも従来システムとの融合を図った更新が行われている。やはり今回のシステム更新においてMTRXの存在は大きく、ローコストでのDolby Atmos環境構築にはなくてはならないキーデバイスとしてシステムの中核を担っている。 📷今回更新のキーデバイスとなったAvid MTRX、持ち出しての出張レコーディングなどでも利用するため別ラックへのマウントとなっている。 📷収録時のメインコンソールとなるSSL XL Desk。プレイヤーモニターへのCueMixなどはこのミキサーの中で作られる。アナログミキサーなのでピュアにゼロレイテンシーでのモニタリングが可能だ。 📷ブースはドラム収録できる容積が与えられ、天井も高くアコースティックも考えられた設計だ。 Dolby Atmos構築のハードルを下げるには エンドユーザーに関しては、ヘッドフォンでの視聴がメインとなるDolby Atmos Musicだが、制作段階においてスピーカーでしっかりと確認を行えることは重要だ。仕込み作業をヘッドフォンで行うことはもちろん、ヘッドフォンでのミックスを最終的にしっかりと確認することは必要なポイントではある。しかし、ヘッドフォンでの視聴となるとバイノーラルのプロセッサーを挟んだサウンドを聴くことになる。バイノーラルのプロセスでは、上下や後方といった音像定位を表現するために、周波数分布、位相といったものに手が加わることとなる。サウンドに手を加えることにより、擬似的に通常のヘッドフォン再生では再現できない位置へと音像を定位させているのだ。これは技術的にも必要悪とも言える部分であり、これを無くすことは難しい。スピーカーでの再生であればバイノーラルのプロセスを通らないサウンドを確認することができ、プロセス前のサウンドで位相や定位などがおかしくないか、といったことを確認できる。これは業務として納品物の状態を確認するという視点からも重要だと言える。 制作の流れとしては、スピーカーで仕上げ、その後にヘッドフォンでどのように聴こえるかを確認するわけだが、バイノーラルのプロセスを通っているということは、ここに個人差が生じることになる。よって、ヘッドフォンでの確認に関して絶対ということは無い。ステレオでのMIXでもどのような再生装置で再生するのかによってサウンドは変質するが、その度合がバイノーラルでは耳の形、頭の形といった個人差により更に変化が生じるということになる。ここで、何をリファレンスとすればよいのかという課題が生じ、その答え探しの模索が始まったところだと言えるだろう。バイノーラルのプロセスでは音像を定位させた位置により、音色にも変化が生じる。そういったところをスピーカーとヘッドフォンで聴き比べながら調整を進めるということになる。 制作のノウハウ的な部分に話が脱線してしまったが、スピーカーでサウンドを確認できる環境が重要であるということをご理解いただけたのではないだろうか。省スペースなDolby Atmos環境であっても、物理的に複数のスピーカーを導入するといった機材の追加は、その後に制作される作品のクオリティのために必要となる。また、システムとしてはAvid MTRXの登場が大きい。モニターコントローラーや、スピーカーチューニングなどこれまでであれば個別に必要であった様々な機器を、この一台に集約することができている。チンパンジースタジオでは、このMTRXの機能をフルに活用し、機材の更新は最低限にして、内装更新やスピーカー設置といったフィジカルな部分に予算のウェイトを置いている。前号でご紹介した弊社のリファレンスルームもしかり、そのスペースにおけるキーポイント明らかにし、そこに焦点をあてて予算を投入することで、Dolby Atmos Music制作環境の構築はそれほど高いハードルにはならないということをご理解いただきたい。 大久保氏は今回Dolby Atmosのシステムを導入するまでは、完全にステレオ・オンリーの制作を行ってきており、5.1chサラウンドのミキシング経験もなかったそうだが、今回の導入でステレオから一気にDolby Atmos 7.1.4chへとジャンプアップしている格好だ。お話をお伺いしたときには、まだまだ練習中ですと謙遜されていたが、実際にミックスもすでに行っており本格稼働が近いことも感じられる。今後はアーティストの作品はもちろん、ライブ空間の再現など様々なことにチャレンジしたいと意気込みを聞くことができた。鹿児島で導入されたDolby Atmosが、その活動に新たな扉を開いているようである。   *ProceedMagazine2021号より転載

Music

洗足学園音楽大学様 / ~作編曲と録音の両分野をシームレスに学ぶハイブリッド環境~

クラシック系、ポピュラー系と実に18もの幅広いコースを持ち業界各所へ卒業生を輩出している洗足学園音楽大学。その中で音楽音響デザインコースの一角である、B305教室、B306教室、B307教室、B308教室の4部屋についてシステムの更新がなされた。作編曲と録音の両分野をシームレスに学ぶ環境を整えることになった今回の更新ではAvid S6が採用され、またその横にはTrident 78が据えられている。アナログ・デジタルのハイブリッドとなった洗足学園音楽大学の最新システムをご紹介したい。 日本国内で一番学生数が多い音楽大学 神奈川県川崎市高津区にある洗足学園音楽大学は1967年に設立された音楽大学で、音楽の基盤となるクラシック系からポピュラー系まで実に多彩な18のコースを有している。大学院まで含めると約2300人の学生が在学しており、現在日本国内で一番学生数が多い音楽大学である。 音楽大学の基盤となるクラシック音楽系のコースはもちろんだが、新しい時代の音楽表現を模索するポピュラー音楽系のコースとして、音楽・音響デザイン、ロック& ポップス、ミュージカル、ジャズコースなど多彩なコースがあり、特に近年は声優アニメソングやバレエ、ダンス、そして舞台スタッフを育成する音楽環境創造コースなど、音楽の周辺分野まで学べるコースも設立されており、近年ますます学生が増え続けているのも特徴である。 各分野には著名な教授陣がおり、音楽制作の分野ではゲーム音楽作曲家の植松伸夫氏、伊藤賢治氏、劇伴音楽やアニソン作曲家の山下康介氏、渡辺俊幸氏、神前暁氏、さらに録音分野の教授として深田晃氏や伊藤圭一氏などが教鞭をとっている。卒業後は国内の主要オーケストラや声楽家、ミュージカル俳優、声優、劇伴作曲家やゲーム会社、大手音楽スタジオエンジニアなどへ卒業生を多数輩出している。 作編曲と録音の両分野をシームレスに 現在、洗足学園では3つのスタジオを含む複数の音響設備を備えた教室が多数稼働している。メインスタジオではオーケストラや吹奏楽など大編成のレコーディングが可能で、ピアノやドラムなどをアイソレート可能なスモールブースも完備されている。これをはじめとする3つのスタジオではSSLのアナログコンソールが導入されており、音楽・音響デザインコースの生徒だけではなく、複数のコースの生徒がレコーディングなどの授業やレッスンで使用している。また、その他にも音響設備が備えられている教室の中には、Auro-3D 13.1chシステムを設置したイマーシブオーディオ用の教室が2つあり、Pro Tools UltimateとFlux:: SPAT Revolutionが導入され、電子音響音楽の制作やゲーム音響のサウンドデザインの授業が行われている。 📷学内にある大編成レコーディングも可能なメインスタジオ、ブースは天井高を高く取られている。 今回教室の改修が行われたのは、洗足学園音楽大学(以下、洗足学園)の音楽音響デザインコースの一角である、B305教室、B306教室、B307教室、B308教室の4部屋だ。近年、音楽・音響デザインコースを専攻する学生が増えており、既存のスタジオに加えてマルチブース完備のスタジオ増設が急務となったそうだ。主科で作編曲を学ぶクリエイター系の学生は音源制作をPC内でほぼ完結しているケースが多いが、さらに録音のスキルも身につけることによってより質の高い音源を制作できるようになる。このように作編曲と録音の両分野をシームレスに学ぶことができる環境を整えることが今回のテーマの一つとなった。そして、今回の改修でのもう一つのテーマは、アナログとデジタルが融合されたハイブリッドシステムを形成すること。これは授業内容なども考慮された大学ならではのシステム設計だろう。 📷今回改修が行われた4部屋の中でも、Avid S6を中心としたコントロールルームの役割を持つB305教室。 Avid S6とTrident 78によるハイブリッド 新たに導入されたPro Tools | MTRXは既存のHD I/Oと合わせてAD/DA 48chの入出力が可能。 今回改修された4教室は大きさがそれぞれ異なり、合わせて使用することで1つのスタジオとして稼働できるよう計画された。一番広いB305教室は、Avid S6を中心としたコントロールルームの役割を持つ。既存のスタジオが主にアナログ機器を中心とした設計なのに対し、今回改修された4教室ではデジタル中心のシステムを組むように考慮され、B305教室の既存Pro Tools HDXシステムには、Pro Tools | MTRXが追加導入された。これらのAvid S6システムは、録音はもちろんMAでも数多く導入実績があり、さらにDolby Atmosなどのイマーシブ・オーディオへの拡張性も申し分ない。授業においてPro Toolsを使用することが前提の教室で、これらの点を考慮した結果、Avid S6以外の選択肢はなかったそうだ。 S6の構成は5Knob・24Faderで、サラウンドミックスに対応できるようにJoystick Moduleも追加されている。もともとこちらの教室ではサラウンドシステムを導入しており、以前はJL CooperのSurround Pannerが使用されていた。なお、Joystick Moduleはファブリックの統一感のために専用スペースに納められている。Pro Tools | MTRXはADカード24ch(うち8chはMic Pre付き)、DAカード24chとSPQカードを増設。さらに既存のHD I/O 2台と組み合わせて、Pro ToolsとしてはトータルでAD/DA 48chの入出力可能なシステムへと強化された。HAはPro Tools | MTRXに増設された8chのほか、SSLやRME、FocusriteなどのMic Preが30ch以上用意されており、好きなMic Preを選択可能のほか、最大48chのマルチチャンネル録音も可能とした。 📷アナログパッチベイとHA類。SSL、RME、FocusriteなどのMic Preが30ch以上用意されている。 今回の改修で特徴となったのが、Avid S6横に設置されたTrident 78。デジタルとアナログのハイブリットシステムを構築しているわけだが、授業ではスタジオ録音を初めて経験する1年生から上級生まで様々な学生が使用するため、デジタル機器だけではなくアナログ機器についての学習も行えるようにハイブリッドシステムが採用されたということだ。Trident 78をHAやサミング・ミキサーとしても使用できるよう、Monitor OutはPro Tools | MTRXへ、Direct OutとGroup OutはHD I/Oへとそれぞれパッチベイ経由で接続されている。特にTrident 78のMonitor Outがパッチベイ経由なのは、デジタル中心のシステムではあるが、授業内容によってはTridentのみでも授業が行えるように、あえてAvid S6とPro Tools | MTRXを経由せずにも使用できるように設計された。 📷B305教室にはAvid S6 5Knob-24faderとTrident 78が並ぶ、アナログ機器の学習も行えるハイブリッドなシステムだ。Trident 78の下にはAV AmpとBlu-rayプレイヤー、Apple TVが収められている。 また、Pro Tools | MTRXはモニターコントロールとしても設定された。AD/DAのチャンネル数が豊富に拡張されているが、モニター系統はいたってシンプルに構成されており、ソースはPro Tools、TridentとAV Ampの3つに絞られたが、5.1chサラウンドで構成されている。AV AmpはBlu-rayプレイヤーのほか、Apple TVとHDMI外部入力が用意されており、持ち込みPCなど映像だけではなく音声もメインスピーカーからサラウンドで視聴が可能だ。民生機系の機材をAV Ampにまとめることで、音声のレベル差なども解消させている。 S6マスターセクションの隣に用意された専用スペースにはJoystick Moduleが収められている。 ソース切り替えに連動させるため、Pro Tools | MTRXとAES/EBU接続されたClarity M。 ワイヤレスで揃えられたマウスとキーボードは授業形態の自由度を高めるために、Avid S6とセパレートされた。 独立して使用可能なB308教室 マルチブースのなかで一番広いB308教室にはドラムセットが常設され、マイクの種類や位置など集中的にマイキングに関する授業やレッスンができるよう考慮された。これらの回線は壁面パネル経由でB305教室での録音を可能にしたほか、B308教室に設置されているPro Toolsシステムでも録音可能である。 こちらの独立したPro ToolsシステムではインターフェイスにPro Tools | Carbonが採用され、こちらでもPro Toolsを中心とした授業が行えるよう設計された。こちらの教室は単独で授業を行うことが多く、作曲系のレッスンで使用されることも多いため、Pro Tools以外にもLogicがインストールされている。こういったHost DAWが複数ある場合、それぞれのアプリケーションで同一インターフェイスを使用することが想定される。従来のインターフェイスであれば、それぞれのアプリケーションを同時に起動することは難しいが、Pro Tools | CarbonのAVB接続ではPro Toolsと他アプリケーションで同時にI/Oを共有できる。AVBのストリームをPro Tools専用の帯域とCore Audioとして使用可能な帯域とで分けることにより、Pro Toolsと他DAWが同時起動できる仕組みは、こちらの教室では非常に有効な機能だ。 📷B308教室の独立したPro Tools システムはPro Tools | Carbonをインターフェイスにし、AVB接続による他DAWと同時起動できる仕組みを活かした授業が行われている。また、こちらのClarity MはUSB接続となっている。 また、Pro Tools | Carbonの特長でもあるハイブリッド・エンジンにより、DSPエンジンの恩恵を受けることができるため、DSPプラグインを使用したり、ローレイテンシーでレコーディングをする、といった作業も可能だ。音質についても講師陣からの評価が非常に高く、作編曲と録音の両分野をシームレスに学ぶという点でも最適なインターフェイスである。システムの中心がPro Tools | Carbonではあるが、こちらの教室でも様々な授業が行われるため、B305教室と同様にHDMI外部入力にも対応したシステムが構築されている。こちらはAvid S6やPro Tools | MTRXのようなシステムはないため、モニターシステムはSPL MTCが導入されている。 4教室を連結、1つのスタジオに 今回の改修において最大の特徴である教室間を連携したシステムは、録音ができるマルチブースを完備するためでもあるが、昨今のコロナ対策として密集を避けて録音授業やレッスンを実施できるようにする目的もある。各教室は一般の録音スタジオのようにガラス窓などは設けられていないが、その代わりに各教室壁面に用意されたパネルには音声トランク回線のほか映像回線も用意されており、全てがB305教室とB308教室へ接続することができる。 📷4分割表示されたモニタディスプレイ。画面の上部には小型カメラが設置されている。 B305教室の映像系ラック。Smart Videohubでソースアサインを可能にしている。 4部屋に用意されたテレビモニターシステムは、モニタディスプレイと上部に設置された監視カメラ用の小型カメラから構成されている。B305教室では、各教室のカメラ回線がBlackmagic Design Smart Videohub Clean Switch 12x12に接続されており、各部屋への分配を可能にしている。さらに組み込まれたMulti View 4で4部屋のカメラ映像をまとめて1画面で表示し、各教室同士でコミュニケーションを可能にした。それだけではなく、分散授業の際にはB305教室の模様を全画面でディスプレイに表示し、B305教室では各部屋の学生の様子をモニタリングしたりと、授業内容によって自由にカスタマイズ可能である。 もちろんCUE Boxも各部屋に配置されているが、授業という形態を取るにあたり受講者全員がヘッドホンモニタリングするということは難しい。そのため、CUEシステムの1、2chをSDIに変換してモニタディスプレイの回線にエンベデッドし、各モニタディスプレイに分配、ディスプレイの音量ボリュームを上げることで、ヘッドホンをしていない受講者もCUE回線を聴くことができるよう設計された。こういった活用方法は一般の音楽スタジオでは見られない設計で、大学の教室ならではの特徴である。 ジャンルを越えていく教室の活用法 実際にAvid S6を使用して、まずはじめにPro Tools | MTRXの音質の良さが際立ったという。音質に定評のあるPro Tools | MTRXは音楽大学の講師陣からも絶賛だ。さらに、Avid |S6はレイアウトモードが大変便利だという。24ch仕様でフェーダー数に限りがあるため、レイアウトをカスタマイズできる機能は操作性が良く、柔軟にレイアウトを組むことができて再現性も高い。レイアウトデータがセッションに保存されるところも特徴で管理がしやすいのも特徴だ。視認性の高さという点では、ディスプレイモジュールに波形が表示され、リアルタイムに縦にスクロール表示されるのも視覚的に発音タイミングを掴みやすいので、MAなどで活用できそうだという。 実際にこちらの教室で行われる授業は、録音系の授業やレッスンでは実習が中心となり、学生作品や他コースからの依頼などで様々なジャンル、編成でのレコーディングやトラックダウンをS6で学び、またTrident 78、SSL Logic Alpha、RME Octamic、MTRXなどの様々なマイクプリの比較や、アナログとデジタルの音質の聴き比べなども行う。今後はMAやゲーム音響制作のレッスンでも使用予定だそうで、今回導入したJoystick Moduleもぜひ活用していきたいと語る。ほかにも、ジャンルの枠にとらわれないコース間のコラボレーション企画や学生の自主企画が多く執り行われており、2021年3月には、声優アニメソングコース、ダンスコース、音楽・音響デザインコース、音楽環境創造コースのコラボレーションによる、2.5次元ミュージカルが上映された。このようにユニークな企画が多く開催されているのも、学生の自主性を重んじる洗足学園ならではである。 また、コロナ禍により全面的な遠隔授業やレッスン室にパーティションを設置するなど、万全の感染対策を施した上で、いち早く対面でのレッスンを実現したことや、年間200回以上も上演されている演奏会では、入場者数の制限や無観客の配信イベントとして開催するなど、学生の学びを止めることなく、実践を積み重ねることで専門性を磨き、能力や技術の幅を広げている。 今後、このS6システムを活用して学生作品のコンペを実施し、優秀作品をこのスタジオで制作することを検討しているという。音楽大学のリソースを活かして、演奏系コースとのレコーディングプロジェクトを進めたり、こちらの教室を中核にした学内の遠隔レコーディングネットワークをさらに充実させる計画もある。アフターコロナでどの音楽大学も学びのスタイルを模索している中ではあるが、このように洗足学園ならではの制作環境を実現し、学びの場を提供し続けていくのではないだろうか。 洗足学園音楽大学 音楽・音響デザインコースで教鞭をとる各氏。前列左から、伊藤 圭一氏、森 威功氏、山下 康介氏、林 洋子氏。また、後列はスタジオ改修に携わった株式会社楽器音響 日下部 紀臣氏(右)、ROCK ON PRO 赤尾真由美(左) *ProceedMagazine2021号より転載

Education

浜町 日々 様 / 〜伝統芸能が得た、テクノロジーとの融合〜

福井駅からほど近い浜町。福井の歓楽街といえば片町が有名だが、その片町と市内を流れる足羽川との間の地区が浜町である。古くから花街として賑わい、現在でも料亭が軒を連ね情緒あふれる街。国指定の登録有形文化財としても有名な開花亭や、建築家 隈研吾の設計によるモダンな建築も立ち並ぶ文化の中心地である。そんな浜町に花街の伝統的な遊びをカジュアルに楽しむことの出来る「日々」はある。今回はこのステージ拡張に伴う改修をお手伝いさせていただいた。 芸妓の技。日本の伝統芸能とテクノロジー。 ステージ奥のスクリーンをおろした状態での演目の様子。福井・浜町芸妓組合の理事長である今村 百子氏が伝統的な演目を披露し、背景には福井の風景が流れる。まさに伝統芸能とテクノロジーが出会った瞬間である。 日々は、福井・浜町芸妓組合の理事長でもある今村 百子氏が立ち上げたお店。お座敷という限定された空間で、限定された特別なお客様にしか披露されてこなかった芸妓の技。それを広く、カジュアルに楽しんでもらいたいという思いからスタートしている。バーラウンジのようなお店にステージがあり、そこで毎夜これまでお座敷でしか見ることができなかった芸妓さんたちの日本舞踊や、三味線、唄を楽しむことができる。 この日々のステージがこのたび拡張され、様々な催しに対応できるように改修が行われた。改修にはレコーディングエンジニアでもあり、様々な音楽プロデュースを行うK.I.Mの伊藤圭一氏が携わっており、コンセプトや新しい演目のプロデュースなどを行なっている。元々、日々にあったステージは非常に狭かった。「三畳で芸をする」という芸妓の世界、お座敷がそのステージであることを考えればうなずける。これを広げ、日本の伝統芸能だけではなく、西洋の芸能、最新のテクノロジーと融合させ新しいステージを作ろう、というのがそのコンセプトとなる。 普通に考えれば、クローズドな世界に見える日本の伝統芸能の世界だが、今村氏の持つビジョンはとてもオープンなものだ。2017年には全国の芸妓を福井に集め、大きなステージに50名近くの芸妓が集まり、それぞれに磨いた芸を披露する「花あかり」というイベントを行なっている。芸妓の技を広く、カジュアルに楽しんでもらいたいという考えを具現化したわけだ。このように新しいことへ果敢にチャレンジするスピリットを持った今村氏のイメージを具体化できるステージを作ろう、ということで伝統芸能とテクノロジーの融合というコンセプトがさらに詰められていくことになる。 無拍子である日本の伝統芸能に指揮者代わりの声やクリックを持ち込み、バックトラックに合わせて演奏をする。プロジェクターを使い、福井の映像とともに舞踊を披露する、そしてマイクで集音し拡声する。現代のステージ演出としては当たり前に聞こえることかもしれないが、「日本の伝統芸能を」という枕詞をつけた瞬間にハードルの高いチャレンジとなる。なんといっても無拍子である。様々な演出のきっかけを決めることだけでも困難なことだ。このような多くの課題を持ちながら、ステージの設計は進められていくこととなった。 スクリーンを上げると手作業で金・銀・銅をヘラで塗り重ねた四角錐のホリゾントが現れる(下部左)。和を意識する金と、幾何学的な造形。照明により、表情を変化させる建築デザイナー 大塚先生のアイデアだ。 透過スクリーンに浮かび上がる表現 ステージ天井部分にはホリゾントのスクリーンと透過型スクリーン用に2台の超短焦点型のプロジェクターを準備し、この位置からの投影を可能としている。 まずは、映像演出から見ていこう。ステージのホリゾントは、今回の改修の建築デザイナー、大塚 孝博氏による金の四角錐があしらわれている。一般的には、金屏風や松などが想像されるが、ここに幾何学的な金の四角錐とはなんとも粋である。日本の古来のデザインにも幾何学的な模様は多く使われているが、この四角錐は照明の当たり具合により変幻自在に表情を変える。金・銀・銅をヘラで塗り重ねており、一つ一つ反射の具合も異なる。これにより有機的な表情を得ている。 ここに映像との融合を図るわけだが、さすがにこの四角錐のホリゾントへプロジェクターで投影することはできないため、昇降式の大型スクリーンが吊られている。プロジェクターは超短焦点のレンズと組み合わせてステージ天井からの投写としている。これによりステージ上の人物は、ステージ後方1/3まで下がらなければ影が映らない。プロジェクターでの映像演出と、ステージ上での実演を組み合わせることを可能としている。 さらにステージには、透過型スクリーン(日華化学 ディアルミエ)が設置されている。この透過スクリーンに投影することで、ステージ上に人物を浮かび上がらせたり、視覚効果的に使ったりと様々な演出を行うことができる。例えば、笛を吹いている今村百子さんの映像を投影しながら、実際の今村氏がそれに合わせて三味線と唄を披露するという演目が行われている。周りを暗くすることで、ホログラム的に空間に浮かび上がっているような効果を得ることができている上、ホリゾントのプロジェクターとも同時使用が可能なため、演出の幅はかなり広い。 ステージ手前下手側に吊られた透過型スクリーン(日華化学 ディアルミエ)を使った演出、無拍子の笛に合わせるためにイヤモニでクリックを聴きながら演奏を行っている。また、透過型スクリーンはこのように歌詞を浮かび上がらせたりといった演出にも活用できる。空中にふわっと文字が浮かび上がったような幻想的な空気さえ感じる演出が可能だ。 スピーカーをイメージさせない音環境 音響としては、やはりスピーカーの存在をできるだけ目立たないようにしたいという要望があった。スピーカーが鳴っているというイメージを極力持たせないためにも大切なポイントだが、理想的な音環境を提供しようと考えると設計としては難しいものがある。結論から言えば、今回はステージプロセの上下にスピーカーを設置することとなった。上部は、視界よりも上の位置、下部はネットで覆い客席からは見えないように工夫してある。この上下のスピーカーの調整を行うことで、仮想音響軸をステージ上の演者の高さとするように調整を行っている。 音響ミキサーはYAMAHA TF-RACKを導入している。専門のオペレーターが所属するわけではないため、できるだけ簡単に操作できる製品としてこちらが選択された。接続されているソースは、2台のプロジェクターへそれぞれ映像を投影するために用意された映像プレイヤーからの音声、ステージ天井に仕込まれた2本のマイク、上下の袖にはマイクコンセントが設けられている。仮設の機器としては司会者などを想定したハンドマイクが用意されている。 ステージ天井のマイクはDPA 4017が選ばれた。コンパクトなショットガンタイプで、ステージの決まった位置に座ることが多い演者をピンポイントで狙っている。これらのソースは予めバランスを取り、演目ごとのプリセットとして保存、それを呼び出すことで専門でない方でもオペレートできるよう工夫が凝らされている。 映像に合わせた音声のバックトラックは、映像ファイルに埋め込むことで映像と音声の同期の問題を解消している。それらの仕込みの手間は増えるものの、確実性を考えればこの手法が間違いないと言えるだろう。天井マイクの音声にはリバーブが加えられ、実際の生の音を違和感なく支えられるよう調整が行われた。 プロジェクターの項でご紹介した笛を吹く映像に合わせて三味線と唄を歌うという演目では、演者の今村氏はイヤモニをつけてステージに上がる。無拍子の笛にクリックをつけた音声を聴きながらタイミングを図り演奏を行っているということだ。高い技術があるからこそできる熟練がなせる業である。呼吸を合わせ演奏を行う日本の伝統音楽の奏者にとって、これはまさに未知の体験であったことだろう。より良いステージのため、このようなチャレンジに果敢に取り組まれていることに大きな敬意を抱く。 マイクはステージ上での演奏を集音する為にDPA 4017を設置。音響および映像の再生装置はステージ袖のラックにまとめて設置され、専門ではない方もオペレートできるよう工夫が凝らされている。 ここまでに紹介したような芸妓の技を披露するということだけではなく、今後は西洋楽器とのコラボレーションや、プレゼン会場などの催しなど、様々な利用をしてもらえる、皆様に愛される空間になって欲しいとのコメントが印象的。日本の伝統芸能が、新たなスタイルを携えてこの福井の地から大きく羽ばたく、日々はその発信源になるステージとなるのではないだろうか。 前列左より、株式会社大塚孝博デザイン事務所 大塚孝博氏、浜町日々 女将 今村百子氏、株式会社KIM 伊藤圭一氏、後列左より:前田洋介、森本憲志(ROCK ON PRO) *ProceedMagazine2020-2021号より転載

Media

テレビ愛知株式会社 様 / 〜従来の感覚をも引き継ぐ、Avid純正のコンソール更新〜

愛知県を放送エリアとするテレビ東京系列のテレビ愛知、MA室の更新が2020年初頭に行われた。10年以上に渡り使われてきたAvid ICON D-Control(導入当時はDigidesign社)から、Avid S6へと更新されている。同時にファイルベース対応など、最新のトレンドを念頭にシステムを設計、その詳細をレポートしていく。 D-Controlを継承するS6を テレビ愛知では、MA室のメインコンソールとして10年以上に渡りAvid ICON D-Controlを使用してきた。テレビ局のIn The Box用のコンソールの導入としては、非常に早いタイミングから活用されてきたわけだが、当時、限られた予算の中でもMA室のシステムは今後DAWが主流になるということを予想し、先行して導入に踏み切っている。今回の更新では、逆説的な候補としてアナログコンソールなども挙がってはきたが、やはり、これまでの使い勝手の延長線上にあるAvid S6を導入することとなった。 すでに10年以上に渡りD-Controlを使ってきているため、導入に際してオペレート上の不安も少ないというメリットは大きかったようだ。Avid S6自体もバージョンアップを重ね、D-Controlを使用してきたユーザーからのフィードバックが多数反映されていることも背中を押した一因となっている。物理的なボタンの有無などの差異はもちろんあるが、すでに現在のAvid S6は、ほぼD-Controlで実現していた機能を網羅していると言っていいところまでブラッシュアップされている。 Avid S6の導入にあたりフェーダー数をどうするかは、かなり議論が行われたポイントだ。D-Controlは32 Faderであったが、Avid S6に更新を行うにあたり32Faderが本当に必要かどうか?ということが実機でのデモなどで検証された。Avid S6はLayout Mode、Spill Modeなど様々な工夫が行われており、最低限のFader数でミキシング作業を快適に行えるようになっている。これは、エンジニアが音響的にベストであるセンターの位置に座ったまま作業が行えるようにするという工夫でもあるが、これらの機能を実際に体験いただいて最終的には24 Faderという決着を見ている。メインエンジニアは最低16 Faderあればミキシングが行えるという判断をしていただいているが、やはり、効果担当を含めた2名体制でのミキシングもある。ここは16Faderではさすがに心もとない、ということもあり24 Faderがセレクトされた。 机上にS6が置いてあるようにも見えるが、一体となった専用設計のデスクとなる。センターポジションで、編集もミキシングも両方が行えるようにレイアウトされている。 D-ControlからAvid S6への更新を行ったことにより、コンソール自体のサイズはかなり小さくなった。特に奥行きが短くなり、部屋が広く使えるようになったのが使い勝手としては非常に大きなポイントとなっている。ディレクターのデスクに収められていたアウトボード関係も、必要なものはサイドラックへと移設され、足元の空間を十分に確保することができるようになっている。これはエンジニアだけではなく、ディレクターなどこの部屋を利用する方からも好評であるということだ。このレイアウト変更によりエンジニアは前を向いたまま、ほとんどの作業を手の届く範囲で行うことができるようになった。 Avid S6が収まるデスクも、作業を常に正面を向いて行うことができるように特注設計となっている。Avid S6を購入すると付属するFader手前の手を置く部分はBolsterと呼ばれるのだが、Keyborad、Mouseを置くには少し幅が狭い。Keybordトレイなども準備されているのだが、台本を置いたりということを考えると写真で確認していただけるような形状が望ましい。このデスクはAvid S6の各モジュールを収めるフレームを純正のカバーで仕上げるのではなく、そのままデスクに埋めることで手元のスペース拡大を実現している格好だ。 テレビ愛知株式会社 デジタルネットワーク局技術部 水野 正基 氏 株式会社アイプロ 技術部長 牟禮 康貴 氏 株式会社NAV 名古屋事務所長 高野 矢守至 氏 効率を実現したDAW環境 システム面では、Avid MTRXをAvid Pro ToolsのI/Oとしている。このMTRXで信号の集約を行い、モニターコントローラーとしてはTac System VMC-102を導入した。VMC-102を導入することでDAWのPCが起動していなくてもモニターセクションの切替が行える。一般的なコンソールで言うところのセンターセクションの機能を受け持っているわけだ。これはPCが不具合を起こした際にも最低限の作業は行えるようにという工夫の一つとなっている。また、VMC-102の最新バージョンアップで実装された、Blackmagic Design Smart Videohubのリモート機能も活用している。ブース、コントロールルームに映す映像の切替を、VMC-102での音声のモニターソース切替に連動させることで、オペレートの手順を削減することに成功している。たとえば、モニターソースとしてPro Toolsを選択すれば、各所のVideo MoniterにはPro ToolsのVideo出力が自動でパッチされる。同様にXDCAMを選択すると、音声映像ともにXDCAMに変更されるということだ。これは作業上オペーレートミスを減らすことにも直結しストレスフリーな環境を実現している。 ラックに収まったAVID MTRX。Analog 8IN/8OUT、64ch Danteがオプションとして加わっている。 モニターコントローラーとしてDAW PCが起動していなくてもコントロール可能なTAC SYSTEM VMC-102。映像モニターの切り替えもワンボタンで行えるように設定されている。 DAW環境周辺でのこだわりは、38inchのUltra-Wide Displayにある。多くの情報を見渡すことができるこのDisplayの導入はIn The Boxでのミキシングを前提とした環境においては非常に効果的。タイムラインの表示においては、前後長時間の表示が可能であるし、ミキサー表示においては多くのフェーダーを表示することができる。単純に言えば情報量が増えるということになるが、これは作業を行う上で非常に効果的だと言える。 広大な表示領域を提供する38-inch Ultra wide Display。解像度は3840x1600 予想外のマッチング、ATCとEVE 数多くの機種から選びぬかれたメインモニターのATC SCM25a。3-Wayのスピーカーでスタンドは日本音響エンジニアリングによる特注設計品 ミキサー席右に設置されているラック。元々、背面のディレクターデスクからの移設のSSL X-RACK、NEVE 33609、AJA KiPro GOが収まる 今回の更新ではモニター・スピーカーも一新している。様々な機種を持ち込ませていただき、比較試聴をしていただいた結果、ATC SCM25aが選択された。以前はDynaudio Air15を使われていたのだが、MA室を利用するエンジニアのほぼ全員がATCに好印象を持ったため、このスピーカーが選択されている。しっかりとしたボリューム感を持ちつつタイトに鳴るこのスピーカーは作業がやりやすいと好評であるということだ。スモールとしては、EVE AUDIO SC203を導入いただいている。不思議なことにATCとEVEのキャラクターが非常に似通っているため、切り替えた際の違和感も少なく、バランスを保ったままLarge/Smallの切り替えができるのでこちらも好評であるということ。ATCのスピーカースタンドは、内装工事を担当された日本音響エンジニアリングの特注設計品。また、コンソール背面には同社の特注AGS音響衝立が設置され、メインモニターとコンソール背面まわりの音場を整えることに一役買っている。 テレビ愛知ならではの導入機材としては、AJA KiPro GOが挙げられる。これまでは確認用のデータを民生のDVD Recorder、もしくはSDカードへ録画し、各所へ確認用として配布していたワークフローを更新した格好となる。複数のレコーダーの操作がKiPro GO 1台に集約することができ使い勝手が向上した部分とのことだ。また、機材もコンパクトなため機器の実装スペースの削減にもつながっている。AJA KiPro GOは同時に4系統のHD VideoをUSBメモリに録画できる製品。すでにDVDの需要は減っていたためデータでのワークフローとし、シンプルなこちらの製品へと更新された。 従来環境と違和感なく、効率的でコンパクト トータルとして見ると放送局ということもあり突飛な選択は行わずに、最新の製品を組み合わせることで効率的でコンパクトなシステムが実現できている。ただし、コンパクトになっても機能面では妥協はなく、ブラッシュアップされた部分も多い。ファイルベース・ワークフローへの対応としてNon-Leathal Application Video Slave Pro 4の導入、VTRもSONY XDCAM Stationへの更新など編集システムの更新により、どのような変化が起こったとしても柔軟に対応できる準備が行われている。また、システムの中心であるPro Tools、およびMTRXに関しては、持ち出し収録用のシステムを同一の製品とすることでバックアップ体制をとっている。MA室のPC、MTRXが故障した際には、可搬のシステムとリプレイスが行えるように冗長化がなされている。 実際にオペレートを行っている方の感想としては、導入直後よりD-Controlに慣れていたこともあり、非常にスムーズにAvid S6へと移行することができたとのことだ。また、コンパクトなサイズになったことで、すべてのスイッチ、ノブへのアクセスが容易となり、作業環境としての使い勝手は間違いなく向上している。やはり手の届くところに様々な機器が実装されているのは便利だ、と非常に高い評価をいただいている。今後、映像含めたファイルサーバーの更新なども予定されているということだが、それらにも柔軟に追従し、使い勝手をキープしたまま作業を行っていただけるシステム更新となっている。 さすがはAvid純正同士のコンソール更新、という面目を保つことができた今回の更新。従来のシステムを知り尽くしたユーザーだからこその気付きも数々ありながら、実際の導入後に満足感の高いコメントをいただけたことは、Avid S6の完成度の高さを改めて証明しているのではないだろうか。 写真手前右から株式会社アイプロ 牟禮康貴氏、渡辺也寸志氏、株式会社NAV 高野矢守至氏、写真奥右からROCK ON PRO 前田洋介、テレビ愛知株式会社 水野正基氏、株式会社アイプロ 山本正博氏、テレビ愛知株式会社 安松侑哉氏、ROCK ON PRO 廣井敏孝 *ProceedMagazine2020-2021号より転載

Broadcast

吹田市文化会館 メイシアター 様 / 〜DanteとAVBが共存するシステム〜

大阪梅田よりほど近い阪急千里線吹田駅前にある「吹田市文化会館 メイシアター」。吹田市制施行45周年を機に1985年にオープンした多目的文化施設である。正式名称は吹田市文化会館であるが、愛称であるメイシアターが広く知られている。充実した設備を備え、大中小3つのホールと、レセプションホール、展示室、練習室など様々な催しに対応できるキャパの幅広さと、コスト面でもリーズナブルに利用できることから人気を集める施設である。今回ここに音響メインコンソールとしてAvid S6Lが導入されたのでレポートしていきたい。 幅広い演目に対応する舞台環境 今回はAvid S6Lが導入された大ホール、中ホールを中心にご紹介したい。阪急吹田駅の目の前、JR吹田駅からも徒歩圏内とアクセスの良い立地、大阪梅田からは20分程度でアクセスができる利便性の高いロケーションに位置する。愛称のメイシアターの由来は、市の花である「さつき」のメイであること、また新緑あふれる「五月」を表す英語の「MAY」、さらには可能性を表わす助動詞の「May」を連想して、未来への希望を館名に託して命名されている。 大ホールはフルオーケストラにも対応する客席数1382席の多目的ホール。充実した舞台装置、そしてオーケストラピットを備えており、オペラやバレエの公演にも使用できる開口15~18m、奥行き17mの大きな舞台を備えている。音響反射板もあり、クラシックコンサートにもしっかりと対応することが可能だ。中ホールは、通常時客席数492席、舞台を取り囲むように客席を追加してアリーナ形式にすることで最大622席まで拡張することが可能。開口13~19m、奥行き10.5mという大きな舞台を備え、演劇、ミュージカル、古典芸能など様々な演目に対応する。こちらのホールも音響反射板が用意されており、ステージも十分に広いため小編成のオーケストラであれば十分に公演が可能である。ホールは照明設備も充実し常設の設備だけでほとんどの演目に対応できる。 雲が晴れた、音のピントが合った 音響反射板をおろした状態の大ホール。カラム、プロセに見える黒い長方形のものが L-Accousticのラインアレイ6/3で常設設置されている。調整室は、上手壁面が照明、下手壁面に音響がそれぞれある。 設備は1985年の開館の後、1997年~1998年に1回目の大規模な入れ替えが行われ、アナログコンソール、メインスピーカー等を更新しその約15年後デジタルコンソールYAMAHA M7CLに大・中ホールとも更新した。その後、機材の追加はあったものの大規模な改修作業は行われず、2017~2018年に満を持して大規模改修を計画し入札までこぎつけたがあいにく入札不調になり舞台機構、共用トイレのみの改修を当初計画の1年間休館して行った。改修開けの2018年6月18日に大阪北部地震が発生し震源にほど近く、吹田市も最大震度5強を観測した。メイシアターも大ホールの客席天井裏の吊り天井用鉄骨などに被害が出、大ホールの使用を中止した。震源にほど近く、最大震度5強を観測した吹田市ということもあり全館に渡り被害が出た。特に大ホールの被害が大きく、天井の鉄骨が曲がるなど大規模な改修を行わないことには、再開できない状況になってしまったということだ。 大規模な改修作業が必要となったことで2019年7月より2020年8月まで長期に渡る休館を実施。徹底的な改修が行われることとなった。改修は音響改修、ホールの椅子の交換、電源設備の更新など多岐に渡り、最新の設備を備えるホールへと生まれ変わった。音響面の変化は大きく、音響反射板の改修、座席の更新により、ホール自体の音響特性がブラッシュアップされた。具体的には、残響時間が0.4s程度長くなり、2.2s@500Hzと充実した響きを手に入れている。また、常設のプロセ、カラムスピーカーが、会館当時より使われてきた壁面内部に設置されたものから、外部に露出したL-Accoustic社製ラインアレイへと更新。どうしてもこもりがちであった音質面で大きく改善がなされた。 音量が必要な場合には、カラムの下部にグランドスタックを追加することができ、それほど音圧を求められないコンサートであれば十分に対応可能になったということだ。プロセスピーカーは昇降装置を備え、スピーカーユニットの故障等に客席レベルまで降ろすことで修理対応がしやすくなった。クラシックコンサート、オペラ、バレエなどの演目を行うホールにおいて露出型のスピーカーは敬遠される傾向が強かったが、近年ラインアレイ・スピーカーによる音質向上と、カバーエリアの拡大というメリットの方が勝り、また実際の導入例が増えてきていることもあって採用へと踏み切ったということだ。スピーカー駆動のアンプも同時に更新され、各アレイの直近に分散配置されている。コンソールからアンプまではAES/EBUでのデジタル接続で、外部からのノイズへの対策がなされている。また、各アンプラックには安定化電源装置も備えられ、音質への最大限の配慮が行われている。これらの更新により雲が晴れた、音のピントが合った、というような感想を持っていると伺うことができた。 2つのAoIPをどう活躍させるか その1年に渡る改修作業の中で、大ホール、中ホールへ常設音響メインコンソールとしてAvid S6Lが導入されることとなった。各ホールの音響調整室に設置されたS6Lは24Fader仕様のS6L 24Dをコントロールサーフェスに、エンジンはE6L-144が採用されている。I/Oは調整室、下手袖それぞれにStage64が用意され十分な入出力を用意している。大ホール、中ホールの設備は基本的には同一の設備、設置に関しても同一のレイアウトとなっている。つまり、一つ覚えれば両方のホールでのオペレートに対応できるため、オペレートするスタッフの負担を減らすように配慮されているということだ。 システムの設計上で苦労をしたのは、従来のYAMAHAコンソールを中心にしたシステムとAvid S6Lを共存させるという点。これまではYAMAHAのコンソールを中心としたシステムでDanteを活用したシステムアップが行われており、それらの機材は更新後もそのまま残されている。客席にコンソールを仮設してのミキシングなどのためにYAMAHA QL、TFシリーズ、LS9、M7CLが準備されていることからも、これはまだまだ活躍することになるシステム。一方のAvid S6LのバックボーンはAVBを使っている。そのため、DanteとAVBという2つのAoIPがシステム内に混在することになってしまった。 もちろん、Avid S6LにはSRC付きのDante Optionカードがあるため、そこを通じて接続されているわけだが、チャンネル数が制限されるため、運用の柔軟性を確保するための設計に苦心されたということだ。AoIPの接続はメタルのEthernetケーブルを使っているが、引回し距離は最長でも80mまでに収まるようにしているとのこと。それ以上の距離になる際には、一旦Switchを用意し距離減衰によるエラーが起こらないように注意が払われているということだ。取材時はホール再開直後ということもあり、実運用はまだこれからのタイミングであったが、96kHz駆動のコンソールということもあり、クリアな音質をまず感じているということだ。 中ホールのS6Lは大ホールと共通化された設置。 中ホール舞台より客席を望む。 大規模なツアーなどで目にすることの多いAvid S6Lだが、文化会館クラスの設備ではまだまだ導入例は少ない。固定設備としての導入も、国内では珍しいというのが現実である。若い技術者に今回導入されたコンソールでAvid S6Lに触れ、さらに大きなコンサートなどでのオペレートへと羽ばたいていってほしい、このAvid S6Lの導入が大阪で活躍する技術者の刺激にもなってほしいというとの思いもお話いただいた。将来の世代にも向けた多くの意志を込めたAvid S6Lの導入、是非ともその思いが大きな結果として実を結ぶ日を楽しみにしたい。 今回取材ご協力をいただいた、公益財団法人 吹田市文化振興事業団 舞台管理課 課長代理 前川 幸豊 氏(手前左)、舞台管理課 谷尾 敏 氏(手前右)、ジャトー株式会社 サウンド社サウンドアドバンス部 エンジニアグループ 主任 松尾 茂 氏(奥左)、ROCK ON PRO 森本 憲志。 *ProceedMagazine2020-2021号より転載

Music

朝日放送テレビ株式会社 様 / 〜Immersive制作を実現する、放送局におけるMA室改修を読み解く〜

大阪のテレビ朝日系列の放送局、朝日放送テレビ株式会社のMA室の改修を行った。放送局のMA室ということで、色々なトラブルに対応するための工夫はもちろんのこと、様々なスタッフが利用する施設であるため、操作の簡便化などを念頭に置きつつ、イマーシブフォーマットのオーディオへ対応するため天井へ4本のスピーカーを増設し、5.1.4ch formatのDolby Atmos仕様での最新設備へとブラッシュアップが行われた。朝日放送テレビでは、Flux Spat Revolutionをすでに使用いいただいていたこともあり、このソフトウェアを活用することで、様々なフォーマットの視聴なども行うことを前提として設計が行われている。 AvantをS6 + MTRXで置き換える 朝日放送テレビのMA室はこれまで、SSL Avant 48faderがメインコンソールとして導入され、コンソールミックスを前提とした設備となっていた。そのためMA室には、多数のアウトボード・エフェクトが準備されたシステムが組まれていた格好となる。しかし昨今はDAW内部でのIn The Boxミキシングが主流となっているということもあり、コンソールの更新にあたりデジタルコンソールとともに、DAWコントローラーとして主流となっているAvid S6が並行して検討された。放送局の設備として、コンピューター(DAW)が無いと何もできない製品を採用すべきなのか?という議論が当初は行われた。この部分はAvid MTRXが登場し、これをメインDAWとは別のPCで制御することで、システムの二重化が行えることがわかり、少なくともデジタルコンソールのセンターセクション部分は、十分に代替可能であるという結論となった。他にも様々な側面より検討が進められ、今回の更新ではバックボーンとして広範なトラブルにも対応を可能とする大規模なAvid MTRXを活用したシステムとAvid S6の導入となった。 Avid S6は40 Fader仕様と、従来のAvantと同一の規模。5KnobにDisplay Moduleが組み合わされている。モニターセクションは、MTRXをDADmanでコントロール。この部分は、前述の通りDADman専用にMac miniが用意され、DAW PCを起動せずともモニターセクションが単体で動作するような設計となっている。モニターセクションのリモートにはDAD monが用意され、フィジカルでのコントロールの利便性を上げている。DADman部分を二重化するにあたり、同一のプリセットファイルをサーバー上にバックアップし、PCの不良の際にはそちらからDADmanを起動することで回避できるように工夫がなされている。 これまで使用してきたAvantにはかなり多くの回線が立ち上がっていた、それらを整理しMTRXに立ち上げてある。そのため3台のMTRXが導入されたのだが、その使い分けとしてMain/SubのPro Toolsにそれぞれアナログ入出力、メーター関連、VTR送りとしてほぼ同一の仕様が2台。3台目はMain Pro Toolsに接続され、AV Ampからのアナログ入力及び、外部エフェクトSystem 6000が立ち上がっている。ここもシステム二重化が考えられている部分で、Main Pro Toolsの不具合時には、パッチでSub Pro ToolsがMainの回線を取れるように、また、MainのMTRXが壊れた際にはSubのMTRXを差し替えることで復旧が行えるようになっている。 MTRX3台をブリッジするDante 3台のMTRXは128ch Dante Option Moduleを使用してDante Networkに接続されている。この128chの回線が3台のMTRXの信号のブリッジとして活躍している。Danteであれば信号を分配することが容易なため、例えばAV Ampからの信号は、Dante上でモニターセクションをコントロールしているMain1台目のMTRXとSub MTRXへと送られているということだ。一見ブラックボックスに見えるこのシステムだが、一歩引いて考えれば理にかなったシンプルなシステムであることがわかる。二重化を前提としたシステムではあるが、普段はパッチレスですべての信号がMain/Sub Pro Tools両者で受け取れるよう工夫が行われている。 文字で書いてしまうとたしかにシンプルではあるが、かなりの検討を重ねた結果たどり着いたシステムであることには変わりない。また、実際のハードウェアセットアップにあたっては別の役目(パケットの流れるNetworkの切り分け)にも苦心した。具体的には、実際の音声回線であるDante(Primary/Secandary2系統)、S6をコントロールするEuCon、MTRXを制御するDADman、Pro Tools同士/Media Composerを同期させるVideo Satellite、ファイルベースのワークフローに欠かせないファイルサーバー。これら5つの異なるパケットがNetworkを必要とする。どれとどれを混ぜても大丈夫なのか、分けなければいけないのか?そして、ややこしいことにこれらのほとんどが同じ機器に接続されるNetworkであるということだ。できる限り個別のNetworkとはしていたが、すべてを切り分けることは難しく、かなり苦労をして設計を行うこととなった。様々な機器がNetowork対応となるのは利便性の上で非常に好ましいが、機器の設計者はそれらが同一のNetwork上で安定して共存できるようにしてもらいたいと切に願うところである。せっかく便利なNetoworkを活用した機器も、使いづらくトラブルを引き起こすものとなってしまっては本末転倒である。 朝日放送テレビのMA室には4台のPCがセットアップされている。それぞれ役割としてはMain Pro Tools用、Sub Pro Tools兼Media Composer(Video Satellite)用、DADman用、Flux Spat Revolution用となっている。これらのKVMの切替はAdderView Pro AV4PROが使われている。この製品をコントロールルームに置かれた外部リモコンにより切り替えるシステムだ。切替器本体はマシンルームに置かれ、切替後の信号がコントロールルームまで延長され引き込まれている。これにより延長機の台数を減らすことに成功している。KVM Matrixを実現するシステムはまだまだ高価であり、それに近しい安価で安定したシステムを構築するのであれば、このアイデアは非常に優れていると言えるだろう。 FLUX Spat Revolution専用機、DADman専用機として運用されるMac mini。その上部には、KVM切替器であるAdderが見える。 高さ方向に2層のレイヤーを持つ スピーカーシステムの話に移ろう。今回のMA室改修ではフロントバッフルを完全に解体し、TVモニターの更新、そしてLCR及びハイトLRの埋め込みが新しいフロントバッフルに対して行われた。サラウンドサイドのハイトスピーカーは、既設のサラウンドスピーカー設置用のパイプを使っている。そのため実際の増設分は、サラウンドLRの2本のスピーカーおよび、スピーカースタンドである。この改修により、Dolby Atmosフォーマットを参考とした5.1.4chのスピーカーシステムが構築された。なぜ7.1.4chにしなかったのか?という部分の疑問はもちろん浮かぶだろうが、朝日放送テレビにとって高さ方向に2層のレイヤーを持てたということの方が、後述するFlux Spat Revorutionの使用を考えると重大事である。スピーカーは元々5.1chのシステムで使用されていたMusik Electronicの同一の製品で4本が増設されている。 スピーカーレイアウトの平面図。L,R,Ls,Rs各スピーカーの上空にTOPスピーカーが配置されている。平面のスピーカーはMusik RL904が5本、上空はRL906が4本、これで5.1.4chのスピーカーレイアウトとなっている。フロントL,Rchはメインであるステレオ作業を考慮しラージスピーカーを理想位置である開き角30度に、Atmosはその内側22.5度に配置している。 スピーカーの補正用プロセッサーは、MTRXのSPQ Optionが活用された。SPQ Optionは、スピーカーの各出力に対して最大で16chのEQ及び、ディレイを掛けることができる強力なプロセッサーカードだ。これはMTRXのOption Moduleスロットを1つ専有してその機能が追加されることとなる。この機能を活用することにより、外部のプロセッサーを使わずにスピーカー補正を行うことができる。システムがシンプルになるというメリットも大きいが、クオリティーが高いMTRXのDA前段でプロセスが行われるため、そのアナログクオリティーをしっかりと享受できるというのも見逃せないポイントだ。 スピーカー正面図 リアハイトのスピーカーは2本のバーに専用金具でクランプ フロントハイトのスピーカーは高さを得るため半埋め込みに Ambisonics制作はスタートしている Flux Spat Revolutionの操作画面(メーカーHPより抜粋) これまで何度となく名前が挙がっているFlux Spat Revolution。このソフトウェアが何を行っているのかというと、3D空間に自由配置した音声をその一番近傍のスピーカーから再生するということになる。この機能を活用することで、各種イマーシブフォーマットを再現性高く再生することが可能となる。基本的なスピーカーの設置位置はDolby Atmosに倣ったものだが、Auro 3D、22.2ch、さらにAmbisonicsなども最適な環境で視聴することができるということになる。スピーカー数が多ければ多いほどその正確性は増すが、スピーカー数が限られた環境だとしてもその中でベストのパフォーマンスを得ることができるソリューションでもある。そして、このプロセッサーを通して作った(3D空間に配置した)音声は、ありとあらゆるフォーマットの音声として出力することができる。Dolby Atmos 5.1.4chの環境で制作したものを、スピーカーの設置角度の差異などを踏まえAuro 3D 13.1chとして出力できるということだ。 実際にこのFlux Spat Revolutionを使い、Ambisonicsの音声の制作は行われており、今後の配信サービスでの音声として耳にすることがあるかもしれない。直近では、ユネスコの無形文化遺産にも登録されている人形浄瑠璃・文楽の配信動画のVR版の制作に活用されたということだ。都合により、最終の音声はSpat Revolution経由のものではないとのことだが、Ambisonics音声の制作への挑戦がすでに始まっているとのこと。各所に仕込んだマイクの音声をパンニングすることで3D空間に高い再現性を持たせる、つまり、実際に仕込んだマイクの位置をSpat上で再現して、そこで鳴っている空気感をも再現することができているということだ。すでに各所で話題となっている、3D音声を使ったライブ配信などにも活用可能なSpat Revolution。ポストプロダクションからライブ会場まで様々な分野に活躍の場を広げているが、このMA室のようにしっかりと調整された環境で確認をしながら作業が行えるということは、作品のクオリティーアップ、作業効率の向上など様々なメリットをもたらすことだろう。 放送でも広がるイマーシブコンテンツ スタジオの全景。新しく作られたフロントバッフルには、従来より引き継がれたFostexのラージモニターとハイト方向を含む5本のMusik Electornicのスピーカーが見える。 放送局としては、強みでもあるスポーツ中継などにもこのソリューションの活躍の場を広げるべく様々な実験が行われているということだ。確かに、野球中継、サッカー中継などスタジアムで行われる音声であれば、会場の空気感をAmbisonicsで表現することは可能である。すでにスタジアムの様々な箇所に設置されている観客マイクを、Spat Revolution上に相対的な位置関係を再現することで、かなりクオリティーの高い現場の空気感の再現が可能となるのではないだろうか。これらの結果が早く楽しめるようになれば、現在の動画視聴の多くを占めるスマホ / タブレット+イヤホンの環境での視聴体験を拡張するものとなってくれるだろう。 少し脱線するが、この場合の配信音声はバイノーラルへと変換済みの2chの音声になると予想される。もちろん、一部のDolby Atmos Music、Sony 360 Reality Audioなどのようにマルチチャンネルデータのまま配信を行い、ユーザーの手元のデバイスでバイノーラルプロセスを行うものもあるが、映像配信においてはまだまだ2chが主流であると言える。バイノーラルの音声は、一般的なスピーカーで聞いても破綻のない音声であることは周知の事実である。もちろん、従来のステレオ音声に比べれば、音像が少し遠い、音の輪郭がぼやけるなどはあるものの、破綻をしているような音声ではない。そういったことを考えると、非常に今後に期待のできる技術ではあるし、放送局の持つノウハウを活かしたコンテンツの未来を感じさせるものであると言えるだろう。Spat Revolutionを使ってミキシングを行っていれば、バイノーラルでの出力はもちろんだがDolby Atmos、Auro 3Dなどの他のフォーマットでの出力も用意できることは大きなメリットであると言えるだろう。 スポーツ中継を想定して書き進めてしまったが、ほかにもクラシック・コンサート、オペラ、吹奏楽などの各種コンクール、新喜劇など劇場での公演にも非常に有効な手法であると言える。今回お話を伺った和三氏の2019年のInterBEEでのセミナーでもこれらの取り組みについて取り上げていたが、その中でもこのようにAmbisonicsで制作した会場音声のバイノーラル2chに対して、ナレーションを通常のステレオミックスであるように混ぜることで、会場音声は広がっていつつ、ナレーションは従来どおりの頭内定位を作ることができる、とご講演いただいている。これは大きなヒントであり、ヘッドフォン、イヤフォンでのコンテンツの視聴が増えているいまこそ、この手法が活きるのではないかと感じている。 Immersiveな音声でのコンテンツが今後の放送でも新たな価値を生み出すことになる。それに先駆けて改修対応を行い、多様な3Dサウンドへの最適環境を構築し、すでにコンテンツの制作もスタートしている朝日放送テレビの事例。まずは今回導入された高さ方向のレイヤーを持ったスピーカーレイアウトを活用して制作された音声が、様々なところで聴けるようになることを楽しみにしたいところ、そしてそのコンテンツをまた皆さんにご紹介する機会ができることを期待してやまない。 朝日放送テレビ株式会社 技術局員 出向 株式会社アイネックス 兼技術局制作技術部 設備担当 和三 晃章 氏 *ProceedMagazine2020-2021号より転載

Broadcast

株式会社松竹映像センター 様 / AVID S6 Dual Head + 4 MTRXシステムで進化した 変幻自在のDubbing Stage

株式会社松竹映像センターは、2015年にお台場へ移転をしてから早くも5年。移転前の大船時代より使い続けてきたEuphonix System 5から、映画の本場ハリウッドでも採用が進むAVID S6を中核としたシステムへと更新を行った。今回更新のテーマを大きくまとめると、「音質」と「作業効率」両者を最大限に両立しつつ様々なワークアラウンドに対応できるようにする、ということ。その実現に向けた機器の選定からシステムアップまでお手伝いをさせていただいた。 音質、効率、柔軟性、三拍子揃ったシステムを目指して システムの中心となるのは、AVID S6とAVID MTRX。Playout4台(*1)、Mixer2台、Dubber1台のPro Toolsと、従来のシステムから引き継がれたMixer3台とDubber1台のNuendo、これらが4台のMTRXに接続され、それぞれの繋ぎ変えにより様々なシステムを構成可能なようにシステムアップが行われている。従来のSystem5が担っていたConsoleのCenter Sectionは、MTRXのMonitor Profileがその機能を引き継いでいる。 以前の記事で松竹映像センターのご紹介を行っているが、大船からお台場へ移転の際に設計されたAnalog SRCとNuendoをMixing Engineとしたシステムは、ワークアラウンドの選択肢の一つとして今回の更新でもそのまま残されている。Analog SRCとは、Digital接続で問題となるサンプルレート、フレームレートの相違による問題の解決と、音質向上を狙ったMixing Engineの96kHz動作を行わせるために、Playout DAWとMixing Engineの間をあえてAnalogで接続するシステムをそのように呼んでいる。Playoutの素材として持ち込まれたデータの大半は48kHz。DAW内でサンプルレート変換を行っても良いのだが、一旦アナログにDAしてから96kHz動作のMixing Engineへと信号を導いたほうがサウンドとして良い結果が得られた。実際に音を聴きながら機器選定を行った結果として、2015年の移設の際に導入させていただいたシステムがこのAnalog SRCとなる。 このAnalog SRCは、サンプルレートの違いを吸収するとともにフレームレートの0.01%の吸収にも役立っている。できる限りデジタル上でのデータの改変は行わない、というのがこのシステムの根底に流れるポリシーとなっている。「デジタルの利便性と音質をいかに両立させるか」というのが、前回の更新の大きなテーマだった。今回の更新ではそこに「作業効率」という新たなテーマが加わった格好だ。 2020年 2015年 (*1)ダビングステージということでPlayout用に、D=Dialog(セリフ)、M=Music(音楽)、E=Effect(効果音)、F=Foley(効果音)のそれぞれに計4台のPro Tools HDXシステムが用意され、Eは128ch、D,M,Fは64chの出力が用意されている。これらはMADIによりMixer用のPro Toolsへと送られる 「現場の音」を届けたい 全てのシステムをシンプルにデジタルで直結することによりピュアなサウンドが保たれるのではないか?信号の経路を最短にすることでシンプルで効率の良いシステムが構築できるのではないか?そういったことが各方面より検討され、ハリウッドなどで活用されるシステムなども、松竹映像センターの吉田様に実際にハリウッド現地の視察を行っていただき、もたらされた情報とともに進められた。同時に、ハリウッドのスタイルでは、PlayoutのPro Toolsの内部である程度のSTEM MIXが行われ、Dubberの内部でFinal Mixが行われる。まさにIn The Boxのスタイルが良くみられる。しかし国内のダビングステージではMixing Consoleが健在であり、In The BoxでのMixingではなく、ConsoleでのMixingを求める声も大きい。 そこで、今回の更新では、AVID S6をSurfaceにMixng Engineとして機能するPro Toolsを2式増設することとなった。なぜ2式のPro ToolsにしたかというとInputのチャンネル数に余裕をもたせるためである。Pro ToolsはHDX card1枚に付き64chのIN/OUTという物理的な制約が存在する。現状最大構成となるHDX3で192chが上限ということになる。ステレオミックスであれば192chのInputは十分に思えるかもしれないが、5.1chを基本とする映画ダビングでは192chというのは、32 stemに当たる。これを4台のPlayoutに分配するとたったの8 stemとなる。設計段階でギリギリのスペックとするのではなく、余裕をもたせたい。その考え方から2台のPro ToolsをMixing Engineとして準備した。AVID S6が同時に8台のDAWをコントロールできるという機能性の高さにも助けられている。 最終段のレコーダーに当たるDubberは、従来のNuendoに加え、Pro Toolsが整備された。Dubberへの回線はAnaSRCを介しての接続と、デジタルダイレクトでの接続が両方選べるように設計されている。Analog SRCの場合には、FInal Mixは一旦DAされ他Analog信号がADされてDubberへと接続される。この接続には松竹映像センター様がお台場移転時に実現した一つの理想形。モニタリングを行っているスピーカーから出力されている信号を聞いて、エンジニアはその良し悪しを判断している。そのサウンドを残すことが、スタジオとしての命題である、という考え方だ。通常のシステムでは、レコーダーに収録された音を最終的に聞くことにより判断を行っている。しかし、レコーディングを行うということは、デジタルにおいても何かしらの変質をはらむ行為となるため、あえてシグナルパスは増えることになるが、ミキシング中に聞いている音との差異を最低限にするための一つの手法としてこの様な選択肢を持っている。 もう一方のデジタルダイレクトでの接続は、出来る限りそのままの信号を残すというデジタル・ドメインの理想形を形にしている。デジタルレコーダーから出力された音声は、デジタルのままピュアにレコーダーまで接続される。現代のデジタル・オーディオのシステムに於いて最後までアナログに戻さずに、劣化の少ないデジタルのまま、シグナルを処理するという理想形の一つだ。 このダビングステージは、サウンドのクオリティーを追い求める飽くなき探究を、実際にシグナルパスの変更により適材適所に選択できる国内有数のシステムとなっている。作品に合わせ、その作業の内容に合わせ、柔軟に変化できるシステムであり、現場の音をどうしたら理想に近いクオリティーで届けられるか、という飽くなき探究の結果が、理想のサウンドに合わせて選べるシグナルパスとして結実している。 アシスタント・デスクは1面増え、全5面のPC DISPLAYが設置されミキサー&レコーダーのコントロールを一括して操作することができる。 Play Out機を操作するカートは、Dual Displayへと改造され操作性が向上している。ユーザーからのリクエストの多かったポイントだ。 Column:AD/DAどちらが音質に効果的? ADコンバーターと、DAコンバーター。どちらが音質に対して与える影響が大きいのだろうか?もちろん、どちらも”コンバート”=”変換”を行う以上、何かしらのロスをはらむ行為となる。各機種を徹底して聴き比べた結果、Master Clockによる影響が同一だとすれば、ADコンバーターの音色差は、それぞれが持つプライスほどの差を感じなかった。一方のDAコンバーターは、同一のMaster Clockを供給したとしてもその音質差は大きく、メーカーごとの個性が確実に出るということがわかった。ちなみに、Master Clockを供給せずにインターナルで動作させた場合にはADコンバーターも差が大きく出ることを付記しておく。   ADコンバーターの動作原理は、線形波形を時間軸でスライスし(標本化)、その波形の大小を量子化することでPCMのデータを取り出している。標本化する時間間隔が標本化周波数=サンプリングレートであり、48kHzであれば、1秒を48,000等分するということである。そこでスライスされたデータは大小を基に量子化され、デジタルデータとして出力される。その際、WAVデータでは最大値をフルビットとし、無信号との間を24bitであれば16,777,216段階に分割。どの段階が一番近いかということで近似値をデータとして出力している。かなり細かく説明を書いてしまったが、線から点へ間引く作業を行っているとも言える。この間引く間隔がMaster Clockであり、その正確性がデータにダイレクトに反映する部分でもある、この部分が同一であれば、量子化する仕組みはどの機器もほぼ同一のデルタ・シグマ・モジュレーターを採用しているため、差が生まれにくいのだと考えられる。   もう一方のDAコンバーターは、間引かれて点になっているデータを、線形に変換するという作業を行っている。ここではオーバーサンプリングと呼ばれる技術が使われ、点と点の間を補完することで線形に変換している。この”補完”の部分は、ADコンバーターでも使われているデルタ・シグマ・モジュレーターが一般的には使われているが、DAコンバーターの場合には、複数の方式(何倍のオーバーサンプリングなのか、1Bit or マルチBit回路)があり、さらに線形の情報として取り出したあとにラインレベルまで増幅するアナログアンプが存在する。これらの違いにより、機器間の差が大きく出る傾向のようだ。   外的要因=Master Clockにより、その精度が画一化されるADコンバーターと、メーカーの設計による部分の大きいDAコンバーター。感覚的にはADの方が、とも思いがちだが、実際に色々と試してみるとDAの方が顕著な差があるということとなる。この結果は、あくまでもMaster Clockが存在するという前提のもとでの結果だということになる。Internal Clockであれば、その機器の持つClockの精度という、また別の音質に影響を与える要因が生じるということは忘れないでほしい。 “これまでの利便性を活かす”ソリューション 実際のシグナルフローのお話は、後ほどしっかりとさせていただくとして、AVID S6をみてみたい。これまでEuphonix System 5が導入されていたダビングステージ。写真を見ていただきたいのだが、特注で作ったSystem5用のデスクをそのまま流用している。8フェーダーごとにモジュール構成になっていたSystem 5を作業に合わせて、左右を入れ替えて使用していた。今回の改修では、デスクはそのまま、System 5で行っていたようなモジュールの入れ替えにより、サーフェースの変更にも対応する仕組みをこれまで通りに実現している。 これを実現したのが、イギリスのFrozen Fish Designというメーカーがリリースする「Euphonix Hybrid Backet」という製品。AVID S6のモジュールを、Euphonix System 5のモジュールとそっくりそのままのサイズのシャーシに収めてしまうというアイデア製品だ。もともとは、System 5とAVID S6が同居したHybrid Consoleを、というアイデアからの製品である。余談だが、AMS NEVE DFCのモジュールと同じサイズにAVID S6のモジュールを収める製品も同社はリリースしている。このFrozen Fish Design社製品の導入により、従来通りフェーダーを必要な箇所に自由自在に配置できるコンソールを実現している。 もう一つAVID S6としてのトピックは、Dual Head構成となっているということ。通常は1台のMaster Touch Module=MTMがコンソール全体の制御を受け持つのだが、松竹映像センターのAVID S6はサイズも大きく2台のMTMが必要となった(1台のMTMでの上限は64フェーダー)。物理的な問題もそうだが、数多くのDAWを並行して操作するというダビングのシステムにおいて、MTMが2つあることのメリットは大きい。複数のエンジニアがコンソールに向かい作業を行うため、左右で別々の操作・作業を並走することができるDual Head Systemは作業効率に対して大きなメリットをもたらす。基本的には、左手側がD/M、右手側がE/Fのエンジニアが担当することが多いとのことだが、場合によってフェーダー数を増減したり、操作するDAWを入れ替えたりということが、すべてのDAWを同一のネットワーク上に存在させているため簡単に行える。AVID S6の持つ強力なレイアウト機能、スピルゾーン機能などと組み合わせることで、柔軟な運用を実現できるシステムとなっている。 様々なニーズに対応できるS6×MTRXシステムの柔軟性 様々なワークアラウンドが組めるように設計されている、松竹映像センターのダビングステージ。そのワークアラウンドのいくつかをご紹介したい。 ●Direct Dubber 一番シンプルなシステムパターンとしては、MixerとなるDAWを介さずにMTRXの内部でSTEM MIXを行うというパターン。PlayoutのPro Tools HDXから出力された信号はHD MADIを通じでMADIとして出力される。この信号はMTRX #1号機もしくはMTRX #2号機を通じてMTRX #3号機へ送られる。4台のPlayout Pro Toolsでは、内部で数本のSTEMにミックスされたチャンネルが出力される。これらのSTEMは、最終的にMTRX #3号機でミックスされ、Dubberへと送られる。この際のサンプルレートは基本的に48kHz。シンプルなワークアラウンドで完結させるフローとなる。MTRX #3号機のミックスのフェーダーはDADmanアプリケーションを通じAVID S6のフェーダーで微調整が行えるというのは、特筆すべき事項である。これにより、これまでEuphonix System 5に委ねていたFinalミックスの作成作業をMTRXの内部で行うことができる。このシグナルフローはハリウッドでよく見られるものとほぼ同等である。 ●PT mixer w/Analog SRC 次に、MTRX #1 / #2号機に接続されている、Pro Tools Mixerを使用するパターン。この場合はPlayout内部でミックスを行わず、それぞれの素材がある程度の種類に分けられた複数のSTEMとして出力される。そしてMixer Pro Tools内部でミキシングが行われる。再生機としてのPro Toolsと、MixerとしてのPro Toolsが別々に存在しているというパターン。Pro Tools MixerはまさにSystem5などのハードウェア・コンソールで行っていた機能を代行するものであり、プラグインプロセスなどにより、その機能を拡張するものとして導入が行われている。このパターンでの内部プロセスは48kHzであり、Analog SRCの回路を経由してDubberの直前まですべてがdigitalでダイレクトに接続されている。 ●PT mixer w/Analog SRC@96k Playout Pro ToolsからMTRX #1/#2号機との接続の間にAnalog SRCを挟んだパターン。これにより、Mixer部分はPlayoutの素材のサンプルレートに関わらず96kHzでの動作が可能となる。ミックスを行うプロセスのサンプルレートはやはり音質に対して影響のある部分。ワークアラウンドとしては複雑にはなるが、それでもクオリティーにおいてはプラスに働く要素となりえる。これまでの松竹映像センターのダビングステージで行われていた作業のスタイルをMTRXとPro Toolsを用いてブラッシュアップしたパターンとも言える。48kHzでのマスター素材を収録するDubberの前には、やはりAnalog SRCが存在しているため、サンプルレート変換をPC内部で行うなどの作業は必要ない。まさに、音質と効率の両者を追い求めたシステムアップとなっている。 ●Nuendo mixer w/Analog SRC@96k もちろん、これまで使用されてきたNuendo Mixerも残されている。これによりMixer Engine部分をPro Toolsにするのか、Nuendoにするのかという贅沢な選択も可能となっている。Nuendoの場合には、これまでのシステムと同様に基本的に96kHzの動作でのシステムアップとなっているが、バックボーンとなるシグナルはすべてCoax-MADIに統一されており、パッチ盤での差し替えでいかようにでもシステムを組み変えることができるようになっている。柔軟性と、ダビングステージを使用するお客様のニーズに合わせて変幻自在にその形を変えることができるシステムだ。 マスターセクションとしてのMTRX MTRXのコントロールアプリ"DADmam"は4台を一括で操作できる。手元には、ハードウェアコントローラーMOMが置かれ、アシスタントは手を伸ばすことなくボリュームコントロールが行える。 今回のシステムアップにおいてMTRX #3号機は、まさにハードウェア・コンソールのマスターセクションを代替するものとしてDADman上での設計が行われている。モニターセクションとして、スピーカーボリュームの調整、視聴ソースの切り替えはもちろん、強力なCue Mixの機能を活用し、Assistant DeskへのHead phone送りのソースの切り替え、MTRX #1/#2号機から送られてくる信号のサミングなど、様々な機能を使いシステムアップが行われている。Avid S6のセンターセクションであるMTMからのコントロールと同時に、Assistant DeskにはDAD MOMが用意され、スタジオスタッフが手元でのボリューム調整が行えるように設計されている。 また、Playout用Pro Toolsのコントロールに使われるカートは、Dual Displayにブラッシュアップされた。やはりスタジオを利用するお客様からの要望が多いポイントであったということで、今回の更新に併せて変更された部分となる。このカートへのDisplay出力の仕組みは、これまで通りSDIへ信号を変換しVideo Patchで自由に組み替えができるシステムとしている。もちろんKVM Matrixシステムが導入できればよいのだが、PCの台数、Displayの台数を考えるとかなり大規模なシステムとなってしまうため、コストを抑えつつ、必要十分な機能を果たすということで、こちらのSDI延長システムを継続してご利用いただいている。 ぎっしりAVID MTRXのオプションスロットに設置されたMADI / Digi Link Module。96kHz稼働時にも十分なチャンネル数を確保できるようになっている。 今回の更新では、Dubbing Stageという環境での様々なニーズに応えるべく、かなり大規模なブラッシュアップが図られた。Dual HeadのAvid S6による操作性、機能性の向上。そして、MTRXの導入によるワークアラウンドの多様化など、そのポイントは実に多岐に渡っている。実際に作業を行った後にお話を伺うことができたのだが、習熟を進めている中であるという部分を差し引いたとしても、システムの柔軟性、利便性の向上はしっかりと感じられているとのこと。 デジタルの利便性へすべての信頼を置いてしまうことに疑問を持ち、制作過程における音質というポイントを思い起こしながら、音質と作業効率という反比例をもしてしまうような2つの要素を高度な次元で両立させたこのDubbing Stage。これから行う様々な作業の中で、今後どのようなワークアラウンドが行われていくのか?どのような選択基準でそれが選ばれたのか?実作業におけるシステム活用の様子にも大きな興味が持たれるところだ。 写真左より、株式会社松竹映像センター ポストプロダクション部 ダビング・MA所属の田中俊 氏、深井康之 氏、吉田優貴 氏、清野守 氏、久保田貫幹 氏、石原美里 氏、ROCK ON PRO 嶋田直登、前田洋介 *ProceedMagazine2020号より転載

Post

株式会社ミクシィ 様 / 新たな価値は「コミュニケーションが生まれる」空間のなかに

都内5拠点に分かれていたグループ内の各オフィスを集約させ、2020年3月より渋谷スクランブルスクエアでの稼働を開始した株式会社ミクシィ。渋谷の新たなランドマークともなるこの最先端のオフィスビル内にサウンドグループのコンテンツ収録や、制作プロジェクトにおける外部連携のコミニュティの場を設けるべく、この機に合わせて新たなスタジオが完成した。オフィス移転によるサウンドグループの移転だけでもプランニングは膨大な労力を伴うものとなるが、加えて高層オフィスビルへのスタジオ新設という側面や、何より同社らしいコミュニケーションというキーワードがどのようにスタジオプランに反映されたのか見ていきたい。 スタジオの特色を産み出した決断 これまで、青山学院にもほど近い渋谷ファーストタワーに拠点を置いていたサウンドグループ。そこにも自社スタジオはあり、主にナレーション録りを中心とした作業を行うスペースとなっていた。もちろん、コンテンツ制作を念頭に置いた自社で備えるスタジオとしては十分に考えられた設備が整っていたが、あくまでオフィス内のスペースでありミックスを形にするという設計ではなかった。また、コンテンツ制作には演者、クリエイターからディレクター、企画担当者など社内だけでも多数の関係者が存在するため、スタジオでいかにコミュニケーションを円滑に進められるか、ということは制作進行にとって重要な課題となっていた。そこへ、各所に分散していたオフィスの集約プランが浮上する。 新しいオフィスは当時建設中であった渋谷スクランブルスクエア、その高層階にサウンドグループのスペースが割り当てられる。そもそも全社のオフィス機能集約となるため、移転計画の最初からフロアにおけるスペース位置、間取り、ドアや壁面といった要素はあらかじめ決められていたものであり、高層ビルにおける消防法の制約もあったそうだ。例えば、スタジオ壁に木材が貼られているように見えるが、実はこちらは木目のシートとなっている。壁面に固定された可燃物は使用できないための対応だが、質感や部屋の暖かさもしっかり演出されている。取材の最後に明かされるまで我々も気がつかなかったほどだ。 そして、今回スタジオ向けに用意されたのは大小の2スペース。そもそもにどちらの部屋をコントロールルームとするのか、またその向きは縦長なのか横長なのか、制約ある条件のもと安井氏と岡田氏が試行錯誤を繰り返す中で着眼したのは"コミニュケーション”という課題。 ミクシィ社としてこのスタジオがどうあるべきか、どういう価値を出すのが正しいのか。専属エンジニアがいる商業スタジオではない、コミュニケーションが生まれる環境とはどのようなものなのか。これにマッチすることを突き詰めて考えた結果、レコーディングブースの方を広くとる設計になり、また当初縦長で進めていたコントロールルームの設計も思い切って横長レイアウトに変えたそうだ。もちろん、音響的な解決を機材面や吸音で行う必要もあれば、ブース窓の位置やテレビの高さ、モニタースピーカーの配置など課題は数多くなったが、これをクリアしていくのも楽しみの一つだったという。そしてこれらのポイントの解決に芯を通したのが"コミニュケーション”が如何にいい形で取れるか、ということ。このレイアウト段階での決断がスタジオを特色あるものにしたのではないだろうか。 音でのコミュニケーションを促進させる最初のツール 前述の通り、こちらは商業スタジオではなくミクシィ社でのプロジェクトにおける制作拠点、またその外部との連携に利用できるスペースとして機能している。自社コンテンツでのボイス・ボーカル収録はもちろんのこと、同フロアにある撮影スタジオとも協業で、自社タレントとユーチューバーの楽曲カバーコラボレーション企画のPV制作や、渋谷公園通りにあるXFLAGストアでのインストアライブの配信コンテンツミックスなどがすでに行われており、多種多様なコンテンツの制作がすでにこちらで実現され始めている状況だ。企画案件の規模によってはクリエイターのワークスペースで完結できるものもあるが、このようなプロジェクトで多くの関係者との共同作業を可能にする拠点、というのが今回のスタジオに求められている要件でもある。社外のクリエイターが来てもすぐに使えるような機材・システム選定を念頭に置き、またそこから「コミュニケーションが生まれる」ような環境をどのように整えたのだろうか。それを一番現しているのがアナログミキサーであるSSL X-DESKの導入だ。 コントロールルームの特注デスクにはPro ToolsのIn the boxミキシング用にAvid Artist MixとアナログミキサーのX-DESKが綺麗に収められている。X-DESKにはAvid MTRXから出力された信号、また入力に対しての信号、さらにレコーディングルームからの信号と、コントロールルームに設置されているマイクプリなど様々なソースに対して臨機応変に対応でき、使用するスタッフによって自由に組み替えが可能になっている。ただしデフォルトの設定はシンプルで、基本的にはマイクプリから来ているマイクの信号と、外部入力(iPhoneやPC上の再生)がミキサーに立ち上がっており、内外問わずどんなスタッフでも簡単に作業を始めることができる仕様だ。 これは現場での作業を想定した際に、ギターでボーカルのニュアンスを伝えたいクリエイターもいれば、ブースでボーカリストの横に入ってディレクションするケースであったり、Co-Write(共作)で作業を行う場合など、共同作業がすぐに始めて立ち上げられて、バランスまで取れる環境を考えるとアナログの方が有利という判断。「音でのコミュニケーションを促進させる最初のツール」がアナログミキサーだということだ。 また、デスク左側にはMac miniを中心としたサブシステムが用意されている。こちらのMac miniにはNuendo/Cubaseもインストール、そのインターフェイスとなるRME Fireface UFX II も左側を向けてラッキング。これも来訪者がすぐさま使用開始できるように配慮されている部分だ。 セレクトされたコミュニケーションでの実用性 それでは、デスク右側のラックに目を向けたい。ラックの中でも特に存在感を放っているのが新型のMacProだ。2019年の夏頃から本格的にスタジオの設計を固め、機材選定も大方定まったところで中々導入時期を読めなかったのがこちらのMacPro。周知の通りで2019年末に突如として姿を現すことになったわけだが、このスタジオに導入されたのは、必須となるレコーディング作業だけに限らず、映像の編集も難なくこなせるであろう3.3GHz 12Core、96GBメモリ、SSD 2TBというスペック構成のもの。レンダリングが数多く走るなど負荷がかかる場面はまだあまりないようだが、意外にもその動作はかなり静粛とのことだ。 このラックではMac Proを筆頭に、ビデオ入力、出力の分配を担うBlack Magic Design SmartVideoHub。そしてAvid HDXからMTRXにつながり、MTRXからX-Deskや、各々ルーティングを細く設定できるバンタムパッチベイがある。Ferrofish PULSE16はMTRXからのDANTE Optionを有効活用し、ADATへ変換されBEHRINGER POWERPLAY16(CUE BOX)に繋がれている。その上にはAvid Sync HDがあり、マスタークロックとしてAntelope Audio Trinityがトップ段に設置されている。 また、モニタースピーカーについてはRock oN渋谷店舗にて十数のモニタースピーカーが比較試聴され、KS digital C8 Reference Rosewood(後に同社製のサブウーファーも導入)とAmphion One18が選ばれた。こちらは横長にしたコントロールルームのレイアウトを考慮してニアフィールドにスイートスポットがくる同軸のKS digitalと、バランスを重視してのAmphionというセレクトとなった。使用するスタッフによってナレーションでのボイスの部分にフォーカスしたり、あるいは楽曲全体を聴く必要があるなど、用途は制作内容によってそれぞれとなるためバランスの良さという共通項はありつつも、キャラクターが異なる2種類が用意された。 後席ソファー横にはデシケーターがあり、U87Ai、TLM67、C414 XLSなどが収められている。演者にもよるが特に女性の声優とTLM67がよくマッチするようで好まれて使用されることが多いそうだ。また、マイクモデリングを行えるSlate Digital VMSの姿も見える。こちらは試している段階とのことだが、ボイス収録の幅広さにも適用できるよう積極的に新たな技術も視野に入れているようだ。確実性あるベーシックな機材を押さえつつ、 新MacProやMTRXといった新しいプロダクトを導入し、かつコミュニケーションの実用性を図っているところが、こちらの機材セレクトの特色でありユニークなところと言えるだろう。 レコーディングブースを超えた多目的さ 大小のスペースのうち、広い方を割り当てたブースは主にナレーション録音が行われる。天井のバトンにはYAMAHA HS5Wが5ch分吊るされているのだが、用途としては5.1chサラウンドへの対応だけではなく、イベント向けの制作に効果を発揮するという。イベント会場では吊られたスピーカーから音が出るケースが多く、その環境を想定しての音作りを求められることが多いためだ。多様な企画を行うミクシィ社ならではのスピーカー環境の利用の仕方と言える。なお、センターにあるHS5Wの横にもパッシブモニター YAMAHA VXS5W(パワー・アンプはコントロールルームにYAMAHA MA2030aを設置)がTalkBack用の返しモニターとして設置されている。このようにヘッドフォンに返すのではなく、あえてモニターでTalkBackを送るというのは、コントロールルームとのコミニュケーションをよりよくするために考えられた発想だ。 また、コントロールルームのラックにあったBlackMagic Smart Videohub 12x12にて、ディスプレイモニターには映像の出力やPro Toolsメイン画面を切り替えにて映し出し可能、レコーディングブースでもミキシングも行えるようになっている。急ぎの案件ではブースとコントロールルームでパラレル作業を行い、作業部屋二つのようなスタイルでも使われるとのことだ。そして、壁面のパネルは演者の立ち位置を考慮して4面それぞれに配置されている。4人でのナレーションを録る場合や、さらに声優たちの個別映像出しにモニター出力用のSDI端子、CUE送り用のLAN端子。また、スタッフがブース内でPC/Macを持ち込み映像を見ながら打ち合わせをする場合に備えての社内LAN回線までもが備えられている。ミクシィという企業ではこの先にどんな制作物が発想されてもおかしくない、とのことで考えうる最大限の仕様が織り込まれた格好だ。スピーカーが吊るされたことにより、無駄なくスペースを広く保ち、録音はもちろんコントロールルームと並走したミキシングの機能まで兼ね備えている。単にレコーディングブースと呼ぶには留まらない特徴的な”多目的"スペースを実現している。 コミュニケーションを生み出す仕掛け コミュニケーションを生み出すというコンセプトによって生み出された工夫はほかにもある。コントロールルームの後方にあるソファは通常はクライアント用と考えられそうだが、こちらは商業スタジオではないためこのスペースも立派に作業スペースとして成り立つ必要がある。そのためこのソファの内部2箇所に可動式のパネルが隠されている。クリエイターやプロデューサーがPC/Macを持ち寄り、その場で持ち込んだ素材(オーディオファイル)の確認や、映像の出力、もちろんディレクションも行えるようにモニターコントローラーとして採用されたGrace Design m905のTalkBackマイクのスイッチがアクセスできるようになっている。当初このアイデアは壁面や床面など設置位置に試行錯誤があったようだが、その結論はなんとソファの中。これによってスタジオのデザイン的な要素や機能面も損なうことなく、コミュニケーションを生み出す仕掛けが実現できている。 また、コントロールルーム正面からそのまま窓越しに演者とコミュニケーションが取れるようにというのが、レイアウトを横長に変更した大きな理由であったが、ブースへの窓はエンジニア席だけではなく、このソファからの視線も考慮されて位置が決定されている。窓位置はモニタースピーカーの位置決定にも関わるし、テレビの配置にも関わる。施行前から座席部分にテープでマーキングして両氏が念入りに試行錯誤を重ねたそうだ。 そして、このフロアにはサウンドスタジオのみではなく、連携して協業する撮影スタジオのほか、会議室、社員の休憩スペースからコンビニエンスストアまで整っている。インタビューを行った会議室や休憩スペースは遠く水平線まで見渡せる開放的なスペースで、集中した作業を行うスタジオ内と実に対照的。作業のON/OFFがはっきりとした環境で生まれるコミュニケーションも良好なものになりそうだ。 最後に話題となったのは、スマートフォンにおける5Gへの対応だ。 「まさに実用が始まったばかりとなる5Gの高速な通信は、端末に頼らなくとも大容量のコンテンツを成立させることができるかもしれない。もちろん、アプリやゲームも5Gの恩恵を受けてより高度な表現を提案することが可能になってくる。サウンドで言えばバイノーラルへの対応でキャラクターへの没入感をより深いものにできるかもしれない。5Gで何ができるのだろうか、提供されるインフラとはどのようなものだろうか、そして顧客へ提供できるサービスとはなんだろうか、このような着想から生み出されるのは各社の特色。そして何に強みを持ってコンテンツを作っていくのか、これによって整えるスタジオの環境も変わってくる。」 インタビュー時の両氏のコメントをまとめたものだが、やはり見据えているのはインフラやプラットフォームまで含めたエンタテインメントコンテンツそのものであるという点で、クリエイティブワークだけではない視野の広さが求められているということが感じられた。このスタジオが生み出すコミュニケーションの積み重ねが、5Gの可能性を引き出し、エンタテインメントの可能性を拡げていく。今後このスペースは従来のスタジオ以上の価値を生み出していくことになる、とも言えるのではないだろうか。 株式会社ミクシィ モンスト事業本部 デザイン室 サウンドグループ マネージャー 安井 聡史 氏     株式会社ミクシィ コーポレートサポート本部 ビジネスサポート室 サウンドライツグループ 岡田 健太郎 氏 *ProceedMagazine2020号より転載

Media

株式会社IMAGICA SDI Studio 様 / 国内外のニーズを両立させる、グローバルスタジオの最先端

長い歴史と高いクオリティを背景に、映像コンテンツのポストプロダクション事業におけるリーディング・カンパニーである株式会社IMAGICA Lab.と、欧米・アジアに数多くの拠点を持ち、メディア・ローカライズ事業をグローバルに展開するSDI Media Group, Inc.。ともにIMAGICA GROUPの一員であるふたつの企業による共同設立という形で株式会社IMAGICA SDI Studioが誕生した。映像コンテンツの日本語へのローカライズと、アニメーション作品の音響制作を主に手掛ける同社の拠点として、2020年2月に旧築地市場付近にオープンした同名のスタジオは、国内外からの様々な要求に応えるために、高品位な機器設備の導入だけでなく、欧米と日本のスタンダードを両立したスタジオ設計を目指したという。本記事では今後ますます起こり得るだろうグローバルな規模でのコンテンツ制作を可能にしたこのスタジオの魅力を紹介していきたい。 国内外双方の要望に応えるポストプロダクション 株式会社IMAGICA Lab.(以下、IMAGICA Lab.)と言えば、名実ともにポストプロダクション業界を代表する企業だ。国内最大規模のポストプロダクション事業を展開する企業であり、その歴史は戦前にまで遡ることができる。国内開催の五輪や万博といった歴史的な事業との関わり、独自技術の開発など、ポストプロダクション業界への貢献は計り知れない。一方、2015年にIMAGICA GROUPに参画したSDI Media Group, Inc.(以下、SDI)は、ロサンゼルスに本拠を置き、欧米とアジアに150を超えるレコーディングルームを持った世界的なローカライズ事業者。グローバルなコンテンツのダビングとサブタイトリングをサービスとして提供している。 そして、業界のリーディングカンパニーであるこの2社が2019年に共同設立したのが株式会社IMAGICA SDI Studioとなるのだが、この2社のコラボレーションの開始は同じグループ企業となった2015年に遡る。当初はIMAGICA Lab.が国内のクライアントから請け負った日本語コンテンツの多言語字幕吹替版の制作事業を中心に行っており、日本語吹替版の制作はIMAGICA Lab.内のMA室を改修したスタジオで2017年から実施されていたという。日本語吹替版制作事業が順調に拡大する中で、海外コンテンツの日本語ローカライズに対する需要の高まりを受け、国内外双方の要望に応えるために両者の共同出資によるグループ内企業を設立。そして、同企業の所有するスタジオとしてのIMAGICA SDI Studioのオープンが決まったということである。 101 102 103 IMAGICA SDI Studioの主な事業は、映像コンテンツの日本語吹き替え版の制作と、アニメーション作品の音響制作ということになるのだが、こちらのスタジオを拠点とした業務にとどまらず、翻訳者や声優のキャスティングから納品物の制作に至るまでを一手に引き受けることができる総合的なプロダクションとなっている。クライアントからすれば、IMAGICA Lab.とSDIの実績を背景とした豊富なノウハウと厳密なクオリティ管理の下に、プロジェクト全体をワンストップで依頼できるというわけだ。まさに時代に即応した現代ポストプロダクションの申し子とも言うべき企業が誕生したと言えるだろう。 海外仕様と日本のメソッドを融合 国内では類例のない広さを持つ102レコーディングブース。台本が見やすいようになるべく明るい部屋を目指したという。マイクはNeumann U 87 Ai。 「IMAGICA Lab.とSDIの両社で作ったスタジオということで、国内のお客様から求められる仕様と海外のお客様から求められる仕様を両方組み合わせて、両方のお客様に応えられるような設備の組み合わせを作ったというところが、一番特徴的かと考えています」と、株式会社IMAGICA SDI Studio 代表取締役社長 野津 仁 氏より伺えた。この国内外両方の顧客ニーズへ応えるために、仕様決定についてはSDI側からのリクエストも仔細に反映されている。当然、それぞれの国ごとに建築事情も違えばワークフローのスタンダードも異なっており、両立するための工夫がスタジオ全体の微に入り細に入り凝らされているが、その中でもこの両者の融合がもっとも顕著に現れているのが集合録り向けの部屋となる102ではないだろうか。 101を除く4部屋にはレコーディングブースが併設されているのだが、この102では国内でよく用いられている"集合録り"を行うための設備が整えられた。天井高:約3m/床面積:約40㎡という広々としたブースは最大25人程度を収容できるキャパシティを備えており、集合録り向けとはいえこれほど広いブースは国内でも珍しい。そこには、演者への快適な居住性の確保という観点はもちろん、海外に数多くの拠点を持つSDIの意向も強く反映されているという。ADRが主流となっている海外の制作現場では、ミキシング時に加工がしやすいクリーンな録り音を求める傾向が強い。リバーブ感も含めた各セリフの味付けは、レコーディング後の処理で追加するものという発想のようだ。そのため、天井高を確保することでブース内での反響を抑制し、可能な限り響きの少ない声を収録することを目指している。今回の音響設計は株式会社SONAの手によるものだが、狙い通り反響の少ない一つ一つの音が聴きやすく、かつS/Nもよい環境に仕上がったようだ。 同じようにブース内での反響を抑制するためにすべてのブースをプロジェクター+スクリーンにしたいとSDIからの要望もあったという。台本を持って収録にのぞむことになる日本のアフレコワークではスクリーンを使用すると部屋が暗くなり過ぎるため、残念ながらこちらは見送りとしたようだが、より反響を抑えるためにブースとコントロールルーム間のガラスを塞ぐことが出来るようにするなど、サウンドへの要望を実現するための工夫は随所に凝らされている。この102のブースは海外のクライアントが求めるサウンドと、日本で行われてきたワークフローとの両立が垣間見える、非常に興味深いスペースとなっている。 101 / 3mの天井高による理想的なDolby Atmos環境 それではスタジオの仕様を見ていきたい。全5部屋あるダビングスタジオのうち、101スタジオだけはレコーディング・ブースを持たないミキシング専用の部屋となっている。そして、この部屋がIMAGICA GROUP初のDolby Atmos対応ミキシング・ルームとなった。これまでもIMAGICA GROUPにはDolby Atmosに対応したプレビュールームなどはあったが、Dolby Atmos Home環境で制作が行えるスタジオはこちらが初めてとなる。 レイアウトはミッドレイヤーに7本、トップには4本のGenelec S360、サブウーファーは7380A 2本を使用した7.1.4ch構成。約3mに及ぶ天井高は、Dolby Atmosなどのイマーシブモニター環境としては理想的だ。この部屋は前述のように7.1.4 Dolby Atmosの構成をとるが、4本のトップレイヤーと、7本のミッドレイヤーとの間に十分な距離を取れないとミキシング作業に支障を来すということで、計画当初から3mの天井高を確保することが視野に入れられていたという。そこにモニタースピーカーとして採用された11本のGenelec S360が、最大出力118dB SPLというパワーで広い部屋の隅々まで音を届けている。 トップレイヤーを取り付けている位置は部屋全体からさらに浮いた構造になっており、音響的な「縁切り」がしっかりと行われている。 DAWは、メイン用と音響効果用に2式のPro Tools HDXシステムが導入された。メイン側のI/OはPro Tools | MTRX、効果用のI/Oは従来モデルのHD I/Oが採用されている。Pro Tools | MTRXはAD/DAに加え、Dolby Atmos RMUと信号をやり取りするためのDanteオプションカードと、ルームチューニング機能を提供するSPQオプションカードが追加された仕様だ。Dolby Atmos Home Mastering制作に必須となるDolby RMUは、昨年DolbyよりアナウンスされたばかりのMac mini構成。Mac miniはDante I/O カードとともにSonnet xMac mini Serverにビルトインされ、1UのコンパクトなサイズでDolby Atmosに必要な128chを処理する。限られたスペースに多数の機材をラッキングしなければならないMAスタジオにとっては、そのコンパクトさは価格も含めて魅力的な構成と言える