本サイトでの Cookie の使用について

Shibuya 03-3477-1776
Umeda 06-6131-3078

Headline

NEWS
2024/03/15

Avid Sibelius 2024.3 リリース ~Pro ToolsとのMIDI連携が強化!~

AVIDの楽譜作成ソフトウェアSibeliusの新バージョン、2024.3がリリースされました! Pro Toolsとの間でMIDIのコピー&ペーストが可能になったほか、キーパッド機能の改良やリモートコントロール対応など、Sibeliusユーザーにとってはさらに使い勝手が向上するアップデートとなっています。 Pro ToolsとのMIDIコピー&ペースト運用 Sibelius 2024.3の大きなアップデートとして、同タイミングでリリースされたPro Tools 2024.3との間でMIDIをシームレスにコピー&ペーストできるようになりました。 Pro ToolsからSibeliusでは、パブリック・クリップボードにMIDIをコピーし、ノート、ピッチ、ノートの長さ、クリップ内のタイミング/位置、クリップ全体の連続コントローラーデータなど、関連するすべてのMIDI情報とともにSibeliusに貼り付けることができます。 SibeliusからProToolsへのコピー&ペーストでは、パッセージ選択またはコンダクター・トラック全体をすべての関連データとともにコピーし、Pro Toolsに直接貼り付けることもできるようになります。 Pro ToolsとSibelius両方を使用されている作曲家の方にとってはかなり嬉しい機能でしょう。 キーパッドの改善 サイズ変更に対応! キーパッドが自由なサイズ変更に対応しました。マウスのクリック&ドラッグによる直感的な操作やコマンドによる段階的な調整が可能。あらゆる環境のユーザーにとって作業の快適さに直結するアップデートです。 また、キーパッドの4番目のレイアウトにカスタム・アーティキュレーションが追加され、探しにくいシンボルもキーパッドから簡単に出せるようになりました。 Sibelius Connectでリモートコントロール Sibelius Connectを使用すると、ローカルまたはモバイルデバイス、タブレットの制御アプリを使用して、Sibeliusをリモートで制御できるようになります。 SoundflowやStreamDeckからのリモート制御も可能で、作業スピードを向上させられる機能です。 その他詳しいアップデートは公式サイトをご確認ください。 ProToolsとの連携強化でさらに使いやすくなったSibeliusにご注目!Sibelius for androidのベータ版配信も始まっていますよ。ご購入、お見積もりの相談はROCK ON PROまで!
Sales
2024/03/15

【3/28まで】Sennheiser / Neumann 年度末プロモセール開催!

ゼンハイザージャパン株式会社から、年度末プライスプロモーションのお知らせが届きました! 期間中、キャンペーン対象製品をお得にGETできるチャンスです。数量限定、期間限定のため、ぜひこの機会をお見逃しなく! キャンペーン対象期間: 2024年3月14日(木) ~ 2024年3月28日(木)まで キャンペーン内容: 対象製品を本体価格¥99,800でご購入いただけます。(スピーカーは1台あたりのお値段となります。) 対象製品 ◎Sennheiser MD 441-U / マイクロフォン スーパーカーディオイド 通常価格:¥190,300(本体価格:¥¥173,000) →年度末プロモーション特価¥109,780 (本体価格:¥99,800) Rock oN Line eStoreで購入>> MKH 416-P48U3 / ショットガン マイク 通常価格:¥138,600(本体価格:¥¥126,000) →年度末プロモーション特価¥109,780 (本体価格:¥99,800) Rock oN Line eStoreで購入>> A 5000-CP / 半球型ヘリカルパッシブアンテナ 通常価格:¥182,600(本体価格:¥¥166,000) →年度末プロモーション特価¥109,780 (本体価格:¥99,800) Rock oN Line eStoreで購入>> EW 100 G4-945-S-JB / ボーカルセット (SKM100-S/945 付属) 通常価格:¥161,700(本体価格:¥¥147,000) →年度末プロモーション特価¥109,780 (本体価格:¥99,800) Rock oN Line eStoreで購入>> EW 100 G4-935-S-JB / ボーカルセット (SKM100-S/935 付属) 通常価格:¥161,700(本体価格:¥¥147,000) →年度末プロモーション特価¥109,780 (本体価格:¥99,800) Rock oN Line eStoreで購入>> ◎Neumann KH 120 II EU/KR / スピーカー 5.5”ドライバー 灰 通常価格:¥148,500(本体価格:¥¥135,000) →年度末プロモーション特価¥109,780 (本体価格:¥99,800) (1台あたりのお値段です) Rock oN Line eStoreで購入>> KH 120 II W / スピーカー 5.5”ドライバー 白 通常価格:¥148,500(本体価格:¥¥135,000) →年度末プロモーション特価¥109,780 (本体価格:¥99,800) (1台あたりのお値段です) Rock oN Line eStoreで購入>> KM 184 MT / KM180 一体型 カーディオイド マット 通常価格:¥140,800(本体価格:¥¥128,000) →年度末プロモーション特価¥109,780 (本体価格:¥99,800) Rock oN Line eStoreで購入>> KM 184 / KM180 一体型 カーディオイド ニッケル 通常価格:¥140,800(本体価格:¥¥128,000) →年度末プロモーション特価¥109,780 (本体価格:¥99,800) Rock oN Line eStoreで購入>> Sennheiser、Neumannの気になっていた製品や定番製品を購入する絶好の機会です!ご購入、お見積りの相談はROCK ON PROまでお気軽にお問合せください。
Support
2024/03/11

Pro ToolsとmacOS Sonomaの既知の不具合 – Pro Tools サポート情報

先日リリースされたバージョン2024.3にて、Pro ToolsとHDXシステムはmacOS Sonoma (14.3.1) に対応しましたが、重大な既知の不具合が見つかっています。Pro Toolsをご使用のユーザー様は、現状、macOS Sonomaへのアップデートは推奨されません。 最新情報はAvidナレッジベースでご確認ください。 macOS 14.4 新しいmacOS 14.4 Sonomaアップデートにより、AppleシリコンMac上のいくつかのiLokオーソライズ・プラグインに問題が発生しています。PACE Anti-Piracy社では、この問題を認識しており原因究明作業中です。この問題が解消されるまで、macOS 14.4へのアップデートは推奨されません。 macOS 14.3.1 Pro Tools ソフトウェアにおける問題 多コアのインテル・マシン(28-core Mac Proなど)を低バッファーサイズで使用した際の、オーディオ性能の劣化。 Aux I/Oデバイスを使用した際に不定期にエラーが出る。 ボイスオーバー・アクセシビリティ機能でポップアップやコンテクストメニューが表示されない。 インテルMac上で、Dolby Atmos内部レンダラーUIに、balls/textが表示されなかったり、top/rearビューが正しく表示されない場合がある。 編集ウィンドウのトラック名やトラック・アウトプット・アサインのツールチップが表示されない事がある。 Avidプラグインのいくつかでグラフィック表示不具合が発生する場合がある。 ミックスまたは編集ウィンドウ上におけるスクロール最中にメニューが開いたままなる場合がある。 インプットに「声を分離」モードが選択されている際に警告が出ない。 Pro Tools ハードウェアにおける問題 高サンプルレート・セッションにおける潜在的なサンプル落ちを含む、Pro Tools | Carbon の性能劣化問題。 Carbonセントラルにおけるエラー・ステータスの発生、または、拡張デバイスがAudio MIDI設定に作成されない。 HDXシステムにおいて、設定>ハードウェア でソフトクリップを選択すると、ソフトウェアがフリーズする。 MBOX Studioを低いハードウェア・バッファーサイズで使用した際に、正しく再生スタート出来ない場合がある。 3rd パーティー製品の問題 Keyboard Maestro経由でメニューが選択できない。 Sync scripts内のSoundsが Pro Tools メニューにアクセスできない。 https://pro.miroc.co.jp/headline/pro-tools-support-resource/
Support
2024/03/08

【Pro Tools 2024.3対応版】Pro Tools サポート情報一覧

Pro Tools 2024.3のリリースに伴い、Avidの各種サポートページが更新されています。システム要件や対応するOSなどの情報が記載されていますので、システム更新やPro Toolsのアップグレードをご検討中の方はご参照ください。 https://pro.miroc.co.jp/headline/pro-tools-on-macos-sonoma/ Pro Tools 2024.3新機能ガイド 新機能ガイド日本語版PDFです。 Avid Japan YouTubeチャンネル 最新の6本がPro Tools 2024.3で追加された機能に関する動画です。 Pro Tools 2024.3リリース・ノート システム要件、対応するハードウェア、新機能などの情報へのリンクが記載されています。 Pro Tools リリース・ノート 過去のバージョンを含めた、Pro Tools各バージョンにおける不具合修正内容などの情報が記載されています。 Pro Tools システム要件 Pro Toolsを動作させるための基本的なマシンスペックなどが記載されています。 Pro Tools OS (オペレーティングシステム) 互換性 リスト Pro Toolsのバージョンと、macOS/Windowsの対応表です。 Pro ToolsでサポートされるAppleコンピュータとオペレーティング・システム AvidによってPro Toolsの動作検証が実施されているApple製コンピュータの一覧が記載されています。 Pro ToolsでサポートされるWindowsコンピュータとオペレーティング・システム AvidによってPro Toolsの動作検証が実施されているWindowsコンピュータの一覧が記載されています。 Pro Tools | Carbon システム・サポートと互換性 システム要件、対応するコンピュータ、対応OSからユーザーガイドへのリンクまで、Pro Tools | Carbonに関する情報がまとまっています。 Pro Tools ビデオ・ペリフェラル Pro Toolsが対応するAvidビデオ機器とドライバのバージョンマッチングが一覧できます。 EUCON 互換性 EUCON各バージョンとPro Tools各バージョンの対応OSを調べられます。EUCON最新の2023.11はmacOS Sonomaに対応していますが、Pro ToolsはSonomaには未対応ですのでご注意ください。 Pro Toolsアップグレード・コードの登録方法 アップグレード・コードをアカウントに登録し、ダウンロード可能にするまでの手順を解説した動画です。 Pro Tools ソフトウェア・アップデート 最新版をどこからダウンロードするか記載されています。 Pro Tools 初期設定削除方法 コンピューター最適化ガイド – Mac及びWindows Pro Toolsをインストールする前に設定すべき諸項目に関するガイドです。 Pro Tools と Media Composer を同一のシステムに混在させる際の注意点 Sibelius と Pro Tools を同一のシステムに混在させる際の注意点 Pro Tools のバージョンとリリース日(v9 以降) Pro Toolsアップデートの最新版 古いバージョンの情報も載っています。 Pro Tools ドキュメント マニュアルや新機能ガイドです。新バージョンが出るたびに更新され、日本語版も順次追加されます。過去のバージョンのドキュメントもダウンロードできます。 ROCK ON PROでは、Pro Tools HDXシステムをはじめとしたスタジオシステム設計を承っております。スタジオの新設や機器の更新をご検討の方は、ぜひ一度弊社へご相談ください。 https://pro.miroc.co.jp/headline/pro-tools-on-macos-sonoma/
NEWS
2024/03/08

Pro Tools 2024.3 リリース!Dolby AtmosやMIDI関連機能が強化

Pro Tools 2024.3がリリースされました。Pro ToolsとSibelius間のMIDIコピー&ペーストやMIDIプラグインなどの音楽制作に関連する機能の強化のほか、Dolby Atmosのリレンダリングにカスタム・リレンダリング・オプションが追加されるなど、作曲/ポストプロダクションの両面で作業効率を大幅に改善する充実したアップデートが図られています。 有効なサブスクリプション、または、年間サポートプランが有効なライセンスをお持ちのユーザー様は、すでにAvidアカウントからPro Tools 2024.3をダウンロードして使用することが可能です。 Pro Tools 2024.3新機能の詳細についてはこちら(Avidブログ日本語)>> MacOS 14.3 SONOMA サポートと既知の不具合 Pro Tools 2024.3はmacOS 14.3に対応していますが、テスト中にいくつかの不具合が確認されています。macOS 14.3 SONOMAでPro Toolsを使用することを検討中の方は事前に必ず下記リンク先の内容をご確認ください。 Pro Tools の macOS 14.x Sonoma 対応状況 (既知の不具合) - Avid Knowledge Base ビデオ・エンジン無効の維持 ビデオを含むセッションを開くときでもビデオ・エンジンを有効にする必要がなくなりました。作業時にビデオを表示する必要がない場合に、そのリソースを節約できます。 Dolby Atmos カスタム・ライブ・リレンダリング Pro Tools 2023.12で実装されたPro Tools内部Dolby Atmos Rendererに「カスタム・ライブ・リレンダリング」機能が追加され、Pro Tools 2024.3では、バイノーラル、2.0、5.1、7.1、5.1.2、5.1.4、7.1.4 (Pro Tools StudioおよびUltimate)、9.1.6 (Ultimate) のカスタム・ライブ・リレンダリングが可能になりました。これにより、あらかじめ遅延補正がかかった状態、さまざまなプラグインを使用した状態でリレンダリングをおこなう際の柔軟性が大幅に向上しています。 その他、Dolby Atmos関連では以下の機能強化がおこなわれています。 カスタム・ベッド・サブパス:Dolby Atmosタブのベッドにカスタム・サブパスを追加できるようになり、Dolby Atmosを利用した以前のPro Toolsセッションとの柔軟性と互換性が向上 追加のADMメタデータ:WAV ADM BWF ファイルに関する追加情報を、セッションデータのインポート・ウィンドウで表示 ADMインポートの簡素化:WAV ADM BWFファイルをインポートする際に、互換性のあるパスを再利用するようになり、必要な I/O設定構成の量が減少 Dolby Atmos Rendererウィンドウのローカライズ MIDIプラグイン MIDIトラックにインサートすることで、アルペジエイターやピッチシフターをプラグインチェインと同じように扱うことが可能になりました。これまで、複数のMIDIトラックを使用して複雑なルーティングを組む必要があったMIDI関連のワークフローを一気に改善する画期的な機能と言えるでしょう。 MIDIプラグイン、MIDIチェインのコンセプトについては、こちらのAvidブログに詳細が記載されています。 Pro Tools - Sibelius間でのMIDIコピー&ペースト機能 こちらもワークフローを大幅に改善する機能追加!Pro ToolsとSibeliusの間でMIDIデータをコピー&ペーストできるようになりました。Pro Toolsで制作した楽曲からスコアやパート譜を作成したり、Sibeliusで書いたパッセージをPro Tools上で確認しながらブラッシュアップしていくような作業を効率的におこなうことができるようになりました。 この機能の詳細はこちらのAvidブログで確認できます。 Sketch関連アップデート Pro Tools内部で、Sketchウィンドウと編集ウィンドウ間でのドロップ&ドロップ機能がより充実しました。Sketch iPadアプリではコンテンツの増加やカウントオフ機能の追加などがおこなわれています。 ARAタブ、クリップエフェクトタブの独立表示 Pro Toolsウィンドウ下部に表示される、MelodyneのARAタブ、および、クリップエフェクトタブを独立して表示できるようになりました。ウィンドウの大きさを調整することも可能です。 新機能が追加されても、それを実行するために手間がかかってしまっては本末転倒。今回のアップデートはワークフローを大幅にスピードアップできる充実したものと言えるのではないでしょうか。 Pro Toolsのアップデートに関するお問い合わせをはじめ、HDXシステム構築やスタジオ設計についてのご相談はROCK ON PROまでお気軽にご連絡ください! https://pro.miroc.co.jp/headline/pro-tools-expiration/ https://pro.miroc.co.jp/headline/mbox-studio-pro-tools-studio/ https://pro.miroc.co.jp/headline/pro-tools-2023-12-support-resource/ https://pro.miroc.co.jp/headline/pro-tools-perpetual-new-license-get-revival/
NEWS
2024/03/07

AMS NeveからDante-MADIコンバーターStarNet DM256が登場!

AMS Neveが最大256チャンネルのDanteと256チャンネルのMADIの双方向変換が可能なコンバーター「StarNet DM256」を発表しました! 今年のNAMMにて発表された本製品は、今やあらゆるシステムの要として機能しているDante、そしてMADIの変換を1Uで担うパワフルなコンバーター。FPGAのDanteモジュールであるDante IP CoreをNeve製品として初採用したDM256は、その名の通り256chのコンバートが4つのMADIポートより可能です。 柔軟かつ必要な機能を1Uに詰め込んだデザイン MADIポートはデュプレックスSCのオプティカル接続とデュアルBNCのコアキシャル接続に対応。また、64chと56chの切り替え、1FS(44.1kHzまたは48kHz)にのみ対応のレガシーMADI機器もロックするレガシークロックオプションモードも搭載しているため、既設のMADIシステムにすぐにでも導入ができます。 冗長性に関する機能では、デュアルイーサネットポート接続によるDante接続のほか、新たに開発されたMCM(Maximum Channel mapping)により、サンプルレート切り替えによるMADIの各ポートにおけるチャンネル数の変化に影響しないDante-MADI間のI/Oマッピング設定を組むことが可能となっています。サンプルレートを頻繁に変える環境でお使いの方には安心の機能なのではないでしょうか。 Dante機器としてDante controllerでの設定はもちろん、フロントのOLEDパネルによりMADI各ポートの設定に素早くアクセス可能。 また、最新の低ドリフト水晶発振器クロッキング・システムとPLLを採用し、マスタークロックとしての使用も想定されています。 正式な発売時期、価格については続報をお待ちください! AMS Neve国内代理店サイト:https://www.minet.jp/brand/ams-neve/top/ AMS Neve本国メーカーサイト:https://www.ams-neve.com/< 同時に発表されたDante対応16x16 AD/DAコンバーター「StarNet ADA16」と共に、DanteシステムにAWS Neveユニットを迎えてみてはいかがでしょうか? Danteシステム構築のご相談はROCK ON PROまで!
Support
2024/03/04

Avid Media Composer ver.2024.2リリース情報

日本時間 2024年2月28日、Avid Media Composer バージョン2024.2がリリースされました。有効なサブスクリプション・ライセンスおよび年間プラン付永続ライセンス・ユーザーは、AvidLinkまたはMyAvidよりダウンロードして使用することが可能です。 今回は、Media Composer 2024.2では、macOS Catalina(バージョン 10.5) およびmacOS Big Sur (バージョン 11)はサポートされませんので、macをご使用の方はご注意ください。 このバージョンでサポートしているOSは次の通りです。 Windows 10 64ビット 22H2以降 (ProfessionalおよびEnterprise) Windows 11 64ビット 22H2以降 (ProfessionalおよびEnterprise) macOS 12.x~12.7.x、13.x~13.6.x、14.0~14.1 今回のバージョンアップは、ユーザーからのフィードバックを受けてのリリース内容になります。 Media Composer 2024.2 新機能 複数のプロジェクトで利用可能な文字起こしデータベース PhraseFind AIとScriptSync AI の文字起こしデータベースの改善により、すでに文字起こしされたクリップの文字起こしを、複数のプロジェクトで使用できるようになります。メディアを複数の場所で再利用する場合には、一度だけ文字起こしをすることで、時間を節約できます。 シーケンスからの文字起こしのエクスポートとサブキャップのエクスポート Media Composerでは、クリップからの文字起こしをエクスポートする機能に加えて、シーケンスから「文字起こしをエクスポート」と「SubCapをエクスポート」という2種類のエクスポートができるようになりました。 シーケンスを右クリックして「文字起こし>文字起こしをエクスポート」を選択すると、ミックスダウンするオーディオトラックの選択肢がユーザーに表示されます。これは、会話を分離し、文字起こしの結果をさらに良くするために使用されます。 さらに、シーケンスを右クリックして「文字起こし > SubCapのエクスポート」を選択すると、オーディオトラック選択用の同様のオプションが表示され、エフェクトエディター ウィンドウのSubCapエフェクトにインポートできる文字起こしファイルが出力され、その結果、シーケンス全体にわたる適切な時間で、キャプションが配置されます。 話し手(Speaker)にIDをつけて、文字起こしをエクスポート Media Composer からエクスポートされた複数の話し手による文字起こしに、話し手それぞれに識別情報が含まれるようになりました。話し手が一人しか存在しない場合でも、個々の話し手は番号(Speaker1、Speaker2など)で示されます。 文字起こし設定の言語選択 Media ComposerのAiによる文字起こしはデフォルトで多言語対応ですが、ユーザーはクリップのインデックス作成時に使用する特定の言語を定義できます。これにより、文字起こしが開始される前にインデクサーに有用な情報が提供されます。これは、プロジェクトである特定の言語だけが使用されており、最初の結果が満足のいくものではなかった場合、より正確な結果が得られるかもしれない場合にのみ実行してください。 プロジェクト設定のTranscript設定で言語選択にアクセスします。起こされた文字はデータベースに保存され、複数のプロジェクト間で共有できます。ただし、言語選択は、プロジェクトごとに指定する必要があります。 PhraseFind AI、ScriptSync AI、およびその他の関連タスクで同じデータベースを共有するには、言語設定がプロジェクト間で一致している必要があります。 タイムラインにソーストラック名を表示 Media Composerは、プロダクションで使用されるカメラ、オーディオレコーダー、その他のデバイスからメタデータにアクセスし、それらの情報をタイムラインに直接追加できるようになりました。 特定のオーディオチャネルで使用されているマイクを示すメタデータは、参照したり、置き換えたりする必要がある場合に、特に役立ちます。このメタデータはMedia Composerに取り込まれると、ビンコラムに表示され、タイムラインの「クリップテキスト」、「ソーストラックの変更」、ソースサイドのパッチの「ソーストラック名の表示」をなどの表示で確認することができます。 ビンに表示された名前は、オンセットのサウンドミキサーによって入力されたメタデータをチャンネルごとに取り込むことができ、TRK1、TRK2、AudioTrack 1、2などの名前が付けられています。タイムラインのファストメニューを使用して、「クリップテキスト>ソーストラック名」を選択すると、対応するメタデータをクリップ名と一緒にクリップ上に直接表示します。 また、タイムライン内のクリップを選択して右クリックし、「ソーストラックの変更」を選択すると、マイクの配置を表すメタデータが表示され、タイムライン内のクリップのチャンネルを簡単に切り替えできます。 クリップがソースモニターにロードされた状態で、タイムラインのファーストメニューで「ソーストラック名の表示」をオンにすることで、ソース側パッチのマイク情報を表示することもできます。 さらに、これらのメタデータはユーザーが変更することができ、書き換えられたデータは表示に反映されるため、編集トラックのクリップの視認性が上がります。 OpenTimelineIO (OTIO) のパブリック プレビュー OpenTimelineIOは、主にVFXとオンラインワークフローで使用されるビデオアプリケーション間の情報交換用に設計されたオープンソースの交換フォーマットです。この形式は、シーケンスやクリップに関する情報をわかりやすいテキストで表示され、AAF、XML、または EDLファイルなどの代替とみなされることがあります。.otioファイルを開くと、技術に詳しいユーザーが選択したテキストエディターで情報を解釈して変更することが容易になります。このようにして、Media Composerを開かずに、クリップの長さの変更、シーケンスへのクリップの追加や削除、単純なスクリプトの利点を活用できるその他の操作を、Media Composerを開かずに、比較的簡単に実行できます。 エンターテインメント業界全体での、OTIOサポートの拡大に対応して、AvidはMedia Composerの最新バージョン(Windows のみ)にOTIO出力のパブリックプレビューを搭載しました。 Media ComposerでOTIOを使用するには、シーケンスを右クリックし、「出力」>「送信先」>「OTIO」を選択し、.otioファイルを保存する場所を選択します。 Media Composerについてのお問い合わせ、ご相談はROCK ON PROまでご連絡ください。
Event
2024/02/08

UVERworld、”男祭り”ライブ映画がDolby Atmosで期間限定上映!

2023年7月30日に日産スタジアムにて開催された「UVERworld KING’S PARADE 男祭り REBORN at Nissan Stadium」。72000人の観客と共に作り上げたこのライブの映像作品が2024年2月9日(金)より期間限定にて全国劇場公開、3月6日(水)にBlu-ray & DVDにてリリースされる。 2011年に滋賀のライブハウスB-FLATでファンクラブの男性会員230人からスタートしたUVERworld名物の男性客限定ライブ“男祭り”。その後年々開催規模は拡大し、2019年に開催された東京ドーム公演「KING’S PARADE 男祭り FINAL at Tokyo Dome」では45000人を動員して一度は幕を閉じた企画であったが、コロナ禍を経て昨年7月に堂々の復活を遂げたのが本作に収録される公演だ。 その本作について、Dolby Atmos Mixのチェックもここで行われたというWOWOW 試写室での試写会にご招待いただき、音響制作陣にインタビューさせていただいた。詳しい内容は、次号Proceed Magazineでレポートする予定だ。 Dolby Atmosで表現する熱狂のライブ 📷左から、八反田 亮太氏(VICTOR STUDIO レコーディングエンジニア)、戸田 佳宏氏(WOWOW 技術センター 制作技術ユニット エンジニア) UVERworldの“男祭り"がDolby Atmosでライブ映像化されるのは2019年の東京ドーム公演に引き続き2度目。前作に引き続いて今作でも音響制作をVictor Studio 八反田亮太氏、WOWOW 戸田佳宏氏が手がけられている。 前回の経験を活かし、また異なる表現に挑んだという本作。バンドとオーディエンスの圧倒的な熱量を再現するために、200ch近くに及ぶ収録や、このライブならではのオーディエンスが特徴的なミキシングについて伺うことができた。他のライブでは体感できない"男祭り"の空気が追体験できる作品となっている本作。是非劇場でご鑑賞いただいた上で、次号Proceed Magazineのレポートをお楽しみに。 現時点で発表されている情報では、本作をDolby Atmosで鑑賞できるのは今回の劇場公開時のみとなっている。見逃すことなく、全国のDolby Atmos対応シアターでこの熱狂をご体験いただきたい。 作品情報 「UVERworld KING’S PARADE 男祭り REBORN at Nissan Stadium」 2024年2月9日(金)より期間限定公開 ※期間については各劇場にお問い合わせ下さい。 出演 :UVERworld   製作 :Sony Music Labels Inc.    配給 :WOWOW 特設サイト: https://uverworld-kingsparade2023-movie.com/ ©Sony Music Labels Inc. 
Support
2024/02/07

Pro Tools 2023.12.1 リリース(不具合修正バージョン)

Pro Tools 2023.12に含まれていた重大な課題が改修された、Pro Tools 2023.12.1がリリースされています。特に、Pro Tools 2023.12でDolby Atmosワークを実施されるユーザー様、および、HDXシステムを使用されているユーザー様は以下の情報をご一読の上、アップデート(無償)をご検討ください。 Pro Tools 2023.12.1は、以下の不具合修正のため2024年1月16日にリリースされました。 Dolby Atmos® ワークフロー Pro Tools 2023.12.0 経由で、Dolby Atmos® WAV ADM BWFをバウンスしたりオフライン・リレンダーする際に問題が見つかりました。バウンスされたオーディオに警告なしに断続的なノイズが混入する可能性があります。ベッドやオブジェクトに直接アサインされたトラックに、Pro Limiterなど特定のプラグインがインサートされている場合に発生する事が多い様です。この問題はPro Tools 2023.12.1で修正されました(PT-317207)。 8,000サンプルを超える遅延のあるセッションにてWAV ADMをオンライン・バウンスした際にPro Toolsがフリーズする症状を修正(PT-316860)。 Pro Tools ハードウェア Pro Tools 2023.12.0の起動時、Pro Tools | HDXまたはPro Tools | HD Nativeのファームウェア・アップデートがAAE -1164 エラーで失敗する問題を修正(PT-317106)。 注意: Pro Tools | HD Nativeはファームウェア・アップデート後に再起動する必要があります。 これに伴い、リリースノートの内容もアップデートされています(同一のページに追記の形)。 Pro Tools 2023.12 / 2023.12.1 リリース・ノート(Avidナレッジベース日本語版) 本件に関するご不明点、また、Pro Toolsシステム設計のご相談はROCK ON PROまでお気軽にお問い合わせください。 https://pro.miroc.co.jp/headline/pro-tools-2023-12-support-resource/
NEWS
2024/02/05

WaveLab 12がリリース!ARA対応で他DAWでも使用が可能に!

Steinbergのマスタリング・ソフトウェア「WaveLab」の新バージョン「WaveLab 12」がリリースされました! 今回のバージョンではマスタリングやオーディオ編集を進化させる新しいワークフローや約80個におよぶ新機能が追加されています。マスタリングエンジニアはもちろんのこと、音楽や音に関わる多くの方々にとって役立つ要注目のアップデートです。 新機能〜ARAで他DAWでも利用可能〜 ARA2(Audio Random Access)に対応したことにより、Cubase、Nuendo、Reaper、Studio OneなどといったARA対応DAWでARAプラグインとして使用できるようになります。WaveLabの強力な機能をDAW上のオーディオファイルに直接使うことができるようになるのは、エンジニアにとって大きな選択肢となります。(Pro版) オーディオエディターやモンタージュ上で、オーディオ波形を周波数帯域に応じた色分けで表示できます。歯擦音やローエンドといったポイントに任意の色を設定することで、素早いオーディオ処理が可能にな(Pro版、Elements版) オーディオモンタージュのメタノーマライザーに3つの新機能が追加されました。ステムをあるレベルまでノーマライズする際、ステム間のバランスを維持しながら、すべてのクリップのラウドネスを調整することなどが可能になります。(Pro版) そのほかにもオーディオの品質管理やトラブルシュートに役立つNull Test Trackや、6つの新プラグインなど新機能は盛りだくさんです。詳細は公式サイトをご覧ください。 STEINBERG / WaveLab Pro 12(DL版) 価格:¥69,850(本体価格:¥63,500) Rock oN eStoreで購入!>> STEINBERG / WaveLab Pro 12 アカデミック版 (DL版) 価格:¥34,870(本体価格:¥31,700) Rock oN eStoreで購入!>> 前回のメジャーアップデートから2年半ぶりとなるWaveLab12。ARA対応により、多くの方のワークフローに組み込みやすくなりました!マスタリング環境のご相談はROCK ON PROまで!
1 / 1112345678...»

Solution

Solution
制作環境を飛躍させる

DDM + AWS + WAVES クラウドミキシング / Dante Domain Managerでインターネットを越えるIP伝送

Ethernetを活用したAudio over IP(AoIP)伝送の規格、Dante。すでに設備やPAなど様々な分野でその活用が進んでいるこのDanteは、ローカルネットワーク上での規格となるため遠隔地同士の接続には向いていなかった。遠隔地への接続は低レイテンシーでの伝送が必要不可欠、そのためネットワーク・レイテンシーに対する要求はシビアなものとなる。これを解決するために、Danteの開発元であるAudinateが「インターネットを越えるDante」という、新しい一歩のためにDDM=Dante Domain Managerを利用する仕組みを完成させている。 DDM=Dante Domain Manager ご存知の通り、Danteはローカルネットワーク上で低遅延のAoIPを実現するソリューションである。ローカルでの運用を前提としたDanteをInternetに出そうとすると、ネットワーク・レイテンシーが問題となり上手くいかない。それもそのはず、ローカルでの運用を前提としているため、最長でも5msまでのレイテンシーしか設定できないからである。このレイテンシーの壁を取り払うために最近活用が始まったのが、DDM=Dante Domain Managerである。 このソリューションは、単一IPセグメントの中での運用に限定されているDanteを、さらに大規模なシステムで運用するために作られたもの。ドメインを複数作成することでそれぞれのドメイン内でそれぞれがローカル接続されているかのような挙動をするものとしてリリースされた。例えば、2つのホールを持つ施設で、すべてのDante回線を同一のネットワークとすれば、それぞれの場所も問わず任意のDante機器にアクセスできる、という柔軟性を手に入れることができる。しかし、それぞれのホールにあるすべてのDante機器が見えてしまうと煩雑になってしまう。それを解決するためにDDMを導入してそれぞれのホールを別々のドメインとし、相互に見えてほしいものだけを見えるようにする。このような仕組みがDDMの基本機能である。 AWS上でDDMを動作しレイテンシー回避 このようなDDMの機能を拡張し、インターネットを越えた全く別のドメイン同士を接続するという仕組みが登場している。DDM上でのレイテンシーは40msまで許容され、遠隔地同士だとしても国内程度の距離であれば問題なく接続することが可能となっている。この場合には、送り手、受け手どちらかの拠点にDDMのアプリケーションが動作しているPCを設置して、そこを中継点として伝送を実現するというイメージである。ただし、世界中どこからでも、というわけにはいかない。なぜなら40msというネットワークレイテンシはそれなりに大きな数字ではあるが、回線のコンディション次第ではこの数字を超えるレイテンシーが発生する可能性があるからだ。 この40msを超えるネットワークレイテンシーの改善のためにクラウドサービスを活用するという仕組みも登場している。これはAWS上でDDMを動作させることで、CDNのように分散ネットワーク処理をさせてしまおうという発想だ。ローカルのDante機器は同一国内、もしくは近距離でレイテンシーについて問題がないAWSサーバーで動作するDDMへと接続される。AWS上では世界各地のAWSサーバー同士が同期されているため、その同期されたデータと受け取り先のローカルが、許容レイテンシー内のAWSサーバー上のDDMと接続することでその遅延を回避するという仕組みだ。この仕組みにより、世界中どこからでもDanteを使ったオーディオ伝送が実現されるというわけだ。 📷IBC2023 Audinateブースでの展示は、ロンドンのAWS上で動作するWAVES Cloud MXが動作していた。右の画面にあるようにAudinateでは世界中のAWSを接続しての実証実験を行っている。 WAVES Cloud MXでクラウドミキシング 2023年に入ってからは、このAWS上でDDMが動作するということで、WAVES Cloud MXと連携しての展示がNAB / IBC等の展示会で積極的に行われている。ローカルのDanteデバイスの信号をAWS上のDDMで受け取り、その信号を同一AWS上のWAVES Cloud MXが処理を行うというものだ。ただし、オーディオのクラウドミキサーはまさに始まったばかりの分野。クラウド上にオーディオエンジンがあるということで、どのようにしてそこまでオーディオシグナルを届けるのか?ということが問題となる。DDMはその問題を解決しひとつの答えを導いている。 📷画面を見るだけではクラウドかどうかの判断は難しい。しかしよく見るとeMotion LV1がブラウザの内部で動作していることがわかる。オーディオ・インターフェースはDante Virtual Soundcard、同一AWS内での接続となるのでレイテンシーの問題は無い。 ここで、WAVES Cloud MXについて少しご紹介しておこう。WAVES Cloud MXはプラグインメーカーとして知られるWAVES社がリリースするソフトウェアミキサーのソリューションである。WAVESはeMotion LV1というソフトウェアミキサーをリリースしている。WAVESのプラグインが動作するオーディオミキサーとして、中小規模の現場ですでに活用されているPAミキサーのシステムだ。このソフトウェアをAWS上で動作するようにしたものが、WAVES Clod MXである。ソフトウェアとしてはフル機能であり、全く同一のインターフェースを持つ製品となる。プラグインが動作するのはもちろん、ネットワークMIDIを活用しローカルのフィジカルフェーダーからの操作も実現している。どこにエンジンがあるかを意識させないレイテンシーの低い動作は、クラウド上でのビデオ・スイッチャーを手掛ける各メーカーから注目を集め、NABではSONY、GrassValleyといったメーカーブースでの展示が行われていた。Audioの入出力に関しては、NDI、Danteでの入出力に対応しているのがローカルでのeMotion LV1システムとの一番の違い。ローカルのeMotion LV1では、同社の作った規格であるSoundGridでしかシグナルの入出力は行えない。 WAVESの多彩なプラグインを活用できるため、例えばDanDuganのAutomatic Mixerを組み込んだり、トータルリミッターとしてL3を使ったりと、様々な高度なオーディオ・プロセッシングを実現できている。これは、クラウド上でのビデオ・スイッチャーが持つオーディオ・ミキサーとは別格となるため、その機能を求めてメーカー各社が興味を持つということに繋がっている。Clarity Vxのようなノイズ除去や、Renaissanceシリーズに代表される高品位なEQ、Compの利用を低レイテンシーで行うことができるこのソリューションは魅力的である。その登場当時はなぜクラウドでオーディオミキサーを?という疑問の声も聞かれたが、ここはひとつ先見の明があったということだろう。 世界中どこからの回線でもミックスする クラウド上でのビデオ・スイッチャー、クラウドミキサーのソリューションは、そのままクラウド上で配信サービスへ接続されることを前提としてスタートしている。ローカルの回線をクラウド上で集約、選択して、そのまま配信の本線へと流す。非常にわかりやすいソリューションである。その次のステップとして考えられているのが、遠隔地同士の接続時に、回線をステム化して送るというソリューション。送信先の機材量を減らすという観点から考えれば、これもひとつの回答となるのではないだろうか。ローカルからは、完全にマルチの状態でクラウドへ信号がアップされ、クラウド上でステムミックスを作り、放送拠点へとダウンストリームされる。クラウド上で前回線のバックアップレコーディングを行うといったことも可能だ。インターネット回線の速度、安定性という不確定要素は常に付きまとうが、現場へ機材を持ち込むにあたっての省力化が行えることは間違いないだろう。 前述の通り、DDMを活用したこのシステムであれば、世界中どこからの回線でもミックスすることが可能である。さらに世界中どこからでもダウンストリームすることができる。国際中継回線など、世界中に同一の信号を配るという部分でも活用が可能なのではないだろうか?オリンピック、ワールドカップなどの大規模なイベントで、世界中の放送局へ信号配信する際にも活用が可能なのではないか、と想像してしまう。IPの優位点である回線の分配というメリットを享受できる一例ではないだろうか。 📷IBC2023 SONYブースにもWAVES Cloud MXが展示されていた。SONYのクラウド・ビデオ・スイッチャーのオーディオエンジンとしての提案である。こちらではDDMではなくNDIを使ってのオーディオのやり取りがスイッチャーと行われていた。手元に置かれたWAVESのフィジカルコントローラー「FIT Controller」はクラウド上のミキシングエンジンを操作している。 まだ、サービスとしてはスタートしたばかりのDDMとAWSを活用した遠隔地の接続。その仕組みにはDante Gatewayなどが盛り込まれ、同期に関してもフォローされたソリューションができあがっている。これらのクラウドを活用したテクノロジーは加速度的に実用化が進みそうである。   *ProceedMagazine2023-2024号より転載

Music

TOA ME-50FS / スピーカー原器、その違いを正確に再生できる装置を

長さを測るためには、その長さの基準となるメートル原器と呼ばれる標準器が必要。重さを測るのであれば同様にキログラム原器が必要となる。では、スピーカーにとっての基準、トランスデューサーとしての標準はどこにあるのか?そのスピーカーの標準器を目指して開発されたのがTOAのME-50FSだ。非常放送用のスピーカー、駅のホームのスピーカーなど生活に密着した音響設備を作るTOAが、これまでの知識と技術をすべてを詰め込んで作り上げた究極のアナログ・スピーカーである。1dB、1Hzの違いを聴き分けられるスピーカー、その実現はデジタルではなく、むしろアナログで開発しないと達成できないことであったと語る。そのバックグラウンドとなるさまざまな基礎技術、要素技術の積み上げはどのような現場で培われたのだろうか?そして、その高品位な製品はどのように作られているのか?研究開発拠点であるナレッジスクエアと、生産拠点であるアコース綾部工場に伺ってその様子をじっくりと確認させていただいた。 TOA ME-50FS 価格:OPEN / 市場想定価格 ¥2,000,000(税込:ペア) ・電源:AC100V ・消費電力:30W ・周波数特性:40Hz~24kHz (-6dB) ・増幅方式:D級増幅方式 ・エンクロージャ形式:バスレフ型 ・使用スピーカー 低域:10cm コーン型×2 高域 : 25mmマグネシウムツイーター ・アンプ出力:250W ・アンプ歪率:0.003% ・最大出力音圧レベル:104dB ・仕上げ:木製(バーチ合板) ウレタン塗装 ・寸法:290(幅)× 383(高さ)× 342(奥行)mm( 突起物除く) ・質量:約15kg(スピーカー本体1台の質量) 実は身近に必ずあるTOA製品 皆さんはTOAという会社をご存知だろうか?日本で暮らしているのであれば、TOAのスピーカーから出た音を聴いたことが必ずあるはずだ。駅のホーム、学校の教室、体育館、あなたの働いている会社の非常放送用のスピーカーもTOAの製品かもしれない。まさに生活の一部としてさまざまな情報を我々に音で伝えるためのスピーカーメーカー、それがTOAだ。 TOAの創業は、1934年と国内では老舗の電機メーカーである。創業時の社名は東亜特殊電機製造所。神戸に誕生し、マイクロフォンの製造を手掛けるところからその歴史はスタートしている。マイクロフォンと言っても現在一般的に使われている形式のものではなく、カーボンマイクロフォンと呼ばれる製品だ。これは世界で初めてエジソンが発明したマイクロフォンと同じ構造のものであり、黒電話など昔の電話機に多く使われていた形式である。周波数特性は悪いが、耐久性に優れ高い感度を持つため1980年代まで電話機では普通に使われていた。現在でも電磁波の影響を受けない、落雷の影響を受けない、低い電圧(1V程度)で動作するなどの特長から可燃物の多い化学工場や軍事施設など一部のクリティカルな現場では現役である。 このマイクロフォンは、その名の通り、カーボン(炭素)を必要とする製品である。時代は戦時中ということもあり、良質なカーボンを入手することが難しく、なんと砂糖を焼いてカーボンを作ったという逸話が残っている。要は砂糖を焦がした炭である。砂糖が贅沢品であった時代に、この工場からは一日中甘い匂いがしていたそうだ。 次に手掛けたのが、拡声装置。中でも「東亜携帯用増幅器」は、小型のトランクケースに増幅器とスピーカーを内蔵し、持ち運びのできる簡易拡声器として人気があったそうだ。他にもレコード録音装置などさまざまな音響製品を生み出していった同社だが、中心となったのは、拡声装置(アンプとスピーカー)であり、その専業メーカーとして発展をしていく。拡声装置のスピーカーとして当時使われていたのが、ホーン型のスピーカー。ドライバーユニットに徐々に広がる筒、ストレートホーンを取り付けたものである。この筒の設計により、特定の周波数の音を大きく、遠くまで指向性を持たせて届けることができるという特徴を持っている。 TOAが大きく発展するきっかけとなったのがこのホーンスピーカー。現在一般的に使われているホーンスピーカーは、リスニング用途の半円錐状のものを除けばほとんどが折り返し式ホーン。メガホンや、拡声器、選挙カーの屋根などについているものがそれである。この折り返し式ホーンはレフレックストランペットとも呼ばれる。ストレートホーンを折りたたんだ構造をしているため、全長を短くすることができ、さらにはドライバーユニットが奥まった位置にあるため防滴性能を獲得、屋外で使うにあたり優れた特徴を持っている。 このトランペットスピーカーは戦後の急速な復興に併せて大きな需要があった。同社は、黒や灰色の製品ばかりのこの市場に鮮やかな青く塗られたトランペットスピーカーを登場させ、その性能の高さも相まって高い人気を博した。青いトランペットをトレードマークに「トーアのトランペット」「トランペットのトーア」と呼ばれるまでに成長を遂げる。 1957年には、世界初となるトランジスターメガホンを発売。女性でも一人で持ち運べる拡声器としてエポックメイキングな製品となった。旅行先などでガイドさんが使っているのを記憶している方も多いのではないだろうか。いまでも、選挙の街頭演説などで見かけたりするメガホンのルーツが実は「トランペットのトーア」にある。 積み重ねた技術を音響の分野へ 1964年の東京オリンピックでは、全面的にトーアのスピーカーが使われた。東京オリンピックの開会式では世界で初めてトラック側から客席に対してPAするということが行われ、当時主流であった観客後方となるスタジアムの外側からではなく、客席に対して正対する方向からのPAは高い評価を受けた。これには、プログラムの演目に合わせてスピーカーを3分で移動させなければならない、など影の努力がかなりあったとのこと。スポーツ関連はこれをきっかけに国内のさまざまな競技場への導入が進み、お膝元である阪神甲子園球場やノエビアスタジアム神戸をはじめ全国各地でTOA製品が採用され、海外でもウィンブルドンのセンターコートなど数多くの採用実績を誇る。まさにPA=公衆拡声の技術力の高さを感じるところ。遠くまで、多くの人に明瞭な音を届ける。これを実践しているメーカーであると言えるだろう。 また、神戸のメーカーということもあって1970年の大阪万博開催の際には各所で「音によるおもてなし」を行う自動放送システムなど多くの新技術がお披露目された。この自動放送システムは、1975年の京成電鉄成田駅を皮切りに全国への導入が進んでいく。当時は、高価だったメモリーを使ったシステムでサンプラーの原型のようなものを作り、プログラム動作させていたということ。現在、駅で当たり前に流れてくる自動音声による案内放送のルーツとなるものだ。 1985年ごろからは、コンサート用のPAスピーカー、ライブハウスやディスコなどに向けたPAシステムも手掛けるようになる。これまでの「多くの人に明瞭な音を伝える」ということに加えて音質、音圧、さらには、長時間駆動しても壊れない耐久性を持った製品を開発していくことになる。ツアースピーカーには「Z-Drive」という名前が与えられ、大規模なライブ会場や屋外イベントで使われるようになる。そして、さまざまな現場に導入されるスピーカーのチューニングを行うために、世界初となるDSPを使ったサウンドデジタルプロセッサー「SAORI」を誕生させる。 この当時デジタルエフェクターは登場していたが、イコライザーやディレイ、コンプレッサーなどでサウンドチューニングをするためのデジタルプロセッサーはTOAが世界で最初に製品化をしている。このプロセッサーは主に設備として導入されるスピーカーの明瞭度を上げるためのチューニングに使われており、今では当たり前になっているDSPによるスピーカーチューニングの原点がここにある。デジタルコンソールに関しても1990年にix-9000というフルデジタルコンソールをウィーン国立歌劇場のトーンマイスターたちとともに作り上げた。音楽という芸術を伝え、楽しむためのスピーカー、そういった分野へのチャレンジも行われてきたことがわかる。 そして、TOAの中心となるもうひとつの分野が非常用放送設備。火災報知器に連動して室内にいる人々に警告を発したり、業務用放送を非常放送に切り替えたりという、国内では消防法で定められた多くの公共空間に設置されている設備である。人の命を守る音、「聞こえなかった」ということが人命に関わる重要な設備だ。今回お話を伺った松本技監が、「TOAの作る音は音を楽しむ(音楽)ためのものではなく、人の命を守る「音命(おんみょう)」だと再三に渡り言われていたのが印象的。耐火、耐熱性を持たせたスピーカーの開発、アンプ等の放送設備の耐久性・堅牢性へのこだわり、そのようなクリティカルな現場で培われた製品の品質、人命という何よりも重いものを預かる使命に基いた製品の製造を行ってきたということがTOAのもう一つの顔である。 TOA製品に息づくスピリット さまざまな分野へのチャレンジスピリット、そして非常用設備に始まる失敗の許されない現場への製品供給、そんな土台があったからこそオリンピックや万博などでの成功があったと言える、まさに設備音響としてのトップブランドの一つである。そのチャレンジスピリットを象徴するものとして「超巨大PA通達テスト」についてのお話を伺えた。 音を遠くまで届けるということは、一つのテーマである。その実験のために、口径3メートル、全長6.6メートルという巨大なストレートホーンを製作。巨大なアンプとドライバーにより、音をどれほど遠くまで届けることができるかをテストした。もちろん街中では行うことができないため、いま明石海峡大橋があるあたりから淡路島に向けて実験を行ったということだから驚きだ。おおらかな時代でもあったということもあるが、対岸の淡路島の海岸線沿いにスタッフを配置し、どこまで聴こえているかを試したということだ。もう一回は、比叡山の山頂から琵琶湖に向けてのテストがあったとのこと。この際も琵琶湖の湖畔でどこまで音が聴こえるかを試したということだ。そのテスト結果はなんと最長到達距離12km!もちろん、風などの影響も受ける距離となるが、このような壮大な実験を国内で行ってしまう先達の技術者による挑戦に感銘を覚える。 写真撮影は許可されなかったが、クリティカルな現場に向けて行われる製品テスト用設備の充実度はさすがの一言。基本的に耐久テストは、壊れるまで行うということを基本に、実際の限界を確認しているということだ。電力に対する負荷テストはもちろん、現代社会にあふれる電波、電磁波に対する試験を行うための電波暗室、物理的な耐久性を確かめるための耐震テスト、真水や塩水を製品にかけ続ける耐水、耐塩水テストなど、本当にここは電気製品を作っているところなのかと疑うレベルのヘビーデューティーな試験施設が揃っていた。 これも「音命」に関わる重要な設備、肝心なときに期待通りの動作が求められる製品を作るための重要な設備である。筆者も初めての体験だったが、電波暗室内では外部からの電磁波を遮断した状況下で、製品に電子銃で電波を当ててその動作を確認している。これは対策が脆弱な一般レベルの電子機器であれば動作不良を起こす状況で、どこまで正常動作を行えるか?影響の少ない設計にするにはどうすればよいか?昨今話題になることの多いEMS障害などへの影響を確認しているということだ。また、この実験設備の一室には工作室があり、用意された木工、金属加工などさまざまな工具で製品のプロトタイプは自分たちで作るという。まず、自らの手による技術と発想で課題解決に挑戦するという文化がしっかりと残っており、このような姿勢はTOAすべての製品に息づいているということだ。 スピーカー原器を作ろうという取り組み 東亜特殊電機製造所からスタートし、現在ではTOAとして国内の非常用放送設備のシェア50%、公共交通機関の放送設備や設備音響のトップブランドとなった同社が、なぜここに来てリファレンスモニタースピーカーを発表したのだろうか?もちろん、Z-Driveというコンサート向けのPAシステム、ウィーン歌劇場に認められたフルデジタルコンソールix-9000など伏線はあったものの、これまで、リスニング用・モニター用のスピーカーはリリースしてこなかった。 色々とお話を伺っていくと、TOAでは社員教育の一環として「音塾」というものを実施しているということだ。ここでは、社員に音に対する感性を養ってもらうためのさまざまなトレーニングを行い、1dBの音圧の違いや1Hzの周波数の違いを聴き分けられるようになるところまで聴覚トレーニングを行っているという。 ここで問題となっていたのが、人はトレーニングをすることで聴覚を鍛えることができるのだが、その違いを正確に再生できる装置がないということだ。物理的、電気的、さまざまな要因により、スピーカーには苦手な再生周波数や出力レベルが存在する。わかりやすいところで言えば共振周波数や共鳴周波数による影響である。もちろんそれだけではなく、他にもさまざまな要因があり理想とする特性を持ったスピーカーがない。そこで作り始めたのがこのME-50FSの原型となるプロトタイプの製品。まさに標準器となるスピーカー原器を作ろうという取り組みである。 デジタルの第一人者によるフルアナログ 📷右より3人目がこのプロジェクトの中心人物の一人となる松本技監。 このプロジェクトの中心人物の一人が今回お話をお伺いした松本技監。TOAの歴史の中で紹介した世界初のDSPを用いたサウンドデジタルプロセッサー「SAORI」やツアースピーカー「Z-Drive」を開発した中心人物の一人で、音声信号のデジタル処理やスピーカーチューニングに関する第一人者とも言える方である。この松本技監が究極のスピーカー製作にあたり採用したのがフルアナログによる補正回路である。デジタルを知り尽くしているからこそのデジタル処理によるデメリット。そのまま言葉を借りるとすれば「デジタル処理は誰もが簡単に80点の性能を引き出せる、しかしそれ以上の点数を取ることができない」ということだ。 デジタルとアナログの大きな違いとしてよく挙げられるのが、離散処理か連続処理か、という部分。デジタル処理を行うためには、数値でなければデジタル処理できないということは皆さんもご理解いただけるだろう。よって、必ずサンプリングという行程を踏んで数値化する必要が絶対的に存在する。しかし、連続性を持った「波」である音声を時間軸に沿ってスライスすることで数値化を行っているため、どれだけサンプリング周波数を上げたとしても「連続性を失っている」という事実は覆せない。ほぼ同等というところまではたどり着くのだが、究極的なところで完全一致はできないということである。 もう一つはデジタル処理が一方通行であるということだ。ご存知かもしれないが、スピーカーユニットは磁界の中でコイルを前後に動かすことで空気振動を生み出し音を出力している。このときに逆起電流という現象が発生する。動いた分だけ自身が発電もしてしまうということだ。これにより、アンプ側へ逆方向の電流が流れることとなる。デジタル処理においては逆方向のプロセスは一切行われない。しかしアナログ回路であれば、逆方向の電流に対しても適切な回路設計を行うことができる。 通常のスピーカー設計では影響のない範囲として捨て置くような部分にまで目を向け、その設計を突き詰めようとした際にどうしてもデジタルでは処理をしきれない領域が生まれる。ME-50FSでは、このようなことをすべて解決させるためにフルアナログでの設計が行われているわけだ。DSPプロセッサーの生みの親とも言える松本技監がフルアナログでの回路設計を行うということで、松本氏をよく知る仲間からは驚きの声が聞かれたそうだ。しかしその裏には、デジタルを知り尽くしているからこそのアナログであるという徹底したこだわりがある。デジタル処理ではどうしてもたどり着けない限りなく100点に近い、理想の性能を追い求めるための究極とも言えるこだわりが詰まっている。 こんなことをしている製品は聞いたことがない ME-50FSにおける設計思想は「スピーカーユニットをいかに入力に対して正確に動かすか」という一点に集約されている。低域再現などにおいて38cmウーハーなど大型のユニットが使われることも多いが、動作させる質量がサイズに比例して大きくなってしまうためレスポンスに優れなくなってしまう。動作する物体の質量が多ければそれだけその動きを止めるための力が必要ということだ。この問題に対してME-50FSでは10cmという小さなスピーカーユニットを採用することにした。口径は小さくしたものの、一般的な製品の3倍程度のストロークを持たせることでその対策がとられている。その低域の再生に抜かりはなく、バスレフ設計のエンクロージャーの設計と合わせて、40Hz(-6dB)という10cmユニットとしては驚異的な低域再生能力を獲得している。スピーカーユニットの質量を減らすことで理想に近い動作を実現し、ストロークを稼ぐことで正確な空気振動を生み出している。 これを実現するためのスピーカーユニットは、後述する自社工場であるアコース綾部工場で製造される。スピーカーユニット単品からコイルの巻数など、微細な部分まで専用設計にできるのが国内に工場を持つメーカーとしての強みである。さらに、専用設計となるこのスピーカーユニットは、実際にスピーカーユニット一つ一つの特性を測定しシリアルナンバーで管理しているということだ。大量生産品では考えられないことだが、ユニットごとの微細な特性の差異に対してもケアがなされているということだ。究極のクオリティを求めた製品であるというエピソードの一つである。修理交換の際には管理されたシリアルから限りなく近い特性のスピーカーユニットによる交換が行われるということ。こんなことをしている製品は聞いたことがない。 理想特性を獲得するための秘密兵器 この製品の最大の特徴となるのが各スピーカーに接続されたボックス。ここにはアナログによるインピーダンス補正回路が組み込まれている。話を聞くとアンプからの入力信号に対して、シンプルにパラレルで接続されているそうだ。まさにフルアナログでの理想特性を獲得するための秘密兵器がここである。アナログ回路であるため、中を覗いても抵抗、コンデンサー、コイルがぎっしりと詰まっているだけであり特別なものは一切入っていない。この回路によってME-50FSは理想的な位相特性、インピーダンス特性を獲得しているのだが、そのパーツ物量は一般的なスピーカーのそれを完全に逸脱している。「インピーダンス補正回路」とTOAが呼ぶこのボックスは、過去の試作基板と比べるとかなり小さくなっているそうで、実際にナレッジスクエアで見せてもらったのだが、4Uのサーバーか?と思わせるような巨大なものであった。ステレオ2ch分の回路が入っているからということではあったが、それにしても大きい。 📷ME-50FSの最大の特徴とも言えるインピーダンス補正回路のプロトタイプ。左右2ch分が一つのボックスに収まっている。これを上写真の赤いボックスにまでサイズダウンして現在の形状に収めている。 「インピーダンス補正回路」の内部のパーツはフルアナログということもあり、前述の通り抵抗、コンデンサー、コイルである。そしてそれぞれのパーツは理想の特性を求めるために吟味を重ねたもの。わかりやすく言えば、コイルは理想の数値を持ったワンオフで自社制作されたもの。抵抗は耐圧の高いメタルクラッド抵抗で、抵抗が特定の周波数以上で持つインダクタンスの影響がスピーカーとして出ないよう無誘導巻のものを用い、大入力に耐えるため熱容量に余裕のある大型のものが使われている。また、コイルは磁界を発生させるため、それらが相互に影響を及ぼさないように基板上の磁界にまで気を配り、縦横、一部のパーツは高さを変えて各パーツを配置。この結果、完全に手作業での製作となることは目に見えているが、究極のスピーカーを作るためには必要なことだというのがスタンスだ。 こういったポイント一つ一つ、すべてにおいてエビデンスのある技術を採用している。オーディオ業界においては非常に多くのプラシーボが存在しているが、良くも悪くも感覚的なものが多くを占める聴覚に頼ったものだからこその出来事。それを楽しむのも一興ではあるのだが、メーカーとして究極を追い求める際にそれらプラシーボは一切排除しているということだ。すべての設計、パーツの取付一つにおいても、すべてにおいて裏付けのある理由があり、必要であればそのエビデンスも提供できるようになっているということである。 スピーカーとしての完全体 こだわりの結晶体とも言えるこのスピーカー。そのポイントを挙げ出したらきりがないのだが、もう一つだけ紹介しておこう。「インピーダンス補正回路」とスピーカー本体を接続するケーブル。これもケーブル自体の持つインダクタンスの値を計算し、スピーカー内部でパラレルに接続される箇所までの長さをミリメートル単位で計算してケーブル長が決められている。設置しやすいように、などという発想ではなくエビデンスに基いた理想の長さということで設計が行われている。 内蔵されるパワーアンプはClass Dのものが採用されている、これも理想の特性を追い求めて選択されたものだ。このClass Dアンプモジュールの選定においても、TOA社内専門家による技術評価および各種測定、耐久力試験に加え、長期間の運用及び試聴評価を経て厳選されたものが使われている。ME-50FSでは、ひとつの理想のパッケージとしてパワーアンプを内蔵としているが、ユーザーにも少しの遊びを許しているポイントがある。それが、スピーカー背面にあるスピーカーI/O端子。Lineレベルの入力であれば、内臓のパワーアンプを介してスピーカーが駆動されるのだが、内蔵のパワーアンプを切り離し、外部のパワーアンプからの入力も持っているということだ。パワードスピーカーとしてはかなり珍しい設計ではないだろうか? これこそ、このスピーカーに対する自信の現れとも言える。メーカーとしての完全なるパッケージとしての究極は、もちろん内蔵アンプであることは間違いない。しかし、外部アンプの入力を受け付けるということは、外部アンプが持つ実力を100%引き出せる「測定器」としての側面を持つスピーカーであるということでもある。一般的なパワードスピーカーではユニットの特性を補正するためにアンプ自体の出力に癖を持たせるということは少なくない。完全アナログで仕立てられたME-50FSは、どのような入力が来たとしても完全に理想的な動作をするという「スピーカーとしての完全体」を体現しているのである。 アコース綾部工場 TOAの国内の製造拠点であるアコース綾部工場。すでに大量生産品はインドネシアの工場に移行しているが、ハイエンド製品、少量生産品などは国内でひとつずつ手作業で作られている。アコース株式会社はTOA株式会社のグループ企業で、プロオーディオ機器の開発、設計、生産、出荷までを行っている。綾部工場は木工加工を中心にプロオーディオ機器を生産する拠点。もう一つの米原工場は、エレクトロニクス、電子回路などの生産を行っている。2つの工場双方ともに多品種小ロットの生産に適した工場である。 ・Made in Japan!日本のものづくり 綾部工場は、京都府の綾部市にある。明智光秀で一躍有名になった福知山市の隣町で旧丹波国となる。もう少し行けば日本海に面した若狭湾、舞鶴港というあたりで、大阪から100km圏であり舞鶴若狭道で1時間強で行くことができる場所。実際のところかなりの田園風景が広がっているのだが、高速が通ってからは工業団地ができたりとそれなりの発展もしている街である。完全に余談ではあるが筆者の出生地はこの綾部市であり馴染みの深い土地である。 このアコース綾部工場は、木工加工を中心とした生産拠点ということでスピーカーエンクロージャーの生産がその中心となる。まずは、その木工加工の現場を見せていただいた。切り出し用のパネルソーや多品種小ロットの生産のためとも言えるNCルーター。多軸、かつデュアルヘッド仕様なので、複雑な加工をスピーディーに行うことができる。プログラムを読み込ませて専用の治具に材木をセットすれば、複雑化形状もあっと言う間に削り出していく。設計で想定した通りの材料がここで切り出されることとなる。 切り出された材料は塗装工程へと回される。長いレールにぶら下げられ人の手により塗装が行われる。低温で一度乾燥させた後に一度冷やし、2階部分にある高温の乾燥室へと送られる。やはりスピーカーエンクロージャーの塗装ということで黒に塗ることが多いのだろう、飛散した塗料で黒くなったこの空間は、この工場でも印象的な空間であった。ここでは、特殊塗料による塗装など、やはり小ロット多品種に対応した工程が行えるようになっている。特別色等の特注製作などもこの工場があるからこそ実現できるということだ。 次に見せていただいたのが、スピーカーの組み立ての現場。さすがにコーン紙、フレームなどは別のところで作ったものを持ってきているとのことだが、スピーカーの心臓部とも言えるマグネットとコイルはここで作っている。巨大な着磁機が並び、製品に応じた素材に対して着磁を行いマグネットを作っている。自社で製造できるということは、磁界強度、サイズなども自由自在ということだ。そして、コイルの製作に使うコイル巻き機。アナログなこの機械はどうやら自分たちで手作りしたようだという。生産に必要なものがなければ作ってしまおうという、まさに職人魂が垣間見える。 📷(左上)スピーカーを駆動するための磁石を作るための着磁機。製造する磁石のサイズに合わせ機械がずらりと並ぶ。(右上)ボイスコイルを巻くための専用機械。過去の先達の手作りであろうということだ。(左下)完成したボイスコイル。これが、コーン紙に貼られスピーカーとなる。(右下)スピーカーユニットの組立工程。コーン紙を専用の器具で接着している。 実際にコイルを巻くところを見せていただいたのだが、スピーカーコイル用の特殊な形状の素材が使われていた。一般的な丸い線材ではなく、きしめん状の平たい銅線で巻いた際に固着するようアルコールで溶ける特殊な溶剤がコーティングされている。このきしめん状の銅線にアルコールを湿らせながら巻いていくことで、巻き終わったコイルは筒状のコイルとなる。一つずつ職人が巻いていくことで巻数は自由。ボビンの経を変えたり、線材の太さを変えることでさまざまな形状のボイスコイルを作ることが可能だ。この機械で巻き終わったコイルは、焼入れを行うことで、さらにしっかりと固着されてユニット組立工程へと渡される。ツイーター等のメタルドームもここで一つずつ手作業でプレスして整形されている。さすがにこの板金用の金型は自社製造ではないということだが、製品ごとさまざまな形状の金型がずらりと準備されていた。組立工程では一つずつ専用の治具を使いエッジ、コーン紙の貼り合わせ、ボイスコイルの接着、フレームの取付などが、ひとりの職人の手によって行われる。 次が組み立ての工程。塗装の終わったエンクロージャーにユニット、キャビネットグリル、ネットワーク回路などのパーツを組み込み、梱包までを一気に行っている。大量生産のラインであれば何人もが担当するような作業を、一人でしかも手作業で行っている。多品種小ロットということで、毎日異なる製品を組み立てているのだが、間違いのないように常にマニュアルが開かれ、工程ごとにページを捲りながら作業を進めていた。組み立てられて梱包される前には、もちろんしっかりと所定の性能が出ているかチェックがなされる。これぞMade in Japan!日本のものづくりの現場を見た思いである。 ・綾部という地をスピーカー製造の聖地に 整然と整えられたパーツ庫は、言わばTOAプロオーディオ製品の生まれ故郷。常に数万種類のパーツがストックされ、入念な生産計画に沿って生産が行われているということだ。写真を見ていただければわかるのだが、驚くほどこれらの工程に関わる職人は少ない。自動化できるところは機械に頼り、多品種に対応するため複雑な工程では、一人ひとりが多くの工程をこなすことで、少人数による生産を実現している。管理部門も含めた従業員数は28名、まさにプロフェッショナルの集団と言えるだろう。 このアコース綾部工場では、試作機の製造なども行っている。どのようなカスタムパーツも作ることができるこの拠点があるからこそ、TOAではさまざまな試作を繰り返し、クオリティの高い製品をリリースすることができている。そのための実験設備も備わっており、その一つが無響室だ。試作した製品がどのような特性なのか?それを作ってすぐにテストできる環境があるということだ。さまざまなバリエーションの試作機を作り、それをその場で実際にテストして、設計数値が実現できているかを確認する。まさに理想の開発環境と言える。無響室以外にも-20度〜180度までの環境が再現できるという恒温槽による温度変化による特性、耐久性のテストだったりといことも行える設備がある。 ほかにも試聴用の部屋もあり、実際に聴感テストも行っている。取材時はME-50FSのインビーダンス補正回路を設計するときに使ったであろう様々な治具などが置かれていた。そして、この部屋の片隅にはスピーカーコーン紙の共振測定器が置かれていた。スピーカーが振動しているときにレーザーでその表面の動きを測定し、不要な共振がないかを計測する。実際の素材を使っての実際の測定。計算だけではなく実際の製品で測定することによる正確性の追求。さまざまな素材の融合体であるスピーカーユニットであるからこそ必要とされる実地の重要さが感じられる。 TOAのものづくりの拠点、それがこのアコース綾部工場であり、この試作機を作るための理想的な環境があったからこそME-50FSが妥協を一切許さない製品として世にリリースされたのであろう。コイルの巻数一巻きにまで気を配って生産できるこの環境、理想を追い求めるための究極形である。今回ご案内いただいたTOAの皆さんもこの拠点があったからこそME-50FSは完成し、まさにここがME-50FSの故郷であると仰っていたのが印象的。この綾部という地をスピーカー製造の聖地に、その意気込みが実を結ぶのもそう遠くはなさそうだ。 📷(左)アコース綾部工場 (右)左より工場取材にご協力いただいたTOAの藤巴氏、ジーベックの栗山氏、アコース綾部工場の藤原氏、ME-50FSの生みの親とも言えるTOA技監の松本氏。 Studio BEWEST ME-50FS取材の最後に訪れたのは実際のユーザーである岡山県津山市のレコーディングスタジオBEWESTにお伺いして、実際の使い勝手やその魅力についてをお話いただいた。オーナーの西本氏はバンドマンからレコーディングエンジニアへと転身した経歴を持ち、岡山市内と津山市に2つのスタジオを構える。BEWESTの独自の取り組みなども併せてお届けしたい。 ・サウンドを生み出す立場からの目線 📷Stduio BEWEST オーナー兼エンジニア 西本 直樹 氏 岡山市から北へ60kmほどいったところに津山市はある。大阪からも中国道で150kmほどの距離だ。12年前にオープンしたこのスタジオはレコーディングから、ミックス・マスタリングまでをワンストップで行うスタジオとして稼働していたが、岡山市内に3年前に新しくスタジオを立ち上げたことで、今はミックスとマスタリングの拠点として稼働しているということだ。このスタジオの特長は、ビンテージから最新の製品までずらりと取り揃えられたアウトボードやマイクなどの機材。その機材リストの一部をご紹介すると、マイクはビンテージのNeumann U47 TUBE、オリジナルのtelefunken U47、SONY 800G、Chandler REDD Microphone、Ehrland EHR-Mなどビンテージの名機から、現行の製品まで幅広いラインナップを揃える。この選択の源泉はお話を伺っていくとレコーディングへの向かい合い方にあると感じた。 西本氏のルーツはバンドマンである。バンドのレコーディングを行っていく中で機材に興味を持つ。そしてギタリストとしてバンド活動を行っていた西本氏は、インディーズのレコーディング現場での体験で完成した作品の音に対してメジャーとの差を痛感したという。レコーディングのバジェットが違うから仕方がないと諦めるのではなく、その差は何なのか?この部分に興味を持ち、独学でレコーディングを行うようになっていったそうだ。機材が違うのであれば、同じものを使えば同じクオリティーになるのか?マイクは?マイクプリは?独学でどんどんと掘り下げていき、気が付いたらスタジオを作っていて日本中からレコーディングの依頼を受けるようになっていたということだ。 お話を聞いているとエンジニアとしてスタジオで経験を積んだ方とは、やはり視点が異なることに気付かされる。ミュージシャンの視点で、自身の音がどのような音なのかをしっかりと認識した上で、それがどのような音としてレコーディングされ作品になってほしいか?あくまでもサウンドを生み出す立場からの目線を貫いている。そのため、音がリアルなのか、なにか変質してしまっているのか?そういったところに対して非常に敏感であり、常に一定の音に対しての物差しを持って向かい合っているエンジニアである。 ・「このまま置いていってほしい」 その西本氏とME-50FSの出会いはInterBEE 2022で話題になっていたことがきっかけだとのこと。興味を抱いた西本氏がすぐに問い合わせしたところ、TOAは岡山市内のスタジオまでデモ機を持ってきてくれたそうだ。ちょうど、岡山のスタジオでウェストキャンプ@岡山というローカルのエンジニアを日本中から集めた勉強会のようなイベントを予定していたそうで、集まった10数名のエンジニアと試聴を行うことができた。その場にいた全員が強いインパクトを受け、この製品の魅力を体感したということ。やはり雑多なInterBEEの会場ででも聴こえてきたインパクトは本物であり、スタジオでの試聴でもその印象は大きく変わらなかったということだ。その後、ミックス・マスタリングをメインで行っている津山のスタジオで改めてじっくりと試聴。改めて聴き直してもその最初に感じたインパクトは変わらず購入を即決したという。すぐにでもこのスピーカーで作品づくりをしたいという思いが強くなり「購入するので、このまま置いていってほしい」とお願いしたほどだそうだ。 ちなみに、それまでメインで使っていたスピーカーは、Focal Trio11。このスピーカーは今でも気に入っているということだが、ME-50FSとの違いについてはセンター定位のサウンドのアタック感、サスティンの見え方、音の立ち方、減衰の仕方などがはっきりと見える点。これは位相が改善していくとセンター定位がどんどんとはっきりしていくという位相感の良さからくるものだろう。ME-50FSの狙い通り、といった部分を直感的に感じ取っている。 ・標準器となるサウンドの魅力 ME-50FSの導入により作業上大きく進化したことがあったそうだ。スタジオではマスタリングまでのワンストップで制作を行っているため、スタジオで作られた音源をさまざまな場所、車内や他のスピーカー環境、ヘッドフォン、イヤフォンなどで違いが出ないかを確認する作業を行っている。やはり、リスニング環境により多少の差異が生じるのは仕方がないが、イメージそのものが異なってはいないか?という部分にはかなり神経を使って仕上げているとのこと。これまでのスピーカー環境では、少なからず修正、微調整の必要があったとのことだが、ME-50FSで作業を行うようになってから、この修正作業がほとんどなくなったということだ。究極の標準器を目指して開発されたME-50FSのポテンシャルを言い表すエピソードではないだろうか。フラットである、位相変化がないということは音に色がついていないということである。そのため、他の環境であったとしてもその環境の色がつくだけで、色自体が変化するということにはならないということではないだろうか。 ほかにもサウンドとしての魅力は、奥行き感、前後の距離感、立体感などを強く感じると言う点にあるという。やはり、位相の良さ、トランジェントの良さがここには大きく影響していると感じるところだとお話いただいた。製品開発にあたりTOAがコンセプトとした部分が実際のコメントにも現れている。開発コンセプト、TOAの目指した標準器としてのサウンドが気に入った方であれば「これしかない」と思わせる実力を持った製品であると言える。 トランジェントが良い、ということは音の立ち上がりが良い、サスティンの余韻が綺麗に減衰するなどといった部分に効果的だ。これを実現するためにTOAでは10cmという小口径のユニットを採用し、ロングストローク化して最低限となる質量のユニットを使い正確にユニットを動かすということでその改善にあたっている。動き出しの軽さ、正確なユニット動作の入力に対するレスポンス。そういったことを考えるとやはりユニット自体の質量は少ないに越したことはない。打楽器などのアタック感も確実に改善しているのだが、このトランジェントの良さを一番感じるのはベースラインだという。高域に関しては他社のスピーカーもトランジェントを突き詰めているが、低域は大口径のユニットを使うため物理的に対処できないところがある。ME-50FSでは、小口径のユニットでその帯域をカバーしているため、圧倒的なトランジェント特性を低域に持たせることに成功している。 BEWESTではスピーカー補正のためにTorinnov Audioを導入している。西本氏はスピーカーを少し動したり、機材配置のレイアウトを変更するたびにTorinnovで測定を行い、自身の感覚だけではなく、測定器として何がどう変化したのかを確認しながらそのチューニングを行っている。ME-50FSを導入した際に測定を行ったところ、位相がほぼフラット!今までに見たことのないフラットな直線状の結果が表示されたということだ。これは、現在製品としてリリースされているスピーカーとしてはありえないこと。シングルスピーカーで無限バッフルといった理想的な環境であればもしかしたらそうなるかもしれない、というレベルの理想に限りなく近い結果である。位相特性は2-way / 3-wayであればそのクロスオーバー周波数付近(フィルターを使用するため)の位相のねじれ。それをME-50FSでは設計の要であるインピーダンス補正回路で解決している。また、ユニット自体の共振周波数による変化、この共振周波数はキャビネットにより生じるものもあれば、バスレフポートにより生じるものもある。スピーカー設計を行った際には、これらが基本的には絶対に生じるものであり、位相特性はかなり暴れたものになるのが普通である。言い換えれば、この位相特性がそのスピーカーの持つ音色ということが言えるのかもしれない。ME-50FSにはこれが無い。良い意味で音色を持たないスピーカーであると言えるだろう。これが、前述した他の試聴環境で聴いた際の破綻のなさに直結している。 ・アナログの持つ普遍性を再認識する 同様にウィークポイントに関してもお伺いしたが、これに関してはやはりローエンドのお話が出た。10cmという口径からくるものだと感じたが、やはり大口径スピーカーのサウンドとは違う。しかし、ME-50FSは設計の優秀さもあり、それでも40Hzあたりまではしっかりと音として出力されている。それ以上低い30Hzあたりになるとさすがに苦しいが、音程を持って人間が知覚できる範囲はカバーできていると言えるだろう。このようなこともありTrio 11から移行したばかりのころはローエンドの不足を感じていたが、この部分も量感の違いはあってもしっかりと出力されているので時間とともに慣れてしまったということだ。ただし、マスタリングという観点で考えるとやはり昨今の作品で使われる20~30Hzが欲しくなることはあるそうだ。 このスピーカーを使うエンジニアとしては、アナログだから、デジタルだからという部分に拘りは特に無い。ただ、アナログの持つ普遍性とは、変わらずにあるもの、究極を目指せるものであることを改めて認識したということだ。スタジオを作ってからずっと持ち続けてきた、モニターへの悩み。このスピーカーとの出会いによりその悩みが解消された。やはりイメージして作った音と、他のスピーカーでの再生も含めた出音の差がないというのがスタジオモニターとしての理想であり、それを実現しているこのスピーカーは革命的だという。 色々なお話をお伺いしたが、TOAの開発コンセプトがまさにエンジニアの求める理想のスピーカーであったということを裏付けるかのようなお話をいくつも聞くことができた。TOAのこれまでのスピーカー開発の技術、そのすべてが詰め込まれた結晶体とも言える1台、音の標準器となるME-50FSから出力されるサウンドがどのようなものか是非体感してみていただきたい。   *ProceedMagazine2023-2024号より転載

Music

MTRX II / MTRX StudioにThunderbolt 3 Moduleが登場!〜新たなオーディオ・ワークフローを実現するシステムアップとは〜

NAMM Show 2023でPro Tools | MTRX IIとともに発表され、大きな話題となった「MTRX Thunderbolt 3 Module」。オーディオ制作者の長年の夢であったかもしれないAvidフラッグシップI/Oをネイティブ環境で使用できる日がついにやってきたことになる。MTRX Thunderbolt 3 Moduleの特徴は、MTRX II / MTRX StudioをCore Audioに接続するだけでなく、DigiLinkポートの入出力と同時にThunderbolt入出力を追加で使用できるという点にもある。つまり、1台のMTRX II / MTRX StudioにHDXシステムとネイティブDAWを同時に接続することが可能で、双方に信号を出し入れすることができるということだ。単に高品位なI/Oをネイティブ環境で使用できるようになるというだけでなく、中規模から大規模なシステム設計にまで影響を及ぼす注目のプロダクト「MTRX Thunderbolt 3 Module」を活用した代表的なシステムアップの例を考えてみたい。 Thunderbolt 3 Module 価格:135,080円(税込) MTRX IIとMTRX Studioの両製品に対応したThunderbolt 3モジュールのリリースにより、DigiLink接続によるパワフルなDSP統合環境に加えて、 Thunderbolt 3経由で実現する低レイテンシーなCore Audio環境での柔軟性も実現可能となる。Thunderbolt 3オプション・モジュール経由で、MTRX IIでの使用時に最大256ch、MTRX Studioの場合では最大64chにアクセスが可能、Core Audio対応アプリケーション等をDADmanソフトウエアにルートし、より先進的なオーディオ・ワークフローが実現できる。 シーン1:Core Audio対応DAWのI/Oとして使用 MTRX Thunderbolt 3 Moduleの登場によって真っ先に思いつくのはやはり、これまでHDXシステムでしか使用できなかったMTRX II / MTRX Studioをネイティブ環境でI/Oとして使用できるようになったということだろう。Logic Pro、Nuendo、Cubase、Studio OneなどのCoreAudio対応DAW環境でAvidフラッグシップの高品位I/Oを使用することができるだけでなく、巨大なルーティング・マトリクスや柔軟なモニターコントロール機能をシステムに追加することができるようになる。 もちろん、恩恵を受けるのはサードパーティ製のDAWだけではない。HDX非対応のPro Tools Intro、Pro Tools Artist、Pro Tools Studio、さらにPro Tools Ultimateをnon-HDX環境で使用している場合にも、HDXシステムで使用されるものと同じI/Fを使用することができるようになる。特に、Pro Tools Studioはこのオプション・モジュールの登場によって、そのバリューを大きく拡大することになる。Pro Tools Studioは最大7.1.6までのバスを持ち、Dolby Atmosミキシングにも対応するなど、すでにイマーシブReadyな機能を備えているが、従来のAvidのラインナップではこれらの機能をフル活用するだけのI/Oを確保することが難しかった。MTRX Thunderbolt 3 Moduleの登場によって、Avidの統合されたIn the Boxイマーシブ・ミキシングのためのシステムが完成することになる。 シーン2:HDXシステムにダイレクトにMacを追加接続 MTRX II / MTRX Studioのドライバーであり、ルーティング機能やモニターセクション機能のコントロール・アプリでもあるDADman上では、DigiLinkからのオーディオとThunderboltからのオーディオは別々のソースとして認識されるため、これを利用してDigiLink接続のMacとThuderbolt接続のMacとの間でダイレクトに信号のやりとりができる。例えば、Dolby Atmosハードウェア・レンダラーとHDXシステムのI/Fを1台のMTRX II / MTRX Studioに兼任させることが可能になる。Pro Toolsとハードウェア・レンダラーが1:1程度の小規模なミキシングであれば、I/O数を確保しながらシステムをコンパクトにまとめることができるだろう。 もちろん、Dolby Atmosハードウェア・レンダラーだけでなく、CoreAudioにさえ対応していれば、スタンドアローンのソフトウェアシンセ、プロセッサー、DAWなどとPro Toolsの間で信号をやりとりすることができる。シンセでのパフォーマンスをリアルタイムにPro ToolsにRecする、Pro ToolsからSpat Revolutionのようなプロセッサーに信号を送る、といったことが1台のI/Fでできてしまうということだ。Thuderboltからのソースはその他のソースと同様、DADman上で自由にパッチできる。使い方の可能性は、ユーザーごとに無限に存在するだろう。(注:MTRX StudioのThuderbolt 3 I/Oは最大64チャンネル。) シーン3:Dolby Atmosハードウェア・レンダラーのI/Fとして使用 シンプルに、HDXシステムとDolby Atmosハードウェア・レンダラーのそれぞれにMTRX IIを使用することももちろん可能だ。HDX側のMTRX IIからDanteでレンダラーに信号を送り、レンダラー側のMTRX IIからモニターセクションへ出力することになる。大規模なシステムの場合、複数のプレイアウトPro Toolsからの信号を1台のMTRX IIにまとめると、オプションカードスロットがDigiLinkカードで埋まってしまい、アナログI/Oをまったく確保できないことがある。ハードウェア・レンダラーのI/FとしてMTRX IIを採用した場合には、その空きスロットを利用して外部機器とのI/Oを確保することができる。MTRX II同士をDanteで接続していればひとつのネットワークにオーディオを接続できるので、Dante信号としてではあるがメインのMTRX IIからコントロールすることも可能だ。 NAMM Show 2023での発表以来、多くのユーザーが待ちわびたプロダクトがついに発売開始。In the Boxから大規模システムまであらゆる規模のシステムアップを柔軟にすることができるモジュールの登場により、ユーザーごとのニーズによりマッチした構成を組むことが可能になった。新たなワークフローを生み出すとも言えるこの製品、システム検討の選択肢に加えてみてはいかがだろうか。   *ProceedMagazine2023-2024号より転載

Music

GPU Audio / 既存概念を超越するオーディオGPU処理の圧倒的パフォーマンス

AES2022で綺羅星の如く登場し、業界の注目を集めているGPU Audio 社。これまで、AudioのPC上でのプロセスはCPUで行う、という認識が暗黙の了解のように存在していたのだが、GPUというこれまで活用してこなかったプロセッサーを使用することで、さらなる処理能力の向上を現実のものとした、まさにゲームチェンジャーとなりうる可能性を秘めた技術を登場させている。 Viennaの動作で実証された驚くべき能力 NAMM 2023の会場では、そのGPUプロセスに対し賛同した複数のメーカーとの共同ブースを構えて展示を行っていた。GPU Audio自体は、独自に開発したプラグインを複数発表しているが、NAMMの会場ではVienna Symphonic Libraryの誇る、高精度だが非常に動作が重いとされるVienna MIR PRO 3Dのセッションを、なんとGPU上で動作させるというデモを行って会場を驚かせていた。 📷コンサートホールを模したバーチャル空間に配置されたインストゥルメント。実際のオーケストラの配置を念頭に各パートが配置されており、そのパート数はなんと63。クオリティーの高さと引き換えに動作が重いことで有名なViennaではあるが、こちらのデモではさらに3D空間でのシュミレーションが加わっている。 このVienna MIRのセッション上には70トラックの音源が同一空間に配置され、3D空間内部での音源として再生が行われていた。CPUでの処理では音にノイズが混ざったりしていたものが、GPU上で動作させると使用率は30%程度に抑えられ、しかも安定して綺麗に再生される、ということがまさに目の前で実践されていた。このデモで使用されていたLaptop PCは、いま考えられる最高のスペックだと自信たっぷりに案内されたのだが、まさにその通りで、CPUはIntel Core i9 13900、メモリ64GB、GPUはNVIDIA GeForce RTX 4090という、現時点における最高の組み合わせ。つまり、その最新世代のCore i9でさえ動かしきれないものを、GPUをもってすれば余裕を持って動作させることができる。これは、GPU Audioがアナウンスしているように、FIRの計算であれば40倍、IIRの計算でも10倍のパフォーマンスが得られるということが現実になっているということだ。 📷クローズアップしたのはGPU Audioの技術により組み込まれたCPU/GPUの切り替えボタン。ベータ版のため実際の製品でもこのような仕様になるかは不明ではあるが、これこそが本記事でご紹介しているGPUによるオーディオ処理を確認できるポイントとなる。GPUがいかに強力とはいえ、有限のプロセッシングパワーであることは間違いない。従来のCPU処理と選択できるというアイデアは、ぜひともリリース版にも搭載してもらいたい機能だ。 並列処理、ベクトル計算を得意とするGPU 📷CPUとGPUでの処理速度の差をグラフ化したものがこちら。一般的に処理が重いと言われているFIR(リニアフェイズ処理)において、30〜40倍の速度向上が見込めるというのが大きなトピック。一般的なEQ処理などで使われるIIRにおいては、CPUとの差は縮まり10~15倍。これは、元々の処理自体が軽いということもありこのような結果になっているようだが、それでも大幅な処理速度向上が見込める。多数のコアを使った並列処理によるFIR処理の高速化は、やはりGPUの真骨頂と言えるのではないだろうか。 なぜ、GPUをAudioのプロセスに使うだろうか?筆者も10年以上前から、Audio Processを行うにあたりCPUは頑張って仕事をしているが、GPUは常に最低限の仕事(ディスプレイへのGPUの表示)しか行っていないのは何とももったいないと感じていた。高価なデスクトップPCを購入すれば、それに見合ったそこそこのグレードにあたるGPUが搭載されてくることがほとんど。搭載されているのにも関わらず、その性能を活かしていないのはなんとももどかしい。しかも、GPUはオーディオ信号処理にとってのエキスパートとなる可能性を持つ部分が数多くある。 まず考えられるのは、大量のトラックを使用し多数のプラグインを駆使してミキシングを行うといったケース。かなり多くの処理が「並行して複数行われる」ということは容易に想像できるだろう。これはまさにGPUが得意とするリアルタイム性が必要な並列処理であり、レイテンシーを縮めることと、並列処理による処理の最適化が行えるはずである。次に、GPUがベクトル計算のプロフェッショナルであるということ。オーディオ波形を扱うにあたり、この特徴は間違いなく活かせるはずである。オーディオの波形編集などで多用されるフーリエ変換などはGPUの方が秀でている分野である。 ●GPU(Graphics Processing Unit)とは!? GPUとはGraphics Processing Unitの略称であり、リアルタイム画像処理に特化した演算装置あるいはプロセッサを指す。通常の演算処理に使用するCPU=Central Processing Unitとの違いは、膨大な並列処理をリアルタイムに演算する必要がある3Dのレンダリング、シェーディングを行うために数多くの演算用のコアを搭載しているということが挙げられる。現行のCPUであれば、4~20個ほどのコアを搭載しているものが一般向けとして流通しているが、それに対しGPUではNVIDEAの現行製品RTX 40シリーズは処理の中心となるCUDAコアを5888~16384個と桁違いの数を搭載している。 このような高度な並列処理が必要となった過程はまさに3D技術の進化とともにあり、Microsoftが1995年に開発した、ゲーム・マルチメディア向けの汎用API Direct Xの歴史とともにハードウェアの進化が二人三脚で続いている。3Dのグラフィックスをディスプレイに表示するには、仮想の3D空間において、指定座標におかれた頂点同士をつなぎ合わせたワイヤーフレームの構築し、そこに面を持たせることで立体的な形状を生成。これを空間内に配置されたオブジェクトすべてにおいて行う。そこに光を当て色の濃淡を表現、後方は影を生成、霧(フォグ)の合成など様々な追加要素を加えてリアリティーを上げていく。こうして作られた仮想の箱庭のような3D空間を、今度は2D表現装置であるディスプレイ表示に合わせて、3D-2Dの座標変換処理、ジオメトリ処理を行うこととなる。これらの作業をリアルタイムに行うためには、高速にいくつもの処理を並列に行う必要がある。それに特化して並列化を進めたものが今日のGPUである。 NVIDIA GPU比較表 このような並列処理に特化したGPUは、2005年ごろよりコンピューティングの並列化に最適なプロセッサーとしてGPGPUという新たな分野を切り拓いている。単一コアの高性能化が一定の水準で頭打ちすることを見越して、処理を並列化することでの効率化、高速化を図るというものである。汎用CPUと比較して明確なメリット・デメリットはあるものの、特定分野(特にベクトル計算)においてはその性能が発揮されるということもあり、スーパーコンピュータ分野で普及が進んでいる。 現在では、Direct X 10以降の世代の汎用GPUであればGPGPU対応となっている。汎用のAPI「C++ AMP」や「OpenACC」などのプログラミング言語環境も整っており、普通に入手可能な製品でもGPGPUの恩恵を受けることは可能である。まさに今回紹介するGPU Audioはこのような特徴を活かしたものと言えるだろう。 オーディオでシビアなレイテンシーを解決 📷NAMM Showの会場でGPU Audioは、そのテクノロジーに賛同するメーカーと共同でブースを構えていた。 リアルタイムかつ、同時に数多くの処理を並列でこなすことのできるGPUが、まさにAudio Processingの救世主となりうる存在であることは、多くのPCフリークが気付いていたはずである。しかし、なぜ今までGPUを活用したオーディオプロセッシング技術は登場してこなかったのだろうか? ここからは筆者の考察も含めて話を進めていきたい。GPU Audioのスタッフに話を聞いたところ、昨年のAES 2022での発表までに費やした開発期間は、実に8年にも及ぶということだ。一見シンプルにみえるGPU上でのオーディオ処理だが、実現するためには多くの困難があったようだ。その具体的な事例として挙がっていたのはレイテンシーの問題。 そもそもリアルタイム性を重視して設計されているGPUなのだから、問題にはならなさそうな気もするが、グラフィックとオーディオの持つ性質の差が解決を難しくしていたようだ。想像をするに、画像処理であれば一部分の処理が追いつかずにブロックノイズとして表示されてしまったとしても、それは広い画面の中の微細な箇所での出来事であり、クリティカルな問題にはならない。しかしオーディオ処理においてはそうとは行かない。処理遅れにより生じたノイズは明らかなノイズとして即時に聴こえてしまい、オーディオにおいてはクリティカルな問題として顕在化してきてしまう。単純にGPGPUなど、GPUをコンピューティングとして活用する技術は確立されているのだから、プログラムをそれにあった形に変換するだけで動くのではないか?と考えてしまうが、そうではないようだ。 CPUが非力だった時代より今日までオーディオプロセスを行わせるための最適なデジタル処理エンジンは、DSP=Digital Signal Processerである。これに異論はないはずだ。昨今ではFPGAを使用したものも増えてきているが、それらも基本的にはFPGA上にDSPと同様に動作するプログラムを書き込んで動作させている。言い換えれば、FPGAをDSPとして動作させているということだ。 その後、PCの進化とともにCPUでの処理が生まれてくるのだが、これは汎用のプロセッサーの持つ宿命としてレイテンシーが発生してしまう。もちろんDSPの処理でもレイテンシーは発生するのだが、CPUは処理の種類によりレイテンシー量が異なってくる一方で、その遅延量を定量化することが可能なのがDSPの持つ美点である。レイテンシーが定量であるということは、オーディオにとっては非常に重要なこと。問題にならないほどレイテンシーが短いのであれば、あえてディレイを付加することにより遅延量を定量化することは容易いのだが、チャンネル間の位相差などレイテンシー量がバラバラになるとクリティカルな問題に直結してしまう。GPUの持つ可能性がどれほどのものなのかは、今後登場する製品に触れたときに明らかになることだろう。 📷デモではViennaを使っていたが、GPU Audioでは自社でのプラグインのリリースも行う。こちらが自社で開発したコーラス、フランジャーなどのモジュレーション・プラグインと、FIRを活用したリバーブプラグインとなる。従来のCPUベースのプラグインをリリースするサードパーティ各社への技術提供と並行して、このようにGPU Native環境でのプラグイン開発を行うプランが進行している。 デモを見るかぎりGPUが持つ可能性は非常に高いと感じる。PCでのオーディオプロセスとしてはフロンティアとも言える領域に踏み込んだGPU Audio。今まで以上のプロセッシングパワーを提供することで、全く新しい処理を行うことができるプラグインの登場。DAWのミキシングパワーはCPUで、プラグインプロセスはGPUで、といったような処理の分散による安定化など多くのメリットが考えられる。今後、GPU Audioの技術により業界が大きく変化する可能性を大いに感じられるのではないだろうか。 📷プレゼンテーション用のステージではライブパフォーマンスも行われていた。QOSMOはファウンダーであり、自身もミュージシャンであるNao TokuiとBig YUKIによるパフォーマンスを提供。一流ミュージシャンに寄るパフォーマンスが楽しめるのもNAMM showの醍醐味のひとつ。   *ProceedMagazine2023号より転載

Music

TAOCファクトリーツアー / 鋳鉄のプロフェッショナル集団が生み出す、質実剛健プロダクツ

制振についてのコア技術に特許を持ち、実に40年にわたりホームオーディオの分野で活躍しているTAOC。40年間の製品開発で蓄積したノウハウを基に開発した新たな製品レンジ「STUDIO WORKS」シリーズを投入し、これまでは特注でしか生産されることがなかったプロオーディオ市場へ本格的に参入する。鋳鉄こそが「遮断」と「吸収」という2つの役割を両立できるベストな材質だという鋳鉄のプロフェッショナルたちがどのようにして製品を開発・生産しているのか、愛知県豊田市のアイシン高丘株式会社を訪れた。 振動を制するものはオーディオを制す TAOCはブレーキディスクローターやシャーシ部品をはじめとした自動車部品を生産するアイシン高丘株式会社を母体に持つ。自動車用鋳造部品の製造ラインで採取される鋳鉄粉を用いて、鋳鉄の制振性や音響特性を活かした製品をホームオーディオの分野で多くリリースしているのがTAOCブランドだ。ほとんどの製品が制振にフォーカスをあてたもので、そのブランド名の頭文字が「Takaoka Anti Oscillation Casting」から成っていることからも、立ち上げ当初より音響機器の最適な振動制御を鋳造(Casting)で達成することを目的に活動してきたことが窺える。また、「異なる厚みの鉄板を密着させ、互いに違った固有値を持つ板材が振動を抑制することで、音質改善を行う二重鉄板構造」について特許を取得したこともあり、現在では多くの金属製スピーカースタンドメーカーが生産する製品の天板に採用されている。 音楽を活かすために「整振」するTAOCの製品には、音像の厚み、広がり、帯域のバランス、解像度といった要件が求められる。この複数の要件を満たすには、密度が高く、硬度が高く、自己の振動を持ち込まない減衰性を併せ持つ材質が必要となるが、これにおいて3拍子揃った材質が鋳鉄だ。 さらに、鋳鉄(言い換えれば黒煙を多量に含んだ鉄)は高い振動吸収性を持つ。鋳鉄はキャベツの葉を剥がしてランダムに並べたような黒鉛構造を持っており、その黒鉛と鉄部分の摩擦によって振動エネルギーは熱エネルギーに変換され制振性を発揮する。これが鋳鉄の大きな特徴であり、安全のためにも不要な振動を抑えておきたいブレーキローターに鋳鉄が用いられているのもうなずける。 📷各素材を特性ごとに並べてみると、鋳鉄がいかに3拍子揃った材質であるかがわかる。例えば、密度が最も高い鉛は一方で硬度が低く、硬度が最も高いセラミックは減衰性が低い。マグネシウムは減衰性に秀でているが、密度が低くなり音の厚みや解像度に劣ってしまう。この3つの特性を高い次元でバランスよく持っているのが鋳鉄だ。 鋳鉄が持つ独特な特性を体験する アイシン高丘本社に到着後、広大な敷地内でも最奥に位置するTAOCオフィスまで車で移動。鋳鉄工場見学のレクチャーと諸注意を受けつつ、まずTAOC製品に広く用いられる鋳鉄粉のサンプルを見せていただいた。大きめの薬瓶に入れられた鋳鉄粉サンプルは、手に取ると当然ながらズッシリと重い。鉄粉はパウダー状になっている訳ではなく、砂粒ほどの大きさがあり、これが各種製品へ充填されている。試しに手に持って水平に揺らしてみると、ショックレスハンマーと同じ原理が働き、寸止めした時の反対側への反動が少なくピタッと止まる。力量は異なるが、スピーカースタンドの中でもこういった現象が起こっているのかと不思議な体験ができた。 作業着とヘルメットを装着したところで鋳造工場内へ移動を始めるが、大きな炉を拝見する前に、社内の研修施設で今の製造工程や自動化されている機械内処理の説明をいただいた。その研修施設の入口にはダンベルやエンジンブロックのサンプルを使った解説があり、自動車部品以外の鋳物製品や鋳造の成形不良のサンプルも展示されている。その中に音に関係するサンプルもあったのでご紹介しておきたい。そこには鐘形になった鉄4種類、青銅、アルミの成形物が設置されており、これをマレットで叩くことが出来るのだが、叩いてみるとアルミや青銅はサスティンが長くその音色も聴き慣れた美しいものなのだが、比べて鋳鉄を叩いた音色はどれも複雑な倍音をもち、アタックも鈍く、そして減衰が速い。素材自体に制振効果があるということは前知識としてあったが、実際にマレットで衝撃を与えた際の応答は予想以上に顕著なもの。オーディオ製品として鋳鉄が持つ可能性に期待が高まる。 鐘形のサンプルの裏手側には設計から製品になるまでの工程がジオラマ形式で展示され、アイシン高丘の鋳物製造フローが学べる。社員研修や社内技能試験などでは研修施設の機能をフルに活用するとのことだが、今回は鋳鉄粉が出来るまでの一部の工程を説明していただいた。 鋳鉄粉が採取できる工程は、鋳造の後半にあたる後処理工程となる。上型、下型、中子型から製品を取り出す作業が行われ、製品は砂型を壊して取り出される。取り出した製品には型で使われた砂が付着しているため、ショット機と呼ばれるサンドブラストの一種を使用してバリや砂を除去する。この作業によって、素材の表面が剥がれ落ち鋳鉄粉が採取できるわけだ。こうしてショット機からメディアが噴射され後処理が完了すると集塵機には砂、メディア、鋳鉄粉が混ざったものが集まる。これを選別して鋳鉄粉を取り出し、さらに取り出した鋳鉄粉は規格に沿ったメッシュを通して粒を揃えたものを採取する。このような工程で選りすぐられた鋳鉄粉をTAOCではスタンドの制振材として活用している。 📷バリ取りの工程で写真のショット機が使用される。砂型から取り出された製品からサンドブラストの一種であるこちらの機械を使ってバリと砂を除去する。すぐ隣にあるのがショット機用の集塵機。ここに集められたものを規格に沿ったメッシュでふるいにかけ、砂粒状の鋳鉄粉が採取される。 非日常的な迫力の工場内 研修施設での解説を受けたあとは、鋳物を製造している製造ラインへと移動する。人間の背丈を遥かに超える大型機械群に囲まれて、なにが何の為の機械なのかまるで見当がつかない。いよいよ工場にやって来たという感覚が湧いてきた。 ライン見学は製造工程通りに案内され、まずは材料となる鉄を溶かす溶解炉であるキュポラのセクションへ。1400度以上の鉄が連続溶解できるキュポラの足元には6トンほどの溶かされた鉄が入る釜が2基設置されており、満杯になるとレールを伝って鋳込セクションへ運ばれる。残念ながら、先程キュポラから運ばれてきた真っ赤な鉄を注ぐ鋳込の工程自体は外から作業を見ることができなかったのだが、工場内は常に80dBを超える音で満たされており、定期的に聞こえるエアー重機のブローオフは瞬間的に100dBを超える。これだけでも非日常的な迫力を感じることができた。 そして、後処理のセクションへ移動する。研修施設で見たショット機を使ってのバリ取りを行い、まさにいま鋳鉄粉が出来ている工程でこちらも自動化されている。その経路の途中にはセキ折りのセクションがあり、製品から伸びている湯道を切り離す作業のラインを見学。鉄でできた大きなプラモデルとでも言えば良いのだろうか、傍らから見るとランナーからパーツをニッパーで切る作業に似ているのだが、ニッパー風のエアー工具も切り離される製品もやはりそのすべてが大きい。 システムをきちんと機能させる土台 工場内を見学した後はTAOCの開発室兼視聴室へ向かった。視聴室の前は広大な庭が広がっており、アイシン高丘のOBや夜勤明けの従業員がハーフラウンドのゴルフをプレイできるという。これ以外にも社内の取り組みとして工場排熱を利用してスッポンを育てていたり、ショット機で出た砂を再利用してウコンを育てていたこともあるそうだ。鋳鉄粉もTAOC発足前は再びキュポラに戻され製品へリサイクルされていたそうだが、資源の活用とSDG'sへの意識が旧来から全社的に根付いていることがうかがえる。 開発室の中はその半分のスペースがリスニングスペースとなっており、天井や壁面は防音・吸音加工が施されている。残り半分のスペースは様々な資料と音源を収納したラック、ここを囲うようにオリジナルスピーカーや検聴を待つ試作品が並び、そこにはSTUDIO WORKSのデスクトップ型スタンドもあった。同じくSTUDIO WORKSのインシュレーターを手に取ってみると一般的にイメージする鋳物とは思えない仕上がりで、質感はどちらかと言うと鍛造に近い。切削の工程があるのか聞いたところ、仕上げの工程はあるが基本的には鋳込時の流す量と時間で密度をコントロールしているという。それらの製品を設置していただき拝聴後、TAOCチームの南氏、杉田氏、西戸氏にお話を伺った。 Rock oN多田(以下、R):改めてTAOCの持つ特徴をお伺いさせてください。 西戸氏:アイシン高丘は1960年ごろからトヨタ自動車の鋳物部品を生産しており、東洋一の鋳物工場を作るんだという熱意を持ってスタートしました。そしてちょうど40年前の1983年、オイルショックで一時的に鋳物の生産量が少なくなっていく中で自動車部品以外にもこの独自の鋳造加工技術を活かせることはないかと、社内で検討する部署が立ち上げられて、鋳物のスピーカーベースの生産からオーディオアクセサリの事業をスタートしました。鋳物を使ったモノづくりとして、鋳物の墓石を作ってはどうだとか、当時は色々試行錯誤していたと聞いています。また、当時はシミュレーションも少なかったため、製品開発は試行錯誤の体当たりで製作していました。インシュレーター、オーディオボード、オーディオラック、スタンドに加えて鋳鉄製ユニットマウントリングを特長としたスピーカーの製作など、鋳鉄が持つ振動吸収を活かした製品をリリースしています。鋳鉄には素材自体が自分で揺れず、振動を適度に吸収するという特性があります。それを実証するようにスピーカーユニットのリングを作った時は樹脂と比べて真っ直ぐにドライバがストロークしました。これは本来持っている音を出すことができていたとも言えます。   R:STUDIO WORKSという新たなコンセプトで製品を生み出した経緯をお伺いできますか。 南氏:2018年に、とあるマスタリングスタジオのテックエンジニア様から、システム全体の音質向上のためにお声がけいただきTAOC製品を導入いただきました。以降も、エンジニア様とは音質に関する研究交流を続けていた中、杉田の案で2021年のInter beeに2人で行き、特注スタンドのオファーをいただき、要望を伺いながら何本も製作していく中、徐々にプロオーディオ向け製品のコンセプトが定まっていったという経緯があります。  杉田氏:ポタフェス(ヘッドフォン、イヤホン)に行った時も印象深いですね。ポタフェスはポータブルオーディオのイベントではありますが、それを踏まえても音響製品のイベントなのに会場が無音というのはショックを受けました。今までは主に、音を聴く側のお客様に向けての製品作りでしたが、ヘッドフォンの中に聴こえる素晴らしい音を創る側のエンジニア様、音楽家の皆様向けにTAOCとしてお役に立てられないかと思うようになりました。 R:STUDIOWORKSをどういったユーザー層を想定しているのでしょうか。 南氏:プロのエンジニアの方々やミュージシャンの皆様はもちろん、良い音を追求するすべての方々にご体験いただきたいですね。 杉田氏:イレギュラーな使い方や面白いご意見をいただき、そのフィードバックをいただければそこから更に製品の改善にもつながると思います。また個人向けで評価をいただいているこれまでの製品も、プロの方のフィードバックを反映してより良いものが作れると思っています。試作に対してのハードルが低いので、要望はどんどん欲しいですね。なので特注製品、いわゆるワンオフも大歓迎です。製品はすべて国産で製造しているので、フットワークも軽いですよ。 📷本文中でも触れたデスクトップサイズのスタンドも試作されていた。ユーザーの声を素早く反映してラインナップすることはもちろん、ワンオフでの特注にも柔軟に対応できるそうだ。 南氏:TAOCスタジオワークスは一貫して、確かな効果と実用性にこだわり、外観はとてもシンプルな仕様になっています。従来のTAOC製品同様に、20年・30年以上と永く使えるモノづくりをしています。また、今回のスタンドやインシュレーターはどのモデルも、それぞれエンジニア様やロックオンさんと何度も意見交換をしながら完成させたコラボのような製品で、みなさんの熱い思いが詰まっていると感じています。素晴らしい音楽を作られる皆様の鋭い感性と貴重なご意見に、いつも多くの学びがあります。今後も多くのミュージシャン様、エンジニア様とご一緒させていただきながら、TAOCスタジオワークスを進めていきたく思っています。 杉田氏:1983年9月に創業したTAOCは、今年2023年9月に40周年を迎えます。今までのご愛顧に深く感謝をお伝えしながら、次の40年に向けて新しいチャレンジをしていきます。TAOCスタジオワークスも、すでに多くのエンジニア様・ミュージシャン様のスタジオに導入いただけており、手応えを感じています。シリーズ第2弾の製品開発も進めていますので、ぜひ注目していただけると嬉しいですね。 📷写真左より、アイシン高丘エンジニアリング株式会社 TAOCチーム杉田 岳紀 氏、TAOCチーム 西戸 誠志 氏、Rock oN 多田純、ROCK ON PRO 前田洋介、TAOCチーム 南 祐輔 氏。 工場内でキュポラの説明を受けた時にまるでターミネーター2のラストシーンみたいですねと言うと、T-800は鉄の中で沈むので鉄より比重が大きい、おそらくT-800は鉄ではないんですね…と答えが返ってきた。映画のワンシーンにおいても鉄が基準(!)、そのどこまでもアイアンファーストな姿勢はプロオーディオの中で新たなメインストリームを作り出すことになるのではないだろうか。工場で製品が生産される際に生じる余剰となっていた鋳鉄粉だが、それを確かな研究開発の裏付けでリユースし、類まれなる制振特性は40年にわたりオーディオの世界で実績を重ねてきた。そしていま、プロユースの現場にもそのムーブメントが訪れようとしている。   *ProceedMagazine2023号より転載

Music

ONKIO Acoustics / 音響ハウス開発陣が語る、DAWへ空気感を吹き込むその音の佇まい

1973年の設立から50年にわたり、数多のアーティストから愛され続けているレコーディングスタジオ「音響ハウス」。CITY-POPの総本山として、近年さらに注目を集めているこの音響ハウスにスポットを当てた音楽ドキュメンタリー映画「音響ハウス Melody-Go-Round」が2020年秋に公開された。本作のなかでは日本を代表するアーティストの数々が、音響ハウス独特の空気感や響きの素晴らしさについて語っている。 この映画制作を通じて、その稀有な響きを記録しておくべきだというアーティストや音響ハウスOBからの提言が寄せられ、音響ハウスStudio No.1、No.2のフロアの響きを忠実に再現する構想がスタートしたという。そして約1年半の開発期間を経た2022年秋、音響ハウス公式記録となるソフトウェアONKIO Acousticsが満を持して発売された。ONKIO Acoustics誕生までの足跡と開発秘話、そしてソフトウェアに込められた熱い想いを音響ハウスにて伺うことができた。 ●TacSystem / ONKIO Acoustics  価格 ¥10,780(税込) 「録音の聖地」ともいえる音響ハウス Studio No.1 / No.2の空間を、音場再現技術であるVSVerbを用いて忠実に再現したプラグイン「ONKIO Acoustics」。音響ハウスの公式記録として次世代に伝える意義も込め、大変リーズナブルな価格で提供されている。ONKIO Acousticsプラグインでは、マイクのポジションを X軸、Y軸、Z軸 それぞれ-999mm〜+999mm、マイクアングルを-90度から+90度まで変更でき、単一指向性 / 無指向性 の切替えも可能。まるで、実際に音響ハウスでレコーディングを行っているかのような空気を体感することができる。 >>>ONKIO Acoustics製品ホームページ   ●ONKIO HAUS Studio No.1 📷音響ビル8FのStudio No.1。コントロールルームにはSSL 9000Jを擁しこれまでも数々の名盤がレコーディングされてきた。ONKIO Acousticsではこちらのメインフロアを再現、マイクポジション設定のほかにもStudio No.1の特徴的な反射板の量までセレクトすることができる。 ●ONKIO HAUS Studio No.2 📷プラグイン内での再現ではStudio No.2のメインフロアはもちろん、Booth-Aのソースをブース内、ブース外から収録するシチュエーションも用意された。なお、こちらのコンソールはSSL 4000G、蓄積されたメンテナンスのノウハウがつぎ込まれそのサウンドが維持されている。 VSVerbとの出会い 📷株式会社音響ハウス 執行役員 IFE制作技術センター長 田中誠記 氏 スタジオの響きを忠実に再現するという最初の構想から、ソフトウェア実現に至る第一歩は何から始まったのだろうか?「レコーディングスタジオの生命線となる、スタジオの鳴りや響きをどのようにして記録・再現するか、まずはタックシステム 山崎淳氏に相談することから始まりました」(田中氏)その相談を受けた山崎氏の回答は「株式会社ソナ / オンフューチャー株式会社 中原雅考 氏が研究している特許技術、VSVテクノロジーしかない」と迅速・明快だったという。 音場を再現するにあたり、従来のImpulse Responceによる計測では測定機器の特性や部屋の騒音に左右され、ピュアな音場再現性に欠けるとの問題提起をしてきた中原氏は、仮想音源の空間分布をサンプリングするVSVerb(Virtual sound Sources reVerb)を音響学会およびAESで発表していた。VSVerbは空間の反射音場をサンプリングすることで、任意の空間の響きを再現する音場再現技術である。測定した音響インテンシティーの波形から反射音成分だけを抽出することにより、部屋の騒音をはじめ、マイクやスピーカなど測定時の不要な特性を一切含ないリバーブを生成することができる。それはつまり、不要な音色変化を生じさせない高品位なサンプリングリバーブを意味している。 VSVerbを用いて音響ハウスを再現する最初のデモンストレーションは、生成したVSVerbの畳み込みに Waves IR-L Convolution Reverbを利用して行われた。音響ハウスで20年以上のレコーディング経験を持つ中内氏はそのサウンドを聴いて、自身が楽器にマイクを立てている時の、まさにその空気感を感じて大変驚いたという。スタジオでの話し声でさえリアルに音場が再現されてしまう感動は、他のエンジニア達からも高く評価され、VSVerbを用いてソフトウェア制作に臨むことが決定。2021年夏に開発がスタートした。 ●4πサンプリングリバーブ / VSVerb VSVerbは所望の空間の反射音場をサンプリングすることで、任意の空間の響きを再現する音場再現技術です。反射音場は全周4πsr方向にてサンプリングされるため、1D, 2D, 3Dのあらゆる再生フォーマットに対して響きの再現が可能です。VSVerbをDAWのプラグインに組み込むことで音響制作時に任意の空間の響きの再現が可能となります。 響きの時間特性を方向別にサンプリングする従来の方向別 IRによるサンプリングリバーブとは異なり、VSVerbは一つ一つの反射音の元となる「仮想音源」の空間分布をサンプリングするサンプリングリバーブです。従来の方向別 IRリバーブでは、サンプリングの際のマイキングで再生可能なチャンネルフォーマットが決定してしまいますが、VSVerbはチャンネルに依存しない空間サンプリング方式のため完全なシーンベースのリバーブとなります。そのため、任意の再生フォーマットに対してリバーブエフェクトが可能です。 VSVerbでは測定した音響インテンシティーの波形から反射音成分だけを抽出することでリバーブを生成しているため、部屋の騒音やマイクやスピーカーなど測定時の不要な特性を一切含まないリバーブです。つまり、素材に対して不要な音色変化を生じさせない高品位なリバーブとなります。 (出典:オンフューチャー株式会社 資料) ACSU2023 Day1 #1 4πへの階段 〜 MILやVSVerb などを通して垣間見るイマーシブ制作のNext Step 〜 https://www.youtube.com/watch?v=yEW4UA0MIwE 📷今春開催されたAvid Creative summit 2023では、株式会社ソナ/オンフューチャー株式会社 中原 雅考氏による「ONKIO Acoustics」のコア技術=VSverbについての技術解説セミナーが催された。音場再現技術についてのロジックをベーシックから解説し、どのように音響ハウスの空間が再現されたのか確認することができる。 スタッフ総出のサンプリング 音響ハウスStudio No.1、No.2の鳴りをサンプリングする作業はスタッフ総出で、B&K(ブリュエル・ケアー)の全指向性スピーカーを床から1.2メートル、マイクをStudio No.1では床から2.7メートル、Studio No.2では2.5メートルの高さに設置して行われた。Senheiser AMBEO VR Micが用いられたが、その4ch出力はAmbisonics方式では処理されず、AMBEO VR Micは音響インテンシティープローブとして使用されたそうだ。 📷スタッフ総出で行われたという、サンプリング作業の様子を見せてくれた。B&K(ブリュエル・ケアー)の全指向性スピーカーとSennheiser AMBEO VR Micを設置する場所や高さは、通常レコーディング時の音源位置と、アンビエンスマイクの位置を想定して決定されたそうだ。 これら4chの音データがオンフューチャーのソフトで解析され、音圧と粒子速度を掛け合わせた音響インテンシティーにより、反射音成分のみが抽出されている。なお、Studio No.1の壁面上部にある反射板は取り外し可能になっているため、サンプリングには反射板の設置パターンがFully(全設置)、Half(半分設置)、None(無し)の3種類が用意された。曲面加工が施され、裏面にパンチカーペットが貼られた木製の反射板1枚1枚が、スタジオの響きをコントロールする重要な役割を果たしている。「Halfという設定は、音響ハウスの響きを熟知している著名なプロデューサーが、ハーフ設定を好んでレコーディングしていることから採用しました」(中内氏)とのことで、その響きがプラグインの中でもしっかりと再現されている。Studio No.2ではメインフロアに加えて、ブース内、ブース外でのサンプリングもおこなわれ、それらの再現もまた音響ハウスを知る多くのミュージシャンから高評価を得ている。 音響ビル社屋をイメージしたGUI 📷株式会社音響ハウス IFE制作技術センター 技術グループ チーフ 志村祐美 氏 プラグインのGUIデザインは映像編集に携わってきた志村氏が担当に抜擢され、コロナ禍のためリモート会議で制作が進められたそうだ。グラフィックソフトの画面を共有して、リアルタイムにデザインする様子を皆で確認しながら試行錯誤したそうだが、志村氏は「このパーツを修正したい理由を、私が理解できるように説明して下さい!というやり取りが何度もありました(笑)」と当時の苦労を語ってくれた。「GUIのグランドデザインは最初、音響ビルそのものをイメージした縦長サイズで、メニューをクリックしてスタジオを選択するというものでした」(田中氏)その構想は製品版GUIの縦長サイズと、背景にうっすらと見える煙(けむり)のテクスチャへと引き継がれていた。「音響ビル外観をイメージした色使いで、下からフワッと上がるけむりのグラデーションが空気感を表現しています。プラグインが縦に長いと場所をとるので、画面を三つ折りにしたいという私の最初の要望も製品に反映されています」(志村氏) 📷音響ビル社屋をイメージしたという、田中氏が描いた最初期のGUIスケッチ。こちらをスタートに志村氏がデザインを施していった。外部のデザイナーではなく、建物自体をも含めたスタジオの空気感をよく知った社内スタッフで丹念に組み上げられていったことがわかる。 Lexiconのリモートコントローラーをイメージしたフェーダー部は、ストロークの長さにもこだわった。「ストロークが長い方が使いやすいだけでなく、音に関係なかったとしてもパッと見た瞬間のカッコ良い / 悪いが判断基準でした。見えないものを創るという性質上、見えるもので盛り上がりたいという気持ちを大切にしています」(中内氏)そういったスタッフの想いを具現化していく作業は、まるで音楽を生み出すようでスタジオワークにも近かったのではないだろうか?パラメーターを少なくして簡単に音作りできるようにしたい、という開発時からのコンセプトとともに、スタッフそれぞれの哲学が込められたGUIには一切の妥協がなかった。 空気を録音することがコンセプト 📷株式会社音響ハウス スタジオ事業部門 技術部 音楽グループ チーフ レコーディングエンジニア 中内茂治 氏 「ONKIO Acousticsは音響ハウスのスタジオを再現するルームリバーブなので、オフマイクを作るのに向いています。例えばレコーディング編成の都合上、ブース内でオンマイク収録した際には、オフマイク音をONKIO Acousticsで再現してオンマイクとブレンドしたりします」(中内氏)さらにその後段でリバーブ処理することにより、豊かな奥行き感を表現するという手法もあるそうだ。また、シンセサイザー音源から出力されるダイレクトなサウンドはアタック成分が強く、特にサンプリング音源の硬さがイコライザーで取れない場合には、ONKIO Acousticsを使用するだけで一発で解決するケースも多いのだとか。「極論を言えば、リバーブ音を構成する LOW / MID / HIGH 3つのバンドレベルのうち、HIGHを下げるだけでほぼ音が馴染んでしまいます。アタックのコントロールと空気感を含めた前後のコントロールが抜群で、コンサートホールに例えると三点吊りマイクで収録したような空気感も得られます。どんなEQよりも簡単迅速に、オケに馴染む音作りを実現してくれますよ。昨今はヘッドホンやイヤホンだけで音楽制作をしているDTMユーザーが増えていますが、そのような環境であればこそ、ONKIO Acousticsの空気感が際立ってくると思います。アレンジや音作りの手がかりとしてもぜひ活用して欲しいです」(中内氏) 📷音響ハウスStudio No.1の反射板は簡単に取り外しが可能とのこと。反射板の場所や数を調整して響きを自在にコントロールできる、そんな稀有な機能を備えたスタジオだ。ONKIO Acousticsプラグイン内でもReflectors:Fully(フル設置)、Reflectors:Half(半分設置)、Reflectors:None(なし)の3種類を選択することができ、Studio No.1の機能をもリアルに再現することができている。 「ONKIO Acousticsはエフェクトカテゴリーとしてはリバーブに相当しますが、空気を通す、つまり空気を録音することがコンセプトにあるので、一般的なリバーブプラグインとは異なります」(田中氏)度々登場するこの "空気" というキーワード。そのなかでも特に、空気を録音するというコンセプトは、音の正体が空気の疎密波であるということを再認識させてくれるのではないだろうか。ONKIO Acousticsは他のプラグインと同様に、パソコン内で音楽制作するツールということに変わりはないが、DAWに空気感を吹き込む、その音の佇まいが最大の魅力ということである。 「次世代の若者に音響ハウスのサウンドを体験して欲しいという思いが一番にあります。プロの方達は実際に音響ハウスに来ることができますが、そうではない方達にレコーディングスタジオの空気感を知って欲しいですね。このプラグインが、自宅だけではできない音作りがあるということに気付くきっかけとなって、数年後にユーザーがエンジニアやアーティストになって音響ハウスを使ってくれれば良いなと。そこで、次世代に伝えたいという意味でも、大変リーズナブルな価格設定で提供しています」(田中氏)驚くのはその価格の低さだけではない。たった29.8MBというプラグインのデータサイズは、サンプリング・リバーブというカテゴリーにおいては驚異的な小容量である。ソフトウェアのデータサイズから見ても、ONKIO Acousticsが通常のリバーブとは根本的に異なることがお分かりいただけるだろう。 空間処理における最強コンビへの構想も!? 📷空気の振動にこだわったONKIO Acousticsとは対照的に、鉄板の振動が温かい響きを生み出すプレートリバーブEMT-140。マシンルームに所狭しと並ぶEMT-140たちをプラグインで再現して欲しい!という声が寄せられているそうだ。 ONKIO Acousticsはバージョン1.2.0で、音響ハウスのOBを含む5名の著名エンジニアによるプリセットが追加された。それらのプリセットはDAW初心者が空気を通した音作りを学べるだけでなく、サウンドプロフェショナルにも新たなアイディアをもたらしてくれるだろう。「ユーザーからGUIに関するリクエストがあれば、ぜひお聞きしたいです」(志村氏)とのことで、今後のバージョンアップにも期待が持てそうだ。また、VSVerbテクノロジーは反射音場を全周4πステラジアン方向でサンプリングする方式のため、1D、2D、3D のあらゆる再生フォーマットに対応できるのも大きな特長である。サラウンドミックスの需要が高まっているなかで、将来的にONKIO Acousticsがサラウンド対応することにも期待したい。 また、ONKIO Acousticsの発売をうけて、音響ハウスが所有している5台のプレート・リバーブ EMT140をぜひプラグインで再現して欲しい!という声も寄せられているようで、「ONKIO PLATE」としてその構想も浮かんできているようだ。「EMT140はアンプがトランジスタのほか真空管モデルもあり、みな個体差があって音が違うので、正常に動いている今のうちに記録して皆で使えるようにしたいですね。サウンド・エンジニアリングの勉強にもなりますよ」(田中氏)とのことで、このONKIO PLATEをONKIO Acousticsと併用すれば、CITY-POPを代表する空間処理の最強コンビになることは間違いないだろう。音響ハウスの新たなるソフトウェア展開が、DAWユーザーとレコーディングスタジオとの関係に新しい空気を吹き込み、次世代に向けて歩み始めている。   *ProceedMagazine2023号より転載

Music

現場目線から見えてきたダビングステージでのAvid S6 / TOHOスタジオ株式会社 ダビングステージ2

📷今回お話をお伺いしたTOHOスタジオ株式会社ポスト・プロダクション部の皆様。実際にAvid S6での実作業を行われた方にお集まりいただきお話をお伺いした。左上:両角 佳代子氏、右上:早川 文人氏、左下:下總 裕氏、右下:岩城 弘和氏 2022年9月にAvid S6をダビングステージに導入した東宝スタジオ。リニューアルされてから本記事執筆までの7ヶ月で16本の作品のダビングを行ったという。本誌前号ではそのシステムのご紹介を行ったが、実際にダビングの現場におけるAvid S6の使用感や、ワークフローにどのような変化が起こったかなど、現場目線から見えてくるAvid S6導入の効果を伺った。 システムに配されたPro Tools 7台 まずは、NEVE DFCコンソールからAvid S6へと更新されたことによるワークフローの変化からご紹介していきたい。前号でも触れているが、Avid S6へと更新を行うことで、NEVE DFCが担っていたミキシングコンソールとしてのミキシングエンジンは無くなった。それを代替するためにミキサー専用のPro Toolsを2台導入し、その機能を受け持たせるというシステム設計を行っている。プレイアウトのPro Toolsが4台。ミキサーエンジンとしてのPro Toolsが2台、ダバー / レコーダーとしてのPro Toolsが1台という7台構成でのシステムとなっている。 システムとして見れば煩雑になったとも感じられる部分ではあるが、もともとPro Toolsのオペレートに習熟した技師の方が多いということ、またMA室にAvid S6、そしてシグナルルーティングのコアとして稼働しているAvid MTRXが導入済みであったこともあり、現場スタッフの皆さんもそれほど大きな混乱もなくこのシステムを受け入れることができたということだ。外部からの技師の方々も国内の他のダビングステージでAvid S6での作業を経験したことのある方が多かったということでシステムの移行は想定よりもスムーズだったという。 📷スタジオのシステムを簡易に図としたものとなる。非常に多くの音声チャンネルを取り扱うことができるシステムであるが、その接続は想像よりもシンプルに仕上がっているということが見て取れる。各MTRX間のMADI回線は、すべてパッチベイを経由しているため、接続を変更してシステムの構成を簡単に変更することができる。図中にすべてを記載できたわけではないのだが、各MTRXはMADI及びAESがユーティリティー接続用としてパッチ盤へと出力されている回線を持っている。そのため持ち込み機器への対応などもMTRXのパッチを駆使することで柔軟に行うことができるように設計されている。 このシステムを見た方は、なぜ、ミキサーPTが必要なのか?という疑問を持たれるかもしれない。シンプルにステムをダバーで収録するだけであればプレイアウト用のPro Tools内部でステムミックスを行えば良い。しかし、コンソールありきでミキシングを行ってきた経験のある方からすれば、ステムミックスを行うのはあくまでもコンソールであり、プレイアウト用のPro Toolsは音声編集、再生を担当するという考え方が根強い。仕込みが終わり、ダビングステージで他の音源とともにバランスを取る際に、改めてまっさらなフェーダー(0dB位置)でのミックスを行いたいということである。実際にミキシングを行うという目線で考えれば頷けるのではないだろうか。 もちろん実際の作業で、Pro Toolsに慣れ親しんだ方はミキサー用Pro Toolsを使用しないというケースもあったとのこと。ダイアログ、音楽はダイレクトに、効果はミキサーを通してなどというハイブリッドなケースもあり、どのような要望にも応えられる柔軟性を持ったシステムに仕上がっていることが実際の作業でも実証されている。もちろん、東宝スタジオのもう一つのダビングステージにはNEVE DFCがあるので、究極的にはNEVE DFCとAvid S6の選択もお客様のニーズに合わせて行える環境が整っている。 コンソール依存ではないオートメーション管理 実際にAvid S6での作業を行ってみて感じたメリットとしては、オートメーションデータの在り処が挙げられる。このオートメーションデータが、すべてPro Toolsのデータとして存在することによるメリットが非常に大きいということをお話いただいた。 これまで、リテイク(修正作業)や完パケ後のM&Eステム制作作業などを、ダビングステージを使わずに行うことができるようになったということを挙げていただいた。もちろん、リテイク後の確認はダビングで行う必要があるが、Pro Tooleにすべてのオートメーションデータがあるので、Pro Tools単品でのミックスが可能になった。これは、NEVE DFCを使ってミックスを行っていた際には行うことができない作業である。ミキサー用Pro Toolsを使っていたとしても、そのミキシング・オートメーションデータはPro Toolsのセッションファイルとして管理される。そのため、他のPro Toolsへとセッションインポートを行うことでミキシングの状況の再現が可能となる。一方、NEVE DFCでは当たり前だがNEVE DFC内にオートメーションデータがあり、その再現にはNEVE DFCが必須となるからだ。 このメリットは、特に後作業で発生する各種ステムデータの書き出しなどをダビングステージを使用しなくても行えるということにつながる。これにより、今後ダビングステージ自体の稼働も上げることができるのではないか?とのお話をいただくことができた。 システム更新によるメリットは、このような派生作業にまでも影響を与えている。Avid S6はそれ自体がミキシングエンジンを持たないため、コンソールではなくコントローラーだ、などと揶揄されることもあるが、コントローラーだからこそのメリットというものも確実にあるということを改めて確認することができた。 オフラインバウンスを活用する これは、極端な例なのかもしれないが、オフラインバウンスでのステムデータの書き出しも実現している。ミキサーPro Toolsをバイパスするシステムアップであれば、オフラインバウンスで書き出したデータをダバーに貼り込むというワークフローも現実のものとして成立する。これによる作業時間の短縮などのメリットももちろんある。決まったステムからオフラインバウンスでダバーに渡していくことで、バス数の制限から開放されるといったワークフローも今後視野に入ってくるのではないだろうか。現状ではダバーへ最大128chの回線が確保されている。今後の多チャンネル化などの流れの中ではこのような柔軟な発想での運用も現実のものとなってくるのかもしれない。 このお話を伺っていた際に印象的だったのが、オフラインバウンスで作業をするとどうもダビングをしているという感覚が希薄になってしまうというコメントだ。確かに、というところではあるが、ついにダビングにもオフラインの時代がやってくるのだろうか、省力化・効率化という現代の流れの中で「オフラインバウンスでのダビング」というのものが視野に入ってくることを考えると、筆者も少し寂しい気持ちになってしまうのは嘘ではない。 システムがAvid Pro ToolsとAvid MTRXで完結しているために、作業の事前準備の時間は明らかに短くなっているとのことだ。具体的には、別の場所で仕込んできたPro ToolsセッションのアウトプットをNEVE DFCのバスに合わせて変更するという手間がなくなったのが大きいとのこと。Avid S6であれば、途中にAvid MTRXが存在するので、そこでなんとでも調整できる。事前に出力をするバス数を打ち合わせておけば、Pro Tools側での煩雑なアウトプットマッピングの変更を行うことなくダビング作業に入ることができる。ダビング作業に慣れていない方が来た場合でも、すぐに作業に入ることができるシンプルさがある。準備作業の時間短縮、完パケ後作業を別場所で、などとワークフローにおいても様々なメリットを得ることができている。 Avid S6ならではの使いこなし 📷前号でもご紹介したTOHOスタジオ ダビング2。Avid S6を中心としたシステムが構築されている。コンソールの周りには、プレイアウトのPro Toolsを操作するための端末が配置されている。マシンルームはMacPro 2019とAvid MTRXの構成に統一され、同一性を持ったシステムがずらりと並ぶ。メンテナンス性も考えてできる限り差異をなくした構成を取っているのがわかる。 東宝スタジオでは、国内最大規模となるAvid S6 / 72Fader Dual Head仕様を導入したが、物理的なフェーダー数は充分だろうか?これまでのNEVE DFCではレイヤー切り替えにより操作するフェーダーを切り替えていたが、Avid S6ではレイアウト機能など様々な機能が搭載されている。これらをどのように使いこなしているのだろうか?実際のオペレーションに関してのお話も伺ってみた。 物理フェーダー数に関しては、充分な数が用意されていると感じているそうだ。Pro Toolsのここ最近の新機能であるフォルダートラックと、Avid S6のフェーダースピル機能を活用する方が多いという。フェーダースピル機能とは、フォルダートラックにまとめられた個別のフェーダーをフォルダートラック・フェーダーの右、もしくは左に展開することができる機能である。バスマスターでもあるフォルダートラックのフェーダーを手元に並べ、フェーダースピル機能を使って個別のトラックのバランスの微調整を行う。まさにAvid S6ならではの使いこなしを早速活用していただいている。 オペレートに関して、NEVE DFCからの移行で一番多く質問されるのがオートメーションの各モードの動作。やはりメーカーが異なるということもあり、オートメーションモードの名称に差異がある。具体的には「Latchってどんな動作するんだっけ?」というような質問である。これは、回数を重ねてAvid S6を使っていけば解決する問題ではあるが、NEVE DFCと2種類の異なるコンソールを運用する東宝スタジオならではの悩みとも言えるだろう。また、コンソールとしてのEQ、COMPの操作という部分に関しては、Pro Tools上のプラグインを活用するシステムとなるため、自ずとノブではなくマウスに手が伸びるとのこと。正面を向いてしっかりと音を聴いて作業できる環境、ということを考えるとコンソール上のノブでの操作が有利だが、やはりプラグインの画面が表示されると慣れ親しんだマウスとキーボードで操作することの方が今のところは自然ということだろう。 唯一無二から正確な再現性へ そして、いちばん気にかかる部分かもしれない音質に関して、Avid S6の導入に合わせて更新されたAvid MTRXと、NEVE DFCとの差異についてお話を聞いてみたところ、やはり、音質に関して違いがあることは確かだ、とのコメントをいただいている。確かにメーカーも異なるし、機器としても違うものなので同列に語ることは難しいかもしれないが、味のあるNEVEに対して、クリアで忠実な再現性を持ったAvid MTRXといったニュアンスを感じているとのこと。NEVEはどこまで行ってもNEVEであり、やはり唯一無二のキャラクターを持っているということに改めて気付かされているということだ。一方、Avid MTRXについては、忠実性、レスポンスなどNEVEでは感じられなかったサウンドを聴くことができるとのこと。 Avid MTRXの持つ正確な再現性は、効果音のタイミングに対して今まで以上にシビアになったりと、これまで気にならなかったところが気になる、という事象となって出現してきているということ。これはさらに作品を磨き上げることとができる音質を手に入れたということでもあり、非常にやりがいを感じる部分でもあるとのことだ。既にMA室でも導入の実績のあるAvid MTRXだが、ダビングステージの音響環境ではさらにその傾向を顕著に聴き取ることができる。これにより、今後の作品の仕上がりがどのように変化するのか楽しみな部分でもある。 音質に関しては、今後マスタークロックや電源などにもこだわっていきたいとのコメントをいただいている。これは、Avid S6が非常に安定して稼働しているということの裏返しでもある。システムのセットアップに必要な時間も短縮され、システム自体の安定度も高い。そういったことから、さらに高い水準での探求を考える余地が見えてきているということとだろう。安定稼働させることで精一杯であれば、音質云々以前にシステムを動作させることで疲弊してしまうというのは想像に難くない。このようなコメントをいただけるということは、システムとしての安定度に関しても高い水準で運用いただいているということが伺い知れる。 こうなってくると、あまり話題に上ることも多くなかったPro Toolsのミキサーエンジンの持つHEATなども活用してみては面白いのではないか?と考えてしまう。テレビのように厳密なレベル管理は行われていない映画。(これは悪い意味で管理されていないということではなく、芸術作品であるがゆえに管理を行っていないということである。)パラメーターによりレベル差が生じるHEATはテレビ向けのポストプロダクションでは使い勝手に難がある機能であったが、映画であれば多少のレベルの変動は許容できるはずである。お話をまとめていてふと、こんな想像もよぎっていった。 ●ROCK ON PRO 導入事例 TOHOスタジオ株式会社 ポストプロダクションセンター2 様 / アジア最大規模のS6を擁したダビングステージ https://pro.miroc.co.jp/works/toho-proceed2022-23/ システムの更新を行いNEVEが懐かしいというお客様も確かにいるが、新しいシステムで安定度高く作業を行うことができるメリットは大きく、好評をいただいているということだ。もう一つのダビングステージには、NEVE DFCがあるということもあり、お客様には幅広い選択肢でのワークフローを提案できる環境が整備されている。これはスタジオにとって大きなメリットであり、今後も継続していきたい部分でもあるということ。 とはいえ、Avid S6によるワークフローの改善、省力化、安定度に対する魅力も大きく、NEVE DFCとAvid S6のHybridコンソールシステムは組めないのか?などという質問も出てきている。ハリウッドでは、このようなシステムアップも現実のものとして稼働している。東宝スタジオのどのように使いたいのかというワークフローを色々と相談をしながら、今後のベストなシステムアップのお手伝いを行えればと考えている。今後の日本映画のポストプロダクションシステムを占うファシリティー。Avid S6へ移行することで獲得した多くのメリットをどのようにこれからのシステムアップに活かしていけるのか?これが今後のテーマになっていくのではないだろうか。   *ProceedMagazine2023号より転載

Post

Waves Live SuperRack〜あらゆるミキシング・コンソールにアドオン可能なプラグイン・エフェクト・ラック

Dante、MADI、アナログ、AES/EBU…どんな入出力のコンソールにも接続可能で、最大128ch(64chステレオ)のトラックに大量のWavesプラグインをニアゼロ・レイテンシーで走らせることができる、ライブサウンドとブロードキャスト・コンソールのための最先端のプラグイン・エフェクト・ラック。それが「SuperRack SoundGrid」です。 プロセッシングをおこなう専用サーバー本体は2Uのハーフラック・サイズ。1Uまたは2Uハーフラックの専用Windows PCはマルチタッチ・ディスプレイに対応しており、プラグインのパラメータをすばやく直感的に操作することが可能です。 システム内の伝送はWavesが開発したレイヤー2のAoIP規格であるSoundGrid。汎用のネットワークハブを介してLANケーブルのみでシステム全体を接続します。 スタジオ・ミキシングやレコーディングはもちろん、省スペースなシステムでパワフルなデジタルエフェクト処理、冗長性、ニアゼロ・レイテンシーを実現するSuperRack SoundGridは、限られた機材で最高の結果を求められるライブサウンドや中継の現場などにはまさにうってつけのソリューションと言えるでしょう。 ◎主な特徴 0.8msのネットワーク・レイテンシー 最大4台のアクティブDSPサーバーをサポートし、プラグインの処理能力をさらに向上 最大4台のリダンダントDSPサーバーをサポートし、冗長性を確保 複数のプラグインを同時に表示・プラグインの表示サイズの変更 マルチタッチ対応のグラフィック・インターフェイス ワークスペースを最大4台のタッチディスプレイに表示 SoundGrid I/Oをネットワーク上でシェアすることで、大規模なシステムにも対応 Waves mRecallアプリ:保存したスナップショットを、Wi-fi経由でスマートフォン、タブレットから呼び出し可能 個別デモのご用命はROCK ON PRO営業担当、または、contactバナーからお気軽にお申し込みください。 番組や収録のマルチトラック音源をお持ち込みいただければ、Waves SuperRackシステムを使ったミックスを体験頂けます。 ◎システム構成例1 図はSuperRack SoundGridを使用したシステムの基本的な構成。例としてMADI I/Oを持ったコンソールを記載しているが、アナログやAES/EBUなどの入出力を持ったコンソールにも対応可能だ。 中列にあるMADI-SoundGridインターフェイスを介して信号をSoundGridに変換、左上の専用PCでプラグインをコントロールし、左下の専用サーバーで実際のプロセスをおこなう。 アナログコンソールやデジタルコンソールと使用したい場合は、中列のSoundGridインターフェイスを、IOCなどのアナログ・AES/EBU入出力を備えたモデルに変更すればよい。 ◎システム構成例2 YAMAHA、DiGiCo、Avid Venueなど、オプションカードとしてSoundGridインターフェイスが存在しているコンソールであれば、コンソールから直接ネットワーク・ハブに接続することでシステムをよりシンプルにすることも可能だ。 SuperRackシステムの構成と選択肢 図は前述「システム構成例」からコンソールを省いたSuperRackシステム部分の概念図。ユーザーの選択肢としては、大きく3ヶ所ということになる。 左下のオーディオ入出力部については、SuperRackを接続したいコンソールの仕様によって自ずと決まってくる。SoundGridオプションカードをラインナップしているモデルであれば該当のオプションカード、そうでなければ対応するI/Oを持ったDiGiGridデバイスといった感じだ。 DiGiGrid IOCやCalrec Hydra2のように複数の種類のI/Oを持ったインターフェイスを使用すれば、デジタルコンソールとアナログコンソールで同時にSuperRack SoundGridを使用するといった構成も可能になる。 左上のWindows PCは基本的にプラグインを操作するUI部分のため、求めるマシンパワーに応じて、1UハーフラックのAxis Scopeか2UハーフラックのAxis Protonから選択すればよい。 同時に使用したいWavesプラグインやタッチディスプレイの数、レコーディング用のDAWホストを兼ねるか否かなどが選定の基準になるのではないだろうか。 右上のSoundGrid DSP Serverが、実際にWavesプラグインのプロセッシングをおこなう部分となる。複数の選択肢があるが、ここも同時プロセスの量やリダンダントの有無によって決まってくる部分だろう。 その他、KVMやLANケーブルが別途必要になる。特にケーブルはCat6対応のものが必要である点には留意されたい。 参考価格と比較表 *表はCalrec用の構成例、コンソールに応じてI/Oを選択 **プラグインライセンスは別途購入が必要 渋谷Lush Hubにて個別デモンストレーション受付中! ROCK ON PROでは、このSuperRackシステムの個別デモンストレーションを渋谷区神南のイベントスペースLUSH HUBで予約制にて受付中です。 LUSH HUBについての詳細はこちら>> 番組や収録のマルチトラック音源をお持ち込みいただければ、Waves SuperRackシステムを使ったミックスを体験頂けます。 デモご予約のご希望は、弊社営業担当、またはcontactバナーからお気軽にお問い合わせください。

Broadcast

360VME / 立体音響スタジオの音場をヘッドホンで持ち歩く

ソニーが提供するイマーシブの世界がさらに広がろうとしている。360 Reality Audioでの作品リリースはもちろんのことだが、今度は制作側において大きなインパクトがあるサービスとなる「360 Virtual Mixing Environment(360VME)」が発表された。これは、立体音響スタジオの音場を、独自の測定技術によりヘッドホンで正確に再現する技術。つまり、立体音響制作に最適な環境をヘッドホンと360VMEソフトウェアでどこへでも持ち運ぶことが可能となるわけだ。ここではその詳細を見ていこう。 2023.7.13 追記 ・7/13(水)より一般受付開始、8月よりMIL Studioでの測定サービスを開始いたします。 詳細は下記URLよりご確認ください。 https://www.minet.jp/contents/info/360-vme-measurement/ 📷右に並ぶのが世界で3拠点となる360VMEサービスを提供するスタジオ。上よりアメリカ本土以外では唯一となるMedia Integrationの運営する東京のMIL Studio、本誌でもレポートを掲載しているLAのGOLD-DIGGERS、そしてニューヨークのThe Hit Factory。すべてのスタジオが360 Reality AudioとDolby Atmosの両方に対応したスタジオである。これらのスタジオはソニーが360VMEサービスの測定にふさわしい音響を備えたスタジオとして認定した世界でも有数のファシリティーである。こちらで個人ごとに測定を行って得られたプロファイルをもとに、その音場をヘッドホンで再現させるのが360 Vitual Mixing Environmentだ。 ●360 Virtual Mixing Environment ソニーHP ●ソニー / MDR-MV1 / 価格 ¥59,400(税込) 「これはヘッドホンじゃない、スタジオだ。」イマーシブ世代に向けたソニーのStudio Refarence Headphone、MDR-MV1。このキャッチコピーに込められた「スタジオだ」という言葉には360VMEサービスも含まれているのだろうと考えさせられる。スタジオの音響空間を360VMEにより、ヘッドホンに閉じ込めて持ち帰る、そのために高い空間再現能力を与えられたヘッドホンである。360VME無しでも充分に素晴らしい特性を持った製品だが、360VMEと組み合わせることでさらなる真価を発揮するモデルと言えるだろう。 ●MDR-MV1 ソニーHP 世界初のプライベートHRTF測定サービス ついに待望のサービス開始がアナウンスされたSONY 360 VMEサービス。VMEとは「Virtual Mixing Environment」(仮想ミキシング環境)のこと。世界初となるプライベートHRTFを含むプロファイルデータを商用的に測定するサービスだ。SONY R&Dで開発され、ハリウッドのSONY Picturesで試験運用が行われていたテクノロジーで、映画の仕上げを行うダビングステージという特殊なミキシング環境を、ヘッドホンで仮想的に再現してプリミックスの助けとしようということで運用が行われていた。 広い空間でのミキシングを行うダビングステージ。そのファシリティーの運用には当たり前のことだが限界がある。ファシリティーの運用の限界を超えるための仮想化技術として、この空間音響の再現技術が活用され始めたのは2019年のこと。テスト運用を開始してすぐにコロナ禍となったが、SONY Picturesにとってはこの技術が大きな助けとなった。まさに求められる技術が、求められるタイミングで現れたわけだ。 サービス利用の流れ 国内での利用を想定して、東京・MIL Studioでの測定を例にサービス利用の流れを紹介するが、執筆時点(2023年5月下旬)では暫定となる部分もあるため実際のサービス開始時に変更の可能性があることはご容赦いただきたい。まず、利用を希望される方はWebほかで用意されたページより360VMEサービスを申し込む。この段階では測定を行うヘッドホンの個数、必要なスピーカープロファイル数をヒアリングし、いくつのプロファイルを測定する必要があるのか確認、測定費用の見積と測定日の日程調整を行う。実際のMIL Studioでの測定ではヘッドホンの測定も行いその個体差までもを含めたプロファイルを作成するため、使用されるヘッドホンの持ち込みは必須となる。 MIL Studioではそれぞれのプロファイルに合わせて測定を行った後に、そのプロファイルが正しく想定されているかを実際の音源などを使って確認、納得いくプロファイルが測定できているかを確認していただき、360VMEアプリとともにプロファイルデータをお渡しすることとなる。これらを自身の環境へインストールし、利用開始というのが大まかな流れだ。 360VMEのバックボーンとなる技術 ソニーは以前よりバーチャルサラウンドの技術に対して積極的に取り組んできた。民生の製品ではあるが、バーチャル・サラウンド・ヘッドホンなどを実際に発売している、これは5.1chサラウンドをヘッドホンで再生するという技術を盛り込んだ製品であった。このようなサラウンド仮想化の技術は、長きにわたりソニー社内で研究されてきた技術があり、その系譜として今回の360VMEサービスも存在している。そして、今回の360VMEサービスはこれまでにリリースしてきたコンシューマ向けレベルの技術ではなく、プロの現場での使用を想定したハイエンド製品としてリリースされた。このようなバーチャルサラウンド技術の精度向上には、実測に基づくプライベートHRTFの測定が必須となる。実際の使用者のHRTFを含んだデータを測定することで精度は驚くほど向上する。一般化されたHRTFとのその差異は圧倒的である。 ●HRTF(Head-Related Transfer Function:頭部伝達関数)とは!? 人が音の方向を認知することが可能なのは、周波数特性の変化、左右の耳への到達時間差などを脳が判断しているからである。耳の形状や体からの反射、表皮に沿った回析など様々な要因により変化する周波数特性、左右の耳へ到達する時間差、反射によるディレイなどを表すインパルス応答特性、このようなパラメータを数値化したものがHRTF(Head-Related Transfer Function:頭部伝達関数)となる。これは個人ごとによって異なるパラメーターで、個人のHRTFを測定したものをプライベートHRTF、それを適用したバイノーラル処理を個人最適化と呼んでいる。 360VMEの技術はプライベートHRTFを測定した部屋を環境ごと測定する。それをヘッドホンのバイノーラル再生として、測定した部屋の音響環境、スピーカーの特性などをそのまま仮想環境として再現する。スピーカーの特性など、測定した部屋の音響環境ごとプロファイル化するため、厳密な意味でのプライベートHRTFではないが、その要素を含んだバイノーラル再現技術ではあると言えるだろう。 正式な意味でのプライベートHRTFは個人の頭部伝達係数であるために、予め特性を確認したスピーカーとマイクによって無響室での測定を行うこととなる。余計な響きのない空間で、単一の方角からの音源から発された音波がどのように変化して鼓膜に届くのかを測定するということになる。360VMEでは測定を行う部屋のスピーカーの個性、部屋の反射などを含めた音響特性、これらが測定したプロファイルに加わることとなる。これまでにも各社より有名スタジオのコントロールルームの音響環境を再現するようなプラグインが登場しているが、これらはプライベートHRTFにあたるデータを持たないため、どうしてもその効果の個人差は大きくなってしまう。360VMEでは、一人ひとり個人のデータを測定するためにプライベートHRTFにあたるデータを持つプロファイルデータの作成が可能となっている。 プライベートHRTFを測定しDAWと連携 それでは、実際の360VMEの測定サービスは、何が行われて何がユーザーへ提供されるのだろうか?まずは測定からご紹介していこう。測定にあたっては、まずは測定者の耳へマイクを装着することとなる。できるだけ鼓膜に近い位置で測定を行うために通称「バネマイク」と呼ばれる特殊な形状のマイクを耳孔に装着する。 マイクを装着し視聴位置に座り、始めにピンクノイズでの音圧の確認が行われる。スピーカーの信号がマイクにどれくらいのボリュームで入力されているのかを確認するということになる。次は測定を行うスピーカーからスイープ音を出力し周波数特性と位相を測定する。更に続けて、リファレンスとするヘッドホンをつけて、ヘッドホンで再生したピンクノイズとスイープを測定する。これにより、ヘッドホンの特性も含めた特性の合わせ込みを行い精度の高い空間再現を行うわけである。 📷こちらに写っているのが、360VME測定用に設計された通称「バネマイク」。このバネのような部分を耳に入れることにより、耳道を塞がずに耳の奥、鼓膜に近い位置での測定を実現している。測定においては、鼓膜にできるだけ近い位置でのデータを取るということが重要なポイント。鼓膜にどのような音が届いているのか?耳の形、耳たぶの形、頭の形など、個人差のある様々な要因により音が変化する様をこのマイクで測定することとなる。360VMEの測定ではスピーカーから出力された音源での測定だけではなく、このマイクを付けたままでヘッドホンの測定も行い精度をさらに高めている。ヘッドホンには個体差があるため、測定に使うヘッドホンは実際に普段から使っているものをお持ちいただくことになる。 測定の作業はここまでとなり、スピーカーからの再生音とヘッドフォンからの再生音、それぞれのデータからプロファイルデータを生成する。ここで生成されたプロファイルデータは、測定サービスを行ったユーザーに提供される360VMEアプリケーションに読み込ませることで、そのデータが利用可能となる。DAWなどの制作ツールと360VMEの接続は、PC内部に用意される仮想オーディオバス360 VME Audio Driverにより接続される。具体的には、DAWのオーディオ出力を360 VME Audio Driverに設定し、360VMEアプリケーションのインプットも360 VME Audio Driverに設定、アウトプットは実際に出力を行いたいオーディオインターフェースを選択するということになる。 このような仕組みにより、DAWから出力されるイマーシブフォーマットのマルチチャンネル出力が、360VMEアプリケーションから測定結果により生成されたプロファイルデータを適用したバイノーラルとして出力される。プライベートHRTFと測定を行ったスタジオのスピーカーや空間、音響特性を含んだ精度の高いバイノーラル環境での作業が可能となるということだ。 このような仕組みのため、測定時のスピーカーセット=制作DAWのアウトプットとする必要がある。そのため、Dolby Atmosの制作向けのスピーカーセットと360 Reality Audio向けのスピーカーセットはそれぞれ別のプロファイルとして測定が必要だ。また、複数のヘッドホンを使い分けたいのであれば、それも別プロファイルとして測定を行う必要がある。ちなみに360VMEの発表と同時にリリースの発表が行われたSONY MDR-MV1ヘッドホンは、360VMEのアプリケーション開発にあたりリファレンスとして使われており、その特性は360VMEアプリケーションのチューニングにも使われているということだ。360VMEサービスの測定を行う際にどのヘッドフォンで測定をしようか迷うようなことがあるのであれば、MDR-MV1を選択するのが一番間違いのない結果が得られることだろう。ただ、他のヘッドホンでも十分な効果を得ることができるので、普段から慣れたヘッドホンがあるのであればそれを使うことは全く問題ない。 ●360 Virtual Mixing Environmentアプリ ※上記画像はベータ版 測定をしたプロファイルデータを読み込ませて実際の処理を行うのがこちらの360 Virtual Mixing Environmentアプリ。画像はベータ版となるため、実際のリリースタイミングでは少し見た目が変わるかもしれないが、プロファイルを読み込ませるだけではなく、各チャンネルのMute / Solo、メーターでの監視などが行えるようになっている。シグナルフロー図からもわかるように、360VME Audio Driverと呼ばれる仮想の内部オーディオバスがこのアプリケーションとともにインストールされ、DAWなどからのマルチスピーカーアウトを360VMEアプリへ接続することとなる。あくまでも仮想的にスピーカー出力をバイノーラル化する技術となるため、スピーカーアウト、レンダリングアウトを360VMEアプリへつなぐということがポイントとなる。具体的には360 WalkMix Creator™️のアウトプット、Dolby Atmos Rendererのアウトプットを接続することとなる。もちろん5.1chやステレオをつなぐことも可能だ。その場合には、その本数分のスピーカーが360VMEの技術によりヘッドホンで再現されることとなる。 📷東京・MIL Studioで測定可能となる代表的なフォーマット。これら以外についても対応可能かどうかは申し込み時にご確認いただきたい。(※Auro 3Dフォーマットの測定には2023年7月現在対応しておりません)また、当初のリリースでは16chが最大のチャンネル数として設定されている。技術的にはさらに多くのチャンネル数を処理することも可能とのことだが、DAW併用時の処理負荷とのバランスが取られている。確かに16chあれば360 WalkMix Creator™️の推奨環境である13chも対応でき、Dolby Atmosであれば9.1.6chまで賄えることになる。43.2chというMIL Studioでの測定となると、さらにチャンネル数を求めてしまいたくなるところだが、一般的なスタジオ環境との互換を考えれば必要十分な内容だと言えるだろう。 日米3拠点で測定サービスを提供 この360VMEサービスにおけるスタジオでの測定は、サービス開始当初は世界で3ヶ所のスタジオでの測定となる。日本では弊社の運営する43.2chのディスクリート再生を実現した完全4π環境を持つMIL Studio。他の2ヶ所のスタジオはアメリカにあり、ロサンゼルスのGOLD-DIGGERSとニューヨークのThe Hit Factoryとなり、新進気鋭のスタジオと老舗スタジオがそれぞれ選ばれた格好だ。音響環境や360VMEという通常のスタジオ運営とは異なるサービスへの賛同を行った3拠点で、この360VMEサービスはまず開始となる。本記事の執筆段階でサービス開始は2023年6月末〜7月上旬、価格はそのプロファイル測定数にもよるが、おおよそ7万円程度からでのスタートを予定しているということだ、本誌が発行されるころにはこれらの情報も正式なものが発表されていることだろう。(※) ※2023.7.13 追記 ・7/13(水)より一般受付開始、8月中旬よりMIL Studioでの測定開始 ・1プロファイル測定:68,000円(税別)+追加の測定 1プロファイルにつき 20,000円(税別) 〜 ・測定可能フォーマット、価格につきましてはこちらのページからご確認ください。https://www.minet.jp/contents/info/360-vme-measurement/ 360VMEサービスがスタートすることで、イマーシブ制作の環境に劇的な変化が訪れるのではないだろうか?ヘッドホンミックスの精度が上がることで、制作環境における制約が減り、作品を作るためのスタートラインがぐっと下がることを期待したい。もちろんスピーカーがある環境をすぐに揃えられるということであればそれが最高のスタートラインではあるが、スピーカーを揃えることに比べたら圧倒的に安価、かつ手軽にMIL Studioの音場、イマーシブのスピーカー環境をヘッドホンに入れて持ち帰ることができる。この画期的なサービスによる制作環境の変化に期待したいところである。   *ProceedMagazine2023号より転載

Music

イマーシブ表現は新たなステージに。Spat Revolution UltimateにWFS(波面合成)アドオンが登場

2017年のリリース以来、プロダクション、ライブサウンド問わず、イマーシブ・オーディオ・プロセッサーとして独自のポジションを確立しているSpat Revolution Ultimateが、WFS(波面合成)による仮想の音源配置に対応しました。WFSは従来のパンニング方式に比べて、特に大きな会場で、より多くのオーディエンスに優れた定位感を提供できると言われています。この記事では、WFSの基本的な考え方をおさらいした上でそのメリットを確認し、またアルゼンチンで行われた大規模フェスティバルでの導入事例も紹介していきます。 FLUX:: / IRCAM Spat Revolution Spat Revolution Ultimate ¥297,000(税込) WFS Add-on option for Spat Revolution Ultimate ¥74,800(税込) 音楽制作やポストプロダクションでは各種DAWと連動させてDolby Atomsなどあらゆるフォーマットに対応したイマーシブ作品の制作に、ライブサウンドではデジタル・コンソールからリモート・コントロール、ライブ会場を取り囲むように配置されたPAスピーカーへの出力をリアルタイムで生成するプロセッサーとして、さまざまなアプリケーションに対応する最も多機能で柔軟性の高い、ソフトウェア・ベースのイマーシブ・オーディオ・プロセッサー。 WFS(波面合成)とは? WFS(Wave Field Synthesis)は、直線上に並べたラウドスピーカーのアレイを用いた音響再生技術で、従来の技術(ステレオ、5.1chサラウンドなど)の限界を取り払う可能性がある技術です。サラウンド・システムは、ステレオの原理に基づいており、一般的に「スイートスポット」と呼ばれる複数のスピーカーに囲まれた中心部の非常に小さなエリアでのみ音響的な錯覚を起こさせ、音がどの方向からやってくるのかを感じさせます。一方、WFSは、リスニングエリアの広い範囲にわたって、与えられたソースの真の物理的特性を再現することを目的としています。この原理は「媒質(=空気)を伝わる音波の伝搬は、波面に沿って配置されたすべての二次的音源を加えることで定式化できる」というもので、Huyghensの原理(1678年)に基づいています。 WFSを実現するためには、あるサウンドのシーンにおいて音源をオブジェクトとして捉え、そのオブジェクトの数量分の位置情報を把握できていることが前提となります。例えば、動画・音声データにおける圧縮方式の標準規格のひとつであるMPEG-4では、WFS再生と互換性のあるオブジェクトベースのサウンドシーン記述が可能になっています。 現実には、図版で見られるように音源が発する波面と同じようにスピーカーを配置することはあまりにも現実的ではありません。そこで、直線上にラウドスピーカーを配置し、各スピーカーから出力される音量とタイミングをコントロールすることで、仮想に配置された音源からの波面を人工的に生成します。 このように音源をスピーカーの向こう側に”配置”することによって、その部屋や会場にいるリスナーは、音源の位置から音が放出されていると認識します。一人のリスナーが部屋の中を歩き回ったとしても、音源は常にそこにいるように感じられるのです。 📷 「媒質(=空気)を伝わる音波の伝搬は、波面に沿って配置されたすべての二次的音源を加えることで定式化できる」という物理的特性をそのままに、波面に沿って二次的音源を配置した際のレイアウトが左図となりますが、このように音源が発する波面と同じようにスピーカーを配置することはあまりにも現実的ではありません。そこで、右図のように直線上に配置したスピーカーから出力される音量とタイミングをコントロールすることで、複数の音源の波面を同時に合成していくのが「WFS(波面合成)」となります。 なぜライブサウンドでWFSが有効なのか? 📷 Alcons Audio LR7による5本のリニアアレイと設置準備の様子 d&b Soundscapeなどラウドスピーカーのメーカーが提供する立体音響プロセッサーにもWFSの方式をベースとしているものが数多くあります。 これまでのサラウンドコンテンツ制作はチャンネルベースで行われ、規定に基づいたスピーカー配置(5.1や7.1など)で、音響的にも調整されたスタジオで素晴らしいサウンドの制作が行われます。しかし、この作品を別の部屋や同じように定義されたラウドスピーカーがない環境で再生すると、チャンネルベースのソリューションは根本的な問題に直面することになります。音色の完全性が失われ、作品全体のリミックスが必要となるわけです。ツアーカンパニーやライブイベントで、チャンネルベースの5.1や7.1のコンテンツを多くのオーディエンスに均等に届けるのは非常に難しいことだと言えるでしょう。 従来のサラウンドとWFSの違いにも記載しましたが、チャンネルベースまたは従来のステレオパンニングから派生したパンニング方式では、複数のスピーカーに囲まれた中心の狭いエリアでのみ、制作者が意図した定位感を感じることができます。例えば、ライブ会場に5.1chの規定通りにラウドスピーカーを配置できたとしても、Ls chのすぐ近くのリスナーにとっては非常に音量感にばらつきのあるサウンドシーンとしてしか認知できません。 WFSを用いた会場の「より多くのオーディエンスに優れた定位感を提供する」というメリット以外に、WFSでは必ずしも会場を円周上に取り囲んでスピーカーを配置する必要が無いという大きなメリットもあります。常に会場の形状、そしてコストの制約を考慮しなければならないライブ会場でのイマーシブ音響のシステムとしては非常に有利な方式と言えます。 📷 イースペック株式会社主催の機材展2022において、国内では初のSpat RevolutionのWFS Optionを使った本格的なデモでの一コマ。サンパール荒川大ホールに常設されている照明用バトンに、小型のラインアレイAlconsAudio LR7を5組均等間隔に吊り、あたかもステージ上に演奏者がいるかのような音場を実現していた。 Spat Revolutionで行うWFS再生 📷 Spat Revolutionでオーケストラの編成をWFSアレイの向こう側に仮想配置。 コンパクトで軽量なラインアレイであれば、照明用のバトンへ直線上に5アレイを吊ることも可能かもしれません。Spat RevolutionでWFS再生を行うためには最小で5本以上の同じ特性を持ったラウドスピーカーを均等間隔で配置する必要があります。スピーカーの数が増え、スピーカーとスピーカーの間隔が小さくなればなるほど、定位感の再現性が高まります。 Spat Revolutionでは配置するスピーカーの周波数特性や放射特性を定義する項目がありません。だからこそポイントソースであってもラインアレイであってもスピーカーに制約が無いという大きなメリットがあるのですが、そのスピーカーの放射角度によって最適な配置も変わってきますし、聴こえ方にも影響します。指向角度を考慮してSpat Revolution内で設定を行い、実際に設置を行った後に微調整が可能な6つのパラメーターが備わっているので、最後のチューニングは音を聴きながら行うのが現実的でしょう。 そのひとつとなるGain Scalingというパラメーターでは、すべてのソースに対して計算されたゲインをスケーリングすることができます。これは例えばフロントフィルなどリスナーに近いWFS直線アレイ配置の場合に有効で、この割合を減らすとラウドスピーカー・ラインの近くに座っている観客のために、1オブジェクトのソースをアレイ全体から、より多くのラウドスピーカーを使って鳴らすことができます。 Spat Revolutionで構成できるWFSアレイは1本だけではありません。会場を取り囲むように4方向に配置すれば、オブジェクトの可動範囲が前後左右の全方位に広がります。またWFSアレイを上下に並行に増やしていくことも可能で、縦方向の定位表現を加えることも可能です。このように映像や演目と音がシンクロナイズするような、かなり大規模なサウンドシステムのデザインにも対応できることがわかります。 📷 会場を取り囲む4つのWFSアレイ。 VendimiaでのSPAT WFS Option 📷 Vendimia 2022 – Mendoza Argentina アルゼンチンのメンドーサで開催される収穫祭「Vendimia」は、ブドウ栽培の業界おいて世界で最も重要なイベントのひとつです。2022年はパンデミック後で初の開催とあって、音楽やエンターテインメントにも大きな期待が寄せられていました。 Vendimiaフェスティバルのサウンドシステム設計を担当し、地元アルゼンチンでシステム・インテグレーションとサウンドシステムのレンタル会社Wanzo Produccionesを経営するSebastian Wanzo氏に今回の会場でのシステム設計について伺うことができました。 Wanzo Producciones / Sebastian Wanzo 氏 Wanzo Producciones 「今年のフェスティバルのサウンドデザイナーとして、様々なステージでのオーディオビジュアル効果をサポートし、臨場感を提供するためにイマーシブ・オーディオプロセッシング・システムの導入を提案しました。」とSebastian Wanzo氏は語ります。 この会場でイマーシブ・オーディオ・プロセッシングを実際に行なっていたのが、リリースされたばかりのWFSアドオン・オプションを備えたSPAT Revolution Ultimateです。Vasco HegoburuとWanzo Productionsが提供する4台のAvid Venue S6LコンソールとMerino Productionsが提供するClair Brothersのシステムに介在し、Vendimiaフェスティバル全体のイマーシブ・システムの核となり、プロセシングを行なっていました。 「横幅が80mを超えるステージで、フロントフィルより前にはスピーカーを配置することができないため、Clair Brothersのスピーカーで6.1chのシステムを定義し、設置しました。」 システムのルーティングとコンフィギュレーションはハイブリッド的なセットアップで、1台のS6Lはオーケストラ専用でステレオミックス用、もう1台のS6Lは全てのエフェクトとエフェクトのオートメーション、そして全てのサウンドタワーにイマーシブのフィードを供給していました。3台目のS6Lはオーケストラのモニター卓として、4台目のS6Lは配信用のミックスに使われました。 「2019年にISSP (Immersive Sound System Panning)ソフトウェアを開発したアルゼンチンのIanina CanalisとDB Technologiesのスピーカーでライブサウンドにおけるイマーシブサウンドを体験した時に、我々の業界の未来がこの方向に進んでいることを実感しました。パンデミック以前は、空港やスタジアムのオープニングセレモニーなど、従来のマルチチャンネル・オーディオ・システムで多くの作品を制作していましたが、パンデミックの最中には、ストリーミングによるショーや、観客の少ないライブショーが増えたため、SPAT Revolutionなどのイマーシブ・オーディオ・プロセッサーの経験値を高めていくことになりました。そして次第に、SPAT Revolutionの無限の可能性を確信するようになったのです。」 フェスティバルにおけるシステム設計は、異なるジャンルの音楽が演奏されること、広い面積をカバーするためにスピーカー・クラスタ間の距離が大きく、クラスタより客席側にはスピーカーの設置が不可能なため、Wanzo氏と彼のチームにとってはとても大きな挑戦でした。 「SPAT Revolutionが提供する様々なパンニング方式を試してきましたが、最終的にライブで最も使用したのはWFS(波面合成)でした。我々は、このWFSオプションのベータテスター・チームに早くから参加しており、Vendimiaフェスティバルのようにクラスター間の距離が離れた会場でも、非常にうまく機能することがわかっていました。また、SPAT Revolutionの芸術的な表現の可能性をより深く理解することで、このフェスティバルでは印象的で一貫した結果を得ることができました。」 Vendimiaフェスティバルのシステムでは、4台のS6Lがそれぞれ異なる役割を担当しており、サウンドデザインとイマーシブシステムにおけるWanzo氏の経験により、全てが相互に補完しあい、連動するシステムを作り上げました。 「システム提案の段階では、Spat Revolutionで9.1.4chのシステムを使った一連のデモンストレーションを行い、プロデューサー、ミュージシャン、技術関係者に実際に音を聴いてもらい、意見をもらう機会を設けました。全ての関係者から好意的な反応をもらい、Vendimiaフェスティバルの大規模なシステムの準備に着手しました。SPAT RevolutionをAvid S6Lサーフェスでコントロールできることが、ここでは非常に重要だったのです。」 Wanzo氏のイマーシブオーディオによるサウンドデザインの独創的なアプローチとVendimiaのセットアップについて、ライブサウンドの未来とライブ・プロダクションにおけるイマーシブオーディオの優位性についてもこうコメントしています。 「厳密に技術的な観点から言うと、カバレージとオーバーラップを得る最良の選択は、より多くのスピーカーシステムを使用することです。これにより、スピーカーのサイズを小さくして、システムのヘッドルームを大きくすることができ、従来のステレオでのミキシングのように、ソースを意図する場所に定位させるために、周波数スペクトラムの中で各ソースにイコライザーを多用する必要がなくなります。」 「ライブサウンドにおけるイマーシブの創造的な可能性は無限であり、これまでにないサウンドスケープの再現と創造が現実のものになっています。これは新しい道のりの始まりであり、Vendimiaフェスティバルにおけるイマーシブ・オーディオ・システムはこのイベントの傑出した演出の一つになったと考えています。」 「このプロジェクトを支えてくれたすべての人たち、特にずっとサポートしてくれたFLUX:: Immersiveチームのスタッフには本当に感謝しています。今後も素晴らしいプロジェクトが待っていますし、SPAT Revolutionは進化を遂げながら、間違いなく私たちのメインツールとして使われ続けるでしょう。」 この記事では主に波面合成を実現するSpat Revolution WFS Optionについて紹介してきましたが、ここ日本で最初にSpat Revolutionが導入されたのは、DAW内では編集が非常に困難だった22.2 chサラウンドに対応したコンテンツの制作がきっかけでした。入出力ともアンビソニックス、バイノーラル、5.1、7.1、Dolby Atomosなど、事実上あらゆるサラウンド・フォーマットに対応できるSpat Revolutionは、制作/ライブの垣根を越えて今後の活用が期待されます。   *ProceedMagazine2022-2023号より転載

Music

Nugen Audio Halo Vision クイックレビュー ~ Pro ToolsとDolby Atmos Render での活用方法も紹介 ~

昨年10月にNuge Audioよりリリースされた新プラグイン、Halo Vision。"Halo"と言えば同社が既にリリースしている、Halo Upmix/Downmixといった製品を思い浮かべる方もいるかもしれませんね。それらはステレオ〜サラウンド〜イマーシブといったフォーマット間のアップミックス/ダウンミックスを行うためのツールでしたが、今回登場したHalo Visonは、イマーシブサラウンド編集に特化した強力なアナライザーです。 今回、NUGEN Audioはこの製品の開発をスタートするにあたり、「イマーシブ・サウンドを視覚的に表示するとしたら、何が求められているのか」を正確に把握するため、多くのエンジニアを対象に詳細な市場調査を行ったとのこと。その結果生まれたのがこのHalo Visionということで期待大です。本記事では、その活用方法を考察してみたいと思います。 ◎自在にカスタマイズ表示可能な7種類のビュー 表示可能な項目は以下の7種類。何だかあまり聞き慣れない単語が並んでいますが、1つずつ見ていきましょう。 - コリレーション・マトリックス - Correlation Matrix - コリレーション・ウェブ - Correlation Web - 周波数ヘイズ - Frequency Haze - ロケーションヘイズ - Location Haze - スペクトル - Spectrum - トゥルーピーク - True Peak - タイムコード - Timecode ◎コリレーションビューで各チャンネルの位相の相関を可視化する 他のプラグインではあまり見かけない表示がこのコリレーション・ウェブとコリレーション・マトリックス の機能だと思います。まず、蜘蛛の巣状のコリレーション・ウェブですが、これはシンプルに位相が反相関状態になっているチャンネル間の線が点灯し、判別できるようになっています。コリレーション・マトリックスはそれをさらに詳しくしたようなもので、各チャンネル間の位相がどのような関係にあるのか、分かりやすく三色で色分けされるようになっています。具体的には、位相の相関がニュートラルな時は黄色、相関状態の時は緑色、反相関状態の時は赤色になります。 メーカーの説明によると、これらはコンテクスト相関、つまり、単純な相関を示しているわけではなく、チャンネル間のレベル差を考慮し、問題となりそうな相関関係のみを洗い出してくれているとのこと。そしてそのしきい値は標準の設定に加え、自分で設定することも可能です。 ■コリレーション・ウェブ - Correlation Web "相関ウェブは、各スピーカー間の接続線でチャンネルのネットワークを表示します。2つのチャンネル間の位相関係が反相関になると、対応する線が赤い線で結ばれます。" ■コリレーション・マトリックス - Correlation Matrix ”コリレーション・マトリックスは、各チャンネル間の位相関係を色別に表示します。より詳細な分析には大きなアーチ型メーターを使用し、ユーザー定義の閾値で反相関の警告を表示します。” ”これらの表示では、デフォルトでコンテクスト相関が使用されます。一般的な相関メーターの計算方法では、2つの信号が非常に反相関しているように見えることがありますが、一方の信号が他方の信号より非常に大きかったり、小さかったりする場合は、それらを同時に混ぜ合わせても特に問題ない場合があります。Contextual Correlationは、このようなレベル差を補正し、問題となりそうな相関関係のみを強調します。” 任意のチャンネルを選択すると関係する線がハイライトされる コリレーション・ウェブの設定画面 コリレーション・マトリックスの設定画面 ◎ヘイズビューでサラウンドフィールド内の周波数とエネルギーを可視化する "Haze "が日本語で「もや」や、「かすみ」を表す通り、サラウンドフィールド内の周波数分布とエネルギー分布を細かい光の粒子で、可視化することができます。これは同社のHalo Upmix/Downmixを触ったことがある方にはおなじみの表示ですね。なんだかんだ言っても、最終判断はやはり自分の耳で行うことになるとは思いますが、こうしてメーターで機械的に視覚化されることで、聴覚上の感覚と照らし合わせて確認することができるようになるというのは、非常に意味があるのではないでしょうか。 ■周波数ヘイズ - Frequency Haze "円形の周波数ヘイズは、低周波数を中心に、高周波数を外周に配置し、サラウンドフィールド全体の周波数分布を表示し、一般的なスピーカーの位置にチャンネルラベルを表示します。" ■ロケーションヘイズ - Location Haze "ロケーション・ヘイズは、オーディオの知覚位置を視覚化するもので、サラウンド・フィールド全体のエネルギー分布を表示し、明るい部分は「エネルギー」が増大していることを示します。" ◎スペクトル/トゥルーピーク/タイムコード 他の表示については普段からDAWをお使いの方にはお馴染みの機能かもしれませんが、周波数帯域ごとの音量を確認できるスペクトル、サンプルピークメーターでは検出できないアナログ波形のピークを検出するトゥルーピーク、そしてタイムコードの表示が可能となっています。表示色のカスタマイズもでき、非常に見やすいUI設計となっています。 ■スペクトル - Spectrum "Combined' モードでは、全てのチャンネルの FFT レベル対周波数グラフを 1 つのスペクトルで表示します。 Groups' モードでは、各チャンネルをいくつかのスペクトラムグループごとに整理することができます。" ■トゥルーピーク - True Peak "True Peakビューは、各チャンネルのTrue Peak dBレベルメーターを表示します。" ■タイムコード - Timecode "Timecodeビューは、現在のホスト/DAWの再生位置に基づいたタイムコードの読み出しを表示します。" スペクトラム表示も細かく設定が可能 チャンネルグループの設定も自由自在 タイムコードは時:分:秒:フレームごとに色の変更が可能 なんと176色から選択可能!色にこだわりがあるという方も安心 ◎用途 ・7.1.2までのサラウンドおよびイマーシブミックスの解析 ・位相相関のチェック ・空間情報の視覚化 ・異なるチャンネル・フォーマットでのミックスの確認 ・慣れないスタジオや音響特性が好ましくない部屋でのミキシング ◎Dolby Atmos制作時の活用方法 Pro Tools 2022.9からの新機能Aux I/O及び Pro Tools Audio Bridgeを活用することで、Dolby Atmos Rendererからの出力をシンプルにPro Tools内に戻すことが可能となりました。これを活用してDolby Atmos Rendererから出力された7.1.2chをPro Tools内に立ち上げ、そこにHalo Visionをインサートすることでメータリングができるようになる、というわけですね。 Aux I/Oの設定方法はAvid Japanが公開しているこちらの日本語Tips動画よりご確認ください。 関連リンク: Rock oN Line eStoreで購入: https://store.miroc.co.jp/product/80930 国内代理店紹介ページ: https://www.minet.jp/brand/nugen-audio/halo-vision/ Nugen Audio紹介ページ: https://nugenaudio.com/halovision/ イマーシブサラウンド制作システム構築のご相談は、実績豊富なROCK ON PROまで。下記コンタクトフォームよりお気軽にお問い合わせください。

Solution

ファシリティの効率的活用、Avid NEXIS | EDGE

コロナ禍になり早くも3年が過ぎようとしています。その最中でも、メーカー各社はリモートワークに対応するために様々なワークフローを紹介していますが、Avidでも今年の始めに新たにリモートビデオ編集のフローを実現するシステムNEXIS EDGEを発表し、満を辞して今秋リリースされました。 クラウド?オンプレ? Avidではこれまでもリモートでのビデオ編集やプレビューをする製品が各種あり、ポストプロダクションのニーズに合わせて、システムを構築できるようにラインナップも取り揃えられています。例えば、Avid Edit On Demandでは、ビデオ編集ソフトMedia ComposerやNEXISストレージをすべてクラウド上に展開し、仮想のポストプロダクションを作ることが可能です。クラウドでの展開は時間や場所を問わず利用できること、使用するソフトウェアの数やストレージの容量の増減を簡単に週・月・年単位で設定し、契約することができ、イニシャルコストがほとんどないことがメリットと言えます。 今回紹介するAvid NEXIS EDGEは先で述べたEdit On Demandのクラウド構築とは異なり、サーバー購入の初期投資が必要になります。クラウド化の進みとともに、CAPEX(設備投資)からOPEX(事業運営費)へという言葉が最近よくささやかれ、今どきオンプレのサーバーは流行らないのでは?という見方はあるかもしれませんが、ポストプロダクション業務としてビデオ編集をする上で、すべてをクラウド上で編集することが必ずしも正解だとは言い切れません。それは、映像データの適切な解像度での再生、正確な色や音のモニタリングに対してクラウド上のシステムではできないこともあるからです。 Avid NEXIS EDGEは、会社内にサーバーを置くオンプレミスでのメディアサーバーシステムとなります。Avid NEXISストレージサーバーを軸にしたシステムとなり、メディアサーバーに加えてWindowsサーバーを追加します。ソフトウェアとしては、Media Composer Enterpriseが最低1ライセンス必要になります。Media Composer EnterpriseライセンスはDP(Distributed Processing)ライセンスが含まれており、プロキシを作成するために使用されます。DPは日本語では分散レンダリングと言われ、ネットワーク上にあるひとつまたはそれ以上のワークステーションを使用して、レンダリングやトランスコード、コンソリデートといったメディア作成の処理を行うことで、編集システムのCPUを使用せずに時間のかかるプロセスを外部で行うことができる機能です。 NEXIS EDGEが持つメリット 📷 NEXIS EDGE Webブラウザのユーザーインターフェース 素材の検索と編集 NEXIS EDGEの特徴は大きく分けて2つあります。1つ目は、NEXIS環境において社内のLAN環境と、汎用のインターネット回線を用いるリモートアクセス機能を簡単に切り替えできることです。つまり、遠隔地にいてもオンプレにあるNEXISサーバにアクセスすることができ、サーバー内にあるシーケンス、ビン、クリップを閲覧、再生、編集することができるのです。クラウドサービスを使用しなくてもクラウドと似た環境を構築することができ、メディアを様々な場所にコピーして分散させずに、オリジナルのメディアを1つの場所に置いて使うことができます。 2つ目は、高解像度メディアとそこから生成されたワーク用のプロキシメディアのメタデータが完全に一致して作られることです。そのため高画質のクリップを用いて編集をしても、プロキシメディアで編集をしても、シーケンスにはどちらのメディアも完全にリンクしており、再生ボタンの切り替えで再生させたいメディアを簡単に選ぶことができます。このシステムでプロキシを作成し、使用することの優位性がいくつかあります。汎用のインターネット回線を介して使用できることがその一つです。そしてプロキシメディアはデータ量も少なくダウンロードするにも時間がかからないため、ダウンロードをしたメディアを使用することができます。いったんメディアをコピーしてしまえば、その後インターネットを接続していなくても、ダウンロードをしたメディアで編集をすることができ、その編集されたビンやシーケンスは、ネットワークのある環境に戻せば、NEXISサーバー内にあるメディアにすぐにリンクすることができます。また、プロキシメディアの優位性はリモート環境で使用することだけではありません。LAN環境でもそのメディアを使うことで、ネットワークの帯域を節約することができます。 ストレージ内のメディアにアクセス ご自身が社内ではない場所にいる場合、社内にあるNEXISメディアサーバーへアクセスするには通常のNEXISクライアントのリモート機能を使い、アクセス権で管理されたワークスペースをマウントします。Media Composerはプロジェクトの作成画面で、Remote Avid NEXISにチェックを入れて起動します。 📷 NEXISへのリモートアクセス ビンに表示されているクリップは、プロキシメディアがあるクリップなのかどうかが一目で分かります。プロキシメディアがない場合には、メディア作成権のあるユーザーがMedia Composerからプロキシメディアを生成させることもできます。プロキシの生成は前述したDPが機能するPCで行うため、Media Composerで作業をしているエディターは編集作業をそのまま続けることができ、プロキシが作成された順にそのメディアを使うことができます。この分散レンダリングは、バックグラウンドでレンダリングを行うDP Workerと呼ばれるPCの数で、プロキシ生成やトランスコード等のタスクを分けることができます。そのためDP Workerの数が多ければ処理も早くなります。また、スタジオ内にあるMedia Composerが使用されていなければ、そのシステムもDP Workerとして使うこともできます。 📷 分散レンダリングでプロキシを作成するメニュー  リモートで接続したMedia ComposerからNEXISストレージ上のメディアを再生するときは、そのメディアの解像度を選択します。NEXISストレージ上にあるクリップには、高画質メディアとプロキシメディアの2つのメディアがリンクされており、Media Composerでどちらのメディアを再生するかを選択することができるため、NEXISストレージに接続されている環境に合わせてメディアを再生できます。 📷 再生のための解像度の選択 みんなでコラボ NEXIS EDGEへのWebアクセスツールでは、クリップやビンへのアクセスはもちろんのこと、簡単なビデオ編集、クリップまたはシーケンスへマーカーやコメントなどを付ける機能があります。アシスタントからプロデューサーまでコンテンツに関わるすべての人々が、簡単な操作で編集作業を効率的に、そして円滑に共有することができます。一方、そのためにメディアの管理にはいっそう気を使わなければなりませんが、そんなときにもNEXIS EDGEではビンロックの機能によるシーケンスやクリップの保護、視聴や編集機能の有無など、ユーザー単位でシステムの機能を制限することができます。 さらに、NEXIS EDGEのPhonetic Indexオプションを使用することで、クリップ内の音声トラックからのキーワード検索をすることができ、素材クリップとそのキーワード箇所を素早く見つけることができます。この機能はWebクライアントでも、Adobe Premiere Proクライアントでも利用することができます。 SRT対応で機能アップ、Media Composer 2022 📷 Media Composerユーザーインターフェース クリップアイコンがオレンジ表示になっている時はプロキシメディアがリンクされている。 今年になり5Gが本格的に普及し、汎用のインターネット回線を使ってのワークフローは今後も増えていくことが期待されます。Media Composerはバージョン2022.4でSRT(Secure Reliable Transport)に対応しました。SRTは以前の本誌でも何回かご紹介したことがありますが、マルチメディア伝送のプロトコルです。2012年にカナダに本社を置くHaivision社によって開発されました。非常に強力な暗号技術を採用し、高い安全性とパケットロスのリカバリ、高画質であることが特徴で、2017年にオープンソース化され、同時に組織化されたSRT Allianceによる推進のもと、今では世界の多様なメーカーによって採用・開発・実装が行われています。コロナ禍で最初は戸惑っていたWeb会議も日常的になりましたが、環境によって回線速度が異なるため、そういったツールでの画質や音質は最低限に抑える必要があり、とてもリアルタイムでのプレビューチェック向きとは言えません。それを回避するためにYouTubeなどを使用することもありますが、設定ミスから意図せず動画が公開されてしまうというリスクはなくなりません。 📷 SRTの設定画面 そういった問題を解決できるのがMedia ComposerでのSRT送信です。Media Composerは内部でSRTのソフトウェアエンコードを行い、リアルタイムでインタネット越しにタイムラインを送信します。SRTを送信するにはMedia Composer内のH/Wボタンから設定を行い、シーケンスを再生するだけです。それを受け取るには、SRTデコーダーを備えたアプリケーションやハードウェアが必要になりますが、フリーのHaivision Playerや VLC Player等を使っても受信することが可能です。そのため、インターネット回線さえあればMedia ComposerのタイムラインをSRTでプレビューできます。例えば、遠方のクライアントに対してプレビューをする時など、前もってファイル転送サービスでファイルを送ったり、YouTubeの限定公開を使うためにファイルをアップロードしたりすることなく、ZoomなどのWeb会議システムで会議をしつつ、タイムラインをプレビューすることができます。そして、プレビュー中に直しがあってもファイルを書き出し直し、そのファイルのアップロードやダウンロードをし直すことなく、まるで編集室で立ち会っているかのようなコニュニケーションを取ることが可能です。 また、10月にリリースされたMedia Composer 2022.10では、Multiplex-IO機能が搭載されました。この機能は、シーケンスをスタジオでモニタリングしながら、同時にSRTやNDIをストリーミングさせることができるため、以前のようにどちらかに接続先を切り替える必要がなくなります。 より良い作品を作ることに必要とされるのが「どんな作品を作るのかという共通の認識」を持つことだとしたら、一番大切なのはコミュニケーションです。スタジオでの立ち合い編集などで時間を共有させてのコミュニケーションも大事ですが、ライフスタイルの変化によって場所も時間も共有できない時には、それを可能にするツールを使ってみてはどうでしょう。NEXIS Edgeはリモート・ビデオ編集を可能にする製品ではありますが、単に在宅作業を促進するためのものではありません。この製品はそう簡単には増やせない編集室の代わりに、場所を選ばない方法で編集作業を可能にするものなのです。   *ProceedMagazine2022-2023号より転載

Media

IP映像伝送規格 NDI®︎ + SRTで実現する!〜高品質、低遅延、利便性、3拍子揃った映像伝送を考察〜

汎用のインターネットを通じて高品質な映像信号の送受信が行える規格が登場し、InterBEEをはじめとする昨今の放送機器展示会でも大きな注目を集めている。例えば、これまで弊誌でも紹介してきたNDIでは、昨夏にリリースされたNDI 5より新たにNDI Bridge機能が追加され、2拠点間をインターネット越しにNDI接続することが可能となった。今回新たにご紹介するのはSRT = Secure Reliable Transport と呼ばれるプロトコルだ。その名の通り、安全(Secure)で、信頼性がある(Reliable)、伝送(Transport)ができることをその特徴とする。本稿では、今後ますます普及が見込まれる2つの規格の特徴についてご紹介するとともに、今年3月に同テーマで開催されたウェビナーのレポートをお届けする。 同一ネットワーク内で即座に接続確立 利便性のNDI まずはNDIの特徴をあらためて確認しておこう。NDIとは Network Device Interface(ネットワーク・デバイス・インターフェース)の略称で、その名の通り、ネットワークで接続されたデバイス間で映像や音声をはじめとする様々な信号を送受信可能とする通信規格の一種だ。2015年9月のIBC Showにて米国NewTek社により発表されて以降、1年〜2年のスパンで精力的にメジャーアップデートが行われており、2022年現在は昨年6月に発表されたNDI 5が最新版となっている。このバージョンより、待望されていたインターネットを超えてのNDI接続を可能とするNDI Bridge機能が実装され、その裾野は着実に広がりを見せている。 SMPTE ST-2110が非圧縮映像信号のリアルタイム伝送を目的として策定されたのに対し、NDIは圧縮信号の低遅延 ・高効率伝送を前提とし、利便性を重視したような設計となっているのが大きな特徴だ。具体的には、例えば1080i 59.94のHD信号であれば100Mbit毎秒まで圧縮して伝送することにより、一般的なLANケーブル(ギガビットイーサネットケーブル)でも複数ストリームの送受信ができるというメリットを実現している。当然ながら10Gbイーサネットケーブルを使用すれば、より多くのストリームの送受信も可能だ。 NDIには、大きく分けると2つのバージョンがあり、スタンダードな"NDI"(Full NDI、Full Bandwith NDIとも呼ばれる)と、より高圧縮なコーデックを用いる"NDI | HX"というものが存在する。前者のFull NDIではSpeedHQと呼ばれるMPEG-2と似たような圧縮方式を採用しており、ロスレスに近い高品質ながら1フレーム以下の超低遅延な伝送が可能なため、海外では既にスポーツ中継などの放送現場で活用が始まっている。このNDI向けのソフトウェア開発キット(SDK)はオンラインで公開されており、個人の開発者でもロイヤリティフリーで使用することができる。 一方、後者のNDI | HXは、MPEG-2の2倍の圧縮率をもつH.264や、さらにその2倍の圧縮率をもつH.265といった圧縮方式を採用し、無線LANなど比較的帯域が狭いネットワークで安定した伝送を行うのに向いている。対応のスマートフォンアプリなども数多くリリースされており、スマホカメラの映像やスクリーンキャプチャーをケーブルレスで他のデバイスに伝送できる点が非常に便利だ。こちらのNDI | HXの使用に関しては、現在有償のライセンスが必要となっている。ちなみに、この"HX"というのはHigh Efficiency (高効率)を意味するそうだ。 また、NDIの利便性向上に一役買っている機能として、デバイス間のコネクション確立時に使用されているBonjour(ボンジュール)という方式がある。これは、あるネットワーク内にデバイスが接続された際、自身のサービスやホスト名を同一ネットワーク内にマルチキャストすることで、特に複雑な設定を行わなくとも他のデバイスからの認識を可能とする、Apple社開発・提供のテクノロジーだ。同じくBonjourを採用しているDante対応製品に触れたことがある人はそのイメージがつくだろう。 通常のDNS = Domain Name System においては、例えばDNSサーバなどの、ドメイン名とIPアドレスを変換する仕組みを提供するサーバーが必要となるが、このBonjourにおいては、mDNS = multicast DNSという方式を用いることで、デバイス同士の通信のみでホスト名の解決を行うことが可能となる。仮に、映像スイッチャーソフト等から、ホスト名ではなくデバイスのIPアドレスしか見ることができなかったらどうなるだろうか。「192.168.〇〇.〇〇〜」という数字がずらっと羅列されていても、それがどのデバイスか瞬時に把握することは困難を極めるだろう。そうではなく、「yamadataro-no-macbook.local」「yamadataro-no-iphone.local」といったホスト名が表示されることにより、我々人間にとって分かりやすく、使い勝手の良いインターフェースが実現されている。 やや話が逸れてしまったが、簡潔にまとめるとNDIの魅力は気軽に伝送チャンネルを増やせる柔軟性と、ネットワークに繋げばすぐホスト名が見えてくるという扱いやすさにある。SDKがオープンになっていることにより、vMixやWirecast、OBSなどの配信ソフトや、Media ComposerやDaVinci Resolve、Final Cut Proといった映像編集ソフトでも採用され、数あるVoIP規格の中でもまさに筆頭格とも呼べる勢いで放送・配信・映像制作現場での普及が進んでいる。弊社LUSH HUBの配信システムでも、NewTek TriCasterを中心としたNDIネットワークを構築しているが、従来のSDIやHDMIケーブルと比べ、LANケーブルは長尺でも取り回しが容易である点や、スマホカメラの映像を無線LANでスイッチャーに入力できる点は非常に便利だと感じており、個人的にもNDI導入を積極的にアピールしたいポイントとなっている。 セキュアかつ高品質低遅延な映像伝送を低コストで実現 品質重視ならSRT SRTもNDI同様のマルチメディア伝送プロトコルの一種で、2012年にカナダに本拠地を置くHaivision社によって開発、翌2013年のIBC Showで初めて一般向けのデモンストレーションが行われた。SRTはSecure Reliable Transport (セキュア・リライアブル・トランスポート)の略称で、その名の通り、より安全(Secure)で、信頼性がある(Reliable)、伝送(Transport)ができることをその特徴とする。それまで遠隔地へ安全に高画質な映像伝送を行うための手段としては、衛星通信やダークファイバー(専用回線)を用いた方法が一般的だったが、伝送コストが高額となることが課題だった。その課題を解決するため、「汎用のインターネット回線を使ってセキュアで高品質な映像伝送したい」というニーズのもとにSRTは誕生した。2017年よりGitHubにてオープンソース化、同時期にSRT Allianceがスタートし、現在ではMicrosoftやTelestream、AVIDを含む500社を超えるメーカーがその開発に参加している。 それではSRTの技術的特徴を具体的に見ていこう。まず安全性に関する技術については、AES(Advanced Encryption Standard)と呼ばれる、世界各国の政府機関などでも採用されている非常に強力な暗号化技術を採用している。SRTの場合AES-128、AES-256に対応しており、付随する数字は暗号化に用いる鍵の長さのbit数を意味している。一般的な暗号化技術において、この鍵長が長いほど第三者による暗号解読が困難になる。仮にAES-256を使用した場合、2の256乗、10進数にしておよそ77桁にも及ぶということを考えると、AES暗号化の突破がいかに困難なことか、その片鱗をご理解いただけるだろう。この強力な暗号化が、通信だけでなく、伝送しているコンテンツそのものに対しても適用されるため、万が一通信パケットを盗聴されたとしても、その中身までは決して解読されることはないだろう。 信頼性については、パケットロスに対するリカバリ機能を備えていることにより、不安定なネットワーク状況下でもほとんどコマ落ちすることのない高品質な映像伝送を実現している。一体なぜそのようなことが出来るのか?その秘密は、低遅延な通信方式であるUDP(User Datagram Protocol)と、データの誤りを制御するためのARQ(Automatic Repeat reQuest [またはQuery] )と呼ばれる機能を組み合わせるという工夫にある。この工夫についてより理解を深めるには、まずはTCP/IPモデルにおけるトランスポート層に位置するプロトコル、TCP(Transmission Control Protocol)とUDPの違いについて触れておく必要がある。 ●TCP、UDPって何? TCPはコネクション型と呼ばれるプロトコルで、データ受信後にACK(アック)という確認応答を送信元に返すことで通信の信頼性を保証する仕組みになっている。そのような確認応答を行なったり、データが届かなかった場合に再送処理を行なったりするため、通信経路の品質が低い場合には比較的大きな遅延が生じるというデメリットがあるが、電子メールなど確実性が重視される用途で主に使われている。ちなみに一昔前まで普及していたAdobe Flash Playerでは、このTCPをベースとしたRTMP(Real Time Messaging Protocol)と呼ばれる通信方式が採用されている。 対するUDPはコネクションレス型のプロトコルで、TCPのように確認応答を返さず、データの再送も行わないため通信効率の面ではこちらが有利だ。いわばデータを通信相手に送りっぱなしにするようなイメージになる。パケットヘッダのサイズを比較しても、TCPは20バイト使うのに対し、UDPは8バイトと小さいため、そもそも送受信する情報量が少ない。ただし、通信経路の品質が低い場合には遅延こそ少なかれ、伝送するコンテンツ自体の品質の劣化が避けられないという欠点がある。そうした理由で、例えばライブ配信やIP電話やなど、確実性よりもリアルタイム性が重視される用途で使われることが多い。 簡単に言うとSRTでは即時性に優れたUDPをベースとしながらも、信頼性に優れたTCPのようなデータの再送要求の仕組みを上位層のアプリケーション層で上手く取り入れている。それが前述したARQである。一般的に、こうしたメディア伝送においては、送り手側となるエンコーダーと受け手側となるデコーダーのそれぞれに多少のバッファーが設けてあり、受け手側はそのバッファー内でパケットの並べ替えなどの処理を行った後、デコーダーにパケットを転送している。 従来型のRTMPでは下りのトラフィック帯域の低下を防ぐため、パケットを受け取るたびにACKを送り返すのではなく、シーケンス、つまり一連のパケットのまとまり毎に応答確認を行う。もしそのシーケンス内でパケットロスが生じていた場合、再度そのシーケンス丸ごと再送が必要となり、その分のタイムロスが生じてしまう。一方、SRTでは受け手側でパケットロスが判明した時点で、その特定のパケットのみを即座に送り手側に再送要求することができる。これが高画質低遅延を実現するための重要なポイントだ。無事に再送されてきたパケットはバッファー内で適切に再配置された後にデコード処理されるため、オリジナルの品質に極めて近い綺麗な映像を受信できるという仕組みだ。ちなみにこのバッファーのサイズは数ミリ秒〜数十秒の範囲で設定できるようになっているため、通信状況に合わせて変更が可能だ。 また、RTMPとSRTのもう一つの大きな違いはパケットヘッダーにタイムスタンプを持てるかどうかである。RTMPでは個々のパケット毎にはタイムスタンプが押されていないため、受信した各パケットを一定の時間内にデコーダーに転送する必要がある。 その際、不安定になりがちなビットレートを安定化させるために、ある程度のバッファを設定する必要が生じる。一方SRTでは、個々のパケット毎に高精度なタイムスタンプが押されているため、受信側で本来の信号特性そのものを再現できるようになる。これにより、バッファリングに要する時間が劇的に短縮されるというメリットもある。 まとめると、SRTの魅力は、従来の衛星通信や専用回線での通信と同レベルの、安全性が高く、極めて高品質な映像伝送を比較的低コストで実現できる点にある。活用が考えられるケースとしては、例えばテレビ番組の生中継などで、「汎用のビデオ会議ツールなどでは満足のいく品質が得られない、かといって衛星通信や専用回線ほどの大掛かりなシステムを構築する予算はない」といった状況に最適なソリューションではないだろうか。 Webiner Report !! 〜2拠点間を実際にSRTで接続しながら生配信するという初の試み〜 今年3月初旬、ROCK ON PRO とアスク・エムイーの共催にてウェビナー『NDI & SRT を活用した映像伝送 〜SRTで2拠点間をつないでみよう!〜』が開催された。本ウェビナーでは、渋谷区にある弊社デモスペース「LUSH HUB」と千代田区のアスク・エムイーショールーム「エースタ」間を、オンライン会議ツールZOOMおよびAJA社の高性能マルチチャンネルビデオエンコーダー BRIDGELIVEを使ってSRT接続し、両拠点からそれぞれのYou Tubeチャンネルで生配信するという、おそらく国内ウェビナー史上初となる試みが行われた。ウェビナー内ではNDIとSRTの概要説明のほか、インターネット越しのNDI接続を可能とするNDI Bridge や、NDIネットワーク内で音声のみの伝送を可能とするNDI Audio Direct の動作も紹介。それぞれの規格がどのような場面での使用に適しているか、またそれらを組み合わせることで生まれる利点についてのプレゼンテーションが行われた。 ROCK ON PRO & アスク・エムイー共催 NDI & SRT を活用した映像伝送 〜SRTで2拠点間をつないでみよう!〜 配信日:3月2日 (水) 16時〜17時 株式会社アスク アスク・エムイー/テクニカルサポート 松尾 勝仁 氏 株式会社リーンフェイズ アスク・エムイー/マーケティングマネージャー 三好 寛季 氏 株式会社メディア・インテグレーション ROCK ON PRO / Product Specialist 前田 洋介 ●エースタ側配信 https://youtu.be/NK8AN1UsCRo ●LUSH HUB側配信 https://youtu.be/PzibZ3wKPDQ ●System:当日の接続システム NDI Bridge、SRT、ZOOMを活用し、3拠点間のコミュニケーション、2拠点から同時配信という内容となる今回のウェビナーについて、まず、ROCK ON PRO 前田洋介より接続システムについての解説が行われた。やや複雑だが図にすると次のような形となる。(下図 )まず、講師陣がいる場所は渋谷のLUSH HUB、千代田区半蔵門のエースタ、そして今回リモート出演となった前田洋介が訪れているRockoN梅田の3拠点となる。3拠点間のコミュニケーションおよび音声の入力には汎用のツールとして使い勝手が良いZOOMを採用。さらに、LUSH HUBとエースタの2拠点間においては、AJA BRIDGE LIVEによるSRT接続とNewTek NDI Bridge接続が並行して確立されており、相互にSRTで高品位な映像伝送を行つつ、相手方のTriCasterの操作も可能となっている。その上で、両拠点からYou Tube Liveへの最終の配信エンコーディングが行われている。 ●Digest1:NDIのメリット まずはアスク・エムイー三好氏より、NDIについての解説が行われた。NDIの最大の特徴は、対応するデバイスやソフトウェア間で、映像、音声、制御などの様々な信号をWi-Fi接続やネットワークケーブル一本で伝送できてしまう点だ。SDK(ソフトウェア開発キット)が無償公開されていることもあり、対応するソフトウェアスイッチャーやスマートフォン向けのカメラアプリなども様々登場している。 ●Digest2:NDI Tools オンラインで無償配布されているNDI Toolsには、NDI信号をWebカメラのソースとして使えるWebcam InputやTriCasterを遠隔操作できるNDI Studio Monitor、インターネット越しのNDI接続を可能とするNDI Bridgeなどが含まれている。WIndows版の方が開発が早かったり、Final CutなどMac版にのみ対応しているソフトウェアもあるため、Win版とMac版でラインナップが異なっている。 ●Digest3:NDI5から新たに追加されたNDI Bridge NDI5から新たに追加された目玉機能の一つがNDI Bridgeで、これによりインターネット越しにNDI接続を行うことが可能となった。現時点ではWin版のみの対応となるが、遠隔地のNDIソースを受信したり、TriCasterやPTZカメラをソフトウェアパネル上からリモートコントロールしたりすることができる。実際にウェビナー内でこのデモンストレーションを行なっているシーンを是非ご覧いただきたい。LUSH HUBにいる松尾氏のPCから、半蔵門エースタのNDIソースが一覧となって表示されている様子が確認できる。さらに、TriCasterの画面に進むと、画面左上にKVMのボタンがあり、これをクリックすることでそのままTriCasterの遠隔操作が可能になるという驚きの手軽さだ。コロナ禍以降、ライブ配信の需要が急速に高まっており、配信のオペレーター不足なども懸念されるが、こうした機能を活用していくことで解決できる課題は山ほどあるだろう。 ●Digest4:SRTとはどのようなものか 続いて、SRTに関する説明だ。SRT = Secure Reliable Transportの略称で、Haivision社が開発した。不安定なネットワーク環境でも高品質なライブ映像を実現することを目標に、変動するネットワーク帯域幅を考慮し、映像の整合性や品質を維持するための様々な機能が備わっている。NDI同様オープンソース化されているが、こちらはソフトウェアだけでなくハードウェアへの組み込みもロイヤリティーフリーとなっている。 ●Digest5:NDIとSRTを併用するメリット ここでNDIとSRTの違い、併用するメリットについて話題が移る。NDIは元々、単一ネットワーク内での利便性向上を重視して作られ、後からインターネット越えが可能となった。一方、SRTは開発当初から遠隔地への安定した映像伝送を目標として開発されている。したがって、これらを比較対象として同列に並べるのはそもそも誤りで、むしろ、適材適所で併用することで相乗効果を発揮できる。つまり、NDIとSRTを併用することで「品質をとるか利便性をとるか?」というトレードオフを打破できるわけだ。 ●Digest6:実際にNDIとSRTを組み合わせると その一例がまさに、先に説明した本ウェビナーのシステムそのものだ。NDI Bridgeを活用してカメラやスイッチャー等のリモートコントロールを行いつつ、配信用の映像本線はSRTを使って高画質を実現することができる。(図9)また、その上でZoomなどのオンライン会議ツールを併用すれば、2拠点間のコミュニケーションはもちろん、その場に不在の参加者との連絡も容易だ。 ●Digest7:気になる実際の画質を比べてみる やはり誰もが気になるのが実際の画質についてだと思われるが、ウェビナー中盤からSRT経由の映像、NDI経由の映像、そしてZoom経由の映像を横並びにした配置をご確認いただけるようになっている。左がSRTで受信している映像、中央がNDIで構築したLAN内の映像、右がZoomで受信している映像だ。残念ながら同じカメラで撮影している訳ではないため厳密な比較とは言えないかもしれないが、SRT経由の映像は、ZOOMと比べ、ローカルのNDIとほとんど遜色ない高画質な映像となっているのが確認できる。 日進月歩で発展し続けるIP映像伝送テクノロジーの中でも、本稿では特に注目すべき2つの規格、NDIとSRTについてご紹介した。従来のSDIにとって代わり、とことん利便性を追求したNDIと、衛星通信や専用回線にとって代わり、汎用のインターネットでも高品質低遅延での映像伝送実現を目指したSRT。これらについて議論されるべきなのは、「どちらを使うか?」ではなく、「どのように組み合わせて活用していくか?」という点である。今回我々がみなさんにご提案させていただいたシステムはあくまでほんの一例で、こうしたIP伝送テクノロジーを適材適所に活用することで、世界中の放送・配信の現場それぞれに特有の問題を解決できるのではないかという大きな可能性を感じている。技術的ブレイクスルーによる恩恵、そして新技術を積極的に取り入れ、既存の技術とうまく組み合わせていくことで、これまでなかなか避けられなかったトレードオフも、今後次々と打破されていくことを期待したい。   *ProceedMagazine2022号より転載

Media

360 Reality Audio + 360 WalkMix Creator™ 〜全天球4πの世界をオブジェクトベースで描く〜

世界中で始まった実際の配信サービスインから早くも2年が経過、国内でのサービスインからも1年が経過した360 Reality Audioの世界。そしてその制作ツールとなる360 WalkMix Creator™がついに国内で販売開始される。その拡がりもついに第2段階へと突入した360 Reality Audio、360 WalkMix Creator™で実現する新機能のご紹介とともに、360 Reality Audioの現在地をご案内していく。 Chapter 1:360 Reality Audioを構築する ●全天球4πを実現する360 Reality Audio 本誌でも、その詳細を伝え続けているソニー 360 Reality Audio。完全な4π空間へのフルオブジェクト配置による立体音響フォーマットとして、その魅力は高いものであることはすでにおわかりではないだろうか。先行してスタートしているDolby Atmos、Auro 3Dは、ご存知のように「映画」をそのベーシックとして登場している。そのため、これまでの5.1chサラウンドを踏襲し、それを発展させる形で立体音響を実現している。これは、既存設備、映画館、劇場との互換性という観点から重要なポイントであり必要不可欠な要素だった。しかしソニー 360 Reality Audioは、映像とは切り離して考えられ、音楽を楽しむためのフォーマットとして登場している。そのため、これまでの立体音響が辿ってきた経緯とは関係ないところで、理想の音楽を入れるための器として誕生している。北半球とも呼ばれる上半分の2πだけのフォーマットではなく、下方向も含めた全天球4πを実現し、チャンネルベースを廃棄した完全なるオブジェクトベースのフォーマットだ。 Dolby Atmosなど他の立体音響フォーマットとの最大の違い、それは南半球があるということである。南半球に音を配置して効果はあるのか?下方向からの音、それに意味はあるのか?これは、今後様々な音源がリリースされ、その効果の程やクリエイターの考え、感覚により活用が行われていくものだろう。リフレクションを加えることで床を作る、低音楽器を下方向から鳴らすことで重心を下げる、様々なアイデアがありそうだが、まずは表現できる空間が単純に倍になったということは、歓迎すべき素晴らしいことではないだろうか。北半球のみの2π srに対し、全天球4π srは単純に倍の表面積であり、その表現できる範囲も倍であるということだ。これをどのように使いこなすのかという議論はまさにこれから行われていくこととなるだろう。 今までのステレオをヘッドホンで再生すると、頭の中に定位する「頭内定位」となる。言い換えれば右耳から左耳の間に音があるように感じるということだ。これをソニー 360 Reality Audioではヘッドホンで聴いているが、擬似的に頭の周りから音が鳴っているような感覚「頭外定位」を実現している。スピーカーで視聴するための準備が様々に進んできてはいるが、その体験を行う一番簡単な方法はやはりヘッドホンでの再生となる。いま音楽を楽しむ方法として一番シェアの高いヘッドホン/イヤホンでの視聴、それをターゲットにした音楽の体験、それがソニー 360 Reality Audioだ。 ●チャンネルベースからの脱却、スピーカー配置の自由 チャンネルベースからの脱却というのも、360 Reality Audioの先進性の現れであると言えよう。冒頭でも述べたように、既存フォーマットとの下位互換性を考えることなく、純粋に次のステップへと歩みを進めた360 Reality Audio。これにより手に入れたのは、スピーカー配置の自由ということになる。クリエーター向け360 Reality Audio HPには、推奨環境としてこのようなスピーカー配置がのぞましいということが明記されている。ただ、これはあくまでもスピーカー配置の一例であり、その全てではない。360 Reality Audioの動作原理から言えば、スピーカーの配置位置、本数、そういった制約は無い。ただし、その音源の再現のために最低限これくらいの本数があったほうが確認を行いやすいという。また、360 WalkMix Creator™での制作時ではスピーカーの出力数を選択し、そのプリセットで選択された本数で再生を行うこととなる。 このスピーカーの配置の自由というのは、これから立体音響に向けてスタジオへスピーカーを増設しようとお考えの方には重要なポイントだろう。水平方向、天井は工夫によりなんとかなるケースが多いが、下方向に関しては、前方に3本(L,C,Rchの位置俯角-30度)設置が推奨されている。一般的に下方向のスピーカー設置となると、それらを遮るようにコンソールや作業用のデスクがあることが多いわけだが、これを左右90度の位置に俯角-30度で設置であれば、実際にレイアウトすることもかなり現実味があるのではないだろうか。 チャンネルベースのソースを持たない360 Reality Audioはフルオブジェクトであるため、スピーカーに対してのレンダリングアウトは自由である。そこにスピーカーがあるとわかるようなスピーカープリセットがあれば良いということになる。なお、スピーカー配置は自由だと書かせていただいたが一つだけ制約があり、それぞれのスピーカーは等距離に設置されている必要がある。ただし、これに関してはDelay調整により距離を仮想化することである程度解消できるものである。 ●Dolby Atmos、360 Reality Audioコンパチブル 自由と言われると、実際どうして良いのか混乱を招く部分もあるかもしれない。360 Reality Audioに対応したスタジオのスピーカーアレンジの一例をご紹介するとなると、Dolby Atmosとの互換性を確保したシステムアップというのが一つの具体的な事例になる。 360 Reality Audioは前述の通り、スピーカー配置に関しては自由である。ということは、Dolby Atmosに準拠したスピーカーレイアウトを構築した上で、そこに不足する要素を追加すればよいということになる。具体的には、Dolby Atmosには無い南半球、下方向のスピーカーを増設すればよいということだ。360 Reality Audioの推奨としては、前方L,C,R(30度,0度,-30度)の位置に俯角-30度で設置となっているため、この3本を追加することでDolby Atmosと360 Reality Audioに対応したスタジオを構築できる。以前のスタジオ導入事例でご紹介したソニーPCLのスタジオがまさにこの方法での対応となっている。 📷デスクの前方にはスクリーンが張られており、L,C,Rのスピーカーはこのスクリーンの裏側に設置されている。スクリーンの足元にはボトムの3本のスピーカーが設置されているのがわかる。リスニングポイントに対して机と干渉しないギリギリの高さと角度での設置となっている。 前方下方の設置が難しい場合には、左右下方で対応することも一案である。下方、俯角のついた位置への設置は360 Reality Audioの音像をスピーカーで確認する際には必須の要素である。少なくとも左右へ2本がないと、パンニングの再現があまりにも大雑把になってしまうため、最低2本以上の設置と考えていただきたい。ただ、その設置に関しては前方L,R30度の位置が必須ということではない。この位置がなぜ推奨位置なのかは、後述するエンコードの解説を読んでいただければご理解いただけるだろう。スピーカー配置の自由、という360 Reality Audioの持つ美点は、これから先の進化の中で本当の意味で発揮されるものだからだ。 Chapter 2:BrandNew!! 360 WalkMix Creator™ ●エンコーダーを手に入れファイナルデータまで生成 360 Reatily Audio Creative Suiteとして登場した360 Reality Audioの制作ツールが、2022年2月に360 WalkMix Creator™へと名称を変更し、それと同時に大きな機能追加が行われた。360 Reatily Audio Creative Suite時代に作成できる最終のデータは、360 Reality Audioの配信用データであるMPEG-H 3D Audioに準拠した360 Reality Audio Music Formatではなかった。この360 Reality Audio Music Formatへの最終のエンコード作業は、別のアプリケーションで実施する必要があった。360 WalkMix Creator™では、ついに悲願とも言えるこのエンコード機能を手に入れ、360 WalkMix Creator™単体でのファイナルデータ生成までが行えるようになった。テキストで表現すると非常にシンプルではあるが、実作業上は大きな更新である。 これに続く、最後の1ピースはその360 Reality Audio Music Formatデータの再生用のアプリケーションだ。360 WalkMix Creator™の登場で、最終データを生成することはできるようになった。そのデータを確認するためにはArtist ConnectionにアップロードしてArtist Connectionのスマートフォンアプリで360 Reality Audioとして再生ができる。 📸 360 Reatily Audio制作のワークフローはこのような形になっている。パンニングの部分を360 WalkMix Creator™で行うということ以外は、従来のミキシングの手法と大きな違いはない。編集、プラグイン処理などは従来通り。その後の音を混ぜるというミキサーエンジン部分の機能を360 WalkMix Creator™が行うこととなる。ミキシングされたものはエンコードされ、配信用の音源として書き出される。リスナーが実際に視聴する際のバイノーラル処理は、リスナーの使用するプレイヤー側で行うこととなる。 ●エンコードでサウンドの純度をどう保つか では、改めて360 Reality Audioの配信マスターであるMPEG-H 3D Audioに準拠した360 Reality Audio Music Formatへのエンコードについて説明していきたい。360 WalkMix Creator™で扱うことができるオブジェクト数は最大128個である。エンコードにあたっては、10~24オブジェクトにプリレンダリングして圧縮を行うことになる。せっかく作ったオブジェクトをまとめるということに抵抗があるのも事実だが、配信という限られた帯域を使ってのサービスで使用されるということを考えると欠かすことができない必要な工程である。360 WalkMix Creator™では多くの調整項目を持ち、かなり細かくそのチューニングを行うことができる。マスターデータは非圧縮のまま手元に残すことはできるので、いつの日か非圧縮のピュアなサウンドを360 Reatily Audioのエンドユーザーへ提供できる日が来るまで大切に保管しておいてもらいたい。 360 Reality Audio Music Formatへのエンコードを行うにあたり10~24オブジェクトへプリレンダリングして圧縮を行うということだが、その部分を更に詳しく説明していこう。実際には、配信事業者の持つ帯域幅に合わせて4つのレベルでのエンコードを行うこととなる。プリレンダリングはStatic ObjectとDynamic Objectの設定をすることで実行できる。Static Objectはその言葉の通り、固定されたオブジェクトである。この際に選択できるStatic Object Configurationは複数種類が用意されており、ミキシングにおけるパンニングの配置に合わせて最適なものを選択することができるようになっている。デフォルトでは、4.4.2 Static Objectで10オブジェクトを使用し、各Levelの最大オブジェクト数まではDynamic Objectに設定できる。Dynamic Objectはそのトラックを単独のObjectとして書き出すことで、360 WalkMix Creator™上でミキシングしたデータそのままとなり、Static Objectは360 WalkMix Creator™にプリセットされている様々なStatic Object Configurationに合わせてレンダリングアウトが書き出される。 📸 エンコードの際には、こちらの画面のように6種類のデータが書き出される。Level 0.5~3までは本文で解説をしているのでそちらをご参照いただきたい。それ以外の項目となるプリレンダリングは360 Reality Audio Music Formatへエンコードする直前の.wavのデータ、要は非圧縮状態で書き出されたものとなる。選択スピーカー別出力は、モニターするために選択しているスピーカーフォーマットに合わせた.wavファイルの書き出し。例えば、5.5.3のスピーカー配置で視聴しているのであれば、13chの.wavファイルとして各スピーカーに合わせてレンダリングされたものが出力される。 Static Object Configurationのプリセットはかなりの種類が用意されている。前方へ集中的に音を集めているのであれば5.3.2、空間全体に音を配置しているのであれば4.4.2、推奨の制作スピーカーセットを再現するのであれば5.5.3など実音源が多い部分にStatic Object が来るように選択する。いたずらにオブジェクト数の多いものを選択するとDynamic Objectに割り振ることができるオブジェクト数を減らしてしまうので、ここはまさにトレードオフの関係性である。もちろん、オブジェクト数の多いStatic Objectのプリセットを選択することで空間の再現性は向上する。しかし、単独オブジェクトとして存在感高く再生が可能なDynamic Object数が減ってしまうということになる。基本的に音圧の高い、重要なトラックをDynamic Objectとして書き出すことが推奨されている。具体的には、ボーカルなどのメロディーがそれにあたる。それ以外にも特徴的なパンニングオートメーションが書かれているトラックなどもDynamic Objectにすることで効果がより良く残せる。Static Objectに落とし込まずに単独のトラックのままで存在することができるためにそのサウンドの純度が保たれることとなる。 ミキシングをおこなったトラックごとにStaticとするのか、Dynamicとするのかを選択することができる。このStatic/Dynamicの選択、そしてStatic Object Configurationのプリセットの選択が、エンコード作業の肝となる。この選択により出来上がった360 Reality Audio Music Formatのデータはかなり変化する。いかに360 WalkMix Creator™でミックスしたニュアンスを余すことなくエンコードするか、なににフォーカスをするのか、空間をどのように残すのか。まさに制作意図を反映するための判断が必要な部分となる。 ●Static Object Configuration設定一覧 これら掲載した画面が360 WalkMix Creator™で選択できるStatic Object Configurationのプリセット一覧となる。プリセットされたレンダリングアウトの位置は、できる限り共通化されていることもこのように一覧すれば見て取ることができるだろう。基本はITU準拠の5.1ch配置からの拡張であり、Dolby Atmosを意識したような配置、AURO 3Dを意識したような配置もあることがわかる。5chサラウンドの拡張の系統とは別に、開き角45度のグループもあり、スピーカー間が90度で等間隔になる最低限の本数で最大の効果が得られるような配置のものも用意されている。   下方向をどれくらい使っているのか?上空は?そういった観点から適切なプリセットを選ぶことで再現性を担保し、重要なトラックに関してはDynamic Objectとして独立させる。Static Objectを多くすればその分全体の再現性は上がるが、使えるDynamic Objectのオブジェクト数が減ってしまう。これは難しい判断を強いられる部分ではあるが、トレードオフの関係となるためあらかじめ念頭に置いておくべきだろう。この仕組みを理解して作業にあたることで、よりよい状態の信号を360 Reality Audio Music Formatファイルで書き出すことが可能となる。 Chapter 3:360 Reality Audioの現在地 Dolby Atmosとの互換性 昨年の空間オーディオのサービスインから、注目を集めているDolby Atmos Music。そのフォーマットで制作した音源と360 Reality Audioの互換性は?やはりイチから作り直さなければならないのか?制作者にとって大きなハードルになっているのではないだろうか。フォーマットが増えたことにより作業量が倍増してしまうのでは、なかなか現場としては受け入れがたいものがあるのも事実。実際のところとしては、Dolby Atmosで制作した音源をRenderingしたWAVファイルを360 WalkMix Creator™でそのチャンネルベースの位置に配置することで再現することが可能である。その際にできる限り多くのスピーカーを使用したWAVをDolby Atmos Redererから書き出すことでその再現性を高めることも可能だ。なお、逆パターンの360 Reality AudioからDolby Atmosの場合には、南半球の取り扱いがあるためそのままというわけにはいかない。どうしても行き先のないトラックが出てきてしまうためである。 📸 360 WalkMix Creator™上でDolby Atmosを展開する一例がこちら。Dolby Atmosから7.1.4のレンダリングアウトを.wavで出力し、360 WalkMix Creator™内に配置したしたという想定だ。さらにチャンネル数を増やすことも可能(Atmos Rendererの最大レンダリング出力は11.1.10)だが、今回はわかりやすくベーシックなものとしている。ここでの問題はLFE chだ。 360 Reatily AudioにはLFEが存在しないため、少し下方向から再生することで効果的に使用することができるのではないか。LFEに関しては特に決まりはないため耳で聴いてちょうどよいバランスに合わせる必要がある。 Dolby Atmos Redererからは、最大11.1.10chの書き出しが可能である。360 Reality AudioにはLFE chが用意されていないため、ここの互換性に注意すれば、南半球は無いがかなり高いレベルでの互換を取れた状態が確保されていると言えるだろう。360 WalkMix Creator™に11.10.0というStatic Objectのプリセットがあれば完璧なのだが、次のアップデートでの実装に期待したいところである。また、Rendering Outを行う際にVocalなどDynamic Objectにアサインしたいものだけを省いておくことでDynamic Objectも活用することができる。もちろん、ワンボタンでという手軽さではないが、イチからミックスをやり直すことなく同等の互換性を確保することが可能なところまできている。 日進月歩の進化を見せる360 Reality Audioの制作環境。制作のための全てのコンポーネントがもうじき出揃うはずである。そして、制作物をユーザーへデリバリーする方法も整ってきている。双璧をなすDolby Atmosとの互換性など制作のノウハウ、実績も日々積み上げられていっているところだ。まさにイマーシブ・オーディオ制作は第2フェーズへと歩みを進めている。ぜひともこの新しい世界へと挑戦してもらいたい。 360 WalkMix Creator™ ¥64,900(税込) ソニー 360 Reality Audioを制作するためのツールがこの「360 WalkMix Creator™」。AAXはもちろん、VST / AUにも対応しているため、ホストDAWを選ばずに360 Reality Audioのミキシングを行うことができる。 製品購入ページ(RockoN eStore) 製品紹介ページ クリエーター向け 360 Reality Audio HP   *ProceedMagazine2022号より転載 https://pro.miroc.co.jp/headline/comparison-of-atmos-360ra/

Music

Sound on 4π Part 4 / ソニーPCL株式会社 〜360 Reality Audioのリアルが究極のコンテンツ体験を生む〜

ソニーグループ内でポストプロダクション等の事業を行っているソニーPCL株式会社(以下、ソニーPCL)。360RAは音楽向けとしてリリースされたが、360RAを含むソニーの360立体音響技術群と呼ばれる要素技術の運用を行っている。昨年システムの更新を行ったMA室はすでに360RAにも対応し、360立体音響技術群のテクノロジーを活用した展示会映像に対する立体音響の制作、360RAでのプロモーションビデオのMA等をすでに行っている。 独自のアウトプットバスで構成されたMA室 ソニーPCLは映像・音響技術による制作ソリューションの提供を行っており、360立体音響技術群を活用した新しいコンテンツ体験の創出にも取り組んでいる。現時点では映像と音声が一緒になった360RAのアウトプット方法は確立されていないため、クライアントのイメージを具現化するための制作ワークフロー構築、イベント等でのアウトプットを踏まえた演出提案など、技術・クリエイティブの両面から制作に携わっている。 この更新されたMA室はDolby Atmosに準拠したスピーカー設置となっている。360RA以前にポストプロダクションとしてDolby Atmosへの対応検討が進んでおり、その後に360RAへの対応という順番でソリューションの導入を行っている。そのため、天井にはすでにスピーカーが設置されていたので、360RAの特徴でもあるボトムへのスピーカーの増設で360RA制作環境を整えた格好だ。360RAはフルオブジェクトのソリューションとなるため、スピーカーの設置位置に合わせてカスタムのアウトプットバスを組むことでどのようなスピーカー環境にも対応可能である。360RACSには最初から様々なパターンのスピーカーレイアウトファイルが準備されているので、たいていはそれらで対応可能である。とはいえスタジオごとのカスタム設定に関しても対応を検討中とのことだ。 📷デスクの前方にはスクリーンが張られており、L,C,Rのスピーカーはこのスクリーンの裏側に設置されている。スクリーンの足元にはボトムの3本のスピーカーが設置されているのがわかる。リスニングポイントに対して机と干渉しないギリギリの高さと角度での設置となっている。 📷できる限り等距離となるように、壁に寄せて設置ができるよう特注のスタンドを用意した。スピーカーは他の製品とのマッチを考え、Neumann KH120が選ばれている。 360RAの制作にあたり、最低これだけのスピーカーがあったほうが良いというガイドラインはある。具体的には、ITU準拠の5chのサラウンド配置のスピーカーが耳の高さにあたる中層と上空の上層にあり、フロントLCRの位置にボトムが3本という「5.0.5.3ch」が推奨されている。フル・オブジェクトということでサブウーファーchは用意されていない。必要であればベースマネージメントによりサブウーファーを活用ということになる。ソニーPCLではDolby Atmos対応の部屋を設計変更することなく、ボトムスピーカーの増設で360RAへと対応させている。厳密に言えば、推奨環境とは異なるが、カスタムのアウトプット・プロファイルを作ることでしっかりと対応している。 ソニーPCLのシステムをご紹介しておきたい。一昨年の改修でそれまでの5.1ch対応の環境から、9.1.4chのDolby Atmos対応のスタジオへとブラッシュアップされている。スピーカーはProcellaを使用。このスピーカーは、奥行きも少なく限られた空間に対して多くのスピーカーを増設する、という立体音響対応の改修に向いている。もちろんそのサウンドクオリティーも非常に高い。筐体の奥行きが短いため、天井への設置時の飛び出しも最低限となり空間を活かすことができる。この更新時では、既存の5.1chシステムに対しアウトプットが増えるということ、それに合わせスピーカープロセッサーに必要とされる処理能力が増えること、これらの要素を考えてAudio I/OにはAvid MTRX、スピーカープロセッサーにはYAMAHA MMP1という組み合わせとなっている。 📷天井のスピーカーはProcellaを使用。内装に極力手を加えずに設置工事が行われた。天井裏の懐が取れないためキャビネットの厚みの薄いこのモデルは飛び出しも最小限にきれいに収まっている。 4π空間を使い、究極のコンテンツ体験を作る なぜ、ソニーPCLはこれらの新しいオーディオフォーマットに取り組んでいるのであろうか?そこには、歴史的にも最新の音響技術のパイオニアであり、THX認証(THXpm3)でクオリティーの担保された環境を持つトップレベルのスタジオであるということに加えて、顧客に対しても安心して作業をしてもらえる環境を整えていくということに意義を見出しているからだ。5.1chサラウンドに関しても早くから取り組みを始め、先輩方からの技術の系譜というものが脈々と続いている。常に最新の音響技術に対してのファーストランナーであるとともに、3D音響技術に関してもトップランナーで在り続ける。これこそがソニーPCLとしての業界におけるポジションであり、守るべきものであるとのお話をいただいた。エンジニアとしての技術スキルはもちろんだが、スタジオは、音響設計とそこに導入される機材、そのチューニングと様々な要素により成り立っている。THXは一つの指標ではあるが、このライセンスを受けているということは、自信を持ってこのスタジオで聴いた音に間違いはないと言える、大きなファクターでもある。 📷デスク上は作業に応じてレイアウトが変更できるようにアームで取り付けられた2つのPC Displayと、Avid Artist Mix、JL Cooper Surrond Pannerにキーボード、マウスと機材は最小限に留めている。 映像に関してのクオリティーはここで多くは語らないが、国内でもトップレベルのポストプロダクションである。その映像と最新の3D立体音響の組み合わせで、「究極のコンテンツ体験」とも言える作品を作ることができるスタジオになった。これはライブ、コンサート等にとどまらず、歴史的建造物、自然環境などの、空気感をあますことなく残すことができるという意味が含まれている。自然環境と同等の4πの空間を全て使い音の記録ができる、これは画期的だ。商用としてリリースされた初めての完全なる4πのフォーマットと映像の組み合わせ、ここには大きな未来を感じているということだ。 また、映像とのコラボレーションだけではなく、ソニー・ミュージックスタジオのエンジニアとの交流も360RAによりスタートしているということだ。これまでは、音楽スタジオとMAスタジオという関係で素材レベルのやり取りはあったものの、技術的な交流はあまりなかったということだが、360RAを通じて今まで以上のコミュニケーションが生まれているということだ。ソニーR&Dが要素を開発した360立体音響技術群、それを実際のフォーマットに落とし込んだソニーホームエンタテイメント&サウンドプロダクツなど、ソニーグループ内での協業が盛んとなり今までにない広がりを見せているということだ。このソニーグループ内の協業により、どのような新しい展開が生まれるのか?要素技術である360立体音響技術群の大きな可能性を感じる。すでに、展示会場やイベント、アミューズメントパークなど360RAとは異なる環境でこの技術の活用が始まってきている。フルオブジェクトには再生環境を選ばない柔軟性がある。これから登場する様々なコンテンツにも注目をしたいところだ。 現場が触れた360RAのもたらす「リアル」 360RAに最初に触れたときにまず感じたのは、その「リアル」さだったということだ。空間が目の前に広がり、平面のサラウンドでは到達できなかった本当のリアルな空間がそこに再現されていることに大きな驚きがあったという。ポストプロダクションとしては、リアルに空間再現ができるということは究極の目的の一つでもある。音楽に関しては、ステレオとの差異など様々な問題提議が行われ試行錯誤をしているが、映像作品にこれまでにない「リアル」な音響空間が加わるということは大きな意味を持つ。報道、スポーツ中継などでも「リアル」が加わることは重要な要素。当初は即時性とのトレードオフになる部分もあるかもしれない。立体音響でのスポーツ中継など想像しただけでも楽しみになる。 実際の使い勝手の詳細はまだこれからといった段階だが、定位をDAWで操作する感覚はDTS:Xに近いということだ。将来的にはDAWの標準パンナーで動かせるように統合型のインターフェースになってほしいというのが、現場目線で求める将来像だという。すでにDAWメーカー各社へのアプローチは行っているということなので、近い将来360RAネイティブ対応のDAWなども登場するのではないだろうか。 もともとサラウンドミックスを多数手がけられていたことから、サウンドデザイン視点での試行錯誤もお話しいただくことができた。リバーブを使って空間に響きを加える際にクアッド・リバーブを複数使用し立方体を作るような手法。移動を伴うパンニングの際に、オブジェクトの移動とアンプリチュード・パンを使い分ける手法など、360RAの特性を色々と研究しながら最適なミックスをする工夫を行っているということだ。 3Dと呼ばれる立体音響はまさに今黎明期であり、さまざまなテクノロジーが登場している途中の段階とも言える。それぞれのメリット、デメリットをしっかりと理解し、適材適所で活用するスキルがエンジニアに求められるようになってきている。まずは、試すことから始めそのテクノロジーを見極めていく必要があるということをお話いただいた。スペックだけではわからないのが音響の世界である。まずは、実際に触ってミックスをしてみて初めて分かる、気づくことも多くある。そして、立体音響が普及していけばそれに合わせた高品位な映像も必然的に必要となる。高品位な映像があるから必要とされる立体音響。その逆もまた然りということである。 📷上からAntelope Trinity、Avid SYNC HD,Avid MTRX、YAMAHA MMP1が収まる。このラックがこのスタジオのまさに心臓部である。 📷ポスプロとして従来のサラウンドフォーマットへの対応もしっかりと確保している。Dolby Model DP-564はまさにその証ともいえる一台。 📷このiPadでYAMAHA MMP1をコントロールしている。このシステムが多チャンネルのモニターコントロール、スピーカーマネージメントを引き受けている。 ソニーPCLでお話を伺った喜多氏に、これから立体音響、360RAへチャレンジする方へのコメントをいただいた。「まずは、想像力。立体空間を音で表現するためには想像力を膨らませてほしい。従来のステレオ、5.1chサラウンドのイメージに縛られがちなので、想像力によりそれを広げていってもらいたい。この情報過多の世界で具体例を見せられてばかりかもしれないが、そもそも音は見えないものだし、頭の中で全方向からやってくる音をしっかりとイメージして設計をすることで、立体音響ならではの新しい発見ができる。是非とも誰もが想像していなかった新しい体験を作り上げていってほしい」とのことだ。自身もソニーグループ内での協業により、シナジーに対しての高い期待と360RAの持つ大きな可能性を得て、これからの広がりが楽しみだということだ。これから生まれていく360RAを活用した映像作品は間違いなく我々に新しい体験を提供してくれるだろう。 ソニーPCL株式会社 技術部門・アドバンスドプロダクション2部 テクニカルプロダクション1課 サウンドスーパーバイザー 喜多真一 氏   *取材協力:ソニー株式会社 *ProceedMagazine2021号より転載

Media

Sound on 4π Part 3 / 360 Reality Audio Creative Suite 〜新たなオーディオフォーマットで行う4π空間への定位〜

360 Reality Audio(以下、360RA)の制作ツールとして満を持してこの4月にリリースされた360 Reality Audio Creative Suite(以下、360RACS)。360RAの特徴でもあるフル・オブジェクト・ミキシングを行うツールとしてだけではなく、360RAでのモニター機能にまで及び、将来的には音圧調整機能も対応することを計画している。具体的な使用方法から、どのような機能を持ったソフトウェアなのかに至るまで、様々な切り口で360RACSをご紹介していこう。 >>Part 1 :360 Reality Audio 〜ついにスタート! ソニーが生み出した新たな時代への扉〜 >>Part 2 :ソニー・ミュージックスタジオ 〜360 Reality Audio Mixing、この空間を楽しむ〜 全周=4π空間内に音を配置 360RACSのワークフローはまとめるとこのようになる。プラグインであるということと、プラグインからモニタリング出力がなされるという特殊性。最終のエンコードまでが一つのツールに詰め込まれているというところをご確認いただきたい。 360RACSは、アメリカAudio Futures社がリリースするプラグインソフトである。執筆時点での対応プラグイン・フォーマットはAAX、VSTとなっている。対応フォーマットは今後随時追加されていくということなので、現時点で対応していないDAWをお使いの方も読み飛ばさずに待ってほしい。Audio Futures社は、音楽ソフトウェア開発を行うVirtual Sonic社の子会社であり、ソニーとの共同開発契約をもとに、ソニーから技術提供を受け360RACSを開発している。360RAコンテンツの制作ツールは、当初ソニーが研究、開発用として作ったソフトウェア「Architect」のみであった。しかしこの「Architect」は、制作用途に向いているとは言えなかったため、現場から様々なリクエストが集まっていたことを背景に、それらを汲み取り制作に向いたツールとして新たに開発されたのがこの360RACSということになる。 それでは具体的に360RACSを見ていきたい。冒頭にも書いたが360RACSはプラグインである。DAWの各トラックにインサートすることで動作する。DAWの各トラックにインサートすると、360RACS上にインサートされたトラックが追加されていく。ここまで準備ができれば、あとは360RACS内で全周=4π空間内にそれぞれの音を配置していくこととなる。これまで音像定位を変化させるために使ってきたパンニングという言葉は、水平方向の移動を指す言葉である。ちなみに、縦方向の定位の移動を指す言葉はチルトだ。立体音響においてのパンニングにあたる言葉は確立されておらず、空間に定位・配置させるという表現となってしまうことをご容赦願いたい。 360RACS内で音像を定位させるには、画面に表示された球体にある音像の定位位置を示すボール状のポイントをドラッグして任意の場所に持っていけば良い。後方からと、上空からという2つの視点で表示されたそれぞれを使うことで、簡単に任意の場所へと音像を定位させることができる。定位をさせた位置情報はAzimuth(水平方向を角度で表現)とElevation(垂直方向を角度で表現)の2つのパラメータが与えられる。もちろん、数値としてこれらを入力することも可能である。 📷360RACSに送り込まれた各オブジェクトは、Azimuth(アジマス)、Elavation、Gainの3つのパラメーターにより3D空間内の定位を決めていくこととなる。 360RAでは距離という概念は無い。これは現時点で定義されているMPEG-Hの規格にそのパラメータの運用が明確に定義されていないということだ。とはいえ、今後サウンドを加工することで距離感を演出できるツールやなども登場するかもしれない。もちろん音の強弱によっても遠近をコントロールすることはできるし、様々な工夫により擬似的に実現することは可能である。ただ、あくまでも360RAのフォーマット内で、という限定された説明としては距離のパラメーターは無く、360RAにおいては球体の表面に各ソースとなる音像を定位させることができるということである。この部分はネガティブに捉えないでほしい。工夫次第でいくらでも解決方法がある部分であり、これからノウハウ、テクニックなどが生まれる可能性が残された部分だからだ。シンプルな例を挙げると、360RACSで前後に同じ音を定位させ、そのボリューム差を変化させることで、360RAの空間内にファントム定位を作ることも可能だということである。 4π空間に定位した音は360RACSで出力 360RACSはそのままトラックにインサートするとプリフェーダーでインサートされるのでDAWのフェーダーは使えなくなる。もちろんパンも同様である。これはプラグインのインサートポイントがフェーダー、パンよりも前の段階にあるということに起因しているのだが、360RACS内に各トラックのフェーダーを用意することでこの部分の解決策としている。音像の定位情報とともに、ボリューム情報も各トラックのプラグインへオートメーションできる情報としてフィードバックされているため、ミキシング・オートメーションのデータは全てプラグインのオートメーションデータとしてDAWで記録されることとなる。 📷各トラックにプラグインをインサートし、360RACS内で空間定位を設定する。パンニング・オートメーションはプラグイン・オートメーションとしてDAWに記録されることとなる。 次は、このようにして4π空間に定位した音をどのようにモニタリングするのか?ということになる。360RACSはプラグインではあるが、Audio Interfaceを掴んでそこからアウトプットをすることができる。これは、DAWが掴んでいるAudio Outputは別のものになる。ここでヘッドホンであれば2chのアウトプットを持ったAudio Interfaceを選択すれば、そこから360RACSでレンダリングされたヘッドホン向けのバイノーラル出力が行われるということになる。スピーカーで聴きたい場合には、標準の13ch(5.0.5.3ch)を始め、それ以外にもITU 5.1chなどのアウトプットセットも用意されている。もちろん高さ方向の再現を求めるのであれば、水平面だけではなく上下にもスピーカーが必要となるのは言うまでもない。 📷360RACSの特徴であるプラグインからのオーディオ出力の設定画面。DAWから受け取った信号をそのままスピーカーへと出力することを実現している。 360RACSの機能面を見ていきたい。各DAWのトラックから送られてきたソースは360RACS内でグループを組むことができる。この機能により、ステレオのソースなどの使い勝手が向上している。全てを一つのグループにしてしまえば、空間全体が回転するといったギミックも簡単に作れるということだ。4π空間の表示も上空から見下ろしたTop View、後方から見たHorizontal View、立体的に表示をしたPerspective Viewと3種類が選択できる。これらをの表示を2つ組み合わせることでそれぞれの音像がどのように配置されているのかを確認することができる。それぞれの定位には、送られてきているトラック名が表示されON/OFFも可能、トラック数が多くなった際に文字だらけで見にくくなるということもない。 360RACS内に配置できるオブジェクトは最大128ch分で、各360RACS内のトラックにはMute/Soloも備えられる。360RACSでの作業の際には、DAWはソースとなる音源のプレイヤーという立ち位置になる。各音源は360RACSのプラグインの前段にEQ/Compなどをインサートすることで加工することができるし、編集なども今まで通りDAW上で行えるということになる。その後に、360RACS内で音像定位、ボリュームなどミキシングを行い、レンダリングされたアウトプットを聴くという流れだ。このレンダリングのプロセスにソニーのノウハウ、テクノロジーが詰まっている。詳細は別の機会とするが、360立体音響技術群と呼ばれる要素技術開発で積み重ねられてきた、知見やノウハウにより最適に立体空間に配置されたサウンドを出力している。 Level 1~3のMPEG-Hへエンコード 📷MPEG-Hのデータ作成はプラグインからのExportにより行う。この機能の実装により一つのプラグインで360RAの制作位の工程を包括したツールとなっている。 ミックスが終わった後は、360RAのファイルフォーマットであるMPEG-Hへエンコードするという処理が残っている。ここではLevel 1~3の3つのデータを作成することになり、Level 1が10 Object 64 0kbps、Level 2が16 Object 1Mbps、Level 3が 24 Object 1.5Mbpsのオーディオデータへと変換を行う。つまり、最大128chのオーディオを最小となるLevel 1の10trackまで畳み込む必要があるということだ。具体的には、同じ位置にある音源をグループ化してまとめていくという作業になる。せっかく立体空間に自由に配置したものを、まとめてしまうのはもったいないと感じるかもしれないが、限られた帯域でのストリーミングサービスを念頭とした場合には欠かせない処理だ。 とはいえ、バイノーラルプロセスにおいて人間が認知できる空間はそれほど微細ではないため、できる限り128chパラのままでの再現に近くなるように調整を行うこととなる。後方、下方など微細な定位の認知が難しい場所をまとめたり、動きのあるもの、無いものでの分類したり、そういったことを行いながらまとめることとなる。このエンコード作業も360RACS内でそのサウンドの変化を確認しながら行うことが可能である。同じ360RACSの中で作業を行うことができるため、ミックスに立ち返りながらの作業を手軽に行えるというのは大きなメリットである。このようなエンコードのプロセスを終えて書き出されたファイルが360RAのマスターということになる。MPEG-Hなのでファイルの拡張子は.MP4である。 執筆時点で、動作確認が行われているDAWはAvid Pro ToolsとAbleton Liveとなる。Pro Toolsに関しては、サラウンドバスを必要としないためUltimateでなくても作業が可能だということは特筆すべき点である。言い換えれば、トラック数の制約はあるがPro Tools Firstでも作業ができるということだ。全てが360RACS内で完結するため、ホストDAW側には特殊なバスを必要としない。これも360RACSの魅力の一つである。今後チューニングを進め、他DAWへの対応や他プラグインフォーマットへの展開も予定されている。音楽に、そして広義ではオーディオにとって久々の新フォーマットである360RAは制作への可能性を限りなく拡げそうだ。   *取材協力:ソニー株式会社 *ProceedMagazine2021号より転載 >>Part 2はこちらから https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-2/ >>Part 1はこちらから https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-1/

Media

Sound on 4π Part 2 / ソニー・ミュージックスタジオ 〜360 Reality Audio Mixing、この空間を楽しむ〜

国内の正式ローンチに合わせ、多数の邦楽楽曲が360RAでミックスされた。その作業の中心となったのがソニー・ミュージックスタジオである。マスタリングルームのひとつを360RAのミキシングルームに改装し、2021年初頭より60曲あまりがミキシングされたという。そのソニー・ミュージックスタジオで行われた実際のミキシング作業についてお話を伺った。 >>Part 1:360 Reality Audio 〜ついにスタート! ソニーが生み出した新たな時代への扉〜 2ミックスの音楽性をどう定位していくか 株式会社ソニー・ミュージックソリューションズ ソニー・ミュージックスタジオ レコーディング&マスタリングエンジニア 鈴木浩二 氏(右) レコーディングエンジニア 米山雄大 氏(左) 2021年3月23日発のプレスリリースにあった楽曲のほとんどは、ここソニー・ミュージックスタジオでミキシングが行われている。360RAでリリースされた楽曲の選定は、各作品のプロデューサー、アーティストに360RAをプレゼン、実際に体験いただき360RAへの理解を深め、その可能性に賛同を得られた方から制作にあたったということだ。 実際に360RAでミキシングをしてみての率直な感想を伺った。ステレオに関しての経験は言うまでもなく、5.1chサラウンドでの音楽のミキシング作業の経験も豊富にある中でも、360RAのサウンドにはとにかく広大な空間を感じたという。5.1chサラウンドでの音楽制作時にもあった話だが、音楽として成立させるために音の定位はどこの位置までが許容範囲なのか?ということは360RAでも起こること。やはりボーカルなどのメロディーを担うパートが、前方に定位をしていないと違和感を感じてしまうし、平面での360度の表現から高さ方向の表現が加わったことで、5.1chから更に広大な空間に向き合うことになり正直戸惑いもあったということだ。その際は、もともとの2chのミックスを音楽性のリファレンスとし、その音楽性を保ったまま空間に拡張していくというイメージにしたという。 360RAは空間が広いため、定位による表現の自由度は圧倒的だ。白紙の状態から360RAの空間に音を配置して楽曲を成立させるには、やはり従来の2chミキシングで培った表現をベースに拡張させる、という手法を取らないとあまりにも迷いが多い。とはいえ、始まったばかりの立体音響でのミキシング、「正解はない」というのもひとつの答えである。さらなる試行錯誤の中から、新しいセオリー、リファレンスとなるような音像定位が生まれてくるのではないだろうか。もちろん従来のステレオで言われてきた、ピラミッド定位などというミキシングのセオリーをそのまま360RAで表現しても良い。その際に高さを表現するということは、ステレオ・ミキシングでは高度なエンジニアリング・スキルが要求されたが、360RAではオブジェクト・パンの定位を変えるだけ、この簡便さは魅力の一つだ。 試行錯誤の中から得られた経験としては、360RAの広大な空間を広く使いすぎてしまうと、細かな部分や気になる部分が目立ってしまうということ。実際に立体音響のミキシングで直面することだが、良くも悪くもステレオミキシングのようにそれぞれの音は混ざっていかない。言葉で言うのならば、ミキシング(Mixing)というよりもプレイシング(Placing)=配置をしていくという感覚に近い。 また、360RAだけではなく立体音響の大きな魅力ではあるが、クリアに一つ一つのサウンドが聴こえてくるために、ステレオミックスでは気にならなかった部分が気になってしまうということも起こり得る。逆に、アーティストにとってはこだわりを持って入れたサウンド一つ一つのニュアンスが、しっかりとしたセパレーションを持って再生されるためにミックスに埋もれるということがない。これは音楽を生み出す側としては大きな喜びにつながる。このサウンドのセパレーションに関しては、リスナーである我々が2chに収められたサウンドに慣れてしまっているだけかもしれない。これからは、この「混ざらない」という特徴を活かした作品も生まれてくるのではないだろうか。実際に音楽を生み出しているアーティストは2chでの仕上がりを前提に制作し、その2chの音楽性をリファレンスとして360RAのミキシングが行われている。当初より360RAを前提として制作された楽曲であれば、全く新しい世界が誕生するのかもしれない。 実例に即したお話も聞くことができた。ゴスペラーズ「風が聴こえる」を360RAでミキシングをした際に、立体的にサウンドを動かすことができるため、当初は色々と音に動きのあるミキシングを試してみたという。ところが、動かしすぎることにより同時に主題も移動してしまって音楽性が損なわれてしまったそうだ。その後のミックスでは、ステレオよりも広くそれぞれのメンバーを配置することで、ステレオとは異なるワイドなサウンドが表現しているという。360RAでミキシングをすることで、それぞれのメンバーの個々のニュアンスがしっかりとクリアに再生され、ステレオであれば聴こえなかった音がしっかりと届けられるという結果が得られ、好評であったということだ。まさに360RAでのミキシングならではのエピソードと言えるだろう。 📷元々がマスタリングルームあったことを偲ばせる巨大なステレオスピーカーの前に、L,C,R+ボトムL,C,Rの6本のスピーカーがスタンドに設置されている。全てMusik Electornic Gaithain m906が採用され、純正のスタンドを改造してボトムスピーカーが据え付けられている。天井には天吊で同じく906があるのがわかる。 高さ方向をミックスで活用するノウハウ 5.1chサラウンドから、上下方向への拡張がなされた360RA。以前から言われているように人間の聴覚は水平方向に対しての感度は高いが、上下方向に関しては低いという特徴を持っている。これは、物理的に耳が左右についているということに起因する。人間は水平方向の音を左右の耳に届く時間差で認識している、単純に右から来る音は右耳のほうが少しだけ早く聴こえるということだ。しかし、高さ方向に関してはそうはいかない。これは、こういう音はこちらから聴こえている「はず」という人の持つ経験で上下を認識しているためだ。よって、360RAでの上下方向のミキシングはセオリーに沿った音像配置を物理的に行う、ということに向いている。例えば、低音楽器を下に、高音楽器を上にといったことだ。これによりその特徴が強調された表現にもなる。もちろん、逆に配置して違和感を効果的に使うといった手法もあるだろう。また、ステレオMIXでボーカルを少し上から聴こえるようにした「おでこから聴こえる」などと言われるミックスバランスも、物理的にそれを配置することで実現が可能である。これにより、ボーカルの明瞭度を増して際立たせることもできるだろう。 音楽的なバランスを取るためにも、この上下方向をサウンドの明瞭度をつけるために活用するのは有効だ、という経験談もいただくことができた。水平面より少し上のほうが明瞭度が高く聴こえ、下に行けば行くほど明瞭度は落ちる。上方向も行き過ぎるとやはり明瞭度は落ちる。聴かせたいサウンドを配置する高さというのはこれまでにないファクターではあるが、360RAのミキシングのひとつのポイントになるのではないだろうか。また、サウンドとの距離に関しても上下で聴感上の変化があるということ。上方向に比べ、下方向のほうが音は近くに感じるということだ。このように360RAならではのノウハウなども、試行錯誤の中で蓄積が始まっていることが感じられる。 📷天井には、円形にバトンが設置され、そこにスピーカーが吊るされている。このようにすることでリスニングポイントに対して等距離となる工夫がなされている。 📷ボトムのスピーカー。ミドルレイヤーのスピーカーと等距離となるように前方へオフセットして据え付けられているのがわかる。 理解すべき広大な空間が持つ特性 そして、360RAに限らず立体音響全般に言えることなのだが、サウンド一つ一つがクリアになり明瞭度を持って聴こえるという特徴がある。また、トータルコンプの存在していない360RAの制作環境では、どうしてもステレオミックスと比較して迫力やパンチに欠けるサウンドになりやすい。トータルコンプに関しては、オブジェクトベース・オーディオ全てにおいて存在させることが難しい。なぜなら、オブジェクトの状態でエンドユーザーの手元にまで届けられ、最終のレンダリング・プロセスはユーザーが個々に所有する端末上で行われるためだ。また、バイノーラルという技術は、音色(周波数分布)や位相を変化させることで擬似的に上下定位や後方定位を作っている。そのためトータルコンプのような、従来のマスタリング・プロセッサーはそもそも使うことができない。 そして、比較対象とされるステレオ・ミックスはある意味でデフォルメ、加工が前提となっており、ステレオ空間という限られたスペースにノウハウを駆使してサウンドを詰め込んだものとも言える。広大でオープンな空間を持つ立体音響にパンチ感、迫力というものを求めること自体がナンセンスなのかもしれないが、これまでの音楽というものがステレオである以上、これらが比較されてしまうのはある意味致し方がないのかもしれない。360RAにおいても個々の音をオブジェクトとして配置する前にEQ/COMPなどで処理をすることはもちろん可能だ。パンチが欲しいサウンドはそのように聴こえるよう予め処理をしておくことで、かなり求められるニュアンスを出すことはできるということだ。 パンチ感、迫力といったお話をお伺いしていたところ、ステレオと360RAはあくまでも違ったもの、是非とも360RAならではの体験を楽しんでほしいというコメントをいただいた。まさにその通りである。マキシマイズされた迫力、刺激が必要であればステレオという器がすでに存在している。ステレオでは表現、体験のできない新しいものとして360RAを捉えるとその魅力も際立つのではないだろうか。ジャズなどのアコースティック楽器やボーカルがメインのものは不向きかもしれないが、ライブやコンサート音源など空間を表現することが得意な360RAでなければ再現できない世界もある。今後360RAでの完成を前提とした作品が登場すればその魅力は更に増すこととなるだろう。 360RAならではの魅力には、音像がクリアに分離して定位をするということと空間再現能力の高さがある。ライブ会場の観客のリアクションや歓声などといった空気感、これらをしっかりと収録しておくことでまさにその会場にいるかのようなサウンドで追体験できる。これこそ立体音響の持つイマーシブ感=没入感だと言えるだろう。すでに360RAとしてミキシングされたライブ音源は多数リリースされているので是非とも楽しんでみてほしい。きっとステレオでは再現しえない”空間”を感じていただけるであろう。屋根があるのか?壁はどのようになっているのか?といった会場独自のアコースティックから、残響を収録するマイクの設置位置により客席のどのあたりで聴いているようなサウンドにするのか?そういったことまで360RAであれば再現が可能である。 この空間表現という部分に関しては、今後登場するであろうディレイやリバーブに期待がかかる。本稿執筆時点では360RAネイティブ対応のこれら空間系のエフェクトは存在せず、今後のリリースを待つこととなる。もちろん従来のリバーブを使い、360RAの空間に配置することで残響を加えることは可能だが、もっと直感的に作業ができるツール、360RAの特徴に合わせたツールの登場に期待がかかる。 360RAにおけるマスタリング工程の立ち位置 かなり踏み込んだ内容にはなるが、360RAの制作において試行錯誤の中から答えが見つかっていないという部分も聞いた、マスタリングの工程だ。前述の通り、360RAのファイナルのデータはLevel 1~3(10ch~24ch)に畳み込まれたオブジェクト・オーディオである。実作業においては、Level 1~3に畳み込むエンコードを行うことが従来のマスタリングにあたるのだが、ステレオの作業のようにマスタリングエンジニアにミックスマスターを渡すということができない。このLevel 1~3に畳み込むという作業自体がミキシングの延長線上にあるためだ。 例えば、80chのマルチトラックデータを360RAでミキシングをする際には、作業の工程として80ch分のオブジェクト・オーディオを3D空間に配置することになり、これらをグループ化して10ch~24chへと畳み込んでいく。単独のオブジェクトとして畳み込むのか?オブジェクトを2つ使ってファントムとして定位させるのか、そういった工程である。これらの作業を行いつつ、同時に楽曲間のレベル差や音色などを整えるということは至難の業である。また、個々のオブジェクト・オーディオはオーバーレベルをしていなかったとしても、バイノーラルという2chに畳み込む中でオーバーレベルしてしまうということもある。こういった部分のQC=Quality Controlに関しては、まだまだ経験も知見も足りていない。 もちろん、そういったことを簡便にチェックできるツールも揃っていない。色々と工夫をしながら進めているが、現状ではミキシングをしたエンジニアがそのまま作業の流れで行うしかない状況になっているということだ。やはり、マスタリング・エンジニアという第3者により最終のトリートメントを行ってほしいという思いは残る。そうなると、マスタリングエンジニアがマルチトラックデータの取扱いに慣れる必要があるのか?それともミキシングエンジニアが、さらにマスタリングの分野にまで踏み込む必要があるのか?どちらにせよ今まで以上の幅広い技術が必要となることは間違いない。 個人のHRTFデータ取得も現実的な方法に ヘッドホンでの再生が多くなるイメージがある360RAのミキシングだが、どうしてもバイノーラルとなると細かい部分の詰めまでが行えないため、実際の作業自体はやはりスピーカーがある環境のほうがやりやすいとのことだ。そうとはいえ、360RAに対応したファシリティーは1部屋となるため、ヘッドホンを使ってのミキシングも平行して行っているということだが、その際には360RAのスピーカーが用意されたこの部屋の特性と、耳にマイクを入れて測定をした個人個人のHRTFデータを使い、かなり高い再現性を持った環境でのヘッドホンミックスが行えているということだ。 個人のHRTFデータを組み込むという機能は、360RACSに実装されている。そのデータをどのようにして測定してもらい、ユーザーへ提供することができるようになるのかは、今後の課題である。プライベートHRTFがそれほど手間なく手に入り、それを使ってヘッドホンミックスが行えるようになるということが現実になれば、これは画期的な出来事である。これまで、HRTFの測定には椅子に座ったまま30分程度の計測時間が必要であったが、ソニーの独自技術により耳にマイクを入れて30秒程度で計測が完了するということを筆者も体験している。これが一般にも提供されるようになれば本当に画期的な出来事となる。 📷Pro Tools上に展開された360 Reality Audio Creative Suite(360RACS) 「まだミキシングに関しての正解は見つかっていない。360RACSの登場で手軽に制作に取り組めるようになったので、まずは好きに思うがままに作ってみてほしい。」これから360RAへチャレンジをする方へのコメントだ。360RAにおいても録音をするテクニック、個々のサウンドのトリートメント、サウンドメイクにはエンジニアの技術が必要である。そして、アーティストの持つ生み出す力、創造する力を形にするための360RAのノウハウ。それらが融合することで大きな化学反応が起こるのではないかということだ。試行錯誤は続くが、それ自体が新しい体験であり、非常に楽しんで作業をしているということがにじむ。360RAというフォーマットを楽しむ、これが新たな表現への第一歩となるのではないだろうか。 >>Part 3:360 Reality Audio Creative Suite 〜新たなオーディオフォーマットで行う4π空間への定位〜   *取材協力:ソニー株式会社 *ProceedMagazine2021号より転載 https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-3/ https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-1/

Media

Sound on 4π Part 1 / 360 Reality Audio 〜ついにスタート! ソニーが生み出した新たな時代への扉〜

ついに2021年4月16日に正式リリースとなった 360 Reality Audio(以下、360RA)。読み方は”サンロクマル・リアリティー・オーディオ”となるこの最新のオーディオ体験。これまでにも色々とお伝えしてきているが、日本国内でのリリースと同時に、360RAの制作用のツールとなる360 Reality Audio Creative Suiteもリリースされている。360RAとは一体何なのか?どのようにして作ればよいのか?まずは、そのオーバービューからご紹介していこう。 ソニーが作り出してきたオーディオの時代 まず最初に、ソニーとAudioの関係性を語らないわけにはいかない。コンシューマ・オーディオの分野では、常にエポックメイキングな製品を市場にリリースしてきている。その代表がウォークマン®であろう。今では当たり前となっている音楽を持ち歩くということを世界で初めて実現した電池駆動のポータブル・カセットテープ・プレイヤーである。10代、20代の読者は馴染みが薄いかもしれないが、据え置きの巨大なオーディオコンポや、ラジオとカセットプレイヤーを一体にしたラジカセが主流だった時代に、電池で動作してヘッドホンでどこでも好きな場所で音楽を楽しむことができるウォークマン®はまさにエポックな製品であり、音楽の聴き方を変えたという意味では、時代を作った製品であった。みんなでスピーカーから出てくる音楽を楽しむというスタイルから、個人が好きな音楽をプライベートで楽しむという変化を起こしたわけだ。これは音楽を聴くという体験に変化をもたらしたとも言えるだろう。 ほかにもソニーは、映画の音声がサラウンドになる際に大きなスクリーンの後ろで通常では3本(L,C,R)となるスピーカーを5本(L,LC,C,RC,R)とする、SDDS=Sony Dynamic Digital Soundというフォーマットを独自で提唱したり、ハイレゾという言葉が一般化する以前よりPCMデジタルデータでは再現できない音を再生するために、DSDを採用したスーパーオーディオCD(SACD)を作ったり、と様々な取り組みを行っている。 そして、プロフェッショナル・オーディオ(音響制作機器)の市場である。1980年代よりマルチチャンネル・デジタルレコーダーPCM-3324/3348シリーズ、Oxford R3コンソール、CDのマスタリングに必須のPCM-1630など、音声、特に音楽制作の中心にはソニー製品があった。いまではヘッドホン、マイクは例外に、プロシューマー・マーケットでソニー製品を見ることが少なくなってしまっているが、その要素技術の研究開発は続けられており、コンシューマー製品へしっかりとフィードバックが行われているのである。「制作=作るため」の製品から「利用する=再生する」製品まで、つまりその技術の入口から出口までの製品を揃えていたソニーのあり方というのは、形を変えながらも続いているのである。 PCM-3348 PCM-3348HR Oxford R3 PCM-1630 このようなソニーとAudioの歴史から見えてくるキーワードは、ユーザーへの「新しい体験の提供」ということである。CDではノイズのないパッケージを提供し、ウォークマン®ではプライベートで「どこでも」音楽を楽しむという体験を、SDDSは映画館で最高の臨場感を作り出し、SACDはまさしく最高となる音質を提供した。全てが、ユーザーに対して新しい体験を提供するという一つの幹から生えているということがわかる。新しい体験を提供するための技術を、難解なテクノロジーの状態からスタイリッシュな体験に仕立てて提供する。これがまさにソニーのAudio、実際はそれだけではなく映像や音声機器にも共通するポリシーのように感じる。 全周(4π)を再現する360RA ソニーでは要素技術として高臨場感音響に関しての研究が続けられていた。バーチャル・サラウンド・ヘッドホンや、立体音響を再生できるサラウンドバーなどがこれまでにもリリースされているが、それとはまた別の技術となる全周(4π)を再現するオーディオ技術の研究だ。そして、FraunhoferがMPEG-H Audioを提唱した際にこの技術をもって参画したことで、コンテンツとなるデータがその入れ物(コンテナ)を手に入れて一気に具体化、2019年のCESでの発表につながっている。CES2019の時点ではあくまでも技術展示ということだったが、その年の10月には早くもローンチイベントを行い欧米でのサービスをスタートさせている。日本国内でも各展示会で紹介された360RAは、メディアにも取り上げられその存在を知った方も多いのではないだろうか。特に2020年のCESでは、ソニーのブースでEVコンセプトの自動車となるVISION-Sが展示され大きな話題を呼んだが、この車のオーディオとしても360RAが搭載されている。VISION-Sではシートごとにスピーカーが埋め込まれ立体音響が再生される仕様となっていた、この立体音響というのが360RAをソースとしたものである。 360RAはユーザーに対して「新しい体験」を提供できる。機器自体は従来のスマホや、ヘッドホン、イヤホンであるがそこで聴くことができるサウンドは、まさにイマーシブ(没入)なもの。もちろんバイノーラル技術を使っての再生となるが、ソニーのノウハウが詰まった独自のものであるということだ。また、単純なバイノーラルで収録された音源よりも、ミキシングなど後処理が加えられることで更に多くの表現を手に入れたものとなっている。特にライブ音源の再生においては非常に高い効果を発揮し、最も向いたソースであるという認識を持った。 バイノーラルの再生には、HRTF=頭部伝達関数と呼ばれる数値に基づいたエンコードが行われ、擬似的に左右のヘッドホン or イヤホンで立体的音響を再生する。このHRTFは頭の形、耳の形、耳の穴の形状など様々な要素により決まる個人ごとに差異があるもの。以前にも紹介したYAMAHAのViRealはこのHRTFを一般化しようという研究であったが、ソニーでは「Sony | Headphones Connect」と称されたスマートフォン用アプリで、個々に向けたHRTFを提供している。これは耳の写真をアップロードすることでビッグデータと照合し最適なパラメーターを設定、ヘッドホンフォン再生に適用することで360RAの体験を確実にし、ソニーが配信サービスに技術提供している。 Sony | Headphones Connectは一部のソニー製ヘッドホン用アプリとなるが、汎用のHRTFではなく個人に合わせて最適化されたHRTFで聴くバイノーラルは圧倒的である。ぼんやりとしか認識できなかった音の定位がはっきりし、後方や上下といった認識の難しい定位をしっかりと認識することができる。もちろん、個人差の出てしまう技術であるため一概に言うことはできないが、それでも汎用のHRTFと比較すれば、360RAでの体験をより豊かなものとする非常に有効な手法であると言える。この手法を360RAの体験向上、そしてソニーのビジネスモデルとして技術と製品を結びつけるものとして提供している。体験を最大化するための仕掛けをしっかりと配信サービスに提供するあたり、さすがソニーといったところだ。 360RAはいますぐ体験できる それでは、360RAが国内でリリースされ、実際にどのようにして聴くことができるようになったのだろうか?まず、ご紹介したいのがAmazon music HDとDeezerの2社だ。両社とも月額課金のサブスクリプション(月額聴き放題形式)のサービスである。ハイレゾ音源の聴き放題の延長線上に、立体音響音源の聴き放題サービスがあるとイメージしていただければいいだろう。視聴方法はこれらの配信サービスと契約し、Amazon music HDであればAmazon Echo Studioという立体音響再生に対応した専用のスピーカーでの再生となる。物理的なスピーカーでの再生はどうしても上下方向の再生が必要となるため特殊な製品が必要だが、前述のAmazon Echo Studioやサラウンドバーのほか、ソニーからも360RA再生に対応した製品としてSRS-RA5000、SRS-RA3000という製品が国内でのサービス開始とともに登場している。 また、Deezerではスマートフォンとヘッドホン、イヤホンでの再生、もしくは360RA再生に対応したBluetoothスピーカーがあれば夏にはスピーカーで360RAを楽しむことができる。スマートフォンは、ソニーのXperiaでなければならないということはない。Android搭載のデバイスでも、iOS搭載のデバイスでも楽しむことができる、端末を選ばないというのは実に魅力的だ。ヘッドホン、イヤホンも普通のステレオ再生ができるもので十分で、どのような製品でも360RAを聴くことができる。Sony | Headphones Connectの対象機種ではない場合はパーソナライズの恩恵は受けられないが、その際にはソニーが準備した汎用のHRTFが用いられることとなる。導入にあたり追加で必要となる特殊な機器もないため、興味を持った方はまずはDeezerで360RAのサウンドを楽しむのが近道だろうか。余談ではあるが、Deezerはハイレゾ音源も聴き放題となるサービス。FLAC圧縮によるハイサンプルの音源も多数あるため、360RAをお試しいただくとともにこちらも併せて聴いてみると、立体音響とはまた違った良さを発見できるはずだ。 そして、前述の2社に加えてnugs.netでも360 Reality Audioの楽曲が配信開始されている。360RAを体験していただければわかるが、立体音響のサウンドはまさに会場にいるかのような没入感を得ることができ、ライブやコンサートなどの臨場感を伝えるのに非常に適している。nugs.net はそのライブ、コンサートのストリーミングをメインのコンテンツとして扱う配信サービスであり、このメリットを最大限に活かしたストリーミングサービスになっていると言えるだろう。 欧米でサービスが展開されているTIDALも月額サブスクリプションのサービスとなり、すでに360RAの配信をスタートしている。サービスの内容はDeezerとほぼ同等だが、ハイレゾの配信方針がDeezerはFLAC、TIDALはMQAと異なるのが興味深い。この音質の差異は是非とも検証してみたいポイントである。TIDALはラッパーのJAY-Zがオーナーのサービスということで、Hip-Hop/R&Bなどポップスに強いという魅力もある。ハイレゾ音源は配信サービスで月額課金で楽しむ時代になってきている。前号でも記事として取り上げたが、ハイレゾでのクオリティーの高いステレオ音源や360RAなどの立体音響、これらの音源を楽しむということは、すでにSpotifyやApple Musicといった馴染みのある配信サービスの延長線上にある。思い立てばいますぐにでも360RAを楽しむことができる環境がすでに整っているということだ。 360RAを収めるMPEG-Hという器 360RAを語るにあたり、技術的な側面としてMPEG-Hに触れないわけにはいかない。MPEG-H自体はモノラルでも、ステレオでも、5.1chサラウンドも、アンビソニックスも、オブジェクトオーディオも、自由に収めることが可能、非常に汎用性の高いデジタルコンテンツを収める入れ物である。このMPEG-Hを360RAではオブジェクトオーディオを収める器として採用しているわけだ。実際の360RAには3つのレベルがあり、最も上位のLevel3は24オブジェクトで1.5Mbpsの帯域を使用、Level2は16オブジェクトで1Mbps、Leve1は10オブジェクトで640kbpsとなっている。このレベルとオブジェクト数に関しては、実際の制作ツールとなる360RA Creative Suiteの解説で詳しく紹介したい。 Pro Tools上に展開された360 Reality Audio Creative Suite(360RACS) ここでは、その帯域の話よりもMPEG-Hだから実現できた高圧縮かつ高音質という部分にフォーカスを当てていく。月額サブスクリプションでの音楽配信サービスは、現状SpotifyとApple Musicの2強であると言える。両社とも圧縮された音楽をストリーミングで再生するサービスだ。Apple Musicで使われているのはAAC 256kbpsのステレオ音声であり、1chあたりで見れば128kbpsということになる。360RAのチャンネルあたりの帯域を見るとLevel1で64kbps/chとAACやMP3で配信されているサービスよりも高圧縮である。しかし、MPEG-Hは最新の圧縮技術を使用しているため、従来比2倍以上の圧縮効率の確保が可能というのが一般的な認識である。その2倍を照らし合わせればチャンネルあたりの帯域が半分になっても従来と同等、もしくはそれ以上の音質が確保されているということになる。逆に言えば、従来のAAC、MP3という圧縮技術では同等の音質を確保するために倍の帯域が必要となってしまう。これがMPEG-H Audioを採用した1点目の理由だ。 もう一つ挙げたいのはオブジェクトへの対応。360RAのミキシングは全てのソースがオブジェクトとしてミキシングされる。オブジェクトとしてミキシングされたソースを収める器として、オブジェクトの位置情報にあたるメタデータを格納することができるMPEG-Hは都合が良かったということになる。特殊な独自のフォーマットを策定することなく、一般化された規格に360RAのサウンドが収めることができたわけだ。ちなみにMPEG-Hのファイル拡張子は.mp4である。余談にはなるが、MPEG-Hは様々な最新のフォーマットを取り込んでいる。代表的なものが、HEVC=High Efficiency Video Coding、H.265という高圧縮の映像ファイルコーディック、静止画ではHEIF=High Efficiency Image File Format。HEIFはHDR情報を含む画像ファイルで、iPhoneで写真を撮影した際の画像ファイルで見かけた方も多いかもしれない。このようにMPEG-Hは3D Audio向けの規格だけではなく、様々な可能性を含みながら進化を続けているフォーマットである。 拡がりをみせる360RAの将来像 360RAの今後の展開も伺うことができた。まず1つは、配信サービスを提供する会社を増やすという活動、360RAに対応したスピーカーやAVアンプなどの機器を増やすという活動、このような活動から360RAの認知も拡大して、制作も活発化するという好循環を作り健全に保つことが重要とのこと。すでに世界中の配信事業者とのコンタクトは始まっており、制作に関しても欧米でのサービス開始から1年半で4000曲とかなりのハイペースでリリースが続いている。ほかにも、ライブやコンサートとの親和性が高いということから、リアルタイムでのストリーミングに対しても対応をしたいという考えがあるとのこと。これはユーザーとしても非常に楽しみなソリューションである。また、音楽ということにこだわらずに、オーディオ・ドラマなど、まずはオーディオ・オンリーでも楽しめるところから拡張を進めていくということだ。また、360RAの要素技術自体はSound ARなど様々な分野での活用が始まっている。 日本国内では、まさに産声を上げたところである360RA。ソニーの提案する新しい音楽の「体験」。立体音響での音楽視聴はこれまでにない体験をもたらすことは間違いない。そして改めてお伝えしたいのは、そのような技術がすでに現実に生まれていて、いますぐにでも簡単に体験できるということ。ソニーが生み出した新たな時代への扉を皆さんも是非開いてほしい。 >>Part 2:ソニー・ミュージックスタジオ 〜360 Reality Audio Mixing、この空間を楽しむ〜   *取材協力:ソニー株式会社 *ProceedMagazine2021号より転載 https://pro.miroc.co.jp/solution/sound-on-4%CF%80-360ra-part-2/

Media

IPビデオ伝送の筆頭格、NDIを知る。〜ソフトウェアベースでハンドリングする先進のIP伝送〜

弊社刊行のProceedMagazineでは以前より音声信号、映像信号のIP化を取り上げてきた。新たな規格が登場するたびにそれらの特徴をご紹介してきているが、今回はNewtek社によって開発された、現在世界で最も利用されているIPビデオ伝送方式のひとつであるNDIを取り上げその特徴をじっくりと見ていきたい。IPビデオ伝送ということは、汎用のEthernetを通じVideo/Audio信号を伝送するためのソリューション、ということである。いま現場に必要とされる先進的な要素を多く持つNDI、その全貌に迫る。 一歩先を行くIPビデオ伝送方式 NDI=Network Device Interface。SDI/HDMIとの親和性が高く、映像配信システムなどの構築に向いている利便性の高い規格である。このIP伝送方式は、NewTek社により2015年9月にアムステルダムで開催された国際展示会IBCで発表された。そして、その特徴としてまず挙げられるのがソフトウェアベースであるということであり、マーケティング的にも無償で使用できるロイヤリティー・フリーのSDKが配付されている。ソフトウェアベースであるということは、特定のハードウェアを必要とせず汎用のEthernet機器が活用可能であるということである。これは機器の設計製造などでも有利に働き、特別にカスタム設計した機器でなくとも、汎用製品を組み合わせて活用することで製品コストを抑えられることにつながっている。この特徴を体現した製品はソフトウェアとしていくつもリリースされている。詳しい紹介は後述するが、汎用のPCがプロフェッショナルグレードの映像機器として活用できるようになる、と捉えていただいても良い。 フルHD映像信号をを100Mbit/s程度にまで圧縮を行い、汎用のEthernetで伝送を行うNDIはIBC2015でも非常に高い注目を集め、NewTekのブースには来場者が入りきれないほどであったのを覚えている。以前、ProceedMagazineでも大々的に取り上げたSMPTE ST2110が基礎の部分となるTR-03、TR-04の発表よりも約2ヶ月早いタイミングで、NDIは完成形とも言える圧縮伝送を実現した規格として登場したわけだ。非圧縮でのSDI信号の置換えを目指した規格であるSMPTE ST-2022が注目を集めていた時期に、圧縮での低遅延リアルタイム伝送を実現し、ロイヤリティーフリーで特定のハードウェアを必要とせずにソフトウェアベースで動作するNDIはこの時すでに一歩先を行くテクノロジーであったということが言える。そして、本記事を執筆している時点でNDIはバージョン4.6.2となっている。この更新の中では、さらに圧縮率の高いNDI HX、NDI HX2などを登場させその先進性に磨きがかけられた。 📷これまでにもご紹介してきた放送業界が中心となり進めているSMPTE 2022 / 2110との比較をまとめてみた。大規模なインフラにも対応できるように工夫の凝らされたSMPTE規格に対し、イントラネットでのコンパクトな運用を目指したNDIという特徴が見てとれる。NDIは使い勝手を重視した進化をしていることがこちらの表からも浮かんでくるのではないだろうか。 100Mbit/s、利便性とクオリティ NDIの詳細部分に踏み込んで見ていこう。テクノロジーとしての特徴は、前述の通り圧縮伝送であるということがまず大きい。映像のクオリティにこだわれば、もちろん非圧縮がベストであることに異論はないが、Full HD/30pで1.5Gbit/sにもなる映像信号を汎用のEhternetで伝送しようと考えた際に、伝送路の帯域が不足してくるということは直感的にご理解いただけるのではないだろうか。シンプルに言い換えれば一般的に普及しているGigabit Ethernetでは非圧縮のFull HD信号の1Streamすら送れないということである。利便性という目線で考えても、普及価格帯になっているGigabit Ethernetを活用できず10GbEthernetが必須になってしまっては、IPビデオ伝送の持つ手軽さや利便性に足かせがついてしまう。 NDIは当初より圧縮信号を前提としており、標準では100Mbit/sまで圧縮した信号を伝送する。圧縮することでGigabitEthernetでの複数Streamの伝送、さらにはワイヤレス(Wi-Fi)の伝送などにも対応している。4K伝送時も同様に圧縮がかかり、こちらもGigabit Ethernetでの伝送が可能である。もちろん10GbEthernetを利用すれば、さらに多くのStreamの伝送が可能となる。放送業界で標準的に使用されているSONY XDCAMの圧縮率が50Mbit/sであることを考えれば、十分にクオリティが担保された映像であることはご想像いただけるだろう。さらにNDI HXでは20Mbit/sまでの圧縮を行いワイヤレス機器などとの親和性を高め、最新の規格となるNDI HX2ではH.265圧縮を活用し、NDIと同様の使い勝手で半分の50Mbit./sでの運用を実現している。 Ethernet Cable 1本でセットできる 代表的なNDI製品であるPTZカメラ。 次の特徴は、Ethernet技術の持つ「双方向性」を非常にうまく使っているということだ。映像信号はもちろん一方向の伝送ではあるが、逆方向の伝送路をタリー信号やPTZカメラのコントロール、各機器の設定変更などに活用している。これらの制御信号は、SMPTE ST2022/ST2110では共通項目として規格化が行われていない部分だ。 NDIではこれらの制御信号も規格化され、メーカーをまたいだ共通化が進められている。わかりやすい部分としてはPTZカメラのコントロールであろう。すでにNDI対応のPTZカメラはPoE=Power over Ethernet対応の製品であれば、Ethernet Cable1本の接続で映像信号の伝送から、カメラコントロール、電源供給までが行えるということになる。従来の製品では3本、もしくはそれ以上のケーブルの接続が必要なシーンでも1本のケーブルで済んでしまうということは大きなメリットだ。天井などに設置をすることが多いPTZカメラ。固定設備としての設置工事時にもこれは大きな魅力となるだろう。NDIに対応した製品であれば、基本的にNDIとして接続されたEthernetケーブルを通じて設定変更などが行える。別途USBケーブル等を接続してPCから設定を流し込む、などといった作業から解放されることになる。 📷左がリモートコントローラーとなる。写真のBirdDog P200であれば、PoE対応なので映像信号、電源供給、コントロール信号が1本のEthernet Cableで済む。 帯域を最大限に有効活用する仕組み NDIの先進性を物語る特徴はまだある。こちらはあまり目に見える部分ではないが、帯域保護をする機能がNDIには搭載されている。これは前述のタリー信号をカメラ側へ伝送できる機能をさらに活用している部分だ。実際にスイッチャーで選択されていない(双方向で接続は確立されているが、最終の出力としては利用されていない)信号は、データの圧縮率が高められたプロキシ伝送となる。本線として利用されていない(タリーの戻ってきていない)カメラは、自動的にプロキシ伝送に切り替わり帯域の圧縮を防ぐということになる。これは本線で使用されていたとしても、PinP=Picture in Picture の副画像などの場合でも同様だ。画面の1/4以上で利用されている場合にはフルクオリティの出力で、1/4以下であればプロキシへと自動的に切り替わる。双方向に情報を伝達できるNDIはスイッチャーが必要とする時にカメラ側へフルクオリティー画像の伝送をリクエストして切り替える、この機能を利用しているわけだ。数多くのカメラを同一のネットワーク上に接続した場合にはその帯域が不安になることも多いが、NDIであればネットワークの持つ帯域を最大限に有効活用する仕組みが組み込まれている。 信号伝送の帯域に関しての特徴はほかにもあり、MulticastとUnicastの切り替えが可能というのもNDIの特徴だ。接続が確立された機器同士でのUnicast伝送を行うというのがNDIの基本的な考え方だが、スイッチャーから配信機材やレコーダーといった複数に対して信号が送られる場合にはMulticastへと手動で切り替えが可能となっている。もちろん、全ての信号伝送をMulticastできちんと設定してしまえば、特に考えることもなく全ての機器で信号を受け取ることができるが、実際のシステム上では設定も簡易なUnicastで十分な接続がほとんどである。イントラネットを前提とするNDIのシステム規模感であれば、Unicast/Multicast両対応というのは理にかなっている。AoIPであるDanteも同じく基本はUnicastで、必要に応じてMulticastへと変更できるということからも、イントラであればこの考え方が正しいということがわかる。 また、IP機器ということで設定に専門的な知識が必要になるのではと思われるかもしれない。NDIは相互の認識にBonjour(mDNS)を使っている、これはDanteと同様である。同一のネットワーク上に存在している機器であれば自動的に見つけてきてくれるという認識性の高さは、Danteを使ったことのある方であれば体験済みだろう。もちろん、トラブルシュートのために最低限のIPの知識はもっておいたほうが良いが、ITエンジニアレベルの高いスキルを求められる訳ではない。汎用のEthernet Switchに対応機器を接続することで自動的に機器が認識されていき、一度認識すればネットワーク上に障害が生じない限りそのまま使い続けることができる。 IPビデオ伝送ならでは、クラウドベースへ 非圧縮映像信号のリアルタイム伝送を目的として策定された SMPTE ST-2110との比較も気になるポイントだろう。SMPTE ST-2110はMulticastを基本とした大規模なネットワークを前提にしており、Video PacketとAudio Packetが分離できるため、オーディオ・プロダクションとの親和性も考えられている。各メーカーから様々な機器が登場を始めているが、相互の接続性など規格対応製品のスタート時期にありがちな問題の解決中という状況だ。NDIについてはすでに製品のリリースから6年が経過し高い相互接続性を保っている。 NDIはイントラ・ネットワーク限定の単一のシステムアップを前提としているために、大規模なシステムアップのための仕組みという部分では少し物足りないものがあるかもしれない。WWW=World Wide Webを経由してNDIを伝送するというソリューションも登場を始めているが、まだまだNDIとしてはチャレンジ段階であると言える。その取り組みを見ると、2017年には200マイル離れたスタジアムからのカメラ回線をプロダクションするといった実験や、Microsoft Azure、AWSといったクラウドサーバーを介してのプロダクションの実験など、様々なチャレンジが行われたそうだ。なお、こちらの実験ではクラウドサーバーまでNDIの信号を接続し、そこからYoutube Liveへの配信を行うということを実現している。つまり、高い安定性が求められる配信PCをクラウド化し、複数のストリーミング・サービスへの同時配信を行う、といったパワフルなクラウドサーバーを活用したひとつの未来的なアイデアである。このようなクラウド・ベースのソリューションは、まさにIPビデオ伝送ならではの取り組みと言える。業界的にもこれからの活用が模索されるクラウド・サービス、SMPTE ST-2110もNDIもIP伝送方式ということでここに関しての可能性に大きな差異は感じないが、NDIが先行して様々なチャレンジを行っているというのが現状だ。 NDIをハンドリングする無償アプリ 次に、NDIの使い勝手にフォーカスをあてていくが、キーワードとなるのは最大の特徴と言ってもいいソフトウェアベースであるということ。それを端的に表している製品、NewTekが無償で配布しているNDI Toolsを紹介していこう。 NDIを活用するためのアプリケーションが詰まったこのNDI Toolsは、Windows用とMac用が用意され9種類のツールが含まれている。メインとなるツールはネットワーク内を流れるNDI信号=NDIソースのモニターを行うNDI Studio Monitor。NDI信号が流れるネットワークにPCを接続しアプリケーションを起動することで、信号のモニターがPCで可能となる。SDIやHDMIのようにそれぞれの入力を備えたモニターの準備は不要、シンプルながらもIPビデオ伝送ならではの機能を提供するソフトウェアだ。次は、VLCで再生した映像をNDI信号としてPCから出力できるようにするNDI VLC Plugin。こちらを立ち上げれば、外部のVideo PlayerをPCを置き換え可能となる。そして、PCから各種テストパターンを出力するNDI Test Patterns。高価な測定器なしにPCでテストパターンの出力を実現している。ここまでの3点だけでも、最初に調整のためのテストパターンを出力し、調整が終わったらVLCを使ってVideo再生を行いつつ、最終出力のモニタリングをNDI Srtudio Monitorで行う、といったフローがPC1台で組み上げられる。IPビデオ伝送ならではの使い勝手と言えるのではないだろうか。 利便性という面で紹介したいのがNDI Virtual Input。これはWindows用となり、PCが参加しているネットワーク内のNDIソースをWindows Video / Audioソースとして認識させることができる。つまり、NDIの入力信号をウェブカメラ等と同じように扱えるようになるということだ。なお、Mac向けにはNDI Webcam Inputというツールで同じようにWEBカメラとしてNDIソースを認識させることができる。すでにZoom / Skypeはその標準機能でNDIソースへの対応を果たしており、IPベースのシステムのPCとの親和性を物語る。そして、NDI for Adobe CCは、Premier / After Effectの出力をNDI信号としてPCから出力、イントラネット越しに別の場所でのプレビューを行ったり、プレイヤーの代替に使ったりとアイデアが広がるソフトウェアだ。他にもいくつかのソフトウェアが付属するが、ハードウェアで整えようとすればかなりのコストとなる機能が無償のソフトウェアで提供されるというのは大きな魅力と言える。 NDI Tools紹介ページ NDI Toolsダウンロードページ NDIの可能性を広げる製品群 続々と登場している製品群にも注目しておきたい。まずは、Medialooks社が無償で配布を行なっているSDI to NDI Converter、NDI to SDI Converter。Blackmagic Design DecklinkシリーズなどでPCに入力されたSDIの信号をNDIとして出力することができる、またその逆を行うことができるソフトウェアで、IPビデオらしくPCを映像のコンバーターとして活用できるアプリケーション。有償のソフトウェアとしてはNDI製品を多数リリースするBirdDog社よりDante NDI Bridgeが登場している。こちらはソフトウェアベースのDante to NDIのコンバーターで、最大6chのDante AudioをNDIに変換して出力する。ステレオ3ペアの信号を3つのNDI信号として出力することも、6chの一つのNDIの信号として出力することもできる使い勝手の良い製品だ。同社のラインナップにはNDI Multiveiwというアプリケーションもある。こちらは、その名の通りネットワーク上のNDI信号のMultiview出力をソフトウェア上で組み立て、自身のDisplay用だけではなくNDI信号として出力するという製品。ソースの名称、オーディオメーター、タリーの表示に対応し、複数のMuliviewをプリセットとして切り替えることが行える。 また、BirdDog社は現場で必須となるインカムの回線をNDIに乗せるというソリューションも展開、SDI / HDMI to NDIのコンバーターにインカム用のヘッドセットIN/OUTを設け、その制御のためのComms Proというアプリケーションをリリースしている。このソリューションはネットワークの持つ双方向性を活用した技術。映像信号とペアでセレクトが可能なためどの映像を撮っているカメラマンなのかが視覚的にも確認できるインカムシステムだ。もちろん、パーティラインなど高度なコミュニケーションラインの構築も可能。ハードウェアとの組み合わせでの機能とはなるが、$299で追加できる機能とは思えないほどの多機能さ。どのような信号でも流すことができるネットワークベースであることのメリットを活かした優れたソリューションと言える。 今回写真でご紹介しているのが、Rock oN渋谷でも導入している NewTek TriCaster Mini 4K、NDI自体を牽引しているとも言えるビデオスイッチャーである。NDIのメリットを前面に出した多機能さが最大のアピールポイント。先述した接続の簡便さ、また、双方向性のメリットとして挙げたPTZカメラのコントロール機能では対応機種であればIRIS、GAINなどの調整も可能となる。そして、TriCasterシリーズはソフトウェアベースとなるためVideo Playerが組み込まれている、これもビデオスイッチャーとしては画期的だ。さらには、Video Recorder機能、Web配信機能などもひとつのシステムの中に盛り込まれる。肝心のビデオスイッチャー部もこのサイズで、4M/E、12Buffer、2DDRという強力な性能を誇っているほか、TriCasterだけでクロマキー合成ができたりとDVEに関しても驚くほど多彩な機能を内包している。 📷 NDIを提唱するNewTekの代表的な製品であるTriCasterシリーズ。こちらはTriCaster Mini 4Kとなる。コンパクトな筐体がエンジン部分、4系統のNDI用の1GbEのポートが見える。TriCasterシリーズは、本体とコントロールパネルがセットになったバンドルでの購入ができる。写真のMini 4Kのバンドルは、エンジン本体、1M/Eのコンパクトなコントローラー、そしてSpeak plus IO 4K(HDMI-NDIコンバーター)が2台のバンドルセットとなる。そのセットがキャリングハンドルの付いたハードケースに収まった状態で納品される。セットアップが簡単なTriCasterシリーズ、こちらを持ち運んで使用するユーザーが多いことの裏付けであろう。 すでにInternetを越えて運用されるNDI イントラ・ネットワークでの運用を前提としてスタートしたNDIだが、すでにInternetを越えて運用するソリューションも登場している。これから脚光を浴びる分野とも言えるが、その中からも製品をいくつか紹介したい。まずは、Medialooks社のVideo Transport。こちらは、NDIソースをインターネット越しに伝送するアプリケーションだ。PCがトランスミッターとなりNDI信号をH.265で圧縮を行い、ストリーミングサイズを落とすことで一般回線を利用した伝送を実現した。フルクオリティの伝送ではないが、汎用のインターネットを越えて世界中のどこへでも伝送できるということに大きな魅力を感じさせる。また、データサイズを減らしてはいるが、瞬間的な帯域の低下などによるコマ落ちなど、一般回線を使用しているからこその問題をはらんでいる。バッファーサイズの向上など、技術的なブレイクスルーで安定したクオリティーの担保ができるようになることが期待されるソリューションだ。 BirdDog社ではBirdDog Cloudというソリューションを展開している。こちらは実際の挙動をテストできていないが、SRT=Secure Reliable Transportという映像伝送プロトコルを使い、インターネット越しでの安定した伝送を実現している。また、こちらのソリューションはNDIをそのまま伝送するということに加え、同社Comms ProやPTZカメラのコントロールなども同時に通信が可能であるとのこと。しっかりと検証してまたご紹介させていただきたいソリューションだ。 Rock oN渋谷でも近々にNewTek TriCasterを中心としたNDIのシステムを導入を行い、製品ハンズオンはもちろんのことウェビナー配信でもNDIを活用していくことになる。セットアップも簡便なNDIの製品群。ライブ配信の現場での運用がスタートしているが、この使い勝手の良さは今後のスタジオシステムにおけるSDIを置き換えていく可能性が大いにあるのではないだろうか。大規模なシステムアップに向いたSMPTE ST-2110との棲み分けが行われ、その存在感も日増しに高くなっていくことは想像に難くない。IP伝送方式の中でも筆頭格として考えられるNDIがどのようにワークフローに浸透していくのか、この先もその動向に注目しておくべきだろう。   *ProceedMagazine2021号より転載

Media

配信環境グレードアップ作戦!〜ヘッドセットマイクでパフォーマンスと声の明瞭度をアップ!!

コロナの影響もあり、Youtube等での配信にすでにチャレンジされた方も多くいらっしゃるのではないでしょうか? カメラ、ビデオ・スイッチャーなどを揃えれば、まずは配信をおこなうことは出来るようになります。 そして、次のステップとしてオーディオミキサーで効果音や、音楽などを加えることにチャレンジ。 次のステップとしては、何があるか?そう考えると、喋っている音をクリアに聞かせるためのマイクが必要ということになるかと思います。 デスクトップタイプのスタンドにSHURE SM58などを準備してもよいですが、両手がフリーになるヘッドセットタイプのマイクをここではご紹介したいと思います。 ヘッドセットマイク?ラベリアマイク? ラベリアマイクもヘッドセットマイクも、大きなくくりとしては同じものです。なぜなら、ラベリアマイク=小型マイクということだからです。 ラベリアマイクを耳掛けできるようにしたものがヘッドセットマイクです。 ラベリアマイクは、代表的な形状としてタイピン型のマイクで襟などにクリップで取り付けるものがあります。撮影の現場などでは、更に小型のマイクを襟の裏側などに仕込んだりということも行われます。 マイクの存在を画面に写さずにその効果を得ることが出来るのが特徴と言えるでしょう。 別に画面に写っても構わないというケースがほとんどだと思われるYoutubeなどの配信では、できるだけ口元の近くで集音の出来るヘッドセット型の製品のほうが有利と言えるでしょう。 音源=口元のできるだけ近くにマイクを設置することが出来る、ということは、言葉を明瞭に捉えることだけでなく、部屋のノイズ(空調音や、ファンノイズ)を低減させることにもつながる一石二鳥のチョイスとなります。 言葉を明瞭にすることのメリットは言うまでもありませんし、両手の塞がらないヘッドセットタイプはこれまで通りのパフォーマンスを可能とします。 ヘッドセットマイクには、片耳掛けと、両耳掛けがあります。それほど激しい動きのない場合はどちらでも良いでしょうが、やはり両耳掛けのほうが一般的には安定します。 ステージなどでのダンスを伴うようなシーンでは逆に片耳掛けで頬に透明テープなどで固定すると行ったことも行われますし、ヘアスタイルに影響の少ない片耳掛けは女性に好まれるといった側面もありますので、ここのチョイスはまさにケースバイケースといったところではないでしょうか。 おすすめヘッドセットマイク audio technica PRO8HE 販売価格:¥ 10,456 (本体価格:¥ 9,505) 高磁力マグネットを搭載したダイナミックマイクロフォン。ファンタム電源不要のため、オーディオミキサーの仕様を選ばず手軽に導入できます。 軽量のヘッドバンドとクッション性の良いサポートパッドを採用し、快適で安定した装着感を実現。マイク本体はフレキシブルに角度を変えられるだけでなく、左右どちらでも使用可能。ハイパーカーディオイド特性により、背面や側面からの不要な音をアイソレート。求める音源を確実に収音し、卓越したハウリングマージンを実現します。 Rock oN Line eStoreでのご購入はこちらから>> SHURE SM35-XLR 販売価格:¥ 19,250 (本体価格:¥ 17,500) ライブパフォーマンス向けマイクでは定番ブランドと言えるSHUREのヘッドセットマイク。激しいパフォーマンス中でも安定した収音が可能な設計となっています。ヘッドセットマイクはワイヤレスでの使用が想定されたものが多い中、こちらは標準的なXLRで接続可能。 ROCK ON PRO presents ACSU 2020 Onlineでメインの出演者に使用されたのもこのモデルです。 Rock oN Line eStoreでのご購入はこちらから>> SHURE BLX14J/P31-JB 販売価格:¥ 44,000 (本体価格:¥ 40,000) ライブパフォーマンスや講義・講演などでは圧倒的に便利なワイヤレスシステム。その利点はWEB配信になっても変わりません。 ライブに強いSHUREはワイヤレスにも当然強い!ということで、お求めやすいエントリーモデルのワイヤレスシステムを紹介致します。 BLX14JはB帯(800MHz帯)対応のワイヤレスレシーバー。耐久性に優れ、簡単なセットアップでわかり易いコントロール機能、ワンタッチで操作できるQuickScanなどの機能により簡単にセットアップできます。 Rock oN Line eStoreでのご購入はこちらから>> Line 6 XD-V55HST 販売価格:¥ 52,800 (本体価格:¥ 48,000) こちらはLine 6の2.4GHz帯対応デジタルワイヤレスシステム。 付属するヘッドセット・システムは安定しているだけでなくセッティングを調整でき、ハイエンドの無指向性マイク・カプセルとダイナミック・フィルターにより不要なポップやバックグラウンド・ノイズを低減できます。 リンク先はマイクのカラーがタンのモデルですが、ブラックモデルもラインナップされています。そちらをご希望の際はぜひRock oN Line eStoreへお問い合わせください! Rock oN Line eStoreでのご購入はこちらから>> Rock oN Line eStoreに特設コーナーが誕生! Rock oN Line eStoreでは、カメラからスイッチャー、配信や収録向けのマイクなど、映像制作に関わる機材を集めた特設コーナーを新設している。本記事に挙げた個別の機材が購入できるのはもちろん、手軽なセット販売や、スタッフに相談できる問い合わせフォームなどもあるので、ぜひ覗いてみてほしい。 eStore特設コーナーへ!!>>

Solution

手軽に多拠点ストリーミング!〜ATEM Streaming Bridge

ATEM Streaming Bridgeは、ATEM Mini ProシリーズからH.264ストリームを受信して、SDI/HDMIビデオに変換するビデオコンバーター。ATEM Mini Pro / ATEM Mini Pro ISOからのEthenetダイレクトストリーミング信号を受け、SDI/HDMI対応機器にビデオ信号を送ることが出来ます。 つまり、離れた場所にある複数のATEM Mini Pro / ATEM Mini Pro ISOの映像を受け、手元のATEM Mini Pro / ATEM Mini Pro ISOでスイッチングしながらインターネットに配信を行うことが可能になります! ローカルLANだけでなく、特定のポートを開放することでインターネット越しに信号を受けることも可能。世界中のATEM Mini Pro / ATEM Mini Pro ISOユーザーとコラボレーションしながらの多拠点ストリーミングが手軽に行えます。 セットアップ例 ATEM Streaming Bridgeを使用すると、ATEM Mini Pro / ATEM Mini Pro ISOからのダイレクト配信の配信先としてATEM Streaming Bridgeを指定することができるようになる。図のように、ひとつのビデオスイッチャーに信号をまとめることもできるし、SDI/HDMI対応のレコーダーへ入れてやることもできる。各カメラに1台ずつATEM Mini Pro / ATEM Mini Pro ISOを使用して、離れた場所にいるエンジニアにスイッチングをまるごと任せるような使い方も可能だ。 ATEM Streaming Bridge 販売価格:¥30,778(本体価格:¥ 27,980) 高度なH.264コーデックを使用しており、非常に低いデータレートで高品質を得られるため、ローカル・イーサネットネットワークで離れた場所にビデオを送信したり、インターネット経由で世界中に送信できます!放送局とブロガーがコラボレーションし、ATEM Mini Proを使ったリモート放送スタジオの国際的なネットワークを構築できると想像してみてください。(インターネット経由での受信には特定のポートを開放する必要があります。詳細は製品マニュアルをご参照ください。) Rock oN Line eStoreでのご購入はこちらから>> Blackmagic Design ATEM Mini Pro 販売価格:¥ 73,150(本体価格:¥ 66,500) ATEM Mini Proで追加される機能は「本体からインターネットへのダイレクト配信」「マルチモニタービュー」「プログラム出力の外部SSDへの収録」の3つ。本記事の主旨に則ってオーディオクオリティを優先すると、ダイレクト配信機能は使用する機会がないため、各カメラの映像を確認しながらスイッチングをしたい、または、配信した動画を高品質で取っておきたいのいずれかに該当する場合はこちらを選択することになる。 Rock oN Line eStoreでのご購入はこちらから>> Blackmagic Design ATEM Mini Pro ISO 販売価格:¥ 113,850(本体価格:¥ 103,500) ATEM Mini Pro ISOで追加される機能は、ATEM Mini Proの全機能に加え、「全HDMI入出力信号を外部SSDに個別に保存」「スイッチングを施したタイミングをDaVinci Resolveで読み込めるマーカーの記録」の2つ。あとから映像を手直ししたり再編集したりしたい場合にはこちらを選択することになる。アーカイブ映像として公開する前に、本番中に操作を誤ってしまった部分を修正したり、リアルタイムで無料配信したライブを編集し後日有償で販売する、といったことが可能になる。 Rock oN Line eStoreでのご購入はこちらから>> Rock oN Line eStoreに特設コーナーが誕生! Rock oN Line eStoreでは、カメラからスイッチャー、配信や収録向けのマイクなど、映像制作に関わる機材を集めた特設コーナーを新設している。本記事に挙げた個別の機材が購入できるのはもちろん、手軽なセット販売や、スタッフに相談できる問い合わせフォームなどもあるので、ぜひ覗いてみてほしい。 eStore特設コーナーへ!!>>

Media

Roland V-600U~HD4K/HD混在環境でもハイクオリティなビデオ出力!

放送や映像制作と同じように、イベントやプレゼンテーションなどの演出も4K化が進んでいます。一方で、クライアントや演出者からは従来の HD 機材の対応も同時に求められている。 V-600UHDはそうした現場のニーズに合わせ、従来の HD 環境を段階的に 4K に対応させることが可能。全ての入出力端子にローランド独自の「ULTRA SCALER」を搭載。 この機能によりフル HD と 4K の異なる映像を同時に扱えるだけでなく4K と HD 映像も同時に出力できるため、従来の HD ワークフローの中に4K映像を取り込むことができる。 システムセットアップ V-600UHD は HDMI(2.0対応)入力を 4 系統、12G-SDI 入力を 2 系統搭載し、PC とメディア・プレーヤーに加え、ステージ用にカメラを使用するようなイベントやライブコンサートに最適。すべての入出力に独自のスケーラーを搭載し、4KとHDを同時に入出力することができるため、両者が混在するシステムでも容易に運用が可能だ。 会場ディスプレイには4K映像を出力しながら、HDモニターやライブ配信用エンコーダー等従来の HD 表示デバイスへの出力も可能。エンベデッド・オーディオの入出力にも対応するほか、XLR入力2系統を備えオーディオミキサーからの出力をもらうこともできる。中規模〜大規模イベントのコアシステムとして高い実用性を誇る。 プロダクト ROLAND V-600UHD 販売価格:¥ 1,408,000(本体価格:¥ 1,280,000) HDR、フル・フレームレート 60Hz、Rec.2020 規格、DCI 4K(シネマ4K)解像度など先進のテクノロジーに対応し、高精細な映像を扱うことが可能。さらに、内部映像処理は 4:4:4/10bit に対応し、PC から出力された高精細な映像も鮮明に表示可能で、拡大した映像内の細かな文字も細部まで読み取ることができる。 「ROI(Region of Interest)機能」を使えば、1 台の 4K カメラの映像から必要な部分を最大 8 つ抽出することで、複数のカメラを用意するのと同じような演出が可能になる。スケーラー機能と併せてクロスポイントに割り当てることが可能。カメラの台数に頼ることなく、映像演出の幅を拡げることができる。 Rock oN Line eStoreでのご購入はこちらから>> ROLAND UVC-01 販売価格:¥ 27,500(本体価格:¥ 25,000) 最大1920×1080/60pに対応するRoland純正のビデオキャプチャー/エンコーダー。Mac/Windowsに対応し、ドライバーのインストール不要、USBバスパワー対応など、普段使いにも便利な取り回しのよさが魅力だ。ほとんどのHDMIカメラやビデオスイッチャーに対応するため、WEB配信の機会が多いユーザーは持っておくと便利かも。 Rock oN Line eStoreでのご購入はこちらから>> Rock oN Line eStoreに特設コーナーが誕生! Rock oN Line eStoreでは、カメラからスイッチャー、配信や収録向けのマイクなど、映像制作に関わる機材を集めた特設コーナーを新設している。本記事に挙げた個別の機材が購入できるのはもちろん、手軽なセット販売や、スタッフに相談できる問い合わせフォームなどもあるので、ぜひ覗いてみてほしい。 eStore特設コーナーへ!!>>

Media

ライブミキサーを使用して4K制作環境でWEB配信!

ついにiPhoneが5Gに対応し、大容量データの高速通信がモバイル環境でもいよいよ実現されつつある。テレビ放送やリアルイベントではすでに4Kの需要は高まっており、その波がWEB配信の世界にも押し寄せることが予想される。折しもコロナ禍の影響で映像配信事業の成熟は加速度的に高まっており、既存メディアと同等のクオリティが求められるようになるまでにそれほど長い時間はかからないだろう。 あらゆるライブイベントをプロ仕様のプログラムとして制作することが出来るビデオスイッチャー、Blackmagic Television Studio Pro 4Kを中心とした、4K対応WEB配信システムを紹介しよう。 システムセットアップ 4K対応ビデオスイッチャーであるATEM Television Studio Pro 4Kから、4K対応のビデオキャプチャーであるUltra Studio 4K Miniで配信用のフォーマットにファイルをエンコード。配信用のMac/PCに信号を流し込む構成だ。 ATEM Television Studio Pro 4Kはマルチビュー出力を備えているため、SDIインプットのあるモニターを使用して各カメラやメディアからの映像を監視しながら映像の切り替えを行うことができる。 図ではオーディオ部分を割愛しているが、ATEM Television Studio Pro 4Kにはオーディオインプット用のXLR2系統が備わっているほか、SDIにエンベッドされたオーディオ信号を扱うこともできる。Ethernet経由でMac/PCを繋ぎ、ATEM Control Softwareを使用すれば内部で音声ミキシングも可能なため、ミキサーからのアウトをATEM Television Studio Pro 4Kに入れ、映像と音をここでまとめることが可能。 オーディオクオリティにこだわるなら、小型のオーディオI/FやI/F機能付きミキサーを使用してミキサーからの信号を配信用のMac/PCに直接入力してもよい。手持ちのミキサーの仕様や求められる品質・運用に鑑みて、柔軟な構成を取ることができる。 キープロダクト Blackmagic Design ATEM Television Studio Pro 4K 販売価格:¥373,780(本体価格:¥339,800) 8系統の12G-SDI入力を搭載し、ハイエンドの放送用機能に対応したATEM Television Studioシリーズの中でも、ATEM Television Studio Proシリーズはプロ仕様の放送用ハードウェアコントロールパネルが一体化しており、追加のCCUにも対応。すべての入力系統に再同期機能を搭載しており、プロ仕様および民生用カメラで常にクリーンなスイッチングが可能。マルチビュー出力に対応しており、すべてのソースおよびプレビュー、プログラムを単一のスクリーンで確認できる。また、Aux出力、内蔵トークバック、2つのスチルストア、オーディオミキサー、カメラコントロールユニットなどにも対応。 ライブプロダクション、テレビシリーズ、ウェブ番組、オーディオビジュアル、そしてテレビゲーム大会のライブ放送などに最適で、カメラ、ゲーム機、コンピューターなどを接続するだけで簡単にライブスイッチングを開始できる。 Rock oN Line eStoreでのご購入はこちらから>> Blackmagic Design UltraStudio 4K Mini 販売価格:¥125,180(本体価格:¥ 113,800) UltraStudio 4K Miniは本来はThunderbolt 3に対応したポータブルなキャプチャー・再生ソリューション。Mac/PCにビデオI/Fとして認識される機能を利用して、4K対応キャプチャーカードとして使用することが可能だ。 最新の放送テクノロジーを搭載しており、4K DCI 60pまでのあらゆるフォーマットで放送品質の8/10-bitハイダイナミックレンジ・キャプチャー、4K DCI 30pまでのあらゆるフォーマットで12-bitハイダイナミックレンジ・キャプチャーを実現。SDカードリーダーを内蔵しているので、カメラメディアを直接コンピューターにマウントすることも可能だ。 Rock oN Line eStoreでのご購入はこちらから>> Blackmagic Design Blackmagic Web Presenter 販売金額:¥ 62,678(本体価格:¥ 56,980) 素材のみは4Kで録っておき、配信はHD品質でもOK、という方はUltraStudio 4K Miniの代わりにこちらを。 あらゆるSDIまたはHDMIビデオソースをUSBウェブカメラの映像として認識。Skypeなどのソフトウェアや、YouTube Live、Facebook Live、Twitch.tv、Periscopeなどのストリーミング・プラットフォームを使用したウェブストリーミングを一層高い品質で実現。Teranex品質のダウンコンバージョンに対応しているので、あらゆるSD、HD、Ultra HDビデオを、低データレートながらも高品質のストリーミングが可能な720pに変換する。 ドライバ不要で、ハイクオリティの内部エンコーダーとして動作する本機があれば、キャプチャデバイスとコンピューターの相性を気にすることなくWEB配信に集中できる。 Rock oN Line eStoreでのご購入はこちらから>> Rock oN Line eStoreに特設コーナーが誕生! Rock oN Line eStoreでは、カメラからスイッチャー、配信や収録向けのマイクなど、映像制作に関わる機材を集めた特設コーナーを新設している。本記事に挙げた個別の機材が購入できるのはもちろん、手軽なセット販売や、スタッフに相談できる問い合わせフォームなどもあるので、ぜひ覗いてみてほしい。 eStore特設コーナーへ!!>>

Media

ウェブキャスターで高品質配信!音楽演奏配信向けシステムセットアップ例

公共の場でのマスク着用と並んで、映像配信はウィズ・コロナ時代のひとつのマナーとさえ言えるほど急速にひとびとの生活に浸透している。もちろん半分ジョークだが、読者の半数は実感を持ってこのことばを迎えてくれることと思う。なにせ、このような記事を読もうと思ってくれているのだから、あなたも映像配信にある程度の関心があるはずだ。 さて、しかし、いざ自分のパフォーマンスを配信しようと思っても、どのような機材を揃えればいいのか、予算はいくらくらいが妥当なのか、というところで迷ってしまう方もいることだろう。(Z世代のミュージシャンは、そんなことはないのだろうか!?) そこで、この記事では音楽の生演奏を前提に、低価格かつ高品質な映像配信を実現するシステムアップ例を紹介したいと思う。 システムセットアップ例 スイッチャーはATEM Miniで決まり!? マルチカメラでの映像配信にこれから挑戦したいという方にぜひおすすめしたいビデオスイッチャーがBlackmagic Design ATEM Miniシリーズだ。4x HDMI入力やプロ仕様のビデオエフェクト、さらにはカメラコントロール機能までついた本格仕様でありながら価格破壊とも言える低価格を実現しており、スイッチャーを初めて導入するという方からコンパクトなスイッチャーを探しているプロフェッショナルまで、幅広くおすすめできるプロダクトだ。 ATEM Mini、ATEM Mini Pro、ATEM Mini Pro ISO、と3つのラインナップがあり、順次機能が増えていく。ATEM Miniでは各カメラ入力をモニターする機能がないため、バンド編成でのライブ配信などにはATEM Mini ProかATEM Mini Pro ISOを選択する方がオペレートしやすいが、弾き語りや小編成ユニットの場合はATEM Miniでも十分だろう。 ATEM Miniシリーズについての詳細はこちらの記事>>も参考にしてほしい。 オーディオI/F機能付きミキサーでサウンドクオリティUP! ATEM Miniシリーズにはマイク入力が備わっており、ATEM Mini内部でのレベルバランスの調整も可能となっている。しかし、オーディオのクオリティにこだわるなら小型でもよいのでオーディオミキサーの導入が望ましい。ライブやレコーディングで使用できる一般的なマイクを使用することができるし、機種によってはオンボードのエフェクトも使用できる。必要十分な入出力数を確保できるし、なにより経由する機器を減らす方がクオリティは確実に上がる、とメリット尽くしだ。 音声系をいったんミキサーでまとめ、ATEM Miniからの映像信号とは別系統としてMac/PCに入力、OBSなどの配信アプリケーション内で映像と音声のタイミングを合わせるというシステムアップになる。 この時、ミキサーとオーディオI/Fを別々に用意してもよいが、最近の小型ミキサーの中にはUSBオーディオI/F機能を搭載したものも多く、「ウェブキャスター」と呼ばれるWEB配信を特に意識したプロダクトも存在する。 すでにミキサーやオーディオI/Fを所有しているなら足りない方を買い足すのがよいだろうが、これから配信に挑戦しようというならウェブキャスターなどのUSB I/F機能付きミキサーがうってつけのソリューションとなるだろう。チャンネル数、対応サンプリング周波数、マイク入力数など各モデルで特色があるため、自分に必要なスペックがわからない場合は気軽にRock oN Line eStoreに問い合わせてみてほしい。 おすすめI/F機能付きミキサー YAMAHA AG-06 販売価格:¥ 19,800(本体価格:¥ 18,000) ウェブキャスターという名称を広めた立役者とも言えるYAMAHA AGシリーズ。ループバック機能、ヘッドセット対応、2x マイク/ライン入力・1x 48Vファンタム電源を含む6入力、USB I/F機能、USBバスパワーなど、ウェブ動画配信に完全対応。さらに最大で192kHz/24bitというハイレゾクオリティのオーディオ性能を誇る。弾き語りや二人組ユニットだけでなく、バックトラックに合わせての演奏やトーク番組風の配信、ゲーム実況まで幅広く対応可能だ。 Rock oN Line eStoreでのご購入はこちらから>> ZOOM LIVETRAK L-8 販売価格:¥ 39,600(本体価格:¥ 36,000) ジングルや効果音を鳴らせる6個のサウンドパッド、電話の音声をミックスできるスマートフォン入力、バッテリー駆動でスタジオの外にも持ち出せる機動力。ポッドキャスト番組の収録やライブ演奏のミキシングが手軽に行える、8チャンネル仕様のライブミキサー&レコーダー。内蔵SDカードに録音することが可能で、12chモデル、20chモデルの上位機種もランナップされているためバンドライブの動画配信にはうってつけだろう。 Rock oN Line eStoreでのご購入はこちらから>> Presonus StudioLive AR8c 販売価格:¥ 55,000(本体価格:¥ 50,000) ミュージシャン達がミュージシャンのために開発したハイブリッド・ミキサーであるStudioLive® ARcシリーズは、XMAXプリアンプ/EQ/デジタル・エフェクトを搭載したアナログ・ミキサーに、24Bit 96kHz対応のマルチチャンネルUSBオーディオ・インターフェース、SD/SDHCメモリー・カード録音/再生、そしてBluetoothオーディオ・レシーバーによるワイヤレス音楽再生機能を1台に統合。ラインアップは、8チャンネル仕様、12チャンネル仕様、16チャンネル仕様の3機種。レコーディングや音楽制作のためのCapture™/Studio One® Artistソフトウェアも付属し、ライブPA、DJ、バンドリハーサル、ホームスタジオ、ネット配信に理想的なオールインワン・ハイブリッド・ミキサーとなっている。 Rock oN Line eStoreでのご購入はこちらから>> YAMAHA MG10XU 販売価格:¥ 29,334(本体価格:¥ 26,667) YAMAHAの定番アナログミキサーであるMGシリーズも、多くがUSB I/F機能を搭載している。WEB配信に特化した製品ではないが、高品位なディスクリートClass-Aマイクプリアンプ「D-PRE」搭載をはじめ、1ノブコンプ、24種類のデジタルエフェクトなど、本格的なミキサーとしての機能を備えており、クオリティ面での不安は皆無と言える。20chまでの豊富なラインナップも魅力。トークやMCではなく「おれたちは音楽の中身で勝負するんだ!」という気概をお持ちなら、ぜひこのクラスに手を伸ばしてほしい。 Rock oN Line eStoreでのご購入はこちらから>> SOUNDCRAFT Notepad-8FX 販売価格:¥ 14,900(本体価格:¥ 13,545) ブリティッシュコンソールの老舗メーカーであるSOUNDCRAFTにもUSB I/F機能搭載のコンパクトミキサーがラインナップされている。全3機種の中で上位モデルであるNotepad-12FXと本機Notepad-8FXには、スタジオリバーブの代名詞Lexicon PRO製のエフェクト・プロセッサーを搭載!ディレイやコーラスも搭載しており、これ1台で積極的な音作りが可能となっている。ブリティッシュサウンドを体現する高品位マイクプリ、モノラル入力への3バンドEQ搭載など、コンパクトながら本格的なオーディオクオリティを誇っている。 Rock oN Line eStoreでのご購入はこちらから>> ALLEN & HEATH ZEDi-8 販売価格:¥ 19,008(本体価格:¥ 17,280) こちらもイギリスの老舗コンソールメーカーであるALLEN & HEATHが送るUSB I/F対応アナログミキサーがZEDシリーズだ。ZEDi-8はコンパクトな筐体に必要十分で高品質な機能がギュッと凝縮されたようなプロダクトだ。2バンドのEQ以外にオンボードエフェクトは搭載していないが、定評あるGS-R24レコーディング用コンソールのプリアンプ部をベースに新設計されたGSPreプリアンプは同シリーズ32ch大型コンソールに搭載されているのと同じもの。長い歴史を生き抜いてきたアナログミキサー作りのノウハウが詰め込まれた一品と言えそうだ。 Rock oN Line eStoreでのご購入はこちらから>> あなたに最適なATEM Miniは!? Blackmagic Design ATEM Mini 販売価格:¥ 39,578(本体価格:¥ 35,980) 4系統のHDMI入力、モニター用のHDMI出力1系統、プロクオリティのスイッチング機能とビデオエフェクトなど、プロクオリティの機能を備えながら圧倒的な低コストを実現するATEM Mini。コンピューターに接続してPowerPointスライドを再生したり、ゲーム機を接続することも可能。ピクチャー・イン・ピクチャー・エフェクトは、生放送にコメンテーターを挿入するのに最適。ウェブカムと同様に機能するUSB出力を搭載しているので、あらゆるビデオソフトウェアに接続可能。導入コストを低く抑えたい方にはおすすめのプロダクトです。 Rock oN Line eStoreでのご購入はこちらから>> Blackmagic Design ATEM Mini Pro 販売価格:¥ 73,150(本体価格:¥ 66,500) ATEM Mini Proで追加される機能は「本体からインターネットへのダイレクト配信」「マルチモニタービュー」「プログラム出力の外部SSDへの収録」の3つ。本記事の主旨に則ってオーディオクオリティを優先すると、ダイレクト配信機能は使用する機会がないため、各カメラの映像を確認しながらスイッチングをしたい、または、配信した動画を高品質で取っておきたいのいずれかに該当する場合はこちらを選択することになる。 Rock oN Line eStoreでのご購入はこちらから>> Blackmagic Design ATEM Mini Pro ISO 販売価格:¥ 113,850(本体価格:¥ 103,500) ATEM Mini Pro ISOで追加される機能は、ATEM Mini Proの全機能に加え、「全HDMI入出力信号を外部SSDに個別に保存」「スイッチングを施したタイミングをDaVinci Resolveで読み込めるマーカーの記録」の2つ。あとから映像を手直ししたり再編集したりしたい場合にはこちらを選択することになる。アーカイブ映像として公開する前に、本番中に操作を誤ってしまった部分を修正したり、リアルタイムで無料配信したライブを編集し後日有償で販売する、といったことが可能になる。 Rock oN Line eStoreでのご購入はこちらから>> Rock oN Line eStoreに特設コーナーが誕生! Rock oN Line eStoreでは、カメラからスイッチャー、配信や収録向けのマイクなど、映像制作に関わる機材を集めた特設コーナーを新設している。本記事に挙げた個別の機材が購入できるのはもちろん、手軽なセット販売や、スタッフに相談できる問い合わせフォームなどもあるので、ぜひ覗いてみてほしい。 eStore特設コーナーへ!!>>

Media

加速度的に進む普及、ATEM Mini Proが配信を面白くする

ATEM Mini Pro 価格:¥74,778(税込) いま、注目を集めているのはオンライン・コラボレーションだけではない。音楽ライブ、ゲーム、セミナーなどの配信、特にリアルタイム配信の分野もまた、大きな注目を集め始めている。ここでは、そうしたライブ配信のクオリティアップを手軽に実現できるプロダクトとしてBlackmagic Design ATEM Mini Proを取り上げたい。 スイッチャーの導入で配信をもっと面白く 冒頭に述べたように、オンラインでのコミュニケーションを行う機会が格段に増えている。以前からゲームプレイの中継配信などがメディアにも取り上げらることが多かったが、ここのところではライブを中心に活動していたミュージシャンやライブハウスが新たにライブ配信に参入するケースも出てきた。もちろん普段の生活の中でもオンラインでのセミナー(所謂ウェビナー)や講義・レッスン、さらにはプレゼンの機会も多くなっているだろう。 その音楽ライブの配信は言うまでもなく、ゲーム中継やセミナー、会議やプレゼンでも、ふたつ以上の映像を配信できた方が表現の幅が広がり、視聴者や参加者により多くの事柄を伝えることができる。演奏の様子を配信する場面では、引きと寄りのアングルを切り替えた方が臨場感が増すし、音楽レッスンならフォーム全体と手元のクローズ映像が同時に見られた方がより分かりやすい。講義やプレゼンではメインの資料を大きく映しておいて、ピクチャインピクチャで講師の顔を映しておく、補足資料や参考URLなどを別PCで用意しておく、プロダクトをカメラで撮ってプレゼンする、など使い方を少し思い起こすだけでも数多くの手法が広がることになる。 こうしたニーズを満たすのがビデオスイッチャーと呼ばれるプロダクトになるのだが、現在、市場で見かけるスイッチャーのほとんどは業務用にデザインされたものになっている。サイズの大きいものが多く、また様々な機能が使用できる分だけ一見すると操作方法が分かりにくい場合もある。さらに、入出力もSDI接続である場合がほとんどであり、家庭向けのカメラとの使用には向いていない。そして何より高額だ。 しかし、昨年秋に発表されたBlackmagic Design ATEM Miniは、放送用のトランジションやビデオエフェクト機能を備えた4系統HDMI入力対応のスイッチャーでありながら、税込定価¥40,000を切るプロダクトとして大きな話題を呼んだ。今回紹介するATEM Mini Proは新たに発売された上位版にあたるプロダクトであり、ATME Mini にさらに機能を追加し、業務用途にも耐える仕上がりとなっている。どのような映像を配信したいかは個別のニーズがあるが、インターネットへマルチカムでの映像配信を検討中の方は必見のプロダクトだ。以下で、ATEM Mini、ATEM Mini Proのアドバンテージを概観していきたい。 HDMI 4系統に特化した映像入力 まず、ATEM Miniシリーズが手軽なソリューションである大きな理由は、HDMI 4系統のみというシンプルな入力であることだ。その他の入力系統を大胆に省略し、多くの家庭用カメラが対応するHDMIに接続を特化することで、十分な入力数を確保しながらコンパクトなサイズを実現している。これは、業務用カメラやSDI変換などの高額な機器が不要であるという点で、システム全体の導入費用を大幅に下げることにも貢献する。 外部オーディオ入力端子としてふたつのステレオミニジャックを備えているため、ダイナミックマイクを接続することも可能。画角との兼ね合いでカメラからのオーディオが使用しにくい場合でも、クリアな音質を確保することができる。2020年6月のアップデートで、コントロールソフトウェアで外部からのオーディオ入力にディレイを掛ける機能が追加され、画・音のずれを修正することも可能になった。 システムをコンパクトに さらに、ATEM Miniシリーズの利点として配信システムに必要なデバイスの数を減らすことができるという点も挙げられる。スイッチャーを中心としてマルチカム配信システムの構成をざっくりと考えると、カメラやMac/PCなどの映像入力機器、スイッチャー、信号を配信に向いたコーデックにエンコードするキャプチャー/WEBキャスター、配信アプリケーションのインストールされたMac/PC、となる。 ATEM Miniはこのうち、スイッチャーとキャプチャーの機能を併せ持っている。Mac/PCからウェブカムとして認識されるため、配信用のMac/PCに接続すればそのままYouTube LiveといったCDNに映像をストリーミングすることができるのだ。それだけでなく、SkypeやZoomなどのコミュニケーションツールからもカメラ入力として認識されるため、会議やプレゼン、オンライン講義などでも簡単に使用することができる。上位機種のATEM Mini Proはこれに加えて、配信アプリケーションの機能も備えている。システムを構成するデバイスを削減できるということは、コスト面でのメリットとなるだけでなく、機材を持ち込んでの配信や、システムが常設でない場合などに、運搬・組み上げの手間が省略できるというアドバンテージがある。 ATEM Miniは図のようにスイッチャー、キャプチャーをひとまとめにした機能を持っているが、上位版のATEM Mini Proではさらに配信環境までカバーする範囲が広がる。まさにオールインワンの配信システムと言える内容だ。 つなぐだけ派にも、プロユースにも デフォルトの設定では、ATEM Mini / ATEM Mini Proは4系統のHDMIに入力された信号を自動で変換してくれる。つまり、面倒な設定なしでカメラをつなぐだけで「とりあえず画は出る」ということだ。 しかし、ATEM シリーズに無償で同梱される「ATEM Software Control」は、これだけで記事がひとつ書けてしまうほど多機能で、クオリティにとことんこだわりたい場合はこちらから詳細な設定やコントロールを行うことも可能。スイッチングやオーディオレベルの操作は本体のパネルからも行うことができるが、コントロールソフトウェアを使用すれば、さらに追い込んだ操作を行うことが可能になる。このATEM Software Controlの各機能はDaVinci Resolveで培われた技術を使用しているため、オーディオ/ビデオ・エフェクトやメディア管理など、業務レベルに耐えるクオリティの仕上がりになっている。 しかも、ATEM Software Controlはネットワークを介して本体と接続できるため、離れた場所からのスイッチャー操作も可能。HDMIは長尺ケーブルを使用するのがためらわれるが、この機能を使用すればカメラ位置に左右されずにオペレーションするスペースを確保することができる。さらに、同時に複数のATEM Software ControlからひとつのATEM Mini / ATEM Mini Proにアクセスできるため、スイッチング / カメラ補正 / オーディオミキシング、など、役割ごとにオペレーターをつけるというプロフェッショナルな体制を取ることまでできてしまう。 ATEM Software Controlのコントロール画面。なお、オーディオパネルはMackie Control、KORG NanoKontrol、iCON Platform M+などの外部コントローラーに対応している。スペースに余裕が生まれた分、こうした機材を導入して音のクオリティアップで差をつけるのも面白いだろう。 ATME Mini VS ATEM Mini Pro ●CDNにダイレクトにストリーミング ATEM MiniとATEM Mini Proのもっとも大きな違いと言えるのが、ATEM Mini Proでは本体を有線でインターネットにつなげば、ダイレクトにCDNに映像をストリーミングすることができるということだ。もちろん、ストリーミングキーを入力してやるためのMac/PCは必要になるが、一度キーを設定してしまえば本体から取り外しても問題ない。手元のスペースを節約できるだけでなく、安定した配信を行うためにスペックの高いMac/PCを新たに購入する必要がなくなるし、ストリーミングのように安定度が求められる部分をハードウェアに任せることができるのは大きな安心だ。省スペース、低コスト、高い信頼性、と、この機能の実装によって得られるメリットは非常に大きいのではないだろうか。ライブハウスなどによるビジネス用途ならATEM Mini Pro、すでに十分に高いスペックのマシンを所有しているならATEM Miniと、既存の環境に応じてチョイスするとよいのではないだろうか。 ●マルチビュー対応 こちらもパワフルな機能。ATEM Mini ProにはHDMI出力が1系統しか搭載されていないが、一画面で全ての入力ソース、メディアプレイヤー、オーディオとON AIRのステータスを確認することができる。各モニターはタリーインジケーターを表示可能で、どのソースがオンエアされ、次にどのソースへトランジットするかを確認することができる。プレビュー機能も備えており、M/Eがどのようにかかるのかを事前に確認することも可能だ。これらすべてを一画面でモニターできるというコンパクトさと取り回しのよさは、まさに"Pro"という名にふさわしい機能追加と言えるだろう。 ●外部デバイスへプログラムをレコーディング ATEM Mini Proは、プログラムをH.264ビデオファイルとしてUSBフラッシュディスクにダイレクトに記録することができる。しかも、USBハブやBlackmagic Design MultiDockなどのプロダクトを使用すると、複数ディスクへの収録にも対応可能だ。ひとつのディスクがフルになると、自動で次のディスクに移行することで、長時間のストリーミングでも継続した収録を行うことができる。YouTube LiveやFacbook LiveではWEB上にアーカイブを残すことが可能だが、プログラムをその場で手元にメディアとして持っていられることは、ほかの場所で使用することなどを考えると大きなメリットとなるだろう。 実際の自宅からの簡易的な配信を想定したシステム例。ATEM Mini Proで取りまとめさえすれば配信への道は簡単に開けてしまう。音声の面でも48Vファンタム対応の小型ミキサーを使用すればコンデンサーマイクを使用することができる。HDMIアダプタを使用して、スマートフォンやタブレットをカメラ代わりに使うことも可能。別途、配信用のMac/PCを用意すれば、複数の配信サイトにマルチキャストすることもできる。 にわかに活況を呈するコンパクトビデオスイッチャーの世界。小さなスペースで使用でき、持ち運びや設置・バラシも手軽な上に、マルチカメラでの配信をフルHD画質で行うことを可能にするコンパクトスイッチャーをシステムの中心に据えることで、スマホ配信とは別次元のクオリティで映像配信を行うことが可能となる。特にATEM Mini / ATEM Mini Proを使用すれば、ほんの何本かのケーブルを繋ぐだけで、高品質な配信が始められてしまう。ぜひ、多くの方に触れてみてほしいプロダクトだ。 *ProceedMagazine2020号より転載

Media

On Premise Server パーソナルなオンプレサーバーで大容量制作をハンドリング

Internetの発達に伴って進化を続けている様々なCloudベースのサービス。その一方で、コスト面も含めて個人の自宅でも導入できるサイズの製品も着実な進化を遂げているのがOn Premise(オン・プレミス=敷地内で)のサーバーソリューション。Cloudのように年額、月額で提供されるサービスと比較するとどのようなメリットがあるのか、オンプレのサーバーはNetwork上からどう活かされるのか、オンラインでの協業体制が求められる今だからこそパーソナルユースを視野に入れたエントリーレベルにおけるオンプレサーバー導入のいまを見ていきたい。 Synology Home Server 今回、取り上げる製品はSynology社のホームサーバー。ラインナップは1Drive(HDD1台)のコンパクトな製品からスタートし、1DriveでHDD無しのベアボーンが1万円前半の価格から入手できる。何かと敷居の高いサーバーソリューションの中でも、パーソナル領域におけるラインナップを充実させているメーカーだ。このホームサーバーの主な役割は、ローカルネットワーク上でのファイル共有サービス(NAS機能)と、Internetに接続されたどこからでもアクセス可能なOn Premiseファイル・サーバーということに集約される。 もちろんそれ以外にも、遠隔地に設置されたSynology製品同士での自動同期や、プライベートな音楽/動画配信サーバー機能、ファイルのバージョニング機能、誤って消去してしまったファイルの復元機能など多彩な機能を持ち、ローカルでのファイル共有に関しては汎用のNAS製品と同様に、Windows向けのSMB/NFS共有、MacOS向けのSMB/AFS共有が可能と、それぞれOSの持つ標準機能でアクセスができるシンプルな形式を持つのだが、今回はこのようなローカル環境でのサービスではなく、外出先でも活用ができるサービスに目を向けたい。 Synologyの設定画面。ブラウザでアクセスするとOSライクなGUIで操作できる。 コスト優位が際立つオンプレ 外出先で、サーバー上のデータを取り出せるサービスといえば、DropBox、OneDriveなどのCloudストレージサービスが思い浮かぶ。Synologyの提供するサービスは、一般向けにもサービスの提供されているCloudストレージと比較してどのような違いがあるのだろうか? まず、SynologyのようなOn Premiseでのサービスの最大のメリットは、容量の大きさにあるだろう。本原稿の執筆時点で一般向けに入手できる最大容量のHDDは16TB。コスト的にこなれてきている8TBのモデルは2万円を切る価格帯で販売されている。これは1TBあたりの単価は¥2,000を切る水準となっており、容量単価のバランスも納得いくレベルなのではないだろうか。 これをCloud Stroageの代表格であるDropBoxで見てみると、1TBの容量が使える有償サービスは年額¥12,000となる。もちろん、機器の購入費用が必要ない、壊れるという心配がない、電気代も必要ない、などCloudのメリットを考えればそのままの比較はできないが、8TBという容量を持つ外出先から接続可能なOn Premiseサーバーの構築が4万円弱の初期投資で行えるということは、コストパフォーマンスが非常に高いと言えるだろう。また、4Drive全てに8TBのHDDを実装しRAID 5の構成を組んだとすれば、実効容量24TBという巨大な容量をNetwork越しに共有することが可能となる。大容量をコストバランスよく実現するという側面をフォーカスすると、On Premiseのメリットが際立ってくる。 利用している帯域など、ステータスもリアルタイムに監視が可能だ。 オンプレの抱える課題とは このように単純に価格で考えれば、HDDの容量単価の低下が大きく影響するOn Premiseの製品のコストパフォーマンスは非常に高いものがある。その一方で、On Premiseが抱えるデメリットがあることも事実。例えばCloudサービスであれば、データはセキュリティーや防災対策などが万全になされたデータセンターに格納される。データの安全性を考えると自宅に設置された機器との差は非常に大きなものになるだろう。もちろん、Synologyの製品も2Drive以上の製品であればRAIDを構築することができるため、データの保全に対しての対策を構築することも可能だが、これは導入コストとトレードオフの関係になる。実例を考えると、ストレージの速度とデータの保全を両立したRAID 5以上を構築しようとした際には3 Drive以上の製品が必要。製品としては4Drive以上の製品に最低3台以上のHDDを実装する必要があり、初期導入コストは8万円程度が見込まれる。1TB程度の容量までで必要量が足りるのであれば、Cloudサービスの方に軍配があがるケースもある。必要な容量をどう捉えるかが肝要な部分だ。 また、On Premiseの製品は手元にあるために、突如のトラブルに対しては非常に脆弱と言わざるを得ない。前述のようにデータセンターとは比較にならない環境的な要因ではあるが、2〜3年おきにしっかりと機器の更新を行うことで、そういったリスクを低減することはできる。そのデータはどれくらいの期間の保持が必須なのか、重要性はどれほどのものなのか、保全体制に対しての理解をしっかりと持つことで、大容量のデータの共有運用が見えてくる。 オンプレをNetworkから使う パッケージセンターには数多くのアプリケーションが用意されている。 Synology社のOn Premiseサーバーは、専用のアプリをインストールすることでInternet接続環境があればどこからでも自宅に設置されたサーバーのデータを取り出すことができる。また、DropBoxのサービスのように常時同期をさせることもできれば、特定のフォルダーを第三者へ共有リンクを送り公開する、といった様々なサービスを活用できる。設定もWebブラウザ上からGUIを使うシンプルなオペレーションとなっており、設定も極めて簡便。VPNを使用するというような特別なこともないため、迷うことなく自宅のサーバーからファイル共有を行うことが行えてしまう。ユーザーの専門知識を求めずに運用が可能な水準にまで製品の完成度は高まっていると言えそうだ。 ファイル共有のあり方は多様になっており、ユーザーの必要な条件に合わせてOn Premise、Cloudと使い分けることができるようになってきている。むしろ選択肢は多彩とも言える状況で、メリット、デメリットをしっかりと理解し、どれくらいのデータ量をハンドリングしたいのか、そのデータの重要性をどう考えるか、ユーザーの適切な判断があれば充実したパーソナルサーバー環境はすぐにでも構築、実現できてしまう。今後、ますます大容量となるコンテンツ制作のデータをどう扱えるのかは、パーソナルな制作環境にとっても重要な要素であることは間違いないだろう。それをどのようにハンドリングするかの鍵はここにもありそうだ。 *ProceedMagazine2020号より転載

Media

Macのワークステーションが今後を”創る” 〜Apple Mac Pro Late2019〜

目次 序論 Apple Mac Pro Late2019概要 Mac Pro Late2019の各構成部品:CPU Mac Pro Late2019の各構成部品:メモリ Mac Pro Late2019の各構成部品:PCI Express拡張スロット Mac Pro Late2019の各構成部品:GPU Mac Pro Late2019の各構成部品:AfterBurner 考察 1:序論 各業界で注目を集めたApple Mac Pro Late2019は2019年6月に発表、同年12月より発売が開始された。同社CEO Tim Cook氏はWWDC2019の基調講演で「これまでに開発した中で最も強力なMac」と語り「すべてを変えるパワー」と広告される本機種。その驚異的なマシンスペックと拡張性などの紹介から前機種との比較などを通し、Macのワークステーションが作り得る未来への可能性を紐解いていく。 2:Apple Mac Pro Late2019概要 <↑クリックして拡大> 発表当初より、Apple Mac Pro Late2019は注目度も高く、既に発売されているためデザイン面など基本的な情報は皆さんご存知であろう。たださすがにMac Proの最新モデルともあり、オプションも多岐に渡るため構成部品とそのカスタマイズ域についてを別表にまとめるのでご確認いただきたい。また「これまでに開発した中で最も強力なMac」「すべてを変えるパワー」と称されるMac Pro Late2019だが、比較対象に直近3モデル:Mid2012・Late2013・Late2019を取り上げ、CPU / メモリ / GPU / ストレージ、周辺機器との接続性なども同様に別表に掲載する。それでは、次から各構成部品の紹介に移り、Mac Pro Late2019の内容を確認していく。 <↑クリックして拡大> 【特記事項】 ・min maxの値:Apple公表値を基準とする。メモリなど3rdパーティー製品による最大値は無視する。 ・CPU/GPU:モデル名を表記する。比較はベンチマークで行い後述する。 ・メモリ/ストレージ:モデル名は表記せず、容量/動作周波数、容量/PCIe規格といった数値表記とする。 ・数値の表記:比較を用意にする為、単位を揃える。(メモリ:GB、ストレージ:TB) 3:Mac Pro Late2019の各構成部品:CPU Apple HPの広告で搭載CPUについては、”最大28コアのパワー。制限なく作業できます。”と称されている。このモデルではMac史上最多の最大28コアを搭載したIntel XeonWプロセッサを採用、8coreから28coreまで、5つのプロセッサをラインナップしたため、ニーズに合わせた性能を手に入れることができるようになった。CPUはコンピュータの制御や演算や情報転送をつかさどる中枢部分であるが、直近3モデル(Mid2012/Late2013/Late2019)のCPUパフォーマンスを比較し、その実力を見ていく。まずは以下のグラフをご覧いただこう。  図1. Mac Pro CPU(Multi-core)ベンチマーク比較 こちらのグラフは、モデルごとのCPUベンチマーク比較である。横軸左から、Mid2012(青)→Late2013(緑)→Late2019(オレンジ)と並び、各モデルの最低CPUと最高CPUにおける、マルチコアのベンチマーク値を縦軸に示した。ベンチマーク値はGeekBenchで公開されるデータをソースとしている。Late2019の最低CPUの値に注目しラインを引くと、旧モデル最高CPUの値をも超えていることがわかる。たとえ、Late2019で最低のCPUを選んだとしても、旧MacPROの性能を全て超えていくということだ。決して誇大広告でなく、「これまでに開発した中で最も強力なMac」と称される理由の一つだと分かる。数値で示すと以下表になる。参考までに、Single-Coreのベンチマーク値も掲載する。 表3. Late2019/最低CPU と 旧モデル/最高CPUのベンチマーク値 次に、Late2019最大値にもラインを引き、Late2019最低値との差分に注目する。この差分が意味するのは、ユーザーが選択できる”性能幅”である。ユーザーはこの範囲の中から自らの環境に合わせてMacPROをコーディネートしていくことになる。視覚的にも分かる通り、Late2013と比べても圧倒的に性能の選択幅が広くなっている事が分かる。 図2. Mac Pro Late2019 ベンチマーク性能幅 数値を示すと以下のようになる。Late2013と比較すると、約3倍もの性能選択幅があることが分かる。 表4. 性能選択余地の遷移 以上の比較から、旧MacProから乗り換える場合、”Late2019を買えばCPU性能が必ず向上する”ということが分かった。しかし、性能幅も広がった為、新たにLate2019を検討する方は自分に合うCPUを選択する必要がある。Late2013よりも長期的運用が可能だと噂され、CPUが動作速度の根幹であることを考えると、Mac Pro Late2019のCPUは少しオーバースペックなものを選択しても良いかもしれない。参考までに、現行MacのCPU性能比較もご覧いただきたい。なお、現行モデルの比較対象として以下モデルを追加した。iMac Pro Late 2017 / Mac mini Late 2018 / iMac 21.5inch Early 2019 / iMac 27inch Early 2019 / Mac Book Pro 16inch Late 2019(ノート型の参考) 図3. 現行MacとMacPro Late2019との比較 <↑クリックして拡大> このグラフで注目するのは、Late2019のCPU最低値と16core XeonWの値である。まず、CPU最低値に注目すると、iMacのCPU値と交差することが分かる。また、16core XeonWの値に注目すると交差するCPUが存在しなくなることが分かる。故に、現行モデル以上の性能を求め、他にない性能を実現するには16core XeonW以上の選択が必要となる。また、ワークステーション/PCの性能はCPUのみで決まることではないので、購入の際にはメモリ、GPUや拡張性なども十分考慮していただきたい。 4:Mac Pro Late2019の各構成部品:メモリ Apple HPの広告でメモリについては、"あなたが知っているメモリは、昨日のメモリです。”と称されている。ユーザーがアクセスできる12の物理的なDIMMスロットを搭載し、プロセッサと互換性のあるメモリであれば、将来的なアップグレードも可能だ。Mac Pro Late2019ではR-DIMMとLR-DIMMのメモリモジュールに対応しているが、同じシステムで2種類のDIMMを使うことはできないので容量追加には注意が必要である。LR-DIMM対応のCPU(24core以上のXeonW)を選択した場合、最大1.5TBの容量を実現する。 ワークステーション/PCの”作業机”と訳される事も多いメモリ。データやプログラムを一時的に記憶する部品であるが、CPU同様に直近3モデルと比較していく。まずは最小構成、最大構成の2種類のグラフをご覧いただこう。 図4. MacPro:メモリ最小構成での比較 図5. MacPro:メモリ最大構成での比較 表5.MacPro:メモリ最小構成での比較 表6.MacPro:メモリ最大構成での比較 横軸はCPU同様、Mac Pro Mid2012/Late2013/Late2019を並べている。縦軸左側はメモリ容量値で青棒グラフで示し、右側は動作周波数をオレンジ丸で示している。図4.最小構成のグラフに注目しメモリ容量を比較すると、おおよそモデル毎に倍々の推移が見られる。また、動作周波数に関しては2次曲線的推移が見られる。モデルの発展とともに、部品としての性能も格段に上がってきている事が分かる。図5.最大構成のグラフに関しては一目瞭然ではあるが、表6.最大構成のLate2019、メモリ容量の前モデル比に注目すると23.44という驚異的な数値を叩く。これもまた、「これまでに開発した中で最も強力なMac」と称される理由の一つだと分かる。 さて、購入検討時のメモリ問題であるが、こちらは後ほどアップグレードできる為、初めは低容量から導入し、足りなければ随時追加という方式が取れる。メモリで浮いた金額をCPUへ割り当てるという判断もできるため、予算を抑えながら導入も可能だ。ただし、CPUによるメモリ容量の搭載上限が決まり、メモリモジュールを合わせる事を念頭に入れ検討する事が重要だ。 5:Mac Pro Late2019の各構成部品:PCI Express拡張スロット Mac Pro Late2019ではCPUの性能幅やメモリの拡張性に加え、8つのPCI Express拡張スロットの搭載が可能になった。Avid HDX Card や Universal Audio UAD-2 PCIe Cardを搭載してオーディオプロセスを拡張するも良し、加えて、GPU / AfterBurner(後述) / キャプチャボードを搭載し、グラフィック面を拡張しても良い。まさに、クリエイティブなユーザーの思いのままに、Mac Proの拡張が可能になったと言える。さらに、Mac Pro Mid2012と比べるとスロット数が倍になっていることから、PCIeによる機能拡張においても「これまでに開発した中で最も強力なMac」であると分かる。 写真を参考に、搭載可能なPCIeについて確認していこう。上から順に、ハーフレングススロット、シングルワイドスロット、ダブルワイドスロットと並ぶ。下から順に、スロットNo.が1-8までカウントされる。 それでは各種のスロットについて見ていこう。 ○ハーフレングススロット:No.8 スロットNo.8には最大 x4 レーンのPCIeカードが搭載可能。ここには標準仕様でApple I/Oカードが既に搭載されており、Thunderbolt 3ポート× 2、USB-Aポート× 2、3.5mm ヘッドフォンジャック× 1を備える。このI/Oカードを取り外して他のハーフレングスPCIeカードに取り替えることもできるが、別のスロットに取り付けることはできないので、変更を検討する場合には注意が必要だ。 ○シングルワイドスロット:No.5-7 スロットNo.5には最大 x16レーン、No.6-7には最大 ×8レーンのPCIeカードが搭載可能。スロットNo.5の最大 ×16レーンには、AfterBurnerはに取り付けることが推奨される。後述のGPUとの連携からであろうが、他カードとの兼ね合いから、AfterburnerをNo.5に取り付けられない場合は、後述のスロットNo.3へ、No.3とNo.5が埋まっている場合はスロット4へ取り付けると良い。 ○ダブルワイドスロット:No.1-4 スロットNo.1,3,4には最大 x16レーン、No.2には最大 x8レーンのPCIeカードが搭載可能。スロットNo.1、No.4は2列に渡ってPCIeが羅列しているが、これは後述するApple独自のMPX Moduleを搭載する為のレーンになる。MPXモジュール以外で使用する場合は、最大 x16レーンのPCIeスロットとして使用できる。 6:Mac Pro Late2019の各構成部品:GPU Apple HPの広告でGPUについては、"究極のパフォーマンスを設計しました。”と表現されている。業界初、MPX Module(Mac Pro Expansion Module)が搭載され、業界標準のPCI Expressのコネクタに1つPCIeレーンを加えThunderboltが統合された。また、高パフォーマンスでの動作のため、供給電力を500Wまで増やし、専用スロットによる効率的な冷却を実現している。500Wというと、一般的な冷蔵庫を駆動させたり、小型洗濯機を回したり、炊飯器でご飯を炊けたりしてしまう。また、Mac Pro Late2013の消費電力とほぼ同等である為、相当な量であるとイメージできる。話が逸れたが、GPUに関してもCPU同様に前モデルと比較していく。 図6. MacPro:GPU最小/最大での比較 こちらのグラフは、モデルごとのCPUベンチマーク比較である。横軸左から、Mid2012(青)→Late2013(緑)→Late2019(オレンジ)と並び、各モデルの最低GPUと最高GPUにおける、マルチコアのベンチマーク値を縦軸に示した。ベンチマーク値はGeekBenchで公開されるデータをソースとしているが、Mid2012に関しては有効なベンチマークを取得できなかった為、GPUに関してはLate2013との比較になる。また、AMD VegaⅡDuoは2機搭載だが、この値は単発AMD VegaⅡDuoの値となる。 表7.MacPro:GPU最小部品での比較 表8.MacPro:GPU最大部品での比較 部品単体であっても、前モデルからは最小でも2倍、最大では3倍のパフォーマンスを誇る。最大部品である。AMD Radeon Pro VegaⅡDuoはさらにもう一枚追加できるため、グラフィックの分野でも十分驚異的なスペックが実現できると言える。これも「これまでに開発した中で最も強力なMac」と称される理由の一つとなる。 7:Mac Pro Late2019の各構成部品:AfterBurner Afterburnerとは、ProRes/Pro Res RAW ビデオファイルのマルチストリームのデコードや再生を高速化するハードウェアアクセラレータカードである。まず、AfterBurnerを導入するメリットを振り返ろう。ProRes や ProRes RAW のマルチストリームを8Kなどの解像度で再生するための演算をこのAfterBurnerに任せられる。逆にない場合、Mac Pro Late2019のCPUで演算を行うため、その負担分が編集作業に回せなくなってしまう。AfterBurnerによる外部演算を取り入れることによりCPUでは他の処理や映像エフェクトの演算に注力できる為、より複雑な3D、映像編集が可能となる。また、ProRes および ProRes RAW のプロジェクトやファイルのトランスコードおよび、共有が高速化する事もメリットの一つである。 AfterBurnerの対応するアプリケーションは、"ProRes または ProRes RAW のファイルを再生するApple製のアプリケーション”である。例えば、Final Cut Pro X、Motion、Compressor、QuickTime Player などで使用可能だ。その他、他社製のアプリが気になるところだが、"他社製の App のデベロッパが、Afterburner のサポートを組み込むことは可能”とのことなので、今後の対応に期待したい。 8:考察 Mac Pro Late2019の登場により、従来のMacからは考えられないようなスペックでワークステーションを導入する事が可能になったが、ハイスペックかつ消費電力も高いため、初期投資およびランニングコストも大きくかかってしまうというリスクもある。しかし、クリエイティブ以外に時間を割いていると感じているならば朗報である。例えば、レンダリング、プロキシファイル変換、変換によって生じるファイルマネジメントなどなど。Mac Pro Late2019の性能は、作品を完成させるまでの待機時間や面倒な時間を圧倒的に減らし、ユーザーのクリエイティブな時間をより多く提供してくれると考える。 従来機よりも早く仕事を終わらせ、次の仕事に取り掛かる、それを終えたらまた次の新しい仕事へと取り掛かる。サイクルの早い循環、クオリティの向上が、他者との差別化に繋がっていく。初期投資、ランニングコストなど懸念点も多いが、その分クリエイティブで勝負して稼いでいく、というスタイルへMac Pro Late2019が導いてくれるかもしれない。これからの時代の働き方を変え、クリエイティブ制作に革新が起きることを期待している。 *ProceedMagazine2020号より転載

Media

ゼロからはじめるDOLBY ATMOS / 3Dオーディオの世界へDIVE IN !!

2020年1月、CES2020にてお披露目された"Dolby Atmos Music"。映画向けの音響規格の一つであるDolby Atmosを、新たなる"3D"音楽体験として取り入れよう、という試みだ。実は、前年5月頃より"Dolby Atmosで音楽を制作しよう”という動きがあり、ドルビーは世界的大手の音楽レーベル、ユニバーサルミュージックとの協業を進めてきた。"Dolby Atmos"は元々映画音響用のフォーマットとして2012年に誕生している。その後、ヨーロッパを中心に対応劇場が急速に増え、海外では既に5000スクリーン以上、国内でもここ数年で30スクリーン以上に渡りDolby Atmosのシステムが導入されてきた。 また、映画の他にもVRやゲーム市場でもすでにその名を轟かせており、今回、満を持しての音楽分野への参入となる。Dolby Atmos Music自体は、既にプロオーディオ系の様々なメディアにて取り上げられているが、「Dolby Atmosという名称は聞いたことがある程度」「Dolby Atmosでの制作に興味があるが、日本語の情報が少ない」という声もまだまだ多い。そこでこの記事では、今のうちに知っておきたいDolby Atmosの基礎知識から、Dolby Atmosミックスの始めの一歩までを出来るだけ分かりやすい表現で紹介していきたい。 目次 コンテンツは消費の時代から”体験”の時代に 〜イマーシブなオーディオ体験とは?〜 まずは Dolby Atmosを体験しよう! / 映画、音楽、ゲームでの採用例 ベッドとオブジェクトって何!? / Dolby Atmos基礎知識 Dolby Atmos制作を始めよう / 必要なものは何? 自宅で始めるDolby Atmosミックス / Dolby Atmos Renderer × Pro Tools 2020.3【Send/Return編】 自宅で始めるDolby Atmosミックス / Dolby Atmos Renderer × Pro Tools 2020.3【CoreAudio編】 1.コンテンツは消費の時代から”体験”の時代に 〜イマーシブなオーディオ体験とは?〜 近年、"3Dオーディオ"という言葉をよく見かけるようになった。今のところ、その厳密な定義は存在していないが、古くからは"立体音響"や"三次元音響"といった言葉でも知られており、文字通り、音の位置方向を360度、立体的に感じられる音響方式のことを指す。その歴史は非常に古く、諸説あるがおよそ1世紀に渡るとも言われている。 点音源のモノラルに始まり、左右を表現できるようになったステレオ。そして、5.1、7.1、9.1…とその数を増やすことによって、さらなる音の広がりや奥行きを表現できるようになったサラウンド。と、ここまででもイマーシブな(*1)オーディオ体験ができていたのだが、そこにいよいよ、天井や足元といった高さ方向にもスピーカーが加わり、三次元空間を飛び回るような音の再生が可能になった。それぞれの方式は厳密には異なるが、3DオーディオフォーマットにはDolby Atmos、Auro-3D、DTS:X、NHK22.2ch、Sony360 Reality Audioなどといったものがある。 基本的に、これまでこうした3Dフォーマットのオーディオを再生するにはチャンネル数に応じた複数のスピーカーが必要だった。そのため、立体的な音像定位の再現性と、そうした再生環境の手軽さはどうしてもトレードオフになっており、なかなか世間一般に浸透しづらいという状況が続いていた。そこで、いま再注目を浴びているのが"バイノーラル(*2)録音・再生方式"だ。個人差はあるものの原理は単純明快で、「人間の頭部を模したダミーヘッドマイクで録音すれば、再生時にも人間が普段自分の耳で聞いているような立体的な音像が得られる」という仕組み。当然ながらデジタル化が進んだ現代においては、もはやダミーヘッドすら必要なく、HRTF関数(*3)を用いれば、デジタルデータ上で人間の頭側部の物理的音響特性を計算・再現してしまうことができる。 バイノーラル再生自体は全くもって新しい技術というわけではないのだが、「音楽をスマホでストリーミング再生しつつ、ヘッドホンorイヤホンで聴く」というスタイルが完全に定着した今、既存の環境で気軽にイマーシブオーディオを楽しめるようになったというのが注目すべきポイントだ。モバイルでのDolby Atmos再生をはじめ、Sonyの360 Rearity Audio、ストリーミングサービスのバイノーラル音声広告といった場面でも活用されている。 *1 イマーシブ=Immersive : 没入型の *2 バイノーラル= Binaural : 両耳(用)の *3 HRTF=Head Related Transfer Function : 頭部伝達関数 2.まずは Dolby Atmosを体験しよう! / 映画、音楽、ゲームでの採用例 では、Dolby Atmosは一体どのようなシーンで採用されているのだろうか。百聞は一見に如かず、これまでDolby Atmos作品に触れたことがないという方は、まずは是非とも体験していただきたい。 映画 映画館でDolby Atmosを体験するためには、専用設計のスクリーンで鑑賞する必要がある。これには2種類あり、一つがオーディオの規格であるDolby Atmosのみに対応したもの、もう一つがDolby Atmosに加え、映像の規格であるDolby Visionにも対応したものだ。後者は"Dolby Cinema"と呼ばれ、現時点では国内7スクリーン(開業予定含む)に導入されている。   Dolby Atmosでの上映に対応している劇場は年々増加していて、2020年4月現在で導入予定含む数値にはなるが、既に国内では 36スクリーン、海外では5000スクリーン以上にも及んでいる。 (いずれもDolby Atmos + Dolby Cinema計)当然ながら対応作品も年々増えており、ライブストリーミング等、映画作品以外のデジタルコンテンツも含めると、国内では130作品、海外ではその10倍の1300を超える作品がDolby Atmosで制作されている。いくつか例を挙げると、国内興行収入130億円を超える大ヒットとなった2018年の「ボヘミアン・ラプソディ」をはじめ、2020年のアカデミーでは作品賞を受賞した「パラサイト 半地下の家族」、同じく録音賞を受賞した「1917 命をかけた伝令」などといった作品がDolby Atmosで制作されている。   ●Dolby Atmos採用映画の例 アイアンマン3 / アナと雪の女王 / ラ・ラ・ランド/ パラサイト / フォードvsフェラーリ / ジョーカー / 1917 命をかけた伝令 / ボヘミアンラプソディetc... *Dolby 公式サイトよりDolby Atmos採用映画一覧を確認できる  ゲーム Dolby AtmosはPCやXbox Oneといった家庭用ゲームの人気タイトルでも数多く採用されている。特に、近年流行りのFPS(First Person Shooter = 一人称視点シューティング)と呼ばれるジャンルのゲームでは、射撃音を頼りに敵の位置を把握しなければならない。そのため、Dolby Atmosを使った3Dサウンドの再生環境の需要がより高まってきているのだ。   ※Windows PCやXbox OneにおいてヘッドホンでDolby Atmosを楽しみたい場合は、Dolby Access(無料)というアプリをインストールし、Dolby Atmos for Headphonesをアプリ内購入する必要がある。   ●Dolby Atmos採用ゲームの例 Assassin's Creed Origins(Windows PC, Xbox One) / Final Fantasy XV(Windows PC ,Xbox One)Star / Wars Battlefront(Windows PC ,Xbox One) / ACE COMBAT 7: SKIES UNKNOWN(Windows PC, Xbox One) 音楽 Amazon Echo Studio そして2020年1月にCES2020で正式発表されたのが、このDolby Atmosの名を冠した新たな3Dオーディオ再生フォーマット、Dolby Atmos Musicだ。現時点で、国内ではAmazonが提供するAmazon Music HD内のみでサービスを提供しており、同社のスマートスピーカー”Amazon Echo Studio”を用いて再生することができる。アメリカでは音楽ストリーミングサービス"TIDAL"でもDolby Atmos Musicを再生することができ、こちらは対応するPCやスマホなどでも楽しめるようになっている。 ここまで、Dolby Atmosを体験してみて、皆さんはどのような感想を持たれただろうか? 当然ながら多少の個人差はあるにしても、映画であればその空間に入り込んだかのような没入感・豊かな臨場感を体験できたのではないだろうか。あるいは、人によっては「期待したほど音像が動き回っている感じが得られなかった」という方もいるだろう。しかし、それでDolby Atmosの魅力を見限るのはやや早計だ。なぜなら、この技術は、"作品の意図として、音を無意識に落とし込む”くらい自然にミックスすることを可能にしているからだ。それを念頭におき、もう一度、繊細な音の表現に耳を澄ましてみてほしい。 3.ベッドとオブジェクトって何!? 〜Dolby Atmos基礎知識〜 体験を終えたところで、ここからは技術的な側面と基礎知識を押さえていこう。ポイントとなるのは以下の3点だ。 ● ベッド信号とオブジェクト信号 ● 3次元情報を記録するメタデータ ● 再生環境に合わせてレンダリング Dolby Atmosの立体的な音像定位は、2種類の方式を組み合わせて再現されている。 一つはチャンネルベースの信号 ー 5.1.2や7.1.2などあらかじめ定められたスピーカー配置を想定し、そのスピーカーから出力される信号のことを"Bed"と呼んでいる。例えば、BGMやベースノイズといった、あまり指向性が求められない音の再生に向いている。基本は音源とスピーカーが1対1の関係。従来のステレオやサラウンドのミックスと同じなので比較的イメージがつきやすいだろう。 劇場のように、一つのチャンネルが複数のスピーカーで構成されていた場合、そのチャンネルに送った音は複数のスピーカーから再生されることになる。 そしてもう一つはオブジェクトベースの信号 ー 3次元空間内を縦横無尽に動き回る、点音源(ポイントソース)の再生に適した方式だ。例えば、空を飛ぶ鳥の鳴き声や、アクション映画での動きのある効果音の再生に向いている。原理としては、3次元情報を記録するメタデータをオーディオとともに記録・伝送し、再生機器側でそれらを再生環境に合わせてレンダリング(≒変換)することで、再生環境ごとのスピーカー配列の違いをエンコーダー側で吸収できるという仕組みだ。 ある1点に音源を置いた時に、そこから音が聴こえるように、スピーカー送りを最適化するのがレンダラーの役割 Dolby AtmosのチャンネルフォーマットはBed 7.1.2ch(計10ch) + Object118ch(最大)での制作が基本となっている。この"空間を包み込むような音"の演出が得意なベッドと、”任意の1点から聞こえる音”の演出が得意なオブジェクトの両方を組み合わせることによって、Dolby Atmosは劇場での高い臨場感を生み出しているのだ。 4.Dolby Atmos制作を始めよう 〜必要なものは何?〜 Dolby Atmosはその利用目的によって、大きく2種類のフォーマットに分けられる。 まずは、一番最初に登場した映画館向けのフォーマット、Dolby Atmos Cinemaだ。これはまさにフルスペックのDolby Atmosで、先述した7.1.2chのBEDと118chのObjectにより成り立っている。このフォーマットの制作を行うためにはDolbyの基準を満たした音響空間を持つダビングステージでの作業が必要となる。しかも、劇場向けのマスターファイルを作ることができるCinema Rendering and Mastering Unit (Cinema RMU)はDolbyからの貸し出しでしか入手することができない。 もう一つは、Blu-ray やストリーミング配信向けのフォーマット、 Dolby Atmos Homeだ。実は、こちらの大元となるマスターファイル自体は Cinema 向けのものと全く同じものだ。しかし、このマスターファイルから Home 向けのエンコードを行うことで、128chのオーディオを独自の技術を活用して、できる限りクオリティーを担保したまま少ないチャンネル数に畳み込むができる。この技術によって、Blu-rayやNetflixといった家庭向けの環境でも、Dolby Atmos の迫力のサウンドを楽しめるようになった。こちらも、マスターファイルを作成するためには、HT-RMUと呼ばれるハードウェアレンダラーが必要となるが、HT-RMUは購入してスタジオに常設できるというのがCinemaとは異なる点だ。 ●Dolby Atmos制作環境 比較表 ※Dolby Atmos Production SuiteはWeb上、AVID Storeからご購入できるほか、Mastering Suiteにも付属している。 ※Dolby Atmos Dub with RMUについてはDolby Japan(TEL: 03-3524-7300)へお問い合わせください。 ●Cinema 映画館上映を目的としたマスター。ダビングステージでファイナルミックスとマスタリングを行う。Dolby Atmos Print Masterと呼ばれるファイル群をCinema Rendering and Mastering Unit (Cinema RMU)で作成。 ●Home 一般家庭での視聴を目的としたマスター。ニアフィールドモニターによるDolby Atmosスピーカー・レイアウトにてミックスとマスタリングを行う。Dolby Atmos Master File(.atmos)と呼ばれるファイル群をHome-Theater-Rendering and Mastering Unit(HT-RMU)で作成。   Cinema用とHome用のRMUでは作成できるファイルが異なり、スピーカーレイアウト/部屋の容積に関する要件もCinema向けとHome向けで異なる。それぞれ、目的に合わせたRMUを使用する必要がある。ミキシング用のツール、DAW、プラグイン等は共通。 ここまで作品や概要を説明してきたが、そろそろDolby Atmosでの制作を皆さんも始めてみたくなってきただろうか?「でも、自宅に7.1.2chをモニターできる環境が無い!「やってみたいけど、すぐには予算が捻出できない!」という声も聞こえてきそうだが、そんな方にとっての朗報がある。Dolby Atmos Production Suiteを使えば、なんと ¥33,000 (Avid Storeで購入の場合)というローコストから、Dolby Atmos ミックスの最低限の環境が導入できてしまうのだ。このソフトウェア以外に別途必要なものはない。必要なものはスペックが少し高めのマシンと、対応DAW(Pro Tools、Nuendo、DaVinchi etc)、そしてモニター用のヘッドホンのみだ。 多少の制約はあるものの、ヘッドホンを使ったバイノーラル再生である程度のミックスができてしまうので、スタジオに持ち込んでのマスタリング前に自宅やオフィスの空き部屋といったパーソナルな環境でDolby Atmosの仕込みを行うことができる。次の項ではそのワークフローを具体的に紹介していく。 5.自宅で始めるDolby Atmosミックス 〜Dolby Atmos Renderer × Pro Tools 2020.3〜 ここからは最新のPro Tools 2020.3 とProduction Suiteを使って実際のDolby Atmosミックスのワークフローをチェックしていきたい。まず、大まかな流れとしては下記のようになる。PTとレンダラーの接続方法は、Send/Returnプラグインを使う方法とCore Audio経由でやり取りする方法の2種類がある。それでは順番に見ていこう。 1.Dolby Atmos Production SuiteをAvid Storeもしくは販売代理店にて購入しインストール。 2.Dolby Atmos Renderer(以後レンダラー)を起動各種設定を行う。 3.Pro Tools(以後PT) を起動各種設定を行う。※正しいルーティングの確立のため、必ずレンダラー →Pro Toolsの順で起動を行うこと。 4.PTの標準パンナーで3Dパンニングのオートメーションを書き込む。 5.Dolby Atmos RMU導入スタジオに持ち込む。 Send/Returnプラグインを使う方法 ■Dolby Atmos Renderer の設定 ● 左上Dolby Atmos Renderer → Preferences( ⌘+ , )で設定画面を表示 ● Audio driver、External Sync sourceをSend/Return Plug-insに設定 ● Flame rate、Sample rateを設定 ※PTの設定と合わせる HeadphoneのRender modeをBinauralにすることで、標準HRTFでバイノーラル化された3Dパンニングを確認することができる。(※聴こえ方には個人差があります。)   ■Pro Tools の設定 ● 新規作成→プロジェクト名を入力→テンプレートから作成にチェック ● テンプレートグループ:Dolby Atmos Production Suite内”Dolby Atmos Renderer Send Return Mono(またはStereo)”を選択→ファイルタイプ:BWF ● 任意のサンプルレート、ビットデプス、I/O設定を入力→作成 ● 設定 → ペリフェラル → Atmosタブ ● チェックボックスに2箇所ともチェックを入れる。 ● RMUホストの欄には”MAC名.local”または”LOCALHOST”と入力。   接続状況を示すランプが緑色に点灯すればOK。一度接続した場合、次回からプルダウンメニューで選択できる。 編集ウィンドウを見てみると、英語でコメントが入力されたいくつかのトラックが並んでいる。   ● まず、一番上の7.1.2Bedという名称のトラック ーここにBedから出力したい7.1.2の音素材をペーストまたはRECする。 ● 次に、その下のObject 11という名称のトラック ーここにObjectから出力したいMonoまたはStereoの音素材をペーストまたはRECする。 ● 上の画像の例では、任意の範囲をドラッグして選択、AudioSuite→Other→Signal Genetatorよりピンクノイズを生成している。 ● このトラックは、画面左側、非表示になっている”SEND_〇〇_IN_ch数”という表記になっているAUXトラックに送られている。 ● このAUXトラックにSendプラグインがインサートされており、パンなどのメタデータとともにレンダラーへと出力される。 試しに再生してみると、レンダラー側が上の画像のような状態になり、信号を受けているチャンネルが点灯している様子が確認できる。 赤丸で囲った部分をクリックしてアウトプットウィンドウを表示し、パンナーのポジションのつまみをぐりぐりと動かしてみよう。 すると、レンダラー内のオブジェクトが連動してぐりぐりと動くのが確認できる。   オートメーションをWriteモードにしてチェックすると、きちんと書き込んだ通りに3Dパンニングされているのが分かる。ここで、トラックの右端”オブジェクト”と書かれているボタンをクリックすると、”バス”という表示に切り替わり、その音はベッドから出力される。つまり、ベッドとオブジェクトをシームレスに切り替えることができるのだ。これは、例えば、映画などで正面のベッドから出力していたダイアローグを、”ワンシーンだけオブジェクトにして、耳元に持ってくる”といった表現に活用できそうだ。   さらにその右隣の三角形のボタンを押すごとに、” このトラックに書き込まれたメタデータをマスターとする ”( 緑点灯 ) か、” 外部のオブジェクトパンニング情報源からREC する ”( 赤丸点灯 ) か、” 何も送受信しない ”( 無点灯 ) か を選択できるようになっている。レンダラー内でレンダリングされた音は、ReturnプラグインからPTへと戻ってくる。あとは、各々のモニター環境に合わせてアウトプットしたり、RECをかけたりすることができる。   以上が、Send/Returnプラグインを利用した一連のルーティングのワークフローになる。今回はテンプレートから作成したが、もちろんはじめから好きなようにルーティングを組むことも可能だ。しかし、チャンネル数が多い場合はやや複雑になってくるので、初めての場合はまずはテンプレートからの作成をおすすめする。 CoreAudioを使う方法 はじめに、Core Audioを使う場合、Sync sourceをMTCかLTC over Audioから選択する必要がある。LTCを使う場合は、PTの130chまでの空きトラックにLTCトラックまたは、Production Suite 付属のLTC Generator プラグインを挿入→レンダラーからそのch番号を指定する。MTCを使う場合はIACバスをというものを作成する必要がある。(※IAC = Inter-application communication)   ■IACバスの設定 ● Mac →アプリケーション→ユーティリティ→Audio MIDI設定を開く ● タブメニューのウインドウ→IAC Driverをダブルクリック ※装置名がIACドライバなど日本語になっていた場合レンダラーでの文字化けを防ぐため”IAC Driver”など英語に変更しておくとよい ● +ボタンでポートを追加→名称を”MTC”(任意)に変更→適用をクリック   ■Dolby Atmos Renderer 側の設定 ● 左上Dolby Atmos Rendere → Preferences( ⌘+ , )で設定画面を表示 ● Audio driverをCore Audioに設定 ● Audio input deviceを”Dolby Audio Bridge”に設定 ※ここに”Dolby Audio Bridge”が表示されていない場合、Macのシステム環境設定→セキュリティとプライバシー内に関連するアラートが出ていないか確認。 ● External Sync sourceをMTCに設定し、MTC MIDI deviceで先ほど作成したIAC Driver MTCを選択(またはLTC over Audioに設定しCh数を指定) ● Flame rate、Sample rateを設定 ※PTの設定と合わせる ● ヘッドホンでバイノーラルで作業する場合はHeadphone only modeを有効にすると、リレンダリングのプロセスなどを省くため、マシンに余分な負荷をかけることなく作業できる   ■Pro Tools 側の設定 ● 設定→プレイバックエンジンを”Dolby Audio Bridge”に。 ● キャッシュサイズはできる限り大きめに設定しておくと、プレイバック時にエラーが発生しにくくなる。 ● 設定→ペリフェラル→同期→MTC送信ポートを先ほど作成した”IAC Driver,MTC”に設定 ● 設定 → ペリフェラル → Atmosタブ(Send/Returnの項目と同様だ) ● チェックボックスに2箇所ともチェックを入れる。 ● RMUホストの欄には”MAC名.local”または”LOCALHOST”と入力。接続状況を示すランプが緑色に点灯すればOK。一度接続した場合、次回からプルダウンメニューで選択できる。 以上で、CoreAudio経由でのルーティングは完了だ。Send/Returnプラグインを利用する時のように大量のAUXトラックが必要ないため、非常にシンプルにセッティングを完了できる。また、ソフトウェアレンダラーでの仕込みから最終のマスタリングでRMUのある環境に持ち込む際にも、I/O設定をやり直さなくてよいという点もメリットの1つだろう。こちらも試しにオーディオ素材を置いて動作を確認していただきたい。   マルチチャンネルサラウンドやバイノーラルコンテンツへの需要は、日々着実に高まりつつあることが実感される。今回はゼロからはじめるDolby Atmosということで、Dolby Atmosとはどのようなものなのか、そしてDolby Atmosミックスを始めるためにはどこからスタートすればいいのか、という足がかりまでを紹介してきた。「思ったより気軽に始められそう」と、感じていただいた方も多いのではないのだろうか。 「一度体験すれば、その素晴らしさは分かる。ただ、一度体験させるまでが難しい。」というのが3Dオーディオの抱える最大の命題の命題かもしれない。これを解決するのは何よりも感動のユーザー体験を生み出すことに尽きる。そのために今後どのような3Dオーディオ制作ノウハウを蓄積していけるのか、全てのクリエイターが手を取り合って研鑽することが、未来のコンテンツを創り上げる第一歩と言えるのかもしれない。 *ProceedMagazine2020号より転載

Media

Mac mini RMU〜コンパクトな構成でDolby Atmos ミキシングを実現

ホームシアター向けDolby Atmos(Dolby Atmos Home)マスターファイルを作成することが出来るHT-RMUシステムをMac miniで構成。劇場映画のBlu-RayリリースやVOD向けのDolby Atmos制作には必須のDolby Atmos HT-RMUシステムは、Dolby社の認証が下りている特定の機器構成でなければ構築することが出来ない。従来、認証が下りていたのは専用にカスタマイズされたWindows機やMac Proといった大型のマシンのみであったが、ついにMac miniを使用した構成の検証が完了し、正式に認可が下りた。 Pro Toolsシステムとの音声信号のやりとりにDanteを使用する構成と、MADIを使用する構成から選択することが可能で、どちらも非常にコンパクトなシステムで、フルチャンネルのDolby Atmos レンダリング/マスタリングを実現可能となっており、サイズ的にも費用的にも従来よりかなりコンパクトになった。 HT-RMUの概要についてはこちらをご覧ください>> ◎主な特徴 Dolby Atmosのマスター・ファイルである「.atmos」ファイルの作成 .atmosファイルから、家庭向けコンテンツ用の各フォーマットに合わせた納品マスターの作成 「.atmos」「Dolby Atmos Print Master」「BWAV」を相互に変換 Dolby Atmos環境でのモニタリング Dolby Atmosに対応するDAWとの連携 DAWとの接続はDanteまたはMADIから選択可能 ◎対応する主なソリューション Dolby Atmos に対応したBlu-ray作品のミキシング〜マスタリング Dolby Atmos に対応したデジタル配信コンテンツのミキシング〜マスタリング Dolby Atmos 映画作品のBlu-ray版制作のためのリミキシング〜リマスタリング Dolby Atmos 映画作品のデジタル配信版制作のためのリミキシング〜リマスタリング Dolby Atmos 映画作品のためのプリミキシング 構成例1:Dante ※図はクリックで拡大 RMUとPro Toolsシステムとの接続にDanteを使用する構成。拡張カードを換装したPro Tools | MTRXやFocusrite製品などの、Dante I/Fを持ったI/Oと組み合わせて使用することになる。この構成ではLTCの伝送にDanteを1回線使用してしまうため、扱えるオーディオが実質127chに制限されてしまうのが難点だが、シンプルなワイヤリング、ソフトウェア上でのシグナル制御など、Danteならではの利点も備えている。しかし、最大の魅力はなんと言ってもRMU自体が1U ラックサイズに納ってしまう点ではないだろうか。 構成例2:MADI ※図はクリックで拡大 こちらはMADI接続を使用する構成。歴史があり、安定した動作が期待できるMADIは多チャンネル伝送の分野では今でも高い信頼を得ている。この構成の場合、MADIまたはアナログの端子を使用してLTCを伝送するため、128chをフルにオーディオに割り当てることが出来るのも魅力だ。また、この構成の場合はMADI I/FをボックスタイプとPCIeカードから選択することが出来る。

Post

Mac mini + Pro Tools / そうだ!Mac miniで行こう!

制作現場の業界標準として導入されているMac Pro。新Mac Proの登場も迫っていますが、もう一つ改めてその存在を取り上げたいのがMac miniです。旧Mac Pro(黒)が衝撃的なフォルムで登場したのは2013年のこと、すでに6年の時間が経過し、ブラッシュアップを重ねて新モデルに移行しようとしています。その一方でMac miniも着実な進化を遂げており、現行モデルでは旧Mac Pro(黒)のスペックを勝るとも劣らない構成が可能に。Pro ToolsほかアプリケーションのMac OSへの対応も考慮すると、安定した旧OSとの組み合わせでの稼働も可能となるMac miniという選択肢は一気に現実味を帯びてきます。安定した制作環境が求められる業務の現場に新たなセレクトを、Mac miniでのシステム構築を見ていきます。 ◎チェックすべき4つのポイント 1:安定した旧OSでの対応も可能な制作環境 Pro Toolsのシステム要件とされているのは、macOS 10.12.6, 10.13.6, あるいは 10.14.6 のOSを搭載したIntel® Mac。Mac miniでPro Toolsとも緊密な安定したOS環境を整えることにより万全の制作体制を構築することも可能です。 2:Avid Pro Tools 動作推奨モデル Avidの推奨動作環境として挙げられていることもMac miniでのシステムアップにとって安心材料です。Pro Toolsシステム要件ではサポートする拡張シャーシなど環境構築に必要な情報も記載していますので、詳細は下記よりご確認ください。 <参照>Avid Knowledge Base:Pro Tools 2018 / 2019 システム要件 3:旧MacProとも劣らない充実のスペック 多彩なオプション選択で、旧Mac Proに勝るとも劣らないほどのスペックを構築。特にCPU・メモリの世代交代はパフォーマンスに大きな影響をもたらしているほか、メモリのオプション設定も旧Mac Proで最大32GBであったのに対し、64GBまで増設可と大きな魅力に。充実のスペックで制作システムのコアとして機能します。 4:導入しやすいコストとサイズ、そして拡張デバイスでの可能性 最大スペックのオプション選択でも¥389,180税込と、導入コストの優位性は見逃せません。約20cm四方・厚さ3.6cmのスクエアな筐体は省スペース性にも優れ、TB3の広帯域に対応した拡張デバイスがシステムをスマートに、そして制作の可能性を広げます。 ベンチマークで見る、いまのMac miniのポジション ◎PassMark・ベンチマークスコア比較 Mac miniのCPUは第8世代Core Processer - Coffee Lakeです。業務導入での比較対象となる旧Mac Pro(黒)は第3世代Core Processer - Ivy Bridgeを採用しています。なんと世代で言えば5世代もの進化の過程があり、単純にクロックスピードだけで比較することはできなさそうです。そこで、ベンチマークテストの結果をまとめてみました。 まず、第3世代のCore i7との比較ですが、当時のフラッグシップとなるクアッドコアのCore i7-3770K(3.5-3.9GHz)のスコアは9487、対してMac miniでオプション選択できるは第8世代 6コア Core i7-8700(3.2-4.6GHz)は15156の数値。実に1.6倍ものスコアの開きがあり、同一クロックであれば約2倍のスペックを持つと考えても良いのではないでしょうか。また、旧Mac Pro(黒)のCPUとなるXeon E5-1650v2(3.5GHz)とも比較すると、第8世代を携えたMac miniのスコアが上回るという逆転現象に行き着きます。世代間でのスペック向上は非常に大きく見逃せない結果です。 メモリに関しても、旧Mac Pro(黒)はDDR3 1866MHz ECC、Mac miniはDDR4 2666MHzとメモリ自体の世代も異なってきます。DDR3とDDR4では理論値として同一クロックでのデータの転送速度は2倍に、さらに動作クロック自体も1.5倍となっていることを考えると、実際の制作作業におけるパフォーマンスは大きく変わってきそうです。 ◎Mac miniのプライスレンジを確認 Mac miniのラインナップは主に2つ、クアッドコアと6コアのCPUとなります。そのうちPro Toolsの推奨モデルとしてAvidホームページに掲載されているMac miniは「Late 2018 Mac mini 8,1 6-Core i7 'Coffee Lake' 3.2 GHz」および、「Late 2018 Mac mini 8,1 6-Core i5 'Coffee Lake' 3.0 GHz」の2機種ですが、Pro Tools|UltimateではIntel® Core i7 プロセッサーを推奨していますので、6コア 3.2GHz Core i7のCPUを選択することになります。 ここにメモリの要件「16GB RAM (32GB以上を推奨)」を考慮すると、メモリ容量違いの上記3パターンが基準となって、ストレージ、ネットワークのオプションを選択する流れです。単純比較はできませんが、旧Mac Pro(黒)の6コアベースモデルが3.5GHz、16GBメモリ、256SSDの仕様で¥328,680税込であったことを考えると、Mac miniが3.2GHz 6コア、64GBメモリ、1TB SSDでまったくの同価格という事実は見逃せないポイントです。 <参照>Avid Knowledge Base:Pro Tools 2018 / 2019 システム要件 ◎Mac mini + Pro Tools|Ultimate System ・PLAN A:旧MacProに勝るとも劣らないパワフルなフルスペックバージョンで安定の制作環境を。 Mac miniの持つポテンシャルをいかんなく発揮させるのが、このフルスペックバージョン。メモリは64GB、2TBのSSDを選択したうえにビデオ関連デバイスやサーバーストレージとのネットワークも考慮して10GbEのオプションもセレクト。可能な限りのすべてを詰め込んでもこの価格帯に収まります。拡張シャーシとしては3つのSonnet Technoplogy社製品をセレクト。eGFXはTB3対応を果たしながらも低コストで導入できる1 Slotのモデル。Sonnet/Echo Express III-DとラックマウントのIII-Rは3枚のシングル幅、フルサイズのPCIeカードをサポートし、すでに導入実績も多数でHDXカードを複数枚導入するには必須です。 ・PLAN B:Pro Tools | Ultimateシステム要件をクリアした、コストパフォーマンスに優れた仕様。 もう一つの選択肢は、Mac miniのコストパフォーマンスを最大限に享受してPro Tools | Ultimateシステム要件をクリアした16GBメモリの仕様。もちろんシャーシを加えたHDXシステムもあれば、HD Native TBを選択してコスト的にPro Tools | Ultimateへの最短距離を取ることもできます。また、業務用途のサブシステムとしても魅力的な価格ゾーンにあり、マシンの将来的な転用も念頭に置けば有効的なセレクトと言えそうです。ちなみに、32GBへの増設は+¥44,000(税別)、64GBへは¥88,000(税別)となっており、実際の制作内容と照らし合わせて選択の落としどころを見つけたいところ。 ・ADD ON:HDXシステムはもちろん、RAID構築から4Kを見据えた導入まで拡がる可能性。 Avid HDX/HD NativeでPro Tools | Ultimateシステムを導入することもさることながら、元々のMac miniの拡張性を活かしたRAIDの構築や、外付けのグラフィックアクセラレーターも視野に入ります。Thunderbolt3の一方をシャーシ経由でHDXに、もう一方をeGPU PROに、さらに10GbE経由でNEXISなどサーバーストレージになど、制作システムのコアとしての活用も見えてきます。 ◎その実力は、いままさに最適な選択に! コストやそのサイズ感だけではもうありません。Mac miniは長らくエントリーモデルとしての位置付けであったかもしれませんが、実は必要な機能だけを絞り込んで余計なものは排除した、業務的で実務を見据えたマシンというイメージに変容してきています。さらに最近のニュースでは、Mac OSに対応したDolby AtmosのHT-RMU(HomeTheateer-Rendering and Mastering Unit)もソフトウェアVer.3.2からMac miniでの構築が従来の半分のコストで可能となっており、その活用の幅も広がっています。また、拡張デバイスはさまざまな3rd Partyから提案されていて、その組み合わせも実に多彩。ブレーンにあたる部分をMac miniに請け負わせるシステム構築はスペックも見返すと理にかなっている内容といえそうです。Mac miniを用いた最適な選択で安定の制作環境を。ぜひともご準備ください!

Music

既存Pro Tools | HDX システムを96kHzライブRec.システムにリーズナブルにグレードアップ〜DiGiGrid MGB/MGO + DLI

プラグインメーカー最大手のひとつであるWAVES社とデジタルコンソールの雄DiGiCo社によって開発されたDiGiGrid製品を活用することで、近年主流となりつつある96kHzでのライブコンサートをマルチチャンネルでPro Tools | HDX システムに接続することが可能になります。 コンパクトな筐体に2系統のMADI入出力ポートを備えたMGB/MGO、2系統のDigiLinkポートを備えたわずか1UのDLIを導入するだけで、既にお持ちのHDXカード1枚につき64ch(48kHz/96kHz)のMADI信号をPro Toolsとの間でやり取りすることが可能です。また、既存のDigiLink対応MADIインターフェイスと比較して、導入費用の面でも大きな魅力を備えています。 ◎主な特徴 ・ 既存のPro Tools | HDX システムはそのままに、MADI I/O 機能を追加可能   ・ HDXカード1枚に対して64ch のMADI信号をPro Toolsとやり取り可能   ・ 96kHz時にも64ch分のMADI伝送が可能   ・ 1Gbpsネットワークスイッチを導入することで、手軽にバックアップRec機能を追加   ・ ネットワークオーディオの利点である柔軟な拡張性と冗長性 ◎システム構成例1 システムはMADIとSoundGridのインターフェイスであるMGB/MGO + DigiLinkとSoundGridのインターフェイスであるDLIから成っています。MGB/MGOは単独でPCのネットワーク端子に接続して入出力させることも可能です。また、MGB/MGOは2ポートのMADI端子を搭載しているため、2つのMADIポートを使用して96kHz時でもPro Tools | HDXシステムとの間で最大64Chの入出力が行えます。ライブレコーディングだけでなく、バーチャルリハーサルにも活用可能なシステムを構築可能です。 ◎システム構成例2 ネットワークオーディオ・デバイスであるDiGiGrid導入の最大の利点は、1Gbpsネットワークスイッチと併用することで柔軟性の高い拡張性とリダンダシーを手軽に追加することが可能な点です。画像の例では既存PCを流用することでバックアップ用のDAWを追加しています。無償でダウンロードできるWaves社のTracksLiveを使用すれば、ネイティブ環境で合計128chまでのレコーディングとバーチャル・リハーサルのためのプレイバックが可能なシステムを手軽に構築可能です。 ネットワークを活用してさらなる拡張性と機能性を追加可能 また、このようにDLIを導入したシステムでは、様々なSoundGrid対応インターフェイスをPro Tools HDXシステムに追加することが可能です。モニタリング用のインターフェイスを追加して、収録時の検聴やインプットの追加、ADATやAES/EBU機器へのデジタル入出力、Ethernetケーブルを使用するネットワーク接続を生かし、長距離でも自由なI/Oの構築がフレキシブルに行えます。 また、SoundGrid 対応Serverを追加することで、対応プラグインを外部プロセッサーで動作させることができます。レコーディング時にWavesやSonnoxなどのプラグインのかけ録りを行う、低レイテンシーでプラグインをかけて送出するなど、コンピューターのCPUに負担をかけずにプラグインをかけられるDiGiGridシステムは失敗の許されないライブコンサートの現場に相応しいソリューションと言えるのではないでしょうか。

Music

Focusrite Red/RedNetシリーズ ~Danteネットワークによる最新レコーディング環境

Ethernetケーブルによるビデオ/オーディオの伝送に関する規格統一を図ったSMPTE ST2110の制定により、にわかに注目度の上がるAoIP(Audio over IP、ネットワークオーディオ)。そうした動きに応えるように、新製品にDanteコネクションが搭載されている例や、Dante拡張カードのリリースなどのニュースを多く目にするようになりました。   Focusrite Redシリーズ / RedNetシリーズはDanteに標準対応するインターフェイスをラインナップ、必要な規模に応じた柔軟なセットアップと高い拡張性を提供します。Pro Tools HDXやMADIにも対応し、既存システムとの統合にも対応。イーサーネットケーブルで完結するシンプルなセットアップ、信頼度の高いオーディオ伝送、ネットワーク形成による自由なルーティングなど、Danteの持つ利点を最大限に享受することが可能です。 ◎主な特徴   ・柔軟で拡張性の高いシステム設計 ・ネットワーク内であれば完全に自由なルーティング ・Pro Tools | UltimateやMADIなどの既存システムとの統合性の高さ ◎システム構成例1 RedNetシリーズによるレコーディング用途のスタジオセットアップ例。豊富なI/Fにより音声信号の入り口から出口までをDanteによって完結することが可能。Pro Tools | HDXシステムとの統合により、既存のワークフローを最大限維持したまま、Danteによる利点を導入します。システムの中心にコンソールがない環境でも、マイクプリ、キュー/トークバック、モニターコントロールといった業務に欠かせない機能を手元からコントロールすることが出来ます。 ◎システム構成例2 コンパクトなDanteシステムに、WAVESプロセッシングを追加した例です。1Uの筐体に8IN/10OUTアナログ(マイクプリ4機を含む)、16x16デジタル、32x32Danteという豊富なI/Oを備えたRed4PreはDigiLinkポートも標準搭載。WGS Bridge for DanteがDanteネットワークとSoundGridネットワークをシームレスに統合。システムにニアゼロ・レイテンシーのWAVESプロセッシングを追加します。

Music

Pro Tools | S6 + Pro Tools | MTRX ~ミキシングを再定義する革新的コンソール・ソリューション~

DAWの進化とともに、今ではほとんどすべての作業はPro Toolsの内部ミックスで完結するようになりました。Pro Tools | S6は豊富なビジュアル・フィードバックと高いカスタマイズ性・拡張性により、Pro Toolsが持つ多くの機能へより素早く確実にアクセスすることを可能にします。Avid最新のI/OでもあるPro Tools | MTRXに備わるモニターコントロールセクションはPro Tools | S6からコントロールすることが可能。高品位なサウンドをPro Toolsシステムに提供するだけでなく、Pro Tools | S6システムを最新のミキシング・ソリューションへと昇華します。 ◎主な特徴   ・圧倒的に豊富なビジュアルフィードバックにより、必要な情報を素早く確実に把握。   ・モジュール方式のハードウェアは必要十分な規模での導入と、導入後の拡張に柔軟に対応。   ・タッチスリーンを採用したセンターセクションで、多くの機能を素早くコントロール。   ・Pro Tools | MTRXとの連携により、モノ、ステレオからマルチチャンネル・モニタリングまでを完璧にコントロール。   ・最大8までのEucon対応アプリケーションを同時にコントロール。大規模セッションでも効率的にオペレートが可能。 ◎システム構成例1 Pro Tools | S6 + Pro Tools | MTRXのもっともシンプルな構成。Pro Tools | MTRXは筐体にMADIポートを備えるほか、必要に応じてオプションカードを追加すれば様々な信号のハブとしてまさにコンソールとしての役割を担うことが可能です。 ◎システム構成例2 最大8つまでのEUCON対応DAW/アプリケーションと同時に接続可能なPro Tools | S6のポテンシャルを活用すれば、複数のPro Toolsシステムを1枚のサーフェースでコントロールすることが可能です。フェーダーひとつから、どのシステムのどのチャンネルをアサインするかを選択出来るため、各DAWでS6のエリアを分担して作業することも可能です。

Post

Pro Tools | S3+Pro Tools | Dock ~Mixをフィジカルにコントロールするプロフェッショナルシステム~

Avid製ライブコンソールS3Lのために開発された堅牢性とスムースな操作性を兼ね備えた16フェーダーのコントロールサーフェスPro Tools | S3。Pro Tools | S6で培われたノウハウを詰め込んだPro Tools | Dock。コンパクトでありながらミックスをパワフルにコントロールするこの組み合わせがあれば、大型コンソールに匹敵するほど効率よくミックス作業を行うことが可能になります。 主な特徴   ・上位モデルならではの堅牢でスムースな16フェーダー、豊富なノブ/スイッチ、タッチストリップなどにより、プロジェクトを素早く俯瞰、コントロールを容易にします。(Pro Tools | S3)   ・4in/6outのCore Audioインターフェースとして動作(Macのみ)。2つのXLR(Mic/Line)、2つのTRS(Line)インプットも兼ね備え、ボーカルやギターを急遽追加しなければならないような時にも素早く対応が可能。(Pro Tools | S3)   ・Pro Tools | Control appをインストールしたiPadとともに使用することで、Pro Tools | S6のセンターセクションに匹敵するコントロールを実現。(Pro Tools | Dock)   ・iPadによるタッチスクリーンと高品位なハードウェアにより、スピードと操作性を両立。(Pro Tools | Dock) システム構成 iPadはWiFi圏内にあればPro Tools | Control appからPro Toolsをコントロールすることが出来ます。iPadを持ってブースへ入り、ブースからレコーディングを開始/停止するなどの操作が可能。LANポートを備えたWiFiルーターを導入することで、S3、Dock、コンピューターのネットワークとiPadの安定運用を同時に実現する組み合わせがお勧めです。ご要望に合わせたiPad、WiFiルーターのモデルをお見積もりいたします。

Music

Pro Tools | Ultimate + HD MADI ~多チャンネル伝送を実現したコンパクトシステム~

多数のチャンネルを扱うことの多いポストプロダクション業務。5.1chサラウンドが標準となり、Dolby Atmosや22.2chなどのイマーシブサラウンドが浸透していくことで、MA作業で必要とされるチャンネル数はさらに増加していくと考えられます。Pro ToolsシステムのI/OにPro Tools | HD MADIを選べば、わずか1Uの筐体でHDXカード1枚の上限である64ch分の信号を外部とやりとりすることが可能になります。96kHz時も48kHz時と同様、64chを伝送することが出来ることも大きな利点です。 ◎主な特徴   ・わずか1ラック・スペースのインターフェースと2本のケーブルを介して、最大64のオーディオ・ストリームをPro Tools | HDシステムと他のMADIデバイス間で送受信できます。   ・すべての入出力を超高品質でサンプルレート変換できます。セッションを変換したり、外部MADIデバイスをダウンサンプリングしたりする面倒な作業は不要です。   ・別のフォーマット・コンバーターを用意することなく、オプティカル接続と同軸接続の両方で、さらに多様なMADIデバイスをレコーディングのセットアップに追加できます。   ・出力に対してサンプル・レート変換を使用する際、専用のBNCワード・クロックおよびXLR AES/EBU接続を介して外部クロックと同期することで、ジッターを最小限に抑えます。 ◎システム構成 Pro Tools | HD MADIの構成は、HDXカード1枚に対してI/O 1台という極めてシンプルなもの。MADI対応の音声卓となら直接接続が可能なほか、音声卓との間にMADIコンバーターを導入すれば、Pro Toolsと様々なデバイスを多チャンネルで接続することが可能となります。

Post

Works

Works
システムの実例を知る

株式会社Cygames 大阪サウンドフォーリースタジオ様 / 正解は持たずにのぞむ、フォーリーの醍醐味を実現する自社スタジオ

「最高のコンテンツを作る会社」をビジョンに掲げ、妥協のないコンテンツ制作に取り組む株式会社Cygames。ProceedMagazine 2022-2023号では大阪エディットルームの事例として、Dolby Atmos 7.1.4chに対応した可変レイアウトとなるスタジオ2部屋が開設された様子をご紹介したが、それとタイミングを同じくしてフォーリースタジオも大阪に設けられた。ここではそのフォーリースタジオについてレポートしていきたい。 同時期に3タイプのスタジオ開設を進める Cygamesでは、スマートフォン向けのゲームタイトルだけではなく、コンシューマー系のタイトル開発にも力を入れている。近年のゲームはプラットフォームを問わず映像や音の表現が飛躍的に向上しており、フォトリアルで写実的な映像に合わせたサウンドを作る場面が増えてきた。効果音の制作については、それまでは外部のフォーリースタジオを借りて作業を行っていたが、効率性を考えれば時間や手間が掛かってしまうという制約があった。また、ゲーム作品では、例えばキャラクターの足音一つとっても多くの動作音があるだけでなく、ファンタジーの世界特有の表現が必要である。土、石畳、レンガ等といった様々な素材の音を既存のライブラリから作り上げるのは容易ではなく、完成度を上げていくことは中々に難しい作業だが、フォーリースタジオを使って収録した効果音は、生音ならではの音の良さに加え、ゲームによく馴染む質感の音に仕上がることが多かったという。 やはり自社のスタジオがあればより効率的に時間を使い、かつクオリティを高める試行錯誤も行えるのではないか、という思いを抱いていたところ、Cygamesのコンシューマーゲーム開発の拠点がある大阪でモーションキャプチャースタジオの設立計画が立ち上がったことをきっかけに、建物のスペック等を考慮してフォーリースタジオも同じ場所に設置する形でスタジオ設置に向けて動きだした。以前ご紹介した、MAスタジオの用途を担う大阪エディットルーム開設プロジェクトと合わせると、同時期に2つのサウンドスタジオ開設を進めるという大きなプロジェクトになったそうだ。 制約はアイデアでポジティブに変換する フォーリースタジオを開設するための要件としてまず挙げられるのは部屋の高さと広さ。通常のレコーディングとは異なって物を振り回したりすることも多いフォーリー収録ではマストな条件となる。天井が低ければ物が当たってしまうのではないかという演者の不安とストレスを低減するため、部屋の中央付近の天井を一段高くする工夫が取り入れられている。広さについてもフォーリー収録時の演技をする上で充分なスペースを確保しているが、加えて壁の反射音の影響が強く出てしまわないよう、床やピットを部屋の真ん中に寄せて配置し、壁からの距離が取れるレイアウトを実現できた点も広さを確保できたメリットだ。 また、スタジオ内の壁面にはぐるりと木製のフローリングが敷かれ、そこも材質の一つとして使用できる。中央には大理石やコンクリート、水を貯められるようなピットが用意され多様な収録に対応できる環境が整えられた。一方、スタジオの広さがある故に反響をどのようにマネジメントするのかは大きな課題となっていたようだ。そこで取られた特徴的な対策だが、壁面の反射を積極的に発生させつつルームモードを起こさないように処理した上で、むしろその反響を収録での選択肢として活かせるようにしたそうだ。もちろん、部屋の外周に沿って用意されたカーテンによって反射面を隠し、反響をダンピングして抑えていくこともできる。さらに、日本音響エンジニアリングの柱状拡散体を設置してアコースティックも整えられており、当初は弊害と考えていた反響音を逆に利用することで、収録できる音の幅を拡げている。 施工は幾度と重なる打ち合わせやシミュレーションを経て行われたのだが、それでも予想できない不確定な要素も出てきたそうだ。例えば、このスタジオの特徴でもある天吊りマイク。天井に取り付けられた金属製のパイプに特型のマイクスタンドを引っ掛けて固定する仕様になっているのだが、実際に収録を行うとパイプに響いているのか、音声信号にノイズを感じることが出てきた。イメージ的にはドラムのオーバーヘッドを立てるイメージに近く、ドラムは音量が大きいためそれほど気になりはしないが、フォーリーの収録となると微細なノイズでも大きく感じることが多くなる。試行錯誤した結果、天吊りマイクスタンドを取り付ける際に固定ネジを締めすぎないようにすることでノイズを軽減できることがわかった。そのほかにも、部屋の天井から高周波の金属音が鳴っているようで調査したところ、空調のダクトが共振していることが判明。金属のダンピングを見直して解決したそうだ。細かな調整だが、このような積み重ねこそが収録のクオリティーアップには必要不可欠であるとのことだ。 📷ダンピングが見直されたという天吊りマイクブーム 集中環境とコミュニケーションの両立 スタジオのコンセプトで重要視している要素として、ストレスフリーであることが必要であると考えているそうだ。ブースとコントロールルームのスタッフの間で意思疎通がストレスなく行われなければ作業効率も落ちてしまい、認識の齟齬も起きがちだ。社内スタジオで自由に使える環境とはいえ、クオリティを高めるトライアンドエラーの時間まで削ってしまっては本末転倒になってしまう。 ところが、このスタジオはブースとコントロールルームが完全にセパレートされており、お互いの姿を確認できるようなガラス面も設けられていない。 一見するとコミュニケーションを妨げる要素になりそうだが、ガラス面を設けないことで演者が集中して演技に取り組める環境を整えられたという。演者にとって、人の目線があると気になって集中力の妨げになることもある。外部のスタジオでは収録の様子をクライアントがコントロールルームから見守るといったことも多いが、このスタジオは社内スタッフでの利用が主となるため、必ずしもコントロールルームから演者を直視できる必要はない。ただし、その分だけコミュニケーションを重視したシステムプランが採用された。 スタジオ内にはフォーリー収録用とは別に天吊りマイクが仕込まれており、コントロールルームからスタジオ内の音を聴くことができ、トークバックと両立できるようなコミュニケーションの制御も行なっている。映像カメラも各所に設置されており、コントロールルーム内のディスプレイにスタジオ内の様子が映され、その映像も各ディスプレイに好きなように出せるスイッチャーが設置されており、オペレーターの好みに合わせて配置することが可能となっている。コントロールルームとブースをアイソレーションすることによって演者が集中できる整った環境と、コミュニケーションを円滑にさせるシステムプランをしっかり両立させている格好だ。 正解を持たずに収録する、トライする機材 📷コントロールルームには左ラックにPUEBLO AUDIO/JR2/2+、右ラックに TUBE-TECH/HLT2Aが収められコンソールレスな環境となっている。 このスタジオではスタッフが持ち込みPCで収録することも想定されており、各種DAWに対応できるシステムが必要であった。シンプルかつシームレスにシステムを切り替えられ、コミュニケーションシステムとも両立させる必要がある。それをシステムの中核に Avid MTRXを据えることで柔軟な対応を実現している。また、「収録段階からの音作りがしっかりできるスタジオにしたい」というコンセプトもあり、アウトボード類の種類も豊富に導入された。コンプレッション、EQはデジタル領域よりもアナログ機材の方が音作りの幅が拡がるということだけではなく、その機材がそこにあるということ自体がスタッフのクリエイティビティを刺激する。スタッフが自宅で録るのではなく、「このスタジオで録りたい」という気持ちが起こるような環境を整えたかったそうだ。 そうして導入された機材のひとつが、PUEBLO AUDIO/JR2/2+。フォーリースタジオではごく小さな音を収録することが多く、ローノイズであることが求められる。過去の現場での実績からもこの機種が際立ってローノイズであることがわかっており、早々に導入が決まったようだ。また、ミキサーコンソールが無くアウトボードで補完する必要があったため、TUBE-TECH/HLT2AがEQとして据えられている。HLT2Aは繊細なEQというよりは極端なEQでサウンドを切り替えることもできるそうで、極端にローを上げて重たい表現ができないか、逆にローを切ってエッジの効いた表現はできないか、といった試行錯誤を可能にする。このほか、ヴィンテージ機材ならではのコンプレッション感が必要な場面も増えてきていることから、NEVE 33609Cも追加で導入されている。今後も機材ラインナップは充実されていくことだろう。 はじめからこういう音が録りたいというターゲットはあっても、正解を持たずに収録していくという工程がフォーリーの醍醐味だという。その中で誰でも使いやすい機材を選定するということを念頭に置き、スタッフからのリクエストも盛り込んでこれらの機材にたどり着いたそうだ。 スタジオは生き物、その成長を期待する 📷何よりもチームワークの良さが感じられた収録中の一コマと、気合いが込められた渾身の一撃も収録!! こうして完成をみたスタジオであるが、S/Nも良く満足した録音が行えているそうだ。また、5.1chリスニングが可能となっている点もポイント。開発中のタイトルにコンシューマー作品が多く、サラウンド環境が必要なことに加え、映画のようにセンターの重要度が高いことから、ファントムセンターではなくハードセンターで収録したいという要望に沿ったものだ。また、映像作品やゲーム資料を確認しながらすぐに収録することができるため、フォーリーアーティストに映像作品の音を聴かせてクリエイティブへのモチベーションをアップしてもらいながら制作を進める、という点も狙いの一つだ。もちろん、自社スタジオとなったことで時間を気にせずクオリティの向上を目指せることが大きく、求める方向性をより具体化させて収録できるメリットは計り知れない。 今後について伺うと、スタジオは生き物であり、収録できるサウンドの特徴も次第に変わっていくと考えているそうだ。導入する資材が増えればそれが吸音や反射になって音も変わる。ピットについても使用していく経年変化でサウンドにも違いが出てくる。高域が落ち着いたり、もう少し角が取れてきたりと、年月を積み重ねてどのように音が変わっていくのかがすごく楽しみだと語っていただいた。 📷今回お話を伺った、サウンド本部/マネージャーの丸山 雅之氏(左)、サウンド本部/サウンドデザインチーム 村上 健太氏(中央)、妹尾 拓磨氏(右)。 目の前の制約はアイデアでポジティブに変換する、考え抜かれたからこそ実現できたメリット。そして、それを活かしたフォーリー収録には正解を持たずにのぞむ。ここに共通するのは先入観を捨てるということではないだろうか。先入観を「無」にしたならば、そこにあるのは創るというシンプルかつ純粋な衝動のみである。クリエイティブの本質を言い得たような、まさにプロフェッショナルの思考には感銘を受ける。今後もこのスタジオが重ねた年月は成長となって作品に反映されていくのだろう、フォーリー収録された素材がゲームというフィールドで表現されエンターテインメントを高めていくに違いない。   *ProceedMagazine2023-2024号より転載

Media

maruni studio様 / studio m-one 9.2.6chイマーシブ構築、マルニビル改装工事の舞台裏

取材協力:株式会社エム・ティー・アール ライブの映像コンテンツやMVをはじめ、CM、企業VP(=Video Package)など、音楽系を中心に幅広いポストプロダクション業務を手がけるマルニスタジオ。長年に渡りレコーディングスタジオとポスプロの両方を運営していた関係で、音楽系の映像コンテンツが全体の6割程度を占めるという。今年3月にリニューアルオープンされた同社所有のマルニビルは、その目玉として地下一階にDolby Atmos対応のサウンドスタジオ「studio m-one」を構えた。Musikelectronic Geithainの同軸スピーカーで統一された9.2.6ch構成のイマーシブサラウンド環境は見た目としても圧巻だが、商用スタジオとしても利用する多くの方にとって快適な環境となるよう、様々な工夫が取り入れられているという。 スケルトンから行ったリニューアル 目黒区青葉台、目黒川に程近い住宅街の一角に佇む自社所有のマルニビルは、およそ30年に渡りこの地でレコーディングスタジオとして運営されてきた。また、青葉台には当初からポスプロ業務をメインとしているもう一つの拠点が今も存在している。そして2020年3月、突然訪れたコロナ禍が世の中の動きを止めてしまったのと同様に、コンテンツ制作もしばらくの間停滞期を迎えることになる。そこで持ち上がったのが、両拠点をポストプロダクション業務に統一するというプロジェクトだ。その後社内協議を経て、自社ビルであることのメリットを活かし、全フロアを一度スケルトンにして再構築する改装工事実施を決断。2022年6月より工事がスタートし、数々の難局を乗り越えながら今年3月リニューアルオープンの運びとなった。 今回の改装工事の舞台裏はどのようなものだったのだろうか。スタジオマネージャー兼MAミキサーの横田智昭氏、MAミキサーの沖圭太氏にお話を伺ったところ、これからイマーシブ対応のスタジオを作りたいと考えている方にとって参考になるであろう、理想的なスタジオ構築へのヒントが見えてきた。 株式会社丸二商会 MARUNI STUDIO Studio Manager Chief Sound Engineer 横田智昭 氏 株式会社 丸二商会 MARUNI STUDIO Sound Engineer 沖 圭太 氏 ROCK ON PRO(以下R):今回のスタジオリニューアルの最初のきっかけは何だったのでしょう。 横田: 率直な話、コロナ禍に突入してレコーディングの業務、スタジオで音を録るという仕事は停滞していた一方で、そういった中でもポスプロ業務の方は順調に稼働していました。そこで、このタイミングでポスプロ業務と拠点を統一しリニューアルしようという提案が社内から挙がったんです。 R:その後、具体的な計画や機材選定が始まったのではないかと思いますが、どのように進めていったのでしょう。 横田: このビルは自社ビルで、さらに吹き抜けがあり広く空間がとれる利点があったのですが、スケルトンまでできるという予算を確保できたのが一番大きかったですね。それが実現したからこそ、スタッフ全員で自由に考えられました。タスクの洗い出しというよりは、「自由にできるからこそ、どうレイアウトしていくのか?」というのを決めていくのが大変でした。あれこれ詰め込みすぎると予算が追いつかなくなったりして。 沖:この段階から冨岡さん(株式会社エム・ティー・アール 冨岡 成一郎氏)に相談でしたね。私はマルニと冨岡さんをつなぐ連絡担当だったのですが、無茶を言ってもレスポンスよく対応してくださいました。あと、実はスケルトンの話が出てくる前に、地下一階ではなく二階でやろうという話もありました。しかし検討していくと天井高も取れないし…ど〜にもならん!と(笑)。商業的に成り立たない、というのが分かったからこそ、思い切って「スケルトンからやろう!」という方向をみんなで向くことができたのは大きかったです。 R:では、リニューアル時にDolby Atmos対応というのは当初からお考えだったということですね。 横田: それは最初から考えていました。ポスプロのスタジオに転向するならAtmos対応にしたいと。 リニューアルが解決したポイント 📷著名な建築家によってデザインされたというこのマルニビルは、コンクリート打ちっぱなしの内壁のクールさと、階段などに見られるアール(曲面)の造形が生み出す人間的な温かみの対比がなんとも美しく印象的だ。 R:この新たなスタジオで解決された、以前からの課題はありましたか? 横田: MA室の場合、クライアントの方が大勢いらっしゃることがあります。中には、当然別の仕事も対応しながら立ち会われるということもありますが、コントロールルームの中ではそれを遠慮がちにされているのもこちらとしては心苦しかったんです。そこで、隣の前室にテレビとソファを用意して、そちらでもコントロールルームと同じ環境の音と画を流すことができるようにしました。クライアントの皆さんが別件対応を前室でしていても、コントロールルームの中で制作がどう進行をしているのかをすぐに確認できるという環境にしています。 また、コントロールルーム内とは別の場所で冷静に画音をチェックできるスペースができたというのは、従来の雑多になりがちな作業環境からすると改善されたポイントです。これは、他のMA室にもなかなか無い部分ではないかと思っています。あとは、極力スタジオ内のモノを減らす、ということですね。見ていただいて分かる通りかなり少ないと思います。音響面も含めてダイレクトな音を重視したいというのはずっと思っていて、卓上のものもなるべく小さくしました。 R:そうですよね、シンプルで洗練された印象を受けました。 📷前室にはDolby Atmos対応のサウンドバーSonos Beamを配置し、テレビのeARC出力からオーディオチャンネルを受けることでシンプルな配線を実現している。 📷優先的に導入したというTorinnov Audio D-MON、そしてDolby Atmos対応AVアンプDENON AVC-X6700Hなどが配置されたラック。 沖:機材的な話で言うと、最初の段階から決まっていたものとしてTorinnov Audio D-MON の導入がありました。これまでのMA室は15年くらい使っているのですが、経年変化もあり音を調整したいタイミングも出てきました。その調整幅が少ないというのはスタジオを長く使っていく上で、言わば足かせになってしまう、というのをすごく感じていたので、スタジオを作って今後も長く使っていけるようにしたかったんです。もちろんアコースティックな部分での調整を追い込むのも大事ですが、プラスして電気的に調整できる「伸びしろみたいなものを取っておきたい!」ということもあって、コストは高くついても「そこだけは譲らない!」というのはありまして、何も考えずに最初に予算に組み込みました(笑)。 R:もちろん出音の改善の意味もあるかと思うのですが、長く使っていく上でメンテナンス性をもたせる意味で導入されたのですね。 沖:当初はそうでしたが、結果的にAtmosの調整にもすごく良い効果が出ていますよ。 17本のMusikが表現する9.2.6ch R:最初の段階から導入を決めていたものは他にもあるのでしょうか。 横田: 見ての通り、ムジークですね。この901のフロントのLCRは元々レコーディングで使っていたものなんです。これが、レコーディング用途であったとはいえ、私たちも当然よく聴き込んでいて素直にいいなと思わせるサウンドでした。そこで「せっかくあるこの901を活かして全てを組めないか?しかも9.2.6chという形で…」と冨岡さんにも相談させていただいて。そこもこだわりと言えばこだわりです。 R:では、慣れ親しんでいたスピーカーでイマーシブの作業も違和感も無く進められたと。 横田: そうですね。ただ、17本もあると…スゴいんだな、と(笑)。なかなか暴れん坊の子達なんですが、Torinnovが上手くまとめてくれています。 R:今回、9.2.6ch構成にされたのはどういった理由でしょう。 横田: それは僕がここを作る以前に、外部のスタジオで取り組んでいた作品が影響していて、そこでは9.2.4chで作業を行なっていました。その時にワイドスピーカーの利点について使用前と使用後を比較した時に、新しいスタジオを作るのであれば、トップを4chとするか6chとするかはさておき、平面9chはマストだな、と。中間定位が作業上すごく判断しやすい。そこを7.1.4chと比較するとやはり定位がボケる部分が出てくるんですね。結果的に7.1.4chで聴かれている環境があったとしても、制作環境としてはこの部分が物理的に分かると作業がスムーズになってくるというのがありました。 📷Topの6chにはmusikelectronic geithain RL906を採用。スケルトンからの改装により3.1mという余裕ある天井高が確保された。 R:トップスピーカーはどのように活用されていますか? 横田: トップ6chに関しては、トップの真ん中にスピーカーを置くというのは、正直最初は「要るのかな?」とも思っていたんですが、ついこの間、その効果を実感できる機会がありました。Atmosの作業を行なっていた時に雷を落とすシーンがあったんです。部屋の中でのプロジェクションマッピングになっていて、長方形の箱の中でどこからともなくワーッと雷が落ちるシーン。それを音楽の曲中の間奏に入れたかったんです。上方向の定位は分かりづらいものですが、その時の雷の音の定位が非常に分かりやすかったんです、トップの真ん中があることによってすごくやりやすさを感じました。そうしたものを作る上で定位をきちんと確認できるっていうのは良かったなと最近になって実感しています。 R:今回AVID S1を選択されたのはどのような理由からでしょう。 沖:MAという作業柄、フェーダーを頻繁に使う訳ではないので、8chもあれば十分なんです。あとは、卓ごと動かせるようにしたかったというのと、反射音の影響を極力減らすため、スタジオ内のあらゆるものをできるだけコンパクトにしました。S3じゃなくS1というのもそこからです。 横田: やはり、スイートスポットで聴かなければ分からないじゃないですか。中には卓前に座ることに抵抗があるというクライアントの方も意外と多くいらっしゃいます。だったら卓側を動かしてしまって、そこにソファや小さなテーブル、飲み物などを置いて落ち着ける環境にしてしまえば、ど真ん中で聴いていただけるかなと思いました。 📷マシンルームからのケーブルを減らすため、必要最低限かつコンパクトな機器類で構成された特注のデスク。中央にはAVID S1が埋め込まれている。 R:フロアプランに関して、他にも案はありましたか? 横田: リアやサイドのスピーカーをどのように配置できるかというところをしっかり検討して、これはすごく上手くいったと思います。サラウンドサークルのことだけを考えるとクライアントの邪魔になってしまうことがありがちです。それを、しっかりイマーシブ環境にとっての正確な配置を考えつつ、クライアントも快適に過ごせるということを、僕らの意見だけではなく営業サイドの意見も豊富に取り入れてこだわって考えました。 沖:この部屋はあえてMA室とは呼んでいません。コンセプト段階で「MA室を作るのか?」それとも「レコーディングの人もMAの人も使える部屋を作るのか?」という議論がありました。前室のスペースもいっぱいまで使って、3列ディフューズのいわゆるMA室的な部屋を作ろう、というアイデアと、ITU-Rのサラウンドサークルにできるだけ準拠した完璧な真円状に配置しようというアイデアがありまして、そこで色々話し合って揉んでいく中で今の形に落ち着きました。レコーディングの方もMAの方も皆が使える部屋となったので、より広い用途に対応できるという意味合いでもあえてMA室とはせず「studio m-one」としています。 📷将来的なシステム拡張にも柔軟に対応できるAVID MTRX。B-Chainの信号はモニターコントローラーのGrace Design m908を経由し、Torinnov Audio D-MONへと接続されている。 レコーディングとMAを融和するイマーシブ R:現場の方々から見てDolby Atmos以外の規格も含めてイマーシブ需要の高まりというのは感じますか? 横田: 確かにエンドユーザー的には広がってきているかな、という感覚はあります。そこから「スタジオを使ってもらうようにするにはどうするか?」っていうのがもう一つのテーマであったりもするので、私たちがどうやって携わっていくかというのは毎日考えていることではあります。音楽作品については、いくつかのアーティストがだんだん作り始めているような状況なんですが、これもやってみて思うのは、ノウハウがものすごく大事な部分でもあるし、発注する側からしてもある意味「未知」ではある状態です。「面白そうだけど、どういうふうにすればいいの?」とか、「どういう風にやるの?」とか、「時間はどれだけかかるの?」といった部分がまだまだ分かりづらい状況だと思います。 R:手探りなところは聴き手もそうですよね。 横田: だからこそ、私たちはいいスタジオを作らせてもらったので、これをどう活用していくか、イマーシブのニーズにどう参入していけばいいのかというのは常日頃から営業陣とも話し合っています。そこで、先日取り組んでみたのが企業系のVPコンテンツで、このstudio m-oneでAtmosを体験していただいたのをきっかけにお声がけをいただいて、VPをAtmos化するということを実験的にやらせていただきました。 他にも企画段階から携わって、「カメラアングルこういうのはどうですか?」とか「背景にこれがあるとこういう音が足せるので、こんな空間ができますよ」とか、「こういう動きで…」「俯瞰から撮ると…」とかカメラマンさんとも打ち合わせをさせていただいて、それに対して僕らが効果音をつけて制作してみたというケースもあります。クライアントは、さまざまな企業のコンテンツを受注する制作会社なのですが「どういう風に世に出していいかっていうのはちょっとまだ悩むけれども、できたコンテンツとしてはすごく面白い」という評価で、受注の段階でAtmosの表現もできると提案してみようかという流れも生まれてきているようです。そうなると、これまでAtmosとは無縁と思われた企業の方にも、商品だったり、システムだったり、それが例えば「空間」を表現することでその価値観が高まりそうな商品にはAtmosのような規格がとても効果的だ、と知っていただける機会も増えてきそうです。 R:制作はもちろん、営業面でも広がりを見せそうですよね。 横田: 先ほどの話もありましたが、あえてMA室とは呼んでいません。これまで、サラウンド制作はどちらかというとMAやダビングの世界の話で、言ったら我々には親しみがある分野でした。そこに空間オーディオが出てきてレコーディングの方が一気にAtmosへ取り組む機運が高まると、レコーディングの人たちとMA的なやり方を話すようになってきたんです。そういう時に、我々が今までやってきたサラウンドの話が活きてくる。これまではレコーディングとMAの間に垣根のようなものが感じられていたんですが、空間オーディオのスタートによってその境目が混ざってきた感覚です、これからもっとそうなっていくと思います。studio m-oneもせっかく作るなら、そのどちらにとっても垣根がないスタジオにしたかったというのが最初の展望です。Atmosへの関心にかかわらず、どのような方にでも使ってもらえるような部屋にしたいですね。 📷中央のデスクを移動させ、椅子とサイドテーブルを置くと極上のイマーシブ試聴環境へと早変わりする。この工夫により、クライアントがスタジオ中央のスイートスポットでリラックスして試聴してもらえるようになったという。「卓前で聴いてもらうのが難しいのであれば、卓ごと動かせばいい」、そうした逆転の発想から生まれたまさにクライアントファーストな配慮である。実際にこの場でライブの音源を試聴させていただいたが、非常に解像度の高いMusikサウンド、そしてTorinnov Audio D-MONによる調整の効果も相まって、良い意味でスピーカーの存在が消え、壁の向こう側に広大な空間が広がっているかのように感じられた。 ●Speaker System Dolby Atmos Home 9.2.6ch L/C/R:musikelectronic geithain | RL901K Wide/Side/Rear:musikelectronic geithain | RL940 Top:musikelectronic geithain | RL906 Sub:musikelectronic geithain | BASIS 14K×2 スタジオ設立30周年を迎える節目に、ポスプロ業務への一本化という新たな変革へと踏み出したマルニスタジオ。スケルトンからの改装は自由度が高い反面、決めるべきことも増えるため数々の議論が行われてきた。その際に、技術スタッフの意見はもちろん、営業陣の意見にもしっかりと耳を傾けることで、クオリティの高い制作環境を担保しつつ、クライアントを含めた利用する全ての人にとって居心地の良い空間デザインが実現された。あえてMA室と呼んでいないことからも伝わってくる、制作現場における様々な垣根を取り払い、人との対話を重視しながらより良い作品を作っていこうという姿勢には個人的に深い感銘を受けた。このstudio m-oneから、また一つ新たなムーブメントが拡がっていくのではないかという確かな予感を抱かずにはいられなかった。   *ProceedMagazine2023-2024号より転載

Post

株式会社三和映材社 様 / MAルーム『A2』〜大阪の老舗ポスプロが、これからの10年を見据えてMAルームをリニューアル〜

Text by Mixer CMや企業VPといった広告案件を数多く手がける大阪の老舗ポスト・プロダクション、株式会社三和映材社が本社ビル内にあるMAルーム『A2』をリニューアルした。長らく使用されてきたヤマハ DM2000はAvid S4に入れ替えられ、モニター・スピーカーはGenelec The Ones 8331Aに更新。システム的にはシンプルながら、8331AとPro Tools | MTRXはAESで接続されるなど、音質 / 使い勝手の両面で妥協のないMAルームに仕上げられている。今回のリニューアルのコンセプトと新機材の選定ポイントについて、株式会社三和映材社 ポストプロダクション部所属のサウンド・エンジニア、筒井靖氏に話を訊いた。 大阪の老舗ポスプロ:三和映材社 大阪・梅田から徒歩圏内、新御堂筋沿いにスタジオを構える三和映材社は、1971年(昭和46年)に設立された老舗のポストプロダクションだ。映画の街:京都で、撮影機材のレンタル会社として創業した同社は、間もなくビデオ機材や照明機器のレンタル業務も手がけるようになり、1980年代にはポストプロダクション事業もスタート。同社ポストプロダクション部所属の筒井靖氏によれば、1985年の本社ビル新設を機に、ポストプロダクション事業を本格化させるようになったという。 「本社ビルは、1階が機材レンタル、3階が撮影スタジオ、5階が映像編集室、6 階が映像編集室とMA ルーム、7階がレコーディング・スタジオという構成になっていて、撮影から映像編集、MA、さらには音楽制作に至るまで、映像コンテンツの制作がワン・ストップで完遂できてしまうのが大きな特色となっています。手がけている仕事は、CMや企業さんのPRが8〜9割を占めています。製品紹介や会社紹介のビデオですね。CMと言っても、昔はテレビがほとんどだったのですが、最近はWebが多くなっています。最近は自分たちで映像編集されるお客様も増えてきたので、MA やカラコレ、合成、フィニッシングだけを弊社に依頼されるパターンも増えていますね」 📷株式会社三和映材社 ポストプロダクション部 サウンド・エンジニア 筒井 靖 氏 本社ビル内の施設は、映像編集室が3部屋(Autodesk Flame ×2、Adobe Premiere Pro ×1)、MAルームが2部屋、レコーディング・スタジオが1部屋という構成で、その他に別館にもボーカル・ダビングなどに使用できるコンパクトなスタジオが用意されているとのこと。2部屋あるMAルームは、フラッグシップの『A1』が5.1chサラウンドに対応、今回リニューアルが実施された『A2』はステレオの部屋で、どちらも1985年、ビルが竣工したときに開設されたという。 「音響設計は、日東紡さん、現在の日本音響エンジニアリングさんにお願いしました。ルーム・アコースティックは基本開設時のままで、その後は痛んだファブリックを張り替えたくらいですね。機材に関しては、『A1』はAMEK AngelaとStuderの24トラック・マルチの組み合わせでスタートし、1993年に卓を7階のレコーディング・スタジオで使用していたSSL 4000Eに入れ替えました。現在の卓は2006年に導入したSSL C300で、かなり年季が入っていますが、今年に入ってからフル・メンテナンスしたので今のところ快調に動いています。 一方の『A2』は、当初は選曲効果の仕込みで使うような部屋だったので、最初はシグマのコンパクト・ミキサーが入っていたくらいでした。その後、『A1』に4000Eを入れたタイミングで、現在のDAWの先駆け的なシステムであるSSL Scenariaを導入し、本格的なMAルームとして運用し始めたんです。Scenariaは、関西一号機のような感じでしたが、映像もノンリニアで再生できる革新的なシステムでしたね。Avid Pro Toolsを導入したのは2006年のことで、『A1』と『A2』に同時に導入しました。『A2』のメイン・コンソールは引き続きScenariaで、Pro Toolsはエディターとして使うという感じでした。映像は、ソニーのDSR-DR1000というディスク・レコーダーを9pinでロックして再生するようになったのですが、あれはワーク上げしながら再生できる画期的なマシンでした。その後、いい加減Scenariaも限界がきたので、2010年にヤマハ DM2000に更新した経緯です。」 S4は使い慣れたARGOSY製デスクに収納 📷もともとはDM2000用として設置されていたARGOSY製のスタジオ・デスクをサイド・パネルを取り外すことで使用。今回導入したAvid S4がきれいに収められた。 そして今年5月、三和映材社はMAルーム『A2』のリニューアルを実施。Pro Tools周りを刷新し、オーディオ・インターフェースとしてAvid Pro Tools | MTRXを新たに導入、長らく使われてきたDM2000はAvid S4に更新された。筒井氏によれば、約2年ほど前にリニューアルの計画が持ち上がったという。 「一番のきっかけは、Pro Tools周りとDM2000の老朽化ですね。弊社の仕事は修正 / 改訂が多いので、どちらの部屋でも作業ができるように、Pro ToolsやOSのバージョンをある程度揃えるようにしているんです。しかし以前『A2』に入っていたMac Proがかなり古く、それが足枷になってPro Toolsをバージョン・アップできないという状態になっていたんですよ。せっかくPro Toolsは進化しているのに、互換性を考慮してバージョン・アップせず、その恩恵を享受しないというのはどうなんだろうと。それでDM2000もところどころ不具合が出ていたこともあり、約2年前からリニューアルを検討し始めました」 DM2000に替わる『A2』の新しいコントロール・センターとして選定されたのが、16フェーダーのS4だ。S4は、CSM×2、MTM×1、MAM×1というコンフィギュレーションとなっている。 「作業の中心となるPro Toolsが最も快適に使えるコンソールということを考え、最終的にS4を選定しました。DM2000やC300のようなスタンドアローン・コンソールには、何か“担保されている安心感”があって良いのですが(笑)、最近はPro Toolsがメインになっていましたので、もはやコンソールにこだわることもないのかなと。一時期はコンソールをミックス・バッファー的に使っていたこともあるのですが、次第にアウトボードすら使わなくなり、完全にPro Toolsミックスになっていましたからね。 ただ、唯一心配だったのがコミュニケーション機能とモニター・セクションだったんです。以前、ICON D-Controlシステムで作られたセッションを貰ったときに、モニターを作るためのバスがずらっと並んでいたことがあって、そういった部分までPro Toolsで作らなければならないのはややこしいなと(笑)。しかしPro Tools | MTRXの登場によって、コミュニケーションとモニター・コントロールというコンソールの重要な機能をPro Toolsとは切り離して実現できるようになり、これだったらコントロール・サーフェスでもいいかなと思ったんです。Pro Toolsで行うのは純粋な音づくりだけで、環境づくりはPro Tools | MTRXがやってくれる。今回のシステムを構築する上では、Pro Tools | MTRXの存在が大きかったですね。 コントロール・サーフェスを導入するにあたり、S6やS1という選択肢もあったのですが、最終的にS4を導入することにしました。Dolby AtmosスタジオであればS6がマストだと思うのですが、ここはステレオの部屋ですし、機能的にそこまでは必要ありません。ただ、この部屋にはクライアントさんもいらっしゃるので、ホーム・スタジオのような見栄えはどうだろうと思い(笑)、S1ではなくS4を選定しました」 📷長らく使われてきたDM2000はAvid S4に更新 S4は、ARGOSY製のスタジオ・デスクに上手く収められている。このデスクは以前、DM2000用を収納して使用していたものとのことで、サイド・パネルを取り外すことで、きれいにS4が収まったという。 「予算の問題もありましたし、S4を設置するデスクをどうするか、ずっと悩んでいたんです。しかしあるときふと、DM2000のデスクにS4が収まるかもしれないと思って。実際、板を1枚抜いて、少しズラすだけできれいに収まりました。奥行きや高さは微妙に合わなかったのですが、そういった問題はコーナンで買ってきた板を敷き詰めることでクリアして(笑)。このARGOSYのデスクは、手前のパーム・レストが大きくて作業がしやすく、とても気に入っています。Macのキーボードも余裕を持って置くことができますしね。 S4の構成に関しては、8フェーダーだと頻繁に切り替えなければならないので、最低16フェーダーというのは最初から考えていたことです。ディスプレイ・モジュールは付けようか悩んだのですが、あれを入れるとPro Toolsのディスプレイを傍に置かなければなりませんし、最終的には無しとしました。各モジュールの配置は、16本のフェーダーに関しては分散させずに集約し、右側がトランスポート・コントロール、左側がフェーダーという隣の部屋のC300のレイアウトを踏襲しています」 📷システムの環境構築に大きく貢献したというAvid Pro Tools | MTRX。 『A2』のPro Toolsは1台で、Intel Xeonを積んだMac ProにHDXカードを1枚装着したシステム。オーディオ・インターフェースとなるPro Tools | MTRXも、ADカードとDAカードが1枚ずつのミニマムな構成で、MADIカードやSPQカードなどは装着していないという。 「音響補正はGenelecの『GLM』でやっているので、SPQカードが入っていない初代のPro Tools | MTRXがちょうど良いスペックでした。VMC-102のようなモニター・コントローラーを導入しなかったのは、ここはステレオのスタジオなので、複雑なモニター・マトリクスが必要ないからです。その代わり今回、カフをスタジオイクイプメント製の新しいものに入れ替えました。映像はPro Toolsのビデオ・トラックで再生し、Blackmagic Design DeckLink 4K Extremeで出力しています。Pro Toolsの現行バージョンは、いろいろなビデオ・フォーマットを再生できるので、ビデオ・トラックでもまったく不自由はありません。2面あるディスプレイは、単にミラーリングしているだけで、右側でアシスタントが編集したものを、左側のぼくがバランスを取るという役割分担になっています。それと今回、ROCK ON PROさんからのご提案でUmbrella CompanyのThe Fader Controlを導入したのですが、これが入力段にあるだけでコンソールのように録音できるので助かっています。録りのレベルも柔軟に調整することができますし、とても気に入っている機材です」 📷S4の脇に備えられたのはUmbrella Company / The Fader Controlだ。 8331AとPro Tools | MTRXをデジタルで接続 今回のリニューアルでは、ニア・フィールド・スピーカーも更新。長らく使用されてきたGenelec 8030AがThe Ones 8331Aにリプレースされた。筒井氏によれば、8331AとPro Tools | MTRXは、AESでデジタル接続されているという。 「ニア・フィールド・スピーカーは、以前はヤマハ NS-10Mを使用していたのですが、2006年にScenariaを使うのを止めたタイミングでGenelecに入れ替えました。Genelecのスピーカーは、聴き心地の良さと、スタジオ・モニターとしての分かりやすさの両方を兼ね備えているところが気に入っています。 今回、The Onesシリーズを導入したのは、別館のレコーディング・スタジオで8331A を使用していて、何度かこの部屋で試聴してみたところ、もの凄く良かったからです。なのでスピーカーに関しては、スタジオのリニューアルを検討し始めたときから、絶対に8331Aにしようと考えていました。8331Aは、8030Aよりも定位がさらにしっかりして、音の粒立ちが良くなったような気がしますね。それと同軸設計のスピーカーではあるのですが、サービス・エリアの狭さを感じないところも良いなと思っています。同軸スピーカー特有の、サービス・エリアを外れた途端に音がもやっとしてしまう感じがないというか。もちろん『GLM』も使用していて、あの機能を使うと“しっかり調整されている”という安心感がありますね(笑)。『GLM』は、左右同一のEQか個別のEQが選べますが、両方試してみたんですけど、今は左右同一のEQで使っています。 今回、8331AとPro Tools | MTRXをデジタルで接続したのは、余計なものを挟まずにピュアな音にこだわりたかったからです。隣の部屋も、C300からヤマハ DME24Nを経由して、Genelecにデジタルで接続しているのですが、その方が安定している印象があります」 今年5月にリニューアル工事が完了したという新生『A2』。完成翌日からフル稼働しているとのことで、その仕上がりにはとても満足しているという。 「皆さんのおかげで、イメージどおりのスタジオが実現できたと大変満足しています。でも、まだ改善の余地が残っていると思うので、さらに使いやすいスタジオになるように、細かい部分を追い込んでいきたいですね。新しいS4に関しては、HUIモードのDM2000とは違ってPro Toolsに直接触れているような感触があります。画面上のフェーダーがそのまま物理フェーダーになったような感覚というか。それとアシスタントがナレーションのノイズを切りながら、こちらではEQを触ったり、2マンでのパラレル作業がとてもやりやすくなりました。今回は思い切ることができませんでしたが、イマーシブ・オーディオにも興味があるので、今後チャンスがあれば挑戦してみたいと思っています。」   *ProceedMagazine2023-2024号より転載

Post

株式会社コジマプロダクション様 / 新たな世界を創り出す、遥かなる航海のためのSpaceship

日本を代表するゲームクリエイター・小島 秀夫氏が2015年に立ち上げた株式会社コジマプロダクション。2016年には第1作目となるタイトル「DEATH STRANDING」を発表し、2019年に待望のPS4Ⓡ版が発売されるやいなや、日本をはじめ世界各地から称賛の声があがり、米国LAで行われたThe Game Awards 2019では8部門にノミネートされ、クリフ役を演じたマッツ・ミケルセンのベスト・パフォーマンス賞を含めると3部門で賞を獲得、世界的なビッグタイトルとしてのポジションを確立した。その後も数々の受賞歴や昨年末の「DEATH STRANDING 2(Working Title)」発表など、ここ最近も話題が絶えないが、実はその裏でオフィスフロアの移転が実施されていたという。フロア移転のプロジェクトがスタートしたのは2020年の1月ごろ、昨年12月に新フロアでの稼働が開始され、サウンド制作についての設備も一新された。今回はTechnical Sound Designerの中山 啓之氏、Recording Engineer永井 将矢氏に、移転計画の舞台裏や新スタジオのシステムについて詳細にお話を伺うことができたのでご紹介していこう。 📷エントランスゲートを通った先に待ち受けている真っ暗な部屋。足元に伸びる一筋の光に導かれるまま進んだ先には、無限に続く白の空間。中央にはコジマプロダクションのシンボルキャラクター「ルーデンス」が力強く佇んでいる。ちなみにこの名前は、オランダの歴史学者ホイジンガが提唱した「ホモ・ルーデンス」(遊ぶ人)に由来しているそうだ。こうした人間の遊び心を刺激するような演出がオフィス内随所に施されていた。 Spaceship Transformation 今回のスタジオ設計のプランニング開始は2021年3月ごろと2年ほど遡る。"Spaceship Transformation"という壮大なコンセプトとともに、事業規模の拡大に伴うフロア移転が社内で伝えられ「それに見合ったスタジオを作れないか?」と、社内で協議するところからスタートしたそうだ。ゲーム制作の「何百人ものスタッフが膨大な創造と作業と時間をかけながら、ひとつのゲーム作品を作り上げていく過程」を「広大な空間を進んでいく宇宙船の航行」として置き換えてみると、制作を行うオフィスフロアはまさに宇宙船の船内やコックピットであり、そこは先進的な技術やデザインで満たされた空間であるべきだろう。勝手ながらな推察ではあるが、こう捉えると"Spaceship Transformation"が意図するところも伝わってくるのではないだろうか。 こうしたコンセプトを念頭に置きながらも、現場スタッフの頭の中には、具体的な業務への思慮が常にある。予算や法律上の問題をはじめ、各所で定められたルールなどの制約がある中で、想定される業務をしっかりとこなせるスタジオを作るというのは、やはり一筋縄ではいかなかったそうだが、しっかりと万が一に備えた冗長性や、将来に向けた拡張性を持たせるような工夫がなされたそうだ。 Rock oN (以下、RoC):本日は宜しくお願いします。まず、お二人の普段の業務内容を伺えますでしょうか。 中山 啓之 氏 (以下、中山):音の制作(サウンドデザイン)を中心にやりつつ、チームのマネジメント業務も行なっています。私は設立後半年経った頃に入社したのですが、その頃からメディア・インテグレーションにはお世話になっています。 RoC:ありがとうございます!個性的なスタッフばかりですみません…(汗)。 永井 将矢 氏 (以下、永井):私はレコーディングエンジニアとして入社したのですが、ちょうど移転の話が始まったタイミングだったため、入社から最近にかけてはスタジオの運営、管理業務を行っています。今後は音声収録の作業がメインになっていく予定です。 RoC:お二人は元々どのようなきっかけでゲームという分野のサウンド制作に携わるようになったのでしょう。 中山:子供の頃からゲームに興味を持っていたのですが、パソコンやFM音源が出始めたころにいわゆる"チップチューン"にどっぷりハマりまして(笑)。そこから趣味がどんどん広がっていく中でゲームサウンドの世界に行き着きました。当時、PC88というパソコンにYM2203というFM音源チップが載っていて、それを使ってパソコンから音を出すところから始まり、音楽を作ったり、効果音を作ったりということを色々やっていました。 RoC:チップチューンというと、やはり同時発音数の制限などもあったり? 中山:FM音源が3つとSSG(矩形波)が3つくらいだったんですけど、そこからPCが進化していって鳴らせる音も増えていって。その後、MIDIが出てきたのでシーケンサを買って、シンセサイザーを買って、というコンピュータミュージックの王道を進んできたという感じです。 永井:私は、新卒時にゲーム業界も興味はあったんですが、映画好きだったこともあってポスプロの道へ進むことにしました。最初はいつまで続けられるか不安だったのですが、収録やミックスをやっているうちにその楽しさに気づき、結果的に7年半ほどやっていました。当時はほとんど吹き替えの仕事が中心だったのですが、仕事の幅を拡げたいなと考えていたところにちょうどいいタイミングでコジマプロダクションでのレコーディングエンジニアの募集があったんです。自分が好きなゲームを制作している会社ということもあって「これはぜひやりたい!」ということで応募しました。 RoC:"Spaceship Transformation"が今回のフロア移転全体のコンセプトとのことですが、そうした大きなテーマの下で、現場レベルでのこだわりやテーマは何だったのでしょうか? 中山:音声収録やMAといった様々な業務が想定される中で、例えば内装デザインなどがそうですが、「会社としての方向性に合わせつつも必要な業務に対応したスタジオを作りたい」というのがありました。とは言え、無尽蔵に場所があるわけでもないですし、予算との兼ね合いもあるので、その中でベストを尽くせるように、まずは必要な部屋数や規模の検討、「こういうことをやりたい」という提示からスタートしました。 RoC:最初の構想は、やはり業務内容などから逆算していって決められたのでしょうか? 中山:今回の場合ですとこのコントロールルームとそれに隣接したレコーディングブース、EDITブースいくつか…というプランから一番最初の「妄想」が始まりました(笑)。そのプランを本当に一枚のテキストページに落とし込んで、それから紆余曲折が始まった格好です。 永井:一応「妄想」通りにはできた感じです(笑)。 RoC:内装も全体的に統一感があり、かなりこだわられていますよね。 中山:基本コンセプトとして、弊社のコーポレートカラーである黒と白をベースにしたデザインを念頭に細部を決めていきました。我々はデザインについては素人ですが、いくらCG技術が発展したとしても、実際に目にするとイメージと異なる部分がどうしても出てくるとは思います。そうした部分は不安でもあり、ワクワクした部分でもありました。 📷カフェテリアの半分は近未来的なデザインのカウンター、もう半分はカフェのような落ち着いた雰囲気の空間演出となっている。サウンドセクションのロビーはソファとテーブルが融合し、照明と対になったデザインがなされている。ラウンジはまさに映画のワンシーンで使われていそうな意匠で、フロアの各所が一度目にしたら忘れられない印象的なデザインとなっていた。また、用途に応じて背景を黒・緑・青の3色に変更できるスタジオも用意されており、映像コンテンツの収録も行うことができる。 RoC:スタジオ稼働に至るまで山ほどタスクがあったかと思いますが、中でも苦労されたポイントはどこでしたか? 中山:共用のオフィスビルなので、当然全てを好き勝手にやるわけにはいかず、消防法やビル管理上のルール、配管や防音構造、荷重の制限など、これまで全く知識がなかったことについて考えながら進める必要があった点です。そうした部分は施工をご担当いただいたSONAさんやビルの管理会社さんなど、色々な方々から知見をいただいて、針の穴を通すような調整をやりつつ進めていきました。 永井:今回は建築上の都合でピットを掘ることができなかったので、施工会社の方々にとっては配管が一番頭を悩まされたのではないかと思います。 中山:やはりピットではないので一度配管を作ってしまうと、後から簡単に変更ができなくなってしまいます。そういうこともあり、配線計画はかなり綿密に行いました。予備の配線も何本か入れてもらっているので、今後の拡張性にも対応しています。それから、バックアップの面については力を入れています。収録中に万が一メインのMacがトラブルを起こしても、MTRX経由で常時接続されているサブ機にスイッチして継続できるように用意してありますし、さらにMTRXについても代わりのI/Oを用意してあるので、すぐに収録が再開できるようになっています。インハウスのスタジオですが、商用スタジオ並みのバックアップシステムを実現しています。 永井:商用スタジオだと複数部屋あったりするのでトラブルが発生したら別の部屋で対応をするということもできますが、そういった意味ではここは一部屋しかないので「何かあった時に絶対何とかしなきゃいけない!」となりますから、色々なシチュエーションを考えてすぐに対応できるようにしています。 理想的なスペースに組んだ7.1.4chのDolby Atmos 📷株式会社ソナのデザインによる音響に配慮された特徴的な柱がぐるりとコントロールルームを取り囲み、その中へ円周上にGenelec 8361Aが配置されている。スクリーンバックにはL,C,R(Genelec 8361A)とその間にサブウーファーGenelec 7370APを4台設置し音圧も十分に確保された。 RoC:機材選定はどのように進めていったのでしょうか? 中山:最初の計画を立てた時に、一番最初に挙げたのは「スクリーンを導入したい!」ということでした。弊社に来られる方は、海外からのお客様や映画関係の方など多種多様にいらっしゃいます。そうしたみなさまにご視聴いただくことを想定すると、小さな液晶画面だと制作の意図が伝わらなかったり、音響の良さを伝えるのが難しかったり、ということがこれまでの経験上ありましたので、スクリーンの設置はぜひとも実現したいポイントでした。併せて、今後主流になっていくであろう4K60pの投影と、それに応じたサウンド設備をということも外せないところでした。その規格に対応させるために、映像配線はSDI-12Gを通してあります。 RoC:今回、コントロールサーフェスにAVID S4を選ばれた理由は何だったのでしょう? 中山:MAの作業の直後に音声収録を行い、その後の来客時にティザーをご覧頂いて、という事も弊社では多くありますので、素早くセッティングを切り替えられるデジタル卓を候補としました。加えて、Pro Toolsのオペレーションが中心ということもあるので、Avid S6、S4か、もしくはYamaha のNuageかという選択肢だったのですが、サイズなども色々検討した結果でAvid S4になりました。S4でもS6と遜色ない機能がありますので。 RoC:特注のアナログフェーダーが組み込まれているのは、まさにこだわりポイントですね! 永井:S6もそうですが、S4はレイアウトを自由に変えられるのが利点ですね。 RoC:MTMとAutomationモジュールが左右に入っているパターンは他ではあまり見ない配置ですが、実際S4を導入して良かったと思うところはありますか? 永井:キーボードの操作も多いので、この配置にしていると手前のスペースを広く取れるのでいいですね。あとは、モニターコントロール周りです。前職でも触れたことはあったのですが、今思えばそこまで使いこなせてなかったなと。DADmanでのソースやアウトプットの切り替えは結構やりやすいなと改めて思いました。最初に操作方法を教わった後は、自分で好きなようにカスタマイズしています。「やりたい」と思ったことが意外とすぐにできるというのは好感触でした。 📷Avid S4のオートメーションモジュール手前には特注の4chアナログフェーダーが収められている。これはスタジオラックに収められたAMS Neve 1073 DPXとMTRXのアナログ入力との間にパッチ盤を介して接続されており、頻繁に触れるであろうボリュームコントロールを手元でスムーズに行えるようにした実用を考慮したカスタムだ。また、マシンルームにはシステムの中枢となるAvid MTRXが設置され、MacProの他にも同ラックにはMac Studioをスタンバイし冗長性を確保している。 RoC:特に、カスタマイズが好きな方にはハマりますよね!スピーカーはGenelecの同軸スピーカー8361A / 8351Bを中心に、4台の7370APを加えた合計15台で構成されています。なぜこの構成になったのでしょう? 中山:スピーカー選定の段階で「Dolby Atmosに対応させよう」というのはありました。かつ、スクリーンバックから鳴らせるということ、あとは部屋のサイズに対して十分な音圧を出せるか、というところがポイントでした。そういった部分から考えていくと自ずと選択肢は絞り込まれていきました。当初は同じGenelecのS360Aで検討していたのですが、角度を変えて上に置いたり横に置いたりすることを考えると、リスニングポジションの関係もあって、最終的に同軸スピーカーの方がいいのではないかという方向に落ち着きました。 📷トップのスピーカーはGenelec 8351Bを4台設置、半球の頂点にあたる部分など各所に配線があらかじめ敷設され、将来の増設も想定されている。 永井:音質面でもすごく素直な音で、クリアで分離がよく音色ひとつひとつが聴き取りやすく感じました。今回、SONAさんに音響調整をお願いしていて私も立ち会ったのですが、デスク前方のプロジェクターが格納されている部分が床からの反射を防ぐ構造になっており、その影響もあってか低域が溜まらずクリアに聴こえるようになっています。 📷デスク前方の傾斜部分の下には、4K60p対応の超短焦点プロジェクターが収められているのだが、こちらは床からの反射音を軽減させる音響調整パネルとしての役割も担っている。 中山:何となく、これも宇宙船のようなデザインに見えますよね。 RoC:確かに、スタートレック感がありますね! 中山:来社されたお客様にも、そのような感想を頂いた事がありました。雰囲気・デザイン的にもそういった要素を色々含めています。 RoC:ウーファーはスクリーンバックに4台となっていますね。 中山:はい、LCRスピーカーのLとC、RとCの間に上下に2台ずつGenelec 7370APが設置されています。最初は2台だけの想定だったのですが、調整していくうちに音圧が足りないかも、ということで、最終的に2台追加することになりました。リスニングポイントからスピーカーまでも3.6mほどあって、天井高も2.7mと高く取れています。サラウンドスピーカーの上下や天井中央にも後からスピーカーを追加できるようにしていて、これからの拡張性も確保しています。 RoC:サラウンドやイマーシブの制作において理想的な半球状の配置になっていますよね。実際にスタジオが稼働しはじめて、周囲からの反応はいかがでしたか? 中山:「すごい」と言ってもらえる機会が多くて嬉しいですね。エンジニアの方からは「音の立ち上がりが速い」という声もあり、好評な意見をいただけていて願ったり叶ったりです(笑)。「妄想」していたスタジオがきちんと実現できたかなという印象です。 永井:いい評判をいただけて本当によかったです。こちらからコンセプトを伝えてなくても「宇宙船みたい」と言ってくれる方もいてデザイン面でも良かったなと。加えて、制作だけではなくプレゼンや海外とのコミュニケーションにも対応できるようにしたので、他部署のスタッフからも「居心地良く仕事ができる」といった声がありました。 RoC:スタジオが取り合いになったりはしないですか? 中山:まだそこまではいってないですが、いずれそうなってくるかもしれませんね(笑)。 📷コントロールルームに隣接したレコーディングブースは、実面積よりも広々とした開放感を感じさせ長時間の使用にも耐えうる快適な空間となっている。また、フロアのカーペット裏には、コンクリートやレンガ、大理石など、材質の異なる床材が仕込まれておりフォーリー収録も行うことができる。 📷Sound Editing Room はA / Bの2部屋が用意されており、いずれもGenelec 8331A + 7360Aで構成された7.1chのモニター環境が構築されている。入出力にはFocusrite Red 8 Line、モニターコントローラーには同R1が用意されており、ここでも拡張性を確保しつつもコンパクトな機材選定がなされている。また、スピーカースタンドとデスクが一体化された設計により、機材の持ち込みなどシチュエーションに応じた活用がフレキシブルに行えるようになっていることもポイントだ。 聴く人の心を動かすようなサウンドを 現在、ゲーム制作においては、映画と同じくサラウンドでの制作が主流となっており、そこからダウンミックスでステレオが作られるとのこと。ゲーミングPCのスペックの向上やバーチャルサラウンド対応ヘッドホンのラインナップが拡充し、手頃な価格でそのサウンドを楽しめる環境が整ってきており、着実にその裾野は広がっているのではないかということだ。これはイマーシブサラウンドについても同様で、一番最初の計画ではイマーシブ対応については検討されていなかったが、天井高が十分取れることが分かった段階で、今後の需要増にも備えてDolby Atmosへの対応を決めたそうだ。 現在、ゲーム制作においては、映画と同じくサラウンドでの制作が主流となっており、そこからダウンミックスでステレオが作られるとのこと。ゲーミングPCのスペックの向上やバーチャルサラウンド対応ヘッドホンのラインナップが拡充し、手頃な価格でそのサウンドを楽しめる環境が整ってきており、着実にその裾野は広がっているのではないかということだ。これはイマーシブサラウンドについても同様で、一番最初の計画ではイマーシブ対応については検討されていなかったが、天井高が十分取れることが分かった段階で、今後の需要増にも備えてDolby Atmosへの対応を決めたそうだ。 RoC:Dolby Atmosのようなイマーシブ対応をすることで、ゲームサウンドの分野でも従来からの変化を感じましたか? 中山:一般のユーザーの方々へどこまでイマーシブ環境が拡がるかということもありますが、ゲームサウンドは3D座標で処理されているものが多いので、イマーシブと相性も良く、今後チャレンジしていきたいです。 永井:ポスプロ時代にもイマーシブについては興味を持っていましたが、やはりゲームは親和性が高いように思います。プレイをしている自分がその場にいるような演出も面白いと思いますし、今後突き詰めていくべきところだと思います。 RoC:それこそチップチューンの時代は、同時発音数など技術的な制約が大きい中での難しさがあったと思いますが、今後は逆に技術的にできることがどんどん増えていく中での難しさも出てくるのでしょうか? 中山:次々と登場する高度な技術のひとつひとつに追いついていくのはなかなか大変ですが、しっかりとその進化に対応して聴く人の心を動かすようなサウンドを作っていきたいですね。 世界的な半導体不足の影響や、高層オフィスビルならではのクリアすべき課題など、大小様々な制約があった中で、現場の要件をクリアしつつコジマプロダクションとしてのコンセプトを見事に反映し完成された今回のスタジオ。Dolby Atmos制作に対応済であることはもちろん、将来的にスピーカーを増やすことになってもすぐに対応できる拡張性や、インハウスのスタジオながら商用スタジオ並みのバックアップシステムも備えており、現時点だけではない制作の将来像も念頭に置いた綿密なシステムアップが行われた。ついに動き出したこの"Spaceship"がどのような新たなる世界へと導いてくれるのか、遥かなる航海がいよいよ始まった。   *ProceedMagazine2023号より転載

Media

株式会社カプコン bitMASTERstudio 様 / 圧倒的なパフォーマンスと理想的なアコースティック

バイオハザード、モンスターハンター、ロックマン、ストリートファイター、魔界村など数多くの世界的ヒットタイトルを持つ世界を代表するゲームメーカーである株式会社カプコン。そのゲーム開発の拠点である大阪の研究開発ビル。ここにゲームのオーディオを制作するためのミキシングルームがある。効果音、BGMなどを制作するクリエイター、海外で収録されたダイアログや楽曲、それぞれに仕上がってきたサウンドのミックスやマスタリングを行うためのスペースとなるが、そのミキシングルームが内装からの大改修により新しく生まれ変わった。 度重ねた更新と進化、理想のアコースティック カプコンのbitMASTERstudio が設けられたのは2006 年のこと。ゲームではカットシーンと呼ばれるムービーを使った演出ができるようになるなど、コンソールの進化や技術の進化により放送・映画と遜色たがわないレベルの音声制作環境が求められてきていた時期である。そして、ステレオからサラウンド、さらにはイマーシブへと技術の進歩によりリファレンスとしての視聴環境への要求は日々高まっていく。 こうしたゲーム業界にまつわる進化の中で、カプコンbitMASTERstudio も時代に合わせて更新が行われていくこととなる。PlayStation2 の世代ではステレオ再生が基本とされる中で、DolbyPro Logic 2 を使ったサラウンドでの表現にも挑戦。PlayStation3 /Xbox の登場以降はDolby Digital が使用できるようになり、5.1chサラウンドへの対応が一気に進むことになる。ゲームにおける音声技術の進化に関しては興味が尽きないところではあるが、また別の機会にまとめることとしたい。 2006年にbitMASTERstudioが誕生してから、次世代のスタンダードをにらみ、ゲーム業界の先を見据えた更新を続けていくこととなる。今回のレポートはまさにその集大成とも言えるものである。改めてbitMASTERstudioの歩みを振り返ってみよう。設備導入当初よりAvid Pro Tools でシステムは構築されており、この時点ではDigidesign D-Control がメインのコンソールとして導入されていた。その後、2009 年に2 部屋目となる当時のB-Studio が完成、こちらにもDigidesign D-Control が導入される。2013 年にはA-Studio の収録用ブースを改修してProTools での作業が行えるようシステムアップが行われ、2015 年にはA-Studio のコンソールがAvid S6 へと更新された。 こうして更新を続け、その時点での最新の設備を導入し続ける「bitMASTERstudio」の大きな転機が、2018年に行ったB-studioの内装から手を加えた大規模な改修工事である。ゲームにもイマーシブ・オーディオの波が訪れ、その確認をしっかりと行うことができる設備の重要性が高まってきているということを受け、いち早くイマーシブ・オーディオ対応のスタジオとしてB-stduioが大改修を受けて生まれ変わった。その詳細は以前にも本誌でも取り上げているので記憶にある方も多いのではないだろうか。金色の衝立のようなスピーカースタンドにぐるっと取り囲まれた姿。一度見たら忘れられないインパクトを持つ部屋だ。 この部屋は音響施工を株式会社ソナ(以下、SONA)が行った。この部屋における音響設計面での大きな特徴は、物理的に完全等距離に置かれたスピーカー群、これに尽きるだろう。物理的にスピーカーを等距離に設置をするということは現実的に非常に難しい。扉などの導線、お客様の座るソファー、そもそもの壁の位置など、様々な要素から少なからず妥協せざるをえない部分が存在する。B-studioでは衝立状のスタンドを部屋の中で理想の位置に設置することで完全等距離の環境を実現している。これは、アコースティック的に理想となる配置であり、そこで聴こえてくるサウンドは電気的に補正されたものとは別次元である。この経験から今回のA-studioの改修にあたっても、前回での成功体験からSONAの施工で内装変更とそれぞれのスタジオのイマーシブ化を実施している。 📷 25年に渡りカプコンのサウンドを支えるエンジニアの瀧本氏。ポスプロで培ったサウンドデザイン、音による演出などのエッセンスをゲーム業界にもたらした。 圧倒的なパフォーマンスを求めたスピーカー群 今回の更新は、A-studioおよびそのブース部分である。前述の通りでブースにもPro Toolsが導入され、Pro Toolsでの編集を行えるようにしてあったが、やはり元々は収録ブースである。そこで今回は、ブースとの間仕切りの位置を変更し、ブースをC-studioとしてひとつのスタジオとして成立させることとなった。それにより、A-studioの部屋は若干スペースを取られることになったが、マシンルームへの扉位置の変更を行いつつ、スピーカーの正面を45度斜めに傾けることでサラウンドサークルの有効寸法に影響を与えずに部屋を効率的に使えるような設計が行われた。なお、この部屋は研究開発ビルのフロアに防音間仕切りを立てることで存在している空間である。その外壁面には手を加えずに内部の間仕切り、扉の位置などを変更しつつ今回の更新は行われている。 📷 スタジオ配置がどのように変更されたかを簡単な図とした。間仕切りの変更といっても、かなり大規模な改修が行われたことがわかる。 それではそれぞれのスタジオを見ていこう。まずは、旧A-studio。こちらはDubbing Stageと名称も新たに生まれ変わっている。なんといっても正面のスピーカー群が初めに目を引くだろう。旧A-studioでは、MK社製のスピーカーがこの部屋ができた当初のタイミングから更新されることなく使用されてきた。その際にスピーカーはスクリーンバックに埋め込まれていたのだが、今回はスクリーンバックではなく80 inchの巨大な8K対応TVへと更新されたことで、すべてのスピーカーのフェイスが見えている状態での設置となった。正面に設置されたスピーカーは、一番外側にPMC IB2S XBD-AⅡ、その内側にPMC 6-2、さらに内側にはサブウーファーであるPMC8 SUBが2本ずつ、合計4本。センターチャンネルにPMC 6-2という設置である。 PMC IB2S XBDはIB2SにスーパーローボックスとしてXBDを追加した構成。2段積みで1セットとなるスピーカーである。これはステレオ作業時に最高の音質でソースを確認するために導入された。カプコンでは海外でのオーケストラなどの収録によるBGMなど、高品位な音源を多数制作している。せっかくの音源をヘッドホンやPCのスピーカーで確認するだけというのは何とも心もとない。クリエイター各自の自席にも、Genelec 8020で5.1chのシステムは設置されているが、それでもまだまだスピーカーサイズは小さい。しっかりとした音量で細部に渡り確認を行うためにもこのスピーカーが必要であった。 📷 ダブルウーファー、3-wayで構成されたPMC6-2。PMCのサウンドキャラクターを決定づけているATLのダクトが左に2つ空いているのがわかる。新設計となるスコーカーとそのウェーブガイドもこのスピーカーのキーとなるコンポーネント。 この IB2S XBDが選定されることになった経緯は2019年のInterBEEまで遡ることとなる。この年のInterBEEのPMCブースにはフラッグシップであるQB1-Aが持ち込まれていた。4本の10 inchウーファーを片チャンネル2400wという大出力アンプが奏でる豊かな低域、そして1本辺り150Kgという大質量のキャビネットがそれを支える。解像度と迫力、ボディー、パンチのあるサウンド。文字としてどのように表現したら良いのか非常に難しいところであるが、あの雑多なInterBEEの会場で聴いても、その圧倒的なパフォーマンスを体感できたことは記憶にある。このQB1-Aとの出会いからPMCのスピーカーに興味を持ち、導入にあたりPMCのラインナップの中からIB2Sを選定することとなる。しかし、IB2S単体ではなくXBD付きの構成としたということは、やはりQB1-Aを聴いたときのインパクトを求めるところがあったということだろうか。 📷 PMC QB1-Aがこちら。迫力ある存在感もさることながら、このスピーカーから再生されるサウンドは雑多なInterBEEの会場で聴いても際立ったものであった。ここでのPMCとの出会いから今回の更新へとつながったと考えると感慨深い。 6本のサブウーファーが同時駆動するシステムアップ 📷 天井にも4本のPMC6-2が設置されている。天井からの飛び出しを最低限とするため半分が埋め込まれ、クリアランスとリスニングポイントまでの距離を確保している。 サラウンド、イマーシブ用のスピーカーには、PMCの最新ラインナップであるPMC6-2が選ばれている。当初はTwo-Twoシリーズが検討されていたということだが、導入のタイミングでモデルが切り替わるということで急遽PMC6シリーズの試聴が行われ、PMC6-2に決定したという経緯がある。その際にはPMC6との比較だったということだが、ローエンドの豊かさやボリューム感、スコーカーによる中域帯の表現力はやはり PMC6-2が圧倒したようだ。それにより、天井に設置するスピーカーも含めてPMC6-2を導入することが決まった。天井部分はひと回り小さいスピーカーを選定するケースも多いが、音のつながりなどバランスを考えると同一のスピーカーで揃えることの意味は大きい。この点はスピーカー取り付けの検討を行ったSONAでもかなり頭を悩ませた部分ではあったようだが、結果的には素晴らしい環境に仕上がっている。 📷 音響へのこだわりだけでなく、意匠にもこだわり作られたサラウンド側のPMC6-2専用スタンド。フロントの三日月型のオブジェと一体感を出すため、ここにも同じコンセプトのデザインが奢られている。 サラウンド側のスピーカースタンドは、SONAの技術が詰まった特注のもの。特殊なスパイク構造でPMC6-2をメカニカルアース設置しており、スピーカーのエンクロージャーからの不要な振動を吸収している。スタンドの両サイドにはデザイン的に統一感を持った鏡面仕上げのステンレスがおごられ、無味乾燥なデザインになりがちなスピーカースタンドにデザイン的な装飾が行われている。近年ではあまり見ないことだが「気持ちよく」作業を行うという部分に大きな影響を持つ部分だろう。 サラウンド用のLFEはPMC8 SUBが4本導入された。設置スペースの関係からPMC8 SUBが選ばれているが、実際に音を出して85dBsplのリファレンスでの駆動をさせようとすると、カタログスペック的にも危惧していた点ではあったがクリップランプが点いてしまった。そこで、サブウーファー4本という構成にはなるがそれを補えるように IB2S XBDのXBD部分を同時に鳴らすようにシステムアップされている。結果、都合6本のサブウーファーが同時に駆動していることになり、XBDボックスと同時に鳴らすということで余裕を持った出力を実現できている。6本ものサブウーファーが同時に鳴るスタジオは、さすがとしか言いようがないサウンドに包まれる。 これらのスピーカーは部屋の壁面に対して正面を45度の角度をつけて設置が行われた。従来はマシンルーム向きの壁面を正面にして設置が行われていたが、角度をつけることで多数のスピーカー設置、そしてTVモニターの設置が行われる正面の懐を深く取ることに成功している。そして正面の足元には、そのスピーカーを美しく演出する衝立が設置された。足元をスッキリと見せるだけではなく色の変わる照明をそこに仕込むことで空間演出にも一役買っている。ちょっとした工夫で空間のイメージを大きく変化させることができる素晴らしいアイデアだ。天井や壁面に設置された音響調整のためのパネルはピアノブラックとも言われる鏡面仕上げの黒で仕上げられている。写真ではわかりにくいかもしれないが、クロスのつや消し感のある黒と、この音響パネルの光沢黒の対比は実際に見てみると本当に美しい。影で支える音響パネルが、過度の主張をせず存在感を消さずにいる。 Avid MTRXを中心にシステムをスリム化 📷 Dubbing Stageに導入されているAvid S6 M40は16フェーダー仕様。右半分にはウルトラワイドディスプレイがコンソール上に設置されている。キーボードの左にトラックボールが置かれているのはサウスポー仕様。この部屋を使うエンジニア3名のうち2名が左利きのため民主主義の原則でこの仕様になっているそうだ。 📷 ラックの再配置を行ったマシンルーム。3部屋分の機器がぎっしりと詰まっている。この奥にPMCのパワーアンプ専用のアンプラックがある。 作業用のコンソールに関しては、前システムを引き継いでAvid S6-M40が設置された。これまでは、SSL Matrixを収録用のサブコンソールに使ったりといろいろな機器が設置されていたが、今回の更新では足元のラックを残してそれらはすべて撤去となり、スッキリとしたシステムアップとなった。収録を行う作業の比率が下がったということ、そしてPro Toolsや開発コンソールといったPCでの作業ウェイトが大きくなってきているということが、システムをスリム化した要因だということだ。このシステムを支えるバックボーンは、Avid MTRXが導入されている。これまで使ってきたAvid MTRXはB / C-studio用に譲り、追加で1台導入してこの部屋の専用機としている。社内スタッフ同士での共有作業が中心であったため、機材をある程度共有するシステムアップで運用してきたが、メインスタジオとなるDubbing Stageの機器は独立システムとして成立させた格好だ。 主要なシステムの機器としては、このAvid MTRXとPro Tools HDXシステム、そして持ち込まれた開発PCからの音声を出力するためのAVアンプとなる。開発用PCからはゲームコンソールと同様にHDMIでの映像 / 音声の出力が行われ、これをアナログ音声にデコードするためにAVアンプが使われている。音響補正はAvid MTRX内のSPQモジュールが使われ、PMCスピーカー側のDSPは利用していない状況だ。ベースマネージメント、特に6本のサブウーファーを駆動するための信号の制御や処理がMTRXの内部で行われていることとなる。 同軸で囲む、新設された銀の部屋 📷 Dynamic Mixing Stage - SILVER。GOLDと対となるSILVERの部屋。写真で並べて見るとそのコントラストがわかりやすいだろう。スピーカーはKS Digital、デスク正面には、LCRにC88、サブウーファーとしてB88が合わせて5台設置されている。コンソールはAvid S1が導入されている。 もう一つの新設された部屋である、旧ブースとなるスペースを改修したDynamic Mixing Stage - SILVERをご紹介したい。旧B-StudioにあたるDynamic Mixing Stage - GOLDはその名の通り「GOLD=金」をデザインのテーマに作られている。そしてこちらのSILVERは「SILVER=銀」をデザインのコンセプトとして作られた。ほかの2部屋が黒を基調とした配色となっているが、こちらのSILVERは白がベースとなり音響パネルは銀色に仕上げられているのがわかる。 📷 サラウンド側のスピーカー。音響パネルで調整されたこだわりのスピーカー設置が見て取れる。この音響パネルが銀色に仕上げられており、GOLDの部屋と同様に深みのある色で仕上げられている。 スピーカーから見ていこう。こちらの部屋にはKS Digitalのスピーカーが選定された。GOLDの部屋はGenelec the ONEシリーズ、DubbingはPMCとそれぞれの部屋であえて別々のメーカーのスピーカーが選ばれている。同一のメーカーで統一してサウンドキャラクターに統一感を持たせるということも考えたということだが、様々なキャラクターのスピーカーで確認できるということも別のベクトルで考えれば必要なことだという考えからこのようなセレクトとなってる。また、多チャンネルによるイマーシブ・サラウンド構築において同軸スピーカーを選択するメリットは大きい。特にSILVERのような容積が少なく、サラウンドサークルも小さい部屋であればなおさらである。その観点からも同軸であるKS Digitalの製品がセレクトされている。正面のこれらのスピーカーはSONAのカスタム設計によるスタンドでそれぞれが独立して設置されている。こちらもすべてのスピーカーがメカニカルアース設置され、これだけ密接していても相互の物理的干渉が最低限になるように工夫が凝らされている。物理的な制約のある中で、可能な限り理想的な位置にスピーカーを自然に設置できるように工夫されていることが見て取れる。 SILVERのシステムは、AVID Pro Tools HDX、I/OはGOLDと共有のAVID MTRXが使われている。コントローラーは部屋のサイズからもAvid S1が選ばれている。シグナルのフロントエンドとなるAD/DAコンバーターはGOLDと共有ではなく、それぞれの部屋ごとにDirectout Technologies ANDIAMOが導入されている。このコンバーター部分を部屋ごとに持つことでトラブル発生時の切り分けを行いやすく、シンプルな構築を実現している。 Avid S4へ更新された金の部屋 📷 Dynamic Mixing Stage - GOLD。以前本誌でも取り上げさせていただき、大きな反響があったカプコンにとって最初のイマーシブ対応スタジオだ。 部屋の内装、スピーカーなどに変更は加えられていないが、同時にDynamic Mixing Stage - GOLDのコンソールが同じタイミングで更新されている。これまで使われていたAvid S3からAvid S4へとグレードアップだ。これによりAvid S6が導入されているDynamic Dubbing Stageとの操作性の統一も図られている。やはり、同一メーカーの製品とはいえS3とS6では操作性がかなり異なりストレスを感じることが多かったようだ。S6ならばできるのに、S6だったらもっとスムーズに作業ができたのに、ということがS4へ更新を行うことでほとんどなくなったということだ。ただし、フェーダータッチに関してだけはS6と共通にしてほしかったというコメントもいただいた。制作作業において一番触れることが多い部分だからこそ、共通した仕様であることの意味は大きいのではないだろうか。 📷 今回の更新でコンソールがAvid S4へと更新、カスタム設計の机にユニットが埋め込まれてる。これはスピーカーにかぶらないようにというコンセプトからによるもので、ディスプレイが寝かされていることからも設計のコンセプトが感じられるだろう。 GOLDのAvid S4は製品に付属する専用シャシーを使わずに、カスタム設計となったデスクへの埋め込みとしている。デスクトップのシャシーであるS4は、普通の机にそのまま設置するとどうしても高さが出てしまう。シャシーごと埋め込むというケースは多いのだが、今回はモジュールを取り出してデスクに埋め込むという手法が用いられた。S6ではこれまでにも実績のあるカスタマイズだが、S4でのカスタムデスクへの埋め込みは初の事例である。これは今後スタジオの更新を考えている方にとって参考となるのではないだろうか。 スピーカーでサウンドを確認する意義 📷 デザイン性の高い空間の居住性と、音響のバランスを高いレベルで整えることに成功し、そのコンセプトやここに至る経緯を色々とお話いただいた。GOLDの部屋で実現した理想の音環境をそれ以外の2部屋でも実現できたと語っていただいた。 すべてのスタジオを7.1.4chのイマーシブ対応としたカプコン。これまでにもレポートした検聴用の2部屋と合わせて、しっかりとしたチューニングがなされた7.1.4chの部屋を5部屋持つこととなる。 ゲームではもともとが3Dで作られているのでイマーシブに対しての親和性が高い。どういうことかと言うと、ゲーム(3Dで作られているもの)は映像や中で動くキャラクター、様々な物体すべてが、もともとオブジェクトとして配置され位置座標などを持っている。それに対して音を貼り込んでいけば、オブジェクトミックスを行っていることと一緒である。 最終エンコードを行う音声のフォーマットが何なのか、Dolby Digitalであれば5.1chに畳み込まれ、Dolby True HDであればDolby Atmos。最終フォーマットに変換するツールさえ対応していれば、ゲームとして作った音はもともとが自由空間に配置されたオブジェクトオーディオであり、すでにイマーシブであるということだ。逆にゲーム機から出力するために規格化されたフォーマットに合わせこまれているというイメージが近いのではないだろうか。 そう考えれば、しっかりとした環境でサウンドを確認することの意味は大きい。ヘッドホンでのバイノーラルでも確認はできるが、スピーカーでの確認とはやはり意味合いが異なる。バイノーラルはどうしてもHRTFによる誤差をはらむものである。スピーカーでの再生は物理的な自分の頭という誤差のないHRTFによりサウンドを確認できる。自社内にスピーカーで確認できるシステムがあるということは本当に素晴らしい環境だと言えるだろう。 ゲームにおいて画面外の音という情報の有用性を無意識ながらも体験をしている方は多いのではないだろうか。仮想現実空間であるゲームの世界、そのリアリティーのために重要な要素となるサウンド。世界中のユーザーが期待を寄せるカプコンのゲームタイトルで、そのサウンドに対するこだわりは遥かなる高みを見据えている。 📷 今回の取材にご協力いただいた皆様。左下よりカプコン瀧本和也氏、スタジオデザイン・施工を行ったSONA土倉律子氏、SONA井出将徳氏、左上に移りROCK ON PRO前田洋介、PMCの代理店であるオタリテック株式会社 渡邉浩二氏、ROCK ON PRO森本憲志。   *ProceedMagazine2022-2023号より転載

Media

株式会社サウンド・シティ様 / 時代が求める最大限の価値を提供していく〜新たなフラッグシップ・スタジオ「tutumu」

麻布台の地において46年間にわたって日本の音楽産業を支え続けてきた「株式会社サウンド・シティ」。前身である「株式会社飛行館スタジオ」時代から数えればその歴史は60年を超えているが、老舗の座に安んじることなく常に時代の先端をとらえ続けてきたスタジオである。この2022年8月には、Dolby Atmos / 360 Reality Audioの両方に対応したイマーシブ・スタジオ「tutumu」(ツツム)をオープン。同社の最新にして最大の挑戦ともなったこのスタジオのシステムや、オープンに至るまでの経緯などについてお話を伺った。 新たなフラッグシップ・スタジオ「tutumu」 「サウンド・シティの、ひいては日本のフラッグシップとなるようなスタジオを作ろう」というコンセプトのもと、Dolby Atmosと360 Reality Audio両対応のイマーシブ・スタジオ開設の構想が生まれたのは2021年7月ごろ。ちょうど、同年6月に中澤氏と明地氏が取締役に就任してまもなく、同社の価値を“リブランディング”しようと考えていた時期だという。 リブランディングにあたっては、音楽レコーディング・スタジオとポストプロダクションというふたつの事業を柱として日本の「音」を支え続けてきた同社の存在意義を「よいレコーディングスタジオ、よい映像編集室、そしてよい人材をはじめとして、映像と音楽を作りたい方々に対して技術面で最大限の価値を提供していくこと」(明地氏)と再定義しており、これからの時代に求められる価値を提供することができる新たなフラッグシップ・スタジオ「tutumu」をオープンすることは、サウンド・シティという“進化を止めない老舗スタジオ”に相応しいプロジェクトだったようだ。 折しもApple Musicが空間オーディオへの対応を開始し、アーティストやクライアントからその作品作りに関する相談を受け始めていたというが、しかしそれはまだごく一部の話。音楽におけるステレオの価値も根強い状況で、これほど大規模なイマーシブ・サウンド対応へ舵を切ったことに何か確信はあったのだろうか。 明地氏によると「これまで存在した、オーディオ・ファイル向けサービスのような技術だったらtutumuの開設は決断しなかった。空間オーディオは従来のマルチチャンネルと違って、既存のストリーミング・サービスの中で聴ける。これは確実に浸透する流れだと判断できたので、だったらそれができる部屋を作ろう、と。それも、サウンド・シティの新しい“顔”になるようなスタジオを作ろうと考えました。」とのことだ。さらに同氏は「テクノロジーの進化速度はすごく速くて、スタジオで作ったモニターをヘッドホン / イヤホンで再現できる時代というのが追いかけてくるはず。その先には、音や映像を立体で楽しむ時代が来ると思う。その舞台が車内なのかメタバースなのかはわからないが、これから先は立体の中で作品を作る時代になる」という確信があるという。 マーケットが成熟してから始めるのではなく、将来、誰もが必要とする技術であるという確信に基づいて作られたtutumuは、サウンド・シティだけでなく、まさに日本の音楽スタジオ全体のフラッグシップとなるべく生まれたスタジオと言えるだろう。これには、プロジェクト発足当初からシステムの設計を中心に携わったオンズ株式会社 井上氏も「このタイミングであれば、真似しようとしてもできないスタジオを作れると思いました。そういう意味では、周りがどうということではなく、ここが発信地だという熱い想いでやらせていただきました。」と語っていた。 Dolby Atmos / 360 Reality Audioハイブリッド tutumuの特長のひとつは、ひとつのスピーカー・システムでDolby Atmosと360 Reality Audioのどちらにも対応できるという点だ。明地氏によると、これからイマーシブ・オーディオの時代は必ず来るという確信はあったというが、将来、主流になるテクノロジーがDolby Atmosなのか360 Reality Audioなのか、それともまったく別のものになるのかはわからないため、将来的にどんな規格にも対応できるスタジオにしたいという想いがあったという。 スピーカー・レイアウトにおけるDolby Atmosと360 Reality Audioの最大の違いは、Dolby Atmosの音場が半天球であるのに対して360 Reality Audioは全天球である点だが、ただ単にDolby Atmosのレイアウトにボトム・スピーカーを足せばよい、というほど簡単にはいかない。映画館での上映を最終的な目的としているDolby Atmosと、音楽作品を前提としている360 Reality Audioでは、Hightスピーカーのレイアウトに対する考え方が異なっているのだ。 Dolby AtmosにおけるHightスピーカーのレイアウトは「半球面上でFrontのLRと同一の線上、かつ、リスニング・ポイントから前後にそれぞれ45°の角度となる位置」となっており、360 Reality Audioは「ITU-Rに準拠した配置の5.1chを上層にも配する」となっている。誤解を恐れずに言ってしまえば、Dolby Atmosはスピーカー・レイアウト全体が半球面になることを重視しており、360 Reality Audioは水平面におけるスピーカー間の角度に重きを置いているということになるだろうか。 「異なるふたつのレギュレーションを同時に満たすためのスピーカー・レイアウトについては、社内でもかなり議論を重ねた」とは日本音響エンジニアリング株式会社 佐竹氏のコメントだが、「tutumuは天井高が仕上げで3m取れる部屋だったため、ハイトスピーカーも含めて球面に近い距離ですべてのスピーカーを配置する計画が可能だった」という。具体的にはDolby Atmosの配置をベースにしつつ、360 Reality Audioにも対応できる形になっているそうだ。 昨今、イマーシブ・オーディオ対応のスタジオ開設が増えつつあるが、その中で必ず話題に挙がるのが天井の高さについてである。佐竹氏は「天井が高くなければできないということはないが、天井は高い方が有利だと思う」とのことで、この点に関しては同社の崎山氏も「天井高が足りない場合、角度を取るか距離を取るかという話になる。そうすると、例えば電気的なディレイで距離感を調整したりすることになるが、実際にスピーカーとの距離が取れている部屋と同じには決してならない」と話してくれた。「新設でこの高さをリクエストされても、物件がない。あったとしても、通り沿いの商業ビルの1Fとか、アパレルのフラッグシップ店舗が入るような高価なところしかない」(井上氏)と言う通り、新しいビルでイマーシブ・スタジオに相応しい物件を探すのは非常に難しい。 その点、tutumuは先にも述べたとおり天井高が仕上げで3m取れており、スピーカーも理想的な配置がなされている。まさに老舗の強み。社屋までもが現在では手に入れられない価値を持ったビンテージ品となっているようなものだ。そして、その恩恵は天井高だけではない。崎山氏によれば、最近の建築は鉄骨造の躯体が多く、軽量化されているため重量が掛けられず強固な遮音層の構築が難しいのだという。「ここは建物が古いので躯体が重く頑丈。すると、天井が高いだけでなく低域の出方もよくなる。スピーカーのセットをガッチリ作れるので音離れがいいんですよね。」(崎山氏)という恩恵もあるようだ。もしかしたら、理想のスタジオを作るためにあえて古き良き物件を探すということも選択肢になるのかもしれない。 時代が求めるPMCのサウンド 📷 tutumu のスピーカー構成は「9.2.5.3」となる。Dolby Atmos 9.2.4 を基本に、360 Reality Audio はTop Center x1、Bottom x3 を追加した 「9.0.5.3」で出力される。 写真右が Front LCR に用いられた「PMC6-2」、左が今回計 14 台導入された「PMC6」となる。 イマーシブ環境においてどのようなスピーカーを選定するかということは極めて重大なファクターだが、tutumuではイギリスのメーカーであるPMCが採用された。Front LCRは「PMC6-2」、Subwooferは「PMC8-2 SUB」、その他はすべて「PMC6」という構成となっており、これらはすべて発売が開始されたばかりの最新モデルだ。工事に先立ち日本音響エンジニアリングのスタジオでおこなわれたスピーカー選定会には、実はこれらのモデルは間に合わない予定だったという。しかし、奇跡的に選定会当日に到着したデモ機を試聴して、「聴いた瞬間、満場一致でこれに決まった」(サウンド・シティ 中澤氏)というほどそのサウンドに惚れ込んだようだ。 「とにかくバランスがいい。特性的にもナチュラルでイマーシブ向きだと思った」(中澤氏)、「本当に音楽的。音の立ち上がりがよく、ちゃんと動いてちゃんと止まるから余韻でドロつかない。ミキサー目線でもリスナー目線でも、どちらで聴いても完璧。これしかないですね、という感じだった」(秦氏)と大絶賛だ。秦氏によれば「イマーシブって全方向から音を浴びるので、どっと疲れたりするんですけど、これはそうした疲れを感じない」のだという。これらの新モデルについては、「そもそも、Dolbyと半ば共同開発のようにして、イマーシブに対応できることを前提に作られている」(オタリテック 兼本氏)とのこと。 オブジェクト・トラックの音像は、従来のチャンネルベースで制作されたものに比べると分離がよいため、低域をすべてSubwooferに任せてしまうとパンを振った時などに定位がねじれるという聴感上の問題が発生する。PMCの新モデルではスコーカーを新たに設計し、アンプの容量も旧モデルの2倍にすることで、各スピーカーがより広い帯域を歪みなく再生できるようにブラッシュアップされているのだ。それはSubwooferの設計にも現れており、秦氏は「いい意味でSubwooferの存在感を感じさせない音。鳴っているときは気付かないが、ミュートすると明らかな欠如感がある。これはお披露目会に来た方々が口を揃えて言ってくれて、勝った、と思いました(笑)」と嬉しそうに語ってくれた。 兼本氏によれば「音が速く歪みがない、というのはPMCが創業以来ずっと追求してきたこと。メーカーとしては、時代に合わせてアップデートしたというよりは、変わらない価値観がにわかに時代のニーズと合致した印象」とのこと。誠実なプロダクト・デザインが正当に評価される時代がやって来たということは、心から喜ばしいことだと感じたエピソードだ。 室内アコースティックへのこだわり tutumuは、以前は「Sスタジオ」と呼ばれた音楽ミックス / MAコンバーチブルのスタジオを改修する形で施工されている。Sスタジオは紆余曲折ありながらも、最終的にはtutumuと同じ日本音響エンジニアリングが施工を担当したスタジオで、仮設ではあるものの5.1chサラウンド・ミックスもできる部屋だったという。そうした経緯から、音楽ミックスを行う部屋としての下地はある程度整っていた部屋だったが、今回の改修にあたっては前述のスピーカー・レイアウトのほかにも様々な改良が加えられている。 まず、特徴的なのはWideやBottomを含めたFrontスピーカーがすべて正面の壁に埋め込まれていることだ。これは低域の特性を暴れにくくするためで、Subwooferを除いても17本ものスピーカーを使用するtutumuのようなスタジオでは非常に重要な課題となる。また、すべて一体になっているステージをモルタルで作り直すことで、Frontスピーカー5本の特性を揃えつつ、Subwooferとのセパレートも向上させている。HightやRearスピーカーに関してはFrontのようにステージを作ることができないが、なるべくガッシリと設置できるように工夫がされているという。実際に設置工事に入った段階で天井を開けてみると空調用のダクトが通っていたようだが、こちらもほとんど作り直したようなものだという。電気的な調整では補えない、アコースティックな領域で聴こえ方を揃えていくために、マシンルームの扉も入れ替えられ、ブース扉にあったガラス窓も吸音材で蓋をされている。 📷 スタジオ後方に配されたAGS。拡散系の調音材でイマーシブ・システムの課題であるリスニング・ポイントの狭さを解消し自然な音場を生み出すのに大きな役割を果たしている。 また、tutumuを作るにあたって留意された点として、イマーシブにありがちな“リスニング・ポイントが狭い”という音響には絶対にしたくないという意向があったという。音楽ミックスの現場にはミキサーだけでなく、クライアントやアーティストが同席することもあるため、前後3列で聴いても音像が崩れないように配慮されている。また、「音楽を聴いていたら頭も動くし体も動く。そういう自然な動きを許容できるように調整している」(秦氏・井上氏)とのことだ。そうした“遊び”を作るために活用されたのが、日本音響エンジニアリングが開発・販売する「AGS」だ。「もともと音楽ミックスもできるように壁の裏には拡散系の調音材も設置されていたので、それをなるべく活かしながら、LCRスピーカーの間にもAGSに近い拡散体を仕込んで音場のバランスを整えて、さらに調整を重ねている」(佐竹氏)とのことだ。 高い機能性と品質を兼ね備えたPro Tools | MTRX 📷 3枚配されたディスプレイは左からメーター系、Pro Tools、Dolby Atmos Renderer。それぞれ別々のMacにつながっており、Video Hubで切り替えることができる。トラブルがあった時に切り分けが容易になるように、ということのようだ。iPadはPro Tools | Controlがインストールされているほか、iPhoneなどの音源をAir Dropで受け取ってすぐに再生できるようになっている。 tutumuのミキサー・デスクにはTac System「VMC-102 IP Studio Monitor Controller」とMerging Technologies「ANUBIS」が置かれている。VMC-102 IP Studio Monitor Controllerは、従来モデルVMC-102の機能を受け継ぎながら、MADI I/F とDante I/Fを1系統ずつ備え、Danteネットワーク上のルーティングを制御する「バーチャル / ルーティング」機能を新たに搭載した最新モデルだ。片や、Pyramixで有名なMerging Technologies最新のハードウェアであるANUBISも、システムのモニターセクションとなる機能を有している。こちらはDanteと肩を並べるAoIP規格であるRavenna / AES 67に対応しており、Dolby Atmosはもとより、22.2chフォーマットさえも内部でステレオにダウンミックスすることができる。 tutumuではVMC-102 IPをメインのモニターコントローラーとして使用しながら、ヘッドホンアンプのようにANUBISを使用するシステムになっている。スピーカーシステムへのアウトプットとは別系統でANUBISへのソースが立ち上げられており、例えばANUBISに接続されたヘッドホンを着ければ、メインのモニターセクションを切り替えることなくステレオやバイノーラルをモニターできる、ということが可能になるように設計されている。スピーカーへの出力はアナログ、モニターコントローラーへはDante / Ravenna、Dolby Atmos RMUとの接続はDante、音響補正を担うDatasat「AP-25」へはAES/EBU、さらに要所要所ではMADIも使用するなど、tutumuではあらゆる伝送規格を網羅するかのように様々な信号が行き交っている。この複雑な構成を一手にまとめるためにオーディオI/Fとして採用されたのが、Avidのフラッグシップ・モデル「Pro Tools | MTRX」だ。 📷 2台のPro Tools | MTRXはそれぞれInput系とOutput系を受け持ち、SPQカードによる音場補正も担っている。その上に見えるのはAvid最新のシンクロナイザー「Pro Tools | Sync X」。 Pro Tools | MTRXは、モジュール方式の構成を採用することによって高い拡張性を誇る。オプションカードを追加することで、アナログはもちろん、Dante、MADI、AES/EBU、DigiLinkポートなどといった幅広い信号のI/Oとなることが可能だ。井上氏によれば「I/FがMTRXだからこそシステムとして具現化できた」とのこと。tutumuでは2台のPro Tools | MTRXが導入されているが、1台はインプットとDolby Atmos RMUを管理、もう1台はスピーカー・システムへのアウトプットを担っている。また、Pro Tools | MTRXはシステムのI/Oだけでなく、音場補正も担っている。tutumuではDatasat AP-25で主に周波数/位相/時間特性の最適化補正をし、Pro Tools | MTRXのオプションカードSPQも使用して最終的な微調整をおこなっている。 しかし、Pro Tools | MTRX採用の理由は機能性だけではない。秦氏曰く「最初に聴いた時、こんなに違うか、と驚いた。解像度はもちろんのこと、とにかく音のスピードが速い。」と、オーディオのクオリティについても非常に満足している様子だ。また、今回導入されたPMC6-2およびPMC6にはアナログだけでなくAES3の入力もあるのだが、「MTRXのDAはとても信頼できる(井上氏)」ということで、スピーカーへのアウトプットはアナログ伝送が採用されている。これもPro Tools | MTRXのオーディオ品質の高さを窺わせるエピソードだろう。 📷 (左)デスクにはモニター・コントローラーが2台。VMC-102 IPではスピーカー・アウトプット、ANUBISではバイノーラルなどのHPアウトと、それぞれ異なるソースが割り当てられているほか、秦氏と井上氏による「魔改造」によって、360 WalkmixとPro Toolsからの出力をワンタッチで切り替えられるようになっている。(中)DATASAT AP-25 の「Dirac 音場補正機能」で周波数/位相/時間特性の最適化補正を掛けた後、Pro Tools | MTRX の SPQ で微調整をおこなっている。(右)ブース内の様子。写真右に見えるガラス戸がスピーカーの一時反射面になるということで、外側にもう一枚扉を作る形で吸音を施している。 「これからの音楽スタジオのフラッグシップとして相応しいもの ができた。」という tutumu。オフィシャルなオープンに先立っ て行われたお披露目会では、参加したクリエイターたちが創 作意欲を喚起されている様子がヒシヒシと伝わって来たとい う。この勢いを見ると「コンテンツを立体で楽しむ」という 時代は、そう遠い未来のものでもないのではないだろうか。 📷 写真左より、株式会社サウンド・シティ 取締役 明地 権氏、レコーディングエンジニア 秦 正憲氏、取締役 中澤 智氏。 取材協力:株式会社サウンド・シティ、オンズ株式会社、日本音響エンジニアリング株式会社、オタリテック株式会社   *ProceedMagazine2022-2023号より転載

Music

エイベックス株式会社 avexR studio様 / ワークフローを加速させる、コンパクトに厳選された機器たち。

「エンタテインメントの可能性に挑み続ける。」という企業理念を基に、映像・音楽・テクノロジーのプロフェッショナルが同じ空間で常に交わりコンテンツを生み出していく。これをコンセプトとして2022年夏にavex groupの新たなクリエイティヴ拠点「MARIA」がオープン、本社にあったavexR studioもこちらへ移転し新たに稼働を始めた。今回の移転先となる物件は、元々スタジオとして使用されていたスペースではなくワインセラーやレストランスペースだったとのこと。全く異なる用途のスペースであったわけだが、設計図を作成し始めてから実際の工事に取り掛かるまでが4ヶ月弱という非常に短時間での準備を行い、2Fフロアをすべて改装してパワーアップしたスタジオへと変貌させた。さらに、ここにはグループ会社であるavex creative factoryのスタジオであるMAX studioも併設され、携わるコンテンツの幅が広がっている。今回はこの施設内に移設しコンパクトでありながらも随所にアップデートした新生avexR studioを紹介したい。 パワーアップしたMAスタジオ 今回更新のメインとなるMAスタジオは同じフロアにある映像編集室、多目的スタジオとセットで「avexR studio」と呼ばれている。映画や配信向けDolby Atmosコンテンツや、アーティストのコンサートフィルムといったような映像が関わる音楽系のコンテンツなど、具体的なコンテンツ名が言えないのが非常にもどかしいが「avexR studio」のMA室では誰もが聞いたことがある話題の作品やアーティストの楽曲がDolby Atmosミックスされている。 前回のMA室と同様、コンセプトカラーはこだわりのオレンジがポイントとなっている。スタジオの色基調をオフホワイトとグレーにしてグラデーションをつけることで、前回よりも落ち着いた印象となった。このスタジオで作られるコンテンツは映画などのMAに限らず音楽系のコンテンツも増えてきており、音楽機材も増えたそうだ。スタジオの大きさについては、横幅が若干コンパクトになったが、奥行きは前回と全く同じサイズで設計されている。全体容積としては移転前から80%ほどになったものの、天井高は現在のスタジオの方が高く、スピーカーと作業位置の距離をITU-R基準の1.8mで確保したレイアウトだ。モニタースピーカーを含む機材は既存の設備を流用となった。以前のMA室と音質は大きく変わらないものの、移転したことで音像がタイトになった印象を持つ。コンパクトながらもLFEスピーカーをステレオで配置するシネマ用の配置を取っているが、部屋の横幅が変わったこともあり、低音の鳴り方が感覚に馴染むように試行錯誤しながら修正をしているところだという。 📷 メインスピーカーのGenelec 8350A、ハイトスピーカーのGenelec 8340A、2ch用としてFocal Solo 6 Be。L・Rの下にはサブウーファー Genelec 8360APMが2台設置されている。 Avid S4、厳選されたコンパクトな構成 機材面で大幅にパワーアップされたのが、Avid S4の導入である。以前はコンソールレスでの作業だったが、やはりDolby Atmosなどのイマーシブオーディオを扱うにあたり、特にオブジェクトを多用するセッションの場合はフィジカルで直感的な作業が難しく、パラメータの数値を打ち込むことがメイン作業となってしまって面白みに欠けてしまうことがあったという。コンソールレスで始めたものの、結局はフィジカルコントローラーを各種試して買い足すということに至ったそうで、移転を機に効率的かつ直感的な部分を補うためにコンソールの導入を決意されたそうだ。フィジカル的なコントロールの解決については以前からの課題とされていたようで、イマーシブオーディオコンテンツの作成が本格的に始まった2017年頃から試行錯誤されていたという。 スタジオに導入されたAvid S4コンソールの構成は、Channel Strip Module 8 Faderに加えて、かねてから念願であったJoystick ModuleとExpansion Knob Module、Display Module x2を加えた3 Bay構成である。イマーシブオーディオだからこそ「オブジェクトオーディオにもフィジカルコントローラーを」ということで導入されたJoystick Moduleは、数あるフィジカルコントローラーの中からAvid S4を選択した最重要ポイントの一つである。特にMA作業は映像を見ながらの作業となるため、コンピューター画面に集中することが難しい。モニター画面とコンピューター画面の視点移動は想像以上にストレスがかかる。特に、Dolby Atmosのオブジェクトオーディオ編集はより一層ストレスがかかるが、Joystick Moduleの導入でそれも随分軽減されているそうだ。 📷 コンパクトに収められたAvid S4は着席したままでもすべてに手が届くサイズ感、ヒヤリングポイントからスピーカーまでの高さは1.8mが確保されている。 そして、Avid S6ではなくAvid S4を選択した大きな理由はサイズだという。MAスタジオとしてはかなりコンパクトな筐体となるため、スペース都合を満たすということはやはり大きな要件となる。ただし、サイズ感という問題だけでAvid S1やAvid S3を選択しなかったのは、Avid S4がモジュール式でレイアウト自在な点だ。もちろん、先ほども述べたJoystick Moduleの存在も大きな理由となるが、センターセクションなどのベース構成から好きなユニットを追加選択し、好きな位置に配置できるのでイマーシブオーディオ制作に特化したレイアウトを組み上げられるのがポイントだという。なお、Joystick Moduleはセンターセクション右手前側に配置し、手がすぐに届いて操作できるレイアウトにした。コンパクトなレイアウトに収まったAvid S4は、そのサイズ感のおかげで操作性も十分に補えているという。今回導入されたAvid S4はセンターセクション左手にチャンネルストリップモジュールが配置されているが、Avid S4ならではのノブ部分のチルト構造のおかげで座ったままS4のすべての機能にアタッチできるという。これも作業効率を上げる重要なポイントとなる。 Avid S4で特に気に入っている機能は、センターセクションに集約されたレイアウトだという。ビジュアル・フィードバック性と完全なトータル・リコールにより、セッションごとでAvid S4の各画面の機能やトラックレイアウト、カスタムプラグインレイアウトなど、さまざまなレイアウトを一括でセッションに保存できるため、セッションを開くだけでレイアウトなど様々な設定がすべて読み込まれる。現在編集中のセッションからロールバックして、古いセッションに切り替えるワークフローがたびたび発生するそうだが、そういった時でもAvid S4のトータルリコールのおかげで、細かい設定など再調整することなく即座に作業に入れる点が大きいという。セッションを切り替えるとすぐに作業に取り掛かれるので、別のミックスダウンで気分転換ができることもあるそうだ。 📷 Avid S4を挟んでデスク下のラックにはアナログボード類、とMac Proが収められている。 直感的な作業をパワフルな環境で MTRXをインターフェイスとしたPro Tools HDシステムは、今回の移転に伴いMac Proを旧型の2013年モデルから最新の2019年モデルへ、HDXカードも1枚から2枚へと増強したことで大幅にパワーアップした。HT-RMUを導入しているが、昨今の映像コンテンツは4Kも多くなってきており、旧型Mac Proでは処理が追いつかないことも多い。また最近のPro Toolsでもビデオエンジンなどをはじめとする機能拡張の動作においてコンピューターのスペックに依存している機能もあるため、新たに導入したMac Proではメモリが96GBという仕様となった。おかげで作業効率が大幅にアップしたそうだ。なお、HT-RMUのほかDolby Atmos Production Suiteも導入されており、音楽性の強いミックスではProduction Suiteを、オブジェクト・トラックを多用する映像の方向性が強いミックスの際にはHT-RMUをとそれぞれ使い分けているそうだ。また、ビデオインターフェイスも4K対応のBlackmagic Design Ultra Studio miniへ更新されている。 📷 デスク下右手のラックにはMTRX、m908などがコンパクトに集約されている。 今回導入されたAvid S4と以前より導入されているMTRXの連携も抜群だという。モニターコントロールに関しては国内導入1台目だというGrace Designのm908を導入しており、このスタジオではアフレコやナレーションだけではなく効果音なども収録するため、ヘッドフォンやミニスピーカーなど様々なモニタ環境を瞬時に切り替えられるようにリモートコントローラーがセットとなったGraceのモニターコントロールを選択した。 MTRXは、Pro Toolsのインターフェイス機能のほかにマトリクスルーターとして稼働しており、MADIで接続されたHT-RMUの音声をMTRXで切り替えている。以前はコンピューター画面上でDADmanをマウスで操作していたが、Avid S4とDADmanを連携し、さらにソフトキーレイアウトをカスタマイズすることで、Avid S4からソース切り替えを可能とした。フィジカルかつ少ないアクションで操作できるようにカスタマイズ可能な機能はより一層直感的に作業に取り組める環境を構築した。 このスタジオでは恋愛ドラマのようなラジオドラマやポッドキャストも制作することもあるという、演出のために作中の効果音をレコーディングすることもあるそうだ。映像ありのコンテンツでは、その映像に寄り添うために音声のミックスで冒険はしにくいところだが、ラジオドラマは映像がないぶん聴き手が自由に想像できるため、オーバー気味な演出をしても違和感も少なく受け入れられるメディア。作り手も思い切ったミックスにチャレンジができる。手がけるラジオドラマはステレオではなくバイノーラルで配信されるため、Dolby Atmosの環境が活きてくる。Dolby Atmosでミックスしたオーディオは最終段でバイノーラルに変換するため、無理なく一層リアリティが増した完パケとなる。特にホラー作品などは特に恐怖感が倍増してしばらくうなされてしまうかもしれない。 発想を瞬発的にコンテンツへ、MAX Studio 📷 アイデアを即時に形にできるよう設けられたMAX Studio。右手の固定窓の向こう側がブースとなる。 ブースを隔ててMA室の奥にレイアウトされたのが「MAX Studio」である。ここではアイデアが浮かんでからすぐに制作作業に取り掛かり、1日で完パケまでできる環境が整えられた。このスタジオはエイベックスの音楽スタジオであるprime sound studio formともプリプロスタジオとも異なるキャラクターで、プロジェクトスタジオとプロスタジオの中間的な存在だという。昨今の楽曲制作で定番になりつつあるCo-Writeもこのスタジオで多く手がけられているそうで、クリエーターの発想を瞬発的にコンテンツへと形を変えることができるよう、ここでは制作の最初から最後まで一気通貫して行える。 MA室とMAX Studioで兼用となっているブースは両側にFIX窓が設けられており、普段は吸音パネルで塞がれている。MAとしてナレーションをレコーディングする際は、MA室側のパネルを外してMA室のTIE LINEを経由する。同様に、MAX Studioでボーカルのレコーディングを行う際にはMAX Studio側のパネルを外し、MAX StudioのTIE LINEを経由する。両コントロールルームに比べてブースの稼働率は低いので、あえて兼用にすることで両側のコントロールルームのスペースを確保した。 📷 ブースは兼用となりMA室とMAX Studioに挟まれたレイアウト。左右には各スタジオへのTIE LINEが設置されている。 天井高4mオーバーの多目的スタジオ 📷 モーションキャプチャースタジオとして活用されるほか、用途を問わず使用される多目的スタジオ。天井面にはトータル16台のOptiTrackカメラが取り付けられている。 約50平米の多目的スタジオは、その名の通り様々な用途を想定した作りになっている。その中でも一番多いケースとされるのが、モーションキャプチャーのスタジオとしての活用だ。天井にはOptiTrackのPrimeシリーズのカメラが常設されている。一方、下部のカメラについては仮設の形態がとられている。このスタジオでは、モーションキャプチャーのほかにグリーンバックでの合成や、YouTube配信といったものから、社内向けのZoom会議などにも使われるため、用途に合わせて暗幕・グリーンバックの有無などが選べるようになっている。 メインで使用されているモーションキャプチャーは、OptiTrackのPrimeシリーズとMotiveが導入されており、主にVTuber用途に使用されている。Motiveで演算されたデータは、カスタムで制作したエンジンによってキャラクターとリアルタイムで合成する。これら一連のリアルタイム処理された映像をそのまま配信することが可能だ。このような環境のスタジオが都心にあることは珍しい。モーションキャプチャーの特性上から広いスペースと十分な天井高が必要となり、その結果多くのスタジオが郊外に集中している。都心部という好立地ならではの制作業務も多いそうで、リモートワークが当たり前になってきている昨今でもこういった立地環境は必要な要素だと実感する。 多目的スタジオ・映像編集室とMA室の連携が取れるよう、音声・映像・サーバーそれぞれが接続されている環境だという。音声はDanteネットワークでスタジオ間を接続し、配信などを行う際に連携して使用されている。映像に関してはフロアの各部屋がSDIルーターに接続されている。例えば、多目的スタジオでVTuberがMotiveでリアルタイムに合成した映像に、MA室やMAX Studioでアフレコをつける、といったようにフロア全体で大きなスタジオとしても活用できる。 映像編集室では、Adobe Premiereを中心とした映像編集機器やCG編集機器が揃えられている。こちらも移転前の広さからおよそ1/3のスペースまでコンパクトにすることができたのだが、これはコロナ禍による制作スタイイルの変化だという。コロナ前は各自スタッフが集まって編集室で作業していたが、各自在宅で映像編集をできるようコンピューターなどの環境を整えた結果、編集室に集まって作業する必要性が薄くなり、必然的にスペースを確保する必要もなくなったそうだ。なお、こちらではモーションキャプチャーのほかにもLyric Videoなどを手掛けたり、エイベックスのYouTubeチャンネルで8月よりライブ配信されている「[J-POP] avex 24/7 Music Live(24時間365日 音楽ラジオ・24/7 Music Radio)」の画面に登場している「KA」とKAの部屋はこちらの編集室で作られたそうだ。部屋の中にある、見覚えのあるラップトップやスピーカーなど、実際の寸法からCGに落とし込まれており、各メーカーの公認も得ているという。 エイベックスの楽曲を24時間365日、ノンストップでライヴ配信する『avex 24/7 Music Live』。 話題のこのコンテンツも、岡田氏が率いるチームが手がけている イマーシブオーディオもだいぶ浸透し、ワークフローも確立しつつあるが、昔から変わらないフローのもあるという。特に変わらないのが、こまめなセーブとセッションのバックアップだという。こまめなセーブは当たり前になってきているが、コンピューターが高速かつ安定してきているからこそ、基本であるセーブとバックアップを忘れずにしているという。バックアップに関しては、余計に気にされているそうで、セッションデータを3つのHDDやSSDにバックアップするなど冗長化に努めているそうだ。 📷 avex groupの新たなクリエイティブ拠点「MARIA」には地下にクラブスペースもあり、普段は社内の撮影やイベントに使用しながらも、時には海外のTOP DJがシークレットでプレイすることもあるという。アーティストのSNSにもたびたびこちらの部屋がアップされることも多いというこちらのスペースは、なんとメディア初公開だそうだ。DJブースの両脇には日本ではメーカー以外にここにしかないという、Function OneのDJモニタースピーカーPSM318が鎮座しており、フロアには高さ約3mのDance Stackシリーズのスピーカーセットが前後に4発。ぜひともフルパワーの音を体感してみたい。 今後は映像作品のMAのほかに音楽制作へも力を入れていくとのことで、4年前のa-nationのようなDolby Atmos配信も行っていきたいとのことだ。5Gが一般化されたことで通信環境が格段に良くなっていることや、サーバー環境も進歩しているため、以前よりもストレスなく挑めるだろう。また、イマーシブオーディオの中でも今後は360 Reality Audio(サンロクマル・リアリティオーディオ)向けのコンテンツにも積極的に取り組んでみたいとのこと、どんな作品を手掛けられるのか楽しみである。 📷 エイベックス・エンタテインメント株式会社 レーベル事業本部 クリエイターズグループ NT&ALLIANCE 映像制作ユニット マネージャー 兼ゼネラル・プロデューサー 岡田 康弘 氏 *ProceedMagazine2022-2023号より転載

Music

TOHOスタジオ株式会社 ポストプロダクションセンター2 様 / アジア最大規模のS6を擁したダビングステージ

長年に渡り数々の名作を生み出してきた東宝スタジオ。その中でも歴史あるポストプロダクションセンター 2 に設けられた国内最大規模のダビングステージ2 で、アジア地域で最大規模の構成となる Avid S6 へのコンソール更新が行われた。竣工からまだ間がない今、ブラッシュアップされたそのシステムの内容についてお伝えしていく。 72フェーダー、デュアルヘッド構成のAvid S6 歴史あるダビングステージで、これまで長年使用されて きた AMS Neve DFC2 から Avid S6 へと更新が行われた。今回導入 の Avid S6 は国内はもちろん、アジア地域で見ても最大規模の構成 での導入となる。その構成は横幅14フレームと巨大なもので、そこに72フェーダー、デュアルヘッド構成でモジュールが収まる。フェーダー数に関しては従来のDFC2と同数を確保し、さすが、映画のダビングコンソールといえるフェーダー数を持つ迫力のサイズとなっている。そして今回はサラウンド作業がメインとなるということでジョイスティックモジュールも導入された。Avid S6となったことで、レイアウト機能やスピルフェーダー機能などを活用し、従来以上のワークフローに対する柔軟性を確保している。 改めて確認をしたのだが、東宝スタジオが現在の世田谷区砧に誕生したのは、今から90年前の1932年。今回Avid S6を導入することとなったポストプロダクションセンター2は、以前は東宝サウンドスタジオ、さらにその前は東宝ダビングのダビングビルと呼ばれていた1957年に完成された建物である。60年以上の時を、まさに日本映画の歴史とともに歩んできたダビングステージ。「七人の侍」の黒澤明監督の作品や、ゴジラシリーズ、「シン・ウルトラマン」に至る多岐にわたる映画が作られていたと思うと非常に感慨深いものがある。内装は何度も改装を行っているということで完成当初の面影は無いとのことだが、以前はフィルムダビング(実際にフィルム上映を行いながらの劇伴録音)も行われていたということで、スクリーン前のひな壇はまさにその名残である。スクリーンを背にオーケストラが並び、指揮者が上映される映像を見ながら指揮棒を振る、そんな光景がここにはあったということだ。 潤沢に用意されたチャンネル数 システムもAvid S6となったことでブラッシュアップされている。従来は4台の再生用(プレイアウト)のPro Tools(セリフ用、音楽用、効果音用2台)がMADIでDFC 2と繋がれミックスされていたが、今回の更新でミキシングエンジンとしてAvid Pro Tools HDX3システムを2式導入、それぞれに192chのI/Oを持ち、相互にMADIで接続されたシステムとなっている。やはり、Avid S6をコンソールとして運用すると考えた際には、ミキシングエンジンとしてPro Toolsを選択するというのが一般的、Avid S6の製品自体のコンセプトにも則ったシステムアップとなる。また、ミキシングエンジンとして導入されたPro Toolsと既存のPro ToolsすべてのI/Oを今回の更新に併せてAvid MTRXへと統一している。メンテナンス性、障害時の入替のたやすさなどを勘案し、すべてのオーディオ・インターフェースがMTRXへ統一された。それぞれのAvid MTRXはMADIで接続され、ユーティリティーとして1系統ずつがパッチへと取り出されている。これにより、Pro Tools内部でのIn The Boxミキシングを行う際にも、MADIのパッチをつなぎ替えるだけでシステム変更が出来るようになっている。 改めてシステム全体を信号の流れに沿ってご紹介していきたい。まず、再生用のPro Toolsが4台、それぞれPro Tools HDX2仕様となる。映画ダビングでは、セリフ用(ダイアログ:Dialogue)、音楽用(ミュージック:Music)、効果音用(エフェクト:Effect)それぞれの再生用にシステムが準備される。これは、それぞれ個別に仕込んできたものを別々に出力できるということだけではなく、修正などが入った際にもそれぞれ個別にパラレルでの作業を行うことができるというメリットもある。効果音は、多数のトラックを使うことが多いため2台のPro Toolsが用意されている。サウンド・エフェクト、フォーリーと分けて使ったりすることも多いとのことだ。音楽用以外のセリフ、効果音用の3台のPro Toolsは同一の仕様となっている。Avid Pro Tools HDXカードから、4本のDIgiLinkケーブルでAvid MTRXへと接続され、それぞれに128chの出力を確保している。この128chの出力は、2本のMADIケーブルでミキサーへと送られる。 そんなに多くのチャンネルが必要なのか、と考える方もいるかもしれないが、サラウンド作業ということもあり、ある程度まとめたステムでの出力を行うことも多い。そうなると、5.1chのステム換算としては、21ステムということになる。同じ種類のサウンドをある程度まとめた中間素材となるステム。例えばドラムステムであれば、音楽ミックスで言うところのドラムをまとめたドラムマスタートラックをイメージしてもらえるとわかりやすいだろう。また、映画の作業でステムを多用するケースとしてはパンニングがある。あらかじめパンニングで移動をするサウンドを、モノラルではなくステムで出力することで事前に仕込んでおくことができるということだ。こうすることで、ミキシングコンソールではボリュームの調整をするだけで作業を先に進めることができる。 📷 本文で解説したスタジオのシステムを簡易に図としたものとなる。非常に多くの音声チャンネルを取り扱うことができるシステムであるが、その接続は想像よりもシンプルに仕上がっているということが見て取れる。各MTRX間のMADI回線は、すべてパッチベイを経由しているため、接続を変更してシステムの構成を簡単に変更することができる。図中にすべてを記載できたわけではないのだが、各MTRXはMADI及びAESがユーティリティー接続用としてパッチ盤へと出力されている回線を持っている。そのため持ち込み機器への対応などもMTRXのパッチを駆使することで柔軟に行うことができるように設計されている。 データをアナログという線形の無限数に戻す 話を戻して先程の紹介から漏れた音楽用のPro Toolsのシステムをご紹介しよう。このPro ToolsはHDXカードから2本のDigiLinkケーブルでMTRXに接続され、64chの出力を確保している。音楽用のPro Toolsシステムだけは、Avid MTRXに32ch分のDAカードを装着している。ここから出力された32chのアナログ信号は、RME M-32ADへ接続されている。そしてRMEでADされMADIに変換された信号がその後のミキサーへ接続されることとなる。 📷 ユーティリティー用のRME M-32 AD/DAがこちら。32chのAnalog-MADI / MADI-Analogのコンバーターである。システムのデジタル化が進んではいるが、まだまだ外部エフェクターなどアナログでの接続はゼロにはならない。DAWごとの持ち込みでアナログ出力を受けるといったケースもあるだろう。 なぜ、一度アナログに戻しているのかというと、デジタルからの「縁を切る」ということが目的だ。音楽は96kHzで仕込まれることが多い。しかし、映画のダビングのフォーマットは48kHzであることが基本である。これは最終のフォーマットが48kHzであることも関係しているが、システム的にもMADIをバックボーンとしているために96kHzにすると、やり取りできるチャンネル数が半減してしまうということも要因にある。こういったことから生じるサンプルレートの不整合を解消するために、一旦アナログで出力をして改めてシステムに則ったサンプルレートのデジタル信号とする、ということが行われている。PC上でファイルとして変換してしまえばいいのではないかとも考えられるが、アナログに戻すという一見面倒とも言える行為を行うことによるメリットは、音質といういちばん大切なものに関わるのである。 デジタルデータ上で単純に半分間引くのではなく、アナログという線形の無限数にすることで、96kHzで収録されてきた情報量を余すこと無く48Khzへと変換する。結果は限りなくイコールかもしれないが、音質へのこだわりはこういった微細な差異を埋めることの積み重ねなのではないだろうか。音楽のチャンネル数は96kHzでDA/ADの回路を経由する場合には32ch、48kHzであれば、そのままMADIケーブルで64chがミキサーへと送り出せるようにシステム設計が行われている。 膨大なチャンネル数をマネジメントする 再生用Pro Toolsは、セリフ・音楽用のミキサーPro Tools、効果用のPro Toolsそれぞれのオーディオ・インターフェースとして用意されているAvid MTRXへと接続される。ミキサーPro ToolsはいずれもHDX 3仕様で、6本のDIgiLinkケーブルで192chの回線が確保されている。セリフ128ch+音楽64ch=192chこちらは問題ないのだが、「効果音1:128ch」+「効果音2:128ch」=256ch、こちらに関しては再生機側ですべてのチャンネルを使われると信号を受け取り切れないということが起こってしまう。Pro Toolsシステムとしての上限があるため仕方のないところなのだが、合計が192chとなるように再生側で調整を行い、Avid MTRXの入力マトリクスで受け取るチャンネルを選択する必要がある。それぞれのミキサーPro Toolsはその内部でミキシングを行うさらにまとまったステムをそれぞれ2本のMADIケーブルで128chを出力する。 ミキサーから出力された信号は、最終のレコーダーとなる録音用Pro Toolsで収録される。このPro Toolsは HDX 2仕様で128chの入出力となる。ここでもセリフ・音楽用ミキサーPro Toolsからの128ch、効果用ミキサーPro Toolsからの128chの合計256chのうち、128chを収録するということになる。それならば、それぞれのミキサーPro ToolsからMADIケーブル1本、64chずつという想定もあるが、それではセリフ・音楽が30ch、効果音が90chといったパターンに対応できない。そのためにこのような接続となっている。 📷 セリフ(ダイアログ)用のデスク。作業のスタイルに併せて移動可能な仕組みとなっている。Pro Toolsの操作画面はIHSEのKVMエクステンダーが用いられ、パッチで操作デスクの入替えが可能なようになっている。 📷 音楽用のデスク。こちらのデスクもセリフ用と同様に、作業に併せて操作するPro Toolsを変更したり、位置を移動したりすることができる。 収録機の次に接続されるのはモニターコントローラーである。収録したミックスを聴くのか、ステムを聴くのか、モニターソース切り替えやボリュームコントロールを行っているのがこちらも今回新規導入となっったTACsystem VMC-102IPである。従来のVMC-102からDante対応となり「IP」という文字が加わっている。従来のVMC-102はMADI2系統が用意されていたが、IPとなったことでDante1系統、MADI 1系統へと変更されている。今回はMADIでの運用となるため64chの信号がVMC-102IPへと接続されている。その中で選択可能な最大数のステムをプリセットとしてモニターソースに設定している。5.1chであれば10ステム、7.1chであれば8ステムといった具合だ。ここでボリューム調整された信号はスピーカー駆動系のB-Chainへと送られる。 ここから先の系統は既存のシステムをそのまま使っているが、この部分もご紹介しておこう。VMC-102IPからのMADI信号は一度Avid MTRXへと戻り、DAされアナログ信号として出力される。B-Chainの入口であるRME ADI-8 QSでデジタル(MADI)へと変換され、モニタープロセッサーとして導入されているTrinnovへ。ここでレベル、EQ、ディレイなどの補正 / 調整が行われる。その先はDAコンバーターであるRME M-16DAでアナログに戻され、それぞれのスピーカーを駆動するパワーアンプへと送られている。もうひと部屋のダビングステージでもTrinnovが導入されているということもあり、同一の補正用のプロセッサー製品を使用するということで、サウンドキャラクターの統一を図っているということだ。 📷 左手前にモニターコントロール用のVMC-102IP、そして、サラウンド作業の効率を上げるS6ジョイスティックモジュールが収まる。デュアルヘッド構成のためマスタータッチモジュールが2つあるのが特徴的だ。コンソールの奥には、サラウンドメーターである8連のVUメーターDKtechnologies MSD-600が設置されている。 📷 コンソールを背面から見たところ、S6の後ろ姿もスッキリとした格好だ。また、ダビングステージならではとなるディフューズサラウンドのスピーカーが壁面に取り付けてあるのも確認できる。両サイドの壁面に4本、背後の壁面に4本のサラウンドスピーカーが設置されている。背後の壁面の黒い窓が映写窓でここからプロジェクターでの投影を行なっている。 📷 今回更新された「ダビングステージ2」がある歴史あるポストプロダクションセンター2。過去の東宝映画作品の中でもその姿を見ることができる。この3階建ての建物の3階まですべての空間を吹き抜けにした天井高の高いダビングステージがこの中にある。 今回更新されたシステム部分を詳細にご紹介してきたが、映画のダビングシステムがどのようなものなのかイメージいただけただろうか。チャンネル数の少ない作品や、ワンマンオペレートに近い作品などでは、ミキサー用のPro Toolsがスキップされ、再生用のPro Toolsから録音用のPro Toolsへと直接接続されるといった運用も考えられる。もちろんシステムとしては、そういった運用も見越してすべてのAvid MTRX間のMADIはパッチ盤に上げてある。それ以外にも持ち込み機器や、外部エフェクトの接続用にRME M-32AD / M-32DAをそれぞれ1台ずつユーティリティー用としてスタンバイしてある。AVid MTRXの持つAES/EBUの入出力と合わせて、様々な運用に対応可能だ。 今後、実際に更新されたシステムを運用してみてのご感想やAvid S6での映画ダビングの作業、そういったワークフローに関わる部分について現場のスタッフ皆さんのご意見も是非お聞かせいただきたいと考えている。伝統あるステージに導入された最新のミキシングシステムからどのような作品が生み出されていくのか、またレポートさせていただきたい。   *ProceedMagazine2022-2023号より転載

Post

株式会社Cygames様 / 大阪サウンド部 エディットルーム〜妥協ないコンテンツを生み出していく、7.1.4ch可変レイアウト2スタジオ

2011年、第一弾タイトル「神撃のバハムート」を皮切りに、これまで「グランブルーファンタジー」、「Shadowverse」、「プリンセスコネクト!Re:Dive」、「ウマ娘 プリティーダービー」などのゲームタイトルをリリースしてきた株式会社Cygames。その中でも、コンシューマー・ゲーム機向けのコンテンツ制作を主に行う大阪拠点においてDolby Atmos 7.1.4chに対応したスタジオが同時に2部屋開設された。まだまだフォーマットも定まらず過渡期だというゲーム制作のイマーシブ分野において、進取の取り組みが始まった大阪Cygamesサウンド部 エディットルームをご紹介していく。 2つのエディットルーム 大阪Cygames サウンド部エディットルーム(以下、大阪エディットルーム)は梅田中心部、交通アクセスもよく大阪Cygamesの第一拠点の近くに位置する。今回新設された大阪エディットルームはDolby Atmos対応のスタジオが2部屋という構成となり、大阪Cygamesにおけるリスニングスタジオとして機能することになる。Cygamesの東京拠点では、既にエディットルーム(以下、東京エディットルーム)が6部屋稼働しているが、大阪Cygamesで制作中である「GRANBLUE FANTASY: Relink」がサラウンド対応コンテンツとなり、同じようなスタジオの必要性を感じていたことからプロジェクトが開始されることとなった。 現状、スマートフォン向けコンテンツではステレオが基本となっており、コンシューマー機等でのゲームについてはサラウンド対応といったところで、ゲームにおけるイマーシブオーディオについてはどのようなフォーマットがスタンダード化していくのか今後の動向を窺っている状況にあるという。イマーシブオーディオに注目し始めたきっかけはMicrosoftがWindowsとXBOXでDolby Atmosをサポートしたことだったそうだ。コンシューマー・ゲーム機からの視点ではSony PlayStationはHDMIからのイマーシブ系の実出力には対応せず、バイノーラル系の技術で進むなど、大手を振ってこれからはDolby Atmosとは言えない状況ではあるが、現時点ではDolby Atmosがもっともスタンダードに近い存在であり、まずはそれに取り組むことが必要であるとのこと。さらには、Sonyから360 Reality Audioも発表されたため過渡期は引き続きとなるが、新たな規格が登場してくるとそれだけイマーシブオーディオが織りなすゲームの世界がどのように発展するのか期待も高まる。 すでに、5.1chのコンテンツを制作しているが再生環境が整っている家庭はまだ少なく、作り上げたサウンドがプレイヤーに伝わっているのだろうかという歯痒さを感じているそうだ。それでも、イマーシブオーディオという素晴らしいコンテンツを見過ごすわけにはいかないので、5.1ch / 7.1ch / Dolby Atmosを取り入れ妥協することなくゲーム開発に挑戦し続ける。こういった取り組みにも「最高のコンテンツを作る会社」というビジョンが見えてくる。 📷 エディットルーム A 📷 エディットルーム B そして、今回竣工したのがこのエディットルームだ。こちらはインゲームでサラウンドを正確にリスニングすることが主な用途となっており、エディットルームA/Bという同じDolby Atmos 7.1.4ch対応の2部屋を設置することで、同時に作業ができるよう運用面での効率化が図られている。なお、エディットルームA/Bでは異なったオペレートデスクが設置されており、ルームAは固定デスク、ルームBは可動式デスクとなっている。ここにエディットルームの個性が隠されており、ルームBのデスクを移動することによりルームAはコントロールルーム、ルームBは収録スタジオのレイアウトに可変することができる。そのため、主な目的はリスニングとなってはいるが、ナレーションなども収録できるシステムを備えており、マイクプリアンプなどアウトボード系の機材も充実したラインナップが用意された。 📷 一見だけすると全く同じ部屋の写真に見えてしまうのではないだろうか、左ページが大阪Cygames エディットルームA、右ページが同じくエディットルームBの様子となる。両部屋をつなぐ窓の位置、そしてデスクとラックの形状をよく見るとお互いが連携している隣り合ったスペースであることがわかる。また、本文中でも紹介した通り、エディットルームBを収録スタジオとして使用できるようにBのデスク・ラックは可動式とされており、ナレーション収録など作業のシチュエーションによっては上図のように役割を変化させて制作を進行することができる仕組みだ。 基準となる音場 東京エディットルーム竣工時、様々なブランドのモニタースピーカーの比較試聴を行い、GENELEC The Onesシリーズを採用した。元々GENELECには高低音が強調されるようなイメージを持っていて、本命のブランドではなかったというが、The Onesシリーズを試聴した際にそのドンシャリというネガが消え、非常に良いイメージに変わったとのこと。また同軸スピーカーならではの定位感も高く評価を得ている。その流れを汲み、大阪CygamesエディットルームでもGENLEC 8331AWが採用される運びとなった。 大阪CygamesのスピーカーキャリブレーションはMTRX SPQスピーカープロセッシングを採用している。PCなどの機材が全て常設であるため、竣工時に日本音響エンジニアリングによる音響調整を行い、サウンド部スタッフ全員が同じ環境でモニタリングできるスタジオを作ることができた。なお、先立って稼働している東京エディットルームではGENELEC GLMを採用して音響調整を行なっており、PCやオーディオI/Fなど機材を持ち込むことが可能で、言わばフリースペースのような感覚で使用できるようになっている。そのため、GLMで手軽にオートキャリブレーションできるというメリットを活かしているが、状況によりリファレンスが変わるため、基準となる音場の必要性を感じていたそうだ。今回の大阪エディットルームではPCほかの機材を常設設備にして音響調整を重要視した理由がここにある。 📷 GENELEC 8331AW、Cygamesのコーポレートカラーであるホワイトのモデルをセレクト、ハイトスピーカーとして天井に吊られている。写真下はGENELEC 7350APM。スピーカーシステムと部屋のサイズを考慮し、8インチのサブウーファーが設置されている。 システムの柔軟性 大阪エディットルームでのメインDAWはOM Factory製Windowsマシンで稼働するSteinberg Nuendoとなっている。ゲームの開発環境がWindowsベースとなるため、Windows用DAWとして安定しているNuendoに信頼感があること、また、Nuendoに備えられた「Game Audio Connect」でミドルウェアのWwiseと連携できることは、膨大な音声ファイル数となるゲームのサウンド制作においては大きなメリットとなる。 一方、東京・大阪の各スタッフが使用しているDAWソフトウェアは多種多様で、スタッフ本人の意向に沿ったソフトウェアをそれぞれ導入しているとのこと。Avid Pro Tools、Apple Logic Pro、Steinberg Cubase、PreSonus Studio One、中にはAbleton Liveを使っているスタッフもいるそうだが、スタジオでの作業用として、また社外とのやり取りのためにPro Toolsは共通項。大阪のサウンド・デザイン・チームでは、ゲームサウンド制作に長年携わり、WindowsでNuendoという環境に慣れ親しんだ方が多く、今回のメインDAWについてもNuendoが採用されたのはごく自然な流れだったようだ。 📷 エディットルームAのカスタムオペレートデスク。ノンリニア編集に適するようフリースペースの広い形に設計されている。正面左手はRUPERT NEVE DESIGNS/SHELFORD CHANNEL、George Massenburg Labs / 2032、Empirical Labs/Distressor (EL-8)、Eventide/H9000 Harmonizerを、右手にはVertigo Sound/VSM-2 Full、SPL/Stereo Vitalizer MK2-T (model 9739)がマウントされている。直接操作することが少ないOM Factory製のDAW用PCやAVID Pro Tools|MTRX などは足元に収納されている。 なお、エディットルームでの中核となっているのがAvid MTRXとなっている。もちろんMTRXはProToolsで使用するイメージが強いのだが、多機能なオーディオルーティングやコンバーターとしての顔を持っており、NuendoをメインDAWとした大阪エディットルームでも中核機材として導入されている。今回の例では、各DAW PCに搭載されているYAMAHA AIC128-DからDanteで出された信号がMTRXに入り、スタジオ内のモニタースピーカー、コミュニケーション、アウトボードへアナログ信号で送信されている。また、持ち込みPCによるオペレートも想定しており、持ち込みPC用I/FにRME Fireface UFX+を設置。Fireface UFX+MTRX間はMADI規格が用いられている。 各サウンドデスクやエディットルームへの信号はDanteで張り巡らされており、スタジオ内でのルーティングはDADmanで行い、システム全体のルーティングはDante Controllerで行う、という切り分けがなされている。メインスピーカーのボリュームコントロールはNTP Technology MOM-BASEを用いてMTRXをリモートしているシステムとなっている。このシステムを実現するためという点でも、DAWを選ばず柔軟なシステムに対応するMTRXが選定される理由となった。 オペレートの多様性 今回新設の大きな要望として「4Kの画面をどこでも映せる、どこの4Kの画面でもどこにでも持っていける」、「どの音をどこでも聴ける」というテーマがあった。そのコンセプトに沿って、映像信号はADDERのKVMで、音声はDanteで、という役割分担が行われ、各サウンド部スタッフのデスクとエディットルームの音声および映像信号をやり取りするシステムが構築されている。すべてのデスクにKVMおよびDanteインターフェースが用意されており、各デスクで作業をしながらエディットルームの音声をリスニングしたり出力すると同時に、4Kの映像も映し出すことが可能となっているわけだ。 なお、その際HDMIにエンべデットされているDolby Atomsの信号をどのように各ルームとやりとりするのかが課題となっているのだが、配管の問題もあり実線を張り巡らせるのは現実的ではない。AVアンプを駆使してアナログ音声をデエンベデッドする構成もあるが、映像と音声のズレが発生しないかなど現在も検証を続けているところだ。また、映像と音声の垣根を超えるDante AV規格も選択肢の一つではあるが、現在の条件下でHDMIからDolby Atomsのチャンネル数を同時に転送することは難しいため、こちらはDante AV規格自体の発展に期待が寄せられる。ほかにも、機能拡張として各デスクでDolby Atomsをリスニングできる構想など、いまも将来に向けてスタジオ自体が成長し続けていると言えるだろう。 シンプルかつ多機能な機材レイアウト 竣工当時からの課題ではあったが、スペースの都合上でマシンルームを設けることができなかった。そこで、起動音が小さい機材はエディットルーム内に収納、スイッチングハブなどの起動音が大きい機材はスタジオ外にあるラックケースへ収納することで解決を図っている。結果的に、主だった機材がすべてスタジオ内で操作が可能で、ステータスなども目視確認ができるというメリットも生まれた。ここ近年の機器の進歩によって抑えられた起動音や、MTRXのオールインワン性を活かし必要最小限の機材構成としたからこそ実現できた機材レイアウトである。また、エディットルームAは常設のデスクとなる為、収録時でもストレスなく機材の操作ができるように手元にアウトボード系の機材が設置されている。メモや台本などを置けるスペースも広く、ノンリニア編集の理想的なオペレートスペースを作ることができている。 📷 起動音を考慮し静音ラックに収納され、スタジオ外に設置されたスイッチングハブ YAMAHA/SWR2310-10G。各エディットルームとサウンドデスク間を繋ぐDanteの信号処理を行う中核として機能している。また、左写真は別途に設けられたフォーリースタジオの様子だ。 施工にあたってはデザイン面も重要な要素となった。コーポレートカラーであるブラック / ホワイトを基調としたスペースからスタジオに入ると、内装にフローリングの床面やダークブルーを用いた落ち着いた空間が演出されている。オペレートデスクやスピーカースタンドもすべてカスタムオーダーとなっており、素材選びの段階から製作が行われたとのこと。特に、壁紙のカラーなどは大阪Cygamesが注力して開発している『GRANBLUE FANTASY: Relink』の空を意識した青が基調にされており、より制作しているコンテンツの世界観に没入して制作を進めることができそうだ。ゲーム開発ではどうしても自席でのデスクワークがメインとなるが、根本にはエディットルームをいっぱい使って楽しんで欲しい、リラックス感が感じられるように、という思いがあり、それがデザインに込められている。スタッフのモチベーションを上げるということも目的として重視されているということだ。 📷 右:株式会社Cygames サウンド部マネージャー 丸山雅之 氏 / 左:株式会社Cygames サウンド部サ ウンドデザイナー 城後真貴 氏 経験豊かなクリエイターによって一貫したクオリティでコンテンツ制作を進める大阪サウンド・デザイン・チーム。そのクオリティの基盤となるスタジオが新設されたことで、制作ワークは一層の飛躍を遂げることになるだろう。もちろん、ゲームサウンドにおけるイマーシブ制作といった観点でもここから数々のノウハウが生まれていくに違いない。ソーシャルゲームのみならずコンシューマー・ゲームの開発やアニメ制作、漫画事業など幅広い分野でコンテンツをリリースする株式会社Cygames。その「最高のコンテンツを作る会社」というビジョンの通り、妥協ないコンテンツを生み出していくための拠点がここに完成したと言えるのではないだろうか。   *ProceedMagazine2022-2023号より転載

Media

【MIL STUDIO技術解説】MIL誕生に寄せて〜鑑賞から体験へ 選択から多様の未来へ〜

チャンネルが少なくなければできないことがある。チャンネルが多くなければ分からないことがある。 オーディオの世界を支配するチャンネルとはいったい? 【技術解説】MIL誕生に寄せて〜鑑賞から体験へ 選択から多様の未来へ〜 中原雅考(株式会社ソナ / オンフューチャー株式会社) 📸 株式会社ソナ / オンフューチャー株式会社 中原 雅考 氏 芸術と工学の融合 スタジオと同じ音で作品を聴いてもらいたい。原音忠実再生といった希望は、多かれ少なかれ音響コンテンツ制作者にとっての願いだと思います。しかし、そのためには、ユーザーもスタジオと同じような環境にスピーカーを設置して作品を試聴しなければなりません。今や時代は多様化し、ユーザーの試聴環境は2chかサラウンドかといった単純な選択肢ではなくなっています。ともすれば、この作品はこのように聴いて欲しいといった制作者の強いこだわりが、ユーザーに対しての不用意な圧力になってしまうかもしれません。本来、作品には自由な表現が与えられるべきだと思いますが、オーディオでは、2ch、5.1ch、7.1.4chなど再生チャンネルの形式によって異なる流儀が要求されてしまいます。そのような制限は、工学が芸術を支配しているような関係にも見えてしまいます。 素晴らしい技術をもったエンジニアがスタジオでつくり出す音は最高です。その素晴らしさを多くのユーザーに伝えたいと思い、スピーカーの設置方法、調整方法、部屋の音響のことなどを様々な場面で伝えてきました。しかしそれは、ユーザーにとっては「高級な鮨屋で食べ方を指導されながらおいしさを味わっている」ような世界かもしれません。どうやら、今一度オーディオと出会った頃のユーザー体験に立ち返る必要がありそうです。工学による芸術の制限を緩和すべく、より一層の芸術と工学の融合を目指して… 誰もが気軽に良さの分かるオーディオ再生とは? 作品やユーザー(聴取者)が主役になるためのオーディオとは? 「モノ」「ステレオ」

Media

完全4π音響空間で描く新たな世界の始まり。〜フォーマットを越えていく、MIL STUDIO〜

MIL=Media Integration Lab。絶えず時代の流れの中から生まれる、我々Media Integrationのミッション。創造者、クリエイターと共に新しい創造物へのインスピレーションを得るために、昨今の空間オーディオ、3Dサウンド、多彩なフォーマット、様々な可能性を体験し、実感する。そのためのスタジオであり、空間。2021年にオープンしたライブ、配信、エキシビジョンといった皆様とのまさに「ハブ」となる空間「LUSH HUB」に続き、次世代の音響、テクノロジーと体験、共有するための空間としてMILは誕生した。43.2chのディスクリート再生で実現した下方向のスピーカーを備えた完全4π音響空間。研究と体験、そこから得られるインスピレーション。それを実現するためのシステム、音響、これらをコンセプト、テクノロジー、音響など様々な切り口からご紹介していきたい。一つの事象に特化したものではないため、掴みどころがなく感じるかもしれない。しかしそれこそが次のステップであり、新しい表現の始まりでもある。 「4π」での感覚で描かれた音楽を まずは、MIL(ミル)のコンセプトの部分からご紹介していきたい。長年2chで培われてきた音楽の表現。それは今後も残ることになるが、全く異なった「4π」での感覚で描かれた音楽が主体となる世界が新たに始まる。私たちはそのターニングポイントにあり、このMILは「進化し続けるラボ」として今後誕生するであろう様々なフォーマット、3Dの音響を入れるための器、エンコーダー、デコーダーなど様々なテクノロジーを実際に再生し体験し共有することができる。 そのために、特定のフォーマットにこだわることなく、可能性を維持、持続できる空間として設計がなされた。音響面に関しては、このあとのSONA中原氏の解説に詳細を譲るが、物理的な形状にとらわれることなく、今後進化を続けるように運営が行われていく予定である。スピーカー、音響パネルなどは、簡単に入れ替えられるようなモジュール構造での設計がなされており、かなり深い部分からの変更が可能だ。 また、MILならではの特徴として居住性にこだわった、というところは大きいだろう。各研究施設の実験室、無響室のような環境の方が、より正確な体験が行えるのかもしれない。しかしそのような空間は、まさに「Lab」であり、生み出された作品を「視聴」ではなく「検証」する場という趣である。もちろんそこに意味はあるし、価値もある。しかし、MILでは、作品自体をエンターテイメントとして受け取り、住環境にもこだわりゆっくりと楽しむことのできる環境を目指している。ユーザーの実際に近い環境での「検証」が可能であり、「視聴」を行うというよりコンテンツ自体を楽しむという方向での実験、というよりも体験が可能だ。このあとにも紹介する様々なプロセッサー、ソフトウェアを駆使して、いろいろな音環境でリラックスした環境で様々なコンテンツの視聴を行うことができる。 居住性にこだわりつつも、オーディオ、そしてビジュアルのクオリティーに妥協は無い。そのコンテンツ、作品の持つ最高の魅力を体感するために、最善と思われるオーディオとビジュアルのクオリティーを導入している。オーディオに関しては、水平よりも下方向にもスピーカーを配置した、現時点での音響空間のゴールとも言える4π空間再現による真の360イマーシブ環境を実現している。そのスピーカーにはFocal CIの3-Way Speakerを採用している。多チャンネル、イマーシブの環境では同軸のスピーカーが採用されることが多い。もちろん、2-way、3-wayといったスピーカーよりも物理的に点音源としてオーディオを出力する事ができる同軸スピーカーのメリットは大きい。しかし、設置の条件とサウンド・クオリティーを満たす同軸のユニットがなかったために、MILでは音質を重視して3-Way採用に至っている。スピーカー選定に際しては、ユニット自体の音圧放射の特性を調べ上げ、マルチチャンネルにふさわしいものを選定している。その測定の模様はこれまでの本誌にて株式会社SONA執筆の「パーソナル・スタジオ設計の音響学」に詳しい。 この部分に疑問のある方は、ぜひともMILで実際のサウンドを確認してほしい。イマーシブサウンド以降、立体音響=同軸スピーカー。この組み合わせは正しい回答ではあるが、絶対ではないということを知っていただけるはずだ。ビジュアルに関しても、最新の8K60P信号に対応したプロジェクター、そしてEASTON社のサウンドスクリーンの導入と抜かりはない。最新のテクノロジーを搭載した機材を順次導入していく予定である。多彩なフォーマットの体験の場として、またその体験を通しての学習の場として、あるいは創造の場としても今後MILを活用していく予定である。今後の情報発信、そして様々なコラボレーションなどに期待していただきたい。 📸 右写真にてご紹介するのはMIL STUDIOの設計・施工を手がけた株式会社ソナの中原 雅考 氏。後述となる同氏の技術解説も是非ご覧いただきたい。 43.2ch、4π空間をFocalで包む ここからは、MILにおけるシステムの特徴についてご紹介していきたい。何はともあれ、この大量のスピーカーが興味の焦点ではないだろうか。スピーカーは水平方向に30度刻みで等間隔に配置される。高さ方向で見ると5層。12本 x 5層=60本。それに真上と真下の2本が加わる。現状のセッティングでは、中下層は水平面のスピーカーのウーファーボックスが設置され、下方向も半分の6本のスピーカーを設置、真下もスタンバイ状況ということで、実際には43chのディスクリートスピーカー配置となっている。それに2本の独立したサブウーファーがある。これで43.2chということだ。 📸 L,C,R chは、上から1000 IW 6、1000 IW LCR UTOPIA、HPVE1084(Low Box)が収まる。間の床にあるのがSUB 1000F(LFE)である。 これらのスピーカーはFocal CI社の最新モデルである1000シリーズがメインに使われている。正面の水平面(L,C,R ch)には同シリーズのフラッグシップである1000 IWLCR UTOPIAが設置されている。Focalではラインナップを問わず最上位モデルにこの「UTOPIA」(ユートピア)というネーミングが与えられる。CI=Custom Install、設備用、壁面埋め込み型ということで設置性重視とも捉えられ、音質が犠牲になっているのでは?と感じられる方もいるかもしれないが、同社が自信を持ってUTOPIAの名前を与えているだけに、このモデルは一切の妥協が感じられない素晴らしいサウンドを出力してくる。 それ以外の水平面と上空のTop Layerには1000 IW LCR 6が採用されている。機種名にLCRと入っていることからもわかるように、メインチャンネルを担当することを想定した3-way+1 Pussive Radiatorを搭載したモデル。Hight Layerには1000 IW 6という2-wayのモデルが設置されている。1000シリーズは、FocalのProfessionalラインで言うところのSolo 6 Be、Twin 6 Beといったラインナップに相当する。同社のアイコンとも言えるベリリウムツイーター、'W'コンポジットサンドウィチコーンを搭載した製品である。すでに高い評価を得ているFocal Solo 6 Beと同等のユニット構成のモデルが1000 IW 6。そう考えれば、そのスピーカー群のクオリティーが想像しやすいのではないだろうか。 📸 L,C,Rch以外のスピーカースタンド。上から1000 IW 6、1000 IW LCR 6、HPVE1084(Low Box)が収まる。 ベリリウムで作られたインバーテットドーム・ツイーターのサウンドは、すでに語られ尽くしているかもしれない。その優れた反応速度、濁りのないピュアな響き、Focalのサウンドキャラクターを決定づけているとも言えるサウンド。そのクオリティーをMILではマルチチャンネル、イマーシブ環境として構築した。Focal CIの1000シリーズは、クローズドバックで厚さはわずか10cm程しかない。その特徴もこのような多チャンネルのスピーカー設置を行う際には大きなメリットとなっている。今後、追加で天井にスピーカーを設置したいといった要望にも柔軟に対応できることだろう。 床下のBottom Layerのスピーカーには300シリーズが採用されている。これは物理的な問題が大きく、300 IWLCR 6がサイズ的に合致したということでこの選択肢となった。この300シリーズは、Focal Professionalで言えばSHAPEに当たるラインナップ。ユニットも同等の製品が使われている。物理的なサイズの制約があったといえ、採用できる限りで最良の選択を行っている。このモデルは300シリーズ内でのフラッグシップとなる。1000 IWLCR 6と比べると一回り以上も小さなモデルだが、ダブルウーファーにより十分な量感のあるサウンドを再生することができる。独立したLFE用のサブ・ウーファーに関してだけは、民生のラインナップであるSUB 1000 Fが採用された。これは、ユニットの整合性を取るための選択であり、Middle Layerのウーファーユニットと同一のサウンドキャラクターを得るための選択である。見ての通り、ユニット自体は全く同一のユニットである。 📸 床下に埋め込まれた300 IW LCR 6。現在は6本が設置されているが、それ以外の箇所もキャビネットは準備されている。 📸 天井に専用設計されたリング状のスピーカーキャビネット。ユニットは1000 IW LCR 6が収まる。 イヤーレベルにあたる、Middle Layerのスピーカーには、全てサブ・ウーファー用のユニットが加えられ、3-way + 1 sub。2.1chシステム的に表記するならば、1.1chのような構成となっている。音色面で支配的になるイヤーレベルのスピーカーユニットに関しては、フルレンジとしての特性を持たせるためにこのような構成をとっている。1000 IWLCR 6で低域が不足するというわけではまったくない。このモデルは、カタログスペックとしても48Hz(-3dB)からとかなりワイドレンジでの再生が可能な製品である。これにサブ・ウーファーを組み合わせることで25Hzからのフラットな特性を持たせることに成功している。 まだまだ、イマーシブ・サウンドで制作されたコンテンツはイヤーレベルに多くの主要なサウンドを配置する傾向にある。5.1chサラウンドなどとのコンパチビリティーや、これまでの制作手法などを考えれば当たり前のことではあるし、主役となるサウンドをあえて高さを変えて配置するということに、今後もそれほど大きな意味が持たされるということは無いだろう。そういったことを鑑みてもイヤーレベルのスピーカーをこのような奢った仕様にするということは間違いではない。 FIR補正、55ch分のパワーアンプ、1300mのケーブル Focal CIのスピーカーは、全てパッシブである。そのため、このチャンネルと同数分のパワーアンプを準備することとなる。結果、必要なパワーアンプのチャンネル数はなんと55chにものぼった。2chステレオ仕様のアンプで準備をするとしたら28台が必要ということになるが、それほど多くのアンプを設置する場所は確保できないため、主要なスピーカーを4chパワーアンプとして、それ以外をInnosonix MA32/Dという2U 32chアンプを採用することとした。 主要スピーカーとは、イヤーレベルのMiddle Layerのスピーカー群であり、クロスオーバーを組む必要があるそのサブ・ウーファーの駆動用となる。これだけでも24本のスピーカーの駆動が必要であるため、4chアンプをアサインしても6台が必要となった。この6台には、Lab.Gruppen D20:4Lが採用されている。この製品は、アンプ内部にLAKE Processerが搭載されており、クロスオーバー、補正のEQなどをFIR Filterで行うことができる高機能モデルである。クロスオーバーがFIRでできるメリットの解説は専門家に任せることとするが、クロスオーバーで問題となる位相のねじれに対して有利であると覚えておいてもらえればいいのではないだろうか。 📸 Lab.Gruppen D20:4L それ以外のスピーカーを担当するInnosonix MA32/DもオプションでDSP Processer、FIR Filterを搭載することが可能であり、MILではそれらのオプションを搭載したモデルを導入している。これらのアンプにより、スピーカーの補正はFIRとIIRの双方を駆使することができ、より高度なチューニングを可能としている。また高さごとの各レイヤーのアンプの機種を統一することもできているので、それぞれの音色に関しての差異も最小限とすることに成功している。 📸 Innosonix MA32/D アンプとスピーカーの接続には、ドイツのSOMMER CABLEが採用された。ELEPHANT ROBUSTという4mm2 x 4芯のOFCケーブルが採用されている。同社の最上位のラインナップであり太い芯線により高い伝導率を確保している。芯線を太くしつつ外径は最低限にすることが重要なポイントであった、引き回しを行うケーブルの本数が多いため、その調整を行うために多くの苦労のあったポイントである。ちなみにMILで使用したスピーカーケーブルの総延長は実に1300mにも及ぶ。 これらのアンプまでの信号は再生機器から、全てDanteで送られる。多チャンネルをシンプルに伝送しようとすると選択肢はDanteもしくはMADIということになる。今回のシステムでは、パワーアンプが両機種ともにDanteに対応していたために、Danteでの伝送を選択した。クリティカルなライブ用途ではないために2重化は行っていないが、ケーブルはできる限り高品位なものをと考え、Cat8のケーブルでマシンラックからアンプラックまでを接続している。また、Dante用のEthernet SwitchはPanasonicのPoE対応の製品を選択。今後のシステム拡張時にも柔軟に対応できる製品をピックアップしている。 Avid MTRXで43.2chを一括コントロール ここまでで、B-Chainにあたる部分がDanteとパワーアンプ内のDSPで構成されていることをお伝えしてきたが、本システムで一番苦労したのがここからご紹介する、モニターコントローラー部分だ。まず、必要要件として43.2ch(将来的には62.2ch)の一括ボリューム制御ができる製品であることが求められる。これができる製品を考えるとAvid MTRXの一択となる。Avid MTRXのモニター制御部分であるDADmanは、最大64chの一括制御が可能、まさにちょうど収まった格好だ。 そして、MILの環境で決まったフォーマットを再生する際に、どのチャンネルをどのスピーカーで鳴らすのか?この設定を行うのがなかなか頭を悩ませる部分だ。Dolby Atmos、SONY 360Reality Audio、AURO 3D、22.2chなど様々なフォーマットの再生が考えられる。一段プロセッサーを挟んだとしても特定のフォーマットでの再生という部分は外せない要素だ。まずは、SONA中原氏とそれぞれのフォーマットごとにどのスピーカーを駆動するのが最適か?ということを話し合った。そこで決まったスピーカーの配置に対し、各フォーマットの基本となるチャンネルマップからの出力がルーティングされるようにモニターセットを構築していった。こうすることで、再生機側は各フォーマットの標準のアウトプットマッピングのまま出力すればよいということになる。 この仕組みを作ることでシグナルルーティング・マトリクスを一箇所に集中することに成功した。DADman上のボタンで、例えばDAW-Atmos、DAW-AURO、AVamp-Atmos、、、といった具合にソースをセレクトすることし、バックグラウンドで適切にシグナルルーティングが行われる仕掛けとしている。後で詳しく説明するが、再生系としてはDAWもしくは、AVampデコードアウト、SPAT Revolutionのプロセッサーアウトの3種類。それぞれから様々なフォーマットの出力がやってくる。これを一つづつ設定していった。そしてそれらのボタンをDAD MOMのハードボタンにアサインしている。 このようにしておくことでDADmanのソフトウェアの設定に不慣れな方でも、その存在を意識することなくソースセレクトのボタンを押してボリュームをひねれば適切なスピーカーから再生されるというシステムアップを実現している。なお、Avid MTRXはあえてスタンドアローンでの設置としている。もちろんPro ToolsのAudio I/OとしてDigiLinkケーブルで直結することも可能だが、様々なアプリケーションからの再生を行うことを前提としているため、MTRXはモニターコントローラーとしての機能にのみ集中させている。 市販コンテンツからマスター素材まで対応の再生系 📸 プロジェクターはJVC DLA-V90R。「8K、LASER、HDR」と現時点で考えうる最高スペックを持つフラッグシップモデル。EASTONのサウンドスクリーンと組み合わせて最高の音とともに映像にもこだわった。 次に再生側のシステムの説明に移ろう。市販のメディア、コンテンツの再生のためにPanasonic DMR-ZR1(Blu-ray Player)、Apple TVが用意されている。これらのHDMI出力はAV Amp YAMAHA CX-A5100に接続され、このアンプ内でデコードされプリアウトより7.1.4chで出力される。このAV Ampは近い将来STORM AUDIO ISP Elite MK3へと更新される予定だ。この更新が行われれば、更に多チャンネルでのデコードが可能となり、MILのさらなるクオリティーアップへとつながる。このSTORM AUDIOはAURO 3Dの総本山とも言えるベルギー、ギャラクシースタジオ、Auro Technologies社が立ち上げたAV機器ブランドであり、AURO 3Dの高い再現はもちろん、Dolby Atmos、DTS:X pro、IMAX Enhancedといった最新の各種フォーマットに対応している。更に24chものアナログアウトを備え、Dolby Atmosであれば最大11.1.6chという多チャンネルへのデコードを行うことができる強力なAV Ampである。本来は、各スピーカーの自動補正技術なども搭載されているが、MILでは、すでにSONAによりしっかりとスピーカーの調整が行われているのでこの機能は利用しない予定である。このAV Ampの系統では、Apple TVによる各種オンデマンドサービス(Netflix等)の視聴、Apple Musicで配信されている空間オーディオ作品の視聴、Blu-ray Discの視聴を行うこととなる。 📸 映像再生用のPlayerはPanasonic DMR-ZR1が奢られている。4K Ultra Blu-ray対応はもちろん、22.2chの受信(出力時はDolby Atmosに変換)機能などを持つ。 📸 AV ampとして導入を予定しているSTORM AUDIO ISP Elite mk3。Dolby Atmos、Auro 3Dといった市販のコンテンツの魅力を余すことなく引き出すモンスターマシンだ。 もう一つの再生システムがMac Proで構築されたPCからの再生だ。これは各マスターデータやAmbisonicsなどメディアでの提供がなされていない作品の視聴に使われる。現在スタンバイしているソフトウェアとしては、Avid Pro Tools、Virtual Sonics 360 WalkMix Creator™、SONY Architect、Dolby Atmos Renderer、REAPERといったソフトになる。ここは、必要に応じて今後も増強していく予定だ。 📸 Avid Pro Tools 📸 Dolby Atmos Renderer 📸 360 WalkMix Creator™ 📸 SONY Architect 📸 REAPER Dolby Atmos、ソニー 360 Reality Audioに関して言えば、エンコード前のピュアな状態でのマスター素材を再生可能であるということが大きなメリット。配信にせよ、Blu-ray Discにせよ、パッケージ化される際にこれらのイマーシブ・フォーマットは圧縮の工程(エンコード)が必要となる。つまり、Dolby Atmosでも360 Reality Audioでも、マスターデータは最大128chのWAVデータである。さすがにこれをそのままエンドユーザーに届けられない、ということは容易に想像いただけるだろう。Dolby Atmosであれば、Dolby Atmos Rendererの最大出力に迫る9.1.6chでのレンダリング、360 Reality AudioはMILのスピーカー全てを使った43chの出力が可能である(360 Reality AudioはLFEのチャンネルを持っていないため43chとなる)。特に360 Reality Audioの再生は他では体験ができない高密度でのフルオブジェクトデータのレンダリング出力となっている。オブジェクト方式のイマーシブフォーマットの持つ高い情報量を実感することができる貴重な場所である。 REAPERでは、MILの4π空間を最大限に活かす7th orderのAmbisonicsの再生ができる。7th Ambiの持つ4π空間の音情報を43chのスピーカーで再生するという、まさにMILならではの体験が可能だ。現状のセットアップでは、IEM AllRADecoderを使用してのチャンネルベースへのデコードを行っているが、他のソフトウェアとの聴き比べなども行うことができる。この部分もこれからの伸びしろを含んだ部分となる。各フォーマットのレンダリングアウト(チャンネルベース)を一旦7th Ambiに変換して43chに改めてデコードすると言った実験もREAPER上で実施することが可能だ。 それ以外に、Stereo音源の再生のためにiFI Audio Pro iDSDが導入されている。これは、DSD / DXD / MQA / PCM192kHzなど各種ハイレゾ素材の再生に対応したモデル。イマーシブ・サウンドだけではなくステレオ再生にも最高のクオリティーを追い求めたシステム導入が行われている。 スピーカーの仮想化、FLUX SPAT Revolution 📸 視聴空間としてではなく、ラボとして様々なフォーマットの変更を担うのがFLUX:: Spat Revolutionだ。OM FactoryでSPATの動作に最適にチューンされた、カスタムWindows PC上で動作をさせている。実際にMILで利用しているSpat Revolutionのスクリーンショットを掲載しているが、Dolby Atmosの入力をMILの43.2chにアサインしているのがこちらとなる。それ以外にも22.2ch、Auro 3DなどをMILのデフォルトとしてプリセットしている。 この2つの再生系統の他に、Core i9を搭載したパワフルなWindows PCがFLUX SPAT Revolution専用機として準備されている。これは、それぞれの再生機から出力されたレンダリングアウトに対し様々なプロセスを行うものとなる。具体例を挙げるとDolby Atmosであれば、理想位置から出力された際のシュミレーションを行ったりということになる。MILのTOPレイヤーは仰角34度であるため、Dolby Atmosの推奨設置位置である仰角45度とは11度ほど差異が出ている。これをSPAT上で仰角45位置へと仮想化するということである。水平面に関しても、実際に物理的なスピーカーが設置されていない水平角100度、135度という推奨位置へと仮想化することなる。 スピーカーの仮想化というと難しそうだが、シンプルに言い換えればパンニングを行うということになる。SPAT Revolutionでは、このパンニングの方法が選択できる。3Dのパンニングとして一般的であるVBAP=Vector-Based Amplitude Panningに始まり、DBAP=Distance-Based Amplitude Panning、LBAP=Layer-Based Amplitude Panning、SPCAP=Speaker-Placement Correction Amplitude PanningといったAmplitude Pan系のものと、KNN=K Nearest Neighbourが選択できる。これらは今後のバージョンアップで更に追加されていくと見込んでいるのだが、3Dパンニングのタイプを切り替えて聴き比べができるのもSPAT Revolutionならではの魅力だ。水平面であれば、シンプルなAmplitude Panで問題は無いが、3D空間に対しては、垂直方向のパンニング、立体空間に定位させるための係数の考え方の違い、など様々なファクター、計算をどのように行うのかというところに多様なメソッドが考えられており、SPAT Revolutionを用いればこれらの聴き比べができるということになる。更にMILでの実践はできないが、SPATにはオプションでWFS=Wave Field Synthesisも用意されている。 📸 SPATを動作させるOM Factory製カスタムWindows PC SPAT Revolutionは一般的なChannel-Baseの音声だけではなく、Scene-Baseの音声の取り扱いも可能である。具体的には7th order Ambisonics、バイノーラル音声の扱いが可能ということになる。これらScene-Baseのオーディオデータはさすがに直接の取り扱いというわけではなく、一旦Channel-Baseにデコードした上でSPATの自由空間内で各種操作が行えるということになる。ここで挙げたような3D Audioのミキシングのための様々な考え方は知っておいて損のないことばかりである。今後技術解説としてまとめた記事を掲載したいところである。 映像系統に関しては、AV ampに一旦全てが集約されInputセレクターとしても活用している。選択されたソース信号は、プロジェクターVictor DLA-V90Rに接続される。このモデルは、8k60p信号の入力に対応したハイエンドモデルである。これが、120inchのEaston E8Rサウンドスクリーンに投影される。PCの操作画面はKVM MatrixとしてAdder DDX10で制御され、1画面を切り替えて操作が行えるようにシステムアップされている。 以上が、MILにて導入された各機器である。文章としてはボリュームがあるが、実際にはAV amp以外は全てDanteでの接続のため、あっけないほどシンプルである。一本のEthernet Cableで多チャンネルを扱える、信号の分配など自由自在なルーティングが組めるDanteの恩恵を存分に活用したシステムアップとなっている。各機器がまさに適材適所という形で接続された、まさに次の世代への対応まで整えたと言っていい内容でシステムアップが行われたMILスタジオ。4πの空間再現、音を「MIL」という思いを込め実験施設とは異なった、じっくりと、ゆっくりと音を体験できる場となっている。 【LINK】MIL STUDIOの設計・施工を手がけた株式会社ソナの中原 雅考氏による技術解説 技術解説:MIL STUDIO   *ProceedMagazine2022号より転載 https://pro.miroc.co.jp/headline/proceed-magazine-2022/#.YxG8QezP0-Q https://pro.miroc.co.jp/headline/360ra-info-2022/#.YxG72ezP0-Q https://pro.miroc.co.jp/solution/360-reality-audio-360-walkmix-creator-proceed2022/ https://pro.miroc.co.jp/headline/comparison-of-atmos-360ra/#.YxG8EuzP0-Q

Media

株式会社IMAGICAエンタテインメントメディアサービス 竹芝メディアスタジオ様 / 〜五反田から竹芝への大規模移転、時代の区切りをいま目の当たりに〜

日本を代表するポストプロダクションであるIMAGICAエンタテインメントメディアサービス。その中でも古い歴史を持つ五反田の東京映像センターをクローズし、竹芝メディアスタジオへその機能を移転した。1951年より前身である東洋現像所 五反田工場としてスタートしてから70年余りの歴史に幕を閉じ、新しい竹芝の地でのスタートとなっている。特に映画の関係者にとっては、聖地ともいえる「五反田のイマジカ」。その施設と設備が竹芝でどのように構築されたのか、弊社で導入のお手伝いをしたMAを中心にお伝えしたい。 五反田から竹芝の新拠点へ 様々な映像関連サービスを提供する株式会社IMAGICA GROUP。その中の株式会社IMAGICAエンタテインメントメディアサービスの本拠地とも言える五反田の東京映像センターの設備を新拠点となる竹芝メディアスタジオへ移転させることとなった。五反田の地では、前身の東洋現像所時代より日本の映画制作における中心地としてフィルムを主軸としたサービスが展開されており、その試写室はまさに日本映画のリファレンスとも言われてきた。 昨今のフィルムでの撮影需要の動向により、五反田ではすでにフィルム関連のポストプロダクションサービスを行っていなかったが、2部屋の試写室は初号上映の場として日々活躍してきた。移転にあたっても試写室の設備を作るということで物件の選定には大きな苦労があったということだ。やはり試写室を作るとなると、十分な天井高を確保できる建屋が必要であり、それ以外の編集、ダビング、MAなどの設備もとなると、移転先を探すだけで数年がかりのプロジェクトになったということだ。移転先が決まってからは、非常にスピード感を持って話しが進んだのだが、まさにコロナ禍に突入したタイミングからの移転作業開始となり、多くの苦労がここにはあったそうだ。 5.1chからDolby Atmos Homeまで、高まるニーズ 📷 3F:MA:303 本記事で中心的にお伝えする303と呼ばれるMA室は、4部屋設けられたMA室のうちの1つでDolby Atmos Homeの再生環境を備えた部屋となる。ほぼ同等のサイズの305は、将来的にDolby Atmosの導入が行えるように準備がなされた5.1chの部屋。304、306は、303や305と比べると少し小さいサイズだが、この2部屋も5.1chサラウンドを備えた部屋となっている。五反田時代も仕込み専用の部屋も含めると4部屋が実際にはあったが、お客様をお招きできる部屋は2部屋しかなかったそうだ。竹芝では304、306は基本的には仕込み作業を行う部屋としているが、お客様をお招きしても問題のない設備となるよう設計されている。また、五反田時代に来客対応ができる5.1chサラウンドの部屋は1室の体制であったが、竹芝では全室5.1chサラウンド対応としたことでかなり柔軟な運用を可能としている。 📷 303室の機器が収まった3本のラック。MacProが4台。それぞれの動機を取るためのSync X、そしてAudio I/OはMTRXが設置されている。Pro Toolsは3Setが導入されているがMTRXは1台とし、MTRXの内部で全てがルーティングされたシンプルなシステム構成となっている。奥のラックにはスピーカーを駆動するためのLab.Gruppen Cシリーズのアンプが収まる。 今回Dolby Atmos仕様の部屋が1室、5.1ch仕様の部屋が3室と、サラウンド仕様の部屋を増強した形になっている。ここには、IMAGICAエンタテインメントメディアサービスとしてサラウンド作品の受注が増加しているという背景がある。放送向けの作品はステレオ中心ではあるが、それ以外にストリーミング向けの作品を手掛ける機会が増えているということ。昨今、ストリーミング各社が製作するオリジナルコンテンツは、5.1ch以上のフォーマットでの制作がほとんどであり、5.1chサラウンドの需要は高い状況が続いているとのこと。実際に303の部屋の稼働は半数程度が5.1ch作品になっているそうだ。お話を聞いた時点ではまだDolby Atmosの作品制作は行っていないということだったが、近い将来に予定されているとのことなので、この部屋からDolby Atmos作品が誕生する日は遠くない。前述の通り、同等の広さを持った305室には天井にスピーカー設置の準備までが行われているため、Dolby Atmosの需要動向次第では2部屋に設備を増強することが容易に行える。303にはDolby Atmos Homeのマスタリングを行うことができるDolby HT-RMU(Home Theater - Rendereing and Mastering Unit)が導入されている。これにより、仕上げまでしっかりとした環境で行うことができる設備となっている。 また、竹芝メディアスタジオでは、予算の関係でダビングステージに入れない場合や、映画のプリミックス作業を受注することもあるそうだ。通常のMA設備よりも広く設計したことにより、五反田の時に比べて劇場との差異を軽減できている。試写室との連携も同じ建屋内で完結できるため、直し作業後の確認などもスムースに行うことができるのは一つメリットと言えるだろう。MA室で仕上げた作品を試写室でチェックし、直しがあればまたMA室に戻る、そんな連携での作業も可能となっている。サラウンド作業についてで見ると、MAとダビングではスクリーンバックのスピーカー、サラウンド側スピーカーのデフューズ・サラウンドという点で再生環境に大きな違いがあるが、これをその環境が備わった試写室との運用連携で解消している。同じ建屋内で効率的にリソースを活用している格好だ。 📷 ナレーション収録からアフレコへの対応も考えられた、大きな容積が確保されたブース。アフレコ時には横並びで4名が入れるように設計が行われている。余裕のある空間なので、カメラを入れての収録など様々な用途での活用も可能だ。 音と純粋に向き合う、隠されたスピーカー 303室のスピーカーにはプロセラ社のモデルを採用、ローボックスと組み合わせて3wayの仕様での導入となっている。このスピーカーは移転に際して新しく導入したものだ。五反田で使っていたMusik RL900Aに慣れたお客様にどのように受け入れられるか、当初不安な部分もあったということだが非常に好評を得られているとのこと。写真を見ていただければわかるように、スピーカーは全てサランネットの裏に設置されておりその姿は普段は見えない。そのため、スピーカーは何を使っているのか?という問い合わせを作業後に受けることが多いということだ。これは「いい音だったので何を使っているのかが知りたい」という評価を裏付ける好意的な質問と言えるだろう。 📷 フロントバッフルに埋め込まれたスピーカーはProcella Audio P8と同社のSubWoofer P15SIの組み合わせての3Way構成。この組み合わせで、5ch全て同一のモデルで平面のサラウンドが設置されている。LFE ch用にはProcella Audio P15が2本、L、Rchそれぞれの外側に設置されている。Dolby Atmos用の天井スピーカーはProcella Audio P8が4本設置されている。写真では分かりづらいが、しっかりとセンターに軸を向けてアングルを付けて天井に埋め込まれている。 なお、スピーカーを隠したのは、スピーカーと向き合って音を聴くのではなく、そこで鳴っている音を純粋に聴いてほしいという思いから、あえて見えないようにしているとのことだ。サラウンドサイドなどでスピーカーがサランネットに隠されている環境はよく目にするが、フロント面も全て隠されているというのは新鮮さを感じる。大型のスピーカーは確かにその存在感が大きい。隠すことで音に集中してもらうという発想は今後も各所で取り上げられそうな印象を受けた。 プロセラに組み合わされるアンプは、Lab.Gruppenが採用されている。LAKEプロセッサーによるスピーカーチューニングが行えるということもあるが、サウンドのキャラクターがシャープで立ち上がりの良いサウンドだということもMAの作業には向いているということだ。やはり、余裕を持ってスピーカーを駆動するということを考え、アンプは出力的に一回り大きな容量のモデルを選定したということだ。 シンプルさと柔軟性を両立させるS6 + MTRX 📷 32Fader仕様のAvid S6カスタム。机面に対してアームレストがフラットに収まるようにカスタムデザインのデスクが用意されている。PC DisplayはAdder DDXにより、どの画面からも任意のPCを操作することができるように設計されている。 コンソールは、Avid S6が採用されている。これまではSSL Avantが使われていたが、移転に際しAvid S6の導入となった。2マン〜3マン体制での作業が多いということで、レイアウト機能、スピル・フェーダー機能といったフェーダーの並び替えにおいてAvid S6が持つ高いカスタマイズ性に注目していただき導入となった。複数のDAWをまたいで制御が行えるAvid S6は、ハリウッドで鍛え上げられた複数のエンジニアが並んで作業をするということに対して、様々な機能を持って応えてくれる。フェーダーのみの列を作ったり、必要とされる部分に機器を備えカスタマイズされた仕様となっている。このような盤面の構成の柔軟性もAvid S6がモジュール構造だからこそ実現する美点。必要なモジュールを必要な箇所に設置してセットアップができるようになっている。 また、3人目のエンジニア用にAvid Artist Mixも用意されている。Avid S6での作業も可能だが、独立したコントローラーで自由に作業を行いたい際には、Artist Mixも使えるという作業に柔軟性を持たせるための導入となっている。Dolby Atmos用のJoystickは、好きな場所に持ってきて操作ができるように独立したボックスに納められた、ステレオ作業の際には卓の後ろに隠しておけるコンパクトなサイズのものだ。 📷 コンソール左側のアシスタントデスクには、ヘッドフォンモニター用のtc.electronics BMC-2、Grace Design m908のコントローラーVTRリモコンなどが並ぶ。ダバーを操作したり、Dolby Atmos RMUを操作したりといった作業はこちらのデスクで行うことが多い。 📷 コンソールの左側は、3人目のエンジニアが来た際にAvid S6と切り離して作業ができるよう、Avid Artist Mixが設置されている。併せて個別でのヘッドフォンモニターができるようにtc.electonics BMC-2がここにも用意されている。 システムのバックボーンはAvid MTRXが受け持っている。3台のPro Toolsが常設されているが、1台のAvid MTRXでそのシステムは完結している。モニターコントロール部分は、全MA室のシステムを極力統一したいということもありGrace Designのm908が導入された。Avid MTRXはDAWシステム間のシグナル・ルーティングを受け持ち、最終段のモニターコントロールはGrace Design m908という流れだ。機器の収まったマシンルームの写真をご覧いただければ感じられる通り、複数のDAWが含まれるシステムでありながらも、非常にシンプルかつコンパクトにそれらがまとまっていることがご理解いただけるだろう。 VTRは、HDCAM SR 2台がMA用として設置されている。納品物としてVTRを求められるケースはかなり減ってきているということだが、まだアーカイブ、バックアップとしてテープが欲しいと言われることも多いということだ。2台のVTRはVikixのVideo Routerで信号が切り替えられるようになっており、全てのMA室から共用で利用できるように設計されている。 集約された機能がメリットを生む ここ、竹芝メディアスタジオには大規模なサーバーシステムが導入され、MA室からもそのサーバーへ接続できるようになっている。基本的に持ち込まれるデータが多いということもあり、サーバー上での作業は行わず編集、試写室、QCとのデータの受け渡しで活用しているとのことだ。なお、編集〜MA〜QCというポスプロ作業一式での作業を受ける作品が多いため、サーバーを介してのデータの受け渡しはかなり頻繁に行われている。五反田時代は建屋が別棟だったこともあり、ワンストップで作業を請け負っていたとしても、編集にはお客様が立ち会うがMAはお任せ、というケースが多かったが、竹芝に来てからは、フロアを移動するだけということもあり、MAにもお客様が立ち会われる機会が増えているということ。これは移転で機能が集約されたことによって出現したメリットの一つだとのこと。 これらのシステムは、かなり多くの部分が五反田からの移設で賄われている。アウトボード類、VTR、DAW用のPCなど移設対象の機器は多岐にわたったのだが、昨今の事情もありつつ、移転に際して非常に苦労の多かったのが「稼働を損なうことなく移設をどのように進めるか」であったという。そのため、スタジオ自体のダウンタイムを最低限に留めつつ新社屋への移転を行うために段階的な引っ越しが行われた。全ての機器を新設で賄うことができれば良いのだが、なかなかそのようなわけにはいかない。竹芝で五反田の機材以外の部分を仕上げ、五反田のシステムから竹芝へ機材を移動し、動作確認を行って即時に稼働させる。そのような段取りが部屋ごとに組まれたそうだ。 竹芝メディアスタジオ-フロアガイド 7フロアに広がる、大規模なポスプロ設備。カラーグレーディング&編集、スクリーンを使ったカラーグレーディング、オフライン編集、メディアサーバー室など様々な設備が一つのビルの中に整っている。広々としたロビーや多くのミーティングスペースなども設けられており先進的な印象を与える空間も多いが、その中でもサウンドに関連する設備をダイジェストでご紹介したい。 ●1F:第1試写室 / 第2試写室 📷 1F:第1試写室 📷 1F:第2試写室 100席という中規模なシネコンスクリーンクラスの座席数を備えた第1試写室。4K DLPのプロジェクターと、35mmのフィルム上映が可能な設備を備える。スクリーンはスコープサイズで横幅8.4m。第2試写室は、Dolby Cinema (Dolby Vision + Dolby Atmos)の再生に対応した設備を備えた試写室。Dolby Cinema対応のカラーグレーディング室としても活用される、ハイスペックな試写室である。音響面もDolby Atmosへの対応とともにDTS:Xへも対応。最先端のテクノロジーが導入された51席の試写室である。 ●3F:ダビング 📷 3F:ダビング 📷 3F:ダビング 映画館で上映されるコンテンツのミキシングに対応したスクリーンと、デフューズサラウンド仕様のダビングルーム。主には劇場予告編のミキシングが行われている。スピーカーとアンプは試写室と同じメーカーの製品に揃えられ、サウンドキャラクターの差異が最低限になるように設計が行われている。同規模の設備が2室用意されている。 ●3F:MA 📷 3F:MA 4室が設けられているMA。全ての部屋が5.1chサラウンド対応である(うち1部屋はDolby Atmos Home対応)。ネットワークでの社内サーバーへの接続により、各編集室、試写室とのデータの連携もスムーズになっている。部屋ごとの設備を出来得る限り統一することで、エンジニアの機器操作に対する負担を軽くするとともに、部屋ごとのサウンドキャラクターの統一を図っている。 ●6F:QC 📷 6F:QC 作品が完成したあとのマスターデータのチェックを行う設備である。ハーディングチェックなどにとどまらず、映像の影の有無、カット、編集のミス、音声のノイズ、音量のばらつきなど、機械では判断できないような部分までも要望に応じてチェックが行われる。Dolby Atmos / 4K HDRに対応した部屋が2部屋、5.1ch対応の部屋が3部屋。合計5室のQCルームがある。 様々な苦労が、裏にはあった五反田から竹芝への大規模な移転。そしてそれに伴い行われた様々なチャレンジ。新しいシステム、部屋、音環境、まさにこれから新しい時代がスタートすることを感じさせる大規模な移転である。これから映画の聖地となっていくであろう試写室、Dolby Atmosをはじめ最新メディアに対応したMA、一つの時代の区切りをいま目の当たりにしている、そう感じさせるものであった。   *ProceedMagazine2022号より転載

Post

株式会社東京サウンド・プロダクション様 / 〜Avid S4 最大サイズの24フェーダーを誰もが扱いやすく〜

半世紀を超える歴史を持ち、企画・制作・撮影・編集・MA・効果選曲等と、映像に関わるすべてを「ワンストップ」で提供できる総合プロダクションとしての地位を築いている「東京サウンド・プロダクション(TSP)」。2019年の機材更新にあたりFairlight EVOに代えて、同社初の大型コントロールサーフェスとなるAvid S4を導入した『MA-405』について、同社ビデオセンター MA課 テクニカル・マネージャー / ミキシングエンジニアの大形省一氏と同 チーフミキシングエンジニアの川﨑徹氏にお話を伺った。 積極的に取り入れられるテクノロジー テレビ朝日グループの一員である株式会社東京サウンド・プロダクション(以下、「TSP」)は、1963年に放送局における「音響効果集団」からスタートしている。今や、映像に関わるすべてをワンストップで提供できる総合プロダクションとなった同社だが、2017年には同じグループ企業である株式会社ビデオ・パック・ニッポンと合併し、放送技術に関わる分野、コンテンツ制作、販売という分野にも事業活動を広げている。テレビ朝日系列のものだけでも、地上波、BS、CS、YouTubeなどのコンテンツ制作を請け負っており、また、他局の番組制作や企業PV、自社制作コンテンツなど、さまざまなクライアントからの期待にまさに「ワンストップ」で応え続けている。 TSPのもうひとつの大きな特徴は、最新のテクノロジー / ソリューションに果敢にチャレンジし、それらを積極的に取り入れていこうという強い気概であるという。西麻布・六本木周辺に3拠点を構える同社だが、すべての拠点にAvid NEXISもしくはISISが導入されてネットワークサーバーで繋がっており、どの拠点のどのスタジオからでも任意のデータにアクセスできるだけの環境を整えているとのこと。拠点間を跨いでの制作であっても、データを入れたHDDを持ち歩くようなことはまずないようだ。最近も、コロナ禍という状況の中でクライアントの安全とスムーズな制作を両立するべく、異なるスタジオ間で遅延なくCue出しや収録が可能になるようなシステムを開発中とのこと。若手の層が厚いピラミッド型のスタッフ構成も、こうした姿勢を推進している様子だ。 そんなTSPの旗艦スタジオとも言える『MA-405』には、2021年の更新を機にAvid S4が導入されている。同社初となる大型コントロール・サーフェスの導入に至った経緯と、約半年間の使用感などを伺った。 コンソールミックスからDAWミックスへ 株式会社東京サウンド・プロダクション ビデオセンター MA課 テクニカル・マネージャー / ミキシングエンジニア 大形省一氏 株式会社東京サウンド・プロダクション ビデオセンター MA課 チーフミキシングエンジニア 川﨑徹氏 RockoN(以下、R):『MA-405』は以前はFairlight EVOを使用していたというお話でしたが、これまでのMA機材の変遷を伺えますか? 川﨑:『MA-405』はビデオ・パック・ニッポンの方で運営していたスタジオだったんですが、移設時点ではFairlight EVOのシステムで動いてました。メインのツールとしてはFairlightの稼働率が高く、Pro Toolsはサブ機という状態が長かったです。『MA-405』に関しては一体型のEVOだったので話が別ですが、基本的にはDAW + コンソールというシステムがメインでした。 R:3拠点で9部屋とのことですが、ほかの部屋でコンソールはどんなものをお使いなのでしょうか。 川﨑:SSLが中心で、C300、C200、 現在はC10HDが一番多いです。また、Avid S5 Fusionが入っているMA室も2部屋あります。 大形:Fairlightもまだあるので使えるといえば使えるのですが、現在はメインDAWはすべてPro Toolsです。 川﨑:2017年の合併くらいのタイミングから、「極力Pro Toolsに移行しましょう」という方針で。5年くらいかけて移行しまして、いまはもうほぼPro Toolsです。 R:Pro Tools + SSL というシステムが多いのでしょうか?引き続きミックスはSSLで? 川﨑:ミックスはPro Toolsの中でやってしまうことが多いですね。コンソールはHUI コントローラーとしての側面が大きいです。FairlightとPro Toolsを両方使っていたという状況もありまして、FairlightのみのEVOのようなシステムですと2台をうまく使うことが難しい部分が出てきました。FairlightとPro Tools両方を使う上で、DAWはDAW、コンソールはコンソールで、と切り分けて使うようなシステムで今まではやってきました。 テープ時代の終わりとPro Toolsへの移行 R:おふたりはFairlight歴は長かったんでしょうか? 大形:はい。Fairlightはやっぱり映像系のワークには強かったですね。今でこそ納品物がデータになってきていますが、昔は絶対テープでしたので。テープ・コントロールはやはりFairlightが強かった。Pro Toolsも9pinコントロールはありますけど、Fairlightの操作性に比べると若干劣るところがあったのは否めないですね。 川﨑:ただ、移行に関してはそれほど難しくなかったと思います。序盤こそ、編集の感じが違うとか手癖でうまく動かないとかありましたけど、同じDAW同士、似た点を見つけたりしながらうまく移行できたと思います。 R:合併前からEVOが稼働していた『MA-405』ですが、今回 Avid S4に更新したきっかけはどのようなものだったのでしょうか? 川﨑:EVO自体はまだまだ稼働できたんですが、サポートが終了すること、『MA-405』以外の部屋がPro Tools + SSLのためこの部屋だけが孤立してしまうのを避けたかった、というところが大きいです。合併前のTSPからいた者などはすでにPro Toolsに完全に移行していたので、そういう人たちが使いづらいという状況になってしまうので。 R:入れ替えに当たっては色々と候補を上げて悩まれたのでしょうか?最初からAvidのサーフェスを念頭に置いていましたか? 川﨑:ほかのMAの部屋はSSL C10HD + Pro Toolsが多いので、合わせて同じようなシステムにするという案もありましたが、部屋のサイズ感やシステムを鑑みて、SSLとはまた別のものを導入する余地があるのではないかということが話に挙がりました。『MA-405』は当社のスタジオの中でも上ふたつに当たる大きな部屋なんです。そのため、フラッグシップとしてメインを張れるスタジオにしたい、という気持ちがありました。当社として新しいソリューションにチャレンジするという意味でも、ほかの部屋と同じコンソールではなく、大型コントロールサーフェスの導入に踏み切ってもよいのではないか、という意見が多く上がっていたんです。 📷 MA-405はTSPの持つMAスタジオの中でも「上ふたつ」に入る大きさを持ったメインのスタジオ。今回の更新でFairlight メインDAWもFairlightからPro Toolsへ完全移行した形だ。 使用感にこだわった構成 R:『MA-405』のAvid S4は24フェーダー / 5 フィートという、S4としては最大のサイズです。やはり、あの規模のフェーダーやコントローラーは必要ですか? 川崎:はい。ドラマとか映画のコンテンツでは、複数人が横並びでフェーダーを握ります。その時に小さいものをいくつも並べるよりは、コンソールと同じサイズのもの1台で作業ができるようにした方がよいという判断です。また、Avid S4はモジュール構成ということもあり、24フェーダー(チャンネルストリップ・モジュール x3)あれば、どこかのモジュールに不具合があっても位置を入れ替えれるだけで作業が続行できるというメリットも考えてこの構成になりました。 R:Avid S4はディスプレイモジュールにも対応していますが、今回導入されなかったのは理由がありますか? 川崎:興味はあったのですが、DAWの作業画面を正面に出したかったのでディスプレイモジュールは省きました。マスターモジュールが右に寄っているのも同じ理由です。もちろんマスターモジュールでも操作することはありますが、慣れ親しんだワークフローとしてはキーボードでの操作がメインになりますので。 R:デスクは川崎さん設計・日本音響制作の特注品ですよね。 川崎:そうですね、細かなところですが右手のスペースに半円状の出っ張りを作って、キーボードとマウスを置けるようにしてもらいました。フェーダーの手前にキーボードを置けるスペースはほしいんですが、そこがあまり長いとミックスをする時に手が浮いてしまうということもあるので。デスクの高さについては、私自身が体格のいい方なので、女性や小柄なスタッフに聞き取りしつつ調整しました。ぼくの好みが入っちゃってるとは思うんですけど(笑)、今までのEVOやほかの部屋のC10HDとあまり変わらないようにしてもらいました。 📷 特注デスクに乗せられたAvid S4。メンテナンス性などを考慮して、埋め込みではなくデスク上に置くという選択がなされている。ブランク部分にはTritech製のモニターコントローラーが埋め込まれていて、YAMAHA MRX7-Dのを制御している。これも、外部のミキサーが一目でわかるような物理的なスイッチを配したいという配慮からの選択となっている。 R:Pro Tools システムは、メインがHDX x2 + HD I/O、サブがHDX x1 HD I/Oとなっています。映像再生には何を使用されているのでしょうか。 大形:Non-Lethal Applications Video Sync 5 Proです。 川崎:Video SatelliteでMedia Composerを走らせて、というのも考えたんですけれど、現状、MAワークで4K素材はあまり扱わないのでそこまでやるのは時期尚早かな、と。動作の安定性やTCカウンターのことを考えてVideo Syncにしました。 大形:キャラは絶対に乗せなきゃならないので、そうするとやはりVideo Syncの使い勝手がいいんです。Vidoe Slave 4 Proの頃から便利に使っていましたが、バージョンアップとシステムの更新もあって、以前はたまにあったフレームの飛び込みなどもまったくなくなりスムーズに使用できています。 R:工事完了が2021年9月ですが、これまでS4を使用されて使い勝手はいかがですか? 川崎:ほかの部屋はコンソールとPro Toolsの組み合わせということで、どうしても卓のセッティングをして、DAWのセッティングをして、という2アクションになっちゃうんです。その点、Pro Tools + S4だとセッションを開くだけでセッティングが完了するのは便利です。その分、ミキサーとアシスタントの準備作業もスムーズにいきますし、拠点間を跨いで作業する時もデータひとつですべて完結するので、正直、ほかのスタジオも同じようにしてほしいと希望が上がるくらいですね(笑)あとは、レイアウトの変更などが気軽に行えるというところが、些細なことのようですが作業の中でのストレスがなくなってとてもいいです。 大形:フェーダーが、S5 FusionやPro Tools | S3と比べても滑らかでいいです。ぼくのようなアナログ世代にはエンコーダーも便利ですね。プラグインの操作が直感的にできる。若い人だと、数字で入力しちゃうという人もいるんですけど(笑)、ナレ録りの時などすぐに反応しなきゃいけない時にはエンコーダーが便利です。 川崎:頻繁に使うわけではないんですが、思いつきで手が伸びるところに物理的なスイッチがあるというのは大きいですね。 R:『MA-405』はステレオメインのお部屋ですが、更新にあたってDolby Atmosなどのイマーシブへの対応などは話にあがりましたでしょうか。 川崎:やっぱり話には出ましたね。ただ、今回のS4が大型サーフェスの初めての導入ということもあってシンプルなシステムでいきたいということと、できるだけ稼働を止める期間を短くしたいというのもあって、今回はそちらを優先することになりました。 大形:イマーシブ自体は社内で常に議題にあがります。私たちとしても、そうした先進的な技術にチャレンジしていきたいという思いもあります。タイミングを見計らって、天井高やその他の要素も含めて万全の準備をした上で、ぜひ取り組みたいですね。 📷 建物内の各アナブースとスタジオはDanteで繋がっている。ふたつ以上のアナブースを跨いだ掛け合い収録なども可能だ。 今回取材した『MA-405』は同社の旗艦MAスタジオということもあり、Avid S4だけでなく、その他の機器も「誰が使っても使いやすいように」「外部のミキサーにもわかりやすいように」という配慮が細部に至るまでなされていることが非常に印象的だった。放送業界に深く根ざし、質実剛健でありながらも最新のテクノロジーを積極的に取り入れていこうという若々しい意欲に溢れた同社の 今後の動向に要注目だ。   *ProceedMagazine2022号より転載

Post

専門学校ESPエンタテインメント大阪様 〜アナログ・コンソールはオーディオの基礎基本を体現する〜

以前にも一度、本誌で取り上げさせていただいた専門学校ESPエンタテインメント大阪。前回は2年次に使用する実習室へのAvid S6導入事例であったが、今回は1年次の実習で使われている実習室にて行われたSSL AWS924導入の様子をレポートしたい。 デジタルとアナログ、両方のコンソールでのカリキュラム 専門学校ESPエンタテイメント大阪は、大阪駅の北側、周りには楽器店なども多い御堂筋線 中津駅至近にある。地上11階建ての本館と地上5階建ての1号館を有しており、音楽アーティスト科や声優芸能科、そして今回AWSを導入された音楽芸能スタッフ科が設けられている。その音楽芸能スタッフ科には2つのコースがあり、PA&レコーディング、レコーディング&MAという2つのコースが設置されている。この2つのコースはともに1年次に今回AWS924が導入された録音実習室を使い、楽器を一つ一つレコーディング、オーバーダブし、1年掛けて1つの楽曲を録音するという授業を行っているとのこと。それぞれの楽器の特性、特徴、マイキングなどをしっかりと実践をもって学べるカリキュラムだということだ。 今回導入されたAWS924はAWS900からのリプレイスとなる。ご存知のようにAWS900の後継機がAWS924であり、これまでの実績や学内に積み重ねられたノウハウも継承できる選択となった。この決定にあたっては、福岡校への導入実績があるNEVE Genesys Blackなど他のアナログコンソールも候補には挙がったそうだが、そんな中でも従来を踏襲したと言えるSSL AWS924が選択されたのには理由がある。 ミキシング・コンソールを1から学ばなければならない1年次に、シグナルの流れやプロセスなどが具体的にわかりやすいアナログコンソールで学ぶということは、生徒にとっても、教える側にとってもメリットが大きい。そして大阪校には実習室が2室あり、もう一つの部屋はすでにAvid S6というDAWを中核としたコンソールが導入されている。そこで、複雑なデジタルでのルーティングなどは2年次にもう一つのAvid S6で学ぶこととし、1年次はアナログコンソールでの授業を行うこととする。そう考えると、従来の機種をキャリーオーバーするような選択であることの方がメリットが大きかったということだ。もちろんデジタルとアナログ、両方のコンソールに触れられるということもメリットとなる。 📷 今回新たに導入されたAWS924は特注デスクに収められている。このデスクはこれまでのAWS900時代からの流用でありながらも、新たに仕上げたかのようなピッタリの収まりである。 写真で見てとれるように今回の更新でリプレイスされたのはSSL AWS924の本体のみとなり、それ以外は更新されていないのだが、引き継がれたデスクはまるでAWS924専用に用意されたかのようにフィットしている。AWS900、AWS924ともにカタログ上のサイズは同じだが、以前のAWS900よりもピッタリとデスク内に収まったと、驚かれていた。ドラムのマルチマイクでの収録にも対応する24chのコンソールは、授業内容にもまさにジャストフィットしているということだ。1年次の実習ということもあってなかなかそこまで使うことはないようだが、AWS924に更新したことでミキシング・コンソール側でのオートメーションも使えるようになった。DAW内でのオートメーションが当たり前だからこそ、このような機能が使えるアナログコンソールに触れる機会は価値があることではないだろうか。 📷 デスクの左には、マイクプリTUBE-TECH MP1A、VINTECH AUDIO DUAL72、そしてオーディオパッチが収まっている。右側にはDBX 160A、Universal Audio 1176LN、Drawmer 1960、NEVE 33609が収まる。専門学校らしく定番と呼ばれる機器が取り揃えられている形だ。 新たなるニューノーマルな傾向? コロナ禍で実施にも配慮が必要となっている実習授業についてだが、コンサート系コースなどは実際のコンサート・イベントにキャンセルが続いて難しい局面があったものの、音楽芸能スタッフ科ではオンラインでできる授業はそちらにシフトし、実習でしか教えることができない内容のものはこの2年間も学校内で行ったということだ。なお、この部屋を使う2つのコース、PA&レコーディング、レコーディング&MAは、例年であればPA&レコーディングコースのほうが入学者数が多いそうだが、今年の新入生から初めて入学者数が逆転し、MAコースの人数が多くなったということ。これは入学してくる生徒がコンサート、ライブを体験することがほとんどなかったからではないか?ということだ。実際にコンサートに行き、そのスタッフに憧れる。そういった体験がなかなか叶わない一方で、MA映像付きの音響を画面越しに体験をすることでMAに興味を持つ。これも新たなるニューノーマルな傾向なのか興味深いところだ。 また、YouTubeなど配信のサウンド、音響効果に興味を持って入学していくる生徒は年々増加しているという。ここでしっかりとした教育を受けた若者たちが、新たなステージでエンタテイメントの形を作っていく。MAといえばテレビ業界という考え方は、もはやステレオタイプなのかもしれない。そんな未来を感じさせられた。 📷 以前に本誌でも取り上げた 2 年次の実習で使われている Avid S6 を導入したスタジオ。現場での導入実績の高いAvid S6を使っての実習は即戦力育成に直結する。フルアナログの実習室と合わせて、幅広いシステム構成のスタジオでの実習を行うことができる環境が整えられている。 まさに順当とも言える後継機種への更新。改めてあえて変えないことの意味、アナログの大切さ、そういったことを考えさせられた。カルチャー、エンターテイメントは日進月歩で進化を続けている。しかし学びの環境の中での一歩目には、オーディオの基礎基本を体現するアナログ・コンソールがある。やはりこれは大きな価値のあることなのではないだろうか。 専門学校ESPエンタテイメント大阪 音楽芸能スタッフ科 松井 英己先生   *ProceedMagazine2022号より転載

Education

株式会社CBCテレビ様 / 〜革新が従来の文化、ワークフロー、使い勝手と共存する〜

日本初の民間放送局として長い歴史を持つ株式会社CBCテレビ。1951年にわが国初の民間放送としてラジオ放送を開始し、1956年からはテレビ放送をスタートさせている。そのテレビ放送スタートとともに竣工し、幾多に渡る歴史の息吹を現代につなげているCBC会館(通称:本館)のリニューアルに伴い、館内にあるMAスタジオ改装工事のお手伝いをさせていただいた。 完全ファイルベース+イマーシブ対応 数多くの独自番組制作、全国ネット番組を抱えフル稼働を続けるCBCの制作セクション。3年前には新館に第3MA室を開設、同時に仕込み作業用のオープンMAを8ブース、さらにファイルベースワークフローを見越した共有サーバーの導入と、制作環境において大きな変革を行った。その当時は、本館を建て替えるのか?リニューアルするのか?という議論の決着がついていない時期であり、本館にある第1MA、第2MAに関しては最低限の更新にとどめていた。今回は、リニューアルの決まった本館で、将来に渡り第1MA、第2MAを活用すべく大規模なシステムの入れ替えが実施された。 📷 第1MA室 📷 第2MA室 📷 第3MA室 まずは、非常に大きな更新内容となった第1MAを見ていきたい。もともと、このスタジオにあったメインコンソールはSTUDER VISTA 7であったが、今回の更新ではミキサーをなくし、完全なファイルベースのシステムアップとするとともに、将来を見越したイマーシブ・オーディオの制作環境を導入した。基本のシステムは、前回の第3MA開設時と同等のシステムとし、実作業を行うスタッフの習熟への負荷を最低限としている。そこに、イマーシブ制作のためのシステムを加えていく、というのが基本路線である。 第3MAでの基本システムは、Avid Pro Tools HDXシステムとAvid MTRXの組み合わせ。すでに業界標準といっても良いこれらの製品にコントローラーとしてAvid S3を組み合わせている。モニターコントローラーとしてはTAC system VMC-102が採用されているが、スタンドアローンでのシステム運用を考えた際には、やはりこのVMC-102は外せない。Avid MTRXも、多機能なモニターコントロールを実現しているが、PC上でDADmanアプリケーションが起動していないと動作をしないという制約がある。この制約のために、他の事例ではDADmanを起動するためだけに電源を落とさずに運用するPCを1台加えたりといった工夫を行っているのが現状だ。VMC-102の場合、これが起動さえしていればモニターセクションは生きる。これはPCレスでのモニターコントロールができるという価値ある違いにつながっている。 第1MAも、システムの根幹となるこのAvid Pro Tools HDX、Avid MTRX、TAC system VMC-102という構成は同様だ。違いとしては、多チャンネルに対応したAD/DAとしてDirectOut Technologies PRODIGY.MCの採用、そして、イマーシブ・サウンド作りの心臓部としてDolby RMUが加わったということだ。モニターセクションのVMC-102は、Dolby Atmosのモニターコントロールも問題なくこなすことができる製品である。実際にシステムを組もうとすると直面する多チャンネルスピーカーの一括制御。これに対応できる数少ない製品の一つでもある。 📷 第1MAのデスク上はシンプルに纏められている。センターにAvid S3、PC Displayの裏にはVU計がある。右手側にはVMC-102があり、その奥には収録時のフェーダーとしても活用されるSSL SiXがある。SiXの1-2chにMic Preが接続され、InsertにTUBE-TECH LCA2Bがスタンバイ。ステレオフェーダーにはCDとMacProのLine Outが接続されている。 しっかりとしたイマーシブ・サウンドを制作するためにスピーカーはPSIで統一。サウンドキャラクターのばらつきを最小限に、繋がりの良いサウンドを実現している。CBCでは以前よりPSIのスピーカーを使用しており、他のスタジオとのサウンドキャラクターの統一を図ったという側面もある。作業量が一番多いステレオ作業のためのL,RchにはPSI A25-Mを導入し3-Wayの充実したサウンドでの作業を実現。サラウンドにはA17-MとA14-Mを採用している。改装での天井スピーカー設置となったためにここだけはひとサイズ小さなモデルとなるが、できる限りサイズのあるスピーカーを導入したということになる。 📷 上段)ステレオL,Rchに備えられた3WayのPSI A25-M。下段)サラウンドサイドのスピーカーとなるA14-M。特注の金具で取り付けられ、壁面を少しくぼませることでスピーカーの飛び出しを抑える工夫が見て取れる。天井のスピーカーも特注金具により角度の調整などAtmos環境に合わせた設置が可能となっている。 サウンドキャラクターに大きく影響するAD/DAコンバーター部分は、前述もしたDirectOut Technologies PRODIGY.MCを導入している。安定した評価を得ていた同社ANDIAMOの後継となるモジュール式の多機能なコンバーター。モジュール式で将来の拡張性も担保されたこのシステムは、今後の様々な展望を検討されているCBCにとってベストなチョイスとなるのではないかと感じている。IPベースでの室間回線がすぐそこまで来ている今だからこそ、どのような企画にも柔軟に対応できる製品を選択することは、導入検討におけるポイントとなるのではないだろうか。 📷 ラック上部に組み込まれたDirectOut Technologies PRODIGY.MC イマーシブ対応のセットアップ イマーシブ・サウンドに関してのシステムアップは、Avid MTRXとMADIで接続されるDolby RMUという構成。MADIでの接続のメリットは、Dolby Atmosの最大チャンネル数である128chをフルに使い切ることができるという点。Dante接続の構成も作ることはできるがDanteの場合には128ch目にLTCを流す関係から127chまでのチャンネル数となってしまう。フルスペックを求めるのであればMADIとなるということだ。 Windowsで構築されたDolby RMUの出力はVMC-102を通してスピーカーへと接続される。各スピーカーのレベル、ディレイ、EQの補正はAvid MTRXのSPQ moduleで行っている。すでにこれまでの事例紹介でも登場しているこのAvid MTRX SPQ moduleは、非常にパワフルな補正エンジンである。各チャンネルへのレベル、ディレイはもちろん、最大16band-EQも使えるプロセッサーモジュールである。また、Dolby RMUのバイノーラルアウトは、SSL SiXのEXT INへ接続されており、常にヘッドフォンアウトからバイノーラル出力を聴くことができるようになっている。SSL SiXへのセンドは、通常はPro Toolsのステレオアウトが接続されているが、VMC-102の制御によりRMUのバイノーラル出力とボタンひとつで切り替えられるようにしている。バイノーラルで視聴されることが多いと予想されるDolby Atmos。このようにすぐにバイノーラルアウトの確認をできるようにしておくことは効率的で重要なポイントだ。 📷 最下部には各スピーカーのレベル、ディレイ、EQの補正を行うSPQ moduleが組み込まれたAvid MTRXが見える。 放送局が蓄積したリソースをイマーシブへ そもそも放送局にイマーシブ、Dolby Atmosは必要なのか?という問いかけもあるかもしれないが、すでに放送局ではネット配信など多角的なコンテンツの送出を始めている。YouTubeなど、ネット上の動画コンテンツは増え続け、Netflix、Huluなどのオンデマンドサービスが一般化してきているいま、放送局として電波という従来のメディアだけに固執するのではなく、新しい取り組みにチャレンジを始めるというのは自然な流れと感じる。もともと、放送局にはこれまでに積み重ねてきた多くのコンテンツ制作のノウハウ、人材、機材がすべて揃っている。数万再生でもてはやされるユーチューバーと違い、毎日数千万人のリアルタイム同時視聴者を抱えたメディアで戦ってきた実績がある。このノウハウを活かし、これからのコンテンツ制作のために様々な取り組みを行う必要がある。ネットならではの音響技術としてのイマーシブ。特に昨今大きな注目を集めているバイノーラル技術は、いち早く取り組む必要があるという考えだ。バイノーラルであれば電波にも乗せることができる。そして、ネットでの動画視聴者の多くがヘッドフォンや、イヤフォンで視聴をしていることを考えると、そのままの環境で楽しむことができる新しい技術ということも言える。 コンテンツ制作のノウハウ、技術。これまでに積み上げてきたものを発揮すれば内容的には間違いのないものが作れる。そこへ更なる魅力を与えるためにイマーシブ、バイノーラルといった最新の楽しみを加える。これがすぐにできるのは放送局が持ち得たパワーならではのことではないだろうか。技術、テクノロジーだけではなく、コンテンツの中身も伴ってはじめて魅力的なものになるということに異論はないはずだ。スポーツ中継における会場のサウンドのほか、音楽番組など様々なところでの活用が期待される。さらに言えば、その後の番組販売などの際にも付加価値が高まったコンテンツとして扱われることになるだろう。日々の業務に忙殺される中でも、このようなに新しいことへ目を向ける視野の余裕。それこそが次の時代につながるのではないかと、色々とお話を伺う中で強く感じた。 各スタジオ間にはIP伝送網が整備 他のMA室のシステムもご紹介したい。第2MAは、非常にシンプルなシステムアップだ。Avid Pro Tools HDXのシステムにAvid MTRXをI/Oとし、コントローラーにAvid S1、モニターコントローラーにはSPL MTCが採用されている。スピーカーはサウンドキャラクターを統一するためにPSI A17-Mが選ばれた。なお、第1MAの設備からはなくなっているものがある。VTRデッキを廃止し、完全なファイルベースのワークフローへと変貌を遂げている第1MA、VTRがないためにシステム自体もシンプルとなり、これまで設置されていたDigital Consol YAMAHA DM1000などがなくなり、機器類を収めていたラックも廃止されスッキリとしたレイアウトとなった。これは音響面、作業環境としても有利なことは言うまでもないだろう。 📷 第2MAのデスクは今回の更新に合わせて特注された。足元左右にラックが設けられ、左側はファンノイズが考えられる製品が納められ、蓋ができるように対策がなされている。デスク上にはAvid S1、SPL MTC、Umbrella Company Fader ControlがCDの収録用に用意されている。 3年前に更新された第3MAは、新館に新設の部屋として防音室工事からのシステム導入を行った。システムとしてはAvid Pro Tools HDX、Avid MTRX,Avid S3、TAC system VMC-102というコア・コンポーネントを用い、スピーカーにはNESが導入された。 📷 3年前に新設された第3MAがこちら。デスク上には、Avid S3、Avid Dock、VMC-102が並んでおり、第1MAとの共通部分を感じさせるセットアップとなっている。デスクは第2MAと同様に足元にラックスペースが設けられ、左側は蓋付きと同様の仕様になっている。また、I/OとしてAvid MTRXが導入されている。下段右は第3MAのブース。デスクの右にSTUDER Microが見える。これがリモートマイクプリ兼シグナルルーターとして活躍している。これにより、Open MA1,2からもこのブースを共有することができるようにセットアップされている。ブース内にも小型のラックがあり、そこにSTUDER Microの本体が収められている。 この際にポイントとなったのは、同時にシステムアップされたオープンMAと呼ばれる作業スペース。オープンMAは第3MAのすぐそばの隣り合うスペースに設置されている。高いパーテションで区切られた8つのブースにApple iMacでシステムアップが行われた。このオープンMAの2区画は、第3MAのブースを共有し、ナレーション収録ができるようにシステムが組まれ、STUDER MICROがリモートマイクプリとして導入されている。本来は、ラジオオンエア用のコンソールであるこの製品をリモートマイクプリ兼、シグナルルーターとして使っているわけだ。なお、デジタル・コンソールとなるためシグナルルーティングは自由自在である。 また、オープンMAにはAudio InterfaceとしてFocusrite RED 4 PREが導入された。これは将来のDante導入を見越した先行導入という側面もある。Native環境でもHD環境でも同一のInterfaceを使えるというのもこの製品が採用された理由の一つ。不具合時の入れ替えなどを考えると、同一機種で揃えることのメリットが大きいのは言うまでもないだろう。作業データはGBlabs FastNASで共有され、席を変わってもすぐに作業の続きが行える環境となっている。FastNASの音声データのネットワークは各サブへも接続され、音効席のPCへと接続されている。生放送枠の多いCBC、これらのシステムはフルに活用されているということだ。 📷 背の高いパーテションで区切られたこのスペースが、Open MAである。8席が準備され1,2は第3MAのブースを共有しナレーション収録に対応、ブースの様子は小型のLEDで見えるようになっている。それ以外の3~8も基本的なシステムは同等。すべてのブース共通でiMacにセカンドディスプレイが接続され、Audio I/OとしてFocusrite Red 4 Preが採用されている。この機種はDanteでの各所の接続を見越してのものである。 そして、前回の更新時に導入されたGBlabs FastNASへの接続はもちろん、本館のリニューアルに伴い各スタジオ間にはIP伝送網が整備された。このネットワークには、Danteが流れる予定である。取材時には事前工事までではあったが、各スタジオにはDanteの機器が導入され始めているとのこと。本館内の第7スタジオは今回のリニューアルでDanteをバックボーンとするSSL System-Tが導入されたということだ。そのままでも運用は可能だが、各スタジオにDante機器が多数導入され始めると回線の切り替えなどが煩雑になってしまう。それを回避するためにDante Domein Manager=DDMによるセットアップが行われるわけだが、このDDMは各スタジオをドメイン分けして個別に管理し、相互に接続を可能とする回線を絞ることができる。これは室間の回線を設定しておくことにより運用を行いやすくすることにつながっている。 もちろん、他の部屋のパッチを他所から設定変更してしまうといった事故防止にもなる。データの共有だけではなく、回線もIPで共有することによる運用の柔軟性が考えられているということになる。生放送を行っているスタジオの回線を他のスタジオで受け取ることもできるため、実際のオンエアの音声を他のスタジオで受けて、トレーニングのためのミックスを行うなど、これまでではなかなかできなかった運用が実際にテストケースも兼ねて行われているということだ。今後は、中継の受けやスタジオをまたいでのオンエアなど、様々な活用が期待されるシステムアップとなっている。これはサブだけではなくMA室も加わっているために、運用の柔軟性はかなり高いものとなる。 伝統ある放送局の文化にこれから先の放送局のあり方を重ね合わせた、これが現実のものとなっているのが今回のケースではないだろうか。バイノーラルを使ったコンテンツの新しい楽しみ方の提供。ファイルベースだけではなく、放送局の強みでもあるリアルタイムでの制作環境の強化、柔軟性の獲得。さまざまな新しい取り組みが従来のワークフロー、使い勝手と共存している。今後の放送局のシステムのあり方の一つの形がここに完成したのではないだろうか。 📷 株式会社CBCテレビ 技術局 放送技術部 名畑輝彦 氏   *ProceedMagazine2021-22号より転載

Broadcast

山麓丸スタジオ様 / 〜日本初、360 Reality Audioに特化したプロダクションスタジオ〜

360度全周(4π)に音を配置できるSONY の360 Reality Audio。その制作に特化したスタジオとして作られたのが株式会社ラダ・プロダクションによって設立されたこちらの山麓丸スタジオだ。国内ではソニー・ミュージックスタジオ、ソニーPCLスタジオに続いて3スタジオ目、「360 Reality Audio」専用スタジオとしては初となるという。今回はこちらのスタジオのPro Toolsシステム周りについて導入をさせていただいた。360 Reality Audio制作にはどのようなシステムが必要なのか。制作ワークフローを含め貴重なお話を伺った。 360 Reality Audio作品の専用スタジオを 株式会社ラダ・プロダクション様はCM音楽制作をメインに手がけている音楽制作会社だ。CM以外にも音に関わる企画やプロデュースなど様々な事業をされている会社なのだが、展示や開発系に関わる仕事も増えていく中でソニーと出会ったという。その後、ソニーが開発した波面合成アルゴリズムであるSonic Surf VRのスピーカー開発にも関わり、その時から立体音響に深く関わっていくことになったそうだ。その後、CES 2019で「360 Reality Audio」が発表され、その後ソニーと連携しつつ360 Reality Audio作品制作を手がけるような形になり、スタジオを作るまでに至ったということだ。現在では過去の楽曲の360RA化というものを多く進めているそうだ。広告の仕事を数多く行っているラダ・プロダクションでは展示での立体音響など、360 Reality Audioにとどまらない立体音響の提案を多くしているというお話も伺えた。 全15台のスピーカーをマネジメント 📷 スタジオ正面全景からは、Avid S1やAvid MTRXをコントロールするMOM Baseなど、操作系デバイスをスタンド設置にしてサイドに置き、リスニング環境との干渉へ配慮していることが見て取れる。ラック左列にはAvid MTRX / MTRX Studio、FerroFish / Pulse 16DXが収められ、右列にはヴィンテージアウトボードの数々がまとめられている。 360 Reality Audio制作に使用される360RACS(Reality Audio Creative Suite) 通称:ラックスはDAW上で立ち上げて使用するプラグインだ。ミックスをしているProTools 上で360RACSをインサートして使用することになるのだが、やはりトラック数が多くなったりプラグイン負荷が多くなると1台のマシン内で処理することが厳しくなるかもしれない。そこで、山麓丸スタジオでは大規模なセッションを見越してPro Toolsのミキシングマシン、360RACSを立ち上げるマシンを分けて制作することも想定したシステムアップとなっている。最大で128chのやりとりが必要となるため、Pro ToolsミキシングマシンはHDX2。360RACSについてもPro Tools上で動作させるためにこちらもHDX2を用意。その2台をAvid MTRX1台に接続し、音声をやりとりする形を取っている。 モニタースピーカーはGENELEC / 8331APが13台と7360AP 2台の構成になっている。8331APについてはミドルレイヤー、アッパーレイヤーがともに5ch。ボトムレイヤーが3ch。合計13chという構成だ。モニターのルーティングだが、まず360RACSマシンのHDXからのoutがDigiLink経由でMTRXへ。MTRXからDanteネットワーク上のFerroFish / Pulse 16DXへと信号が渡され、そこでDAがなされてスピーカーへと接続されている。ベースマネージメントを行うためにまず2台の7360APへ信号が送られ、その先に各スピーカーが接続されている形となる。スピーカーの調整についてはGENELECのGLMにて補正が行われている。マルチチャンネルのシステムの場合、GLMは強力な補正ツールとなるため、導入の際にはGENELECのスピーカーがチョイスされる確率が非常に高いのが現状だ。モニターコントロールについてはDADManで行われおり、フィジカルコントローラーのMOM Baseも導入していただいた。柔軟にセットアップできるDaDManでのモニターコントロールは大変ご好評をいただいている。 リスニング環境を損なわないレイアウト 前述のように360 Reality Audioは全周に音を配置できるフォーマットだ。スピーカーでモニターする場合は下方向にもスピーカーが必要なことになる。実際のスタジオ写真でスピーカーレイアウトはある程度把握できるかもしれないが、ここでどのようなレイアウトになっているかご紹介させていただきたい。 スピーカー13本の配置は耳の高さのMidレイヤーが5ch、上方のUpperレイヤーが5ch、下方のBottomレイヤーが3chという構成となる。Mid、UpperともにL,Rはセンタースピーカーから30°の角度、Ls,Rsは110°の角度が推奨されている。BottomレイヤーはL,C,Rの3本。こちらもセンタースピーカーから30°の位置にL,Rが置かれることになる。山麓丸スタジオではBottom L,C,Rの間にサブウーファーが設置されている理想的なスピーカーレイアウトであると言えるだろう。また、UpperはMidに対して30°上方。BottomはMIdに対して20°下方というのが推奨となっている。 通常スタジオではPC操作用のディスプレイ、キーボード、マウスやフェーダーコントローラーを置くためのデスクやコンソールなどが設けられることがほとんどだが、360RA用のスタジオではBottomにスピーカーが設置されることからその存在が邪魔になってしまうのが難しい点だ。山麓丸スタジオではPCディスプレイの役割を前方のTVに担わせている。また、フィジカルに操作を行うキーボード、マウス、Avid /S1、MOM Baseは右側に置かれたスタンドに設置され、極力音への影響が出ないよう工夫がなされている。ちなみに、スタジオ後方にはもう1セットKVMが用意されており、そちらで細かい操作等を行うことも可能だ。 📷 左よりAvid S1、Avid MTRXをコントロールするMOM Base。ブースでのレコーディング用には、Urei 1176LN / API 550A,512C / AMEK System 9098 EQ / N-Tosch HA-S291が用意された。最上段のRME MADIface Xは主にヘッドホンモニタリング用だ。 360 Reality Audio 制作ワークフロー ここからは実際に山麓丸スタジオで行われているワークフローについてお伺いすることができたのでまとめていきたい。 ●1:ステレオミックスを行う まず、マルチトラックのオーディオデータを先方より手に入れたらセッションを作成するのだが、まずはStereo Mixを行うという。このスタジオの顧問も勤めている吉田保氏などにミックスを依頼するケースもあるとのことだ。まずはステレオミックス用のセッションを作成することについては特に疑問はないだろう。元の楽曲がある作品の場合はそれに合わせるような形でステレオミックスが作成される。 ●2:ステレオから360RAへ ステレオでの音作りをしてから、それを360RA上でパンニングして行く形となる。360RACSはプラグインのため、ProToolsのトラックにインサートして使用する形となるのだが、各オーディオトラックにインサートはしない。各オーディオトラックと同数のAUXトラックを用意し、そこにオーディオをルーティングして360RACSをインサートする。これはPro Toolsのフェーダーバランスを活かすためだ。RACSプラグインはインサートされた箇所のオーディオをDAW側から受け取るので、オーディオトラックにそのままインサートしてしまうとフェーダー前の音がプラグインに渡されてしまう形になる。それを避けるためにAUXトラックを経由する形を取っている。次に、作成したAUXトラックのマスターのチャンネルにRACSプラグインをインサートしマスターとして指定する。これが各チャンネルから音を受け取ってOUTPUTする役割を担うようになる。その後、各チャンネルにRACSプラグインをすべてインサートしていく。 📷 プラグインとして360RACSを選択、インサートを行う。 📷 インサートした360RACSプラグインの中からマスターとなるトラックをを選択。 先ほども述べたように、最終的にオーディオデバイスに音を渡すのはPro ToolsではなくRACSプラグインということになるため、RACSプラグイン上のオーディオデバイスでHDXを選択する。そのため、Pro Tools側はプレイバックエンジンでHDX以外のものを選択する必要があるということだ。ProToolsのマスターを通らないため、遅延補正はどうなる?という疑問も生まれるのだが、RACS側に遅延補正の機能があるためそこは心配ご無用ということのようだ。 これで、360RAのミキシングを始める設定が完了したことになる。その後はRACS内でスピーカーレイアウトを指定する。もちろんヘッドフォンでの作業も可能だ。HRTFを測定したファイルを読み込むことができるのでヘッドフォンのモニタリングの精度も非常に高い。 📷 出力デバイスとしてHDXを選択。 📷 ヘッドホンの出力先もプラグイン内で選択する。 ●3:360RAミキシング 設定が完了したら、360RACS上でそれぞれの音のパンニング進めていく形となる。ラダ・プロダクション側で音の配置をある程度進めた状態にし、それを受けたエンジニア側でさらにブラッシュアップを行う。こうして一旦配置を決めるのだがここから再度ミキシングを行う。音の配置による音質の変化が生まれるので、パンニング後、改めて音の調整をエンジニアによって施す作業をしクオリティを上げるそうだ。こうして、その配置で本来鳴らしたい音質で鳴るようにする音作りを行い、でき上がったものがクライアントのチェックに回ることになる。 📷 360度全周にパンニングし、音像スペースを作り出している。 ●4:360RAでのマスタリング オブジェクトベースのフォーマットではステレオのようなリミッター、マキシマイザーを用いたマスタリングは難しい。今回、それをカバーする”技”を伺ったのでご紹介したい。まず、全トラックをAUXのモノトラックにセンドする。そのモノトラックをトリガーとしたマルチバンドコンプやリミッターなどを全トラックにインサートするという手法だ。設定は全トラック同じ設定にする。全ソースが送られているトラックをサイドチェーンのキーインにアサインすることによって、ステレオでのリミッティングを再現する形だ。 📷 全チャンネルにFabfilter Pro-C 2 / Pro-MB / WAVES L2がインサートされている。 ●5:バウンス(書き出し) 通常のPro Toolsのバウンスによって、360RAのフォーマットを書き出すことができるそうだ。なお、書き出す際は360RACSを開いておくことが必要となる。書き出しについては「インターリーブ」「48kHz24bit」「Wav」とし、指定のフォルダに書き出すことが必要とのことで、「書類」の中の「360RACS」の中にある「Export」フォルダを指定する。このフォルダは360RACSをインストールした際に自動ででき上がるフォルダとなっている。 📷 バウンス自体はPro Toolsの画面に沿って行う。 バウンスが終わるとプレビューの調整画面が表示される。ここではどのLEVEL(0.5、1、2、3)で書き出すかを選ぶ。LEVELはMP4を作る際のクオリティに値するものだ。LEVEL2以上でオブジェクトを"スタティック"と”ダイナミック”の選択が可能となっている。独立して聴かせたいVocalなどのメインソースは"ダイナミック"を選択、また動きのあるものも"ダイナミック"を選択することが多いそうだ。ここの設定によってもまた楽曲の聴こえ方が変わるのでここも慎重に行う。すべての設定が行なえたら『OK』を押して書き出しは完了、その後、こちらのデータを使用してエンコードを行いMP4を生成する。 📷 オブジェクトのダイナミック、スタティックの選択が行える。 📷 バウンスを終えるとレベルごとにフォルダ分けされて格納される。 ●6:エンコード 現状でのエンコードは360RACSとは別のアプリケーションを使用して行なっている。こちらのアプリケーションについてはとてもシンプルで、ドラック&ドロップしたデータを変換するのみだ。変換が完了したらデコーダーを使用して、生成されたMP4のチェックを行う。 ここまで細かく360 Realty Audio制作の手法をご紹介させていただいた。ステレオミックスと違い、上下の音の配置をパンニングで行えることが360 Realty Audioの大きな利点なのだが、配置しただけでは聴かせたい音質にならないことが多いのだそうだ。ステレオではマスキングを起こして聴こえなくなってしまう部分があり、それを回避しながらうまくステレオという空間に音を詰め込んでいくスキルが必要だったわけだが、360 Reality Audioは360度どこにでも音を配置できてしまう。言い換えれば、マスキングが起きづらい360 Reality AudioやDolby Atmosでは、より一個一個の音のクオリティが楽曲自体のクオリティを大きく左右することにつながるわけだ。 また、クライアントから渡される素材がステムではなくパラデータだった場合、単体での音作りというところが大きなポイントとなるということだ。その部分をスタジオ顧問の吉田保氏ほか、各所エンジニアの手に委ねるなどの工夫をされている点は大きなポイントのように感じた。そして、360RAパンニング後に「聴かせたい場所で聴かせたい音質」とするための音作りをする点も重要なポイントだ。音の存在感を出すためにサチュレーションを使ったり、EQを再度調整したりさまざまな工夫が施される。 こうしてサウンドは整えられていくが、音を配置しただけでOKということではなく、ReverbやDelayを駆使して360度に広がる「空間」を作ることがとても重要になる。ライブ収録などでは実際に様々なところにマイクを立て360度空間を作ることが可能だが、レコーディング済みの過去作品や打ち込みの作品では新たに360度空間を人工的に作る必要がある。マルチチャンネルで使用できる音楽的なReverbの必要性を感じているというお話も伺えた。制作者側の悩みなどはDolby Atmosの制作と共通する部分も多く、それに呼応するような360度空間制作のためのツールも今後ブラッシュアップされていくのではないだろうか。 Dolby Atmosとともに空間オーディオの将来を担うであろう360 Realty Audio。この二つのフォーマットが両輪となり、空間オーディオはさらに世の中へ浸透していくことになるだろう。360RAは下の方向がある分Dolby Atmosに比べてもさらに自由度が高いため、よりクリエイティブな作品が生まれそうな予感もする。また、ヘッドフォンでの試聴は、スピーカーが鳴っているのではないかと思わず周りを見回してしまうほどの聴こえ方だった。コンシューマにおけるリスナーの視聴環境はヘッドフォン、イヤフォンが中心となるのが現状だろう。その精度が上がっていくとともにコンテンツが充実することによって、今よりリスナーの感動が増すのは間違いない。広く一般的にもステレオの次のフォーマットとして、空間オーディオに対するリスナーの意識が変わっていくことに大きな期待を寄せたい。 株式会社ラダ・プロダクション 山麓丸スタジオ事業部 プロデューサー Chester Beatty 氏 株式会社ラダ・プロダクション 山麓丸スタジオ事業部 チーフ・エンジニア 當麻 拓美氏   *ProceedMagazine2021-22号より転載

Music

株式会社 SureBiz様 / 〜Dolby Atmos、技術革新に伴って音楽表現が進化する 〜

2021年6月、Appleが空間オーディオの配信をスタートした。そのフォーマットとして採用されているはご存知の通りでDolby Atmosである。以前より、Dolby Atmos Musicというものはもちろん存在していたが、この空間オーディオの配信開始というニュースを皮切りにDolby Atmosへの注目度は一気に高まった。弊社でもシステム導入や制作についてのご相談なども急増したように感じられる。今回はこの状況下でDolby Atmos制作環境を2021年9月に導入された株式会社 SureBizを訪問しお話を伺った。 需要が高まるDolby Atmos環境を SureBizは楽曲制作をワンストップで請け負うことにできる音楽制作会社。複数の作家、エンジニアが所属しており、作曲、編曲、レコーディング、ミキシング、マスタリングをすべて行えるのが特長だ。都心からもほど近い洗足池にCrystal Soundと銘打たれたスタジオを所有し、そのスタジオで制作からミキシング、マスタリングまで対応している。今回はそのCrystal SoundへDolby Atmos Mixingが行えるシステムが導入された。2020年の後半よりDolby Atmosでのミキシングがどのようなものか検討を進めていたそうだが、Appleの空間オーディオがスタートしたことでDolby Atmosによるミックスの依頼が増えたこと、さらなる普及が予測されることからシステム導入を決断されたという。 我々でも各制作会社のお客様からDolby Atmosに対してのお問合せを多くいただいている状況ではあるが、現状ではヘッドフォンなどで作業したものを、Dolby Atmos環境のあるMAスタジオ等で仕上げるというようなワークフローが多いようだ。その中で、SureBizのような楽曲制作を行っている会社のスタジオにDolby Atmos環境が導入されるということは、制作スキームを一歩前進させる大きく意味のあることではないだろうか。 📷 洗足池駅近くにある"Crystal Sound"。制作、レコーディング、ミキシング、マスタリングと楽曲制作に必要工程がすべてできるようになったスタジオだ。メインモニターはmusikelectronic / RL901K、サブモニターにAmphion / One18。Atmos用モニターにGENELEC / 8330APとなっている。 サウンドとデザインを調和する配置プラン まず、既存のスタジオへDolby Atmosのシステムを導入する際にネックになるのは天井スピーカーの設置だろう。Crystal Soundは天井高2500mmとそこまで高くはない。そこで、できるだけハイトスピーカーとの距離を取りつつ、Dolbyが出している認証範囲内に収まるようにスピーカーの位置を指定させていただいた。L,C,Rまでの距離は130cm、サイドとリアのスピーカーは175cmにスタンド立てで設置されている。スタジオ施工についてはジーハ防音設計株式会社によるものだ。その際に課題となったのがスタジオのデザインを損なわずにスピーカーを設置できるようにすること。打ち合わせを重ねて、デザイン、コストも考慮し、天井に板のラインを2本作り、そこにスピーカーを設置できるようにして全体のデザインバランスを調和させている。電源ボックス、通線用モールなど黒に統一し、できるだけその存在が意識されないように工夫されている。 📷 紫の矢印の先が平面の7ch。青い矢印の先が天井スピーカーとなっている。これを基にジーハ防音設計株式会社様にて天井板、電源ボックス、配線ルートを施工いただいた。 Redシリーズ、GENELECの組み合わせ Dolby Atmos Musicの制作ではDAWとRendererを同一Mac内で立ち上げて制作することも可能だ。ただし、そのような形にするとCPUの負荷が重くマシンスペックを必要とする。本スタジオのエンジニアであるmurozo氏は普段からMacBook Proを持ち歩き作業されており、そこにRendererを入れて作業することはできなくはないのだが、やはり動作的に限界を感じていた。そのためCrystal Soundにシステムを導入されるにあたっては、そのCPU負荷を分散するべくRendererは別のMacにて動作させるようシステム設計をした。Renderer側はFocusrite REDNET PCIeR、Red 16LineをI/Oとしている。 RendererのI/OセットアップではREDNET PCIeRがInput、Red 16Line がOutputに指定される。Pro Toolsが立ち上がるMacBook ProのI/OにはDigiface Danteを選択している。Pro Tools 2021.7からNativeでのI/O数が64chに拡張されたので、このシステムでは64chのMixingができるシステムとなる。ちなみに、Pro Tools側をHDX2、MTRXを導入することにより128chのフルスペックまで対応することも可能だが、この仕様はコスト的に見てもハードルが高い。今回の64ch仕様は導入コストを抑えつつ要件を満たした形として、これからの導入を検討するユーザーには是非お勧めしたいプランだ。 📷 CPU処理を分散するため、Pro ToolsのミキシングマシンとDolby Atmos Rendererマシンを分離。Danteを使用したシステムを構築している。64chのDolby Atmosミキシングが可能な環境となっている。Pro Tools 側のハードウェアのアップグレードにより128chのシステムも構築可能だ。 モニターコントロールにはREDNET R1とRed 16Lineの組み合わせを採用している。これがまた優秀だ。SourceとしてRendererから7.1.4ch、Apple TVでの空間オーディオ作品試聴用の7.1.4chを切り替えながら作業ができるようになっている。また、Rendererからバイノーラル変換された信号をHP OUTに送っているため、ヘッドフォンを着ければすぐにバイノーラルのチェックもできる。スピーカーについてはGENELEC 8330APと7360Aが使われており、補正についてはGLMでの補正にて調整している。マルチチャンネルを行う際は補正をどこで行うか、というポイントが課題になるが、GLMはやはりコストパフォーマンスに優れている。今回のFocusrite Redシリーズ、GENELECの組み合わせはDolby Atmos導入を検討されている方にベストマッチとも言える組み合わせと言えるだろう。 📷 左は机下のラック。左列下部に今回導入いただいたRed 16Line(オーディオインターフェース)、SR6015(AVアンプ)、SWR2100P-5G(Danteスイッチ)が確認できる。ラックトレイを使用して、AppleTV、Digiface Danteもこの中に収まっている。右はGENELEC /8330AP。天井スピーカーであっても音の繋がりを重視し平面のスピーカーからサイズを落とさなかった。 Dolby Atmos環境で聴こえてくる発見 実際にDolby Atmosシステムを導入されてからの様子についてどのような印象を持っているかも伺ってみたところ、Apple TVで空間オーディオ作品を聴きながら、REDNET R1で各スピーカーをSoloにしてみて、その定位にどんな音が入っているかなどを研究できるのが便利だというコメントをいただいた。空間オーディオによって音楽の新しい世界がスタートしたわけだが、スタートしたばかりだからこそ様々なクオリティの音源があるという。システムを導入したことにより、スピーカーでDolby Atmos作品を聴く機会が増え、その中での発見も多くあるようだ。ステレオミックスとは異なり、セオリーがまだ固まっていない世界なので、Mixigを重ねるごとに新しい発見や自身の成長を確認できることがすごく楽しいと語ってくれた。その一例となるが、2MixのステムからDolby Atmos Mixをする際は、EQやサチュレーションなどの音作りをした上で配置しないと迫力のあるサウンドにならないなど、数多くの作品に触れて作業を重ねることで、そのノウハウも蓄積されてきているとのことだ。 📷 Dolby Atmos用のモニターコントロールで使用されているREDNET R1、各スピーカーのSolo機能は作品研究に重宝しているとのことだ。Source1にRendererのプレイバックの7.1.4ch。Source2にAppleTVで再生される空間オーディオに試聴の7.1.4chがアサインされている。制作時も聴き比べながら作業が可能だ。 技術革新に伴って音楽表現が進化する 最後に今後の展望をmurozo氏に伺ってみた。現状、Dolby Atmos Mixingによる音楽制作は黎明期にあり、前述のようにApple Musicの空間オーディオでジャンル問わずにリリース曲のチェックを行うと、どの方法論が正しいのか確信が持てないほどの多様さがあり、まだ世界中で戸惑っているエンジニアも多いのではないか、という。その一方で、技術革新に伴って音楽表現が進化することは歴史上明らかなので、Dolby Atmosをはじめとする立体音響技術を活かした表現がこれから益々の進化を遂げることは間違いないとも感じているそうだ。「そんな新しい時代の始まりに少しでも貢献できるように、またアーティストやプロデューサーのニーズに応じて的確なアプローチを提供できるように日々Dolby Atmosの研究を重ね、より多くのリリースに関わっていければと考えています。」と力強いコメントをいただいた。 📷 株式会社SureBiz murozo氏 今後さらなる普及が期待されるDolby Atmos。世界が同じスタートラインに立った状況で、どのような作品が今後出てくるのか。ワールドワイドで拡がるムーブメントの中で、いち早くシステムを導入し研鑽を積み重ねているSureBiz / Crystal Soundからも新たな表現のセオリーやノウハウが数多く見出されていくはずである。そしてそこからどのようなサウンドが生まれてくるのか、進化した音楽表現の登場に期待していきたい。   *ProceedMagazine2021-22号より転載 https://pro.miroc.co.jp/headline/avid-creative-summit-2021-online/#.YfzvmvXP3OQ

Music

株式会社富士巧芸社 FK Studio様 / 〜機能美を追求した質実剛健なシステム設計〜

赤坂駅と赤坂見附駅のちょうど中程にあるビル。ガラス張りのエレベーターから赤坂の街を眺めつつ最上階まで昇ると、この春オープンしたばかりのFK Studioがある。テレビ・放送業界への人材派遣業務を主な事業とする株式会社富士巧芸社が新設し、映像/音響/CG制作で知られるクリエイター集団 株式会社ラフトがプロデュースしたこのスタジオは編集室2部屋、MA室1部屋で構成されており、「誰もが気持ちよく仕事ができること」を目指してシンプルかつ十分なシステムと超高速なネットワーク設備を備えている。現在の番組制作に求められる機能を質実剛健に追求したこのFK Studioを紹介したい。 富士巧芸社の成り立ちからFK Studio開設まで 株式会社 富士巧芸社 代表取締役 内宮 健 氏 株式会社富士巧芸社(以下、「富士巧芸社」)は、テレビ・放送業界への人材派遣業務を主な事業とする企業だ。映像編集やMA業務に関わる制作技術系スタッフが約60名、ADなどの制作に関わるスタッフが約100名、その他にも配信業務・データ放送運用・マスター室の運用などの非制作業務に関わるスタッフなど、現在約300名におよぶテレビ放送の専門スタッフを抱えている。 富士巧芸社のルーツは昭和34年創業の同名の企業にある。かつて四ツ谷にあったその富士巧芸社はテロップやフリップを中心とした美術系制作物を放送局に納めており、内宮氏は同社の社員としてテレビ局への営業を担当していたそうだ。2000年代に入り、テロップなどの制作物の需要が減少したことでかつての富士巧芸社はのれんを降ろすことになったが、「テレビからテロップがなくなることはない。これからは編集機でテロップを打ち込む時代になる」と考えた内宮氏は編集機オペレーターの派遣事業を開始する。その際に、愛着のある「富士巧芸社」という社名だけを譲り受けたというのが、現在の富士巧芸社の成り立ちである。かつての富士巧芸社と現在の富士巧芸社は別々の法人だが、放送業界におけるその長い歴史と実績は内宮氏を通して脈々と受け継がれている。 富士巧芸社がはじめて自社で編集室を持ったのは5年前。同社の派遣オペレーター第一号であり、現在はポストプロダクションチーム チーフマネージャーの洲脇氏の提言によるものだという。「リニア編集が主流だった時代には、編集室を作るには大きな投資が必要でした。しかし、パソコンを使ったノンリニア編集がメインになったことで機材購入にかかる費用は大きく下がりました。当社は派遣業ということで人材は十分に在籍していましたので、これなら自社で編集業務も請け負えるのではないかと考えたんです」(洲脇氏)。 株式会社 ラフト 代表取締役 クリエイティブ・ディレクター 薗部 健 氏 こうして、MAを除くフィニッシングまで行える同社初の自社編集室が銀座にあるマンションの一室に作られた。「4~5年して、ある程度需要があることがわかってきました。銀座では狭い部屋を5人で回してたので、もう少し広くしてあげたいと思ったのもあって」(内宮氏)と、今回のFK Studio設立への計画が動き出したそうだ。「それならMA室も必要だよね、という話になったのですが、当社はMA室に関する知識はまったくなかった。そこで、以前からお付き合いのあったラフトさんに相談しまして「薗部さん、お願いします!」ということに(笑)」(内宮氏)。 このような経緯でFK Studioは株式会社ラフト(以下、「ラフト」)がプロデュース、同社代表取締役・クリエイティブディレクターである薗部氏がフルスケルトンの状態から設計することになった。最上階のフロアをフルスケルトンから作り直すというのは、天井高が確保でき、設計の自由度が高いというメリットもあるが、今回は飲食店からの転用であったため、空調や水回りをすべてやり直す必要があったり、消防法の関係で不燃認定を受けている素材を使用する必要があったりしたそうだ。スタジオでよく見るジャージクロスは難燃認定のため吸音材に使用せず、壁も天井もすべて不燃材を用いている。飲食店からの転用が意外な課題をもたらしていたようだ。 機能美にあふれ、誰もが仕事をしやすい環境 「お客様を迎える場所なので、内装などの見た目にはこだわりたかった」(内宮氏)というFK Studioは、実に洗練された暖かみを感じさせる空間になっている。エレベーターの扉が開くとそこは明るく開放的なロビーになっており、ここはそのまま各スタジオへの動線となっている。あざやかなオレンジ色の椅子が目を引くが、躯体の柱と色を合わせた漆色のテーブルがシックな雰囲気を演出し、ツヤ出し木製パネルの壁がそれらをつなげて、明るいながらも全体的に落ち着いた雰囲気をたたえた内装だ。このように印象的なスペースとなったのは、薗部氏の"機能美”へのこだわりにありそうだ。「見た目が美しくてもハリボテのようなものじゃダメ。ヘビーデューティでありながら美しい…作品を生み出す場所は、そうした"機能美"を備えていることが大切だと思ってます。天井のレールは垂直に、吸音板もスクウェアに、きっちり取り付けてもらいました」(薗部氏)。 📷 明るい色づかいながら、落ち着いた雰囲気のロビー。 こうしたコンセプトは居住性のみならず、スタジオ機能の面にも行き届いている。「編集オペレーターやエンジニアなどの社内スタッフはもちろん、来てくれるお客様にとっても、全員がすごしやすい…仕事がしやすい環境を作るのが一番だと考えていました。ひとが集まるところには自然に仕事が生まれる」(洲脇氏)とのコメントが印象的で、まさにスタジオ全体が内実をともなった美しさに溢れた空間になっているのだと強く感じさせる。 "ヘビーデューティ"なスタジオ設備 FK Studioの機材構成は一見シンプルだが、現代の番組制作をスムーズに行うための必要かつ十分な機能が備わっており、まさに"機能美"ということばがぴったりな仕様となっている。機材構成をメインで担当したのは、編集室が富士巧芸社 洲脇氏、MA室がラフト 音響クリエイターの髙橋氏だ。 📷 編集室 Edit 1。ディスプレイはすべて4K HDR対応。 2部屋ある編集室は、機材面ではまったく同じ構成となっている。メインとなるMac Proと、テロップ制作などを行うためのサブ機であるMac miniの2式構成、NLEはすべてAdobe Premier Proだ。「この規模のポスプロであれば、お客様もほぼPremierで作業している」(洲脇氏)というのが選定の理由だ。この2式のNLEを中心に、映像波形モニター、音声モニター用のステレオスピーカーとラック型のミキサー、そしてクライアント用の映像モニターといたってシンプルな構成となっている。しかし、ディスプレイはすべて4K対応、Mac Proは16コアプロセッサ・96GBメモリに加えGPUがRadeon Pro W5700X x 2に増設されたパワフルな仕様。さらに、ローカルストレージとして8TBの高速SSDレイドが導入され、4Kワークフローでもストレスのない制作が可能となっている。 📷 館内共用機器ラックには12Gルーターやネットワーク機器などを収容。各部屋からの信号は、館内のどのディスプレイにでも出力することができる。 FK Studioの大きな特徴のひとつに、現代的なネットワーク設備が挙げられる。共有ストレージにはSynologyのNASが導入され、すべてのスタジオ内ネットワークはひとつのルーターに接続されている。そのため、ひとつの編集室で書き出した素材をもうひとつの編集室やMA室と瞬時に共有することが可能だ。さらにいえば、ひとつの映像信号をFK Studio内のどのモニターにも出力できるため、ゲストの人数が多い時などはロビーで試写をすることも可能となっている。ちなみに、ラフトでも同じNASを使用しており、どちらのNASも2社が相互にアクセス可能な状態になっているという。「クラウドに近い環境。こうしたパートナーを増やしていけば、番組データの交換なども簡単になるかもしれませんね」(薗部氏)とのことだ。 社内ネットワークはルーターやケーブルも含めてすべて12G対応、インターネットは下り最大2Gbpsの通信速度を誇るNURO Biz。速度的なストレスは皆無の制作環境に仕上がっている。「今まではローカルのデバイスがボトルネックになるケースが多かった。ここ(FK Studio)はローカルデバイスのスペックがかなりいいので、逆にネットワークがボトルネックにならないように注意した」(薗部氏)ということだが、さらに、2Gbpsのインターネット帯域を「ゲスト用と社内用にルーターを分けている。そのため、ゲストが増えても館内ネットワークの速度には影響がない」(薗部氏)という徹底ぶり。まさに、"ヘビーデューティ"という表現がしっくりくる。「編集室にお客様が立ち合わないケースは増えています。完成品をチェックで送る時でも、ネットワークのスピードが高いので助かっている」(洲脇氏)とのことだ。 番組制作にとっての"普遍性"を示したMA室 📷 Pro Tools | S3を採用したことで、大きなゆとりを確保したMA室の作業デスク。台本の位置などを柔軟に運用できるのがメリットだ。メーター類や操作系も、見やすく手の届く範囲にまとめられており、作業に集中できる環境が整えられている。 NAルームが併設されたMA室はステレオ仕様、Pro ToolsシステムはHDXカード1枚、HD I/O、Sync HD、Pro Tools | S3という仕様の1式のみ、そして、Mac miniによるMedia Composerワークステーションという、こちらもシンプルな構成。「最高スペックを視野に入れたシステムを組むと、どうしても甘い部分が出てきてしまう。ならば最初から割り切ってステレオとかにした方がいい。そのかわり、4K HDR対応だし、Mac Proもスペックを整えたもの(8コアIntel Xeon W CPU/96GBメモリ/1TB SSD + BMD DeckLink Studio 4Kビデオカード)。モニターもSonyの業務用にして、TB3HDDレイドも入れてます」(薗部氏)という通り、MA制作に必要な機能に的をしぼることで、近年重視されるようになってきたスペックの部分をしっかりとフォローした"基礎体力"の高いシステムになっている。 I/OはHD I/O、コントロールサーフェスはPro Tools | S3だ。今回のスタジオ設計においては、大型コンソールを入れることははじめから考えていなかったという。「複数のパラメーターを同時に操作したい場合はコンソールが必要ですが、ワークのスタイルを大型コンソールに合わせるよりも、原稿を置く位置など作業スペースのレイアウトをその都度変えられたりといったことの方が重要かな、と。」(髙橋氏)ということが理由のようだ。I/Oについては「ぼくひとりで使うなら、どんなに複雑でも面白いものを作ればいいのでPro Tools | MTRXも考えましたが、誰が来ても見れば使えるというところを重視した結果、HD I/Oという選択になりました」(髙橋氏)という。モニターコントローラーはGrace Design m905が選ばれており、音質はもちろんのこと、その使いやすさが選定の大きな理由となっている。 📷 MA室併設のナレーションブース。圧迫感がなく居住性の高いスペース。 「音の入り口と出口にはリソースを割きたかった」(髙橋氏)ということで、マイクとスピーカーは奇をてらわずも最高峰のものが選ばれている。スピーカーはメインがGenelec 8341A、スモールスピーカーとしてFocal Shape 40が選ばれている。NA用マイクはNeumann U87 Ai、マイクプリはMillenia HV-3Cだ。8341Aは近年ポスプロスタジオでの導入事例が増えているGenelec社の同軸モデルのひとつ。以前、ラフトで代替機として借りた際にそのクオリティが気に入り、今回の選定に至ったという。この機種についての印象を髙橋氏に伺うと、「鳴りと定位感のよさから、番組をやるにあたって聴きやすいという点が気に入っています。以前のGenelecと比べると、最近のモデルはより解像度を重視しているように感じます。」(髙橋氏)という答えが返ってきた。こちらにはGLMを使用したチューニングが施されている。スモールについては「今時のよくある小さめのモニタースピーカーって、どうしても低音を出そうとしているように感じるんです。そもそも、スモールスピーカーを使うというのはテレビの条件に近づけるという意図があったのに、(最近のスピーカーだと)スモールに切り替えると余計に音がこもっちゃってよくわからない、ということが多かったんです。その点、Shapeシリーズはそうしたこもりとかを感じずに、使いやすいな、と感じています。」(髙橋氏)とMA向きな一面をShape 40に見出しているようだ。 📷 MAスタンダードの地位を獲得した感のあるGenelec Oneシリーズ。FK Studioでは8341Aが採用されている。解像度の高さだけでなく、鳴りと定位感の良さが好評だ。自前の補正システムGLMも人気の理由だろう。 📷 独自素材を積極的に開発し、引き締まった音像と定位感のよさに定評のあるFocal Shape 40。髙橋氏は自宅でもShapeシリーズを使用しているとのことで、大きな信頼を寄せている。 ビデオ再生はPro Toolsのビデオトラックだけでなく、Media Composer、Video Slave 4 Proでの再生も可能。スタジオ内のネットワークが高速なため、「編集室からNASにProResで書き出してもらったものをMedia Composerにリンクして再生することが多いです。」(髙橋氏)とのこと。ちなみに、ビデオI/OにはAvid DNxIVが採用されている。オーディオプラグインはWAVES Diamond、iZotope RX Post Production Suite、Nugen Audio Loudness Toolkit 2と、MAワークのスタンダードが並ぶ。特にRXについては「RXなしでは最近のMAは成り立たない」(髙橋氏)と、大きな信頼を寄せる。プラグインに関してもこうしたスタンダードなラインナップに集約することで、FK Studioで制作したセッションがほかのスタジオで開けないといったことを未然に防いでいる。まさに、「誰にとっても気持ちよく仕事ができる環境」作りを徹底しているように思えた。ラウドネス関連ではNugen Audioのほかに、テープ戻し用としてCLARITY M STEREOとFourbit LM-06も設置されている。はじめからあえて的をしぼることで実現された一縷の隙もないシステムは、現代の番組MAにとってひとつの"普遍性"を示していると言えるのではないだろうか。 📷 m905本体、Mac mini、DNxIV。普段は触らない機器もビシッと美しく設置されているところに、薗部氏の透徹した美学が垣間見える。 📷 Clarity M Stereoとm905リモコン。必要なボタンがハードとして存在していることは、スムースなMAワークには欠かせない要素だ。手軽に位置を動かせるコンパクトさも、スタジオのコンセプトにマッチしている。 細部まで徹底的にシビアな視線で設計されていながら、訪れる者には明るさと落ち着きを兼ね備えた居心地のよい空間となっているFK Studio。「仕上がりはイメージ以上。ラフトさんのお力添えなしにはここまでのものは作れませんでした。」という内宮氏。これからの展望をたずねると「これを機に、2号、3号とスタジオを増やして行けたらいいですね。」と答えてくださった。FK Studioから生まれた番組を観られる日が、今から待ち遠しい限りだ。 (前列左より)株式会社 富士巧芸社 代表取締役 内宮 健 氏、株式会社 ラフト 代表取締役 / クリエイティブ・ディレクター 薗部 健 氏 (後列左より)ROCK ON PRO 沢口耕太、株式会社 富士巧芸社 映像グループ ポストプロダクションチーム チーフマネージャー 洲脇 陽平 氏、株式会社ラフト 音響クリエイター 髙橋 友樹 氏、ROCK ON PRO 岡田詞朗   *ProceedMagazine2021号より転載

Post

株式会社毎日放送様 / ~多様なアウトプットに対応する、正確な回答を導き出せる音環境~

以前にも本誌紙面でご紹介した毎日放送のMA室がリニューアルした。前回のご紹介時にはAvid S6とMTRXの導入を中心にお伝えしたが、今回はそれらの機材はそのままにして内装のブラッシュアップとシステムの大幅な組み換えを行っている。さらには、準備対応であったイマーシブ・オーディオへの対応も本格化するという更新となった。 システム内の役割を切り分けるということ まずはシステムの更新の部分を見ていこう。今回の更新ではAvid S6はそのままに、モニター周り、Avid S6のマスターセクションをどのように構築するのかという部分に大きなメスが入った。これまでのシステムはスタジオに送られる全ての信号がMTRXに入り、Avid S6のMTMによるモニターセクションが構築されていた。その全ての信号の中にはPro Toolsからの信号も含まれDigiLinkで直接MTRXの入力ソースの一つとして扱われる仕様である。 このシステムをどのように変更したのかというと、まずはMTRXをPro ToolsとDigiLinkで接続し、Audio Interfaceとして使用しないこととした。昨今のシステムアップのトレンドとは逆の発想である。これにはもちろん理由があり、トラブルの要因の切り分けという点が大きい。従来は1台のPro Toolsのシステムであったものが、今回の更新で2台に増強されているのだが、こうなるとトラブル発生時の切り分けの際に、全てがMTRXにダイレクトに接続されていることの弊害が浮かび上がってくるわけだ。MTRXへダイレクトに接続した場合には、Pro ToolsのシステムからAudio Interface、モニターセクションといったスタジオ全体が一つの大きなシステムとなる。俯瞰するとシンプルであり、何でも柔軟に対応できるメリットはあるが、トラブル時にはどこが悪いのか何が問題なのかへたどり着くまで、システムを構成する機器が多いために手間がかかる。これを解決するために、2台に増強されたそれぞれのPro ToolsにAudio Interfaceを持たせ、スタジオのマスターセクションにあたるMTRXへ接続をするというシステムアップをとった。 これは、システムが大きくなった際には非常に有効な手法である。Avid S6以前のシステムを思い返せば、レコーダー / プレイヤー / 編集機としてのPro Tools、そしてミキシング、スタジオのシステムコアとしてのミキサー。このようにそれぞれの機器の役割がはっきりしていたため、トラブル時にどこが悪いのか、何に問題が生じているのかということが非常に明確であった。この役割分担を明確にするという考え方を改めて取り入れたAvid S6のシステムが今回の更新で実現している。 📷Audio Interface関係、VTR、パッチベイは、室内のディレクターデスクにラックマウントされている。手前の列から、映像の切替器、VTR、2台のPro Toolsに直結されたAvid純正のInterface。中央の列には、AntelopeのMasterClock OCX HD、RupertNeve Design 5012、Avid MTRXなど、システムのコアとなる製品が収まる。右列は、パッチベイとBDプレーヤーが収まっている。左から右へと信号の流れに沿ったレイアウトになっている。 MTRXをスタンドアローンで運用する 今回の更新により、MTRXは純粋にAvid S6のモニターセクション、マスターセクションとして独立し、Pro Toolsシステムとは縁が切れている状態となる。MTRXはどうしてもPro ToolsのAudio Interfaceという色合いが強いが、スタンドアローンでも利用できる非常に柔軟性の高い製品である。弊社ではこれまでにも、Artware Hubでの36.8chシステムのモニタープロセッサーとして、また松竹映像センターにおけるダビングシステムのマスターセクションとしてなど、様々な形でMTRXをスタンドアローンで活用していただいている。常にシステムに対しての理解が深い方が利用するのであれば、一つの大きなシステムとしたほうが様々なケースに対応でき、物理パッチからも解放されるなど様々なメリットを享受できるが、不特定多数の方が使用するシステムとなると、やはり従来型のミキサーとレコーダーが独立したシステムのほうが理解が早いというのは確かである。 ある意味逆説的な発想ではあるが、一つの大きく複雑なシステムになっていたものを、紐解いてシンプルな形に落とし込んだとも言えるだろう。この部分に関して、ミキサーとしてのマトリクス・ルーティングというものは、放送用のミキサーで慣れ親しんだものなので抵抗なく馴染める。今回のシステムは、そういったシステムとの整合性も高く、利用する技術者にとってはわかりやすいものとすることができたとお話をいただいている。MTRXをスタンドアローンで運用するため、今回の更新ではDADman を常に起動しておくための専用のPCとしてMac miniを導入いただいている。これにより、まさにAvid S6がMTRXをエンジンとした単体のコンソールのように振る舞うことを実現したわけだ。 📷もう一部屋のMA室でも採用した、コンソールを左右に移動させるという仕組みをこの部屋にも実装している。編集時にはキーボード・マウスなどがセンターに、MIXを行う際にはフェーダーがセンターに来る、という理想的な作業環境を実現するために、コンソール自体を左右に移動できるわけだ。これであれば、ミキサーは常にセンターポジションで作業を行うことができる。なお、専用に作られたミキサースタンドにはキャスターがあり、電動で左右に動く仕組みだ。これにより左右に動かした際、位置が変わることもなく常に理想的なポジションを維持できる。ちなみに一番右の写真はコンソールを動かすための専用リモコンとなっている。 イマーシブ・オーディオへの対応は、モニターセクションとしてスタンバイをする、ということとしている。5.1chサラウンドまでは常設のスピーカーですぐに作業が可能だが、ハイトスピーカーに関しては、もう一部屋のMA室との共有設備となる。これまでもトラスを組んで、仮設でのハイトチャンネル増設でイマーシブ・オーディオの制作を行ってきたが、モニターセクションのアウトとしても準備を行い、ハイト用のスピーカーをスタンドごと持ち込めば準備が完了するようにブラッシュアップが図られた。これにより、5.1.4chのシステム、もしくは7.1.2chのシステムにすぐに変更できるようになっている。地上波ではイマーシブ・オーディオを送り出すことはできない。とはいえ、インターネットの世界ではイマーシブ・オーディオを発信する環境は整いつつある。そしてこれらを見据えて研究、研鑽を積み重ねていくことにも大きな意味がある。まさにこれまでも積極的に5.1chサラウンド作品などを制作してきた毎日放送ならではの未来を見据えたビジョンが見える部分だ。 全てに対して正確な回答を導き出すための要素 📷一番作業としては多いステレオ用のラージスピーカーはMusik Electronic Geithain RL901KとBasis 14Kの組み合わせ。2本のSub Wooferを組み合わせ、2.1chではなく2.2chのシステムとしている。なお、サラウンド用には同社RL906が採用されており、こちらのスピーカースタンドは特注品となっている。 今回のシステム更新において、一番の更新点だと語っていただいたのが、スピーカーの入れ替え。古くなったから更新という既定路線の買い替えに留まらない、大きな含みを持った入れ替えとなっている。従来、この部屋のスピーカーはDynaudio Air6が導入されていたのだが、それをもう一つのMA室に導入されているMusik Electoronic Gaithin社の同一モデルへと更新。Musik社のスピーカーは、サブ(副調整室)にも採用されており、今回の更新で音声の固定設備としてのスピーカーをMusikに全て統一することができたわけだ。同じモデルなのでそのサウンドのキャラクターを揃え、毎日放送としてのリファレンスの音を作ることができたこととなる。 音質に対してのこだわりである、光城精機のAray MK Ⅱはコンソールの足元に設置されている。1台あたりで1000VAの出力を持つAray MK Ⅱが3台、スピーカーの電源及び最終段のアナログMTRX I/Oの電源が供給されている。 「Musikの音」という表現をされていたのが非常に印象的ではあるが、このメーカーのスピーカーは他社には真似のできない独自の世界観、サウンドを持っている。この意見には強く同意をするところである。同軸の正確な定位、ふくよかな低域、解像度の高い高域と言葉では伝えられない魅力を多く持つ製品である。お話を伺う中で、Musikに対してスピーカー界の「仙人」という言葉を使われていたのだが、たしかにMusikはオーディオエンジニアにとって「仙人」という存在なのかもしれない。いろいろなことを教えてくれる、また気づかせてくれる、そして、長時間音を聞いていても疲れない、まさに理想のスピーカーであるとのことだ。 放送局にとってMusikというスピーカーはハイクオリティではないかという意見も聞いたことがある。その意見は正しい部分もあるのかもしれないが、放送局だからこそ様々なアウトプットに対しての制作を求められ、どのような環境にも対応した音環境を持っていなければならない。そのためには、全てに対して正確な回答を導き出せる音環境が必要であり、ハイクオリティな環境であることは却って必要な要素であるというお話をいただいた。筆者もまさにその通りだと感じている。地上波だけではなく様々なアウトプットへの制作が求められるからこそ、ベストを尽くすことへの重要性が高まっているということは間違いない。 このハイクオリティな音環境を象徴するような機器が光城精工のArray 2の導入であろう。一見コンシューマ向け(オーディオマニア)の製品というイメージもあるかもしれないが、光城精工はスタジオ向け電源機器で一斉を風靡したシナノから独立された方が創業されたメーカー。もちろんプロフェッショナル業界のことも熟知した上での製品開発が行われている。Array 2は音響用のクリーン電源として高い評価を得ており、絶縁トランスでも単純なインバーターでもなくクリーン電源を突き詰めた、これも独自の世界を持った製品である。このArray 2が今回の更新ではスピーカー、モニタリングの最終アナログ段の電源として導入されている。アウトプットされるサウンドに対して絶対の信頼を持つため、また自信を持って作品を送り出すために、最高の音環境を整えようという強い意志がここからも読み取ることができる。 これらの更新により、音環境としては高さ方向を含めたマルチチャンネルへの対応、そしてハイレゾへの対応が行われ、スペックとして録音再生ができるということではなく、それらがしっかりと聴いて判断ができる環境というものが構築されている。Dolby Atmos、360 Reality Audio をはじめとするイマーシブ・オーディオ、これから登場するであろう様々なフォーマット、もちろん将来への実験、研鑽を積むためのシステムでもある。頻繁に更新することが難しいスタジオのシステム、今回の更新で未来を見据えたシステムアップが実現できたと強く感じるところである。そして、実験的な取り組みもすでにトライされているようで、これらの成果が実際に我々の環境へ届く日が早く来てほしいと願うばかりだ。この部屋で制作された新しい「音」、「仙人」モードでミックスされた音、非常に楽しみにして待つことにしたい。 (左)株式会社毎日放送 総合技術局 制作技術センター音声担当 部次長 田中 聖二 氏、(右)株式会社毎日放送 総合技術局 制作技術センター音声担当 大谷 紗代 氏 *ProceedMagazine2021号より転載

Broadcast

Chimpanzee Studio 様 / 〜コンパクトスタジオのスタイルを広げるDolby Atmos〜

本職はプロのミュージシャン。ドラマーを生業としつつ、スタジオの経営を鹿児島で行う大久保氏。そのスタジオにDolby Atmosの制作システムを導入させていただいたので詳細をお伝えしたい。かなり幅広い作品の録音に携わりつつも、自身もミュージシャンとしてステージに立つ大久保氏。どのようにしてスタジオ運営を始め、そしてDolby Atmosに出会ったのだろうか?まずは、スタジオ開設までのお話からお伺いした。 90年代のロスで積み重ねた感覚 それではスタジオ開設に至る経緯をたどってみたい。鹿児島出身である大久保氏は学生時代より楽器を始め、広島の大学に進学。その頃より本格的に音楽活動を始めていたということだ。普通であれば、学生時代に特にミュージシャンとしての道を見出した多くの場合は、ライブハウスの数、レコーディングセッションの数など仕事が多くある東京、大阪、福岡といった大都市をベースに活動を本格化させるのが一般的である。しかし大久保氏は日本を飛び出し、全てにおいて規模が大きく好きな音楽がたくさん生まれたロサンジェルスの地へと一気に飛び立った。ロサンジェルスは、ハリウッドを始めとしたエンターテイメント産業の中心地。大規模なプロジェクト、本場のエンターテイメントに触れることとなる。なぜ、アメリカ、そしてロサンジェルスを選んだのか?その答えは文化の違いとのことだ。アメリカには町ごとに音楽がある。ロス、ニューヨーク、シアトル、アトランタ、それぞれの街にそれぞれの音楽がある。そんな多様性、幅の広さが魅力だという。 Chimpanzee Studio(チンパンジースタジオ) 大久保 重樹 氏 ロスに移住してからは、ミュージシャンとして活躍をする傍ら、住んでいた近くにあったレコーディングスタジオのブッキングマネージメント、日本からのミュージシャンのコンサルなどを行ったということだ。時代は1990年代、まだまだ日本のアーティストたちもこぞってアメリカまでレコーディングに出かけていた時代。そこで、自身もミュージシャンで参加したり、スタジオ・コーディネイトを行ったりと忙しい日々を過ごしていたそうで、ロスでも老舗のSunset Soundやバーニー・グランドマンにも頻繁に通っていたというからその活躍がいかに本格的なものであったかが伺える。 そんな環境下で、スタジオによく出入りをし、実際にレコーディングを数多く経験するうちに、録音というものに興味が湧いてきたということだ。まずは、自身のドラムの音を理想に近づけたい、どうしたらより良いサウンドへと変わるのか?そういったことに興味を持った。そして、今でも現役として使っているBrent Averillのマイクプリを入手することになる。今では名前が変わりBAE Audioとなっているが、当時はまさに自宅の一角に作業場を設け、手作業で一台ずつ製品を作っていた文字通りガレージメーカーだった時代。創業者の名前をそのままにメーカー名をBrent Averillとしていたのも、自身の名前をフロントパネルにサイン代わりにプリントした程度、というなんとものどかな時代である。 大久保氏は、実際にBrent氏の自宅(本社?)へ出向き今でもメインで活用しているMic Preを購入したそうだ。そのエピソードも非常に面白いものなので少し紹介したい。Brentさんの自宅は大久保氏とは近所だったというのも訪問したきっかけだった。そしてそこで対応してもらったのが、なんと現Chandler Limitedの創業者であるWade Goeke氏。その後、世界を代表するアウトボードメーカーを立ち上げることとなるGoeke氏の下積み時代に出会っているというのは、ロサンジェルスという街の懐の深さを感じさせるエピソードだ。 📷Pro ToolsのI/O関連とMicPreは正面デスクの右側に設置。上のラックにはDirectout ANDIAMO、AVID MTRX。下のラックには、DBX 160A、Brent Avirill NEVE 1272、Drawmer 1960が入っている。 ネットの可能性を汲み取った1997年、鹿児島へ そんなロスでの生活は1990年に始まったそうだが、時代はインターネットが普及への黎明期を迎えていた時期でもある。ロスと日本の通信は国際電話もあったが、すでにEメールが活用され始めていたということ。必然性、仕事のためのツールとしてインターネットにいち早く触れた大久保氏は「これさえあれば世界のどこでも仕事ができる」と感じた。アーティストならではなのだろうか?いち早くその技術の持つ可能性を感じ取り、活用方法を思いつく。感性と一言で言ってしまえば容易いが、人よりも一歩先をゆく感覚を信じ、鹿児島へと居を移すこととなる。ロスで知り合ったいろいろな方とのコネクション、人脈はインターネットがあればつながっていられる。それを信じて帰国の際に地元である鹿児島へと戻ったのである。帰国したのが1997年、日本ではこれからインターネットが本格的に普及しようかというタイミングである。その感性の高さには驚かされる。 鹿児島に帰ってからは、マンションでヤマハのアビテックスで防音した部屋を作りDAWを導入したということだ。最初はDigital PerfomerにADATという当時主流であったシステム。もちろんミュージシャンが本職なので、最初はエンジニアというよりも自分のスキルを上げるための作業といった色合いが強かったそうだ。そのエンジニアリングも、やればやるほど奥が深くどんどんとのめり込んで行き、自身でドラムのレコーディングができるスタジオの設立を夢に描くようになる。ドラムということで防音のことを考え、少し市街地から離れた田んぼの真ん中に土地を見つけ、自宅の引っ越しとともに3年がかりで作り上げたのが、現在のチンパンジースタジオだということだ。今は周りも住宅地となっているが、引っ越した当時は本当に田んぼの真ん中だったということ。音響・防音工事は株式会社SONAに依頼をし、Pro Toolsシステムを導入した。 スタジオのオープンは2007年。オープンしてからは、国内のアーティストだけではなく、韓国のアーティストの作品を手掛けることも多いということだ。チンパンジースタジオができるまではライブハウスや練習スタジオに併設する形での簡易的な録音のできる場所しかなかったそうで、鹿児島で録音に特化したスタジオはここだけとなる。チンパンジースタジオでの録音作業は、地元のCM音楽の制作が一番多いということだ。自身がメインで演奏活動を行うJazzはやはり多くなるものの、ジャンルにこだわりはなく様々なミュージシャンの録音を行っている。 地元ゆかりのアーティストがライブで鹿児島に来た際にレコーディングを行うというケースも多いということだ。名前は挙げられないが大御所のアーティストも地元でゆっくりとしつつ、レコーディングを行うということもあるということ。また面白いのは韓国のアーティストのレコーディング。特に釜山からレコーディングに来るアーティストが多いということだ。福岡の対岸に位置する釜山は、福岡の倍以上の人口を抱える韓国第2の都市でもある。しかし、韓国も日本と同様にソウルへの1極集中が起こっており、釜山には録音のできる施設が無いのが実情の様子。そんな中、海外レコーディング先としてこのチンパンジースタジオが選ばれることが多いということだ。 📷錦江湾から望む鹿児島のシンボルとも言える桜島。チンパンジースタジオは市街から15分ほどの距離にある。 📷Proceed Magazine本誌で別途記事を掲載している鹿児島ジャズフェスティバルのステッカーがここにも、大久保氏はプレイヤーとして参加している。 省スペースDolby Atmos環境のカギ 📷内装のブラッシュアップに合わせ、レッドとブラックを基調としスタイリッシュにリフォームされたコントロールルーム。右にあるSSL XL Deskはもともと正面に設置されていたものだが、DAWでの作業が増えてきたこと、またAtmosの制作作業がメインとなることを考えPCのデスクと位置が入れ替えられている。またリフォームの際にサラウンド側の回線が壁から出るようにコンセントプレートが増設されている様子がわかる。Atmos用のスピーカーはGenelec 8020、メインのステレオスピーカーはADAM A7Xとなっている。 スタジオをオープンさせてからは、憧れであったアナログコンソールSSL XL Deskを導入したりマイクを買い集めていったりと、少しづつその環境を進化をさせていった。そして今回、大きな更新となるDolby Atmos環境の導入を迎えることとなる。Dolby Atmosを知るきっかけは、とあるお客様からDolby Atmosでの制作はできないか?という問い合わせがあったところから。それこそAtmosとは?というところから調べていき、これこそが次の時代を切り拓くものになると感じたということ。この問い合わせがあったのはまさにコロナ禍での自粛中。今まで通りの活動もできずにいたところでもあり、なにか新しいことへの試みをと考えていたこともあってAtmos導入へと踏み切ったそうだ。 当初は、部屋内にトラスを組みスピーカーを取り付けるという追加工事で行おうという簡易的なプランだったというが、やるのであればしっかりやろうということなり天井、壁面の内装工事をやり直してスピーカーを取り付けている。レギュレーションとして45度という角度を要求するDolby Atmosのスピーカー設置位置を理想のポジションへと取り付けるためには、ある程度の天井高が必要であるが、もともとの天井の高さもあり取り付けの位置に関しても理想に近い位置への設置が可能であった。取り付けについても補強を施すことで対応しているという。合わせて、壁面にも補強を行いスピーカーを取り付けている。このような設置とすることで、部屋の中にスピーカースタンドが林立することを避け、すっきりとした仕上がりになっている。また、同時にワイヤリングも壁面内部に埋め込むことで、仕上がりの美しさにもつながっている。環境構築にはパワードスピーカーを用いるケースが多いが、そうなると、天井や後方のサラウンドスピーカーの位置までオーディオ・ケーブルとともに電源も引き回さなければならない。これをきれいに仕上げるためには、やはり内装をやり直すということは効果的な方法と言える。 📷天井のスピーカーはDolby Atmosのリファレンスに沿って、開き角度(Azimuth)45度、仰角(Elevation)45度に設置されている。天井が高く余裕を持って理想の位置へ設置が行われた。 今回のDolby Atmos環境の導入に関しては、内装工事という物理的にスピーカーを取り付ける工事もあったが、システムとしてはオーディオインターフェースをMTRXへと更新し、Dolby Atmos Production Suiteを導入いただいたというシンプルな更新となっている。XL Deskを使ったアナログのシステム部分はそのままにMTRXでモニターコントロールを行うAtmos Speakerシステムを追加したような形だ。録音と従来のステレオミキシングに関しては、今まで通りSSL XL Deskをメインとしたシステムとなるが、Dolby Atmosミックスを行う際にも従来システムとの融合を図った更新が行われている。やはり今回のシステム更新においてMTRXの存在は大きく、ローコストでのDolby Atmos環境構築にはなくてはならないキーデバイスとしてシステムの中核を担っている。 📷今回更新のキーデバイスとなったAvid MTRX、持ち出しての出張レコーディングなどでも利用するため別ラックへのマウントとなっている。 📷収録時のメインコンソールとなるSSL XL Desk。プレイヤーモニターへのCueMixなどはこのミキサーの中で作られる。アナログミキサーなのでピュアにゼロレイテンシーでのモニタリングが可能だ。 📷ブースはドラム収録できる容積が与えられ、天井も高くアコースティックも考えられた設計だ。 Dolby Atmos構築のハードルを下げるには エンドユーザーに関しては、ヘッドフォンでの視聴がメインとなるDolby Atmos Musicだが、制作段階においてスピーカーでしっかりと確認を行えることは重要だ。仕込み作業をヘッドフォンで行うことはもちろん、ヘッドフォンでのミックスを最終的にしっかりと確認することは必要なポイントではある。しかし、ヘッドフォンでの視聴となるとバイノーラルのプロセッサーを挟んだサウンドを聴くことになる。バイノーラルのプロセスでは、上下や後方といった音像定位を表現するために、周波数分布、位相といったものに手が加わることとなる。サウンドに手を加えることにより、擬似的に通常のヘッドフォン再生では再現できない位置へと音像を定位させているのだ。これは技術的にも必要悪とも言える部分であり、これを無くすことは難しい。スピーカーでの再生であればバイノーラルのプロセスを通らないサウンドを確認することができ、プロセス前のサウンドで位相や定位などがおかしくないか、といったことを確認できる。これは業務として納品物の状態を確認するという視点からも重要だと言える。 制作の流れとしては、スピーカーで仕上げ、その後にヘッドフォンでどのように聴こえるかを確認するわけだが、バイノーラルのプロセスを通っているということは、ここに個人差が生じることになる。よって、ヘッドフォンでの確認に関して絶対ということは無い。ステレオでのMIXでもどのような再生装置で再生するのかによってサウンドは変質するが、その度合がバイノーラルでは耳の形、頭の形といった個人差により更に変化が生じるということになる。ここで、何をリファレンスとすればよいのかという課題が生じ、その答え探しの模索が始まったところだと言えるだろう。バイノーラルのプロセスでは音像を定位させた位置により、音色にも変化が生じる。そういったところをスピーカーとヘッドフォンで聴き比べながら調整を進めるということになる。 制作のノウハウ的な部分に話が脱線してしまったが、スピーカーでサウンドを確認できる環境が重要であるということをご理解いただけたのではないだろうか。省スペースなDolby Atmos環境であっても、物理的に複数のスピーカーを導入するといった機材の追加は、その後に制作される作品のクオリティのために必要となる。また、システムとしてはAvid MTRXの登場が大きい。モニターコントローラーや、スピーカーチューニングなどこれまでであれば個別に必要であった様々な機器を、この一台に集約することができている。チンパンジースタジオでは、このMTRXの機能をフルに活用し、機材の更新は最低限にして、内装更新やスピーカー設置といったフィジカルな部分に予算のウェイトを置いている。前号でご紹介した弊社のリファレンスルームもしかり、そのスペースにおけるキーポイント明らかにし、そこに焦点をあてて予算を投入することで、Dolby Atmos Music制作環境の構築はそれほど高いハードルにはならないということをご理解いただきたい。 大久保氏は今回Dolby Atmosのシステムを導入するまでは、完全にステレオ・オンリーの制作を行ってきており、5.1chサラウンドのミキシング経験もなかったそうだが、今回の導入でステレオから一気にDolby Atmos 7.1.4chへとジャンプアップしている格好だ。お話をお伺いしたときには、まだまだ練習中ですと謙遜されていたが、実際にミックスもすでに行っており本格稼働が近いことも感じられる。今後はアーティストの作品はもちろん、ライブ空間の再現など様々なことにチャレンジしたいと意気込みを聞くことができた。鹿児島で導入されたDolby Atmosが、その活動に新たな扉を開いているようである。   *ProceedMagazine2021号より転載

Music

洗足学園音楽大学様 / ~作編曲と録音の両分野をシームレスに学ぶハイブリッド環境~

クラシック系、ポピュラー系と実に18もの幅広いコースを持ち業界各所へ卒業生を輩出している洗足学園音楽大学。その中で音楽音響デザインコースの一角である、B305教室、B306教室、B307教室、B308教室の4部屋についてシステムの更新がなされた。作編曲と録音の両分野をシームレスに学ぶ環境を整えることになった今回の更新ではAvid S6が採用され、またその横にはTrident 78が据えられている。アナログ・デジタルのハイブリッドとなった洗足学園音楽大学の最新システムをご紹介したい。 日本国内で一番学生数が多い音楽大学 神奈川県川崎市高津区にある洗足学園音楽大学は1967年に設立された音楽大学で、音楽の基盤となるクラシック系からポピュラー系まで実に多彩な18のコースを有している。大学院まで含めると約2300人の学生が在学しており、現在日本国内で一番学生数が多い音楽大学である。 音楽大学の基盤となるクラシック音楽系のコースはもちろんだが、新しい時代の音楽表現を模索するポピュラー音楽系のコースとして、音楽・音響デザイン、ロック& ポップス、ミュージカル、ジャズコースなど多彩なコースがあり、特に近年は声優アニメソングやバレエ、ダンス、そして舞台スタッフを育成する音楽環境創造コースなど、音楽の周辺分野まで学べるコースも設立されており、近年ますます学生が増え続けているのも特徴である。 各分野には著名な教授陣がおり、音楽制作の分野ではゲーム音楽作曲家の植松伸夫氏、伊藤賢治氏、劇伴音楽やアニソン作曲家の山下康介氏、渡辺俊幸氏、神前暁氏、さらに録音分野の教授として深田晃氏や伊藤圭一氏などが教鞭をとっている。卒業後は国内の主要オーケストラや声楽家、ミュージカル俳優、声優、劇伴作曲家やゲーム会社、大手音楽スタジオエンジニアなどへ卒業生を多数輩出している。 作編曲と録音の両分野をシームレスに 現在、洗足学園では3つのスタジオを含む複数の音響設備を備えた教室が多数稼働している。メインスタジオではオーケストラや吹奏楽など大編成のレコーディングが可能で、ピアノやドラムなどをアイソレート可能なスモールブースも完備されている。これをはじめとする3つのスタジオではSSLのアナログコンソールが導入されており、音楽・音響デザインコースの生徒だけではなく、複数のコースの生徒がレコーディングなどの授業やレッスンで使用している。また、その他にも音響設備が備えられている教室の中には、Auro-3D 13.1chシステムを設置したイマーシブオーディオ用の教室が2つあり、Pro Tools UltimateとFlux:: SPAT Revolutionが導入され、電子音響音楽の制作やゲーム音響のサウンドデザインの授業が行われている。 📷学内にある大編成レコーディングも可能なメインスタジオ、ブースは天井高を高く取られている。 今回教室の改修が行われたのは、洗足学園音楽大学(以下、洗足学園)の音楽音響デザインコースの一角である、B305教室、B306教室、B307教室、B308教室の4部屋だ。近年、音楽・音響デザインコースを専攻する学生が増えており、既存のスタジオに加えてマルチブース完備のスタジオ増設が急務となったそうだ。主科で作編曲を学ぶクリエイター系の学生は音源制作をPC内でほぼ完結しているケースが多いが、さらに録音のスキルも身につけることによってより質の高い音源を制作できるようになる。このように作編曲と録音の両分野をシームレスに学ぶことができる環境を整えることが今回のテーマの一つとなった。そして、今回の改修でのもう一つのテーマは、アナログとデジタルが融合されたハイブリッドシステムを形成すること。これは授業内容なども考慮された大学ならではのシステム設計だろう。 📷今回改修が行われた4部屋の中でも、Avid S6を中心としたコントロールルームの役割を持つB305教室。 Avid S6とTrident 78によるハイブリッド 新たに導入されたPro Tools | MTRXは既存のHD I/Oと合わせてAD/DA 48chの入出力が可能。 今回改修された4教室は大きさがそれぞれ異なり、合わせて使用することで1つのスタジオとして稼働できるよう計画された。一番広いB305教室は、Avid S6を中心としたコントロールルームの役割を持つ。既存のスタジオが主にアナログ機器を中心とした設計なのに対し、今回改修された4教室ではデジタル中心のシステムを組むように考慮され、B305教室の既存Pro Tools HDXシステムには、Pro Tools | MTRXが追加導入された。これらのAvid S6システムは、録音はもちろんMAでも数多く導入実績があり、さらにDolby Atmosなどのイマーシブ・オーディオへの拡張性も申し分ない。授業においてPro Toolsを使用することが前提の教室で、これらの点を考慮した結果、Avid S6以外の選択肢はなかったそうだ。 S6の構成は5Knob・24Faderで、サラウンドミックスに対応できるようにJoystick Moduleも追加されている。もともとこちらの教室ではサラウンドシステムを導入しており、以前はJL CooperのSurround Pannerが使用されていた。なお、Joystick Moduleはファブリックの統一感のために専用スペースに納められている。Pro Tools | MTRXはADカード24ch(うち8chはMic Pre付き)、DAカード24chとSPQカードを増設。さらに既存のHD I/O 2台と組み合わせて、Pro ToolsとしてはトータルでAD/DA 48chの入出力可能なシステムへと強化された。HAはPro Tools | MTRXに増設された8chのほか、SSLやRME、FocusriteなどのMic Preが30ch以上用意されており、好きなMic Preを選択可能のほか、最大48chのマルチチャンネル録音も可能とした。 📷アナログパッチベイとHA類。SSL、RME、FocusriteなどのMic Preが30ch以上用意されている。 今回の改修で特徴となったのが、Avid S6横に設置されたTrident 78。デジタルとアナログのハイブリットシステムを構築しているわけだが、授業ではスタジオ録音を初めて経験する1年生から上級生まで様々な学生が使用するため、デジタル機器だけではなくアナログ機器についての学習も行えるようにハイブリッドシステムが採用されたということだ。Trident 78をHAやサミング・ミキサーとしても使用できるよう、Monitor OutはPro Tools | MTRXへ、Direct OutとGroup OutはHD I/Oへとそれぞれパッチベイ経由で接続されている。特にTrident 78のMonitor Outがパッチベイ経由なのは、デジタル中心のシステムではあるが、授業内容によってはTridentのみでも授業が行えるように、あえてAvid S6とPro Tools | MTRXを経由せずにも使用できるように設計された。 📷B305教室にはAvid S6 5Knob-24faderとTrident 78が並ぶ、アナログ機器の学習も行えるハイブリッドなシステムだ。Trident 78の下にはAV AmpとBlu-rayプレイヤー、Apple TVが収められている。 また、Pro Tools | MTRXはモニターコントロールとしても設定された。AD/DAのチャンネル数が豊富に拡張されているが、モニター系統はいたってシンプルに構成されており、ソースはPro Tools、TridentとAV Ampの3つに絞られたが、5.1chサラウンドで構成されている。AV AmpはBlu-rayプレイヤーのほか、Apple TVとHDMI外部入力が用意されており、持ち込みPCなど映像だけではなく音声もメインスピーカーからサラウンドで視聴が可能だ。民生機系の機材をAV Ampにまとめることで、音声のレベル差なども解消させている。 S6マスターセクションの隣に用意された専用スペースにはJoystick Moduleが収められている。 ソース切り替えに連動させるため、Pro Tools | MTRXとAES/EBU接続されたClarity M。 ワイヤレスで揃えられたマウスとキーボードは授業形態の自由度を高めるために、Avid S6とセパレートされた。 独立して使用可能なB308教室 マルチブースのなかで一番広いB308教室にはドラムセットが常設され、マイクの種類や位置など集中的にマイキングに関する授業やレッスンができるよう考慮された。これらの回線は壁面パネル経由でB305教室での録音を可能にしたほか、B308教室に設置されているPro Toolsシステムでも録音可能である。 こちらの独立したPro ToolsシステムではインターフェイスにPro Tools | Carbonが採用され、こちらでもPro Toolsを中心とした授業が行えるよう設計された。こちらの教室は単独で授業を行うことが多く、作曲系のレッスンで使用されることも多いため、Pro Tools以外にもLogicがインストールされている。こういったHost DAWが複数ある場合、それぞれのアプリケーションで同一インターフェイスを使用することが想定される。従来のインターフェイスであれば、それぞれのアプリケーションを同時に起動することは難しいが、Pro Tools | CarbonのAVB接続ではPro Toolsと他アプリケーションで同時にI/Oを共有できる。AVBのストリームをPro Tools専用の帯域とCore Audioとして使用可能な帯域とで分けることにより、Pro Toolsと他DAWが同時起動できる仕組みは、こちらの教室では非常に有効な機能だ。 📷B308教室の独立したPro Tools システムはPro Tools | Carbonをインターフェイスにし、AVB接続による他DAWと同時起動できる仕組みを活かした授業が行われている。また、こちらのClarity MはUSB接続となっている。 また、Pro Tools | Carbonの特長でもあるハイブリッド・エンジンにより、DSPエンジンの恩恵を受けることができるため、DSPプラグインを使用したり、ローレイテンシーでレコーディングをする、といった作業も可能だ。音質についても講師陣からの評価が非常に高く、作編曲と録音の両分野をシームレスに学ぶという点でも最適なインターフェイスである。システムの中心がPro Tools | Carbonではあるが、こちらの教室でも様々な授業が行われるため、B305教室と同様にHDMI外部入力にも対応したシステムが構築されている。こちらはAvid S6やPro Tools | MTRXのようなシステムはないため、モニターシステムはSPL MTCが導入されている。 4教室を連結、1つのスタジオに 今回の改修において最大の特徴である教室間を連携したシステムは、録音ができるマルチブースを完備するためでもあるが、昨今のコロナ対策として密集を避けて録音授業やレッスンを実施できるようにする目的もある。各教室は一般の録音スタジオのようにガラス窓などは設けられていないが、その代わりに各教室壁面に用意されたパネルには音声トランク回線のほか映像回線も用意されており、全てがB305教室とB308教室へ接続することができる。 📷4分割表示されたモニタディスプレイ。画面の上部には小型カメラが設置されている。 B305教室の映像系ラック。Smart Videohubでソースアサインを可能にしている。 4部屋に用意されたテレビモニターシステムは、モニタディスプレイと上部に設置された監視カメラ用の小型カメラから構成されている。B305教室では、各教室のカメラ回線がBlackmagic Design Smart Videohub Clean Switch 12x12に接続されており、各部屋への分配を可能にしている。さらに組み込まれたMulti View 4で4部屋のカメラ映像をまとめて1画面で表示し、各教室同士でコミュニケーションを可能にした。それだけではなく、分散授業の際にはB305教室の模様を全画面でディスプレイに表示し、B305教室では各部屋の学生の様子をモニタリングしたりと、授業内容によって自由にカスタマイズ可能である。 もちろんCUE Boxも各部屋に配置されているが、授業という形態を取るにあたり受講者全員がヘッドホンモニタリングするということは難しい。そのため、CUEシステムの1、2chをSDIに変換してモニタディスプレイの回線にエンベデッドし、各モニタディスプレイに分配、ディスプレイの音量ボリュームを上げることで、ヘッドホンをしていない受講者もCUE回線を聴くことができるよう設計された。こういった活用方法は一般の音楽スタジオでは見られない設計で、大学の教室ならではの特徴である。 ジャンルを越えていく教室の活用法 実際にAvid S6を使用して、まずはじめにPro Tools | MTRXの音質の良さが際立ったという。音質に定評のあるPro Tools | MTRXは音楽大学の講師陣からも絶賛だ。さらに、Avid |S6はレイアウトモードが大変便利だという。24ch仕様でフェーダー数に限りがあるため、レイアウトをカスタマイズできる機能は操作性が良く、柔軟にレイアウトを組むことができて再現性も高い。レイアウトデータがセッションに保存されるところも特徴で管理がしやすいのも特徴だ。視認性の高さという点では、ディスプレイモジュールに波形が表示され、リアルタイムに縦にスクロール表示されるのも視覚的に発音タイミングを掴みやすいので、MAなどで活用できそうだという。 実際にこちらの教室で行われる授業は、録音系の授業やレッスンでは実習が中心となり、学生作品や他コースからの依頼などで様々なジャンル、編成でのレコーディングやトラックダウンをS6で学び、またTrident 78、SSL Logic Alpha、RME Octamic、MTRXなどの様々なマイクプリの比較や、アナログとデジタルの音質の聴き比べなども行う。今後はMAやゲーム音響制作のレッスンでも使用予定だそうで、今回導入したJoystick Moduleもぜひ活用していきたいと語る。ほかにも、ジャンルの枠にとらわれないコース間のコラボレーション企画や学生の自主企画が多く執り行われており、2021年3月には、声優アニメソングコース、ダンスコース、音楽・音響デザインコース、音楽環境創造コースのコラボレーションによる、2.5次元ミュージカルが上映された。このようにユニークな企画が多く開催されているのも、学生の自主性を重んじる洗足学園ならではである。 また、コロナ禍により全面的な遠隔授業やレッスン室にパーティションを設置するなど、万全の感染対策を施した上で、いち早く対面でのレッスンを実現したことや、年間200回以上も上演されている演奏会では、入場者数の制限や無観客の配信イベントとして開催するなど、学生の学びを止めることなく、実践を積み重ねることで専門性を磨き、能力や技術の幅を広げている。 今後、このS6システムを活用して学生作品のコンペを実施し、優秀作品をこのスタジオで制作することを検討しているという。音楽大学のリソースを活かして、演奏系コースとのレコーディングプロジェクトを進めたり、こちらの教室を中核にした学内の遠隔レコーディングネットワークをさらに充実させる計画もある。アフターコロナでどの音楽大学も学びのスタイルを模索している中ではあるが、このように洗足学園ならではの制作環境を実現し、学びの場を提供し続けていくのではないだろうか。 洗足学園音楽大学 音楽・音響デザインコースで教鞭をとる各氏。前列左から、伊藤 圭一氏、森 威功氏、山下 康介氏、林 洋子氏。また、後列はスタジオ改修に携わった株式会社楽器音響 日下部 紀臣氏(右)、ROCK ON PRO 赤尾真由美(左) *ProceedMagazine2021号より転載

Education

浜町 日々 様 / 〜伝統芸能が得た、テクノロジーとの融合〜

福井駅からほど近い浜町。福井の歓楽街といえば片町が有名だが、その片町と市内を流れる足羽川との間の地区が浜町である。古くから花街として賑わい、現在でも料亭が軒を連ね情緒あふれる街。国指定の登録有形文化財としても有名な開花亭や、建築家 隈研吾の設計によるモダンな建築も立ち並ぶ文化の中心地である。そんな浜町に花街の伝統的な遊びをカジュアルに楽しむことの出来る「日々」はある。今回はこのステージ拡張に伴う改修をお手伝いさせていただいた。 芸妓の技。日本の伝統芸能とテクノロジー。 ステージ奥のスクリーンをおろした状態での演目の様子。福井・浜町芸妓組合の理事長である今村 百子氏が伝統的な演目を披露し、背景には福井の風景が流れる。まさに伝統芸能とテクノロジーが出会った瞬間である。 日々は、福井・浜町芸妓組合の理事長でもある今村 百子氏が立ち上げたお店。お座敷という限定された空間で、限定された特別なお客様にしか披露されてこなかった芸妓の技。それを広く、カジュアルに楽しんでもらいたいという思いからスタートしている。バーラウンジのようなお店にステージがあり、そこで毎夜これまでお座敷でしか見ることができなかった芸妓さんたちの日本舞踊や、三味線、唄を楽しむことができる。 この日々のステージがこのたび拡張され、様々な催しに対応できるように改修が行われた。改修にはレコーディングエンジニアでもあり、様々な音楽プロデュースを行うK.I.Mの伊藤圭一氏が携わっており、コンセプトや新しい演目のプロデュースなどを行なっている。元々、日々にあったステージは非常に狭かった。「三畳で芸をする」という芸妓の世界、お座敷がそのステージであることを考えればうなずける。これを広げ、日本の伝統芸能だけではなく、西洋の芸能、最新のテクノロジーと融合させ新しいステージを作ろう、というのがそのコンセプトとなる。 普通に考えれば、クローズドな世界に見える日本の伝統芸能の世界だが、今村氏の持つビジョンはとてもオープンなものだ。2017年には全国の芸妓を福井に集め、大きなステージに50名近くの芸妓が集まり、それぞれに磨いた芸を披露する「花あかり」というイベントを行なっている。芸妓の技を広く、カジュアルに楽しんでもらいたいという考えを具現化したわけだ。このように新しいことへ果敢にチャレンジするスピリットを持った今村氏のイメージを具体化できるステージを作ろう、ということで伝統芸能とテクノロジーの融合というコンセプトがさらに詰められていくことになる。 無拍子である日本の伝統芸能に指揮者代わりの声やクリックを持ち込み、バックトラックに合わせて演奏をする。プロジェクターを使い、福井の映像とともに舞踊を披露する、そしてマイクで集音し拡声する。現代のステージ演出としては当たり前に聞こえることかもしれないが、「日本の伝統芸能を」という枕詞をつけた瞬間にハードルの高いチャレンジとなる。なんといっても無拍子である。様々な演出のきっかけを決めることだけでも困難なことだ。このような多くの課題を持ちながら、ステージの設計は進められていくこととなった。 スクリーンを上げると手作業で金・銀・銅をヘラで塗り重ねた四角錐のホリゾントが現れる(下部左)。和を意識する金と、幾何学的な造形。照明により、表情を変化させる建築デザイナー 大塚先生のアイデアだ。 透過スクリーンに浮かび上がる表現 ステージ天井部分にはホリゾントのスクリーンと透過型スクリーン用に2台の超短焦点型のプロジェクターを準備し、この位置からの投影を可能としている。 まずは、映像演出から見ていこう。ステージのホリゾントは、今回の改修の建築デザイナー、大塚 孝博氏による金の四角錐があしらわれている。一般的には、金屏風や松などが想像されるが、ここに幾何学的な金の四角錐とはなんとも粋である。日本の古来のデザインにも幾何学的な模様は多く使われているが、この四角錐は照明の当たり具合により変幻自在に表情を変える。金・銀・銅をヘラで塗り重ねており、一つ一つ反射の具合も異なる。これにより有機的な表情を得ている。 ここに映像との融合を図るわけだが、さすがにこの四角錐のホリゾントへプロジェクターで投影することはできないため、昇降式の大型スクリーンが吊られている。プロジェクターは超短焦点のレンズと組み合わせてステージ天井からの投写としている。これによりステージ上の人物は、ステージ後方1/3まで下がらなければ影が映らない。プロジェクターでの映像演出と、ステージ上での実演を組み合わせることを可能としている。 さらにステージには、透過型スクリーン(日華化学 ディアルミエ)が設置されている。この透過スクリーンに投影することで、ステージ上に人物を浮かび上がらせたり、視覚効果的に使ったりと様々な演出を行うことができる。例えば、笛を吹いている今村百子さんの映像を投影しながら、実際の今村氏がそれに合わせて三味線と唄を披露するという演目が行われている。周りを暗くすることで、ホログラム的に空間に浮かび上がっているような効果を得ることができている上、ホリゾントのプロジェクターとも同時使用が可能なため、演出の幅はかなり広い。 ステージ手前下手側に吊られた透過型スクリーン(日華化学 ディアルミエ)を使った演出、無拍子の笛に合わせるためにイヤモニでクリックを聴きながら演奏を行っている。また、透過型スクリーンはこのように歌詞を浮かび上がらせたりといった演出にも活用できる。空中にふわっと文字が浮かび上がったような幻想的な空気さえ感じる演出が可能だ。 スピーカーをイメージさせない音環境 音響としては、やはりスピーカーの存在をできるだけ目立たないようにしたいという要望があった。スピーカーが鳴っているというイメージを極力持たせないためにも大切なポイントだが、理想的な音環境を提供しようと考えると設計としては難しいものがある。結論から言えば、今回はステージプロセの上下にスピーカーを設置することとなった。上部は、視界よりも上の位置、下部はネットで覆い客席からは見えないように工夫してある。この上下のスピーカーの調整を行うことで、仮想音響軸をステージ上の演者の高さとするように調整を行っている。 音響ミキサーはYAMAHA TF-RACKを導入している。専門のオペレーターが所属するわけではないため、できるだけ簡単に操作できる製品としてこちらが選択された。接続されているソースは、2台のプロジェクターへそれぞれ映像を投影するために用意された映像プレイヤーからの音声、ステージ天井に仕込まれた2本のマイク、上下の袖にはマイクコンセントが設けられている。仮設の機器としては司会者などを想定したハンドマイクが用意されている。 ステージ天井のマイクはDPA 4017が選ばれた。コンパクトなショットガンタイプで、ステージの決まった位置に座ることが多い演者をピンポイントで狙っている。これらのソースは予めバランスを取り、演目ごとのプリセットとして保存、それを呼び出すことで専門でない方でもオペレートできるよう工夫が凝らされている。 映像に合わせた音声のバックトラックは、映像ファイルに埋め込むことで映像と音声の同期の問題を解消している。それらの仕込みの手間は増えるものの、確実性を考えればこの手法が間違いないと言えるだろう。天井マイクの音声にはリバーブが加えられ、実際の生の音を違和感なく支えられるよう調整が行われた。 プロジェクターの項でご紹介した笛を吹く映像に合わせて三味線と唄を歌うという演目では、演者の今村氏はイヤモニをつけてステージに上がる。無拍子の笛にクリックをつけた音声を聴きながらタイミングを図り演奏を行っているということだ。高い技術があるからこそできる熟練がなせる業である。呼吸を合わせ演奏を行う日本の伝統音楽の奏者にとって、これはまさに未知の体験であったことだろう。より良いステージのため、このようなチャレンジに果敢に取り組まれていることに大きな敬意を抱く。 マイクはステージ上での演奏を集音する為にDPA 4017を設置。音響および映像の再生装置はステージ袖のラックにまとめて設置され、専門ではない方もオペレートできるよう工夫が凝らされている。 ここまでに紹介したような芸妓の技を披露するということだけではなく、今後は西洋楽器とのコラボレーションや、プレゼン会場などの催しなど、様々な利用をしてもらえる、皆様に愛される空間になって欲しいとのコメントが印象的。日本の伝統芸能が、新たなスタイルを携えてこの福井の地から大きく羽ばたく、日々はその発信源になるステージとなるのではないだろうか。 前列左より、株式会社大塚孝博デザイン事務所 大塚孝博氏、浜町日々 女将 今村百子氏、株式会社KIM 伊藤圭一氏、後列左より:前田洋介、森本憲志(ROCK ON PRO) *ProceedMagazine2020-2021号より転載

Media

テレビ愛知株式会社 様 / 〜従来の感覚をも引き継ぐ、Avid純正のコンソール更新〜

愛知県を放送エリアとするテレビ東京系列のテレビ愛知、MA室の更新が2020年初頭に行われた。10年以上に渡り使われてきたAvid ICON D-Control(導入当時はDigidesign社)から、Avid S6へと更新されている。同時にファイルベース対応など、最新のトレンドを念頭にシステムを設計、その詳細をレポートしていく。 D-Controlを継承するS6を テレビ愛知では、MA室のメインコンソールとして10年以上に渡りAvid ICON D-Controlを使用してきた。テレビ局のIn The Box用のコンソールの導入としては、非常に早いタイミングから活用されてきたわけだが、当時、限られた予算の中でもMA室のシステムは今後DAWが主流になるということを予想し、先行して導入に踏み切っている。今回の更新では、逆説的な候補としてアナログコンソールなども挙がってはきたが、やはり、これまでの使い勝手の延長線上にあるAvid S6を導入することとなった。 すでに10年以上に渡りD-Controlを使ってきているため、導入に際してオペレート上の不安も少ないというメリットは大きかったようだ。Avid S6自体もバージョンアップを重ね、D-Controlを使用してきたユーザーからのフィードバックが多数反映されていることも背中を押した一因となっている。物理的なボタンの有無などの差異はもちろんあるが、すでに現在のAvid S6は、ほぼD-Controlで実現していた機能を網羅していると言っていいところまでブラッシュアップされている。 Avid S6の導入にあたりフェーダー数をどうするかは、かなり議論が行われたポイントだ。D-Controlは32 Faderであったが、Avid S6に更新を行うにあたり32Faderが本当に必要かどうか?ということが実機でのデモなどで検証された。Avid S6はLayout Mode、Spill Modeなど様々な工夫が行われており、最低限のFader数でミキシング作業を快適に行えるようになっている。これは、エンジニアが音響的にベストであるセンターの位置に座ったまま作業が行えるようにするという工夫でもあるが、これらの機能を実際に体験いただいて最終的には24 Faderという決着を見ている。メインエンジニアは最低16 Faderあればミキシングが行えるという判断をしていただいているが、やはり、効果担当を含めた2名体制でのミキシングもある。ここは16Faderではさすがに心もとない、ということもあり24 Faderがセレクトされた。 机上にS6が置いてあるようにも見えるが、一体となった専用設計のデスクとなる。センターポジションで、編集もミキシングも両方が行えるようにレイアウトされている。 D-ControlからAvid S6への更新を行ったことにより、コンソール自体のサイズはかなり小さくなった。特に奥行きが短くなり、部屋が広く使えるようになったのが使い勝手としては非常に大きなポイントとなっている。ディレクターのデスクに収められていたアウトボード関係も、必要なものはサイドラックへと移設され、足元の空間を十分に確保することができるようになっている。これはエンジニアだけではなく、ディレクターなどこの部屋を利用する方からも好評であるということだ。このレイアウト変更によりエンジニアは前を向いたまま、ほとんどの作業を手の届く範囲で行うことができるようになった。 Avid S6が収まるデスクも、作業を常に正面を向いて行うことができるように特注設計となっている。Avid S6を購入すると付属するFader手前の手を置く部分はBolsterと呼ばれるのだが、Keyborad、Mouseを置くには少し幅が狭い。Keybordトレイなども準備されているのだが、台本を置いたりということを考えると写真で確認していただけるような形状が望ましい。このデスクはAvid S6の各モジュールを収めるフレームを純正のカバーで仕上げるのではなく、そのままデスクに埋めることで手元のスペース拡大を実現している格好だ。 テレビ愛知株式会社 デジタルネットワーク局技術部 水野 正基 氏 株式会社アイプロ 技術部長 牟禮 康貴 氏 株式会社NAV 名古屋事務所長 高野 矢守至 氏 効率を実現したDAW環境 システム面では、Avid MTRXをAvid Pro ToolsのI/Oとしている。このMTRXで信号の集約を行い、モニターコントローラーとしてはTac System VMC-102を導入した。VMC-102を導入することでDAWのPCが起動していなくてもモニターセクションの切替が行える。一般的なコンソールで言うところのセンターセクションの機能を受け持っているわけだ。これはPCが不具合を起こした際にも最低限の作業は行えるようにという工夫の一つとなっている。また、VMC-102の最新バージョンアップで実装された、Blackmagic Design Smart Videohubのリモート機能も活用している。ブース、コントロールルームに映す映像の切替を、VMC-102での音声のモニターソース切替に連動させることで、オペレートの手順を削減することに成功している。たとえば、モニターソースとしてPro Toolsを選択すれば、各所のVideo MoniterにはPro ToolsのVideo出力が自動でパッチされる。同様にXDCAMを選択すると、音声映像ともにXDCAMに変更されるということだ。これは作業上オペーレートミスを減らすことにも直結しストレスフリーな環境を実現している。 ラックに収まったAVID MTRX。Analog 8IN/8OUT、64ch Danteがオプションとして加わっている。 モニターコントローラーとしてDAW PCが起動していなくてもコントロール可能なTAC SYSTEM VMC-102。映像モニターの切り替えもワンボタンで行えるように設定されている。 DAW環境周辺でのこだわりは、38inchのUltra-Wide Displayにある。多くの情報を見渡すことができるこのDisplayの導入はIn The Boxでのミキシングを前提とした環境においては非常に効果的。タイムラインの表示においては、前後長時間の表示が可能であるし、ミキサー表示においては多くのフェーダーを表示することができる。単純に言えば情報量が増えるということになるが、これは作業を行う上で非常に効果的だと言える。 広大な表示領域を提供する38-inch Ultra wide Display。解像度は3840x1600 予想外のマッチング、ATCとEVE 数多くの機種から選びぬかれたメインモニターのATC SCM25a。3-Wayのスピーカーでスタンドは日本音響エンジニアリングによる特注設計品 ミキサー席右に設置されているラック。元々、背面のディレクターデスクからの移設のSSL X-RACK、NEVE 33609、AJA KiPro GOが収まる 今回の更新ではモニター・スピーカーも一新している。様々な機種を持ち込ませていただき、比較試聴をしていただいた結果、ATC SCM25aが選択された。以前はDynaudio Air15を使われていたのだが、MA室を利用するエンジニアのほぼ全員がATCに好印象を持ったため、このスピーカーが選択されている。しっかりとしたボリューム感を持ちつつタイトに鳴るこのスピーカーは作業がやりやすいと好評であるということだ。スモールとしては、EVE AUDIO SC203を導入いただいている。不思議なことにATCとEVEのキャラクターが非常に似通っているため、切り替えた際の違和感も少なく、バランスを保ったままLarge/Smallの切り替えができるのでこちらも好評であるということ。ATCのスピーカースタンドは、内装工事を担当された日本音響エンジニアリングの特注設計品。また、コンソール背面には同社の特注AGS音響衝立が設置され、メインモニターとコンソール背面まわりの音場を整えることに一役買っている。 テレビ愛知ならではの導入機材としては、AJA KiPro GOが挙げられる。これまでは確認用のデータを民生のDVD Recorder、もしくはSDカードへ録画し、各所へ確認用として配布していたワークフローを更新した格好となる。複数のレコーダーの操作がKiPro GO 1台に集約することができ使い勝手が向上した部分とのことだ。また、機材もコンパクトなため機器の実装スペースの削減にもつながっている。AJA KiPro GOは同時に4系統のHD VideoをUSBメモリに録画できる製品。すでにDVDの需要は減っていたためデータでのワークフローとし、シンプルなこちらの製品へと更新された。 従来環境と違和感なく、効率的でコンパクト トータルとして見ると放送局ということもあり突飛な選択は行わずに、最新の製品を組み合わせることで効率的でコンパクトなシステムが実現できている。ただし、コンパクトになっても機能面では妥協はなく、ブラッシュアップされた部分も多い。ファイルベース・ワークフローへの対応としてNon-Leathal Application Video Slave Pro 4の導入、VTRもSONY XDCAM Stationへの更新など編集システムの更新により、どのような変化が起こったとしても柔軟に対応できる準備が行われている。また、システムの中心であるPro Tools、およびMTRXに関しては、持ち出し収録用のシステムを同一の製品とすることでバックアップ体制をとっている。MA室のPC、MTRXが故障した際には、可搬のシステムとリプレイスが行えるように冗長化がなされている。 実際にオペレートを行っている方の感想としては、導入直後よりD-Controlに慣れていたこともあり、非常にスムーズにAvid S6へと移行することができたとのことだ。また、コンパクトなサイズになったことで、すべてのスイッチ、ノブへのアクセスが容易となり、作業環境としての使い勝手は間違いなく向上している。やはり手の届くところに様々な機器が実装されているのは便利だ、と非常に高い評価をいただいている。今後、映像含めたファイルサーバーの更新なども予定されているということだが、それらにも柔軟に追従し、使い勝手をキープしたまま作業を行っていただけるシステム更新となっている。 さすがはAvid純正同士のコンソール更新、という面目を保つことができた今回の更新。従来のシステムを知り尽くしたユーザーだからこその気付きも数々ありながら、実際の導入後に満足感の高いコメントをいただけたことは、Avid S6の完成度の高さを改めて証明しているのではないだろうか。 写真手前右から株式会社アイプロ 牟禮康貴氏、渡辺也寸志氏、株式会社NAV 高野矢守至氏、写真奥右からROCK ON PRO 前田洋介、テレビ愛知株式会社 水野正基氏、株式会社アイプロ 山本正博氏、テレビ愛知株式会社 安松侑哉氏、ROCK ON PRO 廣井敏孝 *ProceedMagazine2020-2021号より転載

Broadcast

吹田市文化会館 メイシアター 様 / 〜DanteとAVBが共存するシステム〜

大阪梅田よりほど近い阪急千里線吹田駅前にある「吹田市文化会館 メイシアター」。吹田市制施行45周年を機に1985年にオープンした多目的文化施設である。正式名称は吹田市文化会館であるが、愛称であるメイシアターが広く知られている。充実した設備を備え、大中小3つのホールと、レセプションホール、展示室、練習室など様々な催しに対応できるキャパの幅広さと、コスト面でもリーズナブルに利用できることから人気を集める施設である。今回ここに音響メインコンソールとしてAvid S6Lが導入されたのでレポートしていきたい。 幅広い演目に対応する舞台環境 今回はAvid S6Lが導入された大ホール、中ホールを中心にご紹介したい。阪急吹田駅の目の前、JR吹田駅からも徒歩圏内とアクセスの良い立地、大阪梅田からは20分程度でアクセスができる利便性の高いロケーションに位置する。愛称のメイシアターの由来は、市の花である「さつき」のメイであること、また新緑あふれる「五月」を表す英語の「MAY」、さらには可能性を表わす助動詞の「May」を連想して、未来への希望を館名に託して命名されている。 大ホールはフルオーケストラにも対応する客席数1382席の多目的ホール。充実した舞台装置、そしてオーケストラピットを備えており、オペラやバレエの公演にも使用できる開口15~18m、奥行き17mの大きな舞台を備えている。音響反射板もあり、クラシックコンサートにもしっかりと対応することが可能だ。中ホールは、通常時客席数492席、舞台を取り囲むように客席を追加してアリーナ形式にすることで最大622席まで拡張することが可能。開口13~19m、奥行き10.5mという大きな舞台を備え、演劇、ミュージカル、古典芸能など様々な演目に対応する。こちらのホールも音響反射板が用意されており、ステージも十分に広いため小編成のオーケストラであれば十分に公演が可能である。ホールは照明設備も充実し常設の設備だけでほとんどの演目に対応できる。 雲が晴れた、音のピントが合った 音響反射板をおろした状態の大ホール。カラム、プロセに見える黒い長方形のものが L-Accousticのラインアレイ6/3で常設設置されている。調整室は、上手壁面が照明、下手壁面に音響がそれぞれある。 設備は1985年の開館の後、1997年~1998年に1回目の大規模な入れ替えが行われ、アナログコンソール、メインスピーカー等を更新しその約15年後デジタルコンソールYAMAHA M7CLに大・中ホールとも更新した。その後、機材の追加はあったものの大規模な改修作業は行われず、2017~2018年に満を持して大規模改修を計画し入札までこぎつけたがあいにく入札不調になり舞台機構、共用トイレのみの改修を当初計画の1年間休館して行った。改修開けの2018年6月18日に大阪北部地震が発生し震源にほど近く、吹田市も最大震度5強を観測した。メイシアターも大ホールの客席天井裏の吊り天井用鉄骨などに被害が出、大ホールの使用を中止した。震源にほど近く、最大震度5強を観測した吹田市ということもあり全館に渡り被害が出た。特に大ホールの被害が大きく、天井の鉄骨が曲がるなど大規模な改修を行わないことには、再開できない状況になってしまったということだ。 大規模な改修作業が必要となったことで2019年7月より2020年8月まで長期に渡る休館を実施。徹底的な改修が行われることとなった。改修は音響改修、ホールの椅子の交換、電源設備の更新など多岐に渡り、最新の設備を備えるホールへと生まれ変わった。音響面の変化は大きく、音響反射板の改修、座席の更新により、ホール自体の音響特性がブラッシュアップされた。具体的には、残響時間が0.4s程度長くなり、2.2s@500Hzと充実した響きを手に入れている。また、常設のプロセ、カラムスピーカーが、会館当時より使われてきた壁面内部に設置されたものから、外部に露出したL-Accoustic社製ラインアレイへと更新。どうしてもこもりがちであった音質面で大きく改善がなされた。 音量が必要な場合には、カラムの下部にグランドスタックを追加することができ、それほど音圧を求められないコンサートであれば十分に対応可能になったということだ。プロセスピーカーは昇降装置を備え、スピーカーユニットの故障等に客席レベルまで降ろすことで修理対応がしやすくなった。クラシックコンサート、オペラ、バレエなどの演目を行うホールにおいて露出型のスピーカーは敬遠される傾向が強かったが、近年ラインアレイ・スピーカーによる音質向上と、カバーエリアの拡大というメリットの方が勝り、また実際の導入例が増えてきていることもあって採用へと踏み切ったということだ。スピーカー駆動のアンプも同時に更新され、各アレイの直近に分散配置されている。コンソールからアンプまではAES/EBUでのデジタル接続で、外部からのノイズへの対策がなされている。また、各アンプラックには安定化電源装置も備えられ、音質への最大限の配慮が行われている。これらの更新により雲が晴れた、音のピントが合った、というような感想を持っていると伺うことができた。 2つのAoIPをどう活躍させるか その1年に渡る改修作業の中で、大ホール、中ホールへ常設音響メインコンソールとしてAvid S6Lが導入されることとなった。各ホールの音響調整室に設置されたS6Lは24Fader仕様のS6L 24Dをコントロールサーフェスに、エンジンはE6L-144が採用されている。I/Oは調整室、下手袖それぞれにStage64が用意され十分な入出力を用意している。大ホール、中ホールの設備は基本的には同一の設備、設置に関しても同一のレイアウトとなっている。つまり、一つ覚えれば両方のホールでのオペレートに対応できるため、オペレートするスタッフの負担を減らすように配慮されているということだ。 システムの設計上で苦労をしたのは、従来のYAMAHAコンソールを中心にしたシステムとAvid S6Lを共存させるという点。これまではYAMAHAのコンソールを中心としたシステムでDanteを活用したシステムアップが行われており、それらの機材は更新後もそのまま残されている。客席にコンソールを仮設してのミキシングなどのためにYAMAHA QL、TFシリーズ、LS9、M7CLが準備されていることからも、これはまだまだ活躍することになるシステム。一方のAvid S6LのバックボーンはAVBを使っている。そのため、DanteとAVBという2つのAoIPがシステム内に混在することになってしまった。 もちろん、Avid S6LにはSRC付きのDante Optionカードがあるため、そこを通じて接続されているわけだが、チャンネル数が制限されるため、運用の柔軟性を確保するための設計に苦心されたということだ。AoIPの接続はメタルのEthernetケーブルを使っているが、引回し距離は最長でも80mまでに収まるようにしているとのこと。それ以上の距離になる際には、一旦Switchを用意し距離減衰によるエラーが起こらないように注意が払われているということだ。取材時はホール再開直後ということもあり、実運用はまだこれからのタイミングであったが、96kHz駆動のコンソールということもあり、クリアな音質をまず感じているということだ。 中ホールのS6Lは大ホールと共通化された設置。 中ホール舞台より客席を望む。 大規模なツアーなどで目にすることの多いAvid S6Lだが、文化会館クラスの設備ではまだまだ導入例は少ない。固定設備としての導入も、国内では珍しいというのが現実である。若い技術者に今回導入されたコンソールでAvid S6Lに触れ、さらに大きなコンサートなどでのオペレートへと羽ばたいていってほしい、このAvid S6Lの導入が大阪で活躍する技術者の刺激にもなってほしいというとの思いもお話いただいた。将来の世代にも向けた多くの意志を込めたAvid S6Lの導入、是非ともその思いが大きな結果として実を結ぶ日を楽しみにしたい。 今回取材ご協力をいただいた、公益財団法人 吹田市文化振興事業団 舞台管理課 課長代理 前川 幸豊 氏(手前左)、舞台管理課 谷尾 敏 氏(手前右)、ジャトー株式会社 サウンド社サウンドアドバンス部 エンジニアグループ 主任 松尾 茂 氏(奥左)、ROCK ON PRO 森本 憲志。 *ProceedMagazine2020-2021号より転載

Music

朝日放送テレビ株式会社 様 / 〜Immersive制作を実現する、放送局におけるMA室改修を読み解く〜

大阪のテレビ朝日系列の放送局、朝日放送テレビ株式会社のMA室の改修を行った。放送局のMA室ということで、色々なトラブルに対応するための工夫はもちろんのこと、様々なスタッフが利用する施設であるため、操作の簡便化などを念頭に置きつつ、イマーシブフォーマットのオーディオへ対応するため天井へ4本のスピーカーを増設し、5.1.4ch formatのDolby Atmos仕様での最新設備へとブラッシュアップが行われた。朝日放送テレビでは、Flux Spat Revolutionをすでに使用いいただいていたこともあり、このソフトウェアを活用することで、様々なフォーマットの視聴なども行うことを前提として設計が行われている。 AvantをS6 + MTRXで置き換える 朝日放送テレビのMA室はこれまで、SSL Avant 48faderがメインコンソールとして導入され、コンソールミックスを前提とした設備となっていた。そのためMA室には、多数のアウトボード・エフェクトが準備されたシステムが組まれていた格好となる。しかし昨今はDAW内部でのIn The Boxミキシングが主流となっているということもあり、コンソールの更新にあたりデジタルコンソールとともに、DAWコントローラーとして主流となっているAvid S6が並行して検討された。放送局の設備として、コンピューター(DAW)が無いと何もできない製品を採用すべきなのか?という議論が当初は行われた。この部分はAvid MTRXが登場し、これをメインDAWとは別のPCで制御することで、システムの二重化が行えることがわかり、少なくともデジタルコンソールのセンターセクション部分は、十分に代替可能であるという結論となった。他にも様々な側面より検討が進められ、今回の更新ではバックボーンとして広範なトラブルにも対応を可能とする大規模なAvid MTRXを活用したシステムとAvid S6の導入となった。 Avid S6は40 Fader仕様と、従来のAvantと同一の規模。5KnobにDisplay Moduleが組み合わされている。モニターセクションは、MTRXをDADmanでコントロール。この部分は、前述の通りDADman専用にMac miniが用意され、DAW PCを起動せずともモニターセクションが単体で動作するような設計となっている。モニターセクションのリモートにはDAD monが用意され、フィジカルでのコントロールの利便性を上げている。DADman部分を二重化するにあたり、同一のプリセットファイルをサーバー上にバックアップし、PCの不良の際にはそちらからDADmanを起動することで回避できるように工夫がなされている。 これまで使用してきたAvantにはかなり多くの回線が立ち上がっていた、それらを整理しMTRXに立ち上げてある。そのため3台のMTRXが導入されたのだが、その使い分けとしてMain/SubのPro Toolsにそれぞれアナログ入出力、メーター関連、VTR送りとしてほぼ同一の仕様が2台。3台目はMain Pro Toolsに接続され、AV Ampからのアナログ入力及び、外部エフェクトSystem 6000が立ち上がっている。ここもシステム二重化が考えられている部分で、Main Pro Toolsの不具合時には、パッチでSub Pro ToolsがMainの回線を取れるように、また、MainのMTRXが壊れた際にはSubのMTRXを差し替えることで復旧が行えるようになっている。 MTRX3台をブリッジするDante 3台のMTRXは128ch Dante Option Moduleを使用してDante Networkに接続されている。この128chの回線が3台のMTRXの信号のブリッジとして活躍している。Danteであれば信号を分配することが容易なため、例えばAV Ampからの信号は、Dante上でモニターセクションをコントロールしているMain1台目のMTRXとSub MTRXへと送られているということだ。一見ブラックボックスに見えるこのシステムだが、一歩引いて考えれば理にかなったシンプルなシステムであることがわかる。二重化を前提としたシステムではあるが、普段はパッチレスですべての信号がMain/Sub Pro Tools両者で受け取れるよう工夫が行われている。 文字で書いてしまうとたしかにシンプルではあるが、かなりの検討を重ねた結果たどり着いたシステムであることには変わりない。また、実際のハードウェアセットアップにあたっては別の役目(パケットの流れるNetworkの切り分け)にも苦心した。具体的には、実際の音声回線であるDante(Primary/Secandary2系統)、S6をコントロールするEuCon、MTRXを制御するDADman、Pro Tools同士/Media Composerを同期させるVideo Satellite、ファイルベースのワークフローに欠かせないファイルサーバー。これら5つの異なるパケットがNetworkを必要とする。どれとどれを混ぜても大丈夫なのか、分けなければいけないのか?そして、ややこしいことにこれらのほとんどが同じ機器に接続されるNetworkであるということだ。できる限り個別のNetworkとはしていたが、すべてを切り分けることは難しく、かなり苦労をして設計を行うこととなった。様々な機器がNetowork対応となるのは利便性の上で非常に好ましいが、機器の設計者はそれらが同一のNetwork上で安定して共存できるようにしてもらいたいと切に願うところである。せっかく便利なNetoworkを活用した機器も、使いづらくトラブルを引き起こすものとなってしまっては本末転倒である。 朝日放送テレビのMA室には4台のPCがセットアップされている。それぞれ役割としてはMain Pro Tools用、Sub Pro Tools兼Media Composer(Video Satellite)用、DADman用、Flux Spat Revolution用となっている。これらのKVMの切替はAdderView Pro AV4PROが使われている。この製品をコントロールルームに置かれた外部リモコンにより切り替えるシステムだ。切替器本体はマシンルームに置かれ、切替後の信号がコントロールルームまで延長され引き込まれている。これにより延長機の台数を減らすことに成功している。KVM Matrixを実現するシステムはまだまだ高価であり、それに近しい安価で安定したシステムを構築するのであれば、このアイデアは非常に優れていると言えるだろう。 FLUX Spat Revolution専用機、DADman専用機として運用されるMac mini。その上部には、KVM切替器であるAdderが見える。 高さ方向に2層のレイヤーを持つ スピーカーシステムの話に移ろう。今回のMA室改修ではフロントバッフルを完全に解体し、TVモニターの更新、そしてLCR及びハイトLRの埋め込みが新しいフロントバッフルに対して行われた。サラウンドサイドのハイトスピーカーは、既設のサラウンドスピーカー設置用のパイプを使っている。そのため実際の増設分は、サラウンドLRの2本のスピーカーおよび、スピーカースタンドである。この改修により、Dolby Atmosフォーマットを参考とした5.1.4chのスピーカーシステムが構築された。なぜ7.1.4chにしなかったのか?という部分の疑問はもちろん浮かぶだろうが、朝日放送テレビにとって高さ方向に2層のレイヤーを持てたということの方が、後述するFlux Spat Revorutionの使用を考えると重大事である。スピーカーは元々5.1chのシステムで使用されていたMusik Electronicの同一の製品で4本が増設されている。 スピーカーレイアウトの平面図。L,R,Ls,Rs各スピーカーの上空にTOPスピーカーが配置されている。平面のスピーカーはMusik RL904が5本、上空はRL906が4本、これで5.1.4chのスピーカーレイアウトとなっている。フロントL,Rchはメインであるステレオ作業を考慮しラージスピーカーを理想位置である開き角30度に、Atmosはその内側22.5度に配置している。 スピーカーの補正用プロセッサーは、MTRXのSPQ Optionが活用された。SPQ Optionは、スピーカーの各出力に対して最大で16chのEQ及び、ディレイを掛けることができる強力なプロセッサーカードだ。これはMTRXのOption Moduleスロットを1つ専有してその機能が追加されることとなる。この機能を活用することにより、外部のプロセッサーを使わずにスピーカー補正を行うことができる。システムがシンプルになるというメリットも大きいが、クオリティーが高いMTRXのDA前段でプロセスが行われるため、そのアナログクオリティーをしっかりと享受できるというのも見逃せないポイントだ。 スピーカー正面図 リアハイトのスピーカーは2本のバーに専用金具でクランプ フロントハイトのスピーカーは高さを得るため半埋め込みに Ambisonics制作はスタートしている Flux Spat Revolutionの操作画面(メーカーHPより抜粋) これまで何度となく名前が挙がっているFlux Spat Revolution。このソフトウェアが何を行っているのかというと、3D空間に自由配置した音声をその一番近傍のスピーカーから再生するということになる。この機能を活用することで、各種イマーシブフォーマットを再現性高く再生することが可能となる。基本的なスピーカーの設置位置はDolby Atmosに倣ったものだが、Auro 3D、22.2ch、さらにAmbisonicsなども最適な環境で視聴することができるということになる。スピーカー数が多ければ多いほどその正確性は増すが、スピーカー数が限られた環境だとしてもその中でベストのパフォーマンスを得ることができるソリューションでもある。そして、このプロセッサーを通して作った(3D空間に配置した)音声は、ありとあらゆるフォーマットの音声として出力することができる。Dolby Atmos 5.1.4chの環境で制作したものを、スピーカーの設置角度の差異などを踏まえAuro 3D 13.1chとして出力できるということだ。 実際にこのFlux Spat Revolutionを使い、Ambisonicsの音声の制作は行われており、今後の配信サービスでの音声として耳にすることがあるかもしれない。直近では、ユネスコの無形文化遺産にも登録されている人形浄瑠璃・文楽の配信動画のVR版の制作に活用されたということだ。都合により、最終の音声はSpat Revolution経由のものではないとのことだが、Ambisonics音声の制作への挑戦がすでに始まっているとのこと。各所に仕込んだマイクの音声をパンニングすることで3D空間に高い再現性を持たせる、つまり、実際に仕込んだマイクの位置をSpat上で再現して、そこで鳴っている空気感をも再現することができているということだ。すでに各所で話題となっている、3D音声を使ったライブ配信などにも活用可能なSpat Revolution。ポストプロダクションからライブ会場まで様々な分野に活躍の場を広げているが、このMA室のようにしっかりと調整された環境で確認をしながら作業が行えるということは、作品のクオリティーアップ、作業効率の向上など様々なメリットをもたらすことだろう。 放送でも広がるイマーシブコンテンツ スタジオの全景。新しく作られたフロントバッフルには、従来より引き継がれたFostexのラージモニターとハイト方向を含む5本のMusik Electornicのスピーカーが見える。 放送局としては、強みでもあるスポーツ中継などにもこのソリューションの活躍の場を広げるべく様々な実験が行われているということだ。確かに、野球中継、サッカー中継などスタジアムで行われる音声であれば、会場の空気感をAmbisonicsで表現することは可能である。すでにスタジアムの様々な箇所に設置されている観客マイクを、Spat Revolution上に相対的な位置関係を再現することで、かなりクオリティーの高い現場の空気感の再現が可能となるのではないだろうか。これらの結果が早く楽しめるようになれば、現在の動画視聴の多くを占めるスマホ / タブレット+イヤホンの環境での視聴体験を拡張するものとなってくれるだろう。 少し脱線するが、この場合の配信音声はバイノーラルへと変換済みの2chの音声になると予想される。もちろん、一部のDolby Atmos Music、Sony 360 Reality Audioなどのようにマルチチャンネルデータのまま配信を行い、ユーザーの手元のデバイスでバイノーラルプロセスを行うものもあるが、映像配信においてはまだまだ2chが主流であると言える。バイノーラルの音声は、一般的なスピーカーで聞いても破綻のない音声であることは周知の事実である。もちろん、従来のステレオ音声に比べれば、音像が少し遠い、音の輪郭がぼやけるなどはあるものの、破綻をしているような音声ではない。そういったことを考えると、非常に今後に期待のできる技術ではあるし、放送局の持つノウハウを活かしたコンテンツの未来を感じさせるものであると言えるだろう。Spat Revolutionを使ってミキシングを行っていれば、バイノーラルでの出力はもちろんだがDolby Atmos、Auro 3Dなどの他のフォーマットでの出力も用意できることは大きなメリットであると言えるだろう。 スポーツ中継を想定して書き進めてしまったが、ほかにもクラシック・コンサート、オペラ、吹奏楽などの各種コンクール、新喜劇など劇場での公演にも非常に有効な手法であると言える。今回お話を伺った和三氏の2019年のInterBEEでのセミナーでもこれらの取り組みについて取り上げていたが、その中でもこのようにAmbisonicsで制作した会場音声のバイノーラル2chに対して、ナレーションを通常のステレオミックスであるように混ぜることで、会場音声は広がっていつつ、ナレーションは従来どおりの頭内定位を作ることができる、とご講演いただいている。これは大きなヒントであり、ヘッドフォン、イヤフォンでのコンテンツの視聴が増えているいまこそ、この手法が活きるのではないかと感じている。 Immersiveな音声でのコンテンツが今後の放送でも新たな価値を生み出すことになる。それに先駆けて改修対応を行い、多様な3Dサウンドへの最適環境を構築し、すでにコンテンツの制作もスタートしている朝日放送テレビの事例。まずは今回導入された高さ方向のレイヤーを持ったスピーカーレイアウトを活用して制作された音声が、様々なところで聴けるようになることを楽しみにしたいところ、そしてそのコンテンツをまた皆さんにご紹介する機会ができることを期待してやまない。 朝日放送テレビ株式会社 技術局員 出向 株式会社アイネックス 兼技術局制作技術部 設備担当 和三 晃章 氏 *ProceedMagazine2020-2021号より転載

Broadcast

株式会社松竹映像センター 様 / AVID S6 Dual Head + 4 MTRXシステムで進化した 変幻自在のDubbing Stage

株式会社松竹映像センターは、2015年にお台場へ移転をしてから早くも5年。移転前の大船時代より使い続けてきたEuphonix System 5から、映画の本場ハリウッドでも採用が進むAVID S6を中核としたシステムへと更新を行った。今回更新のテーマを大きくまとめると、「音質」と「作業効率」両者を最大限に両立しつつ様々なワークアラウンドに対応できるようにする、ということ。その実現に向けた機器の選定からシステムアップまでお手伝いをさせていただいた。 音質、効率、柔軟性、三拍子揃ったシステムを目指して システムの中心となるのは、AVID S6とAVID MTRX。Playout4台(*1)、Mixer2台、Dubber1台のPro Toolsと、従来のシステムから引き継がれたMixer3台とDubber1台のNuendo、これらが4台のMTRXに接続され、それぞれの繋ぎ変えにより様々なシステムを構成可能なようにシステムアップが行われている。従来のSystem5が担っていたConsoleのCenter Sectionは、MTRXのMonitor Profileがその機能を引き継いでいる。 以前の記事で松竹映像センターのご紹介を行っているが、大船からお台場へ移転の際に設計されたAnalog SRCとNuendoをMixing Engineとしたシステムは、ワークアラウンドの選択肢の一つとして今回の更新でもそのまま残されている。Analog SRCとは、Digital接続で問題となるサンプルレート、フレームレートの相違による問題の解決と、音質向上を狙ったMixing Engineの96kHz動作を行わせるために、Playout DAWとMixing Engineの間をあえてAnalogで接続するシステムをそのように呼んでいる。Playoutの素材として持ち込まれたデータの大半は48kHz。DAW内でサンプルレート変換を行っても良いのだが、一旦アナログにDAしてから96kHz動作のMixing Engineへと信号を導いたほうがサウンドとして良い結果が得られた。実際に音を聴きながら機器選定を行った結果として、2015年の移設の際に導入させていただいたシステムがこのAnalog SRCとなる。 このAnalog SRCは、サンプルレートの違いを吸収するとともにフレームレートの0.01%の吸収にも役立っている。できる限りデジタル上でのデータの改変は行わない、というのがこのシステムの根底に流れるポリシーとなっている。「デジタルの利便性と音質をいかに両立させるか」というのが、前回の更新の大きなテーマだった。今回の更新ではそこに「作業効率」という新たなテーマが加わった格好だ。 2020年 2015年 (*1)ダビングステージということでPlayout用に、D=Dialog(セリフ)、M=Music(音楽)、E=Effect(効果音)、F=Foley(効果音)のそれぞれに計4台のPro Tools HDXシステムが用意され、Eは128ch、D,M,Fは64chの出力が用意されている。これらはMADIによりMixer用のPro Toolsへと送られる 「現場の音」を届けたい 全てのシステムをシンプルにデジタルで直結することによりピュアなサウンドが保たれるのではないか?信号の経路を最短にすることでシンプルで効率の良いシステムが構築できるのではないか?そういったことが各方面より検討され、ハリウッドなどで活用されるシステムなども、松竹映像センターの吉田様に実際にハリウッド現地の視察を行っていただき、もたらされた情報とともに進められた。同時に、ハリウッドのスタイルでは、PlayoutのPro Toolsの内部である程度のSTEM MIXが行われ、Dubberの内部でFinal Mixが行われる。まさにIn The Boxのスタイルが良くみられる。しかし国内のダビングステージではMixing Consoleが健在であり、In The BoxでのMixingではなく、ConsoleでのMixingを求める声も大きい。 そこで、今回の更新では、AVID S6をSurfaceにMixng Engineとして機能するPro Toolsを2式増設することとなった。なぜ2式のPro ToolsにしたかというとInputのチャンネル数に余裕をもたせるためである。Pro ToolsはHDX card1枚に付き64chのIN/OUTという物理的な制約が存在する。現状最大構成となるHDX3で192chが上限ということになる。ステレオミックスであれば192chのInputは十分に思えるかもしれないが、5.1chを基本とする映画ダビングでは192chというのは、32 stemに当たる。これを4台のPlayoutに分配するとたったの8 stemとなる。設計段階でギリギリのスペックとするのではなく、余裕をもたせたい。その考え方から2台のPro ToolsをMixing Engineとして準備した。AVID S6が同時に8台のDAWをコントロールできるという機能性の高さにも助けられている。 最終段のレコーダーに当たるDubberは、従来のNuendoに加え、Pro Toolsが整備された。Dubberへの回線はAnaSRCを介しての接続と、デジタルダイレクトでの接続が両方選べるように設計されている。Analog SRCの場合には、FInal Mixは一旦DAされ他Analog信号がADされてDubberへと接続される。この接続には松竹映像センター様がお台場移転時に実現した一つの理想形。モニタリングを行っているスピーカーから出力されている信号を聞いて、エンジニアはその良し悪しを判断している。そのサウンドを残すことが、スタジオとしての命題である、という考え方だ。通常のシステムでは、レコーダーに収録された音を最終的に聞くことにより判断を行っている。しかし、レコーディングを行うということは、デジタルにおいても何かしらの変質をはらむ行為となるため、あえてシグナルパスは増えることになるが、ミキシング中に聞いている音との差異を最低限にするための一つの手法としてこの様な選択肢を持っている。 もう一方のデジタルダイレクトでの接続は、出来る限りそのままの信号を残すというデジタル・ドメインの理想形を形にしている。デジタルレコーダーから出力された音声は、デジタルのままピュアにレコーダーまで接続される。現代のデジタル・オーディオのシステムに於いて最後までアナログに戻さずに、劣化の少ないデジタルのまま、シグナルを処理するという理想形の一つだ。 このダビングステージは、サウンドのクオリティーを追い求める飽くなき探究を、実際にシグナルパスの変更により適材適所に選択できる国内有数のシステムとなっている。作品に合わせ、その作業の内容に合わせ、柔軟に変化できるシステムであり、現場の音をどうしたら理想に近いクオリティーで届けられるか、という飽くなき探究の結果が、理想のサウンドに合わせて選べるシグナルパスとして結実している。 アシスタント・デスクは1面増え、全5面のPC DISPLAYが設置されミキサー&レコーダーのコントロールを一括して操作することができる。 Play Out機を操作するカートは、Dual Displayへと改造され操作性が向上している。ユーザーからのリクエストの多かったポイントだ。 Column:AD/DAどちらが音質に効果的? ADコンバーターと、DAコンバーター。どちらが音質に対して与える影響が大きいのだろうか?もちろん、どちらも”コンバート”=”変換”を行う以上、何かしらのロスをはらむ行為となる。各機種を徹底して聴き比べた結果、Master Clockによる影響が同一だとすれば、ADコンバーターの音色差は、それぞれが持つプライスほどの差を感じなかった。一方のDAコンバーターは、同一のMaster Clockを供給したとしてもその音質差は大きく、メーカーごとの個性が確実に出るということがわかった。ちなみに、Master Clockを供給せずにインターナルで動作させた場合にはADコンバーターも差が大きく出ることを付記しておく。   ADコンバーターの動作原理は、線形波形を時間軸でスライスし(標本化)、その波形の大小を量子化することでPCMのデータを取り出している。標本化する時間間隔が標本化周波数=サンプリングレートであり、48kHzであれば、1秒を48,000等分するということである。そこでスライスされたデータは大小を基に量子化され、デジタルデータとして出力される。その際、WAVデータでは最大値をフルビットとし、無信号との間を24bitであれば16,777,216段階に分割。どの段階が一番近いかということで近似値をデータとして出力している。かなり細かく説明を書いてしまったが、線から点へ間引く作業を行っているとも言える。この間引く間隔がMaster Clockであり、その正確性がデータにダイレクトに反映する部分でもある、この部分が同一であれば、量子化する仕組みはどの機器もほぼ同一のデルタ・シグマ・モジュレーターを採用しているため、差が生まれにくいのだと考えられる。   もう一方のDAコンバーターは、間引かれて点になっているデータを、線形に変換するという作業を行っている。ここではオーバーサンプリングと呼ばれる技術が使われ、点と点の間を補完することで線形に変換している。この”補完”の部分は、ADコンバーターでも使われているデルタ・シグマ・モジュレーターが一般的には使われているが、DAコンバーターの場合には、複数の方式(何倍のオーバーサンプリングなのか、1Bit or マルチBit回路)があり、さらに線形の情報として取り出したあとにラインレベルまで増幅するアナログアンプが存在する。これらの違いにより、機器間の差が大きく出る傾向のようだ。   外的要因=Master Clockにより、その精度が画一化されるADコンバーターと、メーカーの設計による部分の大きいDAコンバーター。感覚的にはADの方が、とも思いがちだが、実際に色々と試してみるとDAの方が顕著な差があるということとなる。この結果は、あくまでもMaster Clockが存在するという前提のもとでの結果だということになる。Internal Clockであれば、その機器の持つClockの精度という、また別の音質に影響を与える要因が生じるということは忘れないでほしい。 “これまでの利便性を活かす”ソリューション 実際のシグナルフローのお話は、後ほどしっかりとさせていただくとして、AVID S6をみてみたい。これまでEuphonix System 5が導入されていたダビングステージ。写真を見ていただきたいのだが、特注で作ったSystem5用のデスクをそのまま流用している。8フェーダーごとにモジュール構成になっていたSystem 5を作業に合わせて、左右を入れ替えて使用していた。今回の改修では、デスクはそのまま、System 5で行っていたようなモジュールの入れ替えにより、サーフェースの変更にも対応する仕組みをこれまで通りに実現している。 これを実現したのが、イギリスのFrozen Fish Designというメーカーがリリースする「Euphonix Hybrid Backet」という製品。AVID S6のモジュールを、Euphonix System 5のモジュールとそっくりそのままのサイズのシャーシに収めてしまうというアイデア製品だ。もともとは、System 5とAVID S6が同居したHybrid Consoleを、というアイデアからの製品である。余談だが、AMS NEVE DFCのモジュールと同じサイズにAVID S6のモジュールを収める製品も同社はリリースしている。このFrozen Fish Design社製品の導入により、従来通りフェーダーを必要な箇所に自由自在に配置できるコンソールを実現している。 もう一つAVID S6としてのトピックは、Dual Head構成となっているということ。通常は1台のMaster Touch Module=MTMがコンソール全体の制御を受け持つのだが、松竹映像センターのAVID S6はサイズも大きく2台のMTMが必要となった(1台のMTMでの上限は64フェーダー)。物理的な問題もそうだが、数多くのDAWを並行して操作するというダビングのシステムにおいて、MTMが2つあることのメリットは大きい。複数のエンジニアがコンソールに向かい作業を行うため、左右で別々の操作・作業を並走することができるDual Head Systemは作業効率に対して大きなメリットをもたらす。基本的には、左手側がD/M、右手側がE/Fのエンジニアが担当することが多いとのことだが、場合によってフェーダー数を増減したり、操作するDAWを入れ替えたりということが、すべてのDAWを同一のネットワーク上に存在させているため簡単に行える。AVID S6の持つ強力なレイアウト機能、スピルゾーン機能などと組み合わせることで、柔軟な運用を実現できるシステムとなっている。 様々なニーズに対応できるS6×MTRXシステムの柔軟性 様々なワークアラウンドが組めるように設計されている、松竹映像センターのダビングステージ。そのワークアラウンドのいくつかをご紹介したい。 ●Direct Dubber 一番シンプルなシステムパターンとしては、MixerとなるDAWを介さずにMTRXの内部でSTEM MIXを行うというパターン。PlayoutのPro Tools HDXから出力された信号はHD MADIを通じでMADIとして出力される。この信号はMTRX #1号機もしくはMTRX #2号機を通じてMTRX #3号機へ送られる。4台のPlayout Pro Toolsでは、内部で数本のSTEMにミックスされたチャンネルが出力される。これらのSTEMは、最終的にMTRX #3号機でミックスされ、Dubberへと送られる。この際のサンプルレートは基本的に48kHz。シンプルなワークアラウンドで完結させるフローとなる。MTRX #3号機のミックスのフェーダーはDADmanアプリケーションを通じAVID S6のフェーダーで微調整が行えるというのは、特筆すべき事項である。これにより、これまでEuphonix System 5に委ねていたFinalミックスの作成作業をMTRXの内部で行うことができる。このシグナルフローはハリウッドでよく見られるものとほぼ同等である。 ●PT mixer w/Analog SRC 次に、MTRX #1 / #2号機に接続されている、Pro Tools Mixerを使用するパターン。この場合はPlayout内部でミックスを行わず、それぞれの素材がある程度の種類に分けられた複数のSTEMとして出力される。そしてMixer Pro Tools内部でミキシングが行われる。再生機としてのPro Toolsと、MixerとしてのPro Toolsが別々に存在しているというパターン。Pro Tools MixerはまさにSystem5などのハードウェア・コンソールで行っていた機能を代行するものであり、プラグインプロセスなどにより、その機能を拡張するものとして導入が行われている。このパターンでの内部プロセスは48kHzであり、Analog SRCの回路を経由してDubberの直前まですべてがdigitalでダイレクトに接続されている。 ●PT mixer w/Analog SRC@96k Playout Pro ToolsからMTRX #1/#2号機との接続の間にAnalog SRCを挟んだパターン。これにより、Mixer部分はPlayoutの素材のサンプルレートに関わらず96kHzでの動作が可能となる。ミックスを行うプロセスのサンプルレートはやはり音質に対して影響のある部分。ワークアラウンドとしては複雑にはなるが、それでもクオリティーにおいてはプラスに働く要素となりえる。これまでの松竹映像センターのダビングステージで行われていた作業のスタイルをMTRXとPro Toolsを用いてブラッシュアップしたパターンとも言える。48kHzでのマスター素材を収録するDubberの前には、やはりAnalog SRCが存在しているため、サンプルレート変換をPC内部で行うなどの作業は必要ない。まさに、音質と効率の両者を追い求めたシステムアップとなっている。 ●Nuendo mixer w/Analog SRC@96k もちろん、これまで使用されてきたNuendo Mixerも残されている。これによりMixer Engine部分をPro Toolsにするのか、Nuendoにするのかという贅沢な選択も可能となっている。Nuendoの場合には、これまでのシステムと同様に基本的に96kHzの動作でのシステムアップとなっているが、バックボーンとなるシグナルはすべてCoax-MADIに統一されており、パッチ盤での差し替えでいかようにでもシステムを組み変えることができるようになっている。柔軟性と、ダビングステージを使用するお客様のニーズに合わせて変幻自在にその形を変えることができるシステムだ。 マスターセクションとしてのMTRX MTRXのコントロールアプリ"DADmam"は4台を一括で操作できる。手元には、ハードウェアコントローラーMOMが置かれ、アシスタントは手を伸ばすことなくボリュームコントロールが行える。 今回のシステムアップにおいてMTRX #3号機は、まさにハードウェア・コンソールのマスターセクションを代替するものとしてDADman上での設計が行われている。モニターセクションとして、スピーカーボリュームの調整、視聴ソースの切り替えはもちろん、強力なCue Mixの機能を活用し、Assistant DeskへのHead phone送りのソースの切り替え、MTRX #1/#2号機から送られてくる信号のサミングなど、様々な機能を使いシステムアップが行われている。Avid S6のセンターセクションであるMTMからのコントロールと同時に、Assistant DeskにはDAD MOMが用意され、スタジオスタッフが手元でのボリューム調整が行えるように設計されている。 また、Playout用Pro Toolsのコントロールに使われるカートは、Dual Displayにブラッシュアップされた。やはりスタジオを利用するお客様からの要望が多いポイントであったということで、今回の更新に併せて変更された部分となる。このカートへのDisplay出力の仕組みは、これまで通りSDIへ信号を変換しVideo Patchで自由に組み替えができるシステムとしている。もちろんKVM Matrixシステムが導入できればよいのだが、PCの台数、Displayの台数を考えるとかなり大規模なシステムとなってしまうため、コストを抑えつつ、必要十分な機能を果たすということで、こちらのSDI延長システムを継続してご利用いただいている。 ぎっしりAVID MTRXのオプションスロットに設置されたMADI / Digi Link Module。96kHz稼働時にも十分なチャンネル数を確保できるようになっている。 今回の更新では、Dubbing Stageという環境での様々なニーズに応えるべく、かなり大規模なブラッシュアップが図られた。Dual HeadのAvid S6による操作性、機能性の向上。そして、MTRXの導入によるワークアラウンドの多様化など、そのポイントは実に多岐に渡っている。実際に作業を行った後にお話を伺うことができたのだが、習熟を進めている中であるという部分を差し引いたとしても、システムの柔軟性、利便性の向上はしっかりと感じられているとのこと。 デジタルの利便性へすべての信頼を置いてしまうことに疑問を持ち、制作過程における音質というポイントを思い起こしながら、音質と作業効率という反比例をもしてしまうような2つの要素を高度な次元で両立させたこのDubbing Stage。これから行う様々な作業の中で、今後どのようなワークアラウンドが行われていくのか?どのような選択基準でそれが選ばれたのか?実作業におけるシステム活用の様子にも大きな興味が持たれるところだ。 写真左より、株式会社松竹映像センター ポストプロダクション部 ダビング・MA所属の田中俊 氏、深井康之 氏、吉田優貴 氏、清野守 氏、久保田貫幹 氏、石原美里 氏、ROCK ON PRO 嶋田直登、前田洋介 *ProceedMagazine2020号より転載

Post

株式会社ミクシィ 様 / 新たな価値は「コミュニケーションが生まれる」空間のなかに

都内5拠点に分かれていたグループ内の各オフィスを集約させ、2020年3月より渋谷スクランブルスクエアでの稼働を開始した株式会社ミクシィ。渋谷の新たなランドマークともなるこの最先端のオフィスビル内にサウンドグループのコンテンツ収録や、制作プロジェクトにおける外部連携のコミニュティの場を設けるべく、この機に合わせて新たなスタジオが完成した。オフィス移転によるサウンドグループの移転だけでもプランニングは膨大な労力を伴うものとなるが、加えて高層オフィスビルへのスタジオ新設という側面や、何より同社らしいコミュニケーションというキーワードがどのようにスタジオプランに反映されたのか見ていきたい。 スタジオの特色を産み出した決断 これまで、青山学院にもほど近い渋谷ファーストタワーに拠点を置いていたサウンドグループ。そこにも自社スタジオはあり、主にナレーション録りを中心とした作業を行うスペースとなっていた。もちろん、コンテンツ制作を念頭に置いた自社で備えるスタジオとしては十分に考えられた設備が整っていたが、あくまでオフィス内のスペースでありミックスを形にするという設計ではなかった。また、コンテンツ制作には演者、クリエイターからディレクター、企画担当者など社内だけでも多数の関係者が存在するため、スタジオでいかにコミュニケーションを円滑に進められるか、ということは制作進行にとって重要な課題となっていた。そこへ、各所に分散していたオフィスの集約プランが浮上する。 新しいオフィスは当時建設中であった渋谷スクランブルスクエア、その高層階にサウンドグループのスペースが割り当てられる。そもそも全社のオフィス機能集約となるため、移転計画の最初からフロアにおけるスペース位置、間取り、ドアや壁面といった要素はあらかじめ決められていたものであり、高層ビルにおける消防法の制約もあったそうだ。例えば、スタジオ壁に木材が貼られているように見えるが、実はこちらは木目のシートとなっている。壁面に固定された可燃物は使用できないための対応だが、質感や部屋の暖かさもしっかり演出されている。取材の最後に明かされるまで我々も気がつかなかったほどだ。 そして、今回スタジオ向けに用意されたのは大小の2スペース。そもそもにどちらの部屋をコントロールルームとするのか、またその向きは縦長なのか横長なのか、制約ある条件のもと安井氏と岡田氏が試行錯誤を繰り返す中で着眼したのは"コミニュケーション”という課題。 ミクシィ社としてこのスタジオがどうあるべきか、どういう価値を出すのが正しいのか。専属エンジニアがいる商業スタジオではない、コミュニケーションが生まれる環境とはどのようなものなのか。これにマッチすることを突き詰めて考えた結果、レコーディングブースの方を広くとる設計になり、また当初縦長で進めていたコントロールルームの設計も思い切って横長レイアウトに変えたそうだ。もちろん、音響的な解決を機材面や吸音で行う必要もあれば、ブース窓の位置やテレビの高さ、モニタースピーカーの配置など課題は数多くなったが、これをクリアしていくのも楽しみの一つだったという。そしてこれらのポイントの解決に芯を通したのが"コミニュケーション”が如何にいい形で取れるか、ということ。このレイアウト段階での決断がスタジオを特色あるものにしたのではないだろうか。 音でのコミュニケーションを促進させる最初のツール 前述の通り、こちらは商業スタジオではなくミクシィ社でのプロジェクトにおける制作拠点、またその外部との連携に利用できるスペースとして機能している。自社コンテンツでのボイス・ボーカル収録はもちろんのこと、同フロアにある撮影スタジオとも協業で、自社タレントとユーチューバーの楽曲カバーコラボレーション企画のPV制作や、渋谷公園通りにあるXFLAGストアでのインストアライブの配信コンテンツミックスなどがすでに行われており、多種多様なコンテンツの制作がすでにこちらで実現され始めている状況だ。企画案件の規模によってはクリエイターのワークスペースで完結できるものもあるが、このようなプロジェクトで多くの関係者との共同作業を可能にする拠点、というのが今回のスタジオに求められている要件でもある。社外のクリエイターが来てもすぐに使えるような機材・システム選定を念頭に置き、またそこから「コミュニケーションが生まれる」ような環境をどのように整えたのだろうか。それを一番現しているのがアナログミキサーであるSSL X-DESKの導入だ。 コントロールルームの特注デスクにはPro ToolsのIn the boxミキシング用にAvid Artist MixとアナログミキサーのX-DESKが綺麗に収められている。X-DESKにはAvid MTRXから出力された信号、また入力に対しての信号、さらにレコーディングルームからの信号と、コントロールルームに設置されているマイクプリなど様々なソースに対して臨機応変に対応でき、使用するスタッフによって自由に組み替えが可能になっている。ただしデフォルトの設定はシンプルで、基本的にはマイクプリから来ているマイクの信号と、外部入力(iPhoneやPC上の再生)がミキサーに立ち上がっており、内外問わずどんなスタッフでも簡単に作業を始めることができる仕様だ。 これは現場での作業を想定した際に、ギターでボーカルのニュアンスを伝えたいクリエイターもいれば、ブースでボーカリストの横に入ってディレクションするケースであったり、Co-Write(共作)で作業を行う場合など、共同作業がすぐに始めて立ち上げられて、バランスまで取れる環境を考えるとアナログの方が有利という判断。「音でのコミュニケーションを促進させる最初のツール」がアナログミキサーだということだ。 また、デスク左側にはMac miniを中心としたサブシステムが用意されている。こちらのMac miniにはNuendo/Cubaseもインストール、そのインターフェイスとなるRME Fireface UFX II も左側を向けてラッキング。これも来訪者がすぐさま使用開始できるように配慮されている部分だ。 セレクトされたコミュニケーションでの実用性 それでは、デスク右側のラックに目を向けたい。ラックの中でも特に存在感を放っているのが新型のMacProだ。2019年の夏頃から本格的にスタジオの設計を固め、機材選定も大方定まったところで中々導入時期を読めなかったのがこちらのMacPro。周知の通りで2019年末に突如として姿を現すことになったわけだが、このスタジオに導入されたのは、必須となるレコーディング作業だけに限らず、映像の編集も難なくこなせるであろう3.3GHz 12Core、96GBメモリ、SSD 2TBというスペック構成のもの。レンダリングが数多く走るなど負荷がかかる場面はまだあまりないようだが、意外にもその動作はかなり静粛とのことだ。 このラックではMac Proを筆頭に、ビデオ入力、出力の分配を担うBlack Magic Design SmartVideoHub。そしてAvid HDXからMTRXにつながり、MTRXからX-Deskや、各々ルーティングを細く設定できるバンタムパッチベイがある。Ferrofish PULSE16はMTRXからのDANTE Optionを有効活用し、ADATへ変換されBEHRINGER POWERPLAY16(CUE BOX)に繋がれている。その上にはAvid Sync HDがあり、マスタークロックとしてAntelope Audio Trinityがトップ段に設置されている。 また、モニタースピーカーについてはRock oN渋谷店舗にて十数のモニタースピーカーが比較試聴され、KS digital C8 Reference Rosewood(後に同社製のサブウーファーも導入)とAmphion One18が選ばれた。こちらは横長にしたコントロールルームのレイアウトを考慮してニアフィールドにスイートスポットがくる同軸のKS digitalと、バランスを重視してのAmphionというセレクトとなった。使用するスタッフによってナレーションでのボイスの部分にフォーカスしたり、あるいは楽曲全体を聴く必要があるなど、用途は制作内容によってそれぞれとなるためバランスの良さという共通項はありつつも、キャラクターが異なる2種類が用意された。 後席ソファー横にはデシケーターがあり、U87Ai、TLM67、C414 XLSなどが収められている。演者にもよるが特に女性の声優とTLM67がよくマッチするようで好まれて使用されることが多いそうだ。また、マイクモデリングを行えるSlate Digital VMSの姿も見える。こちらは試している段階とのことだが、ボイス収録の幅広さにも適用できるよう積極的に新たな技術も視野に入れているようだ。確実性あるベーシックな機材を押さえつつ、 新MacProやMTRXといった新しいプロダクトを導入し、かつコミュニケーションの実用性を図っているところが、こちらの機材セレクトの特色でありユニークなところと言えるだろう。 レコーディングブースを超えた多目的さ 大小のスペースのうち、広い方を割り当てたブースは主にナレーション録音が行われる。天井のバトンにはYAMAHA HS5Wが5ch分吊るされているのだが、用途としては5.1chサラウンドへの対応だけではなく、イベント向けの制作に効果を発揮するという。イベント会場では吊られたスピーカーから音が出るケースが多く、その環境を想定しての音作りを求められることが多いためだ。多様な企画を行うミクシィ社ならではのスピーカー環境の利用の仕方と言える。なお、センターにあるHS5Wの横にもパッシブモニター YAMAHA VXS5W(パワー・アンプはコントロールルームにYAMAHA MA2030aを設置)がTalkBack用の返しモニターとして設置されている。このようにヘッドフォンに返すのではなく、あえてモニターでTalkBackを送るというのは、コントロールルームとのコミニュケーションをよりよくするために考えられた発想だ。 また、コントロールルームのラックにあったBlackMagic Smart Videohub 12x12にて、ディスプレイモニターには映像の出力やPro Toolsメイン画面を切り替えにて映し出し可能、レコーディングブースでもミキシングも行えるようになっている。急ぎの案件ではブースとコントロールルームでパラレル作業を行い、作業部屋二つのようなスタイルでも使われるとのことだ。そして、壁面のパネルは演者の立ち位置を考慮して4面それぞれに配置されている。4人でのナレーションを録る場合や、さらに声優たちの個別映像出しにモニター出力用のSDI端子、CUE送り用のLAN端子。また、スタッフがブース内でPC/Macを持ち込み映像を見ながら打ち合わせをする場合に備えての社内LAN回線までもが備えられている。ミクシィという企業ではこの先にどんな制作物が発想されてもおかしくない、とのことで考えうる最大限の仕様が織り込まれた格好だ。スピーカーが吊るされたことにより、無駄なくスペースを広く保ち、録音はもちろんコントロールルームと並走したミキシングの機能まで兼ね備えている。単にレコーディングブースと呼ぶには留まらない特徴的な”多目的"スペースを実現している。 コミュニケーションを生み出す仕掛け コミュニケーションを生み出すというコンセプトによって生み出された工夫はほかにもある。コントロールルームの後方にあるソファは通常はクライアント用と考えられそうだが、こちらは商業スタジオではないためこのスペースも立派に作業スペースとして成り立つ必要がある。そのためこのソファの内部2箇所に可動式のパネルが隠されている。クリエイターやプロデューサーがPC/Macを持ち寄り、その場で持ち込んだ素材(オーディオファイル)の確認や、映像の出力、もちろんディレクションも行えるようにモニターコントローラーとして採用されたGrace Design m905のTalkBackマイクのスイッチがアクセスできるようになっている。当初このアイデアは壁面や床面など設置位置に試行錯誤があったようだが、その結論はなんとソファの中。これによってスタジオのデザイン的な要素や機能面も損なうことなく、コミュニケーションを生み出す仕掛けが実現できている。 また、コントロールルーム正面からそのまま窓越しに演者とコミュニケーションが取れるようにというのが、レイアウトを横長に変更した大きな理由であったが、ブースへの窓はエンジニア席だけではなく、このソファからの視線も考慮されて位置が決定されている。窓位置はモニタースピーカーの位置決定にも関わるし、テレビの配置にも関わる。施行前から座席部分にテープでマーキングして両氏が念入りに試行錯誤を重ねたそうだ。 そして、このフロアにはサウンドスタジオのみではなく、連携して協業する撮影スタジオのほか、会議室、社員の休憩スペースからコンビニエンスストアまで整っている。インタビューを行った会議室や休憩スペースは遠く水平線まで見渡せる開放的なスペースで、集中した作業を行うスタジオ内と実に対照的。作業のON/OFFがはっきりとした環境で生まれるコミュニケーションも良好なものになりそうだ。 最後に話題となったのは、スマートフォンにおける5Gへの対応だ。 「まさに実用が始まったばかりとなる5Gの高速な通信は、端末に頼らなくとも大容量のコンテンツを成立させることができるかもしれない。もちろん、アプリやゲームも5Gの恩恵を受けてより高度な表現を提案することが可能になってくる。サウンドで言えばバイノーラルへの対応でキャラクターへの没入感をより深いものにできるかもしれない。5Gで何ができるのだろうか、提供されるインフラとはどのようなものだろうか、そして顧客へ提供できるサービスとはなんだろうか、このような着想から生み出されるのは各社の特色。そして何に強みを持ってコンテンツを作っていくのか、これによって整えるスタジオの環境も変わってくる。」 インタビュー時の両氏のコメントをまとめたものだが、やはり見据えているのはインフラやプラットフォームまで含めたエンタテインメントコンテンツそのものであるという点で、クリエイティブワークだけではない視野の広さが求められているということが感じられた。このスタジオが生み出すコミュニケーションの積み重ねが、5Gの可能性を引き出し、エンタテインメントの可能性を拡げていく。今後このスペースは従来のスタジオ以上の価値を生み出していくことになる、とも言えるのではないだろうか。 株式会社ミクシィ モンスト事業本部 デザイン室 サウンドグループ マネージャー 安井 聡史 氏     株式会社ミクシィ コーポレートサポート本部 ビジネスサポート室 サウンドライツグループ 岡田 健太郎 氏 *ProceedMagazine2020号より転載

Media

株式会社IMAGICA SDI Studio 様 / 国内外のニーズを両立させる、グローバルスタジオの最先端

長い歴史と高いクオリティを背景に、映像コンテンツのポストプロダクション事業におけるリーディング・カンパニーである株式会社IMAGICA Lab.と、欧米・アジアに数多くの拠点を持ち、メディア・ローカライズ事業をグローバルに展開するSDI Media Group, Inc.。ともにIMAGICA GROUPの一員であるふたつの企業による共同設立という形で株式会社IMAGICA SDI Studioが誕生した。映像コンテンツの日本語へのローカライズと、アニメーション作品の音響制作を主に手掛ける同社の拠点として、2020年2月に旧築地市場付近にオープンした同名のスタジオは、国内外からの様々な要求に応えるために、高品位な機器設備の導入だけでなく、欧米と日本のスタンダードを両立したスタジオ設計を目指したという。本記事では今後ますます起こり得るだろうグローバルな規模でのコンテンツ制作を可能にしたこのスタジオの魅力を紹介していきたい。 国内外双方の要望に応えるポストプロダクション 株式会社IMAGICA Lab.(以下、IMAGICA Lab.)と言えば、名実ともにポストプロダクション業界を代表する企業だ。国内最大規模のポストプロダクション事業を展開する企業であり、その歴史は戦前にまで遡ることができる。国内開催の五輪や万博といった歴史的な事業との関わり、独自技術の開発など、ポストプロダクション業界への貢献は計り知れない。一方、2015年にIMAGICA GROUPに参画したSDI Media Group, Inc.(以下、SDI)は、ロサンゼルスに本拠を置き、欧米とアジアに150を超えるレコーディングルームを持った世界的なローカライズ事業者。グローバルなコンテンツのダビングとサブタイトリングをサービスとして提供している。 そして、業界のリーディングカンパニーであるこの2社が2019年に共同設立したのが株式会社IMAGICA SDI Studioとなるのだが、この2社のコラボレーションの開始は同じグループ企業となった2015年に遡る。当初はIMAGICA Lab.が国内のクライアントから請け負った日本語コンテンツの多言語字幕吹替版の制作事業を中心に行っており、日本語吹替版の制作はIMAGICA Lab.内のMA室を改修したスタジオで2017年から実施されていたという。日本語吹替版制作事業が順調に拡大する中で、海外コンテンツの日本語ローカライズに対する需要の高まりを受け、国内外双方の要望に応えるために両者の共同出資によるグループ内企業を設立。そして、同企業の所有するスタジオとしてのIMAGICA SDI Studioのオープンが決まったということである。 101 102 103 IMAGICA SDI Studioの主な事業は、映像コンテンツの日本語吹き替え版の制作と、アニメーション作品の音響制作ということになるのだが、こちらのスタジオを拠点とした業務にとどまらず、翻訳者や声優のキャスティングから納品物の制作に至るまでを一手に引き受けることができる総合的なプロダクションとなっている。クライアントからすれば、IMAGICA Lab.とSDIの実績を背景とした豊富なノウハウと厳密なクオリティ管理の下に、プロジェクト全体をワンストップで依頼できるというわけだ。まさに時代に即応した現代ポストプロダクションの申し子とも言うべき企業が誕生したと言えるだろう。 海外仕様と日本のメソッドを融合 国内では類例のない広さを持つ102レコーディングブース。台本が見やすいようになるべく明るい部屋を目指したという。マイクはNeumann U 87 Ai。 「IMAGICA Lab.とSDIの両社で作ったスタジオということで、国内のお客様から求められる仕様と海外のお客様から求められる仕様を両方組み合わせて、両方のお客様に応えられるような設備の組み合わせを作ったというところが、一番特徴的かと考えています」と、株式会社IMAGICA SDI Studio 代表取締役社長 野津 仁 氏より伺えた。この国内外両方の顧客ニーズへ応えるために、仕様決定についてはSDI側からのリクエストも仔細に反映されている。当然、それぞれの国ごとに建築事情も違えばワークフローのスタンダードも異なっており、両立するための工夫がスタジオ全体の微に入り細に入り凝らされているが、その中でもこの両者の融合がもっとも顕著に現れているのが集合録り向けの部屋となる102ではないだろうか。 101を除く4部屋にはレコーディングブースが併設されているのだが、この102では国内でよく用いられている"集合録り"を行うための設備が整えられた。天井高:約3m/床面積:約40㎡という広々としたブースは最大25人程度を収容できるキャパシティを備えており、集合録り向けとはいえこれほど広いブースは国内でも珍しい。そこには、演者への快適な居住性の確保という観点はもちろん、海外に数多くの拠点を持つSDIの意向も強く反映されているという。ADRが主流となっている海外の制作現場では、ミキシング時に加工がしやすいクリーンな録り音を求める傾向が強い。リバーブ感も含めた各セリフの味付けは、レコーディング後の処理で追加するものという発想のようだ。そのため、天井高を確保することでブース内での反響を抑制し、可能な限り響きの少ない声を収録することを目指している。今回の音響設計は株式会社SONAの手によるものだが、狙い通り反響の少ない一つ一つの音が聴きやすく、かつS/Nもよい環境に仕上がったようだ。 同じようにブース内での反響を抑制するためにすべてのブースをプロジェクター+スクリーンにしたいとSDIからの要望もあったという。台本を持って収録にのぞむことになる日本のアフレコワークではスクリーンを使用すると部屋が暗くなり過ぎるため、残念ながらこちらは見送りとしたようだが、より反響を抑えるためにブースとコントロールルーム間のガラスを塞ぐことが出来るようにするなど、サウンドへの要望を実現するための工夫は随所に凝らされている。この102のブースは海外のクライアントが求めるサウンドと、日本で行われてきたワークフローとの両立が垣間見える、非常に興味深いスペースとなっている。 101 / 3mの天井高による理想的なDolby Atmos環境 それではスタジオの仕様を見ていきたい。全5部屋あるダビングスタジオのうち、101スタジオだけはレコーディング・ブースを持たないミキシング専用の部屋となっている。そして、この部屋がIMAGICA GROUP初のDolby Atmos対応ミキシング・ルームとなった。これまでもIMAGICA GROUPにはDolby Atmosに対応したプレビュールームなどはあったが、Dolby Atmos Home環境で制作が行えるスタジオはこちらが初めてとなる。 レイアウトはミッドレイヤーに7本、トップには4本のGenelec S360、サブウーファーは7380A 2本を使用した7.1.4ch構成。約3mに及ぶ天井高は、Dolby Atmosなどのイマーシブモニター環境としては理想的だ。この部屋は前述のように7.1.4 Dolby Atmosの構成をとるが、4本のトップレイヤーと、7本のミッドレイヤーとの間に十分な距離を取れないとミキシング作業に支障を来すということで、計画当初から3mの天井高を確保することが視野に入れられていたという。そこにモニタースピーカーとして採用された11本のGenelec S360が、最大出力118dB SPLというパワーで広い部屋の隅々まで音を届けている。 トップレイヤーを取り付けている位置は部屋全体からさらに浮いた構造になっており、音響的な「縁切り」がしっかりと行われている。 DAWは、メイン用と音響効果用に2式のPro Tools HDXシステムが導入された。メイン側のI/OはPro Tools | MTRX、効果用のI/Oは従来モデルのHD I/Oが採用されている。Pro Tools | MTRXはAD/DAに加え、Dolby Atmos RMUと信号をやり取りするためのDanteオプションカードと、ルームチューニング機能を提供するSPQオプションカードが追加された仕様だ。Dolby Atmos Home Mastering制作に必須となるDolby RMUは、昨年DolbyよりアナウンスされたばかりのMac mini構成。Mac miniはDante I/O カードとともにSonnet xMac mini Serverにビルトインされ、1UのコンパクトなサイズでDolby Atmosに必要な128chを処理する。限られたスペースに多数の機材をラッキングしなければならないMAスタジオにとっては、そのコンパクトさは価格も含めて魅力的な構成と言えるだろう。 コントロールサーフェスは、メインに16フェーダー構成のAvid S4、効果用にAvid S3を採用。S4はフラッグシップであるS6 M40に搭載された機能のほとんどを使用することが可能だが、今回はディスプレイモジュールなしとし、3Dパンニング対応のパンナーモジュールが追加されている。S4とS6 M10とのもっとも大きな違いのひとつがディスプレイモジュールへの対応だが、そのディスプレイモジュールを省いたのはこの部屋の映像モニターがスクリーン+プロジェクターであることと関係している。せっかく大型スクリーンで視聴できる環境を整えたのだから、その手前にカラフルなディスプレイモジュールを設置することは望ましくない、という判断だ。 パワフルな機能だけでなくコンパクトさも魅力Avid S4。様々な位置でミックスを確認できるよう、パンナーモジュールは特注ボックスに収納され本体の外に設置されている。 パンナーモジュールは特注専用ボックスと延長ケーブルを使用して、サーフェス本体から離れた位置でもパンニングを行うことができるようになっている。モニターコントローラーは、発売直後の導入となったGRACE DESIGN m908。名機m906の後継機として、Atmos対応を果たした同社の新たなフラッグシップ・モデルだ。IMAGICA Lab.では2部屋ある5.1ch対応MAスタジオの片方にm906が採用されていたのだが、その使い勝手が非常によいということで、こちらでは後継となるm908が全部屋に導入されている。 プラグイン関連に目を向けると、基本的に全部屋共通でWAVES Diamond、NUGEN AUDIO Loudness Tool Kit、iZotope RX7、AUDIO EASE各種、Video Slave 4 Proなど、ポストプロダクション業務でのデファクト・スタンダードが余すところなく導入されている。個人的には、その中にSound Toys Bundleが含まれているところが興味深いと感じた。MAというと、不要なノイズを除去するなど、ついついサウンドを"きれいに"する方向にばかり注目してしまうが、Sound Toysのように積極的に歪ませることが得意なプロダクトも導入されている点は、サウンドに対するこだわりを感じさせる部分ではないだろうか。 102~105 / 国内屈指の規模となる収録ブース群 102コントロールルーム そして、102~105は収録ブースを備えた部屋となっている。前述の通り102はいわゆる"集合録り"向けの部屋で、天井高:約3m/床面積:約40㎡という広々としたブースは最大25人程度を収容できるキャパシティを備えている。103~105は個別録り向けの部屋となっているが、それでも面積:約17~19㎡ x 高さ:約3mとなっており、一般的なスタジオと比べると大きなスペースを確保している。こちらでも微に入り細に入り不要な反響が発生しない工夫が凝らされており、クリーンな録り音を狙った仕様は102と同様だ。 102レコーディングブース 103レコーディングブース 機材面については、集合録り向けの102のみ収録機材が多いことを除いて、これら4部屋は基本的に同様の構成となっている。IMAGICA Lab.での実績を踏まえたオーセンティックな構成でありながら、課題となっていた部分を解決するためのモデル変更や最新モデルへのアップグレードなどが実施され、よりブラッシュアップされた仕様となっている。モニター環境は、配信系の映像コンテンツでは主流となっている5.1サラウンド構成を採用。モニタースピーカーには、国内出荷直後のGenelec 8351B(サブウーファーは7370A x2)が選ばれている。 そして、DAWは101と同様にPro Tools HDXシステム+Pro Tools | MTRXだが、102~105はHDXカードが1枚、MTRXのオプションカード構成も収録のない101とは異なったものとしている。コントロールサーフェイスにはAvid S3を採用。IMAGICA Lab.ではArtist | Mixを使用していたそうだが、フェーダーのクオリティ向上などを目的にS3が選ばれた格好だ。S3にはパンニング機能を追加できないため、パンナーとしてJL Cooper Eclipse PXが導入されている。102~105は5.1サラウンド仕様ではあるが、将来的な拡張性を考慮し、Dolby Atmos対応の本モデルが採用された。 Pro ToolsのホストマシンとなるMac Proは、101・102が旧モデル(いわゆる"黒Mac Pro")、103~105は発売されたばかりの新型Mac Proとなっている。最新のCPUに加え動画再生にも対応できるようメモリを増設、ホストマシンがワークフローのボトルネックとなることはほぼないのではないだろうか。モニターコントローラーも101と同じ、GRACE DESIGN m908が採用されている。ここにはPro Toolsからのアウトだけでなく、Mac Pro本体のオーディオアウトと、収録のバックアップ機として導入されているZoom F6が繋がっている。Pro Tools起動前に音声を確認したり、収録中に万一Pro Toolsが落ちた場合のブースとの音声のやり取りに使用するためだ。 ミキシング専用の部屋である101とは異なり、レコーディング作業もある102~105にはアナログコンソールが導入されているが、Avid S3と同じデスクの上にならべる必要があるため、そのサウンドクオリティとコンパクトさからSSL X-Deskが採用されている。HAはRupert Neve Design Portico 511とAD Gear KZ-912、Portico 511と同じシャーシにはダイナミクスとしてSSL E Dynamics Moduleもマウントされている。 全会一致で可決!?全部屋に導入されたGenelecスピーカー IMAGICA SDI Studioのスピーカー構成は101がGenelec S360+7380Aの7.1.4 Dolby Atmos、その他の部屋(102~105)は8351B+7370Aによる5.1 サラウンド仕様となっており、全部屋がGenelec製品で統一されている(101はステレオ用モニターとしてADAM AUDIO S2Vも設置)。前述の通り、設立当時はIMAGICA GROUP内でDolby Atmos対応のMAルームが存在していなかったため、それに応じるように吹き替え事業で需要のあるDolby Atmos対応ミキシングルームが作られた格好だ。その他の部屋も、近年の吹き替え作業での高い需要を鑑みて5.1サラウンド仕様となっている。特に配信系の映像コンテンツでは、現在はステレオよりも5.1サラウンドの方が主流と言ってよいようだ。 導入されたモデルについては、機材選定の段階で検討会を実施した際、ミキサーからの評価が非常に高かった2機種が選ばれている。ちなみに、この時の検討会では国内で試聴できるほとんどすべてのモニタースピーカーを一挙に聴き比べたという。S360については、「音が飛んでくる」「部屋のどこで聴いても音像が変わらない」「帯域のバランスがいい」など、参加したミキサーからの評判が非常に高く、ほぼ全会一致で導入が決定された。およそ3m x 35㎡という広い部屋をカバーするだけの、高い最大出力も魅力だったとのこと。当初は全部屋S360でもいいのではないか!?という程に評判がよかったようだが、101以外の部屋に設置するにはさすがにサイズが大きすぎるということもあり、8351Aが検討されたという経緯だ。その後8351Aについては、ちょうど導入時期にモデルチェンジがあり、8351Aから8351Bへとブラッシュアップされることが発表され、101を除く全部屋は8351Bで統一されることとなった。 S360 7380A 8351B 8351BはGenelecの中でも比較的新しい"One シリーズ"という同軸スピーカーのラインナップに属しているモデルだ。スピーカーを同軸モデルにすることに関してはSDIの担当者も非常に強く推していたそうで、「実際に音を出してみて、彼があれだけこだわった理由もわかるな、と思いました」(丸橋氏)というほど、位相感やサウンドのまとまりにはアドバンテージがあるという。同軸ではないS360との差異も違和感にはならず、却って差別化に繋がっているようで、それぞれのスタジオ環境に応じた的確なセレクトとなったようだ。 GLM+MTRX SPQカードによる音場補正 全部屋のモニタースピーカーにGenelec製品が導入されているため、音場補正はGLM(Genelec Loudspeaker Management)をメインとして行われている。同じく全部屋のPro Tools | MTRXにSPQオプションカードが換装されており、追加の補正を同時に施している。「基本的にはGLMで音作りをするという考え方で、SPQについてはそれプラスアルファ、必要な匙加減の部分を任せる、というような形です。」(池田氏)SPQカードは128のEQチャンネルと最大1,024のフィルターを使用した、非常に精密なチューニングを可能にしてくれる。IMAGICA SDI Studioの場合は、101が唯一スクリーン+プロジェクターという構成で、センタースピーカーがスクリーンの裏側に設置されている。そのため、スクリーン使用時はこのスピーカーだけ高域が僅かに減衰する。こうした部分の微調整を行うために、Pro Tools | MTRX のSPQカードによる追加の処理が施されているということだ。GLMとSPQのそれぞれの強みを活かし、クオリティと運用性の高さを両立していることが窺える。 高い操作性でイマーシブモニタリングにも対応するm908 今回、文字通り発売直後のタイミングで全部屋に導入されたモニターコントローラー GRACE DESIGN m908。そもそも、Dolby Atmosのスピーカー構成に対応できるモニターコントローラーの選択肢が、現状ではほとんど存在しないということも一因だが、現場のエンジニア諸氏が前モデルとなるm906の利便性を高く評価していたことが今回の採用に非常に大きく影響したようだ。 m908の必要十分な大きさのリモートコントローラーは、7.1.4構成時にもトップのスピーカーまで個別にソロ/ミュート用のボタンが存在するなど、作業に必要な操作がワンタッチで行えるように考えられたデザインとなっている。加えて、イン/アウトもコントローラー単体で自由に組めるためカスタマイズ性も高く、説明書を読まずに触ったとしてもセットアップができてしまうと評されるほどのユーザーインターフェイスを併せ持つ。また、m908はオプションカードの追加によって入力の構成を変更することが可能な柔軟性も魅力だ。アナログ信号を入力するためのADカードのほか、DigiLinkカード、Danteカードがあり、スタジオの機器構成に応じて最適な仕様を取ることができる。実際にこちらでもDolby Atmos対応の101とその他の部屋とでは異なるカード構成となっており、多様なスタジオのスタイルに合わせることができている。 これだけの規模のスタジオ新設、それも音関係の部屋のみで作るというのはIMAGICA GROUPの中でも過去にほぼ例がないことだったという。しかも、グローバルなコンテンツ制作への対応に先鞭をつけることが求められる一方で、足元となる国内からのニーズとも両立を計るというミッションがあったわけだから、その完成までの道程にあったクリアすべき課題は推し量るにも余りある。そうしてこれを実現するために2年、3年と行ってきた数々の試行錯誤は、いままさに実を結んだと言えるだろう。国内外のクライアントに最上のクオリティで応えることができる、IMAGICA SDI Studioという新たな拠点がいまスタートを切った。 当日取材に応じてくれた皆様。画像前列向かって右より、株式会社IMAGICA SDI Studio 代表取締役 野津 仁 氏、同社 オペレーション・マネージャー 遠山 正 氏、同社 ミキシング・エンジニア 丸橋 亮介 氏、同社 チーフ・プロデューサー 浦郷 洋 氏、後列向かって右より、株式会社フォトロン 鎌倉氏、ROCK ON PRO 岡田、株式会社ソナ 池田氏、同社 佐藤氏、ROCK ON PRO 沢口、株式会社アンブレラカンパニー 奥野氏 *ProceedMagazine2020号より転載

Post

株式会社WOWOW様 / 現用の各3Dオーディオフォーマットに準拠した空間

2018年冬に完成したWOWOW様の試写室「オムニクロス」。当初よりDolby AtmosとAuro-3D®そして、DTS:Xの各フォーマットに完全対応した環境が構築されていたが、さらなる追加工事を行い22.2chサラウンド完全準拠のモニター環境を完成させた。当初からの構想にあった現在運用が行われている各3Dオーディオフォーマットに準拠したモニターシステムがついに完全な形として姿を現した。 最新のソリューションを携えた新たな空間 「新 4K8K 衛星放送」における4K放送開局に向け、同社辰巳放送センターのC館の建て替えが行われた。旧C館にあった試写室は、冒頭にも述べたように各種3D オーディオフォーマットへの対応、そして比較試聴が行える空間となり、4K完全対応の最新のソリューションを携えたまったく新しいものへと変革を遂げている。映画向けのフォーマットとして成長しているDolby AtmosとAuro-3D®の両方に対応した設備は、ハリウッドなどの映画制作向けダビングステージで見ることはできるが、ここではさらにDTS:Xそして22.2chの対応をしている設備へとリニューアルされている。 水平角度、仰角それぞれのスピーカ推奨位置に完全に準拠したモニター環境を備えたこの部屋は、世界でも非常に貴重な存在である。写真を見ていただければ分かる通り、天井のスピーカーに関しては移動させることが困難なため、それぞれのスピーカー推奨位置に合わせて固定されている。たとえば、Auro-3D® / 22.2chサラウンド用は、スイートスポットからの仰角30°、Dolby Atmos用は仰角45°に設置といった具合。水平方向に関してもしっかりと角度を測定し、理想的な位置へ設置が行われている。正三角形を理想とするステレオから、ITU-R BS.775-1準拠の5.1chサラウンド、それを拡張したDolby Atmos / Auro-3D®それぞれのスピーカー推奨位置にしっかりと準拠するように考えられたスピーカーの配置だ。最終的に設置されたスピーカは、サブウーファーも合わせるとなんと33本にもなる。水平位置には11本、天井に17本、ボトムにあたる床レベルに3本、サブウーファーは2本という配置となる。 そして、この部屋で制作作業も行えるようにAvid S6を中心とした音声のプロダクションシステムが導入されている。Dolby Atmos Renderer、Auro-3D® Authoring Tools、AURO-MATIC PRO、DTS:X Creater Suite、Flux Spat Revolutionをはじめとする現時点で最新のツールがインストールされているのもその特徴のひとつである。それらを駆使しての研究・制作の場として、また最高の環境での試写・視聴の場としても、様々な用途に対応できるように工夫が凝らされた。プロダクションレベルでの仕上がりの差異を確認できるというのは、作り手として制作ノウハウを獲得する上での重要なポイントだ。仕上がりの確認はもちろんではあるが、制作過程においてのワークフローも併せて学ぶことができる環境でもある。 ベストを見つける最高の比較環境 試写室「オムニクロス」・正面に設置されたスピーカー それでは、なぜこのような環境を構築する必要があったのだろうか。現在メジャーなフォーマットであるDolby AtmosとAuro-3D®。それぞれに特徴があり、それぞれを相互に変換したらどのように聞こえるのか?コンテンツの種類によってベストな3Dオーディオフォーマットは?単純に比較をするといっても、できるだけイコールな環境で比較をしなければならない。それらを総合的に実現するのが、この試写室ということになる。ハリウッドのダビングステージはあくまでも映画向けの制作環境であり、ホーム・オーディオ向けの環境とはやはり差異がある。サラウンドが、ウォール・サラウンドなのか、ディスクリート・サラウンドなのかという根本的な違いも大きい。ホーム・オーディオ向けの環境として、フルディスクリートのスピーカーシステムで、ここまでの設備を備えた環境は、世界的に見ても貴重な存在である。 また、有料放送事業者にとってベストクオリティのエンターテインメント・メディアを作るということは非常に重要視されている。WOWOWでは「新鮮な驚きと感動を提供し続ける」ことを命題に掲げており、これを技術という側面から見れば「最新のソリューションに挑戦し、その中からベストを見つける」ということが必須になるわけだ。Audioの技術として何がベストなのか?ひとつのものを見るだけではなく、複数の視点からベストなものを探る、そのためには最高の環境で比較ができなければならない。さらには互換性の担保が重要で、Atmosのスピーカ推奨位置で作ったコンテンツが、Auro-3D®のスピーカ推奨位置で聴いたときに印象が大きく異なることは避けなければならない。同一の空間で比較を行える、さらには切り替えながら制作するということは、比較試聴してベストな方法を検討したり、どのフォーマットで聴いても制作意図が伝わる互換性を検討したりとするために重要なポイントである。つまり、この考えを実現するために、この試写室「オムニクロス」は非常に重要な設備となる。 試写室「オムニクロス」 左上方に設置されたスピーカー その繊細な違いを、しっかりと確認するためにMaster ClockにはAntelope Audio Trinity、DAコンバーターにはAVID MTRX、SpeakerはMusik Electronic Gaithin(LCRはRL901K、それ以外はRL940、BotomとBCはRL906)と、高いクオリティーを持った製品がチョイスされている。192kHz、96kHzといったハイサンプリングレートにも対応し、各種3Dオーディオフォーマットを再生するためにMacProは12-Coreの最高スペックのモデルが導入された。Dolby Atmos Rendererや、Auro-3D® Encorder/Decorder、DTS:X Encorderなどを動作させても余裕をあるスペックとなっている。さらにインスタントに各種3Dオーディオフォーマットの変換を行うためにFlux Spat Revolutionも導入されている。フル・オブジェクトでのミキシングを実現するこのアプリケーション。Dolby Atmos 7.1.4chの出力をインスタントにAuro-3D® 13.1のスピーカー推奨位置で鳴らすということも実現可能である。もちろんその逆や、他の様々なオーディオフォーマットに対しての出力もできる。さらには、オーディオフォーマットの簡易的な変換ということだけではなく、このソフトウェアを使ってのミキシングを行うことで、各オーディオフォーマットでの視聴も行えるように設計されている。 今回のシステム構築にあたり、一番頭を悩ませたのが各オーディオフォーマットに対してのモニターコントローラーセクションの切り替えだ。この部分に関しては、AVID MTRXのモニターコントロール機能を活用してシステム構築を行っている。オープン当初に作成したモニターセクションは、ソース、スピーカーセット、FoldDown3個のボタンの組み合わせでそれらの切り替えを実現していた。今回の更新にあたっては、さらに操作をシンプルにできないか?というリクエストをいただき、Pro Toolsからの出力を整えるという前提に合わせて、いちから再設計を行った。やはり試写室という環境から、技術者が立ち会わずに作品を視聴するというケースもあるとのこと。この複雑なシステムをいかにシンプルにして営業系のスタッフが試写を行えるか?電源のON/OFFやシステムの自動的な切り替えはヒビノアークス様が担当し、AMXを活用してタブレットから用途に合わせたセッティングをGUIを使ったボタンより呼び出せるカスタマイズがなされた。その結果、できるだけ音声の切り替えも手数を減らしたシンプルな操作で間違いのないオペレーションが行えるようになっている。 導入された24FaderのAVID S6 株式会社WOWOW 技術ICT局技術企画部 シニアエキスパート 入交 英雄 氏 4K60Pを稼働させるプロダクトを AVID ProTools / Media Composer / NEXIS などが納まる映写室のラック 4K対応の試写室ということで、プロジェクターをはじめとする各機器は4K60P対応の製品がセレクトされている。Videoの再生装置としては、AVID Media Composerが導入されPro ToolsのシステムとはVideo Satelliteで接続が行われている。4K60Pの映像出力のため、AVID DNxIQが設置されプロジェクターとはHDMIにより接続が行われている。4K60Pの広帯域なデータ転送速度を必要とするデータストレージにはAVID NEXIS PROが選ばれている。帯域を確保するために、Pro Tools、Media Composerともに10GbEで接続され、400MB/sの速度が担保されている。これにより、非圧縮以外のほとんどの4K60Pのファイルコーデックへの対応を可能としている。 すべてAVIDのシステムを選択することで、安定した運用を目指しているのはもちろんだが、AVID NEXISの持つ帯域保証の機能もこのようなハイエンドの環境を支える助けとなっている。この帯域保証とは、クライアントに対して設定した帯域を保証するという機能。一般的なサーバーであれば、負荷が大きくなった際にはイーサネットのルールに従いベストエフォートでの帯域となるのが普通であるが、AVID NEXISは専用のクライアント・アプリケーションと通信を行わせることでその広帯域を保証するソリューションとなっている。 このMedia ComposerのインストールされたPCはFlux Spat Revolutionを使った作業時には、Flux Spat Revolutionの専用PCとしても動作できるようにシステムアップが行われている。Pro Toolsの接続されたMTRXから出力された2系統のMADI信号をRME MADIFace XTが受け取り、Flux Spat Revolutionが処理をして、再度MADIを経由してMTRXへと信号が戻り、そのモニターコントロールセクションによりコントロールが行われる。スピーカー数も多く、処理負荷も高くなることが予測されるFlux Spat Revolutionは、別PCでの信号処理を前提とした運用が可能なシステムとなる。もうひとつ、こちらのPCへはMAGIX SEQUOIAもインストールされている。ドイツ生まれのクラシック制作・録音ツールとして評価を受けるこちらのソフトウェア、ハイサンプルレート、各種3Dオーディオフォーマットにも対応しておりこちらもこだわりのひとつと言えるだろう。 各3Dオーディオフォーマット対応の核心、モニターセクション設計 それでは、このシステムを設計する上で核心となる、モニターセクションの設計に関して少し解説を行いたい。文字だけではどうしても伝え切れないので、各図版を御覧いただきながら読み進めていただきたいところだ。まずは、Pro Toolsからの出力を整理するところから話を始めよう。これは今回の更新までに入交氏がトライしてきた様々な制作のノウハウの結晶とも言えるものである。各3Dオーディオフォーマットの共通部分を抽出し、統一されたアウトプットフォーマットとして並べる。言葉ではたったの一言であるが、実際に制作を行ってきたからこその、実に理論整然としたチャンネルの並びである。 入力と対になるのが33本のスピーカーへの出力。さきほどのPro ToolsからMTRXへInputされたシグナルは、各オーディオフォーマットに合わせてルーティングが組まれ、MTRX出力から物理スピーカーへと接続される。こちらを行うためには、AVID MTRXにプリセットされているスピーカーセットでは対応することができず、Custom Groupと呼ばれるユーザー任意のスピーカーセットを使ってそのアサインを行った。 こちらの表でRoleとなっている列がCustom Groupである。Custom GroupはAVID MTRXの内部バスとして捉えていただければ理解が早いのではないだろうか。今回のセットアップでは、物理スピーカーアウトプットとCustom Groupのバスを1対1の関係として、固定をすることで設定をシンプルにすることに成功した。アウトプットを固定するのか?インプットを固定するのか?ここはどちらが良いのか両方のセットアップを作成してみたのだが、このあとの話に出るFoldDownの活用を考えると、アウトプットを固定するという方法を取らなければ設計が行えないということが分かり、このような設計となっている。 MTRXのモニターセクションは、インプットソースを選択する際に物理入力とCustom GroupのRoleの組み合わせを設定することができる。これにより、Custom Groupへ流れ込むチャンネルを同時に切り替えるが可能となる。この機能を利用して入力された信号を任意の出力へとルーティングの変更を行っているわけだ。 一般的にはダウンミックスを視聴するために活用されるFoldDownだが、AVID MTRXのこの機能はアップミックスを行うことも可能だ。それをフルに活用し、スイートスポットを広げるためにデフューズ接続を多用したPreviewモードを構築している。特にDolby Atmos時にスクリーン上下のスピーカーを均等に鳴らすことで、スクリーンバックのような効果を出すことに成功している。それ以外にも、Auro-3D®のプレビューモードでは頭上のVOGチャンネルをDolby Atmos配置の上空4本で均等に鳴らすことで、頭上からのサウンドのフォローエリアを広げている。このような自由なシグナルマトリクスを構成できるということは、AVID MTRXのモニターセクションの持つ美点。ほかにプロセッサーを用意せずにここまでのことが行えるのはやはり驚異的と言えるだろう。 このように、スピーカーを増やすことでさらに多様なオーディオフォーマットの確認ができるようにするとともに、操作性に関してはさらにシンプルにするという一見して相反する目的が達成された。追加更新前の状況でも世界的に見て稀有な視聴環境を有していたこの試写室が、さらに機能を向上させて当初の構想を完全な形として完成を見ている。ここでの成果は、WOWOWのコンテンツに間違いなくフィードバックされていくことであろう。さらに、昨今ICTへの取り組みも積極的な同社。様々な形、コンテンツで我々に「新鮮な驚きと感動」を届けてくれることであろう。 (中左)株式会社WOWOW 技術ICT局技術企画部 シニアエキスパート 入交 英雄 氏 / (中右)株式会社WOWOW 技術ICT局制作技術部 エンジニア 栗原 里実 氏 (右端)ROCK ON PRO 岡田 詞朗 / (左端)ROCK ON PRO 前田 洋介 *ProceedMagazine2019-2020号より転載

Broadcast

株式会社角川大映スタジオ様 / Dolby Atmos導入、いままでのジャンルを越えた制作へ

1933年に開所した日本映画多摩川撮影所から始まり、80年以上の歴史をもつ角川大映スタジオ。そのサウンドを担っているポスプロ棟の中にはDubbing Stage、MA/ADR、Foley、サウンド編集室というスペースが存在している。今回の改修ではMA/ADRのDolby Atmos化、サウンド編集室のサウンドクオリティの向上を図る改修工事のお手伝いをさせていただいた。製品版の導入としては国内初であるDolby Atmos Processer HT-RMU/J(MAC)や、Pro Tools | MTRXの機能を最大限に活かしたシステムアップなど機材面でも注目すべき改修工事となった。 映画、ドラマ、DVD、OTT作品など幅広い作業に対応したスタジオ 今回の改修のスタートだが、実はサウンド編集室の増設とサウンドクオリティ向上のための内装工事というものだった。当初はサウンド編集室をDolby Atmos対応の仕込みができるよう7.1.4chにスピーカーを増設しようというプランがあった。しかし、それだけではその後のマスタリングの工程が社内で行うことができずに、他のスタジオでの作業となってしまう。そして、サウンド編集室の天井高が十分ではないこともあり、理想に近い音環境の構築が困難であるということもあった。それならば、マスタリングまでできる環境としてMA/ADRを改修してしまうのはどうだろうか、と一気に話が進んだということだ。逆にサウンド編集室のDolby Atmos対応に関しては見送られ、MA/ADRで仕込みからマスタリングまでを行うというワークフローとなった。このような経緯でスタートした今回の導入計画その全貌をご紹介していきたい。 メインコンソールとなるAvid S6とその下部に納められたアウトボード類 今回の導入の話の前に、こちらのMA/ADRのスタジオがどのようなスタジオなのかというところを少しご説明させていただきたい。こちらのスタジオは映画、ドラマ、DVDミックス等やアフレコ、ナレーション収録からCMの歌録りなど幅広い作業に対応したスタジオとなっている。昨年メインコンソールをAvid D-ControlからAVID S6+MTRXの構成にアップデートした。Pro ToolsはMain、SE、EXと呼ばれる3台が用意され、映像出力用にWindows仕様のMediaComposerが1台用意されている。サラウンドスピーカーはGENELECで構築、LCRは8250A、サラウンドは8240Aとなっている。DME24とGLMネットワークによりキャリブレーションされ、AVID S6の導入と同じタイミングで5.1chから7.1chへと更新が行われた。今回の改修ではさらにスピーカーをDolby Atmos準拠の7.1.4chへ増設し、Dolby Atmos Processer HT-RMU/J(MAC)を導入。さらにはMTRXオプションカードを増設することによって、シンプルかつ円滑にAtmos制作ができる環境へとアップデートされた。 国内初導入となるDolby Atmos Processer HT-RMU/J(MAC) 今回行われた改修の大きなトピックとなるのが、国内としては初めての導入となるDolby Atmos Processer HT-RMU/J(MAC)の存在だろう。Dolby Atmos Processer HT-RMU/J(MAC)とは「Dolby Atmos Home」制作、マスタリングのためのターンキー・システムである。HT-RMUとは"HomeTheater-Rendering and Mastering Unit"の略で、Dolby Atmos Homeのマスタリングを行うマシンということである。2017年に取り扱いを始めた当初はWindows版しかなかったが、現在ではMac OSでのシステムアップも可能となっている。さらにSoftware Version 3.2からMac miniでの構築が可能となり、導入のしやすさは格段に上がった。コストはMac miniにすることにより抑えられ、Mac mini版のHT-RMUは税別100万円という価格になっている。Windows版、MacPro版は税別200万円であったので、半分のコストで導入することができるようになったわけだ。 HT-RMU/J(MAC)の場合はDanteでDAWと音のやり取りを行う。今回のケースではMTRXの”128Channel IP Audio Dante Card”と接続するだけでProToolsとの信号のやりとりはOKというシンプルな接続となっている。HT-RMU/J(MAC)のハードウェア構成としては、Mac Pro or Mac mini、 Sonnet /xMac Pro Server(III-D、III-Rでも可、Mac miniの場合はxMac mini Server)、Focusrite / RedNet PCIeR、Audinate / ADP-DAI-AU-2X0(タイムコード信号をDanteに変換しRMUに送る役割)、外部ストレージとなる。今回導入となった構成としてはMacPro、Echo Express III-Rという組み合わせとなった。3式のProTools のそれぞれがMac Proとなっており横並びで3台ラッキングされているのだが、その横に1台分の空きがあり、今回導入のHT-RMUのMacをそこへラッキングするためxMac Pro ServerではなくIII-Rの方が都合がよかったというわけだ。 HT-RMUのMacにインストールされたDolby Atmos Rendererアプリケーションにてレンダリング、マスタリングを行うのだが、同一ネットワーク内の別のMacからもそのRendererをコントロールできるRenderer Remoteというアプリケーションが用意されている。今回はHT-RMU含む4台のMacを新しくネットワーク構築している。3台あるProTools のMacすべてにRenderer Remoteがインストールされ、どのMacからもRendererをコントロールできる。また、オブジェクトのメタデータについても3台すべてのPro Toolsから送ることができるようになっている。 DigiLink I/Oカード、Danteカードの増設によりシンプルなシステムを可能にしたMTRX もう一点今回の改修で大きな鍵をにぎっているのはPro Tools | MTRXだ。新規に導入いただいたオプションカードは”128 Channel IP Audio Dante Card”1枚、 "DigiLink I/O Card"3枚の合計4枚となっている。”128 Channel IP Audio Dante Card”は今回のRMU導入の大きな手助けをしてくれた。128chの送受信を要求するHT-RMUとのやりとりがこのカードを入れるだけで済んでしまう。多チャンネルを扱う際にシンプルに多くのチャンネル数をハンドリングできるAoIP / Danteはかなり利便性に富む。 中央に見える4台並んだMacProの左3台がPro Toolsシステム、一番右のマシンとその上のシャーシの組み合わせにDolby Atmos Rendererをインストール。右ラックの最上段にはAvid MTRXの姿が確認できる。 また"DigiLink I/O Card"を3枚導入することにより、3つあるProTools間での音のやりとりがとてもシンプルでなおかつ多chとなった。導入前はHD I/O とMTRXがAESで信号のやりとりをしていたが、DigiLink I/O Cardの導入により各ProToolsが直接MTRXと接続される形となる。これまで、16chのやりとりであったものが、Main 160ch、SE 64ch、EX 32chと多チャンネルのやりとりができるようになった。SE、EXからMainにダビングするのはもちろんだが、HT-RMUからのRerenderer OUTを3つのProToolsどれでも録音できるようになっている。シグナルルーティングの組み替えはDADmanから操作でき、作業に合わせたプリセットを読み込むことで瞬時の切り替えも可能。このあたりのシグナルルーティングの柔軟性はMTRXならではといったところだろう。 今回の改修によりDanteカード1枚、DigiLinkカード3枚が追加され、ADカード1枚、DAカード2枚、AESカード1枚、と8スロットすべてを使用する形になっている。MTRXを核としたスタジオセットアップは、最近ではデフォルトになりつつあるが今回の構成はとても参考になる部分があるのではないだろうか。 サウンドクオリティ向上を図ったサウンド編集室 今回3部屋に増設となったサウンド編集室、ラックにはYAMAHA MMP1が格納される。後方に備えられたスピーカーの写真は7.1ch対応となっているサウンド編集室1だ。 サウンド編集室の更新も併せてご紹介したい。まず一番大きなポイントは2部屋だったものを3部屋に増設したということだ。もともとの2部屋は防音パネルを貼っていただけの部屋だったため外からの騒音が気になったとのこと。今回の工事では空調を天井隠蔽型に変更し、マシンスペースを分け二重扉を設置した。これにより気になっていた外部からの騒音もシャットアウトされた。また機材についても見直され、もともとはYAMAHA / DM1000が使用されていたが代わりにYAMAHA / MMP1が導入された。3部屋とも機材が統一され使用感に変化がないよう配慮されている。Pro Tools HDXのシステム(I/O はHD I/O 8x8x8)にモニターコントローラ兼モニタープロセッサーとしてYAMAHA / MMP1、スピーカーはGENELECという構成だ。ちなみに、YAMAHA / MMP1はiPadの専用アプリケーションにてコントロールを行なっている。サウンド編集室1は7.1chに対応し、2と3は5.1chなのだが7.1chに後から増設できるよう通線等はされ、将来における拡張性を確保している。 HT-RMUの導入から取材時点ではまだ1ヶ月も経っていないのだが、Atmos制作環境があることによっていままでになかったジャンルの仕事が増えたとのお話を伺えた。これから導入が進むことが予測されるDolby Atmosの制作環境だが、それをいち早く導入したことによるメリットはとても大きいようだ。今後は幅をさらに広げて、Atmos環境を活かしたさまざまな作品を手がけていきたいという。また、今回の導入で感じたことはHT-RMUの導入が身近になってきたということだ。実際、今回の改修では当初サウンド編集室の増設というお話だったが、最終的にはMA/ADRのAtmos化を実現、追加機材の少なさが鍵となったと言える。Dolby Atmos制作環境のご相談をいただく機会は格段に多くなっているが、リニューアルした角川大映スタジオのMA/ADRは、今後のDolby Atmos制作スタジオのケーススタディとして参考にすべき好例となるのではないだろうか。 (左)株式会社 角川大映スタジオ 営業部 ポストプロダクション技術課 課長 竹田 直樹 氏、(右)株式会社 角川大映スタジオ 営業部 ポストプロダクション技術課 サウンドエンジニア 小西 真之 氏 *ProceedMagazine2019-2020号より転載

Post

名古屋テレビ放送株式会社様 / ファイルベース、その波のすべてを受け入れられる懐の深いシステムを

局内のファイルベース化へ積極的な更新を行う名古屋テレビ。今年はMAシステムの更新にともない、これまで運用していたシステムの大幅な刷新が行われた。7年前の更新時にいち早く各部屋のシステム統一と作業の共有を実現するためにファイルサーバーを導入。それを活用してきた名古屋テレビの次のステップとなる今回の更新をご紹介したい。 7年間の変化の中にあっても陳腐化しなかった まずは、これまでどのようなワークフローでの作業を行っていたかをご紹介したい。システムの中心となるファイルサーバーにはGBLabsのSPACE 32TBを採用し、6室あるMA室と、3つの仕込み室の端末それぞれからダイレクトにアクセスを行い、ローカルにファイルコピーを行うことなく作業を行っていた。VTRで持ち込まれたMA素材は、Telestream Pipelineによりインジェストし、ファイルとしてサーバへ取り込みワークビデオとするシステム。編集からファイルで投げ込まれた素材は、こちらもTelestream Episodeで自動的にワーク用のVideoFileへとTranscodeされるシステムを活用し運用を行っていた。 今回の更新までの間でも、HDCAMでの運用からXDCAMとの並行運用となったほか、編集システムの更新にともなうファイルベースでのワークフローの加速と、様々な変化はあった。MAのシステムとしては、当初よりファイルの受け渡しを前提としてNASベースのシステムであるGBlabs SPACEを採用していた。NASベースであるため、編集のシステムから簡単にアクセスでき、ファイルのコピーなどもOSの機能で実現できるという柔軟性が、この7年間の変化の中にあってもシステムが陳腐化しなかったポイントだと言える。 各部屋のMAシステムは、Pro ToolsにYAMAHA DM1000を組み合わせたシステムを運用してきたが、今回の更新ではシステムのさらなるブラッシュアップを目指し、AVID MTRXをシステムの中心としたシステムを構築している。これにより長らく使用してきたDM1000はMAのシステムから外れて非常にシンプルなシステムとなった。モニターコントロールもDADmanを使い、MTRXの機能を活かしている。音質に関しても、定評のあるAVID MTRXのDAを用いて、引き続きの使用となるmusikelectoric Geithain のスピーカーへと接続される。ファイルベースでの作業がメインとなるということでPro ToolsとMTRXが中心となったこのようなシンプルなシステムが成立している。もちろん、すべてのMA室(サラウンド対応の1MAは除く)は、同一のシステムとなっている。 このようなシンプルなシステムとすることで最小限の機材量となり、ワイヤリング量も減らすことができイニシャルコストの削減にもつながった。 各メディアを用いた作業はファイルベース化移行に伴い減っているがいまだに残るHDCAMの作業、現状のメインであるXDCAMの作業となる。こちらに関しては、Vikinxのルーターを活用し、最低限の台数のVTRを各部屋で共有するシステムがこれまで通り活躍している。MA作業に回ってきたVTRはVikinxのルーターでTelestream Pipelineへと接続、インジェストされてファイルベースでの作業を実現する。戻しの際には、Pro Toolsから任意のVTRへとパッチが行えるように設計されている。この部分はメンテナンスを行ったものの、従来通りのシステムが残された。 完全ファイルベースでのXDCAMワークフロー 今回の更新では、サーバー経由でのファイルベースのやり取りに加え、XDCAM Discを前提としたファイルベース化の追加更新が行われた。2台のMac miniがXDCAM Discに対してのファイルベースワーク用に新規導入されている。このMac miniにはSONY PDW-U2が接続され、直接XDCAM Discの中のファイルをサーバーへとコピーできるようになっている。これまでは、Pipelineで実時間を使ってファイルへの起こしを行っていたが、このシステムでファイルコピーを行うことで1/3程度まで高速化が期待できる。このサーバーへのコピーには、SONY Catalyst Browseが活用されている。 このワークフローで問題となるのが、Timecode Characterがないということ。VTRからの出力であれば、TCキャラがついたOUTを選ぶことでTCキャラ付きのファイルを起こすことができた。今回のXDCAM Discからの直接の読み込みでは、TCキャラ付きの素材を得ることはできない。これを解決するために今回の更新ではVideo Slave 4 ProをすべてのPro Tools端末へインストールすることになった。 これまでにも本誌等で紹介しているVideo Slaveは、XDCAM MXFファイルのTImecode情報を読み、TC Overlayとして画面へ表示を行うことができる。さらに、Pro Toolsで読み込むことができないXDCAM MXFファイルのAudio Tracksをエクスポートすることもできる。具体的には、Video SlaveでXDCAM MXFファイルを読み込み、そこからAudio TracksをWAVファイルとして書き出し、それをPro Toolsへ読み込ませる。このようなワークフローとなる。XDCAM MXFを前提としたPro Toolsのワークフローで問題となる部分がこれにより解消されている。 そして、MA作業後のAudio Insertもファイルベースで行うべく、CineDeck社のCineXtoolsが導入された。このソフトウェアは、Video FileをあたかもVTRのように取り扱うことができるソフトウェア。ソフトウェアベースながら、あえて破壊編集を行うことでVTRライクな挙動をする。ファイル全体のAudio Insertも、IN/OUT点を設定しての部分差し替えも設定次第で自由に行うことができる高機能な製品だ。インサートする素材はWAVファイルとなるが、それ以外に任意のトラックを無音にしたり、1Kを挿入したりといったことも可能だ。 XDCAM Discから読み込んだファイルに対し、MA上がりのWAVファイルをInsert編集し、XDCAM DISCへとコピーする。名古屋テレビのシステムは基本的にすべてのデータをサーバー上に置いたままで、というのが前提である。サーバーに接続されたこちらの2台のMac miniはXDCAM Discからコピーしたファイルへも、MA終わりのWAVファイルへも、ダイレクトにアクセスができる状況にある。ファイルコピーを一切行わず、マウントされたサーバー内のデータを参照することですべての作業が行えるということだ。これが、今回の更新で追加された完全ファイルベースでのXDCAMワークフローとなる。ついに、一切ベースバンドを介さないXDCAM Discを使ったMAワークフローの登場である。 ファイルベース・インジェストとcineXtoolsがインストールされた2セットのMacminiシステム。 3段構えのサーバーシステムを構築 もう一つの更新点であるサーバー関連はどうだろう。これまでメリットの大きかったGBLabsのシステムはそのままに、その周りを固めるシステムが大幅に更新されている。今回はさらに一歩踏み込み、アーカイブまで考えたシステムの更新を実施している。中心となるGBLabs SPACE 32TBは、その後継に同社 FastNAS F16 Nitro 96TBへと容量をアップさせての更新となった。そして、長期保存を前提としたニアライン・サーバーとしてSynology社の12Bay + 12Bay拡張シャーシのシステムが導入された。こちらの各ベイには、14TB HDDが収まりトータルで336TBという容量を実現している。これにより、長期間に渡りMAデータをオンラインの状態のまま保管することができるようになる。毎日増分のバックアップがFastNASからSynologyへと行われ、FastNASでデータを消してもSynologyには残っているという状況が構築されている。 今回導入となったSynology、XenData、FastNASが収められたマシンルームのラック。 さらに、長期間のアーカイブ用途にSONY ODA(Optical Disc Archive)が導入されている。そしてこのデータ管理用にXenDataが新たに導入された。XenDataはODAに書き込んだデータのメタを保持し、検索をするということを可能にする。何も準備をせずにODAに書き込むと、どこに何が入っているのかすぐにわからなくなってしまう。このようなメタ管理を実現する製品を導入することでアーカイブを行ったが、いざ使おうと思った際に見つけるのに非常に苦労をするので、結局保存だけして使わなくなってしまった、などということはなくなるのではないだろうか。 さらに、ODAは書き込めるファイル数の上限がある。Pro Toolsのセッションデータのように膨大なファイル数を持つデータをアーカイブしようとすると、Disc自体の容量は空いているのに書き込めなくなるということが起こってしまう。XenDataはセッションデータをフォルダごとにZip圧縮してから書き込むことができるため、ODAの容量いっぱいまで使うことができるシステムとなっている。 また、以前はGBLabs SPACE 32TBから直接ODAにファイルの移動を行っていたため、サーバーの負荷が増しMA作業に影響を与えていた。ニアライン・サーバー構築したことでアーカイブがMA作業に影響を及ぼすこともなくなった。 このように、サーバーシステムは、実運用のための高速な製品=GBLabs FastNAS、速度はほどほどで大容量のニアライン=Synology、長期保存用のアーカイブ=XenData & SONY ODAと3段構えのシステムが構築できた。こちらのワークフローはまさにいま始まったばかり。どれくらい番組の過去素材が必要となるのか?まさに変革のときである放送のあり方、そして各種メディア戦略、そういった部分に密接に関わる部分である。大前提として、消してしまうより保管できるのであればそのほうが良いのは間違いのないことである。今後このシステムがどう運用され、どれくらい活用されていくのかは非常に興味深い部分である。さらにアーカイブのワークフローを自動化することにより作業時間の短縮にもつなげている。 今回の更新では、MTRXの導入というサウンドクオリティーにも直結するブラッシュアップで順当なシステム自体の年次更新を行い、システムの中核となるサーバーに関しても後継のモデルへ更新された。そして、ファイルベース・ワークフローを加速するPDW-U2 & CineXtoolsの端末の導入で、あらゆるパターンのファイルベース運用に対応できるシステムの構築。さらにはニアライン、アーカイブという次の時代を見据えた、制作された後のデータ管理にまで踏み込んだ更新となっている。 VTR運用からファイルべースへ、その過渡期としてのXDCAM Discを介したワークフロー。未来に見える完全ファイルベースでのシステムへと将来性を担保しつつ、いま考えられる最大限の準備が行われ、まさにこれからのMAシステムのあり方を提示するかのようなシステムが完成した。間違いなくファイルベースの流れはとどまること無く様々なシステムを飲み込み、変化を続けるであろう。今回更新のシステムは、その波のすべてを受け入れられる懐の深いシステムといえる。だからこそ、このシステムが周りの状況に合わせてどのように変化するのか、どのような運用がこのシステムから生まれるのか。これからファイルベースワークフローの最新形をここで見ることができるはずだ。 名古屋テレビ放送、東海サウンドスタッフの皆さん *ProceedMagazine2019-2020号より転載

Broadcast

株式会社NHKテクノロジーズ 様 / Avid S6 x API 1608-II、次世代を見据えたハイブリッドシステム

1984年の設立以来、放送技術および情報システム・IT分野の専門家として、公共放送NHKの一翼を担ってきたNHKテクノロジーズ。その多様な業務の中で、音声ポストプロダクションの中核を担うスタジオであるMA-601が3世代目となる更新を行なった。長年使用されたSSL Avantのサポート終了にともなうスタジオ更新で、MAとトラックダウンを両立させるためにAvid S6とAPI 1608-IIの次世代を見据えたハイブリッドシステムへと進化を遂げている。その導入された機器の多くが日本初導入のもの。今回採用されたシステムの全容をご紹介していきたい。 1:フィジカルコンソール部とレイアウト 今回の更新で最大の特徴となるのはAvid S6と両側に配置された国内初導入となるAPI 1608-II、デジタルとアナログのハイブリットシステムである。中央のS6はPCディスプレイを正面に置けるようにProducer Deskが配置されたが、手前部分はブランクではなく16ch Faderが据えられた。3式あるPro ToolsのうちMain、Subの両システムはS6から制御されトータルリコールシステムを形成しており、情報系番組ではS6を中心としてMA作業を行う。従来よりPro Toolsを使用されていることもあり、24ch Faderのうち右サイド8ch分のみ5Knob構成のチャンネルストリップが用意された。ディスプレイモジュールには、Pro Toolsのトラックを表示するほか、DEMUX回線を表示させる用途にも使用している。一方、音楽のような、アナログコンソールならではの音質を求められる番組の際には1608-IIを中心としてトラックダウンが行える設計となっている。API 1608-IIへはほぼ全てのIN・OUTがこのスタジオの核であるMTRXシステムへと立ち上げられ、Pro Toolsと信号のやりとりが行われるため、APIが持つ音色を損なうことなく、収録・トラックダウン作業を可能とした。 また、スタジオ内の各コンピューター端末はIHSE Draco Tera Compact 480でKVMマトリクスシステムを構成しており、ミキサー席やどの席でも離席せずに各PC端末を操作できる仕組み。このDracoシリーズのKVMシステムは更新前のスタジオでも使用しておりS6が対応している製品でもある。今回のスタジオ更新に併せてKVMシステムがS6に連動するよう設計しなおされた格好だ。例えばワークステーションの切り替えでミキサー席のモニターディスプレイが連動、といったように作業効率はより向上するだろう。このKVM連動は、ミキサー席のモニターディスプレイだけではなくメインTVも連動させている。通常MAやトラックダウンのほか、スタジオを利用した講習会なども視野に入れているそうだ。 2:MTRX4台を駆使したシグナルルーター 今回のシステムの最大の要でコアとなるのがMTRX4台で構築されたシグナルルーティングである。それぞれがAD、DA、モニターコントロール、MADIルーター、と役割を担っており、すべてのソースが各々のMTRXで内部ルーティングされている。その総チャンネル数はIN/OUT合わせて1500を優に超える。そのスタジオのコアとなる4台のMTRXを制御しているDADmanアプリケーションは、システム管理用として用意されたWindows PCへインストールされており、Pro Toolsシステムと切り離されているのも特徴である。 Pro Toolsシステムへの負荷を減らすことも理由として上げられるが、一番のポイントはS6がMTRXをインターフェイスとした「デジタルコンソール」として扱われることであるという。そのため、管理用Windows PCは、BIOS設定で電源通電時に自動で起動できるHPのELITEDESKシリーズを採用した。S6単体ではコントローラーとして扱われがちだが、MTRXに加えてそれ専用のPCを一緒にシステムアップすることでSystem 5のような「デジタルコンソール」と同等のシステムとして扱うことが可能となった。 チャンネル数は1500を超える規模だが、大まかな信号の流れは極力シンプルになるよう設計されている。AD/DAカードを増設した2台のMTRXがルーターMTRXへMADIで128chをルーティング、ルーターMTRXからモニターMTRXへルーティング、といった形だ。もちろん、メーター類やSDIのMUX/DEMUXなどもあるが、回線の半数はMADIが占めている。そのMADI回線の半数が既存流用されている128ch IN/OUTのPro Tools 2式である。なお、96kHz/24bitのハイレゾにも対応できるようにMADIは32chでのルーティングとした。MTRXの特徴でもあるDigiLinkポートに関しては今回のシステムではMTRX4台のうち、新設されたプリプロ用のPro Tools1台のみの使用にとどめている。 NHKテクノロジーズでは現在、MA-601のほかに2部屋のMA室が稼働しており、どちらも1部屋につきHD MADI をインターフェイスとしたPro Toolsシステムがで2システム稼働している。そのため、MA-601では既存のI/Fの活用とともに、ほかのスタジオのIOとの互換性も考えられ、Main Pro ToolsとSub Pro ToolsはHD MADIでの運用となっている、なお、今回のシステム更新にともない両システムともHD MADI 2台の128ch入出力システムへ整備された。そして、今回プリプロとして新設されたPro Toolsは、文字通り整音作業や編集作業ができるように整備され、従来から使用しているKVMマトリクスで、どの席からでも操作ができるように設計されている。 MAスタジオと隣接するオンライン編集室と共用となるマシンルーム。奥手黒いラック部分がオンライン編集分となり、手前のベージュのラックがオーディオ側となる。一番右手にMainDAW/SubDAWのPro Tooolsが収まっている。その隣にはMA室用の映像機器を集約、HDコンテンツはもちろん4Kにも対応した機器が収められている。 「立ち」でのアニメ台詞収録にも対応できる録音ブースでは、その広さを活かしてコントロールルームとは別の作業が可能なスペースを配置した。KVMシステムによりPC端末の操作系統、そしてスピーカーおよびヘッドホンでモニターできる環境が整備された。整音などのプリプロ作業はコントロールルーム内でヘッドホンをしながら編集をするスタイルがよく見られるが、その際にもう一方のDAWで別ソースをスピーカーから試聴しているケースが大半。ヘッドホンをしての作業とはいえ、細かなリップノイズなどの編集作業時にストレスがかかっていた。これを、部屋を分離して、スピーカーで音を鳴らせる設計に変えることで、編集時のストレスを大幅に軽減できるシステムとした。もちろん音声はMTRXからアサインされており、プリプロシステムだけではなく、Main、SubそれぞれのPro Toolsシステムのステレオ音声が、手元でソース選択できるように設計できたのも、MTRXでシステムを構築しているからこその利点である。 3:音質を最大限に生かしたモニターシステム モニター系統を集約させたMTRXでは、その音質を最大限に活かすため常に96kHzで稼働させている。ハイレゾ対応のために48kHzと96kHzのプロジェクトをどちらも扱えるように、ルーターMTRXとモニターMTRXの間にRME MADI Bridgeを経由したDirectout Technologies MADI.9648が用意されており、プロジェクト次第でMADI.9648を使用するか否かをRME MADI Bridgeで切り替える仕組みとしているのだが、DADmanの設定自体はプリセットファイルが1つのみで管理されている。これは48kHzと96kHzの切り替え作業を最小限にするため、MTRX本体の48kHz/96kHzの周波数設定のみですぐに使用できるようにするためだ。 そのため、前述にもあるようMADIルーティングは全て32chごとにスプリットされたパッチとなっており、96kHzに対応できるように設計されている。通常、Pro ToolsとHD MADIを使用したシステムで、96kHzと48kHzを切り替えるケースではMADI スプリットの設定を戻し忘れるなどのオペレーションミスを起こしやすい。また、DADmanのプリセットを96kHzと48kHzでそれぞれ用意するとなると、ルーティングの変更点やチャンネル数の違いなどそれぞれの相違点を覚える必要も出てくる。チャンネル数は犠牲になるが、MTRXでデジタルルーティングしているチャンネル数は膨大であり目に見えない分だけ煩雑になりやすいため、よりシンプルなワークフローにすることで、ミキサーはMA作業に集中できる環境が得られたわけだ。 写真左がDADmanのコントロール画面、4台のMTRXは赤・緑・青・黄にマトリクスを塗り分けられて管理され、こちらの画面から一括した制御が行えるようになっている。 写真右の中央に見える数字が並んだ機材がDirectoutのMADI Bridge。これを切り替えることでその下に収められたMADI 9648を使用するか否かを選択するようになっている。 4:こだわったスピーカーと96KHz駆動のモニターMTRX GENELEC 8351Aは昇降式のスタンドに設置され、OceanWayとの重なりを回避することができる仕様。その調整もリモコン式となっているほか、リスニングポイントよりも上がらないよう高さもプリセットが組まれている。 API 1608-IIと同じく国内初導入となったOceanWay Audio HR 3.5。 スタジオのこだわりはモニター部分の随所にも見られる。メインスピーカーとして選択されたのはOceanWay Audio HR3.5。各チャンネルごとにそれぞれチューニングされた専用アンプへデジタルで96kHz接続されている。こちらは国内初導入となるスピーカーで、特許出願中という独自のTri-Amped デュアルハイブリッドウェーブガイドシステムを搭載しており、水平方向へ100度、垂直方向に40度という非常に広い指向性を持っているため、スタジオ内のスイートスポットを広く設けることができる。「レコーディング時のプレイバックでバンドメンバー全員がいい音でリスニングをしたい」という思想のもと設計されたこのスピーカーは、自社で音楽スタジオを持つOceanWay Studioならではの設計である。この広範囲に及ぶスイートスポットは左右方向だけではなく、スタジオ前後方向にかけても有効で、クライアントスペースの音質はミキサー席での音質と驚くほど遜色がない。また、HR3.5用にTrinnov MCプロセッサも用意されており、使用の有無が選択できる。 ステレオスピーカーのレイアウトも更新前のポジションから変更された。2世代目のスタジオを設計した当時はシアター向けのコンテンツ制作が多かったため、リスニングポイントからL/Rの開き角が45°のスピーカー配置だったが、現在は情報系番組や音楽番組などの幅広いコンテンツへの対応のため、この度の更新工事でリニングポイントからL/Rの開き角が60°のITU-R のレイアウトへ変更されている。また、メインモニターもプロジェクターから65型4K有機ELへ更新されたため、いままでスタジオ後方の天井に配置されていたプロジェクターのスペースが撤去された。その分だけ天井高を上げられ、結果として高音の伸びにつながり、ルームアコースティックが向上されている。壁面内部の吸音材とコンソール両脇の壁に設置された拡散壁とが絶妙なバランスで調整されたことと、明るい色が採用されたガラスクロスとともにコントロールルームの居住性も格段と上げられている。 旧来設置されていたプロジェクターを撤去して、音響的にも有利にスペースが広げられた。 サラウンドスピーカーにはGenelec 8351と7360が採用され、こちらもデジタル接続されている。こちらのシリーズは音場補正機能に優れたGLMに対応しておりトータルコントロールがされている。その5.1chスピーカーの配置にも検討が重ねられており、フロント3ch分はラージスピーカーやテレビモニタに被らないように、スタンドを電動昇降式にする工夫がなされている。そのほか、2系統のスモールスピーカーはYamaha NS-10M StudioとGenelec 1031のパッシブとパワードが用意されている。これらのスピーカーは既存のものだが、スピーカーの持ち込みにも対応するためにパッシブとパワードが用意されているとのこと。些細なことだが細やかな配慮がされているのもポイントだ。 前述の通り、モニター回線すべてを司るMTRXユニットが96kHzで駆動しているのも特長であるが、モニターMTRXにはSPQカードがインストールされ、Genelec以外の各モニターアウトは音響調整で測定した各スピーカーの特性に合わせたEQ処理と、全モニターアウトに対してのディレイ調整も行われている。これらのモニター制御は全てMTRXで行なっており、かつS6上で行えるようにS6ソフトキーへアサインされているのも特徴である。ソースセレクトは3台のPro Toolsをはじめとするソース26パターン、スピーカーセレクトはメインスピーカーをはじめとするが6パターンが設定されている。それらのセレクトは全てS6のソフトキーへアサインされ、ホームポジションを移動することなく選択可能だ。 スピーカーおよびソースのセレクトはS6のソフトキーにアサインされ手元で切替が可能となっている。 また、MTRXシステムにはDADのMOMもPoEで接続されており、ディレクター席など、ミキサー席以外のポジションでもボリュームコントロールとスピーカーセレクトを可能にしている。MOMはあくまでも予備的な発想であるが、どのデスクでも音質の変化が極めて少ない設計だからこそ、どのポジションでも活用が見込まれる。 5:Video Hubでコントロールされた映像システムと4Kシステム スタジオの全景、後方のクライアント席には吸音にも配慮された特注のソファが用意されるほか、詳細が確認しやすいよう大型の液晶モニターも備えられた。 特筆すべき点は、音声だけではない。今回の更新で、映像機器も4Kに対応したシステムに統一された。同フロアにあるオンライン編集室のストレージに接続することで、別フロアのPD編集室から編集・MAまでのワンストップサービスに対応すべく、65型メインモニターディスプレイはもちろんのこと、ディレクター席やブースに設けられたモニターディスプレイすべてが4Kに対応したディスプレイに更新された。65型メインモニターは有機ELのディスプレイとなっているが、クライアント席横の49型モニターは液晶ディスプレイのものを採用しており、液晶と有機ELの違いも同じスタジオ内で見比べることができるのも注目すべき点だ。 また、個々のモニターにはそれぞれ外部タイムコードカウンターが用意されている。通常、テロップが画面下部に入れられたコンテンツの場合、タイムコード表示は画面上部に配置されることになるが、これはナレーション録音の際にナレーターの視線が、原稿とタイムコード表示の間で視線移動が大きくなりストレスとなってしまう。このため、ブースではディスプレイとは別にタイムコードカウンターを画面下部に設け、視線移動のストレスを解消している。また、メインディスプレイ上部に設置されたタイムコードカウンターは、試写時には消灯できるようにスイッチが設けられているのもポイントである。 ディレクター席には手元で映像が確認できるよう、モニターが埋め込まれている。特徴的なのはその上部に赤く光るタイムコード表示。こちらがスタジオ正面のモニター、ナレブースのモニター下部にも設けられた。 ディレクター席のテーブルに埋め込まれた4Kディスプレイにも理由がある。ディレクター席にディスプレイを配置する際はデスク上にスタンドに立てて配置されることが多いが、こちらのスタジオではタイムコードカウンターとともにテーブルに埋め込まれている。これは、モニターディスプレイを不用意に動かされてしまうことを回避するためである。不用意にディスプレイを動かすと、場合によってはミキサー席へ不要な音の反射が発生してしまう。それを避けるために、モニターディスプレイをテーブルに埋め込む方法が採用された。既存のVideo Satellite用AVID Media Composer は2018.11へバージョンアップ、ローカルストレージのSSD化、ビデオインターフェイスの4K対応がなされ、こちらも4K対応されている。同フロアのオンライン編集室とは、10G接続されたDELL EMC Isilonを介して4Kデータの受け渡しが行われる。 いたる箇所で語りつくせないほどの工夫が凝らされたハイブリッドシステム。数あるデジタルコンソールのなかで、S6が選ばれた理由の一つにコスト面もあったという。限られた予算枠のなか、コンソールにかかるコストを下げることで国内初導入となるAPI 1608-IIやOceanWay Audio HR3.5など音に関わる機材により予算を配分することができている。この隅々まで考え抜かれたスタジオで今後どのようなコンテンツが制作されるのか、次世代ハイブリッドシステムが生み出していく作品の登場を楽しみに待ちたい。 写真左よりROCK ON PRO君塚、株式会社NHKテクノロジーズ 番組技術センター 音声部 副部長 青山真之 氏、音声部 専任エンジニア 山口 朗史 氏、ビジネス開発部 副部長 黒沼 和正 氏、ROCK ON PRO赤尾 *ProceedMagazine2019号より転載

Post

株式会社テクノマックス様 / 統合された環境が生み出すMAワークフロー

テレビ東京グループの株式会社テクノマックスは、ポストプロダクション部門を担当するビデオセンターのすべての施設を旧テレビ東京近く(東京・神谷町)に移転した。その新たなMA施設にはAvid S6、MTRX、NEXISといった最先端のソリューションが導入され、システムは大きく刷新された。ワークフローに大きく変化を与えたこの導入事例を紹介させていただきたい。 今回更新されたMA3室。黄色のラインが壁面にあるMA-Cは5.1ch対応、赤色ラインのMA-Aおよび青色ラインのMA-Bとも共通した機材仕様となり、各部屋で同じクオリティのワークを可能とする意図が伺える。 1:柔軟なルーティングを受け止めるAvid MTRX オーディオ関連機器のマシンルーム、3室共通の機材が整然とラックマウントされている。 今回の移転工事ではMA-A、B、Cの全3室と2式のProToolsシステムを設備したAudio Work室、そしてMA専用サーバーの導入工事をROCK ON PROで担当した。旧ビデオセンターで課題となっていた設置機材の違いによるMA室間の音響差をすべて解消できるよう、基本設計は3室とも統一されたものとなっている。部屋の基本レイアウト、設置機材を統一することでドラマ、バラエティ、番宣、スポーツと番組ジャンルに縛られず、各部屋で同じクオリティのワークを可能にする、というかねてからの目的を実現し、また効率的な制作リソース確保も可能とした。 MA室にはProTools HDXシステムが、Main DAWと音効用のSub DAWとして2台設けられており、今回のシステムの心臓部であるAvid MTRX1台に対してDigiLinkケーブルでそれぞれが接続されている。MTRXがMain/Sub両方のメインのI/Oを兼ねており、Main DAW側からもSub DAWの入出力ルーティングの設定が可能であるため、音効やアシスタントエンジニアをつけた2人体制のMA作業にも難なく対応することができる。MTRXのコンフィギュレーションは、AD/DAが各8ch、ベースユニットにオプションでAESカードを増設し合計32chのAES/EBU、そして映像の入出力が可能なSDIカードを拡張し、SDI 2IN/2OUT (各Audio 16ch)の構成となっている。 アナブースマイクやスピーカーなどのアナログ系統、メーター機器などデジタル入出力への対応をこのMTRX1台でまかなっている。また従来システムからの大きなアップデート項目としてVTRデッキとはSDI回線での入出力に対応した。更に MTRX ルーティングに内蔵された音声エンベデット / デエンベデットを使用することで、VTRデッキへの入出力数の制限から解放され、機器構成がシンプルになった。更新後は最大16chのオーディオ伝送が可能となりSDI規格の最大値を利用できるようになった。あらゆる入力ソースはMTRXに集約され、Main DAW上のDADmanアプリケーションによって柔軟なルーティング設定が可能となっている。コントロールルーム内のSPだけでなく、バックアップレコーダー、メーター類、さらにブース内に設けられたカフボックスに対しても後述するAvid S6との連携により、イージーな操作でルーティング設定やモニターセレクトなどが可能となっている。 2:3室すべてにAvid S6 M40を導入し環境を統一 今回の更新ではMA室3室すべてにAvid S6を導入し環境を統一した。モジュール構成は24フェーダー5ノブとした。旧ビデオセンターではYAMAHA DM2000をProToolsコントロ ーラーとして使用していたが、移転に際し新たなコントローラーとして、ProToolsと完全互換の取れるS6を選定、コントロール解像度、転送速度が向上した。また、実機を前にして使用感や利便性などの実フローを想定した検討を行い、S6をはじめメーター類、キューランプなどの設置場所にこだわった日本音響エンジニアリングの特注卓が導入された。エンジニアがコンソール前の席に着いた際のフェーダーやノブへのアクセスのしやすさ、ディスプレイやメーター類の視認性など、MA室にS6を設置したあとも細部に至るまで調整を繰り返し、非常に作業性の高いシステムが出来上がった。 Mac上ではDADmanアプリケーションとの連携によりモニターソースやアウトプット先の設定はS6のマスターモジュール上のスイッチやタッチパネルからワンタッチで操作可能になっているほか、ディスプレイモジュールにはレベルメーターとProToolsのオーディオトラックの波形を同時に表示することが可能。Protoolsの音声のみならず、VTRデッキなどMTRXの各インプットソースも表示可能となる。S6とMTRXを組み合わせて導入したことで信号の一括管理だけでなく操作性の向上が実現できた。また、短期間での移転工期でスムーズにDM2000からS6へ移行できたのはProToolsと完全互換が成せるS6だからこそであった。 今回の更新コンセプトを意識しラージスピーカーはPSI Audio A-25M、そしてスモールには同社のA-14Mが3室に共通して導入された。数日間に渡る音響調整により、各部屋の鳴りも同一となるように調整している。そして3室のうち「MA-C」は5.1ch対応となった。このMA-CにはGenelec 8340を5台、サブウーハーに7360APMを導入し5.1chサラウンド環境を構築している。Genelec GLMシステムによるアライメントにも対応しているため、音響設定も柔軟に調整が可能。またLCRのスピーカーはバッフル面に埋め込みジャージクロスで覆っているため、他の部屋と見た目の違いが少なく圧迫感のないスマートなデザインとなっている。もちろん、この5.1ch環境も通常の使用と同様にAvid MTRXやS6システム内にルーティングが組み込まれており、自由なモニタリング設定が行える。ラージSP、スモールSP、5.1chSPのモニターセレクトさらにはダウンミックス、モノラル化が容易に可能となっている。サラウンドパンナーはあえてS6のシャーシ内には組み込まず利便性を向上させた。 ラージ・PSI Audio A-25Mおよびスモール・A-14M。写真からは見てとれないのだが、ラージ上のジャージクロス裏にはサラウンド用途にGenelec 8340が埋め込まれている。 また、MA-CではアナブースもMA-A / Bの2室と比べて大きく設計されており、同時に4名の収録が可能。実況・解説・ゲストといった多人数での収録が必要なスポーツ番組などにも対応している。MTRXによる自由度の高いルーテイング機能とS6による容易な操作性があったからこそ実現した柔軟なシステムといえるだろう。 3:Avid NEXIS E4サーバーによる映像と音声のリアルタイム共有 映像編集およびオーディオ編集用のNEXIS E4がラックされている。 今回の移転工事においてもう一つの核となったのがAvid NEXIS E4サーバーの導入である。ワークスペースの全体容量は40TB(2TバイトHDDx20台+2台の予備HDD)となっており日々大容量のデータを扱う環境にも十分対応している(OSシステムはSSD200Gバイトx2台のリダンダント環境)。各MA室のMain DAW、Sub DAWからAvid NEXIS E4サーバーへは10Gbit Ethernetの高速回線によってアクセスが可能となっている。そのため単純なデータコピーだけではなく、VTRデッキからの映像起こし作業やMA作業についてもサーバーへのダイレクトリード/ライトが可能となったため、サーバー上のデータをローカルストレージへ移すことなくそのまま作業が行える環境となった。 従来の設備ではローカルドライブで作業を行い共有サーバーでデータを保管していたため、作業の前と後で数ギガバイトあるプロジェクトデータの「読み出し」「書き戻し」作業に機材とスタッフが拘束されていた。スピードが求められる現場での容量の大きいデータコピー作業はそれだけで時間のロスになってしまいスムーズなワークフローの妨げとなってしまう。今回のAvid NEXIS E4導入によりその手間は緩和されワークフローも大きく変化することになった。サーバー上ではミキサー別、番組別といったワークスペースを組むことができ、各PCのマネージャーソフトからダブルクリックでマウント、アンマウントが可能。更新コンセプトである3室の仕様統一もそうだが、この点も部屋を選ばずにワークを進められることに大きく貢献している。 また、サーバールームとは離れたAudio Work室に設置した管理用PCからは、SafariやChromeなどのインターネットブラウザによってNEXISマネージメントコンソールにアクセスしてシステム全体の設定を行うことができる。管理画面のGUIは非常にシンプルで視認性が良いため、専門性の高いネットワークの知識がなくともアクセス帯域やワークグループの容量、そのほか必要な管理項目が設定可能、またシステムエラーが発生した際にも一目でわかるようになっている。そのため、日々膨大なデータを扱う中で専門のスタッフがいなくてもフレキシブルな設定変更に対応できることとなった。サーバーの運用にはネットワークの専門性を求められるというイメージを持つかもしれないが、このNEXISサーバーにおいてはその様な印象は完全に払拭されたといえる。 4:クオリティを高めるための要素 そのほかにも今回の移転工事では様々なこだわりを持って機材の導入が行われた。MA室へ入って真っ先に目に入るのはモニターディスプレイの多さではないだろうか。ミキサー用のPro Tools画面からアシスタント、音効、ディレクター、クライアント、ブース内、正面のメインモニターTVまで1室に最大15台が導入されているのだが、エンジニア、クライアント席からの視認性が得られるよう配慮して設置されている。ディスプレイの多さは音響的に気になるところだが、各部屋の音響調整の時に考慮して調整が施されている。 すべてのモニターの映像入力はBlackmagicDesign社のSmartVideoHub20x20で自由に切り替えが可能。入力ソースは編集設備のSDI RouterでアサインされるVTRデッキやMAマシンルームの各機器の映像を作業に合わせて選択する。また、同社のリモートコントローラーVideohub Smart Controlのマクロ機能で、すべてのモニターを用途に合わせて一斉に切り替えることも可能なため設定に手間取ることが無い。SDIでの信号切り替え、モニター直前でのHDMI変換、モニターの機種選択で映像の遅延量にも気を遣った。 メインのビデオI/OはBlackmagicDesign UltraStudio 4K Extremeをセレクト。Non lethal application社のVideoSlaveを導入することでProTools単体では不可能だったタイムコードオーバーレイが可能となった。各種メーター機器も豊富でVUメーターにはYAMAKI製のAES / EBU 8ch仕様を導入。ラウドネスメーターにはASTRODESIGN AM-3805/3807-Aを導入し、別途用意したMac Mini上のリモートソフトと連動することでPCモニター上にもメーターが表示できる設計となっている。さらにMA設備の主幹電源部には電研精機研究所のノイズカットトランスNCT-F5を導入し安定化を実現、スピーカーの機器ノイズをカットしている。実際のフローでは見えにくい部分にもこだわりクオリティの高いワークを目指していることが伺いとれる部分だ。 写真左からYAMAKIのVUメーターとASTRODESIGN AM-3805。中央が同じくASTRODESIGNの AM-3807-A。そして右の写真が主幹電源部に導入された電研精機研究所のノイズカットトランスとなる。 5:MAワークに近い環境を実現したAudioWork 今回、映像の起こし、整音、データ整理などを行うAudio Work室のAudioWork-Aはシステム構成を一新。MTRXを導入することでシステムの中枢を各MA室と統一している。あくまでMAの本ワーク前の準備を担う設備であるため、S6こそないもののメーター類やプラグインもほぼ同等のものを設置し、MA室と近いワークフローで作業することができる。モニターコントローラーにはMA室のDADmanアプリケーションと完全互換のとれるDigitalAudioDenmark MOMを導入して手元でのモニターセレクトを実現した。VTRデッキとの回線も通っているため、MTRXやBlackmagic Design UltraStudio4Kを駆使して、起こし・戻しの作業までできる環境となった。もちろんこのAudioWork-AおよびBもNEXISサーバーへアクセスができ、MA室と互換の取れるプラグインが設備されており、本MAへスムーズな移行が可能となっている。 今回の移転では、通常の業務を極力止めずに新ビデオセンターへ業務移行できるよう、スケジュールについても綿密に打ち合わせをした。限られた時間の中で滞りなく業務移行ができたのは、Avid S6やNEXISがシームレスな連携を前提に設計されたプロダクトであり、かつユーザーにとって扱いやすい製品である証だと言えるだろう。効率的なワークフローと新たなクオリティを実現したスタジオは、統合されたMAワーク環境の最先端を示していると言えるのではないだろうか。 株式会社テクノマックス ビデオセンター 〒105-0001 東京都港区虎ノ門4丁目3−9 住友新虎ノ門ビル 4階 TEL 03-3432-1200(代表)FAX 03-3432-1275 (写真前列左手より)株式会社テクノマックス 営業本部 副本部長 小島 壯介氏、放送技術本部 編集技術部 主事 大矢 研二 氏、放送技術本部 編集技術部 専任部長 伊東 謙二 氏、放送技術本部 編集技術部 主事 武田 明賢 氏、放送技術本部 編集技術部 高橋 知世 氏、放送技術本部 編集技術部 主事 大前 智浩 氏 (写真後列右手より)ROCK ON PRO 君塚隆志、丹治信子、赤尾真由美、草野博行 *ProceedMagazine2019号より転載

Post

Artware hub KAKEHASHI MEMORIAL 様 / レジェンドの描いた夢が実現する、全方位型36.8chイマーシブステージ

早稲田大学を始め教育機関が集中する東京西早稲田、ここにArtware hubと名付けられた新しいサウンド、音楽の拠点となる施設が誕生した。この施設は、Roland株式会社の創業者であり、グラミー賞テクニカルアワード受賞者、ハリウッドロックウォークの殿堂入りも果たしている故 梯郁太郎氏(公益財団法人 かけはし芸術文化振興財団 名誉顧問)の生涯の夢の一つを現実のものとする「音楽の実験室、様々な音環境、音響を実践できる空間」というコンセプトのもと作られている。 この空間の名称であるArtware hubという名称は梯郁太郎氏の生んだ造語「Artware」がその根本にある。ハードウェア・ソフトウェアだけではなく、人間の感性に根ざしたアート感覚を持った映像、音響機器、そして電子楽器を指す「Artware」、それがつなぐ芸術家の輪、絆、共感を生み出す空間としての「hub」、これが掛け合わされているわけだ。そして、もう一つのキーワードである「共感」を生み出すために、多くの方が集える環境、そのパフォーマンスを共有できる環境として設計が行われた。まさにこの空間は、今までにない音響設備を備え、そのコンセプトに沿った設計によりシステムが構築されている。 1:すべて個別に駆動する36.8chのスピーカーシステム まずは、その環境を実現するためにインストールされた36.8chというスピーカーシステムから見ていきたい。壁面に数多く設置されたスピーカーはTANNOY社のAMS-6DCが採用されている。これだけの多チャンネルシステムであると、スピーカーの構造は物理的に同軸構造であることが望ましい。Stereoであれば気にならないツイーターとウーファーの位相差の問題が、スピーカーの本数分の問題となりサウンドチューニングの妨げとなるからである。このスピーカーの選定には10種類以上の機種の聴き比べを行い、自然なサウンドが得られる製品がセレクトされている。音の飛び出し方、サウンドのキャラクターが単品として優れている製品もあったが、個性の強すぎない、あくまでもナチュラルなニュアンスを持った製品ということでセレクトは進められている。 これらのスピーカーを駆動するアンプはTANNOY社と同じグループ企業であるLab.Gruppen D10:4Lが9台採用された。合わせてサブウーファーには同社VSX 10BPを2本抱き合わせて4箇所に合計8本、こちらのアンプにはLab.Gruppen D20:4Lを2台採用。PA関係を仕事とされている方にはすでに当たり前になっているかもしれないが、SR用のスピーカーのほとんどが専用アンプとのマッチングを前提に設計されており、その組み合わせにより本来のサウンドを生み出すからである。このアンプは1Uのスペースで4chのモデルであるためこのような多チャンネルの個別駆動にはベストなセレクトとなっている。 前後の壁面のスピーカー。正面は「田」の字に9本配置されているのがわかる。 そして、皆さんの興味はこのスピーカー配置に集まるのではないだろうか?壁面にはセンターから30度間隔で12本のスピーカーが2レイヤー配置されている。一般に開放する施設ということで、入場者の邪魔にならない位置、具体的には2.5mの高さに下層のスピーカーは取り付けられている。上層は5mの位置となる。さらに写真ではわかりにくいが、天井に設置されたグリッド上のパイプに9本のスピーカーが取り付けられている。この9本は「田」の字の各交点に設置されているとイメージしていただきたい。さらに仮設として正面床面に直置きでのスピーカーも3本あり、正面の壁面に関しても「田」の字の各交点に9本の配置がなされている。 これらの合計36本のスピーカーはすべて個別に駆動するようなシステムとなっている。さらにサブウーファーを天井グリッド内に4箇所設置、設置位置は前後左右の十字に配置し、それぞれ個別駆動が可能となっている。つまり合計36本のスピーカーと8本のサブウーファーがすべて個別に駆動、全体のシステムとしては36.8chのスピーカーシステムである。 天井のスピーカー。空調ダクト等を避けて写真の位置に9本のスピーカーと8本のサブウーファーが設置された。 2:ロスなく長距離伝送するDanteを採用 スピーカー側より順番に機材を見ていきたいが、アンプの直前にはDante-AnalogのコンバーターとしてFocusrite REDNET A16Rが設置されている。これは1Fに設置されている調整室から3Fにあるアンプルームまでの伝送を、最高のクオリティーを保ったまま行うという目的。そして、これだけの数のスピーカーのマネージメントを行うために導入されたYAMAHA MMP-1をベストなコンディションで動作させるためにDanteが採用されている。1Fの調整室から送られた信号は、Danteにより長距離をロスなく伝送されてくる。それをDante-Analogのコンバーターとして最適なクオリティーを提供するFocusrite社の製品によりAnalogでアンプへと接続が行われているということになる。 このDanteの回線に組み込まれたYAMAHA MMP-1は最新のスピーカー・マネージメント・プロセッサーである。1台で32chのスピーカーマネージメントが行える優れた機器で、システムアップに応じて自在に入力信号を各スピーカーに振り分けたりといったことが可能となっているが、Artware hubの36.8chのスピーカーをプロセスするためには2台が必要となった。サブウーファーのチャンネルに関しては、FIRフィルターによるLPFが使えるというのは特筆に値する機能である。この36.8chのスピーカーの調整には1週間の時間を要した。個別のチャンネルのイコライザーによる周波数特性の調整、ディレイによる位相合わせ、音圧の調整、さすがに36.8chともなるとなかなか終わらない。それぞれ隣合うスピーカーとのファンタム音像に関しても聴感でのピーク・ギャップが無いか、サウンドキャラクターが変化しないか、といったチェックを行っている。この調整作業は株式会社SONAの中原氏に依頼を行い実施した。スタジオのようにリスニングポイントに対してガチガチに調整を行うのではなく、リスニングエリアを広めにとれるように調整は行われている。 Dante Networkの入り口にはFocusrite REDNET D64Rが2台用意され、調整室内の基本回線となるMADIからDanteへのコンバートが行われている。ここでMADIは64chあるので1台で済むのでは?と考えられるかもしれないが、Artware hubのシステムはすべて96kHzで動作するように設計されている。そのため、MADI回線は32chの取り扱いとなり、この部分には2台のREDNET D64Rが導入されることとなった。 3:ハイクオリティを誰もが扱える、スペースとしての命題解決 そして、Artware hubのシステムの中核となるAVID MTRX。Pro ToolsともAVID S6Lとも接続されていない「MADI Matrix Router」としてこの製品がインストールされている。このAVID MTRXには5枚のMADI option moduleがインストールされ13系統のMADI IN/OUTが用意されている。システムのシグナルルーティングを行うだけではなく、システムのボリュームコントロールもこのMTRXが行っている。36.8chものチャンネルのボリュームコントロールが行える機器はなかなか存在しない。しかも、最終の出力は96kHzということもあり2系統のMADIにまたがっている。専任のオペレーターがいる利用時は良いが、講演会やVideoの視聴といった簡易的な利用の場合、誰でも手軽に操作ができるハードウェアコントローラーが必須となる。そこでArtware hubのシステムではAVID MTRXに組み合わせてTAC SYSTEM VMC-102をスピーカーコントローラーとして採用している。 TAC SYSTEM VMC-102はそれ自体にMADIを入力し、モニターソースのセレクトを行い、AVID MTRX/NTP/DADもしくはDirectOut ANDIAMOをコントロールし出力制御を行うという製品。しかし、Artware hubではVMC-102にMADIは接続されていない、AVID MTRXコントロール用にEthernetだけが接続されている。通常でのVMC-102は、入力されたMADI信号をモニターソースとしてそれぞれ選択、選択したものがVMC-102内部のモニターバスを経由してMADIの特定のチャンネルから出力される、という仕様になっている。そして、その出力されたMADIが、接続されるMTRX/NTP/DADもしくはDirectOutの内部のパッチの制御とボリュームの制御を行い、スピーカーセレクトとボリューム調整の機能を提供している。 今回は、このパッチの制御とボリュームコントロールの機能だけを抽出したセットアップを行っている。通常であればVMC-102の出力バスをスピーカーアウトのソースとして設定するのだが、ダイレクトにAVID MTRXの物理インプットを選択している。この直接選択では、物理的な入力ポートをまたいだ設定は出来ないため2つのスピーカーアウトを連動する設定を行い、今回の96kHz/36.8chのシステムに対応している。そして、VMC-102のタッチパネルには、ソースセレクトが表示されているように見えるが、実はこのパネルはスピーカーセレクトである。説明がややこしくなってしまったが、このパネルを選択することにより、AVID MTRXの入力を選択しつつ、出力を選択=内部パッチの打ち換え、を行い、その出力のボリュームコントロールを行っているということになる。YAMAHA MMP-1も同じような機能はあるが、2台を連携させてワンアクションでの操作が行えないためVMC-102を使ったシステムアップとなった。 具体的にどのような設定が行われているかというと、マルチチャンネルスピーカーのディスクリート駆動用に40ch入力、40ch出力というモードが一つ。コンソールからのStereo Outを受けるモードが一つ。Video SwitcherからのStereo Outを受けるモード、そして、袖に用意された簡易ミキサーであるYAMAHA TF-Rackからの入力を受けるモード、この4パターンが用意されている。ちなみにVMC-102は6系統のスピーカーセットの設定が可能である。今後入出力のパターンが増えたとしても、36.8chで2パターン分を同時に使っているので、あと1つであればVMC-102のスピーカーセットは残っているため追加設定可能だ。 システム設計を行う立場として、やはり特注の機器を使わずにこのような特殊フォーマットのスピーカー制御が行えるということは特筆に値する機能であると言える。VMC-102はスピーカーセット一つに対して最大64chのアサインが可能だ。極端なことを言えば48kHzドメインで6系統すべてを同期させれば、384chまでのディスクリート環境の制御が可能ということになる。これがAVID MTRXもしくはNTP/DAD社製品との組み合わせにより200万円足らずで実現してしまうVMC-102。新しい魅力を発見といったところである。AVID MTRXには、Utility IN/OUTとしてDirectOut ANDIAMOが接続されている。この入出力はVideo Systemとのやり取り、パッチ盤といったところへの回線の送受信に活用されている。ここも内部での回線の入れ替えが可能なため、柔軟なシステムアップを行うのに一役買っている部分である。 4:36.8chシステムの中核、FLUX:: SPAT Revolution そして、本システムのコアとなるFLUX:: SPAT Revolution。このソフトウェアの利用を前提としてこの36.8chのスピーカーシステムは構築されている。SPAT Revolutionは、空間に自由にスピーカーを配置したRoomと呼ばれる空間の中に入力信号を自由自在に配置し、ルームシュミレートを行うという製品。Artware hubのような、特定のサラウンドフォーマットに縛られないスピーカー配置の空間にとって、なくてはならないミキシングツールである。SPAT Revolutionは、単独のPCとしてこれを外部プロセッサーとして専有するシステム構成となっている。 入出力用にはRME HDSPe-MADI FXを採用した。これにより、64ch@96kHzの入出力を確保している。入力は64ch、それを36.8chのスピーカに振り分ける。SPAT Revolutionにはサブウーファーセンドが無いため、この調整は規定値としてYAMAHA MMP-1で行うか、AVID S6Lからのダイレクトセンドということになる。といっても36chのディスクリートチャンネルへのソースの配置、そして信号の振り分けを行ってくれるSPAT RevolutionはArtware hubにとっての心臓とも言えるプロセッサーだ。執筆時点ではベータバージョンではあるが、将来的にはS6Lからのコントロールも可能となる予定である。数多くのバスセンドを持ち、96kHz動作による音質、音楽制作を行っている制作者が慣れ親しんだプラグインの活用、AVID S6LのセレクトもSPAT Revolutionとともに強いシナジーを持ちArtware hubのシステムの中核を担っている。 FLUX:: SPAT Revolutionに関しての深いご紹介は、ROCK ON PRO Webサイトを参照していただきたい。非常に柔軟性に富んだソフトウェアであり、このような特殊なフォーマットも制約なくこなす優れた製品だ。Artware hubでは、既存のDolby AtmosやAUROといったフォーマットの再生も念頭においている。もちろん、完全な互換というわけにはいかないが、これだけの本数のスピーカーがあればかなり近い状態でのモニタリングも可能である。その場合にもSPAT Revolutionは、スピーカーへのシグナルアサインで活躍することとなる。現状では、既存のImmersive Surroundの再生環境は構築されてないが、これは次のステップとして検討課題に挙がっている事案である。 ◎FLUX:: 関連記事 FLUX:: / ユーザーから受けた刺激が、 開発意欲をエクスパンドする Immersive Audioのキー・プロダクト Flux:: / Spat Revolution 〜ROCK ON PRO REVIEW 5:可動式のS6Lでマルチチャンネルミックス ミキシングコンソールとして導入されたAVID S6Lは、大規模なツアーなどで活躍するフラッグシップコンソールの一つ。コンパクトながら高機能なMixing Engineを備え、96kHzで192chのハンドリング、80chのAux Busを持つ大規模な構成。SPAT Revolutionでのミキシングを考えた際に、Aux Busの数=ソース数となるため非常に重要なポイント。音質とバス数という視点、そして何より前述のSPAT Revolutionをコンソール上からコントロール可能という連携により選択が行われている。そしてこれだけのマルチチャンネル環境である、調整室の中からでは全くミキシングが行えない。そこでS6Lはあえてラックケースに収められ、会場センターのスイートスポットまで移動してのミキシングが可能なように可動式としている。 S6Lには、録音、再生用としてAVID Pro Toolsが接続されている。これは、AVID S6Lの持つ優れた機能の一つであるVirtual Rehearsal機能を活用して行っている。S6Lに入力された信号は、自動的に頭わけでPro Toolsに収録が可能、同様にPro ToolsのPlaybackとInputの切替は、ボタン一つでチャンネル単位で行えるようになっている。マルチトラックで持ち込んだセッションをArtware hubの環境に合わせてミキシングを行ったり、ライブ演奏をSPATを利用してImmersive Soundにしたりとどのようなことも行えるシステムアップとしている。これらのシステムが今後どの様に活用されどのようなArtが生み出されていくのか?それこそが、まさにArtware hubとしての真骨頂である。 AVID S6L はこのように部屋の中央(スピーカー群のセンター位置)まで移動させることが可能。イマーシブミキシング時は音を確認しながら作業が行える。 Artware hubには、音響だけではなく、映像、照明に関しても最新の設備が導入されている。映像の収録は、リモート制御可能な4台の4Kカメラが用意され、個別に4Kでの収録が可能なシステムアップが行われた。4K対応機器を中心にシステムアップが行われ、将来への拡張性を担保したシステムとなっている。音響システムとは、同期の取れる様にLTC/MTCの接続も行われている。照明は、MIDIでの制御に対応し、PCでの事前仕込みの可能な最新の照明卓が導入された。LED照明を中心に少人数でのオペレートで十分な演出が行えるよう配慮されたシステムとなっている。 さまざまなArtistがこのシステムでどのようなサウンドを生み出すのか?実験的な施設でもあるが、観客を入れて多くの人々が同時に新しい音空間を共有できる環境であり、すべてにおいて新しい取り組みとなっている。Roland時代の梯郁太郎氏は早くも1991年にRSS=Roland Sound Spaceという3D Audio Processorを開発リリースしている。その次代を先取りした感性が、今このArtware hubで現実の環境として結実していると思うと感慨深いものがある。 本誌では、これからもArtware hubで生み出されるArtを積極的に取り上げていきたい。また、今回ご紹介したシステム以外にも照明映像関連などで最新の設備が導入されている、これらも順次ご紹介をしたい。最後にはなるがこの設備のコンセプトの中心となった、かけはし芸術文化振興財団専務理事で梯郁太郎氏のご子息である梯郁夫氏、そして同じく理事であるKim Studio伊藤圭一氏の情熱により、この空間、設備が完成したことをお伝えしまとめとしたい。 *ProceedMagazine2018-2019号より転載

Media

専門学校ESPエンタテインメント福岡 様 / AMS NEVE Genesysで実現する充実のカリキュラム

多くの人材を業界へ輩出するESPミュージックアカデミーが福岡に新たな校舎を新設、レコーディング課の実習室として素晴らしいスタジオが作られた。リズムセクション収録の可能な広いブースと、授業を前提に広く作られたコントロールルーム。そして、そこに導入されたAMS NEVEGenesys。細かい部分までこだわりを持って設計されたそのスタジオをレポートしたい。 1:AMS NEVE Genesysという合理的なセレクト まずは導入されたコンソールの話から始めるが、実は東京・大阪・福岡の各校舎ではそれぞれ異なった機材が導入されている。東京校は2 部屋の実習室があるが、それぞれSSL 4000G+ とSSL 9000が導入されており両方とも大型のアナログコンソールとなる。大阪校も2 部屋の実習室、こちらはSSL AWS948とAVID S6で、アナログコンソールとPro Toolsコントローラーという組み合わせになる。そして今回この福岡校に導入されたのはAMS NEVE Genesysである。ここから読み取れるのは、東京校では最初にアナログコンソールでシグナルフローなどの概念をしっかりと学び、次のステップへというカリキュラム。大阪校では1年目にSSL AWSでアナログコンソールでの実習、2年目はAVID S6で最新環境を体験するという2段構えの想定、福岡校は1 部屋で両方のコンセプトを兼ね備えた実習を行えるAMS NEVE Genesys、と各校とも実に合理的なセレクトが行われていることがわかる。 今回は新校舎ということもありプランニングには1年以上の時間がかけられているのだが、コンソールの選定には多くの候補が検討されたということだ。その中で最後まで残ったのが、今回導入されたAMS NEVE GenesysとAVID S6。学生には現場に出た際に学校で学んだ機材と同じもので作業を行ってほしいという意見もあり、今後のスタンダードとなりうるAVID S6は有力な候補であったが、やはり授業を行うことを前提に考えるとアナログコンソールであるということは外せないという判断にたどり着いたとのこと。ミキシングを教える際に非常に重要なシグナルフロー。デジタルだと柔軟性が高いがゆえにどうしても具体的になっていかないが、アナログコンソールであれば一つ一つのツマミを順に追いかけることで信号がどのような順番で処理が行われているのかがわかる。これは実習を行う上で非常に重要なポイントとして考えているということだ。 今回導入されたAMS NEVE Genesysはチャンネルストリップが16ch実装されたモデル。リズムセクションの収録を考えると16chというのは必須であり、NEVE 製のプリが16ch用意されているこの製品の魅力の一つでもある。残りのフェーダーはDAWコントロールとして働き、インラインコンソールのような使い方も可能。これもマルチトラックレコーディングのフローを教える際には非常に重要なポイントとなる。DAWへ信号を送り、それが戻ってくる(実際には、DAW内部で最終SUMはされるが)という感覚はこのクラスの製品でないと直感的に理解することは難しいのではないだろうか。 2:コントロールされた音響設計と200Vでの駆動 レコーダーとしてはAVID Pro Tools HDXが導入され、HD I/Oが2台接続、AD/DAは24ch が用意される。ここに関しては基本を知るという教育の現場であるためベーシックな構成が選択された。Pro Toolsのオペレート用のデスクは、Erogotronのカートが導入されている。このカートは医療現場用に設計されているために非常に作りもよく、耐久性も高い製品。授業の形態に応じてどこでも操作のできる環境が作り上げられている。ブースはリズムセクションが入れる十分な広さを持った空間で、アンプ類、ドラムセットなども用意された贅沢な空間となっている。楽器類もエントリークラスのものではなく、しっかりとした定番の機種が揃っているあたりにこだわりが感じられる。また、ブースとコントロールルームをつなぐ前室にもコネクターパネルが用意され、ボーカルブースや、アンプブースとしても使えるように工夫が行われている。 コントロールルーム、ブースなどは日本音響エンジニアリングによる音響設計で、しっかりとした遮音とコントロールされた響きにより充実した録音実習が行える空間となっている。ドラムが設置されている部分には、木のストライプやレンガ風塗り壁にしデッドになり過ぎず、自然な響きが得られるようになっていたり、コントロールルームとの間は大きな窓が開き、授業の際に十分な視界を確保することができる、といったように少し現場を見るだけでも考え抜かれた設計であることがわかる。さらに、ここでは音質にこだわり200Vでの駆動を行っているということだ。学校であるということを考えると必要十分以上な設計かもしれないが、本当に良い音を実習の段階から知ることができるのは、卒業して現場に出たときに必ず武器となるはずである。良い音を知らなければ、良い音は作れないのだから。 福岡の地に誕生した充実のスタジオ。ここから巣立つ学生の皆さんがどのような活躍をしていくのか非常に楽しみである。 右: 教務部 音楽アーティスト科 吉田雅史氏 中: サウンドクリエイターコース講師 大崎隼人氏 左: ROCK ON PRO 岡田詞郎 *ProceedMagazine2018-2019号より転載

Education

株式会社毎日放送 様 / 入念な検討で実現した2日間でのコンソール更新

大阪駅北側に位置する茶屋町に社屋を構える株式会社毎日放送。その社屋の4階にあるMAコンソールの更新工事が行われた。長年に渡り活躍をしてきたAMS NEVE MMC から、次の時代を睨んだAVID S6 + MTRXという最新の機材へと更新が行われている。 1:AVID S6 の構成をどう考えたか なぜ、コンソールであるAMS NEVE MMCからコントローラーであるAVID S6へと舵を切ったのか?この点からレポートを始めるが、更新が行われた同社屋の7Fにあるもう一つのMAルームでAVID ICON D-Controlを使っていたということが一つの理由。すでにDAWとしてPro Toolsをメインに作業を行っているということで、AVID D-Controlの持つ専用コントローラーとしての完成度の高さはすでに実感済み。その作業効率の良さは十分に理解していた中で、もう一部屋の更新に際しては、Pro Toolsと親和性の高いAVID S6、もしくはS3という候補しか残らなかったということ。そのS3についてはもともとのコンソールが24フェーダーだったということもありスペック的に選択肢から外れ、必然的にAVID S6の構成をどうするかという一点に検討は集中することとなった。なかでも事前のデモンストレーションの段階から、AVID S6の武器であるVisual Feedbackの中心とも言えるDisplayモジュールに注目。Pro Toolsのトラック上を流れる波形データを表示できるという機能は、まさにAVID D-Controlから大きくブラッシュアップされている優れた点だと認識いただいた。まさに、設計者の意図とユーザーのニーズが噛み合った素晴らしいポイントと言える。 Displayモジュール導入、そしてフェーダー数はそれまでのAMS NEVE MMCと同等の24フェーダーということが決まり、次の懸案事項はノブの数。AVID D-Controlではフェーダー操作が中心で、あまりエンコーダーを触っての作業を行ってこなかったということもあり、ここは5-Knobという構成に決まった。この5-Knobに決まったもう一つの理由としては、5-knobの一番奥のエンコーダーはやはり座って操作することを考えると遠い、小柄な女性スタッフでも十分に全ての操作を座ったまま行えるべきだ、という判断もあったということだ。エルゴノミクス・デザインをキーワードのひとつとして設計されたコンパクトなAVID S6だが、すべてを手の届く範囲にと考えるとやはり5-Knobのほうに軍配が上がるということになる。 2:設置の当日まで悩んだレイアウト モジュールのレイアウトに関しては、設置の当日まで担当の田中氏を悩ませることとなる。Producer Deskと呼ばれるPC Display / Keyboardを設置するスペース、そしてセンターセクションをどこに配置をするのか?ミキシングの際にはフェーダーがセンターに欲しいが、一番時間のかかる編集時にはPC Keyboardがセンターがいい。これを両立することは物理的に難しいため試行錯誤の上、写真に見られるようなモジュールのレイアウトとなっている。 工期が短いということで驚かれた方もいるかもしれないが、AMS NEVE MMCの撤去からシステムのセットアップまで含め、実際に2日間で工事を行っている。もちろん、Pro ToolsのIO関連などの更新は最小限ではあるが、スタジオの中心機器とも言えるコンソールの更新がこの時間内で行えたのは、AVID S6がコントローラーであるということに尽きる。既存のケーブル類を撤去した後に配線をする分量が非常に少なく済むため、このような工事も行えるということだ。そして、配線関係がシンプルになった部分を補うAVID MTRX とS6によるモニターコントロールセクション。複雑な制御を行っているが、AVID MTRX単体でモニターの切替を柔軟に行っている。ソフトウェア上の設定で完結出来るため、効率の良い更新工事が行えたことにも直結している。 3:MTRX のモニターセクションと高い解像度 もう一つの更新ポイントであるAVID MTRXの導入。この部分に関してはAVID S6との連携により、従来のコンソールのマスターセクションを置き換えることができるEuConによるコントロール機能をフル活用いただいている。柔軟な構築が可能なMTRXのモニターセクション。従来このMAルームで行われていた5.1chのサラウンドから、写真にも見えているDOLBY ATMOSに対応した作業など、未来を見据えた実験的な作業を行えるように準備が進められている。もちろん、放送波にDOLBY ATMOSが乗るということは近い将来では考えられないが、これからの放送局のあり方として配信をベースにしたコンテンツの販売などを考えれば、電波だけを考えるのではなく、新しい技術にニーズがあるのであれば積極的にチャレンジしたいということ。それに対して機器の更新なしに対応のできるMTRXはまさにベストチョイスであったということだ。 そして、MTRX にAD/DAを更新したことで音質が向上したのがはっきりと分かるという。取材時点ではブースの更新前ということでADに関しては試されていない状況ではあったが、DAに関してはこれまで使用してきたAVID HD I/Oに比べて明らかな音質向上を実感しているということだ。音質の傾向はクリアで、解像度の高いサウンド。7階のスタジオにあるHD I/OとRL901のほうがスピーカーの性能を考えても上位であることは間違いないのだが、DAでこれまで音質が向上するのは驚きだということだ。特に解像度の高さは誰にでもわかるレベルで向上をしているというコメントをいただいている。 これから、DOLBY ATMOS をはじめとしたイマーシブ・サウンドにも挑戦したいという田中氏。今後、このスタジオからどのような作品が生み出されていくのだろうか、放送局という場から生み出されるイマーシブ・サウンドにもぜひ注目をしていきたい。 株式会社 毎日放送 制作技術局 制作技術部  音声担当 田中 聖二 氏 *ProceedMagazine2018-2019号より転載

Broadcast

京都造形芸術大学 様 / キャラクターの成立を学ぶMA 実習環境

京都市街の中でも屈指の観光地である東山の北、銀閣寺の近くにキャンパスを構える京都造形芸術大学。東山三十六峰の一つ、瓜生山の裾野に白川通りから斜面に校舎が立ち並んでいるのが特徴的。美術大学の中でも特徴的な学科が揃っており、マンガ学科、空間演出デザイン学科、文芸表現学科、こども芸術学科、歴史遺産学科など独自の学科が並ぶ。そのなかで今回AVID S6 を導入いただいたのはキャラクターデザイン学科である。どのようにAVID S6 そして、AVID Pro Tools が講義の中で活用されているのか、そのような視点も含めご紹介したい。 1:水平設置されたAVID S6 今回導入いただいたAVID S6 は24 フェーダーのモデル。それまで活躍していたAVID ICON D-Control 16 フェーダーモデルからのリプレイスとなる。そのリプレイスに伴い、AVID HD I/O からAVID MTRX への更新も同時に行われている。通常のICON からのリプレイスでは、それまで使用していたAVID X-MON(モニターコントロールユニット)はそのまま継続されるケースが多いのだが、今回は最新の設備へと積極的に更新を行っていただいた。 音質の向上、そしてモニターコントロール部分におけるAVID S6 との統合と、次世代の制作環境を見据えたシステムアップとなっている。同時に映像の再生をそれまでのVideo Satellite システムから、Video Slave へと変更をしている。このあとに活用されている実習などをご紹介するが、シンプルな作業ながら様々なファイルの受け入れが必要となっているため、より柔軟性の高いVideo Slave へと変更がなされている。 システムとしては、非常にシンプルにPro Tools HDX システムにAudio I/O としてAVID MTRX が用意された構成。そこにAVID S6 が組み合わされている。ただし、それを設置する机は特注のデスクが用意され、通常では奥に向かって高くなる傾斜のついたS6 の盤面が水平になるように工夫がなされている。AVID S6 のシャーシがきれいに収まるようにかなり工夫が行われたデスクである。これにより、非常にスッキリとした形状が実現できている。もともとサイズのコンパクトなAVID S6 があたかも机にビルトインされているように見えるなかなか特徴的な仕様となっている。 2:キャラクターに生命を宿すMA 実習 ブース等の内装に関しての更新は行われていないが、奥に広い4 名程度のアフレコが行える広さを持った空間が用意されているのが特徴となる。これは、このキャラクターデザイン学科の実習には無くてはならない広さであり、実習の内容と密接な関わりを持ったものである。キャラクターデザイン学科は、その名の通りアニメーションなどのキャラクターを生み出すことを学ぶ学科である。描き出されたキャラクターは、アイコンとしての存在は確立されるものだが、動画でキャラクターを活かすとなるとボイスが必須となる。声を吹き込むことで初めてキャラクターに生命が注ぎ込まれると言っても過言ではない。 そのため、キャラクターに対してボイスを吹き込む、動画(アニメーションが中心)に対して音声(ボイスだけではなく音楽、効果音なども含め)を加えるMA 作業を行うことになる。そのような実習を行うための空間としてこの教室が存在している。高学年時の選択制の授業のための実習室ということだが、音と映像のコラボレーションの重要性、そしてそれを体感することでの相乗効果など様々なメリットを得るための実践的な授業が行われている。もちろん、卒業制作などの制作物の仕上げとして音声を加えるなど、授業を選択していない学生の作品制作にも活用されているということだ。 ご承知のように、アニメーションは映像が出来上がった時点では、一切の音のない視覚だけの世界である。そこに生命を吹き込み、動きを生み出すのは音響の仕事となる。試しに初めて見るアニメを無音で見てみてほしい。過去に見たことがあるアニメだと、キャラクターの声を覚えてしまっているので向いていない、ドラえもんの映像を見てその声を思い出せない方はいないだろう。はじめてのキャラクターに出会ったときにどのような声でしゃべるのか?これは、キャラクターの設定として非常に重要な要素である。同じ絵柄であったとしても、声色一つで全く別のキャラクターになってしまうからだ。 つまり、絵を書くだけではなくどのようにキャラクターが成立していくのか?そういった部分にまで踏み込んで学ぶこと、それが大学のキャラクターデザイン学科としての教育であり、しかもそれが最新の機材を活用して行われている。ちなみに京都造形芸術大学には、この設備以外にも映画学科が持つ映画用の音声制作設備があるということだ。 アニメーション関係では、卒業生に幾原邦彦(セーラームーンR、少女革命ウテナなど)、山田尚子(けいおん!、聲の形)といった素晴らしい才能が揃う。これからも日本のアニメーションを牽引する逸材がこの現場から登場していくことになるだろう。 京都造形芸術大学 村上聡先生、田口雅敏先生 *ProceedMagazine2018-2019号より転載

Education

株式会社松竹映像センター 様 / S6・4 Pro Tools・Dual MTRX・MMP1、最新機器が織りなす完成度

2015年、大船にあった映画関連のポストプロダクション施設と、高輪にあったそれ以外のポストプロダクション施設をお台場に移転させて、新しいスタートを切った松竹映像センター。今回はその中でも高輪から移設したMA室のシステムについて更新を行った。移転から早くも3年、統合したことによって生まれたシナジーはすでに芽吹いており、様々な作業での設備の共用、有効活用が始まっている。そのような中でのシステム更新はどのようなものとなったのか?一つづつ見ていきたい。 1:ハリウッドで確認したIn The Box Mixingの流れ 更新の前後を同じアングルで撮影したものである。左が2018年の更新後、右が2015年時点での状況となる。AVID S6のコンパクトさ、特に奥行方向が際立つ。 この部屋はAudio Suiteと呼ばれ、テレビ向け番組のMAから、劇場での予告など様々な作品の作業が行われている。7.1chのサラウンドシステムが構築され、幅広い作業に対応できるよう設計された部屋である。これまでは国内唯一となるAVID D-ControlのDual Headシステムが導入され、ツーマン体制での作業を可能としたスタジオとなっていた。今回の更新ではその作業スタイルを更に拡張し、柔軟かつ、効率の高い作業が行えるよう様々な部分がブラッシュアップされている。 ICON D-Controlの後継機種としては、AVID S6以外の選択肢が登場することはなかった。やはり、Pro Toolsの専用コントローラーとしてのICON D-Controlの優れた操作性を実感しているユーザーとして、いまさらコンソール+DAWという環境へは戻れないというのが本音だろう。そして、ハリウッドでも進むDAWのIn The Box Mixingの流れ、リコール性・作業の柔軟性、そういったことを考えればDAWの内部で完結するシステムというものは理にかなっている。ポストプロダクション向けのコンソールがDigital化したいま、実際にAudio SignalをSummingしているのが、Digital Consoleの内部Mixer上なのか、DAW内部のMixerなのかという違いしか無い。どちらにせよデジタル処理であり、その処理の差異による音質ということになる。しかし、これはデジタル・ドメインでの話であり、日進月歩のSoftware BaseのDAWの優位性はHardware BaseのDigital Consoleとは進化のスピードが違うといえるだろう。とはいえ、Pro Toolsもご承知の通りFPGAとDSPをベースとしたPro Tools HDXというハードウェアベースのシステムである。それまでのTDMシステムからの世代交代により、音質の評価が一気に高まり、世界的にもDAWのIn The Box Mixingで音質的にも問題ないとう流れが生まれたのは間違いない。 また、この更新にあたりハリウッド地区のスタジオ視察にも行き、最新の環境、ワークフローを実感してきていただいている。AVID S6を使った大規模な映画向けのダビングステージなどを目の当たりにし、そのワークフローを見ることでDAW + Controlerという環境でこだわり抜いた作品作りが実際に行われているということを体感していただいた。Digital Consoleがなくとも十分な制作環境が構築できる。これは、AVID S6の提供する優れた操作性、Pro Tools HDXでブラッシュアップされた音質、そして、システムのコアとなるAVID MTRXが揃ったからこそ実現できたソリューションである。 2:11feetのシャーシに収まるS6 48フェーダー 前置きが長くなってしまったが、今回の更新に関して全体像を見ていきたい。ControlerはAVID S6 M40 48フェーダー仕様である。国内でも最大規模の11feetのシャーシに収まり、これまでのICON D-Control 32Fader + Dual Headとほぼ同じサイズに収まっている。最後までS6もDual Headにするかどうか悩まれたところではあるが、AVID S6のLayout機能を使うことで同等のことが、更に柔軟に設計できるということでSingle Headの構成となっている。ノブに関しては、手の届く範囲にあれば十分という判断から5-Knob。JoyStickはセンターポジションで使うことを想定して専用のケースを用意して外部に取り出している。左右には、作業用のProducer Deskを設け、ツーマンでの作業性に配慮が行われている。デスクをカスタムで専用のものを準備しようか?という話も出ていたのだが、これまでのICONとほぼ同一サイズということで左右に余裕が無いためシンプルに純正のLegを活用することとなった。 以前のICON D-Control時代の写真と見比べてもらいたいのだが、左右の幅はほぼ同一ながら、非常にスッキリとした収まりになっているのがわかる。やはり、高さが低く抑えられていることと、奥行きが30cmほど短くなったことが大きく影響しているようだ。フットプリントとしては奥行きの30cm程度なのだが、驚くほどスッキリとした感覚だ。Ergonomics DesginにこだわったAVID S6らしいしつらえになっているのではないかと感じられる。 3:4台体制のPro ToolsとデュアルMTRX 今回の更新は、このAVID S6が目に見える部分での最大の更新となっているが、実はDAW周りも非常に大きく手が入れられている。これまでのシステムをおさらいすると、Main / Sub 2台のPro Tools HDXシステムと、Media Composerを使ったVideo Satelliteの3台のPCを駆使して作業が行われていた。今回の更新では、そこにさらに2台のPro Toolsが加えられ、ダビング仕様のシステムアップが行われている。DAWとしては、Main / Sub-A / Sub-B / Dubberという4台体制に。AVID MTRXをセンターコアとしてそれぞれが、32chずつの信号がやり取り出来るようにシステムアップが行われている。ある程度の規模までのダビング作業であればこなせるシステムであり、各DAW内部でのStem Outを唯一64hの入出力を持つDubberで受けるというシステムアップになっている。大規模なダビング用のシステムは、大きな空間を持つダビングステージを同社内に持つため、それよりも少し規模の小さな作品やハリウッドスタイルでのドラマの仕上げ作業など様々な使い勝手を考えてのシステムアップとなっている。 今回は限られた予算の中で、既存製品の流用を多く考えながらシステムの組み換えが行われていった。それまで、2台のDAWにはそれぞれ2台づつのAVID HD I/Oが使われていた。その4台のHD I/Oを有効活用しつつ、AVID MTRXを加えて4台分のI/Oを捻出しようというのが今回のプランとなる。Main / Sub-Aに関しては、AVID MTRXとDigiLinkにより直結。これにより32chのチャンネル数を確保している。Sub-Bは余剰となったHD I/O2台からのAES接続。Dubberは、64chを確保するためにAVID MTRXをDubber専用にもう一台導入し、2台のMTRXはそれぞれMADIで接続されている。ユーティリティー用のAD/DAとしては、Directout technologiesのANDIAMO 2.XTを準備。メーターアウトなどはここからのAnalogもしくはAES/EBU OUTを活用している。 4:16系統のMonitor Source、MTRXの柔軟さ このように、構築されたシステムの中核はMain / Sub-AがDigiLink接続されたAVID MTRX。これをDADman経由でAVID S6のMonitor Sectionよりコントロールしている。柔軟なモニターセクションの構築は、優れたユーザビリティーを生み出している。これまでであれば、Sourceに選択できる回線数の制限、ダウンミックスの制約など何かしらの限界が生じるものだが、AVID MTRXを使った構成では、一切の制約のない状況で、思いつくかぎりの設定が可能となる。これは、MTRXに入力されている信号の全てが、Monitor Sourceとして設定可能であり、出力のすべてがSpeaker Outもしくは、Cue Outとしての設定が可能なためである。これにより、各Pro ToolsのOutを7.1ch Surroundで設定しつつ、VTRの戻りを5.1chで、さらにCDなどの外部機器の入力を立ち上げることが可能。実際に16系統のMonitor Sourceを設定している。ダウンミックスも柔軟性が高く、7.1ch to 5.1chはもちろん、Stereo / Monoといったダウンミックスも自由に係数をかけて設定することが可能となっている。 スピーカー棚下部に設けられたラックスペース。ここにDubber以外の回線が集約されている。 個別に入出力の設定が可能なCue Outに関しては、X-Mon互換のコントロールを持つS6のMonitor SectionでA,B,C,Dの4系統が設定可能となる。ここでは、アシスタント用の手元スピーカーの入力切替、Machine Roomに設置されたVTRへの戻しの回線の選択、そして本来のCueの役目であるBoothへのHPモニター回線の選択と、フルにその機能を活用している。ちなみにだが、Machine Roomへの音戻しの回線は、今回の更新でMTRXにSDI optionを追加しているので、これまでのAES経由での回線ではなく、SDI EmbeddedのAudioを直接戻せるように変更が行われている。Video Frameに埋め込まれた状態で音戻しが行えるために、同期精度によらない正確な戻しが実現できている。 5:AdderでPC KVMのマトリクス化を実現 今回の更新により、PCが5台となったためその切替のためにAdder DDXシステムが導入された。これは、低コストでPC KVMのマトリクス化を実現する製品。キーボードのショートカットから操作を行いたいPCを選択することの出来るKVMマトリクスシステムだ。IPベースのシステムであり、切替のスピードも早く最低限のPC Displayで柔軟な操作を行うことのできるシステムとして導入いただいた。大規模なシステムに向く製品ではないが、小規模なシステムであれば、従来のKVM Matirxシステムに比べて低予算で導入可能な優れた製品である。PCの台数が増えたことによるKVM関連のトラブルを危惧されていたが、目立った不具合もなく快適にお使いいただいている部分である。 KVM MatrixであるAdderの選択画面。キーボードショットカットでこの画面をすぐに呼び出せる。 MTRXの設定しているDADman。回線のマトリクスパッチ、モニターコントロール設定、まさにこの設定がスタジオのコアとなる。 もちろん、今回の更新でもスタジオとしていちばん重要な音質部分に関してもブラッシュアップが図られている。その中心は、やはりAVID MTRXによるAD/DAの部分が大きい。Boothのマイクの立ち上げ、スピーカーへの接続回線はAVID MTRXのAD/DAへとブラッシュアップが行われている。これにより、はっきりとしたサウンド変化を感じ取られているようだ。解像度の高さ、空気感、音質という面では非の打ち所のないブラッシュアップされたサウンドは「やはり間違いなくいい」とのコメント。MTRXの音質に関しては、どのユーザーからもネガティブな意見を貰ったことはない。クリアで解像度の高いそのサウンドは、癖のないどのような現場にも受け入れられる高いクオリティーを持っていることを改めて実感した。 それ以外にも、音質にこだわった更新の箇所としてYamaha MMP1の導入があげられる。Boothとのコミュニケーションは、既存のCuf Systemを流用しているのだが、音質に影響のあるCufのOn/Offの連動機能をYamaha MMP1のプロセッサーに預けている。これにより、これまでAnalogで行われていたMicのOn/OffがDigital領域での制御に変更となっている。非常に細かい部分ではあるが、アナログ回路部分を最小限にピュアにADコンバーターまで送り届け、制御をデジタル信号になってから行っているということだ。 MTRXとともに収められたYamaha MMP1 更新されたMic Pre、Shelford Channel 同時にMic Pre AmpもRupert Neve DesignのShelford Channelを2台導入いただいている。これまでにも、Mic Preを更新したいというご相談を何度となく受けていたのだが、ICON D-Controlからのリモートが効かなくなるということもあり、AVID Preを使っていただいていた。今回は念願かなってのMic Pre導入となる。この選定にも、5機種ほどの候補を聴き比べていただきその中からチョイスしている。基礎体力的なサウンドの太さと、破綻のないサウンドバリエーションを提供するShelford Channelは様々な作品を扱うこのスタジオにはピッタリマッチしたとのことだ。特にSILKボタンはお気に入りでBLUE/RED/Normalすべてのモードが、それぞれに魅力的なサウンドキャラクターを持っており、収録するサウンドをより望んだ音質に近づけることができるようになったとのことだ。Textureのパラメーターとともにこれからの録音に活躍させたいとコメントいただいている。もともと導入されていたSSL X-RackにインストールされたEQ / DYNモジュール、NEVE 33609との組み合わせで、様々なサウンドバリエーションを得ることが出来るようになっている。 Yamaha MMP1はCufのコントロール以外にもいくつかの便利な機能がある。その一つがTB Micの制御。TB Micに対してのEQ / Compの処理を行うことで、聞き取りやすいコミュニュケーション環境を提供している。少しの工夫ではあるが、Yamaha MMP1の持つChannel Stripを活用してこれを実現している。プロセッシングパワーのある機器が数多く導入されているため、柔軟かつクオリティーの高い制作環境が整った。 6:ミックスバランスに配慮したスクリーン導入 この更新が行われる前に、Audio Suiteにはスクリーンが導入されている。これは劇場公開作品の仕上げ時に出来る限り近い環境での作業が行えるようにとの配慮からである。単純に画面サイズの違いにより、ミックスバランスに差異が生じることは既知の事実である。このような一歩一歩の更新の集大成として今回のシステムのブラッシュアップがある。小規模なダビング作業から、TV向けのミキシングまで、柔軟に対応のできるオールマイティーなスタジオとして、大規模なダビングステージと、ADR収録用のスタジオを併設する松竹映像センターとして明確な使い分けを行い、どのような作業の依頼が来ても対応できるファシリティーを揃えることに成功している。 今回の更新によりダビングスタイルの作業にも対応したことで、更に対応できる仕事の幅は広がっている。サウンドのクオリティーにも十分に配慮され、今後どのような作業に使われていくのか?次々と新しい作業にチャレンジが続けられることだろう。 株式会社 松竹映像センター ポストプロダクション部 ダビング MA グループ長 吉田 優貴 氏 *ProceedMagazine2018-2019号より転載

Post

株式会社カプコン様 / Dynamic Mixing Room-[B] / [W]

日本を代表するゲーム会社カプコン。前号でもリニューアルしたDynamic Mixing Stageをご紹介したが、それに続いて新たにDynamic Mixing Room-[B]とDynamic Mixing Room-[W]が作られた。VR、イマーシブといった言葉が先行しているゲーム業界におけるオーディオのミキシングだが、それらのコンテンツを制作する現場はアプローチの手法からして大きな変革の中にある。ゲームではカットシーン(ユーザーが操作をせずに動画が再生され、ストーリを展開する部分)と呼ばれるMovieとして作られたパートが次々と減少し、昨年リリースの同社『バイオハザード7 レジデント イービル』では遂にカットシーンが全くないというところにまでたどり着いている。こういった背景もあり、しっかりとした音環境でDynamic Mixingを行える環境というものが切望されていた。その回答が前回ご紹介したDynamic Mixing Stageであり、今回のDynamic Mixing Roomとなる。 ◎求められていたDynamic Mixing「Room」 昨年のDynamic Mixing Stageは各素材の最終確認、そして最後の仕上げという部分を重点的に担っているが、その途中の生成物であるオーディオデータが全てファイナルのミックス時点でオブジェクトに埋め込まれ、プログラムされていくわけではない。しかし、オーディオデータをプログラムに埋め込み、他のサウンドとの兼ね合いを確認しながら作業を行う必要が日に日に大きくなっているのが現状だ。カプコンでは各スタッフに専用のパーテーションで区切られたブースが与えられ、5.1chでの視聴環境が用意されている。ただし、あくまでも仮設の環境であり、スタジオと比べてしまえば音環境としてお世辞にも良いと言えるものではない。ほかにもPro Toolsが常設された防音室が用意され、そこへシステムを持ち込み確認作業が行えるようになっていたが、常設のシステムに対して持ち込みのシステムを繋ぎ込む必要があるため、それなりのエンジニアリング・スキルが要求される環境であった。この環境改善を図ったのが今回の目的の第一点となる。   もちろん、ここにはサウンドクオリティーへの要求も多分に含まれる。海外のゲーム会社を視察した際に、クリエイター各自が作業スペースとしてスタジオクラスの視聴環境で作業しているのを目の当たりにした。これが、世界中のユーザーに対してゲーム開発をおこなうカプコンとして、同じクオリティーを確保するための重要な要素と感じた。各クリエイターが、どれだけしっかりとした環境でサウンドクオリティーを確認することが出来るのか。これこそが、各サウンドパーツレベルのクオリティーの差となり、最終的な仕上がりに影響をしているのではないか、ということだ。これを改善するため、自席のシステムそのままにサウンドの確認を行うことのできるDynamic Mixing Roomへとつながっている。   さらにもう一つ、VRなど技術の発展により、3Dサラウンド環境での確認が必要なタイトルが増えてきたというのも新設の大きな要因。昨年、Xbox OneがDolby Atmosに対応したことなどもその一因となったそうだ。今回はスピーカーの増設だけでその対応を行うということではなく、やるのであればしっかりとした環境自体を構築する、という判断を後押しするポイントになったという。   そして、Dynamic Mixingにおいてサウンドを確認するためには、DAWからの出力を聴くのではなくゲーム開発機からの出力を聴く必要がある。ゲームエンジンが実際に動き、そこにオーディオデータがプログラムとして実装された状況下でどの様に聴こえるのか、プログラムのパラメーターは正しかったか?他のサウンドとのかぶりは?多方面から確認を行う必要があるからだ。そうなると、自分の作っているゲームの開発機を設置して、繋ぎ込んで音を聴くというかなりの労力を要する作業を強いられてしまう。 すでに開発中のデータ自体はネットワーク化されておりサーバー上から動くが、端末はそのスペックにあった環境でなければ正確に再現されない。今回のDynamic Mixing Roomはそういった労力を極力減らすために設計された部屋ということになる。そのコンセプトは利便性とスピード感。この二つに集約されるということだ。 ◎部屋と一体になった音響設計 実はこの部屋にはDAWが存在しない、2つの鏡写しに作られた黒い部屋と白い部屋。その間の通路に置かれたラックに開発PCを設置して作業が行えるようになっている。接続された開発PCはHDMIマトリクススイッチャーを経由してそれぞれの部屋へと接続される。開発PCの音声出力はHDMIのため、部屋ではまずAV ampに接続されデコード、モニターコントローラーの役割として導入されたRME UFX+を経由してスピーカーを鳴らす。なぜRME UFX+がモニターコントローラーとして採用されているかは後ほど詳しく説明するとして、まずはサウンドに対してのこだわりから話を始めたい。   この環境を作るにあたりリファレンスとしたのはDynamic Mixing Stage。こちらと今回のDynamic Mixing Roomでサウンドの共通性を持たせ、迷いのない一貫した作業を実現したいというのが一つの大きなコンセプト。全てのスピーカーは音響設計を行なったSONAのカスタムメイドでバッフルマウントとなっている。サラウンド側、そして天井に至るまで全てのスピーカーがバッフルマウントという部屋と一体になった音響設計が行われている。このスピーカーは全てバイアンプ駆動され、そのマネージメントを行うプロセッサーはminiDSPが採用されている。miniDSPはFIRフィルターを搭載し、位相問題のないクリアなコントロールを実現している。しっかりとした音響設計がなされたこのDynamic Mixing RoomはDynamic Mixing Stageと高いサウンドの互換性を確保できたということだ。今後はDynamic Mixing Stageで行われているダイヤログの整音と並行してDynamic Mixing Roomで実装された状態での視聴を行う、といった作業も実現できる環境になっているということ。もちろん、同じクオリティーでサウンドを確認できているので、齟齬も少なく済む。まさに「スピード感」というコンセプトが実現されていると言える。 ◎RME Total Mixで実現した柔軟なモニターセクション それでは、次にRME UFX+の部分に移っていきたい。UFX+の持つTotal Mixを使ったモニター機能は非常に強力。複数のマルチチャンネルソースを自由にルーティングすることが出来る。これまで自席で仕込んだサウンドをしっかりした環境で聴こうと思うと、前述のように自席のPC自体を移動させて仮設する必要があった。この作業をなくすために、DiGiGridのネットワークが構築されている。それぞれのPCからの音声出力はDiGiGridのネットワークに流れ、それがDynamic Mixing RoomのUFX+へと接続。もちろんDiGiGridのままでは接続できないため、DiGiGrid MGO(DiGiGrid - Optical MADI Convertor)を介しMADIとして接続されている。   開発PCからのHDMIはAV ampでデコードしてアナログで接続され、各スタッフの自席PCからはDiGiGirdネットワークを介して接続、ということになる。これらの入力ソースはRME Total Mix上でモニターソースとしてアサインされ、ARC USBによりフィジカルにコントロールされる。このフィジカルコントローラーの存在も大きな決め手だったということだ。そもそも複数の7.1.4サラウンドを切り替えようと思うと具体的な製品がなかなか存在しない。フィジカルコントロールも必要となるとAVID S6 + MTRX、TAC System VMC-102 + MTRXといった大規模なシステムになってしまうのが実情。リリース予定の製品にまで目をやったとしてもGrace Design m908がかろうじて実現出来るかどうかというレベルとなる。その様な中でUFX+とARC USBの組合せは過不足のない機能をしっかりと提供することが出来ており、フィジカルなコントローラーを手に入れたことで使い勝手の高いシステムへと変貌している。実は、Total MixのモニターコントロールはRock oN渋谷店頭でスピーカー試聴の切替にも使用されている。こちらも試聴中に数多くの機器をスムーズに切り替える必要があるのだが、その柔軟性が遺憾なく発揮されている実例でもある。 ◎利便性とスピード感を具現化 このDynamic Mixing Roomは3Fに位置しており、先行してDiGiGridのネットワークが構築されたコンポーザーの作業場は14Fとかなり距離が離れていたが、その距離も既存のネットワーク回線を活用することで簡単に連携が実現ができた。ここはネットワークが会社中に張り巡らされているゲーム会社ならではの導入障壁の低さかもしれないが、追加で回線を入れるとしてもネットワーク線の増設工事であれば、と考えてしまうところでもある。ちなみに自席PCはDynamic Mixing Roomから画面共有でリモートしている。画面共有サービスもブラッシュアップされておりレスポンスの良い作業が実現したこともこのシステム導入の後押しになったということだ。   今後は、コンポーザーだけではなくSEスタッフの自席も活用しようと検討しているということだ。全社で70名近いというサウンドスタッフすべてのPCがDiGiGrid Networkを介してつながる、まさに未来的な制作環境が実現していると言えるのではないだろうか。自席PCでサウンドを仕込みながら、持ち込んだ開発PCに実装し、その場で確認を行う。理想としていた制作環境に近づいたということだ。また、開発PCを複数置けるだけのスペースも確保したので、タイトルの開発終了まで設置したままにできる、ということも大きい。HDMI出力と操作画面用のDVI、そして操作用のUSB、これらの繋ぎ変えだけで済むということは、これまで行なっていたPCごと移動するスタイルからの大きな進化。利便性とスピード感。このコンセプトに特化した環境が構築されたと言えるのではないだろうか。   また、Dynamic Mixing Roomには常設のMouseもKeyboardも無い。自席と同じ様な作業環境を簡単に構築できるという考え方のもと、機材の持ち込みは自由にされているということだ。共有の設備にも関わらず、PCもなければMouseもKeyboradもない。少し前では考えられなかったような設備が完成した。言わば「何も置かない」というミニマルさが、ゲームの開発という環境に特化して利便性とスピード感を追求した結果。これは、ゲーム制作だけではなくシェア・ワークフローそのものを考える上で大きな転換点に来ているということを実感する。 すでにITでは数年前からSaaS(Software as a Service)という形態が進化を続けている。手元にあるPCはあくまでも端末として、実際の処理はクラウドサービスとして動作をしているシステム。映像の業界はすでにSaaS、クラウドといったイントラネットから飛び出したインターネット上でのサービスの活用が始まっている。今後は、サウンドの業界もこの様な進化を遂げていくのではないか、そのきっかけとなるのが今回のカプコン Dynamic Mixing Roomの実例なのではないかと感じている。 (手前)株式会社カプコン サウンドプロダクション室 室長 岸 智也 氏 / (奥左)同室 コンポーザー 堀 諭史 氏 / (奥右)同室 オーディオ・ディレクター 鉢迫 渉 氏     *ProceedMagazine2018Spring号より転載

Media

株式会社タノシナル様 / 多様なスペースが連携するタノシナルな空間

2012年創業のタノシナル。その社名「タノシナル」は関西弁で「楽しくなる」という意味。TV局など制作の第一線で働いていたスタッフが起業した会社だ。「世界にタノシナルことを発信し続ける」という企業理念を掲げ、近年大きな飛躍を遂げている。そのタノシナルが「生きた時間と空間を可視化する」というコンセプトのもとに昨年オープンしたのが、新オフィスとカフェやショップなどが併設された複合施設「CASICA」。ROCK ON PROではこちらに新設されたMAスタジオのお手伝いをさせてもらったのだが、ここからどんな「タノシナルこと」を生み出そうとしているのか?興味深い新たな業態について様々な角度から伺った。 ◎多様なスペースを持つCASICA 現在、タノシナルはコンテンツ制作とイベント制作を主に手掛けるかたわら、同じ建物内でCASICAの運営も行っている。映像やWebなどの制作は、受け手との距離感を縮めることが難しい。そこで、「実際に行かないと体験出来ない空間」を作りたかったというのだ。新木場という立地に材木倉庫をリノベートした空間として誕生した「CASICA」、その存在は何を可視化しているのだろうか?まずは1階部分を見ていきたい。   「生きた時間と空間を可視化する」そのコンセプトに基づいたショップには、古いものと新しいものが区別なく並んでいる。古いものの良さを押しつけるわけでもなく、新しいものの魅力を伝えるだけでもない。それを見た人の感性に委ねる、そんな空気が感じられる。材木倉庫を改造したショップには天井高のある空間を活かして商品が並べられている。やはり高さのある空間というのは、平面では語りきれない広がりをもたらしていると感じる。   「CIRCUS」の鈴木善雄氏のディレクションによるこの空間に入ると、難しく考えるのではなく「何でも良いんだな」とホッとする感情が湧いてくる。カフェのメニューは、身体からの声に耳を傾け、薬膳やアーユルヴェーダの考えをベースに、食や飲み物を通して身体の求めることを可視化。心身の調和を日常から整え、朗らかで心地よい毎日が送れる「食」、をテーマにしている。   そしてショップに設けられたギャラリースペースだが、元々材木倉庫だった建物ということもあり、吹き抜けの空間(木材の昇降用クレーンがあった場所)を利用し、間口は狭いけれど中に入ると天井高13メートルという異空間を演出。取材で伺った際は多治見の焼き物が飾られていたのだが、オープン当初は古いトランクケースの塔(!)がそびえていたとのこと。現在はCASICAで企画をしていろいろと展示を行っているが、今後は個展などの開催も視野に入れているとのことだ。   さらにCASICAの1Fには木工所までもがある。空間デザインを行なった鈴木善雄氏が代表を務める「焚火工藝集団」の職人たちを中心に、シェアオフィス的に活用をしているということだ。古道具・古家具のリペアであったり、新しいものづくりであったり、ここでも新しい、古いにとらわれない制作が行われている。 ◎タノシナルな情報発信 2階には、タノシナルのオフィスがある。冒頭にも記したようにタノシナルは、TV番組の制作に関わっていたスタッフが起業した会社。番組制作も行いつつ、さらにそのノウハウを生かした企業向け映像制作、イベントの制作も行ってきた。その中でも、大成功を納めたのが「品川やきいもテラス」と銘打ったイベント。品川シーズンテラスに全国各地の焼き芋を集め、焼き方、芋の種類それぞれにこだわった数々の焼き芋を楽しめるイベントとして開催された。都心で焼き芋のイベントをやってもそれほど人は集まらないと考えていたが、なんと1週間で3万人が来場!!「真冬に屋外で焼き芋食べたら美味しいよね〜」そんなアイデアに共感して集まったのが3万人と考えると、焼き芋のパワーを感じずにはいられない。写真を見ても来場者の笑顔がはじけているのが分かる。寒空の下で熱々のこだわりの焼き芋を食べる、いつの時代になっても変わらない普遍的な暖かい幸せがそこにはある。ちなみに2018年の第2回は4万3千人が集まったそうだ。   この様に「タノシナル」はやきいもテラスのように楽しさを持ったカルチャーを発信するのが非常に得意。情報の発信力というか、やはりTVに関わるスタッフの見せ方のうまさ、展開力、行動力、そういったバックグラウンドが非常に生きていると感じる。イベント制作を行い、それをWebなどで自己発信を行う。そういった一連の活動が、高いクオリティーとスピード感を持って行われているということだろう。 ◎MA/撮影スタジオ新設、ワンストップ制作を実現 もちろん現在もTVの番組制作を請け負っていて、企画、制作、編集を行っている。これまで、MAだけは外部のポストプロダクションを利用していたのだが、「CASICA」への移転にともない完全に社内ワンストップでの制作を行いたい、ということになり、MAスタジオ、そして撮影スタジオがCASICA内に新設されることになる。MAスタジオを作るという意見は社内ではすぐにOKが出て具体的にスタートを切った。しかし、編集のノウハウは十分にあったが、MAは外注作業であったため、そのノウハウは社内にはない。そこでROCK ON PROとの共同作業の中から過不足の無いシステムアップを行なったというのが当初の経緯。なお、MA新設となったきっかけの一つとしては、近年MA作業を行うための機器の価格が安くなったことが大きいという。年間で外注として支払うMA作業費は、自社でスタジオを持てば2年程度でリクープできるのではないか、というチャレンジも込められているとのことだ。   また、MA室を作る上で音の環境にはこだわった。港、そして倉庫が多いこの地域、近くの幹線道路では24時間ひっきりなしに大型トラックが行き交う。リノベート前の建物の壁はコンクリートパネル一枚、天井も同様にコンクリートパネル一枚。倉庫という最低限の雨露がしのげることを目的とした建物であり、お世辞にも、壁が厚く、躯体構造がしっかりしている、というわけではなかった。今回の新設では、そこに浮床・浮天井構造でしっかりと遮音を行い、またMA室自体の位置も建物の中央に近い場所に設定して外部からの音の飛び込みを遮断している。   もう一つ音に関する大切なポイントは、他のMA室と遜色のないモニタリング環境を整えるということ。やはり、他のMA室での作業に慣れているスタッフから、サウンドのクオリティーにがっかりしないように音質を保ちたい、との声が上がった。そこで、モニターコントローラーにはGrace Designのm905、モニタースピーカーにはADAM S3V とFocal Solo6 Be という組合せ。DAW はPro Tools HDXを中心としたシステムであるが、その出力段はこだわりを持ったシステムとしてサウンドクオリティーを高めている。限られた予算を要所へ重点的に投入することで、最も大切なクオリティーを手に入れたお手本のような環境ではないだろうか。   社内制作のMA作業はもちろんだが、外部のお客様からのMA作業受注や、スタジオ貸出も行っている。外部エンジニアの方にも違和感なく作業を行なっていただけているということだ。やはり音への対処をしっかりと行ったことで、サウンド面でも使いやすいスタジオになっている、ということだろう。サウンド以外でも評価されているポイントが、併設されたCASICAカフェで美味しい食事を冷めることなく楽しむことができる、ということ。やはり、カフェ併設となっている点は、このスタジオにとって非常に大きなアピールポイントであり、長時間の作業が当たり前だからこそ、そのホスピタリティーは心に沁み入る。同じフロアの撮影スタジオは、キッチンスタジオを備えた白壁の空間。撮影がない時間には会議室としても活用するなど、多用途なスペースである。こちらも外部に貸出をしているということなので、興味のある方は問い合わせてみてはいかがだろうか?   今回は機材のみではなく、そのスペースや業態をどう活かして音響制作と連携しているのかという事例を追ったが、そこには垣根のないクリエイティブが存在していたと言えるのかもしれない。日々「タノシナル」なことを生み出しているという同社では、毎月全体での会議が行われ社員からのアイデアを集めているそうだ。そのアイデアも会議で賛同を得られると、早い場合では1ヶ月程度で形になるという。このスピード感が次々と業務を加速させ、2012年に6人で立ち上げたタノシナルはすでに40名以上のスタッフ規模になっている。TV番組・イベントなどの制作をしているスタッフ、そしてスタジオのエンジニア、ショップスタッフ、カフェスタッフ、そういった様々なスタッフが一緒になって「タノシナル」ことを考える。企画とその成長が非常に良い循環となり、シナジーを生み成長している、そんな空気が感じられる取材となった。

Post

株式会社Zaxx 様 / GZ-TOKYO ROPPONGI

「いまスタジオを新規で作るのであればDolby ATMOS対応は必ず行うべきだ」という強い意志で設計された株式会社Zaxx / GZ-TOKYO ROPPONGI AS 207をレポートする。同社を率いる舘 英広 氏は中京テレビ放送株式会社の音声技術出身。その現場で培った音に対するこだわり、そしてその鋭い感覚によってこのスタジオは計画された。 ◎「これからのオーディオはこれしかない!!」 きっかけは、名古屋にDolby ATMOS対応の映画館が出来た際に、そこで作品を見た瞬間にまで遡るという。テレビ業界を歩んできた舘氏は国内でのサラウンド黎明期より、その技術に対しての造詣が深く、またいち早く自身でもその環境でのミキシングを行っていたというバックグラウンドを持つ。名古屋地区で一番最初にサラウンド環境のあるMAスタジオを持ったのが株式会社Zaxxであり、それをプランニングしたのが舘氏である。地場の放送局がまだ何処もサラウンドの環境を持っていない中でサラウンド対応のMAスタジオを作る。そのような先進性に富んだ感覚が今回のスタジオにも感じられる。   舘氏がDolby ATMOSの作品を映画館で見た際に感じたのは「これからのオーディオはこれしかない!!」というほどの強いインパクトであったという。これまでの平面サラウンドの枠を飛び出した上空からのサウンド、そしてオブジェクトにより劇場中を自由に飛び回るサウンド。次にスタジオを作るのであれば、Dolby ATMOS対応しかないと感じたということ。そしてその思いを実際に形にしたのが、今回のGZ-TOKYO ROPPONGI AS 207だ。仕事があるのか?無いのか?という消極的な選択ではなく、良いものであるのならばそれを作れる環境を用意しよう。そうすればそこから生まれる仕事は絶対にある。仕事が無いのであれば、仕事を作ればいい。それも経営者としての自身の仕事だという。   とはいえ、突然映画のダビングステージを作るという飛躍はなく、従来の作業も快適に行なえ、その上でDolby ATMOSの作業も行うことができる環境を整備するという、今回のGZ-TOKYO ROPPONGIのコンセプトへとその思いは昇華している。   スタジオのシステムをご紹介する前にスタジオに入ってすぐのロビーに少し触れたい。受付があって、打合せ用のスペースがあって、というのが一般的だがGZ-TOKYO ROPPONGIはソファーとバーカウンターがあり、4Kの大型TVでは最新の作品が流れている。新しいアイデアを出すためのスペースとしてその空間が作られているという印象を受けた。また、編集室、MA室の扉はひとつづつが別々のカラーで塗られ、全7室が揃うと一つの虹となるようにレインボーカラーの7色が配置されている。床にもその色が入っており非常にスタイリッシュな仕上りだ。編集室はあえて既存のビルの窓を潰さずに、必要であれば自然光が入るようになっているのも特徴的。もちろん通常は遮光されており色味が分からなくといったことはないが、必要とあれば開放感あふれる空間へと変えることもできる。スペースの居住性にも配慮した意志が感じられる部分だ。 ◎9.1.4chのATMOSシステム 前述のようにMAスタジオを作るのであればDOLBY ATMOSは外せない、というコンセプトを持って完成した今回のGZ-TOKYO ROPPONGI AS 207。こちらに導入されたシステムは、Dolby ATMOS Homeに準拠した9.1.4chのシステムとなっている。部屋に対して最大限のスピーカーを設置しDolby ATMOSの良さを引き出そうというシステムだ。一般的な7.1chのサラウンドシステムに、サイドL,Rが追加され、一番間隔の空くフロントスピーカーとサラウンドスピーカーの間を埋める。実際に音を聴くと、フロントとリアのつながりが非常に良くなっていることに気づく。そして、トップには4chのスピーカー。Dolby ATMOS Homeの最大数が確保されている。スケルトンで4mという極端に高さがある物件ではないが、それでもトップスピーカーをしっかりと設置出来るという良いお手本のような仕上がり。天井平面からしっかりとオフセットされ、真下に入って頭をぶつける心配もない。防音、遮音のために床も上がり、天井も下がる環境の中でこの位置関係を成立させることが出来るというのは、今後Dolby ATMOS対応のスタジオを作りたいという方には朗報ではないだろうか。こちらは、音響施工を担当された日本音響エンジニアリング株式会社のノウハウが光る部分だ。   スピーカーの選定に関しては舘氏のこだわりがある。中京テレビの音声時代から愛用しているというGenelecが今回のスタジオでも候補から外れることはなかった。今回Stereo用のラージに導入された1037B等の1000番台を長く使用してきた中、舘氏にとって初めての8000番台となる8040(平面9ch)、8030(Top 4ch)をDolby ATMOS用に導入したということ。従来のラインナップに比べてサウンドのキャラクターは大きく変わっていないが、高域が少しシャープになったという印象を持っているということだ。   Dolby ATMOS導入スタジオには必ずと言っていいほど設置されているDolby RMUがこのスタジオにはない。これはDolbyの提供するSoftware Rendererの性能が上がり、マスタリング以外の作業のうちほぼ9割方の作業が行えるようになったという背景がある。Home向けであれば仕込みからミキシングまでSoftware Rendererで作業を行うことが出来る。Cinema環境向けであったとしても、この環境でオブジェクトの移動感などを確認することももちろん可能だ。仕上がった作品をRMUを持つスタジオでマスタリングすれば、Dolby ATMOSのマスターデータが完成するということになる。RMUの導入コストと、その作業が行われる頻度などを考え、また本スタジオへMAエンジニアの派遣も行うBeBlue Tokyo Studio 0にRMUがある、というのも大きな理由になったのではないだろうか。なお、本スタジオのシステム導入時点でリリースされていなかったということもあり、Pro ToolsはVer.12.8ではなく12.7.1がインストールされている。Avidが次のステップを見せている段階ではあったが、堅実に従来のワークフローを導入している。 ◎DAD + ANDIAMO + VMC、充実のI/F AS 207のPro ToolsシステムはPro Tools HDX1、Audio InterfaceはDAD DX32が直接Digilinkで接続されている。そして、そのフロントエンドにAD/DAコンバーターとしてDirectout ANDIAMOが加わる。SYNC HDと合わせてもたった3Uというコンパクトなサイズに、32chのAD/DA、3系統のMADI、16chのAESと充実のインターフェースを備えたシステムだ。ただし、充実といっても9.1.4chのスピーカーアウトだけで14chを使ってしまう。またVUも10連ということで、こちらも10ch。さすがはDolby ATMOSといった多チャンネルサラウンドとなっており、その接続も頭を悩ましてやりくりをした部分でもある。ちなみに、MacProはSoftware Rendererを利用する際の負荷に1台で耐えられるようにカスタムオーダーでスペックアップを行っている。   Dolby ATMOSの9.1.4chのモニターコントロールはTACsystem VMC-102で行っている。柔軟なモニターセクションと、国内の事情を熟知したコミュニケーションシステムとの連携はやはり一日の長がある。コミュニケーションにはIconicのカスタムI/Fを通じてTB BoxとCuf Boxが接続されている。この部分も事前に接続試験を入念に行い、コストを押さえたカスタムI/Fで必要機能を実現できるのか、株式会社アイコニック 河村氏と検証を行なった部分でもある。なお、今回の導入工事は河村氏の取りまとめで進行した。河村氏は冒頭でも述べた名古屋地区で初めての5.1chサラウンドを備えたMA studioや中京テレビのMA室からと舘氏とも長い付き合い。その要望の実現もアイデアに富んだシステムアップとなった。 ◎前後する机で出現する快適な作業空間 Dolby ATMOSのシステムを備えたAS 207だが、やはり普段はステレオ作業も多いことが予想される。サラウンドサークルを最大に確保したセンターのリスニングポジションでは、後方のお客様スペースが圧迫されてしまう。そのためStereoの作業時には、机がコンソールごと前に30cmほど移動する仕掛けが作られた。左右にレールを設け、キャスターで移動するのだが、それほど大きな力をかけずに、簡単に移動することが出来る。机にはMac Proを始めとした機器類のほとんどが実装されているにもかかわらず、これだけ簡単に動く工夫には非常に驚かされる。これにより、Stereo時にはミキサー席後方に十分なスペースが確保され、快適な作業環境が出現する。そしてDolby ATMOSでの作業時には部屋の広さを最大限に活かした、音響空間が確保されるということになる。 ◎S6と独立したサラウンドパンナー コンソールについて、今回のスタジオ設計における初期段階で検討されていたのはAvid S6ではなかったのだが、中京テレビに新設されたMA室のお披露目の際に、導入されたAvid S6を見て新しい部屋ならこのシステムが必要だと直感的に感じたということ。DAWのオペレートは舘氏自身では行わないということだが、音声技術出身ということから現場でのミキシングなど音に触れる作業はいまでも行っている。その機材に対する感性からAvid S6がセレクトされたということは、販売する我々にとっても嬉しい出来事であった。その後検討を重ね、最終的にはフェーダー数16ch、5ノブのS6-M10が導入されている。ディスプレイ・モジュールに関しては、いろいろと検討があったがVUの設置位置との兼ね合い、リスニング環境を優先しての判断となっている。写真からもVU、そしてPC Dispalyの位置関係がよく練られているのが感じられるのではないだろうか。   そして、S6の導入のメリットの一つであるのが高性能なサラウンドパンナーオプションの存在。フレームに組み込むのではなく、個別にした箱に仕込んで好きな位置で操作出来るようにしている。やはりサラウンドパンニングはスイートスポットで行いたい。しかし、ステレオ作業を考えるとフレームの中央に埋め込んでしまっては作業性が損なわれる。その回答がこちらの独立させたサラウンドパンナーということになる。机と合わせ、部屋としての使い勝手にこだわった部分と言えるのではないだろうか。 ◎動画再生エンジンにはVideo Slaveを採用 動画の再生エンジンには、ROCK ON PROで2017年1月よりデリバリーを開始したNon-Leathal Application社のVideo Slaveを導入していただいた。Pro ToolsのVideo Track以上に幅広いVideo Fileに対応し、Timecodeキャラのオーバーレイ機能、ADR向けのVisual Cue機能などMA作業に必要とされる様々な機能を持つ同期再生のソリューションだ。4K Fileへの対応など将来的な拡張性もこのアプリケーションの魅力の一つとなっている。VTRから起こしたキャラ付きのMovieデータであればPro ToolsのVideo Trackで、今後増えることが予想されるノンリニアからの直接のデータであればVideo Slaveで、と多様なケースにも対応できるスタンバイがなされている。 ◎ニーズに合わせた大小2つのブース ナレーションブースは大小2つの部屋が用意されている。MA室自体もはっきりとサイズに差を付けて、顧客の幅広いニーズに対応できるようにしている。これはシステムを構築する機材の価格は下がってきているので、ニーズに合わせた広さを持った部屋を準備することが大切という考え方から。大きい方のブースには、壁面にTVがかけられ、アフレコ作業にも対応できるようにセットアップが行われている。逆に小さい方の部屋は、ナレーション専用。隣合わせに2名が最大人数というはっきりとした差別化が図られている。ただし、運用の柔軟性を確保するために2部屋あるMA室からは両方のブースが使用できるようなしくみが作られており、メリハリを付けつつ運用の柔軟性を最大化するという発想が実現されている部分だ。   音声の収録にもこだわりが詰まっている。マイクプリはAD Gear製のKZ-912がブース内に用意され、MA室からのリモートでゲインの調整が行われる。マイクの直近でゲインを稼ぐことで音質を確保する、というこの理にかなった方法は、高価なリモートマイクプリでしか利便性との両立が図れないが、ここが音質にとっていちばん大切な部分ということで妥協なくこのシステムが導入されている。Pro Toolsへの入力前にはSSL X-Deskが置かれ、ここで入力のゲイン調整が行えるようになっている。そしてアナログコンソールで全てを賄うのではなく、ミキシングの部分は機能性に富んだAvid S6で、となる。収録などの音質に直結する部分はこだわりのアナログ機器で固める、というまさに適材適所のハイブリッドなシステムアップが行われている。このX-Deskという選択は、これまでもコンソールは歴代SSLが使われてきたというバックグラウンドからも自然なセレクトと言える。 ◎AS 207と共通した機材構成のAS 208 そしてもう一部屋となるAS 208は部屋自体がコンパクトに設計されStereo作業専用となっているが、そのシステム自体はAS 207と全く同じシステムが導入されている。もちろん、コンソールはスペースに合わせてAvid S3が導入されているが、システムのコアはPro Tools HDXにDAD DX32が接続され、Directout AndiamoがAD/DAとしてあり、モニターコントローラーはTAC system VMC-102とAS 207と共通の構成となる。しかも両スタジオとも内部のMatrixなどは全く同一のプリセットが書き込まれている。片方の部屋でトラブルが発生した場合には、単純に交換を行うことで復旧ができるようにシステムの二重化が図られている。放送の現場感覚がよく現れた堅実性の高いシステム構成である。 Dolby ATMOS対応のスタジオをオフィスビルに、というだけでも国内では大きなトピックであると感じるが、様々な工夫と長年の経験に裏付けられた造詣が随所に光るスタジオである。システム設計を行われた株式会社アイコニック河村氏、音響施工を行われた日本音響エンジニアリング株式会社、そして、快く取材をお受けいただきそのスタジオに対する熱い思いをお話いただいた株式会社Zaxx 代表取締役の舘 英広氏に改めて御礼を申し上げてレポートのくくりとさせていただきたい。 写真手前右側が「Zaxx」代表取締役の舘英広氏、左側が同スタジオで音響オペレーターを務める「ビー・ブルー」の中村和教氏、奥右側からROCK ON PRO前田洋介、「アイコニック」の河村聡氏、ビー・ブルー」の川崎玲文氏

Post

株式会社カプコン様 / Dynamic Mixing Stage

日本を代表するゲーム会社である株式会社カプコン。もともと7.1ch対応のAVID S6が設置されたDubbing Stage、そして7.1ch対応のAVID D-Control(ICON)が設置されたDynamic Mixing Stageの2部屋を擁していたが、今後起こりうるImmersive Audioの制作へ対応するためDynamic Mixing Stageのシステム更新を行った。今回の更新でDOLBY ATMOS HOME対応のシステムが組まれ、今後AURO 3Dなどにも対応できるよう準備が行われている。 ◎Dynamic Mixingというコンセプト 今回、スタジオを改修するにあたりそのコンセプトについても根本的に見直しが行われた。これまで、カプコン社内スタジオ「bitMASTERstudio」は、レコーディングと大型セッションのミキシングを可能とする「Dubbing Stage」と、そのサテライトとして同等の能力を持ちつつ、レコーディングを除いたプリミックスや仕上げの手前までを想定した「Dynamic Mixing Stage」という構成であったが、これを従来型のPro ToolsとS6によるミキシングを中心に行う「Dubbing Stage(旧Dubbing Stage)」と、今回改修を行ったスタジオをゲーム内のインタラクティブシーンを中心としたミキシングを行うための「Dynamic Mixing Stage(旧Dynamic Mixing Stage)」としている。   この「Dynamic Mixing」は、ゲームの中でプログラムによって制御される方法でミキシングを行うことを指している。つまり、このステージはゲーム内のプログラムミキシングを行う場所であり、従来のミキシングステージとは一線を画するものだと考えているとのことだ。したがって、この部屋の音響空間及びシステムの設計思想は「リファレンスとなりうる音を再生できる特性を持ち、プログラムによるミキシングを効率的に行えるシステム」であることを第一義としている。   システムを構築する上で大切にしたことは、WindowsPC内にインストールされたゲームエンジンとオーディオミドルウェアのパラメーターを操作するのと同時に、ゲームに組み込むためのオーディオエディット/ミキシングをPro Tools上で効率的に行えるようにすること。Ultra Wideディスプレイと壁付けのTVによってそれらの情報をすべて表示し、ゲーム音声とProTools上の音声を瞬時に切り替え、あるいは同時に再生することのできるシステムにしておくことは、ゲームオーディオ制作では極めて重要、とのことだ。 ◎既存スタジオをブラッシュアップするアイデア メインのミキシング、ナレーションなどの収録に活躍するDubbing Stageと、ユーティリティ性を持たせプレビューなどにも対応できるように設計されたDynamic Mixing Stage。そのDynamic Mixing Stageはモニター環境をブラッシュアップし新しいフォーマットへの準備を行なった格好だ。部屋自体はそれほど広い空間が確保されているわけではなく、天井高も同様。その中にDOLBY ATMOS、そしてAURO 3Dといった次世代のフォーマットへ対応したモニタリングシステムを導入している。音響設計・内装工事を行った株式会社SONAからも様々な提案が行われ、そのアイデアの中から実現したのが、このスタジオのイメージを決定づける音響衝立と一体となったスピーカースタンドだ。天井に関してはスピーカーを設置するために作り直されており、内装壁も全面改修されているが、壁の防音層と床には手を加えずに最低限の予算で今回の工事を完了させている。   併せてDAWシステムについても更新が行われ、コントローラーはAVID D-Control(ICON)からAVID S3へとブラッシュアップされた。また、Dubbing Stageでモニターコントローラーとして活用されていたTAC system VMC-102はDynamic Mixing Stageへと移設され、マルチフォーマット対応のモニターコントローラーとして再セットアップが行われている。Dubbing Stageのモニターセクションには最新のAVID MTRXがインストールされ、AVID S6からの直接のコントロールによるモニタリングを行うようにこちらも再セットアップされている。 ◎フォーマットに対応する柔軟性を持つ それでは、各パートごとに詳細にご案内を行なっていきたい。まずは、何といっても金色に光り輝く音響衝立。これは完全にカスタムで、背の高いものが8本、低いものがセンター用に1本制作された。その設置はITUサラウンドの設置位置に合わせて置かれている。フロントはセンターを中心に30度、60度の角度で、Wide L/Rを含めたフォーマットとして設置が行われている。サラウンドはセンターより110度、150度と基本に忠実な配置。これらの音響衝立は、天井側のレールに沿ってサラウンドサークルの円周上を移動できるようになっている。これは、物理的に出入り口に設置場所がかかってしまっているため、大型の機器の搬入時のためという側面もあるが、今後この8枚の音響衝立の設置の自由度を担保する設計となっている。この衝立の表面は穴の空いた音響拡散パネルで仕上がっており,内部に吸音材が詰められるようになっている。吸音材の種類、ボリュームを調整することで調整が行えるようにという工夫である。 そしてちょうど耳の高さに当たる部分と、最上部の2箇所にスピーカー設置用の金具が用意されている。この金具も工夫が行われており、上下左右全て自由に微調整が行えるような設計だ。写真で設置されている位置がITU-R準拠のサラウンドフォーマットの位置であり、そのままDOLBY ATMOSのセットアップとなる。最上部の金具の位置はAURO 3D用のものであり、Hight Layerの設置位置となる。現状では、AURO 3D用のスピーカーを常設する予定はなく、AURO 3Dに変更する際には追加でこの位置へスピーカーを設置する事となる。完全に縦軸の一致する上下に設置ができるため、理想的な設置環境といえるだろう。   センターだけはTVモニターとの兼ね合いがあり背の低い衝立となっている、また、AURO 3D用のHC設置はTVの上部に設置用の金具が準備される。そして、TVモニターの下の空間にはサブウーファー2台が左右対象の位置に設置されている。天井にはセンターから45度の角度を取り、4本のスピーカーが正方形に配置されている。これが、Top Surround用のスピーカーとなる。もちろんAURO 3D用にTチャンネル用として天井の中心に金具が用意されている。また、wide L/Rの位置にも音響衝立が用意されているので、現状設置されている7.1.4のフォーマットから、9.1.4への変更も容易になっている。   このサラウンド環境はコンパクトな空間を最大限に活かし、完全に等距離、半球上へのスピーカー設置を実現している。そのために、各チャンネルの音のつながりが非常に良いということだ。また、音響衝立の中にスピーカーを設置したことにより、バッフル設置のようなメリットも出ているのではないかと想像する。スピーカー後方には十分な距離があり、そういった余裕からもサウンド面でのメリットも出ているのではないだろうか。 ◎3Dにおける同軸モニターの優位性 今回の更新にあたり、スピーカーは一新されている。カプコンでは以前より各制作スタッフのスピーカーをGenelecに統一している。できるだけ作業スペースごとの視聴環境の差をなくし、サウンドクオリティーの向上と作業効率の向上がその目的だ。そのような流れもあり、Dynamic Mixing StageではGenelecの最新機種である8341がフロントLCRの3ch用として、サラウンド及びTop Layerには一回りコンパクトな8331が選定されている。このモデルは同軸2-way+ダブルウーファーという特徴的な設計のモデル。従来の筐体より一回り小さな筐体で1クラス上の低域再生を実現してるため、DOLBY ATMOSのように全てのスピーカーにフルレンジ再生を求める環境に適したモデルの一つと言える。ちなみに8341のカタログスペックでの低域再生能力は45Hz~(-1.5dB)となっている。従来の8030クラスのサイズでこの低域再生は素晴らしい能力といえるのではないだろうか。また、スピーカーの指向性が重要となるこのような環境では、スコーカーとツイーターが同軸設計であるということも見逃せないポイント。2-way,3-wayのスピーカー軸の少しのずれが、マルチチャンネル環境では重なり合って見過ごすことのできない音のにごりの原因となるためである。   これら、Genelecのスピーカー調整はスピーカー内部のGLMにより行われている。自動補正を施したあとに手動で更にパラメーターを追い込み調整が行われた。その調整には、最新のGLM 3.0のベータバージョンが早々に利用された。GLMでは最大30本のスピーカーを調整することが出来る。そのためこの規模のスピーカーの本数であっても、一括してスピーカーマネージメントが可能となっている。   今回の更新に合わせて新しく作り直したデスクは、部屋のサラウンドサークルに合わせて奥側が円を描く形状となっている。手前側も少しアーチを描くことで部屋に自然な広がり感を与えている印象だ。もちろん見た目だけではなく作業スペースを最大限に確保するための工夫でもあるのだが、非常に収まりのよい仕上がりとなっている。このデザインはカプコンのスタッフ皆様のこだわりの結晶でもある。そしてそのアーチを描く机の上には、AVID S3とDock、モニターコントローラーのTAC system VMC-102、そして38inch-wideのPC Dispalyが並ぶ。PC Displayの左右にあるのは、BauXer(ボザール)という国内メーカーのMarty101というスピーカー。独自のタイムドメイン理論に基づく、ピュアサウンドを実現した製品が評価を得ているメーカーだ。タイムドメインというと富士通テンのEclipseシリーズが思い浮かべられるが、同じ観点ながら異なったアプローチによりタイムドメイン理論の理想を実践している製品である。また、さらにMusik RL906をニアフィールドモニターとして設置する予定もあるほか、TVからもプレビューできるようにシステムアップが行われている。 ◎AVID MTRXをフル活用したDubbing Stage Dynamic Mixing StageのシステムはVMC-102とDirectout TechnologyのANDIAMO2.XTが組み合わされている。DAWとしてはPro Tools HDX2が導入され、I/OとしてMADI HDが用意されている。MADI HDから出力されるMADI信号はANDIAMOへ入り、VMC-102のソースとして取り扱われる。ANDIAMOにはATMOS視聴用のAV AMPのPre-OUTが接続されている。AV AMPはDOLBY ATMOS等のサラウンドデコーダーとしてPS4、XBOX oneなどが接続されている。VMC上ではストレートにモニターを行うことも、5.1chへのダウンミックス、5.1chでリアをデフューズで鳴らす、ステレオのダウンミックスといったことが行えるようにセットアップされている。   ちょっとした工夫ではあるが、AV AMPの出力は一旦ANDIAMOに入った後、VMCへのソースとしての送り出しとは別にアナログアウトから出力され、Dubbing Stageでもそのサウンドが視聴できるようにセットアップされている。実はこのANDIAMOは以前よりスタジオで利用されていたものであり、それを上手く流用し今回の更新にかかるコストを最低限に押さえるといった工夫も行われている。   Dubbing StageはVMC-102が移設となったため、新たにAVID MTRIXが導入されている。Pro ToolsのI/Oとして、そしてS6のモニターセクションとしてフルにその機能を活用していただいている。7.1chのスピーカーシステムはそのままに、5,1chダウンミックス、5.1chデフューズ、stereoダウンミックスといった機能が盛り込まれている。また、CUE OUTを利用しSSL Matrixへと信号が送り込まれ、Matrixのモニターセクションで別ソースのモニタリングが可能なようにセットアップされている。AVID MTRXには、MADIで接続された2台のANDIAMO XTがあり、この2台がスピーカーへの送り出し、メーター、そしてブースのマイク回線、AV AMPの入力などを受け持っている。せっかくなので、Dubbing Stage/Bの回線をAVID MTRXに集約させようというアイディアもあったが、サンプルレートの異なった作業を行うことが出来ないというデメリットがあり、このようなシステムアップに落ち着いている。やはり収録、素材段階での96kHz作業は増加の方向にあるという。従来の48kHzでの作業との割合を考えるとスタジオ運営の柔軟性を確保するためにもこの選択がベストであったという。   AVID MTRXのモニターセクションは、AVID S6のモニターコントロールパネル、タッチスクリーンとフィジカルなノブ、ボタンからフルにコントロールすることが可能である。DADmanのアプリケーションを選択すれば、モニターセクション、そしてCUEセンドなどのパラメーターをAVID S6のフェーダーからもコントロールすることもできる。非常に柔軟性の高いこのモニターセクション、VMC-102で実現していた全てのファンクションを網羅することができた。GPIO等の外部制御を持たないAVID MTRXではあるが、AVID S6と組み合わせることでS6 MTMに備わったGPIOを活用し、そのコマンドをEuConとしてMTRXの制御を行うことができる。もう少しブラッシュアップ、設定の柔軟性が欲しいポイントではあるが、TBコマンドを受けてAVID MTRXのDimを連動することができた。少なくともコミュニケーション関係のシステムとS6 + MTRXのシステムは協調して動作することが可能である。今後、AVID S6のファームアップによりこの部分も機能が追加されていくだろう。日本仕様の要望を今後も強く出していきたいと感じた部分だ。   今回の更新ではコンパクトなスペースでもDOLBY ATMOSを実現することが可能であり、工夫次第で非常にタイトでつながりの良いサウンドを得ることができるということを実証されている。これは今後のシステム、スタジオ設計においても非常に大きなトピックとなることだろう。今後の3D Surround、Immersive Soundの広がりとともに、このような設備が増えていくのではないだろうか。この素晴らしいモニター環境を設計された株式会社SONA、そして様々なアイデアをいただいた株式会社カプコンの皆様が今後も素晴らしいコンテンツをこのスタジオから羽ばたかせることを期待して止まない。   左:株式会社カプコン プロダクション部サウンドプロダクション室 瀧本和也氏 右:株式会社ソナ 取締役/オンフューチャー株式会社 代表取締役 中原雅考氏   *ProceedMagazine2017-2018号より転載

Media

株式会社テレビ静岡様

◎ファイルベースが導入された新システムがスタート テレビ静岡は、フジテレビ系列の中部地区における基幹局。2017年の新局舎移転にあたり、2室あるMA室をお手伝いさせていただいた。旧局舎の隣に建てられた新局舎。2つのスタジオと、映像編集、MAと新規に設備の導入が行われた。   これまでは、Marging PyramixをメインDAWにYAMAHA DM2000とAV SmartのTANGOを使用していたテレビ静岡様。新局舎への移転を期に、Pro Toolsシステムへの変更を行なった。Pro Tools | HDをメインDAW、コントローラーにAvid S3とAvid Dockという組合せ。ステレオの作業がメインであるため、シンプルにまとまったシステムとなっている。Videoの再生にはVideo Slave 3 Proが導入されている。   これまでのMarging Pyramixでは同社のVQubeをVideo 再生として利用していたが、Video Slaveへと更新が行われた。これは、トータルのシステムアップの中で、編集との連携を考えた際に、Pro ToolsのもつVideo Trackでは実現できない幾つかの機能を持つことからこの選択となっている。特にタイムコード・キャラのオーバーレイ表示はVideo Slaveの特徴的な機能の一つだ。テレビ静岡の新局舎へ導入されたノンリニア編集機はEDIUSである。EDIUSでは従来コーデックであるCanopus HQXを利用しての運用が想定されている。その為、MAへファイルベースでデータを受け渡す際にも、そのままCanopus HQXでの運用ができないかということになった。Video Slaveではこのコーデックにも対応をしているということも、選択の一つの理由となった。   ファイルベースのシステムは、MAのシステム側に1台NASサーバーを設け、そのサーバーを介して編集とのデータの受け渡しを行っている。このNASサーバーはMAのDAWはもちろん、編集側のEDIUSからもマウントできるようになっている。これにより編集側からこのサーバーへ直接ファイルの書き出しが行えるように設定が行われている。MA側からも完パケのWAVデータをこのサーバー上に書き出すことで編集機から完パケ音声データを拾い上げることが出来るようになっている。テレビ静岡では、MA室にもEDIUSが用意されている。これは完パケデータ作成用の端末であり、映像編集済みのファイルを開き、MAで完成した音声を貼り込んで完パケデータを作成できるようになっている。ニュースなどリミットの厳しい作業時には、編集機の空きを待たずにMA室内で完パケデータが作成できるようにという仕掛けである。   本号の出版時には新局舎での運用が始まっているはずである。ファイルベースシステムが導入された新しいシステムの実稼働がまた一つスタートする。そのお手伝いをさせていただいたことをここに感謝し本レポートの締めくくりとさせていただく。 (左)株式会社テレビ静岡 技術局制作技術センター 佐野 亮 氏 (右) ROCK ON PRO Sales Engineer 廣井 敏孝     *ProceedMagazine2017-2018号より転載

Broadcast

株式会社タムコ様 / System Tが可能にした音声中継車の未来形

株式会社タムコは以前より稼働中の音声中継車「R-3」「R-4」に加え、新たに「R-1」を新設した。長年にわたる構想の末に満を持して完成した音声中継車「R-1」は、最新鋭の技術が詰め込まれた音声中継車となった。音声中継車の中心核であるコンソールにはSSLの新型デジタルコンソールであるSystem Tが据えられ、信号経路のほとんどをDanteで構築。これが日本1号機となるSystem Tを始め、システムのありとあらゆるポイントが革新的なシステムと言える「R-1」をご紹介したい。 ◎96kHzへのニーズに応える中継車を まずは、今回新たに製造された「R-1」のスペックをご紹介しよう。96kHz 128ch収録可能な音声中継車である「R-1」のコンソール「System T」は2クライアント対応の64フェーダーフレーム・3タッチスクリーンと、1クライアント対応の16リモートフェーダー・1タッチスクリーンPCの計80フェーダーで構成されている。Stage RackはMicPre 64chインプット・Lineアウト16chを基本セットとしたラックが3式用意され、最大で192ch インプット・48ch アウトプットに対応可能だ。そのほか、SSL Local I/Oとして、アナログ56ch(Mic)IN・24ch OUT、AES/EBU 128 I/O(96kHz時)MADI 7 I/O ポートなど、多彩な規格に対しても柔軟に対応できる。   音声中継車を造るという構想はあったものの、なかなか条件に見合うコンソールが見つからず、機材の選定には相当苦労されたようだ。その条件のうちの一つが、ハイ・サンプル・レートでの運用だったという。現在、「R-3」が96kHzに対応しているが、システム的制限でチャンネル数が半分になってしまうという。近年の動向として、放送業務でもマルチ収録が増えているそうで、その中でも96kHzへのニーズも多いという。96kHz対応という意味では「R-3」も対応しているが、システム上の制限があり収録可能なチャンネル数が半減してしまう。その点「R-1」は接続をAES67伝送信号に準拠しているDante HCを採用しており、プロジェクトが96kHzになったとしても収録チャンネル数は128chを確保できる。   新しい音声中継車を計画するにあたってクライアントである民放各局の意見を集めたが、すべての希望にしっかり答えるとなると当時はそれだけのコンソールが市場になかったという。そんな折、IBC 2015にて発表されたSSL System Tの高い拡張性と柔軟性、そして何より音質の良さが決定打となり、System Tが採用されたそうだ。 ◎Danteが拡げるSystem Tの可能性 長年に渡った構想の決定打になったSystem T。今回導入されたコンソールが国内では1号機となる。条件の一つであった「ハイ・サンプル・レートながらもマルチ・チャンネル収録が行える」という条件はSystem Tにおいてコンソールに関わるコンポーネントの通信にDanteが採用されたからではないだろうか。   2015年のIBCにて発表されたSystem Tは次世代のブロードキャストオーディオプロダクションシステムで、コントロールインターフェイスからエンジンまですべてがゼロから新規開発されたプラグシップモデルだ。エンジンは、これまでのブロードキャストコンソールであるCシリーズコンソールで採用されていたCenturi Coreとは異なり、64bit 浮動小数点処理のTempestが採用されている。すべてをゼロから設計しているゆえに、Cシリーズの後継機種という位置付けではなく、新たなフラグシップのシリーズとなる。それは音声中継車を造るにあたり一番の条件であった音質にも現れているそうで、SSLサウンドをしっかりと継承しつつ、さらに音質がはるかに向上しているとのことだ。   さらに、System Tはコンソールに関わるコンポーネントがすべてDanteで接続されている。SSL社はMADI フォーマットを規定する際に参画した1社で、これまでMADI関連の製品も多く販売してきた。しかし、MADIは48kHzでの伝送はBNCケーブル1本で64ch扱えるものの、96kHzになればその数は半減してしまう。その点、Danteは規格上Etherケーブル1本で最大512双方向(48kHz)のオーディオチャンネルを扱える。実際に扱えるチャンネル数は接続されるハードウェアにもよるが、規格上はMADIの8倍にも及ぶ。   System Tに採用されているDanteプロトコルは、冗長性にも長けている。Dante機器は1つのハードウェアをPrimaryとSecondaryの二重ネットワークで接続・構成が可能で、万が一Primaryネットワークの通信が遮断されても、瞬時にSecondaryネットワークに切り替えることが可能だ。この冗長性が、昨今のSR市場や音響設備において非常に重宝されている理由の一つでもある。前記の通り、System Tはコンポーネントの全てがDanteで接続されているが、エンジン自体も二重化されており、冗長化を図っている。音声中継車「R-1」においてもDanteは二重化されている。運転席の後方に配置されているラックにはSystem TのエンジンやNetwork I/Oらがラックマウントされているが、その最上部にPrimary、Secondaryと分けてSwitch HUBへと接続されている。さらにケーブルもPrimaryとSecondaryとで色分けされているので、メンテナンス時にも重宝するだろう。   サーフェイスはフロントに64ch、リアに16chの計80フェーダーが用意されている。同一ネットワークに接続されて個別に動作したり同一システムとして動作させることも可能だ。プロジェクトが大きくなれば大きくなるほど扱うチャンネルが増えるが、2マン・オペレートはもちろん、一人はバンド、一人はボーカル、一人はオーディエンスといった、3マン・オペレートで各自がフェーダを握ることも可能だ。タッチスクリーンを基本とした輝度の高いディスプレイは、非常に視認性が高い。タッチスクリーンはタムコとしても初の導入だそうが、その操作性は良いという。マスターセクションにはあまりボタンを多く配置せず、シンプルな設計ながらも、チャンネルストリップ部分には必要なハードウェアスイッチを備えており、必要なボタンにはすぐにアクセスできるように設計されている。なお、コンソールのチャンネルアサインなどのセッティングもこのタッチパネル上から行うので、1箇所で操作が可能だ。チャンネルストリップとセッティングを別々の画面を見ながら操作、という煩わしさからも解放されている。 ◎カスタマイズ自由なチャンネル拡張と冗長性 3ブロックからなるStage Rackには、SSL Network I/O Stageboxes SB i16とSB 8.8が計5台ラックマウントされており、1式につきAnalog 64 In/16 outを有している。上段にはラックマウントされたxMac ProServerとMac用のUPSが、下段にはNetwork I/O用のUPSとスライダックがそれぞれマウントされている。   冒頭に「R-1」のスペックをざっとご紹介したが、これはあくまでも「標準仕様」でのチャンネル数だ。Danteネットワークは、機材の追加などの変更が容易。それはもちろんSysytem Tでも例外ではなく、現在車載されている機材の他にも、臨時で入出力を増やしたい場合や異なる音色のHAが欲しい場合は、車載されているDAD TechnologyのAX32のようにDanteに対応したオーディオインターフェイスを接続すれば入出力数を増やすことも可能となる。   逆にチャンネル数が少ないプロジェクトの場合はStage Rackを1式のみ接続する、といった選択も可能だ。今回の「R-1」と同時に「R-2」という別の音声中継車も作成されており、そちらにはSSLのL300というSRコンソールが導入されているそうだ。L300 もSystem T 同様にDante ネットワークでの使用となるため、「R-1」で使用しないStage Rackは「R-2」でStage Rackとして使用したり、既存の音声中継車「R-3」のコンソールAurusに装着されたDanteカードを介してStage Rackを使用することも可能。このように「R-1」のためだけのStage Rackではなく、他の車両のStage Rackとしても活用が想定されている。さらには、音声中継車とは切り離して単独でYAMAHAなどのDante対応SRコンソールと接続したり、単独でのHAとして稼働も想定されているそうだ。フレキシブルに対応できる発想が可能なのはDanteならではだろう。 ◎安定した収録システム 車載されているDAWのAvid Pro Tools HDは、HDX2とHD MADI 2台で構成されている。なお、MacProはSonnet TechnologyのxMac Pro Serverにマウントされている。System Tに接続されたNetwork I/O MADI BridgeでDanteからMADIに変換された信号がHD MADIに入力される仕組みとなる。ストレージは3.5インチHDDを採用しており、xMac ProServerのPCIユニットからSonnet Tempo SATAカードを経由してHDDシャーシへアクセスしている。HDDシャーシはフロントからHDDの抜き差しが可能だ。収録が終わったらすぐにHDDを取り出すことができる。   Stage Rack にもマウント可能な MacPro には Nuendo と Dante カードがインストールされており、Pro Tools と同じインプットを Dante 上でパラレルにアサインしてサブ機として収録が可能だ。また、Focusrite RedNetのようなDanteポートを持つ機器をインターフェイスとしたPro Toolsを持ち込めば、こちらもバックアップとして収録をすることも容易にできる。 ◎車載された固定スピーカー 「R-1」は車両の長さが9m・幅約2.5mとミドルサイズに収まっている。しかし、コントロールルーム内は非常に広い印象を受ける。コントロールルームは奥行き3.6m、幅2.32m、高さ2mと外寸から比べると非常に広くスペースが取られている。完全カスタマイズの車両はボディがスチール製だが、ミキサー席から後方の壁面はあえて遮音壁を薄くして、低音が少し抜けるように設計されているそうだ。実際、コントロールルームで扉を閉めた時の圧迫感は低く、長時間作業でも苦にならなそうだ。   また「R-1」では常設スピーカーもマウントされた。「R-3」「R-4」では様々なクライアントが好みのスピーカーを設置できるよう対応するため、常設スピーカーは設置されてこなかった。今回常設されたMusikelectronic Geithain RL933K1は同軸3Wayモニタスピーカーだ。常設を選んだ理由としては「R-1の音色」を狙った設置ということだそうだ。もちろん、従来のようにクライアント持ち込みのスピーカーにも対応すべく、スピーカー設置スペースとしてスライド式のスペースも確保されている。その他にも外からアクセス可能なユーティリティースペースが設けられていた。ここにはStage Rack接続用のマルチケーブルなどを収納することができるので、そのまま配線作業が続けられる。こういった細部にも配慮された設計になっている。 既に稼働が始まっているという「R-1」、ユーザーからもそのサウンドは好評を得ているということだ。System Tの操作性と柔軟性、そして冗長性、安定性の確保、さらには他の中継車との運用も見据えた「R-1」は今後の中継車のベンチマークとも言えるべきものとなったのではないだろうか。ハイサンプルにも対応した将来性も豊かな「R-1」は今後も活躍を続けていくに違いない。     *ProceedMagazine2017-2018号より転載

Post

株式会社メディア・シティ様 / Avid S6でセンターポジションオペレーションを実現する

適度なライブ感を持ち、高い天井高による優れた音響環境を持ち合わせるMedia City Ginza East。そのシステムがFiarlight ConstellationからAvid S6へと更新された。そのコンセプト、そしてスタジオとしての魅力に迫っていきたい。 ◎天井高がもたらす飽和感のないサウンド このスタジオの特長は何といっても、高い天井。そして、国内のスタジオではあまり見ることの無い正面のハードバッフル。この組み合わせによる適度なライブ感を持った音響環境となっている。高い天井高は、空間容積に直結し、余裕のある響き、そして反射音の低減など様々なメリットをもたらす。そして、レンガにより作られたハードバッフル。一部分であればレンガ等の素材を使用したスタジオを見ることはあるが、正面の壁全面がレンガというこのスタジオコンセプトには驚かされる。天井高の高さもあり実現できたこの仕様。適度な、心地よい響きをスタジオにもたらしている。   天井高のもたらすメリットはサラウンド作業の際に一番顕著に感じるということだ。5.1chのシステムが組まれたこの部屋で、天井高のおかげもあり、サウンドが飽和すること無く気持ちよくミキシングを行うことが出来るという。まさに空間容積に余裕があるからこそのメリットだ。 ◎真っ先に選択肢に挙がったAvid S6 今回の更新では、その音響的な魅力には手を加えず、スタジオのオープン当時に導入されたFairlight ConstellationからAvid S6への更新が行われた。やはり更新にあたり、Pro ToolsというDAWは選択肢から外れることはなく、統合型の作業効率の良いプロダクトとして真っ先に選択肢に挙がったのは、やはりAvid S6。元々は、Avid System5を導入候補の筆頭としていたということだが、更新の時期にディスコンになり、その機能を受け継いだAvid S6を試したところ、System5の操作感を受け継ぎ、Pro Toolsをダイレクトにコントロールできるこのプロダクトが正常進化したモデルであると感じセレクトされている。作業の中心はDAW内部へと確実にシフトをしている今、Avid S6以外の候補が選ばれることはなかったということだ。   そして選ばれたAvid S6のサイズは非常にコンパクトなS6-M40-16Fader仕様。もっとフェーダーが必要ではないかとも考えたが、Avid S6の強力なレイアウト機能などを使いこなすことにより、常にセンターポジションで作業を行いたいということからも、あえてフェーダー数を減らしている。もちろん、もっとフェーダーが欲しいという意見も出たが、今回の更新は16フェーダーという決着を見ている。実際に作業を行うと、フェーダー数に関する不満が出ることはほとんど無く、むしろコンソールをコンパクトにすることで、作業スペースとなる両サイドのデスク面が大きく取れるなど、ほかのメリットも見えてきたそうだ。サラウンド・ミキシングにも対応したこの部屋、やはりセンターポジションで作業を行うということが第一のメリットだが、CM作業の多いこのスタジオにとっては作業スペースに余裕を持てたこともプラスとなっている。   Pro ToolsのシステムはHDX1、Media Composerを利用したVideo Satelliteのシステムが組まれている。サブのシステムはなく、1台のPro Toolsで全てをまかなっているという。InterfaceはHD I/Oが1台とSync HDというシンプルな構成。サラウンドモニター対応のシステムを1台のI/Oでまかなうためにはその設計にもストレスが掛かるが、シンプルに構成することでそれを回避している。Video SatelliteのシステムはVideo InterfaceにBlackmagic DesignのUltra Studioが組み合わされ、4Kに対応したシステムアップとなっている。メインのTVも4K化が済んでいるので、4K作業にも対応可能だ。 ◎各スタジオで統一されたサウンド システム上での音質的なポイントは、モニターコントローラーにセレクトをしたGrace Design m906。AVIDではS6の標準的なモニターコントローラーとしてICON時代より引き続きXMONを販売しているが、導入にあたりこの部分を好みの製品に変えたいということでGrace Design m906をセレクトしたということだ。複雑なモニターセレクトなどは必要ないのでシンプルに音質重視で設計されたこの機種は、スタジオの音のクオリティーに貢献しているという。このセレクトはMedia Cityのもう一つの拠点である品川スタジオと同じサウンドクオリティーを担保するという意味からも重要な機材の一つとなっている。メインモニターはバッフルに埋め込まれたGenelec 1037Bが目を引くが、普段の作業はニアフィールドのADAM A7Xで行うことが多いということ。このスピーカーはバランス良く低域から高域までストレートに再生することが出来るので、重宝している製品ということ。ただし、少し低域が強いのでそのあたりは補正をして使っているというこだわりも教えていただいた。音の出方の気に入った製品をチューニングして利用するという、エンジニアのこだわりが感じられるセレクト。サラウンド用にはGenelecの8030が用意されている。 Media City Ginza Eastのもう一部屋のMAも同時にシステム更新が行われ、Pro Tools周りのシステムは同一、コンソールをArtist Mix2台の16Faderとフェーダー数を揃えたシステムが導入されている。サウンドの統一を図るためにモニターコントローラーにはGrace Design m904、SpeakerはADAM A7Xとこちらも一貫したセレクト。ステレオ作業であればどちらの部屋でも、ほぼ同じ環境(流石にコントローラー部分はS6とArtist MIXで同じとは言えないが)サウンドクオリティーで作業を行うことが出来るよう工夫されている。 Media City MAグループ グループ長 清田 政男 氏 今後は、Dolby ATMOS、8Kなど新しい技術に対して積極的にチャレンジをして行きたいと熱くお話をさせていただいたの印象的であった。最後とはなるが、取材でお話をお伺いしたMedia City MAグループ グループ長の清田氏、そして、システム・インテグレーションを行われた株式会社MTRの富岡氏への感謝を持ってReportを終わらせていただく。     *ProceedMagazine2017-2018号より転載

Post

有限会社ガリレオクラブ様 / Yamaha MMP1が司り、Danteが全てをつなぐ

・STUDIO-A 大阪で1991年に創業した有限会社ガリレオクラブ。MA専門のポストプロダクションとしてこれまでにも様々な新しいチャレンジを行なってきた同社が、3部屋のMAのシステムを一新した。いち早くサラウンドへ取り組んだり、大阪で最初にFairlightでのMAを始めたりとチャレンジを続ける同社。2006年に現在の扇町に移転をしてから初の大規模更新となった今回。更新システムはYamaha Nuageという選択となった。そのお話を同社、石川氏と飯田氏にお話を伺った。 ◎Nuendoシステムを支える環境 導入当時はDAW界のポルシェなどという呼び声も聞こえたFairlightを長く使ってきたガリレオクラブ、同社が何故FairlightからSteinberg NuendoとYamaha Nuageという組み合わせに移行したのだろうか?まず挙げられたのはサポートの側面。やはり業務で使用するシステムであるため、大阪に拠点を構えすぐにメンテナンスの体制が取れるYamahaは選択肢の一つとなった。またSteinberg Nuendoに古くから携わるYamaha 山本氏が在阪していることも大きな理由となったのではないだろうか。専用ハードウェアでの構成となるFairlightがタイムリーなサポートを求められるのはなおさらで、拠点の有無は大きな要素となったようだ。 また、飯田氏は個人的にCubaseのユーザーであり、Nuendoに対しての抵抗感がまったくなく、むしろ良い部分を知っていたというのも大きなポイント。7.1ch対応のサラウンド制作も行っている同社としてはトラック数の制約なく作業ができるNuendoの魅力は大きい。いち早く22.2chやDOLBY ATMOS、AURO等のフォーマットへの対応を果たすなど、今後の作業の発展次第では安心感のある機能を持っているのもNuendoの魅力である。   そして、Windows環境でも安定運用できるというのも導入の理由となっている。Cubaseから派生したNuendoの歴史を紐解いても、やはり開発の軸足がWindowsにあることは確か。カスタマイズ性の高いPCを使用することにより快適な作業が期待できる。そして何より大阪には、Steinberg PartnerのDAW専用PCメーカーOM Factoryがあるのも心強い。PCの構成の自由度が高いということはそれだけ相性問題などに出会う確率も高くなる。その部分を担保した専門性の高いメーカーが近くにあるということで、安心してWindowsでNuendoという環境が成立できる。実際今回の導入されたNuendoは全てがOM Factory製のカスタムPCでの導入となっている。 ・記事冒頭のSTUDIO-Aに付設されるBOOTH-A ◎Danteがすべての部屋をつなぐ もちろん、Fairlightから他のDAWへの更新を考えた際にPro Toolsが候補に上がったのは間違いない。国内でも多くのポストプロダクションがPro Toolsを使用しているのは事実である。Avid S6 + Pro Tools、そして旧来のコンソール+DAWというアイデアも候補に上がったということだが、やはりトータル・リコールの出来る一体型のシステムであるFairlight Constellationを使っていた同社にとって、コンソール+DAWの環境は魅力的ではあるものの効率面を考えると候補から脱落。Avid S6 + Pro Toolsはシステムの手堅さ、他のスタジオとの互換性などメリットは十分に感じたが採用には至らなかった。その理由はここからご紹介するシステムアップ面にある。   今回、ガリレオクラブの3部屋のMA更新とともに、3部屋あるSoundDesign(仕込み)も更新された。そして、以前から構想としてあった全てのスタジオの音声回線を繋いでおきたいというトータルでの目的もあった。そこで目を付けたのが、NuageシステムのフロントエンドとなるNuage I/Oが採用するDanteだ。AoIPとしてすでにPAの現場などで普及しているDanteは手堅いシステムであり、失敗の許されない現場で使われているということからも信頼性の高い機材であるといえる。今回3室のMAと3室のSoundDesignは全てが共通のDante Networkへと接続が行われている。   ご覧いただきたいのだが、MA室に関してはPCからの回線、Nuage I/Oからの回線、そして、モニターコントロール用のYamaha MMP1全てが同一のDante Networkへと接続されている。Sound EditはPCからのDanteとI/Oを兼ねるYamaha O1V96にオプションとして追加されたDante-MY16-AUD2が接続される。これにより、どこからでも自由に制約なく信号の受け渡しが可能となっている。このシステムが組めるということがNuage導入の最後の決め手となったのは間違いない。その背景には、次にご紹介するYamaha MMP1の存在が大きい。 ◎シグナルを司るYamaha MMP1 Nuageシステムはコントローラーとしてという側面だけでなく、「Nuendoをエンジンとしたコンソールを作りたい」というYamahaの思想が色濃く反映されたシステム。この考えもコンソール+DAWも候補として挙がっていたガリレオクラブの考えと一致する部分だ。しかし、従来のNuageシステムは、モニターコントロールに関してはNuendoのソフトウェアに統合されたControl Room機能を活用するということでのシステムアップが推奨されていた。やはり、外部にハードウェアでモニターコントローラーを持たせ、トークバック、カフコントロールなどのコミュニケーションと合わせて制御できるソリューションが望まれていた。その要望を受けてYamahaが従来はDME64Nが担っていたようなプロセッシングを、現代のスタジオに合わせより特化した機能を搭載して登場させたのが、MMP1だ。   それでは、Yamaha MMP1を詳しく見ていきたい。Yamahaがこれまでに培ったDMEシリーズ、MTXシリーズ等のシグナルプロセッサー。その技術を用いて、Nuageのモニターセクションにジャストフィットする製品として作られたのがこちらのMMP1。特徴的なのはその入力部分。基本の入力をDanteとして、Analogは8in / 8out、AES/EBU 16in / 16out と最低限。Danteのネットワーク上に接続して利用することを前提とし、最低限のEXT INPUTと、スピーカー接続用のOUTに絞った非常にコンセプトの明快な製品に仕上がっている。内部はDME譲りの柔軟なシグナルフローに加えて、モニターセクションが自由自在に構築できるようになっている。取材時点ではNuageとの融合の実態を全て確認することはできなかったが、NuageのMMP1コントロール対応については2017年冬にアップデートのリリースを予定しており、トータルでのインテグレートが期待できる製品といえる。   この製品の登場により、Nuageは単体でのコンソールとしての機能を手に入れることとなる。そして、前述の通り16in / 10outの自由にアサイン可能なGPIを持つことにより、カフコントロール、トークバックなどのコミュニケーション機能をMMP1の内部で完結することが可能となる。ここでもDanteの持つシグナルルーティングの柔軟性が生きる部分である。マイク入力は、一旦Nuage I/OによりDanteの1回線となれば、まずMMP1に送り込みカフの制御を受けた上で、PCのDante Acceleratorへと接続され、DAWへと入力される。全てがNetwork上での出来事であり、シンプルなEthernet回線の中でそのシグナルルーティングは行われる。   ガリレオクラブの思い描く次世代のスタジオのあり方。全てのスタジオの音声がネットワークを介して自由に接続されるという未来が、MMP1の登場により一気に現実のものとなった。もちろんDante I/Oを多数用意して、一旦Analogにした後にシグナルプロセッシングを行い、またDanteへと戻すということも出来るが、システム規模は非常に大きくなってしまう。MMP1の様に基本的に全てをDante Network上で信号の受け渡しの出来る製品は、まさに今回のキーデバイスと言えるだろう。 ・STUDIO-B ◎従来の作業効率を失わない工夫 Nuageを中心にNuendoをメインDAWとしてシステムアップをされたガリレオクラブだが、効果用にPro Toolsの用意もある。NuageはPro Toolsに切り替えたとしても、その操作は行える。Nuageの持つ操作の柔軟性、そういった点からも便利に使えているということだ。   実際にこのシステムを見たお客様からは、デスクについて褒められることが多いという。カスタムで作られ、サイドテーブルと一台となるデザインの机。その細部には細かいこだわりが多くある。まず、Nuageの設置についてはフェーダー面とフラットになるように設計されている。従来設置のFairlight Constellationは角度の付いた面にフェーダーがあったため、その操作感との統一も考えてNuageは後ろを少し持ち上げて設定、Constellationと合わせるために7度の角度が付けられている。また、コンパクトになったことを感じさせないように、サイドテーブルを大きくした。これによりディレクタースペースが大きくなり好評いただいている部分ということだ。   また、Nuage I/Oの音質に関しても高い評価をしているということだ。Pro Toolsは以前より候補として外せない存在であり、その評価は常に行なっていたということ。それでも、メインのDAWとして導入が行われなかったのは、以前の192 I/Oの音質が満足できるものではなかったからだということだ。当時使用していたFairlightの音質は高く、さすがは専用設計のDAW界のポルシェと言ったところ。今回Nuage I/Oをテストしたところ、そのFairlightの音質とほぼ同等だという結論が出ている。もちろん、Avid HD I/Oが音質向上しているということは知っているが、それ以上にNuage I/Oの音質は優れているという判断が導入の際にはあったということだ。 ・STUDIO-C ◎Yamaha MMP1 Yamaha Nuageの登場から早くも3年以上が過ぎようとしている。YamahaのNuageリリース時のコンセプトであるNuendoをミキシングエンジンとしたコンソール。これを実現するピースとして登場が待ち望まれていたハードウェアでのモニターセクション、それがこのMMP1である。こう書いてしまうとNuageでしか使えないように聞こえてしまうが、そうではない汎用性を持ちつつもNuageとの深いインテグレートを実現した機器ということだ。 MMP1の詳細を見てみたい。その入出力はAnalog IN/OUT 8ch、AES/EBU 16ch、そしてDante 64chとなる。そして内部には8chのChannel Stripとフレキシブルな40 x 32のMonitor Matrix、32 x 32のSpeaker Matrixがあり、32chのOutputに対してEQ/Dlyといったスピーカーマネージメント用のプロセッサー、そして全てのチャンネルを跨いだBass Managementが備わっている。   もちろんモニターセクションなので、これらの機能を外部からコントロールすることで、ソースの切替、スピーカーセットの切替、ボリュームコントロールなどを行うことができる。Nuageであれば、Nuage Masterからのコントロールが可能である。そのコントロール信号は、Danteの回線に重畳させることが可能なので別途コントロール用の信号線を準備する必要はない。Nuage以外のシステムとへのインテグレーション時もDanteでシステムアップを行っていればそのネットワーク経由でのコントロールが可能である。   スピーカーマネージメント部分は、定評あるYamaha DME譲り。8band EQとDelayが備わる。プロセッサーパワーの関係から残念ながらFIRの採用は見送られたものの、DSPの世代としては最新の物が使われているため音質に関してもブラッシュアップされているということだ。位相に関してシビアなベースマネジメント用のフィルターにはFIRが備えられているのは特筆すべき点ではないだろうか。   そして、Yamahaの製品らしく非常に豊富なGPIを備えているのがMMP1の特徴の一つ。内部のプロセッシングほぼすべてのファンクションのコントロールが可能な柔軟なGPIを持っている。Yamahaのコンセプトとしては、このGPIを活用してCough ControlもMMP1に担わせるように設計が行われている。そのためにInputにChannel Stripが用意されており、ここへMicの回線をアサインしCoughのON/OFFに合わせてMuteを制御、それによりCoughの制御を実現できる。このGPI信号に合わせてBTなどを総合制御することでCough Control unitなどの機能をMMP1が実現する。 今後Danteベースのシステムアップが増えると、MMP1はそのシステムのスピーカーマネージメントシステムとして脚光を浴びることだろう。32chものスピーカーマネージメントを行うことが可能なパワフルな製品。そう考えるとコストパフォーマンスも抜群に高く、すでにこの製品を中核としたシステムアップも行われている。AoIPを活用したプロダクション・スタジオシステムのラストピースが誕生したと言えるだろう。 国内でも先行してDante Networkを活用したスタジオのシステム構築を行われたガリレオクラブの皆様、そしてシステム設計を行われた日豊株式会社の池谷氏、株式会社ヤマハ・ミュージック・ジャパンの山本氏、豊浦氏のチャレンジに敬意を表しこのReportを締めくくらせていただきたい。     *ProceedMagazine2017-2018号より転載

Post

静岡放送株式会社様

◎Pro Tools+Video Slaveの構成で実現した効率的な作業環境 1952年に民放のAMラジオ局として全国17番目にオンエアを開始、その6年後の1958年に民放のアナログテレビ局として全国12番目に本放送をスタートした静岡放送。そのMA室の改修工事を担当させていただいた。県下最大のシェアを持つ地元新聞、静岡新聞の系列で、報道をはじめドキュメンタリーや情報系など自社制作に力を入れている放送局である。   MA室は2年前に内装の更新を行なったが、機材はそのままという状況であった。今回、機材の一新とともにミキサーデスクなどの什器の刷新、ブースとのコミュニケーション関連の機器の更新を行っている。これまでのPro Tools + Video Satelliteというシステムから、1台のPCによるPro Tools + Video Slaveというシンプルな構成に入替えが行われた。やはり、Video Slave導入の最大のポイントはタイムコードキャラクターのオーバーレイ表示。MAエンジニアには馴染みの無いノンリニアの編集機を利用するVideo Satelliteは、多機能すぎて操作の煩雑さを感じていたということ。ファンクション自体はフル機能のノンリニア編集ソリューションであるMedia Composerを使うVideo Satelliteには劣るものの、MA作業として欲しい機能が網羅されているVideo Slaveは、まさに静岡放送様のワークフローにジャストフィットするものであった。   今回の更新では、これまで使用してきたAVID C24からAVID S3への更新も行われている。フェーダー数は減ったものの、ロータリーエンコーダーは増えており、EuConの持つレイアウト機能を活用すればフェーダー数の減少はフォローできる。さらに、エンコーダーが増えていることによってプラグインの操作などでメリットが生まれることになる。また、サイズがコンパクトになった事により、デスク上が広く使えるようになったという点も作業上ではメリットがある。   また、VTRラックとの音声のやり取りをこれまではAESで行なっていたが、今回の更新ではSDI-Embeddedへとシステムを更新している。これによりVTRラックにあるSDI Routerを活用しての柔軟な運用を実現している。ちょっとした工夫ではあるが、使い勝手の向上した部分だ。 改装からそれほど時間のたっていない、このMA室に新しい什器、機器が導入されたことでまるで新設の部屋のようにフレッシュな環境となっている。PCの台数も1台となり、シンプルで効率の良い作業環境が実現できている。常設ではないが、サラウンド用のスピーカーセットもあり様々なコンテンツに対応ができる静岡放送のMA室。その更新をお手伝いできたことに感謝を述べ、本レポートの終わりとしたい。     *ProceedMagazine2017-2018号より転載

Broadcast

佐藤直紀邸ワークスペース

スタジオ感を徹底排除したワークスペース、総計12台のMacが連携したリアルタイム演奏システム、そしてその華麗なる融合。今回は2年の月日をかけて遂に完成した佐藤直紀氏のワークスペースを取材。佐藤直紀氏本人、そして住友林業株式会社と共に施工を請け負ったSONAプロジェクトマネージャー萩原氏両名によるスペシャルインタビューをお届けする。 佐藤 直紀 氏 1970年5月2日生まれ、千葉県出身。 1993年、東京音楽大学作曲科映画放送音楽コースを卒業後、映画、TVドラマ、CMなど、様々な音楽分野で幅広く活躍する。第29回日本アカデミー賞最優秀音楽賞受賞、第31回、38回、40回日本アカデミー賞優秀音楽賞受賞。 萩原 一哉 氏 (株)ソナ 統括管理グループ プロジェクトマネージャー 稲葉建設(株) 建築音響グループ 統括マネージャー 常にお客様の立場に立って、様々なご要望に沿ったご提案ができるよう日々精進しています。趣味は、ギタープレーとバンド活動。自身のバンドで彼方此方ライブ活動 ◎部屋の空気をスタジオに近づけない Rock:この度は完成おめでとうございます。最初に設計当初の目的から伺っても良いでしょうか? 佐藤:そうですね、まず私からは『スタジオにしたくなかった』ということです。これだけの広さがあって予算があればスタジオを作ることも可能でしたが、仕事場=スタジオとなると居心地が良い場所ではない。あくまで私の仕事は曲を書くことですので一番大事なのは仕事をしやすいリラックスできる環境でした。そのため『スタジオをつくらない』、『スタジオっぽい内装を避けたい』という点がポイントでしたね。 萩原:そうですね、その点が前提でしたので、一般的なものを極力使わず、かつ機能的な部分とバランスを保つことがポイントでした。住友林業のデザイナーさんに、どこに音響的な材料を使うべきかをお伝えし、外観が所謂スタジオのようにならないよう留意しました。 佐藤:音響的観点であれば当然窓がない方がいいのですが、窓がない家は日常的な空間ではなく、ストレスも溜まります。私の本音をいえば防音すらもしたくなくて、外から鳥の声や近所の子供の声が聞こえる方がベストなのです。しかし仕事場として24時間使用しなければいけない状況もありますから、今回は自分の部屋にいる感覚で仕事をできるようお願いいたしました。 萩原:防音の部分では佐藤さんの作業環境について事前に詳細を把握、相談の上、一般的なスタジオにあるような防音設備を取り入れてはいません。佐藤さんがお仕事をされても近隣に迷惑がかからない程度の仕様になっています。 Rock:内装やインテリアも素敵ですが、このデザインの希望はどのような経緯で決まったのでしょう? 萩原:インテリアについては、住友林業のデザイナーさんに全てを一任しています。SONAは音響的観点だけをお伝えして、それに見合った材料をお伝えしたのみです。あとはどこにその材料を使うかですが、例えば布が貼ってある壁や、天井の掘り上げた黒い部分、コンソールの正面の大型テレビ部分などに対して吸音措置を行い、部屋全体的には吸音をしすぎず『部屋の空気の雰囲気をスタジオに近づけない』いわばリビングっぽい響きになっていますね。 Rock:なるほど、中でも椅子や作業机などのデザインはこだわりを感じますね。 佐藤:これは私や萩原さんのこだわりではなく住友林業のインテリアデザイナーさんのこだわりです。ここの部屋の雰囲気のセンスやデザインは住友林業さん結構楽しんでやってもらいました。私は先ほどのコンセプトだけを話して、あとは『いい部屋を作ってくださいね』とだけお伝えしました。私のこだわりというわけではない、というと気に入ってないみたいですが、とても気に入っていますよ(笑) 萩原:最初に住友林業の建築士の方と話された際、建築士さんからいくつかパターンを提出しますか?と聞かれ、佐藤さんが『あなたが思っている一番をください』と言われたのが印象的でしたね。あれが忘れられないですね。その集大成がここです。 佐藤:もちろん途中少し遊んでもらった部分もありますよ(笑)。例えばこの線がまっすぐだったのを斜めにしました。 萩原:そう! 床のラインと天井のラインがあってないですよね。 佐藤:遊び心がありますね。 萩原:音響的観点から考えるとどうしてもシンメトリーにしたいと考えてしまいますが、そういう観点を持たない方が作るとこうなるのだなと感心しました。 佐藤:この斜めのラインには意味があって、実は外壁に対しては垂直なのですよ。斜めの箱の中に違う箱が入っている計算されたイメージなのです。 Rock:なるほど、家としてみたら幾何学的な模様なのですね! 佐藤:もちろんそんなことスタジオの中に入ったらわかりませんけどね(笑)  でも物を作るこだわりってそういうことなのだと思っています。基本的に建築設計と曲を書くことは似ている部分があると思っていて、何パターンを作っても本人の中で良いものは一つなのだと思います。それをまず出してもらうことが良いものができる秘訣だと考えています。 ◎空間と機能の両立 Rock:ベストと思ったイメージを具現化したわけですね! 具体的に防音遮音というカテゴリについては、SONAさんと住友林業さんとの作業分岐のポイントはどこだったのでしょう? 萩原:まず当初は防音工事の作業の仕方を住友林業さんに理解してもらわなければなりませんでした。ただ厚く重たい素材を貼れば防音になると思われがちですが、床や天井についてなぜこのような作業が必要かを説明し、先方から図面をいただいて、すり合わせのやり取りが度々発生しましたね。例えば空調も家庭用エアコンではなく、機械は部屋の外置きかつ機械本体の騒音が聞こえないようにするダクトの処理など、一般の建設会社では施工できません。空調機械自体は住友林業さんで設置しましたが、それら以降のダクト工事などは弊社で行わせていただきました。 Rock:となると今回のSONAさんとしてのクリアすべきラインはどの辺りだったのでしょう? 萩原:空調もそうですし、佐藤さんがお使いの機材に関わる電源のことなどですね。スタジオっぽくないとは言いつつも業務上必要です。ノイズカット機能や無停電の機能があるトランス、あとはマシンルームから各機材への配線方法などです。いかにスタジオっぽく見えないような方法、でも実際はスタジオっぽいことを行う、そのアイデアを出す作業を今回行わせていただきました。 佐藤:萩原さんにとってそこは一番大変でしたよね。私も住友さんも『スタジオっぽくしたくない』と言いながら、スタジオとしての機能はなければいけない部屋です。両立の部分で最も苦労されたと思います。音の響きよりも『ここに石を使いたい』などインテリア的な要望とのバランスはご苦労されたと思います。 萩原:作業場は見ての通りモニター画面もたくさん並んでいますが、スタジオっぽくなくデザインできたと思います。例えば防音ドアもスタジオと考えるならよくあるガチャっと開くハンドル式の重量ドアになりますが、今回は防音ドアのパッキン部分をマグネットにすることで、冷蔵庫方式でのように密閉する特殊なドアを使っています。スタジオドアのように締め付けなくて良いのです。これは作るのが大変で非常にシビアな製作工程がありますので、苦労したのはそういう部分ですね。 Rock:確かにドア一つで印象が大きく変わりますね。メインデスク周辺の機材配置などワークフロー上はどのような意味がありますでしょうか? 佐藤:私が中央に座って、素早く各PC前に行けること、中央席からでも見やすいことですね。 萩原:正面の机は調整設計に時間をかけましたね。メインデスクの構成は作家さんのスタイルで鍵盤優先か、PC優先かで変わります。佐藤さんの場合は作譜作業がメインですから、鍵盤の位置が通常より高いのです。 佐藤:私の場合は譜面を書くということが一番長い作業なので、メインとする配置を作っていただきました。 ◎あくまでワークスペースであること Rock:メインデスク周りはハードウェア音源などがありませんが、PC環境ベースへの移行はいつ頃ですか? 佐藤:ソフトシンセに移行した段階からですね。一個一個段階を経て増えていったもので、突然こうなったわけではないのです。最初はもちろんハードウェア音源、途中でギガサンプラーの頃は2台のみの環境でした。ハードウェア音源が徐々に減りつつソフトウェア音源へクロスフェードしていったのは自然の流れですね。 Rock:現在でもハードウェアシンセサイザーではアナログシーンが再燃していますが、そのあたりに興味を感じますか? 佐藤:私自身は機材自体に全く興味がなく、その辺りはROCK ON PROさんにお任せしています。なぜなら私は曲を書くのが仕事なので、音の良し悪しはエンジニアに任せています。響き自体に関してシビアというでもありません、ここでトラックダウンするわけでもありませんしね。『曲を書きやすい環境』があれば良いので、機材構成もそのための構成になっています。アナログシンセは元来作成した音を保存して呼び出せるわけでもありませんし、便利ではないものにこだわる時間よりは1曲でも多くを書きたいですね。 Rock:作曲と編集を割り切ることでシステム構成はクリアになりますよね。昨今の若いクリエイターなどは作曲から編集、ミックスまで任されてしまうことも多いようですが、そのあたりはどう感じられますか? 佐藤:実際はそうですよね。確実に音楽の予算は減っていますから、作曲からミックスまでやらなければいけない。スタジオを作りたくないというのは、それが嫌だったのもあります。スタジオというと『トラックダウンができますよね』『Vocal一本くらい入れられますよね』うちがスタジオと言わず仕事場と言っているのは、スタジオと言った時点でそれら全てを担ってしまう恐怖です。 萩原:あくまで佐藤邸ワークスペースというのを部屋の名前にしています。日頃スタジオを作っている我々としてはそういう意味では楽でした。1m数万円のケーブルにこだわる方もたくさんいますが、佐藤さんからはそのような部分への要求はなく、又、この空間でそれらのクオリティの違いを聞き分けるには、モニタリング環境はよりシビアになり、結果スタジオになってしまいますからね。 Rock:新しいワークスペースを完成させての喜びをコメントにしていただいてもいいですか? 佐藤:僕以上に色々な方々とこだわって作ったワークスペース、実に2年かかりました。これだけ良いワークスペースは長く作曲家を続けるモチベーションになります。 Rock:この部屋だからこういう曲が生まれるという化学反応はありますか? 佐藤:まだ始まったばかりですが、それはわからないです。長く居る空間ですから居心地のいい部屋を作ることは絶対でしたが、必ずしも良い部屋を作ったから良い曲が作るわけではありません。もちろん、書けるといいですけど(笑) Rock:曲作りを本格的に始められた頃の機材環境はどうだったんでしょう? 佐藤:一人暮らしをしていた六本木が最初のワークスペースだったと思います。当時はサンプラーが多かったですね、AKAI Sシリーズを6、7台使って、あとはEMUなどラックシンセを多数活用していました。機材や音源との出会いという面ではずっと前に遡りますがYAMAHA DX7などTOTOやハワードジョーンズとかのサウンドを聞いて憧れて買ってもらったのを覚えています。 Rock:ハワードジョーンズは当時衝撃的でしたね。サウンドもPOPでしたし。プリンスの前座だったのを覚えています。 佐藤:あの当時はキーボード並べて弾くってのが格好良かったですね。最初のワークスペースに話を戻しますが、私は自宅とワークスペースの場所を分けてしまうと、仕事に向かう足が止まってしまうんですよ(笑)。 よく切り替えられる人もいると聞きますが、私はおそらくなんだかんだ理由つけていかなくなって(笑) 眠たくなったら1分で寝られる、仕事しようかと思ったらすぐいける、という環境を作っておくのが重要です。 Rock:部屋の一部という発想はその頃から継承されているのですね。職業作家を目指されたきっかけは何でしょう? 佐藤:今でこそ劇伴作家をやりたい方は多くなりました。私は映画やドラマなどのエンターテインメントが好きなので、音楽という立場からそのように関わりたいと漠然とした目標を持っていました。ただ当時は映像音楽だけでなくJ-POPなど色々やりたかった。およその記憶ですが、当時15年前くらい前にSMAPが一流のミュージシャンを使って、凄いレベルの高い曲を書いていました。あれに憧れてSMAPのための曲を散々書いたのですが全く採用されませんでした。 Rock:コンペなどにも出されたのですか? 佐藤:当時はコンペおよそ200曲、300曲が当たり前でした。本当は曲が書きたいのではなく、アレンジがやりたかった。海外の一流ミュージシャンとの仕事ができることに憧れていましたが、アレンジャーとしてだけでは業界に入れないので曲を書きながらやりなさいと当時先輩方に言われて、SMAP用の曲を何曲も書きましたが結果は全然ダメでした。 Rock:海外ではアレンジャー専門職はいないのでしょうか 佐藤:いらっしゃるでしょう。ただ日本では曲が採用されたらアレンジもできるという内容で売っていかないと仕事が入り辛いと当時制作の方から言われたのを覚えています。 Rock:当時のSMAPというと米国西海岸で収録したCDですね。 佐藤:はい、私はフュージョンが大学の頃は大好きで、CDにクレジットされていたアーティストたちがSMAPのアルバムに多く参加しているんですよ。彼らと会う一番の近道はこれだ! と当時思いましたね(笑) あの頃のSMAPのアルバムがいい意味でやりたい放題で、セールス面以上にレベルの高い楽曲を多く入れていて純粋に憧れましたね。その後J-POPと映画音楽と両立をできればよかったのですが、そんなに甘くなかったです。劇伴音楽以上にJ-POPはレベルが高すぎて、何かの傍らというやり方ではとても出来ませんでした。 Rock:専業でないと厳しそうですか? 佐藤:はい、J-POPのアレンジャーとか本当に私は尊敬します。あのクオリティはとても生半可な関わり方ではできないです。 ◎書き続けたことが今に繋がっている Rock:その後の佐藤さんのご活躍は皆知るところですが、現在の職業作家を取り巻く環境についてはどう思われますか? 佐藤:なかなか作曲家にとって難しい時代に来ていると思います。一人で多様な仕事をこなす人=優秀とされているので、エンジニア的な能力など作曲と違う技能が必要です。楽器や音源が多い人のほうがサウンドは残念ながら純粋に曲を書く技術がなくとも豊かになるし、曲を書けなくても楽器でカバーできるシーンもありますから当然お金も必要です。純粋な作曲家としての道は以前より険しいでしょうね。 Rock:工夫が必要ということですね。 佐藤:昔よりもバランス感覚がとても大事になっており、素直に大変だと思います。ただ私が本当に危惧していることは『バランス感覚が良い人は、便利屋として専門になってしまう』状況です。低予算で仕事をこなし続けることで、その後同様の仕事が膨大に増えてしまうことが問題です。器用に依頼をこなすほど便利屋として使われてしまうのは難しい話です。 Rock:確かにPCベースの制作環境の中、より純粋に音楽に向かい合うのが難しくなっていると我々も感じます。 佐藤:それはもう音楽に限らないと思います。職人的な人にとって非常に難しい時代です。役者さんも、役者馬鹿なんて言葉はもう通用しない。テレビ番宣で気の利いたコメントも短い時間で言えないと本職さえもやっていけない時代です。ひと昔だと曲だけ書ければ良いという時代もありましたが、人間性、コミュニケーション能力などが必ず必要となってきます。 Rock:ここまで来ると運の部分がありますね。 佐藤:頑張ってもらうしかないですね。大きいチャンスを掴んだ際にどのようにブレイクするか。作曲家としては、いい曲をとにかく書き続けて、タイミングと運を待つことしかないですね。 Rock:良い曲は降ってきますか? 佐藤:降ってきませんよ! すんなり書けることは一回もなくて、今回こそ書けないかもと思い、締め切りに間に合わないと思いながらギリギリで出来上がる奇跡の連続なのです。一ヶ月に30〜40曲作る必要があるので、風呂入りながら鼻歌で作るとか、散歩しながらドライブしながらなんてことは全くなくて、机に向かって1日1曲以上必要ですから必死に絞り出すんです。1日1曲書いたら明らかにインプットよりアウトプットのほうが多いので、そんなスラスラと書けるわけはありません。しかし、そんな中でもとにかく書き続けたことが今に繋がっていると考えています。 ◎KEY POINT   ・Mac pro 2台、銀Mac pro 2台、Mac mini 8台の計12台が連動した驚異のシステム 中核を担うMacpro2台にはDigital PerformerとAvid ProToolsがそれぞれスタンバイ。このDigital Performerから複数台のMacminiへとiConnectivity社のmio10×2台を通じてMIDI情報を分配。8台のMacmini上のソフト音源を同時演奏し、そのオーディオをもう一台のMacproをベースとしたAvid ProToolsHDXシステムでリアルタイムに収録。HD I/O 16×16 Analog 4台併用で64トラックの同時録音に対応している。Macmini各機のオーディオインターフェースは主にRME FirefaceUCをスタンバイ。Digital PerformerからMIDI分配を行うMacproには不要となるオーディオインターフェースは接続されていない。     ・Mac mini毎に異なるカテゴリのViennaInstrumentsがスタンドアローン起動 まず4台のMacminiと1台の銀Macpro上ではViennaInstrumentsがスタンドアローンで起動。それぞれ弦/金管/木管/パーカッション(+BFD3)/ハープ&コーラスと1台毎に担うカテゴリが整理されている。残りの4台はLA ScoringStringsなどいわゆるKONTAKT系ライブラリを完備。まさに音源の多さはサウンドを豊かにするという氏の言葉を体現するライブラリ集だ。   ・ワイヤリング 床下コンクリート中に配管を打ち、テーブル類の背面からアクセスが可能な仕様。配線ピットで蓋が取れる構造すら削除し、ディスプレイ以外完全にケーブルが視界から消えるようにデザイン。マウス類もワイヤレス。スタジオ機材専用電源は照明や雑用コンセントと系統から分別。3kVA電源+無停電装置バッテリーも用意されている。     ・防音ドア 防音ドアのパッキン部分をマグネットにすることで、冷蔵庫方式で密閉するドアを採用。ハンドル付き重量ドアを使わないだけで出入りのストレスを極限まで軽減。   構想から2年の月日を経て完成した「ワークスペース」。長い時間を過ごす空間だからこそ、その居住性も問われ、もちろんワークスペースとしての機能も求められる。その実現のために音楽、建築とフィールドは違えどクリエイター同士のアイデアが切磋琢磨してできあがった空間、この場所にいると感じられるその空気感も佐藤氏のクリエイティブの源泉になっていくのではないだろうか。     *ProceedMagazine2017-2018号より転載

Music

ROCK ON PRO導入事例/中京テレビ 放送株式会社様~リニア・ノンリニアを融合し、更なる進化へのマージンをもったシステム~

東海3県(愛知、岐阜、三重)をエリアとする中京テレビ放送株式会社は新局舎への移転に伴い、その設備全てを一新する大規模な導入を行われた。放送局でよく見られる隣の敷地への新局舎への設備更新ではなく、これまでの名古屋市東部の八事に立地する旧局舎から名古屋駅前の笹島地区への完全移転となる。ROCK ON PROではその移転工事の制作音声に関わる工事、システムの導入をお手伝いさせていただいた。 ◎大命題となったファイルベースワークフローの導入 旧局舎には2部屋のMA室と1部屋の簡易MA室、5部屋のレコード室と呼ばれる音声仕込み用の設備があった。MA室はコンソールにStuder Vista7、メインのDAWとしてMerging社のPyramix、サブDAWとしてAVID Pro Tools、レコード室にはAVID Pro Toolsがそれぞれ導入されていた。今回の更新に伴い、全てのシステム、ワークフローのファイルベース化が大命題としてあり、それに則ったソリューション、システムの導入を行っている。制作編集、報道編集それぞれとネットワークで接続され、ファイルでのやり取りを基本とし、さらに報道で起こりうるスピードに対応するVTRや、SONY XDCAM Station XDS-PD2000に対してのリニア作業まで、幅広いワークフローに対応することの出来るシステムが求められることとなった。

Broadcast

株式会社バスク様 / 随所に光る経験に裏付けられた創意工夫

フジサンケイグループの1社として、テレビドラマと映画を専門にするポストプロダクション「VASC」(バスク)様のAvid S6導入をご紹介したい。映画を専門とするダビングステージを持つポスプロと異なり、MA室の延長線上で映画整音とドラマという長尺の番組に特化した独自のスタイル。これまでのシステムから今回どのようにしてAvid S6の導入となったのか?システムの歴史も含めて紐解いてみたい。 ◎その運用にフィットしたEuphonixという選択 バスク様のMA室のシステムはEuphonix CS2000とFairlight MXFの組合せでスタートしている。長尺の番組を扱うということで、そのチャンネル数は多い。それを柔軟にハンドリングできる大規模マトリクスをもったCS2000はバスク様にとってベストな選択であったということだ。DAWのFairlight MXFも、当時は高度な編集機能を持った業務機として揺るぎない地位を築いていた製品だ。   Euphonix CS2000はアナログ回路で設計されたチャンネルストリップをデジタル制御のマトリクスで柔軟に内部接続をすることで、運用の柔軟性をもたせたこの時代には非常に画期的なコンソール。YAMAHAのO2Rが登場し、デジタルコンソールの利便性が認められていたところに、ラージコンソールと同等のアナログ回路と、デジタルコンソールの利便性を融合させた機器として登場した先進性に溢れたコンソールである。   その後、MA室を増設する際に導入したのがAMEKのデジタルコンソール。このときにもDAWはFairlightが採用されている。さらに3室目のMA室を2003年にOPENしている。このとき採用されたのはEuphonixのMaxAirで、DAWには同じくFairlightが採用されている。そして2005年にはCS2000の更新があり、Euphonix System-5が選択された。CS2000の利便性を更に拡張し、チャンネルストリップ部分もデジタル化したコンソール。デジタル技術も進化し、デジタルながら「空気感を再現できるコンソール」として高い音質評価を得たハイエンド製品だ。System5は映画の本場であるハリウッドでも評価を得ており、今でも数多くのダビングステージで使われている製品の一つでもある。   現在メインで使われているPro Toolsの導入は2008年まで待つこととなる。やはりFairlightと比較して、当時のPro Toolsは今ほどの使い勝手を持ち得ていなかった。バスク様は2007年の湾岸スタジオ開設当初よりポスプロ管理として業務を行っている。DAW機器の選定をするに辺り、自社ミキサー卓をAMEK~D-controlへ更新し、そこでAvidへ多くのフィードバックを伝えた結果、Fairlightを使用していた自社が満足出来る使い勝手へと進化していく事が確認出来たのでAvid Pro Toolsを導入、引き続き自社にも導入するに至った。   AMEKが導入されている部屋のシステムは、Digidesign D-Controlを経て2015年にEuphonix System-5へと更新が行われている。現在稼働している汐留に移転する前は、2式のSystem-5で運用を行なっていたということだ。このようにシステムの変遷を振り返ってみると、常にEuphonixのコンソールが1台は稼働しているという環境である。Euphonixの魅力についてお話を伺うと、その運用の柔軟性が真っ先に思いつくということだ。長尺のテレビドラマ、映画が作業の中心となると、1作品ごとに求められる作業スタイルが変化をする。それに柔軟に対応できるシステムとしてEuphonixの製品はジャストフィットしたということだろう。 MA1 MA1 System5 MA2 2列目に埋め込まれたCM408 MA2 ◎System-5とD-Controlを受け継いだS6へ そして、今回の汐留への移転を期に2室としていたMA室を再び3室体制へと拡張している。System-5が生産完了となり、その後継として開発が進んでいたAvid S6を選択したのは、これまでの経緯を考えると必然に感じられる。しかし、Avid S6はSystem-5の大きな魅力であったマトリクスエンジン「eMIX」にあたる部分を持っていない。Pro Tools自体が柔軟なシグナルルーティングが可能だといっても、複数システムを並走させる映画の作業では、最終のステムミックスを行うためのミキサーは必須である。そのような大規模なシステムを必要とする場合は、これまで通り移設したSystem-5を活用し、規模の小さな作業を効率的に行うために一回り小さな3室目を計画、Avid S6を導入となっている。 MA3 System-5の部屋には、3台のPro ToolsがHybrid Systemと呼ばれるEuConによる接続でリモートが出来るようになっている。コンソールとの信号のやり取りには、Avid HD MADIが使われているということだ。非常に特徴的な、前後に分割されたSystem-5はセンターポジションでミキサーも、効果音のスタッフも作業が行えるように工夫された結果だ。このような柔軟な設置が行えるのはEuphonix System-5の魅力のひとつ。コンソールが8chごとのモジュール構造となっているからこそ実現できているポイントだ。   新設のAvid S6のシステムは、24フェーダー仕様。フレームは最大40フェーダーまで拡張できるものを採用し、将来的な拡張性も確保されている。現場で作業されるスタッフの多くが、以前同社に導入されていたDigidesign D-Controlのオペレート経験があるため、導入は非常にスムーズであったということ。System-5とD-Control、両者の後継として開発されたAvid S6。その両者を知るユーザーの目に、S6は正常進化の製品として受け入れられているということだ。System-5の持つ柔軟なオペレートと、D-Controlの持つ高いPro Toolsとのインテグレート。それぞれが持っていた美点がS6にしっかりと受け継がれている。 MA3に導入されたS6 ◎デスクからストレージまで、考え抜かれた作業効率 Avid S6の収められたデスクは、使い勝手にこだわったカスタム設計。System-5の設置を見ても、バスク様は長時間の作業を前提として、少しでも快適な環境を構築したいという高い意識がこのような部分からも強く感じられる。どれだけよく出来た機器も、人が触れる部分が使い勝手にマッチしていないとストレスを感じることとなる。特に長時間の作業ではそれが顕著であり、作品の仕上がりにも影響することを良く知っているからこそ、このような部分にしっかりとコストを掛けているのだと感じた。 また、モニターコントローラーにはGrace Design m904が採用されている。クオリティに直結するモニター環境の要となるこの部分にこだわりの製品をチョイスしている。そして、スピーカーにはDynaudio Air-6が採用されている。これまでのSystem-5の部屋で使われている同社のAir-20との共通性を確保する選択だ。映画関係のスタジオで好まれるDynaudioはラージモニターの鳴りを感じることが出来る稀有な存在。DSPによるコントロールを持ったフラッグシップであるこのAirシリーズが生産完了となったことを惜しむユーザーは多い、このラインナップの復活に期待したいところだ。   録音用のブースは2部屋有り、3室のMA室からそれぞれで使用できるように設計されている。新設のAvid S6の設置されたMA3にはMic PreとしてAMEK 9098 DMAが用意されている。AMEKのコンソールを使われていた同社の歴史が伺える部分ではないだろうか。 Grace Design m904が採用された MicPreにはAMEK 9098 DMA バスク様は、編集室とMA室の共有ストレージとして大規模なAvid ISISシステムを導入されている。総容量384TB、12筐体の大規模なISISがMA室の各Pro Toolsに接続されている。通常の作業では、全てのデータがISIS上に置かれ、ローカルのストレージで作業を行うということは無いということだ。Videoの再生システムとしては、Avid Media Composerが導入され、Pro ToolsとVideo Satellite systemが構築されている。編集との高度な連携により、作業の効率を高めているということだ。 マシンルーム 全体を通じて感じられる、利便性と音質、非常に重要な2つのファクターに対しての高いこだわり。テレビドラマと、映画という2つの軸に対してぶれることなく行われた使い勝手のブラッシュアップ。歴史あるスタジオならではの経験に裏付けられた創意工夫が随所に感じられるシステムである。一見何気なく整然と設置されているように見えるが、一つ一つにこだわりが織り交ぜられた、優れた作業環境であるといえる。最後になるが、お話を伺った株式会社バスク 執行役員 音声技術センター長 小林祐二氏、そして、このシステムの構築を行われた株式会社エム・ティー・アール 冨岡成一郎氏にこの場を借りて御礼と感謝を申し上げたい。 ・写真左から、株式会社エム・ティー・アール 冨岡 成一郎 氏、株式会社バスク 亀山 貴之 氏、蜂谷 博 氏、佐藤 真美 氏、執行役員 音声技術センター長 小林 祐二 氏、株式会社メディア・インテグレーション ROCK ON PRO事業部 岡田 詞朗、前田 洋介     *ProceedMagazine2017Spring号より転載

Post

専門学校 ESPエンタテインメント 大阪様 / 最高峰の機材で確実な力となる貴重な体験を得る

大阪梅田にほど近い、中津駅そばに専門学校ESPエンタテインメント大阪はある。大阪駅からも徒歩で楽器店の並ぶ通りを抜けると学校がある、そんな立地だ。みなさんもご存知のようにESPは日本を代表するギターメーカーの一つであり、個性あるクラフトモデルを多くリリースしているメーカー。学校の開設は古く30年以上の歴史を誇る。当初は、ギター制作学院としてスタート。その後、東京・高田馬場に専門学校ESPミュージカルアカデミーを開校し、ミュージシャンの育成をスタートする。ミュージシャンだけではなく、パフォーマー、コンサートスタッフ、アーティストスタッフ、ピアノ調律、レコーディングと分野を広げ、今では芸能全般をフォローする総合専門学校となっている。 ◎「現場主義」を実現する充実した環境 今回取材を行なった大阪校の開校は13年前、音楽アーティストの育成、音響・コンサートスタッフの育成、声優、芸能と幅広い学科を開設し業界へ人材を送り出している。学校の特色としては「現場主義」という言葉が真っ先に飛び出した。講師は、現役の現場で作業をおこなうエンジニアが多く、即戦力を育成するためのプログラムが組まれているということだ。コンサートスタッフ・コースなどは、学生時代から、実際の現場での実習を受けることが出来ることが大きな魅力になっている。これは、卒業後の採用にもシナジーを生み、実際の現場での動きを見聞きし、共に仕事をしたことがある学生の中から採用を行うことが出来る、ということにもつながっている。実際の進路を聞いてみると、7~8割の学生が就職しているということ。門戸が狭いと思われがちな、音楽業界へこれだけの就職率を持つということは素晴らしいことではないだろうか。   もちろん、学内のイベントも運営は学生が主体。講師がサポートに回り、実践的な実習を中心に授業が行われているということ。今回取材させていただいた、レコーディングスタジオも、学生の演奏を学生がレコーディングするという、両者にとって貴重な経験となるカリキュラムとなっている。MAの授業もあり、そこでは声優科の学生を録音するという形を取っているということだ。学内のリソースで様々な現場の再現ができ、最新の機材と、現場同様の環境で実習が出来るというのは学生にとって理想的な環境であると言えるだろう。   このレコーディング・スタジオを利用する学生は1年時に隣の校舎に設置されたSSL AWS900のスタジオで基礎を学ぶ。2年時にこのAVID S6の設置された環境で、応用となるエンジニアリングを学ぶということだ。やはり、レコーディングの基本、シグナルルーティングなどを、学ぶにはアナログコンソールは最適である。これは、デジタル全盛の現代においても変わらないことだ。やはり、全てが、物理的につながり1対1の関係であるアナログは全ての基本であるということだろう。2年時にはAVID S6というサーフェースに環境を変え、実践的なDAWの使いこなしを学ぶこととなる。豊富に用意されたアナログアウトボードも、その思想の現れであり、レコーディング、マイキングの更に踏み込んだパートとして、機器、メーカーによるサウンドの違い、そのセレクトといったところを体験、体感できるように準備されているということだ。   アウトボードラックには、マイクプリだけでもSSL、API、Vintech、Manleyとハイエンドの製品が並ぶ。コンプはUniversal Audio 1176とTUBETECH CL-1Bという定番の機種。リバーブもLexiconとTCという2台があり、その違いを確認することが出来るようになっている。なんとも贅沢な環境である。ハイエンドの製品のサウンドに触れ、その違いを体感することは、その後現場に出て確実に経験の下地として蓄積されていくことであろう。 ◎将来のスタンダードを踏まえた機材選定 それでは、ここから今回更新されたAVID S6に関して見ていきたい。この教室には元々Digidesign D-Control 32 Faderが設置されていた。10年以上稼働したこのサーフェースの更新にあたり、SSLなど他にも候補は出たものの、やはりその後継であるAVID S6が採用されたということだ。SSL AWS900を1年時に使い2年時にステップアップして、別の環境を用意するという観点からも、即戦力育成という学校の方針から、今後導入が進むと考えられるこの製品を選択するということに大きな迷いはなかったということだ。   AVID S6の構成は24 Fader - 9 Knobの仕様。フェーダー数が8本減ってはいるが、AVID S6の持つ柔軟なレイアウト機能や、スピル機能を考えるとこのサイズでも十分という結論になったということだ。ノブに関しては、各種パラメーターを学生が俯瞰出来る環境のほうがわかりやすいという目線からこちらの仕様を選択したということ。導入直後ということもあり、講師の方々もどのようにこのAVID S6を教えていくのか?まさに検討が始まっているということだ。様々な使い方が可能なAVID S6だが、どのように使いこなしていくのか?それぞれの個性が出る部分だ。ユーザのアイディアに柔軟に対応できるAVID S6の真価を引き出してほしいと願うところである。 AVID S6に接続されるPro Toolsも同時に更新され、Pro Tools HDXの環境へと更新が行われている。InterfaceにはAVID HD I/O 8×8×8が3台用意され、モニターコントローラーとしてAVID XMONが、またMic PreとしてAVID Preが採用されている。XMONとPreは、これまでのD-Control環境でも使用していた製品ということで、AVID S6のメーカー純正環境として採用されている。特にPreはAVID S6のサーフェースから直接のリモートコントロールが可能な製品であり、コンソール感覚でのチャンネルごとのゲイン設定などのリモートコントロールが可能となっている。 プラグイン関係の更新としては、UADが追加で導入された。現場での採用率が高くなっているUAD。レコーディングでの掛け録りなど、色々と試してみたいと積極的に新しい技術を教えていこうという意欲の感じられる部分である。なかなかプラスアルファの部分にまで踏み込んで学べる環境はない中で、このような積極的な姿勢を持つ学校の存在は、非常に心強く感じた。   この教室では、MAの実習も行われている。その為、Videoの再生環境が整えられている。Pro ToolsのVideo Trackからの出力はもちろんだが、TImecodeのオーバーレイ表示できるVideo Slave 3 Proが追加で導入された。国内に導入されたばかりのソリューションであるVideo Slave 3 Proは講師陣にも非常に好評。タイムコード表示の柔軟性、ADRの支援機能などこれまでは得られなかった、機能に好印象を持っていただいている。Pro ToolsのVideo Trackでの基本的な使い方と共に、ESPを出た学生はもう一つの環境を知った人材として今後羽ばたいていくことだろう。 現場での採用が加速度的に進む、AVID S6。その環境を学生時代から知り、学ぶことの出来る環境は増え始めている。DAWにかじりついての作業だけではなく、豊富なアナログ機器に触れ、最高峰のコントロール・サーフェスでの作業を知る。現場に出て、確実に力となる貴重な体験を得ることの出来る環境が揃っていると感じる。もう一度学生に戻り、ゆっくりと機材と向かい合いたい。そんなことを感じる取材であった。 専門学校ESPエンタテインメント 教務部主任 サウンドクリエイター科 学科長 今村典也 氏 今回更新のご協力を頂いたESPエンタテイメント大阪のスタッフの皆様     *ProceedMagazine2017Spring号より転載

Education

MONOOTO STUDIO

大阪中津からほど近い場所に位置する『MONOOTO STUDIO』。MAから音楽まで幅広くミキシングを行うオーナー村山氏のこだわりが詰まったカジュアルでハイセンスなレイアウトを持つスタジオとなっている。小規模ながらも、ファイルベース稼働のローコストスタジオとして地元大阪で着実に浸透しつつあり、オープン4周年の節目においてRock oN PRO UMEDAが新スタジオ増築のお手伝いをさせていただいた。 ハイセンスで暖かなレコーディング空間 ウンドエンジニアとして長年フリーランス活動をされたいた村山氏がおよそ4年前に設立した『MONOOTO STUDIO』。無機質になりがちなスタジオ空間を、村山氏セレクトのスタジオ家具にオーダーメイド什器や照明、オブジェクト等により非常に暖かなリラックス出来る空間に仕上げている。筆者もまるでカフェで寛いでいるかのような感覚に陥ってしまうほどのコンフォートぶりである。"自分が良いと思えるものだけを揃える。"といったストレートなコンセプトをベースにセレクトされたスタジオイクイップメントや、小規模ながらも今回 Rock oN PRO Umedaによって新規導入された機材を合わせてこちらで簡単にご紹介していきたい。 2フロア構成でキャパシティに合わせた展開 既存の4Fと新設された5Fの2フロアに分かれたスタジオは、機能的に大きな差を設けず、録音ブース、アウトボード各種、そしてProTools 12と Artist Mixをベースとしたコントロールシステムという構成で統一されている。既存の4Fのスタジオをベースに5Fに新規でスタジオをオープンさせている。どちらも同様のクオリティで業務が行えるが、案件に応じた使い分けをしており概ね4Fをメインに案内していることが多いそうだ。 新設された5Fスタジオ 2フロア共にモニタースピーカーは柔らかな音質が特長の『FOCAL』社で揃えており、4Fは3wayの『Twin 6 Be』、5Fは2way『CMS 65』と音のサイズ感に違いを持たせている。『Twin 6 Be』は音楽的な響きを持ちながらも、モニターとしての正確さを合わせ持っており、村山氏が試聴会で聞いて一目惚れしたというセレクト。ベリリウムツイーターによる高解像度な高域と柔らかな中域の押し出しの絶妙なバランスが特長のFocalだが、以前のスピーカーでは感じ得なかった音の鳴りに当初は困惑したというエピソードも。 メインDAWにはやはりPro Toolsを採用、今回、最新のバージョンにアップグレードしたことで非効率なオートメーションやノーマライズを不要にするクイックプロジェクトやクリップゲインなど新機能が搭載された。MA作業などクリップ編集が圧倒的な割合を占める『MONOOTO STUDIO』では、シンプルでMTRライクな『ProTools』がベストだと村山氏は太鼓判を押す。また、DAWコントローラーとしては全てのスタジオに『Artist Mix』を導入している。   自身がバンドでのCDリリースや、フジロックへの出演などMAエンジニアとしては、音楽寄りの濃いキャリアを持つ村山氏。音響効果などでもその経歴の滲む作品作りが行われていることだろう。機器の選定、スタジオデザインなど随所に、音楽を愛する村山氏のセンスが感じられるスタジオとなっている。 MONOOTO STUDIO 村山 拓也 氏 関西エリアでもPro Toolsの更新導入とともに、これまでの業務を見直してさらなる効率とクオリティを求めているケースとなった。最新のプランニングにより得られたワークフローは、現場で一層の輝きを放ちユーザーにとっても価値ある更新となっている。個性とオリジナリティに溢れるその様子が今後もますます拡がっていくよう、ROCK ON PRO Umedaではより一層のサポートを続けていきたい。     *ProceedMagazine2016-2017号より転載

Music

株式会社サウンズ・ユー

大阪福島区にある在阪の老舗MA・音楽制作スタジオ「株式会社サウンズ・ユー」。本社スタジオでのMA作業、音楽制作のほか、IMAGICAウェストや各放送局でのMA業務に多数のエンジニアを派遣するという技術協力も行っている。その本社には3部屋のスタジオがあり、すべてPro Tools|HDでの運用、サラウンドに対応したスタジオが完備されている。今回は、そのうちの1部屋を全面改修し、残り2部屋については最新のバージョン12へPro Toolsの更新を行うこととなった。 時代のニーズに合わせたスタイルを追求 今回の新設スタジオは、従来のミキサーベースのスタイルから大きく変貌を遂げている。ファイルベースの作業が増加しつつある今のニーズに合わせるように、大型コンソール主体のスタイルからPC/DAWをメインとしたシンプルなワークステーションへと移行。その中核には『Pro Tools S3』が鎮座する。そのコンセプトは、大型の機器を極力排除し音響環境を最善の状態にし、機器としてのミキサーがスタジオの主役ではなく、エンジニア自身が中心となり、作品を作り上げているといった構図を意識している。作業のためのデスクは特注であり、お客様の書いた手書きのラフスケッチから理想を追い求め制作された物。そのサイズ感、形状など細部に渡るこだわりが詰まっている。   いわゆるサウンドデザイナーとしてのスタイルが理想形として透けて見える。今回改装したこのMA室はコントロールルームはゆったりとしたスペースが確保され、作品に携わる全関係者が一同に介せるほどの広さだ。これは、システムのコンパクト化によりマシンルームが排除された事によるメリット。これにより、クライアントが同席する際にも、遮る物のない優れたコミュニケーション環境が得られる。もちろん、ハイクオリティなモニタリングをキープできる絶妙な距離感など、様々なファクターも実現している。 コアオペレーションを『VMC-102』に集約 ラージモニターにはMusikのフラッグシップモデル『RL901K』を採用。シンプルなスタジオのルックスに大きなインパクトを加えている。スピーカー背面への回り込みを排除する独自のカーディオイド処理により、素直で耳馴染みの良いワンランク上のモニター環境を実現した。また、このカーディオイド特性より、ディレクター席、クライアント席での視聴環境の向上に対しても一役買っている。   モニターコントロールは、VMC-102とDirectout Technologies ANDIAMO.2の組み合わせで、マシンルームからの外線とスタジオ内の機器すべてを集約し、集中的にコントールを可能としている。モニター機能はもちろんの事、VMC-102には基本のコミュニケーション機能と制御をフルに活用し、カフ、トークバック等のコミュニケーション関係も全て制御している。これをVMC-102の設定で実現し、カフシステムの専用コントローラーを不要としている。カスタマイズ可能なタッチパネルには、モニターセレクト機能の他、強制カフON/OFF、CUE OUTを活用したマシンルームへの連絡線への確立など、そのアイデアを特注品の様に作りこんでいる。これらの機能を実現するために必要であった、制御系の機器、既存の製品のカスタマイズなどはROCK ON PRO umedaのスタッフが実現している。 コンパクトながら音質、使い勝手に徹底定期にこだわったシステムアップ。必要な部分への限られた予算の投入が行われた、見るべきところの多いシステムである。ポストプロダクションとして必要とされる機能を、選りすぐり限りなくコンパクトにシステムを収めている。そして、音質・機能ともに充実した環境ができあがっていることをご報告したい。 株式会社サウンズ・ユー 勝瑞 純一 氏 / 大橋 光樹 氏     *ProceedMagazine2016-2017号より転載

Post

ROCK ON PRO導入事例/株式会社イクシード 様 〜長期的視点からのAVID S6導入〜

外苑前からほど近い立地の株式会社イクシード様は株式会社ビジョンユニバース様とのコラボレーションにより、CMを中心にVPなどを制作しているポストプロダクションだ。今回、SSL Avant+からAVID S6への更新を行なった。その事例をご紹介していきたい。 ◎S6でIn the Boxの環境へ最適化 イクシード様は2000年創立、映像編集からMAまでのポストプロダクションワークフローを提供する会社だ。創業当時はAVIDの編集システムをメインにAutodesk、そしてMAのシステムをマイセン通り沿いに1部屋用意して業務にあたっていた。その後、現在のビジョンユニバースが所有するビルへ移転し、2部屋のAutodesk Suite、1部屋のAVID DS Suite、2部屋のAVID Media Composer Suite という全5部屋と、ビジョンユニバースと共同で運営する2部屋のMAというラインナップとなっている。代表取締役の中野氏自身がAVID DSのオペレータでもあったということでAVIDのソリューションに対しての造詣が大変深い。MAはFairlight MFX3とSSL Avant+を組合せたシステムアップであったが、導入からの年数と周りのポストプロダクションの情勢から4年前にAVID Pro Toolsへと移行を行なっている。編集のソリューションがAVID中心ということもあり、いち早くVideo Satellite SystemによるVideo Playback Systemを導入していただいている。 今回はSSLラージコンソールからの更新、やはりコンソールではなくコントローラーとなるということに対して様々な意見の交換が行われた。その中でポイントとなったのは、維持費、そして将来性というファクター、更にはPro Toolsとの親和性というのも重要視されたポイントだ。導入から10年以上が経過していたSSL Avant+は、やはり故障した際のメンテナンス費、今後のパーツ供給に対する不安などがあった。登場して日の浅いAVID S6ではあるが、すでに世界中で1000台以上の出荷が行われている非常に大きな成功を収めたソリューション。初期不良などの歩留まりはファーストリリースでは見られたものの、リビジョンアップにより現在ではノーメンテナンスと言って良い状況まで改善され、安定度の高いシステムとなっている。やはり、好調なセールスはユーザーからの多大なフィードバックを生み、製品のブラッシュアップに大きな効果を生んでいることが実感できる。もちろんSSL Avant+からの順当なリプレイスといえばSSL C300ということになるが、コスト的な面がネックとなった。更にPro Toolsの導入からコンソールミックスを行う機会は激減し、Pro Toolsの内部ミックスがフローとして定着していたことで、Pro Toolsをこれまで以上に上手く扱える製品が良いということもあった。 ◎VCA Spillを活用してコンソールライクなフローを実現 メインエンジニアの山崎氏は、Fairlightユーザーであり、コンソールミックスを現場で行ってきたエンジニア。Pro Toolsの内部ミックスをArtist Mixで行なっていたが、やはり少なからずストレスを感じていたとのこと。AVID S6の導入からは、VCA Master FaderをセンターにSpill Zoneで呼出し、SSLコンソールと同じようなスタイルでのミキシングに回帰したという話が印象的。AVID S6はPro Toolsをエンジンとしたコンソールという見方も出来る製品。そのコンセプトの通り、まさに「コンソール」として使っていただいている。波形が表示されたりと、これまでのコンソールにはなかった、多くのフィードバックを持ち、快適な環境へと進化することができているとコメントを頂いている。更にVCA Spill機能により、個別のフェーダーへのアクセスも用意なのもお気に入りの機能ということだ。Pro Toolsの持つ多彩な機能を、ユーザーのスタイルに合わせ様々な使い方を可能としているのも、この製品の魅力ではないだろうか。 ナレーションブースは2名での収録に対応、余裕のある空間が魅力だ。 普段利用する収録用のアウトボードは手元のラックに集約している。ICONIC KZ912、NECE 33609,TUBE-TECH LCA-2Bが収まる ◎強力なシグナル・マトリクス機能でDAD AX32へ回線を集約 次に、システムアップのポイントを見てみたい。AVID S6への更新に併せて周辺機器を一新されている。従来、SSLのマスターセクションとカスタムで作られたモニター切替ボックスの持つ複雑なルーティングは、DAD AX32とTAC system VMC-102の組み合わせによりその機能を再現している。AX32、VMC-102ともに今後のバージョンアップによる含みを持った状態での導入ではあるが、AVID S6のバージョンアップなど今後の機能追加によって更なるシステムの充実が期待できるラインナップの導入となっている。基本的にスタジオの全ての回線はDAD AX32に集約している。この製品の持つ強力なシグナル・マトリクス機能をフルに活用しルーティングを行なっている。デジタル領域でのXY matrixであるため、分配機能を活用しADA,DDAレスのシステムアップを実現している。 TAC SYSTEM VMC-102は、ご要望いただいたアシスタントデスクからのモニターコントロールを実現するという側面も併せ持っている。これまではカスタムのモニターボックスがSSLの後段に組み込まれていたが、その役目を併せ持った製品として導入いただいている。設置場所が自由なVMC-102はモニターコントロールリモートとしての機能を実現してくれた。現状ではVMC内部のDSPによりモニターコントロールの実際のシグナル処理を行なっているが、将来的にはDAD AX32のコントロール機能によりDAD側へその機能を移すことを視野に入れての導入となっている。AVID S6とDADの連携、そしてDADとVMC-102の連携、この3機種が協調して動作するようになればミキサーはAVID S6のセンターセクションからのモニターコントロール、アシスタントはVMC-102からのコントロールということが実現されることとなる。積極的なバージョンアップが予定されている機器を中心とした導入により、将来性の高いシステムとなっている。 ◎SDI EmbededのAudio Outで完全にロックしたLayback また、こだわって導入を行なったのがDAD AX32のオプションとして用意されているSDI OUTの機能。DAD AX32はminidigilink portを持っているのでPro Tools HDXから直接Audio Interfaceとしての接続が可能だ。余談ではあるが、先日AVIDから公式にサポートが発表され、AVIDお墨付きのInterfaceとなったのも大きなニュースだ。話を元に戻すが、Digilinkにより接続されたAudio Interfaceから直接SDI EmbededのAudio Outが出来るのはPro Toolsシステムにとっても大きなニュース。これまでVTRへのLaybackはAESで接続するのが定番であったが、Pro Toolsから直接の出力を実現したということで理論的にはフレーム内での揺れのない完全にロックしたLaybackが実現されることとなる。SDIというフレームを基準としたデータの中に、Digital Audio データを並べることができるのでフレームエッジが完全に一致したデータをVTRへ返すことを可能としている。これは、今後のポストプロダクション・システムにとって大きなトピックとなるだろう。どうしても防ぎきれなかったフレーム内での数サンプルのズレを完全に一致させることが出来るようになるということになる、これはエンジニアの山崎氏が大いにこだわったポイントだ。   またスピーカーマネージメントシステムとしてPeavey MediaMatrix Nionを導入していただいている。モニター補正を96kHzで行うことの出来るこのプロセッサーはサウンドの純度を保ったまま補正が行えるほか、イコライザー・ディレイとして活用いただいている。本来はもっといろいろなことが行えるプロセッサーなので、こちらも将来のシステム拡張に含みを持たせた更新であると言える。アミューズメントパークなどの設備としての導入が目立つ本製品だが、その音質の高さはもっと導入が進んでもいいと感じさせられる機器だ。 イクシード様は、今後のバージョンアップに大きな含みを残し、まさに未来において進化できるシステムを導入されている。デジタルならではと言えるこの最新の機器を組み合わせた構成。それを従来のデジタルコンソールのスタイルで利用されているというのが、AVID S6の懐の深さを物語っていると感じている。ユーザーのスタイルに合わせどのようにでも活用できるのが、AVID S6の大きな魅力の一つだと改めて再認識させられる。今回導入いただいた機材の進化とともに、どのようにワークスタイルが進化してゆくのか?非常に楽しみな事例となっている。改めて、株式会社イクシードの皆様、システム工事を担当されたレアルソニード様への感謝を申し上げて結びとしたい。 左より、ROCK ON PRO 町田幸紀、株式会社イクシード 田中 嵩樹 氏、株式会社イクシード 代表取締役 中野 真佳 氏、株式会社ビジョンユニバース エンジニア 山崎 博司 氏、ROCK ON PRO 前田洋介

Post

株式会社イノセンス 様 / 作業効率を追い求めた結果 〜AVID S6導入事例〜

北陸、金沢に本社を置く株式会社イノセンス。試写室を四国・松山にも置き、この2つの拠点で制作から撮影〜編集〜MAとワンストップでのマルチメディア・サービスを提供している。地元のCM制作、起業PRのVPなど様々なコンテンツの制作を行われている会社である。作業量はかなり多く、リコール性、作業効率というものが求められる現場である。 ◎旧システムとの互換を確保する 今回導入となったAVID S6だが、そのストーリーはPro Toolsシステムの検討から始まった。それまではFairlight QDCとConstelationを使用していたが、そのサポート終了・システムの老朽化に伴い、AVID Pro Toolsへの更新を検討されていた。しかし、単純にシステムの入替えというわけにはいかない。業務におけるかなりのウェイトを占めるのがこれまでに制作したコンテンツの改定作業となるからだ。そうなると、それまでのFairlightとのデータの互換性の無いPro Toolsへの更新は、単純に入れ替えるという訳にはいかない。まず、第一段階としてPro Toolsのシステムを仮設し、使用頻度の高いデータから順にデータコピーを行うこととなる。これは、シンプルにAESで2台のDAWを繋ぎ、同期をとってのコピー作業。すでにFairlightが提供していたMXF exchangeは手に入らず、Fairlight QDC独自フォーマットのファイルをファイルベースでコンバートすることは難しくなっていたからだ。 ◎完全ファイルベースのフローにS6が合致 当初は1年程度の期間を設けFairlightのデータを移植したところで、全体的なシステムの更新を行う予定ではあったが、Pro Tools導入から半年程度たったところでConstelationの調子がどうにも悪くなってしまった。その為、計画を前倒ししてAVID S6の導入に踏み切った。AVID S6に関しては、Pro Tools導入後に次のメインシステムとなるコンソールの選定候補として実機を金沢まで持ち込みデモを行なっている。実際にその操作性を体感していただき、作業効率も求めるイノセンス様のワークフローともしっかり合致した。DAWをエンジンとするコンソールということで言えば、Fairlight Constelationと同じコンセプトではあるが、デジタルコンソールの模倣にとどまらず、更に踏み込んだ提案が数多く搭載されたAVID S6はイノセンス様の目線からも新鮮に映るポイントは多かったという。   リコール性能の高さは言うまでもなく、Display Moduleに表示される波形、自由にコンソール上のフェーダーにアサインすることの出来るレイアウト機能など、レコーダーとコンソールという従来の概念を更新することの出来るAVID S6。作業効率を第一として検討を行なっていたイノセンス様のワークフローにしっかりとマッチしたと言える。   余談ではあるが、イノセンス様のMAは完全ファイルベースでのフローとなっている。すでにVTRでの素材搬入はほぼ無く(年に1回程度)、松山支社のコンテンツMAも一手に引き受けているためにファイルでのデータのやり取りが普通のフローとして日々行われている。 ◎S6のファンクションが実現したコンパクトシステム 導入いただいたのはPro Tools HDX1、映像再生用にVideo Satellite SystemとしてAVID Media Composer、AVID S6-M40-16-5-DPというのがメインのシステムだ。AVID S6は16フェーダー5ノブというコンパクトなシステム。これまでのConstelationが24Faderということで不安はあったものの、レイアウト機能、Spill機能などを駆使することでコンパクトなシステムでも同等以上の使い勝手を得ることが出来ると判断されての導入となっている。Pro Tools HDXシステムも、サラウンド作業は無く、ステレオ作業のみということで、DSPパワー的に問題ないと判断をした。Video Satellite Systemの導入は前述のとおり、完全にファイルベースでの素材の受け渡しが前提となっているために、受入可能なファイルフォーマットの多いMedia Composerの導入は必須であった。また、キャラの表示もMedia Composerであれば問題なく行えるというのもポイントであった。Video InterfaceにはAVID DNxIOを入れさせていただき、将来の4Kフローへの準備も行なっている。 ◎VMC-102+ANDIAMOに集約、パッチベイも僅か3面に 次にシステムのディテールに目を向ける。モニターコントローラーはTAC systemのVMC-102を選択、VMC-102とTritech AGS-VMC、そしてDirectout Technologies ANDIAMO.XTの組合せで、コミュニケーション、モニター関係を集約している。回線の切替、TBのSummingなどをVMC-102で、スタジオ回線のマトリクス、信号分岐などをDirectout ANDIAMOで実現している。スタジオ機材ほぼ全てをANDIAMOへ集約することで非常にシンプルなシステムアップを実現している。ちなみに、AndiamoからPro Toolsへの接続はAESでの16chとなっている。   VMC-102とANDIAMO.XTの組合せでシステムのコアを構築したことでパッチベイがアナログ2面、ビデオ1面と非常にコンパクトに纏めることが出来た。エマージェンシー対応を考えた最低限のパッチが物理的に立ち上がっている。物理接点数を減らす、システム工事費の低減など、様々なメリットがこのシステムアップにより実現している。工事に関しても、既存のConstelationの解体撤去からS6の設置、調整まで4日間というスピード工事。5日目には動作確認、6日目にはトレーニングと、1週間を切るスケジュールでのシステム更新工事であった。もちろんこれは、システム設計、工事を担当していただいたレアルソニード様の力によるところも大きい。更にAVID S6とVMC-102,ANDIAMOの組合せというコンパクトなシステムだからこそということも出来る。   エンジニアの口出様は、AVID S6の魅力的なソフトキーをカスタマイズし、使いたいキーをフロントに持ってきたりと、作業効率を求めかなり使い込んで頂いている。このソフトキー機能は、EuConの恩恵により、Pro Toolsのほぼ全ての機能を網羅し、ショートカットにないような機能でもアサインが可能となっている。キーボード+マウスでの編集からS6+マウスでの編集になっているということが伺えるエピソードである。 東京、大阪に次ぐS6の導入事例となったイノセンス様、地方の活力を感じるとともにワンストップでのワークフローを確立していることで、一歩進んだトータルワークフローを現実のものとして形にされている。今後もバージョンアップにより進化してゆくAVID S6とともに、効率的なワークフローを確立することだろう。改めて、株式会社イノセンスの皆様、システム工事を担当されたレアルソニード様への感謝を申し上げて結びとしたい。           左より、アシスタントミキサー 水口慎也氏、同社取締役/プロデューサー 直野雅哉氏、チーフミキサー 口出洋徳氏     *ProceedMagazine2016Summer号より転載

Post

ABC 朝日放送株式会社様/次世代のワークフローを見越した現実回答

大阪・ABC/朝日放送株式会社様のPro Toolsの更新、またそれに伴うファイルベースワークフローへの移行をROCK ON PRO UMEDAが中心となりお手伝いをさせていただいた。長期の計画として取り組むファイルベース化の一環として音声編集システムの更新が行われたわけだが、そのコンセプトや、将来像について導入を担当された技術局 制作技術センターの和三様と神田にお話を伺った。 ◎ファイルベース移行の一環という前提 今回の更新は、8年前の新社屋移転時に導入を行なったPro ToolsシステムのPC老朽化が現実的な課題点。またPro Toolsシステム更新を主体としながら、ファイルベースワークフローへの移行の一環という位置づけも与えられている。ファイルベースへの移行は、新社屋の移転前からワーキンググループが社内に発足し、その実現に向けた取り組みが始まっていたということ。時勢として、今回の更新ではHDCAMの終了を見越した更新を行わなければならないということで、ファイルベースへの取り組みが機材選定からも行われている。   具体的には、1.Pro Tools systemのHDXへの更新、2.テープベース以外のワークフローに対応するためのVideo Satelliteの整備、3.ファイルベースフローを見越したファイルサーバーの整備、4.受入ファイルのコンバート用のEpisodeの導入この4点が柱となっている。それでは、一箇所づつその詳細を見ていきたい。 ◎Pro Tools HDXへの更新で得た効果とは それまでのTDMシステムはバージョンアップを重ねVer.9で運用を行なっていたが、Mac Proの修理対応終了など不安を抱えての運用となっていた。この部分を最新のMac ProとHDXのシステムに更新を行ったことが第一のポイント。   Pro Toolsでの運用に関してはこれまでの実績からも不安はなく、更新により実現したOffline Bounde、Clip Gainといった新機能は非常に評価され活用が始まっている。そして、スペックには現れない部分だが、音質面の向上もこのMA室で仕上げの行われる音楽番組、コンサート収録の仕上げなどでは大きなメリットになっている。以前のバージョンに比べ音ヌケが良くなっているため、SSL Avantへマルチで立ち上げてのミキシングに匹敵する音質での仕上げが行えるようになったということだ。ちなみに、Audio InterfaceはフロントエンドにSSL Alphalink MADI SXをそれまでのシステムからの引継ぎで利用していただいた。Pro Toolsとの接続はSSL DeltalinkからAVID HD MADIへと更新が行われている。SSL Alphalinkの音質をキープしつつ、今後の安定運用を見越しての更新である。 プラグインも増強している。中でもAUDIOEASE Altiverbはすでに無くてはならない存在とのこと。スタジオ収録番組の仕上げの際に、効果音として拍手や歓声を足すことがある。それを馴染ませるためにスタジオの響きに似せたプリセットを用意しているということだ。これは非常に良い結果が得られているために多くの番組で活用が始まっているということ。また、音ヌケが良くなった分を馴染ませるため、McDSPのAnalog Channelを導入している。分離が良いサウンドが気に入っているので、あまり活躍の場はないということだが、狙ったサウンドのコンセプトによって使い分けていきたいということ。併せて、DiGiGrid DLSの導入もトピックとなるポイント。プラグインパワーも十分に拡張され、サラウンド制作、そして今後のフォーマットなどにも対応できるスペックを与えられたシステムとなっている。 DiGiGrid DLS ◎Video SatelliteによるVideo Playback 今後編集と行われるファイルでのやり取りを見据え、より多くのVideo Fileの再生を実現するVideo Satelliteを導入いただいた。この更新にはもう一つの狙いがあり、既にテストケースがスタートしている4Kへの対応というのも大きな目的となっている。これまで4Kのワークフローではダウンコンバートしたファイルを都度書き出していたが、そのままのファイルがまずは再生できる機種である、ということが選定の大きな理由となったということ。数年以内にテレビ周りの更新も計画しているということなので、次世代のマルチチャンネル再生環境とともに整備を行いたいということだ。このマルチチャンネルへの展望に関してはこの後更に詳しく掘り下げたい。ここは、4Kへの取り組みを積極的に進めている朝日放送様の取り組みが感じられる部分だ。 ◎ファイルサーバーとしてTerraBlock Facilisの導入 この選定は、神田様の意向が大きく関わっている。前部署は映像編集関係であったとのことで、そこで使っていたAVID Unityが比較対象としてあったということ。UnityはAVID製品で利用する上では非常に優れたソリューションではあったが、他のNLEで使おうとすると素材のファイル一つを見つけるにも苦労するような仕様。今回の更新ではどのクライアントからでも使い易く、汎用性の高い製品にしたいというのがコンセプトとしてあった。   また、Unityでは特定の管理者がメディアの管理を行う必要があったが、このサーバーを利用するユーザーが簡単に素材の管理を行う事のできるシステムがターゲットとなった。さらに、導入されるクライアントがPro ToolsとMedia ComposerとAVID製品であるためにそれらとの親和性ももちろん重視した部分。   そうなると、特殊なシステムを利用した製品ではなく、NASベースが候補として挙がる。NASベースであれば接続したクライアントはフラットな権限を持たせることが可能だからだ。そのような経緯から、エンタープライズサーバーとしてNASをベースとしてAVIDの互換モードの定評が高いTerraBlock Facilisが最終的に選考に残った。ROCK ON PROでの事前のPro Toolsとの運用チェックによる安心感と、サーバーメンテナンスを行うことの出来るスタッフが大阪にいる、という2点が大きな決め手となったということだ。実際に導入をしてみると速度的にも不満はなく、稼働開始からサーバーダウンしてしまうような大きなトラブルも起きていないとのこと。想定していたよりも早く安定運用が行えているということだ。 ◎トランスコーダーとしてEpisodeを導入 今後のファイルでの受け渡しを考え、Telestream Episodeも同時に導入していただいた。EpisodeはVideo Fileの変換ソフト。常にサーバーを監視し、Pro Toolsに最適な形式への変換をバックグラウンドで行なっている。エンジンとなるPCはMac Miniを4台準備し、分散処理が行われている。一つのファイルを4分割しての処理を行なっているために高速性が期待できるシステムアップだ。4台のPCによりVideo Fileの実時間の半分以下の処理を実現している。受け取れるファイルの種類も多いため、将来的にも活躍が期待できるシステムだ。 ◎現時点での具体的なワークフロー 制作編集はFinal Cut Pro 7を使用。ここで書き出されたファイルの受入が現時点では行われている。ファイナルのメディアは現時点ではHDCAMとなっているので白完パケの段階でファイルを貰い、完パケはHDCAMでもらうというワークフローだ。音戻しは完パケのHDCAMに対してリニアで行われ搬入となる。従来は白完パケのデータはリムーバブルメディアを利用していたが、システム更新後はサーバーへの直接の投げ込みと、トータルでのファイルベースワークフローへと歩みを進めている。今後の制作編集システムの更新により更なる効率化が期待できる部分である。HDCAMに関しても局全体のコンセプトとしてファイル化が命題として挙がっているためにテープレス化への流れへの一部ともなっている。   ここで命題とした「ファイル化」という言葉だが、テープレスという意味とメディアレスという意味の二面性があるという話があった。テープレスとはHDCAMというテープメディアから次世代のメディアへの更新という意味を持つ、具体的にはXDCAMのようなファイルそのものを格納しているメディアがこれに当たる。メディアレスに関してはそのデータを格納しているメディア=媒体からの脱却。サーバー上に全てのデータがあり、そのデータをそのまま最終段階まで活用するという事になる。   安定運用が最も求められる放送局という環境下ではやはり目に見える物理メディアの信頼性は絶大なものがあり、目に見えない不安定要素をはらむPCベースであるサーバーではその代替とならないという考え方が多数である。サーバーベースでの運用を前提とするメディアレスと専用ハードウェアVTRベースのメディア運用を比較した際に、やはり専用ハードの安定性が優れているという判断がどのタイミングで下され、次のステップへと移行がなされるのか、今後しっかりと見極めていきたい重要なポイントだ。 ◎先進的な取り組みへのビジョン 朝日放送様はこれまでも映画祭へ出展するための映画作品の仕上げ、様々なサラウンド作品の制作など、先進的な取り組みを多く行なっている。今後のビジョンをお聞きしたところ、立体音響、オブジェクトベースの音声制作に対する強い意欲をお話いただいた。DTSが提唱するインタラクティブなDTS:Xのオブジェクト音声から、DOLBY ATMOSの持つ高臨場立体音響など様々なフォーマットを次世代のテレビ音声として検討を進めているということだ。 今後、モニター(スピーカーだけではなく映像も含めた)更新時には是非ともそれらを見越したDOLBY ATMOS対応の環境を整備したいとのこと。各分野に対して非常に造詣の深い朝日放送様の見識、今後の市場の動向、配信サービスなど次世代メディア、コンテンツのあり方などを多角的に判断した上での選定になることと思うが、そのような先進的な取り組みをROCK ON PROも共に学びお手伝いが出来ればと強く感じるインタビューとなった。 ・左より、朝日放送株式会社 技術局 制作技術センター 和三晃彰 氏 / 神田雅之 氏 / ROCK ON PRO 前田洋介     *ProeedMagazine2016Summer号より転載

Broadcast

ROCK ON PRO REPORT !!/GAME AUDIOから劇伴まで、映像に音を付ける面白さ

GAME AUDIO業界でキャリアをスタートし、その活躍の場をTV、映画へと広げる光田氏に取材を行なった。ゲームコンソールの性能という縛りの中でつくり上げる時代から、自由な表現を駆使することのできる時代へとその変遷の中を歩んできた中で生まれたこだわり。そして、機器の進化に合わせてドラスティックに移り変わるGAME AUDIOの進化の歴史を感じられる内容となった。   プロキオン・スタジオ 取締役 光田 康典 昭和47年(1972年)1月21日生まれ。山口県熊毛郡熊毛町(現・周南市)出身。 ・スクウェア在籍初期に『半熟英雄』『ロマンシングサガ2』『聖剣伝説2』などのエフェクト音の制作に携わる。作曲家としてのデビュー作は『クロノ・トリガー』。その後『ラジカルドリーマーズ』『ゼノギアス』『クロノ・クロス』の楽曲制作を担当。 ・スクウェアから独立後の主な作品は『ゼノサーガエピソード1』『イナズマイレブンシリーズ』など。『スマブラX』でもアレンジを担当している。   なぜ?GAME AUDIOの世界に飛び込んだのか? 光田氏がGAME AUDIOの世界に飛び込んだのは、業界がまだ成長の課程にある1992年の事。1990年に任天堂よりSuper Famicomが登場した頃ということになる。なぜ、GAME AUDIOの業界に飛び込んだのかと聞くと、「学生の頃からエンターテイメントが好きだった」と。学生の当時のエンターテイメントは映画がその中心であり、全てであったと振り返る。GAMEはまだ、テーブルゲーム(インベーダー、パックマンなど喫茶店の机がゲーム機だった時代)。音楽など無く、ミサイルの発射音や、撃墜音、様々な効果音は今で言う『ピコピコサウンド』として鳴っていたが、映像と音声の融合によるエンターテイメントと言うよりは、純粋なGAMEのみのコンテツであった。そのような時代に、光田氏は映画をこよなく愛し、劇伴作家になりたいという夢を抱いていた。音楽系の専門学校に通い、作曲の手法を学びながらの就職活動。まさに時代は、変革の時代に突入していた時期である。   テーブルゲーム等のある、ゲームセンターは不良の行く場所というような風潮から、存在は知っているもののあまり触れることはなかった中、Family Computerから始まる家庭用のゲームコンソールは身近なものとして存在していた。ご承知のように、Family ComputerのGAMEには、音楽が付けられそのコンテンツを盛り上げていた。オープニングテーマがあったり、その音楽というものにも注目が集まった時代である。GAMEのサウンドトラック、オーケストラアレンジのCD等、GAMEからスピンアウトした音楽コンテンツが多数作られ始めた時代でもある。その進化、発展を見るうちに、その未来に秘められているエンターテイメント性に惹かれ、GAME AUDIOの業界への就職を決めた。 光田氏が就職をした会社が株式会社スクウェア(現:株式会社スクウェア・エニックス)。最初はシンセサイザープログラマや効果音なども担当をしたことがあったそうだが、基本的には、音楽の作曲作業が中心。元々、コンピューターが好きだったということもあり、入社3年目の1995年には代表作となる『クロノ・トリガー』に作編曲という形で関わっている。他にも音楽の評価の高い『ゼノキアス』等多くの作品に関わった後、1998年に独立しプロキオン・スタジオを立ち上げている。 プラグラマーのいる作家集団 プロキオン・スタジオは、プログラマーが所属しているという点が特筆すべき点。その成果として、DS用のKORG DS-1、M01D等ソフトウェアそのものとも言えるサウンドドライバーの開発など多彩な活躍をしている。それ以外にもiPhone App等も近年では積極的な開発を行なっている。元々は、作曲家の意図した音を再現し、再生するためのサウンドドライバーの開発を主眼としていたが、業界の進化とWwise、CRIのような優秀なMiddlewareの登場により、アプリ自体の作成の方向にシフトをしている。   今でもプログラマーがいるということで、プロキオン・スタジオでは楽曲の納品携帯は、プログラムに実装した状態で行うことがほとんどだということ。これは、通常であれば、WAVデータで納品をして実装は、各ゲーム会社が行なっていたところを鳴り方、サウンドの仕様まで含めて、確認を取るという一歩踏み込んだ制作受注の形態といえる。元々、ゲーム制作会社にいたからこそ、プログラマーが社内にいるからこそ実現しているビジネスだと感じる。更には、効果音を専門とするスタッフもいるので、GAME AUDIO全般を一括しての受注も可能だということだ。効果音と音楽の制作会社が別々である場合、どのような効果音を作ってくるのか?ゲーム音楽を作曲する際には非常に重要になるので、意思疎通ができていないと合わせるのが大変とも。それが、社内で全てを一元管理し連携することでクオリティの高い制作が実現するということもプロキオン・スタジオの大きな強みといえる。 プロキオン・スタジオの立ち上げ後 プロキオン・スタジオの立ち上げ後は、GAME AUDIOはもちろんだが、アーティストのプロデュース、劇伴の作曲など多岐にわたる分野での活躍をされている。関わっているアーティストの代表は、『サラ・オレイン』。Wii用ソフト『ゼノブレイド』のエンディング「Beyond the Sky」でボーカルとしてサラを起用。2014年には「Fantasy on Ice」で安藤美姫が同曲で演技を行い話題となる。サラ自身も『関ジャニの仕分け∞』のカラオケ得点対決でMay.Jを破るなど話題の多いアーティスト。光田氏プロデュースによるアルバムをリリースしている。GAME AUDIO分野では、前述の『ゼノブレイド』、『大乱闘スマッシュブラザーズ』等多彩な活躍を続け、アニメ『イナズマイレブン』シリーズにも参加、劇場版、TV版、ゲームとマルチに楽曲の提供を行なっている。他にも、記憶に新しい2013年のアイソン彗星の特別番組、NHKスペシャル「宇宙生中継 彗星爆発 太陽系の謎」に楽曲を描き下ろしている。   GAMEとそれ以外で作曲に関して違いはあるのかとお聞きしたところ。特には変わりはないとのこと。オーダーに関してもM番表があり、それに合わせて作るという作業自体は同様。しかし、最近では、ゲームのほうが更に楽曲数が増える傾向にあるということ。アニメや、ゲームは実写と違い、全く音の無い世界に一から音をつけていく作業になる。その際には、音のない動画を何度も見返して頭のなかに音楽が流れ出すのを待つという手法をとっているということだ。どのような映像にもリズムがあり、音が含まれている。それを形にしているということだ。 光田氏のこだわり~作品の余韻 作曲の手法をお伺いしている際に、『余韻』というキーワードにたどり着いた。他の話題の際にもお話をしていた言葉ではあるが、映像を何度も見返してその中にある音を探している際に、あまりにも説明されすぎている映像から音を導くのは大変に難しい。その映像の『余韻』、『間』という、音で表現を出来る部分があって欲しい。その映像の『余韻』に音で息吹を吹き込みたいという意思がそこからは感じられた。同様にその作品自体も『余韻』を含んで欲しい、ゲームであれば、プレイを終えたあとの余韻、CDであれば聴き終わった後に、映画であればカットの切り替えの余韻など。   たとえとして、CDデッキのピックアップのお話をしていただいた。CDが全て再生を終わった後に、読み取りのピックアップがホームポジションに戻る。その時にアクチュエーターが最速で動作をするために音がする。それがCDに収録された最終楽曲の『余韻』を台無しにしてしまうのが許せないという話だ。光田氏は関わったCDは可能な限り、最終楽曲の終わった後に10秒程度の無音を意図的に付け加えているということ。これにより、ピックアップの移動までの時間稼ぎをして”台無し”になることを防いでいるということ。このような『余韻』はプレイヤー、リスナーが想像をする余地を残すことで、その余韻は一層大きなものとなるのではないかと意見を頂いた。 GAME AUDIO黎明期の作業は、プログラミングが主体 Download : PDF 黎明期を語るためには、光田氏にご教授いただいたゲームコンソールのスペックを確認する必要がある。Family Computerは1983年登場、8bit CPU(1.79MHz)動作で、音源部分はCPUに組み込まれた「パルス波」ジェネレーター2系統、「三角波」ジェネレーター1系統、ノイズジェネレーター1系統、DPCMと呼ばれる6BitのデルタPCM音源の合計5音。現代のシンセのスペックから考えると、これらのジェネレータを組み合わせて一つの音を作るの?と思ってしまうかもしれないが、この5音でゲームの中のBGMから効果音まで全てをまかなっていた。ゲームにとって重要な効果音用に音源をスタンバイさせると事実上利用できるのは2~3音。その中で作曲した楽曲をどのように再現するのか試行錯誤をしていたということだ。しかもその音源を鳴らすためには、MIDIのような汎用のものではなく、専用の言語にコンパイルをしたプログラムを使って再生をしていたということだ。シンセを制御し、発音をするための専用プログラムと想像してもらいたい。   次の世代としては、SUPER Famicomが1990年に登場する。このゲームコンソールの登場により、音源は世代更新を果たす。そのスペックは32kHzサンプリング/8チャンネル同時発音/16Bit PCMステレオ/DSPによるエフェクト処理と当時としても最高の音源が搭載された。1990年といえば、KORGであればM1の時代、WAVESTATIONが登場した年でもある。YAMAHAでは1989年にSY77が登場しPCMシンセが登場を始めた頃。RolandはDシリーズ。JVシリーズはまだ発売されていない。そんな時代に、家庭用ゲーム機に8チャンネル同時発音のPCM音源が搭載されたというのは革新的であった。しかし、そのメモリは64KBしかなく、その中にどのようにサンプルをロードするのかというのが、プログラマーの腕の見せどころ。搭載されたDSPを有効に活用し、その能力を引き出すテクニックが必要であった。効果音にチャンネルを割いたとしても、音楽用に従来比倍のチャンネルがアサイン可能ということで、まさに、GAME AUDIOの黎明期が訪れた頃である。とはいえ、内蔵音源にPCMサンプルを読み込ませ発音するという仕組みはプログラムそのもの。その当時もMIDIベースで作成した楽曲を専用のツールでコンパイルをしてプログラムとして実装を行なっていたということ。ROMカートリッジのデータ量の制約もあるので、制約の中で工夫を重ね、イメージを形にしてゆく作業であった。   光田氏は当時を振り返り、「まさにプログラマー同士でのメモリの奪い合い。それぞれにやりたいことを実現するために限られた制約の中でのコンソールの性能の限界への挑戦が日々続いていた。」とリアルなコメント。そのスペックの進化は、表にまとめてみたので見てもらいたい。実際に作曲家として思うがままに再生を出来るようになるのはPlay Station 3の登場まで待たなければならなかったという。更に時代を進めてみよう。 PCM音源の時代から表現の自由の獲得まで その後、1994年にPlay Stationが登場する。実は、SUPER Famicomに搭載された音源チップはSONY製のものであり、Play Stationに搭載された音源はその拡張版である。メモリは512KBに拡張され24チャンネルの同時発音が可能となっている。圧縮したサンプルを使えば1曲全体をサンプリングをして再生も技術的には可能であったが、コンテンツを提供するCD-ROMの容量の制限からなかなか実現する機会は少なかったとのこと。やはり、ゲーム本体のプログラム。3D再現のためのポリゴンデータ等他にも格納しなければならないデータは山のようにあったということだ。クオリティーを最大化するのであれば、CD-ROMなのでWAVのデータを格納し、プログラムとして音源に頼らずに再生するということも出来たそうだが、データ量の問題から実現は難しかったとのことだ。   更に、2000年にはPlay Station 2が登場。同じ系譜のチップが使用されメモリは2MBまで拡張される。同時発音数も48チャンネルと思いつくままに音を重ねることも出来るような仕様だ。しかし、この頃も、コンテンツの提供されるDVD-ROMの容量との戦いは続く。音声のみであれば、十分に思えるパッケージではあるが、高性能化したグラフィックエンジンに提供するためのデータ量は増加の一途をたどり、肝となる、オープニング、エンディング以外では、なかなか楽曲丸ごとをメディアから再生するということは出来なかったということだ。   そして、「思うように作曲した作品をそのままゲーム中に再生できる」Play Station 3の登場である。2006年に登場したこのゲームコンソールは、特定の音源を搭載しておらず、ゲームコンテンツ中の音声データを直接再生できるようになる。Nuendo 7のGame Audio Connect機能により注目をあつめるAudio Middlewareもこの世代になり始めてその必要性が強調される。コンテンツメディアもBlu-rayの世代となり、容量としてもやっと余裕が出る。特定の内蔵音源からの発音から、プログラムとして自由に音声再生が可能となるのは、まさにこの世代から。SUPER Famicomがその次代の最先端の音源を搭載してから15年かかって、次の世代へと進化を遂げている。逆に言えば、自由にGAME AUDIOとして表現ができるようになってまだ10年ということだ。   余談ではあるが、2004年という内蔵音源でのGAME AUDIO制作の終盤に登場したニンテンドーDSは、同時発音数16チャンネルのPCM音源が搭載され、プログラミングによりGAME AUDIOを作らなければならなかった。こうしてコンソールスペックを並べてみると、10年前の初代Play Stationよりもスペックの低い音源が搭載されているのがわかる。光田氏は、DSのサウンド開発のために、まさに10年前の製作用コンピューターを引っ張りだして作業をしたという回想をお話いただいた。 メーカー任天堂SCE任天堂SCE 機種名ニンテンドーDSPlayStation Portableニンテンドー3DSPlayStation Vita 世代携帯機第7世代携帯機第7世代携帯機第8世代携帯機第8世代 発売日2000/11/202000/12/112007/2/252007/12/16 CPUARM946E-S 67MHzPSP CPU(MIPS R4000 Core)Nitendo 1048 0H ARM

Music

ROCK ON PRO導入事例/学校法人 片柳学園 日本工学院八王子専門学校 ミュージックカレッジ

学校法人 片柳学園「日本工学院八王子専門学校」のミュージックカレッジ・レコーディングクリエイター学科に専門学校として国内初となるAVID S6を導入させていただいた。その導入の経緯、選定の決め手などを同学科教員 藤義隆先生にお話を伺った。 日本工学院のポリシー『人間力』 日本工学院は1947年に、東京・蒲田に開校した創美学園がそのルーツとなっている。当初は洋裁と絵画の学校としてスタート、その後、織物科、英語科、人形科等を次々と開設。1953年にテレビ放送の開始をきっかけとして「日本テレビ技術学校」を設立。放送関連学科の開設を行ない、教育環境、設備の充実に努め時代の先端を行く人材を育てている。1964年の東京オリンピックではNHKの技術補助員として30名の学生を実況中継に参加させている。1976年に校名を現在の「日本工学院専門学校」に改める。この時点ですでに学生数は7500名という規模となっている。今回導入をした八王子キャンパスは1986年の開設、翌1987年に「日本工学院八王子専門学校」が開校しており、つくば万博への協力出展、米国トップの工学系大学となるマサチューセッツ工科大学(MIT)との交流協定、最先端のマルチメディア研究を行う南カリフォルニア大学(USC)との提携等、日本有数の教育機関としてその規模を拡大している。   専門学校でありながらいち早く1987年より3年制のカリキュラムも実施し、より高いレベルでの人材の育成に務めている。専門学校として、即戦力の人材育成が大きな役割ということはもちろんであるが、『人間力』の教育に実は一番力を入れているとお話を伺った。スキル、技術を通常の2年間で教育することは実際の現場レベルを考えると限界がある。そうなると、社会に出て、社会人として立派に仕事をこなすことのできる『人間力』こそが本当に一番大切なスキルであり、教育ポリシーにおける重要な要素としている。国内随一と言える設備を備え、現場からの講師を多く迎えて実践的な講義を行なっている学校が、しっかりと自身を見つめた『人間力』を大切に捉えていることは心強く感じられる。 なぜAVID S6の導入に踏み切ったのか? 日本工学院八王子キャンパスにはスタジオが4室ある。その中の3室は、音楽録音に対応したスタジオを持つ大規模な設備。これまでは、SSL 4000Eを設置したスタジオが2室、もう1室はSSL Axiom MTを設置したスタジオ。そして少し規模の小さいラジオ実習向けのスタジオには、YAMAHA O2Rが導入されている。今回の更新では、2台あったSSL 4000Eの片方、Studio Cに設置されていたもののリプレイスとなっている。   これにより、3室の大規模なスタジオは、コンソールの基礎となるインラインタイプのアナログミキサーSSL 4000Eと、デジタルコンソールであるAxiom MT、そして最新のDAWをコアとしたAVID S6というラインナップとなる。4000Eでコンソールのシグナルフローを学び、ミキサーの基礎、動作原理を学び、Axiomでデジタルミキサーならではの部分を吸収。マトリクスなど複雑なシグナルフローを学ぶ。そして、AVID S6ではDAWをコアとしたコンソールで最新のワークフローをというように、キャラクターの異なるシステムの設置により幅広い学習を実現している。   導入のきっかけは、1986年の八王子キャンパス開設当時に設置されたSSL 4000Eの老朽化と、学生の就職先がポストプロダクションに移ってきているという現状から。今、そしてこれからポストプロダクションで導入されるコンソールは何か?と考えるとやはりAVID S6が一番多いのではないか、また日本工学院はAVIDの認定校でもあり、AVIDのトータルソリューションを導入することでの学習効果の向上も目指しているということだ。 AVIDのトータルソリューションが出現 AVID S6はM40と呼ばれる上位のコアに、24 Fader , 9 Knob , Display Moduleという規模。もう少しコンパクトな構成も検討したようだが、複数の学生がコンソールの前に座って実習を行うことを考えると24 Faderは必須であったということ。そして、S6の最大の特長とも言えるVisual Feedbackを実体験し、その利便性により生み出されるワークフローを学んでもらうために、その他のモジュールもフルに実装を行なったということだ。   設置に関しては、国内初導入となるARGOSYの専用デスクを準備し、スタイリッシュに収まっている。入力段はAVID Preが準備され、S6からのリモートコントロールが可能となっている。この機能により、S6はまさにコンソールとしての魅力を持つ。バンド編成が入れるスタジオであるため、AVID Preは3台、合計で24チャンネルが導入されている。DAW部分はPro Tools HDX 2システムを導入。HDXカードが2枚のこのシステムは十分なプロセッシングパワーを持ち、様々な授業に対応が可能となっている。インターフェースには、HD I/Oが2台、アナログで32チャンネル分が用意されている。これは、他のスタジオとの整合性を取るという意味もあり、この規模としたとのこと。 それとは別のMac ProにVideo Satelliteシステムを導入。最新のDNxIOを備え、将来の4Kにも対応したソリューションとして、MA作業の実習にも活用できるようにシステムアップがなされている。将来的には、放送・映画学科に導入済みのAVID ISISとも接続を行いファイルべースワークフローの実習も実施してみたいとのこと。まさにAVID製品によるトータルソリューション。認定校ならではの充実の設備ということが出来る。   他にも、汚れが目立っていたクロスの張り替え、メインモニターとして利用していたUreiのスピーカーをGenelec 3080へ更新なども行なっている。MA用のテレビモニターも新しい物に更新された。一つ面白い機材が、タイムコードの確認用にPunchLight社のStudio Display USBというコンパクトなTC Displayを導入。手元でのTCカウンターの確認が可能。さらに同社のPunchLight DLiにより前室のRecording Lumpの制御を行なっている。このRecording LumpはPro Toolsに連動しているので、Rec Readyの状態になると自動的に点灯するという優れものだ。 導入が終わったところから、その設備を活用する方法を考えていかなければならない。『人間力』の向上はもちろんだが、これからの人材育成の方針として、レコーディング、MAといった業種の区別なく『音』のスペシャリストの育成が必要になるのではないかとのコメントを頂いた。これまでのように単一の分野に特化したスペシャリストではなく、幅広い視野を持ち『音』全般を知り尽くした人材。今日はレコーディング、明日はMA、そして収録作業など全てを任せられる柔軟な人材が重宝されるのではないか。そのような人材の育成のためにこのAVID S6の設備は十分に活用可能なのではないだろうかと将来像を語っていただいた。これからの時代を生き抜いていける人材には、どのようなスキルが必要なのか?未来をしっかりと考えてもらえる講師、そしてそれを支える充実の設備、まさに理想的とも言える教育環境がここにあると言えるのではないだろうか。 学校法人 片柳学園  日本工学院八王子専門学校 〒192-0983 東京都八王子市片倉町1404-1 Tel : 0120-444-700   キミの全力を発揮できる環境はココにある。専門学校の枠を超えた施設を有する緑豊かなキャンパス東京郊外の美しい自然環境広がる文教都市八王子にある、東京ドーム8個分もの広大なキャンパス。これが専門学校?というべき最新実習施設・スポーツ施設・福利厚生施設を備えています。いわば、近未来の学校のあり方を具現化したもの。ドラマ・CM・映画のロケ地として内外のメディアからも注目されている学校です。

Education

ROCK ON PRO導入事例/名古屋テレビ放送株式会社様 ファイルベース更新第2弾。~実際の編集室とのデータ交換で生じた問題とその解決~

全てのデータをサーバー上からストリーム再生する。全てのMA設備の共通化を図り、作業効率の最大化を図る。VikinXのルーターにより、全MA室からのナレーションブースの共有、VTRデッキの共有という更新を2013年に行なった名古屋テレビ放送株式会社。ファイルベースの恩恵を最大限に享受する為という、大きな目標に基づき更新を行なったのだが、さらに2014年度の更新として映像編集の設備がファイルベース対応となったことで編集・音声間のファイルベースでのやり取りがスタートしている。今回はそのワークフローにおける更新作業の内容をレポートしたい。 ◎ファイル受け渡し方法の確立 編集の設備もファイルベースに移行をしたということで、編集・音声間でのファイルの移動が発生することとなった。当初は、音声サーバーを拡張し編集サーバーとの共有を行うというプランもあったが、編集機の得意とするサーバーを導入することでストレスのない制作環境を整えるということを優先し、編集サーバーと音声サーバーとの間でのファイルの受け渡しが発生することとなった。   MA側のサーバーとしては、2013年にGB labs SPACEを導入していた。このサーバーは、高速なNASという特徴を持った製品。基本的にNASであるため、WindowsもMacOSもOSレベルで機能を持つCIFS、SMB、AFPといった汎用のファイル共有プロトコルでのドライブマウントが可能だ。今回の編集側との接続に際しても、その特徴から編集機側に特定のドライバーソフトのインストール無しに、SPACEに接続できるということになる。編集側のサーバーとしてはISISが選択されたが、こちらはドライバーソフトのインストールが必要。今後のメンテナンス、クライアントアプリのバージョンアップを考えるとSPACEを双方から共有した方が、長期的にもトラブルの可能性が少ないということで、SPACE内に編集とのファイルのやり取りを行う領域を確保するという方法を選択した。 実際のワークフローとしては、CIFSマウントされたSPACEの領域へ書き出したファイルのコピーを行うという非常にシンプルなもの。編集機側のOSはWindowsの為、SPACEの共有アクセスポイントにドライブレターを振り当てることで、起動時に自動的にマウントを行えるようにしている。 ◎タイムコードキャラクターの表示問題 ファイルベースソリューションで問題となることの多いタイムコードキャラクター表示。VTRを利用していた際には、デッキにキャラクター・アウトが備わっているため顕在化しなかったが、ファイルベースでは書き出されたファイルにキャラが焼き込まれていなければ、その後の表示に関して何かしらの手段を取らなければならないということになる。その手法として考えられるのは大きく下記の3種類となる。 1)キャラクターインサーターの場合(津幡技研:HD SUPER2) 津幡技研:HD SUPER2   3種の手段それぞれの、メリット・デメリットを確認していこう。先ずはハードウェアを使用したパターン。MAのシステムのVideo Playback機器からHD-SDIの出力とLTCの出力を与えることで、LTCを元にしたタイムコードキャラクターをHD-SDI入力に対してオーバーレイして出力をするという機器がある。シンプルな機能ながらリアルタイムでの処理が必要なため定価で30万円以上という比較的高価な機器となっている。メリットとしては、シンプルなためトラブルが少ないという点。ハードウェアのスイッチひとつでキャラの表示/非表示が切り替えられる点。HD-SDI/LTC という汎用性の高い信号を与えるだけなので、一般的なMAのシステムであれば特に機器の追加無く導入が可能。編集室から受け取ったファイルに対しては手を加えないので変換待ちなどのロスタイムが生じない。逆にデメリットとしては名古屋テレビ様のように複数のMAシステムをお持ちの場合には必要な台数が増加しコストに直接跳ね返ってきてしまう。6室への導入を考えると200万円近いコストになってしまうのが痛いところ。まさに、シンプル・イズ・ベストというソリューション。2室程度のMAであれば投資効果は問題ないレベルだと言えるだろう。 2)トランスコーダーソフトウェアによるファイルベースでのキャラの焼き込み telestream Vantage telestream Episode       まさにファイルベースと言えるシステムがこちら。サーバー内を常時監視し、編集から新しいファイルがやって来る度にキャラクターを焼きこんだファイルを生成して、特定のフォルダに出力をする。候補となるソフトウェアはtelestream Episode、telestream Vantage、Omneon Carbonといったところであろう。メリットは、トランスコーダーソフトが読み取れるファイル形式であれば、MA側のシステムが確実に読み込めるファイル形式に変換を行いつつ、キャラの焼き込みが行えるという点。前述のシステムであれば、大抵のファイル形式へ実時間以内での変換が可能な点。システムをバックグラウンドに集約することができるので、現場スタッフのストレスを軽減できるという点。逆にデメリットは、バックグラウンドでのシステムの為、不具合時の発見が遅れることがある点、Vantage以外は冗長化が難しいためシステムダウン時のダウンタイムが伸びてしまう可能性を秘めている点である。また実時間以内とはいえ変換に時間が必要なため、ゼロにすることは出来ないという部分もポイントである。 3)タイムコードオーバーレイ出力が可能なVideo Playbackシステム   Avid社のVideo Satelliteシステムが先ずは思いつくと思うが、受け取ったファイルに対してタイムコードオーバーレイが可能なシステムで再生を行うという手法もある。候補としてはAVID Video Satellite、Non Lethal Applications Video Slave等のソフトウェアベースの製品、SONY XDCAM Stationのようなハードウェアベースのシステムがある。メリットは、使用するシステムによって変わる。Video Satelliteであれば、編集側がMedia Composerを利用している際にそのメリットが最大化される。プロジェクト単位でのシェアを行うことで編集側からの書き出し作業もスキップすることが可能となる。Video Slaveは国内では実績のないソフトウェアだが、シンプルに再生が可能な多機能な同期再生ソフトだ。コストを度外視すればXDCAM Stationという選択肢もある。このVTRデッキはSSDストレージを搭載しているので、CIFSでファイルの投げ込みが可能である。それを9Pinで同期を取りキャラアウト出力を映すということでも実現する。デメリットは、それぞれではあるが、コストが高いということだろう。また、個別のシステムを同期するということになるので、トラブル時の同期ズレの問題からも逃れられない。それぞれに多機能な部分は あるのだが、その部分に明確なメリットを見つけられるシステムであれば導入検討を進める価値があるのではないだろうか。 ◎名古屋テレビ様での選択 既存システムへの変更を最小限とし、現場スタッフの混乱を減らすということを念頭に置き、また、編集とのファイルの投げ込み方のワークフローから逆引き的な検討を行なった結果、先ずは3:Video Playbackシステムでのキャラ焼きは候補から外れた。今回の検討ではVideo Satelliteシステムが候補に挙がったが、編集に導入されるISISに接続をしプロジェクトと共有を行うには、その導入コストと、帯域的にISISの筐体を追加しなければならないというコスト両面から見送りとなった。 ハードウェアと、ソフトウェアどちらを選択するかというところで、メリットとデメリットの精査を進めた結果、2:ソフトウェアのパターンが最終的には採用された。コストという判断が大きかったというのもあるが、将来的に、送り込まれるファイル形式の多様化にも対応でき、且つ実時間の半分以下の速度での変換を実現するということが実証されたため、ソフトウェアベースでのシステムを導入となった。選んでいただいたのは、terestream Episodeである。 今回導入していただいた terestream Episodeは複数PCでのクラスタリング処理を実現する最上位のEpisode Engineをコアとして4台のMac Miniでシステムを構築した。この4台のクラスタリングシステムでh.264への変換が実時間のおおよそ40%で完了する。ファイルベース運用初期ということもあり、同時に編集からのファイルの投げ込みは無いという想定でEpisodeという選択となっている。ちなみに、同時に複数ファイルの処理をしたいという場合には、同社のVantageの出番となる。 ◎実際のワークフロー 編集からの投げ込み用のアクセスポイントと、編集側への音声データを投げ返す為のアクセスポイントがSPACE内に新たに用意された。前述のファイルトランスコードエンジンであるEpisodeは投げ込み用のアクセスポイントを常時監視していて、変換作業後には音声側のMAスタンバイ素材のフォルダに送り込まれる。変換完了後には、投げ込み用のフォルダからファイルは自動的に削除待ちのフォルダへと移動され、変換が完了したことがわかると同時に、削除してもよいファイルということで自動的にフォルダ分けが行えるようにしている。万が一Episodeがエラーを返し、正常に終了しなかった場合には、"Failed"というフォルダーを作成してあり、そこにファイルが転送される仕組みだ。このフォルダに素材がある場合には書き出されたファイルの不具合、もしくはEpisode自体の不具合を疑うという具合だ。 そして、MAが終わった完パケWAVデータは、SPACEの投げ返し用のアクセスポイントに置くことで、編集側との共有が可能というシステムだ。編集側からは、最低限のSPACE内の領域しか見ることが出来ない仕組みをとっているためにトラブル時の切り分けもし易いよう工夫を行なっている。 ◎今後の課題 編集側とのファイルの受け渡しが本格化すると、今まで十分であったSPACEの容量が逼迫する可能性が大いにある。そのために、SPACEの容量拡張とともに、過去素材のアーカイブを検討する必要が生じている。一般的には、放送局様での実績が高いアーカイブソリューションとしてはLTOということになるが、1つのデータ量が少ないMAのデータ保存にはあまり向いていないように感じている。これは、LTOの容量が大きいため、数カ月分のデータが1巻のテープに収まってしまうため。MA向けとしては、100TB程度の容量を重視したストレージサーバー上でホット・アーカイブを行うというのがベストソリューションではないだろうか。ビッグデータも、クラウドサービスなど、データ資源の一極集中が始まっている。そのような中、HDDストレージの容量単価の低下から1PB程度を境に、LTOのコストとHDDを使用したストレージサーバーのコストの逆転が見られるようになってきている。長期保存という点ではLTOに軍配が上がると思うが、アーカイブデータへのアクセス性を考えれば、HDDストレージでのホット・アーカイブの方に理があることは一目瞭然である。 ◎telestream Episode   今回、名古屋テレビ放送様で導入いただいたtelestream Episodeは非常に多くの機能をもったVideo Transcoder Software。限られた紙面ではあるがその機能の幾つかを紹介したい。今回の導入に当たり、キーとなった機能がSplit-and Stitch。これは、複数のPC(Win / Mac問わず)をクラスターとして並列処理を行うことで高速なトランスコードを実現する機能。通常であればクラスターを管理するSQL serverのような存在が必要となるが、Episodeでは同一のサブネット上に存在するPCであれば、簡単にクラスター化することが出来る。動作の原理は非常にシンプル。   まずは、変換元のファイルをSplitする。クラスターの参加台数に応じて切り分け、それを各PCで変換することとなる。変換が終わったら、ばらばらになったファイルをStitchする。つなぎ合わされたファイルは変換後の完成品となるという仕組みだ。これにより、CPUのパワーをフルに利用し、PCの台数に応じた高効率なファイル変換を行うことが可能となる。Splitする、Stitchするという工程で多少の時間は必要となるが、単純に2台PCがあれば約1/2、3台では約1/3と劇的に短時間での変換が出来るようになる。高価なCPUを搭載するよりも、低価格なPCを束ねたほうが早いという面白い現象がこの機能により生まれる。実際に、1台のハイスペックなMacProよりも、4台の標準構成のMac miniの方が高速に変換が行える。今後の処理の増大に対しても、別スペックのPCを接続することでの高速化が望めるのもメリットの高いシステムである。それこそ、Episodeのライセンスは必要ではあるが、余剰のPCを使うことも可能だ。   また、本文にもあるがEpisodeはフレームレートの変換、画角の変換などVideo Fileの主要な要素のほぼ全てを変換することが出来る。どのようなファイルがやってきたとしてもその後の作業で確実に処理の行えるファイルに変換を行うことが可能だ。名古屋テレビ様では、ファイルサイズの小さいh.264への変換作業をEpisodeで行っている。編集側での作業では時間のかかってしまい敬遠されがちなh.264への変換を、4台のMac miniにより実尺の1/2以下の時間で変換の行うことに成功している。そして、その後の作業で利用していただいているPro Toolsで確実に読めるファイルになっているというところも大きなメリットとなっている。もちろん変換の主目的は、キャラの焼きこみであるが、それ以外に複数のメリットを享受できていることとなる。 今後もROCK ON PROとしてより良いワークフロー、作業環境を名古屋テレビ様に使っていただくためにご要望からアイディアを生み出していきたいと考えている。順次ブラッシュアップ、定期的なメンテナンスが、アナログのソリューション以上に重要となるファイルベースのシステム。今後の名古屋テレビ様のシステムの発展も順次レポートできればと考えている。

Broadcast

株式会社松竹映像センター / 総合ポストプロダクションが加速させるワークフローの最新Style

松竹と聞いてまず思い浮かべるのはなんだろうか?京都太秦の映画村だろうか?それとも歌舞伎座だろうか?それとも「男はつらいよ」「釣りバカ日誌」?今年が120週年という松竹、その存在自体が日本の娯楽史とも言える。その歴史の中には、数多の名作、名演が残されている。古くは、小津安二郎監督、野村芳太郎監督等、日本映画史に残る会社であり、歌舞伎を現代に伝える会社でもある。   その中で、松竹映像センターの歴史を遡ると大船にあった松竹撮影所にそのルーツが有る。撮影所のポストプロダクション部門が独立した神奈川メディアセンターを母体とし、パッケージメディアの制作、CSの衛星劇場、派生のポストプロダクション作業の増加に伴い成長をしている。2015年1月にお披露目を行い稼働を開始した松竹映像センターの新拠点。元々は、大船の映画関係作業を中心としたダビングステージ、高輪台の映像編集とMAを行っていたポスト・プロダクション、そして銀座の事務所機能という3拠点に分かれていたシステムを統合し、ワンストップでの制作環境を提供する目的で作られた最新の設備だ。事務所機能、映像編集、MAスタジオは7Fに、旧大船にあった映画音声のファシリティーは天井高の取れる1Fに配置されている。ゆとりある空間で、快適なクリエイティブ作業を行ってもらいたいというコンセプトのもとに開放的な空間がそれぞれの設備には広がっている。更には、松竹の持つ豊富なコンテンツの資産を活かすためのMAM(Media Asset Management)を新設、映像編集、映画音声関連のファシリティーの強化など多岐にわたるシステム強化が行われている。   それぞれの部屋ごとに、単純な移設にとどまらない様々なブラッシュアップが行われており、統合されたワンストップでの制作環境が誕生している。トータルのデザインは乃木坂ノソニースタジオ等日本にも馴染みの深いピーター・グルナイセン氏の手によるもの。アメリカ「MIX magazine」の2015年度世界優秀新スタジオ18選に日本のスタジオとしては唯一選ばれ、海外からの注目も高いことがわかる。ROCK ON PROは今回の移転に伴い、全面的にオーディオ関連設備のお手伝いをさせていただいた。歴史と伝統、そして最新のソリューションへの飽くなき追求を行う現場のスタッフの皆さんと日々議論を戦わせながら完成した、次世代を担う最新の設備をご紹介していきたい。 1:ダビングステージ System5を中核とした96kHz対応のFilm Dubbing System 大船にあったAVID system 5コンソールを移設した映画本編仕上げ用の空間。常設となる5台のPro Tools HDXからはそれぞれ64ch@96kHzの出力が可能。InterfaceにはHD MADIが接続されSSL Alpha Link SX MADIによりDAされアナログでミキシングシステムへと接続が行われている。ミキシングシステムは96kHzでの動作でダビングに耐えうるチャンネル数の入力を確保する、ということを念頭にシステムが構築されている。この入力段にはミキサーシステムとしてのNuendoが準備されている。Nuendoは負荷分散という意味もあり3台のHP Z440にインストールされた。そのI/Oには、RME HDSPe MADI FXがそれぞれに2セットずつ設置されている。このHDSPe MADI FXは1セットあたり3系統のMADIの入力を持つため、192ch@48kHz、96ch@96kHzというスペックだ。都合1台のNuendoで192ch@96kHzのI/Oを備えているということになる。この3台のNuendoはEuConでSystem5からのコントロールが行える。System5のミキシングエンジンを最終ステムミキサーとして、その前段でのステムミックスを受け持つこととなる。EuConでのNuendoの統合はフェーダーコントロールだけではなくEQ,COMPといったコンソールとしての基本機能が遜色の無いレベルで統合される。もちろん、Pro Toolsも同一のネットワークに存在するために作業形態にあわせて、EuConでコントロールするPCは自由に切替が可能だ。 徹底した比較試聴で選ばれた音質に対するこだわりの機材 最終段のレコーダーもNuendoがチョイスされ、コンソールとはアナログで接続されている。通常であればSRCを使ってサンプルギャップを埋めてしまうことも多いのだが、その音質変化を嫌い全ての接続段でDA/ADを行いアナログによる接続をとっている。完全な線形を保つアナログを介し、デジタル・ドメインでの不要な処理を回避するこのシステムアップは、音楽のマスタリングスタジオで音声を一旦アナログで処理をするというその手法と共通する音質に対するこだわりを見ることが出来る。大規模なシステムであるために各パートでの音質の差異を最低限に押さえる必要があるが、シグナルフロー上のD/Aコンバーターに関しては全てSSL Alpha Link SX MADI、A/DコンバーターはDirect Out Technologies ANDIAMO.2に統一をするというこだわりにより構築が行われている。 Room EQの統一によるReference環境としてのStage 1Fの全ての部屋に共通となるが、Room EQとしてReal Sound Lab社のAPEQ-8 proが導入されているのも特徴の一つ。共通のRoom EQ機器を採用することで、音色差を極力減らしたいという意向の現れでもある。同一のアルゴリズムにより導かれ、同一のエンジンにより処理されフラットバランスを導くことによる共通性を求めている。このAPEQ-8 proは音響パワーという独特な数値を元にその補正を行っている。音響パワーとは『単位時間あたりの面を通過する疎密波の仕事量』ということになるのだが、それによって導かれる効果は、平均化されたデータにより導かれたターゲットに基づいて補正を行っているために想定点を中心に広い範囲で最適な補正の効果を得られるというメリットを持っている。これは広い空間を持つダビングステージでの効用が大きく、もちろん、物理的なスイートスポットは有るものの効果の及ぶ範囲が広いために複数人でのミキシング作業を行うダビングステージでは最適な補正技術であると言える。そしてスピーカーマネージメントにはPeavey Media Matrix Nionを採用している。このモデルは十分なプロセッシングパワーを持つDSPを搭載している。今回のシステムではモニター段にあたるB chainのデジタル機器はサウンドの純度を保つために96kHzでの設定を行っているが、このNionは96kHzでの設定においても十分なプロセッシングパワーを提供している。実際に内部では前段のプロセッサーで生じたレベルの微調整、EQ,Delay,CrossOver,Distributionを行っている。また、プリセットの切り替えにより7.1ch/5.1chの切替もここで行うようなシステムアップだ。 映画館との差をなくすための様々な工夫 スクリーン裏のスピーカーシステムはJBL 5732 3-Wayをフルバッフル仕様でLCRに設置。SWは4645Cを2本、左右に設置している。この選定は制作段階でのリファレンスとするべき関係各社の試写室のシステムを総合的に判断している。これらのLCRとSWのアンプはスピーカーレベルでの引き回しを最低限にするために、バッフル裏に設置が行われ、ここはLab.Gruppen C88:4が採用されている。機材選定に際しては消費電力量と、発熱量が検討されたが、1台2Uのスペースで8800W/4chの出力を持つこのモデルはこの位置への設置には最適であった。接続はHF,MFにそれぞれ1ch、LFはBTLで4400Wを当てている。2台のSWへの接続もBTLとしているが1台で賄えているのが4chモデルのメリットと言えるだろう。ここへは都合4台のC88:4が専用の変圧トランスを介し120V供給で設置されている。サラウンドスピーカーにはJBL AC18/95が採用された。このモデルは、余裕の500Wとという定格と、90度という広い指向角を持ち、最近のシネコン等新しい上演館で採用が多く見られるモデルだ。シネマカーブをNionに任せることでこのような自由なスピーカーセレクトを実現している。   スクリーンはもちろんサウンドスクリーン、有効寸法で横幅7mというサイズが確保されている。大船のスタジオと比較して縦横ともに2mほど部屋は小さくなっているが、スクリーンサイズは妥協をせずに同等のサイズをキープしている。映画はシネスコ(シネマスコープ)サイズを最大として左右を袖幕で詰めてビスタ、スタンダードへとサイズ変更を行うのが一般的。そういったことから、シネスコでの最大幅を十分に取ることが重要となる。幅7mのシネスコとすることで縦寸法を約3m確保することに成功している。 どのような要望にも答えられる柔軟なシステム ダビングは、作業を行う『組』により環境がガラリと変わる。堅実なバックボーンと、柔軟性を併せ持ったシステムアップということで、随所に余裕をもたせた回線の設計が行われている。再生機であるPro Toolsと同列には、持ち込み機器用の64chの入力をアナログ、AES/EBU、MADIとどのような機器を持ち込まれても接続できる用に準備が行われている。ダビングステージ側にもアナログ、AES共に24chのトランク回線が有りDolby,DTSなどのフィルム用の仕上げにも対応できる準備が行われている。   柔軟性は、作業環境の主体となるコンソールにも及ぶ。モジュール構造のSystem5ということを最大限に活かし、あえて固定をせずに、作業スタイルに合わせて自由に並び変えが行えるよう、特注の専用デスクを作成した。モジュールを取り外した隙間にはPCのDisplayを固定できるような仕組みも取られている。大船のスタジオでも特注のコンソールデスクを使用していたが、そのコンセプトを更に拡張したデスクとなっている。 どこでも作業ができるフレキシブルな設計 Pro Toolsの操作はこのコンソールに組み込まれるディスプレイと、Ergotron製のカートが受け持つ。カートには、SDIで延長されたPC Display、Ethernetで延長されたUSBが組み込まれ、モニタリング用のAES、電源と合わせてたった4本のケーブルで成立している。このPC Display用のSDIとUSB延長用のEthernetはマシンルーム側でパッチ出来るようになっており、好きな端末で操作を行うことが可能となっている。このシステムはダビングで完結しているわけではなく、後ほど紹介をするADR,Sound Design各室でも操作が可能となっている。ダビング中にまとまった直しを行いたい際など、そのままの環境を別の部屋から操作が行えるようになっている。   ミキサーとしてのNuendoはコンソール脇のアシスタントデスクに集約されている。4画面が用意されたこの部分だが、Adder CSS4-USBを組み込むことで1セットのKeyboardとMouseで操作できるようにセットアップされている。4画面には通常ミキシングエンジンのNuendo3台とRecorderのNuendoが表示されている。更に裏にはSystem5の設定用のeMixも映るよう接続が行われている。Nuendoはカートに送られる回線と同一の延長システムを利用しているので、組み換えも自在に行うことが出来る。 同期のコアユニットはVikinXを採用 その足元にはこのダビングステージのコアとなるシステムが収められている。全てのシステムはLTCで同期をとっており、そのMasterとなる機器のセレクターがここにある。後述するが、リファレンスの異なったそれぞれの機器間をアナログでつないでいるために、実はこのLTCシンクが理にかなった方法だという一面も有る。それ以外にもFilm同期用の機器、プロジェクターへの入力信号の切替器、緊急用のスピーカー用アンプの一括電源が用意されている。   外部エフェクターは全てミキシングエンジンに96kHzドメインで直結されている。System6000、Eventide H8000、CEDAR DNS3000、YAMAHA SPX2000が用意されており、全てのエフェクターはデジタルでの接続というのもこだわりのポイント。サウンドの純度を最大限に保ち、高品位なデジタルデータそのままに処理を行おうというコンセプトだ。ここにはアナログ、デジタルそれぞれのメリット・デメリットをしっかりと理解し、使い分ける独自のフィロソフィーを感じる。 こだわりのマスタークロックは5機種がスタンバイ そして、このスタジオのこだわりを反映させたポイントはさらに続く。音質の肝となるMaster Clockを複数用意しているのもその特徴と言えるだろう。基本としてはAudio&Design Syncroginius HD-PRO+がノンパッチでの接続となるが、それ以外にもAntelope OCX-V、TASCAM CG-1800、Rosendahl Nanosync HD、Aardbvark AardSyncがある。中でもTASCAM CG-1800は複数台有り、サンプルレート違いのDAWへのリクロッカー、Pull Up/Pull Downへの対応などでの活用を想定している。近年、映画の基本である24fpsからTV向けである23.976fpsが多く用いられるようになっている。劇場側も23.976fpsの受入がDCP対応により完了しているため、その後のTVでの放送などを見越して当初より23.976fpsで制作されることも多くなってきている。このように24fpsと23.976fpsの混在した中での作業をスムーズに行うため、同一のリファレンスからDAW内部でPull Up/Pull Downをするのではなく、リファレンス自体をPull Up/Pull Downしたものに対して同期を行うということで、このシステムを成立させている。つまり絶対的なスピードのキャリブレーションを取ったところでLTCによるポジション指定を行うことでシステムとしての成立をさせているということ。なぜ一般的な手法ではなくこのような手法をとっているかといえば24fpsで仕上げた作品を23.976fpsのマスターに仕上げるといったシチュエーションを想像して欲しい。音質変化を極力減らした環境を作ろうとすれば、このような手法になるということだ。   今後を見越した4Kプロジェクターの導入 プロジェクターは4K対応のモデルを導入し、今後の高画質化にも対応できるシステムとなっている。4K対応のプロジェクターもあるが忘れてはならないのが、大船から移設した映写機。ダビングステージから映写機がなくなっている今、フィルムでのダビングが可能なこのスタジオの価値は計り知れないものがあると思う。シネコーダーも最低限ではあるが移設をしているためにシネテープによる仕上げも可能となっている。この1Fにはフィルム編集室も用意され、スタインベックも移設が行われている。デジタル全盛の今だからこそ、このようなフィルムの技術をしっかりと残していってほしいと思う。   2:ADR あまり聞き慣れない言葉かも知れないがADRとはAutomated Dialogue Replacement、もしくはAdditional dialogue recordingの略となる。日本風に言えばアフレコである。こちらも広い空間を持つスタジオとなっており、48chという十分な回線数が準備されている。先ずはコントロールルーム側から見て行きたい。 共通化されたRoomEQで音質差を最低限に押さえる コントロールルームはダビングステージと同様にReal Sound Lab APEQ-8 proにより補正されたサラウンドシステムが導入されている。映画のスタジオらしくウォールマウントでのデフューズサラウンド仕様でスピーカーが設置されているが、ITUに変更も出来るように壁面にはコンセントが用意されている。その際のAPEQ-8の補正データもすでに準備が行われているのでプリセットを切り替えるだけでシステム変更も可能となっている。 こだわりの96kHzシステムが生み出す高音質 この部屋もシンプルなシステムながら、メインのシステムは96kHzでの動作を基本としている。Recorderとのクロックの縁を切るためにアナログを介在したダビングと同一の思想に基づいたシステムが構築されている。中心にはYAMAHA O1V96 VCMを採用、このデジタルの入出力をフルに活用し、やはりD/Aコンバーター部分にはSSL Alpha link MADI SXを用いり、ダビングとの整合性を可能な限り取っている。マイクプリはRME OctaMicとQuadMic。COMPにはオリジナルのUrei 1176と1178が用意されている。回線数自体は十分にあるので、追加でMicPreを持ち込めば更に収録チャンネル数を増やすことが可能というわけだ。 様々な用途に対応する大空間スタジオ スタジオ側は、天井の高い広い空間が確保されている。適度な吸音によりデッドすぎず、ライブすぎない程よいバランスに仕上がっている。床の中央部分だけがタイルカーペットとなっているのは、この部分を剥がすことで浮床のコンクリートが直接露出できるようになっているためだ。これは、足音などの収録を想定して、簡易的なFoleyの収録も念頭に設計されていることによる。機材的には、マイクスタンドを新調しTriad-Orbit社のスタンドを採用している。このスタンドはワンタッチロックで操作性に優れていると定評のブランド。しっかりとした作りなので、重量のあるマイクでも問題なく設置することが出来る。また、高さもあるので最大3m近いところまでリフトアップすることも可能。もう一つ、音質へのこだわりでEnhanced AudioのM600というマイクホルダーを導入した。今回はNeuman u87用に導入をしていただいたが、もちろん径さえ合えば他のマイクにも利用可能だ。点で固定することで共振を排除するという従来のマイクサスペンションとは、一線を画した思想により開発された製品である。   3:Sound Design Sound Designは共通の設備が3室準備されている。モニターシステムはADRと同様にSSLでD/AコンバートされたものをAPEQ-8 proで補正を行っている。清水氏はこのSound Designこそモニター環境が大切だと考えており、設計もそのコンセプトに基づき行われている。この部屋で仕込まれたトラックを仕上げのダビングステージでモニターした際に、どれだけ違和感、差異を感じない環境とするか、このポイントにこだわり機材の選定設計が行われている。部屋のサイズ、容積共に大きく異る部屋ではあるが、Real Sound Lab APEQ-8 proの効果もあり非常に近いモニター環境が構築できている。 徹底した比較試聴でセレクトされたスピーカーシステム そのコンセプトを支える機材はもちろんスピーカーであるが、この部屋へ導入するスピーカーは現在国内に輸入が行われているほぼ全てのモデルが試されている。Genelec,Focal,ADAMといったモニター・スピーカーメーカーからSR用途のNEXOなどに至るまで比較試聴が行われたのだが、その手法も大船のダビングステージにそれらのスピーカーを持込み、スクリーンバックのスピーカーとニアフィールドで切り替えても違和感のないモデルを選び出すという徹底した比較だ。その中で選定されたのがADRでも採用が行われているYAMAHA MSP3である。しかし、この小型のスピーカーだけではどうしてもスクリーンバックのJBL程の低域の量感を感じることは出来ない。ここで同じくYAMAHA SW10と組合せてLCRの3chをベースマネージメントすることにより、そのコンセプトが実現するよう解決している。意外と言うとYAMAHAさんに怒られてしまいそうだが、MSP3の低域のROLL OFFとSW10の高域のROLL OFFが自然なクロスオーバーとなり全く違和感を感じない。そして、SW10は3ch分のベースマネージメントが出来るというのも大きなポイント。2.1chのモニターを考えたモデルは多いがそれらはもちろん入力は2chしか無い。そうなるとLCRの3chをベースマネージメントしようとするば最低でも2台必要となる、それ以外に0.1ch用のSub Wooferも必要なために部屋がSub Wooferだらけということはあまり望ましくない。このような理由からMSP3 + SW10というシステムが導入された、是非ともこの組合せはお試しいただきたいと思う。   作業用のPCはPro Toolsが用意されている。常設のシステムとマシンルームのシステムはパッチにより切替が可能。1Fに有るDAWであれば、どのPCも操作が可能である。音声回線も全てのバックボーンはMADIで構成されているのでこちらもBNC PATCHにより任意の部屋でモニタリングが可能となっている。   4:Audio Suite こちらは高輪台からの移設、珍しいAVID ICON D-ControlのDual MAINシステムが導入されている。それぞれに接続された2台のPro Toolsと映像再生用のVideo SatelliteがSatellite Linkで同期されている。それぞれのPro Toolsは16chがたすき掛けに接続されているので、片方が不調の際には、すぐにスイッチしてそのまま作業が続行できるようなシステムアップがなされている。このメインのシステム部分には大きく手を加えずに、再生環境のブラッシュアップを目指した更新が行われている。 85dBの余裕をもって鳴らしきるADAMの迫力 この部屋の特徴は何といってもスピーカー。2ch用の既存のADAM S5X-Hが目立つが、今回の移設に合わせサラウンド作業用に7.1ch仕様でADAM S3X-Hが導入された。S3X-Hの導入により、十分な低域までのフルレンジで量感あるサラウンド再生をベースマネージメント無しで実現している。そして、スピーカーに余裕があるのでリファレンスレベルを85dBsplに設定した際にもフルビットまで破綻のない余裕ある再生を実現している。 音質のこだわりはDAコンバーターにある その音質を裏で支えるのがPro ToolsのメインアウトにセットアップされたRME ADI-8 DS。再生音質に対して音質影響の大きいD/Aコンバーターを聴き比べ、最適と思われるADI-8 DSを選定していただいた。色付けが少なく、解像度の高い印象とコメントを頂いたこの機種はモニタリングには最適といえるだろう。そして、スピーカーマネージメントシステムも音質にこだわり、Peavey Media Matrix Nionをセレクトしている。1Fダビングと同様にAudio Suiteでも96kHzでの動作を行わせている。5.1ch/7.1chの切替はもちろん、ベースマネージメントのON/OFF、X-CurveのON/OFFといった機能をプログラムしている。 柔軟な運用を可能とする多用途設計のブース また、高輪台と比較して広くなったブースにもこだわり、机に座ってのナレーションだけではなく反対の壁を向けばアテレコもできるようなシステムアップとしている。コミュニケーションシステムを追加し、通常のCufとCue Boxのデュアルシステムとした。マイクの回線にも手を加え、今まで本線に利用されていなかったApogee Rosetta 800をマイクの入力段へと接続変更を行っている。これもRMEと同様に聴き比べを行った結果であり、担当の吉田氏のこだわりが見える部分である。   5:MAM / 映像ソリューション / Film Edit MAM あまり聞きなれない言葉かも知れないがMAM=Media Asset Manegimentである。ここでは、松竹の持つ膨大な過去作品アーカイブのMedia Assetを行っている。AVID Interplay MAMがそのマネージメントツールとして利用されており、映像1フレーム単位でのメタデータの書込が可能となっている。「男はつらいよ」を例に取ればこのフレームからこのフレームまでが帝釈天のシーンで寅さんが登場しているといったことを記録し、これを後から検索することが出来るようにする仕組みだ。まずは、過去の人気作品から作業をスタートし、今後は、新作も順次メタデータの入力を行っていきたいとのこと。そのデータストレージはEMC Isilonが採用されている。このサーバーはスケールアウト型NASと言われる種類の製品で、内部のデータを消去することなくサーバー筐体の追加で容量を拡張できるという大きなメリットを持つサーバーだ。 映像ソリューション 他にも、編集室が3室、AVID編集室が3部屋、FCPを備えたノンリニア室が4室、インジェストルーム、プレビュールーム、QCルームと多様な設備が備えられている。映画はもちろん、そこから派生するパッケージメディア、配信メディアなどにも対応できる設備が整えられた、まさにOne Stopで作業を完結することのできる総合ポストプロダクションとなっている。編集用のサーバーシステムにはAVID ISIS5500が導入され、徐々にではあるが活用が始まっているとのこと。将来のファイルベースでのワークフローへの準備もすでに終わっているということになる。 Film Edit 更に1FにはFilm編集室も有り、なんとスタインベックが!! フィルム編集を行うスタジオでよく見ることが出来たこの機械も、一気に進行したDCP化の中でその姿を消している状況。Film映写機を備えたダビングステージと共に、これからも活用されることに期待をしたい一台。Filmを使用して映画を取るという伝統、技術は継承してもらいたいと切に願うところだ。 会社自体が日本映画の歴史そのものとも言える松竹。そのポストプロダクション部門は、これからの様々な形態のメディアへ対応すべく劇的な進化を遂げた。Filmから、最先端のアーカイブのMAMまでデジタルとアナログ両方に精通したスタッフが揃う松竹映像センター。今まで高輪台と大船という離れた地にあった2つのソリューションが融合し、今後のワークフローの加速が期待される。なお、松竹作品だけではなく、外部からのお客様も受け入れを行っているということだ。まさにOne Stopでの作業を実現するファシリティーが揃ったこのスタジオ、今後どのような作品がここから生まれるのか楽しみでならない。 株式会社松竹映像センター エンジニア 吉田優貴 氏

Post

Sound Design のベース DOLBY ATMOS 普及の鍵となるスタジオが完成 〜 beBlue AOYAMA 〜

東京・青山という都内屈指の立地に世界各国で導入が進む Dolby Atmosへ対応したMAスタジオが誕生した。THX pm3認証も得た環境でCPU ベースのレンダリングエンジンによるDolby Atmos 環境とホームシアター用RMUを使用したリマスタリング環境を実現可能としたシステムは、将来へも布石した先進のスタジオと言える。今回の導入事例では数々のアイデアが詰め込まれたシステムの詳細に迫りたい。 01 プロジェクトを推し進めた DOLBY ATMOS というキーワード 有限会社ビー・ブルー様は名古屋に本拠地を持つ、主に映像作品のサウンドデザイン(選曲・音楽制作も含む)を行っている会社である。物語の始まりは「東京にスタジオを作りたい」という構想を、THX pm3認証に沿ったプランニングで数多くのスタジオ構築に実績がある染谷 和孝 氏に語ったところから始まる。東京には2chのMA スタジオも5.1chのMA スタジオも多数存在する。新しくスタジオを作るとなると同じようなコンセプトのスタジオを作っていたのでは成り立たない。そこでしっかりとした個性を持ったスタジオを作るには明確に差別化されたコンセプトが必要となる。   その答えを見つけるターニングポイントとなったのが東映株式会社でのDolby Atmos対応のダビングステージを視察した際のこと、Dolby Atmosというキーワードの実際を見る事によってこれまでの計画は一つの方向に向かって急激に走り出していくことになる。元々のコンセプトとしてTHX pm3の認証とシーリングスピーカーは導入したい考えであったが、そのシーリングがDolby Atmosに出会って大きな化学反応を起こし、今回のコンセプトに「小規模スタジオでのDolby Atmos」という一つの目標が出来たとも言える。しかし、まだその時点では「Local Renderer」の正式リリースの声は聞けず、結果的にはリリースを想定しての船出となった。また、その新しいチャレンジと言えるDolby Atmosのシステムアップだが、やはり予算との擦り合わせは大きな課題となる。果たしてDolby Atmosの導入コストの規模感はどうなるのか、ベースとなる音響を整えた環境は構築できるのか、新しいコンセプトとの折り合いは有限会社ビー・ブルー様にとってもこだわりを持って臨む新たな試みとなった。 02 DOLBY ATMOS 導入を推し進めた Local Renderer 前述のように当初はDolby Atmosの構想はなく、7.1chの整えられたレギュレーションに基づいたMAとしてコンセプトを考えていたとのことである。5.1chであればしっかりと調整が行き届いた設備もあるが、7.1chとなると整った環境を探す事も難しい。その一方で、Blu-rayやゲームコンテンツなどは既に7.1chがベーシックとなっており、7.1chの設備をきちんと整える事は充分な意味を持つ。また、MAと言えば48kHzがデフォルトとなりデジタルでシステムが組まれていることも多いため、ハイレゾ(96kHz以上)への対応も差別化を図る上で重要なコンセプトとなっていた。この7.1chとハイレゾ制作というベーシックプランにDolby Atmos対応が加わってスタジオのプランは試行錯誤を繰り返して行くことになる。 そして2014年春、ついにLocal Rendererの大まかな情報を得ることが出来た。それまでのDolby Atmos制作環境はシネマ用のダビングステージ向けシステムしか用意されていなかったが、このLocal Renderer の登場により中小規模のスタジオでも視聴環境が整備できればDolby Atmosの導入が可能となる。つまり、この発表によって初めてDolby Atmos作品の事前作業(プリミックス)への希望が明らかになり、スタジオ構築の方向性も定まっていく。例えば、完成後の設備追加では環境整備(音響調整)が難しいDolby Atmosフォーマットのスピーカー配置など、そのプランニングが一気に現在の完成形へと固まっていった。ちなみにLocal RendererとはDolby社が提供するPro Tools用プラグインで、Dolby AtmosのレンダリングをCUPベースで行うことができ、ダビングステージに持ち込む効果音等のサウンドデザインをニアフィールドDolby Atmosモニター環境で行うことができる製品である。   しかしながら、この2014年春の時点の情報では、Dolby社のLocal Rendererに関しては技術発表の段階であり、明確なリリース時期や本当にリリースが果たされるのかも不透明な状況。その中でもスピーカー配置などハードウェア的な準備がなければDolby Atmosの導入も難しくなってしまうため、アコースティックデザイナーである株式会社ソナの中原氏による緻密な音響設計が行われ、先行して設備を準備しLocal Rendererの登場を待つということとなった。 結果的にこのLocal Rendererの発表タイミングはbeBlue様にとって「非常にラッキーだった」と代表の青木氏も強調されていた。シーリング(天井)のスピーカーに関しては躯体の補強など様々な追加要素が必要となり、既存スタジオにシーリングを追加するハードルは高いと言える。これが設計段階からシーリングを見込んでプランニングが出来たのもLocal Rendererの開発が有限会社ビー・ブルー様にとって絶妙のタイミングで行われたからに他ならない。もしその開発が半年遅かったらDolby Atmos用のスピーカー構成にはなっていなかった可能性もあったとのこと。このほかにもDolby Atmos ホーム用のRMU(Rendering and Mastering Unit)の提供が開始したのもまさにスタジオの工事期間中。このRMUは シネマ用のプリントマスターから、ホームシアター用にDolby Atmos ミックスをリマスタリングするDolby Atmos ホームにとってのまさに心臓部、そのアジアでの1号機がこのスタジオに導入されている。このスタジオのプランニング、工事の進行と共にキープロダクトが発表されていくという非常なラッキーを携えてスタジオは完成していくこととなった。 03 DOLBY ATMOS と THX pm3 がもたらす コンセプトの軸 「ファイナルミックスの完成度は、8割以上がプリミックスの出来次第だと思っている」と染谷氏は語る。このスタジオではDolby Atmosの事前作業とプリミックスを行ってもらい、ダビングステージで完成度の高いファイナルを作ってもらいたいという思いがあるとのこと。この設備を活用してプリミックスをじっくりと行ってもらいたいというのが大きなコンセプトの一つである。この実現にはLocal Rendererの存在は非常に大きなものとなった。CPUベースのレンダリングエンジンでDolby Atmosの環境を実現することを可能とするこのシステムは、コスト的にも規模感としてもコンセプトにフィットした。   そして、もう一つのコンセプトはDolby Atmos ホーム用のRMUの登場によりもたらされた。今後コンテンツの増加が予想されるDolby Atmos ホーム用のコンテンツ制作拠点として存在することも意義が大きい。さらに今後はBlu-ray用のオーサリング、リマスター等の作業も見込んでいる。もちろん現時点ではDolby Atmosの仕事だけでスタジオのスケジュールが埋まるとは考えてはおらず、MONOから7.1chの仕事まで全部がしっかりと行えるよう細かな設計されている。Dolby Atmosに特化したスタジオではなく、車のギアのように切り替えることでモードが変わり全てに対応できる環境というのが目的としてあった。その点をこのstudio 0(ゼロ)ではDolby AtmosとTHX pm3いうコンセプトの軸を与えることで差別化、機能性の明確化を行っている。 Dolby Atmosに関してまさにBlu-ray Discの発売が始まり大きな局面に差し掛かっているが、ここで非常に大切な作業が生まれる。染谷氏はSONY PCL時代に「なぜCDにはマスタリングがあるのにDVDにはないのか?」ということを提唱した。DVDこそコーディング(非可逆の圧縮)が行われそのサウンドが変質する可能性はCDなどよりも圧倒的に高い。エンジニアにとってスタジオで作った音とパッケージに収録される音の変化は自身で確認を行うべきなのに、なぜDVDにはマスタリングが無いのかが不思議で仕方が無かったとのこと。SONY PCLでは自身の携わった作品のエンコードまで責任をもって作業を行うことが出来る設備とワークフローを確立してきた。DVDに必須コーデックとして採用されたDolby DIGITALに代表される非可逆圧縮での音質や音量の変化が、どのような特性や仕組みで生じているかをつかむ必要があった。マスタリングの必要性は圧縮によるものだけではなく、映画作品の民生用パッケージ化では音響処理を施した大空間施設での再生を目的とした音声信号を、家庭に設置されたホームシアターに最適な状態にマスタリングする目的もある。   そしてDolby Atmosでも同じことが言える。シネマ用のDCPに収録されるDolby Atmos音声と民生用に提供されるDolby Atmos ホームではコーデックや収録再生の仕組みに違いがあり、マスタリングの重要性はこれまでの5.1chや7.1ch以上に大きい。Blu-rayではDolby Atmos音声収録のために可逆圧縮であるDolby TrueHDや非可逆圧縮であるDolby Digital Plusを選択することが可能であり、それらのコーデックに用意された様々なパラメータは適切に設定する必要がある。さらに映画用Dolby Atmosもまた多くのスピーカーを設備し音響処理を施した大空間施設での再生を目的としているため、ニアフィールドモニターが基本となるDolby Atmosホーム環境での再生音場確認及びマスタリングは、コンテンツ配給のワークフローになくてはならない。そしてもっとも重要なことは、Dolby Atmosホームのマスターファイルを作成する工程であるということ。このマスターファイルが後工程のエンコード処理における素材ファイルとなる。Dolby Atmos ホームの詳細は、別途本号で特集をしているのでそちらを是非とも参考いただきたい。 04 DAW をミキシングエンジンとする NUAGE のメリット 新たなコンセプトへのチャレンジということもあり、今回導入のシステムについても特色がある。まずはスタジオの全景でも存在感のあるYAMAHA NUAGEだがこの点はプロダクトの可能性にかけた導入、国内の製品であるアドバンテージを活かして、メーカーには多くの要望に前向きに取り組んでもらったという。その結果、特筆すべきPro Tools 2式とのリレーションなどのほか、今回のスタジオのコンセプトとして必須となる機能の数々が実現している。   また、このセレクトではコストメリットも得られる。今や1000万円のコンソールやコントローラーも高価に感じてしまうが、そのような中での選択は非常にコストを重視した。もちろん多くの予算があれば、大好きなSSL等の大型コンソールの選択となるはずだが、何を選択しどんな機能を満たしていくのか?という部分を重視して考え抜かれている。今回の導入で必須機能となったのは7.1chに対応したマルチチャンネルのモニターコントロール。大型コンソールであればもちろん実現可能だが、それに変わるコンソールは何があるのかを考えると選択肢が殆ど無い。そのような現状の中で浮上したのがDAWをミキシングエンジンとして取り扱うYAMAHA NUAGE。この製品であればNuendoが今後も拡張することで対応フォーマットは順次追加され、もちろん現時点で7.1chへの対応は言うまでもない。更にモニター補正として導入されているDME64との連携により実現されている機能も多い。Atmos対応のモニターシステムとの連動を考えた結論がNUAGE導入であった。そのNUAGEエンジンが実際に何を行っているのかというと、Pro Tools2台とMedia Composerで構成されるStellite Linkからの信号を受け、NUAGE I/Oを利用した、ダイレクトモニタリング機能により出力している。もちろんNuendoのユーザーがスタジオを使う場合には、DAWとしても利用可能なシステムアップとなっている。   もう一つ、B-Chainにコストを掛けるという点もコンセプトに基づく。スタジオの音響をしっかりとした設備にという重要なコンセプトを実現するためにB-Chainの充実は必須となる。DAWなどは後からの更新も可能だが、スピーカーへと導かれるB-Chian部分は音響設計と密接に結びつくため後からの変更が難しい部分だ。具体的には補正用に3台のDME64とMini-YGDAIシリーズのMY8-LAKEカードを使用している。ここもYAMAHA製品を使用しNUAGEを含めたトータルでのシステムアップにつながっている部分。今回のシステムでYAMAHA製品が中核となっているのはメーカーとしての対応力にプランニングを進める上での大きな可能性を感じたことが大きなファクター、NUAGEの最新バージョンには染谷氏のアイデアも数多く含まれているとのことだ。 05 Pro Tools 用の HUI コントローラーという 新たな NUAGE 像 これまでの作業の中でも特にゲームの仕事はイン・ザ・ボックスのミックスを要求されることが多く、特に近年は作品のほぼ100%がそのとおりとなっている。以前は、コンソールミックスに対する慣れがあり、イン・ザ・ボックスのミックスが上手く出来ない時期もあったとのこと。その時に試みたのがMackie Controlだけでのミックス。この作業をひたすら行いコンソールでもイン・ザ・ボックスでも優れたミックスを行えることを目指して研鑽を重ねた時期もあったとのこと。C300時代にはHUIモードが登場しコンソール側でも同様の作業を行うことが可能となった。イン・ザ・ボックスでもコンソールミックスでもクライアントのオファーに柔軟に対応できるような準備を行っていた。そのような経緯もあり、NUAGEでのHUIミックスには大きな違和感はなく、スタンドアローンのコンソールではないことのデメリットはほとんど感じないとのことだ。すでにコンソールとコントローラーの境界線が希薄になっているということを感じる一幕である。もちろんラージコンソールの優位性は誰よりも熟知している。マスターセクションのつくり、感触の良さ、豊富なマトリクス、人間工学に則った優れた設計。優れたメリットがあることは認めるが、残念ながらイン・ザ・ボックスでのミックスがクライアントから求められる現場においては、NUAGEのようなHUIミックスなどを考慮するべきだとの意見をいただいた。   発想の転換によりNUAGEの魅力は大きく広がる。Nuendo専用という意識を外して優れたHUIコントローラーとすると、また違った魅力が見えてくる。Pro Toolsをコントロールすることの出来るNuendoという柔軟性に富んだミキシングエンジンを持つコントローラー。そのような捉え方をすればPro Toolsユーザーにとってもメリットが大きい、新しいコントローラーとしてのNUAGE像が見えるのではないか。エンジニアがコントローラーとして求めるのは、ほとんどがフェーダーである。もちろん、プラグインのコントロールやセンドのアサインなど欲を言えば切りが無い。しかし、最も使用するのはどの機能なのかを考えればHUIでも対応ができるという発想に至るのではないだろうか。限られた予算を有効活用するための非常にシンプルな切り分けがここにはある。 06 THX pm3 室内音響に関してはTHX pm3の認証を得ている。従来の日本のTHX pm3スタジオにはインストールされていないシーリングチャンネルやLw,Rw等のAtmosに特徴的なスピーカーの配置に関しても、設計段階からTHX、Dolby、SONAによる詳細なディスカッションが行われており、最終的には3社にとっても妥協のないスピーカーレイアウトがstdio 0(ゼロ)では実現されている。最終的にはそれら全てのスピーカーを含んだモニター調整がTHXのスタッフにより実施されており、優秀な成績でTHX pm3の認証を得ている。特筆すべきは、ベースマネージメント無しで、全チャンネル20Hz〜20kHzの広帯域再生を可能とし、更にTHX pm3の承認を実現しているという点。基本的にはベースマネージメントの使用が前提となるTHX pm3規格をそれ無しで取得できるほど、室内音響的に低域の制御ができているということだ。音楽系のミキサーに敬遠されがちなベースマネージメントが無いということで、是非とも音楽ミックスでもこの部屋を活用してもらいたいとのことだ。筆者もこの部屋で行われた音楽用のDolby Atmosミックスを是非とも聴いてみたいところだ。 ◎染谷氏とサラウンドテクノロジーの歩み   染谷 和孝 氏 有限会社 ビー・ブルー サウンドデザイナー/ミキシングエンジニア   1963年東京生まれ。東京工学院専門学校卒業後、(株)ビクター青山スタジオ、(株)IMAGICA、(株)イメージスタジオ109、ソニーPCL株式会社を経て、2007年(株)ダイマジックのスタジオ設立に参加。2014年より有限会社 ビー・ブルーに所属を移し、サウンドデザイナー/リレコーディングミキサーとして活動中。2006年よりAES(オーディオ・エンジニアリング・ソサエティー)「Audio for Games部門」のバイスチェアーを務める。また、2014年9月よりAES日本支部監事を担当。 染谷氏がサラウンドに触れたのは30年以上も前のこと。アナログハイビジョン時代に「銀河の魚」のサウンドデザインとサラウンドミックスを担当したときに遡る。それをきっかけにInterBEEの国際シンポジウムなどにも参加するようになる。そこで元NHK制作技術センター長の沢口氏との大きな出会いもあり、それが全てのスタートになったとのこと。   サラウンドには黎明期から関わりがあるが、一貫してその根底には「サウンドデザイン」という概念があり、その発展の礎となっている。「サウンドデザイン」との出会いは、ProSound誌に掲載されていたSkywalker Soundの記事だとのこと。当時はInterBEEにSkywalker Soundからエンジニアが参加しており、様々なきっかけから徐々に交流が始まり、Skywalker Soundへの訪問など研鑽を積み重ねてはいたが、なかなかサラウンドの部屋を作ることは出来なかった。   次の契機となったのは1999年にロスで行われたSurround 2000というイベント、ここではTHX pm3と出会うことになる。このイベントはまさにSONY PCL の改装を決定する時期に重なっていた、当初はステレオの部屋を作るという方針であったが、このイベントと前後してサラウンドの部屋を作る計画が進行、スタジオのコンセプトを詰めるために自費で2週間サンフランシスコに行き、THX社とSkywalker Soundを見学して回った。そこで体験したサウンドは「音の消え際が聞こえる」と表現されるほどの繊細さ。今まで聞こえなかった音が聞こえるという体験することとなる。   その当時はまだITU-Rなどを始めとする様々なサラウンド再生基準が取り上げられ、その優位性が語られている段階であったが、その中から明確なレギュレーションに守られたTHX pm3選択した。信頼性の高い音響特性を持ったスタジオを構築し、アジア初のTHX pm3スタジオとなった。その後も染谷氏はTHX pm3の認証を得た世界標準の音響特性を持ったスタジオを数多く創り上げている。   Dolby Atmos採用に踏み切った染谷氏のポリシーの中には「真のブルーオーシャンを目指さなければいけない」ということが有る。真のブルーオーシャンを構築するためには、クローズドに全てを秘密にしてはならないと考えているというのも非常に新鮮なコメントとして聞こえた。現代を生き抜くためにはこのスタジオで得た知識・情報を開示し、それを共有する仲間が増える事が最も大切な要素。新しいことを始める為の仲間探しが今まさに始まったところだとコメントを頂いている。もう一つ「マイノリティーからマジョリティーへ」という言葉も頂いた。このスタジオ、そしてDolby Atmosが共に羽ばたくためにはマジョリティーになることは大切なこと。マイノリティーのままではなく、普及も進んで行かなければ意味がなくなってしまう。次に続くスタジオ・エンジニアの存在はなくてはならないもの、エンジニアリングのテクニックに関しても同様に隠すのではなく伝えることで、業界全体が豊かになるのであれば、その方が重要な事だとの考えも伺えた。 インタビューを終えて感じるのは、明確なコンセプトのもと、限られた予算を必要な部分に十分にかけた染谷氏のこだわりと考えが非常にわかりやすくスタジオに存在していたこと。また、最新の機材ソリューションの結晶のようなシステムとなっているが、突飛な存在とはならずに違和感なくそのシステムへ入っていける間口の広さも感じる。Dolby Atmos対応だからといってステレオやモノラルの作業のことを切り捨てずに「ギアチェンジ」出来るというコンセプトがしっかりと息づいているように感じた。染谷氏のコンセプトを受け、東映株式会社に続き国内2例目となるDolby Atmosの室内音響を設計された株式会社ソナ、アジア初となるDolby Atmos ホームシステムを設計した株式会社レアルソニード、そして機材のバージョンアップ等様々なソリューション面でのバックアップを行ったヤマハ株式会社、各社の持つ技術が非常に高いレベルで結実している。今後このスタジオから創りだされる作品に、早く出会いたいと強く感じた取材であった。

Post

Brand

Brand
そのワークフローを実現する

Avid が提供する統合型ソリューションが体験できる Avid Creative Space (ACS) 。Avid Advanced Console、Hybrid Engine、NEXIS + MediaCentral、など規模やワークフローに応じたソリューションを総合的に体験できる3つの空間をぜひご活用ください。

DAWのタイムラインに同期したビデオ再生ソリューションであるVideo Slaveが、その名も新たにVideo Sync 5 Proとして最新バージョンになりました。従来の機能に加え、AvidとのコラボレーションによりStatellite Linkに対応。Pro Tools | Ultimateとのより緊密な同期再生を実現し、プロフェッショナルな現場に、より滑らかなワークフローを提供します。

Focusriteは、1985年に現在ではプロオーディオ界のレジェンドとなっているRupert Neveによって創設された、ハイレベルな計測による高い水準と、音楽的なサウンドの心地よさを追求した英国のメーカーです。

ROCK ON PROはDolby Atmos Mastering Suite Dealerとして認証を受けております。Dolby Atmosの制作環境から、RMU/ Mastering Suiteの導入までご相談ください。

主要取扱ブランドホームページ

リストに掲載がない製品につきましてもお気軽にご相談ください。

»問い合わせフォーム