Music
Music
2024/08/27
Cross Phase Studio 様 / クリエイティブが交差する、外部貸出も行う関西有数のイマーシブ拠点
大阪城の間近、大阪市天満に居を構えるCross Phase Studio。ゲーム / 遊技機のサウンド制作をメインに、近年では映像作品のポストプロダクション業務も増加するなど、関西圏で大きな存在感を持つCross Phase株式会社の自社スタジオだ。2022年末にイマーシブ・フォーマットへ対応するためのアップデートを果たした同スタジオだが、このたびには自社スタジオの外部貸出も開始させたそうだ。関西でのイマーシブ・オーディオをリードする存在ともなるCross Phase Studioへ早速取材にお邪魔した。
サウンドの持つ力を知る場所を多くの方に
Cross Phase株式会社は代表の金子氏が中心となって、数人のクリエイターとともに2015年に設立されたサウンド制作会社。「当時の勤務先ではだんだん管理的な業務のウェイトが増えていて、もっとクリエイティブな部分に携わっていたいと考えていました。きっかけはよくある呑みの席での雑談だったのですが、本当に独立してしまった(笑)」という同氏は元遊技機メーカー勤務。幼少期を海外で過ごしMTVを見て育ったことから大の音楽好きで、同じく好きだった遊技機と音楽の両方を仕事にできる業界を選んだということだ。
設立当初は各クリエイターが自宅の制作環境で制作を行っており本社は事務所機能だけだったが、自社スタジオであるCross Phase Studioを作るにあたり、本社所在地も現在の大阪市天満に移転している。そのスタジオもステレオのみでスタートしたのだが、Apple Digital Masters認定を受けるための過程でDolby Atmosの盛り上がりを知り、大きな可能性を感じたことで2022年末にイマーシブ・オーディオへ対応する運びとなったそうだ。
スタジオを持ってからも同社では積極的にテレワークやリモート制作を取り入れており、そのためのインフラは金子氏がみずから整えているとのこと。最適なソリューションが存在しない場合は自社製の業務ツールやソフトウェアを開発することもあるという。「ゲーム業界は横のつながりが強い。自分たちの経験に加え、サウンド外の情報や情勢も踏まえて効率化、向上化の手段を常に探っています。」といい、クリエイティブな作業に集中できる環境づくりを心がけている。設立時の想いを実践し続けていることが窺える。
📷Cross Phase株式会社 代表の金子氏。
金子氏に限らず全員が元ゲーム / 遊技機メーカー勤務のクリエイター集団である同社の強みは、ゲーム / 遊技機のサウンドに関わる工程すべてを把握しており、サウンドプロジェクト全体をワンストップで請け負える点にある。プロジェクト自体の企画から、楽曲や効果音などの制作、音声収録など各種レコーディング、ゲームや遊技機への実装・デバッグのすべての工程でクライアントと協業することが可能だ。
近年はゲーム / 遊技機分野にとどまらず映像作品の音声制作などへも活躍の場を広げているが、そのきっかけは1本の映画作品だったようだ。「ロケ収録した音声を整音する依頼だったのですが、元の音声があまりいい状態ではなくて…。当社でできる限りいいものにならないか試行錯誤したところ、その結果にクライアントがすごく喜んでくれたんです。それで、みんな音の大切さに気付いてないだけで、いい音を聴いてもらえばわかってくれるんだということに気付いたんです」という。
こうした経験から、もともと自社業務専用と考えていたCross Phase Studioの外部貸出を開始したそうだ。「Dolby Atmosを聴いてもらうと多くのクライアントが興味を示してくれます。当社のクリエイターからも、イマーシブを前提とするとそれ以前とは作曲のコンセプトがまったく変わる、という話もありました。せっかくの環境なのでもっと多くのみなさんにサウンドの持つ力を体験して知ってほしいんです。」そして、「Cross Phaseという社名は、さまざまなクリエイティブが交差する場所にしたいという想いで名付けました。関西圏には才能あるクリエイターがたくさんいるので、みなさんとともに関西発で全国のシーンを盛り上げていきたいと思っています」と熱を込めて語ってくれた。
7.1.4 ch をADAMで構成
Cross Phase Studioのイマーシブシステムは7.1.4構成となっておりDolby Atmosへの対応がメインとなるが、DAWシステムには360 Walkmix Creator™️もインストールされており、360 Reality Audioのプリミックスにも対応が可能だ。
モニタースピーカーはADAM AUDIO。9本のA4VとSub 12という組み合わせとなっている。それとは別に、ステレオミッドフィールドモニターとして同じくADAM AUDIOのA77Xが導入されている。スタイリッシュな内装や質実剛健な機材選定と相まって、見た目にもスタジオ全体に引き締まった印象を与えているが、そのADAM AUDIOが導入された経緯については、「スタジオ開設当初は某有名ブランドのスピーカーを使用してたのですが、あまり音に面白みを感じられなくて…。スピーカーを更新しよう(当時はまだステレオのみ)ということで試聴会を行ったのですが、当社のクリエイターのひとりがADAMを愛用していたので候補の中に入れていたんです。そうしたら、聴いた瞬間(笑)、全員一致でADAMに決まりました。そうした経験があったので、イマーシブ環境の導入に際してもADAM一択でしたね。」とのこと。
📷7.1.4の構成で組まれたスピーカーはスタッフ全員で行った試聴会の結果、ADAMで統一された。天井にも吊られたA4Vのほか、ステレオミッドフィールド用にA77Xが設置されている。
もちろん、ADAM AUDIOも有名ブランドではあるが、その時点での”定番のサウンド”に飽き足らずクリエイターが納得できるものを追求していくという姿勢には、音は映像の添え物ではない、あるいは例えそうした場面であってもクリエイティビティを十二分に発揮して作品に貢献するのだという、エンターテインメント分野を生き抜く同社の強い意志を感じる。そうした意味では、ADAM AUDIOのサウンドは同社全体のアイデンティティでもあると言えるのではないだろうか。関西エリアに拠点を置くクリエイターには、ぜひ一度Cross Phase Studioを借りてそのサウンドを体験してほしい。
デジタル、コンパクト、クリーンな「今」のスタジオ
それではCross Phase Studioのシステムを見ていこう。金子氏の「当社はスタジオとしては後発。イマーシブ導入もそうですが、ほかのスタジオにはない特色を打ち出していく必要性を感じていました。今の時代の若いスタジオということで、デジタルをメインにしたコンパクトなシステムで、クリーンなサウンドを念頭に置いて選定しています。」という言葉通り、DAW周りは非常に現代的な構成になっている。
📷メインのデスクと後方のデスクに2組のコントロールサーフェスが組まれているのが大きな特徴。前方メインデスクにはAvid S3とDock、後方にはAvid S1が2台。ステレオとイマーシブで異なるスイートスポットに対応するため、それぞれのミキシングポイントが設けられた格好だ。
スタジオにコンソールはなく、Pro Tools | S3 + Pro Tools | Dock + DAD MOMと、2 x Pro Tools | S1 + DAD MOMというコントロールサーフェスを中心とした構成。サーフェスが二組あるのはステレオ再生とイマーシブ再生ではスイートスポットが変わるため、コントロールルームの中に2ヶ所のミキシングポイントを置いているからである。DAWはもちろんPro Tools Ultimate、バックアップレコーダー兼メディアプレイヤーとしてTASCAM DA3000も導入されている。
オーディオI/FにはPro Tools | MTRX Studioを採用。モニターコントロールはDAD MOMからコントロールするDADmanが担っているため、ステレオ / イマーシブのスピーカーはすべてこのMTRX Studioと直接つながれている。MTRX StudioにはFocusrite A16RがDanteで接続されており、後述するアウトボードのためにアナログI/Oを拡張する役割を担っている。また、スピーカーの音響補正もMTRX Studioに内蔵されているSPQ機能を使用して実施。測定にはsonorworks soundID Referenceを使用したという。現在ではsoundID Referenceで作成したプロファイルを直接DADmanにインポートすることができるが、導入時にはまだその機能がなく、ディレイ値などはすべてDADmanに手打ちしたとのこと。
📷上段にMTRX Studioがあり、その下が本文中でも触れたflock audio The Patch。数々のアウトボードが操作性にも配慮されてラッキングされていた。
必要最小限で済ますならばこれだけでもシステムとしては成立するのだが、スッキリとした見た目と裏腹に同スタジオはアウトボード類も充実している。SSLやBettermakerなどのクリーン系ハイエンド機からAvalon DesignやManleyなどの真空管系、さらに、Kempfer・Fractal Audio Systemsといったアンプシミュレーター、大量のプラグイン処理を実現するWaves SoundGrid Extreme Serverやappolo Twin、そろそろビンテージ機に認定されそうなWaves L2(ハードウェア!)も導入されており、現時点でも対応できる音作りは非常に広いと言えそうだが、「当社のクリエイターたちと相談しながら、その時々に必要と考えた機材はこれからも増やしていく予定です」とのこと。
これらのスタジオ機器の中で、金子氏がもっとも気に入っているのはflock audio The Patchなのだという。金子氏をして「この機材がなかったら当社のスタジオは実現していなかった」とまで言わしめるThe Patchは、1Uの機体の内部にフルアナログで32in / outのシグナルパスを持ち、そのすべてのルーティングをMac / PCから行えるというまさに現代のパッチベイである。Cross Phase Studioではアナログ入力系は基本的に一度このThe Patchに接続され、そこからA16Rを介してDanteでMTRX Studioへ入力される。日々の運用のしやすさだけでなくメンテナンス性や拡張性の観点からも、確かにThe Patchの導入がもたらした恩恵は大きいと言えるだろう。
コントロールルームの隣にはひとつのブースが併設されている。ゲーム / 遊技機分野から始まっているということもあってボーカル・台詞など声の収録がメインだが、必要に応じて楽器の収録もできるように作られている。印象的だったのは、マイクの横に譜面台とともにiPad / タブレットを固定できるアタッチメントが置かれていたことだ。台詞録りといえば今でも紙の台本というイメージが強いが、個別収録の現場では徐々に台本もデジタル化が進んでいるようだ。
📷コントロールルームのすぐ隣にはブースが設置されている、ボーカル・ダイアログなど声の収録だけではなく、楽器にも対応できる充分なスペースを確保している。
ブース内の様子は撮影が可能でコントロールルームにはBlackmagic Design ATEM Miniが設置されていた。「もともと音楽1本だけの会社ではないので、徐々にオファーが増えている映像制作やライブ配信をはじめとした様々な分野にチャレンジしていきたい。最近、知人から当社のブースをビジネス系YouTube動画の制作に使いたいというオファーもありました(笑)。バンドレコーディングはもちろん、“歌みた“などのボーカルレコーディングや楽器録音など、ぜひ色々なクリエイターやアーティストに使って欲しいです。」とのことで、同社が活躍するフィールドはさらに広がっていきそうだ。
最近では海外からのオファーも増えてきたというCross Phase。金子氏は「ゆくゆくは国産メーカーの機器を増やして、日本ならではのスタジオとして海外の方にも来てもらえるようにしたいですね」と語る。イマーシブ制作の環境が整ったスタジオを借りることができるというのは、まだ全国的に見ても珍しい事例である。関西圏を拠点にするクリエイターは、ぜひ一度Cross Phase Studioで「サウンドの持つ力」を体験して知ってほしい。
*ProceedMagazine2024号より転載
Music
2024/08/23
日本最大の男祭り、その熱量をコンテンツに込める〜UVERworld KING’S PARADE 男祭り REBORN at Nissan Stadium〜
昨夏、日産スタジアムにて開催された音楽ライブ「UVERworld KING’S PARADE 男祭り REBORN at Nissan Stadium」。この72,000人の観客とともに作り上げた公演を記録した映像作品が全国劇場公開された。男性のみが参加できるという日本最大の「男祭り」、劇場版の音響にはDolby Atmosが採用され、約7万人もの男性観客のみが集ったその熱狂を再現したという本作。音響制作を手がけられたWOWOW 戸田 佳宏氏、VICTOR STUDIO 八反田 亮太氏にお話を伺った。
ライブの熱狂を再現する作品を
📷右)戸田 佳宏 氏 / 株式会社WOWOW 技術センター 制作技術ユニット エンジニア 左)八反田 亮太氏 / VICTOR STUDIO レコーディングエンジニア
Rock oN(以下、R):本日はお時間いただきありがとうございます。まず最初に、本作制作の概要についてお聞きしてもよろしいですか?
戸田:今回のDolby Atmos版の制作は、UVERworldさんの男祭りというこれだけの観客が入ってしかも男性だけというこのライブの熱量を表現できないか、追体験を作り出せないかというところからスタートしました。大まかな分担としては、八反田さんがステレオミックスを制作し、それを基に僕がDolby Atmosミックスを制作したという流れです。
R:ステレオとAtmosの制作については、お二人の間でコミュニケーションを取って進められたのでしょうか?
八反田:Dolby Atmosにする段階では、基本的に戸田さんにお任せしていました。戸田さんとはライブ作品をAtmosで制作するのは2度目で、前回の東京ドーム(『UVERworld KING’S PARADE 男祭り FINAL at Tokyo Dome 2019.12.20』)でも一緒に制作をしているので、その経験もあってすり合わせが大きく必要になることはありませんでした。
戸田:このライブ自体のコンセプトでもあるのですが、オーディエンス、演奏の”熱量”というところをステレオ、Atmosともに重要視していました。僕がもともとテレビ番組からミックスを始めているのもあるのかもしれないですが、会場を再現するという作り方に慣れていたので、まず会場をAtmosで再現するところから始めました。そうやって制作するとオーディエンス、会場感が大きいものになっていくので、それを八反田さんに確認していただいて、音楽としてのミックスのクオリティを高めていくという流れですね。逆にCDミックスのような質感に寄りすぎてもライブの熱量が足りなくなっていくので、その境界線を見極めながらの作業になりました。
八反田:作業している時は「もっと熱量を!」というワードが飛び交っていましたね(笑)。
戸田:Atmosミックスではアリーナ前方の位置でライブを見ている感覚をイメージしていました。ライブ会場ではこうだよな、という聴こえ方を再現するという方向ですね。映像作品なのでボーカルに寄る画もあるので、そういった場面でも成立するようなバランスを意識しました。
八反田:ステレオでこれだとドラムが大きすぎるよな、というのもAtmosでは可能なバランスだったりするので、音楽としてのバランスも込みでライブをどう聴かせたいかという理想を突き詰めた部分もあります。
日産スタジアムでのライブ収録
📷1~16がステレオミックス用、17~42がDolby Atmos用に立てられたマイク。色によって高さの階層が分けて記されており、赤がアリーナレベル、青が2Fスタンド、緑がトップ用のマイクとなっている。31~34はバックスクリーン下のスペースに立てられた。
R:収録についてはどういった座組で行われたのでしょうか?
戸田:基本はパッケージ収録用のステレオ前提でライブレコーディングチームがプランニングをされていたので、3Dオーディオ版として足りないところをWOWOWチームで追加しました。事前にステレオのチームとマイク図面の打ち合わせを行い、マイク設置位置を調整しました。録音は音声中継車で録ることができる回線数を20chほど超えてしまったので追加でレコーダーを持ち込みました。ドラムセットが3つあったのもあって、全体で150chくらい使用していますね。そのうちオーディエンスマイクだけでステレオ用で16本、Atmos用でさらに26本立てました。
R:日産スタジアムってかなり広いですよね。回線は信号変換などを行って伝送されたのですか?
戸田:アリーナレベルは、音声中継車までアナログケーブルで引きました。スタンドレベルも端子盤を使って中継車までアナログですね。足りない部分だけOTARI Lightwinderを使ってオプティカルケーブルで引くこともしました。スタジアムはとにかく距離が長いのと、基本的にはサッカーの撮影用に設計された端子盤なので、スタンド席のマイクなどは養生などをして観客の中を通さないといけないのが結構大変でした。
R:ステージのフロントに立っているマイクは観客の方を向いているんですか?
戸田:そうですね。それはステージの端から観客に向けて立てられたマイクです。レスポンスの収録用です。曲中は邪魔にならないように工夫しながらミックスしました。包まれ感には前からのオーディエンスも重要なので。
R:Atmos用に設置したマイクについては、どういった計画で設置されたのでしょうか?
戸田:Atmos用のマイクはステレオ用から足りないところ、スピーカー位置で考えるとサラウンドのサイド、リア、トップなどを埋めていくという考え方で置いていきました。
八反田:キャットウォークに置いたマイクが被りも少なく歓声がよく録れていて、お客さんに包まれる感じ、特に男の一体感を出すのに使えました。イマーシブ用マイクで収録した音源は、ステレオミックスでも使用しています。
約150chの素材によるDolby Atmos ミックス
R:これだけ広い会場のアンビエンスだと、タイムアライメントが大変ではなかったですか?
戸田:そこはだいぶ調整しましたね。一番最初の作業がPAミックスと時間軸を調整したアンビエンスをミックスし、会場の雰囲気を作っていくことでした。スタジアムは一番距離があるところで100m以上離れているので、単純計算で0.3〜0.5秒音が遅れてマイクに到達します。
R:合わせる時はオーディオファイルをずらしていったのですか?
戸田:オーディエンスマイクの音を前へ(時間軸として)と調整していきました。ぴったり合うと気持ちいいというわけでもないし、単純にマイク距離に合わせればいいというわけでもないので、波形も見つつ、スピーカーとの距離を考えて経験で調整していきました。正解があったら知りたい作業でしたね。
R:空気感、スタジアム感との兼ね合いということですね。MCのシーンではスタジアムの残響感というか、声が広がっていくのを細かく聴き取ることができました。リバーブは後から足されたりしたのですか?
戸田:MCの場面ではリバーブを付け足す処理などは行なっていません。オーディエンスマイクで拾った音のタイムアライメントを調整して、ほぼそのまま会場の響きを使っています。ステージマイクに対してのリバーブは、一部AltiverbのQuadチャンネルを使っています。
R:ライブではMCからスムーズに歌唱に入るシーンも多かったと思いますが、そこの切り替えはどうされたんですか?
戸田:そこが今回の作品の難しいところでした。見る人にもMCからすっと音楽に入ってもらいたいけど、かといって急に空間が狭くなってしまうと没入感が損なわれてしまうので、会場の広さを感じながらも音楽にフォーカスしてもらえるように、MCと楽曲中のボーカルのリバーブではミックスで差をつけるなどで工夫しています。
R:なるほど。アンビエンスの音処理などはされました?
戸田:曲によってアンビ感が強すぎるものはボーカルと被る帯域を抜いたりはしています。前回の東京ドームでは意図しない音を消すこともしたのですが、今回は距離感を持ってマイクを置けたので近い音を消すことは前回ほどなかったです。
R:オブジェクトの移動は使いました?
戸田:ほぼ動かしていないですね。画や人の動きに合わせて移動もしていないです。バンドとしての音楽作品という前提があるので、そこは崩さないように気を付けています。シーケンスの音は少し動かした所があります。画がない音なので、そういうのは散らばらせても意外と違和感がないかなと感じています。
📷会場内に設置されたマイクの様子。左上はクランプで観客席の手すりに付けられたマイク。すり鉢状になっている会場の下のレイヤーを狙うイメージで立てられた。また、その右の写真は屋根裏のキャットウォークから突き出すようにクランプで設置されたトップ用マイク。天井との距離は近いが、上からの跳ね返りはあまり気にならずオーディエンスの熱気が上手く録れたという。
R:イマーシブになるとチャンネル数が増えて作業量が増えるイメージを持たれている方も多いと思うのですが、逆にイマーシブになることで楽になる部分などはあったりしますか?
戸田:空間の解像度が上がって聴いてもらいたい音が出しやすくなりますね。2chにまとめる必要が無いので。
八反田:確かにそういう意味ではステレオと方向性の違うものとしてAtmosは作っていますね。ステレオとは違うアプローチでの音の分離のさせ方ができますし、Atmosを使えば面や広い空間で鳴らす表現もできます。東京ドームの時もそういうトライはしましたが、今回はより挑戦しました。ドームは閉じた空間で残響も多いので、今回は広く開けたスタジアムとしての音作りを心がけています。
R:被りが減る分、EQワークは楽になりますよね。
戸田:空間を拡げていくと音が抜けてきますね。逆に拡がりよりも固まりが求められる場合は、コンプをかけたりもします。
R:イマーシブミックスのコンプって難しくないですか?ハードコンプになると空間や位相が歪む感じが出ますよね。
戸田:すぐにピークを突いてしまうDolby Atmosでどう音圧を稼ぐかはポイントですよね。今回はサイドチェイン用のAUXバスを使って、モノラル成分をトリガーにオブジェクト全体で同じ動きのコンプをかける工夫をしています。オーディエンスのオブジェクトを一括で叩くコンプなどですね。ベッドのトラックにはNugen Audio ISL2も使っています。
R:スピーカー本数よりマイク本数の方が多いので、間を埋めるポジションも使いつつになると思いますが、パンニングの際はファンタム定位も積極的に使われましたか?
戸田:位相干渉が出てくるのであまりファンタム定位は使わずにいきました。基本の考え方はチャンネルベースの位置に近いパンニングになっていると思います。ダビングステージで聴いた時に、スピーカー位置の関係でどうしても後ろに音が溜まってしまうので、マイクによってはスピーカー・スナップ(近傍のスピーカーにパンニングポジションを定位させる機能)を入れて音が溢れすぎないようにスッキリさせました。
Dolby Atmos Home環境とダビングステージの違い
R:丁度ダビングの話が出ましたが、ダビングステージでは正面がスクリーンバックのスピーカーになっていたりとDolby Atmos Homeの環境で仕込んできたものと鳴り方が変わると思うのですが、そこは意識されましたか?
戸田:スクリーンバックというよりは、サラウンドスピーカーの角度とXカーブの影響で変わるなという印象です。東京ドームの時はXカーブをすごく意識して、全体にEQをかけたんですけど、今回違う挑戦として、オーディエンスでなるべくオブジェクトを使う手法にしてみました。とにかく高さ方向のあるものやワイドスピーカーを使いたいものはオブジェクトにしていったら、ダビングステージでもイメージに近い鳴り方をしてくれました。もちろん部屋の広さとスピーカーの位置が違うので、仕込みの時から定位を変えてバランスをとりました。
R:ダビングはスピーカー位置が全部高いですからね。
戸田:全体の定位が上がっていってしまうので、そうするとまとまりも出てこないんですよね。なのでトップに配置していた音をどんどん下げていきました。トップの位置もシネマでは完全に天井ですから、そこから鳴るとまた違和感になってしまう。スタジアムは天井が空いているので、本来観客がいない高い位置からオーディエンスが聴こえてしまうのは不自然になってしまうと考えました。
R:これだけオーディエンスがあると、オブジェクトの数が足りなくなりませんでした?
戸田:そうですね、当時の社内のシステムではオブジェクトが最大54しか使えなかったので工夫しました。サラウンドはベッドでも7chあるので、スピーカー位置の音はベッドでいいかなと。どうしても真後ろに置きたい音などにオブジェクトを使いました。楽器系もオブジェクトにするものはステムにまとめています。
R:シネマ環境のオブジェクトでは、サラウンドがアレイで鳴るかピンポイントで鳴るかという違いが特に大きいですよね。
戸田:はい。なのでオーディエンスがピンポイントで鳴るようにオブジェクトで仕込みました。ベッドを使用しアレイから音を出力すると環境によりますが、8本くらいのスピーカーが鳴ります。オーディエンスの鳴り方をオブジェクトで制御できたことで空間を作るための微調整がやりやすかったです。ただ、観客のレスポンスはベッドを使用してアレイから流すことで、他の音を含めた全体の繋がりが良くなるという発見がありました。
R:最後に、音楽ライブコンテンツとしてDolby Atmosを制作してみてどう感じていますか?
八反田:誤解を恐れずに言えば、2chがライブを“記録“として残すことに対してDolby Atmosは“体験“として残せることにとても可能性を感じています。今回は会場の再現に重きを置きましたが、逆にライブのオーディエンスとしては味わえない体験を表現することも面白そうです。
戸田:Dolby Atmosでは、音楽的に表現できる空間が広くなることで、一度に配置できる音数が増えます。こういう表現手法があることでアーティストの方のインスピレーションに繋がり、新たな制作手法が生まれると嬉しく思います。またライブ作品では、取り扱いの難しいオーディエンスも含めて、会場感を損なわずに音楽を伝えられるというのがDolby Atmos含めイマーシブオーディオの良さなのかなと考えています。
一度きりのライブのあの空間、そして体験を再び作り出すという、ライブコンテンツフォーマットとしてのDolby Atmosのパワーを本作からは強く感じた。72,000人の男性のみという特殊なライブ会場。その熱量をコンテンツに込めるという取り組みは、様々な工夫により作品にしっかりと結実していた。やはり会場の空気感=熱量を捉えるためには、多数のアンビエントマイクによる空間のキャプチャーが重要であり、これは事前のマイクプランから始まることだということを改めて考えさせられた。イマーシブオーディオの制作数も徐々に増えている昨今、制作現場ではプロジェクト毎に実験と挑戦が積み上げられている。過渡期にあるイマーシブコンテンツ制作の潮流の中、自らの表現手法、明日の定石も同じように蓄積されているようだ。
UVERworld KING’S PARADE 男祭り REBORN at Nissan Stadium
出演:UVERworld
製作:Sony Music Labels Inc.
配給:WOWOW
©Sony Music Labels Inc.
*ProceedMagazine2024号より転載
Music
2024/08/20
「ライブを超えたライブ体験」の実現に向けて〜FUKUYAMA MASAHARU LIVE FILM 言霊の幸わう夏〜
今年1月、アーティスト・福山雅治による初監督作品 『FUKUYAMA MASAHARU LIVE FILM 言霊の幸わう夏 @NIPPON BUDOKAN 2023』が公開された。昨年夏に開催された武道館公演を収録した本作は、ドローン撮影による映像やDolby Atmosが採り入れられ、福山本人による監修のもと “ライブを超えたライブ” 体験と銘打たれた作品となっている。今回は特別に、本作の音響制作陣である染谷 和孝氏、三浦 瑞生氏、嶋田 美穂氏にお越しいただき、本作における音響制作についてお話を伺うことができた。
📷
左)三浦 瑞生氏:株式会社ミキサーズラボ 代表取締役社長 レコーディング、ミキシングエンジニア
中)嶋田 美穂氏:株式会社ヒューマックスエンタテインメント ポストプロダクション事業部 リレコーディングミキサー マネジャー
右)染谷 和孝氏:株式会社ソナ 制作技術部 サウンドデザイナー/リレコーディングミキサー
”理想のライブの音”に至るまで
Rock oN(以下、R):まずは、今回の企画の経緯について聞かせていただけますか?
染谷:私はこれまで嵐、三代目 J Soul Brothers(以下JSB3)のライブフィルム作品のAtmos ミックスを担当させていただきました。嶋田さんとは前作のJSB3からご一緒させていただいていて、その二作目ということになります。嶋田さんとのお話の中で、私たちが一番注意していたことは、音楽エンジニアの方とのチームワークの構築でした。三浦さんは長年福山さんの音楽を支えてこられた日本を代表するエンジニアさんであり、すでにチーム福山としての完成されたビジョンやチームワークはできあがっています。そこに我々がどのように参加させていただくかを特に慎重に考えました。Atmos制作内容以前に、チームメンバーとしての信頼を得るというのはとても大切な部分です。その配慮を間違えると「作品の最終着地点が変わるな」と感じていましたので、最初に三浦さんにAtmosで制作する上でどういうことができるのか、いくつかのご説明と方向性をご相談させていただきました。そして最終的に、三浦さんと福山さんの中でステレオミックスをまず制作していただいて、その揺るぎない骨子をAtmosミックスに拡張していく方向で制作を進めていくことに決まりました。
R:Atmosで収録した作品として今作で特徴的なのが、ライブの再現ではなく、“ライブを超えたライブ体験”というコンセプトを大事にされていますが、その方向性というのも話し合う中で決まっていったのですか?
染谷:収録が終わり、まず三浦さんがステレオミックスをされて、その後何曲かAtmosミックスを行い、福山さんにお聴かせする機会がありました。そこで福山さんが、オーディエンス(歓声)のバランスを自分の手で調整しながらAtmosの感覚、できることを探っていかれる時間がありました。
嶋田:そこで、閃かれた瞬間がありましたよね。
染谷:武道館特有の上から降ってくるような歓声やセンターステージに立っている福山さんでしか感じられない雰囲気をこのDolby Atmosなら“お客さんに体感・体験していただくことができる“と確信されたんだと思います。その後の作業でも、福山さんの「追体験じゃないんですよ」という言葉がすごく印象に残っています。まさにステージ上での実体験として感じていただくこと、それが私たちのミッションだったわけです。
R:では録音の段階ではどのような構想で進められていたのですか?
染谷:収録段階では、2階、3階と高さ方向での空間的なレイヤーをキャプチャーしたいと考えていました。
嶋田:最終的にオーディエンスマイクは合計で28本になりましたね。PAの前にも立ててみたりはしたのですが、音を聴くと微妙に位相干渉していたので結局は使っていません。
三浦:基本のステレオミックス用がまず20本あって、そこに染谷さんがAtmos用に8本足されました。基本的には、PAスピーカーの指向性からなるべく外れたところから、お客さんの声や拍手を主に狙うように設置しています。
R:オーディエンスの音源の配置は、基本マイク位置をイメージして置かれていますか?
染谷:そうですね。上下で100段階あるとしたら、2階は40、3階は90~100くらいに置いてレイヤー感を出しています。上から降りそそぐ歓声を表現するには、上、下の二段階ではなく、これまでの経験から中間を設けて階層的に降ろしていった方が結果的に良かったので、今回はこのように配置しました。
R:福山さんが向く方向、映像の画角によってアンビエントのバランス感は変えたのですか?
染谷:そこは変えていないです。それをすると音楽との相関関係から音像が崩れていくので、基本的にオーディエンスは一回決めたらあまり動かさない方が良いように思います。楽器の位置なども基本は、三浦さんと福山さんが決められたステレオ音源の位置関係を基準にしてAtmos的な修正をしています。
Atmosミックスのための下準備とは
R:収録後はどういった調整をされたのでしょうか?
染谷:録った音をシンプルにAtmosで並べると、当然位相干渉を起こしていますので、タイムアライメント作業で修正を行います。具体的な方法としてはAtmosレンダラーでステレオと9.1.4chを何度も切り替えながらディレイを使用してms単位での補正を行います。レンダラーでステレオにしたときに正しくコントロールできていない場合は、確実に位相干渉するので判断できます。また、嶋田さんのコメントの通り、会場の反射で位相干渉した音が録れている場合もありますから、マイクの選定なども含めて進めていきました。
R:ディレイということは遅らせていく方で調整されたのですか。
染谷:今回はそうですね。ドームなどの広い会場だったら早めていると思うのですが、武道館では遅らせていった方がいい結果が得られました。早めていくと空間が狭くなっていくので、だんだん武道館らしさがなくなり、タイトな方向になってしまうんです。ですので、よりリアルに感じていただけるよう、疑似的に武道館の空間を創りだしています。実際にはセンターステージの真ん中のマイクを基準にして、他のマイクがどのように聴こえてくるかを考えながらディレイ値を導き出していきました。
R:逆にステレオだとオーディエンスを後ろにずらしての調整とかは難しいと思いますがどうでした?
三浦:オーディエンスマイクの時間軸の位置はそのままで、音量バランスで調整しています。フロントマイクをメインにして、お客さんの声の近さなどからバランスをとりました。やっぱり一番気になるのは、ボーカルの声がオーディエンスマイクを上げることで滲まないように、そこは色々な方法で処理しています。
R:Atmos用に追加したマイクはステレオでも使われましたか?
三浦:使っています。Atmosとステレオである程度共通した雰囲気を作る方がいいのかなと思って。スピーカーの数が変わる以上は聴こえ方も変わるのは分かっていましたが、福山さんとの作業の中でステレオ、Atmosで共通のイメージを固めておかないといけないと思ったのもありますし、会場の雰囲気を伝えることでできる音も含まれていましたので。
染谷:三浦さんがステレオの制作をされている間、嶋田さんと私はひたすらiZotope RXを使った収録済みオーディエンス素材のノイズ除去、レストレーション作業の日々でしたね。
嶋田:トータル 3、4ヶ月くらいしてましたよね。
R:RXはある程度まとめてマルチトラックモードでの処理も使われました?
嶋田:これがすごく難しいんですけど、28トラック分まとめて処理する場合も、1トラックずつ処理する場合もあります。私はノイズの種類によって使い方を変えました。例えばお客さんの咳を消したい場合、一番近いマイクだけでなくすべてのマイクに入っているので、綺麗に消したくなりますよね。でもすべて消すと空間のニュアンスまで無くなってしまうので、そのバランスは悩みました。近すぎる拍手なども全部消すのか、薄くするのかの判断は、喝采の拍手なのか、しっとりとした拍手なのかという拍手のニュアンス込みで考えたりもしましたね。
染谷:消せば良いってものでもないんですよ。音に味が無くなるというか。拍手を取る時はDe-Clickを使いますが、Sensitivityをどこの値にもってくるか最初の初期設定が大事です。
R:その設定はお二人で共有されていたんですか?
嶋田:最初に染谷さんがノイズの種類に合わせて大体の値を設定していただいて、そこから微調整しながら進めました。
染谷:作業が進んでいくとだんだんその値から変わっていきますけどね(笑)。リハの時に録っておいたベースノイズをサンプルにして全体にレストレーションをかけることもしています。武道館の空調ノイズって結構大きいんですよ。でもSpectral De-Noiseを若干かけるくらいです。やっぱり抜きすぎてもダメなんです。抜かないのもダメですけど、そこはうまくコントロールする必要があります。
染谷:基本的にクラップなどの素材も音楽チームの方で作っていただいて、とても助かりました。
三浦:ステレオミックスの仕込みの段階で福山さんとミックスの方向性の確認をした際に、通常はオーディエンスのレベルを演奏中は低めにして、演奏後はかなり上げるというようにメリハリをつけていますが、今回は曲中もお客さんのハンドクラップ(手拍子)がしっかり聴こえるくらいレベルを上げ目にしてくれというリクエストがありました。「これは記録フィルムではなくエンターテイメントだから」ということも仰っていたので、ライブ中の他の場所から良いハンドクラップの素材を抜き出し、違和感がない程度にそれを足して音を厚くするなどのお化粧も加えています。
📷三浦氏が用意したAtmos用ステムは合計111トラックに及ぶ。28chをひと固まりとしたオーディエンスは、素材間の繋ぎやバランスを考慮した嶋田氏の細かな編集により何重にも重ねられた。時にはPCモニターに入りきらない量のトラックを一括で操作することもあるため、タイムライン上での素材管理は特に気を張る作業であったという。高解像度なAtmosに合わせたiZotope RXによる修正も、作業全体を通して取り組まれた。
R:その他に足された音源などはありますか?
三浦:シーケンスデータですね。ライブでは打ち込みのリズムトラック、ストリングスなどのシーケンスの音はある程度まとまって扱われます。それはライブPAで扱いやすいように設計されているからなのですが、映画やパッケージの制作ではもう少し細かく分割されたデータを使って楽曲ごとに音色を差別化したくなるので、スタジオ音源(CDトラックに収録されているもの)を制作した際の、シーケンスデータを使用しました。なのでトラック数は膨大な数になっています(笑)。
嶋田:480トラックくらい使われていますよね!Atmos用に持ってきていただいた時には111ステムくらいにまとめてくださりました。
三浦:楽曲ごとにキックの音作りなども変えたくなるので、するとどんどんトラック数は増えていってしまいますよね。作業は大変だけど、その方が良いものになるかなと。今回はAtmosということでオーディエンスも全部分けて仕込んだので、後々少し足したい時にPro Toolsのボイスが足りなくなったんですよ。オーディオだけで1TB以上あるので、弊社のシステムではワークに収まりきらず、SSDから直の読み書きで作業しました。Atmosは初めてのことだったので、これも貴重な体験だったなと思っています。
染谷:本当に想像以上にものすごい数の音が入っているんですよ。
嶋田:相当集中して聴かないと入っているかわからない音もあるんですが、その音をミュートして聴いてみると、やはり楽曲が成立しなくなるんです。そういった大切な音が数多くありました。
R:ステムをやり取りされる中で、データを受け渡す際の要望などはあったのですか?
染谷:僕からお願いしたのは、三浦さんの分けやすいようにということだけです。後から聞くと、後々の修正のことも考えて分けてくださっていたとのことでした。ありがとうございます。
三浦:ステレオではOKが出たとしても、環境が変わってAtmosになれば聴こえ方も変わるだろうというのがあったので、主要な音はできるだけ分けました。その方が後からの修正も対応できるかなと思って、シーケンスデータもいくつかに分けたり、リバーブと元音は分けてお渡ししましたよね。想定通り、Atmosになってからの修正も発生したので、分けておいてよかったなと思っています。
嶋田:その際はすごく助かりました。特に、オーディエンスマイクもまとめることなく28本分を個別で渡してくださったので、MAの段階ですぐに定位が反映できたはとてもありがたかったです。
チームで取り組むDolby Atmos制作
染谷:今回は三浦さんが音楽を担当されて、僕と嶋田さんでAtmosまわりを担当したんですけど、チームの役割分担がすごく明確になっているからこそできたことが沢山ありました。そのなかの一つとして、編集された映像に対して膨大な音素材を嶋田さんが並べ替えて、ミックスができる状態にしてくれる安心感というのはすごく大きかったです。今回、嶋田さんには、大きく2つのお願いをしました。①映像に合わせてのステム管理、使うトラックの選定、とても重要な基本となるAtmosミックス、②足りないオーディエンスを付け足すという作業をしてもらいました。何度も言っちゃいますが、すごいトラック数なので並べるのも大変だったと思います。
三浦:こちらからお渡ししたのはライブ本編まるまる一本分の素材なので、そこから映画の尺、映像に合わせての調整をしていただきました。
嶋田:映像編集の段階で一曲ずつ絶妙な曲間にするための尺調整や曲順の入れ替えがあったり、エディットポイントが多めで、いつもより時間をかけた記憶があります。特に普段のMAでは扱わないこのトラック数を一括で動かすとなると、本当に神経を使う作業になるんですよ。修正素材を張り込む時にも、一旦別のタイムラインに置いて、他のオーディオファイルと一緒に映像のタイムラインに置いたりと、とにかくズレないように工夫をしていました。
R:Atmosで広げるといってもLCRを中心に作られていたなと拝見して感じているんですけれど、やはり映画館ではセンタースピーカーを基本に、スクリーンバックでの音が中心になりますか。
嶋田:映像作品なので、正面のメインステージの楽器の配置、三浦さんのステレオのイメージを崩さないバランスで置きました。空間を作るのはオーディエンスマイクを軸にしています。さらに立体感を出すためにギターを少し後ろに置いてみたりもしました。ボーカルはセンター固定です。しっかりと聴かせたいボーカルをレスポンス良く出すために、LRにこぼすなどはせずに勝負しました。なんですが、、、ラスト2曲はセンターステージの特別感を出すために中央に近い定位に変えています。
染谷:福山さんからの定位に関するリクエスト多くありましたね。印象的な部分では今さんのギターを回したり、SaxやStringsの定位、コーラスの定位はここに置いて欲しい、など曲ごとの細かな指定がありました。
R:ベッドとオブジェクトの使い分けについてはどう設計されました?
嶋田:基本的には楽器はベッド、オーディエンスをオブジェクトにしました。それでもすべてのオーディエンスマイクをオブジェクトにするとオブジェクト数がすぐオーバーするので、その選定はだいぶ計算しました。
染谷:やっぱりどうしてもオブジェクトの数は足りなくなります。 Auxトラックを使用して、オブジェクトトラックに送り込む方法もありますけど、映像の変更が最後まであったり、それに伴うオーディエンスの追加が多くなると、EQを個別に変えたりなどの対応がとても複雑になります。瞬時の判断が求められる作業では、脳内で整理しながら一旦AUXにまとめてレンダラーへ送っている余裕は無くなってきます。やはり1対1の方が即時の対応はしやすかったです。今考えているのは、ベッドってどこまでの移動感を表現できるのか?ということです。先ほどギターを回したと言いましたが、それも実はベッドなんです。ベッドだとアレイで鳴るので、どこの位置で回すかということは考えないといけませんでしたが、最終的に上下のファンタム音像を作って回してあげるとHomeでもCinemaでもある程度の上下感を保って回ってくれることが分かりました。絶対に高さ方向に動くものはすべてオブジェクトじゃなきゃダメ!という固定概念を疑ってみようかなと思って挑戦してみたんですけど。嶋田さんはどのように感じましたか?
嶋田:こんなにベッドで動くんだ、というのが素直な感想です。私も動くものや高さを出すものはオブジェクトじゃないと、という気持ちがずっとあったんですけど、今のオブジェクト数の制約の中ではこういった工夫をしていかないといけないなと思っています。
📷Dolby Atmos Home環境でのプリミックスは、Atmosミックスを担当したお二人が在籍するヒューマックスエンタテインメント、SONAのスタジオが使用された。劇場公開作品でもHome環境を上手に活用することは、制作に伴う時間的・金銭的な問題への重要なアプローチとなりえる。その為には、スピーカーの選定やモニターシステムの調整などCinema環境を意識したHome環境の構築が肝心だ。なお、ファイナルミックスは本編が東映のダビングステージ、予告編がグロービジョンにて行われた。
シネマ環境を意識したプリミックス
染谷:今回、ダビングステージを何ヶ月も拘束することはできないので、Dolby Atmos Home環境でダビングのプリミックスを行いました。Homeのスタジオが増えてきていますが、Homeで完結しない場合もこれから多く出てくると思うので、今回はこういった制作スタイルにトライしてみようと考えました。
嶋田:Homeでのプリミックスでまず気をつけなければならないのが、モニターレベルの設定です。映画館で欲しい音圧感が、普段作業している79dBCでは足りないなと感じたので、Homeから82dBCで作業していました。
染谷:最終確認は85dBCでモニターするべきなんですが、作業では82dBCくらいが良いと感じています、スピーカーとの距離が近いスタジオ環境では85dBCだと圧迫感があって長時間の作業が厳しくなってしまいます。
嶋田:ダビングステージでは空間の空気層が違う(スピーカーとの距離が違う)ので、ダビングステージの音質感や、リバーブのかかり方をHomeでもイメージしながら作業しました。またダビングステージは間接音が多く、Homeでは少し近すぎるかなというクラップも、ダビングステージにいけばもう少し馴染むから大丈夫だとサバ読みしながらの作業です。
染谷:Dolby Atmos Cinemaの制作経験がある我々は、ある程度その変化のイメージが持てますが、慣れていない方はHomeとの違いにものすごくショックを受けられる方も多いと聞いています。三浦さんはどうでした?
三浦:やはり空間が大きいなと、その点ではより武道館のイメージにより近くなるなとは感じましたね。
R:ダビングではどう鳴るか分かって作業しているかが本当に大事ですよね。やはりダビングは、映画館と同等の広さの部屋になりますからね。
染谷:直接音と間接音の比率、スピーカーの距離が全然違いますからね。制作される際はそういったことを含めて、きちんと考えていかないといけません。
嶋田:今回Homeからダビングステージに入ってのイコライジング修正もほぼなかったですね。
染谷:ダビング、試写室、劇場といろんな場所によっても音は変わるんだなというのは思います。どれが本当なんだろうなと思いながらも、現状では80点とれていればいいのかなと思うことにしています。
R:それは映画関係の方々よく仰ってます。ある程度割り切っていかないとやりようがないですよね。三浦さんは今回初めてAtmosの制作を経験されましたが、またやりたいと思われます?
三浦:このチームでなら!
染谷・嶋田:ありがとうございます(笑)。
三浦:染谷さん、嶋田さんには、客席のオーディエンスマイクのレベルを上げると、被っている楽器の音まであがっちゃうんですが、そういう音も綺麗に取っていただいて。
染谷:でも、その基本となる三浦さんのステムの音がめちゃくちゃに良かったです。
嶋田:聴いた瞬間に大丈夫だと思いましたもんね。もう私たちはこれに寄り添っていけばいいんだと思いました。
染谷:今回は特に皆さんのご協力のもと素晴らしいチームワークから素敵な作品が完成しました。短い時間ではありましたが、三浦さんのご尽力で私たち3名のチーム力も発揮できたと感じています。プロフェッショナルな方達と一緒に仕事をするのは楽しいですね。
三浦:そういった話で言うと、最後ダビングステージの最終チェックに伺った際、より音がスッキリと良くなっていると感じたんです。なぜか聞いたらクロックを吟味され変えられたとのことで、最後まで音を良くするために試行錯誤されるこの方達と一緒にやれて良かったなと感じています。
染谷:その部分はずっと嶋田さんと悩んでいた部分でした。DCPのフレームレートは24fpsですが、実際の収録や音響制作は23.976fpsの方が進めやすいです。しかし最終的に24fpsにしなくてはいけない。そこでPro Toolsのセッションを24fpsに変換してトラックインポートかけると、劇的に音が変わってしまう。さらにDCP用Atmosマスター制作時、.rplファイルからMXFファイル(シネマ用プリントマスターファイル)に変換する際にも音が変わってしまうんです。
この2つの関門をどう乗り越えるかは以前からすごく悩んでいました。今回はそれを克服する方法にチャレンジし、ある程度の合格点まで達成できたと感じています。どうしたかというと、今回はSRC(=Sample Rate Convertor)を使いました。Pro Toolsのセッションは23.976fpsのまま、SRCで24fpsに変換してシネマ用のAtmosファイルを作成したところ、三浦さんに聴いていただいたスッキリした音になったんです!今後もこの方法を採用していきたいですね。
R:SRCといっても色々とあると思うのですが、どのメーカーの製品を使われたんですか?
嶋田:Avid MTRXの中で、MADI to MADIでSRCしました。以前から24fpsに変換するタイミングでこんなに音が変わってしまうんだとショックを受けていたんですが、今回で解決策が見つかって良かったです。
染谷:MXFファイルにしたら音が変わる問題も実は解決して、結局シネマサーバーを一度再起動したら改善されました。普段はあまり再起動しない機器らしいので、一回リフレッシュさせてあげるのは特にデジタル機器では大きな意味がありますね。こういった細かなノウハウをみんなで情報共有して、より苦労が減るようになってくれればと願っています。
R:この手の情報は、日々現場で作業をされている方ならではです。今日は、Atmos制作に関わる大変重要なポイントをついたお話を沢山お聞きすることができました。ありがとうございました。
📷本作を題材に特別上映会・トークセッションも今年頭に開催された。
本作はアーティストの脳内にある“ライブの理想像”を追求したことで、Dolby Atmosによるライブ表現の新たな可能性が切り拓かれた作品に仕上がっている。音に関しても、アーティストが、ステージで聴いている音を再現するという、新しい試みだ。それは、アーティストと制作チームがコミュニケーションを通じて共通のビジョンを持ち制作が進められたことで実現された。修正やダビングといったあらゆる工程を見越した上でのワークフローデザインは、作業効率はもちろん最終的なクオリティにも直結するということが、今回のインタビューを通して伝わってきた。入念な準備を行い、マイクアレンジを煮詰めることの重要性を改めて実感する。そして何より、より良い作品作りにはより良いチーム作りからという本制作陣の姿勢は、イマーシブ制作に関係なく大いに参考となるだろう。
FUKUYAMA MASAHARU LIVE FILM言霊の幸わう夏@NIPPON BUDOKAN 2023
監督:福山雅治
出演:福山雅治、柊木陽太
配給:松竹
製作:アミューズ
©︎2024 Amuse Inc.
*ProceedMagazine2024号より転載
Music
2024/08/16
Xylomania Studio「Studio 2」様 / 11.2.6.4イマーシブによる”空間の再現”
スタジオでのレコーディング / ミキシングだけでなく、ライブ音源、映画主題歌、ミュージカルなど多くの作品を手掛ける古賀 健一 氏。音楽分野におけるマルチチャンネル・サラウンド制作の先駆者であり、2020年末には自身のスタジオ「Xylomania Studio」(シロマニアスタジオ)を手作りで9.4.4.5スピーカー・システムへとアップデートしたことも記憶に新しいが、そのXylomania Studioで2部屋目のイマーシブ・オーディオ対応スタジオとなる「Studio 2」がオープンした。11.2.6.4という、スタジオとしては国内最大級のスピーカー・システムが導入され、Dolby Atmos、Sony 360 Reality Audio、5.1 Surround、ステレオといったあらゆる音声制作フォーマットに対応するだけでなく、立体音響の作曲やイマーシブ・コンサートの仕込みも可能。さらに、120inchスクリーンと8Kプロジェクタも設置されており、ポストプロダクションにも対応できるなど、どのような分野の作業にも活用できることを念頭に構築されている。この超ハイスペック・イマーシブ・レンタル・スタジオについて、オープンまでの経緯やそのコンセプトについてお話を伺った。
Beatlesの時代にイマーシブ表現があったら
Xylomania Studio 古賀 健一 氏
Official髭男dismのApple Music空間オーディオ制作や第28回 日本プロ音楽録音賞 Immersive部門 最優秀賞の受賞など、名実ともに国内イマーシブ音楽制作の最前線を走る古賀 健一 氏。その活躍の場はコンサートライブや映画主題歌など多岐に渡り、自身の経験をスタジオ作りのコンサルティングなどを通してより多くのエンジニアやアーティストと共有する活動も行っている。
まさにイマーシブの伝道師とも呼べる古賀氏だが、音の空間表現に関心を持ったのはDolby Atmosが生まれるよりもはるか以前、彼の学生時代にまで遡るという。「現場ではたくさんの楽器、たくさんの音が鳴っているのに、それを表現する手段がステレオしかないということにずっと疑問を持っていた」という古賀氏だが、学生時代に出会ったSACDではじめて5.1サラウンドを体験して衝撃を受ける。
「これこそが、音楽表現のあるべき姿だ」と感じた古賀氏だが、「当時はPro Tools LEにサラウンドオプションを追加するお金もなかった」という中で工夫を重ねて再生システムを構築し、5.1サラウンド作品をひたすら聴いていたという。古賀氏といえば、自身のスタジオであるXylomania StudioをDIYでイマーシブ対応に改修し、その様子をサウンド&レコーディング・マガジン誌上で連載していたこともあるが、彼の飽くなき探究心とDIY精神はすでにこのころから備わっていたようだ。
その後も独自に空間表現を探究していた古賀氏だが、Dolby Atmosの登場によって、「これなら、もっと自由でもっと手軽に、音楽表現を追求できるんじゃないか」と感じたことで自身のスタジオをイマーシブ・オーディオ対応へと改修することを決める。しかし、「当初は5.1.4、なんなら、5.1.2で十分だと考えてました。そうしたら、Netflixが出したガイドラインが7.1.4となっていて、個人で用意できる予算では無理だと悟った」ことで、法人としてのXylomania Studioを設立することを決意したのだという。それから最初のスタジオができるまでについては、サンレコ誌への連載が今でもWEBで読めるので、ぜひそちらをご覧いただきたい。
Xylomania Studioがイマーシブ制作に対応したのが2020年12月。それから3年の時を経て、同社ふたつ目のイマーシブ・スタジオがオープンした理由や、この間に古賀氏自身の心境、イマーシブ・オーディオを取り巻く環境に変化はあったのだろうか。「ぼく自身のことを言えば、イマーシブへの関心はますます深まるばかりです。探究したいことはどんどん出てくる。周囲の環境については、やはりApple Musicの”空間オーディオ”の影響は大きいです。それ以前と比べると、関心を持ってくれるひとは確実に増えた。もともと、ぼくはお金になるかどうかは考えて動かないんです。Xylomania Studioも、ただ自分が探究したいという思いだけで作ったものだったので、成功する目論見なんてなかった。それが、ビジネスとしてきちんと成立するところまでたどり着けたことについては、仲間たちと”神風が吹いたね”なんて言っています」という。
今回オープンしたXylomania Studio「Studio 2」の計画がはじまったのは2022年夏。より多くの人にイマーシブ表現の可能性を体験してほしいと考えた古賀氏が、イマーシブ・スタジオの外部貸出を検討したことがスタートとなっている。
音楽ジャンルによってはイマーシブ表現が合わないものもある、という意見もあるが、これに対して古賀氏の「モノにはモノの、ステレオにはステレオのよさがあるのは確か。でも、ぼくは”イマーシブが合わないジャンル”なんてないと思ってます。だって、もしBeatlesの時代にイマーシブ表現があったら、彼らは絶対にやってたと思いませんか?」という言葉には、思わず深く頷いてしまった。「ふたつ目のスタジオを作ろうという気持ちになれたのも、空間オーディオによってイマーシブ制作がビジネスの軌道に乗ることができたからこそ。」という古賀氏。そうした仕事を通して関わったひとたちへの恩返しのためにも、国内のイマーシブ・シーンを盛り上げるようなアクションを積極的に取っていきたいという気持ちがあるようだ。
当初はStudio 1を貸出し、その間に自身が作業をおこなうための部屋を作ろうとしていたようだが、さまざまな紆余曲折を経て、結果的にはStudio 1をも超える、国内最高峰のイマーシブ・レンタル・スタジオが完成した。誌面で語り尽くせぬ豊富なエピソードとともに、以下、Xylomania Studio「Studio 2」のシステムを見ていきたい。
11.2.6.4イマーシブによる”空間の再現”
📷「Studio 2」はサイドの壁面色違いの箇所にインウォールでスピーカーを設置、この解決策により窮屈感はまったくなく、実際よりも広々とした居心地を実現した。肝心のサウンドについても映画館をはるかに超える音響空間を創出している。
11.2.6.4インウォール・スピーカー・システムによるイマーシブ再生環境、Danteを駆使したネットワーク伝送、ハイクオリティなブースとしての機能、大型スクリーンと8Kプロジェクタなど、Xylomania Studio「Studio 2」のトピックは枚挙にいとまがないが、このスタジオの最大の特徴は”限りなく本番環境に近い音場を提供できること”である。Studio 2の先鋭的かつ挑戦的なスペックのすべては、スタジオの中でどれだけ作品の最終形に近い響きを提供できるか、という目的に集約されているからだ。
古賀氏は「自分のスタジオでこう鳴っていれば例えばダビングステージではこういう音になるだろう、ということを想像することはできます。でも、その差を常に想像しながら作業を続けることはすごいストレス。仕込んだ音を現場で鳴らした時に、スタジオで意図した通りに鳴るような、本当の意味での”仕込み”ができる部屋を作りたかった」ということのようだ。「この部屋でミックスしたものをそのままライブに持ち込める、ダビングステージで作業したミックスを持ち込めばそのままここで配信用のマスターが作れる、そんなスタジオにしたかった。」
この、言わば音が響く空間を再現するというコンセプトを可能にしているのは、まぎれもなく11.2.6.4イマーシブ・システムだ。Studio 2のスピーカー配置は一般的なDolby Atmosレイアウトをもとに、サイド・リアとハイトは左右に3本ずつのスピーカーを持ち、それによって映画館やダビングステージのアレイ再生やディフューズ・サラウンド音場を再現している点が大きな特徴。実は、Studio 2の再生環境はその計画の途中まで既存のStudio 1と同じ9.2.6.4のシステムを組む方向で進んでいたのだという。しかし、古賀氏のある経験がきっかけで今の11.2.6.4へと拡張されることになったようだ。「ある映画主題歌の仕事でダビングステージを訪れた時、リア方向に振った音が思っていたより後方まで回り込んだんです。今までのニアフィールドの環境で映画作品の最終形をイメージすることには限界があると感じ、アレイ再生ができる環境を作るために急遽スピーカーを2本追加することにしました。」
📷フロントLCRに採用されたci140。センターとLRの間がサブウーファーのci140sub。
その11.2.6.4イマーシブ・システムを構成するスピーカーは、すべてPCMのインウォール・モデルである「ciシリーズ」。フロントLCR:ci140、ワイド&サラウンド:ci65、ハイト:ci45、ボトム:ci30、SW:ci140sub となっており、2台のサブウーファーはセンター・スピーカーとワイド・スピーカーの間に配置されている。
スピーカーをインウォール中心にするというアイデアも、計画を進める中で生まれたものだという。先述の通り、当初は今のStudio 1を貸出している間に自身が作業をおこなうための部屋を作ろうとしていたため、もともとレコーディング・ブースとして使用していたスペースに、スタンド立てのコンパクトなイマーシブ再生システムを導入しようと考えていたという。だが、スピーカーをスタンドで立ててしまうとブースとして使用するには狭くなりすぎてしまう。ブースとしての機能は削れないため、”もっとコンパクトなシステムにしなければ”という課題に対して古賀氏が辿り着いた結論が、以前にコンサルティングを請け負ったスタジオに導入した、”インウォール・スピーカー”にヒントを得たようだった。システムを小さくするのではなく、逆に大きくしてしまうことで解決するという発想には脱帽だ。
モデルの決定にはメーカーの提案が強く影響しているとのことだが、「ci140は国内にデモ機がなかったので、聴かずに決めました(笑)」というから驚きだ。古賀氏は「チームとして関わってくれる姿勢が何よりも大事。こういう縁は大切にしたいんです」といい、その気概に応えるように、PMCはその後のDolby本社との長いやりとりなどにおいて尽力してくれたという。
📷上左)サラウンドチャンネルをアレイ再生にすることで、映画館と同じディフューズ・サラウンドを再現することを可能にしている。上右)サイド/ワイド/リアはci65。後から角度を微調整できるように固定されておらず、インシュレーターに乗せているだけだという。下左)ハイト・スピーカーはci45。下右)ボトム・スピーカーを設置しているため、Dolby Atmosだけではなく、Sony 360 Reality Audioなどの下方向に音響空間を持つイマーシブ制作にも対応可能。「ボトムはリアにもあった方がよい」という古賀氏の判断で、フロント/リアそれぞれに2本ずつのci30が置かれている。
最後まで追い込んだアコースティック
Studio 2が再現できるのは、もちろん映画館の音響空間だけではない。マシンルームに置かれたメインのMac Studioとは別に、Flux:: Spat Revolution Ultimate WFS Add-on optionがインストールされたM1 Mac miniが置かれており、リバーブの処理などを専用で行わせることができる。このSpat Revolution Ultimateに備わっているリバーブエンジンを使用して、Studio 2ではさまざまな音響空間を再現することが可能だ。必要に応じて、波面合成によるさらなるリアリティの追求もできるようになっている。
古賀氏が特に意識しているのは、コンサートライブ空間の再現。「このスタジオを使えば、イマーシブ・コンサートの本番環境とほとんど変わらない音場でシーケンスの仕込みができます。PAエンジニアはもとより、若手の作曲家などにもどんどん活用してほしい。」というが、一方で「ひとつ後悔しているのは、センターに埋め込んだサブウーファーもci140にしておけば、フロンタルファイブのライブと同じ環境にできたこと。それに気付いても、時すでに遅しでしたけど」と言って笑っていた。常に理想を追求する姿勢が、実に古賀氏らしい。
📷Flux:: Spat Revolution Ultimate WFS Add-on option
さらに、Spat Revolution UltimateはStudio 2をレコーディング・ブースとして使用した際にも活用することができる。マイクからの入力をSpat Revolution Ultimateに通し、リバーブ成分をイマーシブ・スピーカーから出力するというものだ。こうすることで、歌手や楽器の音とリバーブを同時に録音することができ、あたかもコンサートホールや広いスタジオで収録されたかのような自然な響きを加えることができる。「後からプラグインで足すだけだと、自然な響きは得られない。ぼくは、リバーブは絶対に録りと同時に収録しておいた方がいいと考えています。」
こうした空間再現を可能にするためには、当然、スピーカーのポジションや角度、ルームアコースティック、スピーカーの補正などをシビアに追い込んでいく必要がある。Studio 2はもともと8畳程度の小さな空間に造られており、広さを確保するために平行面を残さざるを得なかったというが、その分、「内装工事中に何度も工事を止め、何度もスピーカーを設置して、実際に音を鳴らしてスピーカーの位置と吸音を追い込んでいきました」という。その結果、どうしても低域の特性に納得できなかった古賀氏は、工事の終盤になってスピーカーの設置全体を後方に5cmずらすことを決めたという。「大工さんからしたら、もう、驚愕ですよ。でも、おかげで音響軸は1mmのずれもなくキマってます。極限まで追い込んだ音を体験したことがある以上、半端なことはしたくなかった。」
電気的な補正を担っているのはTrinnov Audio MC-PROとAvid Pro Tools | MTRX II。MC-PROはDante入力仕様となっており、先にこちらで補正をおこない、MTRX II内蔵のSPQ機能を使用してディレイ値やEQの細かい部分を追い込んでいる。「MC-PROの自動補正は大枠を決めるのにすごく便利。SPQは詳細な補正値を確認しながらマニュアルで追い込んでいけるのが優れている」と感じているようだ。
📷「最初から導入を決めていた」というTrinnov MC PROは数多くの実績を持つ音場補正ソリューション。MC PROもパワーアンプもDante入力を持つモデルを選定しており、システム内の伝送はすべてDanteで賄えるように設計されている。
テクノロジーとユーティリティの両立
📷「Studio 2」のミキシング・デスク。コントロール・サーフェスはPro Tools | S1とPro Tools | Dockの組み合わせ。デスク上にはRedNet X2PやDAD MOMも見える。
Studio 2のシステム内部はすべてデジタル接続。Studio 1 - Studio 2間の音声信号がMADIである以外は、パワーアンプの入力まですべてDanteネットワークによって繋がっている。モニターセクションの音声信号はすべて96kHz伝送だ。パッチ盤を見るとキャノン端子は8口しかなく、DanteやMADI、HDMIなどの端子が備わっていることにスタジオの先進性が見て取れる。
メインMacはMac Studio M2 UltraとSonnet DuoModo xEcho IIIシャーシの組み合わせ。MacBookなどの外部エンジニアの持ち込みを想定して、HDXカードをシャーシに換装できるこの形としている。オーディオI/OはAvidのフラッグシップであるPro Tools | MTRX II。「MTRX IIになって、DanteとSPQが標準搭載になったことは大きい。」という。オプションカードの構成はAD x2、DA x2、Dante x1、MADI x1、DigiLink x2となっており8個のスロットをフルに使用している。確かに、同じ構成を実現するためには初代MTRXだったらベースユニットが2台必要なところだった。合計3組となるDigiLinkポートは、それぞれ、ステレオ、5.1、Dolby Atmos専用としてI/O設定を組んでおり、出力フォーマットが変わるたびにI/O設定を変更する必要がないように配慮されている。
📷左)本文中にもある通り「初代MTRXなら2台導入する必要があった」わけで、結果的にMTRX IIの登場は「Studio 2」の実現にも大きく貢献したということになる。中)メインMacをMac Studio + TBシャーシとすることで、クリエイターがMacを持ちこんだ場合でもHDXカードを使用した作業が可能になっている。RMU I/FのCore 256はあらゆるフォーマットの音声をRMUに接続。「Studio 2」ではDanteまたはMADIを状況に応じて使い分けている。
Dolby Atmosハードウェア・レンダラー(HT-RMU)はMac miniでこちらもCPUはM2仕様。Apple Siliconは長尺の作品でも安定した動作をしてくれるので安心とのこと。RMUのI/FにはDAD Core 256をチョイス。Thunderbolt接続でDante / MADIどちらも受けられることが選定の決め手になったようだ。96kHz作業時はDante、48kHzへのSRCが必要な時はDirectOut Technologies MADI.SRCを介してMADIで信号をやりとりしているという。
Studio 2のサイドラックには、ユーティリティI/OとしてThunderbolt 3オプションが換装されたPro Tools | MTRX Studioが設置されているほか、Focusrite RedNet X2PやNeumann MT48も見える。Studio 2でちょっとした入出力がほしくなったときに、パッと対応できるようにしてあるとのこと。「作曲家やディレクターにとってソフトウェアでの操作はわかりにくい部分があると思うので、直感的に作業できるように便利デバイスとして設置してある」という配慮のようだ。
📷左右のサイドラックには、Logic ProやSpat RevolutionがインストールされたMacBook Pro、フロントパネルで操作が可能なMTRX Studio、各種ショートカットキーをアサインしたタブレット端末などを設置。
個人的に面白いと感じたのは、AudioMovers Listen ToとBinaural Rendererの使い方だ。DAWのマスター出力をインターネット上でストリーミングすることで、リモート環境でのリアルタイム制作を可能にするプラグインなのだが、この機能を使ってスマートフォンにリンクを送り、AirPodsでバイノーラル・ミックスのチェックを行うのだという。たしかに、こうすればわざわざマシンルームまで行ってMacとBluetooth接続をしなくて済んでしまう。
操作性の部分でもこれほどまでに追い込まれているStudio 2だが、「それでも、これをこう使ったらできるんじゃないか!?と思ったことは、実際にはほとんどできなかった」と古賀氏は話す。古賀氏のアイデアは、進歩するテクノロジーをただ追うのではなくむしろ追い越す勢いで溢れ出しているということだろう。
「Amazonで見つけて買った(笑)」というデスクは、キャスターと昇降機能付き。作業内容やフォーマットによってミキシングポイントを移動できるように、ケーブル長も余裕を持たせてあるという。「この部屋にはこれだけのスペックを詰め込みましたけど、内覧会で一番聞かれたのが、そのデスクと腰にフィットする椅子、どこで買ったんですか!?だった(笑)」というが、確かに尋ねたくなる気持ちもわかるスグレモノだと感じた。
紆余曲折を経て、結果的に古賀氏自身のメインスタジオよりも高機能・高品質なスタジオとなったStudio 2だが、このことについて古賀氏は「9.1.4のStudio1を作ってからの3年間で、9.1.6に対応したスタジオは国内にだいぶ増えたと思ってます。だったら、ぼくがまた同じことをやっても意味がない。ぼくが先頭を走れば、必ずそれを追い越すひとたちが現れます。そうやって、国内シーンの盛り上がりに貢献できたらいい」と語ってくれた。「このスタジオのようなスペックが当たり前になった暁には、ぼくはここを売ってまた新しい部屋をつくります!今度は天井高が取れる場所がいいな〜」といって笑う古賀氏だが、遠くない将来、きっとその日が来るのだろうと感じた。
*ProceedMagazine2024号より転載
Music
2024/08/13
Bob Clearmountain〜 伝説のエンジニア ボブ・クリアマウンテンが描くミックス・ノウハウのすべて 〜
去る4月、伝説のレコーディング・エンジニアであるボブ・クリアマウンテン氏が来日。東京・麻布台のSoundCity B Studioにおいて「伝説のエンジニア ボブ・クリアマウンテンが描くミックス・ノウハウのすべて」と題したセミナー・イベントが開催された。受講者20名限定で開催されたこのイベントでは、注目を集める“音楽のイマーシブ・ミックス”について、ボブ・クリアマウンテンがそのワークフローとテクニックを約3時間にわたって解説。途中、一般には公開されていない著名な楽曲のイマーシブ・ミックスが特別に披露されるなど、大変充実した内容のイベントとなった。ここではその模様をダイジェストでお伝えしたい。
イマーシブ・オーディオへの取り組み
Bob Clearmountain氏:私は音楽のサラウンド・ミックスにいち早く取り組んだエンジニアのひとりだと思いますが、イマーシブ・オーディオに関しては、妻(注:Apogee ElectronicsのCEO、ベティー・ベネット氏)から、“これは素晴らしいテクノロジーだから、ぜひ取り組むべきだ”と背中を押されたことがきっかけになりました。実際に音楽のイマーシブ・ミックスを手がけたのは、皆さんご存知のザ・バンドが最初です。私はザ・バンドの名盤3作品の5.1chミックスを手がけたのですが、その中の1枚「カフーツ」というアルバムの作業をしているときに、レコード会社の担当者から、“Dolby Atmosでもミックスしてみないか”というオファーがあったのです。
その後間もなく、ジョー・ボナマッサの「Time Clocks」というアルバムもDolby Atmosでミックスしました。これが私にとって音楽のイマーシブ・ミックスの2作目になります。このアルバムのプロデューサーであるケヴィン・シャーリーはオーストラリア出身で、ディジュリドゥのサウンドがとても印象的な作品です。このアルバムは何年も前の作品であったため、レーベル・サイドもアーティスト本人も、最初はDolby Atmos化にあまり関心がありませんでした。ただ、私は自分のスタジオをDolby Atmosに対応させたばかりだったので、Dolby Atmosバージョンをジョー・ボナマッサ本人、ケヴィン・シャーリー、レーベルのスタッフに聴いてもらったのです。そうしたら彼らはそのサウンドに感銘を受け、“これは素晴らしい、ぜひリリースしよう”ということになりました。それがきっかけで、ケヴィンも自身のスタジオをDolby Atmosに対応させましたよ(笑)。
私は1980年代、ロキシー・ミュージックの「Avalon」というアルバムをミックスしましたが、あれだけ様々な要素が含まれている作品がステレオという音場の中に収められているのはもったいないと前々から感じていました。もっと音場が広ければ、要素をいろいろな場所に定位できるのに… という想いが、常に頭の中にあったのです。もちろんそれは、イマーシブ・オーディオどころか、サラウンドが登場する以前の話で、いつかその想いを叶えたいと思っていました。その後、念願かなって「Avalon」のサラウンド・ミックスを作ることができました。そしてイマーシブ・オーディオの時代が到来し、「Avalon」のプロデューサーであるレット・ダヴィースと“これは絶対にDolby Atmosでミックスするべきだ”ということになったのです。
Dolby Atmosバージョンの「Avalon」を体験された方なら分かると思いますが、かなりの要素が後方に配置されており、そのようなバランスの楽曲は珍しいのではないかと思います。たとえば、印象的な女性のコーラスも後方に配置されています。なぜこのようなバランスにしたかと言えば、ステレオ・ミックスを手がけたときもそうだったのですが、演劇のような音響にしたいと考えたからです。楽曲に登場する演者、ボーカリスト、プレーヤーを舞台に配置するようなイメージでしょうか。ですので、キーとなるブライアン・フェリーのボーカルはフロント・センターですが、他の要素は異なる場所に定位させました。
イマーシブ・ミックスというと、多くの要素が動き回るミックスを想起する方も多いのではないかと思います。もちろん、そういうミックスも可能ですが、Dolby Atmosバージョンの「Avalon」ではそういうダイナミックなパンニングはほとんどありません。言ってみれば静的なミックスであり、ジェット機やヘリコプター、アイアンマンが登場するようなミックスではないのです。
SSL 4000Gを使用したイマーシブ・ミックス
📷オーディオの入出力を担うのはApogeeのSymphony I/O Mk II。Atmosミックスとステレオミックスを同時に作るワークフローではこれらを切り替えながら作業を行うことになるが、その際に素早く切り替えを行うことができるSymphony I/O Mk IIのモニター・コントロール機能は重宝されているようだ。SSL 4000Gの後段にある「プリント・リグ」と呼んでいるセクションで下図のようなセッティングを切り替えながら制作が進められていく。
私はイマーシブ・ミックスもアナログ・コンソールのSSL 4000Gでミックスしています。SSL 4000Gには再生用のAvid Pro Toolsから72chのオーディオが入力され、そしてミックスしたオーディオは、“プリント・リグ”と呼んでいる再生用とは別のPro Toolsにレコーディングします。“プリント・リグ”のPro Toolsは、最終のレコーダーであると同時にモニター・コントローラーとしての役割も担っています。
そして再生用Pro Toolsと“プリント・リグ”のPro Tools、両方のオーディオ入出力を担うのは、ApogeeのSymphony I/O Mk IIです。私は、ステレオ・ミックスとDolby Atmosミックスを同時に作りますが、Symphony I/O Mk IIでのモニター・コントロール機能は、まさしく私のワークフローのために搭載されているような機能と言えます。私は7.1.4chのDolby Atmosミックスと、ニア・フィールド・スピーカーやテレビなどに送る3組のステレオ・ミックスを切り替えながら作業を行いますが、Symphony I/O Mk IIではそういったワークフローに最適な機材です。ステレオ・ペアを最大16組作成することができ、非常に柔軟な作業環境を構築できるため、過去に手がけた5.1chのサラウンド・ミックスと比較しながらの作業も容易です。
肝心のミキシングについて、アナログ・コンソールのSSL 4000Gで一体どのようにイマーシブ・ミックスを行っているのか、疑問に感じた人もいるかもしれません。しかし決して特別なことを行っているわけではなく、そのルーティングはストレートでシンプルです。SSL 4000Gに入力した信号は、チャンネル・ストリップで調整した後、Dolby Atmos用のチャンネルとして、スモール・フェーダーのトリム・チャンネルを活用して送っているのです。スモール・フェーダーは基本ユニティーで使用し、レベルはラージ・フェーダーの方で調整してから、ポスト・フェーダーでスモール・フェーダーに送ります。スモール・フェーダーから2本のスピーカーに同時に送ることは基本ありませんが、隣り同士のスピーカーに同じ信号を送って、パンでバランスを調整することはあります。また、このルーティングですと、基本オートメーションを使用することができません。オートメーションを使いたいときは、専用のバスを作り、そちらに送ることで対処しています。
私のSSL SL4000Gは特別仕様で、VCAとバス・コンプレッサーが4基追加で備わっています。標準のステレオ・バスのDCを、追加搭載した4基のVCA / バス・コンプレッサーにパッチすることで、すべてのバス・コンプレッサーの挙動をスレーブさせ、ステレオ・ミックスとマルチ・チャンネル・ミックスのコンプレッションの整合性を取っているのです。ただ、これだけの構成では5.1chのサラウンド・ミックスには対応できても、7.1.4chのイマーシブ・ミックスには対応できません。それでどうしようかと悩んでいたときに、Reverb(編注:楽器・機材専門のオンライン・マーケットプレイス)でSSLのVCA / バス・コンプレッサーをラック仕様にノックダウンした機材を発見し、それを入手して同じようにDC接続することで、7.1.4chのイマーシブ・ミックスに対応させました。これはとてもユニークなシステムで、おそらく世界中を探しても同じようなことをやっている人はいないと思います(笑)。もちろん、サウンドは素晴らしいの一言です。
Dolby Atmosミックスは、7.1.2chのベッドと最大128個のオブジェクトで構成されますが、私は基本的にベッドルーム(7.1.2)でミックスを行います。オブジェクトは動く要素、たとえば映画に登場するヘリコプターなどのサウンドを再現する上では役に立ちますが、音楽のイマーシブ・ミックスにはあまり必要だとは思っていません。ですので、Dolby Atmosミックスと言っても私はハイト・スピーカーを除いた7.1chで音づくりをしています。なお、ハイト・チャンネルに関してDolby Laboratoriesは2chのステレオとして規定していますが、私は4chのクアッドとして捉え、シンセサイザーやスラップバック・ディレイなどを配置したりして活用しています。
ステレオ・ミックスのステムはできるだけ使用しない
先ほどもお話ししたとおり、私はステレオ・ミックスとDolby Atmosミックスを同時に行います。最初にステレオ・ミックスを作り、そこから書き出したステムを使ってDolby Atmosミックスを作る人が多いと思うので、私のワークフローは珍しいかもしれません。なぜステレオ・ミックスとDolby Atmosミックスを同時に行うのかと言えば、私はステレオ・ミックスから書き出したステムに、ミキシングを縛られたくないからです。ステレオ・ミックスのステムは、エフェクトも一緒に書き出されてしまっているため、もう少しフィールドを広げたいと思っても簡単にはいきません。楽曲の中心であるボーカルですらまとめられてしまっているので、私はDolby Atmosミックスに入る前に、iZotope RXを使ってセンターのボーカルとサイドのボーカルを分離します。
ですので、可能な限りオリジナルのセッションからDolby Atmosミックスを作るべきであると考えていますが、これは理想であって、実際には難しいケースもあるでしょう。もちろんステムから作られたDolby Atmosミックスの中にも素晴らしい作品はあります。たとえば、アラバマ・シェイクスのボーカリスト、ブリタニー・ハワードの「What Now」という曲。このミックスを手がけたのはショーン・エヴェレットというエンジニアですが、彼はステムをスピーカーから再生して、それをマイクで録音するなど、抜群のクリエイティビティを発揮しています。まさしくファンキーな彼のキャラクターが反映されたミックスだと思っています。
アーティストの意向を反映させる
最近はレコード会社から、昔の名盤のDolby Atmos化を依頼されることが多くなりました。しかしDolby Atmos化にあたって、アーティスト・サイドの意向がまったく反映されていないことが多いのです。意向が反映されていないどころか、自分の作品がDolby Atmosミックスされたことをリリースされるまで知らなかったというアーティストもいるくらいです。音楽はアーティストが生み出したアート作品です。可能な限りアーティストの意向を反映させるべきであると考えています。
私が1980年代にミックスしたヒューイ・ルイス&ザ・ニュースの「Sports」というアルバムがあります。何年か前にこの作品のディレクターから、“「Sports」のDolby Atmosミックスを作ったので聴いてみないか”という連絡がありました。興味があったので聴きに行ったのですが、その場にいた全員が“これは何かの冗談だろ?”と顔を見合わせるくらいひどいミックスだったのです。試聴環境のセットアップは完璧でしたが、聴くに耐えないミックスでどこかを修正すれば良くなるというものではありません。私はディレクターに、“Dolby Atmosミックスを作り直させてくれないか”と打診しました。予算を使い切ってしまったとのことだったのですが、個人的に思い入れのある作品だったということもあって、無償で引き受けることにしたんです。
この話には余談があります。「Sports」のDolby Atmosミックスは、Apple Musicでの配信直後にリジェクトされてしまったのです。なぜかと言うと、オリジナルのステレオ・ミックスには入っていない歌詞が入っているから。私はDolby Atmosミックスを行う際にあらためてマルチを聴き直してみたのですが、おもしろい歌詞が入っていたので、それを最後に入れてしまったんです(笑)。Appleはオリジナルの歌詞とDolby Atmosミックスの歌詞が同一でないとリジェクトしてしまうので、過去の作品のDolby Atmos化を検討されている方は気をつけてください。彼らはしっかりチェックしているようです(笑)。また、Appleは空間オーディオ・コンテンツの拡充に力を入れていますが、ステレオ・ミックスを単純にアップ・ミックスしただけの作品も基本リジェクトされてしまいます。
一世を風靡した“ボブ・クリアマウンテン・サウンド”
私は古くからの友人であるブライアン・アダムスのヒット曲、「Run To You」もDolby Atmosでミックスしました。Dolby Atmosミックスの話に入る前に、どうやってこの特徴的な’80sサウンドを生み出したのか、少しご紹介しておきましょう。
この曲はカナダのバンクーバーにある「Little Mountain Studio」というスタジオでレコーディングを行いました。私はこの曲のドラムを“ビッグ・サウンド”にしたいと考えたのですが、「Little Mountain Studio」のライブ・ルームはかなりデッドで、私がイメージしていた“ビッグ・サウンド”には不向きな空間だったのです。一体どうしたものか…と思案していたとき、ライブ・ルームの真横にローディング・ベイ、 いわゆるガレージのようなスペースがあることに気付きました。試しにそこで手を叩いてみたところ、コンクリートが気持ちよく反響したので、私はドラムの周囲に比較的硬めの遮蔽板を設置し、残響をローディング・ベイ側に逃すことで、大きな鳴りのドラム・サウンドを作り出したのです。本当に素晴らしいサウンドが得られたので、このセッティングを再現できるように、アシスタントに頼んでドラムやマイクの位置を記録してもらいました。ですので、この“ビッグ・サウンド”は、後にこのスタジオでレコーディングされたボン・ジョヴィやエアロ・スミスの曲でも聴くことができます。
「Run To You」をレコーディングしたのはもう40年も前のことになりますが、自分がやっていることは今も昔も大きく変わっていません。確かに世の中にはトレンドというものがあります。「Run To You」をレコーディングした1980年代はリバーブが強いサウンドが主流でしたが、1990年代になると逆にドライなサウンドが好まれるようになりました。そしてご存知のとおり、現代は再びリバーブを使ったサウンドが主流になっています。そういったトレンドに従うこともありますが、私は天邪鬼なのでまったく違ったサウンドを試すこともあります。いつの時代も自分のスタイルを崩すことはありません。
よく“ボブ・クリアマウンテン・サウンド”と言われることがありますが、私は自分のサウンドについて意識したことはありません。私はあくまでもクライアントであるアーティストのためにミックスを行っているのです。アーティストと一緒に作り上げたサウンドが、結果的に“ボブ・クリアマウンテン・サウンド”になっているのではないかと思っています。
イマーシブ・ミックスにおける各要素の定位
「Run To You」のDolby Atmosミックスについてですが、まずセンターには楽曲の基盤となるボーカル、ベース、スネア、キックといった音を定位させました。こういった音をなぜセンターに集めるかと言うと、私はライブ・コンサートのようなイメージでミックスを行うからです。ロックやポップスのライブ・コンサートでは、これらの音がセンターから聴こえます。ご存知のように、再生環境におけるセンター・スピーカーという考え方は映画から来ています。映画の中心となる音はダイアログで、それはほとんどの場合がセンターに定位されます。その考え方をそのまま音楽に適用しても、問題はないと考えています。
それではサイド、リア、ハイトには、どのような音を定位させるのがいいのでしょうか。楽曲の基盤となる音に関してはセンターに集めた方がいいと言いましたが、同じギターでもパワー・コードのような音ではない、たとえばアコースティック・ギターのような音ならば、サイドに振ってみてもいいかもしれません。キーボードに関しても同じで、ピアノはセンターに定位させる場合が多いですが、シンセサイザーのような音はリアやハイトに定位させると良い結果が得られます。
Dolby Atmosというフォーマットにおいて特徴的な要素と言えるのが、ハイト・スピーカーです。“音楽のミックスで、ハイト・スピーカーなんて使いどころがあるのか?”と思われる人もいるかもしれませんが、実際はとても有用です。たとえば私はアンビエンス… リバーブで作り出した残響ではなく、インパルス・レスポンスにおけるアンビエンスをハイト・スピーカーに送り、これによって空間の高さを演出しています。
もうひとつ、LFEという要素についてです。サブ・ウーファーに関してはミックスを補強してくれる有用な要素ではあるのですが、必須ではないというのが私の考え方です。私はLFEなしでミックスを成立させ、それを補強する際に使用しています。また、ミッド・ファーはバイノーラルのオプションではグレイアウトされて設定することができません。あまりLFEに頼り過ぎてしまうと、ヘッドホンで聴いたときに音像が崩れてしまうので注意が必要です。
イマーシブ・ミックスにおけるエフェクト処理
「Run To You」のDolby Atmosミックスでは、ボーカルだけでなくシンセサイザーのディレイ音もリアに配置しています。タイミングが楽曲のテンポよりもオフなので、一聴すると“曲に合っているのか?”と思う人もいるかもしれませんが、ディエッサーを強めにかけることによってミックスに戻した際に馴染むサウンドを作り出しているのです。ギターに関しても同じく、それだけで聴くとバラバラな印象があったので三連符のディレイを使用し、ディレイ音が返る度にリバーブを付加していき、さらには歪みも加えることで、奥行き感と立体感のあるサウンドを作り出しています。こういったエフェクトには、私が開発に関わったApogee Clearmountain’s Domainを使用しました。先ほども言ったとおり、私の頭の中にあったのはライブ・コンサートのようなサウンドです。私はライブ・サウンドが大好きなので、それをスタジオで再現するという音作りになっています。また、パーカッションが空間の中を飛び回っているように聴こえるかもしれませんが、こういったサウンドもエフェクトのみで作り出しています。このミックスではオブジェクトを使用していません。楽曲を構成する要素はステレオ・ミックスと同一です。スピーカーの構成が違うだけで、こうも印象が変わるという好例だと思います。
プラグインに関して、イマーシブ・ミックスで最も多用しているのがクアッド処理に対応しているリバーブです。具体的にはApogee Clearmountain’s Domainを最もよく使います。イマーシブ・ミックス用のクアッド・リバーブは、そのままフォールドバックしてステレオ・ミックスにも使用します。最近は位相を自動で合わせてくれたりするような管理系のプラグインが多く出回っていますが、そういったツールを使い過ぎるとサウンドのパワー感が失われてしまうような印象を持っています。実際にそういったツールを使ったことがありますが、最終的には使用しない方が良い結果になったケースの方が多かったです。
📷Apogee Clearmountain’s Domain:ミックスでも多用しているというApogee Clearmountain’s Domain。画面左側のシグナルフローに沿うようにボブ・クリアマウンテン独自のFXシグナルチェーンを再現している。もちろん、プリセットもボブ独自のものが用意されており、ロードして「あの」サウンドがどのように構築されているのかを解析するという視点も持つと実に興味深いプラグインだと言えるだろう。
イマーシブ・オーディオで楽曲の物語性を強化する
イマーシブ・オーディオは、アーティストが楽曲に込めた物語性を強化してくれるフォーマットであると考えています。私の古くからの友人であるブルース・スプリングスティーンは歌詞をとても重視するアーティストです。彼は歌詞に込めた物語性をいかにサウンドに盛り込むかということを常に考えており、私は彼のそういう想いをミックスで楽曲に反映させようと長年努力してきました。
ブライアン・フェリーの「I Thought」という曲があります。それほど有名ではないかもしれませんが、私のお気に入りの曲です。この曲の歌詞は、男性がガール・フレンドに対して抱いているイメージが、徐々に現実とは違うことに気づいていく… という内容になっています。男性が想っているほどガール・フレンドは彼のことを想っているわけではない…。これはブライアンから聞いたストーリーではなく歌詞を読んだ私の勝手な解釈ですが、私はこの解釈に基いてモノラルで始まるシンプルな音像がどんどん複雑な音像になっていく… というイメージでミックスしました。そして最後は男性の悲しさや虚しさについてをノイズを強調することで表現したのです。ちなみにこの曲はブライアン・フェリー名義ですが、ロキシー・ミュージックのメンバーも参加しています。おそらく最後のノイズはブライアン・イーノのアイデアだったのかなと想像しています。
Dolby Atmos for Everyone!
Dolby Atmosに興味はあるけれども、制作できる環境を持っていないという人も多いかもしれません。しかしその敷居は年々低くなっており、いくつかのDAWの最新バージョンにはDolby Atmosレンダラーが標準で搭載されています。その先駆けとなったのがApple Logic Proで、Steinberg NuendoやPro Toolsの最新バージョンにもDolby Atmosレンダラーが統合されています。このようにDolby Atmosは決して特別なものではなく、今や誰でも取り組むことができるフォーマットと言っていいでしょう。もちろん、Symphony I/O Mk IIはこれらすべてのDAWに対応しています。その柔軟なモニター・コントロール機能は、Dolby Atmosコンテンツの制作に最適ですので、ぜひご購入いただければと思います(笑)。Dolby Atmosで作業するには多くのオーディオ入出力が必要になりますが、Symphony I/O Mk IIではDanteに対応しています。コンピューター側に特別なハードウェアを装着しなくても、Dante Virtual Soundcardを使用すれば、Symphony I/O Mk IIとDanteで接続することができます。この際に有用なのがGinger Audioというメーカーが開発しているGroundControl SPHEREで、このソフトウェアを組み合わせることによって複雑なルーティングでも簡単かつ効率よくセットアップすることができます。
私が今日、明確にしておきたいのは、イマーシブ・オーディオというのは新しいテクノロジーではあるのですが、多くのレコード会社がサポートしてくれているので、一時のブームで廃れてしまうようなものではないということです。これからイマーシブ・ミックスされた素晴らしい作品がどんどんリリースされることでしょう。我々ミュージック・プロダクションに携わる者たちは、皆で情報交換をしてこの新しいテクノロジーを積極的にバックアップしていくべきだと考えています。
今回のセミナーでは、私が行なっているDolby Atmosミックスのワークフローについてご紹介しましたが、必ずしもこれが正解というわけではありません。たとえば、私はセンター・スピーカーを重要な要素として捉えていますが、エンジニアの中にはセンター・スピーカーを使用しないという人もいます。そういうミキシングで、アーティストのイメージが反映されるのであれば、もちろん何も問題はないのです。ですので、自分自身のアイデアで、自分自身の手法を見つけてください。
充実の内容となった今回のセミナー。イマーシブサウンドという新たな世界観を自身のワークフローで昇華してさらに一歩先の結果を追い求めている様子がよくわかる。その中でも、アーティストの意図をしっかりと反映するためのミックスという軸は今も昔も変わっておらず、“ボブ・クリアマウンテン・サウンド”とされる名ミックスを生み出す源泉となっているように感じる。レジェンドによる新たな試みはまだまだ続きそうだ。
*ProceedMagazine2024号より転載
Music
2024/01/18
DDM + AWS + WAVES クラウドミキシング / Dante Domain Managerでインターネットを越えるIP伝送
Ethernetを活用したAudio over IP(AoIP)伝送の規格、Dante。すでに設備やPAなど様々な分野でその活用が進んでいるこのDanteは、ローカルネットワーク上での規格となるため遠隔地同士の接続には向いていなかった。遠隔地への接続は低レイテンシーでの伝送が必要不可欠、そのためネットワーク・レイテンシーに対する要求はシビアなものとなる。これを解決するために、Danteの開発元であるAudinateが「インターネットを越えるDante」という、新しい一歩のためにDDM=Dante Domain Managerを利用する仕組みを完成させている。
DDM=Dante Domain Manager
ご存知の通り、Danteはローカルネットワーク上で低遅延のAoIPを実現するソリューションである。ローカルでの運用を前提としたDanteをInternetに出そうとすると、ネットワーク・レイテンシーが問題となり上手くいかない。それもそのはず、ローカルでの運用を前提としているため、最長でも5msまでのレイテンシーしか設定できないからである。このレイテンシーの壁を取り払うために最近活用が始まったのが、DDM=Dante Domain Managerである。
このソリューションは、単一IPセグメントの中での運用に限定されているDanteを、さらに大規模なシステムで運用するために作られたもの。ドメインを複数作成することでそれぞれのドメイン内でそれぞれがローカル接続されているかのような挙動をするものとしてリリースされた。例えば、2つのホールを持つ施設で、すべてのDante回線を同一のネットワークとすれば、それぞれの場所も問わず任意のDante機器にアクセスできる、という柔軟性を手に入れることができる。しかし、それぞれのホールにあるすべてのDante機器が見えてしまうと煩雑になってしまう。それを解決するためにDDMを導入してそれぞれのホールを別々のドメインとし、相互に見えてほしいものだけを見えるようにする。このような仕組みがDDMの基本機能である。
AWS上でDDMを動作しレイテンシー回避
このようなDDMの機能を拡張し、インターネットを越えた全く別のドメイン同士を接続するという仕組みが登場している。DDM上でのレイテンシーは40msまで許容され、遠隔地同士だとしても国内程度の距離であれば問題なく接続することが可能となっている。この場合には、送り手、受け手どちらかの拠点にDDMのアプリケーションが動作しているPCを設置して、そこを中継点として伝送を実現するというイメージである。ただし、世界中どこからでも、というわけにはいかない。なぜなら40msというネットワークレイテンシはそれなりに大きな数字ではあるが、回線のコンディション次第ではこの数字を超えるレイテンシーが発生する可能性があるからだ。
この40msを超えるネットワークレイテンシーの改善のためにクラウドサービスを活用するという仕組みも登場している。これはAWS上でDDMを動作させることで、CDNのように分散ネットワーク処理をさせてしまおうという発想だ。ローカルのDante機器は同一国内、もしくは近距離でレイテンシーについて問題がないAWSサーバーで動作するDDMへと接続される。AWS上では世界各地のAWSサーバー同士が同期されているため、その同期されたデータと受け取り先のローカルが、許容レイテンシー内のAWSサーバー上のDDMと接続することでその遅延を回避するという仕組みだ。この仕組みにより、世界中どこからでもDanteを使ったオーディオ伝送が実現されるというわけだ。
📷IBC2023 Audinateブースでの展示は、ロンドンのAWS上で動作するWAVES Cloud MXが動作していた。右の画面にあるようにAudinateでは世界中のAWSを接続しての実証実験を行っている。
WAVES Cloud MXでクラウドミキシング
2023年に入ってからは、このAWS上でDDMが動作するということで、WAVES Cloud MXと連携しての展示がNAB / IBC等の展示会で積極的に行われている。ローカルのDanteデバイスの信号をAWS上のDDMで受け取り、その信号を同一AWS上のWAVES Cloud MXが処理を行うというものだ。ただし、オーディオのクラウドミキサーはまさに始まったばかりの分野。クラウド上にオーディオエンジンがあるということで、どのようにしてそこまでオーディオシグナルを届けるのか?ということが問題となる。DDMはその問題を解決しひとつの答えを導いている。
📷画面を見るだけではクラウドかどうかの判断は難しい。しかしよく見るとeMotion LV1がブラウザの内部で動作していることがわかる。オーディオ・インターフェースはDante Virtual Soundcard、同一AWS内での接続となるのでレイテンシーの問題は無い。
ここで、WAVES Cloud MXについて少しご紹介しておこう。WAVES Cloud MXはプラグインメーカーとして知られるWAVES社がリリースするソフトウェアミキサーのソリューションである。WAVESはeMotion LV1というソフトウェアミキサーをリリースしている。WAVESのプラグインが動作するオーディオミキサーとして、中小規模の現場ですでに活用されているPAミキサーのシステムだ。このソフトウェアをAWS上で動作するようにしたものが、WAVES Clod MXである。ソフトウェアとしてはフル機能であり、全く同一のインターフェースを持つ製品となる。プラグインが動作するのはもちろん、ネットワークMIDIを活用しローカルのフィジカルフェーダーからの操作も実現している。どこにエンジンがあるかを意識させないレイテンシーの低い動作は、クラウド上でのビデオ・スイッチャーを手掛ける各メーカーから注目を集め、NABではSONY、GrassValleyといったメーカーブースでの展示が行われていた。Audioの入出力に関しては、NDI、Danteでの入出力に対応しているのがローカルでのeMotion LV1システムとの一番の違い。ローカルのeMotion LV1では、同社の作った規格であるSoundGridでしかシグナルの入出力は行えない。
WAVESの多彩なプラグインを活用できるため、例えばDanDuganのAutomatic Mixerを組み込んだり、トータルリミッターとしてL3を使ったりと、様々な高度なオーディオ・プロセッシングを実現できている。これは、クラウド上でのビデオ・スイッチャーが持つオーディオ・ミキサーとは別格となるため、その機能を求めてメーカー各社が興味を持つということに繋がっている。Clarity Vxのようなノイズ除去や、Renaissanceシリーズに代表される高品位なEQ、Compの利用を低レイテンシーで行うことができるこのソリューションは魅力的である。その登場当時はなぜクラウドでオーディオミキサーを?という疑問の声も聞かれたが、ここはひとつ先見の明があったということだろう。
世界中どこからの回線でもミックスする
クラウド上でのビデオ・スイッチャー、クラウドミキサーのソリューションは、そのままクラウド上で配信サービスへ接続されることを前提としてスタートしている。ローカルの回線をクラウド上で集約、選択して、そのまま配信の本線へと流す。非常にわかりやすいソリューションである。その次のステップとして考えられているのが、遠隔地同士の接続時に、回線をステム化して送るというソリューション。送信先の機材量を減らすという観点から考えれば、これもひとつの回答となるのではないだろうか。ローカルからは、完全にマルチの状態でクラウドへ信号がアップされ、クラウド上でステムミックスを作り、放送拠点へとダウンストリームされる。クラウド上で前回線のバックアップレコーディングを行うといったことも可能だ。インターネット回線の速度、安定性という不確定要素は常に付きまとうが、現場へ機材を持ち込むにあたっての省力化が行えることは間違いないだろう。
前述の通り、DDMを活用したこのシステムであれば、世界中どこからの回線でもミックスすることが可能である。さらに世界中どこからでもダウンストリームすることができる。国際中継回線など、世界中に同一の信号を配るという部分でも活用が可能なのではないだろうか?オリンピック、ワールドカップなどの大規模なイベントで、世界中の放送局へ信号配信する際にも活用が可能なのではないか、と想像してしまう。IPの優位点である回線の分配というメリットを享受できる一例ではないだろうか。
📷IBC2023 SONYブースにもWAVES Cloud MXが展示されていた。SONYのクラウド・ビデオ・スイッチャーのオーディオエンジンとしての提案である。こちらではDDMではなくNDIを使ってのオーディオのやり取りがスイッチャーと行われていた。手元に置かれたWAVESのフィジカルコントローラー「FIT Controller」はクラウド上のミキシングエンジンを操作している。
まだ、サービスとしてはスタートしたばかりのDDMとAWSを活用した遠隔地の接続。その仕組みにはDante Gatewayなどが盛り込まれ、同期に関してもフォローされたソリューションができあがっている。これらのクラウドを活用したテクノロジーは加速度的に実用化が進みそうである。
*ProceedMagazine2023-2024号より転載
Music
2023/12/21
TOA ME-50FS / スピーカー原器、その違いを正確に再生できる装置を
長さを測るためには、その長さの基準となるメートル原器と呼ばれる標準器が必要。重さを測るのであれば同様にキログラム原器が必要となる。では、スピーカーにとっての基準、トランスデューサーとしての標準はどこにあるのか?そのスピーカーの標準器を目指して開発されたのがTOAのME-50FSだ。非常放送用のスピーカー、駅のホームのスピーカーなど生活に密着した音響設備を作るTOAが、これまでの知識と技術をすべてを詰め込んで作り上げた究極のアナログ・スピーカーである。1dB、1Hzの違いを聴き分けられるスピーカー、その実現はデジタルではなく、むしろアナログで開発しないと達成できないことであったと語る。そのバックグラウンドとなるさまざまな基礎技術、要素技術の積み上げはどのような現場で培われたのだろうか?そして、その高品位な製品はどのように作られているのか?研究開発拠点であるナレッジスクエアと、生産拠点であるアコース綾部工場に伺ってその様子をじっくりと確認させていただいた。
TOA ME-50FS
価格:OPEN / 市場想定価格 ¥2,000,000(税込:ペア)
・電源:AC100V
・消費電力:30W
・周波数特性:40Hz~24kHz (-6dB)
・増幅方式:D級増幅方式
・エンクロージャ形式:バスレフ型
・使用スピーカー 低域:10cm コーン型×2 高域 : 25mmマグネシウムツイーター
・アンプ出力:250W
・アンプ歪率:0.003%
・最大出力音圧レベル:104dB
・仕上げ:木製(バーチ合板) ウレタン塗装
・寸法:290(幅)× 383(高さ)× 342(奥行)mm( 突起物除く)
・質量:約15kg(スピーカー本体1台の質量)
実は身近に必ずあるTOA製品
皆さんはTOAという会社をご存知だろうか?日本で暮らしているのであれば、TOAのスピーカーから出た音を聴いたことが必ずあるはずだ。駅のホーム、学校の教室、体育館、あなたの働いている会社の非常放送用のスピーカーもTOAの製品かもしれない。まさに生活の一部としてさまざまな情報を我々に音で伝えるためのスピーカーメーカー、それがTOAだ。
TOAの創業は、1934年と国内では老舗の電機メーカーである。創業時の社名は東亜特殊電機製造所。神戸に誕生し、マイクロフォンの製造を手掛けるところからその歴史はスタートしている。マイクロフォンと言っても現在一般的に使われている形式のものではなく、カーボンマイクロフォンと呼ばれる製品だ。これは世界で初めてエジソンが発明したマイクロフォンと同じ構造のものであり、黒電話など昔の電話機に多く使われていた形式である。周波数特性は悪いが、耐久性に優れ高い感度を持つため1980年代まで電話機では普通に使われていた。現在でも電磁波の影響を受けない、落雷の影響を受けない、低い電圧(1V程度)で動作するなどの特長から可燃物の多い化学工場や軍事施設など一部のクリティカルな現場では現役である。
このマイクロフォンは、その名の通り、カーボン(炭素)を必要とする製品である。時代は戦時中ということもあり、良質なカーボンを入手することが難しく、なんと砂糖を焼いてカーボンを作ったという逸話が残っている。要は砂糖を焦がした炭である。砂糖が贅沢品であった時代に、この工場からは一日中甘い匂いがしていたそうだ。
次に手掛けたのが、拡声装置。中でも「東亜携帯用増幅器」は、小型のトランクケースに増幅器とスピーカーを内蔵し、持ち運びのできる簡易拡声器として人気があったそうだ。他にもレコード録音装置などさまざまな音響製品を生み出していった同社だが、中心となったのは、拡声装置(アンプとスピーカー)であり、その専業メーカーとして発展をしていく。拡声装置のスピーカーとして当時使われていたのが、ホーン型のスピーカー。ドライバーユニットに徐々に広がる筒、ストレートホーンを取り付けたものである。この筒の設計により、特定の周波数の音を大きく、遠くまで指向性を持たせて届けることができるという特徴を持っている。
TOAが大きく発展するきっかけとなったのがこのホーンスピーカー。現在一般的に使われているホーンスピーカーは、リスニング用途の半円錐状のものを除けばほとんどが折り返し式ホーン。メガホンや、拡声器、選挙カーの屋根などについているものがそれである。この折り返し式ホーンはレフレックストランペットとも呼ばれる。ストレートホーンを折りたたんだ構造をしているため、全長を短くすることができ、さらにはドライバーユニットが奥まった位置にあるため防滴性能を獲得、屋外で使うにあたり優れた特徴を持っている。
このトランペットスピーカーは戦後の急速な復興に併せて大きな需要があった。同社は、黒や灰色の製品ばかりのこの市場に鮮やかな青く塗られたトランペットスピーカーを登場させ、その性能の高さも相まって高い人気を博した。青いトランペットをトレードマークに「トーアのトランペット」「トランペットのトーア」と呼ばれるまでに成長を遂げる。 1957年には、世界初となるトランジスターメガホンを発売。女性でも一人で持ち運べる拡声器としてエポックメイキングな製品となった。旅行先などでガイドさんが使っているのを記憶している方も多いのではないだろうか。いまでも、選挙の街頭演説などで見かけたりするメガホンのルーツが実は「トランペットのトーア」にある。
積み重ねた技術を音響の分野へ
1964年の東京オリンピックでは、全面的にトーアのスピーカーが使われた。東京オリンピックの開会式では世界で初めてトラック側から客席に対してPAするということが行われ、当時主流であった観客後方となるスタジアムの外側からではなく、客席に対して正対する方向からのPAは高い評価を受けた。これには、プログラムの演目に合わせてスピーカーを3分で移動させなければならない、など影の努力がかなりあったとのこと。スポーツ関連はこれをきっかけに国内のさまざまな競技場への導入が進み、お膝元である阪神甲子園球場やノエビアスタジアム神戸をはじめ全国各地でTOA製品が採用され、海外でもウィンブルドンのセンターコートなど数多くの採用実績を誇る。まさにPA=公衆拡声の技術力の高さを感じるところ。遠くまで、多くの人に明瞭な音を届ける。これを実践しているメーカーであると言えるだろう。
また、神戸のメーカーということもあって1970年の大阪万博開催の際には各所で「音によるおもてなし」を行う自動放送システムなど多くの新技術がお披露目された。この自動放送システムは、1975年の京成電鉄成田駅を皮切りに全国への導入が進んでいく。当時は、高価だったメモリーを使ったシステムでサンプラーの原型のようなものを作り、プログラム動作させていたということ。現在、駅で当たり前に流れてくる自動音声による案内放送のルーツとなるものだ。
1985年ごろからは、コンサート用のPAスピーカー、ライブハウスやディスコなどに向けたPAシステムも手掛けるようになる。これまでの「多くの人に明瞭な音を伝える」ということに加えて音質、音圧、さらには、長時間駆動しても壊れない耐久性を持った製品を開発していくことになる。ツアースピーカーには「Z-Drive」という名前が与えられ、大規模なライブ会場や屋外イベントで使われるようになる。そして、さまざまな現場に導入されるスピーカーのチューニングを行うために、世界初となるDSPを使ったサウンドデジタルプロセッサー「SAORI」を誕生させる。
この当時デジタルエフェクターは登場していたが、イコライザーやディレイ、コンプレッサーなどでサウンドチューニングをするためのデジタルプロセッサーはTOAが世界で最初に製品化をしている。このプロセッサーは主に設備として導入されるスピーカーの明瞭度を上げるためのチューニングに使われており、今では当たり前になっているDSPによるスピーカーチューニングの原点がここにある。デジタルコンソールに関しても1990年にix-9000というフルデジタルコンソールをウィーン国立歌劇場のトーンマイスターたちとともに作り上げた。音楽という芸術を伝え、楽しむためのスピーカー、そういった分野へのチャレンジも行われてきたことがわかる。
そして、TOAの中心となるもうひとつの分野が非常用放送設備。火災報知器に連動して室内にいる人々に警告を発したり、業務用放送を非常放送に切り替えたりという、国内では消防法で定められた多くの公共空間に設置されている設備である。人の命を守る音、「聞こえなかった」ということが人命に関わる重要な設備だ。今回お話を伺った松本技監が、「TOAの作る音は音を楽しむ(音楽)ためのものではなく、人の命を守る「音命(おんみょう)」だと再三に渡り言われていたのが印象的。耐火、耐熱性を持たせたスピーカーの開発、アンプ等の放送設備の耐久性・堅牢性へのこだわり、そのようなクリティカルな現場で培われた製品の品質、人命という何よりも重いものを預かる使命に基いた製品の製造を行ってきたということがTOAのもう一つの顔である。
TOA製品に息づくスピリット
さまざまな分野へのチャレンジスピリット、そして非常用設備に始まる失敗の許されない現場への製品供給、そんな土台があったからこそオリンピックや万博などでの成功があったと言える、まさに設備音響としてのトップブランドの一つである。そのチャレンジスピリットを象徴するものとして「超巨大PA通達テスト」についてのお話を伺えた。
音を遠くまで届けるということは、一つのテーマである。その実験のために、口径3メートル、全長6.6メートルという巨大なストレートホーンを製作。巨大なアンプとドライバーにより、音をどれほど遠くまで届けることができるかをテストした。もちろん街中では行うことができないため、いま明石海峡大橋があるあたりから淡路島に向けて実験を行ったということだから驚きだ。おおらかな時代でもあったということもあるが、対岸の淡路島の海岸線沿いにスタッフを配置し、どこまで聴こえているかを試したということだ。もう一回は、比叡山の山頂から琵琶湖に向けてのテストがあったとのこと。この際も琵琶湖の湖畔でどこまで音が聴こえるかを試したということだ。そのテスト結果はなんと最長到達距離12km!もちろん、風などの影響も受ける距離となるが、このような壮大な実験を国内で行ってしまう先達の技術者による挑戦に感銘を覚える。
写真撮影は許可されなかったが、クリティカルな現場に向けて行われる製品テスト用設備の充実度はさすがの一言。基本的に耐久テストは、壊れるまで行うということを基本に、実際の限界を確認しているということだ。電力に対する負荷テストはもちろん、現代社会にあふれる電波、電磁波に対する試験を行うための電波暗室、物理的な耐久性を確かめるための耐震テスト、真水や塩水を製品にかけ続ける耐水、耐塩水テストなど、本当にここは電気製品を作っているところなのかと疑うレベルのヘビーデューティーな試験施設が揃っていた。
これも「音命」に関わる重要な設備、肝心なときに期待通りの動作が求められる製品を作るための重要な設備である。筆者も初めての体験だったが、電波暗室内では外部からの電磁波を遮断した状況下で、製品に電子銃で電波を当ててその動作を確認している。これは対策が脆弱な一般レベルの電子機器であれば動作不良を起こす状況で、どこまで正常動作を行えるか?影響の少ない設計にするにはどうすればよいか?昨今話題になることの多いEMS障害などへの影響を確認しているということだ。また、この実験設備の一室には工作室があり、用意された木工、金属加工などさまざまな工具で製品のプロトタイプは自分たちで作るという。まず、自らの手による技術と発想で課題解決に挑戦するという文化がしっかりと残っており、このような姿勢はTOAすべての製品に息づいているということだ。
スピーカー原器を作ろうという取り組み
東亜特殊電機製造所からスタートし、現在ではTOAとして国内の非常用放送設備のシェア50%、公共交通機関の放送設備や設備音響のトップブランドとなった同社が、なぜここに来てリファレンスモニタースピーカーを発表したのだろうか?もちろん、Z-Driveというコンサート向けのPAシステム、ウィーン歌劇場に認められたフルデジタルコンソールix-9000など伏線はあったものの、これまで、リスニング用・モニター用のスピーカーはリリースしてこなかった。
色々とお話を伺っていくと、TOAでは社員教育の一環として「音塾」というものを実施しているということだ。ここでは、社員に音に対する感性を養ってもらうためのさまざまなトレーニングを行い、1dBの音圧の違いや1Hzの周波数の違いを聴き分けられるようになるところまで聴覚トレーニングを行っているという。
ここで問題となっていたのが、人はトレーニングをすることで聴覚を鍛えることができるのだが、その違いを正確に再生できる装置がないということだ。物理的、電気的、さまざまな要因により、スピーカーには苦手な再生周波数や出力レベルが存在する。わかりやすいところで言えば共振周波数や共鳴周波数による影響である。もちろんそれだけではなく、他にもさまざまな要因があり理想とする特性を持ったスピーカーがない。そこで作り始めたのがこのME-50FSの原型となるプロトタイプの製品。まさに標準器となるスピーカー原器を作ろうという取り組みである。
デジタルの第一人者によるフルアナログ
📷右より3人目がこのプロジェクトの中心人物の一人となる松本技監。
このプロジェクトの中心人物の一人が今回お話をお伺いした松本技監。TOAの歴史の中で紹介した世界初のDSPを用いたサウンドデジタルプロセッサー「SAORI」やツアースピーカー「Z-Drive」を開発した中心人物の一人で、音声信号のデジタル処理やスピーカーチューニングに関する第一人者とも言える方である。この松本技監が究極のスピーカー製作にあたり採用したのがフルアナログによる補正回路である。デジタルを知り尽くしているからこそのデジタル処理によるデメリット。そのまま言葉を借りるとすれば「デジタル処理は誰もが簡単に80点の性能を引き出せる、しかしそれ以上の点数を取ることができない」ということだ。
デジタルとアナログの大きな違いとしてよく挙げられるのが、離散処理か連続処理か、という部分。デジタル処理を行うためには、数値でなければデジタル処理できないということは皆さんもご理解いただけるだろう。よって、必ずサンプリングという行程を踏んで数値化する必要が絶対的に存在する。しかし、連続性を持った「波」である音声を時間軸に沿ってスライスすることで数値化を行っているため、どれだけサンプリング周波数を上げたとしても「連続性を失っている」という事実は覆せない。ほぼ同等というところまではたどり着くのだが、究極的なところで完全一致はできないということである。
もう一つはデジタル処理が一方通行であるということだ。ご存知かもしれないが、スピーカーユニットは磁界の中でコイルを前後に動かすことで空気振動を生み出し音を出力している。このときに逆起電流という現象が発生する。動いた分だけ自身が発電もしてしまうということだ。これにより、アンプ側へ逆方向の電流が流れることとなる。デジタル処理においては逆方向のプロセスは一切行われない。しかしアナログ回路であれば、逆方向の電流に対しても適切な回路設計を行うことができる。
通常のスピーカー設計では影響のない範囲として捨て置くような部分にまで目を向け、その設計を突き詰めようとした際にどうしてもデジタルでは処理をしきれない領域が生まれる。ME-50FSでは、このようなことをすべて解決させるためにフルアナログでの設計が行われているわけだ。DSPプロセッサーの生みの親とも言える松本技監がフルアナログでの回路設計を行うということで、松本氏をよく知る仲間からは驚きの声が聞かれたそうだ。しかしその裏には、デジタルを知り尽くしているからこそのアナログであるという徹底したこだわりがある。デジタル処理ではどうしてもたどり着けない限りなく100点に近い、理想の性能を追い求めるための究極とも言えるこだわりが詰まっている。
こんなことをしている製品は聞いたことがない
ME-50FSにおける設計思想は「スピーカーユニットをいかに入力に対して正確に動かすか」という一点に集約されている。低域再現などにおいて38cmウーハーなど大型のユニットが使われることも多いが、動作させる質量がサイズに比例して大きくなってしまうためレスポンスに優れなくなってしまう。動作する物体の質量が多ければそれだけその動きを止めるための力が必要ということだ。この問題に対してME-50FSでは10cmという小さなスピーカーユニットを採用することにした。口径は小さくしたものの、一般的な製品の3倍程度のストロークを持たせることでその対策がとられている。その低域の再生に抜かりはなく、バスレフ設計のエンクロージャーの設計と合わせて、40Hz(-6dB)という10cmユニットとしては驚異的な低域再生能力を獲得している。スピーカーユニットの質量を減らすことで理想に近い動作を実現し、ストロークを稼ぐことで正確な空気振動を生み出している。
これを実現するためのスピーカーユニットは、後述する自社工場であるアコース綾部工場で製造される。スピーカーユニット単品からコイルの巻数など、微細な部分まで専用設計にできるのが国内に工場を持つメーカーとしての強みである。さらに、専用設計となるこのスピーカーユニットは、実際にスピーカーユニット一つ一つの特性を測定しシリアルナンバーで管理しているということだ。大量生産品では考えられないことだが、ユニットごとの微細な特性の差異に対してもケアがなされているということだ。究極のクオリティを求めた製品であるというエピソードの一つである。修理交換の際には管理されたシリアルから限りなく近い特性のスピーカーユニットによる交換が行われるということ。こんなことをしている製品は聞いたことがない。
理想特性を獲得するための秘密兵器
この製品の最大の特徴となるのが各スピーカーに接続されたボックス。ここにはアナログによるインピーダンス補正回路が組み込まれている。話を聞くとアンプからの入力信号に対して、シンプルにパラレルで接続されているそうだ。まさにフルアナログでの理想特性を獲得するための秘密兵器がここである。アナログ回路であるため、中を覗いても抵抗、コンデンサー、コイルがぎっしりと詰まっているだけであり特別なものは一切入っていない。この回路によってME-50FSは理想的な位相特性、インピーダンス特性を獲得しているのだが、そのパーツ物量は一般的なスピーカーのそれを完全に逸脱している。「インピーダンス補正回路」とTOAが呼ぶこのボックスは、過去の試作基板と比べるとかなり小さくなっているそうで、実際にナレッジスクエアで見せてもらったのだが、4Uのサーバーか?と思わせるような巨大なものであった。ステレオ2ch分の回路が入っているからということではあったが、それにしても大きい。
📷ME-50FSの最大の特徴とも言えるインピーダンス補正回路のプロトタイプ。左右2ch分が一つのボックスに収まっている。これを上写真の赤いボックスにまでサイズダウンして現在の形状に収めている。
「インピーダンス補正回路」の内部のパーツはフルアナログということもあり、前述の通り抵抗、コンデンサー、コイルである。そしてそれぞれのパーツは理想の特性を求めるために吟味を重ねたもの。わかりやすく言えば、コイルは理想の数値を持ったワンオフで自社制作されたもの。抵抗は耐圧の高いメタルクラッド抵抗で、抵抗が特定の周波数以上で持つインダクタンスの影響がスピーカーとして出ないよう無誘導巻のものを用い、大入力に耐えるため熱容量に余裕のある大型のものが使われている。また、コイルは磁界を発生させるため、それらが相互に影響を及ぼさないように基板上の磁界にまで気を配り、縦横、一部のパーツは高さを変えて各パーツを配置。この結果、完全に手作業での製作となることは目に見えているが、究極のスピーカーを作るためには必要なことだというのがスタンスだ。
こういったポイント一つ一つ、すべてにおいてエビデンスのある技術を採用している。オーディオ業界においては非常に多くのプラシーボが存在しているが、良くも悪くも感覚的なものが多くを占める聴覚に頼ったものだからこその出来事。それを楽しむのも一興ではあるのだが、メーカーとして究極を追い求める際にそれらプラシーボは一切排除しているということだ。すべての設計、パーツの取付一つにおいても、すべてにおいて裏付けのある理由があり、必要であればそのエビデンスも提供できるようになっているということである。
スピーカーとしての完全体
こだわりの結晶体とも言えるこのスピーカー。そのポイントを挙げ出したらきりがないのだが、もう一つだけ紹介しておこう。「インピーダンス補正回路」とスピーカー本体を接続するケーブル。これもケーブル自体の持つインダクタンスの値を計算し、スピーカー内部でパラレルに接続される箇所までの長さをミリメートル単位で計算してケーブル長が決められている。設置しやすいように、などという発想ではなくエビデンスに基いた理想の長さということで設計が行われている。
内蔵されるパワーアンプはClass Dのものが採用されている、これも理想の特性を追い求めて選択されたものだ。このClass Dアンプモジュールの選定においても、TOA社内専門家による技術評価および各種測定、耐久力試験に加え、長期間の運用及び試聴評価を経て厳選されたものが使われている。ME-50FSでは、ひとつの理想のパッケージとしてパワーアンプを内蔵としているが、ユーザーにも少しの遊びを許しているポイントがある。それが、スピーカー背面にあるスピーカーI/O端子。Lineレベルの入力であれば、内臓のパワーアンプを介してスピーカーが駆動されるのだが、内蔵のパワーアンプを切り離し、外部のパワーアンプからの入力も持っているということだ。パワードスピーカーとしてはかなり珍しい設計ではないだろうか?
これこそ、このスピーカーに対する自信の現れとも言える。メーカーとしての完全なるパッケージとしての究極は、もちろん内蔵アンプであることは間違いない。しかし、外部アンプの入力を受け付けるということは、外部アンプが持つ実力を100%引き出せる「測定器」としての側面を持つスピーカーであるということでもある。一般的なパワードスピーカーではユニットの特性を補正するためにアンプ自体の出力に癖を持たせるということは少なくない。完全アナログで仕立てられたME-50FSは、どのような入力が来たとしても完全に理想的な動作をするという「スピーカーとしての完全体」を体現しているのである。
アコース綾部工場
TOAの国内の製造拠点であるアコース綾部工場。すでに大量生産品はインドネシアの工場に移行しているが、ハイエンド製品、少量生産品などは国内でひとつずつ手作業で作られている。アコース株式会社はTOA株式会社のグループ企業で、プロオーディオ機器の開発、設計、生産、出荷までを行っている。綾部工場は木工加工を中心にプロオーディオ機器を生産する拠点。もう一つの米原工場は、エレクトロニクス、電子回路などの生産を行っている。2つの工場双方ともに多品種小ロットの生産に適した工場である。
・Made in Japan!日本のものづくり
綾部工場は、京都府の綾部市にある。明智光秀で一躍有名になった福知山市の隣町で旧丹波国となる。もう少し行けば日本海に面した若狭湾、舞鶴港というあたりで、大阪から100km圏であり舞鶴若狭道で1時間強で行くことができる場所。実際のところかなりの田園風景が広がっているのだが、高速が通ってからは工業団地ができたりとそれなりの発展もしている街である。完全に余談ではあるが筆者の出生地はこの綾部市であり馴染みの深い土地である。
このアコース綾部工場は、木工加工を中心とした生産拠点ということでスピーカーエンクロージャーの生産がその中心となる。まずは、その木工加工の現場を見せていただいた。切り出し用のパネルソーや多品種小ロットの生産のためとも言えるNCルーター。多軸、かつデュアルヘッド仕様なので、複雑な加工をスピーディーに行うことができる。プログラムを読み込ませて専用の治具に材木をセットすれば、複雑化形状もあっと言う間に削り出していく。設計で想定した通りの材料がここで切り出されることとなる。
切り出された材料は塗装工程へと回される。長いレールにぶら下げられ人の手により塗装が行われる。低温で一度乾燥させた後に一度冷やし、2階部分にある高温の乾燥室へと送られる。やはりスピーカーエンクロージャーの塗装ということで黒に塗ることが多いのだろう、飛散した塗料で黒くなったこの空間は、この工場でも印象的な空間であった。ここでは、特殊塗料による塗装など、やはり小ロット多品種に対応した工程が行えるようになっている。特別色等の特注製作などもこの工場があるからこそ実現できるということだ。
次に見せていただいたのが、スピーカーの組み立ての現場。さすがにコーン紙、フレームなどは別のところで作ったものを持ってきているとのことだが、スピーカーの心臓部とも言えるマグネットとコイルはここで作っている。巨大な着磁機が並び、製品に応じた素材に対して着磁を行いマグネットを作っている。自社で製造できるということは、磁界強度、サイズなども自由自在ということだ。そして、コイルの製作に使うコイル巻き機。アナログなこの機械はどうやら自分たちで手作りしたようだという。生産に必要なものがなければ作ってしまおうという、まさに職人魂が垣間見える。
📷(左上)スピーカーを駆動するための磁石を作るための着磁機。製造する磁石のサイズに合わせ機械がずらりと並ぶ。(右上)ボイスコイルを巻くための専用機械。過去の先達の手作りであろうということだ。(左下)完成したボイスコイル。これが、コーン紙に貼られスピーカーとなる。(右下)スピーカーユニットの組立工程。コーン紙を専用の器具で接着している。
実際にコイルを巻くところを見せていただいたのだが、スピーカーコイル用の特殊な形状の素材が使われていた。一般的な丸い線材ではなく、きしめん状の平たい銅線で巻いた際に固着するようアルコールで溶ける特殊な溶剤がコーティングされている。このきしめん状の銅線にアルコールを湿らせながら巻いていくことで、巻き終わったコイルは筒状のコイルとなる。一つずつ職人が巻いていくことで巻数は自由。ボビンの経を変えたり、線材の太さを変えることでさまざまな形状のボイスコイルを作ることが可能だ。この機械で巻き終わったコイルは、焼入れを行うことで、さらにしっかりと固着されてユニット組立工程へと渡される。ツイーター等のメタルドームもここで一つずつ手作業でプレスして整形されている。さすがにこの板金用の金型は自社製造ではないということだが、製品ごとさまざまな形状の金型がずらりと準備されていた。組立工程では一つずつ専用の治具を使いエッジ、コーン紙の貼り合わせ、ボイスコイルの接着、フレームの取付などが、ひとりの職人の手によって行われる。
次が組み立ての工程。塗装の終わったエンクロージャーにユニット、キャビネットグリル、ネットワーク回路などのパーツを組み込み、梱包までを一気に行っている。大量生産のラインであれば何人もが担当するような作業を、一人でしかも手作業で行っている。多品種小ロットということで、毎日異なる製品を組み立てているのだが、間違いのないように常にマニュアルが開かれ、工程ごとにページを捲りながら作業を進めていた。組み立てられて梱包される前には、もちろんしっかりと所定の性能が出ているかチェックがなされる。これぞMade in Japan!日本のものづくりの現場を見た思いである。
・綾部という地をスピーカー製造の聖地に
整然と整えられたパーツ庫は、言わばTOAプロオーディオ製品の生まれ故郷。常に数万種類のパーツがストックされ、入念な生産計画に沿って生産が行われているということだ。写真を見ていただければわかるのだが、驚くほどこれらの工程に関わる職人は少ない。自動化できるところは機械に頼り、多品種に対応するため複雑な工程では、一人ひとりが多くの工程をこなすことで、少人数による生産を実現している。管理部門も含めた従業員数は28名、まさにプロフェッショナルの集団と言えるだろう。
このアコース綾部工場では、試作機の製造なども行っている。どのようなカスタムパーツも作ることができるこの拠点があるからこそ、TOAではさまざまな試作を繰り返し、クオリティの高い製品をリリースすることができている。そのための実験設備も備わっており、その一つが無響室だ。試作した製品がどのような特性なのか?それを作ってすぐにテストできる環境があるということだ。さまざまなバリエーションの試作機を作り、それをその場で実際にテストして、設計数値が実現できているかを確認する。まさに理想の開発環境と言える。無響室以外にも-20度〜180度までの環境が再現できるという恒温槽による温度変化による特性、耐久性のテストだったりといことも行える設備がある。
ほかにも試聴用の部屋もあり、実際に聴感テストも行っている。取材時はME-50FSのインビーダンス補正回路を設計するときに使ったであろう様々な治具などが置かれていた。そして、この部屋の片隅にはスピーカーコーン紙の共振測定器が置かれていた。スピーカーが振動しているときにレーザーでその表面の動きを測定し、不要な共振がないかを計測する。実際の素材を使っての実際の測定。計算だけではなく実際の製品で測定することによる正確性の追求。さまざまな素材の融合体であるスピーカーユニットであるからこそ必要とされる実地の重要さが感じられる。
TOAのものづくりの拠点、それがこのアコース綾部工場であり、この試作機を作るための理想的な環境があったからこそME-50FSが妥協を一切許さない製品として世にリリースされたのであろう。コイルの巻数一巻きにまで気を配って生産できるこの環境、理想を追い求めるための究極形である。今回ご案内いただいたTOAの皆さんもこの拠点があったからこそME-50FSは完成し、まさにここがME-50FSの故郷であると仰っていたのが印象的。この綾部という地をスピーカー製造の聖地に、その意気込みが実を結ぶのもそう遠くはなさそうだ。
📷(左)アコース綾部工場 (右)左より工場取材にご協力いただいたTOAの藤巴氏、ジーベックの栗山氏、アコース綾部工場の藤原氏、ME-50FSの生みの親とも言えるTOA技監の松本氏。
Studio BEWEST
ME-50FS取材の最後に訪れたのは実際のユーザーである岡山県津山市のレコーディングスタジオBEWESTにお伺いして、実際の使い勝手やその魅力についてをお話いただいた。オーナーの西本氏はバンドマンからレコーディングエンジニアへと転身した経歴を持ち、岡山市内と津山市に2つのスタジオを構える。BEWESTの独自の取り組みなども併せてお届けしたい。
・サウンドを生み出す立場からの目線
📷Stduio BEWEST オーナー兼エンジニア 西本 直樹 氏
岡山市から北へ60kmほどいったところに津山市はある。大阪からも中国道で150kmほどの距離だ。12年前にオープンしたこのスタジオはレコーディングから、ミックス・マスタリングまでをワンストップで行うスタジオとして稼働していたが、岡山市内に3年前に新しくスタジオを立ち上げたことで、今はミックスとマスタリングの拠点として稼働しているということだ。このスタジオの特長は、ビンテージから最新の製品までずらりと取り揃えられたアウトボードやマイクなどの機材。その機材リストの一部をご紹介すると、マイクはビンテージのNeumann U47 TUBE、オリジナルのtelefunken U47、SONY 800G、Chandler REDD Microphone、Ehrland EHR-Mなどビンテージの名機から、現行の製品まで幅広いラインナップを揃える。この選択の源泉はお話を伺っていくとレコーディングへの向かい合い方にあると感じた。
西本氏のルーツはバンドマンである。バンドのレコーディングを行っていく中で機材に興味を持つ。そしてギタリストとしてバンド活動を行っていた西本氏は、インディーズのレコーディング現場での体験で完成した作品の音に対してメジャーとの差を痛感したという。レコーディングのバジェットが違うから仕方がないと諦めるのではなく、その差は何なのか?この部分に興味を持ち、独学でレコーディングを行うようになっていったそうだ。機材が違うのであれば、同じものを使えば同じクオリティーになるのか?マイクは?マイクプリは?独学でどんどんと掘り下げていき、気が付いたらスタジオを作っていて日本中からレコーディングの依頼を受けるようになっていたということだ。
お話を聞いているとエンジニアとしてスタジオで経験を積んだ方とは、やはり視点が異なることに気付かされる。ミュージシャンの視点で、自身の音がどのような音なのかをしっかりと認識した上で、それがどのような音としてレコーディングされ作品になってほしいか?あくまでもサウンドを生み出す立場からの目線を貫いている。そのため、音がリアルなのか、なにか変質してしまっているのか?そういったところに対して非常に敏感であり、常に一定の音に対しての物差しを持って向かい合っているエンジニアである。
・「このまま置いていってほしい」
その西本氏とME-50FSの出会いはInterBEE 2022で話題になっていたことがきっかけだとのこと。興味を抱いた西本氏がすぐに問い合わせしたところ、TOAは岡山市内のスタジオまでデモ機を持ってきてくれたそうだ。ちょうど、岡山のスタジオでウェストキャンプ@岡山というローカルのエンジニアを日本中から集めた勉強会のようなイベントを予定していたそうで、集まった10数名のエンジニアと試聴を行うことができた。その場にいた全員が強いインパクトを受け、この製品の魅力を体感したということ。やはり雑多なInterBEEの会場ででも聴こえてきたインパクトは本物であり、スタジオでの試聴でもその印象は大きく変わらなかったということだ。その後、ミックス・マスタリングをメインで行っている津山のスタジオで改めてじっくりと試聴。改めて聴き直してもその最初に感じたインパクトは変わらず購入を即決したという。すぐにでもこのスピーカーで作品づくりをしたいという思いが強くなり「購入するので、このまま置いていってほしい」とお願いしたほどだそうだ。
ちなみに、それまでメインで使っていたスピーカーは、Focal Trio11。このスピーカーは今でも気に入っているということだが、ME-50FSとの違いについてはセンター定位のサウンドのアタック感、サスティンの見え方、音の立ち方、減衰の仕方などがはっきりと見える点。これは位相が改善していくとセンター定位がどんどんとはっきりしていくという位相感の良さからくるものだろう。ME-50FSの狙い通り、といった部分を直感的に感じ取っている。
・標準器となるサウンドの魅力
ME-50FSの導入により作業上大きく進化したことがあったそうだ。スタジオではマスタリングまでのワンストップで制作を行っているため、スタジオで作られた音源をさまざまな場所、車内や他のスピーカー環境、ヘッドフォン、イヤフォンなどで違いが出ないかを確認する作業を行っている。やはり、リスニング環境により多少の差異が生じるのは仕方がないが、イメージそのものが異なってはいないか?という部分にはかなり神経を使って仕上げているとのこと。これまでのスピーカー環境では、少なからず修正、微調整の必要があったとのことだが、ME-50FSで作業を行うようになってから、この修正作業がほとんどなくなったということだ。究極の標準器を目指して開発されたME-50FSのポテンシャルを言い表すエピソードではないだろうか。フラットである、位相変化がないということは音に色がついていないということである。そのため、他の環境であったとしてもその環境の色がつくだけで、色自体が変化するということにはならないということではないだろうか。
ほかにもサウンドとしての魅力は、奥行き感、前後の距離感、立体感などを強く感じると言う点にあるという。やはり、位相の良さ、トランジェントの良さがここには大きく影響していると感じるところだとお話いただいた。製品開発にあたりTOAがコンセプトとした部分が実際のコメントにも現れている。開発コンセプト、TOAの目指した標準器としてのサウンドが気に入った方であれば「これしかない」と思わせる実力を持った製品であると言える。
トランジェントが良い、ということは音の立ち上がりが良い、サスティンの余韻が綺麗に減衰するなどといった部分に効果的だ。これを実現するためにTOAでは10cmという小口径のユニットを採用し、ロングストローク化して最低限となる質量のユニットを使い正確にユニットを動かすということでその改善にあたっている。動き出しの軽さ、正確なユニット動作の入力に対するレスポンス。そういったことを考えるとやはりユニット自体の質量は少ないに越したことはない。打楽器などのアタック感も確実に改善しているのだが、このトランジェントの良さを一番感じるのはベースラインだという。高域に関しては他社のスピーカーもトランジェントを突き詰めているが、低域は大口径のユニットを使うため物理的に対処できないところがある。ME-50FSでは、小口径のユニットでその帯域をカバーしているため、圧倒的なトランジェント特性を低域に持たせることに成功している。
BEWESTではスピーカー補正のためにTorinnov Audioを導入している。西本氏はスピーカーを少し動したり、機材配置のレイアウトを変更するたびにTorinnovで測定を行い、自身の感覚だけではなく、測定器として何がどう変化したのかを確認しながらそのチューニングを行っている。ME-50FSを導入した際に測定を行ったところ、位相がほぼフラット!今までに見たことのないフラットな直線状の結果が表示されたということだ。これは、現在製品としてリリースされているスピーカーとしてはありえないこと。シングルスピーカーで無限バッフルといった理想的な環境であればもしかしたらそうなるかもしれない、というレベルの理想に限りなく近い結果である。位相特性は2-way / 3-wayであればそのクロスオーバー周波数付近(フィルターを使用するため)の位相のねじれ。それをME-50FSでは設計の要であるインピーダンス補正回路で解決している。また、ユニット自体の共振周波数による変化、この共振周波数はキャビネットにより生じるものもあれば、バスレフポートにより生じるものもある。スピーカー設計を行った際には、これらが基本的には絶対に生じるものであり、位相特性はかなり暴れたものになるのが普通である。言い換えれば、この位相特性がそのスピーカーの持つ音色ということが言えるのかもしれない。ME-50FSにはこれが無い。良い意味で音色を持たないスピーカーであると言えるだろう。これが、前述した他の試聴環境で聴いた際の破綻のなさに直結している。
・アナログの持つ普遍性を再認識する
同様にウィークポイントに関してもお伺いしたが、これに関してはやはりローエンドのお話が出た。10cmという口径からくるものだと感じたが、やはり大口径スピーカーのサウンドとは違う。しかし、ME-50FSは設計の優秀さもあり、それでも40Hzあたりまではしっかりと音として出力されている。それ以上低い30Hzあたりになるとさすがに苦しいが、音程を持って人間が知覚できる範囲はカバーできていると言えるだろう。このようなこともありTrio 11から移行したばかりのころはローエンドの不足を感じていたが、この部分も量感の違いはあってもしっかりと出力されているので時間とともに慣れてしまったということだ。ただし、マスタリングという観点で考えるとやはり昨今の作品で使われる20~30Hzが欲しくなることはあるそうだ。
このスピーカーを使うエンジニアとしては、アナログだから、デジタルだからという部分に拘りは特に無い。ただ、アナログの持つ普遍性とは、変わらずにあるもの、究極を目指せるものであることを改めて認識したということだ。スタジオを作ってからずっと持ち続けてきた、モニターへの悩み。このスピーカーとの出会いによりその悩みが解消された。やはりイメージして作った音と、他のスピーカーでの再生も含めた出音の差がないというのがスタジオモニターとしての理想であり、それを実現しているこのスピーカーは革命的だという。
色々なお話をお伺いしたが、TOAの開発コンセプトがまさにエンジニアの求める理想のスピーカーであったということを裏付けるかのようなお話をいくつも聞くことができた。TOAのこれまでのスピーカー開発の技術、そのすべてが詰め込まれた結晶体とも言える1台、音の標準器となるME-50FSから出力されるサウンドがどのようなものか是非体感してみていただきたい。
*ProceedMagazine2023-2024号より転載
Music
2023/12/19
MTRX II / MTRX StudioにThunderbolt 3 Moduleが登場!〜新たなオーディオ・ワークフローを実現するシステムアップとは〜
NAMM Show 2023でPro Tools | MTRX IIとともに発表され、大きな話題となった「MTRX Thunderbolt 3 Module」。オーディオ制作者の長年の夢であったかもしれないAvidフラッグシップI/Oをネイティブ環境で使用できる日がついにやってきたことになる。MTRX Thunderbolt 3 Moduleの特徴は、MTRX II / MTRX StudioをCore Audioに接続するだけでなく、DigiLinkポートの入出力と同時にThunderbolt入出力を追加で使用できるという点にもある。つまり、1台のMTRX II / MTRX StudioにHDXシステムとネイティブDAWを同時に接続することが可能で、双方に信号を出し入れすることができるということだ。単に高品位なI/Oをネイティブ環境で使用できるようになるというだけでなく、中規模から大規模なシステム設計にまで影響を及ぼす注目のプロダクト「MTRX Thunderbolt 3 Module」を活用した代表的なシステムアップの例を考えてみたい。
Thunderbolt 3 Module
価格:135,080円(税込)
MTRX IIとMTRX Studioの両製品に対応したThunderbolt 3モジュールのリリースにより、DigiLink接続によるパワフルなDSP統合環境に加えて、 Thunderbolt 3経由で実現する低レイテンシーなCore Audio環境での柔軟性も実現可能となる。Thunderbolt 3オプション・モジュール経由で、MTRX IIでの使用時に最大256ch、MTRX Studioの場合では最大64chにアクセスが可能、Core Audio対応アプリケーション等をDADmanソフトウエアにルートし、より先進的なオーディオ・ワークフローが実現できる。
シーン1:Core Audio対応DAWのI/Oとして使用
MTRX Thunderbolt 3 Moduleの登場によって真っ先に思いつくのはやはり、これまでHDXシステムでしか使用できなかったMTRX II / MTRX Studioをネイティブ環境でI/Oとして使用できるようになったということだろう。Logic Pro、Nuendo、Cubase、Studio OneなどのCoreAudio対応DAW環境でAvidフラッグシップの高品位I/Oを使用することができるだけでなく、巨大なルーティング・マトリクスや柔軟なモニターコントロール機能をシステムに追加することができるようになる。
もちろん、恩恵を受けるのはサードパーティ製のDAWだけではない。HDX非対応のPro Tools Intro、Pro Tools Artist、Pro Tools Studio、さらにPro Tools Ultimateをnon-HDX環境で使用している場合にも、HDXシステムで使用されるものと同じI/Fを使用することができるようになる。特に、Pro Tools Studioはこのオプション・モジュールの登場によって、そのバリューを大きく拡大することになる。Pro Tools Studioは最大7.1.6までのバスを持ち、Dolby Atmosミキシングにも対応するなど、すでにイマーシブReadyな機能を備えているが、従来のAvidのラインナップではこれらの機能をフル活用するだけのI/Oを確保することが難しかった。MTRX Thunderbolt 3 Moduleの登場によって、Avidの統合されたIn the Boxイマーシブ・ミキシングのためのシステムが完成することになる。
シーン2:HDXシステムにダイレクトにMacを追加接続
MTRX II / MTRX Studioのドライバーであり、ルーティング機能やモニターセクション機能のコントロール・アプリでもあるDADman上では、DigiLinkからのオーディオとThunderboltからのオーディオは別々のソースとして認識されるため、これを利用してDigiLink接続のMacとThuderbolt接続のMacとの間でダイレクトに信号のやりとりができる。例えば、Dolby Atmosハードウェア・レンダラーとHDXシステムのI/Fを1台のMTRX II / MTRX Studioに兼任させることが可能になる。Pro Toolsとハードウェア・レンダラーが1:1程度の小規模なミキシングであれば、I/O数を確保しながらシステムをコンパクトにまとめることができるだろう。
もちろん、Dolby Atmosハードウェア・レンダラーだけでなく、CoreAudioにさえ対応していれば、スタンドアローンのソフトウェアシンセ、プロセッサー、DAWなどとPro Toolsの間で信号をやりとりすることができる。シンセでのパフォーマンスをリアルタイムにPro ToolsにRecする、Pro ToolsからSpat Revolutionのようなプロセッサーに信号を送る、といったことが1台のI/Fでできてしまうということだ。Thuderboltからのソースはその他のソースと同様、DADman上で自由にパッチできる。使い方の可能性は、ユーザーごとに無限に存在するだろう。(注:MTRX StudioのThuderbolt 3 I/Oは最大64チャンネル。)
シーン3:Dolby Atmosハードウェア・レンダラーのI/Fとして使用
シンプルに、HDXシステムとDolby Atmosハードウェア・レンダラーのそれぞれにMTRX IIを使用することももちろん可能だ。HDX側のMTRX IIからDanteでレンダラーに信号を送り、レンダラー側のMTRX IIからモニターセクションへ出力することになる。大規模なシステムの場合、複数のプレイアウトPro Toolsからの信号を1台のMTRX IIにまとめると、オプションカードスロットがDigiLinkカードで埋まってしまい、アナログI/Oをまったく確保できないことがある。ハードウェア・レンダラーのI/FとしてMTRX IIを採用した場合には、その空きスロットを利用して外部機器とのI/Oを確保することができる。MTRX II同士をDanteで接続していればひとつのネットワークにオーディオを接続できるので、Dante信号としてではあるがメインのMTRX IIからコントロールすることも可能だ。
NAMM Show 2023での発表以来、多くのユーザーが待ちわびたプロダクトがついに発売開始。In the Boxから大規模システムまであらゆる規模のシステムアップを柔軟にすることができるモジュールの登場により、ユーザーごとのニーズによりマッチした構成を組むことが可能になった。新たなワークフローを生み出すとも言えるこの製品、システム検討の選択肢に加えてみてはいかがだろうか。
*ProceedMagazine2023-2024号より転載
Music
2023/08/16
GPU Audio / 既存概念を超越するオーディオGPU処理の圧倒的パフォーマンス
AES2022で綺羅星の如く登場し、業界の注目を集めているGPU Audio 社。これまで、AudioのPC上でのプロセスはCPUで行う、という認識が暗黙の了解のように存在していたのだが、GPUというこれまで活用してこなかったプロセッサーを使用することで、さらなる処理能力の向上を現実のものとした、まさにゲームチェンジャーとなりうる可能性を秘めた技術を登場させている。
Viennaの動作で実証された驚くべき能力
NAMM 2023の会場では、そのGPUプロセスに対し賛同した複数のメーカーとの共同ブースを構えて展示を行っていた。GPU Audio自体は、独自に開発したプラグインを複数発表しているが、NAMMの会場ではVienna Symphonic Libraryの誇る、高精度だが非常に動作が重いとされるVienna MIR PRO 3Dのセッションを、なんとGPU上で動作させるというデモを行って会場を驚かせていた。
📷コンサートホールを模したバーチャル空間に配置されたインストゥルメント。実際のオーケストラの配置を念頭に各パートが配置されており、そのパート数はなんと63。クオリティーの高さと引き換えに動作が重いことで有名なViennaではあるが、こちらのデモではさらに3D空間でのシュミレーションが加わっている。
このVienna MIRのセッション上には70トラックの音源が同一空間に配置され、3D空間内部での音源として再生が行われていた。CPUでの処理では音にノイズが混ざったりしていたものが、GPU上で動作させると使用率は30%程度に抑えられ、しかも安定して綺麗に再生される、ということがまさに目の前で実践されていた。このデモで使用されていたLaptop PCは、いま考えられる最高のスペックだと自信たっぷりに案内されたのだが、まさにその通りで、CPUはIntel Core i9 13900、メモリ64GB、GPUはNVIDIA GeForce RTX 4090という、現時点における最高の組み合わせ。つまり、その最新世代のCore i9でさえ動かしきれないものを、GPUをもってすれば余裕を持って動作させることができる。これは、GPU Audioがアナウンスしているように、FIRの計算であれば40倍、IIRの計算でも10倍のパフォーマンスが得られるということが現実になっているということだ。
📷クローズアップしたのはGPU Audioの技術により組み込まれたCPU/GPUの切り替えボタン。ベータ版のため実際の製品でもこのような仕様になるかは不明ではあるが、これこそが本記事でご紹介しているGPUによるオーディオ処理を確認できるポイントとなる。GPUがいかに強力とはいえ、有限のプロセッシングパワーであることは間違いない。従来のCPU処理と選択できるというアイデアは、ぜひともリリース版にも搭載してもらいたい機能だ。
並列処理、ベクトル計算を得意とするGPU
📷CPUとGPUでの処理速度の差をグラフ化したものがこちら。一般的に処理が重いと言われているFIR(リニアフェイズ処理)において、30〜40倍の速度向上が見込めるというのが大きなトピック。一般的なEQ処理などで使われるIIRにおいては、CPUとの差は縮まり10~15倍。これは、元々の処理自体が軽いということもありこのような結果になっているようだが、それでも大幅な処理速度向上が見込める。多数のコアを使った並列処理によるFIR処理の高速化は、やはりGPUの真骨頂と言えるのではないだろうか。
なぜ、GPUをAudioのプロセスに使うだろうか?筆者も10年以上前から、Audio Processを行うにあたりCPUは頑張って仕事をしているが、GPUは常に最低限の仕事(ディスプレイへのGPUの表示)しか行っていないのは何とももったいないと感じていた。高価なデスクトップPCを購入すれば、それに見合ったそこそこのグレードにあたるGPUが搭載されてくることがほとんど。搭載されているのにも関わらず、その性能を活かしていないのはなんとももどかしい。しかも、GPUはオーディオ信号処理にとってのエキスパートとなる可能性を持つ部分が数多くある。
まず考えられるのは、大量のトラックを使用し多数のプラグインを駆使してミキシングを行うといったケース。かなり多くの処理が「並行して複数行われる」ということは容易に想像できるだろう。これはまさにGPUが得意とするリアルタイム性が必要な並列処理であり、レイテンシーを縮めることと、並列処理による処理の最適化が行えるはずである。次に、GPUがベクトル計算のプロフェッショナルであるということ。オーディオ波形を扱うにあたり、この特徴は間違いなく活かせるはずである。オーディオの波形編集などで多用されるフーリエ変換などはGPUの方が秀でている分野である。
●GPU(Graphics Processing Unit)とは!?
GPUとはGraphics Processing Unitの略称であり、リアルタイム画像処理に特化した演算装置あるいはプロセッサを指す。通常の演算処理に使用するCPU=Central Processing Unitとの違いは、膨大な並列処理をリアルタイムに演算する必要がある3Dのレンダリング、シェーディングを行うために数多くの演算用のコアを搭載しているということが挙げられる。現行のCPUであれば、4~20個ほどのコアを搭載しているものが一般向けとして流通しているが、それに対しGPUではNVIDEAの現行製品RTX 40シリーズは処理の中心となるCUDAコアを5888~16384個と桁違いの数を搭載している。
このような高度な並列処理が必要となった過程はまさに3D技術の進化とともにあり、Microsoftが1995年に開発した、ゲーム・マルチメディア向けの汎用API Direct Xの歴史とともにハードウェアの進化が二人三脚で続いている。3Dのグラフィックスをディスプレイに表示するには、仮想の3D空間において、指定座標におかれた頂点同士をつなぎ合わせたワイヤーフレームの構築し、そこに面を持たせることで立体的な形状を生成。これを空間内に配置されたオブジェクトすべてにおいて行う。そこに光を当て色の濃淡を表現、後方は影を生成、霧(フォグ)の合成など様々な追加要素を加えてリアリティーを上げていく。こうして作られた仮想の箱庭のような3D空間を、今度は2D表現装置であるディスプレイ表示に合わせて、3D-2Dの座標変換処理、ジオメトリ処理を行うこととなる。これらの作業をリアルタイムに行うためには、高速にいくつもの処理を並列に行う必要がある。それに特化して並列化を進めたものが今日のGPUである。
NVIDIA GPU比較表
このような並列処理に特化したGPUは、2005年ごろよりコンピューティングの並列化に最適なプロセッサーとしてGPGPUという新たな分野を切り拓いている。単一コアの高性能化が一定の水準で頭打ちすることを見越して、処理を並列化することでの効率化、高速化を図るというものである。汎用CPUと比較して明確なメリット・デメリットはあるものの、特定分野(特にベクトル計算)においてはその性能が発揮されるということもあり、スーパーコンピュータ分野で普及が進んでいる。
現在では、Direct X 10以降の世代の汎用GPUであればGPGPU対応となっている。汎用のAPI「C++ AMP」や「OpenACC」などのプログラミング言語環境も整っており、普通に入手可能な製品でもGPGPUの恩恵を受けることは可能である。まさに今回紹介するGPU Audioはこのような特徴を活かしたものと言えるだろう。
オーディオでシビアなレイテンシーを解決
📷NAMM Showの会場でGPU Audioは、そのテクノロジーに賛同するメーカーと共同でブースを構えていた。
リアルタイムかつ、同時に数多くの処理を並列でこなすことのできるGPUが、まさにAudio Processingの救世主となりうる存在であることは、多くのPCフリークが気付いていたはずである。しかし、なぜ今までGPUを活用したオーディオプロセッシング技術は登場してこなかったのだろうか?
ここからは筆者の考察も含めて話を進めていきたい。GPU Audioのスタッフに話を聞いたところ、昨年のAES 2022での発表までに費やした開発期間は、実に8年にも及ぶということだ。一見シンプルにみえるGPU上でのオーディオ処理だが、実現するためには多くの困難があったようだ。その具体的な事例として挙がっていたのはレイテンシーの問題。
そもそもリアルタイム性を重視して設計されているGPUなのだから、問題にはならなさそうな気もするが、グラフィックとオーディオの持つ性質の差が解決を難しくしていたようだ。想像をするに、画像処理であれば一部分の処理が追いつかずにブロックノイズとして表示されてしまったとしても、それは広い画面の中の微細な箇所での出来事であり、クリティカルな問題にはならない。しかしオーディオ処理においてはそうとは行かない。処理遅れにより生じたノイズは明らかなノイズとして即時に聴こえてしまい、オーディオにおいてはクリティカルな問題として顕在化してきてしまう。単純にGPGPUなど、GPUをコンピューティングとして活用する技術は確立されているのだから、プログラムをそれにあった形に変換するだけで動くのではないか?と考えてしまうが、そうではないようだ。
CPUが非力だった時代より今日までオーディオプロセスを行わせるための最適なデジタル処理エンジンは、DSP=Digital Signal Processerである。これに異論はないはずだ。昨今ではFPGAを使用したものも増えてきているが、それらも基本的にはFPGA上にDSPと同様に動作するプログラムを書き込んで動作させている。言い換えれば、FPGAをDSPとして動作させているということだ。
その後、PCの進化とともにCPUでの処理が生まれてくるのだが、これは汎用のプロセッサーの持つ宿命としてレイテンシーが発生してしまう。もちろんDSPの処理でもレイテンシーは発生するのだが、CPUは処理の種類によりレイテンシー量が異なってくる一方で、その遅延量を定量化することが可能なのがDSPの持つ美点である。レイテンシーが定量であるということは、オーディオにとっては非常に重要なこと。問題にならないほどレイテンシーが短いのであれば、あえてディレイを付加することにより遅延量を定量化することは容易いのだが、チャンネル間の位相差などレイテンシー量がバラバラになるとクリティカルな問題に直結してしまう。GPUの持つ可能性がどれほどのものなのかは、今後登場する製品に触れたときに明らかになることだろう。
📷デモではViennaを使っていたが、GPU Audioでは自社でのプラグインのリリースも行う。こちらが自社で開発したコーラス、フランジャーなどのモジュレーション・プラグインと、FIRを活用したリバーブプラグインとなる。従来のCPUベースのプラグインをリリースするサードパーティ各社への技術提供と並行して、このようにGPU Native環境でのプラグイン開発を行うプランが進行している。
デモを見るかぎりGPUが持つ可能性は非常に高いと感じる。PCでのオーディオプロセスとしてはフロンティアとも言える領域に踏み込んだGPU Audio。今まで以上のプロセッシングパワーを提供することで、全く新しい処理を行うことができるプラグインの登場。DAWのミキシングパワーはCPUで、プラグインプロセスはGPUで、といったような処理の分散による安定化など多くのメリットが考えられる。今後、GPU Audioの技術により業界が大きく変化する可能性を大いに感じられるのではないだろうか。
📷プレゼンテーション用のステージではライブパフォーマンスも行われていた。QOSMOはファウンダーであり、自身もミュージシャンであるNao TokuiとBig YUKIによるパフォーマンスを提供。一流ミュージシャンに寄るパフォーマンスが楽しめるのもNAMM showの醍醐味のひとつ。
*ProceedMagazine2023号より転載
Music
2023/08/10
TAOCファクトリーツアー / 鋳鉄のプロフェッショナル集団が生み出す、質実剛健プロダクツ
制振についてのコア技術に特許を持ち、実に40年にわたりホームオーディオの分野で活躍しているTAOC。40年間の製品開発で蓄積したノウハウを基に開発した新たな製品レンジ「STUDIO WORKS」シリーズを投入し、これまでは特注でしか生産されることがなかったプロオーディオ市場へ本格的に参入する。鋳鉄こそが「遮断」と「吸収」という2つの役割を両立できるベストな材質だという鋳鉄のプロフェッショナルたちがどのようにして製品を開発・生産しているのか、愛知県豊田市のアイシン高丘株式会社を訪れた。
振動を制するものはオーディオを制す
TAOCはブレーキディスクローターやシャーシ部品をはじめとした自動車部品を生産するアイシン高丘株式会社を母体に持つ。自動車用鋳造部品の製造ラインで採取される鋳鉄粉を用いて、鋳鉄の制振性や音響特性を活かした製品をホームオーディオの分野で多くリリースしているのがTAOCブランドだ。ほとんどの製品が制振にフォーカスをあてたもので、そのブランド名の頭文字が「Takaoka Anti Oscillation Casting」から成っていることからも、立ち上げ当初より音響機器の最適な振動制御を鋳造(Casting)で達成することを目的に活動してきたことが窺える。また、「異なる厚みの鉄板を密着させ、互いに違った固有値を持つ板材が振動を抑制することで、音質改善を行う二重鉄板構造」について特許を取得したこともあり、現在では多くの金属製スピーカースタンドメーカーが生産する製品の天板に採用されている。
音楽を活かすために「整振」するTAOCの製品には、音像の厚み、広がり、帯域のバランス、解像度といった要件が求められる。この複数の要件を満たすには、密度が高く、硬度が高く、自己の振動を持ち込まない減衰性を併せ持つ材質が必要となるが、これにおいて3拍子揃った材質が鋳鉄だ。
さらに、鋳鉄(言い換えれば黒煙を多量に含んだ鉄)は高い振動吸収性を持つ。鋳鉄はキャベツの葉を剥がしてランダムに並べたような黒鉛構造を持っており、その黒鉛と鉄部分の摩擦によって振動エネルギーは熱エネルギーに変換され制振性を発揮する。これが鋳鉄の大きな特徴であり、安全のためにも不要な振動を抑えておきたいブレーキローターに鋳鉄が用いられているのもうなずける。
📷各素材を特性ごとに並べてみると、鋳鉄がいかに3拍子揃った材質であるかがわかる。例えば、密度が最も高い鉛は一方で硬度が低く、硬度が最も高いセラミックは減衰性が低い。マグネシウムは減衰性に秀でているが、密度が低くなり音の厚みや解像度に劣ってしまう。この3つの特性を高い次元でバランスよく持っているのが鋳鉄だ。
鋳鉄が持つ独特な特性を体験する
アイシン高丘本社に到着後、広大な敷地内でも最奥に位置するTAOCオフィスまで車で移動。鋳鉄工場見学のレクチャーと諸注意を受けつつ、まずTAOC製品に広く用いられる鋳鉄粉のサンプルを見せていただいた。大きめの薬瓶に入れられた鋳鉄粉サンプルは、手に取ると当然ながらズッシリと重い。鉄粉はパウダー状になっている訳ではなく、砂粒ほどの大きさがあり、これが各種製品へ充填されている。試しに手に持って水平に揺らしてみると、ショックレスハンマーと同じ原理が働き、寸止めした時の反対側への反動が少なくピタッと止まる。力量は異なるが、スピーカースタンドの中でもこういった現象が起こっているのかと不思議な体験ができた。
作業着とヘルメットを装着したところで鋳造工場内へ移動を始めるが、大きな炉を拝見する前に、社内の研修施設で今の製造工程や自動化されている機械内処理の説明をいただいた。その研修施設の入口にはダンベルやエンジンブロックのサンプルを使った解説があり、自動車部品以外の鋳物製品や鋳造の成形不良のサンプルも展示されている。その中に音に関係するサンプルもあったのでご紹介しておきたい。そこには鐘形になった鉄4種類、青銅、アルミの成形物が設置されており、これをマレットで叩くことが出来るのだが、叩いてみるとアルミや青銅はサスティンが長くその音色も聴き慣れた美しいものなのだが、比べて鋳鉄を叩いた音色はどれも複雑な倍音をもち、アタックも鈍く、そして減衰が速い。素材自体に制振効果があるということは前知識としてあったが、実際にマレットで衝撃を与えた際の応答は予想以上に顕著なもの。オーディオ製品として鋳鉄が持つ可能性に期待が高まる。
鐘形のサンプルの裏手側には設計から製品になるまでの工程がジオラマ形式で展示され、アイシン高丘の鋳物製造フローが学べる。社員研修や社内技能試験などでは研修施設の機能をフルに活用するとのことだが、今回は鋳鉄粉が出来るまでの一部の工程を説明していただいた。
鋳鉄粉が採取できる工程は、鋳造の後半にあたる後処理工程となる。上型、下型、中子型から製品を取り出す作業が行われ、製品は砂型を壊して取り出される。取り出した製品には型で使われた砂が付着しているため、ショット機と呼ばれるサンドブラストの一種を使用してバリや砂を除去する。この作業によって、素材の表面が剥がれ落ち鋳鉄粉が採取できるわけだ。こうしてショット機からメディアが噴射され後処理が完了すると集塵機には砂、メディア、鋳鉄粉が混ざったものが集まる。これを選別して鋳鉄粉を取り出し、さらに取り出した鋳鉄粉は規格に沿ったメッシュを通して粒を揃えたものを採取する。このような工程で選りすぐられた鋳鉄粉をTAOCではスタンドの制振材として活用している。
📷バリ取りの工程で写真のショット機が使用される。砂型から取り出された製品からサンドブラストの一種であるこちらの機械を使ってバリと砂を除去する。すぐ隣にあるのがショット機用の集塵機。ここに集められたものを規格に沿ったメッシュでふるいにかけ、砂粒状の鋳鉄粉が採取される。
非日常的な迫力の工場内
研修施設での解説を受けたあとは、鋳物を製造している製造ラインへと移動する。人間の背丈を遥かに超える大型機械群に囲まれて、なにが何の為の機械なのかまるで見当がつかない。いよいよ工場にやって来たという感覚が湧いてきた。
ライン見学は製造工程通りに案内され、まずは材料となる鉄を溶かす溶解炉であるキュポラのセクションへ。1400度以上の鉄が連続溶解できるキュポラの足元には6トンほどの溶かされた鉄が入る釜が2基設置されており、満杯になるとレールを伝って鋳込セクションへ運ばれる。残念ながら、先程キュポラから運ばれてきた真っ赤な鉄を注ぐ鋳込の工程自体は外から作業を見ることができなかったのだが、工場内は常に80dBを超える音で満たされており、定期的に聞こえるエアー重機のブローオフは瞬間的に100dBを超える。これだけでも非日常的な迫力を感じることができた。
そして、後処理のセクションへ移動する。研修施設で見たショット機を使ってのバリ取りを行い、まさにいま鋳鉄粉が出来ている工程でこちらも自動化されている。その経路の途中にはセキ折りのセクションがあり、製品から伸びている湯道を切り離す作業のラインを見学。鉄でできた大きなプラモデルとでも言えば良いのだろうか、傍らから見るとランナーからパーツをニッパーで切る作業に似ているのだが、ニッパー風のエアー工具も切り離される製品もやはりそのすべてが大きい。
システムをきちんと機能させる土台
工場内を見学した後はTAOCの開発室兼視聴室へ向かった。視聴室の前は広大な庭が広がっており、アイシン高丘のOBや夜勤明けの従業員がハーフラウンドのゴルフをプレイできるという。これ以外にも社内の取り組みとして工場排熱を利用してスッポンを育てていたり、ショット機で出た砂を再利用してウコンを育てていたこともあるそうだ。鋳鉄粉もTAOC発足前は再びキュポラに戻され製品へリサイクルされていたそうだが、資源の活用とSDG'sへの意識が旧来から全社的に根付いていることがうかがえる。
開発室の中はその半分のスペースがリスニングスペースとなっており、天井や壁面は防音・吸音加工が施されている。残り半分のスペースは様々な資料と音源を収納したラック、ここを囲うようにオリジナルスピーカーや検聴を待つ試作品が並び、そこにはSTUDIO WORKSのデスクトップ型スタンドもあった。同じくSTUDIO WORKSのインシュレーターを手に取ってみると一般的にイメージする鋳物とは思えない仕上がりで、質感はどちらかと言うと鍛造に近い。切削の工程があるのか聞いたところ、仕上げの工程はあるが基本的には鋳込時の流す量と時間で密度をコントロールしているという。それらの製品を設置していただき拝聴後、TAOCチームの南氏、杉田氏、西戸氏にお話を伺った。
Rock oN多田(以下、R):改めてTAOCの持つ特徴をお伺いさせてください。
西戸氏:アイシン高丘は1960年ごろからトヨタ自動車の鋳物部品を生産しており、東洋一の鋳物工場を作るんだという熱意を持ってスタートしました。そしてちょうど40年前の1983年、オイルショックで一時的に鋳物の生産量が少なくなっていく中で自動車部品以外にもこの独自の鋳造加工技術を活かせることはないかと、社内で検討する部署が立ち上げられて、鋳物のスピーカーベースの生産からオーディオアクセサリの事業をスタートしました。鋳物を使ったモノづくりとして、鋳物の墓石を作ってはどうだとか、当時は色々試行錯誤していたと聞いています。また、当時はシミュレーションも少なかったため、製品開発は試行錯誤の体当たりで製作していました。インシュレーター、オーディオボード、オーディオラック、スタンドに加えて鋳鉄製ユニットマウントリングを特長としたスピーカーの製作など、鋳鉄が持つ振動吸収を活かした製品をリリースしています。鋳鉄には素材自体が自分で揺れず、振動を適度に吸収するという特性があります。それを実証するようにスピーカーユニットのリングを作った時は樹脂と比べて真っ直ぐにドライバがストロークしました。これは本来持っている音を出すことができていたとも言えます。
R:STUDIO WORKSという新たなコンセプトで製品を生み出した経緯をお伺いできますか。
南氏:2018年に、とあるマスタリングスタジオのテックエンジニア様から、システム全体の音質向上のためにお声がけいただきTAOC製品を導入いただきました。以降も、エンジニア様とは音質に関する研究交流を続けていた中、杉田の案で2021年のInter beeに2人で行き、特注スタンドのオファーをいただき、要望を伺いながら何本も製作していく中、徐々にプロオーディオ向け製品のコンセプトが定まっていったという経緯があります。
杉田氏:ポタフェス(ヘッドフォン、イヤホン)に行った時も印象深いですね。ポタフェスはポータブルオーディオのイベントではありますが、それを踏まえても音響製品のイベントなのに会場が無音というのはショックを受けました。今までは主に、音を聴く側のお客様に向けての製品作りでしたが、ヘッドフォンの中に聴こえる素晴らしい音を創る側のエンジニア様、音楽家の皆様向けにTAOCとしてお役に立てられないかと思うようになりました。
R:STUDIOWORKSをどういったユーザー層を想定しているのでしょうか。
南氏:プロのエンジニアの方々やミュージシャンの皆様はもちろん、良い音を追求するすべての方々にご体験いただきたいですね。
杉田氏:イレギュラーな使い方や面白いご意見をいただき、そのフィードバックをいただければそこから更に製品の改善にもつながると思います。また個人向けで評価をいただいているこれまでの製品も、プロの方のフィードバックを反映してより良いものが作れると思っています。試作に対してのハードルが低いので、要望はどんどん欲しいですね。なので特注製品、いわゆるワンオフも大歓迎です。製品はすべて国産で製造しているので、フットワークも軽いですよ。
📷本文中でも触れたデスクトップサイズのスタンドも試作されていた。ユーザーの声を素早く反映してラインナップすることはもちろん、ワンオフでの特注にも柔軟に対応できるそうだ。
南氏:TAOCスタジオワークスは一貫して、確かな効果と実用性にこだわり、外観はとてもシンプルな仕様になっています。従来のTAOC製品同様に、20年・30年以上と永く使えるモノづくりをしています。また、今回のスタンドやインシュレーターはどのモデルも、それぞれエンジニア様やロックオンさんと何度も意見交換をしながら完成させたコラボのような製品で、みなさんの熱い思いが詰まっていると感じています。素晴らしい音楽を作られる皆様の鋭い感性と貴重なご意見に、いつも多くの学びがあります。今後も多くのミュージシャン様、エンジニア様とご一緒させていただきながら、TAOCスタジオワークスを進めていきたく思っています。
杉田氏:1983年9月に創業したTAOCは、今年2023年9月に40周年を迎えます。今までのご愛顧に深く感謝をお伝えしながら、次の40年に向けて新しいチャレンジをしていきます。TAOCスタジオワークスも、すでに多くのエンジニア様・ミュージシャン様のスタジオに導入いただけており、手応えを感じています。シリーズ第2弾の製品開発も進めていますので、ぜひ注目していただけると嬉しいですね。
📷写真左より、アイシン高丘エンジニアリング株式会社 TAOCチーム杉田 岳紀 氏、TAOCチーム 西戸 誠志 氏、Rock oN 多田純、ROCK ON PRO 前田洋介、TAOCチーム 南 祐輔 氏。
工場内でキュポラの説明を受けた時にまるでターミネーター2のラストシーンみたいですねと言うと、T-800は鉄の中で沈むので鉄より比重が大きい、おそらくT-800は鉄ではないんですね…と答えが返ってきた。映画のワンシーンにおいても鉄が基準(!)、そのどこまでもアイアンファーストな姿勢はプロオーディオの中で新たなメインストリームを作り出すことになるのではないだろうか。工場で製品が生産される際に生じる余剰となっていた鋳鉄粉だが、それを確かな研究開発の裏付けでリユースし、類まれなる制振特性は40年にわたりオーディオの世界で実績を重ねてきた。そしていま、プロユースの現場にもそのムーブメントが訪れようとしている。
*ProceedMagazine2023号より転載
Music
2023/08/08
ONKIO Acoustics / 音響ハウス開発陣が語る、DAWへ空気感を吹き込むその音の佇まい
1973年の設立から50年にわたり、数多のアーティストから愛され続けているレコーディングスタジオ「音響ハウス」。CITY-POPの総本山として、近年さらに注目を集めているこの音響ハウスにスポットを当てた音楽ドキュメンタリー映画「音響ハウス Melody-Go-Round」が2020年秋に公開された。本作のなかでは日本を代表するアーティストの数々が、音響ハウス独特の空気感や響きの素晴らしさについて語っている。
この映画制作を通じて、その稀有な響きを記録しておくべきだというアーティストや音響ハウスOBからの提言が寄せられ、音響ハウスStudio No.1、No.2のフロアの響きを忠実に再現する構想がスタートしたという。そして約1年半の開発期間を経た2022年秋、音響ハウス公式記録となるソフトウェアONKIO Acousticsが満を持して発売された。ONKIO Acoustics誕生までの足跡と開発秘話、そしてソフトウェアに込められた熱い想いを音響ハウスにて伺うことができた。
●TacSystem / ONKIO Acoustics 価格 ¥10,780(税込)
「録音の聖地」ともいえる音響ハウス Studio No.1 / No.2の空間を、音場再現技術であるVSVerbを用いて忠実に再現したプラグイン「ONKIO Acoustics」。音響ハウスの公式記録として次世代に伝える意義も込め、大変リーズナブルな価格で提供されている。ONKIO Acousticsプラグインでは、マイクのポジションを X軸、Y軸、Z軸 それぞれ-999mm〜+999mm、マイクアングルを-90度から+90度まで変更でき、単一指向性 / 無指向性 の切替えも可能。まるで、実際に音響ハウスでレコーディングを行っているかのような空気を体感することができる。
>>>ONKIO Acoustics製品ホームページ
●ONKIO HAUS Studio No.1
📷音響ビル8FのStudio No.1。コントロールルームにはSSL 9000Jを擁しこれまでも数々の名盤がレコーディングされてきた。ONKIO Acousticsではこちらのメインフロアを再現、マイクポジション設定のほかにもStudio No.1の特徴的な反射板の量までセレクトすることができる。
●ONKIO HAUS Studio No.2
📷プラグイン内での再現ではStudio No.2のメインフロアはもちろん、Booth-Aのソースをブース内、ブース外から収録するシチュエーションも用意された。なお、こちらのコンソールはSSL 4000G、蓄積されたメンテナンスのノウハウがつぎ込まれそのサウンドが維持されている。
VSVerbとの出会い
📷株式会社音響ハウス
執行役員 IFE制作技術センター長
田中誠記 氏
スタジオの響きを忠実に再現するという最初の構想から、ソフトウェア実現に至る第一歩は何から始まったのだろうか?「レコーディングスタジオの生命線となる、スタジオの鳴りや響きをどのようにして記録・再現するか、まずはタックシステム 山崎淳氏に相談することから始まりました」(田中氏)その相談を受けた山崎氏の回答は「株式会社ソナ / オンフューチャー株式会社 中原雅考 氏が研究している特許技術、VSVテクノロジーしかない」と迅速・明快だったという。
音場を再現するにあたり、従来のImpulse Responceによる計測では測定機器の特性や部屋の騒音に左右され、ピュアな音場再現性に欠けるとの問題提起をしてきた中原氏は、仮想音源の空間分布をサンプリングするVSVerb(Virtual sound Sources reVerb)を音響学会およびAESで発表していた。VSVerbは空間の反射音場をサンプリングすることで、任意の空間の響きを再現する音場再現技術である。測定した音響インテンシティーの波形から反射音成分だけを抽出することにより、部屋の騒音をはじめ、マイクやスピーカなど測定時の不要な特性を一切含ないリバーブを生成することができる。それはつまり、不要な音色変化を生じさせない高品位なサンプリングリバーブを意味している。
VSVerbを用いて音響ハウスを再現する最初のデモンストレーションは、生成したVSVerbの畳み込みに Waves IR-L Convolution Reverbを利用して行われた。音響ハウスで20年以上のレコーディング経験を持つ中内氏はそのサウンドを聴いて、自身が楽器にマイクを立てている時の、まさにその空気感を感じて大変驚いたという。スタジオでの話し声でさえリアルに音場が再現されてしまう感動は、他のエンジニア達からも高く評価され、VSVerbを用いてソフトウェア制作に臨むことが決定。2021年夏に開発がスタートした。
●4πサンプリングリバーブ / VSVerb
VSVerbは所望の空間の反射音場をサンプリングすることで、任意の空間の響きを再現する音場再現技術です。反射音場は全周4πsr方向にてサンプリングされるため、1D, 2D, 3Dのあらゆる再生フォーマットに対して響きの再現が可能です。VSVerbをDAWのプラグインに組み込むことで音響制作時に任意の空間の響きの再現が可能となります。
響きの時間特性を方向別にサンプリングする従来の方向別 IRによるサンプリングリバーブとは異なり、VSVerbは一つ一つの反射音の元となる「仮想音源」の空間分布をサンプリングするサンプリングリバーブです。従来の方向別 IRリバーブでは、サンプリングの際のマイキングで再生可能なチャンネルフォーマットが決定してしまいますが、VSVerbはチャンネルに依存しない空間サンプリング方式のため完全なシーンベースのリバーブとなります。そのため、任意の再生フォーマットに対してリバーブエフェクトが可能です。
VSVerbでは測定した音響インテンシティーの波形から反射音成分だけを抽出することでリバーブを生成しているため、部屋の騒音やマイクやスピーカーなど測定時の不要な特性を一切含まないリバーブです。つまり、素材に対して不要な音色変化を生じさせない高品位なリバーブとなります。
(出典:オンフューチャー株式会社 資料)
ACSU2023 Day1 #1
4πへの階段 〜 MILやVSVerb などを通して垣間見るイマーシブ制作のNext Step 〜
https://www.youtube.com/watch?v=yEW4UA0MIwE
📷今春開催されたAvid Creative summit 2023では、株式会社ソナ/オンフューチャー株式会社 中原 雅考氏による「ONKIO Acoustics」のコア技術=VSverbについての技術解説セミナーが催された。音場再現技術についてのロジックをベーシックから解説し、どのように音響ハウスの空間が再現されたのか確認することができる。
スタッフ総出のサンプリング
音響ハウスStudio No.1、No.2の鳴りをサンプリングする作業はスタッフ総出で、B&K(ブリュエル・ケアー)の全指向性スピーカーを床から1.2メートル、マイクをStudio No.1では床から2.7メートル、Studio No.2では2.5メートルの高さに設置して行われた。Senheiser AMBEO VR Micが用いられたが、その4ch出力はAmbisonics方式では処理されず、AMBEO VR Micは音響インテンシティープローブとして使用されたそうだ。
📷スタッフ総出で行われたという、サンプリング作業の様子を見せてくれた。B&K(ブリュエル・ケアー)の全指向性スピーカーとSennheiser AMBEO VR Micを設置する場所や高さは、通常レコーディング時の音源位置と、アンビエンスマイクの位置を想定して決定されたそうだ。
これら4chの音データがオンフューチャーのソフトで解析され、音圧と粒子速度を掛け合わせた音響インテンシティーにより、反射音成分のみが抽出されている。なお、Studio No.1の壁面上部にある反射板は取り外し可能になっているため、サンプリングには反射板の設置パターンがFully(全設置)、Half(半分設置)、None(無し)の3種類が用意された。曲面加工が施され、裏面にパンチカーペットが貼られた木製の反射板1枚1枚が、スタジオの響きをコントロールする重要な役割を果たしている。「Halfという設定は、音響ハウスの響きを熟知している著名なプロデューサーが、ハーフ設定を好んでレコーディングしていることから採用しました」(中内氏)とのことで、その響きがプラグインの中でもしっかりと再現されている。Studio No.2ではメインフロアに加えて、ブース内、ブース外でのサンプリングもおこなわれ、それらの再現もまた音響ハウスを知る多くのミュージシャンから高評価を得ている。
音響ビル社屋をイメージしたGUI
📷株式会社音響ハウス
IFE制作技術センター 技術グループ チーフ
志村祐美 氏
プラグインのGUIデザインは映像編集に携わってきた志村氏が担当に抜擢され、コロナ禍のためリモート会議で制作が進められたそうだ。グラフィックソフトの画面を共有して、リアルタイムにデザインする様子を皆で確認しながら試行錯誤したそうだが、志村氏は「このパーツを修正したい理由を、私が理解できるように説明して下さい!というやり取りが何度もありました(笑)」と当時の苦労を語ってくれた。「GUIのグランドデザインは最初、音響ビルそのものをイメージした縦長サイズで、メニューをクリックしてスタジオを選択するというものでした」(田中氏)その構想は製品版GUIの縦長サイズと、背景にうっすらと見える煙(けむり)のテクスチャへと引き継がれていた。「音響ビル外観をイメージした色使いで、下からフワッと上がるけむりのグラデーションが空気感を表現しています。プラグインが縦に長いと場所をとるので、画面を三つ折りにしたいという私の最初の要望も製品に反映されています」(志村氏)
📷音響ビル社屋をイメージしたという、田中氏が描いた最初期のGUIスケッチ。こちらをスタートに志村氏がデザインを施していった。外部のデザイナーではなく、建物自体をも含めたスタジオの空気感をよく知った社内スタッフで丹念に組み上げられていったことがわかる。
Lexiconのリモートコントローラーをイメージしたフェーダー部は、ストロークの長さにもこだわった。「ストロークが長い方が使いやすいだけでなく、音に関係なかったとしてもパッと見た瞬間のカッコ良い / 悪いが判断基準でした。見えないものを創るという性質上、見えるもので盛り上がりたいという気持ちを大切にしています」(中内氏)そういったスタッフの想いを具現化していく作業は、まるで音楽を生み出すようでスタジオワークにも近かったのではないだろうか?パラメーターを少なくして簡単に音作りできるようにしたい、という開発時からのコンセプトとともに、スタッフそれぞれの哲学が込められたGUIには一切の妥協がなかった。
空気を録音することがコンセプト
📷株式会社音響ハウス
スタジオ事業部門 技術部 音楽グループ
チーフ レコーディングエンジニア
中内茂治 氏
「ONKIO Acousticsは音響ハウスのスタジオを再現するルームリバーブなので、オフマイクを作るのに向いています。例えばレコーディング編成の都合上、ブース内でオンマイク収録した際には、オフマイク音をONKIO Acousticsで再現してオンマイクとブレンドしたりします」(中内氏)さらにその後段でリバーブ処理することにより、豊かな奥行き感を表現するという手法もあるそうだ。また、シンセサイザー音源から出力されるダイレクトなサウンドはアタック成分が強く、特にサンプリング音源の硬さがイコライザーで取れない場合には、ONKIO Acousticsを使用するだけで一発で解決するケースも多いのだとか。「極論を言えば、リバーブ音を構成する LOW / MID / HIGH 3つのバンドレベルのうち、HIGHを下げるだけでほぼ音が馴染んでしまいます。アタックのコントロールと空気感を含めた前後のコントロールが抜群で、コンサートホールに例えると三点吊りマイクで収録したような空気感も得られます。どんなEQよりも簡単迅速に、オケに馴染む音作りを実現してくれますよ。昨今はヘッドホンやイヤホンだけで音楽制作をしているDTMユーザーが増えていますが、そのような環境であればこそ、ONKIO Acousticsの空気感が際立ってくると思います。アレンジや音作りの手がかりとしてもぜひ活用して欲しいです」(中内氏)
📷音響ハウスStudio No.1の反射板は簡単に取り外しが可能とのこと。反射板の場所や数を調整して響きを自在にコントロールできる、そんな稀有な機能を備えたスタジオだ。ONKIO Acousticsプラグイン内でもReflectors:Fully(フル設置)、Reflectors:Half(半分設置)、Reflectors:None(なし)の3種類を選択することができ、Studio No.1の機能をもリアルに再現することができている。
「ONKIO Acousticsはエフェクトカテゴリーとしてはリバーブに相当しますが、空気を通す、つまり空気を録音することがコンセプトにあるので、一般的なリバーブプラグインとは異なります」(田中氏)度々登場するこの "空気" というキーワード。そのなかでも特に、空気を録音するというコンセプトは、音の正体が空気の疎密波であるということを再認識させてくれるのではないだろうか。ONKIO Acousticsは他のプラグインと同様に、パソコン内で音楽制作するツールということに変わりはないが、DAWに空気感を吹き込む、その音の佇まいが最大の魅力ということである。
「次世代の若者に音響ハウスのサウンドを体験して欲しいという思いが一番にあります。プロの方達は実際に音響ハウスに来ることができますが、そうではない方達にレコーディングスタジオの空気感を知って欲しいですね。このプラグインが、自宅だけではできない音作りがあるということに気付くきっかけとなって、数年後にユーザーがエンジニアやアーティストになって音響ハウスを使ってくれれば良いなと。そこで、次世代に伝えたいという意味でも、大変リーズナブルな価格設定で提供しています」(田中氏)驚くのはその価格の低さだけではない。たった29.8MBというプラグインのデータサイズは、サンプリング・リバーブというカテゴリーにおいては驚異的な小容量である。ソフトウェアのデータサイズから見ても、ONKIO Acousticsが通常のリバーブとは根本的に異なることがお分かりいただけるだろう。
空間処理における最強コンビへの構想も!?
📷空気の振動にこだわったONKIO Acousticsとは対照的に、鉄板の振動が温かい響きを生み出すプレートリバーブEMT-140。マシンルームに所狭しと並ぶEMT-140たちをプラグインで再現して欲しい!という声が寄せられているそうだ。
ONKIO Acousticsはバージョン1.2.0で、音響ハウスのOBを含む5名の著名エンジニアによるプリセットが追加された。それらのプリセットはDAW初心者が空気を通した音作りを学べるだけでなく、サウンドプロフェショナルにも新たなアイディアをもたらしてくれるだろう。「ユーザーからGUIに関するリクエストがあれば、ぜひお聞きしたいです」(志村氏)とのことで、今後のバージョンアップにも期待が持てそうだ。また、VSVerbテクノロジーは反射音場を全周4πステラジアン方向でサンプリングする方式のため、1D、2D、3D のあらゆる再生フォーマットに対応できるのも大きな特長である。サラウンドミックスの需要が高まっているなかで、将来的にONKIO Acousticsがサラウンド対応することにも期待したい。
また、ONKIO Acousticsの発売をうけて、音響ハウスが所有している5台のプレート・リバーブ EMT140をぜひプラグインで再現して欲しい!という声も寄せられているようで、「ONKIO PLATE」としてその構想も浮かんできているようだ。「EMT140はアンプがトランジスタのほか真空管モデルもあり、みな個体差があって音が違うので、正常に動いている今のうちに記録して皆で使えるようにしたいですね。サウンド・エンジニアリングの勉強にもなりますよ」(田中氏)とのことで、このONKIO PLATEをONKIO Acousticsと併用すれば、CITY-POPを代表する空間処理の最強コンビになることは間違いないだろう。音響ハウスの新たなるソフトウェア展開が、DAWユーザーとレコーディングスタジオとの関係に新しい空気を吹き込み、次世代に向けて歩み始めている。
*ProceedMagazine2023号より転載
Broadcast
2023/08/03
Waves Live SuperRack〜あらゆるミキシング・コンソールにアドオン可能なプラグイン・エフェクト・ラック
Dante、MADI、アナログ、AES/EBU…どんな入出力のコンソールにも接続可能で、最大128ch(64chステレオ)のトラックに大量のWavesプラグインをニアゼロ・レイテンシーで走らせることができる、ライブサウンドとブロードキャスト・コンソールのための最先端のプラグイン・エフェクト・ラック。それが「SuperRack SoundGrid」です。
プロセッシングをおこなう専用サーバー本体は2Uのハーフラック・サイズ。1Uまたは2Uハーフラックの専用Windows PCはマルチタッチ・ディスプレイに対応しており、プラグインのパラメータをすばやく直感的に操作することが可能です。
システム内の伝送はWavesが開発したレイヤー2のAoIP規格であるSoundGrid。汎用のネットワークハブを介してLANケーブルのみでシステム全体を接続します。
スタジオ・ミキシングやレコーディングはもちろん、省スペースなシステムでパワフルなデジタルエフェクト処理、冗長性、ニアゼロ・レイテンシーを実現するSuperRack SoundGridは、限られた機材で最高の結果を求められるライブサウンドや中継の現場などにはまさにうってつけのソリューションと言えるでしょう。
◎主な特徴
0.8msのネットワーク・レイテンシー
最大4台のアクティブDSPサーバーをサポートし、プラグインの処理能力をさらに向上
最大4台のリダンダントDSPサーバーをサポートし、冗長性を確保
複数のプラグインを同時に表示・プラグインの表示サイズの変更
マルチタッチ対応のグラフィック・インターフェイス
ワークスペースを最大4台のタッチディスプレイに表示
SoundGrid I/Oをネットワーク上でシェアすることで、大規模なシステムにも対応
Waves mRecallアプリ:保存したスナップショットを、Wi-fi経由でスマートフォン、タブレットから呼び出し可能
個別デモのご用命はROCK ON PRO営業担当、または、contactバナーからお気軽にお申し込みください。
番組や収録のマルチトラック音源をお持ち込みいただければ、Waves SuperRackシステムを使ったミックスを体験頂けます。
◎システム構成例1
図はSuperRack SoundGridを使用したシステムの基本的な構成。例としてMADI I/Oを持ったコンソールを記載しているが、アナログやAES/EBUなどの入出力を持ったコンソールにも対応可能だ。
中列にあるMADI-SoundGridインターフェイスを介して信号をSoundGridに変換、左上の専用PCでプラグインをコントロールし、左下の専用サーバーで実際のプロセスをおこなう。
アナログコンソールやデジタルコンソールと使用したい場合は、中列のSoundGridインターフェイスを、IOCなどのアナログ・AES/EBU入出力を備えたモデルに変更すればよい。
◎システム構成例2
YAMAHA、DiGiCo、Avid Venueなど、オプションカードとしてSoundGridインターフェイスが存在しているコンソールであれば、コンソールから直接ネットワーク・ハブに接続することでシステムをよりシンプルにすることも可能だ。
SuperRackシステムの構成と選択肢
図は前述「システム構成例」からコンソールを省いたSuperRackシステム部分の概念図。ユーザーの選択肢としては、大きく3ヶ所ということになる。
左下のオーディオ入出力部については、SuperRackを接続したいコンソールの仕様によって自ずと決まってくる。SoundGridオプションカードをラインナップしているモデルであれば該当のオプションカード、そうでなければ対応するI/Oを持ったDiGiGridデバイスといった感じだ。
DiGiGrid IOCやCalrec Hydra2のように複数の種類のI/Oを持ったインターフェイスを使用すれば、デジタルコンソールとアナログコンソールで同時にSuperRack SoundGridを使用するといった構成も可能になる。
左上のWindows PCは基本的にプラグインを操作するUI部分のため、求めるマシンパワーに応じて、1UハーフラックのAxis Scopeか2UハーフラックのAxis Protonから選択すればよい。
同時に使用したいWavesプラグインやタッチディスプレイの数、レコーディング用のDAWホストを兼ねるか否かなどが選定の基準になるのではないだろうか。
右上のSoundGrid DSP Serverが、実際にWavesプラグインのプロセッシングをおこなう部分となる。複数の選択肢があるが、ここも同時プロセスの量やリダンダントの有無によって決まってくる部分だろう。
その他、KVMやLANケーブルが別途必要になる。特にケーブルはCat6対応のものが必要である点には留意されたい。
参考価格と比較表
*表はCalrec用の構成例、コンソールに応じてI/Oを選択
**プラグインライセンスは別途購入が必要
渋谷Lush Hubにて個別デモンストレーション受付中!
ROCK ON PROでは、このSuperRackシステムの個別デモンストレーションを渋谷区神南のイベントスペースLUSH HUBで予約制にて受付中です。
LUSH HUBについての詳細はこちら>>
番組や収録のマルチトラック音源をお持ち込みいただければ、Waves SuperRackシステムを使ったミックスを体験頂けます。
デモご予約のご希望は、弊社営業担当、またはcontactバナーからお気軽にお問い合わせください。
Music
2023/07/20
360VME / 立体音響スタジオの音場をヘッドホンで持ち歩く
ソニーが提供するイマーシブの世界がさらに広がろうとしている。360 Reality Audioでの作品リリースはもちろんのことだが、今度は制作側において大きなインパクトがあるサービスとなる「360 Virtual Mixing Environment(360VME)」が発表された。これは、立体音響スタジオの音場を、独自の測定技術によりヘッドホンで正確に再現する技術。つまり、立体音響制作に最適な環境をヘッドホンと360VMEソフトウェアでどこへでも持ち運ぶことが可能となるわけだ。ここではその詳細を見ていこう。
2023.7.13 追記
・7/13(水)より一般受付開始、8月よりMIL Studioでの測定サービスを開始いたします。
詳細は下記URLよりご確認ください。
https://www.minet.jp/contents/info/360-vme-measurement/
📷右に並ぶのが世界で3拠点となる360VMEサービスを提供するスタジオ。上よりアメリカ本土以外では唯一となるMedia Integrationの運営する東京のMIL Studio、本誌でもレポートを掲載しているLAのGOLD-DIGGERS、そしてニューヨークのThe Hit Factory。すべてのスタジオが360 Reality AudioとDolby Atmosの両方に対応したスタジオである。これらのスタジオはソニーが360VMEサービスの測定にふさわしい音響を備えたスタジオとして認定した世界でも有数のファシリティーである。こちらで個人ごとに測定を行って得られたプロファイルをもとに、その音場をヘッドホンで再現させるのが360 Vitual Mixing Environmentだ。
●360 Virtual Mixing Environment ソニーHP
●ソニー / MDR-MV1 / 価格 ¥59,400(税込)
「これはヘッドホンじゃない、スタジオだ。」イマーシブ世代に向けたソニーのStudio Refarence Headphone、MDR-MV1。このキャッチコピーに込められた「スタジオだ」という言葉には360VMEサービスも含まれているのだろうと考えさせられる。スタジオの音響空間を360VMEにより、ヘッドホンに閉じ込めて持ち帰る、そのために高い空間再現能力を与えられたヘッドホンである。360VME無しでも充分に素晴らしい特性を持った製品だが、360VMEと組み合わせることでさらなる真価を発揮するモデルと言えるだろう。
●MDR-MV1 ソニーHP
世界初のプライベートHRTF測定サービス
ついに待望のサービス開始がアナウンスされたSONY 360 VMEサービス。VMEとは「Virtual Mixing Environment」(仮想ミキシング環境)のこと。世界初となるプライベートHRTFを含むプロファイルデータを商用的に測定するサービスだ。SONY R&Dで開発され、ハリウッドのSONY Picturesで試験運用が行われていたテクノロジーで、映画の仕上げを行うダビングステージという特殊なミキシング環境を、ヘッドホンで仮想的に再現してプリミックスの助けとしようということで運用が行われていた。
広い空間でのミキシングを行うダビングステージ。そのファシリティーの運用には当たり前のことだが限界がある。ファシリティーの運用の限界を超えるための仮想化技術として、この空間音響の再現技術が活用され始めたのは2019年のこと。テスト運用を開始してすぐにコロナ禍となったが、SONY Picturesにとってはこの技術が大きな助けとなった。まさに求められる技術が、求められるタイミングで現れたわけだ。
サービス利用の流れ
国内での利用を想定して、東京・MIL Studioでの測定を例にサービス利用の流れを紹介するが、執筆時点(2023年5月下旬)では暫定となる部分もあるため実際のサービス開始時に変更の可能性があることはご容赦いただきたい。まず、利用を希望される方はWebほかで用意されたページより360VMEサービスを申し込む。この段階では測定を行うヘッドホンの個数、必要なスピーカープロファイル数をヒアリングし、いくつのプロファイルを測定する必要があるのか確認、測定費用の見積と測定日の日程調整を行う。実際のMIL Studioでの測定ではヘッドホンの測定も行いその個体差までもを含めたプロファイルを作成するため、使用されるヘッドホンの持ち込みは必須となる。
MIL Studioではそれぞれのプロファイルに合わせて測定を行った後に、そのプロファイルが正しく想定されているかを実際の音源などを使って確認、納得いくプロファイルが測定できているかを確認していただき、360VMEアプリとともにプロファイルデータをお渡しすることとなる。これらを自身の環境へインストールし、利用開始というのが大まかな流れだ。
360VMEのバックボーンとなる技術
ソニーは以前よりバーチャルサラウンドの技術に対して積極的に取り組んできた。民生の製品ではあるが、バーチャル・サラウンド・ヘッドホンなどを実際に発売している、これは5.1chサラウンドをヘッドホンで再生するという技術を盛り込んだ製品であった。このようなサラウンド仮想化の技術は、長きにわたりソニー社内で研究されてきた技術があり、その系譜として今回の360VMEサービスも存在している。そして、今回の360VMEサービスはこれまでにリリースしてきたコンシューマ向けレベルの技術ではなく、プロの現場での使用を想定したハイエンド製品としてリリースされた。このようなバーチャルサラウンド技術の精度向上には、実測に基づくプライベートHRTFの測定が必須となる。実際の使用者のHRTFを含んだデータを測定することで精度は驚くほど向上する。一般化されたHRTFとのその差異は圧倒的である。
●HRTF(Head-Related Transfer Function:頭部伝達関数)とは!?
人が音の方向を認知することが可能なのは、周波数特性の変化、左右の耳への到達時間差などを脳が判断しているからである。耳の形状や体からの反射、表皮に沿った回析など様々な要因により変化する周波数特性、左右の耳へ到達する時間差、反射によるディレイなどを表すインパルス応答特性、このようなパラメータを数値化したものがHRTF(Head-Related Transfer Function:頭部伝達関数)となる。これは個人ごとによって異なるパラメーターで、個人のHRTFを測定したものをプライベートHRTF、それを適用したバイノーラル処理を個人最適化と呼んでいる。
360VMEの技術はプライベートHRTFを測定した部屋を環境ごと測定する。それをヘッドホンのバイノーラル再生として、測定した部屋の音響環境、スピーカーの特性などをそのまま仮想環境として再現する。スピーカーの特性など、測定した部屋の音響環境ごとプロファイル化するため、厳密な意味でのプライベートHRTFではないが、その要素を含んだバイノーラル再現技術ではあると言えるだろう。
正式な意味でのプライベートHRTFは個人の頭部伝達係数であるために、予め特性を確認したスピーカーとマイクによって無響室での測定を行うこととなる。余計な響きのない空間で、単一の方角からの音源から発された音波がどのように変化して鼓膜に届くのかを測定するということになる。360VMEでは測定を行う部屋のスピーカーの個性、部屋の反射などを含めた音響特性、これらが測定したプロファイルに加わることとなる。これまでにも各社より有名スタジオのコントロールルームの音響環境を再現するようなプラグインが登場しているが、これらはプライベートHRTFにあたるデータを持たないため、どうしてもその効果の個人差は大きくなってしまう。360VMEでは、一人ひとり個人のデータを測定するためにプライベートHRTFにあたるデータを持つプロファイルデータの作成が可能となっている。
プライベートHRTFを測定しDAWと連携
それでは、実際の360VMEの測定サービスは、何が行われて何がユーザーへ提供されるのだろうか?まずは測定からご紹介していこう。測定にあたっては、まずは測定者の耳へマイクを装着することとなる。できるだけ鼓膜に近い位置で測定を行うために通称「バネマイク」と呼ばれる特殊な形状のマイクを耳孔に装着する。
マイクを装着し視聴位置に座り、始めにピンクノイズでの音圧の確認が行われる。スピーカーの信号がマイクにどれくらいのボリュームで入力されているのかを確認するということになる。次は測定を行うスピーカーからスイープ音を出力し周波数特性と位相を測定する。更に続けて、リファレンスとするヘッドホンをつけて、ヘッドホンで再生したピンクノイズとスイープを測定する。これにより、ヘッドホンの特性も含めた特性の合わせ込みを行い精度の高い空間再現を行うわけである。
📷こちらに写っているのが、360VME測定用に設計された通称「バネマイク」。このバネのような部分を耳に入れることにより、耳道を塞がずに耳の奥、鼓膜に近い位置での測定を実現している。測定においては、鼓膜にできるだけ近い位置でのデータを取るということが重要なポイント。鼓膜にどのような音が届いているのか?耳の形、耳たぶの形、頭の形など、個人差のある様々な要因により音が変化する様をこのマイクで測定することとなる。360VMEの測定ではスピーカーから出力された音源での測定だけではなく、このマイクを付けたままでヘッドホンの測定も行い精度をさらに高めている。ヘッドホンには個体差があるため、測定に使うヘッドホンは実際に普段から使っているものをお持ちいただくことになる。
測定の作業はここまでとなり、スピーカーからの再生音とヘッドフォンからの再生音、それぞれのデータからプロファイルデータを生成する。ここで生成されたプロファイルデータは、測定サービスを行ったユーザーに提供される360VMEアプリケーションに読み込ませることで、そのデータが利用可能となる。DAWなどの制作ツールと360VMEの接続は、PC内部に用意される仮想オーディオバス360 VME Audio Driverにより接続される。具体的には、DAWのオーディオ出力を360 VME Audio Driverに設定し、360VMEアプリケーションのインプットも360 VME Audio Driverに設定、アウトプットは実際に出力を行いたいオーディオインターフェースを選択するということになる。
このような仕組みにより、DAWから出力されるイマーシブフォーマットのマルチチャンネル出力が、360VMEアプリケーションから測定結果により生成されたプロファイルデータを適用したバイノーラルとして出力される。プライベートHRTFと測定を行ったスタジオのスピーカーや空間、音響特性を含んだ精度の高いバイノーラル環境での作業が可能となるということだ。
このような仕組みのため、測定時のスピーカーセット=制作DAWのアウトプットとする必要がある。そのため、Dolby Atmosの制作向けのスピーカーセットと360 Reality Audio向けのスピーカーセットはそれぞれ別のプロファイルとして測定が必要だ。また、複数のヘッドホンを使い分けたいのであれば、それも別プロファイルとして測定を行う必要がある。ちなみに360VMEの発表と同時にリリースの発表が行われたSONY MDR-MV1ヘッドホンは、360VMEのアプリケーション開発にあたりリファレンスとして使われており、その特性は360VMEアプリケーションのチューニングにも使われているということだ。360VMEサービスの測定を行う際にどのヘッドフォンで測定をしようか迷うようなことがあるのであれば、MDR-MV1を選択するのが一番間違いのない結果が得られることだろう。ただ、他のヘッドホンでも十分な効果を得ることができるので、普段から慣れたヘッドホンがあるのであればそれを使うことは全く問題ない。
●360 Virtual Mixing Environmentアプリ
※上記画像はベータ版
測定をしたプロファイルデータを読み込ませて実際の処理を行うのがこちらの360 Virtual Mixing Environmentアプリ。画像はベータ版となるため、実際のリリースタイミングでは少し見た目が変わるかもしれないが、プロファイルを読み込ませるだけではなく、各チャンネルのMute / Solo、メーターでの監視などが行えるようになっている。シグナルフロー図からもわかるように、360VME Audio Driverと呼ばれる仮想の内部オーディオバスがこのアプリケーションとともにインストールされ、DAWなどからのマルチスピーカーアウトを360VMEアプリへ接続することとなる。あくまでも仮想的にスピーカー出力をバイノーラル化する技術となるため、スピーカーアウト、レンダリングアウトを360VMEアプリへつなぐということがポイントとなる。具体的には360 WalkMix Creator™️のアウトプット、Dolby Atmos Rendererのアウトプットを接続することとなる。もちろん5.1chやステレオをつなぐことも可能だ。その場合には、その本数分のスピーカーが360VMEの技術によりヘッドホンで再現されることとなる。
📷東京・MIL Studioで測定可能となる代表的なフォーマット。これら以外についても対応可能かどうかは申し込み時にご確認いただきたい。(※Auro 3Dフォーマットの測定には2023年7月現在対応しておりません)また、当初のリリースでは16chが最大のチャンネル数として設定されている。技術的にはさらに多くのチャンネル数を処理することも可能とのことだが、DAW併用時の処理負荷とのバランスが取られている。確かに16chあれば360 WalkMix Creator™️の推奨環境である13chも対応でき、Dolby Atmosであれば9.1.6chまで賄えることになる。43.2chというMIL Studioでの測定となると、さらにチャンネル数を求めてしまいたくなるところだが、一般的なスタジオ環境との互換を考えれば必要十分な内容だと言えるだろう。
日米3拠点で測定サービスを提供
この360VMEサービスにおけるスタジオでの測定は、サービス開始当初は世界で3ヶ所のスタジオでの測定となる。日本では弊社の運営する43.2chのディスクリート再生を実現した完全4π環境を持つMIL Studio。他の2ヶ所のスタジオはアメリカにあり、ロサンゼルスのGOLD-DIGGERSとニューヨークのThe Hit Factoryとなり、新進気鋭のスタジオと老舗スタジオがそれぞれ選ばれた格好だ。音響環境や360VMEという通常のスタジオ運営とは異なるサービスへの賛同を行った3拠点で、この360VMEサービスはまず開始となる。本記事の執筆段階でサービス開始は2023年6月末〜7月上旬、価格はそのプロファイル測定数にもよるが、おおよそ7万円程度からでのスタートを予定しているということだ、本誌が発行されるころにはこれらの情報も正式なものが発表されていることだろう。(※)
※2023.7.13 追記
・7/13(水)より一般受付開始、8月中旬よりMIL Studioでの測定開始
・1プロファイル測定:68,000円(税別)+追加の測定 1プロファイルにつき 20,000円(税別) 〜
・測定可能フォーマット、価格につきましてはこちらのページからご確認ください。https://www.minet.jp/contents/info/360-vme-measurement/
360VMEサービスがスタートすることで、イマーシブ制作の環境に劇的な変化が訪れるのではないだろうか?ヘッドホンミックスの精度が上がることで、制作環境における制約が減り、作品を作るためのスタートラインがぐっと下がることを期待したい。もちろんスピーカーがある環境をすぐに揃えられるということであればそれが最高のスタートラインではあるが、スピーカーを揃えることに比べたら圧倒的に安価、かつ手軽にMIL Studioの音場、イマーシブのスピーカー環境をヘッドホンに入れて持ち帰ることができる。この画期的なサービスによる制作環境の変化に期待したいところである。
*ProceedMagazine2023号より転載
Music
2023/01/18
イマーシブ表現は新たなステージに。Spat Revolution UltimateにWFS(波面合成)アドオンが登場
2017年のリリース以来、プロダクション、ライブサウンド問わず、イマーシブ・オーディオ・プロセッサーとして独自のポジションを確立しているSpat Revolution Ultimateが、WFS(波面合成)による仮想の音源配置に対応しました。WFSは従来のパンニング方式に比べて、特に大きな会場で、より多くのオーディエンスに優れた定位感を提供できると言われています。この記事では、WFSの基本的な考え方をおさらいした上でそのメリットを確認し、またアルゼンチンで行われた大規模フェスティバルでの導入事例も紹介していきます。
FLUX:: / IRCAM Spat Revolution
Spat Revolution Ultimate
¥297,000(税込)
WFS Add-on option for Spat Revolution Ultimate
¥74,800(税込)
音楽制作やポストプロダクションでは各種DAWと連動させてDolby Atomsなどあらゆるフォーマットに対応したイマーシブ作品の制作に、ライブサウンドではデジタル・コンソールからリモート・コントロール、ライブ会場を取り囲むように配置されたPAスピーカーへの出力をリアルタイムで生成するプロセッサーとして、さまざまなアプリケーションに対応する最も多機能で柔軟性の高い、ソフトウェア・ベースのイマーシブ・オーディオ・プロセッサー。
WFS(波面合成)とは?
WFS(Wave Field Synthesis)は、直線上に並べたラウドスピーカーのアレイを用いた音響再生技術で、従来の技術(ステレオ、5.1chサラウンドなど)の限界を取り払う可能性がある技術です。サラウンド・システムは、ステレオの原理に基づいており、一般的に「スイートスポット」と呼ばれる複数のスピーカーに囲まれた中心部の非常に小さなエリアでのみ音響的な錯覚を起こさせ、音がどの方向からやってくるのかを感じさせます。一方、WFSは、リスニングエリアの広い範囲にわたって、与えられたソースの真の物理的特性を再現することを目的としています。この原理は「媒質(=空気)を伝わる音波の伝搬は、波面に沿って配置されたすべての二次的音源を加えることで定式化できる」というもので、Huyghensの原理(1678年)に基づいています。
WFSを実現するためには、あるサウンドのシーンにおいて音源をオブジェクトとして捉え、そのオブジェクトの数量分の位置情報を把握できていることが前提となります。例えば、動画・音声データにおける圧縮方式の標準規格のひとつであるMPEG-4では、WFS再生と互換性のあるオブジェクトベースのサウンドシーン記述が可能になっています。
現実には、図版で見られるように音源が発する波面と同じようにスピーカーを配置することはあまりにも現実的ではありません。そこで、直線上にラウドスピーカーを配置し、各スピーカーから出力される音量とタイミングをコントロールすることで、仮想に配置された音源からの波面を人工的に生成します。
このように音源をスピーカーの向こう側に”配置”することによって、その部屋や会場にいるリスナーは、音源の位置から音が放出されていると認識します。一人のリスナーが部屋の中を歩き回ったとしても、音源は常にそこにいるように感じられるのです。
📷 「媒質(=空気)を伝わる音波の伝搬は、波面に沿って配置されたすべての二次的音源を加えることで定式化できる」という物理的特性をそのままに、波面に沿って二次的音源を配置した際のレイアウトが左図となりますが、このように音源が発する波面と同じようにスピーカーを配置することはあまりにも現実的ではありません。そこで、右図のように直線上に配置したスピーカーから出力される音量とタイミングをコントロールすることで、複数の音源の波面を同時に合成していくのが「WFS(波面合成)」となります。
なぜライブサウンドでWFSが有効なのか?
📷 Alcons Audio LR7による5本のリニアアレイと設置準備の様子
d&b Soundscapeなどラウドスピーカーのメーカーが提供する立体音響プロセッサーにもWFSの方式をベースとしているものが数多くあります。
これまでのサラウンドコンテンツ制作はチャンネルベースで行われ、規定に基づいたスピーカー配置(5.1や7.1など)で、音響的にも調整されたスタジオで素晴らしいサウンドの制作が行われます。しかし、この作品を別の部屋や同じように定義されたラウドスピーカーがない環境で再生すると、チャンネルベースのソリューションは根本的な問題に直面することになります。音色の完全性が失われ、作品全体のリミックスが必要となるわけです。ツアーカンパニーやライブイベントで、チャンネルベースの5.1や7.1のコンテンツを多くのオーディエンスに均等に届けるのは非常に難しいことだと言えるでしょう。
従来のサラウンドとWFSの違いにも記載しましたが、チャンネルベースまたは従来のステレオパンニングから派生したパンニング方式では、複数のスピーカーに囲まれた中心の狭いエリアでのみ、制作者が意図した定位感を感じることができます。例えば、ライブ会場に5.1chの規定通りにラウドスピーカーを配置できたとしても、Ls chのすぐ近くのリスナーにとっては非常に音量感にばらつきのあるサウンドシーンとしてしか認知できません。
WFSを用いた会場の「より多くのオーディエンスに優れた定位感を提供する」というメリット以外に、WFSでは必ずしも会場を円周上に取り囲んでスピーカーを配置する必要が無いという大きなメリットもあります。常に会場の形状、そしてコストの制約を考慮しなければならないライブ会場でのイマーシブ音響のシステムとしては非常に有利な方式と言えます。
📷 イースペック株式会社主催の機材展2022において、国内では初のSpat RevolutionのWFS Optionを使った本格的なデモでの一コマ。サンパール荒川大ホールに常設されている照明用バトンに、小型のラインアレイAlconsAudio LR7を5組均等間隔に吊り、あたかもステージ上に演奏者がいるかのような音場を実現していた。
Spat Revolutionで行うWFS再生
📷 Spat Revolutionでオーケストラの編成をWFSアレイの向こう側に仮想配置。
コンパクトで軽量なラインアレイであれば、照明用のバトンへ直線上に5アレイを吊ることも可能かもしれません。Spat RevolutionでWFS再生を行うためには最小で5本以上の同じ特性を持ったラウドスピーカーを均等間隔で配置する必要があります。スピーカーの数が増え、スピーカーとスピーカーの間隔が小さくなればなるほど、定位感の再現性が高まります。
Spat Revolutionでは配置するスピーカーの周波数特性や放射特性を定義する項目がありません。だからこそポイントソースであってもラインアレイであってもスピーカーに制約が無いという大きなメリットがあるのですが、そのスピーカーの放射角度によって最適な配置も変わってきますし、聴こえ方にも影響します。指向角度を考慮してSpat Revolution内で設定を行い、実際に設置を行った後に微調整が可能な6つのパラメーターが備わっているので、最後のチューニングは音を聴きながら行うのが現実的でしょう。
そのひとつとなるGain Scalingというパラメーターでは、すべてのソースに対して計算されたゲインをスケーリングすることができます。これは例えばフロントフィルなどリスナーに近いWFS直線アレイ配置の場合に有効で、この割合を減らすとラウドスピーカー・ラインの近くに座っている観客のために、1オブジェクトのソースをアレイ全体から、より多くのラウドスピーカーを使って鳴らすことができます。
Spat Revolutionで構成できるWFSアレイは1本だけではありません。会場を取り囲むように4方向に配置すれば、オブジェクトの可動範囲が前後左右の全方位に広がります。またWFSアレイを上下に並行に増やしていくことも可能で、縦方向の定位表現を加えることも可能です。このように映像や演目と音がシンクロナイズするような、かなり大規模なサウンドシステムのデザインにも対応できることがわかります。
📷 会場を取り囲む4つのWFSアレイ。
VendimiaでのSPAT WFS Option
📷 Vendimia 2022 – Mendoza Argentina
アルゼンチンのメンドーサで開催される収穫祭「Vendimia」は、ブドウ栽培の業界おいて世界で最も重要なイベントのひとつです。2022年はパンデミック後で初の開催とあって、音楽やエンターテインメントにも大きな期待が寄せられていました。
Vendimiaフェスティバルのサウンドシステム設計を担当し、地元アルゼンチンでシステム・インテグレーションとサウンドシステムのレンタル会社Wanzo Produccionesを経営するSebastian Wanzo氏に今回の会場でのシステム設計について伺うことができました。
Wanzo Producciones / Sebastian Wanzo 氏
Wanzo Producciones
「今年のフェスティバルのサウンドデザイナーとして、様々なステージでのオーディオビジュアル効果をサポートし、臨場感を提供するためにイマーシブ・オーディオプロセッシング・システムの導入を提案しました。」とSebastian Wanzo氏は語ります。
この会場でイマーシブ・オーディオ・プロセッシングを実際に行なっていたのが、リリースされたばかりのWFSアドオン・オプションを備えたSPAT Revolution Ultimateです。Vasco HegoburuとWanzo Productionsが提供する4台のAvid Venue S6LコンソールとMerino Productionsが提供するClair Brothersのシステムに介在し、Vendimiaフェスティバル全体のイマーシブ・システムの核となり、プロセシングを行なっていました。
「横幅が80mを超えるステージで、フロントフィルより前にはスピーカーを配置することができないため、Clair Brothersのスピーカーで6.1chのシステムを定義し、設置しました。」
システムのルーティングとコンフィギュレーションはハイブリッド的なセットアップで、1台のS6Lはオーケストラ専用でステレオミックス用、もう1台のS6Lは全てのエフェクトとエフェクトのオートメーション、そして全てのサウンドタワーにイマーシブのフィードを供給していました。3台目のS6Lはオーケストラのモニター卓として、4台目のS6Lは配信用のミックスに使われました。
「2019年にISSP (Immersive Sound System Panning)ソフトウェアを開発したアルゼンチンのIanina CanalisとDB Technologiesのスピーカーでライブサウンドにおけるイマーシブサウンドを体験した時に、我々の業界の未来がこの方向に進んでいることを実感しました。パンデミック以前は、空港やスタジアムのオープニングセレモニーなど、従来のマルチチャンネル・オーディオ・システムで多くの作品を制作していましたが、パンデミックの最中には、ストリーミングによるショーや、観客の少ないライブショーが増えたため、SPAT Revolutionなどのイマーシブ・オーディオ・プロセッサーの経験値を高めていくことになりました。そして次第に、SPAT Revolutionの無限の可能性を確信するようになったのです。」
フェスティバルにおけるシステム設計は、異なるジャンルの音楽が演奏されること、広い面積をカバーするためにスピーカー・クラスタ間の距離が大きく、クラスタより客席側にはスピーカーの設置が不可能なため、Wanzo氏と彼のチームにとってはとても大きな挑戦でした。
「SPAT Revolutionが提供する様々なパンニング方式を試してきましたが、最終的にライブで最も使用したのはWFS(波面合成)でした。我々は、このWFSオプションのベータテスター・チームに早くから参加しており、Vendimiaフェスティバルのようにクラスター間の距離が離れた会場でも、非常にうまく機能することがわかっていました。また、SPAT Revolutionの芸術的な表現の可能性をより深く理解することで、このフェスティバルでは印象的で一貫した結果を得ることができました。」
Vendimiaフェスティバルのシステムでは、4台のS6Lがそれぞれ異なる役割を担当しており、サウンドデザインとイマーシブシステムにおけるWanzo氏の経験により、全てが相互に補完しあい、連動するシステムを作り上げました。
「システム提案の段階では、Spat Revolutionで9.1.4chのシステムを使った一連のデモンストレーションを行い、プロデューサー、ミュージシャン、技術関係者に実際に音を聴いてもらい、意見をもらう機会を設けました。全ての関係者から好意的な反応をもらい、Vendimiaフェスティバルの大規模なシステムの準備に着手しました。SPAT RevolutionをAvid S6Lサーフェスでコントロールできることが、ここでは非常に重要だったのです。」
Wanzo氏のイマーシブオーディオによるサウンドデザインの独創的なアプローチとVendimiaのセットアップについて、ライブサウンドの未来とライブ・プロダクションにおけるイマーシブオーディオの優位性についてもこうコメントしています。
「厳密に技術的な観点から言うと、カバレージとオーバーラップを得る最良の選択は、より多くのスピーカーシステムを使用することです。これにより、スピーカーのサイズを小さくして、システムのヘッドルームを大きくすることができ、従来のステレオでのミキシングのように、ソースを意図する場所に定位させるために、周波数スペクトラムの中で各ソースにイコライザーを多用する必要がなくなります。」
「ライブサウンドにおけるイマーシブの創造的な可能性は無限であり、これまでにないサウンドスケープの再現と創造が現実のものになっています。これは新しい道のりの始まりであり、Vendimiaフェスティバルにおけるイマーシブ・オーディオ・システムはこのイベントの傑出した演出の一つになったと考えています。」
「このプロジェクトを支えてくれたすべての人たち、特にずっとサポートしてくれたFLUX:: Immersiveチームのスタッフには本当に感謝しています。今後も素晴らしいプロジェクトが待っていますし、SPAT Revolutionは進化を遂げながら、間違いなく私たちのメインツールとして使われ続けるでしょう。」
この記事では主に波面合成を実現するSpat Revolution WFS Optionについて紹介してきましたが、ここ日本で最初にSpat Revolutionが導入されたのは、DAW内では編集が非常に困難だった22.2 chサラウンドに対応したコンテンツの制作がきっかけでした。入出力ともアンビソニックス、バイノーラル、5.1、7.1、Dolby Atomosなど、事実上あらゆるサラウンド・フォーマットに対応できるSpat Revolutionは、制作/ライブの垣根を越えて今後の活用が期待されます。
*ProceedMagazine2022-2023号より転載
Music
2023/01/11
株式会社サウンド・シティ様 / 時代が求める最大限の価値を提供していく〜新たなフラッグシップ・スタジオ「tutumu」
麻布台の地において46年間にわたって日本の音楽産業を支え続けてきた「株式会社サウンド・シティ」。前身である「株式会社飛行館スタジオ」時代から数えればその歴史は60年を超えているが、老舗の座に安んじることなく常に時代の先端をとらえ続けてきたスタジオである。この2022年8月には、Dolby Atmos / 360 Reality Audioの両方に対応したイマーシブ・スタジオ「tutumu」(ツツム)をオープン。同社の最新にして最大の挑戦ともなったこのスタジオのシステムや、オープンに至るまでの経緯などについてお話を伺った。
新たなフラッグシップ・スタジオ「tutumu」
「サウンド・シティの、ひいては日本のフラッグシップとなるようなスタジオを作ろう」というコンセプトのもと、Dolby Atmosと360 Reality Audio両対応のイマーシブ・スタジオ開設の構想が生まれたのは2021年7月ごろ。ちょうど、同年6月に中澤氏と明地氏が取締役に就任してまもなく、同社の価値を“リブランディング”しようと考えていた時期だという。
リブランディングにあたっては、音楽レコーディング・スタジオとポストプロダクションというふたつの事業を柱として日本の「音」を支え続けてきた同社の存在意義を「よいレコーディングスタジオ、よい映像編集室、そしてよい人材をはじめとして、映像と音楽を作りたい方々に対して技術面で最大限の価値を提供していくこと」(明地氏)と再定義しており、これからの時代に求められる価値を提供することができる新たなフラッグシップ・スタジオ「tutumu」をオープンすることは、サウンド・シティという“進化を止めない老舗スタジオ”に相応しいプロジェクトだったようだ。
折しもApple Musicが空間オーディオへの対応を開始し、アーティストやクライアントからその作品作りに関する相談を受け始めていたというが、しかしそれはまだごく一部の話。音楽におけるステレオの価値も根強い状況で、これほど大規模なイマーシブ・サウンド対応へ舵を切ったことに何か確信はあったのだろうか。
明地氏によると「これまで存在した、オーディオ・ファイル向けサービスのような技術だったらtutumuの開設は決断しなかった。空間オーディオは従来のマルチチャンネルと違って、既存のストリーミング・サービスの中で聴ける。これは確実に浸透する流れだと判断できたので、だったらそれができる部屋を作ろう、と。それも、サウンド・シティの新しい“顔”になるようなスタジオを作ろうと考えました。」とのことだ。さらに同氏は「テクノロジーの進化速度はすごく速くて、スタジオで作ったモニターをヘッドホン / イヤホンで再現できる時代というのが追いかけてくるはず。その先には、音や映像を立体で楽しむ時代が来ると思う。その舞台が車内なのかメタバースなのかはわからないが、これから先は立体の中で作品を作る時代になる」という確信があるという。
マーケットが成熟してから始めるのではなく、将来、誰もが必要とする技術であるという確信に基づいて作られたtutumuは、サウンド・シティだけでなく、まさに日本の音楽スタジオ全体のフラッグシップとなるべく生まれたスタジオと言えるだろう。これには、プロジェクト発足当初からシステムの設計を中心に携わったオンズ株式会社 井上氏も「このタイミングであれば、真似しようとしてもできないスタジオを作れると思いました。そういう意味では、周りがどうということではなく、ここが発信地だという熱い想いでやらせていただきました。」と語っていた。
Dolby Atmos / 360 Reality Audioハイブリッド
tutumuの特長のひとつは、ひとつのスピーカー・システムでDolby Atmosと360 Reality Audioのどちらにも対応できるという点だ。明地氏によると、これからイマーシブ・オーディオの時代は必ず来るという確信はあったというが、将来、主流になるテクノロジーがDolby Atmosなのか360 Reality Audioなのか、それともまったく別のものになるのかはわからないため、将来的にどんな規格にも対応できるスタジオにしたいという想いがあったという。
スピーカー・レイアウトにおけるDolby Atmosと360 Reality Audioの最大の違いは、Dolby Atmosの音場が半天球であるのに対して360 Reality Audioは全天球である点だが、ただ単にDolby Atmosのレイアウトにボトム・スピーカーを足せばよい、というほど簡単にはいかない。映画館での上映を最終的な目的としているDolby Atmosと、音楽作品を前提としている360 Reality Audioでは、Hightスピーカーのレイアウトに対する考え方が異なっているのだ。
Dolby AtmosにおけるHightスピーカーのレイアウトは「半球面上でFrontのLRと同一の線上、かつ、リスニング・ポイントから前後にそれぞれ45°の角度となる位置」となっており、360 Reality Audioは「ITU-Rに準拠した配置の5.1chを上層にも配する」となっている。誤解を恐れずに言ってしまえば、Dolby Atmosはスピーカー・レイアウト全体が半球面になることを重視しており、360 Reality Audioは水平面におけるスピーカー間の角度に重きを置いているということになるだろうか。
「異なるふたつのレギュレーションを同時に満たすためのスピーカー・レイアウトについては、社内でもかなり議論を重ねた」とは日本音響エンジニアリング株式会社 佐竹氏のコメントだが、「tutumuは天井高が仕上げで3m取れる部屋だったため、ハイトスピーカーも含めて球面に近い距離ですべてのスピーカーを配置する計画が可能だった」という。具体的にはDolby Atmosの配置をベースにしつつ、360 Reality Audioにも対応できる形になっているそうだ。
昨今、イマーシブ・オーディオ対応のスタジオ開設が増えつつあるが、その中で必ず話題に挙がるのが天井の高さについてである。佐竹氏は「天井が高くなければできないということはないが、天井は高い方が有利だと思う」とのことで、この点に関しては同社の崎山氏も「天井高が足りない場合、角度を取るか距離を取るかという話になる。そうすると、例えば電気的なディレイで距離感を調整したりすることになるが、実際にスピーカーとの距離が取れている部屋と同じには決してならない」と話してくれた。「新設でこの高さをリクエストされても、物件がない。あったとしても、通り沿いの商業ビルの1Fとか、アパレルのフラッグシップ店舗が入るような高価なところしかない」(井上氏)と言う通り、新しいビルでイマーシブ・スタジオに相応しい物件を探すのは非常に難しい。
その点、tutumuは先にも述べたとおり天井高が仕上げで3m取れており、スピーカーも理想的な配置がなされている。まさに老舗の強み。社屋までもが現在では手に入れられない価値を持ったビンテージ品となっているようなものだ。そして、その恩恵は天井高だけではない。崎山氏によれば、最近の建築は鉄骨造の躯体が多く、軽量化されているため重量が掛けられず強固な遮音層の構築が難しいのだという。「ここは建物が古いので躯体が重く頑丈。すると、天井が高いだけでなく低域の出方もよくなる。スピーカーのセットをガッチリ作れるので音離れがいいんですよね。」(崎山氏)という恩恵もあるようだ。もしかしたら、理想のスタジオを作るためにあえて古き良き物件を探すということも選択肢になるのかもしれない。
時代が求めるPMCのサウンド
📷 tutumu のスピーカー構成は「9.2.5.3」となる。Dolby Atmos 9.2.4 を基本に、360 Reality Audio はTop Center x1、Bottom x3 を追加した 「9.0.5.3」で出力される。 写真右が Front LCR に用いられた「PMC6-2」、左が今回計 14 台導入された「PMC6」となる。
イマーシブ環境においてどのようなスピーカーを選定するかということは極めて重大なファクターだが、tutumuではイギリスのメーカーであるPMCが採用された。Front LCRは「PMC6-2」、Subwooferは「PMC8-2 SUB」、その他はすべて「PMC6」という構成となっており、これらはすべて発売が開始されたばかりの最新モデルだ。工事に先立ち日本音響エンジニアリングのスタジオでおこなわれたスピーカー選定会には、実はこれらのモデルは間に合わない予定だったという。しかし、奇跡的に選定会当日に到着したデモ機を試聴して、「聴いた瞬間、満場一致でこれに決まった」(サウンド・シティ 中澤氏)というほどそのサウンドに惚れ込んだようだ。
「とにかくバランスがいい。特性的にもナチュラルでイマーシブ向きだと思った」(中澤氏)、「本当に音楽的。音の立ち上がりがよく、ちゃんと動いてちゃんと止まるから余韻でドロつかない。ミキサー目線でもリスナー目線でも、どちらで聴いても完璧。これしかないですね、という感じだった」(秦氏)と大絶賛だ。秦氏によれば「イマーシブって全方向から音を浴びるので、どっと疲れたりするんですけど、これはそうした疲れを感じない」のだという。これらの新モデルについては、「そもそも、Dolbyと半ば共同開発のようにして、イマーシブに対応できることを前提に作られている」(オタリテック 兼本氏)とのこと。
オブジェクト・トラックの音像は、従来のチャンネルベースで制作されたものに比べると分離がよいため、低域をすべてSubwooferに任せてしまうとパンを振った時などに定位がねじれるという聴感上の問題が発生する。PMCの新モデルではスコーカーを新たに設計し、アンプの容量も旧モデルの2倍にすることで、各スピーカーがより広い帯域を歪みなく再生できるようにブラッシュアップされているのだ。それはSubwooferの設計にも現れており、秦氏は「いい意味でSubwooferの存在感を感じさせない音。鳴っているときは気付かないが、ミュートすると明らかな欠如感がある。これはお披露目会に来た方々が口を揃えて言ってくれて、勝った、と思いました(笑)」と嬉しそうに語ってくれた。
兼本氏によれば「音が速く歪みがない、というのはPMCが創業以来ずっと追求してきたこと。メーカーとしては、時代に合わせてアップデートしたというよりは、変わらない価値観がにわかに時代のニーズと合致した印象」とのこと。誠実なプロダクト・デザインが正当に評価される時代がやって来たということは、心から喜ばしいことだと感じたエピソードだ。
室内アコースティックへのこだわり
tutumuは、以前は「Sスタジオ」と呼ばれた音楽ミックス / MAコンバーチブルのスタジオを改修する形で施工されている。Sスタジオは紆余曲折ありながらも、最終的にはtutumuと同じ日本音響エンジニアリングが施工を担当したスタジオで、仮設ではあるものの5.1chサラウンド・ミックスもできる部屋だったという。そうした経緯から、音楽ミックスを行う部屋としての下地はある程度整っていた部屋だったが、今回の改修にあたっては前述のスピーカー・レイアウトのほかにも様々な改良が加えられている。
まず、特徴的なのはWideやBottomを含めたFrontスピーカーがすべて正面の壁に埋め込まれていることだ。これは低域の特性を暴れにくくするためで、Subwooferを除いても17本ものスピーカーを使用するtutumuのようなスタジオでは非常に重要な課題となる。また、すべて一体になっているステージをモルタルで作り直すことで、Frontスピーカー5本の特性を揃えつつ、Subwooferとのセパレートも向上させている。HightやRearスピーカーに関してはFrontのようにステージを作ることができないが、なるべくガッシリと設置できるように工夫がされているという。実際に設置工事に入った段階で天井を開けてみると空調用のダクトが通っていたようだが、こちらもほとんど作り直したようなものだという。電気的な調整では補えない、アコースティックな領域で聴こえ方を揃えていくために、マシンルームの扉も入れ替えられ、ブース扉にあったガラス窓も吸音材で蓋をされている。
📷 スタジオ後方に配されたAGS。拡散系の調音材でイマーシブ・システムの課題であるリスニング・ポイントの狭さを解消し自然な音場を生み出すのに大きな役割を果たしている。
また、tutumuを作るにあたって留意された点として、イマーシブにありがちな“リスニング・ポイントが狭い”という音響には絶対にしたくないという意向があったという。音楽ミックスの現場にはミキサーだけでなく、クライアントやアーティストが同席することもあるため、前後3列で聴いても音像が崩れないように配慮されている。また、「音楽を聴いていたら頭も動くし体も動く。そういう自然な動きを許容できるように調整している」(秦氏・井上氏)とのことだ。そうした“遊び”を作るために活用されたのが、日本音響エンジニアリングが開発・販売する「AGS」だ。「もともと音楽ミックスもできるように壁の裏には拡散系の調音材も設置されていたので、それをなるべく活かしながら、LCRスピーカーの間にもAGSに近い拡散体を仕込んで音場のバランスを整えて、さらに調整を重ねている」(佐竹氏)とのことだ。
高い機能性と品質を兼ね備えたPro Tools | MTRX
📷 3枚配されたディスプレイは左からメーター系、Pro Tools、Dolby Atmos Renderer。それぞれ別々のMacにつながっており、Video Hubで切り替えることができる。トラブルがあった時に切り分けが容易になるように、ということのようだ。iPadはPro Tools | Controlがインストールされているほか、iPhoneなどの音源をAir Dropで受け取ってすぐに再生できるようになっている。
tutumuのミキサー・デスクにはTac System「VMC-102 IP Studio Monitor Controller」とMerging Technologies「ANUBIS」が置かれている。VMC-102 IP Studio Monitor Controllerは、従来モデルVMC-102の機能を受け継ぎながら、MADI I/F とDante I/Fを1系統ずつ備え、Danteネットワーク上のルーティングを制御する「バーチャル / ルーティング」機能を新たに搭載した最新モデルだ。片や、Pyramixで有名なMerging Technologies最新のハードウェアであるANUBISも、システムのモニターセクションとなる機能を有している。こちらはDanteと肩を並べるAoIP規格であるRavenna / AES 67に対応しており、Dolby Atmosはもとより、22.2chフォーマットさえも内部でステレオにダウンミックスすることができる。
tutumuではVMC-102 IPをメインのモニターコントローラーとして使用しながら、ヘッドホンアンプのようにANUBISを使用するシステムになっている。スピーカーシステムへのアウトプットとは別系統でANUBISへのソースが立ち上げられており、例えばANUBISに接続されたヘッドホンを着ければ、メインのモニターセクションを切り替えることなくステレオやバイノーラルをモニターできる、ということが可能になるように設計されている。スピーカーへの出力はアナログ、モニターコントローラーへはDante / Ravenna、Dolby Atmos RMUとの接続はDante、音響補正を担うDatasat「AP-25」へはAES/EBU、さらに要所要所ではMADIも使用するなど、tutumuではあらゆる伝送規格を網羅するかのように様々な信号が行き交っている。この複雑な構成を一手にまとめるためにオーディオI/Fとして採用されたのが、Avidのフラッグシップ・モデル「Pro Tools | MTRX」だ。
📷 2台のPro Tools | MTRXはそれぞれInput系とOutput系を受け持ち、SPQカードによる音場補正も担っている。その上に見えるのはAvid最新のシンクロナイザー「Pro Tools | Sync X」。
Pro Tools | MTRXは、モジュール方式の構成を採用することによって高い拡張性を誇る。オプションカードを追加することで、アナログはもちろん、Dante、MADI、AES/EBU、DigiLinkポートなどといった幅広い信号のI/Oとなることが可能だ。井上氏によれば「I/FがMTRXだからこそシステムとして具現化できた」とのこと。tutumuでは2台のPro Tools | MTRXが導入されているが、1台はインプットとDolby Atmos RMUを管理、もう1台はスピーカー・システムへのアウトプットを担っている。また、Pro Tools | MTRXはシステムのI/Oだけでなく、音場補正も担っている。tutumuではDatasat AP-25で主に周波数/位相/時間特性の最適化補正をし、Pro Tools | MTRXのオプションカードSPQも使用して最終的な微調整をおこなっている。
しかし、Pro Tools | MTRX採用の理由は機能性だけではない。秦氏曰く「最初に聴いた時、こんなに違うか、と驚いた。解像度はもちろんのこと、とにかく音のスピードが速い。」と、オーディオのクオリティについても非常に満足している様子だ。また、今回導入されたPMC6-2およびPMC6にはアナログだけでなくAES3の入力もあるのだが、「MTRXのDAはとても信頼できる(井上氏)」ということで、スピーカーへのアウトプットはアナログ伝送が採用されている。これもPro Tools | MTRXのオーディオ品質の高さを窺わせるエピソードだろう。
📷 (左)デスクにはモニター・コントローラーが2台。VMC-102 IPではスピーカー・アウトプット、ANUBISではバイノーラルなどのHPアウトと、それぞれ異なるソースが割り当てられているほか、秦氏と井上氏による「魔改造」によって、360 WalkmixとPro Toolsからの出力をワンタッチで切り替えられるようになっている。(中)DATASAT AP-25 の「Dirac 音場補正機能」で周波数/位相/時間特性の最適化補正を掛けた後、Pro Tools | MTRX の SPQ で微調整をおこなっている。(右)ブース内の様子。写真右に見えるガラス戸がスピーカーの一時反射面になるということで、外側にもう一枚扉を作る形で吸音を施している。
「これからの音楽スタジオのフラッグシップとして相応しいもの ができた。」という tutumu。オフィシャルなオープンに先立っ て行われたお披露目会では、参加したクリエイターたちが創 作意欲を喚起されている様子がヒシヒシと伝わって来たとい う。この勢いを見ると「コンテンツを立体で楽しむ」という 時代は、そう遠い未来のものでもないのではないだろうか。
📷 写真左より、株式会社サウンド・シティ 取締役 明地 権氏、レコーディングエンジニア 秦 正憲氏、取締役 中澤 智氏。
取材協力:株式会社サウンド・シティ、オンズ株式会社、日本音響エンジニアリング株式会社、オタリテック株式会社
*ProceedMagazine2022-2023号より転載
Music
2022/12/28
エイベックス株式会社 avexR studio様 / ワークフローを加速させる、コンパクトに厳選された機器たち。
「エンタテインメントの可能性に挑み続ける。」という企業理念を基に、映像・音楽・テクノロジーのプロフェッショナルが同じ空間で常に交わりコンテンツを生み出していく。これをコンセプトとして2022年夏にavex groupの新たなクリエイティヴ拠点「MARIA」がオープン、本社にあったavexR studioもこちらへ移転し新たに稼働を始めた。今回の移転先となる物件は、元々スタジオとして使用されていたスペースではなくワインセラーやレストランスペースだったとのこと。全く異なる用途のスペースであったわけだが、設計図を作成し始めてから実際の工事に取り掛かるまでが4ヶ月弱という非常に短時間での準備を行い、2Fフロアをすべて改装してパワーアップしたスタジオへと変貌させた。さらに、ここにはグループ会社であるavex creative factoryのスタジオであるMAX studioも併設され、携わるコンテンツの幅が広がっている。今回はこの施設内に移設しコンパクトでありながらも随所にアップデートした新生avexR studioを紹介したい。
パワーアップしたMAスタジオ
今回更新のメインとなるMAスタジオは同じフロアにある映像編集室、多目的スタジオとセットで「avexR studio」と呼ばれている。映画や配信向けDolby Atmosコンテンツや、アーティストのコンサートフィルムといったような映像が関わる音楽系のコンテンツなど、具体的なコンテンツ名が言えないのが非常にもどかしいが「avexR studio」のMA室では誰もが聞いたことがある話題の作品やアーティストの楽曲がDolby Atmosミックスされている。
前回のMA室と同様、コンセプトカラーはこだわりのオレンジがポイントとなっている。スタジオの色基調をオフホワイトとグレーにしてグラデーションをつけることで、前回よりも落ち着いた印象となった。このスタジオで作られるコンテンツは映画などのMAに限らず音楽系のコンテンツも増えてきており、音楽機材も増えたそうだ。スタジオの大きさについては、横幅が若干コンパクトになったが、奥行きは前回と全く同じサイズで設計されている。全体容積としては移転前から80%ほどになったものの、天井高は現在のスタジオの方が高く、スピーカーと作業位置の距離をITU-R基準の1.8mで確保したレイアウトだ。モニタースピーカーを含む機材は既存の設備を流用となった。以前のMA室と音質は大きく変わらないものの、移転したことで音像がタイトになった印象を持つ。コンパクトながらもLFEスピーカーをステレオで配置するシネマ用の配置を取っているが、部屋の横幅が変わったこともあり、低音の鳴り方が感覚に馴染むように試行錯誤しながら修正をしているところだという。
📷 メインスピーカーのGenelec 8350A、ハイトスピーカーのGenelec 8340A、2ch用としてFocal Solo 6 Be。L・Rの下にはサブウーファー Genelec 8360APMが2台設置されている。
Avid S4、厳選されたコンパクトな構成
機材面で大幅にパワーアップされたのが、Avid S4の導入である。以前はコンソールレスでの作業だったが、やはりDolby Atmosなどのイマーシブオーディオを扱うにあたり、特にオブジェクトを多用するセッションの場合はフィジカルで直感的な作業が難しく、パラメータの数値を打ち込むことがメイン作業となってしまって面白みに欠けてしまうことがあったという。コンソールレスで始めたものの、結局はフィジカルコントローラーを各種試して買い足すということに至ったそうで、移転を機に効率的かつ直感的な部分を補うためにコンソールの導入を決意されたそうだ。フィジカル的なコントロールの解決については以前からの課題とされていたようで、イマーシブオーディオコンテンツの作成が本格的に始まった2017年頃から試行錯誤されていたという。
スタジオに導入されたAvid S4コンソールの構成は、Channel Strip Module 8 Faderに加えて、かねてから念願であったJoystick ModuleとExpansion Knob Module、Display Module x2を加えた3 Bay構成である。イマーシブオーディオだからこそ「オブジェクトオーディオにもフィジカルコントローラーを」ということで導入されたJoystick Moduleは、数あるフィジカルコントローラーの中からAvid S4を選択した最重要ポイントの一つである。特にMA作業は映像を見ながらの作業となるため、コンピューター画面に集中することが難しい。モニター画面とコンピューター画面の視点移動は想像以上にストレスがかかる。特に、Dolby Atmosのオブジェクトオーディオ編集はより一層ストレスがかかるが、Joystick Moduleの導入でそれも随分軽減されているそうだ。
📷 コンパクトに収められたAvid S4は着席したままでもすべてに手が届くサイズ感、ヒヤリングポイントからスピーカーまでの高さは1.8mが確保されている。
そして、Avid S6ではなくAvid S4を選択した大きな理由はサイズだという。MAスタジオとしてはかなりコンパクトな筐体となるため、スペース都合を満たすということはやはり大きな要件となる。ただし、サイズ感という問題だけでAvid S1やAvid S3を選択しなかったのは、Avid S4がモジュール式でレイアウト自在な点だ。もちろん、先ほども述べたJoystick Moduleの存在も大きな理由となるが、センターセクションなどのベース構成から好きなユニットを追加選択し、好きな位置に配置できるのでイマーシブオーディオ制作に特化したレイアウトを組み上げられるのがポイントだという。なお、Joystick Moduleはセンターセクション右手前側に配置し、手がすぐに届いて操作できるレイアウトにした。コンパクトなレイアウトに収まったAvid S4は、そのサイズ感のおかげで操作性も十分に補えているという。今回導入されたAvid S4はセンターセクション左手にチャンネルストリップモジュールが配置されているが、Avid S4ならではのノブ部分のチルト構造のおかげで座ったままS4のすべての機能にアタッチできるという。これも作業効率を上げる重要なポイントとなる。
Avid S4で特に気に入っている機能は、センターセクションに集約されたレイアウトだという。ビジュアル・フィードバック性と完全なトータル・リコールにより、セッションごとでAvid S4の各画面の機能やトラックレイアウト、カスタムプラグインレイアウトなど、さまざまなレイアウトを一括でセッションに保存できるため、セッションを開くだけでレイアウトなど様々な設定がすべて読み込まれる。現在編集中のセッションからロールバックして、古いセッションに切り替えるワークフローがたびたび発生するそうだが、そういった時でもAvid S4のトータルリコールのおかげで、細かい設定など再調整することなく即座に作業に入れる点が大きいという。セッションを切り替えるとすぐに作業に取り掛かれるので、別のミックスダウンで気分転換ができることもあるそうだ。
📷 Avid S4を挟んでデスク下のラックにはアナログボード類、とMac Proが収められている。
直感的な作業をパワフルな環境で
MTRXをインターフェイスとしたPro Tools HDシステムは、今回の移転に伴いMac Proを旧型の2013年モデルから最新の2019年モデルへ、HDXカードも1枚から2枚へと増強したことで大幅にパワーアップした。HT-RMUを導入しているが、昨今の映像コンテンツは4Kも多くなってきており、旧型Mac Proでは処理が追いつかないことも多い。また最近のPro Toolsでもビデオエンジンなどをはじめとする機能拡張の動作においてコンピューターのスペックに依存している機能もあるため、新たに導入したMac Proではメモリが96GBという仕様となった。おかげで作業効率が大幅にアップしたそうだ。なお、HT-RMUのほかDolby Atmos Production Suiteも導入されており、音楽性の強いミックスではProduction Suiteを、オブジェクト・トラックを多用する映像の方向性が強いミックスの際にはHT-RMUをとそれぞれ使い分けているそうだ。また、ビデオインターフェイスも4K対応のBlackmagic Design Ultra Studio miniへ更新されている。
📷 デスク下右手のラックにはMTRX、m908などがコンパクトに集約されている。
今回導入されたAvid S4と以前より導入されているMTRXの連携も抜群だという。モニターコントロールに関しては国内導入1台目だというGrace Designのm908を導入しており、このスタジオではアフレコやナレーションだけではなく効果音なども収録するため、ヘッドフォンやミニスピーカーなど様々なモニタ環境を瞬時に切り替えられるようにリモートコントローラーがセットとなったGraceのモニターコントロールを選択した。
MTRXは、Pro Toolsのインターフェイス機能のほかにマトリクスルーターとして稼働しており、MADIで接続されたHT-RMUの音声をMTRXで切り替えている。以前はコンピューター画面上でDADmanをマウスで操作していたが、Avid S4とDADmanを連携し、さらにソフトキーレイアウトをカスタマイズすることで、Avid S4からソース切り替えを可能とした。フィジカルかつ少ないアクションで操作できるようにカスタマイズ可能な機能はより一層直感的に作業に取り組める環境を構築した。
このスタジオでは恋愛ドラマのようなラジオドラマやポッドキャストも制作することもあるという、演出のために作中の効果音をレコーディングすることもあるそうだ。映像ありのコンテンツでは、その映像に寄り添うために音声のミックスで冒険はしにくいところだが、ラジオドラマは映像がないぶん聴き手が自由に想像できるため、オーバー気味な演出をしても違和感も少なく受け入れられるメディア。作り手も思い切ったミックスにチャレンジができる。手がけるラジオドラマはステレオではなくバイノーラルで配信されるため、Dolby Atmosの環境が活きてくる。Dolby Atmosでミックスしたオーディオは最終段でバイノーラルに変換するため、無理なく一層リアリティが増した完パケとなる。特にホラー作品などは特に恐怖感が倍増してしばらくうなされてしまうかもしれない。
発想を瞬発的にコンテンツへ、MAX Studio
📷 アイデアを即時に形にできるよう設けられたMAX Studio。右手の固定窓の向こう側がブースとなる。
ブースを隔ててMA室の奥にレイアウトされたのが「MAX Studio」である。ここではアイデアが浮かんでからすぐに制作作業に取り掛かり、1日で完パケまでできる環境が整えられた。このスタジオはエイベックスの音楽スタジオであるprime sound studio formともプリプロスタジオとも異なるキャラクターで、プロジェクトスタジオとプロスタジオの中間的な存在だという。昨今の楽曲制作で定番になりつつあるCo-Writeもこのスタジオで多く手がけられているそうで、クリエーターの発想を瞬発的にコンテンツへと形を変えることができるよう、ここでは制作の最初から最後まで一気通貫して行える。
MA室とMAX Studioで兼用となっているブースは両側にFIX窓が設けられており、普段は吸音パネルで塞がれている。MAとしてナレーションをレコーディングする際は、MA室側のパネルを外してMA室のTIE LINEを経由する。同様に、MAX Studioでボーカルのレコーディングを行う際にはMAX Studio側のパネルを外し、MAX StudioのTIE LINEを経由する。両コントロールルームに比べてブースの稼働率は低いので、あえて兼用にすることで両側のコントロールルームのスペースを確保した。
📷 ブースは兼用となりMA室とMAX Studioに挟まれたレイアウト。左右には各スタジオへのTIE LINEが設置されている。
天井高4mオーバーの多目的スタジオ
📷 モーションキャプチャースタジオとして活用されるほか、用途を問わず使用される多目的スタジオ。天井面にはトータル16台のOptiTrackカメラが取り付けられている。
約50平米の多目的スタジオは、その名の通り様々な用途を想定した作りになっている。その中でも一番多いケースとされるのが、モーションキャプチャーのスタジオとしての活用だ。天井にはOptiTrackのPrimeシリーズのカメラが常設されている。一方、下部のカメラについては仮設の形態がとられている。このスタジオでは、モーションキャプチャーのほかにグリーンバックでの合成や、YouTube配信といったものから、社内向けのZoom会議などにも使われるため、用途に合わせて暗幕・グリーンバックの有無などが選べるようになっている。
メインで使用されているモーションキャプチャーは、OptiTrackのPrimeシリーズとMotiveが導入されており、主にVTuber用途に使用されている。Motiveで演算されたデータは、カスタムで制作したエンジンによってキャラクターとリアルタイムで合成する。これら一連のリアルタイム処理された映像をそのまま配信することが可能だ。このような環境のスタジオが都心にあることは珍しい。モーションキャプチャーの特性上から広いスペースと十分な天井高が必要となり、その結果多くのスタジオが郊外に集中している。都心部という好立地ならではの制作業務も多いそうで、リモートワークが当たり前になってきている昨今でもこういった立地環境は必要な要素だと実感する。
多目的スタジオ・映像編集室とMA室の連携が取れるよう、音声・映像・サーバーそれぞれが接続されている環境だという。音声はDanteネットワークでスタジオ間を接続し、配信などを行う際に連携して使用されている。映像に関してはフロアの各部屋がSDIルーターに接続されている。例えば、多目的スタジオでVTuberがMotiveでリアルタイムに合成した映像に、MA室やMAX Studioでアフレコをつける、といったようにフロア全体で大きなスタジオとしても活用できる。
映像編集室では、Adobe Premiereを中心とした映像編集機器やCG編集機器が揃えられている。こちらも移転前の広さからおよそ1/3のスペースまでコンパクトにすることができたのだが、これはコロナ禍による制作スタイイルの変化だという。コロナ前は各自スタッフが集まって編集室で作業していたが、各自在宅で映像編集をできるようコンピューターなどの環境を整えた結果、編集室に集まって作業する必要性が薄くなり、必然的にスペースを確保する必要もなくなったそうだ。なお、こちらではモーションキャプチャーのほかにもLyric Videoなどを手掛けたり、エイベックスのYouTubeチャンネルで8月よりライブ配信されている「[J-POP] avex 24/7 Music Live(24時間365日 音楽ラジオ・24/7 Music Radio)」の画面に登場している「KA」とKAの部屋はこちらの編集室で作られたそうだ。部屋の中にある、見覚えのあるラップトップやスピーカーなど、実際の寸法からCGに落とし込まれており、各メーカーの公認も得ているという。
エイベックスの楽曲を24時間365日、ノンストップでライヴ配信する『avex 24/7 Music Live』。
話題のこのコンテンツも、岡田氏が率いるチームが手がけている
イマーシブオーディオもだいぶ浸透し、ワークフローも確立しつつあるが、昔から変わらないフローのもあるという。特に変わらないのが、こまめなセーブとセッションのバックアップだという。こまめなセーブは当たり前になってきているが、コンピューターが高速かつ安定してきているからこそ、基本であるセーブとバックアップを忘れずにしているという。バックアップに関しては、余計に気にされているそうで、セッションデータを3つのHDDやSSDにバックアップするなど冗長化に努めているそうだ。
📷 avex groupの新たなクリエイティブ拠点「MARIA」には地下にクラブスペースもあり、普段は社内の撮影やイベントに使用しながらも、時には海外のTOP DJがシークレットでプレイすることもあるという。アーティストのSNSにもたびたびこちらの部屋がアップされることも多いというこちらのスペースは、なんとメディア初公開だそうだ。DJブースの両脇には日本ではメーカー以外にここにしかないという、Function OneのDJモニタースピーカーPSM318が鎮座しており、フロアには高さ約3mのDance Stackシリーズのスピーカーセットが前後に4発。ぜひともフルパワーの音を体感してみたい。
今後は映像作品のMAのほかに音楽制作へも力を入れていくとのことで、4年前のa-nationのようなDolby Atmos配信も行っていきたいとのことだ。5Gが一般化されたことで通信環境が格段に良くなっていることや、サーバー環境も進歩しているため、以前よりもストレスなく挑めるだろう。また、イマーシブオーディオの中でも今後は360 Reality Audio(サンロクマル・リアリティオーディオ)向けのコンテンツにも積極的に取り組んでみたいとのこと、どんな作品を手掛けられるのか楽しみである。
📷 エイベックス・エンタテインメント株式会社 レーベル事業本部
クリエイターズグループ NT&ALLIANCE 映像制作ユニット マネージャー
兼ゼネラル・プロデューサー
岡田 康弘 氏
*ProceedMagazine2022-2023号より転載
Support
2022/10/17
360 WalkMix Creator™ 最新V1.4.0 リリース情報、11月1日(火)より価格改定
360 Reality Audio制作ツール「360 WalkMix Creator™」の、V1.4.0がリリースされました。待望のプレイヤー機能や、ADM及びMaster ADM形式での書き出しに対応。また、11月からの値上げもアナウンスされましたので、導入をご検討中の方はこの機会をお見逃しなく!
V1.4.0 新機能とアプリケーション - 2022年10月06日更新
・待望のプレイヤー機能、360 WalkMix Playerが登場
360 WalkMix Playerは、360 WalkMix Creatorと共にアプリケーションとして利用できるようになりました。360 WalkMix Creatorに対応しているあらゆる出力フォーマットで書き出されたオーディオを再生できるようになりました。このアプリケーションはプラグインと一緒にインストールされ、スタンドアローンアプリケーションと同じ手順で起動することができます。360 WalkMix Player を使用するには、360 WalkMix Creatorのライセンスが必要です。
・A/B 比較を実行する機能が追加
360 WalkMix Creator プラグインから、A/B 比較を実行する機能が追加されました。「リファレンス」タブから、ステレオ参照ファイルのアンロードとロード、プレイヘッドの調整、LKFS/LUFSの測定と対比、比較のための波形解析が可能です。
・書き出しの形式を追加
ADMおよびMaster ADM形式での書き出しが可能になりました。
・プラグイン内のアップデート通知からリリース内容の確認が追加
プラグイン内にてソフトウェアアップデートを示す通知には、リリースノートページ https:// 360ra.com/release-notes/ へのリンクが表示され、アップデートが自分のニーズにマッチするかどうかを判断できるようになりました。
↑
V1.4.0 安定性の改善 - 2022年10月06日更新
長時間のセッションやプロジェクトで音声が歪む可能性のある問題を修正しました。
いくつかの細かいグラフィック/Ul問題に対処しました。
過去のリリースノートはこちらからご確認いただけます。
https://360ra.com/ja/release-notes/
2022年11月1日(火)より、価格改定も発表!
さらに360 WalkMix Creatorは、2022年11月1日(火)より、価格改定が行われることも発表されました。
2022年10月31日正午までの通常価格:64,900円(税込)
2022年11月1日以降の通常価格:77,000円(税込)
Rock oN Line eStore 販売ページ:
https://store.miroc.co.jp/product/77346
ROCK ON PROでは、360 Reality Audioをはじめ、Dolby Atmosなど各種イマーシブ制作対応スタジオの導入事例も豊富です。下記コンタクトフォームより、お気軽にお問合せください。
https://pro.miroc.co.jp/headline/360ra-info-2022/#.Y00XT-zP0-Q
https://pro.miroc.co.jp/headline/comparison-of-atmos-360ra/#.Y00j8ezP0-Q
https://pro.miroc.co.jp/solution/360-reality-audio-360-walkmix-creator-proceed2022/#.Y00j_ezP0-Q
https://pro.miroc.co.jp/works/360studio-proceed2021-22/#.Y00kDuzP0-Q
https://pro.miroc.co.jp/headline/nagoyageidai-proceed2021-22/#.Y00kGOzP0-Q
https://pro.miroc.co.jp/solution/sound-on-4%cf%80-360ra-part-3/#.Y00kPuzP0-Q
Music
2022/08/02
360 Reality Audio + 360 WalkMix Creator™ 〜全天球4πの世界をオブジェクトベースで描く〜
世界中で始まった実際の配信サービスインから早くも2年が経過、国内でのサービスインからも1年が経過した360 Reality Audioの世界。そしてその制作ツールとなる360 WalkMix Creator™がついに国内で販売開始される。その拡がりもついに第2段階へと突入した360 Reality Audio、360 WalkMix Creator™で実現する新機能のご紹介とともに、360 Reality Audioの現在地をご案内していく。
Chapter 1:360 Reality Audioを構築する
●全天球4πを実現する360 Reality Audio
本誌でも、その詳細を伝え続けているソニー 360 Reality Audio。完全な4π空間へのフルオブジェクト配置による立体音響フォーマットとして、その魅力は高いものであることはすでにおわかりではないだろうか。先行してスタートしているDolby Atmos、Auro 3Dは、ご存知のように「映画」をそのベーシックとして登場している。そのため、これまでの5.1chサラウンドを踏襲し、それを発展させる形で立体音響を実現している。これは、既存設備、映画館、劇場との互換性という観点から重要なポイントであり必要不可欠な要素だった。しかしソニー 360 Reality Audioは、映像とは切り離して考えられ、音楽を楽しむためのフォーマットとして登場している。そのため、これまでの立体音響が辿ってきた経緯とは関係ないところで、理想の音楽を入れるための器として誕生している。北半球とも呼ばれる上半分の2πだけのフォーマットではなく、下方向も含めた全天球4πを実現し、チャンネルベースを廃棄した完全なるオブジェクトベースのフォーマットだ。
Dolby Atmosなど他の立体音響フォーマットとの最大の違い、それは南半球があるということである。南半球に音を配置して効果はあるのか?下方向からの音、それに意味はあるのか?これは、今後様々な音源がリリースされ、その効果の程やクリエイターの考え、感覚により活用が行われていくものだろう。リフレクションを加えることで床を作る、低音楽器を下方向から鳴らすことで重心を下げる、様々なアイデアがありそうだが、まずは表現できる空間が単純に倍になったということは、歓迎すべき素晴らしいことではないだろうか。北半球のみの2π srに対し、全天球4π srは単純に倍の表面積であり、その表現できる範囲も倍であるということだ。これをどのように使いこなすのかという議論はまさにこれから行われていくこととなるだろう。
今までのステレオをヘッドホンで再生すると、頭の中に定位する「頭内定位」となる。言い換えれば右耳から左耳の間に音があるように感じるということだ。これをソニー 360 Reality Audioではヘッドホンで聴いているが、擬似的に頭の周りから音が鳴っているような感覚「頭外定位」を実現している。スピーカーで視聴するための準備が様々に進んできてはいるが、その体験を行う一番簡単な方法はやはりヘッドホンでの再生となる。いま音楽を楽しむ方法として一番シェアの高いヘッドホン/イヤホンでの視聴、それをターゲットにした音楽の体験、それがソニー 360 Reality Audioだ。
●チャンネルベースからの脱却、スピーカー配置の自由
チャンネルベースからの脱却というのも、360 Reality Audioの先進性の現れであると言えよう。冒頭でも述べたように、既存フォーマットとの下位互換性を考えることなく、純粋に次のステップへと歩みを進めた360 Reality Audio。これにより手に入れたのは、スピーカー配置の自由ということになる。クリエーター向け360 Reality Audio HPには、推奨環境としてこのようなスピーカー配置がのぞましいということが明記されている。ただ、これはあくまでもスピーカー配置の一例であり、その全てではない。360 Reality Audioの動作原理から言えば、スピーカーの配置位置、本数、そういった制約は無い。ただし、その音源の再現のために最低限これくらいの本数があったほうが確認を行いやすいという。また、360 WalkMix Creator™での制作時ではスピーカーの出力数を選択し、そのプリセットで選択された本数で再生を行うこととなる。
このスピーカーの配置の自由というのは、これから立体音響に向けてスタジオへスピーカーを増設しようとお考えの方には重要なポイントだろう。水平方向、天井は工夫によりなんとかなるケースが多いが、下方向に関しては、前方に3本(L,C,Rchの位置俯角-30度)設置が推奨されている。一般的に下方向のスピーカー設置となると、それらを遮るようにコンソールや作業用のデスクがあることが多いわけだが、これを左右90度の位置に俯角-30度で設置であれば、実際にレイアウトすることもかなり現実味があるのではないだろうか。
チャンネルベースのソースを持たない360 Reality Audioはフルオブジェクトであるため、スピーカーに対してのレンダリングアウトは自由である。そこにスピーカーがあるとわかるようなスピーカープリセットがあれば良いということになる。なお、スピーカー配置は自由だと書かせていただいたが一つだけ制約があり、それぞれのスピーカーは等距離に設置されている必要がある。ただし、これに関してはDelay調整により距離を仮想化することである程度解消できるものである。
●Dolby Atmos、360 Reality Audioコンパチブル
自由と言われると、実際どうして良いのか混乱を招く部分もあるかもしれない。360 Reality Audioに対応したスタジオのスピーカーアレンジの一例をご紹介するとなると、Dolby Atmosとの互換性を確保したシステムアップというのが一つの具体的な事例になる。
360 Reality Audioは前述の通り、スピーカー配置に関しては自由である。ということは、Dolby Atmosに準拠したスピーカーレイアウトを構築した上で、そこに不足する要素を追加すればよいということになる。具体的には、Dolby Atmosには無い南半球、下方向のスピーカーを増設すればよいということだ。360 Reality Audioの推奨としては、前方L,C,R(30度,0度,-30度)の位置に俯角-30度で設置となっているため、この3本を追加することでDolby Atmosと360 Reality Audioに対応したスタジオを構築できる。以前のスタジオ導入事例でご紹介したソニーPCLのスタジオがまさにこの方法での対応となっている。
📷デスクの前方にはスクリーンが張られており、L,C,Rのスピーカーはこのスクリーンの裏側に設置されている。スクリーンの足元にはボトムの3本のスピーカーが設置されているのがわかる。リスニングポイントに対して机と干渉しないギリギリの高さと角度での設置となっている。
前方下方の設置が難しい場合には、左右下方で対応することも一案である。下方、俯角のついた位置への設置は360 Reality Audioの音像をスピーカーで確認する際には必須の要素である。少なくとも左右へ2本がないと、パンニングの再現があまりにも大雑把になってしまうため、最低2本以上の設置と考えていただきたい。ただ、その設置に関しては前方L,R30度の位置が必須ということではない。この位置がなぜ推奨位置なのかは、後述するエンコードの解説を読んでいただければご理解いただけるだろう。スピーカー配置の自由、という360 Reality Audioの持つ美点は、これから先の進化の中で本当の意味で発揮されるものだからだ。
Chapter 2:BrandNew!! 360 WalkMix Creator™
●エンコーダーを手に入れファイナルデータまで生成
360 Reatily Audio Creative Suiteとして登場した360 Reality Audioの制作ツールが、2022年2月に360 WalkMix Creator™へと名称を変更し、それと同時に大きな機能追加が行われた。360 Reatily Audio Creative Suite時代に作成できる最終のデータは、360 Reality Audioの配信用データであるMPEG-H 3D Audioに準拠した360 Reality Audio Music Formatではなかった。この360 Reality Audio Music Formatへの最終のエンコード作業は、別のアプリケーションで実施する必要があった。360 WalkMix Creator™では、ついに悲願とも言えるこのエンコード機能を手に入れ、360 WalkMix Creator™単体でのファイナルデータ生成までが行えるようになった。テキストで表現すると非常にシンプルではあるが、実作業上は大きな更新である。
これに続く、最後の1ピースはその360 Reality Audio Music Formatデータの再生用のアプリケーションだ。360 WalkMix Creator™の登場で、最終データを生成することはできるようになった。そのデータを確認するためにはArtist ConnectionにアップロードしてArtist Connectionのスマートフォンアプリで360 Reality Audioとして再生ができる。
📸 360 Reatily Audio制作のワークフローはこのような形になっている。パンニングの部分を360 WalkMix Creator™で行うということ以外は、従来のミキシングの手法と大きな違いはない。編集、プラグイン処理などは従来通り。その後の音を混ぜるというミキサーエンジン部分の機能を360 WalkMix Creator™が行うこととなる。ミキシングされたものはエンコードされ、配信用の音源として書き出される。リスナーが実際に視聴する際のバイノーラル処理は、リスナーの使用するプレイヤー側で行うこととなる。
●エンコードでサウンドの純度をどう保つか
では、改めて360 Reality Audioの配信マスターであるMPEG-H 3D Audioに準拠した360 Reality Audio Music Formatへのエンコードについて説明していきたい。360 WalkMix Creator™で扱うことができるオブジェクト数は最大128個である。エンコードにあたっては、10~24オブジェクトにプリレンダリングして圧縮を行うことになる。せっかく作ったオブジェクトをまとめるということに抵抗があるのも事実だが、配信という限られた帯域を使ってのサービスで使用されるということを考えると欠かすことができない必要な工程である。360 WalkMix Creator™では多くの調整項目を持ち、かなり細かくそのチューニングを行うことができる。マスターデータは非圧縮のまま手元に残すことはできるので、いつの日か非圧縮のピュアなサウンドを360 Reatily Audioのエンドユーザーへ提供できる日が来るまで大切に保管しておいてもらいたい。
360 Reality Audio Music Formatへのエンコードを行うにあたり10~24オブジェクトへプリレンダリングして圧縮を行うということだが、その部分を更に詳しく説明していこう。実際には、配信事業者の持つ帯域幅に合わせて4つのレベルでのエンコードを行うこととなる。プリレンダリングはStatic ObjectとDynamic Objectの設定をすることで実行できる。Static Objectはその言葉の通り、固定されたオブジェクトである。この際に選択できるStatic Object Configurationは複数種類が用意されており、ミキシングにおけるパンニングの配置に合わせて最適なものを選択することができるようになっている。デフォルトでは、4.4.2 Static Objectで10オブジェクトを使用し、各Levelの最大オブジェクト数まではDynamic Objectに設定できる。Dynamic Objectはそのトラックを単独のObjectとして書き出すことで、360 WalkMix Creator™上でミキシングしたデータそのままとなり、Static Objectは360 WalkMix Creator™にプリセットされている様々なStatic Object Configurationに合わせてレンダリングアウトが書き出される。
📸 エンコードの際には、こちらの画面のように6種類のデータが書き出される。Level 0.5~3までは本文で解説をしているのでそちらをご参照いただきたい。それ以外の項目となるプリレンダリングは360 Reality Audio Music Formatへエンコードする直前の.wavのデータ、要は非圧縮状態で書き出されたものとなる。選択スピーカー別出力は、モニターするために選択しているスピーカーフォーマットに合わせた.wavファイルの書き出し。例えば、5.5.3のスピーカー配置で視聴しているのであれば、13chの.wavファイルとして各スピーカーに合わせてレンダリングされたものが出力される。
Static Object Configurationのプリセットはかなりの種類が用意されている。前方へ集中的に音を集めているのであれば5.3.2、空間全体に音を配置しているのであれば4.4.2、推奨の制作スピーカーセットを再現するのであれば5.5.3など実音源が多い部分にStatic Object が来るように選択する。いたずらにオブジェクト数の多いものを選択するとDynamic Objectに割り振ることができるオブジェクト数を減らしてしまうので、ここはまさにトレードオフの関係性である。もちろん、オブジェクト数の多いStatic Objectのプリセットを選択することで空間の再現性は向上する。しかし、単独オブジェクトとして存在感高く再生が可能なDynamic Object数が減ってしまうということになる。基本的に音圧の高い、重要なトラックをDynamic Objectとして書き出すことが推奨されている。具体的には、ボーカルなどのメロディーがそれにあたる。それ以外にも特徴的なパンニングオートメーションが書かれているトラックなどもDynamic Objectにすることで効果がより良く残せる。Static Objectに落とし込まずに単独のトラックのままで存在することができるためにそのサウンドの純度が保たれることとなる。
ミキシングをおこなったトラックごとにStaticとするのか、Dynamicとするのかを選択することができる。このStatic/Dynamicの選択、そしてStatic Object Configurationのプリセットの選択が、エンコード作業の肝となる。この選択により出来上がった360 Reality Audio Music Formatのデータはかなり変化する。いかに360 WalkMix Creator™でミックスしたニュアンスを余すことなくエンコードするか、なににフォーカスをするのか、空間をどのように残すのか。まさに制作意図を反映するための判断が必要な部分となる。
●Static Object Configuration設定一覧
これら掲載した画面が360 WalkMix Creator™で選択できるStatic Object Configurationのプリセット一覧となる。プリセットされたレンダリングアウトの位置は、できる限り共通化されていることもこのように一覧すれば見て取ることができるだろう。基本はITU準拠の5.1ch配置からの拡張であり、Dolby Atmosを意識したような配置、AURO 3Dを意識したような配置もあることがわかる。5chサラウンドの拡張の系統とは別に、開き角45度のグループもあり、スピーカー間が90度で等間隔になる最低限の本数で最大の効果が得られるような配置のものも用意されている。
下方向をどれくらい使っているのか?上空は?そういった観点から適切なプリセットを選ぶことで再現性を担保し、重要なトラックに関してはDynamic Objectとして独立させる。Static Objectを多くすればその分全体の再現性は上がるが、使えるDynamic Objectのオブジェクト数が減ってしまう。これは難しい判断を強いられる部分ではあるが、トレードオフの関係となるためあらかじめ念頭に置いておくべきだろう。この仕組みを理解して作業にあたることで、よりよい状態の信号を360 Reality Audio Music Formatファイルで書き出すことが可能となる。
Chapter 3:360 Reality Audioの現在地
Dolby Atmosとの互換性
昨年の空間オーディオのサービスインから、注目を集めているDolby Atmos Music。そのフォーマットで制作した音源と360 Reality Audioの互換性は?やはりイチから作り直さなければならないのか?制作者にとって大きなハードルになっているのではないだろうか。フォーマットが増えたことにより作業量が倍増してしまうのでは、なかなか現場としては受け入れがたいものがあるのも事実。実際のところとしては、Dolby Atmosで制作した音源をRenderingしたWAVファイルを360 WalkMix Creator™でそのチャンネルベースの位置に配置することで再現することが可能である。その際にできる限り多くのスピーカーを使用したWAVをDolby Atmos Redererから書き出すことでその再現性を高めることも可能だ。なお、逆パターンの360 Reality AudioからDolby Atmosの場合には、南半球の取り扱いがあるためそのままというわけにはいかない。どうしても行き先のないトラックが出てきてしまうためである。
📸 360 WalkMix Creator™上でDolby Atmosを展開する一例がこちら。Dolby Atmosから7.1.4のレンダリングアウトを.wavで出力し、360 WalkMix Creator™内に配置したしたという想定だ。さらにチャンネル数を増やすことも可能(Atmos Rendererの最大レンダリング出力は11.1.10)だが、今回はわかりやすくベーシックなものとしている。ここでの問題はLFE chだ。 360 Reatily AudioにはLFEが存在しないため、少し下方向から再生することで効果的に使用することができるのではないか。LFEに関しては特に決まりはないため耳で聴いてちょうどよいバランスに合わせる必要がある。
Dolby Atmos Redererからは、最大11.1.10chの書き出しが可能である。360 Reality AudioにはLFE chが用意されていないため、ここの互換性に注意すれば、南半球は無いがかなり高いレベルでの互換を取れた状態が確保されていると言えるだろう。360 WalkMix Creator™に11.10.0というStatic Objectのプリセットがあれば完璧なのだが、次のアップデートでの実装に期待したいところである。また、Rendering Outを行う際にVocalなどDynamic Objectにアサインしたいものだけを省いておくことでDynamic Objectも活用することができる。もちろん、ワンボタンでという手軽さではないが、イチからミックスをやり直すことなく同等の互換性を確保することが可能なところまできている。
日進月歩の進化を見せる360 Reality Audioの制作環境。制作のための全てのコンポーネントがもうじき出揃うはずである。そして、制作物をユーザーへデリバリーする方法も整ってきている。双璧をなすDolby Atmosとの互換性など制作のノウハウ、実績も日々積み上げられていっているところだ。まさにイマーシブ・オーディオ制作は第2フェーズへと歩みを進めている。ぜひともこの新しい世界へと挑戦してもらいたい。
360 WalkMix Creator™ ¥64,900(税込)
ソニー 360 Reality Audioを制作するためのツールがこの「360 WalkMix Creator™」。AAXはもちろん、VST / AUにも対応しているため、ホストDAWを選ばずに360 Reality Audioのミキシングを行うことができる。
製品購入ページ(RockoN eStore)
製品紹介ページ
クリエーター向け 360 Reality Audio HP
*ProceedMagazine2022号より転載
https://pro.miroc.co.jp/headline/comparison-of-atmos-360ra/
Music
2022/05/20
Dolby Atmos Music Panner アップデート情報
このページではDolby Atmos Music Pannerに関する新着情報をお知らせします。
Dolby Atmos Music Pannerとは?
Dolby Atmos Music Pannerプラグインは、Dolby Atmos Rendererに接続されたMac上のDAWで使用し、Dolby Atmos Music ミックス内のオーディオオブジェクトを配置することができます。
ミュージック・パンナーを使ったこの組み合わせでは、3次元のオーディオ空間にオーディオ・オブジェクトを配置することができます。
また、パンナーには、オブジェクトの配置を、DAWのテンポに同期させて動かせるシーケンサーが搭載されています。
Dolby Atmos Music Pannerのインストーラーには、AAX、AU、VST3バージョンが含まれています。
配布先URL:
https://customer.dolby.com/content-creation-and-delivery/dolby-atmos-music-panner-v120
※DLにはcustomer.dolby.comへの登録&ログインが必要です。
システム要件
Dolby Atmos Music Pannerを使用するには、Dolby Atmos Renderer v3.7.1以降が動作するDolby Atmos Production SuiteまたはMastering Suiteが必要です。
対応DAW
・Ableton Live 11.1
・Apple Logic Pro X 10.6.3
・Avid Pro Tools Ultimate 2021.12
・Steinberg Nuendo 11.0.41.448
※macOS Mojave上で動作するNuendoでの使用はサポートされていません。
Dolby Atmos Music Panner V1.2.0 (2022.3.28 更新)
オートメーション書き込みコントロール(Pro Toolsのみ)
Pro Tools 2021.12以降とDolby Atmos Music Panner v1.2(AAXバージョン)では、パンナー・オートメーションをPro Toolsオートメーション・レーンに書き込み、Dolby Atmos Music PannerオートメーションをPro Toolsパン・オートメーションに変換し、Pro ToolsからADM BWF .wav マスターとしてセッションを書き出すときにそのオートメーションのメタデータを含めることができます。
シーケンサのステップを遅くする
x16スイッチを使えば、現在のステップの長さを16倍遅くすることができます。
ステレオオブジェクトのリンク解除
Dolby Atmos Music Pannerステレオプラグインは、ステレオオブジェクトのリンクとアンリンクに対応しています。オブジェクトのリンクが解除されると、左右のチャンネルのX、Y、Z、Sizeを別々に調整することができるようになります。
X/Y/Z、Sizeのロータリーコントロールとポジションディスプレイのオブジェクトアサインラベル表示
X、Y、Z、Sizeのロータリーコントロールとポジションディスプレイには、オブジェクトの割り当てを示すラベルが表示されるようになりました。
Dolby Atmos制作に関するお問い合わせ、モニタリングシステム導入のご相談はこちらのコンタクトフォームからご送信ください。
https://pro.miroc.co.jp/headline/pick-up-pro-tools-studio/
https://pro.miroc.co.jp/headline/protools-lineup-renewal/#.YocNAfPP0-Q
https://pro.miroc.co.jp/headline/dolby-atmos-info-2022/
https://pro.miroc.co.jp/headline/dolby-atmos-renderer-v3-7-2/
https://pro.miroc.co.jp/headline/we-want-more-atmos-proceed2021-22/
Music
2022/02/10
山麓丸スタジオ様 / 〜日本初、360 Reality Audioに特化したプロダクションスタジオ〜
360度全周(4π)に音を配置できるSONY の360 Reality Audio。その制作に特化したスタジオとして作られたのが株式会社ラダ・プロダクションによって設立されたこちらの山麓丸スタジオだ。国内ではソニー・ミュージックスタジオ、ソニーPCLスタジオに続いて3スタジオ目、「360 Reality Audio」専用スタジオとしては初となるという。今回はこちらのスタジオのPro Toolsシステム周りについて導入をさせていただいた。360 Reality Audio制作にはどのようなシステムが必要なのか。制作ワークフローを含め貴重なお話を伺った。
360 Reality Audio作品の専用スタジオを
株式会社ラダ・プロダクション様はCM音楽制作をメインに手がけている音楽制作会社だ。CM以外にも音に関わる企画やプロデュースなど様々な事業をされている会社なのだが、展示や開発系に関わる仕事も増えていく中でソニーと出会ったという。その後、ソニーが開発した波面合成アルゴリズムであるSonic Surf VRのスピーカー開発にも関わり、その時から立体音響に深く関わっていくことになったそうだ。その後、CES 2019で「360 Reality Audio」が発表され、その後ソニーと連携しつつ360 Reality Audio作品制作を手がけるような形になり、スタジオを作るまでに至ったということだ。現在では過去の楽曲の360RA化というものを多く進めているそうだ。広告の仕事を数多く行っているラダ・プロダクションでは展示での立体音響など、360 Reality Audioにとどまらない立体音響の提案を多くしているというお話も伺えた。
全15台のスピーカーをマネジメント
📷 スタジオ正面全景からは、Avid S1やAvid MTRXをコントロールするMOM Baseなど、操作系デバイスをスタンド設置にしてサイドに置き、リスニング環境との干渉へ配慮していることが見て取れる。ラック左列にはAvid MTRX / MTRX Studio、FerroFish / Pulse 16DXが収められ、右列にはヴィンテージアウトボードの数々がまとめられている。
360 Reality Audio制作に使用される360RACS(Reality Audio Creative Suite) 通称:ラックスはDAW上で立ち上げて使用するプラグインだ。ミックスをしているProTools 上で360RACSをインサートして使用することになるのだが、やはりトラック数が多くなったりプラグイン負荷が多くなると1台のマシン内で処理することが厳しくなるかもしれない。そこで、山麓丸スタジオでは大規模なセッションを見越してPro Toolsのミキシングマシン、360RACSを立ち上げるマシンを分けて制作することも想定したシステムアップとなっている。最大で128chのやりとりが必要となるため、Pro ToolsミキシングマシンはHDX2。360RACSについてもPro Tools上で動作させるためにこちらもHDX2を用意。その2台をAvid MTRX1台に接続し、音声をやりとりする形を取っている。
モニタースピーカーはGENELEC / 8331APが13台と7360AP 2台の構成になっている。8331APについてはミドルレイヤー、アッパーレイヤーがともに5ch。ボトムレイヤーが3ch。合計13chという構成だ。モニターのルーティングだが、まず360RACSマシンのHDXからのoutがDigiLink経由でMTRXへ。MTRXからDanteネットワーク上のFerroFish / Pulse 16DXへと信号が渡され、そこでDAがなされてスピーカーへと接続されている。ベースマネージメントを行うためにまず2台の7360APへ信号が送られ、その先に各スピーカーが接続されている形となる。スピーカーの調整についてはGENELECのGLMにて補正が行われている。マルチチャンネルのシステムの場合、GLMは強力な補正ツールとなるため、導入の際にはGENELECのスピーカーがチョイスされる確率が非常に高いのが現状だ。モニターコントロールについてはDADManで行われおり、フィジカルコントローラーのMOM Baseも導入していただいた。柔軟にセットアップできるDaDManでのモニターコントロールは大変ご好評をいただいている。
リスニング環境を損なわないレイアウト
前述のように360 Reality Audioは全周に音を配置できるフォーマットだ。スピーカーでモニターする場合は下方向にもスピーカーが必要なことになる。実際のスタジオ写真でスピーカーレイアウトはある程度把握できるかもしれないが、ここでどのようなレイアウトになっているかご紹介させていただきたい。
スピーカー13本の配置は耳の高さのMidレイヤーが5ch、上方のUpperレイヤーが5ch、下方のBottomレイヤーが3chという構成となる。Mid、UpperともにL,Rはセンタースピーカーから30°の角度、Ls,Rsは110°の角度が推奨されている。BottomレイヤーはL,C,Rの3本。こちらもセンタースピーカーから30°の位置にL,Rが置かれることになる。山麓丸スタジオではBottom L,C,Rの間にサブウーファーが設置されている理想的なスピーカーレイアウトであると言えるだろう。また、UpperはMidに対して30°上方。BottomはMIdに対して20°下方というのが推奨となっている。
通常スタジオではPC操作用のディスプレイ、キーボード、マウスやフェーダーコントローラーを置くためのデスクやコンソールなどが設けられることがほとんどだが、360RA用のスタジオではBottomにスピーカーが設置されることからその存在が邪魔になってしまうのが難しい点だ。山麓丸スタジオではPCディスプレイの役割を前方のTVに担わせている。また、フィジカルに操作を行うキーボード、マウス、Avid /S1、MOM Baseは右側に置かれたスタンドに設置され、極力音への影響が出ないよう工夫がなされている。ちなみに、スタジオ後方にはもう1セットKVMが用意されており、そちらで細かい操作等を行うことも可能だ。
📷 左よりAvid S1、Avid MTRXをコントロールするMOM Base。ブースでのレコーディング用には、Urei 1176LN / API 550A,512C / AMEK System 9098 EQ / N-Tosch HA-S291が用意された。最上段のRME MADIface Xは主にヘッドホンモニタリング用だ。
360 Reality Audio 制作ワークフロー
ここからは実際に山麓丸スタジオで行われているワークフローについてお伺いすることができたのでまとめていきたい。
●1:ステレオミックスを行う
まず、マルチトラックのオーディオデータを先方より手に入れたらセッションを作成するのだが、まずはStereo Mixを行うという。このスタジオの顧問も勤めている吉田保氏などにミックスを依頼するケースもあるとのことだ。まずはステレオミックス用のセッションを作成することについては特に疑問はないだろう。元の楽曲がある作品の場合はそれに合わせるような形でステレオミックスが作成される。
●2:ステレオから360RAへ
ステレオでの音作りをしてから、それを360RA上でパンニングして行く形となる。360RACSはプラグインのため、ProToolsのトラックにインサートして使用する形となるのだが、各オーディオトラックにインサートはしない。各オーディオトラックと同数のAUXトラックを用意し、そこにオーディオをルーティングして360RACSをインサートする。これはPro Toolsのフェーダーバランスを活かすためだ。RACSプラグインはインサートされた箇所のオーディオをDAW側から受け取るので、オーディオトラックにそのままインサートしてしまうとフェーダー前の音がプラグインに渡されてしまう形になる。それを避けるためにAUXトラックを経由する形を取っている。次に、作成したAUXトラックのマスターのチャンネルにRACSプラグインをインサートしマスターとして指定する。これが各チャンネルから音を受け取ってOUTPUTする役割を担うようになる。その後、各チャンネルにRACSプラグインをすべてインサートしていく。
📷 プラグインとして360RACSを選択、インサートを行う。
📷 インサートした360RACSプラグインの中からマスターとなるトラックをを選択。
先ほども述べたように、最終的にオーディオデバイスに音を渡すのはPro ToolsではなくRACSプラグインということになるため、RACSプラグイン上のオーディオデバイスでHDXを選択する。そのため、Pro Tools側はプレイバックエンジンでHDX以外のものを選択する必要があるということだ。ProToolsのマスターを通らないため、遅延補正はどうなる?という疑問も生まれるのだが、RACS側に遅延補正の機能があるためそこは心配ご無用ということのようだ。
これで、360RAのミキシングを始める設定が完了したことになる。その後はRACS内でスピーカーレイアウトを指定する。もちろんヘッドフォンでの作業も可能だ。HRTFを測定したファイルを読み込むことができるのでヘッドフォンのモニタリングの精度も非常に高い。
📷 出力デバイスとしてHDXを選択。
📷 ヘッドホンの出力先もプラグイン内で選択する。
●3:360RAミキシング
設定が完了したら、360RACS上でそれぞれの音のパンニング進めていく形となる。ラダ・プロダクション側で音の配置をある程度進めた状態にし、それを受けたエンジニア側でさらにブラッシュアップを行う。こうして一旦配置を決めるのだがここから再度ミキシングを行う。音の配置による音質の変化が生まれるので、パンニング後、改めて音の調整をエンジニアによって施す作業をしクオリティを上げるそうだ。こうして、その配置で本来鳴らしたい音質で鳴るようにする音作りを行い、でき上がったものがクライアントのチェックに回ることになる。
📷 360度全周にパンニングし、音像スペースを作り出している。
●4:360RAでのマスタリング
オブジェクトベースのフォーマットではステレオのようなリミッター、マキシマイザーを用いたマスタリングは難しい。今回、それをカバーする”技”を伺ったのでご紹介したい。まず、全トラックをAUXのモノトラックにセンドする。そのモノトラックをトリガーとしたマルチバンドコンプやリミッターなどを全トラックにインサートするという手法だ。設定は全トラック同じ設定にする。全ソースが送られているトラックをサイドチェーンのキーインにアサインすることによって、ステレオでのリミッティングを再現する形だ。
📷 全チャンネルにFabfilter Pro-C 2 / Pro-MB / WAVES L2がインサートされている。
●5:バウンス(書き出し)
通常のPro Toolsのバウンスによって、360RAのフォーマットを書き出すことができるそうだ。なお、書き出す際は360RACSを開いておくことが必要となる。書き出しについては「インターリーブ」「48kHz24bit」「Wav」とし、指定のフォルダに書き出すことが必要とのことで、「書類」の中の「360RACS」の中にある「Export」フォルダを指定する。このフォルダは360RACSをインストールした際に自動ででき上がるフォルダとなっている。
📷 バウンス自体はPro Toolsの画面に沿って行う。
バウンスが終わるとプレビューの調整画面が表示される。ここではどのLEVEL(0.5、1、2、3)で書き出すかを選ぶ。LEVELはMP4を作る際のクオリティに値するものだ。LEVEL2以上でオブジェクトを"スタティック"と”ダイナミック”の選択が可能となっている。独立して聴かせたいVocalなどのメインソースは"ダイナミック"を選択、また動きのあるものも"ダイナミック"を選択することが多いそうだ。ここの設定によってもまた楽曲の聴こえ方が変わるのでここも慎重に行う。すべての設定が行なえたら『OK』を押して書き出しは完了、その後、こちらのデータを使用してエンコードを行いMP4を生成する。
📷 オブジェクトのダイナミック、スタティックの選択が行える。
📷 バウンスを終えるとレベルごとにフォルダ分けされて格納される。
●6:エンコード
現状でのエンコードは360RACSとは別のアプリケーションを使用して行なっている。こちらのアプリケーションについてはとてもシンプルで、ドラック&ドロップしたデータを変換するのみだ。変換が完了したらデコーダーを使用して、生成されたMP4のチェックを行う。
ここまで細かく360 Realty Audio制作の手法をご紹介させていただいた。ステレオミックスと違い、上下の音の配置をパンニングで行えることが360 Realty Audioの大きな利点なのだが、配置しただけでは聴かせたい音質にならないことが多いのだそうだ。ステレオではマスキングを起こして聴こえなくなってしまう部分があり、それを回避しながらうまくステレオという空間に音を詰め込んでいくスキルが必要だったわけだが、360 Reality Audioは360度どこにでも音を配置できてしまう。言い換えれば、マスキングが起きづらい360 Reality AudioやDolby Atmosでは、より一個一個の音のクオリティが楽曲自体のクオリティを大きく左右することにつながるわけだ。
また、クライアントから渡される素材がステムではなくパラデータだった場合、単体での音作りというところが大きなポイントとなるということだ。その部分をスタジオ顧問の吉田保氏ほか、各所エンジニアの手に委ねるなどの工夫をされている点は大きなポイントのように感じた。そして、360RAパンニング後に「聴かせたい場所で聴かせたい音質」とするための音作りをする点も重要なポイントだ。音の存在感を出すためにサチュレーションを使ったり、EQを再度調整したりさまざまな工夫が施される。
こうしてサウンドは整えられていくが、音を配置しただけでOKということではなく、ReverbやDelayを駆使して360度に広がる「空間」を作ることがとても重要になる。ライブ収録などでは実際に様々なところにマイクを立て360度空間を作ることが可能だが、レコーディング済みの過去作品や打ち込みの作品では新たに360度空間を人工的に作る必要がある。マルチチャンネルで使用できる音楽的なReverbの必要性を感じているというお話も伺えた。制作者側の悩みなどはDolby Atmosの制作と共通する部分も多く、それに呼応するような360度空間制作のためのツールも今後ブラッシュアップされていくのではないだろうか。
Dolby Atmosとともに空間オーディオの将来を担うであろう360 Realty Audio。この二つのフォーマットが両輪となり、空間オーディオはさらに世の中へ浸透していくことになるだろう。360RAは下の方向がある分Dolby Atmosに比べてもさらに自由度が高いため、よりクリエイティブな作品が生まれそうな予感もする。また、ヘッドフォンでの試聴は、スピーカーが鳴っているのではないかと思わず周りを見回してしまうほどの聴こえ方だった。コンシューマにおけるリスナーの視聴環境はヘッドフォン、イヤフォンが中心となるのが現状だろう。その精度が上がっていくとともにコンテンツが充実することによって、今よりリスナーの感動が増すのは間違いない。広く一般的にもステレオの次のフォーマットとして、空間オーディオに対するリスナーの意識が変わっていくことに大きな期待を寄せたい。
株式会社ラダ・プロダクション
山麓丸スタジオ事業部
プロデューサー
Chester Beatty 氏
株式会社ラダ・プロダクション
山麓丸スタジオ事業部
チーフ・エンジニア
當麻 拓美氏
*ProceedMagazine2021-22号より転載
Music
2022/02/04
株式会社 SureBiz様 / 〜Dolby Atmos、技術革新に伴って音楽表現が進化する 〜
2021年6月、Appleが空間オーディオの配信をスタートした。そのフォーマットとして採用されているはご存知の通りでDolby Atmosである。以前より、Dolby Atmos Musicというものはもちろん存在していたが、この空間オーディオの配信開始というニュースを皮切りにDolby Atmosへの注目度は一気に高まった。弊社でもシステム導入や制作についてのご相談なども急増したように感じられる。今回はこの状況下でDolby Atmos制作環境を2021年9月に導入された株式会社 SureBizを訪問しお話を伺った。
需要が高まるDolby Atmos環境を
SureBizは楽曲制作をワンストップで請け負うことにできる音楽制作会社。複数の作家、エンジニアが所属しており、作曲、編曲、レコーディング、ミキシング、マスタリングをすべて行えるのが特長だ。都心からもほど近い洗足池にCrystal Soundと銘打たれたスタジオを所有し、そのスタジオで制作からミキシング、マスタリングまで対応している。今回はそのCrystal SoundへDolby Atmos Mixingが行えるシステムが導入された。2020年の後半よりDolby Atmosでのミキシングがどのようなものか検討を進めていたそうだが、Appleの空間オーディオがスタートしたことでDolby Atmosによるミックスの依頼が増えたこと、さらなる普及が予測されることからシステム導入を決断されたという。
我々でも各制作会社のお客様からDolby Atmosに対してのお問合せを多くいただいている状況ではあるが、現状ではヘッドフォンなどで作業したものを、Dolby Atmos環境のあるMAスタジオ等で仕上げるというようなワークフローが多いようだ。その中で、SureBizのような楽曲制作を行っている会社のスタジオにDolby Atmos環境が導入されるということは、制作スキームを一歩前進させる大きく意味のあることではないだろうか。
📷 洗足池駅近くにある"Crystal Sound"。制作、レコーディング、ミキシング、マスタリングと楽曲制作に必要工程がすべてできるようになったスタジオだ。メインモニターはmusikelectronic / RL901K、サブモニターにAmphion / One18。Atmos用モニターにGENELEC / 8330APとなっている。
サウンドとデザインを調和する配置プラン
まず、既存のスタジオへDolby Atmosのシステムを導入する際にネックになるのは天井スピーカーの設置だろう。Crystal Soundは天井高2500mmとそこまで高くはない。そこで、できるだけハイトスピーカーとの距離を取りつつ、Dolbyが出している認証範囲内に収まるようにスピーカーの位置を指定させていただいた。L,C,Rまでの距離は130cm、サイドとリアのスピーカーは175cmにスタンド立てで設置されている。スタジオ施工についてはジーハ防音設計株式会社によるものだ。その際に課題となったのがスタジオのデザインを損なわずにスピーカーを設置できるようにすること。打ち合わせを重ねて、デザイン、コストも考慮し、天井に板のラインを2本作り、そこにスピーカーを設置できるようにして全体のデザインバランスを調和させている。電源ボックス、通線用モールなど黒に統一し、できるだけその存在が意識されないように工夫されている。
📷 紫の矢印の先が平面の7ch。青い矢印の先が天井スピーカーとなっている。これを基にジーハ防音設計株式会社様にて天井板、電源ボックス、配線ルートを施工いただいた。
Redシリーズ、GENELECの組み合わせ
Dolby Atmos Musicの制作ではDAWとRendererを同一Mac内で立ち上げて制作することも可能だ。ただし、そのような形にするとCPUの負荷が重くマシンスペックを必要とする。本スタジオのエンジニアであるmurozo氏は普段からMacBook Proを持ち歩き作業されており、そこにRendererを入れて作業することはできなくはないのだが、やはり動作的に限界を感じていた。そのためCrystal Soundにシステムを導入されるにあたっては、そのCPU負荷を分散するべくRendererは別のMacにて動作させるようシステム設計をした。Renderer側はFocusrite REDNET PCIeR、Red 16LineをI/Oとしている。
RendererのI/OセットアップではREDNET PCIeRがInput、Red 16Line がOutputに指定される。Pro Toolsが立ち上がるMacBook ProのI/OにはDigiface Danteを選択している。Pro Tools 2021.7からNativeでのI/O数が64chに拡張されたので、このシステムでは64chのMixingができるシステムとなる。ちなみに、Pro Tools側をHDX2、MTRXを導入することにより128chのフルスペックまで対応することも可能だが、この仕様はコスト的に見てもハードルが高い。今回の64ch仕様は導入コストを抑えつつ要件を満たした形として、これからの導入を検討するユーザーには是非お勧めしたいプランだ。
📷 CPU処理を分散するため、Pro ToolsのミキシングマシンとDolby Atmos Rendererマシンを分離。Danteを使用したシステムを構築している。64chのDolby Atmosミキシングが可能な環境となっている。Pro Tools 側のハードウェアのアップグレードにより128chのシステムも構築可能だ。
モニターコントロールにはREDNET R1とRed 16Lineの組み合わせを採用している。これがまた優秀だ。SourceとしてRendererから7.1.4ch、Apple TVでの空間オーディオ作品試聴用の7.1.4chを切り替えながら作業ができるようになっている。また、Rendererからバイノーラル変換された信号をHP OUTに送っているため、ヘッドフォンを着ければすぐにバイノーラルのチェックもできる。スピーカーについてはGENELEC 8330APと7360Aが使われており、補正についてはGLMでの補正にて調整している。マルチチャンネルを行う際は補正をどこで行うか、というポイントが課題になるが、GLMはやはりコストパフォーマンスに優れている。今回のFocusrite Redシリーズ、GENELECの組み合わせはDolby Atmos導入を検討されている方にベストマッチとも言える組み合わせと言えるだろう。
📷 左は机下のラック。左列下部に今回導入いただいたRed 16Line(オーディオインターフェース)、SR6015(AVアンプ)、SWR2100P-5G(Danteスイッチ)が確認できる。ラックトレイを使用して、AppleTV、Digiface Danteもこの中に収まっている。右はGENELEC /8330AP。天井スピーカーであっても音の繋がりを重視し平面のスピーカーからサイズを落とさなかった。
Dolby Atmos環境で聴こえてくる発見
実際にDolby Atmosシステムを導入されてからの様子についてどのような印象を持っているかも伺ってみたところ、Apple TVで空間オーディオ作品を聴きながら、REDNET R1で各スピーカーをSoloにしてみて、その定位にどんな音が入っているかなどを研究できるのが便利だというコメントをいただいた。空間オーディオによって音楽の新しい世界がスタートしたわけだが、スタートしたばかりだからこそ様々なクオリティの音源があるという。システムを導入したことにより、スピーカーでDolby Atmos作品を聴く機会が増え、その中での発見も多くあるようだ。ステレオミックスとは異なり、セオリーがまだ固まっていない世界なので、Mixigを重ねるごとに新しい発見や自身の成長を確認できることがすごく楽しいと語ってくれた。その一例となるが、2MixのステムからDolby Atmos Mixをする際は、EQやサチュレーションなどの音作りをした上で配置しないと迫力のあるサウンドにならないなど、数多くの作品に触れて作業を重ねることで、そのノウハウも蓄積されてきているとのことだ。
📷 Dolby Atmos用のモニターコントロールで使用されているREDNET R1、各スピーカーのSolo機能は作品研究に重宝しているとのことだ。Source1にRendererのプレイバックの7.1.4ch。Source2にAppleTVで再生される空間オーディオに試聴の7.1.4chがアサインされている。制作時も聴き比べながら作業が可能だ。
技術革新に伴って音楽表現が進化する
最後に今後の展望をmurozo氏に伺ってみた。現状、Dolby Atmos Mixingによる音楽制作は黎明期にあり、前述のようにApple Musicの空間オーディオでジャンル問わずにリリース曲のチェックを行うと、どの方法論が正しいのか確信が持てないほどの多様さがあり、まだ世界中で戸惑っているエンジニアも多いのではないか、という。その一方で、技術革新に伴って音楽表現が進化することは歴史上明らかなので、Dolby Atmosをはじめとする立体音響技術を活かした表現がこれから益々の進化を遂げることは間違いないとも感じているそうだ。「そんな新しい時代の始まりに少しでも貢献できるように、またアーティストやプロデューサーのニーズに応じて的確なアプローチを提供できるように日々Dolby Atmosの研究を重ね、より多くのリリースに関わっていければと考えています。」と力強いコメントをいただいた。
📷 株式会社SureBiz murozo氏
今後さらなる普及が期待されるDolby Atmos。世界が同じスタートラインに立った状況で、どのような作品が今後出てくるのか。ワールドワイドで拡がるムーブメントの中で、いち早くシステムを導入し研鑽を積み重ねているSureBiz / Crystal Soundからも新たな表現のセオリーやノウハウが数多く見出されていくはずである。そしてそこからどのようなサウンドが生まれてくるのか、進化した音楽表現の登場に期待していきたい。
*ProceedMagazine2021-22号より転載
https://pro.miroc.co.jp/headline/avid-creative-summit-2021-online/#.YfzvmvXP3OQ
Music
2021/07/21
Chimpanzee Studio 様 / 〜コンパクトスタジオのスタイルを広げるDolby Atmos〜
本職はプロのミュージシャン。ドラマーを生業としつつ、スタジオの経営を鹿児島で行う大久保氏。そのスタジオにDolby Atmosの制作システムを導入させていただいたので詳細をお伝えしたい。かなり幅広い作品の録音に携わりつつも、自身もミュージシャンとしてステージに立つ大久保氏。どのようにしてスタジオ運営を始め、そしてDolby Atmosに出会ったのだろうか?まずは、スタジオ開設までのお話からお伺いした。
90年代のロスで積み重ねた感覚
それではスタジオ開設に至る経緯をたどってみたい。鹿児島出身である大久保氏は学生時代より楽器を始め、広島の大学に進学。その頃より本格的に音楽活動を始めていたということだ。普通であれば、学生時代に特にミュージシャンとしての道を見出した多くの場合は、ライブハウスの数、レコーディングセッションの数など仕事が多くある東京、大阪、福岡といった大都市をベースに活動を本格化させるのが一般的である。しかし大久保氏は日本を飛び出し、全てにおいて規模が大きく好きな音楽がたくさん生まれたロサンジェルスの地へと一気に飛び立った。ロサンジェルスは、ハリウッドを始めとしたエンターテイメント産業の中心地。大規模なプロジェクト、本場のエンターテイメントに触れることとなる。なぜ、アメリカ、そしてロサンジェルスを選んだのか?その答えは文化の違いとのことだ。アメリカには町ごとに音楽がある。ロス、ニューヨーク、シアトル、アトランタ、それぞれの街にそれぞれの音楽がある。そんな多様性、幅の広さが魅力だという。
Chimpanzee Studio(チンパンジースタジオ)
大久保 重樹 氏
ロスに移住してからは、ミュージシャンとして活躍をする傍ら、住んでいた近くにあったレコーディングスタジオのブッキングマネージメント、日本からのミュージシャンのコンサルなどを行ったということだ。時代は1990年代、まだまだ日本のアーティストたちもこぞってアメリカまでレコーディングに出かけていた時代。そこで、自身もミュージシャンで参加したり、スタジオ・コーディネイトを行ったりと忙しい日々を過ごしていたそうで、ロスでも老舗のSunset Soundやバーニー・グランドマンにも頻繁に通っていたというからその活躍がいかに本格的なものであったかが伺える。
そんな環境下で、スタジオによく出入りをし、実際にレコーディングを数多く経験するうちに、録音というものに興味が湧いてきたということだ。まずは、自身のドラムの音を理想に近づけたい、どうしたらより良いサウンドへと変わるのか?そういったことに興味を持った。そして、今でも現役として使っているBrent Averillのマイクプリを入手することになる。今では名前が変わりBAE Audioとなっているが、当時はまさに自宅の一角に作業場を設け、手作業で一台ずつ製品を作っていた文字通りガレージメーカーだった時代。創業者の名前をそのままにメーカー名をBrent Averillとしていたのも、自身の名前をフロントパネルにサイン代わりにプリントした程度、というなんとものどかな時代である。
大久保氏は、実際にBrent氏の自宅(本社?)へ出向き今でもメインで活用しているMic Preを購入したそうだ。そのエピソードも非常に面白いものなので少し紹介したい。Brentさんの自宅は大久保氏とは近所だったというのも訪問したきっかけだった。そしてそこで対応してもらったのが、なんと現Chandler Limitedの創業者であるWade Goeke氏。その後、世界を代表するアウトボードメーカーを立ち上げることとなるGoeke氏の下積み時代に出会っているというのは、ロサンジェルスという街の懐の深さを感じさせるエピソードだ。
📷Pro ToolsのI/O関連とMicPreは正面デスクの右側に設置。上のラックにはDirectout ANDIAMO、AVID MTRX。下のラックには、DBX 160A、Brent Avirill NEVE 1272、Drawmer 1960が入っている。
ネットの可能性を汲み取った1997年、鹿児島へ
そんなロスでの生活は1990年に始まったそうだが、時代はインターネットが普及への黎明期を迎えていた時期でもある。ロスと日本の通信は国際電話もあったが、すでにEメールが活用され始めていたということ。必然性、仕事のためのツールとしてインターネットにいち早く触れた大久保氏は「これさえあれば世界のどこでも仕事ができる」と感じた。アーティストならではなのだろうか?いち早くその技術の持つ可能性を感じ取り、活用方法を思いつく。感性と一言で言ってしまえば容易いが、人よりも一歩先をゆく感覚を信じ、鹿児島へと居を移すこととなる。ロスで知り合ったいろいろな方とのコネクション、人脈はインターネットがあればつながっていられる。それを信じて帰国の際に地元である鹿児島へと戻ったのである。帰国したのが1997年、日本ではこれからインターネットが本格的に普及しようかというタイミングである。その感性の高さには驚かされる。
鹿児島に帰ってからは、マンションでヤマハのアビテックスで防音した部屋を作りDAWを導入したということだ。最初はDigital PerfomerにADATという当時主流であったシステム。もちろんミュージシャンが本職なので、最初はエンジニアというよりも自分のスキルを上げるための作業といった色合いが強かったそうだ。そのエンジニアリングも、やればやるほど奥が深くどんどんとのめり込んで行き、自身でドラムのレコーディングができるスタジオの設立を夢に描くようになる。ドラムということで防音のことを考え、少し市街地から離れた田んぼの真ん中に土地を見つけ、自宅の引っ越しとともに3年がかりで作り上げたのが、現在のチンパンジースタジオだということだ。今は周りも住宅地となっているが、引っ越した当時は本当に田んぼの真ん中だったということ。音響・防音工事は株式会社SONAに依頼をし、Pro Toolsシステムを導入した。
スタジオのオープンは2007年。オープンしてからは、国内のアーティストだけではなく、韓国のアーティストの作品を手掛けることも多いということだ。チンパンジースタジオができるまではライブハウスや練習スタジオに併設する形での簡易的な録音のできる場所しかなかったそうで、鹿児島で録音に特化したスタジオはここだけとなる。チンパンジースタジオでの録音作業は、地元のCM音楽の制作が一番多いということだ。自身がメインで演奏活動を行うJazzはやはり多くなるものの、ジャンルにこだわりはなく様々なミュージシャンの録音を行っている。
地元ゆかりのアーティストがライブで鹿児島に来た際にレコーディングを行うというケースも多いということだ。名前は挙げられないが大御所のアーティストも地元でゆっくりとしつつ、レコーディングを行うということもあるということ。また面白いのは韓国のアーティストのレコーディング。特に釜山からレコーディングに来るアーティストが多いということだ。福岡の対岸に位置する釜山は、福岡の倍以上の人口を抱える韓国第2の都市でもある。しかし、韓国も日本と同様にソウルへの1極集中が起こっており、釜山には録音のできる施設が無いのが実情の様子。そんな中、海外レコーディング先としてこのチンパンジースタジオが選ばれることが多いということだ。
📷錦江湾から望む鹿児島のシンボルとも言える桜島。チンパンジースタジオは市街から15分ほどの距離にある。
📷Proceed Magazine本誌で別途記事を掲載している鹿児島ジャズフェスティバルのステッカーがここにも、大久保氏はプレイヤーとして参加している。
省スペースDolby Atmos環境のカギ
📷内装のブラッシュアップに合わせ、レッドとブラックを基調としスタイリッシュにリフォームされたコントロールルーム。右にあるSSL XL Deskはもともと正面に設置されていたものだが、DAWでの作業が増えてきたこと、またAtmosの制作作業がメインとなることを考えPCのデスクと位置が入れ替えられている。またリフォームの際にサラウンド側の回線が壁から出るようにコンセントプレートが増設されている様子がわかる。Atmos用のスピーカーはGenelec 8020、メインのステレオスピーカーはADAM A7Xとなっている。
スタジオをオープンさせてからは、憧れであったアナログコンソールSSL XL Deskを導入したりマイクを買い集めていったりと、少しづつその環境を進化をさせていった。そして今回、大きな更新となるDolby Atmos環境の導入を迎えることとなる。Dolby Atmosを知るきっかけは、とあるお客様からDolby Atmosでの制作はできないか?という問い合わせがあったところから。それこそAtmosとは?というところから調べていき、これこそが次の時代を切り拓くものになると感じたということ。この問い合わせがあったのはまさにコロナ禍での自粛中。今まで通りの活動もできずにいたところでもあり、なにか新しいことへの試みをと考えていたこともあってAtmos導入へと踏み切ったそうだ。
当初は、部屋内にトラスを組みスピーカーを取り付けるという追加工事で行おうという簡易的なプランだったというが、やるのであればしっかりやろうということなり天井、壁面の内装工事をやり直してスピーカーを取り付けている。レギュレーションとして45度という角度を要求するDolby Atmosのスピーカー設置位置を理想のポジションへと取り付けるためには、ある程度の天井高が必要であるが、もともとの天井の高さもあり取り付けの位置に関しても理想に近い位置への設置が可能であった。取り付けについても補強を施すことで対応しているという。合わせて、壁面にも補強を行いスピーカーを取り付けている。このような設置とすることで、部屋の中にスピーカースタンドが林立することを避け、すっきりとした仕上がりになっている。また、同時にワイヤリングも壁面内部に埋め込むことで、仕上がりの美しさにもつながっている。環境構築にはパワードスピーカーを用いるケースが多いが、そうなると、天井や後方のサラウンドスピーカーの位置までオーディオ・ケーブルとともに電源も引き回さなければならない。これをきれいに仕上げるためには、やはり内装をやり直すということは効果的な方法と言える。
📷天井のスピーカーはDolby Atmosのリファレンスに沿って、開き角度(Azimuth)45度、仰角(Elevation)45度に設置されている。天井が高く余裕を持って理想の位置へ設置が行われた。
今回のDolby Atmos環境の導入に関しては、内装工事という物理的にスピーカーを取り付ける工事もあったが、システムとしてはオーディオインターフェースをMTRXへと更新し、Dolby Atmos Production Suiteを導入いただいたというシンプルな更新となっている。XL Deskを使ったアナログのシステム部分はそのままにMTRXでモニターコントロールを行うAtmos Speakerシステムを追加したような形だ。録音と従来のステレオミキシングに関しては、今まで通りSSL XL Deskをメインとしたシステムとなるが、Dolby Atmosミックスを行う際にも従来システムとの融合を図った更新が行われている。やはり今回のシステム更新においてMTRXの存在は大きく、ローコストでのDolby Atmos環境構築にはなくてはならないキーデバイスとしてシステムの中核を担っている。
📷今回更新のキーデバイスとなったAvid MTRX、持ち出しての出張レコーディングなどでも利用するため別ラックへのマウントとなっている。
📷収録時のメインコンソールとなるSSL XL Desk。プレイヤーモニターへのCueMixなどはこのミキサーの中で作られる。アナログミキサーなのでピュアにゼロレイテンシーでのモニタリングが可能だ。
📷ブースはドラム収録できる容積が与えられ、天井も高くアコースティックも考えられた設計だ。
Dolby Atmos構築のハードルを下げるには
エンドユーザーに関しては、ヘッドフォンでの視聴がメインとなるDolby Atmos Musicだが、制作段階においてスピーカーでしっかりと確認を行えることは重要だ。仕込み作業をヘッドフォンで行うことはもちろん、ヘッドフォンでのミックスを最終的にしっかりと確認することは必要なポイントではある。しかし、ヘッドフォンでの視聴となるとバイノーラルのプロセッサーを挟んだサウンドを聴くことになる。バイノーラルのプロセスでは、上下や後方といった音像定位を表現するために、周波数分布、位相といったものに手が加わることとなる。サウンドに手を加えることにより、擬似的に通常のヘッドフォン再生では再現できない位置へと音像を定位させているのだ。これは技術的にも必要悪とも言える部分であり、これを無くすことは難しい。スピーカーでの再生であればバイノーラルのプロセスを通らないサウンドを確認することができ、プロセス前のサウンドで位相や定位などがおかしくないか、といったことを確認できる。これは業務として納品物の状態を確認するという視点からも重要だと言える。
制作の流れとしては、スピーカーで仕上げ、その後にヘッドフォンでどのように聴こえるかを確認するわけだが、バイノーラルのプロセスを通っているということは、ここに個人差が生じることになる。よって、ヘッドフォンでの確認に関して絶対ということは無い。ステレオでのMIXでもどのような再生装置で再生するのかによってサウンドは変質するが、その度合がバイノーラルでは耳の形、頭の形といった個人差により更に変化が生じるということになる。ここで、何をリファレンスとすればよいのかという課題が生じ、その答え探しの模索が始まったところだと言えるだろう。バイノーラルのプロセスでは音像を定位させた位置により、音色にも変化が生じる。そういったところをスピーカーとヘッドフォンで聴き比べながら調整を進めるということになる。
制作のノウハウ的な部分に話が脱線してしまったが、スピーカーでサウンドを確認できる環境が重要であるということをご理解いただけたのではないだろうか。省スペースなDolby Atmos環境であっても、物理的に複数のスピーカーを導入するといった機材の追加は、その後に制作される作品のクオリティのために必要となる。また、システムとしてはAvid MTRXの登場が大きい。モニターコントローラーや、スピーカーチューニングなどこれまでであれば個別に必要であった様々な機器を、この一台に集約することができている。チンパンジースタジオでは、このMTRXの機能をフルに活用し、機材の更新は最低限にして、内装更新やスピーカー設置といったフィジカルな部分に予算のウェイトを置いている。前号でご紹介した弊社のリファレンスルームもしかり、そのスペースにおけるキーポイント明らかにし、そこに焦点をあてて予算を投入することで、Dolby Atmos Music制作環境の構築はそれほど高いハードルにはならないということをご理解いただきたい。
大久保氏は今回Dolby Atmosのシステムを導入するまでは、完全にステレオ・オンリーの制作を行ってきており、5.1chサラウンドのミキシング経験もなかったそうだが、今回の導入でステレオから一気にDolby Atmos 7.1.4chへとジャンプアップしている格好だ。お話をお伺いしたときには、まだまだ練習中ですと謙遜されていたが、実際にミックスもすでに行っており本格稼働が近いことも感じられる。今後はアーティストの作品はもちろん、ライブ空間の再現など様々なことにチャレンジしたいと意気込みを聞くことができた。鹿児島で導入されたDolby Atmosが、その活動に新たな扉を開いているようである。
*ProceedMagazine2021号より転載
Media
2021/05/31
音楽配信NOW!! 〜イマーシブ時代の音楽配信サービスとは〜
レコードからCDの時代を経て、音楽の聴き方や楽しみ方は日々変化を続けている。すでにパッケージメディアの販売額を配信の売上が超えて何年も経過している。最初は1曲単位での販売からスタートした配信での音楽販売が、月額固定での聴き放題に移行、その月額固定となるサブスクリプション形式での音楽配信サービスに大きな転機が訪れている。新しい音楽のフォーマットとして注目を集めるDolby Atmos Music、SONY 360 Reality Audio。これらの配信を前提としたイマーシブフォーマットの配信サービスがサブスク配信上でスタートしている。いま、何が音楽配信サービスに起こっているかをお伝えしたい。
目次
いよいよ風向きが変わってきたハイレゾ
バイノーラルという付加価値が始まっている
イマーシブは一般的なリスナーにも届く
1.いよいよ風向きが変わってきたハイレゾ
レコードからCDへとそのメディアが変わってから、音楽の最終フォーマットは44.1kHz-16bitのデジタルデータという時代がいまだに続いている。Apple Music、Spotify等のサブスクサービスも44.1kHz-16bitのデジタルデータの圧縮である。そんな現実を振り返ると、2013年頃にハイレゾ(High Resolution Audio)という言葉が一斉を風靡した際に48kHz-24bit以上(これを含む)の音源をハイレゾとするという判断は間違っていなかったとも感じる。逆に言えば、制作の現場でデフォルトとなっている48kHz-24bitというデジタルデータは、まだまだその音源を聴くユーザーの元へ届けられていないということになる。ハイレゾ音源に関しては、付加価値のある音源として1曲単位での販売がインターネット上で行われている。DVD Audioや、SACDなどハイレゾに対応したパッケージも存在はしたが、残念ながらすでに過去のものとなってしまっている。これらの音源は残念ながら一般には広く普及せず、一部の音楽愛好家の層への浸透で終わってしまった。
もちろん、その素晴らしさは誰もが認めるところではあるが、対応した再生機器が高額であったり、そもそも音源自体もCDクオリティーよりも高価に設定されていたため、手を出しにくかったりということもあった。しかし再生機器に関してはスマホが普及価格帯の製品までハイレゾ対応になり、イヤフォンやヘッドフォンもハイレゾを十分に再生できるスペックの製品が安価になってきている。
そのような中、2019年よりハイレゾ音源、96kHz-24bitの音源をサブスクサービスで提供するという動きが活発化している。国内ではAmazon Music HD、mora qualitasが2019年にサービス開始、2020年にはDeezerがスタート、海外に目を向けるとTIDAL、Qobuzがハイレゾ音源のサブスクサービスを開始している。多くのユーザーが利用するSpotifyやApple Musicよりも高額のサブスクサービスだが、ほぼすべての楽曲をロスレスのCDクオリティーで聴くことができ、その一部はハイレゾでも楽しめる。この付加価値に対してユーザーがどこまで付いてくるのか非常に注目度が高い。個人的には「一度ロスレスの音源を聴いてしまうと圧縮音声には戻りたくない」という思いになる。ハイレゾの音源であればなおのこと、その情報量の多さ、圧縮により失われたものがどれだけ多いかを思い知ることになる。あくまでも個人的な感想だが、すでにサブスクサービスにお金を支払って音楽を楽しんでいるユーザーの多くが、さらにハイクオリティーなサブスクサービスへの移行を、たとえ高価であっても検討するのではないかと考えている。
執筆時点では日本国内でのサービスが始まっていないTIDAL。Dolby Atmos、SONY 360 Reality Audio、ハイレゾすべてが聴き放題の配信サービスとなっており、ミュージシャンのJAY-Zがオーナーのサブスク配信サービスとしても有名である。Dolby Atmosを聴くためには、HiFiプランに加入してDolby Atmos対応の端末(下部製品が一例)を利用することとなる。
2.バイノーラルという付加価値が始まっている
今の音楽の楽しみ方は、スマホで再生をして、ヘッドフォンやイヤホンで楽しむ、といった形態が大部分となっている。音楽のヘビーユーザーである若年層の部屋には、ラジカセはもちろん、スピーカーの付いた製品はすでに存在していない状況にある。高価なハイレゾ対応のオーディオコンポで楽しむのではなく、手軽にどこへでも音楽を持ち出し、好きなところで好きな曲を楽しむというのがサブスクサービスの利用者ほとんどの実態ではないだろうか。
好きな音楽を少しでも高音質に楽しみたい。そんな願いを手軽に叶えてくれるのがハイレゾのサブスクサービスである。原盤が96kHz/24bitというのは、ここ数年の作品であれば存在しているものも多い。また海外からはデジタル・リマスター版として過去の名盤が多数ハイレゾフォーマットで登場している。
さらに、音楽の楽しみ方に次の時代がやってきている。Dolby Atmos MusicとSONY 360 Reality Audio(以下、Sony 360RA)という2つのフォーマット。イマーシブ(3D)の音源である。後方や天井にスピーカーを設置して聴くのではなく、バイノーラルに変換したものをヘッドフォンで楽しむ。フォーマットを作ったメーカーもそういった楽しみ方を想定し、ターゲットにして作ったものだ。そしてこれらのフォーマットは、ハイレゾサブスクサービスのさらなる付加価値として提供が始まっている。Dolby Atmos Musicであれば、Amazon Music HD、TIDAL。Sony 360RAは、Amazon Music HD、Deezer、TIDALで楽しむことができる。すべてを楽しもうというのであれば、両者とも対応のTIDALということになる。
表1 主要音楽配信サービス概要(2021年5月現在) ※画像クリックで拡大
(※1)2021年5月追記
2021年後半にはSpotifyが「Spotify HiFi」としていくつかの地域でロスレス配信に対応することを発表しました。さらには、2021年6月にはApple Musicがロスレスとハイレゾ、そして空間オーディオ(Apple製品におけるイマーシブフォーマットの呼称)への対応を発表しています。
ただし、さすがに最新のフォーマットということで少しだけ制約がある。特にDolby Atmosに関しては再生端末がDolby Atmosに対応している必要があるが、これも徐々に対応機器が増えている状況。高価なものだけではなく、Amazon Fire HDといった廉価なタブレットにも対応製品があるのでそれほどのハードルではない。Amazon Music HDでの視聴は執筆時点ではEcho Studioでの再生に限られているのでここも注意が必要だ。また、本記事中に登場するQobuz、TIDALは日本国内でのサービスは提供前の状況となる。
こちらは国内ですでにサービス提供されているAmazon Music HD。このサブスク配信サービスもDolby Atmos、SONY 360 Reality Audio、ハイレゾすべてが聴き放題。ただし、Dolby Atmos、SONY 360 Reality Audioを楽しむことができるのはAmazon Echo Studioのみという対応状況になる。
3.イマーシブは一般的なリスナーにも届く
これらのハイレゾサブスクサービスの展開により、手軽にイマーシブ音響を楽しむ土壌はできあがる。バイノーラルで音楽を楽しむということが普通になるかもしれない。もちろんハイレゾを日々聴くことの楽しみもある。ここで注目をしたいのは、ハイレゾの魅力によりハイレゾサブスクサービスを楽しみ始めたユーザーが、イマーシブも追加のコスト無しで聴けるという点だ。これまでのイマーシブは興味はあっても設備に費用がかかる、スピーカーも多数必要、設置ができない、そういったハードルを超えた先にある存在だった。それが、いま手元にあるスマホとヘッドフォンでサブスクサービスの範囲内で楽しめるということになる。映画館ですらDolby Atmosの特別料金が設定されているが、ハイレゾサブスクサービスにはそれがない。多くのユーザーがその楽しさに気づくことにより、より一層制作も加速することとなるだろう。
制作側の話にも触れておこう。Proceed Magazineでは、以前よりDolby Atmos、SONY 360RAを記事として取り上げてきている。
Dolby Atmosは、7.1.2chのBEDトラックと最大118chのObject Audioにより制作される。Dolby Atmos Musicでは、バイノーラルでの視聴が前提となるため、レンダラーに標準で備わるバイノーラルアウトを使って作業を行うこととなる。となると、最終の仕上げまでDolby Atmos Production Suiteで行えるということになる。Dolby Atmosの制作に対応したPro Tools Ultimate、NUENDOがあれば、Production Suiteの追加でDolby Atmos Musicの制作は始めることができる。
https://pro.miroc.co.jp/headline/daps-90day-trial/#.YK3ozZP7TOQ
SONY 360RAの制作ツールは執筆時点ではベータ版しか存在しない。(※2)まさに、ベータテスターのエンジニアから多くのリクエストを吸収し正式版がその登場の瞬間を待っている状況だ。360RAはベースの技術としてはAmbisonicsが使われており、完全に全天周をカバーする広い音場での制作が可能となる。すでにパンニングのオートメーションなども実装され、DAWとの連携機能も徐々にブラッシュアップされている。正式版がリリースされれば、いち早く本誌紙面でも紹介したいところだ。
(※2)2021年5月追記
360RA制作用プラグイン、360 Reality Audio Creative Suite (通称:360RACS)がリリースされました!
価格:$299
対応フォーマット:AAX、VST
対応DAW:Avid Pro Tools、Ableton Live ※いずれも2021年5月現在
https://360ra.com/ja/
さらなる詳細は次号Proceed Magazine 2021にてご紹介予定です。
←TIDALの音質選択の画面。Normal=高圧縮、High=低圧縮、HiFi=CDクオリティー、Master=ハイレゾの4種類が、対応楽曲であれば選択できる。Wifi接続時とモバイル通信時で別のクオリティー選択ができるのもユーザーに嬉しいポイント。※画像クリックで拡大
←TIDALがDolby Atmosで配信している楽曲リストの一部。最新のヒットソングから70年代のロック、Jazzなど幅広い楽曲がDolby Atmosで提供されている。対応楽曲は、楽曲名の後ろにがDolbyロゴが付いている。※画像クリックで拡大
ハイレゾサブスクサービスは、新しいユーザーへの音楽の楽しみを提供し、そのユーザーがイマーシブ、バイノーラルというさらに新しい楽しみに出会う。CDフォーマットの誕生から40年かかって、やっとデジタル・オーディオの新しいフォーマットが一般化しようとしているように感じる。CDから一旦配信サービスが主流となり、圧縮音声が普及するという回り道をしてきたが、やっと次のステップへの道筋が見えてきたと言えるのではないだろうか。これまでにも色々な試みが行われ、それが過去のものとなっていったが、ハイレゾというすでに評価を得ているフォーマットの一般化の後押しも得て、イマーシブ、バイノーラルといった新たなサウンドがユーザーにも浸透し定着していくことを願ってやまない。
https://pro.miroc.co.jp/headline/rock-on-reference-room-dolby-atmos/#.YLTeSpP7TOQ
https://pro.miroc.co.jp/solution/dolby-atmos-proceed2020/#.YLTeFJP7TOQ
https://pro.miroc.co.jp/headline/netflix-sol-levante-dolby-atmos-pro-tools-session-file-open-source/#.YLTd9ZP7TOQ
https://pro.miroc.co.jp/headline/pro-tools-carbon-proceedmagazine/#.YLTdn5P7TOQ
https://pro.miroc.co.jp/solution/mac-mini-ht-rmu/#.YLTen5P7TOQ
Music
2021/02/08
吹田市文化会館 メイシアター 様 / 〜DanteとAVBが共存するシステム〜
大阪梅田よりほど近い阪急千里線吹田駅前にある「吹田市文化会館 メイシアター」。吹田市制施行45周年を機に1985年にオープンした多目的文化施設である。正式名称は吹田市文化会館であるが、愛称であるメイシアターが広く知られている。充実した設備を備え、大中小3つのホールと、レセプションホール、展示室、練習室など様々な催しに対応できるキャパの幅広さと、コスト面でもリーズナブルに利用できることから人気を集める施設である。今回ここに音響メインコンソールとしてAvid S6Lが導入されたのでレポートしていきたい。
幅広い演目に対応する舞台環境
今回はAvid S6Lが導入された大ホール、中ホールを中心にご紹介したい。阪急吹田駅の目の前、JR吹田駅からも徒歩圏内とアクセスの良い立地、大阪梅田からは20分程度でアクセスができる利便性の高いロケーションに位置する。愛称のメイシアターの由来は、市の花である「さつき」のメイであること、また新緑あふれる「五月」を表す英語の「MAY」、さらには可能性を表わす助動詞の「May」を連想して、未来への希望を館名に託して命名されている。
大ホールはフルオーケストラにも対応する客席数1382席の多目的ホール。充実した舞台装置、そしてオーケストラピットを備えており、オペラやバレエの公演にも使用できる開口15~18m、奥行き17mの大きな舞台を備えている。音響反射板もあり、クラシックコンサートにもしっかりと対応することが可能だ。中ホールは、通常時客席数492席、舞台を取り囲むように客席を追加してアリーナ形式にすることで最大622席まで拡張することが可能。開口13~19m、奥行き10.5mという大きな舞台を備え、演劇、ミュージカル、古典芸能など様々な演目に対応する。こちらのホールも音響反射板が用意されており、ステージも十分に広いため小編成のオーケストラであれば十分に公演が可能である。ホールは照明設備も充実し常設の設備だけでほとんどの演目に対応できる。
雲が晴れた、音のピントが合った
音響反射板をおろした状態の大ホール。カラム、プロセに見える黒い長方形のものが L-Accousticのラインアレイ6/3で常設設置されている。調整室は、上手壁面が照明、下手壁面に音響がそれぞれある。
設備は1985年の開館の後、1997年~1998年に1回目の大規模な入れ替えが行われ、アナログコンソール、メインスピーカー等を更新しその約15年後デジタルコンソールYAMAHA M7CLに大・中ホールとも更新した。その後、機材の追加はあったものの大規模な改修作業は行われず、2017~2018年に満を持して大規模改修を計画し入札までこぎつけたがあいにく入札不調になり舞台機構、共用トイレのみの改修を当初計画の1年間休館して行った。改修開けの2018年6月18日に大阪北部地震が発生し震源にほど近く、吹田市も最大震度5強を観測した。メイシアターも大ホールの客席天井裏の吊り天井用鉄骨などに被害が出、大ホールの使用を中止した。震源にほど近く、最大震度5強を観測した吹田市ということもあり全館に渡り被害が出た。特に大ホールの被害が大きく、天井の鉄骨が曲がるなど大規模な改修を行わないことには、再開できない状況になってしまったということだ。
大規模な改修作業が必要となったことで2019年7月より2020年8月まで長期に渡る休館を実施。徹底的な改修が行われることとなった。改修は音響改修、ホールの椅子の交換、電源設備の更新など多岐に渡り、最新の設備を備えるホールへと生まれ変わった。音響面の変化は大きく、音響反射板の改修、座席の更新により、ホール自体の音響特性がブラッシュアップされた。具体的には、残響時間が0.4s程度長くなり、2.2s@500Hzと充実した響きを手に入れている。また、常設のプロセ、カラムスピーカーが、会館当時より使われてきた壁面内部に設置されたものから、外部に露出したL-Accoustic社製ラインアレイへと更新。どうしてもこもりがちであった音質面で大きく改善がなされた。
音量が必要な場合には、カラムの下部にグランドスタックを追加することができ、それほど音圧を求められないコンサートであれば十分に対応可能になったということだ。プロセスピーカーは昇降装置を備え、スピーカーユニットの故障等に客席レベルまで降ろすことで修理対応がしやすくなった。クラシックコンサート、オペラ、バレエなどの演目を行うホールにおいて露出型のスピーカーは敬遠される傾向が強かったが、近年ラインアレイ・スピーカーによる音質向上と、カバーエリアの拡大というメリットの方が勝り、また実際の導入例が増えてきていることもあって採用へと踏み切ったということだ。スピーカー駆動のアンプも同時に更新され、各アレイの直近に分散配置されている。コンソールからアンプまではAES/EBUでのデジタル接続で、外部からのノイズへの対策がなされている。また、各アンプラックには安定化電源装置も備えられ、音質への最大限の配慮が行われている。これらの更新により雲が晴れた、音のピントが合った、というような感想を持っていると伺うことができた。
2つのAoIPをどう活躍させるか
その1年に渡る改修作業の中で、大ホール、中ホールへ常設音響メインコンソールとしてAvid S6Lが導入されることとなった。各ホールの音響調整室に設置されたS6Lは24Fader仕様のS6L 24Dをコントロールサーフェスに、エンジンはE6L-144が採用されている。I/Oは調整室、下手袖それぞれにStage64が用意され十分な入出力を用意している。大ホール、中ホールの設備は基本的には同一の設備、設置に関しても同一のレイアウトとなっている。つまり、一つ覚えれば両方のホールでのオペレートに対応できるため、オペレートするスタッフの負担を減らすように配慮されているということだ。
システムの設計上で苦労をしたのは、従来のYAMAHAコンソールを中心にしたシステムとAvid S6Lを共存させるという点。これまではYAMAHAのコンソールを中心としたシステムでDanteを活用したシステムアップが行われており、それらの機材は更新後もそのまま残されている。客席にコンソールを仮設してのミキシングなどのためにYAMAHA QL、TFシリーズ、LS9、M7CLが準備されていることからも、これはまだまだ活躍することになるシステム。一方のAvid S6LのバックボーンはAVBを使っている。そのため、DanteとAVBという2つのAoIPがシステム内に混在することになってしまった。
もちろん、Avid S6LにはSRC付きのDante Optionカードがあるため、そこを通じて接続されているわけだが、チャンネル数が制限されるため、運用の柔軟性を確保するための設計に苦心されたということだ。AoIPの接続はメタルのEthernetケーブルを使っているが、引回し距離は最長でも80mまでに収まるようにしているとのこと。それ以上の距離になる際には、一旦Switchを用意し距離減衰によるエラーが起こらないように注意が払われているということだ。取材時はホール再開直後ということもあり、実運用はまだこれからのタイミングであったが、96kHz駆動のコンソールということもあり、クリアな音質をまず感じているということだ。
中ホールのS6Lは大ホールと共通化された設置。
中ホール舞台より客席を望む。
大規模なツアーなどで目にすることの多いAvid S6Lだが、文化会館クラスの設備ではまだまだ導入例は少ない。固定設備としての導入も、国内では珍しいというのが現実である。若い技術者に今回導入されたコンソールでAvid S6Lに触れ、さらに大きなコンサートなどでのオペレートへと羽ばたいていってほしい、このAvid S6Lの導入が大阪で活躍する技術者の刺激にもなってほしいというとの思いもお話いただいた。将来の世代にも向けた多くの意志を込めたAvid S6Lの導入、是非ともその思いが大きな結果として実を結ぶ日を楽しみにしたい。
今回取材ご協力をいただいた、公益財団法人 吹田市文化振興事業団 舞台管理課 課長代理 前川 幸豊 氏(手前左)、舞台管理課 谷尾 敏 氏(手前右)、ジャトー株式会社 サウンド社サウンドアドバンス部 エンジニアグループ 主任 松尾 茂 氏(奥左)、ROCK ON PRO 森本 憲志。
*ProceedMagazine2020-2021号より転載
Tech
2020/12/07
Eventide Generate で眠れる”カオス”を解き放て!〜Massive Pack Bundle 付属プラグイン紹介〜
Generateを含むプラグインパックをお得にゲット!ROCK ON PRO ORIGINAL MASSIVE PACK BUNDLEが発売中!!
Waves MercuryやiZotope Music Production Suiteをラインナップし、驚異的なクオリティと効率的なワークフローをかつてないValueで提供する、ROCK ON PRO ORIGINAL MASSIVE PACK BUNDLEが発売中!全44種の組み合わせで最大バリューはなんと94万円!!もちろん、この中には今回ご紹介するEVENTIDE Generateも含まれています!
およそ11年の時を経て登場した、Avid最新テクノロジーとHDX DSPチップを内蔵したオーディオインターフェースPro Tools | Carbon。兄貴分にあたるPro Tools | MTRX、MTRX Studioを加えた新世代Avidインターフェースラインナップをご検討中の方は要チェックのバンドルキャンペーンです!
数量限定のROCK ON PRO ORIGINAL MASSIVE PACK BUNDLE、詳細はこちらからご確認ください。
それでは、早速Generateを詳しく見ていきましょう!
開発はEVENTIDEから派生した気鋭のプラグインメーカー Newfangled Audio
Generateを開発したNewfangled Audioは、Eventideで15年間DSPを設計してきたDan Gillespieが創設した会社です。伝統的なデジタル信号処理技術と新たな機械学習の進歩を組み合わせることで、これまで無かった、クリエイティブかつ革新的なオーディオツールを生み出しています。
サウンドを決定づける5種類のカオティックジェネレーター Double Pendulum、Vortex、Pulsar、Discharge、Turbine
シンセサイザーで音色を作るとき、サイン波、ノコギリ波といった大元の波形を生み出すのがオシレーター部分ですが、それに該当するのがこのChaotic Generatorになります。Double Pendulum、Vortex、Pulsar、Discharge、Turbineという5種類が存在し、発音するとそれぞれの名前からイメージされるようなアルゴリズムで背景のグラフィックがぐねぐねと変化します。とにかく他人と違う、一風かわった音色を作りたい!という方にオススメです。
Double Pendulum(=二重振り子)
Vortex(=渦巻き)
Pulsar(=パルサー)
Discharge(=放電、解放)
Turbine(=タービン)
3種類のウェーブフォルダー Buchla 259、ANIMATED、FRACTAL
Generateのカオスジェネレーターは、選択したWavefolder(Buchla 259 Wavefolder、ANIMATED、またはFRACTAL)を経由し、それぞれにユニークな倍音が追加されます。その後、Don BuchlaのアイデアにインスパイアされたLow Pass Gateが続きます。これらのモジュールをお好きなようにパッチすることで、変化に富んだ個性溢れるモジュレーションがかかり、想像を超えるほどの多種多様な響きを作り出すことができます。使い方がイマイチよく分からない…という方もご安心を!著名なアーティストが手がけたものも含まれる、即戦力となる650以上のプリセット音色も保存されています。じっくりといろんな音色を聞き比べながら、曲の展開を練るのもまた、こうしたソフトシンセの一興ではないでしょうか。
ANIMATED
Music
2020/08/25
AVID BLOGにてDolby Atmos Music ミキシング体験記が公開中!
AVID BLOGにてDolby Atmos Musicのミキシング体験記が公開されています。記事を執筆したのは、カリフォルニア州ロサンゼルス近郊に音楽スタジオ"The Record House"を構えるミキシングエンジニア、Mert Ozcan氏。公式プロフィールによると、彼はバークリー音楽大学を卒業後、Abbey Road、British Grove、Capitol and Interscope Studiosといった世界的にも権威ある数々の音楽スタジオでエンジニアとしての腕を磨き、同じくエンジニア兼ミュージシャンであるBeto Vargas氏と共にThe Record Houseを立ち上げたそうです。
記事ではMert氏によるDolby Atmos Musicミキシングに関する考察がアツく語られているので、ご興味がある方は是非ともご一読してみてはいかがでしょうか?
◎こちらからチェック!
Dolby Atmos® Music のミキシング体験とAvidPlayでの配信 - AVID BLOG
http://www.avidblogs.com/ja/dolby-atmos-music-avidplay/
「まるでモノクロがカラーになったみたいだ」
「スタジオを変えたくなった」
「普通に音楽を聴くなんてもう無理です」
これらはアーティストやミュージシャンが、The Record House の新しくできたAtmosミックスルームで Dolby Atmos Music を聴いた時のいくつかのコメントです。この体験が特別なものであった事を物語っています。
上記ページより一部抜粋
◎公式サイトからはMert氏らが手がけた音楽作品も実際に試聴可能です!
The Record House 公式サイト
https://the-record-house.com/
◎また、最新号のProceed Magazine 2020ではDolby Atmosに関する基本的な知識から、Pro ToolsでDolby Atmosミキシングを始めるための最初の足掛かりまでを完全解説中!併せてチェック!
https://pro.miroc.co.jp/solution/dolby-atmos-proceed2020/
◎日本語字幕付きPro Tools 解説動画はこちら (Pro ToolsでDolby Atmos Renderを使うワークフローについても紹介されています)
https://pro.miroc.co.jp/headline/avidjapan-youtube-playlists-update-202007/
Dolby Atmosに関するお問い合わせは、下記"Contact"より、お気軽にROCK ON PROまでご連絡ください。
◎Proceed Magazine 最新号発売中! サンプルの試し読みはこちらのページから! https://pro.miroc.co.jp/headline/proceed-magazine-2020/
Music
2019/12/06
Mac mini + Pro Tools / そうだ!Mac miniで行こう!
制作現場の業界標準として導入されているMac Pro。新Mac Proの登場も迫っていますが、もう一つ改めてその存在を取り上げたいのがMac miniです。旧Mac Pro(黒)が衝撃的なフォルムで登場したのは2013年のこと、すでに6年の時間が経過し、ブラッシュアップを重ねて新モデルに移行しようとしています。その一方でMac miniも着実な進化を遂げており、現行モデルでは旧Mac Pro(黒)のスペックを勝るとも劣らない構成が可能に。Pro ToolsほかアプリケーションのMac OSへの対応も考慮すると、安定した旧OSとの組み合わせでの稼働も可能となるMac miniという選択肢は一気に現実味を帯びてきます。安定した制作環境が求められる業務の現場に新たなセレクトを、Mac miniでのシステム構築を見ていきます。
◎チェックすべき4つのポイント
1:安定した旧OSでの対応も可能な制作環境
Pro Toolsのシステム要件とされているのは、macOS 10.12.6, 10.13.6, あるいは 10.14.6 のOSを搭載したIntel® Mac。Mac miniでPro Toolsとも緊密な安定したOS環境を整えることにより万全の制作体制を構築することも可能です。
2:Avid Pro Tools 動作推奨モデル
Avidの推奨動作環境として挙げられていることもMac miniでのシステムアップにとって安心材料です。Pro Toolsシステム要件ではサポートする拡張シャーシなど環境構築に必要な情報も記載していますので、詳細は下記よりご確認ください。
<参照>Avid Knowledge Base:Pro Tools 2018 / 2019 システム要件
3:旧MacProとも劣らない充実のスペック
多彩なオプション選択で、旧Mac Proに勝るとも劣らないほどのスペックを構築。特にCPU・メモリの世代交代はパフォーマンスに大きな影響をもたらしているほか、メモリのオプション設定も旧Mac Proで最大32GBであったのに対し、64GBまで増設可と大きな魅力に。充実のスペックで制作システムのコアとして機能します。
4:導入しやすいコストとサイズ、そして拡張デバイスでの可能性
最大スペックのオプション選択でも¥389,180税込と、導入コストの優位性は見逃せません。約20cm四方・厚さ3.6cmのスクエアな筐体は省スペース性にも優れ、TB3の広帯域に対応した拡張デバイスがシステムをスマートに、そして制作の可能性を広げます。
ベンチマークで見る、いまのMac miniのポジション
◎PassMark・ベンチマークスコア比較
Mac miniのCPUは第8世代Core Processer - Coffee Lakeです。業務導入での比較対象となる旧Mac Pro(黒)は第3世代Core Processer - Ivy Bridgeを採用しています。なんと世代で言えば5世代もの進化の過程があり、単純にクロックスピードだけで比較することはできなさそうです。そこで、ベンチマークテストの結果をまとめてみました。
まず、第3世代のCore i7との比較ですが、当時のフラッグシップとなるクアッドコアのCore i7-3770K(3.5-3.9GHz)のスコアは9487、対してMac miniでオプション選択できるは第8世代 6コア Core i7-8700(3.2-4.6GHz)は15156の数値。実に1.6倍ものスコアの開きがあり、同一クロックであれば約2倍のスペックを持つと考えても良いのではないでしょうか。また、旧Mac Pro(黒)のCPUとなるXeon E5-1650v2(3.5GHz)とも比較すると、第8世代を携えたMac miniのスコアが上回るという逆転現象に行き着きます。世代間でのスペック向上は非常に大きく見逃せない結果です。
メモリに関しても、旧Mac Pro(黒)はDDR3 1866MHz ECC、Mac miniはDDR4 2666MHzとメモリ自体の世代も異なってきます。DDR3とDDR4では理論値として同一クロックでのデータの転送速度は2倍に、さらに動作クロック自体も1.5倍となっていることを考えると、実際の制作作業におけるパフォーマンスは大きく変わってきそうです。
◎Mac miniのプライスレンジを確認
Mac miniのラインナップは主に2つ、クアッドコアと6コアのCPUとなります。そのうちPro Toolsの推奨モデルとしてAvidホームページに掲載されているMac miniは「Late 2018 Mac mini 8,1 6-Core i7 'Coffee Lake' 3.2 GHz」および、「Late 2018 Mac mini 8,1 6-Core i5 'Coffee Lake' 3.0 GHz」の2機種ですが、Pro Tools|UltimateではIntel® Core i7 プロセッサーを推奨していますので、6コア 3.2GHz Core i7のCPUを選択することになります。
ここにメモリの要件「16GB RAM (32GB以上を推奨)」を考慮すると、メモリ容量違いの上記3パターンが基準となって、ストレージ、ネットワークのオプションを選択する流れです。単純比較はできませんが、旧Mac Pro(黒)の6コアベースモデルが3.5GHz、16GBメモリ、256SSDの仕様で¥328,680税込であったことを考えると、Mac miniが3.2GHz 6コア、64GBメモリ、1TB SSDでまったくの同価格という事実は見逃せないポイントです。
<参照>Avid Knowledge Base:Pro Tools 2018 / 2019 システム要件
◎Mac mini + Pro Tools|Ultimate System
・PLAN A:旧MacProに勝るとも劣らないパワフルなフルスペックバージョンで安定の制作環境を。
Mac miniの持つポテンシャルをいかんなく発揮させるのが、このフルスペックバージョン。メモリは64GB、2TBのSSDを選択したうえにビデオ関連デバイスやサーバーストレージとのネットワークも考慮して10GbEのオプションもセレクト。可能な限りのすべてを詰め込んでもこの価格帯に収まります。拡張シャーシとしては3つのSonnet Technoplogy社製品をセレクト。eGFXはTB3対応を果たしながらも低コストで導入できる1 Slotのモデル。Sonnet/Echo Express III-DとラックマウントのIII-Rは3枚のシングル幅、フルサイズのPCIeカードをサポートし、すでに導入実績も多数でHDXカードを複数枚導入するには必須です。
・PLAN B:Pro Tools | Ultimateシステム要件をクリアした、コストパフォーマンスに優れた仕様。
もう一つの選択肢は、Mac miniのコストパフォーマンスを最大限に享受してPro Tools | Ultimateシステム要件をクリアした16GBメモリの仕様。もちろんシャーシを加えたHDXシステムもあれば、HD Native TBを選択してコスト的にPro Tools | Ultimateへの最短距離を取ることもできます。また、業務用途のサブシステムとしても魅力的な価格ゾーンにあり、マシンの将来的な転用も念頭に置けば有効的なセレクトと言えそうです。ちなみに、32GBへの増設は+¥44,000(税別)、64GBへは¥88,000(税別)となっており、実際の制作内容と照らし合わせて選択の落としどころを見つけたいところ。
・ADD ON:HDXシステムはもちろん、RAID構築から4Kを見据えた導入まで拡がる可能性。
Avid HDX/HD NativeでPro Tools | Ultimateシステムを導入することもさることながら、元々のMac miniの拡張性を活かしたRAIDの構築や、外付けのグラフィックアクセラレーターも視野に入ります。Thunderbolt3の一方をシャーシ経由でHDXに、もう一方をeGPU PROに、さらに10GbE経由でNEXISなどサーバーストレージになど、制作システムのコアとしての活用も見えてきます。
◎その実力は、いままさに最適な選択に!
コストやそのサイズ感だけではもうありません。Mac miniは長らくエントリーモデルとしての位置付けであったかもしれませんが、実は必要な機能だけを絞り込んで余計なものは排除した、業務的で実務を見据えたマシンというイメージに変容してきています。さらに最近のニュースでは、Mac OSに対応したDolby AtmosのHT-RMU(HomeTheateer-Rendering and Mastering Unit)もソフトウェアVer.3.2からMac miniでの構築が従来の半分のコストで可能となっており、その活用の幅も広がっています。また、拡張デバイスはさまざまな3rd Partyから提案されていて、その組み合わせも実に多彩。ブレーンにあたる部分をMac miniに請け負わせるシステム構築はスペックも見返すと理にかなっている内容といえそうです。Mac miniを用いた最適な選択で安定の制作環境を。ぜひともご準備ください!
Music
2019/03/26
既存Pro Tools | HDX システムを96kHzライブRec.システムにリーズナブルにグレードアップ〜DiGiGrid MGB/MGO + DLI
プラグインメーカー最大手のひとつであるWAVES社とデジタルコンソールの雄DiGiCo社によって開発されたDiGiGrid製品を活用することで、近年主流となりつつある96kHzでのライブコンサートをマルチチャンネルでPro Tools | HDX システムに接続することが可能になります。
コンパクトな筐体に2系統のMADI入出力ポートを備えたMGB/MGO、2系統のDigiLinkポートを備えたわずか1UのDLIを導入するだけで、既にお持ちのHDXカード1枚につき64ch(48kHz/96kHz)のMADI信号をPro Toolsとの間でやり取りすることが可能です。また、既存のDigiLink対応MADIインターフェイスと比較して、導入費用の面でも大きな魅力を備えています。
◎主な特徴
・ 既存のPro Tools | HDX システムはそのままに、MADI I/O 機能を追加可能
・ HDXカード1枚に対して64ch のMADI信号をPro Toolsとやり取り可能
・ 96kHz時にも64ch分のMADI伝送が可能
・ 1Gbpsネットワークスイッチを導入することで、手軽にバックアップRec機能を追加
・ ネットワークオーディオの利点である柔軟な拡張性と冗長性
◎システム構成例1
システムはMADIとSoundGridのインターフェイスであるMGB/MGO + DigiLinkとSoundGridのインターフェイスであるDLIから成っています。MGB/MGOは単独でPCのネットワーク端子に接続して入出力させることも可能です。また、MGB/MGOは2ポートのMADI端子を搭載しているため、2つのMADIポートを使用して96kHz時でもPro Tools | HDXシステムとの間で最大64Chの入出力が行えます。ライブレコーディングだけでなく、バーチャルリハーサルにも活用可能なシステムを構築可能です。
◎システム構成例2
ネットワークオーディオ・デバイスであるDiGiGrid導入の最大の利点は、1Gbpsネットワークスイッチと併用することで柔軟性の高い拡張性とリダンダシーを手軽に追加することが可能な点です。画像の例では既存PCを流用することでバックアップ用のDAWを追加しています。無償でダウンロードできるWaves社のTracksLiveを使用すれば、ネイティブ環境で合計128chまでのレコーディングとバーチャル・リハーサルのためのプレイバックが可能なシステムを手軽に構築可能です。
ネットワークを活用してさらなる拡張性と機能性を追加可能
また、このようにDLIを導入したシステムでは、様々なSoundGrid対応インターフェイスをPro Tools HDXシステムに追加することが可能です。モニタリング用のインターフェイスを追加して、収録時の検聴やインプットの追加、ADATやAES/EBU機器へのデジタル入出力、Ethernetケーブルを使用するネットワーク接続を生かし、長距離でも自由なI/Oの構築がフレキシブルに行えます。
また、SoundGrid 対応Serverを追加することで、対応プラグインを外部プロセッサーで動作させることができます。レコーディング時にWavesやSonnoxなどのプラグインのかけ録りを行う、低レイテンシーでプラグインをかけて送出するなど、コンピューターのCPUに負担をかけずにプラグインをかけられるDiGiGridシステムは失敗の許されないライブコンサートの現場に相応しいソリューションと言えるのではないでしょうか。
Music
2018/06/14
Focusrite Red/RedNetシリーズ ~Danteネットワークによる最新レコーディング環境
Ethernetケーブルによるビデオ/オーディオの伝送に関する規格統一を図ったSMPTE ST2110の制定により、にわかに注目度の上がるAoIP(Audio over IP、ネットワークオーディオ)。そうした動きに応えるように、新製品にDanteコネクションが搭載されている例や、Dante拡張カードのリリースなどのニュースを多く目にするようになりました。
Focusrite Redシリーズ / RedNetシリーズはDanteに標準対応するインターフェイスをラインナップ、必要な規模に応じた柔軟なセットアップと高い拡張性を提供します。Pro Tools HDXやMADIにも対応し、既存システムとの統合にも対応。イーサーネットケーブルで完結するシンプルなセットアップ、信頼度の高いオーディオ伝送、ネットワーク形成による自由なルーティングなど、Danteの持つ利点を最大限に享受することが可能です。
◎主な特徴
・柔軟で拡張性の高いシステム設計
・ネットワーク内であれば完全に自由なルーティング
・Pro Tools | UltimateやMADIなどの既存システムとの統合性の高さ
◎システム構成例1
RedNetシリーズによるレコーディング用途のスタジオセットアップ例。豊富なI/Fにより音声信号の入り口から出口までをDanteによって完結することが可能。Pro Tools | HDXシステムとの統合により、既存のワークフローを最大限維持したまま、Danteによる利点を導入します。システムの中心にコンソールがない環境でも、マイクプリ、キュー/トークバック、モニターコントロールといった業務に欠かせない機能を手元からコントロールすることが出来ます。
◎システム構成例2
コンパクトなDanteシステムに、WAVESプロセッシングを追加した例です。1Uの筐体に8IN/10OUTアナログ(マイクプリ4機を含む)、16x16デジタル、32x32Danteという豊富なI/Oを備えたRed4PreはDigiLinkポートも標準搭載。WGS Bridge for DanteがDanteネットワークとSoundGridネットワークをシームレスに統合。システムにニアゼロ・レイテンシーのWAVESプロセッシングを追加します。
Music
2018/06/12
Pro Tools | S3+Pro Tools | Dock ~Mixをフィジカルにコントロールするプロフェッショナルシステム~
Avid製ライブコンソールS3Lのために開発された堅牢性とスムースな操作性を兼ね備えた16フェーダーのコントロールサーフェスPro Tools | S3。Pro Tools | S6で培われたノウハウを詰め込んだPro Tools | Dock。コンパクトでありながらミックスをパワフルにコントロールするこの組み合わせがあれば、大型コンソールに匹敵するほど効率よくミックス作業を行うことが可能になります。
主な特徴
・上位モデルならではの堅牢でスムースな16フェーダー、豊富なノブ/スイッチ、タッチストリップなどにより、プロジェクトを素早く俯瞰、コントロールを容易にします。(Pro Tools | S3)
・4in/6outのCore Audioインターフェースとして動作(Macのみ)。2つのXLR(Mic/Line)、2つのTRS(Line)インプットも兼ね備え、ボーカルやギターを急遽追加しなければならないような時にも素早く対応が可能。(Pro Tools | S3)
・Pro Tools | Control appをインストールしたiPadとともに使用することで、Pro Tools | S6のセンターセクションに匹敵するコントロールを実現。(Pro Tools | Dock)
・iPadによるタッチスクリーンと高品位なハードウェアにより、スピードと操作性を両立。(Pro Tools | Dock)
システム構成
iPadはWiFi圏内にあればPro Tools | Control appからPro Toolsをコントロールすることが出来ます。iPadを持ってブースへ入り、ブースからレコーディングを開始/停止するなどの操作が可能。LANポートを備えたWiFiルーターを導入することで、S3、Dock、コンピューターのネットワークとiPadの安定運用を同時に実現する組み合わせがお勧めです。ご要望に合わせたiPad、WiFiルーターのモデルをお見積もりいたします。
Music
2017/11/14
佐藤直紀邸ワークスペース
スタジオ感を徹底排除したワークスペース、総計12台のMacが連携したリアルタイム演奏システム、そしてその華麗なる融合。今回は2年の月日をかけて遂に完成した佐藤直紀氏のワークスペースを取材。佐藤直紀氏本人、そして住友林業株式会社と共に施工を請け負ったSONAプロジェクトマネージャー萩原氏両名によるスペシャルインタビューをお届けする。
佐藤 直紀 氏
1970年5月2日生まれ、千葉県出身。
1993年、東京音楽大学作曲科映画放送音楽コースを卒業後、映画、TVドラマ、CMなど、様々な音楽分野で幅広く活躍する。第29回日本アカデミー賞最優秀音楽賞受賞、第31回、38回、40回日本アカデミー賞優秀音楽賞受賞。
萩原 一哉 氏
(株)ソナ 統括管理グループ プロジェクトマネージャー
稲葉建設(株) 建築音響グループ 統括マネージャー
常にお客様の立場に立って、様々なご要望に沿ったご提案ができるよう日々精進しています。趣味は、ギタープレーとバンド活動。自身のバンドで彼方此方ライブ活動
◎部屋の空気をスタジオに近づけない
Rock:この度は完成おめでとうございます。最初に設計当初の目的から伺っても良いでしょうか?
佐藤:そうですね、まず私からは『スタジオにしたくなかった』ということです。これだけの広さがあって予算があればスタジオを作ることも可能でしたが、仕事場=スタジオとなると居心地が良い場所ではない。あくまで私の仕事は曲を書くことですので一番大事なのは仕事をしやすいリラックスできる環境でした。そのため『スタジオをつくらない』、『スタジオっぽい内装を避けたい』という点がポイントでしたね。
萩原:そうですね、その点が前提でしたので、一般的なものを極力使わず、かつ機能的な部分とバランスを保つことがポイントでした。住友林業のデザイナーさんに、どこに音響的な材料を使うべきかをお伝えし、外観が所謂スタジオのようにならないよう留意しました。
佐藤:音響的観点であれば当然窓がない方がいいのですが、窓がない家は日常的な空間ではなく、ストレスも溜まります。私の本音をいえば防音すらもしたくなくて、外から鳥の声や近所の子供の声が聞こえる方がベストなのです。しかし仕事場として24時間使用しなければいけない状況もありますから、今回は自分の部屋にいる感覚で仕事をできるようお願いいたしました。
萩原:防音の部分では佐藤さんの作業環境について事前に詳細を把握、相談の上、一般的なスタジオにあるような防音設備を取り入れてはいません。佐藤さんがお仕事をされても近隣に迷惑がかからない程度の仕様になっています。
Rock:内装やインテリアも素敵ですが、このデザインの希望はどのような経緯で決まったのでしょう?
萩原:インテリアについては、住友林業のデザイナーさんに全てを一任しています。SONAは音響的観点だけをお伝えして、それに見合った材料をお伝えしたのみです。あとはどこにその材料を使うかですが、例えば布が貼ってある壁や、天井の掘り上げた黒い部分、コンソールの正面の大型テレビ部分などに対して吸音措置を行い、部屋全体的には吸音をしすぎず『部屋の空気の雰囲気をスタジオに近づけない』いわばリビングっぽい響きになっていますね。
Rock:なるほど、中でも椅子や作業机などのデザインはこだわりを感じますね。
佐藤:これは私や萩原さんのこだわりではなく住友林業のインテリアデザイナーさんのこだわりです。ここの部屋の雰囲気のセンスやデザインは住友林業さん結構楽しんでやってもらいました。私は先ほどのコンセプトだけを話して、あとは『いい部屋を作ってくださいね』とだけお伝えしました。私のこだわりというわけではない、というと気に入ってないみたいですが、とても気に入っていますよ(笑)
萩原:最初に住友林業の建築士の方と話された際、建築士さんからいくつかパターンを提出しますか?と聞かれ、佐藤さんが『あなたが思っている一番をください』と言われたのが印象的でしたね。あれが忘れられないですね。その集大成がここです。
佐藤:もちろん途中少し遊んでもらった部分もありますよ(笑)。例えばこの線がまっすぐだったのを斜めにしました。
萩原:そう! 床のラインと天井のラインがあってないですよね。
佐藤:遊び心がありますね。
萩原:音響的観点から考えるとどうしてもシンメトリーにしたいと考えてしまいますが、そういう観点を持たない方が作るとこうなるのだなと感心しました。
佐藤:この斜めのラインには意味があって、実は外壁に対しては垂直なのですよ。斜めの箱の中に違う箱が入っている計算されたイメージなのです。
Rock:なるほど、家としてみたら幾何学的な模様なのですね!
佐藤:もちろんそんなことスタジオの中に入ったらわかりませんけどね(笑) でも物を作るこだわりってそういうことなのだと思っています。基本的に建築設計と曲を書くことは似ている部分があると思っていて、何パターンを作っても本人の中で良いものは一つなのだと思います。それをまず出してもらうことが良いものができる秘訣だと考えています。
◎空間と機能の両立
Rock:ベストと思ったイメージを具現化したわけですね! 具体的に防音遮音というカテゴリについては、SONAさんと住友林業さんとの作業分岐のポイントはどこだったのでしょう?
萩原:まず当初は防音工事の作業の仕方を住友林業さんに理解してもらわなければなりませんでした。ただ厚く重たい素材を貼れば防音になると思われがちですが、床や天井についてなぜこのような作業が必要かを説明し、先方から図面をいただいて、すり合わせのやり取りが度々発生しましたね。例えば空調も家庭用エアコンではなく、機械は部屋の外置きかつ機械本体の騒音が聞こえないようにするダクトの処理など、一般の建設会社では施工できません。空調機械自体は住友林業さんで設置しましたが、それら以降のダクト工事などは弊社で行わせていただきました。
Rock:となると今回のSONAさんとしてのクリアすべきラインはどの辺りだったのでしょう?
萩原:空調もそうですし、佐藤さんがお使いの機材に関わる電源のことなどですね。スタジオっぽくないとは言いつつも業務上必要です。ノイズカット機能や無停電の機能があるトランス、あとはマシンルームから各機材への配線方法などです。いかにスタジオっぽく見えないような方法、でも実際はスタジオっぽいことを行う、そのアイデアを出す作業を今回行わせていただきました。
佐藤:萩原さんにとってそこは一番大変でしたよね。私も住友さんも『スタジオっぽくしたくない』と言いながら、スタジオとしての機能はなければいけない部屋です。両立の部分で最も苦労されたと思います。音の響きよりも『ここに石を使いたい』などインテリア的な要望とのバランスはご苦労されたと思います。
萩原:作業場は見ての通りモニター画面もたくさん並んでいますが、スタジオっぽくなくデザインできたと思います。例えば防音ドアもスタジオと考えるならよくあるガチャっと開くハンドル式の重量ドアになりますが、今回は防音ドアのパッキン部分をマグネットにすることで、冷蔵庫方式でのように密閉する特殊なドアを使っています。スタジオドアのように締め付けなくて良いのです。これは作るのが大変で非常にシビアな製作工程がありますので、苦労したのはそういう部分ですね。
Rock:確かにドア一つで印象が大きく変わりますね。メインデスク周辺の機材配置などワークフロー上はどのような意味がありますでしょうか?
佐藤:私が中央に座って、素早く各PC前に行けること、中央席からでも見やすいことですね。
萩原:正面の机は調整設計に時間をかけましたね。メインデスクの構成は作家さんのスタイルで鍵盤優先か、PC優先かで変わります。佐藤さんの場合は作譜作業がメインですから、鍵盤の位置が通常より高いのです。
佐藤:私の場合は譜面を書くということが一番長い作業なので、メインとする配置を作っていただきました。
◎あくまでワークスペースであること
Rock:メインデスク周りはハードウェア音源などがありませんが、PC環境ベースへの移行はいつ頃ですか?
佐藤:ソフトシンセに移行した段階からですね。一個一個段階を経て増えていったもので、突然こうなったわけではないのです。最初はもちろんハードウェア音源、途中でギガサンプラーの頃は2台のみの環境でした。ハードウェア音源が徐々に減りつつソフトウェア音源へクロスフェードしていったのは自然の流れですね。
Rock:現在でもハードウェアシンセサイザーではアナログシーンが再燃していますが、そのあたりに興味を感じますか?
佐藤:私自身は機材自体に全く興味がなく、その辺りはROCK ON PROさんにお任せしています。なぜなら私は曲を書くのが仕事なので、音の良し悪しはエンジニアに任せています。響き自体に関してシビアというでもありません、ここでトラックダウンするわけでもありませんしね。『曲を書きやすい環境』があれば良いので、機材構成もそのための構成になっています。アナログシンセは元来作成した音を保存して呼び出せるわけでもありませんし、便利ではないものにこだわる時間よりは1曲でも多くを書きたいですね。
Rock:作曲と編集を割り切ることでシステム構成はクリアになりますよね。昨今の若いクリエイターなどは作曲から編集、ミックスまで任されてしまうことも多いようですが、そのあたりはどう感じられますか?
佐藤:実際はそうですよね。確実に音楽の予算は減っていますから、作曲からミックスまでやらなければいけない。スタジオを作りたくないというのは、それが嫌だったのもあります。スタジオというと『トラックダウンができますよね』『Vocal一本くらい入れられますよね』うちがスタジオと言わず仕事場と言っているのは、スタジオと言った時点でそれら全てを担ってしまう恐怖です。
萩原:あくまで佐藤邸ワークスペースというのを部屋の名前にしています。日頃スタジオを作っている我々としてはそういう意味では楽でした。1m数万円のケーブルにこだわる方もたくさんいますが、佐藤さんからはそのような部分への要求はなく、又、この空間でそれらのクオリティの違いを聞き分けるには、モニタリング環境はよりシビアになり、結果スタジオになってしまいますからね。
Rock:新しいワークスペースを完成させての喜びをコメントにしていただいてもいいですか?
佐藤:僕以上に色々な方々とこだわって作ったワークスペース、実に2年かかりました。これだけ良いワークスペースは長く作曲家を続けるモチベーションになります。
Rock:この部屋だからこういう曲が生まれるという化学反応はありますか?
佐藤:まだ始まったばかりですが、それはわからないです。長く居る空間ですから居心地のいい部屋を作ることは絶対でしたが、必ずしも良い部屋を作ったから良い曲が作るわけではありません。もちろん、書けるといいですけど(笑)
Rock:曲作りを本格的に始められた頃の機材環境はどうだったんでしょう?
佐藤:一人暮らしをしていた六本木が最初のワークスペースだったと思います。当時はサンプラーが多かったですね、AKAI Sシリーズを6、7台使って、あとはEMUなどラックシンセを多数活用していました。機材や音源との出会いという面ではずっと前に遡りますがYAMAHA DX7などTOTOやハワードジョーンズとかのサウンドを聞いて憧れて買ってもらったのを覚えています。
Rock:ハワードジョーンズは当時衝撃的でしたね。サウンドもPOPでしたし。プリンスの前座だったのを覚えています。
佐藤:あの当時はキーボード並べて弾くってのが格好良かったですね。最初のワークスペースに話を戻しますが、私は自宅とワークスペースの場所を分けてしまうと、仕事に向かう足が止まってしまうんですよ(笑)。
よく切り替えられる人もいると聞きますが、私はおそらくなんだかんだ理由つけていかなくなって(笑) 眠たくなったら1分で寝られる、仕事しようかと思ったらすぐいける、という環境を作っておくのが重要です。
Rock:部屋の一部という発想はその頃から継承されているのですね。職業作家を目指されたきっかけは何でしょう?
佐藤:今でこそ劇伴作家をやりたい方は多くなりました。私は映画やドラマなどのエンターテインメントが好きなので、音楽という立場からそのように関わりたいと漠然とした目標を持っていました。ただ当時は映像音楽だけでなくJ-POPなど色々やりたかった。およその記憶ですが、当時15年前くらい前にSMAPが一流のミュージシャンを使って、凄いレベルの高い曲を書いていました。あれに憧れてSMAPのための曲を散々書いたのですが全く採用されませんでした。
Rock:コンペなどにも出されたのですか?
佐藤:当時はコンペおよそ200曲、300曲が当たり前でした。本当は曲が書きたいのではなく、アレンジがやりたかった。海外の一流ミュージシャンとの仕事ができることに憧れていましたが、アレンジャーとしてだけでは業界に入れないので曲を書きながらやりなさいと当時先輩方に言われて、SMAP用の曲を何曲も書きましたが結果は全然ダメでした。
Rock:海外ではアレンジャー専門職はいないのでしょうか
佐藤:いらっしゃるでしょう。ただ日本では曲が採用されたらアレンジもできるという内容で売っていかないと仕事が入り辛いと当時制作の方から言われたのを覚えています。
Rock:当時のSMAPというと米国西海岸で収録したCDですね。
佐藤:はい、私はフュージョンが大学の頃は大好きで、CDにクレジットされていたアーティストたちがSMAPのアルバムに多く参加しているんですよ。彼らと会う一番の近道はこれだ! と当時思いましたね(笑) あの頃のSMAPのアルバムがいい意味でやりたい放題で、セールス面以上にレベルの高い楽曲を多く入れていて純粋に憧れましたね。その後J-POPと映画音楽と両立をできればよかったのですが、そんなに甘くなかったです。劇伴音楽以上にJ-POPはレベルが高すぎて、何かの傍らというやり方ではとても出来ませんでした。
Rock:専業でないと厳しそうですか?
佐藤:はい、J-POPのアレンジャーとか本当に私は尊敬します。あのクオリティはとても生半可な関わり方ではできないです。
◎書き続けたことが今に繋がっている
Rock:その後の佐藤さんのご活躍は皆知るところですが、現在の職業作家を取り巻く環境についてはどう思われますか?
佐藤:なかなか作曲家にとって難しい時代に来ていると思います。一人で多様な仕事をこなす人=優秀とされているので、エンジニア的な能力など作曲と違う技能が必要です。楽器や音源が多い人のほうがサウンドは残念ながら純粋に曲を書く技術がなくとも豊かになるし、曲を書けなくても楽器でカバーできるシーンもありますから当然お金も必要です。純粋な作曲家としての道は以前より険しいでしょうね。
Rock:工夫が必要ということですね。
佐藤:昔よりもバランス感覚がとても大事になっており、素直に大変だと思います。ただ私が本当に危惧していることは『バランス感覚が良い人は、便利屋として専門になってしまう』状況です。低予算で仕事をこなし続けることで、その後同様の仕事が膨大に増えてしまうことが問題です。器用に依頼をこなすほど便利屋として使われてしまうのは難しい話です。
Rock:確かにPCベースの制作環境の中、より純粋に音楽に向かい合うのが難しくなっていると我々も感じます。
佐藤:それはもう音楽に限らないと思います。職人的な人にとって非常に難しい時代です。役者さんも、役者馬鹿なんて言葉はもう通用しない。テレビ番宣で気の利いたコメントも短い時間で言えないと本職さえもやっていけない時代です。ひと昔だと曲だけ書ければ良いという時代もありましたが、人間性、コミュニケーション能力などが必ず必要となってきます。
Rock:ここまで来ると運の部分がありますね。
佐藤:頑張ってもらうしかないですね。大きいチャンスを掴んだ際にどのようにブレイクするか。作曲家としては、いい曲をとにかく書き続けて、タイミングと運を待つことしかないですね。
Rock:良い曲は降ってきますか?
佐藤:降ってきませんよ! すんなり書けることは一回もなくて、今回こそ書けないかもと思い、締め切りに間に合わないと思いながらギリギリで出来上がる奇跡の連続なのです。一ヶ月に30〜40曲作る必要があるので、風呂入りながら鼻歌で作るとか、散歩しながらドライブしながらなんてことは全くなくて、机に向かって1日1曲以上必要ですから必死に絞り出すんです。1日1曲書いたら明らかにインプットよりアウトプットのほうが多いので、そんなスラスラと書けるわけはありません。しかし、そんな中でもとにかく書き続けたことが今に繋がっていると考えています。
◎KEY POINT
・Mac pro 2台、銀Mac pro 2台、Mac mini 8台の計12台が連動した驚異のシステム
中核を担うMacpro2台にはDigital PerformerとAvid ProToolsがそれぞれスタンバイ。このDigital Performerから複数台のMacminiへとiConnectivity社のmio10×2台を通じてMIDI情報を分配。8台のMacmini上のソフト音源を同時演奏し、そのオーディオをもう一台のMacproをベースとしたAvid ProToolsHDXシステムでリアルタイムに収録。HD I/O 16×16 Analog 4台併用で64トラックの同時録音に対応している。Macmini各機のオーディオインターフェースは主にRME FirefaceUCをスタンバイ。Digital PerformerからMIDI分配を行うMacproには不要となるオーディオインターフェースは接続されていない。
・Mac mini毎に異なるカテゴリのViennaInstrumentsがスタンドアローン起動
まず4台のMacminiと1台の銀Macpro上ではViennaInstrumentsがスタンドアローンで起動。それぞれ弦/金管/木管/パーカッション(+BFD3)/ハープ&コーラスと1台毎に担うカテゴリが整理されている。残りの4台はLA ScoringStringsなどいわゆるKONTAKT系ライブラリを完備。まさに音源の多さはサウンドを豊かにするという氏の言葉を体現するライブラリ集だ。
・ワイヤリング
床下コンクリート中に配管を打ち、テーブル類の背面からアクセスが可能な仕様。配線ピットで蓋が取れる構造すら削除し、ディスプレイ以外完全にケーブルが視界から消えるようにデザイン。マウス類もワイヤレス。スタジオ機材専用電源は照明や雑用コンセントと系統から分別。3kVA電源+無停電装置バッテリーも用意されている。
・防音ドア
防音ドアのパッキン部分をマグネットにすることで、冷蔵庫方式で密閉するドアを採用。ハンドル付き重量ドアを使わないだけで出入りのストレスを極限まで軽減。
構想から2年の月日を経て完成した「ワークスペース」。長い時間を過ごす空間だからこそ、その居住性も問われ、もちろんワークスペースとしての機能も求められる。その実現のために音楽、建築とフィールドは違えどクリエイター同士のアイデアが切磋琢磨してできあがった空間、この場所にいると感じられるその空気感も佐藤氏のクリエイティブの源泉になっていくのではないだろうか。
*ProceedMagazine2017-2018号より転載
Music
2016/11/14
MONOOTO STUDIO
大阪中津からほど近い場所に位置する『MONOOTO STUDIO』。MAから音楽まで幅広くミキシングを行うオーナー村山氏のこだわりが詰まったカジュアルでハイセンスなレイアウトを持つスタジオとなっている。小規模ながらも、ファイルベース稼働のローコストスタジオとして地元大阪で着実に浸透しつつあり、オープン4周年の節目においてRock oN PRO UMEDAが新スタジオ増築のお手伝いをさせていただいた。
ハイセンスで暖かなレコーディング空間
ウンドエンジニアとして長年フリーランス活動をされたいた村山氏がおよそ4年前に設立した『MONOOTO STUDIO』。無機質になりがちなスタジオ空間を、村山氏セレクトのスタジオ家具にオーダーメイド什器や照明、オブジェクト等により非常に暖かなリラックス出来る空間に仕上げている。筆者もまるでカフェで寛いでいるかのような感覚に陥ってしまうほどのコンフォートぶりである。"自分が良いと思えるものだけを揃える。"といったストレートなコンセプトをベースにセレクトされたスタジオイクイップメントや、小規模ながらも今回 Rock oN PRO Umedaによって新規導入された機材を合わせてこちらで簡単にご紹介していきたい。
2フロア構成でキャパシティに合わせた展開
既存の4Fと新設された5Fの2フロアに分かれたスタジオは、機能的に大きな差を設けず、録音ブース、アウトボード各種、そしてProTools 12と Artist Mixをベースとしたコントロールシステムという構成で統一されている。既存の4Fのスタジオをベースに5Fに新規でスタジオをオープンさせている。どちらも同様のクオリティで業務が行えるが、案件に応じた使い分けをしており概ね4Fをメインに案内していることが多いそうだ。
新設された5Fスタジオ
2フロア共にモニタースピーカーは柔らかな音質が特長の『FOCAL』社で揃えており、4Fは3wayの『Twin 6 Be』、5Fは2way『CMS 65』と音のサイズ感に違いを持たせている。『Twin 6 Be』は音楽的な響きを持ちながらも、モニターとしての正確さを合わせ持っており、村山氏が試聴会で聞いて一目惚れしたというセレクト。ベリリウムツイーターによる高解像度な高域と柔らかな中域の押し出しの絶妙なバランスが特長のFocalだが、以前のスピーカーでは感じ得なかった音の鳴りに当初は困惑したというエピソードも。
メインDAWにはやはりPro Toolsを採用、今回、最新のバージョンにアップグレードしたことで非効率なオートメーションやノーマライズを不要にするクイックプロジェクトやクリップゲインなど新機能が搭載された。MA作業などクリップ編集が圧倒的な割合を占める『MONOOTO STUDIO』では、シンプルでMTRライクな『ProTools』がベストだと村山氏は太鼓判を押す。また、DAWコントローラーとしては全てのスタジオに『Artist Mix』を導入している。
自身がバンドでのCDリリースや、フジロックへの出演などMAエンジニアとしては、音楽寄りの濃いキャリアを持つ村山氏。音響効果などでもその経歴の滲む作品作りが行われていることだろう。機器の選定、スタジオデザインなど随所に、音楽を愛する村山氏のセンスが感じられるスタジオとなっている。
MONOOTO STUDIO 村山 拓也 氏
関西エリアでもPro Toolsの更新導入とともに、これまでの業務を見直してさらなる効率とクオリティを求めているケースとなった。最新のプランニングにより得られたワークフローは、現場で一層の輝きを放ちユーザーにとっても価値ある更新となっている。個性とオリジナリティに溢れるその様子が今後もますます拡がっていくよう、ROCK ON PRO Umedaではより一層のサポートを続けていきたい。
*ProceedMagazine2016-2017号より転載
Music
2015/12/29
ROCK ON PRO REPORT !!/GAME AUDIOから劇伴まで、映像に音を付ける面白さ
GAME AUDIO業界でキャリアをスタートし、その活躍の場をTV、映画へと広げる光田氏に取材を行なった。ゲームコンソールの性能という縛りの中でつくり上げる時代から、自由な表現を駆使することのできる時代へとその変遷の中を歩んできた中で生まれたこだわり。そして、機器の進化に合わせてドラスティックに移り変わるGAME AUDIOの進化の歴史を感じられる内容となった。
プロキオン・スタジオ 取締役 光田 康典
昭和47年(1972年)1月21日生まれ。山口県熊毛郡熊毛町(現・周南市)出身。
・スクウェア在籍初期に『半熟英雄』『ロマンシングサガ2』『聖剣伝説2』などのエフェクト音の制作に携わる。作曲家としてのデビュー作は『クロノ・トリガー』。その後『ラジカルドリーマーズ』『ゼノギアス』『クロノ・クロス』の楽曲制作を担当。
・スクウェアから独立後の主な作品は『ゼノサーガエピソード1』『イナズマイレブンシリーズ』など。『スマブラX』でもアレンジを担当している。
なぜ?GAME AUDIOの世界に飛び込んだのか?
光田氏がGAME AUDIOの世界に飛び込んだのは、業界がまだ成長の課程にある1992年の事。1990年に任天堂よりSuper Famicomが登場した頃ということになる。なぜ、GAME AUDIOの業界に飛び込んだのかと聞くと、「学生の頃からエンターテイメントが好きだった」と。学生の当時のエンターテイメントは映画がその中心であり、全てであったと振り返る。GAMEはまだ、テーブルゲーム(インベーダー、パックマンなど喫茶店の机がゲーム機だった時代)。音楽など無く、ミサイルの発射音や、撃墜音、様々な効果音は今で言う『ピコピコサウンド』として鳴っていたが、映像と音声の融合によるエンターテイメントと言うよりは、純粋なGAMEのみのコンテツであった。そのような時代に、光田氏は映画をこよなく愛し、劇伴作家になりたいという夢を抱いていた。音楽系の専門学校に通い、作曲の手法を学びながらの就職活動。まさに時代は、変革の時代に突入していた時期である。
テーブルゲーム等のある、ゲームセンターは不良の行く場所というような風潮から、存在は知っているもののあまり触れることはなかった中、Family Computerから始まる家庭用のゲームコンソールは身近なものとして存在していた。ご承知のように、Family ComputerのGAMEには、音楽が付けられそのコンテンツを盛り上げていた。オープニングテーマがあったり、その音楽というものにも注目が集まった時代である。GAMEのサウンドトラック、オーケストラアレンジのCD等、GAMEからスピンアウトした音楽コンテンツが多数作られ始めた時代でもある。その進化、発展を見るうちに、その未来に秘められているエンターテイメント性に惹かれ、GAME AUDIOの業界への就職を決めた。
光田氏が就職をした会社が株式会社スクウェア(現:株式会社スクウェア・エニックス)。最初はシンセサイザープログラマや効果音なども担当をしたことがあったそうだが、基本的には、音楽の作曲作業が中心。元々、コンピューターが好きだったということもあり、入社3年目の1995年には代表作となる『クロノ・トリガー』に作編曲という形で関わっている。他にも音楽の評価の高い『ゼノキアス』等多くの作品に関わった後、1998年に独立しプロキオン・スタジオを立ち上げている。
プラグラマーのいる作家集団
プロキオン・スタジオは、プログラマーが所属しているという点が特筆すべき点。その成果として、DS用のKORG DS-1、M01D等ソフトウェアそのものとも言えるサウンドドライバーの開発など多彩な活躍をしている。それ以外にもiPhone App等も近年では積極的な開発を行なっている。元々は、作曲家の意図した音を再現し、再生するためのサウンドドライバーの開発を主眼としていたが、業界の進化とWwise、CRIのような優秀なMiddlewareの登場により、アプリ自体の作成の方向にシフトをしている。
今でもプログラマーがいるということで、プロキオン・スタジオでは楽曲の納品携帯は、プログラムに実装した状態で行うことがほとんどだということ。これは、通常であれば、WAVデータで納品をして実装は、各ゲーム会社が行なっていたところを鳴り方、サウンドの仕様まで含めて、確認を取るという一歩踏み込んだ制作受注の形態といえる。元々、ゲーム制作会社にいたからこそ、プログラマーが社内にいるからこそ実現しているビジネスだと感じる。更には、効果音を専門とするスタッフもいるので、GAME AUDIO全般を一括しての受注も可能だということだ。効果音と音楽の制作会社が別々である場合、どのような効果音を作ってくるのか?ゲーム音楽を作曲する際には非常に重要になるので、意思疎通ができていないと合わせるのが大変とも。それが、社内で全てを一元管理し連携することでクオリティの高い制作が実現するということもプロキオン・スタジオの大きな強みといえる。
プロキオン・スタジオの立ち上げ後
プロキオン・スタジオの立ち上げ後は、GAME AUDIOはもちろんだが、アーティストのプロデュース、劇伴の作曲など多岐にわたる分野での活躍をされている。関わっているアーティストの代表は、『サラ・オレイン』。Wii用ソフト『ゼノブレイド』のエンディング「Beyond the Sky」でボーカルとしてサラを起用。2014年には「Fantasy on Ice」で安藤美姫が同曲で演技を行い話題となる。サラ自身も『関ジャニの仕分け∞』のカラオケ得点対決でMay.Jを破るなど話題の多いアーティスト。光田氏プロデュースによるアルバムをリリースしている。GAME AUDIO分野では、前述の『ゼノブレイド』、『大乱闘スマッシュブラザーズ』等多彩な活躍を続け、アニメ『イナズマイレブン』シリーズにも参加、劇場版、TV版、ゲームとマルチに楽曲の提供を行なっている。他にも、記憶に新しい2013年のアイソン彗星の特別番組、NHKスペシャル「宇宙生中継 彗星爆発 太陽系の謎」に楽曲を描き下ろしている。
GAMEとそれ以外で作曲に関して違いはあるのかとお聞きしたところ。特には変わりはないとのこと。オーダーに関してもM番表があり、それに合わせて作るという作業自体は同様。しかし、最近では、ゲームのほうが更に楽曲数が増える傾向にあるということ。アニメや、ゲームは実写と違い、全く音の無い世界に一から音をつけていく作業になる。その際には、音のない動画を何度も見返して頭のなかに音楽が流れ出すのを待つという手法をとっているということだ。どのような映像にもリズムがあり、音が含まれている。それを形にしているということだ。
光田氏のこだわり~作品の余韻
作曲の手法をお伺いしている際に、『余韻』というキーワードにたどり着いた。他の話題の際にもお話をしていた言葉ではあるが、映像を何度も見返してその中にある音を探している際に、あまりにも説明されすぎている映像から音を導くのは大変に難しい。その映像の『余韻』、『間』という、音で表現を出来る部分があって欲しい。その映像の『余韻』に音で息吹を吹き込みたいという意思がそこからは感じられた。同様にその作品自体も『余韻』を含んで欲しい、ゲームであれば、プレイを終えたあとの余韻、CDであれば聴き終わった後に、映画であればカットの切り替えの余韻など。
たとえとして、CDデッキのピックアップのお話をしていただいた。CDが全て再生を終わった後に、読み取りのピックアップがホームポジションに戻る。その時にアクチュエーターが最速で動作をするために音がする。それがCDに収録された最終楽曲の『余韻』を台無しにしてしまうのが許せないという話だ。光田氏は関わったCDは可能な限り、最終楽曲の終わった後に10秒程度の無音を意図的に付け加えているということ。これにより、ピックアップの移動までの時間稼ぎをして”台無し”になることを防いでいるということ。このような『余韻』はプレイヤー、リスナーが想像をする余地を残すことで、その余韻は一層大きなものとなるのではないかと意見を頂いた。
GAME AUDIO黎明期の作業は、プログラミングが主体
Download : PDF
黎明期を語るためには、光田氏にご教授いただいたゲームコンソールのスペックを確認する必要がある。Family Computerは1983年登場、8bit CPU(1.79MHz)動作で、音源部分はCPUに組み込まれた「パルス波」ジェネレーター2系統、「三角波」ジェネレーター1系統、ノイズジェネレーター1系統、DPCMと呼ばれる6BitのデルタPCM音源の合計5音。現代のシンセのスペックから考えると、これらのジェネレータを組み合わせて一つの音を作るの?と思ってしまうかもしれないが、この5音でゲームの中のBGMから効果音まで全てをまかなっていた。ゲームにとって重要な効果音用に音源をスタンバイさせると事実上利用できるのは2~3音。その中で作曲した楽曲をどのように再現するのか試行錯誤をしていたということだ。しかもその音源を鳴らすためには、MIDIのような汎用のものではなく、専用の言語にコンパイルをしたプログラムを使って再生をしていたということだ。シンセを制御し、発音をするための専用プログラムと想像してもらいたい。
次の世代としては、SUPER Famicomが1990年に登場する。このゲームコンソールの登場により、音源は世代更新を果たす。そのスペックは32kHzサンプリング/8チャンネル同時発音/16Bit PCMステレオ/DSPによるエフェクト処理と当時としても最高の音源が搭載された。1990年といえば、KORGであればM1の時代、WAVESTATIONが登場した年でもある。YAMAHAでは1989年にSY77が登場しPCMシンセが登場を始めた頃。RolandはDシリーズ。JVシリーズはまだ発売されていない。そんな時代に、家庭用ゲーム機に8チャンネル同時発音のPCM音源が搭載されたというのは革新的であった。しかし、そのメモリは64KBしかなく、その中にどのようにサンプルをロードするのかというのが、プログラマーの腕の見せどころ。搭載されたDSPを有効に活用し、その能力を引き出すテクニックが必要であった。効果音にチャンネルを割いたとしても、音楽用に従来比倍のチャンネルがアサイン可能ということで、まさに、GAME AUDIOの黎明期が訪れた頃である。とはいえ、内蔵音源にPCMサンプルを読み込ませ発音するという仕組みはプログラムそのもの。その当時もMIDIベースで作成した楽曲を専用のツールでコンパイルをしてプログラムとして実装を行なっていたということ。ROMカートリッジのデータ量の制約もあるので、制約の中で工夫を重ね、イメージを形にしてゆく作業であった。
光田氏は当時を振り返り、「まさにプログラマー同士でのメモリの奪い合い。それぞれにやりたいことを実現するために限られた制約の中でのコンソールの性能の限界への挑戦が日々続いていた。」とリアルなコメント。そのスペックの進化は、表にまとめてみたので見てもらいたい。実際に作曲家として思うがままに再生を出来るようになるのはPlay Station 3の登場まで待たなければならなかったという。更に時代を進めてみよう。
PCM音源の時代から表現の自由の獲得まで
その後、1994年にPlay Stationが登場する。実は、SUPER Famicomに搭載された音源チップはSONY製のものであり、Play Stationに搭載された音源はその拡張版である。メモリは512KBに拡張され24チャンネルの同時発音が可能となっている。圧縮したサンプルを使えば1曲全体をサンプリングをして再生も技術的には可能であったが、コンテンツを提供するCD-ROMの容量の制限からなかなか実現する機会は少なかったとのこと。やはり、ゲーム本体のプログラム。3D再現のためのポリゴンデータ等他にも格納しなければならないデータは山のようにあったということだ。クオリティーを最大化するのであれば、CD-ROMなのでWAVのデータを格納し、プログラムとして音源に頼らずに再生するということも出来たそうだが、データ量の問題から実現は難しかったとのことだ。
更に、2000年にはPlay Station 2が登場。同じ系譜のチップが使用されメモリは2MBまで拡張される。同時発音数も48チャンネルと思いつくままに音を重ねることも出来るような仕様だ。しかし、この頃も、コンテンツの提供されるDVD-ROMの容量との戦いは続く。音声のみであれば、十分に思えるパッケージではあるが、高性能化したグラフィックエンジンに提供するためのデータ量は増加の一途をたどり、肝となる、オープニング、エンディング以外では、なかなか楽曲丸ごとをメディアから再生するということは出来なかったということだ。
そして、「思うように作曲した作品をそのままゲーム中に再生できる」Play Station 3の登場である。2006年に登場したこのゲームコンソールは、特定の音源を搭載しておらず、ゲームコンテンツ中の音声データを直接再生できるようになる。Nuendo 7のGame Audio Connect機能により注目をあつめるAudio Middlewareもこの世代になり始めてその必要性が強調される。コンテンツメディアもBlu-rayの世代となり、容量としてもやっと余裕が出る。特定の内蔵音源からの発音から、プログラムとして自由に音声再生が可能となるのは、まさにこの世代から。SUPER Famicomがその次代の最先端の音源を搭載してから15年かかって、次の世代へと進化を遂げている。逆に言えば、自由にGAME AUDIOとして表現ができるようになってまだ10年ということだ。
余談ではあるが、2004年という内蔵音源でのGAME AUDIO制作の終盤に登場したニンテンドーDSは、同時発音数16チャンネルのPCM音源が搭載され、プログラミングによりGAME AUDIOを作らなければならなかった。こうしてコンソールスペックを並べてみると、10年前の初代Play Stationよりもスペックの低い音源が搭載されているのがわかる。光田氏は、DSのサウンド開発のために、まさに10年前の製作用コンピューターを引っ張りだして作業をしたという回想をお話いただいた。
メーカー任天堂SCE任天堂SCE
機種名ニンテンドーDSPlayStation Portableニンテンドー3DSPlayStation Vita
世代携帯機第7世代携帯機第7世代携帯機第8世代携帯機第8世代
発売日2000/11/202000/12/112007/2/252007/12/16
CPUARM946E-S 67MHzPSP CPU(MIPS R4000 Core)Nitendo 1048 0H ARM