«Works
Author
ROCK ON PRO
渋谷:〒150-0041 東京都渋谷区神南1-8-18 クオリア神南フラッツ1F 03-3477-1776 梅田:〒530-0012 大阪府大阪市北区芝田 1-4-14 芝田町ビル 6F 06-6131-3078
株式会社カプコン様 / Dynamic Mixing Room-[B] / [W]
日本を代表するゲーム会社カプコン。前号でもリニューアルしたDynamic Mixing Stageをご紹介したが、それに続いて新たにDynamic Mixing Room-[B]とDynamic Mixing Room-[W]が作られた。VR、イマーシブといった言葉が先行しているゲーム業界におけるオーディオのミキシングだが、それらのコンテンツを制作する現場はアプローチの手法からして大きな変革の中にある。ゲームではカットシーン(ユーザーが操作をせずに動画が再生され、ストーリを展開する部分)と呼ばれるMovieとして作られたパートが次々と減少し、昨年リリースの同社『バイオハザード7 レジデント イービル』では遂にカットシーンが全くないというところにまでたどり着いている。こういった背景もあり、しっかりとした音環境でDynamic Mixingを行える環境というものが切望されていた。その回答が前回ご紹介したDynamic Mixing Stageであり、今回のDynamic Mixing Roomとなる。
昨年のDynamic Mixing Stageは各素材の最終確認、そして最後の仕上げという部分を重点的に担っているが、その途中の生成物であるオーディオデータが全てファイナルのミックス時点でオブジェクトに埋め込まれ、プログラムされていくわけではない。しかし、オーディオデータをプログラムに埋め込み、他のサウンドとの兼ね合いを確認しながら作業を行う必要が日に日に大きくなっているのが現状だ。カプコンでは各スタッフに専用のパーテーションで区切られたブースが与えられ、5.1chでの視聴環境が用意されている。ただし、あくまでも仮設の環境であり、スタジオと比べてしまえば音環境としてお世辞にも良いと言えるものではない。ほかにもPro Toolsが常設された防音室が用意され、そこへシステムを持ち込み確認作業が行えるようになっていたが、常設のシステムに対して持ち込みのシステムを繋ぎ込む必要があるため、それなりのエンジニアリング・スキルが要求される環境であった。この環境改善を図ったのが今回の目的の第一点となる。
もちろん、ここにはサウンドクオリティーへの要求も多分に含まれる。海外のゲーム会社を視察した際に、クリエイター各自が作業スペースとしてスタジオクラスの視聴環境で作業しているのを目の当たりにした。これが、世界中のユーザーに対してゲーム開発をおこなうカプコンとして、同じクオリティーを確保するための重要な要素と感じた。各クリエイターが、どれだけしっかりとした環境でサウンドクオリティーを確認することが出来るのか。これこそが、各サウンドパーツレベルのクオリティーの差となり、最終的な仕上がりに影響をしているのではないか、ということだ。これを改善するため、自席のシステムそのままにサウンドの確認を行うことのできるDynamic Mixing Roomへとつながっている。
さらにもう一つ、VRなど技術の発展により、3Dサラウンド環境での確認が必要なタイトルが増えてきたというのも新設の大きな要因。昨年、Xbox OneがDolby Atmosに対応したことなどもその一因となったそうだ。今回はスピーカーの増設だけでその対応を行うということではなく、やるのであればしっかりとした環境自体を構築する、という判断を後押しするポイントになったという。
そして、Dynamic Mixingにおいてサウンドを確認するためには、DAWからの出力を聴くのではなくゲーム開発機からの出力を聴く必要がある。ゲームエンジンが実際に動き、そこにオーディオデータがプログラムとして実装された状況下でどの様に聴こえるのか、プログラムのパラメーターは正しかったか?他のサウンドとのかぶりは?多方面から確認を行う必要があるからだ。そうなると、自分の作っているゲームの開発機を設置して、繋ぎ込んで音を聴くというかなりの労力を要する作業を強いられてしまう。
すでに開発中のデータ自体はネットワーク化されておりサーバー上から動くが、端末はそのスペックにあった環境でなければ正確に再現されない。今回のDynamic Mixing Roomはそういった労力を極力減らすために設計された部屋ということになる。そのコンセプトは利便性とスピード感。この二つに集約されるということだ。
実はこの部屋にはDAWが存在しない、2つの鏡写しに作られた黒い部屋と白い部屋。その間の通路に置かれたラックに開発PCを設置して作業が行えるようになっている。接続された開発PCはHDMIマトリクススイッチャーを経由してそれぞれの部屋へと接続される。開発PCの音声出力はHDMIのため、部屋ではまずAV ampに接続されデコード、モニターコントローラーの役割として導入されたRME UFX+を経由してスピーカーを鳴らす。なぜRME UFX+がモニターコントローラーとして採用されているかは後ほど詳しく説明するとして、まずはサウンドに対してのこだわりから話を始めたい。
この環境を作るにあたりリファレンスとしたのはDynamic Mixing Stage。こちらと今回のDynamic Mixing Roomでサウンドの共通性を持たせ、迷いのない一貫した作業を実現したいというのが一つの大きなコンセプト。全てのスピーカーは音響設計を行なったSONAのカスタムメイドでバッフルマウントとなっている。サラウンド側、そして天井に至るまで全てのスピーカーがバッフルマウントという部屋と一体になった音響設計が行われている。このスピーカーは全てバイアンプ駆動され、そのマネージメントを行うプロセッサーはminiDSPが採用されている。miniDSPはFIRフィルターを搭載し、位相問題のないクリアなコントロールを実現している。しっかりとした音響設計がなされたこのDynamic Mixing RoomはDynamic Mixing Stageと高いサウンドの互換性を確保できたということだ。今後はDynamic Mixing Stageで行われているダイヤログの整音と並行してDynamic Mixing Roomで実装された状態での視聴を行う、といった作業も実現できる環境になっているということ。もちろん、同じクオリティーでサウンドを確認できているので、齟齬も少なく済む。まさに「スピード感」というコンセプトが実現されていると言える。
それでは、次にRME UFX+の部分に移っていきたい。UFX+の持つTotal Mixを使ったモニター機能は非常に強力。複数のマルチチャンネルソースを自由にルーティングすることが出来る。これまで自席で仕込んだサウンドをしっかりした環境で聴こうと思うと、前述のように自席のPC自体を移動させて仮設する必要があった。この作業をなくすために、DiGiGridのネットワークが構築されている。それぞれのPCからの音声出力はDiGiGridのネットワークに流れ、それがDynamic Mixing RoomのUFX+へと接続。もちろんDiGiGridのままでは接続できないため、DiGiGrid MGO(DiGiGrid – Optical MADI Convertor)を介しMADIとして接続されている。
開発PCからのHDMIはAV ampでデコードしてアナログで接続され、各スタッフの自席PCからはDiGiGirdネットワークを介して接続、ということになる。これらの入力ソースはRME Total Mix上でモニターソースとしてアサインされ、ARC USBによりフィジカルにコントロールされる。このフィジカルコントローラーの存在も大きな決め手だったということだ。そもそも複数の7.1.4サラウンドを切り替えようと思うと具体的な製品がなかなか存在しない。フィジカルコントロールも必要となるとAVID S6 + MTRX、TAC System VMC-102 + MTRXといった大規模なシステムになってしまうのが実情。リリース予定の製品にまで目をやったとしてもGrace Design m908がかろうじて実現出来るかどうかというレベルとなる。その様な中でUFX+とARC USBの組合せは過不足のない機能をしっかりと提供することが出来ており、フィジカルなコントローラーを手に入れたことで使い勝手の高いシステムへと変貌している。実は、Total MixのモニターコントロールはRock oN渋谷店頭でスピーカー試聴の切替にも使用されている。こちらも試聴中に数多くの機器をスムーズに切り替える必要があるのだが、その柔軟性が遺憾なく発揮されている実例でもある。
このDynamic Mixing Roomは3Fに位置しており、先行してDiGiGridのネットワークが構築されたコンポーザーの作業場は14Fとかなり距離が離れていたが、その距離も既存のネットワーク回線を活用することで簡単に連携が実現ができた。ここはネットワークが会社中に張り巡らされているゲーム会社ならではの導入障壁の低さかもしれないが、追加で回線を入れるとしてもネットワーク線の増設工事であれば、と考えてしまうところでもある。ちなみに自席PCはDynamic Mixing Roomから画面共有でリモートしている。画面共有サービスもブラッシュアップされておりレスポンスの良い作業が実現したこともこのシステム導入の後押しになったということだ。
今後は、コンポーザーだけではなくSEスタッフの自席も活用しようと検討しているということだ。全社で70名近いというサウンドスタッフすべてのPCがDiGiGrid Networkを介してつながる、まさに未来的な制作環境が実現していると言えるのではないだろうか。自席PCでサウンドを仕込みながら、持ち込んだ開発PCに実装し、その場で確認を行う。理想としていた制作環境に近づいたということだ。また、開発PCを複数置けるだけのスペースも確保したので、タイトルの開発終了まで設置したままにできる、ということも大きい。HDMI出力と操作画面用のDVI、そして操作用のUSB、これらの繋ぎ変えだけで済むということは、これまで行なっていたPCごと移動するスタイルからの大きな進化。利便性とスピード感。このコンセプトに特化した環境が構築されたと言えるのではないだろうか。
また、Dynamic Mixing Roomには常設のMouseもKeyboardも無い。自席と同じ様な作業環境を簡単に構築できるという考え方のもと、機材の持ち込みは自由にされているということだ。共有の設備にも関わらず、PCもなければMouseもKeyboradもない。少し前では考えられなかったような設備が完成した。言わば「何も置かない」というミニマルさが、ゲームの開発という環境に特化して利便性とスピード感を追求した結果。これは、ゲーム制作だけではなくシェア・ワークフローそのものを考える上で大きな転換点に来ているということを実感する。
すでにITでは数年前からSaaS(Software as a Service)という形態が進化を続けている。手元にあるPCはあくまでも端末として、実際の処理はクラウドサービスとして動作をしているシステム。映像の業界はすでにSaaS、クラウドといったイントラネットから飛び出したインターネット上でのサービスの活用が始まっている。今後は、サウンドの業界もこの様な進化を遂げていくのではないか、そのきっかけとなるのが今回のカプコン Dynamic Mixing Roomの実例なのではないかと感じている。
(手前)株式会社カプコン サウンドプロダクション室 室長 岸 智也 氏 / (奥左)同室 コンポーザー 堀 諭史 氏 / (奥右)同室 オーディオ・ディレクター 鉢迫 渉 氏
*ProceedMagazine2018Spring号より転載