Shibuya 03-3477-1776
Umeda 06-6131-3078

Headline

Post
2020/09/01

株式会社松竹映像センター 様 / AVID S6 Dual Head + 4 MTRXシステムで進化した 変幻自在のDubbing Stage

株式会社松竹映像センターは、2015年にお台場へ移転をしてから早くも5年。移転前の大船時代より使い続けてきたEuphonix System 5から、映画の本場ハリウッドでも採用が進むAVID S6を中核としたシステムへと更新を行った。今回更新のテーマを大きくまとめると、「音質」と「作業効率」両者を最大限に両立しつつ様々なワークアラウンドに対応できるようにする、ということ。その実現に向けた機器の選定からシステムアップまでお手伝いをさせていただいた。 音質、効率、柔軟性、三拍子揃ったシステムを目指して システムの中心となるのは、AVID S6とAVID MTRX。Playout4台(*1)、Mixer2台、Dubber1台のPro Toolsと、従来のシステムから引き継がれたMixer3台とDubber1台のNuendo、これらが4台のMTRXに接続され、それぞれの繋ぎ変えにより様々なシステムを構成可能なようにシステムアップが行われている。従来のSystem5が担っていたConsoleのCenter Sectionは、MTRXのMonitor Profileがその機能を引き継いでいる。 以前の記事で松竹映像センターのご紹介を行っているが、大船からお台場へ移転の際に設計されたAnalog SRCとNuendoをMixing Engineとしたシステムは、ワークアラウンドの選択肢の一つとして今回の更新でもそのまま残されている。Analog SRCとは、Digital接続で問題となるサンプルレート、フレームレートの相違による問題の解決と、音質向上を狙ったMixing Engineの96kHz動作を行わせるために、Playout DAWとMixing Engineの間をあえてAnalogで接続するシステムをそのように呼んでいる。Playoutの素材として持ち込まれたデータの大半は48kHz。DAW内でサンプルレート変換を行っても良いのだが、一旦アナログにDAしてから96kHz動作のMixing Engineへと信号を導いたほうがサウンドとして良い結果が得られた。実際に音を聴きながら機器選定を行った結果として、2015年の移設の際に導入させていただいたシステムがこのAnalog SRCとなる。 このAnalog SRCは、サンプルレートの違いを吸収するとともにフレームレートの0.01%の吸収にも役立っている。できる限りデジタル上でのデータの改変は行わない、というのがこのシステムの根底に流れるポリシーとなっている。「デジタルの利便性と音質をいかに両立させるか」というのが、前回の更新の大きなテーマだった。今回の更新ではそこに「作業効率」という新たなテーマが加わった格好だ。 2020年 2015年 (*1)ダビングステージということでPlayout用に、D=Dialog(セリフ)、M=Music(音楽)、E=Effect(効果音)、F=Foley(効果音)のそれぞれに計4台のPro Tools HDXシステムが用意され、Eは128ch、D,M,Fは64chの出力が用意されている。これらはMADIによりMixer用のPro Toolsへと送られる 「現場の音」を届けたい 全てのシステムをシンプルにデジタルで直結することによりピュアなサウンドが保たれるのではないか?信号の経路を最短にすることでシンプルで効率の良いシステムが構築できるのではないか?そういったことが各方面より検討され、ハリウッドなどで活用されるシステムなども、松竹映像センターの吉田様に実際にハリウッド現地の視察を行っていただき、もたらされた情報とともに進められた。同時に、ハリウッドのスタイルでは、PlayoutのPro Toolsの内部である程度のSTEM MIXが行われ、Dubberの内部でFinal Mixが行われる。まさにIn The Boxのスタイルが良くみられる。しかし国内のダビングステージではMixing Consoleが健在であり、In The BoxでのMixingではなく、ConsoleでのMixingを求める声も大きい。 そこで、今回の更新では、AVID S6をSurfaceにMixng Engineとして機能するPro Toolsを2式増設することとなった。なぜ2式のPro ToolsにしたかというとInputのチャンネル数に余裕をもたせるためである。Pro ToolsはHDX card1枚に付き64chのIN/OUTという物理的な制約が存在する。現状最大構成となるHDX3で192chが上限ということになる。ステレオミックスであれば192chのInputは十分に思えるかもしれないが、5.1chを基本とする映画ダビングでは192chというのは、32 stemに当たる。これを4台のPlayoutに分配するとたったの8 stemとなる。設計段階でギリギリのスペックとするのではなく、余裕をもたせたい。その考え方から2台のPro ToolsをMixing Engineとして準備した。AVID S6が同時に8台のDAWをコントロールできるという機能性の高さにも助けられている。 最終段のレコーダーに当たるDubberは、従来のNuendoに加え、Pro Toolsが整備された。Dubberへの回線はAnaSRCを介しての接続と、デジタルダイレクトでの接続が両方選べるように設計されている。Analog SRCの場合には、FInal Mixは一旦DAされ他Analog信号がADされてDubberへと接続される。この接続には松竹映像センター様がお台場移転時に実現した一つの理想形。モニタリングを行っているスピーカーから出力されている信号を聞いて、エンジニアはその良し悪しを判断している。そのサウンドを残すことが、スタジオとしての命題である、という考え方だ。通常のシステムでは、レコーダーに収録された音を最終的に聞くことにより判断を行っている。しかし、レコーディングを行うということは、デジタルにおいても何かしらの変質をはらむ行為となるため、あえてシグナルパスは増えることになるが、ミキシング中に聞いている音との差異を最低限にするための一つの手法としてこの様な選択肢を持っている。 もう一方のデジタルダイレクトでの接続は、出来る限りそのままの信号を残すというデジタル・ドメインの理想形を形にしている。デジタルレコーダーから出力された音声は、デジタルのままピュアにレコーダーまで接続される。現代のデジタル・オーディオのシステムに於いて最後までアナログに戻さずに、劣化の少ないデジタルのまま、シグナルを処理するという理想形の一つだ。 このダビングステージは、サウンドのクオリティーを追い求める飽くなき探究を、実際にシグナルパスの変更により適材適所に選択できる国内有数のシステムとなっている。作品に合わせ、その作業の内容に合わせ、柔軟に変化できるシステムであり、現場の音をどうしたら理想に近いクオリティーで届けられるか、という飽くなき探究の結果が、理想のサウンドに合わせて選べるシグナルパスとして結実している。 アシスタント・デスクは1面増え、全5面のPC DISPLAYが設置されミキサー&レコーダーのコントロールを一括して操作することができる。 Play Out機を操作するカートは、Dual Displayへと改造され操作性が向上している。ユーザーからのリクエストの多かったポイントだ。 Column:AD/DAどちらが音質に効果的? ADコンバーターと、DAコンバーター。どちらが音質に対して与える影響が大きいのだろうか?もちろん、どちらも”コンバート”=”変換”を行う以上、何かしらのロスをはらむ行為となる。各機種を徹底して聴き比べた結果、Master Clockによる影響が同一だとすれば、ADコンバーターの音色差は、それぞれが持つプライスほどの差を感じなかった。一方のDAコンバーターは、同一のMaster Clockを供給したとしてもその音質差は大きく、メーカーごとの個性が確実に出るということがわかった。ちなみに、Master Clockを供給せずにインターナルで動作させた場合にはADコンバーターも差が大きく出ることを付記しておく。   ADコンバーターの動作原理は、線形波形を時間軸でスライスし(標本化)、その波形の大小を量子化することでPCMのデータを取り出している。標本化する時間間隔が標本化周波数=サンプリングレートであり、48kHzであれば、1秒を48,000等分するということである。そこでスライスされたデータは大小を基に量子化され、デジタルデータとして出力される。その際、WAVデータでは最大値をフルビットとし、無信号との間を24bitであれば16,777,216段階に分割。どの段階が一番近いかということで近似値をデータとして出力している。かなり細かく説明を書いてしまったが、線から点へ間引く作業を行っているとも言える。この間引く間隔がMaster Clockであり、その正確性がデータにダイレクトに反映する部分でもある、この部分が同一であれば、量子化する仕組みはどの機器もほぼ同一のデルタ・シグマ・モジュレーターを採用しているため、差が生まれにくいのだと考えられる。   もう一方のDAコンバーターは、間引かれて点になっているデータを、線形に変換するという作業を行っている。ここではオーバーサンプリングと呼ばれる技術が使われ、点と点の間を補完することで線形に変換している。この”補完”の部分は、ADコンバーターでも使われているデルタ・シグマ・モジュレーターが一般的には使われているが、DAコンバーターの場合には、複数の方式(何倍のオーバーサンプリングなのか、1Bit or マルチBit回路)があり、さらに線形の情報として取り出したあとにラインレベルまで増幅するアナログアンプが存在する。これらの違いにより、機器間の差が大きく出る傾向のようだ。   外的要因=Master Clockにより、その精度が画一化されるADコンバーターと、メーカーの設計による部分の大きいDAコンバーター。感覚的にはADの方が、とも思いがちだが、実際に色々と試してみるとDAの方が顕著な差があるということとなる。この結果は、あくまでもMaster Clockが存在するという前提のもとでの結果だということになる。Internal Clockであれば、その機器の持つClockの精度という、また別の音質に影響を与える要因が生じるということは忘れないでほしい。 “これまでの利便性を活かす”ソリューション 実際のシグナルフローのお話は、後ほどしっかりとさせていただくとして、AVID S6をみてみたい。これまでEuphonix System 5が導入されていたダビングステージ。写真を見ていただきたいのだが、特注で作ったSystem5用のデスクをそのまま流用している。8フェーダーごとにモジュール構成になっていたSystem 5を作業に合わせて、左右を入れ替えて使用していた。今回の改修では、デスクはそのまま、System 5で行っていたようなモジュールの入れ替えにより、サーフェースの変更にも対応する仕組みをこれまで通りに実現している。 これを実現したのが、イギリスのFrozen Fish Designというメーカーがリリースする「Euphonix Hybrid Backet」という製品。AVID S6のモジュールを、Euphonix System 5のモジュールとそっくりそのままのサイズのシャーシに収めてしまうというアイデア製品だ。もともとは、System 5とAVID S6が同居したHybrid Consoleを、というアイデアからの製品である。余談だが、AMS NEVE DFCのモジュールと同じサイズにAVID S6のモジュールを収める製品も同社はリリースしている。このFrozen Fish Design社製品の導入により、従来通りフェーダーを必要な箇所に自由自在に配置できるコンソールを実現している。 もう一つAVID S6としてのトピックは、Dual Head構成となっているということ。通常は1台のMaster Touch Module=MTMがコンソール全体の制御を受け持つのだが、松竹映像センターのAVID S6はサイズも大きく2台のMTMが必要となった(1台のMTMでの上限は64フェーダー)。物理的な問題もそうだが、数多くのDAWを並行して操作するというダビングのシステムにおいて、MTMが2つあることのメリットは大きい。複数のエンジニアがコンソールに向かい作業を行うため、左右で別々の操作・作業を並走することができるDual Head Systemは作業効率に対して大きなメリットをもたらす。基本的には、左手側がD/M、右手側がE/Fのエンジニアが担当することが多いとのことだが、場合によってフェーダー数を増減したり、操作するDAWを入れ替えたりということが、すべてのDAWを同一のネットワーク上に存在させているため簡単に行える。AVID S6の持つ強力なレイアウト機能、スピルゾーン機能などと組み合わせることで、柔軟な運用を実現できるシステムとなっている。 様々なニーズに対応できるS6×MTRXシステムの柔軟性 様々なワークアラウンドが組めるように設計されている、松竹映像センターのダビングステージ。そのワークアラウンドのいくつかをご紹介したい。 ●Direct Dubber 一番シンプルなシステムパターンとしては、MixerとなるDAWを介さずにMTRXの内部でSTEM MIXを行うというパターン。PlayoutのPro Tools HDXから出力された信号はHD MADIを通じでMADIとして出力される。この信号はMTRX #1号機もしくはMTRX #2号機を通じてMTRX #3号機へ送られる。4台のPlayout Pro Toolsでは、内部で数本のSTEMにミックスされたチャンネルが出力される。これらのSTEMは、最終的にMTRX #3号機でミックスされ、Dubberへと送られる。この際のサンプルレートは基本的に48kHz。シンプルなワークアラウンドで完結させるフローとなる。MTRX #3号機のミックスのフェーダーはDADmanアプリケーションを通じAVID S6のフェーダーで微調整が行えるというのは、特筆すべき事項である。これにより、これまでEuphonix System 5に委ねていたFinalミックスの作成作業をMTRXの内部で行うことができる。このシグナルフローはハリウッドでよく見られるものとほぼ同等である。 ●PT mixer w/Analog SRC 次に、MTRX #1 / #2号機に接続されている、Pro Tools Mixerを使用するパターン。この場合はPlayout内部でミックスを行わず、それぞれの素材がある程度の種類に分けられた複数のSTEMとして出力される。そしてMixer Pro Tools内部でミキシングが行われる。再生機としてのPro Toolsと、MixerとしてのPro Toolsが別々に存在しているというパターン。Pro Tools MixerはまさにSystem5などのハードウェア・コンソールで行っていた機能を代行するものであり、プラグインプロセスなどにより、その機能を拡張するものとして導入が行われている。このパターンでの内部プロセスは48kHzであり、Analog SRCの回路を経由してDubberの直前まですべてがdigitalでダイレクトに接続されている。 ●PT mixer w/Analog SRC@96k Playout Pro ToolsからMTRX #1/#2号機との接続の間にAnalog SRCを挟んだパターン。これにより、Mixer部分はPlayoutの素材のサンプルレートに関わらず96kHzでの動作が可能となる。ミックスを行うプロセスのサンプルレートはやはり音質に対して影響のある部分。ワークアラウンドとしては複雑にはなるが、それでもクオリティーにおいてはプラスに働く要素となりえる。これまでの松竹映像センターのダビングステージで行われていた作業のスタイルをMTRXとPro Toolsを用いてブラッシュアップしたパターンとも言える。48kHzでのマスター素材を収録するDubberの前には、やはりAnalog SRCが存在しているため、サンプルレート変換をPC内部で行うなどの作業は必要ない。まさに、音質と効率の両者を追い求めたシステムアップとなっている。 ●Nuendo mixer w/Analog SRC@96k もちろん、これまで使用されてきたNuendo Mixerも残されている。これによりMixer Engine部分をPro Toolsにするのか、Nuendoにするのかという贅沢な選択も可能となっている。Nuendoの場合には、これまでのシステムと同様に基本的に96kHzの動作でのシステムアップとなっているが、バックボーンとなるシグナルはすべてCoax-MADIに統一されており、パッチ盤での差し替えでいかようにでもシステムを組み変えることができるようになっている。柔軟性と、ダビングステージを使用するお客様のニーズに合わせて変幻自在にその形を変えることができるシステムだ。 マスターセクションとしてのMTRX MTRXのコントロールアプリ"DADmam"は4台を一括で操作できる。手元には、ハードウェアコントローラーMOMが置かれ、アシスタントは手を伸ばすことなくボリュームコントロールが行える。 今回のシステムアップにおいてMTRX #3号機は、まさにハードウェア・コンソールのマスターセクションを代替するものとしてDADman上での設計が行われている。モニターセクションとして、スピーカーボリュームの調整、視聴ソースの切り替えはもちろん、強力なCue Mixの機能を活用し、Assistant DeskへのHead phone送りのソースの切り替え、MTRX #1/#2号機から送られてくる信号のサミングなど、様々な機能を使いシステムアップが行われている。Avid S6のセンターセクションであるMTMからのコントロールと同時に、Assistant DeskにはDAD MOMが用意され、スタジオスタッフが手元でのボリューム調整が行えるように設計されている。 また、Playout用Pro Toolsのコントロールに使われるカートは、Dual Displayにブラッシュアップされた。やはりスタジオを利用するお客様からの要望が多いポイントであったということで、今回の更新に併せて変更された部分となる。このカートへのDisplay出力の仕組みは、これまで通りSDIへ信号を変換しVideo Patchで自由に組み替えができるシステムとしている。もちろんKVM Matrixシステムが導入できればよいのだが、PCの台数、Displayの台数を考えるとかなり大規模なシステムとなってしまうため、コストを抑えつつ、必要十分な機能を果たすということで、こちらのSDI延長システムを継続してご利用いただいている。 ぎっしりAVID MTRXのオプションスロットに設置されたMADI / Digi Link Module。96kHz稼働時にも十分なチャンネル数を確保できるようになっている。 今回の更新では、Dubbing Stageという環境での様々なニーズに応えるべく、かなり大規模なブラッシュアップが図られた。Dual HeadのAvid S6による操作性、機能性の向上。そして、MTRXの導入によるワークアラウンドの多様化など、そのポイントは実に多岐に渡っている。実際に作業を行った後にお話を伺うことができたのだが、習熟を進めている中であるという部分を差し引いたとしても、システムの柔軟性、利便性の向上はしっかりと感じられているとのこと。 デジタルの利便性へすべての信頼を置いてしまうことに疑問を持ち、制作過程における音質というポイントを思い起こしながら、音質と作業効率という反比例をもしてしまうような2つの要素を高度な次元で両立させたこのDubbing Stage。これから行う様々な作業の中で、今後どのようなワークアラウンドが行われていくのか?どのような選択基準でそれが選ばれたのか?実作業におけるシステム活用の様子にも大きな興味が持たれるところだ。 写真左より、株式会社松竹映像センター ポストプロダクション部 ダビング・MA所属の田中俊 氏、深井康之 氏、吉田優貴 氏、清野守 氏、久保田貫幹 氏、石原美里 氏、ROCK ON PRO 嶋田直登、前田洋介 *ProceedMagazine2020号より転載
Music
2020/08/25

AVID BLOGにてDolby Atmos Music ミキシング体験記が公開中!

AVID BLOGにてDolby Atmos Musicのミキシング体験記が公開されています。記事を執筆したのは、カリフォルニア州ロサンゼルス近郊に音楽スタジオ"The Record House"を構えるミキシングエンジニア、Mert Ozcan氏。公式プロフィールによると、彼はバークリー音楽大学を卒業後、Abbey Road、British Grove、Capitol and Interscope Studiosといった世界的にも権威ある数々の音楽スタジオでエンジニアとしての腕を磨き、同じくエンジニア兼ミュージシャンであるBeto Vargas氏と共にThe Record Houseを立ち上げたそうです。 記事ではMert氏によるDolby Atmos Musicミキシングに関する考察がアツく語られているので、ご興味がある方は是非ともご一読してみてはいかがでしょうか? ◎こちらからチェック! Dolby Atmos® Music のミキシング体験とAvidPlayでの配信 - AVID BLOG http://www.avidblogs.com/ja/dolby-atmos-music-avidplay/ 「まるでモノクロがカラーになったみたいだ」 「スタジオを変えたくなった」 「普通に音楽を聴くなんてもう無理です」   これらはアーティストやミュージシャンが、The Record House の新しくできたAtmosミックスルームで Dolby Atmos Music を聴いた時のいくつかのコメントです。この体験が特別なものであった事を物語っています。                                            上記ページより一部抜粋 ◎公式サイトからはMert氏らが手がけた音楽作品も実際に試聴可能です! The Record House 公式サイト https://the-record-house.com/ ◎また、最新号のProceed Magazine 2020ではDolby Atmosに関する基本的な知識から、Pro ToolsでDolby Atmosミキシングを始めるための最初の足掛かりまでを完全解説中!併せてチェック! https://pro.miroc.co.jp/solution/dolby-atmos-proceed2020/ ◎日本語字幕付きPro Tools 解説動画はこちら (Pro ToolsでDolby Atmos Renderを使うワークフローについても紹介されています) https://pro.miroc.co.jp/headline/avidjapan-youtube-playlists-update-202007/ Dolby Atmosに関するお問い合わせは、下記"Contact"より、お気軽にROCK ON PROまでご連絡ください。 ◎Proceed Magazine 最新号発売中! サンプルの試し読みはこちらのページから! https://pro.miroc.co.jp/headline/proceed-magazine-2020/
Event
2020/08/20

AvidがMedia Composer / Sibelius オンラインセミナー開催情報

来る8/28(金)、Avidクリエイティブツールを使用するユーザー様に向けたふたつのオンラインセミナーが開催されます。Media Composerの基本的な操作に関するレクチャーを中心としたものと、作編曲家 侘美 秀俊 氏によるSibeliusを使った実践的なオーケストレーションを紹介する内容となっております。 これらのクリエイティブツールをご使用のユーザー様は、この機会に受講されてはいかがでしょうか。セミナー詳細、事前登録の方法などは下記をご参照ください。 Avid Media Composerオンラインセミナー ~ビギナー編~ 開催情報 作業の効率を上げ、制作のスピードアップをサポートするMedia Composerの代表的な機能をデモンストレーションを交えて紹介する内容です。 まずは基本的な使い方を知りたいという方 ビデオ編集の経験はあるけれどMedia Composerは初めてという方 Media Composerの操作性にご興味をお持ちの方 上記のようなユーザー様を対象に、Media Composerの基本操作を紹介するセミナーです。 日時:2020年8月28日(金)14:00~15:00 場所:Avid特設ページ(オンライン) 参加費:無料 参加方法:こちらのリンクより事前登録の上、ご参加ください。 Sibeliusでオーケストレーション〜実践編~Presented by Avid x Rygasound~ Sibelius製品 日本総代理店 リガサウンドとAvidが共催で、作編曲家としてご活躍の侘美秀俊先生を迎えて送る「Sibeliusでオーケストレーション〜実践編」 ウェビナーシリーズの第2回目。今回のテーマは「弦楽器セクションを組み立ててみよう まずは基本となる4つのパートで! 」 です。 基本的な操作を学びたいというビギナーやこれからの使用を検討中の方から、アレンジやオーケストレーションなど一歩先のテクニックにご興味をお持ちのSibeliusユーザーの皆さままでご満足いただける内容になっています。 講師紹介: 侘美 秀俊(タクミ ヒデトシ)氏 武蔵野音楽大学卒業。作曲楽曲の提供は、劇場上映映画やTVドラマのオリジナルサウンドトラックから、演劇舞台のための音楽、シンフォニックコンサートのオーケストラアレンジなど多岐にわたる。 株式会社 H-t studio代表、北海道作曲家協会理事であり、現在、ローランドミュージックスクール コンピュータミュージック指導者養成コース講師、トート音楽院渋谷校講師、JBG音楽院講師(東京/表参道) オンラインDTMスクールSleepfreaks講師、オンラインミュージックスクール『オトマナビ』講師も務める 日時:2020年8月28日(金)18:00~19:00 場所:Avid特設ページ(オンライン) 参加費:無料 参加方法:こちらのリンクより事前登録の上、ご参加ください。 関連記事 Avidクリエイティブツールに関するノウハウやTipsについては、ROCK ON PRO でも多くの記事で取り上げております。Media Composerだけでなく、Pro Tools関連の情報もございますので、ぜひ、こちらも合わせてご覧ください。 MA必須のオーディオプラグイン!映像編集でどう使いこなす?〜Media Composerでオーディオプラグインを使ってみよう〜 失敗しないオーディオ編集!映像編集でのノイズリダクション “Pro Tools Tech Tips” 日本語翻訳版がYouTubeにて公開中! AVID MTRX Studio ウェビナー アーカイブ映像公開中! Soundwhaleでリモートレコーディングを行う方法 〜How to use Soundwhale Vol.3 スタンドアローン接続編 〜 Soundwhale V1.6 ウェビナーのアーカイブ映像をチェック!!【期間限定】
Media
2020/08/19

株式会社ミクシィ 様 / 新たな価値は「コミュニケーションが生まれる」空間のなかに

都内5拠点に分かれていたグループ内の各オフィスを集約させ、2020年3月より渋谷スクランブルスクエアでの稼働を開始した株式会社ミクシィ。渋谷の新たなランドマークともなるこの最先端のオフィスビル内にサウンドグループのコンテンツ収録や、制作プロジェクトにおける外部連携のコミニュティの場を設けるべく、この機に合わせて新たなスタジオが完成した。オフィス移転によるサウンドグループの移転だけでもプランニングは膨大な労力を伴うものとなるが、加えて高層オフィスビルへのスタジオ新設という側面や、何より同社らしいコミュニケーションというキーワードがどのようにスタジオプランに反映されたのか見ていきたい。 スタジオの特色を産み出した決断 これまで、青山学院にもほど近い渋谷ファーストタワーに拠点を置いていたサウンドグループ。そこにも自社スタジオはあり、主にナレーション録りを中心とした作業を行うスペースとなっていた。もちろん、コンテンツ制作を念頭に置いた自社で備えるスタジオとしては十分に考えられた設備が整っていたが、あくまでオフィス内のスペースでありミックスを形にするという設計ではなかった。また、コンテンツ制作には演者、クリエイターからディレクター、企画担当者など社内だけでも多数の関係者が存在するため、スタジオでいかにコミュニケーションを円滑に進められるか、ということは制作進行にとって重要な課題となっていた。そこへ、各所に分散していたオフィスの集約プランが浮上する。 新しいオフィスは当時建設中であった渋谷スクランブルスクエア、その高層階にサウンドグループのスペースが割り当てられる。そもそも全社のオフィス機能集約となるため、移転計画の最初からフロアにおけるスペース位置、間取り、ドアや壁面といった要素はあらかじめ決められていたものであり、高層ビルにおける消防法の制約もあったそうだ。例えば、スタジオ壁に木材が貼られているように見えるが、実はこちらは木目のシートとなっている。壁面に固定された可燃物は使用できないための対応だが、質感や部屋の暖かさもしっかり演出されている。取材の最後に明かされるまで我々も気がつかなかったほどだ。 そして、今回スタジオ向けに用意されたのは大小の2スペース。そもそもにどちらの部屋をコントロールルームとするのか、またその向きは縦長なのか横長なのか、制約ある条件のもと安井氏と岡田氏が試行錯誤を繰り返す中で着眼したのは"コミニュケーション”という課題。 ミクシィ社としてこのスタジオがどうあるべきか、どういう価値を出すのが正しいのか。専属エンジニアがいる商業スタジオではない、コミュニケーションが生まれる環境とはどのようなものなのか。これにマッチすることを突き詰めて考えた結果、レコーディングブースの方を広くとる設計になり、また当初縦長で進めていたコントロールルームの設計も思い切って横長レイアウトに変えたそうだ。もちろん、音響的な解決を機材面や吸音で行う必要もあれば、ブース窓の位置やテレビの高さ、モニタースピーカーの配置など課題は数多くなったが、これをクリアしていくのも楽しみの一つだったという。そしてこれらのポイントの解決に芯を通したのが"コミニュケーション”が如何にいい形で取れるか、ということ。このレイアウト段階での決断がスタジオを特色あるものにしたのではないだろうか。 音でのコミュニケーションを促進させる最初のツール 前述の通り、こちらは商業スタジオではなくミクシィ社でのプロジェクトにおける制作拠点、またその外部との連携に利用できるスペースとして機能している。自社コンテンツでのボイス・ボーカル収録はもちろんのこと、同フロアにある撮影スタジオとも協業で、自社タレントとユーチューバーの楽曲カバーコラボレーション企画のPV制作や、渋谷公園通りにあるXFLAGストアでのインストアライブの配信コンテンツミックスなどがすでに行われており、多種多様なコンテンツの制作がすでにこちらで実現され始めている状況だ。企画案件の規模によってはクリエイターのワークスペースで完結できるものもあるが、このようなプロジェクトで多くの関係者との共同作業を可能にする拠点、というのが今回のスタジオに求められている要件でもある。社外のクリエイターが来てもすぐに使えるような機材・システム選定を念頭に置き、またそこから「コミュニケーションが生まれる」ような環境をどのように整えたのだろうか。それを一番現しているのがアナログミキサーであるSSL X-DESKの導入だ。 コントロールルームの特注デスクにはPro ToolsのIn the boxミキシング用にAvid Artist MixとアナログミキサーのX-DESKが綺麗に収められている。X-DESKにはAvid MTRXから出力された信号、また入力に対しての信号、さらにレコーディングルームからの信号と、コントロールルームに設置されているマイクプリなど様々なソースに対して臨機応変に対応でき、使用するスタッフによって自由に組み替えが可能になっている。ただしデフォルトの設定はシンプルで、基本的にはマイクプリから来ているマイクの信号と、外部入力(iPhoneやPC上の再生)がミキサーに立ち上がっており、内外問わずどんなスタッフでも簡単に作業を始めることができる仕様だ。 これは現場での作業を想定した際に、ギターでボーカルのニュアンスを伝えたいクリエイターもいれば、ブースでボーカリストの横に入ってディレクションするケースであったり、Co-Write(共作)で作業を行う場合など、共同作業がすぐに始めて立ち上げられて、バランスまで取れる環境を考えるとアナログの方が有利という判断。「音でのコミュニケーションを促進させる最初のツール」がアナログミキサーだということだ。 また、デスク左側にはMac miniを中心としたサブシステムが用意されている。こちらのMac miniにはNuendo/Cubaseもインストール、そのインターフェイスとなるRME Fireface UFX II も左側を向けてラッキング。これも来訪者がすぐさま使用開始できるように配慮されている部分だ。 セレクトされたコミュニケーションでの実用性 それでは、デスク右側のラックに目を向けたい。ラックの中でも特に存在感を放っているのが新型のMacProだ。2019年の夏頃から本格的にスタジオの設計を固め、機材選定も大方定まったところで中々導入時期を読めなかったのがこちらのMacPro。周知の通りで2019年末に突如として姿を現すことになったわけだが、このスタジオに導入されたのは、必須となるレコーディング作業だけに限らず、映像の編集も難なくこなせるであろう3.3GHz 12Core、96GBメモリ、SSD 2TBというスペック構成のもの。レンダリングが数多く走るなど負荷がかかる場面はまだあまりないようだが、意外にもその動作はかなり静粛とのことだ。 このラックではMac Proを筆頭に、ビデオ入力、出力の分配を担うBlack Magic Design SmartVideoHub。そしてAvid HDXからMTRXにつながり、MTRXからX-Deskや、各々ルーティングを細く設定できるバンタムパッチベイがある。Ferrofish PULSE16はMTRXからのDANTE Optionを有効活用し、ADATへ変換されBEHRINGER POWERPLAY16(CUE BOX)に繋がれている。その上にはAvid Sync HDがあり、マスタークロックとしてAntelope Audio Trinityがトップ段に設置されている。 また、モニタースピーカーについてはRock oN渋谷店舗にて十数のモニタースピーカーが比較試聴され、KS digital C8 Reference Rosewood(後に同社製のサブウーファーも導入)とAmphion One18が選ばれた。こちらは横長にしたコントロールルームのレイアウトを考慮してニアフィールドにスイートスポットがくる同軸のKS digitalと、バランスを重視してのAmphionというセレクトとなった。使用するスタッフによってナレーションでのボイスの部分にフォーカスしたり、あるいは楽曲全体を聴く必要があるなど、用途は制作内容によってそれぞれとなるためバランスの良さという共通項はありつつも、キャラクターが異なる2種類が用意された。 後席ソファー横にはデシケーターがあり、U87Ai、TLM67、C414 XLSなどが収められている。演者にもよるが特に女性の声優とTLM67がよくマッチするようで好まれて使用されることが多いそうだ。また、マイクモデリングを行えるSlate Digital VMSの姿も見える。こちらは試している段階とのことだが、ボイス収録の幅広さにも適用できるよう積極的に新たな技術も視野に入れているようだ。確実性あるベーシックな機材を押さえつつ、 新MacProやMTRXといった新しいプロダクトを導入し、かつコミュニケーションの実用性を図っているところが、こちらの機材セレクトの特色でありユニークなところと言えるだろう。 レコーディングブースを超えた多目的さ 大小のスペースのうち、広い方を割り当てたブースは主にナレーション録音が行われる。天井のバトンにはYAMAHA HS5Wが5ch分吊るされているのだが、用途としては5.1chサラウンドへの対応だけではなく、イベント向けの制作に効果を発揮するという。イベント会場では吊られたスピーカーから音が出るケースが多く、その環境を想定しての音作りを求められることが多いためだ。多様な企画を行うミクシィ社ならではのスピーカー環境の利用の仕方と言える。なお、センターにあるHS5Wの横にもパッシブモニター YAMAHA VXS5W(パワー・アンプはコントロールルームにYAMAHA MA2030aを設置)がTalkBack用の返しモニターとして設置されている。このようにヘッドフォンに返すのではなく、あえてモニターでTalkBackを送るというのは、コントロールルームとのコミニュケーションをよりよくするために考えられた発想だ。 また、コントロールルームのラックにあったBlackMagic Smart Videohub 12x12にて、ディスプレイモニターには映像の出力やPro Toolsメイン画面を切り替えにて映し出し可能、レコーディングブースでもミキシングも行えるようになっている。急ぎの案件ではブースとコントロールルームでパラレル作業を行い、作業部屋二つのようなスタイルでも使われるとのことだ。そして、壁面のパネルは演者の立ち位置を考慮して4面それぞれに配置されている。4人でのナレーションを録る場合や、さらに声優たちの個別映像出しにモニター出力用のSDI端子、CUE送り用のLAN端子。また、スタッフがブース内でPC/Macを持ち込み映像を見ながら打ち合わせをする場合に備えての社内LAN回線までもが備えられている。ミクシィという企業ではこの先にどんな制作物が発想されてもおかしくない、とのことで考えうる最大限の仕様が織り込まれた格好だ。スピーカーが吊るされたことにより、無駄なくスペースを広く保ち、録音はもちろんコントロールルームと並走したミキシングの機能まで兼ね備えている。単にレコーディングブースと呼ぶには留まらない特徴的な”多目的"スペースを実現している。 コミュニケーションを生み出す仕掛け コミュニケーションを生み出すというコンセプトによって生み出された工夫はほかにもある。コントロールルームの後方にあるソファは通常はクライアント用と考えられそうだが、こちらは商業スタジオではないためこのスペースも立派に作業スペースとして成り立つ必要がある。そのためこのソファの内部2箇所に可動式のパネルが隠されている。クリエイターやプロデューサーがPC/Macを持ち寄り、その場で持ち込んだ素材(オーディオファイル)の確認や、映像の出力、もちろんディレクションも行えるようにモニターコントローラーとして採用されたGrace Design m905のTalkBackマイクのスイッチがアクセスできるようになっている。当初このアイデアは壁面や床面など設置位置に試行錯誤があったようだが、その結論はなんとソファの中。これによってスタジオのデザイン的な要素や機能面も損なうことなく、コミュニケーションを生み出す仕掛けが実現できている。 また、コントロールルーム正面からそのまま窓越しに演者とコミュニケーションが取れるようにというのが、レイアウトを横長に変更した大きな理由であったが、ブースへの窓はエンジニア席だけではなく、このソファからの視線も考慮されて位置が決定されている。窓位置はモニタースピーカーの位置決定にも関わるし、テレビの配置にも関わる。施行前から座席部分にテープでマーキングして両氏が念入りに試行錯誤を重ねたそうだ。 そして、このフロアにはサウンドスタジオのみではなく、連携して協業する撮影スタジオのほか、会議室、社員の休憩スペースからコンビニエンスストアまで整っている。インタビューを行った会議室や休憩スペースは遠く水平線まで見渡せる開放的なスペースで、集中した作業を行うスタジオ内と実に対照的。作業のON/OFFがはっきりとした環境で生まれるコミュニケーションも良好なものになりそうだ。 最後に話題となったのは、スマートフォンにおける5Gへの対応だ。 「まさに実用が始まったばかりとなる5Gの高速な通信は、端末に頼らなくとも大容量のコンテンツを成立させることができるかもしれない。もちろん、アプリやゲームも5Gの恩恵を受けてより高度な表現を提案することが可能になってくる。サウンドで言えばバイノーラルへの対応でキャラクターへの没入感をより深いものにできるかもしれない。5Gで何ができるのだろうか、提供されるインフラとはどのようなものだろうか、そして顧客へ提供できるサービスとはなんだろうか、このような着想から生み出されるのは各社の特色。そして何に強みを持ってコンテンツを作っていくのか、これによって整えるスタジオの環境も変わってくる。」 インタビュー時の両氏のコメントをまとめたものだが、やはり見据えているのはインフラやプラットフォームまで含めたエンタテインメントコンテンツそのものであるという点で、クリエイティブワークだけではない視野の広さが求められているということが感じられた。このスタジオが生み出すコミュニケーションの積み重ねが、5Gの可能性を引き出し、エンタテインメントの可能性を拡げていく。今後このスペースは従来のスタジオ以上の価値を生み出していくことになる、とも言えるのではないだろうか。 株式会社ミクシィ モンスト事業本部 デザイン室 サウンドグループ マネージャー 安井 聡史 氏     株式会社ミクシィ コーポレートサポート本部 ビジネスサポート室 サウンドライツグループ 岡田 健太郎 氏 *ProceedMagazine2020号より転載
Media
2020/08/11

ゼロからはじめるDOLBY ATMOS / 3Dオーディオの世界へDIVE IN !!

2020年1月、CES2020にてお披露目された"Dolby Atmos Music"。映画向けの音響規格の一つであるDolby Atmosを、新たなる"3D"音楽体験として取り入れよう、という試みだ。実は、前年5月頃より"Dolby Atmosで音楽を制作しよう”という動きがあり、ドルビーは世界的大手の音楽レーベル、ユニバーサルミュージックとの協業を進めてきた。"Dolby Atmos"は元々映画音響用のフォーマットとして2012年に誕生している。その後、ヨーロッパを中心に対応劇場が急速に増え、海外では既に5000スクリーン以上、国内でもここ数年で30スクリーン以上に渡りDolby Atmosのシステムが導入されてきた。 また、映画の他にもVRやゲーム市場でもすでにその名を轟かせており、今回、満を持しての音楽分野への参入となる。Dolby Atmos Music自体は、既にプロオーディオ系の様々なメディアにて取り上げられているが、「Dolby Atmosという名称は聞いたことがある程度」「Dolby Atmosでの制作に興味があるが、日本語の情報が少ない」という声もまだまだ多い。そこでこの記事では、今のうちに知っておきたいDolby Atmosの基礎知識から、Dolby Atmosミックスの始めの一歩までを出来るだけ分かりやすい表現で紹介していきたい。 目次 コンテンツは消費の時代から”体験”の時代に 〜イマーシブなオーディオ体験とは?〜 まずは Dolby Atmosを体験しよう! / 映画、音楽、ゲームでの採用例 ベッドとオブジェクトって何!? / Dolby Atmos基礎知識 Dolby Atmos制作を始めよう / 必要なものは何? 自宅で始めるDolby Atmosミックス / Dolby Atmos Renderer × Pro Tools 2020.3【Send/Return編】 自宅で始めるDolby Atmosミックス / Dolby Atmos Renderer × Pro Tools 2020.3【CoreAudio編】 1.コンテンツは消費の時代から”体験”の時代に 〜イマーシブなオーディオ体験とは?〜 近年、"3Dオーディオ"という言葉をよく見かけるようになった。今のところ、その厳密な定義は存在していないが、古くからは"立体音響"や"三次元音響"といった言葉でも知られており、文字通り、音の位置方向を360度、立体的に感じられる音響方式のことを指す。その歴史は非常に古く、諸説あるがおよそ1世紀に渡るとも言われている。 点音源のモノラルに始まり、左右を表現できるようになったステレオ。そして、5.1、7.1、9.1…とその数を増やすことによって、さらなる音の広がりや奥行きを表現できるようになったサラウンド。と、ここまででもイマーシブな(*1)オーディオ体験ができていたのだが、そこにいよいよ、天井や足元といった高さ方向にもスピーカーが加わり、三次元空間を飛び回るような音の再生が可能になった。それぞれの方式は厳密には異なるが、3DオーディオフォーマットにはDolby Atmos、Auro-3D、DTS:X、NHK22.2ch、Sony360 Reality Audioなどといったものがある。 基本的に、これまでこうした3Dフォーマットのオーディオを再生するにはチャンネル数に応じた複数のスピーカーが必要だった。そのため、立体的な音像定位の再現性と、そうした再生環境の手軽さはどうしてもトレードオフになっており、なかなか世間一般に浸透しづらいという状況が続いていた。そこで、いま再注目を浴びているのが"バイノーラル(*2)録音・再生方式"だ。個人差はあるものの原理は単純明快で、「人間の頭部を模したダミーヘッドマイクで録音すれば、再生時にも人間が普段自分の耳で聞いているような立体的な音像が得られる」という仕組み。当然ながらデジタル化が進んだ現代においては、もはやダミーヘッドすら必要なく、HRTF関数(*3)を用いれば、デジタルデータ上で人間の頭側部の物理的音響特性を計算・再現してしまうことができる。 バイノーラル再生自体は全くもって新しい技術というわけではないのだが、「音楽をスマホでストリーミング再生しつつ、ヘッドホンorイヤホンで聴く」というスタイルが完全に定着した今、既存の環境で気軽にイマーシブオーディオを楽しめるようになったというのが注目すべきポイントだ。モバイルでのDolby Atmos再生をはじめ、Sonyの360 Rearity Audio、ストリーミングサービスのバイノーラル音声広告といった場面でも活用されている。 *1 イマーシブ=Immersive : 没入型の *2 バイノーラル= Binaural : 両耳(用)の *3 HRTF=Head Related Transfer Function : 頭部伝達関数 2.まずは Dolby Atmosを体験しよう! / 映画、音楽、ゲームでの採用例 では、Dolby Atmosは一体どのようなシーンで採用されているのだろうか。百聞は一見に如かず、これまでDolby Atmos作品に触れたことがないという方は、まずは是非とも体験していただきたい。 映画 映画館でDolby Atmosを体験するためには、専用設計のスクリーンで鑑賞する必要がある。これには2種類あり、一つがオーディオの規格であるDolby Atmosのみに対応したもの、もう一つがDolby Atmosに加え、映像の規格であるDolby Visionにも対応したものだ。後者は"Dolby Cinema"と呼ばれ、現時点では国内7スクリーン(開業予定含む)に導入されている。   Dolby Atmosでの上映に対応している劇場は年々増加していて、2020年4月現在で導入予定含む数値にはなるが、既に国内では 36スクリーン、海外では5000スクリーン以上にも及んでいる。 (いずれもDolby Atmos + Dolby Cinema計)当然ながら対応作品も年々増えており、ライブストリーミング等、映画作品以外のデジタルコンテンツも含めると、国内では130作品、海外ではその10倍の1300を超える作品がDolby Atmosで制作されている。いくつか例を挙げると、国内興行収入130億円を超える大ヒットとなった2018年の「ボヘミアン・ラプソディ」をはじめ、2020年のアカデミーでは作品賞を受賞した「パラサイト 半地下の家族」、同じく録音賞を受賞した「1917 命をかけた伝令」などといった作品がDolby Atmosで制作されている。   ●Dolby Atmos採用映画の例 アイアンマン3 / アナと雪の女王 / ラ・ラ・ランド/ パラサイト / フォードvsフェラーリ / ジョーカー / 1917 命をかけた伝令 / ボヘミアンラプソディetc... *Dolby 公式サイトよりDolby Atmos採用映画一覧を確認できる  ゲーム Dolby AtmosはPCやXbox Oneといった家庭用ゲームの人気タイトルでも数多く採用されている。特に、近年流行りのFPS(First Person Shooter = 一人称視点シューティング)と呼ばれるジャンルのゲームでは、射撃音を頼りに敵の位置を把握しなければならない。そのため、Dolby Atmosを使った3Dサウンドの再生環境の需要がより高まってきているのだ。   ※Windows PCやXbox OneにおいてヘッドホンでDolby Atmosを楽しみたい場合は、Dolby Access(無料)というアプリをインストールし、Dolby Atmos for Headphonesをアプリ内購入する必要がある。   ●Dolby Atmos採用ゲームの例 Assassin's Creed Origins(Windows PC, Xbox One) / Final Fantasy XV(Windows PC ,Xbox One)Star / Wars Battlefront(Windows PC ,Xbox One) / ACE COMBAT 7: SKIES UNKNOWN(Windows PC, Xbox One) 音楽 Amazon Echo Studio そして2020年1月にCES2020で正式発表されたのが、このDolby Atmosの名を冠した新たな3Dオーディオ再生フォーマット、Dolby Atmos Musicだ。現時点で、国内ではAmazonが提供するAmazon Music HD内のみでサービスを提供しており、同社のスマートスピーカー”Amazon Echo Studio”を用いて再生することができる。アメリカでは音楽ストリーミングサービス"TIDAL"でもDolby Atmos Musicを再生することができ、こちらは対応するPCやスマホなどでも楽しめるようになっている。 ここまで、Dolby Atmosを体験してみて、皆さんはどのような感想を持たれただろうか? 当然ながら多少の個人差はあるにしても、映画であればその空間に入り込んだかのような没入感・豊かな臨場感を体験できたのではないだろうか。あるいは、人によっては「期待したほど音像が動き回っている感じが得られなかった」という方もいるだろう。しかし、それでDolby Atmosの魅力を見限るのはやや早計だ。なぜなら、この技術は、"作品の意図として、音を無意識に落とし込む”くらい自然にミックスすることを可能にしているからだ。それを念頭におき、もう一度、繊細な音の表現に耳を澄ましてみてほしい。 3.ベッドとオブジェクトって何!? 〜Dolby Atmos基礎知識〜 体験を終えたところで、ここからは技術的な側面と基礎知識を押さえていこう。ポイントとなるのは以下の3点だ。 ● ベッド信号とオブジェクト信号 ● 3次元情報を記録するメタデータ ● 再生環境に合わせてレンダリング Dolby Atmosの立体的な音像定位は、2種類の方式を組み合わせて再現されている。 一つはチャンネルベースの信号 ー 5.1.2や7.1.2などあらかじめ定められたスピーカー配置を想定し、そのスピーカーから出力される信号のことを"Bed"と呼んでいる。例えば、BGMやベースノイズといった、あまり指向性が求められない音の再生に向いている。基本は音源とスピーカーが1対1の関係。従来のステレオやサラウンドのミックスと同じなので比較的イメージがつきやすいだろう。 劇場のように、一つのチャンネルが複数のスピーカーで構成されていた場合、そのチャンネルに送った音は複数のスピーカーから再生されることになる。 そしてもう一つはオブジェクトベースの信号 ー 3次元空間内を縦横無尽に動き回る、点音源(ポイントソース)の再生に適した方式だ。例えば、空を飛ぶ鳥の鳴き声や、アクション映画での動きのある効果音の再生に向いている。原理としては、3次元情報を記録するメタデータをオーディオとともに記録・伝送し、再生機器側でそれらを再生環境に合わせてレンダリング(≒変換)することで、再生環境ごとのスピーカー配列の違いをエンコーダー側で吸収できるという仕組みだ。 ある1点に音源を置いた時に、そこから音が聴こえるように、スピーカー送りを最適化するのがレンダラーの役割 Dolby AtmosのチャンネルフォーマットはBed 7.1.2ch(計10ch) + Object118ch(最大)での制作が基本となっている。この"空間を包み込むような音"の演出が得意なベッドと、”任意の1点から聞こえる音”の演出が得意なオブジェクトの両方を組み合わせることによって、Dolby Atmosは劇場での高い臨場感を生み出しているのだ。 4.Dolby Atmos制作を始めよう 〜必要なものは何?〜 Dolby Atmosはその利用目的によって、大きく2種類のフォーマットに分けられる。 まずは、一番最初に登場した映画館向けのフォーマット、Dolby Atmos Cinemaだ。これはまさにフルスペックのDolby Atmosで、先述した7.1.2chのBEDと118chのObjectにより成り立っている。このフォーマットの制作を行うためにはDolbyの基準を満たした音響空間を持つダビングステージでの作業が必要となる。しかも、劇場向けのマスターファイルを作ることができるCinema Rendering and Mastering Unit (Cinema RMU)はDolbyからの貸し出しでしか入手することができない。 もう一つは、Blu-ray やストリーミング配信向けのフォーマット、 Dolby Atmos Homeだ。実は、こちらの大元となるマスターファイル自体は Cinema 向けのものと全く同じものだ。しかし、このマスターファイルから Home 向けのエンコードを行うことで、128chのオーディオを独自の技術を活用して、できる限りクオリティーを担保したまま少ないチャンネル数に畳み込むができる。この技術によって、Blu-rayやNetflixといった家庭向けの環境でも、Dolby Atmos の迫力のサウンドを楽しめるようになった。こちらも、マスターファイルを作成するためには、HT-RMUと呼ばれるハードウェアレンダラーが必要となるが、HT-RMUは購入してスタジオに常設できるというのがCinemaとは異なる点だ。 ●Dolby Atmos制作環境 比較表 ※Dolby Atmos Production SuiteはWeb上、AVID Storeからご購入できるほか、Mastering Suiteにも付属している。 ※Dolby Atmos Dub with RMUについてはDolby Japan(TEL: 03-3524-7300)へお問い合わせください。 ●Cinema 映画館上映を目的としたマスター。ダビングステージでファイナルミックスとマスタリングを行う。Dolby Atmos Print Masterと呼ばれるファイル群をCinema Rendering and Mastering Unit (Cinema RMU)で作成。 ●Home 一般家庭での視聴を目的としたマスター。ニアフィールドモニターによるDolby Atmosスピーカー・レイアウトにてミックスとマスタリングを行う。Dolby Atmos Master File(.atmos)と呼ばれるファイル群をHome-Theater-Rendering and Mastering Unit(HT-RMU)で作成。   Cinema用とHome用のRMUでは作成できるファイルが異なり、スピーカーレイアウト/部屋の容積に関する要件もCinema向けとHome向けで異なる。それぞれ、目的に合わせたRMUを使用する必要がある。ミキシング用のツール、DAW、プラグイン等は共通。 ここまで作品や概要を説明してきたが、そろそろDolby Atmosでの制作を皆さんも始めてみたくなってきただろうか?「でも、自宅に7.1.2chをモニターできる環境が無い!「やってみたいけど、すぐには予算が捻出できない!」という声も聞こえてきそうだが、そんな方にとっての朗報がある。Dolby Atmos Production Suiteを使えば、なんと ¥33,000 (Avid Storeで購入の場合)というローコストから、Dolby Atmos ミックスの最低限の環境が導入できてしまうのだ。このソフトウェア以外に別途必要なものはない。必要なものはスペックが少し高めのマシンと、対応DAW(Pro Tools、Nuendo、DaVinchi etc)、そしてモニター用のヘッドホンのみだ。 多少の制約はあるものの、ヘッドホンを使ったバイノーラル再生である程度のミックスができてしまうので、スタジオに持ち込んでのマスタリング前に自宅やオフィスの空き部屋といったパーソナルな環境でDolby Atmosの仕込みを行うことができる。次の項ではそのワークフローを具体的に紹介していく。 5.自宅で始めるDolby Atmosミックス 〜Dolby Atmos Renderer × Pro Tools 2020.3〜 ここからは最新のPro Tools 2020.3 とProduction Suiteを使って実際のDolby Atmosミックスのワークフローをチェックしていきたい。まず、大まかな流れとしては下記のようになる。PTとレンダラーの接続方法は、Send/Returnプラグインを使う方法とCore Audio経由でやり取りする方法の2種類がある。それでは順番に見ていこう。 1.Dolby Atmos Production SuiteをAvid Storeもしくは販売代理店にて購入しインストール。 2.Dolby Atmos Renderer(以後レンダラー)を起動各種設定を行う。 3.Pro Tools(以後PT) を起動各種設定を行う。※正しいルーティングの確立のため、必ずレンダラー →Pro Toolsの順で起動を行うこと。 4.PTの標準パンナーで3Dパンニングのオートメーションを書き込む。 5.Dolby Atmos RMU導入スタジオに持ち込む。 Send/Returnプラグインを使う方法 ■Dolby Atmos Renderer の設定 ● 左上Dolby Atmos Renderer → Preferences( ⌘+ , )で設定画面を表示 ● Audio driver、External Sync sourceをSend/Return Plug-insに設定 ● Flame rate、Sample rateを設定 ※PTの設定と合わせる HeadphoneのRender modeをBinauralにすることで、標準HRTFでバイノーラル化された3Dパンニングを確認することができる。(※聴こえ方には個人差があります。)   ■Pro Tools の設定 ● 新規作成→プロジェクト名を入力→テンプレートから作成にチェック ● テンプレートグループ:Dolby Atmos Production Suite内”Dolby Atmos Renderer Send Return Mono(またはStereo)”を選択→ファイルタイプ:BWF ● 任意のサンプルレート、ビットデプス、I/O設定を入力→作成 ● 設定 → ペリフェラル → Atmosタブ ● チェックボックスに2箇所ともチェックを入れる。 ● RMUホストの欄には”MAC名.local”または”LOCALHOST”と入力。   接続状況を示すランプが緑色に点灯すればOK。一度接続した場合、次回からプルダウンメニューで選択できる。 編集ウィンドウを見てみると、英語でコメントが入力されたいくつかのトラックが並んでいる。   ● まず、一番上の7.1.2Bedという名称のトラック ーここにBedから出力したい7.1.2の音素材をペーストまたはRECする。 ● 次に、その下のObject 11という名称のトラック ーここにObjectから出力したいMonoまたはStereoの音素材をペーストまたはRECする。 ● 上の画像の例では、任意の範囲をドラッグして選択、AudioSuite→Other→Signal Genetatorよりピンクノイズを生成している。 ● このトラックは、画面左側、非表示になっている”SEND_〇〇_IN_ch数”という表記になっているAUXトラックに送られている。 ● このAUXトラックにSendプラグインがインサートされており、パンなどのメタデータとともにレンダラーへと出力される。 試しに再生してみると、レンダラー側が上の画像のような状態になり、信号を受けているチャンネルが点灯している様子が確認できる。 赤丸で囲った部分をクリックしてアウトプットウィンドウを表示し、パンナーのポジションのつまみをぐりぐりと動かしてみよう。 すると、レンダラー内のオブジェクトが連動してぐりぐりと動くのが確認できる。   オートメーションをWriteモードにしてチェックすると、きちんと書き込んだ通りに3Dパンニングされているのが分かる。ここで、トラックの右端”オブジェクト”と書かれているボタンをクリックすると、”バス”という表示に切り替わり、その音はベッドから出力される。つまり、ベッドとオブジェクトをシームレスに切り替えることができるのだ。これは、例えば、映画などで正面のベッドから出力していたダイアローグを、”ワンシーンだけオブジェクトにして、耳元に持ってくる”といった表現に活用できそうだ。   さらにその右隣の三角形のボタンを押すごとに、” このトラックに書き込まれたメタデータをマスターとする ”( 緑点灯 ) か、” 外部のオブジェクトパンニング情報源からREC する ”( 赤丸点灯 ) か、” 何も送受信しない ”( 無点灯 ) か を選択できるようになっている。レンダラー内でレンダリングされた音は、ReturnプラグインからPTへと戻ってくる。あとは、各々のモニター環境に合わせてアウトプットしたり、RECをかけたりすることができる。   以上が、Send/Returnプラグインを利用した一連のルーティングのワークフローになる。今回はテンプレートから作成したが、もちろんはじめから好きなようにルーティングを組むことも可能だ。しかし、チャンネル数が多い場合はやや複雑になってくるので、初めての場合はまずはテンプレートからの作成をおすすめする。 CoreAudioを使う方法 はじめに、Core Audioを使う場合、Sync sourceをMTCかLTC over Audioから選択する必要がある。LTCを使う場合は、PTの130chまでの空きトラックにLTCトラックまたは、Production Suite 付属のLTC Generator プラグインを挿入→レンダラーからそのch番号を指定する。MTCを使う場合はIACバスをというものを作成する必要がある。(※IAC = Inter-application communication)   ■IACバスの設定 ● Mac →アプリケーション→ユーティリティ→Audio MIDI設定を開く ● タブメニューのウインドウ→IAC Driverをダブルクリック ※装置名がIACドライバなど日本語になっていた場合レンダラーでの文字化けを防ぐため”IAC Driver”など英語に変更しておくとよい ● +ボタンでポートを追加→名称を”MTC”(任意)に変更→適用をクリック   ■Dolby Atmos Renderer 側の設定 ● 左上Dolby Atmos Rendere → Preferences( ⌘+ , )で設定画面を表示 ● Audio driverをCore Audioに設定 ● Audio input deviceを”Dolby Audio Bridge”に設定 ※ここに”Dolby Audio Bridge”が表示されていない場合、Macのシステム環境設定→セキュリティとプライバシー内に関連するアラートが出ていないか確認。 ● External Sync sourceをMTCに設定し、MTC MIDI deviceで先ほど作成したIAC Driver MTCを選択(またはLTC over Audioに設定しCh数を指定) ● Flame rate、Sample rateを設定 ※PTの設定と合わせる ● ヘッドホンでバイノーラルで作業する場合はHeadphone only modeを有効にすると、リレンダリングのプロセスなどを省くため、マシンに余分な負荷をかけることなく作業できる   ■Pro Tools 側の設定 ● 設定→プレイバックエンジンを”Dolby Audio Bridge”に。 ● キャッシュサイズはできる限り大きめに設定しておくと、プレイバック時にエラーが発生しにくくなる。 ● 設定→ペリフェラル→同期→MTC送信ポートを先ほど作成した”IAC Driver,MTC”に設定 ● 設定 → ペリフェラル → Atmosタブ(Send/Returnの項目と同様だ) ● チェックボックスに2箇所ともチェックを入れる。 ● RMUホストの欄には”MAC名.local”または”LOCALHOST”と入力。接続状況を示すランプが緑色に点灯すればOK。一度接続した場合、次回からプルダウンメニューで選択できる。 以上で、CoreAudio経由でのルーティングは完了だ。Send/Returnプラグインを利用する時のように大量のAUXトラックが必要ないため、非常にシンプルにセッティングを完了できる。また、ソフトウェアレンダラーでの仕込みから最終のマスタリングでRMUのある環境に持ち込む際にも、I/O設定をやり直さなくてよいという点もメリットの1つだろう。こちらも試しにオーディオ素材を置いて動作を確認していただきたい。   マルチチャンネルサラウンドやバイノーラルコンテンツへの需要は、日々着実に高まりつつあることが実感される。今回はゼロからはじめるDolby Atmosということで、Dolby Atmosとはどのようなものなのか、そしてDolby Atmosミックスを始めるためにはどこからスタートすればいいのか、という足がかりまでを紹介してきた。「思ったより気軽に始められそう」と、感じていただいた方も多いのではないのだろうか。 「一度体験すれば、その素晴らしさは分かる。ただ、一度体験させるまでが難しい。」というのが3Dオーディオの抱える最大の命題の命題かもしれない。これを解決するのは何よりも感動のユーザー体験を生み出すことに尽きる。そのために今後どのような3Dオーディオ制作ノウハウを蓄積していけるのか、全てのクリエイターが手を取り合って研鑽することが、未来のコンテンツを創り上げる第一歩と言えるのかもしれない。 *ProceedMagazine2020号より転載
Sales
2020/08/10

最終在庫確保!! Avid HDXカードほか、一部製品がプライスアップ!

2020年8月10日付けで価格が改定され、その価格が約8%上昇したPro Tools HDX Core Card。ROCK ON PROでは、数量限定で旧価格在庫を確保しております! 完全数量限定!HDXシステムの心臓部を旧価格で入手できる最後のチャンス!! Pro Tools HDX Core 販売価格¥520,300→数量限定!旧価格在庫¥480,700(本体価格¥437,000) Dolby Atmosをはじめとして、多チャンネル/多トラックが主流となりつつある現在、新規導入ご検討の方だけでなくHDXカードの増設を考えていた方々にも非常にショッキングなニュースだった今回のプライスアップ。 価格改定までに間に合わなかった、というお客様、この機会をお見逃しなくご利用ください!! ご質問、在庫の確認などは下記contactバナーをクリックし、お問い合わせフォームよりお気軽にご連絡ください。
Review
2020/08/10

YAMAHA SYNCROOM 取材レポート 〜音楽の楽しみ方の”新しい選択肢”を目指して〜

2020年6月29日より正式にサービスを開始したYAMAHAの公式オンライン遠隔合奏サービス”SYNCROOM”。すでにニュースなどでも取り上げられているのでご存知の方も多いだろう。今回はSYNCROOMの開発の背景や実際の仕様などについて、YAMAHAの開発・広報担当者にオンラインでお話を伺うことが出来たので、その内容をレポートしたいと思う。 前身はNETDUETTOと呼ばれるサービスだった ベータ版までは"NETDUETTO(ネットデュエット)"という名称でサービスを展開していたが、正式リリースのタイミングでSYNCROOMと名称を変更したこのサービス。遠隔地にいる演奏者同士が、オンラインで楽器のセッションを行うことが出来るという画期的なもの。普段、仕事や"オン飲み"などで使われているMocrosoft Teams、Zoomなどの一般的なビデオチャットサービスでは、遅延が大きいため音楽セッションを行うとストレスを感じる環境となってしまう。この一般のインターネット回線を利用する上では避けられないネットワーク上の遅延問題を、SYNCROOMでは一体どのようにして回避しているのだろうか。 オンラインでのセッションを実現するための工夫とは? お話を伺ってみるとその解決策はシンプルそのもの。どのような環境下であれ、絶対的に生じてしまうネットワーク遅延をいかに短くするか。その一点に注目し、開発が進められてきたということだ。遅延を短くするためにソフトウェアとして行うことの出来る工夫はすべて行い、必ず生じてしまうネットワーク遅延に備える、そのような考え方である。そのため、手元コンピューターでのバッファなど、遅延につながる動作は、常に自動で最低限となるよう設計されている。そして、そこにはネットワーク遅延を最短化するための工夫ももちろん含まれる。 遅延を最短化するためには、演奏者同士(SYNCROOM同士)を1対1、PtoP(Peer to Peer)で接続することが重要である。一旦サーバーを介して接続をするようなシステムにしてしまうと、手元のPCから、サーバー、そして相手のPCとネットワーク遅延が増えてしまうのは、容易にイメージいただけるだろう。それを回避するためにSYNCROOM同士は、インターネットを介して1対1で接続される。 SYNCROOMは最大5名までが同時にセッションを行うことが出来るサービス(ルーム連結機能を使えば最大10名まで拡張可能)なので、自分の演奏している音は、相手のPCそれぞれに向けて、1対1で送信されているということになる。汎用のコミュニケーションツールが大抵、サーバーを介していることを考えると、1体多数で1対1(PtoP)の接続を実現しているというところがSYNCROOMの凄さだと感じる。また、これこそが、SYNCROOMの低遅延伝送のキーテクノロジーとも言える。 実はリアルでのセッション環境にも遅延は存在する SYNCROOMで相手との間に生じる遅延がどれくらいか、ということは公式には明記されていないが、それはある意味当たり前の話だ。何故なら、ネットワーク遅延がどれくらい生じるかは、接続されている環境によって全く別の物となってしまうからである。あくまでも、それぞれの1対1の接続における遅延を最低限にするということに注力しているため、それぞれの遅延を合わせるということは行っていない。実際に集まって演奏したと考えても、それぞれのミュージシャンの立ち位置により距離はそれぞれ異なる。距離が異なるということは、音波伝達に伴う遅延も異なるということ。立ち位置の違いとそれぞれの場所を結ぶネットワーク遅延の差異は似ている。公式WEBにも記載があるが、5m離れれば、そこでは約15msの遅延が生じている。1mに付き3msだ。このレベルの遅延量であれば大きなステージでの立ち位置による音声伝搬の遅延と同等であるというのが、開発側の考え方である。セッションが行えるという観点から見ればこの考え方は全く正しいものであると言えるだろう。 YAMAHAクオリティの高音質を実現 ここまでは、遅延のことばかりを書いてしまったが、肝心のサウンドのクオリティーはどうだろう。そこはさすがYAMAHAである。48kHz/16bitの非圧縮での伝送を実現しているということだ。単純に非圧縮の伝送ということではなく、最大で1対5箇所への低遅延同時伝送である。そう考えると、他の技術では真似の出来ないことを実現しているということがわかるのではないだろうか。今後の回線状況の高速化、PCスペックの向上などにより、将来的には24bit対応、96kHz対応なども実現可能な余地がある。現時点では、安定した低遅延の伝送を行うということを主眼に置き現在のスペックを実装しているということだ。インターネット回線は、今後まだまだ高速化することがわかっている。そうすれば、SYNCROOM自体も高音質、低遅延になりさらなる向上を果たすことになるだろう。 マルチトラック録音を可能にするVSTプラグイン SYNCROOMには、セッションを録音する機能が実装されている。更には、それぞれのプレイヤーのサウンドをバラで収録するためのVSTプラグインもリリースされている。このプラグインを使うことで、SYNCROOMで演奏中のマルチトラックデータをDAWで収録することが可能となる。これは、かなり画期的なソリューションである。ソーシャル・コミュニケーションツールでは御存知の通り、下手をすれば大抵のサービスがモノラルの音声、ステレオですらないということを考えると、音質の良さに加え、マルチトラックでの収録を実現しているというのは、その後の楽曲制作などにも役に立つ機能である。 高音質低遅延を再優先しているからこそのジレンマ 正式リリースから1ヶ月強の時点ということではあるが、今後に期待したい点もいくつかある。そのひとつは、音声に特化したサービスであるため、相手の顔が見えないという点だ。やはり、よりリアルに近いセッションを考えるとアイコンタクトができないというのはストレスに感じることもあるだろう。現状、ユーザーの間では、Zoomなどの既存のビデオチャットサービスと併用してSYNCROOMを楽しんでいる方が多いようだ。それならばせめて、何かしら既存のサービスとのアカウント連携などといった機能があると、より便利になるのではないかと個人的には感じている。 将来的には海外進出も視野に NETDUETTO自体は、8年ほどベータを重ねてきたテクノロジーである。たまたま、このコロナ禍の真っ只中のリリースとなったが、こういった事態を想定して開発されてきたものではなく、ネットワーク環境などのインフラがこのサービスを満足に動かせるようになり、ソフトウェアとしての完成度が高まったのが、このタイミングだったとのこと。まさに時代を感じさせるタイムリーなリリースではあったが、YAMAHAの開発に先見の明があったということである。現在は、国内のみのサービスとのことだが、将来的に、海外とのSYNCROOM接続ができるようになると、海外の見知らぬアーティストとのセッションや、ネット越しでのライブへのゲスト参加など、ますます夢は広がる一方だ。 「ユーザーと共に研究開発を進めて行きたい」と今後の展望を熱く語るSYNCROOM担当チーム。現在は有線LANでの安定した接続が必須ではあるが、5Gが本格的に稼働した際に無線LAN下でどこまで出来るかなど興味は付きない。今後の動向に注目したい。 弊社取り扱い製品に関するお問い合わせは、下記"Contact"より、お気軽にROCK ON PROまでご連絡ください。 関連リンク SYNCROOM PORTAL SITE https://syncroom.yamaha.com/ 『SYNCROOM』公式プレーヤーズサイト https://syncroom.yamaha.com/play/ イメージ動画(PCアプリ) イメージ動画(Androidアプリ) ヤマハ ニュースリリース「離れていても音でつながる」ヤマハのリモート合奏サービス、ついにスタート https://www.yamaha.com/ja/news_release/2020/20062901/ その他ヤマハ関連記事 https://pro.miroc.co.jp/headline/yamaha-vireal/ https://pro.miroc.co.jp/works/galileoclub/ https://pro.miroc.co.jp/2011/01/31/%e3%83%a4%e3%83%9e%e3%83%8f-%e8%aa%bf%e9%9f%b3%e3%83%91%e3%83%8d%e3%83%ab%e3%81%ae%e6%8a%80%e8%a1%93%e3%81%a8%e9%9f%b3%e9%9f%bf%e5%8a%b9%e6%9e%9c/ 他にも、オーディオ・ビデオ関連のリモートワークフローに関する情報は下記ページにまとめられています。是非とも併せてチェックしてみてください! https://pro.miroc.co.jp/headline/remote-workflow-online-production-cloud-solution/ ◎Proceed Magazine 最新号発売中! サンプルの試し読みはこちらのページから! https://pro.miroc.co.jp/headline/proceed-magazine-2020/
Support
2020/08/07

HD I/O 16×16 Digitalほか、Avid一部製品が販売終了!

Avidより、Pro Tools | HD I/O 16x16 DigitalとPro Tools | HD OMNIのHD I/O 2製品及びその関連製品、また、Pro Tools Mac Keyboard(Mac/Winとも)が販売完了となることが発表されました。期日前でも、在庫がなくなった場合はその時点で販売終了となりますので、導入をご検討のユーザー様はお早めのご連絡をお願い致します。なお、Pro Tools | HD I/O 16x16 Analog, HD I/O 8x8x8、及び、HD I/O Digital Optionの販売は継続されます。 販売が終了する製品の一覧と、各製品の販売終了日は下記をご参照ください。 販売が終了する製品 Pro Tools | HD I/O 16x16 Digital 販売終了日:2020/8/31 保守サービス終了日:2025/8/31 今後、同様の機能をご要望のユーザー様は、Pro Tools | MTRXをご検討ください。 Pro Tools | HD OMNI 販売終了日:2020/8/31 保守サービス終了日:2025/8/31 今後、同様の機能をご要望のユーザー様は、Pro Tools | MTRX Stuioをご検討ください。 Pro Tools | HDX Thunderbolt 3 HD OMNI Desktop System 販売終了日:2020/8/31 保守サービス終了日:2025/8/31 今後、同様の機能をご要望のユーザー様は、PRO TOOLS HDX TB 3 MTRX STUDIO SYS DESKをご検討ください。 Pro Tools | HDX Thunderbolt 3 HD OMNI Rackmount System 販売終了日:2020/8/31 保守サービス終了日:2025/8/31 今後、同様の機能をご要望のユーザー様は、PRO TOOLS HDX TB 3 MTRX STUDIO SYS RACKをご検討ください。 Pro Tools Mac Keyboard 販売終了日:2020/9/30 Avidからの販売は終了しますが、製品自体は引き続き存続します。ご希望のユーザー様はROCK ON PROまでお問い合わせください。 Pro Tools Windows Keyboard 販売終了日:2020/9/30 Avidからの販売は終了しますが、製品自体は引き続き存続します。ご希望のユーザー様はROCK ON PROまでお問い合わせください。 長きにわたってPro Tools HD/HDXシステムのI/Oとして活躍してきたプロダクトの終焉には、時代の転換を感じます。今後はPro Tools | MTRX、Pro Tools | MTRX StudioがHDXシステムを支えていくことになるのでしょう。 Avidの最新プロダクト、最新情報などについては、下記contactバーナーよりお気軽にお問い合わせください。
NEWS
2020/08/07

“Pro Tools Tech Tips” 日本語翻訳版がYouTubeにて公開中!

"Stay Home"期間以降、AVIDのプリセールス・チームが継続して制作しているPro Toolsノウハウ・ビデオ・シリーズ、"Pro Tools Tech Tips"。その日本語翻訳版、計52本の動画がYouTubeにて公開されています。 Pro Tools Tech Tips(日本語版) Pro Tools Tech Tips(日本語版):ここには全てのTech Tipsビデオが収められています。 カテゴリー別プレイリスト Avid Control/EUCON Tech Tips(日本語版) Avid S4/S6 Tech Tips(日本語版) Pro Tools |MTRX Tech Tips(日本語版) Avid Link Tips(日本語版) その他関連製品プレイリスト: Pro Tools | Ultimate - Dolby Atmosミキシング設定と準備 弊社Dolby Atmos関連記事はこちらから https://pro.miroc.co.jp/?s=dolby+atmos   Avid S1関連ビデオ Pro Toolsご購入に関するお問い合わせは、下記"Contact"より、お気軽にROCK ON PROまでご連絡ください。 ◎Proceed Magazine 最新号発売中! サンプルの試し読みはこちらのページから! https://pro.miroc.co.jp/headline/proceed-magazine-2020/ ◎その他Pro Tools関連記事リンク https://pro.miroc.co.jp/headline/avid-support-knowledgebase-localized-japanese/ https://pro.miroc.co.jp/solution/mac-mini-pro-tools/ https://pro.miroc.co.jp/headline/pro-tools-cloud-collaboration/ https://pro.miroc.co.jp/headline/pro-tools-expiration/
Tech
2020/08/05

失敗しないオーディオ編集!映像編集でのノイズリダクション

MAワークで必須のオーディオプラグインたちを、映像編集でどうやって使いこなすかを解説する本シリーズ。第二弾はノイズリダクション・ツールとして、音声編集では欠かせない存在となったiZotope RX7を中心にお届けします! 前回の記事では、3つのオーディオプラグインの話をしました。 音のバランスをとったり、ノイズを消したりと、聞きやすい音にするためには、いずれもかかせないプラグインではありますが、ビデオの編集ソフトに付属しているわりに、簡単に適応できるプリセットがあるわけでもなく、日本語解説もない得体の知れないボタンばかりで、ぶっちゃけていうと、かなりむずい。。。 そこで!ビデオ編集者にも簡単に扱えるプラグインを弊社のRed先生に紹介してもらい、その使い方を教えてもらおうと思います。 ROCK ON PRO Product Specialist 丹治 "RED先生" こと、ROCK ON PRO Product Specialist 赤尾 見えない敵を可視化する!必殺のツール 〜izotope RX7〜 丹治(以後"丹"):Red先生、お願いします! まず、根本的な質問ですが、音を調整する上で大事なことはなんですか? Red先生(以後"赤"):聞きやすい音質にすることと、適切なボリュームに整えることです。 それには、まず音声と一緒に収録された環境音などを減らすことが大事ですね。 丹:そういった環境音を減らすのが得意なプラグインといえば、iZotopeのRX7でしょうか? オーディオのリペアツールとしては有名ですね。De-BreathやDe-Humなど、その名前の通り分かりやすいノイズを消去するには、確かに簡単だとは思います。 しかし、今回収録された音声ファイルには、電車音や目覚まし時計の音などがあって、どの帯域にアプローチすればいいのかもわからないような場合は、見えない敵を探すようなものです。 赤:RX7には、見えない敵が見える、万能のツールがあります。 Spectral De-noise というプラグインで、AI機能を使って、不快な環境音、すなわちノイズを分析して除去してくれます。では、実際にこのプラグインを使って、ノイズを除去してみます。 RX7はスタンドアロンソフトのRX7 Audio Editorを使うことで、「見えない敵が見える」ようになります。もちろんMedia Composerと連動させることができます。 詳しくは下記を参照ください。 How to use RX Connect in Avid Media Composer(iZotope 英語サポートページ) Media Composerで取り込んだクリップのオーディオ部分をRX Audio Editorで可視化すると、こんなかたちで表示されます。 オレンジ色のより明るい部分は音量が大きいことを示します。そして、画面中央に特にくねくねとしたより明るいオレンジ色の縞々が見えると思いますが、これが人の声です。一方、その両脇のうっすらとオレンジ色がかっている部分は、環境音、いわゆるノイズですね。この、声が入っていないノイズ部分を選択して、Spectral De-noiseにノイズ成分を学習させます。 学習させたノイズのプロファイルを、今度は全体に反映させてRenderすると、人の声の部分が残り、背景はぐっと暗くなりましたね。暗ければ暗いほど無音状態に近づきます。 [audio wav="https://pro.miroc.co.jp/wp-content/uploads/2020/07/Noise.wav"][/audio]   [audio wav="https://pro.miroc.co.jp/wp-content/uploads/2020/07/No-Noise.wav"][/audio] たった1回の作業でここまで簡単にノイズを消すことができました。 他にも、目覚まし時計の音はこのように見えます。 画面の上の方に、何本か横に伸びる線があるのがお分かりいただけますでしょうか?この横線が、目覚まし時計の音なんです。このように、まさに「見えない敵が見える」状態になります。 見えてしまえば、こちらのもんです。あとはカーソルでこの残念な線を囲んで、Spectral Repairを使用して徐々に消していきます。これは、先ほどのDe-noiseとは異なり、周囲の音を参照して修復するツールなんですが、簡単に言うと、消しゴムで消して、周りと馴染むようにぼかす・・・と言った感じでしょうか? 実際に目覚まし時計の音を頑張って消してみました。が、これは限界ありましたね。。。これ以上消そうとすると、声の音質が変わってしまいます・・・。このように、時には完全に消せない音もあります(笑)。少なくとも、目覚まし時計の音が入ってしまったら、撮り直したほうが、早いので、撮り直して欲しいですね。 定番Wavesプラグインもオススメ! 〜Waves Restoration Bundle〜 丹:なるほど、目覚まし時計とセミは強敵ということですね。その他、Red先生オススメのノイズ除去もプラグインがあったら、教えて下さい。 赤:iZotopeのユーザーが圧倒的に多いですが、Waves のWNSやX-Noise、Z-NoiseなどがバンドルされたRestoration Bundleのユーザーも多いですよね。そもそもRXが発売されたのは2007年で、それ以前はRestoration Bundleの1択といっても過言ではなかったくらいです。 もちろん、このプラグインも使いやすく、「Suggest」のボタンを押すと最適なEQカーブを解析してくれます。 Wavesのプラグインは直感的に操作できたり、作業が少なくていいので、「とりあえず全体像を掴みたい」といった場合にはとても重宝します。 丹:映像のプラグインの場合、視覚的な変化は画面を見ればその効果がすぐに分かりますが、音の場合何か変化しているのかよく分からない。そこがオーディオプラグインを使いにくいものにしていたと思います。しかし、RX7のように視覚的に捉えることができるようになると、音の知識がなくても、ある程度自動でなんとかしてくれるということがわかりました。 いかがでしたでしょうか?RX7などを使用してオーディオを視覚的に把握することで、ノイズリダクションという「見えない敵」との闘いによる負担を減らし、映像の編集に集中できそうでしょうか!? 音声制作に関する些細なことから、製品購入、システム構築まで、オーディオに関する疑問・ご相談はROCK ON PROまでお気軽にお問い合わせください!
11 / 11«...4567891011

Solution

Solution
制作環境を飛躍させる

Works

Works
システムの実例を知る

Brand

Brand
そのワークフローを実現する

主要取扱ブランドホームページ

リストに掲載がない製品につきましてもお気軽にご相談ください。

»問い合わせフォーム