Tech
Tech
2024/07/18
マルチトラック録音時のデジタルリファレンスレベルの改定について
既にご存知の方も多いかと思われますが、JAPRS(一般社団法人 日本音楽スタジオ協会)が、デジタルマルチレコーディングにおけるリファレンスレベル推奨値を「0VU=-18dBFS」へと改定しました。
これまでは「0VU(+4dB)=-16dBFS」という推奨値が設定されており、それはデジタルマルチトラックレコーダーが登場した当時、アナログレコーダーとのレベル相関やデジタル機器が持つS/N比、16bitというダイナミックレンジの解像度を踏まえて策定された値でした。
しかし、今日における24bitレコーディング、ハイレゾ等を踏まえた制作環境やfloat型演算などのデジタル信号処理の向上、普及を踏まえたリファレンスレベル改定に関する提案書がエンジニア有志からJAPRSに提出されたのを発端として、協会が検討を重ねた結果今回の改定となったようです。
業務対応(アーカイブやポストプロダクション等)により即座に推奨値への対応が困難なスタジオにおいては、従来の「0VU(+4dB)=- 16 or - 20dBFS」運用も可としていることですが、スタジオにおいて採用しているリファレンスレベルを利用者に分かるように必ず明記することとしています。(「0VU=-16dBFS」を継続採用するスタジオも同様)
※マルチトラック録音時に限る推奨値で、その他のマスタリング等におけるリファレンスレベルについて定めるものではありません。
皆様のスタジオは既にご対応されましたか?ご使用になるスタジオの設定値を確認し、アナログ機器との受け渡しでレベル差が生じないようにお気をつけください。
Tech
2023/09/04
Pix & Mixで深まるラウンドトリップ / Media Composer & Pro Tools
Avidのビデオ編集ソフトウェアMedia Composerと世界中から支持を集めるDAWであるPro Toolsの間でのデータ移行をスムーズにする機能、通称「Pix & Mix」が2022年12月に発表された。Avidでは33年もの歴史がありながらも、この2つのアプリケーションが互いに直接やり取りすることができなかったことは少し奇妙にも感じられるが、OMFやAAFといったオープンファイルフォーマットを提唱し、これまで牽引してきたAvidが満を持してこの機能強化を行っていくと公表している。ここでは従来の変換方法がどのようなものだったかを振り返りつつ、このPix & Mixがどのように2つのアプリケーションを連携させていくのかを確認していこう。
Media ComposerとPro Tools連携の従来フローを再確認!
これまで発表されているPix & Mixの機能について説明をしていくが、その前にMedia Composerのオペレーションで必要となる用語について説明をしておきたい。これらの用語とMedia Composerの構造についての概要を理解しておけば、制作ワークフローもより簡単で身近なものになるはずだ。また、互換性を最大限活用するために今までのデータ移行方法であるAAFでのやり取りについても再確認してみよう。
Media Composerの基礎用語
●プロジェクト
Media Composerではプロジェクトに複数のシーケンスとビンを作ることができ、そのデータはファイルとして1つのフォルダに保存される。Pro Toolsにはこのプロジェクトに相当するものはないが、作業を1つのフォルダにまとめるという意味ではセッションファイルやその他のデータを保存しているフォルダに似ている。
●シーケンス
Pro Toolsのセッションがこれに相当する。これまでもOMF / AAFといったファイル形式に変換されてPro Toolsに持ち込まれているものだ。Media Composerでは1つのプロジェクトに複数のシーケンスを作ることができる。
●レンダリング / ミックスダウン
タイムラインにあるエフェクトが適応されたメディアファイルを作成する。単一のクリップまたはトラックにするという観点からPro Toolsのバウンスと同様のものだ。
●ビン
Media ComposerのビンはPro Toolsにおけるクリップリストがこれにあたる。クリップだけでなくシーケンスやエフェクトのデータもこの中に保存される。
Media ComposerとPro ToolsのAAF互換
これまでのフローでは、OMF / AAF(Open Media Framework / Avid Authring Format)ファイルを介してデータ移行を行っていた。これらのファイルはオープンファイルフォーマットであり、Avid製品だけではなく他社メーカーにおいてもこのファイルをサポートすることにより、ビデオまたはオーディオのタイムラインデータのやり取りをすることができる相互に互換性を持ったフォーマットだ。
AAFを介する方法では、ビデオ編集側でシーケンスデータをAAFファイルに変換してエクスポートし、Pro Tools側ではそのAAFファイルをインポートしてセッションファイルに変換、というビデオ側とPro Tools側の両方でデータ変換が必要になる。また、その場合にPro Toolsではトラックの割り当て、ビデオの選択などセッションデータのインポートの項目で各項をひとつずつ確認、選択することでデータを開くことになる。
変換でトラック名はどうなる?
Media ComposerもPro Toolsもトラック名を変更することができる。通常はA1、A2と表示されているトラック名だが、この名前をMedia Composer側で変更しておくと、Pro Toolsにインポートした際に同じ名前で表示されるため素材の管理も簡単になる。
マルチトラックの扱いは?
Media Composerはモノ、ステレオ、5.1、7.1のマルチチャンネルトラックを扱うことができる。素材がモノである場合はモノトラックに、ステレオのものはステレオトラックに編集されたままでPro Toolsに渡すことができる。
ボリューム・パンオートメーションはそのまま?
Media Composerで書いたボリューム・パンオートメーションも、そのままの状態でPro Toolsにインポートすることができる。またクリップベースのゲインのデータもフェードのデータも互換がある。さらに、Media Composerで設定したトラックエフェクトは、トラックプラグインとしてPro Toolsにインポートされる。ただし、Pro Toolsでこれを再現するためには、Pro Toolsにもインストールされている標準のプラグイン、またはサードパーティのAAXプラグインを使用することが必要となる。
新機能Pix & Mix によるセッションファイル互換!
これからのMedia ComposerとPro Tools間でのデータの流れは、Pix & Mixによってセッションデータで行うことができる。Media Composerバージョン2022.12からは、セッションデータ(.ptxファイル)をエクスポートすることができるようになったため、Pro Toolsではそのファイルをダブルクリックするだけで移行されたファイルを開くことができるようになった。まずは、その移行方法のオペレーションを実際のエクスポート画面に沿って見ていこう。
Media ComposerでPro Toolsセッションファイルをエクスポート
【手順】
1. ビンの中でシーケンスを右クリックし、出力>ファイルにエクスポート…を選択。
2. エクスポートダイアログボックスでOptionsをクリックすると、エクスポート設定ウィンドウが開く。
3. エクスポート設定のプルダウンメニューから「Pro Toolsセッション」を選択。
4. 「保存ボタン」をクリックし、保存場所や名前を指定して保存。
【選択オプション解説】
●マークを使用
シーケンスにイン点とアウト点がついている場合には、そのマークが優先されインアウト間がエスクポートの対象になる。チェックを外すとシーケンス全体をエクスポートする。
●選択されたトラックを使用
シーケンスでアクティブになっているトラックだけをエクスポートする。ビデオのカット点をPro Toolsでも確認したい時は、ビデオの編集点があるトラックを選択する。
●アクティブでないオーディオトラックを含む
シーケンスで選択されていないオーディオトラックをエクスポートの対象にしたい場合には、このオプションを有効にする。
●シーケンスのビデオ / オーディオトラックすべてを含む
さらに、Media Composerからのエクスポートでは、セッションファイルと一緒にメディアをコピーするかしないかを選択する。このオプションが選択されていないと、ビデオ、オーディオメディアをセッションファイルに関連付することができないため、必ずチェックを入れておきたい。
オプションを選択した後は、ビデオ / オーディオの詳細の項目で細かな設定を選択していく。ポイントとなるのはメディアのコピーを行うのかどうかだ。Avid NEXISのような共有サーバーがある場合には、メディアのコピーをしない選択で良いだろう。ビデオ・オーディオメディアなどすべてのメディアをコピーせずとも、シーケンスで使われている同一メディアにリンクして使用することができるからだ。この場合、エクスポート方法は「メディアにリンク」を選択する。この時の注意点として、ビデオトラックにエフェクトがある場合には、エフェクトがレンダリングされていることを確認する。Pro Toolsにはビデオエフェクトを適用する機能がないため、レンダリングしたメディアにリンクする必要がある。
また、共有サーバーがない場合には、メディアをコピーしてPro Toolsへ持ち込む必要があるため「すべてのメディアをコピー」または「メディアをコンソリデート」を選択する。この項目はビデオとオーディオに対してそれぞれ設定することになる。
エクスポートされたセッションファイルは、.ptxが読み込み可能なすべてのバージョンのPro Toolsで開くことができるが、マーカーを含めた互換性を実現するためには、Pro Tools 2022.12以降の使用が推奨だ。
メディアコピーに関する機能向上
Media Composer 2023.3では、セッションファイルへのエクスポートのプロセスでメディアをコピーする際のオプションが追加された。エクスポート画面の「ビデオ / データの詳細」と「オーディオの詳細」、それぞれのタブで「以前のシークエンスに含まれるビデオまたはオーディオメディアを除くかを尋ねる」のオプションを選択すると、ビンのコンテンツ全体を比較し差分をエクスポートできる。以前は2つのシーケンスを比べることしかできなかったが、このバージョンからはビン全体を対象にすることができる。
これをチェックした上で「保存」ボタンをクリックしファイル場所を選択すると、「Select Sequence(シーケンス選択)」ダイアログボックスが表示され、「Exclude Audio and Video Media Referenced from Sequence(シーケンスで参照されたオーディオ・ビデオメディアを除外)」ドロップダウンメニューから、ビン内のコンテンツ(「すべて」)を選択することができる。また、「メディアをコンソリデート」でのエクスポート方法でも、同様に差分をエクスポートすることが可能だ。
また、「WAVではないメディアをBWFに変換」オプションは、エクスポート中にメディアの差分をコピーしながらファイル変換を行う。「ビンのフィールドレコーダーメタデータをオーディオにエンベデッドする」は、Media ComposerにあるメタデータをすべてPro Toolsに渡すことができるオプション項目だ。
Pro Tools 2023.6で対応、トラック・マーカー機能
Media Composerのシーケンスでは2種類のマーカーが使用されている。シーケンスのトラック(クリップ)に置かれるトラックマーカーと、タイムラインに置かれるタイムラインマーカーだ。AAFファイルではこれらは区別されず、Media ComposerのマーカーはPro Toolsでファイルを開いた際にすべてタイムラインマーカーとして表示される。しかし、Pro Tools 2023.6からはMedia Composerのトラックにあるマーカーはセッションファイルの受け渡しによって、トラックマーカーとして表示。また、そのマーカーについているコメント(日本語可)やカラーもそのまま再現できるため、視認性がより良くなることはもちろんのこと、コメントを確認することでビデオ編集者とのコミュニケーションも取れるようになる。
以上のように、セッションでのエクスポートの利点は、ビデオタイムラインをスピーディーにそのまま再現できることにある。Media Composerで編集された編集点が、Pro Toolsのタイムラインでそのまま再構築され、トラックの表示、オーディオプラグイン、マーカー、コメントも再現でき、MA作業のスピードアップにつながる。Avidからのメッセージでは、Media ComposerとPro Toolsの互換性はこれまで以上にアップしていく予定だという。今回の解説と逆方向に、Pro ToolsからMedia Composerへのデータ戻しも可能になるかもしれない。このようなラウンドトリップ機能の向上が、さらなるワークフローの変化をもたらすことにも期待していきたいところだ。
*ProceedMagazine2023号より転載
Tech
2023/03/23
今こそはじめよう Dolby Atmos!〜これからDolby Atmos 制作を始めるあなたに役立つ情報まとめ〜
「Dolby Atmos制作に興味があるけど、何から始めればいいのか分からない!」「どこで情報を集めたらいいの?」という方のために、Dolby Atmos関連の最新情報を随時掲載していきます。
Dolby Atmos 最新情報はこちら(2023.4.25更新)
Dolby Japan Event Portal - Dolby Japan
◉Dolby Japan Event Portal(ドルビージャパンイベントポータル)
https://www.dolbyjapan.com/
Dolby Atmosに興味を持ったらまず訪れていただきたいのが、Dolby Japan Event Portal(ドルビージャパンイベントポータル)。Dolby技術に対応した各種イベント情報を発信しているサイトです。注目は画面右上"Dolbyイベント"タブ内の"Dolby Atmos Music Creation 101"。
Dolby Atmos制作を始めるにあたり最低限知っておくべき基本から、スタジオの準備、制作ワークフロー、ミキシング、レンダリングと、その手順が丁寧に解説されたビデオが日本語字幕付きで公開されています。1本の動画が10分〜20分前後でサクッと見られる内容にまとまっているため、日々の作業が忙しくてなかなか時間が取れないという方にもオススメです。
また、同サイトには制作者向けワークフロー解説サイト、"Dolby Atmos Music Creator's Summit(ドルビーアトモスミュージッククリエイターズサミット)"も公開されています。こちらはDolby Atmos制作の流れが、視覚的に分かりやすいフローチャートで解説されており、パート毎の要点をすぐにチェックすることできます。後半は制作者インタビュー映像も掲載されており、Dolby Atmos制作の最前線で活躍されているエンジニア/クリエイターの方々のリアルな体験談を視聴することができます。
Dolby Professional Support Learning -
◉Dolby Professional Support Learning(ドルビープロフェッショナルサポートラーニング)
https://learning.dolby.com/hc/en-us
テキストベースで学びたいという方にオススメなのがこちらのサイト、"Dolby Professional Support Learning"です。2022年4月現在、「Dolby Atmos Music」「Dolby Atmos Post Production」「Dolby Vision Post Production」の3項目が公開されています。全文英語ですが、ワークフローの各項目がモジュール形式でロジカルに記述されており、特定の項目のみを重点的に学習したい時に活用できます。
※2022/4/22 追記 "Dolby Atmos Musicトレーニング"が日本語対応しました https://learning.dolby.com/hc/ja/sections/4406037447828-Dolby-Atmos-Music%E3%83%88%E3%83%AC%E3%83%BC%E3%83%8B%E3%83%B3%E3%82%B0
Sound&Recording Magazine(サンレコ)
◉Sound&Recording Magazine(サンレコ)
https://www.snrec.jp/search?q=dolby+atmos
こちらはすでにご存知の方も多くいらっしゃるかと思いますが、"サンレコ"の愛称でお馴染みSound&Recording MagazineさんでもDolby Atmos関連の情報が多く発信されています。特にエンジニアの古賀健一さんによる連載企画「DIYで造るイマーシブ・スタジオ」では、Dolby Atmosとの出会いから、実際にイマーシブ対応スタジオを設計・施工され、その後の活用状況まで詳細にレポートされています。必見です!
【番外編】英文の翻訳にはDeepLの活用がオススメ!
◉DeepL(ディープエル)
https://www.deepl.com/translator
DeepLは、海外の技術情報を検索する際に非常に便利な翻訳サイトです。「英語は苦手…」「従来の翻訳サイトでは意味がよくわからない…」という方も、ご安心ください!DeepLが自然な日本語に翻訳してくれます。
今シブ 今こそ渋谷でイマーシブ - Rock oN Company WEB
◉今シブ 今こそ渋谷でイマーシブ - Rock oN Company WEB
個人のお客様で「色々調べてみて必要な機材は分かったけど、どこかでまとめて購入できる場所ないかな〜」と思った方はぜひ渋谷Rock oN Companyへ足をお運びください。(※要事前予約) 豊富な知識を持つRock oN スタッフがあなたのご環境に合わせたシステムをご提案いたします。
・スタンド設置編https://www.miroc.co.jp/rock-on/ima-shibu2022/
・モニタースピーカー選び編 https://www.miroc.co.jp/rock-on/imasibu-2022-2/
・オーディオ・インターフェース編 https://www.miroc.co.jp/how_to/imasibu-2022_audio-interface/
ROCK ON PRO
◉ROCK ON PRO
Dolby Atmos制作機材、スタジオ施工に関する法人様のお問い合わせは実績豊富なROCK ON PROにお任せください。本ページ上部"Works"タブまたは、下記URLより、過去の導入実績をご覧いただけます。
導入事例:https://pro.miroc.co.jp/works/#.YxBUsezP0-Q
メールでのお問い合わせは、下記コンタクトフォームよりお送りください。
Dolby Atmos 関連最新情報はこちら
https://pro.miroc.co.jp/headline/dolby-atmos-conversion-tool-v2-1/#.ZEcvquzP0-Q
https://pro.miroc.co.jp/headline/dolby-atmos-renderer-v5/#.ZBwJpezP0-Q
https://pro.miroc.co.jp/headline/acsu2023/#.ZBwKOezP0-Q
https://pro.miroc.co.jp/headline/dolbyatmos-for-cars-report/#.ZBwKW-zP0-Q
https://pro.miroc.co.jp/solution/nugen-audio-halo-vision-review/#.ZBwKcezP0-Q
https://pro.miroc.co.jp/headline/dolby-atmos-renderer-v3-7-3/#.YxrxGOzP0-R
https://pro.miroc.co.jp/headline/dolby-atmos-album-assembler/
https://pro.miroc.co.jp/headline/dolby-atmos-music-panner-update/#.YocOffPP0-Q
https://pro.miroc.co.jp/headline/dolby-atmos-renderer-v3-7-2/#.YlUAm9PP0-Q
https://pro.miroc.co.jp/headline/dolby-phrtf-app/#.YkqMH5PP0-Q
https://pro.miroc.co.jp/headline/we-want-more-atmos-proceed2021-22/#.YkqMMZPP0-Q
https://pro.miroc.co.jp/works/surebiz-proceed2021-22/#.YkqMOpPP0-Q
https://pro.miroc.co.jp/headline/dolby-atmos-renderer-v3-7-released/#.YkqMV5PP0-Q
Tech
2023/02/01
夏の球児が魅せる輝きと感動「熱闘甲子園」/ ひと夏限定の特設スタジオが支える当日オンエアシステム
日本の夏の風物詩とも言えるスポーツイベント、全国高校野球選手権大会。通称、夏の甲子園。その結果は、日々のニュースなどでも取り上げられているが、試合の裏側に流れる高校生ならではのドラマ、人間模様などを盛り込んだ独自の内容で野球ファンから高い人気を誇る番組が今回取材をさせていただいた「熱闘甲子園」である。1981年にスタートした歴史ある番組で、スポーツニュースの枠にとらわれない、ドキュメント番組としての側面も併せ持つ。試合当日の夜にその試合を戦った高校球児の取材VTRなどと合わせて放送されるその制作現場はどのようになっているのか?当日のオンエアを支えるシステムと併せてご紹介していきたい。
ひと夏限定の特設スタジオを用意
改めてとなるが「熱闘甲子園」がどのような番組であるのかをまず振り返っていこう。「熱闘甲子園」は、夏の高校野球の試合結果を伝えるスポーツニュースとしての側面と、その試合で活躍した球児たちのバックグラウンド、青春模様、家族との絆などを取り上げるドキュメンタリーという2つの側面を持っている。放送時間は30分、CMについても熱闘甲子園仕様の特別編集版が番組と繋がりを持って使用されている。通常のスポースニュースよりも長い時間をかけて試合を紹介するだけではなく、2022年の番組では「夏跡」というコーナーを設け、その日の敗戦チームのドキュメントをオンエアしている。このドキュメントは、事前取材されたものもあれば、試合後の選手にインタビューを行ったものなどもあり「熱闘甲子園」らしい、人間ドラマにフォーカスした内容となっている。
当日行われた試合のダイジェスト版オンエアであれば、普段のスポースニュースと大差ないということは想像できるが、事前取材を行った各試合における注目選手へのフォーカス、注目選手を中心に捉えた試合内容の編集など、番組内容は独自色の高いものとなっている。そのために、通常の報道とは別に「熱闘甲子園」の番組制作のためだけに、ひと夏限定の特設スタジオが用意されている。朝日放送テレビ(ABC)内のスタジオに仮設で映像編集ブース、音声編集ブース、効果音編集ブース、そして生放送用のスタジオセットが作られているわけだ。事前に準備した素材をどのように使うのか?試合の流れ、結果によって取捨選択を行いながら、その場で変更を重ねてVTRが次々と完成していく。映像の編集が終わったVTRから、ナレーションの収録、効果音の貼り込み、MAと作業は絶え間なく続いていくことになり、そのバックボーンとしてのサーバーシステムも非常に重要な要素となるが、こちらは後ほど細かく触れていきたい。
📷 特設スタジオの入口には今年のゲストである古田敦也氏の現役時代の背番号「27」と熱闘甲子園ロゴが入ったユニフォーム。
📷 普段は公開収録などにも使われる広いスタジオを半分に区切り、手前側を編集などの作業スペースに、奥側にセットを組んで撮影スタジオとして使用している。
当日仕上げのVTRを15~20本
📷 作業スペースにはパーテーションで区切られた映像編集ブースが並ぶ。スペース奥では当日の試合中継が流されており、これを見ながらその日の原稿や構成をその場で決定していく。
各工程を経て、一試合ごとに試合に望む両校の紹介VTR、試合内容のVTR、試合後のインタビューなどのVTRが基本的に作られているのだが、プロ野球などとは異なり1日4試合を行うので、これだけでも最低12本のVTRが作られることになる。最終的に1日に制作されるVTRの本数は15~20本にもなるという。特集などもあると考えるとかなりの作業量であることが想像できるのではないだろうか。しかもそのほとんどが、当日撮影の素材で作ることになる。今年のオンエアは23:10からとなるが、20:00ごろまでの試合が長引く日もあった、その日は最終戦の仕上げまでに残された時間は3時間程度しかなかったこととなる。
まさに神業とも言えるスピード感だが、そうなることも想定してのシステムの構築が奏効したということでもある。両校の紹介VTRは事前にある程度仕込んでおくことが可能ではあるが、これも試合結果を受けてバランス、紹介内容を調整して試合後に最終仕上げを行っている。この部分に関しては事前取材した収録済みの素材が使われるのだが、最後まで編集の調整が行われるためナレーションの台本は試合後にしか完成してこない。いずれにしてもやはり当日仕上げのVTRとなるわけだ。
甲子園ー朝日放送テレビ間を光ファイバーがつなぐ
📷 仮設の音声調整、効果音ブースは壁で囲われた個室になっている。これもスタジオフロアに作れらており、他スタッフとの連携など効率よく行えるように工夫が凝らされている。
試合結果を伝えるVTRは、阪神甲子園球場から朝日放送テレビ本社ビルへ引かれた光ファイバーの回線により、会場に設置されている全カメラの収録が朝日放送テレビ本社側で行われている。この回線はプロ野球などでも使われているものと共通だということだが、2台「熱闘甲子園」の専用カメラもあるということだ。このカメラは「熱闘甲子園」としてのピックアップ選手を追いかける専用のカメラだということで、このカメラがあるからこそ「熱闘甲子園」らしい試合結果の編集が行えることにも繋がる。
その光ファイバーの両端には、RIEDEL MediorNetが用意されIP伝送を行っている。以前にも鈴鹿サーキットで行われたF1グランプリのオンエアシステムの紹介でも触れたRIEDEL社の製品。放送業界において高い信頼性を持って運用されていることがわかる。このMediorNetは複数の映像、音声信号、制御信号をIP伝送することができる。このシステムにより送られてきたカメラ映像は、そのまま局内のサーバーへと収録が行われるシステムになっている。そして、サーバーへ収録されたデータはすぐに編集機でデータを取り出して編集が行えるようになっている。やはりこのスピード感は当日オンエア番組ならではのものではないだろうか。
さらに試合後のインタビューなどについては、コロナ対策もありZoomほかのツールが活用されていた。選手に端末を操作してもらい自撮り的に収録したものもあれば、インタビューで双方向にやり取りをしたものもある。球場内での記者会見とは異なった、選手たちの素顔を見ることができる筆者もお気に入りのVTRで、まさに「熱闘甲子園」らしいパート。それらの素材もテロップを載せたり、音声を整えたりといったことがもちろん行われている。
制作が淀みなく進むサーバー運用
📷 音声の調整・録音には、Avid Pro ToolsとVideo Syncの組み合わせが使われている。Video Syncによって映像の貼替や切替がスムーズになり作業の効率化が図られている。
カメラ映像の収録はサーバーが回り続けている。ここには報道用のサーバー設備が使われているということだ。数年前までは「熱闘甲子園」用に専用のサーバーとインジェストシステムを仮設で構築して番組制作を行っていたが、報道編集側のシステム更新を経てリアルタイムでのインジェストが行えるようになり、その機能は既設の設備で行えるようになっている。スタジオ内に仮設された編集ブースの映像編集機は、このサーバーと繋がり編集を行うことができ、編集されたデータは続いてスタジオ内に仮設されたサーバーを介して次の工程へと渡されていく。サーバーへデータが置かれることで、作業を共有するすべての端末からアクセスすることが可能となり、編集が仕上がったタイミングですぐに効果音の貼り込み、ナレーションの収録など次の作業が始められるようになっているわけだ。
ナレーションの収録は、編集と同時進行でその場でディレクターが書きあげた原稿が使われる。このナレーションの収録は、仮設ブースが設置されたスタジオの副調整室内のナレーションブースが使われている。副調整室内に収録用のPro Toolsが仮設され、これを使ってナレーションの収録が行われることとなる。仮設の音声調整ブース、効果音ブースと合わせて3台のPro Toolsが用意され音声部分の編集を担当している格好だ。音声用のサーバーはこちらも既存の音声用のサーバーが活用されている。ローカルで作業を行い、サーバーへコピーといった手間をなくすため、基本的に映像も音声も作業はすべてサーバー上のデータで直接行っているということだ。
まとめると、利用されているサーバーは基本的に3台。既設されている映像編集用のサーバーと音声編集用のサーバー、これに仮設のデータのやり取り用のサーバーが運用されているという形だ。ちなみに、映像編集は6台のシステムが仮設されていた。スタジオセットでも事前の収録が行われており、生放送でのオンエア部分はできるだけ少なくなるように番組制作が進められている。番組のクオリティーアップ、時間管理などを考えれば当たり前のことではあるが、取材をさせていただいた日の生放送部分は3分ほどであった。さすが、放送局の仕事と思わせる内容であった。
収録、編集用のシステムの概要をここまでご紹介してきた。すでに気づかれているように、ここでは完全にファイルベースでのシステムアップが行われている。最終的に仕上げられたVTRもファイルのまま再生され、送出されている。仮設でのシステム構築ではあるが、既存のシステムを使える部分は十分に活用し、不足する部分を仮設のサーバーでフォローしている。ハイスペックを要求されるサーバーは、既存のシステムで運用実績のあるものを活用しつつ、関係スタッフ間でのデータの共有などのために番組用サーバーを用意するというイメージだろうか。コストを抑えつつ、実用十分なシステムアップが非常にうまく行われていると感じた。
球場の臨場感を伝えるマイクセッティング
そして試合が行われている阪神甲子園球場まで足を伸ばし、球場のどこにマイクが設置されているのかを確認してきたので現場でのセッティングについても見ていきたい。普段よりプロ野球の中継で使われている設備がある阪神甲子園球場。ご存知の通り、夏の甲子園の中継はNHKと朝日放送テレビがそれぞれで行っている。そのため、NHKの独自マイク、朝日放送テレビの独自マイク、共同マイクと3種類のマイクが現場に設置されているのだが、ここでは朝日放送テレビが使用している独自マイクと共同マイクに関して取り上げる。
📷 マイク配置図)写真以外にも銀傘の中のキャットウォークに設置され上空よりアルプスを狙うマイクや、アルプスでフリーに応援席を撮影しているカメラマイク、ブルペン用のマイク、1・3塁ベースを狙ったマイクと試合の臨場感を盛り上げるためのマイクが数多く仕込まれている。高校野球観戦で甲子園球場を訪れた際には、このようなマイクアレンジもチェックしてみるのもまた違った楽しみになるかもしれない。
まずは、プロ野球中継でも使われる常設のマイクから見ていこう。メインのマイクは、銀傘(ぎんさん)と呼ばれる、内野席上部の屋根の内側に設置されている。ここにはSanken CUW-180が設置されており、さらに高校野球のときだけは、銀傘の中となるバックネット側電光掲示板あたりの天井部分に吊られる形でDAP-5100サラウンドマイクが追加で仮設される。サラウンド、イマーシブ音声などに積極的な朝日放送テレビらしいマイクセレクトと言えるだろう。
📷 銀傘のバックネット裏上部に吊られたDPA-5100サラウンドマイク。甲子園球場全体の音を拾うためのメインマイクがこれだ。
そして、バッティング音を集音している球場常設のパラボラマイクも特徴的だ。実際に球場に行ってみるとテレビ中継のような鋭い金属バットの「カキーン」という打球音はなかなか聴こえてこないが、左バッターボックスの背後にあたるフェンス面に集音効果の高いパラボラマイクが設置されており、打球音やキャッチャーミットにボールが収まる音などを拾っており中継音声に臨場感を与えている。テレビ中継がある際にも確認することができるので、機会があったら是非注目してみていただきたい。
銀傘の1塁側、3塁側、それぞれの端にゼンハイザーMKH-416が設置されている。高校野球ではアルプススタンドの応援やブラスバンドが注目されることも多い、応援のブラスバンドを聴くために球場を訪れるファンもいるほどだ。そのために、観戦の邪魔にならないようにネットの上部にブラスバンド席を取り囲む格好でアルプススタンドに数多くのマイクが仮設される。さらに、選手や監督の声を拾うためのベンチに向けたマイクも追加されており、これらのセッティングを俯瞰して見ていくと、将来的なサラウンド、イマーシブでの放送を念頭に入れた実験的な配置となっている部分もあることがわかる。次世代放送への検証も念頭にあるということで、引き続き本誌でもレポートを行っていきたいところだ。
📷 こちらはベンチ上に設置されたマイクで監督や選手の声を拾うために設置されている。内野ネット際は銀傘の外になるため防水対策なども考えられている。
📷 高校野球の醍醐味の一つでもあるブラスバンドの応援。それを拾うためにアルプススタンドのブラスバンド席を取り囲むように防護ネット上部に4本のマイクが設置される。
夏の甲子園が開催される2週間強を運用するための特別スタジオだが、実際の番組としては各県大会のダイジェストである「甲子園への道」が各県大会ベスト8あたりから始まる。ちなみに今年は7月24日からオンエアが開始された。事前取材自体についてはそれよりも前から行われているものも含まれるのであろうが、基本的には各県の代表校が決まってからとなる。そして、8月6日の全国高校野球選手権大会開幕に向けてシステムの仮設が5日ほど前からスタートし、各地から代表校の取材データなどが蓄積されて本番を迎える。まさに眠らない1ヶ月といったところか。
40年以上の歴史ある番組は、そのノウハウの蓄積からも学ぶところが多い。高校球児の輝き、情熱、感動、スポーツニュースとは違う、結果だけではない部分をフォーカスする「熱闘甲子園」。テクノロジーの進化により、多くの情報、エピソード、ドラマがより一層伝えられるようになっていることが取材を通してわかる。早くも、ではあるが来年の放送ではどのような進化を見せるのか、今からの楽しみとなった。
*ProceedMagazine2022-2023号より転載
Tech
2023/01/04
4K映像+立体音響、コンテンツ制作の舞台裏 / テレビ愛知株式会社「木嶋真優 ヴァイオリン・リサイタル」
以前、Proceed Magazine 2021(No.24)号にてテレビ愛知をはじめ、愛知県の民放各局によるイマーシブコンテンツ制作への取り組みについてご紹介させていただいた。引き続き、各局それぞれの方法で次代を見据えた音響制作に精力的に取り組まれているが、今回もテレビ愛知よりお声がけいただき、弊社による技術協力、並びに本誌のための密着取材をさせていただくことになった。本記事前半では、コンサートホールでの収録のセッティングの様子、後半ではその後の360 Walkmix Creator™️を使用したバイノーラルミックスについて詳細をご紹介する。
4K映像+立体音響でのコンテンツ制作
📷 三井住友海上しらかわホール 公式HP
2022年9月24日(土)、名古屋市中区にあるコンサートホール「三井住友海上しらかわホール」にてテレビ愛知とクラシック名古屋が主催するイベント「木嶋真優 ヴァイオリン・リサイタル」が開催された。前日23日の名古屋市内は台風15号の影響で土砂降りの大雨となり、公共交通機関も大幅にダイヤ変更を余儀なくされるなど一時は開催が危ぶまれたが、当日の天気は雲ひとつない台風一過の快晴で多くの観客が無事会場まで足を運ぶことができた。
今回、技術協力と取材をさせていただくこととなったきっかけは半年ほど前に遡る。テレビ愛知より「コロナ禍で危機的状況に追い込まれた芸術文化に対する国の振興支援の一環として、4Kや立体音響などの先端技術を活用したコンテンツ制作の話があり、コンサート収録の4K映像+立体音響でコンテンツを制作したい」とのご相談をいただいた。
弊社からは立体音響の制作に関して技術協力を行い、その裏側を本誌のために取材させていただくという形で話が進行し、本プロジェクトの打ち合わせがスタートした。イベントの2ヶ月前となる7月には実際に現地を下見させていただき、各種音響機材の選定、マイクセッティングや配線方法について、下調べとともに準備を進めてきた。また、以前同ホールでの収録をご経験されている名古屋芸術大学の長江 和哉先生にもご助言をいただいたこともあり、ホールの技術スタッフの方との連携もスムーズに進行した。
理想的な音響空間を追求したシューボックス型
当日のレポートを開始する前に、会場の三井住友海上しらかわホールとその形状について触れておこう。同ホールは、1994年11月名古屋市伏見にクラシック音楽専用の中規模ホールとして開館した。一般的なホールは、その用途によって多目的ホールやライブハウス、オペラハウスといった種類に分類される。その中でもクラシック音楽の演奏を主目的とするコンサートホールは、その形状からシューボックス型とヴィンヤード(またはワインヤード)型の2種類に大別される。
前者はShoe Box (シューボックス)= 靴箱 という名が示す通り直方体の形状で、クラシック音楽黎明期より世界各国の中小規模のコンサートホールで数多く採用されている伝統的なスタイルである。比較的横幅が狭いため、両側壁からの初期反射音が豊富に客席全体に響き渡ること、そして高い天井が生み出す豊かな残響音などが主な特徴とされている。ちなみに、このしらかわホールの形状は、幅16.5m、奥行31.5m、天井高は舞台上約14mとなっており、幅と高さがほぼ1対1の理想的な音響空間を追求したシューボックス型が採用されている。詳しく知りたいという方はホールの公式サイトでもその詳細が語られているのでぜひご参照いただきたい。
一方、後者はVineyard (ヴィンヤード、ワインヤード)= ブドウ畑がその名の由来で、客席がブロックごとに分割され、段々畑のように連なった形状となっている比較的モダンなホールで見られる形状だ。シューボックス型と比較すると、より大規模なキャパシティのホール設計にも向いているが、音響設計においてより緻密な工夫・検討が必要とされている。そのため、必然的に、内装も視覚的にダイナミックな印象があり、外観を含めた建築物としてのデザインも独特な形状となっているものが数多く見られる。こうしたホールの内装や形状にも注目することで、コンサートホールが持つある種のエフェクターとしての側面も見えてくるので非常に興味深い。
多くのマイクでバリエーション豊かなサウンドを録る
それでは、当日の進行の流れに沿って具体的なシステムのセットアップについて解説する。会場入りは午前9時。開演が15時なので、6時間前と聞くと多少余裕があるように思えるが、当然出演者のリハやピアノの搬入・調律なども行われるため、基本的なセットアップに与えられた時間は大体2時間程度しかない。そのため、複数回にわたる事前打ち合わせを通して、前日まで入念な検討がなされ、その甲斐あって当日の作業はスピーディーに進行した。
まず、ビル4階の楽屋に録音用の機材一式を持ち込み、仮設のミキサー室を設営。同時進行でステージ頭上のバトンを降ろし、後ほど説明するマイク類の取り付けを行なった。続いて、ステージ〜ミキサー室間のマルチ回線、および天吊りのバトン〜ミキサー室までのアナログ回線を敷設。これらの信号はYAMAHA Rio1608-D2、YAMAHA QL1でDanteへ変換され、万一に備え2台で冗長化接続されたTASCAM DA-6400で収録されることになる。
📷 楽屋に仮設されたミキサー室内に構築された録音システム。YAMAHA QL1、同Rio 1608-D2でアナログからDanteへと変換し、Danteネットワークで2台冗長接続されたTascam DA6400へと入力、専用のSSDへと収録する。本番中はこのミキサー室でステレオの現場ミックスをモニターした。
最後にホールの天井から直接ぶら下がる天吊りマイクを設置した。この作業は天井裏に上がってケーブルを下ろすチームと、客席でマイクを取り付けるチームの二手に分かれた。舞台技術者の監修のもと天井裏に上ったスタッフは、一定間隔で目印が付けられた30mほどのケーブルを、客席で待つ残りのスタッフと無線で連絡を取りながらゆっくりと下ろしていく。マイクを取り付けたら、再びゆっくりとケーブルを巻き上げていき、客席からおよそ10mほどの高さで固定した。
📷 最上層へ配置されたマイクは天井裏からケーブルを下ろし、およそ10mの位置で固定された。
マイクのセッティングについては、当然ではあるが収録後に変更することはできないため、ミックス時にどのように配置するのか事前にある程度見当をつけておくことが必要となる。今回のミックスのコンセプトは、ホールの美しい響き、そして空間の広がりが多くの人にはっきりと分かるような音像を目指すこと。そのため、観客の視線、動線の邪魔にならないよう最大限の配慮をしつつ、可能な限り多くのマイク本数を用意し、バリエーション豊かなサウンドを録ることが意識された。また、高さ方向の空間再現については、ミックス時の仮想立体音響空間内に上・中・下、三層のレイヤーを構成する音作りを想定し、オンマイクも含めると5種類の異なる高さで収録した。設置位置が低い順に、ステージ上のバウンダリーが3つ、各楽器(ピアノ、ヴァイオリン)へのオンマイク、ホール常設の三点吊り1ペアとバトンに2ペア、そして先述した天吊りのマイクが3ペア、その他オーディエンスやトーク用のマイク含め、計20本ほどのマイクで収録を行った。
今回録音するのはピアノ伴奏付きのヴァイオリンリサイタルとなり、それぞれ広帯域に渡りフラットかつ単一の指向性が得られるSchoeps MK 4、スタンドやブーム不要でピアノ収録に最適化されたEarthworks PM40にてオンマイク収録した。また、ステージ上の広範な音を拾うためのバウンダリーマイクとして、その非常にクリアな音質に定評があるCROWN(現在はAKG取扱) PCC160 を中央、上手、下手にそれぞれ設置。オンマイクは、空間を広げようとするとどうしてもぼやけてしまいがちな音の輪郭を際立たせるため、そしてバウンダリーは先述したレイヤーの最下層〜中層にかけて配置することで厚みのあるサウンドを作ることが意図されている。
続いて、主に中層〜上層へ配置することを想定し、ホール2階席、1階客席から3mあたりの高さの位置に吊り下げられた常設の三点吊りマイク Schoeps MSTC 64に加え、その近傍さらに1mほど上の高さに吊り下げられたバトン中央から左右に1.5~2mほどの位置に、単一指向性のEarthworks SR25MPをステージ向き(方位角0度)、仰角-45度で配置。バトンの両端には両側壁からの反射音を狙ってこちらも単一指向性のNeumann KM184を設置した。そして最上層への配置を想定し、ステージ側から順にEarthworks QTC50 MP、Neumann KM183、Sennheiser MKH8020 をそれぞれペアで全て下向き(仰角-90度)で設置。これらのマイクはすべて無指向性で、およそ8mほどの高さからホール全体の空気感、音像が遠い響きを捉えることを狙った。
📷 ピアノ録音用のEARTHWORKS PM40、ピアノ内部に設置できるため外観を損なわない。
📷 ホール常設のステレオマイクSCHOEPS MSTC 64、聴き馴染みのあるサウンドで今回の音作りのメインとして使用された。
📷 楽器用マイクEARTHWORKS SR25MP、ステージ上空からの煌びやかな響きを狙った。
📷 単一指向性のNEUMANN KM184、両側壁からの反射音を狙って設置した。
限られた時間の中ですべてのセッティングが完了
無事すべてのセッティングが完了したあとはミキサー室へ移動。本番中はここでYAMAHA QL1で仮ミックスされたステレオの音源をモニターすることとなる。台風の影響で公共交通機関に影響が出ており、予定より1時間以上遅れてのリハーサル開始となったが、限られた時間の中で着実に機材の動作確認やステージ進行の最終確認などが行われ、開演時間の変更等もなく予定通り14時に開場できることとなった。リハ中はすべてのマイクが導通されていることはもちろん、しっかりとそれぞれのマイク配置のキャラクターがモニターできること、そして客席で実際にどのように聴こえるかも確認し、後日のミックス作業に備えた。
本番は、エルガー 「愛のあいさつ」で穏やかに始まり、ドビュッシー、ストラヴィンスキー、ファリャと徐々によりダイナミックな曲調へ展開されていく。休憩を挟んだ後も、ピアソラ、そしてガーシュウィンの曲が2曲続けて演奏されて終演となったが、鳴り止まない盛大な拍手でのアンコールに応えて再び登場。ピアソラ、そして最後はモンティのチャルダッシュでのバイオリン超絶技巧で再度盛大な拍手に包まれ、本番は無事に終了した。
📷 今回収録された「木嶋真優 ヴァイオリン・リサイタル」はクラシック名古屋のYouTubeチャンネルで4K/立体音響での視聴が可能だ。
クラシック名古屋 / YouTubeチャンネル
360 WalkMix Creator™でバイノーラルを制作
収録から2週間後。テレビ愛知のMA室にて、バイノーラルでのミックス作業とプロデューサーによる最終チェックが行われた。昨年の取材時はバイノーラルプロセッサーとしてFlux SPAT Revolutionを活用したが、今回は新たな実験的取り組みとして、弊誌でもすでに度々ご紹介しているSONY 360 Reality Audio 用制作ツール、360 WalkMix Creator™️を活用することとなった。このプラグインはDAWの各オーディオトラックとマスタートラックに挿すことで、360度全天球の4π空間の球面上に音源を配置していくことが可能となる。本来、360 Reality Audio対応サービスへのデリバー時は、MPEG-Hのエンコーダーとして機能するが、実は今回のようにバイノーラルステレオの制作を行うことも可能だ。
これは、従来のステレオ制作でも言えることであるが、バイノーラルで制作する上でその音作りのコンセプトをあらかじめ明確にしておくことは重要だ。一般的に、バイノーラルでは頭外定位が可能となることで、通常のステレオミックスより空間を広く再現することができる。そのため、良くも悪くも各トラックが簡単には混ざらず、次から次へとトラックを追加していったとしても、ある程度サウンドとしては成立してしまう。コンセプトを明確にしないままミックス作業を始めると、作業中に迷路をさまようことになってしまいがちだ。先述したが、今回のミックスのコンセプトは、ホールの美しい響き、そして空間の広がりが多くの人にはっきりと分かるような音像を目指すこと。ただし、元々の素材にはなかったリバーブを過剰に追加するなど、あまりにも積極的すぎる音作りは避けたい。せっかくなら、しらかわホールが本来もつ美しい響きを、当日来場できなかった方々にも体験してもらえるような音作りを目指した。
組み合わせをたどり見えてきたサウンド
まずは、録音後の素材でセッティング時から想定していた上・中・下、三層のレイヤーを作って、実際のマイクの配置に近い形で立体空間内に配置、音量のバランスを整えていく。そうしてできあがった音源から、ヴァイオリンのオンマイクなしで残響をメインとしたもの、オンマイクを加えて音の輪郭をある程度立たせたもの、さらにオンマイクあり+プラグインでリバーブを追加し意図的に残響を増やしたもの、という3パターンを作って聴き比べてみた。すると、オンマイクの音量を大きくしていくとどうしても立体感が希薄になってしまう傾向があり、逆にオフマイクをメインにすると立体感は増すものの肝心なヴァイオリンの輪郭がぼやけてしまうことが分かった。
この2つの音の傾向を認識した上で、いかにバランスをとっていくかが鍵になりそうだということが分かったため、追加で2パターン、ひとつはミックスに使用するマイクの本数を減らしたもの、もうひとつはメインのサウンドをオンマイクではなく三点吊りのマイクに変更したものを作成した。前者は、立体感は感じられるものの、やや地味なサウンドとなってしまい、コンセプトの「空間の広がりが多くの人にはっきりと分かる」という部分に反する結果になってしまった。一方、後者は三点吊りのマイクをメインにすることで、多くの人にとって聴き馴染みのあるようなサウンドに近づき、かつホールの残響もある程度感じられるようになったため、このミックスをもとにディテールを調整していく方針に固まった。
📷 今回ミキシングに使用した360 WalkMix Creator™ は360 Reality Audioの制作ツールだが、バイノーラルステレオの書き出しを行うこともできる。全天球の球面上に音源を配置でき、それぞれの音源を表すカラフルなボールは任意の色に変更も可能だ。様々な試行錯誤の結果、最終的に図のような音の配置となった。音源が多すぎると立体感が損なわれ少なすぎると迫力がなくなる、その中間となるようバランスが取られた格好だ。
具体的な音の配置は次のようになった。まずはホール常設の三点吊りSchoeps MSTC 64を前方に配置し、ヴァイオリンとピアノのメインのサウンドとする(A-B_L、A-B_R)。このサウンドの最も遠い反射音を後方上空の左右に配置(Top_RL、Top_RR)。この時、MOD DELAY IIIで30msec、100%WETのディレイを追加し、音速340m/s換算で後方に10.2mの空間を演出した。さらに、バトンの両端に取り付けたNeumann KM184を、両サイドにサラウンドミックスのワイドチャンネルのイメージで配置して左右の豊かな拡がりを再現(Wide_L、Wide_R)。この段階では音像が全体的にやや上方寄りに聴こえてしまうため、後方の下部にリバーブで人工的につくった響きを追加することでバランスを取った(Rev Bottom Left、Right)。
これにより、ベースとなるホールの音像は形成されるが、ヴァイオリンやピアノの輪郭をもう少し立たせるため、オンマイクを少しだけ足すことにした(VI)。しかしながら、ややステージまでの音が遠く感じたため、オンマイクと同じ音に80msecのディレイをかけたものを真後ろから足してみると、前後の距離感をうまく近づけることができた(Dly R)。そして最後に頭上の左右、仰角60度から天吊りの2本を足すことで空気感を演出した(TOP_FL、TOP_FR)。このTOPからのサウンドはEarthworks QTC 50で収録したサウンドを採用し、EQで4kHzから上を4dBほどさらに持ち上げることで、高さ方向の響きをより豊かに感じることができた。さらに、元々仰角45度に位置に配置していたが、75度との聴き比べを経て60度に変更。むやみに高さを上げすぎても、サウンドが浮いてしまい違和感が生じてくることが分かった。
そのほか、途中で実験的に試してみた要素として、ボトムの人工的な響き(Rev Bottom Left、Right)に、EQで低域成分を中心とした7秒程度の極端に長いリバーブをかけることも試した。これは、天井から聴こえるキラキラとした高域中心の響きに対し、ボトムで中低域の成分を支え、全体的なサウンドのバランスを取ることを意図したが、これはさすがに響きが濁ったので採用しなかった。また、最初は多くの素材で低域を切っていたが、あまりにも迫力がなくなったのでそのほとんどを戻し、反響音は逆にハイ上がりのサウンドとすることで、迫力を残したまま残響の定位感が感じられるようにしている。
完成したバイノーラルミックス
ちなみに、今回バイノーラルミックスを行うため、当然ながらモニター環境はヘッドフォンでのミックス作業となる。このヘッドフォンの環境も、解像度が高く、定位感が分かりやすいモデルを使うことは重要だ。今回は普段からステレオミックス時に使っているという密閉型のSONY MDR-M1ST、同MDR-CD900STに加え、弊社より開放型のAKG K712 PRO-Y3、同じく開放型のFOCAL Clear MG PROを用意させていただいた。
結果的に密閉型と開放型では、開放型の方がより空間の拡がりが感じられやすいためバイノーラルミックス向きであった。この中で最も評判が良かったのはFOCAL Clear MG PROで、抜群の解像感を持ちヘッドフォンなのにスピーカーで聴いているかのような音の立体感、それでいて上から下まで飛び出している帯域もなく、全体域がしっかりと分かるという満場一致の高評価をいただいた。
📷 開放型ヘッドフォンFOCAL Clear MG PRO。まるでスピーカーで聴いているかのような極めて高い解像度を特長とする。
📷 開放型ヘッドフォンAKG K712 PRO-Y3。300gと非常に軽量で長時間のミックス作業でも快適だ。
こうした様々な試行錯誤を経て、最終的に技術スタッフ陣が全員納得のいく、当初のコンセプトに沿ったバイノーラルミックスが完成した。このタイミングで当初の現場でのステレオミックスとの比較視聴も行い、明確にその空間的広がりの違いが感じられることも確認できた。ミックス作業日の午後にはイベントプロデューサーも立ち会い、音作りの狙いについての解説を交えながら最終確認を行い、無事にOKをいただくことができた。
また、今回最初にお声がけいただいたテレビ愛知 技術部の水野氏は「一番最初にパッとバイノーラルの音源だけ聴くとあまりに自然すぎて響きの綺麗なステレオに聴こえるが、どのようなプロセスを経てそのサウンドになったかという解説があると分かりやすくなる」という。やはり、ミックスの序盤は会場の響きを忠実に再現し、そこから過度とならないように注意しながらも、多少のデフォルメは必要であるということだ。「そうした多少の広がり感を求めてミックスをして、Clear MG PROのような高品質なヘッドフォンでしっかりと空間が分かるようになり、最終的にどのヘッドフォンで聴いてもしっかり判別できるようになった。技術トレンドとしてのイマーシブが今後も続くかどうかは分からないが、これも一つの音の表現。何よりイベントのプロデューサーという立場の方に実際にどのような音作りをしたのか、デモンストレーションを行いながら最終確認ができ、そして理解いただけたのは技術者として大きい」とのコメントをいただいた。
バイノーラルミックスの要点とは
今回はヴァイオリンとピアノの演奏をコンサートホールで収録を行い、360 WalkMix Creator™️を使ってバイノーラルミックスを作成した。個人的に要点だと感じた部分をまとめると、まず最初に述べたようにミックスのコンセプトを明確にしておくことが挙げられる。そうすることで、今回のケースのように複数人で比較視聴しながら作業を進める際も、同じ方向に進めるため判断に迷うことが少なると感じた。
また、セッティング時においては、場所が許す限り様々な角度から複数のバリエーションのサウンドを記録しておくことが重要だ。バイノーラルプロセッサーによる3D配置はあくまでシミュレーションであり、やはり現場で実際の位置から録音した素材で構成していく方がよりリアリティのあるサウンドになる。ただし、現場の音を完全再現するようなコンセプトの場合を除いて、多少デフォルメを行った方が多くの人にとって分かりやすく、臨場感のある音の広がりを再現できる。
さらに、ミックス中に気づいたこととしてヘッドフォンのモニター環境が重要であることについては述べたが、段々と自分の耳が「空間を聴く」ことに慣れていく点にも注意である。もちろん個人差もあるので、この現象を見越しての作業はなかなか難しいが、数時間でも作業を経験した後で最初にミックスしたものを聴いてみると、イメージしていたものと全く違う聴こえ方になっている可能性もある。定期的にセッションをSave as...しておき、後で聴き直して自分の耳の特性を分析してみるのも面白い。
また、これはイマーシブ制作に限らず、ステレオミックスやその他の場面でも言えることかも知れないが、実際の会場の音を知識と実践の両方からカバーしておくことは極めて重要だ。音響について十分な知識があっても、現場で音を聞いて実際に判断できる耳がなければ、後からの作業で修正できないミスをしてしまったり、余計な手間が増えたりすることにつながる。また、現場経験が豊富という場合でも感覚的な試行錯誤だけではやはりどうしても遠回りになってしまいがちであるが、そこに音響学や音響心理学的な要素を用いた工夫が加わると、目指すゴールへは多少近づきやすくなるだろう。
完成した映像を視聴させていただいた実感として、4K収録ならではの高精細な映像による臨場感と、そこにバイノーラルミックスならではの広がりのあるサウンドが相乗効果をもたらし、しらかわホールにあったユニークな空気感が生き生きと伝わってくるかのように感じた。最後になったが、今回制作されたコンテンツはクラシック名古屋のYou Tubeチャンネルにて公開されている。先端技術によって臨場感溢れる、木嶋さんの美しいヴァイオリン演奏をみなさまにも存分にご体験いただきたい。
クラシック名古屋 / YouTubeチャンネル
*ProceedMagazine2022-2023号より転載
Tech
2022/12/21
MBOX Studioユーザーレビュー&ドラムレコーディング動画が公開中
コンパクトなボディに業務用としても十分な機能を詰め込んだ、話題のAvid新オーディオ・インターフェイスであるMBOX Studio。その実力の一端を知っていただけるコンテンツがWEBで公開されておりますので紹介いたします。
Sound & Recording Magazine誌 WEBレビュー by 三船雅也氏
三船雅也氏によるレビューがサンレコWEBに掲載されています。
AVID MBOX Studioレビュー by 三船雅也(ROTH BART BARON )
豊富な物理I/Oや、in/outを同時に別々のデバイスと接続できるBluetooth機能に言及し、「AVIDはそういった音楽で起きていることをちゃんと見ているんだなぁ」という発言が印象的です。
そのほか、気になるサウンドクオリティの評価や、三船氏ならではのオーディオI/Fに対する考え方なども掲載されており、興味深い内容となっています。
MBOX Studioってどんなインターフェイスなんだろう?と興味をお持ちのみなさまには大変参考になる内容だと思います。ぜひご一読ください。
隠れた機能!?8本のマイクを使用して、MBOX Studioでドラムレコーディング
48Vファンタムを送れる4ch分のMic/Lineインプットを備えるMBOX Studioですが、バックパネルに搭載されているLineインプットでも60dBのデジタル・ゲインを稼ぐことができます。これを利用して、4本のコンデンサーマイクに4本のダイナミックマイクを追加して、MBOX Studioだけでドラム・レコーディングを実施した動画を紹介します。
Avid MBOX Studio
¥116,600 (本体価格:¥ 106,000)
Rock oN Line eStoreで購入>>
ユーザーの工夫次第で、まるでシステムを操作しているかのような幅広い使い方ができるMBOX Studio。ご購入のご相談はROCK ON PROまでお気軽にお問合せください。
Support
2022/10/17
360 WalkMix Creator™ 最新V1.4.0 リリース情報、11月1日(火)より価格改定
360 Reality Audio制作ツール「360 WalkMix Creator™」の、V1.4.0がリリースされました。待望のプレイヤー機能や、ADM及びMaster ADM形式での書き出しに対応。また、11月からの値上げもアナウンスされましたので、導入をご検討中の方はこの機会をお見逃しなく!
V1.4.0 新機能とアプリケーション - 2022年10月06日更新
・待望のプレイヤー機能、360 WalkMix Playerが登場
360 WalkMix Playerは、360 WalkMix Creatorと共にアプリケーションとして利用できるようになりました。360 WalkMix Creatorに対応しているあらゆる出力フォーマットで書き出されたオーディオを再生できるようになりました。このアプリケーションはプラグインと一緒にインストールされ、スタンドアローンアプリケーションと同じ手順で起動することができます。360 WalkMix Player を使用するには、360 WalkMix Creatorのライセンスが必要です。
・A/B 比較を実行する機能が追加
360 WalkMix Creator プラグインから、A/B 比較を実行する機能が追加されました。「リファレンス」タブから、ステレオ参照ファイルのアンロードとロード、プレイヘッドの調整、LKFS/LUFSの測定と対比、比較のための波形解析が可能です。
・書き出しの形式を追加
ADMおよびMaster ADM形式での書き出しが可能になりました。
・プラグイン内のアップデート通知からリリース内容の確認が追加
プラグイン内にてソフトウェアアップデートを示す通知には、リリースノートページ https:// 360ra.com/release-notes/ へのリンクが表示され、アップデートが自分のニーズにマッチするかどうかを判断できるようになりました。
↑
V1.4.0 安定性の改善 - 2022年10月06日更新
長時間のセッションやプロジェクトで音声が歪む可能性のある問題を修正しました。
いくつかの細かいグラフィック/Ul問題に対処しました。
過去のリリースノートはこちらからご確認いただけます。
https://360ra.com/ja/release-notes/
2022年11月1日(火)より、価格改定も発表!
さらに360 WalkMix Creatorは、2022年11月1日(火)より、価格改定が行われることも発表されました。
2022年10月31日正午までの通常価格:64,900円(税込)
2022年11月1日以降の通常価格:77,000円(税込)
Rock oN Line eStore 販売ページ:
https://store.miroc.co.jp/product/77346
ROCK ON PROでは、360 Reality Audioをはじめ、Dolby Atmosなど各種イマーシブ制作対応スタジオの導入事例も豊富です。下記コンタクトフォームより、お気軽にお問合せください。
https://pro.miroc.co.jp/headline/360ra-info-2022/#.Y00XT-zP0-Q
https://pro.miroc.co.jp/headline/comparison-of-atmos-360ra/#.Y00j8ezP0-Q
https://pro.miroc.co.jp/solution/360-reality-audio-360-walkmix-creator-proceed2022/#.Y00j_ezP0-Q
https://pro.miroc.co.jp/works/360studio-proceed2021-22/#.Y00kDuzP0-Q
https://pro.miroc.co.jp/headline/nagoyageidai-proceed2021-22/#.Y00kGOzP0-Q
https://pro.miroc.co.jp/solution/sound-on-4%cf%80-360ra-part-3/#.Y00kPuzP0-Q
Tech
2022/08/10
プロの仕事場 / よくわかる!音効というシゴト
プロの仕事場 / よくわかる!音効というシゴト
Text by 金子寛史(株式会社fro-less)
皆さんこんにちは、株式会社fro-lessの金子です。今回は音響効果、略して“音効”の世界をご説明させていただきます。音効と言ってもジャンルによって内容が全く違います。映画、ドラマ、アニメ、ゲーム、バラエティ、スポーツ、情報、報道など、私は以前所属していた会社やお付き合いのあったスタッフさんとの縁もあり、非常に沢山のジャンルを経験させて頂きました。音のお仕事で日々忙しくされている方、またこれから音のお仕事に就きたいと思っている方、また副業でYouTubeに音を付けている方などたくさんの方に、音効という仕事の内容を少しでも分かりやすくお伝えできればと思っております。どうぞ最後までよろしくお願いいたします。
株式会社fro-less
金子寛史 氏
音効のワークフローとは!?
それでは早速どのような流れで作業が進むのか大まかに見ていきましょう!音効の仕事は、1.ライブラリの管理、2.音効作業、3.楽曲リスト制作と大きく3つに分けられます。まずは自分の引き出しともなる定期的な「1.ライブラリの管理」。日々発売されている色々な音楽から権利的に使用可能な楽曲を精査しながらライブラリーに加えていきます。市販の音楽ですとアニメのサントラ、ドラマのサントラ、アーティストのインストなどになりますが、番組などに使用しやすい業務用の音源を各出版社レーベルから送っていただいているのでそちらもチェックです。また、弊社が契約しているロイヤリティフリー音源レーベルも日々更新されています。最近はWeb上から検索して試聴・ダウンロードできるものも増えていますので便利になりました。フリー音源は一般の方でも簡単に購入、使用できますのでいくつかご紹介しておきます。レーベルによってロイヤリティフリーではない曲が含まれることもありますので、利用の際にはよく確認してください。
●代表的なフリー音源サービス
・NASH Musicl Library
・Ligar musiclibrary
・Audiostock
・Epidemic Sound
・Premium Beat
それでは次に「2.音効作業」の流れを簡単に説明しましょう。弊社は情報バラエティのジャンルが多いので、そのパターンを例に進めます。まず制作スケジュールや番組構成の確認から始まりまして、未完成の映像と仮のナレーション台本をもらって選曲などの準備をします。ここで言う未完成の映像とはスーパー加工前の段階のもので、「オフライン」や「白完」など色々な呼び方をします。企業動画案件などは比較的時間に余裕はありますが、デイリーの番組などはタイトなスケジュールですので、未完成であってもこの状態で音効作業を始めないと間に合わなくなってくるのです。
ざっと全体像を把握した後に選曲に入るわけですが、その際にテレビ放送なのか、配信なのか、など媒体を確認して楽曲の使用範囲を把握します。Tver、YouTube、企業web動画、アーカイブ動画などそれぞれで使用できる楽曲が絞られてきます。ロイヤリティフリーの楽曲はほとんどの動画に使用できますが、放送番組ですとテレビ局が包括契約をしているJASRAC、NexToneの管理曲で放送、配信が可能な楽曲から選ぶことが多いです。
次に、編集上がりの映像をもらいます。こちらについても「オンライン」「画完」「スーパー入り」など色んな呼び方をします。ドラマ、映画ですと「ピクチャーロック」でしょうか。この段階からは、選曲した曲を物語と音楽のフレーズを意識しながら編集していきます。なお、スーパーが入るとイメージも変わってくるので、事前に選んでいた選曲をやり直すのもよくあることです。その後、物語の内容と音楽のキーに合うようなSEを選び、スーパーやテロップにSEを付けていきます。雰囲気の分かっているレギュラー番組などは大体想像がつきますが、ナレーターさんの声や読み方、タイミングなども重要な要素なので時間に余裕がある時は収録されたナレーションをもらって再度、音楽やSEの調整を重ねていきます。
そして、編集が完了したらクライアントチェックです。ドラマやCMなどはMA・ミックス前に監督チェックやスポンサーチェックを受けるのですが、CMやインフォマーシャルは幾つかパターンを用意して選んでもらう格好、ドラマについてはチェックで出てきた監督の指摘箇所を修正してMAにデータを送ります。MAで整音・ナレーション収録・ミックス作業を行い、エンジニアさんに最終的なバランスをとっていただいて再度気になる点があれば調整します。こちらも最近はコロナの影響もあり、MA時の修正などは遠隔で対応することが増えました。
最後の「3.楽曲リスト制作」では、使用した曲の詳細を各放送局で用意されたフォーマットの用紙に記載していきます。記載内容は曲名、作曲者、作詞者、アーティスト名、レコード会社、レコード番号、使用秒数などと多岐に渡ります。
選曲のアイディアの出し方
続いて、実際の選曲をどう考えて行なっているのかアプローチの切り口を見ていきましょう。選曲のアイデアの出し方ですが、何しろライブラリの曲数は膨大です。ある程度ピックアップしておいたり、記憶している曲から選んだり、新譜から探してみたりとその選曲方法も様々です。
自分は、ここが一番大変な作業でもあり楽しい作業でもあると思っています。曲によってシーンの見え方がどんどん変わっていく訳ですから面白い作業ではありますが、国語の自由作文のように正直なところ正解がないのです、というか正解がたくさんあるのです。この曲も合ってるけど、この曲も良いし…、逆に何をあてても違う気がする場合もあります。こうなるといくら時間があっても足りません。音効の皆さんはおそらく自分なりのOKラインを持っていて、そこのボーダーラインは超えるように努力されているのだと思います。特番などで弊社では受け切れないというほどの分量のお仕事が来た時、他社の音効さんに手伝って頂くことがよくありますが、皆さんOKラインが非常に高いレベルにあると感じますし、また人によってこんなにも選曲が変わってくるものかとも感心します。
AIロボット化が進み、何でも自動で行える世の中になってきていますが、自分はこの職業は無くならないものだと確信しています。音効は既存の音楽を付けるだけと思われているかもしれませんが、選ぶ作業というのは本当に大変で、悩み、苦しんでその1曲を選んでいるのです。ですから番組が無事放送された時は大変大きな達成感を感じます。
自分なりの選曲のアイディアの出し方ですが、画面を見て感じたことを踏まえて、ナレーションや前後の文脈を読み取って内容に合ったものを選びます。その時、気を付けているのが視聴者の客観的な目線です。演出に入りすぎると、やり過ぎてしまうことや無意味な箇所を埋めてしまったりもします。一旦、俯瞰の目を持つことが大事だと思っています。また、演出の意図を汲み取ることも大事です。ここで盛り上げて、ここで転調して、ここでカットアウトして、ここで復活とか…。さらに気にしているところは、ナレーターさんやMCの喋りのテンポに合わせることです。いくら曲が合っていても語りのテンポに合わないと良くありません。ナレーションなどが聴き取りにくくなってしまっては本末転倒ですから。ちなみに、ナレーション収録の際に音楽を付けておくと、ナレーターさんがそのテンポや曲調に合わせてくれます。職人技ですね。
後は、クライアントの目線も大事です。例えば炭酸飲料のインフォマーシャルでコントドラマの様な設定だとします。ここでコントの内容や演出に寄せて選曲すると企業イメージなどからNGが出てしまいます、それよりも爽やかさや元気さが必要です。と言っておきながらも内容にも合わないといけなかったりして…結果、パターンは多くなります。また、出演されている方の気持ちも考えます。ドキュメンタリーでは特に過度に音楽で煽ったり、その人の感情を揺さぶる様な選曲は避けています。基本は邪魔にならない曲を選んでいることになるのかもしれません。音楽はアーティストさんが何かを主張して作っているのですから、主張しないという曲を選ぶのも実のところ一苦労なわけです。
一方で、それとは全く逆のことになるのですが自分の好きな曲を流すというのもアプローチとしてもちろん有効です。学生時代、友人の影響もあってレッチリ、エリック・クラプトン、ビートルズ、スティービー・ワンダー、ビリー・ジョエル、エアロスミス、ガンズ・アンド・ローゼズなど洋楽のメジャーどころを聴いていました。音効になった頃は、いつか自分の好きな曲を流してやると意気込んでいました。ところが、そんな曲を使って良い場面は滅多にありません。でも時々、演出家さんへのチャレンジ的にこの辺の好きな洋楽などを流すんです。もちろん、内容にも画面にも合っている…と思ってますよ!そんな遊び心も音効には大事なことだと思っています。ちなみに、最近はTWICEが好きで可愛い動物の映像に流しています…(笑)。
しかし、選曲にも限界があります。ゲームコンテンツやCMなどオリジナリティを出したいというオファーがあれば作曲ということになりますので、日頃から色々な場面で知り合った作曲家さんにお願いをして作っていただきます。基本的には演出家さんに雰囲気など伝えてもらうのですが、私が曲の雰囲気を伝えなければならないこともあります。これは自分で選曲するのとは違ってその伝え方が重要、責任重大です。頭にあるイメージを伝えるのはこんなにも大変なのかと痛感していますが、いつも作曲家さんの経験値や技量に助けられております。
選曲の幅の広がり
年齢を重ねるにつれて、人生の経験が深まり選曲のアイデアに潤いが出てきます。若手の頃は必死に目の前の仕事をこなすことで精一杯でしたが、時間に余裕のある時に、例えばスノーボード、ゴルフ、居酒屋、バー、登山、海、海外など1回でも行って体験すると、スノボーの曲はこっちの方がカッコいいなとか、登山してる時はこのタイミングで感動した音楽が欲しいな、など経験が選曲に良い影響を与えてくれます。アウトプットばかりでなく、たまにはインプットも必要と言うことです。また、健康のために時々ヨガをしているのですが、ヨガのインストラクターさんの選ぶ曲は心地良いし邪魔になりません。ピアノ曲からヒーリング曲、アクティブなシーンに合う曲などピッタリなんです。他にも中華の音楽は香港に合うか、ドバイにアラブ音楽は合うかなど、実際行ってみるとこんな曲が合いそうだなとか、こんな近代風にアレンジしているんだとか色々感じ取れると思います。趣味の延長だからと休み無しで働いている方もコロナが落ち着いたら色々なところに行ってみることをお勧めします。
ドキュメンタリーのお仕事もよく頂きますが、こちらも若い頃とは音の付け方が全く変わってきました。音楽で演出するのではなく、出演している人の気持ちになるべく寄り添って、感情を必要以上に演出することは避けて、別のシーンで色を出す様になりました。そうなると曲数もどんどん減っていきますが、「曲を付けない」ということも音響効果の演出なんです。
CaseStudy
孤独のグルメ 配信オリジナル全6話 paravi・ヒカリTVで配信中!
担当させて頂いた番組で印象的だったのが「孤独のグルメ」シリーズです。楽曲は全て原作者の久住昌之さん率いるバンド、TheScreenTonesが作っていることもあり曲に説得力があります。昨今、打ち込みの音楽が多い中で生演奏のパワーが凄くて、井之頭五郎の世界観と料理にハマるんです。シーズンを重ねるうちに600曲くらいに増えましたから、選曲するこちらもやりがいがあります。食べるシーンは定番の曲になることが多いですが、どんなシーンが来ても大丈夫だと思っています。
腹減ったシーンのポンポンポーンは私がバラエティ番組ぽいSEを付けていたら、監督がMAで「もっと生っぽいウッドベースのような音でいきたい」と言われました。色々な音を用意していた私ですが、さすがにウッドベースの単音は持っていなくて困りました。しかし、MA時の音効は「大丈夫ですよ!」って感じで素早く対応するのが腕の見せ所でもあります。そこで、生の音といえばTheScreenTonesさんの楽曲だ!と思い劇伴を聴き直し、ドラムの栗木さんが叩いたパーカッションの音を聴いて、これだ!と思いました。こうしてそのパーカッションを加工して...定番シーンのSEとして繰り返し使われるようになったんです。
当初、孤独のグルメはリアルを大事にしてSE、フォーリーなどは極力つけないでいこうという方向になり、料理の音など音声さんが録音してくれたリアルな音を基本的に使っています。編集として繋がらないような焼き肉やベース音や音が無いと成り立たないところくらいだけ付けるようにしています。これが成り立っているのは松重豊さんの身体で表現する音がちゃんと聴こえるからです。舞台経験の成せる技なのか、動く音、食べるシーンなど、喉の音まで、しっかり聴こえるんです。
最近のドラマは非常に細かく音が付いていますが、私が最初にアシスタントでついた「北の国から 時代」の頃はPro Toolsもなかったですし、6mmテープやAKAIのDD1000やTASCAM DA88の8chマルチで音をピンポンしてSEを作っていましたので、全ての動きに音をつけるなんてことは想像もしていませんでした。それでも一つのシーンに何日もかけて試行錯誤して作り込んでいく音の作り方は大変勉強になりました。私の原点でもあります。
ほかにも印象的な作品を挙げますと、NETFLIX「野武士のグルメ」ではサラウンドの音響制作を行いました。NETFLIXが5.1ch納品と聞いて非常に驚いたことを思い出します。サラウンドについて当時はほぼ未経験でしたので、サラウンドに精通しているエンジニアさんに色々と教えていただきました。AutoPanの書き込み方なども知らなかったくらいでしたので、一人ではいくら時間があっても終わらなかったと思います。ただ、センターの音の重要さや左右だけでなく前後に音を動かせることで広がるサウンドなど、サラウンドの見せる音場に興味津々で作業にのめり込めました。音楽はNugen Audio Halo Upmixを使用して広がりを出し、ベースの音はセンターに寄せたりフロントに寄せたり、単音を左後ろから右前へ移動させてみたり、物語の邪魔をしない範囲で音を動かしたりもして色々試しました。
東京放置食堂
ドラマ「東京放置食堂」では細かい音付けが必要になりました。フォーリー系はもちろんのこと、演者の息づかいやため息まで作成しました。不思議なことに細かく音を作ることで自分も演じている気分になってくるんです。また、心情も俳優さん達と合わせないとそのシーンに合う音が録れないんです。そこから生まれてくるアイデアは非常に面白いです。例えば息を長く吐き出すシーンは息の音が風の音に聴こえてきたり、、、伝わりますかね…(笑)。大変でしたが、非常にやりがいのあった仕事の一つです。
色々とお仕事の経験させていただきましたが、私が一番長く携わった番組は実は生放送なんです。小倉智昭さんの「とくダネ!」など20年ほど携わらさせていただきました。生放送は、いかにミスなくこなすかがテーマですが、当時の選曲作業はVTRも見ずに台本だけで選曲して、O.A15分前までに選曲していたCDを10枚くらい並べて、15秒から20秒でどんどん乗り換えていくんです。忙しいDJみたいです(笑)。生放送の選曲は、また特殊です。事件からエンタメ、ドキュメンタリー、様々なネタを映像を見ずにナレーションだけで想像して選曲しておいて、初めて見る映像に音楽やSEを生で出していくのです。今は映像を見たり、サンプラーを使ったりしていると思いますが...。
生放送に関しては夜中からスタンパイしたり、時間に追われる緊張感など、特殊な音効業務です。しかし、その中で多くのジャンルを体験することになりますから、音効に必要なものが全て詰まっている仕事のような気がします。時々、選曲速度が速いと声を掛けていただくことがありますが、これは生放送で時間に追われて染み付いたものかもしれませんね(笑)。
こんな私ですが、もちろん最初から仕事をたくさん頂いていた訳ではなく、若い頃は先輩の音効さんの模倣をすることで精一杯でした。1人立ちしてからもディレクターさん、プロデューサーさんに沢山ご指導いただきました。そのお陰でここまで長くお仕事をさせて頂いているのだと思っています。不思議と厳しくご指導いただいた方に限って、10年以上の長期のお付き合いになっています。本当に感謝しかありません。また、人の繋がりもあり、元々やりたかったドラマや歌番組のお仕事をさせて頂けることも増えました。まだまだ、音効として勉強する事は沢山あると日々感じています。そして一生勉強しがいのある、この音効というお仕事を選んで本当に良かったと思っています。
●株式会社fro-less
株式会社fro-lessは、音響効果・選曲・SE・MA 等、音作りを全般的にサポートする音効会社です。普段無意識に感じている音を、より自然に、より効果的に映像に取り入れられるよう私たちは日々努力しています。社名の”フローレス”は、ダイヤモンドの最高ランクをさします。カットによっていかようにも表情を変え、底知れぬ光を放つことができるダイヤのように鍛錬された技術と厳選した音で映像作品をより美しく演出していきます。また、年々進化している映像作品ですが、音響という分野でその映像作品に刺激を受けながら、斬新かつクリエイティブな表現を目指しています。
*ProceedMagazine2022号より転載
Tech
2022/06/07
株式会社イクシードが展開する8K overフィルムスキャンサービス 〜OXSCAN 12Kで残すアナログの価値〜
歴史ある都内有数のポストプロダクションである株式会社イクシードが、2022年より新たに8K overの解像度を持つ映像のデジタイズ、グレーディング、レストアのソリューションを、プラサド社とパートナーシップを組みスタートさせた。ハリウッドでのフィルムレストア、VFXなど様々な分野で高い実績を持つプラサド社。そしてプラサド社の傘下であるデジタルフィルムテクノロジー(DFT)社のフィルムスキャナー、イクシードが持つフィルムの取り扱いのノウハウ、グレーディングのソリューション。そのシステムの全貌とどのようなサービス提供を考えているのかお話を伺った。
8K overのデジタイズサービス
はじめに、なぜこの記事内で「8K over」という表現をしているのか?ということを説明したい。まず、高解像度のデータがあれば、それ以下の解像度への変換時に基本的にはロスは生じない。できる限り高い解像度を保ったままデータ処理をすることの有用性は、改めて説明をするまでもないだろう。そして、今回プラサド社とのパートナーシップによりイクシードに設置されたOXSCAN 12K(デジタルフィルムテクノロジー(DFT)社製) は、センサーとしては12Kの解像度を持っている。この12Kでのスキャンエリアはパーフォレーションを含んだものであり、有効画面として純粋に12Kの解像度が担保されるものではないが、様々なフォーマットがあるフィルム媒体への対応のためには必要なことでもある。実際のところ、OXSCAN 12Kでは16mm、35mmのフィルムともに有効面の解像度は8Kを超える画素数を得ることができる。そのためここでは「8K over」という表現を使わせていただいている。
このOXSCAN 12Kで取り込まれたデータは色深度16bit-logであり、RAWデータの状態で1フレームあたり500MBというデータ量を持つ。24fpsで換算すると1秒あたり12GBというデータ量だ。解像度の高さもさることながら、16bit-logで色情報を捉えることができるこのシステムは、まさに世界最高峰のスキャナーと言って過言ではないだろう。そこで捉えたデータは、さすがにそのまま触るということではなく、プロキシデータを生成して作業を行っているということだ。最初に1フレーム500MBと聞いた際には、どのような巨大なサーバーシステムが裏に構えているのか?と思ってしまったところだが、データ容量としては膨大となるものの一般的なNASストレージ(10GbE接続)で動作させているということだ。ここで捉えたデータにトリミング、グレーディングといった作業を施し、顧客の必要とするデータ形式での納品が今後行われる。旧作品のアーカイブであれば必要に応じてレストアも対応していくということだ。
ソフトウェアとしては、Blackmagic Design Davinciを中心にシステムアップが行われていたが、更に高度な処理を行うということであれば、プラサド社とのパートナーシップを活用してハリウッドでの作業なども見据えるなど、そのサービスは広がりを持つものとなっているという。
デジタルではたどり着けないアナログの残し方
フィルムでの映像作品が映像のメインストリームから消えて20年近くが経過しようとしている。保管状況にシビアなフィルムが経年で劣化してしまう前に、高解像度でアーカイブを行う最後のチャンスに差し掛かっているとも言える状況だ。後世に作品をマスタークオリティーで残すためにこの8K overのデジタイズサービスは価値があり、これまでにHD解像度でデジタイズされた作品も改めて更に高い解像度で残すべきだとお話をいただいた。
📸左よりお話をお伺いした株式会社イクシードのカラリスト田嶋氏、プラサド社の中西氏、イクシード代表の中野氏。
フィルムの持つ解像度がデジタルとしてどれほどのものになるのか?これには様々な意見があるだろう。しかし、長期的に見て今の時点で考えうる最高の解像度で作品を残すということには価値がある。これには異論は無いだろう。実際にデジタイズされたデータを85インチの8K モニターで見せていただくとフィルムの粒子が見える。この表現が正しいかはわからないが、粒状感のあるフィルムならではの質感を保ちつつ、ピントのピーク一つ一つに製作者の意図を感じる。もちろん、フィルムならではのダイナミックレンジ、色味などの情報も如実に反映される。あとからデジタル処理として粒状感を加えたり、グレーディングで似せたものものでは決してたどり着けないアナログの良さがしっかりと残っていた。
昨今、ハリウッドではデジタル撮影された作品をキネコ(※)してデジタイズし直すという手法も行われているとのこと。本物のフィルムならではの質感を得るために、あえてこのような工程も手段の一つとして生まれているそうだ。もちろん、予算さえ許せば当初よりフィルムで撮影するということも行われている。イクシードでは過去作品のアーカイブのみならず、新撮作品のデジタイズもサービスとして積極的に行っていきたいということだ。ピントがシビアだ、などと言われる8Kデジタル撮影だが、フィルムで撮影してからの8Kデジタイズであればアナログ的なにじみが逆に味として残る。撮影の負担も軽減されるので手法の一つとして考えられるのではないだろうか。
※キネコ:デジタルの映像作品をフィルムに焼き付ける作業、機械。Kinescope。
この8K overのデジタイズソリューションにより、どのような作品が生み出されていくのか?過去の作品が未来へとどのようにつながっていくのか?国内初となるOXSCAN 12K、今後どのように活躍の場を拡げていくのかその動向から目が離せない。
株式会社イクシード
2000年9⽉に映像ポストプロダクションとして設⽴。数多くの映像作品(CM、企業 VP、プロモーションビデオ、ミュージックビデオ、映画)に携わっており、様々な業務(撮影、編集(オフライン編集、オンライン編集)、カラーグレーディング、MA、各種マスタリングサービス)を提供している。
プラサド
デジタルリマスター制作におけるトータルサービスをグローバルに提供するプラサド社。フィルム保存、16mm、35mm、65mm、IMAX シアター及び、2K、4K、8K、12K までの解像度のフィルムスキャン、デジタルレストア、クオリティーチェック、メタデータ管理など、ハリウッドでも⻑年サービスを提供している。
Tech
2022/05/02
Pick Up!! 大幅な性能アップを果たした Pro Tools Studio
最新バージョン Pro Tools 2022.4 のリリースとともに大幅なラインナップ変更が加えられた Pro Tools。エントリーモデルである Pro Tools Artist の登場や、新規永続ライセンス単体での購入が終了するなどさまざまな変化がありましたが、見落としてはならないのはどのクラスの Pro Tools もそれぞれ基本性能がアップしているという点です。
中でも、旧 Pro Tools (無印) の後継クラスである Pro Tools Studio では、従来 "Ultimate" でしか使用できなかったいくつかの機能が解放され、その名の通りプロフェッショナルクラスとして十二分な性能を得るに至りました。
以下、Pro Tools Studio に焦点を当て、今回のアップデートで向上した機能をピックアップしていきます。
関連記事
緊急速報!! Pro Tools 新ラインナップが発表!! 超速セミナーも開催!
Pro Tools 2022.4 リリース!大幅なラインナップ変更と機能追加
S4/S6 & EUCONTROL 2022.4もリリース!
オーディオ・トラック数が512トラックへと倍増
従来、256だったオーディオ・トラックの上限が512トラックへと倍増しています。
Dolby Atmosイマーシブ・オーディオ対応
これまでのステレオに加え、5.1/7.1チャンネル・ベース・サラウンド、Dolby Atmos、3次オーダーAmbisonicsに対応しています*。
*Dolby Atmosミキシングには、Dolby Atmos Production Suiteが必要です。
*Pro Tools | Carbon上で動作するPro Tools Studioのモニタリング・コントロール・セクションはステレオ出力までの対応となります。サラウンド以上で外部スピーカーによるモニターを行う場合は、それぞれのフォーマットに対応した外部モニタリング・コントローラーをご使用いただく事をお勧めします。
進化したオートメーション機能
これまでUltimateのみに搭載されていたトリム、プレビュー、キャプチャー、スナップショット、全てに書き込み機能が可能となりました。
クリップ・エフェクト編集機能の追加
これまでUltimateで作成したクリップ・エフェクト・データの再生だけが可能でしたが、Pro Tools Studioでは、EQ、ダイナミクス、フィルタ全てに関して、その作成/編集が可能となりました。
マルチステム・バウンス対応
これまでUltimateでのみ対応していた「複数のステム・ファイルを同時にエクスポート」することも可能となりました。
Pro Tools Studio 製品ラインナップ
9938-30001-50 Pro Tools Studio 年間サブスクリプション-新規
希望小売価格 ¥38,830(本体価格 ¥35,300)
特価在庫価格 ¥26,070(本体価格 ¥23,700)
Rock oN Line eStore でのご購入はこちら>>
*特価在庫完売次第、通常価格での販売となります。
9938-30003-50 Pro Tools Studio 年間サブスクリプション-更新
希望小売価格 ¥38,830(本体価格 ¥35,300)
Rock oN Line eStore でのご購入はこちら>>
9938-30003-00 Pro Tools Studio 永続版用年間プラン更新
希望小売価格 ¥24,310(本体価格 ¥22,100)
Rock oN Line eStore でのご購入はこちら>>
9938-30005-00 Pro Tools Studio 永続版用年間プラン再加入
希望小売価格 ¥42,570(本体価格 ¥38,700)
特価在庫価格 ¥30,360(本体価格 ¥27,600)
Rock oN Line eStore でのご購入はこちら>>
*特価在庫完売次第、通常価格での販売となります。
ラインナップが大幅に変更された Pro Tools、その他システム構築などについては、ご相談はお気軽に ROCK ON PRO までお問い合わせください!
https://pro.miroc.co.jp/headline/pro-tools-2022-4
https://pro.miroc.co.jp/headline/protools-lineup-renewal
https://pro.miroc.co.jp/headline/s4-s6-eucontrol-2022-4
Tech
2022/04/22
Media Composerのリモート編集を考えてみよう
昨今の働き方のキーワードとなるテレワーク。
2020年からのコロナの影響で、多くの企業でテレワークの環境を整えつつあります。自宅にいながら、リモートでビデオ編集をしようとするとき、そのソリューションを選択するときに考慮しなければならないことは、いったい何なのか、次の3つのソリューションを見ながら考えていきたいと思います。
ここではネットワークに接続されたすべてのコンピュータと共有ストレージが存在する施設で編集し、それらを家に持ち帰ることができないことを前提とします。なぜならば、セキュリティの問題や、または大容量のデータへのアクセスが必要になるなどの懸念があるからです。
リモートデスクトップ
よくある一般的な方法は、リモートデスクトップソフトウェアを使い、オフィスのコンピュータの画面を、外部のコンピュータに転送して使用する方法です。この方法は外部のコンピュータにデータを保存することがないので、セキュリティの面でも問題がなく、また特に大きな費用をかける必要がないため、多くの企業で最初に採用された方法ではないでしょうか。
しかし、典型的なオフィスコンピュータにインストールされている画面共有のソフトウェアは、自宅からファイルやメールになどを主とするオフィスワーカーのために設計されているため、ポストプロダクションのニーズを満たしていません。そのためフルフレームレートでの再生の遅延やオーディオとビデオの同期、色の再現性、レスポンスの問題などに直面することになります。TeamviewerやMicrosoftリモートデスクトップ、VNC、またはその他のほとんどのWebベースのソリューションは実はビデオ編集には向いていないのです。
そこで大きな設備投資が必要なく、通常のインターネット回線を使いながら、もっとインタラクティブに、遅延の少ない操作を確立するために、TeradiciのPCoIPプロトコルを使ったリモートデスクトップ方法があります。
PCoIPとは「PC over IP」のことですが、リモートデスクトップの環境で、画面転送を行うためのプロトコルの1つです。特徴としては、仮想ディスプレイの出力をIP化して転送することにあります。Teradiciのテクノロジーは、ネットワーク帯域の状況を加味して画面表示され、出力のパターンを認識し、適切な圧縮方法を自動的に選択し転送するため、低帯域のネットワークでも表示が見やすく、また回線スピードが早ければ、高解像度のグラフィックスも表示できます。
Teradici PCoIPは素晴らしいプロトコルでが、クリエイティブに関してはいくつかの制限があります。 PCoIPは8ビット表示に制限されているため、ハイエンドのカラーグレーディングには向かないこともあります。Teradici PCoIP Ultraには10ビット機能があるので、カラーグレーディング等の操作には、こちらを採用するのもいいかもしれません。オーディオは通常、ステレオ再生に制限されており、モニターの出力はできません。コンピューターのGUIのみになりますが、ビデオを編集することが目的であれば、音に関してはそれほど深刻な問題にはならないかもしれません。
月々のライセンス費用が必要になりますが、Teradiciを使用してのリモートディスクトップは、簡単でより堅牢なソリューションの1つといえるのではないでしょうか。
クラウドでの仮想化
現在では、Dropboxのようなサービスを使って小さなファイルの保存から始まり、私達は何らかの形でクラウドサービスを使用し、少なくとも何かをクラウドに保存するほど、たいへん身近なものになりました。
そしてビデオ編集システムそのものをクラウド上で展開することが可能になり、それをサポートするすべてのソフトウェアツールとハードウェアストーレジが、データセンターのVM(仮想マシン)で実行できています。
クラウドの仮想化システムには多くの利点があります。時間や場所を問わず利用できることや容量の追加、削除が簡単に行うことができ、ハードウェアの投資がないため、イニシャルコストがほとんどありません。反面、長期的に分散された設備投資の費用がない分、月々または年間での運用コストが必要にはなり、作業時には、クラウドへのアップロードの時間やダウンロードのコストなどを意識して使用することが大切です。
Avidの「Edit on Demand」製品は、Azure上にあるクラウド編集システムです。Azure上でMedia ComposerやNEXISストレージ、編集に必要な様々なものを展開し、手元にあるローカルコンピュータ(ゼロクライアント)を介してアスセスします。機能面では、Azure上のMedia ComposerはNEXISストレージにアクセスでき、ビンロック機能とプロジェクトの共有機能を使うことができます。
クラウドシステムでは編集システムの台数も制限がなく、プロジェクトの共有も可能なことから、人数を増減しながら、複数人での並行作業などが必要なプロジェクトで使用するには、適したシステムではないでしょうか。
オンプレ・プライベートクラウド
オンプレサーバーはある意味プライベートクラウドです。
Avidはリモート編集で使われるシステムのプロキシを提供するオンプレミスサーバーを長年にわたって開発してきました。オンプレミスサーバーは、リモートで接続されたAvid Media Composerシステム内でネイティブに使用するメディアのプロキを作成し、提供します。
Avidにはオンプレ・プライベートクラウドとそれに合わせたリモート編集ができる製品として、2つのラインナップがあります。一つはMedia CentralとNEXISストレージをベースとするMedia Compoer|Cloud Remoteと 、もう一つは2022年1月に発表されたNEXIS Edgeです。
この2製品に共通するすぐれた機能は、プロキシ編集ができること、そしてその際にアセットマネージメント機能が有効であるということです。
プロキシを使うメリットは、通常のインターネット回線でプライベートサーバーにアクセスすることができ、ローカルコンピュータのMedia Composerでプロキシメディアでの編集ができることです。ハイレゾリューションメディアから作成されたプロキシメディアとそのメタデータの紐付けが完全であるため、Media Composer内で表示するメディアを高画質にもプロキシにも、簡単に切り替えることができます。
プロキシメディアを作成してそれを編集することは、Avidシステム以外でもできるかもしれません。しかし、その編集したシーケンスに対し、ハイレゾリューションメディアへの切り替えが瞬時で行われることが望まれるとしたら、アセット機能がなければなりません。アセット機能があることで、プロキシとハイレゾリューションメディアの切り替えが、ボタン1つで行えるため、リモートでは仮編集、会社にある編集システムでは、高画質プレビューや調整をすることができ、プロキシ・ハイレゾのワークフローがスムーズに実行できます。
また、よくあるアセットマネージメントの機能として、webベースのビデオ編集をうたっている製品もあります。しかし、何かのチェックをするために再生したり、マークを付けたりするアシスタントやプロデューサーには十分かもしれませんが、熟練したエディタにはこのwebベースの編集では物足りないものがあります。Avidの統合されたシステムではその両方を使うことができ、エディタからプロデューサーまで、そのコンテンツに関わる人たちがすべてを共有することができます。
では、Avid Media Composer|Cloud RemoteとNEXIS Edgeの製品の違いはというと、
Media Composer| Cloud RemoteはMedia Centralをベースとし、それと連携するソフトウェアオプションです。施設外のMedia Composerユーザーは場所を問わず、リモートでMedia Centralが管理するメディアにアクセスすることができ、プロキシをリアルタイムでストリーミングすることができます。このオプション機能は、Media Centralが中心にある大規模なポストプロダクションで利用されます。
NEXIS Edgeは、2022年1月に発表された新製品です。もし、NEXISストレージをすでにお持ちであれば、NEXIS Edge用のサーバーを追加することで、リモート・プロキシ編集をすることができるようになります。また、この製品は、もう一つの特徴として、(メディアは持ち出さない前提とは言いましたが)ネットワークなしでのオフライン編集ができる機能があります。コピーメディアのワークフローを利用し、プロキシメディアやレンダリングメディア、ビンをローカルドライブに移すことで、再リンクが必要になるメディアを作成しなくてすみます。そして、不安定なネットワークの環境を心配することなく、編集をすることができ、完成したシーケンスを戻す際にも、再リンクに悩まされることがなくなります。
NEXIS Edgeはクライアント数などに制限がない、リモート接続可能で、プロキシワークもできるシステムになります。NEXISにアスセスするときには、リモートクライアントとして接続すれば、Wi-Fiや家庭のインターネットからも接続することができます。共同作業をするような場面でも、場所を選ばずに編集をすることができ、さらに会社の施設内では、高解像度でカラーグレーディングやプレビューができるシステムとのシームレスな連携が可能になり、中小規模のポストプロダクション向けのシステムといえるのではないでしょうか。
ここまで、3つのソリューションとしてMedia Composerでのリモート編集について見てきました。
リモートデスクトップでのアクセスやゼロクライアントでのアクセスは、Media Composerのアプリケーションが手元にないため、ステレオ以外のオーディオを確認することはできません。一方、NEXIS EDGE等のAvidシステムでの構築は、手元のPCにMedia Composerがあるため、ビデオインターフェースを追加することもでき、見たいモニタや聞きたいスピーカーで確認することも可能です。
リモートワークにはネットワークがかかせません。5Gのカバー率が上がったというニュースはよく耳にしますが、どれだけ恩恵を受けていると感じていますか?安全なリモート編集を考えるのであれば、Avidのソリューションは投資対効果に見合うシステムといえるのではないでしょうか。
ご不明な点がございましたら、Rock On Pro までお気軽にお問い合わせください。
Tech
2022/03/15
iZotope RX 9 レンダリング速度対決 〜M1 vs Rosetta 2 vs Intel (vs M1 Max)〜 M1対応記念セールも実施中!!
数々の受賞歴を誇る業界標準オーディオリペアツール iZotope RX が最新バージョンv9.3.0より、待望の Apple Silicon M1へのネイティブ対応を果たしました!2021年秋に新たな機能を追加してバージョンアップしたばかりの RX 9 を、現時点でもっともパワフルな環境で使用することが可能となります。
ROCK ON PRO では早速、従来の Intel CPU や Rosetta 2 経由での動作と比較し、Apple M1ネイティブ対応の優位性を検証!
さらに、この Apple M1ネイティブ対応を記念して実施中のセール情報をお届けします!
iZotope RX 9 の詳細はこちら>>
レンダリング速度比較! 〜 M1 vs Rosetta 2 vs Intel Core i7 〜
先日、iZotope RXの Apple M1チップへのネイティブ対応が発表されました。M1搭載のMACをお使いのiZotopianのみなさまは既にお試しいただいてますでしょうか?ネット上では「かなり処理速度が上がった」「体感2倍〜3倍速い」などといったコメントが散見されますが、果たしてどれくらい処理速度は向上しているのか?実際に弊社環境でチェックしてみました。
◎そもそも「M1ネイティブ対応」とは何か
すでにご存知の方も多いかと思いますが、まずは「M1ネイティブ対応」の意味からおさらいしてみたいと思います。
改めてNativeという単語の意味を検索してみると、次のような意味とのことです。
Native=出生地の、自国の、本来の、その国に生まれた、その土地固有の、土着の、(…の)原産で、土産(どさん)で、生まれつきの、生来の
(参照:Weblio英和辞典 native)
「M1ネイティブ対応」という文脈においては「本来の」という意味で使用されているようなイメージでしょうか。
RXがM1チップ搭載MACでも使えるようになったのは、RX 8.5からですが、このバージョンから9.2までは「Rosetta 2」経由で処理を行っていました。
Rosetta は特定のアーキテクチャのプログラムコードを持つバイナリを、別のアーキテクチャに適宜変換 (en:Dynamic recompilation) することでバイナリの互換性を維持するAppleの技術。(参照:Wikipedia - Rosetta)
これがM1リリースに伴い、インテル製CPU向けアプリケーションとの互換性を保つために新たにRosetta 2 として発表されました。ただしこれはあくまで動作上の互換性を保つためのワークアラウンドであり、M1チップが保つ本来の性能を発揮できていないということになります。
つまり、今回のRXの「M1ネイティブ対応」は「M1本来の処理性能での動作に対応した」という意味になります。
ちなみに、今お使いのアプリケーションがM1で動いているのか、Rosetta 2で動いているかどうかを確認するためには「アクティビティモニタ」の「種類」の項目から確認できます。"Apple"もしくは"Intel"となっており、もしここが"Intel"と表示されている場合、Rosetta 2経由で動作していることを表しています。
◎検証環境
検証パターン
・2種類のCPU x 2種類のRXバージョン x 3種類の処理項目 = 12パターン
- 2種類のRXバージョン( v9.0.1 or v9.3.0 )
- 2種類のCPU ( M1 or Intel )
- 3種類の処理項目( Dialogue Isolate or Repair Assistant or Music Rebalance)
今回検証に使用するマシンのスペックは以下になります。本来であれば全くの同スペックで検証するのが理想でしたが、現実はそううまくは行きません…。あくまで参考としてお考えください。
まずIntelマシンとして用意したのはMacbook Pro(15-inch,2016)。6年前のモデルということに驚きましたが、Quad-Core Intel Core i7とそれなりにパワフルなCPUを備えています。
MAC①:MacBook Pro(15-inch,2016)
・ OS:macOS 10.15.7 Catalina
・ CPU:2.7 GHz Quad-Core Intel Core i7
・ メモリ:16GB 2133MHz LPDDR3
・ グラフィックス:Intel HD Graphics 530 1536MB
対するM1マシンとして用意したのはiMac(24-inch,M1,2021)。iMacのラインナップの中では最もリーズナブルな構成のモデルですが、4つの高性能コアと4つの高効率コアを搭載しており、その処理性能は既に随所で高く評価されています。
MAC②:iMac(24-inch,M1,2021)
・ OS:macOS 11.3 Big Sur
・ CPU:Apple M1
・ メモリ:8GBユニファイドメモリ
・ グラフィックス:Apple M1
さらに、とある協力者様のご協力によりM1 MAXのデータも得ることができました(V9.3.0のみ)
MAC③:MacBook Pro (16-inch ,2021)
・ OS:macOS 11.2 Monterey
・ CPU:Apple M1 MAX
・ メモリ:32GBユニファイドメモリ
・ グラフィックス:Apple M1 MAX
RXのバージョンは同一マシンでのRosetta 2経由 / M1ネイティブでの処理速度の違いをみるために、それぞれV9.0.1、そして最新のV9.3.0の2種類のバージョンのRXを用意しました。
処理項目は3種類。雑音の中から音声を分離するDialogue Isolate、最適な処理を提案してくれるRepair Assistant、そして楽曲をパートごとに分離可能なMusic Rebalanceと、比較的CPUへの負担が大きそうな処理項目を使用します。
素材は2種類。工事現場の雑音の中での話し声を録音した音声素材(13秒)と、商用フリーの音楽素材(4分23秒)を用意しました。
検証に使った素材
サンプル1:工事現場の雑音の中での話し声、13秒
-> Dialogue Isolate、Repair Assistant
サンプル2:フリーの音楽素材、4分23秒
-> Music Rebalanceでパートごとの個別トラックに分離
測定方法はDialogue IsolateとRepair Assistantについては上記サンプル1を、Music Rebalanceについてはサンプル2を使用し、処理の実行終了後、画面左下に表示される処理時間を記録しました。
1.Dialogue Isolateのパラメータ設定
2.Repair Assistantのパラメータ設定
2.Music Rebalanceのパラメータ設定
計測方法
●1.Dialogue Isolate
サンプル1(雑音+話し声)を以下のパラメーターで実行し、”Render"ボタン押下〜完了後、画面左下に表示される処理時間を記録。
●2.Repair Assistant
サンプル1(雑音+話し声)を以下のパラメーターで実行し、”Render"ボタン押下〜分析が終わりサジェストが表示されるまでの実時間を計測。(結果欄ではそれぞれ"_1"、"_2"で表記。)
●3.Music Rebalance
サンプル2(音源)を以下のパラメーターで実行し、”Separate"ボタン押下〜完了後、画面左下に表示される処理時間を記録
検証結果 〜やはりM1ネイティブ対応版は速かった!〜
表1:検証結果 - 全パターン結果
結論から申し上げますと、追加で検証を実施したM1 MAX(Native)がぶっちぎりで速いという結果に。MAXはさておき、無印のM1ネイティブをRosetta 2と比較すると約1.3倍ほど速く、Intelとの比較では約2倍ほど速いという結果になりました。(表3 上段)ちなみにRosetta 2とIntelとの比較でも1.3倍ほど前者が速かったです。また、処理中に表示される推定残り時間を見ていても、明らかにM1ネイティブが少ない残り時間の表示となっていました。
表2:検証結果 - 項目ごとの順位(V9.3抽出)
それにしてもM1 MAXの処理速度の速さには驚きです。Intel MBPより平均3.5倍ほど速いです。Music Rebalanceでは、オリジナルが4分23秒の音楽素材をたったの111秒=1分51秒で綺麗に4パートに分離しました。
表3:検証結果 - 速度比(V9.3抽出)
個人的な感想として、M1ネイティブ対応のv9.3.0は比較的キビキビとした挙動で、「仕事で毎日RXを使っている」という方もストレスフリーな作業が期待できると思います。
皆さんも、是非ともM1ネイティブ対応で本領発揮したiZotope RX 9の真価をご体験ください!
※一部、Music Rebalanceについては例外的な結果となっている部分もありますが、今回の結果はあくまで弊社環境によるものですので、あくまで参考程度にお考えください。また分離後の音質の評価までは残念ながら実施できていないので、そのあたりを比べてみると差が出てくるという可能性も大いにあります。
Apple Silicon ネイティブ対応を記念したセールが開催中!
Apple Silicon への対応を記念して、2022年3月31日までの期間限定プロモーションが実施中!各種Elementsからのクロスグレードが過去最安値など、RX を手に入れる絶好のチャンス到来です!!
ラインナップ詳細、ご購入は Rock oN Company WEBサイト、または下記contactボタンよりROCK ON PRO までお問い合わせください!
Tech
2022/02/24
新作追加!『ラックのウラからヨイコラショ!』〜業界の”?”をだいたい10分で解決!〜
ROCK ON PRO 配信企画が始動!ROCK ON PROの若手スタッフが、経験豊富なハカセたちに音響業界のイマサラキケナイ基礎知識に関する疑問難問をぶつけます!業界で当たり前のように使うコトバやジョーシキが「わからな〜い!?!?」という方も、コレを見ればだいたい10分で分かる…はず!?
だいたい月イチ更新予定でお送りいたします!
再生リストはこちら>>
だいたい10分でわかるカタログの読み方(マイク編)2022.2.24公開
「おれ、世界一のBeat Boxerになる!」勢いこんで宣言したはいいが、スペック表の読み方がわからないバウンス清水。そんな彼に、洋介ハカセがカタログスペックで抑えておくべき4つのポイントとその意味を丁寧にレクチャー。
だいたい10分で、マイクが持っている様々な特性の意味とマイク選びに大切なポイントがわかります!
だいたい10分でわかるマスタークロック 2022.1.28公開
「マスタークロックで音が変わる!?どうして!?」ROCK ON PRO 2019年度ドラフト1位の期待のホープ、しまもんこと嶋田直登の質問に洋介ハカセがマスタークロックのはたらきとなぜマスタークロックを変えると音まで変わるのかを丁寧にレクチャー。
だいたい10分で、オーディオシステムにおけるマスタークロックの役割がわかります!
制作は最先端の音響・映像配信システムを融合したLush Hubで実施!
2021年、渋谷に誕生したクリエイターのための秘密基地Lush Hub。『ラックのウラからヨイコラショ』は撮影から編集、ポストプロダクションまで、この最先端の音響と映像配信が融合したシステムを備える場所で制作されています。いつか、この設備をフル活用してラックのウラから生配信が実現するかも!?
Lush Hubについての詳細はこちらから!>>
『ラックのウラからヨイコラショ!』はだいたい月イチペースで動画を追加予定です。YouTube再生リストはこちら、新しい動画は順次こちらのページにも追加する予定ですので、ぜひブックマークをお願いします!
ご意見、ご質問、番組で取り上げてほしいテーマのリクエストなどは、contactバナーから、お気軽にROCK ON PRO までご連絡ください!
Tech
2021/09/27
今知っておきたい!Pro Tools | Carbon ハイブリッド・エンジンの魅力!- Avid Japan公式You Tubeプレイリスト『ハイブリッド・エンジンでレコーディング!』公開中
Avid Japan公式You Tubeプレイリスト 『Pro Tools | Carbon - ハイブリッド・エンジンでレコーディング!』が公開中
昨年11月、AVIDから満を持して発表されたPro Tools | Carbonですが、その最大の特徴はなんと言っても"ハイブリッド・エンジン"機能!Carbonに搭載されたHDX DSPチップによる処理と、ホストコンピューターのCPU処理をボタン一つでシームレスに切り替えることが可能です。そんなCarbonの低レイテンシー処理の仕組みやCarbonを活用した音楽制作Tipsをまとめた、Avid Japanの公式You Tube プレイリストが公開されています。
リンク:『Pro Tools | Carbon – ハイブリッド・エンジンでレコーディング!』
You Tubeプレイリスト:『Pro Tools | Carbon – ハイブリッド・エンジンでレコーディング!』
Pro Tools | Carbon のレイテンシー処理はなぜ"高速"なのか?
Pro Tools | Carbonでベース・レコーディング!
Pro Tools Carbonでヴォーカル・レコーディング!
Pro Tools | Carbonでドラム・レコーディング!
Pro Tools | Carbon - シンセで曲作り!
Pro Tools | Carbon - トラッキング時のヘッドフォン用キュー・ミックス設定
Pro Tools | Carbon のレイテンシー処理はなぜ"高速"なのか?
レコーディングでオーディオインターフェースを使う際に極めて重要なのがレイテンシーの問題です。プレイヤーが実際に演奏している音と、モニターしている音にズレがあると、なかなか100%の実力を発揮するのは難しいですよね。そんな時CarbonのDSP処理がレイテンシーの軽減に大きく役立ちます!この動画では、その理由が詳しく解説されています。
Pro Tools | Carbonでベース・レコーディング!
ベース演奏の繊細なグルーヴを捉えるのにも、Carbonの低レイテンシー処理が最適です。ハイブリッド・エンジンを活用すれば、レイテンシーが気になるCPU処理のトラックも瞬時にDSP処理に切り替えることが可能です。難しい設定は何もありません。
Pro Tools Carbonでヴォーカル・レコーディング!
今、Carbonを購入すると、特典としてPro Tools Ultimate 永続版とともに入手できるAntares Auto-Tune Hybrid(※2021年12月31日迄)。その名の通りボーカルのピッチを指定したキーで自動的にチューニングしてくれます。クールなボーカルトラックをCarnbonでレコーディングするTipsのご紹介です。
Pro Tools | Carbonでドラム・レコーディング!
Carbonの拡張性に優れた入出力により、ドラムのレコーディングも可能です。もちろん、ここでもDSP処理での低レイテンシーモニタリングが大きく役立ちます。生音が持つ繊細なニュアンスを忠実に残せる録音品質の良さも魅力です。
Pro Tools | Carbon - シンセで曲作り!
低レイテンシーモニタリングが役立つのは、生楽器の録音時だけではありません。シンセサイザーやリズムマシンなどのハードウェアを複数台同時に録音したいときにも、大活躍。クリックトラックを用意し、CPU処理のトラックとDSP処理のトラックを比較してみると結果は歴然。一瞬のグルーヴを逃さないビートメイキングが可能です。
Pro Tools | Carbon - トラッキング時のヘッドフォン用キュー・ミックス設定
Carbonには4つのヘッドフォン出力が搭載されています。Pro Tools 2020.3より追加されたフォルダトラック機能と組み合わせれば、録音トラックを見た目にも分かりやすく整理でき、簡単にキューミックスを作成することができます。便利なショートカット機能を使えば、まず各キューミックスへの送り量をコピペした後、プレイヤーごとに細かくバランスを調整することが可能です。
豊富な入出力、低レイテンシーモニタリングでバンドのレコーディングにも最適なPro Tools | Carbon。ご購入を検討中の方は、豪華特典満載な今年中のご購入が絶対オススメです!導入のご相談は下記フォームからお気軽にお問い合わせください。
ハイブリッドエンジン、Pro Tools アップデート情報に関するウェビナーも近日開催予定です。詳細は下記ページから。
https://pro.miroc.co.jp/headline/protools-hybridengine-seminar/#.YVJxd2b7TOQ
Media
2021/07/28
IPビデオ伝送の筆頭格、NDIを知る。〜ソフトウェアベースでハンドリングする先進のIP伝送〜
弊社刊行のProceedMagazineでは以前より音声信号、映像信号のIP化を取り上げてきた。新たな規格が登場するたびにそれらの特徴をご紹介してきているが、今回はNewtek社によって開発された、現在世界で最も利用されているIPビデオ伝送方式のひとつであるNDIを取り上げその特徴をじっくりと見ていきたい。IPビデオ伝送ということは、汎用のEthernetを通じVideo/Audio信号を伝送するためのソリューション、ということである。いま現場に必要とされる先進的な要素を多く持つNDI、その全貌に迫る。
一歩先を行くIPビデオ伝送方式
NDI=Network Device Interface。SDI/HDMIとの親和性が高く、映像配信システムなどの構築に向いている利便性の高い規格である。このIP伝送方式は、NewTek社により2015年9月にアムステルダムで開催された国際展示会IBCで発表された。そして、その特徴としてまず挙げられるのがソフトウェアベースであるということであり、マーケティング的にも無償で使用できるロイヤリティー・フリーのSDKが配付されている。ソフトウェアベースであるということは、特定のハードウェアを必要とせず汎用のEthernet機器が活用可能であるということである。これは機器の設計製造などでも有利に働き、特別にカスタム設計した機器でなくとも、汎用製品を組み合わせて活用することで製品コストを抑えられることにつながっている。この特徴を体現した製品はソフトウェアとしていくつもリリースされている。詳しい紹介は後述するが、汎用のPCがプロフェッショナルグレードの映像機器として活用できるようになる、と捉えていただいても良い。
フルHD映像信号をを100Mbit/s程度にまで圧縮を行い、汎用のEthernetで伝送を行うNDIはIBC2015でも非常に高い注目を集め、NewTekのブースには来場者が入りきれないほどであったのを覚えている。以前、ProceedMagazineでも大々的に取り上げたSMPTE ST2110が基礎の部分となるTR-03、TR-04の発表よりも約2ヶ月早いタイミングで、NDIは完成形とも言える圧縮伝送を実現した規格として登場したわけだ。非圧縮でのSDI信号の置換えを目指した規格であるSMPTE ST-2022が注目を集めていた時期に、圧縮での低遅延リアルタイム伝送を実現し、ロイヤリティーフリーで特定のハードウェアを必要とせずにソフトウェアベースで動作するNDIはこの時すでに一歩先を行くテクノロジーであったということが言える。そして、本記事を執筆している時点でNDIはバージョン4.6.2となっている。この更新の中では、さらに圧縮率の高いNDI HX、NDI HX2などを登場させその先進性に磨きがかけられた。
📷これまでにもご紹介してきた放送業界が中心となり進めているSMPTE 2022 / 2110との比較をまとめてみた。大規模なインフラにも対応できるように工夫の凝らされたSMPTE規格に対し、イントラネットでのコンパクトな運用を目指したNDIという特徴が見てとれる。NDIは使い勝手を重視した進化をしていることがこちらの表からも浮かんでくるのではないだろうか。
100Mbit/s、利便性とクオリティ
NDIの詳細部分に踏み込んで見ていこう。テクノロジーとしての特徴は、前述の通り圧縮伝送であるということがまず大きい。映像のクオリティにこだわれば、もちろん非圧縮がベストであることに異論はないが、Full HD/30pで1.5Gbit/sにもなる映像信号を汎用のEhternetで伝送しようと考えた際に、伝送路の帯域が不足してくるということは直感的にご理解いただけるのではないだろうか。シンプルに言い換えれば一般的に普及しているGigabit Ethernetでは非圧縮のFull HD信号の1Streamすら送れないということである。利便性という目線で考えても、普及価格帯になっているGigabit Ethernetを活用できず10GbEthernetが必須になってしまっては、IPビデオ伝送の持つ手軽さや利便性に足かせがついてしまう。
NDIは当初より圧縮信号を前提としており、標準では100Mbit/sまで圧縮した信号を伝送する。圧縮することでGigabitEthernetでの複数Streamの伝送、さらにはワイヤレス(Wi-Fi)の伝送などにも対応している。4K伝送時も同様に圧縮がかかり、こちらもGigabit Ethernetでの伝送が可能である。もちろん10GbEthernetを利用すれば、さらに多くのStreamの伝送が可能となる。放送業界で標準的に使用されているSONY XDCAMの圧縮率が50Mbit/sであることを考えれば、十分にクオリティが担保された映像であることはご想像いただけるだろう。さらにNDI HXでは20Mbit/sまでの圧縮を行いワイヤレス機器などとの親和性を高め、最新の規格となるNDI HX2ではH.265圧縮を活用し、NDIと同様の使い勝手で半分の50Mbit./sでの運用を実現している。
Ethernet Cable 1本でセットできる
代表的なNDI製品であるPTZカメラ。
次の特徴は、Ethernet技術の持つ「双方向性」を非常にうまく使っているということだ。映像信号はもちろん一方向の伝送ではあるが、逆方向の伝送路をタリー信号やPTZカメラのコントロール、各機器の設定変更などに活用している。これらの制御信号は、SMPTE ST2022/ST2110では共通項目として規格化が行われていない部分だ。
NDIではこれらの制御信号も規格化され、メーカーをまたいだ共通化が進められている。わかりやすい部分としてはPTZカメラのコントロールであろう。すでにNDI対応のPTZカメラはPoE=Power over Ethernet対応の製品であれば、Ethernet Cable1本の接続で映像信号の伝送から、カメラコントロール、電源供給までが行えるということになる。従来の製品では3本、もしくはそれ以上のケーブルの接続が必要なシーンでも1本のケーブルで済んでしまうということは大きなメリットだ。天井などに設置をすることが多いPTZカメラ。固定設備としての設置工事時にもこれは大きな魅力となるだろう。NDIに対応した製品であれば、基本的にNDIとして接続されたEthernetケーブルを通じて設定変更などが行える。別途USBケーブル等を接続してPCから設定を流し込む、などといった作業から解放されることになる。
📷左がリモートコントローラーとなる。写真のBirdDog P200であれば、PoE対応なので映像信号、電源供給、コントロール信号が1本のEthernet Cableで済む。
帯域を最大限に有効活用する仕組み
NDIの先進性を物語る特徴はまだある。こちらはあまり目に見える部分ではないが、帯域保護をする機能がNDIには搭載されている。これは前述のタリー信号をカメラ側へ伝送できる機能をさらに活用している部分だ。実際にスイッチャーで選択されていない(双方向で接続は確立されているが、最終の出力としては利用されていない)信号は、データの圧縮率が高められたプロキシ伝送となる。本線として利用されていない(タリーの戻ってきていない)カメラは、自動的にプロキシ伝送に切り替わり帯域の圧縮を防ぐということになる。これは本線で使用されていたとしても、PinP=Picture in Picture の副画像などの場合でも同様だ。画面の1/4以上で利用されている場合にはフルクオリティの出力で、1/4以下であればプロキシへと自動的に切り替わる。双方向に情報を伝達できるNDIはスイッチャーが必要とする時にカメラ側へフルクオリティー画像の伝送をリクエストして切り替える、この機能を利用しているわけだ。数多くのカメラを同一のネットワーク上に接続した場合にはその帯域が不安になることも多いが、NDIであればネットワークの持つ帯域を最大限に有効活用する仕組みが組み込まれている。
信号伝送の帯域に関しての特徴はほかにもあり、MulticastとUnicastの切り替えが可能というのもNDIの特徴だ。接続が確立された機器同士でのUnicast伝送を行うというのがNDIの基本的な考え方だが、スイッチャーから配信機材やレコーダーといった複数に対して信号が送られる場合にはMulticastへと手動で切り替えが可能となっている。もちろん、全ての信号伝送をMulticastできちんと設定してしまえば、特に考えることもなく全ての機器で信号を受け取ることができるが、実際のシステム上では設定も簡易なUnicastで十分な接続がほとんどである。イントラネットを前提とするNDIのシステム規模感であれば、Unicast/Multicast両対応というのは理にかなっている。AoIPであるDanteも同じく基本はUnicastで、必要に応じてMulticastへと変更できるということからも、イントラであればこの考え方が正しいということがわかる。
また、IP機器ということで設定に専門的な知識が必要になるのではと思われるかもしれない。NDIは相互の認識にBonjour(mDNS)を使っている、これはDanteと同様である。同一のネットワーク上に存在している機器であれば自動的に見つけてきてくれるという認識性の高さは、Danteを使ったことのある方であれば体験済みだろう。もちろん、トラブルシュートのために最低限のIPの知識はもっておいたほうが良いが、ITエンジニアレベルの高いスキルを求められる訳ではない。汎用のEthernet Switchに対応機器を接続することで自動的に機器が認識されていき、一度認識すればネットワーク上に障害が生じない限りそのまま使い続けることができる。
IPビデオ伝送ならでは、クラウドベースへ
非圧縮映像信号のリアルタイム伝送を目的として策定された SMPTE ST-2110との比較も気になるポイントだろう。SMPTE ST-2110はMulticastを基本とした大規模なネットワークを前提にしており、Video PacketとAudio Packetが分離できるため、オーディオ・プロダクションとの親和性も考えられている。各メーカーから様々な機器が登場を始めているが、相互の接続性など規格対応製品のスタート時期にありがちな問題の解決中という状況だ。NDIについてはすでに製品のリリースから6年が経過し高い相互接続性を保っている。
NDIはイントラ・ネットワーク限定の単一のシステムアップを前提としているために、大規模なシステムアップのための仕組みという部分では少し物足りないものがあるかもしれない。WWW=World Wide Webを経由してNDIを伝送するというソリューションも登場を始めているが、まだまだNDIとしてはチャレンジ段階であると言える。その取り組みを見ると、2017年には200マイル離れたスタジアムからのカメラ回線をプロダクションするといった実験や、Microsoft Azure、AWSといったクラウドサーバーを介してのプロダクションの実験など、様々なチャレンジが行われたそうだ。なお、こちらの実験ではクラウドサーバーまでNDIの信号を接続し、そこからYoutube Liveへの配信を行うということを実現している。つまり、高い安定性が求められる配信PCをクラウド化し、複数のストリーミング・サービスへの同時配信を行う、といったパワフルなクラウドサーバーを活用したひとつの未来的なアイデアである。このようなクラウド・ベースのソリューションは、まさにIPビデオ伝送ならではの取り組みと言える。業界的にもこれからの活用が模索されるクラウド・サービス、SMPTE ST-2110もNDIもIP伝送方式ということでここに関しての可能性に大きな差異は感じないが、NDIが先行して様々なチャレンジを行っているというのが現状だ。
NDIをハンドリングする無償アプリ
次に、NDIの使い勝手にフォーカスをあてていくが、キーワードとなるのは最大の特徴と言ってもいいソフトウェアベースであるということ。それを端的に表している製品、NewTekが無償で配布しているNDI Toolsを紹介していこう。
NDIを活用するためのアプリケーションが詰まったこのNDI Toolsは、Windows用とMac用が用意され9種類のツールが含まれている。メインとなるツールはネットワーク内を流れるNDI信号=NDIソースのモニターを行うNDI Studio Monitor。NDI信号が流れるネットワークにPCを接続しアプリケーションを起動することで、信号のモニターがPCで可能となる。SDIやHDMIのようにそれぞれの入力を備えたモニターの準備は不要、シンプルながらもIPビデオ伝送ならではの機能を提供するソフトウェアだ。次は、VLCで再生した映像をNDI信号としてPCから出力できるようにするNDI VLC Plugin。こちらを立ち上げれば、外部のVideo PlayerをPCを置き換え可能となる。そして、PCから各種テストパターンを出力するNDI Test Patterns。高価な測定器なしにPCでテストパターンの出力を実現している。ここまでの3点だけでも、最初に調整のためのテストパターンを出力し、調整が終わったらVLCを使ってVideo再生を行いつつ、最終出力のモニタリングをNDI Srtudio Monitorで行う、といったフローがPC1台で組み上げられる。IPビデオ伝送ならではの使い勝手と言えるのではないだろうか。
利便性という面で紹介したいのがNDI Virtual Input。これはWindows用となり、PCが参加しているネットワーク内のNDIソースをWindows Video / Audioソースとして認識させることができる。つまり、NDIの入力信号をウェブカメラ等と同じように扱えるようになるということだ。なお、Mac向けにはNDI Webcam Inputというツールで同じようにWEBカメラとしてNDIソースを認識させることができる。すでにZoom / Skypeはその標準機能でNDIソースへの対応を果たしており、IPベースのシステムのPCとの親和性を物語る。そして、NDI for Adobe CCは、Premier / After Effectの出力をNDI信号としてPCから出力、イントラネット越しに別の場所でのプレビューを行ったり、プレイヤーの代替に使ったりとアイデアが広がるソフトウェアだ。他にもいくつかのソフトウェアが付属するが、ハードウェアで整えようとすればかなりのコストとなる機能が無償のソフトウェアで提供されるというのは大きな魅力と言える。
NDI Tools紹介ページ
NDI Toolsダウンロードページ
NDIの可能性を広げる製品群
続々と登場している製品群にも注目しておきたい。まずは、Medialooks社が無償で配布を行なっているSDI to NDI Converter、NDI to SDI Converter。Blackmagic Design DecklinkシリーズなどでPCに入力されたSDIの信号をNDIとして出力することができる、またその逆を行うことができるソフトウェアで、IPビデオらしくPCを映像のコンバーターとして活用できるアプリケーション。有償のソフトウェアとしてはNDI製品を多数リリースするBirdDog社よりDante NDI Bridgeが登場している。こちらはソフトウェアベースのDante to NDIのコンバーターで、最大6chのDante AudioをNDIに変換して出力する。ステレオ3ペアの信号を3つのNDI信号として出力することも、6chの一つのNDIの信号として出力することもできる使い勝手の良い製品だ。同社のラインナップにはNDI Multiveiwというアプリケーションもある。こちらは、その名の通りネットワーク上のNDI信号のMultiview出力をソフトウェア上で組み立て、自身のDisplay用だけではなくNDI信号として出力するという製品。ソースの名称、オーディオメーター、タリーの表示に対応し、複数のMuliviewをプリセットとして切り替えることが行える。
また、BirdDog社は現場で必須となるインカムの回線をNDIに乗せるというソリューションも展開、SDI / HDMI to NDIのコンバーターにインカム用のヘッドセットIN/OUTを設け、その制御のためのComms Proというアプリケーションをリリースしている。このソリューションはネットワークの持つ双方向性を活用した技術。映像信号とペアでセレクトが可能なためどの映像を撮っているカメラマンなのかが視覚的にも確認できるインカムシステムだ。もちろん、パーティラインなど高度なコミュニケーションラインの構築も可能。ハードウェアとの組み合わせでの機能とはなるが、$299で追加できる機能とは思えないほどの多機能さ。どのような信号でも流すことができるネットワークベースであることのメリットを活かした優れたソリューションと言える。
今回写真でご紹介しているのが、Rock oN渋谷でも導入している NewTek TriCaster Mini 4K、NDI自体を牽引しているとも言えるビデオスイッチャーである。NDIのメリットを前面に出した多機能さが最大のアピールポイント。先述した接続の簡便さ、また、双方向性のメリットとして挙げたPTZカメラのコントロール機能では対応機種であればIRIS、GAINなどの調整も可能となる。そして、TriCasterシリーズはソフトウェアベースとなるためVideo Playerが組み込まれている、これもビデオスイッチャーとしては画期的だ。さらには、Video Recorder機能、Web配信機能などもひとつのシステムの中に盛り込まれる。肝心のビデオスイッチャー部もこのサイズで、4M/E、12Buffer、2DDRという強力な性能を誇っているほか、TriCasterだけでクロマキー合成ができたりとDVEに関しても驚くほど多彩な機能を内包している。
📷
NDIを提唱するNewTekの代表的な製品であるTriCasterシリーズ。こちらはTriCaster Mini 4Kとなる。コンパクトな筐体がエンジン部分、4系統のNDI用の1GbEのポートが見える。TriCasterシリーズは、本体とコントロールパネルがセットになったバンドルでの購入ができる。写真のMini 4Kのバンドルは、エンジン本体、1M/Eのコンパクトなコントローラー、そしてSpeak plus IO 4K(HDMI-NDIコンバーター)が2台のバンドルセットとなる。そのセットがキャリングハンドルの付いたハードケースに収まった状態で納品される。セットアップが簡単なTriCasterシリーズ、こちらを持ち運んで使用するユーザーが多いことの裏付けであろう。
すでにInternetを越えて運用されるNDI
イントラ・ネットワークでの運用を前提としてスタートしたNDIだが、すでにInternetを越えて運用するソリューションも登場している。これから脚光を浴びる分野とも言えるが、その中からも製品をいくつか紹介したい。まずは、Medialooks社のVideo Transport。こちらは、NDIソースをインターネット越しに伝送するアプリケーションだ。PCがトランスミッターとなりNDI信号をH.265で圧縮を行い、ストリーミングサイズを落とすことで一般回線を利用した伝送を実現した。フルクオリティの伝送ではないが、汎用のインターネットを越えて世界中のどこへでも伝送できるということに大きな魅力を感じさせる。また、データサイズを減らしてはいるが、瞬間的な帯域の低下などによるコマ落ちなど、一般回線を使用しているからこその問題をはらんでいる。バッファーサイズの向上など、技術的なブレイクスルーで安定したクオリティーの担保ができるようになることが期待されるソリューションだ。
BirdDog社ではBirdDog Cloudというソリューションを展開している。こちらは実際の挙動をテストできていないが、SRT=Secure Reliable Transportという映像伝送プロトコルを使い、インターネット越しでの安定した伝送を実現している。また、こちらのソリューションはNDIをそのまま伝送するということに加え、同社Comms ProやPTZカメラのコントロールなども同時に通信が可能であるとのこと。しっかりと検証してまたご紹介させていただきたいソリューションだ。
Rock oN渋谷でも近々にNewTek TriCasterを中心としたNDIのシステムを導入を行い、製品ハンズオンはもちろんのことウェビナー配信でもNDIを活用していくことになる。セットアップも簡便なNDIの製品群。ライブ配信の現場での運用がスタートしているが、この使い勝手の良さは今後のスタジオシステムにおけるSDIを置き換えていく可能性が大いにあるのではないだろうか。大規模なシステムアップに向いたSMPTE ST-2110との棲み分けが行われ、その存在感も日増しに高くなっていくことは想像に難くない。IP伝送方式の中でも筆頭格として考えられるNDIがどのようにワークフローに浸透していくのか、この先もその動向に注目しておくべきだろう。
*ProceedMagazine2021号より転載
Media
2021/05/31
音楽配信NOW!! 〜イマーシブ時代の音楽配信サービスとは〜
レコードからCDの時代を経て、音楽の聴き方や楽しみ方は日々変化を続けている。すでにパッケージメディアの販売額を配信の売上が超えて何年も経過している。最初は1曲単位での販売からスタートした配信での音楽販売が、月額固定での聴き放題に移行、その月額固定となるサブスクリプション形式での音楽配信サービスに大きな転機が訪れている。新しい音楽のフォーマットとして注目を集めるDolby Atmos Music、SONY 360 Reality Audio。これらの配信を前提としたイマーシブフォーマットの配信サービスがサブスク配信上でスタートしている。いま、何が音楽配信サービスに起こっているかをお伝えしたい。
目次
いよいよ風向きが変わってきたハイレゾ
バイノーラルという付加価値が始まっている
イマーシブは一般的なリスナーにも届く
1.いよいよ風向きが変わってきたハイレゾ
レコードからCDへとそのメディアが変わってから、音楽の最終フォーマットは44.1kHz-16bitのデジタルデータという時代がいまだに続いている。Apple Music、Spotify等のサブスクサービスも44.1kHz-16bitのデジタルデータの圧縮である。そんな現実を振り返ると、2013年頃にハイレゾ(High Resolution Audio)という言葉が一斉を風靡した際に48kHz-24bit以上(これを含む)の音源をハイレゾとするという判断は間違っていなかったとも感じる。逆に言えば、制作の現場でデフォルトとなっている48kHz-24bitというデジタルデータは、まだまだその音源を聴くユーザーの元へ届けられていないということになる。ハイレゾ音源に関しては、付加価値のある音源として1曲単位での販売がインターネット上で行われている。DVD Audioや、SACDなどハイレゾに対応したパッケージも存在はしたが、残念ながらすでに過去のものとなってしまっている。これらの音源は残念ながら一般には広く普及せず、一部の音楽愛好家の層への浸透で終わってしまった。
もちろん、その素晴らしさは誰もが認めるところではあるが、対応した再生機器が高額であったり、そもそも音源自体もCDクオリティーよりも高価に設定されていたため、手を出しにくかったりということもあった。しかし再生機器に関してはスマホが普及価格帯の製品までハイレゾ対応になり、イヤフォンやヘッドフォンもハイレゾを十分に再生できるスペックの製品が安価になってきている。
そのような中、2019年よりハイレゾ音源、96kHz-24bitの音源をサブスクサービスで提供するという動きが活発化している。国内ではAmazon Music HD、mora qualitasが2019年にサービス開始、2020年にはDeezerがスタート、海外に目を向けるとTIDAL、Qobuzがハイレゾ音源のサブスクサービスを開始している。多くのユーザーが利用するSpotifyやApple Musicよりも高額のサブスクサービスだが、ほぼすべての楽曲をロスレスのCDクオリティーで聴くことができ、その一部はハイレゾでも楽しめる。この付加価値に対してユーザーがどこまで付いてくるのか非常に注目度が高い。個人的には「一度ロスレスの音源を聴いてしまうと圧縮音声には戻りたくない」という思いになる。ハイレゾの音源であればなおのこと、その情報量の多さ、圧縮により失われたものがどれだけ多いかを思い知ることになる。あくまでも個人的な感想だが、すでにサブスクサービスにお金を支払って音楽を楽しんでいるユーザーの多くが、さらにハイクオリティーなサブスクサービスへの移行を、たとえ高価であっても検討するのではないかと考えている。
執筆時点では日本国内でのサービスが始まっていないTIDAL。Dolby Atmos、SONY 360 Reality Audio、ハイレゾすべてが聴き放題の配信サービスとなっており、ミュージシャンのJAY-Zがオーナーのサブスク配信サービスとしても有名である。Dolby Atmosを聴くためには、HiFiプランに加入してDolby Atmos対応の端末(下部製品が一例)を利用することとなる。
2.バイノーラルという付加価値が始まっている
今の音楽の楽しみ方は、スマホで再生をして、ヘッドフォンやイヤホンで楽しむ、といった形態が大部分となっている。音楽のヘビーユーザーである若年層の部屋には、ラジカセはもちろん、スピーカーの付いた製品はすでに存在していない状況にある。高価なハイレゾ対応のオーディオコンポで楽しむのではなく、手軽にどこへでも音楽を持ち出し、好きなところで好きな曲を楽しむというのがサブスクサービスの利用者ほとんどの実態ではないだろうか。
好きな音楽を少しでも高音質に楽しみたい。そんな願いを手軽に叶えてくれるのがハイレゾのサブスクサービスである。原盤が96kHz/24bitというのは、ここ数年の作品であれば存在しているものも多い。また海外からはデジタル・リマスター版として過去の名盤が多数ハイレゾフォーマットで登場している。
さらに、音楽の楽しみ方に次の時代がやってきている。Dolby Atmos MusicとSONY 360 Reality Audio(以下、Sony 360RA)という2つのフォーマット。イマーシブ(3D)の音源である。後方や天井にスピーカーを設置して聴くのではなく、バイノーラルに変換したものをヘッドフォンで楽しむ。フォーマットを作ったメーカーもそういった楽しみ方を想定し、ターゲットにして作ったものだ。そしてこれらのフォーマットは、ハイレゾサブスクサービスのさらなる付加価値として提供が始まっている。Dolby Atmos Musicであれば、Amazon Music HD、TIDAL。Sony 360RAは、Amazon Music HD、Deezer、TIDALで楽しむことができる。すべてを楽しもうというのであれば、両者とも対応のTIDALということになる。
表1 主要音楽配信サービス概要(2021年5月現在) ※画像クリックで拡大
(※1)2021年5月追記
2021年後半にはSpotifyが「Spotify HiFi」としていくつかの地域でロスレス配信に対応することを発表しました。さらには、2021年6月にはApple Musicがロスレスとハイレゾ、そして空間オーディオ(Apple製品におけるイマーシブフォーマットの呼称)への対応を発表しています。
ただし、さすがに最新のフォーマットということで少しだけ制約がある。特にDolby Atmosに関しては再生端末がDolby Atmosに対応している必要があるが、これも徐々に対応機器が増えている状況。高価なものだけではなく、Amazon Fire HDといった廉価なタブレットにも対応製品があるのでそれほどのハードルではない。Amazon Music HDでの視聴は執筆時点ではEcho Studioでの再生に限られているのでここも注意が必要だ。また、本記事中に登場するQobuz、TIDALは日本国内でのサービスは提供前の状況となる。
こちらは国内ですでにサービス提供されているAmazon Music HD。このサブスク配信サービスもDolby Atmos、SONY 360 Reality Audio、ハイレゾすべてが聴き放題。ただし、Dolby Atmos、SONY 360 Reality Audioを楽しむことができるのはAmazon Echo Studioのみという対応状況になる。
3.イマーシブは一般的なリスナーにも届く
これらのハイレゾサブスクサービスの展開により、手軽にイマーシブ音響を楽しむ土壌はできあがる。バイノーラルで音楽を楽しむということが普通になるかもしれない。もちろんハイレゾを日々聴くことの楽しみもある。ここで注目をしたいのは、ハイレゾの魅力によりハイレゾサブスクサービスを楽しみ始めたユーザーが、イマーシブも追加のコスト無しで聴けるという点だ。これまでのイマーシブは興味はあっても設備に費用がかかる、スピーカーも多数必要、設置ができない、そういったハードルを超えた先にある存在だった。それが、いま手元にあるスマホとヘッドフォンでサブスクサービスの範囲内で楽しめるということになる。映画館ですらDolby Atmosの特別料金が設定されているが、ハイレゾサブスクサービスにはそれがない。多くのユーザーがその楽しさに気づくことにより、より一層制作も加速することとなるだろう。
制作側の話にも触れておこう。Proceed Magazineでは、以前よりDolby Atmos、SONY 360RAを記事として取り上げてきている。
Dolby Atmosは、7.1.2chのBEDトラックと最大118chのObject Audioにより制作される。Dolby Atmos Musicでは、バイノーラルでの視聴が前提となるため、レンダラーに標準で備わるバイノーラルアウトを使って作業を行うこととなる。となると、最終の仕上げまでDolby Atmos Production Suiteで行えるということになる。Dolby Atmosの制作に対応したPro Tools Ultimate、NUENDOがあれば、Production Suiteの追加でDolby Atmos Musicの制作は始めることができる。
https://pro.miroc.co.jp/headline/daps-90day-trial/#.YK3ozZP7TOQ
SONY 360RAの制作ツールは執筆時点ではベータ版しか存在しない。(※2)まさに、ベータテスターのエンジニアから多くのリクエストを吸収し正式版がその登場の瞬間を待っている状況だ。360RAはベースの技術としてはAmbisonicsが使われており、完全に全天周をカバーする広い音場での制作が可能となる。すでにパンニングのオートメーションなども実装され、DAWとの連携機能も徐々にブラッシュアップされている。正式版がリリースされれば、いち早く本誌紙面でも紹介したいところだ。
(※2)2021年5月追記
360RA制作用プラグイン、360 Reality Audio Creative Suite (通称:360RACS)がリリースされました!
価格:$299
対応フォーマット:AAX、VST
対応DAW:Avid Pro Tools、Ableton Live ※いずれも2021年5月現在
https://360ra.com/ja/
さらなる詳細は次号Proceed Magazine 2021にてご紹介予定です。
←TIDALの音質選択の画面。Normal=高圧縮、High=低圧縮、HiFi=CDクオリティー、Master=ハイレゾの4種類が、対応楽曲であれば選択できる。Wifi接続時とモバイル通信時で別のクオリティー選択ができるのもユーザーに嬉しいポイント。※画像クリックで拡大
←TIDALがDolby Atmosで配信している楽曲リストの一部。最新のヒットソングから70年代のロック、Jazzなど幅広い楽曲がDolby Atmosで提供されている。対応楽曲は、楽曲名の後ろにがDolbyロゴが付いている。※画像クリックで拡大
ハイレゾサブスクサービスは、新しいユーザーへの音楽の楽しみを提供し、そのユーザーがイマーシブ、バイノーラルというさらに新しい楽しみに出会う。CDフォーマットの誕生から40年かかって、やっとデジタル・オーディオの新しいフォーマットが一般化しようとしているように感じる。CDから一旦配信サービスが主流となり、圧縮音声が普及するという回り道をしてきたが、やっと次のステップへの道筋が見えてきたと言えるのではないだろうか。これまでにも色々な試みが行われ、それが過去のものとなっていったが、ハイレゾというすでに評価を得ているフォーマットの一般化の後押しも得て、イマーシブ、バイノーラルといった新たなサウンドがユーザーにも浸透し定着していくことを願ってやまない。
https://pro.miroc.co.jp/headline/rock-on-reference-room-dolby-atmos/#.YLTeSpP7TOQ
https://pro.miroc.co.jp/solution/dolby-atmos-proceed2020/#.YLTeFJP7TOQ
https://pro.miroc.co.jp/headline/netflix-sol-levante-dolby-atmos-pro-tools-session-file-open-source/#.YLTd9ZP7TOQ
https://pro.miroc.co.jp/headline/pro-tools-carbon-proceedmagazine/#.YLTdn5P7TOQ
https://pro.miroc.co.jp/solution/mac-mini-ht-rmu/#.YLTen5P7TOQ
Tech
2020/12/16
そのプラグイン、ワザモノにつき Sonnox Oxford SuprEsser〜Massive Pack Bundleプラグイン紹介!
Waves MercuryやiZotope Music Production Suiteをラインナップし、驚異的なクオリティと効率的なワークフローを最大94万円というかつてないValueで提供する、ROCK ON PRO ORIGINAL MASSIVE PACK BUNDLE!このバンドルに含まれるプラグインをピックアップして、その魅力を全6回にわたりお伝えいたします!
数量限定のROCK ON PRO ORIGINAL MASSIVE PACK BUNDLE、詳細はこちらからご確認ください!!
第六回目は、Sonnoxが誇るスーパープラグインとして長く愛されてきたOxford SuprEsser(サプレッサー)をご紹介します!ROCK ON PRO ORIGINAL Massive Pack Bundleには、このSonnox Oxford EQだけでなくSonnoxプラグインのほとんどが手に入るElite HD-HDXとPost HD-HDXがラインナップされています!!
過去の記事はこちら
第一回:手持ちの音源から無限のバリエーションを生み出す〜Le Sound AudioTexture
第二回:DAWの機能を「拡張」する NUGEN Producer
第三回:アナログライクなモジュールでサウンドメイク McDSP 6060 Ultimate Module Collection HD
第四回:Eventide Generate で眠れる”カオス”を解き放て!
第五回:最高に普通なEQプラグイン、それこそがクオリティーの証明 SONNOX Oxford EQ
これひとつでサウンドメイクの幅が格段に広がるワザモノなプラグイン!Oxford SuprEsser
Oxford SuprEsserはその名の通り、Sonnoxが誇るスーパー・ディエッサーです。一見、シンプルなディエッサーに見えますが、動作する帯域・帯域幅やスレッショルドを詳細にコントロールすることが可能。つまり、今でこそ珍しくなくなったダイナミックEQのような使い方を発売当初から行うことができたのです!
スレッショルド値をオートでリアルタイムに可変する機能、DAWのオートメーションへの対応、処理前・処理後の試聴だけでなく処理によって取り除かれた成分のみを出力することも可能。高品質なディエッサーとしてだけでなく、ポップノイズなど通常のディエッサーでは対応できない帯域にも対応するほか、ダイナミックEQとしてリズムトラックの音作りに使用することもできます。単なる補正プラグインの枠を超えて積極的な音作りでも大活躍!なワザモノです!!
もちろん、ディエッシングだけを行いたい時はシンプルモードでサクッといい感じに仕上げることも可能!スーパー高機能でありながら、直感的で使いやすいSonnoxらしい逸品です!
製品の詳細はこちら>>
Oxford SuprEsserの魅力がわかるムービーを紹介!
https://youtu.be/F0anrbbGM0I
関連記事:主役・ボーカルのプラグインチェインを見直す
Sonnoxプラグインを使用したボーカル用のプラグインチェインの一例。SuprEsserをふたつ使用し、ディエッシングと低域をタイトにする使い方が面白い。
https://youtu.be/vnnGA9R-IF0
関連記事:ミックスで「出すところと絞るところ」
Arthur Schwartzの「Alone Together」を演奏するストリングスカルテットを題材に、ピチカートを太くしたりバイオリンの音色に暖かみを加えたり、といった使い方を紹介。
https://youtu.be/2ygt990nkSI
関連記事:DIとアンプで作るベースサウンド
ベースサウンドメイキングの基本のキ!にOxford SurpEsserを使用するとどうなるか!?便利なプリセットも紹介しています。
https://youtu.be/IiFxterwBMk
関連記事:補正用ツールをクリエイティブなフィルターに
ドラムトラックにSuprEsserを使用。オートメーションを掛けてランダムなワウのようなエフェクトを追加しています。
このOxford SurpEsserが含まれるElite HD-HDXやPost HD-HDX、さらにはWaves MercuryやiZotope Music Production Suite 4が最大94万円のバリューで手に入るMassive Pack Bundleをぜひチェックしてください。
ROCK ON PRO OROGINAL Massive Pack Bundle
ご不明点はROCK ON PROまで、お気軽にお問い合わせください。
Tech
2020/12/10
最高に普通なEQプラグイン、それこそがクオリティーの証明 SONNOX Oxford EQ〜Massive Pack Bundleプラグイン紹介!
Waves MercuryやiZotope Music Production Suiteをラインナップし、驚異的なクオリティと効率的なワークフローを最大94万円というかつてないValueで提供する、ROCK ON PRO ORIGINAL MASSIVE PACK BUNDLE!このバンドルに含まれるプラグインをピックアップして、その魅力を全6回にわたりお伝えいたします!
数量限定のROCK ON PRO ORIGINAL MASSIVE PACK BUNDLE、詳細はこちらからご確認ください!!
第五回目は、DAW黎明期からシンプルに高いクオリティーのEQとしてエンジニアたちに愛され続けてきたSonnox Oxford EQをご紹介します!ROCK ON PRO ORIGINAL Massive Pack Bundleには、このSonnox Oxford EQだけでなくSonnoxプラグインのほとんどが手に入るElite HD-HDXとPost HD-HDXがラインナップされています!!
過去の記事はこちら
第一回:手持ちの音源から無限のバリエーションを生み出す〜Le Sound AudioTexture
第二回:DAWの機能を「拡張」する NUGEN Producer
第三回:アナログライクなモジュールでサウンドメイク McDSP 6060 Ultimate Module Collection HD
第四回:Eventide Generate で眠れる”カオス”を解き放て!
最高に普通なEQプラグイン、それこそがクオリティーの証明
なんの変哲もない5-Band EQプラグインがこのSONNOX Oxford EQ。DAW黎明期より、シンプルに高いクオリティーのEQとしてエンジニアたちに愛され続けてきた一品です。
その起源は、SONY OXF-R3という伝説的コンソールのEQアルゴリズム。SONYのPCM-3348がワールドスタンダードとして世界中で活躍をしていた、まさにSONYが音楽制作機材のデファクトスタンダードを作っていた時代にリリースされた、制作向けのデジタルコンソールです。
SONNOX Oxford EQは、その血統をまさにそのまま引き継いでいる製品となります。OXF-R3のEQの他に、SSL 4000E、SSL 4000G、NEVE、と、4つのタイプのEQカーブを持ちます。アナログ機器のニュアンスを保ったまま、デジタルらしい高いS/Nと低歪という武器をうまくバランスさせたまさに至高のEQ。
https://youtu.be/7D432FqT_9M
デジタルだけれどもデジタル臭くない、絶妙なバランス感覚を持ったOxford EQ。20年以上もそのままであることには意味があります。時代が変わっても変わらない普遍的なクオリティーを持っていることの証明でしょう。
至って普通であること、そして、そのクオリティーが普遍的なものであるからこそ、いまだに世界中で愛されているのだと思います。ぜひとも皆さんのプラグインコレクションに加えてもらいたい、最高に普通なEQです。
Fab DupontによるOxford EQの魅力がわかるレビューをチェック!!
Oxford EQの魅力を余すことなく伝えるレビューがありますので、ぜひともチェック!!ミキシングのTIPSに溢れた記事になっています!!
No4,5はEQに関してではないですが、Sonnoxプラグインを題材にミキシングのかなりコアなテクニックが語られていますよ!
Sonnox Fab Tips No.1:すべてのイコライザーがイコールではない
Sonnox Fab Tips No.2:ベースドラム、低域に宿る命
Sonnox Fab Tips No.3:EQとチャンネル・フェーダーは悪だくみをしている?
Sonnox Fab Tips No.4:レコーディング界における差別化の証拠?:すべての周波数は平等であるか
Sonnox Fab Tips No.5:衝動を”SuprEss”して、より生産的な日々を
そもそものオーディオ・クオリティが高く、カーブ特性やかかり具合などの使い勝手がよいからこそ、目新しい機能を追加する必要がない。まさに最高に普通、いや、最高だからこそ普通なままのプラグインOxford EQ。
このOxford EQが含まれるElite HD-HDXやPost HD-HDX、さらにはWaves MercuryやiZotope Music Production Suite 4が最大94万円のバリューで手に入るMassive Pack Bundleをぜひチェック!
ROCK ON PRO OROGINAL Massive Pack Bundle
ご不明点はROCK ON PROまで、お気軽にお問い合わせください。
Tech
2020/12/07
Eventide Generate で眠れる”カオス”を解き放て!〜Massive Pack Bundle 付属プラグイン紹介〜
Generateを含むプラグインパックをお得にゲット!ROCK ON PRO ORIGINAL MASSIVE PACK BUNDLEが発売中!!
Waves MercuryやiZotope Music Production Suiteをラインナップし、驚異的なクオリティと効率的なワークフローをかつてないValueで提供する、ROCK ON PRO ORIGINAL MASSIVE PACK BUNDLEが発売中!全44種の組み合わせで最大バリューはなんと94万円!!もちろん、この中には今回ご紹介するEVENTIDE Generateも含まれています!
およそ11年の時を経て登場した、Avid最新テクノロジーとHDX DSPチップを内蔵したオーディオインターフェースPro Tools | Carbon。兄貴分にあたるPro Tools | MTRX、MTRX Studioを加えた新世代Avidインターフェースラインナップをご検討中の方は要チェックのバンドルキャンペーンです!
数量限定のROCK ON PRO ORIGINAL MASSIVE PACK BUNDLE、詳細はこちらからご確認ください。
それでは、早速Generateを詳しく見ていきましょう!
開発はEVENTIDEから派生した気鋭のプラグインメーカー Newfangled Audio
Generateを開発したNewfangled Audioは、Eventideで15年間DSPを設計してきたDan Gillespieが創設した会社です。伝統的なデジタル信号処理技術と新たな機械学習の進歩を組み合わせることで、これまで無かった、クリエイティブかつ革新的なオーディオツールを生み出しています。
サウンドを決定づける5種類のカオティックジェネレーター Double Pendulum、Vortex、Pulsar、Discharge、Turbine
シンセサイザーで音色を作るとき、サイン波、ノコギリ波といった大元の波形を生み出すのがオシレーター部分ですが、それに該当するのがこのChaotic Generatorになります。Double Pendulum、Vortex、Pulsar、Discharge、Turbineという5種類が存在し、発音するとそれぞれの名前からイメージされるようなアルゴリズムで背景のグラフィックがぐねぐねと変化します。とにかく他人と違う、一風かわった音色を作りたい!という方にオススメです。
Double Pendulum(=二重振り子)
Vortex(=渦巻き)
Pulsar(=パルサー)
Discharge(=放電、解放)
Turbine(=タービン)
3種類のウェーブフォルダー Buchla 259、ANIMATED、FRACTAL
Generateのカオスジェネレーターは、選択したWavefolder(Buchla 259 Wavefolder、ANIMATED、またはFRACTAL)を経由し、それぞれにユニークな倍音が追加されます。その後、Don BuchlaのアイデアにインスパイアされたLow Pass Gateが続きます。これらのモジュールをお好きなようにパッチすることで、変化に富んだ個性溢れるモジュレーションがかかり、想像を超えるほどの多種多様な響きを作り出すことができます。使い方がイマイチよく分からない…という方もご安心を!著名なアーティストが手がけたものも含まれる、即戦力となる650以上のプリセット音色も保存されています。じっくりといろんな音色を聞き比べながら、曲の展開を練るのもまた、こうしたソフトシンセの一興ではないでしょうか。
ANIMATED
Tech
2020/12/04
34種類ものアナログライクなモジュールで自在にサウンドメイク McDSP / 6060 Ultimate Module Collection HD〜Massive Pack Bundleプラグイン紹介!
Waves MercuryやiZotope Music Production Suiteをラインナップし、驚異的なクオリティと効率的なワークフローを最大94万円というかつてないValueで提供する、ROCK ON PRO ORIGINAL MASSIVE PACK BUNDLE!このバンドルに含まれるプラグインをピックアップして、その魅力を全6回にわたりお伝えいたします!
数量限定のROCK ON PRO ORIGINAL MASSIVE PACK BUNDLE、詳細はこちらからご確認ください!!
第三回目はアナログライクなサウンドキャラクターを持ったプラグインで一時代を築いたMcDSPから、最新のモジュールコレクション型プラグインである6060 Ultimate Module Collection HDをご紹介します!
過去の記事はこちら
第一回:手持ちの音源から無限のバリエーションを生み出す〜Le Sound AudioTexture
第二回:DAWの機能を「拡張」する NUGEN Producer
究極のアナログ(ライクな)プラグイン!6060 Ultimate Module Collection HD
アナログライクなサウンドキャラクターを持ったプラグインで一時代を築いたMcDSP。Filter Bank / Compresser Bankが非常に有名な同社ですが、モジュールタイプのプラグインとして6000シリーズを展開しています。
これまでに6030 Ultimate Compressorや6050 Ultimate Channel Stripとして、一つのプラグインの中で自由に使用できるモジュールタイプのEQ/Compを多数リリースしてきましたが、その集大成として6060 Ultimate Module Collection HDはリリースされました。
VPR / 500シリーズラックと同じように、好きなモジュールを並べて自分の好みのチャンネル・ストリップを作り上げることの出来るサウンドメイクが楽しくなるプラグイン。34種類ものモジュールが用意され、レジェンドとも言えるアナログ・アウトボードを強く意識したEQ/Compがラインナップされます。操作出来るつまみも最低限で直感的にサウンドにキャラクターを加えることが出来ます。
いくつかのモジュールは、McDSPの公式チャンネル上で紹介されていますので、ぜひともその魅力に触れてみてください!!
https://www.youtube.com/watch?v=th47b8f0byg
BOB
低域の響きをさらに暴れさせることに最適化してデザインされたのが、Bass Optimized Biasモジュール、BOBです。指定したローエンドの帯域を24 dB以上もブーストし、かつ指定した帯域以下の信号は減衰されるため、狙ったローエンドを的確に強調することができます。Squashコントロールにより、ブーストするローエンド周波数付近の帯域に、指定したリカバリー・レートでコンプレッションをかけることも可能です。さらに2つのバイアス・モードで、より柔軟なトーンを加えられます。
https://www.youtube.com/watch?v=KVVSdg8mXMQ
MOO-D
S671のアナログ・サチュレーションはトーンがちょっと合わないな、と感じたら、Moo-Dのクリーミーな真空管オーバードライブの質感がおあつらえかもしれません。個別のトラックはもちろん、ミックス・バスでその個性を発揮するモジュールです。
https://www.youtube.com/watch?v=Va3WGwMORi8
British-E
1998年にMcDSPから最初にリリースされたプラグインFilterBankは、Neveシリーズのイコライザー、特に1069、1073、および1081の基本的な特性を、独自のPeak、Slope、およびDipコントロールとともに再現しました。British Eは、FilterBankで培われたテクノロジーを用いてNeveイコライザーを統合したモジュールです。古典的なハイパス・フィルタ、ロー・シェルフ、パラメトリック、ハイ・シェルフの組み合わせにより、およそあらゆるミキシングの局面で活躍するEQモジュールとなるでしょう。
https://www.youtube.com/watch?v=fJjsy-jH9Xc
FRG-446
McDSPのエンジニアスタッフによって「The Frog」と名付けられたFRG446モジュールは、適度にアグレッシブなコンプ設計が施されており、オーディオ入力に対してすばやく反応します。他のいくつかの6060コンプモジュールでも採用された、フィードバック/フィードフォワード・コンプモード、取扱い厳重注意のネガティブ・コンプレッションも搭載。
https://www.youtube.com/watch?v=qJUYN5zf2Qw
S-671
ザラリとした手触りをトラックに与えたいなら、S671サチュレーション・モジュールによる仕上げを施すのが良いでしょう。Toneコントールによって、S671は用途に見合う様々な”エッジ感”をもたらしてくれるはずです。
https://www.youtube.com/watch?v=DA13ezzXsEg
D-359
D359モジュールは、6060 Ultimate Module Collectionプラグインの中でも指折りの、攻撃的なコンプレッサーです。ダイナミックレンジ・コントロールのレスポンスの上限を判別しやすくするため、LEDスタイルのGRメーターが用いられています。ネガティブ、フィードバック/フィードフォワードといったコンプレッションも利用可能。どちらも過激かつ危険です、ご注意を!
他にもまだまだ魅力的なモジュールが入ったUltimate=究極のコレクションの何恥じないプラグイン。McDSPらしく、アナログライクなサウンドキャラクターにも好感が持てますね!!本国McDSPの公式チャンネルでは使いこなしのためのTipsなどが多数公開されています。こちらもぜひともチェックを!!
全モジュールの紹介、製品詳細はこちら>>
さらに、6060 Ultimate Module Collection HDに加えiZotope Music Production Suite 4、Sonnox / Elite HD-HDX、Celemony / Melodyne 5 Studioなどの制作に必須の業界標準プラグインが¥270,000以上のバリューで手に入るMassive Pack Bundleの詳細はこちらから!ご不明点はお気軽にお問い合わせください!!
Tech
2020/12/03
DAWの機能を「拡張」する NUGEN Producer〜Massive Pack Bundleプラグイン紹介!
Waves MercuryやiZotope Music Production Suiteをラインナップし、驚異的なクオリティと効率的なワークフローを最大94万円というかつてないValueで提供する、ROCK ON PRO ORIGINAL MASSIVE PACK BUNDLE!このバンドルに含まれるプラグインをピックアップして、その魅力を全6回にわたりお伝えいたします!
数量限定のROCK ON PRO ORIGINAL MASSIVE PACK BUNDLE、詳細はこちらからご確認ください!!
第二回目はラウドネス計測の分野で業界標準となったNugen AudioからNUGEN Producerを紹介します!DAWに実機のミキサーのようなルーティング機能を追加するSigMod、1本化されたトラックのパンを帯域ごとに変更できるStereo Placer、そして定評のある解析技術を使用したメータリングアプリケーションVisualizerなど、制作効率を劇的にアップすることが可能なユーティリティプラグインのパッケージです。
DAWの機能を「拡張」する!NUGEN Producer
こんな機能がほしかった!と言いたくなるような機能を備えた8つのプラグインがパッケージされているNUGEN Producer。ひとつひとつを取っても秀逸なプロダクトですが、これらを一度に手に入れることでオーディオポストプロダクションの可能性は大きく広がります。それぞれのプラグインがどのような機能をDAWに追加してくれるのか、ざっと紹介してみましょう。
https://www.youtube.com/watch?v=LYO1YjYkA3o
SigModは特定のDAWに欠けている機能や、DAW上で実現するにはあまりにも複雑な設定が必要になる機能を簡単に実現します。信号をM/Sやモノに変換したり、帯域ごとに分岐させたり、ステレオトラックのLRを個別にSolo/Muteできるようにしたり、VST3プラグインをインサートできるようにしたり…。アナログ機器をパッチングするような感覚で、DAWのルーティングをコントロールすることが可能になります。
https://www.youtube.com/watch?v=NklZyl6ymeY
MasterCheckは様々なプラットフォーム用にエンコードされた後のサウンドをチェックすることができます。ショートターム/インテグレイテッド・ラウドネスメーター、トゥルーピーク・メーター/リミッターを備えるほか、放送用・YouTube・Spotify・Tidalなどの配信プラットフォームが規定するラウドネス基準やコーデックのプリセットを持ち、DAWからファイルを書き出すことなくマスターのサウンドを試聴することが可能です。
https://www.youtube.com/watch?v=tloWqQpf8TE
トゥルーピークリミッターであるISL 2はユニークなチャンネルリンク機能を備え、マルチチャンネル時のリミッティングによるチャンネル間の不自然な歪みを抑制することが可能です。信号を先読みしてリミッティングしますが、ルックアヘッドとリリースのタイムは任意に設定することが可能。そのほか、詳細な設定を施したり、プロフェッショナルな制作に求められる便利な機能がふんだんに盛り込まれています。
https://www.youtube.com/watch?v=d_E68Hf7AgY
SEQ-SはNugen Audioらしい高精度のリニアフェイズEQ。7.1chまでのソースに対応するほか、別のトラックのオーディオ成分を分析し質感をマッチさせるEQカーブを自動で提案する、GUIに直接EQカーブを書き込む、3つのEQカーブを個別に調整する、EQカーブを反転させる、ひとつのEQカーブから別のカーブに滑らかに移行するなど、制作効率を劇的にアップするユニークな機能を備えています。
https://www.youtube.com/watch?v=GV243_FGrI8
Monofilterは、実はラウドネスメーター開発以前のNugen Audioのヒット製品でした。低域成分をモノにすることに特化したプロダクトで、煩雑な手順が必要になる作業をひとつのプラグインウィンドウで完結させることが可能です。モノからステレオに段階的に戻したり、単純なモノではなく多少のステレオ幅を残したりといった機能も備えるため、サウンド全体に影響する低域の追い込みが簡単に行えます。
https://www.youtube.com/watch?v=dQPk4OIqwqg
Stereoizer、Steroplacerはミックスのステレオイメージをコントロールするプラグインです。Stereoizerはモノからステレオまでミックスの広がり感を変更することが可能。StereoplacerはEQのようなGUIで帯域ごとにパンニングをコントロールすることが可能です。ステムやミックスしか手元にない状況で、ステレオイメージを変更したい時などには大活躍すること間違いなし!です。
Visualizerはオールインワンのメータリングプラグインです。ピーク/RMS、FFT、スペクトログラム、ベクター・スコープ、位相相関メーターなど、およそ考えられるメータリングをほとんどすべて網羅し、それらをひとつのプラグイン画面で見ることが可能です。2系統の入力信号を比較したり差分を見たりすることも可能で、高精度であることはもちろん、非常に便利で柔軟な信号解析のソリューションです。
不可能じゃないけど、もっと簡単に実現できたら…そんな機能を手軽に追加し、クオリティの追い込みを可能にするNUGEN Producerの詳細はこちらでご覧いただけます。
これだけでも作業効率がかなりアップするであろうこのNUGEN Producerだけでなく、さらに複数のプラグインが一挙に手に入るMassive Pack Bundleの詳細はこちらから!ご不明点はお気軽にお問い合わせください!!
Tech
2020/11/30
手持ちの音源から無限のバリエーションを生み出す!Le Sound AudioTexture〜Massive Pack Bundleプラグイン紹介
Waves MercuryやiZotope Music Production Suiteをラインナップし、驚異的なクオリティと効率的なワークフローを最大94万円というかつてないValueで提供する、ROCK ON PRO ORIGINAL MASSIVE PACK BUNDLE!このバンドルに含まれるプラグインをピックアップして、その魅力を全6回にわたりお伝えいたします!
数量限定のROCK ON PRO ORIGINAL MASSIVE PACK BUNDLE、詳細はこちらからご確認ください!!
第一回目は環境音・効果音をシンセサイズするという新しいアプローチのソフトシンセサイザーを多数ラインナップするLe Soundから、新しい手法でサウンドを生み出すプラグイン、Audio Textureを紹介します!
手持ちのファイルから無限のバリエーション!Le Sound AudioTexture
このAudio Textureは、手元にあるWAV fileをランダムに再生することで既存のバックグラウンドノイズを無限にループさせたり、非常に細かく切り刻むことで全く違ったサウンドを生み出したりと、様々なことが行える製品。再生速度の可変、ピッチシフト、クロスフェード具合の調整など、ランダムにループさせる音源はかなり細かい微調整が可能となっています。効果音だけではなく、音楽でもピークを検知してサウンドをスライスすることで意外性のあるフレーズを生み出したりと、様々な活用方法が考えられます。なかなか文字でお伝えするのが難しいプラグインですので、ぜひとも動画を確認してその魅力に触れていただければと思います。
https://www.youtube.com/watch?v=pv1ozaJ3K2o
製品全体のレビュー
再生範囲やスライスの単位をコントロールすることで、元の音源とは違ったテイストの波音のループを作成する様子がわかると思います。
https://www.youtube.com/watch?v=ruhAgzawTlg
雨音の無限ループ
手持ちの音源がシーンの長さに足りない!なんていう時には手軽にループが作成できるAudioTextureが活躍します。本製品はプラグインシンセサイザーなので、ビデオを再生しながらAudioTextureからのアウトをDAWにRecしてしまえばシーンの長さにぴったりの音源の出来上がりです。
https://www.youtube.com/watch?v=SaiG4P17fBU
音楽での活用例
独自エンジンでトランジェントを正確に検知するAudioTextureは音楽にも対応可能。コード進行が煩雑だとちょっとぎこちなくなりますが、ビートだけのトラックを使用すれば新たなブレイクビーツの手法になるかも!?
サウンドデザインから楽曲制作まで、アイデア次第で使い方も無限に広がるAudioTexture。AudioTextureのより詳細な情報はこちらから。Le Sound全ラインナップはこちらから、ぜひご確認ください!
今回紹介したAudioTextureも含まれるMassive Pack Bundleの詳細はこちらから!ご不明点はお気軽にお問い合わせください!!
Tech
2020/11/24
【アーカイブ公開中】緊急開催!!アビットーーーク!〜本日発表のPro Tools|Carbonをどこよりも早く深掘り!〜
本日未明、Avidから新製品Pro Tools | Carbonが発表されました!Avid純正としては10年ぶりとなる待望の新I/Oです。non-UltimateのPro ToolsにHDXのアドバンテージを追加するという驚きの新機能、8個のオンボードマイクプリと4系統のヘッドフォンモニターなど、多数の機能・テクノロジーを備えています。
ROCK ON PROではこの新I/Oのより詳細な情報をいち早くお届けするため、早速今夜18:00よりYouTube Liveを使用してWEBセミナーを開催!おなじみのバウンス清水、RED先生がAvidダニエル氏とともにPro Tools | Carbonの魅力を深掘りします!!
え!?Pro Tools | Carbonってなに!?という方はこちらをチェック!!>>
緊急開催!!Avidダニエル&バウンス清水&RED先生のアビットーーーク 〜本日発表のAVID新製品CARBONをどこよりも早く深掘り!〜
日時:2020年11月13日(金) 18:00スタート
場所:Rock oN Company YouTubeチャンネルよりYouTube Liveにて開催
https://www.youtube.com/watch?v=0GdevvzOiBY&feature=youtu.be
Pro Tools | Ultimate+HDXカードとの違いはあるのか!?Pro Tools上での操作はどうなる!?気になるオーディオクオリティは!?エポックメイキングな新プロダクトのリアルな情報をお見逃しなく!
Pro Tools | Carbonについてのお問い合わせ、システム構築のご相談、その他ご質問等は記事末尾のcontactボタンより専用フォームにてお気軽にお問い合わせください。
Pro Tools | Carbonの概要、価格情報などはこちらからご確認ください>>
Tech
2020/09/28
Netflix :オリジナル作品「Sol Levante」のDolby Atmos Pro Toolsセッション・ファイルを無償公開!
https://youtu.be/Ecr_02W2Csw
Pro Tools | HDX, S6などを使用してDolby Atmosミックスされた4K HDR/Atmosアニメ作品「Sol Levante」のオーディオ・プロダクション・ストーリーがAvidブログに掲載されました。2020年4月に公開されたこの作品の特徴は、その制作過程や、Pro Toolsセッション・ファイル等の素材も全てオープン・ソースとしてプロダクションに公開していることです。
既にNetflixパートナーとなられているスタジオ様では、ダウンロードして再生なさっているところも多いと思いますが、こういった制作環境やワークフローを、より広く告知したいというAvidからの要望に、Netflixが賛同する形でブログ公開となったようです。
>>Netflix :オリジナル作品「Sol Levante」のDolby Atmos Pro Toolsセッション・ファイルを無償公開!(Avidブログ日本語版)
Dolby Atmosミックスにご関心をお寄せのお客様は、上記リンクより、ぜひご一読されることをおすすめいたします。
ブログ中程にリンクされているムービーでは、文中では触れられていない、ウィル・ファイルズ氏によるS6でのミックスの模様をご覧いただける他、コメントも日本語でご覧いただけます。
Pro Tools セッションファイルを含むオープンソース・コンテンツは、ブログ中程のテキストにリンクされているNetflixのページからダウンロードできるようになっています。
Sound That Moves – イマーシブ・オーディオ・プロダクション統合ワークフローの解説
また、このブログ公開に合わせて、Pro Tools | HDXを初めとするAvidのDolby Atmosミックスに有効な各種製品並びに技術情報をまとめたランディングページも作成されています。Dolby Atmos制作ツールのハウツー的な内容も含まれておりますので、Pro ToolsにおけるDolby Atmosワークフローの概要が掴めるのではないでしょうか。
Dolby Atmos 認定ディーラーであるROCK ON PROなら、システム設計からキッティングまで、Pro Tools | HDXシステムでのDolby Atmos制作ワークフローを完全サポート!下記contactバナーよりお気軽にお問い合わせくださいませ。
Dolby Atmos RMU ブランドページ
Tech
2020/08/05
失敗しないオーディオ編集!映像編集でのノイズリダクション
MAワークで必須のオーディオプラグインたちを、映像編集でどうやって使いこなすかを解説する本シリーズ。第二弾はノイズリダクション・ツールとして、音声編集では欠かせない存在となったiZotope RX7を中心にお届けします!
前回の記事では、3つのオーディオプラグインの話をしました。
音のバランスをとったり、ノイズを消したりと、聞きやすい音にするためには、いずれもかかせないプラグインではありますが、ビデオの編集ソフトに付属しているわりに、簡単に適応できるプリセットがあるわけでもなく、日本語解説もない得体の知れないボタンばかりで、ぶっちゃけていうと、かなりむずい。。。
そこで!ビデオ編集者にも簡単に扱えるプラグインを弊社のRed先生に紹介してもらい、その使い方を教えてもらおうと思います。
ROCK ON PRO Product Specialist 丹治
"RED先生" こと、ROCK ON PRO Product Specialist 赤尾
見えない敵を可視化する!必殺のツール 〜izotope RX7〜
丹治(以後"丹"):Red先生、お願いします!
まず、根本的な質問ですが、音を調整する上で大事なことはなんですか?
Red先生(以後"赤"):聞きやすい音質にすることと、適切なボリュームに整えることです。
それには、まず音声と一緒に収録された環境音などを減らすことが大事ですね。
丹:そういった環境音を減らすのが得意なプラグインといえば、iZotopeのRX7でしょうか?
オーディオのリペアツールとしては有名ですね。De-BreathやDe-Humなど、その名前の通り分かりやすいノイズを消去するには、確かに簡単だとは思います。
しかし、今回収録された音声ファイルには、電車音や目覚まし時計の音などがあって、どの帯域にアプローチすればいいのかもわからないような場合は、見えない敵を探すようなものです。
赤:RX7には、見えない敵が見える、万能のツールがあります。
Spectral De-noise というプラグインで、AI機能を使って、不快な環境音、すなわちノイズを分析して除去してくれます。では、実際にこのプラグインを使って、ノイズを除去してみます。
RX7はスタンドアロンソフトのRX7 Audio Editorを使うことで、「見えない敵が見える」ようになります。もちろんMedia Composerと連動させることができます。
詳しくは下記を参照ください。
How to use RX Connect in Avid Media Composer(iZotope 英語サポートページ)
Media Composerで取り込んだクリップのオーディオ部分をRX Audio Editorで可視化すると、こんなかたちで表示されます。
オレンジ色のより明るい部分は音量が大きいことを示します。そして、画面中央に特にくねくねとしたより明るいオレンジ色の縞々が見えると思いますが、これが人の声です。一方、その両脇のうっすらとオレンジ色がかっている部分は、環境音、いわゆるノイズですね。この、声が入っていないノイズ部分を選択して、Spectral De-noiseにノイズ成分を学習させます。
学習させたノイズのプロファイルを、今度は全体に反映させてRenderすると、人の声の部分が残り、背景はぐっと暗くなりましたね。暗ければ暗いほど無音状態に近づきます。
[audio wav="https://pro.miroc.co.jp/wp-content/uploads/2020/07/Noise.wav"][/audio]
[audio wav="https://pro.miroc.co.jp/wp-content/uploads/2020/07/No-Noise.wav"][/audio]
たった1回の作業でここまで簡単にノイズを消すことができました。
他にも、目覚まし時計の音はこのように見えます。
画面の上の方に、何本か横に伸びる線があるのがお分かりいただけますでしょうか?この横線が、目覚まし時計の音なんです。このように、まさに「見えない敵が見える」状態になります。
見えてしまえば、こちらのもんです。あとはカーソルでこの残念な線を囲んで、Spectral Repairを使用して徐々に消していきます。これは、先ほどのDe-noiseとは異なり、周囲の音を参照して修復するツールなんですが、簡単に言うと、消しゴムで消して、周りと馴染むようにぼかす・・・と言った感じでしょうか?
実際に目覚まし時計の音を頑張って消してみました。が、これは限界ありましたね。。。これ以上消そうとすると、声の音質が変わってしまいます・・・。このように、時には完全に消せない音もあります(笑)。少なくとも、目覚まし時計の音が入ってしまったら、撮り直したほうが、早いので、撮り直して欲しいですね。
定番Wavesプラグインもオススメ! 〜Waves Restoration Bundle〜
丹:なるほど、目覚まし時計とセミは強敵ということですね。その他、Red先生オススメのノイズ除去もプラグインがあったら、教えて下さい。
赤:iZotopeのユーザーが圧倒的に多いですが、Waves のWNSやX-Noise、Z-NoiseなどがバンドルされたRestoration Bundleのユーザーも多いですよね。そもそもRXが発売されたのは2007年で、それ以前はRestoration Bundleの1択といっても過言ではなかったくらいです。
もちろん、このプラグインも使いやすく、「Suggest」のボタンを押すと最適なEQカーブを解析してくれます。
Wavesのプラグインは直感的に操作できたり、作業が少なくていいので、「とりあえず全体像を掴みたい」といった場合にはとても重宝します。
丹:映像のプラグインの場合、視覚的な変化は画面を見ればその効果がすぐに分かりますが、音の場合何か変化しているのかよく分からない。そこがオーディオプラグインを使いにくいものにしていたと思います。しかし、RX7のように視覚的に捉えることができるようになると、音の知識がなくても、ある程度自動でなんとかしてくれるということがわかりました。
いかがでしたでしょうか?RX7などを使用してオーディオを視覚的に把握することで、ノイズリダクションという「見えない敵」との闘いによる負担を減らし、映像の編集に集中できそうでしょうか!?
音声制作に関する些細なことから、製品購入、システム構築まで、オーディオに関する疑問・ご相談はROCK ON PROまでお気軽にお問い合わせください!
Tech
2020/08/03
Soundwhaleでリモートレコーディングを行う方法 〜How to use Soundwhale Vol.3 スタンドアローン接続編 〜
非圧縮ステレオ録音可能な遠隔収録ソフト、Soundwhaleの使い方をご紹介していきます。前記事 オーディオプレビュー編に引き続き、今回のテーマは「リモートレコーディング」の方法についてです。
想定されるのは、例えば次のような状況。
・ミュージシャンの自宅スタジオでの演奏を、エンジニアのDTM環境にリモートで録音したいとき
・離れた地点に住んでいる人とコライト(Co-write、共同制作)を行っていて、スピーディに楽曲を制作したいとき
・MA業務で、「ワンショットのセリフだけ」「差し替え用のワンワードだけ」など、ちょっとした追加の音声収録が必要になったとき
※もし録音機能が必須ではなく、とりあえず非圧縮2chの音源を相手にストリーミングできればOK、という人は、前回記事:Soundwhaleでオーディオプレビューを行う方法〜How to use Soundwhale Vol.2〜をご覧ください。
録音を行うためにはLevel.2以上のサブスクリプションが必要
セッションを始める際の設定は基本的には前回記事の2.セッションの準備とほぼ同じです。ただし、今回は録音を行うので、最低限録音したい側のアカウントがLevel.2以上である必要があります。
※バックアップ録音が可能になるという意味で、両者Level.2以上での接続を強くオススメします。特に、回線状況によってはインターネット越しの音質が部分的に劣化してしまうことも考えられます。そのため、常時ローカルに録音しておくことはマストと言えるでしょう。
◎パターン1.AB両方ともSoundwhale単体で接続
◎パターン2.AがSoundwhale+DAW 、BはSoundwhaleのみ
パターン1、パターン2 →最低限、録音する側がLevel.2以上(両者Level.2推奨)
◎パターン3.両方ともSW+DAW →AB共にLv2以上必須
図1:Soundwhale単体同士の接続
図2:どちらか片方がDAWと併用
図3:両者ともDAWと併用
※画像クリックで拡大
一番シンプルな収録パターン ー 録りたい音だけを相手に送る SWからSWへの録音
まずは最も簡易な接続パターン、録音したい音源→A地点のSoundwhale→インターネット→B地点のSoundwhaleという経路での録音です。
バッキングトラック(オケ)もなく、シンプルに一つの音源のみを相手に伝送しつつ、録音したいという場合はこの方法になります。ここでは仮に、自分が演奏者としてA地点にいて、B地点にいる相手に楽器の音をストリーミングするという状況を想定します。
1.送りたいチャンネルを選ぶ
最初に、Sendパネル下、"Audio to Send"のプルダウンメニューから、相手に送出したいチャンネルをすべて選択します。この時、"System:Capture○○"として見えているのは、タブメニューSoundwhle>>Preferences>>Input Deviceで選択しているオーディオインターフェースの入力チャンネルです。この入力ポートの表示名は"Edit I/O Viewing Options"から、好きな名称を設定することができます。名称変更後はApplyとCmmand+Sで保存をお忘れなく。
2.楽器から実際に音を出してSendのメーターが振れることを確認
楽器から音を出して、Sendのメーターが振れることを確認します。スピーカーのマークを押すと、モニターする出力を選択できます。
3.オーディオストリームで相手を呼び出し接続開始
接続が開始されると、上部のパネルにお互いの回線状況が表示されるようになります。まずは相手側に音声が送られているかチェックしましょう。この時、どちらかの回線状況、もしくはCPUの使用状況が接続を行うのに適した状態でないと赤く警告表示されるので、必要に応じてバッファーサイズを大きくするなどの対処を行います。
4.※重要 RECアームを立てる
Soundwhale内に録音を行う方法は至って簡単で、まず音を録りたいパネルの"R"ボタンを押して録音可能にし、次にトランスポートパネル上のRECボタンを押して録音待機状態にします。この状態で再生すると録音がスタートします。ちなみにLevel.1のライセンスだと、このRECボタンがグレーアウトしていて押せないようになっています。
A地点、オーディオ送出側は"Send"パネルのRボタンを、B地点、受信側は"Recieve"パネルのRボタンを押しましょう。
ちなみに"R"の右となりのボタンはそれぞれ、M=ミュート、S=ソロ、○=モノラル、○○=ステレオを意味しています。モノラルとステレオはクリックするたびに切り替わるので、必要に応じて選んでください。
※もし、Level.2以上のライセンスを購入しているのに、RECボタンがグレーアウトしているという場合は、Soundwhale本国サイトにサインインした後、Subscriptionsのページから、ライセンスが正しくアクティベートされているか、プランの状態をご確認ください。
5.Playボタンを押して録音開始〜テイク管理
あとはPlayボタンを押してREC開始するだけです。録音されたテイクはタイムラインに表示され、画面右側のテイクリストに時系列順に並びます。これをクリックすると、Soundwhaleのタイムライン上にテイクが読み込まれます。右クリックで相手にファイルを共有したり、任意の場所にエクスポートしたりすることができます。この後DAWなどの別ソフトで編集する場合は、そのプロジェクトフォルダに直接書き出してしまうと便利です。
録音されたオーディオファイルはSoundwhaleのセッションフォルダを右クリックして"パッケージの内容を表示"をクリックすると…
"Takes"フォルダの中に保存されています。
相手側とタイムラインを同期させる 〜ネットワークシンク(Network Sync)の設定〜
さて、無事にコネクションが確立されたら、是非ともネットワークシンク機能を使ってみましょう。これは、Soundwhale画面上のタイムラインの再生位置を、接続相手とネットワーク越しに同期できるという画期的な機能です。録音したテイクを確認する際、いちいち「○分○秒のところが〜」と指示して再生位置を指定しなくても、自分側のシークバーを動かすだけで、相手側のシークバーも同じ位置に追随してくれるという非常に便利な機能。当然ながら、相手側のRECボタンの操作や、Play/Stopもできるので、エンジニア側が操作してあげれば、プレイヤーを演奏に集中させることができますね。
1.Syncボタンを右クリック→Networkを選択 まず両者とも、トランスポートパネル上の"Sync"ボタンを右クリックし、"Network"にチェックを入れてください。これは接続相手とタイムラインを同期させるための機能です。もう一つの"Local"はDAWとタイムラインをシンクさせる時の機能です。ネットワークシンクはローカルシンクの機能も自動的に含みます。
2.シンクファイルをダウンロードしてタイムラインに読み込む 次に、タイムラインを操作する側のタイムラインにシンクファイル(Sync File)を置いてください。これは、相手と正確なタイムラインの同期を可能にするために必要なもので、Soundwhale本国サイトから、適宜必要なサンプルレート、長さのものをダウンロードして使ってください。
3.シンクファイルを相手にSENDする シンクファイルを置いたら、それを相手側に送出するために、"Audio to send"のプルダウンメニューより、Snd1→"Soundwhale:player1"とSnd2→"Soundwhale:player2"にそれぞれチェックを入れてください。操作する側のシークバーの動きに連動し、相手側のシークバーが連動して動きます。
4.リモートRECを設定 RECを右クリックするとRECボタンの"latch"、"remote"の設定ができます。
"latch"にチェックを入れると、RECが常に有効になるので、録音の度に再びRECボタンをオンにする必要がありません。"remote"にチェックを入れると、相手側のRECボタンをon/offできるようになります。録音ミス防止のためにも、お互いともremoteにチェックを入れておきましょう
と、ここまでで思ったより長めになってしまったので、DAWを使ったワークフローについては次の記事でご紹介したいと思います!
お問い合わせは、下記"Contact"より、お気軽にROCK ON PROまでご連絡ください。
How to use soundwhale 関連記事はこちらから!
SoundwhaleとDAWとの同期&別PCで立ち上げる際のセットアップ 〜How to use Soundwhale Vol.1〜
https://pro.miroc.co.jp/headline/how-to-use-soundwhale-0/
Soundwhaleでオーディオプレビューを行う方法〜How to use Soundwhale Vol.2〜
https://pro.miroc.co.jp/headline/how-to-use-soundwhale2/
V1.6からの新機能は下記ページでもご紹介しています。
https://pro.miroc.co.jp/headline/soundwhale-v1-6-update/
ライセンス登録方法など、Soundwhale国内取り扱い情報の詳細は弊社輸入事業部のページでご確認ください。
https://www.minet.jp/brand/soundwhale/soundwhale/
その他、オーディオ・ビデオ関連のリモートワークフローに関する情報は下記ページにまとめられています。是非とも併せてチェックしてみてください!
https://pro.miroc.co.jp/headline/remote-workflow-online-production-cloud-solution/
Tech
2020/07/10
Soundwhaleでオーディオプレビューを行う方法〜How to use Soundwhale Vol.2〜
前記事に引き続き、Soundwhaleの実際の使い方をご紹介していきます。今回のテーマは「オーディオプレビュー」の方法についてです。
ここでいうオーディオプレビューとは、例えば次のような状況を想定しています。
・音楽のミキシングエンジニアが、作業後もしくは作業中に、プロデューサーやその他クライアントに試聴してもらいたいとき
・離れた地点に住んでいる人とコライト(Co-write、共同制作)を行っていて、リアルタイムにアイディアの共有を図りたいとき
・作編曲家やサウンドデザイナーが、クライアントの意見をリアルタイムに反映させつつ音作りを行いたいとき
もちろんクラウドベースでも作業はできますが、ここでSoundwhaleを使う利点はオンラインかつリアルタイムで、しかも非圧縮の音の試聴が可能という点。細かい変更点が生じた場合に、クラウドでの作業時のように、「その都度2MIXを書き出し、クラウドにアップロードし直して…」という手間が必要なくなるので、大幅な作業時間短縮に繋がります。また他社の似たような製品と比較して、ある程度コンピュータの知識を必要とする、ポート解放の手間が要らない、プラグインではなくスタンドアローンで使用できる、といったメリットもあります。Soundwhale単体では細かな波形編集などはできませんが、とりあえず手元の音声を良い音でリアルタイムに相手に届けたいという方には最適なソリューションだと言えます。
必要なLevelは?
Soundwhaleは使える機能数に応じて3段階のレベルが用意されていて、Level.1は無料、Level.2、Level.3は有料となっています。
※価格詳細につきましては弊社輸入事業部のサイトをご参照ください。
仮に、自分側をA、接続する相手側をBと置いた場合、考えられるLevelの組み合わせは次の3パターン。今回紹介するオーディオプレビューは全てのLevelに共通する機能なので、どのLevelでもOKです。
◎パターン1.AB両方ともSoundwhale単体で接続 →AB共にLv1以上
◎パターン2.AがSoundwhale+DAW →Level2以上、BはSoundwhaleのみ→Lv1以上
◎パターン3.両方ともSW+DAW →AB共にLv2以上
図1:AもBも自宅にいる
図2:Aはスタジオ、Bは自宅にいる
図3:AもBもスタジオ環境にいる
※画像クリックで拡大
オーディオプレビューを行う手順
それでは接続までの流れを見ていきましょう。アカウント作成とインストールについてはこちらのページをご確認ください。
1.Mac OSのシステム環境設定-サウンドの入出力装置を確認
まず、Mac OSのシステム環境設定を開き、サウンドの入出力装置をハードウェア内臓の入出力デバイスに設定します。ここで選択されたデバイスでビデオチャット時の音声のやりとりを行います。もし、ビデオチャット時の相手の音声やSoundehale以外のソフトからの出力をオーディオインターフェースから出力したい場合、Mac本体のステレオミニジャックからオーディオインターフェースの空きチャンネルに直接ケーブルで接続を行ってください。
・システム環境設定内の"サウンド"をクリック
・オーディオ入力を"内臓マイク"に設定
・オーディオ出力を"内臓スピーカー"に設定
※画像クリックで拡大
◎RockoNおすすめステレオミニケーブル!! (RockoN Line eStoreへリンクします。)
・オーディオインターフェースの入力がRCAピンプラグの場合はこちら!
https://store.miroc.co.jp/product/56530
・1/4″TSジャックの場合はこちら!
https://store.miroc.co.jp/product/56530
2.セッションの準備 〜Soundwhaleを起動&サインインし、セッションの新規作成、タブメニュー"Preferences"から初期設定を行う〜
今回は例として以下のセッティングで接続を行います。
サンプルレート:44.1kHz
バッファーサイズ:256
入出力デバイス:任意のオーディオインターフェース、今回はSteinberg UR242を使用。
入出力デバイスチャンネル数:4、インターフェースの物理入出力数に依存し、使用するch最大数を設定できます。
仮想入出力:それぞれ2
フレームレート:24FPS
※入出力デバイス以外全てデフォルト設定のままです。
図4 今回のセッティング例
ここで、オーディオファイルを再生する側の人はSoundwhale内に再生したいファイルを読み込んでおきましょう。
図5 Out1はオーディオのLチャンネル、Out2はRチャンネルを表しています。
図6 Sendパネルのメーターが上がっていることを確認!
3.お互いに相手の連絡先を追加する(初回接続時のみ)
画面中央左、コンタクトの検索画面で相手の登録名を検索し、"Invite"(招待)をクリック。招待を送られた側が"Accept"(承認)をクリックすると、お互いの連絡先がアカウントに登録されます。初回のみ登録すれば、あとはいつでも画面左のコンタクト一覧からアクセスできます。
図7 招待する側:相手の名前を検索して"Invite"をクリック ※画像クリックで拡大
図8 招待される側:相手の名前を検索して"Accept"をクリック ※画像クリックで拡大
4.オーディオストリームを開始する
図9 ↑のようにチェックを入れて"Connect"で接続開始
相手がオンライン状態であればアイコンの右下に小さい丸が表示されています。この時、鎖のマークをクリックするとパネルが開くので、"Audio Stream"、"Video Chat"にチェックをいれて"Connect"をクリック。相手が呼び出しに応じればオーディオストリームでの接続が開始します。
もし、接続相手とのコミュニケーションに別のソフトやアプリを使う場合、ビデオチャットはオフのままでも大丈夫です。
接続を終了する際は開始時同様に鎖のマークをクリックすると"Disconnect"ボタンが現れるので、それをクリックするか、画面上部の鎖マークでをクリックで終了します。
その他 接続中に気をつけること
◎CPU、メモリ、インターネットの接続状況に注意!
・画面上部にCPUとRAM(メモリ)の使用状況が常に表示されています。これらがSoundwhaleで接続を行うのに適した状態でないと、赤く点灯します。同様にネットワークの接続状況が悪い場合はその右側の回線状況のインジケーターが赤く点灯します。
図10 Soundwhaleでの接続に適した状態
図11 CPUやメモリの使用状況が圧迫してくると赤色で警告表示
上記のような表示になっていると、音が途切れたり接続が不安定になったりする場合があります。そのときは、タブメニューの"Preferences"で"Compression"をオンにしたり、バッファーサイズを大きくしたりするなど、安定するセッティングを探ってみてください。
◎内臓の入出力が無い機種に注意!
・Mac Pro (late 2013)のように内臓マイクがない機種をお使いの場合、Soundwhale自体がうまく起動しないことがあります。その際は、ヘッドホンジャックにマイク付きのイヤホンやヘッドセットなどを接続した状態でシステムのサウンド設定を行い、Soundwhaleを立ち上げてください。
次の記事ではSoundwhaleを使ったリモートレコーディングワークフロー、Soundwhaleスタンドアローン同士での録音の方法をご紹介したいと思います!
お問い合わせは、下記"Contact"より、お気軽にROCK ON PROまでご連絡ください。
◎Proceed Magazine 最新号発売中! サンプルの試し読みはこちらのページから! https://pro.miroc.co.jp/headline/proceed-magazine-2020/
How to use soundwhale 関連記事はこちらから!
SoundwhaleとDAWとの同期&別PCで立ち上げる際のセットアップ 〜How to use Soundwhale Vol.1〜
https://pro.miroc.co.jp/headline/how-to-use-soundwhale-0/
Soundwhaleでリモートレコーディングを行う方法 〜How to use Soundwhale Vol.3 スタンドアローン接続編 〜
https://pro.miroc.co.jp/headline/how-to-use-soundwhale3-1/
V1.6からの新機能は下記ページでもご紹介しています。
https://pro.miroc.co.jp/headline/soundwhale-v1-6-update/
Soundwhale国内取り扱い情報はこちらをご覧ください。
https://www.minet.jp/brand/soundwhale/soundwhale/
その他、オーディオ・ビデオ関連のリモートワークフローに関する情報は下記ページにまとめられています。是非とも併せてチェックしてみてください!
https://pro.miroc.co.jp/headline/remote-workflow-online-production-cloud-solution/
Tech
2020/06/29
SoundwhaleとDAWとの同期&別PCで立ち上げる際のセットアップ 〜How to use Soundwhale Vol.1〜
いよいよ国内正式リリースがスタートしたリモートレコーディングツール、Soundwhale(サウンドホエール)。その用途の多彩さ故に、自分がどのLevelを使うべきなのか、迷ってしまうという方も多いかと思います。そこで、今回よりSoundwhaleの利用が想定される次のようなシチュエーションに沿って、その使い方・セッティング方法をご紹介していきたいと思います。
Pro ToolsとSoundwhaleのタイムライン同期方法(ローカルシンク)
これまでSoundewhaleとDAWとのタイムラインの同期は、Soundwhaleマスターのみ可能でしたが V1.6よりMTC/MMCの送受信が可能なDAWであれば相互にコントロールできるようになりました。
※サブスクリプション Level 2以上が必要
1.Soundewhaleを起動し、"Preference"よりサンプルレートやバッファサイズなどを設定>Applyをクリック。画面上部のSyncボタンをクリックして有効にする。
その後、Pro Toolsを起動し、Soundwhaleで設定したものと同じサンプルレートやフレームレートを設定する。
2.Pro ToolsのプレイバックエンジンをSoundehaleに設定。
3.Pro Tools 設定>MIDI>MIDI入力デバイス>"Soundwhale Sync Output"と"Soundwhale Receive"を有効にする。
4.ペリフェラル>同期>MTC受信ポートを"Soundwhale Sync Output"または"すべて"に、MTC送信ポートを"Soundwhale Sync Input"に設定。
5.ペリフェラル>マシンコントロール>マスター>有効化にチェックを入れ、"Soundwhale Sync Input"を選択、IDを"126"に、プリロールはデフォルトの90フレームに設定。
6.設定>初期設定>同期>マシンコントロール>下記2項目を有効にする。
7.トランスポートパネルのMTC生成ボタンを有効にする。
ここまで終わったら、両方のタイムライン上でドラッグしたり、再生/停止をしたりして動作を確認してみてください。もし、動かない場合、もう一度見落としている手順がないかご確認ください。
1.Hardwire(ハードウェア接続)でのセットアップについて
SoundwhaleはPC内部にバーチャルのバスを作り、同一PC内のDAWなど他のアプリケーションとオーディオの受け渡しを行うことができます。しかし、その際必ずDAWのプレイバックエンジンはSoundwhaleが選択されている必要があり、それはDAWの既存のI/O設定をそっくりそのまま使うことができなくなる、ということを意味しています。確かに、1台のPC内で完結するという点ではシンプルですが、かえってルーティングが分かりづらくなったり、当然ながらマシンへの処理負荷も上がったりしてしまいます。
これを回避するため弊社では、別PCでSoundwhaleを立ち上げ、信号の送受信・リモート先とのコミュケーション専用機にするという方法をお勧めしています。
これにより、スタジオ内のコミュニケーションシステムを含めた既存のルーティングをそのまま活かすことができます。
ハードウェア接続を行なった場合、”リモート地点と接続するための入出力チャンネル"が物理的に追加されたと考えることができ、実運用のイメージも湧きやすくなるのではないでしょうか?また、PCの処理負荷も分散され、システム自体の安定運用にも繋がります。
※このハードウェア接続を行う際は、先述したローカルシンクの設定に加え、ネットワークMIDIの設定が必要になります。詳細は後日別記事にてご紹介いたします。
参考:MacのAudio MIDI設定を使ってネットワーク上でMIDI情報を共有する
https://support.apple.com/ja-jp/guide/audio-midi-setup/ams1012/3.5/mac/10.15
お問い合わせは、下記"Contact"より、お気軽にROCK ON PROまでご連絡ください。
◎Proceed Magazine 最新号発売中! サンプルの試し読みはこちらのページから! https://pro.miroc.co.jp/headline/proceed-magazine-2020/
V1.6からの新機能は下記ページでもご紹介しています。
https://pro.miroc.co.jp/headline/soundwhale-v1-6-update/
Soundwhale国内取り扱い情報はこちらをご覧ください。
https://www.minet.jp/brand/soundwhale/soundwhale/
その他、オーディオ・ビデオ関連のリモートワークフローに関する情報は下記ページにまとめられています。是非とも併せてチェックしてみてください!
https://pro.miroc.co.jp/headline/remote-workflow-online-production-cloud-solution/
Tech
2020/06/22
MA必須のオーディオプラグイン!映像編集でどう使いこなす?〜Media Composerでオーディオプラグインを使ってみよう〜
緊急事態宣言解除後もリモートワーク化の流れが進みつつありますが、みなさんはどうお過ごしでしょうか?
運動不足解消のため、YouTubeでの動画を見ながら体を動かしたり、料理の腕を磨くためミシュランシェフのレシピを試したり、以前よりもネット配信を活用している人は増えているのではないでしょうか。また、リモートワークによる1日1回は必ずあるビデオ会議、学校の配信授業など、今やスマホやノートPCからの音を聞かない日はありません。
そしてそんなwebで公開されている動画コンテンツから流れてくる音声や環境音など、雑音とも取れる音が気になったことはありませんか?
興行用の映画やドラマなどのコンテンツとは違い、webで公開されている動画コンテンツの中には、MA作業を行っておらず、音声の調節をしていないものも多くあります。今年はコロナ禍の中でNAB2020が中止となり、各メーカーから配信されている動画などを見ても、息継ぎの音やリップノイズが気になるものもあります。Live配信の録画をそのままYouTubeなどにアップしているのかもしれませんが、Live配信では気にならないノイズも、収録されたものだと気になってしまうことはよくあります。
Live配信時の音声については、弊社ホームページにある「学校・塾・Webinar向け!マイクロフォン徹底解説」を参考にしていただけると、配信時の音声をより明瞭にすることができるようになりますので、あわせてご覧ください。
https://pro.miroc.co.jp/headline/microphone-for-web-seminar-lecture/
では、Live配信ではない、収録した音声に関してはどうしたらいでしょうか?もちろん、収録時の音声にノイズをのせないこと、というのは言うまでもありませんし、MA作業ができて、音声を整えることができれば何の問題もありません。
しかし、そこまでの予算がなかったり、即時性を求めるためだったりと、映像編集時にほどほどに音声のノイズカットが施されていればOK、ということも多いのではないかと思います。
そこで、映像編集システムでのノイズカットや音声の調整は、どうやったら簡単にできるのか?これから数回に分けて、ご紹介していきたいと思います。
今回のテーマは、どんな映像編集ソフトにも標準的に装備されている三大プラグイン、「コンプレッサー、EQ、リバーブ」についてです。
Pro ToolsのようなDAWにも同様に標準で装備されているということからも、これらのプラグインを使えば、MA作業をしなくても簡単な音声の調整を行うことができそうな気がします。しかし、映像編集をする人にとっては、「音声のプラグインはハードルが高すぎて、使ったことがない!」という人も、実際多いのではないでしょうか。
それでは、三大プラグインとその使用方法を簡単に説明していきたいと思います。
大きな音を"圧縮"する コンプレッサー(Compresser)
コンプレッサーは、名前の通り、音を"Compress"=圧縮させる機能を持っています。
人の話す声の大きさやトーンは千差万別ですし、人はいつも同じ声の大きさで話をすることができるわけでもありません。テレビや動画を見ているときに、聞きやすいと感じる音はボリュームを変えなくても、一定の音量で耳に入ることではないでしょうか。一定のしきい値を超えた音量を潰してあげることで、そのような音量のばらつきを整えられるというのが、コンプレッサーを使う利点です。
デジタルでの制作では、0dBを超えることはできませんので、一瞬だけでもレベルが最大になるところに合わせる以外にないため、その他の音がとても小さくなってしまうことがあります。
そういった音声を聞くために、小さい音にボリュームを合わせてしまうと、最大レベルのところで音がうるさくなってしまい、反対に、大きな音のところにボリュームを合わせてしまうと、今度は小さな音が聞こえにくくなってしまいます。
これを解決するには、最大音が0dBを超えないように大きい音の箇所を圧縮しつつ、ゲインを調整して全体のレベルを底上げしてみましょう。
↑ Media Composerに標準でインストールされるもので、Pro Toolsのものと同じインターフェース。コンプレッサーは波形の大きなところを圧縮し、小さい波形はそのままにするというのが基本。
今回の調整は、ATTACKは変更せず、極端には編集していませんが、THRESH(Threshold/閾値)を設定し、その音量を超える信号を、RATIOの圧縮率をつかって圧縮し、Gainで全体を底上げし、音圧をあげている。
タイムライン:上がオリジナルの音源、下がComp後の波形。
ピークの音が抑えられ、全体的に波形の黒い部分が多くなり、音の密度が増したことが分かる。
< しまもんのナレーションでコンプレッサーによる効果を聞き比べ >
・オリジナルの音声
[audio wav="https://pro.miroc.co.jp/wp-content/uploads/2020/06/Original-for-Comp.wav"][/audio]
・コンプレッサーをかけた音声
[audio wav="https://pro.miroc.co.jp/wp-content/uploads/2020/06/MC_Comp.wav"][/audio]
特定の周波数をカットorブーストする イコライザー(EQ)
これは特定の周波数をカットしたり、ブーストしたりすることができるエフェクトです。プラグインがなかった時代のノンリニア編集機においても、EQツールを使用して、特定の周波数をカットして耳障りな音を目立たなくしています。プラグインが苦手という人もこのエフェクターだけは、すぐに馴染めそうです。
↑ 冒頭から聞こえる電車音を目立たせなくするため、異なる周波数帯域のフィルターを重ねてカット。
Media Composer 2020.4で搭載されたStrip Silenceで、無音部分も取り除いた。
< しまもんのナレーションでEQ調整時の音声を聞き比べ >
・オリジナルの音声
[audio wav="https://pro.miroc.co.jp/wp-content/uploads/2020/06/Original-for-EQ.wav"][/audio]
・EQをかけた音声
[audio wav="https://pro.miroc.co.jp/wp-content/uploads/2020/06/MC_EQ.wav"][/audio]
空間的な響きを追加する リバーブ(Reverb)
リバーブは残響のエフェクトで、音に奥行き感などを出す時に使用します。普段、自然に耳にする音には必ず反響、残響があります。無機質な音は帰って不自然になってしまうので、あえて薄く残響があったほうが自然になります。また、今日のようなリモートワークで、収録された環境などが違う音などをインサートする時に、使ってみてはどうでしょうか。
メニューに、ホールや教会といった空間の大きさをシミュレートするプリセットがあるので、そのプリセットとサイズを選択し、インプットとミックスを調整。
< しまもんのナレーションでリバーブの違いを聞き比べ >
・Room Reverbをかけた音声
[audio wav="https://pro.miroc.co.jp/wp-content/uploads/2020/06/Rev_Room_MC.wav"][/audio]
・Short Reverbをかけた音声
[audio wav="https://pro.miroc.co.jp/wp-content/uploads/2020/06/Rev_Short_MC.wav"][/audio]
いかだったでしょうか?映像は目に見えますが、音は見えないという点で、また違った編集の難しさがあると思います。次回はそういった難点をテクノロジーの力でアシスト!?話題沸騰中のあのメーカーのプラグインをご紹介したいと思います。
お問い合わせは、ページ下部「Contact」バナーより、お気軽にROCK ON PROまでご連絡ください。
Tech
2020/05/28
リモートプロダクション・おすすめ機材! 〜自宅でナレ録り:周辺機材編〜
前回の記事では、自宅でナレーション録音をするのに最適なマイクとリフレクションフィルターを紹介しました。今回は、オーディオ・インターフェースとマイクプリについて考えてみたいと思います。両方ともサウンド・クオリティーに直結する非常に重要な製品です。また、様々な製品がある中からどれを選べば良いのか、非常に迷う部分でもあります。まずはそれぞれ、どのようなことを行っている製品なのか、クオリティーの差はどの様な部分から生じるのかについて考えてみたいと思います。
何が音質を決定づける? 〜オーディオインターフェースが担う役割〜
オーディオ・インターフェースは、アナログ信号をデジタルに変換する、まさに音質にとって肝となる製品。そのクオリティーは価格に比例する部分も大きくあります。一部では、「結局、使用しているAD/DAのチップなんて殆どの製品が一緒だから、音質に差は出ない」などという意見も見受けられますが、バランス接続されるマイクの信号を受けるとなると話は違うと思います。AD/DAのチップは、バランス伝送されてきたアナログ信号をそのまま受け取ることは出来ません。そこには、アンバランスに信号を変換するという回路が必ず存在します。このバランス受けの回路に関しては長くなるので今回は割愛しますが、信号を変換する回路=クオリティーに関係するということは、直感的にご理解いただけるのではないでしょうか。
そしてアナログ回路として、オーディオ・クオリティーに直結するアンプ回路=増幅回路。アンプというのは信号を増幅します。マイクプリ部分の目盛りを見ていただければ+20dBなどという表記があると思います。普通にナレーションを録る場合には、+40dB付近に設定されることが多いかと思います。+40dBがどれくらい信号を増幅しているかというと、元の信号に対して1000倍にしているということになります。この部分を詳しく知りたい方は、dBの計算方法を調べてみてください。もとの信号の波形を正しく保ったまま、1000倍にするということは非常に難しいことです。デジタルなら計算により、答えが正確に導かれますが、アナログの場合には時間軸に沿って、リニアに変化する信号を正確に増幅する必要があるからです。入力信号に対してレスポンス良く反応し、正確に倍数をかけて増幅を行う。その様な回路設計が必要となります。
オーディオインターフェース+マイクプリでワンランク上の音質を実現
「オーディオ・インターフェースにもマイクプリがついているから、別に用意する必要はない」と、考える方も多いかと思いますが、アウトボードのマイクプリのクオリティーは、オーディオ・インターフェースに搭載されているものとは、違う次元のクオリティーを持ちます。もちろん、数十万円クラスのオーディオ・インターフェースの中には、マイクプリ部分にこだわった製品もありますが、本記事で取り上げたいと考えている10万円までのクラスの製品においては、残念ながら単体のマイクプリのクオリティーを超えていると言える製品はありません。
マイクプリの動力源となる電源。当然ながら、安定して一定の電圧を供給出来ていないと正確な増幅は行なえません。しかも直流電源を必要とします。家庭のコンセントから供給されている交流電源を直流に変換する必要があるのですが、この電源回路のクオリティーから違うと言えます。安価なバスパワーで動作するような製品は、膨大電子部品で構成されているPCからの電源供給。これがクリーンな低電圧の電源とは考えられませんよね。ACアダプターからの電源も中身は、ノイズが多いと言われるスイッチング電源であることがほとんど。アンプの動力源が悪ければ、増幅後の結果も同様であると言えます。そう考えると、本記事のターゲットとしてのオーディオ・インターフェースとマイクプリの選択基準が見えてくると思います。
ポイントは“チャンネル単価”で選ぶこと ~おすすめオーディオインターフェース~
オーディオインターフェースは、AD/DAの前後に存在するアナログ回路のクオリティーが重要。そう考えると、チャンネル単価の高い製品の方がこだわった回路を採用していると考えられます。マイクプリはオーディオ・インターフェースに搭載されていたとしても、単体の製品を加えたほうがクオリティーが上がる、ということになります。
そういったことを念頭にピックアップした製品がこちら。
Apogee Duet
RME Babyface Pro FS
Audient iD22
Apogee Duet
RME Babyface Pro FS
Audient id22
ここでピックアップした3製品はオーディオの入出力だけに特化し、プラスアルファの機能をあまり持っていません。
つまり、製造コストは主にオーディオ入出力部分にかけられている=1チャンネルあたりの単価が高い、という基準でセレクトしています。
ちょっとした考え方のフィルターでピックアップした製品ですが、どれも自信を持っておすすめ出来る製品です。ナレーション収録というターゲットを考えれば、入力は最低限でOKだと思います。ここでピックアップした製品はすべて2chの入力を持ちますので必要機能は十分。それぞれ音質に定評のあるメーカーの製品ですので、安心感もあると思います。
特筆すべき点として、RMEのBabyfaceシリーズはSteadyClockと呼ばれる、クロックを超高精度で安定させる独自の技術を搭載しています。これは、AD/DA変換のクオリティーに直結するポイントです。時間軸をスライスすることでアナログ信号をデジタルデータに変換します。このときの正確性を保っているのがクロックの役割。ここにRME Babyfaceはアドバンテージがあるといえるでしょう。
>>RockoN eStoreでCheck!
・Apogee Duet https://store.miroc.co.jp/product/34253
・RME Babyface Pro FS https://store.miroc.co.jp/product/63146
・Audient iD22 https://store.miroc.co.jp/product/32700
シンプルに質が良いものを ~おすすめマイクプリ~
技術者がいないという前提で、マイクプリを選択するとなるとチャンネルストリップタイプ(EQやコンプが一緒になったもの)ではなく、シンプルにマイクプリのみの製品がおすすめです。コストのすべてが、マイクプリ部分に投入されているため、同じ価格であればクオリティーが高いということが期待できます。
Focusrite ISA ONE
GRACE DESIGN m101
Rupert Neve Design Portico 5017
Focusrite ISA ONE
GRACE design m101
Rupert Neve Designs Portico 5017
今回は、マイクプリだけを搭載した製品群の中から、低価格ながらスタジオクオリティーを持っていると考えられる製品をピックアップしました。どれも、商用スタジオで運用実績のある製品ラインナップの末っ子で、十分なクオリティーを持ちます。
>>RockoN eStoreでCheck!
・Focusrite ISA ONE https://store.miroc.co.jp/product/55621
・GRACE design m101 https://store.miroc.co.jp/product/22588
・Rupert Neve Designs Portico 5017https://store.miroc.co.jp/product/15166
まとめ
自宅でのナレーション収録に特化して検討をすると、基本的に入力はマイク1本。つまり、その1chをどれだけハイクオリティーで収録できるか、という話になります。音声信号の入出力はオーディオインターフェースに、信号の増幅はマイクプリに、と役割分担させることでそのクオリティーは格段に高まります。コストのバランスを考えると、上記の製品の組み合わせが、オススメとなります。スタジオ同等とはいきませんが、かなりのクオリティーを持ったサウンドを収録することが出来ます。前回の記事でオススメしたマイクやリフレクションフィルターとあわせて、自宅収録の機材の参考にしていただければ幸いです。
ご購入前のご相談は、下記コンタクトフォームよりお気軽にお問合せください!
Tech
2020/05/25
リモート・ワークフロー関連記事まとめページ
2020年春に全世界を襲ったCOVID-19は、様々な形でその後の世界に大きな影響を与えそうです。我が国でも、緊急事態宣言と外出自粛要請により実質的に多くの行動制限が課され、普段とは異なった環境での制作を余儀なくされた方も多いのではないかと思われます。
また、この騒動がひと段落してから後も、リスク回避や運用の柔軟性の観点から、自宅での制作 / リモート環境でのレコーディングセッション / オンライン講義などを実施するためのソリューションに対する要望が高まっています。
このページでは、ROCK ON PRO が制作した、このようなソリューションに関する記事をまとめて紹介いたします。ひとくちに「リモート」と言っても、ユーザー様ごとに求めるソリューションは様々。なるべく幅広く紹介しておりますので、きっとみなさまのお役に立てる記事があることと考えています。
ご不明点・ご要望などは、下記"contact"バナーよりROCK ON PROまでお気軽にお問い合わせください。
リモート・プロダクション、オンライン・ワークフロー向けソリューション紹介
https://pro.miroc.co.jp/headline/remote-workflow-webinar/
https://pro.miroc.co.jp/headline/remote-production-solution-soundwhale/
https://pro.miroc.co.jp/headline/remote-session-production-solution-2/
https://pro.miroc.co.jp/headline/pro-tools-cloud-collaboration/
https://pro.miroc.co.jp/headline/video-slave-4-pro-tips-for-pro-tools/
https://pro.miroc.co.jp/headline/rp-equipment-1/
https://pro.miroc.co.jp/headline/rp-equipments-2/
配信、オンライン講義向けソリューション
https://pro.miroc.co.jp/headline/grade-up-your-online-broadcasting-1/
https://pro.miroc.co.jp/headline/microphone-for-web-seminar-lecture/
Tech
2020/05/19
Pro Tools Cloud Collaborationを使ってみよう!
リモートワークが増えてきた中で、在宅でもできることを探そう!ということで、Pro Tools Cloud Collaborationをご紹介します。
クラウドコラボレーション機能とは、Avidアカウントに紐づけられたクラウドスペース上でプロジェクトを共有し、互いに編集できる機能です。
Pro Tools 12.5より登場したシステムで、ローカルHDDに保存したセッションからも簡単にアップロードができるので、編集途中でも他のユーザーにレコーディングを追加してもらったり、ミックスを引き継ぐことができます。(多少の制限はありますが、Pro Toolsの全シリーズで使用できます。)
今まで日本では登場シーンが少なかった機能ですが、「Stay Home」が呼びかけられる今だからこそ使ってみるチャンスです!
コラボレーションの開始:共有する側のユーザーの操作
任意のセッションを開き、共有したいトラックを選択した状態で、「ファイルメニュー」 >> 「コラボレーションを開始...」を選択します。
※この時、コンピューターがインターネットへ接続されている必要があります。
画面に沿って、Avidアカウントへログインします。
すると、セッションが保存され、アップロード後に改めてプロジェクトとして開かれます。
この時展開されているファイルはアイコンがクラウドコラボレーションされたアイコンへ変化します。
そして、セッション共有の画面が表示されますので、右上のプラスボタンをクリックし、マイ連絡先のなかから共有したいユーザを選択します。
※お互いに初めてクラウドコラボレーションを使用する場合は、連絡先からユーザーのAvidアカウントのメールアドレスを入力し、招待する必要があります。招待を送られた側は、Pro Toolsを起動し、「Avid Linkメニュー」>「メッセージ」で招待を承認します。
コラボレーションの開始:共有された側のユーザーの操作
共有された側のユーザーは、Pro Toolsを開き、ダッシュボードウィンドウ右上よりAvidアカウントへサインインするか、「ファイルメニュー」>「サインイン」でAvidアカウントへログインし、「プロジェクトを開く」より共有をかけられたプロジェクトを展開します。
任意の編集を加えたところで、編集画面より「新たな変更点を全てアップロード」(上矢印)すると、クラウドへアップロードが開始されます。
元のユーザーが変更点を更新する場合は、「新たな変更点を全てダウンロード」(下矢印)してセッションを更新することが可能です。
なお、これらの作業はお互いにプロジェクトを開いたままでも編集が加えられます。コラボレーション機能のなかにもチャットツールはありますが、Zoomやビデオ通話できるアプリなどを使用しながら作業してもいいかもしれませんね。
この機会にぜひ、クラウドコラボレーションしてみませんか?
より詳しい機能・有料オプションはこちらから >>Pro Tools向けAvid Cloud Collaboration
お問い合わせは、ページ下部「Contact」バナーより、お気軽にROCK ON PROまでご連絡ください。
Tech
2020/05/18
リモート・プロダクション向けおすすめ機材! 〜自宅でナレ録り:マイク編〜
リモートでナレーションを録る。そのためには どのような機材があるといいのでしょうか?ブースが自宅にあるわけでもなく、収録用の機材もない。ゼロから揃えるとしたら?これまでにもリモート・プロダクション向けのソフトウェアをいくつか紹介してきていますが、リアルタイムにディレクションを受けながらの収録も現実感のあるソリューションが登場しています。本格的にDAWを使って録音をするのか?レコーダーでバラ取りをしてWAVファイルを共有するのか、ケースによって様々なワークフローがあるかと思いますが、どのようなパターンにせよ収録する音声のクオリティーは大切です。ROCK ON PROおすすめのソリューションをご紹介したいと思います。
ダイナミックマイクという選択肢 SENNHEISER MD421 II / NEUMANN BCM705
SENNHEISER MD421 II
もともとMD421はナレーションの収録も製品のターゲットとして設計されています。コネクターの根本にS・・・Mと5段階の切り替えがついています。”S”=Speachとなっていて、High-Passのフィルターがかかります。マイクプリにもついているHigh-Passフィルターは、不要な低周波を取り除くことでスッキリとしたサウンドを実現し、外部からのノイズの除去に有効です。ダイナミックマイクということで、高い音圧にも十分に耐えますので、例えば、自宅環境で外部からのノイズの影響を減らすためマイクに近づいて収録したり、大声を出したりしても歪む心配はありません。
NEUMANN BCM705
ダイナミックマイクは、コンデンサーマイクに対してダイナミックレンジが狭いという傾向があります。これも、エンジニアのいない環境ということを考えると自然にコンプレッションのかかったサウンドと捉えることも出来ます。あえて、コンデンサーマイクでなくダイナミックマイクを使うというのは、プロの現場でも実際に選択肢の一つとして行われていることです。ラジオ局の収録スタジオや、テレビ局のナレーションブースなどでNeumann BCM705などのダイナミックマイクを見ることが出来ます。すべての環境をスタジオ同等にすることは難しいですが、様々なベクトルからフォローすることは可能です。一つのアイディアとしてMD421をご検討してみるのはいかがでしょうか?
SENNHEISER MD421 IIのご購入はこちらから>>
NEUMANN BCM705のご購入はこちらから>>
不要な響きを抑制し音声を明瞭に収録する sE Electronics SPACE
sE Electronics SPACE
更に、クオリティーアップのために、是非ともご用意いただきたいのが、こちらのリフレクションフィルタ。アコースティックの改善の難しい自宅環境で、部屋の不必要な響きや反響をカットしてクリアな音声の収録を実現します。ちょっとかさばるし、無骨なデザインですが、効果は確実にあります。マイクの周りを反響の少ない吸音材で取り囲むことで、かなりのクオリティーアップを実現します。
弊社のオンラインストア、 "Rock oN Line eStore"でも各種取り扱っていますので、是非ともご参照ください。
sE Electronics SPACEのご購入はこちらから>>
スタジオのブースと、自宅の環境の大きな違いは、外部からのノイズ(空調音、外の車など環境音)の混入、不要な響きの有無。これらを改善するためにダイナミックマイクを使い、マイクの近傍で収録を行う。リフレクションフィルターを使用し、部屋の響き、ノイズを低減させる。まずはここからクオリティー改善にトライしてみてはいかがでしょうか?
お問い合わせは、ページ下部「Contact」バナーより、お気軽にROCK ON PROまでご連絡ください。
Tech
2020/05/08
学校・塾・Webinar向け!マイクロフォン徹底解説
教育関係の現場では、非常事態宣言により完全にストップしている授業の再開にWebサービスの活用をスタートしています。Zoom、Web Classなど様々なサービスがスタートしていますが、PCやタブレットの内蔵マイクを使っているために講師の声が聞こえにくい、という声を多く聞きます。
企業のWeb会議などもパーソナル・デバイスから行うことが多く、やはり音声が明瞭でないということでストレスを感じている方は多いと思います。そんな音声に関して、クオリティーをブラッシュアップするノウハウを製品のご紹介とともにご案内いたします。
Case 1 : PC / Tabletでの講師の声を明瞭度よく配信する
学校、塾、様々なWebinar等で問題となるのが講師の音声の明瞭度。PC/タブレット内臓のマイクでももちろん音声は拾えますが、講師から距離がある為、どうしても外部のノイズや空調音などを拾ってしまいます。こうなると、「音が遠い」「はっきりと聞こえない」など、様々な問題が生じます。
一般的に言われている双方向授業にとって、音声は非常に重要であることは言うまでもありません。板書を画面共有するとともに、言葉で解説を加えるのが授業の一般的な形態。受講者の理解を深めるための解説がはっきり聞こえるかどうかというのは、その学習効果に大きな影響を与えるポイントだと思います。
このようなケースで、使い勝手良くクオリティーを上げることが出来るのが「ピンマイク」。プロの現場でもNEWSなどで胸元にマイクを付けているのを目にするあれです。単純に声の発生源である口元に距離が近いということは、物理的に大きなアドバンテージを持ちます。本当は、ボーカルレコーディングのように顔の前に大型のマイクを持って来るのが一番ですが、それでは授業になりません。できるだけ講師の動きを妨げず、口元に近いところで集音を行うということで、「ピンマイク」は非常におすすめです。
他にも、ヘッドセットマイクという耳掛けタイプのマイクもありますが、使い慣れた方でないと顔の動きで位置がずれてしまったりしてうまく音が拾えないというケースもありますので、やはり「ピンマイク」が一般的には良いと思います。
では、ピンマイクはどこにつければよいの?ということになると思います。男性であれば、基本はワイシャツの第2ボタンの上辺り。女性であれば、洋服の胸元ということになります。あまり高い位置につけると顎に邪魔をされ少しこもった音になってしますます。そのため、鎖骨の付け根?とも言えるあたりにマイクを付けると良い結果が得られます。それでは、具体的な製品をご紹介してみましょう。
audio-technica AT9903
昨今のMic端子を備えたPC/タブレットであれば、プラグインパワー対応だと思いますが、そうでない製品でも幅広く使えるのがこちらのモデル。パワーパックを同梱し、マイク入力端子を持っている製品であればどのような製品でも活用できる手軽な製品となります。
高価な製品は、別途マイクプリアンプが必要なため、手軽さ・簡便さという観点から考えると、まずおすすめするのはこちらの製品となります。このクラスの製品であったとしても、PC/タブレット本体内蔵のものよりは単純に音源からの距離が近いという物理的なアドバンテージと、常に胸元にあるため、顔の向きに関わらずクリアな音声を捉えることが可能となります。
audio-technica AT9903の詳細はこちら>>
IK Multimadia iRig Mic Lav
タブレットなどで見られる、イヤホンとマイクが同軸になっているコネクターの場合にはこのような製品となります。
IK Multimadia iRig Mic Lavのご購入はこちら>>
話し声をクリアに捉えるとなると「ピンマイク」であることを重視して製品探しを行っていただければと思います。「ピンマイク」はラベリア・マイクロフォンとも呼ばれます。
Case 2 : もう一歩上のクオリティーと使い勝手を求める方へ
更にクオリティーと使い勝手を求めるとワイヤレスシステムとなります。ワイヤレスになることで、講師は自由に動き回ることが可能となり、マイク本体もワイヤレス送信機から電源供給を受けることが出来るので、更にクオリティーの高い製品が使えるようになります。
Line6 XD-V35L
Shure BLX14R/W85
このような製品があれば、ワイヤレスで高いクオリティーのマイクを使用しての集音が可能となります。講義、授業のクオリティーを上げるためには重要なポイント。講師は自由に動き回りながら話すことが出来るので、板書をしているときでも椅子に座っているときでも一定のクオリティーの音声を届けることが出来ます、それにより受講者もクリアではっきりとした講師の声を聞くことになります。講師、受講者双方にとってクオリティーが上がることになります。
Line6 XD-V35Lのご購入はこちら>>
Shure BLX14R/W85の詳細はこちら>>
突然の準備に追われ、まずは通信が確立すればよいということでスタートしているサービスが多いように感じます。少しの工夫で全てにおいてクオリティーの高い環境が構築できるピンマイク。ぜひとも活用いただければと思います。
Tech
2020/04/30
第2回:リモートプロダクションを実現するソリューションを紹介
外出自粛など様々な行動に制約が課される中、リモートでの制作作業の出来るソリューションに注目が集まっています。ワークスタイルに合わせて、いろいろなやり方があるとは思いますが、そんな中からいくつかのソリューションを2回に分けて紹介しています。第1回ではsoundwhaleというアプリケーションを紹介しましたが、2回目となる今回はその他のソリューションをまとめて紹介。リモートセッションに関するソリューションはにわかに注目を集めている様子で、WEB等でも数多くのアプリケーションが紹介されていますが、その中からもっとも注目度が高いものを選りすぐってご紹介致します。
第1回の記事はこちら>>
Source-Connect ~ リモートセッションの老舗的ソリューション
リモートセッションを実現するソリューションとして、もはや老舗とも言えるのがSOURCE ELEMENTS社が提供するSource-Connect。インターネットを介して、遠隔地にあるアプリケーション同士を同期し、DAWのタイムラインにダイレクトにレコーディングをすることが可能です。
映像との同期も可能なため、音楽レコーディングだけでなくMA作業にも活用することが可能となっています。オーディオの圧縮率も変更できるため、ネットワーク環境によって最適なストリーミングを行うことが出来ます。トークバック機能とテキストチャットを搭載しており、遠隔地の相手とも密にコミュニケーションを取りながら制作を行うことが可能です。
VPN対応で、アプリケーションからストリーミング先を設定することも可能など、登場初期からセキュアな通信に対する意識が高いのも魅力です。
詳細な製品情報はこちら>>
独自のAACコーデックによる低遅延/ハイクオリティな伝送
テキストによるチャット機能を搭載
遠隔地にあるDAWのトランスポートを操作可能
7.1chまでのマルチチャンネルに対応(Pro Xのみ)
匿名VPNでの接続によるセキュリティ保護 ( ※ Pro / Pro Xのみ)
スタンドアローン または プラグイン として動作
Sessionwire ~ ビデオチャット機能により円滑なコミュニケーションを可能に
こちらは逆に、2019年頃から話題になり始めた新しいプロダクト。見た目は単なるビデオチャットですが、DAWトラックの出力をストリーミングし遠隔地と双方向のやり取りが可能。アプリケーションのウィンドウにドラッグ&ドロップすることで、簡単にファイルの送受信を行うこともできます。
コミュニケーション機能はトークバックとビデオチャットのみで、テキストチャットはビルドインされていません。非圧縮のオーディオを伝送できるがビデオストリーミングやTC同期には非対応のため、どちらかというと音楽制作向けのソリューションと言えるでしょう。
詳細な製品情報はこちら(英語)>>
非圧縮のハイクオリティオーディオを伝送
ビデオチャット機能を搭載
アプリケーションウィンドウを使用してファイルを簡単に送受信
YouTubeやFacebookでの豊富なナレッジの提供、コミュニティーの形成
Audiomovers LISTENTO ~ 手軽にDAWからのオーディオ出力を共有
とにかく手軽で使いやすいもの、という方にオススメするのがこちらのLISTENTOというプラグイン!DAWのマスタートラックにインサートすることで、オーディオをインターネットに出力します。センド用のプラグインとレシーブ用のプラグインがあり、双方がDAWを持っていればDAWを通してオーディオの送受信が可能。プラグインが発行するURLにアクセスしてブラウザ経由で聴くことも可能です。
非圧縮音声の送受信が可能だが、AACを選択することも出来ます。オーディオクオリティー、レイテンシーを選択することが可能なため、インターネット環境に合わせて最適なストリーミングを実施できます。
シンプル設計ゆえに、トークバックやチャット機能などのコミュニケーションに関わる機能は備えていないため、別途チャットツールなどを併用する必要があります。また、ビデオストリーミング機能もないので、Sessionwire同様、音楽制作に特化したツールと言えるでしょう。
詳細な製品情報はこちら(英語)>>
DAWにプラグインとして挿すだけで出力をストリーミング
オーディオクオリティ、レイテンシーを調整可能
とにかくシンプルで煩雑な設定が不要
LUCI ~ 放送向けIPコーデックソリューション
こちらは上記3製品とは少し趣が変わって、どちらかというと中継・ライブなどに活躍しそうな放送向けのソリューション。Mac / PCだけでなくiOSやAndroidといったモバイル端末上でも動作し、それらをIPコーデック端末として使用できるというものです。送信用と受信用のアプリケーションがあり、送信側が収録した音声はインターネット経由でただちに受信側へと送られます。ライブ送信だけではなく、音声を端末で録音したり録音したものを編集して受信側へ送ることも可能。受信側はWIN PCのみの対応ですが、複数の端末からの信号を受信することが可能で、いわばサーバーの役割を担います。
詳細な製品情報はこちら>>
高品質・低遅延での音声送受信
端末側で送信中の音声を録音可能
あらかじめ録音された音声も送信可能
双方向コミュニケーション可能
サーバー側は1台で複数の端末とのやり取りが可能
スタジオとミュージシャンの居住地が遠く離れていることも多い欧米では、リモートセッションは以前から盛んな分野。しかし、世界的にLock down体制が敷かれる中で新たな盛り上がりを見せているようです。こうしている間にも、各社随時アップデート/ブラッシュアップには余念がないようです。気になるソリューションは、ぜひチェックしてみてください!
Tech
2020/04/27
配信環境GRADE UP大作戦!~ 初級編 ~
新型コロナウイルス蔓延に伴う政府からの外出自粛要請により、自宅待機やテレワークを余儀なくされている方も多いかと思います。
こうした終わりの見えない状況の中、
オンラインでのプレゼンの仕事が急に入ってきた
外でライブができないので自宅から生配信を行いたい
というような需要が急激に高まりを見せています。
インターネットやスマホ普及以前の時代には考えもしなかった解決策ですが、今やスマホやPCが1台あればこうした状況に対応できてしまう世の中です。
しかし・・・
いざ、手持ちの環境で始めてみたのは良いものの、録画したものを見返してみると、
自分の声が背景の雑音にかき消されて聞き取りづらい
どこからともなく謎のノイズ聞こえてくる
折角だからもっといい音で配信したい
プレゼンの画面をスムーズに切り替えたい
などと、お困りの方も多いのではないでしょうか。
そんなあなたにぴったりの機材を、用途や予算に応じてご紹介して生きたいと思います。
題して、「配信環境GRADE UP大作戦!!」
今回はその初級編ということで、こうした機材の扱いに自信が無い方でも気軽に導入できる、コスパ抜群の機材をご提案させていただきたいと思います。
iPhoneのマイクをワンタッチでプロ仕様に!SHURE MV88A-A / MV88+
iPhoneで動画を撮影した時に「画質は良いけど、音質が今ひとつ」と感じているあなたにオススメしたいのがこちらのiPhone専用マイク、SHURE MV88A-Aです。
使い方はシンプルで、Lightningのプラグと一体化した高性能マイクをiPhoneに差し込むだけ。複雑な配線は全く必要ありません。
さらに、App Storeで公開されている無料アプリ "ShurePlus™ MOTIV™ Audio / Video" を使えば、歌声やスピーチなど、用途に合わせて音質の調整を行ってくれる優れもの。
ステレオ幅を調整できるので、アコースティックギターを録音する時の音の広がりを調整することもできます。
LightningでiOS端末と直接接続
無料のiOSレコーディングアプリShurePlus™ MOTIV™
5つの録音目的に合わせたDSPプリセットモード(スピーチ、歌声、フラット、アコースティック楽器、バンド)
マイクゲイン、ステレオ幅の調整、そして高品質の24-bit /48 kHzレコーディングが可能。
Rock oN Company WEBサイトでは、実際の使用例・レポートも紹介されています!
https://www.miroc.co.jp/antenna/shure-mv88-interview/
また、Android端末にも対応したMV88+ Video Kitも登場しています!
上記MV88A-Aとマイク自体は同じですが、こちらはLigtningではなく、付属のケーブルでiOSまたはAndroid端末に接続する方式となっています。
iOS端末の場合は、Apple USB3 カメラアダプタを使うことで、マイク使用中の充電が可能になりました。
同時に、録音中の音声をヘッドホンでモニタリングでき、実際にどのような音が録音されているのか、チェックすることができます。
さらに、撮影業界ではお馴染み、Manfrotto製のミニ三脚も付属し、スマホを置く場所にも困りません。
業界最先端のManfrotto PIXIミニ三脚 、クランプ& シューマウント、USB Type-C & Lightningコネクタ用ケーブル付属
すべてのアクセサリーをスマートに収納できるネオプレン素材のロールアップ式ツールバッグ付属
リアルタイムでモニタリングが可能なヘッドホン出力ポート
繊細なステレオ音声&5種類のDSPプリセットモード
ちょっとした演出で配信を盛り上げる! TASCAM MiNiSTUDIO CREATOR US-42W
こちらはインターネット配信専用のオーディオインターフェース です。
PCとUSBケーブルで接続し、音の録音/出力はもちろん、自分がしゃべっている声にエフェクトを掛けたり、BGMや効果音をワンタッチで鳴らしたりすることができます。
ダイナミックマイクまたはコンデンサーマイクが2本入力できるようになっていますが、もし、そのような本格的なマイクを持っていなくてもマイク入力付きのイヤホンがあればOK。
外部入力用のステレオミニジャックを搭載しているので、iPodやWALKMANなどの携帯音楽プレーヤーからBGMを再生することも可能です。
最大24bit/96kHzフォーマットのハイレゾ録音に対応
パソコン接続時はバスパワー駆動に対応
4極イヤホンマイクの接続に対応
DSPによるエフェクトを搭載(イコライザー、コンプレッサー、リバーブ)
パソコンへの送出を開始するON AIRキー
公式サイトでは、その使い方が非常に丁寧に解説されているので「音響機材のことが全然分からない!」という初心者の方でも安心です。
https://teachme.jp/33789/f/roomGqf4n9mo/?page=1&sortKey=title&sortOrder=asc
映像を切り替えながらの配信に!Blackmagic Design ATEM mini
最後にご紹介するのはコンパクトな環境で映像を切り替えながら配信したい、というあなたにぴったりのHDMIスイッチャーBlackmagic Design ATEM mini です。
4系統のHDMI入力をワンタッチで簡単に切り替え、1系統のHDMIもしくはUSBから出力することができます。このUSBから出力された信号は、PCからは"Webカメラからの映像"として認識されます。
つまり、使用するサービス毎の設定の「どのカメラを使うか」という項目からこの入力を選択できるので、シンプルで分かりやすい設計となっています。
そのため、YouTube、Facebook、TwitchやZoomなどのあらゆるプラットフォームに対応しており、ゲーム実況からオンライン授業・ミーティングなど幅広い用途に対応できます。
これほどの高機能ながら4万を切ってくる価格帯には驚きです。
入力:HDMI 4 系統、アナログオーディオ入力2系統
出力:HDMI 1系統、USB(Webcam出力対応)1系統
対応フォーマット:1080p60まで
全入力にスケーラーを内蔵
アップストリームキーヤー1系統、ダウンストリームキーヤー1系統、DVE 1系統
ROCK ON PRO 森によるハンズオンレビューでは、従来のシステムとの機能面・価格面でのメリットもレポートされております。こちらも是非、併せてご覧ください!
https://www.miroc.co.jp/rock-on/cutting-edge-2020_atem-mini/
対人でのコミュニケーションで外見に気を使うのと同じように、配信環境も高品質にするのがマナー!…とまでは流石に言えませんが、やはり、高品質な音・映像での配信は、話す側にも、視聴者側にも数多くのメリットがあると思います。
ROCK ON PROでは、個人向けからビジネス用途での配信機材に関する相談もお待ちしております。
是非、お気軽にお問い合わせください 。
Tech
2020/04/24
第1回:リモートプロダクションを実現するソリューションを紹介 ~Soundwhale~
Tech
2020/04/17
Media ComposerはCPUをどう使うのか?
コロナ禍によって自由に外を動き回れない状況が続きますが、そんな中でもインターネットの世界は自由に歩き回れます。これまで関心がありながら、ついつい後回しにしてた調査や研究に時間を使っている方も多いことでしょう。私もそうしたひとりですが、Avidブログに多くの新しい情報が掲載されているのを発見しました。
特にこの記事はこれまであまり具体的に語られてこなかった、アプリケーションソフトとコンピューターハードの関係性について深く掘り下げた内容となっており、技術的な関心をお持ちの方には参考になるのではないかと思い、紹介させていただきます。みなさまのシステム導入にお役立ていただければ幸いです。
>>Avid Blog 日本語版「Media ComposerはCPUをどう使うのか?」
Tech
2020/01/31
4K/HDR対応の カラーグレーディングルーム!! 〜株式会社イクシード〜
映像作品の企画制作からポストプロダクションまでワンストップのワークフローを持つ株式会社イクシードが、新たに4K/HDR対応のカラーグレーディングルームをオープンさせた。新設されたカラーグレーディングルームには、RAW、LOGなどの幅広いフォーマット、4K60Pに対応可能なBlackmagic Design社のDaVinci Resolveを採用、同社のCintel Scannerも導入され、16mm/35mmフィルムからのスキャンニング、ノイズ除去やカラーグレーディング作業など、1つの部屋で一貫した作業を行うことができるソリューションを導入した。これまでの映像編集〜MAに加え、需要が高まってきているグレーディングの導入をご紹介したい。
◎株式会社イクシード ホームページ
そのニーズに応えるイクイップメント
左の写真
がOM FactoryのカスタムPCとMaxxserveのSAS RAID。一番右は4K素材からHDへ変換するTeranex Standards conversionが見える。
4K/8K BS放送開始、オンデマンド配信など4K UHD等のハイレゾリューション、さらにはHDR需要が高まりつつあるが、同社もその流れに沿うようにHDR映像制作へ関わることが増えてきた。これをきっかけに、2018年にカラーグレーディングルーム設置を視野に機材の選定を開始。まずは、HD/1080を主眼に4K30Pまでを視野に入れ、RAWファイルをリアルタイムで再生するようなシステムを想定していた。そのような中でDaVinci Resolveが、PCスペックやビデオカードのスペックを上げることでソフトウェアのパフォーマンスを引き出せる、という点に着目。急速に需要が増している4K60Pを再生できるマシンにカスタマイズし、今回のオープンに至っている。
そのDaVinci ResolveがインストールされるPCは、Core i9 - 9980XE Extream Edition 3.0GHz 18core (Turbo Boost MAX 4.5GHz / 18-core 36-thread) 、ビデオカードはnVidia Quadro RTX 6000、さらに64GBのメモリを搭載したカスタムPC。このCore i9の最上位のプロセッサーの登場により、同クラスのサーバー向けXEONプロセッサーと比較しても低コストでパフォーマンスを引き出すことに成功、性能的にも申し分のないシステムとなった。
最上位クラスのワークステーションを用意しなければ難しい4K 60PのRAWをCore i9でこなすことができるというのは、システム構築上でエポックメイキングな出来事ではないだろうか。DaVinci Resolveコントロールパネルには、DaVinci Resolve Mini Panelを採用。3-Ballと専用設計ならではの使いやすくレイアウトされたスイッチ類によりカラーグレーディング作業用のシステムを構築している。映像の出力用には同社のDeckLink 4K Extream 12Gが採用されている。ストレージは巨大化つ広帯域を要求するRAWデータのハンドリングを安定して行うために、SAS(Serial Attached SCSI)ベースのRAID HDDとなった。Areca ARC-1883xをSAS RAIDコントローラーにMaxxserve NS-760S 8Bay HDD Caseを採用した16TBのシステムとなっており、エンタープライズ向けのサーバーで採用実績の高い、速度に定評のあるArecaのRAIDカードによって安定した高速性を確保している。
DaVinci ResolveのコントロールパネルとなるMini Panel。
そのほかの周辺機器を見てみると、波形モニターとしてSmartView、4K素材のHD解像度プレビュー用の変換器としてTeranex Standards Conversion、オーディオモニターコントローラーとしてPreSonus Monitor Station V2、さらにHDRやBT2020など、幅広い規格を正確に表示するためのモニターにはSony社のBVM-HX310を導入している。また、民生のTVはSONY Bravia 55inchと4K HDRに対応した再生環境が整っている。
Cintel Scanner 2とDaVinciで蘇る
フィルムで保存されていたアニメーション作品などの資産をデジタルデータにしたいという要望も多く、BlackMagic Design Cintel Scanner 2も同時に導入された。フィルムならではのダイナミックレンジを活かしCintel Scanner 2でHDRスキャン。DaVinci ResolveでCintel RAWファイルからアーカイブ用やワーク用ファイルへのフォーマット変換や、デジタルシネマパッケージ制作等、あらゆるファイルフォーマットに変換することができる。
もちろん、グレーディング、ノイズの除去などDaVinci Resolveの機能をフルに活用した作業も可能である。経年劣化により色ノリが悪くなったフィルム、こういった問題への対応も、以前より定番のワークフローであったCintelとDaVinciの組み合わせで修正が行える環境となっている。Cintel Scanner 2は最大4K(35mm時)でのスキャンが可能、ここからUHD / HDRへの変換が可能なシステムになっている。HDR時には2-Passでのスキャンが行われ、明・暗2つのスキャン画像から1つのRAWを作ることで、ダイナミックレンジの広いスキャニングを実現する機能も備わっている。DaVinciのCPUパワーを発揮してUHD/HDRのリアルタイムプレビューをしながらの作業が可能なため、効率の良い作業環境であるといえるだろう。これらのワークフローの最終段としてProResへの変換用途も多いとのことで、部屋にはiMacも導入され、QTファイルへの変換にも対応できるようにしている。
カラーリストの株式会社イクシード 田嶋 雅之 氏、中村 里子 氏。
また、「クリエイティブなカラーグレーディングは、正確なカラーマネジメントの上でしかできない」との信念から、カラーリスト2名もカラーグレーディングルームの開設に合わせて外部より招聘された。新しくイクシードの一員となられた田嶋氏、中村氏はこれまでにテレシネの経験もあり、Blackmagic Desiginブランドになる前から長年のDaVinciユーザー。さらにはCintelのFilm Scannerの実務も豊富であり、まさに今回の新システムにはうってつけのノウハウを持っている。これまで同様の使い慣れたインターフェースを駆使してより早く、より正確に鮮明な色のクリエイティブワークを提供できるわけだ。
10GbEで生み出すワンストップフロー
イクシードでは、撮影、オフライン編集、オンライン編集、コンポジット・VFX、MAまで、ポストプロダクションの全行程をワンストップで完結できるように、各部屋を10GbEのネットワークで接続してデータの流れをスムーズにしている。すべての工程を自社で完結できるとうことは、同社ならではの優位性である。HDから4K、HDRと最新のフォーマットになるにしたがってデータ量は肥大化していく。これに対応するためにもいち早い10GbEの採用は、今後のワークフローの加速につながるであろう。編集室はAdobe PremiereやAvid Media Composer、DaVinci Resolve、Autodesk Flameなど、マルチなソフトウェアが用意されており、作品内容によってソフトウェアを使い分けしたりと各工程の並行作業を行うことができる環境だ。
このように、4K HDRに関してもこれまで通りのワンストップ作業が行えるようになった。カラーグレーディングが必須の工程となるHDR制作が今後も増加していくことは想像に難くない。その中で4K60P HDR制作を実践できるグレーディングルームの需要は今後も高まっていくだろう。そして、Film Scanに関しても4Kでのスキャニングはこれからも必要とされる分野であり、もちろん新撮のフィルムに対してのワークフローも提供できる。新たな分野へのチャレンジを感じられたこの更新、そのクリエイティブの幅は着実に拡がっているといえるだろう。
写真右より株式会社イクシード 田嶋氏、中村氏、代表取締役の中野真佳氏、ROCK ON PRO清水、丹治、前田洋介。
*ProceedMagazine2019-2020号より転載
Tech
2019/12/12
RIEDEL / ARTIST and MediorNet 〜Fomula 1を支える、AoIP/VoIPがもたらす革新〜
インカムの世界的なトップメーカーであるRIEDEL。ユーザーの要望に応える形で多機能、そして高い信頼性を備えた製品を多数リリースしている。その成り立ちをひも解くと、最初は無線機のレンタルから事業をスタートしているという。ここでいう無線機とはトランシーバーを想像してもらえればいいだろう。トランシーバーは近距離であれば免許が必要なく利用できるが、距離が長くなると公共の電波を利用するための免許や許可が必要となる。これらを代行しつつ機器を貸し出すというサービスはひとつの事業として各国に存在している。
RIEDELがそのユーザーのニーズに応えながら様々なサービスを展開していく中で生まれたのが、ユーザーの要望する機能を実現するために作った様々な機器。この経緯を踏まえると、機能的には明確な現場目線のビジョンにより設計され、レンタルを前提とした高頻度の使用に耐えうる高い信頼性を持った製品を開発しているといえるだろう。今回は鈴鹿サーキットで開催されたF1日本グランプリへ足を運び、シビアな現場でのRIEDELの信頼性はもとより中継制作スタイルをも一新させたその革新性に迫る。
世界のビッグイベントを支える
前述のようにRIEDELはトランシーバーのレンタル業として1987年にドイツ東部ケルンの近郊、ウッパータールという街で創業している。トランシーバーに関しては1981年よりMotorolaの代理店であり、これは現在でも続いている事業のひとつである。それと同じ年にRIEDELにとって初のオリジナルプロダクトである無線機とインカムを接続するインターフェースユニット、RiFaceが登場している。当初より放送業界向けにレンタル事業を展開していたということもあり、その流れからオーストリアの放送局のリクエストを受けてオリジナルの製品の製造をスタートしたそうだ。いま存在しない機械は自分たちで作ってしまおうという積極的な姿勢は今でも変わらず、展示会などでも常にフレッシュな展開を行なっている。
その中で大きな転機となったのが、1993年のFomula 1への機材供給だ。現在どのように進化を遂げているかはこの後に詳しくご紹介するので割愛するが、20年以上前からコミュニケーションシステムの提供を行っている実績は世界的にも認められ、WRC=World Rally ChampionshipやDTM=ドイツ・ツーリングカー選手権など大きな大会へのコミュニケーションシステムのレンタルを展開している。
さらには1994年の国際スポーツ大会での採用である。ノルディック複合団体で阿部雅司・河野孝典・荻原健司選手が金メダルを獲得、スキージャンプ団体では原田雅彦選手が失速し惜しくも銀メダルになったシーンが印象的なあの大会だ。この大会をきっかけに、様々な国際的スポーツ大会においてもインカムシステムの構築を担うようになった。大規模な世界大会を成功させるためには、スタッフのコミュニケーションツールとしてインカムが重要なのは説明するまでもないだろう。
それまでのレンタルで蓄積された無線技術、そしてインカムのノウハウが活かされた結果、現在ではFIFA World Cup、UEFA Euro、Eurovision Song Contest、残念ながら今年限りで終了してしまったRed Bull Air Raceなどビッグイベントでの採用につながっている。また、EXPO 2000ハノーバーでは、会場全体の無線のシステム設計を行うまでになっている。この時にはなんと3000ch以上の無線をハンドリングし、各パビリオンのインカムから、セキュリティー、ステージイベントまですべての管理運営を行なっている。そして映像と音声の伝送には光ファイバーが用いられているが、ここが現在のRIEDELの製品の強みであり、他社の追従を許さない部分だ。
その信号すべてがMediorNetの1本の光ファイバーで
そして、2009年にRIEDELのフラッグシッププロダクトであるMediorNetが誕生する。このMediorNetへ通じるストーリーは非常に明確だ。トランシーバーのレンタルから始まり、トランシーバーとインカムの相互接続を行う機器をリリース。その後、数多くの大規模なスポーツや各種イベントへの機材の提供から、理想のインカム、パーティーラインの構築ノウハウを獲得。そして、映像と音声の伝送。これらの集大成がこのMediorNetとなる。
インカム由来の製品とは思えない非常に多機能な製品である。例えばMN-Compact PROという製品では3G-SDI、Analog Audio、AES3、MADI、RS232/422、GPI、SyncRefarence、音声ネットワークのRockNet、MediorNet接続用の光ファイバーと、これだけの端子が搭載されている。そして、これらの信号すべてがMediorNetの1本の光ファイバーで伝送できるシステムである。
MN-Compact PRO
機能を挙げ出したらきりがないが、10年前から現在技術的な話題の中心となるAoIP / VoIPを束ね、さらには制御系の信号までも含んだネットワークを独自に作り上げていたのが、このRIEDELというメーカーなのである。現在は80Gbpsの帯域伝送ができ、この帯域幅であれば48本のHD-SDI信号の伝送が可能である。それ以外に1GbEの回線では、100以上の回線数を持つインカムネットワークの構築が可能、これらが一つのシステムで成立してしまうというのがMediorNetの持つ大きな魅力である。
会場すべての映像と音声を集約して伝送
ピットウォール、こちらでドライバーはもとより各スタッフとの通信も行なっている。
ここからは、今回取材したFomula 1 Suzuka Grand Prixの話題に移りたい。現在RIEDELはFomula 1のほぼすべてのチームのインカム回線と、オフィシャルの車載カメラ映像回線、そして会場内のレース・オフィサー(審判)向けのインカム、中継用カメラ回線、この大会運営に必要なすべてのコミュニケーション回線をハンドリングしている。これらのシステムは鈴鹿サーキットに常設されている設備ではなく、すべて仮設で設営し解体して次のサーキットへ持ち込むということを行っているそうだ。その実際を見る限りではそれが仮設であるとはとても思えないクオリティ、さすがは世界トップレベルのモータースポーツである。これらのシステムはすべてレンタルであり、広い会場中に光ファイバーの回線を引き回すところからRIEDELの仕事は始まっているという。F1サーカスという言葉があるが、RIEDELもそのサーカスの一員であるということだ。
ピットウォールを這うように続くケーブル、これを毎レースごとに敷設するそうだ
ピットウォールに敷設された光ファイバー
それではF1でRIEDELの機器がどのように使われているか見ていこう。まずはF1マシンからだが、ピットとドライバーを無線で結ぶインカム、その無線にはなんと車載カメラの映像が一緒に伝送されているそうだ。車載カメラとその送信機はRIEDELのカスタムの製品で、エンジンの回転数や燃料残量、アクセルペダル、ブレーキペダルの操作といった車体の各種データも同じ回線で行なっているということだ。MediorNetの技術を持つRIEDELならではのノウハウで、映像も音声もシリアルデータも伝送したいものはすべてひとつの機器で送れるシステムとなっている。
Bolero用のアンテナは全チームで共有して使用するが、マトリクスインカムのため混線はしない
このアンテナで2000chをハンドリングしている
このようにして無線で送られた信号は、広いコースの中の1箇所に設置されたアンテナで送受信を行っている。クレーンのブームの先に設置されたアンテナは全部で5本。デジタル送信が送受信各2本と、バックアップのためのアナログ送受信が1本という内訳。1.8GHzの帯域を利用し、キャパシティーとしては2000chのハンドリングが可能なシステムが構築されている。レースごとに利用チャンネル数は増減するということだが、今回の大会では約1400chが使われているということ。受信された信号は、クレーンの下のテントに送られ、そこからピットに設置されたセンターへと光ファイバーで送られてくる。センターへはコース各所の中継カメラ、固定カメラ映像、アナウンサーブースからの音声なども送られてくる。要するに、会場すべての映像と音声がここに集約されているということだ。ここから、審判席や各チームのピット、さらには国際中継回線、変わったところではチームの開発拠点へと必要な回線が配られている。文字にしてしまうとシンプルだが、実際にそのシステムを目の当たりにするとそのスケールの巨大さに衝撃を受ける。
インカムシステムのマネジメント
ボタンごとにインカムの呼び出し先が割り振られている
インカムのシステムは、各チーム6ch程度のパーティーライン回線を使用しているということだ。ドライバーごとに担当スタッフが分かれているので、各チームに大きく2つのグループラインが組まれており、受信機はスタッフ一人ごとに専用設定された端末を利用している。各ピットの入口付近には、大量の無線機がヘッドセットとともに整然と置かれている。無線機はまさにいま世代交代が行われているところということで、これまでメインで使われていたMotorola製のTetraがまだまだ多いが、徐々にRIEDELのオリジナル製品であるBoleroに入れ替えが進んでいるというとこだ。
Tetraは基本的に1台でひとつのチャンネルだが、Boleroであれば1台で6chのハンドリングが可能。チームリーダーなど2回線以上を必要とするスタッフは、Tetraの場合2台も3台も腰にぶら下げている姿を確認することができる。これがBoleroであれば1台で済むというのは、やはり世界中を飛び回るスタッフにとっては少しでも負担が減る嬉しいテクノロジーの更新といえるだろう。なお、2台のTetraを持つスタッフのヘッドセットには2つの送信ボタンがあり、どちらのチャンネルに送信をするのかをそのボタンで選択することができる。また、それぞれ個別のスタッフに携帯電話のように連絡を取りたい際には、Tetraで個別のレシーバーに振り分けられた番号をプッシュすることで通信が行える。通常は、パーティーラインで運用をしているが、一歩踏み込んだ使い方ももちろん可能となっている。
Bolero
インカムのパーティーラインの設計はチームごとに異ったパターンがあるということだ。ドライバーの回線、ピットクルーの回線、監督などマネジメントスタッフの回線、それらをドライバーごとに別々の回線を用意しているチームもあれば、ある程度のスタッフ間で2名のドライバーの回線が共有されているチームなど様々だということ。もちろん、これらの回線にはレース・オフィシャルの回線が加えられている。このような回線のマネージメントを、すべてRIEDELが担当をしているということになる。
アンテナの紹介部分で触れたアナログ波は、セーフティーカーとレスキュー、レース・オフィシャルのみのバックアップとして設計されているということだ。やはりこれだけの膨大なチャンネル数をアナログ波でバックアップを組むことは難しく、必要最低限な部分だけをフォローする設計になっている。もちろん、特定のチームだけバックアップをつくるということは、不公平を生じる原因になるというのも要因ではないかと考えられる。
BBCのアナウンサー、腰下にはBoleroのベルトパックが見える
これらのインカム回線でのやり取りは、TV中継などでもTEAM RADIOとして我々も耳にすることができる。その中継回線への信号の受け渡しも、やはりRIEDELのArtist Networkを介してということになる。もちろん、各チームの回線はすべてレース・オフィサーが聞くことができるようになっているのは言うまでもない。そして、すべての回線は録音・記録が行われ不正行為が行われていないかの証拠として保存される。
TV中継のワイヤレス・システムも音声・映像ともにRIEDELのサポートでフォローされている。会場で紹介をしてもらったBBC RadioのアナウンサーもBoleroを使っている。実際のスタジオスタッフはロンドンに待機しており、完全にリモートプロダクションでの制作がおこなわれているということ。会場には我々が見る限りでは3名(アナウンサー、カメラマン、ディレクター)のみ。Boleroに接続されたマイクでインタビューを行い、その音声はそのままロンドンのスタジオへと届けられることとなる。ラジオ放送であれば、それこそアナウンサー1人とBolero1台があれば完結する。なお、テレビ制作はFOMの下でドイツのRTL Televisionが行っており、ケルンのスタジオでリモートプロダクションでの制作が行われているとのことだ。Boleroはインカムの双方向回線の一部をオンエア用の回線とすることが可能なシステム。音質に自身のあるRIEDELのシステムならではの美点である。
レース会場を中心に世界中がひとつのシステムに
ラックに組み込まれたMediorNetとArtist、F1サーカスの中枢だ
取材の最後に実際のArtist Network、Mediornet Networkが収納されるラックを見せてもらうことができた。通常は立ち入ることのできないセキュリティーゾーンにあり、専用の発電機から供給される電源によって稼働するレース運営のセンターコアにあたるシステムだ。多数のArtistが各チームのパーティーラインを確立し、MediorNetがリモートプロダクションを行う本国スタジオへと接続、とまさにシステムの中核部分。映像回線に関してはすべてをそのまま送るのは帯域の問題なども発生するため、一旦中継ブースを経由したものが送られてきているということ。そして、それらすべてを記録するサーバーが二重化され24時間体制で稼働をしている。このサーバーは審判記録にもなるということで、各ブースに設置されたカメラ画像も記録されている。F1はレギュレーションで車の整備を行うことができる時間が厳しく制限されている。こういった不正行為の監視にもRIEDELが一役買っているということになる。
このラックシステムから各回線は、RIEDELの子会社であるRIEDEL Networkが管理するInternet回線を通じてRIEDEL本社、中継を行っている放送局(ドイツ)、各チームの開発拠点などへ送られている。RIEDEL本社では、全チームのテレメトリーなどのデータのバックアップ記録がリアルタイムで行われている。まさに、レース会場を中心に世界中がひとつのシステムとして動いている。
このように、レース運営のバックボーンとなるシステムをほぼすべてに渡りフォローするRIEDEL。これは毎年すべてレンタルでシステムが構築されているということだ。RIEDELのF1担当スタッフは、シーズン中はほとんど家に帰ることもできずにF1チームとともにサーキットを移動する生活をしているということ。レースのある1週間前には、まず光ファイバーなどの回線の先行敷設を行い、チームトラックなどと一緒に届く機材を接続する。週を連続して開催されるレースでは、一旦次のレース会場に乗込みケーブルを敷設、週末は前レースの現場に戻りバラシから搬出までを行い、次のレース会場に機材とともに移動をする、というハードなスケジュールになる。ほとんどのスタッフはRIEDELの社員であり、みんなMotorSportsが好きなスタッフが集まっているという。全体を統括するスタッフ、各チームの専属としてフォローをするスタッフ、30名程度のチームが動いているということだ。2月の公式テストから11月末までの長いシーズンを乗切り、2ヶ月間のバケーションを取るという生活をしているそうだが、本当に好きでなければできない仕事ではないだろうか。
●MediorNet
RIEDELのフラッグシップ・ソリューションであるMediorNet。ユーザーの利用規模に応じて、筐体の選択が可能なNetworkベースのソリューション。そのNetworkの魅力はなんといっても様々な種類のデータの伝送が可能だということに尽きる。最新のソリューションでは80Gbpsの帯域伝送で、双方向に48本のHD-SDI、MADI、数え切れないインカム用のオーディオ、GigaBitEthernetなどの伝送が可能となる。Audio/Video/Dataの区別はなく、機器間での双方向通信を実現する。同社のインカムシステムArtist、Boleroの上位のシステムとして、それらの回線を含んでさらに様々な種類のデータの伝送を実現するソリューションである。Opticalベースのテクノロジーであり、遠距離の通信も得意とするところである。
●Bolero
次世代を担う、RIEDELのワイヤレス・コミュニケーション・ソリューション。アンテナ自体がマネージメント機能を持ち、各種の設定が可能となっている。Boleroのベルトパックは6チャンネルのハンドリングができ、ヘッドセットなしでも利用できるようにマイクとスピーカーもビルトインされている。ベルトパックとアンテナのみで構築可能なStandaloneモードと、Artistシリーズのインカムシステムに組み込んでのIntegratedモードの2種類の利用方法により、ユーザーの規模に合わせた柔軟なインカムシステムとなる。最大ベルトパック50台、アンテナ100台までの拡張が可能。アンテナへの回線の接続は、AES67が使われておりPoEによる電源供給での動作もできる。
現場のニーズに合わせた製品の展開をバックボーンに、最先端のソリューションを提供し続けるRIEDEL。ビッグイベントを支えるその仕事は、インカムからスタートしたとは思えないほど会場の隅々まであらゆる形で存在している。ちなみに、F1の入場ゲートなどのセキュリティーシステムも数年前まではRIEDELの提供であったということだ。このような大規模なスポーツ大会をはじめ、昨今ではeSportやコンサートなど多岐にわたるサポートを行い、世界最高峰の現場から生まれるニーズにより製品が開発される。いま、最新技術として注目を集めるVoIP/AoIP規格SMPTE ST-2110だが"One of Them"と言えるのはこのメーカーくらいではないだろうか。ありとあらゆる種類の回線と信号を扱うことができるRIEDEL、彼らにとってはST-2110も"One of Them”なのである。
*ProceedMagazine2019-2020号より転載
Tech
2019/10/11
ヨーロッパ最大の放送機器展 IBC2019 ダイジェストレポート
去る9/13〜17の会期でオランダ・アムステルダムで開催されたヨーロッパ最大の放送機器展 IBC2019。公式サイトによると1700社の出展があり、期間中の来場者も57000人オーバー、世界170カ国からの参加とまさしくワールドワイドな規模で執り行われています。今年はROCK ON PRO 沢口が現地へ向かい、最新情報をレポート、随時アップデートしていました。そのレポートがRock oN Company WEBサイトにまとめられておりますので、ぜひチェックしてみてください。
Rock oN Company WEBサイト IBC2019 レポート特設ページ
https://www.miroc.co.jp/category/report/ibc2019/
Tech
2019/03/14
Avid Media Central | Editorial Management ~ますます拡大するデータをどう扱う!? 4K時代のアセット管理法~
効率化のキーはメタデータに眠っている
デジタルメディアと呼ばれる画像や映像、音声ファイルには、メタデータと総称される様々なデータが格納されている。そのように設計されたデジタルファイルは検索を効率化し、その後の様々な作業も効率を良くしてくれる。
しかし、私達が日常使用しているパソコンにあるファイルで視認できるメタデータの要素はファイル名だけである。パソコンで開きた いファイルを探し出したいときは、ファイル名を覚えておいて検索するか、もしくは保存場所を記憶しておいたり、作成した日時を控えておいたりと自分の記憶頼りだ。
映像や音声ファイルを格納しているデジタルメディアには、ファイル名の他に、収録時のタイムコードやカメラロール、トラック名、 カラースペース、シーン、テイク等々、それに関連する様々なメタデータが含まれている。しかしこれらのデータは先に触れたように、サーバーやハードディスクに保存されている状態では、ディスクの中にあるただのデータでしかなくなってしまっている。そのため目的のファイルを見つけ出すためには、ファイル名で探すしか方法がないのだ。では収録された大量のデータを誰でも使いやすいように管理するにはどうすればいいのだろうか。
アセット管理でメタデータが本領発揮
Media Composer の操作画面。管理されているメディアのメタデータが表示されている。
ここで持ち上がるのが、アセットマネージメント(管理)である。 一言でいうと、音声や映像などのコンテンツやメタデータの管理を行うということ。管理をするというのは、コンテンツを検索することができ、再利用とプレビューが容易にできることである。そして検索をするときに条件項目としてメタデータを使用することになる。
Media Composer などの映像編集アプリケーションでは、映像・音声ファイルをアプリケーションのプロジェクト内にインポートすると、そのメディアが持つメタデータを細かく表示するビン表示機能がある。Pro Tools のワークスペースの考え方も同様で、ファイルが持つ波形を表示したり、チャンネル数を表示したりとオーディオファイルのメタデータを詳細に表示してくれる。つまり、デジタルメディアのメタデータを活用するには、そういったソフトウェアを介す必要があるとも言える。
撮影がテープやフィルムからディスクでの収録に時代が移り、デジタル時代の副産物として撮影量が増加したという話もよく耳にする。 携帯電話などのデバイスや以前に比べると安価なデジタルカメラで手軽に高画質な写真や動画を撮れることからも、容易に想像ができるのではないだろうか。さらに、4K や RAW での撮影ともなると、それは撮影された素材の長さの問題だけではなく、データ量も HD の何倍にもなってしまう。そうなると編集をする側は大きなディスクやサーバーを用意し、膨大なオリジナルの素材と編集用の素材、完パケフォーマットの素材など、元が同じ素材からできた複数のフォーマットを管理することも必要になってくるだろう。
こういったことからも、番組や映画を制作する上で、何十時間、何百時間と収録された素材を整理し、必要なものをすぐに検索し、編集をするといった工程を構築することこそが、作業の効率化を飛躍的に向上させるものだということが分かってくる。
さらに、編集後の作品の保存(アーカイブ)までを含めて考えると、アセット管理の必要性をもっと身近に考える必要があるだろう。
Editorial Management でここまでできる
映像・音声編集のアセットマネージメントシステムとして、Avid には Media Central(Interplay より名称変更)システムがある。このシステムは 2006 年にリリースされて以来、世界で 1000 サイト以上で使われている。優れた検索機能だけではなく、前述した素材クリップを一元化するための「ダイナミックリンク」機能や「バージョン コントロール」機能なども搭載し、Media Composer でのビデオ編集から Pro Tools へのデータの受け渡しもシーケンスデータからセッションデータへと自動変換するとともに、バージョン管理も自動で行ってくれるのである。
今年の NAB では、「Avid Media Central | Editorial Management」という新しいアセットマネージメントシステムを発表し、今年 6 月に製品として出荷を開始した。これは Media Central を小規模プロダクション向けに改良したもので、サーバーにある素材を一覧することで、チームとしての協調作業をスマートにできるようにするためのツールだ。
このシステムに接続された編集アプリケーション、Avid Media Composer にはサーバーの中のメディアをブラウズするためのメニューが追加され、アプリケーション内から別のアプリケーションを立ち上げることなくサーバーにアクセスでき、表示されたウィンドウにはサーバーにあるメディアが表示され、ウィンドウからドラッグ&ドロップするだけで、すぐに編集を開始することができる。また、作業しているプロジェクト以外のアセットも、サーバー内にある膨大な素材からすばやく素材を探し出すことができ、データを他のエディタと共有しながら作業するのにも適している。
さらにこのブラウザでは、「PhrazeFind」や「ScriptSync」のテクニックも利用でき、さらに音声検索(Phonetic Search)機能も追加されている。「PhrazeFind」や「ScriptSync」は、Media Composer | Ultimate に付属する機能だが、サブスクリプションの Media Composer にオプションでは別で購入もできる。「PhrazeFind」機能とはプロジェクト内のすべてのクリップを自動的に分析し、ダイアログについて音声のインデックスを作成してくれる。「ScriptSync」 は台本(スクリプト)を Media Composer 内にインポートし、プロジェクト内にあるそのテキストと音声ダイアログで自動的に音声インデックスを作成し、クリップを台本のセリフに同期する機能であ る。これらは実際の音声データからもデータを抽出し、アプリケーション内でインデックス用のメタデータを作成してくれる。
また、「Avid Media Central | Editorial Management」にはアシスタントやディレクターが編集前にプレビューをしたり、テイクに関してのコメントやマークを追加することができるツールがバンドルされており、するべき人が責任をもって共同作業を行うことができるように webプラウザベースでこの機能を提供している。
さらにアビッド以外の編集アプリケーションでもこの素材表示ができるように設計することができ、今現在は「Media Central | Panel for Adobe Premiere Pro CC」というオプションがリリースされており、Adobe Premiere Pro のアプリケーション内に素材管理のウィンドウを表示することができるため、Premiere ユーザーともクリップの共有も簡単に行える。このオプションは、SDK が用意されているため、Adobe 以外の他のノンリニア製品とのコラボレーションも大いに期待したい。
アセットマネージメントシステムの構築は、規模が大きすぎて設計の落とし込みが難しい印象を受けるかもしれないが、「Avid Media Central | Editorial Management」は編集作業に焦点を当て、プ ロジェクトに関わる人々がスムーズに素材共有をすることができるシステムである。NEXIS のストレージサーバーとアセット管理のサーバーだけでシンプルに構成されており、その先のワークフローへの足がかりになるシステムと言えるだろう。
*ProceedMagazine2018-2019号より転載
Tech
2018/12/25
avexR studioが創り出す、新たなコンテンツのカタチ 〜Dolby Atmosでライブ配信されたa-nationの熱狂〜
2017年12月、東京・南青山にエイベックス新社屋がオープンされた。その中に、常に時代の最先端を求めるエイベックスならではのMAスタジオ「avexR studio」がある。今回はDolby Atmos対応スタジオとして設計されたこのavexR studioと、8月に味の素スタジアムで行われた「a-nation 2018 Supported by dTV & dTVチャンネル」東京公演でのDolby Atmosライブ配信という取り組みをご紹介したい。お話を伺ったのはエイベックス・エンタテインメント株式会社にて映像制作に関する統括、ならびにCEO直轄本部にて主にR&Dや新規開発案件を担当している岡田 康弘氏。スタジアムの熱気を空気感までそのままサラウンド配信するという、新たなコンテンツのあり方をどうマネジメントしたのか掘り起こしていきたい。
インハウスのXR制作ラボ
27年というキャリアの中で様々な業務に携わってきた岡田氏。その多岐にわたる「様々」ぶりを端的に感じさせるのが現在の肩書きで、なんと「映像プロデューサー兼デジタル・ディレクター兼MAエンジニア」と称しているそうだ。これもそのキャリアの成り立ちを伺うとよくわかる。1994年といえばようやくYahooが登場し、Windowsも95以前、Macで言えばPower Macintoshが発売された年だが、このITデジタルの黎明期に音楽ディレクターであるにもかかわらず、当時では珍しいデジタル担当(WEB制作)をしていたそうである。「当時の仲間からは「ハッカー岡田」というありがたいあだ名を頂戴しました(笑)。」とのことだが、この当時の世の中を思い返せばそれも頷ける。
また、初めてのマルチチャンネル(トラック)での業務は、THE STAR CLUBのアルバム「異邦人」(1994)だという。当時のMTRはもちろん、SONYのPCM3324や3348。当時の音楽スタジオの主流は3348に加え、SSL4000シリーズや9000シリーズのアナログコンソールという組み合わせだった。エンジニアのほかにもA&R、原盤制作、編曲、洋楽REPなどに携わるだけでなく、2011年には新たに立ち上がったデジタル部署においてネット配信やアプリ・WEB制作にも関わる。そして2015年からは従来の映像制作セクションと統合された現部署にて、デジタルと映像が融合されたコンテンツを制作、直近ではDolby Atmos シアターで本編上映前に流れるCMも制作している。と、ここまでくれば冒頭の多岐にわたる肩書きも納得となるのではないだろうか。その岡田氏が必要としたMAスタジオがavexR studioである、類を見ない特別なスペースになっていることは想像に難くない。
エイベックス・エンタテインメント株式会社 レーベル事業本部 企画開発グループ 映像制作ユニット マネージャー 岡田康弘 氏
まず、avexR studioの名称だが、これはコンセプトであるVR・AR等を総称したXRとエイベックスが掛け合わされたものだそうだ。dTVのVR専用アプリdTV VRでのコンテンツ配信が特に音楽分野での3DVRとして好評であったこと。またこれが「エイベックスの先進的な取り組みとして」社外にも評価されたほか、組立式の簡易VRゴーグルをCDとセットで販売した「スマプラVR」との関わりもあり、インハウスのXR制作ラボ的な施設を作ろうという流れが社内にできた。構想当初の段階では「5.1chは視聴ができるシステム」をイメージしており、マルチチャンネル編集は付加的要素だったそうだが、その後に「a-nation 2018 Supported by dTV & dTVチャンネル」でのDolby Atmos配信が決まり、スタジオ構想は7.2.4chのDolby Atmos対応スタジオへと拡大。そして完成したのがこのavexR studioである。
MTRXがハンドリングするモニターシステム
avexR studioではコンテンツにあわせて、Stereo、5.1chや7.1chなどのサラウンド、5.1.4chや7.1.4chなどのマルチチャンネルの編集が行われるが、それを可能にしているのがGenelec 8350Aと8340A、7360Aで構成される7.2.4chのスピーカーシステムと、モニターコントロールとなるPro|Mon 2である。メインシステムであるPro Toolsのインターフェイスとして導入されているAvid|MTRXでは、マトリクスルーティングを司るDADmanと、さらにモニターコントロールとして機能するPro|Monを活用しているが、このスタジオはレコーディングスタジオではなくMAがメイン。かつ各種のマルチチャンネルのミックスを行うというスタジオの特性から、プロファイルを読み込むことで瞬時にフォーマット変更やパッチ変更が行われる仕様のDADmanおよびPro|Monは様々なコンテンツを制作するにあたり非常に重要な役割を担っている。こちらののように卓がないスタジオのモニター・セクションとしてはこの機能は秀逸であるという事に尽きる。
今回、MTRXには8ch Mic HAを搭載したMic/Line Prostine ADカードと、Line入力のみのLine Prostine ADカードがそれぞれ1枚づつ搭載されており、Head Ampとしても利用可能なセッティングにしている。ほかにもMic HAはPro|MonでのTB マイク回線HAとしても活用されている。さらに、Neve 1073DPA、XLogic Alpha VHD PREとUniversal Audio 1176LN、TUBE-TECH CL1Bが手元に用意されており、アウトボードもパッチで自由に組み合わせることができる。
16ch分のDAカードは、Pro|Mon 2で設定したモニターアウトが各Genelecスピーカーへと接続されているほか、Boothへのモニター回線としても使用されている。Avid|MTRXを選択した理由の一つとして拡張性が高いことも挙げられており、近い将来はDanteモジュールを追加して、このMAスタジオに併設されている撮影スタジオと連携した多チャンネル収録の対応や、Dolby RMUへの対応も検討しているそうだ。
Nugen Audioの創意された活用
Pro Toolsとともに重宝されているのが、Nugen AudioのHalo Upmix & 3D Immersive Extensionだ。サラウンドミックスには欠かせないHalo Upmixに、さらに垂直方向への音の展開を可能にする3D Immersive Extensionを加えたプラグインは、Dolby Atmosのような立体音響では欠かせないツールとなっており、このスタジオでも欠かせないツールの一つとなっている。
実際の使用方法は、セッション上でステレオ音源をHalo Upmixにて展開し、各チャンネルのアウトプットをAUXトラックで受け、ミックス画面上で各チャンネルの微調整を行なっている。ここで注目したいのが、天井に設置された4つのスピーカーだ。Pro Toolsでは最大7.1.2chまでに対応しているが、垂直方向へは2chまでしか対応していない。そこで、Stsereo to 7.1.2 フォーマットで呼び出したHalo Upmixを画面上で5.1.4へ切り替え、そうすることでHalo Upmix上では5.1.4chフォーマットで展開されることになる。なお、Pro Toolsでは5.1.4chのフォーマットはないため、7.1.2chを単なる10chのバスとして扱い、スタジオで展開するセッションではそれぞれをわかりやすくするため、各チャンネルをモノラルAUXトラックで受けている。
GENELEC DSPで整えられた音場設計
スタジオを設計するにあたり、数多くのこだわりが散りばめられているが、スピーカー個々を含む音場設計に関してはさらに入念な設計がなされている。メインスピーカーとしてチョイスしたのはオレンジにカラーリングされたGENELECの8350Aシリーズ。そのオレンジ色にカラーリングされた8350Aをミッドレイヤーで7発設置。天井にはハイトスピーカーとして8340Aを配置、こちらは天井色に合わせてグレーがチョイスされた。極限までデッドな環境にルームチューニングされている点と、映画等のミックスを踏まえてサブウーファー7360AをLRで設置したこともこだわりの一つである。なお、これらGENELECスピーカーは全てGLM ソフトウェアでの補正、制御がかけられている。また、GENELECとは別にステレオスピーカーとしてFocal Solo6も別に用意されている。現在のミッドレイヤーは7chで構成されているが、さらにチャンネル数が増えたフォーマットも対応できるように設計されている。増設したスピーカーの位置を角度がわかるようにあえて天板で切換を設けて、スピーカーポジションがわかるようになっているため、今後チャンネル数が増えても対応できる仕組みだ。
このように工夫されたポイントは他にもある。スタジオ内で使用する電源ボックスは鋳物で作られているが、これは鋳物にすることで重量が増し、電源ボックスの振動を抑える狙いから。さらに電源ボックスまでのケーブルも床から浮かせるなど、細部にまで音質の追求がされている。そして、黒で統一されたナレーションブース。正面に設置されたテレビモニターは、Pro Toolsのビデオ出力が映る設計となっている。右手にはブース窓が設けられ、コントロールルームとのコンタクトがとれる設計だ。モニターシステムは2種類用意されており、カフシステムとキューボックスから選ぶことが可能。もちろん、モニターシステムへの音声アサインは前述の通り、DADmanのモニターコントロールを介して行われる。
また、MAスタジオとしては非常に珍しいクリアカムシステムも常設。こちらはナレーションブースとのコミュニケーション用途ではなく、MAスタジオの横に併設されている撮影スタジオとのコミュニケーションとして用意されている。現在ではトランクラインが数チャンネル用意されており、マイク数本ならMA室での収録も可能となっている。その他にもこのフロアにはオフライン編集室も併設されている。
MAブース
編集室
撮影スタジオ
Dolby Atmos Mixのライブ配信という初モノ
avexR studioの構想を拡げた今年のa-nationは大阪と東京で行われた4日間の公演がDolby Atmos Mixにてライブ配信された。「Dolbyのスタッフも、野外フェスでのDolby Atmos Mixは初めてと言っており、マイキングも含めて全てが初めての経験でした。」と岡田氏が語るように、今回のa-nationは「誰もやっていないなにか初モノを」というコンセプトのもと未だかつてない斬新な企画が行われていた。
「毎年、a-nationのキックオフ会議では「なにか誰もやってない初モノをやりたいね!」という話題が出ます。今では当たり前になった映像サブスクリプションサービスでの音楽ライブの生配信もdTVでのa-nation(2015年)が初めてでしたし、前にも記したdTV VR(2016年)も「ライブの生ステージの花道のポップアップからVRカメラが突然出てくる」なんて狂気の沙汰(笑)は、当社でなければ思いつきませんし実行しないと思います。」
岡田氏の言葉通りだが、実際、2015年から始まったリアルタイム配信は、翌年になるとVRへとフォーマットを展開し、さらに「何か誰もやっていない初モノ」となるDolby Atmos Mixのライブ配信へと発展していくひとつの導線だったように見える。
会場全体に配置されたアンビエントマイク
それでは、Dolby Atmos Mixのライブ配信がどのように行われたかを見ていきたい。まず、会場にはアリーナ席を取り囲むように16本のアンビエントマイクが設置された。アンビエントマイクのミックスにおいて、Haloとのバランスが非常に重要だったそうだ。今回の会場でのポイントを伺った。
「アンビエントマイクの配置で苦労したのは、高さと反射です。高さに関してはDolby Atmosの肝でもあるので、効果的なマイクの高さと指向を見つけるのが大変でした。反射に関してはスタジアム背面の反射音はリバーヴの深度の可変で調整しやすいのですが、マルチチャンネルは立体的であるため、音の反射の戻りが一定でなく位相のズレが激しいのが難点でした。具体的には上手右側には大きい電光掲示板があるけど、下手左側は普通の観客席だったりと。」
特にDelayの調整はバンドごとに調整が必要だったそうで、そういった意味でもHalo Upmixを展開した5.1.4のマルチアウトは活用されていた。会場のアンビエンスは遅れて届くため、Halo Upmixでプロセスされたマルチアウトチャンネルの方でDelayをかけているのだが、チャンネルによってはDelayを多めにかけたり、少なめにするなどの微調整が必要だった。そのような中でも、リハ中にアンビエントマイクのグループ2MixにHaloを挿して「自分の位相感とHaloが導き出す位相感」のギャップを感覚的に測ってみるため、Pro Toolsセッション上に視聴のためのFaderを用意して比較視聴したそうだ。
二重化されたライブミックスと収録システム、転送システム
今回はPro Toolsを中心とした収録システムが組まれた。ミックスを行なっていたMix用Pro Toolsは本線と予備回線の2回線用意され、それぞれが別の収録用Pro Toolsやマルチチャンネルレコーダーへ送られる仕組みだ。DJ Mixのようなインスト2ch Mix中心のバンドはそのまま2chを、バンドセットの場合は別に用意された収録車にて各パートがSTEM MixされてDolby Atmos Mix車へ、アンビエント等のアナログ回線はDolby Atmos Mix車内にてスプリッタで分岐されて本線と予備回線に分岐。後述するが、車載された3式のPro ToolsのインターフェイスにはすべてAvid|MTRXが採用された。コントロールはPro Toolsが稼働している各Macではなく、制御用のMacBook Proが用意され、3台ともが1台のDADmanからコントロールされていた。特に、本線Macと本線用収録Pro ToolsとはDante接続されており、DADmanの他に、Dante Controlの制御を行う必要がある。今回はライブ配信とマルチチャンネル収録があるため、どのMacでも制御は一切に行わない仕様だ。
Dolby Atmos Mix車、収録車
DADmanで3台のMTRXをコントロール
本線システム
予備システム
本線収録用システム
本線と予備回線はそれぞれSDI Enbedderへ送られる。SDI EnbedderはDolby Atmos Mix車とは別の場所で設営され、そちらでは問題なくEnbeddedされているかどうかを確認するブースが用意されていた。
ちなみに、今回のライブ配信で実際に配信された音声がDolby Atmos Mixとして試聴できた端末はNTTドコモの最新スマートフォンでGalaxy S9、Galaxy S9+、AQUOS R2、HUAWEI P20 Proの4機種となった。これらの4機種ではハードウェアに内蔵されたDolby AtmosデコーダーによりヘッドホンのみだがDolby Atmos Mixが視聴することができる。
リアルタイムミキサーとして選択されたPro ToolsとHalo Upmix
数あるDAWの中からPro Toolsが選ばれたのは、Pro Tools 12.8からDolby Atmosミキシングにネイティブ対応し、Dolby Atmos Pannerプラグインを使用しなくなったのが大きいそうだ。デフォルトで3D Panningができるようになり、3Dオブジェクトのルーティングやパンニングが追加プラグインなしで活用できるようになったり、Pro Tools Ultimate 2018.4以降では各種プラグインも含めてマルチチャンネルの対応幅が広がったことは、ミックスをするにあたり結果にたどり着くまでのプロセスが少なく済む。ライブミックスの場合は、電力やスペースの都合からコンパクトかつ高性能、そして信頼性が大事となるだけに、Pro Toolsのシステムは安心感が持てるからだと岡田氏は語る。
実際にPro Toolsセッションを覗かせてもらうと、16本のアンビエントマイクは、各チャンネルとも7.1.2のバスへアサインされ、実際のマイクに合わせて高さを出すため、Pro Toolsの3Dパンナーを使って高さ方向への配置がされていた。実際にアンビエンスだけで聞かせていただいたが、高さ方向への空気感は会場そのものが再現されている。そして、今回のミックスで核となるのがNugen Audio Halo Upmixである。
「a-nationのようなフェスの場合、出演するアーティストの編成によりバランスが都度変わります。また、各アーティストのリハーサル時間も短いことから、今回は収録車のマルチオーディオ録音チームよりいただいた各種ステムミックスをPro Toolsセッション上で2chにMixした上で、内部バス経由でHaloにて5.1.4ch化を行い、会場のアンビエントとの位相合わせも含め大変活躍しました。」
ひとつのセッション上で各パートのSTEMトラックをミックスし、バックトラックSTEMを内部バスでHalo Upmixへ送ることで、各パートの微調整も容易になる。今回のように、多種多様なアーティストが出演するとなると、楽器構成などが幅広くなりミックスバランスも非常に難しくなるが、アンビエンスのほかにも苦労したポイントはLFEの取り扱いだという。特に今回の試みがdTVチャンネル、NTT docomoの施策ということで、スマホでの視聴でなおかつヘッドフォンでの視聴に限定される。そのため、とりわけLFEの分量には苦労したそうだ。
また、アーティストの出演順によって、バンドセットの後にDJセットが来るときなどは、バランスが大きく異なる、ここもフェスならではのポイントとなった。リハーサルの際にも実際にオペレートされているところを拝見させていただいたが、バンドが変わるごとにセッションの開き直しなどは行わず、グループごとでHalo Upmixでのプリセットのリコールや、各チャンネルのバランス・広がり度合い・アンビエントのボリューム・各チャンネルのでDelay値をバンドごとに修正されていた。
長蛇の列を作ったavexR studioミックスの体験ブース
会場ではスタジアム横に用意されたCommunity Stageやフードブースが並ぶスペースの中央に、オフィシャルパートナーであるdTV・dTV chのブースが用意された。ここでは、一般の方もDolby Atmosでミックスされたコンテンツを視聴できるブースとなっており、今回のために用意されたアーティストのライブ映像のDolby Atmos Mixが無料体験!! とあって常に長蛇の列となった。こちらのミックスも前述のavexR studioにてミックスが行われている。縦方向への音の広がりが、通常のライブビデオとも違う空気感を感じられたのだが、実際にミックスするにあたりステレオにはないミックス方法を実施したとのこと。
手法としては、ステレオ音源をベースにNugen Audio Halo Upmixで5.1.4へと広げるのだが、ここでセンター成分にあえて歪みを出すそうだ。確かにソロでCenterチャンネルだけを聞いてみると歪んでいるのだが、そこへLRチャンネルを足すと歪みは目立たなくなりセンター成分は存在感が保たれる。さらに他のチャンネルもバランスを見てミックスすることで、ライブ感を損なわずに空間を定位させることが可能になるそうだ。通常の音楽ミックスでは決して用いることのない手法だが、ライブMixかつマルチチャンネルミックスだからこその手法である。
昨今の音楽視聴環境がスピーカーからヘッドフォン・イヤホンで、CDから携帯端末内のデータによる視聴へと変化してきている中で、このように身近なスマートフォンという端末でここまでハイクオリティなコンテンツが視聴できるようになることは今後の音楽業界に少なからずの変化をもたらすであろう。スマートフォンのチップがパソコンに迫る処理速度になっていることからも、今後はDolby Atmosだけではなくマルチチャンネルフォーマットがスマートフォン向けのエンジン(アプリ)をリリースするきっかけになるのではと想像される。
「ライブをマルチチャンネルでミックスして配信、またアラカルト販売するにはまだまだコストが掛かり、すぐに沢山のコンテンツが定期的に出てくるとは正直思いません。しかし、Nugen Audio Halo Upmixの様なプラグインが出てきた事により、過去のライブ映像作品の2MIX+アンビエントで迫力あるマルチオ—ディオが低コストで作れるとなると、旧作品の掘り起こしになるのではないでしょうか」と岡田氏は直近の状況を見ている。確かに現在では最新スマホの4機種のみでの視聴であるが、スマートフォン向けのエンジンがアプリに内蔵されれば、iPhoneなど既存機種への対応も期待される。
このa-nation 2018 大阪公演・東京公演の計4日間の模様のダイジェストのうち、東京公演の2日間がavexR studioにてDolby Atmosフォーマットで制作され、11月18日からdTVチャンネルにてオンデマンド配信されている。前述のDolby Atmos対応4機種のユーザーは新たなコンテンツのあり方をすぐに手元で体験できる羨望の環境とも言える。今後の展望として、「avex+XR=avexR studioなのでAR、MR、VRなどの立体映像とオブジェクトオーディオを多用したVRオーディオの両方が制作できる唯一のクリエイティヴ・ハウスとして邁進できれば。」と岡田氏は語る。かつてiTunesにて音楽配信が開始された当初、直ちに国内レーベルとして最多曲数を発表したのもエイベックスだった。「なにか誰もやっていない初モノをやりたい」という精神は今も昔も変わらず業界を牽引している証ではないだろうか。
左からROCK ON PRO 清水 修平、株式会社楽器音響 日下部 紀臣 氏、エイベックス・エンタテインメント株式会社 岡田 康弘 氏、ROCK ON PRO 赤尾 真由美、メディア・インテグレーション株式会社 山口 哲
*ProceedMagazine2018-2019号より転載
Support
2018/09/28
Pro Tools ユーザーの皆様はMac OS 10.14 Mojaveへのアップデートをお控えください~Pro Tools Information
去る9月24日にAppleから発表されたmac OS最新となる10.14 Mojaveについて、Avidからお知らせがございました。下記にAvidからのお知らせを掲載いたしますので、Pro Toolsユーザーの皆様はご一読いただけるようお願いいたします。
ご注意: macOSをお使いのPro Toolsユーザーの皆さまへ
Pro Tools 2018は、Appleが9月24日月曜日にリリースしたmacOS 10.14 Mojaveとまだ完全には互換性がありません。現在、認証に向けた取り組みを続けています。 MacOS Mojaveへのアップデートは、完全に互換性のあるPro Tools製品(Pro Tools、Pro Tools | First、Pro Tools | Ultimate、およびPro Tools アカデミック版)がリリースされるまでお待ちいただくようお勧めします。
MojaveとPro Toolsの互換性についての最新情報については、こちらの Pro Tools システム要件をご参照ください。
Tech
2018/09/04
FLUX:: / ユーザーから受けた刺激が、 開発意欲をエクスパンドする
PureシリーズやElixir、Pure Analyzerなど、高い技術力に裏付けられた優れたフィードバックデザインを持つプラグインをリリースするFlux。そのCEOであるGaël Martinet氏が最新リリースとなる「Spat Revolution」ワールドプレミアのため来日した。IRCAM(フランス国立音響音楽研究所)やjüngerとの共同開発も行うFluxだが、その成り立ちから、プロダクトを生みだす発想、そしてSpat Revolutionが立体音響にもたらす変革に至るまで、Gaël氏とFluxのアイデアの源に迫った。
自らのツールを自らで作り出す
フランス・パリから南西へ約1時間。Flux:: sound and picture developmentはフランス中部のオルレアンに位置している。現在CEOであるGaël 氏はサウンドエンジニア出身のプログラマーで、独学でC++を学んだという異色の経歴の持ち主だ。Fluxが設立されたのは今から17年前。当時Gaël氏はメジャーなレコード会社とも契約しミックスとマスタリングのサウンドエンジニアとして活躍していたが、そのかたわらでMerging PyramixやMAGIX Samplitude、Avid Pro ToolsなどのDAWメーカー各社とベータテスター契約を結んでいた。その中で「こんなプラグインが欲しい」と相談しているうちに、「欲しい」という気持ちが「作ってみたい」へと変化していったのが開発に携わるきっかけになったそうだ。まず、最初に欲しいと思ったプラグインはメータリングプラグイン。当時のメータープラグインはPeak表示などの単純な表示しかなく、RMU表示やよりオプションが付いたものなどサウンドエンジニアとしての現場感覚がアイデアを次々と生み出していく。また、当時はマスタリング用のプラグインが少なかったため、自分に合うDynamics Processorの開発がメーターの次に取り組むテーマとなっていくのだが、自分が必要とするツールを自らで作り出すといった点は現在にも受け継がれる開発力の源泉と言えるのではないだろうか。
ソフトウェアの開発を始めたGaël氏だが、もともとプログラミングを学んでいたわけではなかったので自分で書籍を買いゼロから勉強をし始めたという。そして、実際プログラミングをしてみると自分に適正があると実感。メーカーと相談しながら自分の求めるツールを作るうちに「これが自分の仕事だ!天職だ!」と思いのめり込んだところが、のちのFluxにつながるスタートラインになっている。当時設立した会社は「Geal Yvan」という名称で、Mergingとの契約を結び、Pyramixに含まれているプラグイン全ての開発にあたったという。当時はPyramix向けにインテグレートされたポスプロ向けの環境を整える必要があったのだが、その時Gaël氏が開発したのが現在Pyramixのビデオエンジンとしても使用可能な「VCube」、もちろん当時開発したプラグインは現在もなおPyramixで使用されている。その後、11年間継続されたPyramix プラグイン開発だが、様々なプラグインを開発していくうち、他のDAWメーカーにもプラグインを提供したいと思うようになり「Flux」というブランド名のもと、プラグインの販売をスタート、現在の会社の始まりとなる。
共同開発という技術のシナジー
現在、Fluxが開発しているプラグインは大きく分けて2種類ある。まずは、FluxブランドのプラグインでFluxのスタッフが100%開発している製品。主にはPureシリーズやElixir、Stereo Tools、Pure AnalyzerやEpureなどがある。それに対してブランディングされているのが、IRCAM(フランス国立音響音楽研究所)シリーズやjüngerシリーズに見られる共同開発製品だ。今秋に発売されたSpat Revolutionも「IRCAM」ブランドの製品となりその研究技術を使用。Audio Engineに付随する機能はFluxが作成したものだが、IRCAMからもプログラマーが加わり共同で開発されている。
そのIRCAMとの共同開発が始まったきっかけは、なんとIRCAM側からのオファーだという。当時のFluxの技術力・製品クオリティの高さを買って、IRCAM研究所のValorisation directorであるFrédérick ROUSSEAU氏より、Geal氏へ「自分たちの技術を使ってプラグイン製品を作ってみないか」と持ちかけられたのが始まりだそうだ。その技術力によって現在ではMergingを始め、Avid、SteinbergなどDAWを開発している各社とデベロッパー契約もあり、各プラグインフォーマットに向けてFluxプラグインを供給している。また、FluxはIRCAMとの連携もあり、そのスタッフの半数がプログラミングに関わっているというまさに開発者集団とも言える陣容。共同開発は人的にも技術的にもお互いのシナジーを生み出しているようだ。
Spat Revolutionを生んだ発想の転換
そして、2017年9月に発売となったSpat Revolutionである。「イマーシブ3Dオーディオ編集アプリケーション」とまとめればいいだろうか、複数の立体空間を擬似的にソフトウェア内にセットアップ、アコースティック・シミュレーションを行った上で、サラウンドから7.1.2ch、22.2chまで様々な立体音響のスピーカー配置用にオーディオ信号を出力することができる非常に革新的なソフトウェアで、今までに類を見ない製品だが、実は開発には長い年月がかかっている。
まず、1992年にIRCAMより初代Spatがリリースされた。しかし、このソフトは一般ユーザーが簡単に使いこなせる仕組みではなく、主にMax MSPにモジュールとして組み込んでいたのがほとんどだと言われている。Max MSPに組み込むということはプログラミングの技術を必要とし、時にはスクリプトを必要とするケースもあるためサウンドエンジニアが気軽に使えるような代物ではなかった。そこで、MaxMSPの難しい作業に関しては極力省略して「音を作る作業以外の時間をセーブしよう」としたのが、2010年にFluxよりリリースされた「IRCAM Spat」である。90年代から綿々と積み重ねられたIRCAMのテクノロジーがサラウンドという時代のニーズとマッチを始めたタイミングとも言える。
しかし、この製品を開発するにあたり、DAWプラグインとして動作させるのには主にバスの問題で制約を感じていたという。例えば、Pro Toolsは先日Dolby Atmosに対応したばかりだが、Auro 3Dなどのマルチチャンネルには未だ対応していない。対応させるには複数のバスに分けての処理が必要とされるわけだが、それでもやはり入力信号を一括でモニターすることはできない。そこで、DAW側の制約に捉われずに処理をさせる方法はないかと試行錯誤していた。ここで発想の転換がある。プラグインとして処理を行うのではなく、プラグインは「センドプラグイン」としてあくまでパイプ役に徹し、スタンドアローンのアプリケーション内でプロセスを行うというアイデアだ。これを実現したのが「Spat Revolution」であり、入出力数にしても、対応フォーマットの幅広さにしても圧倒的なスペックを誇る3Dオーディオ編集の「統合アプリケーション」として結実することとなる。
音を可視化する
アプリケーションの機能開発を行う一方で、重視されているのがそのGUIやデザインである。Gaël氏には「かっこ悪い見た目ではそれなりのものしかできない。」というポリシーがあり、サウンドエンジニアのクリエイティビティを妨げないよう、ツールであるプラグインは美しく機能的にデザインされているべきだとしている。その最たる例が自社開発されたPure Analyzerであろう。Pure Analyzerはスタンドアローンで動作するアプリケーションだが、パスで使われているエンジンや、メータリング、Nebraに見られる空間的広がりをビジュアル化する機能など、優れたGUIと視認性の高さで評価も高い。ここで培われた「自由度は非常に高いが、いかにシンプルに見せるか」というポイントは現在の開発にも引き継がれており、Spat Revolutionへ搭載されたNebra機能は、空間でどの周波数帯域の音がどれくらいのパワーでどの方向へ向かって鳴っているか、を視覚的に確認できる。まさに「音を可視化する」機能なのである。3D立体空間の表現において、このような機能を持ったアプリケーションはおそらく世界初だろう。
そして、Spat RevolutionのGUIは非常にシンプルに作られている。信号の流れは見た目でわかるように、上段にあるInputから下段のOutputに向けて設計されており、それぞれを線でつなぎこむ。展開するプロジェクトの大きさによってSpat上のセッティングはシンプルにも複雑にもでき、その選択はユーザー次第。「Spat Revolution」というソフトウェアの自由度の高さを理解してもらうには、このインターフェイスが最適だと考えたそうだ。Geal氏はこのGUIについて「この仕組みはポスプロの人にはわかるかもしれないが、もっとシンプルなフローにしたい場合にはこれでも難しいかもしれない。なので、Mixer Binがついたようなもっと簡素なGUIを構想中だ。」とコメントしている。今後は「コネクションする」という作業をより簡単にできるように開発も進めていく予定で、ユーザーのリクエストを精査し実行に移していく段階に入った、と言えそうだ。
迅速なアップデート
現在、Fluxのソフトウェアは全てFlux Centerから供給され、必要なプラグインを任意のバージョンでインストールすることが可能だ。そして驚くほどアップデートの速度が早く、多い時には1週間に3回アップデートがオープンにされることもある。万が一、最新バージョンで不具合があった場合でも、Flux Centerでは過去のバージョンに戻ることも容易だ。
その迅速なアップデートの裏には、Fluxの開発チームとベータテスターとの連携も忘れてはならないだろう。バグ報告をあげると、そのデータをもとに問題点を見つけ出して改善していく。一つでもバグの改善があれば、すぐに新しいビルドとして公開する。そして、リリースノートはWeb上にすべて公開され、どのバージョンで何を直しているかもユーザーが確認できる。実際、重篤なバグを報告し、改善にはかなりな時間を要するだろうと想像していると、2〜3日でビルドアップされることもしばしばである。
Fluxはベータテスターだけではなく、より多くのユーザーからの率直な意見を聞きたいということで様々な計画をしているそうだ。現在構想として上がっているのは「こんな機能が欲しい」というユーザー自身の声をWebで直接投稿するケースや、他のユーザーからのリクエストをランキング形式でリストアップしそちらに投票する、という形式。その結果を参考にFlux社内でいいアイディアだと認められれば、社内で優先順位を協議した上での開発となるだろう、とGaël氏は語っている。こういった現ユーザーからの声、さらには未来からの声にも対応する、そうしたユーザーに密接なメーカーを目指しているそうだ。
成長するSpat Revolution
Spat Revolutionは、現在DAWと連動されることを第一に開発されているが、将来的にはAvid S6LなどのSR市場へ対応することもアプリケーションの大きなテーマとしている。例えば、パラメーターにデュレーション(時間)という概念をつけることで、Mixerのスナップショットと連動し「6秒間で右から左に移動する」といった音像定位のオートメーションをつけたり、SRコンソールからプラグインのパラメーターを直接コントールさせるといった統合機能を想定している。Spat RevoluutionはすでにOSCに対応しているので、接続方法はIP接続になることだろう。なお、AoIPの開発については、すでにAVBで64chオーディオのやりとりや、OSCを使ってコントロールするというテストが進められているとのことだ。また、Spat Revolution自体にスナップショットを搭載することも想定している。一つのRoomソース内で複数のスナップショットを登録し、そのスナップショットを自在に切り替えることができるようになれば、ステージ演出としてよりダイナミックな演出ができるようになるだろう。
ほかにも、 Spat RevolutionにShowモードを搭載しセッティング画面は安全のために一切触れなくしたりする構想や、サーバーで動作するバージョンも想定している。現在、OSCを利用してDAWからSpat Revolutionをリモートするのだが、サーバーはエンジンとして動作するため、ラップトップやmixerからはOSCではなく完全なリモートコントロールとなる。さらには、サーバーシステムではコンピューター自体を二重化したリダンダントシステムとして組み上げることができるため、より冗長性を高めることが可能だ。
もちろんSR環境だけではなくDAW向けの新機能も想定している。Spat上でソースの軌跡を表示させ、そこからエディットできるようにすることや、ソースの配置を自動で配置されるようになるような機能、例えば音源の音程の高さによって3D空間で徐々にハイト方向に自動で音が配置されるようになるなど。これには特定のアルゴリズムが必要となってくるが、そんな機能があったら面白いのではないか、とそのアイデアは尽きないようだ。 また、現在はAvid S6にてプラグインマッピングの機能に対応しており、任意のパラメーターをFaderやJoystickに割り当ててオペレートすることが可能だが、バーティカルパンニングについて、フィジカルコントローラーの開発が待ち遠しいところではある。現行で3DマウスやDeep Motionなどの既存デバイスに対応させたり、Spat RevolutionがOSCに対応していることを踏まえて、専用のiOS等のアプリ開発も念頭にある。WindowsタブレットではOSC同士で通信ができたり、とRemoteControlに関してはすでに対応している項目もあるとのことだ。
最後に日本のユーザーへGaël氏からメッセージを頂いた。「これからも、我々の開発意欲を刺激し続けてください。Spat Revolutionはまさに、日本のユーザーが実践しているたくさんのユニークなプロジェクトであったり、放送局が行っているシリアスなプロジェクトをサポートするために作られたソフトです。これからも様々な意見が交換できればいいなと思っています。」
「開発意欲を刺激し続けて欲しい」、 ユーザー目線でソフトウェアを開発し続けてきたFluxだからこそのメッセージではないだろうか。Gaël氏は日本のマーケットに非常に関心が深く、Spat Revolutionの機能にも日本からのリクエストが多く盛り込まれている。Preferenceにも日本語表示が搭載されているが、単なるGoogle翻訳ではなくより日本的な言葉が選ばれていたり、と非常にユーザーとの距離が近く感じる。このようにユーザーとメーカーがお互いの創作意欲を刺激しあい、クリエイティブに還元していくという前向きな循環が続く限り、今後もFluxのアプリケーションが様々なコンテンツで活躍することは間違いないだろう。
Gaël Martinet - FLUX:: Head of software engineering
Tech
2018/09/04
Avid NEXISから始まるポストプロダクションの働き方改革
昨今、働き方改革をめぐる議論は尽きないが、長時間労働をなくすことだけが働き方改革ではない。ポジティブな仕事、クリエイティブな仕事をして納得できる仕事をすることが、生産性を高めるのだとしたら、ネガティブなつまらない仕事を減らすことが、ポストプロダクションを取り囲む環境の働き方改革ではないだろうか?今回は制作プラットフォームの基礎ともなるAvid NEXISを中心にしたシステムを取り上げて、ポストプロダクションの効率的なワークについて考えてみたい。
トランスコード時間の短縮をどう行う?
ビデオ編集の立場から見ると、収録した映像と音はそのままのファイルで編集することが当たり前で、DAWで音の編集を行うために、あらためて低解像度ビデオファイルを作成することに違和感を感じてしまう。なぜ、そのまま完パケのファイルを直接受け渡せないのだろうか。
DAW側のいろいろな事情はあるにせよ、現在のMA作業には低解像度のビデオファイルを用意する=ビデオのトランスコードという作業が必ず必要になる。今後、4K素材を扱うことが多くなるにつれて、さらに多くの時間をこのトランスコードに費やすことになるだろう。もちろん解像度とデータ量とは直接的には関係なく、小さなデータ量でも4K動画ファイルは作ることができるが、画質が悪くなる。そのため高画質のものを高解像度で見るために、高いビットレートでのエンコードが必要になり、それを再生するにもCPUにより多くの負荷がかかることになる。
それを解決する手法の一つがVideo Satelliteである。DAWの代表格であるPro Toolsでは、4Kビデオの再生にネットワーク越しにシステムをシンクロさせるVideo Satelliteを推奨している。Avid Media Composerがリアルタイム再生できるビデオファイルであれば、この機能を使ってトランスコードやファイルのインポートなど、新たにメディアを生成させることなくビデオと直接同期させることができる。言い換えてしまえば、MAのためのビデオメディアファイル作成の工程を全て無くすことができるということだ。また、別のPCでビデオを扱うためオーディオ編集における負荷も分散できる。
NEXISネットワークストレージでシームレスなフロー
4Kファイルなどで大きなコンテンツの複製を発生させないようにするのも、生産性のない時間の無駄を減らすことにつながるだろう。ワークフローの中心にネットワークストレージなどのサーバーがあれば、メディアの共有はもちろんビデオ編集からカラーグレーディングへ、そしてMAへとシームレスな連携ができるようになる。
さまざまなアプリケーションがインストールされているシステムが協調作業をするサーバー環境では、ストレージの帯域管理が重要なポイントになる。NEXISは接続されているものがどのようなものであっても、NEXISのソフトウェアにより帯域の管理を行うことができる。これは、サーバーと各クライアントの間に蛇口の栓があるようなもので、栓を開いたり閉めたり調節することで、蛇口から流れる出る水(データ)を制限をすることができる。
安価な共有NASのシステムでは、高速にデータを送り込むことができても、蛇口がなく1つのシステムにだけ水がどんどん流し出されているようなイメージで、そのため他のシステムは水を確保することができなくなり、再生中にフレームがドロップしてしまったり、遅延してしまったりするような問題が生じることも珍しくない。帯域に必要量の制限をかけることができるからこそ、Media Composerのようなビデオ編集システムで映像再生を行いながら、Pro Toolsでの多チャンネルオーディオの再生が可能になるのである。
さらにNEXIS独自のファイルシステムにはユニークなワークスペース機能(仮想ストレージ)があり、容量が足りなくなった時など必要に応じていつでも変更できる柔軟性がある。作業中にデータの整理などを強いられることなく、クリエイティブに集中することができる環境と言える。
また、保護モードに関しても物理単位でRAIDレベルを決めのではなく、ワークスペース単位で1ドライブ(RAID5相当)、2ドライブ(RAID6相当)、ミラーリング等、メディアの保護機能を実装しており、内容に合わせて選ぶことができる。例えば、一時的に利用する重要度の低いメディアであれば、保護機能をオフにしストレージ容量をセーブすることができる。ハードの面ではディスク障害があった場合でも通常のRAIDとは異なり、固定のリビルド時間を必要とせず使用しているブロックだけを修復するため、使用量が少なければ修復時間は短くなるというメリットもある。
NEXISに最適化されたPro Tools
Pro Tools v12.8では、ネットワークストレージ上でのパフォーマンス向上のための機能が追加されている。「並列タスク最適化」は、ネットワークストレージに対する異なる処理を複数同時に行うときに設定する機能で、オーディオのインポートやディスクキャッシュといった取り込み作業と同時に、バックグラウンドでエフェクトのレンダリングやバウンス作業、クラウドコラボレーション時のファイルのアップロードやダウンロードをしても、先の取り込み作業に影響がないようにしてくれる。
また、「ローカル波形キャッシュバージョン」機能は、波形データがローカルに保存可能になったことで、作り直す必要がなくなるため、ネットワークストレージからセッションファイルを開く時間も大幅に短縮される。NEXISとの組み合わせでは、多チャンネルトラックのオーディオをストリーミイングで録音、再生することができるが、さらなるパフォーマンスが必要な場合には、ディスクキャッシュ機能を使うなど、ネットワーク環境に応じて使い分けすることも可能だ。
NEXISの価値
雑事を自動化して非クリエイティブな時間を可能な限り減らし、効率性を維持管理することこそが、Avidのメディアプラットフォームのメインコンセプトであり、そのシステムの一端を担うのがNEXISである。
NEXISは、Avidで動作保証をしている唯一のネットワークストレージであり、最大12台のPro Toolsを接続し、各システムを10GB Ethenetで接続することで、最大256トラックのオーディオをストリーミングで録音、再生することができる。システム構成は、NEXIS PROをエントリーポイントとし、NEXIS|E2、NEXIS|E4、NEXIS|E5、NEXIS|E2 SSDモデルとラインナップが揃い、20TBから最大4.8PBのストレージ容量で、20GB/sを超える帯域幅を提供する。
ユーザーのニーズと規模にスケーラブルに対応でき、最小構成で導入してからでもいつでもストレージを追加し、必要に応じてスケールアップしていくことができる。例えば、HD編集のワークフローでシステムを導入したとしても、そのシステムを捨てることなく4Kシステムへとスケールアップすることもできるため、単なるストレージ容量の増加ということではなく、システムが持つ機能面の向上にも対応させることができるのである。エントリーモデルのNEXIS PROは標準構成が40TBから、Avidの動作保証付きで¥1,650,000〜(税抜)と、働き方改革にもつながるワークフローの効率化を考えると長期的な視点における設備投資として魅力的なソリューションに映るのではないだろうか。
ファイルベースでの作業連携が進む中、実際のシステムで制作するにあたり新たな課題が出てきていることもある。Avidというメーカーが持つストロングポイントは映像編集からMAまで一貫したソリューションを提供できている点であり、動作におけるメーカー統一という担保がなされていることは未知の課題にも大きなアドバンテージとなるのではないだろうか。効率的なワークフローでクリエイティブに割く時間を確保する、という至上命題の解決にNEXISが光を当てるのかもしれない。
*ProceedMagazine2018Spring号より転載
Tech
2018/09/04
ヤマハ ViReal(バイリアル) ~積み重ねた要素技術でその空間をキャプチャーする~
皆さんはViRealという技術をご存知だろうか?このViRealはヤマハが要素技術として開発を行う立体音響技術の総称。純国産の立体音響技術である。その全貌は、ヤマハのホームページなどを見ても概要、概念が中心となるため実際にどの様なことが行われているのかはっきりしない部分もある。その様な中、カプコンからその技術を採用したタイトル「モンスターハンター:ワールド」がリリースされた。まだ研究段階の技術と筆者も考えていたViRealだが、実際に製品採用されてすでにリリースもされている。その実際を確かめるべく、静岡県磐田市にあるヤマハ豊岡工場内の研究開発施設に向かい詳しくお話を伺った。
スペシャリストによる要素技術を結実
ViRealは「立体音響のトータルソリューション」とヤマハでは定義されている。そのプロジェクトのスタートは4年前にまで遡る。ご存知の通りヤマハではAVアンプを始め、サラウンドバーなど、高い技術力をベースとしたサラウンドの研究開発が行われている。そのサラウンド技術をベースとして立体音響、特にバイノーラル再生技術からその開発をスタートしたということだ。
このViRealの研究開発を行なっている部隊は要素技術開発のチーム。要素技術というのは直接的な製品開発ではなく、そのべースとなる技術を先行して開発し、実際にプロダクトのアイデアが出た際にそれを応用して使っていくという縁の下の力持ち的な側面を持つ。とはいっても、現実にならないような夢を追った研究で成果が出なければプロダクトに結びつかないし、研究を進めたもののプロダクトに落とし込めないような技術や、市場のニーズに合致しないようなものは進められない。先見の明という部分も必要とされる大切な分野であると言えるだろう。その要素技術開発の中でも空間音響グループと呼ばれる部署がこのViRealの研究を行なっている。その開発チームには様々なスペシャリストが在籍していて、ハード面、ソフト面ともに自社内で開発を進行できるだけのパワーを持っていることが取材で強く感じられた。
ViRealの研究は前述のようにバイノーラルからスタートしている。そこから空間音響、プロセッシング技術、収録技術と立体音響の入口から出口までのすべてのソリューションの開発に進化している。どこか一部分ではなく、既存の要素をヤマハ的に噛み砕き、どの様に活用を行うと効果的か、汎用的に使えるものになるのか、そのような研究が日々行われているということだ。前置きが長くなったが、それぞれの研究を個別に見ていきたい。
◎ViReal とは
ヤマハが開発中の立体音響総合技術 Virtual + Real = ViReal
1. ViReal Mic:360° 集音マイク
2. ViReal Tools:立体音響オーサリング環境
3. ViReal for Headphones:バイノーラルエンコーダ
4. ViReal for Speakers:マルチスピーカ向けエンコーダおよび出力ハードウェア
ViReal Dome/10th order相当の122スピーカー
まずは、ビジュアル的にもインパクトの大きいViReal Dome。巨大な鳥かごのようなフレームの内部になんと122本ものスピーカーがおよそ等間隔となるよう設置されている。床面は平らになるのだが、影を落とした位置にスピーカーを設置しディレイとゲインで補正をしているということだ。もちろん理想は完全球体の面に設置ということになるが、現実的な環境とのトレードオフによりこのような仕様になっている。122本という数は、等間隔に設置位置をプロットした際に現実的に機器の設置が行える最大数ということで決められた。現在は、HOA=Higher Order Ambisonicsの最先端実験環境として稼動している。122ということは、ツールなどの製品が存在し現実的な最大規模となる7th orderの64chよりも多くのスピーカーがあり、ほぼ10th order(121ch)と同数。これにより高い再現性を誇るシステムが構築されている。HOAの可能性、具体的にはソースの持つ再現性等の研究が行われているということだ。
このViReal Domeの再生システムは、再生専用のPCからDanteで出力された122chのオーディオがDante Network上で分岐され、8chごとにプロセッサー/アンプによって駆動されている。このプロセッサーの制御により、音量に追従してスピーカーに設置されたLEDの光り方が強弱を持ち変化する。これにより、音の到来方向を視覚的に確認することが出来るように工夫されているそうだ。このLEDは心理的な意味合いも持つため、LEDを用いた心理音響実験や、視覚と聴覚の両方を刺激するマルチモーダル視聴の研究に使用することができる。
さらに各スピーカーにはマイクも設置されている。これは設置したばかりということで具体的に使い始めてはいないということだが、スイートスポットで楽器などを鳴らした際にどのような向きに音が放射されているかを、122点という高い精度で測定することが出来るシステムになっているということだ。こちらも今後のデータを是非とも見てみたいと思わせる実験設備。エンジニアが自分の耳で経験として判断を行なっていたマイキングが科学的に解明されメソッド化されたり、ということが現実化されるのではないかと妄想を膨らませてしまう。
再生のPCは、基本的にはHOAのソースを122chのスピーカーに合わせてプロセッシングを行なっている。具体的にはデコード後に各スピーカーへのシグナルアサインを行っており、このプロセッシングを変化させることでの結果を観察したりということが行われている。まさに、HOAを理想的な環境で再現したらどうなるのか?興味はあったとしても現実ではヘッドフォンでのバイノーラル再生になってしまうのが普通だが、ここではそれをスピーカーで体験することが出来る稀有な環境だ。
このViReal DomeはHOA再生ということでスイートスポットが非常に狭い、というよりも中心の一点しかない。これは技術の原理として致し方のないことだが、今後はこれだけのスピーカー数があるのでスイートスポット拡大のための研究も行なってみたいという話を聞くことが出来た。実際のプロダクトにおけるスイートスポットの広さというのは大切な要素。このような最大規模の研究環境からダウンサイズして、どこまで少ないスピーカー数でどこまでの再現性が確保できるのか?そのような開発へとつながっていくのであろう。
ViReal Mic:64個のマイクが並ぶモンスター
次にお話を伺ったのがViReal Micについて。これは小さな球面上に64個ものマイクが設置された6th order Ambisonics収録が行えるモンスタースペックの実験器具。もちろんそのままプロダクトとして登場したら非常に面白い存在となるのだが、逆の期待も込めてあえて実験器具と呼ばせてもらう。このマイクは、下部のボックス内でラインレベルにゲインを稼いでDanteとして出力される。ここでもDanteの持つ多チャンネルのスペックが活きている。マイクヘッドのサイズは、波長がマイクの間隔内に収まってしまうと意味がなくなってしまうため、計算上からその間隔、球体のサイズが決まっているということだ。理想のAmbisonicsマイクを考えると高域の精度を上げるためにはマイク間隔を小さくしたい、しかし低域の精度を確保するためには球体のサイズを大きくしたい。それらのバランスを取ってたどり着いたのがこのサイズ、ということになる。
個々のマイクヘッドの性能を聞いてみたが、これだけの個数の素子が設置された機器となると素子の特性よりも、設置間隔のほうが大きく影響を及ぼすため、この器具ではその部分にはあまりこだわらずに作っているということだ。とはいえ耐圧などの実験も行い、収録を想定しているフィールドなどでの利用にも耐えうる最低限のスペックは保っている。筆者はレスポンスなども実際の聴覚上の再現性には大きく影響があるのではと考えてしまうが、64個ものダイヤフラムが並んでいることを考えると1つの部品が10,000円高くなれば64万円のコスト上昇となる。ちょっと部品を交換して、ということも気軽に行える判断ではないということは想像できる。
もちろん製品化してヤマハとしてのプロダクトをリリースしたいという思いはあるということだ。その際にいくつのヘッドを搭載するのか、サイズは、コストは、と課題は相当に多いということだ。是非ともViRealとしての研究成果を詰め込んだ、市場が驚くような製品を作ってもらいたい。
◎ViReal Mic 64CHワンポイントマイクロフォン
● フィボナッチ螺旋状配置 - マイク素子数の制約なし
● デジタルオーディオネットワーク技術「Dante」採用
- LANケーブルでノートPCと接続
● Higher Order Ambisonics (HoA) - 6次まで対応可能
ViReal for Headphones/独自のHRTFが作り出す精度
Unityプラグインを試す筆者。ゲームエンジンに実際に搭載されたViRealにより出力されたステレオ・バイノーラル音声を聞いている。コントローラーで3D空間内を動き回り、音源の相対位置を感じることが出来るかチェックを行なっている。
このViReal for Headphonesは当初より研究開発が続けられてきた技術の一つ。HRTF(頭部伝達関数)のチューニングを進めており、既存のHRTFで問題となる個人差を最低限とした汎用性の高いHRTFを作れないか?という研究開発を行なっている。ヤマハとしても3D音響はまずHeadphoneで聴くバイノーラル技術が一番普及をするという着眼点を持っている。しかしそこで一般的に利用されているHRTFは汎用性が低く、個人差が大きいものがほとんど。その理由は、人間が一人ずつに固有の耳の形状、頭蓋骨の形状、首の長さ、肩幅などを持っており、これらの影響を受けて音は鼓膜に到達し、音を認識しているからである。これを一般化してその個体差を縮めようと古くから各所でHRTFに関する研究が行われているが、最適とされるものは未だに誕生していない。現状で具体的に一般化された例としてはダミーヘッドマイクの形状が挙げられる。
これらの研究はすでに行われている分野ではあるが、ヤマハではあえて正攻法をとって数百に及ぶ顔の形状や耳の形状のサンプリングを3Dスキャンで行いそれらを平均化していった。技術の進歩により3Dでキャプチャーすることが容易になったのも追い風となっているようだ。その平均化されたデータをもとにして独自のHRTFを導き高性能かつ汎用性を持ったバイノーラライザーを作り出している。
現在も発展途上ということで、バイノーラルエンコードの部分に対し変更を行いその精度がどの様に変化をしていくかを日々研究しているということだ。人それぞれに感じ方が異なるHRTFを用いたバイノーラル技術、それを磨き上げることは非常に困難な作業と感じられる。実際に体験させてもらったViReal for Headphonesは、あくまでもバイノーラル体験なので個人的な感覚となってしまうことは予め断っておくが、上下の感覚、そして音源との距離感を感じる非常に精度の高さを感じさせる仕上がりとなっていた。
(左上)バイノーラル再生:HRTF (Head Related Transfer Function)を用いたヘッドホン再生。(右上)Shape-based Average HRTF
(下)HRTFの特徴となる帯域の特性補正による音質改善・定位強調 ● 定位と音質のトレードオフ ● 使用するコンテンツ・シーンに応じて最適チューニング
開発メンバーも個人ごとにHRTFを自分の3Dスキャンから簡単に生成できるようになれば、それこそが究極のバイノーラルとなるという概念は理解をしているが、あくまでもヘッドフォンでの再生を前提とすると、ヘッドフォン自体の装着具合によってもその音像は大きく異なったものになってしまうという事実にも直面している。皆さんも体験したことがあるかもしれないが、ヘッドフォンを掛けるたびに起こるちょっとした緩みや軸のずれなどで、その周波数バランスやステレオ感は大きく変化してしまう。これがバイノーラル再生でも同じように生じるということだ。完璧と思われるプライベートHRTFを用いたとしてもヘッドフォンの特性や、装着の具合によりその効果が全く発揮できないことになるかもしれない、その部分についてもViRealは汎用性に注力し独自のHRTFにチューニングを重ねているということだ。
そして現状のViReal関連技術で唯一の製品化が行われているのがこのViReal for Headphonesである。その高性能なバイノーラル技術に目を付けたカプコンが「モンスターハンター:ワールド」で実装、ヘッドフォン出力に対してViReal for Headphonesの技術を用いているということだ。その実装に際して、エフェクトとしてのリアリティーを重視した独自のチューニングが行われている。この様に単純に物理特性を追い求めるだけではなく、エンターテイメントとしての要素にも応えることの出来る余地を残した技術であるということだ。これが別の内容のゲームタイトルであれば、また違ったアプローチがあったのではないかという言葉も印象的であった。
ViReal Tools/HOAだけではない広い汎用性を
このViReal Toolsというカテゴリはソフトウェア群を指しているということだ。HOA用のエンコーダ、デコーダから、制作向けのプラグインまで様々な製品への活用が想定され開発が進められている。ViReal for Headphonesの技術を搭載したVSTプラグインや、ゲームへの実装のためのWwiseプラグインなどがその代表として挙げられる。これらは具体的に開発がかなり進んでいるということだ。
これらのツールはHOAをベースとした技術に特化したものではなく、広い汎用性を持ったアプリケーションとして開発が進んでいる。オブジェクトベースやチャンネルベースの音源は、一旦HOAに変換してからバイノーラルプロセスを踏むのではなく、直接バイノーラルプロセスへと送られ、オブジェクト、チャンネルといったフォーマットにとらわれることなく、すべてをバイノーラル音声として出力するようになっているということだ。そのためにオブジェクトベース、チャンネルベースそれぞれにバスを持たせ、制作手法に対して柔軟な使い勝手を持ったバイノーラルプロセッサーとしている。現時点ではViRealとしてのオブジェクトベースのツールも研究したいという考えもあるということだ、純国産のオールマイティーな3Dサウンドツールの誕生を楽しみに待ちたい。
最終目標は上記のようにどのようなフォーマットの音源が入力されてもという目標はあるが、ViReal for Headphones(VSTプラグイン)はチャンネルベースの入力を持ったものが先行して登場するのではないかということだ。そして制作ツールとしてXYZ軸のパンニングだけではなく、距離、3D空間内でのローテーションなど様々なツールを作っていくという想定もある。最終的な出力段にバイノーラライザーが入るバイノーラル再生環境、HOAエンコーダー、デコーダーとツールが共通の要素技術から作られ、さらにはヤマハやそれ以外のAVアンプ、音楽プレーヤー等のAppへとまさに制作環境で聴いているものがダイレクトに届けられる。ViRealの研究がそのようなビジョンを描ける一連の研究開発であるとあらためて感じた。取材冒頭でもあったのだが、入口から出口までの技術を一気通貫で作れるだけのパワーがヤマハにはあるという言葉があらためて思い返される。
トータルの立体音響技術であるViReal。現在進められている技術が具体的にどのポジションでの活用が考えられてものなのか、それらをワークフローに当てはめたのがこの図となる。入口から出口、そして制作用のツールと、まさにトータルにViReal技術がフォローしていることが分かる。
最後に、ViReal開発チームの皆さんに自分たちの作っているこのViRealがどのような形で活用されたら良いですか?という質問を投げかけると様々な視点の回答を得ることが出来た。一つは究極の高音質=高再現性を持ったサウンドを後世に残したいという意見。例えばオリンピックなどの世界的なイベントを8K等の高解像度の映像で残すという試みは行われているが、まさに空気感ともなるそのサウンドを残そうという取り組みはほとんど行われていない。サウンドの捉えられる空間というものをしっかりとアピールしてアーカイブする、ある種の使命感をも感じる未来像だ。
一方で挙げられたのはコンテンツ制作に活かしていって欲しいというコメント。ViRealはプラットフォームに偏らない高い再現性を持つバイノーラル技術である。制作ツールを充実させることで、現場とエンドユーザーの差異をなくすことの出来る技術でもあるということをこれからドンドンアピールしたい、そんな力強いメッセージも飛び出した。様々な機会でこのヤマハ ViRealという文字を目にすることも多くなるのではないだろうか、その際にはこの空間をキャプチャーする要素技術の結実を是非とも体験していただきたい。
*ViReal(バイリアル)は、ヤマハ株式会社の登録商標です。
*Danteは、Audinate Pty Ltdの商標です。
*Wwiseは、Audiokinetic Inc.の商標です。
*その他の文中の商品名、社名等はヤマハ株式会社や各社の
商標または登録商標です。
*ProceedMagazine 2018Spring号より転載
Tech
2018/09/04
VoIPはSMPTE ST-2110へ、そしてCloudワークフローはSaaSへ。 ~NAB 2018から近未来のトレンドを知る~
最新の技術、製品が集結するNAB 2018。会場における今年のキーワードはIPとCloudに集約される。SMPTE ST-2110がリリースされて初のNABとなる今回、その互換性を謳う多数のメーカーがIP SHOWCASEに集結し過去最大規模の展示が行われた。そして、制作系メーカーの集うSouth HallはCloudを活用したサービスが目白押し。国内ではまだまだ目にすることが少ないCloudを活用したワークフローだが、現地での展示はすでに2周目とも言える状況に突入していると感じさせる。注目の新製品、そしてキーワードとなるIP、CloudからRock oN独自のニッチな視点でピックアップした注目プロダクトを取り上げる。
世界中の放送関係者が注目するNAB
アメリカ・ラスベガスで毎年4月に開催されるNAB SHOW。NAB = National Association of Broadcastということからも分かるように放送業界の一大イベント。次世代の放送規格、ファシリティー、最新技術などが展示会場だけで18万平方メートルという広大な会場に展開されている。これがどれくらいの広さかというと、幕張メッセが北の8~11ホールまで全部入れても7.2万平方メートルとなるため、ほぼその2.5倍の面積。なんと東京ドーム約4個分という広さ。その巨大な展示場に1700以上の出展者が集い、毎年4日間の会期に訪れる来場者数は10万人以上。個別のセッションも200以上が行われ活発な情報交換が行われる。
OTTが台頭してきている昨今、Broadcastのあり方自体が変質を始めているいま。その空気をいち早く、そして強く感じることができるのがNAB SHOWだ。世界の動向から何が求められているのか?どのようなワークフロー、そしてビジネスが展開されているのか?Network上の配信となるOTTは国境を超えて世界中に向けたコンテンツ発信をしており、制作のあり方もドメスティックなものから確実に変質を進めている。まさしくフロンティアを切り拓くための様々なヒントを機器、制作ワークフローから見ていきたい。
Full Line up発表に。多様性を得たAvid S6L
VENUE時代よりライブサウンドの現場で活躍を続け、S6Lへと進化したあとも揺るぎない評価を得ていたAvid S6Lシリーズ。S6Lへと世代交代をしたことで大規模システム向けの製品のみとなり、従来のVENUEに用意されていたSC24グレードの中規模システムが熱望されていた。実際のところS3LとS6Lの間を埋める製品は存在していなかったのだが、NABの直前に連続して開催されているAVID Connect 2018で発表となったS6Lのコンパクトなラインナップは、まさにユーザーが待ち焦がれていた製品。コストを押さえ小規模なシステムにも対応可能なE6Lのミニマムモデル、各モジュールのディスプレイを廃止しコンパクトかつ低コストに設計されたS6L-16SC、S6L-24SC。コンパクトなStage Rackとして利用可能なStage 32とLocal I/Oとして活躍の場が考えられるLocal 8。すでにS6Lを所有しているユーザーであれば、コンソール、エンジン、I/Oと買い足すことで、現場に合わせて組合せは自由。
組合せが自由ということはプリセットデータの互換性も確保されているということ。I/Oのパッチを打ち直すだけで、規模感に合わせて柔軟な運用ができるということになる。そして、コストをおさえたシステムにおいてもS6Lの持てるパワーを十分に活用することができるのが今回のポイント。Pro Toolsと互換性のあるプラグインの活用、柔軟なシグナルルーティング、二重化された安定性の高いシステム、世界中の大規模コンサート、ツアー、フェスで鍛え上げられたS6Lが幅広い運用の可能性、多様性を持って生まれ変わる。
Cloudの活用は、制作の効率化に直結
Amazon Web Serviceのブース。Cloud Serviceのコアとなるサービスを展開する同社、パートナー企業がスタンドブースで様々なソリューションを提案していた。
Coludの活用と聞いて、どのようなワークフローを想像するだろうか?Dropboxに代表されるようなファイルの共有だろうか?もちろんこれもCLoud Storageという一つの技術である。しかし、世界はSaaS = Software as a Serviceへと大きく向かっている。ソフトウェア自体をCloud上で動かしてしまおう、そのようなシステム開発が最先端技術として次々と誕生しているわけだ。制作の分野においてもこれに違わず、例えばSaaSによりCloudへUploadされたデータは、編集用にTranscodeされたりProxyが生成されたりする。On Premiseのソフトウェアが行なっていた作業と同じことをCloud上で行なってしまおうということだ。
それらのServiceを管理運用するためのツールとしてAvidはAVID|On Demandの開発を進め、すでに稼働しているものとしてはtelestream社のVantageなど、様々なSoftwareが存在する。そしてサービスを提供するアプリケーションメーカーもCloud上で動作するということを積極的にアピールしているのが非常に印象的。そして、AWS = Amazon Web Service、Microsoft Azureと言ったCloud Computingを支える企業も大きなブースを出展している。これは、昨年のInterBEEでも見られた現象で、今後AvidのようにMicrosoftとの強いパートナーシップをアピールしている企業はもちろんPaaS(Platform as a Service)への展開も考えているのではないだろうか。そのMicrosoftの推し進めるAzureは、まさに次世代のWindowsとして開発が進められているサービスであると言えよう。PlatformメーカーであるMicrosoftにとってPaaSへと変貌を遂げた世界でもその中心にいるということは、まさに死活問題であると言えるからだ。MAM、PAMのソフトウェアを開発しているメーカーも同じだ。これまでのOn Premiseでのサービスが、SaaSに移行することでユーザーが再度サービスの選択の機会を得ることとなる。そこでより優れたサービスを提供できなければユーザーが離れてしまうということに直結する。
SONYもWorkflowの紹介としてOn PremiseとCloudのインテグレーションで実現できるソリューションを展開。
SaaSの最大のメリットはOn Premiseで問題となるハードウェア・メンテナンスから解放されること。そして、サービス自体をCloud上で複数のユーザーが共有するのであれば、ソフトウェアメンテナンスは提供するメーカー側が一手に引き受けることとなる。分かりやすく言えば、Cloud Serviceの動いているサーバー上のソフトウェアを更新すれば、そのサービスを受けるすべてのユーザーのソフトウェア・サービスがアップデートされるということだ。各クライアントマシンに一つづつアップデートパッチを当てて回る必要は無くなる。この様なSaaSはいま映像編集分野で目覚ましい進化を遂げている。すでにクライアント側でMAMサービスによりブラウズした素材を共有、コメントの添付、レーティングの付与、そして、簡易編集までがサービスとして存在している。On Premiseで実現できていたサービスは、基本的にはI/Oの変更でSaaS対応のソフトウェアへと変貌できる可能性を持っている。
Cloudによる効率化は、すでに皆さんが使用しているスマホ向けサービスで実感済みではないだろうか。意識せずともCloud経由で何かしらのデータをPCや他のスマホと共有したりしているはずである。同様にSaaSにより提供されるサービスもすでに身近に存在してる。例えば、メールの迷惑メールフィルターやGoogleなどにより提供される各種サービス、さらに言えば検索エンジン等はデータベースはCloud上にあるということを考えれば立派なSaaSである。例えば、日々の制作作業におけるツールが、これらの便利に日常で使っているツールのように形を変えたらどのような未来を皆さんは描くだろう?
Cloud上で簡易編集をしたものはもちろん共有可能。編集を行う方もどこにいても作業可能。クライアントへの確認作業もネットワークに接続できる環境さえあれば、どこからでも確認することが出来るようになる。しかも、特別なアプリケーションを使うのではなくブラウザからパスワードを入力して、そのサービスへどこからでもアクセスできるようにするのが現在のトレンドである。ポストプロダクションの本当の働き方改革はこの様なサービスが実現して初めて本来の姿が見えるようになるのではないだろうか。このように編集したデータはEDL、XMLなど汎用性を持ったデータでポストプロダクションのシステムへ展開が可能。現在のサービスでは最終的な編集作業をポストプロで行うという部分はSaaSへ移行できていない。しかし、各社この部分もCloud化しようという動きを積極的に進めている。フル機能のNLEがCloud上で動作する日はそう遠くないのかもしれない。
需要の高いAMAZON S3サービス100%互換を謳うWASABI。低コストで同等のサービスが得られるという提案を行う新しい会社。
従来よりCloudへと舵を切っているAVIDは、AVID On Demandという新しいトータルソリューションのネーミングを発表。これまでのCloudソリューションの拡充に力を入れている。
ユーザー同士をつなぎ合わせる様々なサービスを提供するsohonet。FTP,VPNなど既存のサービスをセキュアにコラボレーターに提供する。ミニマムなCloudサービスの提案。
On Premiseの作業はなくならない?
制作作業において、セキュリティーの問題は非常にプライオリティーの高いもの。そのため、Cloudが主流だといってもセキュリティー上で有利なOn Premiseにこだわる、ということは当たり前のように行われている。その一方でOn PremiseでのサービスとCloud上でのサービスを統合するような技術の開発も積極的に進められている、ユーザーはデータが自社内のサーバーにあるのか、クラウド上にあるのかを意識することなく作業が行える環境を提供しようということだ。ストレージにおいては、速度=Bandwithに応じてTeirを区別しデータを管理するツール、そしてそのような機能を統合したサーバー製品が登場し始めている。他にもアクセス頻度などによ り、自動的にCloudとOn Premiseのデータを管理する事ができるシステムも登場している。やはり、ネットワークが高速になっているとはいえ4Kや8kと言った巨大なデータをハンドリングすることは難しいのだが、頻度の低いデータがCloudに格納されるということは、バックアップも基本的には必要ないということになり、このような仕組みはこれからも発展していくものと思われる。そして、Cloudデータを取扱うデータセンターは、何重にも渡るセキュリティーとデータセキュアの対策が行われている。これは、On Premiseでは到底真似することの出来ないものであると言えるだろう。
VoIP規格SMPTE ST-2110は次世代のスタンダードとなるべく着実に進化
開発の年表。中央の赤いラインがNAB 2018時点。ST-2110はまさに生まれたての規格だが、すでに次のST-2110 nn+と呼ばれる圧縮コーデックを実装する準備が進んでいることがわかる。
2017年9月に策定されたSMPTE ST-2110は業界にとって非常に大きなニュースとなっている。IBC 2017直後というタイミングではST-2110 Readyだった各メーカーが、このNAB2018ではIP SHOWCASEで実機をお互いに接続して展示、早くも規格への対応を果たし動作をしっかりと実証していたのが印象的であった。これまでのベースバンドであったST-2022から一歩踏み込み、オーディオ部分がAES67コンパチブルとなったST-2110。次のステップは圧縮映像の伝送ということで、非常に現実感を持った、従来のHD-SDIを置き換えるソリューションとして注目度も高く展開されていた。
ST-2110の導入により得られるメリットは多い。信号の分配器は必要なくなり、システム自体の二重化、1本のケーブルでの双方向通信、コントロール信号のやり取り、メタとして埋め込まれるカメラ情報など、映像と音声を同時に送れるということだけにとどまらない革新的なテクノロジーが詰まっている。映像、音声といった垣根を超えたシステムアップ、距離延長も光変換によりkmオーダーまで柔軟に対応と、まさに隙のない次世代の回線規格として練り込まれた格好だ。NAB 2018の会場では、ST-2110対応の各ブースにPOPが立ち、VoIP対応のアピールを行なっていた。感覚的にはハードウェア系メーカーの半分以上がこの規格へ対応を表明していたのではないだろうか。Junger、LAWOといったメーカーからはシグナルのステータスを確認できるモニタリングシステムが提案されたりと、すでに運用フェーズへ入っていることを感じさせる機器展示も見受けられる。2018年後半〜来年には、国内でもST-2110で組まれたシステムが登場するのではないだろうか。
AES67とST-2110両方に対応するメーカーは、この用意一覧として展示が行われていた。オーディオのメーカーだけではなく、映像のメーカーも散見されるのが特徴的。
ST-2110の音声部分であるAES67との相互関係。AES67のベーシック部分に、オプションとして記述されている部分を加えた部分をST-2110は包括している。
信号の安全性に関しても、積極的なアピールが展開。実際にケーブルを抜いても信号が途切れないという実機展示が行われていた。
音声、映像の同時送信ということで、そのアライメントに関してもシステムとして自動的に適正に補正する機能が備わっている。
音声同士に関しても同様にPTPを元に自動的に補正を加えるというテクノロジーが搭載されているためアライメントは問題にならない。
Cloud、SMPTE ST-2110とIT系の技術が制作系のソリューションの花形。まさに第4次産業革命が花開いていると言えるNAB 2018。アプリケーションが多いために、ハードウェアの展示が少なくなり、時代の移り変わりを強く感じる展示会であった。全てのシステムがNetworkで接続され、ベースバンドの伝送方法が、次の世代へと変わることを感じた。ワークフローも、効率化を求めるとCLoudを活用したソリューションへと向かう。On Premise、Cloud共に、派手な革新的な製品というよりはこれまでのソリューションをどの様に置き換えていくのか、着実に進化を遂げていることを感じる。今行なっている作業が共有できるとしたらどれほどの利便性、効率性を獲得できるのだろうか。ワークフローは未来へと着実に進んでいる。
*ProceedMagazine2018Spring号より転載
Tech
2018/09/04
Fraunhofer / MPEG-H~4K放送時代を担う、次世代オーディオコーデック~
昨年春、韓国ではATSC 3.0を採用した4K地上波でMPEG-H採用の音声がオンエア開始された。対応テレビも発売され、オリンピックという節目と歩調を合わすように4K放送時代の新しいフェーズが始まった格好だ。最大16trackのオーディオデータをパッケージするMPEG-H LC profile Level 3だが、世界各国で始まろうとしているその活用はどのような状況にあるのだろうか。本記事ではパーソナライズ、イマーシブというキーワードを携えてコンテンツに多様な柔軟性を与えるであろうMPEG-Hのいまを取り上げる。
ヨーロッパ最大の応用研究機関Fraunhofer
本記事のメインテーマとなるMPEG-Hを取り上げるにあたり、まずはその開発元であるFraunhoferについてを紹介していきたい。Fraunhoferはドイツに拠点を置くヨーロッパ最大の研究機関であり、ドイツ連邦政府からの資金を受けて社会に役立てるための実用的な応用研究開発を行っている。研究対象が実用技術の開発に特化しているため、民間企業から依頼される委託研究の比率が高く、一般的に考えられる研究所とは趣きが異なるようだ。Fraunhoferには、およそ25000名以上のスタッフが在籍していて、そのほとんどが研究者。その総研究開発費は23億ユーロにも及び、そのうち19億ユーロが先のように企業からの研究依頼費によってまかなわれている。この事実からもFraunhoferの技術開発がいかに民間企業を通じて実際の社会で活用されているか、端的に言えばビジネスとしても成立する応用技術を生み出しているか、ということがわかる。また、ドイツではFraunhoferとは別に要素技術の開発を専門とする機関も存在している。昨今盛んに産学連携ということが言われているが、Fraunhoferはその先鞭を付けた先駆者であり成功者でもある。
Fraunhoferはドイツ国内に72もの研究所を持つ。これらの研究所は基本的にはそれぞれが独自の研究を行なっている。研究分野は多岐にわたり、ライフサイエンスから、ナノテク、材料、防衛技術までほぼすべての分野を網羅していると言ってもよい内容だ。もともとの起こりは別々にあった研究所がFraunhoferの旗のもとに集まって現在72拠点という巨大研究機関に成長していった。そして今回ご紹介するMPEG-Hの研究を行なっているのがFraunhofer IIS(集積回路研究所)であり、そのAudio Businessグループがこの研究にあたっている。
パーソナライズとイマーシブ、MPEG-Hのキーワード
このFraunhofer IISの成果として一番身近なものは、なんといってもmp3であろう。すでに配信用のオーディオコーデックとしては定番中の定番。使ったことのない方はいないのではないかというコーデックとなる。それ以外にAACもこの研究所発信の技術。そして次世代のオーディオコーデックとして登場したのがMPEG-Hとなる。すでにmp3、AACを搭載した機器は100億台以上が出荷されているということだ。この技術の系譜を持つMPEG-Hも高い汎用性を持ち、次世代を担うコーデックとして開発が行われている。プレゼン資料の冒頭にある「The New Standard for Parsonalized and Immerrsive Audio」という言葉が、MPEG-Hの全貌を表している。パーソナライズ、そしてイマーシブ。今後ユーザーの要望が高まると考えられる2つのキーワードをフォローした新しいコーデックであるからだ。
MPEG-Hはパーソナライズと、イマーシブという2つの特徴を併せ持つ。ここではそれぞれに対して個別に話を進めていく。この2つの要素は、密接な関係を持ちながら、ソース、ニーズなど様々な要素により柔軟に形を変えて運用が可能となるように考えられ作り上げられている。その2つの要素を実現するため、現状のMPEG-H LC profile Level 3では最大16trackのオーディオデータをパッケージとして準備する。そのうち1つのトラックはメタデータとなり、実使用可能なオーディオは15trackとなる。そこに入れることのできるデータは従来と同様のチャンネルベース・オーディオ(ステレオ、5.1ch等)、オブジェクト・オーディオ、シーンベース・オーディオ(HOA)を収めることができる。その組合せは自由であり今後チャンネル数の拡張も予定されている。これは、インフラに併せて変化することになるということだ。
チャンネル、オブジェクト、シーンすべてを取り扱えるということでインタラクティブな活用=パーソナライズも、イマーシブな活用(オブジェクト、HOA)も、さらにどの様なデバイスであっても、視聴環境に何本のスピーカーがあるかといった環境の違いにも柔軟に対応が可能なように作られている。やはりこれまで、市場の中心となるコーデックを開発してきたR&D能力の高さをここに感じずにはいられない。出来うる限り汎用性を高く確保し、どのようなケースにおいてもユーザーが楽しむことを前提にした技術。これこそがFraunhoferの真骨頂と言えるだろう。
パーソナライズされたMPEG-Hの活用法
それでは、実例に沿ってこのMPEG-Hの活用例を確認していきたい。パーソナライズという面では、すでに韓国でATSC 3.0を採用した4K地上波で運用が始まっている。放送におけるパーソナライズはどのようなものかというと、例えばスポーツ中継でアナウンサーの声を大きく聴く(Dialogue Enhancement)、消す、多言語で試聴をする、といったことを実現する。TVの視聴者が電波で送られてきたオーディオのバランスを調整できるということだ。
これを実現するのがオブジェクト・オーディオとなる。これまでにご紹介してきたオブジェクト・オーデイオは、位置情報を持ったオーディオでしたが、MPEG-Hではこれに加えて、例えば多言語放送であれば、オブジェクト・オーディオそれぞれに「何の言語か」という情報をメタとして持たせ、ユーザーがそれを選択できるようにしている。オブジェクト・オーディオへ位置情報を付加する代わりに、どの様なコンテンツが格納されているか?というメタデータを持たせるわけだ。ベースとなるチャンネルベースの音声に対しても、バランスの変更やチャンネルの排他選択、またデフォルトのバランスはどのようなものかをプリセットとして送出する。さらに例をあげれば、別プリセットとして言葉の聴こえやすいバランスをDialogue Enhancementとしてプリセット作成するなど、多様な活用方法が行えるようになっている。
これらの選択画面は、TV側でメタデータトラックから得た情報により表示を行なっている。そして拡張メニューで個別のオブジェクトトラックを自由にバランスすることも出来るような仕様になっている。一般のユーザーが普通に使う分にはプリセットを切り替えるだけの簡易な操作で、こだわっての音声を楽しみたいユーザーはオブジェクト・トラックごとのバランスを自由に取ることができる。まさにインタラクティブであり、パーソナライズされた次世代のTV音声技術であるということが分かる。
柔軟性を高く持たせたイマーシブ対応
そして、もう一つのキーワードとなるイマーシブ対応だが、MPEG-Hのオブジェクトトラックは位置情報を持ち、3D空間に自由に定位させることのできるオブジェクト・オーディオとして設定することも可能である。HOA=Higher Order Ambisonicsとの組合せも、チャンネルベースのベッド・トラックとの組合せも自由。現時点では16track(実質15track)というチャンネル制限はあるが、今後拡張されることで柔軟な運用、そして制作フォーマットにとらわれない汎用性の高いコーデックとなるだろう。スピーカー配置も多くのプリセットを持つということで、この部分に関しても柔軟性を高く持たせており汎用性の確保に苦心がみられる。
NAB2018ではFraunhoferブースにサウンドバーのリファレンスモデルが展示され、イマーシブ・オーディオ再生の最大の障壁となるスピーカー配置に対しての回答も用意されていた。テレビの手前にサウンドバーを設置することでイマーシブ・オーディオの再現が行えるシステムはこれまでにもあったが、さすがはFraunhoferと唸らせる非常にきれいな広がりを持つサラウンド空間が再現され、しかも視聴エリアの拡張に注力したというコメント通りスイートスポットを離れた際でも十分なサラウンド方向からのサウンドを体感することができた。Fraunhoferでは製品としてのサウンドバーを製造するつもりはなく、あくまでもリファレンス・デザインを提示してメーカーにその技術を利用した製品を設計製造をしてもらいたいということ。残念ながらサウンドを聴くことは出来なかったが、NAB2018の会場にはSENNHEISERが作ったサウンドバーのプロトタイプも持ち込まれていた。
各社でも製品化対応が進んでいる
このようにMPEG-Hは非常に多岐にわたる次世代のコンテンツを網羅した技術である。それでは、そのMPEG-Hの制作方法はどのようになっているのだろうか?パーソナライズをターゲットとしたBroadcast Systemではリアルタイムにメタデータを生成する必要がある。すでにSDI Embeded Audio信号に対してリアルタイムにメタデータを付加する製品が数社から登場している。その代表がFraunhoferと同じドイツメーカーで、シグナルプロセッサーを多数製品化するJunger Audioの製品。ここでメタデータを付加したSDI信号は、送出段でMPEG-TSへと変換され電波として送り出される。そのメタデータはGUI上で分かりやすく設定が行なうことができ、すでに運用の始まっている規格であるということを感じさせるものだ。
もう一つのイマーシブ対応に関しては、プロダクションを前提としたシステムとなる。さすがにライブプロダクションでのイマーシブサウンドは固定したフォーマットであれば可能だが、作り込みを前提とすればプロダクションシステムということになる。すでにPro Tools上で動作するNEW AUDIO TECHNOLOGY社のSPATIAL AUDIO DESIGNER=SADというプラグインからMPEG-Hのメタデータが出力可能というデモンストレーションが行われている。現時点ではHP上にMPEG-H対応の文字が見られないためベータ版と思われるが、着実にプロダクションシステムも完成に近づいていることがわかる。SAD上にOffline Export Toolが用意されメタデータ込みのMulti-Channel WAV、もしくはメタデータのみの書き出しが可能となっている。このようにして書き出したWAVとVideo Fileをマージすることで完パケデータが作成できる。ファイルの動画コンテナとしては.mp4が使われ、送出段としてはMPEG-TSとなる。これらも、現状のシステムファシリティーを有効活用できるように変更を最低限とした結果と考えられる。
マルチリンガルコンテンツのMPEG-Hのメタデータ設定の一例、このようにオブジェクトを活用する。
ATSC 3.0そしてDVBという放送規格を策定する団体での採用も決まり、韓国では2017年5月31日よりMPEG-H採用の音声が地上波でオンエアされている。2018年Winter Olympic Gameでも韓国国内ではMPEG-Hでの放送が行われたということ。市販のTVもLG、SAMSUNGの2社からMPEG-H対応TVもすでにリリースされている。ATSC諸国(北米及び韓国)DVB諸国(ヨーロッパ、中東、アジア)の各国がMPEG-Hを採用していくのか今後の動向は注目となる。すでに実運用を開始した国があるということは、その普及に向けた大きなステップになっているはず、4K放送にまつわるニュースでも今後MPEG-Hという文字が盛んに取り上げられるに違いない。
この記事を執筆にあたりお話を伺った、フラウンホーファーIIS, 日本代表 ナワビ・ファヒム (Fahim Nawabi)氏
*ProceedMagazine2018Spring号より転載
Tech
2018/09/04
ゼロから飛び込むVR音響世界~VRとは一体何者なのか!?~
ゼロから飛び込むVR音響世界、VRの音響に関して話を進める前に、まずはVRとは一体どういったものなのか?VRを取り巻く現状、そしてそれぞれに異なる進化を始める各分野、そういった周辺の情報も含めた、いま置かれているVRコンテンツ制作の現状を振り返りそれぞれに対してのアプローチを掘り下げていきたい。
VRはいま黎明期を脱しようとしている
まず話をしておきたいのは、仕事としてのVR制作の現状はどのような状況にあるのか?という点。VRという言葉を非常に多く目にする今日このごろだが、皆さんの周りにどれくらいVRの音響制作をしたという方がいるだろうか?全体の市場の盛り上がりに対して音響市場はどうなっているのだろうか?これらは感覚的なものではあるが、そこに温度差を感じている方は多いのではないだろうか?
実際の世界規模におけるVR関連市場の統計と今後の予測だが、2016年のVR市場は$1.8B=18億ドル、日本円にしたら2000億円強といったところだろうか。2017年は$3.7B=37億ドル=4000億円強と倍増、2018年には$9.0B、2019年、2020年と倍増を続けるという見通しもある。そして、現時点ではハードウェアの伸びに対してソフトウェアが大きく伸びているという特徴がある、つまりこれまでの市場はハードウェア先行でコンテンツ制作はこれからというのが実情のようだ。そう考えると、街中でVRという文字を多く見かけても、コンテンツ制作としてのVR音響はまだ一般的な実感を伴っていない初期段階にあるのかもしれない。
しかし、黎明期よりソフトウェアの制作を行なってきたクリエイターたちにとっては、まさに今年は第2フェーズへと移行していく年とも言える。2017年には売上額が1億円を超えたソフトウェア・タイトルが10作品以上誕生し、アカデミー賞でも特別業績賞がVR短編作品の監督に贈られたりとソフトウェア制作の市場もしっかりとした足跡を残し始めている。この一方でベンチャー的に制作を行なってきた会社からスピンアウトして2歩目を踏みだした制作者が、今年さらなる成果を上げるのではないかと言われている。試行錯誤を続け、VRにおけるコンテンツのあり方というものを手探りしてきた段階から、ある一定のメソッドを見出しさらに新しいことへの挑戦が始まっている。実験的な段階から、応用段階へとフェーズが移行しているのが現時点だ。
我々を取り巻く環境を見ても、VRの視聴環境はPS VRをはじめ非常に身近なものとして興味さえあればすぐに手に入れられる状況となっている。VR元年と言われた2016年には、一部のガジェット好きのおもちゃであったVRが一般ユーザーにも受け入れられる製品になってきていることは皆さんも感じているのではないだろうか?VRを活用したアミューズメント施設が各地に作られ、新しい刺激的な体験を提供することに成功している。Amazon / IKEAなどではARを活用した新しいショッピングの提案が行われたりもしている。そして、AppleはiOSのアップデートでAR Kitと呼ばれるAR支援機能を実装してきている。開発環境、視聴環境、それらが一般的なものとしてどんどんと身近なものになってきているのは間違いのないことだ。
Cinematic VR / Intaractive VR
「VR」と一口に言われているものも、その実態は様々である。ここではその分類をしっかりと行なっていきたい。
まずは、VR=Virtual Reality。これはその名の通りユーザーを仮想現実空間にいざなうもの。VRゴーグルを装着し、全天周映像の中へと飛び込むFull-Diveと言われるものだ。映像作品であればその物語のストーリーの中へ飛び込み、登場人物(キャラクター)と時間を共有するようなコンテンツが作られる。もう一つVRが非常に大きな広がりを見せている分野がゲームである。ゲームはそもそもが仮想の世界。その中でユーザーはキャラクターを操作して楽しむもの。その仮想の世界へ没入させることができるVRはまさにゲーム向きのシステムであるとも言える。キャラクターの目線(一人称視点)で仮想世界を旅する、ゲーム開発者が一つの到達点としていた世界観を実現できるデバイスとなる。
VRで知っておきたいのが、映像作品としてのVRとゲームにおけるVRは全く制作手法が異なるということだ。映像作品は、Cinematic VRと呼ばれ、当たり前だがユーザーがプレイボタンを押した瞬間から時間軸は強制的に進行して行く。まさにVR世界に飛び込んだユーザーがその時間軸を映像の中で共有していくということになる。一方のゲームは、ユーザーが操作をしなければ何も起こらない。ユーザーのトリガーによってストーリーは進行していくこととなる。ゲームはIntaractive(インタラクティブ) VRと呼ばれる分野だ。CInematic VRは従来の映像コンテンツの制作手法の延長線上にあるが、Intaractive VRはゲーム制作の延長線上にあるコンテンツということになる。
これまでにも様々な実験的な作品が作られてきている。特にCinematic VRの分野は新しい映像表現ということで注目を集めて数々の試みが行われ、どのような世界へユーザーをいざない、どのような体験をさせることで魅力的なコンテンツとなるのか?ということが試されてきている。その試みの中で、従来のストーリーボード、絵コンテは通用しないということがはっきりと分かっている。なぜなら、Cinematic VRではユーザーがどちらを向くのかわからないからだ。
従来の映像コンテンツは見せたいもの、見てもらいたいものをクローズアップしたり、様々な手法によって固定された画面に見せたいものだけを映すことができた。そのカット編集により、ストーリーを効果的に展開することもできる。Cinematic VRではこれまでのような矢継ぎ早のカット切替は没入感の阻害でしかなく、しかも全天周の映像の中では、見てもらいたいものを常に正面に置いても、ユーザーがそれを見ているとは限らない。ストーリーの展開に必要な出来事が視聴するユーザーの視界の外で起こってしまうかもしれないのだ。
そうなると全く新しい映像が必要となる。最近のCinematic VRのStory-tellingのプレゼンテーションで盛んに言われているのが「視聴者に体験をさせる」ということ。これまで物語を分かりやすく「見せる」ということが重視されてきたが、VRゴーグルを掛け、その世界へ没入してきたユーザーを観客ではなく登場人物の一人として扱うことが重要だという発想だ。さらには、ユーザーに孤独感を感じさせない演出も大切だとも言われている。意図的にそのコンテンツを視聴しているユーザーが孤独?これこそがイマーシブ=没入型コンテンツの核心に触れる部分だと感じているのだが、そのコンテンツの世界にFull-Diveしたユーザーはその世界の中の人物として周囲の登場人物と距離感を持つ。それが全く無視されたようなコンテンツでは、せっかく没入しているユーザーがただの観客となり、疎外感を感じ、コンテンツ自体に対しての興味を失ったりといったことが起こってしまう。
つまり、その世界に受け入れられることで更に没入感を高め、そこで起きている物語へ入り込めるのかどうか、ということだ。実写VRが難しいと言われているのはまさにこの部分。その空間で起こっていることを共有することは出来ても、よほど意図的にユーザーを引き込むような演出がなされない限り、ユーザーはただの観客になってしまい、シラけた疎外感に囚われてしまう。よほど美しい風景だとしても、半強制的に長回しで見せ続けられれば苦痛になる。Cinematicはインタラクティブではないため、場面の切り替わりはユーザーが意図的に行えるものではなく、時間の経過を待つしか無いためである。
片や、Intaractive VRは完全にこれまでのゲーム制作手法の延長線上にある。これまで表現しきれなかった部分、さらに没入感を高めたいと制作者があの手この手を使い工夫を凝らしてきた部分。それらが理想的な形でVR世界の中で表現される。もともと、ユーザーがどちらを向くのかわからない、どの様なタイミングでイベントが起こりストーリーが進行するのかわからない、プログラムされた世界の中でフラグを立ててそのすべてがユーザーの手によるトリガーに委ねられる。また、ゲーム制作者以外がIntaractive VRを作ろうとすると、ゲームを作る時と同じ作業を行わなければならないという事実にも直面する。具体的にはUnrealやUnityと呼ばれるゲームエンジンを利用することになるためだ。
さらに進むVR分野、AR / MR
次にAR=Augument Reality、拡張現実と呼ばれるもの。これは現実の世界にCGなどで実際に存在していないものを映し出す。Google GrassやEPSONのET-300シリーズなどがその代表、身近なところではポケモンGo!もARを使用した一般的な事例だ。ARはコンテンツ制作というところからは離れるものがほとんどだが、様々な分野ですでに実用が始まっている。例えば、工場のラインでARを使ったマニュアルを映し出しミスを防ぐ、IKEAでは家具をARで映し出し購入した後のインテリアの様子を表示させる、他にも道案内のラインを表示させたりなど、すでにその事例は数多い。AppleがiOSに実装したAR Kitはこれらのアプリケーション開発を促進するためのものだ。しかし、ARの分野は現実の世界ありきのものばかりなので、音響の入り込む余地はほぼないと言える。あったとしても警告音等の効果音止まりというのがほとんどである。
そして、いま最先端のVR分野とされるのがMR=Mixed Reality、複合現実と呼ばれるものだ。ぱっと見た目にはARと同じように感じるかもしれないが、現実世界へ単純に仮想物体をオーバーレイ表示するARとは違い、現実世界の物をベースに仮想世界を重ね合わせる。Microsoft HoloLensのプロモーションビデオを見るとそのイメージもよく伝わるのではないだろうか、ホログラムを現実世界に登場させる、ということだけではなくそれが現実世界とのインタラクティブな関係に成り立っていることが見てとれるはずだ。AR Glassと違い、MR Glassにはカメラがついていて周りの状況を認識している。その現実世界に合わせて仮想現実をオーバーレイしていく、さらにカメラでユーザーのジェスチャーを認識して操作を行ったりということも目指している。まさにアニメやSFの世界である。このMRはITのリーディングカンパニーであるMicrosoftが総力を上げて開発を進めている最先端技術の一つ。そして、その対抗馬と見られているのがStart Up(これまでにない技術を開発するベンチャー)として高い注目を集めているMagic Leap。この会社は開発構想のプレゼンですでに2000億円もの資金調達に成功し、製品のプロトタイプを発表している。MRはそのイメージプレゼンを見ると非常に未来的。実用的なものからインタラクティブなものまで様々な活用が想定されるMR、この分野では重ね合わせたMRの現実性を高めるためにサウンドも重要な要素となるだろう。
AmbisonicsによるVR音声の実現は身近にある
VRと一言でまとめても様々な分野に跨っているということを整理したところで、やはり導入編としては、コンテンツのクオリティー確保という意味では未だに高いハードルはあるCinematic VRから話を進めたい。Cinematic VRのいちばん身近な視聴環境はなんといってもYoutube VRとFacebook 360ではないだろうか?スマホを装着する簡易的なVRゴーグルでコンテンツを視聴できるため、まだVRを試したことがない方は是非ともVRがどの様な世界なのか体験をしていただきたい。
まずは、これらのコンテンツの映像部分に関して見ていきたい。音響制作をするにあたりどの様な映像に音声を付けていくのか?という要素は非常に重要なことである。Youtube VRもFacebook 360もEquirectangular(エクイレクタングラー)=正距円筒図法という方式で球体を平面に伸ばした動画を扱う。一見、世界地図でよく使われるメルカトル図法と似ているようだが、平面への引き伸ばし方法が異なるものだということを付け加えておく。大抵のVRカメラで撮影した動画は、カメラの内部でこのEquirectangular動画として記録されるか、付属のソフトウェア等でEquirectangularへと変換することが可能である。
音響制作としては、このEquirectangular動画にあわせてパンニングを行い音を配置していくこととなる。その配置された音をこのYoutube VR、Facebook 360の場合はAmbisonicsを呼ばれる音声フォーマットで書き出す、ともにVR再生時に試聴している向きに応じて追従する音声方式をAmbisonicsで実現しているわけだ。再現の正確性ということを考えればオブジェクト・オーディオで配置していきたいところだが、残念ながら現在それには対応していない。
1st Orderと呼ばれる最低限の方式となるが、たったの4chで全天球の音声を表現できるという点がAmbisonics音声の特徴。やはり4chということで、音像定位の正確性という部分に課題は残るものの、Internet Streamという制約の中での再生を考えればベストなチョイスということになるのだろう。Ambisonicsはチャンネル数を増やしたHOA=Higher Order Ambisoncisも作られ始めている。チャンネル数が増えることで定位の再現性が高まるが、チャンネル数も2nd Orderで9ch、3rd Orderで16チャンネルとそれなりのボリュームになってくる。
VRを実現するツール
Pro Tools 12.8.2以降に付属するFacebook 360 Spatial Workstationの各画面。
ここまではモノラルソースの音声をVR動画=Equirectangular動画に合わせる手法を説明しているが、具体的なツールとしては、Pro ToolsにAudioEase社の360Pan Suiteを導入するというのが一般的。Pro ToolsのVideo Window上にオーバーレイで音をどの位置にパンニングしているのかが確認できる360Pan Suiteは、非常に直感的に視覚情報を使いながらのパンニングを行うことができる。ちなみに360 Panをプラグインとして挟むと、モノラルトラックのアウトプットは1st Orderであれば4chのAmbisonicsとして出力される。この出力されたAmbisonicsは特殊なデータということではなく通常のPCM Audioデータであるため、Pro Tools内部で音量バランスを取りミキシングを行うことが可能だ。Pro Tools 12.8.2以降のバージョンであれば、Facebook 360 Spatial Workstationと呼ばれるプラグインが無償で付属する。Video Window上でパンニングの位置を確認することはできないが、特に追加コストをかけることなくAmbisonicsミキシングが行える環境は整っているということになる。
DAW内でのミキシングの話をしたが、もちろんマイクでのAmbisonics収録についてもソリューションが存在する。SENNHEISERのAMBEO VR MICがその筆頭。SENNHEISERはAMBEOというブランドでイマーシブ・オーディオに対してのソリューションのブランディングを行なっている。AMBEO VR MICはその中でAmbisonics収録用のマイクということになる。このマイクで収録した音声は4chの普通の音声データであり、Ambisonic 1st Order A-formatと呼ばれるもの。このマイク出力そのままのデータとなるA-formatをAMBEO A-B フォーマットコンバータという無償プラグインでX,Y,Z,Wという4チャンネルにしたB-Formatに変換し、前述の360 PanやFaceBook360 Spartial WorkstationといったB-formatを用いたプラグインやDAWで扱っていく。
Musikmesse 2018ではRODEからNT-SF1と呼ばれるAmbisonics収録用のマイクも登場している。フィールドでのレコーディング用のレコーダーもZOOM F4/F8にはレコーダー内部でB-formatへ変換する機能とヘッドフォンモニターを行う機能が追加されている。通常のレコーダーの場合、それぞれのマイクヘッドの出力を確認することはできるが、単純にSUMして聴いてしまうと訳がわからなくなってしまいノイズチェック程度しか行えないというのが現状であったため、ZOOMの機能追加はAmbisonics収録の際に非常に重宝するだろう。このように毎年行われている各メーカーの新製品発表において、Ambisonicsというキーワードは益々その存在感を大きくしている状況だ。
今回はVR音響世界へゼロから飛び込むということで、まずVRとはどのようなものなのかを中心に進めさせていただいた。単純にAmbisonicsのミキシングを行うということ自体はそれほど難しいことではない。しかしそれが効果的なミキシングであるかどうかということになると、まだまだ試行錯誤をしなければならないのが現状である。そのためには映像が抱えている課題を知ることが重要であるだけでなく、VRコンテンツがユーザーにとって面白い、楽しいと思われるためにはどのようなコンテンツにするべきなのか、そういったメソッドを学ぶ必要があるのではないだろうか。
*ProceedMagazine2018Spring号より転載
Tech
2018/02/23
SOYUZ Microphones 代表 David Arthur Brown氏 独占インタビュー!!
製造拠点をロシアに置き、ソ連時代に培われた伝統的で確かなハンドメイド技術を用いながら、オリジナルの新たなプロダクトを生み出しているSoyuz Microphones。過去に存在した名機のコピーとは全く異なるアプローチを、プロダクトとテクノロジーの両面に対して行えるのは、確かな実績を持つボーカリストでもある同社CEO、David Arthur Brown氏のアーティスティックな感性です。新製品SU-023発売を記念して、Brown氏来日の際に行われたインタビューを公開します。
◎Soyuz Microphonesについて〜Soyuzとは「同盟」を意味する
ROCK ON PRO(以下「R」):はじめまして。今回、来日、またインタビューを受けていただき、ありがとうございます。会社設立までのストーリーをお聞かせください。Soyuzu設立以前のお仕事、そこからどのように会社設立のアイデアを発展させて行ったのですか?
David Arthur Brown(以下「D」):Soyuz社設立以前から、現在まで私はシンガーとして仕事をしていて、ロシアで私の歌は好評でたくさんのコンサートを行っているんだ。ロシアにはソビエト連邦時代から培われてきた、長いテクノロジーの歴史があって、東西が競ってロケットを開発していたのと同じように、西側諸国と同時期にマイクロフォンに関しても研究開発が行われていた。そのため、ロシアには非常に優秀な科学者がいて、非常に高い技術/スキルを持ったひとびとがいる。しかし、プロダクト・デザインやマーケティング、品質管理といったことに関しては、残念ながら水準が高いとは言い難いというのが正直なところなんだ。
シンガーとしての仕事を通じて、ずっと感じていることがある。それは、スタジオにおいてベストなマイクは、ドイツやオーストリア、日本などで50年代や60年代に製造された「オールド」の真空管マイクだということ。その内のいくつかは近年でも「コピー」モデルが販売されているけれど、それらは昔と同じ方法で製造されているわけではない。たとえオールドのマイクをコピーしていたとしても、新しい製品はコンピューター・テクノロジーを使用して製造されているんだ。そこで私は思いついたんだ。もし、誰かが新しいマイクをデザインして、それを昔ながらの製法…ロシアのテクノロジーやロシアの科学者たちとともに製造することができたら…、もしかしたら私が愛するクラシック・マイクたちと同じくらい良いマイクが生まれるのではないか、と。それも、昔のモデルのコピーではなく、それらと同等のクオリティを持ったまったく新しいモデルがね。
そのため、私の計画はカプセルや無線技術のエキスパート、ソビエト時代の研究者たちを探すことから始まったんだ。そして、アメリカ人である私がデザイン、マーケティング、クオリティ・コントロールといった部分を担当する。Soyuz というのは、ロシア語で「連合」あるいは「同盟」を意味する言葉なんだ。つまり、この会社名が表しているのはロシアとアメリカの連携そのもの、どちらか一方だけでは生み出せないサムシングを生み出すために共に歩むということなんだ。
R:これまであなたが感銘を受けたマイクにはどのようなものがあるのでしょう?
D:それはそれはたくさんあるよ。あらゆるクラシック・マイクから感銘を受けている。U-67、Telefunken 251とか…、AKG C12は、あまりタイプではないかな。スモールマイクなら、KM84、KM54、数え上げればきりがない。でも、どれもこれもオールド・マイクだ。オールド…つまり、多くのものがすでに壊れているということだよ。たとえば、KM84を集めてテストをしたことがある。5本のKM84を繰り返しテストしたことがあるのだけど、そのうちの1本はグレイトなサウンドだった。もう1本、とてもよいサウンドのものがあったが、残りの3本はすべて壊れていた。低域がなかったり、修理が必要だったりするものだった。Soyuzは製法こそ昔ながらのものだけど、新しい製品だ。だから、ビンテージにありがちなトラブルに見舞われることなく長く使えるはずだよ。
R:Soyuz設立にあたって、どのようにしてメンバーを集めたのですか?
D:実際には、仕事上のパートナーとなるロシア人との出会いがSoyuz設立のきっかけになっているんだ。ロシアで会社を設立するには、やはり、ロシア語が話せてロシアの事情に精通しているということは不可欠だからね。実は、その彼は私のファンで、ロシアでのコンサートのプロモーションを手がけてくれていたんだ。ロシアの研究者のグループというのは「小さな世界」で、実際にはとてもたくさんのひとびとがいるんだけど、みんなお互いに知り合いという意味でね。カプセルの専門家を見つけ、モスクワで修理ができるリペアマンを見つけ…彼らがそれぞれ知り合いを紹介してくれて、という具合で、プライベートなチームが出来上がったんだ。資金なんてなかったから、投資を受けることもできなかった。当初は資金を稼ぐために大きなプロジェクトを立ち上げて、工場を建ててひとを雇いたいと思っていたけど。まあ、仕方ないだろう、と。それで、小さなスペースだけ手に入れて、それをほかのひとびととシェアしながらやっていくことにしたんだ。
そして、モスクワの研究所からチープな中古の旋盤と、ダイヤフラムの金メッキを施すためのスパッターを買ったんだけど、壊れていて上手く動かなかったんだ。とても古くて、$3,000だったからね。でも、ロシアのひとたちというのは驚くべきインプロバイザーなんだ。どんなものでも、手近な手段で直してしまうんだ!年老いた男が毎日やって来ては機械を調整して、どこかへ行ったと思ったら戻ってきてパーツを交換する…彼が必要なパーツを絵に描くと、機械工がそれを作ってくれて…やがて彼はそのマシンがきちんと動作するように直してしまった。そうやって少しずつ少しずつ形にしていって、やがて投資を受けられる状態までになったんだ。最初の3年間は、資金はすべてプロダクトの製造に費やした。広告やマーケティングには一切お金を使わなかった。必要な機械を中古で揃えて、より多くのひとたちを雇い、スペースも大きくして、という具合に、すべてはプロダクションに費やされた。そうしてプロダクションに必要なものが揃ってから約1年半後に、広告やプロモーションを始めたのさ。
R:現在、Soyuzには何人くらいのスタッフがいるのでしょうか。
D:工場にはおよそ14人の従業員がはたらいている。彼らに加えて、Soyuzの共同設立者、LAのオフィスにスタッフがひとり、そして私。全部で17人かな。「17」は私の好きな数字なんだ(笑)。製造以外はほとんど私がひとりでやっている。プロダクト・デザイン、プロモーション、カタログのデザインも私がやっているのさ。
クリエイティブとテクノロジーの結晶〜アーティストとしての感性がプロダクトを生み出す
R:Soyuz誕生のきっかけはあなたのアーティストとしての感性だったということになるでしょうか。
D:そうだね。Soyuzはその開発過程にも特徴があるんだ。まず最初に、私がマイクのコンセプトやフィジカルな部分のデザインを担当。その後、研究者たちが図面を引いたりカプセルを設計したりといったメカニックな部分のデザインをする。出来上がった試作品がよい出来だった場合、様々なバリエーションの試作機を作っていく。抵抗器を変えてみたり、カプセル・テンションを変えたりして、思いつく限りの組み合わせを作り、それらを持ってスタジオに入り、マイクをテスト。そして、テストの結果を「聴く」んだ。テストはボーカルだけでなくあらゆるものを録る。なぜなら、単なるスペックを超えた部分、どの組み合わせがもっとも音楽的なのか、ということを見極める必要があるからね。そうして、もっとも音が心地よいと感じたものを選ぶんだ。
R:Dvidさんご自身はマイクロフォンのテクノロジーについてはどこかで学ばれたのでしょうか。
D:いいや。私自身は一度も勉強していないよ。たくさんのマイクを使ってレコーディングを経験してきたけど、私自身はエンジニアではないんだ。代わりに、私の仲間には素晴らしいエンジニアたちが揃っているよ。カプセル、電気工学、機械工学、それぞれがまさにアメイジングと呼べるエンジニアたちがね。しかし、彼らもまたミュージシャンではないんだ。彼らはプロダクトのすべての構成要素を正確に組み上げることができる。彼らが組み上げた製品を私まで送ってくれたら、私はそれを聴くんだ。そして、「これはいい音がしない」と判断したらそのことを彼らに伝える。「もっと中高域がスウィートな方がいい」「低域はもっと締まっていないと」などと説明すると、彼らは私の意見を実現するために機体に修正を加えてくれる。つまり、これはクリエイティブな部分とテクニカルな部分の連携なんだ。
R:アーティストとしての視点から見た際の、Soyuzの一番の強みは何だとお考えでしょう。
D:一番重要なのはサウンドだと思っているよ。Soyuzのサウンドはとても人間味があり、ウォームで心地よいものだ。ザラザラして耳障りなものではないんだ。それでいてオープンなサウンドになっている。それと、見た目がとても美しい。美しいものを見ながらレコーディングするというのはとてもよいことだね。その方がいいパフォーマンスができる。そんなのは気休めだと言うひともいるでしょうけど、私は本当にパフォーマンスに影響すると思っています。
R:実際、店頭でもデザインを目にして問い合わせてくださるお客様もいらっしゃいます。
D:それはとても嬉しいですね(笑) 外観のデザインも私がやってるんですよ。
R:デザインのアイデアはどこからくるのですか?
D:Soyuzを始めた時、私が集まったスタッフに説明したのは、よいプロダクトを作る準備はまだ十分整っていない、ということだった。プロダクトにはストーリーが必要だから。プロダクトに関わるすべての事柄がストーリーを語っている必要があるんだ。見た目からすでにストーリーを語っていなければならない。名前もストーリーを語るべきだと考えているんだ。SU-017と019をデザインするにあたって、私はひとびとが「ロシア」から想像するものはなんだろう、と考える。金色のドームを持った教会、スプートニク人工衛星、ソユーズ宇宙船、金属の物体が宇宙に浮かんでいるイメージ…時代から時代へ蓄積されてきたこれらの要素を、ひとつのシンプルなデザインの中ですべて表現したいと思った。また、ここ(ラージダイヤフラム・モデルの筐体中央の縦横比)は1:1.618の黄金比になっているんだ。私は数学の基本的な原理をデザインに取り入れたいと考えている。その方が、見た目にも愉しいからね。
プロダクトはグレイトであるべき〜ハンドメイドの哲学
R:Soyuzは当初、真空管モデルのみのラインナップでした。その後FETが発表されたわけですが、なにか理由があるのでしょうか。
D:Soyuzのラインナップが真空管から始まった理由は、フラッグシップとなるモデルからスタートしたいと思ったからさ。ロシアは今でも軍用真空管を持っているしね。私の理想は、広範でありながら有機的なラインナップを構築すること。外見的にもすべてのプロダクトが一見してファミリーと分かるようにしたいんだ。カタログを眺めれば、デザインが一貫していて、意味があって、一見してSoyuzのプロダクトであることが分かる。私たちは、最初にもっとも高級なモデル(SU-017)を作り、それから、より手頃な価格のモデル(SU-019)を作り、そして最新のBomblet (SU-023)はさらに手に入れやすい価格のモデルにしたんだ。スタジオや自宅で使用するのに、なにかひとつよいボーカルマイクを探している若いひとたちが手に入れられる価格でね。これまでで一番手頃な価格の製品だけど、アウトソーシングはしておらず、すべて私たちの工場でハンドメイドで組み立てられているよ。
R:SU-013、SU-023を作る際に、参照したマイクはあったのでしょうか。
D:実際にはコンセプトの部分だけ、SU-013についてはNeumann KM 84が念頭にあったよ。KM 84はトランスフォーマーを内蔵していたけど、KM 84のモダンバージョンKM 184はトランスフォーマーレスなんだ。そして、誰もがトランスフォーマーを内蔵したKM 84のサウンドを愛している。この手の話は多くのひとたちから聞いているよ。そこで、私はSoyuzの研究者に、SU-011のトランスフォーマー内蔵FETバージョンを設計することができないか相談したんだ。このコンセプトに相応しいトランスフォーマーの開発にはおよそ1年という長い時間がかかっているんだ。トロイダルトランスだから、非常に長いコイルを巻いていかなくてはならない。最初に作ったものは手巻きで、巻き数は1000回。それでも最終的には、機械が巻くような形で巻くことができたんだ。これも、2つのトランスと5種類のカプセル・テンション(ダイヤフラムの張り具合)をテストして、もっとも美しい音のする組み合わせを採用した。
しかし、KM 84とはカプセルも回路もまったく違うんだ。スモール・ダイヤフラムのFETマイクでトランス内蔵型、というコンセプトを参考にしただけになったんだ。これは過去のいかなるモデルのコピーでもない。ダイヤフラムはオールド・ソビエト・デザインであるトリプル・バックプレートで、現在、この方式のカプセルを採用しているプロダクトはほかに存在しない。実は、このモデルは当初は真空管のモデルとして試作していたんだけど、私たちは2種類の真空管を試し、異なるバージョンの試作機をテストしたんだ。いずれも良い結果にならなかったのさ。どれも音がこもってしまって、心地よい音ではなかった。そこで、私たちは真空管を使用することを中止し、音像がよりワイドになるであろうFETを使用してみようということになったわけさ。FET回路では抵抗器やキャパシタがサウンドに大きな影響を与えるんだ。私たちは何度も実験を繰り返し、素晴らしいサウンドを生み出すことに成功した。数人のエンジニアに使用してもらったけど、みんなとても気に入ってくれたよ。この時、それまでよりも手に入れやすい価格帯の製品を作りたいと思ったんだ。
R:なるほど。SU-013はそういった経緯があったのですね。新製品であるSU-023に関してはどういったコンセプトがあったのでしょう?
D:Bombletは「すべてを私たちの工場でハンドメイドで製造しながらも、より手に入れやすい価格のプロダクトを作る」というコンセプトの下に設計をしているんだ。パーツも含めて、中国産のものはひとつもない。価格を下げるために出来ることはなにかを考えた結果、ボディにはブラスの代わりに加工しやすいアルミニウムを使用し、塗装も行っていないんだ。付属品もショックマウントではなく、マイクホルダーとしたし、カプセルも上位機種に使用しているK 67スタイルよりも少しだけより製造しやすいものに変更しているんだ。回路もポイント・トゥ・ポイントでの結線ではなく、基板を使用。これらを積み重ねた結果、$1200という、ハンドメイド・マイクではあり得ない低価格を実現することができたんだ。
R:Soyuzの回路やパーツは、ほかのメーカーのものに比べて小さいものが使われていますが、なにか理由があるのでしょうか。
D:繰り返しになるけれど、基本的に私はエンジニアではないんだ。しかし、Soyuzのエンジニアが言うには、真空管回路はシンプルであるべきなんだ。重要なのはカプセル、トランス、真空管のハーモニー。それらが互いによいバランスであることが必要で、回路はそのバランスのための装置でしかない。真空管回路では、FETのように回路そのものがサウンドに大きな影響を与えるということはないんだ。そのため、真空管モデルの回路は極めてシンプルに作られているね。
R:現行のラインナップではトランスも自社製ですが、今後もここにはこだわって行かれるのでしょうか。
D:そのつもりだよ。中国ではなく、ロシアに雇用を創出したいからね。それに、彼らは特別な技術を持っていて、他所で見つけるのは難しいんです。
R:巻きの倍率など、モデルによってトランスの設計も違うのでしょうか?
D:ええ。モデルごとに違いますよ。大した問題ではありません。モデルによって求めるものが違いますからね。
R:トランスを変えるということは回路設計の手間が増えるということですから、それが出来るのもすべて自社開発であることの強みですね。
D:安価な製品であればパーツを転用するということも必要かも知れないね。しかし、高級品というのは「グレイト」なものであるべき。悲しいことに、マーケティングやブランディングの力を使って、実際には単なる「Good things」であるものをあたかも「Great」であるかのように見せるということが市場ではたまに見受けられる。
私は従業員に次のように教えているんだ。「心の中で誰かのことを想像しなさい」ってね。たとえば若い男性、たくさんのお金はないけど、レコーディングが大好きな男のことを。彼は自分のスタジオを持っているが、別の仕事もしている。ある日、彼はグレイトなマイクが必要になる。これまでより長い時間働き、機材をいくつか売って、少しだけお金を節約してSoyuzのマイクを買う。彼のことを想像しながら働いて欲しい、ひとつのマイクの中で自分が担当した仕事をする時、彼のことを考えて欲しい、と。なぜなら、あなたがいま製造しているそのマイクは、いつかそれを手にする誰かにとってパーフェクトなものであるべきだから、と。箱を開けた瞬間に彼は驚き、音を聴いて彼は喜びに溢れる…製品を手に取った時にユーザーがどんな顔をするだろうということを心に留めておくことは、とてもとても大切なことだと思っているよ。
R:モデルごとにカプセルも変えているのでしょうか。
D:SU-019にはNeumann K 67のようなダブル・バックプレート型を使用しているんだ。ほんの少しカスタマイズしてね。私たちはみずから自分たちの工場でカプセルを製造していて、私たちのWEBサイトでは、私たちが自分たちの手でカプセルを製造しているムービーが見れるよ。カプセルを自前で製造している、と口で言っても誰も信じてくれないから(笑)。SU-023はソビエト時代のカプセルを使用しているんだけど、回路構成が若干違うものになっているんだ。
これからの展望
R:真空管、FET、と来れば、次はリボン・マイクを期待してしまいますが…
D:まだ、ひょっとすると…という段階ですが、いくつかアイデアはあるんだ。しかし、それ以前にふたつのプロジェクトが控えているから、実現したとしてもその後ということになりますね。ひとつはマイクプリ、もうひとつは…今はまだ言えません (笑)
R:ダイナミックマイクの予定はありますか?
D:それは、はっきりと「ノー」だね。理由としては、ひとつにはマーケットがだいぶ違うだろうということ。そして、ダイナミックマイクについてはShureのマイクがファンタスティックで、安価で、そしてどこにでも置いてある…そこにケンカを売る理由なんかないだろう?そんなことはスマートじゃない (笑)
R:あなたはステージではどんなマイクを使用しているのですか?
D:Shureに決まってるじゃないか!(笑) いま言った通り、本当に素晴らしいマイクだと思っているよ。SM58はほとんどどこのクラブにも置いてあるし、サウンドがすばらしく、安価で、そして丈夫だ。落としたって壊れない (笑)
R:Sennheiser AmbeoのようなVR制作用のマイクをリリースする予定はありますか?VRマイクのようなプロダクトでは各マイクの特性やカプセルの設置位置が揃っていないといけませんので、きちんとした製造を行っているSoyuzには向いているのではないかと思います。
D:実は、私たちのエンジニアが最近その話をしていたんだ。でも、私自身はそういったプロダクトについてはまだよく知らない。これから調査をする必要があると思っている。マーケットが大きいと判断したら、そうしたプロダクトを開発する可能性もあるよ。それにしても、いいタイミングでの提案だね!メモしておこう(笑)
R:本日はありがとうございました。最後に日本のユーザーにメッセージをお願いします。
D:最初に、日本に対して大きなリスペクトの意を表します。日本という国、文化…あらゆる意味で美しい社会だと思っています。また、日本のひとびとの技術力の高さには信じられないものがあります。マイクやカメラだけでなく、自動車、船舶、何をとっても驚くような技術が駆使されている。Soyuzがもっと日本でポピュラーになることを願っています。また何度でも日本を訪れたいですから (笑)。しかし、何よりも私たちのマイクをエンジョイしてくれることを願っています。気づいたこと、疑問に思うことがあったら、気軽にコンタクトしてください。みなさんからのフィードバックをお待ちしています。
Soyuzのクオリティを手頃な価格で実現した新製品 SU-023ついに国内出荷開始!
SOYUZ ファミリーに新たに加わったSU-023、The Bomblet。他マイクと同様、ロシアのファクトリーにてオール・ハンドメイドで制作されるハイクオリティのマイクロフォンです。ソ連時代のレアマイクに見られる、トリプル・バックプレート・カプセルをフィーチャーしたサウンドは非常に個性的。ドラムからボーカル、アコースティック・ギターまで、様々なソースに対応します。レトロなフレーバーを与えつつも、芯を捉えるその音はこのプライスレンジでは有りえないクオリティです。
Soyuz SU-023
販売価格:¥ 139,320 (本体価格:¥ 129,000)
>>Rock oN eStoreで購入
Tech
2018/02/23
Immersive Audioのキー・プロダクト Flux:: / Spat Revolution 〜ROCK ON PRO REVIEW
DAWとの連携において、プラグインという形ではなくスタンドアローンのアプリケーションとしてプロセスを行うことで、DAW側の制約や差異を超えた3Dオーディオ編集の「統合アプリケーション」として圧倒的なスペックを誇るFlux:: Spat Revolution。イマーシブ・サウンドを実現するキー・プロダクトとして大きな期待が持たれる本製品の特徴や革新性をご紹介します。
◎3Dワークフローを大きく変化させる
「IRCAM Spat Revolution」。革命と名付けられたこのソフトは、その名にふさわしく3D立体音響において、ワークフローを大きく変化させるイマーシブ3Dオーディオ編集アプリケーション。Spat RevolutionのSpatとは、Spatialの略で、立体空間上で効率良く簡潔に、かつ視覚的に操作できるように設計されている。この製品はIRCAMと共同開発されたアプリケーションで、IRCAMの音響空間認識の研究成果と、Fluxのプロフェッショナル向け製品開発における長年の経験をベースに開発された。
メーカーの理念でGUIは非常にシンプルに設計されているが、その自由度は非常に高い。概要としては、信号入力からRoomという擬似立体空間でのプロセスを経て、出力までルーティングをパッチするというワークになる。GUIもルーティング画面上、上からInput、Input Transcode、Souce、Room、Sum、Master、Master Transcode、Outputという順番で項目が並んでおり、上から下へと信号が流れる仕組みになる。なお、RoomへアサインされたSouceはオートメーションにも対応しており、Roomの中でSouce旋回・上昇・落下といった動作が擬似空間で展開可能である。パラメーターの中には、リスニングポイントから等間隔でぐるっと周遊するパラメーターや、単にZ軸上に上下するのではなく、Roomのスピーカーアレンジメントが球体であれば、そのカーブに沿って上下移動するようなパラメーターまで用意されている。また、非常に面白いのが、座標は変化せずに音像の指向性を変えることも可能な点。指向性の幅や垂直方向への角度、水平方向への角度まで変更が可能である。同じ座標上で、スイートスポットに対して正面をむいているのか、後ろ向きなのか、といった設定が可能である。このようなパラメーターはSpat Revolutionならではの項目ではないだろうか。
◎55種類にも及ぶスピーカーアレンジメント
このアプリケーションの特筆すべき魅力は2つ、擬似空間に対応するスピーカーアレンジメント=Roomが多彩であることと、対応するImmersive Sound Formatが豊富に用意されていることだ。まずRoomに関してだが、ここにはプリセットとして55種類にも及ぶスピーカーアレンジが登録されている。一般的なITU-R 5.1chはもちろん、AURO 3D、22.2chなど、これまでに発表されてきたありとあらゆるスピーカーアレンジを用意、さらにユーザーがカスタムでスピーカーアレンジを登録することも可能だ。これにより仮設でシステムを組む際などによくある、スタジオとして理想の位置にスピーカーが設置できないといったケースにも対応可能となっている。
もう一つの対応フォーマットに関しては、Ambisonicsにおいても7th orderまで対応となり、Channel baseのトラックとAmbisonicsをソフト内部でミキシングをすることが可能となっている。その空間配置は自由であるため、例えば5.1ch Souceを斜めに傾いた定位にする、などということも容易に行える。このように異なったフォーマットのミキシングに対応するために、InputにTranscoderを用意、これによりAmbisonicsだけではなくMSやTransoralなど様々なチャンネルベースではないフォーマットにも対応しているわけだ。
出力側も自由度が高く、Roomで指定したスピーカーアレンジに則りディスクリート出力を行うことはもちろんだが、Output Transcodeモジュールを使うことで、バイノーラルへのエンコードを行なったり、Ambisonicsでの出力を行なったり、ということが可能となっている。しかもそれらの出力は複数を同時に出力することが可能となっている。
◎外部にSpat Revolution専用機を用意することも可能
なお、アプリケーションへのシグナルアサインには2パターンあり、ローカルアサインされたプラグインで入出力するパターンと、DAWとは別にSpat Revolution専用のコンピューターをハードウェアで入出力するパターンがある。
前者の場合は、DAWとSpat Revolutionを同一コンピューターにインストールする。DAWでインサートしたSpat SendをLocal Enableモードにすると、音声信号がSpat Revolutionへ送られる。Spat Revolution内のSouceオートメーションデータもそのままやりとりが可能だ。この際、気をつけるポイントはSpat Sendがプリフェーダーでのみ動作することである。オーディオトラックにボリュームオートメーションを書き込みたいのであれば、AUXバスを経由してSendインサートをすることで解消されるだろう。そして、Spat Revolutionで編集したあとの音声はSpat Returnプラグインを経由してDAWへ戻って来る。
後者のDAWとSpat Revolution専用のコンピューターで信号を制御する際は、それぞれをEtherで接続しOSCプロトコルを使用する。この使用方法はSRコンソールでも同様に接続でき、リモートコントロールが可能だ。音声信号はハードウェアを経由してSpat RevolutionのInputへ入力され、編集後の音声がOutputからハードウェアへ出力される。この際、実際にOSCで通信を行うのは、RoomにアサインされたSouceの位置情報などのパラメーターと、DAW上にインサートされたSpat Sendプラグインである。その際、SouceとSendプラグインはそれぞれID番号で管理される。ここで一つの疑問が浮かぶだろう。一体DAWとはどのように同期をとっているのだろうか?OSCの中に、時間情報も含まれるのだろうか?答えはNoである。ここで思い出していただきたいのが、Spat Revolutionがリアルタイムプロセスをするアプリケーションであるということ。Spat Revolutionはあくまでもリアルタイムプロセッシングを行うアプリケーションで、レコーダー機能は搭載していない。そのため、現時点ではタイムコードや小節といった時間の概念は含まれていない。
Spat RevolutionのSouce情報は、Sendプラグインへ送られてくるパラメーターをDAWへプラグインオートメーションとして書き込むことになる。オートメーションを書き込む際は、Spat RevolutionのSouceオートメーション書き込みモードにした上で、DAWでオートメーション書き込み準備の設定をする必要がある。このように、DAW側に時間情報に関するデータを全て保存できるようになっている。そのためDAW上でClipを移動させたりした場合、オートメーションが連動するモードにすれば、別アプリケーションで動作しているケースでも、編集するのはDAW上のみで済むので編集に手こずることもない。
なお、フィジカルコントローラーについてだが、今のところOSCに対応したコントローラーで可能になるとのことだ。しかし、3D擬似空間を容易にコントロールという時点には至っていない。その他の方法としては、唯一Avid S6のPlugin Mapping機能を用いて任意のパラメーターをFaderやJoystickにアサインする、という方法だ。Pro ToolsもNuendoもEuConに対応しているので、実際のオートメーション書き込みを想定すると、Joystickで2画面表示させたRoomを展開するようなパラメーターを呼び出せば、一番想像と近い形でフィジカルコントローラーとして活用できるであろう。
◎そのワークフローの中核となりうる
先ほどのオートメーションデータのやりとりを考えると、同一のコンピューターにインストールしているほうが、管理が楽に思えるかもしれない。確かに、同一アプリケーションの場合、OSCでの通信設定は省略ができる。しかし、同一コンピューターでセットアップする際、ネックとなるポイントが実はDAW側にある。DAWのチャンネルフォーマット制限は、周知の通りプラグインでも同様に適用され、Spat Sendでもそのチャンネル制限を受ける。特にPro Toolsは2017年10月時点では7.1.2(bed)までしか対応していない。Spat Send、Spat Returnは最大7.1.2までしか対応していないため、せっかくSpat Revolutionで22.2chのような3D擬似空間でのミックスをしたとしても、DAWへ戻す際に一工夫が必要だ。こういった場合は、Roomの後でMasterバスを作成する際に22.2chフォーマットにするのではなく24ch分を、3分割して8chづつのフォーマットに変更してDAWへ戻すことになる。その際使用するのは7.1 chのフォーマットで、DAWとSpat Revolutionでフォーマットが完全に一致している必要がある。Pro Tools側は7.1フォーマットであれば、Spat Revolution側も7.1フォーマットになる。
この場合、Spat RevolutionのMasterにて24chをどのように3分割してアサインするかを決めることができる。7.1フォーマットを3つ使用するのだが、7.1chのフォーマットは一切無視され、単なる「8chのパス」という扱いに変わる。Pro Tools側では、7.1chのAUXもしくはMaster Trackを使用して7.1フォーマットでSpat Returnをインサートすることで、22.2chマルチチャンネルフォーマットでも3D仮想空間でのミックスがより一層容易になる。このような工夫は実はNuendoでは必要のない項目である。Nuendoはすでに22.2chフォーマットにネイティブで対応しているので、「22.2chを3分割にして・・・」といった複雑なルーティングは必要ない。
このようにDAWごとでのチャンネルフォーマットの違いは、プラグインメーカーにとっては非常に厄介な問題となる。現に、Spat Revolutionではチャンネル制限がネックとなっている部分も存在している。もし、Spat Revolutionがスタンドアロンソフトではなくプラグインソフトだった場合、Pro ToolsとNuendoといった、チャンネルフォーマットも異なる、使用するプラグイン形式も異なる、という違いに対して、それぞれを並行に開発していかなければならない。それよりも、プロセスエンジンをスタンドアロンアプリケーションとして、DAWの外に設けることにより、チャンネルフォーマットなどの各DAWの差異を吸収している。
現時点ではDAWとSpat Revolutionは1対1での接続までしか対応していないが、今後、Spat Revolutionでのワークフローが多く広まれば、複数台のDAWからSpat Revolutionに音声を送り、出力はStem Recorderへ、といったような大規模な環境も想定されるだろう。Spat Revolutionは、そのワークフローの中核となりうる非常に優れたソフトウェアだ。今後、様々なコンテンツで必要不可欠なソフトとなるだろう。
Flux:: Spat Revolution
定価:¥215,784(本体価格:¥199,800)
>>Rock oN eStoreで購入
特集:Sense of Immersive〜Proceed Magazine 2017-2018 の購入はこちらから!
*Proceed Magazine 2017-2018号より転載
Tech
2018/02/21
革新的ループ制作ツール Audio Texture 登場!
サウンドデザインに革命をもたらすAudioGaming / LE・SOUND。効果音をシンセサイズで創り出し、直感的なパラメーターで自由自在にサウンドを変化。多様なシチュエーションへリニアに対応することを可能にし、これまで以上にシーンに合わせたサウンドデザインを、より素早く、より直感的に実現します。これまで、炎・雨・風といった自然音のほか、モーター・足音・宇宙空間を演出する効果音などを生成するプラグインをラインナップして来たLE・SOUNDから、新製品AudioTextureが発表されました。
◎主な機能
・与えられた素材を意味のある単位に自動的に分解
・ポジションの指定とデスクリプターによってループをコントロール
・ランダマイズのレンジをコントロール可能
インテリジェントなアルゴリズムにより、無限のサウンドをクリエイト!
AudioTextureは読み込んだサウンドファイルから、無限のループサウンドを自動で生成することができるプラグインです。独自のアルゴリズムにより、読み込んだファイルを自然に聞こえる単位に自動で分解。指定した範囲をランダムに再生することで、非常に時間のかかる作業だった背景効果音やループ素材の制作を劇的にシンプルにすることができます!もちろん、分解するユニット単位の大きさやループ範囲などのパラメーターはコントロールが可能。求めるサウンドテクスチャーを素早く実現します!
AudioTextureは波形接続合成に基いて動作します。これは音声信号を自動的に解析し、再合成のために有用な単位にシグナルを分解するアルゴリズムです。さらにAudioTextureは直感的な操作を可能にするシマンテック・デスクリプターを搭載し、ひとつのサウンド・サンプルから数多くのバリエーションを生成することが出来ます。
ムービーで見る、AudioTextureの実力
AudioTextureには非常に多くのクリエイティブな可能性があります。AudioTextureのサウンドを重ねて、たったひとつのシンプルな素材から重層的なサウンドを生成したり、素材を複数使用してサウンド・シーンを制作してください。AudioTextureを使用すれば、手作業で飽き飽きするようなエディットをすることなく、無限のサウンドとバリエーションが手に入ります。
・AudioTextureチュートリアル
・サウンドサンプル:戦場の銃声
・サウンドサンプル:雨
・サウンドサンプル:川
・サウンドサンプル:ジャズ
AudioTexture
定価:¥19,440(本体価格:¥18,000)
対応OS:Mac OS / Windows
対応フォーマット: AAX/VST/AU/VST3(64bit)
iLokによるオーソライズ
新発売のAudioTexture以外にも、シンプルな操作でとことんサウンドを突き詰めることができるLE・SOUNDのプラグイン。現在11種類の製品がラインナップされています。まとめてご購入いただくと最大50% OFFでお買い求めいただけるLE・SOUNDその他の製品の詳細は下記リンクからご覧ください!
>>LE・SOUND by AudioGaming
Tech
2017/12/12
「Dolby Atmos Home」制作のためのターンキー・システムを販売開始!
既存のサラウンド・システムに加え、「オブジェクト・ベース」という新たなコンセプトを取り入れることでシネマ・オーディオに革新をもたらすDolby Atmos。世界中で制作が始まり、映画のみならず家庭用の配信などでも目にすることがますます多くなりました。しかし、新たな方式を取り入れるということは、必然的に従来とは異なるシステムやワークフローが要求されることとなります。
ROCK ON PROはDolby Atmos Mastering Suite認定ディーラーとして、制作を希望するみなさまからの疑問や制作用ツール導入に関するご相談にお応えいたします!「どのようにしたらDolby Atmosの作品が作れるのか? 」そんな疑問をお持ちの方も、まさに「これからDolby Atmosの制作を始めよう!」という方も、まずはROCK ON PROまでお問い合わせください!
◎ホームシアター向け納品ファイル作成に必須のシステムをターンキーで!
制作のための業務用ツールはこれまで、ドルビー社からのレンタルという形で制作現場に提供されていました。その中でも条件がもっともシビアな映画制作向けのツール類は今後もDolby社経由で入手することになりますが、Blu-ray Discやデジタル配信コンテンツを制作するためのツールはDolby社の認定を受けたディーラー経由で販売されることとなります。
ROCK ON PROでは、これら家庭向けDolby Atmosコンテンツの制作から納品マスター・ファイル (Dolby Atmos Home) の作成までを行うことが可能となる、ターンキー・システムの販売を開始いたしました。
Dolby Atmos Mastering Suite with RMU/J
構成
・Dolby社推奨 DELL Workstation
・Dolby Atmos Mastering Suite 同梱
・Dolby Atmos HT-Rendering and Mastering Software インストール済
・MADI2系統 I/O、LTC I/O カード実装済
・二重化電源、内蔵ディスクは全てSSD
・ハードウェア製品保証5年間、ASP(ROCK ON PRO年間サポート)加入対象製品(有料)
主な機能
・Dolby Atmosのマスター・ファイルである「.atmos」ファイルの作成
・.atmosファイルから、家庭向けコンテンツ用の各フォーマットに合わせた納品マスターの作成
・「.atmos」「Dolby Atmos Print Master」「BWAV」を相互に変換(フレームレートの変換も可能)
・Dolby Atmos環境でのモニタリング
・Dolby Atmosに対応するDAWとの連携
対応するソリューション
・Dolby Atmos に対応したBlu-ray作品のミキシング〜マスタリング
・Dolby Atmos に対応したデジタル配信コンテンツのミキシング〜マスタリング
・Dolby Atmos 映画作品のBlu-ray版制作のためのリミキシング〜リマスタリング
・Dolby Atmos 映画作品のデジタル配信版制作のためのリミキシング〜リマスタリング
・Dolby Atmos 映画作品のためのプリミキシング
・VRコンテンツのミキシング〜マスタリング
価格
ROCK ON PROまでお問合わせください!
◎HT-RMUとは何か〜Cinema用RMUとHome用HT-RMU
Dolby Atmosコンテンツ制作のためには、ミックスのためのツールに加え、完成したミックスからファイナルデータを作成するためのDolby Atmos RMU (Redering Mastering Unit)と呼ばれるハードウェア・システムが必要となります。Dolby Atmos RMU はDolby Atmos環境でのモニタリングのためのレンダラーとしての使用も可能であり、ハードウェア・レンダラーとも呼ばれます。
RMUには映画館での上映を目的としたマスター(Dolby Atmos Cinema)を作成するためのものと、Blu-rayやデジタル配信コンテンツなどの家庭やモバイル環境で視聴することを目的としたマスター(Dolby Atmos Home)を作成するためのものがあります。後者のDolby Atmos Homeの制作を目的としたRMUがHT-RMUと呼ばれるハードウェア・システムです。これは、映画館とホームシアターではスピーカー・レイアウトが異なるため、使用されるマスターファイルやレンダリングのプロセスも異なり、それぞれ目的に合わせたRMUを使用する必要があるためです。
参考までに、Dolby Atmos Cinema作成のためにはCinema用RMUを備えた「ダビング・ステージ」と呼ばれるスタジオ設備を構築する必要があります。これらはDolby社によって要件が厳しく管理されているため、Dolby社と直接コンタクトを取る必要があります。
>>こちらの比較表もご覧ください
◎HT-RMUシステムのシグナル・フロー
Dolby Atmosコンテンツのミキシングは、これまで通りPro ToolsなどのDAWで行います。HT-RMUはDAWから、MADI経由でオーディオデータを受け取ると同時に、Atmosパンナーを通じてオブジェクトの位置情報であるオブジェクト・メタデータを受け取り、「.atmos」という拡張子を持つマスターファイルを作成します。最終的に、この「.atmos」ファイルから「Dolby True HD」などのメディアに合わせた納品ファイルを作成するところまでを行うことができます。
さらに、RMUからMADIで出力される信号を任意のスピーカーに接続することで、Dolby Atmos環境でのモニタリングが可能となります。
◎Dolby Atmos Mastering SuiteとProduction Suite
Dolby Atmos Mastering Suite with RMU/Jに付属するDolby Atmos Mastering Suiteは、HT-RMUに実質的な機能を与えるためのエンジンと、Pro Tools上でAtmosミックスを行うためのツールであるDolby Atmos Production Suite のライセンス x3をバンドルしたソフトウェア・ライセンスです。
Dolby Atmos Production SuiteはPro Tools | HD 専用のDolby Atmosミキシング・ツールです。Pro Toolsと同一のMac上で動作するソフトウェア・レンダラーと、ソフトウェア/ハードウェア・レンダラーにオブジェクト・メタデータを送ることができるパンナー・プラグインとを中心としたツールボックスです。これだけでもPro ToolsからのDolby Atmosミックスをモニタリングすることが可能ですが、.atmosファイルを書き出すことは出来ません。Dolby Atmos Mastring SuiteはProduction Suite のライセンス3本に加え、HT-RMU上で動作するマスタリング・エンジンなどを含むツール群で、下記ソフトウェアがバンドルされています。
Dolby Atmos Mastring Suite
・Dolby Atmos HT-Rendering and Mastering Software for Windows
HT-RMUのレンダリング/マスタリング・エンジンとWEBサービス
・Dolby Atmos Conversion Tools (for PC and Mac)
「.atmos」「Dolby Atmos Print Master」「BWAV」を相互に変換(フレームレートの変換も可能)
・Dolby Atmos Production Suite x3ライセンス
Dolby Atmos Production Suite
・Pro Tools | HD 専用のAtmosパンナー類
・Dolby Atmosソフトウェア・レンダラー
・パンナー/コンバーターなどのVR制作用ツール
Dolby Atmos Production Suite単体はAvid Storeでの販売となります。
>>各プラグインの詳細などはAvidブログでご確認いただけます。
>>次項の比較表もご覧ください
◎Dolby Atmos 制作用ツール 機能比較表
Cinema:映画館上映を目的としたマスター。ダビングステージでファイナルミックスとマスタリングを行う。Dolby Atmos Print Masterと呼ばれるファイル群をRendering Master Unit(RMU)で作成。
Home:一般家庭での視聴を目的としたマスター。ニアフィールドモニターによるAtmosスピーカー・レイアウトにてミックスとマスタリングを行う。Dolby Atmos Master File(.atmos)と呼ばれるファイル群をHome-Theater-Rendering Master Unit(HT-RMU)で作成。
Cinema用とHome用のRMUでは作成できるファイルが異なり、スピーカーレイアウト/部屋の容積に関する要件もCinema向けとHome向けで異なる。それぞれ、目的に合わせたRMUを使用する必要がある。ミキシング用のツール、DAW、プラグイン等は共通。
※Dolby Atmos Production SuiteはWeb上、AVID Storeからご購入できるほか、Mastering Suiteにも付属しています。
※Dolby Atmos Dub with RMUについてはDolby Japanへお問い合わせください。
◎ROCK ON PRO導入事例
beBlue AOYAMA様
2014年、東京・青山という全国でも屈指の好立地に誕生し、MonoからDolby Atmosまで対応可能なMAスタジオ beBlue AOYAMA。こちらのスタジオの誕生にROCK ON PROが関わらせていただいた当時の導入事例です。
THX pm3認証も得た環境でCPU ベースのレンダリングエンジンによるDolby Atmos 環境とホームシアター用RMUを使用したリマスタリング環境を実現可能とした将来性の高いシステム、機材導入などを決定付けたスタジオ構築に関するコンセプトなど、読み応え満載の記事となっております!
>>導入事例はこちらからご覧ください!!
◎「Dolby Atmos 制作環境構築セミナー」大阪・名古屋でも開催!
ROCK ON PROでは、新たなワークフロー、新たなシステムが要求されるDolby Atmos制作に関して、その最新情報とともに、どのようにしたらDolby Atmosの作品が作れるのか?制作のワークフローから必要なツール類まで、じっくりとご紹介するセミナーを開催中です。12/7(木)には東京でのセミナーが開催、さらに、12/27(水)には大阪での開催が決定しており、日程は未定ですが名古屋での開催も決まっています。Dolby Atmosの制作について、踏み込んだ情報をお探しの方は最寄りの会場までぜひご参加ください!
Tech
2017/10/13
Pro Tools Information / Pro Tools | HD 12.8によるDolby Atmos® 制作フローの概要がAvidブログで公開されました!
発表当初よりDolby Atmos対応が注目されていたPro Toos|HD 12.8ですが、Dolby社による制作ツールの充実とそれらのツールの国内販売開始により、一層身近になったDolby Atmosプロダクション・ワークフローをPro Tools | HD 12.8の関連機能と共に紹介するAvidブログが公開されました。
ブログではAtmosについての基本的な概説から、Dolby社の提供するAtmosワークフローのためのツールの紹介、さらにPro Tools固有のAtmos対応機能からS6とのインテグレーションまで、各項目詳細な解説が行われております。
詳細はこちら>>Pro Tools | HD 12.8によるDolby Atmos® 制作フローの概要
Dolby Atmosワークフローの肝とも言えるDolby Atmos Rendere。Pro Toolsから受け取ったオブジェクトオーディオをレンダーします。このレンダラーからの信号をバスなどで受けることで、Dolby Atmosとしてモニターすることができる。バイノーラルへフォールドダウンすれば、ヘッドホン再生環境だけでもAtmosのプリミックスを行うことが可能に!
こちらはPro Tools本体のパンナー。複数のビューを備え、Dolby社のパンナープラグインを使用しなくても自由度の高いパンニングが可能。
なんとS6のマスターモジュールではタッチパネルを使用して3Dパンニングが可能!視覚的に情報を把握しながら直感的に操作が行えることで、より創造性の高い制作が行えるでしょう。
ROCK ON PROはブログでも触れられている「Dolby Atmos Mastering Suite」の国内ディーラーですので、ご不明点はROCK ON PROまでお気軽にお問い合わせください!
Tech
2017/09/26
Pro Tools Information / Pro Tools | MTRX概説日本語字幕ビデオがアップされました!
Avidの新たなFlagship I/Oとして大きな期待を寄せられるPro Tools | MTRX。モジュール構成による多彩で柔軟な物理インプット/アウトプット、巨大な内部マトリクス・ルーティングなど、多くの機能を備えるこのプロダクトの全貌を捉えた解説ムービーに日本語字幕が付きました!Pro Tools | MTRXでは何が出来るのか…その疑問にシンプルに答えるムービー詳細は下記リンクから!
“詳細はこちらから>>”
Tech
2017/09/22
Pro Tools Information / Artist | DNxIV 日本語情報がAvidブログで公開されました!
先日のIBC 2017にて発表されたAvidの新しいビデオI/OであるDNxIVについて、日本語での情報がAvidブログで公開されました。DNxIVはAja io4Kをベースに、Avid Media Composer向けの新たなポータブルビデオI/Oとして開発されたOEM製品です。DNxIVとAja io4Kのハードウエア的な違いはフロントにあるナレ録り用のXLRオーディオ入力。小規模なスタジオで簡単なナレ録りしかしない、といった場合などに便利に使えそうですね!
近日登場予定のMedia Composer 8.10にてMedia Composerに正式対応、気になる価格は定価¥383,400(本体価格¥355,000)。発売時期はMedia Composer 8.10のリリースと同時期と予測されています。ROCK ON PROとしてはVideo SatelliteやPro Toolsへの正式対応が気になるところですが、これらは将来的なアップデートで実現される予定とのこと。
発売はまだ先になりそうですが、SDI、HDMI、XLR、RS-422やタイムコードなど、今日の多様なメディア制作に対応する幅広いアナログおよびデジタルI / Oを備え、高度なオーディオ機能、最大50p/60p フレームレートの 4K/UltraHD にも対応したコンパクトなビデオI/Oの登場に期待が膨らみます!
詳細はこちら>>Avid Artist | DNxIVをIBC 2017で発表
Tech
2017/09/19
Pro Tools Information / 「Pro Toolsクラウド・コラボレーション」概要がAvidブログに掲載されました!!
今年のIBCではついにSibeliusでのクラウド機能も発表されるなど、クラウド・ベースのワークフローをますます加速させているAvid。ここに来て、改めてPro Toolsクラウド・コラボレーションについて理解を深めたいというユーザーの声に応え、Avidブログに記事が掲載されました!事例紹介やクラウド・コラボレーションの概要から、設定、実際の活用方法までを網羅したムービーや、価格情報など最新情報も追加されたものとなっています。今後、さらなる情報が発信されると予想されるクラウドコラボレーションについて、この機会にその基礎となる情報を確認してみてはいかがでしょうか!
“詳細はこちらから>>”
Pro Toolsでクラウド・コラボレーションをはじめよう
・Pro Toolsクラウド・コラボレーション—特徴とメリット
・TECHNOBOYSによる使用事例ムービー@Avid Creative Summit 2016
・クラウド・コラボレーションに必要なもの
・Pro Tools 12クラウド・コラボレーションの始め方(日本語字幕付きムービー)
Tech
2017/06/27
ROCK ON PRO NEWS!! Pro Tools12.8リリース!!
本日Pro Tools の最新バージョンとなる12.8がリリースとなりました!! すでにAvidアカウントより入手が可能となっています。Cloud Collaborationの機能強化、またHD版では注目のDolby Atmosへ対応を果たし、7.1.2 & 7.0.2 ステム・フォーマットをサポート。またPro Toolsミキサー上で3Dパンニングが行えるなど、最先端のコンテンツ制作をしっかりフォローする内容です。まずは、Avidからのニュースリリースを下記しますので内容ご確認ください!!
◎Pro Tools | HDのみの特徴
Dolby Atmos対応!
Dolby Atmosは、シネマ及びホーム・シアターで最もホットなイマーシブ・オーディオ・ファーマットで、より幅広いヴューワー層を開拓しています。Pro Tools | HD 12.8では、Atomos 7.1.2オーディオ・ステム、ネイティブ・オブジェクト・パンニング、ADM BWAVさらにはAvidコントロール・サーフェス統合等のユニークな機能/仕様により、業界でも最も効率的なDolby Atmosミキシングワークフローを実現しています。
・Dolby Atmos スピーカー・コンフィギュレーションに対応: 7.1.2 & 7.0.2 ステム・フォーマットをサポート、併せてフォールド・ダウン・ロジックも装備。
・Dolby Atmosパンナー・プラグインがなくても、Pro Tools ミキサー上で3D オブジェクトのルーティングやパンニングが素早く実行可能。
・オーディオおよびAtmosオートメーションのパンチインが可能
・Pro Tools | S6もDolby Atmosワークフローに完全対応
・Pro Tools | MTRX で、大規模なイマーシブ・オーディオ・フォーマット時のオーディオ・ルーティングを容易に実現
・プリント・マスター・メタ・データを埋め込んだADM BWAVに対応し、再利用が容易に
・シネマまたはホーム用RMUに接続可能、さらに新しいMacベースの“Dolby Atmos Renderer”にも対応
Avid NEXIS接続対応!
Pro Tools | HD12.8は、Avid NEXISストレージに対応することで、新たなコラボレーション/共有ワークフローを提示しています。複数のPro Tools HD ユーザーが、セントラル・メディア・ストレージ上に必要なプロジェクトを置きながら、異なったシステム間でのファイル移動という無駄な時間を浪費することなく、スムースに協業していくことが可能となります。
◎Pro Tools | First ,Pro Tools及びPro Tools | HD共通の特徴
クラウド・コラボレーション機能強化!
Pro Tools 12.8では、新たに最大10名までのコラボレーターが参加可能となったクラウド・コラボレーション機能を使うことで、世界中のチーム・メンバーと効率良く協業していくことが可能となりました。プロジェクト自体も、ローカルのみに保存することが可能となり、必要なプロジェクトのみを選択してクラウドに上げるといったこともできるようになっています。また、新たな「Avidクラウド・コラボレーション・プレミアム・プラン」により、より一層、クラウド・コラボレーション機能が利用しやすくなりました!
より充実の堅牢性
ファミリーを通し、多くの課題を修正することで、より安定した動作環境で作業することが可能となっています。
◎Pro Tools | Firstのみの特徴
・Pro Tools | First 12.8では、フル・バージョンのPro Tools 及びPro Tools | HD上のプロジェクトに参加し、無償でコラボレーションすることが可能となりました。また、このバージョンからは、新たな「Avidクラウド・コラボレーション・プレミアム・プラン」を利用することで、自らがオーナーとなりコラボレーションを開始させることも可能となります。
・無償の1GBフリー・クラウド・スペースに最大3つまでのプロジェクトを保存して作業可能な他、月額640円から利用可能となる「Avidクラウド・コラボレーション・プレミアム・プラン」を使うことで、他のPro Toolsユーザーとコラボレートできる他、クラウド・ストレージを拡張、プロジェクトの増加、ローカルへの保存等が可能となります。
・Pro Tools | First 12.8には、サウンドベース機能も追加され、ループ素材をよりインテリジェントに管理することが可能となり、合わせてそれに対応した500 MBサンプル・ライブラリーも付属します。これにより、プロジェクトに最適なビート、グルーヴ、スタイルそしてサウンドを、数多くのオーディオ素材の中から素早く見つけ出し、使用することが、より簡単に行えるようになりました。
・Pro Tools | First12.8では、新たに「トラック・フリーズ」機能も追加されたので、コラボレーターが、同じプラグインを持っているかどうかを心配する必要もありません。エフェクトが実行されているトラックのレンダリング処理を行うことができる「トラック・フリーズ」機能を施して各トラックをシェアすることで、コラボレーターは、そのプラグインを所有していなくても、正確にそのサウンドを確認することが可能となります。「トラック・フリーズ」機能はまた、お使いのコンピューターのプロセッシング・パワーを節約するにも役立ちます。負荷の高いエフェクトを実行時に「トラック・フリーズ」機能を利用することで、CPUパワーが解放され、より快適にその後の作業を継続することができるようになります。
◎Avidクラウド・コラボレーション・プレミアム・プランについて
新しいクラウドコラボレーション・プランへは、マスター・アカウント内の「My Avid Cloud」タブよりアクセス可能です。新たに10GBスペースを月額640円で利用可能となった「アーティスト・クラウド・プラン」が加わり、よりお手軽にクラウド・コラボレーション環境を利用することができるようになりました。
年間アップグレード制が導入されて以降、アップデートも頻繁に行われており、求められる機能と開発、そしてリリースがタイムリーに行われてきています。今後もこのスパンで次々と進化を遂げていくのではないでしょうか、今後のPro Toolsにも期待大です!!
Tech
2017/02/02
ROCK ON PRO Technorogy ~エンタープライズサーバーのトレンドを考える~
昨今のファイルベース化の流れの中、その作業効率の向上のためのキーデバイスとして数多くの現場で導入の進むサーバー。データサイズの大きな映像ファイルの取り回しはもちろんであるが、機器のスペックアップとともにオーディオ用途でも十分に利用できる製品が増えてきている。ノンリニアの様に大容量のファイルを少数ストリームするのではなく、小さな容量のオーディオファイルを大量にストリームすることとなるMA作業。サーバーにとってのスペックで重視されるのはカタログにアピールされる実効帯域(容量比の速度)ではなく、実はランダムアクセス時の耐性だったりするところが大きい。
普段それほど大きなセッションは動かしていないという方も、20~30track程度のAudio Fileを取り扱っているのではないだろうか?それがたとえば6台あれば120~180trackということになるのだ。しかし、Pro ToolsではDisk Cashe機能によりRAMへのデータ移動を行うことが可能となっている。その為、Read=Playに関してはサーバーへの負荷はほぼ無く、柔軟な選択が可能なようになってきている。
ここでは最新のエンタープライズ向けのサーバーをそれぞれのキーテクノロジーとともに改めて振り返り、改めてポストプロダクション作業で要求されるサーバーの要件とはどのようなものか?最新のトレンドとともに考えてみたい。
速度と容量をバランスするSSDキャッシュ
近年、メインとなってきている技術は「SSDキャッシュ」「スケールアウト」「SAN」といったところではないだろうか。「SAN」は非常に古い技術だが、低価格で導入が行えるようになってきたために再び見直しが進んでいる。まずは「SSDキャッシュ」についてだが、この技術を全面に押し出しているのがGB labs社とFacilis社。SSDの高速性とHDDの大容量を両立させることで、バランスの良い製品が誕生している。高速性だけを求めるのであれば、全てSSDとしてしまえばよいのだが、それでは容量の制約が大きい。すでに1台10TBという製品もあるHDDに対しての容量比較で全く太刀打ちが出来ない。
そこで、HDDに対してSSDをキャッシュのように動作させることでバランスを取るということが提案されている。GB labs社は1年前よりHyper Spaceというキャッシュヘッドのような製品をリリースし、HDDを搭載したサーバーとクライアントシステムの間に接続することで高速性を獲得するというソリューションを登場させていた。今年のIBC 2016ではそのSSDを筐体内に組み込んだ"NITRO"と言う新しい技術を登場させ、低コストなFastNASという新シリーズをローンチさせている。
このFastNASは8Diriveと16Driveの2つのモデルが有り、8Driveの最廉価モデル(16TB)は130万円からと戦略的な価格でリリースされる。SPACEシリーズの定評あるCore OSのliteバージョンを搭載し、XDCAM(50Mbit)であれば、最大74streamという圧倒的な速度を持つ。この最大値は、SSDキャッシュが完璧に動作した際の速度なので、マージンを多めに保つ必要はあるが、半分の35stream程度の実運用値だとしても十分に高速である。副社長のベン氏に話を聞くことが出来たのだが、汎用のNASから低コストなNASの市場を獲得したいと野心的なコメント。エンタープライズ用途であれば、その現場での利用の想定をしっかりとしているモデルの方が安心なのは間違いない。
Facilis社も同じようにTerraBlockシリーズにSSDキャッシュを搭載したモデルを昨年よりリリースしている。このモデルは、従来のHDDモデルの上位機種となりGB labs社の低コストモデルのブーストという意味ではなく、これまでのモデルに速度向上のためのオプションを搭載すると言ったニュアンスだ。1台10TBのHDDも存在する今、速度と、容量のバランスを取るためにこのようなHybridなシステムがこれからも登場することが予想される。
NASでも実現されるスケールアウト
これまでも大規模なシステムに搭載されてきた「スケールアウト」システム。これは完全にソフトウェアベースの概念であり、その言葉の通り、どこまでも拡張することの出来る柔軟性に飛んだシステム。ざっくりとイメージを上げるとすれば、物理的にハードウェアとしてのHDDを対象に分散処理をするものがRAID、ソフトウェア的に一つ一つのファイルを分散処理するのが「スケールアウト」施術の概念であるオブジェクト指向である。
「SAN」の専売特許であったこの技術も「NAS」でも実現するものが登場し、それに伴い低コスト化も進んできている。その代表がEditShare EFS。各筐体(ノード)同士がRAIDシステムのように連動することでほぼ無限と言っても良い拡張性をもったシステム。ノードを追加することで元々のデータは一切消えず、速度と、容量がリニアに上昇する。ある程度の初期コストはかかるが将来性の高いシステムがこの「スケールアウト」。これまでの代表的な製品はEMS Isilonだが、EditShare EFSは半分程度のコストでスケールアウトシステムの導入を可能としている。
低コスト化が進むSAN
大規模サーバーシステムの象徴とも言える「SAN」のシステム。コストは掛かるが圧倒的な速度はやはりNASでは実現できない領域に未だにあると言える。そのSANのシステムも年々低コスト化が進み、従来は別に必要であったメタヘッド部分がストレージと同一筐体に収まり、一気に市民権を得ている。昨年のInterBEE 2015でHitachiから登場したHyper FS(SANのファイルシステムの一つ)を搭載したモデルは500万円台からとなり、業界を驚かしたのは記憶に新しい。
このように、これまではハイエンドであった、スケールアウトのモデルや、SANが身近な者となり、ポストプロダクションで一般的であったNASは容量単価と速度の向上でそれに対抗しようというのが、分かりやすく浮かび上がってきている。音声の現場では、未だにDASがそのストレージの主体ではあるが、GB labs Fast NASのような低コストなモデルが登場する事でその導入が進むことに期待をしたい。
やはり、今後のファイルベース・ワークフローの構築に際し、サーバーはその主役であり、欠かせない存在だからだ。ROCK ON PROではこれらの製品とPro Toolsの接続実験など、皆様のご要望に応じて行っている。是非ともその実力を一緒に確認していきたい。
Tech
2017/01/30
Video Slave 3 日本語版ビデオチュートリアル公開 !!
シンプルな機能をじっくりと熟成させることで、現場のユーザーが熱望する様々なメリットを実現したVideo Slave 3Pro。今回はその基礎となるPro Toolsとの同期再生についてのビデオチュートリアルを日本語訳で公開です!! DAW内部のVideo Trackだけでは実現できなかった様々な機能を実装、MAの制作現場が抱えていた課題を解決、映像と音の作業を行う全てのユーザーにとって一つのブレイクスルーとなるアプリケーションと言えるのではないでしょうか。ほんの一部とはなりますが、その実際をご覧ください!!
<VideoSlaveを更に知る!! 詳細解説記事はこちらから!!>
◎DAW動画再生の最適解となるVideo Slave 3を詳細解説!!
NON-LETHAL APPLICATION
Video Slave 3 Pro
ROCK ON PRO価格:¥75,384 (本体価格:¥69,800)
>>製品ページはこちらから
>>ご購入・お問い合わせはこちらから!!
Tech
2017/01/23
Merging社本国HPにMick沢口氏のレポートが掲載、 日本語訳でお届けします!!
2002年よりPyramixを愛用し、高品位なサウンドを提供するだけでなく、常に最新のテクノロジーを高い次元でアートへと昇華してきたUNAMASレーベル代表の沢口 ”Mick” 真生 氏。ROCK ON PROホームページでも数々ご登場いただき、そのシステムからノウハウ、そしてエンジニアリングに対するスタイルに至るまでご紹介いただきました。その沢口氏がMerging社の本国ページに取り上げられ、その功績からレコーディングの実際までレポートされています。今回はその日本語訳レポートをMerging社国内代理店であるDSP Japan様のご快諾をいただきお届けします!!
◎Merging 本国ホームページ
http://www.merging.com
◎Merging社 翻訳元記事
「An Exceptionally Successful 2016 For Unamas And Mick Sawaguchi」//pro.miroc.co.jp/?p=29636&preview=true
http://www.merging.com/news/news-stories/an-exceptionally-successful-2016-for-unamas-and-mick-sawaguchi)
(※以下、Merging社ホームページより翻訳転載となります。)
◎Rock oN REAL SOUND Project: Pyramix+HorusがもたらしたUNAMASレーベルとMick沢口氏の栄光
日本プロ録音賞受賞と9.1chタイトルの充実に対するMerging製品の貢献
Mick沢口氏
2017年1月東京:
Mick沢口氏はいつの時代も新しいテクノロジーに関心を持ち、また、長年にわたって「サラウンドによる音楽制作」を提唱してきた人物です。また、そのことによって日本の音楽レコーディング界で高く評価されている人物でもあります。彼は2014年から、音楽にうってつけと言われるAuro 3Dによる9.1ch制作を行ってきました。その功績によって、”Mick-san”はいくつもの受賞暦を持つ綺羅星の如き人々の仲間入りを果たしたのです。2LのMorten Lindberg、Sono LuminusのDaniel Shores、そしてUNAMASのMick沢口氏がみな、Pyramix 10とHorus/Hapiのユーザーであることは偶然ではありません。同時に、彼らが頻繁に連絡を取り合い、互いにその経験と技術を分かち合っていることもまた当然と言えるでしょう。Mickさんは日本プロ録音賞のサラウンド部門で複数回の受賞暦を持ち、Mortenは最優秀サラウンド・サウンド・アルバム賞への2度のノミネーションだけでなく最優秀アルバム技術賞クラシック部門を含む3部門にもノミネートされた経験を持ちます。Dan Shoresは最優秀小規模アンサンブル・パフォーマンス賞へのノミネーションを経験しています。
UNAMASレーベルのバラエティーは日本国外では類例がなく、非常に興味深い事例です。2016年12月からはドイツのプレミアムなダウンロード・サイト「High Res Audio」がサラウンドとステレオのフォーマットでUNAMASレーベル作品の販売を開始し、手始めに17タイトルがオンラインで購入可能になりました。
『死と乙女』レコーディング時のマイク・セッティング図。ハイト・チャンネルのために4本のマイクが立っている場所がステージの際。マイクのチョイス、セッティングともかなり独創的であることがわかる。大賀ホール外観
レコーディングに使用される場所もバラエティーに富んでおり、耳目を惹きます。日本プロ音楽録音賞ハイレゾリューション部門優秀賞を受賞した『シューベルト: 弦楽四重奏曲 第14番 「死と乙女」』は、東京からおよそ150km、新幹線で70分の距離にある軽井沢「大賀ホール」で録音されました。その名前から分かる通り、このホールはかつてのソニー社長であり、オペラ歌手であり、特筆すべき音楽愛好家であった大賀典雄氏によって寄贈されたものです。このホールが建つ場所はとりわけ美しく、自然との一体感で有名な地域です。そのサイズとアコースティック特性はこの手のレコーディングにはうってつけです。
最近の例で、もっと風変わりな録音場所としては、まるで無響室のような「Acoustic Grove Systemスタジオ(日本音響エンジニアリング社のサウンド・ラボ)」を挙げることができるでしょう。これは”部屋自体によるサウンドへの色付けを排除する”という点で、大賀ホールのように”特定の空間が持つサウンドを捉える”のとは真逆のアプローチと言えるでしょう。ここで録られた音は『A.Piazzolla by Strings and Oboe』のタイトルで、UNAMASレーベル最新作としてリリースされました。
彼の実験はアコースティックに留まりません。Mick-sanはPyramix 10の3Dパンナーの性能を、ベータ版の初期から駆使してきました。彼はまた、電源の品質がレコーディングに影響を与えるのではないか、ということにも関心を寄せています。理想的なソリューションはDC電源を使用することですが、彼のチャレンジはすべての機材を駆動するに足るパワーを備えたバッテリーを探すことに向けられました。その解は住宅や工業用建屋のために開発された可搬型蓄電システムというものでした。これらはインバーターにDC12Vを供給しながら、およそ7時間にわたりAC100V-1.5kVAの電源を提供してくれるのです。これは電力においても稼働時間においても十分であり、さらにレコーディングされたサウンドにも恩恵があるように思えるという、まさに待望の解答でした。
9.1chレコーディングにはマニュアルなどありません。そのため、ハイト・チャンネルのセットアップについて、Mick-sanは様々な実験を繰り返しています。ハイト・チャンネルのサウンドは空間のアコースティックとマイクロフォンのタイプに強く影響されます。近年のデジタル・マイクの性能は、メインマイクの選択にも大きな影響を与えています。大賀ホールで行われた『J.S. Bach「フーガの技法 The ART of FUGUE BWV-1080」』のためのレコーディングでは、Neumann KM-133Dと、RMEのデジタル・マイク・プリアンプが使用され、「きわめて精確でオープンなサウンド」という評価を得ています。
「フーガの技法」は複雑ですが、サラウンド・レコーディングにぴったりの曲です。ほとんどの場合、四重奏として編曲されますが、このレコーディングのために土屋洋一氏が書いた”コントラバスを加える”というアレンジは、この曲の出来栄えを一層豊かなものにしたように思えます。このセッションで、レコーディングにおいても5.1chと2chのミックスダウンにおいても、Pyramix V10の圧倒的な使いやすさが証明されたと言えるでしょう。この作品は5.1ch/2chだけでなく、MQA(Master Quality Authenticated)とHPL(Head Phone Listening)向けのスペシャル・ミックス・バージョンもリリースされています。HPLは日本のアコースティック・フィールド社が開発した技術で、なんと最大22.2chまでのサラウンド・レイアウトをヘッドフォンですることができます。
Mick沢口氏はこう語ります。「水平方向と垂直方向のビューを使用してチャンネルをアサインできることは大変便利です。シグナル・フローは個別に色分けされているため直感的な操作ができますし、最終マスターのリアレンジにもとても便利です。たとえば、LFEとその他のチャンネルの順序を間違えるようなことを防げます。アーティストのパフォーマンスをAuro 3Dで捉えるということは、アーティストにとっても私自身にとってもスリリングな経験です。もっと多くのひとが、4つのハイト・チャンネルによってさらにリアリティを増したサウンドを楽しめる環境が整うことを願っています。」
<ROCK ON PRO 関連リンク>
Rock oN REAL SOUND Project USER STORY
Tech
2017/01/18
いよいよ取り扱い開始!! DAW動画再生の最適解となるVideo Slave 3を詳細解説!!
映像と音の作業を行う全てのユーザーにとって一つのブレイクスルーとなるアプリケーション、それがこの『Video Slave 3』。DAW内部のVideo Trackだけでは実現できなかった様々な機能を実装しクリエイティビティーを加速、これまでMAの制作現場が抱えていた課題を解決する製品です。今回はROCK ON PRO 洋介がそのポイントを詳細解説します!!
ここがポイント!! Video Slave!!
1)業務向けも含めた多彩な主流動画コーデックに対応「このファイル開けるか、、」の心配を解決。
2)4Kファイルにも対応、アウトプットのハードウェアを用意すれば4K環境が整います。
3)クォーターフレームの精度を確保したMTC同期。
4)ビデオファイルのタイムコードを読み取り、オーバーレイ表示可能。
5)差し替え時も複数ファイルをフォルダにまとめて一元管理、バージョニング。
6)異なるフレームレートでは同期させない、シンクのズレを防ぐ充実のセーフティ機能。
7)直感的な操作で画面上に多彩な表現でCUEが打てる、ADR支援機能。
8)タイムコード、CUEをオーバーレイしたファイルをエクスポート、FFmpegの恩恵で高速書出。
NON-LETHAL APPLICATION
Video Slave 3 Pro
ROCK ON PRO価格:¥75,384 (本体価格:¥69,800)
>>製品ページはこちらから
>>ご購入・お問い合わせはこちらから!!
◎POINT 1:業務向けも含めた多彩な主流動画コーデックに対応
作業のたびに「このビデオファイル、開けるかな、、、」と不安になっていませんか?星の数ほどもあるビデオファイル。それらに柔軟に対応したプレーヤーがあったら、、そんな風に感じたことはありませんか?一般的に採用されているQuickTImeはすでにAppleの開発が終了しており、ご承知のようにWIndows版に至ってはすでに提供がストップしている状況、今後に不安を残しています。Video SlaveはフリーコードのFFmpegを採用しているため将来に渡っても不安はありません。そして、様々なリソースからのフィードバックを受けて、ほぼ全ての動画フォーマットに対応をしています。民生向けのイメージが強いかもしれませんが、Video Slave3はしっかりと業務向けのコーデックのサポートを加え、XDCAM 50M/100M / P2 Intra、MXF、DNxHD、ProResなどに対応しています。
◎POINT 2:4K READY!!
近い将来訪れる4Kフォーマット。その対応準備も万全。すでにVideo Slaveは4Kのファイルに対応していますので、アウトプットできるハードウェアが準備できればそれだけで4Kプレビューが可能となります。BlackMagic Design、AJAという入手の容易なVideo Interfaceが利用できますので、最低限の投資で4K環境を整えることが可能となります。
◎POINT 3:同期はMTC=Midi Time Code
Video Slaveは外部機器の出力するタイムコードを受けて同期走行を行うことが可能です。実際に受け取っているのはMTC=Midi Time Code。今ではほとんど使われていないかもしれませんが、LTCと同等の精度を持つタイムコード情報です。その精度はクオーターフレームとなり一般的な精度を確保していると考えて差し支えありません。ソフトウェア自体でリファレンス・クロックを受け取ることは出来ませんが、Video Interfaceにリファレンスを入力しておけば、出力タイミングはGenLockしていると言えますので、ソフトウェア側のゆらぎを抑制することが可能です。
また、同一PCでの内部同期の場合には、Video SlaveがVirtualの内部MIDIバスを準備しますのでややこしいセットアップは一切必要ありません。外部機器との同期であれば、物理的にMIDIケーブルで接続をする、もしくはMac OSの標準機能であるNetwork MIDIを利用してEthernet経由で接続をする。LTCしか出力できない機器が相手であれば、LTC-MTCの変換を準備すればOK。Rosendahl MIF4、MOTU micro expressなどをご準備いただくこととなります。
◎POINT 4:タイムコード・オーバーレイ
この機能を求めているユーザーは多いのではないでしょうか?ビデオファイルのタイムコードを読み取り、画面に表示する。単純な機能ではありますが、映像を扱う作業の際には必須とも言って良い重要な機能。Video Slaveは位置、サイズ、色、フォントなど自由に設定が可能。ユーザーの好み、再生する動画の種類に合わせて表示することが出来ます。もちろん表示/非表示の切替も可能です。DAWでココまで柔軟に表示のカスタマイズが出来るアプリケーションは無いでしょう。ココもVideo Slaveの大きな魅力の一つ。
◎POINT 5:複数ファイルのバージョニング
ビデオファイルを扱う際に、よくあることが一部分を修正したなどの理由によるビデオファイルの差し替え。Video Slaveは複数のビデオファイルを一つのフォルダにまとめることが出来るので、必要なものをそのフォルダの中から選択することでバージョン違いのファイルを一元管理出来ます。もちろん。タイムコードの異なるファイルを複数読み込ませて順次再生することも出来ます。同一のタイムコードのビデオファイルもオフセットをかけたり、DAW側のタイムラインに合わせてタイムコードを書き換えたりと言ったことも自由に行うことが可能です。
◎POINT 6:シンクずれに対してのセーフティネット
Video Slaveはタイムコード情報をフレームレートと共に読み取ります。そして、外部から着信しているタイムコードのフレームレートも正確に認識することが可能です。Video Slaveはフレームレートの異なったタイムコードが着信しても同期走行を行うことはありません。これにより、フレームレートがずれたまま作業を進めてしまったりと行った事故を防ぐことが可能となっています。
◎POINT 7:多彩な表現でCUEが打てる、ADR支援機能
画面上にCUEを打ったり、セリフを表示させたりという機能も持ちます。範囲を指定して表示の設定が可能なので、直感的に準備作業を進められます。センターに白丸を打つことも、バーでタイミングを知らせる、テキストを表示させる、カウントダウンを表示させるなど多彩なCUEを表示させることが可能です。
◎POINT 8:タイムコード、CUEをオーバーレイしたファイルをエクスポート
Video Slaveは、タイムコードや、CUEをオーバーレイしたファイルを書き出すことも可能。書き出せるコーデックはh.264,ProResのQuicktimeコンテナのファイル。非常に汎用性の高いファイルを書き出すことが可能です。ここでもFFmpegの恩恵が有り、書出し速度が高速なのも特徴。GPUによるアクセラレートが効いているために変換に時間のかかるh.264でも実時間前後の速度(もちろんCPUスペックに依存しますが)で書き出すことが可能です。ファイルに対して個別にIN点、OUT点を打つことが出来るので必要な範囲だけを書き出すことももちろん可能です。
◎MA環境に簡単インストール、最低限の投資で次世代スペックに更新
既存のシステムに対して、導入の際に大きな追加投資が必要ないという点もVideo Slaveの素晴らしいポイント。MA作業に利用しているPro Toolsであれば、BlackmagicかAJAのVideoボードが殆どの場合には入っているのではないでしょうか。そのような環境であれば、Pro ToolsのVideo EngineをOFFにしてVideo Slaveをインストールするだけ、システムに対してハードウェア的な投資は必要ありません。
そして、すでに4K TVは10万円を下回り始めています。BlackmagicのVideo Interfaceであれば、2万円台の製品から4Kの出力に対応しています。HDMIで接続さえすれば4Kが見れますね。マシンルームと距離が離れていたとしても6G-SDIで接続することで回避できます。残るハードルはストレージ。大容量かつ高速なストレージを要求する4Kファイルですが、SSDを活用することでフォローできるはずです。ビデオストリームは1本なので帯域計算は簡単。例えばXAVC 4Kであれば330Mbps、1時間あたりのファイルサイズは148GB。ProRes 422 4Kは503Mbps、1時間あたり226GBです。Thunderbolt接続のSSD等、高速なストレージがあれば十分に実現できる範疇です。既存のシステムへの最低限の投資で4K対応を行うことができる、そのような魅力あるソリューション構築のキーデバイスとなるのが、このVideo Slaveです。
シンプルな機能をじっくりと熟成させることで、現場のユーザーが熱望する、様々なメリットを得ることの出来るVideo Slave 3Pro。大きな可能性を秘めた、素晴らしいソリューションです。本国webからは30分間、無制限で利用が可能なデモバージョンがダウンロード出来ます。30分経過すると自動的に終了してはしまいますが、もう一度起動すればもう一回30分のタイマーが動き出すという仕様。ご興味のある方は、その動作(特に皆さんが気になるレスポンス)を体感してみて下さい。あくまでもPro Toolsに対してのSlaveですので、音が先行して出力されます。これは、ちょっとしたことかもしれませんが、日々の作業では非常に大きな魅力と感じるのではないでしょうか?事実上無制限とも言えるデモバージョンでじっくりとお手元のワークフロー、システムとの検討が行えます。こういったユーザーファーストの姿勢がVideo Slaveの数々の美点を作り出した、と言えるのではないでしょうか。ご購入・ご相談はお問い合わせフォームよりROCK ON PROまでご連絡ください、お問い合わせお待ちしております!!
>>Non-Lethal Applications 本国HP
NON-LETHAL APPLICATION
Video Slave 3 Pro
ROCK ON PRO価格:¥75,384 (本体価格:¥69,800)
>>製品ページはこちらから
>>ご購入・お問い合わせはこちらから!!
Tech
2016/07/22
Real Sound Project Seminar 〜粟飯原流DSDレコーディング & Mixの世界
圧倒的ななめらかさとつややかさはまさにリアル・サウンド!しかし、編集工程においてまったく勝手が異なるDSD。対応するDAWも少ないことから、これまでベールに包まれていたDSDレコーディングの現場ノウハウを第1回REAL SOUND Project セミナーで紹介します!!
マイキング、ミックス/編集から「本当は教えたくない話」まで…粟飯原氏が伝授するDSDレコーディングの世界がここに。
↓↓↓Ustream配信はこちらから!↓↓↓
◎Pyramixシステムで実現するDSDレコーディング
どんなアーティストも、そしてエンジニアも、残したいものはただの「音」ではありません。私たちが残したいと願うものは、私たちが音楽から受け取った「感動」ではないでしょうか。それを残し伝えるために、機材やフォーマットは日々進化しています。
当初の5.6MHzから、いまや4倍の11.2MHzというサンプルレートまで進化したDSD256で収録された音は、リアル・サウンドを叶えるための現状で最良の選択と言えるでしょう。このDSD256でレコーディングをすることが出来る世界で唯一のシステムがPyramixシステムです。Rock oN REAL SOUND Projectは簡易なNativeシステムから、最高峰のMassCoreシステムまで、リアル・サウンドを実現するためのPyramixシステムの構築から導入までサポートいたします!
◎実例と音源を使用した生きたノウハウを伝授
世界初のハイレゾ・ライブ・ストリーミング・サービスであるPrimeSeatと、コンテンポラリー・クラシック・ステーションOTTAVAが共同で制作する番組「PrimeSeat Salon」はDSDダイレクトレコーディングにより、演奏はもちろん、サロンならではのリラックスした雰囲気、親密な空気感なども余すところなく配信。この番組で収録を担当されているのがWinns Mastering 粟飯原 友美 氏です。
当日は実際に収録された音楽の一部をはじめ、セッティングやマイキングから、DSDならではのレコーディングのコツにいたるまで、ご本人によるリアルなノウハウをお届けします。実際に収録された音源とともに、その制作の裏側が体験出来る貴重な機会!DSDでの制作を考えている方だけでなく、DSDってどんな音がするの!?という方も、ぜひこの機会をご利用ください!
こんな方におすすめです!
◎サウンド・クオリティのためなら妥協はしたくない!
◎もっといいサウンドで音楽を聴きたい!
◎DSDってなに??
◎DSDに興味はあるが、あと一歩踏み出せない…。
◎DSDでレコーディングするのに必要な機材は?
◎音にはこだわりたいが、セッティングなどが不安…。
◎Pyramixって使ったことないんだけど…。
◎DSDフォーマットでの制作技術を向上させたい!
タイムテーブル
冒頭ご挨拶(10分):Real Sound Project 〜コンセプトから活動紹介、今後の展開〜
テクノロジー優先ではなく、音楽のリアルな感動を残し、伝えていくためのシステム環境をプロフェッショナル視点で構築・サポートしていくことを目的とするRock oN REAL SOUND Project。まずは私たちの活動と、今後の展望について紹介させていただきます。
◎第一部 19:00~(20分):ROCK ON PROがDSDを解剖〜その仕組み・特徴からシステム導入までを概観
PCMとは根本的に異なるフォーマットであるDSD。では何が違うの?どう違うの?といったところを、ROCK ON PROが改めて解説します。さらに、ROCK ON PROならDSDのポテンシャルを100%引き出すPyramix MassCoreシステムの導入までサポート!DSDの仕組みから、DSDを実際に使用出来るまでの知識を伝授します!
◎第二部 19:20~(30分):DSDでのレコーディング - システムの解説、マイキングのポイント
都内で開かれるサロンコンサートを、DSDダイレクトレコーディングにより完全収録する「PrimeSeat Salon」。収録を担当されるWinns Mastering 粟飯原友美氏ご本人が、実際のレコーディングの様子を解説いたします。DSDでのレコーディングに必要な機材の解説から、DSDならではのマイキングのポイント・注意点などを、実際にどのような音になるのかを聴きながら進めていきます。
休憩(10分)
◎第三部 20:00~(30分):DSD音源のミックス/編集 - PCMとは勝手の違うDSD編集の手引き
収録の後には当然、ミックスや編集という作業があります。しかし、PCMと違い、ミックス/編集が非常に困難なDSDというフォーマットを使用して音源を制作するにはどうすればいいのか?DSD使用の障壁とも言えるこの問題を粟飯原氏はどのように乗り越えているのか。1bit音源の可能性を活かし切るミックスを紹介します。
参加特典
当日ご参加いただいた方に、Pyramixシステムを3%OFFで購入出来るクーポンをプレゼント!!
開催要項
日時:8/1(月)19:00〜20:30 懇親会 21:00〜
講師:粟飯原 友美 氏
司会:前田洋介(ROKC ON PRO Product Specialist)、清水修平(ROCK ON PRO Sales Engineer)
場所:Rock oN リファレンススタジオ 東京都渋谷区神南1-8-18 クオリア神南フラッツ1F
定員:15名 ※定員を超えたお申し込みの場合は、キャンセル待ちとなります。
参加費:無料
◎講師プロフィール
粟飯原 友美(あいばら ともみ)
1971年4月 千葉県千葉市生。1995年明治学院大学とCenter Recording Schoolを同時卒業。同年、株式会社ハリオンに入社。マスタリングエンジニアとして仕事をスタート。2003年 アンズサウンド加入。その後、株式会社化に伴い、現場を継続しつつ同社を共同経営。2012年渋谷に自社スタジオを構える。2014年株式会社アンズサウンドを退社し、Winns Masteringとして独立。CDマスタリングのみならず、 ハイレゾなどを中心としたホールレコーディング、DSD編集、ハイレゾマスタリングなどにも注力。SACDの作品やサラウンドマスタリングへの関わりも深い。メインDAWはMAGIX社のSEQUOIA。国内で3人ほどしか使用できないKORG Clarityを通して1bit編集のノウハウを学び、近年、1bit編集にMerging Pyramixを使い始める。音の質感、空間の広さなど、1bit音源の素晴らしいサウンドを多くの方に体験してもらうため、DSDモードのみでの編集を行うなど、1bit音源の限りない可能性を追求し続けている。
2015年 11月より、PrimeSeat & OTTAVAによるDSDインターネットラジオ番組「PrimeSeat Salon」のホールレコーディング、編集、ミックスを担当。
Rock oNではREAL SOUND Projectとしてクオリティ豊かなレコーディングをコーディネートしていきます。ホールでのクラシック収録、ミュージシャンの息吹が伝わるジャズのレコーディング、現場のリアルなサウンドと感動をリスナーに伝えたい、その願いを叶えるのが今回ご紹介をしているDSD。そして、Pyramix MassCoreシステムであれば、DSDの可能性を100%引き出すことが可能です。
Rock oN REAL SOUND Projectでは、Pyramidシステムの構築から導入まで安心のサポート体制で皆様をお待ちしております!少しでも関心があれば、ご遠慮なくお問い合わせください!!
Tech
2016/07/15
Rock oN REAL SOUND Project USER STORY
2002年よりPyramixを愛用し、高品位なサウンドを提供するだけでなく、常に最新のテクノロジーを高い次元でアートへと昇華してきたUNAMASレーベル代表の沢口 ”Mick” 真生 氏。国内でもいち早くHorusが導入された自宅スタジオで、独占ロング・インタビューを敢行!
Pyramix導入の決め手、自宅システム解説から、実際の編集作業やエンジニアリングについてのお考えまでをご紹介するVol.1、また、氏がもっとも重視しているレコーディング/マイキングのノウハウを中心にしたVol.2をお届けします。
Tech
2016/07/15
Rock oN REAL SOUND Project USER STORY vol.2 ~Mick沢口氏 ノウハウ編~
2002年よりPyramixを愛用し、高品位なサウンドを提供するだけでなく、常に最新のテクノロジーを高い次元でアートへと昇華してきたUNAMASレーベル代表の沢口 "Mick" 真生 氏。近作では9.1chサラウンドでの音楽制作に取り組むだけでなく、ヘッドホンでサラウンドの音場を自然に再現するためのHPLバージョンも発表するなど、何よりもアートを届けたいと願う沢口氏。先日行われたロング・インタビューから、氏がもっとも重視しているレコーディング/マイキングのノウハウを中心にご紹介します。
INDEX
◎「アート」「テクノロジー」「エンジニアリング」の三位一体が描き出すリアル・サウンド!
◎ 現場から探るマイキングのノウハウ 1 - 大賀ホール編
◎ ブースを使わないスタジオ収録 - カブリも音楽だ!
◎ 現場から探るマイキングのノウハウ 2 - 音響ハウス 1ST編
◎「アート」「テクノロジー」「エンジニアリング」の三位一体が描き出すリアル・サウンド
ROP:沢口さんにとってのReal soundというのは、ことばにするとどういったものになるでしょうか。
沢口:音楽に限って言えば、ひとつの作品を作るためのチーム…アーティスト、プロデューサー、エンジニア、アレンジャー…そのチームが同じベクトルで出来ないといいものにならない。商業主義だとそれは難しい。表現としてのメッセージとか、音のオリジナリティとかがなかなか出ない。
ROP:まず、メッセージというか、表現したいものが先にないとダメ、と。
沢口:日本の文化環境だと非常に難しいと思う。なぜぼくがそれをできるかというと、UNAMASレーベルというのはぼくがひとりで全部やってるから。もちろん、実際のレコーディングはUNAMASレーベルのコンセプトに共感して、ボランタリーで参加してくれるひとたちが入ってくれて成立してるんだけど。
ぼくはいつも3つの大きなコンセプトをバランスさせてプロジェクトをやる。第一優先はアート。ふたつめはテクノロジー。三つめはエンジニアリング。この三つの「最先端」をどうやって組み合わせるかということを考えている。
ぼくは「ビンテージ」とか、そういうものでやるっていうのが好きじゃない。機材はいつもカッティング・エッジなものを使う。使い慣れたもので、もう分かりきった音が出ても面白くない。リスクを負っても、カッティングエッジなもので音を作るという、ぼくはそっち系。
アートについても、ぼくはプロデューサー兼だから、誰でも想像するような音楽は作りたくない。クラシックに関して言えば、昔からあって誰でも知ってて、曲名を聴いただけですぐイメージ出来る、っていうのが今までのクラシックの概念だよね?ぼくはそれを壊したい。「え?このスコアからこんな音楽になるんだ!?」っていうのがやりたくて、毎回違うアプローチをしてる。
このアートという部分をどうするか、というのは、言い方が悪いかも知れないけど、商業主義のひとたちとはちょっと別のところで、音楽とかサウンドの本来あったものはどうだったのか、ということを、最新の技術、最新のエンジニアリングで表現したいっていうのがぼくの思い。
そのためには日頃から一番自分たちにあうツールというものをアンテナ張って勉強しておかないといけないし、自分で使ってみて判断もしなきゃならない。ぼくは去年の『The Art Of Fugue』から、デジタルマイクをメインに使い始めたんだけど、いきなりある意味リスキーだよね?クライアントがいる仕事だったら多分誰もやらないよね。それは、ぼくが全部最終的な責任を負えるから出来る。
ROP:単純に「レコーディング・エンジニア」という立場だったら、判断は別のところにありますものね?
沢口:ぼくはよく言うんだけど、「レコーディングというのは覚悟だ」って。それはなにかというと、レコーディングが始まる前に十分に考えて、自分の中で「これだ!」と思えるところまで考えてからレコーディングする。そしたら、レコーディングに行った時にはもう、アーティストが淡々とやるのを聞いてればいい。というのがレコーディング・エンジニアだと言ってるんだけどね。
レコーディングが始まる前までに「これだ!」って思えるあらゆることを自分で決めて現場に臨むというのが、ぼくは覚悟だと思う。よく、あれもこれも色々立てて後から選択しますっていうようなことをよくやるんだけど、そうすると、音楽がよくならない、絶対に。
ROP:沢口さんは1セットしかマイクを設置しない?
沢口:そう。これ(『Dimensions』)は9chだから、マイクは9本しか立ててない。
アンビエンスは大きめに取っておいて、多少いじるということはあるけど、録りの段階で出来上がりのレベルまで想定して組んでるから、ミックスでもフェーダーすらほとんどいじらない。
ROP:レベルはマイクと演奏者の距離で調整してる?
沢口:そうだよ。マイクの位置と、あとは演奏者の配置ね。頭の中でもう最終形のバランスがFixされるまで考えとくのよ、ぼくなんかは。
ROP:ミックスの作業というのは確認程度ということでしょうか。
沢口:そうね。あと、現場ではステレオでしか聴いてないから、本当にこうなってるかなって(笑)
ROP:もし、意図したものになってなかったら。。。
沢口:それはもう自分の覚悟が十分じゃなかったってことだよね。普通のひとはそれが怖いから、いろんなマイクを立てて後で選択しますとか言うんだけど、それをやると、なんか死んじゃうんだよ、音楽が。後々の材料として色々録っておくっていうのはまた別だけどね。
現場から探るマイキングのノウハウ! - 大賀ホール編
2015年12月16-17日 @軽井沢 大賀ホール
『Four Seasons』、『The Art Of Fugue』、『Death And The Maiden』の一連のクラシック作品、そして大賀ホールでは自身初のソロ・ピアノ収録となった最新作『Dimensions』。これらの作品の大きな特徴は、「スピーカーとマイクが1対1」というコンセプトだ。つまり9.1chの場合、9本のマイク(場合によってはLFE用にもう1本)によって収録され、システムを構成する各スピーカーにそれぞれのトラックが100%パンニングされる。
それを可能にしているのが、vol.1でも紹介した「レコーディングは覚悟だ」という氏のことばだ。氏はレコーディング当日まで、スピーカーから流れる完成形と、それを実現するためのマイキングや奏者の配置について、徹底的に考え抜くのだという。
2015年暮れに行われた『Death And The Maiden』レコーディング時に実際に使用されたセッティング図。画像左側がステージ、右側がモニター・ルームとなっている。
Microphones Mic Pre Amps
L:Neumann KM 133 D(1st Violin) デジタル・マイク用:RME DMC-842
C:Neumann KM 133 D(Contrabass) アナログ・マイク用:RME Micstacy
R:Neumann KM 133 D(2nd Violin)
Ls:Neumann KM 133 D(Cello) I/F
Rs:Neumann KM 133 D(Cello) RME MADI Face XT
Lh:Neumann KM D + KK 131
Rh:Neumann KM D + KK 131 DAW
Lhs:Sanken CO-100K Merging Pyramix Native 10
Rhs:Sanken CO-100K
LFE:AUDIX SXC-25 Power Supply
ELIIY Power Power YIILE PLUS
収録時のステージ全景。沢口氏のサウンドを決定的に特徴付けているのが、明確な音像と完璧に共存する自然な空気感だが、そのサウンドの秘密はアンビエンス・マイクの設置にある。UNA MASレーベル作品でのリバーブ成分はほぼすべてアンビエンス・マイクで録られた生のもので、アウトボードやプラグインによるリバーブの付加はほとんどない。
この日もステージ間際から客席に向けて(!!)アンビエンス用のマイクが立てられているが、これらのマイクは4本のハイト・チャンネルにそれぞれ100%割り当てられ、サウンドに深いリアリティを与えている。
ステージ中央に円周状に配置された奏者を5本のマイクで狙う。メインとなるこれらのマイクはすべてデジタル・マイク。沢口氏曰く距離感の把握が難しいが、みなさんにぜひ試してほしいマイクとのこと。
コントラバスに追加で立てられたSXC-25は、他の低域成分とともにLFEチャンネルに送られている。
もともとは家庭用電源を製造しているELIIY POWER製のバッテリーですべての機材を駆動。「S/Nが抜群によくなった」「言ってみれば蒸留水のようだね」と、沢口氏もいたくお気に召されている様子。大賀ホールというロケーションに加え、わざと雪が降る時期に録るという選択も「空気のS/Nがまったく別物だから」という理由で、アナログ時代から音と深く関わってきた方ならではの観点だと思わせられる。
◎ブースを使わないスタジオ収録 - カブリも音楽だ!
ROP:基本的にブースを使わないっていうのがすごく特徴的なコンセプトですが、なぜそうするのでしょう?当然マイキングも難しくなると思いますが、注意点などはありますか?
沢口:ぼくはジャズとクラシックしかやってないから、ほかのはなんとも言えないけど、ジャズに限って言えば…ぼくはアル・シュミットっていうエンジニアが大好きなんですけど、彼が機会あるごとに言ってるのは、ジャズっていうのはミュージシャンがお互いに息を感じられる距離まで寄せて、なるだけセパレートしないで録るのが一番いいってこと。
ぼくもそういうのに共感するし、じゃあ、アル・シュミットが実際どうしてるのかっていうと、彼のマイキングの資料とかは探せばいっぱいあるんですよ、今は。そういうのを注意深く見ると、なるほど、そうしてんのかっていうのがよく分かる。ビデオもいっぱいあるしね。最近作だとポール・マッカートニーがキャピトルで録ったアルバムなんかに映像もたくさん付いてるから、アル・シュミットがドラムどうしてんのか、ピアノどうしてんのか、ベースどうしてんのかとかね。全体の配置はどうしてんのかとかね。もう、見れば分かる訳ですよ。マイキングの資料なんか、いまはたくさん出てるから。要は、それを「あ~、そうなんだ~」とボーっと見るんじゃなくて、彼はどういうサウンドにしたかったのかということを分析しながらマイキングの図を読むっていうことまでできるようになると、なぜそうしてるかということが非常に明確にわかるんだよね。
近作のアル・シュミットでいうと「えー!バック・トゥ・ベーシックだなあ」と思ったのは、ボブ・ディランがシナトラに捧げたアルバム(「シャドウズ・イン・ザ・ナイト」)を去年出したんだけど、それのマイキングなんかは、もう超シンプルなんですよね。バンド+ブラスなんだけど、キャピトルのスタジオはバンドが真ん中にいて、ブラスだけは離れたブースに入れてる。ブースに入れてるんだけど、ブースのドアは開けていて、ブラスにマイクは立ててないんだよ!バンドに立てたマイクに入ってくるカブリだけで録ってる(編注:正確にはブラスにマイクは立っているが、生かしていない様子)。彼はすごいベーシックなところに戻ってて、「すごい、面白いレコーディングのコンセプトだな」と思ってね。
そういうことに興味を持っていろいろと調べていくと、アル・シュミットのマイキングのコンセプトに共通するものがだんだんわかるようになってきた。だから、ぼくもジャズの場合はミュージシャンが極力近くにいて、自分たちでバランスが取れて、自分たちで阿吽の呼吸でコミュニケーションが取れる環境を作ってあげる、というのが第一だね。それはアートを第一にしてるからなんですよ。
その次に「え?ドラムの横にペット(トランペット)とかいて大丈夫なの!?」と普通のエンジニアだったら考えるじゃないですか。そこは、そういう近場でいかに綺麗なカブリを録るかという方に…カブリを嫌うんじゃなくて、いかに綺麗なカブリを録るか、という方に発想を変えるんですよ。
そして、カブリを綺麗に録るためには、軸外特性のいいマイクを選ぶといいと思いますよ。ぼくが使ってるSanken CO-100Kはそれが綺麗。そういう意味では、御社が代理店してるEarthworksも向いてると思うよ。
ドラムだって、ぼくはジャズの場合はトップの2本だけでほとんどメインの音を録りますので、12本も16本も、ってガバガバ入れてね、あとでミキシングでどっかのチャンネルは位相をひっくり返してどうのこうのとかね、EQしてとかね、…文章読めば「すげえことやってんな」って思うかも知れないけど、ジャズの場合はそこまでやらなくてもいいから。もう、トップの2本の位置さえ決めれば、バランスよく入るんですよ。ジャズのドラマーって上手いからね。自分でバランス取れるから。
ROP:マイクの位置について、一貫したコンセプトはありますか?
沢口:ぼくの場合は、カミさんがやってるジャズ・クラブ UNA MASがあったっていうのが助かったよね。あそこで色んなマイクと色んなマイク位置を試して、この楽器でこうだったらここらへんだとこういう音になる、っていう引き出しをね、あそこで勉強して、スタジオでやるときにそれを反映していくというやり方をしてるんだけど。
基本的にはジャズのドラムだったらここら辺(下部囲み記事参照)にワンポイントで置けば、(演奏者が)プロだったらいい音になるなっていうのがわかるようになってきましたので。基本的にはそこに置いて、多少ドラマーによって大きい小さいがあれば、ちょっと上げるか下げるかくらいは。1、2度は修正に行きますけど。
そうやって試行錯誤した結果だから、(ダイヤフラムの位置が)きれいに揃わないんですよ。理屈で言うひとからはオカシイって言われるんだよね(笑)。だけども、それでジャズらしい音になるんだから、別に理屈に合わなくてもいいな、っていうのがぼくの主義だからさ(笑)。変な音になってなきゃいいや、って思ってる。
基本的にはピアノ・トリオのサウンドをどうするかっていうところで言えば、そういう実験をして、色んなマイクでやって、だいたいのことがわかったものを、スタジオでは「エイヤ!」でやるっていうね。
スタジオに行ってから「ごめん、これやっぱダメだからマイク変えよう」とかね、位置をいろいろ動かしたり、ドラマーに30分も40分も叩いてもらって音を決めるとかっていうようなことは、しない。それは、アートのパワーが落ちちゃうからなんですよ。エンジニア的にはパーフェクトかもしれないけど、アーティストとしてはパワーが落ちちゃうから、なるたけファーストテイクを早く録って、自分たちの感じを最初に聴いてもらうっていうのが、大事だと思う。
それはアル・シュミットもそう言ってる。彼は「ぼくは録る時までにほとんどのことを決めてるから、録るのもサッと録れるし、ミックスダウンなんか1アルバム3時間くらいで終わるよ」って言うんだよね。なんもしないから(笑)。それは、彼がやっぱり考えてるからだと思うんだよね。ぼくもそういうことを見習ってずっとやってるから、スタジオであまりウロウロしないし、いろんなこともしない。
現場から探るマイキングのノウハウ! - 音響ハウス 1ST編
2014年9月16日、18日 @音響ハウス 第1スタジオ
レコーディング・スタジオでの収録にもかかわらず「ブースを使用しない」という荒技でレコーディングを行う沢口氏。この手法は、氏が尊敬して止まない、アル・シュミットの技法から学んだものとのこと。ジャズ・バンドの録音となると各トラックを各チャンネルに振り切り、というわけにはいかないようだが、各楽器の配置とマイクの選定により、やはり録りの段階でほぼ完成形のミックスに仕上がっている手腕はさすがとしかいいようがない。
しかし、こうしたサウンドが録れるのは沢口氏が天才的な勘を持っているからではなく、長い時間をかけたトライ&エラーの成果である点は見逃せないだろう。この日のレコーディングも、最終的なサウンドのイメージを固めるために、同じメンバーでのライブの現場に足を運んだそうである。氏のこうした下準備のおかげで、ミュージシャンがサウンド・チェックで疲弊してしまうことを避け、彼らから100%集中したパフォーマンスを引き出していることもUNAMASレーベル成功の秘訣だろう。
こちらも現場で実際に使用されたセッティング図。当日はギター・トリオがリズム・セクションを務めるピアノレス編成のワンホーン・カルテットということで、全員が中央に集まっての収録となった。図下方向がコントロール・ルームで、ベースのみ正面のブースに入っているが、ブースの扉は開放されている。これは沢口氏が敬愛するアル・シュミットが『Shadows In The Night / ボブ・ディラン』でブラス・セクションを録るのに使用した方法を参考にしている。
アンビエンスには沢口氏のレコーディングではおなじみのSanken CO-100Kが使用されている。
Trumpet
RCA 77DX(カーディオイド)
Neumann U-67S(カーディオイド)
トランペットは2本のマイクをほぼ1対1でブレンド。クリアな音像を確保しながらも豊かな空気感を得るために、楽器から1mほどの距離を取ってセッティングされている。沢口氏によると、この組み合わせだとEQなどを施さなくても原朋直氏の音になるとのこと。いつものごとくこの組み合わせはあらかじめ決めており、当日にあれこれ試行錯誤することはないとのこと。レコーディングに先駆け、当日と同メンバーによるライブに足を運び、実際の音を確認した上での決定ということだ。
Drums
Top L/R:AKG C452
Snare:AKG C452S
Kick:AKG D112、Mojave MA-301fet
ドラムのマイキングは当時の沢口氏定番ラインナップとなっている(現在はトップがMicrotech Gefell M300)。比較的新しいブランドであるMojaveがKickにセットされている以外は、すべてAKGという仕様だが、細部に沢口氏ならではのこだわりが伺える。トップとスネアにはC451ではなくあえてC452が使われており、スネアに立っているものは高域が上がったSカプセル仕様となっている。「なんでそうするかというと、EQしないでもスネアらしい音になるからなんですよ。ブラシとか。マイクの特性でEQをしちゃう。これもアル・シュミットの考え方だよね。」とのこと。
また、ハイハットやタムへのオン・マイクは立てておらず、ほとんどをトップの2本で収録するというが、カプセルの向きもダイヤフラムの位置も揃っていない”いびつな”セッティングとなっている。L側はスネアとハイハットの真ん中くらいを狙える角度、R側はトップ・シンバルとフロアタムの真ん中くらいのところを狙っており、さらに、R側はフロアタムをクリアに収録するためにL側より低い位置にセットされている。
Kickもスネアも比較的オフ気味にセットされているのは、やはり空間のニュアンスを収録したいという意図からであるという。
Guitar
Octava MK012 x2
ジャズのリズム・セクションはピアノ・トリオが務めることが多いが、当日はピアノの代わりにギターが入った編成。ピアノに比べて音像感の低いジャズ・ギターをどのように録るかが課題となった。沢口氏の手法は2本のマイクをモノミックスせず、ステレオで使用するというもの。こうすることでコンテンポラリー・ジャズギターの王道である「空気感を作る」という役割をリアルに再現することが可能だという。
マイクにはOctavaがチョイスされているが、氏いわく「Octavaのマイクって音がちょっと薄汚れてるんだよ。だからギターにちょうどいい(笑)。クリア過ぎなくて、それでいて音はちょっと立つんだよ。」とのこと。録音後の処理に頼らずマイクによって目的のサウンドを作り上げる氏のコンセプトが反映されたチョイスと言えるだろう。
Bass
DPA d:vote 4099B
Audio-technica AT4080
ウッドベースにはもはや業界標準とも呼べるDPA 4099がセッティングされているが、空間を重視する沢口氏は必ずオフ気味にもう一本のマイクを立てる。空間を捉えるためのマイクには特に定番はなく(Audixが多い気がするが)、この日はAudio-technicaのリボンマイクが選ばれた。
「以前は全部1フロアでやったんだけど、さすがにドラムのカブリが多いなってことで」当日はベースのみブースに入っての録音となった。しかし、ブースの扉は開放されており、ほかの楽器からの適度なカブリを録ることに成功している。アイデアとしては氏の敬愛するアル・シュミットを参考にしているようだが、アル・シュミットが「ブースから漏れる音を録る」ためにこの手法をとったのに対して、沢口氏は「ブースへのカブリの度合いをコントロールする」という逆向きの発想である点がミソだろう。
いかがでしたでしょうか。最終的な音場を正確に予測し、徹底的に「録り音」にこだわる沢口氏。その背景には、膨大な手間と時間をかけた実験に裏付けられたマイクやルーム・アコースティックの特性に対する、幅広い理解があるように感じました。そうした努力によって得たノウハウを惜しみなく提供する懐の広さは、若い頃から積極的に関わってきた海外のプロたちからの影響なのだそうです。
REAL SOUND Projectでは、これからもみなさまにカッティング・エッジなノウハウを提供していきます。8月にはDSDをテーマにしたセミナーを予定しています。詳細はまたこちらのサイトで公開しますので、ぜひご参加ください。
Tech
2016/06/21
REAL SOUND Project ~User’s Voice~ Mick 沢口氏 vol.1
2002年よりPyramixを愛用し、高品位なサウンドを提供するだけでなく、常に最新のテクノロジーを高い次元でアートへと昇華してきたUNAMASレーベル代表の沢口 ”Mick” 真生 氏。国内でもいち早くHorusが導入された自宅スタジオで、独占ロング・インタビューを敢行!Pyramix導入の決め手、自宅システム解説から、実際の編集作業やエンジニアリングについてのお考えまでをご紹介します。
INDEX
◎レコーディングは覚悟だ!沢口節全開で開陳されるノウハウ!!
1.クラシックの編集で圧倒的な利便性を誇るクロスフェード・エディター
2.何を聞いても「何もしない(笑)」…その裏にある揺るぎない哲学
3.レコーディングが始まった時には、ミックスはすでに終わっている!?
4.一貫生産主義だから可能なシンプルなマスタリング
5.どんなときも次への準備を怠らない姿勢に感服
◎「表現」と「高音質」を求めた結果はPyramix
1.DAWが実現した自主レーベルの夢
2.新しい表現への挑戦 -サラウンドで音楽をやる!
3.Pyramix高品質の秘密?ソフト・クロックとは!?
◎UNAMASサウンドを生み出すPyramixシステム
1.UNAMASサウンドを生み出す3つのPyramixシステム
2.アナログの名機はそれだけでアート - Pyramixを信じるもうひとつの理由
◎レコーディングは覚悟だ!沢口節全開でそのノウハウを開陳
1.クラシックの編集で圧倒的な利便性を誇るクロスフェード・エディター
ROCK ON PRO(以下、ROP):沢口さんといえば「フェーダーに触れずにミックスする」という伝説もあるくらい、レコーディング後の作業が少ない方として有名です。しかし、最近作のクラシック作品では編集を行っているということで、どのような編集をされているのかお伺い出来ますか。
Pyramixのクロスフェード・エディター・ウィンドウ。下部のパラメーターを使用して視覚的に確認しながらクロスフェードを追い込んでいくことが出来る。
沢口”Mick”真生氏(以下、沢口):Pyramixはクロスフェード・エディターの機能がすごく充実してる。それは、ヨーロッパのクラシック・レーベル(フィリップス・クラシックス)のリクエストが反映されてるからだと思うんだけど。1サンプル単位くらいまで細かく編集出来る。一音だけ差し替えたい、ってリクエストもアーティストからは出るんだよ。で、フェードエディターを開くと、切る前と切った後の(差し替える前のクリップと後の)クリップがこういう風に(画像参照)出てくるのよ。ここが充実してるのはPyramixとSequoiaくらいだね。
ROP:Sequoiaはこの機能を売りにしてますよね。
沢口:Mergingって会社は控えめなのか、ギャアギャア言わないんだよね(笑)。わざわざ言わないんだけど、実は最初から出来てることが実に多い。PyramixといえばDSDというイメージが先行してますけど、それ以前のDAWとしての基本的な要素が本当に充実してる。フェードエディターもその特徴のひとつだし、キホンのキである音がいいっていうところが素晴らしい。Mergingの連中は「そんなこと当たり前だろ」って言って、わざわざ宣伝しないんだけど。
一本化する直前のマスター・ファイル。かなりの編集の跡が見られる。ジャズ録音では波形編集を一切行わない沢口氏にとって、制作フローの点でもクラシック録音はこれまでとはまったく違った制作になったようだ。
沢口:じゃあ、実際に編集したトラックをお見せしましょうか…見て!これだけ編集してるんだよ!OKテイクでもこれくらい編集してるけど、これでもクラシックでは少ない方。2Lのモートンなんかは、クラシックだと2~3千ポイントも編集するって言ってたよ(笑)。だから、クラシックのセッション・レコーディングって、下手すると一小節単位くらいで録音するって話だったよ。
Pyramixのフェード・エディターは上部メニュー プルダウンの中にある。
今、このカット点でフェード・エディターを立ち上げると、これが前のクリップで、ここから後ろのクリップが来てるよね。ここで何ができるかというと、ひとつはタイミングをミリsec単位で調整できる。それから、ぼくはそこまで追い込んで使わないけど、出るとこと入るとこのカーブを個別に調整出来るんだよ。ここにパラメーターがいっぱいあって、前後のレベルをどれくらい変えるか、カーブをどうする、その長さをどうする、どこからやる、全体でどれくらいずらすか、と非常に細かいところまで出来るんですよ。フェードの形はつまんで変えられる。デフォルトだと1:1でやることになってる。ぼくはほとんどタイミングしかいじらないけど(笑)。
ROP:フェード・テクニックのコツのようなものはあるのでしょうか。
沢口:それはぼくでは分からないから、アレンジャーの土屋くん(土屋 洋一 氏)に来てもらって、スコアを見ながら編集していく。80%くらい出来たところでアーティスト・アプルーブっていって、アーティストのひとに来てもらって全体を聴いてもらう。アーティストはアーティストで、スコアとは違う意見がある。ここでまた微調整が入る。最後の余韻の長さとかね(笑)。
ROP:ぼくがアシスタントをやってた時に大変だったのは、クリック管理されてないトラックだと「出来た!」っていったところからワンポイント変えるってなると、後ろが全部繋がった状態で動かさなきゃいけなかったりする点でした。
沢口:そう!編集点の前後でグループを組み直して、また外して、ってことをやらなきゃいけないから、ファイナル・アプルーブで色々出ると大変なんだよね。ぼくなんか間違っちゃうからさ、いっぱいあると(笑)。効率よくやるやり方はないね。でも、これはぼくがやってんじゃないのよ。アレンジャーとやってんの。ぼくはもう、オペレートに徹してる。
2.何を聞いても「何もしない(笑)」…その裏にある揺るぎない哲学
ROP:ミックスについてお伺いします。よく使うプラグインはありますか?
沢口:ほぼ使わないよ。トゥルーピークの赤防止用に-0.5くらいに設定したバス・リミッターは挿すけど、プラグインで音を作るってことはない。ぼくは基本的に使い倒すタイプじゃないからね。だからPyramixで十分なのよ(笑)。
ROP:まさかの消極的な意見(笑)
沢口:IRCAMのものが入るようになって、リバーブだけは使えるようになったけど、サクサクいろんなものを使いたい人にとってはちょっとね。いまは他社のプラグインはプリセットがいっぱい入ってるでしょ?ぼくがメインで使ってるリバーブは、このTCのReverb 4000ってやつ。
Horusの直下にセッティグされた、沢口氏愛用のTC Reverb 4000。192kHz非対応のため、Horusとはアナログでやりとりしている。
Pyramix純正プラグインからミックス・バス用ストリップのリミッター部を使用。
ROP:どういうタイミングで使うんですか?
沢口:クラシックではまったく使わない。ジャズで管楽器がいるときとか。
ROP:ジャズの時は結構ミックスはしますか?
沢口:いや、しない(断言)。
ROP:パンニングは…
沢口:パンニングもあらかじめ決めてるから、もうそのまま。スタジオではプリからI/F経由で直接DAWで録ってる。コンソールはモニターにしか使ってない。だから、録りの時にゲインも決めちゃうから、ミックスの時にはほぼツライチ。トランペットにちょっとリバーブつけるくらい。あと、ぼくは絶対アンビエンスを立てるんだけど、それはちょっと大きめに録ってるから、ほどよきレベルに調整するくらい。
最新作のマスター・トラック。 スピーカー9.1chに対して、LFEを含めて10トラックしかないことがわかる。最下段2トラックはステレオ・マスター。
ぼくの場合、ドラムはほとんどトップの2本で録っちゃうから、それはもう振り切っちゃえばそれで終わりじゃん。スネアはCとRの真ん中くらい。それはトップで鳴ってる音を聴いてそれに合わせるだけだから、なんも難しくないよね。Kickは基本的に真ん中。それだけだよね。ピアノについては編成によるけど、ピアノ・トリオだったら振り切り。ぼくはピアノをお客さん目線で定位するから、左が高い方で右が低い方なの。
ROP:サラウンドの時は?
沢口:ぼくの場合はマイクとスピーカーは基本的に1対1。だから、各マイクは100%各スピーカーの位置。もう録りの段階でサラウンド全体のサウンド・イメージを決めてるから。アンビエンスはちょっと大きめに録っておいて、バンドのミックスでいい空気感が出るところに調整しますけどね。
ROP:EQやコンプは…
沢口:しない。まあ、トランペットなんかは録りの時に赤防止のためのコンプはしますよ。PreSonusのADL 900を使ってるから、それのコンプを使う。ブラスにはそれがいいかなと思って。Drawmerもプリとコンプ両方使いますよ。チャンネルストリップとして。プリのあとにコンプ通って、というようなことはしなくて、もうチャンネルストリップ自身で完結しちゃう。音響ハウスのひとがよく「沢口さん、度胸ありますね~」って言うんだけど、「え?そうなの?」って感じ(笑)。
音響ハウス 1stでレコーディングする沢口氏。レベルはプリのゲインでコントロールしているため、どんなに音がよくてもステップ・ゲインのモデルは使用しないというのが氏のポリシーだ。
同じく音響ハウス1stにて。コンソールはモニターとしてのみ使用している。
3.レコーディングが始まった時には、ミックスはすでに終わっている!?
ROP:ドラムの録りにコンプをかけないっていうのが…叩いてもらって決める感じですか?
沢口:叩いてもらうっていうか、ぼくテストってしないの。マイク立てたらバンドがリハで音出しするじゃない。それ聴いてだいたい決めたら、はい録りましょうって言う。
ROP:本番で少し強くなったりしませんか?
原 朋直 氏『Color As It is』レコーディング風景。録音のノウハウについては次回詳しく紹介する予定だ。
沢口:そこはもう読んで(笑)。ピーク行っちゃうこともあるけど、多少のピークじゃ歪まないからね。ぼくはよく言うんだけど、「録音は覚悟だ」って。スタジオに入る前までにミュージシャンの配置はどうして、どういうサウンドにトータルでしたいか考えて、ミュージシャンの配置を決めて、マイキングを決めて、機材を決めてれば、もう出てくる音がだいたいわかるわけよ、ジャズとかクラシックはね。レコーディングが始まる前に十分に考えて、自分の中で「これだ!」と思えるところまで考えてからレコーディングする。そしたら、レコーディングに行った時にはもう、アーティストが淡々とやるのを聴いてればいい。というのがレコーディング・エンジニアだと思ってるんだけどね、ぼくは。
ROP:一番最初に出すソースはなんでしょう?いきなり全体をポンと出すのでしょうか。
沢口:そう。
ROP:そうか、もう録りの段階で決めてるから。まずベースの音を決めて、みたいなことは…
沢口:あ~、しない(笑)。パンと出して違和感がなければOK。あとはちょっと微調整で。
ROP:オートメーションを書かれることはあるのですか?
沢口:ない。音響ハウスの大竹さんに教わったんだけど、「ここだけ上げたい」ってところの前後で切って、クロスフェードかけて、そこだけ上げてやると同じことが出来るのよ。
ROP:クリップ・ゲインってことですね。
沢口:それの方がCPUに余計な負荷を掛けないし、もしもバグった時に…まあPyramixはほとんどバグらないけど。どっかでグチャグチャになっちゃったとかの心配もないじゃない。だから、もし必要な時にはそうやってるの、ぼくは。
大賀ホールでのストリングス・アンサンブル録音の様子。円周上に並んだ奏者の中心にメイン・マイク、ステージ際にハイト・チャンネル用マイクが並んでいるのが分かる。
4.一貫生産主義だから可能なシンプルなマスタリング
ROP:沢口さんは「マスタリング」という作業自体は意識して行っていますか?
沢口:ぼくがいまやってるジャズとクラシックに限って言えば、マスタリングっていう作業は、アルバムの順番を並べるとか、変なトゥルー・ピークが出ないように防止するとかっていう意味でのマスタリングはもちろんしないとアルバムにならないからしますよ。でも、ぼくの場合は一貫生産主義というか、いろんなスタジオでやってるわけでもないし、いろんなエンジニアが曲に関わってるわけでもないから、世に言う「マスタリング」っぽいことはしてないかな。
ROP:以前はxrcdも制作されていましたが、ハイサンプリングで制作されたマスターをCDフォーマットに落とす際にどのような作業をされていたのでしょう。
UNAMASレーベルが以前リリースしていたxrcd版
沢口:xrcdの時は小鉄さん(小鉄 徹 氏)に頼んでましたよ。ビクターの名人に。ビクターのスタジオにぼくがマスターを持って行って、CDにハマるのにいいように、というのはお願いしてたね。あのひとも本当のプロだから、非常にオープン・マインドで、何をやったかって全部教えてくれるんだよね。あれで勉強になりましたよ。
ROP:具体的にはどういうことをされてたんでしょうか。
沢口:そこは小鉄さんのノウハウですから…そこに来たマスターを聴いて、そのためにはどうするかっていうノウハウなんじゃないの?ある帯域をちょっと上げるとか、、、。ハイレゾがまだない時代だったから、CDになった時に一番かっこよくなるためにはどうするか、っていうノウハウは長年蓄積されてたみたいですけどね。UNAMASのレコーディングをxrcdにしてもらうときに、3パターン作ってくれたんですよ。何もしていないもの、薄化粧のもの、コテコテに色付けしたもの、とね。ぼくは思わず、何もしてないものが一番いいって言っちゃったんだけど、そしたら小鉄さんが「確かにこれはいいですけど、xrcdにしたときに音が薄くなると思いますので、薄化粧したものにしましょう」って言ってくれて。そういう、クライアントに対してもちゃんと意見を言えるっていうところが、本当のプロだなって思いましたよ。
ROP:アナログ・テープに落とすのに何か特別なことはされていますか?
沢口:何にもしてない。テープの方で振り切れないレベルをいっぺん探して決めれば、あとは何もしない。
ROP:ダイナミック・レンジを搾ったりもされない?
沢口:歪まないでほどよきところはどこかな、っていろんなやつ(音源)で聴いて、いまはぼくのシステムなら-12dBで送り出せば大丈夫だなっていうのが決まった。たまたまマスターフェーダーを何もいじらないでその値になってた(笑)。だから何もしてない(笑)
5.どんなときも次への準備を怠らない姿勢に感服
Pyramix 10より実装された3Dパンナー。画面左が部屋を垂直に、右が水平に見た図となっている。複雑な3スピーカー・レイアウトの中でも直感的な作業を可能としている。
ROP:Pyramix10で追加された3Dパンナーは使用されてますか?
沢口:使ってますよ。Pyramixのは使いやすくなった。世界で10人くらいのひとにβ版配ってフィードバックを反映してるから、よく練り上げられてる。ぼくは各チャンネルに各マイクを当ててるだけだけど(笑)。ポスプロのひとたちは使い込めるだろうね。主にヨーロッパだけど、大きな映画のスタジオにはPyramixが入ってるからね。イギリスだとパインウッドっていう老舗のスタジオに入ってる。フランスもそうだし。
ROP:トップに6トラックありますが、こちらは?
沢口:これは将来Atmosの7.2.1chミックスをしようとした時のために入れてあるだけ。いまはレベルを下げてハイト・レイヤーに入れてある。もし、将来Atmosミックスで出すっていったら、バスのレイアウトをAtmosに変えて…サイドにスピーカー立てないといけないけど(笑)。ぼくはAuroの方が音楽向きだと思う。Atmosはサウンド・デザイナー向き。拡張性はAtmosの方が高いけどね。なんでも出来るよ。
ホームシアター用Atmos7.2.1chスピーカー・レイアウト。より広い空間を表現しようとしているのが分かる。
Auro 3D 9.1chレイアウト。Atmosと比べて、Auroはリスナーを包み込むような配置になっていることが分かる。
◎「表現」と「高音質」を求めた結果はPyramix
1.DAWが実現した自主レーベルの夢
ROP:沢口さんがPyramixを導入して、ご自身のレーベルを立ち上げるまでの経緯を伺えますか?
沢口:1971年にNHKに技術として入局したのがその年ですね。NHKは4年くらいは地方局という各県の局に行って「放送の基本を勉強してきなさい」という期間があるんだけど、それが終わってから最終的に自分でどういうことをやりたいのかということを決めて、それぞれの方向に行くんですよ。ぼくは勉強はしなかったけど、昔からオーディオは好きだったから、音声制作やりたいなと思って。渋谷の放送センターに制作技術センターという番組の部門があるんですけど、そこの音声を希望して。まあ、そこに配属になってからずっと定年までそこにいたの。定年してからはPioneerのオーディオ関係の顧問をやりましたけど、定年前から「もう宮仕えはいいから、自分で好きなことをやりたいな」と思ってて。ゆくゆくはこういうシステムを組んで自分のレーベルを作りたいな、と思ってたの。
ぼくが定年したのが2005年なんだけど、2000年くらいからいろいろと考え初めて…。ぼくはNHKにDAWというテープレスのシステムを入れたのは早かったんですよ。AMSのAudiofileというのが当時あって。でも、当時のコンピューターの能力の問題で8トラックが限界だった。2トラックのマスタリング用か、4トラックか、多くて8トラックっていうのがその当時のDAWの状況だったんですよ。今みたいにPro Toolsで平気で何十トラックもサクサクやってるって時代じゃなかったから。8トラックくらいのAudiofileっていうのをポスプロに入れたんですけど、やっぱりテープの制作方法と違って圧倒的に自由なんだよね。例えば、巨大なコンソールとマルチトラックのテープとかを持って、自分でレーベル作るっていうのはなかなか大変じゃない。だけども、「そうか、コンピューターで、DAWを使ってやるんだったらひとりでも出来るんじゃないかな」とその頃思って。で、いろいろ情報を集め始めてね。Pyramixは2002年に初めて入れたんですけど、当初は48kHzのサンプリングレートで始めて、96kHzに行って。で、今は192kHz/24bitっていうところでずっと制作をしてるんです。
新しい表現への挑戦 - サラウンドで音楽をやる!
渋谷にいた時代からぼくは2chの世界っていうのには、まあ、辟易してた。限界があるな、と。自分たちがやっててね。ぼくがやり始めた1970年代の後半というのはオーディオ・ドラマはまだモノラルが主流で、ステレオのオーディオ・ドラマというのは年に一作くらいしかできなかった。それはシステムもそうだし、作品もなかった。年に一作、60分のステレオのドラマを作るのに3ヶ月くらいかけてた時代。ぼくはスタジオを作るのにもすごい興味があったから、そういう制作にふさわしいスタジオも作ろうと思って、オーディオ・ドラマ専用のスタジオを作ったんです。それで、毎週1本レギュラーのドラマがステレオで作れるようになった。インフラが整ったから。
それで誰でも毎週ステレオのオーディオ・ドラマがやれるようになった。で、やってると、ぼく自身がステレオの中だけでイメージを作るということにすぐに限界を感じた。それで、何かないかと思って探したんですよ。で、サラウンドっていう新しい世界をやりたいと思ったから、そういう勉強も自分でずっとして来ましたし、制作するときにもステレオ命じゃなくて、サラウンドの音楽っていう表現もしたいと思ってた。当時のPyramixはすでにサラウンドに対応していて、そういう製品もあったから、DAWで、個人のレーベルで、CDじゃなくてハイクオリティなもので、サラウンドという新しい表現が出来るというところをポイントにして、UNA MASレーベルというものを作って、今に至ったというところだね。
ROP:その当時サラウンドが出来るDAWというのはPyramixだけだったんですか?
沢口:あるにはあったんだけど、バスを構成しなきゃいけなかったり、いろいろと面倒臭かった。Pyramixは当時からサラウンドのパンナーが最初からあって、そのまま何もしないでも使えるという状態だった。ぼくが将来的にレーベルを作りたいと思って勉強していた時期に4つくらいの候補があったんですよ。もちろん、いろいろな機種を聴き比べましたけど、16トラック以上の録音が出来て、なおかつサラウンドにも対応しているというところで絞って行くと、当時では4メーカーくらいだった。Fairlight、Pro Tools、Pyramix、Sadie、くらいがぼくのニーズに合致するDAWだった。
Pyramix高品質の秘密?ソフト・クロックとは!?
沢口:情報を集めるのにはAESの仲間、ヨーロッパのひとやアメリカのひとにも頼りましたよ。すると、ヨーロッパの連中が「お前どういうタイプの音楽をやりたいんだ」って言う。当時はクラシックやるなんて思ってなくて、ジャズしか念頭になかったから「ぼくはたぶんジャズ、アコースティック系でハイクオリティなものをやりたいんだ」というと、「じゃあ、ぼくらが勧めるのはPyramixだね」ということだった。その当時、実はアメリカの連中も先に挙げたのとまったく同じ候補を比較してた。Ocean Wayのスタジオでパラでバンド録音して、エンジニアが聴き比べをする、っていうことをやってたんだよね。それはブラインドでやるテストなんだけど、音がいいってことではダントツでPyramixだったんだよ。それで、ぼくもその4機種をこっちでいろいろと聴かせてもらって。そしたら、やっぱりダントツに音がよかったんですよ。それでぼくはPyramixにした。当時はバージョン5でした。いま使用しているこれがバージョン10。
ぼくがその音の秘密だと思ってるのが、内部マスタークロック。ぼくは勝手に「ソフト・クロック」と呼んでるけど(笑)。これが微動だにしない。
シンク・ソースによる同期の違い。Pyramix内部のクロックがいかに精確かが分かる。
クロック・ソースにAESロックを選択した場合。サンプリング周波数、時間軸上のズレがあることが分かる。
同じく外部ワード・クロックを同期信号として取った場合。やはり、微小なズレがある。
ROP:それはMassCoreの恩恵でしょうか。
沢口:いや、Pyramixの設計思想自体がそうなんだよ。CPUがマスター・クロックを持ってるんだけど、そこに色んな信号が入って来るじゃない?それをズレないようにソフトウェア上で全部合わせて行くっていうアルゴリズムなんですよ。そうすると全然ブレない。一般的にはマスター・クロック・ジェネレーターを使って、「どこのメーカーのがいい」とか、「このジャンルにはこのクロックがいい」とか、賑やかしくやってるじゃない?それは、実際には何が変わってるかというと、ジッターとマスターの周波数がドリフトしてるんですよ。例えば、192kHzって言ってても実際には191.99986とか、そういう周波数になってるのよ。しかも、時間とともにドリフトして(ずれて)いく。それは発振器の精度というのが温度特性によって変わるから。なおかつ、ジッターのタイミングも揺れる。つまり、本当はデータがシンクしてない。メーカーによってその揺れの度合いが違うから、音が変わる。もちろん、音作りにそういうものを使うのはアリだと思うけど、そういうハード・マスターというのは純技術的に言うと安定してないということなのよ。それに対してソフト・クロックというのは、何が来ても自分の中でバチっとやってるから、まったく安定してるんですよ。ぼくは、それがPyramixが音がいいひとつの理由だと思うんだよね。ほら、今はぴったり192kHzでしょ?外部マスターを使うとここが微妙にズレる。物理的なクロックはどうしても変動する。なおかつ、ジッター、これがクセモノだから!ジッターがあると絶対音が変わる。これもソフト・クロックにはまったくない。
これが音がいい理由のひとつ。もう一個は、いまはもう当たり前になったけど、Pyramixは最初からアルゴリズムに浮動小数点法を採用してるんだよね。これがあることで、ミックスバスでの内部飽和もないし、データの欠落も起こらない。サミング・アンプとか流行ったじゃない。あれはDAWの内部でミックスすると飽和しちゃうっていうんで、レンジの広いアナログに出して戻す、というやり方だったわけだよね。
ROP:15年近くPyramixを使用している沢口さんですが、導入当初のバージョン5から音質はよくなってるという印象はありますか?
沢口:どんどんよくなってるね。特にバージョン8からバージョン10…ぼくは9は飛ばして10にポンとあげたんだけどね…その時に彼らは、この部屋にもあるHorusというAoIP技術を導入したんですよ。これによって格段に音はよくなったね。あとは、音声処理が専用DSPカードであるMykerinosからMassCoreに変わってからも音が非常によくなりましたね。処理スピードも速くなったし。DSPより価格も安くなったし(笑)。
◎UNAMASサウンドを生み出すPyramixシステム
UNAMASサウンドを生み出す3つのPyramixシステム
沢口:いまはPyramixを3台持ってます。一台はスタジオ用で、Horusと組み合わせている。もう一台はNativeで、MacBook Proで動かしてます。大賀ホールで録音する時などのモバイル用として使っていて、動作は全然問題ない。Boot Campの性能がよいのかな。CPUの消費量も少ない。制約はありますけど、Native内で制作出来るひとはこの組み合わせで十分行けますよ。最後は、カミさんがやってるジャズクラブのUNA MASに置いてあって、ライブを録ろうと思えばいつでも録れるようになってる。
ROP:レコーディングはNativeでやってるんですね?
沢口:外でやる時はね。それでは危ないな、と思った時はフルセット持って行きますよ。
大賀ホール収録時のモニター・ルーム。画面中央のMacBook Proが沢口氏のDAW。
ROP:ご自宅のシステムはミックス専用なのでしょうか。
沢口:そうだよ。Windows 7 Proの64bit、2002年のシャーシをそのまま使ってる。中のボードとかは新しくしてるけど。なぜかというと、ベイが3つあるっていうのが、ぼくにとって使いやすいんだ。今のは1ベイしかない。2.5インチのやつは6つ入るけど、3.5インチの方がなんとなく安心なんだ、大きいから(笑)。
ROP:気分の問題(笑)。
沢口:そう(笑)。HorusとはLAN一本でつながってて、HorusはAESとMADI、ADとモニター用のDAが入ってる。Horusは8chなんだけど、9.1は10ch。足りない2ch分はどうしてるかというと、フロントのヘッドホン・ジャックから取ってる(笑)。もう一枚カードが買えるお金があればいいけど(笑)。
ROP:沢口さんのシステムはDSD対応ではありませんが、なにか理由があるのでしょうか。
沢口:DSDはミックス/編集のために必ず途中でAD/DAか、DXDが要る。ぼくの鉄則は、デジタル・ドメインはフォーマットのコンバートを絶対にしてはいけないということ。コンバートは音を確実に悪くする。それをするんだったら、もう「DSDで録る本来の意味はないな」と思うからやらない。
ROP:でも、これまでの沢口さんの制作手法だと、マイクとスピーカーが1対1で、フェーダーもほとんどいじらないわけですから、DSDを使用してもよいのではないですか?
沢口:実は、クラシックはすごい細かく編集するんですよ。一発で5分なんて録らない。そういう制作手法なんだよね。最初にやった時(『Four Seasons』)に「10分くらいバーっと出来るよね?」って、ジャズと同じ調子で言ったら、「沢口さん、何を言ってるんですか!?」って(笑)。
ラック足元のコンピューターが沢口氏のPyramix本体。ラックにはHorusのほか、愛用のTC Reverb 4000などが見える。
アナログの名機はそれだけでアート - Pyramixを信じるもうひとつの理由
ROP:ADは何に使ってらっしゃるのでしょうか。
沢口:いまはAVアンプのサラウンド・アウトが繋がってて、要はテレビ見るのに使ってる(笑)。映画とかの音声を一回Pyramixに取り込んでモニターしてんだ。あと、愛用してるTCのリバーブが96kHzまでしか対応してないから、このリバーブとはアナログでやりとりしてる。
ROP:あれ?AD/DAしてる…?笑
沢口:まあ、リバーブくらいはいいかと思って(笑)。それと、ステューダーとのやり取りにも使ってるね。最近2トラックファンがいて、UNA MASのマスターで作ってくれっていうんだよ。完成した2chミックスをアナログ・テープに落としてる。柳井さんにいっぺんオーバーホールしてもらって、40kHzまでフラットだよ。
ROP:沢口さんのメインはデジタルだという認識ですが、アナログ・テープの音については実際どのように感じてますか?
沢口:そりゃもう、アナログの…ほどよく収まりがいい、っていう音だね。ただ、デジタル・マスターの方が自分の作品としては100%という認識。ぼくは頭の中のリファレンスは192kHz/24bitの9.1chになってるから。デジタル・マスターが釣り上げたばかりのイカの刺身だとしたら、2トラはスルメだよね。磁気テープの味っていうのは、好きな人にはいいよね。あそこにNagraもあるけど、アナログの名機っていうのはそれだけでちゃんとアートしてるからね。
ROP:Mergingの社長はもともとNagraの方ですね。
沢口:そう。だから、ぼくはPyramixを選ぶ時には会社の成り立ちも聞いたんだよ。そしたら、Nagra、Studer、EMTにいたひとたちがスピンアウトして、デジタル時代の新しいものを作りたいと言って作った会社だっていうんだよね。ぼくはそこを信用したのよ。
DAWというのは1980年代の後半くらいから雨後の筍のように、それこそ50メーカーくらいバーっと出たんだよ。そのほとんどがコンピューターのプログラムをやってたひとが作ってるんだよ。そうすると、本人たちは音のことが分からない。音が録れて、波形出てればそれでいい、みたいな。音の善し悪しが判断出来ないし、それから、GUIがすごく悪かった。音を録るためにはどこにどんな表示があればいいか分かってないから、すごく押し付けがましく感じて使いにくいんだよ。まあ、だんだん淘汰されたんだけど。
それがPyramixを選んだ理由のひとつ。ずっとアナログの名機を作ってきたひとたちが、デジタル時代の機材を作ったんだな、ということで素直に信用出来たんですよ。
常に新しい表現方法を模索しながら、原点である音に対するこだわりを持ち続けてきた沢口氏。そんな氏のニーズにマッチするDAWとして選ばれたPyramix。「何よりもまずDAWとしての基本的な要素が本当に充実してる」という氏のことばが印象的でした。
次回はレコーディングの話題を中心に取り上げます。UNAMASサウンドの核とも言えるマイキング・コンセプトや、ジャズ、クラシック録音それぞれの実際のセッティグ図などとともにご紹介します。ぜひ、お楽しみに!
Tech
2016/05/26
ROCK ON Buying Guide ~Mic PreAmp編~ 第二弾:機能と活用術で選ぶ必携プロダクト!2-3 Rupert Neve Designs / R6+511
全3回によるROCK ON PRO Buying Guide Mic Preamp編の第2弾!Sym・Proceed / SP-MP2、Chandler Limited / TG2とご紹介してまいりましたが、今回の第2弾最後となりますのがRupert Neve Designs / R6+511!!レジェンド、ルパート・ニーヴ氏による現在進行系のNEVEサウンドがここに!
機能と活用術を学ぶ!! Rupert Neve Designs / R6+511
CHANDLER LIMITED TG2 ¥318,600
RUPERT NEVE DESIGNSPortico 511 ¥ 82,080 (本体価格:¥ 76,000)1,231 ポイント還元
RUPERT NEVE DESIGNSR6 Six Space 500 Series Rack ★台数限定 高品位ケーブルプレゼント!¥5,400Value!¥ 97,200 (本体価格:¥ 90,000)1,458 ポイント還元
*PCでダウンロードしてください。スマホ、タブレットはお使いいただけません。
※SoundCloudは圧縮音声ファイルです。
・女性Vo素材
Silk OFF
Silk ON(Texture 50%)
Silk ON(Texture 100%)
・アコースティックギター
Silk OFF
Silk ON(Texture 50%)
Silk ON(Texture 100%)
◎素材収録環境
MicNeumann U87Ai
Cablemogami #2549
MicPreampRupert Neve Designs / R6+511
DAWProTools HDX、Pro Tools HD12 [ セッション設定192kHz 32bit Frout ]、HD I/O 8×8×8(internalClock)
CPUApple Mac Pro Early2009 (2.66GHz Quad Intel Xeon、OSX 10.9.5)※アウトボードやエフェクトなどの処理は一切行っていません
今回はあくまでリファレンスとしてNEUMANN U87aiでの収録。
U87aiの周波数特性として5kHz付近より上から緩やかに持ち上がっています。(参考:収録時の指向性セッティングと特性)
今回の素材ではSilk OFF、Silk ONのTexture 50%、Silk ONのTexture 100%(Max)の3パターンを録音、Silkモードのよる音質の変化を実感いただけると思います。
◎Rupert Neve Designsではおなじみの”Silk”搭載!Textureノブで倍音を調整する!
511はRupert Neve DesignsによるVPR Alliance規格モジュールのマイクプリアンプとなっています。その他にもVPR Alliance規格モジュールとしては、DI/マイクプリ&コンプの517、テープエミュレータの542、コンプレッサーの543、EQの551とラインナップがリリースされています。マイクプリとしては、511と517の両機種となるのですが、511では倍音コントロールのできる”Silk”スイッチがON/OFFできるだけでなく、Texture ノブによってその付加具合を調整できるようになっています。このSilk/ Texture は、出力トランスのネガティブフィードバックを軽減し、NEVEのビンテージデザインに似た周波数レスポンスを再現する機能です。Rupert Neve DesignsのチャンネルストリップであるPortico II ChannelではSilk (Blue)、Silk+(Red)と二つのタイプから選択ができます。Silk (Blue)では、中高域がはっきりとし、Silk+(Red)では低域がリッチになる印象です。
511では後者であるSilk+(Red)が搭載されており、従来の機種における最大設定値の約10倍のTHDを加算できるようになっています。これによってサウンドキャラクターは無限に広がりを見せてくれます。クリーンな音質でオケに埋もれないようにしたいという場合はTextureは絞り気味の設定がいいでしょう。Textureが高めの設定では、1073等OLD NEVEマイクプリで得られる心地よいサチュレーションの付加されたまさにシルキーなサウンドを手にいれることができます。このTextureノブの設定は、サウンドを聴きながら徐々に上げていき調整するという使い方がナチュラルな音を得るポイントとなるでしょう。
◎可変式ハイパス・フィルターでソースを磨きあげる!
511で搭載されているハイパス・フィルター(HPF)は20Hz~250Hzの可変式となっています。特定のポイントでのフィルターのON/OFFが搭載されているマイクプリは多いですが、511では可変式となることにより、削りすぎずに不要なLow成分だけ除去するという使い方のほか、積極的な音作りでもこのフィルターを使うことができます。先ほど紹介したSilkモードとこのフィルター組み合わせによって、Rupert Neve Designs / 511はクリエイティブなマイクプリへと変貌するのです!
◎自社製モジュールの性能を最大限発揮するため、開発された電源ラック”R6”
VPR Alliance用のラックはAPIはもちろんのこと、あらゆるメーカーからリリースされています。ラックによってサウンドが変化するというのも事実としてありますが、モジュールの力を発揮するという意味ではやはり電源の供給量が重要となってきます。Rupert Neve Designs R6では6基のモジュールに対して、必要な規格電源容量の150%ものパワーを供給できる設計となっているためお持ちのモジュールを余裕のある状態でご使用いただけます。また、フロントのメーターにより電源供給の状況を常にチェックできるので安心感はさらに向上します。またR6ではリンク機能も搭載しているので、コンプレッサーのステレオ使用時などの時に大変便利です!R6はVPRモジュール使用時に抱える電源不足の不安を解消するだけでなく、利便性も兼ね揃えたラックとなっています。
個人的な意見になりますが、このR6電源ラックでは500シリーズに感じていた音の細くなってしまう印象がなくモジュールが持つ性能が最大限にと発揮されている印象を受けました。それはRupert Neve Designs製モジュールに限らず、他社モジュールでも感じることができます。
◎プリアンプの特性を活かすならこの組み合わせ
R6+511で導入された場合、残り5モジュール空きができます。 他のモジュールと組み合わせて自分だけのチャンネルストリップを構築してみてはいかがでしょうか?!511のSilkモードによりビンテージ感あふれるサウンドを手にいれることができます。そしてさらにチューブコンプレッサーとの組み合わせによりサウンドに温かみ、なめらかさを付加してみましょう!オススメはRetro Instruments / Doublewide Compressor!このサイズに4本ものNOS 6BJ6バリアブルミュー・チューブが搭載されており、サイズに劣ることのないサウンドを提供してくれます。511+Doublewide Compressorでの組み合わせでは、ヴォーカル録音で一番活躍するでしょう!倍音を可変でコントロールできるSilkモード+Doublewideの持つ温かみのあるチューブサウンドがヴォーカルソースの持つキャラクターや存在感を極限まで引き立てます!!
Tech
2016/05/18
ROCK ON Buying Guide ~Mic PreAmp編~ 第二弾:機能と活用術で選ぶ必携プロダクト!2-2 Chandler Limited / TG2
全3回によるROCK ON PRO Buying Guide Mic Preamp編の第2弾!前回ご紹介したSym・Proceed / SP-MP2に続き 今回はChandler Limited / TG2をご紹介致します。『NEVEとAPIの融合的なサウンド』と称されるそのサウンドの魅力に迫ります!
機能と活用術を学ぶ!! Chandler Limited TG2
CHANDLER LIMITED TG2 ¥318,600
CHANDLER LIMITED
TG2
¥ 318,600
(本体価格:¥ 295,000)
15,930 ポイント還元
*PCでダウンロードしてください。スマホ、タブレットはお使いいただけません。
※SoundCloudは圧縮音声ファイルです。現在TG2期間限定展示中!5月末までRockoN店頭にて本当のヴィンテージサウンドを体感できます!
・女性Vo素材
・アコースティックギター
1,ノーマルGain設定+30dB
2,ノーマルGain設定+45dB
・アコースティックギター
1,限定Back to Basicモデル “ファット・サウンド・モード” ON Gain設定+30dB
2,限定Back to Basicモデル “ファット・サウンド・モード” ON Gain設定+45dB
◎素材収録環境
MicNeumann U87Ai
Cablemogami #2549
MicPreampChandler Limited TG2
DAWProTools HDX、Pro Tools HD12 [ セッション設定192kHz 32bit Frout ]、HD I/O 8×8×8(internalClock)
CPUApple Mac Pro Early2009 (2.66GHz Quad Intel Xeon、OSX 10.9.5)※アウトボードやエフェクトなどの処理は一切行っていません
今回はあくまでリファレンスとしてNEUMANN U87aiでの収録。
U87aiの周波数特性として5kHz付近より上から緩やかに持ち上がっています。(参考:収録時の指向性セッティングと特性)
アコースティックギターの録音では異なるInputGain設定とBack to Basic “ファット・サウンド・モード”ONでのサウンドも録音しています。GAIN設定は+30dB、+45dBのものとなります。Vocal素材ではGAIN+30dBとなります。女性ボーカルのオープンなサウンドを確認できると思います。
◎INPUT と OUTPUT の調整で作り出す多彩なヴィンテージサウンド!
Chandler Limited / TG2は『NEVEとAPIの融合的なサウンド』と称されるオープンかつ、パンチのあるサウンドキャラクターとなっています。TG2では2つのノブが搭載されており、その二つのノブの設定で多彩なサウンドを作り出すことができます。赤色のノブが『Input』青色のノブが『Output』となっています。InputGainを高めに設定した場合、ヴィンテージサウンドと言われるような中低域にパンチ感があり倍音成分が多く含まれたサウンドを得ることができます。
さらにInputGainの高めの設定では、100Hzあたりから緩やかに低域がロールオフするという特徴を持っています。このことにより、より中低域の密度が増したように感じ、パンチ感が強調されるのでしょう。そのサウンドのパワーからギターのアンプ録音の際に使われることの多いTG2ですが、是非ボーカル録音でも使用していただきたいです!Input,OutputGAINの設定によりクリアなサウンドのボーカルやオケに埋もれないガッツのあるボーカルなど幅広く対応が可能です。
◎2chを混ぜて出力する、Summing Switch
TG2の特徴的な機能ひとつにサミングスイッチがあります。このスイッチをONにする両チャンネルの音がMixされます。ギターアンプへマイクを複数立てろシーンがあると思います。例えばSM57,MD421の2本を使用したとします。この2本のマイクのMixし音を1トラックに録音できるというわけです。エンジニアの方の中では、このMixをコンソールで行う方もいると思いますが、TG2のサミングスイッチを使用することによって少ない接点でDAWを音を送ることができるため、音の劣化を考慮するとサウンド的に有利といえるでしょう。
◎台数限定のモディファイヴァージョン”BACK TO BASICS”
Chandler Limitedの代理店であるアンブレラカンパニーでは「ハードウェアー機材の素晴らしさ」を伝えるプログラムとして、CHANDLER LIMITED TG2 マイクプリアンプ/DIをモディファイした “TG2(BACK TO BASICS)“を発表しています。
BACK TO BASICSとは、代理店であるアンブレラカンパニーが企画するハードウェアー機材の素晴らしさを伝えるプログラムとなっており “TG2(BACK TO BASICS)“ではマイクロフォニックノイズを対策したメカニカルなチューニングにより、オリジナルTG2のサウンドの魅力を100%引きだすだけでなく、メーカー直伝のファット・サウンド・モードを追加搭載しています。上記でもお伝えしましたが、TG2はハイゲインの設定で使用した場合、低域が緩やかにロールオフする特性を持っていますがこのモードで使用すると、よりフラットな特性を得ることができます。
下の図はアンブレラカンパニーのページに掲載されている通常のTG2と”BACK TO BASICS”の比較の図です。一番上のライン(+75dBの場合)で説明すると2本のラインが重なって途中で枝分かれしているのが確認できると思います。黄色は“ノーマル仕様のTG2”の周波数レスポンス、水色が“TG2(Back to Basics)となっています。”BACK TO BASICS”がフラットな特性であることがわかります。
”BACK TO BASICS”Verは30台限定となっております。気になる方はお気軽にROCK ON PROの阪田、清水までお問い合わせください。
Tech
2016/05/13
ROCK ON Buying Guide ~Mic PreAmp編~ 第二弾:機能と活用術で選ぶ必携プロダクト!2-1 Sym・Proceed / SP-MP2
全3回によるROCK ON PRO Buying Guide Mic Preamp編の第2弾!前回サウンドキャラクター別に分類した3機種の中からSym・Proceed / SP-MP2をご紹介致します。透明度、高いトランジェント、均一なch設計がマイクの特性と個性を素直に引き上げる様子を是非試聴ください。
機能と活用術を学ぶ!! Sym・Proceed SP-MP2
Sym・Proceed SP-MP2 ¥300,000
Sym⋅Proceed
SP-MP2
¥ 300,000
(本体価格:¥ 277,778)
15,000 ポイント還元
*PCでダウンロードしてください。スマホ、タブレットはお使いいただけません。
※SoundCloudは圧縮音声ファイルです。本当のトランスパレントサウンドはぜひ店頭で体感ください!
・女性Vo素材 (後半Dry素材へ)
・アコースティックギター
◎素材収録環境
MicNeumann U87Ai
Cablemogami #2549
MicPreampSym・Proceed SP-MP2
DAWProTools HDX、Pro Tools HD12 [ セッション設定192kHz 32bit Frout ]、HD I/O 8×8×8(internalClock)
CPUApple Mac Pro Early2009 (2.66GHz Quad Intel Xeon、OSX 10.9.5)※アウトボードやエフェクトなどの処理は一切行っていません
今回はあくまでリファレンスとしてNEUMANN U87aiでの収録。Acoustic Gtrなどアタックの強い素材であればSP-MP2のトランジェント特性を活かしたマイク選択も魅力ですので、27日の試聴コンテンツではそちらもご案内いたします。
U87aiの周波数特性として5kHz付近より上から緩やかに持ち上がっていますが、Instrumentsの試聴では特性が素直に引き上げられることを体感いただけます。(参考:収録時の指向性セッティングと特性)
◎捉えたサウンドをI/Oへ届ける、DAW時代のマイクプリアンプ
40KHzまで±0.03dBという極めてフラットな周波数特性、高速と表現するべきトランジェント特性は他のマイクソリューション収録では再現できない『失われた音』を呼び起こします。
超低域から倍音まで透明に再現しI/Oへと届ける、それはまさにDAW上での後処理の余地を最大限に残すことと同義です。
クリアなマイクロフォンであればその特徴は顕著に、そして真空管マイクが持つ濃密な中域、リボンマイクが捉える妖艶な空気感というように、『マイクプリでサウンドに色付けを行わない』このことは、マイクが持つサウンドキャラクターをより明瞭なものにするということを意味します。
それはパーツ選定と本体設計からも顕著に見て取れます。
透明感の再現のために
・一般的なバラ/アンバラのプリアンプ回路よりも1/3にまで抑え接点を最小化。
・24ポジションのロータリー・スイッチによって可変ではなく固定抵抗を切り替え。
・チップ抵抗に比べ割高な帰還抵抗を採用。
・-1dB&-2dBアッテネートによるFineチューニング
高いトランジェントのために
・信号の伝達効率に優れている単線のメッキ・テフロン線を採用
そのほかにもSP-MP4では外部であった電源トランスもSP-MP2からは内臓。筐体特性を考慮し音質を追求、厳選したものとなっています。持ち運びが容易になったこともSP-MP2の魅力ですね。ピュアというだけでなく66dBもの高Gainにより真空管/リボンマイクなどに真摯に向き合える能力もしっかりとおさえています。
◎プリアンプの特性を活かすならこの組み合わせ
SP-MP2は3dBのステップゲインとなっていますが、-1dB,-2dBのアッテネーターが搭載されており1dBずつのコントロールが可能です。SP-MP2ではchのごとの誤差が0.05dB以下、これはいかなるゲイン設定にしても保持されます。
ステレオ素材録音にもLR間の正確なゲインコントロールが可能なため、フィールド等ステレオマイクロフォンでの収録にも絶大なアドバンテージを持っているといえるでしょう。
個人的には透明度、高いトランジェント、均一なch設計、全ての特徴を活かし切るならやはり極小ダイアフラムのトランジェントに優れたマイクロフォンを採用した、アタック成分の多いInstrumentsステレオ収録でしょう。信号の減衰に至るまで逃さず捉えるため収録空間の選択も重要なファクターとなるはずです。SANKEN CO-100KやEarthworks QTC50mpなどは特性を考慮すれば最適な選択肢となるでしょう。
sanken CO-100K ¥288,000
Earthworks QTC50mp ¥397,440
◎素性の良さはユーザーの遊び心にもしっかり応える
透明感やトランジェントを活かす先ほどの選択肢とは異なり、マイクの特性を顕著に引き上げるという面では、遊びごころのある選択肢も可能です。
個人的にSP-MP2との組み合わせで使用したいマイクはLAUTEN AUDIOのLT-386 Eden。
LT-386 Edenは「Forward」「Neutral」 「Gentle」と3つの周波数特性パターンを切り替えることができるチューブマイク。暖かくヴィンテージな質感のサウンドからクリアでオープンなサウンドまで得られることができます。SP-MP2との組み合わせにより、そのモードの切り替えによるサウンドの違いを顕著に再現。ソースや楽曲が求めるキャラクターに1本で多彩に対応できるソリューションの出来上がりです。
Lauten AudioEden LT-386 ¥324,000
◎4ch仕様のSP-MP4
Sym⋅ProceedSP-MP4 ¥559,440
今回ご紹介したSP-MP2の4chモデル。独立したトロイダル・トランス。オプションのADコンバーター・カードはAES、S/PDIF、DSDをサポートするだけでなくマスタークロック入力も装備。SP-MP2の親機として透明感、トランジェントはそのままに『リアルサウンド』を収録する重要なファクターとなるでしょう。
Tech
2016/05/11
Rock oN REAL SOUND PROJECT~ヨーロッパの歴史が生んだDAW – Merging Pyramix 店頭試聴機も登場!!
2000年に及ぶ音楽の歴史を持つヨーロッパの風土に生まれ育ち、数多くのグラミー賞獲得作品で使用されてきたPyramix。そのPyramixをその音質の最大の秘密とも言える、誕生の背景とともにご紹介します!
◎レマン湖畔の文化が育んだPyramixのクオリティ
フランスとの国境でもあるレマン湖の北岸、ローザンヌとモントルーの間に位置するスイスの小さな町ピュイドゥー。Pyramixを開発するMerging Technologies(以下、Merging社)はこの町にあります。ユネスコ世界遺産にも登録された美しい景観のブドウ畑を持つこの町では、ひとびとは毎日音楽とともに過ごしています。ホールではオーケストラ、教会では賛美歌が流れ、街角では伝統的な歌が歌われます。クラブだってあります。この町ではテクノ/EDM
も盛んです。それだけでなく、彼らはとても奔放で自主的で、誰かが「音楽祭をやろう!」と言えば、どこか都合のいい場所にステージが作られ、そこは小さな劇場になります。それを見て眉をひそめるようなひとはほとんどいませんし、逆にそれを強要するようなひともひとりもいません。ピュイドゥーのひとたちはひとり残らず音楽が大好きで、そして、幼い頃からたくさんの音楽に触れているのです。様々なコミュニティがあり、みんなそれぞれ好きな音楽を好きなようにやっている…Pyramixはそんなスイスの湖畔の文化の中で生まれたのです。
[caption id="attachment_27060" align="alignleft" width="300"] Photo by MPF[/caption]
Pyramixが生まれる少し前のことを紹介すると、Merging社は1990年にピュイドゥーにほど近いシュブルという町に設立されました。創立者のClaude Cellierは大学で電子工学を修め、Nagra Kudelskiの下に10年間勤めた人物です。伝説的テープ・レコーダーであるNagra IV-SとNagra T-Audio TCの設計でも主要な役割を果たしました。Merging社のひとびとはみんな音楽が大好きですが、ただの音楽愛好家の集りではないのです。
ですから、Pyramixを使ってレコーディングされた作品たちが、誉れ高きグラミー賞の常連であることには、ひとつも不思議はありません。Merging社の誰にとっても音楽は気持ちのいいものです。だから、彼らは誰もが音楽を気持ちよく聴けるためのツールを開発したいと考えている、ただ、それだけのことです。
◎スイス・クオリティのテクノロジー
Photo by Paebi
ご存知の通り、製造業はスイスにとってもっとも重要な産業です。中でも電子機器、精密機器は世界的に有名で、腕時計や測定機でその存在を知っている方も多いでしょう。当然、Mergingのテクノロジーもスイス・クオリティを保証します。音楽を心地よい音で録るのが当たり前のように、彼らにとってテクノロジーが確かなものであることも当然のことなのです。そして、重要なのは、彼らはそのテクノロジーを音よりも優先することはない、ということです。Pyramixに実装されたどんなテクノロジーも、すべては素晴らしい音楽を気持ちよく聴くためのものだということです。
◎Rock oN Shibuya ショー・ルームでリアル・サウンドを体感する!!
今回紹介したPyramixは、Rock oN Shibuya ショー・ルームにてご体験いただけます。Pyramixの魅力、音楽の魅力を再発見していただくために十分な、Pyramix MassCoreシステム+Horusをチョイスいたしました。Merging社が現状もっとも心地よい音と認めるDSD256はもちろん、384kHz/32bit までのPCM、DXDモードでのDSD編集など、Pyramixでしか体験できない機能の詳細については、ぜひプロダクト・ページをご覧ください!
Tech
2016/05/11
音楽の喜びを分かち合うためのノウハウを提案!! Rock oN REAL SOUND Project始動!!
Rock oN REAL SOUND Projectのミッションは、サウンドと音楽の本質であるリアルなサウンド環境の構築を、プロフェッショナル視点で目指すことです。私たちは、最終的に生み出されるサウンドがなめらかに感情との共感をもたらすものでなくてはならないと考えます。テクノロジーの進化だけをやみくもに優先するのではなく、リアルサウンドと音楽のリアル体験を追求する事が私たちのミッションです。
◎音楽は一度きりのもの!?
「When you hear music, after it's over, it’s gone in the air. You can never capture it again. - 音楽は、終わってしまえば宙に消え去り、二度と取り戻すことはできない。」夭逝した天才マルチリード奏者エリック・ドルフィーの最後の録音に収録された、彼自身による言葉です。しかし、すべてのアーティストがその感動をより多くのひとびとと分かち合うことを望んでいるでしょう。音楽が生まれる瞬間に立ち会うという体験を記録することの重要性と、優れた録音は常に凡庸な生演奏よりもはるかにリアリティを持っていることを私たちは知っています。
◎レコードが伝えてきたもの
Blue Note Recordsの創始者であり、プロデューサーだったアルフレッド・ライオンがエンジニアのルディ・ヴァン・ゲルダーとともに作り上げた伝説的な「ブルーノート・サウンド」は、執拗なまでにプロセスされた音でした。「リアル」ということばを文字通りに取れば、彼の作り上げたサウンドは現実からかけ離れた、リアルと呼ぶには程遠いものでした。にもかかわらず、その音は同時代のどのレーベルよりも、はるかに生々しくジャズの熱気を再現することに成功していたのです。ドイツ移民のライオンが、アメリカで初めてモダンジャズに接したときの衝撃…彼が残したかったのは、単なる音ではなく、アルフレッド・ライオンという個人の身に起きた体験そのものだったのだと思います。当時の録音技術の限界の中でそれをリスナーに届けるために、あれほどの加工を施していたのではないでしょうか。
1966年以降のビートルズの作品に至っては、レコーディング技術を駆使した、ライブでの再現が不可能なものばかりでした。スティービー・ワンダーや山下達郎はオーバーダブを利用して複数のパートを自分で演奏したりもしていました。こうして制作された音楽は、確かに現実には存在しないサウンドです。しかし、それこそが彼らの頭の中で鳴っていた音楽、彼らがリスナーに伝えたいと願ったサウンドなのです。だからこそ、実在するかしないかとは無関係に、私たちの心を揺さぶるリアルサウンドなのです。
◎Got to be REAL !!
Rock oN REAL SOUND Projectはリアルなノウハウと実際の機材を含めて、様々な面からREAL SOUNDを追求します。機材単体のスペック主義に陥ることなく、何よりもリアルな音楽の体験を追求する事。歴史的名機から最先端のテクノロジーまで、その性能をフルに発揮するためのソリューションや、活躍中のプロフェッショナルへのインタビューなども交えながら、音楽制作の現場をリスナーとつなげるための、最高のツールとノウハウをご紹介いたします!
Tech
2016/05/11
Rock oN Real Sound Project ~Products~
2000年に及ぶ音楽の歴史を持つヨーロッパの風土に生まれ育ち、数多くのグラミー賞獲得作品で使用されてきたPyramix。テクノロジーは音楽を伝えるために存在するという姿勢を貫くPyramixに備えられた数々の独自技術、そしてその品質を堪能するためのPyramix導入ガイド!
◎Pyramixを使うためにはなにが必要?
DAW SoftwareであるPyramix、その最新バージョンであるPyramix10はWindows上で動作をします。PCはMassCoreという特殊な機能を利用するため、パーツレベルまで選別された専用PCが準備されます。専用設計された筐体には、データドライブとして6台の2.5inch HDDが搭載されRAIDが組まれたDSD対応の高速ストレージが搭載されています。また、System OSはm2 SSD上で動作し、非常に高速な起動を実現。
MassCoreは使わないという方には、Nativeバージョンが用意されています。Nativeであれば汎用のWindowsPCでPyramixを利用することが可能です。MacユーザーによるBoot Campでの使用事例もあります。MassCoreとは違い、手軽な導入を実現しています。Audio InterfaceはMerging社がリリースする至高の存在Horus / Hapiが有りますが、こちらはMassCoreを利用する際には必須のソリューション。Nativeの場合には、ASIO対応のインターフェースが対称となるため幅広いサードパーティーのラインナップからセレクトすることが可能となります。
◎すべてのエンジニアの要望に応えるDAW
Pyramixはスイスに本社を置くMerging Technologiesが、当初はオランダのレーベルであるフィリップス・クラシックスのために開発したDAWです。世界で最も厳しい現場のひとつである同社で認められた品質は、すぐに様々な場所で高い評価を得ました。Pyramixはその後もエンジニアたちの要求に応えるために進化を続けています。
DSD/DXDをはじめとした高品質オーディオ・フォーマットや22.2chまでの3Dサラウンドへの対応、最新のオーディオ伝送であるネットワーク・オーディオへの対応。そうしたフォーマットへの対応だけでなく、ワークフローを効率化する様々なコマンド・オプション、クロスフェードやファイル書き出しの豊富なバリエーション、ショートカットやマクロの作成、画面レイアウトやメニュー表示にいたるまでの徹底したカスタマイズ性など、DAWとしての基礎の部分で非常に柔軟で高い品質を誇ります。
◎Pyramixのラインナップ、構成
DAWとして驚くほどのオプションを持つPyramix。一つ一つの機能がコンポーネントとして提供されるために非常に多くのオプションから成り立っています。Merging社はよく利用されるオプションを組み合わせたBundleを提供していますので、先ずはBundleをベースに必要な機能を買い足していくという事となります。
前述のとおり、MassCore版なのか、Native版なのかという根本的な違いをまずは選び、その後に、DAWとして必要な機能を選択するというのがPyramixの構成方法。その機能比較は、以下の表をご参考いただくとして、選択の判断基準をご案内したいと思います。それは、なんといっても「DSDを使いたいか」ということに集約されます。DSDを利用するのであれば、必然的にAudio InterfaceはHorus / Hapiに限定されます。そうなると、やはりMassCoreがオススメ。レイテンシーなど全てにおいてベストな状況を構築できるMassCoreは最高品位の音質を提供するDSD / DXDを利用する際には是非とも合わせて使っていただきたい機能です。
Pyramixソフトウェア ライセンス別機能比較表
◎Pyramix選択のポイント、MassCoreを知る
Pyramix選択のキモとなるMassCore。このMassCoreとはどのようなテクノロジーなのでしょうか?単純にDSDマルチトラックを実現するための機能なのでしょうか?実はそうではありません。Mergingの高い技術力が生み出した、DSPを使用しない全く新しいSignalProcesserとなります。PCの起動時にCPUのCoreを専有しDSPとして動作させるMassCoreは、Pyramix Systemがそれまでに利用していたMykerinosと呼ばれるDSPカードの後継テクノロジーとして誕生しています。
Pyramixもかつては、Pro Tools HDシステムと同じように専用のDSPとそこに直接接続される専用のAudio Interfaceという組合せでシステムを実現していました。MassCoreは開発速度の遅いDSPを最新のCPUで置き換えるという、夢の様なソリューションを現実のものとしたテクノロジー。CPUのチップは開発サイクルが早く、さらにDSPチップと比較して膨大なパワーを持っています。MassCoreシステムでは、いかなるデバイスも追加することなく、44.1 / 48 kHzでの動作時に最大384チャンネルの同時入出力の確保、レイテンシーの低減、DXDモードでのDSDファイルの編集などが可能となります。
Native、MassCoreのDSD/DXD機能の違い
◎至高のAudio Interface “HORUS” / “HAPI"
[caption id="attachment_27237" align="alignleft" width="200"] Horus[/caption]
Mergingが開発したネットワーク・ベースのオーディオI/OであるHorusは、Pyramixと組み合わせて使用することで11.2MHzまでのDSDレコーディング / プレイバックを実現します。Pyramix以外のDAWと組み合わせて使用することも可能で、その場合Horusは高品位なマイクプリ、AD/DAを提供するASIO/CoreAudio対応のオーディオI/Oとして機能します。ブラウザ・ベースのアプリケーションによりディスプレイ上からのリモート操作が可能。リスニング・ポイントを離れることなくHorusをコントロールすることができます。
[caption id="attachment_27239" align="alignright" width="200"] Hapi[/caption]
HORUSとHAPIの違いは、オプションカードスロットの数。Horusは6Slotを持ち、高い拡張性を誇ります。Hapiは2 Slotとなり、コンパクトな1Uの筐体。オプションカードには、DSD対応のMic Pre搭載8ch AD、DA。PCM 192kHzまでのAD/DA、Pro Tools HDXカードと直接接続できるmini-Digilink portなど様々な機能を提供します。Ravenna(AES67)規格準拠のネットワーク・オーディオ・インターフェースであるHorusは、LANケーブル1本でシステムと接続、ギガビット・スイッチを使用することで、手軽にシステムを拡張することが可能です。
◎SPEC
HORUS
●フロントパネル 4.3" TFT液晶タッチスクリーン,PPMメーター,ルーティング / ゲイン / シンク設定,2 x ヘッドフォン出力(6.3mm & 3.5mm )
●デジタル入出力 AES/EBU 24チャンネル(D-Sub25),MADI 64チャンネル(BNC / SC)
●データ・ポート Ravenna入出力ポート(RJ-45) ※176 I/O@1fs
●シンクワードクロック入出力(BNC),LTC入出力,GENロック入力,MIDIまたはBi-Phase入出力(D-Sub15)
●オプション仕様 最大6枚までの拡張スロット(A/DまたはD/A),セカンダリーMADI拡張スロット,GPIO拡張ボード,リダンダント電源サポート
●重量 (リダンダント電源を除く) 6.5 kg
●サイズ (2Uラックマウント) W483 x D320 x H89mm
●電力ソース (AC) 90V-260V,47-63Hz
●消費電力 最大60W
●フロントパネルTFTサイズ / 解像度 4.3” / 480 x 272 ピクセル
HAPI
●フロントパネル OLEDスクリーン,ロータリーエンコーダー,PPMメーター,ルーティング / ゲイン / シンク設定,2 x ヘッドフォン出力(6.3mm & 3.5mm)
●デジタル入出力 AES/EBU 8チャンネル(D-Sub25),ADAT 8チャンネル&SPDIF 2チャンネル(オプティカル Toslink)
●データ・ポート Ravennaポート(RJ-45)
●シンクワードクロック入出力(BNC)LTC入出力/GENロック入力(D-Sub15)
●オプション仕様 最大2枚までの拡張スロット(A/D,D/A または MADI),ACまたはDCパワーサプライに対応
●重量 4.5 kg
●サイズ(1U) ※ラックマウント・ブラケット取付可 W483 x D320 x H44mm
●電力ソース (AC)90V-260V,47-63Hz
●電力ソース (DC)10-14V
●消費電力最大30W
●フロントパネル・ディスプレイ/ 解像度 OLED 160 x 128 ピクセル
◎OPTION CARDS
・AD8D/AD8DP
8chのADカード。AD8DPカードにはMic Preが付属します。更にDSD256/128/64対応はこちらの製品。AD8Dは192kHzまでのLine入力の製品です。
・DA8/DA8P
8chのDAカード。DA8PはDSD256/128/64対応の製品、DA8は192kHzの製品。オートミュートが備わり、電源投入時のポップノイズをキャンセルします。
・ADA8
8chのAD/DAカード。1枚のカードでAD/DAの両方の機能を提供します。PCM 192kHzまでの対応となりますが、Horusに搭載することで2Uで48chのAD/DAを提供することが可能となります。
・MADM/MADS
MADIの入出力を拡張するカード。1枚のカードで2系統のMADIを増設可能。MADMはMultimode-Fiber版、MADSはSinglemode-Fiber版となります。
・PT64
Pro Tools HDXと直接接続することのできる2系統のmini-DigiLinkを提供する製品。1台のHorusに2枚まで搭載することが可能で最大128chの接続を実現します。
◎DSD / DXDを再確認、その技術を振り返る
改めて、DSDそして、Merging独自の技術により、そのクオリティーを保ったまま、編集を可能とするDXDをおさらいしてみましょう。
◎DSD
ソニーとフィリップスが共同で開発したDSDフォーマットは、かつてはSACDの記録形式くらいにしか使われていませんでしたが、音楽配信が発達するにつれ、次第にポピュラーな存在となってきました。当初のDSD(DSD64)はサンプルレートが2.6MHzでしたが、Pyramixではその倍の5.6MHz(DSD128)、さらに倍の11.2MHz(DSD256)というサンプルレートを持つDSDで録音/再生が可能です。PyramixではこのDSD256で最大64chまでの同時入出力が可能です。
◎DXD
DSDは1bitの信号であるため、原理的に編集が出来ません。2値1桁しか表現出来ないDSD上では、1+1の答えすら返せないからです。DXD(Digital eXtreme Definition)はMerigngがSACD制作のために開発した、DSDを編集するためのフォーマットです。DSDを352.8kHz/24bitのPCMとして処理する技術で、DSDからの劣化を最小限に食い止めながら、クロスフェードやプラグイン処理などを可能とします。
◎DSD/DXDファイルを無料でダウンロード!
30を超えるレーベルから850近いタイトルをラインナップするDSD配信販売サイトNative DSD MusicとMergingがタイアップして、Native DSD Musicのサイトで11トラックを無料で配信しています。同じトラックをDSD64〜DSD256、DXD、ステレオ、マルチチャンネル・サラウンドなど様々なミックスで聴くことが出来ます。Eメールを登録するだけのアカウントを作成すれば、誰でも無料でダウンロード出来ますので、DSD再生環境をお持ちの方はぜひお試しください。
>>Native DSD Music サイトはコチラ
Rock oNではREAL SOUND Projectとしてクオリティ豊かなレコーディングをコーディネートしていきます。クラシックの収録から、ミュージシャンの息吹が伝わるジャズのレコーディングまで、現場のリアルなサウンドと感動をリスナーに伝えることができる、その一翼を担うのが今回ご紹介をしているPyramixになるのではないでしょうか。明日、5/13はFirst Impression Reviewを公開!! Pyramixの最大の特長とも言えるDSDに触れた感動を皆様にお伝えしていきます!!
Tech
2016/05/11
Rock oN REAL SOUND Project ~Review~聴き手を夢から醒めさせない – Merging Pyramix DSD256レコーディング
音だけではなく、聴き手に音楽の感動まで伝えるためには、なめらかでゆとりのある再生音が必要です。スピーカーから流れ出た音が、まるで部屋を満たしていくようにスムーズであることで初めて、リスナーは音楽に没入することが出来ます。まるで催眠術をかけるように、音楽のあった場所に聴き手を連れて行く…DSD256レコーディングなら、そんなサウンドを実現することが出来るでしょう。そして、それを可能にするDAWは現在世界でただひとつ。それがMerging Pyramixです。
◎アナログに最も近いデジタルだけに許された没入感と感動
・「コンソール・アウトと区別がつかない」
・「いつものモニターが数ランクも上の製品になったようだ」
・「ベストなコンディションのアナログ・システムで録った音とそっくり」
…Pyramixにだけ許されたDSD256レコーディングの音を聴いた方々の感想です。その音をことばで例えるとしたら、まるで磨き上げられた大理石のようです。その輪郭はしっとりと引き締まっていながら、覗き込めば複雑な模様が綾を成し、手に取ればしっかりとした重みと密度感がある…しっかりとした実像感がありながら、その音はゆっくりと柔らかく部屋を満たしていく…。
DSD256の音を聴いた時、まるで堰を切ったようにイメージが溢れ出したことに驚きました。モニターから流れる音を聴いてその音を云々する、というようなこれまでの聴き方をする間もなく、サウンドの波に没入し、理由もないはずなのにゾクゾクというかワクワクというか、いてもたってもいられないようなずっとその場にいたいような…不思議な気持ちにさせられたことを覚えています。その没入感は「サウンドに包まれる」というよりも、モニターから出た音が自分の体の中を突き抜けて、直接背骨を揺すられているような感覚です。 あの時のあの感覚…DSD256なら、音だけでなく、音楽を聴いて揺さぶられた心までも伝えられそうです。
◎音だけは絶対に犠牲にしない…Mergingの哲学とDSD
Pyramixはオランダのクラシック音楽レーベルであるフィリップス・クラシックスのメインDAWであり、現場からの絶大な信頼を勝ち得ているDAWです。その背景には、サウンドを邪魔しないためにテクノロジーは透明でなければならない、というサウンド重視の哲学があります。素晴らしい音楽を記録し、遠い国のひとびとと共有し、後世に残していく…そのための道具であることを矜恃とするPyramixは、まさにリアル・サウンドのためのDAWにふさわしいと言えるでしょう。
そんなPyramix最大の特徴は、
・48kHzの256倍にあたる11.2MHzのサンプリングレート
・第一線のエンジニアにモニター・アウトの音と区別出来ないと言わしめるDSD256でのマルチチャンネル収録。
このフォーマットでのレコーディングが出来るDAWは現状Pyramixのみです。
DSDはフォーマットの特性上、デジタル領域での編集が一切できません(レベルすら調整できない!)が、アナログ・ミキサーと併用すれば、最高のアナログ・マスターに肉薄する音を、デジタルの利便性とともに、最高64トラックも手に入れることが出来るのです!
せっかくのDSDデータですから出来れば手を加えたくありませんが、どうしても編集やプラグイン処理が必要な場合にはDXDフォーマットが活躍してくれます。DSD素材をデジタル領域で編集するためのフォーマットであるDXDは、Mergingの主導によって開発されました。SACD制作の過程で現場からの要望に応えて生まれたフォーマットで、DSDデータを352.8kHz/24bitのPCMとして処理します。352.8kHz/24bitはPCMとしても最高クラスのスペックですので、一般的なPCM音源と比べても、音楽のエネルギーを損なわないエディットが可能です。
2L La voie Triumphal - The Staff Band of the Norwegian Armed Forces.
Conductor, Ole Kristian Ruud. Jar Church, Norway.
◎必要悪とは言わせない…ミックスの創造性
収録段階の音が高音質であるに越したことはありませんが、音楽による感動を伝える手段は原音に忠実になることだけではありません。効果的なエディットを施すことで、音楽の持つ感動を凝縮し、生よりも生々しい音が生まれることもあるでしょう。その時には、自由な編集やVSTプラグインの使用が可能なPCMモードが活躍します。Pyramixは最高384kHz/32bitにまで対応。このサンプルレートでも純正プラグインを使用することが可能です。
また、AACファイルをインポート出来ますので、Pro Toolsなど他社製DAWで作成したセッションを引き継ぐことも簡単です。サンプルレートのリアルタイム・コンバージョンや、柔軟なクロスフェードなど、制作を効率的に進めていくための機能もバッチリ備えています。
384kHzなんてPyramixのほかに再生環境がないじゃないか、と思われるかも知れませんが、録り音の段階で可能な限り高レートにしておく方が、最初から低いサンプリング・レートで録るより有利です、ぜひRock oNリファレンス・ルームでお試しください!!
◎これだけでもシステムが変身。将来の拡張まで保証するI/O
PyramixにDSD I/Oを提供するのが、Mergingが開発したオーディオ・インターフェースHorusとHapiです。Horus/HapiはAES67 Ravenna対応のネットワーク・オーディオI/Oであり、ホスト・コンピューターとLANケーブル一本でオーディオ信号をやりとりすることが出来ます。さらに、ギガビットのハブを使用することでネットワークを作ることが出来ますので、最小限のシステムから始めて、必要に応じて拡張していくことが出来ます。
また、Pyramixの専用I/Oというイメージをお持ちの方もいらっしゃるかも知れません。たしかに、PyramixをMassCore環境で使用するためには、I/OはHorusかHapiでなければなりませんが、Horus/Hapi自体はASIO/CoreAudioに対応しており、他社性のDAWと組み合わせて使用することも可能です。先般、待望のDigilinkカードがリリースされ、Horus/HapiをPro ToolsのI/Oとして使用することも出来るようになりました。
Pyramix以外のDAWではDSDレコーディングは出来ませんが、ADカードとDAカードにはDSD非対応でより安価なスタンダード・バージョンもラインナップされており、DSDオプションのないAD/DAカードもラインナップされています。音質向上のひとつの手段として、まずはHorus/Hapiから導入する、というのも選択肢のひとつではないでしょうか。
Pyramix 最大の武器!クオリティを支えるノイズシェイパーアルゴリズム
DAWは内部バスの最終段に必ずノイズ・シェイパーが入っており、このシェイパーの特性がDAWの音の傾向を決めています。Pyramixの音質を支える秘密として、ノイズ・シェイパーそのもののアルゴリズムが優れているだけでなく、素材に合わせて複数のシェイパーを選択することが出来るという点が挙げられます。
レコーディングされた音楽によって、もっとも心地よく響く音の傾向は様々です。ほとんどすべてのDAWで選択はおろか、完全なブラックボックスとなっているこの部分を、視覚的に確認しながら選択出来るというのは、まさに音楽に従事するテクノロジーを標榜するPyramixならではの機能と言えるでしょう。
まさにリアル・サウンドのためのDAW Pyramix。次週はその導入に向けてのプランニング、ソリューションとしての成り立ちを掘り下げる「Solution編」を公開。Pyramixにだけ許されたDSD256レコーディングをシステムとしてどう組み入れるのかを詳細解説していきます、ご期待ください!!
Tech
2016/05/11
Rock oN REAL SOUND Project Solution編 vol.1 〜Pyramixと使いたいマイクはこれだ!
2000年に及ぶ音楽の歴史を持つヨーロッパの風土に生まれ育ち、数多くのグラミー賞獲得作品で使用されてきたPyramix。リアルサウンドと音楽のリアル体験を追求するPyramixに相応しい機材とは?Solution編第一弾はPyramixの実力を引き出すためのマイクにスポットを当ててご案内いたします!
◎INDEX
>>「自由」なマイクが音楽を解放する:SANKEN CO-100K
>>名機の血統を受け継ぐ「First Lady」:NEUMANN M149 Tube
>>「伝統と革新の融合」:audio-technica AT4081audio-technica AT4081
◎「自由」なマイクが音楽を解放する - 広帯域、ハイゲインな仕様はピアノへの近接、アンビエンスなどに理想的なSANKEN CO-100K
◎インプレッション
CO-100Kを使用してまず驚かされるのは、その音の開放感です。解き放たれた音が空間を一気に上昇し、ゆっくりと大きな放物線を描いて降りてくる軌跡が見えるかのようです、まずこれが何より気持ちいい。例えばダイナミック・マイクで録ったピアノの音は、まるで鳥が狭いカゴの中で羽ばたいているような窮屈な印象を受けます。CO-100Kで録ったピアノはそれとは逆に、楽器の音が本来伸びきるところまでストレスなく伸び切っている印象を受けます。演奏される曲のテンポによらず、広々とした場所で音が自由に動き回っているようです。そして、音の余韻が消えきるテイルの最後までしっかりと捉えてくれるため、特にバラードのような曲で音楽への集中力を途切れさせることがありません。広大な空間を解放しつつも、細部まで緻密に描き出すことで、非常に実像感の高い音場を形成するマイクだなという印象です。
全帯域を通して、誇張や色付けのない非常に自然な音色です。「自然な」というと、おとなしい印象を受ける方もいるかも知れませんが、演奏を間近で聴く時の力強さまでしっかりと捉えることのできるマイクです。硬くも柔らかくもならず、実際に出た音をそのまま収録するマイクと言えるでしょう。特性表を見ると、ハイのキツイ音色をイメージするかも知れませんが、実際に使用するとそうした印象はまったくなく、自然な音色に驚かされます。むしろこの特性のおかげで、音楽の無音の部分でも音や奏者の気配が感じられ、音場の実在感が増しているような印象を受けます。
空間を演出するためのサブマイク、またはルーム/アンビエンスとしての使用では、微小な音までクリアに拾い、とても使いやすい印象を受けます。対象から離してもハイ落ちする感じがなく、混ぜた時もメインのソースを濁してしまうことがありません。響きの多いホールでは自然なリバーブを付加することが出来るだろうと感じます。
◎クローズアップ
CO-100Kはもともと、10年以上前にSANKENがNHKと共同で開発を開始したマイクです。当時からすでに、現在のハイビット/ハイサンプリングPCMやDSD録音などの広帯域記録/再生メディアにふさわしいマイクロフォンとして開発されたものです。
そのキャラクターを活かすなら、やはりオーケストラやアンサンブル、ジャズなどのアコースティックな器楽ものが王道でしょう。特にホールでオーケストラ全体を狙うトップ位置に使用するには理想的なマイクです。無指向であることを生かして、まずはDecca Treeでの設置を試してみたいですね。響きの美しいホールであれば、客席後方に設置したり、ステージから客席方向を狙って積極的にルーム・エコーを収録するというクリエイティブな使用例もあります。ピアノの収録も得意です。管弦楽器に比較してはるかに繊細なピアノの倍音までうまく捉え、協奏曲やジャズ・バンドの録音でも自然でありながらほかの楽器に埋もれない伸びやかなトーンを得ることが出来ます。
ジャズバンドのように演奏者が自分でバランスをコントロール出来る状況であれば、セパレーションなしで個別の楽器に近接で使用することも出来ます。さすがにウッドベースへの使用ではドラムのカブリが大きすぎますが、ピアノやドラムのOHへの使用ではカブリが問題になるようなことはありません。むしろ、現場の空気感を表現するのにプラスの方向に作用するきれいなカブリを録ることが可能です。ほとんど独奏に近い状態になるベースやドラムスのアドリブ・パートでも、音場が小さくならずに、広い空間を感じさせます。
意外な用途としては尺八への使用例もあります。尺八は表現の手段として息の音や管の共鳴音を多用しますが、そうした高次倍音をきちんと収録し、非常にリアルな邦楽の風景を描くことに成功しています。
◎SANKEN CO-100K
¥ 288,000 (本体価格:¥ 266,667)
◎SPEC
・指向特性:無指向性
・トランスデューサー:DCバイアスコンデンサ
・周波数特性:20Hz ~100kHz
・感度(1kHz 標準):39.8mV/Pa (-28dB,0dB=1V/Pa)
・入力換算ノイズレベル(A-weighted):22dB-A
・最大入力音圧レベル(1% THD):125dB SPL
・出力インピーダンス(1kHz)±30%:150Ω
・電源:+48V±4V U.P.F
・消費電流:6mA以下
・質量:150g
・寸法:Ø20.5mm、全長 191.5mm
・コネクタ:XLR-3M
スペックとして真っ先に目につくのは、やはり100kHzまで伸びている周波数特性でしょう。それも、グラフを見てわかる通り、単に100kHzに到達しているというのではなく、1kHzと比較しても-3dB以内のレベルを実現していることは驚異的です。この特性があるからこそ、頭打ち感がなく、どこまでも自由に伸びていくようなサウンドがあるのでしょう。10k-80kHz付近には大きな山がありますが、20kHz以上の帯域では音波の伝搬距離は非常に短くなるため、20kHz以下の帯域と自然なバランスとなるよう、調整された結果のようです。
20kHzを超えるような波長の短い音波はカプセル内の干渉やダイヤフラムのリンギングなどで簡単に歪んでしまうため、慣性モーメントの低い小口径ダイヤフラムで、内部干渉の起こりにくい無指向性という仕様となっています。新開発カプセル、DC電圧の高圧化、新設計の電子回路により高感度と低ノイズレベルを実現しており、100kHzまでという、微弱で歪みに弱い超高域の音波を増幅段まで確実に届けるための工夫がなされています。カプセルの終端にあるくびれも、内部での音波の干渉を減らすためのアイデアではないかと思われます。
この技術を応用して、ぜひこの特性の指向性モデルも登場してほしいですね。指向性はそもそも内部で音波を干渉させているため、繊細な超高域信号を扱うには大変高度な技術が必要ですが、SANKENの技術力なら不可能ではないと思います!
◎名機の血統を受け継ぐ「First Lady」はソリストに柔らかく華やかなスポットを当てるNEUMANN M149 Tube
◎インプレッション
M149 TubeはNeumannらしい落ち着きと気品のあるサウンドの中に華やかな倍音成分を持ったマイクです。「ハイ上がり」というようなサウンドとは異なり、一番抜けてきてほしい部分だけがピンと抜けてくるため、音の通りがよいのに耳触りになりません。低域・中域はNeumannらしい、薄く霧がかかったような、しかし飽くまできめ細かくシルキーなトーンを持っています。ボーカルに使用すると、しっとりと豊かな中域、芯の太さがありながらどこまでも柔らかな低域、しなやかで伸びやかでありながら決して耳触りにならない高域がなめらかに溶け合い、アンサンブルの中でしっかりと抜けるプレゼンスを備えています。
サックスやトランペットなどのブラスに使用すると、華やかな成分が際立ちます。アンサンブルに対してというよりは、やはりソリストに立てたいキャラクターです。擦弦楽器との相性は非常によく、バイオリンからコントラバスまで、どの楽器を収録しても、弦楽器独特のヒリつくような質感を上手く捉えてくれます。
音像感は伝統的なチューブ・マイクらしく、空間を捉えるというよりは目の前の対象をしっかりと収録するという印象。空間表現は得意ではありませんが、ほかのマイクが描き出した背景の中で、品格をもって主役を際立たせることができる稀有なマイクだと言えるでしょう。
◎クローズアップ
M149は1947年発売の伝説的銘機U47、1951年に発売されたM49と同じK47カプセル(単一指向性カプセル)を採用し、その後段にインピーダンス変換器として機能するチューブを置いています。非常に低いノイズレベル、ナチュラルな音質が特徴的なトランスレス回路で、オーディオシグナルの品質に影響を与えることなく、デジタル時代の現在でも非常に扱いやすい仕様になっていると言えます。
華やかな倍音を持ったキャラクターは、歌やサックスなどフロントに立つ楽器に向いていますので、クラシックのようなアンサンブル主体の音楽よりは、主役のはっきりしているロック/ポップスや、アコースティックなものでも歌モノやジャズの収録で力を発揮するでしょう。音が立つといっても派手なキャラクターではないので、アコースティック・ギターに使えば、しっとりとした艶のあるサウンドが録れるでしょう。もちろん、音の芯がしっかりしているため、ロックのボーカルに使用しても声がバンドに負けることはありません。
◎NEUMANN M149 Tube
¥ 387,450 (本体価格:¥ 358,750)
◎SPEC
・音響的動作原理:圧力傾斜型トランスデューサー
・指向特性:無指向性, ワイドアングル カーディオイド, カーディオイド, ハイパー カーディオイド, 双指向性 + 各ポジションの中間
・周波数特性:20 Hz...20 kHz
・感度 1 kHz を1 kΩ負荷で:34/47/62 mV/Pa1)
・レーテッド インピーダンス:50 Ω
・レーテッド 負荷インピーダン:1000 Ω
・S/N 比, CCIR1) (rel. 94 dB SPL):66/69/71 dB1)
・S/N 比, A-weighted1) (rel. 94 dB SPL):78/81/83 dB1)
・等価ノイズ レベル, CCIR2):28/25/23 dB1)
・等価ノイズ レベル, A-weighted2):16/13/11 dB-A1)
・典型的な SPL (チューブの特性)3): for < 0,5% THD:120 dB for < 5% THD:136 dB
・最大出力電圧:18 dBu
・マイクアンプのダイナミック レンジ: (A-weighted) for < 0,5% THD (for < 5% THD):101 (121) dB
・パワーサプラ:パワーサプライ N 149 A
・マイクロフォン接続コネクタ:DIN8F
・出力コネクタ:XLR3F
・重量:730 g
・径:70 mm
・長さ:201 mm
◎「伝統と革新の融合」 - 高品位なDAWにより100%引き出されるマイクのキャラクター、audio-technica AT4081
◎インプレッション
リボンマイクといえば、なめらかな音色と強くロールオフした高域が特徴ですが、本機はあくまでもナチュラルな空気感を伴って、そこで鳴っているサウンドをキャプチャーします。リボンマイクの持つ音の柔らかさがフィーチャーされながら、高域のロールオフの開始点が18kHzまで上がっているため、ナチュラルですっきりとした高域も捉えることが出来ます。逆に低域はあまりリボンらしくなく、すっきりとした印象。しかし山谷のない密度感の高い低音が録れます。これがアコースティックギターなどに使用した際に、軽くコンプレッションしたような、ギュっと引き締まった低音を演出してくれます。この低域は同時に非常に滑らかで味わい深く、ピアノの低域の重さや、弦楽器の弓が弦を擦るニュアンスなどをリアルに想像させる情報量の多さを持っています。
しかし、総じて中高域に情報が集まっている本機は、リボンマイクの味わいがありながらタイトでブライトという、今までにないキャラクターを確立しています。ブライトといっても18kHz以上はロールオフしているため、コンデンサーではキツイと感じられる音源に使用するとよい結果が得られるでしょう。収録の現場で楽器を交換することは難しいため、こうしたマイクを用意しておけば、部屋との相性などでサウンドが硬すぎると感じたときにマイクセレクトで調整することが可能になります。ハイサンプリング環境では、従来のフォーマットと比較してマイクのキャラクターの違いが如実に出ますので、こうしたセレクションのノウハウが非常に効果的です。アクティブ仕様とすることで、従来のリボンマイクの弱点であった出力の低さを克服しているため、ほどよい空気感をまとわせることもできます。低域にパワーがほしいときは近接効果を狙うとよいでしょう。
従来のリボンマイクは特定の楽器にはばっちりハマるけれど、万能ではない、という印象かと思います。しかし、音像感にリボン独特の柔らかさを持ちながら、色付けの少ないAT4081はとてもバーサタイルなマイクで、まさにリボンマイクの新世代と言えます。
◎クローズアップ
音像感にリボン独特の柔らかさを持ちながら、色付けの少ないAT4081は、Audio Technicaらしい万能選手です。低域にロールオフがあるため低音楽器のメインには向きませんが、個性的な引き締まった低域は、サブマイクとしてならエレキベース/ウッドベースに使ってみたいサウンドです。実際、ウッドベースとリボンマイクというのは相性がよいものです。コンデンサーマイクだと、スラップをする奏者だった場合、そのピークにレベルを合わせると、とても小さな音でしか録れません。リボンはダイヤフラムが自由に動くため、アタックに対して緩やかに反応することができ、こうした奏法でもピークがつきにくいという特徴があるのです。
アコースティックな編成に対しては完璧なマッチングを見せますが、正面の指向性があまり広くないため、アンサンブル全体を1本で、というよりは、各楽器を狙うような使い方のほうが向いています。対象との距離が離れてもゲインが落ちる様子はなく、むしろ空気感を伴いながらしっかり実像感のあるサウンドが狙えます。ポップスっぽい音楽では、ぜひボーカルに使用したいと思わせます。一般的なコンデンサー並みに高域が出ていながら、非常に密度の高いタイトな低域があるため、ほかのマイクでは聴いたことの無い個性的な歌声が録れるのではないでしょうか。
ブラス、特にトランペットとの相性もよいです。本機はブライトなキャラクターのため、トランペットの元気さを損なうことなく、そのキツさを上手くまとめあげてくれます。クラリネットとは「美味しい」音域が近く、甘く艶やかなサウンドが期待できます。アコースティック・ギターはもちろん、エレキ・ギターに使うのもオススメ。その時はアンプに近づけて近接効果を狙えば、パワフルなサウンドが得られます。
◎audio-technica AT4081
¥ 75,384 (本体価格:¥ 69,800)
◎SPEC
・型式:リボン型
・指向特性:双指向性
・周波数特性:30~18,000Hz
・感度(0dB=1V/1Pa 1kHz):−42dB
・最大入力音圧レベル(1kHz THD1%):150dB S.P.L.
・SN比(1kHz、1Pa):69dB以上
・出力インピーダンス:100Ω平衡
・電源:ファントムDC48V
・消費電流:3.0mA
・仕上げ:シルバーサテン焼付塗装
・質量:152g
リボンマイクは振動帯であるリボンがブラブラと吊るされ自由に動くことから、入力された音へのレスポンスがとてもよく音質的にとても優れています。この空気の振動への高い追従性が、ダイヤフラムが硬く固定されているコンデンサー・マイクとの最大の違いで、コンデンサーでは硬くなってしまうようなアタックでも、リボンを使用するとうまく丸まってくれる、ということが起こる要因になっています。
構造としては伝統的なリボンマイクであるAT4081ですが、各コンポーネントの製造はまったくと言っていいほど新しいアプローチがされています。2枚のリボンを向かい合わせた構造は感度の向上をもたらしています。また、音響反射板は三層構造になっており、音の入出経路をコントロールすることで高域特性を向上させています。磁石はネオジウムを採用。強力な磁力のおかげでリボンを大きくすることが可能となり、S/Nの向上に寄与しています。トランスはコアにフェライトを使用。リボン・マイクが全盛だった頃にはとても音響機材のトランスとして使えなかったようですが、リボンの共振周波数とフェライトの低域の減衰特性を組み合わせるとちょうどいい塩梅になるのだという話です。音質と直接の関係はありませんが、従来のリボンマイクと違い、リボンは基盤と一体型となっており、故障の際も簡単に交換が出来ます。
Pyramixの実力を引き出すための「ソリューション」として、第一弾はマイクを取り上げました。三者三様の特性を持ち、レコーディングの可能性を大きく拡げるだけでなく、その特性を把握することによって得られるサウンドもまた変化するのではないでしょうか。次回は「User Story」編、古くからのPyramixユーザーで、国内でも先鞭を切ってHORUSを導入したMick沢口氏のインタビューをご紹介します。システムの構成から、そのレコーディングノウハウまで、沢口氏の幅広い見識からPyramixを語っていただきました。ご期待ください!!
Tech
2016/05/02
ROCK ON Buying Guide ~Mic PreAmp編~ 第一弾:サウンドタイプ別プロダクトリスト!
本日より3週にわたりROCK ON PRO Buying Guide Mic Preamp編をお届け! レコーディングのサウンドキャラクターを決めるのはマイクか、マイクプリかという議論になるほど、収録サウンドを決める決定的要素です。
ユーザーが求めるサウンドキャラクターをベースに、1週目はプロダクトリストを、2週目ではその詳細なディテールを、そして3週目には実際のサウンドキャラクターを比較試聴していただきます!
サウンドタイプで比較する
CLEAN
Sym・Proceed SP-MP2 ¥300,000
今、目の前でなっている楽器音と、録音された音の乖離を極力なくすこと。原音をありのままに収録し、低域から高域までフラットな特性にて、DAWに取り込むこと。ヴィンテージ機器のプリアンプなどで重ねて録音していくと、特定の周波数が飽和してしまうように感じられてしまうケースを感じている方は、ここに挙げるCLEAR系のマイクプリを選択してみてはいかがでしょうか。
ROCK ON PROの一押しはこちら。新製品Sym・Proceed SP-MP2です。SP-MP2は40KHzまで±0.03dBという、誤差のないと言っても過言ではないフラットなFrequency Response。そして、ステレオ収録での課題となる2ch間のゲインのマッチング。これは3dBのステップゲインと1dB,2dBのアッテネーターとの組み合わせでステレオ間を1dB単位で正確にレベリングすることができます。
また、音質にこだわって可変抵抗ではなく固定抵抗の組み合わせでゲインを選択できるのも注目の設計ポイントです。
非常に素早いレスポンスを持ち、打楽器や弦楽器のインパルスをも潰さずに収録できる。このマイクプリを使用すると今まで使用しているマイクコレクションも見違えるほど違いが明確となること間違いないでしょう。
Sym⋅Proceed
SP-MP2
¥ 300,000
(本体価格:¥ 277,778)
15,000 ポイント還元
Tech
2016/04/19
独占取材!! ムービーで見る、Pro Tools|Dock PART2 !!
発売が今かと待ち望まれているPro Tools | Dock。前回の独占取材ムービーではそのオーバービューをAvid Product Specialistのダニエル・ラヴェル氏に解説頂きました。注目の各ファンクション、特に豊富に設けられたソフトキーはiPad上で動作する「Pro Tools|Control」と高い親和性を見せたほか、そのPro Tools|ControlではDockのための新たなウィンドウが追加、事細かなワークフローを膨大なキーアサインへ設定し、ユーザーそれぞれの設定をカスタマイズする柔軟性の高さが伺えました。
そして、独占ムービー第2弾となる今回は、筐体サイズもピタリと合わせられたS3、そしてArtistMixとの連携や、プラグインパラメータのフィジカル操作など、より具体的にPro Tools | Dockの実際をご覧いただきます。発売が待ち望まれる中(ご予約受付中です!!)、ProTools | Dockの魅力にさらに迫るムービーで、そのイメージを膨らませてください!!
>>Pro Tools | Dockのご予約はこちらから
Pro Tools | Dock ¥160,920(本体価格:¥149,000)
※iPadは別売となります。
(iPad Air,Air 2,Mini3&Mini4をサポート、iPad Pro対応予定)
◎Movieダイジェスト 1
・Dockのよるプラグインパラメーターのフィジカルコントロール (1:45~)
やはりフィジカルコントローラーを使用する際に、コントロールしたいプラグインのパラメーター。ProTools | DockではiPadの左右に用意された8つのノブを使用しコントロールすることが可能です。もちろん、プラグインのインサートもマウス、キーボードに戻ることなくDockからの操作で行えます、ProTools環境の中枢として機能する姿は新鮮な印象を与えます。
◎Movieダイジェスト 2
・任意のコマンドをアサインしてiPad上で操作する”SoftKey"ウィンドウ(4:27~)
iPadで動作するPro Tools Controlとの連携で最もパワフルとも言えるのが”SoftKey”ウィンドウ、iPadの大きな画面上に任意のコマンドを並べ、そこからコマンドを実行することが可能です。EuCon経由でショートカットをアサインすることはもちろんですが、一つのソフトキーに複数のショートカットをアサインして、いわばマクロを組めてしまうあたりも非常に注目されるところ。自分の環境に合わせてProTools | Dockをカスタマイズ、ワークフローを効率化していけるキーポイントです。
◎Movieダイジェスト 3
・レイアウトの作成で大型セッションも瞬時にコントロール!!(6:25~)
EuControlを使用してレイアウトを組むことで、異なるトラックの組み合わせを瞬時に呼び出せます。しかも、Dockに繋がったiPadからのレイアウト切り替えがワンタッチで可能なため、S3、Artist Mixと組み合わせた場合でもフェーダーの切り替えは一瞬の出来事、ここでもマウスに戻る必要はありません。16chのS3、8chのArtistMixとの組み合わせでは、Pro Tools Dockは詳細なトラックコントロールもできてしまうマスターセクションとも言えるのではないでしょうか。Dockとの連携でS3もArtistシリーズもさらにその真価を発揮してくれそうです。
iPad、Pro Tools Controlとの連携で従来のControlsurfaceとは一線を画す!! と言えるのではないでしょうか、S6以降のAvidのVisual+Mixingという方向性とノウハウがこの価格帯の製品までフィードバックされていることが良く分かります。また、単体・1フェーダーでの使用でも多岐に渡るファンクションで実力十分といったところですが、ムービー内でもあった通りS3やArtistMixとの連携することでよりコンソールライクな環境も容易に拡張可能です。特にArtistMixユーザーにとってはPro Tools|Dockのアドオンで制作環境が大幅にブラッシュアップできるのではないでしょうか。発表のタイミングから期待感もまだまだ続くPro Tools | Dockは現時点でご予約もお受け付け中です。RockoN店頭にも実機を配備予定となりますのでWeb上でもまたご案内いたします!! 是非お問い合わせください!!
>>Pro Tools | Dockのご予約はこちらから
Pro Tools | Dock ¥160,920(本体価格:¥149,000)
※iPadは別売となります。
(iPad Air,Air 2,Mini3&Mini4をサポート、iPad Pro対応予定)
Tech
2016/04/18
JBLの本気がここに。新開発ドライバーとウェーブガイドによる高解像度モニター ~JBL M2 & LSR7 Series~
※musikmesse2017にて本レポート掲載のJBL LSR 7 seriesにアクティブタイプが登場しました!! その模様はコチラからご覧ください!!
JBLと聞いてモニタースピーカーを想像する方は、思わずその姿を見ただけでニヤリとしてしまうのではないでしょうか?15inch=38cmの新開発のウーファーとラインアレイのフラッグシップである"VTX"シリーズと同じ3inch=4.5cmのコンプレッションドライバーを採用。専用の筐体、そしてHF用のWaveguideは専用に新設計されたImage Control Waveguideを採用と、ほぼ全てがゼロから新設計されたJBLの技術の粋を集めた製品がこのM2。まずはその礎となったモデルを振り返ってみましょう。
◎JBLのポジションを確立したスタジオモニター「4344」「4312」
現在のJBLはライブ・コンサートといったラインアレイから小型スピーカー、店舗やレストランなどの設備用モデル、更には映画館のスピーカーシステムなど、非常に幅広いラインナップを持っています。振り返ってこれまでの歴史を紐解けば、「4344」「4312」などスタジオモニターの定番として名を轟かせたモデルも数多くリリースされてきました。
その定番と呼ばれた「4344」は1982年に登場した3way Speaker。その特長はHFドライバーの前に設置された音響レンズと呼ばれる仕掛け。スリット状のフィン形状のこのレンズは均一な指向角をもたらします。LFドライバーはJBLの伝統とも言える15inchを採用。やはりJBLといえば、15inchというファンの方も多いのではないでしょうか?「4312」も数多くのスタジオに採用されました。コンパクトな3wayスピーカーでありながら12inch=30cmのLFドライバーによる圧倒的な低域が印象的な機種。今でも後継機が生産されるJBLを代表するモデルとも言えるでしょう。このようにJBLのモニターは大口径のLFドライバーによる余裕ある低域を特長にしてきたという伝統があります。
◎JBL M2 / フラッグシップが指し示すJBLの現在進行形
ヒビノ株式会社田處氏
ヒビノ株式会社伊藤氏
今回ご紹介するM2はスタジオモニターのフラッグシップモデル。JBLほかHarman Groupのプロオーディオ製品の国内代理店であるヒビノ株式会社 田處氏、伊藤氏にその製品特長や開発のいきさつを伺ったほかデモ機も持ち込んでいただきスタッフで試聴。店頭での展示も行っておりますのでご来店の際は是非最新のJBLサウンドをご体験ください。まず、筐体サイズはコンパクトな設計でメーカーとしてはスモールからミドルサイズのスタジオへの導入を想定しているとのこと。バッフルに埋め込むという想定ではなく、あくまでも自立しての使用を念頭に設計されています。その証拠にバスレフポートは正面向き、背面にはスピーカーコネクターのみという仕様。かなり壁に近づけてセッティングしても問題が無いように考えられていることが判ります。
◎JBL M2 / 15inch LFドライバーが生み出す豊かな「うねり」
続いて低域のユニットから見ていきます。ここにはJBL伝統の15inch LFドライバーを採用。伝統を受け継ぎながら進化を続けるこの2216Ndユニットは、M2の為に新たに開発されたまさにハイエンドなユニット。Ndはネオジウムマグネットの意となります。ボイスコイル径3inchで123dB maximum SPLという高出力、しかも低域特性は20Hzまでの高性能を発揮しています。
しかしこの15inchユニットの本当の魅力は数字に現れる部分ではない印象で、やはりこの口径サイズのユニットが発する低域は、体で感じることが出来る「うねり」があります。このボディーソニックは大口径、大容量のキャビネットならではのもの。ニアフィールドスピーカーに搭載される小口径のLFユニットではどうやっても出せない低域があります。
しかもサブウーファーなどを使った2.1chシステムとは異なり、M2であればシンプルな2wayで実現できるというのもポイント。しっかりとダンピングの効いた大口径ユニットが発する低域は、バスレフなどにより作られた低域とは違ってダイレクトに体で感じることが出来ます。この気持ち良い低域。是非とも店頭のデモ機で体感してください。
◎JBL M2 / Image Control Waveguideで幅広く取れるリスニングポイント
そして、新設計のImage Control Waveguideは、指向性の狭いHFドライバーの出力を均一に広い範囲に届けます。測定結果からも左右30度までであればほぼフラット。60度でもかなりの均一性が保たれていると言えます。これは体感としても大きな効果があり、多少リスニングポイントがずれたとしてもステレオ感を保つことができています。片方のスピーカーの前まで行ったとしても「センターが見える」、ちょっと大げさかもしれませんが、それほどの効果をしっかりと感じられます。
M2周波数特性
既存のスタジオモニターの周波数特性
そして、ユニットの話ですがこちらは"VTX"からの移植となるD2430Kが採用されています。この3inchドライバーはD2と呼ばれる非常に珍しいデュアル・ダイヤフラム、デュアル・ボイスコイルによるユニット。2つのリングダイヤフラムで構成されたユニットは、可動質量の低減など様々な恩恵を得ています。M2はこの2つのユニットをクロスオーバー800Hzで設計しています。このD2ドライバーは800Hzから40kHzという広帯域を受け持ちますが、それが非常に良い効果を生み出していると感じます。コンプレッションドライバーに中域から受け持たせることで非常に開放的で、直線的なスピード感あるサウンドを得ることを実現。他とは違う、まさにJBLと感じるサウンドを生み出しています。
幾つかのメーカーがスタジオモニターへのコンプレッションドライバーの導入を提案してきていますが、その特徴的であるストレートなサウンドはやはりドーム型のHFドライバーでは生まれない独特なもの。1inch程度の小型のドライバーは痛いほどの高域になってしまうこともありますが、3inchという大口径を採用しているために刺激的ではあるものの、ほどよい滑らかさも手に入れている印象です。
◎JBL M2 / micro-techシリーズの血統を感じさせる I-Tech 4×3500HDでドライブ
ドライブする推奨のアンプはJBLと同じHarmanグループのAmcronのフラッグシップモデルI-Tech HDシリーズ。バイアンプ駆動のスピーカーとなるため4ch分のアンプが必要、今回の店頭展示ではI-Tech 4×3500HD をお借りしています。こちらは2Uの筐体で4chの2100W(2Ω)という大出力モデル。このアンプに内蔵されているBSS OMNIDRIVE HDによりクロスオーバーなどが処理されます。I-Tech HDシリーズにはM2のプロファイルが登録されているためにセットアップが簡単に行えるのも利点だとのこと。更にBSS製のプロセッサーによりルームEQ等の補正を掛けることも可能という多機能ぶりです。音質もmicro-techシリーズの血統を感じさせるダンピングの効いたAmcronらしいサウンド。カタログスペックとしてもラインナップ最強のダンピングファクター5000以上というのが頼もしい1台。改めて、パッシブスピーカーを大容量のアンプで余裕をもって鳴らしきる。その良さを体感しています。
Amcron I-Tech HDシリーズを制御する「Audio Architect」ソフトウェア
◎JBL LSR 7 series / そのサイズから想像を超える音像が飛び出す
JBLの伝統的なラインナップとも言える2way(大口径LF + コンプレッションHF)の流れを組む、新しいスタジオモニター”LSR 7 series”。こちらはM2と同じコンセプトでニアフィールドにダウンサイジングしたモデル。M2で触れた大口径LFドライバーによるボディーソニックは残念ながらこのサイズではさすがに難しいものの、ユニットから筐体まで全てを新設計したLSR 7 SERIESは驚くほどの完成度。まさにJBLのスタジオモニター再参入への強い意志を感じさせるモデルとなっています。
◎JBL LSR 7 series / 広い指向角、広いリスニングエリア
中高域を受け持つコンプレッションドライバーには新開発の2409Hが採用されています。コンサート用等のスピーカーで求められるロングスロー・高耐久性などのファクターではなく、高再現性を実現するために性能を絞り込んだ設計。高出力且つ36KHZまでという広帯域を獲得しているこのドライバーユニットはM2で開発されたImage Control Waveguideのダウンサイズ版に接続され、高品位なサウンドを届けます。
Image Control Waveguideの広い指向角は、指向角を狭めるという現代のトレンドと真逆のコンセプト。広いリスニングエリアはスタジオとしての利便性を高め、ミキサーポジションだけではなく、クライアントポジションでもベストに近い音を届けられるということ。
◎JBL LSR 7 series / ワンサイズ上の出力を実現する新設計ユニット
低域を受け持つLFユニットも完全に新設計のユニット。HFのドライバーがM2と比べて小径となっているためにクロスオーバーは5inch のLSR705iが1.9kHz、8inchのLSR708iが1.7kHzとなっています。M2と違い内部にネットワークを搭載したパッシブスピーカーですのでバイアンプだけではなく、シングルワイヤーでの駆動も可能となっています。推奨となるアンプは同じくAmcronのDCi series Network。こちらもBSSのプロセッサーを搭載しているのでLSR 7 seriesに合わせた最適なチューニングがプリセットされているのがポイント。もちろん、ルームEQも掛けることが可能です。
サウンドの特徴はまさにM2の小型版。コンプレッションドライバーによるストレートな高域は大きな魅力です。そして小型ながらに高音圧を出力できるのもこのモデルの魅力。LSR 705iで107dB SPL(peak)、LSR 708iでは114dB SPL(peak)というワンサイズ上の出力を持ちます。HFの音の飛び出しもさることながら、本当に測定値としても音圧が出るモデルとなっています。
◎JBL LSR 7 series / パッシブの優位性を再発見する
そしてパッシブのスピーカーのメリットでもある、「スピーカーへの電源供給が必要ない」というのも設置面ではメリット。机の上のケーブルが減るのは誰もが歓迎したいのではないでしょうか?音質面でも余裕のある出力のアンプで駆動したサウンドには、広がりがあると感じます。高負荷での連続使用時の放熱も別体となることは有利。故障時も切り分けがシンプルなためダウンタイムの短縮にもつながります。サイズを超えた高出力を持つLSR 7 series。パッシブだからと考えてしまう理由はありません、コンプレッションドライバーはPA用だから、、という先入観も差し置いて、高品位な製品はここまでの再現性と迫力を両立できるという事実。それはJBLの本気を表わしているのではないでしょうか。
JBLの最新ラインナップとなるM2 / LSR7 Series 。独自のコンセプトで新たなユーザーを獲得していくという「JBLの本気」が色濃くサウンドに現れています。ROCK ON PRO 渋谷リファレンススタジオではこの3機種をデモ設置、テキストから得た印象を実際の体験として感じ取れる環境が整っています。この機会に是非そのサウンドを確かめてください。
>>詳細メーカーホームページはこちらから
“JBL PROFESSIONAL”
※文章内では全て「JBL」と表記していますが、「M2」「LSR705i」「LSR708i」「VTX」は、JBLのプロフェッショナル・ライン「JBL PROFESSIONAL」の製品です。
Tech
2016/04/12
ROCK ON PRO Buying Guide!! ~Comp/Limiter編~
コンプレッサーといえども数あるメーカーや製品の中から、皆様がどれを選ぶべきなのか、なぜその機材をチョイスするべきなのか、一生モノともなるアウトボードを納得してご導入いただくため、その選択のヒントになる特集がROCK ON PRO Buying Guideです。第1回はComp/Limitter編、一般に「音量を制御」するCompresserやLimiterがありますが、今回はその動作検出方式や作動方式のパターンを分けて製品をカテゴライズしご案内します!!
◎レベル検出回路と音量制御回路でカテゴライズするコンプレッサー、リミッター
コンプレッサーは「ゲインセル」とも呼ばれるボリュームコントロールを行う要素がオーディオ信号の経路に挿入され、信号レベルは常に監視され、その情報はゲインセルでのコントロールに使用されます。回路はレベル検出回路と音量制御回路で構成されています。具体的にはアナログ音声信号は電力なので、まずはスレッショルドで指定された電力量以上の部分を抽出します。これがレベル検出回路。そしてそこで取り出された電力を増幅回路のバイアス側へ負の方向で入力することにより音量抑制を行います。これが音量制御回路です。
レベル検出回路の方式として「FET」「オプティカル」、音量制御回路における作動方式として「真空管」「VCA」と大きくカテゴライズされます。音量を制御する目的としては同一ながら、その効果やニュアンスの違いによってレコーディングの世界ではこれを使い分け、オリジナルなサウンドを作り出すノウハウであり、こだわりの部分とも言えます。
◎PART1:レベル検出回路で見分ける、Comp/Limiterの代表製品はこちら!!
◉ FET
FETとは電解効果トランジスタ(Field Effect Transistor)の略。半導体素子によるレベル検出を行なっているため、レスポンスの早さが特徴。一般的に言う「Hard Knee(ハードニー)」タイプがこれに当たります。付随する回路設計次第で幅広いパラメータを実現するため、コントロールのしやすさという点でも秀でています。代表として挙げられるものはやはりUniversalAudio(オリジナルはUrei)の1176。それぞれインプット段とアウトプット段のトランス等の回路によって独特な味付けがその機種の評価となっており、そのレスポンスの速さからボーカル/ベース/ギターなど様々なソースに対してオールマイティに使用する事が出来ます。PurpleのMC77のVPR版であるActionや、1176タイプのコンプレッサーに更に機能を付けたSlate Pro AudioのDragon等もこのFETコンプレッサーにあたります。感度も相当に高いので攻めのセッティングに使用できることと裏腹に、それぞれのセッティングに対し細心の注意を払う事も重要です。
FET方式を使用した代表的な製品
◉ オプティカル
オプティカルコンプとはLEDとその受光体であるフォトセルを組み合わせたフォトカプラーという素子を利用します。まず、入力された信号(電流)でLEDを光らせます。そうすると音の大小が光の大きさになります。フォトセル(cdsセンサー)がその光の大小によって電流を発生させます。わかりやすく言えばフォトセルは太陽電池のようなものなので、光の強さを電力量に変換していると言えます。反応速度が遅く、音量に対しての特性も精密にリニアなものではないですが、それが逆にオプティカルコンプレッサーの音、味ともいえます。一般的には「Soft Knee(ソフトニー) 」タイプがこの方式です。スタジオによくある機材でいうとLA-2Aが代表的に挙げられ、Avalon VT-737やTUBE-TECHのCL1Bもこの検出方式です。オプティカルコンプ→FETコンプの2段がけ(薄ーくピークを削っていきましょう!!)も自然なニュアンスを保ったままレベルを平均化できるのでおすすめです。
オプティカル方式を使用した代表的な製品
◎PART2:音量制御回路で見分ける、Comp/Limitterの代表製品はこちら!!
◉ 真空管コンプ
音量制御回路とは、通常のアンプとは逆にグリッドへの入力信号に応じた利得(ゲイン)を得るのではなく、レベル検出回路で得られたしきい値(スレショルド)を超えた電力量を元に、負の利得を得るものです。その利得回路に真空管を使用することでコンプレッションが深く掛かれば掛かるほど(負方向のゲインが上がれば上がるほど)、その真空管のニュアンスが出現してきます。半導体と比べ歪の多い真空管回路ではゲインリダクションが深く掛かった際にサチュレーションが出現するものもあり、それが一つのキャラクターともなっているわけです。
真空管を制御回路に使用した製品のほとんどは、前後のゲインステージも真空管により構成され、そのニュアンスを最大限に得ることが出来る製品が多いのも特徴。Fairchildに代表されるようなVariable-Mu回路など特徴的な設計が多いのは、半導体技術が発展する前の時代の試行錯誤の賜物であると言えます。現在多くのコンプレッサーが真空管コンプと称されて販売されていますが、純粋に半導体を使用しない真空管コンプと呼べるものは今や、ManleyのStereo Variable Mu Limiter Compressorや670の回路を忠実に再現したともいえるADL660/670など数少ない希少な存在です。
真空管を使用した代表的な製品
◉ VCAコンプ
多くの製品に使われているVCAでの音量制御回路。VCAとはVoltage Controlled Amprifireの略で、電力で制御されるアンプということになります。非常にシンプルな構成でアンプの増幅率を外部の電力制御によりコントロール、コンプレッサーではレベル検出回路により得られた電飾がコントロール信号となり負方向への利得を得るアンプへ接続されます。
この設計を利用することで機器内部のアンプの構成段数を減らすことが可能となります。通常であれば入力段のアンプから制御回路のアンプ、そして出力段のと最低でも3段のアンプを利用することとなりますが、VCAでは入力段側の増幅率をコントロールすることで、入力段と出力段の2段増幅とすることが可能。もちろんすべての回路構成が、このような形ではありませんが、実際の音声信号が通過する経路を少なくすることでピュアな信号を取り出すことが出来るという特徴があります。SSLのStereo Bus CompresserやDangerous MusicのDangerous Compressorなどが代表機種、レスポンスの早い、クリーンで素直な出音が特徴です。
VCAを使用した代表的な製品
一概に音量を制御するコンプレッサーやリミッターでも以上のようなレベル検出回路と音量制御回路との違いにより、コンプレッションの効果や音色の傾向も変化していきます。この方式の違いを使い分けることはレコーディングでのノウハウともなり、イメージするサウンドをミックスしていく過程での醍醐味とも言えるのではないでしょうか。もちろん、求めるサウンドや用途などををお伺いさせていただければ、経験豊富なROCK ON PROスタッフがご提案させていただきます。そのサウンドにフィットする一台を見つけてください!!
Tech
2016/03/15
【祝!! AVID S6 Ver.2.1公開】ハンズオンMOVIEでその充実の機能を徹底解説!! Vol.5
先日ver.2.1のリリースを終えたAvid S6、その機能をAvid Product Specialist ダニエル・ラヴェル氏に解説いただくシリーズも5回目を迎えました。近々では従来のICONユーザーには期間限定ですが交換アップグレードの設定も用意されたほか、System5の販売終了もアナウンス。まさに今後のAvidフラッグシップとしての位置付けが明確となった今だからこそ是非その実力を確認していただく良い機会ではないでしょうか。RockoN 渋谷リファレンススタジオでは常設展示もしておりますので、デモ・検証など随時承っております!!
今回のMovieは、S6にしか出来ない機能であるDisplay Modlueへの波形の表示にまつわるHandsonです。この機能はDAWとのDeepなIntegrationを印象づけるもの。そして、コンソールからEditが出来てしまうというなんとも便利な機能を実際にMOVIEで確認いただけます。Clip Gain、Fade、Moveなどがコンソールから操作することが可能、ミキシングが始まってフェーダーに集中している時でもちょっとの修正であれば、マウスに戻ること無く作業が続けられます!!残念ながら、Display Modlueを追加できるのはS6 M40のユーザーのみの特権ですが、S6の存在感を際立たせるポイントであることには違いありません。Display ModuleはRock oNリファレンススタジオにて体験可能、ご来店もお待ちしております!!
0:15〜Desiplay Moduleでの波形表示のズームイン・アウトの様子。1秒〜1分まで変更することが可能です。
1:11〜Display Moduleに表示された波形を見ながらの編集作業のHands oN!!先ずはClip Gainの実演です。
2:05〜更にFade inの実演。実際にマウスを使わずに実行されている様は、他のDAWのようですね!!
2:40〜S6のEdit機能の応用編、コンソールから、Input TrimのようにClip Gainを使う方法をご紹介!!
◎ROCK ON PRO / Avid S6 Contents!!
>>>S6 V2紹介MOVIE Vol.1
>>>S6 V2紹介MOVIE Vol.2
>>>S6 V2紹介MOVIE Vol.3
>>>S6 V2紹介MOVIE Vol.4
>>>S6 / Over the ICON
>>>S6 Rock oN導入レポート その1
>>>S6 Rock oN導入レポート その2
>>>S6 Rock oN導入レポート その3
>>>S6 Rock oN導入レポート その4
Tech
2016/03/11
独占取材!! ムービーで見る、Pro Tools|Dockのオーバービュー!!
昨年発表され、注目を集めているProTools | Dock。Avidコントロールサーフェス最上位となるS6のマスター・モジュール、オートメーション・モジュールを抜き取ったようなその見た目に『どこまでできるのか?』と注目が集まっています。iPadアプリケーションとの連動、そして単体機としての実力、さらにはS3、Artistシリーズとの連携、、、数々の可能性を秘めているProTools | DockをAvid Japanへ独占取材!Avid Audio Application Specialist ダニエル・ラヴェル氏に解説いただきました!!
◎ProTools | Dockの実力はいかに?
Pro Tools | Dock ¥160,920(本体価格:¥149,000)
※iPadは別売となります。
(iPad Air,Air 2,Mini3&Mini4をサポート、iPad Pro対応予定)
ProTools | Dockは昨年のAES NYで発表となり、iPadの使用やEuCon接続、S3との筐体を合わせたデザインサイズなどそのルックスからも数々の話題を振りまいたAvidフィジカルコントローラーの最新形。単体機としての実力をまずは確認していきますが、16フェーダーを持つS3とのコンビネーションによってPro Toolsをよりコンソールライクに取り扱う発展性も大きな魅力です。
さて本体に目を向けていきますが、まずは何といってもiPadを使用したタッチパネル。iPadは別売ですがiPad Air,Air 2,Mini3&Mini4をサポートし、iPad Proへの対応も予定されているとのこと。動作させるアプリケーションは、すでにリリース済みのPro Tools Controlをベースに「Channel ウィンドウ」と「Softkeyウィンドウ」を追加、詳細は後述しますがDock用にカスタマイズされた仕様になります。タッチスクリーンでの操作はS6と多くの共通性が見られ、iPad上の豊富なビジュアルから得られるチャンネルナビゲーションは従来のコントロールサーフェスと一線を画す情報量です。
そして、本機の各セクションですがEuConならではの豊富なSoftKeyと手元に置かれたロケートボタン群、そして顔とも言える大きなJOGはフラッグシップであるS6を彷彿させる仕上がりとデザイン。また、”Dedicated Automation Controls”、”Programmable Touch Strips”、”Programmable /Color Coded Soft Keys”の各ブロックはデフォルトでProTools の機能がアサインされているものの、任意のコマンド、キーショートカットをアサイン可能。iPadの両サイドに配置されるSoft Knobsは8つ用意され、インサートされているプラグインのパラメータ等iPadで表示されている機能のコントロールをフィジカルで行えます。右上にはEuConに対応したモニターコントローラー用のVolumeノブも搭載。豊富に用意されたSoftKeyを見ると、ユーザーそれぞれのワークフローに対応できる懐の深さを感じますが、これもPro Tools ControlというアプリケーションとEuCon接続という仕様の恩恵と言えそうです。その情報量のみならずiPadを採用したところで、従来のコントロールサーフェスの枠を飛び越える可能性が大きく拡がりました。
◎ProTools | Dockのための新ウィンドウが追加!
そしてProTools | Dockで一番の注目すべき点はiPadアプリケーションであるPT|Controlの新たなウィンドウである『Channel ウィンドウ』と『Softkeyウィンドウ』。前述した通り、現在無償提供されているPro Tools Controlにウィンドウを追加、ProTools | Dockのためにカスタマイズが施されました。
Channel ウィンドウでは選択したトラックのコントロールを行います。トラックにインサートされているプラグインも両サイドの8つのSoftKnobを使ってコントロール、当然のことながら同時に異なったパラメータを操作できるのはフィジカルコントローラーの特権であり、マウスでは成し得ないポイント。例えばコンプのコントロールもアタックとリリースを同時に操作したい時もありますよね、目的のサウンドへのアプローチが根本的に変わりよりクリエイティブにミキシングできるのではないでしょうか。また、このウィンドウではChannel に対してのセンド作成からレベルコントロール、PANコントロール、グループの設定、In/Outのアサインが可能となっています。
追加されたもう1点のウィンドウである「Softkeyウィンドウ」が上の画面。こちらではフィジカル部分のSoftkey,Knobにアサインした「以外」の機能をiPadの画面全体に表示されたsoftkeyへアサイン、様々な機能を呼び出せます。しかも写真には「Page9」との表示、お分かりの通りこのSoftkey画面は複数ページに跨って膨大なアサインを割当できてしまいます。この広大な領域にショートカットコマンドのアサインはもちろん、マクロにも対応しているので連続的な操作も入れておくことも可能です。これがあれば作業別にページを作り、使用頻度の高いコマンドをアサインしておく、、一度組み上げてしまえばこれほど効率良いワークフローは中々ないのではないでしょうか!?
◎システムにはどう接続する!? ワイヤレスも想定されたシンプルコネクト
ここまで機能面を振り返ってきましたが、これをどうシステムに組み込むのか背面のポートから見ていきます。背面にはLANポート、iPad充電用のUSBポート、フットスイッチの入力端ポート、電源の4つのみ。PCとの接続はLANケーブルを用いて行い、iPadはWifi経由となるため有線部分は極めてシンプル。USBポートはあくまで充電用となっており、ネットワークの接続はあくまでWifiで行う形です。つまり、iPad自体はWifiを使って接続しているのでDockに置いていなくてもアプリケーションが使用可能となります。Wifiさえ届いていれば少し離れた場所でもiPadを使ってコントロールすることもできるため、ブースにiPadだけ持っていけば手元でトランスポートしレコーディングも可能。SRの現場などではワイヤレスのiPadを持ち歩いて各所のサウンドチェックなど、iPadを用いることで用途が大きく拡がっています。また、S3やArtistMixと組み合わせて使う場合はWifiルーターにDockとS3,ArtistMixなどをまとめてLANで接続し、PCとのやりとりはルーターからWifiを使用するという接続も可能、機材レイアウトにも従来の枠に捉われない自由さが与えられています。
◎ご予約受付中です!!
『クリエイティビティを刺激するフィジカルコントローラー』、『作業効率を上げるフィジカルコントローラー』と二つの顔を持つProTools | Dock!! 発売日は現時点では未定となりますがご予約は受付しております、従来のコントロールサーフェスの枠を飛び越えたと言えるPro Tools Dockで、ワークフローも制作環境も著しく変革するのではないでしょうか!! また、今回オーバービューをまとめたムービーに加え、さらに詳しく機能解説を行ったムービーも近日公開予定です。ROCK ON PROでは新着情報が入り次第、随時お届けしていきますご期待ください!!
>>お問い合わせ、ご予約はリンク先のフォームもしくは03-3477-1776 阪田、清水まで!!
Pro Tools | Dock ¥160,920(本体価格:¥149,000)
※iPadは別売となります。
(iPad Air,Air 2,Mini3&Mini4をサポート、iPad Pro対応予定)
Tech
2016/03/10
ROCK ON PRO PickUp!! ~バイノーラル録音に触れる、Neumann KU100~
ROCK ON PRO Pick Up Information!! では今話題のプロダクトをご紹介します!
独特な形状と朴訥とした表情(!?)でおなじみダミーヘッドマイク。現在Rock oN渋谷店頭ではNEUMANN「KU100」を期間限定でデモ展示、バイノーラル録音の体験をしていただけます!!
NEUMANN KU-100 ¥1,144,800(本体価格:¥1,060,000)
まず、バイノーラル録音ですがこれはステレオ録音方式の一つとなります。人の頭の形から、耳の形、鼓膜までを模倣した模型の耳の中に集音マイクを取り付けることで、ダミーヘッドを置いた録音場所で聴いたであろうそのサウンドと、ほぼ同じサウンドイメージを認識させる収録を可能とします(頭部立体音響)。このバイノーラル録音の技術はとりわけ新しいものではなく、技術としては昔から存在しているのですが、ここ最近、アーティストが積極的に録音に取り入れたり、ショーなどの展示会などでも用いられ、新しい表現方法として昨今用途を拡げているところです。また、そのほかにもドラマCDや配信などでも多くの需要が出てきていだけでなく、個人でバイノーラル録音ができる簡易的なマイクや、ビデオカメラのGoProなどでもバイノーラル収録を前提とした製品がここ最近続々とリリースされています。
そのバイノーラル録音を実現するプロダクトとしてまず挙げられるのがこのダミーヘッドマイクNEUMANN KU-100ではないでしょうか。今回RockoN渋谷店では1ヶ月の期間限定でデモ機を展示中です。実際に収録してヘッドホンですぐに確認できるようにセッティング、前後左右をはじめ上下に音源が移動した場合の音の変化も是非試してみてください。想像以上の生々しさに逆に新鮮さを覚えていただけること請け合いです!! ご来店お待ちしております!!
>>メーカーホームページはコチラ
Tech
2016/03/03
ROCK ON PRO PickUp!! ~細かい仕様にも柔軟に対応。AVOCET 2Aアクセサリーポートを知る!!~
ROCK ON PRO Pick Up Information!! では今が導入のチャンスとなる話題のプロダクトをご紹介します!
今回はよくお問い合わせをいただくモニターコントローラであるCrane Song AVOCETのアクセサリーポートについて。お客様のシステムを組むにあたって伺う細かなご要望にも対応する柔軟な仕様を確認していきます!!
◎CraneSong AVOCET ⅡAとは
Crane Song Avocet II A 通常価格¥399,600→数量限定!! ¥358,000(本体価格:¥331,481)
独特なグリーンを基調とした色使いと、その徹底した作り込みによるクオリティで様々な製品を送り出しているCrane Song。アウトボードの鬼才Dave HillのデザインするプロダクトはハードウェアだけでなくAVID Heat プラグインの開発も担っています。Avocetは、こだわりのフル・ディスクリートClass A回路を採用したストレートなサウンドが持ち味となっており、ミックスに不可欠なサウンドのニュアンスやバランスを余す事無く再生する事が可能です。デフォルトで付属するコントローラーも、音質に拘った1dbノッチのリレー回路でのボリューム・コントロールが可能になっており、視認性のよいスイッチと相まって、まさに自身の感覚をそのままに操作することが出来ます。アナログ/デジタル3系統の入力と、3系統のアナログ出力と充分なI/Oを備え、何よりもユニットを追加する事によりサラウンドにも対応する拡張性が他のモニターコントローラーにはない魅力です。
◎公開されているマニュアルでわかるピン配列
AVOCET ⅡAのおおよその入出力は、一般的なXLRやTRSジャックなどでまとめられていますが、左サイドにあるアクセサリーポート、このD-Sub 25ピンのコネクタが一見すると「謎」の存在、よくお問い合わせいただく部分です。そこで、AVOCET ⅡAの仕様を見てみたいとCraneSongの本国サイトに飛んでみても、非常にシンプルなホームページのデザインで表側からはあまり情報が得られません。しかしながら、諦めずに探してみると、、Manualがしっかりと公開されており全ての仕様を確認する事ができます!! そのマニュアル(仕様)を見ると背面にまとめられたアクセサリーポートにもスタジオ作業において使いたい入出力がたっぷり、下記のようにそれぞれのピン配列にどの入出力がアサインされているのかが一目瞭然なわけです。
この中で、source out・TB Mic out・TB Remote inあたりはステレオミキシングをする上で押さえておきたい機能ですが、いかんせん一般的な配列ではないので、ケーブルを作らなければなりません。半田ごてとコネクタを秋葉原で買ってきて自作するのもいいですが、そんな手間暇かけてられないというお客様は是非ROCK ON PROへご相談ください!! 必要な入出力と長さなどのご要望をいただければ、お見積りをさせていただきケーブルを作成いたします。都度お見積りとなりますが、source out/TB Mic out/TB Remote in/ を備えた0.1mブレークアウトケーブルの場合、約1万円程度、納期2-3週間が目安です。システムを構築するにあたって、環境に合わせたカスタマイズは必須。細かいご要望にも対応させていただきます、お問い合わせお待ちしております!!
Tech
2016/03/01
ROCK ON PRO PickUp!! ~RS124真空管バリアブルミューコンプレッサーが50年以上の時を経て公式に復刻〜
ROCK ON PRO Pick Up Information!! では今が導入のチャンスとなる話題のプロダクトをご紹介します!
ROCK ON PRO 渋谷リファレンスルームでは、Chandler Limited RS124を期間限定展示中です!! 1960,70年代、AbbeyRoad Studioのほとんどの録音において使用されたとも言われる歴史的なコンプレッサー。ビートルズ作品の中期から後期にかけて、RS124を通した太く瑞々しいポールのベースサウンドを担ったと言われています。
今回のRS124の復刻にあたっては、AbbeyRoad StudioとCHANDLER LIMITEDの共同で開発が行われ、回路図をAbbeyRoad Studioに存在している歴史的な実機、そして当時の手書きのノートから正確に再現。RS124コンプレッサーを現代に甦らせています。また、単なるリイシューではなく現代のレコーディング形式に合わせて使いやすいよう発展的な機能が盛り込まれているのもポイントです。
◎オリジナルとのアップグレードポイント
・可変のアタック・コントロール
RS124にはオリジナル機には搭載されていない、アタック・コントロールを装備。数字が大きくなるにつれ遅いアタックタイムになっていきますが、アビイ・ロード・スタジオに実在する3台のRS124コンプレッサーが持つそれぞれのサウンドを、このスイッチのポジションに赤色の文字で記載された「シリアル番号(60070B, 60050A, 61010B)」で選択することができます。個体差までも分析して搭載するChandler Limitedの意気込みを感じます。
・200/600オームのインピーダンス切り替え
出力インピーダンスは200または600オームにスイッチで変更が可能で、トーンやゲインの変化が得られます。600オームのセッティングは近代的なスタジオ環境で標準的ですが、アビイ・ロード・スタジオでは200オーム・セッティングを標準としていますので、オリジナルのトーンやゲインを追求することもできます。
・シークレットファンクション” Super Fuse”の搭載
個人的な一押しポイントはズバリこのSuperFuseです。フロントパネル上のFUSE(ヒューズキャップ)は実は隠しスイッチになっています(本当のヒューズはリアパネルにあります)。‘SuperFuse’モードはこのスイッチを左側にセットした場合にアクティブとなり、RS124のパワーライトがより明るく点灯し、全体に速く、アグレッシブな動作となります。UREI 1176の全押しモードほど劇的な変化ではないですが、RS124だけでしか得られないこのトーンは思わずニヤリとしてしまいますよ。
◎ROCK ON PROにて比較試聴可能
ROCK ON PRO Shibuya リファレンスルームにて期間限定ではありますが、すぐに比較試聴できるように、すでにルーティングスタンバイしております。少しでも気になったお客様は是非渋谷まで足をお運びください!! 従来のコンプレッサーとは一味違ったトーンを楽しんでいただけますよ。
CHANDLER LIMITED RS124
・RS124 ¥432,000(本体価格:¥400,000)
・RS124(Stepped I/O) ¥473,040(本体価格:¥438,000)
・RS124 Mastering Matched Pair (Stepped I/O) ¥969,840(本体価格:¥898,000)
Tech
2016/02/10
AVID S6 ハンズオンMOVIEでその充実の機能を徹底解説!! Vol.4
ROCK ON PRO店頭でも好評展示中のAVID S6。従来のICONユーザー、そしてSystem5ユーザーも納得の新機能が多数実装されました。その機能はWhat’s Newドキュメントで、なんと38ページにも及びます。What’s Newドキュメントを読む!>>
そして、この機能だけでも欲しい!!と思わせるのが今回ご紹介のVCA Spill。マウスでのミキシングではあまり活用されることのないVCA Master。S6でのミキシングではその実力が如何なく発揮されます。VCA MasterのSlave Fader(子フェーダー)へのアクセスがワンボタンになったり、グループを解除すること無く、個別トラックのボリューム調整が可能になったりと、ユーザーが求めていたVCA Masterの機能を実現しています。是非ともMOVIEをご覧になり、その機能をご確認ください!!
0:50~VCA Spillの基本的な機能をご紹介。そもそもVCA Spillがどのような機能なのか?そのS6上での動作も含めご案内します。
1:45~前回ご紹介のレイアウト機能と組み合わせてのVCA Spillの実践編。予めVCA Master Trackを作っておくことで、どのフェーダーへもすぐにアクセスのできる環境が構築できることが判ります。
4:35~V2出追加されたオートスピル機能の解説も含まれます。VCA Faderをアテンションすることで自動的にSlave Faderを呼び出すことの出来る機能。こちらも使い安い機能ですね。
過去の解説ムービーはこちらから
AVID S6 ハンズオンMOVIEでその充実の機能を徹底解説!! Vol.1
AVID S6 ハンズオンMOVIEでその充実の機能を徹底解説!! Vol.2
AVID S6 ハンズオンMOVIEでその充実の機能を徹底解説!! Vol.3
Tech
2015/12/17
【祝!! AVID S6 Ver.2公開】ハンズオンMOVIEでその充実の機能を徹底解説!! Vol.3
ROCK ON PRO店頭でも好評展示中のAVID S6。先日Ver.2がリリースされ、従来のICONユーザー、そしてSystem5ユーザーも納得の新機能が多数実装されました。その機能はWhat’s Newドキュメントで、なんと38ページにも及びます。What’s Newドキュメントを読む!>>
使い勝手的に最強だ!!と思わせるLayout機能とSpillZoneの解説Movieが完成しました!!こちらすでに第3段。それでもお伝えしきれないS6の新機能の数々。これをご覧いただければ明日からS6を導入してもすぐに使える!?解説はお馴染みAvid Audio Application SpecialistのDaniel Lovell(ダニエル ラヴェル)氏。System 5の先進の機能であったLayoutをS6的にどのように拡張して実装しているのでしょうか?その実力を御覧ください!!
1:20~ : S6ですでに実現していたLayout機能が強力にバージョンアップ。先ずは好きなトラックを配置するという機能を解説。
4:30~ : ICONシリーズのカスタムフェーダーによく似た機能がSpill Zone。Layoutとの組合せにより強力に生まれ変わっています。S6のトラックナビゲーションの中核となる機能です。
7:20~ : 複数のDAWを平行して操作が可能というsystem5譲りの機能。Layout,Spill Zonreと組み合わせることで、驚くほど強力な機能として動作します。
Tech
2015/11/30
William Files氏 インタービュー 「STAR WARS フォースの覚醒」はどのように作られたのか
(※本記事はInterBEE2015 2Dayレポート記事を転載しています)
InterBEE2015で最大の注目を集めたセッションがAVIDブースで開催された『海外ゲスト:映画『スター・ウォーズ/フォースの覚醒』におけるPro Tools | S6によるミキシング』。前後左右の通路がうめつくされる程のその注目度は作品の持つ魅力ももちろんですが、常に音響へのチャレンジが行われるその作品へのアプローチへの期待の高さではないでしょうか。
ブースでの熱気あるセッションの模様は、"Rock oN InterBEE 2015 Show Report"で動画付きで公開されています。会場へお越しになれなかった方もこちらをご覧になれば、その制作秘話が包み隠さず公開されていることを確認できることでしょう。本編に関しては、ファイナルダビング前ということも有り、トレーラーでの素材の持ち込みとなっていますがそのサウンドメイクのコンセプト、テクニックは十分に伝わるものとなっている。
それでは、個別インタビューで明らかになった様々な制作秘話、そしてハリウッドの最新事情をレポートしていきたいと思います。最後まで必見の内容ばかり!!!
William Files氏
William Files氏(以下Will氏)は現在は、映画に関わる方ならばあこがれの場所であるSkywalker Sound所属のSound Designer & Re-Recording Mixer。若手(35歳以下)で最も才能あるエンジニアとして表彰されたこともあるトップエンジニアの一人。その才能は、過去にWill氏がミキシングを行なっった作品からも十分に感じられるものとなっている。その一部をご紹介すると、『猿の惑星:新世紀(2014)』『STAR TREK ~ INTO DARKNESS ~(2013)』『Mission: Impossible ~ Ghost Protcol~(2011)』『クローバーフィールド(2008)』『エラゴン(2006)』『Mr.Incredibles(2004)』『Shrek 2(2004)』など。まだ37歳という年齢を考えると驚くほど早くからSound Designer / Re-Recording Mixerとして活躍していることがわかるだろう。ちなみに2006年のEragonまではSound Designerとしてのクレジット、2008年のクローバーフィールドではRecording Mixerとしてもクレジットされている。若干30才にして、ハリウッドでミキサーとして活躍をしていたという事実に衝撃を覚える。
国内であれば、30歳といえばアシスタントとしてやっと独り立ちをする年齢。同じ年令でセンターに座りミキシングを行なっているということは何故なのか?を聞いてみた。
音楽的センスとエンジニアとしての経験
Will氏は、元々映画が好きで、それを専攻する大学を卒業。その後、ラジオ局へ入り制作の仕事を行った後に、Skywalker Soundへ入社した。師匠に恵まれ、幸運な周りの人とのつながりの中から、早い時期にミキサーとしてのデビューすることが出来たということだ。この部分は、国内もハリウッドも同様にタレント(=才能)を重視する音楽産業とは違い、経験を重視する映画産業の中で信頼を勝ち取るということは、まさに人とのつながりが最も重要であるという事。これはどの現場でも変わらない普遍的なものであるということが感じられた。
Will氏のキャリアは、Sound Designerとしてスタートしている。楽器(Drums)を演奏していたというバックグラウンドを持ち、音楽的なエッセンス、ビート、グルーブ等の感覚的なものをサウンド、映像に織り込むことでその評価を得ているという。Sound Designerとしてサウンドをつくり上げることとともに、その素材を使って全体を仕上げていくミキシングも好きな作業とのこと。両方を行うことが出来るようになったのは、やはりPro Toolsの存在が大きかったということだ。
従来の多人数での作業を一人で行うためには、優れたツールが必要。Pro ToolsはSound Designを行いながらミキシングを行うことの出来る優れたツールである。そして、ICON、S6といった、コントロールサーフェスとの連携により全ての作業を効率よく、思った通りに仕上げていくことが出来る。今のSound DesignとRe-Recording Mixerを行うというポジションはPro Toolsの存在無しには考えられなかったということだ。ハリウッドでは、そのようにマルチに活躍をしている方は多くいるのかと聞いたところ、徐々に増えているが従来の分業での作業を行なっているプロダクションが多いということだ。Will氏も作品や作業量に応じてどちらかに集中をするというケースもあるということ。ここはやはり、合理主義のお国柄が感じられる部分だ。
スター・ウォーズ/フォースの覚醒
話を『スター・ウォーズ/フォースの覚醒』に移して、細部を掘り下げていこう。先ずはSound Designに関してのコンセプト、根幹に当たる部分。
コンセプト
熱狂的なファンを多く抱えるこの作品、新しい物を作るにあたっては多くの見えない努力が必要となる。Will氏が、まず話をしていただいたのが、監督JJエイブラムス氏がとにかく、熱狂的な『スター・ウォーズ』ファンであるということ。その細部まで知り尽くした監督から提示されたコンプとは、「オリジナルの素材を使う」「オリジナルと組み合わせて新しい物を表現する」ということだった。音だけでスター・ウォーズだとわかる素材は多い。例えばライトセーバーのサウンド、ドロイドの声(?)、火器の発射音など。これを一から変えてしまうとやはりスター・ウォーズの世界観が変わってしまう。これまでに確立されてきた世界観を重視することは、この作品にとって何よりも大切なことだと言う共通の認識で作業は進んでいるということ。
幸いなことにSkywalker Soundにはこれまで公開された全ての作品のオリジナルの音源が全て保存されている。同社にあるレストレーションの部門に依頼をすることで6mmで保存されたオリジナル音声をレストレーションし、デジタイズされたものを手に入れることが出来るということだ。貴重な機会なため、可能な限りクオリティーを高くオリジナル素材のアーカイブをするということも平行して行われた。サンプルレートは192kHz、実際のレストレーションにはiZotope RXが活用されたということ。今回セッションのために持ち込まれたデータはステレオの素材ばかりであった。その理由はオリジナルの素材を利用していたからということになる。非常に明快な原因といえる。
STARWARSの世界観に溶け込む新しいサウンド
そして、オマージュ、ノスタルジーだけでは新しい作品として魅力がなくなってしまうために、様々な新しいサウンドも作られたということだ。その一例として見せてもらったのが、LIght Speed(スター・ウォーズでのワープ)のシーン。これまでは、コックピットの中からの視点しかなかったが、新しく船外からのシーンを作成した。これまでのサウンドに新しいエッセンスを追加し、サウンドを狭いコックピットの反響あるサウンドから、開放的なサウンドへとエフェクトを行なったということだ。それ以外にも、ドロイドのサウンド、ライトセーバーも新しい物を用意しているということだ。これらは、本年の公開で是非とも確認をして貰いたい。
新しいアプローチを行う際に活用したツールを尋ねたところ、Zynaptiq UnFilterとWAVES Aphex Aural Exiterの名前が上がった。オリジナルの素材に無い帯域を復活させるためにこの2つのプラグインが活躍しているということだ。全体域を有効に使うためにデジタル音声としての帯域幅の確保と、オリジナルを重視しながら新しいアプローチを行うためには無くてはならないツールであったということ。
Sound Design & Re-Recording Mixerの仕事
今回の『スター・ウォーズ/フォースの覚醒』での役割に関して話を聞いたところ、Sound Design & Re-Recording Mixerとの回答。国内では聞いたことのないSound DesignerとRe-RecordeingでのDialog Mixerの兼任ということだ。Musicに関してはさすがに作業量的に厳しいので他のエンジニアに依頼をしているということだが、その他は一手に引き受けているということだ。国内ではそのような役割分担になることは無いという話をしたところ「アクション映画だから当たり前。Sound Designの重要性を考えればこうなるよ」という至極ごもっともなコメント。
物語の進行に重要なダイアログと映画の世界を描くSound Effect。重要性を考えれば、その両者を一手に管理、ミキシングをすることで効率的に仕上げていけるということは非常に理解しやすい。もちろんドラマなどのDialogが重要な作品では、感情を吹き込むMusicとDialogを一手に握るミキサーとSound Designerという組み合わせになることも。またFinal Mix迄にPre-Dubbingを何度となく繰り返し、シーン毎のサウンドの方向性、DialogとSound Effectのバランスを追い込んでいくということだ。ちなみに、今回のセッションで使用したトレーラーのファイナルはWill氏が一人で行なったということ。音楽に対しても造詣の深い、彼ならではの作業であるといえる。
MEGAコンテンツのワークフロー
[caption id="attachment_284" align="alignleft" width="193"] ISIS | 7500[/caption]
制作は、監督の持つプロダクションBad Robbotを拠点に進行、ここには、巨大なAVID ISISサーバーシステムが有り、全てオンラインでの作業を実現しているということ。これは、2年前に同氏がやはりInterBEE 2013でSTAR TREK ~INTO DARKNESS~の制作環境についてセッションを行なったのが記憶にあたらしい。全てのデータはISIS状に有り、編集の変更もリアルタイムに反映され、非常にスムーズな作業が可能となっているということ。そして、このサーバーでの作業でのメリットはセキュリティーという点でも非常に有利だと強調されていた。このISISに接続されたシステムであれば、素材を新たに書き出すこと無くプレビューが可能となる。素材はサーバーにだけ有り、他の端末へのコピーなどが行われずにファイナルまで進行する。途中での確認用ファイルも、社内で確認をするというフローを構築したために、一切書き出すということが無くなっている。これは、セキュリティー効率、すべての面でメリットが出ているということだ。
ちなみにAVID ISISなどファイル共有システムの導入率は、Video系のプロダクションでは100%、Audio Productionに関しては、これからという状況ということだ。その恩恵を考えると、導入が進んで欲しいところだと。しかし、それに合わせたワークフローも重要であり、制作から、ファイル共有システムを念頭においたフローを構築していくことが重要だ。
ファイナルは20th FOXで行われるということ。このステージは、監督のお気に入りということでセレクトされたということだ。全作品までの6作が配給20th FOXだったのが、今回からはDisnyの配給に変更されている。配給は変更になったが、ダビングは里帰りをしたというのが面白いとWill氏。ハリウッドでも配給や制作のしがらみなく監督のセレクトでダビングステージが決定されているということは国内と同様。Will氏によると、Skywalker Soundと並んで20th FOXのダビングは素晴らしいということ。機材がということではなく、ここには長時間の作業を行うダビングステージで最も重要なスタッフのクオリティーがあるということ。ちなみにファイナルはInterBEEでのセッションの直後からのスタート。そのために3日目はセッションを行わずに帰国をするということであった。
Pro ToolsとAvidへの期待
最後にWill氏の愛用するPro Tools、そしてAVIDへ対する今後の期待を聞いてみた。
「コンセプトが発表されているCloudベースのサービスに対しての期待度は高い。未知のサービスに対してのセキュリティーなどサービスの質が求められるが、AVIDに取っては大きなチャレンジの時。またユーザーにとってもそれが信頼できるものか見極め、信じて前に進むことが出来るかというチャレンジの時。両者においての大きなチャレンジの瞬間が近い将来訪れることになるだろう。新しいソリューションの登場に大きな期待をしている。」ということだ。
国内でも情報がなかなか伝わりきれていないPro Tools Upgrade & Support Plan。新しいバージョンアップの方法論に対しては、Will氏は非常に前向き。Ver.12.3で搭載されたComit Track機能は、ステムの書出しなどに重宝している、すでにお気に入りの機能とのこと。またSkywalkerを離れて別のスタジオに行くことの多いWill氏にとって「このUpgrade & Support Planを全てのスタジオが購入してくれれば、何処に行っても同じバージョンのPro Toolsが使えるし、お気に入りのPro Seriesプラグインもライセンスの有無を気にせずに使えるようになる。」Will氏にとっては作業環境のブラッシュアップとして素晴らしい出来事になっているということ。米国内でもUpgrade & Support Planのアナウンスは行き届いていないようで、この素晴らしいバリューを持つ新しいプランをユーザーに届けるよう、AVIDに頑張って欲しいとエールを送っていた。
Tech
2015/10/21
Merging HORUSがPro Tools互換に!!IOM-H-PT64登場!!
Ravenna対応、DSD対応などそのハイスペックが語られることの多いMerging HORUS。Rock oN SHOW REPORTでもお馴染みのAudio Interfaceです。Merging製ということで、同社のPyramix専用と思われている方も多いかと思いますが、実はASIO/Core Audioにも対応したモデルでも有ります。そのHORUSが遂に、Pro Tools HDシステムの互換I/Oとなります!!
◎IOM-H-PT64
HORUSは、標準でRavenna、AES/EBU、MADIとデジタル系のIOを備え、6箇所のオプションスロットでアナログのIOを提供するという構成になっています。今回登場の"IOM-H-PT64"はそのオプションスロットに装着することによりPro Tools HD互換となるmini-DigiLink Portを2口提供します。これにより、64chのInterfaceとしてHORUSの持つ高品位なAD/DA、そして、Ravenna、MADI等とのDDが提供されることとなります。
なんといってもDSD対応の高品位なADを使えるというのは、Pro Toolsユーザーに取ってもメリットと感じるのではないでしょうか?すでに、Prism Sound ADA-8XR、Lynx Aurora、Apogee Symphony、DAD AX32がPro Tools HD互換として登場済みですが、もう一つのハイエンドな選択肢としてMerging HORUSが加わることは素晴らしいニュースです。マスタリングスタジオや、音質に拘るエンジニアがチョイスをするPyramix。その音質の源とも言えるAudio Interface部分を使い慣れたPro Toolsでも利用できるということになると、一回は、その音質比較をしっかりとお試し頂く必要があるといえるでしょう。
すでにPro ToolsからRavenna経由でHORUSの高品位なMic Preのリモートコントロールを実現しています。定評あるHORUSのMic Preもストレスなくオペレートが可能、待た、最新のネットワークオーディオ環境であるRavennaはAES67として規格化も終わり、普及の段階に来ています。HORUSであれば、AES67との架け橋としての機能も併せ持ちます。
また、HORUSのIOM-H-PT64のこだわりは、レイテンシーにも。IOM-H-PT64ではHD IO、HD omni、HD MADI3機種のエニュレートモードを持ちます。これは、それぞれの機種に対して、Pro Tools側が自動的にハードウェア分のレイテンシーを計算して、補正を行なっているためです。これにより、メインで利用する回線の種別に合わせ、適切なレイテンシーを設定することが可能となっています。さすがは、DAWメーカーというこだわりではないでしょうか。
ちなみにHORUSには、この"IOM-H-PT64"カードは、最大2枚の装着が可能。合計で128chのInterfaceを提供することが出来るということです。Ravennaを通じて、HAPIと組み合わせてのシステム設計など、その構想は大きく広がります。
すでにオーダーの受付は開始されているということ。是非ともROCK ON PROスタッフまでお問い合わせ下さい!!
Tech
2015/10/14
【祝!! AVID S6 Ver.2公開】ハンズオンMOVIEでその充実の機能を徹底解説!! Vol.2
ROCK ON PRO店頭でも好評展示中のAVID S6。先日Ver.2がリリースされ、従来のICONユーザー、そしてSystem5ユーザーも納得の新機能が多数実装されました。その機能はWhat’s Newドキュメントで、なんと38ページにも及びます。What’s Newドキュメントを読む!>>
もちろん全てが魅力的な新機能ばかりですが、遂にVer.2となったこのタイミングでAVID S6の全体像をハンズオンで改めて振り返りその魅力に迫ります。第2回は、コントロールサーフェスとしてお使い勝手にぐっと迫ります。解説はお馴染みAvid Audio Application SpecialistのDaniel Lovell(ダニエル ラヴェル)氏。DAWをコントロールする際にすとれすになることが 多いパラメータ。プラグインのコントロールについて、AVID S6の回答とも言えるエクスパンド=拡張機能をお見せします。これを見れば、マウスなしでもミキシングが出来る!ということを実感していただけれるのではないでしょうか。
0:40~ エクスパンドモードの解説
ノブモジュールにセレクトしているパラメーターを展開するこのモード。プラグインのパラメーターを一覧で確認することができます。
2:28~ エクスパンドモジュールの解説
EQ / Dynamicsと表示する機能を予め特定のノブモジュールに固定して、Attentionしたチャンネルのパラメーターを表示するという機能。従来型のデジタルコンソールと同じような使い勝手を提供します。
Tech
2015/08/27
【祝!! AVID S6 Ver.2公開】ハンズオンMOVIEでその充実の機能を徹底解説!! Vol.1
ROCK ON PRO店頭でも好評展示中のAVID S6。先日Ver.2がリリースされ、従来のICONユーザー、そしてSystem5ユーザーも納得の新機能が多数実装されました。その機能はWhat's Newドキュメントで、なんと38ページにも及びます。What's Newドキュメントを読む!>>
もちろん全てが魅力的な新機能ばかりですが、遂にVer.2となったこのタイミングでAVID S6の全体像をハンズオンで改めて振り返りその魅力に迫ります。第1回となる今回のムービーはAvid Audio Application SpecialistのDaniel Lovell(ダニエル ラヴェル)氏を迎え、S6の基本的な機能をぎゅっと凝縮してオーバービューをダイジェスト解説。他のコンソールとは一線を画す、DAWとのシームレスな連携、サーフェイス・トラック・マネージメントとビジュアルフィードバックにより、S6の魅力に触れていただけることでしょう。
【AVID S6 Ver.2 Movie】
Movieの一部をご紹介!
1分20秒〜 S6のサーフェスセットアップ。モジュールのアサインメントを実際にハンズオン!!
3分15秒〜 EuConならでは! NuendoとPro ToolsのWorkstation切替のハンズオン!!
7分40秒〜 S6の最大のポイントとなる波形表示が出来るDisplay Moduleの説明はここから!!
8分45秒〜 遂に実現、波形へのオートメーションカーブのオーバービュー!!
コンソールとしての機能性と完全なるDAWコントローラーを構成する各ファンクション。新たに追加されたエクスパンドモジュール、スピルフェーダー機能。すでに実装済みの美点、パラメーターエクスパンド、VCAスピル等、順次動画でご紹介を起こっていきます。次回の公開は9月中旬の予定。お楽しみに!!
もちろん、百聞は一見に如かずです。ROCK ON PRO Reference Studioではムービーにもある通り、24フェーダー仕様のAVID S6をご用意しハンズオンでプレゼンテーションを行うことが可能です。お気軽にお問い合わせ下さい!!!
Tech
2015/08/26
S6に新たなモジュールが登場!!待望の”Joystick”が追加に
AVIDのフラッグシップコンソールである"S6"。その登場当初より、ユーザーからの希望の多かったのが、サラウンドパンニング用の"Joystick Module"。ユーザーの期待を受けて、遂に登場が決定しました。NABのレポート、そしてAvid Creative Summitデモプロトタイプをご紹介してきましたが、遂に予約受付が開始になったということ。価格、発売予定時期は未定ということですが、予約を開始したということは、その時期は近いということで間違いないと思います。見た目同様に、定評のある、System 5譲りのモータライズドのJoystick Moduleとなっています。サラウンドの作業をされている方は、"S6"と合わせて、是非ともご検討下さい!!!
プロダクト概要:
Pro Tools | S6 Master Joystick Moduleは、Pro Tools | S6でのサラウンド・サウンド・ミキシングに対応するタッチセンサー搭載の非電動式デュアル・ジョイスティックを特長とします。また、パンとジョイスティックの位置を表示する3.2インチ TFTディスプレイを搭載しています。
このモジュールは、M10とM40のどちらのモデルのPro Tools | S6システムでもオプションとして追加できます。 また、それぞれのジョイスティックにはPro Tools | S6ノブやプロセスモジュールに使用されているものと同様の ストリップコントロールとノブセクションが含まれます。さらに、モジュールには、マルチカラーLED上部点灯エンコーダ×2、詳細な視覚フィードバック用有機ELディスプレイ×4、LFEやダイバージェンス等の精微な調整に対応するパン・コントロール・スイッチも含まれます。加えて、拡張したパンニング・ワークフローに対応する16のカラーLED付パン・モード・スイッチを備えます。
Tech
2015/08/07
Pro Tools 12で革新的進歩を遂げたIO設定。ユーザーメリットばかりの内容に驚愕間違いなし!
先日、Pro Tools12.1のアップデートがリリースされ、その充実した内容から「もはやメジャーバージョンアップ!!」と、こちらでも取り上げさせていただきましたが、Pro Tools 12の魅力はそれだけではない!ということで、実はかなり機能がアップしたI/O設定を解説させていただきたいと思います。
5年ぶりの機能拡張
実は、今のI/Oセットアップに変わったのは2010年。それまで、内部バスはマトリクス表示(現在のINPUT/OUTPUTと表示がほぼ同じレイアウト)でしたが、リスト表示に変化し、同じ画面で内部バスをハードウェアへアサインする画面へと、大幅な設計変更が行われたアップデートでしたね。しかも、大々的にアップデートを告知したのはPro Tools 9でしたが、実はその一つ前のバージョンであるPro Tools 8.1で変更されておりました。古参ユーザーであれば、このアップデートに衝撃を受けたのではないでしょうか?私も当時、大変な衝撃と戸惑いを受けた記憶が蘇ります。
今回のアップデートは、レイアウト変更はあまりありませんが、実はものすごく機能が充実した内容へと変化しております。
二者択一のI/Oセッティング
Pro Tools 11まではI/O設定の画面を閉じるとそのI/O設定が反映され、変更した項目を戻すことはできませんでした。このトラブルは、複数のPro Toolsシステムでセッションを展開する際、I/Oの構成が異なっていると音が出ない・・・など、非常に厄介な問題でした。実際にセッションを開いてみて、いざI/O設定をセッションに記録されているI/O設定で展開するには、I/O設定画面で設定を上書きする設定に変更して、セッションを開き直して・・・。いざミックスを始めるまでにこれらの作業が必要となり、非常に骨が折れる作業を繰り返さなければなりませんでした。
しかし、Pro Tools 12ではセッションが保持しているI/O設定を一時的に保持することができます。実際に再生して、I/Oのアサインが正しいかどうかを確認してから、システムに保存されているI/O設定をインポートするのか・セッションに保存されているI/O設定を復元するのかを選べるのです。この機能は、セッションをセーブするまで保持されます。直前までステレオミックスの仕事をしていて、次にサラウンドのセッションを開いても、セッションを開き直すことなくI/O設定に変更を加えられるようになるわけですね。
さらに!この機能が非常に便利になる機能として、次のモニターバス自動マッピングが関係してきます。
モニターバス自動マッピング機能
その名の通り、モニターバスに設定されたアウトプットを、バス画面で一番上のバスに自動でマッピングしてくれる機能です。今までのPro Toolsでは、アウトプットパスの名称が異なると、「バス」画面でのアウトプットへのマッピングはイタリック文字として表示され、実際に音声は出力されませんでした。せっかくI/O設定が正しいものになっても、音が出なくては意味がありません。
設定すると、アウトプットパスの横にスピーカーマークが点灯します。
そして、ここで設定したパスが、バスの画面ではこのように適応されます。
そのシステムのI/O設定内で、実際にアウトプットとして存在せず、Pro Toolsが自動でアサインしたものはグリーンの表示に変わります。その隣には、アサインの履歴が表示されていますので、いざとなったら自動アサインからの変更も容易です。
これで、「あれ?音が出ない。」や、「なんか音足りなくない??」などといった、制作とは関係のない作業に時間を取られることがなくなります。
これらの機能は、Pro Toolsセッションデータを受け取って作業をする環境にいらっしゃる方・複数のシステムに渡って作業をする環境にいらっしゃる方に是非使用していただきたい機能です。
文字・写真で見ていただくよりも、実際にセッションを開いてこの便利さを体感していただきたい!百聞は一見に如かずです!!皆様のご来店・お問い合わせを、心よりお待ちしております。
Tech
2015/07/22
ご好評をいただいた必見ノウハウ満載のDM限定コンテンツ「Discover Sound」をWeb化してご紹介します!!
ダイレクトメールでご送付させていただきご好評をいただいた「Discover Sound」が待望のWeb化です!! サウンドプロダクションをネクストレベルに引き上げるプロダクトの数々からProToolsの即戦力TIPSはもちろん、ミックスノウハウまでROCK ON PROのスペシャリストが詳細解説する注目のコンテンツが満載!!
今回はそのDiscovery Soundの中からWavesを用いたミックスTIPS「他人には教えたくない!コーラス・ミキシングテクニック by WAVES」をWebへ移植、ご紹介します。その他のページはPDFでダウンロード公開、ぜひご確認ください!!
Discover Sound / 03 Plug-ins Creative Technique
他人には教えたくない!コーラス・ミキシングテクニック by WAVES
メインボーカルのミキシングに関してはいろいろなところに書かれていますが、コーラス、ハモリのミキシングテクニックって意外と何処にも書かれていなかったりしますよね。いくつかパターンに分けて現場時代に駆使していたテクニックをこっそり公開しようと思います。
しっかりと聞かせたいツインボーカル的なハモリ
コブクロやゆずのようなツインボーカル的なハモリは、基本は2つのトラックともメインボーカルとしての加工をまずは施します。もちろんそこからレベルだけでバランスを取ることももちろん有りますが、主旋律がどちらなのかはっきりしている場合には、ハモリパートを少しだけ後ろに定位させたり、音像を少しだけぼかしたい、なんてことがあるかと思います。こんな時に便利なのがDelay。今回はいろいろなパターンで活用できるWAVESのDoublerを使います。このプラグインはマルチタップ・ディレイにその定位と、モジュレーション制御できるピッチシフターが組み合わされたまさにエンジニアの秘密のテクニックを発揮させるプラグインです。
定番の手法としてはセンターパンで、3~10msくらいのショートディレイを掛ける方法(Feedbackは控えめに)(図1)。Dublerを使えばそこに少しのPitchShitが加えられるのがポイントで、パラメーターとしてはDetuneがそれに当たります。これが程よいスパイスとなりメインを邪魔せずにハモりを浮かび上がらせる効果を発揮するのです!このピッチをずらすということの意味はお分かりでしょうか?『同じバイオリンを何本重ねてもアンサンブルにならない』と言うのは有名な話です。これは楽器、演奏者が同一でピッチのズレが無い場合にこのような事象が起きます。微妙なピッチのズレは厚みを生み、サウンドを前に押し出す効果が有るのです。ハモリも同様にディレイで奥に押し込んだサウンドに厚みをもたせ、奥にいるものの存在感が有るサウンドメイクを行えます。WAVES DublerはこれをDetuneとModulationの2つのパラメータで再現しているのですが、難しいことをしているのではなくPitch ShiftであるDetuneのパラメーターをLFOで変化させるという仕組み。しかし、このようなPitch Shiftと協調して動作するプラグインはそれほど多くないのが実情です。それでは具体的なTIPSをみてみましょう。
図1.Doublerでセンターパン、Detuneが肝心
HIP HOP的左右に張り付いたコーラス
もはやオケの一部と言っていいような存在感で左右に張り付いたようなコーラスをよく耳にしますが、どのような加工が行われているのでしょうか?これは録音時には必ずダブル(OKテイクを2つ残しておくという意味)で収録をします。それをパンで左右に振り分け通常のボーカル処理よりも少しだけ強めにコンプでレベルを均します。これだけでもだいぶWALL感が出てきますが、存在感が大きすぎるので輪郭を保ったままに芯を抜きたいと思うことでしょう。。きっとそうなるはずです(笑)。ここで再びDublerを登場させ、今度はちょっと多めのFeedbackでショートディレイを掛けます (図2)。ディレイ・タイムは2ms以下、少し発振したような感じにします。これを適度にブレンドしていくと位相のズレにより芯が抜けていくんですね。Pitchシフトもうまく合わせればBigながらもメインを邪魔しないクールなコーラスが完成です。
図2.ショートディレイ、位相のズレで芯を抜く
ボーカルに寄り添ったパッドのようなハモリ
上下にハモリが積まれ声部は多いのに暑苦しくない。そんなサウンドをサビなどでよく耳にすると思いますがあれはどうやっているのでしょうか?メインボーカルからピッチシフトで作るとそうなるよ、、といった意見は却下して、しっかりとダブルで録音するところから始めて下さい。まずはEQですがHPFで厚みを消します (図3)。LFのEQでもいいのですがトラック数が多い場合にはバッサリ切り落としてしまったほうがスッキリします。ここは両方試して欲しい厚みを確保できる方にして下さい。
図3.ハイパスフィルターで厚みを消す
そして、パンニングですが、振り切らずにPro Toolsで60~80位から調整するのがオススメです。何故かと言うとその後のDublerの使い方にポイントが有ります。やはりココでもまずはショートディレイ (図4)。2~5ms程度のディレイでFeedbackは0にして下さい、右に定位させているものは左に、もう一方は逆にパンニングをします。これでダブルで録ったものが擬似的にクアッドに。これがしたかったからパンは中間定位だったんですね。ココであまり広がり感を感じられない時はPitchずらしのテクニックとディレイ・タイムを調整してみてください。
図4.再びDoublerでショートディレイ&PAN
そして、オケに溶かすために30~40ms程度である程度のFeedback量を持ったディレイを今度は右のものは右に振り切りのパンに設定します (図5)。このディレイにはモジュレーション付きのPitch shiftを設定して下さい。モジュレーション量はDepthとRateで調整を行います。これを加えていくと、どんどんフワフワした感じになってきませんか?低域の加減と各タップのディレイのゲインでかなり追い込めるはずです。どこまでオケに溶かすのかはさじ加減次第ですが、ぜひとも試してみてください。
図5.オケに溶かすためにディレイ、右なら右へPAN振り切り
text by 阪田 賢一郎 ROCK ON PRO Sales Engineer
エディットの鬼としてボーカリストから恐れられていた現役時代。極限までピッチ修正ソフトを使用しないポリシーでボーカルセレクトを貫いた結果、1万超えのフェードファイルを生成したことも。 Pro Toolsオペレーターとしてレコーディングの現場に出入りし、そのまま録音の魅力に取り憑かれスタジオエンジニアとしてキャリアをスタートさせるという異色の経歴の持ち主。現場で培った感性と機材知識を活かし、制作をより効率的により楽しくなるソリューションを提供できる幅広い視野からの機材紹介を行う。 最近、沖縄楽器のそこそこいい三線を購入し、泡盛を傾けながら目下練習中!
Discover Sound DLはこちらから!!
P1_DiscoverSound_vol1.pdf
(38.4MB)
※ 右クリックから保存
P2_DiscoverSound_vol1.pdf
(58.3MB)
※ 右クリックから保存
P3_DiscoverSound_vol1.pdf
(14.3MB)
※ 右クリックから保存
P4_DiscoverSound_vol1.pdf
(5.8MB)
※ 右クリックから保存
P5_DiscoverSound_vol1.pdf
(5.5MB)
※ 右クリックから保存
P6_DiscoverSound_vol1.pdf
(5.5MB)
※ 右クリックから保存
Tech
2015/06/25
Avidの描く未来を占う!! Subscription、Cloud Collabration、Market Placeという3つのキーワードとは!?
Avid Everywhereというキーワードの発表からすでに1年。Pro Toolsのライセンス形態がサブスクリプションベースへ変更されたりと、大きな変革が訪れているAVID。キーワードとなるSubscription、Cloud Collabration、Market Placeという3つのキーワードに沿って未来を占ってみたい。
Avid Everywhereの正体とは!?
大前提となる『Avid Everywhere』。直訳すれば「AVIDどこでも」ということになるが、やはりこのEverywhereに込められた思いは大きなものであるということが、昨年NAB 2014にあわせて開催が始まったAvid Connectからも感じることが出来る。Avidは映像と音響それぞれの制作ツールであるMedia ComposerとPro Toolsを持つ業界随一のメーカー。そしてISISシリーズというサーバーシステム。Media AssetのためのInterplayなど多種多様の製品群を持つことも特徴と言える。映像のみのトータルソリューションを持つメーカー、音響のトータルソリューションを持つメーカーは他にもあるが、両方を兼ね備えたメーカーはAVIDだけであるということが大きなポイントになる。
そのAvidが唱える「Everywhere」は実際のところ場所を指しているのではなく、クリエイターを指していると考えてもらうとわかりやすい。世界中のクリエイターを結びつけ、新しいマーケットの創造、そして新しい作品の誕生のための方法を提供するという構想である。インタラクティブメディアが進化した現代、映像だけ音声だけというソリューションではなく、両者を統合したコミュニティーの創造がこのAvid Everywhereの正体である。そしてその計画の最終目標地点はそのコミュニティーで生まれた作品がユーザーへ直接届くというところまでのビジョンが語られている。乱暴に言ってしまえば、Pro Toolsでバウンスした完成作品が直接iTune Storeに登録されるようなイメージだろうか?Avidではこのような「作品を対価へと変える」ことをマネタイズと呼んでいる。クリエイト=制作とマネタイズが相互にリンクして循環することでAvid Everywhereは本当の意味での完成を迎えることとなる。ユーザーとメーカーそれぞれがWin-WInの関係となれたタイミングこそがゴールになるいうことだ。それではポイントとなる布石をそれぞれ見て行きたいと思う。
無償のPro Tools Firstが制作環境のギャップを埋める
-Cloud Collaboration-
先ずは、コミュニティー内での作業環境のベースとなるCloud Collaboration。Pro Toolsのユーザー同士がデータを共有し、まさにコラボレーションした作業環境を実現するためのソリューションの立ち上げだ。クラウド上で共有されたセッションは修正、更新をプッシュするたびに他のユーザーがその変更を受け取れるようになる。もちろん、現時点ではまさに生まれたてのソリューションになるため、今後ユーザーからのフィードバックを受けて様々な機能が実装されていくことになるのではないだろうか。そして、そのコラボレーションによるコミュニティーを拡大するためのツールがPro Tools Firstだ。無償で提供されるこのPro Tools Firstはまさにコラボレーションをするメンバーのためのビューワーとも言えるソフトウェア。Pro Toolsを持っていない、他のDAWを利用しているといったユーザーもこれがあればCloud Collaborationに参加できるということになる。この点からもAVIDの本気をうかがい知ることが出来ると感じている。現時点では、コラボレーションをしたメンバー同士のためのチャット機能などが実装されるということが表明されているが、言い換えればSkypeなどを使用しなくてもPro Toolsだけで制作にまつわるコミュニケーションを完結できるソリューションになるということ。インターネット越しでのコラボレーションの実現なので、まさに世界中のクリエイターが「つながって」いくこととなる。
ユーザーの作品が世界中でマネタイズされる
-Market Place-
次のステップといえるのがMarket Place。すでにベースとなる部分はAVID storeとして実装されている、プラグインのライセンス購入機能が先ずはアピールされているが、その実態はまさにAvid Everywhereのコアとなるマネタイズ(制作した作品を対価へ変える)という重要な役割をもった機能に進化をする予定だ。Market Placeで自分の作品をアピールしたり、プレイヤーとしてのアピールを行い、他のユーザーとのコラボレーション作業によりその対価を得る。これが一つの大きな柱。AVIDの想像する新しいマーケット、コミュニティーだ。世界中のアーティスト、クリエイターが自由に参加できるMarketをつくり上げるということだ。つながりをもったら、Cloud Collaborationにより、シームレスに作業にとりかかることが出来る環境ということになる。このMarket Placeには更に先のビジョンが有り、そのままユーザーとつながり作品を販売するというまさに最終ゴールまでがビジョンとしては描かれている。
全てのクラウドユーザーへ共通のサービスを提供する
-Subscription-
そして、このCloud Collabartation、Market Placeの維持運営のための変更といえるのが、Subscription制の導入。これまでのビジネスモデルと違い、先に対価をユーザーから預かり、サービスを提供するというビジョンだ。実際にCloud Collaboration、Market Placeが本格的に稼働を始め、世界中のユーザーがそのソリューションを活用し始めれば、Pro Toolsのライセンスはまさにそれらのサービスへの接続用のキーを兼ねることになる。まさにAdobeがユーザーへのセキュアな大容量クラウドストレージの提供とともにサブスクリプションへ移行したこととイメージは近い。AVIDはそこから一歩先のビジョンを描き、コラボレーションツールとしての意味合いを強めることでその魅力をいっそう引き出していると感じる。
期間限定のライセンスを購入するシステムへとそのライセンス形態を変革させたことで、これまでの『魅力的な新機能が搭載されたからバージョンアップ費を支払って下さい。』という形態から『魅力的なサービスを提供するので対価をお支払ください。』というモデルへと変革を遂げる。このサービスにはもちろん機能の追加、Cloud Collaborationのサービス提供といったことも含まれる。完成した新機能は順次追加され、今まで以上に頻繁なバージョンアップが行われることになると思われる。これには、もう一つ裏の側面も有り全てのユーザーに共通のサービスを提供することとなるCloud Collaborationの安定的な提供のためには、クライアントであるアプリケーションのバージョン統一は不可欠であると言う技術的側面も含まれる。先にその対価を預かることで、それにユーザーが満足できるレベルでのサービスを提供する。その対価に見合わないと判断した場合には、翌年は購入しなければそれまでというわけだ。
これらの魅力的なアイディアを次々と市場へ投げかけているAVID。今後、どのような形でこれらが実現していくのか?サービスの開始はいつなのか?その興味は尽きないところだ。ROCK ON PROではそれらの情報をいち早く皆様へお届けするためにAVIDと密な連携を取りながら情報を発信していきたい。是非ともこれからのAVIDの最新情報に期待してもらいたい。
Tech
2015/06/05
変化をみせるPro Tools とAvid Video Engine。Pro Toolsで使えるビデオインターフェイスはこれだ!!
業界標準のオーディオ制作プラットフォームであるPro Tools。音楽制作の場はもちろんですが、MA編集作業でも大活躍しているのは周知のことだと思います。今年の4月には新しいビデオペリフェラルであるArtist|DNxIOが発表され、期待で大いに盛り上がっています。そこで、今回はMA編集には欠かせないビデオエンジンの仕組みについて、そして現在対応を発表しているビデオインターフェイスについてご説明・ご紹介したいと思います。
今までの、そしてこれからのビデオエンジンの仕組み
Pro Tools 10まではQuick Timeベースのビデオエンジンで動作しておりました。したがって、インポートできるコーデックはQuick Timeのみ。ちなみに、これはSteinberg社のNUENDOやCubaseも同じですね。ですが、Pro Tools 11からはビデオエンジンがAvid Video Engineに変更になりました。名前はもちろんですが、中身も大幅に変更され、AvidのDNxHDはもちろんのこと、SonyのXDCAMやPanasonicのAVC-IntraなどのMXFコーデックがインポートできるようになりました。
左の写真を見ていただくとわかるように、Pro Tooolsインストーラーには、このようなCodec Installerなるフォルダが増えました。ここの中にあるInstall Avid Codecs LE.pkgをインストールするとPro Toolsで使用できるコーデックが増えます。
ですが、そもそも「なんでビデオコーデックのインストーラーが別になったの?」という疑問が浮かんできますね。実は、Pro Tools 11からビデオエンジンがアプリケーションに含まれなくなりました。じゃあ、何のエンジンがビデオの処理をしているのか?といいますと、実はPro Toolsアプリケーションの裏で、まるでSatellite Linkのように連動したMedia Composerのビデオエンジンが動いているのです。
Media ComposerとはAvid社から発売されているビデオ編集用ソフトウェアで、こちらもアカデミー賞やカンヌ国際映画祭などの映画賞でノミネートされる映画作品や、ドラマを始めドキュメンタリーやバライティーなどのテレビ番組・配信動画サービスなどの制作現場で大活躍している、業界標準のアプリケーションです。
Media Composer自体は非常に多くのコーデックをサポートしているため、そのエンジンがPro Toolsで使用できるということは、対応コーデックの拡大につながるわけです。
実際に、先ほどのAvid Codecs LEをインストールすると増えるコーデックはこちら。
・Avid Meridien Uncompressed
・Avid Meridien Compressed
・Avid 1:1x
・Avid Packed
・Avid DNxHD
・Avid DV
・Avid DV100
・Avid MPEG2 IMX
なお、気になる今後の対応状況ですが、Pro Tools 12の時点でAvid Mojo DX、Nitris DXはもちろん、今秋発売予定のArtist | DNxIOも対応となります。サードパーティー製ビデオペリフェラルとしては、Blackmagic Design社とAJA社のビデオカードが正式にサポートされております。
(詳細はこちらを参照ください)
注目のビデオペリフェラルはこれ!
各社から正式にサポートされたビデオ・ペリフェラルはたくさんありますが、この中から何を注目して選べばいいのでしょうか?各社の代表的な製品を挙げて比較してみましょう。
・なんといってもメーカー純正!Avid Artist | DNxIO
今秋発売のArtist | DNxIOは、ビデオ系の新製品(なんと9年ぶり!!)として注目度が高いですが、新製品というだけでなくBlackmagic Design社とのパートナーシップとして初の製品リリースということも注目されています。
注目すべき点は、何と言ってもAvid初の4K対応機材ということと、接続がThunderbolt2とPCIeの両方を選べることが非常に大きいのではないでしょうか?映像編集の世界ではWindowsが圧倒的シェアを誇っていますが、Pro ToolsはやはりMacでシステムを構築されている方が非常に多いです。そのどちらにも対応できるよう、Thunderbolt2とPCIeが用意されているという訳ですね。また、LTC IN/OUTやRS422など、ありとあらゆるインターフェイスが実装されており、まさにフラグシップモデルといえるでしょう。
・種類の豊富さと低コストハイリターンなBlackmagic Design
Avidとのパートナーシップを契約しているBlackmagic Designからは3機種ご紹介したいと思います。
まずはUltrastudio 4K Extreme。Artist | DNxIOを紹介した直後なのでなおさらデジャヴ感たっぷりですが、Blackmagic Designが自社ブランドとしてリリースしたインターフェイスとなります。これら二つの唯一の違いは、Avidが自社のコーデックとなるDNxHR のコーデックチップを、Blackmagic DesignはH.265/ProRessのコーデックチップを搭載していること。両方とも12G-SDIも実装されており、4Kをターゲットとされています。
一方、MA作業はそこまで高解像度で作業はしない!という方におすすめなのがUltraStudio Express。こちらも接続はThunderboltですがSDI入出力1系統、HDMI入出力1系統、そして小さいながらもリファレンス入力を搭載しております。しかも、電源供給はThunderboltポートから。ただし、横幅167mmと非常に小型なので、RS422端子やリファレンス入力などがブレイクアウトケーブルになってしまいます。また、SDI出力が1系統しかありませんので、モニタを複数枚設置したい場合には、別途分配機が必要ですね。
3つ目はPCIタイプのDeckLinkシリーズからDeckLink 4K シリーズ。こちらは4K対応である12G-SDI対応のモデルと6G-SDI対応のモデルの計5つの製品が該当します。そもそもDeckLinkシリーズは、今からさかのぼること7年前、Pro Tools HD 8が初めてサードパーティー製ビデオペリフェラルをサポートしたのですが、そのときサポートされたのがこのシリーズ。当然当時サポートされた型番は既に生産完了となっておりますが、後継機種が続々と発売されており、その人気は不動のものとなっています。
・安心のクオリティと故障率の低さが人気のAJA
こちらもパートナーシップを契約しているAJA。AJAは、Avidのみならず、Adobe PremiereやApple Final Cutなどの映像編集ソフトで対応が表明されています。
AJAの最強コンビといったらKONA4、そしてK3G-BOXの組み合わせです。PCIeカードであるKONA4はNAB2014で発表された4K対応のビデオインターフェイスです。KONA4単体でももちろん使用可能なのですが、このカードはブレイクアウトボックスであるK3G-Boxを組み合わせて初めて本領を発揮するカードです。K3G-Boxを拡張することで、外部との接続性が格段にアップされます。通常、PCIeカードタイプのビデオカードは大半のコネクタがブレイクアウトケーブルで拡張しますが、その長さはせいぜい15cm程度で、コンピューターの背面でぶら下がっているイメージが非常に強く、コネクタを接続すると、その重さでPCIeカードにダメージを与えかねません。ですが、このような1Uのブレイクブレイクボックスに立ち上げると、その危険も回避できます。
こちらはThunderbolt接続のio 4K。ハーフラックサイズの筐体ですが、もちろんこのサイズでもRS422ポートを搭載。しかも、ブレイクアウトではなくポートとして背面に実装されているのはさすがAJA。そして、Tunderbolt2ポートを2系統搭載しているのでデイジーチェーンにも対応していますので、高解像度ディスプレイや大容量ストレージなど他のデバイスと接続しやすく、Thunderboltのポートをつぶさずに済みます。
このように、Pro Toolsに正式対応しているビデオペリフェラルは高性能なものがたくさんリリースされています。各社Avidとのパートナーシップの契約がされていることから、今後も各社のサポートが続くことが伺えますので、安心して使用を継続できますね。
製品のインストールと注意
メーカー純正であるArtist | DNxIOはまだ発売されておりませんのでさておきますが、各社のビデオインターフェイスの装着・ドライバーインストールにはちょっとしたコツがあります。Pro Toolsのバージョンに合ったドライバーや、装着するスロットなど、細かいポイントがたくさんありますので、まずは弊社へお問い合わせください!製品の選定はもちろんのこと、システム構築のコツや裏技、全体のワークフローなど様々なご質問にお答えさせていただきます!
お気軽にお問い合わせください!お待ちしております。
Tech
2014/07/09
AKG Historyから紐解く、定番C414XLS / XLⅡ サウンドのルーツ
マイクの定番ブランドとして名高いAKG。レコーディングに携わる方のほとんどが一度は手にする銘機たちを開発してきたことはもちろん、ヘッドフォンの製造も含めて世界的な音響機器のトップブランドを築いてきた。今回は同社の礎を築いたC12から振り返り、なぜAKGが定番と呼ばれるブランドとなったのか、世界中のレコーディングスタジオやミュージシャン達になぜこれほどにも長く愛され続けるのか、歴史に裏付けされたその実力を紐解いていきたい。
C12が築いたAKGサウンドの基礎
AKGの創業は第2次世界大戦直後の1947年、オーストリアのウィーンにてそのスタートを切る。ヨーロッパを中心にレコーディングスタジオ、放送局に導入が続いていたAKGを一躍トップメーカーへ仲間入りさせたのが1953年に発売された『C12』である。このマイクは今でも人気の高いヴィンテージマイクであり、Neumann u47 tubeなどと並列に語られることも多い素晴らしい特性を持ったマイクである。
創業時社屋
その設計は、telefunken ELA M-250 が基礎となっている。実はELA M-250の基本設計はAKGが行っており、少数ではあるがAKGブランドからもリリースされた実績もある、現在では非常に希少価値が高い人気のヴィンテージマイクの一つ。C12はこのELA M-250をベースにしているダイヤフラムを共有し、高音圧にも耐えられる設計を施したモデルとして誕生した。真空管を増幅段に持ち、ふくよかさを持ちながらも切れの良い繊細なサウンドはC-12ならではのもの。今でもボーカル、ピアノ等の録音に使われることの多いモデルだ。現在もC-12 VRとして生産が続けられている。
そして、このC−12からC-12Aと呼ばれる現行のC414シリーズと同一形状のハウジングに収められたモデルが1962年にリリースされている。このモデルは真空管を内蔵しダイヤフラムなど設計はC-12と全く同様であったが、ケースの形状の変更によりここから馴染みのある414の筐体が受け継がれて行くことになる。このC-12AがC414シリーズの元祖であり、サウンドの礎となったことはビジュアルからも明確にイメージできる。
そして1971年に初のC414という形式名称を与えられたモデルが誕生することになる、それがC414 comboである。このC414 comboはSolid Stateデザインでありながら、直付された専用のケーブルがハウジングから伸びているという珍しい形状。専用のパワーサプライからの給電もしくはファンタム電源の両方が利用可能であったためcomboの名称が付けられていたようだ。
その5年後となる1976年には今でも高い人気を誇るC414EBが登場する。このモデルから通常のXLRコネクターとなり現モデルにも通じる見慣れた形状になっている。C414は同形状で機種も多数存在するがこのモデルの見分け方は非常に簡単、シルバーボディーのC414はこのC414 EBである。C-12の系譜を強く感じさせる繊細な高域が今でも多くのファンを持つ評価の高いモデル。
次に登場するのがボディーを初めてBlackにしたC414 EB-P48。1980年に誕生したこのモデルはセルフノイズレベルの低下により高いヘッドルームの獲得に成功している。それまでコンデンサーマイクを使いにくかった、ドラムや金管楽器などでよく使われていたのがこのC414 EB-P48である。
ULS→XLS / TL→XLⅡ、2ライン体制への軌跡
1986年には新しいテクノロジーであるULS(Ultra Linearity Signal)を搭載したC414 B-ULSが誕生。同時にトランスレスモデルであるC414 B-TLも登場し、この年からC414はサウンドキャラクターの異なる2機種が併売されることとなる。素直な特性を追い求めるULSのラインとキャラクターが付加されたTLのラインはその後も続いていく。1993年には、1950年代から70年代にかけて生産されたオリジナルのカプセルを強く意識し"プレゼンス"がしっかりと残るC414 TLⅡが登場。このモデルは従来のC414シリーズファンにも高い評価を持って受け入れられた。オリジナルを知るユーザーをも納得させることの出来たTLⅡは中古市場でも未だに高評価を得ている逸品、今でも探している方は多いのではないだろうか。
そして2004年に次の世代となる現行のC414 B-XLSとC414 B-XLⅡがリリースされる。新しいテクノロジーを導入し、接点不良の原因であった指向性切替などのスイッチを信号が通らないものに変更したり、ハウジング内のショックマウントの形状を見直したりと、まさに次世代型のC414となってリリースされた。
今までに築きあげてきたC414のサウンド、キャラクターを継承し、新しいテクノロジーによりさらなる進化を求める。ULSの時点で非常にクリーンでクリア、フラットなサウンドを手に入れていたC414はXLSで更に向上の余地があることを示した。そして、XLⅡはTLⅡのキャラクターを受け継ぎ、S/N比向上などテクノロジーの進化によって得られた恩恵をそのサウンドキャラクターと共に提供してくれる。参考としてAKG本国公式の推奨ソースリストを掲載するが、XLSはそのフラットな特性から守備範囲が広く、一方のXLⅡは4kHz以上の高域に伸びを持たせた設定でサウンドの中心を担うパートにその強みを発揮する。さらに両者共通となる機能面では指向性の選択はもちろん、ローカットも4段階、パッドも4段階とレコーディングソースや環境に適応させる柔軟さを与えている。こういったユーザビリティへの配慮も定番となり得た理由であろう。
50年以上の歴史を振り返るとさすがに長くなってしまうが、まさにAKGのマイクロフォンの歴史こそがC414の歴史であると言っても過言ではない。AKG ELA M-250からスタートしてその血統は消えることなく受け継がれている伝統のサウンドである。そして、ハイファイな方向へ技術的進化とともに向かう分岐点ではトラディショナルなサウンドを守るためのULS→XLSラインとハイファイなTL→XLⅡラインにモデルを分けて、それぞれにキャラクターを受け継ぐモデルを製造。そのこだわりは、まさにAKG = C414 Historyである。
また、C414は歴代のどのモデルを取ってみても非常に魅力的なモデルが揃う。ビンテージだけが魅力を放つブランドも中にはあるが、AKGはそのようなことはない。現行のXLS、XLⅡにも十分すぎるほどの魅力がある。もちろん進化を続けているということはそのサウンドに変化はある、しかし根底にあるサウンドはEL M-250のそれであり、C-12が持っていたものであることは間違いない。
歴史あるマイクと未来を歩む
AKGの歴代モデルについて振り返ってみたが、各世代のマイクもヴィンテージモデルとして現代に通じる人気と実力を兼ね備えている。当然だがこれらのマイクも発売当初は新品、長年のメンテナンスを繰り返し、状態を保つ事によってそのサウンドはヴィンテージと称されるようになったわけだ。Rock oNではAKGの品質の証明とも言える3年保証がついたヒビノ株式会社による正規輸入品のみを取り扱っている。ヒビノ株式会社ではオーストリア本国での技術研修をフィードバックすることはもちろん、坂田商会によって日本で初めてAKGが輸入された際からのメンテナンス担当者が積み上げられたノウハウでサポート。ダイヤフラムの洗浄、交換などの必須メニューのほか豊富な修理パーツを保有し迅速な対応が期待できる。
是非ともこの機会に伝統のマイクロフォンであるAKG C414シリーズをあなたのマイクコレクションに加えてほしい。録音ソースを選ばずに自然にそこで鳴っているサウンドを捉えることの出来るC414 XLS、伝統のサウンドキャラクターを色濃く残しメインボーカルなどソロ楽器に向いたC414 XLⅡ。長い歴史があるC414はメンテナンスをすることでデシケーターの肥やしになることは決して無い、非常に長い期間使い続けることのできる一生モノの製品。いまあなたが手にする414が20年、30年後にヴィンテージとして活躍するのかもしれない。
◎AKGクオリティのエントリーモデル C3000
AKGマイクの特長でもある繊細な高域を受け継いだエントリーモデルとなるC3000。C414と同様に1インチのラージダイアフラムを搭載しそのニュアンスを再現し高いコストパフォーマンスを誇るモデルとなる。ダイナミクスも140dbと上位となるC414と同スペックとなり、ボーカルからアコギまで自宅環境でのレコーディングはもちろん、カーディオイドの指向性はライブでの使用もこなすオールマイティな性格。前モデルでのシルバー筐体からブラックに変更されイメージも一新された。
かつてはこの1本で仮歌からアコギまでデモ作成を完結していた方も多いのではないだろうか。多様なソースに対して迷ったらこの1本を選んでおけば外さない守備範囲の広さは大変重宝するもの。AKGクオリティをローコストで準備できる、使い勝手の良い1本はエントリーユーザーに是非検討していただきたい逸品だ。
※ 記事中に掲載されている価格・割引率・購入特典・ポイントや仕様等の情報は 2014年07月09日 記事更新時点のものです。
Tech
2013/11/19
Artist Mix & Artist Control でDAWを直感的にコントロール!!
日々のDAW上の作業の中でフェーダーをまとめて上げ下げしたり、ボーカルラインの微妙なボリュームコントロールするためにコントロールサーフェスがあれば便利なのにと思ったことってありませんか?
Avid Artist Mix
Pro ToolsのみならずLogicやCubaseにも使っていただけるArtist Mixはスタイリッシュなデザインと豊富な機能で制作環境を快適にしてくれます。是非ご自宅のシステムに導入してみてはいかがでしょうか。製品の見た目からフェーダーでのボリュームコントロールやノブでのパンニングまでは容易に想像できるとおもいますが、実は、下記すべての作業がArtist Mix単体で可能です。
・トランスポート(再生/停止/早送り/巻き戻し/録音等)
・プラグインのインサート
・プラグインのコントロール
・インプット/アウトプット/センドのアサイン&変更
もちろん「AVIDのプロダクトだからPro Tools上でしか使えないんでしょ?」なんてことはありません。EuConプロトコル対応アプリケーションはもちろん、HUIやMackieコントロールに至るまで切り替え可能で、CubaseやLogic、Apogee MaestroやMetric HaloのMioConsoleにいたるまでほぼ全てのDAWに対応可能です!
詳しくはこちらをご覧ください
http://www.avid.com/jp/products/Artist-Mix
そもそも、ここまでのDAWに対応しているのはArtist Mixの元である「MC Mix」を開発した前身の会社Euphonixの歴史にその理由があります。
Euphonix
Euphonixと言えば空気感まで再現する40bit-flortミックスエンジンというSYSTEM5という大型コンソールを開発し、大型スタジオ、特に映像系にて業界を席巻しました。元々Euphonix社は、SSL社の技術者が分派して起こした大型コンソール専門の会社だったわけですが、DAWの浸透とともにパーソナルユースのDAWコントローラ市場にも参入してMCやArtistシリーズを投入し、Artist Mixの前身、MCやArtistシリーズを投入しました。
従来のDAWの制御通信は1997年Mackie社の開発したHUIプロトコルで担っていましたが、MIDI規格で通信されるためフェーダー解像度が8bit(256段階)であったり、コントロールにラグがあったり、複雑階層化するDAWの奥まで制御するメタデータのやり取りも限界がありました。
通信解像度として更に要求するプロダクトになると当時AVIDから出ていたICONなど高額な投資が要求されました。そんな状況の中、Euphonix社が2008年に発表したフィジカルコントローラがMC Artistシリーズ。通信プロトコルにEuconを採用しました。通信にEthernet(LAN)を使った高速通信が可能となりHUIの制御情報の限界を大きく突破しました。そして、Euphonix社の働きかけで各DAWメーカーがEuconプロトコルの対応をネイティブで実現させることで、HUIプロトコルの独壇場だったフィジカルコントローラー市場に新しい選択肢ができたわけです。
しかしながら、2008年当時では(Pro Toolsでいうと8の時代)Pro ToolsではEuconプロトコルに対応しておらず、HUI接続を余儀なくされました。当時のPro ToolsユーザーはEucon対応のコントロールサーフェスを羨ましく思った物です。その後、EuphonixはAVID傘下となり、Protools9からはEuconにネイティブ対応するようになりました。インターフェイスの縛り解放と共に大きくPro Toolsを変革させたのは記憶にも新しいです。
MIDIにくらべて256倍の通信速度、8倍の解像度をそなえたEuconプロトコルのおかげで、精密なコントロールや、プラグインのコントロール、インプットのアサインなどDAWの奥に入ったコントロールも可能になった訳です。Pro Tools10の時代からはEuconプロトコルもフェーズ2となり、新たに500ものPro ToolsコマンドがEucon化されました。これにより、Artist Controlにおいては、ショートカットを持たないコマンドもほぼすべてSoft Key上に網羅されました。これらのコマンドは、タッチスクリーンから、非常に直観的なハンズオンコントロールが可能です。もちろん、Soft Keyは、自由にレイアウトが可能。 良く使うコマンドを使いやすい場所に配置しなおすと、さらに作業効率がアップすること間違いなしです。
Artist Control
また、最大36フェーダーまでのArtist MixとArtist Controlの組み合わせも可能ですので、大型コントロールサーフィスに匹敵するコントロールシステムの構築も可能です実際の使用感は以下の動画で体感いただけると思います。是非ご覧ください!
また、英語でちょっと古いビデオですが、AVIDの社員がArtist Controlの魅力を解説したビデオも有りますので是非ご覧ください!
Tech
2013/06/21
AVID Pro Tools 11 その基本の ”き”:Proceed Magazine 2013 Summer
〜Next Genaration新たなる64 Bit WorkflowとQualityに向けて〜
先日ラスベガスにて開催のNAB2013での発表の通り、ついにPro Tools11のリリースが発表された。毎度のことながらの機能、サウンドのブラッシュアップが図られているが、今回の更新はこれまでの数年でAvidが推し進めてきた、ソリューションとしてのPro Toolsを総仕上げする内容となっている、キーポイントは「64bit」。
コンピューティングの世界では常識とも言える正常進化であるが、現場でのワークフローを見据えた周辺デバイス・ソフトウェアも含めた更新が必要となるPro Toolsソリューションでは、Avidの描く未来像のもと入念な準備が行われてきた。その未来像がついに結実、Pro Toolsソリューションは64bitの広大なフィールドで新たな一歩を踏み出そうとしている。
そのPro Tools11だが、まずはブラッシュアップされた注目の機能をまとめていきたい。今回のアップデートでは前述の通り64bit化という「骨格」が生まれ変わったことがトピックスであるが、そのPC能力の拡張を活かしたことはもちろん、ワークフローを変革させる内容や映像ソリューションとの連携を見越した対応など見どころの多い内容となった。
1)AAE / Avid Audio Engine
まずご紹介するのがAAE(Avid Audio Engine)だ。これまでDAE(Digidesign Audio Engine)と表記されてきたお馴染みの名称が変更となるが、よりCPUのパワーを効率的に運用できるよう構築されている。見慣れたSetting Usageの画面を見れば一目瞭然だが、マルチコアに対応した8つのCPU消費メーターが用意され、それぞれの使用状況が逐次表示されることとなった。また、その効率的な運用を見て取れるのがダイナミック・プラグイン・プロセッシングを活かしたケース。タイムライン上に処理すべきクリップが多ければ当然CPUの使用量は増えるが、逆にクリップの少ない箇所ではその分のCPUを解放しリソースを最大限に活用できる仕様になっている。最高の安定性を求め、この機能をオフにすることも可能である。
プレイバックエンジン内で設定されるH/W Bufferの設定だが、今まではすべてのメモリに対してのバッファーを一括して管理していたが、Pro Tools 11からは、Input BufferとPlug-in Bufferのメモリの確保が変更となり、さらなる安定稼働を獲得している。具体的にはプラグインを多用したセッションで録音を行う際に生じる「バッファーアンダーラン」のエラーから開放される。
ほかにも録音と同時にオートメーションが書き込めるよう仕様変更がなされており、レコーディング後に即時の音源配信が求められるケースへの対応や、そもそものレコーディングプロセスを効率化できる。この更新もメモリ空間の領域の確保最適化により実現した機能だ。今回のオーディオエンジン刷新は現場ワークフローに貢献するブラッシュアップが数多く織り込まれている革新的なものとなる。
2)オフラインバウンス
さらにワークフロー上での大きなトピックスとなるがオフラインバウンスへの対応だ。レコーダーをルーツとするPro Toolsではスタジオワークを考慮したアウトボードとの連携、DSPカードでの処理を念頭に置いてきた結果、リアルタイムバウンスを貫いてきた。当然、現在でもその図式は存在するものだが作業時間上の足かせとなっていることは否めない。これが今回のアップデートでは実時間の最大150倍でプロセスが完了する。物理的に外部との連携の際はリアルタイム処理が必要だが、AAXプラグインの登場によりDSP、Nativeでアーキテクチャー/アルゴリズムの統一が図られサウンドの同一性が担保された。つまりDSPプラグインもサウンドクオリティを保ったままNative処理でまかなえるということが、Avidがオフラインバウンスの採用に踏み出した大きな要因である。AAX DSPのみのプラグイン(HEAT除く)、ハードウェアインサート以外の処理であればすべてオフライン・バウンスが可能となる。これは、完全にサンプルアキュレートに処理され、書き出されたMIX FileとPhaseして再生することで、100%完全なファイルが生成されていることが確認できる。
加えてHDシステムでのバウンスについては更なる機能追加としてバウンスソースの複数選択が可能となった。これにより複数ステムの同時書き出しなど更に作業効率が向上、その効能は計り知れない。細かな点ではあるがMP3のバウンスも同時に行えることもポイントだ。もともと想定していたスタジオワークを現時点でよく再考した内容と言えるだろう。時間を効率化できるオフラインバウンスのメリットは従来ユーザーの全員が享受できるだけではなく二次的、三次的にはクライアントも含めたビジネス上の効果をも期待できる。
3)メータリングの強化
メータリングの強化は見た目にも新鮮なポイントとなる。まず前提として従来よりもメーター表示が約30%ほどスケールアップされている、単純なことではあるがより繊細なフェーダーコントロールへ寄与すると考えると、64bit化による精細な情報処理が行われる結果を画面上へ体現した仕様点と言えるだろう。さらにこのメーターは17種類もの表示形式を選択できる。PEAK、VU、RMSに加えてBob Katzの提唱するK-12、K-14、K-20も用意され各トラックとマスターで別々のメーター表示が可能。色分けのしきい値を設定できたり、Fs系の表示であればリファレンスの設定が出来るなど、どのような作業環境にも柔軟に対応。メインメーターにはsystem5と同様にゲインリダクション表示も可能になっている。もう一つが、インサート、センドタブへもメータ表示が追加され、シグナルパスのどこでクリップしているかが視認性良く、確認できるように更新。もちろん各メーターの詳細設定のほか、トランスポートでのアウトプットメーター表示などユーザビリティの向上は多岐に渡る。
4)AVE / Avid Video Engine
今回のアップデートにおいてPro Toolsの可能性を飛躍させるのがAVE(Avid Video Engine)の更新かもしれない。サポートされるコーデックはNativeでDNxHD、AVC-Intra、XAVC HD、Pro Res、XDCAM HD、DVCPROと最新のコーデックも網羅、AMA経由でのサポートではP2、Quick Time、MPEGなど誌面で紹介しきれない量となり、現存する全コーデックに対応を果たしたとも言える状況に。実際のワークフローを考えるとわざわざPro Tools向けにレンダリングしていた作業は不要となるため、前述のオフラインバウンスと併せて効率的な制作に大きく貢献する内容だ。もう一点AVEのトピックスとして挙げられるのは3rdパーティーを含めた外部ビデオI/Oのサポート拡大である。数多くのニュースを提供してくれるBlackMagicDesignの全製品のほか、待望されていたAJA Kona Family、io Express、ioXTなど実績あるI/O、そしてAvid Nitris、Mojo DXなど、Pro Toolsが映像におけるノンリニア化を更に加速させるキープロダクトとなり得る内容、さらにSatellite LinkがPro Tools11HDに標準搭載となり最大12台までのシステム連携をサポート。コンパクトなMAシステムから編集を含めた大規模なシステムまでシームレスに包括する能力が備えられている。
もちろん、フルバージョンのMedia Composerとの連携により実現するVideo Satelliteのシステムは従来通り、上位バージョンとして存在。キャラのオーバーレイ、タイムラインへのキャプチャ、AMAで展開したファイルのトランスコード、MXF FileのエクスポートなどPro Tools単体では実現しない多彩な機能を提供する。この連携もAAF経由でのMXFファイルの互換性が強化、Media Composer側のPro ToolsのAudio Engineの取り込みによるステレオトラック、プラグインなど、数多くの機能強化を受け、ほぼそのままにファイルを開くことが可能になっている。
5)AAX / Avid Audio eXtension
昨年のHDX登場と時を同じくし、この1年で大きく対応の幅を拡げたAAXもPro Tools11を読み解く上で欠かせないファクターとなる。周知のようにAAXは次世代のプラグインフォーマットとして64bit化されたアプリケーションとなる。AAXにはAAX DSPとAAX Nativeの2種類があるが、これまでのTDM、RTAS間の図式とは異なる。TDM、RTASにおいては根本のアーキテクチャが別個のものになるためサウンドにおいても差異が生じていたが、AAXではアプリケーションプログラムは同一、処理をDSPで担うかCPUで行うかがその差となる。従って、DSP、CPU、AudioSuiteでサウンドの同一性が保たれ、HDX、HDnative、Pro Tools11といったシステム環境が異なってもクオリティは損なわれない。満を持してこの64bitアプリがいよいよ本領を発揮できるステージがPro Tools11となる。気になるところは3rdパーティーの対応状況であるが、AAXのSDKはすでにパートナーとなる各社に渡っておりその数は表明されているだけでも42社、今をもってなお拡大中となる。注目されるWavesの動向はAAX Native版がPro Tools11のデビューに合わせてリリースと表明。この号が刊行される頃にはWaves社の新機軸DiGiGridと含めて更なるニュースが展開されていることだろう。
上記のリスト+WAVES,Antaresが対応を表明。Effect Plug-inはほぼ全社がAAXプラットフォームに向けての準備を進めている。AAX対応バージョンを入手することで、今までと同様の環境が整うこととなる。周辺環境含め、Pro Tools 11の登場への準備が進んでいる。
Tech
2013/05/31
メインモニタースピーカー導入計画!スタジオの質を決めるラージモニター & プライベートスタジオに最適なミッドフィールドモニター
これまで『Master Clock導入計画』や『モニタースピーカー導入計画』に続き、今回はROCK ON PRO 宮川が日頃から持っている疑問をROCK ON PRO洋介にぶつけます。
Q.『ラージモニターとは何なのか?なぜ壁の中に埋まっているのか?』
洋介の知識と実経験をもとに、ラージモニターの必要性や、時代の潮流の中にあるミッドフィールドモニターまで、メインモニタースピーカーの秘密と導入方法に迫ります!
いつかは本格的なプライベートスタジオを持ちたいあなたも、今あるスタジオをさらに良い環境にしたいあなたも必見。音を作る人すべてに贈るTipsが満載です!
宮:まず知りたいのが「ニアフィールドモニター」と「ラージモニター」の違い。それぞれの定義は何でしょう?
洋:それはスタジオの歴史を元に「ニアフィールドとラージの使い分けの話」をすると分かってもらえると思います。
その昔、スタジオでの作業は基本的にラージモニターで行っていたんですよ。なぜあんなに巨大なスピーカーを使っていたかと言うと、生楽器を録音するときに、スタジオで鳴っている音量や音圧をコントロールルームで再現するために必要だったからです。
宮:現場(レコーディングブース)で鳴っている音をそのまま鳴らしたかったというわけですね。例えばバンドの同時録音と同じ音量、音圧を出すとなると相当のパワーが必要ですね。
洋:そうです。実際に鳴っている音と録音している音をできるだけ同じになるように調整していくのがエンジニアの腕だったんです。
宮:それがその時代の「良い音」だったわけですね。
洋:すごく分かりやすいですね。それができていれば録音のクオリティとしても悪い訳がない。
宮:そうですね。
洋:その中でニアフィールドはなぜ使われたのか……。ラージを使って大きな音でドーンと鳴らしてしまうと音の詳細な部分が聴き取れない。だからニアフィールドって(その昔は)ノイズチェック用だったんですよ。
宮:じゃあ音のディティールよりも……。
洋:解像度重視!音の細かい部分が聴こえればOK!
宮:なるほど。すごく精密な機器って感じだったんですね。
洋:これがニアフィールドとラージの使い分けの歴史です。だからある意味、ラージっていうのはオーディオ的に迫力があって良いサウンドで、鳴ってくれるか。ドラムの鳴りやウッドベースの低い方を迫力そのままに聴こうと思ったらあのサイズは必要。そのスピーカーの質がスタジオの顔になって、「あそこのラージは良い音してるから、良い音で録音できるよね」という結びつきを持っていたんですよ。これが、ミュージシャンがスタジオの中で「せーの」で演奏していた時代の話。
宮:それがだんだん変わってきたと。
洋:変わってきましたね。まずは媒体の変化。レコードからCDになって、いまや配信になって。中で鳴っている音がそのまま記録されているものが良い評価をされなくなっている。特にポピュラー音楽においてね。
宮:レンジが広がるにつれて架空の空間になっていったと。
洋:今、大きなスタジオで一発録音して「あそこのスタジオは響きがいいね」なんて話は聞かなくなったじゃないですか。いかに余計な響きを取ってデッドに録音して、後の加工で空間を作りあげていくか。という方向に音楽が移り変わっていっている。昔は「やっぱり西海岸じゃなきゃあの音は出ないよね」なんていう話をして、アメリカに行ってレコーディングをしていたけど、ここ10年くらいそういう話を聞かなくなったでしょ。
宮:それどころか今はOcean Way Studioの響きをシミュレートしたUADプラグインがありますよ。皮肉な話です。
洋:スタジオの響きっていうのが違った意味でウリになっちゃてるね。ある意味IRになっちゃってる。
宮:そんな中で今でもラージモニターを導入する意味は?
洋:それは昔と同じですよ。マイクを立てて録音する時はラージで鳴らしたいし、ラージで確認してほしい。ニアフィールドだと再現できない帯域とか、圧力感みたいなものがあるので、マイクの位置、アンサンブルやドラムのバランスを確認するうえでは(特に同一空間にマルチマイクを立てた場合は)ラージモニターは非常に効果が高い。これは今も昔も変わらない。もちろん慣れは必要だけど。
宮:ミックスではなく録音で使う?
洋:もちろんミックスでも小さいのや大きいので確認するのは意味があると思います。でも、現実は小さいのとさらに小さいので確認するようになっちゃってるよね。それって、リスナーの聞く環境も関係があると思っていて、その昔はちゃんとしたステレオセットで音楽を聴いていたわけですよ。
宮:今はヘッドホンのリスナーが増えた?
洋:よくてPCスピーカーですよ。
宮:確かに……。
洋:録音の歴史からいくと、録音ってS/N比が悪かったりダイナミックレンジが無いアナログの媒体からスタートして、いかにそこで鳴っているものをありのまま録音して再現するかっていうのが大きな目的としてあったんだよね。
それがデジタルレコーディングが生まれる前の80年代くらいまでの歴史なんですよ。そんな中でラージモニターというのは意味があった。
宮:それは必要とされますね。当然。
洋:それからデジタルが主流になってきて扱えるトラック数が増え、DAWで切ったり貼ったりいろんなことができるようになって、音楽の作り方が変わってきた。
機材の進化で考えたり工夫したりしなくでもS/Nの良いクオリティの高い音が残せるようになった。そしてミュージシャンが「せーの」でグルーヴを出して作る音楽というものが悲しいことに減ってきてしまった。これによってラージモニターが日の目を見ることが少なくなってきてしまった。
宮:ただ、ラージじゃないと出ない帯域ってありますよね。ダンスミュージックものだったら自宅のニアフィールドで聴くのと箱に行って聴くのと、キックの低域とか全然違いますよね?
洋:もちろんそういった帯域を体感できる設備としてラージっていうのは意味がある。
宮:一番違いが出るのはローエンド?
洋:ローエンドですね。ラージのスピーカーは大きいので、空気を動かすパワーも大きい。ということは、その音を止めるにも大きなパワーが必要になる。そうなると、解像度というとニアフィールドにはかなわない。だからここは使い分けが重要。低域、迫力、グルーブを聴くにはラージが優れていて、詳細を聴くためにはニアフィールドが優れている。ミックスをする時もニアフィールドで細かいところを作ってラージで確認、この繰り返し。ということをエンジニアの人はやってましたね。
宮:そういうワークフローになってたんですね。
洋:今はスモールにラージ的な音圧や質を求められているんだけれども、無理があるわけです。そんな小さな箱で低域はでない。だとしたら、無理をしてでも大きなスピーカーを買ってもらった方がいいわけで。もしくはそういうことを念頭に置いて作っているようなスピーカーを選ぶ。
…Musik 901、Focal SM9、Genelec 8260、Dynaudio。自宅だと大と小を導入することはできないと思うから、中と小とか。
宮:ミッドフィールドと言われるやつですね。
洋:プライベートスタジオ向けの、ラージになりえるスピーカーだね。
宮:ミッドフィールドはラージとニアフィールドを兼ねるものではなくて、ラージまでは置けない人が選ぶもの、ニアフィールドは持っていることが前提で導入する物とうこと?
洋:そういう考え方でいいと思います。スピーカーによって最適な視聴距離ってあるわけですよ。
GENELECだとスペックに書いてある。ラージを鳴らすためには「3m」は必要なわけですよ。そうすると小規模スタジオだと設置距離が保てない。例えばラージの38cmもあるウーファーを耳から50cmくらいの至近距離で鳴らしてちゃんと聴こえるわけないでしょう。
宮:そりゃそうだ。
洋:なので部屋の容積と距離、リスニングポジションによって導入できるスピーカーのサイズは決まってくるんですよ。
宮:高域について、ニアフィールドとラージって違いはあるんでしょうか?
洋:スタジオの写真なんかでよく見かける木目のラージモニター。あれってだいたいがRey Audioっていうブランドが箱根で作っているスピーカーなんですよ。
宮:国産!
洋:そう。国産。Rey Audioはエンクロージャーメーカーで、スピーカーユニットはTAD製を使ってます。TADと言えばPioneerのブランド。ウーファー2発が目玉みたいになっていて、上方に唇みたいな形のコンプレッションドライバーを装備している。このコンプレッションドライバーが特徴的で、音を拡散する特殊なホーン(音響板)を通じて高域を再生している。これが高域の音圧を出すにはもってこいのシステムなんです。
身近なコンプレッションドライバーのスピーカーはどこにあるかと言うと、区役所の棒の先に付いているような拡声器、あれはコンプレッションドライバーとホーンなんですよ。
音の明瞭度を保ったまま遠くまで飛ばすっていうことは、放出する音のエネルギー量が大きいということ。そうなるとダブルウーファーに負けないだけの高域のパワーを出そうとすると、ああいうシステムになる。通常のニアフィールドに付いているドーム型のツイーターだとパワーが足りない。逆にコンプレッションドライバーを小さなスピーカーに入れてしまうと今度は高域ばかり鳴ってしまう。
洋:このように、ニアフィールドとラージの高域は構造が違う。でもGENELECやDynaudioなんかはドーム型ツイーター。
宮:Ray Audioのように埋め込み型スピーカーについては建築とセットで考えることになりますよね。
洋:昔はスピーカーの設置にしても、ものすごくこだわっていたんですよ。前回の話で、理想のスピーカーエンクロージャーは「平面バッフル」だっていう話をしたじゃないですか。埋め込み型の設置はその平面バッフルに近づけるためです。エンクロージャーはあるけれど、平面バッフルに近い構造にして、後ろに放出された音が前に回り込まないようにしているわけですよ。
都内某所のスタジオも壁にRay Audioが埋まっています。このスタジオは天井高がかなりあって、2階にあるんですが、スピーカーを設置しているところを3階まで吹き抜けにして、3階の天井の躯体からスピーカーを吊るしています。
宮:3階から……。
洋:壁に埋まっているように見えるんですが、本当は吊るされている。
スピーカー設置の理想はフライング(吊るし)設置なんですよ。どうしてかというと、スピーカーって空中に浮かんでいる状態だと共振もしないし、自分が鳴らした外部の響きからの影響も受けないから。だから重量級のRay Audioのスピーカーは吊るされているわけです。
宮:ものすごいこだわりですね。
洋:さっきも言ったけど、ラージの鳴りがそのスタジオの顔に鳴る訳だからこだわるのは当然ですよ。
宮:いつかは自分の城(スタジオ)を持ちたいという人は大勢いると思うんですけど、そういった人達がラージスピーカーを導入するには、どういうことに注意すればいいのでしょうか?
洋:ラージモニターともなると大きな音が出るので、それを導入することを前提に防音/遮音をした方がいいですね。巨大なスピーカーは低域にパワーがあるので、設置次第では躯体自体をふるわせてしまう。そうすると建物を伝わっていく低周波の振動はそう簡単になくせない。そうなると浮き床や浮き天井にしたり、遮音層を分厚くとったりする必要があります。そうしないと買って鳴らした瞬間に苦情が来て、二度と鳴らせないっていう悲しい結果になる。ドラムを録音するならスピーカーからそれと同じ音圧を出すわけだから、ドラムを鳴らせるくらいの遮音をしないといけない。という単純な話。
…というと一気にハードルが上がってしまうので、まずはその部屋の大きさに合わせたスピーカー選びをすることから始めればいい。
例えば、部屋がそれほど大きくない場合はFocal SM9やMusik 903くらいのミッドフィールドモニターを選べばいい。ニアフィールドとの対比に使う用途としては十分に意味がある。これくらいのサイズなら6畳くらいの部屋で十分鳴らせる。
宮:6畳。それは現実的だ。でもやっぱりニアフィールドも一緒に必要になりますか?
洋:やっぱりモニターがこれ1個だけだと偏りが出るので、モニターの使い分けっていう意味を考えると使ってほしいけど、ミッドフィールドとヘッドホンというコンビネーションでも作業は十分可能だと思います。
他にADAM S3Xシリーズ、EVE Audio SC3シリーズ、Dyanudio AIR10、Dyanudio AIR15、GENELEC 8050、GENELEC 1032あたりかな。
このクラスになるとそれなりに低音が出るので、スピーカースタンドや設置方法を工夫して共振対策をしっかりすることに注意してほしいですね。そうしないと音がモヤモヤと曇ってしまって、スピーカー本来の持ち味がなくなってしまう。
部屋が音響的にしっかりした設計でない場合はReal Sound LabのCONEQ APEC-2などを使って電気的な補正をしてあげることをオススメします。
宮:そういうことが分かっていれば、ミッドフィールドの導入も夢じゃない、と。
洋:ラージとニアフィールドは無理でも、ミッドとニアフィールドなら可能な人は多いんじゃないかな。最近、有名ブランド各社からミッドクラス製品のリリースが続いているのは、今の時代のスタジオ事情を反映しているんでしょうね。
★今回の記事で登場したミッドフィールドモニタースピーカー!
ADAM
S3X-H (1ペア)¥699,600
折り畳まれたリボンを使用したARTツィーターで、超高音域までなめらかでフラットな特性を誇るADAM S3Aの後継モデル。新たな素材を使用し、専用のデジタルアンプを採用したX-ARTツィーターは、さらにフラットな特性を実現し、50kHz迄の滑らかな再生を保証。以前のS3Aの時とは違い、パラレルに並んだウーファーが同一の仕様となっているため、L/C/Rの設置に制限を持たないようになっているのも美点です。
S3X-V (1ペア)¥559,599
折り畳まれたリボンを使用したARTツィーターで、超高音域までなめらかでフラットな特性を誇るADAM S2.5Aの後継モデル。新たな素材を使用し、専用のデジタルアンプを採用したX-ARTツィーターは、さらにフラットな特性を実現し、50kHz迄の滑らかな再生を保証。デザインも一新されたモダンな外観は、実際以上にコンパクトな印象を与え、忠実度の高いウーファーとのクロスオーバー・ポイントもあくまで自然な印象を与えます。コントローラー部分もベースブーストのコントロールが可能になるなど、まさにブラッシュアップされた仕上がりが魅力です。
EVE Audio
SC307¥256,200
「リボンツイーター」「ハニカム・シルバーコーン」「DSP」「クラスDパワーアンプ」全ての技術を一つに集結させ、原音に忠実なサウンドを求めて設計された3ウェイ/7インチのアクティブモニター!本体にDSPを採用したことでツイーターとウーハーのクロスオーバーが自然になっているほか、モニタースピーカーを設置する環境に合わせてフィルターをコントロールすることで、思い通りにサウンドをチューニング可能。3ウェイの各帯域ごとに独立したアンプを内蔵し、それぞれに最適なパワーをバランス良く効率的に供給することで、ダイナミクス特性に優れ、ノイズも非常に低い再生を実現しています。
Focal
SM9(1Pair)¥672,000
3ウェイモニターと2ウェイモニターを合体し、完璧にひとつのエンクロージャーに融合させた、Focalの最新技術を駆使した3ウェイ・モニタースピーカー。
3ウェイシステム・モードでは再生周波数帯域30Hz~40kHzにおいて高い解像度を実現するとともに多様なアナログ信号制御機能を装備。レコーディング、マスタリング作業がストレスなく行えます。2ウェイシステム・モードは周波数特性90Hz~20kHzで、TV、マルチメディアシステムなどを想定したミックスのモニタリング用に最適。特にEQやバランス調整の難しいミッドレンジの微妙なコントロールに威力を発揮します。
SM6 twin6 Be (1Pair)¥374,640
ベリリウムツイーターとWコーンウーファーを搭載した3ウェイ・アクティブ・スピーカーです。ツィーターと2つのウーファーそれぞれに対して独立した3つのアンプを搭載したアクティブネットワーク設計となっています。ふたつの6.5インチ “W” コーン・ウーファーユニットのうち、一基のみ低域だけでなくミッドレンジ帯域までの再生を行います。リアパネル上の設定によってどちらのユニットをワイドレンジにするか選べるようになっており、設置ポジションに合わせて最適なパフォーマンスを得ることができます。Twin6の設計は、縦置き、横置きどちらにも対応可能で、環境に合わせてフレキシブルに最適化が可能です。
Dynaudio Professional
AIR15 Master D¥257,250
マルチチャンネルのモニタリング環境用に開発された2Wayバスレフ・アクティブスピーカー。AIR15 Master Dは音声を入力するマスター機のデジタル入力仕様モデルです。ペアの場合はスレーブ機の「AIR15 Slave」と合わせて使用します。DVDオーサリングおよびマスタリング、5.1プロダクションのようなモニタリングに高い精度が要求されるステレオ、あるいはマルチチャンネルのモニタリングに最適。ブロードキャストやフィルム編集におけるモニタリングにも適しています。
AIR15 Master A+D¥277,200
マルチチャンネルのモニタリング環境用に開発された2Wayバスレフ・アクティブスピーカー。AIR15 Master A+Dは音声を入力するマスター機のアナログ入力+デジタル入力仕様モデルです。ペアの場合はスレーブ機の「AIR15 Slave」と合わせて使用します。AIRシリーズは、従来外部機器に頼らざるを得なかった機能の多くを統合し、今までになかったモニタリング・システムとしてのパフォーマンスを発揮。モニター・マトリクスやベース・マネジメント、EQやディレイ・アラインメントなど、マルチチャンネル・モニタリングに対応する高い完成度を要求されるシステムの構築を実現します。
AIR15 Slave¥226,800
マルチチャンネルのモニタリング環境用に開発された2Wayバスレフ・アクティブスピーカー。AIR15 Slaveは、音声を入力するマスター機「AIR15 Master A+D」もしくは「AIR15 Master D」から、Ethernetケーブル(RJ45 TC LINK/独自規格)で信号を送って出力します。
GENELEC
8050¥369,600
単体で120dB SPLに達する最大音圧と、35Hzまで伸びた豊かな低域再生を実現するモニタースピーカー。
理想的な 2ウェイ・マルチアンプ構成にするため、特にクロスオーバーのフィルター回路は音質にこだわった設計が施されています。独創的でオリジナル形状の高効率バスレフポートによってポートノイズを排除し、正確なサウンドを再生します。用途としては、レコーディングスタジオ、ポストプロダクションや放送音声モニター、およびサラウンドモニタールーム、マスタリングルームなどをオススメします。
1032BM(マットブラック/Pair)¥470,000
防磁型ドライバー、スピーカー・エンクロージャー、マルチ・アンプ、アクティブなラインレベル・チャンネル・デバイダーを内蔵した、THX認証の2ウェイのアクティブモニター。
コンパクトなサイズのため、ニアフィールドに理想的!ラジオやテレビ放送局、中継車、ホームスタジオに適しています。また音響環境が良くない部屋でもDCW(Directivity Control Waveguide)テクノロジーが優れたステレオ音像定位と周波数バランスに補正。トーン・コントロール・スイッチによりスピーカーシステムの周波数特性を正確に最適化できます。
musikelectronic geithain
RL901K(1本)¥1,050,000
RL 901Kは、30Hz〜250Hzまでの周波数範囲内において、特有のカーディオイド(指向性)を持った3ウェイのモニタースピーカーです。レコーディングスタジオやMAスタジオのメインモニターに最適です。優れた音質と独創性を備え、指向性を狭めたRL 901Kは、多方面にわたる調査/解析、スタジオニーズに的確に対応する音質追求と妥協を許さない最新一貫製造技術により完成しました。スピーカーの解像度は群を抜いており、試聴してみると一瞬でその違いが明確にわかるほどです。数多くのミュージシャン、サウンドエンジニアを虜にしてきたRL 901Kは世界のプロが認めたハイクォリティ・スピーカーです。
関連記事
Tech
2013/05/16
モニタースピーカー導入計画!後編 知っているようで知らない、試聴の時はココを聴こう!
「モニタースピーカー導入計画!前編 理想のニアフィールドの見つけ方はこれだ!」でモニタースピーカー選びの奥深さを知ったIH富田。さらにROCK ON PRO洋介からモニタースピーカー選びのノウハウを聞き出します。後編となる今回は、実際に試聴する際に大事にするポイントです。では続きを始めましょう。
試聴の際はここを聴くべし!
富:…前編は、スペックの見方の勉強になりました。じゃあ他にも注意すべきポイントってありますか?ここで差がでるぞ!みたいな。
洋:他に気にしてほしいのは「クロスオーバー・フリーケンシー」ですね。2Wayスピーカーの場合、ウーファーはここまで、ツイーターはここまで、というように急峻なフィルタがかかっていて、その境目をクロスオーバー・フリーケンシーと言います。実際に試聴する時にその部分、ウーファーからツイーターへのつながりが良いかを気にしてほしい。ウーファーとツイーターっていう全く違うユニットで音を鳴らすので、音がつながらなかったりするんですよ。音の出方やスピード感、解像度に影響が出る。そこが違和感なく聴けるかどうか。そこを見極めてほしい。特に最近人気のリボン系のスピーカーに関してはここをちゃんと聴いて判断してほしい。ヘタをするとここにギャップができちゃうんですよ。
富:リボンツイーターって特殊ですもんね
洋:コーン形状のウーファーとは構造が全く違うので音の出方、スピード感、全てが違うわけじゃないですか。非常に難しい事をしていると思うけど、EVE audioはDSPを搭載して、電気的にしっかりと調整をしていきているよね。
富:音がきれいにつながっているかしっかりと確認をしなければいけない。
洋:駆け上がりのフレーズなんかがあるといい。テレレレ…って音が上がっていくと音の感じが変わってしまっていたり、途中で1音だけ小さく聴こえるとか。
富:それはよっぽどひどい例ですね(笑)
富:同じく試聴つながりで次を。これは私の実体験なんですけど、自宅で使う時と同じ音量で試聴するっていうのも大切ですよね。
洋:それはすごく大事だと思います。僕はお客様には「どのくらい音量を出せますか?」ってうかがって、その音量で聴いた時にバランスが崩れないかをチェックしてもらってるよ。バスレフタイプに顕著な例なんだけど、あれは低音を補強しているところが車で言うターボチャージャーみたいなものなので、ある程度のところまで音量を上げるとドーンと低音が出てくるんですよ。ドッカンターボ的ななり方をするやつがいる。なぜかというと、小さい音量だとウーファー自体がほとんど動かないのでダクトから出るはずの空気の動きが無いんですよ。そうするとバスレフから音が出てこない。だから小さな音量でもバランスが変わらないかっていうのは大切ですね。
富:だからこそあえて小さいスピーカーを買って…
洋:思い切り鳴らしてあげる。それも一つの選び方ですね。
富:なるほど。日本の住宅事情に合わせているのか、最近小口径のスピーカーってたくさんリリースされてますよね。これは適正な音量で鳴らすためか。
洋:NEUMANN KH120やMusik RL906は小さな音量でもバランスが崩れにくい傾向があるよ。あとKS Digital。
富:KS Digitalはそれがウリですもんね。
洋:Musikもそうなんですよ。無理の無い設計をしてるので。
富:それ分かる気がします。
理想のスピーカー設計って?
洋:あとは同軸。2Wayはウーファーとツイーターが離れてるけど、同軸は音の出てくる位置が物理的に一緒。低域と高域のクロスオーバー(音のつながり)があるにしても音の出てくる位置が変わらないわけですよ。高域の音の時に音の位置が上に上がっちゃったって経験ない?
富:椅子に座る姿勢によって聴こえる音が変わるんですけどそれですか?
洋:それも一つだね。同軸にするとある程度解消されるよ。
富:よっしゃ、やるぞ!ってミックスし始めたときはシャカシャカ高域が聴こえてて、疲れてだんだん姿勢が悪くなって椅子からズリ落ちてくるとだんだん音がモコモコ聴こえるようになって来ます。
洋:そうやって普通に座ってても姿勢次第で音像が動いているわけですよ。極端に言えば首の角度一つでも。例えばクロスオーバーが2kHzだったら、それ以上の帯域は上の位置から鳴ってるし、それ以下は下から鳴ってくる。
富:ってことはニアフィールドモニターの理想は同軸ってことですか?
洋:点音源(はい)。
富:同軸スピーカーって設計が難しいって聞きますね。
洋:理想のスピーカーの設計は何だと思う?
富:??
洋:理想を言えば、スピーカーは箱じゃない方がいいんですよ。平面バッフルって言われるんですけど、一面の板の真ん中にスピーカーが付いてるような状態。
どうしてかって言うと、スピーカーって前に出る音と、後ろから出る逆相の音が出ているわけじゃないですか。その逆相の音って必要ないでしょ。壁からスピーカーがポコっと出ているような設計だとどこからも逆相の音は回ってこない。正相の音しか来ない。これが理想です。
富:それじゃあ密閉型も同じじゃないですか?
洋:密閉型は平面バッフルをグルっと囲った作りなんだけど、キャビネット内部で空気の動きがあるじゃないですか。だから影響があるんです。
富:じゃあ、もしかしたら私たちが大きなキャビネットの中に入ってしまった方がいいかもしれませんね。なんとかサファリパークみたいに。
洋:それもいいかもね(笑)スピーカーユニットの後ろから出る音は邪魔でしかない。密閉型はそれを閉じ込めているけど空気バネの影響がある、バスレフは邪魔ものの逆相の音を有効利用している。そして理想は点音源なので、できればユニットは1つが理想なんですよ。
富:フルレンジ!
洋:そう。でもフルレンジだと物理的な制約で低域か高域のどちらかしか出ないということになるので、同軸2Way(以上)を選ぶことになる。スピーカーユニットは意外と再生レンジが狭い。スピーカーの口径によって再生できる周波数帯域っていうのは物理的に決まるじゃないですか。小さければ下が出ない、大きければ上がでない。カタログスペックを読んでて分かってほしいんだけど、10インチもないスピーカーで100Hz以下が出る訳がない。それ以下は全部バスレフの効果で出てる。
富:そうですよね。
洋:そのくらいの口径のユニットを平面バッフルに付けたらほとんど低音は出ない。
富:たしかに、小指の爪くらいの板が1秒間で100回震えたところで100Hzの低域は再生できないですよね。
洋:バスレフの低域は偽物なんだ、ということを意識して聴いてほしい。
富:だからどこのメーカーも、自然な低音感を出すために努力しているわけですね。
洋:勿論、全てが悪いという訳ではなく、しっかりと設計されたものでないとダメだという事。あとはコーンの動くストローク。ストロークが小さいとこれまた低域が出ない。
富:空気が動かないですもんね。なるほどー。
どうしてパワード?
富:あと、パワーアンプとかは?
洋:昔はスピーカーの能率っていうのが話に上がったんだけれど、今はほとんどパワードになっちゃったから載らなくなったなあ。1Wをかけた時にどのくらい動いてくれるか(音圧が出るか、正式には出力音圧レベル、単位はdB/W)っていうところ。音のチューニングがされればされるほど動きにくくなるわけですよ。意図しない動きをしてほしくないから。
富:暴れん坊じゃなくなる
洋:おとなしくて作為的な音になっていくんですよ。逆に、PA系のスピーカーはものすごく良く動いてレスポンスを良くする設計になってる。これは効率良く大きな音を出したいという別の必要性もあるからね。dBの計算の出来る人ならばピンと来ると思うけど能率が3dB/W変わるとアンプの出力は2倍必要になるんだよ。
富:いまパワードが主流なのは利便性のため?
洋:パワードにするとパワーアンプも込みで電気的にチューニングができるんですよ。スピーカーユニットのギャップやクロスオーバーのつながりの悪さを電気的に補正ができるじゃないですか。あとはスピーカーが飛ぶっていうのも防げる。
富:最近はDSPやEQ積んでるのもありますもんね。
洋:アンプの出力特性を調整するだけではなく、一歩踏み込んでデジタル領域でいろいろと処理をする、音場補正をするものが、Genelec 8240やDynaudio Airシリーズなんかにあるよね。それから、アナログフィルターには真似の出来ない急峻なカーブを設定出来るフィルターや位相、タイムアライメントの補正等が出来るのもDSPの強みだね。EVE Audioは全ラインナップにDSPを搭載して、キャラクターをしっかりと揃えてきている。
一般的に2Wayであればクロスオーバー回路っていうのが入ってるけど、バイアンプっていうユニットごとにパワーアンプを入れて、さらにチューニングを追い込んだものも多いよね。カタログだと出力が20W+40W都下書いてあるのはバイアンプ。
でもパワードスピーカーって、ピュアオーディオ的な発想で言えばすごくナンセンスな話でしょ。ピュアオーディオはアンプラックとかのできるだけ振動を伝えないところにアンプを置くはずなのに。
富:パワードスピーカーはバリバリ振動している本体内にアンプが入ってますね。じゃあサウンドは振動には左右されにくいものなんですね。
洋:気にしだしたら、切りがないけど…。大丈夫だと思っていいんじゃないかな。
洋:あと、パワードのメリットはコストだね。専用設計でチューニングが追い込める。普通アンプ1台で最低でも2~3万円はするのに同じくらいの価格でパワードスピーカーってあるわけでしょ。安くて良い音っていうのが作りやすい。
パワーアンプによる違い
富:最近よく見る「クラスDアンプ」って?「A」「B」「AB」Cが無くて「D」。
洋:A級とB級の違いは分かる?
富:A級は効率悪いけど音が良くて、B級はその逆?
洋:一概にB級が音が悪いと決めつけるのは乱暴だね。「シングルアンプ」という方式を使っているものがクラスA。
アンプ一つだけでドカンと増幅する非常にシンプルなものです。最大効率は理論値で50%しかない。使ってる電気の半分は常に捨てつづけているという非常に贅沢な設計、捨てた電気は全て熱となるので、発熱も大きい。そしてシンプルだからこそ、素子やパーツの性能がモロに出ます。だからここは良い物を使って、お金をかければかけるだけ良いものができるんです。
富:それは正直な動作ですね(笑)
洋:そして「プッシュ/プル」と呼ばれる方式を使っている製品の大半がクラスBです。(中にはプッシュプルでClass Aを実現する回路もあります)
音の波の+側と-側を分けて、片方づつ増幅する。そうすると、音が+側の時は-側は待機する。最大効率は78.5%、そうすると電気消費量が最小限に抑えられる。
富:おお、なんと!
洋:ただこれは回路設計をミスするとセンターがずれる。一度スライスしたものを後でくっつけるので、ここの精度が低いとそれぞれの増幅率が変わってしまってダメになる。だからある意味歪みやすい。とも言われる。
ABはそのあいのこ。(実際は、Class Aでは行かないところまでバイアスを深くかけたプッシュプルの回路設計。電気効率と低歪を両立しPA用のパワーアンプ等での採用例が多い)で、Cっていうのも実はあるんだけれども、オーディオ用としては現実的じゃない。
洋:D級は「PWM(Pulse Width Modulation)変調」という方式です。デジタルアンプとよく言われたりするけど、僕らの良く知っているPCM変換とは、全くの別物。
富:PWMを使ってどうやっていろんな音を出すのかな?
洋:入力された音に対してTRI(三角波)を掛け合わせるんですよ。PWMっていうやつ。昔のヤマハのシンセのモジュレーションであったでしょ?
富:ありました、ありました!
洋:それと同じPWM変調という技術を使っている。どんなものかというと、音の波に対して10MHzとかの高周波のTRI(三角波)を掛け合わせる。音波とTRIを比較して音波が大きければ『+』、小さければ『ー』を出力する回路。これが、PWM変調。出力された波形は矩形波に変換される。この矩形波は音の強弱が濃淡で表現されているようなもの。それをスイッチング回路で増幅してあげる。このスイッチング回路で増幅すると、ものすごく効率がいい。増幅した矩形波は積分回路(L.P.F:コイルとコンデンサーの回路)を通すだけで元のアナログ波(音波)が生成できる。
富:なんか、DSDのイメージに近いですね!
洋:確かにそうだね、DSDはPWM変調の親戚といえるPDM変調(Pulse Depth Moduration)を使っているからね。D級の中には、このPDM変調を利用したものもあるんだよ。トランジスタのスイッチング、要は+ -(オン/オフ)の反応速度がものすごく速くなったから実現したんです。これがヌメーっと遅いとぐだぐだの歪みだらけの音になる。
富:んー…、とにかく効率が良いわけですね。
洋:ここはすごくわかりやすくて、トランジスタってオンかオフかっていうときは非常に消費電力が少ないんですよ。Maxかゼロかってことだから。でもクラスD以外のアンプってこれの中間層を使いうのでロスが生まれやすい。
富:しかしすごい仕組みで音を出してるんだなあ。仕組みが分かってくるとパーツの制度が大切だってよく分かります!
洋:スイッチしている素子の精度。そしてできるだけ高い高周波、つまり鋸歯状波のギザギザが細かいほど正確にスキャンできるから、再現性の高いアンプになるんですけど、そうなると今度はスイッチングのスピードが要求される。
富:ここまでの話を聞いちゃうとクラスAアンプってシンプルだなあって思います。
洋:あれは贅沢な仕様ですよ。
スピーカーは電気信号を空気振動に変化するコンバーター
洋:こうやって振り返ってみると、それぞれに短所と長所があるのがよくわかるね。スピーカーって電気信号を空気振動に変化するコンバーター(変換機)なんだよ。その動作原理を知る事でスピーカー選びの参考になればと思います。もちろん最後は自分の耳とで聞いて感性で判断することが一番大事ですよ。是非、色々なスピーカを試して、自分に一番会ったモデルを選んでください。
富:洋介さんかっこよくキメましたね(笑)それが分かるとこれから、スピーカーの選び方や使い方が変わってくる気がします。今日も勉強になりました。どうもありがとうございます!
関連記事