Shibuya 03-3477-1776
Umeda 06-6131-3078

Headline

NEWS
2018/09/14

AJA 社、IBC2018にてマルチフォーマットのコンテンツ制作と配信を 最適化する新しいツールとアップデートを発表

AJA 社は IBC 2018 において、マルチフォーマットのコンテンツ制作と配信を最適化する新しいツールとアップデートを発表しました。   これにより最新の 12G-SDI および HDMI 2.0 テクノロジー、新しく登場した IP 規格および HDR 規格やフォーマットについても、プロフェッショナル環境で活用することが可能になります。 4K/UltraHD、ハイフレームレート、ディープカラー及び HDR ワークフローを簡易化 まずは、ワークステーションまたは Thunderbolt™ 3 接続のシャーシで使用できる、12G-SDI 入出力および HDMI 2.0 でのモニタリング/出力に対応した 8 レーン PCIe 3.0 ビデオ/オーディオ I/O カード、KONA 5。   KONA 5 は、4K/UltraHD および HD ハイフレームレート、ディープカラーそして HDR ワークフローに 1 本のケーブルで対応します。開発者用途として、AJA の SDK を用いることでマルチチャンネル 12G-SDI 入出力が可能になり、複数の 4K ストリームの入力または出力を行うことも可能です。   >>KONA_5 リリースページ(日本語) 変換能力を拡張し、最新の HDR ワークフローに対応 次は、Colorfront Engine™ を搭載したリアルタイム HDR/WCG コンバーター FS-HDR に対応する v2.6 ファームウェア / ソフトウェアを発表しました。   この無料アップデートにより、新しいカラー変換が追加されています。製作時にも最終的なルックと変わらないイメージで、4K/UltraHD/2K/HD、SDR、HDR フォーマットを扱えるようになります。   放送局、プロダクション、ポストプロダクション、プロ AV 業界に、より柔軟かつ新しいワークフローを提供します。   >>FS-HDR ファームウェア v2.6 リリースページ(日本語) 互換性、セキュリティ、ウェブ UI のカスタマイズ性を改善 スタンドアローン型 H.264 ストリーミング & レコーディングデバイス HELO はファームウェア v3.0 が発表されました。   このファームウェアは、近日中に AJA のウェブサイトより無料でダウンロードいただけるようになります。   HELO v3.0 は、業務向けの Facebook の最新プロトコル、システムとネットワークのセキュリティが重要視される環境向けに暗号化に対応、HELO のウェブ UI 内で使用できる言語が追加されました。  >>HELO v3.0 ファームウェア リリースページ(日本語) 効率的な HDRモニタリングと分析を実現する 1RU の新製品 こちらは待望の新製品 HDR Image Analyzer の発売開始時期を発表しました。   HDR のモニタリングと分析に特化した本製品は、Colorfront 社によって開発されたソフトウェアで動作します。   IBC 2018 のブース 7.C25 では、4K/UltraHD/2K/HD、HDR や WCG (高色域) のコンテンツを、HDR Image Analyzer で実際にモニタリング・分析する様子をご覧いただけます。   放送や OTT エンターテイメントにまたがるプロダクション、ポストプロダクション、クオリティコントロール (QC) やマスタリングに従事するお客様にぴったりの製品です。 >>HDR Image Analyzerリリースページ(日本語) 10 GigE 対応 SMPTE ST 2110 ビデオ / オーディオレシーバー IPR-10G2-HDMI、IPR-10G2-SDI を発表 ビデオとオーディオのIP伝送を統一することを企図して制定された最新の伝送規格 SMPTE ST 2110 対応のビデオ/オーディオレシーバー IPR-10G2-HDMI と IPR-10G2-SDI が発表されました。   IP 経由の UltraHD または HD 信号を HDMI または SDI に変換可能な同製品は、10 GigE SFP+ ケージを 2 ポート備えているため、ヒットレススイッチング (無瞬断切替) により、重要な伝送線路やモニタリングアプリケーションでの冗長性を保護します。   >>IPR-10G2-HDMI、IPR-10G2-SDI リリースページ(日本語) 収録時の柔軟性を拡大する新機能 ProRes/DNx 対応のレコーダー 兼プレイヤー Ki Pro Ultra Plus の新たなファームウェア v4.0 も発表されています。   ファームウェア v4.0 には、マルチチャンネル収録時のファイルネーミング、タイムコードのスーパー出力制御、オーディオチャンネルのマッピングといった高度なカスタマイズを収録時に行う新機能が搭載されています。   >>Ki Pro Ultra Plusファームウェア v4.0 リリースページ(日本語)
NEWS
2018/09/13

ROCK ON PRO Webサイトリニューアル!!

ROCK ON PRO Webサイトがリニューアルとなりました! タイムリーで有用な情報を4つのタブカテゴリに納め、より情報に到達しやすく内容もブラッシュアップ。モバイルの各デバイスからもブラウジングできるようレスポンシブにも対応いたしました。そのミッションに、いま必要なノウハウを。これからもROCK ON PROがご提供するインフォメーションにご期待ください! そのミッションに、いま必要なノウハウを。 ◎注目の情報をチェックする、「Headline」 NEWS / Tech / Support / ,,,最新情報から制作に必要とされるノウハウ、サポート・技術情報や最新製品レビューなどを網羅。 ◎制作環境を飛躍させる、「Solution」 制作業務における課題解決をROCK ON PROが提案します。クリティカルな業務や効率的なワークフローに対応するソリューションを。 ◎システムの実例を知る、「Works」 ROCK ON PROの導入事例の数々をMusic / Post / Broadcastなど多岐に渡ってご紹介。システム実例から新たな制作環境の未来を見据えます。 ◎そのワークフローを実現する、「Brand」 業務に必須となる製品からカッティングエッジなブランドまで、ROCK ON PROが取扱うプロダクトがそのワークフローを実現します。 レスポンシブでiPhone/iPadからもインフォメーションを 新しくなったWebサイトではiPhone/iPadへの対応も行なっております。モバイルのデバイスを通じてタイムリーに情報を確認していただけるよう、コンテンツをご提供してまいります。 リニューアルとなり、さらに内容を充実させて制作に携わる皆さまが必要とするノウハウや情報をお届けできるよう邁進してまいります!より一層のご愛顧のほどお願い申し上げます。 ROCK ON PRO スタッフ一同
NEWS
2018/09/07

Avid Post IBC 2018開催!! 参加申し込みスタート!!

Avid Japan主催にて「Avid Post IBC 2018」の開催が決定、参加申し込みがスタートとなりました!! ヨーロッパ最大規模の放送機器展となるIBC2018ではワールドワイドな各社がその最先端のプロダクトやワークフローを展開しますが、六本木ミッドタウンで開催される「Avid Post IBC 2018」ではAvid製品における現地からの最新情報のほか、制作のトレンドを押さえたセミナー・デモンストレーションも行われるとのこと。イベント詳細・参加申し込みは下記概要をご確認ください!! Avid Post IBC 2018 テーマ:NEW HORIZINS IBC2018で発表になった最新情報をいち早くお届けする「Avid Post IBC 2018」を今年も開催いたします。オンデマンドでメディア制作機能を提供するAvid | On Demand、新しいポストプロダクションワークフローを提供するMediaCentral | Editorial Management、一新されたMedia Composerファミリーなど、 Avidの提案する新製品・新機能を実機デモで一挙に紹介。さらに、目前に迫ったBS/CSによる4K8K衛星放送開始に伴い、4K / HDRコンテンツの制作は待ったなしという状況の中、制作に必要なすべての機能を備えたMedia Composer x Baselightをご覧いただきます。 <開催概要> ² 日  程 : 2018年10月5日(金) ² 時  間 : 14:00 ~ 17:00 (13:30 受付開始) ² 場  所 : 東京ミッドタウン 4F ホール&カンファレンス Room 1-3(地図) ² アクセス : 都営大江戸線「六本木駅」8 番出口より直結 <アジェンダ> ★IBC最新情報 ★Avid クラウドソリューションデモ MediaCentral、Avid ¦ On Demandなど、Avidが提供するクラウドソリューションは、小規模な編集 チームからグローバルメディア企業に至るまで、より高度な統合、スピード、コラボレーションを実現 します。人工知能を活用したコンテンツの自動インデックスを始め、次世代のメディアワークフローを デモで紹介。 ★Media Composerアップデートデモ プロが選ぶクリエイティブ編集ツールとして、長く支持されてきたAvid Media Composerはこれまで に数えきれないバージョンアップを経て、今も進化を続けています。近年追加された機能から、選りす ぐりをデモンストレーション。 ★Media Composerで速攻4K/HDR制作 - Baselightの完全なカラーマネージメントの利用 フィルムライト株式会社  代表取締役  松井 幸一 氏 株式会社TBSテックス  現業本部 技術営業部 営業担当 兼 ポスプロ事業部 編集担当  礒辺 宏章 氏 今さら聞けない4K/HDRの基礎知識の解説と、Media Composerにシームレスに統合されたカラーコレ クション・システム「Baselight for Avid」を使ったHDRコンテンツの制作の基礎を、FilmLightの松井様 よりデモンストレーションしていただきます。また、TBSテックスの礒辺様より、同社の現在の4K制作、 および今後の4K/HDRへの取り組みについてご紹介頂きます。 ■登録ページはこちらから *参加お申込みは上記登録ページより事前登録をお願い致します *お席には限りがありますのでお早目のご登録をお願い致します。
Tech
2018/09/04

FLUX:: / ユーザーから受けた刺激が、 開発意欲をエクスパンドする

PureシリーズやElixir、Pure Analyzerなど、高い技術力に裏付けられた優れたフィードバックデザインを持つプラグインをリリースするFlux。そのCEOであるGaël Martinet氏が最新リリースとなる「Spat Revolution」ワールドプレミアのため来日した。IRCAM(フランス国立音響音楽研究所)やjüngerとの共同開発も行うFluxだが、その成り立ちから、プロダクトを生みだす発想、そしてSpat Revolutionが立体音響にもたらす変革に至るまで、Gaël氏とFluxのアイデアの源に迫った。 自らのツールを自らで作り出す フランス・パリから南西へ約1時間。Flux:: sound and picture developmentはフランス中部のオルレアンに位置している。現在CEOであるGaël 氏はサウンドエンジニア出身のプログラマーで、独学でC++を学んだという異色の経歴の持ち主だ。Fluxが設立されたのは今から17年前。当時Gaël氏はメジャーなレコード会社とも契約しミックスとマスタリングのサウンドエンジニアとして活躍していたが、そのかたわらでMerging PyramixやMAGIX Samplitude、Avid Pro ToolsなどのDAWメーカー各社とベータテスター契約を結んでいた。その中で「こんなプラグインが欲しい」と相談しているうちに、「欲しい」という気持ちが「作ってみたい」へと変化していったのが開発に携わるきっかけになったそうだ。まず、最初に欲しいと思ったプラグインはメータリングプラグイン。当時のメータープラグインはPeak表示などの単純な表示しかなく、RMU表示やよりオプションが付いたものなどサウンドエンジニアとしての現場感覚がアイデアを次々と生み出していく。また、当時はマスタリング用のプラグインが少なかったため、自分に合うDynamics Processorの開発がメーターの次に取り組むテーマとなっていくのだが、自分が必要とするツールを自らで作り出すといった点は現在にも受け継がれる開発力の源泉と言えるのではないだろうか。   ソフトウェアの開発を始めたGaël氏だが、もともとプログラミングを学んでいたわけではなかったので自分で書籍を買いゼロから勉強をし始めたという。そして、実際プログラミングをしてみると自分に適正があると実感。メーカーと相談しながら自分の求めるツールを作るうちに「これが自分の仕事だ!天職だ!」と思いのめり込んだところが、のちのFluxにつながるスタートラインになっている。当時設立した会社は「Geal Yvan」という名称で、Mergingとの契約を結び、Pyramixに含まれているプラグイン全ての開発にあたったという。当時はPyramix向けにインテグレートされたポスプロ向けの環境を整える必要があったのだが、その時Gaël氏が開発したのが現在Pyramixのビデオエンジンとしても使用可能な「VCube」、もちろん当時開発したプラグインは現在もなおPyramixで使用されている。その後、11年間継続されたPyramix プラグイン開発だが、様々なプラグインを開発していくうち、他のDAWメーカーにもプラグインを提供したいと思うようになり「Flux」というブランド名のもと、プラグインの販売をスタート、現在の会社の始まりとなる。 共同開発という技術のシナジー 現在、Fluxが開発しているプラグインは大きく分けて2種類ある。まずは、FluxブランドのプラグインでFluxのスタッフが100%開発している製品。主にはPureシリーズやElixir、Stereo Tools、Pure AnalyzerやEpureなどがある。それに対してブランディングされているのが、IRCAM(フランス国立音響音楽研究所)シリーズやjüngerシリーズに見られる共同開発製品だ。今秋に発売されたSpat Revolutionも「IRCAM」ブランドの製品となりその研究技術を使用。Audio Engineに付随する機能はFluxが作成したものだが、IRCAMからもプログラマーが加わり共同で開発されている。   そのIRCAMとの共同開発が始まったきっかけは、なんとIRCAM側からのオファーだという。当時のFluxの技術力・製品クオリティの高さを買って、IRCAM研究所のValorisation directorであるFrédérick ROUSSEAU氏より、Geal氏へ「自分たちの技術を使ってプラグイン製品を作ってみないか」と持ちかけられたのが始まりだそうだ。その技術力によって現在ではMergingを始め、Avid、SteinbergなどDAWを開発している各社とデベロッパー契約もあり、各プラグインフォーマットに向けてFluxプラグインを供給している。また、FluxはIRCAMとの連携もあり、そのスタッフの半数がプログラミングに関わっているというまさに開発者集団とも言える陣容。共同開発は人的にも技術的にもお互いのシナジーを生み出しているようだ。 Spat Revolutionを生んだ発想の転換 そして、2017年9月に発売となったSpat Revolutionである。「イマーシブ3Dオーディオ編集アプリケーション」とまとめればいいだろうか、複数の立体空間を擬似的にソフトウェア内にセットアップ、アコースティック・シミュレーションを行った上で、サラウンドから7.1.2ch、22.2chまで様々な立体音響のスピーカー配置用にオーディオ信号を出力することができる非常に革新的なソフトウェアで、今までに類を見ない製品だが、実は開発には長い年月がかかっている。   まず、1992年にIRCAMより初代Spatがリリースされた。しかし、このソフトは一般ユーザーが簡単に使いこなせる仕組みではなく、主にMax MSPにモジュールとして組み込んでいたのがほとんどだと言われている。Max MSPに組み込むということはプログラミングの技術を必要とし、時にはスクリプトを必要とするケースもあるためサウンドエンジニアが気軽に使えるような代物ではなかった。そこで、MaxMSPの難しい作業に関しては極力省略して「音を作る作業以外の時間をセーブしよう」としたのが、2010年にFluxよりリリースされた「IRCAM Spat」である。90年代から綿々と積み重ねられたIRCAMのテクノロジーがサラウンドという時代のニーズとマッチを始めたタイミングとも言える。   しかし、この製品を開発するにあたり、DAWプラグインとして動作させるのには主にバスの問題で制約を感じていたという。例えば、Pro Toolsは先日Dolby Atmosに対応したばかりだが、Auro 3Dなどのマルチチャンネルには未だ対応していない。対応させるには複数のバスに分けての処理が必要とされるわけだが、それでもやはり入力信号を一括でモニターすることはできない。そこで、DAW側の制約に捉われずに処理をさせる方法はないかと試行錯誤していた。ここで発想の転換がある。プラグインとして処理を行うのではなく、プラグインは「センドプラグイン」としてあくまでパイプ役に徹し、スタンドアローンのアプリケーション内でプロセスを行うというアイデアだ。これを実現したのが「Spat Revolution」であり、入出力数にしても、対応フォーマットの幅広さにしても圧倒的なスペックを誇る3Dオーディオ編集の「統合アプリケーション」として結実することとなる。 音を可視化する アプリケーションの機能開発を行う一方で、重視されているのがそのGUIやデザインである。Gaël氏には「かっこ悪い見た目ではそれなりのものしかできない。」というポリシーがあり、サウンドエンジニアのクリエイティビティを妨げないよう、ツールであるプラグインは美しく機能的にデザインされているべきだとしている。その最たる例が自社開発されたPure Analyzerであろう。Pure Analyzerはスタンドアローンで動作するアプリケーションだが、パスで使われているエンジンや、メータリング、Nebraに見られる空間的広がりをビジュアル化する機能など、優れたGUIと視認性の高さで評価も高い。ここで培われた「自由度は非常に高いが、いかにシンプルに見せるか」というポイントは現在の開発にも引き継がれており、Spat Revolutionへ搭載されたNebra機能は、空間でどの周波数帯域の音がどれくらいのパワーでどの方向へ向かって鳴っているか、を視覚的に確認できる。まさに「音を可視化する」機能なのである。3D立体空間の表現において、このような機能を持ったアプリケーションはおそらく世界初だろう。   そして、Spat RevolutionのGUIは非常にシンプルに作られている。信号の流れは見た目でわかるように、上段にあるInputから下段のOutputに向けて設計されており、それぞれを線でつなぎこむ。展開するプロジェクトの大きさによってSpat上のセッティングはシンプルにも複雑にもでき、その選択はユーザー次第。「Spat Revolution」というソフトウェアの自由度の高さを理解してもらうには、このインターフェイスが最適だと考えたそうだ。Geal氏はこのGUIについて「この仕組みはポスプロの人にはわかるかもしれないが、もっとシンプルなフローにしたい場合にはこれでも難しいかもしれない。なので、Mixer Binがついたようなもっと簡素なGUIを構想中だ。」とコメントしている。今後は「コネクションする」という作業をより簡単にできるように開発も進めていく予定で、ユーザーのリクエストを精査し実行に移していく段階に入った、と言えそうだ。 迅速なアップデート 現在、Fluxのソフトウェアは全てFlux Centerから供給され、必要なプラグインを任意のバージョンでインストールすることが可能だ。そして驚くほどアップデートの速度が早く、多い時には1週間に3回アップデートがオープンにされることもある。万が一、最新バージョンで不具合があった場合でも、Flux Centerでは過去のバージョンに戻ることも容易だ。   その迅速なアップデートの裏には、Fluxの開発チームとベータテスターとの連携も忘れてはならないだろう。バグ報告をあげると、そのデータをもとに問題点を見つけ出して改善していく。一つでもバグの改善があれば、すぐに新しいビルドとして公開する。そして、リリースノートはWeb上にすべて公開され、どのバージョンで何を直しているかもユーザーが確認できる。実際、重篤なバグを報告し、改善にはかなりな時間を要するだろうと想像していると、2〜3日でビルドアップされることもしばしばである。   Fluxはベータテスターだけではなく、より多くのユーザーからの率直な意見を聞きたいということで様々な計画をしているそうだ。現在構想として上がっているのは「こんな機能が欲しい」というユーザー自身の声をWebで直接投稿するケースや、他のユーザーからのリクエストをランキング形式でリストアップしそちらに投票する、という形式。その結果を参考にFlux社内でいいアイディアだと認められれば、社内で優先順位を協議した上での開発となるだろう、とGaël氏は語っている。こういった現ユーザーからの声、さらには未来からの声にも対応する、そうしたユーザーに密接なメーカーを目指しているそうだ。 成長するSpat Revolution Spat Revolutionは、現在DAWと連動されることを第一に開発されているが、将来的にはAvid S6LなどのSR市場へ対応することもアプリケーションの大きなテーマとしている。例えば、パラメーターにデュレーション(時間)という概念をつけることで、Mixerのスナップショットと連動し「6秒間で右から左に移動する」といった音像定位のオートメーションをつけたり、SRコンソールからプラグインのパラメーターを直接コントールさせるといった統合機能を想定している。Spat RevoluutionはすでにOSCに対応しているので、接続方法はIP接続になることだろう。なお、AoIPの開発については、すでにAVBで64chオーディオのやりとりや、OSCを使ってコントロールするというテストが進められているとのことだ。また、Spat Revolution自体にスナップショットを搭載することも想定している。一つのRoomソース内で複数のスナップショットを登録し、そのスナップショットを自在に切り替えることができるようになれば、ステージ演出としてよりダイナミックな演出ができるようになるだろう。   ほかにも、 Spat RevolutionにShowモードを搭載しセッティング画面は安全のために一切触れなくしたりする構想や、サーバーで動作するバージョンも想定している。現在、OSCを利用してDAWからSpat Revolutionをリモートするのだが、サーバーはエンジンとして動作するため、ラップトップやmixerからはOSCではなく完全なリモートコントロールとなる。さらには、サーバーシステムではコンピューター自体を二重化したリダンダントシステムとして組み上げることができるため、より冗長性を高めることが可能だ。   もちろんSR環境だけではなくDAW向けの新機能も想定している。Spat上でソースの軌跡を表示させ、そこからエディットできるようにすることや、ソースの配置を自動で配置されるようになるような機能、例えば音源の音程の高さによって3D空間で徐々にハイト方向に自動で音が配置されるようになるなど。これには特定のアルゴリズムが必要となってくるが、そんな機能があったら面白いのではないか、とそのアイデアは尽きないようだ。 また、現在はAvid S6にてプラグインマッピングの機能に対応しており、任意のパラメーターをFaderやJoystickに割り当ててオペレートすることが可能だが、バーティカルパンニングについて、フィジカルコントローラーの開発が待ち遠しいところではある。現行で3DマウスやDeep Motionなどの既存デバイスに対応させたり、Spat RevolutionがOSCに対応していることを踏まえて、専用のiOS等のアプリ開発も念頭にある。WindowsタブレットではOSC同士で通信ができたり、とRemoteControlに関してはすでに対応している項目もあるとのことだ。 最後に日本のユーザーへGaël氏からメッセージを頂いた。「これからも、我々の開発意欲を刺激し続けてください。Spat Revolutionはまさに、日本のユーザーが実践しているたくさんのユニークなプロジェクトであったり、放送局が行っているシリアスなプロジェクトをサポートするために作られたソフトです。これからも様々な意見が交換できればいいなと思っています。」   「開発意欲を刺激し続けて欲しい」、 ユーザー目線でソフトウェアを開発し続けてきたFluxだからこそのメッセージではないだろうか。Gaël氏は日本のマーケットに非常に関心が深く、Spat Revolutionの機能にも日本からのリクエストが多く盛り込まれている。Preferenceにも日本語表示が搭載されているが、単なるGoogle翻訳ではなくより日本的な言葉が選ばれていたり、と非常にユーザーとの距離が近く感じる。このようにユーザーとメーカーがお互いの創作意欲を刺激しあい、クリエイティブに還元していくという前向きな循環が続く限り、今後もFluxのアプリケーションが様々なコンテンツで活躍することは間違いないだろう。 Gaël Martinet - FLUX:: Head of software engineering
NEWS
2018/09/04

MTRXにルーム・チューニング機能を追加!待望のSPQカードが遂にリリース!! ~Pro Tools Information

AvidのフラッグシップI/OであるPro Tools | MTRXにスピーカー補正 / ルーム・チューニング機能を追加する待望のオプションカード"SPQカード"が遂にリリースされました。Avidからのニュースを下記に転載いたします。 イマーシブオーディオ環境の中でモニター管理システムとしてMTRXを使用する際、これまでは外部にスピーカー・プロセッシング・システムを導入する必要がありましたが、このオプションカードの登場により、DADmanソフトウエア内からEQやディレイ等を調整、内部ルーティング等を実施することで、適切な音場構築がMTRXだけで実現可能となりました。 MTRX SPQ Speaker Processing Card 販売価格 ¥280,800(本体価格 ¥260,000) 製品概要 Avidは Pro Tools|HDX/HD Nativeシステム用高品位オーディオ・インターフェイスでもあるMTRXのオプションとして、Pro Tools | MTRX SPQスピーカー・プロセッシング・カードをリリースしました。このオプションカードを利用することで、ミキシング環境構築時に、ドルビー・アトモス等のイマーシブ・オーディオ・フォーマットを含む、どのモニター・フォーマットにも適したルーム設定を行える精度の高いキャリブレーションが実行可能です。 精度の高いルーム・チューニングを実現! MTRX上にPro Tools | MTRX SPQスピーカー・プロセッシング・カードを搭載することで、他の外部プロセッサーを追加することなく、MTRXのみでモニター・スピーカーやサブ・ウーファーを最適化、よりクリエイティブな精度の高いミックスが可能となります。   ステレオからドルビー・アトモス等のイマーシブ・オーディオに到る、あらゆるオーディオ・フォーマットに対応、最大128チャンネルまでサポートする1,024 IIRフィルター(各チャンネル最大16フィルター)にアクセスすることで実行可能なルーム・ファイン・チューン、ベース・マネージメント、EQモニター、そしてキュー・シグナルといった各種設定を行い、それらのコンフィギュレーションを保存/リコール可能です。   これにより、1つの部屋で複数のサラウンド/イマーシブ・オーディオ・フォーマット対応したい場合でも、それぞれのフォーマット毎のモニター設定を瞬時にリコール/構築可能。利便性が高く、投資効率の高いミキシング・ルームを設計することができるようになります。 主な特徴    • チャンネル数-- 128 チャンネル(48 kHz時)  • フィルター-- 1,024 IIR (infinite impulse response) フィルター  • ルーム・チューニング -- 各チャンネル最大16フィルターまで対応  • ベース・マネージメント-- 複数のサブウーファー対応  • 対応サンプルレート -- 44.1 kHz~384 kHz  • レーテンシー調整-- 各チャンネル最大 800 msまで調整可能  • 対応オーディオフォーマット -- マルチチャンネル・オーディオ・フォーマット対応   ステレオ、 5.1, 7.1,及び64チャンネルDolby Atmos含む。   様々なイマーシブ・オーディオ・フォーマットに必要なスピーカー・マッチングを実現可能  • ソフトウエア・インテグレーション-- DADman 及びPro | Mon上でスピーカー・マネージメント及びコントロールを設定し、   各モニター環境ごとのコンフォギュレーションを保存/リコール可能。 Avid Japanでは、IBC終了後、デモ機を入手次第、Avid Space Tokyoでのデモ/セミナーを実施予定とのこと。気になるその性能を体感出来る機会についても、ぜひお見逃しなく。
Tech
2018/09/04

Avid NEXISから始まるポストプロダクションの働き方改革

昨今、働き方改革をめぐる議論は尽きないが、長時間労働をなくすことだけが働き方改革ではない。ポジティブな仕事、クリエイティブな仕事をして納得できる仕事をすることが、生産性を高めるのだとしたら、ネガティブなつまらない仕事を減らすことが、ポストプロダクションを取り囲む環境の働き方改革ではないだろうか?今回は制作プラットフォームの基礎ともなるAvid NEXISを中心にしたシステムを取り上げて、ポストプロダクションの効率的なワークについて考えてみたい。 トランスコード時間の短縮をどう行う? ビデオ編集の立場から見ると、収録した映像と音はそのままのファイルで編集することが当たり前で、DAWで音の編集を行うために、あらためて低解像度ビデオファイルを作成することに違和感を感じてしまう。なぜ、そのまま完パケのファイルを直接受け渡せないのだろうか。   DAW側のいろいろな事情はあるにせよ、現在のMA作業には低解像度のビデオファイルを用意する=ビデオのトランスコードという作業が必ず必要になる。今後、4K素材を扱うことが多くなるにつれて、さらに多くの時間をこのトランスコードに費やすことになるだろう。もちろん解像度とデータ量とは直接的には関係なく、小さなデータ量でも4K動画ファイルは作ることができるが、画質が悪くなる。そのため高画質のものを高解像度で見るために、高いビットレートでのエンコードが必要になり、それを再生するにもCPUにより多くの負荷がかかることになる。   それを解決する手法の一つがVideo Satelliteである。DAWの代表格であるPro Toolsでは、4Kビデオの再生にネットワーク越しにシステムをシンクロさせるVideo Satelliteを推奨している。Avid Media Composerがリアルタイム再生できるビデオファイルであれば、この機能を使ってトランスコードやファイルのインポートなど、新たにメディアを生成させることなくビデオと直接同期させることができる。言い換えてしまえば、MAのためのビデオメディアファイル作成の工程を全て無くすことができるということだ。また、別のPCでビデオを扱うためオーディオ編集における負荷も分散できる。 NEXISネットワークストレージでシームレスなフロー 4Kファイルなどで大きなコンテンツの複製を発生させないようにするのも、生産性のない時間の無駄を減らすことにつながるだろう。ワークフローの中心にネットワークストレージなどのサーバーがあれば、メディアの共有はもちろんビデオ編集からカラーグレーディングへ、そしてMAへとシームレスな連携ができるようになる。   さまざまなアプリケーションがインストールされているシステムが協調作業をするサーバー環境では、ストレージの帯域管理が重要なポイントになる。NEXISは接続されているものがどのようなものであっても、NEXISのソフトウェアにより帯域の管理を行うことができる。これは、サーバーと各クライアントの間に蛇口の栓があるようなもので、栓を開いたり閉めたり調節することで、蛇口から流れる出る水(データ)を制限をすることができる。   安価な共有NASのシステムでは、高速にデータを送り込むことができても、蛇口がなく1つのシステムにだけ水がどんどん流し出されているようなイメージで、そのため他のシステムは水を確保することができなくなり、再生中にフレームがドロップしてしまったり、遅延してしまったりするような問題が生じることも珍しくない。帯域に必要量の制限をかけることができるからこそ、Media Composerのようなビデオ編集システムで映像再生を行いながら、Pro Toolsでの多チャンネルオーディオの再生が可能になるのである。   さらにNEXIS独自のファイルシステムにはユニークなワークスペース機能(仮想ストレージ)があり、容量が足りなくなった時など必要に応じていつでも変更できる柔軟性がある。作業中にデータの整理などを強いられることなく、クリエイティブに集中することができる環境と言える。 また、保護モードに関しても物理単位でRAIDレベルを決めのではなく、ワークスペース単位で1ドライブ(RAID5相当)、2ドライブ(RAID6相当)、ミラーリング等、メディアの保護機能を実装しており、内容に合わせて選ぶことができる。例えば、一時的に利用する重要度の低いメディアであれば、保護機能をオフにしストレージ容量をセーブすることができる。ハードの面ではディスク障害があった場合でも通常のRAIDとは異なり、固定のリビルド時間を必要とせず使用しているブロックだけを修復するため、使用量が少なければ修復時間は短くなるというメリットもある。 NEXISに最適化されたPro Tools Pro Tools v12.8では、ネットワークストレージ上でのパフォーマンス向上のための機能が追加されている。「並列タスク最適化」は、ネットワークストレージに対する異なる処理を複数同時に行うときに設定する機能で、オーディオのインポートやディスクキャッシュといった取り込み作業と同時に、バックグラウンドでエフェクトのレンダリングやバウンス作業、クラウドコラボレーション時のファイルのアップロードやダウンロードをしても、先の取り込み作業に影響がないようにしてくれる。   また、「ローカル波形キャッシュバージョン」機能は、波形データがローカルに保存可能になったことで、作り直す必要がなくなるため、ネットワークストレージからセッションファイルを開く時間も大幅に短縮される。NEXISとの組み合わせでは、多チャンネルトラックのオーディオをストリーミイングで録音、再生することができるが、さらなるパフォーマンスが必要な場合には、ディスクキャッシュ機能を使うなど、ネットワーク環境に応じて使い分けすることも可能だ。 NEXISの価値 雑事を自動化して非クリエイティブな時間を可能な限り減らし、効率性を維持管理することこそが、Avidのメディアプラットフォームのメインコンセプトであり、そのシステムの一端を担うのがNEXISである。   NEXISは、Avidで動作保証をしている唯一のネットワークストレージであり、最大12台のPro Toolsを接続し、各システムを10GB Ethenetで接続することで、最大256トラックのオーディオをストリーミングで録音、再生することができる。システム構成は、NEXIS PROをエントリーポイントとし、NEXIS|E2、NEXIS|E4、NEXIS|E5、NEXIS|E2 SSDモデルとラインナップが揃い、20TBから最大4.8PBのストレージ容量で、20GB/sを超える帯域幅を提供する。   ユーザーのニーズと規模にスケーラブルに対応でき、最小構成で導入してからでもいつでもストレージを追加し、必要に応じてスケールアップしていくことができる。例えば、HD編集のワークフローでシステムを導入したとしても、そのシステムを捨てることなく4Kシステムへとスケールアップすることもできるため、単なるストレージ容量の増加ということではなく、システムが持つ機能面の向上にも対応させることができるのである。エントリーモデルのNEXIS PROは標準構成が40TBから、Avidの動作保証付きで¥1,650,000〜(税抜)と、働き方改革にもつながるワークフローの効率化を考えると長期的な視点における設備投資として魅力的なソリューションに映るのではないだろうか。 ファイルベースでの作業連携が進む中、実際のシステムで制作するにあたり新たな課題が出てきていることもある。Avidというメーカーが持つストロングポイントは映像編集からMAまで一貫したソリューションを提供できている点であり、動作におけるメーカー統一という担保がなされていることは未知の課題にも大きなアドバンテージとなるのではないだろうか。効率的なワークフローでクリエイティブに割く時間を確保する、という至上命題の解決にNEXISが光を当てるのかもしれない。     *ProceedMagazine2018Spring号より転載
Tech
2018/09/04

ヤマハ ViReal(バイリアル) ~積み重ねた要素技術でその空間をキャプチャーする~

皆さんはViRealという技術をご存知だろうか?このViRealはヤマハが要素技術として開発を行う立体音響技術の総称。純国産の立体音響技術である。その全貌は、ヤマハのホームページなどを見ても概要、概念が中心となるため実際にどの様なことが行われているのかはっきりしない部分もある。その様な中、カプコンからその技術を採用したタイトル「モンスターハンター:ワールド」がリリースされた。まだ研究段階の技術と筆者も考えていたViRealだが、実際に製品採用されてすでにリリースもされている。その実際を確かめるべく、静岡県磐田市にあるヤマハ豊岡工場内の研究開発施設に向かい詳しくお話を伺った。 スペシャリストによる要素技術を結実 ViRealは「立体音響のトータルソリューション」とヤマハでは定義されている。そのプロジェクトのスタートは4年前にまで遡る。ご存知の通りヤマハではAVアンプを始め、サラウンドバーなど、高い技術力をベースとしたサラウンドの研究開発が行われている。そのサラウンド技術をベースとして立体音響、特にバイノーラル再生技術からその開発をスタートしたということだ。   このViRealの研究開発を行なっている部隊は要素技術開発のチーム。要素技術というのは直接的な製品開発ではなく、そのべースとなる技術を先行して開発し、実際にプロダクトのアイデアが出た際にそれを応用して使っていくという縁の下の力持ち的な側面を持つ。とはいっても、現実にならないような夢を追った研究で成果が出なければプロダクトに結びつかないし、研究を進めたもののプロダクトに落とし込めないような技術や、市場のニーズに合致しないようなものは進められない。先見の明という部分も必要とされる大切な分野であると言えるだろう。その要素技術開発の中でも空間音響グループと呼ばれる部署がこのViRealの研究を行なっている。その開発チームには様々なスペシャリストが在籍していて、ハード面、ソフト面ともに自社内で開発を進行できるだけのパワーを持っていることが取材で強く感じられた。   ViRealの研究は前述のようにバイノーラルからスタートしている。そこから空間音響、プロセッシング技術、収録技術と立体音響の入口から出口までのすべてのソリューションの開発に進化している。どこか一部分ではなく、既存の要素をヤマハ的に噛み砕き、どの様に活用を行うと効果的か、汎用的に使えるものになるのか、そのような研究が日々行われているということだ。前置きが長くなったが、それぞれの研究を個別に見ていきたい。 ◎ViReal とは ヤマハが開発中の立体音響総合技術 Virtual + Real = ViReal   1. ViReal Mic:360° 集音マイク 2. ViReal Tools:立体音響オーサリング環境 3. ViReal for Headphones:バイノーラルエンコーダ 4. ViReal for Speakers:マルチスピーカ向けエンコーダおよび出力ハードウェア ViReal Dome/10th order相当の122スピーカー まずは、ビジュアル的にもインパクトの大きいViReal Dome。巨大な鳥かごのようなフレームの内部になんと122本ものスピーカーがおよそ等間隔となるよう設置されている。床面は平らになるのだが、影を落とした位置にスピーカーを設置しディレイとゲインで補正をしているということだ。もちろん理想は完全球体の面に設置ということになるが、現実的な環境とのトレードオフによりこのような仕様になっている。122本という数は、等間隔に設置位置をプロットした際に現実的に機器の設置が行える最大数ということで決められた。現在は、HOA=Higher Order Ambisonicsの最先端実験環境として稼動している。122ということは、ツールなどの製品が存在し現実的な最大規模となる7th orderの64chよりも多くのスピーカーがあり、ほぼ10th order(121ch)と同数。これにより高い再現性を誇るシステムが構築されている。HOAの可能性、具体的にはソースの持つ再現性等の研究が行われているということだ。   このViReal Domeの再生システムは、再生専用のPCからDanteで出力された122chのオーディオがDante Network上で分岐され、8chごとにプロセッサー/アンプによって駆動されている。このプロセッサーの制御により、音量に追従してスピーカーに設置されたLEDの光り方が強弱を持ち変化する。これにより、音の到来方向を視覚的に確認することが出来るように工夫されているそうだ。このLEDは心理的な意味合いも持つため、LEDを用いた心理音響実験や、視覚と聴覚の両方を刺激するマルチモーダル視聴の研究に使用することができる。 さらに各スピーカーにはマイクも設置されている。これは設置したばかりということで具体的に使い始めてはいないということだが、スイートスポットで楽器などを鳴らした際にどのような向きに音が放射されているかを、122点という高い精度で測定することが出来るシステムになっているということだ。こちらも今後のデータを是非とも見てみたいと思わせる実験設備。エンジニアが自分の耳で経験として判断を行なっていたマイキングが科学的に解明されメソッド化されたり、ということが現実化されるのではないかと妄想を膨らませてしまう。   再生のPCは、基本的にはHOAのソースを122chのスピーカーに合わせてプロセッシングを行なっている。具体的にはデコード後に各スピーカーへのシグナルアサインを行っており、このプロセッシングを変化させることでの結果を観察したりということが行われている。まさに、HOAを理想的な環境で再現したらどうなるのか?興味はあったとしても現実ではヘッドフォンでのバイノーラル再生になってしまうのが普通だが、ここではそれをスピーカーで体験することが出来る稀有な環境だ。   このViReal DomeはHOA再生ということでスイートスポットが非常に狭い、というよりも中心の一点しかない。これは技術の原理として致し方のないことだが、今後はこれだけのスピーカー数があるのでスイートスポット拡大のための研究も行なってみたいという話を聞くことが出来た。実際のプロダクトにおけるスイートスポットの広さというのは大切な要素。このような最大規模の研究環境からダウンサイズして、どこまで少ないスピーカー数でどこまでの再現性が確保できるのか?そのような開発へとつながっていくのであろう。 ViReal Mic:64個のマイクが並ぶモンスター 次にお話を伺ったのがViReal Micについて。これは小さな球面上に64個ものマイクが設置された6th order Ambisonics収録が行えるモンスタースペックの実験器具。もちろんそのままプロダクトとして登場したら非常に面白い存在となるのだが、逆の期待も込めてあえて実験器具と呼ばせてもらう。このマイクは、下部のボックス内でラインレベルにゲインを稼いでDanteとして出力される。ここでもDanteの持つ多チャンネルのスペックが活きている。マイクヘッドのサイズは、波長がマイクの間隔内に収まってしまうと意味がなくなってしまうため、計算上からその間隔、球体のサイズが決まっているということだ。理想のAmbisonicsマイクを考えると高域の精度を上げるためにはマイク間隔を小さくしたい、しかし低域の精度を確保するためには球体のサイズを大きくしたい。それらのバランスを取ってたどり着いたのがこのサイズ、ということになる。   個々のマイクヘッドの性能を聞いてみたが、これだけの個数の素子が設置された機器となると素子の特性よりも、設置間隔のほうが大きく影響を及ぼすため、この器具ではその部分にはあまりこだわらずに作っているということだ。とはいえ耐圧などの実験も行い、収録を想定しているフィールドなどでの利用にも耐えうる最低限のスペックは保っている。筆者はレスポンスなども実際の聴覚上の再現性には大きく影響があるのではと考えてしまうが、64個ものダイヤフラムが並んでいることを考えると1つの部品が10,000円高くなれば64万円のコスト上昇となる。ちょっと部品を交換して、ということも気軽に行える判断ではないということは想像できる。   もちろん製品化してヤマハとしてのプロダクトをリリースしたいという思いはあるということだ。その際にいくつのヘッドを搭載するのか、サイズは、コストは、と課題は相当に多いということだ。是非ともViRealとしての研究成果を詰め込んだ、市場が驚くような製品を作ってもらいたい。 ◎ViReal Mic 64CHワンポイントマイクロフォン   ● フィボナッチ螺旋状配置 - マイク素子数の制約なし ● デジタルオーディオネットワーク技術「Dante」採用   - LANケーブルでノートPCと接続 ● Higher Order Ambisonics (HoA) - 6次まで対応可能 ViReal for Headphones/独自のHRTFが作り出す精度 Unityプラグインを試す筆者。ゲームエンジンに実際に搭載されたViRealにより出力されたステレオ・バイノーラル音声を聞いている。コントローラーで3D空間内を動き回り、音源の相対位置を感じることが出来るかチェックを行なっている。 このViReal for Headphonesは当初より研究開発が続けられてきた技術の一つ。HRTF(頭部伝達関数)のチューニングを進めており、既存のHRTFで問題となる個人差を最低限とした汎用性の高いHRTFを作れないか?という研究開発を行なっている。ヤマハとしても3D音響はまずHeadphoneで聴くバイノーラル技術が一番普及をするという着眼点を持っている。しかしそこで一般的に利用されているHRTFは汎用性が低く、個人差が大きいものがほとんど。その理由は、人間が一人ずつに固有の耳の形状、頭蓋骨の形状、首の長さ、肩幅などを持っており、これらの影響を受けて音は鼓膜に到達し、音を認識しているからである。これを一般化してその個体差を縮めようと古くから各所でHRTFに関する研究が行われているが、最適とされるものは未だに誕生していない。現状で具体的に一般化された例としてはダミーヘッドマイクの形状が挙げられる。   これらの研究はすでに行われている分野ではあるが、ヤマハではあえて正攻法をとって数百に及ぶ顔の形状や耳の形状のサンプリングを3Dスキャンで行いそれらを平均化していった。技術の進歩により3Dでキャプチャーすることが容易になったのも追い風となっているようだ。その平均化されたデータをもとにして独自のHRTFを導き高性能かつ汎用性を持ったバイノーラライザーを作り出している。   現在も発展途上ということで、バイノーラルエンコードの部分に対し変更を行いその精度がどの様に変化をしていくかを日々研究しているということだ。人それぞれに感じ方が異なるHRTFを用いたバイノーラル技術、それを磨き上げることは非常に困難な作業と感じられる。実際に体験させてもらったViReal for Headphonesは、あくまでもバイノーラル体験なので個人的な感覚となってしまうことは予め断っておくが、上下の感覚、そして音源との距離感を感じる非常に精度の高さを感じさせる仕上がりとなっていた。 (左上)バイノーラル再生:HRTF (Head Related Transfer Function)を用いたヘッドホン再生。(右上)Shape-based Average HRTF (下)HRTFの特徴となる帯域の特性補正による音質改善・定位強調 ● 定位と音質のトレードオフ ● 使用するコンテンツ・シーンに応じて最適チューニング 開発メンバーも個人ごとにHRTFを自分の3Dスキャンから簡単に生成できるようになれば、それこそが究極のバイノーラルとなるという概念は理解をしているが、あくまでもヘッドフォンでの再生を前提とすると、ヘッドフォン自体の装着具合によってもその音像は大きく異なったものになってしまうという事実にも直面している。皆さんも体験したことがあるかもしれないが、ヘッドフォンを掛けるたびに起こるちょっとした緩みや軸のずれなどで、その周波数バランスやステレオ感は大きく変化してしまう。これがバイノーラル再生でも同じように生じるということだ。完璧と思われるプライベートHRTFを用いたとしてもヘッドフォンの特性や、装着の具合によりその効果が全く発揮できないことになるかもしれない、その部分についてもViRealは汎用性に注力し独自のHRTFにチューニングを重ねているということだ。   そして現状のViReal関連技術で唯一の製品化が行われているのがこのViReal for Headphonesである。その高性能なバイノーラル技術に目を付けたカプコンが「モンスターハンター:ワールド」で実装、ヘッドフォン出力に対してViReal for Headphonesの技術を用いているということだ。その実装に際して、エフェクトとしてのリアリティーを重視した独自のチューニングが行われている。この様に単純に物理特性を追い求めるだけではなく、エンターテイメントとしての要素にも応えることの出来る余地を残した技術であるということだ。これが別の内容のゲームタイトルであれば、また違ったアプローチがあったのではないかという言葉も印象的であった。 ViReal Tools/HOAだけではない広い汎用性を このViReal Toolsというカテゴリはソフトウェア群を指しているということだ。HOA用のエンコーダ、デコーダから、制作向けのプラグインまで様々な製品への活用が想定され開発が進められている。ViReal for Headphonesの技術を搭載したVSTプラグインや、ゲームへの実装のためのWwiseプラグインなどがその代表として挙げられる。これらは具体的に開発がかなり進んでいるということだ。   これらのツールはHOAをベースとした技術に特化したものではなく、広い汎用性を持ったアプリケーションとして開発が進んでいる。オブジェクトベースやチャンネルベースの音源は、一旦HOAに変換してからバイノーラルプロセスを踏むのではなく、直接バイノーラルプロセスへと送られ、オブジェクト、チャンネルといったフォーマットにとらわれることなく、すべてをバイノーラル音声として出力するようになっているということだ。そのためにオブジェクトベース、チャンネルベースそれぞれにバスを持たせ、制作手法に対して柔軟な使い勝手を持ったバイノーラルプロセッサーとしている。現時点ではViRealとしてのオブジェクトベースのツールも研究したいという考えもあるということだ、純国産のオールマイティーな3Dサウンドツールの誕生を楽しみに待ちたい。   最終目標は上記のようにどのようなフォーマットの音源が入力されてもという目標はあるが、ViReal for Headphones(VSTプラグイン)はチャンネルベースの入力を持ったものが先行して登場するのではないかということだ。そして制作ツールとしてXYZ軸のパンニングだけではなく、距離、3D空間内でのローテーションなど様々なツールを作っていくという想定もある。最終的な出力段にバイノーラライザーが入るバイノーラル再生環境、HOAエンコーダー、デコーダーとツールが共通の要素技術から作られ、さらにはヤマハやそれ以外のAVアンプ、音楽プレーヤー等のAppへとまさに制作環境で聴いているものがダイレクトに届けられる。ViRealの研究がそのようなビジョンを描ける一連の研究開発であるとあらためて感じた。取材冒頭でもあったのだが、入口から出口までの技術を一気通貫で作れるだけのパワーがヤマハにはあるという言葉があらためて思い返される。 トータルの立体音響技術であるViReal。現在進められている技術が具体的にどのポジションでの活用が考えられてものなのか、それらをワークフローに当てはめたのがこの図となる。入口から出口、そして制作用のツールと、まさにトータルにViReal技術がフォローしていることが分かる。 最後に、ViReal開発チームの皆さんに自分たちの作っているこのViRealがどのような形で活用されたら良いですか?という質問を投げかけると様々な視点の回答を得ることが出来た。一つは究極の高音質=高再現性を持ったサウンドを後世に残したいという意見。例えばオリンピックなどの世界的なイベントを8K等の高解像度の映像で残すという試みは行われているが、まさに空気感ともなるそのサウンドを残そうという取り組みはほとんど行われていない。サウンドの捉えられる空間というものをしっかりとアピールしてアーカイブする、ある種の使命感をも感じる未来像だ。   一方で挙げられたのはコンテンツ制作に活かしていって欲しいというコメント。ViRealはプラットフォームに偏らない高い再現性を持つバイノーラル技術である。制作ツールを充実させることで、現場とエンドユーザーの差異をなくすことの出来る技術でもあるということをこれからドンドンアピールしたい、そんな力強いメッセージも飛び出した。様々な機会でこのヤマハ ViRealという文字を目にすることも多くなるのではないだろうか、その際にはこの空間をキャプチャーする要素技術の結実を是非とも体験していただきたい。 *ViReal(バイリアル)は、ヤマハ株式会社の登録商標です。 *Danteは、Audinate Pty Ltdの商標です。 *Wwiseは、Audiokinetic Inc.の商標です。 *その他の文中の商品名、社名等はヤマハ株式会社や各社の  商標または登録商標です。     *ProceedMagazine 2018Spring号より転載
Tech
2018/09/04

VoIPはSMPTE ST-2110へ、そしてCloudワークフローはSaaSへ。 ~NAB 2018から近未来のトレンドを知る~

最新の技術、製品が集結するNAB 2018。会場における今年のキーワードはIPとCloudに集約される。SMPTE ST-2110がリリースされて初のNABとなる今回、その互換性を謳う多数のメーカーがIP SHOWCASEに集結し過去最大規模の展示が行われた。そして、制作系メーカーの集うSouth HallはCloudを活用したサービスが目白押し。国内ではまだまだ目にすることが少ないCloudを活用したワークフローだが、現地での展示はすでに2周目とも言える状況に突入していると感じさせる。注目の新製品、そしてキーワードとなるIP、CloudからRock oN独自のニッチな視点でピックアップした注目プロダクトを取り上げる。 世界中の放送関係者が注目するNAB アメリカ・ラスベガスで毎年4月に開催されるNAB SHOW。NAB = National Association of Broadcastということからも分かるように放送業界の一大イベント。次世代の放送規格、ファシリティー、最新技術などが展示会場だけで18万平方メートルという広大な会場に展開されている。これがどれくらいの広さかというと、幕張メッセが北の8~11ホールまで全部入れても7.2万平方メートルとなるため、ほぼその2.5倍の面積。なんと東京ドーム約4個分という広さ。その巨大な展示場に1700以上の出展者が集い、毎年4日間の会期に訪れる来場者数は10万人以上。個別のセッションも200以上が行われ活発な情報交換が行われる。   OTTが台頭してきている昨今、Broadcastのあり方自体が変質を始めているいま。その空気をいち早く、そして強く感じることができるのがNAB SHOWだ。世界の動向から何が求められているのか?どのようなワークフロー、そしてビジネスが展開されているのか?Network上の配信となるOTTは国境を超えて世界中に向けたコンテンツ発信をしており、制作のあり方もドメスティックなものから確実に変質を進めている。まさしくフロンティアを切り拓くための様々なヒントを機器、制作ワークフローから見ていきたい。 Full Line up発表に。多様性を得たAvid S6L VENUE時代よりライブサウンドの現場で活躍を続け、S6Lへと進化したあとも揺るぎない評価を得ていたAvid S6Lシリーズ。S6Lへと世代交代をしたことで大規模システム向けの製品のみとなり、従来のVENUEに用意されていたSC24グレードの中規模システムが熱望されていた。実際のところS3LとS6Lの間を埋める製品は存在していなかったのだが、NABの直前に連続して開催されているAVID Connect 2018で発表となったS6Lのコンパクトなラインナップは、まさにユーザーが待ち焦がれていた製品。コストを押さえ小規模なシステムにも対応可能なE6Lのミニマムモデル、各モジュールのディスプレイを廃止しコンパクトかつ低コストに設計されたS6L-16SC、S6L-24SC。コンパクトなStage Rackとして利用可能なStage 32とLocal I/Oとして活躍の場が考えられるLocal 8。すでにS6Lを所有しているユーザーであれば、コンソール、エンジン、I/Oと買い足すことで、現場に合わせて組合せは自由。 組合せが自由ということはプリセットデータの互換性も確保されているということ。I/Oのパッチを打ち直すだけで、規模感に合わせて柔軟な運用ができるということになる。そして、コストをおさえたシステムにおいてもS6Lの持てるパワーを十分に活用することができるのが今回のポイント。Pro Toolsと互換性のあるプラグインの活用、柔軟なシグナルルーティング、二重化された安定性の高いシステム、世界中の大規模コンサート、ツアー、フェスで鍛え上げられたS6Lが幅広い運用の可能性、多様性を持って生まれ変わる。 Cloudの活用は、制作の効率化に直結 Amazon Web Serviceのブース。Cloud Serviceのコアとなるサービスを展開する同社、パートナー企業がスタンドブースで様々なソリューションを提案していた。 Coludの活用と聞いて、どのようなワークフローを想像するだろうか?Dropboxに代表されるようなファイルの共有だろうか?もちろんこれもCLoud Storageという一つの技術である。しかし、世界はSaaS = Software as a Serviceへと大きく向かっている。ソフトウェア自体をCloud上で動かしてしまおう、そのようなシステム開発が最先端技術として次々と誕生しているわけだ。制作の分野においてもこれに違わず、例えばSaaSによりCloudへUploadされたデータは、編集用にTranscodeされたりProxyが生成されたりする。On Premiseのソフトウェアが行なっていた作業と同じことをCloud上で行なってしまおうということだ。   それらのServiceを管理運用するためのツールとしてAvidはAVID|On Demandの開発を進め、すでに稼働しているものとしてはtelestream社のVantageなど、様々なSoftwareが存在する。そしてサービスを提供するアプリケーションメーカーもCloud上で動作するということを積極的にアピールしているのが非常に印象的。そして、AWS = Amazon Web Service、Microsoft Azureと言ったCloud Computingを支える企業も大きなブースを出展している。これは、昨年のInterBEEでも見られた現象で、今後AvidのようにMicrosoftとの強いパートナーシップをアピールしている企業はもちろんPaaS(Platform as a Service)への展開も考えているのではないだろうか。そのMicrosoftの推し進めるAzureは、まさに次世代のWindowsとして開発が進められているサービスであると言えよう。PlatformメーカーであるMicrosoftにとってPaaSへと変貌を遂げた世界でもその中心にいるということは、まさに死活問題であると言えるからだ。MAM、PAMのソフトウェアを開発しているメーカーも同じだ。これまでのOn Premiseでのサービスが、SaaSに移行することでユーザーが再度サービスの選択の機会を得ることとなる。そこでより優れたサービスを提供できなければユーザーが離れてしまうということに直結する。 SONYもWorkflowの紹介としてOn PremiseとCloudのインテグレーションで実現できるソリューションを展開。 SaaSの最大のメリットはOn Premiseで問題となるハードウェア・メンテナンスから解放されること。そして、サービス自体をCloud上で複数のユーザーが共有するのであれば、ソフトウェアメンテナンスは提供するメーカー側が一手に引き受けることとなる。分かりやすく言えば、Cloud Serviceの動いているサーバー上のソフトウェアを更新すれば、そのサービスを受けるすべてのユーザーのソフトウェア・サービスがアップデートされるということだ。各クライアントマシンに一つづつアップデートパッチを当てて回る必要は無くなる。この様なSaaSはいま映像編集分野で目覚ましい進化を遂げている。すでにクライアント側でMAMサービスによりブラウズした素材を共有、コメントの添付、レーティングの付与、そして、簡易編集までがサービスとして存在している。On Premiseで実現できていたサービスは、基本的にはI/Oの変更でSaaS対応のソフトウェアへと変貌できる可能性を持っている。   Cloudによる効率化は、すでに皆さんが使用しているスマホ向けサービスで実感済みではないだろうか。意識せずともCloud経由で何かしらのデータをPCや他のスマホと共有したりしているはずである。同様にSaaSにより提供されるサービスもすでに身近に存在してる。例えば、メールの迷惑メールフィルターやGoogleなどにより提供される各種サービス、さらに言えば検索エンジン等はデータベースはCloud上にあるということを考えれば立派なSaaSである。例えば、日々の制作作業におけるツールが、これらの便利に日常で使っているツールのように形を変えたらどのような未来を皆さんは描くだろう?   Cloud上で簡易編集をしたものはもちろん共有可能。編集を行う方もどこにいても作業可能。クライアントへの確認作業もネットワークに接続できる環境さえあれば、どこからでも確認することが出来るようになる。しかも、特別なアプリケーションを使うのではなくブラウザからパスワードを入力して、そのサービスへどこからでもアクセスできるようにするのが現在のトレンドである。ポストプロダクションの本当の働き方改革はこの様なサービスが実現して初めて本来の姿が見えるようになるのではないだろうか。このように編集したデータはEDL、XMLなど汎用性を持ったデータでポストプロダクションのシステムへ展開が可能。現在のサービスでは最終的な編集作業をポストプロで行うという部分はSaaSへ移行できていない。しかし、各社この部分もCloud化しようという動きを積極的に進めている。フル機能のNLEがCloud上で動作する日はそう遠くないのかもしれない。 需要の高いAMAZON S3サービス100%互換を謳うWASABI。低コストで同等のサービスが得られるという提案を行う新しい会社。 従来よりCloudへと舵を切っているAVIDは、AVID On Demandという新しいトータルソリューションのネーミングを発表。これまでのCloudソリューションの拡充に力を入れている。 ユーザー同士をつなぎ合わせる様々なサービスを提供するsohonet。FTP,VPNなど既存のサービスをセキュアにコラボレーターに提供する。ミニマムなCloudサービスの提案。 On Premiseの作業はなくならない? 制作作業において、セキュリティーの問題は非常にプライオリティーの高いもの。そのため、Cloudが主流だといってもセキュリティー上で有利なOn Premiseにこだわる、ということは当たり前のように行われている。その一方でOn PremiseでのサービスとCloud上でのサービスを統合するような技術の開発も積極的に進められている、ユーザーはデータが自社内のサーバーにあるのか、クラウド上にあるのかを意識することなく作業が行える環境を提供しようということだ。ストレージにおいては、速度=Bandwithに応じてTeirを区別しデータを管理するツール、そしてそのような機能を統合したサーバー製品が登場し始めている。他にもアクセス頻度などによ り、自動的にCloudとOn Premiseのデータを管理する事ができるシステムも登場している。やはり、ネットワークが高速になっているとはいえ4Kや8kと言った巨大なデータをハンドリングすることは難しいのだが、頻度の低いデータがCloudに格納されるということは、バックアップも基本的には必要ないということになり、このような仕組みはこれからも発展していくものと思われる。そして、Cloudデータを取扱うデータセンターは、何重にも渡るセキュリティーとデータセキュアの対策が行われている。これは、On Premiseでは到底真似することの出来ないものであると言えるだろう。 VoIP規格SMPTE ST-2110は次世代のスタンダードとなるべく着実に進化 開発の年表。中央の赤いラインがNAB 2018時点。ST-2110はまさに生まれたての規格だが、すでに次のST-2110 nn+と呼ばれる圧縮コーデックを実装する準備が進んでいることがわかる。 2017年9月に策定されたSMPTE ST-2110は業界にとって非常に大きなニュースとなっている。IBC 2017直後というタイミングではST-2110 Readyだった各メーカーが、このNAB2018ではIP SHOWCASEで実機をお互いに接続して展示、早くも規格への対応を果たし動作をしっかりと実証していたのが印象的であった。これまでのベースバンドであったST-2022から一歩踏み込み、オーディオ部分がAES67コンパチブルとなったST-2110。次のステップは圧縮映像の伝送ということで、非常に現実感を持った、従来のHD-SDIを置き換えるソリューションとして注目度も高く展開されていた。   ST-2110の導入により得られるメリットは多い。信号の分配器は必要なくなり、システム自体の二重化、1本のケーブルでの双方向通信、コントロール信号のやり取り、メタとして埋め込まれるカメラ情報など、映像と音声を同時に送れるということだけにとどまらない革新的なテクノロジーが詰まっている。映像、音声といった垣根を超えたシステムアップ、距離延長も光変換によりkmオーダーまで柔軟に対応と、まさに隙のない次世代の回線規格として練り込まれた格好だ。NAB 2018の会場では、ST-2110対応の各ブースにPOPが立ち、VoIP対応のアピールを行なっていた。感覚的にはハードウェア系メーカーの半分以上がこの規格へ対応を表明していたのではないだろうか。Junger、LAWOといったメーカーからはシグナルのステータスを確認できるモニタリングシステムが提案されたりと、すでに運用フェーズへ入っていることを感じさせる機器展示も見受けられる。2018年後半〜来年には、国内でもST-2110で組まれたシステムが登場するのではないだろうか。 AES67とST-2110両方に対応するメーカーは、この用意一覧として展示が行われていた。オーディオのメーカーだけではなく、映像のメーカーも散見されるのが特徴的。 ST-2110の音声部分であるAES67との相互関係。AES67のベーシック部分に、オプションとして記述されている部分を加えた部分をST-2110は包括している。 信号の安全性に関しても、積極的なアピールが展開。実際にケーブルを抜いても信号が途切れないという実機展示が行われていた。 音声、映像の同時送信ということで、そのアライメントに関してもシステムとして自動的に適正に補正する機能が備わっている。 音声同士に関しても同様にPTPを元に自動的に補正を加えるというテクノロジーが搭載されているためアライメントは問題にならない。 Cloud、SMPTE ST-2110とIT系の技術が制作系のソリューションの花形。まさに第4次産業革命が花開いていると言えるNAB 2018。アプリケーションが多いために、ハードウェアの展示が少なくなり、時代の移り変わりを強く感じる展示会であった。全てのシステムがNetworkで接続され、ベースバンドの伝送方法が、次の世代へと変わることを感じた。ワークフローも、効率化を求めるとCLoudを活用したソリューションへと向かう。On Premise、Cloud共に、派手な革新的な製品というよりはこれまでのソリューションをどの様に置き換えていくのか、着実に進化を遂げていることを感じる。今行なっている作業が共有できるとしたらどれほどの利便性、効率性を獲得できるのだろうか。ワークフローは未来へと着実に進んでいる。     *ProceedMagazine2018Spring号より転載
Tech
2018/09/04

Fraunhofer / MPEG-H~4K放送時代を担う、次世代オーディオコーデック~

昨年春、韓国ではATSC 3.0を採用した4K地上波でMPEG-H採用の音声がオンエア開始された。対応テレビも発売され、オリンピックという節目と歩調を合わすように4K放送時代の新しいフェーズが始まった格好だ。最大16trackのオーディオデータをパッケージするMPEG-H LC profile Level 3だが、世界各国で始まろうとしているその活用はどのような状況にあるのだろうか。本記事ではパーソナライズ、イマーシブというキーワードを携えてコンテンツに多様な柔軟性を与えるであろうMPEG-Hのいまを取り上げる。 ヨーロッパ最大の応用研究機関Fraunhofer 本記事のメインテーマとなるMPEG-Hを取り上げるにあたり、まずはその開発元であるFraunhoferについてを紹介していきたい。Fraunhoferはドイツに拠点を置くヨーロッパ最大の研究機関であり、ドイツ連邦政府からの資金を受けて社会に役立てるための実用的な応用研究開発を行っている。研究対象が実用技術の開発に特化しているため、民間企業から依頼される委託研究の比率が高く、一般的に考えられる研究所とは趣きが異なるようだ。Fraunhoferには、およそ25000名以上のスタッフが在籍していて、そのほとんどが研究者。その総研究開発費は23億ユーロにも及び、そのうち19億ユーロが先のように企業からの研究依頼費によってまかなわれている。この事実からもFraunhoferの技術開発がいかに民間企業を通じて実際の社会で活用されているか、端的に言えばビジネスとしても成立する応用技術を生み出しているか、ということがわかる。また、ドイツではFraunhoferとは別に要素技術の開発を専門とする機関も存在している。昨今盛んに産学連携ということが言われているが、Fraunhoferはその先鞭を付けた先駆者であり成功者でもある。   Fraunhoferはドイツ国内に72もの研究所を持つ。これらの研究所は基本的にはそれぞれが独自の研究を行なっている。研究分野は多岐にわたり、ライフサイエンスから、ナノテク、材料、防衛技術までほぼすべての分野を網羅していると言ってもよい内容だ。もともとの起こりは別々にあった研究所がFraunhoferの旗のもとに集まって現在72拠点という巨大研究機関に成長していった。そして今回ご紹介するMPEG-Hの研究を行なっているのがFraunhofer IIS(集積回路研究所)であり、そのAudio Businessグループがこの研究にあたっている。 パーソナライズとイマーシブ、MPEG-Hのキーワード このFraunhofer IISの成果として一番身近なものは、なんといってもmp3であろう。すでに配信用のオーディオコーデックとしては定番中の定番。使ったことのない方はいないのではないかというコーデックとなる。それ以外にAACもこの研究所発信の技術。そして次世代のオーディオコーデックとして登場したのがMPEG-Hとなる。すでにmp3、AACを搭載した機器は100億台以上が出荷されているということだ。この技術の系譜を持つMPEG-Hも高い汎用性を持ち、次世代を担うコーデックとして開発が行われている。プレゼン資料の冒頭にある「The New Standard for Parsonalized and Immerrsive Audio」という言葉が、MPEG-Hの全貌を表している。パーソナライズ、そしてイマーシブ。今後ユーザーの要望が高まると考えられる2つのキーワードをフォローした新しいコーデックであるからだ。   MPEG-Hはパーソナライズと、イマーシブという2つの特徴を併せ持つ。ここではそれぞれに対して個別に話を進めていく。この2つの要素は、密接な関係を持ちながら、ソース、ニーズなど様々な要素により柔軟に形を変えて運用が可能となるように考えられ作り上げられている。その2つの要素を実現するため、現状のMPEG-H LC profile Level 3では最大16trackのオーディオデータをパッケージとして準備する。そのうち1つのトラックはメタデータとなり、実使用可能なオーディオは15trackとなる。そこに入れることのできるデータは従来と同様のチャンネルベース・オーディオ(ステレオ、5.1ch等)、オブジェクト・オーディオ、シーンベース・オーディオ(HOA)を収めることができる。その組合せは自由であり今後チャンネル数の拡張も予定されている。これは、インフラに併せて変化することになるということだ。   チャンネル、オブジェクト、シーンすべてを取り扱えるということでインタラクティブな活用=パーソナライズも、イマーシブな活用(オブジェクト、HOA)も、さらにどの様なデバイスであっても、視聴環境に何本のスピーカーがあるかといった環境の違いにも柔軟に対応が可能なように作られている。やはりこれまで、市場の中心となるコーデックを開発してきたR&D能力の高さをここに感じずにはいられない。出来うる限り汎用性を高く確保し、どのようなケースにおいてもユーザーが楽しむことを前提にした技術。これこそがFraunhoferの真骨頂と言えるだろう。 パーソナライズされたMPEG-Hの活用法 それでは、実例に沿ってこのMPEG-Hの活用例を確認していきたい。パーソナライズという面では、すでに韓国でATSC 3.0を採用した4K地上波で運用が始まっている。放送におけるパーソナライズはどのようなものかというと、例えばスポーツ中継でアナウンサーの声を大きく聴く(Dialogue Enhancement)、消す、多言語で試聴をする、といったことを実現する。TVの視聴者が電波で送られてきたオーディオのバランスを調整できるということだ。   これを実現するのがオブジェクト・オーディオとなる。これまでにご紹介してきたオブジェクト・オーデイオは、位置情報を持ったオーディオでしたが、MPEG-Hではこれに加えて、例えば多言語放送であれば、オブジェクト・オーディオそれぞれに「何の言語か」という情報をメタとして持たせ、ユーザーがそれを選択できるようにしている。オブジェクト・オーディオへ位置情報を付加する代わりに、どの様なコンテンツが格納されているか?というメタデータを持たせるわけだ。ベースとなるチャンネルベースの音声に対しても、バランスの変更やチャンネルの排他選択、またデフォルトのバランスはどのようなものかをプリセットとして送出する。さらに例をあげれば、別プリセットとして言葉の聴こえやすいバランスをDialogue Enhancementとしてプリセット作成するなど、多様な活用方法が行えるようになっている。   これらの選択画面は、TV側でメタデータトラックから得た情報により表示を行なっている。そして拡張メニューで個別のオブジェクトトラックを自由にバランスすることも出来るような仕様になっている。一般のユーザーが普通に使う分にはプリセットを切り替えるだけの簡易な操作で、こだわっての音声を楽しみたいユーザーはオブジェクト・トラックごとのバランスを自由に取ることができる。まさにインタラクティブであり、パーソナライズされた次世代のTV音声技術であるということが分かる。 柔軟性を高く持たせたイマーシブ対応 そして、もう一つのキーワードとなるイマーシブ対応だが、MPEG-Hのオブジェクトトラックは位置情報を持ち、3D空間に自由に定位させることのできるオブジェクト・オーディオとして設定することも可能である。HOA=Higher Order Ambisonicsとの組合せも、チャンネルベースのベッド・トラックとの組合せも自由。現時点では16track(実質15track)というチャンネル制限はあるが、今後拡張されることで柔軟な運用、そして制作フォーマットにとらわれない汎用性の高いコーデックとなるだろう。スピーカー配置も多くのプリセットを持つということで、この部分に関しても柔軟性を高く持たせており汎用性の確保に苦心がみられる。   NAB2018ではFraunhoferブースにサウンドバーのリファレンスモデルが展示され、イマーシブ・オーディオ再生の最大の障壁となるスピーカー配置に対しての回答も用意されていた。テレビの手前にサウンドバーを設置することでイマーシブ・オーディオの再現が行えるシステムはこれまでにもあったが、さすがはFraunhoferと唸らせる非常にきれいな広がりを持つサラウンド空間が再現され、しかも視聴エリアの拡張に注力したというコメント通りスイートスポットを離れた際でも十分なサラウンド方向からのサウンドを体感することができた。Fraunhoferでは製品としてのサウンドバーを製造するつもりはなく、あくまでもリファレンス・デザインを提示してメーカーにその技術を利用した製品を設計製造をしてもらいたいということ。残念ながらサウンドを聴くことは出来なかったが、NAB2018の会場にはSENNHEISERが作ったサウンドバーのプロトタイプも持ち込まれていた。 各社でも製品化対応が進んでいる このようにMPEG-Hは非常に多岐にわたる次世代のコンテンツを網羅した技術である。それでは、そのMPEG-Hの制作方法はどのようになっているのだろうか?パーソナライズをターゲットとしたBroadcast Systemではリアルタイムにメタデータを生成する必要がある。すでにSDI Embeded Audio信号に対してリアルタイムにメタデータを付加する製品が数社から登場している。その代表がFraunhoferと同じドイツメーカーで、シグナルプロセッサーを多数製品化するJunger Audioの製品。ここでメタデータを付加したSDI信号は、送出段でMPEG-TSへと変換され電波として送り出される。そのメタデータはGUI上で分かりやすく設定が行なうことができ、すでに運用の始まっている規格であるということを感じさせるものだ。   もう一つのイマーシブ対応に関しては、プロダクションを前提としたシステムとなる。さすがにライブプロダクションでのイマーシブサウンドは固定したフォーマットであれば可能だが、作り込みを前提とすればプロダクションシステムということになる。すでにPro Tools上で動作するNEW AUDIO TECHNOLOGY社のSPATIAL AUDIO DESIGNER=SADというプラグインからMPEG-Hのメタデータが出力可能というデモンストレーションが行われている。現時点ではHP上にMPEG-H対応の文字が見られないためベータ版と思われるが、着実にプロダクションシステムも完成に近づいていることがわかる。SAD上にOffline Export Toolが用意されメタデータ込みのMulti-Channel WAV、もしくはメタデータのみの書き出しが可能となっている。このようにして書き出したWAVとVideo Fileをマージすることで完パケデータが作成できる。ファイルの動画コンテナとしては.mp4が使われ、送出段としてはMPEG-TSとなる。これらも、現状のシステムファシリティーを有効活用できるように変更を最低限とした結果と考えられる。 マルチリンガルコンテンツのMPEG-Hのメタデータ設定の一例、このようにオブジェクトを活用する。 ATSC 3.0そしてDVBという放送規格を策定する団体での採用も決まり、韓国では2017年5月31日よりMPEG-H採用の音声が地上波でオンエアされている。2018年Winter Olympic Gameでも韓国国内ではMPEG-Hでの放送が行われたということ。市販のTVもLG、SAMSUNGの2社からMPEG-H対応TVもすでにリリースされている。ATSC諸国(北米及び韓国)DVB諸国(ヨーロッパ、中東、アジア)の各国がMPEG-Hを採用していくのか今後の動向は注目となる。すでに実運用を開始した国があるということは、その普及に向けた大きなステップになっているはず、4K放送にまつわるニュースでも今後MPEG-Hという文字が盛んに取り上げられるに違いない。 この記事を執筆にあたりお話を伺った、フラウンホーファーIIS, 日本代表 ナワビ・ファヒム (Fahim Nawabi)氏     *ProceedMagazine2018Spring号より転載
Tech
2018/09/04

ゼロから飛び込むVR音響世界~VRとは一体何者なのか!?~

ゼロから飛び込むVR音響世界、VRの音響に関して話を進める前に、まずはVRとは一体どういったものなのか?VRを取り巻く現状、そしてそれぞれに異なる進化を始める各分野、そういった周辺の情報も含めた、いま置かれているVRコンテンツ制作の現状を振り返りそれぞれに対してのアプローチを掘り下げていきたい。 VRはいま黎明期を脱しようとしている まず話をしておきたいのは、仕事としてのVR制作の現状はどのような状況にあるのか?という点。VRという言葉を非常に多く目にする今日このごろだが、皆さんの周りにどれくらいVRの音響制作をしたという方がいるだろうか?全体の市場の盛り上がりに対して音響市場はどうなっているのだろうか?これらは感覚的なものではあるが、そこに温度差を感じている方は多いのではないだろうか?   実際の世界規模におけるVR関連市場の統計と今後の予測だが、2016年のVR市場は$1.8B=18億ドル、日本円にしたら2000億円強といったところだろうか。2017年は$3.7B=37億ドル=4000億円強と倍増、2018年には$9.0B、2019年、2020年と倍増を続けるという見通しもある。そして、現時点ではハードウェアの伸びに対してソフトウェアが大きく伸びているという特徴がある、つまりこれまでの市場はハードウェア先行でコンテンツ制作はこれからというのが実情のようだ。そう考えると、街中でVRという文字を多く見かけても、コンテンツ制作としてのVR音響はまだ一般的な実感を伴っていない初期段階にあるのかもしれない。   しかし、黎明期よりソフトウェアの制作を行なってきたクリエイターたちにとっては、まさに今年は第2フェーズへと移行していく年とも言える。2017年には売上額が1億円を超えたソフトウェア・タイトルが10作品以上誕生し、アカデミー賞でも特別業績賞がVR短編作品の監督に贈られたりとソフトウェア制作の市場もしっかりとした足跡を残し始めている。この一方でベンチャー的に制作を行なってきた会社からスピンアウトして2歩目を踏みだした制作者が、今年さらなる成果を上げるのではないかと言われている。試行錯誤を続け、VRにおけるコンテンツのあり方というものを手探りしてきた段階から、ある一定のメソッドを見出しさらに新しいことへの挑戦が始まっている。実験的な段階から、応用段階へとフェーズが移行しているのが現時点だ。   我々を取り巻く環境を見ても、VRの視聴環境はPS VRをはじめ非常に身近なものとして興味さえあればすぐに手に入れられる状況となっている。VR元年と言われた2016年には、一部のガジェット好きのおもちゃであったVRが一般ユーザーにも受け入れられる製品になってきていることは皆さんも感じているのではないだろうか?VRを活用したアミューズメント施設が各地に作られ、新しい刺激的な体験を提供することに成功している。Amazon / IKEAなどではARを活用した新しいショッピングの提案が行われたりもしている。そして、AppleはiOSのアップデートでAR Kitと呼ばれるAR支援機能を実装してきている。開発環境、視聴環境、それらが一般的なものとしてどんどんと身近なものになってきているのは間違いのないことだ。 Cinematic VR / Intaractive VR 「VR」と一口に言われているものも、その実態は様々である。ここではその分類をしっかりと行なっていきたい。   まずは、VR=Virtual Reality。これはその名の通りユーザーを仮想現実空間にいざなうもの。VRゴーグルを装着し、全天周映像の中へと飛び込むFull-Diveと言われるものだ。映像作品であればその物語のストーリーの中へ飛び込み、登場人物(キャラクター)と時間を共有するようなコンテンツが作られる。もう一つVRが非常に大きな広がりを見せている分野がゲームである。ゲームはそもそもが仮想の世界。その中でユーザーはキャラクターを操作して楽しむもの。その仮想の世界へ没入させることができるVRはまさにゲーム向きのシステムであるとも言える。キャラクターの目線(一人称視点)で仮想世界を旅する、ゲーム開発者が一つの到達点としていた世界観を実現できるデバイスとなる。   VRで知っておきたいのが、映像作品としてのVRとゲームにおけるVRは全く制作手法が異なるということだ。映像作品は、Cinematic VRと呼ばれ、当たり前だがユーザーがプレイボタンを押した瞬間から時間軸は強制的に進行して行く。まさにVR世界に飛び込んだユーザーがその時間軸を映像の中で共有していくということになる。一方のゲームは、ユーザーが操作をしなければ何も起こらない。ユーザーのトリガーによってストーリーは進行していくこととなる。ゲームはIntaractive(インタラクティブ) VRと呼ばれる分野だ。CInematic VRは従来の映像コンテンツの制作手法の延長線上にあるが、Intaractive VRはゲーム制作の延長線上にあるコンテンツということになる。   これまでにも様々な実験的な作品が作られてきている。特にCinematic VRの分野は新しい映像表現ということで注目を集めて数々の試みが行われ、どのような世界へユーザーをいざない、どのような体験をさせることで魅力的なコンテンツとなるのか?ということが試されてきている。その試みの中で、従来のストーリーボード、絵コンテは通用しないということがはっきりと分かっている。なぜなら、Cinematic VRではユーザーがどちらを向くのかわからないからだ。   従来の映像コンテンツは見せたいもの、見てもらいたいものをクローズアップしたり、様々な手法によって固定された画面に見せたいものだけを映すことができた。そのカット編集により、ストーリーを効果的に展開することもできる。Cinematic VRではこれまでのような矢継ぎ早のカット切替は没入感の阻害でしかなく、しかも全天周の映像の中では、見てもらいたいものを常に正面に置いても、ユーザーがそれを見ているとは限らない。ストーリーの展開に必要な出来事が視聴するユーザーの視界の外で起こってしまうかもしれないのだ。   そうなると全く新しい映像が必要となる。最近のCinematic VRのStory-tellingのプレゼンテーションで盛んに言われているのが「視聴者に体験をさせる」ということ。これまで物語を分かりやすく「見せる」ということが重視されてきたが、VRゴーグルを掛け、その世界へ没入してきたユーザーを観客ではなく登場人物の一人として扱うことが重要だという発想だ。さらには、ユーザーに孤独感を感じさせない演出も大切だとも言われている。意図的にそのコンテンツを視聴しているユーザーが孤独?これこそがイマーシブ=没入型コンテンツの核心に触れる部分だと感じているのだが、そのコンテンツの世界にFull-Diveしたユーザーはその世界の中の人物として周囲の登場人物と距離感を持つ。それが全く無視されたようなコンテンツでは、せっかく没入しているユーザーがただの観客となり、疎外感を感じ、コンテンツ自体に対しての興味を失ったりといったことが起こってしまう。   つまり、その世界に受け入れられることで更に没入感を高め、そこで起きている物語へ入り込めるのかどうか、ということだ。実写VRが難しいと言われているのはまさにこの部分。その空間で起こっていることを共有することは出来ても、よほど意図的にユーザーを引き込むような演出がなされない限り、ユーザーはただの観客になってしまい、シラけた疎外感に囚われてしまう。よほど美しい風景だとしても、半強制的に長回しで見せ続けられれば苦痛になる。Cinematicはインタラクティブではないため、場面の切り替わりはユーザーが意図的に行えるものではなく、時間の経過を待つしか無いためである。   片や、Intaractive VRは完全にこれまでのゲーム制作手法の延長線上にある。これまで表現しきれなかった部分、さらに没入感を高めたいと制作者があの手この手を使い工夫を凝らしてきた部分。それらが理想的な形でVR世界の中で表現される。もともと、ユーザーがどちらを向くのかわからない、どの様なタイミングでイベントが起こりストーリーが進行するのかわからない、プログラムされた世界の中でフラグを立ててそのすべてがユーザーの手によるトリガーに委ねられる。また、ゲーム制作者以外がIntaractive VRを作ろうとすると、ゲームを作る時と同じ作業を行わなければならないという事実にも直面する。具体的にはUnrealやUnityと呼ばれるゲームエンジンを利用することになるためだ。 さらに進むVR分野、AR / MR 次にAR=Augument Reality、拡張現実と呼ばれるもの。これは現実の世界にCGなどで実際に存在していないものを映し出す。Google GrassやEPSONのET-300シリーズなどがその代表、身近なところではポケモンGo!もARを使用した一般的な事例だ。ARはコンテンツ制作というところからは離れるものがほとんどだが、様々な分野ですでに実用が始まっている。例えば、工場のラインでARを使ったマニュアルを映し出しミスを防ぐ、IKEAでは家具をARで映し出し購入した後のインテリアの様子を表示させる、他にも道案内のラインを表示させたりなど、すでにその事例は数多い。AppleがiOSに実装したAR Kitはこれらのアプリケーション開発を促進するためのものだ。しかし、ARの分野は現実の世界ありきのものばかりなので、音響の入り込む余地はほぼないと言える。あったとしても警告音等の効果音止まりというのがほとんどである。   そして、いま最先端のVR分野とされるのがMR=Mixed Reality、複合現実と呼ばれるものだ。ぱっと見た目にはARと同じように感じるかもしれないが、現実世界へ単純に仮想物体をオーバーレイ表示するARとは違い、現実世界の物をベースに仮想世界を重ね合わせる。Microsoft HoloLensのプロモーションビデオを見るとそのイメージもよく伝わるのではないだろうか、ホログラムを現実世界に登場させる、ということだけではなくそれが現実世界とのインタラクティブな関係に成り立っていることが見てとれるはずだ。AR Glassと違い、MR Glassにはカメラがついていて周りの状況を認識している。その現実世界に合わせて仮想現実をオーバーレイしていく、さらにカメラでユーザーのジェスチャーを認識して操作を行ったりということも目指している。まさにアニメやSFの世界である。このMRはITのリーディングカンパニーであるMicrosoftが総力を上げて開発を進めている最先端技術の一つ。そして、その対抗馬と見られているのがStart Up(これまでにない技術を開発するベンチャー)として高い注目を集めているMagic Leap。この会社は開発構想のプレゼンですでに2000億円もの資金調達に成功し、製品のプロトタイプを発表している。MRはそのイメージプレゼンを見ると非常に未来的。実用的なものからインタラクティブなものまで様々な活用が想定されるMR、この分野では重ね合わせたMRの現実性を高めるためにサウンドも重要な要素となるだろう。 AmbisonicsによるVR音声の実現は身近にある VRと一言でまとめても様々な分野に跨っているということを整理したところで、やはり導入編としては、コンテンツのクオリティー確保という意味では未だに高いハードルはあるCinematic VRから話を進めたい。Cinematic VRのいちばん身近な視聴環境はなんといってもYoutube VRとFacebook 360ではないだろうか?スマホを装着する簡易的なVRゴーグルでコンテンツを視聴できるため、まだVRを試したことがない方は是非ともVRがどの様な世界なのか体験をしていただきたい。   まずは、これらのコンテンツの映像部分に関して見ていきたい。音響制作をするにあたりどの様な映像に音声を付けていくのか?という要素は非常に重要なことである。Youtube VRもFacebook 360もEquirectangular(エクイレクタングラー)=正距円筒図法という方式で球体を平面に伸ばした動画を扱う。一見、世界地図でよく使われるメルカトル図法と似ているようだが、平面への引き伸ばし方法が異なるものだということを付け加えておく。大抵のVRカメラで撮影した動画は、カメラの内部でこのEquirectangular動画として記録されるか、付属のソフトウェア等でEquirectangularへと変換することが可能である。   音響制作としては、このEquirectangular動画にあわせてパンニングを行い音を配置していくこととなる。その配置された音をこのYoutube VR、Facebook 360の場合はAmbisonicsを呼ばれる音声フォーマットで書き出す、ともにVR再生時に試聴している向きに応じて追従する音声方式をAmbisonicsで実現しているわけだ。再現の正確性ということを考えればオブジェクト・オーディオで配置していきたいところだが、残念ながら現在それには対応していない。 1st Orderと呼ばれる最低限の方式となるが、たったの4chで全天球の音声を表現できるという点がAmbisonics音声の特徴。やはり4chということで、音像定位の正確性という部分に課題は残るものの、Internet Streamという制約の中での再生を考えればベストなチョイスということになるのだろう。Ambisonicsはチャンネル数を増やしたHOA=Higher Order Ambisoncisも作られ始めている。チャンネル数が増えることで定位の再現性が高まるが、チャンネル数も2nd Orderで9ch、3rd Orderで16チャンネルとそれなりのボリュームになってくる。 VRを実現するツール Pro Tools 12.8.2以降に付属するFacebook 360 Spatial Workstationの各画面。 ここまではモノラルソースの音声をVR動画=Equirectangular動画に合わせる手法を説明しているが、具体的なツールとしては、Pro ToolsにAudioEase社の360Pan Suiteを導入するというのが一般的。Pro ToolsのVideo Window上にオーバーレイで音をどの位置にパンニングしているのかが確認できる360Pan Suiteは、非常に直感的に視覚情報を使いながらのパンニングを行うことができる。ちなみに360 Panをプラグインとして挟むと、モノラルトラックのアウトプットは1st Orderであれば4chのAmbisonicsとして出力される。この出力されたAmbisonicsは特殊なデータということではなく通常のPCM Audioデータであるため、Pro Tools内部で音量バランスを取りミキシングを行うことが可能だ。Pro Tools 12.8.2以降のバージョンであれば、Facebook 360 Spatial Workstationと呼ばれるプラグインが無償で付属する。Video Window上でパンニングの位置を確認することはできないが、特に追加コストをかけることなくAmbisonicsミキシングが行える環境は整っているということになる。   DAW内でのミキシングの話をしたが、もちろんマイクでのAmbisonics収録についてもソリューションが存在する。SENNHEISERのAMBEO VR MICがその筆頭。SENNHEISERはAMBEOというブランドでイマーシブ・オーディオに対してのソリューションのブランディングを行なっている。AMBEO VR MICはその中でAmbisonics収録用のマイクということになる。このマイクで収録した音声は4chの普通の音声データであり、Ambisonic 1st Order A-formatと呼ばれるもの。このマイク出力そのままのデータとなるA-formatをAMBEO A-B フォーマットコンバータという無償プラグインでX,Y,Z,Wという4チャンネルにしたB-Formatに変換し、前述の360 PanやFaceBook360 Spartial WorkstationといったB-formatを用いたプラグインやDAWで扱っていく。   Musikmesse 2018ではRODEからNT-SF1と呼ばれるAmbisonics収録用のマイクも登場している。フィールドでのレコーディング用のレコーダーもZOOM F4/F8にはレコーダー内部でB-formatへ変換する機能とヘッドフォンモニターを行う機能が追加されている。通常のレコーダーの場合、それぞれのマイクヘッドの出力を確認することはできるが、単純にSUMして聴いてしまうと訳がわからなくなってしまいノイズチェック程度しか行えないというのが現状であったため、ZOOMの機能追加はAmbisonics収録の際に非常に重宝するだろう。このように毎年行われている各メーカーの新製品発表において、Ambisonicsというキーワードは益々その存在感を大きくしている状況だ。 今回はVR音響世界へゼロから飛び込むということで、まずVRとはどのようなものなのかを中心に進めさせていただいた。単純にAmbisonicsのミキシングを行うということ自体はそれほど難しいことではない。しかしそれが効果的なミキシングであるかどうかということになると、まだまだ試行錯誤をしなければならないのが現状である。そのためには映像が抱えている課題を知ることが重要であるだけでなく、VRコンテンツがユーザーにとって面白い、楽しいと思われるためにはどのようなコンテンツにするべきなのか、そういったメソッドを学ぶ必要があるのではないだろうか。     *ProceedMagazine2018Spring号より転載
10 / 11«...4567891011

Solution

Solution
制作環境を飛躍させる

Works

Works
システムの実例を知る

Brand

Brand
そのワークフローを実現する

主要取扱ブランドホームページ

リストに掲載がない製品につきましてもお気軽にご相談ください。

»問い合わせフォーム