Headline
Event
2025/09/01
【9/26開催】RTW Presents “TouchControl 5 Meets ATMOS” Vol.2 in 大阪 開催!
9/26(金) Rock oN 梅田にて、昨年も好評いただいたRTW TouchControl 5セミナーを開催します!
バージョン 2.0へのアップデートにより、オブジェクトスピーカーアレイやRTA、ダイアログ計測など、現代の放送・ポスプロ環境に合わせた更なるパワーアップを果たしたTouchControl 5。
本セミナーでは、Dolby Atmos 7.1.4環境を備えた梅田、UNLIMITED STUDIOにて、染谷氏が手がけた作品データを聴きながらのライブデモンストレーションも予定しています。
参加は無料!トークや質疑応答による学び、クリエイター同士の交流など、充実した時間をご用意しております!
イベント概要
日時:2025年9月26日(金)
OPEN:16:30 / START:17:00
会場:Rock oN 梅田店 大阪府大阪市北区芝田 1 丁目 4-14 芝田町ビル 6F
ナビゲーター:染谷和孝 氏(サウンドデザイナー)
参加費:無料
席数:30 ※応募が多数の際は抽選となる場合がございます。
協力:Rock oN 梅田店 / ROCK ON PRO
※席数が限られているため、応募が多数の際は抽選となる場合がございます。
お申し込みはこちら
RTW TouchControl 5
・Dante® Audio over IPネットワークを使用したモニタリング(RAVENNAモデルも新登場!)
・SPL測定とトークバック用にマイクロフォンを搭載
・プレミアムPPM、トゥルーピーク、VUのメーター表示
Ver 2.0 リリース!
・Dante®モデルにプラスしてRAVENNAモデルの登場によりAoIPを全方面からサポート
・オブジェクトスピーカーアレイに対応し多様なイマーシブモニタリングを実現
・RTA (リアルタイムアナライザー)、XYベクタースコープ、ラウドネスチャート、強化されたベースマネジメント、Dolby Atmos® Music Curveのキャリブレーションセッティングなど、現代のスタジオ環境に応える機能の多数追加
・シネマや配信動画のラウドネス計測にダイアログゲートが追加され、Netflix等の納品時に必要なダイアログ計測などが可能に。
製品情報の詳細は製品サイトをチェック
ナビゲーター:染谷和孝 氏
株式会社ソナ 制作技術部
サウンドデザイナー/リレコーディングミキサー
1963年東京生まれ。東京工学院専門学校卒業後、(株)ビクター青山スタジオ、(株)IMAGICA、(株)イメージスタジオ109、ソニーPCL株式会社を経て、2007年に(株)ダイマジックの7.1ch対応スタジオ、2014年には(株)ビー・ブルーのDolby Atmos対応スタジオの設立に参加。2020年に株式会社ソナ制作技術部に所属を移し、サウンドデザイナー/リレコーディングミキサーとして活動中。2006年よりAES(オーディオ・エンジニアリング・ソサエティー)「Audio for Games部門」のバイスチェアーを務める。また、2019年9月よりAES日本支部 広報理事を担当。
今年発売されたTouchMonitor 5の展示も行います。ぜひ奮ってご参加ください!
お申し込みはこちら
NEWS
2025/08/28
SSL Revival 4000 Analogue Signature Channel Strip 発売!
SSLより新製品、Revival 4000 Analogue Signature Channel Stripが発表されました!
SSL伝統の4000シリーズコンソールのトーンを実現する、1U、1chの高性能フルアナログ・チャンネル・ストリップです。
主な機能
マイクプリには、Jensenの入力トランスJT-115K-Eを搭載。オリジナルの4000Eチャンネルストリップに採用されていたものと同じコンポーネントで、透明感あるサウンドを実現。入力は+20 dB〜+70 dB の範囲で調整が可能で、極性反転、パッド、ライン入力機能が付属。
4000 Bコンソールのデザインを継承するディエッサーは、1ノブで歯擦音をピンポイントに調整する10:1レシオ、7 kHz帯のサイドチェイン・フィルターとなっている。
Ultimateを冠するダイナミクスセクションは、Eシリーズをフル機能で忠実に再現。ゲインリダクションの戻り方を定速とするリニアリリースモードや素早くコンプをかけるファストアタックモードを備え、時代を作った伝説的なサウンドを作り込める。
お馴染み4バンドEQセクションでは、伝統の4000E Brown Knobと、ジョージ・マーティンのAIRスタジオ用に開発されたEQ回路「242」通称、Black Knobを切り替え可能。広いカット&ブーストレンジや18dB/OctのHPFとなるBlack knobモードではタイトなローエンドを得られる。また、ダイナミクスとDe-EssをEQの後段で処理するポストEQオプションも搭載する。
製品情報
Solid State Logic / Revival 4000 Analogue Signature Channel Strip
価格:¥297,000 (税抜 ¥270,000)
発売日:2025年9月8日
Rock oN Line eStoreでのご予約・ご注文はこちら
The Town Houseでのピーターガブリエル作品などから現代SSLの礎となったSL4000B、Electric Lady、The Hit Factoryをはじめ世界中のスタジオを支えた説明不要のSL4000E、時代を作った2つのサウンドを手に入れましょう。本製品をはじめとした機材導入・デモのご相談はROCK ON PROまで!
Media
2025/08/19
NTT IOWN / 世界初のリアルタイム3D空間伝送実験
取材協力:NTT人間情報研究所
NTTが2030年ごろの実用化を目指し推し進める、次世代情報通信基盤「IOWN(Innovative Optical and Wireless Network) 」。あらゆる情報をもとに個と全体の最適化を図り、多様性を受容する豊かな社会の実現を掲げる構想だ。光を中心とした革新的な技術を活用し、従来のインフラの限界を超える高速・大容量通信や膨大な計算リソースを、端末も含めたネットワークおよび情報処理基盤として提供することを目的としている。
そのNTTが今回、大阪・関西万博のNTTパビリオンで挑んだのが、IOWNを活用した世界初のリアルタイム3D空間伝送実験である。この試みでは、夢洲に設置されたNTTパビリオンと吹田の万博記念公園をIOWNで接続。NTT研究所が独自に開発・保有する「動的3D空間伝送再現技術」と「触覚振動音場提示技術」により、Perfumeのパフォーマンスを“空間ごと”リアルタイムに伝送・再現するという、かつてない挑戦が行われた。これは、2025年の万博と1970年の電気通信館、二つの時代の万博会場を時間と空間の両方で接続し、まるで隣にいるかのような存在感の共有を可能にする未来のコミュニケーションを体現したものである。さらにこのパフォーマンスは、万博会期中、NTTパビリオンのZone 2にて来場者が“時間を超えて追体験”できるという仕組みとなっている。今回は、この世界初の実証実験を支えたNTT人間情報研究所の松元 崇裕氏、草深 宇翔氏、鈴木 督史氏に話を伺った。
📷左よりNTT人間情報研究所 松元 崇裕氏、草深 宇翔氏、鈴木 督史氏
NTTが創出する未来のコミュニケーション
大阪・関西万博にて、NTTパビリオンが体験テーマとして掲げるのは「Parallel Travel」。これは時空を旅する体験を意味し、IOWN技術によって物理的距離を超えた空間共有を実現し、互いに存在を感じ合う未来のコミュニケーションを提示するというもの。まさに近代日本において伝達技術の基盤と革新を担ってきたNTTならではのアプローチである。この壮大なテーマは、Zone 1からZone 3までの3つの建屋によって構成されるNTTパビリオン全体を通じて物語られる。本稿ではその中でも、未来のコミュニケーションの姿を示すZone 2での取り組みに焦点をあて、掘り下げていこう。
Rock oN(以下、R):今回のテーマである「Parallel Travel」の中における、Zone 2の位置付けについて教えてください。
松元:Zone 1では、過去から現在に至るまでのコミュニケーションの変遷を扱っています。しかし、我々は現代においてもまだ “どこか繋がりきらない” 部分が残っていると感じています。だからこそZone 2では、その限界を越えていくような、「未来のコミュニケーションとは何か?」という問いが大きな鍵になっています。
1970年の大阪万博でNTTは、映像の多元中継などの展示を行なっています。ではそこから時代を経てこの2025年では何が見せられるのだろうといった議論から始まりました。その中で、空間まるごと伝送する、そこにある五感(今回でいうと振動による触覚)を含めて、低遅延で相互に繋がるというのが未来のコミュニケーションとして描けるのではと考えました。
IOWN構想の中では、デジタルツインコンピューティング(DTC)にもあたる取り組みです。これは現実空間の写鏡としての「デジタルツイン」をバーチャル空間に存在させるという話で、これまでも渋谷の街並みをバーチャルで再現するといったプロジェクトはありました。これまでは、動きのない3Dデータや、現地の一部センシング情報のみを反映させる事例が主流でした。そうした中、私たちは点群技術を活用し、「動きそのもの」をバーチャル空間に伝送することに挑戦しています。さらに、振動をはじめとするこれまで扱われてこなかった多感覚情報の再現にも取り組んでいます。
R:そこで今回、それら技術を掛け合わせたリアルタイム3D空間伝送実験が企画されたということですね。今回の実験の中でも特に革新的な要素というのはどこにあたるのでしょうか?
松元:これまでもボリメトリックな3D測量を用いた配信などは各地で取り組まれてきましたが、そこでは数秒レベルでの遅延が発生しています。そこを今回我々は約100 msまで縮めようと取り組みました。遅延を考える際に面白いのが、圧縮すればデータ量が減るので細い回線でも速く送れるのですが、その分圧縮の時間が発生してしまうところです。そこで今回はIOWN APN(オールフォトニクス・ネットワーク)という大容量で安定した”最新の回線”を使用することによって、ほぼ非圧縮のデータをリアルタイムで伝送できました。遅延を100msまで抑えることで、配信では双方向の会話が成立しています。夢洲と吹田の距離でこの規模の3Dと振動情報をリアルタイム伝送するというのは初の試みと言っていいかと思います。
次世代コミュニケーション基盤、IOWN APN
今回、低遅延の長距離伝送を実現する基盤となったネットワーク技術が、IOWNを構成する主要技術の一つ、オールフォトニクス・ネットワーク(APN)である。ネットワークから端末まで、すべてにフォトニクスベースの技術を導入し、現在のエレクトロニクスベース技術では困難な、低消費電力、高速・大容量、低遅延・ゆらぎゼロの高品質な伝送を実現する。今回の実験では吹田ー夢洲間、直線距離にしておよそ20kmをAPNにて接続。映像や音声の情報を圧倒的な低遅延で伝送した。APNは既にNTTが実際にサービスとして提供を開始している技術でもあり、リモートプロダクションやライブ中継の他、産業やまちづくりでも運用が始まっている。
松元:今回使用したAPNは吹田市、万博記念公園の電気通信館跡地と夢洲の万博会場をほぼPeer to Peerで繋ぐような構成になっています。万博会場全体では他にもIOWNを用いた試みが実施されているので、会場では一度その中枢のラックを経由して、Zone 2まで接続しました。
R:今回実際に使用したAPN回線のスペックはどれほどですか?
鈴木:容量は100Gbpsです。その中で実際に使用したのはおおよそ25Gbps程になりました。伝送量や障害についてもポート単位で監視をしています。準備期間で設計を詰めていき、本番では問題が発生することもありませんでした。
R:APNの特徴として揺らぎのなさがありますよね。今回、振動伝送で使用されたDanteのレイテンシーを見てもまったくパケットの遅延量が変わらず安定していたのが驚きでした。しかも吹田ー夢洲間で遅延が約700μs、1msを切っているという。
松元:映像伝送やDanteは遅延にシビアですからね。ローカルで接続しているのとほぼ変わりがなく、ネットワークを跨ぐことによる問題も発生しないというのがAPNを使用して一番影響が大きかった部分かもしれません。点群はむしろ伝送の揺らぎよりも高密度化やノイズ除去といった処理の揺らぎの方が大きくなりました。
鈴木:映像チームからもこんなに安定した遠隔回線は無いと言っていただけました。大容量メディアの伝送でAPNは特に使い勝手が良いと思います。
R:長距離の伝送となりましたが、同期はどのように取られたのでしょうか。
鈴木:夢洲、吹田の両拠点にGPSのPTPグランドマスターを設置しました。他ではまず行わないことなのですが、今回3種類のPTPを扱っています。映像用のPTPv2、振動伝送するDante用のPTPv1に加えて、点群センサーであるLiDAR(Light Detection and Ranging)用のgPTPです。gPTPは殆ど自動車系でしか使われていないPTPなのですが、LiDARも同じく自動車のセンサーとして使用されているものなので製品の仕様上扱うことになりました。3種のPTPがそれぞれ混ざらないようにネットワークを設計するのはパズルの様でしたね。VLANでもPTPが流れてしまうとPTPモードのスイッチが止まってしまったりするので、回避させたりといったことをしています。またLiDAR自体は本来1台で使用する想定のものなので、それを複数台組み合わせる際に想定外の挙動をするといった苦労もありました。
点群による「動的3D空間伝送再現技術」
今回の伝送実験では、1970年大阪万博「電気通信館」跡地に設置された特設ステージでのパフォーマンスを計測・撮影し、膨大な3次元点群データおよび画像データを生成。それらをリアルタイムで伝送し、StereoCamによる映像と組み合わせることで、空間全体をまるごとキャプチャし、遠隔地に再現するという試みが行われた。点群データの取得に用いられるLiDARは、レーザー光を用いて物体の形状や距離を高精度に計測する技術であり、取得した情報は「点群データ」として3次元的に構成される。3D映像として目の前に立ち現れるパフォーマンスは、映像再生の域を超え、まさに「空間伝送」といえる臨場感を生み出す。
松元:点群センサーは3台のLiDARと1台の光学カメラを1セットとして、パフォーマンスのステージを取り囲むように7セット配置しました。演出面も考えて、前方に5台、後方に2台の構成をとっています。LiDARは回転式なので360度、光学カメラは水平70度ほどをカバーしているので、この配置でも全方向をキャプチャーすることができます。それでも他のカメラや振動用のトラッキングセンサーとの位置取りは難しく、シビアな調整の結果この配置となりました。取得するのが三次元の情報なので、現場合わせではまとまらないだろうと事前に3Dで配置図を起こして綿密に計画しています。
📷3台のLiDAR(Light Detection and Ranging)Camと1台の色彩用光学カメラを縦方向に組み合わせたシステム。カスタムのアルミフレームに装着されている。
鈴木:他のカメラやセンサーも基本は正面に置きたいものですから、映像カメラに映らない画角ギリギリまでセンサー位置を調整したりとせめぎ合いでしたね。
R:そこは通常のライブレコーディングの現場などでも頻発する問題ですね(笑)。点群センサーであるLiDARを3台1セットとしている理由はどこにあるのでしょうか?
松元:LiDARは1秒間に10回転しか回らないので1台だと10フレームしか情報がありません。それではダンスを撮影するには足りないので、縦に3台を連ねて時間的に回転を33ms、操作線でいうと120度ずつずらすことで1セットで1秒間30フレーム取得しています。ですのでPTP制御ができ、複数台でも干渉しない機種を選定しました。システム全体として、150万個の点を1秒間に30回取得しています。
鈴木:その分レンダリングは大変でした。1セットにつきゲーミングPCを1台用意して処理を行っています。
R:LiDARは台数を増やすほど高品質な点群が計測できるというものなのでしょうか?
松元:基本的にはそうなのですが、台数が増えるとノイズも増えるので単純に増やしたからといって見栄えの良いものになるわけではありません。なので各視点を合成する際にノイズ除去のアルゴリズムを入れ、ノイズを目立たなくしています。
R:ノイズの乗りやすさであったり、点群センサーにとって得意・不得意な対象があるのですか?
松元:暗い空間や急な明暗の変化にも対応ができる点は点群の強みだと思います。画像情報から処理するボリメトリックキャプチャーは、画像の特徴量が大きく変化するのに弱いので室内の固定された照明環境に使用がある程度制限されます。対してLiDARはレーザーによるデプス情報も加味するので、通常のカメラが撮れない暗い空間でも深さが取得できます。
またボリメトリックと比較すると、点群は密度が上がらない部分はあります。ボリメトリックに使用するカメラは高精細で台数も多いので、綺麗な3Dが取れます。画素数が2Kや4Kのカメラと比較するとLiDARはセンサーが128本しかありませんから、その分密度はどうしても落ちてしまいますね。ですがその分処理速度はLiDARの方が速いので、3Dと現実が双方向で繋がるリアルタイム性を求めている我々のプロジェクトではLiDARを採用しています。
R:伝送のための圧縮などは行なっていないのでしょうか?
松元:APNの伝送的には非圧縮伝送でも問題なかったのですが、受け側のI/Oの都合で軽い可逆圧縮をかけています。ここも専用ハードウェアを作成すれば将来的に非圧縮でも問題なくなる部分だと思いますね。
R:点群チームの皆さんは2024年にもチームPerfumeと協力しての空間伝送実験(2024年9月21日に実施された配信イベント「Perfume 25th & 20th Anniversary Live Performance “IMA IMA IMA” Powered by NTT」)を実施されています。今回の取り組みはその延長線上にあるものとお見受けしますが、前回の取り組みと比較して特に進歩した点についてお聞かせいただけますか。
松元:点群を使った研究開発自体は昨年より前、2022年から取り組んできました。初めたころはオフライン処理でもグニャグニャな3Dになるようなところから始まり、少しづつ精度を上げて今回の万博実証までたどり着いています。
鈴木:2024年春の時点でまだ第一弾システムが動いてなかったですからね。昨年のお盆ごろにGPUのパワーが足りないことに気づいて、松元さんと2人で全台交換したことをよく覚えています。
松元:そんな昨年の経験を踏まえて、センサー位置の修正や点群の密度、ノイズ除去処理などは今回でも向上しています。
鈴木:前回は点群センサーが5セットでしたね。視点数を増やしても成立するような工夫も施してより綺麗になりました。
松元:同期の部分も改善しています。前回はステレオ映像から点群に乗り換える際に2,3フレーム揺らぎが発生してしまっていたんですよ。Perfumeさんのダンスの時刻精度というのは凄いもので、そのズレもシビアに影響してくるので。遅延も9月時点で300ms弱あったところから1/3の100msまで縮められました。
R:約半年で1/3もの遅延量短縮は大きいですね!どのように実現されたのですか?
松元:合計200msの短縮となると、積み上がっていくものを一つずつですね。基本的にパラレルに処理しているので、一番ボトルネックになる箇所を突き止めてその処理を工夫したり並列化を増やしたりなどです。高密度化、ノイズ除去のフィルター処理にディープラーニングを活用しての高速化も図っています。
📷7セットの点群センサーそれぞれのデータを元に、一つの空間を形成する。それぞれの色は各センサーが担当している範囲を表している。実験段階のプレビューでは裸眼立体視モニターも使用された。
R:前回がYouTubeでの配信だったのに対し、今回はパビリオンの物理的な空間を使った空間伝送というのも大きな違いですよね。
松元:会場で点群を何に表示するかというのも試行錯誤したポイントです。今回最終的には偏光式の3D映像をLEDに出すという、3D映像の中でもプロジェクターよりはクッキリと見える方式となったのですが、そこまでに結構な紆余曲折がありまして。小型LEDを大量に吊り下げた特殊な装置で本当に三次元的に出すという案や、水を降らして水滴にプロジェクター投射する方法、バーサライタ(点滅するLEDを回転させることによる残像で図像を表示する装置)を多層に組み合わせる案から透過スクリーンなど色々と実験しました。デバイスとしては面白いのですが、コンテンツを流すとなると難しいものも多く、決まるまでが大変でしたね。今回採用したLED方式は、 一見すると一般的な3D方式ではあるのですが、LEDによる3Dは迫力が凄く、この方式を選んでよかったと思っています。
📷夢洲に設置された実際のディスプレイ。
振動「触覚振動音場提示技術」
点群による3Dデータと並行して伝送されたのが、触覚振動データである。演者の靴裏には加速度センサーが取り付けられ、ダンスの足踏みによって発生する振動を音声信号としてリアルタイムに検出。それと同時に、位置トラッキング用センサーによって取得された動きの情報も含め、夢洲側へと伝送された。音声信号の伝送にはDanteによる非圧縮伝送が採用されている。受信側の会場では、床下に埋め込まれた128個の振動子が、演者の動きに同期して振動を提示。視覚・聴覚・触覚が融合したマルチモーダルな空間伝送が達成された。
R:振動の伝送では、特製の加速度センサーモジュールを用いられたようですね。
草深:当初は舞台床にマイクを埋め込む方法で考えていたのですが、パフォーマンスの妨げになる可能性やメンテナンス性などの観点から、別案件で振動を取る際に使用していた加速度センサーモジュールを利用した経緯となります。片足につき1個のセンサーで、2個(1人分)を1chとしてモノラルミックスし、合計でモノラル3chの音声データを取得しました。センサーモジュールは足音としてよい振動データが取れるよう、取り付けの構造などの工夫がされています。
R:その振動データが、トラッキングによる位置情報を元に会場側で再生されるということですね。
草深:位置のトラッキングセンサーは2種類、ビジョンベースとマーカーベースのものを採用しました。マーカーは衣装の肩甲骨のあたりに一人あたり6個仕込んでいます。マーカーの方が精度やリアルタイム性は良いのですが、髪で隠れたりなどロストする可能性もあるので、骨格の動きを検出するビジョンベースと合わせて安定性を確保しています。
📷床裏に取り付けられた大小2種類の振動子。アンプから振動子までは128本のアナログケーブルで接続。振動子それぞれの特性、用途に合わせてバックヤードに設置されたYAMAHA QL5にてレベル、EQが調整され効果的な振動を提示する。ヒールの裏面には加速度センサーが取り付けられている。
R:夢洲へIOWNで送られてきた音声信号と位置情報はどのように展開するのでしょうか。
草深:吹田からは振動のモノラル3 系統を受け取り、そこに夢洲側でダンス以外の雷や花火といった映像のSE 音源に合わせた振動の1系統を加え、計4トラックとしています。それを128chの振動子にどうルーティングするか、トラッキング情報を元に会場側でどれだけの範囲を振動させるかを制御しています。全体振動や縦方向での推移など振動のパターンを切り替えて、大人数が一度に体験できるようコントロールしていました。位置情報を扱えるUnityにてルーティング処理自体を行うPythonを制御し、さらにMaxやAbleton LiveのOSCでUnityをコントロールするといったシステムです。
R:会場側の振動子は2種類使用されていますが、どういった使い分けなのでしょうか。
草深:広い空間の中でわかりやすさと質感をどう保たせるか、という観点から2種類の併用に行き着きました。大型の振動子では振動のインパクトが稼げるのですが、もこもことした振動になります。一方、小型の振動子ではヒールのカツカツとした感じなど振動のテクスチャ感が出せます。この2種類を異なる割合で組み合わせることで良い塩梅を探っていきました。振動子の機種自体は入手性やある程度の強さが出るものを加味して選んでいます。
R:計測した振動データはEQなどによって演出的に効果的になるよう調整がなされていますが、振動のミキシングというのはどういった観点から行なっていったのでしょうか。
草深:難しかったのは映像や音が流れている中でどう振動を作っていくかですね。単純に威力のある振動を出すだけでは映像 / コンテンツから受ける印象と合わないので、振動の質感の部分がコンテンツに合うように演出チーム含めて細かく調整を詰めていきました。
松元:会場の準備段階では、今回使用させていただくのが未発表の楽曲であったというのもあり、本番音量でのテストがなかなかできなかったんですよね。限られたリハの回数で合わせていったのは凄いなと。
草深:リハで来ていただいた代役の方と本人とでも加速度の出方というのが全然違うので、そこも大変でした。またダンスによっては上手く加速度が出なかったりもします。例えば足を着くにしても普通に着くと踵とつま先で2発鳴ってしまう。そのあたりは振動として良いものになるよう演出家さんと相談させていただき、ダンスの微調整をしていただくとともに我々のEQ側でも修正を行いました。
振動は当初、コンテンツの中で邪魔にならないのが最低ラインとして、そこからもっと良いものを作るにはどうすればいいかと考えていました。それが最終的には、足音の振動によるリズムなど単純に楽曲のベースやキックを足元から出すのとは違う、新しい体験が作り出せたのでよかったです。
R:足音は音楽の拍子と必ずしも一致するものではないですが、音響・映像と合わせて一つのコンテンツとしてまとまりのあるものになっていると感じました。点群側でも演出面での工夫は何かありましたか。
松元:点群はカメラなので動き等の制約はありませんでした。以前は照明によってカメラが耐えられない箇所があったのですが、今回はカラーマトリクスの計算などかなりRAWレベルで調整できるようにしたので遜色なく撮れていると思います。
R:照明も吹田と夢洲がリンクした、二つの空間を繋ぐ効果的な演出になっていましたよね。
松元:照明スタッフは夢洲側の1人だったのですが、APNで高速に繋がっているのでリアルタイムに遠隔地を操作してそのフィードバックを映像で確認するというオペレートが実現できていました。
📷万博のパビリオン内では、ダイバーシティの取り組みとして車椅子振動共有体験デバイスも運用されている。デバイス土台のピエゾセンサーで床の振動を検知、ケーブルで接続された小型の振動子を手元や体の部位に当てることで振動を体感できる。右は振動をコントロールするQL5。
IOWNとリアルタイム3D空間伝送が描く未来
R:今回の取り組みを踏まえて、空間伝送技術で実現できる未来像についてどうお考えでしょうか。
松元:今回のようにイベントやライブで使っていただける部分もありますが、ベーシックには世の中に起きている変化をバーチャル化してデジタイズするというのがこの技術のポイントです。車の動き、交差点の歩行者の動きなどの情報を時刻情報と共に周囲のデバイスに共有することで、車のセンサーだけでは得られない情報で事故を回避するなど、実世界でアプリケーション、デバイスでこれまでできなかったことをするというのがデジタルツインの本来的な使い方です。今回はエンタメに寄った実証でしたが、3Dデータを”見る”だけでなくシミュレーション等に利用するなど、応用の方にシフトして広げていきたいなという思いがあります。
鈴木:最終的には今回の技術を家で使いたい、体験したいという要望が出てくると思うんです。今回使用したLiDARカメラはすごく大掛かりですが、それをどう家庭の環境に導入するかというところに興味があります。いきなり家に持ってくるのは厳しいので、まずは現状からセットアップを省力化する、デバイスを小型化する、実用化に必要なスペックを見極めるなどといった箇所から進めていきます。また、地球規模的に見ると世の中はやっぱりモバイルを求めているので、IOWNのような通信をどうモバイル化するかに取り組んでいきたいです。
草深:振動としては、足音振動がどこで発生しているのかを感じる方向定位知覚をより発展させていくことにも興味があります。どこから足音が鳴ってどこへ消えていくのか、ということを研究していくと「気配」のようなものを感じることがあり、今回もSNSなどで一部の観客の方からはそういった反応が見られました。そこに最近活発なイマーシブのような空間側でも、コンテンツを押し広げていくような動きと振動を組み合わせていけば、新しい体験を考えることができるのではないでしょうか。
今回の実証実験は、パフォーマンスコンテンツの未来を超えて、多様な情報によって人と人をつなぐコミュニケーションの未来の一端を体感する機会となった。また、IOWN APNが持つ大容量・高安定性・低遅延という特長は、AoIP化が進む音響業界において求められる通信インフラの要件を確実に満たしており、近い将来、音声制作のあり方を大きく変えると予測される。さらに、IOWNを活用した新たな時代の情報通信は、制作現場にとどまらず、交通、都市、家庭など私たちの実生活の中でも活用が現実味を帯びつつあることを、今回の取り組みを通じて感じていただけただろう。
1970年の大阪万博において、NTT(当時の日本電信電話公社)は、会場と日本各地を結ぶ多元生中継や、ワイヤレステレホンなど、当時の最先端電気通信技術を紹介した。今やスマートフォンひとつで世界中の人々とビデオ通話が可能な時代となったことを思えば、今回の万博で示される「未来のコミュニケーション」が現実のものとなる日も決して遠くはない。
*ProceedMagazine2025号より転載
Broadcast
2025/08/11
TBSラジオ ニューイヤー駅伝中継事例 / 前橋から赤坂へ、公衆回線で行うリモートプロダクション
2025年元旦。毎年恒例のスポーツイベントとして、TBSラジオが全国に向け放送を行っている「新春スポーツスペシャル ニューイヤー駅伝」。ここで世界初となるフレッツ光回線による長距離多チャンネルDante伝送の実証実験が行われた。この実験は株式会社TBSラジオ、株式会社メディアプラットフォームラボ、そして弊社メディア・インテグレーションにより準備が進められたのだが、駅伝の中継拠点となる前橋と赤坂を繋ぐにあたり、フレッツ光という公衆回線を用いている点に大きな可能性がある。全国からの中継を簡潔に行えるよう取り組みされた様子をお届けしたい。
前橋ー赤坂間でリモートプロダクション
TBSラジオでは、毎年実施されるニューイヤー駅伝において、群馬県庁内に臨時のスタジオサブとアナウンスブースを設けてその中継を実施していた。ラジオの基本的な音声はテレビからのノイズマイクを含む10系統のステレオ音声。そこにラジオとして独自の実況、解説、リポートを加えて番組を制作していた格好だ。従来は仮設とはいえ、生放送に対応するラジオスタジオとサブコントロールを設営するために2tトラックで機材の搬入設置を行っていた。開催1週間前には設営が開始され、2名の技術スタッフが本番まで泊まりこみでその対応にあたるのが恒例であった。年末に技術スタッフが2名ホールドされること、ほかのスタッフをアサインすることも難しく、技術の継承がなかなかうまく行かないことなど課題は多かったという。そこで、前橋の現場機材は最低限に、赤坂のTBSラジオ本社スタジオを活用したリモートプロダクションが行えないか、ということからこの実証実験はスタートしている。
群馬県庁内ではテレビから分岐された音声を受け取りDanteへと変換、フレッツ光回線で赤坂のスタジオへと送るという構成が考案された。具体的には、群馬県庁内でテレビから提供される回線と、監督インタビューなどの回線が送られることとなる。もちろん、ダークファイバーを使うなど専用回線を使えば特段問題なく実現ができるということは想像に難くない。しかし今回の取組ではフレッツ光を活用するということに大きなチャレンジがある。地域IP網であるフレッツ網を活用することで、低コストにどこからでも中継を可能とするサービスにつなげることが狙いでもある。
今回の実験に参加している株式会社メディアプラットフォームラボ(MPL)はradikoにおける配信プラットフォームの提供、また次世代へ向けた開発を行っている会社である。radikoは全国99の民放ラジオ放送局とNHKラジオが聴けるインターネットサービスとして、月800万人を超えるユニークユーザーを誇る、まさに次世代のラジオサービスである。そのサービスを使ったことがある方ならご承知のとおり、画面上に出演者情報や放送されている楽曲の情報など、様々な付加情報サービスが提供されている。また、1週間以内の放送番組はタイムフリー視聴サービス(聴き逃し配信)もあり、それらのバックボーンとなる技術を開発提供しているのがMPL、言わばインターネット時代の放送基盤を作る会社だ。radikoとMPL では、放送基盤としての技術とともに、フレッツ網のサービスの一つであるNGN網を使って各ラジオ放送局間を結ぶ素材伝送ネットワークを運用している。従来は専用回線により接続されていた放送局間や放送局と中継拠点間のネットワークをNGN 網により構築されているということである。
公衆回線であっても低遅延で伝送を
地域IP網、フレッツ網、NGN網、聞き慣れない言葉が並んでしまったが、ここではこれらの解説をしておく。まずは、地域IP網。これは、IP電話により従来のアナログ回線による電話が置き換えられていった経緯を思い出していただきたい。アナログ回線による固定電話は電話番号を得るために当時で7万円程度の回線契約料金が必要であった。限られた資源である電話番号を占有して使用するための契約であったとも言えるだろう。これが徐々にIP化が進み、ISDN、ADSLといった技術のステップを経て、現在ではIP電話となっている。あまり大きなニュースにはなっていないが、日本国内でのアナログ回線による固定電話のサービスは2024年に終了しており、いま使われている固定電話はすべてIP電話によるサービスの提供となっている。
このIP電話の基幹となるネットワークが地域IP網である。登場した当初は、NTT内部の電話局間を結ぶクローズドなネットワークであったが、一般家庭との接続にも使われるようになり、さらにISP=Internet Service Providerとの接続を解放したことによって、一般家庭からのインターネット接続に使われるようになる。このインターネット接続が可能になった際に、サービス名称として「フレッツ」と名付けられた。フレッツ・ISDN、フレッツ・ADSLとは、まさに地域IP網がISDN、ADSLを介してインターネットへ接続されるサービスであったということだ。地域都道府県ごとのクローズドなネットワークだった地域IP網も、現在ではNTT東日本、NTT西日本それぞれの全エリアにわたるネットワークとなっている。
フレッツ網は、NTTが持つネットワーク網であり、それ自体は大規模ではあるがクローズドなネットワークである。インターネットへの接続はあくまでもISPを経由しての接続となる。以前は、都道府県間の接続はISP経由(インターネット経由であった)が、現在のフレッツ網はNTT東日本、NTT西日本、それぞれのエリア内の都道府県をまたいだ大規模なネットワークを構築している。このクローズドなネットワーク内で拠点間を接続しようというのが、今回活用したNGN網である。NGN自体はNext Generation Networkの頭文字であることからもわかるように、フレッツ網を活用した様々なサービスを想定している。今回はそのNGN内で折り返してインターネットへ出ることなく拠点間を接続し、公衆回線であっても低遅延で伝送を実現しようという取り組みである。
Raspberry PiでNTP-PTP v2 Master
実験はMPL社内から始まった。MPL社内に設置した2つのフレッツ光のルーター間でDanteの伝送が可能かどうかという実験である。Danteの伝送において、リアルタイム性は最優先される項目である。音声伝送というリアルタイム性が要求されるDanteの伝送において、遅延は即パケットロスを意味し、すなわち音の途切れとなる。それを回避するためにバッファータイムを設定するのだが、通常のDante機器においては最長5ms(機器によっては10ms)のバッファーの設定しかない。LAN=Local Area Networkを前提としたDanteであることを考えれば仕方のないことだが、NGN網を使用した実験ではそれ以上のレイテンシーが生じる可能性もあると考えDDM=Dante Domain Managerを準備した。DDMは、多数のDante機器のドメイン管理、ドメイン間の接続管理といった機能が主要なところではあるが、大規模なネットワークになった際のレイテンシーの増加に対応するため40msまでのバッファーを許容することができるという機能が追加されている。この40msをセーフティーネットとして実験を進めることとした。
まず、直面した問題はレイテンシーのゆらぎである。LANでDanteを運用してみるとよくわかるのだが、基本的にDante Networkはクローズドで、外部の影響を受けないために機器間のパケット・レイテンシーは一定である。しかし、NGN網を介したDante機器間のレイテンシーは徐々に増加するという症状が見られた。最初は音が通っているが、レイテンシーが許容範囲を超えてくると音が途切れてしまう。さまざまな可能性を疑ったが、結論として原因はPTPの不整合によるものであった。
Dante機器間は、お互いの時刻同期のためにPTP(IEEE 1588 v1)を使用している。これにより各機器は同期を行い、定量のバッファーを持って受け取ったパケットを再生する。しかし、実験で使用したネットワークの構成では、途中のどこかでPTPが不通となり同期が行えない状況となってしまった。これを解決するためには、送受信を行う拠点ごとに同期の取れたPTPグランドマスターを設置する必要があるということになる。PTPグランドマスターはGPS、NTPなど外部からの時刻情報をもとにPTPを提供する機器である。GPS、NTPといった世界中どこにいても同一タイミングの信号を受け取ることができる信号からPTPを生成することで、遠隔地間でのPTP同期を実現するというのがその仕組みだ。
もちろん、この仕組みでのPTP同期を取るためには、信号のやり取りを行うすべての拠点にグランドマスターが必要になる。一般に販売されているグランドマスターの製品は数十万円クラスの価格であることがほとんどで、高価なものでは100万円を超える。そのため、数を揃えるのコスト面からもは難しいという声が大きい。常設の施設であれば、これまでのマスタークロックに置き換わるものとして導入も可能であろうが、中継箇所ごとに準備するとなるとハードルが高いのは事実だろう。今回は、MPLがRaspberry PiでNTP-PTP v2 Masterをソフトウェアベースで構築、それを動作させることとなった。ポケットPC上で最低限のソフトウェアで動作させることでその安定性を確保しようという作戦だ。
ここで、DanteはPTP v1を使用して機器間の同期を取っているのではないかとご指摘される方もいるだろう。AES67、ST-2110といったその他のMoIP規格はPTP v2を使う。一般的なPTPグランドマスターもPTP v2のみ対応しているものが多数である。この点についてもDDMが活躍をした。DDMはAES 67との相互接続を助ける機能も持つ。その中のひとつに、Dante機器にPTP v2での同期機能を付加するというものがある。今回の実験ではこの機能を活用してインターネット上に流れているNTPをもとにPTP v2を生成、LANに流すアプリケーションをPCにインストールし、それをグランドマスターとした。DDMの機能を用いてソフトウェアベースのNTP-PTP v2 グランドマスターを構築した形だ。たしかに、それ専用の機器ではないこと、またNTPというサーバーからのレイテンシーによる誤差をはらんだものを基準とするため精度に不安はあったが、事前に長時間のテストランを実施し、レイテンシーのゆらぎが解消されることを確認し本番へと望んだ。厳密には、ネットワークレイテンシーのゆらぎが完全になくなるということではなく、バッファー数値の許容範囲内に低減されるということになる。
本番でもDante回線を使用、安定した6時間
事前の実験テストでは、大阪にあるMPL社内から赤坂をつなぐ長距離伝送試験も行われた。この実験のレイテンシーに関するデータからは、多少のゆらぎは生じるものの、平均10ms、ピーク27.5msと、40msのバッファー設定で運用可能な数値が確認されている。前述の通り、フレッツ網はNTT東日本管内とNTT西日本管内で国内で2つの独立したネットワークとなっている。前橋〜赤坂間のNTT東日本管内だけではなく、将来を見据えたNTT東西をまたいだ接続においても有用であることが実証された。
本番では、従来から使われていた光電話の回線が3つ、それに加えて今回はNGN網でのDante回線からなる4つの伝送回線が群馬県庁に準備された。なお、Dante回線が不調となった際には実績ある光電話での回線接続へ即座に切り替えられるよう冗長性が取られている。テレビから送られてきた音声は、AES分配器で光電話での伝送のための回線と、Sonifex AVN-AESIO8RでDante変換された伝送回線に分割され赤坂へ送られた。ここでDanteに変換された信号は、前橋側のDante用Network Switchに接続され、そこにRaspberry Pi上で動作する前述のNTP-PTP v2グランドマスターが接続されている。この信号がフレッツ光ルーターに繋がれ、赤坂へと伝送された。
赤坂では、サブコントロールに置かれたYAMAHA DM3で前橋からのDante信号を受け取り、昨年までは前橋で行っていた実況、解説が赤坂のスタジオで行われた。もちろん、赤坂にもRaspberry PiによるPTP v2グランドマスターが設置され、遠隔地間でのPTP v2の同期が行われている。前橋〜東京間のネットワークレイテンシーの設定は、マージンを見越して最大の40msに設定。本番前から数日にわたり接続を確立させたままとし、状況的に安定していることが確認されたため、本番でも予定通りDante回線が本線として使われた。6時間にもおよぶ本番では、音の途切れなどのトラブルもなく、無事に運用を完了することができた。
📷従来と比べて群馬県庁に持ち込まれた機材量も大幅に削減、ハイエースの荷室部分だけで賄える量になったそうだ。
中継先などのエンドポイントにフレッツ光の回線さえあれば、Danteによる多チャンネルの音声送信が実現できるNGN網を活用したサービス。専用線の工事の必要がなく実現できるということが最大のメリット。フレッツ光のネットワーク網は、固定電話を置き換えるべく整備されているため、全国ほとんどの場所で活用が可能である。
今回の実証実験では8chのDante回線の伝送であったが、今後さらなる多チャンネル、そして映像の伝送と広帯域での実験を重ねていく。また、クラウドミキシングとの統合も実験を行っておりクラウド上のミキシングエンジンと回線をセットにしたサービス提供というアイデアもある。中継機会の限られる現場などにも有用なサービスとなっていくことにも期待がもたれる。少し考えただけでもこれだけの可能性が出てくるとなると、今回の実証実験が持つ意味合い、そしてこの手法が備えているポテンシャルを実感できるのではないだろうか。
*ProceedMagazine2025号より転載
NEWS
2025/08/01
MTRXシリーズにPro Tools Ultimate永続版が付属するプロモーションが開催!
Avidより、2025年8月1日から12月31日まで、MTRXまたはMTRX Studioをご購入/登録いただいたお客様全員に対し、Pro Tools Ultimate 永続ライセンスを提供するバンドル・プロモーションを実施中!
対象MTRXインターフェイスをご購入/アクティベートした方は、Avidアカウント内、「“Products Not Yet Downloaded”(まだダウンロードされていない製品)」セクションにPro Tools Ultimate永続ライセンスがデポジットされます。
1台でシステムの中核となるMTRXインターフェースに、世界標準のProTools Ultimate(税込¥23万円相当)が付属するこの機会を是非ご活用ください!!
概要:対象インターフェイスのご購入/アクティベートでPro Tools Ultimate永続ライセンスを無償提供
実施期間:2025/8/1~12/31
対象者:2025/7/1以降、プロモ期間中に対象インターフェイスを購入し、Avidアカウントへのアクティベートが完了された方
配布方法:対象Avidアカウントへのデポジット
※本プロモーションは世界各国で実施のため、対象製品は納品までに数か月お待ちいただく場合がございます。
対象製品
Pro Tools | MTRX II Base
内蔵SPQ、Dante 256 Ch内蔵、マトリクスルーティングは4096 x4096へ。従来のMTRX Optionカードと完全互換を持ち、TB3 Optionにも対応したことで、大規模なミキシングおよびモニタリング・キャパシティーを柔軟に実現する現代オーディオ・システムの中核。
価格:¥1,089,000(税込)
Rock oN Line eStoreで購入>>
Pro Tools | MTRX Studio
2chマイク入力、16in、16out、64ch Dante、DigiLink、ADATなどを含む様々な入出力とSPQが標準搭載。1Uというコンパクトなサイズからは想像できないほどの機能を盛り込んだオールインワンインターフェース。
価格:¥771,100(税込)
Rock oN Line eStoreで購入>>
Pro Tools | MTRX Base
Protoolsシステムのオーディオ入出力の核となるインターフェース。8基のカードスロットを備え、多様なI/Oフォーマットのカードを任意に装着可能。本体入出力は AES/EBUとMADIを装備。
市場流通分のみ(メーカー生産完了)
日々進化を遂げる、業界大定番のProTools Ultimateと、既存システムはもちろん今後のシステム拡張まで対応できるパワーを持つMTRXシリーズが一度に手に入るスーパープロモーション!まずはお早めに、ROCK ON PROへお問い合わせください!
NEWS
2025/07/25
SSL ORACLE 登場 ~新世代のアナログ・インライン・コンソール~
SSLが、新たなフラッグシップ・アナログ・インライン・コンソール「ORACLE」を発表しました。
アナログ・チャンネルラックの信号経路をそのままに、SSLの現行テクノロジーを搭載したデジタル・コントロールサーフェスから精緻に制御。リコール精度も向上し、アナログならではの音質とデジタルの迅速なセッション管理を融合したコンソールです。
ORACLE 概要
- 最大112入力のミックスダウンが可能な大容量インライン・コンソール。
- 4xステレオミックスバス,16トラックバス,10Auxバス,8ステレオFlexグループ.
- チャンネルラックの拡張により、24ch or 48chインラインのアナログ信号処理
- THE BUS+とダイナミックEQプロセッサーを統合
- 瞬時にセッションリコールを実現するSSL独自技術 ”Active Analogue”
- DAWコントロール
SSL伝統のサウンドを即座に呼び起こす ”Active Analogue”
コントロールサーフェイスに特化した設計により、独立した2種類のプロセッサーをデジタル制御。プロセッシング、ルーティング、ゲイン、パンを正確かつ瞬時にリコール可能。
PureDriveマイクプリ、E/Gカーブ対応EQ、THE BUS+といったSSL伝統のアナログ回路を、セッション単位で瞬時に切り替える現代のスピード感が実現した。
独立するオラクル・ラック
ORACLEは、コントロールサーフェイスのほか、センターセクションラック、24chインラインチャンネルラックの3つのハードウェアで構成。24chインラインチャンネルラックは、最大2台まで拡張もできる。信号処理を担うこれらラックは、コンソール後部はもちろんのこと、マシンルームなど離れた場所の設置も可能であり、床置き、ラッキングも問わないためスペースに限りのあるスタジオ含め幅広い環境に設置できる。
センターセクション / DAWコントロール
センターセクションではメイン、トラック、Auxバスのコントロール、フォールドバック情報とレベル表示に加えて、各チャンネルのインプットからLF/SFまでを画面表示も可能。DAWでのSSL系プラグインに慣れた方々にはむしろ馴染みあるUIで本物のSSLアナログチャンネルストリップを操作できるともいえる。
現代コンソールとしてDAWのコントロールにも対応。8chベイそれぞれのFOCUSキーでアナログ・プロセッシングとDAWコントロールを切り替えられ、アナログコントロールとDAWコントロールが同時に展開も可能というハイブリッドぶりだ。
横幅約1.4mのサイズに、現代SSLの技術を凝縮した「ORACLE」。今後のアップデートではDolby Atmosレンダラーとの連携も予定されています。詳細にご興味のある方は、ぜひROCK ON PROまでお問い合わせください。
NEWS
2025/07/24
【解説ビデオ追加】Pro Tools 2025.6 リリース!自動文字起こし、Spilice統合などの新機能を追加!!
2026年最初のソフトウェアアップデートとなる、Pro Tools 2025.6がリリースされました。有効なサブスクリプションまたは現在アップグレード・プラン加入中の永続ライセンスをお持ちのすべてのPro Toolsユーザー、および、すべてのPro Tools Introユーザーがご利用いただけます。
Rock oN Line eStoreで購入>>
セッション上の音声と歌詞の情報をすばやく分析/検索/編集可能となるAI搭載のSpeech-to-Text機能や、世界最大のロイヤリティフリー・サンプル・ライブラリであるSpiceから完璧なサウンドを簡単に見つけることができるSpice統合など、音楽とオーディオ・ポスト両面で多数のユーザーに役立ててもらえる新機能が導入されています。
このリリースでは、緊密に統合されたADRワークフローを実現するNon-Lethal Applications CueProや、より迅速で信頼性の高いリコンフォーミング・プロセスを実現するThe Cargo Cult Matchbox 2.0サポートなど、業界をリードするオーディオポストソリューションもサポートしています。
オーディオをラウンドトリップせずにボーカル制作を効率化するために、2025.6 では Dreamtonics Synthesizer V プラグインと Waves Sync Vx プラグインの ARA サポートに加えて、MIDI エディターとインプットモニタリングの機能強化、新しいアプリ内ダッシュボードなどを提供しています。
2025.6.18 追記
Pro ToolsでサポートされるAppleコンピュータとオペレーティング・システム(英語)の情報が更新されました。現時点では日本語ページは未更新です。
Pro Tools 2025.6で新たに以下のMacがサポートされました。
・2024 iMac “M4” 8-core CPU / 8-core GPU 24”
・2024 Mac Mini “M4” 10-core CPU / 10-core GPU
・2024 Mac Mini “M4 Pro” 12-core CPU / 16-core GPU
・2024 MacBook Pro ”M4 Max” 16-core CPU / 40-core GPU 16”
・2024 MacBook Pro “M4 Pro” 14-core CPU / 20-core GPU 16”
その他のモデル(Mac Studio, Macbook Air)については、検証が完了次第、上記WEBページに追記される予定です。
2025.6.20 追記
Avidブログで日本語情報が公開されました。本記事と合わせてご参照ください。
What's New in Pro Tools 2025.6(Avidブログ日本語版)
EUCON 最新情報(Avidブログ日本語版)
2025.7.24 追記
Pro Tools 2025.6新機能ガイド 日本語PDFが公開されました。こちらも合わせてご参照ください。
Pro Tools 2025.6新機能ガイド日本語版
主な新機能
Speech-to-Text:ダイアログや音声のテイクを検索時間の節約が可能(Pro Tools Studio 及びUltimate のみ)
Speech-to-Textは、AIを使用して音声及び歌詞を含む各クリップのオーディオ・データを分析することで直接テキスト・データを表示し、オーディオのポストダイアログ編集と音楽制作のワークフローを加速することが可能です。
クリップが編集されると該当するテキスト・データも常に追従し、セッション全体の音声データは新しいトランスクリプトウィンドウを介して検索可能となる為、ナビゲーションや音声編集作業を高速化できるようになります。
Splice統合機能:何百万ものサウンドが指先一つの操作でPro Tools上で利用可能に(全Pro Tools バージョン)
世界最大のサンプル・ライブラリであるSpliceがPro Toolsに直接統合され、Pro Toolsを離れることなく、高品質のサウンドを発見・試聴・タイムラインへドロップ、などの作業ができるようになりました。アイデアのスケッチ、トラックの構築、最終仕上げのいずれであっても、Splice上にある世界最高のロイヤリティフリーのループ、ワンショット、FXのカタログをすぐに利用できます。
Pro Toolsで何百万ものスプライス・サンプルに直接アクセスできるだけでなく、サウンド検索を行う事も可能です。タイムラインから任意のオーディオクリップをドラッグするだけで、Splice AIはセッションのビート、キー、テンポに同期された互換性の高いサンプルを即座に見つけることができ、アプリを切り替えて確認したり、自身の推測に頼る必要がなくなります。
Pro Toolsのユーザーは、無料のSpliceアカウントを作成して2,500以上の無料サンプルを入手するか、月額12.99ドルでサブスクリプションする事により全Spliceライブラリにアクセスできます。
Non-Lethal Applications Cue Pro 統合によるADRワークフローのシームレス化(Pro Tools Studio 及びUltimate のみ)
Non-Lethal Applications Cue Proは、ProToolsを使用してADR、外国語ダビング、フォーリーワークフローを緊密に統合し、追加のセットアップや個別のプロジェクト管理を必要とせずにインテリジェントなADRワークフローを提供します。
CueProは、Pro Tools(2025.6以降)のビデオ出力に直接オーバーレイし、ADRキューを作成および編集する際に必要な視覚的なフィードバックを即座に提供します。
Cue ProConnectプラグインは、すべてのCue ProプロジェクトデータをPro Toolsセッション内で直接シームレスに統合して保存するため、他のエンジニアや部門への引き継ぎが簡単です。
The Cargo Cult Matchbox 2.0統合により、より高速なリコンフォーム作業が可能に(Pro Tools Studio 及びUltimate のみ)
Cargo Cult Matchbox 2.0は、Pro ToolsとMedia Composer、およびその他のNLEとの間のリコンフォーム・プロセスをより速く、より信頼性の高い方法で提供します。
新しい Smart-Conform オートメーションは、クリップごとにリコンフォームを実行するため、Matchbox はクリップを慎重に移動し、オートメーションは「コンフォームの破片」の小さなスクラップをすべてクリーンアップできます。これにより、リコンフォームのたびに編集者が面倒なクリーンアップ作業を行う手間が省けます。
Matchbox 2.0はまた、元の映像ファイルと新しい映像ファイルを並べて比較し変更点を見つけ出す事ができますので、参照された元のカットと新しいカットの間を簡単にジャンプし、さらには新しいカットと完全に同期する形で、移動すべきオーディオ・イベント全体を自動でコピー/ペーストして行くことができます。
Pro Tools ARA エコシステムがさらに強化:Dreamtonics Synthesizer V 及びWaves Sync Vxに対応(全Pro Tools バージョン)
Dreamtonics Synthesizer Vは、実際のシンガーから録音・ライセンスを受けたボーカルのコレクションからメロディーをスケッチし、歌詞を作成、選択することでボーカルトラックを生成・スカルプトし、AI技術を活用したカスタム表現を合成することができます。ARAサポートにより、Synthesizer VはPro Toolsのタイムラインと直接リンクできるため、ボーカルパートの確認が容易に行え、より滑らかな編集および再生プロセスが可能になります。
Waves Sync Vxを使用すると、すべてのボーカルトラックを数秒で整理し、複数のボーカルトラックのタイミングとピッチをリードパフォーマンスに自動的にロックして、同期するバックボーカルを手動で編集したり、アフレコしたダイアログを揃えたりする時間を節約できます。ARAのサポートにより、Sync Vxを使用して、オーディオのラウンドトリップを使わずにPro Toolsで全体のボーカルアレンジを管理できるようになりました。
より高速な音楽制作の為のMIDI エディター強化(全Pro Tools バージョン)
Pro Tools 2025.6では、MIDIエディターにMIDI操作とノートラベルが追加され、MIDIワークフローがより簡単で直感的になりました。
MIDI操作ウインドウには、以前はオペレーション・ウィンドウからのみアクセスできましたが、これらのツールをMIDIエディターに統合すると、アクセシビリティが向上し、より素早く簡単に編集作業に移行可能となります。
MIDIノートラベルは、ドラムをプログラミングしたり、従来とは異なる楽器を使用したりするときに、サウンドがどのようにレイアウトされているかを追跡するのに役立ちます。
MIDIエディターでピアノロールの名前を簡単に変更して、各ノートにどのサウンドが割り当てられているかを素早く確認できます。
追加されたMIDI LIVEモードでは、MIDIデバイスを使用してインストゥルメント・トラックにMIDI RECする際の遅延補正が最適化されます。
Splice統合やARAの拡充など、3rdパーティと連携したエコシステムの充実度が大幅にアップした今回のアップデート。さまざまな機能でAIを活用した機能が本格的に実装されている点も見逃せない。音楽制作、ポストプロダクションの両面でワークフローの効率化に大きく貢献できるバージョンになっているのではないだろうか。
Rock oN Line eStoreで購入>>
Pro Toolsシステムのアップデート、新規スタジオ構築のご相談をはじめ、オーディオ制作に関わるご相談はお気軽にROCK ON PROまでお問い合わせください!
https://pro.miroc.co.jp/headline/avid-creative-summit-2025/
Post
2025/07/16
株式会社マジックカプセル様 / アニメ音響制作に特化したスタジオと、360VME によるその最大活用術
株式会社マジックカプセルは、1970年の設立以来、長きにわたり第一線で数多くのアニメ作品を手がけてきた音響制作会社だ。2023年春には、3つの収録スタジオを備えた新社屋を東京都内にオープン。日本アニメの“音”を支える新たな拠点として、本格的に稼働を開始している。この新スタジオは、アニメの音響制作に特化しているからこそ可能となった、あらゆる実務の側面に配慮された理想的な空間だ。細部にまで行き届いた設計思想と、その運用を担うプロフェッショナルたちのこだわりに迫るべく、ハウス・エンジニアの根岸 信洋氏、進藤 公隆氏にお話を伺った。
建屋の設計段階からDolby Atmosを意識
今回伺ったのは、メインスタジオにあたる通称「BASE1」。部屋の設計から音響調整までを株式会社SONAが手がけており、Dolby Atmos 7.1.4chにも対応するスタジオだ。隣接するアフレコルームでの収録から、その後のミキシング、ダビング作業までを一貫して行えるよう設計されている。
近年、アニメ業界でもNetflixを中心にDolby Atmos対応コンテンツの制作が増加しており、「今、新たにスタジオを構えるならAtmos対応は不可欠」との判断から、このBASE1を軸にビル全体の設計が進められたという。中でも大きなこだわりが、約3mの天井高だ。Dolby Atmos対応スタジオを構築する上で、天井高と部屋の容積は最初に直面する課題となる。ビルそのものから新築するというタイミングを活かし、設計段階から要件を妥協なく反映させた理想的なスタジオが完成した。天井の構造や意匠からも、Dolby Atmosへの強い意識が感じとっていただけるだろう。
モニタースピーカーには、移転前のスタジオでも使用されていたProcella Audioを継続して採用。フロント、サラウンド、ハイトの各チャンネルには、基本構成としてP8とローボックスのP15Siをセットで使用している。センターチャンネルのみ、P8に加えてP15Siを2台組み合わせた構成だ。サブウーファーにはP15を2台設置している。エンジニアにとって聞き慣れた音を踏襲しながら、Dolby Atmosの立体的な音場表現へと自然に拡張された構成となっている。
組み合わせは無限大!?アニメの音作りに特化した特注デスク
アフレコとミックス、大きく2種類の作業内容に対応できるよう、特注で制作されたデスク。なんといっても一番の特徴は中心部分の各ブロックがモジュールのように自由に移動可能であるということだろう。アフレコの際は真ん中でアナログフェーダーを持ちたい、ミックスの際はAvid S1が中心に来て欲しいという実作業上の理想を叶える機構だ。以前のスタジオではアフレコが中心位置で行える代わりにミックス時は横にずれた位置で行っていたという。中心から外れた分だけ音の印象ももちろん変化するため、その変化を見越した編集が必要であった経験から、モニタリングポジションを限定するというコンセプトで設計された。
このスタジオでのアフレコは基本4本のマイクで行うため、そこまで大型なコンソールなどは必要なく、しっかりと録れる数本のフェーダーがあればよいということから、Penny+Giles(P&G)社製のアナログフェーダーをユニット化して導入。4本のマイクに対して数十名の役者が入れ替わり立ち替わりして、それに合わせて各マイクchを操作していくという日本のアニメアフレコならではの独特な収録では、咄嗟に指先ではじくようなフェーダーワークにも対応できる滑らかさが重要だという。またマイクプリアンプには、Rupert Neve Designsの5211が採用されている。アニメ作品における芝居はダイナミックレンジが広いため、絶叫のような大音量でも歪まず、寝息のような繊細な音も持ち上げられる高いS/N比が、機種選定の決め手となった。
カスタムレイアウトの利点はフェーダーの配置だけに留まらない。収録時のエンジニアにとって視界に収めておきたい、台本、役者の動き、本編映像、VUメーター、そしてフェーダーがすべて理想の位置に集約できるのは、まさにアニメのアフレコ収録に特化した機能性と言えよう。ここにも根岸氏がいままで様々なスタジオで作業してきた経験と知見が、余すところなく詰め込まれている。
NEWS
2025/07/15
Avid Media Composer ver 2025.6リリース情報
日本時間 2025年6月30日、Avid Media Composer バージョン2025.6がリリースされました。有効なサブスクリプション・ライセンスおよび年間プラン付永続ライセンス・ユーザーは、AvidLinkまたはMyAvidよりダウンロードして使用することが可能です。
今回のこのリリースでサポートされているOSは次の通りです:
Windows10 64-bit 22H2以降 (Professional/Enterprise)
Windows11 64-bit 22H2以降 (Professional/Enterprise)
macOS 13.xから13.7.x (Ventura) 、14.x to 14.7.x (Sonoma)、15.から15.5 (Sequoia)
Media Composer v2025.6の新機能
Ultimateライセンスでプロキシワークフローが利用可能
Media Composerは、クリップまたはシーケンスが高解像度メディアとプロキシメディアとの同時リンクをするためには、Nexisストレージを搭載したNexis Edge製品を必要としましたが、UltimateおよびEnterpriseライセンスをお持ちのユーザーは、追加費用がなくこの機能と利用できるようになります。
プロキシの作成では、ビンにあるクリップを右クリックし、「プロキシを作成」を選択して、直接‘Media Composerで作成できます。
プロキシファイルが作成されると、ビンの中のクリップアイコンがオレンジ色で表示されます。
タイムラインのクリップカラーがデフォルトでオレンジに設定されています。
プロキシリンクしているクリップは、ソースモニターまたはレコードモニターにロードし、再生ボタンを右クリックすることで、高解像度とプロキシ再生を切り替えることができます。
これにより、今まで面倒だった手動による再リンクを必要とせず、解像度を即座に切り替えることができます。
プロキシフォーマットとしては、DNxHD LBとH.264があり、再生品質はタイムラインのビデオクオリティメニューから設定します。
Proxy Videoコラムには、プロキシの解像度が表示されます。このコラムは、タイムラインビデオクオリティメニューで選択したオプションに応じて更新されます。
タイムラインビデオクオリティがフルクオリティ(8ビット以上)に設定されている場合、関連するプロキシはH.264形式で表示されます。また、ドラフトまたは最高パフォーマンスが選択されている場合は、DNxHD LB形式が使用されます。
現在、プロキシメディアからトランスクリプトを生成することはできませんので、ご注意ください。
また、プロキシメディアはAvid MediaFiles>Proxyフォルダに作成されます。
文字起こし設定と文字起こしツールのUIの改善
文字起こし設定へのアクセスが容易になります:
「文字起こし設定」オプションが文字起こしツールのファストメニューに追加されました。
「文字起こしインデックスに含める」/「文字起こしインデックスから除外」オプションはビンのトップメニューからアクセスで来ます。
今まで、検索ツールにしかなかった「PhraseFind AIインデックス作成の開始/停止」オプションが、「文字起こし設定」に追加されました。
文字起こしツールで作業する時、Shiftキーを押しながら矢印キーを使用して単語ごとに選択範囲を調整することで、キーボードを使用して正確な単語選択が可能になります。(日本語ではまだ正確に選択できないことがあります。)またこのバージョンでは、文字起こしツールのテキストのコピー&ペースト機能も改善され、プレーンテキスト形式が使用されるため、アプリケーション間でペースト操作が可能です。
文字起こしの削除
文字起こしツールのファストメニューとビンのコンテキストメニューの両方から、個々のクリップの文字起こしを削除できるようになりました。グループまたはマルチグループクリップを操作している場合は、選択したオーディオの文字起こしのみが削除されます。
単一文字起こし インデックス
以前のバージョンのMedia Composerでは、プロジェクトの文字起こし設定で「言語ヒント」を変更すると、すべてのメディアの文字起こしをやり直す必要があり、言語を元に戻しても古い文字起こしが参照されていました。その結果、AVTファイルの共有がうまくいかなくなり、作業の重複につながる可能性がありました。
Media Composer v2025.6以降では、言語ヒントの変更は、今後新しいクリップを文字起こしする際に使用する言語を決定するだけになります。既存の文字起こしは言語に関係なくそのまま維持されるため、予測可能性が向上し、システム間の連携が簡素化され、複数の特定した言語の文字起こしの状態を管理する必要がなくなります。
今回のアップデートでは、文字起こしデータベースの構造が変更されています。そのためv2025.6より前のバージョンにダウングレードすると、文字起こしデータベースがオフラインになる可能性があります。特にバージョンを戻す必要がある場合は、アップグレード前にAVTをエクスポートすることをお勧めします。
MediaCentralでの文字起こしデータの相互運用
MediaCentralからクリップをインポートする際に、文字起こしデータも一緒にインポートされるようになります。ユーザーがクリップをダブルクリックするか、ビンにドラッグすると、関連する文字起こしが自動的にMedia Composerに読み込まれ、ローカルの文字起こしデータベースに保存されます。
相互運用はMediaCentralのパネルでのみ機能し、MediaCentral Production Managementでは機能しません。
Avid Titler+ クリップテキストのラベル
Avid Titler+で作成されたセグメントのタイムラインに「Title Text」という新しいラベルが表示されるようになりました。これにより、タイムライン上でタイトルが何であるかを識別することがが容易になります。この機能はタイムラインの「クリップテキスト」メニューから切り替えることができます。セグメントの最上部にある Titler+ テキストの内容に基づいてセグメントに動的にラベルが付けられ、複雑なプロジェクトの明瞭性と整理性が向上します。さらに、検索ウィンドウまたはタイムライン検索バーの「タイムラインとモニター」パネルを使用して、タイトルをすばやく見つけることができます。
Avid Titler+ は、IntelおよびAMDの統合型GPU(RAM 2GB以上)をサポートするようになりました。
Avid Titler+ タイトル用EDLのエクスポート
Media Composer v2025.6から、タイムラインで使用されるすべてのタイトルを、EDLの一部としてエクスポートできるようになりました。各Titler+ エフェクトにはイベントタイムコードと、クリップテキストに基づく固有の名前が割り当てられるため、ポストプロダクションワークフローでの識別がしやすくなります。この機能により、すべてのタイトルとプロジェクトのタイムライン内での正確な位置が明確に整理され、異なる編集システム間や複数のチームメンバーで作業する場合に、共同作業が効率化され、編集プロセスが簡素化されます。
SubCapを作成の「マークを使用」オプション
SubCapを作成の文字起こしウィンドウに「マークを使用」オプションが追加されました。これにより、タイムライン上のマークされたセクション内でのみキャプションを作成できます。これは、タイムラインの他の部分に影響を与えずに、特定のシーンを更新またはキャプションを追加する場合に最適です。
AutoSequenceとタイムコーで配置でカメラコラムを使用
AutoSequenceとタイムコードで配置では、ビン内のカメラコラムを使用して異なるソースを識別し、対応するクリップを別々のトラックに自動的に配置するようになりました。これは、特定のカメラまたはオーディオソースを表すクリップのカメラコラムに英数字の値(例:A、B、Sound)を割り当てることで機能します。このコラムの情報を入力すると、1つのコマンドでシンクマップを作成し、一致するカメラ値を持つクリップを同じトラックに配置できます。異なる値は分離されるため、日々の同期プロセスや配置が高速化されます。
AutoSequenceを使用し、Optionキーを押したままにすると、クリップは関連するタイムコードに配置されず、重複する可能性がないため、カメラコラムは無視されます。
タイムコードで配置を使用し、Optionキーを押したままにすると、カメラコラムが使用され、トラックの選択は無視され、新しいトラックが作成されます。Optionキーを押さない場合は、カメラコラムは無視され、選択されたトラックが使用されます。
OpenTimelineIO インポートのサポート
Media ComposerでOpenTimelineIO (OTIO) ファイルをインポートできます。これにより、サポートされているサードパーティ製アプリケーションとの連携が向上し、共同作業のワークフローが効率化されます。
AVC Long GOPコーデックファミリーの品質レベル
Media Creation設定の「ミックスダウンとトランスコード」タブに、「AVC Long GOP品質レベル」ドロップダウンメニューが追加されました。
この設定は、トランスコード、ミックスダウン、レンダリング、インポートなどのメディア作成操作中のAVC Long GOPコーデックの品質レベルを変更します。MOVおよびMP4のエクスポートオプションはAVC Long GOPコーデックと同じ設定ですが、専用のエクスポートダイアログで表示されます。
このコーデックのエンコードには、「最速(fastest)」、「バランス」、「最高」の3つの品質レベルがあります。変更しない場合は、以前のバージョンのMedia Composerで使用されていた品質レベルと同じ「fastest」がデフォルトで使用されます。
HDR リリンク
Media Composerでダイナミックリリンク操作を実行する際に、HDRメディアの要件を設定できるようになりました。
Media Composerについてのご購入のご相談、ご質問などはcontactボタンからお気軽にお問い合わせください。
NEWS
2025/07/09
Proceed Magazine 2025 販売開始! 特集:Remote Production Style
リモートで行われるプロダクション。居場所にとらわれず制作を進めることはもちろんのこと、コンテンツ自体を伝送して表現することもそのひとつと言えるのかもしれません。そして、制作空間を持ち歩いてしまう、ということもそのアプローチとして挙げられます。このように、ひと口にリモートと言っても、現代のテクノロジーと使用するユーザーのアイデアが掛け合わさると、実用的かつ効率的であることだけではなく多様で実に興味深い用いられ方が生まれ、もうすでにそれが実際に稼働しています。
今回のProceedMagazineではそのリモートプロダクションにフォーカス。NTT IOWNが実現する3D伝送、TBSラジオが行った公衆回線を使った中継事例、WOWOWの新音声中継車、また国内外でも進むSony 360VMEによるリモート制作環境の事例など、現場で活用が進むリモートプロダクションを現地取材してまいりました!いま音響の最先端で起きているアクションを捉えて、今号も情報満載でお届けです!
Proceed Magazine 2025 特集:Remote Production Style
Remote Production Style
ある意味、きっかけであったのかもしれません。2020年に世界を巻き込んだコロナ禍は生活様式から働き方までも変化を強いることになりました。以前は考えにくかったような自宅や遠隔地での作業を実現するツールが多数登場し一般的にも浸透したわけですが、「その後」の世界を迎えたいま、場所という制約にとらわれない自由な選択肢がクリエイティブの現場にもたらされつつあります。
リモートプロダクション、制約を克服するように近年でも大きな進展を見せてきているクリエイティブワークスタイル。そのアプローチは多様で長距離伝送、環境シミュレーションといった技術バックボーンを実際に活用する事例が国内外で現れています。今回のProceedMagazineではそのRemote Productionにフォーカス!すぐそこにある未来のプロダクションスタイルを体感していきましょう、さぁ、ご一緒に!
Proceed Magazine 2025
全144ページ
定価:500円(本体価格455円)
発行:株式会社メディア・インテグレーション
◎SAMPLE (画像クリックで拡大表示)
◎Contents
★People of Sound / MEG
★特集:Remote Production Style
大阪・関西万博 NTT IOWN / TBS ラジオ ニューイヤー駅伝中継
WOWOW 新音声中継車 / Sony Pictures Entertainment
マジックカプセル BASE1
★Sound Trip
大阪・関西万博 大阪ヘルスケアパビリオン
「モンスターハンター ブリッジ」
★History of Technology
Apogeeの軌跡、音楽制作のイノベーション
★Product Inside
音響的ニッポンの電気事情
シンテック ノイズ低減アイソレートトランス
★ROCK ON PRO Technology
ELEMENTS / 360 Reality Audio / Avid Pro Tools 2025.6
★Build Up Your Studio
パーソナル・スタジオ設計の音響学 その31
1/1 の世界で音響設計!
特別編 音響設計実践道場 吸音材を探せ!1/10残響室を作ろう
★Power of Music
SONIBLE PRIME:VOCAL / ROTH BART BARON
UADプラグインが引き継ぐビンテージ機材の真価
★BrandNew
Positive Grid / SSL / KORG / Universal Audio
GRACE design / Steinberg / XFER RECORDS
WAVES / iZotope / Torso / freqport
Blackmagic Design / ADAM AUDIO
★FUN FUN FUN
SCFEDイベのイケイケゴーゴー探報記〜! Headphone Bar
ライブミュージックの神髄
◎Proceed Magazineバックナンバーも好評販売中!
Proceed Magazine 2024-2025
Proceed Magazine 2024
Proceed Magazine 2023-2024
Proceed Magazine 2023
Proceed Magazine 2022-2023
Proceed Magazine 2022
Proceed Magazine 2021-2022
Proceed Magazine 2021
Proceed Magazine 2020-2021
Proceed Magazine 2020
Proceed Magazine 2019-2020
Proceed Magazineへの広告掲載依頼や、内容に関するお問い合わせ、ご意見・ご感想などございましたら、下記コンタクトフォームよりご送信ください。