個人的GDC2015 オーディオ報告会まとめ

gdc

まとめという程まとまってないメモ書きですが、一応共有しておきます。

SIG-Audio#10 GDC2015オーディオ報告会を開催します(2015/4/17)
http://igdajaudio.blogspot.jp/2015/03/sig-audio10.html 

西松 優一(にしまつ ゆういち)氏
株式会社スクウェア・エニックス サウンド部サウンドプログラマー
気になった講演の数々のご紹介となりました。

Making Full Use of…
オーケストラの楽器編成の分析(管弦楽法のアプローチ)から、楽曲内での役割ごとに分けて考える
楽器ではなく役割ごとに分けてインタラクティブな音楽演出を後にやり易くする
・Melody,Ostinato,Sweetener
・楽器マイク数×役割

ホルストの惑星を元に説明→同じ2nd Violinでも、役割ごとに分けて収録

どうやって録音した?わかりやすく浄書できないか?
パターンAの時はここからここまで弾いて!という楽譜上指示は混乱し易い
楽譜を分けても混乱する(紙面も増える)

スムーズに収録を行うためには?楽譜の色分けを行った
このように収録したものをさらに時間軸でフレーズごとに分割し、自由に遷移きでるようにする

Creating an Interactive Music Experience for Fantasia
実験的手法のプロトタイプ制作について
・Max/MSP、Abelton Live,Kinectなどを組み合わせてアイディアを形にしていく→エンジンのグレイボックス化

例えばどんな機能が実装された?

Kinect→特定の座標やその組み合わせに合わせてクオンタイズした音を出力する
ハ長調のMIDIデータを利用して、コードに合わせて特定のスケールに移調するシステム
ペンタなど他の音階もOK

・楽器VSおもちゃ
どこまでが楽器?どこまでがおもちゃ?
→レイテンシ(音の遅延)、複雑さなどが関与
Kinectは100msのレイテンシー、これだと楽器としては不十分

入力数:少ないのがおもちゃ、多いのが楽器
→ピアノは88鍵だし、ベロシティも無限大
→一方、入力が多いとユーザー誘導が難しい

Wwiseを使用して、MIDI機能を使用した転調など
→ただしデフォルトでは不十分だったため、独自サンプラーやオーディオスレッドの低レイテンシ化,発音制御などを実装

・ヴィジュアルプログラミング環境
→プログラマ以外でも簡単にアイディアを実装できる!
デバックがやばいけどね!

実際に登壇した時の話

The Evolving JPRG Audio Culture
JRPGの文化にスポットを当て、西洋と違ってどのようなサウンドの試みを行っているのか

西洋人の感じる「JRPGの不思議なところ」
バトルボイスが煩わしい(反復が多く感じる)
ピッチ感のある効果音が多い
重心の低い音が少ない

Wrap-Up Room:講演後に10名ほど集まってディスカッション
→日本のゲームで育ってきた「日本のゲームに関心のある人が多い」
→貪欲に他文化を吸収しようとしている
→日本に対抗心がある


 

稲森 崇史(いなもり たかふみ)氏
株式会社ヴァルハラゲームスタジオ
オーディオディレクター / オーディオプログラマ

Sunset OverDriveのサウンドデザインについて
「クリエイティブプロセスの重要性」
→最初に目標を明確化して作業をスタートさせる
→30人を超える多人数でも意識共有が重要

オープンワールドのアクションシューティングのサウンドデザイン
チームとして、どうやってこのゲームを作っていったのか?
オーディオピラー作成:この音を聞いただけでSunset Overdriveだ!とわかるような音
コンセプト作り→コンセプトオーディオ(音のみでゲームプレイ)
デジタルジオラマ:特定の場面におけるコンセプトオーディオ→SPACESHIPの絵をバックに音を再生する

Level of Awesome(2ヶ月かかった!)
コンボ攻撃によってメーター上昇
現実的な音から徐々にシネマティックなに、そしてレベル3ではカートゥーン調のSEに
音楽の方もトラックの増減(レベルによってトラックが増えて行く)
ドラム、ベースだけのトラックから、レベルが上がるごとにギターなどが追加される

Vanity System(6ヶ月かかった!)
身につけるものによって音が変わる(足音や服の擦れる音)
→コンセプト:ヒーローは服装によってユニークな音になるべき&ユーザーの選択が音に反映されるべき
コスチューム周りは4528アセット、フットステップは5633アセット…多いな…

HDR(ハイダイナミックレンジオーディオ)
Wwiseの機能を利用
各カテゴリの音量プライオイリティに沿ってミキシングバランスが変化
各カテゴリの音量差を感じさせつつも最終出力を一定範囲内に収める仕組み

最終的にはラウドネス規定に従い-23LUFSで出力される

Quantum Break
シューターアクション、アドベンチャー(2016年発売予定)
Umbra:オクルージョンカリングに特化したミドルウェア
オクルージョンカリング:カメラに映っていないオーディオを無効化
→オーディオ処理に向いた機能がある
・空間の接続状態を高速取得できる低解像度グラフを持っている
・高速なレイキャスト

環境音&リバーブ
・リバーブは事前にマップに設置した球orボックス型のエリアでコントロール
→その球の中に入ると、リバーブが掛かるようになる
→動画:壁との位置関係や空間の地形によって、銃声の響きが変わっている

遮蔽
音源とカメラ間で3×3のレイキャストを行う
遠距離の場合は1本だけ(動画では緑と赤のラインで表示されている)
屋外の環境音を遮蔽したり、リバーブが突き抜けなかったり…

伝達経路
遮蔽と同じシステムとデータを利用
壁を検知して、人の声を遮っている/音声を発しているオブジェクト(この場合はオッサン)から離れると声が遠ざかる&壁を挟むと声が小さくなる

まとめ
UmbraとWwiseのインテグレーションが進行中!もう少しでリリース?なのか?
処理負荷の軽減、データ作成の手間を大きく削減。これが実現すれば遮蔽・伝達経路処理を手軽に扱える時代が来るのかも?

他にもオーディオ転用できる技術があるかも?アンテナを張ろう!

Frostbite
EA DICEのゲームエンジン(Battlefield4やDoragon Age:Inquistionなどに使用されている)
モジュール化というアプローチ
なぜ?→DICEは大作が多く、メモリはもう限界だしサウンド素材作成に時間がかかりすぎるから

Modular Sound Design
最終的に必要になる音の要素を分解した素材を用意し、実行時に必要なサウンド素材を「組み合わせて」再生

Palette-based Sound Design
パレットのように音素材を重ね合わせてサウンドデザインをしていく
それ専用の音を用意しなくても、ありものの組み合わせで新しい音を生み出す

Model-Based Sound Design(上記2つの合わせワザ)
ロジックに基づいて音の挙動を動的コントロール(ゲーム状況の反映)
音自体を変えるかテンプレートを変えるかでバリエーションが変化

もともと小さいパーツをたくさん持っていて、それをどう使うか?を設定する
多くの音でサウンド素材を共有化できる

「BF4の銃撃音の説明」
「実際のドライな銃撃音」「開けた場所で反響がある銃撃音」「反響音だけ」「スプリングの跳ね返る音」…いろいろな素材を組み合わせて、超リアルな銃撃音を作っている
どう組み合わせているのかはパッチ化されていましたが、何がなんだか分からん程複雑でした

最初のモデルを作りには長い時間が掛かるし技術的な理解力も要求されるが、一度作ってしまえばその後は効率的
モデル化の運用にはCPU処理時間が要求される&サウンド素材が増えればデコード処理も増える
→処理の並列化が必要

スケーラブルなシステムは魅力的
→システム自体よりもノウハウの蓄積がものをいう
サウンドデザイナー自身によるロジック設計
→ミドルウェアやゲームエンジンの発展により「できること」が拡大、演出力の強化

感想まとめ
・向こうの人はめっちゃ陽気!フランク!超楽しい!
・3DSのすれ違い→いろんな国の人
・CEDECでは独自の考え方や工夫を紹介するセッションがよく見られる
→誰でも手軽に真似できるものは少ない…
対してGDCは、すでにあるものを組み合わせて「こんなことできました!」というセッションが多い
(それぞれ方向性が異なるので、どちらがいいとは一概に言えない)
みんなもGDCに行こうぜ!


中西 哲一(なかにし てつかず)氏
株式会社バンダイナムコスタジオ サウンド&アニメーション部
ヘッドサウンドデザイナー

(何度もGDCに行っている中西さんが)今回のGDCで気になったところ
「ヘッドマウントVRが目立った」
→VRにおける音の重要性が認識されつつある
→OculusのAudio SDKがリリースされ、立体音響がサポートされた
「どこもかしこもWwiseだらけ!」
もはやワークフローの一部となっており、このツールをどう使ったのかが各社工夫のポイント
→とはいえ、独自サウンドミドルウェアもまだまだある

Audio boot Campについて

浅く広くゲームオーディオ全体をさらっていく1日(コーヒーブレイクもあるよ)
事例:武器のフィールドレコーディング→マルチマイクで様々な要素に分けて収録
先の講演でのモジュール化アプローチにもありましたが、この手法が主流か荒野でひたすら銃をぶっ放しながら、それを様々なマイクで録音していく
→「間違えてXLRケーブルを撃っちまったぜHAHAHA」みたいなムービーより
近距離射撃だけで多レイヤーを組み、要素に分けてサウンドを組み合わせている

インタラクティブミュージックの手法

Advanced Composition Techniques For Adaptive Systems
・Horizontal Resequence
→時間軸上の変化/オーディオの再生順番を変える
・Vertical Layering
→ステムのミックスバランスを変えていく手法
・Generative
参考ゲーム:Electroplankton/Spare generative Music

エレクトロプランクトン
http://electroplankton.com

Technical Sound Design Mark Kilborn(Raven Software)
テクニカルサウンドデザイナーとは(=TSD)?
サウンドデザイナーとオーディオプラグラマーの両方のスキルを持ち、両者の橋渡しをする人

オーディオプログラマーからのサウンドデザインのアプローチはあってもいい
パラメータをどういじればどういう音になるのか?を全て把握した上でプログラム上でどう動かしていくのか?
効率向上やインタラクティブな仕組みを作るロジックの組み立てを行う重要な役割

TSDになるためには?
Unity,Wwise,Unreal Engime,fmodくらいは触れて当然、プログラムもかけなきゃダメ
いろんなゲームを遊ぶことも必要

約半分はフリーランス、96%が男性、案外給料がいい?(=年齢層が高め?)
音楽関連の需要(コンポーザーなど)はAppStoreオープンをきっかけに一気に増えた

どのくらいライブ収録しているのか?
→低予算ゲームは打ち込みばかり、これはどこも変わらないね

どのミドルウェアを使ってる?
→カジュアルゲームは何も使っていない場合が多く、Wwiseとfmodが優勢か

EXPO会場について
いろいろな展示物に直接的に触れるための展示会場
VR系の展示が多い
→SONYによるVRのオーディオセッション
空間表現には様々な要素を考慮する必要がある
反射や遮蔽:VRに限らない技術だが、それをきちんとVRにも落とし込みましょう
遮蔽はレイキャストで判定/HRTFする前にLPFを掛ける
Dynamic Reverberation System
残響(初期反射)もレイキャストで判断
反射による減衰を考量した仮想音源+Delay
距離表現は減衰カーブで、Wwiseの画面を見せながらの説明があった

Oculus Audio SDKがリリース
高品質モード(残響まできちんと計算)/高速モードという2つを用意
Wwiseプラグイン、VSTプラグインも提供

ステレオ音源の環境音は避けよう
→とにかくモノラル!風のループもモノラル音源
→どこに音源を置くかがすごく大事+音を鳴らし過ぎない方がよい

モバイル機器のラウドネスに関して
ラウドネスは動的に変更されるべき
=モバイルはスピーカーから鳴らす場合とヘッドホンをして遊ぶ場合とAirplayで遊ぶ場合があるので、適宜変更されるべき


その他オーディオ関係のまとめ

個人的インタラクティブミュージック研究会速報まとめ:http://blog.nine-gates.com/?p=624
インタラクティブミュージック勉強会#4速報:http://blog.nine-gates.com/?p=84
個人的SIG-AUDIO#8 速報まとめ:http://blog.nine-gates.com/?p=450