【サウンドのはなし】Vol.05 -CEDEC 2017のおもひで-

はい!サウンド担当伊佐です。

先日8/31~9/1の3日間、CEDEC 2017に参加してきました。

私はラディアスリーのサウンド担当としてサウンド系のセッション(3日間で14セッション!!)に参加してきたわけですが、業界の動向とかハイエンドゲームのサウンド制作方法などなど、刺激を受けつつ自分が普段やっているスマホゲームの環境について考えさせられたところもあるので、備忘録もかねてブログに書いておこうかと思います。

今年のサウンド系セッションでキーワードになりそうなものを3つあげるとすれば・・・

 

  • 3D音響
  • ミドルウェアの活用
  • 大量のボイス制作

 

みたいなところでしょうか?

1.3D音響

ゲーム開発各社さんのセッションで共通の話題としてゲームにおける3D音響について語られる場面が多かったなぁ・・・というのが正直な感想です。

気になったキーワードは以下になります。
※説明があっているかはアヤシイので気になる方はググってくださいね。

■VBAP(ブイバップ)

チョー簡単に言うと、サラウンドスピーカーのパンニングアルゴリズムのことで、5.1ch サラウンドのように複数スピーカーの配置が前提の立体音響方のことをチャンネルベースとも言います。

素材音と音源位置や動きを分けて記録、伝達、再生する立体音響方式のことをオブジェクトベースといい、ゲームでは3D空間上のリスナーからの前後左右の方向と距離をリアルタイムで演算し、オブジェクトベースとして処理された音をチャンネルベース(5.1ch サラウンドとか 2ch ヘッドホン)に変換しているようです。
(スピーカーベースで考えられているので近接音が弱いらしいです)

■Ambisonics(アンビソニックス)

めちゃくちゃ簡単に言うと、全天球カメラの音像表現として指向性マイクであらゆる方向の音を収録しておき、再生時にリスナーの首振りの角度に応じた方向の収録音を再生する方式のことでシーンベースという立体音響方式です。

最低限、前左右と後左右の 4ch の収録が必要で、収録する角度が多ければ多いほど定位感が増すらしいです。
(球体に64個?だかのマイクが仕込まれた試作マイクも写真で紹介されていました)

■Binaural(バイノーラル)

とてつもなく簡単に言うと、人間の頭部を模したダミーヘッドの耳の部分にマイクを仕込んで収録した音声のことで、目や鼻や耳たぶ自体を遮蔽物と考えて収録するため 2ch のステレオ再生、特にヘッドホンでの再生で非常にリアルに聞こえるのが特徴です。
(私も頭の周りをハエが飛ぶデモ音源を聞いたことがありますがメチャクチャリアルでした)

■HRTF(エイチアールティーエフ)

究極カンタンにいうと、頭部伝達関数といって人間の頭部(頭、耳、肩あたりまで)を遮蔽物として音の変化を伝達関数として表現したもので、実際に人間やダミーヘッドを使って HRTF を計測しておき、ゲームに応用するときにはオブジェクトベースの素材音に HRTF を畳み込み演算処理することで立体音響が表現できるという技術のようです。
(サウンドミドルウェアのプラグインとして HRTF のデモが参考出展されていましたが結構立体感ありました)

それぞれの方式に一長一短があり、業界的にもまだ探り中といった感じでしたね。

ヘッドホン環境では HRTF(に距離を加えたやつ)、局所で Binaural や Ambisonics。
スピーカー環境では相変わらずオブジェクトベース+チャンネルベース。
みたいな感じで現行は進む感じかな~と思います。

2.ミドルウェアの活用

ゲーム開発各社さんのセッションでほとんどすべてのセッションで Audiokinetic Wwise のはなしが出てきていて、なんとなくコンシューマ系のビッグタイトルで導入が進んでいるような印象でした。

数年前に Wwise が出てきたときは英語環境しかなかったため敬遠していたのですが、今は日本法人も立てて本格的に参入してきているようです。

それまではサウンド系のミドルウェアといえばマルチプラットフォーム対応できるものは CRI ADX ぐらいしかなかったので隔世の感がありますね。

■ミドルウェアを導入するメリット

  1. BGM や環境音をワークメモリに展開せずにストレージからストリーム再生できるため、長尺の環境音等でも気にせず使うことができ、メモリの節約に繋がる。
  2. モバイル環境ではちょっとメンドクサイ BGM のインフィニットループもプログラマに頼らずにサウンドデザイナーが設定していける。
  3. サウンドのキューにボリュームや EQ などエフェクトの掛かり具合や、キューごとにピッチをランダムに変化させるなど、インタラクティブに変化するサウンドを実現するための機能をサウンドデザイナーが仕込むことができるので、今までプログラマーが苦労して実装していたようなことをミドルウェアが肩代わりしてくれる。

といったところでしょうか。
※もちろんそれ以外にもたくさん理由はありますが・・・

Wwise の利用例のセッションで気になったのは、多国語対応のビッグタイトルでボイスの収録数が10万行に達するようなことがあるそうなのですが、言語のタブを切り替えるだけで言語環境をチェンジでき、例えば日本語をベース言語に設定してファイルを追加していき、言語タブを切り替えて同じファイル名の英語音声を D&D して上書きするだけで各国語のフォルダに追加されていくのでプログラム側でサウンドのキューを変更することなく多国語対応できるという機能が紹介されていました。

また、Steinberg NUENDO8 のセッションで Wwise との連携機能を紹介していました。
スタジオでのボイス収録で NUEND8 のトラックに収録するファイル数分のブロックを一気に作成し、そのブロック名を一気に正規のファイル名にリネームし、ファイル書き出し用のマーカーを設定し、収録しつつ、修正しつつ、良きところで書き出しつつ、GameAudioCnnect2 という機能(NUENDO8 独自の機能)で Wwise に取り込むという、怒涛のような制作事例を紹介してくれました。

ショートセッション(25分)だったのですが、メチャクチャ効率の良い理想的なデモをしていて実はこのセッションがいちばんタメになったような気が・・・

コンシューマーのビッグタイトルでは大量のボイスを扱い、多言語対応をし、インタラクティブサウンドの対応もしなきゃならず、サウンドデザイナーがクリエイティブに避ける時間を捻出するためにも Wwise のようなミドルウェアを導入しているのかな~と感じました。

3.大量のボイス制作

海外のボイス制作のスペシャリストの方がセッションしていたのですが、HALO や GearsOfWar など AAA タイトルでは8千~10万ワードのオーダーでのボイス制作が当たり前で、製作期間は3年費やすものもあるそうです。

例えば、ボイスアクターについてもユニオン(俳優組合)かノンユニオンから選択して(ユニオンとノンユニオンの共存は御法度らしいです)オーディションやセレブへのオファーが行われ、俳優のエージェントと契約を交わし、ボイスディレクターを選出し・・・と制作スタイルもハリウッドスタイルで行われているという話で、やっぱ規模が違うな~と。

ただ、ここでも Wwise が登場していて、予めシナリオがフィックスした段階で仮データ(容量見積もりもかねて実時間のファイルを作成します)でゲームビルドまで組んでしまって、スタジオでの収録時に録ったそばから Wwise に取り込んでゲームのビルドで確認をしながら納品データを作っていくというような使い方も紹介されていました。

このやり方は多言語対応する際、その国のスタジオ内で Wwise とゲームビルドで同じ作業、確認を行えばミスが防げるためとても有効な手段だと思います。

ほかにも「ニーア・オートマタ」の3Dオーディオ実現方法とか「ゼルダの伝説ブレスオブワイルド」の3Dフィールドにおける自然な環境音の配置とか、興味深いセッションがたくさんあったので、いずれ機会があれば書こうかな~と思います。

CEDEC に参加するのは実は初めてだったのですが、今回の CEDEC はサウンドのセッションが結構充実していたそうで、サウンド担当としては非常に有意義な3日間でした。

とまぁ、今回はこんなとこで。
次回は ADX2LE 試用レポートをやります。

P.S

ラディアスリー株式会社ではサウンド制作も行っております。
サウンド制作でお困りのアプリ開発者の皆様、お気軽にご相談くださいませ。
お問い合わせはコチラまで!