どーも、ラディアスリーの中村です。
今回はおーくしょんパーティ!の話なんですが、まだ先のことになるであろう話です。
拡張カードセット作りたいんですよね~。
なんと気の早いことか。完成もしてないのに。どれだけ売れるかもわからないのに。
せめてブログに書いて、はやる気持ちを抑えよう、と。
何を拡張するか。
拡張できるのは
ってところですよね。というかこれしかないですね。
拡張のキャラはクセが強くてもいいのかな、と思うので、ステータス値が低めだったりスキルが発動しにくかったりしてもいいかもしれないですね。
で、ざっと考えついたままにキャラとスキルを書いてみるとこんな感じ。
スキル名 : サモン
内容 : どれか1つのキャラを自分の次のターン終了時まで自分のものとする
つまり、今までのファイターのスキルの強化版ってことですね。ファイターは無効にするだけなのに対して、こちらはそれを利用できる。
なので、全体的にステータス値は低くていいかもしれません。
スキル名 : チェンジ・ザ・ワールド
内容 : 全てのミッションカードを山から引き直す
クエストをがらりと変えてしまうことで、相手を妨害したり、自分がクリアできないものを取り換えてしまったり。
ただ、誰が有利になるかは時の運なので使い勝手は悪いかも…。
スキル名 : コンセントレーション
内容 : 全てのミッションのクリア目標ステータスを自分の次のターン終了時まで任意のステータスに変更する
ミッションのステータスを自分に有利なステータスに変えれば、一点突破型のキャラ構成でも安心ですし、相手に不利なステータスに変えてクリア不能にしてしまったりと色々使えそうな感じ。
スキル名 : エンチャント
内容 : このターン使用したアイテムを破棄しなくてよい
これは…どうなんですかね。アイテム使用宣言はダイスロール前なので、結構リスキーな感じしますね。
ステータス値を多めにしたり、スキル値を3種類にしたりして調整が必要そうです。
スキル名 : フィールド・バリア
内容 : どれか1つのミッションを自分しか入れなくする (※1つのゾーンにつき1つまで ※チェンジ・ザ・ワールドを使われると解除される)
自分の進みたいルートを確保出来るわけですから、これは結構いいかもですね。
これはもう少し強いモンスターを用意したりとかくらいにとどまりそうです。
ただ、今までのクリアステータスの組み合わせ以外のものも用意しても良さそうな気がしますね。
テストプレイも手伝っていただいた方からのアイディアなんですが、ファイターやシーフなど他のプレイヤーを邪魔する系のスキルの対象にならない「不可視の護符」というものを考えました。
これがあると、妨害されなくなるんで所持金が多いプレイヤーは買いたくなりそうです。
貧乏プレイヤーが先に購入してしまうなどの駆け引きプレイも発生しそうですね。
新スキルを考えるのが楽しくて、それ以外が若干適当な感じに…。
とはいえ、しょせん作られるかも全くわからないものですし、こんなもんでしょうかね…。
ということで、今回はこれにてッッ!
どーも、ラディアスリーの中村です。
今回は、おーくしょんパーティ!のアプリ版の話です。
(ゲームデザインではなく、開発寄りの話になってます。)
使っている(or 使う予定)ものをざっと羅列してみると
とまぁこんな感じでしょうか。
(もっと詳しい話は多分加藤が書いてくれるんじゃないかと…。)
ちなみに、EC2上で稼働するサーバー側アプリケーションは javascript で記述しています。
DynamoDB は DynamoDB local というのがあるので、それを利用する予定ですが、現時点では Redis を使っています。そのうち DynamoDB に切り替え予定。
開発はプログラマが複数いる(現状は加藤と私の2人)という状況なので、EC2上で動作させてデバッグなんてことはできませんし、いきなり EC2 と Unity で通信して動作確認なんてこともデバッグしづらくて大変そうです。
ということで、各開発者のローカル環境でデバッグが出来るように、 docker を使ってローカルにも同じ環境が簡単に作れるようにしています。(私じゃなくて加藤が整えてくれたんですが。)
で、実際どんな感じに開発をすすめているの?というのが、こちら。
とりあえず javascript でぺこぺこ書いていきます。
html + javascript でサーバアプリと通信して簡単な表示と操作が出来るものを作ります。
ここまで進むと、chrome などのブラウザから localhost にアクセスして、ローカル環境で起動したサーバアプリとのやりとりが出来るようになります。
ここで動作確認をしてバグを修正し、一通り機能が揃ったら git で共有できる状態です。
大体こんな画面になってます。
ログがびろびろと吐き出されています。
大半がどんなデータが送られてきて、どんなデータを送ったかのログですね。
まぁこんな画像を見せられてもわけわからないでしょうが、雰囲気だけ…。
ビジュアルはなく文字ベースのものなので、わかりにくいですが必要な情報は見れるように作られています。
クエストの内容とか、各プレイヤーの所持金や所持キャラクターなどが表示されているのがわかるかと思います。
ちなみに、画像はクエスト中で、1人目のプレイヤーが1つ目のミッションをクリアした状態ですね。
ここを作りこんで時間をかけてもあまり意味がないので、この程度でよしと割り切っちゃってます。
Unity を使って、テストクライアントで行っていた挙動を作りこんでいきます。
UI なども載せてわかりやすくしていきます。が、まだデザイナ陣が入っていないのでプログラマが適当に用意した画像になっちゃってます。
まぁ、素材の差し替えは後でいくらでもできるので、気にせず雰囲気を出す程度にしておきます。
こんな感じの画面ですね。
テストクライアントと同じ状況を Unity で表示している画像になりますが、こちらの方がビジュアル的にわかりやすくなっているんじゃないでしょうか。
後は各画面を作りこみつつ、サーバ側に不備があれば修正 → テストクライアントで確認 → Unity で実装 という繰り返しです。
一通り仕上がったら、実際に AWS 上で起動して確認します。こうなると複数のプレイヤーで実際に遊べるようになります。
そして実際に遊んでみて、改修する必要があるところを確認したり、バランス調整をしたりしていきます。
まだまだ開発途中でカチッとしたビジュアルが見せられず恥ずかしいですが、プログラマだけで進めている開発初期段階ってこんなもんですよね…?(誰に問いかけているのか自分でもわかりませんが。)
ということで、今回はこれにてッッ!
はい!サウンド担当伊佐です。
私はラディアスリーのサウンド担当としてサウンド系のセッション(3日間で14セッション!!)に参加してきたわけですが、業界の動向とかハイエンドゲームのサウンド制作方法などなど、刺激を受けつつ自分が普段やっているスマホゲームの環境について考えさせられたところもあるので、備忘録もかねてブログに書いておこうかと思います。
今年のサウンド系セッションでキーワードになりそうなものを3つあげるとすれば・・・
みたいなところでしょうか?
ゲーム開発各社さんのセッションで共通の話題としてゲームにおける3D音響について語られる場面が多かったなぁ・・・というのが正直な感想です。
気になったキーワードは以下になります。
※説明があっているかはアヤシイので気になる方はググってくださいね。
チョー簡単に言うと、サラウンドスピーカーのパンニングアルゴリズムのことで、5.1ch サラウンドのように複数スピーカーの配置が前提の立体音響方のことをチャンネルベースとも言います。
素材音と音源位置や動きを分けて記録、伝達、再生する立体音響方式のことをオブジェクトベースといい、ゲームでは3D空間上のリスナーからの前後左右の方向と距離をリアルタイムで演算し、オブジェクトベースとして処理された音をチャンネルベース(5.1ch サラウンドとか 2ch ヘッドホン)に変換しているようです。
(スピーカーベースで考えられているので近接音が弱いらしいです)
めちゃくちゃ簡単に言うと、全天球カメラの音像表現として指向性マイクであらゆる方向の音を収録しておき、再生時にリスナーの首振りの角度に応じた方向の収録音を再生する方式のことでシーンベースという立体音響方式です。
最低限、前左右と後左右の 4ch の収録が必要で、収録する角度が多ければ多いほど定位感が増すらしいです。
(球体に64個?だかのマイクが仕込まれた試作マイクも写真で紹介されていました)
とてつもなく簡単に言うと、人間の頭部を模したダミーヘッドの耳の部分にマイクを仕込んで収録した音声のことで、目や鼻や耳たぶ自体を遮蔽物と考えて収録するため 2ch のステレオ再生、特にヘッドホンでの再生で非常にリアルに聞こえるのが特徴です。
(私も頭の周りをハエが飛ぶデモ音源を聞いたことがありますがメチャクチャリアルでした)
究極カンタンにいうと、頭部伝達関数といって人間の頭部(頭、耳、肩あたりまで)を遮蔽物として音の変化を伝達関数として表現したもので、実際に人間やダミーヘッドを使って HRTF を計測しておき、ゲームに応用するときにはオブジェクトベースの素材音に HRTF を畳み込み演算処理することで立体音響が表現できるという技術のようです。
(サウンドミドルウェアのプラグインとして HRTF のデモが参考出展されていましたが結構立体感ありました)
それぞれの方式に一長一短があり、業界的にもまだ探り中といった感じでしたね。
ヘッドホン環境では HRTF(に距離を加えたやつ)、局所で Binaural や Ambisonics。
スピーカー環境では相変わらずオブジェクトベース+チャンネルベース。
みたいな感じで現行は進む感じかな~と思います。
ゲーム開発各社さんのセッションでほとんどすべてのセッションで Audiokinetic Wwise のはなしが出てきていて、なんとなくコンシューマ系のビッグタイトルで導入が進んでいるような印象でした。
数年前に Wwise が出てきたときは英語環境しかなかったため敬遠していたのですが、今は日本法人も立てて本格的に参入してきているようです。
それまではサウンド系のミドルウェアといえばマルチプラットフォーム対応できるものは CRI ADX ぐらいしかなかったので隔世の感がありますね。
といったところでしょうか。
※もちろんそれ以外にもたくさん理由はありますが・・・
Wwise の利用例のセッションで気になったのは、多国語対応のビッグタイトルでボイスの収録数が10万行に達するようなことがあるそうなのですが、言語のタブを切り替えるだけで言語環境をチェンジでき、例えば日本語をベース言語に設定してファイルを追加していき、言語タブを切り替えて同じファイル名の英語音声を D&D して上書きするだけで各国語のフォルダに追加されていくのでプログラム側でサウンドのキューを変更することなく多国語対応できるという機能が紹介されていました。
また、Steinberg NUENDO8 のセッションで Wwise との連携機能を紹介していました。
スタジオでのボイス収録で NUEND8 のトラックに収録するファイル数分のブロックを一気に作成し、そのブロック名を一気に正規のファイル名にリネームし、ファイル書き出し用のマーカーを設定し、収録しつつ、修正しつつ、良きところで書き出しつつ、GameAudioCnnect2 という機能(NUENDO8 独自の機能)で Wwise に取り込むという、怒涛のような制作事例を紹介してくれました。
ショートセッション(25分)だったのですが、メチャクチャ効率の良い理想的なデモをしていて実はこのセッションがいちばんタメになったような気が・・・
コンシューマーのビッグタイトルでは大量のボイスを扱い、多言語対応をし、インタラクティブサウンドの対応もしなきゃならず、サウンドデザイナーがクリエイティブに避ける時間を捻出するためにも Wwise のようなミドルウェアを導入しているのかな~と感じました。
海外のボイス制作のスペシャリストの方がセッションしていたのですが、HALO や GearsOfWar など AAA タイトルでは8千~10万ワードのオーダーでのボイス制作が当たり前で、製作期間は3年費やすものもあるそうです。
例えば、ボイスアクターについてもユニオン(俳優組合)かノンユニオンから選択して(ユニオンとノンユニオンの共存は御法度らしいです)オーディションやセレブへのオファーが行われ、俳優のエージェントと契約を交わし、ボイスディレクターを選出し・・・と制作スタイルもハリウッドスタイルで行われているという話で、やっぱ規模が違うな~と。
ただ、ここでも Wwise が登場していて、予めシナリオがフィックスした段階で仮データ(容量見積もりもかねて実時間のファイルを作成します)でゲームビルドまで組んでしまって、スタジオでの収録時に録ったそばから Wwise に取り込んでゲームのビルドで確認をしながら納品データを作っていくというような使い方も紹介されていました。
このやり方は多言語対応する際、その国のスタジオ内で Wwise とゲームビルドで同じ作業、確認を行えばミスが防げるためとても有効な手段だと思います。
ほかにも「ニーア・オートマタ」の3Dオーディオ実現方法とか「ゼルダの伝説ブレスオブワイルド」の3Dフィールドにおける自然な環境音の配置とか、興味深いセッションがたくさんあったので、いずれ機会があれば書こうかな~と思います。
CEDEC に参加するのは実は初めてだったのですが、今回の CEDEC はサウンドのセッションが結構充実していたそうで、サウンド担当としては非常に有意義な3日間でした。
とまぁ、今回はこんなとこで。
次回は ADX2LE 試用レポートをやります。
ラディアスリー株式会社ではサウンド制作も行っております。
サウンド制作でお困りのアプリ開発者の皆様、お気軽にご相談くださいませ。
お問い合わせはコチラまで!