Nobuhiro Seki
前にここでファイナルファンタジーのハプティックの話にしませんでした。
Mika Ueno
したしたしたした。友達がハプティック研究者で。
Nobuhiro Seki
で、その時もね、ダウンロードしていわゆるお試し版。
お試し版の結構最初に多分30分の1時間ぐらいできるはずなんですけど、
ずっとやってたらやっぱりすごい振動するんですよ。
で、本当にこう最初からすぐにしばらくするとアクションシーンとか出てくるんで、
その時にもういきなりすごい手に汗握るようなシーンになってすごいコントローラーが揺れるんですよ。
で、確かにそのよくできていて、
特にコントローラーって今って結構ずっしり重くて両手にしっくりくるじゃないですか。
だからそういう意味で言うとすごい持った感じで出てくるから、
今回F1のAppleのやつをやって、
あれはあれでやっぱり軽い気持ちでちょっと宣伝見てみようと思ってやったらいきなり動くっていう、
そういう意味でいきなり没入させるっていう効果がすごいあるなと思ったんですけど、
一方でやっぱりハプティックっていう意味で言うとやっぱりPS5のやつのほうが
やっぱりよくできてはいたなと思うんですね。
なぜかと言うと画面もでかいし、こっちもずっしりしてるし、
ストーリーがすごい長い中でやってるからっていうのはやっぱり
トレーラーとして画面にパッと引っ込ませるっていうのが最初に出てくるのは結構インパクトがあっていいなというのはちょっと思いましたね。
Mika Ueno
そうですね。あとiPhoneの振動でウィーンっていうエンジンの走ってるときってすごい振動出るじゃないですか。
あのぐらい強い振動iPhoneが出す場面とかアプリとかって今まで本当に何十年使ってるけどこんなのないなと思って、
ここまで出せるんだと思ったのがびっくりしたんですよね。
結構な振動で多分運転してる人とかもっとなんだろうなと思ったし、
iPhoneってこんなに振動出せるのねっていう、あの運転席の振動と、
あとブラッドフィッドが壁に向かってちっちゃいボール投げてるシーンあったじゃないですか。
あれをポンポンポンポン投げてるんだけどそのボールが跳ね返って自分の手に返ってきてるってあの振動も、
それもまた食感が違って硬い面に当たったプラスチックのボールが返ってきてるみたいな感じの食感だったんですよね。
あれもこんなに表現違いがあるんだなっていうのはすごい面白かった。
でもう一回プレイステーションの話をしてた触覚研究者とこの間話してアップデートがあって、
最近の出たデスストランディング2っていうゲームがあるんですよね、小島秀夫さんの。
デススト2のハプティックスもすごい面白いって話をこの間してて、クリアはしてないんだけど、
なんかね、さらに進化してるらしいです。
主人公のサムが地面を歩く、あれお届けゲームなんですけど、
歩いてる地面の質感がなんか色々あるらしいんですよ。
草とか草の上とか岩石とか土とか、草も踏み固めていくじゃないですか、人が通っていくと。
そういう地面の質感を出してるんですよとか言ってて、それはちょっとやりたくなるよねって思いましたね。
Nobuhiro Seki
コントローラーでそれが。
Mika Ueno
そう、私も同じこと聞いた。コントローラーで地面の質感ってどういうことですかって言ったら草とか硬いとかあるんですよって言って。
その調整をしてるのがハプティックス専門の人がやってるみたいで。
なんか想像できないじゃないですか。手元に持ってるコントローラーでなんでこう地面の感じが出るんだっていう。
それも多分あるんですよね。振動の設計の仕方。
どうやってでしょうね。
Takuya Oikawa
この間NHKでゲーム業界のこと、どっちかって中高生ぐらいの子供向けの番組だったんですけど、あれどこだったんだろう。
ゲーム会社どこか忘れましたけれど、音って普通に今シンセサイザーで音って作れるじゃないですか。
そうじゃなくてリアルな音を使って音を元にしてるんですよね。
なんかあるこういったモンスターのキャラクターの鳴き声みたいなやつを作るのに、
ホームセンターで買ってきたようなものを組み合わせて、これを絞ってみようとかギューって回してみようとかっていうところからこれを使うとかってやってるんですよね。
Nobuhiro Seki
昔よく効果音みたいな。
Mika Ueno
映画の効果音みたいなね。
Takuya Oikawa
アズキをこうやってガシャガシャやってる。
だからちょっとそれとは違うけど、確かにHapticsでっていうのは、まだF1レーサー乗ってるんだったら実際に手に来るし、
比較的似たデバイスだからハンドルっぽく持ってるって想像するけど、そうじゃないもの乗ってるの。
どうやって発想を得て、そのデザインってどうやってるんだろうって思いますね。
Mika Ueno
ちょっと前、2年前のやつですけど、ワイヤードで何々の専門家だけど聞くことあるみたいなやつ映像化してるんですけど、
ゲーム効果音の職人の仕事みたいなのがあって、この方も革ジャンを擦ったりとか、剣を出す音とかを、
すごい専門のスタジオやって再生してる青い髪の美しい女性なんですけどね。
これもこんなんで音出してんの?みたいな感じしましたね。
途中でこの人も出てくるんですけど、音があるのとないのとで、やっぱそのシーンの人の動き方とか盛り上がり方が全然違うっていう感じますよね。
例えば、剣をテーブルに置くっていうのはほとんど現実世界というか、現実にやるとほとんど音はしないんだけど、
それをあえてでっかく出すことで、そこに剣を置いて一斉に入っていくみたいなものが盛り上がるみたいな。
普段だと見過ごしちゃうような感じですよね。
ゲームの音の効果音、リアルな音でっていうのは面白いですね。
世界の中で本当に鳴ってる音を自分で探してくるっていうか、それって想像力とも一緒になるじゃないですか。
これってこの音に使えそうみたいなね。
音とか効果音とかって本当に聞き流すっていうか、当たり前に存在しすぎてるとスーッて記憶にも残んないですもんね。
でもストーリーとかその場面を表現するには絶対不可欠なんですけど。
Nobuhiro Seki
YouTubeとか見てると効果音っていうか工事現場の音とか、駅の音とか、いくらでも探すと出てきますよね。
Mika Ueno
そうですね。アリバイ作りみたいなのよく言われるけど。
環境音。
Nobuhiro Seki
環境音、本当にいくらでも出てきますよね。
Mika Ueno
数年前、Evernoteをやっていて、IT系の仕事から次ゲーム業界の仕事になったんですよね。
クライアントが増えて。
ゲーム業界になって、全然事務知らないところだと思ったんですけど、
ビジュアルでどう表現するかっていうのと音でどう表現するかっていうのって、
その時のIT系にはやっぱりない表現の仕方だったり、開発に絶対必要っていうところではなかったから、
この音で表現するっていうのはすごいなって思いました。
例えば今ではイヤホンとかでアプリ触れることも多いと思うんですけど、
例えばウィンドウ閉じる時とか、メッセージが来た時とか、必ずピンとかって音鳴ったりするじゃないですか。
そういうのは当たり前なんですけど、ちょっとした動作に対して音が入るだけで、
ちょっと気持ちよかったりしますよね。
ああいうものとかは音っていうのってあるんだなって、本当にカルチャーショックですけど思いましたね。
Nobuhiro Seki
ハプティックでいうと、ChatGPのアプリって出力する時に軽く振動しませんか?
Mika Ueno
ああ、バババババってタイプインするような。
Nobuhiro Seki
タイトーみたいなやつですか。
あれが結構その…
Mika Ueno
まあ確かに。
Nobuhiro Seki
ちょっとしたことなんだけど、アプリを際立たせるっていうか分かりやすくしてるなっていつも思って。
Mika Ueno
あれちょっと気持ちいいですよね、ドドドドって来てるの。あれ好きです。
Nobuhiro Seki
あれ回ってる時とかにね、他のものを僕見てることが多いんで、ガタガタガタって動き出したら、
あ、来てきたって感じになるっていうのももちろんあって。
Mika Ueno
通知としても。
通知としても使ってるし、もちろんちょっと気持ちいいのもありますけど。
確かに。
Takuya Oikawa
なんかこのフィードバックってすごいいろいろ工夫できますよね。
僕はやっぱり何回かこのポッドキャストでも話してるんですけれど、音声で使うことが多いんですね。
自動車に乗っている時に運転しながら壁打ち相手になってもらったりいろいろするんですけど、
画面見れないわけなので黙られちゃうと困るんですよね。
結構PowerPlexiだったりGeminiだったりGPTだったりっていうもののコンテキスト調とかメモリ容量みたいなもので、
本当に普通にハングしたのか黙っちゃうことがあるんですけれど、
そこでやっぱり考え中ですとかみたいなのがわかるっていうのはすごい大事だなと思っていて。
Takuya Oikawa
ちょっとどれだったか忘れたけれども、ウェブ検索してそこで何か引っ張ってきてっていう時にちゃんと音が鳴るんですよ。
テレテレテレとかちょっと忘れちゃったんですけど、あれとかすごいいいなと思いましたね。
Nobuhiro Seki
ちゃんと動いてるんですよ、やってるんですよってやつですね。
Takuya Oikawa
今調べ中です、今考え中ですみたいな感じのがちゃんと出るようになってるんですよね。
Mika Ueno
それいいですね。
Nobuhiro Seki
それあれインストールのウィザールとかのパーセント表示とかと一緒ですよね。
Takuya Oikawa
そうですね。完全に音だけで操作するってことをGoogleアシスタントみたいな音声アシスタントで我々経験はあるものの、
あまり今までなかったと思うんですね。完全にこの会話できるようなそこまで知性のあるソフトウェアとかっていうのはなかったくて、
今結構それが一気にまたできるようになってきてるって考えたときに音声でのフィードバックっていうのはすごい大事だなと思いましたね。
Nobuhiro Seki
考えてみるとそうですよね。電話とかでも待たせるときってだいたい保留ONがなるじゃないですか。
確かに。
あれもやっぱりつながってるってことを確認するためですよね。あれ切りたくないですよっていう。
だからあれ相手が保留をなしで、そのまま受話器をそこに置いたりすると、これ本当につながってるのかなと思うときってありますね。
Takuya Oikawa
でもこういうコンピューターとかソフトウェアのやることの方が人間よりも先を進んでるなと思うことがあって、
どういうことかっていうと、前話したかどうか忘れたけど、なんかチャットしてても何してても聞いてるの?聞いてないの?とか、
それとか若干非動機モードのやつだったりすると、いなくなんならいなくなるって言ってよとかっていうのがあるわけじゃないですか。
なんか既読とかって作るならともかく。
なんでじゃあわかった、アックナックで返すよって話をして、いや人をソフトウェア扱いするなって怒られたことがあるんですけど。
でも今何言いたかったかっていうと、リアルな人でも考えてるときに何も言わずに、例えば3人で議論してたとします。
私が黙っていて、美香さんとチェキさんが話していてっていうときに、
お彦はこれは納得してるのか、それとも何か言おうとして考えてるのかって分かんないときがあるじゃないですか。
で、そのとき気が利かないとそのままお二人を先に進めていくみたいなこともあれば、
むしろ何か聞かせて、お彦さん今何か言おうとしてますかとか考えてますかとかって言って、いや大丈夫です先進んでくださいとかっていうことがあるじゃないですか。
これこそチャットGPTみたいに考えるときにテレッテッテレッテってずっと言ってれば、お彦は今考えてるんだなって分かるから、
考えちゃおうと。
やるべきじゃないかなと思ったんですけどね。
Mika Ueno
そっかそっか。確かに無言のときにそれがどういう状態の無言かっていうのは分かんないですよね。
Takuya Oikawa
特に美香会議だと分かんないんですよね。
Mika Ueno
そうですね。考えてそうな感じもするけど。
Nobuhiro Seki
でも実際にほら、最初の頃に取り決めで合図打たないようにしましょうって言ったじゃないですか。覚えてます?
これね。
合図打たないから余計、もし画面がないと本当に考えてるのがそもそもいるの?みたいになりますよね。
普通の一対一のときに聞いてるときに合図打ってて、それが相手側がいるって分かるっていうことになるじゃないですか。
ちゃんと聞いてますよっていう。
特に英語でやってると頻繁に合図打たないと向こう側も聞いてるみたいな感じになるんですよ。
だからアハーみたいなこと言うわけですね。
目の前にいてもそういうことを相手に許容するわけですから、ある意味聞いてますっていうことをね。
だからそれっていうのはやっぱりこういうビデオでそういうのが分からない時って何か本当にフラグを上げて考えちゃうとかやんないと分かってもらえないよねっていう。
表情を見ると目線とかね、よく目を右上げに上げるとか左上げに上げるとか言うじゃないですか。考えてるときって。
それもある意味そういうティピカルなジェスチャーがあることによって何だかこの人今考えてるなっていうのをこうやってやってるのが分かるみたいな。
Mika Ueno
やっぱそのフィードバックっていうのが必要なんでしょうね。
自分で話したりとか話しかけてるよって言ったときに身体的なジェスチャーそれから声によるフィードバックとかこの人こういう反応があるから自分が話してる感とかそういうのが出るんでしょうね。
それがアプリになったりとかデジタルになったりとかAIになった時にもその反応っていうのがあった方が人間のその行動様式なのかな行動原理なのかな。
そういうのが必要だってことなんですよね。