それぞれも会話をしつつ、手元に録音を残さなくても済んでしまうようなシステム。
じゃあレコーダーっていう考え方というよりは、クラウドのサーバーにも直接溜まっていってるみたいな。
そうですね。
うわ、すげえな。
なんで取り残しっていうのがなくなる。
確かに。
そうですよね。
逆に取り間違えとか取り忘れみたいな、そういうミスみたいなものって、
そっちのリスクっていうのはないんですか、むしろ。
それもないわけではないですけれども、
一応バックアップを別のやり方で残したりとかもしてましたけれども、
今はもうそれもなくていいなっていうところまで。
要は経験値を減るとそういうのもないぐらい安定してるっていうことなんですね。
じゃあなんか撮ってるというよりは、
なんかちょっと感覚変わりそうな気がするんですけど、
それこそローカルのパソコンにレコーディングするにしても、
実際ハードウェアを使って録音ボタンを押すにしても、
なんか本番で録音を始めるよっていう感じがやっぱりフィジカル的にもあるんですけど、
リバーサイド環境だとどういう感覚なんですか、始めるときって。
そう変わるわけではないんですけれども、
単にレコーディング開始しますって言って、
一応バックスペースでよくやってるんですけど、
3,2,1,0でカチンコを合わせるっていうのをやってますけども、
それもいらないかなっていうことに最近はなってますね。
じゃあもうバーと撮る様子で撮っちゃった後は、
もう編集する時にクラウドから呼び出して、
ローカル環境で編集するみたいな感じになるんですか。
終了すると、終了ボタンを押すと、
その後の数秒で全てのアップロードが完結すると。
それまで逐次アップロードされてるので。
そっか。そっかそっかそっか。
じゃあなんかそこからさっきのAIの話まで繋がっちゃいそうな気するんですけど。
はい、繋がると思います。
要はそこに繋がるぐらい、
もうクラウド環境での制作っていうのが、
もう3,4年前から始まっていってるっていうことなんですね。
リバーサイドFMの環境が整ったところで、
じゃあ実際マイク含めた機材周りってどういう変化が起きたんですか。
そこはそこもそんなに変わってないですね。
マイクとかオーディオインターフェースとかそれほど変わってないんですが、
その後リバーサイドFM自体で編集しようっていうことになったので、
ノイズキャンセリングっていうのをどこで撮るかっていう。
確かに。
ちょっとこれまだ悩んでる部分ではあるんですけれども、
バックスペースFM自体はYouTubeライブと同時にやってるんですね。
配信と収録っていうのを同時にやってて、
バックスペースFMをライブで流すときには、
OBSっていう配信用のソフトを経由して、
なるほどなるほど。
じゃあそれも3者一緒ってことですね。
これは僕の声質、性質に合ってるっていう話を聞くので、
特に変える必要はないかなっていう。
じゃあもうそれは自分の声のキャラクターに合ってるっていう意味で、
もう使い続けてるって感じなんですか。
ただね今一つ気になるマイクがあって、
オートフォーカス機能がついてるマイクが今話題になってまして、
それどういうことかというと近接センサーがついてて、距離センサーがついてて、
その距離に応じてゲインを上げたり下げたりとかいうこと。
あとは離れすぎると、それで接続完全にオフにしたりとか、
いうこともできるようなものがあって。
僕らはいいんですよ。僕とかドリキューはいいんですけども、
実は前日なんか結構マイクから距離離れてしまう人なので。
確かに要は編集工程をシンプルにしようとすると、
やっぱり録音されてる音源自体も原因っていうか、
音量のばらつきがないほうがいいって決まってるから、
今話してたことはどういうことかっていうと、
慣れてないというか癖でマイクと自分の口の距離をすごく動かしてしまう人っていうのも多くて、
それこそロクロを回すじゃないですか、アクションが多いほどやっぱりマイクとの距離が変わるし、
あと座り方で変わったりするので、
それでやっぱりこだわる人が編集のときに録音のボリュームを微妙に変えたりするんですけど、
それがいらなくなるのがマイク自体についてってことですよね。
そうですね。
すごいですね。
これは一つ大きな革新的なものだと思います。
これからそれは主流になっていくような気がしますね。
カメラがオートフォーカスが出てすべて変わったようになる。
わかります。
実際、僕も編集やるときに呼び方、まさにフォーカスって言い方してるんですけども、
実際、均等に録れてる音源でも、映画で言うとカメラがズームしてアップになったり引いたりするみたいな効果のように、
実際編集のときにフラットに録れてる音源を上げたり下げたりして、
注目すべき音はどこかっていうのをフォーカスするっていうのを編集のときに、
こだわるときはやるんですよね。
それを逆に言うと、ばらつきをなくすためにフォーカスしていくっていうのを
マイク側がやってくれるってことですもんね。
そうですね。
やっぱり今のこのフォーカスっていう単語が入ることによって、
少しマイクに対する考え方っていうのをくっきりするかなっていうのは今聞いて思いましたね。
ただそれはソフト的にやってるので、
本当はその距離を一定に保つのが一番いいわけですよね。
しかもこっちが気を使わなくていいタイムキーパーだからね。
あとタイムキーパーをしてるよっていうフリをせずに、
自然にそれをやってくれるみたいな信頼性がありそうですもんね。
今実際、さっき冒頭にAIのお話をされてたんですけど、
それが今のような形なんですか?
それともまた違うようなAIの入り込み方ってあったりするんですか?
いろいろ考えられるとは思いますが、
2人ともいなくなった、3人ともいなくなった時はどうしようかねっていう。
アーカイブとしてのバックスペース.afmっていう意味でのAIですね。
永遠に生き続けるAI、ポッドキャストっていうのもありじゃないかなっていう。
僕もライフワークとしているのが、妻とずっと歌い続けるっていうのがあるんですけど、
それと同じようにずっとやっているポッドキャストっていうのが。
じゃあちょっとそこでお聞きしたいのは、
今本当に松尾さんといえばバックスペースであり、テクノエッジでありっていうのがありながら、
今AIアーティストとしての松尾さんっていうパーソナリティも、
今すごく皆さんにとって知られていると思うんですけれども、
AIアーティスト松尾さんとして、
今表現されている、いわば作品で対話をしているようなことを日々やられている松尾さんからすると、
今、例えばですけど、AIドリキンさんと何か話し続けるみたいなものってありそうな気がしますか?
いや、これはですね、僕がやるまでもなく、リスナーの方が既にやっているものを聞いて、
それ聞いてないやつなんですか?
AIドリキンとAI松尾が会話をしている架空のバックスペースFMっていうのを作ってくださった方がいらっしゃるですね。
どうでした?聞いてみて。
いや、これ分かんない人は分かんないと思う。
でもね、それこそ毎週アップされていて、もう10年やられているっていう意味でいくと、
食わせるソースっていうものはもうふんだんにあるわけですよね。
考えると、人格みたいなものを作ったりするのって圧倒的に有利ですよね。
そうですね。アーカイブはむちゃくちゃ残っているので、
ただそれを食わせるだけのコンテキストウィンドウが今のLLMにあるかっていう。
確かに確かに。
じゃあ、なんか発話とかニュアンスとかキャラクターができたとして、
じゃあその新しい、何の話題を話すのかっていうアイディアみたいなところがどうなるかっていうところかなとも思いますよね。
実際3社がAI化して自動で話してたとしても、じゃあ何を話すの?みたいなところ。
それ面白いのかっていう。
そこなんですよね。
例えば内緒で1人だけAIにしといて、3人で話してバレない回はあるのかもしれないけど、
やっぱ全員不在っていうのはあり得ないのかなっていう気がしますよね。
前放送中に僕は声が出なくなったことがあって、
その時に自分の声をクローンしたテキストツースピッチのソフトを使ってやったりとかもしたんですけど。
本当でした。
まあさすがにバレますけど、まあ似てるよねっていう話になりましたね。
あと、僕仕事をしている時に収録しなくちゃいけないことがあって、
会社にバレないようにタイピングすると自分の声が出るっていうのをちょっと実験したことがある。
バレないようにするぐらいのニーズって、なんか全然今でもいけそうな気がしますよね。
今の技術だったらもう完璧にできるでしょうね。
だからそこにいるっていう潜入感まで仕込めれば、そっから先っていうのはいくつかのパーツは変わっちゃっててもバレない。
ただ最初にこの人の聞いてる、この人と一緒にいるっていう信じられるセットアップみたいなところがまだまだ実態が必要かなっていうような感覚なんですね。
そうですね。
誰が書いてるの?誰が歌ってんの?誰が喋ってるの?っていうところに対するイメージですよね、受け手側の。
だからある意味、ブランディングっていうか、ブランドの象徴である何かっていうものに聞き手が委ねているかどうかっていう部分、そこですよね。
最終的に自分たちのブランドで出すからには、そこはそこで何かしらの選択をしてるわけで、
それがAIが単にスルーで出していったものとは違うというふうに僕は思うんですね。
例えば今、AIの作曲ソフトってすごくよくできていて、多分普通の人は全く聞き分けがつかないと思うんですけれども、
その場合でも、その曲を最終的に選ぶのは、それのオペレーターであり、ある意味、AIのクリエイターだと思うので、
そういうことができるようにはしておきたいなとは思いますね。
だから今、なんで僕はブランドっていうワードを使ったかっていうと、
例えばルイ・ビトンがどこからか適当な近い革のバッグを持ってきて、
ルイ・ビトンの店舗に置けば、ルイ・ビトンのバッグとして感じて、
ルイ・ビトンのバッグのように人は喜んでくれるんだと思うんですけれども、
ルイ・ビトンという枠がない状態で、ルイ・ビトンと同じクオリティの革製品があっても、
人はそれをルイ・ビトンだと思わないみたいな、なんかそういうのに近いかなと思ってて、
だからやっぱり、松尾さんの話を聞いてるって思ってる受け手の感情が満足されてないと、
おそらくAI松尾が同じようにしゃべったとしても、なんか満足しないかなっていう、
そこら辺の機微、だから誰が選んだのかっていうシグネチャーの部分ですよね。
そこはやっぱりいろんな分野の方が今AIのお話しされてますけど、
行き着くところは大体皆さんそういうお話ししてるのかなっていう感覚がありますよね。
とはいえ、バックスペース.FMにはそこをいろいろファーストペンギンとして踏み越えていってほしいなと思う。
いや、やりたいことはたくさんあるので、ちょっと体ごいつくかどうかですけどね。
でも今でも実際に本当にこうスマホの時代、アップルの時代、スマホの時代とかを経ながら、
いろんなテック面でのブレイクスルーがあって、今一旦一段落したかなと思ったタイミングでまたAIが、
生成AIから一気に変わってきてって言って、なんかね、さっきも言ったんですけど、
本当に羨ましいネタが、ワクワクさせるネタっていうのが尽きないっていう。
で、実際松尾さんたちは自分たちの作品作りにもどんどんフィードバックして、
僕らに届けてくれるので、僕らもそこに追いつきたいなと思うし、真似したいなと思うし、
そういうところですよね。
でも今、自分がクリエイトしたものが思っている方々は、
それをさらに別のものに変わらせたり、別のものをマージしたりということができる、
すごくいい時代にいると思います。
あとさっきのリスナーの方が勝手に作ったみたいな、
なんかその二次創作ともいえない、ファンアートともいえない、
全員参加者として遊んでる感じが、やっぱりバックスペース.FMのコミュニティには感じるんですけど、
それはあります?
それはですね、非常に面白い現象が起きてて、
バックスペース.FMでコミュニティを2つ作ってまして、
1つはマストドンのグルドンと、
あともう1つ、今の有料の会員制のバックスペースマガジンとBSMっていうのをやってまして、
そのBSMの中では、リスナーさんと一緒に参加していただくような番組っていうのを週1でやってます。
参加なんですね。
僕とかドリキンとかと、
あとリスナーさんのコンテンツを見るのがすごく好きな人たち、カメラ好きな人たちとかが参加して一緒に投稿する。
それをその会員向けに配信するっていうのもやってるんです。
いいですね。
じゃあやっぱりトピックも人によってどんどん変わるし、