1. from 雑談
  2. #58|INSIGHT supported by SH..
2024-07-01 58:40

#58|INSIGHT supported by SHURE「Podcastにおける良い音とは? backspace.fm ~10年の音響遍歴」GUEST: 松尾公也 / backspace.fm

from雑談【INSIGHT】では毎回異なるポッドキャスターの方をゲストに迎え、主に音作りの観点から、普段の配信ではなかなか話すことのできない、コンテンツ制作の裏側を深ぼってお聴きします。
果たして、優れた作品を生み出し続けるポッドキャスターは、何を意識し、どこに注目して、番組を作り続けているのでしょうか?

from雑談【INSIGHT】は、およそ1世紀にわたり世界のレジェンドから支持され続けるブランド「Shure」の提供でお送りします。〈収録:2024.6.21〉

-

[GUEST] ───────────────────

【松尾公也 / Koya Matsuo 】


8ビットパソコンでDTMを始めたのが1982年。Mac雑誌「MacUser」編集長を経て、現在はテクノエッジ編集部に所属。GarageBandの著書2冊と、AIに関する共著あり。ポッドキャスト番組「backspace.fm」のパーソナリティを担当。ほとんどの作業はiPhoneとiPadのGarageBand、MacのLogic Proで、妻が遺した歌声をMacで合成して新しい曲を作り続ける超愛妻家。2023年からはAIにより妻の歌声と映像を生成する超AI妻家になり、第一回AIアートグランプリを獲得した。backspace.fm https://x.gd/85VBH

-

[HOST] ───────────────────

【メチクロ / Mechikuro】

マンガ・オーディオ・アート・クラブミュージックなどの第一線で、分野横断的に活動するクリエイティブディレクター。 グラフィック&プロダクト両面のデザインのみならず、編集&ライティングからブランディング&プロデュースまで多様なスキルセットを駆使する。 これまでの経験と知見を活かし、『JAPAN PODCAST AWARDS』では創設メンバーとして、2019年創設〜2021年まで3年に渡り理念&審査レギュレーション設計、選考委員選定、ノミネート作品選考、グラフィック&トロフィー造形など中核業務の全てを担当。 作品選考作業においては、年間平均2000作品・2000時間強に及ぶ聴取・リサーチ・分析を行い、アワードという一つの基準において、国内ポッドキャストシーンの可視化とクオリティの定性評価に寄与した。 現在、自身のポッドキャスト作品としては、ぷにぷに電機と共に制作する『LAUNDRY AM』を配信中。 『雑談』では、より広く、より深く、音声作品の可能性と魅力を伝えるべく、さらなる能力を解放する。───────────────────────



XIG

©︎雑談 https://zatsudan.co.jp/

00:05
雑談がお届けするポッドキャスト番組、from 雑談|INSIGHT。
INSIGHTでは、毎回異なるポッドキャスターの方をゲストに迎え、
主に音作りの観点から、普段の配信ではなかなか話すこともできない
コンテンツ制作の裏側をかぼってお聞きします。
果たして、優れた作品を生み出し続けるポッドキャスターは何を意識し、
どこに注目して番組を作り続けているのでしょうか。
from 雑談|INSIGHTは、およそ1世紀にわたり、
世界のレジェンドから支持され続けるブランド、SHUREの提供でお送りします。
新番組、from 雑談|INSIGHT supported by SHURE始まりました。
こんにちは、ムチクロです。
本日のゲストは、backspace.fmより松尾公也さんをお迎えいたしました。
よろしくお願いします。
よろしくお願いします。
こういう形で、ようやく松尾さんとゆっくりお話ができることになって、すごい嬉しいです。
ムチクロさんと対面でトークできるというのは、
前、パーティーでちょっとお話ししていただけだったので。
僕も、ポッドキャスターアワードをやっていた時は、
ポッドキャスターの方と会わないようにしていたので、
なおさら接点を持てず、
今、雑談を始めてから、徐々にいろんな人とお会いできることになって、
松尾さんとはどっかのタイミングで絶対お話したいと思って、
ずっと狙っていて、ようやくこういう企画が始まって、
本当にありがとうございます。
ひとまず、この番組では、
雑談というお店もアカウントもなんですけれども、
ポッドキャスターの方がすごく多くいらっしゃってくれるので、
ポッドキャスター向けのテクニカルなお話をしっかり話せるコーナーを作りたいなと思って始めたコーナーなので、
ということは、もう第一回目は松尾さんしかいないだろうと、
そういうことでお願いしたんですけれども、
内容的にはどこまでも深く、
ただ伝え方はできるだけ柔らかくみたいな、
そういうのを目指してやりたいので、
ぜひよろしくお願いします。
ちょっと前置き長くなったんですけれども、
今更なんですけれども、改めてバックスペース.FMという番組はどういうものなのかを伝えたいので、
ちょっと簡単にバックスペース.FMのご紹介していただいてもいいですか。
ありがとうございます。
バックスペース.FMというのは、
最初スタートした時には、
サンフランシスコに住んでいるソフトウェアエンジニアのドリキンと、
テック系メディアの編集者をやってます松尾。
03:00
この2人でスタートしたんですね。
これが2014年で、
最初に歌ってたのが、1週間分のテック系ニュースをまとめてお伝えするような、
メディアがあってもいいんじゃないかなということでスタートしました。
最初はね、30分ぐらいでまとめて軽く聞ける番組を目指してたはずなんですけれども、
まさか、本当ですか。
本当なんですよ。
通勤中に乗り換える前に終えられるぐらいのコンパクトなものを目指そうとか言ってたんですけど、
全然そうはならなくて。
結果今、2時間越え、毎週1回やってるんですけれども、
2時間越えのテーマで、
しかも1週間分のテック系ニュースを追うこともなく、
深掘りといえば深掘りなんですけれども、
その時の気ままにテーマを決めずに、
その時の流れでやるということになっております。
でも今やテック系といえば、
バックスペース.fmというぐらいになりたいと思って。
なってます。
僕も本当、かなり前から本当に楽しく聞かせていただいていて、
今現在は3名、3名体制なんですよね。
ドリキンと私と、
あと今西川善司さんにちょっとしばらく前から参加していただいてて、
西川善司さんはテック系のジャーナリストとして本当古株で、
どのくらい古い系というと、
8ビットパソコン、8ビットマイコンの時代からのライターさんなんですよね。
なので、1980年代からの非常に若々しい方なんですけれども、キャリアのある。
今はゲーム系のテクノロジーであるとか、
コンピューターグラフィックスであるとかに詳しいので、
参加していただいて、非常に技術的な深掘りができるようになってます。
本当にありがたいです。3社のそれぞれの知見が。
バラバラですけどね。
それがいいですよね、本当に。
今実際、バックスペース.fmを作るにあたっての、
3社の役割分担ってどのような形になっているんですか。
作るにあたっては、西川善司さんはトークだけ参加していただくという感じで、
メインの、例えば編集であるとか、インフラ周りはドリキンがやって、
僕はそれを記事にしたり、
パブリッシュするときのタイトル付けとか、
概要を作ったりとか、その辺をやってますね。
なるほど、なるほど。
でも、なんとなくイメージ通りで良かった。
でもね、これも色々変遷があって、
最初の方は僕がオーディオの編集をやってたんですよ。
そしたら、どんどん遅れていって、
下手すると1週間ぐらい遅れてしまったんで、
06:02
ちょっとこれは任せておられんということになって、
ドリキンの方に。
それは、こだわりでという感じなんですか。
こだわりですね。
そうですよね。
ちょっと今日は、その辺の変遷踏まえて、
ポッドキャスターにとっての音ってどういうことなのかみたいなのを
お話ししていきたいんですけれども、
せっかくなので、こぼれ話は序盤にしておきたいなと思って。
最初からこぼれ話。
今、バックスペース.fm 内に新たに新しい体制が作られているように見えるんですけれども、
そちらはどうなっているんですか。
そうなんですよ。
本当、新しい体制にしてまだ1ヶ月も経ってないぐらいなんですけれども、
それまではかなり多くの人の協力を得て、
例えば編集であるとかライブ対応とかやってたんですけれども、
今その辺をほぼ2人だけでできるように切り替えてやってます。
なんでそうなったかというと、AIのおかげなんですね。
それまで必要であった編集の作業とかが、
今、オンザフライというか、
放送中にもう編集が終わってしまえるような、
すごく簡略化するやり方というのを、
どりきが見つけまして。
めっちゃ気になる。
何それ。
そうなんですよ。
ポッドキャストって何が大変かというと、
放送も大変なんですけれども、
収録も大変なんですが、
その後の編集と、
その内容を後で思い出しながら、
概要を書いたりタイトルつけたりするのが大変じゃないですか。
それが一瞬で終わるという。
すげえ。
リアルタイムでどんどん進んでるってことなんですか。
そうですね。
ちょっとそれまた後の話で、
詳しく何を使ってるのかとか伺いたいですね。
今番組的には、
テクノエッジさんとも合流してると思うんですけれども、
そちらはどのような流れで。
僕はテクノエッジに参加したのは、
去年一昨年の9月なんですね。
一応僕の肩書きとしてはコミュニティを作ろうという。
コミュニティ、僕は今自分でできることで、
手軽にできるものといったら、
ポッドキャストだろうということで、
ポッドキャスト番組をバックスペースの中に曲がりして、
それで週1で月曜日の正午からやるっていうのを、
もう1年ぐらいやってます。
その流れが僕的にはすごく嬉しくて、
僕もテクノエッジがメディアとして立ち上がるときに、
アートディレクターとしてグラフィック周りを
お手伝いさせていただいたんですけれども、
そのときにせっかくすごく面白いメディアが立ち上がるんだから、
ポッドキャストやってほしいなって実は思ってて、
09:00
サイさんとかにもなんか進めたいなと思ってたら、
なんかあれよあれよと、
カイさん加わり、松本さん加わり、
バックスペース内にテクノエッジサイドが出来上がりっていう、
もうなんか僕の夢のような形で実現してたので、
なんか本当に理想的な形だなと思って。
で、曲がりっておっしゃいましたけど、
実際リスナーさんっていうか、
オーディエンスの方との相性っていう意味ではね、
それが一番いい形に僕も見えたので、
それこそアカウントを横断することなく、
バックスペース内で両方聞けちゃうので、
僕は本当にいつも嬉しいですね。
ありがとうございます。
1週間分のテク系ニュースをっていうのが、
初期のバックスペースFMの歌い文句だったんですけど、
そこはテクノエッジサイドに、
それもね、初期メンバーのカイさんが、
僕と一緒にやってるので、
その当時のことを思い出しながらやってるような部分ってのが少しあります。
そこで合流して繋がるんですね。
非常にシームレスに繋がってる感じがします。
素晴らしい。
でも多分リスナーさんも僕と近い感想なんじゃないかなと思いつつ、
本当に毎週楽しく聞かせていただいてます。
じゃあちょっといよいよ具体的な内容入っていきたいんですけども、
じゃあちょっとバックスペース.FMのこの10年、
約10年の歴史の中での制作環境の変遷をちょっと聞いていきたいんですけども、
10年前っていうと、
それこそ今のようなポッドキャスト界のような状態とは全く違う状態だったじゃないですか。
その中で制作環境っていうところでいくと、
どのようなシステムでやられてたんですか。
最初は僕がロジックプロでやってまして、
その切り張り、
例えばAとかAとかいう必要のない部分を外したり、
あと言い間違えの部分を、
ちゃんと発音しているところから切り張りしたりとかいうのをやってたんです。
それは時間もかかるわということですね。
じゃあロジックプロってことは、
いわゆるDAWって言われる音楽を制作するためのソフトですよね。
そちらを使って編集されてたってことですか。
それは僕がやってたほんの短い時間だったんですけれども、
その後で、ポッドキャスト用だったらもっと手軽なのがあるよっていうので、
ドリキンがオーディション。
Adobe CCの中のオーディションっていうのを使うと、
もっと手軽にできるよと。
もともとDAWっていうのは音楽制作用のもので、
タイムラインがビートを中心になっている。
音楽中心なので、
例えば様々なプラグインとかも、
それ専用のものが多くて、
音声だけの編集というのは向いていない。
12:01
オーディションはその辺のプラグインも揃っているし、
インターフェースもうまくいくし、
マキシマイズとか音圧下げるとかも、
ちゃんとできるということで、そちらの方に移行しました。
今でもオーディションは、
ちょっと専門的に使われている方でも、
デファクトスタンダードになるぐらいのソフトなんですけど、
今もものすごく充実して使いやすいんですけれども、
その当時でもオーディションって既に使いやすかったんですか?
使いやすかったと思いますね。
それは僕は使ってなかったんですけれども、
ドリキンが使って、その使いこなし術を、
Adobe CC Dojoっていうのがありまして、
クリエイティブクラウドのエヴァンジェリストの中尾さんという方が、
ホストしている番組があって、
そこで僕らはこういう風に使ってますみたいなことを、
解説したりとかしてました。
じゃあ、編集環境のメインはオーディションに移行したとして、
実際録音をするっていう形は、
それぞれどのような形でされていたんですか?
それはですね、MacとWindowsでそれぞれやり方が違って、
録音するときには、僕の場合は、
Audio HijackっていうMac用のプラグインを使って、
それを使うと特定のアプリからローカルに録音することができるんですね。
ドリキンの場合はWindowsを途中から使い始めたので、
バナナっていうオーディオルーティングのソフトを使って、
ローカルに保存するっていうのをやってましたね。
基本的にルーティングして、
パソコンでローカルでレコーディングをするという方式を、
それぞれ個別にやってたんですね。
それを後でまとめてアップロードして、
それを編集するというやり方でしたね。
その時ってドリキンさんと松尾さんっていうのは、
同じ場所じゃない?
そもそもその辺の説明が必要ですね。
10年前ぐらいのイメージだとね、
遠隔の環境で録音するっていうこと自体も意外とレアだったのかなと。
当時だと何を使ってたんだっけ。
画像でそれぞれやりとりタイミングを取りながら、
オーディオ自体はローカルに落とすっていうことでやってました。
モニターに今で言うZoomとかのようなソフトを使って、
ブラウザ上でお互いの顔を見ながら、
音を同期させて一緒に喋るみたいな。
そうですね。
その時はスカイプとかそういうことになるんですか?
最初はスカイプだったような気がしますね。
今でも皆さんこういうリモートで収録する時によく言われる、
ズレみたいなものとかって当時って問題にはならなかったんですか?
あまり問題にはならなかったですね。
15:01
サンフランシスコと東京なんで相当冷静心はあるはずなんですけれども、
あんまりそれ気にしてもしょうがないなっていう部分はありましたし、
ズレを許容するかどうかっていう問題があります。
後で編集でそこを気にする人は重ならないようにズラしたりとかしますけれども、
あんまりそこはこだわらないようにしてましたね。
なるほど。
じゃあその時にマイクの環境とか音質を良くするために、
結構初期の頃何かトライしたことって何かトピックありますか?
とにかく良いマイクにしようっていうことで試行錯誤してましたね。
当時だとどんなマイクだったんですか?
当時はドリキュラムブルーっていう、
その後ロジテック、日本だとロジクールですけど、
そこに買収されたイエティ、ブルーイエティってやつですね。
今でもあれですよね、YouTubeとかで配信されてる方使われてますよね。
かっこいい形でサウンドもついてて、
お手軽でUSB接続ができるので、
非常に手軽にポッドキャストに使えるということで人気のある商品ですよね。
僕はシュアーさんのですね、
SM58を使ってたり、
その後しばらく結構長い間使ってたのが、
SM10Aっていうヘッドオン型の
口に寄せて使うタイプのマイクですね。
それぞれダイナミックマイクですけれども、
これを使ってましたね。
じゃあそれをパソコンに直接ローカルでレコーディングってことは、
AD変換とかDA変換の部分が必要だと思うんですけど。
オーディオインターフェースは使ってました。
僕が使ってたのは、
YAMAHAのAG-03とかAG-06とかですかね。
2チャンプラス楽器用の2チャンが、
僕は楽器というか音楽制作に使っているので、
両方使えるということでそれを買ってましたね。
ドリキンの場合は、
彼はいろいろさらに変遷があって、
最終的にですね、非常に高価な
ユニバーサルオーディオのアポロツインというやつを
多分2,30万円ぐらいするやつですね。
というのを使ってました。
音楽やらないにそこまで使うのは、
いかがなものかというのを言ったりもしたんですけれども、
中田康隆さんにそそのかずされたらしいですね。
やっぱりね、散財家としてはね、
そこは行かなければいけない道だと。
音質わかるのかというようなことを思ってはいたんですけれども。
じゃあとりあえず、
GOPPA-GとYAMAHAのAG-06とか、
あの辺を通して録音するという環境で、
18:01
とりあえず初期は問題はなかった感じ。
そこからこの10年にわたって、
改善している模様は、
番組中でも何回か僕も聞いているんですけれども、
どういう意図で、どういう改善をしていたのかとかが
ちょっと軽く聞きたいなと。
初期の段階では皆さん、ゲストの方も含めて、
音質が結構バラバラなので、
そこをなんとかまとめたいなというのがありまして、
じゃあいいレベルで合わせようということで、
コンデンサーマイクの同じ種類で合わせようということで、
ASON ORIGINという、
これコストパフォーマンスが非常に高いもので、
3人合わせて。
同じものにしたって感じですね。
そうですね、それに合わせて、
オーディオインターフェースは3人とも別のものを使っていましたけれども、
あとこれ気にする人としない人とはいて、
バラバラなんですけれども、
部屋を静かな環境にしようと。
今伺っていると、
ダイナミックマイクからコンデンサーマイクにしたという時点で、
おそらく感度の差が出た時に取れすぎちゃうという問題、
イコール環境音を拾ってしまうというのが
何か浮かんだんですけど、やっぱりそこにぶち当たったんですね。
当たってますね。
どうしたんですか皆さん。
そこを、
ノイキャンで解決しようというところで。
もう取れちゃうところは取っちゃって、
ノイズキャンセルという形で切っていくという。
ウェーブのプラグインとかを使ってやったり、
iZotopeとか使ったりとかしてました。
有料のプラグインでノイキャンをしてたっていうのは、
ダイナミック系の人たちの編成でよく聞くんですけど、
そういうものだったんですか。
そうですね。
いくらくらいのプラグインでノイズを消したんですか。
それはドリキンが買ってたんで、
たぶん2、3万くらいですかね。
でもいろいろ積み重ねていくと、
10万くらい使っていったから。
ノイズを消すために使っていったと。
実際コンデンサーマイクを使って、
よりよくというか微細なところまで声を拾うように取っていって、
ノイズキャンセリングのプラグインなりで、
ノイズを消していくっていう方法を取ってた時期っていうのは、
それは一種の完成形のように感じてました。
そうですね。
お金で解決、サッサバで殴る系の解決としては、
それが当時としてはベストだったなと思いますね。
音楽制作っていうところのボーカルのマイキングと、
実際ポッドキャスターが音声として取るためのマイキングっていうものがあって、
その頃って何か違いを感じたりとかしました?
僕は自分でボーカルを取る時には楽器とも重なるので、
21:01
ボーカルだけですごくピュアにノイズレスにしようとは思わないですね。
むしろ音を馴染みの良いものであれば、
どんなマイクでも別にいいんじゃないのって考えているので。
声の帯域以外のところが他の楽器が鳴ってるから、
ボーカル自体は環境みたいなものとかそこまでしなくていいの?
多少ノイジーでもディストーションをわざとかけたりとかするじゃないですか、オーバードライブですけど。
そうすると音質そのものをピュアオーディオ的に綺麗なものにするっていうのは、
特に狙わないですよね。
てことはじゃあ声、ポッドキャストが音声だけになった時に、
むしろその周りの声以外の成分っていうものが気になったっていうのの方が近いんですか?
そうですね。
逆にそれこそピュアオーディオ的な言い方で言うと、
唇が開く音とかみたいなところまで拾う。
リップノイズっていうのは大きいですね。
最高級のコンデンサーマイクで吐息まで感じるような取り方をするっていうボーカルのマイキングもあるんですけれども、
ポッドキャストって逆にそれをやりすぎちゃうとリップノイズのような聞きづらいみたいになったりもするじゃないですか。
それも和者によるとは思うんですけども、
そこを気付けて喋れるような風に僕らが進化できればいいんですけれども、
なかなかそこはならないので。
そこはサツタバでは殴れないです。
それよりボーカルトレーニングしろって話ですよね。
確かに確かに。
だからその辺の微妙なこだわり方がそれぞれいろんな種類あるってところが僕もポッドキャスターに関わってすごい感じた部分で、
いわゆるポッドキャスターの音質の良い悪いっていろんな観点があるので、
だから今コンデンサーマイクでノイズキャンセリングをすることによって解決していった位置自体っていうのも、
いわゆる一個の完成形だと思うんですよね。
そこから今の実際の環境になるまでってどういう必要に応じて変わってたんですかね。
それは制作環境が大きく変わったところがありまして、それがリバーサイドFMっていうのを使うようになったということですね。
それは何なんですか。
これはですね、先ほどまではローカルで音源を録音する、残すっていうのを和写ごとにやるっていうのをやってたっていう話をしましたけれども、
それをやらずに済むようなクラウドコンピューティングを使う。
夢のような。
夢のようなことができるようになったんですね。
コロナのちょっと前ぐらいだったと思うんですけれども。
3、4年前ぐらいですか。
リモート収録するサーバーに全ての参加者のオーディオを逐次アップロードしていって、
24:02
それぞれも会話をしつつ、手元に録音を残さなくても済んでしまうようなシステム。
じゃあレコーダーっていう考え方というよりは、クラウドのサーバーにも直接溜まっていってるみたいな。
そうですね。
うわ、すげえな。
なんで取り残しっていうのがなくなる。
確かに。
そうですよね。
逆に取り間違えとか取り忘れみたいな、そういうミスみたいなものって、
そっちのリスクっていうのはないんですか、むしろ。
それもないわけではないですけれども、
一応バックアップを別のやり方で残したりとかもしてましたけれども、
今はもうそれもなくていいなっていうところまで。
要は経験値を減るとそういうのもないぐらい安定してるっていうことなんですね。
じゃあなんか撮ってるというよりは、
なんかちょっと感覚変わりそうな気がするんですけど、
それこそローカルのパソコンにレコーディングするにしても、
実際ハードウェアを使って録音ボタンを押すにしても、
なんか本番で録音を始めるよっていう感じがやっぱりフィジカル的にもあるんですけど、
リバーサイド環境だとどういう感覚なんですか、始めるときって。
そう変わるわけではないんですけれども、
単にレコーディング開始しますって言って、
一応バックスペースでよくやってるんですけど、
3,2,1,0でカチンコを合わせるっていうのをやってますけども、
それもいらないかなっていうことに最近はなってますね。
じゃあもうバーと撮る様子で撮っちゃった後は、
もう編集する時にクラウドから呼び出して、
ローカル環境で編集するみたいな感じになるんですか。
終了すると、終了ボタンを押すと、
その後の数秒で全てのアップロードが完結すると。
それまで逐次アップロードされてるので。
そっか。そっかそっかそっか。
じゃあなんかそこからさっきのAIの話まで繋がっちゃいそうな気するんですけど。
はい、繋がると思います。
要はそこに繋がるぐらい、
もうクラウド環境での制作っていうのが、
もう3,4年前から始まっていってるっていうことなんですね。
リバーサイドFMの環境が整ったところで、
じゃあ実際マイク含めた機材周りってどういう変化が起きたんですか。
そこはそこもそんなに変わってないですね。
マイクとかオーディオインターフェースとかそれほど変わってないんですが、
その後リバーサイドFM自体で編集しようっていうことになったので、
ノイズキャンセリングっていうのをどこで撮るかっていう。
確かに。
ちょっとこれまだ悩んでる部分ではあるんですけれども、
バックスペースFM自体はYouTubeライブと同時にやってるんですね。
配信と収録っていうのを同時にやってて、
バックスペースFMをライブで流すときには、
OBSっていう配信用のソフトを経由して、
27:01
さらにYouTubeライブに流すっていうのをルートとしてやってるんですけれども。
それはあれですよね、YouTuberさんとかも、
ライブの方は皆さんOBS通すっていうのは当たり前になってる感じですよね。
実はそれが変わろうとして。
最近の話ですか。
つい今日ドリキンと話をしてて、
いやすごいんだよ、リバーサイドFMが配信用の機能をすごい強化してさ、みたいな。
それが不要になりそうだと。
直接配信もこれまでもできないことはなかったんですけれども、
OBSのようなライブ中にいろいろ変えるっていうのができなかったんですね。
その辺が柔軟に対応できるようになって、
もうこれは一つクッション挟まなくて済むので、
すごい手軽に配信もできるし、
オイスメンとかも良くなるんじゃないかなって。
じゃあいわゆるクラウド環境でっていうのと、
プラスライブ配信用にOBSのようなものも簡略化されたっていうところが整って、
じゃあノイズを発声源のところで抑えるのか、
ノイズキャンセルで抑えるのかのところでいくと、
そこがまだ宿題に残ってるように感じるんですけど、
それどうされてるんですか。
今まではノイキャンを二重にかけてたんですよね。
OBSでかけるのとリバーサイドでかけるのと。
それももうリアルタイムでっていうことなんですかね。
そうですね。
ただリアルタイムでかけると、
僕なんかが困るのが音楽を流すことができなくなってしまう。
確かに。
なんでできるだけそこはシンプルな方がありがたいんですが、
今のところは妥協して音楽は流さないようにしてます。
じゃあ今実際松尾さんが使われてる録音環境というか、
マイク含めた環境ってどのようなセットアップになってるんですか。
実は僕のと同じオーディオインターフェースが今ここに見えてるんですけど、
うちの雑談の基準ですね。
ここで再開したなっていうところなんですけど、
ロードキャスタープロ2という同じモデルを使ってます。
これはオーディオインターフェースという呼び方をしてもいいし、
レコーディングミキサーという言い方をしてもいいし、
とにかく万能型のオールインワンの何でもできる機械。
とにかく配信でもポッドキャスターでも何でもこれが一個あればできるという、
万能とんでもないやつなんですけど。
じゃあ今松尾さんの手元にはこのロードキャスタープロ2があって、
それにマイクが刺さった状態。
マイクは今何に使われてますか。
マイクはアストンオリンチンをそのまま使ってます。
30:01
なるほどなるほど。
じゃあそれも3者一緒ってことですね。
これは僕の声質、性質に合ってるっていう話を聞くので、
特に変える必要はないかなっていう。
じゃあもうそれは自分の声のキャラクターに合ってるっていう意味で、
もう使い続けてるって感じなんですか。
ただね今一つ気になるマイクがあって、
オートフォーカス機能がついてるマイクが今話題になってまして、
それどういうことかというと近接センサーがついてて、距離センサーがついてて、
その距離に応じてゲインを上げたり下げたりとかいうこと。
あとは離れすぎると、それで接続完全にオフにしたりとか、
いうこともできるようなものがあって。
僕らはいいんですよ。僕とかドリキューはいいんですけども、
実は前日なんか結構マイクから距離離れてしまう人なので。
確かに要は編集工程をシンプルにしようとすると、
やっぱり録音されてる音源自体も原因っていうか、
音量のばらつきがないほうがいいって決まってるから、
今話してたことはどういうことかっていうと、
慣れてないというか癖でマイクと自分の口の距離をすごく動かしてしまう人っていうのも多くて、
それこそロクロを回すじゃないですか、アクションが多いほどやっぱりマイクとの距離が変わるし、
あと座り方で変わったりするので、
それでやっぱりこだわる人が編集のときに録音のボリュームを微妙に変えたりするんですけど、
それがいらなくなるのがマイク自体についてってことですよね。
そうですね。
すごいですね。
これは一つ大きな革新的なものだと思います。
これからそれは主流になっていくような気がしますね。
カメラがオートフォーカスが出てすべて変わったようになる。
わかります。
実際、僕も編集やるときに呼び方、まさにフォーカスって言い方してるんですけども、
実際、均等に録れてる音源でも、映画で言うとカメラがズームしてアップになったり引いたりするみたいな効果のように、
実際編集のときにフラットに録れてる音源を上げたり下げたりして、
注目すべき音はどこかっていうのをフォーカスするっていうのを編集のときに、
こだわるときはやるんですよね。
それを逆に言うと、ばらつきをなくすためにフォーカスしていくっていうのを
マイク側がやってくれるってことですもんね。
そうですね。
やっぱり今のこのフォーカスっていう単語が入ることによって、
少しマイクに対する考え方っていうのをくっきりするかなっていうのは今聞いて思いましたね。
ただそれはソフト的にやってるので、
本当はその距離を一定に保つのが一番いいわけですよね。
33:00
さっきの発声練習の話じゃないですけどね。
だからそこがね、いわゆるプロのように一定の音質と音量で出せるっていうのが本当にベストなんですけどね。
でもやっぱりポッドキャストって考えるとね、
機械側が便利になった方がいいポイントもやっぱりありますよね。
そうですね。
じゃあちょっとそれをいつか試す日もあるかもしれないってことなんですね。
そうですね。
楽しいですね。
じゃあちょっと今現状の松尾さんのシステムのところまで来たんですけれども、
じゃあ今のライブ配信の環境って、
もう一回おさらいするとどういう形でライブ配信をやってるんですか。
まずリバーサイドで3人がそれぞれの画像を写しながら収録をして、
それでストリーミングもします。
ストリーミングしているものは新しいシステムだと、
リバーサイドからYouTubeライブにつなげて、
そこからYouTubeにライブ放送をすると。
じゃあそこでOBSをかませなくても、直接リバーサイドの方からYouTubeを。
これからできるようになると。
すごいですね。
じゃあもうそれは誰かのPCでYouTubeのホストを立ち上げて、
そこに直接リバーサイドから送られているという状態になっているってことなんですね。
そうですね。
ちょっと説明が一つ足りなかったのが、
これまでOBSでやったときには、
OBS専用のPCっていうのを僕の自宅に置いて、
言ってた。
松尾のクラウドっていう風に言い方をしてたんですけども。
結構なGPU、いいやつ積んだPCを置いて、
そこを通してやったんですけど、それが不要になってしまいました。
そうか。
それってもう遅延みたいなこととかも、
ほぼ考えないでもいけちゃうってことなんですか、それで。
そうですね。
一つかませない分、そっちの方が有利なかもしれないですね。
そっか。
じゃあもう本当そのGPUみたいな話すらも考えなくてよくなるってことですね。
そうですよね。
すごいな。
じゃあちょっとリバーサイド.FMって、
実際今のような使い方をするために開発されたものなんですか。
それともハックして使ってる感じなんですか。
どんどん機能が追加されてくるんで、
僕らそれに乗ってるだけではあるんですけれども、
最新の、今日アップデートされた情報を、
多分ポッドキャスターの方だったら、
これ使いたいと思うんじゃないかなと思うんですけど、
3つ機能があって、
セットスペースっていうの。
セットペース。
セットペース。
これがですね、
Remove Pause and Ignore the Conversation Flow。
36:00
こうやって少し間が空いたりするじゃないですか。
そこを詰めてくる。
やばい。
すごい。
やばいでしょ。
すごい。
リアルタイム、ほぼリアルタイムってことですよね。
それをチェックしておくだけで済んじゃう。
なるほど。
編集もリバーサイドの中でできるんですよ。
ってことですよね。
すごい。
もう一つが、Smooth Speech。
これはAとかRとかいう不要な言葉、
あらかじめ指定した言葉を自動的に除去する。
じゃあいわゆるフィラーって言われる、
AとRとかAとみたいな部分を、
それをAとRとみたいな、
それを指示を出すんですか。
多分デフォルトでいくつかあるんだと思いますが、
それをもうアプライするだけで済んじゃう。
やばい。
あとはMagic Audioっていう、
これは多分いい感じにしてくれる。
いろんな意味でいい感じにしてくれる。
これで相当楽になるんじゃないかなって。
なりますね。
いわゆる内容的なカットみたいなものがない限りは、
ほぼ撮ったものをそのまま出せるっていう夢のような環境に
どんどん近づいてきてるっていう考え方でいいってことですよね。
あともう一つ、これのバージョンアップの前から
実装されてるんですけども、
テキストのトランスクリプションができる。
そっかそっかそっか。
それ日本語にも対応してて、
喋ってる内容が逐次そこで文字として表示されてるんですけども、
そこをポイントすると、
カーソルがそこのオーディオトラックの場所に移動するんです。
なるほど。
範囲選択するとそこを選択できて、
やばいと思ったところはそれで削除したりとかもできる。
じゃあ、いわゆる動画編集ソフトでいうところの
画像の給出しみたいなものの代わりに、
テキストがキューポイントになってってるってことなんですね。
だから視覚的に自分が必要か必要じゃないかとか、
何を言ってるのかっていうことを同時に見て確認しながら喋れる。
そういう感覚でいいんですか?
あともう一つ、
プロトキャストを出すときって、
セクションを自分で何分から何分からこういう話題っていうのをやるじゃないですか。
やらない人もいますけれども、
やるとオーディエンスは使いやすいと思って、
聞きやすいと思ってくださると思うんで、
その作業が非常に大変ですよね。
そうですよね。
それが何と自動でできてしまう。
もうああいう何分何十秒っていうところで、
見出し的にその話題の頭が入ってるような。
見出しが自動で入るんです。
うわ、やばい。
この話題っていうね。
やばいですね。
39:01
なんかやっぱちょっと、
いわゆる本とかテキストのような、
いわゆる目次的なインデックスっぽい考え方っていうのも、
もう同時に音声の方に侵入してきてる。
編集っていうものの考え方が、
いわゆるパブリッシュする、
その本のパブリッシュみたいな発想で生まれてる、
エディットっていうものが、
音声の方にもどんどん入り込んでるって感じですよね。
本当にテキストとオーディオが、
もうマーチしてしまった環境に。
そういう世界ですね。
うわーすごいな。
じゃあ今そこをリアルタイムで追いかけながら、
制作を続けている松尾さんの感覚でいくと、
今のこの3つだけでも、
もう僕からするととんでもない発明に感じるんですけども、
それ以上にここまで行くみたいな道って、
あり得るように感じます?
あり得ますね。
あり得るね。どんなところですか?
例えばここで僕と松尾さんの話をしてるじゃないですか。
そのお互いが存在しなくてもいいような。
じゃあAI的な話ですよね。
ってことは、
非存在としての僕っていう、
いわゆるAIメチクロみたいなものがいて、
その人と対話をしていくみたいな、
そういう感じですかね。
もしくは自分対自分でもいいですし、
相手がいた方が話しやすい部分っていうのはあると思うので、
それは本当誰でもいいんですけれども、
どのキャラクターでもよくて、
ただこの話題については詳しい、
ちゃんと合図にも打ってくれるし、
深掘りもしてくれるようなキャラクターを相手において、
自分は自由に話していける。
なるほど。
じゃあ一人語り系ポッドキャストの形が変わっていくっていう。
そうですね。
一人語りのスキルがある人はもちろんそれから全然問題ないし、
それは素晴らしいと思うんですけれども、
そうでない人たちが気軽にポッドキャストを始められるようなシステムっていうのは。
もう見えた。
見えた。
見えた。
だからなんか今ポッドキャストを雑談でお店やってても、
ポッドキャストを始めてない方もお客さんにいっぱいいて、
ポッドキャストやりたいんだけどっていう相談を受けることはあるんですけど、
じゃあどういうコンビを組めばいいみたいな、
やっぱ個人的な、人的な相性みたいなお話ってやっぱどうしてもなるんですけれども、
本人に語りたいテーマがあったりとか、
語りたいことがしっかりある人だったら、
もしかしたら今の未来のAI対話の形だったら、
今日こんなこと話したいからっていうことで、
聞き役としてそのAIを設定してバーッと話せるっていう、
だからその人的な問題みたいなものなく、
会話方式で自分が喋ることができるっていう、
そういうイメージでいいんですかね。
実際もう近いようなものはできてて、
女の子に限らず、
42:02
AIキャラクターと会話をして、
癒しを得るみたいなサービスとかがあって、
それなかなかよくできてるんですよね。
そしたら、この間オープンAIの、
ChatGPTのGPT-40という新しいモデルの音声モデルで、
ボイスモードっていうのが新しくなったんですけど、
これはもう完全にインタラクティブに話ができて、
日本語は通じるし、話題にもすべて、
GPT-40の新しい最新のLLMで応答してくれるし、
しかも表現が感情豊かなので、
もうこれでいいんじゃないっていう。
だからこうコンビのお互いの人格、キャラクターっていうものの魅力で、
やりとりとかリズムで魅力的にするっていうポッドキャストじゃなければ、
もう完全にそれでいいかなっていう感じは今聞いててもしますよね。
むしろ心理的安全性って意味で言ったら、
むしろそっちの方が話しやすい人の方が多かったりもするのかもしれないし。
ただ、友達と話す気楽さみたいなのはあると思うので、
そこはできるだけ人間と会話をしていくと楽しいと思います。
聞き手が何を楽しいと思うのかっていうのも、
さっきの音質と一緒で、どれが正解っていうものもないので、
でもなんか僕もポッドキャスターに長く関わってきて以降、
なんとなくこれ大事だと思っているポイントが、
少なくても話者が何か話しながら、
心の動きがあったり、何かその場で気づいたり、
その場で何か疑問が生まれたりっていう、
発話する前に起きるその瞬間、感情の動きみたいなものを、
音声だけだとすごく敏感に聞き手が察知できるので、
そこを楽しんでるんじゃないかなっていうところが一個あるので、
AIとの対話の中でそれが生まれやすいのか、
それとも人との会話の方が生まれやすいのかでいくと、
今実感的には人との会話の方が生まれやすいかなと思うから、
そこが一個のハードルな気もしますよね。
それでも二人で喋っているとちょっと詰まってしまうような時に、
もう一人AIっていうのは、そっちの方がスムーズにいくかもしれないですね。
確かに確かに。
だからなんかよくカンファレンスとかで登壇する時の、
ファシリテーターのような役割とかって、
あれも話したいことがある専門家さんに対して一人ファシリテーターがいて、
会話がスムーズに回ったりする形もあるから、
少しファシリテーション的な意味でAIを頼るとかっていうのも、
もうちょっと一対一みたいなところで、
それが来るんじゃないかっていうヒントなのかもしれないですね。
あとタイムキーパー的に入ってくるっていうかもしれないですね。
いいですね、それ便利ですね。
45:01
しかもこっちが気を使わなくていいタイムキーパーだからね。
あとタイムキーパーをしてるよっていうフリをせずに、
自然にそれをやってくれるみたいな信頼性がありそうですもんね。
今実際、さっき冒頭にAIのお話をされてたんですけど、
それが今のような形なんですか?
それともまた違うようなAIの入り込み方ってあったりするんですか?
いろいろ考えられるとは思いますが、
2人ともいなくなった、3人ともいなくなった時はどうしようかねっていう。
アーカイブとしてのバックスペース.afmっていう意味でのAIですね。
永遠に生き続けるAI、ポッドキャストっていうのもありじゃないかなっていう。
僕もライフワークとしているのが、妻とずっと歌い続けるっていうのがあるんですけど、
それと同じようにずっとやっているポッドキャストっていうのが。
じゃあちょっとそこでお聞きしたいのは、
今本当に松尾さんといえばバックスペースであり、テクノエッジでありっていうのがありながら、
今AIアーティストとしての松尾さんっていうパーソナリティも、
今すごく皆さんにとって知られていると思うんですけれども、
AIアーティスト松尾さんとして、
今表現されている、いわば作品で対話をしているようなことを日々やられている松尾さんからすると、
今、例えばですけど、AIドリキンさんと何か話し続けるみたいなものってありそうな気がしますか?
いや、これはですね、僕がやるまでもなく、リスナーの方が既にやっているものを聞いて、
それ聞いてないやつなんですか?
AIドリキンとAI松尾が会話をしている架空のバックスペースFMっていうのを作ってくださった方がいらっしゃるですね。
どうでした?聞いてみて。
いや、これ分かんない人は分かんないと思う。
でもね、それこそ毎週アップされていて、もう10年やられているっていう意味でいくと、
食わせるソースっていうものはもうふんだんにあるわけですよね。
考えると、人格みたいなものを作ったりするのって圧倒的に有利ですよね。
そうですね。アーカイブはむちゃくちゃ残っているので、
ただそれを食わせるだけのコンテキストウィンドウが今のLLMにあるかっていう。
確かに確かに。
じゃあ、なんか発話とかニュアンスとかキャラクターができたとして、
じゃあその新しい、何の話題を話すのかっていうアイディアみたいなところがどうなるかっていうところかなとも思いますよね。
実際3社がAI化して自動で話してたとしても、じゃあ何を話すの?みたいなところ。
48:00
それ面白いのかっていう。
そこなんですよね。
例えば内緒で1人だけAIにしといて、3人で話してバレない回はあるのかもしれないけど、
やっぱ全員不在っていうのはあり得ないのかなっていう気がしますよね。
前放送中に僕は声が出なくなったことがあって、
その時に自分の声をクローンしたテキストツースピッチのソフトを使ってやったりとかもしたんですけど。
本当でした。
まあさすがにバレますけど、まあ似てるよねっていう話になりましたね。
あと、僕仕事をしている時に収録しなくちゃいけないことがあって、
会社にバレないようにタイピングすると自分の声が出るっていうのをちょっと実験したことがある。
バレないようにするぐらいのニーズって、なんか全然今でもいけそうな気がしますよね。
今の技術だったらもう完璧にできるでしょうね。
だからそこにいるっていう潜入感まで仕込めれば、そっから先っていうのはいくつかのパーツは変わっちゃっててもバレない。
ただ最初にこの人の聞いてる、この人と一緒にいるっていう信じられるセットアップみたいなところがまだまだ実態が必要かなっていうような感覚なんですね。
そうですね。
誰が書いてるの?誰が歌ってんの?誰が喋ってるの?っていうところに対するイメージですよね、受け手側の。
だからある意味、ブランディングっていうか、ブランドの象徴である何かっていうものに聞き手が委ねているかどうかっていう部分、そこですよね。
最終的に自分たちのブランドで出すからには、そこはそこで何かしらの選択をしてるわけで、
それがAIが単にスルーで出していったものとは違うというふうに僕は思うんですね。
例えば今、AIの作曲ソフトってすごくよくできていて、多分普通の人は全く聞き分けがつかないと思うんですけれども、
その場合でも、その曲を最終的に選ぶのは、それのオペレーターであり、ある意味、AIのクリエイターだと思うので、
そういうことができるようにはしておきたいなとは思いますね。
だから今、なんで僕はブランドっていうワードを使ったかっていうと、
例えばルイ・ビトンがどこからか適当な近い革のバッグを持ってきて、
ルイ・ビトンの店舗に置けば、ルイ・ビトンのバッグとして感じて、
ルイ・ビトンのバッグのように人は喜んでくれるんだと思うんですけれども、
ルイ・ビトンという枠がない状態で、ルイ・ビトンと同じクオリティの革製品があっても、
人はそれをルイ・ビトンだと思わないみたいな、なんかそういうのに近いかなと思ってて、
だからやっぱり、松尾さんの話を聞いてるって思ってる受け手の感情が満足されてないと、
51:04
おそらくAI松尾が同じようにしゃべったとしても、なんか満足しないかなっていう、
そこら辺の機微、だから誰が選んだのかっていうシグネチャーの部分ですよね。
そこはやっぱりいろんな分野の方が今AIのお話しされてますけど、
行き着くところは大体皆さんそういうお話ししてるのかなっていう感覚がありますよね。
とはいえ、バックスペース.FMにはそこをいろいろファーストペンギンとして踏み越えていってほしいなと思う。
いや、やりたいことはたくさんあるので、ちょっと体ごいつくかどうかですけどね。
でも今でも実際に本当にこうスマホの時代、アップルの時代、スマホの時代とかを経ながら、
いろんなテック面でのブレイクスルーがあって、今一旦一段落したかなと思ったタイミングでまたAIが、
生成AIから一気に変わってきてって言って、なんかね、さっきも言ったんですけど、
本当に羨ましいネタが、ワクワクさせるネタっていうのが尽きないっていう。
で、実際松尾さんたちは自分たちの作品作りにもどんどんフィードバックして、
僕らに届けてくれるので、僕らもそこに追いつきたいなと思うし、真似したいなと思うし、
そういうところですよね。
でも今、自分がクリエイトしたものが思っている方々は、
それをさらに別のものに変わらせたり、別のものをマージしたりということができる、
すごくいい時代にいると思います。
あとさっきのリスナーの方が勝手に作ったみたいな、
なんかその二次創作ともいえない、ファンアートともいえない、
全員参加者として遊んでる感じが、やっぱりバックスペース.FMのコミュニティには感じるんですけど、
それはあります?
それはですね、非常に面白い現象が起きてて、
バックスペース.FMでコミュニティを2つ作ってまして、
1つはマストドンのグルドンと、
あともう1つ、今の有料の会員制のバックスペースマガジンとBSMっていうのをやってまして、
そのBSMの中では、リスナーさんと一緒に参加していただくような番組っていうのを週1でやってます。
参加なんですね。
僕とかドリキンとかと、
あとリスナーさんのコンテンツを見るのがすごく好きな人たち、カメラ好きな人たちとかが参加して一緒に投稿する。
それをその会員向けに配信するっていうのもやってるんです。
いいですね。
じゃあやっぱりトピックも人によってどんどん変わるし、
54:00
やっぱり配信者側、そういうことでドリキンさんもマスオさんも、
新しく新鮮にポッドキャストができてる感じがあるように聞こえたんですけど。
ありますね。
でなければこういうことをやってないと思うんで。
その分、1週間の間に僕何時間喋ってるんだろうっていう。
確かに。
しかも撮られてね、残っていてね。
そっか。
じゃあもうすでにおはがきとかメールとかももうすでに超えて、
実際そのコミュニティの方と一緒に話して作品というか番組を作るみたいなとこまで行っちゃってるってことなんですね。
そうなんですよ。
すげー。
それって迷いません?
なんか知らない人に感じてないからなのか。
それぞれ濃い方々なので、名前も知ってるし。
そっかそっか。
知ってる業界のゲストを呼ぶのとほぼ変わらないってことですね。
変わらないですね。むしろより親しい感じがしますね。
ちょっと今日の話題とは外れちゃうので深掘りしないですけど、
やっぱりポッドキャスターにとってコミュニティ作り、
収益化とかっていうお話とかも話題にはなるんですけども、
それよりももっと手前のとこにコミュニティ、いかにリスナーコミュニティを作るのかみたいなのも
一個の楽しみでもあるじゃないですか。
それこそトロナ期にあったNFTでいうとこのDAOのようなお話とかを含めて、
じゃあ今のスモールメディアだったりがどのような形でファンコミュニティを作るのかって、
いろんな実験がされている中でバックスペース.FMの作っているコミュニティっていうのがすごくユニークに感じるので、
今度またそのお話も聞きたいかもしれないです。
その意味でこの雑談というスペースもすごくいいですよね。
そうかもしれないですね。リアルな番号を使いながらのコミュニティ作りっていう新しい挑戦でもあるので。
素晴らしいと思います。
ありがとう。最後に褒められた。やったよ。
てな感じであっという間に1時間経っちゃって。
楽しすぎてちょっと僕だけ楽しんだ感じがするんですけど大丈夫ですか?
とりあえず会場の方にはOKいただきました。
今回はこの形でお開きになりそうなんですけれども、
今後ともさっきのコミュニティの話含めて僕らと交流していただけると嬉しいので。
こちらこそよろしくお願いします。大変楽しかったです。
今日ざっくりテクニカルな話題に絞ってお話ししたんですけど、
今日は1回話してみてどんな感じでした?
大変勉強になりました。
勉強。
というか過去のことをすべて忘れてるなっていう。
少しメモは取ったんですけれども、やっぱりツッコミが厳しくてというか、
57:05
ツッコまれるべきところはツッコんでいただいたなって感じでした。
ありがとうございます。
僕もリスナーとしてバックスペース.FMを聞かせていただきながら、
こういう機材遍歴みたいなものを1回の回でただ話すみたいなのも聞けることでもなかったので、
僕としてもすごくいい機会になったので本当に楽しかったです。
後で違うよってドリキンから絶対ツッコミくるなと思います。
それもまた込みで、訂正はまた別のところでそれぞれみたいな感じで。
本当に楽しかったです。
じゃあ番組的には締めることになるので、いいですか?
はい。
フロム雑談インサイト サポーテッドバイシュア
第1回目のゲストはバックスペース.FMより
松尾浩也さんをお迎えしてお届けしました。
ありがとうございました。
雑談をお届けするポッドキャスト番組
フロム雑談インサイト
この番組はおよそ1世紀にわたり
世界のレジェンドから支持され続けるブランド
SHUREの提供でオープンしました。
次回のゲストもどうぞお楽しみに。
58:40

コメント

スクロール