おはようございます。7月22日火曜日、日刊ポッドキャストが出来るまで、今週の聞き手は、カナダで暮らしているポッドキャスト番組ITトリオをやってます。
spiceさんです。よろしくお願いします。 よろしくお願いします。
今日のテーマはこちら。音声系AIの話。
ということで、これは僕がやりたかった話で。
ちょっと前にですね、何かミスって、あ、そうだ、Zoomの音源を流したんですよ。確か樋口さんがゲストの回かな。
そしたら、音悪いってスパイスさんからDMが来て。
音悪いって言ったかな。
音悪いな気がする。で、AI、あの、AdobeのAI、エンハンススピーチっていうAdobe登録してる人だったら、
まあ月の仕様の上限はあるけど、使えますよみたいな音を整えてくれるAIがあって。
で、それを実際に、多分過去の回であるんですね。地方かけるポッドキャストの可能性っていう回を、
あのノーマル版とエンハンススピーチ版で僕リリースして、で僕結構エンハンススピーチに救われたことがあって。
そうなんですか。
そうなんですよ。なんか、一回いつも行ってる現場でいつも使ってる機材だから、
しかもその時に限ってイヤホンが壊れちゃってて、
ああ、イヤホンにしなくてもいいやって思って。
ああ、ちょっとした油断が。
油断して家帰ったら、全部ケーブルノイズが入ってて、
ああ、終わったって思って、これはやばい、どうしたもんかなって思って、
エンハンススピーチかけたら、そのケーブルノイズ全部消えてて、
おお、神だって思って。
素晴らしい。
それ以降は何かしらちょっと音悪いなって思う、なんかズームの音源だったりだとかは、
一旦エンハンススピーチかけたりだとか、あとは100円で買い取った怪談話っていう怪談のポッドキャスト僕やってて、
あれが外で録音した音声を使ってるからめちゃくちゃ音悪いんですよ。
ああ、外で、なるほど。
外なんですよ。だからなんか結構リスナーからの苦情が多くて音が悪いっていうので、
ああ、音が悪くなるんだ。
すごいきますね。それが一番多い苦情で、どうしたもんかなって思ってたら、
そのエンハンススピーチかけてからは、ちょっと聞き取りづらい部分はあるけど、音が悪いっていう苦情はそれでこなくなりました。
おお、すごい。
そう、なので、あとは機材も変えたんで、ズームのP2も使ってるから、
エノイズリダクション使って録音してくださいって言ったら、ちょっと音質も良くなったりとかもしたんで。
いいですね。
そう、ていうので、音声系AIに強いスパイスさんですね。
俺にエンハンススピーチを教えて。なんか結構、ノートブックLAの支部長さんに教えてもらったりだとか、
なんか自分で調べないで人が教えてくれることが多くて結構助かってるんですよ。
で、これいいよって我が者側で紹介してるっていう。
情報が集まる人ということで。
情報が集まってるんで、とりあえずアドビルオーディション契約してる人はエンハンススピーチ使えば、
音ミスってたりとか、結構ズームとかの音声すぐパッチキレイにしてくれるんで。
エンハンススピーチはね、もうないと困りますね僕は。
でもこれそうですよね。僕もこれ知ったのが、なんか知り合いがYouTubeでポッドキャスト風の動画を上げてて、
やけに音質がいいからコメントで聞いたらこれ使ってたんですよね。
僕たち外で録音してて、VL-IET使ってて2人でタイミングで話してるけど、聞く感じやけに音質良くて、
しかもマイクとの距離も2人とも全然離れてるのにめちゃくちゃ音質が良くて、
これ絶対何か使ってるなと思って聞いたら、アドビルオーディション契約とエンハンススピーチ使ってたっていう。
やっぱ、そう、そんくらいIETの難しい部分をそれが解消してくれてるなっていう風には思うんで。
いや、アドビ契約してる人はね、ぜひ使ってほしいなっていう風に思いますね。
他にもね、音声経営AIいいやつがあるよねっていう風な話をしていこうかなって思ってて。
はい。
で、スパイスさんが今回のためにですね、ポッドキャストができるまでの英語版を作ってくれたんですよ。
作りました。
音声クローンっていうので。これって声も似せてる感じなんですか?
そうですね。これ11LOVESのオーディオダビングっていうプロダクトを使ったんですけど、
これはデフォルトで音声クローンも選択できるので、
それすると11LOVESが勝手に学習をして、元の話者に似た音声で翻訳してくれる。
僕が渡したのは日本語から英語だけだったんですけど、
オプション見てみると別に何語から何語でもいけそうでしたね。
中国語とかフランス語とか色々ありましたね。
とりあえず一旦聞いてみましょう。
はい。
はい。こんな感じなんですけど、
僕の声は正直自分の声だから似てるなとは思わなかったんですけど、
一言だけのホシさんが挨拶したパートは、めっちゃホシさんの声だって思ったんですよね。
で、ITトリオの方の音声も聞いたんですけど、
おお、すげえ似てるって思ったんですよ。
確かにITトリオは3人でやってて、男2人女1人なんですけれども、
僕も聞いてみたら確かに3人それぞれどことなく似てるなみたいな。
ちょっと発音は何か多分学習元のデータがあれだから何かなぜかインドナマリとかになってそうなんですけど、
声質は似てるなって感じでしたね。
そう、だからそれはね面白いなっていうふうに思いました。
これを使えば日本でポッドキャストをやってても海外に向けて発信できるぞっていうのが一個強いなって思いました。
そうですね。まあなんかどれだけこう受けるかどうか、別の話として。
まあ無理ですけどね、そうだからAIが喋って、
俺最近ちょっと一個感動したニュースがあって聞いてほしいんですけど、
ほうほう。
驚き、お気に入りのラジオDJ、実はAIだった。
リスナー7万人が気づかず、オーストラリアっていうので、
オーストラリアシドニーのラジオ局で平日毎日ヒップホップ番組を進行していた女性DJサイ。
7万人以上が数ヶ月にあたり番組を聞き親近感を覚えていたあやが、その実際はAIだった。
っていうふうなのがあったらしくてですね。
7ヶ月経っていきなり言ってくるのすごいですよね。
7ヶ月バレなかったんですね。
そうそうそう、これどういう経緯だったんだろう。
平日毎日4時間の番組、サイト過ごす平日という番組でスタートしました。
面白いですね、ちゃんと公式サイトを見るとその人の画像があるんですけど、
この画像を見ても確かにいそうな人だなっていうふうに思っちゃう、正直。
確かに、結構自然ですね。
自然ですね。
結局7ヶ月もやってるけど、調べれば調べるほどこの人の情報ねえなっていうふうに思ったから、
調べてみたらAIですっていうふうになったっていう。
でも僕、ノートブックLMの音声概要初めて聞いて、
結構会社の人にも聞いてもらった時にみんな驚いてました。
これAIなんだっていうふうに思うくらいに、初劇の人は全員騙せるなって思う。
確かに初劇騙せますね。
途中でイントネーションが変だなとか、和社がいきなり交換したあたりで違和感を覚えるんですけど、
普通に冒頭1分くらいだけだったら、なんかJWaveっぽい番組だなみたいな感想を覚えるので。
このシドニーのラジオ局のやつも、それで7ヶ月運用できてるんだからすごいですよね。
いや、4時間ヒップホップ流す番組のMC。
僕の大昔のラジオ局時代の話をしますね。
今はもうないんですけど、
それこそポッドキャストっぽい楽天FMっていうのが昔あったんですよ。
知らない。
知らないですよね。
ひっそりと聴いていったサービスなんです。
楽天FMの結構いろんなチャンネルがあって、
そこはいろんなチャンネルで24時間番組やってるからってのがあったんですけど、
音楽流すチャンネルが平日毎日3時間の音声の中にちょっとだけ語りが入るみたいな構成になってて、
今の時代だったらもうそれ全部AIでできちゃうんだって思って。
自動化できちゃいますね、確かに。
自動化できちゃうから、もう人いらなかったじゃんっていうふうに思うと。
だからそれをやってたのがそれこそ7,8年前なので、
この8年でやっぱ音声の番組を作りも随分変わったなっていうふうに思わせられる出来事ですね、このシドニーのやつは。
なるほど確かに。
AIを使ってどれだけ社会に影響を及び始めてるかみたいなものも。
そう、だからもう僕だってノートブックLMとチャットGPTなかった頃には戻れないですもん。
QOLが上がりすぎて。
ポッドキャストの作った後の詳細文だとか。
しかもいちいち考えてらんないですよね、もはや。
考えてらんないし、だから一気に4本分作るから、これなんだっけ中身って思うんですよ。
だいぶ前に編集したから。
だから最近、自分が編集した番組の引用リツイートする時、弊社で制作しました。
今週これが面白いですっていうのは、
これだいぶ前に編集したからもう覚えてないなっていう時はチャットGPTで。
なるほど。
なんかこれの投稿文をこのジャンルに分かんない人でも聞きたくなるような感じで作ってって言ったら作ってくれるから。
いいっすね。
もうそればっかりですね。
幅が広がりますね。
そう、幅は確実に広がった気がしますね。
編集もAIが助けてくれたらいいんですけどね、そこはなんかちょっと肌感イマイチかなっていう気はしてて。
そうですね、だからプレイ。
海外だと結構そのAIを使って編集助けるっていうプロジェクトあったりするんですけど、
なんか僕もそうだし、使ってみた人と話してみた感じ、なんかまだやっぱ日本語が弱いっていう面も大きそうな感じがあって。
でもそれもう英語だったらそれでもいけるっていう感じになってるんですか?
いやでもそれをそのまま使うのは厳しい気はしますけどね。
まあ結局編集ってそうだよなっていう感じしますね。
なんか動画の編集AI側みたいなのはもう結構聞くけど、どうなんだろうねって思いますかね。
なんかショート動画作るんだったらその、プロンプトだけ読ませたらそれに画像を勝手に合わせてくれるみたいな。
で、AI音声のみたいなので量産できますよみたいなのを見たけど、
いやこれで満足するのかなって思ったけど結局。音声はそれ無理な気がする。
10分15分それを聞かなくちゃいけないからって思ったけど、
最近YouTubeで1個やべえなって思った事例があったので言うと、
カナダまでその情報が届いてるかわかんないですけど、
60歳以上が東京バスただで乗れるように来月からなりますっていう動画がめちゃくちゃパズってたの知らないですか?
動画自体は知らないけどニュース見たかも。
見に行ったんすよ。
1枚のAI画像でそれに文章の文字起こしくらいはあったのかな。
全部AIが喋ってて、これこれこういう理由で来月から東京都交通局では60歳以上はただで乗れます。
これを受けるにはみたいな感じのやつが50分くらいの老後を楽しく生きるみたいな名前のチャンネルだった気がするんですけど、
こんな嘘でいいんだ。
しかも最近のYouTubeのトレンドとしては40分くらいのシニアがYouTube見るようになったから、
シニア向けのちょっと長めのコンテンツがいいですよっていうので、
だから別に映像はなくてもいいと。なんか音声だけでもいいよ。
ポッドキャストじゃんって思ったんですけど。
シニアよポッドキャスト聞けって思うんですけど、
でもそれがなんかAI音声の40分くらいのそういう風な話のやつでっていう風なのを見てきてへーって思って、
時代はそっちに来てるんだっていう風に思いながら、
でその嘘のやつも信じちゃってる人が多いから困ったよねっていうのでニュースになってるっていうので、
すごいなこのチャンネルと思いましたね。
確かにAI系のYouTubeは確かにAI使ってるYouTubeチャンネルが増えてきましたし、
結構僕はスモールビジネス界隈の方々をSNSでフォローしてたりするんですけど、
スモールビジネス界隈でAIを使ってYouTubeチャンネル運用して利益上げるみたいなのも結構最近流行っている。
流行りがもうちょっとピークすぎたかもしれないですけど。なので使われますね。
まあだからポッドキャストじゃあ全部AIでいけるのかって言ったら、
それこそじゃあ別にノートブックLMの音声概要が一瞬バッときて多分俺以外もう使ってない。
俺はネタ出しをなんかやっぱ音声で聞いた時にここがフックだなって思うポイント探しで聞いてるから、
なんか一番多分日本でノートブックLMの音声概要をうまく使ってる人間という自負があるんですけど。
そうですか。
でもAIの話で言うと、AIで誰でもできるようになると誰でもできる分野では差がつかないのでプラスアルフを結局しなきゃいけなくて、
新たな創意工夫が生まれるのかなみたいなことも思ったりしますね。
そこで編集技術だったりだとか、どうやって差をつけたらいいんですかね。
誰もが。
それはちょっと教えてくださいよポッドキャストのお父さん。
ポッドキャストのお父さん的には、それこそでも本質は変わらない気がしてますね。
いかに次の1分聞いてもらうかが大事だし、いかに最初の1分離脱させないか、いかにタイトルとサムネイル、番組名で引きつけてまず聞いてもらうっていう釣り針に引っ掛ける作業。
結構釣りに例えやすいなと思ってるんで。
考えるとみんなが同じタイミングでルアー投げたとして、じゃあどれに食いつくのってなったときに美味しそうなルアーに食いつく。
それが番組名なのかタイトルなのか喋ってる人なのか色々と変わってくる気がするんで。
そこは自分で触らすためには結局何かしらの専門性が必要になりそうですね。
AIで色々ショートカットできるようになったとしても。
結局は補助的な役割にしかならないなという気がしますね。
じゃあ全部AIで自動化みたいな、AIで副業みたいな、詐欺しまがやの連中が言ってるようなあれにはポッドキャスター入ってきづらいなとは思いますけどね。
海外だとさっき言った嘘の乗車料が無料になるみたいな、ああいう系のポッドキャスターがめちゃくちゃ増えてるっていう風なのを何かの記事で読んだことがあって。
嘘というか陰謀論系のポッドキャスターが流行ってるみたいなのがあって。
日本でもいますからね、そういう陰謀論の人は。音声とそういうの相性いいんだよなぁとは思いますけどね、陰謀論というか。
なんか不思議な話だから、日本だとトゥルークライムより怖い話が伸びてるな、そういう風な短さなのかなという風には思ってますけどね。
AIを使ったサービスで結構救われる機会が増えてきたけど、本質的には人が考えなければいけないような気はするという部分は変わっていない気がする。
でもなんかXの投稿とかも、ポッドキャスト関連でAIにネタ考えさせてそれをちょっといじって出したらたまーに伸びる時があるんですよね。
でもそれもそのままではなくて、ちょっといじって。
そのまま、そうそうそうそう。結局選ぶのは俺じゃんっていう風な話だから。
まあ、ジャッジするのは結局自己判断にやるんだ。自動運転もそうじゃないですか。自己起こしたらお前の責任じゃんっていう風な話になるから。
結局はどこまでを自分で使うかの判断で、そのままだって結局AIが全部台本書かしてそれ喋ったところで、
それってAIの意見でお前の意見じゃないじゃんっていう風になるから。
お前、いらなくね?みたいな。
そう、だからスクールで言ってますね。台本の書き方みたいな部分で、もうAI使えばすげー楽に作れるようになったけど、
でもそれそのまま読んだらお前じゃなくてAIが喋りたいことになってるから、そうはならないような考え方とかそういう風な真の持ち方しなくちゃダメですよっていう風なのは、
すごい最近は結構スクールの中で言ってる部分ではありますね。
大事ですね。
だから僕も結構AI使って台本書くけど、これそのまま読んだら台本、なんかAIのあれになっちゃうから、そうならないために喋り言葉に変えなきゃなというか、自分の意見どこでどう出していくかなっていう風なのは結構変えながらやってる。
結論としてはどんどんいい感じのAI増えてきてるけど、それに全部頼りっきりになっちゃうと、お前のポッドキャストじゃなくてAIのポッドキャストになるから、
間違いない。
そこの手綱を握らせるのは、ちょっと考えなくちゃいけないよっていう部分ですかね。
ですね、間違いないですね。
はい、そんな感じで、いいAI使えるあったら教えてください。
終わりでーす。
はーい。