1. 自分にやさしくするラジオ
  2. 耳で学ぶAI【ゲスト回】Ep. 46
2025-09-11 50:58

耳で学ぶAI【ゲスト回】Ep. 46

spotify youtube
【ゲスト】

耳で学ぶAI, ロボシンクより 矢野哲平さん

https://open.spotify.com/show/1mtL6plFbjEikhObjknvbV?si=gbUB_-vURPmCfNccroGR9A



【トークテーマ】

AIとPodcast

TTS

AIと相性の良い媒体 など



🔷矢野さんが紹介してくれた

オーフォニック☞ 

https://auphonic.com/account/login/?next=/engine/





【パーソナリティ】

ソフィ(MC・ラジオDJ・ナレーター)

協力:RKB毎日放送株式会社 Podcast Lab. Fukuoka



📮お便りの宛先

https://forms.gle/NZHUzgM4Nkz65kw8A



BGM制作:SOPHIE

サマリー

このエピソードでは、矢野さんとソフィーが居酒屋の雰囲気の中で、AIを活用したポッドキャスト制作の方法について楽しく議論しています。AIがポッドキャストの台本作成や編集に与える影響について、文字起こしツールの利用やフィードバックを活用した制作プロセスについても詳しく語られています。また、編集作業や台本作成におけるAIの活用法、さらに音声生成技術についての興味深い視点が紹介されています。 このエピソードでは、AIの活用によるポッドキャスト制作の手法や自動化による効率化についても触れられています。AI音声がリスナーに与える影響や、従来の人間の声との比較にも言及されています。また、AIを用いたコンテンツ制作の現状やポッドキャストの活用法についても議論されており、特にGoogleのアルゴリズムとメディア作成の可能性についてさらに深く掘り下げられています。

耳で学ぶAIのコンセプト
この番組は、耳で学ぶAIをコンセプトに、初心者・中級者向けに、AIを分かりやすく解説する番組。
耳で学ぶAI、矢野さんと、私、自分に優しくするラジオ、ソフィーが、コミュニティ・ディスコード内の居酒屋より、ザック・バランにお届けします。
どうぞ最後までお楽しみください。
よろしくお願いします。
よろしくお願いします。
テーマは、PTSでポッドキャストを作ってみようとか、AIをどのようにポッドキャストに活かすのかというテーマなんですけど、
全然ね、逸脱しても大丈夫ですよね。居酒屋なんでね。
全然もう居酒屋なんで、もう逸脱しまくりで大丈夫だと思います。
矢野さんとは、飲み会の後の二次会で、少人数で行った二次会で、直接お話しさせていただいて。
あの、決起集会の時ですよね。
そうですね。
はいはい。
で、なんか、こういう形で話すのは初めてですね。
初めてですね。あの、決起集会の時も、いろいろみんなわちゃわちゃしてたから、
改めてこうやってなんか、腰据えて話すのって初めてですよね。
ねー。
はい。
しゅうさんは時々居酒屋に出没してくれて、お話ししてますけども。
はい、お世話になってます。
あとヤスティさんがね、お耳だけ参加ということで、仕事中にも関わらず、居酒屋を聞いてくれてありがとうございます。
またありがとうございます。ですね。
はい。
AIを。
はい。
AI。
なんかソフィーさんが興味があるって言っていただいたんで。
はい。
なんかこう、AI系のポッドキャストやってる身としては、ちょっとやっぱ嬉しかったです。
いやー、ほんと。なんかでも、わけがわからず。
なんかとりあえず。
これに関してもね。
そうそうそう。なんか最初は、なんだろう。音声を書き出すみたいなのが出てきたじゃないですか。
文字起こしみたいな。はい。
そうそうそう。文字起こしツールから始まって、じゃあ概要欄を要約してとか。
はい。
あ、池ちゃんこんばんは。
藤島さんこんばんは。
こんばんは。
池ちゃんは駆使している方だと、そっち側の人だと思いますけど。
池ちゃんにも質問したいですね。
なんかそう、概要欄とか。だけど、以前なんか編集は手作業だなってとこもあるし。
そうですね。いや、ほんとそうっすよね。なんか、AI導入したら、なんかもう全部台本も。
はい。
まあ、あの音声はあれだと思うんですけど、台本も、なんかこう編集もアップロードも全部っていうのは、ちょっと僕もそれ全然できてなくて。
あるんですか?
えっとですね、編集、台本に関しては全部自分でやってるんですよ。
おお。
あの、やっぱりなんかこうAIが作った台本だと、絵直しが多くなっちゃうんですよね。
あそこを話したいことじゃないとか。
はいはいはい。
なんで、もうそういうこと考えたら台本に関しては、もう全部自分でやってるっていう感じですね。
なんか誰が言っても同じ内容になっちゃいますよね。
そうなんですよね。で、あの、前ヒクチさんから教えてもらったのが、えっと、自分の声をバーって喋る。こうバーって自分の頭の中を一回棚下ろしみたいな感じで喋って。
で、その音声をAIに文字起こししてもらったりとか、今直接AIに音声渡したりできるやつがあるんで。
で、それをもとにAIに台本を作ってもらう。自分の頭の中を一回音声に出して、で台本を作ってもらうっていうアプローチを教えてもらったんですけど。
それもいいかなって思って一回試したんですけど、ちょっと今のところはやっぱり手打ちというか、キーボードで落ち着いてる感じですね。
あ、そう、え、どういうことですか?
えっと。
使ってます?使ってるってこと?
えっとね、使ってみたんですけど、自分はちょっと合わなかったパターンだったんですよ。
あー、なるほどなるほど。整理されすぎちゃってんのかな?
そうですね。でもこれ人によってはカチッてハマるアプローチなんで。
はい。
何だろう、音声にAIに話しかけて、で、その音声をベースに台本作ってもらうっていうのは全然アリだと思います。
えー、やってみて。
ノートブックLMとかあたりですか?
えっとですね、樋口さんから聞いたのは、それこそMacBookとかWindowsって音声入力ができるじゃないですか。もともとパソコンに備わってる機能が。
はい。
なんかボタンを押したら、キーボード入力せずに全部音声がこう文字に変換される。
はい。
あれでもう自分の頭の、自分がこれから喋りたいことを全部バーって言って、でそれが文字になって、でそれをそのままAIに渡して、
で、じゃあ今私が喋った内容をそのまま台本にしてみたいな。
なるほど、これチャットGPTでもできますよね。
そうですね、チャットGPTの画面開いて、あと音声入力してっていう感じですね。
えー、あ、すごい良いこと聞いた。
そうなんですよ、はい。
コンテキスト?なんかいろんなレイヤーが繋がってないようで繋がってる人、私結構そうなんですけど話が飛びがちだったり。
はい。
そういう人には整理してもらって。
うんうんうん、ですね。
へー、あ、ちょっとまた、今日はメモがたくさんになりそうだな。
ですね。
結構あの、自分の番組がナレッジ系の番組って言ったらいいんですかね。
これなんか勉強系の番組なんで、その番組系の人はなんか多分合わない感じはしたんですよね。
え、意外。
あの、なんて言ったらいいんだろう。結構内容の精査を行わないといけないというか。
なるほど。
自分が思ってる、本当に思ってることが本当に正しい情報なのかっていうのはちょっと後で付き合わせしないといけないので。
はい。
結構その作業が多くなるんですよ、そのキーボードの入力に比べて。
うんうん。
なのでそうじゃない番組の人、番組にはこのアプローチはカチッとハマる人はハマると思います。
へー。
台本制作とフィードバック
じゃあ矢野さんが番組を作る上で一番ご負担になっているのは事実確認みたいなところですか。
そうですね。
はい。
でもあの、逆に自分はその台本作成ではそのAIの音声入力、キーボードじゃなくて音声で入力するを使ってるんですけど。
台本は自分で作ってるんですけど、自分の作った台本をAIにチェックしてもらって、
視点の漏れとか、ここはこういうふうな内容にしたらいいんじゃないかっていうアドバイスではAI使ってます。
へー。逆に私それしたくない。
これ。
たぶん。
また番組があるから。
そうそうそう、なれっちに違いますね、全然ね。
たぶん違います。いわゆるなれっち系の番組となれっち系じゃない番組で違うと思うんですけど。
ねー。
なれっち系の番組は結構それ、僕はカチッとハマったんですよ。
あ、そうだそれ言わないといけなかったとか、あ、これ言った方がリスナーさん絶対分かりやすいだろうなっていうのを結構AIが突っ込んでくれるんですよね。
すごい。こうゼミで樋口さんがしてくれることを肩代わりしてくれるって感じもしますね。
あーもうそんな感じですね本当。
これ付け加えた方がいいですよとか、ここちょっと情緒なんで言わない方がいいですとかっていうのを結構突っ込んでくれて、
で、なおかつそれが結構自分の中で、あ、確かにそれはいい採用しようっていうのが多いんですよね。
なるほど、なんか前提とかね。
そうですね、これでもちなみにこのタスクに関しては、ジェミニがおすすめです。
Googleの。
え、だからそれの違いも分かんない。で、いろいろ使いたくないんですよね、正直言うと。
あー、いや、えっとね、結構複数使った方がいいっすよ。
やっぱそうなんだ。
なんかやっぱね、なんか違うって言われるとちょっと難しいんですけど、同じような、コピペするだけでいいんですけど、
同じ指示をチャットGPTに渡して、でその後ジェミニに渡すんですけど、結構なんかいろんな視点からあれされるんで、結構複数使いはおすすめですね。
なるほどね、そのなんか癖、AIによって癖がやっぱあるから、8点で見てもらうってことは大事。
そうですね、はい、結構おすすめですね、どのタスクでも。
でも最初はチャットGPTに見てもらうんだ。
そうです、あ、でもその台本の修正に関しては、チャットGPTよりも現時点ではジェミニの方が結構多いっていうことが多いので、今はもうほぼほぼジェミニに渡してますね。
え、どういうこと?もう一回言ってもらっていいですか?
台本にツッコミを入れて、AIにツッコミを入れてもらうタスクは、チャットGPTよりもジェミニの方が現時点では結構いい感じなので、今は台本のタスクに関してはジェミニっていう感じの使い分けしてますね。
ありがとうございます。
ジェミニ、おすすめです。
これって普通にMacでGoogleで検索してって感じですか?私一回も使ったことないんですよ。
もう普通にチャットGPTみたいな画面があるんですよ。
ジェミニで検索すれば出てくる?
そうです、出てくるので、全くチャットGPTと使い方はほぼほぼ一緒なので迷うこともないと思います。
ちなみにプロンプトってどんな感じですか?
プロンプト…ちょっと待ってくださいね。
プロンプト…ちょっと待ってください。
そこまで…
ざっくり言うとですね。
いやいや、全然。ざっくり言うとですね。
ちょっと結構長めなんですけど、ざっくり言うとユーザーが添付したそのポッドキャスターの台本を読み込んで、
2人の視点からその台本に足りない部分とか、そういうのを提示してくださいみたいな。
一つはそのポッドキャスターの目線。
エルソナじゃないけど、キャラクター設定して長年経験のあるポッドキャスターで自身の番組を運営してて、
ポッドキャスターの制作会社も運営してるみたいな。
この人からのアドバイスと、あとはリスナー目線。
生成AI系のポッドキャストで、AI初心者で毎週通勤時間に視聴しているみたいな。
生成AIの経験は初心者、中級者レベル。
ポッドキャスターとリスナーの2人のキャラクターを作って、その視点から台本に足りない部分を教えてくださいみたいな。
えー面白い。話す人のエルソナもやっぱ入れるんだ。
そうですね。入れてますね。これ入れたからってじゃあどうなのって話なんですけど、一応ちょっとそんな感じで入れて、2つの視点から。
たくさんツッコミが欲しいんですよね。
そしたら結構その初心者のリスナーで設定しているキャラクターからは、この単語を例えばそれこそTTSとかって言われてもわかんないみたいな。
そうですよね。
テキストというスピーチで、テキストからスピーチを生成するってちゃんと噛み砕いてもらわないとわからないみたいなことをツッコミ。
そうだそうだここはちゃんとわかりやすくしようみたいな感じのやつをやってますね。
エルソナのもう一人は話者ってことですよね。つまりヤヌさん自身。
これツッコミの視点なので、なんかポッドキャストスタジオを運営している人Aさんと後はリスナーのBさんみたいな感じで台本渡して読んでもらってツッコミ入れてもらうみたいな感じですね。
そうなんだ。
あとあれがすごくおすすめで、いつかどっかの機会で言いたかったんですけど、編集あるじゃないですか。
編集もAIでやってくれるサービスがある。
ステースAIとはちょっと違うんですけど、音源を渡すと音声のボリュームとかをいい感じに調整したりとか、背景のノイズ環境音消したりとか、あとはリップノイズとかを消してくれるサービスがあるんですよ。
私今んとこそれはプラグインでやってますね。
もうあれですか?音声アプリというか編集ソフトのあれで。
編集ソフトは無料なんですけど、プラグインRXをもう5年くらい使ってますね。
そっちもいいですよね。
すごい高いんですけど、私一応納品とかしてたんで、それに頼るクオリティということで、ラウンドレスコントロールも国際基準に合わせたりとかするためにしてましたね。
それめっちゃいいじゃないですか。
いやいやいや。すごい高くて迷ったんですけど。
高いですよね。そうなんですよ。音声編集結構どうにかならないかなってずっと思ってて。
でも高いけど一発で解決しますね。
いいっすね。
いやすんごい高いんですよ。
ポッドキャストの制作とAI
僕もプラグインそれ持ってるんですよ。RTXだったかな。の安いバージョン。何万かの。1、2万くらいとかだったかな。それでやったりしてますね。
たまにセールするんですよね。
そうなんだ。
そうなんですよ。結構セールするんですよ。
なんでいろいろあると思うけど、ヒグチさんもプラグイン結局使ってるって言ってたんで、どこまで追求するかはあれですけど。
ちなみにヤンヌさんがおっしゃってた編集もAIでやってくれるというか、リップノイズとかラウンドレス。
ちょっと待ってください。
めちゃくちゃ気になる。
オーフォニックってやつなんですけど。
はい。
しかも無料で使えるんですよ。
すごい。
何分までとか。1ヶ月何分まで無料で使えて。前後にウォーターマークというか音声が入っちゃうんですけど。
はい。
オーフォニックっていうサービスなんですけど。
今チャット欄に。
いざかいのチャット欄になんですけど、個人的にはこれはすごくおすすめですね。だいぶ編集作業がこれで楽になりました。
マを詰めたりとかっていうのはあります?
自動で。
嘘!
空いたマって言ったらいいですかね。それを切ってくれたりとか。
それって自分で設定できるんですか?
設定できますね。無しにもできるし。
これオーフォニックに音声を収録した後そのままアウトプットしてこれに渡したら自動で音声の調整とノイズ除去とそのままのカットっていうのを全部やってくれるんで結構これがおすすめです。
すごい。
台本作成と情報収集の工夫
結局ヤノさんのスタンダードなクジンを聞きたい。
台本はジェミニでしょ?
台本そうですね。台本作成が自分で、情報収集がOGPTとジェミニがだいたいメインで、ツッコミ入れてもらうのがジェミニで、
その後編集がオーフォニックで、この後がアップロードか。アップロードはもうちょっとPotifyなんで自動化ができないんですよね。
そうですね。
アップロードは普通に手作業でして、その後のアップロード後のSNSの投稿とかは自動化してて、
チャットGPTとかで、今回こんなこと話しましたっていうのを。
概要欄的な。
そうですね。概要欄から情報をチャットGPTに引っ張ってきて、チャットGPTでポスト分作ってもらって自動で渡すみたいな。
そこがわかんない。ひぐちさんがノートでやってたのは見たんですけど。
ひぐちさん、前ちらっと話したときに言ってたのが、ひぐちさん確かあれなんですよね。
ガスっていうやつがあって、Google Apps Scriptっていう、GoogleのGoogle上でコードが書けるんですけど、そのコード書いたら結構いろいろなことが自動化できるよみたいな。
デジタルで作ってたんですよね。
そうですね。僕はMakeっていうノーコードの自動化ツールっていうのがあるんですよ。
結構これだとコード書かずに簡単に自動化が設定できるので、それでやってる感じですね。
じゃあもうアップロードを手作業でしたら、自動的にSNSに反映されるってことですか。
そうですね。スケジュール予約をしてるので、毎週水曜日になって毎週水曜日にスケジュール設定してるので、あとはあれしてくれるみたいな。
でも載せる文章も文言もそこに指定してってことですよね。
そうですね。概要欄から引っ張ってきてもらってポストするみたいな感じですね。
改めてでも自分でも見た。
そうですね。こんな感じですね。そのポッドキャストのワークフローで言うと。
逆にでも他の人のワークフローじゃないけど、どんな感じでAI使ってるかも聞いてみたいです。
そうですよね。ちょっと待って。山田さん週1回水曜日ですよね。
水曜日です。
それってどのくらい時間かかってます?
結構めちゃくちゃかかってるです。めっちゃかかってるです。
情報収集にかかるのかな、一番。
そうですね。台本作成に3時間くらいかかってます。台本3時間ですね。
まずネタとかってどうやって引っ張ってくるんですか?そもそもそこがないと構築しようがないじゃないですか。
ネタはですね、毎日AIのニュースとかをキャッチアップして、これ話したら面白そうだっていうのを、
トゥーリストとかメモとかにしておいて、今週これ話そうみたいな感じですね。
そうなんですよね。台本作成に時間かかりすぎてて、それがちょっとネックなんですよね。
ひな形はないんですか?
台本のひな形ですか?ひな形はないですね。一連の流れ。もうだいたいこんな感じで話すっていうのはあるんですけど。
ロジックっていうか。
順番、構成みたいなのがあるんですけど。構成はあるんですけど、だいたいこんな感じですね。情報収集込み込みで。
だいたいもうプレップみたいな、そういうのがあるじゃないですか。
これご自身の自分の意見みたいなのって入れるんですか?
意見、そうですね。意見入れますね。
なんかナレッジ系をしたことがなくて。
いやー、でもナレッジ。
でもそれこそナレッジ系のポッドキャストとかは、それこそそのAI系のポッドキャストと相性悪いのかと思ったりしたんですよ。
モートブックLMで使ったことあります?
アリバーションで流しましたよ。
そうですよね。ワンクリックであれできるみたいな。結構ああいうのって情報ソースがあったら、もうワンクリックでナレッジ系のポッドキャストが出来上がるじゃないですか。
あれオトナルがやってて本当にびっくりしました。社内、ニュースをやってましたね。
そうなんですよ。だから僕みたいなナレッジ系のポッドキャスターとかは、結構ノートブックLMとかは脅威だなと思っちゃったりします。
だからNHKニュースがテレビで流れた時に、AIで和訳したり英訳したりで不公正が始まったじゃないですか、数年前に。
あれと同じ感じかなと思ってて。
ですね。
事実が伝わればみたいな。
そうなんです。情報が収集できればOKみたいな人とかは、そっちのAIのポッドキャストに流れる可能性っていうのは全然あると思うんで、そこら辺はちょっと危機感を持ったりはしてますね。
AIと音声生成の未来
わー面白い。
逆にでもやっぱり、それこそ古典ラジオとか、話し手の個性が光る番組とかっていうのは、やっぱりAIは敵わないと思いますね。
でも言ったらナレッジ系じゃないですか。
そっか、ナレッジ。
だからよく同じ話を、同じ知識、情報を得るにしても、ここから聞きたい、この人から聞きたいみたいなのって、やっぱり差別化されるっていうか、人の数だけあるんじゃないかなと思って。
特に声みたいな、本能に近いもの、ちょっと声だけで無理みたいなのがあるから、まだ大丈夫じゃないと思います。
ありがとうございます。
騒がしいのが苦手っていう人は、とか控え音が苦手っていう人は。
確かに確かに。
矢野さんみたいにマイルドにお話しされる方がしっくりくるんだろうし。
ありがとうございます。
でもそっか、そういう見方があるんだ。
そうですね、逆になんか自分、じゃあもうせっかくなんでAIポッドキャストの話にこのまま流れるかなと思うんですけど、前に自分で作ったことあるんですよ。
何をですか?
英語系のAIポッドキャスト。
へー。
AIの音声で、日本語と英語を話して、なんかこう、語学系って言ったらいいんですかね。
はい。
作ったことあるんですけど、それは全然跳ねなかったんですよね。
え、私それがやりたいんですよ。
あ、それがやりたいのか。
え、なんでかって言ったら。
番組、もうあれですよ、もう差し上げますよ。
え、なになになに?
番組、僕やってて、もう今ほとんどやってないんですけど、差し上げるほどリスナーさんもついてないけど。
え、すごい!いや、私それほんとやりたくて。
あ、ほんとですか。
やっぱり日本のポッドキャスト市場がアメリカの1%でしたっけ。
そんなことですか。
そう、なんか私ね、スターパップでやっぱりポッドキャスト好きだから、そこでちょっと課題探ししてみたんですけど、市場がもうほんと小さすぎて。
でもアメリカ成長率30%にいく勢いで1269ドルとか。
でもだけど日本は1%ぐらいなんですよね。
え、じゃあ市場を日本じゃなくて世界にすればいいじゃんみたいな考え方で。
あ、なるほど。
うん。ランキングももう世界の人と混じってるんだから。
うんうん。
で、それAIで叶うんじゃないってことでTDS今回。
TDS?
テキストとスピーチで持って。
えっと、テキストから音声を作成するってやつですよね。
そうなんですよ、そうそうそう。
ということで市場拡大していけないかなって思ったんですね。
これ話すトピックっていうのは何になるんですか?
私は自分に優しくするラジオなんで、結構海外ってカウンセリング文化とか、いじめた子って学校とかで、パブリックスクールとかでもいじめた子ってカウンセリングさせられるんですよ。
あなた人をこんないじめてどうかしてるんじゃないみたいな大丈夫?って言っていじめた子がカウンセリングに活かされるんですね。
っていうぐらい浸透してるんですよ、メンタルヘルスに関しての大事にするのが。
でも日本ってまだなんか精神疾患ですか?みたいなちょっと揶揄される部分があったりとかして、海外だとめちゃくちゃ多いんですね。
なんで相性的にもいいかなと思って。
なるほど、ソピーさんの今の番組を日本語じゃなくて他の言語、他言語にして演劇するっていう。
そうですね、アジアでもいいですし、あと女性の文脈とか、もうちょっと学問的な、知恵じゃなくて学問として、知恵としてメンタルヘルスを自分でこうなんとかしていく、マネージメントしていくっていうことを伝えたい。
結構骨太な。
それだったらでもAIは相性がいいでしょうね、いわゆる言語の壁とかがあんまり関係なくなるんで。
で、そのうちに向こうのモメンタムのある女性の軍団とコラボしてみたいな。
あんまり欲張りじゃないんですけど、もうメディアにしたい。
でもそれだったら、例えば今回ソピーさんと企画というか開催する前に話してたのが、ソピーさんの声をAIに学習させてするパターンもありますし、
もしそうじゃなかったとしたら、もうすぐに音声が揃ってるサービスがあるので、
それこそオープンAIとか、Google、ジェミンとかがあるんで、ソピーさんの声じゃないけど、いわゆるネイティブのアメリカの女性の声みたいなのもできたりするので、
あと大根渡したら、もうすぐに番組が動けるっていう状態だと思います。
それがだから何分かっていうので、事前にお話ししたのがあれですよね、3時間。
Eleven Loversね。
3時間分の声を学習、AIにソピーさんの声を学習させるっていう。
そうなんですよね。その3時間もきっとずっと本を読んでるんじゃなくって、笑ったり泣いたり喜怒哀楽を交えた3時間じゃないといけないんでしょうね、きっとね。
バリエーションはあった方がいいと思いますね。
ですよね。
それこそでも過去のポッドキャストの音源使ってみるのはどうですか?
なるほど。でも私BGMとか入ってるんですよ。
そうか。それ分離は?マスターデータとかに分離は?
手をたまえばできるかな。今ちょっとTTS試しに聞き比べしてみようっていうことで、
オープンAIで私のいつもの自分に優しくするラジオですの最初のやつを撮って今貼ったんですけど、
どうしよう。私がこれ流せるのかな?聞けるのかな?これ聞こえてます?聞こえてないの?
あ、今音声ですね。そうです、今ちょっと置いてないですね。パソコンでやってます?
パソコンで今Discordに入ってまして、
システムの音声、はい。
チャット欄にTTS Sophie MP3っていうの貼ったんですけど、
これが私の声と全く、私の声を学習させたんですけど、
なんか日本人じゃなかった。
あんまりなんていうか、チャットGPTの女性の声みたいな声になってました。
ちょっと学習、もう少し学習させないとダメかもしれない。
そうですね。同時並行で進めていくのがいいのかな?
同時並行?
Sophieさんの音声を学習させたAIと、このとも既存にある音声とかでやっていくと、
AIポッドキャストの技術
どっちかで言って、
Sophieさんの声をよりリアルになっていくっていうのは、結構時間の問題だと思うんですよね。
そうなんですよね。
精度がどんどん上がってくるし、新しいサービスとかも生まれるから、
それも見越しつつ、番組育てるみたいな感じがいいのかな?
そうですよね。触りだけでもちょっとあるんだってなると、
日本だてにしていけるようになったら将来的にはいいなって思ってて。
確かに確かに。
すみません、なんか話が逸れちゃったかもしれない。私の話になっちゃったかもしれない。
いやいや、もう全然。だってTTSの話するアイドルさんで。
それこそでも、
どうぞ。
それこそ?
AIのポッドキャストを作るときって、どんな感じでやってます?手作業?
AIのポッドキャストは実はまだ作ってなくて、今回の試しでっていうので、
このTTSを作ってみたんですけど、やっぱ。
画面からクリックして。
そうですそうです。
なるほどなるほど。
気分も選べるんですよね。チラッといろいろとか。
そうそうそう。いろいろ選べるんです。
それこそ、もうちょっと、もうちょっとかなとか、あとはヤムさんが紹介してくださった他のその3時間とか、
もっとスピードがいいものがあるんだろうなと思って。
そうですよね。
11LABOとかも結構、ランプ入っとるよ。
の奥さんがこれで学習させた音声で、
オーディオブック作ったとかって話題になったりとか、
あと11LABOが、どこやったかな、KDDAがどこか忘れましたけど、
日本にも進出してきたので、
日本にも進出してきたので、
そうですね、使いやすいと思います、11LABOが。
あとはそれ以外で、
ソフィーさんの声じゃなくて、
AIの声を聞くというか、
そういうのもなかなか使いやすいと思うんですけど、
あとは、
SOPHIEさんの声じゃなくて、
AIの声を聞くとか、
そういうのもなかなか使いやすいと思って。
ソフィーさんの声じゃなくて、AIのもともとある声でやる場合は、OpenAIとか、あとそれこそGemini、Googleのやつもあるんですよ、TTSが。
へー、Geminiもあるんだ。
まさしく、ノートブックLMで話してるじゃないですか。
あれですね。
あれの声を使えるんですよ。
あれって、みんなあの声じゃないですか。またこの人みたいな。
あれはね、2人固定されてるんですよね、女性と男性が。
そうそうそう。
で、それとは別に、ソフィーさんがちゃんとGPTで操作したみたいに、結構他のメンバーも選べるんですよ。
他のメンバーいるんですか?
結構いますよ。
メンバーって言い方が面白い。
そうそう、メンバーがいるんで。
私好きな声。
はい。で、なんかね、個人的にはそっちの方が結構自然な、あれなんかな、音声なんかなーとか思ったりするんですよね。
へー、ちょっとでも面白いですね。正門とか行って、1人1つじゃなかったです?声って。
うんうんうん。
それがもうね、今や、何ですかね、亡き者じゃないけど、亡くなってはないんだろうけど、濡れかしているっていうんですか?
どうなっていくんですかね、なんかまあ、AIポッドキャスト、なんかちょっと全く読めないですね。こんな感じになるのか。
AIポッドキャストね。
ちなみにですね、あの、AIポッドキャスト作るときも、自動化するとかなり楽になると思います。
まあ、台本渡して、で、もう自動で音声してくれて、で、その音声も自動でもうポッドキャストアップロードするみたいな流れ作ると相当楽になると思います、運用が。
あ、ちょっと先ほどの、ちょっと聞き漏れてた、自動ってところをもう少し詳しく教えていただいてもいいですか?普通の一般ピンポンにもできますか?
あの、もう全然コードを触らないので、メイクとか、あと他にもちょこちょこいろいろあったりはするんですけど、使いやすさで言ったらメイクはおすすめなので、これで組んできますね。
へー、自動化してSNSに投稿するのはメイクがいいと。
そうですね、メイクもできますし、あとそれこそ私が前作ってたそのポッドキャストもメイクで自動化して、台本作成で台本作成したら音声、音源化して、で、アップロードはちょっとSpotifyだったのでできなかったんですけど、
この手前までは全部全自動でできたので、ソフィーさんの場合だったらどんな感じになるのかな?あれですよね、既存の番組、例えばそのソフィーさんが日本でアップロードするじゃない、公開するじゃないですか、番組を。
その番組を自動で取得して、音声を自動で文字起こしして、で、その自動で文字起こしした音声をそのままTTS、AIに渡して音声化してもらって、
プラットフォームは自動化できるプラットフォームを選ぶとして、Spotifyじゃない別のやつにするとしたら、公開後のSNS投稿とかも自動でいけますね。
すごい。
結構楽になると思います、採用的には。
すごい。なんかちょっと副音的なメインじゃない、サブっていうかボーナスみたいな、私メガホンでやってるんですけど、メガホンでRKBの方で取得してもらったのを返してやってるんで、そこでボーナスとか選べるんですよ、トレーナー、フルボーナスみたいな感じで。
なんで、ちょっとサブ的な感じでアップ、同時にアップしていくのもいいなとこう思いつつ、私なんか英語喋った時に外国人の人から、あなたはAIですかって言われたんですよ。
声がやっぱ綺麗、綺麗で発音とかも綺麗だからって言葉じゃないですか。
いやでも本当に疑われて、しかも一人じゃなくて何人にも疑われて、ちょっと日本語で喋ってって言われて、で日本語の方がいいみたいなこと言われたんですよ。
ちょっとなんか何とも言えないけど、結局TTSでいいんじゃんとか思って。
なるほどなるほど、そうですね。でもこれこそ本体のその日本語のポッドキャストに連動させて自動化したらだいぶその作業の負担は軽くなると思いますね。
えーすごい。
音声自動化のメリット
例えば国別によってちょっと台本の内容変えたりとか、話す内容変えたりとかって言ったらちょっと話は変わってくると思うんですけど。
でも共通した。
そうですね。
なんか本質とか普遍的なもの?
ですね。
えーすごい。ちょっとここまで勢いよく話してしまったんですけど、今お耳で聞いてらっしゃる方はもし質問があれば、せっかくヤムさんいらっしゃるんで。
逆に僕の方が聞きたいです。なんかみんなどんな感じであれしてるんだろう。
それは聞きたいっておっしゃってましたね。
そうですね。最初から言ってましたね。
喋れる人いますか?
もっとうまくいける方法あると思うんですよね。ポッドキャスト。なんかちょっとそれを見つけきれてない感じは。
喋れるは喋れるんですけど、何を聞いていいかわからない。僕らは何も聞けないんですけど。
ありがとうございます。
ちょっと世界が違いすぎて、質問の仕方がわからないっていう感じ。
でもなんか僕思ったんですけど、なんかポッドキャストってなんかやっぱりAI、なんかその、AIでも全部台本丸投げしてっていうのとはなんかやっぱ違うあれだなって思って。
人間のこの台本とか、それこそトークとかもAIの音声よりもやっぱり人間の噛んだりとか、あれするやつの方が相性がいいと思うんですよね。
そうですね。なんかラジオとか聞いてると、AIが喋ってるかなって思ったらそんなことないし。
なんかその場のノリとか、まあ生放送だったりすると、余計そこが何だろうな、人と一緒にいる感があって気配を感じますよね。
結構あの、AI系のポッドキャストやってて、僕が所属するランキングがそのテクノロジーランキングっていうところなんですけど。
結構ランキングはチェックして、他の番組どういうAI系のやつあるだろうとかチェックしたりしてるんですけど。
時々その新しくもうフルのAIボイスで、多分台本もフルでAIのやつの番組とか出てくるんですけど、やっぱり最初出てきても順位上げても、あとやっぱり見てると順位落としていってるんですよ。
最初はどんなもんだろうってまだ本当に出てきて、続かないんだ。
結構そのパターンはテクノロジーランキングでは見てたんで、やっぱりなんかそういうのを見てるのと、自分がそのポッドキャスト失敗したっていうのもあるんで。
なんかやっぱり人間の、もうそっちの方が相性がやっぱり合う媒体なんかなとかは思ったりはした。
飽きがきますよね。
多分そうなんでしょうね。結構なんかニュース番組とかでもAIボイスに変えたところ、結構コメント欄荒れたりしてるんですよ。
荒れるな。
どういうこと?
なんかレビューがもうAIボイスでみたいな。
そこがもう気になっちゃって。
なんで変えたんですか?みたいなレビューがあったりするんで、多分やっぱり会わない人はやっぱり本当に拒否感が強いのかなって。
なんかちょっと無理矢理繋げると、F分の1揺らぎみたいなもので人が心地よくなって寝るじゃないですか。電車とかの揺れ。
それと同じようにやっぱり人間ってすごい揺らぎがあると思うんですよね。
その揺らぎをAIが結構再生っていうか、再現しようとしてるけど、どうしてもできないのかなっていうか、その人固有の揺らぎがあるから。
確かに。
なんかAIはその平均値を取るだろうから、なんて言えばいいのかな。なんか真似できないんじゃないかなって。できないっていうか。
そうですね。なんかこうAI系のコンテンツいっぱいあるじゃないですか。画像も動画も。
で、なんかやっぱ見てたら徐々に人慣れていってるなっていう感じはあるんですよ。
なんか最初の時に比べて。
区別ができない。
そうですね。もう区別できなくなってるし、最初の時に比べて結構拒否感っていうのは薄れてる感じはしてるんですよね。感覚的に。
なんか。
はい。
ごめんなさい。で。
大丈夫です。
いいや、続けてください。
なんかあの、そんなもんでそのAI音声がバーって出てくると、なんか人間もそれに慣れてくる。最初ほど拒否感は出ないのかなとか思うんですけど、やっぱり人間のポッドキャストがAIポッドキャストに負けることはないのかなとは思ってます。なんか。
拒否感がないのと好きになるのは別ってことですよね。
多分そうですね。
拒否感はないけど、特別すごい気に入るってことはあんまりありえないのかなって。
そうですね。AIの。
そうそうそうそう。
いや、僕もそう思います。
すいません。今の話聞いてて。
はい。
私も実はAIを使って実験をしてるんですよ。で。
本当ですか。
これあのポッドキャストじゃなくて、ウェブメディアを立ち上げて、ウェブメディアの内容をAIに叩き台作ってもらって、そこに肉付けを私がするっていう感じで、なんかどれぐらい行くのかなと思ってやってみたら、過去3ヶ月間で5万ぐらい検索ページに上がってるみたいですよ。5万件ぐらい。
で、実際クリックされるのが450回ぐらいなんですよね。で、それ多いと捉えるか少ないと捉えるかわからないんですけど、ただGoogleのアルゴリズム的にそういうAIが関与しているコンテンツに関しても、ある程度はそうやって順位を上げることができてるっぽいので、ポッドキャストでも同じことが言えるのかなってちょっと思ったりもしました。
リスナーの反応
うん、そうですよね。確かに。
いけちゃん、ちなみにそれどのくらいやってるんですか、期間。
作ったのは、そのサイト自体を作ったのは2月に作って、最初は自分でゼロから作ってたんですけど、結構大量に記事入稿しないとやっぱWebメディアとしてはやっていけんなと思って、そこでChatGPTを導入して、文章をある程度考えてもらって、そこに私の知っている音楽理論とかの話とか、
あと単純にAIが間違えてる部分とかを全部修正して、出し始めたのが多分6月とかですかね。で、そのAIが入るようになってから急上昇して、Webページ、Googleの検索に引っかかる回数がもう爆上がりしたんですよね。
なので、今のところGoogleのアルゴリズム的に、多分Googleわかると思うんですよ、多分これAIで作ったなみたいなのはおそらく。
そうですよね。
おそらくまだGoogle的にはAIで作ったものを下げる、順位を下げるっていうのはしてなくて、AIが作ってもある程度有益なものってわかったら順位を上げてくれるっぽくってアルゴリズム的に。
なので、これは結構今、もしかしたら今後AIでどんどん書いて粗悪な記事がたまってきたらGoogleも考えるかもしれないですけど、今の段階ではAIで作ったコンテンツは割と検索乗りやすいです。
なるほど。
間違いないのかな。音声媒体と文字媒体っていう違いもあるかもしれないんですけど、中身がちゃんとしてるっていうことは。
中身が。なので、ちゃんとファクトチェックしておけばある程度は使えるんじゃないかなと思います。
なるほどね。
やっぱり読めないですよね。例えば僕は音声のAIポッドキャストを作って失敗経験があるんですけど、やっぱりテキストのウェブメディアで3ヶ月で5万ってめちゃくちゃすごくないですか。
すごいですね。Googleからめっちゃ通知きますもん。何PV達成しましたみたいなのが。
そうですよね。
どんどん連続でアワードっていうかGoogleのマイルストーンっていうか用意されている何回突破しましたらおめでとうございますみたいなメールが結構短いスパンでポンポン来たんで、結構これ跳ねてるなと思ってウェブメディアとしては。
やっぱりどの媒体が相性がいいのかってちゃんといろいろ検証して見極めていかないといけないですね。
そうですね。
テキストそんなにあるとはすごいですね本当。
すごいですね。私は広告とかをあまり置きたくない主義なんで、Google広告とかアドセンス収入は全くないんで1ミリもお金にはなってないんですけど、もしこのやり方を教えて収益上げたいっていう人たちがいるんだったらある程度収益は上げられるんじゃないかなって思います。
確かに。
ポッドキャストの活用法
それで言うとポッドキャストを作って、じゃあ私は自分に優しくするラジオやってるんですけど、読む自分に優しくするラジオっていうことで文字媒体で見たい人はこちらへみたいな解説とか裏話とかそういうのも綴れたらいいなと思ってるんですよね。
これもやっぱりAIが相性が良さそうですよね。
良さそうな気がします。
もう本当に助けてほしい。私のこの無職生活を卒業したい。
コフィーさんの音声を文字起こしして、その文字起こしからウェブメディアの媒体作るみたいな。
そうですね。ようやくじゃないけど。
ゲーム制作のノウハウだったら私が持ってるんで。
いけちゃんプロデュースでもどんどんそれは出していきたい。
本当に本当に。
何か教えますよ。ウェブメディア構築っていうかサーバー借りるところから全然教えますよ。
何を言おうとしたんだっけ。そもそもいけちゃんがトピックを選ぶセンスがあるんじゃないかなと思ったんですけど。
叩き台をAIに作ってもらうっていうところの細かなフローを探して。
確かにその入りがやっぱり独特というか。
やっぱりいけちゃんの着眼点っていうのがあるんじゃないかなと思ったんですけど。
曲を紹介するときの選曲は自分の好きな音楽なんですけど。
スポティファイで自分はお気に入りの楽曲が4000曲くらいあって。
その中でこの曲多分コアなファンいるだろうなみたいな。
この曲だったら多分他にあんまり記事書いてる人いないから。
上で検索されたら上位になれるなみたいなやつはちょっと考えてます。
なるほど。
微妙、絶妙ですねそのセンス。
あんまりにも目立たない曲だと逆にまず検索されない意味がないんですけど。
なんかそんな感じです。
トータルしてやっぱり5万アクセスがあるってことはやっぱり
いろんな人がいろいろ調べてたどり着いてる。
これしかないみたいなね。
結構面白い反応があって私としてはすごく勉強になりました。
メディアをAIで作るっていうのは結構盛り上がってるんだなと思って。
いめちゃんが頭がいいよ本当に。
偉い妄想だし実効力もそうだけど。
いろんなバックボーンというかいろんな人たちがいるから
ポケラボをいろいろ座談会じゃないけど
あれするといろんなところでアイデアが生まれたりして面白そうですよね。
そうですね。
いろんな人がいるから安心するだけでも面白いですね。
普段接することがない人々ばっかりなので楽しいですね。
確かに。
ポケラボイベント企画いかがでしたでしょうか。
ポッドキャスト配信一つ撮ってもいろいろな方法があるんですね。
あなたからの感想をぜひお待ちしております。
ご縁あってこうしてポケラボで一緒に活動できることを感謝申し上げます。
みんなありがとう。
50:58

コメント

スクロール