1. PODCAST番組『JAM』
  2. S19: M『AI』
2025-09-15 22:42

S19: M『AI』

PODCAST番組『JAM』です。毎月15日配信!月曜日のオノマトペの「ひらた」、おいでよ!あるスタジオ「アル」、個人ラジオ No-MADの「柳楽芽生」の3人が持ち回りで配信について向き合う番組です。番組公式X(旧twitter) ⁠⁠⁠⁠https://twitter.com/pod_jam23⁠⁠⁠⁠#pod_jam各MCの番組は以下リンクから ↓↓◯月曜日のオノマトペ⁠⁠⁠⁠https://open.spotify.com/show/3WDu2tabGx7cI9zy0MUhUL?si=94a26e154c574b4a&nd=1⁠⁠⁠⁠◯おいでよ!あるスタジオ⁠⁠⁠⁠https://lit.link/alstudio2022⁠⁠⁠⁠◯個人ラジオ No-MAD⁠⁠⁠⁠https://open.spotify.com/show/5oBkS1YZZMhLTEfJW1lyYY⁠⁠⁠

サマリー

このエピソードでは、AI技術の進化について議論が交わされ、特にGEMINIやチャットGPTの利用が紹介されています。ポッドキャスト制作や音声生成におけるAIの具体的な活用方法が掘り下げられ、機械音声の進化とその人間らしさについても触れられています。AIポッドキャストの可能性が議論され、特に日本語版の展開に対する期待が示されています。また、声優業界におけるAIの影響や、AIとの付き合い方についての懸念も述べられています。

AIの進化についての議論
月曜日のオノマトペの平田淳です。
こいでよ、あるスタジオ、あるです。
個人ラジオの窓、ヤギラメイです。
感慨せきな3人が持ち回りで配信について向き合う番組、JAM。
今回は私、ヤギラメイがMCを担当させていただきます。よろしくお願いします。
お願いします。
はい、ということで。今回はですね、一回ね、前に多分近い話をしてるんですけど。
うんうんうん。
今回、AIの話しようかなと思って。
出た。
おー、AI。やったね、一回。
やったよね、なんか最新技術みたいなやつで多分ね、話を。
そうですね。
確かに確かに。ありましたありました。
そう、ただ多分その時話しているものからさらに進化を。やっぱね、日進月歩どんどんどんどん変わってきてますから。
全然違いますね。
いいよね。
そう、そんな話もしようかなーなんていう風に思ってますけど。
はい。
そもそもお二人、AIって使ってます?平田さんとか特に。
僕はAIを最近割と使うようにし始めてますけど、まだ使いこなせてないですね。
例えばどういう場面で使ってます?
えーと、今月曜日のオノマトペの他に犬からの伝言っていうドックトレーニングに特化したポッドキャスト番組をやってるんですけど。
はいはい。
こっちはアートワークもAIだし、ポッドキャストの説明文章もAIだし、
この配信に乗っけたものを、リッスンっていう音声配信サービスがあるんですけど、ここでAIで文字起こししてくれたやつを、
今度まるっとコピーしてAIに投げて、ノート用の記事に書き換えてっていう指示を出して、ノート用の記事にAIが書き換えてくれたのをノートに投稿したりとか。
結構使いこなしてるじゃん。
この辺は台本以外はAIに任してますかね?
かなり活用してますね。しかも配信の界隈でちゃんと。
配信の界隈で。
使ってるなぁ。あるさんなんか使ってます?AIって。
いやいや全然そんなにイラタさんほど使えてないですけど、ただやっぱり使わないといけないなっていう意識があるんですよね。
なるほどね。
だから無理やりでも起動はしてますよね。
だからGoogleで検索する、今までやってたのを一回AIで検索するっていうのに置き換わってるかな最近は。
何かを調べるときにまずGoogleじゃなくてまずAIでっていうところにするようにはしてるけど、あんまりそれでめちゃめちゃ活用できて便利になったっていう実感もそこまでなくて。
何に使うのがいいのかなってまだ模索中ですね。
確かにね。
ポッドキャスト制作へのAI活用
まあ難しいよね。
平津さんがそこまでしっかりと使ってるっていうのは、使ってそうなイメージはあったんですけど。
そこまでね、アートにも使って文章の方も使ってっていう、やってるのはなかなか使ってる方、珍しい方かなと思いますね。
大体はあるさんみたいな。
なんか流行ってるし使いたいんだけど、どう使ったらみたいな感じもあるんだろうなという風には。
物もなんかいっぱいあるしね、AI自体もね。
ありますからね。
ちなみに平津さんが使ってるのは、何をそのAIのエンジンというか、AIのモデルというかは何を使ってるんですか?
基本的にはチャットGPTさんに説明文とかを考えてもらって、文字起こししてもらうAIに関しては、リスンさんのサービスなので何のモデルか分からないんですけど、
そこからノート用に書き換えるときはクラウド。
クロード?
クロードで文章に書き換えてますね。
なるほどね、クロードいいからね。
やっぱ文章系はクロードっていうイメージかな。
ようやく系がノートブックLM?
ノートブック、裏で動いてるのはジェミニーかな、たぶん。
ジェミニーか。
と思いますけどね。
なるほどね。
ふんわりとした縦分けみたいなのにそぐようには使うようにはしてるんですけどね。
アートはどうやって?何を使って?
アートもね、あれは確かチャットGPTだったか、アドビが提供してる画像生成サイト、アドビエクスプレスで作ってもらったかどっちかだったかなって思いますね。
なるほどね。
結構ほんとに、今あるさん話わかりました?そのチャットGPTとかジェミニーとかクロード。
僕はわかってるんですけど、僕もねたぶん一般よりは詳しい方なんで。
そうね、使ってはないけど知識はっていうね。
そうそう、これ聞いてる人は、何言ってんの?ってなるでしょうね。
置いてけぼりにしてる?
その立場も想像しつつ聞いてましたけど。
ぜひチャットGPTに聞いてみてくださいね。
こここそ使うべきなのかもしれないですけど、あえて前はちょっとツボなところまで聞きましたけど、
基本的にAIってAIモデルがあって、でもこれ面白いのが、それこそ1年前とか2年前とかAIって言葉が出始めた頃って画像生成とか動画生成がすごい強かったんですけど、
チャットGPTが出てきた瞬間にLLMっていう文字を作る方のAIっていうのの方が強くなったんですよね。
今だいたいはその画像化文字化っていうのが多いですね。他には動画を作るとかもあるし、あとは音楽を作るっていうのもあったりしますね。
そういうのをトータルして例えば映画みたいなものを作っていくっていうのもあります。
さっきGPTとかクロードとかっていうのはその中で動いているエンジンの話で、各エンジンはその学習しているものが違うので、
性格付けみたいなものは微妙に違うんですよね。
よく言われるのはそのクロードっていうのは割合とコーディングとかプログラミングとか、あと文章を書くところとかにも長けているっていうのはやっぱりクロード。
情報的にかなり細かいところまで調べてくれるっていう意味で言うと、GPT-5とかは最近ありますけれども、
GPT-5はね、なんかすごい専門用語をゴリゴリ使ってくる感じがあるんで、ちょっとね、うってなるかもしれない。
なんか俺、うってなった。
やたらとカタカナ語と専門用語の漢字の羅列がひたすら出てくるんですよ。
そうそう、めっちゃ意識高いやんこいつと思って。
あれもでも、オープンAIとしてはもうちょっとGPT-4の時の性格になるように今調整をかけてるっていう話もありますからね。
なるほどね。
ちょっと強くなりすぎちゃったからね。
4だか4Wだかわかんないですけど。
でもGEMINIっていうのはGoogleさんが作ってるやつで、
こいつはちょっとバカだけど使いやすいです。
ちょっとバカなんだね。僕結構GEMINIを一番使いますね。
GEMINIはでも一番使いやすいと思いますね。一番スタンダードだと思います。
すごくベーシック、フラットな感じですけど、ハルネーションがちょっと多いかなっていう気がする。
ハルネーション?
ハルネーションって何かっていうと、存在しない情報を作り出して嘘を伝えてくるっていう現象ですね。
一番怖いやつね。
そうそうそうそう。嘘を言いやがるんで、そこはねちょっと怖いなっていうところではありますけど、
まあでもやっぱりさっき言ったノートブックLMとか、
GEMINIとノートブックLMってどっちも似たようなサービスではあるんですけど、
ウェブ検索をメインでやるのがGEMINI。
渡した文章ファイルとかをベースに検索するのがノートブックLMみたいな形で、
機械音声の進化
ちょっと住み分けがあったりとかするんですね。
これがね。
難しいね。
ハルネーションじゃなくてハルシネーションですね。
ハルシネーション。
ハルシネーションですね。
で、AIの話をね。このまま続けてもいいんですけど。
AIがテーマだからね。
なんですけど、今回私がなんでこのAIっていうのをわざわざ持ってきたかっていうと、
このGEMINIが音声作成をしてくれるんですよ。
例えばこれこれこういうふうなことを検索してっていうふうに検索をしてもらったと。
その情報をもとに音声ファイルを作成してっていうふうにお願いをすると、
男性と女性の一人ずつのパーソナリティによるラジオが聞けるんですね。
AIポッドキャストみたいなことか。
できるんですよ。
いわゆるほら、GoogleさんのYouTubeとかも持ってるし、もちろんポッドキャスト産業もやってるし、いろいろなそういう音声データもあるからでしょうけど、
非常にね、成功にできてますね。
今までのなんていうかな、いわゆるちょっとこうトークボットというか、
言葉、日本語を喋らせるみたいなやつって、どうしても機械っぽさが抜けなかった部分だったらあったと思うんですけど。
じゅんさん、今日は東京都の天気は晴れですみたいなイメージ。
もう少しちゃんとしてるけどね。
そこまでは。
まだその辺止まり俺。
それなんか電話の自動音声とかでしょ。
AIの音声。
そうそうそうそう。
一応押してくださいみたいな。
ではない、もうちょっと言ってるけど、それでもやっぱり機械っぽさをどこか感じてしまうというのがあった中で、
ジェミニが作ってくるやつ、なんかね最近何回か作らせるとね、いつもそのディープダイブっていう名前の番組として作られるんですけど、
ディープダイブへようこそって。
番組作ってくれるんだよね。
私何回か作ってね、ディープダイブ何回か聞いてますね。
ディープダイブへようこそ、今回のテーマは。
リスナー。
学術論文とかをノートブックLMとかに入れて、その中身を見たいとかね。
特に英語の論文とか、英語ならまだいいんだけど、他の言語の論文とかだとわかんなかったりするから。
翻訳ついでに喋ってくれるっていうのはめちゃめちゃ便利だね。
翻訳と要訳を一緒にやってもらって、それをさらにまとめて音声とか動画にしてもらうというね。
使うんですけど、
このね、ジェミニさんが作った音声ファイル。
何が人間っぽいかって、さっき平田さんが言ったのはちょっと過剰だったけど、
これはこうです、これはあーです、これはどうです、どうです、こうです、じゃなくて、
これなんですけど、これってやっぱりこうだと思うんですよね。
でもちょっとそこの部分が、わかる?この早くなったり、えーっとって挟まったり。
あ、なるほど。
リアクションがいいよね。
AIポッドキャストの期待
あのが入るのがね、すごいリアルっぽいというか、
とてもそこにリアルを感じてしまう。
でこれ、もしかすると、いわゆるそのポッドキャストもいろんなものがあるわけですけど、
そういうコンテンツ系、いわゆるナレッジ系とかコンテンツ系とかっていうタイプの、特にナレッジ系かな、
その資料の作り方さえ頑張れば、もうもはやAIが喋るポッドキャストはできるんじゃねえかなと思ってて。
いや本当だね。
できるでしょうね。
そう、期待通り喋らせるっていうのはもちろんいろいろ工夫があるんでしょうけど、
そう、そういう世界まで来てるなっていうね。
はいはいはいはいはい。
いやもう、とか何なら上げてる人いそうだけど。
いやいると思うなあ。
実際英語圏では結構、英語ポッドキャスト、AIポッドキャストはね、結構あるみたいなんですよ。
そうそうそうそう。あるよね。
これが日本語ってやっぱ72億分の1点何億人しか使ってないから、
この総数が少ないからまだ日本語版のAIポッドキャストっていうのはまだ目立ってないだけであって。
そうね。
言うたら、だって月曜日のオノマトペを収録しました。
で、ノートブックLMとかに投げて、これを英語版とフランス語版とスペイン語版にそれぞれ翻訳して、
2人の話者でそのまま書き出してって言ったら、全世界対応になるってことでしょ。
そういうこと。
しかもそこで、素晴らしいのは、
例えば単純な翻訳だと、
例えば、
今日は雨ですねと、
今日は雨ですねっていうのがどっちも同じトーンになっちゃうけど、
そこをちゃんとその抑揚とかテンション感とかその言い回しなのか間の使い方なのかっていうのも学習ができるんであれば、
より精度の高い翻訳ができる。
いやーやばいですね。
精度が高いかどうかわからないな、俺の脳みそじゃ。
精度上がったのかどうかわからなそうだな。
これね、面白いのが、最近マイGPTとかもありますけど、
いわゆるローカルで自分のパソコンの中に大規模言語モデルLMというのを作るというのもあるんですよ。
あれ多分追加学習できるんじゃないかな、自分で。
できるでしょうね。
でなると、例えば平田さんが喋ってるその文章、リズムさんが文字起こししてくれたその文章をそのまま食わせれば、
あ、平田ってこういうタイミングでこういう風に話題を切り替えるんだとか。
そっかそっかそっかそっか。
平田ってここに、例えばなんだろうな、たとえ話を挟み込むのが得意なんだとか、
っていうのをどんどんどんどん学習していって、疑似平田ができるんですよね。
平田の平田らしさを知ってる疑似平田ができるんだ。
そうそう、平田の平田たるゆえんがそこに。
恐ろしい。
平田LMができるわけですよ。
なんだろう、普通の人ってポッドキャストやってないじゃないですか。
やってないですね。
そんなに数多くないじゃないですか。
でも我々は定期的にすごい本数オンラインに上げてるわけですよね。
これなんか、悪用される未来も出てきましたね、ちょっと。
我々のポッドキャストをAIに食わせて、声質だったりとかも、
すごいデータがね、長く番組やってると、この人の喋り方とかこういう声だとかっていうのを学習されちゃうわけだから。
ちょっとね。
まさにその問題が発生してるのが声優業界だったりしますね。
確かに。
生身もついてくるっていう意味で、俳優さんの映像とかっていうのはあまり、
映像の部分も組み合わせなきゃいけないんでハードルが一個上がるんですけど、声優さんって声だから。
その声だけを例えば持ってきて学習させてとかっていうので、
ほぼね、もう本人と遜色ないぐらいのものってのはやっぱり出てきてますね。
それちょっとなんかでかいニュースになってるもんね。
でかいニュースになってますよ。
やっぱり。
止めようがないよね、それね。
止められないでしょうね。
もうあくまで生前説で行くしかないんだよね。
これのサービスを作ってる人は悪用しないよねっていうのを信頼して使う。
もちろんね、そのサービスを使い始める前にこのプライバシーポリシーと一緒に、
この学習の方向性みたいなのは同意事項として入ってきてたりとかするんでしょうかね。
とはいえ、ローカルで育てられるようになったりとかってことをやっちゃうと、
もう無法地帯ですよ。
いやーほんとに。
ここがね難しいところで。
それこそ、
AIと結婚する人がいるとかっていうニュースも見たから、
AIとの付き合い方
もうある程度ね、自分の理想の返答をしてくれるように学習をしてもらえれば、
理想のパートナーは出来上がっちゃうもんね。
逆もあったよね。
AIに責められてしまって、自死してしまったっていう。
そうそう、それもあるかもね。
それで両親がオープン映画なんか訴えたんだよね、確かね。
確かに。
ありましたよね。
みたいなのもあるぐらいなので。
恐ろしいな、AIって。
人ではないんだけどね。
前回も言った気はするけど、AIってなんだ?
前回から今回のこの短い期間でもこれだけの進化を遂げているので、
まだ1年しか経ってないもんね。
1年も経ってないかもしれないぐらいのスピード感です。
という中でなので、AIとの付き合い方っていうのは考えていかなきゃいけないし、
AIをうまく使えばいいものができるのは間違いないんですけど、
そういう危険ももちろんあるからねっていうのを
考えていかなきゃねっていうところですね。
なんかね、僕が一個AIを使うときに思うのは、
自分が理解できる範囲のことしかAIに任さないっていうことを決めてます。
はいはいはいはい。
もうそれ超えちゃうと、合ってるのか合ってないのかわかんないから、
信じていいのかわかんないっていう。
判断がつけられないっていうね。
そうそうそうそう。
そこもね、難しい。
この辺の向き合い方がね。
難しいところですね。
それも議論のいろいろあるところだと思いますけども。
ということで、配信の方でもね、
ヒラさんみたいにバリバリAIを使って、
何かね、コンテンツを拡充豪華にしていくっていうのもアプローチとしてね、
あると思いますので、
これから配信者の方で同じようなアプローチを、
もっと私こういう風にAI使ってますみたいなのね、
であれば教えていただきたいですね。
ハッシュタグをつけて、
ポットジャムだっけ?
ポットアンダーバー。
ポットアンダーバー。
つけて、ぜひともポストお願いしますということで。
よろしいですか?
はい。
ということで、今月のジャムはここまで。
次回のMC誰ですか?
私、平田純が担当させていただきます。
はい、よろしくお願いします。
ということで、今月ここまでありがとうございました。
バイバイ。
バイバイ。
ありがとうございました。バイバイ。
22:42

コメント

スクロール