1. メタ音声配信ラジオ
  2. AI記事が読める人はいるのか?..
2024-01-09 14:04

AI記事が読める人はいるのか?という疑問


---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/5e86845e35414a1b15a1cf7a
00:04
こんにちは、いわみです。1月9日の火曜日、いかがお過ごしでしょうか。
今日から平日、出勤という方も結構多いんじゃないかと思いますが、うちの家族も今日から平常運転で仕事に行ったり、学校に行ったりしてますね。
僕はというと、緩やかに立ち上がるというか、休み中も、他のみんなが冬休みに入っている間も、僕は隙を見ては仕事をしていたりしたので、
あんまり今日からという感じではないんだけど、やっぱり家族の生活パターンが変わると自分もそれになりますよね。
フリーランスとはいえ、そういう学校に行っている家族がいたりすると、それに合った生活パターンになりますよね。
普通に土日は休みみたいになるし、冬休みは冬休み、夏休みは夏休みみたいになるなと思っています。
今日は録音の方法というか、いつもマイクを使って、ガレージバンドを使ってマイクに吹き込んでいるんですけど、
オーディオインターフェースのボリュームをギリギリまで上げてみて、音がどう変わるのかなという実験的なことをしています。
ちょっとだけ処理をして出すので、出来上がってみるまで分からないんですが、もしかしたらちょっと割れていたりとか、音が大きいのは間違いないですけど、どうなるかなと。
こういう実験みたいなのを思いつきでパッとやってしまうところがあるんですよね。
だから会社員に向かないところがあるなと。これ関係ないように見えてたぶんあるんですよね。
結構思いつきをすぐ実行したいタイプなんですよ。
チームで仕事をしているときとかって、それってすごく嫌がる人がいるなというのを何回か経験して、決まっている通りにやれよと言うんだけど、
そんなことやってたら成長しないじゃないかと思ったり、そう言いながら僕はただやりたいだけだということもあるんで、
別にあまり強く押せないときもあるんですけど、いきなり話は脱線しているので、ここで言っている話はただちょっと音のボリュームを上げているというだけの話ですね。
それで何の話をしようかなと思って、
今日は連日で2回目なんですけど、
昨日の自分の配信を改めて聞き返してみると、何を言っているのか自分でもわからないなというか、
テーマはわかるんだけど、それの持っていき方というか、論理展開が結構バラバラだなと自分で思ったりしました。
その原因の一つはですね、やっぱり休みボケがあるなと自分では思っています。
03:00
音声配信をしなかったというのもあるし、やっぱり仕事モードからちょっと離れると頭の回転がちょっと鈍るようなって思っていて、
本当にこういうライターでも喋る人でも同じなんでしょうけど、結構アスリート的なところはありますよね。
常にエンジンを回転させておかないとすぐに黙ってしまう。
それで何の話をしようかと思ったときですね、スタンドFMを聞いていたらというか、画面を見ていてちょっと気になったことがあるので、
それについて喋ってみようと思います。
それがAI記事についてなんですが、
AI記事ってスタンドFMの多分機能で、もう1年くらいになるんですかね。
アナウンスがあったことは覚えているんですけど、自分では使ったこともなかったしあまり意識したことがなかったんですが、
このAI記事というのはどういうものかというと、音声配信で喋ったことを多分AIが勝手に文字起こしをして、
それを添付してくれるという。概要欄のちょっと下のところにAIで文字起こしした内容というのが出るわけですよね。
ただ今僕の喋っている配信をAI記事をオンにしたら、喋っている内容が文字起こしされて出てくるという。
僕はこの文字起こしされたAI記事というのを読んでみて、1つとても強く思ったことがあるんですけど、
それは一言で言うと、こんなの誰が読むんだという話なんですよね。
これスタンドAFMでスタンドAFMの悪口を言っているようでちょっと気が引けるんですけど、
思っちゃったので言ってみますと、簡単に言うと分かりづらすぎるというか、
ほぼ意味のない羅列とは言わないけど、ただ文字起こしをしただけのものが出ているということですね。
人によっては何を喋ったのかというのが気になる人がいるから、
音声を聞かずに喋った内容が文字で分かるというのは助かる人もいるのかもしれませんけど、
僕が思うに、別にキーワードとかテキスト的に情報が間違っていないからといって、
そのテキストに何かの価値があるのかというのはちょっと疑問なところがあるんですよね。
もしかしたらこれは僕がライター的な仕事をしているから余計にそう思うのかもしれませんけど、
喋られた音声の価値というのはやっぱりテキストには全然収まらないなということを思っているわけですよ。
もし喋った音声をテキストに変換して、音声と同等の価値を持たせようと思ったらめちゃくちゃ手間がかかるよというのは、
僕は自分でそれをやっているから分かるんですけど、AIというのはそれをすっ飛ばして文字起こしをしてそれを出すわけですよね。
06:00
もしやろうと思ったらもう少し精度を上げることは可能かもしれないんですけど、
つまりトピックだけ抜き出してちょっと編集をして見出しをつけたりとかまとめをつけたりとか、
順番を入れ替えたりするのも流服を削ったりすることもできるかもしれませんけど、
でもそれってねやっぱりね、まだAIにはできないなっていうの、
これも僕の偏見かもしれませんけど、別にこれは嫌味とかじゃなくて、本当にちょっと聞いてみたいところがあるんですけど、
AIが文字起こしして、あの記事をちゃんと読んでいる人っていうのはどのぐらいいるんだろうっていうか、
果たしているのかっていうことを僕は結構気になっていて、
僕も結構本を読んだりとかテキストを読むことには苦にならない人間ですけど、
スタンドFMのあの画面でAI記事の列をバーって見たときに全く読む気がしないというか、読める気がしないですよね。
よく読み込んだらなんとなく内容はわかるかもしれないけど、
あれから意味を見出すっていうのは結構、もしそれができる人がいたとしたらかなりの特殊能力じゃないかなと僕は思うんですけど、
もしかしたらそれができる人は一定数いるのかなと。
テキストからの情報、インプットが人並み外れて優れている人って僕は何人かネットで見たことがあるんですけど、
そういう人ぐらいにしかあれは役に立たないなって思っているんですね。
あともう一つあるとしたら、これも何回か話してますけど、
テキスト情報にしたものは検索が可能になるっていうことで、
それをAIが書き出したものをAIに食わせて、その中から検索が可能にするっていう、
そういう役割はできるかもしれないけど、
あの文章自体をバーって何千文字の真っ黒になった文章、
真っ黒っていうか、解読も何もなくやった文章を破裂してそこに貼り付けることに、
果たしてどれほどの意味があるのかっていうのは僕はよくわからないんですよね、本当にね。
読める人はいるのかっていうのをまず知りたいのと、
どんなふうにあれを使っているのか。
僕はAI機能を使ったことないからわからないけど、
もしかしたらあれを自分で編集したりとか開業したりすることができるかもしれないけど、
開業ぐらいだとあれはほぼ役に立たないというか、
理解の促進にはならないんじゃないかなと思うんですよね。
これもね、僕の偏見というか職業的な教示みたいなのが現れているかもしれませんけど、
ああいう雑多に書かれた文章を一つの読みやすい文章に置き換えるには、
かなりの編集が必要なわけで、
さっきも同じこと言いましたけど、それはAIには今のところできないし、
もしやるとしたら何が必要なのかなっていうのはね、
それを言語化できるかなと。
09:00
つまりそれをプログラムにできるのかっていう話ですよね。
チャットGPDとかにああいう文章を投げて、
サマリンにしてください、まとめを作ってくださいというと、
それなりに精度の高いまとめが出てくるんですけど、
それは話している内容にテキスト的な意味がある場合は、
例えばね、ボイシーでいうとチキリンさんとか、
めちゃくちゃ論理的にしゃべる人の音声を文字起こしして、
それをAIに加わせてまとめを作ると、それなりに意味の通るね、
ブログにできるまでには多分まだ編集が必要でしょうけど、
それに近いものはできるんじゃないかなと思うんですけど、
それ以外のですね、こういう特に思ったままをしゃべっているとか、
特に順番を決めずにしゃべりながら頭をまとめているみたいな、
音声配信ってほぼそういう話が多いと僕は思っているんですけど、
その話を編集するのはですね、
まとめを作るのは多分今の技術には無理なんじゃないかなと。
人間にもそれは難しいことだし、すごい時間がかかるんですよね。
そこにはある一定の機械にはできないジャンプというか、
言語化できない部分が存在するんですよね。
これ難しいんですけど、多分翻訳とかと同じじゃないかなと。
でも翻訳より難しいかな。
翻訳っていうのは例えば英語のときにまとまった文章ができていれば、
それは別の言語にも翻訳してもちゃんと読みやすくなっているわけですから、
その読みにくいテキストを読みやすくするっていうのはですね、
ただのまとめでは多分僕はできないんじゃないかなと。
さっきからずっと同じことを繰り返すおじいさんのような話をしている気がしたので、
このぐらいにしてやめておきますけど、
話し言葉っていうのはどんだけ話が上手い人でも、
それをテキストに起こしただけでは意味を理解するのはすごく難しいし、
それをAIで多少編集をしてもテキストとして、
読み物として成立はするまでにはいたらないっていうのが僕の今のところの意見なんですね。
今のところというか、多分当分それは人間以外の手には追えないことなんじゃないかなと思ってますけど、
この辺は僕のバイアスがかかっている可能性は認めます。
仮にですね、AIがめちゃめちゃ成長して進化して、
喋っている内容を本当に分かりやすいテキストにまとめて起こしてくれるとしたときに、
今の僕の喋りとかをまとめると10分ぐらい喋っても、
多分10行ぐらいにまとめれる気がするんですよね。
12:02
500文字とか、もしかしたらもっと短くいけるかもしれないです。
それだけ内容の薄い話をしているのかもしれませんけど、
でも話している内容、話しているテーマが同じであれば、
一つのテーマにして話しているのであれば、
まとめた文字が少なければ少ないほどそのテーマが明確ってことになりますから、
それは別に少ないことは悪いことではないんですが、
もし10分で喋ったことを300文字とか500文字ぐらいにまとめられるとしても、
それでも話すことには意味があると思うし、
それを一定数聞きたい人もいると思うんですよ。
そうなると話した言葉、話した音声の価値というのは、
テキストとは違う情報に、特に結論みたいなものは持ち合わせていないんですが、
音声を文字起こししてAIで記述したテキストには、
検索利用以外の価値は今のところないし、
これから先もそれ以上の価値を求めるのは難しいんじゃないかって思っているって話をしました。
これね、やっぱりテキストに起こそうとすると、
今喋ったことをテキストに起こそうとすると、
全然結論がまとまってないだろうし、
結論をまとめるとすると、もっと無機質な、
それこそ本当にレポートみたいなことになるので、
まあ難しいですよね。
何が難しいのかよくわからないですけど。
これ以上喋っても同じこと繰り返しになりそうなので、
今日は終わりにしておきます。
それではお聞きいただいてありがとうございました。
良い一日をお過ごしください。
さようなら。
14:04

コメント

スクロール