00:05
こんにちは、いわみです。 4月11日の土曜日、いかがお過ごしでしょうか。
家族が出かけていて、今日1日仕事したり、
ちょっといろいろ調べ物をしたりとかね、 まあ
のんびり過ごしていたんですけど、 なんか、はい、アウトプットをしたくなって
ラジオを撮ってみようかと、今夕方なんですね。 もうそろそろ夕飯の支度をしなきゃいけないんですけど、
その前にちょっとね、しゃべってみようという、そういう回です。 一応、しゃべってみたいことが2つあって、
本当はこういうのを分けてはいいんですけどね。 ノートにするときは2つに分けれるんですが、音声の場合は2つに分けて、別々に配信っていうのはね、
本当はそれをやるべきなんだけど、個人配信だと結構それがね、ちょっと手前に感じてしまって、 まとめてしゃべってしまうっていうのがあるんですが、はい。
先に2つ目からしゃべってみようかなと。2つ目ってこれ多分編集するので、 なんとなく考えてるんですが、何かというと、しゃべっているとき、
しゃべっているというか、一人しゃべりがね、ずっとやってて、 この言語化力とか、なんて言うんだろう、説明力みたいなのが多少ついてるんだけど、
これ編集ありきになると頼っていることで、ちょっとライブにね、すごい弱くなってるなっていうことにね、最近気づいたっていう話をしてみたいと思います。
何かというと、これね僕、もう6年も7年も音声配信ね、不定期で配信してますけど、
何かそのテーマがあるときに、それを自分の頭の中で考えながらしゃべる、まとめながらしゃべるみたいなことをよくするんですね。
それをずっとやってると、下手なり下手なりにというか、多少は上達してきて、多分ね5年くらい前と比べると、
考えながらしゃべる言語化力みたいなのは、多分人よりはついていると、自分では思っているんですよ。
これはね感覚値なので、全然そんなことないって言われたら、それもあれなんですけど、
でも言いたいのはそこじゃなくて、しゃべるテンポがね、かなり自分本位だなってことに最近気づいたっていう話なんですね。
ZoomとかMeetの会議あると思うんですけど、録画というか録音を聞き返す機会があったんですよ。
みんなでその会議してて、それをね文字起こしとかしたりとか、後で他の人が見れるように資料として取っておくみたいな感じで、
よくあると思うんですけど、アーカイブにするっていう。
その自分が出てるアーカイブをね、ちょっと音声配信代わりに散歩とかね、家事とかしながら聞くことがあるんですが、
その時にね、なんか自分の話がすごいね、まどろっこしいなって思ったんですよ。
いまだに僕はその自分がそのしゃべることにね、まだ得意とは思ってないし、むしろ苦手、下手くそだという自覚はあるんですけど、
03:04
それでも伝えたいことを言語化する力みたいのは、ライティングもやってるし、音声配信もやってるから、それなりについてきたと思うし、
多分多少はできているんだけど、しゃべる時のテンポとか、しゃべり方みたいなのはね、やっぱりその対面で人としゃべるのに適してないなっていうか、
むしろなんかね、反最適化みたいなことが起こっているなってことをね、ちょっと思ったんですよ。
これはどこがどのようにっていうのはね、まだあんまり言語化できてなくて、ただそのミーティングの録音を自分で聞き返してみて、自分がしゃべっているところを聞き返してみたら、
かなりね、まどろっこしかったというか、テンポも遅いというか、なんていうんだろうな、話が長いわけですよね。
よくプレゼントか、ビジネス会話みたいので、結論から話せとかね、1分で話せみたいなこと言われると思いますけど、
僕ね、それ全然できてなかったなってことに気づいたわけですよ。
自分でちょっとできているんじゃないかって思っていたところのギャップに気づいたっていうね、そういう話ですね。
なんでそれに自分で気づかなかったのかなっていうと、前よりちょっとできるようになったから、それでね、割となんていうか、調子に乗ってたじゃないけど、
なんとなく言語化できるようになってきたなっていう、その嬉しいところで止まってたなっていうね、ちょっと恥ずかしいことでもあるんですけど、
そんなところを自己開示してみたんですが、うまく言葉にできない部分を引きずり出して、それをまとめていくっていうね、その底力みたいなね、
引っ張り力みたいなのがついたんだけど、引っ張り出したものを相手に分かりやすいように伝えるところではね、あんまり気を配ってこなかったなっていうことに気づきました。
これなんでかっていうと、多分編集ありきになっていたからだと思うんですよね。これ音声も文章もそうなんですけど、音声の場合は、まどろっこしいところとか、
その重複した部分を後で削ったりとか、やろうと思ったらね、その順番を入れ替えたりすることも可能なんですけど、文章の場合はもっとそれが可能で、
自分が喋ってそれを文字起こししたものをすごいもうね、後方もないぐらいに書き換えることは全然可能なので、それができるからといって、
普段の喋り方が音声配信化してきたなっていう、つまり僕が音声配信でやっているのは、自分の中でいまいち言語ができていないところをとにかく引っ張り出して、そこら中に散らばしていくっていうね、
そういうことをやっているわけですけど、そういうブレストっていう観点ではいいんだけど、生の対話の場面でそれをやってしまうと、相手はね、結構待たなきゃいけないし、
分かりづらいなって思っちゃうな。その部分に僕は結構無頓着だったなっていう。どうしていこうかっていうと、対面で話すとき、それはオンラインでも同じなんですけど、
06:09
もう少し指揮位置を上げなきゃダメだなって、音声配信と全く同じノリで喋っちゃダメだなっていうね、言ってみれば当たり前なことなんですけど、
ちょっとね、僕普段あまり人と喋る機会が少なくなってきたから、だんだんそっちに侵食されて引っ張られてきたなってことに気づいたという、そんな話でした。
次が本題というか、音声配信はこっちの方を先にしようかなと思うんですが、何かというと、ノートブックLMの使い方みたいなね、いきなりガラッと変わりましたけど、
でも最近僕すごくこのノートブックLMをね、前にも増してすごい活用してるんで、僕はどうやって使っているかみたいのを簡単に紹介してみようかなと思います。
AIのサービスの中のデータを読み込ませると、いろんな形でアウトプットできるっていうね、どんどんこれ機能が増えてて、今は音声解説、動画解説、レポート、スライド資料、マインドマップ、フラッシュカード、インフォグラフィック、クイズ、データテーブル、今9個ありますね。
僕が一番対応しているのはこの音声解説なんですけど、これね、耳からインプットするのが向いてる人に本当に神のような機能だなって、僕は前々から言っていて、自分のラジオでも話したことあるんですけど、
使ってる人はね、そんなの知ってるよって話で、あんまり使ってない人に僕はどうやって使って、どうやって重宝しているのかみたいなことをね、軽く紹介してみようかなという、そういう意図です。
まず今僕はね、大きく分けて2通りの使い方をしていると思うんですよ。
1つはね、これは完全に仕事なんですけど、会社とかサービスとかについて調べるときですね、リサーチをして、その情報を短期間で頭に叩き込むっていうね、必要があるんですよ。
時間をかけてもいいんだけど、別にその分対価が払われるわけでもないから、最低限の情報を得るためになるべく時間を短くした方がいいわけですよ。
今まではネットで調べてね、自分の中でまとめていくっていうことをしていたわけですけど、やっぱり時間がかかるんですよ。
このノートブックLMを使うことによって、これどのぐらい短縮できてるかなって、ちゃんと測ってみたことはないんだけど、多分体感値でね、3倍ぐらいね。
今まで1時間でやっていたリサーチが20分ぐらいか、多分そのぐらいにはなっている感覚がありますね。
ちょっと物によってはもっとかもしれませんね。これ何でかっていうと、音声でインプットできるっていうのと、リサーチが全自動だからっていうところですよね。
09:07
何をやっているのかっていうと、まず会社名でDeep Researchをかけるんですよ。
ノートブックLMにDeep Researchっていう機能があるんですけど、最初にノートブック新規で立ち上げると検索画面が出てきて、
ウェブで新しいソースを検索っていうのが一番上に出てくるんですけど、その右に虫眼鏡のマークでFastResearchとDeep Researchっていうのがあるんですね。
Fastっていうのは早い、ちょっとライトな感じで、Deepっていうのはすごい深くまで時間がかかるんですけど、できる限りの情報を集めてくれるってやつ。
僕はこのDeep Researchを使ってやるんですね。これもしかしたらGoogleの有料プランに入ってないと回数に制限が出るとか、もしくは使えない機能かもしれないんですが、
これでもFastでも全然使えると思います。それでDeep Researchをかけると、まずそれに関係するウェブページをいっぱい引っ張ってきてくれるんですよ。
それが完成するのにたぶん4、5分とかもしかしたらもっとかかるときもあるんですが、それでそのままそれをインポートしてもいいし、
たまに不要なやつとか間違いが入っていたりもするんで、不要なものだけを弾いてからインポートするってこともあるんですけど、
それを読み込ませるとノートブックの中にその情報がまとめて読み込んでくれるっていう。
これ読み込める情報はウェブページもあるし、動画とかYouTubeのアドレスをつけてもYouTubeを勝手に文字起こしして情報をまとめてくれるんですけど、
あとPDFとかもできます。まとめた情報をそのままアップロードすることもできるし、テキストにしてそのまま貼り付けることもできるんですよ。
Googleの方でGeminiでディープリサーチをかけて、そうすると多分Geminiのディープリサーチの方がノートブックのディープリサーチは多分ちょっと性能がいいんで、
それをまるっと全て選択をコピーしてここにテキストに貼り付けるっていうこともやったりしますね。
元となる情報が完成したら音声解説とか動画解説とか。
前は動画と音声と両方作成してそれを読んでいたりとか、あとインフォグラフィックとかも使っていたりすることはあったんですけど、
これ僕が今やった感じだと音声解説だけで割と事足りるなって思ってますね。
動画ってスライドみたいなのと音声が入ってくるわけですけど、情報がそんなに音声と違うわけじゃないから音声解説だけでも事足りるかなっていうことですね。
だからやることはここだけなんですよ。あとはそれを生成された音声を聞くだけっていう。
音声にすることによって、例えば調べるキーは3つぐらいあったときにまず今の作業を3回やるわけですよ。
12:07
ディープリサーチとあと5分ぐらいと音声解説作るのに、多分今は混み合い方とかにもよるんだけど、
割とこれ時間かかりますね。10分ぐらいかかったりするんで、いっぱいページ開いて、あとは時間待ちみたいな感じで30分ぐらいして席に戻ってみるとやっぱりできてるという感じなんで、
それをその場で聞いてもいいし、スマホでも連動してますからGoogleのサービスだから、
それを例えばワイヤレスイヤホンで聞きながら家事をやったりとか散歩したりとか、要するにポッドキャストを聞くのと同じ要領で自分で知りたいことの簡易的なポッドキャストがすぐ作れるっていう、そういうサービスですよね。
これをやると一つの企業の概要とか遠隔とか、上々企業とかだったらIR情報とか資料全部集めて20分ぐらいの音声にまとめてくれるから、
長さは選べるんですけどもっと短くすることもできるけど、なるべく詳しく知りたいときは長めにして倍速で聞けば、2倍で聞けば10分で済んじゃいますから、それをやっていくと。
それぐらいで基本的な概要は理解できるんですよね。
あとこれ慣れも大きくて、ノートブックエレメントの音声解説は基本的に男性の声と女性の声で掛け合いというか会話みたいな感じで進んでいくわけで、結構癖があるんですよね。
英語チックな言い回しというか、聞き返し方がわざとらしいなって感じるときもあるんですけど、それに慣れるとそこはスルーできるようになって、とにかく必要な情報だけを入れるっていうね。
だから別にこれはPodcastみたいに楽しんで聞くっていうよりも、情報収集の効果的なツールっていう感じで僕は完全に割り切って使っていますが、
日本語の方はそんなに進化してないっていうか洗練されてないから漢字の読み間違いとかね結構あるんだけど、それは自分の頭の中で変換できるんで、
とにかく必要な情報だけをサッと手に入れるにはこのノートブックエレメントの音声解説っていうのは、時短という意味で本当にすごい機能だなと思っています。
いろいろね、もうちょっとバージョンアップしてほしいなって思う部分はたくさんあるんだけど、それも慣れてしまえばそれがなくても情報収集という意味では問題ないので、かなりこれははかどりますね。
ディープリサーチからの音声解説っていうのを1日何本も回しているとだんだん耳がそのノートブックの音声解説に馴染んできて、
これ結構他のことでも使えるなと思ってね、ニュースとかね、どんどん投げ込んでね、最近はそれも貯めといて散歩とか家事の時にポッドキャスト側に聞くってことを割とやってるんですね。
あんまりストレスをかけずに情報をたくさんインプットできるツールですよね。
僕はニュースとかね、いろいろ読むんですけど、有料のサイトだとURLを貼り付けても読み込めない時が結構あるんですよね。
15:00
日経新聞とかウォールストリートジャーナルとかヤフーニュースとかそのままいけるけど、場合によっては無料のニュースサイトでもエラーが起きる時があるんで、URLそのまま貼り付けただけで読めないのは、読めない時ある時にどうすればいいのかって話ですけど、
これはそのままテキストをコピーして貼り付けると同じことができるっていうことですね。
例えば日経新聞だったらたまにすごい長い記事とかあって、読んで理解できる時もあるんだけど、結構疲れてくるとテキストで情報収集するのがしんどくなる時は割とあるんですよ。
ライターを貼ってるくせに文字を読むのがあんまり得意じゃないっていうか、読める時は読めるんだけど、本を読むのは今ずっとできるんですけど、
パソコンとか特にスマホとかで読むのは結構限界があるんですよね。そういう時に音声のコンテンツを作っていくと暇な時にバンバン聞けるんで、
ポッドキャスト代わりに聞いて、その時に自分が知りたいことを耳から効率的インプットできる。
ノートブックLMって多分1年くらい前にリリースされて、その時かなり話題になって、
今は当たり前になったのかそんなに話題にすることはないけど、でも使ってない人も割といるんじゃないかな、知ってるけどかったるいというか、
変換作業がちょっと面倒くさいって思うと使わないかもしれないけど、必要性がある時はこれ本当に便利だなっていうか、
多分仕事とかでいろいろリサーチしなきゃいけない仕事の人って相当効率使ってると思うんですよね。
僕の場合はその耳から入った方がいい場合もあるから、その時に音声解説がすごい役に立つ。
ディープリサーチでレポートも出せるんですけど、ちょっと僕はレポート形式のものをインプットするのに不慣れというかあんまり上手くできないんですよね。
これもたぶん慣れの問題だと思うんだけど、概要をつかめばいいだけだったら音声にして聞いちゃった方が早いので。
これ間違っている情報がどのぐらい含まれるかっていう話なんですけど、これたぶん今現状ではほとんど発生してないと思いますね。
ハルシネーションって言われますけど、AIが最もらしい嘘、事実と異なる情報や存在しない情報を確信をもって生成する現象ですってね。
今ただ読み上げたんですけど、物によっては情報ソースが曖昧な時にはそれやるかもしれないけど、僕はさっき言ったのは企業の情報とかニュースの要約みたいなやつなんで、
元のソースが割ときっちりしてるから、そういうものをディープリサーチする限りにおいてはほとんどハルシネーションは起きてないですね。
たまに何か変だなって思う時はあったりするんだけど、それはね、入れるソースが間違ってるというか、例えば企業で言ったら同名の企業のがね、ITの企業と車を売ってる会社の企業が同じような名前だった場合に、
18:06
AIが混同してね、変なことを言い出したりすることもあるんだけど、それも偉いもんでね、今はね、AIがちゃんとこの企業はね、同じ名前だけど違うので注意しましょうみたいなことをね、ちゃんと教えてくれるんで、どんどん賢くなってましたね。
そんな感じで最近はね、ノートブックLMを使い倒しているっていう話でした。
これ多分さらに進化していくと何ができるかなーってね、ノートブックLM自体がさらにね、情報収集力が上がったりとか、音声解説の精度が上がったりするっていうのもあるんだろうけど、プログラミングがね、できる人だったらこのね、作業ね、多分自動化できると思うんですよね。
僕はプログラミングの知識がないのでできてないけど、多分これやろうと思ったらね、そんなに難しくない気がしています。
例えば、ニュースを集めるところからAIにお願いして、関連ニュースをまとめて、その今ノートブックLMに入れて、それをね、ディープリサーチとかソースを集めて、それを音声解説作るところまで多分ね、全自動でできると思うんですね。
多分そういうことをやってる人がいるのをなんかツイッターかなんかで見かけた気がしますが、でもなんとなくそれをやってないのはやり方がわかんないっていうのもあるし、あんまりその聞くコンテンツを増やしすぎてもそれはそれでキャパオーバーになりそうだなっていうところで、なんとなくザーッと眺めていて、気になるなって思ったものを読むっていう、聞くっていうね、それぐらいにしているって感じですね。
ニュースに関しては僕は別にあの、直接は仕事じゃないので、半分趣味みたいなところがあるので、興味がある部分だけってことですね。
これテキストで接種した方が早いっていう人もね、いると思うんですけど、僕も基本的にね、その元気があるときはね、テキストでパッとね、3000文字ぐらいのやつだったらザーッと読んでね、ちゃんとわかりやすく書いてある記事とかだったら読めるけど、
元気がないときはちょっとパソコンの画面とかの文字でも割と読みづらくなるっていうのと、自分がその全然都知観のないニュース、専門用語がたくさん出てくるようなやつだと、やっぱりその理解に時間がかかるし、文字だけで追ってもうまく理解できないことって結構あるので、
そういうときに耳から入るとね、理解しやすいなという、多分そういう特質なんでしょうね。視覚情報と聴覚情報、どっちが有意かみたいなタイプがあるみたいですけど、僕は多分聴覚の方が有利なんだなと思ってます。
多分ね、音声配信とかね、ポッドキャストとか好きな人は結構聴覚有意の人が多いと思うから、ノートブックLMでね、知りたい情報をどんどん音声解説作っていくっていうのはすごくいいやり方だと思うんだけど、そんなに広まっていないような気がするので、さっき言ったみたいにちょっとだけめんどくさいんですけど、わざわざリプリサーチかけて、待ってからそれをやらなきゃいけないので、手間がかかるけど、でも放っておけばね、勝手に生成してくれるんで、
21:15
リプリサーチを待つ5分くらいと音声解説を待つ10分とかなので、生成するまでに2,30分はかかるんだけど、やる作業は2回とか3回だけなので、割と簡単ですよってことを紹介してみました。
はい、じゃあ今日はこれで終わりにします。ありがとうございました。良い1日をお過ごしください。さようなら。