00:00
こんにちは。今回はですね、あなたが共有してくれた情報をもとに、
シェアハウス、LLC-HOUSEさんという方が書かれたNoteの記事、これをちょっと深掘りしていこうと思います。
はい、お願いします。
テーマは、文章で書かれたコンテンツを聴く体験にどうやって変えていくか、その具体的な方法ですね。
ええ。
この記事なんですけど、Notebook LMとStand FMというツールを使って、かなり実践的なワークフローを紹介しているんですよね。
そうですね。具体的なステップが示されていて。
この4つのステップで、どれだけ手軽に、そして効果的に聴くNoteというのが作れるのか、一緒に見ていきましょうか。
はい、ぜひ。
まず、記事が示している全体の流れ、大枠を見てみましょう。すごくシンプルで4段階。
ええ。
1.まず、ノートで記事を書いて公開して、そのURLを取っておく。
2.そのURLをNotebook LMに読み込ませる。
そうすると、AIがようやくと音声を作ってくれるので、それをダウンロードすると。
なるほど。
3.出来上がった音声ファイルをStand FMにアップロードして公開。
で、共有用のURLをもらう。
はい。
4.最後に、そのStand FMのURLを元のノート記事にペタッと貼り付けるとプレイヤーが埋め込まれる。
大体こんな手順ですね。
非常に分かりやすいフローですね。
最初のステップ1、記事の準備段階なんですけど、著者はここで、もうすでに音声化を意識したポイントをいくつか挙げていますね。
書く時点から。
そうなんです。推奨している文字数は1000字から2000字程度。
これは単に長さだけじゃなくて、音声で聞いた時の集中力とか、そういうのも考えたようなことでしょうね。
なるほど。
さらに重要かなと思うのが、文章をできるだけ話し言葉に近づけましょうという点です。
話し言葉ですか?
記事によると、やっぱりその方が聞き手が内容をスッと理解しやすいと。
あと、古読点とか改行の使い方も機械音声が自然に読めるように少し工夫すると良いみたいですね。
へー、書く時からもう耳で聞くことを考えているわけですね。面白いなあ。
そういうことですね。
じゃあ次のステップ2、ノートブックLMでの音声要約作成。
これGoogleのAIツールを使うわけですけど、記事によれば本当にURLを入れるだけなんですか?
ええ、みたいですね。それで要約と音声データが生成されるっていう手軽さはすごいですよね。
いや驚きですね。しかも生成された音声をその場で確認して、もしちょっとイメージと違ったら再生成もできる。
はい、そうです。
これは試しやすいですね。OKなら音声ファイルをダウンロードすると。
AIが要約までしてくれるっていうのが単なる読み上げとはちょっと違うところかもしれないですね。
確かに、要約付きは便利そう。
そしてステップ3ですね。生成した音声を今度はStand.fmで公開するという段階です。
03:02
なんでStand.fmなんでしょう?他にも音声プラットフォームいろいろありますよね。
そこなんですが、記事ではノートの記事に埋め込むプレイヤーの安定性を理由に挙げていますね。
ああ、安定性ですか?
はい。著者の方によるとSpotifyなんかも埋め込めるらしいんですけど、環境によっては再生がうまくいかなることがあったと。
なるほど。
その点、Stand.fmは結構信頼性が高いっていう経験則みたいですね。
アップロード自体もユーザーアイコンから放送の投稿を選ぶだけっていうシンプルさも強調されています。
なるほどな。技術的な相性とか安定性っていうのもツール選びでは結構大事なポイントなんですね。
そういうことですね。
そして最後のステップ4、ノートへの埋め込み。
これはStand.fmで取得した共有URLをノートの記事編集画面にペーストするだけ、と。
ええ、本当にそれだけみたいです。
それでプレイヤーが自動で表示されるってめちゃくちゃ手軽じゃないですか。
本当にそうですね。記事ではプレイヤーの置き場所として冒頭か末尾がおすすめされてますね。
ふむふむ。
それに加えて、著者はAEOという言葉にもちょっと触れていて。
AEO?
ええ、プレイヤーのすぐ上にこの記事のポイントはみたいな短い要約文を入れることを推奨しているんです。
これは多分オーディオエクスペリエンスオプティマイゼーション、音声での体験をより良くするための工夫ってことかなと。
ああ、なるほど。聞く前になんとなく内容がわかるっていう新説ですね。
そうですね。実際に著者の方が聞くノートマガジンでやられている例も紹介されていましたね。
へえ。
で、この一連のステップを全部試した上での著者の感想がまた結構視差に富んでるんですよ。
ほう、どんな感想です?
やっぱり聞きやすさと手軽さ、この2つがちゃんと両立している点にすごく可能性を感じていると。
うんうん。
ノートLMの音声も思ったより自然でちゃんと要点をつかんでくれてる。スタンドFMでの公開も簡単だったと。
なるほど。
で、ここが特に興味深いんですけど、実際に公開してみてPV数とかエンゲージメント率を見ると、
ながら聞きの需要っていうのが、ああ確かにあるんだなって実感したそうなんです。
ながら聞きですか?確かにありそう。
ええ。さらにその音声要約単体でも再生されたり、スキがついたりしてる。
これはつまり、読む時間がない人とか、耳から情報をインプットしたいっていう層にちゃんと届いてる証拠じゃないかなと。
手の層を開拓できる可能性があるってことですね。
まさに。
ノートLMとスタンドFMの組み合わせが、その具体的なやり方を示してくれてると。
いやー、これは非常に実用的な情報でしたね。
ええ、本当にそう思います。
ありがとうございました。
いえいえ。で、ここでちょっと視点を広げて考えてみるのも面白いかなと思うんですが、
今回は既にある記事を音声化するっていう話でしたけど、もし最初から音声で要約とか解説をするっていうのを前提にしてコンテンツを作るとしたら、知識のアウトプットの仕方ってどう変わる可能性があるでしょうね。
06:07
ああ、最初から音声、前提で?
ええ、あるいはこのノートとスタンドFMを使ったワークフロー、これって皆さんが普段使っている他のブログサービスとかSNS、あるいは作っている別の種類のコンテンツにも応用できる可能性ってありそうじゃないですか。
確かに応用は効きそうですね。
その辺り少し想像を巡らせてみると、また新しい発見があるかもしれませんね。