はいみなさん、こんにちは。ライターのホンネです。 悩めるライターの疑問や不安を解消すべく、元気な編集者ライターがホンネで語り合うポッドキャストです。
株式会社YOSCA編集者の伊藤謙三です。 フリーライターの土屋菜奈です。 本日のテーマはこちら。
ノートブックLMって何? はい、今回のテーマはノートブックLMって何?なんですけど、実は私もノートブックLMって何?の状態にいます。
なんかちょっとチラッと見たところによると、Googleが開発した文章とかデータをAIが整理して分類して、情報アクセスを実現する革新的なツールって書いてあるんだけど、
要はなんか自分が持ってるデータ、例えば私たちが言うと、記事を作るときのルールとかがPDFになってたりするんだけど、そういうのを入れるとそれをもとに情報をくれる。
例えばそこにこれって書いてあるって聞いたら、これこういうふうに書いてありますよって教えてくれるっていうようなものなのかなっていうふうに思ってるんですけど、
まだ全然わからないので、ちょっと今回はそれを伊藤さんと一緒にどんなものなのかっていうのを研究していこうかなっていうテーマです。
はい、ありがとうございます。僕も同じくよくわかってないです。なんかね、よく名前聞くんですよね、最近ね。
でも、その生成AIのね、うちの一つ。AIを使った何かではあるし、ヨミもおっしゃったようにデータをうんぬんかんぬんしてくれるみたいな、なんとなくわかってるんですけど、まだ使ったことないし、それこそそれが何なのかと。
あとなんか最近なんかアップデートされてすごいことになってるみたいなのも聞くんですけど、それもよくわかってないっていうところで、今日はちょっとお勉強しましょうという回でございます。
はい、お勉強しましょう。
一緒にね、理解を深めていけたらいいかなと思っております。
はい。
この番組はプロライターの思考力を身につくオンラインスクールあなたのライターキャリア講座のサポートでお送りしています。ライターの骨第229回です。よろしくお願いします。
はい、お願いします。
はい、今回はノートブックLMというテーマなんですけど、これ読み方もそもそもあってるんですかね、これノートブックLMで。
わかんない、私もそう読んでる。
たぶん。
ノートブックLM。
あってるよな、それ以外なんかね、ありそうですよね、それ以外の読み方が。
たぶん、たぶんあってると思う。
うん。
ということで今回は、もう僕ら知識ほぼないので、役に立ちそうなウェブ上で探してきた記事を読もうと思っています。
はい。
それでもう理解深めにやりましょうと。
ということで今回ピックアップさせていただいた記事が、AI総合研究所さん、そういうメディアがございまして、
ノートブックLMとは使い方や料金、活用事例を徹底解説という内容のものがございまして、
ちょっとこれ分かりやすかったらというところで読んでいこうかなと思います。
ちょっと回数までって感じですね。
はい。
はいはい、じゃあまずは、ノートブックLMとは、これ大事ですね。
ノートブックLMとは、Googleが提供するAIを活用した情報整理ツールです。
はい。
アップロードされたドキュメントを基にAIが情報を整理、分類するため、効率的な検索や管理が可能となります。
また、回答の生成にはインターネット上のデータや外部の情報が含まれていないため、ハルシネーションの発生を大幅に抑えることができます。
ちょっと待って、ハルシネーション。
ハルシネーションって何?
ハルシネーションとは、AIが学習したデータに基づいて、事実とは異なる情報や、存在しない情報を生成してしまう現象のこと。
あー、あるよね。あるある。
これまでの学習内容とか、ある種のノイズですよね。が含まれないので。
そう、勝手に作り上げちゃうときあるもんね、AIが。
なので、読み込ませた、学習させたものからのみ考察してくれると。
なるほど。
やっぱりこれ、我々が思っていた、例えばチャットGPTみたいな生成AIとは結構違うものですね。
質問投げたら返ってくるとかではなく、あらかじめ読み込ませると。
勉強させないといけないのね。
いろいろやると。確かにこれは今までにない形ですね、使い方としては。
ないのかあるのかも分からないけど、知ってる範囲ではないよね。
そうそう。で、たぶん土屋さんがさっきおっしゃってたのは、とりあえず案件がございまして、
その案件の執筆ルール、レギュレーションとかいったりしますけど、そういったものがまとめられたPDFがありますと。
それを読み込ませたら、まずノートブックLMが理解してくれるわけですよね、そのレギュレーションを。
例えばもう1000個ぐらい表記ルールがあったとしても全部読んで理解してくれると。
その上では例えば原稿を読み込ませて、このルールにのっとってますかって聞いたときに、
のっとってる部分、のっとってない部分もしかしたら見つけてくれるかもしれないですね。
かもしれない。ちょっと期待しちゃう。
大量のデータを学習して整理して取り出しやすくしてくれるみたいなところがきっと、
きっとこのノートブックLMのいいところなのかなと。
そうなんだ。
で、ジェミニを基盤モデルに使用しており、あれですね、Googleですね。Googleの先生ですね、ジェミニ。
その高度な回答性能も特徴ですと。
ただとはいえ具体的に何してくれるのかってところはまだわかってないので、より先の部分を見てみたいと思います。
一つ目が主要機能ですね、一つ目。文書のアップロードと解析。
ノートブックLMではGoogleドキュメント、Googleスライド、PDF、テキストファイル、ウェブページのURL、
さらにはYouTubeの字幕付き動画といった非常に多様な形式のドキュメントをアップロードできます。
これにより様々な場所に散らばっている情報ソースをノートブックLM内に一元的に集約し管理することが可能です。
なるほどね。
なるほどね。
管理できるんですね、その集約して管理。その場の疑問に答えてもらうとかではなく、
例えば会社だったら会社の情報とか全部入れるとかもできるわけですね、こんな感じ。
すごいですよね、それ。
だから情報収集を今まで一個一個全部自分で見て、自分で整理してたのが、とりあえず見つけたら全部ここにボコボコぶっこんでいって。
知識をずっと蓄積していけるってことですよね。
しかもウェブページのURLでやってくるってこれ結構便利ですよね。
なんかすごい使えそうな気がする、それは。
なんかチャットGPとかっていけたっけな、URLって。
URL遅れたかな?でも遅れるけど、遅れるよね。URLは遅れる。
これここを元に参考にしてとかって言うと、分かったよみたいに言うんだけど、全然分かってなかったりするときはね。
あとYouTubeの動画の字幕まで把握してくれると。
あとあれですね、そもそもGoogleドキュメントと連携してくれるのはかなり助かりますね。
すごいそれ助かる。
Googleドキュメント、スライドも。
スプレッドシートって書いてないけど、さすがにスプレッドシートもですよね、きっとね。
でも書いてないからあえてなのかな。
するね、さすがに。
ね、してくれたら助かるよね。
なるほどね、ちょっとずつ分かってきましたね。
で、さらに別の機能の主要機能の2つ目というところで、AIによる自動要約と補足説明法。
アップロードされた文章の内容をAIが自動的に解析し、その要点を短時間で抽出して要約を生成してくれると。
さらにAIは必要に応じて関連する補足情報や文脈を理解するための説明を提示してくれるため、
情報整理にかかる時間を大幅に削減し、深い理解をサポートしてくれます。
なるほどね、要約してくれるんですね、もうね。
じゃあ本当に論文とかポンって入れて要約してもらうとかもできるわけですよね。
そうね、難解だからね、ああいうの読み解くのがね。
なんか我々ライターとしても論文を触りたいことあると思うんですけど、さすがに結構身が重いんですよね、論文ってね。
そうなんだよね、そこまでチェックしたらいいんだろうけど、でもこれ読むのってなるときあるからね。
これ本当に意味あんのかってなりますよね。
本当にこれ読んでダメになるのかとか、あと英語だったらもうその時点で僕はもう罪ですから。
チーンでね。
それいいですね、使いやすいですよね。
で、3つ目の機能としては質問応答機能ですね。
ノートブックLMに取り込んだドキュメントの内容についてAIに対して自然言語で質問することができます。
なるほどね、いっぱい読み込んだ上で、こんな事例あるとか聞いたら、読み込んだものの中から引っ張ってくれると。
これはすごい便利ですね、なんかね。
すごい便利。
めちゃめちゃ、もうかなりいろんな作業が変わりそう。
とはいえ、なんかまだ僕もね、じゃあ何するって言われてもパッと出てくることはなかないけど、とりあえず詰め込んだっけみたいなのがあるかもしれないですね、これのデータをね。
そうね、とりあえずどんどこね。
はいはい、そっかそっか。
あとなんかね、ファクトチェックが簡単になると書いてありますね。
インライン引用機能ってものがありまして、この機能はAIの回答がどのソースのどの部分に基づいているかを明示し、クリック一つで参照元の該当箇所に直接アクセスしてくれるよと。
なるほど。
論文とか入れた上で、この情報って確からしいですかって聞いた時に、こういう部分があるから、確かと言えるでしょうみたいなことしてくれるのかな。
なるほどね。弱いもんね、せいせいAIちゃん、ほら勝手に作り出しちゃったりさ、なんかいろいろするけど、そうやって、ここのソースはこれでバーンって出してくれたら、すごく楽だよね。
そうですね。
ファクトチェックってだって大変だもんね。
いや、ほんとですよ。
そう。
なんか、ミスれないしな、まず。
そうそう、チェックする側はミスれないから、本当にね、これ本当にどこに書いてあるの、どこに書いてあるのって言いながらさ、探す時あるじゃん。
論文から探すのマジ大変ですからね。
すごい辛いの。だからすごい、それは本当にめちゃくちゃ助かるかもしれないね。
はいはいはいはい。この辺ですかね、主に。主な機能として。もちろんいろいろあるんですけど、あとなんか管理、ノートブックとしての管理みたいな話もあるんですけど、主要な機能としてはこの辺でして。
こんにちは、あなたが共有してくださった資料。今回はインターネット上の権利侵害情報、特に死亡中傷とかへの対応に関する法律の改正。
こんな感じの説明をしています。みたいな感じで。原稿読んで今、僕今そのまま読んだんですけど、えっととかまあとか、こういうワードが当たり前に入ってきてめちゃめちゃリアルなんですよね。
人間じゃん、もう人間入ってるじゃん。
今のは男性のパーソナリティがいるのかな。もう一人女性がいる亭で。会話、キャッチボールという形で説明してくれるのかな。読み込ませた、握手をさせた情報を要約してくれるのか、言葉で。
ラジオを聞く、ポッドキャストを聞く感覚で自分が読み込んだものをインプットするみたいな。
たぶんちょっと斎藤さんにも聞かせて、斎藤じゃなかった、間違えちゃった。千恵さんにもお聞かせしたいですね。超リアルなんですよね、音声が。ちょっと聞いていただいたんですよ、さっき。音声が超リアルで、リアルっていうのはもう本当に我々のこの会話みたいな感じで。
だからもうイケボのおじさんと綺麗な声の女性の掛け合いで、ニュースみたいな感じですよね。
なんかもう本当に普通のラジオ聞いてるみたいな。
FMラジオのニュース聞いてるみたいな。
そう、本当にFM聞いてるみたいな気分になるぐらい。すごい、流暢とかっていう言葉じゃもう追いつけないぐらい普通なのよね。
なんかこう普通の会話、今私たち喋ってるみたいな掛け合いで進んでいくから、なんかもうわからない。これがAIかどうかなんて判定できない。
リアルな相槌とかも増えて、えーととかまあとか言ったりするんですけど。
例えば原稿読んでますけど、いわゆる大規模プラットフォーム事業って言うんですかね、みたいなこと言うんですよ。
こんなんもうね、俺らも越えてきましたよね。
全然越えてる。やだー。しばらくね、このポッドキャストとかって人間にしかまあまあしばらくできないだろうなんて高く食って思ってたけど、やーだめじゃんね、もうね、来るね。
ただあくまでこれ要約してるだけでね、言ってる内容をコントロールできないっていう点においては、エンタメコンテンツとしてはまだ使えないんですよね。
あと、僕が読み込ませたものがあるとして、それを他の人が聞いておもろいかってなったら別におもろくないですよ。どうでもいい話ですからね。
あと、これ笑い声とか入っちゃったらやばいですよね、AIがね。
笑い始めたらね。
笑い始めたりしたら、いよいよやばいですよね。
はーってなっちゃう、もうどうしよう。
まだ雑談というところではまだ我々はね、なんとかなると思うんですけど。
それっぽさという点でどんどん来てますね。
ね、すごいね。この音声、これを試すだけでもやってみるといいかもしれないってぐらい。
たしかに。たぶんこの音声がすごい今、たった今話題になってるんですよね。もうすごすぎるって。
これなんか、ポッドキャストとかで何か使えたりしないのかな。ポッドキャストって我々のですね、何か使えたりしないかなとか思いつつ、今のところないですね。
そうね。読み込ませる?ずっとこのポッドキャスト。でもポッドキャストも読み込めるのかね。
たしかにできるのかな。できるかもしれないですね。
そしたら何か引用がしやすくなるのか。引用というか、過去の発言をね。
そうだね。全部覚え込ませてさ、このことって前喋ってたっけとかって言ったらポンって出してくれるかもしれないんでしょう。
そうですね。
あらま、便利な世の中に。
まだ今のところ限定的ですよね、使い方ね。
そうね。まだ私たちがそのレベルに至ってないのかしら。
でもそれもちょっと俺も感じてて、たぶんこれすごい、今音声概要はさておきですね。すごい、たぶん超便利なはずなんですよね、これ。
そうだよね。だからさ、論文とかっていうのも、仕事で触れることもあるし、自分の興味とかのね、私、教育とかそういうのがすごい興味ある分野なんだけど、
そういったところの論文とかもどんどん見つけたり読み込ませておけば、そこから引っ張ってこれるんだと思ったら、なんかさ、きっとこれからのさ、学術論文とかも変わってくるよね。
そうですね。あとたぶん一番すごいのが、雑に管理できて、雑に抽出できるって、これが一番でかいんだろうなと。
たぶんこれまでだったら、データで例えばスプレッドシートでまとめるとかなんでもいいんですけど、すごいこうラベリングしてね、タグつけたりして、名前ちゃんときっちりやってって整理して、ようやくその後々ね、検索できるってことですけど、
今これ適当にぶち込んで、人声で欲しいものが出てくるって、これがすごいことですよね。だから、何も考えずにバンバンぶち込むっていうのは、最初のステップかもしれないですね。我々がやるべき。
そうね。やってみるっていうね。
どう便利なんだろうと思う前に、とりあえず入れちゃえ入れちゃえみたいな。
とりあえずやってみるみたいなね。
そう。手の使い方はね、できるそうですね。
なんか一個思ったのは、取材の時とか、相手の企業だったり、取材の相手の方だったりっていうところで、なんかさ、いっぱいもうすでに活躍されてる方とかさ、いろんなところでメディアに露出してる企業とかだったらさ、そういうのをいちいち今までは一個一個調べて、調べきれないものとかも出てきたりとかさ、見切れなかったりするじゃん、いっぱい出てたりすると。
そういうの全部ここにさ、入れて、リンクとかさ、とりあえず拾ったデータとか全部入れて、ようやくしてとか、なんか抑えた方がいいところだけ抽出してとかっていったらポンって出してくれるわけでしょ。
すごいそこのさ、情報収集時間はめっちゃ短くなるよね。
確かに。今インタビューで思いましたけど、例えば事前にいろいろ学習させた上で、その取材対象者と喋ってる中で、その会話をノートブック入れれば拾えるとしたら、その会話を拾って、それに関連する情報をパッて出してくれるとか。
例えば、著名な方をインタビューする際って、書籍いっぱい出してるパターンあるじゃないですか。正直全部読むのかなり骨折れるだろうなっていう時もあると思うんですけど、その書籍情報が事前に入っていれば、その会話を聞いて勝手に今の関連する情報をポンって出してくれる。
そこまでできたらすごいね。
リアルタイムでの活躍がちょっとイメージできましたね、僕は。
できるのかな?そんなことできるの?すごくない?めっちゃいいアシスタントじゃん。
そうそうそう。
えー。
ちょっとまだ僕もそれどうやってやるのってやり方わかんないですけど。
そうだよね。音声ファイルはアップできるけど、音声がそのままね。
でもなんかできそうだよね。
文字起こしまでできるわけですからね。全然理解もしてくれる。
そうだよね。
でもそれでもそうしたらいよいよAIがインタビューできちゃいますね。
そうだよね。
やばいですよ、そしたら。