2026-01-09 12:37

#57 AIグラレコの質は「入力」で決まる?美しく仕上げるための下ごしらえと指示

先日のイベントで「きれい!」と絶賛されたまりかのAIグラレコ。なぜ同じツール(NotebookLM)を使っても、出力結果にこれほどの差が出るのか?その秘密は、AIに入力する前の「情報の下ごしらえ」にありました。
「小学生に教えるように」無意識に情報を構造化して渡すまりかと、それを「データの整形と指示の解像度」という視点で解説するたま。散らかった思考を一度ChatGPTやGeminiで整理させてから入力するテクニックや、左右対比などの具体的なレイアウト指定の重要性を語り合います。「AIに丸投げ」する前に人間がやるべきひと手間とは?ツールのポテンシャルを最大限に引き出すためのヒントが詰まった回です。 #AI #notebookLM
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/686f34ea55550b9192869a57

サマリー

このエピソードでは、グラフィックレコーディング(グラレコ)の質が入力データや指示文によって大きく影響されることが論じられています。特に、情報の整理や構造化の重要性、AIツールのGoogle Notebook LMを用いた実践的なアプローチが紹介されています。

グラレコの基本概念
こんにちは、たまです。
こんにちは、まりかです。よろしくお願いします。
今日はですね、前回に引き続きイベントをやった際に、
我々、これまでとこれからについての簡単なグラレコをね、
映しながらイベントを話したんですけど、
そのアンケートのすごく多くに、
グラレコがものすごく綺麗だった、みたいなコメントをいただいたんですけど、
なんか私からすると、こういうもんだとしか思ってなかったから、
どう他と違うのかっていうのがわかんないというか、
だいたい、もし特にポンと出したら、
あのくらいを出してくれるだろう、みたいに勝手に思っていたので、
なぜそもそもその人によって、
グラレコの出力というか、
AIの出力全般も多分そうだと思うんですけど、
何がそんなにその出力が、
この目的のものが出せ出せないとかだったり、
この精度が高い低いみたいなのがあるのかなというのを、
AIを教えている玉さんにちょっとお聞きしたいということでございます。
はい、じゃあ回答したいと思います。
ちょっとお推測も含みますが、
まずグラレコを作るのに、
今のところ一番手軽に使えて精度の高いツールは、
GoogleのNotebook LMです。
で、Notebook LMでグラレコを作るときに、
要はグラレコにしたい元情報を読み込ませて、
グラレコというボタンをポチッと押す、
みたいな感じでできちゃうんですけど、
読み込ませる情報のきれいさと、
あとグラレコで出力するときの指示文が、
多分コントロールしてるんじゃないかなとは思います。
経験上、まず何の情報をどうやって読み込ませるかなんですけど、
何を読み込ませても一応AIがそこそこ考えてくれて、
ロジカルな感じにしてくれはするんですけど、
読み込ませるデータ量が多ければ多いほど、
構造化されてたほうがきれいなグラレコになってます。
ちくたい例があって、この前のイベントのときに、
それぞれグラレコを作ったんですけど、
私は今までの人生棚卸し質問みたいなやつを、
適当にAIで作って、それに回答したやつを、
まず最初グラレコにしたんですけど、
結構ぐちゃっとした感じになったんですね、最初は。
もう一回それをイベント前日ぐらいにやり直して、
やり直したときには、質問の内容と回答に応じて、
これまでの話かこれからの話かっていうのをカテゴライズ、
区別する列をまず1個追加したんですよ。
Excelじゃないとスプリッシュでやったんですけど、
その1列追加して、かつ、
回答もなんとなく同じような内容、
関連している内容のものは近くに来るようにしたりとか、
重複してるなって思ったものは削除して、
1個の質問にまとめたりとか、みたいな感じで、
データの綺麗化みたいなのをしたんですよね。
それで出力したら、めっちゃ綺麗なグラレコになって、
構造レベルから違う感じになった。
特に割と難しい、難しいってちょっと語弊があるけど、
ちゃんと構造として整ってないものを読み込ませてる場合は、
AI進化と指示の効果
AIに構造化してって指示して加工してもいいと思うんですけど、
情報流度が大きい情報から小さい情報に流れるように、
左から右に見れる表とか、上から下に読めるドキュメント、
みたいな感じにすると、結構綺麗になりやすいかなってのは思いますね。
じゃあそれで言うと、すごい偉そうな感じだけど、
多分それを無意識にやってるなという感覚だね。
やってるんだと思いますね。
私の場合は、マナスにこういうイベントをしたいんだよっていう概要欄を読み込ませて、
質問を作ってって言って質問してもらって、
それに私が雑多に回答したものをこれまで編とこれから編に分けてレポートを出してって言って、
かつそれぞれの漢字を作ってくれるって言って、漢字を提案してもらったものを2つ読み込ませて、
かつノートブックLMで出す時も、
左がこれまでで右がこれからで漢字を主体とするようなウグラレコを書いてくださいって書いてるから、
それ一つ一つが全部多分差分というかになっててるんですよね。
もうその通りだと思ってて、
これまでとこれからっていう大きな情報のブロックがありますっていう状態で、
かつそれとイコールになる漢字があるっていうのは多分AIにとっては超分かりやすい構造なんですよ。
その中身も多分マナスがやってるってことは、
なんとなく仕事系、プライベート系とかカテゴリーでごとに書かれてるので、
図にする時に構造化がちゃんとされてるデータとして扱われたのではないかなとは思います。
出力のところにも触れたいんですけど、
マニカさんがおっしゃってた漢字、この漢字を中心に右と左で分けてとか、
こうやって書いてっていうすごい明確なレイアウトの指示をしてるとやっぱりきれいになりやすいと思います。
あと最近アップデートで素材用漢字の絵とか、漢字を追彩画みたいな感じに書いた絵があったと思うんですけど、
あれを読み込ませてこれを使ってってするとそのまま反映されるようになったらしいんですよね。
要はイラストとかの素材とかキャラクターとかを登場させて、こうしてみたいなのができるようになったので、
そこをちゃんと素材画像を提供してるし、どうやって使って欲しいかっていうのもすごい明確に言語化してるっていうのがやっぱりきれいになる理由かなとは思います。
あとなんかその素材を明確に、位置関係を明確にみたいな、左に右にとかそういうのもいいですし、
あとはそもそもグラレコって支持してたっていう理解であってますよね。
あれも地味に大事なんですよ。
インポグラフィックとグラレコって違うんですよ。
インポグラフィックっていうのは海外の情報を一枚紙にまとめたポスターみたいな感じで、
グラレコっていうのはグラフィックレコーディングで手書きでやってる感じで出るんですね。
で、なんとなく似た存在な気がしてつい私も本動しちゃうんですけど、
結構そのグラレコ風でとかグラレコとして出してっていう風にすると、一気に手書き感、手作り感みたいなのがいい意味で出てきれいになる傾向があると思います。
このぐらいかな、意外と小さな支持がちゃんとできてるかどうかで変わってくると思いますね。
じゃあなんとなくこの綺麗にしようと意識にやってるレベルのことが、実は意外とそのAIの出力のクオリティーを上げる重要な要素だったりするんですね。
そうなんですよね。
言わなくてもわかるだろうってことは大体言わなくてもわかるものではないみたいなところがあるので。
例えばもし聞いてくださってる皆さんがやるとしたら、好きなデザインのグラレコとかがもしあったら、こんな感じで出力したいんだけどデザイン指示はどう書いたらいいですかってチャットGPTとかGeminiとかで聞くんだけど、
そうするとこれは何々スタイルっていう名前で、こういう位置関係でってやったらできますみたいな感じで言ってくれるので、
それを何かこういろんなトピックで使えるような、ちょっと抽象的な、抽象度が少し高めの指示に変えて、メモとかに、手元のメモ帳とかに保存しておくと、何か毎回使いまわせて便利みたいな話かなと思います。
確かにその依頼する文章の言語化が苦手な場合には、それをAIにお願いをして、それを入れればAIのわかりやすい言語で伝えてくれるから、指示が通りやすいっていうね。
そうなんです。この写真とか、サンプル画像からこれは何々スタイルですっていうのを、より正確に出してくれる傾向があるのは、私は体感的にはGeminiだと思っています。
やっぱり画像生成自体が上手っていうのもあるのかもしれないし、ちょっとそこは何がそこまで違うのかわかんないんですけど、なんか無料版だったら特にGeminiの方がなんかいいんじゃないかなっていうのは、今体感的には感じています。
マニアックな話を続けると、一時期ナノバナナがあんまりポンコツだった初期で、依頼文章をGeminiで直接書かずにGPTで作ってからそれを入れる方が変にならないよって話があったんですけど、その頃から変わったって感覚ですか?
変わりましたね、かなり。何が変わったかっていうと、Gemini自体がアップグレードが入ったことっていうのがやっぱり一番でかくて、あとナノバナナが一番最初に出てきた時って、今のナノバナナの一個前のバージョンなんですよ。今ナノバナナプロっていうんですけど、プロの方がそもそも抽象的な支持で具体化できる力があるし、
デザインのコンセプトの理解が深そうな感じで、それをどうやって学習させるのかわかんないんですけど、っていう感じで全体的に上がってるので、わざわざChatGPTの構造理解力とか言語力とかを借りなくてもGeminiで別にやって大丈夫、なんならそっちの方がいいかもしれないぐらいの感じですね。
なるほどね。
ずいぶん変わりましたね。
だから特に今までにない速さでAIの進化というか、それぞれの一心一体というか、レベルが変わるじゃないですか、ChatGPTなりGeminiなり、それをやっぱり使い続けてないと、前よかったことをずっとやろうとしても同じ答えは返ってこないし、そこが難しいと言われるゆえんでもあるし、楽しいと言われるゆえんでもあるんだけど。
3週間ぐらいで賞味期限切れる感覚ですね。前は1ヶ月強って感じだったんですけど、3ヶ月前は昔だみたいな。
1ヶ月前のAI解説動画はだいたい古いですもんね。
古いですね。もうこれ修正入ってますねとか、これアップデートしてこの情報は気にしない方がいいですねみたいな感じだったりするので、ちょっとそこは難しいというか。
まあでも一応ユーザーフレンドリーによりなっていく傾向はあるので、スパイアップはなるはずではないですね。
グラレコというか、図、インフォグラフィックを出すにも意識にやってることが実はすごく大きな差になっているというのは大変な学びでございました。
やっぱり言語化っていう強みがあるマリカさんだからこその精度なんだと思います。
やっぱり普段小学生に教える仕事をしていると、いかにこう細分化して構造化して伝えるかっていうのを多分もうそれが無意識すぎちゃって、それが何が人と違うかもわからないぐらいになってしまっているけれど、
多分その辺がすごく強みとして、よりAIとの相性がいいのかもしれない。
それは思いますね。相当ぐっちゃぐちゃな音声ファイルとか渡しても、一応グラレコにはしてくれるんですけど、
やっぱり精度を高めていこうってなるからね。
一応できるけど、そのまま突っ込むよりは、一回チャットGPTなりGeminiなりでちょっと構造化してあげて渡すとかでも全然違うかなと思います。
うまくAIの力を借りられる。
以上にしたいと思います。ありがとうございました。
ありがとうございました。
12:37

コメント

スクロール