00:08
こんにちは、シロクロの伊藤です。
Podcast59回目、今回もChatGPTについて話していきたいと思います。
テーマは後で決めます。
今日は2023年6月7日、水曜日です。
よろしくお願いします。
ChatGPTの話、最近いろいろまた使ってて、それで思ったことがあるところと、
あとちょうど昨日かな、今日か、忘れたけど、ChatGPTの開発元のオープンAIが
ベストプラクティスっていうページを公開していて、
それの日本語版も出ていたので、ちょっとそれも触れてみようかなと思いました。
よろしくお願いします。
ベストプラクティスのところを先に触れておきたいんですけど、
こういうふうにやるとより良い結果が返ってくるよっていう戦略的なもの。
それが6つあって、1つ目から明確な指示を書く、参考テキストを提供する、
複雑なタスクをよりシンプルなサブタスクに分割する、
CPTに考える時間を与える、外部ツールを利用する、パフォーマンステストを実施する。
6つですと。
1つ目と3つ目、明確な指示を与えることと、なるべくシンプルに分割して聞く。
この辺はやってると割とそういうふうに自然になるのかなっていうところですよね。
参考テキストを提供するっていうのも、いろいろだれだれ式、
なんとかプロンプトとかにあったように。
これも資料を渡っているような気はします。
個人的になるほどって思ったのが、GPTに考える時間を与えるっていう話ですね。
これが要は参考文でいくと、
例えばGPTにとある課題について学生からこんな回答がありました。
これは正しいですかっていうふうに聞くよりも、
学生からこんな回答がありました。
あなた自身の答えを考えてから、学生の考えが正しいかどうかを判断してください。
というふうにGPTに一度先に考えてもらって、
その後判断してもらうみたいな。
という順番に処理してもらうってことですね。
これはやったことなかったですよね。
あと外部ツールを利用する。
これは長い分、計算式とかを、
03:00
これはちょっと僕も使ったことないんですけど、
埋め込みとか外部サービスのAPIを通して、
多分添付じゃないけど、
データを渡すことができるんだと思います。
最後のパフォーマントテストを実施する。
これは何ですかね。
ちょっと日本語訳を読んでみると、
既存の質問で望み通りの回答を得られている状態で、
さらに新たな質問を追加した場合、
その質問をしたことで既存の回答変数が低下してしまう可能性が考えられます。
こうした変顔がシステムを良くするのか悪くするのか、
見分けるのが難しい場合、
オープンAIエヴァルなどの評価ツールを使い、
効果的な質問バリエーションを検討することができます。
なるほどね。
他のツールを使って質問のバリエーションを増やしていくと。
なるほど。
5番、6番、外部ツールとパフォーマンステストの話以外、
1から4に関して言うと、
結局これは人とのコミュニケーションにめちゃくちゃ当てはまる話ですよね。
明確にシンプルに答えの参考も提示しつつ、
きちんと考える時間を与えるっていう。
だから人に聞くぐらいきちんと丁寧に、
GPTに質問すれば、
望んだ結果が返ってくるんじゃないかということですよね。
まあまあその通りですよね。
あと最近個人的に使っていて気づいた点の話をしていきたいんですけど、
以前自分で、
ポッドキャストで話したものを音声を自動文字起こしして、
GPTに聖書してもらうみたいなことをやっていたんですけど、
その時にどうしてもポッドキャストが20分とか30分話しているので、
文字量にすると4000文字、5000文字、6000文字とかになってたんですよね。
それをそのまま投げれないので、分割して小刻みに編集してもらって、
その小刻みの文章量によって編集度合いが違うから、
こうしましょう、こうしましょう、みたいなブログを書いたんですけど、
先日、あれこれ翌々考えたら、
先に言うと4096トークンしか投げれないんですよね。
1トークン1文字ではないんだけれども、
日本語だけで言うとだいたい2000文字、3000文字以下とか、
06:06
2000何百文字が限度だった気がするんですけど、
ぐらいしか投げれないので、
それを今から文字データを編集してもらいたいんですけど、
文章が長いので何回かに分けておきます。
それで全部読んだ上で編集してもらえますかって聞くと、
分かりました、いいですよって言ってきたので、
じゃあ文章が終わったらここで終わりますみたいな指示を出すので、
これから何回かに分けて送りますっていう風にして、
1000文字前後ぐらいで区切って4,5回に分けて送って、
そうするとそれ全部読んで理解した上で、
ちゃんと編集してくれたんですね。
なので非常にそれはやり方として、
多分そっちの方が精度が高いというか、
きちんと最後まで読んでくれっていうのが編集なので、
被ってるところとかも割愛してくれたりとか、
うまく主張の後整理してくれたりとか、
最後は話を最初に持ってきてくれたりとか、
いい感じに本当に編集してくれたので、
それは非常に面白かったですね。
っていう使い方と、
あと最近ちょこちょこやってるのが、
質問というか相談というか、
今会社のサービスを1,2個増やそうとしていて、
これに関して調べなきゃいけないなとか、
これに関してどう思う?
同業の友達がすぐそこにいたら聞きたいぐらいの、
軽い感じの質問を殺人ピーチに投げてる感じ。
これこれこういうサービスやりたいんだけど、
何から調べたらいい?とか、
温度感どう思う?とかそういうのを投げると、
結構きちんと返してくれるので、
何回かラリーしてたら、
なるほどなるほど、じゃあこの辺から調べていこうか、
っていう風になるので、
やっぱり壁打ち役としては非常に優秀かなと思います。
あと何でしょうかね、
結局このChatGPT、AIは鏡だよねっていうところで、
何でも答えてくれるけど、
結局例えば自分の専門分野じゃないところ、
自分が全然無知な領域のところだと、
質問してもちろん返ってくるけど、
09:00
それを自分で判断できない以上、
その情報って扱い用がないんですよね。
ってなると、自分の専門分野のことは、
すぐにその返答結果を見て、
それが合っているかどうか、
最適かどうかっていうのは判断ができる。
っていうことは、
結局自分の能力以上のことが返ってきたところで、
うまく活用ができないんですよ。
っていうことは、
さっきの壁打ちにしてもそうだけど、
結局自分と対話してるぐらいの感じ。
自分のレベルに合わせた質問と、
それに合わせた返答結果しか返ってこないので、
結局自分のコピーと話してるような感じ。
その資料を作ったり、
例えば何かしら話すテーマを決めなきゃいけないときとかに、
何かお題考えてとか、
そういったときに、
自分が面倒だけど考えたり調べたり整理したりすれば、
出来上がるものをGPTに聞くっていう感覚。
2、3時間集中して調べて、
整理して、考えて文章作れば、
そこそこのものができるのを、
瞬時に80%ぐらいのクオリティで、
数秒で返してくれる。
っていうのが一番、
僕みたいな一般の人にとっては、
非常に便利な使い方なのではないかと思います。
だから専門学校とかで、
軽い講義とかしない、
めちゃくちゃ広い範囲で、
軽く話さなきゃいけないときとかに、
テーマを絞ってもらうのに手伝ってもらったりとか、
そういう使い方ができる。
それも結局自分の専門分野だから、
返ってきたのを自分で判断できる。
っていう意味で使える。
真っさらの状態だとやっぱり使えないというか、
最終的に判断が効かないっていうところですよね。
ただこれもまだ現在のものなので、
専門分野以外のことも、
12:04
信憑性が確実にある。
他の書籍とか、
下手したら辞書とか、
あのぐらいの精度でその情報が真っ当である、
正しいっていう保証がついてくると、
またちょっと話が変わってくるんですけど、
Wikipediaで嘘も入っているとか、
いろいろ言うけど、
でも結構それはほとんどが真っ当な情報な気が、
でもわかんないから最近見ないし、
書籍とかぐらいの信頼度、
書籍も対外じゃないや、
誤った情報とか、
最近話題になったゲームの話のやつとか、
どのぐらい精度が高いかっていうと、
個人的には言葉ですけど、
編集者が編集していないケースが多いですよ、本って。
だから執筆者にすべて委ねられているので、
意図的じゃなくても、
誤った情報っていうのはたくさんあるんですね、
このまさりげなく。
ちょっと話ずれましたけど、
とにかくChatGPT AIが、
どんどん精度が高くなれば、
専門分野外もそれを純粋にすぐに信じていい、
っていう状態になると、
また話がだいぶ変わってくるんだけど、
まだ現時点では、
自分で人間が判断しないといけないっていう意味では、
専門分野外の使い方っていうのは、
まだやっぱ難しいと思うんですよね。
そうすると自分が判断できるところってなると、
やっぱり鏡的な取り扱いになるんじゃないかなと。
それでも十分ですけどね。
資料作り、壁打ち相談と、
あとやっぱり一番いいのは文章を作ってもらう。
それもこういう主張があって、
こういう話にしたい、
こういう内容にしたいっていうのは、
誰でも浮かぶと思うんですね。
それを日本語として正しい文章にして、
ある程度基礎連結があって、
人に読んでもらうような提案に整える。
いわゆる文章を書く技術っていう意味では、
そこが一番めんどくさいじゃないですか。
めんどくさいですよ。
でも一応こういう主張があるっていう、
話の内容がきちんとできていると。
っていったときに、
要は下書き、過剰書きだったら書ける、
プロットみたいなものを書けると。
それをGPTに投げると、
15:01
文章化してもらえる。
僕が最近やってるのは、
過剰書きよりもうちょっと、
一応文章になってるけど下書き、
ちょうど本当こういう風な話してるぐらいの感じの制度で、
文章を書いて、
全然手におはとか気にせず流れも気にせず、
きちんと主張だけ書いた文章を、
これを人に見てもらう文章に、
練習してもらえますかっていう風にすると、
きちんと整えてくれる。
でも話の主張自体、
一応僕が考えた通りになっているので、
チャットGPTに文章作ってもらったっていうわけでもなく、
一応話の数字としては僕の話で、
それをうまく人に見てもらいやすいように、
整えてもらったっていう使い方。
これの使い方がやっぱり非常に便利で、
ブログしかり、
メルマガジンとかそういったコンテンツ作り、
人と人とのメールだと別に普通に書けばいいので、
それをGPTに流すほどではないんですけどね。
コンテンツを作る、整える、
作るじゃないな、やっぱり整えてもらう、
っていうところでは非常に優秀なツール。
それに関してもやっぱり鏡の域は超えないというか、
自分でもめっちゃ時間かければ届くところなんですよ、そこって。
それを手伝ってもらう。
だから結局自分以上のコンテンツは多分生まれない。
何聞いてもその人のレベルに合わせた結果しか返ってこない。
自分のレベルに合わせた結果しか有効化することができないっていう意味で、
鏡なんだなと。
そこまでしか使えないっていう意味ですね。
テーマはAIは鏡っていうところでいこう。
文章に関しては割とグラフィックとか絵の生成、
AIはまた別ですけど。
2GPTに関してはそういうような気がしますね。
そんな感じですかね。
あとはちょうど別の話で、
マイクロソフト、最近Twitterに書いてるけど、
マイクロソフトのUXがめちゃくちゃなので、
これをなんでめちゃくちゃかっていうのをきちんと落とし込んで整理することで、
18:04
逆にこのAppleとかAdobeとかが優れているわけじゃない。
普通にユーザーからしたら当たり前の機能を、
マイクロソフトはびっくりするほど提供してなくて。
次回にまとめるんですけど、多分わざとなんですよね。
意図的にマイクロソフトみたいなことができないと思うんですよね。
じゃないとおかしいっていう話をしよう。
すごいわ、さすがというか。
意図的にやってる以外だったらありえない挙動をしているので。
あと、ブランディングとかうちの自社でやってるサービス、自社でやろうとしてるサービスを、
今さっきの話でChatGPにいろいろ聞いたりして、どうやっていこうかって言ってるんだけれども、
壁打ちをPodcastで一人で喋ることでできないか。
自分で喋っていくことで次のステップが見えないかっていうのをやってみようかなと思います。
すっげえダメな話のまま終着。
どこにも落ち着かなかったら流さなければいいだけの話だしね。
という感じで今後もやっていきたいと思います。
ここら辺で終わりましょう。
以上です。
ありがとうございました。さようなら。