1. 隣の席のダンスくん
  2. #226 GeminiのGemを使ってみて..
2025-05-20 07:48

#226 GeminiのGemを使ってみて気づいたこと

#AI #自己分析
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/63b20a797655e00c1c8fd7c7

サマリー

今回のエピソードでは、ダンスがGEMINIのGEMを使用し、その活用方法や体験を報告しています。GEMを通じて音声データを文字に起こし、AIを活用して質の高い情報を作成するプロセスについて共有しています。

GEMの使い始め
おはようございます、ダンスです。隣の席のダンスくんへ、お越しいただきありがとうございます。
この放送は、ちょっとした知り合いとダンスの程度の感覚でお楽しみください。
はい、ということで、今日もやっていきたいと思います。
昨日はですね、お休みだったので、配信もお休みしましたと。
今日も職場から撮っているんですけど、すごく風が強くてですね、部屋の換気扇があるんですけど、
その換気扇のところがすごいガタガタ言ってるんですよね。
だから、もしかしたらこの音声の中にも、結構ガタガタって音が入っちゃってるかもしれないんですけど、聞き取りづらかったらすみませんという感じです。
今日は何を話すかというと、GeminiのGemを使ってみましたよって話をしたいなって思います。
ダンスはですね、今月の初めぐらいに、小山さんという方とスタイフのライブを少しお話しさせていただいたんですよ。
その時に、Geminiに有料契約してみたんですけど、日打ちここまで2週間ぐらい経ったか、もうちょっと経ってるかもしれないですね。
はい、全然使えておりません。
本当はね、使いたい意欲はあったんですけど、それなかなか出してなくてですね、ようやく今日の朝からちょっとやり始めたよっていう感じですね。
ダンスがやりたかったのは、こういう音声を録って、それを文字起こしして、それをある程度きれいにして、
そのきれいにしたやつを、ノートであったりとかブログとか、あとはXのポストとかに少し横展開できていけたらいいかなって思ってます。
各その内容をAIに学習させていって、最終的にはよく言われているAIクローみたいのを作れていけたらいいかなとは思っています。
ダンスはやっぱり自分の考え方を少し残したいなという気持ちは持っているので、そういうのは割といいなと思っているんですよね。
なので、そういう使い方を少ししていきたいなという感じです。
今日は何をやってみたかというと、この音声を録って、文字起こし自体は、ダンスはListenというサービスがあるので、
そこのところでこれにアップロード、これか、F-Typeで音声を録っておくと、向こうに勝手に送られて文字起こししてくれるんですね。
その文字起こしされたやつをきれいにするGEMというのを今日やってました。
このGEMというのが何かというと、AIは当然何か質問すれば答えてくれるんですけど、
それを自分専用にこういう作業をしてほしいですよというのを作るような機能があります。
例えばこの音声の文字起こしだったら、こういう形の文字起こしにしてくださいねというのをある程度、それ専用のAIみたいなのを作っておいて、
そこに投げるだけで勝手にそれが自動でやってくれますよというのが、AI、GEMの中にサービスであります。
チャットGPTでもGPTsというのであるらしいですよね。それと同じですね。
GoogleのGeminiのやつがGEMという名前のやつになってます。
なのでその事前に指令を出すんですけど、それプロンプトですね。指示出してくるやつをちょっと朝考えてたよというところになります。
プロンプトはこういうのは一回他のAIとかチャットGPTとかGeminiでもGEMを作る前に、
自分で単独でこういう文字起こしのテキストを修正してくださいというのをAIにやってもらったりするので、
その前に使ったプロンプトを少し入れたのと、あとはAIにどういうプロンプトを作ればいいですかというのを聞いてみて、
実践と学び
それを少し一部加速修正して加えていった感じですね。
こういうのも自分で指示作るのも最初どういうのを作ればいいのかよくわからないので、
AIに聞けばいいよというところは最近ありますよね。とりあえずわからなかったらとりあえず一度AIに聞いてみるみたいなね。
そういう思考をまず持っておくといいかなというところありますよね。
そういう感じでプロンプトを作ってみました。
ちなみにGEMを最初はスマホの方のアプリでやろうかなと思ったんですけど、スマホの方のアプリではできないらしいですね。
基本的にはPCのブラウザからGEMというのはプロンプトを入れる指示が入れられるよという感じらしいので、
もしこれからGEMを使ってみたいなという人がいれば、そこはブラウザからは必須なのかなという感じですね。
出力を一度させてみたんですけど、ここがGEMには今2.0というバージョンのやつと2.5というバージョンがあったりすると思うんですけど、
2.5の方が新しいやつですよね。そのGEMで出力されるのは2.0で出力されるんですよね。
これはなんでだろうなと思ったんですけど、そこの解決策はよくわからず、もし2.5でも出力できるよというのがあれば、ぜひぜひ教えてくださいという感じになります。
ただ2.0で出力されてたんですけど、ある程度指示に沿ったことはやってくれていたので、いいかなという感じではありますね。
このGEMの何がいいかというと、Googleドキュメントとかを参照できるよというところがいいんですよね。
どんどんデータを蓄積していって、それを自動で参照させていけるというところが、こういうBotを作るところの1個いいところではあると思います。
なので今回はダンスまだゼロの状態なので、事前に学習させておく情報というのはそんなにないんですけど、一番最初のプロンプトぐらいですね。
でもこれからこういうふうに音声データを取りました。それが文字起こしリストに出されます。
そのやつをきれいに修正してもらいます。それを自分でGoogleのドキュメントとかに貼っておいて、それをもう一回修正してくれるGEMに参照させておくと、
そこの履歴をもとに直してくれるということなんですよね、多分。そこの位置に達してないからまだよくわかってないけど、こういうことなんですよね。
なのでそういう形で自分が作ってたものをどんどんどんどん蓄積させていって、より精度の高いものを作っていけるというところが1個AIのすごくいいところなのかなというふうに思います。
そういうふうに今日朝触ってみたんですけど、やっぱりこれ触らないで自分で他の方の音声配信を聞いてそういうふうにできるんだなと思っているのと、
自分でやってみてこういうふうにできるんだなというところはやっぱり違いますよね。
聞いてこういうことできるんだなと思っているだけだとそれ以上のイメージは広がらないんですよね。
こういうふうにできるんだなぐらいで終わるんですけど、実際に今日朝自分で触ってみたりして、こういうことできるんだな、
今自分やってることこういうことあるな、それとうまく結びつけられそうだなというところに持っているんですよね。
自分の経験を少し触ってみることでアウトプットできるようになるのかなと思いますね、そこのところに。
だからやっぱり一歩踏み出すというのはすごく大事なんだなというふうに今日朝やってて思いました。
これから少しずつ頑張って使っていこうかなと思います。
そんな感じですかね。では、今日も聞いていただきましてありがとうございました。
良い一日をお過ごしください。
07:48

コメント

スクロール