1. 耳で学ぶAI、ロボシンク
  2. #38 ChatGPTに新ボイスモード..
2024-10-02 17:06

#38 ChatGPTに新ボイスモード登場!AIとどこまで自然な会話ができる?

✍️内容
ChatGPTから新しくリリースされたアドバンストボイスモードについて話します。
こちら試してみましたでしょうか?

今年の5月にOpenAIでデモが公開されて話題になった機能です。9月に有料ユーザー向けに一般公開されました。
ポッドキャストでは実際にAIの音声を交えながら私自身が使ってみた感想やユースケースを紹介します。


「耳で学ぶAI、ロボシンク」ではChatGPTやGemini、Claudeなど生成AIを初心者向けに分かりやすく解説します。


👨‍💻パーソナリティ: 矢野哲平

「AIを分かりやすく、楽しく」をコンセプトにポッドキャストやnoteでAI情報を発信。株式会社root c代表取締役。福岡出身。


◎note
https://bit.ly/3LvtP91

◎X: 矢野哲平
https://bit.ly/3Tx6maM


🔗リンク



https://note.com/robothink/n/n7cad0189fe7e


◎note記事(NotebookLM)
https://note.com/robothink/n/n60a64e94fdf5

サマリー

今回のエピソードでは、ChatGPTの新しいボイスモードについて解説し、AIとの自然な会話が可能になることを探ります。ボイスモードには同時通訳機能や多言語対応などの特徴があり、さまざまな場面での活用法が紹介されています。ChatGPTに新たに登場したボイスモードは、AIとの自然な会話を向上させ、特にポッドキャストの作成やタスク整理に役立ちます。また、ノートブックLMにも新機能が追加され、YouTubeや音声ファイルを活用できるようになっています。

ボイスモードの新機能
みなさんこんにちは、ロボシンクの矢野哲平です。この番組は、耳で学ぶAIをコンセプトに、初心者・中級者向けにAIを分かりやすく解説する番組です。
今回のテーマは、ChatGPTに新ボイスモードが登場、AIとどこまで自然な会話ができる、について話していきます。
はい、ということで今日はChatGPTから新しくリリースされたボイスモードについて話していきたいと思います。
みなさん、こちら試してみましたでしょうか?
もともとですね、ChatGPTにはボイスモードというものがあります。
AIと音声で会話ができるという機能ですね。
で、この新しいバージョン、このボイスモードの新しいバージョンがいつか登場するよというふうに言われていました。
それがですね、とうとうやってきたという感じになります。
以前のポッドキャストでも、この新しいボイスモードについて取り上げました。
えっとですね、今年の5月頃でしたかね、オープンAAがデモで新しいボイスモードというのを公開していました。
今年の5月頃にこれを取り上げました。
で、それから約4ヶ月でしょうか、先週の水曜日にいよいよ新ボイスモードが一般公開されたというわけですね。
多言語学習と会話の実践
早速なんですけど、ちょっとこの新しいボイスモードでAIと会話をしてみましょうか。
こんにちは。
こんにちは、どうも、お元気ですか?
はい、元気です。えっと、今から英語の勉強をしたいと思います。
AIは英語で私に話しかけてください。
そして私は日本語で回答します。
えっと、料理について話しましょうか。
結構伝統的な料理とか気になりますね。
日本の伝統的な料理も気になりますし、例えばヨーロッパの伝統的な料理のレシピとかも気になります。
OK、ありがとうございます。
えっと、今私が回答した内容っていうのは、あなたが質問した内容と間違っていませんでしたか?
あ、OKです。ありがとうございます。
はい、いかがだったでしょうか。
従来のボイスモードに比べて、結構自然な発音でやり取りできるようになっていると思います。
アクセントとか息遣いとか、結構リアルになっていると思います。
このボイスモードなんですけど、現時点では有料ユーザーのみ利用できます。
月額20ドルですね。
なので現在のレートで言うと2800円ぐらいですかね。
ただこの2800円の中にはですね、ボイスモード以外にもChatGPTでGPT図を作れたり、
あとは最新のモデルであるOpenAI O1プレビューというものにアクセスできたりもします。
このO1プレビューに関しては前回のエピソードで紹介したOpenAIの最新モデルですね。
このようにChatGPTの有料版に加入すると、この新ボイスモード以外にも色々できることが増えるので、
1ヶ月だけ有料版を試してみるという選択肢もありだと思います。
すでに有料ユーザーの方で、自分のアプリにボイスモードが確認できないという人がいたらですね、
その場合はアプリを再インストールすると新しいボイスモードが表示されるようになると思います。
以前にこのOpenAIがですね、このボイスモードを公開した時、すごいなと思ったのが同時通訳機能ですね。
人間で同時通訳をする人っていますよね。
例えばハリウッド俳優が来日してインタビューとかで英語と日本語を同時通訳してくれる人ですね。
こういったことをChatGPTのボイスモードでもできます。
なので駅で道を聞かれた時とか使えそうですよね。
結構今外国人の旅行客の方も増えているので、そういった時に使えると思います。
あとは冒頭でも話したみたいにですね、外国語の学習に使うのが面白いと思います。
ちょっと使ってみますね。
来月韓国に行くので、今から韓国語の勉強します。
すいません、ビールくださいを韓国語で言ってみてください。
とぎおがすみません、そしてべっくちゅじゅせよという意味です。
旅行の際にぜひ使ってみてくださいね。
ありがとうございます。じゃあ次はそれをスペイン語に翻訳してください。
スペイン語ですみません、ビールくださいは、ペルドン、ウナセルベサポルファボルになります。
ペルドンがすみません、ウナセルベサがビール一杯、そしてポルファボルがくださいという意味です。
ぜひ使ってみてください。
ありがとうございました。
どういたしまして。
こんな感じでですね、様々な言語で使えるのがありがたいですね。
中国語や英語、フランス語とかですね、いろんな言語で使えると思います。
ここまで聞いてみてどうでしょうか。
いろいろAI音声というのは各社出しています。
そういったものと比較してもですね、結構発音とか会話の流れとかがリアルじゃないですかね。
抑揚とか息遣いとか結構リアルだと思います。
ちなみにこの会話のスピードなんですけど、もっと早く話してとかですね、もっと遅く話してという会話のスピードも調整することができます。
こういったようにですね、語学系のタスクで活躍してくれるのは間違いないと思います。
他の使い方としてはですね、思考の整理とか考えですね、考えの整理とかアイデアの壁打ちにも使えると思います。
ちょっとやってみますね。
ポッドキャストのリスナーのエンゲージメントを高めるにはどうすればいいですか。
リスナーのエンゲージメントを高めるためには、いくつかのポイントがあります。
まず、リスナーとのインタラクションを増やすために、エピソード内で質問を投げかけたり、フィードバックを求めたりするのが効果的です。
はい、こんな感じですね。
普段からポッドキャストを聞いている人はですね、なんとなく感じている人もいると思うんですけど、
結構1日の中で耳って空いている時間多いんですね。
このポッドキャストも家事の合間とか、通勤時間に聞いていただいている人も多いと思います。
こういったようにですね、この耳の空いた時間を有効活用する選択肢として、
ポッドキャスト以外にも、このようにAIと会話をして、例えば壁打ちをしたりとかですね、
思考、考えの整理をしたりする、そういった使い方も面白いと思います。
私の場合だとですね、公園を散歩するときにボイスモードを使ったりしています。
壁打ちをしたり、情報収集をしたりですね。
声と、あとは耳だけで、頭の整理をしたり、情報収集をしたりするっていうのは結構面白い体験なのでお勧めです。
情報収集と活用法
ただですね、あの情報収集に関してはちょっと注意が必要です。
それはですね、ChatGPTは2023年の10月が知識のカットオフとなります。
つまりですね、2023年10月以降の最新情報というのはちょっと苦手なんですね。
ちょっと質問してみましょうか。
今月9月にリリースされたOpenAIのO1プレビューという新しいモデルについて質問してみます。
こんにちは。
こんにちは。今日はどんなお話をしましょうか。
えっと、OpenAIのO1プレビューっていうのは何ですか。
OpenAIのGPT-4V-O1プレビューはGPT-4に画像認識能力が追加されたバージョンです。
これによりユーザー…
はい、思い切りハルシネーションが起きちゃってますね。
ちょっとAIが間違った情報っていうのをアウトプットしています。
こういった感じでですね、2023年10月以降の知識に関してはモデルが学習してないので注意が必要です。
2023年10月以前の知識に関しては全然問題ありません。
あとは一般的な知識っていうのも問題なく回答ができます。
ただ最新の知識に関して情報収集する場合は注意が必要ですね。
ここまで聞くとこう思う人もいると思います。
あれ、ChatGPTってブラウジング機能あったよねと。
このブラウジング機能っていうのはチャット上からインターネットにアクセスできる機能ですね。
つまりリアルタイムでインターネットの情報にアクセスができるので、
2023年10月以降の最新情報というのも取得できます。
先ほどの例で言うとブラウジング機能を使えばOpenAI 01プレビューの最新情報というのも取得できます。
ただですねちょっと落とし穴があって、このボイスモードに関してはブラウジング機能が利用できないんですね。
なので一旦ボイスモードを切ってテキストで質問をし直す必要があります。
これがですね結構面倒なので、実質ですね最新情報に関してはボイスモードはちょっと苦手かなと思います。
ただ最新情報ではなくて一般的な情報の取得に関しては問題ありません。
例えばですね〇〇というビジネスフレームワークについて勉強したいです。
詳しく教えてと質問すると耳でその知識というのをインプットすることができます。
最新情報を音声で取得したい場合はですねパープレキシティの音声機能の方が向いていると思います。
あとはですねビジネスアイデアの壁打ちなんかも面白いと思います。
AIは投資家として振る舞ってください。私が今からビジネスアイデアを話します。
そのビジネスアイデアについて率直な意見を言ってください。批判的な意見でもokです。
で最終的に投資をするかどうかっていうのを私に教えてください。
こんな感じでですねやり取りすると一つのビジネスアイデアをAIと深掘りできると。
結構ですねこれ散歩中に使ったりしています。
20分とか30分ぐらいの会話でも結構問題なくできますね。
ChatGPTのボイスモード
でAIとやり取りを重ねてどんどん深掘りしていくと結構中にはですね
おっと思うアイデアを提案してくれたりするんですね。
でそういったものもですねじゃあ今のアイデアちょっとブックマークしててと。
で最終的に会話が終わった時にですね今私たちが話した中で
あの私がブックマークしてといったアイデアこれを列挙してまとめてください。
なんかいうとですね最終的な成果物っていうのをまとめてアウトプットしてくれたりします。
この使い方も結構面白いのでぜひ試してみてください。
後の使い方としてはボイスメモ代わりに使うやり方っていうのも面白いと思います。
頭の中を整理する目的でAIと会話をするのではなくて
ただひたすらですね人間が話してアウトプットすると。
でそのアウトプットした内容っていうのを最終的にAIにまとめてもらう。
こんな使い方ですね。
最終的に話し言葉をきれいな文字に整形してもらったり
あとは要約してもらったりするような使い方ができます。
でこの時ですねちょっと一点だけ注意点がありまして
AIの回答が情緒になりがちなんですね。
AIの回答がちょっと長いと。
ちょっとやってみますね。
今から今日のタスクについて整理していきます。
いいですね。
タスクを整理すると一日がスムーズに進みますよ。
まずは優先順位の高いものから確認しましょうか。
えっとポッドキャストの台本を作る。
ポッドキャストの台本作り面白そうですね。
どんなテーマについて話す予定なんですか。
あ、あの返事はなしでえっとそのままでお願いします。
ポッドキャストの台本を作る。
ポッドキャストの収録をする。
了解です。ポッドキャストの台本を作る。
はいこんな感じでですね人間が話したことに対して
こうAIが全部こう拾ってしまうんですね。
こうしたケースはですね回答ははいとだけ回答してくださいと伝えるとやりやすいです。
ちょっとやってみますね。
今から私が話す内容に対して回答ははいとだけ回答してください。
わかりました。それではどうぞ。
ポッドキャストの台本を作成する。
はい。
ポッドキャストの収録をする。
ポッドキャストの概要欄を作成してノート記事も作成する。
はい。
今私が話した内容をリスト形式で列挙してください。
リスト形式でお答えします。
1.ポッドキャストの台本を作成する。
2.ポッドキャストの収録をする。
3.ポッドキャストの概要欄を作成してノート記事も作成する。
はい。こんな感じでですね。
今日1日やることをリストアップしたり
頭の中の整理をするためのメモ代わりとして使うこともできます。
今回ですね。はいとだけ回答してくださいと言ってますけど
はいと回答せずにひたすら無言でいてほしい場合ですね。
これもですね可能といえば可能です。
ただですね。こちらの指示を無視して回答というか返事をしてしまうんですねAIが。
それに対していやいや終始無言でお願いしますと
だいたい2回か3回ぐらい繰り返すとですね
やっとあの返事なしの無言モードに突入したりします。
これですね結構あの使う時によって変わってくるので
無言モードを試してみたい方はちょっと参考にしてみてください。
こんな感じでボイスモードは語学の学習以外にも結構使えます。
特にですねポッドキャストを普段から聞いている人と相性がいいのかなと思います。
耳で情報キャッチアップしている人におすすめの機能となります。
今日のポイントをまとめます。
OpenAIから新ボイスモードが登場しました。
これはですね現状有料版のみ利用できます。
語学学習や壁打ち相手として耳の空き時間をですね有効活用できるような機能となります。
あとはこのボイスモードですね現状はブラウジング機能に対応していません。
なので最新情報のやり取りというのは苦手です。
耳で最新情報を取得したい場合は検索AIのパープレキシティの方がおすすめです。
はい今日はこの辺ということで本日も聞いていただきありがとうございました。
ノートブックLMの新機能
ちょっとですね話は変わるんですけど
ノートブックLMにも新しい機能が追加されましたね。
このノートブックLMっていうのはGoogleが提供するAIが搭載されたメモアプリのようなものですね。
このノートブックLMに新しくYouTubeを情報ソースとして渡せるようになったと。
あとは音声ファイルも渡せるようになりました。
例えばYouTube動画の要約を作成したりとか、あとは深掘りしたい時に使えます。
海外のYouTube動画の情報収集にも使えます。
あとはですね音声ファイルをアップロードできるようになりました。
これはですねそうですね、例えば会議の音声をアップロードして情報を参照させると、
あのこの会議でどういったことが話されたのかっていうのを後でAIにですね調べてもらうようなこともできます。
試しにこのポッドキャストの音声というのをアップロードしてみましたけど、
ポッドキャストのエピソード管理にも使えそうです。
そうですね、ノートブックLMについて話した回はどこですかとかですね。
こんな感じでコンテンツ管理にも使えそうです。
この新しい機能ですね、これすでにも反映されているのでノートブックLMにアクセスすれば誰でもすぐ使えます。
これに関してノートで記事を書いていますので、良ければそちらも参考にしてください。
概要欄にリンクを貼っておきます。
音声ファイルが手元にない方もいると思うので、私のこのポッドキャストの音源というのも用意しています。
良ければですねテスト用にダウンロードして使ってみてください。
ノートの記事の中にあのダウンロードリンクを添付しています。
このように番組では耳で学べるAIというのを毎週発信しています。
通勤や家事の合間にAI情報キャッチアップできます。
水曜朝に更新していますのでぜひフォローをお願いします。
エックスとノートでもAIの情報を発信していますのでこちらもぜひ概要欄にリンクを貼っておきます。
お相手はロボシンクの矢野てっぺいでした。また次の配信でお会いしましょう。
17:06

コメント

スクロール