00:00
日常のおと。 昨日は夜だいぶ暑くて、
一日中暑かったですよね。 あので
エアコンどうしようかなと思ってて、 結局エアコンは使わなかったんですけれども、
かなり暑かったですね。 そのまま夜までずっと暑くて、
寝るときもかなり、ちょっと寝づらいなぁというぐらいで、
そんな感じだったんですけれども、朝起きたときはね、まあまあ涼しいかなというぐらいだったんですが、昼過ぎて
まただいぶ暑くなったんで、ちょっと今日は
エアコンでもしてみようかなと。 ちょっと窓閉めますね。
ちょっと今ね、ピンマイクをつけて部屋の中をウロウロして収録してますが、
どれぐらいの感じで収録できているのか、
ちょっとわかりますので、後でちょっと確認しますけれども、
暑いですね。
マイクは収録のレコーダーですね。
以前から使っている、
TASCAMの、何でしたっけ?
DR-05ですね。
これをレコーダーにして、そこにピンマイクを挿して、
ピンマイクはオーディオテクニカの品番はちょっと今わかりません。
エアコンつけました。設定もどれぐらいなんでしょうかね。
湿度ちょっと下げて、何度ぐらいにやったらいいんでしょうね。
ちょっと使ってみながら。
アップルのイベントとAI機能
でね、今日は何のお話をするかというとですね、
昨日、夜中なんですかね。全然見てないので詳しいことはわからないんですが、
Appleのイベントがあったようで、いろいろ発表されてたみたいですが、
その中でちょっと気になったのは、端末とかは話なかったんですかね。
ソフトウェア的な話ばっかりだったのかなと思いますけれども、
Appleのインテリジェンス、これ略してAIって言うんですか。
ちょっとダジャレ的な。ダジャレじゃないか。
まさにApple Intelligenceというね、AI機能みたいなものですかね。
そういうのが、Siriが進化したものということでしょうかね。発表されてました。
これがiPhone、iPad、Macで利用できるものとして、
AIで今ね、ChatGPTとかでやってるようなことができるようになってくるという、
Apple製品にデフォルトで搭載されると。
で、その中にChatGPTの4oモデルですか、ゼロじゃないですね、これ4oですよね。
をちょっと使えるという、ChatGPTのアカウントを持ってなくても無料でChatGPTにアクセスできて使うことができるようになるみたいですね。
なので、Apple製品の中にもAIが含まれるようになるという感じですね。
ちょっと前にね、Appleさん、AIの開発スタート、出足遅れたみたいでどうするのかなと言われてて、
もしかしたらGoogleのGeminiをiPhoneに搭載するんじゃないかなという話もされてた噂あったみたいなんですけれども、
GoogleのGemini
それはならずにChatGPTの方とちょっと連携してという感じになったみたいですね。
Googleの方はAndroidの端末と連携しやすいのかなということで、
ライバル的な感じになってくるんでしょうかね。
最近、みんな知っているのはChatGPTなんですけれども、GoogleのAIの方もGeminiって言うんですけれども、
先日Pro1.5が出たんですかね。これがなかなかすごくて、ちょっと最近使ってるんですけれども。
それのnoteブック、NotebookLMっていうのが日本語利用ができるようになったということで、
ちょっとAppleの話からずれてGoogleのAIの話になってますけれども、
そのnoteブックLMね、LMというのはLanguageモデル、言語モデルですね。
大量のテキストデータから学習して自然言語を理解し生成するAIモデル。
noteブックLMというのがあるんですけれども、それが日本語に対応したと。
これは何かというと、そのnoteブックの中にとりあえず資料をぶっこんで、
資料を読み込んで、いろんなものが読み込めるんですよね。
Googleドキュメント、PDF、テキストファイル、Googleのスライド、あとURL、ウェブからのURLのソースとして読み込めると。
読み込んだものが外とはちょっと断ち切られてる点ですかね。
外部に流れないというか、だから自分専用のAIとして使えるみたいな感じなんですかね。
ちょっとどうやって使っていくのか、まだちょっと触ったぐらいなのでわからないんですけれども。
例えば、地方自治体がいろんなデータありますよね。土地データ、条例とか議会の議事録、そういうニュースとかそういうものを集めて、
AIで出力したものをニュースレターで配布するみたいな、そういう使い方とか、ゲームのRPGの設定の管理とか、
物語、いろいろキャラクターの詳細なデータとか、いろいろデータベースとして管理できるみたいな、そういう使い方もするみたいですね。
一般的に使われてるのはChatGPTのほうなんですけれども、GoogleのGeminiのほうもかなり両力になってきてるので、
今後AppleとGoogleがどうなっていくのか楽しみですね。
そんな感じで今日はAI絡み、AppleのイベントからAIの話をしてみました。
話変わりますけれども、最近noteのほうにもこの日常のおとの音声を書き換えて、
文字起こしから書き換えてnoteのほうに投稿してたりするんですけれども、
この文章も文字起こしをAIに構成してもらってnoteに貼り付けて作業してるんですけれども、
これもChatGPTとGoogle Gemini、両方使っていろいろ試してみてるんですけれども、
日本語の柔らかさみたいなものが強いのはGeminiのほうかなという気はしてますね。
ChatGPTのほうが文面が硬いかなという気がしています。
これもどんどん進化していって、追いついたり追い越されたりしながら進化していくんでしょうけれども、
しばらく使ってみて、また気づいたことがあったらお話ししようかなと思ってますけれども。
noteなんですけれども、以前noteを頻繁に投稿してた頃は月間10万ビューぐらいのビューあったんですけれども、
去年は音声のLISTENを含めて配信投稿してたので、noteのほうがおろそかになってた間にだいぶビュー数が下がってたんですけれども、
最近また投稿を毎日し始めたので、当時の4分の1ぐらい、2万5千ビューぐらいまでは増えてきましたね。
これからまた10万ビューはしんどいかもしれないんですけれども、5万ビューぐらいまでは持っていけるんじゃないかなという気はしています。
音声と文字コンテンツの連携、うまいことAIを使ってやりやすくなったなと思いました。
日常のおとでした。それではまた。