2025-05-02 39:00

847📎余談がすぎる忘備録AIトーク+NotebookLM/Elevenlabs/iPhoneにGEMNI?Apple IntelligenceとAlexa AI(アレクサ+)とか

動画版はSpotifyで「聴くまとめ」を検索!
※リンクはアフィリエイト広告を含みます
✅️動画クリップ抽出AI「videohunt」
https://videohunt.ai/invite/landing?code=NW7N59MA8CQZ&name=S291a2ljaGklMjBUYWthaGFzaGk=
✅️NotebookLM
https://notebooklm.google.com/
✅️Elevenlabs(音声AIサービス)
https://try.elevenlabs.io/xslt0g6h60gj
✅️Notebook LMに渡したイヤホンレビュー動画
【自腹本音レビュー】Soundpeats Air5 Pro🤔1万円以下の最強ワイヤレスイヤホン爆誕?音質/ノイキャン/マイク/アプリ他 サウンドピーツ最新無線イヤホン開封&忖度なし正直レビュー - YouTube https://www.youtube.com/watch?v=pYca3iwmDNY
はじめに
AIサービス「videohunt」
NotebookLMについて
NotebookLM 機能詳細
NotebookLM 音声クオリティ
NotebookLM 難点
NotebookLM 利点
NotebookLM 使用アイデア
Elevenlabsとの比較
NotebookLMからの派生
NotebookLM 他AIとの組み合わせ
AI時代の悩み
NotebookLM 英語版との比較
新製品イヤホン提供について
Google AI「Gemini」のiPhoneへの搭載ニュース
Apple Intelligence 個人的感想
GeminiとApple Intelligence比較
AndroidでのGemini活用
Geminiのポテンシャル
Alexa AI(アレクサ+)への期待
AIデバイスへの期待
YouTubeコメント紹介
NotebookLMぜひ試してほしい
AI時代について
NotebookLMの有用性 (再)
まとめ
#聴くまとめ #AI #時短 #効率化 #NotebookLM #ライフハック #ビジネス #クリエイター #AlexaAI #Elevenlabs #GEMINI
--
✅️YouTube収録/ポッドキャスト/ライブ配信関連機材
🎙️今回の収録機材
マイク:Fifine AM8
Amazon ⁠https://www.amazon.co.jp/dp/B0BVVX5FBD?tag=kt_podcast-22
楽天 ⁠https://a.r10.to/hPmhN6
AliExpress ⁠https://s.click.aliexpress.com/e/_o2c0PgZ
📷️WEBカメラ:Insta360 Link
https://www.amazon.co.jp/shop/kt.pics/list/KUI7D4JMYJF6?ref_=aip_sf_list_spv_ons_mixed_d
📎まとめ:YouTube収録/ポッドキャスト/ライブ配信関連機材
https://www.amazon.co.jp/shop/kt.pics/list/KUI7D4JMYJF6
✅️使用アプリなど
音声編集:Adobe Audition
https://prf.hn/l/eOz1Vdo/
動画編集:Adobe Premiere Pro
https://prf.hn/l/0eQV8V1/
全部入りCreative Cloud
https://prf.hn/l/G9Ja5D5/

--
✅️買ったやつ。ガジェット関連まとめ
Amazonインフルエンサーストア
⁠⁠⁠https://www.amazon.co.jp/shop/kt.pics⁠⁠⁠
Amazonの新機能です。楽天ルームみたいなかんじのやつ。
カテゴリ分けして載せてるので、気になるものあればコメントなどもらえたらポッドキャスト内で紹介します
--
✅️関連SNS
ブログ
⁠⁠https://koukichi-t.com/⁠⁠
Twitter(X)ポッドキャスト用
https://x.com/kiku_matome
Twitter(X)中の人
https://x.com/Koukichi_T
✅️YouTube
ガジェット本音レビューチャンネル
https://www.youtube.com/channel/UCZzl7IurT1V8-HPrF0S07GQ
SNS関連情報チャンネル
https://www.youtube.com/channel/UCkDwn4gZY8VYHAxCkHynTWw
--
この番組はkoukichi_tが、SNS、エンタメ、ガジェットの話題を余談だらけで紹介していくポッドキャスト、まとまらなくてもまとめ「聞くまとめ」です。倍速再生、ながら聞きで情報収集に活用してください⁠⁠
※アフィリエイト広告リンク含みます⁠
以下でも聞けます!「聴くまとめ」で検索!
Apple Podcast/Amazon/YouTube/Spotify

サマリー

今回のエピソードでは、AI関連のサービスやノートブックLMに関する考察が紹介されています。特に、YouTubeのURLを用いた動画ハイライト抽出のサービスがどのようにコンテンツ制作に役立つかが検討されています。また、ノートブックLMの機能やその潜在的な利用法にも触れられています。ポッドキャスト制作におけるAI技術の活用が紹介され、特にノートブックLMの機能が焦点となっています。会話形式のポッドキャストの強みや、AIによる音声生成の質についても議論されています。このエピソードでは、AI技術の新たなトレンドとして「NotebookLM」や「11 Lab」などのサービスが取り上げられ、音声認識技術とAIの進展が話されています。また、最近の「GEMNI」や「Apple Intelligence」との関連にも触れられ、これらの技術が今後どのように進化していくかが考察されています。Apple IntelligenceやGeminiなどのAI技術についての議論が展開され、特にスマートフォンやデバイスにおけるその役割が探求されています。また、ノートブックLMを使ったポッドキャスト化の体験についても触れられています。このエピソードでは、ノートブックLMやAI技術の進化が語られ、特に情報の収集や発信がどれほど手軽になったかが強調されています。さらに、ポッドキャストやAI技術がクリエイター時代の重要なツールであることが述べられています。

収録の趣旨と流れ
こんばんは。2025年5月2日、朝3時頃の収録です。
今回は特にこれといったテーマ決めてはいないんだけど、一応予告編というつもりで収録の解消をしました。
ちょっと目についたところとか、直近に触れていたこと。
ざっくり言うと、やってることに対して煮詰まったので、気分転換的な意味で今収録をしています。
最近触れていたところで、より効率的に収録という意味で一発撮りに改めて切り替えたりはしているわけだけど、
思いついたときに自然な形でただただ話して、もう録画終了してそのままアップするというこの流れの習慣づけというか、
実現できるのか、実行できるのかみたいな確認も含めてというところになります。
今ちょっと完全に回収この後していけるか分からないけど、頭に浮かんだものだけ触れておくと話す内容。
まずは多分ノートブックLM前回のやつについては思うところがあったので、軽く触れると思います。
そして他にAIのサービスで、ざっくり言うと既存の動画、YouTubeのURLとかだったっけな。
かなんかを渡すと自動でハイライトのポイントを抽出してくれる1分ぐらいずつみたいなサービス。
ちょっと軽く触れたので、ちょっと細かいところじゃないけど、こんなことに使えるかなとかここは微妙かなみたいなところ。
ちょっとだけ触れると思います。
その他は普通にツイートしたところとかで気づいたところあればちょっと眺めながら自分でも。
そしてもう1点、新製品の製品提供をいただけるって話になりました。
ちょっとこれは詳細には触れられないんだけど、ざっくりこんな話がありますよぐらいの感覚で話しようと思うので。
ということでよかったら最後までチェックしてみてください。
AIサービスの活用
この番組はKTがSNSアプリの新機能やエンタメガジェットの話題を4段だらけで紹介していく。
まとまらなくてもまとめ。きくまとめです。
倍速再生ながら劇で情報収集に活用してください。
まず1つ目、ちょっと本当に目についたものからやっていこう。
まずちょっとAIのサービスについて触れようと思います。
さっき言ったみたいにURL、例えばYouTubeのURLを渡すとハイライトみたいな感じで、
ここのポイントポイントみたいな感じで動画を分割というか、
例えば1分10秒から2分15秒の間に勝手にタイトルをつけてくれて、
こんな内容だったのがわかるようにしてくれて、
要は後でこのクリップとして投稿する、
例えばショートとかに使うときの素材としていいポイントを選んでくれるみたいな感じのサービスになっています。
ちょっとURLが今、ごめんなさい。今回もビデオポッドキャストだけどちょっと画面は映せていないです。
あれちょっとそのAIのサービスどこ行っちゃったの。どこ行っちゃったかな。
ちょっと記憶にある感じで話をしていこう。
とりあえずURLを渡すとさっき言ったみたいな感じで複数に分割されて、
ずらっとサムネとタイトルが並びます。それぞれ再生することができて、
この部分が切り取られているんだなみたいな確認が取れる感じになっています。
そこからキャプション、ペロップ、英語になっちゃうんだけど、英語の判断ってどうやってしてるのかそういえば。
日本語で話してるのを認識して英語に変えてくれてたかな。ちょっとそこまでごめんなさい。
今パッと分かんないけど。用途は限定されると思うんだけど、
例えば英語の動画に関して海外の情報とかを集めてそれを把握するのに使うとか、
著作権の問題があるからこれを進めるわけではないけど、
要は海外情報を集めてそこの情報をもとにコンテンツを作るとか、
そういうことに活用できるって感じなんじゃないかなと思います。
なので字幕が自動で入ってデザインも簡単に切り替えられる。
ブリューっていうとブリューブリューな感じかな。
ブリューよりもちょっとそのデザインの感じは強いというか、
ブリューよりはちょっとデザイン性は高い。高いってほどのことはないかな。
なんかちょっとアニメーションがつくとかそういう感じの話なんだけど。
あとは、なんだっけな。なんかあったんだよな。
そのURL渡す時点でどういうところをピックアップしてほしいかっていうのを指定して、
多分それに該当する内容でクリップカットしてってくれるみたいな感じができた気がします。
おそらく機能もっといっぱいあると思うんだけど、
ちょっと今パッと浮かばない。ごめんなさい。
ちょっと画面確認できればよかったんだけど、どっか行ってしまった。
どっか行ってしまったってことは、
俺自身はもう色と触れないんじゃないか説があるけど、
履歴を見ればまあなんとかなるか。
最初このサービス何で触れたかっていうと、
今の話だとあんまそんな特徴ないじゃん。
最初ね、ちょっと俺勘違いして、
まある種騙されたというか、俺は勝手に勘違いしただけなんだけど、
そのさ、一昔前からそういう話題ってあって、
実際にできるものも存在は多分してると思うけど、
この一本の長い動画からハイライトシーンだけこう自動カットして、
いい部分だけ集めてくれるみたいな。
なんかそんな機能かと思ったんだよね。
で試したらあれと思ってどうやら違うらしいなっていうことに気づき、
ただまあこれはこれでちょっと用途としては使い道もあるかなっていうところで、
軽く試してみた感じでした。
サービス見つかんなきゃURLも貼れないね。
ちょっと探して見つけて、
あ、出た出た出た。
ごめんなさいちょっと余計な話しちゃったけど、
ちょっともう一回軽く見ます。
今ね目の前にずらっと、
いっぱいサムネイルというか動画再生プレイヤーが並んでいて、
タイトルと時間の区間記載されていて、
何分の動画か。
基本1分長くても今ざっと見る限り1分40秒ぐらい。
でハッシュタグっぽいものもくっついてね。
これ何を意味してるんだハッシュタグって。
ちょっと待ってください。
でここからさっき言ったキャプションを入れたいとか、
このクリップとして切り取る区間もマニュアルでも調整はできます。
そんな感じかな。
そういう言ってしまうと何でもないじゃんってなっちゃう気がするんだけど。
あとは一応他のクリエイターとかユーザーがクリップ作ったものが並んでるのかね。
公開非公開とかの設定があるのか分からんけど、
ここを見る限りは普通にもう著作権とか、
著作権無視だね。
無視というかさっき言ったみたいに他の動画のいいところを
本当にカットするためのサービスみたいな感じになっちゃうので、
今ザッと見てみると、
例えばイーロン・マスクさんが並んでサムネイルで出てたりとか、
あとはまあ普通に海外ドラマなのか映画なのかのワンシーンみたいなのとか、
ライブ映像っぽいものとか、
今目にあるのはブラック・ピンクとか、
あとはアニメのワンシーン、
イカゲームとかもあるね。
あんまり推奨できる感じではないねとは思うけど、
AI関連ってどれもそんな感じだと思うけど、
あとは使えるのとしてはYouTubeのリンクと、
アップロード機能があってこれできたらいいなと思ったんだけど、
要は個人的には最近ビデオポートキャストの形式を撮っているので、
この動画をアップロードして何かいいとこだけ撮ってもらえたら。
というのもSpotifyに少しここ何ヶ月間かの新機能として実装されたのか、
ちょっとしばらく触ってなかったかその間にあったのか、
多分新機能だと思うんだけど、
クリップ機能っていうのがSpotifyにもあります。
言ってみたらショート動画をアップロードできて、
この今回の配信の見どころに関して、
短い何分までいけるのかな、90秒くらいまでいけるのかな、
縦型の動画を投稿する機能があります。
各エピソードに対して投稿登録ができるんだけど、
それを地味にやってて、
そこからなんか流入してきてるような気配もないんだけど、
そもそもSpotifyからって俺全然聞かれないので、
なんだけど聞かれないからこそ、
せっかくビデオポートキャストだしさと思ってちょこちょこやってるんだけど、
そもそもSpotifyからって俺全然聞かれないので、
せっかくビデオポートキャストだしさと思ってちょこちょこやってるんだけど、
そのクリップを1分30秒作るのがちょっと手間じゃん。
YouTubeショートとかみたいに色々考慮してやる必要がないというか、
考慮してやった方がいいんだろうけどもちろん。
最初に引きつくとかやった方がいいんだろうけど、
そこまでのことはなくてもちょっと編集するのも手間だから、
なんかできないかなと思って探して、
たまたまたどり着いたんだ。
でも思ってたものはちょっと違ったっていう。
みたいな感じでした。
ノートブックLMの検討
これは用途は相当限定的だからわかんないけど、
一応リンクは貼っておきます。
確かね、これなんかね招待コードかなんかだと、
えっとね、なんつったっけな。
多分そっから飛んでもらうと、
俺が得する側としては、
そのなんか無料で使える分のトークン、
トークンかなんかが加算されるとかだったかな。
招待された側も何かプラスがあったような、
なかったような。
ちょっと今回一発通りだから修正できないから、
もし何もメリットがなかったらごめんなさい。
俺側だけだったら。
ちょっと今見る間に書いてないかな。
例えばじゃあこっから招待、
招待じゃなくて別に自分で検索して使ってもらうと、
もちろんいいんだけど、
そういう機能も招待でこのトークン、
もともと使える、
分数の記載になってるけど、
上限900分まで稼ぐことができるみたいなのもあるっぽいので、
そこも含めて、
ぜひ気になる方はチェックしてみてください。
続いて、
ノートブックLMについて触れようか。
触れようかっていうほど頭の中は整理できてないんだけど、
前回試してさ、
ちょっと思ったところ、
最後軽く感想は触れたけど、
やっぱすごいなと思って。
これさ、
もし前回の聞いてない人はぜひ聞いてほしいんだけど、
ざっくり言うと、
例えば、
テキスト、
メモ帳にさ、
思ったことをまとめたとするじゃん。
それをコピペでもいいし、
特定のURL、
例えば今調べたいところのURLでもいいし、
YouTubeの動画のURLでもいいし、
それをコピペして、
AIを使ったポッドキャスト制作
その後にボタンだけ押せば、
勝手にポッドキャストは完成してしまう、
っていう感じになります。
ちょっと意味わかんないかもしれないけど、
2人の男女が会話形式で、
その渡したソース、
コピペしたテキストとかURLの内容から、
勝手に会話してくれるんだよね。
聞きたいことであれば、
その情報について2人が会話する形で、
聞いてる人にわかりやすくしてくれる。
これカスタムの指示もできるので、
前回は何も指定することなく、
イヤホンのレビューの動画、
40分くらいのものを渡して、
10分くらいになったのかな。
会話してくれて、
それがめちゃくちゃいい感じ。
何がいい感じか、
聞いてもらうほうが早いんだけど、
845回かな。1回前とりあえず。
とりあえず音声のクオリティがめちゃくちゃいい。
本当にプロの声優さんというか、
ナレーターというか、
ちょっと言い方わかんないけど、
の男女の会話がめちゃくちゃに聞いてるのが、
とりあえず心地いいです。
音質的な意味でめちゃくちゃ心地いい。
そしてイントネーションとかそういうのも、
もうほぼ完璧です。
なんかもうちょっと片言っぽいさ、
ちょっとロボットっぽさってさ、
どうしても出てしまいがちだったりするじゃん。
例えば引き上げに出すと、
11ラボ、11ラブズとかっていうのも、
有名なとこであると思うけど、
結構ひどいと思うんだよね。
なんか調整の仕方でいろいろできるのかもしれないけど、
そういうレベルじゃなくて、
本当にもう人間が喋ってるって思って、
おかしくない。
何も知らないで聞いた人は、
人間が喋ってると思うと思う。
ただしちょっと難点は、
渡されたテキスト情報の
読み方がおかしいところがあって、
実際俺がやったものに関してもね、
明らかにおかしいところ。
なんて言ったっけな、
遮音性に関して、
変な読み方をする。
例えば音読み、訓読みが
違った読み方をされてしまって、
それをね、さも当然かのように
会話をしてるみたいなシーンとかもあるから、
やっぱおかしいところもあるはあるんだけど、
会話形式の利点
ほぼほぼ完璧じゃないかな、あれは。
あとは思ったのが、
レビュー動画を俺が渡したの自体って
40分とかあるわけで、
その中で結構ごちゃごちゃ言いながら、
自腹で買ったもので本音レビューって形。
本音レビューっていうのはどのレビューも変わんないんだけど、
結構ね、
自分だなと思うところが多かったので、
なおかつ40分も時間も、
余計なところとかも、
カットせずにやるって決めてた動画だったので、
なんかね、ダラダラしたり、
ごちゃごちゃ文句だけ言ってるシーンが続いたりとか、
色々あったんだけど、
そういうのを上手いこと、
勝手に作ってくれたポッドキャストの中で、
上手い感じに笑い話に持ってってくれるとか、
ポッドキャストの話にしてる人とかだと
特に分かると思うんだけど、
これね、一人語りの難しさって、
例えばさ、俺はごちゃごちゃ言いがちだったりすると思うけど、
これって、笑いに変わらないんだよね。
俺が自分でさ、
笑いとして、ジョーク要素を後で盛り込んだとしても、
なんか文句を散々言った後にね、
例えば。でもさ、それ聞いてる人ってさ、
なんかもう、この人ってそういう人なんだとか、
そこで終わっちゃうじゃん。
例えば、俺はそういう意図はなかったとしても、
そう捉えられてしまったら終わっちゃうじゃん。
これが二人とかの会話形式だと、
それを笑いに持ってったりとかしてさ、
オブラートに包んだりとかもできるわけじゃん。
これ技術とか色んなテクニックもあるだろうけど。
まあ、そういうとこを意識せずにあえて、
特にレビューの動画、イヤホンに関しては、
思ったまま伝えたから、そういうとこは意識はしてないんだけど、
それを上手い感じにぼかしてくれた。
その二人の会話によって。
なんか例えば、俺が、
ガツガツ、ざっくり文句って言い方をしてしまおう。
言ってたとして、そういう場面があったんだけど、
そこに対して二人の会話の中で、
レビュアーさんは、
なんて言ったっけな。
レビュアーさんはすごいイライラしていたみたいですね、
みたいな言い方をして、
笑うシーンとかも盛り込んでたりとか。
あとは、
こういう風に色々話したけど、
最終的に、
ポイントは何なのかっていうところを、
40分のダラダラだからさ、
あんままとめきれてなかったりとか、
各パートパートでもそうだし、
最終的なまとめとしても、
適当に終わらせちゃった感じがあったんだよね。
っていうのを投稿した後に思っていたら、
その二人のポッドキャストの会話の中で、
綺麗に最後にまとめてくれて。
だから、それを聞いてしまうと、
卵が先か、
鶏が先か問題がね、
すごい頭の中で堂々巡りするようになってきてしまって。
例えば、
前回そのポッドキャストの音声を聞いたときに、
何を思ったかっていうと、
なんかさ、この形式、
こんだけ綺麗にまとめてくれるんであれば、
例えば、
今まさしく話しているこのポッドキャストの音声でもいいし、
例えば配信しないものでもいいからさ、
音声で、
もうざっくり、
何かに対して、
対象はもちろんポッドキャストなり、
動画なり、
コンテンツ作りにあたってのテーマはもちろん決める必要があるけど、
何でもいいけど、
例えば、
じゃあ、最近買ったカップラーメンについて、
リア、
それを向こうに、配信とかしなくてもいいから、
録音だけして、ごちゃごちゃごちゃごちゃ、
思ったまま喋るじゃん。
喋ってその録音データを、
ノートブックLMに投げる。
そうすると、その俺がダラダラ喋ったことを、
綺麗にまとめて、
会話してくれることになるわけじゃん。
そう、さっきから言ってる通り。
前回の聞いてもらえば、より分かりやすいと思うんだけど。
そう、で、こうすることによって、
俺が前回やったことに関して、
作ってくれた、
そのやりとりを聞いてる限り、
普通にね、視聴者側が気になるポイントに関しての、
問いかけ、
Q&Aっていう会話形式で作ってくれてるんだよね。
男の人と女の人で、
どっちかが、
それってどういうことですか?みたいな。
とか、どんな特徴があるんですか?とか聞いたことに関して、
もう一人の女の人の方が、
例えば回答するとか、こういう特徴があって、
こういう特徴があって、そこに対してレビューアーさんは、
こういう意見だったみたいですよ、みたいな。
感じで話が展開していくんだけど。
要は、この受け答えのQ&Aの
ポイントになるところを、勝手に拾って作ってくれるわけよ。
だから、つまりは、
適当にもだらだら喋ったことから、
綺麗にそれを、
目次形式でまとめてくれるというか、
ポイントになる、
その視聴者に対して、
見せるべきところのポイントを、
明確に、その会話形式で作ってくれるから、
頭の中にも入ってきやすい。
それを言っちゃうとさ、例えばさ、
録音データでもいいし、
適当に文章を打って、
JAT GPTとかに渡してさ、
これで台本作ってくださいとかっていうやり方だと、
もちろんできるわけだけど、
なんかね、これが音声っていうところ、
それこそさ、
後々こういう風に活用するとかっていうのを、
そんな想定していない状態で作った、
もうだらだら話したレビューが、
あんなに綺麗にまとまってるっていうところ、
そしてなおかつクオリティが高いっていうところで、
なんかね、ちょっとね、
そういうところにも頭がいきました。
つまりは、本当に適当な素材を
自分で用意して、それを
Notebook LMでポッドキャストにしてもらうことによって、
自分自身が
完全な一視聴者、
プラス自分のさ、作った
元の素材があるわけだから、
そこの知識も把握しながらの状態だから、
より、なんだろうな、
コンテンツとして作るときの
ポイントになるところが明確化していくみたいな
パンチを受けました。
AIの活用方法
で、こうするとさ、
そこからさらに、
このNotebook LMの
この出来上がったポッドキャスト、
他にいろいろ活用ができるわけじゃん。
それこそ分かりやすい例でさ、
そのまんま動画とかポッドキャストとして
配信するっていうのも手だろうし、
そこにいろんなものを加えて、
例えば、映像を加えるとか、
アバターに喋らせるように、
リプシンクさせるとか、
いろんな活用方法あると思うんだけど、
こういうことを考えると、
行き場があまりにも
無限にありすぎて、
Notebook LMにたどり着いたところから、
この枝分かれがものすごいわけよ。
こっちの方向もできるし、
こっちの方向もできるしってなると、
Notebook LMが素材、
大元は俺の素材があったわけだけど、
そこに対してNotebook LMも
素材であり、みたいな感じになると、
ぐるぐるぐるぐる一周していってしまって、
派生もしてくんだけど、
その分戻ってきちゃうんだよね。
戻ってくるというか、
ブラッシュアップ的なものも含めてなんだけど、
その後、どこがスタート地点かがわからない
というふうになってしまう。
例えば、Notebook LMに渡す情報に関してだって、
さっき俺がだらだら喋った音声データ
っていう話はしたけど、
別にそれってさ、
だらだら喋った内容をGPTに渡して
AI技術の進展
まとめてもらったものかなっていう手だって
あるわけじゃん。やり方いろいろありすぎて、
あとは並行して、
さっき話した11 Labっていうものだと、
そっちも音声が使えるサービスなので、
例えばこの2つ組み合わせることで、
昨日かな、ツイートしたもの、
具体的にツイートしたもので言うと、
組み合わせたものはツイートしてないか。
11 Labってほうも
YouTubeのURL渡すことで、
そのまま会話形式のものは作ってくれます。
で、精度が、精度というかね、
クオリティがなったときに、
Notebook LMのほうがよかったって話は
ツイートしたんだけど、
その後に試したものが、
Notebook LMの音声データを
11 Labに読み込ませたのかな。
で、これをやると
何ができるかっていうと、
11 Labがあって、ボイスチェンジャーとかの
機能が使えるので、
例えばさっきの男女が会話してるってところの
男、女っていうふうに、
字幕で文字起こししたもの、
もう一回文字起こしする形になるんだけど、
ずらっと並んで、そこに対して
11 Lab側の音声を割り当てることができます。
例えば男性のところには、
例えばいっぱいキャラクターがいるんだけどさ、
例えばクリス。
で、じゃあ女性のところには、
メアリーみたいに割り当てて、
で、それを割り当てることによって、
その役割ごとに、
男女だったのが、
メアリーと何とか、
交互に、
11 Labが利用されている
音声に置き換わって、
読み上げてくる、
ごめんなさい、
途切れちゃった。
あれになっちゃった。
スリープになってしまったので、
途切れてたと思う。
こんな感じで、
音声の置換ができます。
もっと言うと、
これは俺自身の声に置き換えることもできるんだけど、
その11 Labのサービスの中で、
俺自身の声録音とか、
それこそ素材として
Podcastとかの音声をアップロードするとか、
認識してもらって、
そこから、
文字打ってさ、
音声に変えるなんてサービスいろいろあるじゃん。
要はそれ。
それみたいなこと。
文字データを、
11 Labが、
ノートブックLMで作ったやつを、
結局文字起こしする形にして、
さっき言ったみたいに差し替えていく。
ただ、これに関しては、
やっぱり日本語が弱くて、
明らかにおかしな感じになっちゃう。
イントネーションが明らかにおかしくなっちゃうから、
あんまり現実的ではないな、
っていうことはあるんだけど、
今言ったみたいに、
ノートブックLMってところから、
11 Labってそっちに派生することもできるし、
11 Labってさ、
決まった声でしかできないので、
そこに対して、
ノートブックLMは決まった男女のその声しかないので、
今後機能増えていくかもしれないけど、
そこに対して、
やりようによっては、
11 Lab側でできる。
やりようによるか。
もし間違ったらごめんなさい。
一応試したら試したんだけど。
なんかみたいなところがあって、
結局さ、この11 Labを、
ごちゃなってる。
11 Labでできあがったものが、
また素材になるっていうところで、
本当にね、
各ポイントポイントやるものやるもので、
起点にすべてがなってしまって、
すべてがそこから枝分かれして、
いろんな方にさ、
可能性があるから、
収集がつかないんだよね。
新製品の話題
でも本当、
このAIの時代だから、
ちょっと軽く試して答えがわかるから、
まだ救いだよね。
本当にさ、
今回のノートブックLMだとさ、
コピペをURLコピペしてボタンを押すだけでも、
答えがわかるわけじゃん。
これが一昔前。
4年前とかでもいいと思うけど、
その時だったら、
1回試すのにもさ、
試すことっていうのが結構調べ物をして、
こうやればこれが試せるみたいに調べてさ、
実際やってみて、
ダメだったとか、
微妙だなとか、
上手くいったみたいなことで、
その上でもう1回戻って、
じゃあ別のパターン試してみるかとかって、
そういうことになるわけじゃん。
そうではなく、今の時代は本当に簡単に試して、
答えが結果がわかるから。
だからその分あれか。
枝分かりしすぎて全部試してくるってなると、
本当に無数になってしまうからっていうとか、
悩みでもあるのかもしれないけど。
あとは、
後でふと思ったのが、
事前に英語版、
もともとこれ日本語の対応が昨日あたりから始まったって話だったんだけど、
昨日とか一昨日になるか。
ノートブックLMの話。
ダンジョンの時に軽く触ってて、
現実的な使い道あまりないよなって。
英語でボッドキャストが出来上がってしまうので。
ダンジョンのやつが。
でね、思ったけど、
日本語版だったら、あの機能がないね。
多分俺ちゃんと試せてないんだけど、
英語版の時って、
2人の会話でボッドキャスト作ってくれた上で、
元のソースに対して、
そこにね、
自分が加わるみたいな機能があったね。
言ってみたらさ、
微かな記憶だけど、
自分が話をして、
音声データに対して回答してくれるのかね。
ボッドキャストに混ざれるみたいなことなのかな。
ちょっとね、
やろうとしてたことに対して、
機能を試そう、
何だろうと思って押したらそれになっちゃった。
試さないまま終わっちゃったから、
どういう機能なのかまだ把握はしてないんだけど。
その機能に関しては日本語版はありませんでした。
まだ言語の壁というか、
新機能、
新要素として、
日本語が始まったばっかりなので、
これからいずれ対話するんだろうけど。
ちょっとノートブックLMに関しては、
そんな感じです。
続いて、
ちょっと頭に浮かぶ順に、
ちょっとグダグダになってしまって、
ごめんなさい。
何も整理ができていない。
じゃあ先に、
新たに製品提供という話に関して、
ここに関しては、
そんな細かいところ触れるわけには、
現状いかないんだけど、
とりあえずまたイヤホンの話になります。
ちょっと楽しみかなという。
一応、
こういう話し方をしているというのが、
僕はひとつ言うけど、
新製品、
今後日本展開するという言い方がいいのかな。
新製品という話で、
そのイヤホンのジャンル的にも、
触ったことはあるんだけど、
めちゃくちゃ安いものしか、
俺触ったことがないジャンルになります。
そこの価格的には、
わりと普段俺が触れているような、
話に挙げているような価格帯じゃないもの。
価格だけ考えると、
ちょっと高め。
ハードルは高いかなと思う。
感じのものなので、
いろんな意味で、
ちょっと興味深い感じになります。
なので、
その製品に関しては、
しばらく試した上で、
新製品として今後、
日本展開するってことだと思うので、
そこに合わせて、
試しに使っていってみるって感じになると思うので、
このぐらいにしておこう、
ここに関しては。
とりあえずこの辺りは、
どのぐらい期間があるかわからないけど、
いずれ、そんな遠くないうちに、
実際に、
情報として、動画として公開。
そしてポッドキャスト側でも、
いつも通り、
さっきのビデオをポッドキャストにしちゃってるから、
どっちにしても動画になるのか。
Spotify側では映像は映さずに、
音声での案内になるかもしれないけど、
使用感を話したりとか、
気づいたところ、
GEMNIとApple Intelligence
ニュースで上がっていたのが、
Googleが、
自社生成AIを
iPhoneに搭載。
年内合意へ。
日本経済新聞みたいに上がっています。
飛んでも中身が
読めなかったんだよな。
今の時間帯だったら、
この情報出た後に時間経過してるから、
もしかしたら他のメディアが、
内容載せた記事も上がってるかもしれないけど、
どうだろう。
ちょっとYahooニュース飛んでみます。
めっちゃさっき言った
シンプル。
疑問だったのは、自社開発の
生成AIをiPhoneに搭載って、
ジェミニのことでしょ。
ジェミニ搭載ってどういう意味を。
思いつつ、
共同通信の内容を見たんだけど、
まんまのことしか書いてない。
ジェミニをAppleのiPhoneに搭載することをめぐり。
どういうことかね。
OSレベルで組み込むみたいなこと?
そんなことある?
なんかさ、散々さ、
あのー、
独占禁止法じゃないけどさ、
そこら辺の絡みかなんかでさ、
明確な俺、情報把握してないけど、
昔からがあったよね。
例えばGoogleだったら、
Androidだったら、検索窓がGoogleなのが問題だとかさ、
Appleだったら、
何があったっけか。
デフォルトのブラウザがSafariなのが
どうこうとかそういう話だったっけ。
なんかあると思うけど。
それを、ちょっと覚えてないけど。
買えろとか、やめろとか。
他のサービスを使えるようにするとか、
なんだかよく分からんけど、
そんな感じの話題ってよくあると思います。
そういう絡みなのかね。
そう考えると、
全然分かんないけど、
ジェミニをさ、iPhoneに搭載するでしょ。
アプリなんて当然今使えるわけじゃん。
AI技術の比較
搭載ってことは何?
知理的なこと?
知理的な存在としてジェミニを使わせろって、
そういうこと?ろなのか。
なんだか分かんないけど、
お互い競技をしているって話なんだけど。
あれかなや。
6000均衝とかそういう絡みで、
お互いが歩み寄って、
うまいことをごまかそう、
ぼかそう的な意味合いであるのかな。
このさ、2社がさ、
もう断然強いわけじゃん。
スマホで考えたら。
デバイスレベルで言うと。
OSレベルか。
ここがお互いに譲り合って、
例えばさ、逆にAndroid側にSiriを搭載。
Siriって言い方として合ってるか分かんないけど、
Apple Intelligenceって言い方の方が正しいかもしれないけど。
そんなことがあるか分かんない。
そんな話は何も俺目にしてなくて、
今勝手に思いついたこと言ってるだけだから。
そういう風にさ、お互いで半分ずつ、
その機能を搭載とかすればさ、
そのなんかね、
独占してるどうこうみたいな、
ちゃんとした取り決めとか俺知らんから。
そんなで解決するわけないでしょってことなのかもしれないけど。
なんだろうね。
そんな話は終わってるみたいです。
うーん。
ここに関して今思いつきで言うと、
Apple Intelligenceは、
個人的に今使ってるとこだと、
うーん。
そんなな。
本当にね、ちょっとしたところ。
このまま触れたかもしれないけど、
それこそAIに触れる機会とかがない人。
AIって触られてるけど、
自分が触ることないだろうなと思ってるような人たちが、
ごくごく日常的に、
自然体でいつの間にか触れて、
AIを使うことが意識することなく、
AIを使ってるって認識すらなく、
触れているっていうような、
世界にどんどんどんどん、
そういう形に変わっていくと思うので、
そういう意味合いではApple Intelligenceってのは、
大きな意味があるんだろうけど、
個人的に何かをしようと思って、
っていう感じじゃないな。
要はクリエイティブな感じではない。
っていう風に個人的にはちょっと感じていて。
やろうと思えばいろいろ使い道あるんだろうけどさ、
なんか画像作るさ、
プレイグラウンド?プレイグラウンズ?
みたいなのさ、
まあ言ってみたら、絵のタッチとかもさ、
トイス的なもの、なんかいじれるのかな?
まあ細かくいじる気もないけど、
試しにもうブログ、
ワードプレスのアプリ上でその機能を使って、
画像すぐ作れて、
アップロードの手間とかなくさ、
そのままもう埋め込みというか、
ソースコードごと、勝手に生成イコールアップロードされた状態で
使えるから、
それ試したりはしてたんだけど、
まあ使い勝手悪いかな、画像生成に関しては、
わけやからものばっかり出てきて、
思った通りのもの全然出てこないし。
あとちょっとしたもので使ってみると、
本当にあれだね、
YouTubeショートとかTikTokとかさ、
ツイートするとかのときに、
どっちかっていうと繰り返しで
使うようなコンテンツか、
例えば個人的にやってるものだと、
YouTubeショートとかTikTokとかでもいいけど、
テンプレ的に使う文言が、
毎日繰り返しで使うような文言があって、
それを辞書登録してあるか、
それを呼び出して、
毎日のように同じ文言を使うわけだけど、
基本そうなんだけど、
まったく同じじゃあれなのでと思って、
手作業で直したりとか、
そういうこともあったけど、
他のAI使うまでするようなことでもないんだよね。
毎日の本当にルーティン的な感じだから。
ルーティンだからこそ、
同じ文章ばっかりあふれたからまずいっていう話でもあるんだけど、
そういうときに、
Apple Intelligenceの作文ツールとか、
ちょっとニュアンス、
リライトだよね、
してくれるとかっていうのは、
役に立つと言えば役に立つけど、
なんか特筆すべきところではないというか、
だからめっちゃいいよっていうようなことでもないな、
みたいな感じなんだよな。
そこに対して、
Geminiは、
Geminiって言うとさ、
Geminiのサービスの方が先にあるじゃん。
これ人によるかもしれないけど、
俺はAndroidベースでどうこうって頭がそもそも
あんまりないから、
Geminiっていうサービス自体は普通に
Webブラウザからパソコンで使ってるって前提があるからかもしれないけど、
Geminiは普通に便利じゃん。
言ってみたら、
Chat GPTとか、
言ってみたらChat GPTとかのレベルで
使えるわけで、
Apple Intelligenceに関してそういう感覚は個人的にはないので、
かといってAndroid自体は
スマホは持ってるけど、
Androidはメインで使ってないから、
あえて使うぐらいの使い方しかしてないので、
Androidに関しては。
日常的な使い方、
メールチェックとか、
SNSチェックとかのレベルでもAndroidは使ってないので、
だからAndroidベースでGeminiを活用して、
さっきのApple Intelligenceの使い勝手と比較して
何かどうこう言えるわけではないんだけど、
どっちかとしたらやっぱGeminiってさ、
本気で使おうと思ったら使えるじゃん。
Apple Intelligenceも本気で使おうとしたら
使えることはいろいろあるのかもしれないけど、
あくまで端末ベースの
お助け機能みたいな感じのところでしか
ないような、
Siriがちょっと賢くなったかなぐらいの
感覚でしかないんだよね。
Notebook LMの活用
そこの延長線上みたいな。
Geminiはそういうことではないので、
Googleアシスタントがあった上で、
バカがめちゃくちゃスマートになったみたいな。
バカって言ったら怒られそう。
今後控えてるものとしては、
ちょっと今回の件と関係ないけどさ、
アレクサめっちゃバカじゃん。
マジバカじゃん。
反応すんなこの野郎。
それがさ、もっと賢くなる日が
いつか来るんだろうなと思いながら
過去に話したこともあると思うけど。
それが今の現状ってどういう展開まで来てるか
わかんないけど、結構昔の話でさ、
サブスク版で
普通に今AIって考えて
頭に浮かぶようなGeminiとか
ちょっとGPTとか
そういうレベルの音声で対応できるものが
サブスクでって話はなかったっけか。
別の話でも、そもそも昔からあったのかな。
そもそもサブスク版が用意されるみたいな。
わかんないけど、どっちにしても
AIからの話だよね。
そこの展開はちょっと期待かなっていう。
ちょっと思ってます。
端末依存のものとかだったらさ、
別に手だったりさ、音声入力とかさ、
何でもいいけど、いろいろやりようがあるじゃん。
でもさ、そのやつの場合はさ、
なんかほんとに手を使って
音声入力とかさ、
そのやつの場合はさ、
デバイスとして存在していて、
そいつに話しかけたときに、
まともな答えは返ってこねーや、
指示したことまともにできねーや、
ほんと腹立つから。
それがスマートに動いてくれるようになったら、
それが一番いいかもな。
一番いいでしょって言い方違うな。
言ってみたらAppleの、
Apple Intelligence的な、
どっちかといったらGeminiに比べると、
Apple Intelligenceに近い用途ではあるんだけど、
なんかもう、
独立したもんだから、スマホとは切り離されてるし、
パソコンとも切り離されてるから、
そういう見合いでは、
AIっていうところでの進化があったら、
めちゃくちゃその、
なんか恩恵が感じられそうかな、
っていうのをちょっと思いました。
はい、
みたいなところで、
その他なんかあったかな?
なんかごちゃごちゃとあった気はするんだけど、
ちょっとパッと、
頭に浮かばないので、
んーと眺めてみると、
あとは、
あ、あれか。
今日ね、YouTubeのコメントのほうで、
933、いつもありがとうございます。
コメントをいただきました。
ちょっと読みます。
これの動画コメントをもらったのが、
前回のNotebook LMで
ポドキャスト化した元になっている、
そのSoundPeats Air 5 Proっていう
レビューの動画、
コメントをいただきました。
これのNotebook LM使ったバージョンを聞きました。
すごいですよね。
このNotebook LM、私も早速ブログを
ポドキャスト化したんですが、
感動しました。とのことです。
コメントありがとうございます。
いやーマジね、これはヤバい。
ブログのポドキャスト化とかって
めちゃくちゃいいと思うし、
俺は動画でやったっていうのはあるけど、
文章だってもちろんできるわけだし、
かなり有効活用できるんじゃないかなと、
思います。
感動しましたってめちゃくちゃ感動するわ。
試してない人はぜひ試してほしいです。
AIへの期待と展望
なんかさ、こういうの耳にした目にしてもさ、
例えばブックマークして終わりとか、
今度やろうと思って結局やんないとかってことって
結構多いと思うんだよね。
特にAIってさ、情報が氾濫してるから、
俺自身も全部なんて全然ささわれずに、
なんか時間だけ経っちゃってるものとかって
多いんだけど、
これに関しては何もややこしいこと一切ないので、
実際試そうとすると何手間かあったりとかって
割とあったりするじゃん。
例えばメールアドレスで登録して、
ここ押して、ここ押して、これをやってみたいなこと。
何手間か大した手間じゃなくても。
ただこのNotebook LMはめちゃくちゃシンプルで、
ログイン自体はまずGoogleアカウント使えるので、
Googleアカウント以外何に使えるかちょっと覚えてないけど、
Googleのサービスなので当然だけど、
Googleアカウントでログインして、
例えばYouTubeなり、
自分のブログの記事なりのURLをコピペして、
ボタン押して、
それで終わりなので、
ボタン2回くらい押すかもしれないけど、
ソースを渡して、
ポッドキャスト化するボタンを押すだけで
勝手に作ってくれるから、
もう本当にシンプル。
だからついついそういう風に触れようと思いつつ、
ツルしてしまってるっていう人に関しては、
これはね、
本当にシンプルに試して、
衝撃をめちゃくちゃ感じられるものなので、
ぜひぜひ試してみてほしいです。
なんか本当にあれだね、
なんかさ、
ここ1年、
ずっと前から言ってるけど、
さらにAIで拍車かかってきてるけど、
全人類クリエイター時代みたいな表現が、
本当にふさわしい時代になってきたし、
全てもう本当に、
ここ4年とかで言ったことがさ、
全部本当に現実になってきてしまってるっていうやばさ。
事後不老不死とかもそうだけど、
TikTok的な事後、
事後的なそういう意味合いで
捉えるんじゃなくて、
単純に言葉のまま、
不老不死が、
後でSNS上のデータとかを集めることによって、
その人物を控えらせることができる。
本当に控えるわけじゃないけど、
まぁ普通にわかるよね。
まぁ後で、
バーチャル上のクローンだったら作れてしまう。
なんかさ、
前とか俺がそんな話してた時代とかだったらさ、
事前にクローンを、
バーチャルのクローンを作るために事前に、
じゃあ録音したデータを取っておかなきゃいけないよねとか、
その口調とかを把握しておく
なんかデータ、素材を用意しておかなきゃいけないとか、
なんかさ、
例えばTwitterとかのデータもあると思うけど、
そういうことしとかなきゃいけないよねって
話だったんだけど、それがさ、
本当にここ最近のでさ、
見た目に関しても動画が残ってる、
そこから勝手に口パクリップシンクできるわけで、
とか、
なんかいろんなことが、他にもね、
最近思うことがあったのよな、
過去にこれ話してたなつったのが、
これももう実現できちゃってんじゃんみたいな。
そう。
まあね、なんかこの本当にいろんな情報が
話していて、全部完全に把握してくってのは
相当難しいと思うけど、
どっかのタイミングで、
例えば本当にAI全然触れてない人とかって中にはいるのかもしれないので、
ポッドキャストとかね、聞いてる人とかってのは
基本的には情報感度高いと思うし、
試すタイミングってのはポイントは多いと思うんだけど、
俺はこんなこと言わなくても。
なんか耳に入れる目に入れるだけで
試せてないって人は、なんかちょっときっかけとして
このノートブックLMはめちゃくちゃ入りやすいと思う。
そして本当に衝撃を
実感しやすいから、
これ本当にいろんなことに使えて、
自分の情報収集用にも使えるしさ、
例えば、もう全部だめだ。
もう頭の中がちょっと
氾濫してきた。
昔これこれ言ってたのがもう実現できるっていう
話に関して、
この説明は抜きとしても、
例えば海外の情報とかだってさ、
抜きとしてて英語の情報としてね、
それを日本語でサポートできやすいようにしてもらえれば
そう。
さっきから言ってるみたいにめちゃくちゃ高クオリティな感じの
男女の会話で、分かりやすい感じで
耳に入ってくる状態に
できるわけで、
今まで得られなかった情報っていうのが
めちゃくちゃ
ダイレクトな感じ、音声として
把握しやすい感じで手に入られるので、
これを触れない手はないと思う。
クリエイター時代の到来
そしてなおかつクリエイターとして
動いていくにあたっても、
これを素材としていろいろできるわけだから、
情報収集もそうだし情報発信、
インプットにもアウトプットにも
両方とも本当に手軽にできるので、
みたいなところで、
とりあえず終わりにしよう。
なんかいつも短くやろうと思っても
38分経ってるんだよな。
本当今回グダグダになってると思うけど、
一応編集はしないつもりで
いるので、めちゃくちゃグダグダだったと思うけど、
ちょっとごめんなさい。
もしかしたら編集するかもしれないけど、
あまりにもひどければ。
ということで今回は以上となります。
本当に予告編だと思ってやったのにな。
こんな感じでちょこちょこ配信
今後も継続できればと思うので、
よかったらフォローなどお願いします。
さよなら。
39:00

コメント

スクロール