案件YouTube内マッチンング🤑ブランドとクリエイター繋ぐ収益化新機能+字幕で世界でバズる?/AIクローンとリアルの狭間
2026-03-25 43:56

案件YouTube内マッチンング🤑ブランドとクリエイター繋ぐ収益化新機能+字幕で世界でバズる?/AIクローンとリアルの狭間

動画版はSpotifyで「聴くまとめ」を検索!YouTubeにおける収益化と企業案件の在り方を根本から変える「YouTubeクリエイターパートナーシップ」の全容が公開されました。Googleの生成AIである「Gemini」を基盤に据え、広告主が自社ブランドに最適なクリエイターをデータに基づき自動選定する新時代のマッチングシステムが導入されます。本コンテンツでは、クリエイターが自ら案件に応募できる「オープンコール」の仕組みや、収益化の新たな境界線となる「登録者500人」の壁、さらには「Claude」や「MacBook Pro」を駆使した自律型コンテンツ制作の未来について、KT氏が実体験を交えて網羅的に解説します。Google 広告(DV360)とYouTube Studioの統合がもたらすメリットから、TRNやFIFINEといった具体的なガジェットを活用した検証、そして日本市場を越えて世界を狙う「越境クリエイター」としての生存戦略まで、YouTube運営者が辞書として活用すべき最新情報を凝縮してお届けします。 ※アフィリエイトリンク含みます


YouTube、ブランドコラボを本気で標準化しに。チャンネル運営者には案件獲得の追い風、広告主にはクリエイター選定・YouTube Shorts展開・効果測定の効率化。YouTube Creator Partnerships、かなり重要アップデート https://x.com/Koukichi_T/status/2036274399410790867?s=20


✅️使用中AIサービス

音声クローンAI:Fish Audio

https://fish.audio/?aff=QLO4F7WRJEUDC

音声クローンAI:Elevenlabs

https://try.elevenlabs.io/xslt0g6h60gj

自立型AI「MANUS」

https://manus.im/invitation/8USCAUUP8MR4H

AI音声入力:Aqua Voice

https://withaqua.com/share?code=KT-N5GK


✅詳細チャプター(目次)

【YouTube収益化】新時代の到来とブランド直接交渉の解禁

【KT】挨拶とYouTube収益化の新機能「オープンコール」の背景

【Spotifyビデオポッドキャスト】映像版「聞くまとめ」の案内

【オープンコール】ブランドによる動画募集とクリエイターの応募・報酬体系

【YouTubeクリエイターパートナーシップ】旧ブランドコネクトの刷新と標準化の狙い

【広告主のメリット】クリエイター選定、YouTubeショート展開、効果測定の効率化

【Gemini】Google AIによる最適なクリエイター選定の完全自動化

【AI分析】視聴者の類似性、ブランドへの自然な言及、成長率のデータ化

【統合プラットフォーム】Google 広告(DV360)とYouTube Studioの連携

【プロフィールカード】登録者数、平均視聴数、エンゲージメント率の可視化

【Jasper / Genspark】AIによるページ内容のリアルタイム把握と要約

【Comet】ブラウザ拡張機能を用いたAIボイスアシスタントの活用法

【マッチング精度】YouTubeパートナープログラム(YPP)による情報共有の利点

【アナリティクス共有】チャンネル分析情報の公開設定とブランドへの露出増

【TRN Dolphin】イヤホンメーカー提供案件とコラボ機能の実践例

【コラボ機能】動画へのロゴ併記と相手チャンネルへの誘導・承認プロセス

【Hyype(ハイプ)】登録者500人から解放される新しい応援リアクション

【収益化ボーダーライン】登録者500人と1000人の機能差とYPP参加権

【Super Thanks】推し活を加速させるランキング形式の応援ポイント

【収益化機能一覧】スパチャ、メンバーシップ、視聴分配の解放条件

【MacBook Air】Appleトレンドに乗ったチャンネル成長戦略の事例

【グローバル戦略】日本国内の限界と海外ブランドから直接仕事を得る手法

【オートダビング】AIによる自動吹き替えとインプレッションの相関関係

【アルゴリズムの柔軟性】多言語字幕がもたらすグローバルバズの可能性

【Claude(クロード)】AIによるPC自律操作と動画編集の自動化

【MacBook Pro M4/M5】次世代ハードウェアとAIエージェントの融合

【Mac for Win】新チャンネルコンセプトとプロセスエコノミーの実践

【FIFINE K688】マイク音質比較と低音強調による声質の変化

【AIボイスクローン】自らの声をAI化することによる制作の効率化と羞恥心の払拭

【API / MCPサーバー】AIの記憶データ接続と自律型台本生成の裏側


■YouTubeクリエイターパートナーシップ:企業案件の民主化

YouTubeは、これまで一部のトップクリエイター向けだった「YouTubeブランドコネクト」を刷新し、全てのYPP(YouTubeパートナープログラム)参加者に向けた「YouTubeクリエイターパートナーシップ」を始動させました。このアップデートの核心は、ブランド(企業)とクリエイターがプラットフォーム上で直接繋がり、透明性の高い案件のやり取りが可能になる点にあります。特に注目される【オープンコール】機能では、企業が「このような動画を作ってほしい」と公募を出し、条件に合うクリエイターがYouTube Studioから直接提案・応募できる仕組みを提供します。


■Google AI「Gemini」が主導するデータ駆動型マッチング

この新システムを支えるのは、Googleの最新AI【Gemini】です。広告主は、膨大なクリエイターデータベースの中から、自社製品に最適な候補をAIによって即座に抽出できます。Geminiは、単なる登録者数だけでなく、クリエイターが過去に特定のブランドへどのように言及しているか、視聴者の属性がブランドのターゲットとどの程度一致しているか、さらにはエンゲージメントの成長率までを分析します。クリエイター側はプロフィールカードを通じて、平均視聴回数やエンゲージメント率といった実績を正確にアピールでき、データに基づいた公平な選定が行われるようになります。


■収益化の第一関門:登録者500人の壁を越える戦略

YouTube運営において、登録者500人は極めて重要な節目です。この段階で、視聴者からの直接支援を受ける機能が多数解放されます。

・Hyype(ハイプ):新時代の応援リアクションで、注目度を高める機能

・Super Thanks(スーパーサンクス):投稿から1週間以内の動画に対し、ポイントを付与してランキング化する仕組み

・チャンネルメンバーシップ:月額支援によるファンコミュニティの形成

・スーパーチャット(スパチャ):ライブ配信中の投げ銭機能

KT氏は、これらの機能を早期に解放し、チャンネルインサイトを共有設定にすることで、ブランドの検索結果に表示される回数が平均60%増加するという驚異的なデータを提示しています。


■AIエージェントとハードウェアの進化による自律型制作

制作環境においては、AIの進化が「人間の代行」から「自律的な作業」へとシフトしています。AnthropicのAI【Claude】が搭載する「コンピューターユーズ」機能により、AIがPremiere ProやDaVinci Resolveを操作して動画を編集する未来が現実味を帯びています。また、最新の【MacBook Pro】(M4/M5チップ搭載モデル)を、これらのAIエージェントを動かす物理基盤として位置づけ、寝ている間に動画を自動生成させる「プロセスエコノミー」の構築についても議論されています。


■グローバル市場への挑戦:オートダビングと越境案件

日本国内市場の飽和を見越し、KT氏は【オートダビング(自動吹き替え)】と多言語字幕による世界展開の重要性を説いています。YouTubeのアルゴリズムが、日本語の動画を自動で多言語化して海外の視聴者に届ける仕組みを強化している現在、字幕の有無が再生数の桁を変える決定的な要因となります。Apple製品のような世界共通のニーズを持つテーマを選び、AIボイスクローンを用いて英語圏や他の言語圏へ発信することで、日本にいながら海外ブランドからの案件を直接獲得する「越境クリエイター」としての道が開かれます。


#YouTube収益化 #企業案件 #YouTubeクリエイターパートナーシップ #Google広告 #ボイスクローン #ポッドキャスト #YouTubeStudio #YouTube #SNSマーケティング #クリエイター


感想

まだ感想はありません。最初の1件を書きましょう!

00:00
YouTube収益化新時代の到来です。 YouTube内でブランドとクリエイターが直接交渉して、案件のやりとりができるようになるようです。
ケイティーです。 以前から触れていたYouTubeの収益化機能の一つ、オープンコールとかで過去に話をしました。
その絡みで、YouTube内で例えばブランドや企業が案件の募集をして、そこにクリエイターが応募するとか、
その他、逆にクリエイターからアピールするみたいなこともできるみたいな話を目にしたような感じだったんだけど、
ちょっと相まる部分もあるんだけど、今回新しい情報が上がってきたので、実際に公式の方の情報を確認しながら話をしようと思います。
今回は久しぶりにSpotifyビデオポッドキャストの方には映像という形式で動画としてアップロードしているので、
Spotifyに行って耳編の聞くまとめと検索してもらうと出てくるので、今聞いてもらっていると同じタイトルのものをチェックしてください。
具体的に、とりあえずツイートした内容をそのまま読んでいます。続報、きた、オープンコール関連。
このオープンコールというのは冒頭でも触れたみたいなものの、それとは直接関係ないんだけど、今回話すものの機能の中にオープンコールってものがあると考えてください。
過去に触れた、例えばブランドがこんな動画を作ってと募集を出す。チャンネルから提案・応募が可能に。採用された動画は広く広告として配信&報酬ゲットみたいな感じです。
まだ日本ではほとんど知られていない新しい企業とクリエイターコラボの仕組み。今後範囲拡大予定。はい、2025年7月にポッドキャストでも話をしました。
そして今回上がってきたのが、YouTubeのブランドコラボを本気で標準化しに来たみたいな話で、チャンネル運営者には案件獲得の追い風、広告主にはクリエイター選定、YouTubeショート展開、効果測定の効率化、YouTubeクリエイターパートナーシップというものの発表があったようです。
かなり重要なアップデートとなります。公式関連のアカウントが追投していて、スクショとかも画面に載せてたんだけど、なんか発表会か何かがあったのかな、YouTubeの今後の展開に関する。もうちょっと箇条書きでまとめたものがあるので、こちらもちょっと読み上げてみます。
まずこれね重要なまさしくAI時代っていうところの象徴のような機能なんだけど、もうおなじみのGemini、GoogleのAI、GPTのチャッピーみたいなもんだよね。Google版のGemini。Geminiで最適なYouTubeクリエイター選定をAI化。
2つ目、視聴者一致自然なブランド言及成長率を分析。3つ目、オープンコールだけでなく発見から提案から効果測定を統合。4つ目、YouTubeのブランド連携は案件化前提からAI基盤へ。
ちょっとこれAIにまとめさせたので、なんかニュアンスおかしかったりするのもあると思うんだけど、なんとなく伝わるでしょうか。逆に分かりづらくなったかな。とりあえずまず音声だけで聞いている人に分かりやすく伝えると、先にサイト飛ぶか、公式のブログのほうに飛びます。
03:14
とりあえずまず広告主観点から考えると、自社で扱っている商品に最適なクリエイターを探しやすくなるって感じで、今画面見てもらうと分かりやすいんだけど、クリエイターの検索とかができる感じになります。
検索したりとかすると、クリエイターの名前がずらっと上がってきて、プロフィールカードみたいなのがずらっと上がってきて、フォロワー数とか、チャンネル登録者数とか、平均視聴数とか、エンゲージメントリストとか、ずらっと並びます、プロフィール簡易なものが表示されたり、ここから選定できるって形になると思います。
なのでおそらく普通にマニュアルで検索かけてってこともできると思うんだけど、そこに対してさっき言ったような感じで、ジェミニーにマッチするクリエイターを探してみたいなことを頼んで、クリエイターを絞り込んでくれるみたいなことじゃないかと思います。
ブログにがっつり記事が書かれているので、気になる方は飛んでチェックしてもらえれば、もっとより明確な、ちょっと今回の俺の曖昧な知識と英語もわかんない中で伝えているので、ニュアンス間違ってたりとか全く違うなんてことはないとも言えないので、気になる方はきちんと自分の目で確認をしてみてください。
これ概要欄にURLを貼ります。そしてちょっと合わせて、もうちょっとじゃあ俺の言葉で話していってもあれなので、ちょっとここでコメットの音声アシスタント登場してもらおう。この前もコメットの話したけど伝え忘れたというか、例えばサイドバーにブラウザのところに常駐してなんていろいろあると思うけど、今だったらもうこういうものいっぱいあるのかな、コメットで使っちゃってるかわかんないけど、今閲覧しているページの内容を把握した上で回答してくれます。
例えば最近使っているものはジェンスパークのサイドバーの拡張機能とかあるんだけど、あれってなんかね、常時見ててくれるわけじゃないんだよね。逆にわかりづらくなっちゃうかな。ちょっと待ってください。
例えば、じゃあ今右下テキストエリア今見えてないんだけど、この内容を要約して過剰書きで、今音声入力を俺はしました。これはジェンスパークスピークで使ってます。で確定して今送信しました。で回答が今サイドバーで返ってきています。コメット、このAIから。
でずらっと文章が書かれているんだけど、ざっくり読むと、ブランドコネクトがYouTubeクリエイターパートナーシップに解消され、クリエイター側はYouTubeスタジオ、広告主側はGoogle広告、DEV360から直接使える統合プラットフォームになる。ジェミニを使って視聴者の類似性、ブランドの自然言及、登録者水位など膨大なデータからブランドに最適なクリエイター候補を自動提案する仕組みを提供。
つまりこのページの中身をリアルタイムで把握した上で回答してくれます。だからねめちゃくちゃありがたいよね。疑問があった時にさ、いちいちさ、これこれこういう内容ってコヒペとかしたりするじゃん、普通チャットGPとかあったら。そうじゃなくてもうページを見ててくれるので。
06:09
例えばさっきちょっと触れたジェンスパークの拡張機能とかも似たような感じなんだけど、ジェンスパークは直接リアルタイムで見てるわけじゃなくて、なんか確認をしようと思ってチャット欄に打つとその後に自動操作するような感じでスクロールしたりして中を見てくれる。逆に言うとジェンスパークのやつ、そちらだったらCometの有料版の方で使えるのと同じで、自動で例えば買い物とかもボタンを押させたりとかもできます。
その操作をジェンスパークが能力を発動して、俺が問いかけたタイミングで能力を発動して中身を調べに行ってみたいな感じになります。
コメントの紹介も含んじゃったけど、コメントこれ俺めっちゃ今活用してるので、今ちょうどここにずらっと書いてくれたね色々。ちょっと俺読むのめんどくさいので、これボイスアシスタントも使えるので。
このボイスアシスタントが今音声にピコンってなったと思うけど、この前試したみたいに会話形式にできるんだけど、ページの内容をさっきのサイドバーと同じで把握した上で書いてくれます。ちょっとバカっぽい感じなんだけど、このページの中のクリエイター側にとって重要な案件獲得とかに繋がりそうな点、そこをピックアップした上で予約して内容を教えて。
クリエイター側に重要なポイントは、ブランドとのマッチングがしやすくなることです。クリエイターにとって重要なのは、YouTube Creator Partnershipsという新しい仕組みで、ブランドが自分のチャンネル情報を共有すると検索結果で見つかりやすくなること。複数ブランドへの問い合わせが簡単になり、案件に繋がりやすくなる点です。
聞いてくれてる方に対しても、この伝えたいとかもあってというかで言うけど、今AIが多分俺の言ってることが間違ってれば指摘してくれると思うので、もともと去年あたりからこのPodcastでも触れたけど、アナリティクスの分析情報の共有って機能が備わりました。
いくつかの段階を踏んでるものがあったりするから、俺も明確に把握はしてないんだけど、とりあえずチャンネルの設定でその分析の共有っていうのをオンにしておくと、言ってみたら広告主とかからそのアナリティクスの情報が見えるような形になるっていう感じでいいんじゃないかなと思います。
チャンネルの全体像としてのアナリティクスが公開される感じで、個別の動画のめちゃくちゃ詳細なデータが渡されるってことではおそらくないんじゃないかなと思います。
その詳細なデータを渡すパターンっていうのは、動画特定の動画に対して広告主が広告として使わせてくれっていうリクエストするやつあると思うけど、それで許可した場合に中身見えたりとか、あと最近だとコラボレーション機能、広告主とか関係ないけど、他のクリエイターとコラボっていう形でチャンネルの動画のアイコンのところに2人分アイコンが並んだりとか、見たことある人もいると思うけど。
09:04
あの形式の時に分析情報を共有するってことができます。
俺自身で最近使ったのだと、イヤホン関連のメーカーさんから提供を受けた時のやつで、ちょこちょこやりとりがあって、YouTubeのチャンネル側を紹介して欲しいみたいに言われたことがありました。
俺が流したところで流れるわけでもないんだけど、ある種世間話的な流れの中でみたいな感じにしすぎないんだけど。
で、実際にTRNっていうメーカーのYouTubeのチャンネルコラボ形式であって、せっかくだからと思って、完全にこっち主導で誘導というかリンク貼ったりしてくれないかってTwitterとかで言われたんだけど、
じゃあだったらコラボ機能使ったらいいんじゃんと思って、設定して招待したので、承認用のリンクコードが発行されるので、それを相手に渡さなきゃいけないの。
システム化されてない感じでちょっとアナログなんだけど、向こうのメーカーの方に渡して、そしたら向こうが承認してくれて、つまりその状態で俺の動画のところに相手のTRNのメーカーのロゴも並んで、そっちにも飛びやすくなるじゃん。
プラス、どうせせっかくだからと思って分析情報も共有するって形にして、向こうにも見てもらえるようにしたみたいなことをしました。
今のはちょっと今回の件とは別の話になってしまうけど、その分析情報を見せるっていうところ、今の各動画単位っていうのは別としても分析の共有っていうのをオンにしておかないと、
つまり今回言っているこの機能、まだ実装されたわけではないと思うんだけど、ブランドが検索した時の引っかかる検索対象に上がりづらくなるってことだと思います。
当然、分析の情報を上げていった方がそのチャンネルの属性とかいろんなものが分かると思うから、例えばどこまで公開されるのか分からないけど、ざっくり考えても視聴者属性として男性とか女性とか年代ぐらいは普通に公開されそうなもんじゃん。
めっちゃシンプルに考えてね。
ってなった時に、例えば年齢層で検索をブランド側がかけているのにその情報を公開していなかったら分かりようがないじゃん。
なんか別の軸で何か判定ある程度されて引っかかるには引っかかるものなのかとかちょっと分からないけど、そこら辺どうなの?
ブランド側は公開されている分析情報を参考にすることはあっても、非公開の情報までは把握できません。
ですので、年齢や性別などをブランドに知ってもらうには、クリエイター側でその分析情報を公開する必要があります。
各動画の細かいアナリティクスまではその分析情報の共有だけでは見られないっていう認識でいい?
その認識でほぼあっています。
チャンネル全体の概要データは共有できても、個別の動画の詳細な分析までは相手には見えません。
詳しく見せたい場合は別途権限を与えるような仕組みやコラボ機能を使う必要があるようです。
俺が言ったまんまだけど、あれだよね。普通に動画単位の広告主にアナリティクスへの権限を渡すみたいな別の機能でやる必要があるってことだよね。
個別動画単位でやらなきゃいけないってことだよね。
12:01
その通り、チャンネル全体の分析長を言うと、個別動画の詳細データを広告主に渡すのは別扱いです。
個別データを見せたい場合は、その動画ごとに権限を付与する設定が必要になります。
まあそういうことっぽいです。
一応他に特徴がないところを読んでみると、300万越えのYPP参加クリエイターの中から、
YouTubeの収益化機能ってことかな、YPP、YouTubeパートナープログラムか、
の中からチャンネルインサイトを共有しているクリエイターは検索結果で表裏される回数が平均60%増加しており、
より精度の高いマーチングが可能になる。だから公開しなきゃ損だってことだね。
プラス、YPP参加つってるから収益化ができてなきゃ対象外ってことか。
これはそこら辺の意味合いで早くやるべきだよね。
広告収益っていうところを狙うっていうのってさ、なかなか難しいね。
なんて言い方したらいいかな。
そこの軸以外で収益化する方法として、普通に案件を受けるってところを目的とした場合にも、
この人数が集まってないとその収益化対象、500人のところで参加権を得られるのかね、
1000人いかなきゃダメなのかな、この件に関しては。
今って500人から収益化対象になると思うんだけど。
まさしくあれだ、話ちょっとそれるけど、バジェット本音レビューが今400人超えたところで、
なんかまだ500人にいかないとさ、まずハイプ機能が使えない。
下告状ハイプ、下告状ハイプ通りよく言ってんだけど。
ハイプ機能っていうのをまず知らない人もいるかもしれないので、少し前に実装された機能なんだけど、
通常の高評価とかコメントとかの機能とは別に応援するような機能が備わりました。
いやちょっとハイプ機能に関して説明して、視聴者側でできることとか制約とかも含めて。
ハイプ機能は視聴者がクリエイターの動画に対して通常の高評価やコメントに加えて、
より強く応援の気持ちを示すアメの新しいリアクション機能です。
視聴者は動画上でハイプを送ることでクリエイターを後押しでき、
その数や反応はクリエイター側にフィードバックされます。
制約としては、ハイプ機能は一定の登録者数を超えたチャンネルでのみ利用可能で、
まだ全チャンネルに開放されているわけではありません。
いやその対象、クリエイター側の制限としては、
それがYouTubeパートナープログラムの500人以上、
あ、YouTubeパートナープログラムはイコールになるか。
500人以上チャンネル登録者がいないと使えないって話だった気がします。
まずここ合ってる?
はい、その認識で合っています。
じゃあ教えてよ、俺がいちいちこんなこと言わなくこそくしなくてもさ。
で重要なのは、要は押し勝つにつながるってことです。
でもちょっと俺説明者は説明してくれなかったから。
でそのハイプ機能っていうのがなんかね、
UIしょっちゅう変わっちゃって、
今どう表示されているかわかんないんだけど、
まず、じゃあ例えばさ、自分が押してるチャンネルがあったとして、
そのクリエイターさんが動画を投稿して、
1週間という期限内でしかハイプはできないってことだったと思います。
でなおかつ視聴者側は、
そのね、ハイプってものをすると何になるかっていうと、
ポイントがそのクリエイターに対して付与できます。
15:00
応援ポイントを上げることができます。
何ポイント付与しましたみたいな感じで出たかな?
でそれをやると、
それをその例えば今聞いてるあなたが応援したときに、
他の視聴者さんたちもみんな応援したりするわけ。
同じように応援ができるの。
でみんなのポイントを合算した上で、
YouTube上のランキングでポイントでランキング付けがされて、
っていうみたいな感じになってます。
でざっくり言うと、
チャンネル規模とかがちっちゃい方が、
ポイントの数が多いのかな?
ちゃんとした言い方できないけど、
チャンネルがでかければでかいほど、
その影響を受けづらいんだって。
で、そのでかいんだったらさ、
もうそもそもランキング上位に、
じゃあ簡単にいっちゃうじゃんって話になっちゃうから、
ちっちゃいものにこそチャンスが与えられるってシステムになってるので、
そのちっちゃい、
もうそれこそさ、
こっから、
なんか今なら個3みたいな感じでさ、
こっから押してこうみたいな対象がいたとするじゃん。
そういう時には積極的にその早くやってあげると、
ランキングでポイントが上がって、
ポイントが増えやすいというか、
多くの人が協力してくんなきゃダメなわけだけど、
本当にファンの活性化っていうところ、
クリエイター側からしたら、
そこが重要になるところであるんだけど、
そういう意味合いで、
俺は間もなく500人に到達するから、
だから極上ハイプみたいな言い方をしてんの。
別にそのさ、
ハイプしてもらえるかはわかんないよ。
わかんないけど、
なんかね、最近ね、
結構YouTubeのなんかデータがちょっといい感じというか、
結構再生されてるんだよね。
ちっちゃい割に。
で、だから500人まで行くって、
なんかね、
ちょっと前まで3百何十人とかだったの。
で、まだちょっと先だなと思ったんだけど、
それがApple関連とかの兼ね合いもあったりとか、
TRNのイヤホンの絡みで急にね、
ちょっと一気に増えて、
400何人だっけな、
430何人ぐらいまで来たんだよな。
あと70人って、
今のこのAppleの流れとか乗ったら、
たぶん500人はすぐ行けるんじゃないかな、
みたいな状況にあります。
ま、一個これは余談として、
俺自身がそういう状況にあって、
だからリアルタイムにこの件に関しては、
実際にいろいろ騒いながら、
話はまた今後していけると思うので。
はい、で、そこの500人というハイプのさ、
ボーダーラインクリエイターからしたときの、
これと同じ500人っていうところに、
第一段階の収益化機能っていうものの
ボーダーラインがあります。
このボーダーライン500人超えると何だったっけか。
スパチャの開放と、
あとは面子メンバーシップの開放と、
あと何があったっけ、
コミュニティ機能?
コミュニティ機能は関係ないか。
今みんな使えるか。
YouTubeの収益化は、
チャンネル登録者が500人を超えた時点で、
スーパーチャット、スーパースティッカーズ、
チャンネルメンバーシップ、
YouTubeプレミアム視聴分配などが
利用可能になります。
これによって、
クリエイターはライブ配信で、
視聴者から直接支援を受けたり、
メンバーシップで定期収益。
じゃあ、ちょっと別の話になっちゃうけど、
そっか、つまりYouTubeスタジオに、
このクリエイターパートナーシップっていう機能が、
実装されて、
クリエイター側はそこから使えるって、
そういうことだっけか。
はい、その通りです。
YouTubeスタジオ内で、
YouTubeクリエイターパートナーシップという、
新しいプラットフォームが導入され、
クリエイター側は、
そこからブランドとのコラボ機会を見つけたり、
18:02
やり取りしたり。
これめっちゃいいよね。
もともとさ、
もう昔から言ってたさ、
俺がちょっとそこを、
なんか目指してるというか、
そういう話にしてたとこに、
一気に近づいたなっていう感じがあって。
あとね、もう一個ね、
ここの絡みで、
俺がもともと狙ってたとこって、
海外のブランドとかメーカーというとこなわけよ。
そのさ、
日本国、
言い方悪いかもしんないけど、
そのYouTubeに限らないけどさ、
大体って日本にしか目向けてないじゃん。
勝手にこうやらかかってやるパターンとかっていうのは、
あるかもしんないけど。
例えば、
まあそうだな、
そのIMとかさ、
写真の時に話したみたいにさ、
あそこら辺もさ、
海外から仕事もらったりとか、
受賞したりとかっていうのも、
そのやってる人間がいないっていうところを、
狙ってやってたわけよ。
で、今って、
まあそんでもない、
あんまりここに目を向けてる人ってまだいないと思うので、
で、プラスね、
今回の件、
これまだ実装されてないんだけど、
まずこの件に関して知ってる人って限りないし、
限りなく少ないと思うし、
日本じゃ、
もう、
まあ上がったかな。
昨日の朝方にこのニュース知って、
昔からさ、
ポッドキャスト聞いてくれてる人はわかると思うけど、
その日本国内に全く上がってこない情報って、
俺割と提供してたじゃん。
今もニュース検索しても出てこないので、
まあこれすぐさ、
日本で実装されるとかそういう話じゃないから、
まあ早く知ったとこでどうにもならない話ってあるんだけど、
まあ今の流れで考えたらいずれ日本には来ると思うので、
知っておいて悪いことはないというか、
早めに備えておいて、
マイナスはないと思うので、
まあつったってあれか。
去年の夏頃に言ってた話がまだ実装されてないんだから、
そんな早く知ったって無駄じゃんってことになっちゃうかもしんないんだけど、
でもその頃から色々とYouTube側のアルゴリズムとかも変わってきて、
オートダビング機能ってとこからね、
そのね、
今までと違って、
過去、
過去ってさ、
俺別にその特化したチャンネルやったことあるわけじゃないから、
予想ってところも含んでるんだけど、
グローバルを、
変にグローバルを狙おうとして海外ね、
日本語で発信してるところに対して、
変に海外向けの要素を色々盛り込んでったとするじゃん。
なんか例えばさ、
英語の字幕を入れるとか、
字幕って画面上に入れるとかね、
まあ別に字幕機能を使ってもいいんだけど、
なんかそれ変なことをしちゃうと、
逆にYouTubeのアルゴリズム側が、
これってどこにおすすめすればいいの?って迷って、
結局、例えばさ、
あ、じゃあなんか英語でいっぱい書いてるか、
じゃあ英語圏にちょっとやってみるかってお試しでやったらするじゃん。
普段日本なのに。
でも英語の方にあっても、
本質的なところができてないから、
日本語で喋ってるとかさ。
だから、
英語圏から行った時に、
なんだこれ内容わからんじゃんって、
終わっちゃうケースってのがあったと思うんだよね。
そうなると、
結局反応とかが悪いから、
YouTubeは、
あ、違うんだってなって、
ちょっとおすすめするのやめようってなって、
全然インプレッションも得られなくなるみたいなことがあるから、
怖いっていう状況だったわけよ。
そう。
それがオートダビングとか、
あとは、
昔からこれ言ってる字幕は検索結果にちゃんと引っかかってるよって話。
実際にテキストとして引っかかってるって話とかも、
上げた時期とかもあったけど、
今となったら当たり前の話かもしんないけど、
で、
そこの流れが出てきたところからか、
この前ちらっと言ったVlogで字幕入れただけで、
大爆発してるみたいなケースがあって、
無言動画ね。
そう。
ここが何を表してるかっていうと、
さっき言ったみたいな、
昔だったら、
21:00
日本のチャンネルにも関わらず、
変に海外向けにちょっとアレンジした感じでやっちゃうと、
さっき言ったみたいにアルゴリズムが迷っちゃって、
おかしなことになっちゃう。
チャンネルが壊れるみたいな言い方よくされたりするけど、
それが、
最近はちょっと違うんじゃないかなっていう、
ちょっとそういう節を感じます。
とは言っても、
がっつり日本の形式で運営しているチャンネルが、
手を加えていって、
どこまで影響があるかっていうのはわからないんだけど、
さっき言ったみたいに、
グローバルでいきなりバズったVlogとか、
そういう系のものってさ、
元々が、
例えば無言でやってるんだったらさ、
対象ってグローバルだっておかしくないわけじゃん。
そういう前提があった上でっていうのもあるのかもしれないけど、
字幕を入れた途端にバズり始めたっていうのを、
何件これ見てんの。
一個に関しては、
ちょっとね、
ちょっとした絡みでアドバイスをしたのね。
ちょっとコマゴマと。
そしたら、
なんかね、
ちょこちょこ手を加えてるんだ、
メニュー入ってたんだけど、
そんなに親しいわけじゃないからさ、
なんとなく伝えた後にたまに眺めてるぐらいで、
俺が伝えたことと違うことやってるなとか、
そんなこと思いながらだったんだけど、
ある時ね、
3桁の再生。
なんか全然さ、
素人みたいな編集なんだけど、
3桁回ってんのもすごいんだけど、
それがね、
いきなり4桁再生になってたの。
で、見たら、
一応アドバイスとして伝えた字幕を入れるとか、
概要欄にタイムスタンプでとか、
基本的なことなんだけど、
そこプラス、
強めに言ったのは字幕?
字幕機能ってとこ言ったんだけど、
そこから急に回ってんだよね。
桁が変わって。
その後の動画ってまだ見てないから、
たまたまだってことがあってもおかしくはないんだけど、
みたいな状況があって。
つまり、
さっきも言ったみたいに、
現時点が日本向けに完全に動いている中で、
そこからどれだけ影響が出るかわからないけど、
そもそもグローバルを狙っているものから始めていて、
狙っているというか、
たまたまでもグローバルでも見てもらえるような状況。
わかりやすいさっき言ったみたいな無言の動画とかね。
チャンネルとか。
そういう状況だったら、
昔に比べて、
よりアルゴリズムの元々だったら、
おかしな方向に行っちゃいかねなかったことが、
ある程度、
アルゴリズム側が柔軟に対応してくれるようになっているんじゃないかな、
というのをちょっと思っています。
つまり、
オートダビング機能で、
自動で吹き返して、
海外に日本の動画を届けようとしているわけじゃん。
だから許容範囲が広がったというか、
ある種。
だから、
例えば前だったら、
これ反応ないからダメじゃんっていう、
区切っていたものが、
それはYouTube側の機能として、
オートダビングとかも含めて、
こういう反応が日本語のものを吹き返して、
他の海外に見せた時にどういう反応が得られるかっていうのは、
当然アルゴリズム側は学習をしているわけじゃん。
だからそこら辺の差事加減というか、
これ反応がなかったなっていうボーダーラインとかも、
ボーダーラインなんて明確なものではないだろうけど、
ある程度柔軟に判定をしてくれるようになっているんじゃないかと思っているので。
だから、
今めちゃくちゃそこが狙い目で、
いろいろやるべきところがある。
なおかつ、
さっき言ったみたいに、
この案件とか、
収益化の方向もグローバルに、
あんまり、
それこそ、
越境案件。
越境案件なんて言わないか。
日本と国の垣根を越えて、
そこから仕事をもらうなんてのも、
めちゃくちゃやりやすくなってるわけじゃん。
AIとかそういうレベルも考えて。
YouTubeなんてでっかいプラットフォームが、
24:00
そういう方向に進んだというのであれば、
さっき言ったみたいなアルゴリズム的な方面と、
そこが柔軟になっているってところと、
ここの案件獲得とかそういうところが、
うまくマッチして、
この2026、2027とかっていうのは、
大きく動くんじゃないかなっていうのを思っている最中です。
だからそういう意味でね、
今自分で考えていること的にも、
ちょうどいい方向にあるものがあって、
それがまさしくあれだね、
このまま触れた、
わけのわからんチャンネル、
Apple専門の、
マックアンチはApple死んじゃう夢見るか。
名前まだ決めてないけど。
これちょっとね、
もともと想定していたのに忘れてしまって、
今回のMacBook Neonの流れでさ、
日本で普通に検索とかで来やすくて、
流れができているから、
ちょっと一瞬で見失ってしまっていたんだけど、
もともとグローバルっていうところを狙ってやろうって、
そういうふうに考えていたところがありました。
そのためにMac4Winなんていう言葉にもしているわけだけど、
Apple製品だったらさ、
グローバル対象で何ら問題がないじゃん。
むしろ問題がないどころか、
もうベストでしょ。
ベストマッチ的な感じじゃん。
そう、それをふと思って、
あ、そうだ、そっか、
じゃあメインの言語は英語にすんのもありかなとか、
後にしたってそんなさ、
積極的に、
うん、ま、わからんけど、
別に俺が英語で喋ろうと考えてとか、
そういうわけじゃないんだけど、
オートダビング機能とか、
もう自分で吹き替えにしちゃって、
英語版を作るとか、
別に俺の声じゃなくたっていいかもしれないし、
ちょっとそれを考えながらやろうかなというところです。
で、うまい具合にさ、
いろいろさ、こう時代的にマッチするタイミングだよね。
そのAIの発達ってところプラス、
クラウドコワークとかさ、
えーと、あれ、
今日言ったらなんだっけ、
コンピューターユーズじゃなくて、
なんか、クロ、
クロード、クロード、
クロードがさ、ものすごい勢いで、
毎日のように進化しているわけが今。
やってみたら、
みたいなものって思ってください。
ちょ、言い方違うかな。
クロードがやばいやばいって言って、
俺はその、例えばコーディングとかするのにも、
アプリ作ったりとかするのにも、
Googleのアンチグラビティを使ってるわけ。
で、クロードのほうを使うには別で、
料金払わなきゃいけないかどうしようみたいな、
このまま話をしてたりしたと思うんだけど、
ちょっとね、いよいよね、ちょうどいいタイミングだなって。
で、今まさしく、
昨日発表されたやつっていうのが、
最近さ、オープンクローだとか、
えーと、ジェンスパーククローとかも、
ジェンスパーククローはちょっと違うか。
PCを1台渡して、
その中でAIがもう自発的、自律的に、
勝手に作業してくれるみたいな話って聞くと思います。
それの、それがね、
えーと、クロードで簡単にできるみたいなやつ。
が、昨日発表されたんだよね。
で、料金体系とかもよくわかってないんだけど。
普通に、まあ、
うんと、レート、リミットが来たら
使えなくなるってだけなのかもしれないけど。
だから具体的に何ができるかっていうと、
今日上がってたのとか、
あと、もう普通にPCに指示をして、
動画編集をしてください。
っていう動画編集をしてくださいっていうのは、
過去に言ってたみたいな、
リモーションとかを使ってやるとか、
そういう話ではなく、
プレミアプロを使ってとか、
ダビンチリゾルゴを使って編集してくださいっていう指示で、
できちゃうらしいわけよ。
ただ時間はめちゃくちゃかかるから、
何回か、
ここ最近の見せたかもしんないけどさ、
見せてないっけ。
その、ブラウザを自動操作する、
みたいな件をさっき触れたみたいなもんさ、
めっちゃ時間かかるわけ。
それと同じように迷いながらやったりとか、
やたら時間もたつくから、
27:00
めちゃめちゃ効率的ってわけじゃないんだけど、
単純にさ、
例えば寝てる間とか、
風呂に入ってる間とか、
走りに行ってる間に、
勝手にやっといてくれるなら、
何も悪いことないじゃん。
単純なただの手間。
手間にしかならないものなんでさ、
やってくれるんだったら、
もうありがたいでしかないじゃん。
そう、それが、
ようやくちょっと俺もね、
迷ってたとこがあったんだけど、
なんかいろんなとこにサーバースクール課金してさ、
みたいなのもある中、
ここを削ってじゃないと、
こっちは手出したくないなとか、
思ってて、
クロードもそんな感じだったんだけど、
ちょうどタイミングいいので、
で、プラスもう一個タイミングとしてはさ、
MacBook Neoあるわけじゃん。
非力ではあるけど、
とりあえずはまあ動くのかな、
ちょっとちゃんと確認してないけど、
多分まあ300M5もあるから、
そっちでやらせればいいんだけど、
ちょうどいいなと思って。
で、MacBook Neoと、
クロードのそのなんか、
自律的にさ、
動いてくれるやつって、
これもさ、
そのMac for Winの方で、
コンテンツにもなるわ。
ね、面白くない?
それこそさ、
あのー、
その1台MacBook Neoを使って、
プロセスエコノミー的に、
なんか、
稼げるのかみたいなのさ、
この物理的なもの、
ガジェット、
しかもその対象が人気のMacBook Neo、
今旬の。
ものと、
AI側でも、
まさに旬のクロード。
で、自動化して、
金稼ぐなんてさ、
めっちゃなんかワクワクしない?
で、チャンネルのコンセプトとしては、
まさしくそこなので、
売るか、
極めるか。
もうその各動画の頭は、
売るか極めるかにしようかなって、
今ちょっと思ってるとこなんだけど。
この前上げたMacBook Neoの中で、
ちょっと映したシーンの、
言葉を変えたバージョン。
そう。
でも普通にね、
もう共感性っていうところ、
もう全ての要素、
全ての要素っていうか、
もう、
反応を得るための全てを盛り込んだ感じに
しようと思っていて、
このチャンネルに関しては。
そう。
まあそれが、
上手くいくのか、
いかないのかは分からんよ。
ここまでの感じで、
この自分のさ、
KTって形でやってってことは、
やったことないし、
なんか自分の感情も混ざっちゃうじゃん、
これ系って。
全くさ、
関係ない、
それこそ、
人が関わってないような、
なんかAIが勝手に動画、
上げてる?
なんていうんだ?
分からん。
分からんけど、
まあ俺が登場しないものの類とさ、
違ってさ、
俺が、
自分自身が登場するってさ、
今聞いててもらったら分かる通り、
自分の熱量とか感情が入っちゃうじゃん。
こういう風に進めた方がいいのは、
100%、
120%分かってるけど、
そうできないのが、
自分でやることなわけよ。
ちょっと悪くない。
まあいいや。
もうちょっとね、
いろいろね、
こうね、
ぴったり来てる感じだから、
逆に言うと、
やることがいっぱいこう、
頭の中に浮かんでしまって、
なんかうまく整理しないと、
全部手が止まっちゃいそうな瞬間ってのがあるから、
っていうのはあるんだけど、
今回のね、
これはね、
Mac for Winに関してと、
ガジェットホネレビューも今、
いい感じに動いてるってのがあるから、
ちょっとね、
そっちに寄せて、
ちょっとしばらくやってみようと思います。
まあそのやった結果とか、
どうなってるかっていうのは、
まさしく、
あのあれだね、
さっきの、
MacBookね、
みたいなAIを使ってみたら、
プロセス好み的なのと、
とはまあ違うけど、
この聞くまとめの中では、
そういうところも、
リアルなところとして、
まあ話として伝えていければなと思うので、
ニュース話しながら、
間に挟んだり、
最後の方に伝えたりとか、
っていう形で撮ろうかと思うので、
はい、
ということで、
ちょっと言ったり来たりしたけど、
大丈夫かな、
YouTubeのこの件、
ちゃんと話終わったかな、
まあ、
備えておきましょうとか、
頭に入れておきましょうぐらいの感じと、
30:00
グローバルを狙うっていうのは、
あのー、
ちょっとね、
大きな、
一つの、
ポイントとしてあるんじゃないかなって、
多分新チャンネルでやった方がいいね、
やるんなら、
俺はだからそういう意味でも、
そういうのね、
ずっと思ったの、
ガジェット本音レビューは、
グローバルも一応どことなく、
頭に入れた上で動いたものだから、
やりようがあるからいいんだけど、
そうだね、
うん、
一からやった方が、
まだ、
どん、
何のチャンネルかって、
YouTubeのアルゴリズムに認識されてない状態だから、
あの、
まっさらな状態からやるっていうのは、
ある種プラスに働くんじゃないかなって、
まさしくその、
マックフォービン、
アップル専用専門チャンネルの方、
やろうとしてるところで、
ちょっと感じたところでした。
ここちょっと楽しみだな、
俺も楽しみだわ、
ここで話すのも楽しみだし、
どう転ぶのか、
結局なんか全然ダメなんじゃんって、
話になるかもしんないけど、
ちょっとね、
いろいろ試して、
また話はできればと思うので、
はい、
ということで今回は以上となります。
今回初めて聞いてくれた方は、
耳編の聞くまとめ、
耳編の聞くまとめと、
記憶していってもらえると、
いつでも、
検索とかで戻ってこられるので、
よかったら、
耳編の聞くまとめと、
記憶しておいてください。
やべ、
今回ちょっと忘れた、
ちょっとね、
もう一個ね、
裏テーマが2つありました。
1つは、
前回触れた、
オーディオインターフェースを使って、
マイク使ったって話で、
ほんとね、
前回使ったマイクは、
ファイファイのK688ってやつでした。
声が、
低音がより強調されちゃうから、
俺の声質とかだと、
なんか潰れてるように感じて、
微妙って言ってたんだけど、
オーディオインターフェースを、
使った時に、
そっちの方が、
なんかいいのかなと思ったから、
昨日は使ったんだね。
昨日ってあれか、
AIのやつ、
読み上げのやつで、
一個間に入れちゃったけど、
そう、
で、
もう一個、
ファイファイので持ってる、
もっと安いやつなんだけどさ、
マイク。
こっちの方が、
俺の声質、
声が低い人とかだったら、
クリアに、
ある程度通る感じで、
聞こえるんじゃないかなって、
このマイクを今回は使っています。
はい、
で、
もう一個ね、
裏テーマがあったな、
もう失敗したわ。
失敗したって無理だよな、
今回みたいに、
途中で熱量入って、
話し始めちゃったら、
もうアウトだから、
あれなんだけど、
前回のやつ、
聞いてもらえたでしょうか。
さっき言ったみたいに、
AIKTと、
最近は名乗ってないけど、
AIに、
俺の声で読み上げさせた、
この、
フィッシュオーディオっていうのを、
あの、
AIのサービスを使ってやってて、
まあ、
俺ではないんだけど、
ちょっと、
気持ち悪い感じ、
ではあるんだけど、
ちょっとセリフっぽい感じでさ、
喋ってる感じとか、
やたら抑揚とか、
強弱をつける感じが、
キモッと思いながら、
聞いてるんだけど、
なんかね、
確認を取ったわけじゃないか、
分かんないんだけど、
俺自身が喋るのよりも、
反応がいいんじゃないかなってのを、
結構思っています。
最近。
最近だと、
そのYouTubeに上げた、
MacBook Neoの、
うんと、
レビューというか、
その動画に関しては、
フルAIボイスです。
俺の、
俺の声を使ったボイスクローンのみ。
俺の声は一切入ってなかったような気がするね。
途中どっか一箇所ぐらい入ってるかな。
ぐらい、
ほぼほぼAIの声で作ってます。
それもセリフっぽいシーンとかが、
たくさんあるんだけど、
自分では絶対それできないわけよ。
仮にさ、
いい感じのセリフが言えたとしてね、
あのー、
これは感情表現的に、
仮に俺が再現できたとするじゃん。
表現ができたとするじゃん。
だとしても恥ずかしくて、
なかなかできることではない。
まず、
一個。
で、そこに対して、
恥ずかしいもなんもなくさ、
33:00
そのAIがやってるわけだから、
俺は何も感情が湧かないじゃん。
恥ずかしいなんて思わないし。
まぁ実際に、
俺の声で喋ってるの聞いたら、
なんかちょっと恥ずかしく思う瞬間もあるけど、
まぁそんなに抵抗は感じないわけよ。
むしろセリフっぽく言ってくれて、
それでいい感じになるんだったら、
まぁそれでいいかなっていう風な感じで、
考えてるので。
で、それがね、
もしかしたらそういう方向に、
実際に聞く側の人にも、
捉えられてるんじゃないか、
説をちょっと感じています。
まぁ、
えっとね、
明確にデータを取ったわけではないか、
なんとも言えないんだけど、
まぁ単純にさ、
俺がこういう風に喋ってる回よりも、
そのAIに読み上げさせた方が、
俺としたAIさ、
言ってることおかしかったり、
まぁ明らかにAIみたいなおかしな間違いを
言ったりすることもあるから、
微妙だって思ってはいるんだけど、
なんかね、
なんとなく反応的に、
AIの時、
AIの方、
回の方がいいんじゃないかなって。
当たり前だけどさ、
あんまり余談とか雑談とかにはいかず、
ある程度理論整然として、
な感じではあるじゃん。
普通に聞きやすいと思うし、
要点がまとまっていて、
そこなのかなポイントは、
話し方がどうこうとかそんな話じゃなく。
そうでね、
何が言いたかったかというと、
裏テーマ。
声が似てる似てないとか、
喋り方が似てる似てないっていうところを、
俺がAI側に寄せたらどうかなって、
そしたら、
もう本当に気づかなくなるんじゃないかなと思って。
現段階だと、
そのさ、
AIで読み上げさせるってさ、
効率感のためにやってるから、
ボリュームがちっちゃいからって、
それをわざと編集ソフトで上げようとか、
そういうことはしてないわけよ。
そこをいじれば、
多分、
違いって常にわからなくなるとは思うんだけど、
あと音質がね、
なんかちょっと微妙なところがあって。
なんでか。
綺麗な時は綺麗なんだけど。
だから、
俺が話し方とかAIとかに近づけちゃえば、
なんかあんま問題ないんじゃないかなと思って。
冒頭だけちょっとね、
そういう風にしようかなと思って、
迷いながらやって、
どう喋ったっけ。
そんな感じじゃないか。
普段の俺の感じか。
なんかね、
さっきね、
さっきも聞いてて、
めっちゃね、
特徴的なんだよな。
AI側の俺の口調の、
あの癖があるというか、
俺は絶対そういう言い方はしないよなとか、
なんかね、
息遣いとかまでね、
存在してるんだよね、
そこに。
ちょっと面白い。
ちょっと再現できない。
これさ、
どっかで流せないか。
ちょっと流してみるか。
ちょっと面白いから。
雑談的に。
今ちょっとブラウザで、
きくまとめを、
開いて流そう。
グロック、
お前もか。
まぁ、
そりゃそうだよね。
今まで散々さ、
みんなに、
アットマーク、
グロック、
ファクトチェックって、
タイムラインで呼び出して、
遊ばせておいて、
うわぁ、
AIがこんなに的確に
ツッコミ入れてきたよ、
とかさ、
普通にさ、
俺の声だとさ、
俺っぽい瞬間もあるけど、
まぁちょっとね、
語尾とかがやっぱ違うね。
何回言ってもね、
あれを守ってくんない。
俺が絶対使わない語尾とか、
あとさ、
なんかね、
前回ね、
さっき、
さっき読み上げさせたやつか、
セレンディピティ、
奪われたセレンディピティ、
みたいな、
前回のやつだね。
この時にね、
台本作ってもらった時にね、
俺わざとさ、
最近何回も触れてる、
オミエAIっていう、
俺の、
普段話してる内容を、
常時録音して、
そこから文字起こしして、
もう全部記憶として、
残してくれてるみたいな
デバイスの話、
しょっちゅうしてるけど、
そのデバイスにね、
36:00
API、
MCPか、
MCPサーバ経由って言い方が、
いいのかな。
使ってるものから、
取得できるようにしたの。
つまり、
俺の記憶データ、
普段さ、
アプリを開発する時とかに、
使っているツールから、
俺の記憶にアクセスできるようにしたわけ。
実際に、
ちゃんと動作するのかなって、
試した内容としては、
本当に取得できてるのか、
確認するためにさ、
最近、
イヤホンのプレキュアに
やったんだけど、
そのイヤホンの名前、
何かわかる?って聞いたら、
ちゃんとね、
そのポッドキャストの、
ポッドキャストで話した内容を
見に行ったのかな。
記憶の中にさ、
俺がポッドキャスト収録した時の音声が、
俺が取ろうと思ったんじゃなくて、
勝手に残っていた。
そこから、
TRNドルフィンっていう回答が
返ってきました。
全く関係ないツールからね。
そう、っていう状態で、
脳みそを繋げたわけよ。
繋げたらさ、
俺の口調とか、
より把握してくれるはずじゃん。
だって俺が普段、
音声入力はさ、
普通の会話と
喋り方違うとは思うけど、
俺の口調は口調じゃん。
それ把握した上で、
台本作ってくれて、
そこからボイスクローンに読み上げまで
やってくれると思ってたの。
それ自体、
その行為自体はできるんだけど。
やらせてるんだけど、
たまに。
そう。
こっからもっと自動化しようと思って
やってる最中なんだけど、
その時に台本作ってさ、
一応確認するとね、
いやいやいや、
絶対俺言わんでしょ、
みたいなこと言うんだよね。
なんかね、
あんま細々と指示してさ、
いちいち確認の手を入れるのも
あれかなと思って、
じゃあ今回は、
最後までも作っちゃってって、
要は、
俺の記憶とか、
そういう話し方、
作長も把握をした上で、
俺が渡したテーマに対して、
台本を作って、
それを勝手に俺の声で読み上げさせる
ってところまで、
もう、
あのー、
一個の指示でやらせたわけ。
で、
出来上がったものにね、
なんかね、
やたらね、
バイブスがバイブスがっていうの。
ふふふ。
俺のバイブス、
俺のバイブスがってたかな。
なんかね、
冒頭のさ、
冒頭にフックっていう欄を設けていて、
最近俺はさ、
自分が言う、
自分が話す時でも、
初っ端にさ、
あの、
俺の中では、
ちょっと古い、
古いな。
古いけどさ、
赤川二郎って、
3D小説の作家さん?
って言い方がいいかね。
もう随分、
俺も読んでないけど、
昔好きだったんだよね。
で、
赤川二郎風っていう俺の中で、
その、
なんか始まり方があって、
で、
読んでる人は分かるかもしんないけど、
初っ端はね、
もう随分昔だからさ、
読んだのはあれだから、
ちゃんと本当になってるか分かんないけど、
初っ端は必ずセリフから始まるわけ。
あれなんだ、
あの赤い光は。
みたいな、
例えば。
で、
そこから、
情景が描かれて、
みたいな展開でいくわけ。
その感じが俺すごい好きで、
あの、
没入しやすいさ。
逆にさ、
海外の小説とかってさ、
やたらさ、
情景から描いたりするじゃん。
最近のは知らないよ。
昔、
本をめちゃくちゃ読んでた頃の記憶で言うと、
なんか、
海外とかだと、
あの、
街路樹が、
赤く色づき始めるみたいなところから入って、
家、
家の、
家家、
家家なんて言わないか。
家がこう立ち並んでるさ、
雰囲気とか、
季節感とか、
描いた上で、
めっちゃ細かい、
ごちゃごちゃごちゃごちゃ説明された上で、
で、
牛乳配達人が何とかだよ、
みたいなことが進んだ上で、
ようやく主人公にたどり着くみたいな、
感じなんだけど、
赤川二郎の場合は、
逆に、
もうね、
いきなりセリフから来て、
え、
何?
何が起きてんの?
みたいなとこから始まるわけ。
そう、
なんかね、
その要素、
全く、
全く関係ないな。
めっちゃそれたけど、
39:00
要は別にさ、
フックなんてさ、
それあった方がいいじゃん、
何のコンテンツでも。
ってとこで、
最近やってるんだ、
そういう感じにしてます。
初っ端に興味引くものを、
ガッツリ持っていく。
動画とかで入れてる、
ハイライトシーンを盛り込む、
みたいなのと同じなんだけど、
ポッドキャストだから、
音声でさ、
パッと響くもの入れた方がいいじゃん。
その後に、
イントロ、
普通に入って、
みたいな感じで考えてんだけど、
そう、
で、
そのフックの部分を用意していて、
自動化で、
そのボイスクローンとか台本作る時も、
それを入れさせるようにしてるわけよ。
そう、
そのね、
最初のフックのとこで、
やたらね、
バイブスが、
バイブスがつって、
何の回だっけな、
あれ。
気持ち悪いと思って、
何回言ってもね、
バイブスって言い上がるんだよね。
だから、
それやめろって言って、
何とかやめさせたんだけど、
完全禁止ワードにして、
バイブスと何つったっけな、
何個かそれあげたんだけど、
そうそう、
まあ、
みたいなことをやりながら、
やってるんだけど、
だから、
さっきやったみたいにさ、
自分の声だからさ、
それは真似できるじゃん。
って考えて、
さっきのさ、
喋り方、
なんかお前もか、
グロックみたいに言ったじゃん。
あれ、
俺が真似してった方がいいかね。
10万円を切るMacBook、
これ、
AI時代に、
どこまで戦えると思う?
今日はちょっと、
情報のアップデートが早すぎて、
パンクしそうなんだけど、
こっちはまだ俺っぽいね。
やっぱあれだね、
あのー、
淡々と喋ってる感が、
AIっぽいと言えばっぽい。
だから、
逆に俺が、
あんまさ、
この、
熱量とかで喋らずに、
淡々と喋っていけば、
同じような感じになるのかなと、
ちょっと思って、
今回試そうかなと思ったんだけど、
うん、
試せませんでした。
でもね、
これね、
自分でやってても、
ハッとする瞬間があるね。
マジで自分だなって思う瞬間。
とか、
自分からは別として、
めっちゃ人間じゃんって思う瞬間。
ほんと息遣いって言うってことだよね。
なんかね、
フィラーとかもそうなんだけど、
そこ、
息継ぎがこの感じで入るんだって。
大したことやってないからね。
これ今特に、
ホットキャストに上げてるものなんて、
もうAPI経由なので、
台本渡して、
勝手に読み上げさせてるだけなの。
前言ったみたいに、
完璧な表現を求めるんだあれば、
例えばブラウザー版とかで、
普通にチャットGPTとかとやり取りするみたいな感じで、
音声のボイスクローン作れるんだけど、
単文単文で完璧になるまで繰り返していけば、
ほんとに完璧にはできるの。
そりゃさ、
ランダム性があるから、
よしこれが完璧だってなるまで何回も繰り返してるだけなんだけど、
単文を読ませて、
いやめっちゃこの表現いいじゃんってその、
セリフ的にね。
ってなったら、
次のセリフを入れて、
みたいなことを繰り返せば、
完璧にはできるわけよ。
でも今、
このポッドキャストにあげてるものってのは、
そういうわけではないので、
台本全部渡して、
全部を読み上げさせる。
かといって、
丸々渡しちゃうと、
問題が発生するので、
後半に行くたびにね、
めっちゃ早口になって、
声が上手っていったりするの。
だから、
処理上を、
例えば30秒上限として、
カットして、
それを後で結合して、
みたいな、
読み上げ30秒単位でして、
それを全部最後にまとめる、
みたいな、
そういう処理をさせてんの。
俺知らないよ。
俺別に詳しい、
そういうの、
知識あるわけじゃないから、
試しながらやってるってだけの話なんだけど。
そういうやり方をしてるから、
当たり外れのある、
その、
部分、
部分があるわけよ。
いい部分、
悪い部分って。
の中に、
時々ね、
ハッとする感じがあって、
この表現は逆に、
俺もなんか取り入れた方がいいんじゃないかな、
みたいな、
その、
42:00
さ、
例えばそれこそ台本とか用意して、
ちょっとセリフっぽく入れるシーンとかがあるようなもの。
そういうことあんま俺はしないけど、
そう、
とかの時に使った方がいいんじゃないかな、
とか思いつつ、
逆に勉強になるのもあったりとか。
だからなんかさ、
途中で振れたみたいに、
どうだろう、
俺喋んなほうがいいのかな、
もう。
ふふふ。
俺喋んない方が、
多分、
今聞いてくれてる人っていうのは、
多少の人もさ、
継続して聞いてくれてるんだったら、
俺ってとこにも興味はあったりとか、
俺の、
この感じがいいって思ってくれてる人が、
いるんだろうか、
わからないけど、
思ってはいるんだけど、
逆に、
こっから新規で来る人にとっては、
絶対ね、
俺が喋るのよりも、
このAIにやらせた方がいいと思ったよね。
でさ、
時代的にさ、
ああ、
AIなんだってスルーして、
聞いてくれる人もいるだろうし、
そりゃ要点まとまってった方がいいし、
予断を求めてくるような番組だったらさ、
そうではないだろうけど。
ま、
現状のさ、
この、
今この番組の状況、
この携帯撮っているSNSニュースとかさ、
AIとかって言ってるところであれば、
多分俺がやるよりも、
多分AIに、
もう綺麗に理論を整然と喋らせた方が、
いいんだろうなと、
俺の声だけ活用して、
と思っているところです。
喜んでいいのか、
悲しむべきなのか、
よくわからんけど。
はい、
ということで、
ちょっと今後も、
AIKT側の登場も含めながら、
やっていこうと思うので。
そしてYouTube側、
ガジェット本音レビューと、
そのちょっとAppleのやつ。
Appleのやつに関しては、
もうこの番組、
ポッドキャストの方、
聞いてくれてる方には、
いちいち言うまでもなく、
伝わると思うけど、
チャンネル登録者増えたりとか、
再生されたら、
いいはいいんだけど、
興味ないのに、
聞きに来たりとか、
チャンネル登録はしてほしくはないので。
そうだから、
言い方が難しいな。
興味がある人は、
ぜひチェックしてみてください。
外科。
それがいいね。
はい、
みたいなところで。
関連リンクに関しては、
概要欄の方を貼っておくので、
よかったらチェックしてみてください。
はい、
では今回は以上となります。
最後までありがとうございました。
さよなら。
ご視聴ありがとうございました。
43:56

コメント

スクロール