1. 5分で学べる!ハチコのAI実践カフェ
  2. ElevenLabsで音声をつくるコツ
2025-12-10 06:18

ElevenLabsで音声をつくるコツ

🎨 ラジオでお話した【AIアニメの教科書】
https://brmk.io/fN2lLl

【新VOICE!】itsuki(いつき)をよろしく!!
https://elevenlabs.io/app/voice-library?voiceId=oAlEJuW30knHWhA6cF0e


\AIでできることを増やそう!/

この番組では、趣味AIになりつつあるママエンジニアのハチコが、
・AIで出来たこと
・おすすめのAI活用法
などをゆる〜く語っています。

土日は不定期でVoicyのトークテーマに参加しています♪

皆さんのAI活用を一歩進めるお手伝いができたら嬉しいです!

サマリー

このエピソードでは、ハチコがAIアニメの教科書をきっかけに11LABOの音声生成技術を紹介しています。特に、V3モデルの使用や音声の表現力を引き出す方法に焦点を当て、音声制作のコツを詳しく解説しています。

AIアニメの教科書と11LABOの紹介
5分で学べるハチコのAI実践カフェ。おはようございます。こんにちは。こんばんは。この番組では、ママエンジニアハチコがAIでできたことや、おすすめのAI活用法をお届けしています。
さて、12月10日水曜日、皆様いかがお過ごしでしょうか。私はですね、ようやく先日買った、生早さんのAアニメの教科書をパラパラと見始めております。これね、すっごくワクワクしますね。
私自身は、動画とか画像生成も含めて、もともとね、懲り性なところもあって、やり始めると、本当にすぐ徹夜して、日中使い物にならなくなっちゃうんで、意識的に遠ざけていたジャンルなんですよね。
でもね、AIがここまで来たら、やっぱりできる範囲ででもいいから、少しでもやっておきたいなって思って、この教科書を手に取りました。
あとね、AIを結構ちゃんと使い始めてから出会ったツールで、一番感動したのが、SUNOっていう音楽生成AIなんですよね。
当時はそこまでね、簡単には動画が作れなかったので、さすがにこの音楽に合わせた動画を作るのは、私には難しいなーって思った経験があるので、今やそれが当時の、当時って言っても1年くらい前なんですけどね、とはレベル違いに簡単にできるようになっているわけですよ。
簡単って言ってももちろん努力は必要なんですけど、なのでね、ちょっとそういうできたらいいなーって思ったことのリベンジもしてみたいなって思っています。
この教科書、今だけ限定価格でだいぶお安くなっているようなので、リンクをこの概要欄に貼っておきますので、ご興味ある方はぜひ見てみてください。
さて、今日はこのAIアニメの教科書に関連して、11LABOの話をしようかなと思います。
11LABOっていうのは、テキストから声、音声に変換したりとか、あとは自分の声のクローンを作ったりとか、そんなことができるサイトになっています。
そのテキストから音声にする機能がすごく優秀で、かなりナチュラルに喋っているような感じに作ってくれます。
それには一つコツがあって、例えばChatGPTを使うときに、いくつかのあるモデルの中から選んで使うと思います。
ライトのやつと、シンキングみたいなじっくり考えるやつと、選べると思うんですけども、そんな感じで、このテキストからボイスを作るときも、いくつかそのモデルがあるんですよ。
そこで、今アルファ版になっているV3っていうやつを選ぶのがポイントになっています。
他のモデルを選ぶと、日本語はかなりへんてこな音声になります。
これはね、たぶん学習しているかどうかだと思うんですよね。
イレブンラボって最近日本法人ができて、日本語もう頑張っていきますねっていう発表が本当につい最近あったんですよね。
なので、昔のモデルは、面白いくらい片言の日本語になってしまいます。
こんにちは、みたいな感じになっちゃうんですよ。
無料のユーザーでも、誰かの声を使ってテキストから音声にするってことはできるので、それをまず試してみるのが一番いいと思うんですけど、そのときは必ずV3っていうモデルを選ぶようにしてください。
あと、どの声を使ってみようかなって思ったときにですね、いろんな声が一覧で出てきて、ポチッとするとサンプルボイスが流れるんですけど、
このサンプルボイスに惑わされないでほしい。
なぜかというと、サンプルボイスは残念ながらV3ではなく、それ以下の昔のモデルじゃないと作れないようになってるんです。
これはね、たぶんV3がアルファ版だからだと思います。
なのでね、サンプルボイスを聞いたら、めちゃめちゃなんか片言のボイスの場合があるんですけど、
欲しいトーンとかと近ければ、一旦短い文言を生成してみるのが一番いいです。
そのときはV3を使ってください。
V3で音声を作るときは、音声を生成っていうボタンの隣に、エンハンスアルファっていうボタンが出てくるんですけど、それをポチッとすると読み方の指定をつけてくれます。
例えば、「こんにちは」っていうセリフだったら、前にカクカッコでハッピーとか言ってつけてくれるわけです。
そうすると、「こんにちは」みたいな感じに読んでくれるんですよ。
そこをね、例えばサッととかにすれば悲しそうに言ってくれるし、エキサイティングみたいにしたら、たぶん、「こんにちは」みたいな風になると思います。
これはね、ボイスの元データにもよってくるので、必ずしも思ったようなセリフにはならないかもしれませんけど、この読み方の指定でかなり表現力が豊かになるので、ここは要研究という感じです。
私も絶賛研究中です。
ということで今日は、11Labで声を選ぶときの注意点とか、音声を作るときのポイントをご紹介しました。
まだ音声を生成したことがない方は、ぜひぜひ試してみてください。
今日もここまで聞いてくださって本当にありがとうございます。
今日も一緒にAIでちょこっと進化していきましょう。
それではまたね。
06:18

コメント

スクロール