11LABOSとは何か?
こんにちは、たけのむです。
今日は最近話題の11LABOSについて、
特に日本語音声読み上げ機能の使い方や、
今後の音声配信における可能性について考えてみたいと思います。
ちなみに今日の放送も、全部私自身のクローン音声でやっています。
まず最初に、11LABOSって何?という話から入ると、
これはもともと海外で人気の高いAI音声合成サービスです。
テキストを入力するだけで、
人間なし自然な音声を生成できるということで、
英語圏ではポッドキャスト、YouTube、
自動音声応答など様々な場で使われています。
で、ここ最近になって、日本語の読み上げにも本格対応してきたんです。
これ実際に触ってみると、
イントネーションやアクセント、語尾のニュアンスなんかが結構自然なんですよね。
特に従来の機械音声っぽさが薄れてきていて、
聞いていて違和感が少ないのが大きいポイントです。
AI音声の活用シーン
じゃあ実際にどういう場面で使えるのか。
すぐ思いつくのはこんなシーンです。
YouTubeのナレーション、
ブログ記事の音声版、
ポッドキャストの原稿読み上げ、
オーディオブックの制作、
まだ実験段階だけど、
自動応答やチャットボットの声、
こうしたコンテンツ制作の現場って、
正直自分で録音するの大変という声がすごく多い。
マイクや環境を揃えて、
ノイズ処理してってやってると、
それだけで時間もコストもかかるんですね。
そこでテキストを書くだけで一定以上のクオリティの音声が出るというのは、
やっぱり革命的なんです。
もちろん完璧に人間そのものかというと、
まだそこまでではないけれど、
日常的なコンテンツであれば十分実用レベルだと思います。
音声配信のスタンダードになるか?
ここで気になるのが、
今後の音声配信のスタンダードになるのかという点ですよね。
僕の結論から言うと、
場合によってはスタンダードになっていくという感じです。
理由は大きく二つあります。
制作コストと速度の圧倒的な改善。
自分で録音する必要がないというのは、
特に個人クリエイターや小規模なメディアにとっては大きい。
いちいち取り直す必要がなく、
テキストを直すだけで音声も更新できるというのは、
時間効率が段違いです。
クオリティが上がっている数年前のAI音声って、
棒読み感が強かったり、アクセントが不自然だったりして、
まあ聞けなくはないけどという感じでした。
それが11ナボだと、
かなり人間に近いイントネーションで読めるようになってきている。
聞き手側も、AI音声だと気づかない、
あるいは気にならないレベルになってきています。
ただし、これが完全に人間の声を駆逐すると言われると、
それはまだ違うと思っています。
例えば感情表現のゆるかさや、
個性のある声という点では、
まだ人間の声優、ナレーターにはかないません。
ドラマ仕立てのポッドキャストとか、
情緒ゆるかな読み物を声で届けたいときは、
やっぱり人間が読んでほしいというニーズも根強く残るでしょう。
つまりニュース系、解説系、
日常配信のような情報中心コンテンツ、
こちらはAI音声がどんどん広がっていくでしょう。
物語、感情表現、ブランドの個性を出すものについては、
人間の声がまだ主役。
こういう使い分けが進んでいくんじゃないかなと思います。
11LABOSの活用法と今後の展望
最後に、11ナボ図をどう使えばいいかという話ですが、
僕が考えるおすすめの活用法は次の通りです。
書庫をAIで作って、
必要なら人間がブラッシュアップする。
手軽に音声版を作って聴覚層のリーチを増やす。
日本語音声だけじゃなく、
英語や他言語でも同じ原稿を読み上げられる。
まとめると、11ナボ図の日本語読み上げは現状でも実用レベルで、
これからの音声配信では、
ある場面ではスタンダードになっていくと考えています。
ただし、感性や個性を求められる領域では、
人間の声の価値が引き続き重要であることも変わらないでしょうね。
ファンビジネスにおいては、
あまりスタンダードにならないってことでしょうか。
そんな未来が見えています。
本日はAIクローンにおける
自動音声読み上げの活用について話してみました。
ありがとうございました。