1. 拝啓、3000年の人類へ
  2. S2-35 AI作曲生成の現在地【正..
2024-07-29 15:00

S2-35 AI作曲生成の現在地【正しく共創しよう編】

2024年の楽曲生成AIに “できないこと” は何?

現状の楽曲生成AIの課題を通じ、アーティストの凄さに気づきました。


この番組は、西暦3000年の、未来を生きる人類に向けて、現代人が日々感じることや、ワクワクする未来への想いを発信し、今を生きる皆さんと一緒に、未来に音声を残そうとする番組です。


BGM素材:DOVA-SYNDOROME、効果音ラボ


X@echo3000_radio https://twitter.com/echo3000_radio


感想等は #echo3000 でツイートしていただけると喜びマス

https://suno.com/@echo3000

サマリー

AI作曲の課題や倫理観についてお話する。また、作曲の進化についても考える。ジャンルや声の特徴には注意が必要で、商用利用は慎重にするべきだ。 AI作曲生成の現在地についての考察とAIとアーティストの相補関係について話されている。

AI作曲の課題と倫理観
皆さんこんにちは、あっちゃんです。 2回にわたってお届けした、AI作曲のお話の回ですが、今回が後編となります。
後編では、AI作曲をする中で、僕自身が感じた課題であったり、僕らが疑問を持つべき点についてのお話、そして使う側の倫理観の話、
作曲がこれからどうなっていくのか、そういった点についてお話をしていきます。 それでは本編スタートです。
今回作曲生成のアプリであるSNOWを使ったんですが、曲生成を何とかする中で、僕みたいに普段作曲などをしたことがない人間でも、
だんだんと楽曲のジャンルの型、みたいなものがわかってきたんですよ。 特定のジャンルにおいて特徴的な声であったり、
歌い方みたいなものがありそうだなということがわかってきました。 大量の楽曲で学習をされていることから、
おそらく各ジャンルとその有名なアーティストっぽい曲のようなものが 出力できていると思うんですけども、
何々っぽいアーティストの曲を作って、みたいなものを防ぐ方法として、 このSNOWでは
ジャンルとかスタイルを指定する欄があるんですが、 そこで有名なアーティストの名前は入力できないようになっているという形になっていました。
やはりそれなりの知名度であったり、人気や楽曲数があるとなると、その曲であったり、
アーティストの特徴というものが学習されているので、 模倣されてしまう可能性が高いから、
ブロックできるようにしてるんでしょうね。 ですので、一般名詞であってもその音楽の領域で
その一般名詞がアーティストを指している場合には、 おそらく弾けるようになってるんじゃないかなと思いました。
例えばパッと浮かぶものですと、チリペッパーとかオアシスとかストーンとかウエストとか、
そういった単語っていうのは音楽のアーティスト名とかで 使われている中では有名なものがありますけども、
そういったものは弾けるようになってるんじゃないかなと思っています。 ただですね、この機能も
大事ではあるんですが、すべてのアーティスト名を弾けているのかは若干怪しいなと思っています。
というのも、やはり有名なアーティストだけが弾けているような気がしていてですね。 一定の知名度未満のアーティストの方でもそれなりに楽曲があって、
特徴的な楽曲がある場合には、貫通して指定できてしまうんじゃないかなというのがありそうです。
多分多言語で学習されているものにはなっているので、 日本語の発音もできるということは、日本のアーティストの方の曲も
学習データとして組み込まれている可能性が高いと思うんですけども、 そういった方々っていうのは、このSUNOを作っている会社さんっていうのが
日本の会社じゃないので、日本のアーティストの名前っていうところを きちんとブロックできているのかというところは若干怪しい気がしました。
こういったことから、正直AIというかこのSUNO自体もまだまだ不完全な部分があるので、 商用利用で使えるというのがユーロプランでは言われているんですけども、
ジャンルや声の特徴への注意
そういった商用利用で使うというところはちょっとやめた方がいいかなというところと、 あくまでも楽曲生成のための補助ツールという役割で使うべきかなというのを僕自身感じました。
どうしても使う側の倫理観という観点では、そういうのを使って売れる曲を使いたいみたいな悪い人がいた時に現状を防げないっていうところがあるんですよね。
日本の中でも元々ボーカロイドの楽曲とかを作ってた方が最近ではどんどん有名になっていて、
いろんな皆さんもご存知のようなヨネツさんとかいろいろあると思うんですけども、そういった人気のジャンル、人気の曲調というのは再現できてしまう可能性があってですね、
こういったものをちゃんと使わないようにするというか、 クリエイティブなツールを使っているのに売れるようなものを作ろうとするっていう使い方に対して
現状危うさがあるような感じがしました。 僕自身もこの角ですが、何度か生成するために有料プランのクレジットを使ってみているんですけども、
あくまでもこの作った曲でお金で同行したいっていうところはなくてですね、 ちゃんとそのあたりがクリアになってから
サポートツールというかですね、曲そのものを
同行してお金儲けをするみたいなところはすることがあったとしたら、そういった条件クリアできてからの方がいいかなと思って様子を見ています。
あとはですね、声の特徴についてもやはり今後議論になるんじゃないかなと思っています。
アーティストの名前で弾けていると言っても、特定のジャンルにおいて出力させると、そのジャンルの代表的な方のボーカルの声質に似てるっていうのがあったりするわけなんですよ。
例えばそのジャンルとかそういったところにアニメエンディングみたいなワードを入れるとですね、
日本のアニメのエンディングの中で、よく楽曲を提供されているようなアーティストさんの声質のようなものも何度か出てきているようなのをちょっと観測したりしているんですよね。
厳密にはその人の声ではない、声帯がそのまま丸パクリされているものではないにしても、特定のアーティストと識別できている時点で若干これはアウトじゃないのかなみたいなところもあったりします。
そういった声の権利みたいなところもきちんと保証がされて、ある程度そのライセンスアウトじゃないですけども、そこのアーティストの方々が承諾できている形での出力というところが保証されていなければ、
僕らも有償、商用利用という形で使うのはまだちょっと厳しいんじゃないかなと思いました。
そういった形でいろいろと生成のものを使ってみたんですけども、一方ですごく感じたのは、プロの作曲家、アーティストの方、作詞家の方、それらの方々の凄さというところに改めて気づくことができました。
このSU-NOというサービスを使ってみて、アーティストの方々や作曲家、作詞家の方々がどれだけの技術力を持っていて、どれだけの情熱を注いでいるかというところを一方で感じることができたんですよね。
前回も曲を流したりしていましたが、AIで簡単に曲が作れるようになりましたけども、出てくるままの曲っていうのは盆作なんですよね。
なぜかというと、AIは大量に学習したデータから出力の確率が高い、それっぽいものを出してに過ぎないからなんですよ。
いわば曲の淡い輪郭が浮かび上がったに過ぎないということなんですよね。 音楽作成にこれまで僕は関わったことがないんですけども、そんな自分ですらそのAIの楽曲の細かな部分に違和感を感じたんですよね。
だからこれは多分間違いのない感覚じゃないかなと思っています。 前編でもお話をしましたが、読み方が間違っていたりとか、
声が安定しないとかもありますし、曲のそれぞれのパートごとの音量の違いとかですね、そこものっぺりした感じでしたし、
AI作曲のクオリティとアーティストの表現力
出てくるものの曲のメロディーはなんとなくいいなと思うんですけども、結局それはなんか淡い感じのままなんですよ。
これに対してプロの方々は、 最初のデモ音源もそうですけども、淡い輪郭の状態からさらに血の滲むようなんですね。
細かい調整を重ねて本当の意味での曲を作り出しているかなと思っていて、 そこに比べると本当に出てきたものは盆作だなというふうに感じました。
特に思ったのが、歌詞入りのセセアの曲を前編では流したじゃないですか。 あれをちゃんと聞くと、やっぱりボーカルに人格とか感情とかですね、
魂みたいなものが、なんかまだ乗り切ってないんですよね。 単にメロディーを鼻声で歌っているような、
コンビニで流れているラジオで聞こえてくるような、ふわっとした曲調、ボーカルの表現みたいな感じで、
ボーカルそのものに熱を感じないんですよ。 だからこそ対照的に人が作っている曲というものには、
魂とか歌うボーカルの方の気持ちとか思いみたいなところが乗っているように感じているので、
ここの部分はまだまだだなというふうにすごく感じました。 ぜひですね、普段聴いている曲とですね、このAIの曲
聞き比べてみてください。 本当にアーティストの方が生み出した曲とのクオリティの差みたいなところに気づけるんじゃないかなと思っています。
ここまで作曲AIのすごさ、まだまだの部分、お話をしてきましたが、残念ながらAIはですね、まだまだ発展途上で、これからさらに進化をしていくことは間違いありません。
加えてですね、昨今の生成AIについては、作業の指示がなんと言葉でできるようになってしまいました。
これが何を意味するかというと、何かを実現するためにはこれまで作業ごとのスキル、例えば絵を描くであったり動画を編集するであったり曲を作るであったり
演奏するみたいな個別のスキルを身につけていてやる必要があったんですけども、これらも全て言葉で指示をすることができるようになった
というところがかなり大きな違いになっています。
すなわち何が言いたいかというと、全てのスキルというものが言葉の表現能力というところに集約されるということになります。
つまりですね、これまで以上に今後は自分自身の言語表現能力というところが重要になってくる時代が到来するということになるかなと思っています。
要するに自分が好きなものとか自分が好きなものっていうところをきちんと表現できるかどうかっていうところであったり
自分が表現したいものをきちんと言語化できるかどうかというところが能力として必要となってきまして
そういった人間がこれからの時代において活躍できる人間になっていくような気がしています。
一方で、アーティストの方々は既存の言葉で表現できないことを表現できるスキルというものも必要になってくるんじゃないかなと思っています。
それって今の言葉で表現するとこうだよねというものを作れてしまうと、それは結局AIで表現できることになってしまうので
既存の言葉で表現できないことをより極めていくというところもアーティストの能力として今後重要視される可能性があるんじゃないかなと思いました。
AIの進化と人間の価値観
果たして1年後、5年後、10年後、人を豊かにするはずの音楽はどのようにAIによって変えられてしまうのか
一方で人間の価値観や倫理観はそのAIのアップデートに追いつけているような社会になっているのか
僕自身はそのあたりがすごく気になっているという形です。 ということで、2024年の1月の現代人がお届けしました。
エンディングです。 ということで後編の正しく競争しよう編が以上となります。
我々もAIの進歩に置いていかれないように正しく価値観を持ったりとか、AIの使い方に対する倫理観というところを持っておきたいと思います。
何曲か今回僕が生成した曲流させていただきましたが、気になる方は概要欄記載のあっちゃんのそのアカウントをご覧ください。
番組では感想をお待ちしています。Xのハッシュタグエコー3000までお寄せください。
AI、そして皆さんが気になる未来のこと、残しておきたい今の日常など、ぜひコメントください。
では今回はここまでです。 現代人の皆さんも未来人の皆さんもまた次回お会いしましょう。
じゃねっ
15:00

コメント

スクロール