そう入っていきます。
いいじゃん。
というのもあるんだけどまず最初にちょっと流行りのツールというか簡単にSNOW AIの紹介。
SNOW AIね。
今ね色々あるのよ音楽生成のツールって。
SNOW AIとかスティーブルオーディオっていう。
スティーブルオーディオ。
スティーブルディフュージョンっていうさ画像生成あるじゃん。
前もちょっと話したよね。
そう出たじゃん。あそこの会社同じところから出してる音楽版みたいなやつがあるのね。
これもね結構いい。
なるほどね。
SNOW AIぐらいしか知らなかったななんかまともなやつっていうと。
結構ね使えると言われているのもあるしこれ珍しくというか日本発のやつもあるのよ音楽生成のやつ。
なんかぽくないね。
サウンドローっていう日本発で日本人にすごい使いやすいようになってる音楽生成AIのサービスもあると。
いいね。
結構いっぱいあってその他もろもろいろいろあるんだけど、その共通してできるのは音楽が自動で作れますよという感じになってます。
AIあるあるなんだけどさAIってあらゆるもの民主化しがちだよねと。
そうだね。
何々の民主化とかってよくAI言われるんだけど。
やっぱこの作曲のAIはね作曲の民主化だと誰でも音楽を作れる時代になったねみたいな。
そういう文脈で語られることが非常に多いと。
そうだね。
曲ってさどうやって自動で生成してるのか意味わかんなくない?
そこだよね。
画像より意味わかんないんだよな。
要素が明らかに多いじゃんね。
そうだよね。
いろんな概念があるからさ音楽って。
なんかそうだよね。楽譜と音があれば音楽なるのか、そうでもないのかみたいなね。
一応ね音楽にはなるけど和音みたいな、昔の着メロぐらいの話になるよね。
っていうところからねじゃあちょっとAIの作曲の技術の進化をちょっと歴史を追っていくというところをまずやっていきたいと思います。
何で曲ができるのかと。
結構ね歴史古いんですよ。
そうなの?
生成AIというかAIで作曲してやろうっていうのが始まったのは1960年ぐらい。
古い。昭和じゃん。
この時はAIというよりはルールベースと言われるもので。
ルールベース。
ルールベース。もうガチガチにルールベースって言われてる。
こうきたらこうみたいな。よくねAIの文脈でねルールベースか機械学習かっていう風に言われたりするんだけど、
ルールベースっていうのはもうこうきたらこうするって必ず決めたルールがあって、そのルール通りにプログラムが動いてるよっていう。
へえ。
なんか学習した感じじゃない?
もう決めてる。人が決めてる完全に。
なるほどね。
なんでかっていうと、音楽って結構ルールあるじゃん。
うん、あんの?
その音楽理論。コード進行とかもそうだし、
音楽って結構ルールあるじゃん。
うんうん。
音楽理論。
うんうんうん。
コード進行とかもそうだし、
あーなんかあるっぽいね。よくわからんけど。
ね、あとなんか一応スケールがあるじゃん。じゃあこのキーとか、この曲のキー。
Cメジャーみたいな。
そうそうそうそう。
聞いたことあるけど未だによくわからん。ドミソーとかドファラードみたいな。
そう、Cメジャーって言ったらもうドレミファソラシドやねもう。
まあその音階から外れなければまあキー乗ってるよねみたいな。
そっから外れた曲ね、あの音があるとなんか、なんか違和感あるなみたいになるとか。
あと拍子もさ4分の4とかさ。
拍子があって、小説があって、コード進行があってみたいな。
で大体組み合わせこのぐらいにしようねみたいな音楽理論ってあるのよ。
へー。
よっぽどこれ外してなければ普通に聞こえるよねみたいな。
うんうんうん。
だからそういう組み合わせの中で、こう来たらこうみたいな。
ルールをあらかじめ決めておけば、
まあある程度ね、どこかに乱数を持たしておけば、
ポチッとボタンを押すたびに新しい曲できるよねと。
うんうんうん。
破綻なく。
ルールに従えばそれなりのものはできそうな気はするね、なんか。
そうそうそう。
だからそのもう本当にね、CのCメジャーみたいな。
コード進行でバーって流れてるところにドレミファソラシド適当に打てば、
なんとなく曲っぽくなるみたいな。
うんうんうん。
まあそういうことを最初にやってたのが、ルールベースの作曲。
なるほどね。
うん。
一応できそうっちゃできそうだけどね、なんか。
どうなんだろうね。
どう思った?面白くなさそうと思ったでしょ。
味気なさそう。
うん。
ルールっていう言葉にもう花瓶に反応した。
ハハハハハ。
ハハハハハ。
ルールか。
それカネリンっぽいけどさ。
ルールに従ってやったやつかって。
でもね、それをね、すごい大事。
AIの文脈でルールベースか機械学習かって結構よく出る話なんだけどさ。
そのさ、ルールベースって昔の手法ってこと?
そう、昔の手法。
最近はもう機械学習?
いや、そう。
ルールベースで成り立つものはルールベースでいいと思うっていう感じ。
うーん、そうなんだ。
普通にプログラムとかね、こう、この数字以上だったらこうするよみたいな分岐がいっぱいあってみたいな。
うーん、今でも使われてるんだ、そういう。
全然使われてる。
簡単なやつはってこと。
そう、機械学習である必要はないよね。
人がルールを決めて判断できるよねってものは、ルールベースで作ったほうが安定するよね。
うん。
意図通りに作れると。
そう、意図通りに動いてくれるから。
ほいほい。
なんだけど、人がルールを決められないようになってくると、AIにルールを決めてもらいましょう。
自分で判断基準を持ってもらいましょうっていうので、そこが機械学習の強みだよね。
うんうん。
なるほど。
ちょっと画像の例えで言っちゃうけどさ、分かりやすく。
うん。
犬を、犬たらし犬、犬たらし犬、犬たらし犬、犬たらし犬、犬たらし犬、犬たらし犬、犬たらし犬。
犬たらしめてるものって人間には分かんないよね。
はいはい。
犬って、なんか四足歩行だなって分かるじゃん。
耳ついてんなと。
鼻がこうシュッとなってるな。
これ犬だなって分かるけどさ。
そのAIじゃなくて、このコンピューターにさ、これが犬ですよって特徴全部教えようと思ったら、無理よね。
そうだね。
だってそのね、抗議みたいなやつもいればさ、お金持ちの犬、ボロ添いみたいなやつもいるじゃん。
なんかセレブーな感じの。
セレブーな感じのやつもいるじゃん。
パグみたいなのもいるし。
そう、鼻そもそもね、短くないのもいるし、長くないのもいるし、犬みたいな猫もいるじゃん。
だけど犬と猫を、我々は見たらこいつ猫だなって分かるし。
どうやって分かってんのっていうのを、言語化は難しいってこと?
そう、言語化は難しい。だから機械学習は、もう言語化し、もう俺たち教えることはないと。
とにかく正解のデータと答え渡しとくから、自分で学んでっていうのが機械学習っていうのね。
学んでもらうみたいな。
ルールベースっていうのはそういういちいち全部教えていく。
こういうここが犬、この鼻の長さがこのぐらいだったらまず犬だよと。
何センチいない。
この耳がこうなってたら犬だよみたいなのを全部ルールで教えていく。
それに当てはまったものが犬って判断するのがルールベースみたいな。
犬の判断をルールベースで作ることできるの?
ほぼできないと思う。
ものすごい果てしない要素があるってこと?
そう、ゴールデンレトリバード猫見分けろっていう、研修が指定されてたら多分できると思う。大きさの違いもあるし。
だから基本的に犬っていう大きいジャンルでってなったら不可能。
なるほどね。
だからそこで機械学習っていうのが強いよねみたいな。すごいよねって言ってAIがすごいバーっとブーブーになるんだけど。
っていうのはちょっと話それたんだけど、とにかくルールベースで音楽を作っていこうみたいな。
なるほどね。そのルールベースで作った音楽とか聞いてみたいね。どんな感じなんだろうね。
どうなんだろうね。多分ねどっかにはあるんじゃないかなサンプルで。
YouTubeみたいなのね。
YouTubeとかに。ちょっとごめん探してないけど。
もうでもあれだよねなんか8ビット音楽みたいな。
うんそんな感じだと思う。てかもう主旋律しかなかったりとかそんな感じだと思うよ。
着メロだ昔の。
着メロ本当に着メロ。
ピラリンピラリンピラリラリンみたいな。
なんでそれ。
わかんない。
デフォルト感がすごいあっていいけど。
そういう感じのイメージってことだよね。
まあそうそうそうそう。でまあそっから1960年から1990年ぐらいまではそうやってルールベースの作曲。
長いね。
まあいろいろあるんだよその後にその間にいろいろあるんだけどルールベースでもいろんなルールがあるんだけどざっくり言うとそのぐらい。
ルールベース時代。
ルールベース時代。
つまらん時代だねそれは。
まあルールをね突き詰めていく時代だよ。
それ。
まあそのルールベースはAIじゃないから別にね。
ああそうなんだ。そうなんだ。ああAIではないのか。
AIじゃない。
で1990年ぐらいからやっとAI、AIというかちょっと微妙なんだけどAIっぽいものが出てくる。
ぽいもの。
ぽいもの。AIっていうのかな。ちょっとね多分含まれるとは思うけど。
前進みたいな。
あの遺伝的アルゴリズムっていうのを使った作曲をするのね。
何?遺伝?
遺伝的アルゴリズム。
なんか急にシンギュラリティっぽくなってきたね。
これはねあの生物がこう進化していくように良い曲を作らせて少しずつ進化させていくみたいな。
何それ。
生物ってさなんかこう。
ダーウィンじゃん。
でなんか良い個体が残ってその淘汰されていくみたいな。
で次の世代にどんどんこう移るに従って形が変わって進化していくみたいなあるじゃん。
あれと同じアルゴリズムをパソコン上で行うっていう遺伝的アルゴリズムっていう手法があるんだけど。
遺伝的アルゴリズムなんてのがあるんだ。そもそも。
ある。
かっこいいねそれ。どんどん進化していくの。
そうなんかねランダムでバーっと作曲させてである程度指標を持っていくのね。
で良かった指標これは曲っぽいなってやつをピックアップしてそれを他の曲と混ぜて次の次世代にしたりとか
突然変異って言って一個この人はいいなって曲をちょっとだけ変えてまた次世代にしてって言って増やしてってさ。
前作ったやつから。
で前作ったやつの数と同じになったら前の世代を捨てちゃってその世代からまた交配させて新しいものを生み出していくみたいな。
っていうのをずっと繰り返すとどんどんどんどん進化していくんだね中身が。
それ人間が手動でやってんの?そのどっちがいいみたいなの。
手動でやることもあるけど基本的にはその指標を設けててこういう基準を満たしているものは合格とするよみたいな。
自分でセルフチェックして。
そうそうそう。
人がねそこで介入することもあるしっていうのでその画像とか音楽だけじゃなくてね画像とかにもよく使われていたんだけど。
それなんか前ちょっと話題に出た教科学習とかなんか教師あり教師なし学習的なのとは全然違う話?
違ううん。
あそうなんだ。
また違う証拠。
なんかちょっと似てる感じはしたけど。
いっぱい作って進化させるみたいなアプローチなのね。
違うんだ。進化?
そう違う。進化させる。いっぱいランダムでバーって作る。
そっちの方がハイテクっぽいけどね。
作って選んで後輩させる。合体させてね子供作ってみたいなやつをずっとやっていくみたいな。結構面白いよねアルゴリズム的には。
それで何千曲も作って試作していってちょっとちょっと使い変していって人が好むメロディーに育てていくっていうイデンティティアルゴリズムを使ったAIの作曲方法みたいなが。
AIと言っていいかちょっと分かんないけどそうそうあるのね。
だけどまあ言ってしまえばこれが2000年ぐらいまで流行って続いていくんだけど。
結構長いじゃん。10年間か。
まあさ、それでいい曲できそうな感じはするんだけど、めっちゃ計算量かかるイメージするよね。時間かかりそうじゃない?
どこまで進化させるのよっていう気はするんだけどね。
そうもう再現なくできる。
なんかとてつもないものができるような気もするけど。
結構収束しちゃうこともある。なんか。
つまんなくなってくる。
つまんなくなっていっちゃう。同じようになっていっちゃう。
ピロリン、ピロリンに戻ってくる。
そうそうそうそう。
原点回帰してくる。
原点回帰していくとか、なんか全然発散しなかったりとか逆にもどんどんわちゃわちゃ発散しちゃったりとかっていうのもするんだけど。
まあとにかくいい曲作るのにすごい時間かかるよと。イデンティティアルゴリズムだと。
あとまあどうしてもランダムなのよね。結局ランダムで作ったものをどんどんどんどん増やしたりとか交配していって、
なんとなく良いっぽい組み合わせになるまでひたすら試行錯誤していくみたいな。
ある種ずっとバクチュー打ってるみたいなもんよね。
結構寄り道しまくりみたいな。
そう。
なるほど。あ、一曲作るためにその交配。
そう、交配を。
遺伝進化をやるの。
そう、そういうこと。
すごいコストな気がするな。
でしょ。
ししるるじゃん。
すごいね。そのために世代がどんどん変わっていっぱいご先祖様が死んでいくんだけどさ。
すごいなあそれ。
それって音楽の本質なのかなみたいなところの議論はあるのね。
だって音楽ってさ確率じゃなくて音の繋がりじゃん。
はいはい。
だから前のフレーズを踏まえて次が決まらないと音楽の繋がりじゃないよねと。
いうことで2000年以降からですね。2010年ぐらいからかな。RNNとかLSTMっていうですね。これ覚えなくていいけど。
ああよかった。暗記するのかと思った。
アルファベット出てくるとわかりにくいからね。
そうだね。
RNNとかLSTMはね結構頻繁に出てくる言葉にはなってくるから今後それを説明する回も設けるけど今は別に何も気にしなくていい。
はいはい。スルーで。
とにかくの再起型ニューラルネットワークっていうですね。
再起型ニューラルネットワーク。
ネットワークというものが。
再起型って何?
再起型。
怖いなまた。
再起型って言ったらもう言ってしまえば。
また帰ってくるってこと?
そう。ぐるっとこう自分にもう一回回ってくるみたいな。
そういうニューラルネットワークなのね。
ニューラルネットワークって何だっけ?
ニューラルネットワークっていうのは落ち着きAIのあれにもある。
イラストね。
アートワークにもある。つぶつぶと線がついたやつね。
つぶつぶのやつ。
脳のニューロンを模したネットワークの繋がり。
シナプスみたいな。
そう。てかそもそもあれだね。ニューラルネットワークとは何かって説明してないね。
そう。分かったような分からないようなみたいなね。
また基礎編みたいなやつもやっていきましょう。落ち着きAIの。
ずっと生成AIの最新のトピックをざっくり紹介するみたいなこともやってたから。
そうだね。本質ではないよね。
意外とね、本当基礎の基礎にあるニューラルネットワークとか、やつは説明してないから。
そうだね。
また一個一個説明していきます。
なんかさ、すごい頻発するそういう単語あるじゃん。
分かったようでよく分かんないなみたいなのもいっぱいあるよね。
あると思う。特に俺が説明したいのはね、一回丸々1時間かけて説明したいのは、トランスフォーマー。
トランスフォーマー。
めっちゃ効くでしょ。GPTのTだよね。
あーはいはいはい。
トランスフォーマーっていうのが出て、2017年にそのトランスフォーマーっていう論文がね、めちゃくちゃ有名な論文が発表されて、そっからドーンってAIが一気に発展したんだけど。
あ、そう。そんなのあるんだ。トランスフォーマーって言われても全然ピンとこない。なんかロボットの映画が浮かんだぐらいで。
そういう人は多いと思う。
そうですか。
テンション機構っていうのがね、持ったすごい、もうすごいのがあるのよ。それのおかげで、めっちゃ計算量減って、画像とか、いろいろ生成できるようになったよみたいな。文章もね、生成できるようになったよっていうモデルがあるんだけど。
めっちゃ知りたいね、それ。落ち着きたいね。
それはね、またね、かなりに落ち着いてもらう時間を作るので。
そうだね。速報ばっかりかまけとっちゃあかんでね。
今回はちょっと細かいところは説明しないんだけど。
一旦スルーで。
一旦スルーで、その再起型ニューラルネットワークというもの。そうだね、ニューラルネットワークを知らずに再起型をいきなり言われてもよくわかんないと思うんだけど。
まあ言ってしまえば、前のフレーズを踏まえて次の一音を決める、そういうモデル。
踏まえるモデル。
そう、だから一緒やね、そのさ、言葉を生成する時にさ、よく言ったやん、次に来る単語を予想してるだけだよみたいな。
おー、最もらしい確率の高いやつを選ぶっていうね。
そう、それと全く一緒。
僕の誕生日がみんなカネリンの誕生日になっちゃうみたいな話だね。
そうそうそう、ハルシネーションの回で。よく覚えてるね、その例えまで。
覚えてる、例えが秀逸だもんなんか。
素晴らしいね。
まさにそれ、音楽もランダムでさ、なんとなく全体がふわっとそれっぽくできるよりも、今までここまで流れてきた音を踏まえて、
次ってこの音来る確率高いよねっていう音を生成できた方が音楽っぽいよね。
確率でやるんだ。
確率でやる。
なるほどね。
っていうその確率を学ぶために、RNNとかLSTMって言われる先型のニューラルネットワークというのを使って、
言葉を扱うのと同じような感じで、この私は支部長ですのさ、私は支部長で来たらですって予想するように、
ドレミファソラシドの流れが来たら、次の音はこれだみたいな。
ドシラソファミレイドかもしれないし。
そうそうそうそう。
なるほどね、なんか似たような曲ばっかりになるんですよね。
あ、そうそうそう、何を学習してるかによるよね。
っていうので、その先型ニューラルネットワークを使った作曲っていうのが行われるようになってきたよね。
なるほどね。ようやくちょっとAIっぽくなってきたね。
AIっぽくなってきた。
ていうかAIなのか。
これはAI。なんだけど、またここで一個問題があって、これはね、言語の時も同じ問題を抱えていたんだけど、
RNとかLSTMっていうモデルは結構長期記憶を保存できないよね。
なるほど。
だからちょっと前の流れまでしか覚えてられない。ずーっとさ、音楽って流れてくるじゃん。
Aメロあってさ、Bメロあって、イントロあってAメロBメロサビになるじゃん。
じゃなくて、Bメロの途中ぐらいまでしかこいつは考慮してくれないから、
永遠にサビ来ないみたいな。
うーん、なるほどね。ちょっとなんか地方の方みたいになっちゃうわけだ。
そうね。
ずっとAメロ繰り返すみたいな。
ずっとAメロ繰り返したりとか、なんか曲としては別に違和感ないんだけど、ずっと抑揚なくなんか、いつ始まるんだろうみたいな曲ね。
なるほど。例えがめちゃくちゃ悪いけど、なんかイメージそうだな。
わかる、わかる。
ずっと同じ話が続く。
一生イントロみたいな曲とか。
一生落ちがない話みたいな。
そう。
なるほどね。あ、そんな風になっちゃうんだ。
なんか来そうで来ないみたいな。そんな風になっちゃうと。
ずっとサビってこともあり得る。
ずっとサビってこともあり得る。サビなのかなそれは。いきなりサビから始まるみたいな。
サビから始まってずっとサビ。
そういうね、本当になんか曲としてはたしないけど、メロディーかと言われたらすごく微妙みたいな、全体を通したのね。その瞬間のメロディーはいいんだけど、
全体として曲としては微妙だなっていうところで、もうちょっと自然大きい流れを組めるようになりたいと。
っていうところで、ここで初めてトランスフォーマーが出てくるね。
トランスフォーマーリベンジ。
っていう映画のタイトルだったかな。
トランスフォーマーの映画。
ロボットの、そのイメージしかないけど。そうですか。
これは2017年にトランスフォーマーっていうのが出てきた。まさにさっき言ったタイミングで。
トランスフォーマーってすごい優秀なモデルなんで、言語にもすごく使われたんだけど、これ音楽にも使えんじゃないかと。
で、トランスフォーマー界で詳しくは説明しようかなと思うんだけど。
トランスフォーマーって何よっていうね。
こいつはね、今まで今言ったのって結局前の言葉とか前の音楽とか、
自分が今予想したいものの後ろの長さ、このぐらいの後ろの長さまでしか考慮できないよっていう。
そういうものだった。だからそれより後ろは忘れちゃうよみたいな。
ある程度考慮できる長さは決まってるよっていうものだったんだけど、
トランスフォーマーっていうのは全体を見通して、ここ重要だよねとか、
ここって結構重要だよねってその重要度を結構つけれることができるのね。
全体を。
全体。で、関係性を瞬時に捉えることができると。そういうモデルのざっくり言うと。
ここ注目してねみたいな。
記憶力伸びたと。
そう。めちゃくちゃ記憶力が伸びると。
若くなった。
だから全体を見たらここサビだよねとか、ここAメロだよねみたいな。
そういうのを考慮しながら全体を捉えれるから。
俯瞰できるんだ。
そう。それを踏まえて作曲ができるようになったと。
なるほど。なんかやっと曲っぽくなりそうな気がするね。
そうでしょ。グーグルがミュージックトランスフォーマーっていうね、
トランスフォーマーのモデルを出して。
それがね、ちょうどね、それからぐらい触り始めたの。僕作曲のAI。ミュージックトランスフォーマー。
早いねでもね。
でも2017年ではなかった。そのグーグルがミュージックトランスフォーマー出したのが、いつだったかな?
2010…いや2020…いくつだっけ?ちょっと忘れちゃったけど、まあそんぐらい。
だからなんかそのPythonっていうさ、プログラムのコードで動くようになったから。
マゼンタっていう。
マゼンタ?
そういうライブラリなんだけど。
これ難しいね。
それを使うと色々動かせたのよ。
音楽?
音楽生成AIが。
だからこういうサービスとかじゃなくて、そういうなんかよくわかんないコードガチャガチャ系でやってたの?
そう、コードガチャガチャ系で学習したモデルがもう既に提供されてたから。
だからね、結構流行ってたというか、頑張って勉強してやってて。
プログラミングコードで?
そう、プログラムでやる。キラキラ星の途中まで入れて、その後半のオリジナルキラキラ星を作ろうみたいなさ。
はいはいはい。面白いね。
なんか普通の民謡とかの途中まで入れて、その後半を任せるとさ、なんか途中までそれだったのに途中から違う曲になるね。
でも違和感ないみたいな。そういうのが結構できるようになって、超面白かったなんか。
ちゃんと音楽として成り立つものができるんだ。
そう、成り立つ。まあでもチープではある。
まあ音がね。
音はチープではある。チャックメロの息を出るか出ないか微妙なところ。
まだチャックメロなんだ、そこまでで。
チャックメロよりはね、だいぶいいと思う。
リッチなチャックメロだね。
リッチなチャックメロって感じ。
14ビットみたいな。
そう、ギリギリ、ギリギリスーパーで流せるか流せんかぐらい。
その例え面白いな。スーパーね。
スーパーのBGMギリ流せて違和感ないか、なんかちょっと変なBGMだなって思われるか、ギリギリのラインぐらいの作曲はできた。
あ、そうなんだ。ポッドキャストで使えるかもしれないね、じゃあ。
いや、ちょっと厳しいかもな。邪魔になるかも。
ピンピコン、ピンピコンなっちゃう。
俺だったら絶対BGMで使うわけ。
あ、そう。そういうレベルなんだね。
そういうレベルぐらい。
数年前でもね、2020何年とか。
そうそうそう。本当にそのぐらいの時代で、そのぐらいの時代の作曲先生めっちゃ面白かったな。
え、なんで?何それ面白いの?
めっちゃ面白かった。なんかね、みんながみんなオリジナルの、どうすれば曲作れるかみたいなのを工夫して、アイデア出し合うみたいな時期で。
でね、ちょうど友達に教えてもらったのが、AIミュージックバトル弁斎典っていう。
弁斎典?
弁斎典か、弁斎典っていうさ。
弁斎典?
っていうなんかね、そういうイベントがあったのよ。
急に漢字が。
どっかの大学やってたバトルなんだけど。
あ、そうなんだ。日本で?
日本。弁斎典っていう。なんかね、一回しかやってない。2023年にやってたんだけどさ。
最近じゃん。
動画、YouTubeの動画あるから見て欲しいんだけど。
ちょっと載しときますかね、それね。
うん、載しときます。
どういうアプローチの人がそれ優勝したの?それなんか独創的な人が優勝したの?
あー誰だったかな、ごめんちょっと覚えてないわ。覚えてないけど、動画ね全部あるから。
一回見てみよう。
そう、ぜひ見てみてください。決勝までありますんで。
あと開放って言って、どういう風に曲を作曲したかっていうのも全部解説してくれてるから。
あー、それ面白いね。
8組出てるんだけど。だからね、ちょっと難しい部分はあるんだけど、でもみんな面白いね。全員アプローチが違うんで。
なるほどね。
っていうのが2023年にあったんだけど、もう冒頭で言ったように、今ってあんなんじゃん。
そうだね、今は普通に、普通にこのポッドキャストのBGMレベルが出てくるよね。
全然出てくるでしょ。
コーラスも入ってんじゃん。
そう。
コーラスっていうのがボーカルというか。
入ってる入ってる。
ね。日本語の曲も喋ってたよ、なんか。
喋るじゃん。
うん。
なんであんなマルチに。
そうだよ。
いろんなことができるようになってしまったのかと。
うんうん。
これ結局。
何かあったのね、これ。
そう、同じなんですよ。
同じ?
同じなんです。
なになに共通点があるの?なんか。
いや、あの前喋ってきたことで。
あー、分かったよ。
おっ。
いい?
いいよ。
あれでしょ。拡散なんとかだから、ノイズを。ノイズから来るんでしょ。
ゼーーーっていうノイズから逆算して作るんじゃないの。
正解。
正解。
マジで正解。
それしか。
素晴らしい。
それしか持ち手がなかった。
いや、素晴らしい。そう。
音楽もそれ。
全部言ってますかね、なんか。もう100%正解それ。
うわー。
すごいね。やっぱかなり。
おさらいするとね。
そう。
この間その画像でね。画像をどうやって生成してんのかっていう話で。
そうそう。
ちゃんとした犬の画像にノイズを加えていって、ぐちゃぐちゃになる過程を学習させて、その逆算をやってるんだみたいな話をこの間教えてくれたじゃない。
そう。
へーって思ったんだけど。音楽もそれ?
音楽もそれ。拡散モデルです。ディフュージョンモデルを使ってやってるんでね。
きた。すごいなでもそれ。あ、でもほんとにディフュージョンモデルなんだね。もうこの最近のすごいのは。
そう。だからね、そう。結局ディフュージョンモデルを使ってるの。
で今カネリンが言ってくれたのと全く説明は一緒なんだけど、ノイズ音から本物の音を復元するっていうのをやってる。
はいはいはい。
だから学習するときは音からノイズを入れて、ノイズに砂嵐みたいなザーっていう音にしちゃう。
ザーでしょほんとに。
そのノイズがほんとにザーかわかんないけど、そういうノイジーな音にして、そっからその過程を逆に学んでいって復元していくみたいなことをやってる。
へー。するとあんなリアルな音楽が出てくるってことなんだ。
そう。ただ、画像よりも音楽の拡散モデルの方が段違いで難しくて。
難しい?
難しい。っていうのは、まずもう量が膨大すぎるよね、データの。
あ、そう。
だって画像ってさ、1枚に対して、じゃあ1000ピクセル1000ピクセルでも、だいたい1000×1000なんで100万点ぐらいじゃん。
うんうんうん。
音楽ってさ、じゃあ1秒にサンプルが44.1kHzとかだったらさ、もうそれだけで1分間の曲で何万点のデータあるんだっていうぐらいになっちゃうね。
確かにね。時間軸があるもんね。
時間軸があって、それも考慮しなきゃいけないってなるととんでもない量になると。
確かにね。
さらに音楽はその点1個1個じゃなくて、改造構造を持ってるのね。メロディー、コード、リズム、表紙とか。
はいはいはいはい。
だから1枚の画像として扱うのよりも遥かに難しい。
なるほどなるほど。
しかも時間方向にくっついてるから。
それこそその音楽理論にのっとってちゃんとしてないとダメだからっていうこと?
そうそうそうそう。理論に従ってもそうだし、音楽理論に従ってるかっていう要素もあるし、メロディーもあるし、リズムっていう概念もあるし、いろんなその概念が多いよと。
しかも流れともイントロ、Aメロ、サビとかそういう展開も中には含まれてると。
さらにこのステレオ、音としてのデータもそうだよね。右左のステレオがあるし。
結構ね、これそうだよね。ちょっと変な風にずれるだけで違和感感じたりするじゃんね。
そうそうそう。
相当しっかり出てこないと変なものになるよね。
そうなんだよ。音色もあるじゃん。ボーカル、ベース、ギター。
そうだよそうだよ。そんなステーブル拡散モデル使ったからっていって、一発でポンって魔法みたいに出るんでしょ。
なかなかね、やっぱ出ないのよ。
うん、そうだよね。
学習させるのむずいなと。画像よりもだいぶむずいんじゃないかって言って、研究者たちはこの難しさをいくつかの工夫で乗り越えていくんですね。
分けるみたいな?一個ずつ分ける?
いや、これもね結局ね、この前最後の方にチラッとだけ出てきた。
えー?難しいやつ?
ちょっと難しいやつ。
分からんな、忘れたな。
潜在拡散モデルっていう。
えー?そんな話したっけ?
ステーブルディフュージョンがなぜすごかったのかって話をした時に、拡散モデルまではよかったんだけど、計算量結局多いと拡散モデルは。
なるほど。
そういう潜在空間っていうのを使ってAIが本物のデータを、AIが理解しやすい軽い形にギュッと圧縮した世界みたいなやつがあって。
そこに持ってってあげるね。
AIが学習しやすい。
人間的にギュッと圧縮したというよりは、AIが学習しやすい形に圧縮できるような空間に、潜在空間に持ってってあげると。
なるほどですね。
そこで処理をするよっていう。
コンピューターだけわかるコンピューター言語みたいな。
そんな感じだね。
感じかな。
っていう技法を使って音楽を学ばせると。
なるほど。
あとはトランスフォーマーとうまく組み合わせる。
トランスフォーマー。
ちょっと分かったよで分からないトランスフォーマーだな今んとこ。
結局拡散モデルって生成する部分だからさ。
その入力の部分にはトランスフォーマー使ってあげましょうみたいな。
そういう形でいろいろ組み合わせることによって、
それがね今のスノーAIとかそういうのの基本構成の作曲AIの姿。
潜在的拡散モデルで生成する。
そう。
トランスフォーマーで入力する。
そう。
この2つの組み合わせがあるから結構すごいことになってる。
そういうこと。ただスノーAIは公表はしてない中身のモデルを。
そうなんだ。
同じようなことができるスティーブルスタジオ、スティーブルスタジオだっけ。
スティーブルディフュージョンの会社が作ってる、スタビリティAIが作ってる。
スタビリティAI。
AIが作ってるAIのスティーブルオーディオ2.5とかはそういう構成に近い形になっていて、
スノーもそうだろうっていうふうに予想されてるっていう感じかな。
とにかくそういう潜在拡散モデルが音楽生成において結構重要な役割を果たしてるんだと。
だから今すごく音楽が生成できるようになったよということなんだけど、
いろいろちょっと説明してきたんだけども、ちょっとこの技術的な話のまとめというか、落ち着きなんだよね。
落ちをつけなきゃいけないんだけど。
そういう意味なんだ。
そういう意味にしました。今回から落ちがつきます。落ちじゃないけどね。結局、全部つながってるのよって話だよね。
昔から?
いや、画像とか最近のAIの発展って。
なるほど。
なんか急に動画ボーン、画像ボーン、音楽ボーンって。AIが急に噴火いろんなところでし始めたっていうふうに見えるんだけど。
そうだね。
一気にいろいろ発展したんじゃなくて、一個の技術がめっちゃすごくて、それがこういろんなところに派生してるっていう形。
なるほどですな。だからその拡散モデル。
そう、拡散モデルとトランスフォーマー。
トランスフォーマー。
この二つがすごく大きくて。
じゃあここ最近のすげーすげーの核にあるのは今日の言ったその二つがあるからだよっていう落ち着き?
そう。
なるほどね。
いろいろ発展してるんだけど、結局その二つがベースとなるね。そこからいろいろな改良が加えられて、もうそのすごいいろんな技術があるんだけど。
基本的にはやっぱりそこがベースとなって、いろいろ発展してるよと。だからもうすべてがね、新技術がどんどん出てきてるというよりは、一個の技術が派生しているというふうに捉えてほしいですよっていうのが技術的な今日のオチだね。
あーそう。結構解像度高くなるね、それね。
でしょ。
じゃあどんなAI系のやつでも大体そこがすげーから最近すげーだぜってことだよな、じゃあ。
そうだね。
それ以外ないかも。音楽があって動画があって画像があってそれぐらい?
そう。
もうそんなもんか。
あとは結局それが基盤モデルっていってさ、一個に繋がっちゃう。マルチモーダルの話もしたけど。
はいはい。
だから一個の大きい基盤モデルっていうので。
基盤モデル。
基盤モデル、そのファウンデーションモデルって言って、そのまあ基礎となるもの。こいつがもう音楽も出せるし動画も出せるし画像も出せるし言語も出せる。
まあマルチモーダルだから結局いろんなものを入力できちゃう。だから学習する脳みそも一個でいいよねみたいな。今までその画像用の脳みそがあって。
分けてたんだよね。
分けてたんだけど、もう一個。
今は一個なの?
そう、一個になってる。結構その基盤モデルって言って何でもできる一個の大きい脳みそ作るみたいな流れが今すごく大きくて。
今それをやってるってこと?
そうそう、それマルチモーダル化でね。
そういう、だから今後その今の、例えばジェミニで全部出るみたいな、すげーの出るみたいなこと?
そうそう、どんどんどんどん統合されていく流れにはなるとは思う。
そうなってくるとさ、こういう今回のSNOWみたいなさ、音楽専門のサービスとかはどうなっちゃうの?
どうなるんだろうね。
特化みたいなのはなくなってくるのかな?
いやでもUIとして明らかに使いやすいから。
そうだよね。
そっちでやっぱ。
買収されたり統合されたりみたいな感じになる?
それはね、あると思う。ビジネス的な観点で統合されたりとかはあるとは思うけど。
だって実際さ、今動画生成でもさ、音声も出れば別に歌うじゃん。
そうだね。
結局できてはいるよね。
そうか、じゃあ今後はもうあれか、全部できるようになってくってことか。今後の驚きポイントとしては。
汎用、人工知能に近いよね。何でもタスクに縛られずに何でもできちゃうよみたいな。
ドラえもん的なやつ。
そう、ドラえもんに歌わせようと思えば歌うたってくれるし。
道具出し設定はきっと道具出してくれるし。
そうなってった時に、じゃあ俺らは利用者としてはどこ使っても一緒みたいな感じになってくの?
どうなんだろうね。
どういう風になってくるのかね。今はさ、これができるサービスとかっていっぱいあるじゃん。
ある。
汎用型になってくるなら、あとは使いやすさで選んでだいたい中身一緒みたいな感じなのかね。
そうだね。でもさ実際さ、全ての製品ってそうじゃない?
うん、全ての?
車ってさ、俺車好きだから俺の意見ではないんだけど。
車好きなんだ。
車大好き。
珍しいよね今時ね。
そう、もう車ね、いまだにマニュアル車乗ってるからね。
そりゃ車好きか、物々の設計機械が好きか。
そう、メカ屋さんだからね基本はね。
そうだ、説明書とかマニュアル取り寄せてまでやる人だ。
なんだけど、その立場から逆に言わせてもらうと、車ってさ別にタイヤ4個付いてて走りゃいいよね。
あと乗る要領じゃん。
同じようなミニバンいっぱいあるけど、みんななんか別に1台で収束してないよね。
まあそうだね、みんなカローラってわけじゃない。
別にハイエース1個あればいいじゃん、ミニバンだったらみたいな。
うんうんうん。
なんだけどいろんな同じようなバンがいろんなメーカーから出てるから。
確かにね。
結局AIもそれに近いんじゃない?って思って。
別に何でもできるようになったら何でもできるようなサービスが世の中にいっぱいあって。
どれを使うかっていうのはその微妙な差で決めていくみたいな。
なるほどね、車と一緒ですか?
車と一緒って言うとすごい敵作るし、俺の本位ではないんだけどさ。
俺は一緒だと思ってないから。
わかりやすく言うとね。
車に興味がない人の意見でよくそういう話を聞くから。
あーそうかそうか。
タイヤ4つ付いてたら走り屋一緒やろみたいな。
違うねんっていうね。
なるほど、当然。
支部長の本心は違うけどね。
AIに関してはね、そういう応答してくれて、アウトプット出てくれば別に何でも一緒やろみたいな。
そうか。
これさ、何これちょっと質問していい?これ。
あいよ。
この音楽AIさ、今のとこあんまり活用してないんですよ。
なんかあまりつまらない音楽が多いなっていうのと、そこかなそこかな。
つまんない音楽多いプラス、なんかやっててもあんまり面白くないというか。
ガチャみたいな話で。
そこに、だから逆にちょっとDTMの作曲を勉強して、自分の思う通りを自分で作れるスキルを身につけた方が逆に面白いかなとか思ってDTMにしたんだけど。
どうなるんすか?この音楽、これ、スノーみたいなやつって。
いやーそれね、多分結構どうなるかって言われると、法的な問題が結構関わってきそうな感じ。
今のところ。
そうそう、法的な問題どうなってんのこれ。
結局結論から言うと、スノーAIはバチバチに訴えられてます。
あ、そうなんだ。
バッチバチに今控訴中。
怖いじゃんそれ。
結局そのレーベルみたいなところとか大手レコード会社からめちゃくちゃ怒られてるのね。
だってこれ学習に使ってる音楽とかっていう話?
そう。学習に使っとるやろみたいな。
絵も同じこと通ってきたよね?同じ道を。
そう、絵もね全く同じこと通ってきたんだけど、音楽の方が顕著なのよ。
あ、そうなんだ。
だって似てる音出ちゃうから。
なんか曲調をこの曲にめっちゃ似てねーみたいなやつが結構やっぱ出てしまう。
あ、そうなんだ。
っていうので結構権利関係がね、まだしっかりしてないというか、スノーAI実際戦ってる最中。
じゃあこれ使ったやつで、少容量OKプランでやったとしても、ちょっとやられちゃうかもしれないの?利用者。
なんかね、クリエイター側が、結構クリエイターと生成AI界は戦いなの結構ね。バチバチに戦ってて、権利とかその、なんかクリエイションって何なんだみたいな議論はあるんだけど、クリエイター側の気持ちはちょっと分かったなんか。
うん。
モヤっとするわと思って。
それって、その、それは作曲じゃないでしょっていうこと?
そう。それちょっと、そのなんか作曲なのかっていう。
あなたはボタンを押しただけでしょっていうことだよね。
ガチャをいっぱい引いただけでは?みたいなさ。
ガチャ感強いもんね。
そう。っていうのがあって、で、じゃあ生成AIで作曲した人は本当にクリエイターなのかっていう議論はあるんだけど。
うんうん。
これもね法的にもちょっと微妙で。
うんうんうん。
っていうのは、生成AIで作ったものって、著作権って誰にあんのっていう問題ってまだ解決してない実は。
まだ解決してないんだ。
解決してない。
うんうん。
基本的には、生成AIが作ったものは、作った人に著作権がないっていうふうにはなってる。
作った人っていうのは、利用者?
生成した人。
の著作物ではないと。
誰の著作物なのよそれ。
誰の著作物でもないよね。
なんじゃそりゃ空中に浮いちゃってんの?
浮いてる。
ただ、これも結局法の解釈みたいなさ。
うん。
かね、なんかどっかで言ってたよね。なんか法律で解釈する余地あるよねみたいな話しなかったっけ。
解釈だね。
そのね解釈の余地が著作権の概念にもあってさ。
うん。
著作権って概念としては、著作物とは思想または感情を創作的に表現したものであってと。
思想または感情なんだ。
を創作的に表現したもの。
創作的にってとこがポイントかな。
文芸、学術、美術または音楽の範囲に属するものを言うと。っていう定義があるのね。
創作に当たるのかっていうガチャが。
でも結局そう、創作に当たるのかどうかというところで。
踊りながらボタンを押したとて。
ただ、これも物は異様でしかなくて。
じゃあ創作、例えば創作の過程でツールとして生成AIを使いましたって言った場合は、それは著作物になるよねって。
で、そのペンを使って絵を描きましたとか。それと一緒じゃん。
一部分をちょっと使ったとか。
それが一部分であれ全体であれ、ツールとして、創作のツールとして使ったんだって言われちゃったら、それは創作物。
ただなんとなく生成AIのサービスを使って作りましたと。
になったら、それは創作物じゃないよね。だから著作権あなたにないよねっていう、すごく曖昧な線引きの部分なのね。
じゃあ、なんかAIで生成したやつをMIDIのDTMのアプリでちょっといじったりすれば、創作ですって言い張れそうな感じだよね。
それはね、創作っぽいよね。
そこまで行けばいいんだ。1音でも足せばいいんだ。
足さなくても、結局俺の創作がこれなんだって本人が言えば創作になると思うけど。
そうなんだ。
結局AI生成の製作物は原則として著作権法の対象外にはなってるんだけど。
じゃあ例外なんだ、そっちの創作の方が。
でも創作だよって本人が言えば、それは対象ないになると思う。
別にDTMでやってなくてもMIDIで吐き出さなくても。
これが俺の感情の創作表現なんだって言えば、それはクリエイターってなっちゃう。
ボタンを押してるだけでも。
そう。
なっちゃうんだ。
なっちゃうだろうねって。そこ線引きができないから。
今のところなりそうな雲行きなんだ。
だからそこをもうちょっと厚く自分を守りたければ、より創作っぽいコードを入れていけばいいかもねってことだよね。
そうだね。
MIDIで出して、ちょっと改造すればいいんじゃないのって。
そうそうそうそう。
誰から見ても裁判所に主張できるようにみたいな。
なるほどね。
じゃああれだね、後から黒ってなる可能性があると、PodcastのBGMとか使うと後から怖いね。
そう、スナオAIがなんか、そのスナオAIが構想でやられちゃったからつって、それで制作したものすべて権利ダメだとは、さすがにもうようできんとは思うけど、まだちょっと戦ってるよっていうのは、知りながら使った方がいいと思う。スナオAIに関しては。
なるほどね。画像系もそうだよね。そうってことだよね。
画像だね。画像系はでも、出た画像が別に何らかの著作物に通ってなければ問題ないと思う。音楽もそうなんだけど、ちょっと難しいよね線引きがね。
ただ、じゃあ全部の音楽生成のAIがそうかって言われたら、微妙というかそうじゃないのもあって。
あーそうなの?
えっとね、それこそさっきちょっと冒頭で紹介した、日本が作ってる音楽生成のツール。サウンドローってやつは。
サウンドロー。
これ基本的に学習で使ってる音源は全部フリーの音源を使ってる。
あーなるほどね。
最初から著作権オッケーな状態。日本ぽいよね。だからすごい作り方が。
確かに確かに。
最初からも大丈夫なように作っていて、うまくコントロールできるようにもなってる曲調もね。
なんかクリエイターが安心してこう生成AIをクリエイションに使うためのツールとして開発されてるから。
一回使ったわこれ登録手で。
なるほどね。
これはね、使っても大丈夫なやつ。
なるほどね。
日本人らしいやっぱり礼儀正しい生成アイですよ、これは。
なるほど。こういうのだったらいいんだ、結局。
うん、これはね、いいと思う。
分かりましたよ。でもさ、これさ、学習に使ったのはさ、フリーかもしれないけどさ、結果的になんか似たのが出てきちゃうことってあるじゃんね。
まあそうね。
それはもうしょうがないですねって済むの?それ。
それはもうしょうがないんじゃない?だってさ、そんな普通に自分で作曲しててもさ、なんか。
そうだよね、結果似ちゃいましたってのいっぱいありそうだけど。
あるある。結局なんかいいメロディー思いついてさ、これいいやんって思って打ち込んだらさ、これあれやんみたいな、これあの曲のあそこの部分やんってなるじゃん。
さっきからいっぱいそうだよ、てんててててててててんてんてんとか。
絶対なんかのインスピレーションで出ちゃうよね。
それは丸々あるけどね、それね。
でしょ?だからまあそういうね、それは別に既存の作曲であっても同じじゃ同じかなって思うから。
それはいいの?ちょっと気づいたら変えるみたいな感じなの?その既存の作曲において似たようなフレーズ出ちゃってとかは。
まあまんま同じじゃんけりゃいいんじゃないかなと思うけどね。なんかコード進行一緒で同じフレーズ使ったらまんまそれになっちゃうけど。
ちょっとそこあれと似てるよねみたいなやつは全然許される気がするし。
そんなに丸々パクリみたいな感じにならん限りはいいってことだと。
どっかもう曲がね5万っていうかもういくらでも曲って無限にあるからさ。
そうだよね。
3人いるよね。
今後こうやってさAIで作りましたみたいなやつが無限に出てきたらもうカオスだよね。
そうやね。
学習するものもなんかね。
俺がAIで作った曲と似てる曲をお前も作ってるやないかって言ったら権利ってどうなるのやろみたいなね。よりカオスになってきそうだよね。
そうだよね。
2人ともボタンを押しただけなのにね。
あんまりちょっとトゲがあるけど今日はねちょっと。でもそういうもんなのよ。
いやでもその辺シビアだよね。どうなってくのかちょっと気になるな。
結局自分で学習するのってすごい大事だと思ってさ。
だから民主化ってクリエイターもどき量産することじゃないよねって思うよね。
あーなるほど。何なの?民主化っていうのは。
結局その自分の創造のためにその技術を使いやすくしてくれるみたいな。
そういうところなんじゃないかな。あまりにもこう曲作れちゃうからさ。
でもやっぱさ民主化されて嬉しいからみんなわー俺も作曲家だぜってこうなるよね。
なるけど、なるけど結局これもね最近読んだ本に書いてあったんだけど。
感情論というか経験則なんだけど、生成AIって生成AIの使い手以上のレベルのものを生成することできないよねと。
なんか哲学的だねそれ。
結局そうなんだよね。
どういうことそれ。ボタン押すだけじゃん。
なんだけどいっぱい出てくるじゃん。その中で選択するのって本人だよね。
成果物出てきた中で。
そうだね。
その選ぶのってさ本人の力量でやん。
力量なりセンス?
センスじゃん。本人にその分野の知識がなければいいものって選び続けられないよねって。
し、プログラムの文脈でもそうだよね。コードバーって出てきてさ。
なんとなく動くけど中身が分かってなかったらやっぱそれ以上のものを作れないと。
本人が理解している以上のものを生み出すのが難しいよねと。
これさ音楽で言うとそれってさ音楽理論だとかいろんなことを分かってないとやっぱりダメってことなのかね。
インスピレーションとかさ雰囲気とかセンスとかでやっちゃうアーティストっていう今後のそういう人は出ては来ないのか。
いやそれはいると思う。今でもいるしねそういう人は別に。
感覚でやっちゃえるのは。
感覚派はいるし。
あり。僕なんか割と感覚派だからさそういう人にとってはなんかそれこそ民主化というか使いやすいなんかツールがいっぱい増えてるみたいな感じなんだけどね。
その概念だったらいいと思う。ツールの一個増えたねみたいな。
俺めっちゃ理論派だからさ全部。
そうだよな。
音楽理論とかコード進行とかちゃんと全部学んだ上で作りたいみたいになっちゃう。
だろうね。
すごいねそうなっちゃう。なんでここがこのコードなんやっていうのが理由が分かんないとねモヤっとする。
でも理由分かんないけどこのコードめっちゃいいやんっていうのもあるから。
なんか音楽って別に結局理論だけじゃないからさ感性の世界だから。
そうだよね。このちょうどサウンドローとかもいじってて思ったんだけどさ動かせる範囲とか変数が限られてるからさなんか似たりよったりなものしか出ねえなって感じでつまんないなって思ったんだよね。
ちょっとなんかぶっ飛んだ音楽との出会いみたいなのがないから。
そうそこで発散なのよね結局音楽ってさその例外が生きる場合がめちゃくちゃあって。
これでこの相手のコード進行これを入れてくるかみたいなやつがなんかその人の味だったり意気だったりするじゃん。
それだと本当にあのさ音楽のフリー素材サイトとか海外のやつとか見てる方がよっぽど楽しいんだよね。
なんだこの曲はみたいなうわこのぶっ飛んだ曲使えるかなっていう新しい出会いがあるけど今の音楽生成系はあんまりそれがないから使えねえなってその時思った。
いいまとまりがやっぱお利口にまとまってくるよねすごくね。
うんそうだね。
だから。
そんな感じがするな。
あれ見るとぶっ飛ばすのが人間の役目になってくるのかもしれないね。
そうだよな。
結局ルールにねルールベースから始まったものがいろんな発展を得てルールに従った音楽を作ってくるようになったと。
それそこまでそこもまた変数で設定できるようになるのかしらねぶっ飛び度合い。
なると思うよ。
いくつにしますかみたいな。ぶっ飛び100でみたいな絶対ぶっ飛ぶみたいなさ。
ある。てかそういうなんか生成AIでもさテンプレチャーって言って温度っていう概念で変な回答を出すかより堅実にするかみたいなさパラメーターは設定であるから。
そうなるとぶっ飛ぶことすらAIでやるっていう時代か。
人間は何をするんや。
そこやっぱ外れ地だよね。AIが計算するようなぶっ飛び方じゃぶっ飛んだことなんねえよみたいな。
そうだね。人としてのスパイスを。
なんかほんと問われるよねこの人間とは何なんだろうみたいなこと。
めっちゃ哲学を問われるようになってると思う。なんか知能とは何かとかAIが人間っぽくなることによって人間とは何かをすごく問われる時代になんかなってきてる気がする。
言葉とは何かもそうだし。なんか我々普段使ってるその一個一個をなんかより深掘りしていかないと飲まれる気がするよねAIにね。
やっぱそこに抗っていきたいね。
抗っていきたいね。
どうなるんかわかんないけど。
でもさこの本当に雰囲気だけでこうぽいことを考えてたけど今までも。
支部長とこの番組やることによってなんかブラックボックスだったところの解像度上がればよりクリティカルな答えが導けそうな気はしてるんだけど。
そういうことを考えると支部長の捉えてるAIが今後どうなるんだろうな人間はどうなるんだろうなみたいなことってだいぶ俺と比べて解像度高いのかなって思ったりはしてるんだよね。
いやそんなことないよ多分。俺結局技術面白えでね。そういうとこ考えずにそのまま飲まれていっちゃう部分はあるから。
あなたはそういうタイプではないでしょ。
いやまあねなんかふと我に返って俺は今何をしてるんだみたいな感じになるけど人は一体何をすればいいんやみたいな。
それは昔から思うよなんかね働いててもなんか自動化自動化つって。工場をね製造業だからさ本業が工場自動化しようとかAI入れてこうね人手不足を解消だつって。
人がいなくても動くぞつって。じゃあ人は何をするんだみたいな。そこ放置なのよね基本ね。人はじゃあ人ができることをやりましょうっていうなんかふわっとした文脈で自動化を推し進めるんだけど人ができることって何なんみたいな。
もう全部AIできるんですけどみたいなところがあって。
うんうんそうなんだ。
そこをすごいむずいなと。なんかみんなさ先に技術入れたいからさ技術技術ってやりたいからなんか空いた時間で人は人のできることをやりましょうみたいな。
まあそんな自分で考えるって話なんだけど確かに空いた時間の人たちがね。
でもやっぱりそっから追い出されて初めてさ、そうならないと次のその新しいやることってわかんないよね。
そうわかんないじゃん。
その昔のよく言われるけどタイプライターとか電話交換手みたいな人たちがいたりね切符の改札切ってる人がいたりしたように。
あーそうそうそうそう。
その人たちどこに行ったのかってまあなんか別のとこ行ったわね。
うん。
それと一緒だとか言われるけどじゃあなんだろうねっていうね。
それと一緒だーって言ってね。じゃあそれを一生懸命作ってさ工場に導入した技術者は人を本当に幸せにしたのかみたいな感じになるよね。
うんうんそうだよね。
そうなんだよね。
まあ別にね利益が上がりゃいいって言えばいいんだろうけどさ。
でもまあもっとこういろいろ深く考えていった時にもうちょっと考えてあげられたことがあるんじゃないかとかさ。
なるほどね。
なんかあえて見ようとしてた部分があるんじゃないかみたいななんかその過剰なさその工場の自動化の流れに時々疑問を思うことがある。
あーそうなんだ。工場って何自動化すればいいってもんじゃないんだ。
自動化すればいいと思うよ。いいと思うんだけど。
経営的には効率的にはってこと?
そう。機械のさ使ってるオペレーターって方もいるよね。ノウハウを持った。
そういう人がなんか機械とかと親和性があるような形でそういう人をさじゃあ除外してもう代わりとして完全にやっちゃうのがいいのか。
親和性がある形のシステムを作る方がいいのかって結構難しいじゃん。
その人じゃあいないものと想定して仕組みを作っちゃった方がいいのか、そういう人がもうすごい活躍できるような仕組みを作ればいいのかとかさ。
なるほど。
いろんな視点があるなと思う。全然本業でAIからだいぶそれって本業の話になったけど。
でも割と現実的な話じゃない?それね。
AIの文脈でもやっぱそういう話がいっぱい出てくるから。人の仕事を奪うんだみたいな。
なんかAIによって効率化してるって言われるけど、なんかAIのお手伝いさんっていうかお世話係になってるような気持ちになることあるんだよね。
確かにね。
なんかね、こっちで出力されたものをこっちに人間がコピーして貼り付けてみたいなことばっかやってるからさ俺なんか。
わかるそれ。
エラー出てきましたはいAIさんどうぞみたいなさ。
これはAIにやらせた方が早いんかっていうものはあるよね。
逆に効率悪いなみたいなこと。結構みんな言ってない?それなんかAIで時間とかして頑張っていろいろ企画書とかなんかさ文書系作れちゃうからさ。
なんか壁打ちしながら文書作ってたら時間とかしてとかね言ってる人結構多いから。
そう。結果時間かかったよねってパターンも絶対あると思う。
でもねAIでやったって一回やってみるっていうのは大事だと思うけどね。
だから本当見た目っぽいものがすごいできるからさ。
これ本当にあなたの思想入ってます?みたいなね。
あれね本当危ないというかぽすぎるよね。
ぽすぎてビジネスプランにせよ何にせよそうだけど。
あれ全部疑ってかかるっていう視点がないとね本当に脳みそ食われちゃうよねAIにね。
本当そうだよね。なんか本当に手先みたいな感じになってんなと人間が。
あれ本当にね文句言うけど。
意気揚々とさAIに聞いたらこういう回答いただきましたみたいなことを平気でメールに貼ってくる人いるんだけどさ。
お前何なんだって思うもんねあれ見るとね。
お前脳みそどこ行っちまったんだって。
なるほどね。
思いながらねいっつもいやそんなん誰でもできるんだからさいちいちAIにまとめさせてもらった結果これですみたいなことをさ俺に報告していくんじゃねえって。
なるほどね。
思ってああありがとうねって言ってる人間です。
ありがとうねって言ってるね。要はそんなもんね必要だったらこっちでAIに聞くからお前のバリューねえよってことでしょ。
そうだからそれはさ自分でそのアウトプットを見ていいと思えばそのまま貼ればいいし、足りないなと思ったとか書き加えるっていう。
魂の入魂はいるでしょと魂を入れるって。
入魂ね。
ちょっとAIとの付き合い方ねだからあれだよね驚いちゃってるからそうなるんだよね。
その驚いて喜んじゃってるからこんなすごい文章自分で書けないのポン出しでできたよどやーみたいな。
俺優秀だろ俺みたいなことを上司にやっちゃうわけでしょ。
そうだと思う。
バカだなこいつって思われて。
やめてくれよって思ってね。
AIってそれだったら直接俺がチャットGPTとやるわってなっちゃうから。
意外と冷静に見られてんだよっていうね。
そうだから魂を入れるっていうのはね。
魂入れる。
大事だよねAIの成果物にね。
なるほどねそういう面でも早く落ち着いて本質わかって使わないと結構痛い目見るかもねっていうことだよね。
そうだね結局魂の入れ方よね。
どこに魂入れるのかとか。
どこに余地があるのかみたいな。
どれだけ生成AIが出してくるものがシステマティックにやってるかみたいな。
まるで人間のように交流できてるけど。
どれだけ非人間的なものが出してきたアウトプットなのかっていうのを理解すると魂入れたくなるだろうね。
ちょっと本質に近いなこの辺もまた話そうよこれ。
そうだねめっちゃ長くなったね今日もうやばいねこれ。