1. おちつきAIラジオ
  2. なぜSuno AIは凄いのか?作曲A..
2025-10-17 1:19:29

なぜSuno AIは凄いのか?作曲AI60年の歴史を遡り、仕組みから著作権まで徹底解説 (ep.8)

spotify apple_podcasts

 Suno AIをはじめとする音楽生成AIは、どうやって人間が作ったような自然な曲を生み出しているのでしょうか?実は、AIによる作曲の試みは1960年代から続く長い歴史があります。現役AIエンジニアのしぶちょーが、音楽生成技術の進化の道のりを徹底解説。音楽理論を教え込む「ルールベース」から、生物の進化を真似た「遺伝的アルゴリズム」、そして現代のAI技術の根幹をなす「トランスフォーマー」や「拡散モデル」まで、その仕組みを分かりやすく紐解きます。特に、複雑な音楽データを効率的に扱う「潜在拡散モデル」の考え方は目からウロコ。最近話題の画像・動画生成AIとも共通する技術の核心を知れば、AIニュースの裏側がもっと面白く見えてくるはずです。


【目次】

() オープニング

() 今回のテーマは「誰でも音楽クリエイター?音楽生成の仕組み」

() Suno AIだけじゃない!最近流行りの音楽生成AIツールたち

() なぜAIは曲を作れるの?作曲技術の進化の歴史を深掘り!

() AI作曲の原点!1960年代の「ルールベース」時代とは?

() 犬と猫を見分けるAI?ルールベースと機械学習の根本的な違い

() 生物の進化を応用!?「遺伝的アルゴリズム」を使った作曲法

() 次の音を予測するAIへ。「再帰型ニューラルネットワーク」の登場

() 長い曲は作れない?短期記憶しかできないAIの限界

() 救世主「トランスフォーマー」登場!AIの記憶力が劇的に向上

() 2年前はこんなレベルだった?AIミュージックバトル「弁財天」

() なぜ急に進化した?画像生成と同じ「拡散モデル」の衝撃

() 音楽生成は画像より難しい?AIを賢くする「濃縮還元ジュース」理論

() 現代の音楽生成AIを支える「潜在拡散モデル」とは

() 今回のオチ:全てのAI進化は「2つの技術」につながっている

() AIの脳みそは1つになる?「基盤モデル」とサービスの未来

() Suno AIは訴訟中!?音楽生成AIの著作権と法的な問題

() AIが作った曲は誰のもの?「創作」の定義と曖昧な線引き

() 安心して使える!日本発のクリーンな音楽生成AI「Soundraw」

() AI時代、人間の役割は?生成AIの使い手を超えるものは作れない

() AIが優等生だからこそ、人間に「ぶっ飛んだ発想」が求められる

() 人間とは何か?AIの進化が私たちに問いかける哲学的なテーマ

() AIに魂を入れるということ。コピペで満足する人にならないために

() エンディングトーク:腰を据えて学んで、魂を込めてこそ落ち着ける


【今回の放送回に関連するリンク】

(1)SunoAI

https://suno.com/home

(2)Stable Audio 2.5

https://stableaudio.com/

(3)SOUNDRAW

https://soundraw.io/ja

(4)AIミュージックバトル!『弁財天』

https://benzaiten.studio.site/


—----------------------------


【番組の概要】

日々のAIトピックを、現役のAIエンジニアがやさしく解説する対談番組。AIニュースに驚き疲れたあなたに、おちつきを提供します。AIニュースの、驚くポイント、驚かなくても良いポイントがわかります。

★ご感想やコメントは、番組公式ハッシュタグをつけてX(旧Twitter)でポストしていただけるとありがたいです。

【番組公式ハッシュタグ】

#おちつきAI

【番組公式X】

https://x.com/ochitsuki_AI

【パーソナリティ(MC)】

▼しぶちょー

・AIエンジニア

・技術士(機械部門) 

「大手機械メーカーでAI開発の最前線を担う現役エンジニア。AI(ディープラーニング)の実装スキルを証明する「E資格」を保有。機械(ハードウェア)への高度な知見も有し、双方の専門性を掛け合わせ『AIの社会実装』に貢献する。情報発信活動にも精力的に取り組み、ブログ・音声配信(Podcast/Voicy)・SNSなどで幅広く活躍。単なる技術解説でなく、行動変容を伴う情報発信を信条とする。その姿勢が評価され、2025年UJA科学広報賞 審査員特別賞を受賞。著書に『集まれ設計1年生 はじめての締結設計』(日刊工業新聞社)。岐阜県テクノプラザものづくり支援センター広報大使、生成AI EXPO in 東海 共同代表も務める。」

https://x.com/sibucho_labo

https://voicy.jp/channel/3963

▼かねりん(金田勇太)

・KANERIN Podcast Studios 代表

・一般社団法人 地方WEB3連携協会 理事

「刑事司法実務の最前線で多数の犯罪捜査を指揮。2017年から暗号資産業界へ参入。数々のグローバルプロジェクトに参画しコンサルティング、情報分析・アドバイザリー業務を提供。コンサートライブ配信業、音声配信業、テックメディア創業等を経て、ポッドキャストレーベル兼プロダクション「KANERIN Podcast Studios」を創業。多様なパートナーと共に、未来へつなぐ声の原典を共創している。」

https://x.com/kanerinx

https://voicy.jp/channel/2534

【プロデューサー】

かねりん https://x.com/kanerinx

【サウンド・アーキテクト】

Aviv Haruta https://x.com/oji_pal

【カバーアートデザイン】

UTA https://x.com/uta_dib

【制作/著作】

KANERIN Podcast Studios

--------------------------------------------------

※画像引用元:

【各種ポッドキャストスタンドへのリンク】

Spotify

https://open.spotify.com/show/6iGk39bSta5KZ1QD7jvK2o

Apple Podcast

https://podcasts.apple.com/us/podcast/id1841316430

Amazon Music

https://music.amazon.co.jp/podcasts/aba8e9a4-aefb-404a-b366-4b7a11b3f7cb/

YouTube

https://www.youtube.com/playlist?list=PLNQiF7XIko7QOIlyFMiI_aDdk1eJzNiCD

LISTEN

https://listen.style/p/ochitsukiai

サマリー

音楽生成AIの進化とその歴史について、ルールベースや遺伝的アルゴリズムを用いた作曲方法が説明され、技術的側面や利用可能なツールが紹介されています。また、音楽制作の民主化が進み、誰もが音楽をクリエイトできる時代が到来したことが語られています。Suno AIの作曲技術は進化的アルゴリズムに基づき、良い楽曲を選び出し、それを他の楽曲と交配させて進化します。また、RNNやLSTMといったニューラルネットワークが導入され、曲の全体的な流れを考慮した作曲が可能になったことにも触れています。Suno AIによる作曲の進化を振り返り、その過程や技術的背景、さらには著作権の問題についても解説されます。最近のAI技術の進化は、生成された音楽の質や多様性に大きな影響を与えることが示されています。Suno AIは音楽生成技術における潜在拡散モデルとトランスフォーマーの重要性について説明しています。この技術の進化によって音楽制作の過程が変わり、特に著作権の問題が浮上しています。Suno AIの登場により、作曲の創作過程や著作権についての議論が活発化しています。このエピソードでは、生成AIが作曲に与える影響や著作物としての位置づけについて深く掘り下げ、特に日本の音楽生成ツール『サウンドロー』の特徴にも触れています。本エピソードでは、Suno AIの進化と音楽制作における歴史を探り、作曲AIがどのように進化してきたか、そしてそれに伴う著作権の問題について詳しく解説されています。また、AIが人間に与える影響や、自動化が進む中での人間の役割についても考察されています。

音楽生成の進化
おちつきAI
おちつきAI
おちつきAI
AIエンジニアのしぶちょーです。
AI素人のかねりんです。
この番組は、日々のAIニュースで驚き疲れたあなたに、ゆっくりじっくり、AIを学んで落ち着いていただく、そんな番組でございます。
はい、ということで始まりました。おちつきAIラジオ。早速ですね、今日のテーマに行きたいと思います。
今日のテーマはこちら。
誰でも音楽クリエイター?音楽生成の仕組みでございます。
禁断の音楽AI
音楽AI
禁断なのかな。最近すごく話題で、結構前に喋ったトピック回でもスノーAIの話を少しさせてもらってるんですけど、ここ数ヶ月で音楽生成まためちゃくちゃ良くなってきてると。
実際に音楽生成、かねりんはちょっと触った?
ちょこっとね。まあなんかワンボタンでそれなりのできますねみたいな。
そうよね。しかも結構はたんなくというか、普通にBGMとして使ってもほぼ違和感ないみたいな。
そんな感じだよね。ポッドキャストのBGMぐらいだったら全然いいんじゃない?
でしょ。相当ね、はたんなくこれできるようになってるのよ。
渋長は音楽割と詳しいっていうかやってる人だよね。
かじってるぐらい。かじってるぐらいである。一応ベーシスト。ベースをやってる。
ちょっと音楽家目線的なとこもちょっとありのって感じ?
一応作曲もかじってる。一曲は投資で作ったことある。曲。自分で打ち込みで。
ていうぐらいの音楽知識というか触りぐらいは分かる視点で音楽生成のすごさちょっと語っていきたいと。
いいね。僕は素人でちょっとDTM、デスクトップミュージックだっけあれ。
をやり始めようかなぐらいでちょっと勉強してキーボード買ったぐらいのなんちゃって知識です。
結構好奇心多そうよね。道具揃えるの結構好きよね。
そうだね。とりあえず買うっていうところね。
結構ね、そうそうそう。そういう視点で見ても面白い。今すごく音楽生成面白くて。
結構スッキリしたかったんでちょうど。ありがたい。
今日も1時間ぐらいガッツリちょっといろんな視点で音楽深掘っていくんで。
そんな話すことある?
いやあるよ。あるというかこう深掘り回歴史掘っていくじゃん。こういうついでみたいな。
じゃあ音楽関係これでさらっとさらえる感じ?
さらえる感じ。音楽関係の今までAI。音楽を自動で作曲しようって思ってきた人たちがどういうアプローチをしてきたのかということがなんとなくふわっとわかると。
その歴史的な話から。
ルールベースと機械学習
そう入っていきます。
いいじゃん。
というのもあるんだけどまず最初にちょっと流行りのツールというか簡単にSNOW AIの紹介。
SNOW AIね。
今ね色々あるのよ音楽生成のツールって。
SNOW AIとかスティーブルオーディオっていう。
スティーブルオーディオ。
スティーブルディフュージョンっていうさ画像生成あるじゃん。
前もちょっと話したよね。
そう出たじゃん。あそこの会社同じところから出してる音楽版みたいなやつがあるのね。
これもね結構いい。
なるほどね。
SNOW AIぐらいしか知らなかったななんかまともなやつっていうと。
結構ね使えると言われているのもあるしこれ珍しくというか日本発のやつもあるのよ音楽生成のやつ。
なんかぽくないね。
サウンドローっていう日本発で日本人にすごい使いやすいようになってる音楽生成AIのサービスもあると。
いいね。
結構いっぱいあってその他もろもろいろいろあるんだけど、その共通してできるのは音楽が自動で作れますよという感じになってます。
AIあるあるなんだけどさAIってあらゆるもの民主化しがちだよねと。
そうだね。
何々の民主化とかってよくAI言われるんだけど。
やっぱこの作曲のAIはね作曲の民主化だと誰でも音楽を作れる時代になったねみたいな。
そういう文脈で語られることが非常に多いと。
そうだね。
曲ってさどうやって自動で生成してるのか意味わかんなくない?
そこだよね。
画像より意味わかんないんだよな。
要素が明らかに多いじゃんね。
そうだよね。
いろんな概念があるからさ音楽って。
なんかそうだよね。楽譜と音があれば音楽なるのか、そうでもないのかみたいなね。
一応ね音楽にはなるけど和音みたいな、昔の着メロぐらいの話になるよね。
っていうところからねじゃあちょっとAIの作曲の技術の進化をちょっと歴史を追っていくというところをまずやっていきたいと思います。
何で曲ができるのかと。
結構ね歴史古いんですよ。
そうなの?
生成AIというかAIで作曲してやろうっていうのが始まったのは1960年ぐらい。
古い。昭和じゃん。
この時はAIというよりはルールベースと言われるもので。
ルールベース。
ルールベース。もうガチガチにルールベースって言われてる。
こうきたらこうみたいな。よくねAIの文脈でねルールベースか機械学習かっていう風に言われたりするんだけど、
ルールベースっていうのはもうこうきたらこうするって必ず決めたルールがあって、そのルール通りにプログラムが動いてるよっていう。
へえ。
なんか学習した感じじゃない?
もう決めてる。人が決めてる完全に。
なるほどね。
なんでかっていうと、音楽って結構ルールあるじゃん。
うん、あんの?
その音楽理論。コード進行とかもそうだし、
音楽って結構ルールあるじゃん。
うんうん。
音楽理論。
うんうんうん。
コード進行とかもそうだし、
あーなんかあるっぽいね。よくわからんけど。
ね、あとなんか一応スケールがあるじゃん。じゃあこのキーとか、この曲のキー。
Cメジャーみたいな。
そうそうそうそう。
聞いたことあるけど未だによくわからん。ドミソーとかドファラードみたいな。
そう、Cメジャーって言ったらもうドレミファソラシドやねもう。
まあその音階から外れなければまあキー乗ってるよねみたいな。
そっから外れた曲ね、あの音があるとなんか、なんか違和感あるなみたいになるとか。
あと拍子もさ4分の4とかさ。
拍子があって、小説があって、コード進行があってみたいな。
で大体組み合わせこのぐらいにしようねみたいな音楽理論ってあるのよ。
へー。
よっぽどこれ外してなければ普通に聞こえるよねみたいな。
うんうんうん。
だからそういう組み合わせの中で、こう来たらこうみたいな。
ルールをあらかじめ決めておけば、
まあある程度ね、どこかに乱数を持たしておけば、
ポチッとボタンを押すたびに新しい曲できるよねと。
うんうんうん。
破綻なく。
ルールに従えばそれなりのものはできそうな気はするね、なんか。
そうそうそう。
だからそのもう本当にね、CのCメジャーみたいな。
コード進行でバーって流れてるところにドレミファソラシド適当に打てば、
なんとなく曲っぽくなるみたいな。
うんうんうん。
まあそういうことを最初にやってたのが、ルールベースの作曲。
なるほどね。
うん。
一応できそうっちゃできそうだけどね、なんか。
どうなんだろうね。
どう思った?面白くなさそうと思ったでしょ。
味気なさそう。
うん。
ルールっていう言葉にもう花瓶に反応した。
ハハハハハ。
ハハハハハ。
ルールか。
それカネリンっぽいけどさ。
ルールに従ってやったやつかって。
でもね、それをね、すごい大事。
AIの文脈でルールベースか機械学習かって結構よく出る話なんだけどさ。
そのさ、ルールベースって昔の手法ってこと?
そう、昔の手法。
最近はもう機械学習?
いや、そう。
ルールベースで成り立つものはルールベースでいいと思うっていう感じ。
うーん、そうなんだ。
普通にプログラムとかね、こう、この数字以上だったらこうするよみたいな分岐がいっぱいあってみたいな。
うーん、今でも使われてるんだ、そういう。
全然使われてる。
簡単なやつはってこと。
そう、機械学習である必要はないよね。
人がルールを決めて判断できるよねってものは、ルールベースで作ったほうが安定するよね。
うん。
意図通りに作れると。
そう、意図通りに動いてくれるから。
ほいほい。
なんだけど、人がルールを決められないようになってくると、AIにルールを決めてもらいましょう。
自分で判断基準を持ってもらいましょうっていうので、そこが機械学習の強みだよね。
うんうん。
遺伝的アルゴリズムの導入
なるほど。
ちょっと画像の例えで言っちゃうけどさ、分かりやすく。
うん。
犬を、犬たらし犬、犬たらし犬、犬たらし犬、犬たらし犬、犬たらし犬、犬たらし犬、犬たらし犬。
犬たらしめてるものって人間には分かんないよね。
はいはい。
犬って、なんか四足歩行だなって分かるじゃん。
耳ついてんなと。
鼻がこうシュッとなってるな。
これ犬だなって分かるけどさ。
そのAIじゃなくて、このコンピューターにさ、これが犬ですよって特徴全部教えようと思ったら、無理よね。
そうだね。
だってそのね、抗議みたいなやつもいればさ、お金持ちの犬、ボロ添いみたいなやつもいるじゃん。
なんかセレブーな感じの。
セレブーな感じのやつもいるじゃん。
パグみたいなのもいるし。
そう、鼻そもそもね、短くないのもいるし、長くないのもいるし、犬みたいな猫もいるじゃん。
だけど犬と猫を、我々は見たらこいつ猫だなって分かるし。
どうやって分かってんのっていうのを、言語化は難しいってこと?
そう、言語化は難しい。だから機械学習は、もう言語化し、もう俺たち教えることはないと。
とにかく正解のデータと答え渡しとくから、自分で学んでっていうのが機械学習っていうのね。
学んでもらうみたいな。
ルールベースっていうのはそういういちいち全部教えていく。
こういうここが犬、この鼻の長さがこのぐらいだったらまず犬だよと。
何センチいない。
この耳がこうなってたら犬だよみたいなのを全部ルールで教えていく。
それに当てはまったものが犬って判断するのがルールベースみたいな。
犬の判断をルールベースで作ることできるの?
ほぼできないと思う。
ものすごい果てしない要素があるってこと?
そう、ゴールデンレトリバード猫見分けろっていう、研修が指定されてたら多分できると思う。大きさの違いもあるし。
だから基本的に犬っていう大きいジャンルでってなったら不可能。
なるほどね。
だからそこで機械学習っていうのが強いよねみたいな。すごいよねって言ってAIがすごいバーっとブーブーになるんだけど。
っていうのはちょっと話それたんだけど、とにかくルールベースで音楽を作っていこうみたいな。
なるほどね。そのルールベースで作った音楽とか聞いてみたいね。どんな感じなんだろうね。
どうなんだろうね。多分ねどっかにはあるんじゃないかなサンプルで。
YouTubeみたいなのね。
YouTubeとかに。ちょっとごめん探してないけど。
もうでもあれだよねなんか8ビット音楽みたいな。
うんそんな感じだと思う。てかもう主旋律しかなかったりとかそんな感じだと思うよ。
着メロだ昔の。
着メロ本当に着メロ。
ピラリンピラリンピラリラリンみたいな。
なんでそれ。
わかんない。
デフォルト感がすごいあっていいけど。
そういう感じのイメージってことだよね。
まあそうそうそうそう。でまあそっから1960年から1990年ぐらいまではそうやってルールベースの作曲。
長いね。
まあいろいろあるんだよその後にその間にいろいろあるんだけどルールベースでもいろんなルールがあるんだけどざっくり言うとそのぐらい。
ルールベース時代。
ルールベース時代。
つまらん時代だねそれは。
まあルールをね突き詰めていく時代だよ。
それ。
まあそのルールベースはAIじゃないから別にね。
ああそうなんだ。そうなんだ。ああAIではないのか。
AIじゃない。
で1990年ぐらいからやっとAI、AIというかちょっと微妙なんだけどAIっぽいものが出てくる。
ぽいもの。
ぽいもの。AIっていうのかな。ちょっとね多分含まれるとは思うけど。
前進みたいな。
あの遺伝的アルゴリズムっていうのを使った作曲をするのね。
何?遺伝?
遺伝的アルゴリズム。
遺伝的アルゴリズムによる音楽創造
なんか急にシンギュラリティっぽくなってきたね。
これはねあの生物がこう進化していくように良い曲を作らせて少しずつ進化させていくみたいな。
何それ。
生物ってさなんかこう。
ダーウィンじゃん。
でなんか良い個体が残ってその淘汰されていくみたいな。
で次の世代にどんどんこう移るに従って形が変わって進化していくみたいなあるじゃん。
あれと同じアルゴリズムをパソコン上で行うっていう遺伝的アルゴリズムっていう手法があるんだけど。
遺伝的アルゴリズムなんてのがあるんだ。そもそも。
ある。
かっこいいねそれ。どんどん進化していくの。
そうなんかねランダムでバーっと作曲させてである程度指標を持っていくのね。
で良かった指標これは曲っぽいなってやつをピックアップしてそれを他の曲と混ぜて次の次世代にしたりとか
突然変異って言って一個この人はいいなって曲をちょっとだけ変えてまた次世代にしてって言って増やしてってさ。
前作ったやつから。
で前作ったやつの数と同じになったら前の世代を捨てちゃってその世代からまた交配させて新しいものを生み出していくみたいな。
っていうのをずっと繰り返すとどんどんどんどん進化していくんだね中身が。
それ人間が手動でやってんの?そのどっちがいいみたいなの。
手動でやることもあるけど基本的にはその指標を設けててこういう基準を満たしているものは合格とするよみたいな。
自分でセルフチェックして。
そうそうそう。
人がねそこで介入することもあるしっていうのでその画像とか音楽だけじゃなくてね画像とかにもよく使われていたんだけど。
それなんか前ちょっと話題に出た教科学習とかなんか教師あり教師なし学習的なのとは全然違う話?
違ううん。
あそうなんだ。
また違う証拠。
なんかちょっと似てる感じはしたけど。
いっぱい作って進化させるみたいなアプローチなのね。
違うんだ。進化?
そう違う。進化させる。いっぱいランダムでバーって作る。
そっちの方がハイテクっぽいけどね。
作って選んで後輩させる。合体させてね子供作ってみたいなやつをずっとやっていくみたいな。結構面白いよねアルゴリズム的には。
それで何千曲も作って試作していってちょっとちょっと使い変していって人が好むメロディーに育てていくっていうイデンティティアルゴリズムを使ったAIの作曲方法みたいなが。
AIと言っていいかちょっと分かんないけどそうそうあるのね。
だけどまあ言ってしまえばこれが2000年ぐらいまで流行って続いていくんだけど。
結構長いじゃん。10年間か。
まあさ、それでいい曲できそうな感じはするんだけど、めっちゃ計算量かかるイメージするよね。時間かかりそうじゃない?
どこまで進化させるのよっていう気はするんだけどね。
そうもう再現なくできる。
なんかとてつもないものができるような気もするけど。
結構収束しちゃうこともある。なんか。
つまんなくなってくる。
つまんなくなっていっちゃう。同じようになっていっちゃう。
ピロリン、ピロリンに戻ってくる。
そうそうそうそう。
原点回帰してくる。
原点回帰していくとか、なんか全然発散しなかったりとか逆にもどんどんわちゃわちゃ発散しちゃったりとかっていうのもするんだけど。
まあとにかくいい曲作るのにすごい時間かかるよと。イデンティティアルゴリズムだと。
あとまあどうしてもランダムなのよね。結局ランダムで作ったものをどんどんどんどん増やしたりとか交配していって、
なんとなく良いっぽい組み合わせになるまでひたすら試行錯誤していくみたいな。
ある種ずっとバクチュー打ってるみたいなもんよね。
結構寄り道しまくりみたいな。
そう。
なるほど。あ、一曲作るためにその交配。
そう、交配を。
遺伝進化をやるの。
そう、そういうこと。
すごいコストな気がするな。
でしょ。
ししるるじゃん。
すごいね。そのために世代がどんどん変わっていっぱいご先祖様が死んでいくんだけどさ。
すごいなあそれ。
それって音楽の本質なのかなみたいなところの議論はあるのね。
ニューラルネットワークの導入
だって音楽ってさ確率じゃなくて音の繋がりじゃん。
はいはい。
だから前のフレーズを踏まえて次が決まらないと音楽の繋がりじゃないよねと。
いうことで2000年以降からですね。2010年ぐらいからかな。RNNとかLSTMっていうですね。これ覚えなくていいけど。
ああよかった。暗記するのかと思った。
アルファベット出てくるとわかりにくいからね。
そうだね。
RNNとかLSTMはね結構頻繁に出てくる言葉にはなってくるから今後それを説明する回も設けるけど今は別に何も気にしなくていい。
はいはい。スルーで。
とにかくの再起型ニューラルネットワークっていうですね。
再起型ニューラルネットワーク。
ネットワークというものが。
再起型って何?
再起型。
怖いなまた。
再起型って言ったらもう言ってしまえば。
また帰ってくるってこと?
そう。ぐるっとこう自分にもう一回回ってくるみたいな。
そういうニューラルネットワークなのね。
ニューラルネットワークって何だっけ?
ニューラルネットワークっていうのは落ち着きAIのあれにもある。
イラストね。
アートワークにもある。つぶつぶと線がついたやつね。
つぶつぶのやつ。
脳のニューロンを模したネットワークの繋がり。
シナプスみたいな。
そう。てかそもそもあれだね。ニューラルネットワークとは何かって説明してないね。
そう。分かったような分からないようなみたいなね。
また基礎編みたいなやつもやっていきましょう。落ち着きAIの。
ずっと生成AIの最新のトピックをざっくり紹介するみたいなこともやってたから。
そうだね。本質ではないよね。
意外とね、本当基礎の基礎にあるニューラルネットワークとか、やつは説明してないから。
そうだね。
また一個一個説明していきます。
なんかさ、すごい頻発するそういう単語あるじゃん。
分かったようでよく分かんないなみたいなのもいっぱいあるよね。
あると思う。特に俺が説明したいのはね、一回丸々1時間かけて説明したいのは、トランスフォーマー。
トランスフォーマー。
めっちゃ効くでしょ。GPTのTだよね。
あーはいはいはい。
トランスフォーマーっていうのが出て、2017年にそのトランスフォーマーっていう論文がね、めちゃくちゃ有名な論文が発表されて、そっからドーンってAIが一気に発展したんだけど。
あ、そう。そんなのあるんだ。トランスフォーマーって言われても全然ピンとこない。なんかロボットの映画が浮かんだぐらいで。
そういう人は多いと思う。
そうですか。
テンション機構っていうのがね、持ったすごい、もうすごいのがあるのよ。それのおかげで、めっちゃ計算量減って、画像とか、いろいろ生成できるようになったよみたいな。文章もね、生成できるようになったよっていうモデルがあるんだけど。
めっちゃ知りたいね、それ。落ち着きたいね。
それはね、またね、かなりに落ち着いてもらう時間を作るので。
そうだね。速報ばっかりかまけとっちゃあかんでね。
今回はちょっと細かいところは説明しないんだけど。
一旦スルーで。
一旦スルーで、その再起型ニューラルネットワークというもの。そうだね、ニューラルネットワークを知らずに再起型をいきなり言われてもよくわかんないと思うんだけど。
まあ言ってしまえば、前のフレーズを踏まえて次の一音を決める、そういうモデル。
踏まえるモデル。
そう、だから一緒やね、そのさ、言葉を生成する時にさ、よく言ったやん、次に来る単語を予想してるだけだよみたいな。
おー、最もらしい確率の高いやつを選ぶっていうね。
そう、それと全く一緒。
僕の誕生日がみんなカネリンの誕生日になっちゃうみたいな話だね。
そうそうそう、ハルシネーションの回で。よく覚えてるね、その例えまで。
覚えてる、例えが秀逸だもんなんか。
素晴らしいね。
まさにそれ、音楽もランダムでさ、なんとなく全体がふわっとそれっぽくできるよりも、今までここまで流れてきた音を踏まえて、
次ってこの音来る確率高いよねっていう音を生成できた方が音楽っぽいよね。
確率でやるんだ。
確率でやる。
なるほどね。
っていうその確率を学ぶために、RNNとかLSTMって言われる先型のニューラルネットワークというのを使って、
言葉を扱うのと同じような感じで、この私は支部長ですのさ、私は支部長で来たらですって予想するように、
ドレミファソラシドの流れが来たら、次の音はこれだみたいな。
ドシラソファミレイドかもしれないし。
そうそうそうそう。
なるほどね、なんか似たような曲ばっかりになるんですよね。
あ、そうそうそう、何を学習してるかによるよね。
っていうので、その先型ニューラルネットワークを使った作曲っていうのが行われるようになってきたよね。
なるほどね。ようやくちょっとAIっぽくなってきたね。
AIっぽくなってきた。
ていうかAIなのか。
これはAI。なんだけど、またここで一個問題があって、これはね、言語の時も同じ問題を抱えていたんだけど、
RNとかLSTMっていうモデルは結構長期記憶を保存できないよね。
なるほど。
だからちょっと前の流れまでしか覚えてられない。ずーっとさ、音楽って流れてくるじゃん。
Aメロあってさ、Bメロあって、イントロあってAメロBメロサビになるじゃん。
じゃなくて、Bメロの途中ぐらいまでしかこいつは考慮してくれないから、
永遠にサビ来ないみたいな。
うーん、なるほどね。ちょっとなんか地方の方みたいになっちゃうわけだ。
そうね。
ずっとAメロ繰り返すみたいな。
ずっとAメロ繰り返したりとか、なんか曲としては別に違和感ないんだけど、ずっと抑揚なくなんか、いつ始まるんだろうみたいな曲ね。
なるほど。例えがめちゃくちゃ悪いけど、なんかイメージそうだな。
わかる、わかる。
ずっと同じ話が続く。
一生イントロみたいな曲とか。
一生落ちがない話みたいな。
そう。
なるほどね。あ、そんな風になっちゃうんだ。
なんか来そうで来ないみたいな。そんな風になっちゃうと。
ずっとサビってこともあり得る。
ずっとサビってこともあり得る。サビなのかなそれは。いきなりサビから始まるみたいな。
サビから始まってずっとサビ。
そういうね、本当になんか曲としてはたしないけど、メロディーかと言われたらすごく微妙みたいな、全体を通したのね。その瞬間のメロディーはいいんだけど、
全体として曲としては微妙だなっていうところで、もうちょっと自然大きい流れを組めるようになりたいと。
っていうところで、ここで初めてトランスフォーマーが出てくるね。
トランスフォーマーリベンジ。
っていう映画のタイトルだったかな。
トランスフォーマーの映画。
ロボットの、そのイメージしかないけど。そうですか。
これは2017年にトランスフォーマーっていうのが出てきた。まさにさっき言ったタイミングで。
トランスフォーマーってすごい優秀なモデルなんで、言語にもすごく使われたんだけど、これ音楽にも使えんじゃないかと。
で、トランスフォーマー界で詳しくは説明しようかなと思うんだけど。
トランスフォーマーって何よっていうね。
こいつはね、今まで今言ったのって結局前の言葉とか前の音楽とか、
自分が今予想したいものの後ろの長さ、このぐらいの後ろの長さまでしか考慮できないよっていう。
そういうものだった。だからそれより後ろは忘れちゃうよみたいな。
ある程度考慮できる長さは決まってるよっていうものだったんだけど、
トランスフォーマーっていうのは全体を見通して、ここ重要だよねとか、
ここって結構重要だよねってその重要度を結構つけれることができるのね。
全体を。
全体。で、関係性を瞬時に捉えることができると。そういうモデルのざっくり言うと。
ここ注目してねみたいな。
記憶力伸びたと。
そう。めちゃくちゃ記憶力が伸びると。
若くなった。
だから全体を見たらここサビだよねとか、ここAメロだよねみたいな。
そういうのを考慮しながら全体を捉えれるから。
トランスフォーマーの影響
俯瞰できるんだ。
そう。それを踏まえて作曲ができるようになったと。
なるほど。なんかやっと曲っぽくなりそうな気がするね。
そうでしょ。グーグルがミュージックトランスフォーマーっていうね、
トランスフォーマーのモデルを出して。
それがね、ちょうどね、それからぐらい触り始めたの。僕作曲のAI。ミュージックトランスフォーマー。
早いねでもね。
でも2017年ではなかった。そのグーグルがミュージックトランスフォーマー出したのが、いつだったかな?
2010…いや2020…いくつだっけ?ちょっと忘れちゃったけど、まあそんぐらい。
だからなんかそのPythonっていうさ、プログラムのコードで動くようになったから。
マゼンタっていう。
マゼンタ?
そういうライブラリなんだけど。
これ難しいね。
それを使うと色々動かせたのよ。
音楽?
音楽生成AIが。
だからこういうサービスとかじゃなくて、そういうなんかよくわかんないコードガチャガチャ系でやってたの?
そう、コードガチャガチャ系で学習したモデルがもう既に提供されてたから。
だからね、結構流行ってたというか、頑張って勉強してやってて。
プログラミングコードで?
そう、プログラムでやる。キラキラ星の途中まで入れて、その後半のオリジナルキラキラ星を作ろうみたいなさ。
はいはいはい。面白いね。
なんか普通の民謡とかの途中まで入れて、その後半を任せるとさ、なんか途中までそれだったのに途中から違う曲になるね。
でも違和感ないみたいな。そういうのが結構できるようになって、超面白かったなんか。
ちゃんと音楽として成り立つものができるんだ。
そう、成り立つ。まあでもチープではある。
まあ音がね。
音はチープではある。チャックメロの息を出るか出ないか微妙なところ。
まだチャックメロなんだ、そこまでで。
チャックメロよりはね、だいぶいいと思う。
リッチなチャックメロだね。
リッチなチャックメロって感じ。
14ビットみたいな。
そう、ギリギリ、ギリギリスーパーで流せるか流せんかぐらい。
その例え面白いな。スーパーね。
スーパーのBGMギリ流せて違和感ないか、なんかちょっと変なBGMだなって思われるか、ギリギリのラインぐらいの作曲はできた。
あ、そうなんだ。ポッドキャストで使えるかもしれないね、じゃあ。
いや、ちょっと厳しいかもな。邪魔になるかも。
ピンピコン、ピンピコンなっちゃう。
俺だったら絶対BGMで使うわけ。
あ、そう。そういうレベルなんだね。
そういうレベルぐらい。
数年前でもね、2020何年とか。
そうそうそう。本当にそのぐらいの時代で、そのぐらいの時代の作曲先生めっちゃ面白かったな。
え、なんで?何それ面白いの?
めっちゃ面白かった。なんかね、みんながみんなオリジナルの、どうすれば曲作れるかみたいなのを工夫して、アイデア出し合うみたいな時期で。
でね、ちょうど友達に教えてもらったのが、AIミュージックバトル弁斎典っていう。
弁斎典?
弁斎典か、弁斎典っていうさ。
弁斎典?
っていうなんかね、そういうイベントがあったのよ。
急に漢字が。
どっかの大学やってたバトルなんだけど。
あ、そうなんだ。日本で?
日本。弁斎典っていう。なんかね、一回しかやってない。2023年にやってたんだけどさ。
最近じゃん。
動画、YouTubeの動画あるから見て欲しいんだけど。
ちょっと載しときますかね、それね。
うん、載しときます。
AIミュージックバトル
弁斎典。
そう、あのね、イントロ、MIDI、MIDIのデータ、音のデータのバッキングというか、裏でコードが、コード進行とバッキングのMIDIのデータだけ渡されて、それに合うメロディーを5分で作るっていう。
何?それ、コード進行とかバッキングって。
あのMIDIのさ、音楽のデータ。
音楽のデータ、MIDI。
だからその、主旋律のメロディーがない、バック、なんていうんだろう。
ベースみたいな。
そうそうそうそう。
ブンブンブンブンブンブンみたいな。
とか、後ろで流れてるさ、そのキーボードのそういう、そんな感じの音だけ渡されて、あとコード進行こうですよって渡されて、その音楽に合う主旋のメロディーを5分でAIに作らせると。
えー、主旋って言うと何?キーボード?
そう、キーボードのメインのメロディーだね。
チャチャチャーン、チャチャチャチャチャチャチャチャチャみたいな。
なんかさ、出てくる音楽全部さ、すごい、ちょっと古いよね。
いや、わかんない。なんか、生成されるんだよな、俺の脳内で。古いか。
いや、そうそう。でもまさにそういうこと。
っていうのを、5分で作って勝負させるっていうのがあって。
ちゃんとできるの?5分とかで。
そう、あらかじめその学習したモデルとか、解法を持ってくるのね、みんな。どういう風に作るかみたいな。
それ、自分でみんな何?作ってくるの?
オリジナルで作ってくる。
プログラムを。
プログラムをオリジナルで作ってきて、その場でデータだけ渡されるから、それは当日急に渡されるから、その5分間でなんとか生成して、流して、ジャッジするみたいな大会だったのね。
それYouTubeにね、動画あるんだけど。
めちゃめちゃニッチじゃん。
ニッチでしょ?いやそれね、面白いって言われて、友達から紹介されて見たんだけど、面白い面白い。
で、それが2023年なの。だから2年前なんだけどさ。
すごい最近。
それの動画をまず見て、多分みんな思うのは、え、こんなレベルなん?って思うと思う。
チープってこと?
そう。
ピンピロピンピロみたいな、プラスアルファぐらい。
え、2年前ってこんなレベルだったん?っていう。
あーなるほどね。
だけど、やっぱみんな工夫しててさ、いろいろ。
もうなんか音楽生成を諦めて、画像生成でいくみたいな。
なんだそれ。
なんかコード進行の楽譜を読まして、楽譜の画像を生成させて、それを画像として読み込ませた後に、音に変換するみたいなプログラムを作ってきて、無理やりやるとか。
すごいね、その苦肉の策みたいな。
あとは、生成AIが出してきた音を、外れたピッチの部分だけ強制的に修正するプログラムだけめっちゃ作ってきて、バーって出してきたやつを強制的に修正して成り立たせるみたいな。
えー、私立強制みたいだね。
そう、ほんとに歯を強制するみたいな。ここはみ出てんやんってギュッて戻すみたいな。
すごいなんか創意工夫が面白いね。
そういうね、めちゃくちゃな創意工夫をしながら、なんとか曲として成り立たせて勝負するみたいな。っていうのが、そう、2023年に行われてたね。
音楽生成の技術
どういうアプローチの人がそれ優勝したの?それなんか独創的な人が優勝したの?
あー誰だったかな、ごめんちょっと覚えてないわ。覚えてないけど、動画ね全部あるから。
一回見てみよう。
そう、ぜひ見てみてください。決勝までありますんで。
あと開放って言って、どういう風に曲を作曲したかっていうのも全部解説してくれてるから。
あー、それ面白いね。
8組出てるんだけど。だからね、ちょっと難しい部分はあるんだけど、でもみんな面白いね。全員アプローチが違うんで。
なるほどね。
っていうのが2023年にあったんだけど、もう冒頭で言ったように、今ってあんなんじゃん。
そうだね、今は普通に、普通にこのポッドキャストのBGMレベルが出てくるよね。
全然出てくるでしょ。
コーラスも入ってんじゃん。
そう。
コーラスっていうのがボーカルというか。
入ってる入ってる。
ね。日本語の曲も喋ってたよ、なんか。
喋るじゃん。
うん。
なんであんなマルチに。
そうだよ。
いろんなことができるようになってしまったのかと。
うんうん。
これ結局。
何かあったのね、これ。
そう、同じなんですよ。
同じ?
同じなんです。
なになに共通点があるの?なんか。
いや、あの前喋ってきたことで。
あー、分かったよ。
おっ。
いい?
いいよ。
あれでしょ。拡散なんとかだから、ノイズを。ノイズから来るんでしょ。
ゼーーーっていうノイズから逆算して作るんじゃないの。
正解。
正解。
マジで正解。
それしか。
素晴らしい。
それしか持ち手がなかった。
いや、素晴らしい。そう。
音楽もそれ。
全部言ってますかね、なんか。もう100%正解それ。
うわー。
すごいね。やっぱかなり。
おさらいするとね。
そう。
この間その画像でね。画像をどうやって生成してんのかっていう話で。
そうそう。
ちゃんとした犬の画像にノイズを加えていって、ぐちゃぐちゃになる過程を学習させて、その逆算をやってるんだみたいな話をこの間教えてくれたじゃない。
そう。
へーって思ったんだけど。音楽もそれ?
音楽もそれ。拡散モデルです。ディフュージョンモデルを使ってやってるんでね。
きた。すごいなでもそれ。あ、でもほんとにディフュージョンモデルなんだね。もうこの最近のすごいのは。
そう。だからね、そう。結局ディフュージョンモデルを使ってるの。
で今カネリンが言ってくれたのと全く説明は一緒なんだけど、ノイズ音から本物の音を復元するっていうのをやってる。
はいはいはい。
だから学習するときは音からノイズを入れて、ノイズに砂嵐みたいなザーっていう音にしちゃう。
ザーでしょほんとに。
そのノイズがほんとにザーかわかんないけど、そういうノイジーな音にして、そっからその過程を逆に学んでいって復元していくみたいなことをやってる。
へー。するとあんなリアルな音楽が出てくるってことなんだ。
そう。ただ、画像よりも音楽の拡散モデルの方が段違いで難しくて。
難しい?
難しい。っていうのは、まずもう量が膨大すぎるよね、データの。
あ、そう。
だって画像ってさ、1枚に対して、じゃあ1000ピクセル1000ピクセルでも、だいたい1000×1000なんで100万点ぐらいじゃん。
うんうんうん。
音楽ってさ、じゃあ1秒にサンプルが44.1kHzとかだったらさ、もうそれだけで1分間の曲で何万点のデータあるんだっていうぐらいになっちゃうね。
確かにね。時間軸があるもんね。
時間軸があって、それも考慮しなきゃいけないってなるととんでもない量になると。
確かにね。
さらに音楽はその点1個1個じゃなくて、改造構造を持ってるのね。メロディー、コード、リズム、表紙とか。
はいはいはいはい。
だから1枚の画像として扱うのよりも遥かに難しい。
なるほどなるほど。
しかも時間方向にくっついてるから。
それこそその音楽理論にのっとってちゃんとしてないとダメだからっていうこと?
そうそうそうそう。理論に従ってもそうだし、音楽理論に従ってるかっていう要素もあるし、メロディーもあるし、リズムっていう概念もあるし、いろんなその概念が多いよと。
しかも流れともイントロ、Aメロ、サビとかそういう展開も中には含まれてると。
さらにこのステレオ、音としてのデータもそうだよね。右左のステレオがあるし。
結構ね、これそうだよね。ちょっと変な風にずれるだけで違和感感じたりするじゃんね。
そうそうそう。
相当しっかり出てこないと変なものになるよね。
そうなんだよ。音色もあるじゃん。ボーカル、ベース、ギター。
そうだよそうだよ。そんなステーブル拡散モデル使ったからっていって、一発でポンって魔法みたいに出るんでしょ。
なかなかね、やっぱ出ないのよ。
うん、そうだよね。
学習させるのむずいなと。画像よりもだいぶむずいんじゃないかって言って、研究者たちはこの難しさをいくつかの工夫で乗り越えていくんですね。
分けるみたいな?一個ずつ分ける?
いや、これもね結局ね、この前最後の方にチラッとだけ出てきた。
えー?難しいやつ?
ちょっと難しいやつ。
分からんな、忘れたな。
潜在拡散モデルっていう。
えー?そんな話したっけ?
ステーブルディフュージョンがなぜすごかったのかって話をした時に、拡散モデルまではよかったんだけど、計算量結局多いと拡散モデルは。
音楽生成技術の基本
だから潜在拡散モデルっていって、一回次元を落とした領域に変換して。
次元の話ちょっと出たな。あんま分かったような。
違う領域に変換して、そこで計算し直してみたいな話をした。
それと結局同じ方法を音楽でも取ったのね。
Web3で言うとちょっとチェーンをブリッジして違う計算のしやすいチェーンに移してまた戻すみたいな。
ブロックチェーン分かんないけど多分そうなんだと思う。
非常に余計なこと言いました。
でこれね、なんかねちょっといい例えないかなと思ったんだけど。
なんかない?次元がねよく分からんではない。
えっとね、これ例え厳密かどうかわかんないんだけど、イメージで言ったら濃縮還元ジュースみたいなもんですよ。
急に身近なものになった。
身近なもの。オレンジジュースってさ、100%オレンジジュースあるじゃん。
だけどあれってさ、ちょっと文字運ぶのきついじゃん。
そうだね。
あれをいっぱいたくさん運ぼうと思ったら重いから。
で濃縮還元の原液みたいなやつだけいっぱい持ってって、水は現地で足しましょうみたいな。
濃縮させる。
そう。
なるほど。
一回濃縮させてギュッと圧縮して違うものにした状態で、それを処理する。
でまた水を足して復元して元に戻してあげるよっていう処理がジュースであるじゃない。
あれにイメージは近い。
だから音楽も一回いっぱい要素あるんだけど濃縮還元状態にして、それをそこでノイズを加えてあげると。処理をするね。
で全部終わったらまた水いっぱいかけて元のオレンジジュースに戻してあげるみたいな処理をする。
それやると軽くなるってこと?
軽くなるってこと。
それちゃんと学習できるんだね。
それですごくふわっといい感じで学習できる。
それがなんていう手法だっけ?
これが潜在拡散モデル。
潜在拡散モデル。
潜在拡散モデルっていう方法なんだね。
著作権の問題
なるほど。
そういう潜在空間っていうのを使ってAIが本物のデータを、AIが理解しやすい軽い形にギュッと圧縮した世界みたいなやつがあって。
そこに持ってってあげるね。
AIが学習しやすい。
人間的にギュッと圧縮したというよりは、AIが学習しやすい形に圧縮できるような空間に、潜在空間に持ってってあげると。
なるほどですね。
そこで処理をするよっていう。
コンピューターだけわかるコンピューター言語みたいな。
そんな感じだね。
感じかな。
っていう技法を使って音楽を学ばせると。
なるほど。
あとはトランスフォーマーとうまく組み合わせる。
トランスフォーマー。
ちょっと分かったよで分からないトランスフォーマーだな今んとこ。
結局拡散モデルって生成する部分だからさ。
その入力の部分にはトランスフォーマー使ってあげましょうみたいな。
そういう形でいろいろ組み合わせることによって、
それがね今のスノーAIとかそういうのの基本構成の作曲AIの姿。
潜在的拡散モデルで生成する。
そう。
トランスフォーマーで入力する。
そう。
この2つの組み合わせがあるから結構すごいことになってる。
そういうこと。ただスノーAIは公表はしてない中身のモデルを。
そうなんだ。
同じようなことができるスティーブルスタジオ、スティーブルスタジオだっけ。
スティーブルディフュージョンの会社が作ってる、スタビリティAIが作ってる。
スタビリティAI。
AIが作ってるAIのスティーブルオーディオ2.5とかはそういう構成に近い形になっていて、
スノーもそうだろうっていうふうに予想されてるっていう感じかな。
とにかくそういう潜在拡散モデルが音楽生成において結構重要な役割を果たしてるんだと。
だから今すごく音楽が生成できるようになったよということなんだけど、
いろいろちょっと説明してきたんだけども、ちょっとこの技術的な話のまとめというか、落ち着きなんだよね。
落ちをつけなきゃいけないんだけど。
そういう意味なんだ。
そういう意味にしました。今回から落ちがつきます。落ちじゃないけどね。結局、全部つながってるのよって話だよね。
昔から?
いや、画像とか最近のAIの発展って。
なるほど。
なんか急に動画ボーン、画像ボーン、音楽ボーンって。AIが急に噴火いろんなところでし始めたっていうふうに見えるんだけど。
そうだね。
一気にいろいろ発展したんじゃなくて、一個の技術がめっちゃすごくて、それがこういろんなところに派生してるっていう形。
なるほどですな。だからその拡散モデル。
そう、拡散モデルとトランスフォーマー。
トランスフォーマー。
この二つがすごく大きくて。
じゃあここ最近のすげーすげーの核にあるのは今日の言ったその二つがあるからだよっていう落ち着き?
そう。
なるほどね。
いろいろ発展してるんだけど、結局その二つがベースとなるね。そこからいろいろな改良が加えられて、もうそのすごいいろんな技術があるんだけど。
基本的にはやっぱりそこがベースとなって、いろいろ発展してるよと。だからもうすべてがね、新技術がどんどん出てきてるというよりは、一個の技術が派生しているというふうに捉えてほしいですよっていうのが技術的な今日のオチだね。
あーそう。結構解像度高くなるね、それね。
でしょ。
じゃあどんなAI系のやつでも大体そこがすげーから最近すげーだぜってことだよな、じゃあ。
そうだね。
それ以外ないかも。音楽があって動画があって画像があってそれぐらい?
そう。
もうそんなもんか。
あとは結局それが基盤モデルっていってさ、一個に繋がっちゃう。マルチモーダルの話もしたけど。
はいはい。
だから一個の大きい基盤モデルっていうので。
基盤モデル。
基盤モデル、そのファウンデーションモデルって言って、そのまあ基礎となるもの。こいつがもう音楽も出せるし動画も出せるし画像も出せるし言語も出せる。
まあマルチモーダルだから結局いろんなものを入力できちゃう。だから学習する脳みそも一個でいいよねみたいな。今までその画像用の脳みそがあって。
分けてたんだよね。
分けてたんだけど、もう一個。
今は一個なの?
そう、一個になってる。結構その基盤モデルって言って何でもできる一個の大きい脳みそ作るみたいな流れが今すごく大きくて。
今それをやってるってこと?
そうそう、それマルチモーダル化でね。
そういう、だから今後その今の、例えばジェミニで全部出るみたいな、すげーの出るみたいなこと?
そうそう、どんどんどんどん統合されていく流れにはなるとは思う。
そうなってくるとさ、こういう今回のSNOWみたいなさ、音楽専門のサービスとかはどうなっちゃうの?
どうなるんだろうね。
特化みたいなのはなくなってくるのかな?
いやでもUIとして明らかに使いやすいから。
そうだよね。
そっちでやっぱ。
買収されたり統合されたりみたいな感じになる?
それはね、あると思う。ビジネス的な観点で統合されたりとかはあるとは思うけど。
だって実際さ、今動画生成でもさ、音声も出れば別に歌うじゃん。
そうだね。
結局できてはいるよね。
そうか、じゃあ今後はもうあれか、全部できるようになってくってことか。今後の驚きポイントとしては。
汎用、人工知能に近いよね。何でもタスクに縛られずに何でもできちゃうよみたいな。
ドラえもん的なやつ。
そう、ドラえもんに歌わせようと思えば歌うたってくれるし。
道具出し設定はきっと道具出してくれるし。
そうなってった時に、じゃあ俺らは利用者としてはどこ使っても一緒みたいな感じになってくの?
どうなんだろうね。
どういう風になってくるのかね。今はさ、これができるサービスとかっていっぱいあるじゃん。
ある。
汎用型になってくるなら、あとは使いやすさで選んでだいたい中身一緒みたいな感じなのかね。
そうだね。でもさ実際さ、全ての製品ってそうじゃない?
うん、全ての?
車ってさ、俺車好きだから俺の意見ではないんだけど。
車好きなんだ。
車大好き。
珍しいよね今時ね。
そう、もう車ね、いまだにマニュアル車乗ってるからね。
そりゃ車好きか、物々の設計機械が好きか。
そう、メカ屋さんだからね基本はね。
そうだ、説明書とかマニュアル取り寄せてまでやる人だ。
なんだけど、その立場から逆に言わせてもらうと、車ってさ別にタイヤ4個付いてて走りゃいいよね。
あと乗る要領じゃん。
同じようなミニバンいっぱいあるけど、みんななんか別に1台で収束してないよね。
まあそうだね、みんなカローラってわけじゃない。
別にハイエース1個あればいいじゃん、ミニバンだったらみたいな。
うんうんうん。
なんだけどいろんな同じようなバンがいろんなメーカーから出てるから。
確かにね。
結局AIもそれに近いんじゃない?って思って。
別に何でもできるようになったら何でもできるようなサービスが世の中にいっぱいあって。
どれを使うかっていうのはその微妙な差で決めていくみたいな。
なるほどね、車と一緒ですか?
車と一緒って言うとすごい敵作るし、俺の本位ではないんだけどさ。
俺は一緒だと思ってないから。
わかりやすく言うとね。
車に興味がない人の意見でよくそういう話を聞くから。
あーそうかそうか。
タイヤ4つ付いてたら走り屋一緒やろみたいな。
違うねんっていうね。
なるほど、当然。
支部長の本心は違うけどね。
AIに関してはね、そういう応答してくれて、アウトプット出てくれば別に何でも一緒やろみたいな。
そうか。
これさ、何これちょっと質問していい?これ。
あいよ。
この音楽AIさ、今のとこあんまり活用してないんですよ。
なんかあまりつまらない音楽が多いなっていうのと、そこかなそこかな。
つまんない音楽多いプラス、なんかやっててもあんまり面白くないというか。
ガチャみたいな話で。
そこに、だから逆にちょっとDTMの作曲を勉強して、自分の思う通りを自分で作れるスキルを身につけた方が逆に面白いかなとか思ってDTMにしたんだけど。
どうなるんすか?この音楽、これ、スノーみたいなやつって。
いやーそれね、多分結構どうなるかって言われると、法的な問題が結構関わってきそうな感じ。
今のところ。
そうそう、法的な問題どうなってんのこれ。
結局結論から言うと、スノーAIはバチバチに訴えられてます。
あ、そうなんだ。
バッチバチに今控訴中。
怖いじゃんそれ。
結局そのレーベルみたいなところとか大手レコード会社からめちゃくちゃ怒られてるのね。
だってこれ学習に使ってる音楽とかっていう話?
そう。学習に使っとるやろみたいな。
絵も同じこと通ってきたよね?同じ道を。
そう、絵もね全く同じこと通ってきたんだけど、音楽の方が顕著なのよ。
あ、そうなんだ。
だって似てる音出ちゃうから。
なんか曲調をこの曲にめっちゃ似てねーみたいなやつが結構やっぱ出てしまう。
あ、そうなんだ。
っていうので結構権利関係がね、まだしっかりしてないというか、スノーAI実際戦ってる最中。
じゃあこれ使ったやつで、少容量OKプランでやったとしても、ちょっとやられちゃうかもしれないの?利用者。
音楽制作とユーザーの視点
あのね、利用者がやられることはほぼないとは思うけど、あんまり似てるような曲出すとね、確かにその権利者からすごく言われると思う。
なるほどね。
出した人間の責任になるからね。
うん。
でやっぱね、僕もねこのハナニンと同じ気持ちでさ、スノーAIすごいと思うんだけど、なんかモヤっとすんの。
なるほど。
うん。モヤっとする。
モヤっとポイントは何?
モヤっとポイントはね、絵はさ俺描けないのよ。
うんうんうん。
曲はさ、作ったことあるし。
そっかそっか。
曲作るの大変って分かってるから、なんかスノーAIでさ、曲作ってさ、作曲しましたって言ってさ、どやってる人見るとさ、すごいモヤっとすんだよねすごい。
なるほどなるほど。
クリエイターと生成AIの対立
なんかね、クリエイター側が、結構クリエイターと生成AI界は戦いなの結構ね。バチバチに戦ってて、権利とかその、なんかクリエイションって何なんだみたいな議論はあるんだけど、クリエイター側の気持ちはちょっと分かったなんか。
うん。
モヤっとするわと思って。
それって、その、それは作曲じゃないでしょっていうこと?
そう。それちょっと、そのなんか作曲なのかっていう。
あなたはボタンを押しただけでしょっていうことだよね。
ガチャをいっぱい引いただけでは?みたいなさ。
ガチャ感強いもんね。
そう。っていうのがあって、で、じゃあ生成AIで作曲した人は本当にクリエイターなのかっていう議論はあるんだけど。
うんうん。
これもね法的にもちょっと微妙で。
うんうんうん。
っていうのは、生成AIで作ったものって、著作権って誰にあんのっていう問題ってまだ解決してない実は。
まだ解決してないんだ。
解決してない。
うんうん。
基本的には、生成AIが作ったものは、作った人に著作権がないっていうふうにはなってる。
作った人っていうのは、利用者?
生成した人。
の著作物ではないと。
誰の著作物なのよそれ。
誰の著作物でもないよね。
なんじゃそりゃ空中に浮いちゃってんの?
浮いてる。
ただ、これも結局法の解釈みたいなさ。
うん。
かね、なんかどっかで言ってたよね。なんか法律で解釈する余地あるよねみたいな話しなかったっけ。
解釈だね。
そのね解釈の余地が著作権の概念にもあってさ。
うん。
著作権って概念としては、著作物とは思想または感情を創作的に表現したものであってと。
思想または感情なんだ。
を創作的に表現したもの。
創作的にってとこがポイントかな。
文芸、学術、美術または音楽の範囲に属するものを言うと。っていう定義があるのね。
創作に当たるのかっていうガチャが。
でも結局そう、創作に当たるのかどうかというところで。
踊りながらボタンを押したとて。
ただ、これも物は異様でしかなくて。
じゃあ創作、例えば創作の過程でツールとして生成AIを使いましたって言った場合は、それは著作物になるよねって。
で、そのペンを使って絵を描きましたとか。それと一緒じゃん。
一部分をちょっと使ったとか。
それが一部分であれ全体であれ、ツールとして、創作のツールとして使ったんだって言われちゃったら、それは創作物。
ただなんとなく生成AIのサービスを使って作りましたと。
になったら、それは創作物じゃないよね。だから著作権あなたにないよねっていう、すごく曖昧な線引きの部分なのね。
じゃあ、なんかAIで生成したやつをMIDIのDTMのアプリでちょっといじったりすれば、創作ですって言い張れそうな感じだよね。
それはね、創作っぽいよね。
そこまで行けばいいんだ。1音でも足せばいいんだ。
足さなくても、結局俺の創作がこれなんだって本人が言えば創作になると思うけど。
そうなんだ。
結局AI生成の製作物は原則として著作権法の対象外にはなってるんだけど。
じゃあ例外なんだ、そっちの創作の方が。
でも創作だよって本人が言えば、それは対象ないになると思う。
別にDTMでやってなくてもMIDIで吐き出さなくても。
これが俺の感情の創作表現なんだって言えば、それはクリエイターってなっちゃう。
ボタンを押してるだけでも。
そう。
なっちゃうんだ。
なっちゃうだろうねって。そこ線引きができないから。
今のところなりそうな雲行きなんだ。
だからそこをもうちょっと厚く自分を守りたければ、より創作っぽいコードを入れていけばいいかもねってことだよね。
そうだね。
MIDIで出して、ちょっと改造すればいいんじゃないのって。
そうそうそうそう。
誰から見ても裁判所に主張できるようにみたいな。
日本の音楽生成ツールの紹介
なるほどね。
じゃああれだね、後から黒ってなる可能性があると、PodcastのBGMとか使うと後から怖いね。
そう、スナオAIがなんか、そのスナオAIが構想でやられちゃったからつって、それで制作したものすべて権利ダメだとは、さすがにもうようできんとは思うけど、まだちょっと戦ってるよっていうのは、知りながら使った方がいいと思う。スナオAIに関しては。
なるほどね。画像系もそうだよね。そうってことだよね。
画像だね。画像系はでも、出た画像が別に何らかの著作物に通ってなければ問題ないと思う。音楽もそうなんだけど、ちょっと難しいよね線引きがね。
ただ、じゃあ全部の音楽生成のAIがそうかって言われたら、微妙というかそうじゃないのもあって。
あーそうなの?
えっとね、それこそさっきちょっと冒頭で紹介した、日本が作ってる音楽生成のツール。サウンドローってやつは。
サウンドロー。
これ基本的に学習で使ってる音源は全部フリーの音源を使ってる。
あーなるほどね。
最初から著作権オッケーな状態。日本ぽいよね。だからすごい作り方が。
確かに確かに。
最初からも大丈夫なように作っていて、うまくコントロールできるようにもなってる曲調もね。
なんかクリエイターが安心してこう生成AIをクリエイションに使うためのツールとして開発されてるから。
一回使ったわこれ登録手で。
なるほどね。
これはね、使っても大丈夫なやつ。
なるほどね。
日本人らしいやっぱり礼儀正しい生成アイですよ、これは。
なるほど。こういうのだったらいいんだ、結局。
うん、これはね、いいと思う。
分かりましたよ。でもさ、これさ、学習に使ったのはさ、フリーかもしれないけどさ、結果的になんか似たのが出てきちゃうことってあるじゃんね。
まあそうね。
それはもうしょうがないですねって済むの?それ。
それはもうしょうがないんじゃない?だってさ、そんな普通に自分で作曲しててもさ、なんか。
そうだよね、結果似ちゃいましたってのいっぱいありそうだけど。
あるある。結局なんかいいメロディー思いついてさ、これいいやんって思って打ち込んだらさ、これあれやんみたいな、これあの曲のあそこの部分やんってなるじゃん。
さっきからいっぱいそうだよ、てんててててててててんてんてんとか。
絶対なんかのインスピレーションで出ちゃうよね。
それは丸々あるけどね、それね。
でしょ?だからまあそういうね、それは別に既存の作曲であっても同じじゃ同じかなって思うから。
それはいいの?ちょっと気づいたら変えるみたいな感じなの?その既存の作曲において似たようなフレーズ出ちゃってとかは。
まあまんま同じじゃんけりゃいいんじゃないかなと思うけどね。なんかコード進行一緒で同じフレーズ使ったらまんまそれになっちゃうけど。
ちょっとそこあれと似てるよねみたいなやつは全然許される気がするし。
そんなに丸々パクリみたいな感じにならん限りはいいってことだと。
どっかもう曲がね5万っていうかもういくらでも曲って無限にあるからさ。
そうだよね。
3人いるよね。
今後こうやってさAIで作りましたみたいなやつが無限に出てきたらもうカオスだよね。
そうやね。
学習するものもなんかね。
俺がAIで作った曲と似てる曲をお前も作ってるやないかって言ったら権利ってどうなるのやろみたいなね。よりカオスになってきそうだよね。
そうだよね。
2人ともボタンを押しただけなのにね。
あんまりちょっとトゲがあるけど今日はねちょっと。でもそういうもんなのよ。
いやでもその辺シビアだよね。どうなってくのかちょっと気になるな。
結局自分で学習するのってすごい大事だと思ってさ。
だから民主化ってクリエイターもどき量産することじゃないよねって思うよね。
あーなるほど。何なの?民主化っていうのは。
結局その自分の創造のためにその技術を使いやすくしてくれるみたいな。
そういうところなんじゃないかな。あまりにもこう曲作れちゃうからさ。
でもやっぱさ民主化されて嬉しいからみんなわー俺も作曲家だぜってこうなるよね。
なるけど、なるけど結局これもね最近読んだ本に書いてあったんだけど。
感情論というか経験則なんだけど、生成AIって生成AIの使い手以上のレベルのものを生成することできないよねと。
なんか哲学的だねそれ。
結局そうなんだよね。
どういうことそれ。ボタン押すだけじゃん。
なんだけどいっぱい出てくるじゃん。その中で選択するのって本人だよね。
成果物出てきた中で。
そうだね。
その選ぶのってさ本人の力量でやん。
力量なりセンス?
センスじゃん。本人にその分野の知識がなければいいものって選び続けられないよねって。
し、プログラムの文脈でもそうだよね。コードバーって出てきてさ。
なんとなく動くけど中身が分かってなかったらやっぱそれ以上のものを作れないと。
本人が理解している以上のものを生み出すのが難しいよねと。
これさ音楽で言うとそれってさ音楽理論だとかいろんなことを分かってないとやっぱりダメってことなのかね。
インスピレーションとかさ雰囲気とかセンスとかでやっちゃうアーティストっていう今後のそういう人は出ては来ないのか。
いやそれはいると思う。今でもいるしねそういう人は別に。
感覚でやっちゃえるのは。
感覚派はいるし。
あり。僕なんか割と感覚派だからさそういう人にとってはなんかそれこそ民主化というか使いやすいなんかツールがいっぱい増えてるみたいな感じなんだけどね。
その概念だったらいいと思う。ツールの一個増えたねみたいな。
俺めっちゃ理論派だからさ全部。
そうだよな。
音楽理論とかコード進行とかちゃんと全部学んだ上で作りたいみたいになっちゃう。
だろうね。
すごいねそうなっちゃう。なんでここがこのコードなんやっていうのが理由が分かんないとねモヤっとする。
でも理由分かんないけどこのコードめっちゃいいやんっていうのもあるから。
なんか音楽って別に結局理論だけじゃないからさ感性の世界だから。
そうだよね。このちょうどサウンドローとかもいじってて思ったんだけどさ動かせる範囲とか変数が限られてるからさなんか似たりよったりなものしか出ねえなって感じでつまんないなって思ったんだよね。
ちょっとなんかぶっ飛んだ音楽との出会いみたいなのがないから。
そうそこで発散なのよね結局音楽ってさその例外が生きる場合がめちゃくちゃあって。
これでこの相手のコード進行これを入れてくるかみたいなやつがなんかその人の味だったり意気だったりするじゃん。
それだと本当にあのさ音楽のフリー素材サイトとか海外のやつとか見てる方がよっぽど楽しいんだよね。
なんだこの曲はみたいなうわこのぶっ飛んだ曲使えるかなっていう新しい出会いがあるけど今の音楽生成系はあんまりそれがないから使えねえなってその時思った。
いいまとまりがやっぱお利口にまとまってくるよねすごくね。
うんそうだね。
だから。
そんな感じがするな。
あれ見るとぶっ飛ばすのが人間の役目になってくるのかもしれないね。
そうだよな。
音楽の創作と民主化
ぶっ飛ばす。
ハズレ地みたいなね。
ハズレ地だからあれが逆なのかな今後は。
人間が暴走してAIが止めるみたいな感じになるのかな。
行かれた人間がいてなんかAIがいやここはこうした方がいいですよって。
そっちになるのか。
そういうクリエイターの方が輝くのかもしれないな。
お利口さんがもうAIの役目になるからいかにそこをぶち破るかのぶち破り方勝負みたいになってくるんじゃないの。
確かにじゃあいかに行かれられるかみたいなところ。
うんちょっと普通じゃない人たちの時代みたいなことは思うんですけどね。
確かにそれはそうだよね民主化ってやっぱアイデアを持ってる人が輝くよね。
そうだよね普通じゃない人がやっぱり輝くというか引かれるんじゃないのかね。
と思います。
それでいうとだからこういうツール使う使ってる時点で結構頑丈なガードレールを引かれた状態でスタートだから。
なんかそのいわゆるクリエイティブというかアーティストな感じにはなんないんだろうなって。
なんかやっぱこけないよねなんかねこけないというかイレギュラーが出ないしなんかヘナチョコじゃないからもうまとまってきれいなやつ出てきちゃうからねやっぱね。
ルール通りというか。
そうだね。
ルール。
嫌です。
Suno AIの進化
結局ルールにねルールベースから始まったものがいろんな発展を得てルールに従った音楽を作ってくるようになったと。
それそこまでそこもまた変数で設定できるようになるのかしらねぶっ飛び度合い。
なると思うよ。
いくつにしますかみたいな。ぶっ飛び100でみたいな絶対ぶっ飛ぶみたいなさ。
ある。てかそういうなんか生成AIでもさテンプレチャーって言って温度っていう概念で変な回答を出すかより堅実にするかみたいなさパラメーターは設定であるから。
そうなるとぶっ飛ぶことすらAIでやるっていう時代か。
人間は何をするんや。
そこやっぱ外れ地だよね。AIが計算するようなぶっ飛び方じゃぶっ飛んだことなんねえよみたいな。
そうだね。人としてのスパイスを。
なんかほんと問われるよねこの人間とは何なんだろうみたいなこと。
めっちゃ哲学を問われるようになってると思う。なんか知能とは何かとかAIが人間っぽくなることによって人間とは何かをすごく問われる時代になんかなってきてる気がする。
言葉とは何かもそうだし。なんか我々普段使ってるその一個一個をなんかより深掘りしていかないと飲まれる気がするよねAIにね。
やっぱそこに抗っていきたいね。
抗っていきたいね。
どうなるんかわかんないけど。
でもさこの本当に雰囲気だけでこうぽいことを考えてたけど今までも。
支部長とこの番組やることによってなんかブラックボックスだったところの解像度上がればよりクリティカルな答えが導けそうな気はしてるんだけど。
そういうことを考えると支部長の捉えてるAIが今後どうなるんだろうな人間はどうなるんだろうなみたいなことってだいぶ俺と比べて解像度高いのかなって思ったりはしてるんだよね。
いやそんなことないよ多分。俺結局技術面白えでね。そういうとこ考えずにそのまま飲まれていっちゃう部分はあるから。
あなたはそういうタイプではないでしょ。
いやまあねなんかふと我に返って俺は今何をしてるんだみたいな感じになるけど人は一体何をすればいいんやみたいな。
それは昔から思うよなんかね働いててもなんか自動化自動化つって。工場をね製造業だからさ本業が工場自動化しようとかAI入れてこうね人手不足を解消だつって。
人がいなくても動くぞつって。じゃあ人は何をするんだみたいな。そこ放置なのよね基本ね。人はじゃあ人ができることをやりましょうっていうなんかふわっとした文脈で自動化を推し進めるんだけど人ができることって何なんみたいな。
もう全部AIできるんですけどみたいなところがあって。
うんうんそうなんだ。
そこをすごいむずいなと。なんかみんなさ先に技術入れたいからさ技術技術ってやりたいからなんか空いた時間で人は人のできることをやりましょうみたいな。
まあそんな自分で考えるって話なんだけど確かに空いた時間の人たちがね。
でもやっぱりそっから追い出されて初めてさ、そうならないと次のその新しいやることってわかんないよね。
そうわかんないじゃん。
その昔のよく言われるけどタイプライターとか電話交換手みたいな人たちがいたりね切符の改札切ってる人がいたりしたように。
あーそうそうそうそう。
その人たちどこに行ったのかってまあなんか別のとこ行ったわね。
うん。
それと一緒だとか言われるけどじゃあなんだろうねっていうね。
それと一緒だーって言ってね。じゃあそれを一生懸命作ってさ工場に導入した技術者は人を本当に幸せにしたのかみたいな感じになるよね。
うんうんそうだよね。
そうなんだよね。
まあ別にね利益が上がりゃいいって言えばいいんだろうけどさ。
でもまあもっとこういろいろ深く考えていった時にもうちょっと考えてあげられたことがあるんじゃないかとかさ。
なるほどね。
なんかあえて見ようとしてた部分があるんじゃないかみたいななんかその過剰なさその工場の自動化の流れに時々疑問を思うことがある。
あーそうなんだ。工場って何自動化すればいいってもんじゃないんだ。
自動化すればいいと思うよ。いいと思うんだけど。
経営的には効率的にはってこと?
自動化と人間の役割
そう。機械のさ使ってるオペレーターって方もいるよね。ノウハウを持った。
そういう人がなんか機械とかと親和性があるような形でそういう人をさじゃあ除外してもう代わりとして完全にやっちゃうのがいいのか。
親和性がある形のシステムを作る方がいいのかって結構難しいじゃん。
その人じゃあいないものと想定して仕組みを作っちゃった方がいいのか、そういう人がもうすごい活躍できるような仕組みを作ればいいのかとかさ。
なるほど。
いろんな視点があるなと思う。全然本業でAIからだいぶそれって本業の話になったけど。
でも割と現実的な話じゃない?それね。
AIの文脈でもやっぱそういう話がいっぱい出てくるから。人の仕事を奪うんだみたいな。
なんかAIによって効率化してるって言われるけど、なんかAIのお手伝いさんっていうかお世話係になってるような気持ちになることあるんだよね。
確かにね。
なんかね、こっちで出力されたものをこっちに人間がコピーして貼り付けてみたいなことばっかやってるからさ俺なんか。
わかるそれ。
エラー出てきましたはいAIさんどうぞみたいなさ。
これはAIにやらせた方が早いんかっていうものはあるよね。
逆に効率悪いなみたいなこと。結構みんな言ってない?それなんかAIで時間とかして頑張っていろいろ企画書とかなんかさ文書系作れちゃうからさ。
なんか壁打ちしながら文書作ってたら時間とかしてとかね言ってる人結構多いから。
そう。結果時間かかったよねってパターンも絶対あると思う。
でもねAIでやったって一回やってみるっていうのは大事だと思うけどね。
だから本当見た目っぽいものがすごいできるからさ。
これ本当にあなたの思想入ってます?みたいなね。
あれね本当危ないというかぽすぎるよね。
ぽすぎてビジネスプランにせよ何にせよそうだけど。
あれ全部疑ってかかるっていう視点がないとね本当に脳みそ食われちゃうよねAIにね。
本当そうだよね。なんか本当に手先みたいな感じになってんなと人間が。
あれ本当にね文句言うけど。
意気揚々とさAIに聞いたらこういう回答いただきましたみたいなことを平気でメールに貼ってくる人いるんだけどさ。
お前何なんだって思うもんねあれ見るとね。
お前脳みそどこ行っちまったんだって。
なるほどね。
思いながらねいっつもいやそんなん誰でもできるんだからさいちいちAIにまとめさせてもらった結果これですみたいなことをさ俺に報告していくんじゃねえって。
なるほどね。
思ってああありがとうねって言ってる人間です。
ありがとうねって言ってるね。要はそんなもんね必要だったらこっちでAIに聞くからお前のバリューねえよってことでしょ。
そうだからそれはさ自分でそのアウトプットを見ていいと思えばそのまま貼ればいいし、足りないなと思ったとか書き加えるっていう。
魂の入魂はいるでしょと魂を入れるって。
入魂ね。
ちょっとAIとの付き合い方ねだからあれだよね驚いちゃってるからそうなるんだよね。
その驚いて喜んじゃってるからこんなすごい文章自分で書けないのポン出しでできたよどやーみたいな。
俺優秀だろ俺みたいなことを上司にやっちゃうわけでしょ。
そうだと思う。
バカだなこいつって思われて。
やめてくれよって思ってね。
AIってそれだったら直接俺がチャットGPTとやるわってなっちゃうから。
意外と冷静に見られてんだよっていうね。
そうだから魂を入れるっていうのはね。
魂入れる。
大事だよねAIの成果物にね。
なるほどねそういう面でも早く落ち着いて本質わかって使わないと結構痛い目見るかもねっていうことだよね。
そうだね結局魂の入れ方よね。
どこに魂入れるのかとか。
どこに余地があるのかみたいな。
どれだけ生成AIが出してくるものがシステマティックにやってるかみたいな。
まるで人間のように交流できてるけど。
どれだけ非人間的なものが出してきたアウトプットなのかっていうのを理解すると魂入れたくなるだろうね。
ちょっと本質に近いなこの辺もまた話そうよこれ。
そうだねめっちゃ長くなったね今日もうやばいねこれ。
著作権の重要性
そのさ今日も誰か言ってたけど普通のトピック会で1時間じゃんみたいな長くて落ち着けないよって誰か言ってた気がするけど。
いやさ一言言っていいですかもうこの時代にねちょっとやそっとで落ち着けると思ったら大間違いよ。
そうだね。
腰据えないと落ち着かないと思うよ。
そうだな15分20分30分じゃ落ち着けんわな。
逆にそわつくだけだよねなんか中途半端に。
確かに。
いやでもいい話ができたとてもいい勉強になった今日も。
というところで魂を入れてこそ著作物だという。
今日そこなんか名言的に強調するね魂ね。
魂。
いい言葉だね。
いやそこをオチにしようかなと思って。
なるほどね。
オチをつけなきゃいけないからね。
落ち着きなんでねはい。
人間の魂の入れどころ。
人間の魂です入魂しましょうというところ。
いいと思う。
魂がこぼれ落ちたね今。
そうすいませんちょっとカラッカラの魂がね。
喉とコップがカラッカラでございます。
1時間20分喋ったら。
当初30分番組の予定だったのこれ3本分撮ってるね1本で。
いい感じで編集してるからね。
そのまま出すよ。
切ったりしないよ。
だんだん長いね。
ただで最終になったのにさ。
普通の番組30分ってこと考えると2時間3時間と言ってると週5ぐらいのボリュームってことだよ。
そうだね。実質週5ですよみたいなね。
落ち着いていきましょう。
はい。ということでありがとうございます。
今日はじゃあねちょっとここまでとさせていただきます。
また次回お会いしましょう。
番組公式ハッシュタグはシャープ落ち着きAI。
いらがなで落ち着きアルファベットでAIです。
はい。番組の感想はXなどSNSでハッシュタグをつけて書き込んでください。
エゴサーチしまくっております。
今回の話良かったな落ち着いたな長かったなという人は星5レビューをつけて応援してください。
それは絶対星5つけてくれるね。
短いと思う人いないだろうからね。
長えよ星5ってことでお願いします。
それではまた1週間落ち着いて過ごしていきましょう。
さよなら。
01:19:29

コメント

スクロール