1. Cra出しRADIO 工芸とカルチャー
  2. S5 ep21 AIが思わぬ音楽を連れ..
2025-10-14 41:47

S5 ep21 AIが思わぬ音楽を連れてくる ゲスト:Qosmo / neutone 徳井直生(前編)

spotify apple_podcasts

今回からの3エピソードは、AIと人間の共創を軸に活動するメディアアーティストであり、ビートメイカー、DJ、サーファー、元大学教員、そしてQosmo / neutoneという会社の経営者でもある徳井直生さんをゲストにお迎えします。

Cra出しRADIO本編BGMでもお世話になっているリアルタイムAI音響プラグインNeutoneの開発や、徳井さんがそれ以前から行ってきたAIDJなどのパフォーマンスから、AIの技術を使ってどんなツールを開発してきたのかを聞いていきます。


【ゲストプロフィール】

Nao Tokui/徳井直生 @naotokui

https://x.com/naotokui

https://naotokui.net/ja/

「アートとテクノロジーを通じて人類の創造性を拡張する」をビジョンに掲げ、主にアートや音楽などのクリエイティブ領域においてAI利活用の可能性を広げる作品・ツールの制作や企業R&D案件を多数手掛ける。代表作品のAI DJ他これまでに発表した作品は国際的にも高く評価され、ニューヨークMoMAやロンドンのバービカン・センターなどで展示された。2021年1月、これまでの活動にもとづいて、AI技術と人間の関係性の未来像を提示した『創るためのAI - 機械と創造性のはてしない物語』を出版し2021年度大川出版賞を受賞。アーティスト/研究者/DJとして技術と創造性の交わる幅広い世界で活動を続ける。東京大学工学系研究科博士課程修了。博士(工学)。


【今回の話題の関連リンク】

Qosmo

https://qosmo.jp/

Neutone

https://neutone.ai/


【番組の感想・質問・リクエストなどはこちらから】

⁠⁠Cra出しRADIO おたよりフォーム⁠⁠

https://docs.google.com/forms/d/1tDyx21suz50jG6zV70BJ7OSzpXxuVwe_Po1gOhGNfs0/⁠

#concra でも感想お待ちしています!


【ConCra Information】

ConCra公式サイト

⁠⁠⁠⁠⁠https://concra.jp⁠⁠⁠⁠⁠

誰でも参加できる実験場 ConCra Collective(コンクラコレクティブ)⁠⁠⁠⁠

⁠⁠⁠https://basic.motion-gallery.net/community/concra/⁠

BGM: Cradasu | mesco.

⁠⁠⁠https://youtu.be/OEbiFJKspjo?si=L0ADhS5pqqfntvyd⁠⁠


⁠パーソナリティ:岩田篤 蔡海 福原志保

サマリー

このエピソードでは、メディアアーティストの徳井直さんを迎え、AIと音楽の新しい関係性について深く掘り下げています。また、彼が開発したリアルタイムの音響プラグイン「ニュートーン」の機能や、音楽制作における具体的な活用例も紹介されています。さらに、Qosmoの徳井直生さんがAIを活用した音楽制作の可能性について話しています。特に、AI DJのプロジェクトや音楽の新しい表現方法を探求し、音楽作りにおける楽しさや困難さについても掘り下げています。このエピソードでは、AIによる音楽の選曲とその意外性について語られており、ゲストの徳井直生さんがAIがどのように人間のジャンルを超えた選曲を行うか、またAIと人間のDJの違いについて探求しています。

徳井直の紹介
CRA出しRADIOは、様々な手法で物を生まれ変わらせるコレクティブ、コンクラのメンバーが、工芸を軸に、物と人との関係、物を作ることについて、皆さんと一緒に考えていく番組です。コンクラの岩田です。
海です。
四方です。
はい、よろしくお願いします。
ゲストを呼びたいなと思いつつ、3人の収録続いてたんですけど。
そうだね。
やっと。
満を持して。
ふくらさん、すげえ溜めますね。
はい。
今日はこの方。
徳井です。
先生に溜めかす。
いやいや、全然いい。
徳井なりさんですか。
徳井直です。
東京から来ました。
いらっしゃいませ。
東京から来ました。
ふくらさんとのご関係があるんですっけ?
やばいな、その言い方。
違う会の仕方でもいいですか。
でも一番長い友達だよね。日本で会ってないんですよ。
最近聴いたリスナーも、増えたリスナーも多いので、四方さんも誰、徳井さんも誰っていう人もいると思うんで。
詳細は海外が長かったと思うんですけど。
学生だった時にバックパッカーでアルセレクトニカフェスティバルっていうオーストリアのメディアアートフェスティバルで、
多分世界で一番規模が大きいフェスにバックパッカーとして一人で行ってたんだけど、やっぱり一人寂しいし、
友達できるかなと思って行ったら、面白い人が何人かいて、その一人なんだけど、
その後のロンドンに家に来たんだよね。
共通の友達がいるんだけど、その子と一緒に来て、
それが20何年前だ?
24年前。
僕のメモだと、今日のゲスト徳井直さんは、
AIと人間の競争を軸に活動されているメディアアーティストであり、ビートメーカー、DJ、サーファー、大学教員も得て、会社経営者でもあるコズモ代表の徳井直さんです。
それだけ聞くと、ちょっと他道気味な言葉がするんだけど、言われませんか?
すごい一般人目線で言うと、AIと音楽の新しい関係を切り開き、現在ではリアルタイムAI音響プラグインのニュートーンの開発を注力されてやっているということで、
ずっとくらだしラジオを聴いている人は、僕ら触れたかどうかわからないですけど、ニュートーンを使って、
触れてないですよね。
ニュートーンの機能
サラッとシーズン5はBGMを流し出しましたよ、みたいな話だけして、その内容については全然触れてないので。
実はそのニュートーンという、徳井さんのチームで作っているプラグインが大活躍しているという感じです。
嬉しいです。
さっき収録前に少し軽く自己紹介とかしたりしてたんだけど、
私、言ってないんだよね。
なお君がこの20何年来の友達ですとか。
必要ないもんね。
必要ないってなんだよ。
俺ら仲いいんだよって言うのが、変な話の男になるとこもあるじゃないですか。
うみくんは知ってるの?
そもそもうみくんも別チャンネルでなおくんは知ってる?
一方的に知ってたと思います。
3人とも行ってる飲み屋が一緒だったんだけど、
その飲み屋で明け方4時くらいで、客が勝手に音楽を駆け出すようなカオティックな時間帯とかで、
得意くんがサンピンキャンプ時代の日本のヒップホップを駆けて、
僕も盛り上がったら好きだった。
覚えてるね。
そういう感じの状況。
記憶力がすごいな。
そういう覚えがありますね。
ブッダブランドとか。
ブッダとか駆けてたかも。
そんな感じですよね。
ニュートーンの話とかをいつかするんだろうなって思ってたけど、
岩田さんが曲を作ってくれて、それがニュートーンって言った時に、
あれ私なんか話したっけってやっぱ思ったもんね。
ちょっとそこの流れを改めて説明をしますと、
倉田紫ラジオは今シーズン5ですが、
シーズン4までは無音で本編はジングルだけやって、
ジングルもずっと僕が作ってきたんですけど、
本編は無音で音声だけ出てやってきましたけど、
ちょっとBGMつけましょうかという話になり、
その音楽も僕が自作したんですけど、
それをやり始める前に、
ボブ・ホウホウさん。
シーズン4でゲストに話を聞きに行った、
ボブ・ホウホウさんのワークショップが
グッドジョブセンターさんでやるっていうことで、
それに遊びに行って、
その時にグッドジョブセンターのスタッフの方が
最近こんなんやったんですよって、
施設の利用者の方の話したりとか、
物音を立てたりみたいな音を、
このAIのプラグインで音を変えて、
別の音楽にするみたいなことをやりましたみたいな。
面白そうですね。
そのプラグインの名前をメモっといて、
家に持って帰って、
これちょっと次のBGM作りで使ってみようっていうのが、
そのニュートーン。
あえて得意さんから、
ニュートーンの簡単な説明っていただいてもいいですか?
わかりました。
ニュートーンっていうのは、
ニュートーンっていうのは会社の名前なんですけど、
アーティストのために新しい楽器とか、
新しい音を提供する、
そういう会社として、
最新のAI技術を使って、
アーティストの方に新しい楽器を提供するんだっていうことを
目的にして作った会社です。
先ほどお話ししてくださったオーディオのプラグインっていうのが、
今二つニュートーンから出してるんですけど、
一つがニュートーンモルフォっていうプラグシップ的な製品で、
これはリアルタイムにある音を全然別の音に変換するっていうものです。
だから僕の今喋ってる声が、
ピアノの音になったりバーカッションの音になったり、
鳥の鳴き声になったりとか、
そういうもので、
自分で例えばフィールドレコーディングでも、
自分の声でも何でもいいんですけど、
音を集めると、
自分専用の変換のAIモデルを学習できるというのも一つの特徴です。
もう一個ニュートーンFXっていう、
ちょっとこれ、
研究者とか開発者向けのプラグインで、
基本的には普通にダウンロードしてフリーで使えるんですけど、
オープンソースになっていて、
AIの研究者とかが、
自分で作ったAIモデルを簡単にオーディオのプラグイン、
プラグインといっても知らない人もいるかもしれないんですけど、
音楽制作ソフトウェア上で使う小さいソフトウェアみたいな感じですね。
で、
AIの研究者がそのニュートーンFXっていうのを使うと、
簡単にオーディオのプラグインになります。
そうするとアーティストの人が普通に自分の制作の中で使えるので、
それでそのフィードバックをいろいろもらえるという感じで、
そのニュートーンFXの中にも音の変換のアルゴリズムが入っているんですけど、
それ以外にも、
一つの曲の中からドラムとメロディーとボーカルを切り分けるような、
音源分離のアルゴリズムとか、
ギターのアンプのシミュレーションとか、
いろんなタイプのAIのモデルがフリーで使えるような形で提供されている感じです。
ユーザー体験の共有
なんかディスコードでそういうフォーラムもありますよね。
僕も入ってみたんですけど、
すげえマニアックでちょっとついていけなかった感じがある。
でも本当に研究者同士のやり取りがされているって感じですね。
その二つ目のエフェクトは、
自分がすでに何かをアプリとか何かをやっている人が使える?
使う側としては普通にダウンロードしてプラグインとして使ってもらえたらよくて、
研究者の人とかで、
AIのモデルを作ったら、
そのモデルを使って、
それをアーティストの人が使えるような形に変換するっていうのが結構難しくて。
そうなんだね。
そこは結構、
一般の方というか、
AIの研究の流れとかを知らない方からすると不思議だと思うんですけど、
全然想像つかない。
音楽のスケールによっては、
人が作った音楽のスケールを、
音楽のスケールを知らない方からすると不思議だと思うんですけど、
全然想像つかない。
音楽の研究、音楽AIの研究をしている人たちも、
いわゆるPythonといわれるプログラミング言語でやっていて、
研究でやっていることと、
それを実際の現場で、制作とかパフォーマンスの現場で使うっていうのが、
そこにギャップがあって、
なかなかいろんな新しい技術が出てくるんだけど、
研究者って論文を書くことが目的だから、
目的というか仕事だから、
論文を書くところまで行くんだけど、
実際にアーティストが使えるところまで、
きちっと落とし込んでいる研究ってほんと少なくて。
なんかわかるな、それ。
FXのインターフェースがあって、
そこで研究中のパッチみたいなのを選んでダウンロードするんですよね。
声のテーマになっていたりとか、いろんなのがあって、
結構アブストラクトでいい意味でわからない。
この黒橋ラジオのBGMは別にポッドキャストでかけて何の問題もないので、
僕が作ったやつなんで、
実際にどういう風に、
僕が使ったのはMORPHOの方ですけど、
どんな風に使っているかというのを流しながらやってみますね。
まず全体のBGMはこんな感じなんですけど、
これはね、これこれって感じ。
これ自体もだいぶローランドのマニアック。
ちょっと古いリズムボックスを持っていて、
これをいろんなリズムパターンで取ったやつを、
そのまま流しているものとディレイかけたりしているのと、
ニュートンで音を変えているやつとかってあるんですけど、
例えばこれ。
これ。
これが、
あ、間違えた。
元が元のリズムボックスの音を、
これはね、
オリエンタルマウスオルガンの音に変換している。
とか、
あとこれは何だったかな。
初めてだね、こういう試みね。
この話しながらデモやる。
オムニコードでちょっとやったけどね。
あとですね、これはフェスティバルラテンパーカッションっていうので変えて。
言われたら確かにリズムは同じだなっていうのは分かった。
言われると。
これ分かりやすいな。
これハンドパンっていう。
ちょっと鳥の声も入ってますけど。
元々はこれ。
これもこのリズムボックスだね。
これを。
スライのファミリーアフェアとかのやつ?
そうです。
CP?
なんだろう、なんかボックスのリズムボックスみたいな。
ローランドの八百屋とかよりもっと前のみたいなやつですね。
すごい、面白い。
あと。
これがね、これ結構僕好きなんですけどね。
ベアフォーシが平家物語語るときにベンって鳴らすみたいな感じなんですけど。
これの元の音は普通にギター弾いてます。
やっぱ弦の楽器は弦楽器のほうが相性がいい。
それはあると思います。
面白い。
なんかやっぱ空間感がガラとかありますね。
あとちょっとこれ分かりやすいかなと思って
今日収録前に撮ってきたんですけど。
ちょっと僕が手元にあった本を朗読してみたんですけど。
何語これ?
ミススピーカーっていう英語のデータで学習した。
英語?
何語か分かんないけど喋ってる感じとか。
完全ピクミンですね。
ピクミンとかフリックなスターファイアーみたいな。
という感じです。
じゃあ、これもやってみますか?
これを?
これを使って?
これを使って、
これを使って、
これを使って、
これを使って、
という感じです
どうですか? 自分らで作ったのか?
嬉しいです。こんな風に使ってもらえて
なんか使ってみてさ、研究者じゃない人が使う
アーティストが使ってみてどうっていう?
使いにくいです
やめて言った。このラジオはネガティブキャンペーンになりつつあるけど大丈夫?
どういう結果が出るのかが全くわからない
とにかくいろんなエフェクト試してみて、これはこれがハマりそう
しかもつまみがちょっとなかった
わかりにくい
こういうオーディオのプラグインってギターのエフェクターとか
もともとそういうものをシミュレートしているものが多いので
だいたいつまみの意味とかわかるんですけど
セレンディピティってつまみなんだ?
確かにセレンディピティはわかんない
そこがちょっと得意な大きさが出てる気がするんだけど
ロマンティックですね
ロマンティックな人らが
トピックのロマンティシズムが出てる
本当に多分それみんなに言われると思うんですけど
要するにAIの中って
このパラメーターが音程に対応してますとか
これが強弱に対応してますとかって
AIと音楽制作の未来
切り離せないっていうか
難しいんですよね
だから無理やり結構名前をつけてる
音楽的なコンセプトと
AIのモデルの中のパラメーターの特徴が
一対一で紐づいてなくて
無理やり結構紐づけてたりする
そこをもうちょっと整理したいねっていうのは
チームライブに言ってて
ちなみにバージョン2というか
MORPHO2っていうのを今作ってる
あ、そうなんだ
まだ誰にも言ってない
おー一時情報になった急に
そこでもうちょっと整理できるかなと思ってるんですけど
確かにでも使いにくいっていうのは
そうだなと思って
ちょっと言い訳みたいに聞こえるけど
コンセプトとして
まずなんていうか
AIを使って音楽作りを簡単にしたいとかは
もう思ってなくて
今までなかった音を出したいとか
なんならもっとめんどくさくなって
難しくなって音楽を作ることが
AIを使うことで
その代わりもっと面白いとか
今までなかった音ができるとか
そんな風に考えてて
どうしてもAIを使うっていうと
簡単にするとか
省力化するみたいな話に気がつかない
そうじゃない
新しい音を探求するために
ちょっと遠回るかもしれないけど
っていうそういう感覚で作ってますよね
DJとAIのコラボレーション
とはいえやっぱりある程度
ある程度というか
もう少しコントロールできるようにしたいなと思ってて
一生懸命良いバランスを探してるっていう
僕は使いにくいっていう言い方をしたんですけど
実際のところ僕すごい機械音痴なんで
そもそもの物理的なエフェクターとかも
なんかすごい感覚的にいじるだけで
なんとなく音楽作ったりしてるんで
そういう意味からすると
なんとなく使うにはすごく面白いんですよね
道具として
なんとなくやってみたら
こんな変な感じになったっていうもの
そういう作り方しか僕の場合できないので
あんまり頭で考えていけないので
そういう意味で言うと
すごいパートナーとしていい感じ
よかった嬉しいです
ちょっとチームにシェアします
このように使われてるようになって
ぜひこれを聴いてって
そうだね
あとなんかその
えっと僕はその
ざっくり得意くんたちの
仕事のこれまでの流れを
外側から見てる印象とかだと
例えば実際にニュートンっていうコンセプト
コンセプトであり会社名でもあると思うんですけど
そこで実際にAIをかまして
僕らが使えるツール作りに
なんかいったっていうような
結構象徴的な印象を受けるというか
それまで何か得意くんの活動って
そのAIDJっていうのが
界隈のって言ったらすごい嫌な言い方だけど
よく知られたパフォーマンスがあったと思って
でAIDJあれですね
すごいちなみに
ニットジャーニーがニット
チャットGPっていうか
2022年に発表になったことを思うと
それより前にやられていて
例えば一番アイコニックなのが
Google I.Oっていう
Googleの1年に1回の発表会で
とんでもなく大変な会ですよ
そうですね
2019年にAIロボットと
全然僕いかにでかいイベントかって知らないで
マジで?
Googleの会社の方から連絡来て
こんな誘われたけど面白そうだなと思って
すっごい気軽に受けたんです
でもそれ
友達のGoogleの人に聞いたら
めちゃそれ大変なことだよって
とんでもない
1万5千人とか会場にいて
さらにオンラインですね
会場に
1会場に
かついろんな会場があるからさらに
オンラインで見てる人もいる
チケット多分5分で
オンラインで見るだけのチケットじゃないや
オンラインでチケット売るじゃなくて
フリーであげるんだけど
数分で来なくなる
その1万5千人
野外フェスよりなんか入ってますね
そのAI DJってのはどういうパフォーマンス?
それは
また話すとちょっと長いんですけど
2015年ぐらいから始めたプロジェクトで
AIを使ってDJをもっと面白くしたいな
変なDJをやりたいなって思ってて
僕ずっとDJをやってて
それこそしほちゃんと知り合ったぐらいから
2000年前からDJをやってるんですけど
自分が絶対選ばない曲とかを
AIの選曲技術
選ぶようなAIソフトウェアを作って
そいつとバックとバックっていって
1曲ずつ掛け合うみたいなことを
やったら面白いなと思って
僕が1曲掛けられるとそれを解析して
AIが次の曲を選んで
その曲にピッタリくるような次の曲を選んでくって
それに対してまた僕が次の曲を選んで
やっていく感じですけど
今ソフトウェアでDJって結構簡単にできるけど
僕の目的としては
どんどんパフォーマンスの中に
ハプニングが生まれるっていうか
変な緊張感があるパフォーマンスにしたいなと思ってたんで
あえてレコードでやるって言って
YCAMって山口にあるメディアートのセンターがあるんですけど
YCAMの人に頼んで特注のターンテーブルを作って
そのAIのモデルっていうかシステムから信号を送って
テンポを変える回転数を変えて曲のテンポを変えて
それでビートを合わせるとか
そうか確かにそうだった
なんか動いてるなって思った
それだけ見てると
MP3を流してるように聞こえなくもないんだけど
実はその辺がすごいクラフティッドな作りになってて
BPMも自動でロボットが合わせてる
こういう小さい指でピッピッてレコードの上を叩いて
微妙なリズムのズレとかを調整する
そういうのもあるんですよね
やるじゃないですかDJラムシってこうやって
レコードをアナログに載せるのは
得意君がやってる
だからそこだけはやらなかった
背景のVJでこの曲って言うんですよねロボットが
で得意君が探して載せた後はもう後勝手に
その辺とかは本当はロボットアームでピーって持ってくるとかできたな
よかったけどそんな良さもとてもない
でもあれがちょっと面白かったって言ってもいいんだけど
人間とAIの当時代の関係性みたいなのが
すごい象徴的だったんですよ
ちょっとほっこりするっていうか
でもこのプロジェクトって元を正すとあれなんですよ
さっき言ってたのみやでのYouTubeかけてた僕がヒーローとか
あそこにたどり着いてて
その時僕とよく真鍋大徳君が
そこの金魚っていうバーなんですけど
そこによく行ってて
それでそのYouTube賭け合戦みたいなのやってて
永遠にやってたね
これもうYouTubeだから無限に曲あるわけじゃないですか
その中からどうやって選ぶかみたいな話になって
やっぱ今後それ2014年とかですけど
AIとか来るよねみたいな話になって
AIで選曲してDJをやる
そういうパーティーやったら面白いかもねみたいな話で
2045っていうD-045っていう
当時シンギュラリティーが来るって言われてた年ですけど
D-045ってイベントを二人で始めて
3,4回やったのかな
その時に初めてテストしたのが
そのバックとバックのやつで
やっと繋がってきた
やってるイベントだったり
のみやの永遠にYouTubeとか
そういう時は僕らはあくまで
得意くんたちの活動の観客だった
ニュートンみたいにみんなで扱える道具がなかったから
パフォーマンスによって
未来ってどんな感じかなって想像する手がかりを
パフォーマンスからもらってたと思っていて
全部もちろん上手くいくとも限らないし
全然ダメだなって思ったとしても
それが一つの在り方だよっていうのが
一つのメッセージだったような気がしてて
それがまたさらに道具に
さっき実演してたニュートンみたいになったので
ようやく僕らもより体感というか
感覚を持って得意くんたちが考えてることが
試せるようになったなっていう感じがします
ちょっと普通に気になるのでお聞きしたいんですけど
その当時のそれをAIでやってたっていうのは
徳井さんの持ってるライブラリーを
一回全部学習させて
BPMとか何がパラメーターになるんですか
次の
いい質問ですね
音楽やってる人だったらそんなに気になります
最初はあれなんですよ
最初データで正直言うと
最初データでやってて
レコードとかじゃなくてデータでやってたんで
とにかく大量にデータ集めてきて
過去のいろんなDJのプレイリストとかを解析して
一番最初だったのは本当にすごいシンプルで
Amazon的なこの曲を
これを買った人はこれを書けますみたいな
この曲をかけてる人はこういう曲を次にかけます
みたいなやつを
過去のデータから学習してやったんですけど
それやるとなんかすっごい普通のDJになっちゃって
それはこれかけ
このジャンルで同じジャンルだって
同じレベルの曲かけたらそれは合うよねみたいな感じになっちゃって
面白くなかったんで
それをやめて
その曲の特徴だけから選ぶっていうことを
途中からやり始めて
そのタイミングでレコードに変わったんですけど
なんかそのやってるのはすごい
技術的なことを一旦置いとくと
曲のなんか雰囲気みたいなものを抽出するような
そういうAIのモデルを作ってて
なんていうか
いろんな曲があった時にそれをこう
似てるものは近くに似てないものは遠くにみたいな感じに
マッピングしていくみたいな
するとなんかこう
テクノの島みたいなのとか
ハウスの島みたいなのがこうやってできてきて
似たものがこう近く集まってくるんですけど
それで僕がかけた曲を
そのマップの中にマッピングしてあげて
その近くにあるような曲っていうのは
雰囲気が近い曲だからっていう
もうちょっと技術的なこと言うと
画像認識みたいなアルゴリズムを実装してて
音のスペクトログラムっていって
時間軸と周波数の分布の画像ですけど
それを見てこの曲は
どういうジャンルの曲なのかとか
どういう楽器が使われているのかっていうのを
識別する
画像認識のアルゴリズムを作ってあげて
最終的に判断したジャンルの情報とかは使わずに
その1個手前にある
ジャンルを判断するためには
曲の特徴を抽出できないといけないから
その抽出した特徴を
さっきのマッピングに使ってあげて
だからなんか言語化は難しいんだけど
さっき言ったみたいに同じ楽器が使われているとか
同じジャンルだとかテンポが近いとか
同じ構造だとか
そういうものが
ずっと近くに集まってきて
そういう感じなんですよね
音を画像化するっていうのがちょっとね
イメージがわからない
アイチューンビジュアライザーみたいなことを
素人は想像してないですから
なんかどう説明したいですかね
でもAIDJってビジュアライザー付きの
VJ演出付きなんですよね
あれを見てても面白いんですけど
素人とかで言うと
例えば一番わかりやすいので言うと
BPMは一緒ぐらいだけど
ディスコの生演奏のものと
ゴリゴリのハウスとかテクノとかのもの
を無理矢理繋げるにはちょっと工夫がいるというか
その人なりの視点が多分いると思うんだけど
それはじゃあAIだったら
どういうふうに判断するのか
みたいなことなのかしらっていう
僕ちょっとAIDJ見ててそう思ったことがあったんですね
なんかこれを選んだんだみたいな
聞いてたと思う何回か見たけど
そのさやっぱり機械としての理解の仕方っていうのと
人間としての理解の仕方って
なんか違うと思って
それはどういうことなのかっていうのが
たまに僕以外のDJにもやってもらったりするし
僕もそのAIDJやってて何回もあったのは
僕が何かかけた後に
自分だったらこれかけるなみたいな
頭の中で思うんですけど
AIによる選曲の驚き
それを本当に選んでくれた瞬間とかもあったりしたし
逆に全然思いもつかなかったような
あの曲を選んでくる時があって
僕が想像したのに近いものを選んでくる時は
やっぱり同じような楽器っていうか
同じようなシンセの音を使ってる曲だったりとか
同じ時期のシカゴハウスだったりとか
わかりやすい繋がりがあって
そこはやっぱりAIも得意なんですよね
なんか全然違うのを選んでくる瞬間があって
これよくいろんなところで喋ってるんですけど
本当にあった話で
リハーサルの時に僕がテクノの曲をかけたら
すごい有名なテクノの曲なんですけど
たまたまレコードボックスの中にあった
フリージャズっぽいやつをかけてきて
人間の頭からすると全然違うジャンルの
しかもテクノとフリージャズみたいなのして
絶対合わないんだけど
楽器の構成がたまたま結構近くて
音色の構成が近くて
普通人間ってジャンルってものに結構縛られてしまうんですけど
AIにとってはジャンルの違いも
楽器の違いとかも
楽器の類似性とかも同じ重さなので
重さっていうか同じ重さだったりするから
だからその楽器構成の近さみたいなのを取って
そっちを選んできて
それかけたらすっごい
たまたまめっちゃかっこいいミックスになって
で本番の時に今度
リハーサルの時にAIが
僕がかけたテクノの曲をAIが選んだんですよ
だから全く同じことをやろうと思って
今度は僕がそのフリージャズの曲をかけようと思ったら
A面とB面間違えてかけて
ディスコみたいな曲にヒューマンエラーが
面白いですねそれ自体がおもろいですねその状況自体が
でもなんかそういうさっき塩ちゃんが言ったみたいに
人間の判断の仕方とかAIの判断の仕方とかが結構出てきて
そういうとこも含めてすごい面白いパフォーマンスなんですけど
たぶん知らないで見てる人からしたら下手なDJさん
あるかなデリック面のストリングソブライフとか
例えばテクノだけどピアノがめっちゃ前面に出てたりとか
そういうのをAIがピアノでかぶせたりとか
そういう2025年現在で言うと
僕はスポーティファイで音楽聴くと思うんですけど
スポーティファイの自動生成プレイリストとかって
単純に年代とか
さっきのとくりさんのお話アマゾンのレコメンドみたいな
この人はこの曲を聴いてますじゃない
明らかに何かその雰囲気で寄せてきたなみたいな
プレイリストを自動生成するみたいなのがありますけど
あれはもうそのとくりさんがずっとやってきたような
そのAIのが裏で動いてるってことです
だからスポーティファイはもともと
本当この曲を聴いてる人はこの曲をみたいな
ああいう仕組みを使ってたんですけど
それやるとゴールドスタート問題って言って
新曲が出た時に
あと新しいアーティストが出てきた時に
誰も聴いてないから
お勧めできない
だから曲の曲調と
あとその狂気関係って言うんですけど
このこれを聴いてる人はこれを聴いてるみたいな
両方使ってレコメンデーションするように
今も多分変わってると思う
ちなみにちょっとこれ自慢だけど
僕がそのAIR DJで作ってたアルゴリズムは
その後自分のコズモっていう会社で
もうちょっとちゃんと整地化して
で今あのユーセンさんとか
ユーセン契約するとAI BGMっていうチャンネルがあるんですけど
そういうところで使われてたりとか
あとレコードボックスって
アイオニア DJさんが出してる
DJ用のソフトウェアあるんですけど
そこの中にも
この曲の次にかける曲としてお勧め
これがお勧めみたいな
レコメンしてくれる機能が最近追加されたんですけど
それとか全部じゃないんですけど
一応はうちの会社で作ってます
実はあのAIR DJでやってたことが今世界のDJに
かつみんなが知らずにその影響を受けてるから
朝4時ぐらいにYouTube掛け合って歌うやつが
そういう夜じゃない時間の
そんなビジネスミーティングとか
なんかネットワーキングとかじゃ
絶対生まれないような話ですよね
無理だろう
音楽と人間のDJの価値
実際そのAIR DJやってて
びっくりしたこと起きたとして
なんかその自分の感覚ずっとやってると変わる感じ
なんかやっぱりあの二つ思ったのは
一つは結構製曲に対してオープンマインドになったっていうか
なんか今までやっぱテクノだった
テクノって感じでかけてたけど
もっと自由にかけてみようかなって
それは面白いね
そんな方が面白いなとかって思うようになったっていうのが一つと
もう一つはやっぱり今後どんどんAIの機能が上がっていって
みんなデータでやるようになってくると
なんかみんなこうすごい上手いDJができるとか
選曲的にもそのAIの力を借りて選曲すると
ストライクど真ん中みたいな曲を
結構選びやすくなるわけですよね
ミックスも今データ使うとすごい簡単だったりするし
そういう中でその人間のDJの価値って何だろうとか
他の人と差をつけるにはどうしたらいいだろうとかって考えた時
なんかやっぱその失敗とかも含めて人間らしさを見せるとか
なんかある種の偏り
多分正解としてはこの曲を繋ぐのが正解なんだけど
あえて自分はこだわってちょっと外れたこれをかけるんだとか
そういうある種の偏りを見せるみたいな
人間臭さとか偏りを見せるみたいなのが
それはDJだけじゃないと思うんですけど
結構大事になるなぁとか思ったりとか
だからもっと端的に言うと
昔はニコリもしないで
すごい真剣な顔でDJするのがかっこいいと思ってたんですけど
これでもみんなに言うかもしれないけど
90年代のDJとかそんな感じだったかな
動かないっていうか不動な感じでストイックな感じ
エフェクスツインとか出てきやしない
エフェクスツイン出てこない
パーテンの向こうで目覗いてるから
それがかっこいいと思ってたけど
なんかそれよりはもうちょっと
自分が楽しんでるのを見せるとか
人間臭さを見せるっていうのは結構大事だなぁとか
EDMとかの感じだとだいぶDJの在り方が変わってますね
AIと音楽の未来
あそこまで行くとまたパフォーマーっていう感じですけど
ちなみに岩田さんはAmazonで本買うのすごい嫌いな方で
買って嫌いって語弊があるから
嫌いなわけじゃない
あれですよね
いわゆるセレンディティな感じじゃないけど
この本を買った人はこの本も買っていますみたいなのを
避けたい人ではあったりするんですか
いや別にそういうことじゃないんですけど
僕のAIと音楽みたいなことの興味で言うと
多分もう次のエピソード行った方がいいと思うんですけど
今日の話で言うと
AIによる選曲っていう話と
あとニュートンに関しては
音色を別のものに変換するっていう話でしたけど
僕は自分でギター弾いたり歌ったりみたいなこともしてる人間なので
やっぱりAIが全部作曲して
パフォーマンスまで全部生成するみたいなものが
今かなりできるようになってるっていうことに
どちらかというと
どちらかというかそっちの話とかって今どうなんだろうっていうのは
シンプルに興味があるところであって
それは結構なんていうか
場合によっては嫌な気持ちがする
不気味な中に関わる問題な気がするんですよね
選曲とかって全然そういう感じじゃなくて
お前いい曲かけるやんけっていう感じの
いい付き合い方ができるけど
全部生成しましたみたいなことを知らされずに聞いて
いいやんって思った後にこれAIでしたみたいな時の
後味の悪さ
そういうAIができることがめちゃくちゃ増えてきた
今の時代に
今日音楽がメインテーマでいいのかっていうことがあるんですよ
徳井さんのAI研究のもう少し手前のところの話とかも
振り返って聞きつつ
どうしてそこに行ったかっていうのは
次の回で聞いていければなって思ってます
というわけで次回も徳井さんよろしくお願いします
くらなしラジオは毎週火曜日に配信しておりますので
ぜひフォローして
Spotifyなのでお聴きください
ハッシュタグはCONCRAで我々と絡むことができます
フォームもあります
質問?感想?
なおくんがDJやってて失敗した瞬間見たことある人
ぜひ連絡ください
わかったとしてくるのかなと
あれ失敗だろうと思ってお便りフォームに行く
みたいな感じで
また来週もお願いします
41:47

コメント

スクロール