1. AI未来話
  2. #30 API公開で変わるビジネス ..
2024-10-03 27:33

#30 API公開で変わるビジネス - 動画生成AIとアプリ連携が生み出すイノベーション

spotify apple_podcasts

[今回のタイムスタンプ]

() Runway「Gen-3」のビデオ生成機能「video-to-video」
() 従来の動画生成AIとの違い
() Runway - 設立わずか4年の急成長企業
() Runway CEOは元大学教授 - AIアートに魅了され転身
() Runway誕生秘話 - 研究論文から生まれた生成AI
() アーティストのためのAIツール - Runwayの目指す未来
() AIツールは進化する - アーティストの批判にRunway CEOはどう答える?
() Adobeも動画生成AI「Firefly」を発表
() Runway創業者のAdobe入社秘話 - 意外な関係性
() Adobe Fireflyの機能 - Runway「Gen-3」との違い
() Adobe Firefly 正式発表 - 動画生成AI業界に激震
() Runway vs Adobe - 業界の覇権争い
() 3大動画生成AI - Runway、KLING、Dream Machineを徹底解説
() RunwayとDream MachineのAPIが公開 - アプリ連携で何が生まれる?
() Dream Machineを開発するLuma AI - 3D技術と動画生成AIの融合
() Dream Machineはスマホで動く - API公開で広がる可能性
() API連携で生まれる未来 - 不動産、旅行業界へのインパクト
() AIが生み出す新たな映像体験 - 旅行動画の可能性
() API公開で変わるビジネス - 3Dモデル作成の高速化
() API利用料金は? - 1秒7~8円!今後の価格変動は?
() エンディング - AIを使いこなす重要性
() 著作権の議論 - AI時代における倫理観
() まとめ - AIを積極的に活用しよう!

 ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄

[AI顧問サービスはじめました!]
https://miralab.co.jp/adviser/

 ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄

[お便りはこちら]
https://forms.gle/j8sJ1v1hH5JSaZm97

 ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄

[公式X]
- AI未来話
https://x.com/ai_miraitalk
- MiraLab AI
https://x.com/MiralabAI
- 平岡将和
https://twitter.com/dicamp_hiraoka

 ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄

[AI未来話/各種リンク] - note

https://note.com/aimiraitalk

- Spotify https://open.spotify.com/show/4YQI4JvX83mURM6xywKn5w?si=34b96be128584bad

- Apple

https://podcasts.apple.com/jp/podcast/ai未来話/id1733462439?uo=2

- LISTEN

https://listen.style/p/aifuturetalk

 ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄

[更新スケジュール] 毎週木曜日AMに更新


[AIメディア MiraLab AI]
https://miralab.co.jp/media/

サマリー

ランウェイは、ビデオtoビデオ機能のリリースを通じて動画生成AIの発展に貢献し、アーティスト向けのツールとしての側面を重視しています。また、Adobeの動画生成AIの発表と競争しながら、アートに特化した使いやすさを追求している点が指摘されています。動画生成AIの進化とAPIのオープン化がビジネスに大きな変化をもたらす可能性について考察されています。特にRunwayとDreamMachineの協力により、アプリとの連携が進むことで新たな映像生成手法やマーケティング戦略の創出が期待されています。APIの公開により、動画生成AIの利用が進む中で、クリエイターには積極的な活用が促されています。時代の変化に対応するためには、生成AIをまず使い始めることが重要であると強調されています。

ランウェイのビデオ生成機能
AIメディア編集長のたつけです。 AIコンサルタントの平岡です。この番組は、AIの最新動向をもとに、未来を考察するポッドキャスト番組です。
それでは本日のトークテーマをお願いいたします。 はい、最近の動画生成AIが暑い。
暑い。 そこ。動画の部分じゃないんだね。動画の部分出てこなかったなぁ。
ランウェイとか最近すごいですからね。 そうそうそう、やっぱり今だったらランウェイでしょ。 確かにね、ランウェイでしたね。
まさしく今回この回をやろうと思ったきっかけが、本当にランウェイで、ランウェイGen3αに今回ですね、ビデオtoビデオ機能がリリースしたという。
はい、されてましたね。簡単にちょっと説明だけお願いできますか。
はい、基本的に最大10秒の動画が作れるというか、動画から動画に変更することができるっていう感じで、主な変更点としてはスタイルの変更ができるっていう感じ。
スタイルというのは。 だから実写の動画をアニメーションに変えてくれたりとか、あとはちょっとセピア風、白黒の古い感じのモデルに変えたりとか、
そういう感じで映像のスタイルを変更するっていう感じだよね。 なるほど。
だからわかりやすく言うと、ちょっとこれを知らない人にもわかりづらくなっちゃうかもしれないけど、DOMO AI。
DOMO AIね。 あれはアニメーション特化じゃん。
懐かしいね。 だけど、あれのアニメ以外のいろんなやつもできるよみたいな感じ。 なるほど。
で、ランウェイがなんでこの機能をつけたのかというか、ビデオtoビデオは主流だから、つけるはつけると思うんだけど、
今回このスタイルの変更がメインなわけよ。 ビデオtoビデオでもいろんな編集の仕方がある中でさ、
なんでこのスタイルの変更が一番最初だったのかなっていうのはちょっと気になったところがあって。 確かに。
今後どういう路線に進むのかとかみたいなのはさ、ランウェイっていう会社のバックボーンにいればなんとなくちょっと想像つくかなと思ったので、
今日その辺を紹介していこうかなと思います。 なるほどですね。
ランウェイはですね、2019年に設立された会社でして、 若いっすね。
そう、若い。で、CEO兼共同創設者の方がですね、クリストバル、 バレンズエラさんという、ちょっと非常に読みづらい名前なんですけど。
クリスさん。 クリスさん。まあどちらかと言うと、バレンズエラさんかな。 バレンズエラさん。 バレンズエラさん。
この方はチリ出身の方で、大学で経済学と経営学を学んだ後、デザインの修士号を取得します。
で、そのまま大学でデザインを教え続けるっていう仕事をされてた方なのよ。
長年、要は大学で先生をやってたわけじゃん。
なんだけど、AIアートの作品に魅了されて、突然仕事を辞めて、 学生としてニューヨーク大学に入学するっていう、結構変わった経歴の持ち主なのよ。
そういう感じなんだ。
で、大学ではテクノロジープラスアートっていうところをメインでずっと勉強されてたの。
で、2年間プログラマーとして、さまざまな機械学習とか画像生成技術とか、要はその学校の先生をやった後に大学に入学して、で、2年間大学でゼロから学び直したみたいな感じなんだよね。
じゃあもう大学めちゃくちゃ行ってるわけですね。
そうだね、ずっと大学行ってるようなもんだよね。
なんだけど、昔からそういう技術のことを勉強してきたっていうよりかは、後々大人になってから後日勉強し直したっていうタイプの方。
今、おいくつぐらいなんですか?
ちょっとね、年齢は調べたけど出てこなくて、正確な年齢まではわかんないんだけど、でも大学出て、そっから何年か働いて、で、2年間大学生をやったっていうことを考えると20代後半ぐらいかなっていう感じだよね。
30前半ぐらい、僕らと同い年ぐらいみたいなイメージですかね。
決してそんなに他の周りのスタートアップとかと比べてめちゃくちゃ若いかっていうとそんなことはないっていう感じはあるよね。
ちょっと実際の年齢わかんないから違ったら申し訳ないけど。
で、その大学の間でテクノロジープラスアートっていうのを2年間勉強して、で、その研究論文を元に生まれた生成AIがランウェイなのよ。
そういう、じゃあ研究の結果で作られたものなの。
大学のそういう授業がそのまんま仕事に直結するって、なんかあんま聞かないからすごいなと思ってさ。
確かに。
だからランウェイっていうのはアートとしての側面が非常に大きいのよ。
しかもアーティストのためのAIツールを作ることが目的っていうふうにこのランウェイのバレンゼラさんも言ってるぐらいだから。
そうなんですね。
これもアーティストのためのツールなんだよ、ランウェイっていうのは。
みんなに聞いてほしいね、この言葉ね。
そもそもコンピュータービジョンとか機械学習とかを学んだときに、これをアーティストに渡せばなんかやってくれるじゃんっていうふうに真っ先に思ったらしいのよ。
だからその研究者とは異なる視点で活用できるツールみたいなのをクリエイターに提供したいみたいなことをずっと考えてて。
アーティストの中には反AI派みたいな人もやっぱり多いじゃん。
自分の仕事が無断で学習に使われるとか、自分の仕事がなくなってしまうとか。
だからそのバレンゼラさんは結構我々がAI目台話して話してたような主張を丸々本当に同じようなこと言ってて。
AIはあくまでもアーティストのためのツールでカメラマンがフォトショップを使ってるとかライトルームを使ってるとかわざわざ言わないのと一緒で、
アーティストが自然と生成を活用してて別に何のAIを使ってるとかそのことは別に言わない。
それはでもあくまでもそのアーティストの作品であるみたいな、そういう立ち位置のものなんだよって言ってて。
ユスタブ・クールベイの回で全く同じようなこと言った記憶があるなみたいな。
言って言いましたね。アーティストこそ使うべきだと、クリエイターこそ使うべきだという話しましたね。
まさしくその信念で作ってるのがラーメンなわけですよ。
なるほど。
アーティストがそのAIに批判的な理由として何だと思いますかみたいに聞かれて、このバレンゼラさんはその便利さに気づいてないだけっていうふうに言ってるんだよね。
だから今後もアーティストが便利になるための進化をもっと続けていきたいっていうふうに言ってるから。
だからこのビデオとビデオも、もちろん技術的にまずあれしかできなかったとかっていう背景がもしかしたらあるのかもしれないけど、
個人的にやっぱりスタイル変更みたいなところってすごいアーティスティックな機能というかさ、アーティスト寄りの機能だなってすごい個人的には思ってるから。
アーティストのためのツール
だからこういう背景があってのあれって考えるとすごい自然というか、腑に落ちるなっていうふうに思ったっていう。
確かにそうですね。
結構Xとかでもさ、実際にちょっと作ってみましたみたいな動画とか回ってるけどさ、手がこう銀色のシルバーメタリックになってる映像とかさ。
あったね。
使いどこどこみたいな気がしなくもない映像だったりするじゃん。意外と。
まあなんか映画のワンシーンで使われたり、そういう制作物系のイメージですよね。確かに言うと。
だからやっぱりアーティスト寄りのミュージックビデオのさ、1シーンとかさ。
ああ、そうだね。
アート寄りの使い勝手っていうところは確かになっていうふうに思った。
確かに。あれをPVに出すっていう背景はそれを聞くと納得しますね。
そう。で、もう一つ動画生成AI界隈で大きなニュースがありまして、それがですね、Adobeの動画生成AIが発表されたということですね。
おおー。
でね、ヴァレン・ゼラさんがカメラマンがPhotoshopを使っているか、Lightroomを使っているかとか言わないよねみたいな。
そんな例に出すくらいアーティストが活用している定番ツールといえばやっぱりAdobeなわけですよ。
まあ、そうですね。
そう。で、これちょっと面白いツアーがあって、ヴァレン・ゼラさんLanwayの創業前に当時Adobeで働いた同級生からAdobeへの入社を誘われたらしいのよ。
ああ、そうなんだ。
そう。しかも共同創業者のマタマラさんって方がいるんですけど、この人はAdobeに入社したらしいのよ。
ああ、そっちは入社したんだ。
そう。だけどマタマラさんも企業願望があって、もう一人誘って3人で結局Lanwayを創業したっていう感じで。
ああ、じゃあ何?
Adobeには結局行かずに、ヴァレン・ゼラさんはAdobeの誘いを断って、で、マタマラさんはAdobeに入社したけど即独立して。
ああ、そういうことだよね。
そう。っていう感じで、ちょっとAdobeと実は違和区継ぎじゃないけど、因縁のある人たちなわけですよ。
ああ、なるほど。
そんなAdobeからもまたこれが出てるっていうところがちょっと面白いなと思って。
これがAdobe Fireflyビデオモデルっていうことで、今のところここはテキスト2ビデオとイメージ2ビデオのみなので、ビデオ2ビデオは導入されてないんだけど、
これ自体は今年の初め頃にもさ、ちょろっと告知みたいなのされてたからさ、
多分AI未来話でも取り上げたよね、確か。Adobeの、要はソラがさ、連携されるかもしれないよねみたいな話してるね。
したかもしれないですね。
要するにAdobeから動画生成AIが出ますよ、それがPremiere Proっていう動画編集ソフトにくっつくよみたいな告知動画の中で、
シレッとソラも使えるようになってた、オープンAIの。なんじゃこれみたいな話題になったっていう、
それの動画モデルの、要は正式な発表。こういう動画モデルでこういう機能を備えてて、こういう使い方できますよみたいな正式な発表が今回明らかになったみたいなイメージ。
なるほど。
やっぱりAdobeがさ、動画生成AI導入してきたら強いよなと思って。
めちゃくちゃ強いですね。ネットワーク効果聞きまくりですからね。
だからやっぱRunwayのさっきの話とかを聞くと、実はAdobeとの競争というかがすごいというか、一番飲み込まれちゃうところが実はRunwayなんじゃないかなっていう気はしてるところはある。
どうなんすかね。だからアート寄りにしてるっていう側面もあるような気はしますけどね。
でも結構バレンゼラさんの過去のインタビューとか見ても、やっぱりアーティストが使ってるPhotoshopとかイラストレーターみたいなツールはもう古いんだみたいな。
それを超える新しいツールを出すみたいな感じ。やっぱそこと最初から真っ向勝負で戦いに来てるみたいなところがあるんだよ。
でもそのAdobeがAIを導入してきて、バチバチで結構実はここ結構やり合ってる感じなんだよね。
Adobeとの競争
それでAdobeが動画生成AIをがっつり出してくるってなるとさ、やっぱ単純な殴り合いで負けちゃいそうな気がするよなっていう。
どうですかね。
なんていうか、Adobeはこういうところを狙ってるから、そうじゃないところで勝負をするとかそういう戦略があればさ、いけんのかなと思うんだけど。
結構もうスタートからAdobeに勝つみたいなところから始まってる分、なんか厳しいんじゃねえかなみたいな気がしたんだよね。
文脈的にはじゃないですか、Adobeのツールってやっぱ使いづらいし、ちょっと古臭いよねっていうところから、そのUXの部分じゃないですか。
多分ランウェイに関してはもっとわかりやすく使いやすく、しかもアート寄りにしていくっていうところで戦ってるから、ちょっとまあ違うっちゃ違うような気もしますけどね。
そうね、うまいとこそこ墨分けができればいいなとは思うけどね。
ただやっぱネットワーク効果がすごく強いんで、Adobeってみんな使ってるじゃないですか。
みんな使ってるもんね。
そこを崩すんだったら、違う戦略は取らないとちょっと厳しそうな気がしますよね、確かに。
そう、だからちょうど2024年の後半ぐらいにそのAdobeの動画生成AIが正式に出て、だからあと多分1、2ヶ月とかかな、数ヶ月に出て、
で、プレミアムプロって動画編集ソフトに組み込まれるっていう話なんで、まあそっからね、ちょっとどれぐらい広がるのかっていうのは結構注目かなっていうところですね。
そうですね、ちょっとクオリティーが気になりますよね、Adobeに関しては。
結構動画生成AI自体もう激戦区になってきてて、昔なんてさ、昔言っても最近の話なんだけど、ちょっと前まではさ、もうRunwayとPicaの2つぐらいしかなかったじゃん。
でもまさしくその2つがもう二大巨頭みたいな扱いだったけど、でもちょっとね、Picaはね、最近やっぱRunwayの性能を見るとちょっとこう劣る印象があるなっていう。
そうですね、なんかまあ最初からちょっと劣ってる印象はありますよね。
まあそうね、若干ね。我々が使ってた時もRunwayの方を使ってたもんね。
そうですね、両方ともね、我々も使った中で、やっぱなんかRunwayの方がどんどんどんどん肘は大きくなってたって感じがしますよね。
そう、それでね、Gen3αが出て、もういよいよRunwayだなっていう感じになって、もうPicaが。でももともとそこが二大巨頭だったのにさ、最近はさ、クリング、これもなんかAIメラメラしてさ、すごい動画AI出たよねって話したけど、クリングとか、あとはDreamMachineとかが出てきて。
なんか最近は結構このRunway、クリング、DreamMachineの三つがちょっと三大動画生成AIみたいな雰囲気になっているところがあるなっていうのは感じる。
とりあえずここだけ抑えておけば大丈夫そうな気はしますよね。
そうそうそう。最近は僕自身は動画生成ガンガンするみたいなのはしてないので、この三つの中でさらにどう違うのかみたいな、ちょっと細かい話まではできないんですけど、
ただ僕の中で、Adobe、Runway、DreamMachine、この三つで活用の幅がものすごく広がっていくんじゃないかなというふうに思っていることがあるので、ちょっと後半はその辺を深く喋っていこうかなというふうに思います。
DreamMachineの技術
なぜそこの三つの活用が広がるかもしれないと思ったかと言いますと、これが本当直近に出たもう一個のニュースなんですけど、RunwayとDreamMachineのAPIが開放されたというニュースがありました。
これが結構APIの開放で結構大きい部分だなと思って、さらに言うとDreamMachineというツール自体の特徴もちょっとRunwayと違うので、それで含めて面白い動きになるかなというふうに思っているところがあって、
ちょっとDreamMachineについて先にちょっと紹介すると、ここの会社はですね、Luma AIという会社でして、NERFという技術を用いて個人的な瞬間を現実的に表現すると。
個人的な瞬間。
そう、個人的な自分の個人的な瞬間を現実的に表現してユーザーに感情的につながりを提供する。
要するに何かというと、このNERFというのが複数の視点からの画像をデータとして入力して、真相学習を用いて3Dシーンを再現するという技術になる。
だから画像データを3Dに再現する。
個人的なそういう写真みたいなものを映像にすることによって、3Dにすることによってユーザーに感情的なつながりを提供したい。
そういうニュアンスってこと。
というのも、このLuma AIという会社は3Dモデルの生成が可能なGenieとか、動画から3Dモデルを生成可能なインタラクティブシーンとかっていうサービスを提供していて、
3D技術と動画生成への融合みたいなことをメインでやっているのよ。
だから機械学習とNERFを通じて、通常の動画と見分けがつかないほど、写実的な結果を得られるというふうにLuma AIは主張している。
結構ここのドリームマシンが作る映像っていうのはリアルティックな現実的な映像が多かったりするっていうのはそういう背景があるんだよね。
iPhoneで誰もが3Dクリエイターにっていうのも大切にしているから、だからLuma AIシリーズは全部スマホで動くのよ。
アプリも出てて、残念ながらアプリはドリームマシンは動かないんだけど、Genieとインタラクティブシーンはアプリでも動く。
スマホのウェブブラウザー版だったらドリームマシン自体の動画生成もスマホで可能っていう。
だからドリームマシンの今後の育成としては、スマホで動く動画生成AIみたいなポジションになっていくんじゃないかなっていうふうに思ってて。
だからアーティスティック寄りなのがRunwayで、3Dのリアルティックなのがドリームマシンみたいな感じ。
割とドリームマシンの方は一般向けにターゲットを絞ってる感じですかね、イメージとしては。
そうだね、iPhoneとかスマホで動かせるっていうところはそういうイメージがあるのかもしれないよね。
で、Runwayはどっちかというとクリエイター向けっていう感じですかね。
で、あとルマAIのCEOであるアミット・ジェインさんっていう方なんだけど、新しい没入型の方法で人々をつなぐメディアを構築したいって言ってて。
没入型、VRとかってこと?
そう、メタバースみたいな文脈で喋ってるって感じで、だから空が世界シミュレーターであるみたいなこと言ってるじゃん。
だからルマAIもどちらかというとそっち寄りの思想で、アーティストのためにアーティスティックなツールをとかって言うよりかは、
世界シミュレーターで世界を作っていきたいみたいな、3Dをやっていくみたいな、多分そういう文脈の感じのサービスみたいな。
この2つのサービスがやっぱりAPIを開放したわけですよ。
APIの影響と未来の可能性
これがね、Runwayが9月16で、ルマが9月17っていうことで、もうよう挑んじゃないけど、一斉にAPIの開放が始まったという。
すごいな、APIね。
この2つがAPIを開放すると、やっぱり結構面白いことが起きるんじゃないかなっていうふうに思ってて、
僕の個人的な未来予測みたいなところになるんですけど、やっぱりAPIが開放されるとアプリと同化生成の連携がガンガン進むと思うんだよね。
例えば、不動産会社のさ、物件情報のサイトとかあるじゃん。
ああいうのでさ、連携したらさ、内覧動画みたいなのがさ、もう瞬時に自動生成されるみたいなことも可能なわけじゃん。
それこそさ、不動産みたいな2D画像を3D空間にするみたいな技術はさ、もうまさしくこのルマAIが得意としている分野じゃん。
そこがさ、もうほんと紐づいたら、SumoとかHomesとか全部のやつが映像で見れるみたいな、起こりうるよね。
これ結構すごい技術だなと思って。
で、あと旅行会社とかだったらさ、旅行プランに合わせて観光地の紹介動画を自動生成するみたいな。
例えばランウェイはさ、アーティスティック寄りとは言ったけど、要は見せ方とかがさ、うまい映像になるわけよ。
演出みたいなところで、視覚効果とかさ、あとストーリーテリングみたいな、引きつける映像みたいな。
そういうのを活用したらさ、もうすごいアーティスティックなさ、旅行動画みたいになってさ、うわ、ここの景色綺麗みたいなさ、そういう動画とかを作ったりとかすることもできるじゃん。
要はもうちょっと死後ですけど、映えるみたいな。
まあでもそうね。また死後じゃないんじゃない?大丈夫じゃない?
割と死後だと思う。
もう死後なのかな?
もう死後だと思う。
でもほんとそうだよね、映える映像がピュッて一瞬で、瞬時にできてさ、うわ、綺麗みたいな旅行行ってみたいなって思わせるだけで、旅行会社的にはすごい良い効果が生まれるじゃん。
なるほどね、確かに。
この辺は結構APIが連携することによって可能性が広がるなみたいな。
他にも多分もっといろんなアプリとかでそういうことできそうなものもありそうだけどね。
とりあえず今2つざっと出したけど。
確かに。でもなんかあれですよ、平面なものがAPIを使うことによって3D化したりとか映像化することによってボックをするような産業っていうことですよね。
なんかあるかな?
なんかいろいろ使い道ありそうですけどね、確かに。
自分の身近なものであるかな?
でもなんか通販サイトとかでも普通に使えそうだけどね、商品の紹介動画とかをさ、自分の写真アップしたら自分がその商品使って映像作ってくれるみたいなさ。
あーなるほどね、ユーザーが投稿してそれが勝手に3Dになるみたいな感じですよね。
そうそうそう。
3Dイメージが湧きやすくなるとかね。
そうそう。
なるほど。
なんかちょっと前だけどさ、iPhoneで撮った動画を3Dに起こすみたいな技術があって。
それがXでバズったことがあるんですけど、いわゆるこの亡くなってしまった過去のワンちゃんを3D化して部屋でまた楽しく走ってるみたいな。
あれも割とAPI使うことによって結構すぐに実現できちゃうとか。
でもそうかもね。
最近で言うと、もともと3Dで作ったちょっとデフォルメされてるじゃないけど、チープな感じの3DモデルをランウェアにAPIかませることによってめちゃめちゃ立体的で綺麗な3Dモデルができちゃって、もうこれでいいじゃんみたいな感じのを見たんですよね。
だからたぶん仕事で考えるとお客さんに提案するスピードっていうのがめちゃめちゃ早くなりそうだなとは思いますね。
業務効率化の視点でもめちゃめちゃ良くなりそうな気がしますね。
あと単純に消費者目線で見ても、さっきの亡くなったペットの映像化じゃないけど、写真送るだけでものすごい動画が返ってくるみたいな、そういうサービスとかが増えそうだなっていうのは思うよね。
写真送ったらね、3Dで返ってくるみたいなね。
この辺が要はランウェイのそういうアーティスティック寄りのところと、ドリームマシンのとにかく3Dでリアルティック現実的なものにフォーカスがあって、この2つがそれぞれAPIを開放したっていうところで、結構全く違うジャンルのものでも両方でいけそうだなっていうふうに思ったっていうところ。
さらに言うと、なんでアドビーなのかってことなんだけど、やっぱりアドビーもソラが連携されるっていう話をね、さっきしたと思うんだけど、API始まったら絶対プレプレを連携できるじゃん。
プレミアムプロね。
そう、プレミアムプロ絶対連携できるじゃん。
でなったら、ドリームマシンとかランウェイとかもアドビーのプレミアムプロの中で使う可能性全然増えるだろうし、むしろそこで使えたら、やっぱりアドビーのプレミアムプロ1個持っとけばいいんじゃないみたいな話になりかねないなみたいな。
動画ソフトはプレミアムプロの箱として使うっていう感じですよね。
そう、やっぱり他の動画生成もどんどんどんどんAPIの開放、たぶん続けてやっていくと思うんだよね。
ちなみにAPIの料金ってどのくらいかかるんですか。
1クレジットあたり1セント、で1秒のビデオ生成に5クレジット必要。
だから今1セントだいたい1.5円とかだから1秒のビデオ生成でだいたい7、8円くらい。
7、8円くらいですね。なるほど。じゃあ5秒とか生成したら8円だとして40円とか。そう思うと結構しますね。
高いね。
だいたい5秒くらいがベースですよね、最初の生成って。
APIと動画生成AIの進化
そこから繰り返し繰り返し使っていったら40円、40円、40円、40円ってどんどんかかっていくから、一瞬で1万円とか超えそうですね。
そうね、まだまだ最初の一歩みたいなところだからこれからじゃないかな。
結局GPTモデルのAPIとかもモデルが変わるごとにどんどんどんどんAPI料金安いのが出てきてるじゃん。
そうっすね。
だからそういう感じでこれからだとは思うけど。
今が一番高いと思ってたいですね。
そうね、今が一番高いんじゃないかなさすがにね。
一瞬で試してたら破産しそうな金額ですね、確かに。
はい、それではエンディングでございます。
動画生成AI、やっぱ熱いっすよね。
そうね、今来てるね、かなりね、いろんなところが。
何度もお伝えしてる通りクリエイターこそ使うべきツールだと、動画生成AIを作ってる人もそう言ってるぐらいなんで。
ポジショントークっていうことももちろんありますけど、やっぱね使ってた方がより幅広い表現ができたりとか、シンプルに業務効率できたりとかなっていくと思うし、
もっとねガンガン使ったらいいんじゃないかなって個人的には思いますよね。
あとそれこそさ、今朝かな、昨日のXの投稿でさ、ノートのふかつさんが投稿しててさ、確かになと思ったんだけど、
なんか美大科なんかでさ、講義したときにポジティブ派の人もネガティブ派の人も絶対使わないとダメだよってこと言ってて、
使ってみないとネガティブ派の人もこの生成AIたちとどう戦っていいかわかんないでしょっていう話をしてて。
そうですね。
ポジティブ派の人も当然活用するために知った方がいいし、だからポジティブだろうとネガティブだろうと結局は使わないことには始まらないから絶対まず使うところからスタートした方がいいみたいなことを
なんか喋りましたみたいなことを投稿されててさ、だから今回でも続くところがあってまさしくだなっていうのは思う。
まあおっしゃる通りって感じですよね、確かに。そもそも使ってもないのに批判してる視点で終わってんなって感じはしますけどね。
そうなんだよね、まず使ってみて、使ってみた結果何がダメだったのか、で自分だったらどう勝てるのかっていうやっぱね、発想がやっぱ大事だもんね。
あと大体そういう批判する人ってすごい短期的な視点が多いなと思ってて、今この性能で使えないからダメだみたいな、これがどう進化していってこうなるからこうなるだろうっていうところまで見た上で批判するならちゃんと批判した方がいいなと思いますよね。
し、その著作家の云々に関してはもちろんその批判するべき点もねたくさんあると思うんですけど、何でしょうね、そこって批判したとこで恋をあげることはね大事ですけど、個人の範疇で変えられる変数ではないと思うんですよね。
だからそれはそれ、で自分の仕事とどう生かすかっていうのはまた別の問題として分けて考えるべきだなって思う意見もたくさん見るなと思っているので。
まあだからいろんな意見が出ることでこう進化していくものだから全然僕は全部いいと思うんですけど、まあ最低限まず使おうねっていうのは何かもう当たり前すぎて発想出てこなかったです。
だから深井さんがそのレイヤーで話すっていうのはやっぱ大事だなと思いましたね。
当たり前のことを当たり前として言わないっていうのは良くないなってちょっと思いましたね、それ聞いて。
なんかよくさ、これはもうXでチラッと見たことなんだけど、TikTokの動画編集を1本5000円とか7000円とかでやってますと、で10本分でだいたい5万円とか人によって10万円とかそれぐらいの編集単価で受けてるんですよねって話をしたらめっちゃ高いですねって言われたとクライアントにね。
そしたらいやいやいやみたいな、その人が10本で5万7万10万っていうのはこういう打ち上げなんだよみたいな請求書作ったりとか発注書作ったりとか、ロケ販したりとか、もういろんな工数がかかってるんだと、大人の仕事をなめるなという投稿をしてる人がいて、その工数って別に費用に換算されなくてもいいとこっていっぱい出てきますよね。
それはあなたが努力をしていない理由にもなっちゃうと。あとはニーズのミスマッチっていうのもありますけどね。そこまでの高クオリティを求めてないと。もっと簡単に手軽にサクッとやってほしいっていうニーズと合ってないっていう可能性もありますけど、自分の作業工数がこんだけかかってるからこれぐらいの費用が欲しいですっていうのは、おもちゃが欲しいですって言ってるのとあんま変わらないですよね。
だからそこの部分も含めて今後AIって絶対仕事に影響してくるので、そういった意味でもやっぱり使ったほうがいいですよねっていう感じですね。口すっぱくして言いますけど本当にずっと。
なので今後APIが連携するってなったら結局知らず知らずのうちにAIを別のアプリキーで使うことになるっていうこともあるだろうから、あんまり反AIみたいな感じで絶対使わないみたいな決め込むよりかはもっとカジュアルにナチュラルに体験してみたほうがいいんじゃないのかなっていうふうには思うかなっていうところですかね。
そうですね。APIが公開されて金額が落ちてきたらより浸透していくでしょうねというお話でしたね。
クリエイターの挑戦
それでは最後に告知です。AI未来話の公式Xが始まりました。Xでは最新ニュースやお便りの紹介、リスナーの皆様との交流の場にできたらと考えていますので、ぜひフォローのほどお願いいたします。
またお聞きのPodcastアプリでAI未来話の番組フォローとレビューもお待ちしています。フォローすることで最新話が更新され、通知が来ます。この番組はランキングに入る可能性が上がります。お互いウィンウィンなのでぜひフォローのほどお願いいたします。
フォローのほどっていう変なイントネーション。
確かに。
来週も木曜朝7時に更新されます。通勤通学のともに聞いてくれると嬉しいです。ということで本日もありがとうございました。
ありがとうございました。
27:33

コメント

スクロール