デザインのAIイノベーションの裏側にある進化は何か?それは実はバーティカルSaaS, AIの生き残り方のヒントがあるという話しをしたよ!
Level 1:
マルチモーダルLMの破壊力 Comprehension →Generation
Level 2: Search型
2-1. AskUserQuestionの向上: センス"何か違うんだよね"のイノベーション
2-2. LLM wiki, 戦略的障壁をどうやってセンス向上の中に埋め込むか?
Level3: Discover型
Canva は逃げ切れるのかネットワーク外部性とエコシステム
Level Base: 無視できないGPU周辺環境進化
Blackwell, Verarubinで何のゲームチェンジが起きるのか?
Claude Design, Canva AI2.0, Chat GPT Image 2, Adobe Experience Platform とここ2週間で、デザイン周りのAIイノベーションについて裏側を いけともさんと尾原でワイワイしたよ!
感想
まだ感想はありません。最初の1件を書きましょう!
サマリー
本エピソードでは、Claude Design、Adobe、Canvaなどのデザイン系AIツールの進化とその背景にある戦略について深掘りします。特に、AIがユーザーの意図を正確に理解し、個々のニーズに合わせたデザインを提案する「サーチ型」アプローチの進化が注目されています。また、GPUの進化やコンテキストグラフ、LLM Wikiといった新しい概念が、AIによるデザイン生成の質を飛躍的に向上させていることが語られます。さらに、Canvaのような「ディスカバリー型」アプローチや、バーティカルAIの重要性についても触れられています。
デザインAIツールの現状とClaude Designの進化
こんにちは、池智です。
尾原です。池智尾原のディープなAIニュース。今日のテーマは?
クロードデザインやCanva、Adobe、GPTイメージといったデザインアウトプット系が厚いというテーマで、
ちょっとこの辺りの状況をミックスしながら話していくのはどうでしょう?
いや、めちゃめちゃいいですね。ちょうど私自身も今、ラスベガスにいて、
AdobeさんのUXマーケティング系のサミットが、ちょうど今日、Day2のキーノート終わったところなので、
その話も僕からもできると思うんですけど、とはいえ、この辺のやっぱり唇が一番話題になったのは、やっぱりクロードデザインなんで、この辺どうですか?池智さん。
そうですね。私も早速動画出させていただいたんですけれども、非常に体験良いですね、クローデザイン。
やっぱり今ってAIを使ってクリエイティブを作っていくってことが、全社共通の概念かなと思うんですが、
そこに向けて他のツールもそうなんですけど、いわゆるデザインシステムであったりとか、デザインをちゃんとAIが再現したりとか、ルールができるような、
そこから入っていき、各社のトーンマナーとかですね、ブランドカラーとかロゴとか、そういうのを使える前提で仕組み作った上でアウトプットを作っていくというところの体験も良かったですし、
できるアウトプットのクオリティも高いですし、あとやっぱりデザインとかって、デザイナーさん以外はちょっと我々って解像度が低めというか、
アイデアがあっても、それを表現するときにどういう論点をどうやって言語化するかって難しいかなと思うんですが、それをかなりちゃんと細く聞いてくれて、
選択をしたりとか提案を選んでいくと、自分のイメージであったり、この方向に行けばいいのか導いてくれるという体験があるので、まずクローデザインはそれが良かったですね。
マルチモーダルAIの理解と生成能力の向上
そうですよね。
もう実際に、どっちかというとプレゼン資料だったりとかに使ったりとかしてるんですけれども、やっぱりおっしゃるようにデザインが良くなったというよりかは、その人にフィットするデザインをいかに探り当てるかっていうところがAIがうまくなったっていう側面もあるのかなと思っていて、
もちろん大前提として、今回のChatGPTのImage2だったりとか、その手前のナノバナナだったりとか、やっぱりAIがマルチモーダルと呼ばれるテキスト以外の画像だったりとか音声だったりとか、そういったものをネイティブで学習したことによって、生成というジェネレートの前にコンプリヘンションの革命が先に起こるんですよね。
生成できるっていうのは、AIが理解したり、AIが言語化ができると、その言語化に基づいて生成ができるっていう話なので、そういう意味で、やっぱりGeminiの3.0だったりとか以降、画像に対する理解力、特にWebとかのUXに対する理解力っていうようなベンチマークテストがあるんですけど、
あの辺が跳ね上がったっていうのが第一弾としてあって、その上に今おっしゃったように、結局デザインって何がいいかっていうのは、自分が言語化できてないので、あなたにフィットするデザインは何かっていうことを当てにいくっていうところが今進化が起こってる2段階目みたいな感じなイメージですね、僕からすると。
すごい解像度が上がりましたよね、質問も。前までのクロード自体も、いろんなチャットの相談でわかんないことがあるか確認するっていうのは、結構精度が上がっていたんですが、本当にデザインを作るにあたって、なんかそのキーメッセージから細かい調整であったり、あとなんかその作り終わった後に微調整をしたい部分ってあるじゃないですか、文字の大きさとか、ヘッダーを入れるかどうかであったりとか、グラフをその表現形式を丸にするのかバーにするのかみたいな部分は、
これも事前に聞いてくれて、作った後にワンクリックで変換できるみたいな。
あれもUFOsも含めていいですよね。
サーチ型とディスカバリー型AIアプローチ
うん。Tweaksっていう可愛らしい名前で機能があるわけなんですけど、ああいうのも素晴らしいなと思いましたし、あとやっぱあれですよね、企業とかしっかり使おうと思うと、やっぱりトーンマナーとかカラーとか、そういう全体定義をした上でその上に乗っけていくっていうのが、多分大手企業のちゃんとしたブランドデザインであったりとか、
もともとやってるかなと思うんですけど、あれを誰でもできるようになったっていうのは結構でかいなと思うんですけど、この辺でAdobeであったりとかCanvaなんかも多分同じ方向性を見てますよね。
そうですね。だから基本的にはデザインという、実は言語化できないんだけど、見れば判断できるっていうものに対して、これも前に話をしたAIって結局人の情報の探し方だから、
サーチ型とディスカバリー型がありますよねっていう話をしたんですけど、どっちかっていうとAdobeとかクロードはこのサーチ型を目指していて、Canvaさんはどっちかっていうとディスカバー型っぽい匂いがするっていうのが僕の見た当てで。
結局サーチ型って何かっていうと、サーチっていうとみんな検索ワード思いつくんですけど、元リクルート屋からすると、お客様にあなたは何の選択軸で選ぼうとされてるんですかという選択軸をこちらから候補を提案して、
そうそう、私実はその軸で選択したかったよねっていう選択軸の早期とか言語化っていうものをやってあげるっていうのが実はサーチの本界なんですよね。
確かに。SUMOとかね、ちゃんと探したい家の軸で選択肢があって、その言語化できてなくても得られますもんね、ボタンを押すだけで。
やっぱりペットと住む家だったりとか、あとわかりやすい話だと、アルバイトとか賄いがあるかとか、ユニフォームが綺麗かわいいとか、そういうのが実は選択軸だったりしますよねみたいなところが、
池智さんがさっきおっしゃったように、デザインにおいて何の選択肢を聞いてあげるといいデザインに対してずれなくなるっていうところの、これASK USER QUESTIONっていう機能が、
クロードのいくつのバージョンか、前々回ぐらいでしたっけ?から入った。あれがやっぱデザインに特化した形で、何を聞けば筋のいいデザインに仕上げることができるのかっていう質問能力がえぐく上がりましたよね。
Claude Designのプロダクト戦略とAdobeのブランドインテリジェンス
めちゃくちゃ上がりましたね。積み上げてきたというか、本当にいろいろ回してユーザーの会話を経て、ものすごいパターン化して理解というか、少なくとも提案できるところまでは相当いったんだなって感じを1回使うと感じますよね。
だから多分そのASK USER QUESTIONという何のデザインに関して質問をすると、何かイメージ違うんだよねっていうわけわかんないおじさんじゃなくて、そうそう言ってもらうと、そこの部分をすっきりさせたいんだよねとか、メッセージは強調するけれども、脇にある説明文はアペンディクスに回してほしいんだよねみたいな。
そういったところの徹底的な言語化みたいなところを相当エキスパート入れてやられたんじゃないかなっていうのがイメージとして。だってあれなんですよね。知らなかったんですけど、今回クロードデザインをやってるトップの方って、こういうデザインツールではもうアドビが買収したくてしょうがないけれどもできなかった。Figmaの社会取締役をやってた人なんですよ。
そういう体制で、この方がもともとCPUとして入社されて、プロダクト全体を見ていたんですけど、アンソロピックってラボっていうチームがあって、ただモデルを作ったりベースを作るだけではなく、より実践的な業務別のツールを作っていこうと。最初の成功がクロードコードですよね。クロードコワークになり、そういうものも本当に受け入れられているし、起爆剤になってるんで、そっちのトップにその方が変わられたらしいんですよね。
なので、結構本腰を入れて、本格的な業務ツールというか、クロードチャットとかコードみたいなベースだけではないところを攻めようという体制に変わられたりする。完全に小原さんの調べ方を真似て、最近は誰が責任者かを毎回調べるっていう。
めっちゃ大事です、めっちゃ。
出た瞬間にフィグマ取締役を辞めました。
エグいですね。
だから、もちろん情報を盗んだわけじゃないんだけれども、ある種フィグマの社外取締役に選ばれるぐらいデザインということに対して、エキスパートの方がクロードのチーフプロダクトオフィサーをやられてたので、
いいデザインを作るための選択軸とは何かみたいなところへの洗い出しだったりとか、そこをどう学習するかみたいな評価モデルの作り方みたいなところが、たぶんすごいんだろうなって思って。
だから今回面白いのが、アドビスさんがめっちゃ地味な話から最初入るんですけど。
気になりますね。
今回、動画作成における映画って、例えばこの映画だったら、北野たけしだったら北野ブルーって呼ばれる青色が、青色の配置だけ見ると北野さんの映画だとか。
あと新海誠さんの空とかを見ると、あ、新海誠さんの空だ、みたいに独特のカラーリングってあるじゃないですか。
あれをAdobeが徹底的に学習をして、それがもう簡単にAIでできますよっていうツールとかを出したんですけど。
やっぱりこれもすごいのが、そういうのをポストプロダクションって言って、ある程度生の映像ができた後に最後その監督らしさを作るとか。
ちょっと人を泣かせる映画だったらこういうトーンの色合いにした方がいいよねっていうポストプロダクションの伝説的な人をやっぱりAdobeが引き抜いてきて。
その人がやっぱりカラーリングに対してのパターン学習みたいなことを徹底的にやるし、あともう一個はUXですよね。
誰でも簡単にそれが調整できるようなUXにデザインしていくみたいなところがあって。
そこら辺が話戻すと、サーチ型っていう、実はAIが賢いんじゃなくて、人間がそもそも自分のセンスというのを言語化できてないから、こっちAIが言語化してあげることによってズレをなくしていくっていうところのタイプっていうのが一個変革点なのかなっていうのがでかいんだと個人的には思いますね。
それAdobeさんはポストプロダクションを、特典北野ブルーとかだけじゃなくて、ある作品を勝手に分析してくれて、ポストプロダクション向けに共通点を抜き出し、可視化する、言語化していくみたいなことをするっていう機能になるんですかね。
そうですそうです。
なるほど。
それが今回のAdobeの目玉っていう話になると、今回のAdobeの目玉はブランドインテリジェンスっていうのを立ち上げてですね。
ほうほうほう。
いわゆる池友さんらしさって何?池友さん言語化できてますかっていう話だったりとか、なぜか同じような機能を提供してるのに、池友さんを選んでくださるお客様は何を持って池友さんを選んでくださってるかって、これも言語化できてるよってできてないじゃない。
これをAdobeはデシジョントレースって言って、結局Adobeって今やワークフローの中に組み込まれていくので、自分たちが作ったランディングページとかバナーとかを上司だったり周りの人がレビューするわけじゃないですか。
そのレビューで残ってる意見から、コカ・コーラってこういうことをコカ・コーラって言ってるんですよねとか、こういうことしたらコカ・コーラじゃなくなるんですよねっていうブランドルールを勝手にAIが学習していって、そうすると自律的にコカ・コーラらしいものがどんどんどんどん作れるようになるっていうものを作ったっていうのが今回ブランドインテリジェンス。
ブランドインテリジェンスとかAIがブランド価値を学習、自律的に管理を行うと。
なるほど、こういうことなんですね。
しかもコカ・コーラも結局コカ・コーラらしさが一回定義できると、じゃあブラジルでコカ・コーラを提供するときはここは守ってここはずらすとかあるわけじゃないですか。
そういうことがデザインを作ったり、実際それを広告とかオーガニックで出稿したときにABテスト的にどんなユーザーがどこで離脱したのかとか、そういうのを見ながら自分たちの本当に選んでくださりたいユーザーさんが選んでくれる理由みたいなところとか、
途中にいる人たちが違和感を感じてコメントを残したところみたいなところを勝手にルール化して、そのルールに基づいて次からどんどん新しいものを作っていくっていうところに舵を切ったっていうのが今回のAdobeのすごいところですね。
コンテキストグラフとLLM Wikiによる意思決定支援
なるほどっすね。ってことはあれですよね、そういったチェックとか判断ってちょっと前まではそこが人間の残り部分というか、ディレクターとして最終チェックをしてAIがいろんなアイディアとか可能性を出すんだけれども、チョイスして妥当かどうか判断するっていうところが残っていたところかなと思ったんですけど、そっちもどんどん侵食度が上がってるわけですね、もう既に。
だから、いわゆる上司に持ってくると、なんか違うんだよね。持ってきてって言って、変えていくと、うーんこっちのほうがなんかいいんだよねとか言われるみたいな、言語化ができないままセンスで苦しんでたところがあるじゃないですか。
それをある種苦労度とかは、Ask You the Questionという形で質問に明確にする。一方で、Adobeはブランドらしさみたいなものを途中で意思決定をしたものだったりとか、キャンペーンをやったときのABテストの結果だったりから、どんどんどんどんルール化していくみたいなことをやっていくことによって結果的にセンスが上がっていくっていう話なんですよね。
なるほどね。ちょうど先週のニュースで、ビジネスインサイダーかな、なんかの記事があったんですけど、これからコンテキストグラフっていうのがすごい厚いで。
これまでのSaaSは行動の結果はわかったけれども、なんでその行動を取ったかって履歴は分散しててまとまっていないと。
セールスフォースには結果はあるが、その内容はスラックで話されていたり、口頭だったりメールだったりして、なんでこの提案を受けたのか、値下げしたのかとか、なかなか残っていないケースが多かったものをちゃんと履歴で残すことにより、これが学習データなので、その会社らしい判断というか、そういうことを大額のルールだけではなく、細かいイレギュラーケースにおいても適用できるようになっていくので、このデータがすごい価値になっていくよねと。
まさにアドミさんなんかそういうのをブランドでもやっていくって言ってるわけですよね。
そうですね。まさに今日ラウンチしたんですよ。配信でいうと昨日ラウンチしたんですよ。それを。
だから結局おっしゃるようにコンテキストグラフって何かっていうと、結局人間の意思決定って文脈によるじゃないですか。さっき言ったように基本的に譲れないルールとして、コカ・コーラはこうあるべきっていうのがあるけれども、ブラジルにおいてはここまでは許容できるよねみたいな話だったりとか、その前提条件によって意思決定って揺らぐわけですよね。
じゃあその前提条件って何によって決まるのっていうと、その場所だったり提供するお客様だったり、その意思決定があるときのつながり、文脈のつながりによって意思決定が決まるから、じゃあ何の文脈のつながりによって意思決定が変わっていくのかっていうところをグラフにしていきましょうっていうのがコンテキストグラフで。
ある種、今までってラグっていう形で、検索したデータベースから何か検索したもののチャンクだけ拾ってやってたわけですけど、もう今やコンテキストのウィンドウが20万トークンとか100万トークン、だから20万トークンでいうと新書で2、3冊分だし、100万トークンになると新書でもう10冊分とかになってくるわけじゃないですか。
そうすると、ある程度抽象化したコンテキストグラフみたいなものを全部突っ込んで、その中でコンテキストを読み解いてもらったほうが正確な判断ができる。
だから最近は、嘘をつかないっていうファクトグラウンディングよりも、文脈を間違わない、文脈さえあってれば多少ハルシネーションしてもむしろクリエイティブになるよねっていうコンテキストグラウンディングが大事みたいな言い方をしてたりするんです。
面白い。例えると法律と判例みたいなのがあって、法律って大枠のガイドラインっていうのはこれまでみんな作っていて、ある程度プロモーションとか頑張っていたと。
でも実際にいろんな個別の判例って違うわけなんですけど、これをちゃんとデータ化していき、ある程度大枠のカテゴリーで判例さえあれば、結構レベルが高い意思決定もできちゃうよね。
そんなふうにもなりつつあると思うんですよね、状況としては。
おっしゃるとおりです。だから日本は裁判って判例主義なんですけれども、法律ってミニマムな最低限のことしか書いてないので、判例っていうのは、「いや、そういうシチュエーションのときはさすがに無罪でしょ。」とか、「そういう事情だったらそれは上場借料できないから有罪だよね。」っていう、まさに判例ってコンテキストグラフの塊なんですよね。
それが今まではどんなコンテキストで有罪です、みたいなリンク集みたいな形に判例はできなかったことが、LLMは非構造化データに強いので、
ちょうど先々週ですけど、Viveコーディングの提唱者で、オープンAIの共同設立者のアンドレ・カルパシーさんが、LLM Wikiっていう言い方をして、あらゆる知識をリンク構造と簡潔に書かれたWikiに転換してあげると、実はそういう文脈判断みたいなのがエグいぐらいに上がるよっていうので、
たしか、いきなり50万ビューぐらいGitがいって、スターも2,000ぐらい、2日ぐらいでいって、今夢中になってるトレンドみたいな話があって。
先週でしたっけ?結構早いですよね。
この辺のコンテンツグラフだったり、LLM Wikiだったりみたいな、結局人間が言語化できていない、こういう状況はこういう時に判断するよねっていうことを、いかに可視化してあげるかだし、それを先回りしてユーザーに質問をしてあげるっていうことだったりっていうのが、サーチ型の特徴って話になりますね。
業界特化AIとCanvaのネットワーク効果
なるほどね。しかもあれですよね、業界特化のコンテクストとか個別の判例データ自体も、今オープンエイとかアンスロピックって外部の専門家にとって時給150ドルぐらいで猛烈に作ってるじゃないですか。専門家を使って。
社内でやってる会社はその会社独自のそういう判例集ができるわけですし、業界特化ぐらいであれば、でかい領域はAIベンチャーが勝手にお金かけていろんな人雇って、バンバン作ってるって言ってもそういう状況になっちゃってますよね。冷静に考えると。
逆に言うと、今回のアドビのブランドインテリジェンスの素晴らしいところは、そもそもマーケティングってコミュニケーションの中でダメ出しするよねとか、そもそもマーケティングってABテストでランディングページ作ったら、どっちがどういうユーザーの方がどこで離脱したのかみたいなフィードバックデータが業務のワークフローの中に埋め込まれているので、
ある種、アドビさんってこの1年ぐらいワークフローをしっかり自動化してあげますっていう形で入り込んでいたので、いやだったらそのログをそのまんまセンスがずれないためのウィキみたいな形に昇格していこうみたいなところまで上がってきたっていう、
結局、どこまで最初から考えてたのか、途中から気づいてやればいいじゃんってなったのかわかんないんだけれども、非常に面白い動きになっているっていうのがやっぱりクロードにしてもアドビにしても共通の戦略的な動きかなっていうね。
確かに。マーケなんかもよく最近はクロードコードとかで、1人マーケチームで10人分働きますとかっていうのはほぼ数ヶ月間ありますけど、余計加速したいもんですね、そこまでできちゃうと。
いやそうなんですよ。だから結局、ある種失敗を許せる企業の方がAIエージェントに任すと、10倍失敗できる、100倍失敗できる、1時間単位で失敗できるわけじゃないですか。
そうするとやっぱり失敗からの学習価値がAIによって跳ね上がっていってるので、意図的なリスクをコントロールした失敗をすることによって結果的に自分のブランドが何なのかとか、自分のお客様が何をセンスといいと思ってくださるのか、みたいな言語化が先に進むとどんどんエクセレントになっていくっていう状況に多分なってくるんじゃないかなっていうところですよね。
いやーめちゃくちゃ面白い。
だから多分これがデザインがわかりやすい事例で、今までみんな言語化できてなかったから、フィットしたときに気持ちいいからみんなシェアしちゃうわけじゃないですか。
だからこの分野が、今脚光浴びてるけど池智さんが言うように、実は地味な今おっしゃったような犯例だったりとか、場合によっては日常の食事用の食材を提供してあげるっていうことだったりとか、そういったバーティカル領域でいかにセンスというもので片付けてたものを言語化していくっていうループを作ってあげるかみたいなところが重要になってくるんじゃないかな。
なるほどね。ちょっと話があるんですけど、GPTイメージ2が今日日本で発売されまして、サムネイルとか資料とかってナノバナナ2ツールがあったんで、もちろん全部GPTイメージ2版も作って、同じように比較って何十種類かやってみたんですけど。
どうですかどうですか。
めちゃくちゃ上がってんすよ。
上がってんだ。
なんか全く同じプロンプトンなんですけど、明らかにGPTイメージ2の方が映えるっていうか魅力的なんですよ。
それはナノバナナちゃんよりも映えるってことですか。
圧倒的に映えるんですよ。
欠点はあって、作れるサイズが3パターンしかなくて、正方形と3対2しかないんで、資料とかサムネイルって16対9なんですよ。
まあそうですよね。
これがないんで、ちょっと上と下切んなくちゃいけないとか、こういう面倒なことは若干あるんですが、サムネイルなんかって露骨に違いまして、ちょっと前までナノバナナ2でいいサムネできてるなと思ったんですけど、同じやつでGPTイメージ2で比較したら、なんか全然違った魅力が。
何かこうナノバナ2の平坦さみたいな。
もう1つあれかもしれないですね。
逆に画角を固定することによって、配置のセンスの良さみたいなものが学習しやすくなるじゃないですか。
はいはい。
確かに。
あとなんか露骨に超えてまして、日本語能力も正直圧倒的に高いんですよ、GPTイメージ2の方が。
GPU進化とAI学習環境の安定化
ナノバナ2の時には文字数が何百文字かいくと文字化け率が何パーかあったんですよね。
そうですよね。上がりますよね。あとフォントサイズ11ポイント以下にして文字数上がると高確率で文字化けしますよね。
これがほぼなかったです。
へー。
その辺はね、オープンAI様が中のAIモデルのことをオープンにしてくださらないので、いろんなやり方あるんですよ。
ぶっちゃけな話、全部が全部マルチモータルなLLMで生成してるのか、それともある種文章とかの配置とかは、
ある種Pythonとかで作って、そこを後から加工してるのかとか、いわゆるスキルって、決定論的には決まったものはViveコーディングでプログラム作って動いて、
確率論的なものはAIで動かすみたいな区分けが非常に上手になったじゃないですか。
もしかしたら画像を描くっていう裏側も、そういうブレンドをしてる可能性もなくはないですしね。
安全なるマルチモータル力とかでもなく、ちょっと画像がめちゃくちゃ映えるような、固定先じゃないですけど、仕組み上の工夫もあるかも。確かにそうかもしれない。
僕だったら、僕がオープンAIの経営者だったら、そういうやり方でもいいから、とりあえずオープンAIいけてないって感じを払拭するために、
どうにかしろって、僕だったら言う。一方で、Googleにいた小原としては、そういう言い方されるとエンジニアって、
いや小原さんって結果が出ればいいっていうもんじゃないんですよね。美学ないですよね、小原さんには、とか言われたりするわけなんですけれども。
そこら辺が会社のポリシーによってですね。
そうしてるかもしれないですね。露骨にちょっと超えちゃったなって感じがするんで、もう一次元画像生成も上に上がりましたよね。
その辺が、ただ一回そうやって決定論的なアプローチとかでいい結果が出れば、それを学習データにして、
いずれAIが一発で出すみたいなところになるかもしれないし、さっき言ったように画角をまず決めてかっこいいを作って、
だんだんだんだんいろんなテンプレートに変えて、もうかっこいいっていう風に徐々に緩和していくかもしれないし、
これ全部小原の推定ですけどね。ただ割と今のオープンAIの体制って、そういう割と優越率をちゃんとつけて、ちゃんとやり切ろうぜっていう体制にちょっと変わったじゃない。
Canvaのディスカバリー型戦略とバーティカルAIの重要性
ちょっと気になっているのが、ちょうど小原さんが、半年じゃないと思うんですけど、ブラックウェルがそろそろ来るって言ってたじゃないですか。
ちょうどそのぐらいの。
それも別であると思います。
もちろん。
チップ側の性能が上がったやつで、2025年12月が知識カットオフなんですよ。GPTにして。
なるほどね。
ちょうどそのぐらいにやったんじゃないかなと思うんで、そこの学習能力とかマルチモモダル学習能力のチップレベルが上がったことも、ちょうど起用するタイミングなのかなと思ったので。
確かにそうですね。
ちょっとお伺いしようかなと思ったんですよね。そんなことあったのかよなと思って。
だから2つ話があって、ブラックウェルになって、そもそも学習の仕方のフローティングポイントっていうFPのコントロールとかが、
割とやりやすくなったので、言語ってものすごい多次元なんですけど、ある種、映像って、
離散空間じゃなくて、ごめんなさいね、ちょっと英語になってるからきれいな日本語が今しゃべれないんですけど、
学習が荒っぽく学習してもできるので、それでマルチモダル学習がものすごい早くなったので、
それの成果が出てるかもしれないっていうのが1個と、あともう1個ブラックウェルになって何がでかいかっていうと、
実は巨大モデルを作ろうとすると、実はGPUが途中で熱暴走したりとか、ノイズがたくさん知るようになって、
学習が途中でミス学習しちゃうみたいなことで、5億円の学習データがぶっ飛んだからステップバックしなきゃいけないみたいな話が、
やっぱりブラックウェルになって安定性が上がったし、これが次のベラルービンになると、
さらに誰でも学習環境っていうものが作りやすいようになってきているっていうこともあるので、
そういう観点で考えたときに、学習ミスが減ったのの果実がボコボコボコボコ出始めているっていう可能性はなくはないですね。
確かに。アウトプット側のクオリティの進化があまりにも激しいなと思う。
今、Adobeがあるじゃないですか。キャンバーなんかもちょうどキャンバーにいい感じですね。
キャンバーはアウトプット資料も含めて、ブランドデザインも意識していきながら、
AI に相談しつつ、マーケティングだったらいろんなサイズのことを作ってくれて、調整もできて、
文字とか画像分割もちゃんとするよみたいな形の調整もできるっていう方向性に進化をしてきてますし、
このあたりの進化も著しいですよね。
そうですね。あともう一個は、キャンバーはコミュニティを持っているので、いろんなテンプレートをユーザーがアップして、
そのテンプレートが使われるとユーザーに対してお金の還元があるみたいな形でやっているので、
ある種学習データをコミュニティの中から上げていくっていうネットワーク効果を作られているっていうところが非常に大きいので、
結局お金儲けしたい人たちって隙間を頑張って埋めていくじゃないですか。
そうすると勝手に網羅的なトレーニングデータが生成されていくし、
あとユーザーがやっぱりいろんなテンプレートが出たときに、
5つ候補を出されたときにどういうシチュエーションだとどっちを選んだのみたいなのって、
結局デザインの中に書かれたテキストで何のために、それは誕生日のために作ったんですか、
会社の意思決定のために使ったんですかっていうふうに、
テンプレートのユースケースが分かるじゃないですか。
そうすると学習がしやすくなるっていう。
こっちはどっちかっていうとさっき言ったディスカバー型ですよね。
たくさんのテンプレートがバッて出るから、
それをこっちとかこっちっていうふうに勝手にユーザーがテンプレートを上げてくださって、
勝手にユーザーさんが誕生日のアメリカのZ世代の方が誕生日カードはこっちを選びやすいみたいなところで、
勝手にアノテーションラベリングがされるので、勝手に緻密な学習ができる環境を作ってるっていうのがキャンバーの方向性で。
こういったところをバーティカルサースの方々が学んでいくっていうことが非常に重要だし、
さっき言ったようにモデルサイズを大きくしなければ、
別にブラックウェルだったり今後出てくるベラルービーンとかで、
やっぱりトレーニングがものすごいしやすくなってくるので、
今まではそういったハードウェアを構築するためのインフラを作る人だったりとか、
AIによる失敗からの学習とデザイン分野の進化
学習をしたときにミス学習したからステップバックするような特殊なエンジニアとかが必要だったのがいらなくなってくるので、
そういったものを含めてっていうところをやっていかなきゃって話ですね。
っていうので気づいたらいつも通りやっぱり35、36分喋っていてですね。
大原ラスペカスで今深夜の1時で、
明日Googleが朝の7時半からプレス限定で、
内緒のあるプロダクトに関しての新サービスのリリースをプレス限定で、
朝7時半に集まれっていうものがあってですね。
この辺は一応情報解禁日もちゃんと決められているので、
小原のポストを見ておくとですね、
情報解禁日に時間にバーンてその辺また書いていくので。
楽しみです。
行ってらっしゃいませ。
もう寝ないと。
ありがとうございました。
いえいえ、ありがとうございます。
今日はあれですね、最近凝ってることはだいぶ手前で話せたから、
OKということで。
いけどもさんから告知はないですか?大丈夫ですか?
大丈夫です。
ということで、また皆さん楽しんでいただければと思います。
失礼します。
また。
33:49
コメント
スクロール