1. Off Topic // オフトピック
  2. #164 AIの進化速すぎ!私たち..
2023-05-18 1:05:29

#164 AIの進化速すぎ!私たちがAI企業を創るために考えること

spotify apple_podcasts

◎今週のトピック

AIの急成長と起業 / AWSの誕生 / 企業のデータとの掛け合わせ / OSのレイヤー / ソフトウェアの機能全部把握できてない / セールスフォースのコード生成ツール? / Chroma / AI企業の作り方 / 鳥に学ぶ空の飛び方 / 小さい変化が大きな変化に / ひとつのモデルに偏りすぎない / AI事業のチーム / QAサービス「Quora」のAI / そもそも100人のチームって必要? / 起業の概念は変わるか / テキストから動画 / ナポレオンの会食ルール / 使い捨てアプリ / 二郎系(?) / ローカル環境でのAI / チェーン化 / 新規登録めんどくさい / サービスの世界観をオンボーディングで伝える / アプリをシンクロする


◎参照リンク

https://www.notion.so/offtopicjp/164-72cb1983193e471abd469735ac5d4723?pvs=4


<Off Topic // オフトピック 情報>

Podcast:

Apple - https://apple.co/2UZCQwz

Spotify - https://spoti.fi/2JakzKm


Twitter - https://twitter.com/OffTopicJP

Instagram - https://www.instagram.com/offtopicjp

note - https://note.com/offtopic


草野ミキ:

https://twitter.com/mikikusano

https://www.instagram.com/mikikusano


宮武テツロー:

https://twitter.com/tmiyatake1

00:06
みなさん、こんにちは。草野美希です。 宮武哲郎です。
Off Topicは、アメリカを中心に最新テクニスやスタートアップ、ビジネス情報を緩く深掘りしながらご紹介する番組です。
今回のトピックは、AI企業を創る上での考え方について話していきたいと思います。
はい、今回はAI、前回がセカンドブレインの話でしたよね。 そうですね。前回もAI関連の話。
うん、確かに。 今週も来週も再来週も。
今月1ヶ月は。 AIマンスになっちゃうんですかね。
先週はですね、セカンドブレインとか、セカンドブレインが可能になったのが、今のチップの技術と、あとAIの技術でセカンドブレインとか、あとAIシステムの話もちょっとしましたよね。
あと、コーパイロットっていう概念がすごい重要だったりして。
今日は、何社かAI企業の面白い事例を話しながら、AI企業を作る上でのいろんな考え方とか、考える要素とか。
特に今までのスタートアップの作り方とちょっと違いがあったりもするので、場合によっては新しい技術によって、そもそもアプリっていう概念を考え直さないといけないとか。
いろんな多分観点があるので、そこについて話していきたいなと思っているのと、
正直多分この回をもともとやりたかったのは、これはオフトビックの社内のミーティングで何回も草野さんと話してますけど、
AIの安全性の話とか、AGIのディスクとかについてずっと話したくて。
ただそれだけを話すっていうよりも、もうちょっと最初事業の作り方とかについて話してから、安全性の話をしようかなというところなので、
今日はもうちょっと事業の作り方に寄せて、来週とか再来週とかに関しては、もうちょっとリスクとかそっち系に話を寄せられたらなと思っていますと。
そもそもオープンAIが勝ち抜くんじゃないかとか、
そもそもオープンAIが今後何するのかっていうのが、まだそこまで特に日本だとディスカッションされてないなと思っているんですけど、
明らかにアメリカだとAI研究者だけではなくて、どのVCもどの企業家もどの大手経営者もこのAIの流れの話をしていて、
なので実際どういうリアルな話が起きているかとか、どういうディスカッションが起きているかっていうのも踏まえて今日のエピソードをやっていくんですけど、
03:05
たぶんまずスタート地点として、特に企業家、VCも多少なりそうなんですけど、特に企業家として何を作っていいかわかんないっていう人がめちゃくちゃ多くて。
今から起業しようとしている人がってことですか。
AIで解決されちゃうし、誰でも作れちゃうしみたいな。
しかもすごいスピードで成長してるじゃないですか。
今までって新しいテクノロジーが出て、次の新しいアップデートって何か数年後とかじゃないですか。
そうですよね、確かに。
今はもう終時、場合によってはもう明日全然違うっていうものが出てくるじゃないですか。
なんか濃厚度が出てきた時はすごいなって、もう誰でもプログラマーじゃなくてもできると思ったんですけど、それのレベルよりもこうやってすごい、なんか作ったけども数日でもう他の人作れちゃうみたいな感じになっちゃいますよね。
そうなんですよ、なんですごい、それこそアメリカの結構起業家とも話してる時にこの話が出て、なんか今作っても1年後にそもそも通用しないかもしれないとすると、何作っていいかわかんないっていう人がやっぱり多いので、
そこの中での考え方とかフレームワークとかを話せたらいいと思うんですけど、まず多分ここもちょこちょこ聞かれるんですけど、オープンAIがもう勝っちゃったんですかっていう。
どうなんですか。
実際リードはしてるので、LLMの中ですと、ただそもそもそのジェネラルなLLMなので、そこのいいところと悪いところがあるっていうのは1つあるのと、あとはこれって多分一番近しい事例がAWSが最初に出てきた時だと思っていて、当時は他の類似サービスって本当になかったんですよね。
GCPとかそういうの後で出てきてるわけなので、やっぱりすごい画期的なものでAWSって当時は。
AWSが出てきた当時ってみんな何を話し始めてたかというと、もうインフラがもうAWSありきで考えないといけないっていう話をしてたんですよ。
なのでスタート地点が何を作るかではなくて、AWSのインフラ上だと何ができるかっていう話だったんですけど、でも今見るとそうじゃないじゃないですか。
AWSは1個のインフラであって、でも何を作るかっていうのをまず考えて、それをやるためにAWS使ったり場合によっては違うサービス使ったりとかするわけなので、結局開発者が作りたかったものが幅広すぎて、AWSが全部に対応できなかったと。
06:05
おそらくなんですけど、オープンAIもLLMとかも同じようなことが起きるんじゃないかなと思っていて、そもそも全部に対応はできないので、だからこそ他のLLMとかも全然成立するかもしれないですし、場合によっては大きなシェアを持ち続けるかもしれないですけど、そこがまず完全に支配するっていう話はおそらく違いますと。
じゃあ、オープンAIがAWSで新しいGoogleクラウドとかAzureみたいなサービスも出てくる三大AI先生みたいなのがなる可能性もある、未来もあるかもしれないみたいな。
そうですね。あとはやっぱりクラウドと違うのはオープン操作のモデルがいっぱい出てくるので、それこそハギンフェイスっていう会社がそういうオープン操作のモデルを簡単に作れるようにしてるんですけど、もう10万以上出てるので、モデルが。
なので、結局会社側としてはスタートアップとか大手企業としては、ただジェネラルなLLMって使いたくなくなるんですよ、後々。結局自分の特定のユースケースに合ったものを使いたいので。
掛け合わせるみたいなイメージかと思ったじゃないですか。
まさにそうなんですよ。まさにそうで、ジェネラルなLLMと自社のモデルを掛け合わせるっていう。
ただ最終的に自社のデータを活用し続けると自社のモデルを作り出せるんですよね。なので結構ニッチなモデルっていうのがいっぱい出てくるのかなと思うのと、
多分ジェネラルなLLMって特定のユースケースがあって、ビングとかはすごいわかりやすくて、何でも答えられないといけないので。
検索がジェネラルですもんね、そもそも。
そうですね。でも例えばカスタマーサポートのBotとかって別に人生の意味合いみたいな質問されても答えなくていいじゃないですか。
人生の意味合いググってるんですか。
よくアメリカでそれググると、グーグルって特定の答え出してくれるじゃないですか。
すみません。
あれイースターエッグなんで、グーグルの場合だと。42って返ってきますけど。
カスタマーサポートだとさすがにそんな必要なかったりするっていうのがあるのと、あと思った以上にモデルを作るコストがやっぱりどんどん下がっている。
もちろんGPT-4を作るのには多分まだまだ時間とお金がかかるんですけど、GPT-3と類似するモデルですと、500系、いわゆる6,000、7,000万以下で作れる時代になってきていて。
09:02
あとこの周りのテクサックってどんどん発展しているので、どこまでオープンソースが追いつくかっていうのはあるんですけど、結構追いつき始めてますと。
なんかすごいサース系の企業がどんどん強くなりそうな気がしたんですけど、連携に連携をすると、それ関連の連携サービスみたいなのが需要上がりそうな気がしました。
ここはすごい議論するべきポイントで、どのレイヤーにサース企業が入るかによってすごい重要だと思うんですよ。
オープンAIの上、確かにどこに入ってくるんだろう。
それこそ前回話したLindyってAIアシスタントの話をしたじゃないですか。
そこがOSのレイヤーが、今までですと一番下にハードウェアがあって、その上にOSがあって、その上にアプリケーションレイヤーみたいなのがあったのが、
AIアシスタントってアプリケーションレイヤーの上に乗っかるOS。
そうすると、そこがメインのインターフェースになってしまうと、サース系のアプリケーションが結構弱いポジションに入るんじゃないかとか。
結構そこがAIアシスタントによってリプレイされたり勝手に。
ユーザーのタスクを成し遂げるために、これはセールスフォースよりもハブスポットのほうが実は良かったとか、じゃあそれに全部一瞬で乗り換えようとか。
そうするとサース側が弱くなってしまうので、サース側としてもどのレイヤーに入り込むかっていうのは多分すごい重要になってくる。
やっぱりあとはこのAIの発展によって、あと最近いろいろレイオフとかもあるので、新しい時代のAIスタートアップがどんどん出てきていますと。
もうすでにオープンAIマフィアもあるので。
もう退社した人が新しく作ってるんですね。
はい、いっぱいいますね。
すごい。
それこそアンスロピットとかももっとオープンAIですし。
パイロットとかコーバリアントとかいろんな会社がいる中で、何社かオープンAIマフィアだけの会社ではないですけど、ピックアップしたいのが一つがアデプトっていう会社で、ここは元オープンAIの人なんですけど、ちょっとリンディと似ていて、人間がコンピューターでやることをAIが同じようなことをできるっていうモデルを作りたいと。
いわゆる人間が使うソフトウェアとかツールを全部AIが再現できるようにしたい。
どこまで再現?どういう再現ってことですか?
なので、例えばですけど、誰かを採用したか、例えば営業。営業したい時にAIにLinkedInに行かせて、誰を営業するかをリストアップして、実際にその人たちをセールスフォースに入れて、CRMプラットフォームに入れて、そこでそういうタスクみたいなことですよね。
12:13
なるほど。
しかもアデプトに関しては、いろんな大手と連携してやっているので、場合によってはそこの独自契約みたいなもの、独占契約みたいなものを獲得できるかもしれないですし、あとはアデプトの面白いところって、実際ユーザーが1回AIに見せられるようにするんですよね。
こういうふうにタスクをやるんですよっていう。それでAIが真似するっていうところですね。
大手っていうのはセールスフォースとかそういうことですか?
ワークデーは確か公開してますね。でも本当にそういう系の大手。
業務の利用者、カスタマーが大企業っていう。
そうです。そこと連携してそこのソフトウェアを使えるようにするっていう。
なるほど。
結果多分Lindyとかと競合するのかなっていうところですね。AIアシスタント的なことで言うと。
なので例えばですけど、我々Podcastやってますけど、どこまでアデプトができるかは分からないですけど、
アデプトにこの収録を終わった瞬間、2人の音声をAdobe Premiereにアップして、バックグラウンドノイズを消して、
統合してチェックするポイントをメモってくださいみたいなことをお願いできたりするわけなんですよ。
お願いします。
まだアデプトが公開してないんで。
Lindyでもいいです。
ちょっとLindyで使いたいですよね。
あとは一般的な会社で言うと、自分が持っているCRMデータとかいろんなExcelデータとかをベースに事業計画をAIに作ってもらったりとか。
すごい。
そういう時代にどんどん来ているというところがあるのと、やっぱり結局ほとんどの、僕も草野さんも多分そうだと思うんですけど、各ソフトウェアのエキスパートユーザーじゃないじゃないですか。
例えばノーションとかもいろんなノーションのハックとかトリックってあるじゃないですか。
トリック。
こういうふうに使うべきなんですよとか、実はこういう機能があるんですよとか。
なるほど。
例えばGoogleとか、Google検索もあるじゃないですか。
該当しないようにするとか、最新版にするとか。
サイト内で検索するとか。
15:03
そういうのって我々分かんないんですけど、でもAIにそのドキュメンテーションを読ませると、全部それ分かってくれるので。
そうですよね、全然知らなかったことみたいな全部踏まえてやってくれるってわけですもんね。
はい。
すごい。
そういう意味だとすごい便利になって、いわゆる各ソフトウェアの本当に可能な力をどんどん発揮できるようになる。
なんか人間ってちょっとしか使ってないみたいな状態をソフトウェアで100パーの力でフルで活用するみたいな感じですよね。
確かにでもそんな感じですよね。
確かに確かに。
あとはやっぱりコード生成っていうところだとGitHubのCopilotとかもそうですけど、スタートアップでやってるのはReplitっていう会社ですね。
Replit多分もうユニコーン企業になっちゃったと思うんですけど、実は2019年にGPT-2の上で開発し始めていて。
搭載してるってことですか。
GPT-2を活用してコード生成をサービス内でやってた時期があって、2020年はGPT-3を使ってたんですけど、ただ当時はOpenAIってすごい厳しくて、
GPT-3を活用してアプリケーションを公開するのはすごい厳しい申請プロセスがあって、それを通らないといけなくて。
ただ同時にマイクロソフトはCopilot、GPT-3とかを使って運営し始めてたので、
なので結局ReplitはGPT-2をフォークして、いわゆるそれを活用して自社のモデルを作って、
同時に、これ僕知らなかったんですけど、セールスフォースがなぜかコード生成ツールを作った時期があって。
新規事業ですね。
多分わかんないですけど、セールスフォースを作るんだと思いながら。
それをさらに改善、自社内に改善して、それで自社のツールを作って、最近はGoogleと提携をしたんですけど、
でも直近の、例えばYコンビネーターのバッジとかでも、Replitを使ってコードを書いて実際にローンチする会社も出てきているので、
なので、Replitのゴーストライターっていうんですけど、そのAIを。
そのまんまですね。
そしてゴーストライター。
わかりやすい。
パソコンの中のファイルを読み込んで、それによってこういうコードにした方がいいんじゃないですかってお勧めを出してくれたりとか。
18:03
ユーザーがこれってどういうふうにするべきなんですかっていうのを聞く前から、
いろいろなんかこれは自動化できるんじゃないですかとかっていうのをいろいろ考えてくれる。
それが多分ちょっとGitHubのコーパイロットと違う部分だと思うんですけど。
なのでこういうコード生成技術っていうのがどんどん発展しているっていうところと、
あとは最近ですとやっぱりGPT-4とかの一つ面白いところって、
3.2万トークン。
いわゆるインプットできる言葉の数。
単語の数が単語ベースでいうと2.5万単語ぐらいですね。
英語での単語数でいうと。
あと記憶メモリーのキャパが6.5万単語ぐらい英語だとあるので、
結構な情報量インプット、いわゆるプロンプトとして入れられるので、
だからエッセイとかドキュメンテーションとか入れられるんですけど、
ただやっぱりまだ限られていますと。
じゃあここをどう解決するかっていうので何社かスタートアップが出てきていて、
そういうLLMとかに対して長期的な記憶を提供しましょうと。
それってデータの容量とかではなくて、スペックの問題ではないんですか?
スペックの問題1個あるのと、
あとはそれを常にその情報に戻ってくるかどうかっていうところだったり、
その情報がアップデートされているかどうかとか。
アップデートされてるか。新しいこと言ったらそこに上書きされてるかみたいな。
そうですそうです。
なので結果的にこのChromaっていうサービスとあとPineconeっていうサービスがあるんですけど、
いわゆるデータベース的なサービスで、
そこで会社とかがそこにデータをストレージできて、
そうするとそこの会社のデータをプライオリティーとして使ってそのLLMが回答してくれる。
そうするとより精度の高い回答をできたりとか、
その厳格を削減するっていうところにつながったりするのと、
そこのメモリーがどんどんアップデートされていくので、
それによってどんどんAIがいわゆるエージェントに、
エージェントっていう概念なんですけど、
何を過去やったかを覚えて、それをベースに違うことをやったりとか、
それをベースに違うタスクをやったりとか。
その差数抜け出せないですね。一回見てたら。
なんで実際に今収録している現在ですけど、
アメリカでも日本でも流行っているのがAutoGPTっていうサービスで、
21:02
今までですとプロンプトを与えて、
これをやってくださいって言って、それをそのままやりますというのがあるんですけど、
より複雑なタスクを与えられないんですよね。
今までのChatGPTとかって。
でもこのAutoGPTとかですと、何か複雑なタスクを与えると、
それをベースにそのAI内でタスクを作り出すんですね。
自分自らプロンプトを作り出すんですよ。
例えばですけど、旅行の今週どこかに行きたいんですけど、
そこの旅行計画を立ててくださいと。
お願いするとそのAIがタスクを作って、
旅行計画作るのであればスケジュールとか予算とか、
どこに行くかっていうのを全部決めないといけないですと。
それの別々のプロンプトを作って、
自らそれのタスクを成し遂げて、
それをそのタスクで学んだ情報を戻して、
じゃあこの情報ここに行くべきなのであれば、
じゃあ予算ってどういうふうに考えたらいいんでしたっけとか。
なので自動的にそのタスクを全部、
一つのタスクを全部やり遂げるっていうところなので、
よりAGI的なものに近づくものでもあるんですけど、
そういうのもこういうメモリーとかが、いわゆる記憶ですよね。
っていう概念ができると、どんどんそういうのも可能になってくると。
なるほど。
なので、新しいAI生成開発者向けのテックスタックがどんどん作られていると思っていて、
一つがLLMのプロバイダーみたいな、
それがオープンAIとかアンソロピックとかコーヒー屋とか、
そういうのが出てきていて、
その中でLLMのアプリケーションロジック、
いわゆるどういうユースケースがあるかっていうのを書き込む、
ランクチェーンとかいろいろサービスがあるんですけど、
最後にデータベース、記憶っていうところで、
ChromaとかPineconeっていうのが出てきているのかなっていうところがまずありますと。
この中でAI企業を作る上でのいろんな考え方。
それですよ。
ついにどう作れば。
一つ多分重要なのって、思った以上にそもそもこういうLLMとかを作るのって意外に簡単だったっていう。
意外とみんなできちゃうみたいな。
そうなんですよね。
多分これってやっぱり一つの考え方の話で、
24:02
例えばその空飛ぶ機械を人間が作りたかったですと、
それをじゃあどうやって空を飛ぶのかって、
最初に多分考えるときに最初に思い浮かぶのって鳥を見ましょうと。
鳥が飛ぶから。
そうです、まさにどうやって飛ぶっていうのを理解すると、
だったら自分たちもできるんですよ。
いわゆるそういう機械を作れるんじゃないかと。
実際に鳥の飛び方を真似したロボットっていうのができたんですよ。
これ2010年とか2011年に披露されたんですけど。
割と最近。
そうなんですよ。
割と最近で、しかもライト兄弟が飛行機作った100年以上後なんですよ。
結局重要なポイントは、空を飛ぶのは実はもっと簡単な手法があったんですよ。
飛行機とかそういう。
そうなんですよ。
飛行機と鳥の違いっていろいろあって、
一つは鳥っていわゆる生物なので、そこの限界がありましたと。
いわゆる羽が何でできてるかとか。
ライト兄弟って例えば銅とか鉄とかいろんなものを使えるわけじゃないですか。
あとやっぱ効率性ですよね。
やっぱりその生き物なので、効率悪ければ死ぬので。
生きて、生きる上で飛んでますもんね。
そうですよね。
生存が。
そうなんですよ。
そうなんですよ。なんで実際に燃料っていうとなんか変ですけど、燃料の効率性でいうと鳥の方が効率いいんですよ。その飛行機よりも大体。
例えばラジコンの飛行機とかと比べると同じ距離でも移動してもやっぱり圧倒的に2倍ぐらい鳥の方が使う燃料とかエネルギーが少ないんですけど。
でも人間ってそれっていろんな意味で解決できるので、お金いわゆる燃料を入れられる。
お金で解決できる。
お金で解決できるところなので、やっぱりより簡単に実は物って作れたりして。
そのLLMも多分そのAIも同じことが起きてて、昔からやっぱりずっと言われてたのは未だに言われますけど、脳を理解しないといけないですと。脳を理解するとそのAIの考え方とかそういうのを作れるんじゃないかと。
はい。
でもLLMって全然違くて、トランスフォーマーというネットワークにインターネットのデータとコンピューティングパワーを渡すと、もちろん人間と同じかって言うと多分違いますけど、でもかなり似たような回答を出してくれたりするわけなんですよね。
27:14
はい。
なので、ここの物の作り方の考え方はすごいそこは考えないといけない。
どう考えたらいいんですか。
そもそもその人間と比較するっていうのも多分間違ってたり。
それを作る上でのどういうパーツが必要なのかとか、あとよくこのAIに関してそのLLMの発展に関してありがちなのが、もっとパラメータを増やさないといけないんじゃないかと。
今オープンAIって何億パラメータみたいなことを言われてますけど、いわゆるコンピューティングパワーみたいなものなんですけど、
サム・アルトマンさん自身も実際にそのGPT-3とかGPT-3.5からGPT-4に進化した一番の理由ってデータ量とかコンピューティングパワーの量ではないっていうのを言ってて。
実は微調整にあったって言ってて。
システムの理解がまだ全然ないので。
微調整で結構変わりそうですもんね。
そうなんですよ。でも微調整で本当に変わるんですよね。
うん、そうですよね。バタフライエフェクトみたいなことが起きますよね、絶対。
そうなんですよ。本当にそうで。なのでサム・アルトマンさんもチップセンサーって1990年代から2000年代ありましたけど、
何GHzのコンピューティングスピードを持っているかっていうのを会社がいろいろ競い合った時代があったんですけど、
それと同じで、それって実はあまり意味がなくて。パフォーマンスに関しては。
なので、もっとそこの小さいところとかの部分を気にしないといけないですと。
それによって本当に小さい変更をするだけでパフォーマンスが10倍になったりとか、ある意味怖いんですけどね。
でもある意味、意外と簡単にAI企業を作れるけど、もっと東大元暮らしというか、他にデータ技術的にアップグレードするよりももっと見とくべきものって意外と手元にあったりみたいな感じなんですね。
まさにそうで。なので、GPT-4とかまさにそうだったので、残念ながらそこはブラックボックスなので何をやったかっていうのは明らかにしてないですけど、そこの多分、まず微調整をするっていう考え方がまず重要ですと。
30:06
で、もう一つはそのAI企業、スタートアップ側としてそのGPT-4とかを使うのってよく課題として出るのは高いですと。
値段が。
値段が高いですと。
来るんでしたっけ。
ここは実はだいぶ下がっているんですけど、1000トークンぐらいで、GPT多分3.5の場合だと0.2千と。
0.2円ぐらい。1トークンが4文字、英語だと4文字なので4千文字。
生成する量に比例してるんですね。
はい。
それは。
なんで結構高くなるんですよ。
使い放題ではないんですね。
使い放題ではないんですよね。
そういうプラン欲しいな。
そうなってしまうと多分オープン映画だいぶ苦しいと思うんで。
なので、これもやっぱりアメリカの記憶化の中でもいろいろ課題になってくるんですけど、基本的にもちろん調達できるかっていう課題は出てくるんですけど、
基本的にはGPT-4使わない理由はないっていうところで。
まずMUAの法則によってどんどん安くなるので、
実際に過去1年ぐらいで20分の1ぐらいの価格になってるんですよ。
そうですよね。価格破壊はテクノロジーで一般に。
そうですよね。もう鉄板ですよね。
なので、去年の8月とかは1000トークンごとで6セントぐらいだったんですよね。
なので6円ぐらいですね。
それが去年の多分2月、3月頃かな。
去年の8月にそれが2セント。なので3分の1に落ちて。
最近数ヶ月前に変わったのが0.2セントに変わって。
GPT-4がそれよりちょっと高いんですけど、でも大体20分の1ぐらいの価格帯で。
もちろん高いのは高いんですけど、どんどん安くなるというところもあるのと。
あと、そもそもGPT-4を使うっていうところは、
個人的にすごい懸念するポイントであるかなと思っていて。
もちろん今GPT-4がリードしてるので、そこを使うのはいいと思うんですけど、
一つのモデルに偏りすぎないインフラを作るのが重要だと思うんですよ。
なので今後の多分AIスタートアップが必要なのは、
簡単にモデルをスワッピングできて、
33:02
なおかつ新しくスワッピングしたモデルをトレーニングを早くできるインフラっていうのが多分重要になってくる。
他の、例えばAっていうサービスとBっていうサービスのデータを交換できたりみたいなことですか。
どちらかというと、サービスAが今GPT-4を使ってますと。
ただ、今アンスロピックって別のLLMがあるんですけど、
そこのLLMの方が実は良くなったみたいな。
LLMってオープンAI?
オープンAIとかアンスロピックとかそういうところになるので、そこのスワッピングを簡単にできる。
ちょっと事例は違いますけど、簡単にAWSからGCPにスワッピングできるっていうみたいな感じですね、なんとなく言うと。
なので結果、自社のモデルとデータプラス何かしらのLLMが組み合わせが重要になってくるので、
そこの組み合わせるLLMが簡単にスワッピングできるようなインフラはまず必要になってくるというところですね。
それはじゃあ新しいスタートアップが入ってこれそうな領域ですね。
場合によってはインフラをサービス化する会社も出てくるかもしれないですし、場合によっては自社でそういうのを作るかもしれないですね。
あれですね、じゃあエクスポート、インポート機能みたいなことなんですかね。
みたいな感じですよね。簡単にそういうLLMをインポートするっていう、でそこのトレーニングをさせるっていう。
あとやっぱチームとかですかね。
企業をするときに新しく会社を立ち上げるときに、どこまでAI人材を最初から入れるべきか。
AI人材どう定義してるんですか。プログラマーってことですか。
プログラマーっていうかそのLLMとかの扱いをできる人とか。
それはじゃあAI企業、AIの企業っていうスタートアップとしてどれぐらいAI人材入れるかってことですか。
そうですね。AI企業でもいいですし、普通のスタートアップでもいいですけど。
特にそのAI的な要素を組み込むのであれば、例えばちゃんとGPTを活用するのであれば、どこまでAI人材を導入するべきかっていうところで。
おそらくどうなるかというと、最初はそこまで必要なくなる。
逆に最初はいらないんですね。
後々必要になってくると思うんですよ。
なぜかというと、Chat GPTってプラグイン機能があるじゃないですか。まだ全公開してないですけど。
36:06
そのChat GPTとプラグインを、例えば数学のプラグインを使うと、よりそのプラグイン経由で数学の数式とかを教えてくれたりするので、より正しい情報が出てくるんですけど。
プラグインって実はめちゃくちゃ簡単に作れて。
この間苦労もあって、さっき話したスタートアップがChat GPTプラグインのハッカソンを開催したんですけど、
そこでOpenAIの人がどういうふうにプラグインを作るかっていう話をしてて、
実際にクラルナ、ヨーロッパのクラルナのプラグインをどうやってクラルナが作ったのかっていうのを見せていて、
テキスト文面で作ったんですよ。
あとばらのサービスですよね。
Chat GPTにプラグインを作る画面のUIが、いわゆるChat GPTを使っているので、
クラルナの人がワンパラグラフぐらいで説明してるんですよ。
こういうプラグインを作ってくださいっていう。
それで、それをベースにChat GPTが分かりましたと、
じゃあこういうふうに作りますっていうのを言って、それでプラグインができたっていう。
英語で説明できればできるんですよ。
じゃあもう誰でもできますね。
そうなんですよ。誰でもできるんですよ。
常にサービスがあれば、そことの文面書いてそこで説明するだけなんで、
めちゃくちゃ簡単になっていますと。
なおかつ、コーラが作ったPawっていうAIサービスがあるんですけど、
そこはいろんなLLMを簡単に入れ替えられて、自分のチャットボットを作れたりとか。
コーラってどういうサービスなんですか?
Q&Aサービスのコーラ。
すいません。
そこがPawっていうAIサービスを作ってるんですけど。
やってましたね、確かに。
そうなんですよ。やってて。
でもそこが自分のチャットボットを作れるんですよね。
ベースがAnthropicとかOpenAIとかのChatGPTを活用できるんですけど、
どういうチャットボットにしたいかっていうのを自分なりに説明して、
それなりの回答が来るっていう話なので。
いわゆるノーコード的なプラグインを作れるようになると、
先にプラグインを作って、そこからスケールすると同時に自社モデルとかが必要になってくるので、
39:04
そのタイミングでAI人材が必要になってくる。
じゃあ試しに入れてみるのは全然誰でもできちゃうみたいな。
誰でもできちゃうっていう感じですね。
逆に言うと早めに多分プラグインに関しては動いた方が良くて。
なぜかというと、今すごい注目されていて。
確かに。
ただまだ多くないんですよ。
初期アプリストアって同じ状況で。
初期アプリストアって載ったら、リリースしたらある程度ダウンロードって入ってきたので。
でも今だともうリリースしても何もプロモーションとかしなければ、
全然ダウンロードされないじゃないですか。
同じように今競争ってすごい少ないので、実際プラグインとして出てる数が。
だからみんな使ってくれるんですよ。
競合が動く前に絶対出すべきなんですね。
NotionのAI機能とかは早かったですもんね。
そうですね。
あれもまだ誰もノート系アプリやってなかったからこそ、すげーってなりました。
だからやっぱり早めに多分動くっていうのは、
一つディスカバリー的な観点からすると重要になってくるっていうところと、
あと大企業とか実際もうすでに運営してるスタートアップとか会社に関しては、
すごい危機感を感じるべきで、
実際にJILOって不動産系のマーケットプレイス。
たぶん上場してたと思うんですけど。
ラーメン屋さんじゃなくて。
そっちのJILOで。
ZEROですね。
え、ゼロ?GIRO?
Zです。
Z?
ZILOWかな。
なるほど。思ってたの見た目と違いました。
そこの社長がやっぱりすごい危機感を感じていて、
全経営者に気にするように言ったのと、
あとチームを2つに分けて、
レッドチームとブルーチームに分けたんですけど、
ブルーチームは社内のプロセスをいかにAIで置き換えられるか。
で、レッドチームは顧客体験のところをどういう風にAIを組み込むかっていうところをフォーカスしているっていうのを言っていて。
やっぱり各部門は違うので、考え方が。
でもそういう風にチーム分けして、完全にそこにフォーカスするっていう話は既にしていますと。
あとメタですね。
メタに関しては、
マーク・ザッカーバーグ、CEOのマークさんと、
42:02
あとCTOのボーズさんと、
あとCPUのクリス・コックさん関しては、
今一番時間費やしているのはメタのAIチームと一緒に過ごしているっていう話なので。
あのメタが、メタバースにフォーカスしているメタが。
ちょっといじってます?
いじってないです。
あのメタに解明したのに。
そこまでやっぱり時間費やしているっていうのは、それだけの危機感を感じているっていうところなので。
なんかありましたっけ?最近メタAIのニュースありましたっけ?
いろいろ出しているので、それこそ画像認識系のものを出したりとか、
あとその絵にアニメーションを加える。
ありましたね、確かに。
なんかいろいろ出てきているので、なんかいろいろ動いてはいますよね。
でもいっぱいデータがあるから、なんか強そうな気もしますね。
すごい強いと思います。めちゃくちゃ強いはずなんで。
マークさんもここはすごいフォーカスするっていうのを言っているので。
あとやっぱりチームっていうよりも、スタートアップにすごい影響をする話、
あとVCですね、に影響する話って、そもそも大人数のチームって必要なんでしたっけ?とか。
一人企業が増えるんじゃないかとか、100人のチームって必要なんでしたっけ?とか。
それが一人でできる時代が来るんじゃないかとか。
いわゆるAI従業員っていうのが出てくるので、今回。
なので、いわゆる一人の人間と100人のAIが一緒に組んでチーム作るみたいな。
できる時代って来るので。
なるほど。
そうすると、そもそも資金調達ってどこまで必要なんでしたっけ?とか。
そもそも上場するのがベストなんですよね。
そうなんですよ。
なんかもう変わってきますよね。
もうすでになんかその上場とか、エグジットの成功とはみたいなの問われている感じはすでにありますけど、
それこそなんていうか、AIが発展して何のために仕事してるんだろうっていうのが考えなきゃいけないことですよね。
そうなんですよね。だからそもそもVCがすごいファンド調達をしてもあんまり意味がないんじゃないかとか。
っていう話も、もちろんまだ議論されているっていうレベル感なので、まだ実態としては全然そうなってはないので。
ただ、今後5年10年後に関しては企業という概念がどう変わるのかとか、スタートアップって急成長してるんですけど、ずっと10人以下のチームでやってるとか。
45:09
2人とか3人で株式上場みたいなの全然ありそうですね。
可能になりますよね。
1人でみたいな。
だからそこらへんが、いろんな意味でスタートアップエコシステムを変えるのかっていうのはすごい気になります。
っていうところとか、あとはどういうところにAIが適用されるかというと、結局テキスト生成、チャットGPTによってテキスト生成がすごい話題になりますけど、
それ以外にも生物学とか化学とかにも使われますし、
あとやっぱりテキストから動画っていうのはたぶんすごい人気になってくるかなと思うので、
これを収録してる1、2週間前からウィルスミスがスパゲッティを食べてるAI生成動画があって。
見たことあります。
見ました?すごい変ですよね。
なんかインスタかなんかで見ました。
ちょっと怖いですよね。
怖いです。
ウィルスミスかなと思ったらなんかちょっと違うみたいな。
ちょっとやばいですよね。
でもこれっていわゆる最初にダリーが出てきた時とかそのAI画像生成とかですね、
もうなんかやっぱり指が変だったり、明らかになくちょっと変な顔してるとかっていうのあったじゃないですか。
それっぽい。
それっぽいですよね。
そう考えると結構すぐに改善されるのかなっていう。
結構動画領域はたぶんすごい発展。
ランウェイとかランウェイMLとかそういうのやってますけど、
そこら辺がすごい発展するっていうところと、
あとさっきそのアプリの概念の話を最初の方にちょっとしましたけど、
これレプリットとかもうすでに検証し始めてますけど、
携帯に音声で指示をするとアプリを作れる。
こういうアプリ作ってください、こういうフィットネス系のアプリ作ってくださいっていうと、
もうコード生成の技術なので、それで全部作ってくれますという時代が来ていて、
これのインパクトって、
ありがちなのはそれでエンジニアが必要ないとかっていうそっち系の話なんですけど、
個人的にそれは一回置いて、
違う意味でアプリっていう概念がすごい変わると思っていて、
これを理解するためにはちょっと昔のナポレオンの話をするんですけど、
ちょっと昔のどこへじゃなかったんですかね。
ちょっと昔じゃないですか。
ちょっと昔の話に。
ちょっと昔の話を。
ちょっと昔の話に。
ちょっと昔の話をするんですけど、
ナポレオンって昔いろんな国のリーダーとかいろんな有名な人とご飯する時って、
48:05
ご飯のテーブルにランキングシステムみたいなのがあったんですよ。
階級みたいなことですか。
階級みたいな。
その階級はどういうふうに分かるかというと、
お皿とかナイフとかフォークが何で作られてるかによって、
その階級が違うんですよ。
なんか露骨ですね。
一番下っ端が、下っ端って言っても国の大統領とか総理だったりするので、
一番下が銀で作られたナイフとかフォークとかスプーンとか。
あたし銀か。
そっか、銀かって。
なっちゃいますね。
すごいそれ、みんなが分かるっていうのがすごいですね。
その一個上が金なんですよね。
さらに上がプラチナなんですよね。
ナポレオンはそのさらに上で、何だと思います?
ナポレオン主催ですか?
ナポレオン主催のご飯会とか。
えーなんだろう、金が下から2番目っていうのも?
そうです、銀、金、プラチナです。
ナポレオンはアルミニウムなんですよ。
アルミニウムって地球でとてつもなく多いじゃないですか。
缶でめちゃ使われてますもんね、アルミ缶みたいな。
そうなんですよ、缶でめちゃくちゃ使われているんですけど、
1825年までに誰も見つかんなくて。
当時はめちゃくちゃレアなもので、
作り方もみんな分かんなくて、なので当時はすごい高くて、
でも今は大量にあるのでめちゃくちゃ安いんですよね。
びっくりするでしょうね、ナポレオン。
そうですよね。
こんなあんの?地球にみたいな。
びっくりしてるでしょ。
安って。
実はあのご飯会でナポレオンが一番階級低かったんですかね。
そのご飯会情報って歴史書に載ってるんですか?
歴史書に載ってるんですよ。
なんかすごい身近に感じました。会食みたいな。ご飯会みたいな。
でもすごいナポレオンがアルミニウムがすごい好きで、
光り方がやっぱりすごい特殊だった。
かわいい。
逆にそんなところが。
一時期ナポレオンの周りの人たちがナポレオンがアルミニウム好きなので、
それを全員ファッションに取り組んだりとか。
高価なセレブですね。
51:00
全然高価じゃないんですけどね。
でもその時ファッションに入れるって。
ファッションに入れるってすごいですね。
それぐらいやっぱりナポレオンとしてはすごい重要だと思ってたもので。
でもそれが今だともう大量あって、草野さんが言うようにアルミ缶があるぐらいで。
アルミ缶ってアルミがめちゃくちゃ安いので、使い捨てじゃないですか。
買って飲んで、そしたらもう捨てるじゃないですか。
ミサイクルされたりとかもありますね。
それがアプリが同じ概念になるんですよ。
アプリって今ってやっぱり100万から1000万ぐらい作るのにかかるわけじゃないですか。
でもそれが、なんで100万から1000万かかると、それって捨てられないじゃないですか。
会社として作った場合に、それをなんかこれはうまくいかなかったらこれを捨てようってならないじゃないですか。
1000万かかってるのに。
捨てようというか、継続して、サステナブルに継続していくイメージですよね。
そうですね。ユーザーに使い続けてもらいたいとか。
でも一つのアプリが10円しかかかんなかった場合、たぶんその概念って変わるんですよね。
一回使ってもらったらいいやってなるんですよ。
そうなると、使い捨てアプリっていうものが出てくるんですよね。
もうワンセッションで、ワンセッションのためのアプリを作るっていう。
なるほど。簡単に作れますもんね。
そうなんですよ。簡単に作れますし、なおかつめちゃくちゃ安いので、それを別に使い捨ててもらっても全然問題ないと。
どういうものが生まれるんだろう、確かに。
そうなんですよ。どういうものが生まれるかっていうのはすごい考えないといけなくて、特にソフトウェア企業とかサース企業とかって、これってたぶんすごい使えるようになってくると思うんですよね。
どのタイミングで使い捨てアプリを作るか。
その場でアプリを生成して、その場で使ってもらって、場合によってはそこのデータだけ取得して、アプリ自体はその後もう捨てちゃうみたいな。
これこそ多分AIネイティブな会社でなると思うんですよね。
なるほど。使い捨てのアプリ。
アプリの概念が結構いろんな意味で変わって、これちょっと最後の方でもそのアプリの概念の話をするんですけど、それ以外にも例えばビジネスモデルとかも多分いろいろ変わってきたりとか、
そもそもオープンAIが本当にどういうふうに真似たりするのかっていうのは分からない部分はありますし、それこそクラウドVSローカルっていう議論もすごいアメリカではあって、どこまでクラウド上でやって、どこまでローカル上でやるか。
結局クラウドベースだとリアルタイムで一番最新の情報とか最新のLLMに接続できたりするんですけど、プライバシー的に考えるとローカルが良かったり。
54:00
リワインドとかベースがローカル上で、先週話したリワインドとかはそうですよね。でもLindyとかはもう少しクラウドベースでやってたりするので、ただそのローカル上でのすごいアプリ化っていうのは、
どのスマホにも、いわゆる今スマホにLLMを入れられる状況になり始めたので、もちろんオープンAIのチャットGPTほど強くはないですけど、でもそういう世界って来るので、そう考えると世界中の子どもたちでスマホを持っていかないといけないので、
そう考えると世界中の子どもたちでスマホを持っていればチャットGPTと会話できるっていうレベル。それって教育とかヘルスケアにとってめちゃくちゃ便利なことで。
なんで、そういう意味だとローカル上っていうのは実は世界的に考えるとすごい重要な発想で。なんとなくですけど、ミックスのパターンが多くなるのかなっていうのは思うんですよね。
ローカル上は結構プライバシーフォーカスなデータとか、そういうものが多くて。あと基盤のモデルがそこにあったりするんですけど、最新の部分はクラウドを使ったりとか。
でもどっちにするか、もしくはミックスにするかによってスタートアップ側のコスト構造がどんどん変わってくるので、そういう意味だとAI企業を作る上ではそこら辺のコスト回りを考える際に、クラウドかローカルかミックスかっていうのを選ばないといけない。
あとやっぱりオープンvsクローズドでしたね。これは安全性の話もあるんですけど、安全性をちょっと来週するので、ビジネス的な考えでいくと、どこまでオープンにすることによって事業が進むとか、クローズドにすることによって権力は増すんですけど、レギュレーションに対していろいろ影響を受けたりするっていうところもありました。
あと今のオープンソースのモデルって、モデルのウェイトって言うんですけど、ウェイトを公開してないんですよ。
どのデータを優先するかみたいな。
そうです。まさに例えば、この言葉を使うとこのデータを優先するとか、この要素を優先するとか、そのウェイトっていうのは基本的に公開されてなくて、でも今の競争の激しさを見ると、誰かしら公開しそうだなっていうのを思っていて。
57:07
事業員がとかってことですか。
会社がもう戦略的に。そういうのも出てくる可能性っていうのはあるんですけど。
やっぱり今どんどんこのAI業界が発展しているので、今年だけで少なくとも3つぐらいのすごい、そのLLMアプリレイヤーではすごい大きなシフトが起きていて。
一つはチェーン化って言うんですけど、複数のモデルをリンクさせたり。
そういう概念が出てきたり、あとは先ほど話した記憶とか、正しいタイミングと正しい情報を引っ張れるっていうシフトっていうのと、あと3番目がエージェント、いわゆるそのAIが代わりにタスクをやってくれる。
これもやっぱりすごいいろんなシフトが今年だけで、去年からですけど、すごい起きているので、そこら辺はどんどん追いつかないと結構置いていかれてしまう。
チェーンっていうのは例えば、例えばインスタカートだったら顧客の購買データとそのスーパーのデータといろいろかけ合わせてみたいなってことですか?
そうですね、あとはその複数のAIをチェーン化するっていう話なので、アクションAが起きたからアクションBをさせるとか。
もう自動的に、アクションまで全部自動的にやっちゃうみたいな。
そういうのが多分どんどん出てきますし。
これが起きたらこうじゃなくて、これが起きたらこうして、これの場合はこうなってみたいなのをやっていくみたいな。
それを全部支持するのではなくて、なんとなくこういうタスクを与えるので、
こういう風にやってくださいみたいな。こういう風に分岐してください、吉田にやってくださいみたいな。
そうですね、吉田にやってくださいですね、まさに。
そういうのが多分いろんなシフトが起きている中で、将来的に考えると特にC向けのAI技術を取り入れたアプリがどう変わるのかというと、
これはアドビのCPUの方が言ったことですけど、よく今後言う発言だったり実際起きるアクションとして、
自分をAIとシンクロさせるっていうのが出てくるんじゃないかっていうのを話していて、
これってどういう意味かというと、今までって、例えばスマホの中のアプリっていっぱいあって、
1:00:05
そのアプリを新しくダウンロードするときに、自ら情報のインプットが必要じゃないですか、そのプロフィールはとか。
ログイン。
ログイン情報とか。登録するとか。それが全部変わるんじゃないかっていう話をしてて。
あれ面倒ですもんね。
めちゃくちゃ面倒じゃないですか。
未だにパスワードを設定して覚えなきゃいけないって、なんでここはなんかならないんだろうって思っちゃいますよね。
パスワードとか登録したとしても、その後って自分の情報ってめちゃくちゃ入れないといけないじゃないですか、そのアプリを自分なりに使えるようにするには。
こんなに名前とか何回も入れなくてもって思っちゃいますよね。
なので、今後出てくるのが、自分をアプリの中に埋め込める。
自分のいろんなデバイスでいろんなアプリを使ったデータとかパソコンのデータとかを統合されていて、それをアプリにインプットできるっていう。
自分がプラグインになるっていうことですよね。
自分がプラグインで、もちろんそのとき許可が必要なので、アプリを開いた瞬間、自分とシンクロしますかっていうのを聞かれて。
その名付け方は宮武さんがつけたんですか?
いやいや、これはスコット・ベルスキーさんってCPUの方が言ってることですけど。
そうすると自分のデータをアプリに一瞬で入れられる。
それをベースにアプリが完全にパーソナリズされる。
その体験めっちゃいいですね。
めちゃくちゃいいですよね。
でもこれっていろんな意味で、これが現実になった場合って、アプリの作り方ってすごい変わるじゃないですか。
そもそもオンボーディングをどうするべきかとか。
パスワード入力とか、名前の入力とかそういうの全部なくして。
最初からすごいパーソナライズされてるので、最初からすごいアプリ体験を使いやすくなったりするので、そこの最初のマジックモメントをどうやって持っていくのかとか。
最初から会話型にするべきなのかとか。
いろんな意味でアプリのUIもすごい変わってくるはずで。
いろんな意味でUIが変わってきますし。
場合によってはアプリとシンクロさせるときにも、どこまでユーザーがアクティブに動くかどうかっていうのも変わってくるかなと思っていて。
1:03:07
それこそ先週リンディの話をしたときに、メールを勝手にリンディが読み込んで重要度をランキングして、返信しないといけないものを返信のドラフトを全部作ってくれる。
それってユーザーが一切動いてないっていう。
でもすごい便利なアプリになるっていう。
そういうのも多分どんどん出てくると思うので、ユーザーが積極的に参加しないといけないアプリじゃないアプリっていうのもいっぱい出てくるのかなっていう。
そっちの方がいいですよね。
こっちがアクションしなくちゃいけないのは、それこそ吉田にやって、こっちで最終的な相手が関わる話は判断しますけど、私の問題のカレンダーの調整事はお願いしますみたいな感じですよね。
そこら辺のUI設計も多分すごいAI企業としては考えないといけなくなると思うので。
そもそものアプリの概念から、チーム作りから、LLMの考え方から、ユーザーとの体験まで全部いろんな形で変わってくるっていうのを今日すごい話したくて。
だからこそこの事業の考え方がすごい、より多分そこの議論とかより実際開発して試してみるっていうのが必要になってくるのかなと思いましたね。
なるほど。
なので今日はこんな形で終わらせますけど、ちょっと来週はちょっと少しどんよりしたトピックになっちゃうんですけど。
来週はまだいいかもしれないですけど、再来週とかですかね。
どんどん悪くなっていくみたいな。
人間は生きていけるのかっていう話ですね。
すごい面白そうなトピックですね。
はい、ということで今回も聞いていただきありがとうございました。気になった方はofftopic.jpのフォローお願いします。
そしてメンバーシッププログラムofftopic.clubもノートでやっているので、気になる方はぜひチェックしてみてください。
それではまた次回お会いしましょう。さよなら。
さよなら。
01:05:29

コメント

スクロール