そうですね。CCAIの使われ方っていうのがどんどん広がって、いろんな業務の中に入ってくると思います。
特にその執筆とかですね、そういう編集とか翻訳とか、そういう系の業務は相当様変わりすると思いますね。
こういった直訳フェーズとかよく言うけども、
そういった直訳フェーズの中に入ってくるというのが、
いろんな業務の中に入ってくると思うんですね。
ホワイトカラー直訳フェーズとかよく言うけども。
ホワイトカラー全般が直訳を受けるかっていうと、ちょっといろいろと細かくあって、
一つは一般的な事務作業とかですね、そういうのがどのぐらい効率化、自動化できていくかっていうのは、
結構そんな簡単ではなくてですね、やっぱりLLMを使うとできるところ多いんですけど、
安定しないとかですね、それから最低限この基準は守ってくれないと困るみたいな、
そういうところがLLMだとやっぱりばらついちゃうんですよね。
なので、かっちりしたシステムで作る部分とLLMで柔軟に対応しながら多少間違えてもいいっていう風にやる部分と、
うまく切り分けて、それを継ぎ接ぎにしながらシステム作っていかないといけないっていうのが今の現状で、
そこら辺をみんないろいろ工夫してるっていう感じですね。
もう一個が専門職系のやつで、弁護士とか医師とかそういう系のものを生成AIを使って、
いろいろと支援したり効率化していこうっていうのがあって、これはこれで多分進んでくると思うんですけど、
それもそういう専門用語みたいなのをどうやって入れていくか、データとして加えていくかっていうあたりが、
今いろんな動きが起こってるっていう、そんな感じですかね。
会社向けの例えばCSみたいな場所、カスタマーサポートみたいな場所とか、
あとどちらかと言うと弁護士的な専門的な部分っていうので言うと、
どっちのほうがやばそうかっていう感じですね。
CSは、いや、その二つ言うと結構どっちもですね。
どっちもやばい。
CSは多分一番やりやすいものの一つなので、今まででもAIの活用結構やられてきましたけど、
今後、生成AIになって相当変わるし、かなりいろんな企業が、
なんていうか、顧客との対応にちゃんと音声インターフェースとか、
言語によるインターフェースを準備するようになってくると思うので、
この辺だいぶ変わると思いますね。
あれは音声を一旦テキストに変えてから、またテキストとしてアウトプットを音声で出すみたいな、
テキストを挟む感じなんですか。
それが多いですね。
直接っていうのもありますけど、音声から。
でも、一旦テキストにするのがほとんどだと思います。
やっぱり経営者として、最近ちょっとなんかこう、昔、今までずっとこういろんなビジネスで新しい流行りのものをどんどんやりながら、
ちょっと雇用を移動させながらね。
例えば、ビデオレンタル店の人間が推理プリンタの方の生成に活かすとか、
なんかいろいろやって宿泊してきたんだけども、今回はちょっとなかなか思い変えたりというか。
なんか他の会社とかも、結局なんかリストラで多くの人を辞めさせると株価が上がるような、
昔はなんか会社で成長していくと雇用も増えてみたいな流れがあんま変わらなかったんですけど、
ここ最近なんか今日逆転現象も出てきたなと思って、ちょっと頭が痛いんですけど。
いや、そうですよね。
直近はですね、僕そんなに急激に変わるとは思わないというか、
でもちょっとそういうその触手とかにもよると思うんですけど、
やっぱりちょっと中長期で見ると人を抱えてない方が強いですよねってなるので、
同じ事業をやるのでも人を抱えちゃってると減らさないといけないので、減らすのってやっぱり簡単にできないから、
人数少ないほうが強みになるっていう、なんかそういうことがいろんなところで起こりそうだなっていう気はしてますね。
そこで具体的に最近は、もともとはどうしようかなって悩んだときに、
DMMマッサージとかDMM介護施設とかいろいろ考えてたんですけど、
これ現実的じゃないなと思って、なかなか今のデスクワークをやってる人間がね、そっちに行くのって結構しんどいじゃないですか。
そうですね。なんかある程度そういうふうな、やっぱりこういったデスクワークをやってる人間が、
そういうデスクワークをやってる人間が、
そういうデスクワークをやってる人間がね、そっちに行くのって結構しんどいじゃないですか。
そうですね。なんかある程度そういうふうな、やっぱり介護とかそういうのって、
必要性増してくるし、ロボットですぐにできるってわけじゃないので、
やっぱりそっちのほうに労働移動が起こるんだろうなというふうに思いますけど、
でもおっしゃるとおり、明日から介護の現場に行ってってなかなか大変ですよね。
それでどちらかというと、全体のAIのプロンプト、指示型とかを学ばしたりとか、
みんなにAIに少しでも早めに関わらせて勉強させとけば、
最悪うちの中で、例えば人員的にこれ難しい、抱えきれないとかとしても、
その彼らは他の会社に行ったらまあまあ使い切ると、教えてあげられる立場になるかなとかっていうふうに、
ちょっと考え出して、会社上使い放題でも使っていいから、
とにかくいろんな好きなやつを抱えてやってるんですけど。
いいですね。
どっちのほうがいいと思いますかね。
どうなんですかね。やっぱりそれって、やっぱり使えば使う分だけ先行して、
世の中で今ホワイトカーの人たちもみんな鼓動で勉強しようとしてるけども、
やっぱりやった分だけその辺は、その辺のプロンプト力というか。
そう思います。
なんかもうこれインターネットとかスマホとかと一緒で、
なんか早くやったら先行者利益絶対あるっていうか、
いろんな展開がこれからまた起こってくるので、
早くやってるとそれに気づくのも早いし、
いろいろと新しいことを見つけていけるので、絶対有利だと思いますよね。
会社ができるとしたらそういったツールとかを与えてとにかくやれというしかないですけど、
結局やるやつとやらないやつどうしても出てこない。
そうですね。
そうですね。でもそういうのを奨励するのはとてもいいんじゃないですかね。
今松本県とかは結構やっぱり最近学生増えてるんですか?
学生増えてますし、やっぱりチャットGPTのAPI使ってサービス作るとかみんなやってますよね。
結構あっという間にできちゃうんですよ。
すごい簡単で、こんな簡単で面白いプログラミングってあったのかっていうぐらいですね。
本当にあっという間にできちゃうので。
いろいろサービス作って、それを会社にする人もいますし、っていう感じですね。
うちもAIの会社をこの間作って、大野っていう人間も松本県で。
大野っていう人間も松本県で。
そうっすね、大野君。
エンジン集めて頑張ってますけど。
そうですね。彼優秀で頑張ってるみたいで。
結局まず何するんだって言ったら、やっぱりB向けですかね、みたいな話になってて。
結局はみんなが使いやすいような、JPGでもプランプトンで入れやすさを会社に提供しますみたいな。
ファーストモデルでやりますみたいなことを言ってたけども。
なるほど。
そもそもどっから受け付けたらいいかとかっていうコンサルティックな仕事って、
会社側からすると、誰かちょっと先生に来てくれよみたいな感じがあるんで、
そういったこともいいんじゃないかみたいな話になってて。
なるほど、そうですね。
みんな困ってるっていうか、何やっていいのかっていうので困ってるので、確かにそういうニーズありそうですよね。
大規模でみんなやらなきゃいけないっていうか、どっから受け付けたらいいんだっていうのは結構悩んでる。
たぶん相談食うでしょ、いっぱい。
そうですね、でも大体単純でですね、
ちょっとGBTを使ってみましょうっていうので、社内で使えるようにしてくださいっていうのと、
それからRAGって言いますけど、社内文書を検索可能にして、
それを含めてチャットGPTが応答できるようにしてくださいと。
そこまででも結構使えるものになるんですよね。
その先、業務効率化みたいなことを本格的にやりたいんだったらそこの開発をしていってください。
それをスタートアップとかメンダーさんに相談しながら伴奏してもらってやってくださいねと。
あとは社内で融資集めてワークショップとかやって、どこに使えそうかとかをブレストしたり、
それでさっきのAPIみたいなのを使って作ってみるとか、そういうのを立ち上げてくださいっていう。
大体そんな感じですね。
よくでもAPIとか通して会社情報とか、
例えばこちらから入れた質問とかそういうものが、
要は外部というかオープンAI側に持ってから読み込まれないとか言うじゃないですか。
あれ本当に読み込まれないんですか?本当は読んでるけど。
いやまあ、Googleのアプリとか、
Googleのエンジニア読んでないですよねっていうのと一緒で、
読んでないんでしょうし、読めない仕組みにしてるんでしょうし、
だけど本当にそうなのかっていうのは証明できないので、
信用するしかないっていう感じですよね。
Googleだと大きい会社だからあれだけど、
オープンAIはまだまだ小さい会社なんで、本当に大丈夫かなっていうのはありますけど、
契約上そう書いてあるから、一旦信用するしかないんじゃないですかねっていう気はしますね。
実際は読めてるし入っては来てるけど、見に行かないよというアプリがあるんですね。
まあまあ、もちろん悪意があって見ようとしたら見れちゃうと思いますけど、
会社としては、例えば1エンジニアの会社であるとしたら、
1人の会社であるとしたら、
1人の会社であるとしたら、
1人の会社であるとしたら、
1人の会社であるとしたら、
1人の会社であるとしたら、
1人の会社をあちこちで、
知名度が短いという人は来るのを待って、
ствуであるとしたら、
そこを各社の人を離れてみようというところがあって、
で 大丈夫だと思いますね でも ちょっと極論すると じゃあ それを
信用して 日本の首相官邸が ちゃんと GPD使っていいのかとか 防衛省
が使っていいのかってなると それは やめといたほうがいいんじゃない
っていう気もするので やっぱり どっかで クラウドとかと一緒ですけど
どこまで信用していいのかっていう 本があって 本当に機密なんだったら
やっぱり国内のものを使ったほうが いいんじゃないかとか そういう
議論もあるとは思います
そういうのに関わったりをしてるん ですか この国産のエレメントが
サーバーを抑える
そうですね 今 桜インターネット とかソフトバンクとか サーバー
増強しようとしてますし あと 日本国内でもNECとか NTTとか いろんな
ところがサイバーエージェント とか LLMを作りますとか 作りました
とか 松尾県でも実は10ビリオン のモデル作ってるんですけど そういう
のがたくさん出てきてるので それは いいんじゃないですか ただ やっぱり
規模が足りてなくて 本当は100ビリオン とか1テラとか そのぐらいのスケール
で世界は起きとってるので 桁が ちょっと足りてないですよね
このAI自体はでも それなりのポステ 的なものというのはできるもん
ですか 日本っぽいものというか 要は大阪っぽいものとか
できちゃってきます それはやっぱり 学習データにちゃんと日本語を
多くすれば それなりに精度上がって きますし 大阪弁とかチャットGPT
でもしゃべれると思いますけど
これっていうのはどうなんですか 結局はでも 世界の他の知恵とも
連携しないといけないわけですよ ね 行ったり来たり
そうなんですよね 結局 チャット GPTも英語で考えたほうが
頭がいいんですけど 英語で考えてから 日本語に翻訳してっていうやり方
したほうがいい答えが出るとか っていう感じになってて だから
結局 日本語で作るっていっても 英語も含めて学習させたほうが
いいんですよね
ちょっと別の質問で 例えば それ自体動かすのって すごくサーバー
自体をGPUをぐるぐる回さなきゃ いけないと それに関してはすごい
容量を使うから どんどんかかります っていう話を聞いたんだけども
これ日本で桜井インターネット とかサーバーどんどん置くじゃない
ですか これだけ使用量がどんどん 増えていくと 今もインターネット
と比較にならないぐらいの電気 とかいるんですか これ
そうなんですよね 電気代 がまた問題で 電力消費が大変なんですけ
ど これ ちょっと考え方によって は面白いのが 電力が安いところ
とか そういう再生可能エネルギー があるところにデータセンター
を持っていくと そこで使えるので 通信の帯域のほうはそんなにい
らなくて 中でぐるぐる回るわけ なので そうすると 実は地産地消
っていうか 電気があるところで 使うって それでデータセンター
通信で引っ張ってくるっていう ほうが 環境にはいいというか 電気代
は安くなる可能性があって そういう のとか ちょっと面白いと思うん
ですよね
でも これがさっき 今の何 百倍 何千倍と入るといけなくなる
わけでしょ みんなが使い出すと
そうなってくると 今度 核融合 とか必要になってきて サムアルトマン
さんとかも そういうベンチャー もやってますけど そういう話になって
くると思いますね
おだしょー やっぱりその辺っていう のは もともとこのエア実態っていう
か 実用化になったっていうのは いろんな インターネットもあったり
みんながあったり いろんな要因 でソフトもハードも整ってきた
わけじゃないですか でも これっていう のは どっかどんどん進化していく
と 何かやっぱりどっか 例えば ハード面とか電気代で行き詰まったり
するような感じのが多いんですか その 進化というか
今のとこ 今までいうとあれ ですよね NVIDIAのGPUが供給不足
とか逼迫してて 需要が多すぎて 買いたくても買えないっていう
状況になってますよね 今 クラウド もGPU取ろうと思っても全然取れない
っていう状況ですよね それは 解消されてくるかもしれませんし
NVIDIAがまたもっと高いもの出して くるかもしれませんけど そうやって
どんどんGPUが増強されていくと 今 亀谷さんおっしゃったみたいに
次は電気になって 電力量をどうやって 補うのかみたいな話になって
くると思います それが学習サイド の話で 今度 推論のサイドですね
何か使う側は多分もっと高速化 したり 軽量化したり エッジ側
に入ってきたり そういう技術も たくさん出てくるはずで それは
それで面白いと思いますね 会社 の中でオンプレでLLMを回せるよう
になったりとか そういうことも 出来てくるはずなんで そういう
進化も多分起こってくるんじゃない かなと思います
結局 今でも待たされたり とか スカイツリータイムになっちゃ
って ちょっとお待ちください みたいな あれはそういったこと
なんですか
おだしょー あれは そうですね トラフィック がさばけてないんだ
と思います ゆっくりにしてるのと あと 小さいLLMを先に使って 答え
られないと後から大きいLLMを使う とか そういうのもあって どこまで
上に上がってるかっていうか だんだん 強い敵が出てくるみたいな
感じで 多分ラスボスまで行くと 時間がかかるとか そういうのも
もしかしてあるのかもしれない ですね
何となく 最近ハードなんか でも 最近は扇風機っていうか ファン
で冷やすんじゃなくって 水で 冷やすんですよとか 何か聞いたり
とか サーバーの人に聞いたんだ けども ハードもどんどん変わって
るんだなと思ったんですけど 結局 ハードの進化とかソフトの進化
と 需要と供給がバランスずれる と 結局 コストが高くなるみたいな
話になるじゃないですか 電気代理 とかサーバーとかGPとかね 意外
とそれによって 意外とこれコスト かかっちゃうよと思ったりもみたいな
話もあり得るんですか
そうですね チャットGPTが 無料で提供してたり 月額20ドル
とかいうのは 多分 安すぎなんですよ ね もっとかかってるはずで なんで
AIは多分 もっとお金がまた必要 になってくるんですけど ただ 学習
はもっとGPTも必要になって お金 かかってくると思うんですけど 推論
のほうはもっと軽くなってくる はずで やっぱり学習と推論が別
なんですよね 学習したものを使う 時が推論で その時もGPUが回るんです
けど その時は 例えば上流っていう 技術があって 大きなニューラル
ネットワークを小さなニューラル ネットワークに転写するっていう
技術があるんですよ そうすると 学習するときは大きなニューラル
ネットワークで学習するんだけど 学習結果を小さいニューラルネットワーク
に転写すると 早く 安く動かす ことができるとか 国内の研究 名古屋
大学の研究でも最近出てました けど 学習したLLMの9割ぐらいの重み
を消してしまっても性能がそんな 変わんないので 消してしまうこと
ができて そうするとまた軽くなるんですね とか そんな感じで軽くして
動かすっていう技術はどんどん 出てくるので そういう意味での
コストが下がってくる面もある と思います ですね
今DMMの例えば 英会話とかあるん ですけど これ 今 海外のフィリピン
とかセレビアとか あといろんな 国でやってもらってるわけですよ
例えばですよね 例えばこれ じゃあ チャットGP入れようとか チャット
的なもんしようとなると 質問 あたりにお金かかるじゃないですか
研究で
そうですね
だから あの辺となったときに これが 今のコストがだんだん下がって
いくものなのか つまりAIが下がって いくのか 人権コストって上がってる
んですよ 今 円安の時もあって そのときにAI自体 こっから上がる
のか下がるのかっていうのが みんな 下がるって言うんですよね 今
でも 実際どうなるかなと思って そこが
なるほど それは難しい質問ですね
結構 人とトークは 質問に対する コストによってですね AIだったら
人だったら 例えば7000円提供できる けど 英会話がね 同じようなことを
AIだったら 例えば2 3000円でできる なら まだあると思うんですよね
そうなると 人権費よりもかなり 低くないと困るわけなんです
人権費よりは低くできる気がします けど ただ やっぱり今 マイクロソフト
もオープンAIもGoogleも 生成AIを 広げるためにかなり安く提供してる
ので 広がっちゃったら もっと値段 上がってくるかもしれないですよ
ね
競争だから手すりしてるほうですか 昔のAWSじゃないけど 提供したい
シェア取ってから上げてくるみたいな
そうそう そういうことだと僕は 思ってまして なんで 結構 LLMを使って
どんどん業務変えてって いいん だけど 最後 やっぱり値段上がって
くるよねっていうのは ちょっと 思ってんですよね だから 一つの
日本の国内でも ちゃんとそうい った開発してったほうがいいっていう
のは それもあるんですけどね
なるほどね 何か聞いてみたら 今は だんだん効率化されていくから
効率がどんどん下がっていくと思います みたいな結果があって でも今みたいに
今 むしろ赤字で提供してると
そうなんですよ 技術的には多分 安くできるようになってくると思います
けど 今 赤字で提供してるから 多分 シェア取るとは上げてくる
とは思いますね
なるほど じゃあ なんかAppleの30%税 みたいな
そうですよ それに対抗するためにも やっぱりオルタナティブを持って
いく必要があって だから 上山 さんもぜひちょっとLLMを作って
いただいて 大きなものをいろいろ 提供していただけると
いやいや 単独で作れることもないん で 僕らはできたものをうまく使って
やっていこうっていうことを考え たんですけど 今どうなんですか
やっぱり日本の中でその辺のプロジェクト 僕たちは手に余るんで むしろ
ちゃんとGPTをどう利用するか つまりAppleの上でどう仕事する
かみたいな発想で コバンダム処方 みたいな考え方をしてるんですけど
実際問題 どうか それ自体の分野 つまりレイヤーなんていうかな
今 僕らが今 三だとしたら一位 ぐらいの場所があるじゃないですか
そういう そこっていうのはどうなん ですか ビジネス的な可能性っていう
のはあるんですか
いや あると思います このLLMを 松岡県で10ビリオンのやつ作ったん
ですが これも0.1ビリオン 1ビリオン 10ビリオンって順番に作っていきます
ね 小さいのはやっぱり簡単なんですよ すぐできるし 計算リソースは
あんまかかんなくて なんだけど だんだん大きくなってくると お金
かかってくるし 時間もかかって きてっていう感じです ただ 10ビリオン
ぐらいでも工夫してやると 日本語 の精度で 今 出てる既存のやつより
もよくなるんですよね GPT-4とか には全然いかないですけど 公開
されてるものの中では一番いい とか そういうところまで結構
行きやすいのと あと分野特化で 医療とか法律とかに特化して また
データ集めて学習すると その領域 では一番精度高いとかっていう
のは 割と作りやすい状況だとは 思いますね
おだしょー それはちょっと白く なんだですけど 心臓部分という
かJet-GPT-4とかとも連携するんですか それとも独自の
おだしょー 自体を自分で作るって 感じですね
おだしょー じゃあ もうそこの 後半の部分を作るっていう
おだしょー そうです それで その やり方以外にも 公開されてる
のをベースに追加学習したり ファインチューニングしたりっていう
やり方もあります それもそれで 有望だとは思います
おだしょー 何となく 素人考え だと すごくお金かけて 世界規模
でやってるところに 何か勝ちにくい ようなイメージがあるんですけど
何かその辺っていうのは何か ここを攻めれば勝機はあるんだ
みたいなのあるんですか これ ちょっと
おだしょー 何かですね 両方の 面がある気がして 本当に最後まで
いくと この資本の勝負という か どれだけお金 投下できるかの
勝負になるので 厳しいっていう のがある一方で 何かわざと参入
障壁を上げようとしてんじゃない かなっていう気もしていて そんな
難しくないですよっていう感じは します
おだしょー そうだもん 簡単だった
おだしょー そもそものソースコード とかも公開されてますし 小さい
やつは それで動かせばいいだけで ある程度動くし そこにいろいろ
とデータとか ファラメーターとか 少しくふうしていくといいわけ
で あと 結局 データの作り方が 競争力になってって ヒューマーフィード
バックでいろいろと教えないと いけないんですよね 人間の手作り
のデータを加えていくと精度が 上がっていくんですけど そこら
辺のほうが 実はよっぽど競争力 に直結する話で そういうのは
やっぱりやってみないと そこまで 辿り着けないので あんまり臆せ
ずにやっちゃったほうがいいん じゃないかという気もしますし
むしろ そういうところが競争力 だと分かってるから これ 結構
むずいんだよって みんな言ってる じゃないかっていう感じもして
ちっちゃいのであれば 少なくとも あんまコストかけずにできるんで
やってみたらいいんじゃないかな と思うんですけどね
なるほど じゃあその部分でも ちょっと その辺の 例えばニコニコ
動画とYouTubeじゃないけども 一つの コンテンツ自体でも投稿数の違い
でかなり変わっちゃうなとか思 って 頭の人も変わってくるんだろう
なみたいな だったらYouTuberになろう かみたいな考えちゃうんだけど
多分 いろいろシナリオの分岐 はこれから先あるんですよ どっち
に転ぶか分かんない面があって 一つがバーティカルが成立する
かどうかで 医療とか法律とかが その独自の分野でLLMが一番強く
なるんだったら 割とそれってフラグメント な感じで それがまた言語ごとに
できるのかできないのかっていう のもありますし あと 結局 数千
億パラメーターぐらいでいいん じゃないか説もあって GPT-4も実は
2200億パラメーターのものが八つ 組み合わさって 合計で2兆パラメーター
らしいんです これリーク情報なんで 正しいかどうか分かりませんけど
そうすると2200億パラメーターなんですよ 結局 それを八つ組み合わせてる
だけで つまり2兆パラメーターの ものを一個作るよりも 2200億パラメーター
のものを組み合わせたほうがいい っていう判断をしてるってことは
2兆パラメーターにしても そんなに もう上がんないってことなんですよね
おそらく そうすると だいぶ精度 がさちってきてるっていうことを
言ってて サムバルトマンさんも 公開のインタビューとかで 大規模
言語モデルは始まりにして終わった とか言ってて もう大きくするのは
もう終わりだとか それっぽいこと 言ってんすよね そうすると数千
億パラメーターでいいんだったら 実は数億円から数十億円ぐらい
の投資でいけちゃうぐらいの大きさ なんですよ
そうすると
一つの専門分野に特化したらそう やっていけるってことか
そうそう そうなんです
一例だけ行こうとしたら
そうなんですよね だとしたら別に そんな参入できないってことなくて
それ込みで事業を作っていけば いいわけなんで 全然ありなんじゃないか
ってですね そういうシナリオも ちょっとあり得ると思ってまして
なんかそんな感じですね
例えば日本のエンタメに特化した ものだとしたら むしろそういった
特化した そっちのほうがむしろ 精度が良く
そうですね その後にどういうふう にヒューマンフィードバックで
データを加えていくかとか そっち のほうがよっぽど競争力になって
いくっていう そんなイメージですね
なるほどね わかりました じゃあちょっと まだまだ聞きたいことあるけど
じゃあこの続きはちょっと次回 ということで
じゃあ引き続きまた 次回はちょっと なぜAIは古い情報しかないのかっていう
とこちょっと聞きたかったんで
確かに気になりますね
よろしくお願いします
はい ありがとうございます
ありがとうございました
ありがとうございました