-
-
スピーカー 1
はい、こんにちは。はんなりポッドキャストが始まりました。 今回は25回目です。
今回は、Kaisenさんがお休みなので、小川と西田さんでやっていこうと思っております。 よろしくお願いします。
で、ホストの紹介なんですが、私、小川秀幸と申します。 京都でデータ分析とか、生成AIのアプリケーションを開発するような会社をしております。 よろしくお願いします。
じゃあ、西田さん、自己紹介をお願いしていいですか?
はい、西田と言います。 神戸でバイオインフォマティクスと呼ばれるものをやっております。以上です。
はい、よろしくお願いします。
スピーカー 2
よろしくお願いします。
スピーカー 1
で、今回のはんなりポッドキャスト、なんと2月なのにまだ1回目ということで、1回目の収録ということで、
まあ、今年の抱負なんかに関して、まず最初に話した後、AI、やっぱりなんかもうずっとAIの話してますけど、AIしか話すことがないのではないかというか、発展が早すぎるので、
ゆっくりAIについて話して、まあ何か考えられると面白いのかなという雑談会的なノリにしていきたいかなと思ってます。
で、最後にちょっと最近僕が考えている技術と人間の能力の拡張みたいなところにも触れられるといいかなという感じになっております。
はい、じゃあまず1つ目のお題は、2025年何やりたいっていうところなんですけど、これ西田さんから聞いていっていいですか?
スピーカー 2
はい。Hugging Faceを作れるようになりたいと思ってます。
スピーカー 1
え、もう一回。
スピーカー 2
Hugging Faceを使えるようになりたい。
スピーカー 1
あー、Hugging Face。
えー。
どんな感じですか?
スピーカー 2
もしモデルが作れるなら作りたいですけど、それができないとしても、Hugging Faceの人様が作っているモデルを使うとか、
とにかくあのプラットフォームに、プラットフォームをフル活用できるような人間になりたいと思っております。
スピーカー 1
なるほど。
あのトランスフォーマーズとか、ライブラリーとかあると思うんですけど、あれを使って何回やるとかでもいいみたいな感じなんですか?
それとか、あれですよね、サイト上でHugging Faceのサイト上で人のモデルを動かしたりとか。
スピーカー 2
はい。
スピーカー 1
そんな感じのことか。
はい。
モデルを作りたいってどんなモデルを作りたいと思ってあるんですか?
スピーカー 2
えっと、グラフ機械学習っていうのがあるみたいでして、そのモデルを作りたいという漠然としたイメージがあります。
スピーカー 1
なるほど。
スピーカー 2
普通の機械学習はテーブルデータから作ってるっぽいんですが、テーブルデータじゃなくて、ネットワーク、グラフから機械学習モデルというか、エンベディング、埋め込みって呼ばれてるものを作るっていうのをやってみたいなと思っております。
で、あのHugging Faceっていう場所は、そのモデルとそのモデルを動かす場所っていうのだけじゃなくて、データセットもあそこに置いとけるみたいでして、一緒に。
へー。
データセッツっていう、ハブ?
ハブと言うか、上の方に。
はい。モデルズ、データセッツ、スペーシズ。スペーシズっていうのは、モデルを動かす場所を見たいですが、
スピーカー 1
うん。
ってな具合で、その3つをモデルズ、データセッツ、スペーシズを使って遊べるようになりたいなみたいな感じでいます。
なるほど。そうか、これデータセッツっていうのを使ったら、トレーニングできるぐらいのたくさんのデータが入ってるみたいな感じなんですね。
スピーカー 2
はい。で、多分今のところは、自然言語とかオーディオとか画像、ビデオが多いと思うんですが、
別にそうじゃなければダメっていうこともないみたいなので、
例えばバイオのネットワークデータみたいなんでも、別にOKだと思います。
スピーカー 1
なるほど。で、もっといけるのであれば、そのモデルも作ってやりたいみたいな。
はい。
そうか、そういうのってめっちゃいっぱいもう作られ始めているんですか、そのバイオ系で。
スピーカー 2
ちょこちょこ作られ始めていて、で、そのモデルとかの置き場所もHugging Faceにしてる人が現れておりますっていう感じですね。
スピーカー 1
えー、そうなんですね。なるほどなるほど。それで、そうか。
スピーカー 2
もうHugging Faceはそういうの完全にプラットフォームになりきっているっていう感じなんですね。
スピーカー 1
うーん、っていう思い込みでいます。
確かに何でも使えますもんね、モデルとか。
スピーカー 2
そう、みたいですね。
スピーカー 1
僕も一時期なんか、トランスフォーマーズとかいうライブラリーを、Hugging Faceのライブラリーを使ってなんか画像を作ったりなんかいろいろごちゃごちゃやってた覚えがあります。
2025年やりたいのはそれぐらいですか。
うーん。
スピーカー 2
Hugging Faceに限らず、AI系何でもいい。
何でもって言ったら何って感じですけど。
スピーカー 1
いろいろと触っていきたいみたいな。
スピーカー 2
そうですね。普通にお仕事で、AI系インフラを提供する側にもならないといけないっぽいので。
触っていきたいっていうか、いかないといけない。
スピーカー 1
いろいろ触っとかないとそういうインフラを作るのであれば、どういうことをやるために動かすかみたいなことが分かってないといけないということですもんね。
スピーカー 2
そうですね。すごく計算資源はあるんだけど、その上のレイヤーはないので。
スピーカー 1
なるほど、そうか。使いにくいというか普通の人が計算資源を使いこなすことができないみたいな。
スピーカー 2
そうですね。計算資源が生の状態であって、はい使ってくださいって言っても無理なわけでして。
それをやってる会社としてやってるのがまさにHugging Faceなんですけど。
スピーカー 1
なるほど、そうか。逆にこれの仕組みを深く知っていけばそういうところに応用できるっていうことなんですね。
ちょっと違う感じではあるんですけど。
そうか、面白いですね。ちょっともう一個質問していいですか。
スピーカー 2
ぜひぜひ。
スピーカー 1
以前から西田さんからよくエンベリングの話が出てくるんですけど、
関係性って考えたらいいのかな。エンベリングといった関係性みたいな落とし込みでいいのかなっていう。
そのモデルを言ったら文章生成とかで考えると文字の行列で関係図を作るみたいな感じじゃないですか。
それをバイオ系で何かと物質と何かの物質の関係性を作るみたいなイメージでいいんですかね。
はい、OKだと思います。
それがいろいろ作られているみたいな感じじゃないですか、バイオで。
YESって言っていいと思います。
それがいろいろ作られることによって薬を開発するのであれば、
スピーカー 2
なんか調合部、こんな素人的な言い方だけど、調合の仕方がいっぱいパターンが考えられていいのができるみたいな。
そういうのもあるみたいなんですけど、
スピーカー 1
そこまでいかなくても、スクリーニングとかって呼ばれてる、どういうものかっていうと、
これはもうダメデータか、まだ先があるかみたいなのを判別するのに、
スピーカー 2
そういうすごいこれだって予測するとかじゃなくてもですね、
もうこのデータ見込みなしかどうかっていうのを振り分ける、
ふるいにかけるとか程度のやつでもできたらいいんだけど、
そういうのに機械学習っていうか、機械学習モデルっていうよりは、
スピーカー 1
そういう単純な振り分けとかにも使えたりするみたいなので、そういう調合の方が。
これをこの先研究してもあんま何もないよね、みたいなことがわかるっていうことですか。
スピーカー 2
はい。
スピーカー 1
なるほどな。
スピーカー 2
そういうの程度でも使えたらありがたい、みたいな。
スピーカー 1
確かに言ったら、これは研究していこう、みたいなことが振り分けられるっていうことですよね。
スピーカー 2
はい。
そういうのにエンベディングみたいな感じのものが作れるっていうことなんですね。
それがエンベディングかどうかはちょっとすみません、わかってないんですけど。
スピーカー 1
でもそういうことをやる機械学習とかみたいな、ディープラーニングみたいなのを作るみたいなのですよね。
はい。
そういうのは面白いなと思ったのが、僕は株とかも投資したりするんですけど、
そういうなんて言ったら、実際調べたい銘柄ってそんなにいっぱいないんですけど、
それを探すためにいくつもの銘柄を見るみたいな。
それで勉強になってるしいいやんとかっていうのもあるんですけど、
時間を考えると、どこかでスクリーニングを入れるみたいな感じになるんですね。
かもしれないですね。
売上であったり、利益であったり、いろいろな指標を組み合わせて、
シンプルな生き地を決めてやるみたいな感じになるんですけど、
そうではなく、何かうまいこと、全然雑ないけど、モデルか何かを作ってできたら面白いっていうところですよね。
はい。
それをAI的な機械学習とかで。
面白いですね。スクリーニングか。
僕もそういうのを考えてみようと思いました。
なるほど。
スピーカー 2
なので、西田さんの今年の抱負をまとめると、ちょっと結構AI系な感じで、
スピーカー 1
その辺の研究をしていくみたいな感じですね。
スピーカー 2
じゃあ僕のやりたいことを話しておきましょうか。
はい。
スピーカー 1
僕はちょっと、最近は仕事を頑張ってるんですけど、仕事以外のメインを話すと、
ハンナリープログラミングっていうイベントを何年かやってるんですけど、
それ最近リアルで開催してないんですけど、それをリアルで開催するの面白いかなと思ってます。
で、ちょっと無料で開催させていただけるような面白い場所が京都で見つかったんで、
来週相談に行って、3月ぐらいからできたらなぁと思ってます。
で、結構みんなAIを研究しているが、最近健康感の場所がそんなないような気がしていて、
京都はもっとないんですね。
なのでそういう場所を作って、さっきも言ってたんですけど、
発展が早すぎてAIのどんどん出てくるものに流されて、
有効なものは実際どれなのかとかっていうのを咀嚼できれば、
流れに流されず、いいものが作れるのでは、可能性が上がるのではないか。
ツールとしてはね、めっちゃ発展していってるので。
なのでハンナリプログラミングもそういう場に、
今まではプログラミングプログラミングって感じだったんですけど、
そういうAIの技術を現実世界にどう落とし込むかとか、
西田さんがおっしゃってたような、インフラをどう使いやすくそれに適応していくかとか、
考えてもなかったんですけど、確かになぁと思って、
そういう会をできればなぁと、今の意見も聞きながら思いました。
西田さんもぜひ来てください。
行きます。
3月はLT会みたいなのをして、
いろんな人が来てくれたらいいなぁとかって思ってるんですけど。
だいたい何曜日でも行けますか、西田さん。
スピーカー 2
何曜日でも行けますかってわからないですけどね。
スピーカー 1
何曜日でも行きます。
以前と同じように金曜日とかにしようかなとは思ってるんですけど。
最近はずっとオンラインで開催してきて、
ちょっと僕が仕事忙しくて開催できてないっていうのもあるんですけど、
やっぱりリアルの良さもあるから、
すごい良い場所が貸してもらえそうなんで、
それがいいのではないかどうか思ってます。
スピーカー 2
いいっすね。
スピーカー 1
そうですね。
なんていうか、
生成AIでボカンと伸びそうなのは見えてるんで、
そういう意見交換とか、
できる人が集まったりしたらより面白いかなと思っております。
これが2025年、やってみたら面白いのではと思ってるとこですね。
スピーカー 2
やっていきましょう。
スピーカー 1
やっていきましょう。西田さんもぜひご協力ください。
無理やり運営メンバーに入れたので。
次の話題に行きましょうか。
最近のAIの展開っていうのを取り上げたいなと思ってるんですけど、
やっぱり展開が早すぎる感はあるなと思ってるんですけど、西田さんいかがですか。
スピーカー 2
そうですね。全然ついていけてないですね。
ディープシーク移行?
なんかダーッとなってるみたいなんですけど。
スピーカー 1
ほんまにダーッとって感じですよね。
スピーカー 2
今は一応、自分はオープンAIのChatGPTのプラスでしたっけ?
プラン名を忘れちゃいましたけど。
スピーカー 1
プラスですね。最初のやつですよね。
スピーカー 2
はい。で、ChatGPT03-miniっていうのが使えるようになってるみたいなんですが。
昨日からね。
まだ何も使ったことがないという状況です。
スピーカー 1
実は昨日、茶は今日の朝かな、ちょっと使いまして。
でももうO1-miniとO3-miniの違いもまだ分かってないというか。
ちょっと使ってみて。
結局、推論モデルと普通のChatGPT-00の違いっていうのも、
ちょっと調べてわかったんですけど、今日の朝。
結構、読んでいると、リーズニングモデルは、
ステップバイステップで考えてくれって言ってたのを、
強化学習で中でやれるようにしたみたいなモデルになっていると。
その段階を考えて、段階をきれいに設計して、
中でそれを対話しながら進めるみたいな。
スピーカー 2
それすなわち、これまでは自分で何回かプロンプトを入力してやらなければいけなかったことが、
強化学習というものによって自動的にやってもらえるみたいなイメージで。
スピーカー 1
そうなんです。そういうイメージだと僕も思ってます。
スピーカー 2
なるほど。
スピーカー 1
オープンAIのO1とかはそういう中身を見せてくれないんですけど、
ジェミニのディープサーチってあるじゃないですか。
スピーカー 2
はい。
スピーカー 1
それを使ってるんですけど、めっちゃ便利なんですけど、
それだと中身を見せてくれるんですね。どういうふうに考えようとしているみたいな。
ちょっと、ポッドキャストの方には見ないと思いますけど、
今ちょっと共有しているのが、調べた内容があれなんですけど、
ウクライナ紛争でゼレネスキー政権がどのようにSNSを活用したか、
方法をまとめてくださいみたいなことを調べさせたんですけど、
ここのテキストを投げると、ディープリサーチっていうのは、このように、
まず4つの観点、この場合は4つの観点を出してきた後、
こういう追加の視点とか色々なことを自分で調査するために考え込んで、
これでダメだったら計画を編集というボタンをポチッと押して、
これはこうしてくださいみたいなことを言って、
ここの内容が変わって、それでOKやったらリサーチを開始して、
レポートをこんな感じで作ってくれるみたいなふうになってるんですね。
たぶんこれがリーズニングモデルも一緒かなと思っていて、
たぶん質問、こっちが投げたものを噛み砕いて、
こういうふうに分析したらいいみたいなのを、
教科学習で作った脳みたいなところがやってくれるんじゃないかな。
スピーカー 2
なるほど。
スピーカー 1
で、うまく調べる方法とか、その内容を作って、ステップを作って、
それをこなしていくみたいな。
多いですね。
スピーカー 2
このディープリサーチのR、リサーチのRと同じ糸でRって使ってるのがディープシークR1でしたっけ?
1でしたっけ?
なのかなとかって伺ってて思ったりしちゃいました。
スピーカー 1
なるほど。
ディープシークのR1とかまで使えてないんですね。
スピーカー 2
僕も使ってないんですが、たぶんそれもディープリサーチと同様で、
途中の試行過程っていうのを出力して最後にレポート作るみたいなデモが。
スピーカー 1
リスニングって書いてますね。
スピーカー 1
リスニングのRか、すみません。
スピーカー 2
リスニングのRかと思うんですが、先ほどのディープリサーチと同じような流れ、出力ができそうでした。
スピーカー 1
なるほど。で、ちょっとだけ僕もディープシークのR1のことを読んだら、
その強化学習ステップを自動化してトレーニングしてるとか、そんな感じでしたよね。
すみません、ちょっと風呂をごめん。
スピーカー 2
そう聞いて、そういうイメージしています。
モデルをトレーニングするときにそうしてるっていう風な。
スピーカー 1
そうかそうか。モデルのトレーニングもそんな感じでしたよね。
全部人手が入ってないみたいになっているみたいなイメージですよね、ディープシーク。
スピーカー 2
はい。何かディープシーク検索っていう機能は、
どう使えなくなっているみたいなことが、そういうものがあるみたいですね、ディープシーク検索というのが。
つまり、エビデンス収集みたいな。
スピーカー 1
そうですよね、でもこのジェミニのディープリサーチとかもいっぱいの情報から集めてきて作ってくれるみたいな感じだったり。
もう検索がめっちゃ便利になっている感じはありますね。
スピーカー 2
そうですね。
スピーカー 1
検索がレポート作成になったみたいな。
スピーカー 2
そうですね。ちなみにオープンAIの方に、
Googleのディープリサーチみたいなもので、ジェミニのディープリサーチみたいなもので、ありましたっけ?出てるんですかね。
スピーカー 1
多分、ディープリサーチ的なのって言うと、やっぱO1とかO3とかといったらネット検索の機能も出てるんで、
それを組み合わせて使うとかになるのかな。
なんか、O3は多分検索とかができるっぽいんですね、今見たところ。
なのでそれを組み合わせて使ったら、もしかしたらできるのかもしれないですね。
ウェブ検索ボタンが使えそう。
ファイルはいかんのかな。
多分そんなんでできるのかもしれないですね。
ちょっとまだやってないんでわからないですけど。
でも普通に4Oで検索しても、ソースとか出してくれるじゃないですか。
それに近いことはやってくれてるのかなと思ってたんですけど、
4Oで調査、普通のモデルでやってるからそこの検索ワード、検索っていうか、
プロンプトをうまく作らないとあくまで詳しく調べてくれないみたいなイメージですね。
ペラッと調べた的な内容が返される。
オープンAIのオペレーターっていう。
出ましたね。
スピーカー 2
アメリカだけ使えるとかでしたよね。
スピーカー 1
名前だけしか。
オペレーターは基本的にコンピューターを使うのの自動化をやってくれるらしくて。
なんか面白いのが、オープンAIはそれ用のモデルを作ったみたいな感じなんですよ。
コンピューターを使うっていう面では、アンソロピックがコンピューターユーズっていうのを出してたんですよ。
でも、オープンAIの場合はここにあるみたいなコンピューターユーズイングエージェントみたいなので、
それ用のモデルを作ったみたいな感じなんですよね。
またなんかちょっと毛色が違うのかもしれない。
とんでもない勢いで動いていくんで。
確かにこれ見ると、人間がパソコンを触るより早いわなっていうのはよくわかりますね。
スピーカー 2
そうなんですよね。
コーディングはコーディングでまたいろいろ出まくってるじゃないですか。
そうですね。
スピーカー 1
クラインって読むんですかね、あれ。
スピーカー 2
はい。
スピーカー 1
そうですよね。
スピーカー 2
それ以外にも何か出てきたりしてるみたいです。
スピーカー 1
ChatGPTのO3 miniの後にはいっていうのがついてるモデルがあって、
スピーカー 2
それはコーディング&ロジックだそうでして、
スピーカー 1
これもまだ見えてるんだけどつかめなくて。
スピーカー 2
さらに何かすごい行動試練してくれるのかなと思ってるんですが。
スピーカー 1
そうですよね。
なんかもう理系のことは何でも任せろみたいな感じで読んでたら書いてあるような気がしていて。
開発とか爆速になるしかない未来が見えているけど、どうしていこうかみたいな感じですよね。
スピーカー 2
そうですね。ただAIでも仮説みたいなのを作ってそれを検証するみたいなところはまだ人間がやってんのかなっていう。
AIの出力を見て間違ってるとか、そういうのを出直したりするところっていう。
スピーカー 1
あとそれを見てこういうことかなああいうことかなみたいなのを考えるっていうのはまだちょっと僕らがやっちゃってるような気がするので、もうちょっと。
あれっすよね。それってなんかヒューマンフォース。
スピーカー 2
ヒューマンインループみたいな。
スピーカー 1
人間による強化学習みたいな感じのとこですよね。
そんな感じかもしれないですね。
スピーカー 2
それをディープサーチは自動化したみたいなのなかったでしたっけ。
スピーカー 1
ディープシークか。すみません、ちょっとうろ覚えなんですけど。もしかしたらそんなのがあったかも。それ忘れたな。
なんかいろいろ誇りすぎてて、もうついていけません。的な感じもありつつ。
そうですね。
モデルっていうかコードの生成に関しての話なんですけど、
やっぱりそんだけ賢くなったらどううまく使うかっていうのしか考えられないというか。
コード学に人がどう介在していくべきなんかとかも、もしかしたら面白い観点かもしれないですよね。
スピーカー 2
そうですね。
スピーカー 1
なんかそのあたりを今後考えてみるかいみたいな、ポッドキャストとか。
スピーカー 2
考えてる人を探してくるとか。
うん、なるほど。
スピーカー 1
面白いかもしれないですね。コード書くのなんかもう絶対早いですもんね。
僕もコラボでもVSコードでも、VSコードにはコパイロットを入れてて、
GoogleコラボにはGoogleのやつが入ってるっぽいんで、その2つを使ってますけど。
スピーカー 2
西田さんのほうがGoogleコラボのやつ早くから使われてましたけど。
スピーカー 1
いやーでも全然大した使い方してないですね。
いやでもなんかあれ保管されるだけでもすごい量が出てきてしまうじゃないですか。
はい。
スピーカー 2
でもちょっとそろそろ本格的にそういうのを考え込んで。
そうですね。そういうのに合わせた使い方を教えるっていうのをまさに範囲で、
プログラミングでやられて、どうでしょうか。やるおつもりですかね。
スピーカー 1
いや全然それは考えてなかったんですけど、逆にまずはそれをどうするか考えるとかからスタートかもしれないですね。
スピーカー 2
そういうことですね。
スピーカー 1
CPとか使ってるんですけど、そこでどうAIに開発してもらうかとか考え出すべきなのでしょうね。
スピーカー 2
これからは語彙、ボキャブラリーを知るっていうことが重要かもしれないと思いました。
スピーカー 1
プログラミングし始める人はテストとかいう語彙、ボキャブラリーがないので知らないと思うんで。
スピーカー 2
でもそういうボキャブラリーをいろいろ知ってたらもうコードはAIが作ってくれるので。
スピーカー 1
そうですよね。
でもボキャブラリーを知らないとAIに何も伝えることができない。
スピーカー 2
知ることができるのかもしれないけど、すごく周りくどい自然言語を言わないといけない。
スピーカー 1
そうですよね。なんか以前読んだChatGBDKの本にあったんですけど、
まさに今西戸さんがおっしゃってた通り、専門用語を使わないと解説が長くなるので指示を出すのは難しくなる。
一方で専門用語を知ってたらそれだけでできるから良いみたいな。
だから知識っていうのはより重要になるかもしれないなというのが書いてて、なるほどなって思ったりしました。
そうですね。
スピーカー 2
なんで本を読めっていうことですかね。
スピーカー 1
今僕の知り合いの人で生成AIとか使うのを勉強してる人がいるんですけど、
ノーコードツールのDeFiとかそういうのは使えるようになってきたけど、
結局ちょっとコードを書かないといけないとか、
AIが書いてるコードがわからないからPython勉強したいみたいに逆に戻ってくるみたいな話も相談も受けてたりするんで。
なんかおっしゃる通り、今までみたいなPythonの本を一冊覚えるとかじゃなくていいと思うんですよね、逆に。
スピーカー 2
同感です。
スピーカー 1
その学びを作るって面白いかもしれないですね。
どういうふうに言ったらいいかな。
生成時代にアプリを開発するためだけの知識を、みたいな。
スピーカー 2
結構そういうアプローチで本を書いて出版されてる人もいるのかもしれないですね。
あんまり本読まなくなっちゃったんでわかんないですけど。
スピーカー 1
確かに。
僕、年末年始、結構生成AI系の開発系の本とか読んだんですけど、
結局できる人に対して、今まで通りのライブラリーの解説みたいな本でしたね、今あるの。
スピーカー 2
身体の拡張、存在の拡張、感覚の拡張、認知の拡張って書かれてると。
アルファフォールドは認知の拡張なんだろうなと思います。
スピーカー 1
そうですね。
将棋の例も認知の拡張ですね。
スピーカー 2
なるほど。
スピーカー 1
習得したり理解したりするプロセスそのものを拡張するみたいな。
スピーカー 2
どういう拡張をしたいのか。
AIっていうのができるのは認知の拡張だけなんですかね。
他にもいけると思います。
スピーカー 1
感覚の拡張とかも、もしかしたらできるかもしれないですよね。
スピーカー 2
そっか、確かにそうですね。これはできるでしょうね。
スピーカー 1
目の見えない方に対してのサービスみたいなのが作られていたりするので。
スピーカー 2
確かに。
スピーカー 1
存在の拡張はよくわからへんけど。
スピーカー 2
でもこれはですね、存在の拡張っていうのは
遠隔作業を可能にするとかって書かれてるんですけど
AI関係はありそうです。
これロボットにやらせるみたいなのが含まれると思うんですけど
ロボットの動作っていうのもかなりAIっていうのが使える。
スピーカー 1
ああ、確かに。そうすると身体の拡張にもつながりますよね。
ロボットが勝手に意思通り動いてくれるのであれば
スピーカー 2
身体の拡張、存在も身体も似たような感じでしかちょっと理解できてないんですけど。
スピーカー 1
なるほど。全部を拡張できる可能性が
付属ツールも必要かもしれないがあるかもしれないっていうとこですね。
そうですね。
そうなんですよ。だからAIを早く使え。
しかもAIがいろんなことに簡単に使えるようになったのが
スピーカー 2
文章生成AIのところかなと思ってまして。
スピーカー 1
ちょっと試してみると、うちの小学生の子どもとかでも
スクラッチを最近やらしてるんですけど、
スクラッチを生成AI使って調べられるよみたいな感じで言ったら
それで調べて勝手にカンカンやっていくみたいな感じになったりもするんで。
ちょっと使いこなすとかっていう意識はないと思うんですけど
普通にチャットしてるだけみたいな。
スピーカー 2
そうですね。
スピーカー 1
逆に大人の人の話を聞いていると
検索以上のことをできるかどうか
試せないみたいな人が多くて、検索と何が違うねんで止まってしまう人が大人は多い。
素直に聞けないのかもしれないですけど。
素直に聞いたら色々答えてくれて間違ってることもあるけど
やっていけると思うんですけど。
昔から産業革命とかで工場の自動化とかについていけなくて
その機械を壊す運動があったとかみたいな話とかあるんですけど
そういうのでついていけにくいのか何なのかよくわからないなと思ってたんですけど
実際そういうことがもしかしたら起こり始めていて
今後10年でそんなことが見えて
実は自分が失業する側なのかもしれないですし
スピーカー 2
そういう上手く使いこなせないっていう人ほど
拡張っていう概念を感じた方がいいのかもしれないですね
スピーカー 1
そうなんですよね。僕もビジネスモデルコンテストに
AIを使ったアプリケーションっていうのを出して
スピーカー 2
実は賞がもらえたんですけど京都商工会議所で
スピーカー 1
それをもっと上手く伝えるのに
っていうので資料を探して
この身体的能力の拡張みたいな話が出てきて
すごい最近の出来事にも合ってるなと思って
もはやスポーツ選手とかで休憩時間にタブレットを見てるのとかって
当たり前になってきてる感じがあるんですけど
そういうのはもう言ったら
デジタルツールを使った能力の拡張なのかな
理解するために上手くデータを使うとかっていうのも
言ったら今まではこう
相手のボールを感覚で感じてこう
カーブがこいつは多いからカーブを打とうみたいな感じになってたと思うんですけど
データだけ見てなんかやってるみたいな感じが
よく文句っていうか
そういうのは昔と違ってよくないねみたいな話もありますけど
自分の中で何かを意識して使うとより何か色々できるのかなと
確かに
その意識するっていうことに
人間のほうが語彙を学ぶ必要があるっていうのも含まれて
なるほど
スピーカー 2
思いました
語彙がないまま
自分がその
スピーカー 1
自分 人間がもやっとして思ってることを
スピーカー 2
うまく伝えれないから
AIに対してあまり使えないとかっていう不満を
持ったりするんじゃないかなという
思いがあったりとか
そういうのがあったりとか
あまり使えないとかっていう不満を持ったりするんじゃないかなという
意気に出したんじゃないかなと
スピーカー 1
そうなんですよね
僕もなんか
いろんな人にChatGPTを使わせてみたんですけど
おっしゃる通り
言語化が難しいっていうのは一つは
大きな課題としてあって
なんかうまく
今までこう
話をうまくできてるのかと思ってたんですけど
あんま伝わってないっていうことも
分かってきて
もっと丁寧に説明したほうがいいとか
やっぱ相手
ChatGPTとか使うことによって
理解してもらうためにどういうふうに伝えるかみたいな
より考えるように僕も
なってきて
そうすると人の話してることも
この人は確かに分かりにくいんやなとかっていうのも
逆に見える
面白いんですけど
なんか思ってるほど
人はもしかしてこの話してる自然言語とかも
理解したり聞いてなかったり
うまく使えてなかったりみたいなことを
生成AIを使ったこの2,3年で思いましたね
そうですね
だから西田さんがおっしゃるように
拡張するためにどういうことを
どういうボキャブラリーを増やすかとか
どういう意識をするとか
っていうことかな
スピーカー 2
少なくとも言語を入力としたり出力としたり
っていうのでAI使う場合はもう
それは必要かなという気が
スピーカー 1
いやそうですね
結局
文章生成とかの原理を考えても
入力した文の続きを作るみたいな感じの構造やから
入力の文章のクオリティが低ければ
低いものしか出ない
それを避けるために
リーズニングモデルみたいなのが出てきてるけど
結局それも質問がちゃんとしていないと
うまく調査のステップが作れないみたいな感じでしょうね
そうですね
なるほどな
こういう技術
AIとかを使っても人間の能力は拡張されそうで
必要なのは自然言語かもしれない
スピーカー 2
自然言語の能力の拡張というか獲得
スピーカー 1
なんですかね
そうですね まずインプットがそれなんで
そうですよね
もうちょっと考えると
インプットも英語の方がいい可能性の方も
結局モデルが英語でいっぱい学んでるから
英語のアウトプットのクオリティの方が高いとかってよく言われますけど
スピーカー 2
そうですね
ディープ・シークも最初は英語と中国語だけなんでしたっけ
スピーカー 1
そうですね
なんやかんや言って日本人にとって
マスターが簡単なのは多分中国語より英語なので
英語も頑張れっていう
今までとそんな変わらない
結局あんま変わらないかなと思うんですけど能力
意識するポイントが変わるのかもしれないですね
AIを使った拡張
能力拡張みたいなところで
おもろいな
こういうのをもうちょっと考えていくと
何かになるかもしれない
スピーカー 2
そうですね
ハギング・ヘイスにちょっと戻るんですけど
ディープ・シークで日本語をある程度扱えるようにしたみたいなのを
サイバーエージェントっていう会社がやって
ハギング・ヘイスに置いたみたいなことを
認識しているんですけど
スピーカー 1
なるほど