人工知能について考える(その1)です。


【今回の内容】

前回の振り返り/言葉の殴り合い/倍返しだ!/世界の見方が違う/数式の暴力/誇大広告の懸念/本に対する期待/AIエージェントの現実/自律的とは何か?/上司の上司の目線/抽象度の階層を上がれるか?/プロンプトの与え方による?/Googleのミッションから考える/具体的な指示と抽象的なゴール/AIのポテンシャル/10年前のAIエージェント構想/裏側のロジックと表側の振る舞い


◆その仕事、AIエージェントがやっておきました。 ―ChatGPTの次に来る自律型AI革命

https://amzn.asia/d/iZGQiCF


【パーソナリティ】

とよだ:富士通で働くビジネス哲学芸人。

ショーン:シリコンバレーのテック企業で働くデータの魔術師。


【番組へのお便りはコチラへどうぞ!】

https://forms.gle/zGGArQTnfGuKY6Pj9


※このラジオは、個人の見解に基づくものであり、所属組織を代表するものではございません。


#白米FM #哲学 #AI #人工知能 #ChatGPT

00:10
で、前回は、トピックとして… うーん、ちょっと待って、タイトルなんだっけ、まず。
あの、私を取り戻す… ちょっと待ってね。
あの、すげえいいタイトル。愛を取り戻すみたいな名前だったっけ?
えっと、アイを取り戻せ、私を取り戻す哲学について考えるっていう回をやったわけだよ。
で、そのカギ括弧、私を取り戻す哲学という本を読んで、
それについて2人で理解しようとしたわけだけど、
前回の最後にさ、とよだくんがやってる最中結構面白くて、
普通は、やってる最中そうでもないなって思いながら聞き直すと、まあまあいいかなっていうのがわりと多いと。
で、今回は、やってる最中は面白かったんだけど、後で聞いてみるとどうかなっていうのが1つ気になるところって言ってたと思うんだけど、
そこについてね、ちょっと聞いてみたいなと思って。どうでした?
あ、でもやっぱ聞き直しててね、面白かったよ。
お、そう。
うん、面白かった面白かった。
その、やってるときに面白いと思ったところと、後で聞いてるときの面白い点は違った?
いや、一緒だったと思う。
で、なんで面白かったのかなと思ったのが、
なんかね、しおくんがすごいイキイキと批判してたからじゃないかなと思った。
いやー、それ、自分でもちょっと感じたよ。
あの、録音が終わった後もさ、ちょっとディスコードで言ったけどさ、
ちょっと自分テンション上がりすぎてたかなとか、熱が入りすぎてたかなと思って、
でもね、逆に後ろめたいというか、なんかちょっとトゲがあったんじゃないかなとかさ、やりすぎたかなとかさ、思っちゃったね。
いやでもね、俺それがやっぱね、嬉しかったんだと思うんだよね。
なんかすごい水を得た魚のようになんかね、イキイキと喋ってたからね。
いや、あとさ、もう一個懸念だったのはさ、こうなんか正論を振りかざしてる人みたいな。
なんかあのほら、あのなんだっけ。
えっと結局、その回でもさ、例えば反ワクチンとか、なんかこう世の中のためにいいと思って、
こうエネルギーを得て、こうやってるのと変わんないんじゃないかなとか思ってさ、
自分で正しい批判みたいなのをしてる、こう正義の旗を振りかざしてる自分がいたような気がして、
なんかふとメタ認知すると、結局自分もやっぱりこうね、正論を言えてる瞬間はそうなってたんじゃないかみたいな、
03:00
なんかそういうメタ認知をその後してさ、みたいな。
たぶん普段やっぱそれを自分がこうメタ認知して制御してるのが、外れてたから楽しかったのかもしれない。
その意見、その率直にさ、自分の感じてることを、なんかお互いぶつけ合ってた感じがしたから面白かったのかもしれないなと思ったんだよね。
俺良かったと思うけどね。
そうか、良かった。とかそのとよだくんがさ、何も言えねえみたいな感じでどんどんシューンってさ、
何ていうのかな、殴り合いに例えるとしたら、本当にこうお互い半々ずつやり取りができてたかなとかさ、
まあでもとよだくんとしては悪い気分ではなかったと。
そうそう、たぶんそれが面白かったんだと思うんだよね。
なんかいつもより強いパンチを感じて。
そうだよね、だいぶ強めだったよね、前回。
なんでこんな自分を強く言ってんだろうなとか思って。
え、その時はさ、なんか自分としてはいつもと違う感じだったの?
まあね、違う感じというか、割とネエルギーにあふれて話しちゃってたよね。
それ何でなんだろう?何がいつもと違ったんだろう?
まあもどかしかったのかもしれないね。
読んでる時にそのわからない点とかなんか筆者に対して疑問に思ってて、
それが溜まってたからそれをワッと吐き出しちゃったんじゃないかな。
だからそのモヤモヤが溜まってたのを吐き出せたから良かったっていうか、
テンションが上がったのかもしれないね。
あんまモヤモヤだと思ってなかったんだけど、今そうやって言語化するなら。
もともとこの白米でモヤモヤを話そうみたいなことを言ってたけど、
モヤモヤの意味としてはどっちかというと答えがないこととか、
よくわかんないことを話そうって話だったんだけど、
まあそのもともと想定してたモヤモヤではなかったんだけど、
ある意味今回本読んでよくわかんないとかちょっと疑問に思うモヤモヤっていうのを、
確かに文字通りそれを話して自分はスッキリする過程に入れたから、
良かったのかもしれないね。
なんかいつも俺がやってるのはそれなんじゃないかなと思ってて、
06:02
なんかこう世の中的に一般的にそう言われているんだけど、
なんか自分の中で納得いかないというか、
なんかすんなり受け入れられないんだよなみたいなところを、
いつも話してる気がしてて自分が。
前回はしおくんがそういう感じだったってことだよね。
うん、それを本に対して感じてたから、
まあ本に対して思うってあんま想定してなかったんだけど、
たまたま本に対しても同じようにモヤモヤがたまっていって、
それを解消というか、とりあえず机の上に出すっていう過程は前回できたかなっていう。
そうね。それでなんかモヤモヤは何解消したの?
まあ解消はするんじゃない?やっぱりそれで納得してもらってそうだよなって言ってもらえたら、
自分一人だけじゃないんだというか。
それを受けて、やっぱりこの筆者にはこうなんだよって、
とよだくんがその筆者の帽子をかぶって代弁してくれて、
じゃあその視点は確かに抜けてたみたいな。
そういうやりとりがあると一歩進んだ気はするけどね。
なるほど。
筆者にさらに批判というか質問を受けて、
一歩さらに進んだ答えが得られるのがベストだけど、
そこはね、ちょっとまだ至れてないというか。
あの話をして、まだやっぱり本が言いわんとしてることというか、
あの本の良さみたいのはまだピンときてないって感じか。
そうね、なんとなくは分かってると思う。
だからその些末なところにとらわれすぎてたのが、
ちょっととらわれなくなった可能性はあるかも。
なるほどなるほど。
前アトミックリーディング読んで、
結構俺その時にアトミックリーディングに対して割と批判的な意見を述べてたかなと思っていて、
でそのちょうどリベンジ?リベンジ編が前回だったのかなと思って。
しおくんにとってね。
で、今日本編というかこれからある本をまた読んで、
その感想を述べるみたいな感じになると思うんだけど、
それはどうなるかなって。
10倍返しになって返ってくるかもしれない。
09:03
そう。
すでにね、このちょっとした1行2行のディスコードのやり取りで、
何かもう感じるものはあるからね。
こう思ってんだろうなーって。
もうなんかジャブは来てる。
そうかそうか。
だからことでも面白いかもなんだけど。
でも、
やっぱり我々は結構真逆というか、何か違うよね。
違うよね。
そうまさんの回でも、我々真逆だよねーみたいな感じで言ってたけど、
何か違うよね。
何か違うよね。
何か違うよね。
何か違うよね。
何か違うよね。
そうまさんの回でも、我々真逆だよねーみたいな感じで言ってたけど、
やっぱりちょっと何か世界の見方が違うよね。お互い。
違うよね。
でもそれがね、やっぱりいいんだと思うんだよな。
そうだね。
その違う見方を持っている2人が話すからいいんだと思うんだよね。
そう。
なんで今日は、その100倍返しが見れるかどうかっていう。
今度は僕が受ける番ってことだよね。
そうそうそうそう。
パンチを。
わかんないけどね。
じゃあ本編のほうに移ろうか。
ということで、今回はまたもう1個本を持ってきて、
僕がこの本読んでみないって言って提案した本があって、
その本の名前が、その仕事AIエージェントがやっておきましたっていう本で、
チャットGPTとか、自律型のエージェントとかチャットボットが来て、
世の中がどうなっていくのかっていうことに、結構皆さん興味があると思うんだけど、
それについて、数式を使わなくて結構理解できると言われている本を、
僕がたまたまそのとき紹介されて、ちょっと読もうかなと思ったときに、
数式使わなくてもいいって言われてたから、
じゃあとよだくんにも紹介して、どう思うかなと。
なんかこの数式使わなくてもいいってところが、
なんか俺が数学できないからみたいな、なんかそういう。
いやいやいや。
聞こえたんだけど。
いや、たまたま他の人にもね、
そのLLM、大規模言語モデルとかを理解したいんだけど、
僕がなんかその数式使わなくても理解できる本があったら紹介してって言われてたのね。
他の人に。
で、そういう本ないかなってずっと探してて、
で、それをまた別のコミュニティで見つけて、
12:01
自分も読もうかなと、その人に紹介するために読みたいなと。
で、いきなりコードとかさ、
数式でLLMの中身を理解しようみたいな本だと、
たぶんとよだくんに紹介してもなって思ったわけよ。
そうじゃない本だよって意味で、
できないことを強調してるわけではなくて。
はいはい。
オッケーオッケーオッケー。
じゃあ今日は何ですか?
AIについて語り合う会みたいな、そういう感じになるってことですか?
そうそうそう、そういう感じにできればなと思っていて、
その本自体は結構軽い本だったよね、そもそも。
ちょっとその感想というか、
ざっくりどんなふうに思ったってとこか聞こうかなと思うんだけど、
僕は割とサクッと、もう1日以内で読んじゃって、
なんかこういう本かと。
確かに数式使わなくて読みやすいし、
去年の2023年の3月以降の変化かな、
3月から11月ぐらいまでの変化は、
ちゃんと入っていて、
で、なるべくこう移り変わりが早いから、
その最新度まで入れてさっさと出そうって言って、
結構スピーディーに出している本だなっていう印象を受けたね。
で、自分も一応アンテナ張ってたつもりだったけど、
こんなにメジャーなとか人気が出ているようなパッケージとかツールとか、
その方向性として、
こういう方向に結構皆さん動いてるんだなっていうのも、
把握できていないのとかあったりして、
そういうのを把握するにはまずすごい役に立ったなと思ったのね。
それが一つかな。
で、その後実際に自分で手を動かしてみて、
より深く理解していく、
最初の一歩にはすごく役に立って、
で、とよだくんにもこんなの動かしてみたよとか言って、
スクリーンショットを送ったと思うけど。
そしたら、まあいいや、そういうのがあったんで。
まあそれが僕の感想?
はい、わかりました。
とよだくんはどうでしたか?
まず今日AIっていうテーマで、
なんか我々、この番組の説明欄みたいなとこにさ、
日米のIT業界で働く二人が、
最新トレンドから哲学思想までみたいなのが書いてあるけど、
なんか全然ITっぽいこととかトレンドっぽいこと、
何もしゃべってないなと思っていているので。
ようやく出てきたかみたいな。
そうだね。
なんかそんな感じで、
だからなんか今までずっと書いてたやつがさ、
なんかその誇大広告みたいになっちゃってたのが気になってたんだけどずっと。
15:03
そうか。
ようやくこれで出てきてくれたので。
ちゃんと誇大広告じゃなくなったなと思って、
今僕はちょっと安心をしているっていうのがまず一つ。
もう一年経って。
もう一年経ってようやく。
ようやく出てきたということで、
安心しましたっていうのがまず一つと、
このその仕事、AIエージェントがやっておきましたっていう本ね。
まあこれを読んでみたんだけど、
まあはっきり言っちゃって、
期待外れだったね。
そう?
何に対する期待?
それは本に対する期待なのか、
AIが今盛り上がってるけど、
そのAIに対する期待が外れたのか。
どっち?
いや本だね本だね。
本。
何だろうな、このタイトルから僕がイメージしたのは、
今AIエージェントっていうのがだんだん盛り上がってきました。
今現状はAIエージェントとしてこういう仕組みで動いていて、
こういうことができますよと。
今はこういうことしかできないんだけど、
将来的にはこういうこともできるし、こういうこともできるし、
こういう未来が待ってますよみたいな、
そういう未来を感じさせてくれるような本なのかなと思ったんだよね。
でも実際読んでみたら、
何て言うんだろうな、今現状AutoGPTとか、
なんかいろいろあったじゃん?
エージェントが、AIエージェントが。
今こういうのがあって、こういう感じなんですよ現状はね、
以上みたいな感じで終わっちゃったから、
あれー?みたいな。
なんか今現状をただ説明してるだけじゃん?みたいな感じだったんだよな。
そういう意味で期待外れだったっていう。
本に対してね、じゃあ。
本に対してそうそうそうそう。
何だろうな、その仕事をAIエージェントがやっておきましたっていう日本語は、
何だろうな、AIエージェントが自律的に、
マスター、主人のやるべきタスクみたいのを事前に自分で察知して、
指示もされてないのに、
もう私が先に先んじてやっときましたよみたいな、
そういう感じを想像させるよね、このタイトルは。
でも実際ここで書かれてるAIって、
なんか自律的っていうよりは、
何だろうな、やっぱ結局そのユーザーが、
これをやってみたいな目的、ゴールを定めてあげないといけないし、
その定められたゴールに対して、
18:01
それをただ単純にタスクを分解して、
その分解したタスクを逐次的に処理してるだけじゃん?みたいな感じ。
AI自体もまだ現状そういう程度なのねっていう、
何だろう、期待外れというか、
まあその程度かみたいな感じにはちょっと思ったね。
なるほど。今のはじゃあまた別の期待だよね。
今度はAIエージェントとか、
ChatGPTに対する期待があって、
そことのズレみたいなのを話してるね。
今言った、自分の何かをやりたいことを察知して、
やっておきましたみたいな、
AIエージェントとかやっておきましたっていうことと、
その、自分の、
自分の、
自分の、
自分の、
自分の、
自分の、
そのタスクを分解して、
で、それを一個一個処理したのって、
何か違うのかな?今、
最初に言った方は、
例えばこのソフトウェアを作りたいなと思ってて、
こういうソフトウェア、何かその説明を書くと、
一応そのAIエージェントたちがさ、
CEO、CTOと何かデザイナーって言って役割分担して、
それぞれが話し合って、
その、人にさ、タスクを振った時のように、
何か分散して、そのタスクとか役割を勝手に作っていくと。
で、問題にぶち当たっても、
それを自律的に解決して、
ソフトウェアを作るよって話してたと思うんだけど、
それって、とよだくんが、
やって欲しいことをやってるってことにはなってないのかな?
自律的にというか予測して動いてる。
そうだね、だから自律的っていうところの、
言葉の定義かなとも思うんだけど、
僕のイメージだと、
それはあくまで自律的とは言わないで、
ただ与えられてる仕事を、
なんて言うんだろうな、こなしてるだけみたいな感じに見えるんだよね。
自律的って言うと、
なんかその、紹介されてたAutoGPTとかそのAIエージェントって、
あくまでそのユーザーが指示したゴール?
より低い抽象度のタスクしか、
多分できないんだろうなって思ったんだよね。
何かAっていうゴールを与えられたとして、
そのAっていうゴールより低い抽象度のタスクみたいなのに分解して、
21:06
それをやっていくみたいな感じ?
僕がイメージしてる自律的って多分、
そこがメタ認知できてないといけないんだと思うんだよね。
そのAっていうタスクが与えられたとしたら、
そのタスクが、さらにその上のレイヤーで言うと、
何の目的に沿ってそのAという目的が与えられてるのかみたいなのを想像して、
で、何だろう、動くみたいな感じ?
前、会社で自分の上司の上司の目線で仕事してみるといいよ、
みたいなアドバイスを受けたことがあって、
何て言うんだろう、自分の上司が自分に対して指示を出すんだけど、
その上司はさらにその上の上司からの指示に基づいて、
その指示を出してるはずで、
さらに上のレイヤーの意図というか目的というかそれを汲み取って、
自分で何をすべきかっていうのを判断して動けるっていうのが自律なのかなと思って、
僕の中のイメージではね。
で、今現状のこのAIエージェントはやっぱりまだそのレベルまでは達してなくて、
あくまで上司から言われたことを自分でタスク分解してやりましたっていう。
レベルかなと思って、そこの違いかな。
僕の期待値とのずれというのは。
あの、2つ質問というか聞いてみたいなと思ったのが、
そのプロンプトって色々変えれるわけじゃん。
で、今その本に書いてあったのは、
タスクが与えられて分解してっていう例しか出してなかったかもしれないんだけど、
その指示をして、ちゃんと、
メタ認知っていうのかな、1歩下がったり2歩下がって、
上司の上司の目線で、他にも例えばどういう理由があるのかを想像したり、
他のそのタスクをやらなくても、例えば良い方法を探索したりとか、
なんかそういう指示をうまく出すことによって、
今のその、ChatGPTとAutoGTPが、
なんかとよだくんの言う自律的に振る舞えるようにはできないのかな。
なんかどうやったらそれを実現できるんだろうっていう風には、
なんか一緒に考えてみるとどうなんだろう。
あー。いやー難しいと思うんだよねー。
なんでだろうね。
もしくは最初のタスクを、例えば次元を低くして、
24:00
多分ね、なんかこう、とよだくんの中に、
ここまでしかできないだろうっていう、なんかこう、
ChatGPTに対しての線引きをしちゃってる感じがするのね。
で、一番高いゴールをそこに持ってきてるから、
それ以上上にはいかないでしょうっていう見方をしてる感じがするんだけど、
じゃあ先に最初のタスクを2個ぐらいレイヤーを下げてあげて、
で、そっからChatGPTが2個上にこう上ってこれるかみたいな。
で、それができてたら、ChatGPTは自律的って言えるのかね。
例えば、もっと何だろう、次元の低いこういうタスク、
何だろうなー、この、何だろうね。
あー、まあでも、さっき言ってくれた次元を上がってこれたら、
それを自律的と言えるんじゃないかなって気がしたね、今直感としては。
なんか単純なExcel作業でこれをAからBに移して、
こういう作業をしてほしいんだけどって言って、
で、それを2,3回例えば繰り返して、最終的にはこういうのを作りたいとかあるとして、
人間のユーザーとしてはすごいこうやんなきゃいけないって思い込んでると、
なんかHowの部分で。なんだけど、それ全体を見て、
ChatGPTからは、でもそれ以外にもこんなやり方で、
最終的にはこれを成し遂げたいんだったらできますよ、みたいなことはできると思うんだよね。
お、マジで。でもそれで提案してきたら、そいつは自律的じゃんって俺は多分評価する気がするな。
うん。例えばあとは、
例えば英語とか日本語も、多分だからプロンプトとか聞き方によるんじゃないかなと思うんだけど、
今こういうシチュエーションでこういうことを誰だに言おうと思ってますと。
で、そのとりあえず文法とかなんかこうミスがないかを直してほしいですと。
ただ、実はこういう目的もあるので、それに関してなんか気づくことがあったら、
別の、この文章にとらわれずに他にも手法を提案してくださいとかいう聞き方をしたら、
とりあえずその文章の構成みたいなのをしてくれるけれども、
もしそれが目的だったら一歩下がって、そもそも全く違うやり方のこういうことを話してみる、
こういうことを考えてみるとか、なんかそういう一歩下がって、
なんか別のことをするとか、考えるってことはやれるんじゃないかなと思ったんだけども。
それで今思ったのは、でもやっぱその一歩下がって考えろっていうプロンプト打ち込んでるからそれができるんだろうなと思って、
27:04
そのプロンプト打ち込んでないのに自分で一歩下がって考えることを俺多分期待しちゃってるんだなと思ったね。
そうしたら最初からデフォルトで打ち込んでおけばいいんじゃない?それを毎回。
ん?デフォルトで打ち込んでおけば?
例えばOpenAIの人とか、今ChatGPTを使ってボットっていうのがいくらでも作れるようになったらね、なんか本当にコーディングいらなくて。
で、最初のデフォルトのプロンプトというか、このChatGPTは何に関するChatGPTなのかっていうのを規定できるから、
最初の時点で常に一歩二歩下がって他の方法とか、そのタスク自体を疑うとか、そういうことも必ずやるっていう風に入れておくことができて、
ユーザーとしてそのチャットに話しかけた時には何がそのプロンプトに入ってるかなんて知らないわけだよね。
だからそういう意味では、そのユーザーにとっては、このChatGPTは自律的に動いてるなとか、言われたことだけやるんじゃないんだなっていう風になるかなと思ったんだけどね。
あともう一個気になったのが、自律的とはっていうところは、人間でもさ、結局同じようなことあるような気がして、
言われたことだけをやる人と、自律的にとか一歩下がってとか、上司の上司の目線で考えようとする人。
で、とよだくんも上司の上司の目線を意識してやった方がいいんだよっていうプロンプトが入ってたわけじゃん。数年前かわかんないけど。
だからどの時点から自律的かっていうと、どっかでそれが入ってても別にそれは関係ないんじゃないかなとか思ったんだけど、そこはどうなんだろう。
どっからが自律的だっていうんだろうね。
でも俺、上司の上司の目線で仕事しろっていうアドバイスはもらったけど、別に俺それは採用していないので。
あ、してる?
俺の中には入ってないね。俺の中には入ってない、そのプロンプトは。
あーなるほどね。
そういうアドバイスを聞いただけ。
自律的っていう僕がイメージから出てくるイメージは、例えばGoogleがその会社のミッションとして、なんか世界にある情報を整理して、誰もが使えるようにするみたいなミッションだかビジョンだかを持ってるじゃない?
それを、そういう大ゴールみたいのがあって、そのゴールだけ示されているんだけど、でもじゃあ具体的に何するかみたいな何も示されてないと。
30:08
で、その中で自分で環境を見て、この環境から情報を取得して、こういう環境だったらこういうのが必要だよねとか言って、例えばGmailとかGoogleマップとかそういうサービスを出してくる。
それは自律的だと思うし、人間の仕事、やるべき仕事、そういう仕事がまさに人間がやるべき仕事だなと思っていて、なんかそれがAIができるようになるとは僕は思えないんだよね。
その規模感の問題かもしれないね。とよだくんが言ってるのは。その世の中の情報を集めるんだっていうゴールが割と壮大な話をしていて、その文字通りね、その言葉だけを取って何かゴールがあって、それに向けて例えばGmailを作ってそれに必要な情報を取ってくるみたいなのは、
さっき言った、例えばChatDevって言って、大目のこういうソフトウェアを作るんだとか、AutoGPTもこういうものを作るんだって言ったときに、それを分解して、かつ必要な情報があったら取りに行くっていうのはできるよね。
アナロジーとしてとか、平行線の小さい版としてはやってることは同じなんじゃないかなと思うんだよね。でも規模感が。
そうかな、例えばGmailっていうのを作りたいってなって、Gmailっていうのはこういうことができて、こういうソフトなんですよ、アプリなんですよっていうのを指定して定義してあげれば、じゃあそれを作るために何が必要なのか情報を集めてきて、じゃあ実際コードとかを打ち出しますみたいなことはできるんじゃないかなと思うんだけど、
世界の情報を整理して、誰もが使えるようにするっていう指示だけ与えられて、じゃあGmailが必要だねっていうところは、なんかできる気がしないんだよね。そこになんか飛躍がある気がしていて、そのGmailを出してくるっていうところ。
大きいレベルを上げたらね、たぶんできなくなるとこは出ると思うんだけど、ゴールを与えて。
で、具体的なゴールを与えればたぶんできるんだけど、AIは。でもその具体的なゴールじゃないじゃん、そのGmailを。あのGoogleのビジョンからGmailとかGoogleマップを出してくるってところは、具体的な指示は何も与えてないのに出てきたわけじゃない?そこがなんか違う気がするんだよね。
なるほどね。
具体的な指示を与えてないのに出てくるっていう。
33:01
なんか具体的っていうのもさ、なんかレベル感がいっぱいあるじゃん。
はいはいはい。
で、たぶん3年前とかだったら、Gmailを作ってっていうだけだったら具体的な指示って誰も思わなかったと思うんだよね。
あー。
具体的にGmailをどうやって作ったらいいかなんてソフトエンジニアじゃなかったらわかんないじゃん。
はいはいはい。
どんなコードを書いて、どんなテクノロジーを繋いで、どんなアーキテクチャがいて、っていうのをわかんない人にとっては具体的な指示じゃないじゃん、Gmailって何なのと。
で、今はそれが具体的な指示っていうふうに言ってるような気がしたんだけど、とよだくんは。
おい。
なんかその時代が進んで、できることの具体レベルみたいなのは、抽象化レベルっていうのかな、上がってきてるかなと思うんだよね。
なんかソフトウェアこういう名前のものを作ってっていうのって具体的。
うん。
まあでも、ちょっともう一個聞いてみたいなと思ったのはさ、こういうのを見た時に、これがね、例えば子供だったとして、この子供、自分の子供が何ができるようになるか、もしくは何ができないのかっていろいろな見方があると思うんだけど、
なんかこう、この子供は何ができるんだろうなっていう想像する仕方をしてみようとするとどう思う?
そのとよだくんが、今確かに今のChatGPTを見ると、ああ、これはやっぱできないのかっていうこう、なんていうか、どっちかというと下側を見てる感じがしたんだね。
うんうんうん。
なんだけど、その上側のポテンシャルみたいな、今後どういうことができるんだろうなっていうのを想像するとどうなると思う?っていうのを聞いてみたかった。
そう。それをその仕事、AIエージェントがやっておきましたね、書いてほしかったんだよ、俺は。
おお。うん。
で。
まあ、そうね。タイトルはミスリーディングかもしれない。
うん。
それが何も書かれてないってことは、たぶんこの書いた人はわかってなくて、それがイメージできてないんだと思うんだよね。
うんうんうん。
で、俺もイメージできてない。
うん。
俺がね、このAIエージェントみたいのって、10年前ぐらいにこういうのが欲しいって言って、会社で新規ビジネス企画みたいなやつで、ジャストアイディアで同じようなこと考えてたのね。
で、その時イメージしてたのは、例えば俺の代わりに、もうメール、例えば誰かさんからメールが来て、そのメールの内容を読み取って、いい感じのメールを俺が何もやらなくても返してくれるとか代わりに返してくれるとか、そのメールの内容を読み取って打ち合わせのセッティングをしてくれるとか、
36:07
なんかそういうイメージだったんだよね、俺がその時考えてたのは。
それって、こういうメールが来たら、じゃあ打ち合わせをセッティングしてくださいみたいな、プロンプト的な指示を、俺はなんかそのAIに自分で打ち込むつもりは全く想像してなくて、
なんだろうな、その普段の俺の動きとかやりとりを見て、勝手に学んで、勝手にエージェントが何か忖度して動いてくれるみたいなのをイメージしてたんだね、その時。それはなんか自律的だなぁというのを感じていて、
なんだろうな、ちゃんとルールベースというか、こういう時はこうして、こういう時はこうして、みたいなのをルールをこっちでプロンプトで打ち込むのは、なんだろうね、やっぱ自律的な感じしないんだよなぁ。
でもそれがさ、とよだくんはやらなくていいよと。で、そういうエージェントは他の人がもう作ってると。だから大体職場で、そういう何かやらなきゃいけない仕事っていうのは大体もう入ってますと。
プロンプトとしてというか、トレーニングされてて、で、大体できますと。で、それがGmailとかGoogleドキュメントとかそういうのは全部つながってるから、カレンダーも見てて。だからそういうのは何かこう、ちょっと気が利くことをするっていうのは、とよだくんは指示しなくてもできると思うんだよね。
それだったら自律的に動いてるように見えると思うんだよね、とよだくんからすると。
まあ確かに。
例えばさ、今コード書いてると、コード書いてると、えっと僕が何かこうコピーしてきて、これを次の段とかで、それをちょっと変えて、同じような行、3行書きたいですって思ったら、僕が何をコピーしてきたかを見て、次の3行はこうでしょっていうのを1行も書いて、で、次の2行目3行みたいに予測してパパパってこう、
何だろう、補完してくれるみたいなのとかは、自律的に何だろう、やってるように見えると思うんだけど、そういうのって何か要は認知の問題、何かこの人が自律的に動いてるなーって思うことって、何かその裏を知ったら、いや自律的じゃないなって思うこともあるかもしれないけど、結構解釈によるんじゃないかなと思うんだよね。
自律的って、その範囲の中で、何だろう、自律的に見えるけど、裏はもう過去にそういうことが起こり得るっていうことが想定できてたとしたら、
39:02
まあ、何か、何だろうな、自律的に動いてるようなものは、ちょっとずつその自律的な範囲を広げながら何かできるんじゃないかなと思うけどね。例えばさっきのメールの例だったら、
多分とよだくんの問題としては、とよだくんが1例を言ったに対して僕がこれはできるよって言ってる限りは、何かこう1個1個指示してるだけでしょってことだと思うんだけど、まあそういう例が、例えば10件20件とたまってきていろんなケースを、でそれが大体カバーできるようになってとしたら、でそれをどのケースかも自分で判断できるようになってたら、
パッと見、でその裏側を知らないと。そしたら結構自律的に動いてるように見えるんじゃないかなって思うんだけど。
うーん、自律的とは何かになってしまいますね。
そう、でも自律的とはっていうのは結構面白い問いだと思うんだよね。
確かにね。
面白いと思うよ。
自律的。
次回へ続く。
40:24

コメント

スクロール