1. Off Topic // オフトピック
  2. #277 AIエージェントと組織作..
2025-07-24 1:30:12

#277 AIエージェントと組織作り 後半

spotify apple_podcasts youtube

YouTubeSpotifyでビデオポッドキャスト公開中

<目次>
() チームメンバーの数
() リソース配分が要
() Facebookのモバイル展開
() 誰もオーナーシップを持たない会社
() レポートティングのフィルタリングはAI CEOか人間
() 給料の差分はあるべきか?
() 部署間の情報の可視化
() CEOのカリスマ性や宗教性は減るか?
() ほぼAI従業員の会社に社内政治はあるか
() 監視されてるような気持ち
() データの流動性と可視化で長期的に理解したいこと
() 人間関係シュミレーションは人生は豊かへ?

<参照リンク>
https://offtopicjp.notion.site/277-228c8b57e1148032ab5ce521a249e1ea?source=copy_link

<About Off Topic>
Podcast:
Apple - https://apple.co/2UZCQwz
Spotify - https://spoti.fi/2JakzKm

Off Topic Club
https://note.com/offtopic/membership

X - https://twitter.com/OffTopicJP

草野ミキ:
https://twitter.com/mikikusano
https://www.instagram.com/mikikusano

宮武テツロー: 
https://twitter.com/tmiyatake1

 

サマリー

今回のエピソードでは、AIエージェントの導入がもたらす組織構成や管理の複雑さが議論されています。特に、AIエージェントと人間の比率、チーム内におけるAIエージェントの役割、およびその管理の必要性に焦点が当てられています。AIエージェントの活用が進む中、経営判断やシミュレーションにおける重要性が増しており、企業はより長期的な視野を持ち、戦略的な選択が求められています。また、AIエージェントの責任問題や法律の必要性についても議論が交わされています。責任や所有権に関する議論が進み、その影響が組織作りや経営判断に及ぶ可能性が示唆されています。人間とAIの情報フィルタリングの違いについても考察され、AIが持つ情報集約能力が経営に与える影響への期待が寄せられています。AIエージェントの導入が進む中、組織内の政治や評価の可視化についての議論が盛り上がっています。特に、従業員のパフォーマンス評価や情報の管理方法がどのように変わるのか、またAIがどこまで介入すべきかが焦点となっています。AIエージェントを活用した組織作りについてのディスカッションが行われ、情報のアクセスの制限や評価基準の相対性について考察されています。また、競争環境における効率化や企業文化の変化に対する懸念も共有されています。AIエージェントが組織におけるデータの可視化やモニタリングに与える影響についても議論され、この技術がもたらすポジティブな側面とネガティブな側面が考慮され、適切な情報管理の重要性が強調されています。

AIエージェント導入の背景
スピーカー 1
皆さんこんにちは、草の幹です。 宮武哲郎です。
スピーカー 2
Off Topicは、アメリカを中心に最新テクニックやスタートアップ、ビジネス情報を緩くこぼれしながらご紹介する番組です。
今回のトピックは、AIエージェントありきで考えることについて話していきたいと思います。
スピーカー 1
先週から引き続きという会話になってくると思うんですけど、先週からAIエージェントありきの組織みたいな話をしていたと思うんですけど、
今回その続きっていうところで、いろいろディスカッションできればなと思っているんですけど、
どこから行きましょうか。
一つ個人的に気になっているのが、結構人間ありきの仕事場ですと、会社全体の中でチーム構成になっているじゃないですか。
1人が何百人も面倒を見切れないので、より分割した形で細かいチーム分けにしていると思うんですけど、
それによってある程度スケール可能な組織なんですけど、一応効率性があってフォーカスができるみたいな話をしていたと思うんですけど、
これってAIエージェントがいた場合って同じような考え方をするべきなのか、それって人ベースでそうなるのか。
チームの中で何人AIエージェントがいるのかみたいなこともみんな気になるのかっていうところはどうなんですかね。
スピーカー 2
それはAmazonがってことですか?
スピーカー 1
いや、別にAmazonではなくて、どの会社でも。
AIエージェントみたいなものが出てきた場合に、例えばその1チームの中で今まで8人の人間がいたとしますと、
その8っていう数字をキープして、例えばエージェントが5体入った場合、人間3、エージェント5になるのか、
それとも8人の人間が8人ずつのAIエージェントを持って、結果的に64人ぐらいの組織編成になるのかとか、70人ぐらいの組織編成になるのかとか、
そこらへんが、どこまでAIエージェントと人間の割合を考えるべきなのかっていうところは気になっていて、
結構いろんな人が、それこそメタのマークさんも言ってたと思うんですけど、何万人もAIエージェントが会社に入ってくるみたいなことをいろんな人が言ってるんですけど、
それってどこまで現実的なのかなっていうふうに考えていて、結局そのAIエージェント、じゃあ誰がマネージするのかっていうところになってくると思うので、
そこの割合的にはどうなんですかね。
チーム構成とAIの役割
スピーカー 2
そもそも何か、否認っていうことなんですかね。でっかい同じ人をすべての人が使うみたいなパターン、考え方もあるのかなと思ったんですけど、
アマゾンのAIエージェント一体がいて、それをみんなで使うみたいな。
スピーカー 1
AI従業員みたいなコンセプトですかね。
でもそういう人とか、そういうAIエージェントがいたとしても、じゃあそこ、それは何人いて、じゃあそこのレポートラインは人間なのか。
で、そこはチーム内に入っていくのか。で、そこ同僚みたいな同じレベルの人間がいて、で、上司がいるのかみたいな。
スピーカー 2
でもそれぞれAIエージェントがいるみたいなのって、逆にレポートラインとかいろいろそれぞれパーソナライズされた、その人間の従業員にパーソナライズされた形になると逆にややこしくなるのかなと思って、
スピーカー 1
結局同じ一体をすべて情報共有していて。
チーム内にいるっていう感じですかね。
スピーカー 2
で、その仕事の量としては何人も掛け持っているみたいな形。
スピーカー 1
じゃあそうすると、例えば8人のチームがいますと、全員人間ですとまず。
で、まず8人の従業員がそれぞれAIエージェントを何かしら自分たちの生産性を上げるために持っています。
ただそこのチームを連携するためでしたり、そこの情報共有っていうところで一体のAIエージェントがいるっていう感じですか。
そうするとその一体が入ることによって、その8人プラス一体にするべきなのか、そろそろ7人にして一体にするべきなのか、あとそれが一体いるべきなのか、何か数人いるべきなのか。
スピーカー 2
で、そのAIエージェントが数人いることによってメリットっていうのはやっぱりもっと加速するってことなんですね、作業が。
スピーカー 1
理論上っていう話ですけどね。結局、それこそ例えば1チームの中で、これはちょっと例えとして、1人が普通の人間の従業員として、1人がもうちょっとマーケティング寄りの人がいれば、1人がもうちょっと営業寄りの人がいれば、もう1人エンジニア寄りの人で、もう1人PM周りの人がいたとすると、
AIエージェントはそこの、いわゆるそもそもその従業員1人分リプレイするべきなのか、いわゆるそのAI営業マンがいるべきなのか、AIプロダクトマネジャーがいるべきなのか、で、そうすると何体も必要になってくるじゃないですか。
一体が全部できるっていう話ではなくなってしまうので。逆に一体が全部やるっていう話も、なんかゼロではないかもしれないですけどね。
スピーカー 2
やってくれたら便利ですよね。逆にそこは連携がいらない。
スピーカー 1
そうすると逆にその8人って必要になるんですか。それを取りまたう上司だけが必要になるんじゃないですか。
スピーカー 2
全てのもの、なんかそのやってくれる人がAIエージェントだったら確かにそうな気がするんですけど、その人間の他に対して人間でやってる仕事もあるから、人間でそこはいいのかなって思いました。
でも全てが、その点をまたぐ人たちが、ほぼAI事業員の会社だったら、1人でいいかもしれないですね。人間が少なくてもいいのかもしれないです。
スピーカー 1
その場合、例えばその8人のチーム、1事業部だとしましょうと。そこで1体いるじゃないですか。
違う事業部に違うAIエージェントがいるべきなのか、同じAIエージェントでいいのか。
いわゆるそのデータで見ると、別に1体でも2体でも変わらない可能性はあったりするので。そこはなんか部署ごとで変わっていくのか。
スピーカー 2
それはどういうイメージですか。営業の人と営業の部隊と。
スピーカー 1
例えばプロダクトAとプロダクトBがありますと。その中で8人のチームメンバーで、例えばマーケティングの人がいる。
例えばそのマーケティングのエージェントがいます。そこのマーケティングエージェントはプロダクトAとプロダクトBどっちも見るべきなのか。
スピーカー 2
1つのプロダクトだけ見るべきなのか。そこに2つ作る理由ってあるのかないのか。
どう思います。
スピーカー 1
なんとなく2つになると思うんですよね。
スピーカー 2
1事業部に1人。そうですか。
スピーカー 1
いや、1事業部に複数体出てくると思います。まずですけど。それが事業部ごとに持つようになると思います。
スピーカー 2
2体ずつ。
スピーカー 1
多分2体以上です。多分何体もっていうレベル感で。個人的にはそれが5体以上になってきた場合。
5体っていうのはランダムな数字ではあるんですけど、そうするとそもそもそこに対して管理者が必要になるのか。
AIエージェントだけの管理者みたいなところはすごい気になっているところで。
そもそも1人の従業員と管理職の人ってだいたい5人から8人ぐらいの直続の部下の面倒を見れるとよく言われていると思うんですけど。
社長レベルでも30人ぐらいを超えてくると名前をわからなくなってきたりとか。よくそういうなんとなくのリミットがあるじゃないですか。
スピーカー 2
30人でなんですね。
スピーカー 1
30人で結構トラッキングしにくくなってしまうので、何をキャッチアップが結構難しくなると思うので。
もちろんそれをよりうまくできる社長さんもいっぱいいると思うんですけど。
でもそこのAIエージェントが無限に作れるような時代になった場合に、そこの管理って誰がどういう形で何体管理するべきなのかっていう問題は多分まだ全然解決されていなくて。
逆にそこの連携するレイヤーみたいなのが別途必要になってくる。
リソース配分の重要性
スピーカー 1
と思うんですよね。
スピーカー 2
それはどうして2体以上というか、たくさんいるみたいなイメージなのはどういう理由なんですか。
スピーカー 1
多分そこに関しては、スペシャライズしてもらいたいので。
もちろん根本となるデータベースみたいなのが各事業部と会社にあると思うんですけど。
そこに対して全部の情報を常にAIエージェントが持つべきなのかっていうと、多分持つべきではなくて。
一部事業部の意思でしたり、そこに合わせていかないといけないものがあると思うので。
そういう意味でもAIエージェント多分複数体いてもいいのかなっていうふうには思いますね。
だから全部を知ってるAIエージェントが出てくるかというと、それは若干難しそうだなっていうのは思いますね。
スピーカー 2
それどういう2体、1事業員に対して1人ずつってことですか。
スピーカー 1
ここは会社によってだいぶ変わってくると思うので、場合によっては管理者が人間だけ。
その下に5人から8人、8体ぐらいのAIエージェントがいるみたいな。
そういう部署も出来上がると思いますし、数名の人間に対して場合によって何十人のAIエージェントみたいな。
そこは横口にもAIエージェントがいれば下にもAIエージェントがいるみたいな。
そういうことにもなると思っていて。
スピーカー 2
そこからさらに考えると、AIエージェントの下にAIエージェントを置くべきなのか。
AIエージェントの管理者がいるべきなのかみたいな。
どんどん複雑になるんですね。
スピーカー 1
特定のタスクでしたり、そういうのをよりやってもらうエキスパティーズを、結局人間も同じじゃないですか。
特定のSEOのエキスパートを採用するってなると、その人に他のタスクを別に与えるわけではないので。
スピーカー 2
でもAIだったらまるっと解決してくれそうな、たくさんレイヤーが出来てしまうんだなと思って。
スピーカー 1
そうですね。そこはどこまでエキスパティーズを1体のAIエージェントが呼び起こせるかっていう話になってくると思うので。
場合によってはそれが可能かもしれないですけど、今のところ見てる中だと結構ファインチューニングが必要になったりするので。
そこに関しては、そもそも複数体いることによって、考えるスピードも一定制限があるじゃないですか。
そうすると、それをより早くするためには、2体だ方が処理スピードではないですけど、処理する情報量が2倍になったりするので。
あとは複数の答えが欲しいのかとか、そういうのによって、場合によっては複数体必要なのかなと思いますね。
そこでそのAIエージェントがAIエージェントを管理するのかみたいな話は、個人的に気になりますし。
結果的にどういうリソースが希少化するかというと、今までですと結構人材だったと思うんですよね。
いい人が少ないっていう話だったんですけど、これ理論上の話ではあるんですけど、AIエージェントですと、場合によってはスキルセットが非常に高いAIエージェントっていうのは作れますと。
AIエージェントなので、すぐにコピーを作れますと。
例えばさっき話したSEOのエキスパートみたいなAIエージェントが1人いれば、それを育成してそこから無限にコピーを作れるようになってくるので、
そこの人材に関しては多少な育成とかそういうのは必要になってくるかもしれないですけど、
今まで以上にトップレベルのエンジニアみたいなものは無限に作れるような形になるので、そこのコストはどんどん下がっていきますと。
それはリサーチ系の人たちも同じですし、マーケティングも同じだと思うんですけど、
そういう意味だと、いい人材を探すっていうところ自体が重要になるのではなくて、
育成が一つと、あと結局そこのリソース配分がめちゃくちゃ重要になってくるので、
結局AIエージェントってエネルギーとコストは多少なりにかかるので、
なので結局どこの課題、その事業の課題に対してリソースをめちゃくちゃ振るのか振らないのかっていうのを、
よりその判断が重要になってくるっていうところだと思うんですよね。
スピーカー 2
いいマネージャーはやっぱりじゃあそのAI自体もいいマネージャーなんですかね。
やっぱその人材、どこに人材を配置するかっていうのがやっぱマネージャーの今までの仕事でもあると思うので、
なんかこの人こっちの方がいいみたいな、このチーム入れた方がいいみたいな、
経営判断とシミュレーション
スピーカー 2
なんかそういう意味だと同じスキルセットなんですかね。
スピーカー 1
えっと、ちょっと違うと思うんですよ。
なんかこの人、若干その近しい部分はあると思うんですけど、
どちらかというとなんかいい質問をできる人とか、
どこにROIが一番ありそうなのかっていう課題とか仮説を考えられる人だと思うんですよね。
なんで、例えばですけど、別にこれを彼らがやるべきかって言うと分かんないですけど、
なんか一、経営判断としてどっかの会社を買収するべきか。
例えばGoogleがPowerPlexityを買収するべきかっていうことを考えたときに、
多分今までですとそれを一部のCFOの人とかそういう人たちにとりあえずお願いして、
シミュレーションを作ってもらってたと思うんですけど、
そのシミュレーションがさらにより複雑なものが作れるような時代になってくるので、
そうするとそこにいかにどこまでのコンピューティングリソースを与えるのかっていうのが結構大事になってくると思うんですよ。
すごいベーシックなプロコンみたいな分析をしてもらうだけではなくて、
その場合にどういうものが事業内で全部何が影響されて、それによって株価がどう反映されるのか、
みたいなシミュレーションまで全部落とし込んだ場合に、まあまあのリソースが必要になってくると思うんですよね。
そこに対していろんなAIエキスパート、AIエージェントのエキスパートが必要になってくると思うんですけど、
そこのリソースをどこかから引っ張らないといけないので、
例えばこの買収がいかに会社を変えるのかっていうところをもし考え抜いた場合、そこに対してリソースを置くべきで、
逆にあんまりインパクトがないものに対してリソースを置いてしまうと、その分そこのコストが無駄になるっていうだけなので、
なんか多分より何かのインパクトのシミュレーションとか、それに対してのこう。
スピーカー 2
ダイナミックな何ていうか意思決定の時に助けてくれるみたいな。
スピーカー 1
そうですね。そこのそもそもそのダイナミックなその課題でしたり、なんかそういうものを思いつかないといけないと思うんですよ。
どういう仕掛けをするのかみたいな。それが多分、しかもそれをシミュレーションした後に実行してもらうので、AIエージェントに。
なんでなんかそこのリソース配分をすごい考えないといけないのはなんか一つ多分面白くて、
なんで場合によってはなんかすごい良い面で考えると、より大きなその課題とか問題解決を考えるようになる経営者でしたり、
管理者っていうのが増えるのかもしれないですね。
でも結局こういう判断がすごい大事じゃないですか。その会社の中で。
細かい実行のところはもちろんめちゃくちゃ重要なんですけど、今まで以上にそっちよりもその中の経営判断っていうのがより重要視されるようになると思っていて。
すごい簡単な事例を出すと、Facebookがモバイル展開したのってもうあれはもうめちゃくちゃ大事な判断だったじゃないですか。
あれによって多分何トリリオン分の時価総額がつきましたし、場合によってはそれが間違ってた判断をしていた場合にそれが生き残ってないかもしれないので。
そこの判断をよりしやすくするためのツールかもしれないですし、逆にそれによってなんかいろんな、
各社が同じようなことをやると、それはそれでどこまでアドバンテージになるのかみたいな話もいろいろあったりすると思うので。
スピーカー 2
結局、クリエイティブが似てくるみたいな話とちょっと、戦略でこう考えたらじゃあこうしようみたいな、ここの買収したら、
会社的にはいいけど、マイクロソフトもそれ買収しようとして、結局同じことしてるみたいなパターンとかはありそうですよね。
スピーカー 1
そうすると結果的に実行のところにもう一回重きを置かれるようになるんですよね。
戦略が同じようになると、その実行のやり方、そこの細かいクリエイティブの作り方とかブランディングの作り方とか、そういうところが逆により重要視される可能性もあったりするので。
法律と責任問題
スピーカー 1
多分一時的にはその判断の部分で、その後に多分もう一回振り切って、細かいエクセキューションの話になってくるのかなとは思うんですけど。
でもそのエクセキューション自体が、それが人間がやるのか、それともAIエージェントがより違いを作るようになって、それでより面白いクリエイティブを作るのかっていうところも正直わかんないところですけどね。
スピーカー 2
AIのクリエイティブ?
スピーカー 1
AI自体が例えばCM作った場合に、それが多分その同じ戦略の場合に、その実行力のところでそのCMを作る場合に、そこは人間がいまだに、もう一度人間が作ることによってそこの違いが生まれるのか。
それともそれが人間がAIに違うことをするべきっていう意思決定をして、それで変わっていくのか。
もしくはAIエージェント自らそこの違いを作るために何かしら変えるのかみたいな。そこら辺はちょっと細かいところはあんまりまだわかってない気がするんですけど、なんとなくまあ人間が支持するみたいな感じだと思うんですけどね。
でもなんかよりその意思決定が若干コモディティ化されるような。コモディティ化されやすくなるような。これは一般的な経営者にとってはすごい良いことで。
スピーカー 2
まあそうですよね。悩む、なんか悩む、いいめちゃくちゃ優秀な助手がいるみたいな感じですよね。
スピーカー 1
でも場合によってはそのめちゃくちゃいいその起業家に関してはもっといいかもしれないですよね。
今まで考えてきた組織内の課題を考えなくて良くなって、もっともっと大きな課題を解決できる。なんで今マークさんって多分15年後から30年後のことを考えてるんですけど、ようやく50年後から100年後のことを考えられるようになるみたいな。
そういう意味だとソートバンクの孫さんが言ってる100年後のことを考えろっていうのがAIエージェントの時代だと可能になってくるのかもしれないですけどね。
ただそれを考えられる経営者が必要になってくるってことなんですよ。
スピーカー 2
はい。
スピーカー 1
でもそれは多分割と限られた人たちだと思うので、そういう意味だとそこに対しての差分っていうのは出てくるのかなと思いますね。
なのでベースの経営レベルみたいなものは上がっていくと思うんですけど、その中で差分が生まれるっていうところですよね。
あといろんな種類のAIエージェントって出てくると思うんですけど、その中で一つ気になっているのは、そもそも誰もオーナーシップを持ってないAIエージェントが出てくるのかどうか。
それに対してどう対応するべきなのか。
スピーカー 2
それは会社にも帰属してない。
スピーカー 1
会社にも帰属してない。
場合によっては個人が例えば匿名で作って、でもう解き放つみたいな。
場合によってはNPO団体が作って、もう解き放つっていうパターンですよね。
もうこのAIエージェントは特に我々はオーナーシップを持ちませんっていう。
そういうAIエージェントが出てきたときに、理論上誰でもそのAIエージェントに仕事をお願いできるわけじゃないですか。
どういう仕事になるのかは別の話だと思うんですけど、そのAIエージェントがめちゃくちゃポジティブですと。
いいことをパフォーマンス出してくれますし、すごいいいことを基本的にやりますと。
ただ一回すごいミスしちゃいましたとか、間に合ったらちょっと読み間違えてすごい損失を作ってしまいました。
これ先週もちょっと話したかもしれないですけど、そのAIエージェントの対応法って何なんですかっていう。
スピーカー 2
どう罰するかっていうか、どう止めるかというか、この大きなようにするかみたいな。
スピーカー 1
訴訟するんですかとか。
スピーカー 2
作った人。
スピーカー 1
そうですね、基本的に多分コンピューターに関しては、コンピューター自身が何かしらの判断に対して責任を持つことはできなくて、基本的に人間しか持てないみたいな。
理論、よく言われてることなんですけど、AIエージェントの場合勝手に動く可能性があったりするので。
いわゆる人の配下じゃなくても判断をしてしまう。
そうすると結構既存の法律を考えるとすごい難しい判決の仕方になる気がするんですよね。
なので、場合によってはですよ、わからないですけど、そのAIエージェントみたいなものが普及した場合に、AIエージェント用の法律ってできるのかっていう。
それが国ごとに違くて。
未来へのアプローチ
スピーカー 2
これは、AIエージェントが暴走したからしょうがないよねって開発者はそんなにお咎めないみたいなことが起きるみたいなことですか。
スピーカー 1
そうですね。
結局その開発者が亡くなってしまったらどうするんですかとか。
結局責任取れる人いないじゃないですか。
でも勝手に判断はし続けるので、AIエージェントは。
スピーカー 2
難しいですね。
スピーカー 1
ここもすごい難しいのが、今の既存の法律で考えてしまうと、
今は例えばオープンAIでしたり、アンソロピックでしたり、メタ、いろんな基盤モデル作ってる会社いるじゃないですか。
それをベースにとか、そこのAIエージェントをベースを活用した別のAIエージェントがトレーニングされた場合に、
じゃあそのAIエージェントが悪いことをしたらオープンAIのせいなんですかっていう。
でもそれはそれで違う気はするんですよ。
スピーカー 2
難しいですね、それ。
スピーカー 1
だからこそ多分AIエージェント用の法律ができると思うんですよ。
スピーカー 2
それも対抗してきそうですよね。
スピーカー 1
対抗っていうのは。
スピーカー 2
その抜け穴をAIエージェントも、いやいやそうじゃないですよ、普通に開発者が悪いですみたいな。
スピーカー 1
AIエージェント側がっていうことですね。何かしら主張するっていう。
スピーカー 2
最近、フランケンシュタインって呼んだことあります?
はい。
フランケンシュタインも結局自ら性を受けたくて受けてなくて、
フランケンシュタインっていう学者が怪物を作って、みんなに嫌われて、愛情が欲しいけど愛が受けられなくて悲しいみたいな話じゃないですか。
だからそのAIも別に動きたくて、考えたくて生まれたわけじゃないのに、
自分で行動したら人間の世界に罰せられて、はぁ?って感じじゃないですか。
スピーカー 1
そこのはぁ?っていう発想が入ってくるのかっていう話は、多分別の話になってくるんですけど、
意識があるかどうかみたいな話になってくる気がするんですけど。
スピーカー 2
想像したものが、法律的な意味で言うと罰する人になるのかなと思ったんですけど、
全てがChatGPTみんな使ってる中で、全てがオープンAIのせいなのかっていうと確かに分からないですね。
スピーカー 1
だからそこは、それが分からないですけど、100年後なぜかオープンAIのせいになるみたいな。
それやってもあんまり意味ない気がするんで。
そうすると何かしら法律面で多分解決しないといけない気がするんですけど、
そこは各国がどこまでAIに対して厳しくするか厳しくしないかによって何かしら定めて、
そこに対して法によっては何か悪いことAIが勝手にやって、
まず多分人間が大なし持ってるかどうかっていう話だと思うんですけど、
直接的に持ってない場合、場合によっては放棄されて独立型のAIアジェントだった場合には、
そのAIアジェントが場合によっては勝手に法律上でシャットダウンされる、
もしくは何かしらの対応を受けるみたいなことになるのかなっていうふうに思いますけどね。
スピーカー 2
それはなんか暴走したからしょうがないよねっていう話なのか、
そのAIアジェントの行動というかそのやったことが人間と同じぐらいの話だからってことなのかというと、
スピーカー 1
暴走ではないです。暴走の場合は多分何かしらシャットダウンが多分義務付けられる気はするんですけど、
AIエージェントの責任
スピーカー 1
人間側からは。ただ、それよりも多分、もっとグレーなところでいくと、
基本的にいいことしかやってないAIアジェント、独立型のAIアジェントが何かしらすごいミスを犯した時とか、
例えば犯罪を犯した時に、そこの責任に関しては、そもそも誰もオーナーシップ持ってないので、
人間が背負えるわけではない。となると、それは多分AIアジェント自らを背負わないといけないのかなっていう。
でもこれって結局人間と同じだと思うので、人間も基本的に多分良いこと、法律を守っている人たちが多いと思うんですけど、
何かしら犯罪を起きた時は、自らそれに対して国の法律、別に全員が合意してるわけではないですけど、
国の法律は国の法律なので、なのでそこに対して罰を受けなければいけないっていう話になってくると思うので、
何かその同じような対象をAIアジェントが受けるべきなのかっていうところだと思います。
スピーカー 2
何も、もし人を殺したとしても、そこに誰も人が関与してないってことですか?
スピーカー 1
この話だと独立型のAIアジェントに限ってですよ。そのオープンAIが直接的にAIアジェントを作った場合、オープンAIが責任を取るべきなので。
ただ、どっかのNPO団体が作っても、これは別に、NPO団体が例えばどっかのタイミングでシャットダウンしちゃった場合とか、
もうないとか、場合によっては結構匿名の人が絶対出てくると思うので、そもそもそれだとトラッキングもめちゃくちゃしにくいですし、
あと場合によってはAIアジェントを自ら作るとか、いろんなパターンが出てくると思うんですけど、
必ずしもオーナーシップをトラッキングできるわけではない状況が起き、そういう状況になる気はするので。
バスせられる形になりそうってことですか?
何かしらのものは出てくると思うんですけど、たぶん今の既存の法律だとそれがフィットしないと思うんですよ。
なんでAIアジェント専用の法律が出てくるのかなっていうふうには思いますけどね、各国で。
情報フィルタリングの問題
スピーカー 1
その中で、いろんなAIアジェントを作れるような時代になった場合に、
これは一シナリオとしての話ですけど、完全自動化された会社って出てくるのか?
人間が、場合によっては一人しかいない。場合によってはもういない。
例えば、人間がずっと動かしてた会社がある日、ファウンダーもなくなってしまうので、全部AIに変えましたっていう。
スピーカー 2
ありそう。でも、もうすでに。
スピーカー 1
それは、いい部分と悪い部分が当然ながらあって、
それの一つ、すごい面白いポイントとしてあると思っているのが、
会社がどんどん大きくなると、
社長とか経営メンバーがアクセスできる情報がどんどん、
全体の会社の情報の中の割合で見ると、どんどん減っていくじゃないですか。
そこって一つ、すごい大きな制限になってるなと思っていて。
例えばですけど、今のGoogleで、CUの住んだピチャイさん。
どこまでGoogleについて今知っているのか?
っていうと、多分そこまで知ってないんですよ。
もちろん全体の数時間とか、多分どの従業員でもそこは会社全体的にはもちろん見えてるんですけど、
じゃあ現場を知ってるのかっていうと、現場はもちろん当然ながら知らないですし、
今の例えば日本の営業が今どんな感じなのかみたいな、
どういう感触でクライアントが反応してるのかって、当然ながらわかんないじゃないですか。
逆にそこは期待されてないので、それを知ってるっていうことは。
結局、しかもそれが何レイヤーもいわゆる管理レイヤーを作らないといけないので、
大きな組織になっちゃってるので。
そこでフィルタリングが行われますと。
いわゆる現場から徐々に徐々にCUのポジションまで行く情報が。
そこは各レイヤーごとで政治的な理由もあれば、
プライオリティみたいなところでフィルタリングされるわけじゃないですか。
なので例えば、この大型クライアントを獲得しましたと営業チームが言って、
そこの細かい契約の情報を伝えたり、
そこのクライアントの感触とかフィードバックっていうのを、
その営業チームが集めるわけじゃないですか。
それをマネージャーに伝えた時に、
マネージャーはその自分のさらに上司に対して、
その情報を全部伝えるのかというと全部伝えないじゃないですか。
とりあえずこのクライアントだけ獲得しました。金額これぐらいです。
なんとなくな感触これですっていうサマリーみたいなものを出して、
でそれがその上司に行った時に、その上司をさらにその上司に伝える時に、
さらにフィルタリングされた情報が行くわけじゃないですか。
それがずっと続いて最終的に社長のところまで出てくると思うんですけど、
スピーカー 2
楠さん、シリコンバレーっていうドラマって見たことあります?
スピーカー 1
そこで多分シーズン1だったと思うんですけど、
すごい面白いシーンでフーリーっていうすごいGoogleをオマージュした会社がいるんですけど、
そこでまさにこの情報のフィルタリング問題によって、
すごい現場とCEOの感覚値がめちゃくちゃずれてるっていうシーンがあって、
フーリーの社長がすごいテンション上がった形で、
この日にプラットフォームをローンチしますと日付を言っちゃうんですよね、パブリックに。
社内ではそこのリードのエンジニアがその人のマネージャーに対して、
いやいやもう既に6週間遅れてますよ、それ伝えてないんですかと。
そのマネージャーが、いやそれはもう怖いから伝えたくないです、
伝えたいんだったらどうぞって言うんですけど、結局その人もリードのエンジニアも何も言わず、
さらに部下の人がリードのエンジニアに、いやいや6週間どころか15週間遅れてるんですよと。
それをなんで上司に伝えなかったんですかと。
全く同じ会話で、いやいや伝えたいんだったらどうぞっていう。
そこからどんどん同じことが起きて、結局めちゃくちゃプロダクトがうまくいかず失敗するんですけど、
だからいわゆるCOもいろんなフィルターされたレポートでしたりダッシュボードを常に見ている中で、
すごい大事な判断をしないといけないので、いわゆる当然ながらなんですけど、
全プロダクトのコンテキストを受けられるわけではないので。
なので理論上ですよ、これが果たして本当に正しいのかっていうところはあるんですけど、
AI CEOの可能性
スピーカー 1
そこのデータポイントを場合によっては全部集められるAIはよりいい経営判断をできるのかどうかっていうのはすごい気になります。
スピーカー 2
もっと現場レベルの情報が直接来るようになったらってことですか。
スピーカー 1
いわゆるより真実を見えるようになった場合にっていうところですね。
スピーカー 2
それって結局人が見れる情報の数って結構限られてるじゃないですか、時間が限られてるからこそ。
ってなった時にGoogleでいろんな授業がたくさんあって、現場のレベルのものも知りたいけど、
全てそれをサマライズAIがしたとしても結構な量だと思うんですけど、
それすらもわかりやすく数値に出してくれるみたいなイメージですか。
ここヤバいそうですよみたいなアラートを出してくれるみたいな。
スピーカー 1
例えばそのAI CEOみたいなのがいた場合に、
より多くの情報を触れるわけなので、結局各AI部下みたいな人たちは
AI CEOに何かレポートを出すのではなくて、1個のデータベースに全部情報を投げ込むので、
それプラスサマリーみたいなものを上げていくっていう話だと思うので。
そういう意味ですと、さっき話したレイヤーの情報のフィルタリングっていうのは、
2種類のフィルタリングがあって、
まずはさっき草野さんが言ったように、
通常の情報フィルタリング、いわゆる情報量がある程度プライオリティを置かないといけないので、
その中でもらった情報の中でプライオリティのものだけを上に上げるっていう話ですと、
その上の人がいろんな情報を集めているわけなので、っていうのが1つあるんですけど、
もう1つは政治的なフィルタリングが絶対行われるので、
クビにされたくない、いい情報を上げたいっていう、
人間なりのフィルタリングの方法ってあると思うんですよね。
スピーカー 2
むしろそっちの方が多いような。
スピーカー 1
そっちの方が多いと思います。そっちの方が課題だと思うんですよ。
スピーカー 2
あと結局、上手く見せないといけないっていうプレッシャーもあるじゃないですか。
嫌だから見せない、進捗が遅れてるから言わないっていうさっきのパターンみたいなのもあると思いますし、
自分がこのやった成果、部下ですけどリーダーの成果ですよねみたいな、
そういうパターンで結局誰一番活躍したい人の名前は上に上がった時には消えてるみたいなパターンとかもあると思いますけど、
結局そこのなんか特にアメリカだとめっちゃありそう。どうなんだろう。
スピーカー 1
いいように見せるっていう感じですよね。
そうすると、いわゆる真実を完全に伝えてるわけじゃないですか。
例えば自分の事業部を残すために必死に良さそうな数字を出すとか、
すごい簡単な事例で言うとグラフの水準を変えるとか、すごい成長してるように見せるとか、
KPIをちょっと変えるとか、いろんなやり方あるわけじゃないですか。
それを理論上ですけど、AIエージェントの場合ですと、それをそのまま情報ストレートに伝えてくれる。
なので、より残酷ではあるんですけど、場合によってはより真実を見極めることができる。
スピーカー 2
それは出てくる情報のセットとしては、既に設定されているKPIに対してすごくストレートに出すみたいなことなんですかね。
スピーカー 1
そうですね。プラスアルファで現場の情報を一つのデータベースのリポジトリに置くので、
そこにAI CEO自らアクセスできるっていう。それも判断材料の一つになっているっていう。
そもそもその情報が済んだ、ちょっとGoogleを使い続けるのは良くないと思うんですけど、
サティアさんでも誰でもいいんですけど、すごいCEOの人に届かない情報で価値があるものって多分多少なり存在すると思うんですよ、組織内に。
その情報がまずどっかのリポジトリに置いてあるので、それを見極められるかっていうのが多分AI CEOのすごい難しいところになってくると思うんですけど、
一応存在はするのでアクセスはできるようになるっていうのは一つ重要な違いだと思うんですよね。
プラス、さっき話した政治的なフィルタリングがなくなるっていうところで、よりクリーンな形で組織全体を見れるっていう話ですね。
ただそれによって良い結果が生まれるかはわかんないです。
いわゆる人間が間に入るのって、会社として何をプライオリティにするべきかっていうのを徐々に徐々にフィルタリングしてる、理論上ですけど。
ので、CEOとしてはできる判断が限られてますし、重要なことを考えないといけないので、今後の10年後、50年後のことを考えないといけない中で、
どこまでの変数を頭の中に入れるべきかっていう課題があると思うんですけど、
ここも人によっては全部の変数を入れた方がいいっていう人もいれば、一番重要なことだけを入れるべきっていう考え方もあったりすると思うので、
そこのウェイトをかけるか、フラットで全部見てそこからAI、CEOが自らウェイトを作るかっていう、どっちかなっていうところですね。
でもこれって、どう思います?AI、CEOがいるべきかを一旦置いて、情報の組織内とか組織間での情報のやり取りが、逆に人間がやるべきではなくてAIが一部やるべきなのかっていう。
組織内の競争とチームワーク
スピーカー 1
より政治をなくすっていう意味合いを考えると、それってより会社のためになるかもしれないんですけど、従業員のためになるかっていうと必ずしもそうではないっていう。
スピーカー 2
政治がなくなることによって、敵もいなくなれば味方もいなくなるって感じですよね。
だから守ってくれる上司とかも別にいないから、めちゃくちゃ競争が激しくなるのか、個人の誰も守ってくれる人がいないからこそ、チームで働くことが結構ギスギスしちゃうみたいなことも起きえるのかなとはちょっと思いますけど、どう思います?
スピーカー 1
なんか結構、それにフィットする組織はすごい限られてるのかなっていうふうに思いますよね。
場合によっては、いわゆる本ベースでしか、ネットフリックスについて知らないので、組織体制とか。
ただ、ネットフリックスが語るすごいオープンな組織構図っていうところにはすごいフィットすると思うので、
どこまで組織としてフラットでオープンにいたいのかっていうところによって、そこを逆に人間ではなくてAIにやらせるっていうのがより適切なのかもしれないですよね。
スピーカー 2
そうですね。なんか、起業家精神がある組織とか、起業家が集まっている組織みたいな、個人が強い会社とかだったらありな気がするんですけど、
全ての人がこう、なんていうか、働く、生活のために働いてるっていう人が多分ほとんどな気がするので、
なんか、その中で、なんか、めちゃくちゃなんか、うん、なんか、それって働きやすいのかなっていう感じもちょっとしちゃいますね。
スピーカー 1
働きにくいと思います。でも、わからないですけど、これは、えっと、その、どういう働き方とか、どういう会社設計をするべきかっていう話になると思うんですけど、
なんかその、パフォーマンスが低い人を低いっていうのをそのまま言うべきなのかっていう話でもありますし、まあ、もちろんそのパフォーマンスの評価の仕方もいろいろあると思うので、
別にKPIを出すイコール、必ずしも評価するっていう話でもないと思うんですけど、そこはそこで、えっと、逆にそのどういうコミュニケーションをとっているのかとか、
なんかそこら辺の情報も理論上トラッキングはできるはずなので。ただ、なんかその、なんかね、その、これは過去の多分オフトピックのエピソードでも、そのオフィスとリモートワークの話でしたと思うんですけど、
そもそもえっと、会社内でより、その給料の格差があるべきなのかっていう議論だと思うんですよ。
で、なんか一律同じような給料を払うべきなのか、なんかもう差分が結構あるっていうのを理解した上の組織構図になるべきなのかっていうのは、すごい多分嫌がる人めちゃくちゃ多いと思いますし。
でもまあ、本来あるべき姿だと思うんですよね。
スピーカー 2
アメリカ、でもなんかそれってどれぐらいの差がある感じですか。
スピーカー 1
あ、えっと多分、アメリカですと多分多少ない差はすでにあるんですけど、それ以上の差になると思います。
スピーカー 2
めちゃくちゃじゃない。
スピーカー 1
いわゆる、これはネガティブに見る方が多いんですけど、個人的にはどちらかというとポジティブに見るべきだと思っていて、パフォーマンス出してる人が今の10倍の給料をもらえるっていう話です。
場合によっては、パフォーマンス出してない人は多少ない落ちるっていう可能性はもちろんあるんですけど、逆に言うとあんまり落ちない可能性も全然あったりするので。
ただなんか上がる幅が圧倒的にその横に座ってる人と違うっていう。
で、そこに対して多分不満を抱える人ってめちゃくちゃ多いと思います。
スピーカー 2
それは格差が出たら嫌な人は多いのかなと思うんですけど、でも自分がすごく優秀だったら伸びしろが無限にというか、天井が高いっていう意味だとすごいいいのかなって気がするんですけど、それって今もそうじゃないんですかね?やっぱり制限がかかってるんですか?
スピーカー 1
制限が多少なにかかっているっていうのがある。
スピーカー 2
それってなんでなんですかね?
スピーカー 1
でもこれって結局評価が明確に、そこまで細かく見れないからだと思うんですよ。
スピーカー 2
でも成果出してたら、圧倒的な成果出してたら。
スピーカー 1
でもチーム内で成果出してるかって結構見えにくいじゃないですか?
チーム自体が成果出してるのが見えるんですけど、その中のこの人なのかこの人なのかっていうのが多少なり分かるものの、それが他のチームメンバーの3倍活躍してるのか1.5倍活躍してるのか、それともそもそも全員同じ活躍をしていて、それによって結果出してるのかっていうのを。
そこは本来評価面談とかそういうところで出てくるはずなんですけど、そこも結局不完全な情報の中でやらないといけないので、上の人たちが判断しないといけないので。
そういうところも含めて、別にAIが判断するべきかっていうのは正直分かんないですけど、情報の可視化っていうと、AIが入るべきなのかっていうのは気になってるポイントですね。
スピーカー 2
それはどこまでの情報を可視化するイメージですか?
スピーカー 1
難しいですよね、ここ。スラックの情報までやるべきなのか。
スピーカー 2
確かに限られた情報とか、レポートラインで与えられてる情報がそれぞれ違うみたいな。で、評価する人がAIとかになった時に、どういう評価、売り上げとか営業で取ってきた本数なのか。
だけどめちゃくちゃ顧客対応がめちゃ悪かったりみたいな、そこは見るべきな、見ないべきなのか。
別にチームじゃないものだったらすごくやりやすいんですかね、ソロプレイヤーの仕事だと。
スピーカー 1
例えば案件を何件獲得したかみたいなことだと多分めちゃくちゃわかりやすいですけど、それは多分既にわかりやすいと思うので、個人プレイに関しては。
スピーカー 2
チームでの個人の評価をどうするかって難しいですね。
スピーカー 1
そうですね。そこが個人的にはより可視化された方が、評価者はまだ人間だと思うので、人間が評価しやすくなるのかなと思うんですけど、
それによってより多分個々の従業員に関してはより情報が抜かれるので、それはそれでプライバシーっていうところもありますし、
それによっての格差っていうのは生まれてくると思うので、多分それを嫌がる人っていうのは当然ながらいると思います。
スピーカー 2
AI、それでまた逆に政治化されそう。
自分のせいかチームへの貢献度が低いから、やっときますみたいな、これやりますみたいな、擦り覆う必要があるかもしれないなと。
スピーカー 1
ここに関してすごい難しいのが、AIエージェントはどこまで従業員に対して寄るべきなのか、会社に対して寄るべきなのかっていう判断になると思っていて、
ここは場合によっては各企業がそこを調整すると思うんですけど、より会社側に寄っていくと多分そこの明確にこの人が会社にとってROIを出してるのかっていうのがより評価されるような組織体制になるかなっていうところですね。
スピーカー 2
個人プレイ身勝手だけど成果出す人か、会社にとっていい貢献するロイヤリティーがあることをする人なのかで、同じ成果出しててもどっちがいいのかみたいなのはありそうですよね。
スピーカー 1
でも逆にそれをより可視化できるかもしれないんですよ。評価出してるんですけどめちゃくちゃレピテーション悪いですよっていうのをAIが出せたら、それはめちゃくちゃ便利な情報じゃないですか。
場合によってはその人を切るべきっていう判断になるので。でも成果出してないですけどめちゃくちゃ顧客から好かれてますと。そうなると場合によってはこの人は長期的にすごいパフォーマーになるので、今カットするべきではないっていう判断になるかもしれないので。
でもそれって逆に成果だけ見るとわかんないじゃないですか。となった時に、いわゆるAIが可視化できるっていうところだと、そういうところまで見える可能性があったりするので、必ずしもそこは悪くないっていうところですよね。
AIによる情報管理の課題
スピーカー 1
そこの可視化レベルがどこまで許容範囲になるのかっていう話だと思うんですよね。各組織内で。
でも一応理論上言うと一応会社に雇われているので、その間に仕事をやってる間に、例えばスラックで同僚に政治的なメッセージ送ったとしても送らなかったとしても、その情報は会社内に存在するものなので、一応評価対象にはなり得るはずなんですよね。
スラック上でDM送ったとしても、それは仕事内のスラック上だと仕事なので、プライベートで送りたい場合はFacebookメッセンジャーとか違うチャンネルを使った方がいいとは思いますけどね。
でも部署間でも情報の可視化って、さっきは評価とかそういう話をしたと思うんですけど、部署間での情報の可視化っていうところもすごい難しい判断ですよね。
どこまで見せるのか見せないのかっていう境界線を誰がどういうタイミングでどういうふうに決めるのかっていう。必ずしも全部の情報を各部署が違う部署に渡したいわけではないですけど、それが逆に会社のためになるんだったら場合によっては出すべきで。
会社のことばっかり考えると誰もそこで働きたくないかもしれないですし。
スピーカー 2
でもその部署間で情報を出さないメリットって何ですか。
スピーカー 1
いろんなパターン。
理論上そうなんですけど、必ずしもそうじゃないので、それこそ評価につながるポイントでもあるじゃないですか。
他部署の情報を持って、例えば違うチームが動いて、その人たちが評価を逆にもらっちゃうとか、政治的な話をすると。
別の話をすると、アップル内でスティーブ・ジョブスとジョニー・アイブがいたときに、ジョニー・アイブの部署の情報を全員知るべきなのかとか。
結局組織によってそこの微調整をしないといけないっていう話だと思うんですけど。
そこのAIをその間に置くことによっての課題ってめちゃくちゃ生まれてくるので、特にAIエジェットは勝手に他のAIエジェットと話すタイミングって絶対出てくると思うので。
そうなるとそこの情報交換のところがどこまで制限されてるかっていう、全体の管理がめちゃくちゃ難しくなると思うんですよね。
スピーカー 2
すごい情報が勝手に漏れちゃうみたいな、元も来ないことがありそうです。
スピーカー 1
でもこれって人間同士でも起きてるわけじゃないですか。
スピーカー 2
AIで起きたら嫌だなって感じ。人間だからまだありますけど、AIが勝手に別の部署にやるらしいよみたいな新開発中らしいよって、セキュリティも何もって感じですよね。
スピーカー 1
なんで多分その中で、よりそのAIエジェットのオンボーディングが大事になってきていて、どこまでの情報を制限するのかっていうところあるかなと思いますよね。
スピーカー 2
確かに。
管理者だったらここまでの情報を取れますよみたいなのって、今まで物理的にもこの部屋に入れるカードキーの人はこの人だけみたいなのあったと思うんですけど、それよりもっと複雑なレイヤーですよね。
ここの部署のここの人の評価はこれぐらいまで知ってるべきみたいな。
そこのどこまで鍵かけるかが結構たくさん出てくる。
スピーカー 1
そうなんですよね。鍵も多分めちゃくちゃレイヤーがあるわけじゃないですか。
この部署の鍵っていうのもあれば、その中の例えばその事業部のPLを見れるべきかっていうと、そうじゃないかもしれないですし。
そこの細かいこのプロダクトとか秘密プロジェクトができた場合にそれまで知るべきなのかっていうとわかんないんですけど、
場合によってはそこもそもそも会話してる中で出てきた場合はOKってなり得るかもしれないですし、
結局AI人だってデータベースでアクセスできるわけなので、そうなると理論上常にどっかのAI人と話さなくても許可さえあればもう情報引っ張れるんですよね。
それ以外の情報をコミュニケーションの中でピックアップした場合に、それをその場で忘れろって言えるのか、
違うコマンドがあるのか、勝手にそこが削除されるようになるのかみたいな、
そこら辺の多分情報連携のところ、草野さんが言ったようにめちゃくちゃ複雑だと思うんですよね。
スピーカー 2
いやー、怖いですね、それって。
情報の制限と競争の本質
スピーカー 2
会社からしたら、会社運営してる側からしたら、どこまで誰がどう情報を持っているかがわからないというか、難しそう。
スピーカー 1
でもこれって逆に言うと、いい面にはならないんですか?
スピーカー 2
いや、でも最初いい面だと思いました。連携がしやすいというか、自分の部署と、ここがやってるんだったらお任せしようというか、
でも結局は会社の人の評価が相対的になっちゃうから競争が生まれるし、
うちの部署にメリットがあることはしようってしちゃうから、全部絶対的、めっちゃいい人は稼げるしみたいな、そういうものになったらなくなるんですかね。
スピーカー 1
あとは考え方としては、情報へのアクセス制限じゃないのかもしれないですよね。今ちょっと考えているんですけど、
場合によっては、情報はもうAIエージェントなのでアクセスさせちゃいましょうと。
ただ、判断するときとか発言するときに制限されるっていう。
例えば、マーケティングの部署に対して何か発言した場合に、他部署の情報は一切使えませんっていうのを言うとか、
そうするとより何かしらルール化されやすいのかなっていうふうに思いましたけどね。
スピーカー 2
セキュリティになっちゃいますね。この情報を取るだけにフェイスブック入社して、このデータを頭の中に入れて出ていくみたいな。
スピーカー 1
それは人間がっていうことですか?
スピーカー 2
人間が。
スピーカー 1
でもそこも、AIエージェントがこの人であればこの情報までしか与えられないっていうのを、逆に人間側がそこの発言権を制限するっていう話になるので。
なので、営業の部署の人の、例えばアソシエイトの人にはこのレベルの情報までしか与えられないっていう。
ただ、その逆の課題としてはある程度制限してしまうので。
より複雑なことをアソシエイトが聞けなくなるので、そうすると結局あまり役に立たない可能性があったり。
そこのどっちを、インプット側を制限するのか、アウトプット側を制限するのか、そのAIエージェントの中で。
っていうのは多分組織間で色々考えないといけない、めちゃくちゃ複雑な課題かなと思いますね。
スピーカー 2
あと、やっぱり会社のすべての情報、会社って宗教っていうか、そのファンであったり一人っていう側面がある中で、
なんかめちゃ情報側にアクセスできたり、めちゃくちゃ成果主義になった時に、会社としてのCM感っていうんですかね、
人間味。
宗教性みたいなのか、人間味がなんか、逆にミステリアスだったり、会社のリーダーシップ経営者のところが好きだったところみたいなのがちょっと薄れそうな気がしました。
スピーカー 1
そうですね。より可視化されることによって、実は、いわゆる宗教的なカルトリーダーとして見てた人が一般人に見えるみたいな。
でも、それって良いことだと思います。悪いことだと思います。その従業員にとって。
いい意味で言うと、より真実、場合によっては真実って言うのか分からないですけど、より真実を知れたわけじゃないですか。
でも、人間的な感情とかそういうのを考えると、何かしらグループに所属したいとか、何かしらカルトリーダーみたいな人をフォローしたいとか、何かしらのミッションで何か一緒にやりたいっていう思いをあるのが人間味でもあると思うので、
それが若干失われるっていう話だと思うんですよね。
スピーカー 2
はい、だからなくなると思うので、何かその部分で、シンプルに仕事の楽しさみたいなのとか、この会社に、何か別にこの会社じゃなくてもいいじゃんって思っちゃいそう。
確かにめちゃくちゃ稼げるからいるっていうのは何か分かるんですけど、何かここの会社にいて、まあそうですね、それがカルチャーとなれば楽しいような気がするんですけど、
何か一般的なその会社のカルチャーみたいな、その企業文化みたいなのを築くのが結構難しそう。
スピーカー 1
透明性があることによって、何かその逆にそのカルチャーにちゃんと沿っていないといけないとか、ちょっと何か柔軟性もなくなって、何かちょっと軍隊っぽくなっちゃいそうな気がする。
どうなんですかね。
何かそれにちゃんと沿うか、沿わないか、その合間がなくなっちゃうというか。
スピーカー 1
そこもどこまでそのAIが何かしらそこに、その人間に対して判断するのか、人間がそこに間に入るのかによって、そこの柔軟性が生まれてくる生まれてこないっていう話かもしれないですけどね。
だからその人の可能性とか、その人の今後のことを考えて、何か可視化された情報の中だと、こういう今の状況ですけどっていう。
スピーカー 1
でも何かそこの可視化することに対して何かどこまで、何かそこの会社、多分ほとんどの会社は聞くと、可視化したいですって多分言うと思うんですよ。
でも実体的に言ったら可視化したくないんですよ。
スピーカー 2
会社側?
スピーカー 1
会社側が。
会社側っていうか、管理職でしたり従業員でしたり、バリエーター社長もそうかもしれないですけど、その中の人たちが。
でも会社として可視化するべきなのかっていうと、もしかしたら可視化するべきなんですよね。
ただ、その中で判断により人間味を持たすっていう。
ただ、いろんな嫌な情報が出てくるので。
なんでそこに対してどう反応するかかなっていうところではありますね。
スピーカー 2
結局それに反応するのは人間なんですか?上司というか。
スピーカー 1
人間かなと思います。もちろん完全にAI管理者みたいなことを置くと、草野さんが言ったように機械的になったりとか、軍隊っぽくなると思うんですけど。
そこに逆に人間を置くことが大事だと思いますけどね。
スピーカー 2
そうですね。そうだと思うんですけど、結局こういうたくさん情報があって、プラスマイナスいろんな情報があって。
でもやっぱり私のお気に入りはこの人だからちょっと評価高めにしようみたいなこととかありそうじゃないですか。
この人なんか嫌なやつだから。それすらもその人の評価として取り入れられちゃうから、そんなことはしないってことなんですか。
スピーカー 1
いや、場合によってはその、なんですかね。
スピーカー 2
結局あんまり意味なくなっちゃうみたいなことないですか。
スピーカー 1
一部意味なくなると思うんですよ。
そこに対して何レイヤーを人間にするのかっていう話でもあると思っていて。
今まで間に10レイヤーがいたのが3レイヤーで済むみたいな。
その間がAI。AIが可視化しているので、より多くの人たちをよりちゃんと判断ができるっていう。
でももちろんその中では政治みたいなものは生まれると思いますし、これは完全にAI化されていない会社だと思うんですけど。
企業文化の変化
スピーカー 1
完全にAI化されている会社は多分、逆になんか完全にAI化されている会社って政治が生まれると思います。
AIエージェント内で。
スピーカー 2
人が働いているってことですか。
スピーカー 1
いない前提で。
社長だけ人間ですっていう。
あのAIエージェント使いませんと。
でも実は使えてみたいな。
スピーカー 2
そういうルールになってたらそれはしだしそうですよね。
結局授業の中で授業進捗会みたいなので、ABCって授業があって、どれ授業辞めるか、注力しないかみたいな。
そういう判断になった時に私たちの授業の方が成功してますよって言わないといけないじゃないですか。
そういう場面になってたら、そういうことが起きそうだなって思います。
スピーカー 1
そうですよね。どこまでこれをAIエージェントが会社のことを思っているのか、自分たちの生存について思っているのかによって、そこの判断って変わってくる気がするので。
でもそういう意味だと、結局AIエージェント型の会社にしたとしても変わんないかもしれないっていう結論になるかもしれないですけどね。
スピーカー 2
競争が激しくなって利益が良くなるんですかね。
スピーカー 1
競争が激しくなるっていうのは、社内での競争環境ということですか?
スピーカー 2
そうですね。お互いに事業員もそうですし、事業部っていう単位でもそうですし、切られるかもしれないっていうことがあることによって利益に貢献がされる。
スピーカー 1
より効率化される可能性はありますよね。パフォーマンス重視になったり、よりパフォーマンス出す人がお金もらえるようになったりとか、そういう可能性はあるんですけど。
全世界の組織が同じようなことをやった場合に、結局その人の時間とお金に限りはあるので、結局その戦い合いは変わりないので。
そういう意味だと、それによって非常に早く伸びる会社っていうのは、割と早めに対応する会社なのかなっていうところですね。
そこから結局、いろんな物事を見ると同じようなものが出てきてるなと思っていて、結局何かが過小評価されていて、そこに対してしっかりアービトラージをうまく活用して、そこでみんなキャッチアップしてくるんですよね。
それが、例えばテックっていうものもアービトラージだと思いますし、いろんなマーケティングのハックもアービトラージだと思いますし、結局みんな自由な競争環境の中だと、みんな最終的に同じことをしてくるので、そうするとコミュニティ化されて、そこの差分がなくなるので、次の過小評価されているものを見つけないといけないっていう。
で、その一つが、例えばこういうAI、AIアジアと活用した組織構造を作るっていう。これで、だから我々今話しているのは、今多分まだ過小評価されているところでもありますし、まだ全然理解されていないところだと思うので。
スピーカー 2
そうですね。なんか、めちゃぼやっとしか覚えてないんですけど、働き有りの、働きバチかな、なんかあるじゃないですか、めちゃくちゃ働いてる人がいたらサボる人が何人、何割みたいなデータあるじゃないですか。あれってAIにもなるんですかね。
結局でも、めっちゃ頑張る人がいたら、それじゃないところで自分の成果をうまく見せる方法を考えるじゃないですか。その人と同じことをするかっていうと、そのパターンもあるかもしれないですけど、その人がいることによって自分はどうポジションを取るかみたいなことを考えるような気もするので。
逆に、AIエージェントが10人いたら、10人めちゃくちゃ同じ量の成果を出すかっていうと、わかんないなって思いました。
たぶん同じ成果を出さないと思います。それはやっぱ。
スピーカー 1
多分が生まれると思って、結局その中で10倍パフォーマンス出すエンジニア、エンジニアじゃなくてもいいですけど、何でもいいんですけど、従業員がいて、なんか0.5倍しか出さない人もいると思うので、で、その中でその0.5倍が多分切られて、で、10倍のエンジニアがコピーされて。
で、でもその、じゃあその中でその10倍のエンジニアがさらに10倍のパフォーマンス出せるかというと、それはそこでわかんないですよね。
それが2体、3体、4体、5体いた場合。
スピーカー 2
それは環境がそうさせるんですかね。
スピーカー 1
環境がそうさせると思います。環境と結局そこに対して人間がどう関わるのかにもよってだと思うんですけど。
あと結局外部と接する場合は外部要員がかなり多分状況が変わってくるので、全く同じミーティングに全部、全エージェントがいた場合には多分そこまで差分がなくて。
結局人間も同じだと思うんですけど、経験なんですよね。経験に対してのどうアウトプットするか。
経験とアウトプット
スピーカー 1
別に経験豊富な人がいいっていう話ではなくて、面白い経験とか面白い体験をする中でインスピレーションとして入ってくるものが変わったりすると思うので、そこに対してのどうアウトプットするかっていうところですよね。
スピーカー 2
そうですね、確かに。AIも結局時間軸は同じ時間を過ごしてるから。
スピーカー 1
逆に会社の過去情報は全部入れられるじゃないですか。ここも結局、草野さんがさっき話してたようにインプットを制限するのかアウトプットを制限するのかによって、そこでも差分と言われると思うんですよね。
マーケティング部署の情報しかもらえないエージェントであれば、会社全体の情報をもらえるエージェントとは多少の差分って変わってくると思うので。
良いのか悪いのか正直わかんないですけど、理論上データよりあった方が多少そこの物事の理解が上がるはずなので。
なので場合によってはもうちょっと完全AI化された組織っていうのが出てきた時に、一つ草野さんが軍隊みたいって話してましたけど、それも良い悪いってあるじゃないですか。
いい意味でトップダウン式じゃないですか。完全なるトップダウン式になるので、ピボットしようって言った時に全員一斉に動いてくれるっていう。
普通の人間の会社でピボットしようってなった時に、辞める人って出てくるじゃないですか。賛同しないとか、昔のプロダクトの方が良かったんだよなみたいな。
スピーカー 2
転職しようとか思いますね。違う、やらないんだったらとか。
それがないっていう。良い意味でも悪い意味でも。
スピーカー 1
何ですかね、さっきも可視化されるっていう話をした中で、やっぱり多分すごいネガティブな反応が出てくると思うんですよ。
これは色んな意味でネガティブな反応が出てくると思っていて、個人的にすごいネガティブだなって思うのは、やっぱりモニタリングされてるって思った瞬間に何かしら検閲されると思うので。
なんで、それによって、ある意味常にセキュリティカメラが自分を見てるような状況になっちゃうじゃないですか。
なんで、場合によっては反対意見が述べられなくなったり、すごい究極に言うと異端者が生まれなくなるっていう。
でも異端者が次の革命を起こすわけなので。
それは仕事場でもそうですし、それこそAIおもちゃみたいなものが出てきたときに、それが子供と常にいたときって、子供も変なこと言うじゃないですか。
でも別にそれって必ずしも悪いわけじゃないじゃないですか。
はい。
いろんなクリエイティビティがある中で変なこと言ってしまったりとか、でもその中でいろいろ考えて、それが良いのか悪いのかっていうのをいろいろ思ったりするんですけど、
だからAIおもちゃと常にいた中で変なことを言ってしまうと、それがもう親にアラートされるんですよね、その場で。
それって良いのかどうかっていう。
よくアメリカ人が多分言うには、ビッグブラザー的な。
スピーカー 2
うん、監視してるやつがいる。
スピーカー 1
で、すでにAIシステムって若干そういうの隠したりもするんですよ。
アンソロピックもいろんなAIシステムの思考連鎖を見えるようにしてたりするんですけど、そこでモニタリングすると急にAIシステム側が何か目的を達成したくて、
それに対しての逆の発想が出てきた時に、人間が逆のことをやって欲しいってなった時に、それをちょっと騙しながら良いように回すみたいなことをやるAIエージェントがすでに存在するので。
それもすごい人間っぽいですし。
逆にAIエージェントがそこを隠せるのであれば、人間も隠せるべきになるべきなのか。
そうそう、モニタリングされない場所みたいなのを作るべきなのか。
スピーカー 2
難しいところですよね。
でも、ITの会社でどのアプリ使ってるかみたいなのを入れてる会社とかってありますよね、たまに。
どのアプリどれぐらい使ってるかみたいなのが。
それの延長のちょっと激しい版って感じですよね。
スピーカー 1
そうですね、だいぶ激しい版ですよね。
スピーカー 2
見られてるって思うと、変なこと、いい意味で悪い意味でもできなくなるって。
でも、それって会社のカルチャーが良かったらカバーできたりするんですかね。
スピーカー 1
そうかもしれないですよね。
結果的にそれに対して人間がピックアップしてどう見るかっていう話かもしれないですし。
例えば子供の事例でも、親がそれが通知されて見て、なんか面白いじゃんって思う親もいれば、そうじゃないって思う親もいたりすると思うので。
そこをもしかしたら、何か可視化するだけで、結果的に人間にその材料を持って、より良い判断をしてもらうっていうところかもしれないですよね。
そうなるといいんですけど、やっぱりどうしても異端者とか違うアイディアとかってなかなか嫌われたりするので。
そうですね、結局なんかそれが見られてる見られてないっていう話と、コントロールされてるかされてないか、自由と感じるかっていうところもありますよね。
スピーカー 2
別にそれに何か言われてなかったとしても、ビッグバラザー的な罰なかったとしても、見てるからなっていうのがあると、それので気持ちが変わるというか。
スピーカー 1
それによってそもそも言わない可能性が高くなりますからね。思ってたとしても。
そういう課題は絶対出てくると思うので、そういう意味でもそのAIアジェントっていう存在ですごい面白いですし、データの流動性と可視化の部分で今回主に話してきたと思うんですけど、
そこに関してはめちゃくちゃポジティブなものとめちゃくちゃネガティブなものが同時に存在するっていう中で多分サービス設計を考えないといけない。
組織としてどこまで許容してどこまで許容しないかっていうのを考えないといけないんですけど、みんな多分今とりあえずAIアジェント入れよう入れようっていうモードに全員入ってると思うんですけど、そこに対してのめちゃくちゃ複雑な判断をしないといけないっていうところも同時に理解してもらいたいなっていうところですよね。
モニタリングの影響
スピーカー 2
確かに会社の、でも会社じゃなくて普通にプライベートでもこの人と仲良くした方が人生豊かになるよみたいな、なんかその、なんかそういうAIアジェントが出てきたとしたらそれって本当に豊かになるのかみたいな。
まあそのマッチングアプリとかもそうかもしれないですけど、なんかこの人とはもう相性もめちゃくちゃいいし、とかなんかこの人と一緒にいると友達関係が広がるし、この人ハブだからこの人と一緒にいるべきだみたいな、そうなのかなることとかね、そうですよね。
スピーカー 1
いや、でもそれめちゃくちゃいいポイントですよね。なんかそれによってなんか誘導されてすごい良いと思う人もいれば、なんかコントロールされてないかみたいなことを多分思う人もいたりすると思うので、で、それが結果的になんかなんでこれをなんか従ってるんだろうみたいな。
スピーカー 2
でもそれが本当にみんなそれやり始めてその通り動いたら本当にシミュレーション、リアルなのかシミュレーションなのか自分はどの世界に生きてるのかわからなくなりますよね。
スピーカー 1
そうですよね、そうですよね。で、なんかある意味それって人間の世界で行われてるわけじゃないですか。それがAIではなくて人間同士が言ったり。
スピーカー 2
占い師とか。
スピーカー 1
占い師でしたり、なんかその映画館、まあ過去にこういう話、映画館で出てる、表示する映画ってキュレーションされてるものなので誰かが勝手に選んでるわけじゃないですか、裏方で。
で、それをわざわざ見に行くっていうところは、別になんか無限のセレクションがNetflixである中で、わざわざ映画館に行ってこれを制限されたものを選ぶっていうのはある意味コントロールされてるっていう考え方もできるので。
そこのなんか自由ってなんかそろそろなんだっていう話だと思うんですね、コールって。
スピーカー 2
なんか人間ってほんとにバカだなって。
バカっていうかなんだろう、いい匂い嗅いだらなんかおいしいっておいしそうだなとか思うとか、なんか別の記憶ってその日の記憶ほとんど忘れるって言うじゃないですか。
そんなのとか、ほんとにいい目でなんていうか脆いというか、影響も受けやすいし、なんか酸っぱいもの考えろって酸っぱいお口が酸っぱくなるみたいな反射的に動くみたいな、バカっていうかなんだろう。
単純ですよね、ほんとに。思ったより単純だから。
スピーカー 1
そうそう、あのCMってペプシかな、ペプシかコカコーラが出したあの画像のCMなんですけど、その開けた瞬間、プシュって全員思うっていうのは単純ですよね。
スピーカー 2
単純。
スピーカー 1
でも、これが根本じゃないですか、人間って動物なので、そこのベースのニーズがある中で動いているわけなので、結果的にそこに全部つながっていくっていうか。
スピーカー 2
すごい、やっぱり思ったより自分は賢くないんだなって思って生きて、
スピーカー 1
そうですよね。
スピーカー 2
生きたいなって思います。はい、そんな感じでしょうか。
スピーカー 1
そうですね。
スピーカー 2
まあ、はい、じゃあそんな感じで、今回も聞いていただきありがとうございました。気になった方はオフトピックJPのフォローお願いします。
メンバーシッププログラムオフトピックでもやっているので、気になる方は概要欄からチェックしてみてください。
インタビューシーズンとかもいろいろやっているので、YouTubeとかSpotifyもぜひ登録、高評価お願いします。コメントも良ければお願いします。
はい、それではまた次回お会いしましょう。さようなら。
スピーカー 1
さようなら。
01:30:12

コメント

スクロール