1. AI未来話
  2. #3-17 AIに「使われる」恐怖。..
2026-01-22 36:43

#3-17 AIに「使われる」恐怖。認知的負債と理解負債とは?

spotify apple_podcasts

あなたはAIを使っているはずが、実は使われていませんか...?恐怖の認知的負債と理解負債を知っておきましょう...。

 ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄

✉️ 番組へのお便りはこちら!

⁠→ https://forms.gle/4XAqHW9GfwH7NpYs5⁠⁠

 ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄
毎週木曜朝7時、AIメディアを運営する共同経営者の2人が生成AIのメガトレンドユースケースAIによる社会への影響を30分で解説。AIの未来を「ながら聞き」でキャッチできるPodcastです。

 ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄

🦆 公式X

→ AI未来話⁠https://x.com/ai_miraitalk⁠)

 ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄

◾️AIメディア MiraLab AI

⁠⁠→ https://miralab.co.jp/media/

 ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄

◾️おすすめAIガジェット #PR

 ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄

◾️Podcastリンク

Spotify

⁠https://open.spotify.com/show/4YQI4JvX83mURM6xywKn5w?si=34b96be128584bad⁠

Apple

https://podcasts.apple.com/jp/podcast/ai未来話/id1733462439?uo=2⁠

LISTEN

⁠https://listen.style/p/aifuturetalk⁠

 ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄

サマリー

このエピソードでは、AIを活用した開発における認知的不採と理解不採について議論されます。AIを利用していると感じながらも、実際にはAIに依存し、自身の理解が浅くなる危険性が指摘され、特に組織全体での生産性低下の問題にも触れられます。AIの使用が進む中で、認知的負債や理解負債が問題視され、エンジニアは理解が追いつかず、修正作業が非効率になることが言及されます。これによって、品質の低下や責任感の欠如、さらには燃え尽き症候群を引き起こす可能性があるとされています。このエピソードでは、AIに「使われる」恐怖について、認知的負債と理解負債の概念を深掘りしながら、自らの理解を深めることがAIを効果的に活用する鍵であると語られます。特に、AIを活用する際の注意点や自身の知識の重要性が強調されます。また、AIの利用による認知的不採と理解不採について議論し、教育者の重要性とAIとの関わり方について考察されます。

AIに使われる恐怖
AIメディア、MiraLab AIの平岡です。
同じくMiraLab AIのたつけです。
最近、AI使ってて、めちゃめちゃ疲れたわーって思うとき、ありませんか?
あるある。
僕、最近、特に開発の面向きなんですけど、
開発していると信じられないくらい疲れるんですよ。
集中力続かないし、目も脳もとろけてるみたいな状態で、
僕、もともとエンジニアじゃないし、独学も多いし、英語も読めないし、
知らない概念も山ほどあるので、初めての領域で認知負荷がめちゃめちゃ高い状態なんですね。
でも、筋トレと一緒で、認知負荷が高いってことは、つまり引いてるはずだって思ってたんですよ。
あー確かにね、今負荷がめちゃくちゃかかってるから、
あのもう今、脳みそが筋肥大中みたいなイメージ。
そうそうそう。俺成長してんだなこれもね。
あーなるほどね。
っていう風に思ってたんだけど、
ある時ね、AA使わないでコードレビューしようって、あの開発教えてくれるうっちーとやったわけですよ。
そしたらもう恐ろしく、自分が理解していないことに気づいてしまって、全然わからんと。
で、僕はもうね、落胆したんですよ。あれだけ苦労して開発進めたのに、身になってないと。
あーなるほど。
だからさ、成果物はさ、動いてるじゃん。システムは。
でも、自分の中に何も残ってない。あれ?みたいな感覚が急に出てきて、
その時に僕思ったのが、AIを使い倒してやってると僕思ってたんだけど、実はAIに使われてたんじゃない?これ。
面白い。
なるほど。
AIに使われてたのか?そう、だって残ってないんだもんね。
確かに。
だから、AI使ってるように見えて、使われてたんじゃね?って思ったんですよね。
これがね、めっちゃ怖いなって思って。
認知的不採の概念
確かに怖いね、それは。
これ多分ね、あるあるだと思うなと思って調べたのよ。この現象何なんだろうって。
したら出会った言葉がありまして、それがね、認知的不採。
えー、ちゃんとそういうことはあるんだ。
と、あと理解不採っていう、この不採っていうのがね、今回のテーマなんですけど。
今日はこの2つ、ちょっと話していきたいなと思っていて。
で、これね、AI使ってる人全員に関係ある話です。
あー、なるほど。
怖いよって言う。
あれだね、気づいてないけど実はみたいなパターンもあるかもしんないよね。
認識してないだけみたいなね。
のパターンの方がほとんどだと思う。
あー、なるほどなるほど。
結構前に、たつけの回でさ、AI使うとバカになるみたいな。
あー、あったね。
回があったじゃないですか。
あれに近い文脈、じゃあ文脈なんですけど。
あー、なるほどね。
まあ、それをなんかよりちゃんと研究のテーマにもなってて。
あー、みんな同じように思ってるんだっていうちょっと安読感もあったんだけど。
あー、なるほど。
これは結構ね、AIの使い方間違えると本当にバカになっちゃうみたいな。
最近さ、ニュースピックスでもよく取り上げられてて、
みんなその危険性にちょっと気づき出してるなって思ってるんだ。
僕らも毎回言ってるじゃないですか。
そうだね。
実際に自分の目に起きて、これは確かにダメだって。
やばいかもみたいな。
思ってる。
なるほどね。
まあ、それをちゃんとね、総数引っ張ってきて調べて、
僕なりにちょっと言語化してみたので、話していきたいなと思います。
はい。
じゃあまず、認知的不採からいこうかな。
これ認知的不採一言で言うとですね、後払いです。
後払い。
ペイディです。
ペイディ、なるほどね、後払い決済。
はい、330円です。
手数料?
手数料。
詳しいですね。
使ってはないよ。
あの、ゾゾタウンとかで出てくるじゃん。
そうだね、後払いね。
めちゃめちゃ推奨されるじゃん。
儲かるからね、あれね。
で、何を後払いするのかって言うと、これAIの文脈で言うと、人間の注意力です。
注意力。
はい、注意力を後から払うことになります。
注意力を後から払うのか、なるほど。
これAI使うと、本来自分が考えて答えを出さなきゃいけないプロセスがあるじゃん。
これ丸ごとスキップできますよね。
で、そのスキップした分が付けとして残るわけです。
例え話しますね。
学生の時に、あのギター欲しいなって思ったこと多分みんなあると思うんですけど。
絶対ない絶対ない。一部のシンガーソングライター分だけ。
あのギター欲しいなと思ってさ、アルバイトしてさ、お金貯めてさ、
たまにそのギター見に行ってさ、わーやっぱかっこいいなーとか思ってさ、
早く買いたいなーってワクワクして。
アルバイトして、お金貯めて。
ようやく買うわけですよ。
で、買ったあの瞬間、ようやく自分でこう手に入れたぞっていう達成感あるじゃないですか。
あるある。
自分の欲しいものを頑張って買ったっていう、あのプロセス。
これをですね、もし借金して、バーンって買うじゃん。
あーめっちゃわかりやすい。
で、買った瞬間は確かに嬉しいよ。嬉しいけど、後から、わー借金返さなきゃってなるじゃん。
なる。あーなるほどね。
だからプロセスを丸ごとスキップして、支払いだけ後からやってくるみたいな。
うんうんうん。
認知的不採っていうのはこういう感覚。
あーなるほどね。
AIでアウトプット、答えがバーンってきます。
で、後からこれを返さないといけなくなるっていう状況ね。
で、例えば、チャットGPT5の記事に書いてみたいな、頼んだとするじゃない。
そしたら、記事はバーンって出るじゃん。
で、そこから、いやここ弱いなとか、いやこう成功じゃないとか、根拠これどれだよとかさ、めちゃめちゃ注意力払うじゃん。
で、これを分解すると、何やってるかって、まず読むじゃん。
で、評価するじゃん。で、それを解釈するじゃん。で、改善するじゃん。
で、AIの出力と改善案を統合するじゃん。
で、保存するじゃん。で、共有するじゃん。で、また改善するじゃん。
っていう注意力を後から払っていってるよね。
で、この出力が増えれば増えるほど、後からこの注意力の請求書っていうのが増えるわけですよ。
で、ここまで聞くと、まあAIってそういうもんだよねって思うかもしれないじゃないですか。
まあまあまあそういうもんだよね。
でもね、これの何がやばいかっていう話をちょっとすると、人間ってそもそも行動しながら考えるんですよ。
なるほどね。
例えばね、数学の問題とかでも、とこごとして悩むまで、その問題って理解できないことが多いんですよ。
だけどAIが答えを先に出すと、その悩んで理解を作るっていうプロセスをすっ飛ばしちゃうから、理解が浅いまま進むって感じ。
なるほどね。
やりながら考えるっていうことができなくなっちゃう。
でさ、やりながら考えているとさ、あれもしかしてこれ違うかもとか、この方向じゃないかもとか、問いが変わるときあったりするじゃない。
あるね。なんか文章を書いているときとかだとイメージしやすいかな。やっぱ長文、手紙とかもそうだけどさ、
やっぱなんかそう、もちろんある程度の構成はなんとなく頭の中でイメージはするけど、やっぱ詳細な文章で書きながらイメージしていくとか出てくるみたいなところあるじゃん。
ああそう、書きながらもうめっちゃわかりやすいかも。
でも、で書いてるときに、ヤンヤンこれちょっとおかしいなってやっぱ気づくみたいな。
そう、気づく気づく。
やっぱ書いてないからわかんないもんね、それって。
そう、そうなのよ。だから自分が書きながら、ああでもない、こうでもない、いやここはもっとこういう文体だとかさ、考えるじゃん。
っていうのがないんだよね。ないまま、じゃあどうですかこれって出されて、急に編集者みたいな感じになるわけですよ。
しかも強作してるわけでもない。もう出来上がったものを見るみたいな。だからその悩んで作るっていうプロセスを飛ばしちゃってるわけですよね。
確かにね。
そうすると、ちょっと理解が浅いまま進んじゃってるみたいな、そういう感じなのよ。で最悪なのが、最初の問いがそもそもずれてたらもう最悪で、無駄なものをレビューするだけみたいな。
ああなるほどね、そもそもみたいな。
そもそもみたいな。だからやりながら気づければ戻せるじゃん。でも戻せないまま終わった後に、あれこれなんか違くねみたいな。
だから借金して、お金持ったと勘違いして、すごい買い物したけど、これいらなくねみたいな。そういうのあるじゃないですか。
買っちゃったけど。
そう、なんか買っちゃったけど、これいらないなみたいな。ああいう感じですね。
なるほどね。
結果的にそれが増えると、AIの出力にもう溺れちゃうわけですよね。
うわもう払えないよみたいな、注力そんなにないよみたいな、有限だからね。でうわーってやったのに、結果自分の中には何も残ってない。あれみたいな。
理解不採の影響
ただお金返してるだけだ俺みたいな。
なるほどね。
何やってんだろう、俺何のために生きてんだろうみたいな。っていう状態に入る。
すごく死にそうだけど大丈夫?
で、僕がね、うっちーとAIなしでコードレビューしようってやった時の恐怖で、たぶんこれだなって思ったんですね。
なるほどね。
じゃあ次、理解不細いきますね。
理解不細。
さっきは認知的不細なんですけど、理解不細。理解不細はね、コーディングの文脈で使われます。
コーディングだけなんだ。
基本はそうですね。で何かっていうと、コードは動くけど、なぜこの実装なのか誰も説明できない状態。
なるほどね。
っていうことですね。最初にこの言葉聞いた時、言語化上手すぎんだろうって思って。
確かに。
理解不細だってめっちゃ思ったのよ、俺も。で、この理解不細を説明するのに、AIパラドックスっていうこともちょっと話しておきたいんだけど、
AIパラドックスっていうのが最近流行ってるんですよ。
流行ってるんですか。
流行ってるんです。これ何かっていうと、個人の生産性は上がってるんですね。だからコードの出力はさ、めちゃめちゃ速くなってるから、生産性はもうみんな上がってますねっていう。
でも組織で見たら生産性落ちてるっていう。
組織で見ると落ちてるの?
そう。
ということは個人は上がってるんでしょ。
個人は上がってるんですけど、全体最適としてはむしろ下がってる。これがまあいわゆるAIパラドックスっていう現象。パラドックスしてるよね。
パラドックスはしてるね。
なんでこれが起きるのかっていうと、理解不細が主な原因って呼ばれてるの。
ああそうなんだ。
これどういうことかっていうと、AIでコードは爆速で生まれるけど、その後の理解、保守、改善が追いつかないわけです。
ああなるほどね、そういうことか。
だから結果コード量は増えてるのに、分かってる人が増えないわけですよ。でこれが不細としてたまっていくわけですね。
その不細が企業として見たときの全体最適化に影響が出てるのか。
そう。
なるほど。
認知的不細と理解不細の概念
でエンジニアの人だと技術不細っていう言葉は結構聞きなじみがあると思うんですけど、ざっくり言うとコードの質が悪くて修正コストが高いみたいな話なんですね。
で理解不細は何かっていうと対象がコードじゃなくて人寄りって感じなのよ。
だからこのロジック誰か説明できるって聞いても誰も説明できないみたいな。そしたらもう組織積むよねみたいな。
そうだね。
でこの理解不細何が問題なのっていうところをお話しすると、まず分かるところで言うと修正にめちゃめちゃ時間かかるよね。
まあ当然だって誰も理解してないんだもんね。
そう。まず理解するとこからスタートするじゃん。
でもこれは書く時間が減った分修正してるから時間対効果で見るとそんなに変わらないわけよ。トントンじゃん。やっぱ個人のセンサー性も上がってるし。
でもさっき認知的不細で言ったように理解できずに進んじゃってること自体が問題なわけだよ。
時間で見るとあんま変わってないんだけど考えながら作るっていう想像的なことができてないからむしろマイナスなんだよね。
なるほどね。
不細だけなんか溜まってってるみたいな。あれAI使わなかったほうがよかったんじゃねみたいな。いう状態に今なってるわけですよ。
これって理解不細コードの文脈って言ってたけどニュアンスとして皆さん伝わりやすいのでエクセルの数式とか結構同じような状態になりやすいかなって話聞いてて思ったんだけどさ。
僕が前働いてた会社で思ったのがすご腕のエクセル師みたいな人がバリバリに数式組んだエクセルを作っていろんなやつを効率化したんだけどその人が辞めていなくなっちゃって。
みんなその残された遺産のようなエクセルを使ってるんだけどもう誰も直せないみたいな。
だからここの部分は自動化なんですけどあとは全部手動で入れてますみたいな。
謎のエクセルみたいなのが残ってるみたいな状態になってたんだけど。
なんかそれってもうごく一部じゃん。
AIの設定でそれがはびこってるみたいな状態に似てるなって思った。
確かにね。エクセル不細だ。
エクセル不細。
あるね。
あるある。
でもかなり文脈近いと思う。みんな理解してないから結局それ直せんみたいな。
そうそうそうそう。
それがさお客さんに出してるシステムとかだったらもうやばい。
それはもうやばいね。
っていう状態でコード量が増えちゃってる分処理ができなくなっちゃってる。
だから不細になっちゃってるんだよね。理解が。
AIの影響とセキュリティリスク
でも不細だから返さないといけないんですよ。
だからどうやって返すのっていうのが結構今問題になってる。
なるほど。
で他にもねセキュリティリスクもめちゃめちゃ増えてるよって言われてて。
AIのコードってね45%ぐらい脆弱性が含まれてるみたいなデータもあって。
そうなんだ。
脆弱性だからめちゃめちゃ攻撃される状態なわけですよね。
やばいね。
企業からしたらもう何やってくれてんねんみたいな状態なわけですよ。
でそれに対して何度も修正コストが増えるみたいになっちゃってる。
で個人的にうわこれだこれが一番やべえって思ったやつがあって。
で何かっていうと理解不採が起きるとバーンアウトするっていう。
バーンアウト。
燃え尽き症候群。
燃え尽き症候群。
はいって呼ばれるやつですね。
コロナの時にもねよく使われてた言葉なんですけど、もう頑張りすぎて燃え尽きちゃって何もできなくなる。
それも要は理解が追いつかないことを頑張って理解しようとするから終わっちゃうみたいなそういうこと?
まさに今研究されてる状況だからその正確にこれとは言えないんだけど、
個人的にはね認知的負荷が高まりすぎちゃったせいじゃないって思ってるの。
なるほど。
さっき言ったようにコードを書くって文章を書くと同じくらい想像的な作業なんですよ。
書きながらこうでもないあーでもない。もっとこうしたらいいんじゃない。
いやそもそもこれこうしたらいいんじゃないみたいな想像性を発揮するんですけど。
それをスキップしてAIの出されたコードを理解をまずしてレビューしてデバッグするって、
まあ編集者ポジションだよねこれって。
まあそうだね。
だからめちゃめちゃ高負荷なわけですよ、認知作業が。
だからもう人間の脳が耐えられないんじゃないっていう急にそんなことをされて。
そういうさプロセスを得て編集者になるわけじゃん。
なのに急に編集者やれって言われて、えーみたいな。
ああなるほどね。でもそれはあるかもしれないね。
実際そうじゃん。
ライターとかでも。
ライターとかもまさしそうだよね。
だってやっぱり元々のライターは自分が書いたものを構成者とか編集者が見るってパターンだったけど、
最近はAIが書いた文章をまずこう自分が見るところからスタートしてるライターさん絶対多いと思うから。
多いじゃん。でそういう人ってさ全然いい文章来ないじゃん。
来ない。
これがねコーディングの分野でも起きてるの。
ああなるほどね。
で、僕もそうじゃん。エンジニアじゃないし分からない状態でいきなりディレクターポジションになってんの。
訳分かんないよ。
まあそういうことだよね。
で、脳みそめちゃめちゃ疲れるし、もう毎日何も分かんないみたいな。毎日調べながらやるみたいな。
いや疲れますよ。
そうだね。
と思って、年末ぐらいの時なんですけど、本当に疲れすぎて何もできないみたいな時あったのよ。
バーンとしてんじゃん。
バーンとしてると思って。
そうだよね。これだ!
言い訳を見つけました。
バーンアウトっていういい言い訳。
だから、俺ちょっと開発の進捗悪いじゃんって言われても、いやーバーンアウトって知ってるって。
めっちゃいい言い訳。
バーンアウトをもう盾にして、俺は攻めようかなみたいな。
必殺技になってんじゃん。ギガスラッシュみたいな。
そうそう。バーンアウトみたいな。俺は休むみたいな。
まあでも、本当に現実問題、これは結構やばいなって思うんすよ。
うん。
で、もう一個ね、やばいんじゃないって呼ばれてるやつが、オーナーシップの喪失欠如って呼ばれてて。
ああこれあれだね。前僕が話したさ、AI使うとバカになるみたいな回で似たようなのあったよね。
あった。
自分の所有物っていう感覚がないみたいなやつだよね。
そうそうそう。だから自分の所有物じゃないみたいな感じになるから、責任感がどんどんなくなっていくんだよね。
なるほどね。
だってこれ俺じゃなくて、映画作ったやつだしみたいな。
で、その結果品質低下を招いてるんじゃないかという指摘があって。
だから自分が理解してない行動に責任を持つことなんてできないよねみたいな。
本質はね、もともとあったようなものって似てるなっていう話、それも聞いてて思ったんだけど、
やっぱメディアで過去に炎上したことがあった時とか、あんまりよろしくないコンテンツ出した時とかに、
やっぱりよくある言い訳が、害虫のライターが書きましたっていう。
いやもうこれ俺書いたわけじゃねえもん。害虫のライターが勝手にやったんだよみたいなさ。
はいはいはい。
結局それみたいなことがAIでも起きかねえってことだよね。
僕じゃないです、これAIが勝手にやったんですもんみたいなさ。
そう、というか起きてる。
理解する場所を決める重要性
そういうことだよね。
そう。結果品質低いものを出してるだけじゃん。事実として。
だから意識が低下して、さらにその不採用を生んで、利息がつくみたいな。
こう悪循環に陥るみたいな感じだよね。
そうだね。
めっちゃわかるわと思って。
確かに。
だって自分で書いてないからさ、全然わかんないもんね。
全然わかんないもんね、確かにね。
全然わかんないよ、本当に。
だから最近毎週僕はね、AIなしでコードレビュー、もう本当に基礎からまたやってるっていう感じだね。
すごいね。
めちゃめちゃ疲れるよ。
まあそりゃそうだよね。エンジニアじゃない人が本当に基礎の基礎を今学んでるということだもんね。
うち曰くやっぱ現場感にかなり近い状態とは言ってて、やっぱもう出来上がってるシステムに対して読んでいってちょっと自分で書いてみるとかっていうのは、初期の頃に結構やるようなことだから。
現場に行かなくても現場感は結構鍛えられるかもね、これでみたいなことは言ってた。
なるほどね。
だからやっぱ使い方っちゃ使い方だよね。
AIが悪いわけじゃなくて、使い方ミスると本当ヤバい道具だなって感じ。
使ってるように見せて実は使われる側に成りかねないってことだよね。
成りかねないし、まあほぼ成りかねてるみたいな感覚はあるよね。
もう分かんないよ、まだ出来立てだから。俺たちも分かってないよ。
そうだね。
使い方をね。で、じゃあどうしたらいいのと、もうAI使わなきゃいいじゃんってなっちゃうじゃん。
まあそういうわけにもいかないもんね。
わけにはいかないじゃん。使うじゃん。だからどうしたらいいんだろうってちょっと考えたんですよ。
うん。
こっからはもう僕の主観なんで、違うよって思ったら違うよでも全然いいんですけどね。
なるほどね。ひらなりの答えと思うね。
僕なりに考えた感じは、理解する場所を先に決めるがいいんじゃないかなって。
ああなるほど。
思うんですよね。だからもう、前はさ、AIない頃はさ、全部をまず理解しないといけない。
からスピードが犠牲になるよね。トレードオフとして。
ああそうだね。
だから時間はかかるけど積み上がった結果すごい人になるみたいな感じだったと思うんだけど、今ってスピードも求められるじゃん。
自分が理解できてる部分とか、いわゆる省枠できてる部分をAIに投げていくっていう感じにしないと、作業スピードって上がんないじゃん。
だから作業スピードを上げつつ、理解を深めるってなったら、理解する場所をまず決めるっていうことから入らないといけないんじゃないかなっていう。
それじゃあその理解する場所を決めてそこを理解したら、そこをAIに投げるようにすること?
そう、まあだから経験にちょっと近いよね。組織作りみたいな感じで。
でも自分が深く理解する場所ってどこだろうっていうのは、事前に決めた上でやらないと、絶対に理解不採溜まるなって思ってる。
だからゲーム的に言うと、認知的不採って注意力でしか返せないって話をしたじゃない。その注意力をどこに置くかっていうゲームなんじゃないって。
ああなるほどね。今だからもう注意力3万になって、あっちもこっちもってなってるから、それを自分で整えてあげるみたいな感じなのかな。
そうそうそう。だから元々注意力3万な状態でやってたものを、AIである程度自動化できるとなった時に、
AIに任せる部分と自分が深く理解する部分っていうのを先に設計した上で望まないと、AIに飲み込まれるみたいな感じだね。
なんかでも僕的に話聞いてて思ったのは、理解する場所を決めるっていうのと結局一緒なんだけど、なんかちょっとニュアンスが違くて、
AIのせいで自分が理解しなきゃいけない範囲の速度感が上がりすぎてるみたいなニュアンスが正しいのかなってちょっと思ったんだよ。
AIの活用と理解負債
まあまあまあその側面もめっちゃあると思う。
そうだからさっきヒラが言ったように、その自分が理解できてる部分をAIに投げるっていうのがさ、それこそ昔ドワンゴの川上さんの話あったじゃん。
ヒラが昔してくれた。これ川上さんが、まあこれヒラから聞いた話、今ヒラにまた逆輸入するんだけど。
逆輸入。懐かしいね。
そう川上さんが言ってたのは、自分が得意なものを人に任せて、自分は自分ができない得意じゃないことを注力して集中すると。
それができるようになったらそれをまた他の人に渡していくみたいな。そのサイクルが大事だみたいな。
そういう話があったじゃん。
もともとできないものは人にやらせるみたいな感じだったものを、いやいやそうじゃないよねって話だったよね。
そうそうそう。で結局AIも同じ現象が起きてるじゃん。
ってなった時に理解負荷がものすごくかかってるのって、その自分ができないことを一個ずつ処理していくっていうぐらいの速度感じゃなくて、
だから言ったら開発っていうものをAIが全部できてしまってるから、その中の本来一部分注力して段階的にやっていくところを一気に全部理解するターンに来ちゃってるみたいな。
そう来ちゃってるね。
なんかそういうニュアンスが近いのかなというか。
ああそうだね。まあ新人は特にそうだよね。
そうそうだよね。
僕みたいな新人は本当にそうだと思う。
でもだからAIのおかげで、バイブコーディングでこれ3ヶ月でここまで行けちゃうんですよ。
っていうのがある意味売りだったりメリットだったりもするけど、人体の成長がその3ヶ月の速度感に追いつかないから。
ああそうだね。
普通にやっぱ人間が知識として入れてくんだったら、いつも通り1年やんなきゃダメだよみたいな。
そこのバランスの取り方がちょっと難しいみたいなニュアンスかなみたいな。
そうだね。だからパワードスーツ着て、ものすごい早く走れるようになったけど、体がついてこうなってぶっ壊れるみたいな感じだよね。
そうそうそう。結局じゃあどうやってトレーニングするの?
そしたらじゃあまずはパワードスーツを脱いで、工程を一周走るところから始めて、体を女子に深かけていきましょうみたいなさ。
認知的負債の管理
そうね。まず体の身体強化から始まるよね。
そうそうそう。ってなるとこれAIなかった時代のトレーニング方法と一緒じゃね?みたいな。
そうなんだよね。一緒なんだけど、その鍛える場所を局所的に変えていくって感じになるかな。
器全体を基礎を上げていくってのはもちろんなんだけど、その中でも特にここの部分を理解を深くすると、よりAIに投げやすくなるよねみたいな。
っていうサイクルを作っていく感じかな。
なるほどね。
なんかちょっとたとえとして、伝わるかわかんないんだけど。ちょっと賭けに出るけど。
なんかみんなに伝わりやすいもので言うと、週末の旅行プランをAIで作ろうってなった時に、理解すべき場所を決めとかないと、
AIがさ、箱ネット行ったらもうこことここですみたいな感じでバーって出すじゃん。
で実際にそれに任せていったら、なんか全然みんなの満足度が低いみたいな。個人的には良かったけど、なんか微妙だったよねみたいなことになりかねないじゃん。
だからまずみんながどういうとこ行きたいのかとか、何食べたいのかとか、この旅行の目的ってそもそも何みたいなのを理解してから、
じゃあこれに合ったプラン出してくれっていうことを言わないと、良いプランって出てこないじゃん。
これに近いことかなっていう。
なんだろう、自分で理解してないのにも全部ぶん投げてやってるから、なんか最悪みたいな。難しいな。
開発の文脈にするとね、難しいんだよね。あまりにも理解するとこが多すぎて。
なんか理解ってそういうことなのかな。なんかその例えばだけど、箱ネの旅行スポット出してってお願いして、バーって出てきた時に、
箱ネについて何も知らないのにその出てきた旅行スポットをそのまま行くのは危険。
箱ネについてすべてのお店、神社とか旅館とか観光地をすべて自分でまず1回調べて、
把握してからAIに出させた方が、それの良し悪しわかるよねと。そんなもん全部調べてる暇ないから、
まずは箱ネにある神社ぐらいはある程度把握してから出させた方が、
なんかその旅行スポットの中でもその神社とか観光地に入ってる入ってないぐらいは見れるよねみたいな、
そういう段階かなと思って。その神社を理解したら、次はちょっと旅館とか泊まる場所を理解しよう。
その次はちょっとお店とか理解しよう。みたいな感じで順々にみたいな。
っていう感じのまず理解と関係性かな、みたいに思ったんだけど、そういうことじゃないのか。
それよりかはどういう旅の目的なのかとか、そっちの方を理解する方なのか。
旅にするからちょっと悪かったかもしれないですね。
結局。
かけに負けたね。
かけに負けた。こういうの負けるパターンあるんだね。
そうだね。いやそうじゃないんだよな、言いたいことと思いつつ。旅行だと表現できないなって。
めっちゃかけに負けてる。
なんだろうね、そのGitHubのCEOがさ、昔からね、ドキュメント保管だよって言ってるの、AIは。
ドキュメント保管だから、自分の文脈があった上で保管をしてくれる存在、それがAIが補助輪としてちゃんと動く一番性能を発揮できて、
人間側が負債じゃなくて資産になる使い方、みたいなことを言ってるんですよ。
本質はもうなんかそこだろうなとは思ってるんだけど、そのタスケの旅行プランの神社行って、神社の次に旅館行ってとか、
っていうその段階的に理解していくっていうのは、いわばそのドキュメントを自分で作ってって言ってるわけじゃん。
何々神社はどういう神様がいて、こういうご利益があるらしいみたいな。でそこにAIを差し込むと、
実はこんなこともあるんだぜみたいな。この神社は縁結びと言われてるが実は恋が特に強いんだぜみたいな。
あ、なるほどねってそこはちょっと俺抜け漏れしてたわみたいな。で保管されて、自分のドキュメントコンテキストがどんどん強くなっていく。
でレベルアップしていくみたいな。これが理想かなっていう感じはしてるんだよね。
だけどこれを全部やってったら、いちいちね、時間がないから、どこをまず最初に抑えるべきかをやらないと、いつまで経っても速度が上がらないし、
生産性ってそんな上がんないよねって感じになっちゃうから、という意味でまず自分が何を抑えるべきなのかを考えてからAIを使うっていう、
めんどくさいことをしないと生産性上がんないのかなみたいな感じ。っていうのがなんか僕なりに今回を調べて考えた結果って感じですね。
なんかでももっとこうなんじゃないみたいなことあったらぜひ教えてほしいですけどね、リスナーの方にも。
そうだね、まだこれから答えが出てくる感じの部分というか、なんか手探りな感じはするよね。
めちゃめちゃ手探り。手探りなんだけど、こっちの方向はヤバそうだけ分かってるみたいな。
確かに、このまま行っちゃあかんっていうだけはね。
そうそうそう、それだけは分かってる感じ。
全然違う話になっちゃうけど、なんかこの間ね、友達がチャットGPTって全然使ってなくて、
自分の勉強していることに対して質問したらめちゃめちゃ的確な答えが返ってきて、チャットGPTってめっちゃ便利だねって今更になって言ってたのよ。
で、iPhoneのホーム画面に一番アクセスしやすいとこにアプリを配置しましたみたいな報告があって、
ついに全くチャットGPTを使ってなかった人もこんなことになったんだって思ったんだけど、
その人にね、無料版のやつだとまだまだ全然嘘つくから気をつけてねって一応言っといたの。
そしたら、まあ嘘つかれたかどうか多分分かんないと思うけど気をつけるわって言ってて、
そうだよなって思った。
疲れたかどうか分かんないよな、嘘って。
でもこれなんかすごいヤバそうと思ったの。
そのこのやり取りなんかヤバいなってちょっと思ったの。
分かる? なんか分かる気がする。
分かんないと思うけど気をつけるねってさ、放棄しちゃってるじゃんって思って。
何にも気をつけようがないもんね。
じゃあ最初からググった方が早くねみたいな感情するじゃん。
うわーだからAIの性能が上がって確かにハルシュネーションめちゃめちゃ減ってきたし、課金するしかないんだけどさ、それでいったら、
どこまでをファクトチェックするのか、検証するのかっていうのもかなりポイントな気がするんだよね。
だって全部やってたら意味ないじゃん。
でも実はそのプログラミングの文脈でもそれ起きてて、
AIはちょっと間違えるってことみんな分かってるんだけど、そのままやっちゃう。
で、結果的に理解不細が溜まって、システムがぶっ壊れるみたいな。
で、どこ直したらいいか分かんないみたいな。っていうのが起きてるらしいです。
だから今のAIちょっと微妙だけど、そのままいっちゃってるみたいな。
あーまあでもちょっと分かる気はするな。
めっちゃ分かるんだけど、だから全部やろうねっていうわけにもいかないじゃん。
そうね、なんかここは調べた方が良さそう。
でもこれ調べるんだったら、その時間かかったらAI使って意味なくね?みたいな。
そうそうそう。
でなるときはやっぱあるよね。
あるよね。
だからあそこのバランス感ってすごいやっぱ手探りだし今。難しいよね。
難しい。
で、これ結構あるあるなんじゃないかなっていう。
これはあるあるかもしれないね。
分かる分かるってみんな思ってくれてると思う。
あるある話で終わっちゃった。
AIあるある。
話戻すとね、結局あのみんなAIマネージャーにやっぱなってくと思うんですよ。
AIをどう掌握していくのかっていう手探り状態になってくと思うので、
試行錯誤をするということをサボらないっていうのが一番大事なんじゃないかな。
確かにね、それは言えてるね。
まあいいやーでいくんじゃなくて、ここやるとこうなっちゃうからどうしたらいいかな、こういうことやってみるみたいな。
でもなんかそのやりとりが認知不細すごそうだけどね。
ああ、いやどうだろうね。
うーん、そうだね。
ダメだ。もう逃れられないのかなこの問題からは。
認知不細たまるな。
たまるよね。
注意力どこに使うみたいな。
うん。
いやそうなんだよな。
だから僕の認知不細と理解不細がある意味セットなのかもしれないよね。
そうだね。
やっぱ自分がわかっていることを渡すが正解じゃない?今のとこ。
うん。
自分がわかんないところは、やっぱ自力でやったほうがいい気がするよね。
そうそう。だからやっぱ川上さんの話がやっぱりすごくわかりやすくていいと思う。
ね。
あれは人に投げるだけど、自分がちゃんと理解する、できることをAIに投げる、効率化する。
でその効率化して空いた時間で自分はちゃんと新しいことを学ぶがいいんだと思うんだよね。
実際さ、僕がコーディングをさ、今こういうふうに勉強変えたっていうのはさ、
AIで作られた巨大システムを自力で解いてみるっていう問題製造機として使ってるんだよね。
まあ確かにそうだね。
で自力で解いてるみたいな感じだから、
AIの使い方と教育者の価値
解いさえ間違ってなければ多分この方向で合ってるはずなんだよね。
いいだからしんどさな気がしてる。
じゃあわかんないところをAIにやらせるんじゃなくて、
多分問いを作らせるのにめちゃめちゃいいんじゃない?わからない領域は。
自分が理解できてるところは投げるはもう当たり前じゃん。
で自分がわからないところにAIをどう使うかっていうのが次の問いなんじゃないかなと思ってて、
でその答えの一つとしては、
AIに問いを作らせるが、なんか僕が今やっててこっちで合ってんじゃないって思ってる方向かな。
でもやっぱうっちぃってやっぱ先生がいるからさ、そこでちゃんと答え合わせができるじゃん。
そういう人がいないときはなかなかそこで答え合わせまでセットでいくの難しいよね。
難しいね。
だから固体製造機として本当にツールとして使った上で、先生がいた方がいいだろうね。間違いなく。
そうだよね。
先生なかったら俺絶対無理だわって思うね。
なのでこれからもね、プログラマーの価値はね、全然俺なくならないなと思いますし、やってて。
むしろコーナーインドになってきてるって感じかな。
しかし今回の理解不採、認知的不採っていうのはAI使ってる人全員に関係あるっていう話を最初にしたと思うんですけど、
特に教育者の方は特にAIの使い方で重宝されるんじゃないかなって思いますね。
AIの使い方で重宝される教育者の方が?
そう、だからうっちぃはさ、プログラミングの先生として今僕を教えてくれてるわけじゃん。
なるほどね、教育者ってそういうことか。
幅広い意味での教育者は今後より一層価値が高まるんじゃないか。
答え合わせ担当的な感じだよね。
それはそのAIで作ったものだったり、問いを出したものに対するアンサーの時に一緒にってこと?
もっと言うとその答えを出すのが簡単なのよ。
じゃなくて答えを出すまでのプロセスを一緒に考えてくれる人って感じかな。
なるほど。
がめちゃめちゃ重要な気がする。
し、教育に携わっている人はもっとここら辺向き合って、これからの教育めちゃめちゃAI関わってくると思うんで。
やってくれたらすごい価値が出るだろうなって思いますよね。
認知的不採と理解不採
使い方気をつけようねっていうね。
そうだね、でも認知不細と理解不細がもうかかっていることは確実だからね。
やっぱしっかりそこを向き合っていくのは大事だよね。
はい。ということで今日もね、AI使っていきましょう。
それでは番組の感想をお待ちしています。
概要欄にあるお便りフォームから是非感想お便りお待ちしております。
またお聞きのPodcastアプリでAI未来話の番組フォローとレビューお待ちしております。
それでは来週も木曜朝7時1分にお届けいたします。
通勤通学の30分にAIの未来をキャッチアップしていきましょう。
それでは本日もありがとうございました。
ありがとうございました。
36:43

コメント

スクロール