-
-
スピーカー 1
アンソロピックが黒道利用規約プライバシーポリシーの更新を発表し、ユーザーから批判が殺到ということでギガジンさんの記事です。
AIシステムを黒道開発するアンソロピックが消費者利用規約及びプライバシーポリシーを更新すると発表しました。
新しい消費者利用規約及びプライバシーポリシーは2025年9月28日発行予定です。
2025年8月29日、アンソロピックが消費者利用規約及びプライバシーポリシーのアップデートを発表しました。
これにより、より高性能で有用なAIモデルの提供が可能になるとアンソロピックが説明しています。
クロードの改善と詐欺や不正使用などの有害な利用に対する保護対策の強化のため、ユーザーにデータを使用する許可するかどうかの選択肢を提供するとのことです。
消費者利用規約及びプライバシーポリシーのアップデートは、クロードフリー、クロードプロ、クロードマックスのユーザーに提供されます。
これらのプランに関連付けられたアカウントからクロードコードを使用する場合も同様です。
クロードフォーワーク、クロードコブ、クロードフォーエディケーションなど所有利用規約に基づくサービス、
またはAmazonベッドロックやGoogleクラウド、Vertex AIなどサードパーティーの経由を含むAPIの使用には適用されません。
ということで、アンソロピックでも使ったデータが学習に使ったデータとかチャットしたら、それが次の学習に使われたりとか、
市場調査のためのマーケティング情報に使われたりということで、データ活用が進みますよということでアップデートされました。
こういった方針は、クロードですとかジェミニといったような他社のモデルベンダーでも同様の話です。
クロードって言った? オープンAI社ですね。
オープンAI社のチャットGPTとかジェミニでも同様の方針ではあるんですけれども、
クロードでこのユーザー批判が集まっているのは、もともとアンソロピックは社会にとって安心できるビジネス実装をするということがゴールの企業になっていて、
その大多数のユーザーというのはB2Bであるといったところも、そのような印象をさらに強化しているんですが、
そういった中で企業がアンソロピックを選びやすかった一つに、こういったプライバシーポリシーの観点がありましたと。
もともとクロードはユーザーのデータを一切使わない、自分たちはちゃんと自分たちで確認が取れたデータ源に基づいて学習を行いますということで歌ってきていましたと。
という中でこういう大きな変換点を迎えているというのがユーザーから批判が集まっているところです。
こうせざるを得なくなってきている背景として想定されることはいくつかあるんですが、一番大きなところとしてはやはり学習するべきデータがもう限界を迎えてきていて、
これ以上の新しいAIの開発においては追加のデータをどこからか調達しなければならないといった観点の中で必要になってきたんじゃなかろうかというところと、
あとは先ほど登場したクロードコードというものが先週も紹介して、今日も別の記事の中でそういった話をしますが、非常に人気になってきている背景があって、
その中でアンソロピックとしてはマーケティングというか、顧客の思い付けみたいなことを正確にしていく必要が出てきていて、こういうデータが必要になってきているという可能性もあるとは思います。
一番の理由はやはり前者のモデルへのトレーニング情報が不足してきているといったところが一番大きなポイントになってきているかなと思っていて、
そういった意味でもAI界隈はちょっと足並みじゃないが歩みが遅くなってきそうかなという、そういうことが分かるニュースでしたということで今日です。
スピーカー 2
はい。まあ仕方ないんじゃないですかっていう気はしてますけどね。
スピーカー 1
まあそうですね。
スピーカー 2
自社で取れるコンテンツですし、それを取らない道理はないというか、一番カスタマイズ性が高いというか、正確で取りやすいデータなので、それを活用しない手はないと思いますけどね。
ただ、従前そういう方針じゃなかったというところで、そういう方針変化を打ち出したというところで、そこに前提として同意していたユーザーが起こるのは分かる話なので、
その結果としてお客さん、お客さんというか顧客が離れたんだったら、それも仕方なしと、やむなしという上での結論だと思うので、やればいいんじゃないかなと思います。
スピーカー 2
はい、なかなか難しいですねっていう気がしますけど。
今の生成AIの使い方として正しかろうというのは、成果物を出すことではなくて、成果物をチェックして何か明らかにダメなところを指摘してもらう。
それによって自分が成果物の精度を上げるために壁打ちをするための壁役として使うっていうのが正しかろうという話だと思っていますけど。
スピーカー 1
そうですね。
スピーカー 2
それができないとシニアが仕事が多く、タスクが多くなりすぎて仕事が回らなくなる。それはそうですねという話。
なので、どうなんでしょうね。そこに関しては単純に仕事のやり方を規定すればいいだけなのかなっていう気がちょっと聞いてて思ったんですけども。
要はコードの、ちょっと忘れちゃいましたけど、書き方の拘束条件とかあるじゃないですか。
コーディング規約みたいな。
そう、コーディング規約と一緒な感じで仕事の仕方規約みたいなことでうまくいくかどうかちょっとわかんないんですけど。
それがうまくできてるってどうやって参照するのっていう気もするので。
ただそういうやり方を決めてしまえばいいだけの話かなっていう気はちょっとしました。
で、その話からもう一回シニアのところに目線を移すと、さっき壁打ちするのがAIとして正しい使い方と思われるって話をしました。
ってことはシニアのレビューを壁打ちの対象になるんじゃないのかなと思っていて。
そこは何で破綻しちゃうんだろうねっていう気がちょっとしてるんですけど、そこはどういう説明になるんですかね。
スピーカー 1
まあ単純に正AIの方が捌ける量が多いからですかね。
スピーカー 2
ん?
ボリュームだけじゃないですかね。
ジュニアが作りました成果物を、でその成果物をチェックするシニアがチェックします。
そのシニアがチェックする時にもAIを使って壁打ちさせればシニアの負担は減るんじゃない。
負担は減らないな。シニアの回転数は上がるんじゃないっていう気はしたんですけど。
スピーカー 1
えっとですね、その100点が80点になるっていう問題がそこでも発生するので、
そのコメントが不要にならないというか、難しいな。
途中ではあるんですけど、例えばジュニアの人が作れるのが20点くらいで、
AIが14点くらいのものを出してきましたと。
でジュニアなりに壁打ちしてレビューイランに回しますってなった時に、
できましたっていうフェーズでレビューイランに出されると、
その残りの80点分のレビュー範囲がありますと。
でその80点のレビュー範囲を埋めるための生成AIの使い方っていうのを、
その仕事に対してやり出すと、結局若手がやった20点分の行動に何も意味はなくて、
シニアがやった80点分のAIの結果にシニアが自分でレビューして出すっていう結論になる。
だけどそれをやっちゃうと若手に対してのフィードバックが何もできないので、
若手が自分で考えた部分とAIが考えた部分みたいなところだったり、
AIに指示できなかったところっていうのをフィードバックしなきゃいけないと思うんですけど、
スピーカー 2
その辺の組み取りがAIからかなり難しいって感じですかね。
まあそれはなんだろう。
まあまあでもそうか。
そもそも若手がポン出しで生成AIの生成データを使って、
それが成果物ですって出している、そこに考察が入ってないという時点でレビューをするという設計が破綻しているって、
まずそれは直しましょうということが前提。
スピーカー 2
それが直らない限りシニアのレビュー速度が生むという話はそもそもその段階に行ってないので、
あんまり議論しても仕方がない。
改善の余地がないという話ですね。
そうですね。
スピーカー 1
結構難しいなと私が感じててその甲斐がないって言ってる部分は、
生成AIってその効率化のためのツールとして経営層とかも期待してるしインフラを作ってるし、
契約料金とかお金も出してる。
社会的にも電気代とかいうところですごい資源を使ってると思うんですけど、
結局今の文脈をそのまま言うと、
AIを使わずにその20点くらいの知識の人に、
もう20点くらいの知識で分かってないところを露出させて、
シニアの人がレビューしていく過程でその過程を成長させる過程を踏む方が効率的で、
下手にAIを入れない方が教育面でも成果物のレビューで着実に前に進む速度的にも良かったりするじゃないですか。
若手は、新しい技術は若い人が使いこなしてるはずだし、
こういうのを使ってガンガン前に進めてほしいっていう期待感だとか、
生産性を上げてほしいという期待感はあるんだけど、
結果的に使わない方が生産性が上がる状態が起きちゃうのがちょっと悩ましいなと思っていて、
さっきおっしゃったAIの使い方みたいなところもプロセス化するとか規約化するっていうところが
整備されてないから起きてる問題だと言えばそうなんですけど、
まだちょっと生成AI依存、生成AIを入れて使ってるから生産性は上がるんだ、
上がるんだシーンは業界とかいろんな人が引きずっちゃってるって感じですかね。
スピーカー 2
なんかそこはなんだろうな、業界が引きずってるというよりも見甘えてるなんだろう。
ジュニアの使い方が悪いっていうのを改善するとしないと、
ちゃんと使いこなせてないっていう前提をみんな共有するということをしないといけないという話が前提だと思いますけどね。
スピーカー 1
そういう意味だと生成AIが使いこなせてる状態と使いこなせてない状態っていうものが
経営層とかマネージャーからどう見えるのかっていうことがまだ分かってないせいで
判断できずにAI使ってますという状態イコール使いこなせてると誤認してるのが正しいのかな。
スピーカー 2
とりあえず使えっていう話になって環境だけボンと用意されて使えるわけないので
そこの教育コストというか標準化コストを支払わないまま使うからプロセスが破綻している。
従来プロセスとの差分が大きすぎて、無理度が上がりすぎて破綻しているという話。
スピーカー 1
はいはいはいはいはい。
スピーカー 2
かなとは思いますね。
スピーカー 1
めっちゃ分かる。
もう一つ今の話聞いてすごく問題だなと思ったのが
世の中に生成AI研修のあるものいっぱいあるんですけど
そのAI研修の中身っていうのが
チャットした時に自分がそのAIから引き出したいものをどうやったら引き出せるかという研修がメインになってるんですね。
スピーカー 2
はい。
スピーカー 1
プロセスの中でどういう使い方をすると品質が下がらないかとか
従来のプロセスに影響を与えずに
ちゃんと従来のゲートが意味ある状態で進められるのか
みたいなところって多分誰もまだやってなくて
分かってないだけかもしれないけど
自分の期待通りに出てる風の時点で使いこなせてると誤認しちゃう人が増えてる気がするな。
自分がAIを使ってやった結果がプロセスとか
仕事全体にどう影響するのかっていうのは一旦置いておいて
自分はこういう回答が欲しい、出てきた
イコールAIを使って仕事ができている、になっちゃってる?
スピーカー 2
うんうん。
なので、現在のAIはそれをやるとだから20点が16点になるよっていう話。
スピーカー 1
そうそうそうそう。
スピーカー 2
なのでその使い方はダメですよっていう前提を敷かないといけない?
スピーカー 1
そうだね。
スピーカー 2
で、それを敷かずに導入しましたで終わって
とりあえず使ってみてください。
使い方上も分かんないからみたいなことで
使うから破綻するのかなっていう気がしています。
スピーカー 1
一応もう少し解像度を上げてもらいたいという意味でコメントしておくと
AIをちょっと使ったけど
どういうことを正々堂に聞いたらいいか分かんなくてやめちゃった人が
一番下のレイヤーとして一番底が代多数ですと今の現状で言うとね。
スピーカー 2
はい。
スピーカー 1
で、そこにチャットとかして日常的なところでは使えるけど
仕事上どう生かすのかが分かってないっていう層が次にいて
その後、仕事でやってるようなことも
正々堂から回答がもらえるようになったっていう層が3つ目にいると。
で、残念ながら現状はこの3つ目の段階にいる人
このノートの記事上はジュニアと呼ばれるレベルの人たちっていうのが
スピーカー 2
最先端に位置づけられている。
ちょっとそれは個人的には
生成AIのツールがどういう環境になってるかっていう話があると思っていて
はいはいはい。なるほど。
会社がもっとって言うとちょっと会社に責任を負わせすぎですけど
会社が期待する運用ができるようなAIをちゃんと導入してるかどうかっていう話があると思うんですよ。
スピーカー 1
いやー耳が痛い。そうだね。
スピーカー 2
なので、20点を16点にせずに
20点を8割の時間で出すっていう方が正しい
AIの使い方かなと今のAIの使い方的には思っていて
研究のところ私がそれを想定しているのは
ただの検索ツールとしての使い方なんですよ。
なのでコードを書くときにコードの書き方がわかんないというときに
聞いたなり先はちょっとわかんないけど
ググって調べるんじゃなくてコードを書いてる
エディター上でもAIが補助して作ってくれる
それが確かならしいよねっていうのを自分で動かして確認する
とか会社のデータ資料が山ほどありすぎてよくわかんない
で30分PDFをひたすら当たってここにあるって見つけましたっていうのを
AIに聞いたら一瞬で出す。それを書きました。
でそのデータは正しいらしいってことは目で見て確認しましたっていう
使い方が正しいわけで
スピーカー 1
もう一つなんかその今おっしゃってくれた生成AIとの向き合い方を
さらに悪くしてる助長してるものがあるなと思ってるのが
AIエージェントと呼ばれてるやつらで
あれらはすごく自立性が高い
あれもやってくれるこれもやってくれるっていうことになってるんですけど
その自立的に動く範囲が広いということは
自分がそのハンドリングしてもらう部分
その補助してもらう範囲が広がるっていうことになるじゃないですか
補助してもらう範囲が広がるとさっき言ったプロセス感を
簡単にまたいだりとかするので
一見効率化されてるように見えるものたちになってるんですけど
結果的にそれって20点に及ばないものになってるので
大きな手戻りになるだけなんですがプロセスが先に進んじゃって
そういうAIエージェントが自立的に進むことが
AIの賢さであり今後の社会の生産性に大きく寄与するんだっていう
風潮がやっぱり今もあって
AIエージェントがすごくそういった意味では未成熟なんですけど
ちょっとそういった期待感に後押しされて
誤った使い方が正しいと誤認しちゃってる
AI界隈の推進者がいる気がするな
スピーカー 2
今の話 AIエージェントに関しては
難しい問題だなという感じもしていて
今の話を聞くとAIエージェントって本来シニアが使うもの
ジュニアの代わりにシニアがAIエージェントに
だから65点のものを出してもらって
それをシニアが成果物として修正して作るためにあるものかなと思うので
ジュニアが使うものではない
その成果物の正当性を判断できないのでっていうところはまずあるかなと思います
スピーカー 1
一応理解だけ合わせたいだけなんだけど
その65点って言ってるのはもうシニアしか扱えないっていうのは
ジュニアだったらあるプロセスのあるタスクにアサインして動ける人だとすると
シニアだったらその複数のタスクにまったがって
ABCってやらなきゃいけないけど全体見たらもうこういうタスクにしちゃえば全部まとめてできるじゃん
それでも別に破綻しないよねみたいなところが見えるから扱えるっていう
スピーカー 2
見える範囲の広さ的にシニアが扱えるっていうイメージであってる?
それもありますし結局複数の領域にまたいだ成果物を出された時に
それが正当かどうかを判断しないといけない
スピーカー 1
それは結局シニアランクかなと思うので
知っている専門領域とか観点の広さみたいなところが大事になってくるからか
オッケーですごめんなさい続けてください
スピーカー 2
それなので個人的に正しい使い方はそれはシニアが使うものだと思います
ただそうやってシニアが使った時に
ジュニアが育たないので今までの会社の作り方としては良くないんですけど
これが個人事業主とかと話が変わってくると思ってて
動かせるコストが限られている中で
他より良い成果物の量が多いと言ってもいいし
成果物の品質が良いと言ってもいいかもしれないけど短時間で
QCDのどれかを縮められる成果物を出せるという魔法のツールであることは確かだと思っています
なのでそうなった時によりその人が成果物を出すという上で使うというのは全くもって正しいので
それに対してジュニアをシニアが教育するというプロセスを取っているところが
価値にいけるのかどうかっていう話が入ってくるようなと思った時に
そんなことやってる場合じゃねえってなりそうな気もする
短期的に負けるよねっていうところがあると思ってて
スピーカー 1
それをどうカバーしていくかちょっと思いつきませんね
スピーカー 2
フリーランスとその企業大勢で出せる速度と安さに差があるよねっていうのは昔から言われてるじゃないですか
スピーカー 1
それがより顕著になるっていう話だとは思うんですけど
私が今聞いて危惧したところはシニアはいいけど若手にそれをさせざるを得ない組織と契約体系になってしまって
企業にいながら全員が個人事業主的な動きしかできなくて
組織品質に全然ならず単純に負けるっていう世界になるのが一番まずいなぁと聞いてて思いました
スピーカー 2
それは全然あると思いますけど
スピーカー 1
社会全体で見るとその会社が潰れるだけだからいいんじゃないって私は思いますけどね
スピーカー 2
その選択肢を取った会社はちょっと私は大変なことになると思いますけど
そういう会社が潰れた結果社会全体としては
そういうことはダメだよねっていう前提のもとで
ジュニアを育てるプロセスが採用された会社だけが残るかなという気はしますけど
スピーカー 1
そうだね
そうならないためってことを考えるとあれなんですよね
だから既存プロセスを破綻しないように栄養を使うっていうのもすごく大事なんだけど
どちらかというともう一歩元のなんでそういうプロセスで何をゲートにして
どういう品質散歩してたんだっけって言ったところに
立ち返ってまで生成AIを使った後のその組織品質の守り方って何だろうまで議論しないと
スピーカー 1
なんかずるずる負けそうな気がしますね
新しく私たちが品質管理するべきものってどういうものなんだろうみたいな
ところからの考え直しをしないと再設計しないと
基本的には難しいのかな
スピーカー 2
でもそこを今から作っていけるのってベンチャーとかなのかなどうなんだろう
承認フローを変えようと思ったら会社立ち上げた方が早い気もしますけどね
スピーカー 1
大企業で下手にそのプロセスの再構築やるのってあんまりいいことなくて
現場は新しいプロセスを正確に守れないしそのプロセスの背景にある真意まで掴みきれないし
というのも今まではプロセスは決まったルールのレールとしてあるもので
そのプロセスが何ぞやだみたいなことまで考えてプロセス回してないし
そこを考えながら回せるほど生優しいプロセスになってないから
改めてそんなものが出てきたところで逆に出す品質が下がっちゃうだけだと思うから
それを考えるとやっぱり基本的には従来その組織で提起されているプロセスに
どこまで精々を当て込めるものなのかっていうのを見据えつつ
自律的に動くのはすごいね何か使えるところがあったら使おうかっていう技術を横目に見とくのはいいけど
すぐ自分の業務に適応するのは危ないよねっていうそれくらいのスタンスですかね
スピーカー 2
そうかなと思いますね
スピーカー 1
ハンドリングできる人なら別に使ってもいいと思いますけど
スピーカー 2
AIの危険性というか限界をわかった上でちょっと使ってみよう
ダメだったら自分でできますっていう
アンパがある人だったら使ってもいいと思いますけど
スピーカー 1
リカワリができるとか
POCのかなり最初のモックフェーズみたいなところだからまあ使ってもいいよねとか
スピーカー 2
ビジネスフェーズ的なことも含めてですよね
まあそうじゃないけどばらまいでとりあえず生産性上がった風に見せるために使ってみようっていうのはちょっと危ないかなという気はしますね
スピーカー 1
そうだね
まあでもちょっとなんかさっきそういう試作を失敗した会社は死ぬだけで全体としては担保できるんだねとか言いましたけどちょっと楽観的かもしれないですねと自制しますね
スピーカー 2
イラスト生成AI界隈とかはだいぶやけの原になりかける一歩手前みたいな感じもあって
スピーカー 1
そうですね
スピーカー 2
あんまり乱造されると業界自体の信用度が下がって
IT業界全体が大きすぎてなくなることはないと思いますけど
特定の分野でなんというのかな
その分野の生成物はもはや信用ならんとかいうことになって
結果として社会全体の進捗が後退するレベルでも許容される可能性はあるので
あまり楽観者はできないかなと
そうですね
スピーカー 1
ジュニアが育たない問題は確実にどこでも起きていて
さっきのイラストもそうだけど
人の成長を守れる生成AIのプロセスみたいなものを仮に理想的に組めたとして
それがビジネス的に社会で戦っていけるのかってあたりがすごい懸念なんだよな
スピーカー 2
うーん そのなんだろうな
幸せな未来を語るとすると
画像生成AIの例で言うと
画像生成AIが許容される幸せな未来っていうのは
さっき言ってたモックみたいな
まあなんだろう
こういうキャラクターを作ってくださいって言った時に
一瞬で案を100個出して
このタイプいいじゃんみたいな話で選ぶ
今だったらラフとかで書いたりしてますけど
それも技術といえば技術なんですけど
その代替ができる可能性はある
ただ最初は成果物になると結局のところ
今の業界を見ると
なんていうんだろう
AIで作るよりも
もっと大切なものが必要であろうという
状態になっているので
生成AIを成果物に使うのは逆に品質を下げるとみなされる
ことにはなっているとは思いますけど
なので使わない方がいいという判断なんですけど
業務の中で適した特定領域で使う
という上では
そういう道のプロフェッショナルがいた方が
最終的に最終成果物の品質が上がる
という可能性もなくはないと思っていて
そういう意味ではあり得るかなと思いますけど
これは画像生成AIの話なので
その他の業務に関してはちょっと分からないんですけど
スピーカー 1
話が長くなってあれだけど
市場機械的な側面でも
一部生成AIを最終成果物に使うことで
貢献している
全体としては劣化しているんであれなんですけど
という面はあるかなと思っていて
例えば最近だとKindleとかで出てくる本とかも
かなり生成AIを使った表紙の本が増えているし
内容も冊絵も含めて全部生成AIのものも
だいぶ増えているかなと思うんだけど
結果的にあれってイラストレーターとかに頼む費用を
かなり抑えていることによって
売れる本の数が少ないはずだけど
本の単価を他と揃えて出して
誰か買ってくれたら儲けもんやくらいで
市場にアプローチできているので
市場機械の拡足力は上がっているじゃないですか
ビジネス的に言えば
スピーカー 2
他の業界とかも
こういう使い方はすべきかな
というところでの紹介です
スピーカー 1
全く思って同意な上で
全く思って同意な上で
他の注目ポイントとしては
入ってる人って何に使ってるの?
っていう
有助別利用人数みたいなのがあるんですけど
その中での最上位が
チャット
でその時は文書生成
要約構成 画像生成 翻訳
と続いていて
非常に事務の人が
普段使うものとして
2以降はすごくよくわかるんですけど
1つ目がチャットっていったところが
結構
面白いポイントだなと思っていて
チャットで使うってことは、あんまり業務に直結するというよりは、単純に壁打ち相手としての利用が一番大きくなっているというところで、
さっきの議論と似たような感じかもしれないですけど、業務効率化というところの生成への期待以上に、
まずは自分の中の認識の整合とかそういったところで使おうという意識が強い人がちゃんと大多数を占めているということで、
デジタル庁、さすがそういうIT技術に対する理解の深い人たちが多く使っているんだろうなというのが分かる結果だなと思って、その点も面白かったですね。
そうですね。いろいろデータが出ているので、結構面白いしたいなと思う感じがありますね。
そうですね。あとは週ごとの偏りがないのも結構面白いなと思ってて。
反応期というか、業務のフェーズ的に、ここのフェーズでは生成やいっぱい使えるけど、このフェーズではもう使いどころないみたいになるのが普通かなと思ってたんですけど、
結構コンスタントに毎週使われているような感じで、大きなムラがないんですよね。
スピーカー 2
その辺もちょっとどういう働き方をしていたらそういうムラがなくなるのか、ムラがない状態の方が下手に生成やいだよりのプロセスがある方が不健全なのかとか、いろいろ考えちゃいますね、さっきの話も含めて。
スピーカー 1
そこは結構面白いかなと思うのが、13ページの利用人数の推移があんまり変わらないという話をしたと思うんですけど、14ページの利用回数の推移で言うと結構差が出ているかなと私は思ってまして。
スピーカー 2
本当ですね。
5月にローンチされたのかどうかちょっとわかんないですけど、6月ぐらいがピークになってて、7月からの末にかけて徐々に減っていってるんですよね。
これは正確かどうかわかんないんですけど、想定するとするならばリリースされて、だいたいみんなが使ってみようかつって、そういうのあるんだつって使い始めたのが2,3週ぐらいかかってる。
スピーカー 2
で、使ってみて、あんまり上手く使えないなとか言って離脱していった結果として使用回数が減っててるとかもあるのかなってちょっと思ったりしますけど。
単純に後は6月が忙しい月だったとかもあると思いますけど。
スピーカー 1
そうですね、この辺は確かにツールの導入後の推移としては普通のツールと同じような傾向を辿ってるなっていうのはその通りなのかと思いますね。
あとはデジタル庁として要勇気持って出せたなと思うのが17ページで、
その利用率、役職別の利用率みたいなところがあってですね、なんか係長級とか課長補佐級とかでそれぞれ利用率出してて、
大賞あるんですけど、一番使えてても5割、でもう偉い人になるとだんだん減っていって3割くらいになっていくと。
で、計算書が出してた日本のAI使用率みたいなのって他国と比べて3割くらいにとどまっててやばいですみたいなレポート出してて、
この結果も大体3割くらいになってるんで、デジタル庁でもまぁそんなもんですよねっていう感じがあって個人的には面白かったですね。
スピーカー 2
そうですね、偉い人になると新規環境医療っていうのがどのくらいかわかんないですけど、