話いきなり変わりますけど、
ジョジョの奇妙な冒険って読んだことあります?
第5部のボスにね、ディアボロってやつがいて、
キングクリムゾンっていうスタンドを使ってくるんですけど、
その能力がですね、過程を吹き飛ばして結果だけを残すっていう能力なんですよ。
ジョジョ読んでない人なんのこっちゃっていう話なんですけども、
まさにこのキングクリムゾンっていう特殊能力ね、
これAI的なんですよ。
過程を吹っ飛ばして結果だけが残ると。
AIの判断って基本的に結果だけで過程ないのね。
それは過程がないってことはどういうことかって言ったら、
根拠がないわけ。
なんでそういう答えに至ったか根拠ないんだけど、
答えだけが手元にあると。
まさにキングクリムゾンなんですよ。
で、これがやっぱね、困るわけ。
答えだけあるっていう状態って。
ちょっとね、学生の頃思い出してほしいんだけど、
そういう経験なかったですか?
学校からさ、配布される系の問題集って、
答えだけ載ってて、
導出過程が書いてないみたいな、
そういう謎の答え集しかついてないよと。
解説がついてないよっていう問題集って結構、
学校から配布される教材に多かったですよね。
あれって結構困りませんでした?
なんでその答えに至ったのか。
そこが知りたいのに何もわからないと。
あの歯がゆさと同じことが、
今AIでも起きてるんですよ。
ものづくりにおいてですね、
降りかかる問題や不具合っていうのは、
大体家庭に潜んでます。
物を作る家庭、設計した家庭、
手配した家庭、エトセトラ、
いろいろな家庭がありますけど、
そこの家庭への深掘りこそ、
ものづくりの重要なポイントなんです。
だからブラックボックスであるAIっていうのは、
製造業の文化と相性悪いんですよ。
よくなぜなぜ分析って言いますけども、
製造業だと1個の不具合とか事象に対して、
なぜなぜって言って深掘っていくっていうのが、
大事になっていくんですよね。
なぜなぜ大好き製造業、
バーサスなぜなぜが効かない結果だけのAIと、
これ以下にホコ立てみたいな感じになってますけど、
こういう相性の悪さみたいなものが実はあるんですよ。
ただ当然ですね、
AIの分野もそんな問題があるということは、
100も承知です。
AIの中身が見えるAI、
ブラックボックスではない判断根拠が見えるAIを、
研究しましょうっていう動きもあります。
私がAIにおいて、
個人的に最も注目している分野の一つですね、
この判断根拠の可視化っていうのは。
世間では生成AIの活用とか、
性能自体、AIの性能自体にすごく目が向いてるんですけど、
地に足をつけてやるんだったら、
やっぱりAIの判断根拠の可視化、
つまりAIの脳みその中身を除いて、
理解する営みみたいなものって、
これすごい大事だと思うんですよ。
だから私の一つのAIの関心のテーマとしては、
その根拠の説明とか、
根拠の可視化みたいなのがあるんですよね。
ここはいろんな形で深掘っていきたいなと思ってるんですけど、
今日はそんなお話です。
説明可能AIと。
英語で言うと、Explainable AIと。
XAIって言うんですけどね。
このXAIについて今日はザックブラにお話ししていきます。
というわけで今日のテーマはこちら。
AIの判断になぜを突きつけろ。
製造業のための説明可能AI。
XAI入門。
さてまずですね、このXAIそもそも何なのかと。
その歴史と合わせて全体像を使っていきましょう。
XAIとはざっくり言うとですね、
AIの判断理由を人間が理解できるようにする技術とか、
その研究分野の総称です。
なぜその判断に至ったか、
なぜその考えに至ったかっていうのを、
AIが人間に提示する、
説明できるようにしましょうということなんですね。
ただここで大事なのが、
このXAI、説明可能AIっていうのが、
単なるAIの言い訳作りではないんですよ。
こういう結果になったのはこういう理由ですよ、
みたいなそれだけを言うためのものではなくて、
人間がAIの判断に対してちゃんと介入できる形にしましょうね、
っていうところまでを目的として研究されているのは、
この説明可能AI、XAIという分野なんですね。
ただですね、このAIが判断理由を説明するというのも、
実はそれだけでもすごく奥が深いんですよ。
これ何をもって説明とするか、
みたいなところの定義もしっかりあるんですね。
その説明のレベルみたいなものかな。
ここを明確にしておかないと、
ここまで説明すればいいよねって、
合間になっちゃいますからね。
ちゃんと定義があります。
まず何が起きたかを記録する。
これを透明性と呼びます。
後から見返した時にAIに対して何が起こったか、
どういう現象が起きたかっていうのが終えるよというのが透明性ですね。
その先にどう意思決定をしたかっていうのを示すですね。
これが説明可能性です。
あなたがこう判断したのはこういう理由で、
こういうロジックで判断したんですよねっていうことが後から終えますよと。
これが説明可能性ね。
さらにその先にあるのが、
なんでこういうアウトプットになって、
これってどういう意味なのかを人間が理解できるようにすること。
これが解釈可能性と。
透明性、説明可能性、解釈可能性と。
AIが自分が置かれた状況とか判断の理由を説明するっていうのにも、
こういう3つの段階みたいなものが分かれてるんですね。
これに似てるようで全然レベル感が違うんですよ。
そうですね。例えば犯罪を例としてちょっと説明しましょう。
例として適切かどうかを置いておいて、
こんな犯罪をしちゃいましたっていう状況があるとするじゃん。
その情報を一つとってもさ、
防犯カメラにあなたの犯行現場が映ってますよっていうのは、
これはこう透明性ですよね。
何が起きたかが記録されていると。
その上で何でその犯罪しちゃったのと。
その動機が説明できる、示されているというのが説明可能性です。
さらにその罪に対する法律的な罰則とか、
そもそもその犯罪をしてしまった社会的な背景みたいなものを理解すると。
これが解釈可能性なんですね。
だから1個、例えば犯罪を見るっていう風になっても、
いろんな層というかレイヤーの質で見れるわけじゃないですか。
もうしてしまったことの具体からその犯人の犯行動機と、
あとそこに至るまでの背景みたいなもの、いろんなものがあるわけじゃん。
だからAI自身が自分の判断根拠を説明しようっていう分野においても、
こんな感じで区分けておいてくれると非常に人間にとってわかりやすいわけね。
透明性、説明可能性、解釈可能性と。
別にAIが犯罪をしてるっていうわけじゃないんですけど、
我々AIを使う方にとっては、
何が起こったんだと取り調べのように1個1個聞いていって、
なんでそんなことをしたんだみたいな。
っていうことに対して全部ちゃんと答えられるようなAIっていうのが、
人間にとってはすごく重要で、
ブラックボックスじゃないですよねという話なんですね。
こういう区分というかイメージを知っておくと、
XAIの議論っていうのがだいぶスッキリすると思うので、
頭の片隅に入れておいてくださいと。
さてこのXAIって結構最近の概念だろうなと思ってませんか。
ちょっと最初にややこしいんで解説しておくと、
イーロン・マスクの顔がXAIっていうと浮かぶかもしれないんですけど、
イーロン・マスクがやってるXAIっていう会社と、
説明可能AIのXAIっていうのは全く別ですからね。
イーロン・マスクがやってる会社のXAIっていうのは、
小文字でXAIと、私が今説明しているのは大文字でXAI。
これが説明可能AIの方なんで、これはもう本当に全く別物なんで、
この話をする上でちょっとイーロン・マスクの顔が出てこないようにというか、
混同しないようにしてくださいという前提を最初に説明しておきますけど、
ちょっと話戻しますね。説明可能AI、XAIの話。
実はこのXAIって、AIの黎明期から追求されていることなんですよ。
そのルーツっていうのは1970年まで遡ります。
当時は第二次AIブームというもので、エキスパートシステムっていうAIが主流だったんですよ。
AIにあらゆる人間が持っている知識をとにかく詰め込んでいけば、
きっと人間みたいな判断ができるだろうっていう、
知識表現の時代っていうのが第二次AIブームですね。
その時の代表的なアイテムというか、AIの一つにマイシンという医療診断システムがあります。
これはスタンフォード大学で1972年に開発されたものなんですけども、
AIと言いつつですね、非常にシンプルな意不全ルールの、そういう連鎖で推論していくシステムなんですよね。
はい、いいえみたいなもので答えていったら、じゃああなたの症状これだからこれやった方がいいよねとか、
この病気の可能性高いよねみたいなね、あのすげーシンプルなアーキネーターみたいな、そのぐらいのシステムだったんですけど、
すごく強力で医療現場で役に立っていたんですね。
そのシンプルさゆえにですね、すごいシンプルなルールだから、
ルールさえ追跡していけば、なんでその診断に至ったのかみたいな根拠を明確に提示できたんですよ。
だからこそ医療分野にもすんなり使えたんですね当時から。つまり初期のAIっていうのは非常に説明可能なAIだったんですよ。
もともとはそうやって判断根拠っていうのを提示できるように作られていたんです。
じゃあそれがなぜ今XAIというものが改めて注目される必要になっているかというとですね、
AIがやっぱね賢くなりすぎたんですよ。それこそ2012年にRXNETっていうネットワークが
ILSVRCっていう画像認識コンペで圧勝して、そこからですねその深層学習の時代とディープラーニングという技術に非常に注目が集まっていくわけですよ。
人間の脳をモチーフにしたこのニューラルネットワークというものを何層にも何層にも重ねていくっていうのがディープラーニングという技術なんですけど、
その中身にはですねこの何百万とか何億っていうパラメーター、そういう複雑な数字を持っていって、
その複雑さゆえにですね、人間の精度を超えるような判断もすることができると。
その一方で、なぜその判断に至ったかという仮定が人間側からは全く不透明、わからない、そういうブラックボックスにどんどんなっていってしまったんですね。
2016年、ネイチャーシで、Can we open the black box of AI?と、AIのブラックボックスを開けられるのかという論文が出て、
これが世の中にAIってブラックボックスで本当にいいのかという問題を広く提起した、そういう論文になったんですね。
この危機感に真正面から答えたのがアメリカですよ。アメリカの国防高等研究計画局っていうですね、非常に早口言葉みたいなところ、
DARPAっていうところがあるんですけど、そこが2016年にXAIプログラムというのを立ち上げました。
目標はAIの精度を犠牲にせず、人間が理解して信用できて管理できる、そういう説明可能なAIのモデルを開発しようと。
約11の研究チーム、12,700人が参加した非常に大きなプロジェクトになって、これは2021年に終了してるんですけど、このプログラムを起点にですね、
2016年にLIME、2017年にNishap、GLADCAMといって、ちょっと後から詳しく説明しますけど、今使われている説明可能AIの機能みたいなものが
咳を切ったようにですね、この当時登場して、このXAIの研究って一気に花開いたんですね。そして今ではですね、このAIが判断理由を説明するという段階から、
その説明って本当に正しいのかを検証するみたいな段階に入って、さらにAIのこの内部構造そのものを解釈していきましょうねっていう方向まで出てきてます。
つまりですね、このAIの歴史って面白くてさ、最初は透明だったのね、AIの中身って。なんか見ればこういう判断したんだねって分かるようなものだったんですけど、それが賢くなりすぎて、
ブラックボックス化してしまったんですね。そしてかつて見えていたAIの中身、今は見えなくなってしまったAIの中身をまた覗こうとしていると、そういう流れなんだよね。
ここまで聞いて、説明家のAIね、学術的に面白そうね、ぐらいに思った人いるかもしれないんですけど、これ全然他人事ではないんですよ。
AIの判断効果がないことって実はとってもリスキーで、これによってとんでもないことが割と起きてます。非常に有名な話だと、ハスキー犬と狼を見分けるAIの話があるんです。
これさっきちょっとちらっと名前出したLIMEっていうXAIの論文の中でも取り上げられていた結構特徴的な事例なんですけど、ちょっと面白いので紹介しますけど、
画像認識AIね、これ画像何写ってますかっていうのを分類するようなAIで、このハスキー犬と狼っていうね、この2つの動物を高い精度で見分けるっていうことができていたんですね。
これはねAIの画像認識の精度を試す、そういうベンチマークのテストではあるんですけど、このハスキー犬と狼ってめっちゃ似てるからさ、人間が見てもほぼ違いわかんないですよ。
あれこれ犬なの?狼なの?みたいな。私がこう一個一個判断していっても多分大した精度が出ないと。それぐらいちょっと見分けるの難しいんですけど、
AIはですねこのハスキー犬と狼、非常に高い精度で見分けることができたんです。そういう学習モデルが作れたんですけど、
いやこれAIすごいねっていうことで界隈で話題になってました。人間ってわかんないのにねみたいな。ただ結局これもさブラックボックスで何を持ってこのハスキーと狼をAIは見分けてるんだろうと。
それはずっと謎だったわけですね。そこでXAIというそういう研究が進んできたので、じゃあこれ判断根拠、何を持ってそれを見分けてるのかを可視化してみましょうと言ってですね、
このハスキー犬と狼を見分けるAIの判断根拠を可視化してみたらですね、これ衝撃の事実が判明したんですよ。
AIは動物の顔とか耳の形とか毛並みとかそういう身体的な特徴を一切見ていなかったということがわかったんですね。
じゃあ何を見て判断していたかと言ったら、実は背景に映った雪を見て判断していたんですよ。
なぜかというと訓練データ、実際の狼のデータセットとハスキー犬のデータセットを渡して学習させるんだけど、狼の画像、だいたい背景に雪写ってたんですよ。
それに対してハスキー犬は背景草地が多かったんですね。だからもう狼の背景雪、背景雪なら狼っていうところをすごく強く誤って学習してしまったんですね。
だからテストの答えは全部合ってるけど、カンニングしてたみたいな話よ。だからこのAIの中身がブラックボックスのままだと、こういう賢い手抜きみたいなもの、
この場合はデータセットがあんまり良くないよねって話もあるんだけど、そういうものに人間気が付くことができずに、AIって賢いなって思い続けるということになってしまうんですね。
騙され続けてるわけです。こういう事実がAIの判断根拠の可視化、説明可能AIの技術を入れることによってわかったと。これ面白いですよね。
これがハスキー犬と狼を見分けますよみたいな、そういうタスクであれば雪見てたんだねーぐらいの笑い話で済むかもしれないんですけど、
でも同じ構造の問題が人間の人生を左右する場面で起きたらどうなるかっていうお話なんですよ。これはそういう笑い話では済まないということになります。
実際起きてますと、例えばアメリカの再犯リスク予想AIとコンパスというモデルがあったんですけど、これがまさにそうなんですね。
ちょっと物々しいAIなんだけど、司法で使われていたAIで受刑者とか被告人の再犯、犯罪をまた再び犯すリスクみたいなものを予想してそのスコアを出してくれると。
こういう犯罪をしていて、こういう人であれば、この人は社会に出た時に再犯リスクこれぐらいありますよねみたいなものを過去のあらゆる犯罪データから推論していくみたいな、そういうAIなんですけど、
これがすごく問題になったんですね。いかにも問題になりそうな感じがしますけどね。
これ、2016年にとある報道機関が7000人以上のフロリダ州の被告人のデータを分析した結果、このAIの出力というのが明らかに黒人を差別するような内容になっていると。
犯罪云々のデータというよりは、人種によって黒人の方が再犯率2倍高いぐらいのご判断をすごくされていたんですよ。ということが明らかになったんですね。
しかもこのモデルの予想制度というのがたった61%程度で、全然制度が高くなかったと。
これは訓練を受けていない一般人の予想制度、この人再犯する確率高いよねみたいなものを出してた時の制度がだいたい63%なんで、明らかに素人が判断するよりも立ちの悪い判断をしていたと。
ただこれ中身がブラックボックスで、誰もその判断根拠について追求できないし、アルゴリズム自体も公開されていなかったから、
そうやって報道機関が問題提起するまで誰もその問題の本質みたいなものに気がつけなかったんですね。
人間の人生に関わる判断の指標となるようなものを、こういう中身がわからないAIに委ねてしまっていると。
しかもその中身がそもそも見れないようになってしまっているということで、非常に問題になりましたと。
これと同じ頃、かのAmazonでも採用AIというのが非常に問題になりました。
2014年から2018年にかけて使われていたんですけども、過去10年分の履歴書データを学習させて、
この人採用した方がいいよねとか、この人ちょっと採用見送った方がいいよねみたいなものをAIが判断しますよと。
だからその採用の指標の一つにしましょうねっていうところで使ってたAIなんですけど、
このAIが女性っていう単語とか、女子大っていう単語だけでだいぶ原点対象にしていたということがわかったんですよ。
この社会が持っているバイアスみたいなものをそのまま学習してしまっていて、
女性ってあんまり採用しない方がいいよねみたいな、そういう極端な判断をAIがしてしまったということですね。
社会が持っているバイアスみたいなものを増幅して学習してしまったと。
最終的にこれらのプロジェクトっていうのは破棄されたんですけども、こういうことがありましたよって聞くと、
だんだんXAI、説明可能AIがなぜ必要なのかということが見えてくるでしょ。
AIは歴史的な不平等とか人間の変形を学習して、それを数学的な中立的なベールで覆い隠してしまうんですね。
いかにも公平ですよと、データに基づいてますよっていう感じがするんだけど、
その基づいていると思っているデータに間違いがあったりとか偏りがあったりしてしまうんですね。
だからこそこのXAIっていうのが必要なんですよ。
AIのデバッグとか品質保証の手段として、また規制対応とか監査の前提としても入れます。
実際、ヨーロッパのAI規制法の中に、高リスクのAIに関しては透明性と人間による監督が法的な要件として入ってます。
だからもはやXAIってあったらいいよね、これ便利だよね、わかりやすいよねっていう話じゃなくて、
なきゃまずいよねっていう話になってもきているんです。
株式会社フレアオリジナルではメカ設計、電気設計、組み立て配線など、
ものづくりの全工程を担う仲間を大募集中です。
中小企業向けのロボットシステム開発、箱詰めプロジェクトを中心にますます引き合いが増えております。
今年は関東都開催に営業所をオープン。新しいことに挑戦するのが好きな方、将来は独立を考えている方も大歓迎。
一緒にものづくりの未来を作りましょう。詳しくは概要欄公式ホームページをチェック。
ロボティクスは未来を切り開く。株式会社フレアオリジナル。
ここからはですね具体的なXAIの技術手法と今まさに起きている研究の最前線をできるだけわかりやすくお話ししていきたいと思います。
まずXAIを理解する上でもっていただきたいイメージみたいなものがあって、それがねあの工具箱なんですよ。
XAIを工具箱として捉えるということなんですね。なんかねまあいろいろとあるんですけど、
XAIって一つの技術じゃなくて、目的に応じて使い分けるその道具の集合体みたいな感じなのね。
だからね実際の工具でドライバーとかハンバーとかスパナも全部工具だけどさ、使う場面って全然違うじゃないですか。
それが工具箱にガッと詰まってるでしょ。XAIもそういうXAIっていうのは工具箱でいろんな手法が詰まっていて、
そのXAI工具箱の中から1個道具取り出して、既存のAIに対して横から差し込んでね、こう中身を分解していくみたいなことをすると。
そういうためのツールっていう風にイメージ掴んでもらうとわかりやすいかなと思います。
XAIっていう中身が説明できるAIがあるっていうんじゃなくて、既存のAIのモデルに対して横からこう突っ込んでいくみたいな。
これがXAIのイメージです。今あるモデルに後付けできるよみたいなイメージかな。
というわけで早速ですねちょっと具体的な手法の説明に入っていきたいんですけど、さっきハスキー犬と狼の話したんですけど、
あの事例でAIのこの賢い手抜きを暴いたのがLIMEという手法です。
これ2016年に発表されたXAIの研究のパイオニア的な手法なんですよ。
このLIMEが何をやっているかというと、AIの判断を部分的に切り取ってシンプルに翻訳するみたいなことをしています。
例えばその銀行のローン審査AIみたいなものがあったとして、この人に融資しちゃダメだよみたいな判断をしたとするじゃない。
でも全然理由がわかんない。なんでこの人に融資しちゃいけないのという理由わかんないけど結果だけがあると。
そこでLIMEを使うとそのAIの判断の周辺だけを切り取って簡単なモデルで禁止してくれるわけ。
その結果この人の判断としては収入が少ないっていうのが結構効いていて、同じ会社に勤続している年数が長いからこれはプラスに働いているんですけど、
年齢的にこのぐらいなのがちょっとマイナスでみたいなそういう一個一個の情報に対してどれだけこの判断に影響したかっていうのが
人間の目で見える形で出してくれると。これがLIMEというものなんですよ。
さっきのハスキー犬と狼の例でもこのLIMEっていうのを通すことでAIは動物の顔とかじゃなくてこの背景の雪をすごく高いスコアとして見てますよっていうのが画像上のハイライトとして可視化されたわけです。
ブラックボックスだからAIの脳みその中身が全部見えるってわけじゃないんだけど、この一見の判断についてはここが効いていたよっていうのがわかるようになると。
これがLIMEという手法です。このLIMEのいいところはAIの中身を知らなくても外付けで使えてしまうということです。
このディープラーニングだろうが他の手法だろうがどんなAIでも関係ないと。
LIMEっていうのはAIの中に入り込んで構造を解析するんじゃなくて、外からこの入力入れたらこれ出力出てきましたね。
これ入れたらこれ出てきましたねっていうのをひたすら繰り返すことでこいつこういうふうに考えてるなっていう反応のパターンから説明を外側で組み立ててくれると。
中身はもうブラックボックスのままでいいのよ。なんだけどこのインプットアウトプットの差分からですね
AIの中身判断の理由っていうのを予測していくみたいなことをしてくれるわけ。だからモデル非依存というふうに呼ばれてますね。
AI用の外付けテスターみたいな感じね。こういうイメージなのよそのXAIって。だからさっき工具箱で例えたんだけど
後から追加してまあいろんなことに使うことができるんですよ。ただこのLIME1つ問題があってこの当然テストのたびに毎回微妙に結果がブレるんですよ。
中身を見てるわけじゃなくてねアウトプットインプットで判断してるからそのランダム性みたいなものがあるわけね。
同じモデルに対してもLIME使って確認するためにちょっとずつ根拠が変化してしまうと必ず同じものが出ないっていうものがあるんだけど
だいたい言ってることは一緒なんだけど試すために微妙に異なると。ここがちょっと根拠としては少し弱いかなっていう部分がこのLIMEの欠点です。
このLIMEのですね結果がちょっとブレますよね。このAIのランダム性に影響されますよねっていう問題に対してもうちょっと論理的に筋道だったアプローチした方がいいんじゃないっていうことで次に登場するのが
シャップというモデルです。これが2017年に発表されてます。だからLIMEの次の年ですね。このシャップというアプローチの面白いところはノーベル経済学賞を受賞したシャプレーチっていうそういう概念があるんだけどこれを応用してるんですよ。
もともとはこのゲーム理論の話で例えばその5人のチームでプロジェクトをやっていて大成功しましたよと。
じゃあこの5人メンバーがいるんだけど誰が一番そのチームのこの成功に貢献したのかっていうことを公平に計算しましょうと。
ちょっとMVP出したよねとするじゃないですか。その時にどういうふうにじゃあメンバーの計算器用度を計算しようかなと思った時に
じゃあこいつが仮にいなかったとしたら結果がこう変わったよねみたいなものを一人一人のメンバーに対してこうやっていくと。
全パターンを調べてその人の貢献度を数値化するみたいなそういう考え方があるんだけどこれがシャプレーチというものなんだけど
この考え方をAIに持ち込んだのがそのシャップという手法です。 AIに入力される特徴量というんですけどね。
その各特徴量に対してつまり入力データの各項目に対してこれがどんだけその結果に貢献しているか影響しているかっていうのを公平に分配するみたいな
そういうアルゴリズムが組まれております。ちょっと細かいアルゴリズムに関してはシャップ論文がいっぱい出ていると思うので気になる方はそれを見てください。
実はですねこの製造業におけるXAIの活用においても現時点でこのシャップというものが最も使われている手法だというそういう調査結果も出ています。
それらは結構ねもう実務レベルに浸透しているような手法ではあるみたいですね。当然ちょっとまだ完璧ではないようで
特徴量同士に相関がある時、例えば年齢が上がると血圧が上がるよねみたいな、特徴量2つあってこいつらの相関が強いよねみたいなそういう関係性がある時に
うまくポイントを振り分けられないことがあるよねとか、厳密に計算しようと思うとすごく膨大な計算量がかかるよねみたいなことが現実には起きるんですけど
それでも非常に強力な手法としてシャップというものがあります。名前だけでも覚えて帰ってくれればなという感じですね今日のところは。
ここまでですねLIMEとシャップというものを紹介したんですけど、この2つって実は共通点があるんですよ。
それ何かって言ったらどっちもAIの入力と出力を外から観察して判断、根拠を可視化するというアプローチなんです。
入力をちょっと変えて出力がどう動くかを見て、この特徴量が効いてるっぽいなーってのを推察していくと、外付けのテスターみたいなものなんですね。
だからこそモデルに依存しないよっていうのがあるんですけど、結局どこまで行っても外側から間接的な分析なんですよね。
実際にこのAIの脳みそをパカッと開けて見ているわけではないと。じゃあ外からの推論じゃなくてAIの内部で実際に行われている計算を直接見て、ちょっと可視化できないかなというのを考えた人も当然いるわけですよ。
それを実現したのがGLADCAMという手法ですね。これもシャップと同じ時期ですね。2017年にジョージア工科大学のチームが発表しています。
GLADCAMはニューラルネットワークっていうAIの脳みその中にある畳み込み層っていう部分の計算を直接取り出してヒートマップ化するというものなんですよ。
主にはその画像分類とかのAI、画像認識のAI、畳み込みニューラルネットワーク、CNNというものに対して使うものなんだけども、このGLADCAMというものを入れることによってですね、
いわゆるサーモグラフィーみたいにさ、画像を入力した時にAIが今特徴としてすごく見てますよっていう部分が赤くヒートマップで光るみたいな、そういう画像が作れるわけね。
例えば医療画像とかでさ、なんかAIがちょっとこれがんの可能性ありますよみたいな、そう判断する画像があるとするじゃない。
いやこれどこを見てがんって言ってんのっていうのが赤く光ってわかるみたいなね。ここを見て、いやここががんっぽいですよっていうのがハイライトされると。
LIMEとかSHAPとかという手法と違う部分は、外からのアウトプットインプットで推察した、多分ここ重要だとAI持ってるよっていうことじゃなくて、
実際にAIの計算の中身がここに反応してますよっていうのを直接脳みその中から取ってくるみたいな。それがこのGLADCAMという手法です。
これはね結構面白いですよ。私もちらほら自分が作った学習モデルに対して使いますけど、ここに反応してるんだなとか、そういうのがパッとわかってですね非常に面白い技術です。
ということでね、今代表的な手法であるLIME、SHAPとあとGLADCAMというものを紹介しまして、ここまでがそのXAIのそのいわゆる工具箱の基本セットみたいなところではあるんですけど、
実はですねこの工具箱自体にも根本的な疑問は投げかけられたりしてます。パーフェクトな技術ではないということね。
これらの手法っていうのはすごいAIの判断根拠、説明としてこういうこと考えて説明したんだねここは重要なんだねってことをもっともらしくレポートとしては出してくれるんだけど、
実際その中身を調べたらこれちょっと違くねとか勘違いして熱像してないみたいなそんなこともですねちらほら起こり得るわけですよ。
そうなってくるともう何信じていいかわからないよねっていう感じになるんですけども、ここからですね結構重要な概念がね浮かび上がってくるわけですよ。
これは忠実性と最もらしさというのは全然別物だということですよ。
忠実性っていうのはその説明がモデルの内部の計算を正確に反映しているかどうか 一方でもっともらしさっていうのは人間にとって説得力があるかどうかと
この2つってねやっぱり一致しないことがあるんですよ。もっともらしいけど忠実じゃない説明と。
そういうものがやっぱり判断根拠というか説明の中に紛れ込んでしまうよねということがXAIの研究でわかってきたので、これによってその研究の方向性というのが結構シフトしていったんですよ。
もともとずっとAIの中身をどうやって見せようどういうふうに説明しようかっていう流れで研究が進んでたんですけど、その説明は本当に正しいのかみたいな転換が今行われています。
研究の対象がどう説明するかどうやってAIの中身を説明するかではなくて、その説明の品質保証みたいなものが研究のテーマの中心となりつつあるんですね。
まあ今絶賛研究が行われている分野ではあるんですけども、そういうこの説明の信頼性をどうやって担保しますかっていう問いに対して全く新しい方向からアプローチしているっていう研究が一個あって、
それをちょっと面白いので紹介しておきますけど、メカニスティック解釈可能性という分野です。全然名前的にはワクワクしないかもしれないんですけど、中身を聞くとこれ面白そうだな面白いなっていうのがすごくわかります。
ここまでの話ちょっと1回振り返ります。今日いろんな概念が出てきたからちょっと頭とっちらかってるかもしれないんですけど、1回整理するとですね、
3つの手法が出てきましたよと。まずLIMEとSHAPという手法があります。これは外からAIのモデルにくっつけて入力と出力でAIに対する入力と出力を観察して、
こいつこういうふうに考えてるんだなぁみたいなものを数値化したりとか見える化してくれるような手法でした。もう一つあったのグラッと噛むというもので、
こいつは一歩踏み込んでちょっとAIの脳部層の中身まで入っていって、その中にある情報を取ってくるみたいなことでAIがどういうところに注目しているのかっていうのをわかるように、人間にわかるように表示してくれるという、そういう機能を持ったXAIでした。
だからグラッと噛むが一歩のAIの中身に入り込むっていう面では進んでいるんですけど、あくまでもグラッと噛むはAIが今どこを見てますかということを見える化するだけで、なんでそう判断したのかという結果のプロセスの回路までは見えていないんですよ。
そこまでもっと深く深く解き明かそうぜっていうのがメカニスティック解釈可能性というアプローチなんですね。
だからAIの脳味噌をMRIを取ってですね、もう全部解き明かしちゃおうぜみたいな、そういう分野です。
この分野において一定の成果というか象徴的な結果を出しているのがアンソロピック社というところで、AIの基盤モデルの中でも有名なクロードを開発している会社ですね。
チャット、GPT、ジェミニック、クロードといったら今3大モデルみたいな感じですけど、その一社ですね、アンソロピック社というところがこの分野において非常に進んでいる会社になります。
アンソロピックは何をまず始めたかというとですね、小さいモデルで実験始めたんですね。
それこそLLM、大規模言語モデルって数億、数百億、数千億、1兆とかそういうオーダーでモデルのパラメーターみたいなのがあるんで、人間が多いそれとその中身を理解するなんてなかなか難しいんですけど、
アンソロピックはまず小さいモデルから実験をいろいろと始めていきます。
と言っても、結局さLLMとか人間の脳みそもそうなんだけど、天文学的なパラメーター数があって天文学的な組み合わせがあっていろんな判断をしているわけなんだけど、
1個の細胞があるじゃない、脳細胞とかもそうだけどね、AIもニューロンっていうですね、1個1個の細胞みたいなやつがあるんだけど、その細胞って1つが1個の概念を担当しているわけじゃないんですね。
いくつもの細胞が無関係にいろんな概念をごちゃ混ぜに担当しています。だから例えば寿司とか離婚届、サッカーボールみたいな、何の脈略もない、いろんな概念があるんだけど、そうやって同じ脳細胞が反応してたりするわけ。
神経の伝達パターンみたいなものは違うんだけど、同じ細胞がいろんな概念をまたいで使われてたりするんですよ。
だから脳みそを見てもさ、ここの部分がサッカーボールの記憶を持っているよね、みたいなものってなくて、全体としての組み合わせで表現しているみたいな感じになっているわけ。
だから外から人間がそれを見ても何が何だかよくわかんないと。これが現状だったんですけど、アンソロピックはそこに対して特殊な手法を使ってですね、
まず小さいモデルから絡み合った複雑な情報処理から一つの概念というのをバラバラにして取り出すということを成功したんですよ。
すごい複雑なAIのネットワークがあるんですけど、そこからここの部分って大体このこと考えてるよね、みたいなものを取り出せたんですよね、アンソロピックは。
抽象的な概念から結構具体的な概念まで見えるようになったんです。大体ここらへんにこの概念埋まってるよね、みたいな。
これが面白い話で、代表的なのはゴールデンゲートブリッジっていう橋があるんですよね。アメリカのカリフォルニア州に架かっている立派な橋なんですけど、
このゴールデンゲートブリッジに関する知識というか情報ここにあるよね、みたいなものを超複雑なネットワークの中から特定することができたんですよ。
研究チームがですね、ここらへんちょっとゴールデンゲートブリッジの概念持ってるよねと。
じゃあこの部分、このゴールデンゲートブリッジに反応するこの部分を一部的に活性化させたらどうなるんだろうということで、
そこをすごく強く反応するように意図的にこのAIの脳みその中身をいじっていったんですね。
そうしたらですね、それはクロードっていうモデルで試したんですけど、クロードがとにかくゴールデンゲートブリッジに固執するようなそういう挙動を見せ始めたんですよ。
何を聞いてもとにかく無理やりゴールデンゲートブリッジの話に持っていくと、とにかくその橋の話をしたい、そういうAIになっていくんですね。
さらにそこの部分を活性化させていくとですね、とうとう私はゴールデンゲートブリッジですというふうに答えるようなAIになったと、そういう研究があるんですよね。
これはやっぱり判断根拠の可視化技術においては、説明家のAIを超複雑なLLMの中で実現するっていう分野においてはすごく大きな一歩で、
なぜそういうふうに考えているか、どこでそういうふうに考えているのかっていうのが、すごく莫大な情報、莫大なパラメータの中で見えるようになってきているよということです。
人間の脳みそってさ、流石に動かしながら中身を覗くって難しいけど、AIであればやっぱりリアルタイムでこのインプット入った時にどこが活性化されているかなみたいのが覗けてしまうんですよね。
そこの働きを見ながら理解していくみたいな研究が行われているんです。
この研究分野に携わっている人の講演聞いたことあるんだけど、そのLLMの中身を理解するっていう研究っていうのは、なんかこう生物学に近いって言ってましたね。
すごく生き物の研究に近いと、本当に脳を研究しているような感じだというふうに言ってたんで、もうそういうレベルなんだなって思いましたね。
脳みそを直接開けて確認すると、そういうメカニスティック解釈可能性というアプローチもあるよというご紹介とお話でございました。
オーダーメイド試験機ならお任せ。グラフテスターズデザイン株式会社。
はい、ということでここからは製造業とXAI、そして今後AIとどう向き合っていくべきかみたいな話を、ちょっと私のものづくり哲学も交えながら、ザックバランにお話しさせていただきたいなと思います。
まずですね、製造業でXAIがなぜ刺さるのか、刺さるかなと思っているのかという話なんですけど、やっぱりこれは非常にシンプルで、
判断根拠がわかると現場で使いやすいんですよね。当たり前のことなんだけど、この当たり前っていうのが全てなんですよ。
具体例を挙げるとさ、画像で異常検知とかよく使われてますよ。外観検査AIとかって言って、製造したものに傷がないかとか、OK、NGかみたいなものを画像で判断するよと。
そこでNGと判断されましたよとするじゃないですか。その時に判定がOK、NGだけで、どこがNGなのかわからないとやっぱり現場の検査員としては使えないですよね。
生産の中で不良品をはじくっていうことはできるかもしれないんですけど、現場の中に潜む本質的な問題みたいなものにアプローチしづらいと、どこがNGかわかんないとね。
そこでやっぱり判断根拠で可視化っていうのが重要になってくるわけですよ。なぜNGかっていうのを人に伝えるっていうことだよね。
そうすれば現場の検査でも、ここに傷があるからNGなのかとかって、検査員が納得できる形で示すことができるわけ。
じゃあここに傷ついた理由って何なんだろうみたいな深掘りにもつながるじゃないですか。
あと、それ以上にやっぱり現場に対する安心感みたいなものもすごく重要なわけですよ。
AIって推論制度とか、そういう数値で出てくるんだけど、やっぱり人間が使うもの、現場で使うものだから、納得感安心感みたいなものって結構重要なわけ。
反発されないことで、AIなんて信用ならんっていう人まだ全然いますから。
そういう人に対して、AIさんはこういうふうに判断してこういうふうに考えてますよっていう中身を見せることってすごい大事なのね。
そうやって開示、中身を見せてあげる。私はこうやって考えてるんですよって歩み寄ってくれるAIがいると、やっぱりグッと距離感が縮まるっていうのかな。
現場の方たちもこのAIに対する信頼、信用っていうのが上がっていくわけ。一緒に飯食って打ち解けるぐらい。
一回ご飯行って飲み交わしましたよぐらい距離感が詰まるんですよ。やっぱり中身を開示してくれると。
飲み会一回で一気に仲良くなったりするじゃない。それと一緒なんですよ。AIも一緒です。
だから、俺こういうふうなAIなんだぜ。こういうふうに考えてるんだぜっていうのを見てるのは本当に大事。
制度も当然大事なんだけど、意外とこういう人間とちゃんと打ち解けられるか、打ち解けるっていう言い方はちょっと表現として正しくないかもしれないんだけど、
人間に信用してもらえるようなツールになっているかどうかという視点も非常に重要なんですね。
すでにこういうツール、実はもう世の中にいっぱいあります。
日本のスタートアップでフツパーっていう会社があるんだけども、そこがメキキバイトっていうAI外観検査システムを出してます。
これXAI搭載されていて、AIの判断根拠の可視化とか、その訓練データとの比較ができるようになってます。
活用として、イメージとして非常にわかりやすいんで今回紹介させていただいてますけど、概要欄にリンク貼っておきますのでぜひとも見てください。
別にこの会社のこのシステムがすごく優秀だよって言いたいわけじゃなくて、私も使ったことないんでよくわかんないですけど、説明として非常にわかりやすいし、
すごくイメージつきやすい資料だなと思ったんで今回紹介してます。
この手の外観検査系のシステムは既に製品化されているものがたくさんありますからね。
あと単純にこの外観検査だけじゃなくて、予知保全の文脈とかもそうですよ。
保全ってメンテナンスなんだけど、壊れてから直すっていういわゆる修理、自己保全ってやつと、
あと壊れないように保守し続けるっていう予防保全。定期的にこのぐらいのサイクルでメンテナンスしましょうねっていう予防保全があって、
最近だとこいつ壊れそうだなっていう信号を察知して壊れる前に直すっていう予知保全っていうのがすごく注目されています。
特にAIの分野では予知保全をすることによって、無駄のない適切な保全をしていきましょうねみたいな文脈がよくありますね。
これもこの部品壊れそうですよだけでは情報としては不十分で、何で壊れそうなのかどう壊れそうなのかっていうのが分かって初めて対策が打てるわけですよ。
いろんなデータを元にここがこう変化してるからここの劣化進んでますよねみたいなことをAIで推論しながらですね、
情報として出してくれると製造業の中でも非常に使いやすいと。
具体的なアイテムで言うと結構進んでるというか有名なのがTHKという会社が出してるオムジエッジとかって結構有名ですよね。
リニアガイドとかボルネジっていうベアリング系の状態を振動で監視するみたいなそういう仕組みですよ。
こんな感じで検査とか補修とかそういう製造業の中でもAI使えるし、もっと上流工程でもやっぱりAIって使えますよねと。
製造工程全体のこのボトルネックを特定するみたいな工程設計みたいなところでAIを使うっていうことも最近ではよく行われてはいるんですけど、
そこもなんでそういう工程に設計したのかとか、なぜそこがボトルネックなのかみたいな理由を提示できないとなかなか現場って動かせないのよね。
製造業の現場においてはやっぱり人だから動いているのがね、人に理由を伝えるっていうことが全てのアクションの原点でも起点なんですよ。
AIがこう言ってますからこうしましょう。じゃあねやっぱり人って動かせなくて。
上司への報告もそうだし、作業者への指示、お客さんへの説明もこのAIがこう言ってましたっていうのはもう理由がないアクションと同義なので、
これで製造業では存在しないインプットなわけ。AIの叩き出した数値によればこうすればいいですよ、こうすれば良くなりますよだけだと全然人がついてこないから、
そこにこの判断に至った理由はこうですよ、こういうデータがあるんでこうですよっていうこの根拠の可視化みたいなものがあって、
初めて人との共存ができる、そういうAIの使い方ができるということです。
だからやっぱ製造業において特にこのXAI、説明可能AIっていうのが重要になってくるんですね。
それはさっき言ったように具体の保守の分野でもそうだし、診断ですね、検査の分野でもそうだし、工程を設計するという上流でもそう、
全部の分野において判断根拠という部分こそAIの制度以上に必要になってくるわけ。
だから私はこの分野すごく注目しているという話ですよ、特に製造業のエンジニアにおいてはAIを活用するっていう上では、
AIのシステムを入れましたというより、いかにしてその根拠を見せるか、それで人と打ち解けていくかみたいなところの方が全然重要な気がするなっていうのが、
なんとなく最近私がAIに対して思うところですね。ここからちょっと話をもうちょっと大きく転換させて欲しいんですけど、
より私の独断と偏見のような話になっていくんですけど、今後AIが発達していくと人間の仕事はどうなっていくのかという話ですね。
AIは加速度的に進化してますよ。どんどんとAIが専門的なタスクをこなせるようになっています。専門家の仕事の代替をしてくれるようになっていってますね。
さっき冒頭でも言ったけど、ITの分野ではもうAIがプログラムを書くなんていうのは当たり前のような感じになってきてますよ。
じゃあそんな専門分野のタスクをAIに任せた時に、人間は何をするのかといったら、やっぱり人間ってAIの判断に対してさらに判断するとか承認するっていうことが今以上に増えていくと思ってます。
実際増えてますしね。手を具体的に動かすのはAIで、決めるのは人間の仕事みたいな、そういう形に住み分けされていきそうな気がするんですよ。
その時にしっかりと根拠を持って判断して指示をさせていくっていうのがミソになります。
ゆえにAIの判断根拠の可視化って、人間がAIの判断を審査してさらに判断するために非常に重要なヒントになるんですよね。
ブラックボックスのままだと、AIの中身が見えていないままだと、なんかAIアウトプット出してきたな、良さそうかもな、AIにお任せするしかないと。
それだとさ、AIを使っているのか、AIに使われているのか、もうよくわからないよね。
めくらはんこうをしている上司と全く一緒です。いる意味ない。
そうやってAIでアウトプットババババって出していっても、あまり意味ないと思うんだよね。
ここからも持論を語っていくんですけど、物申しますよ。
AIによってアウトプットが爆速で出てくる時代になりましたよ、本当に。
AIに指示をすれば、ばーっと成果物出てきます。
めっちゃやってる感ある。めっちゃ開発してる感あります。
俺、付加価値出せてるぜ。いろんなアウトプット出せてるぜっていう感じがするんですけど、だがしかし、ちょっと待ってくださいと。
それは、AIに指示を出してアウトプットを受け取っているに過ぎないんですね。
あなたがそれをやらなくても、多分同じアウトプットって他の人も出せてしまうという事実に目を向けなければならないんですよ。
だから最近のSNSとか見ててもそうなんだけど、AIを使ってアウトプットの量の効率化をしてもあんまり意味がないんですよね。
AIの使い方お上手ですねっていうだけの話で、いっぱいアウトプット出そうぜみたいなのって全然AIでやっても意味ないと。
自動で動画出ます。自動で編集出ますみたいな。全然意味ない。お上手ですねAIの使い方がぐらいで終わっちゃうわけ。
練習のための練習みたいな感じかな。スポーツで例えるなら。野球が上手くなりたいからバッと振ってますって言ったらわかるじゃない。
なんだけど、素振りが上手くなるために素振りしてますみたいな。バッと振るのが上手くなるためにバッと振ってますみたいなことなんですよ。
AIの使い方を上手くなるみたいなね。AIのアウトプットによってそのアウトプットの量を追求するって結局そういう感じのアプローチなわけ。
あんまり意味がないというか本質的な意味がないと。アウトプットの本質っていうのはもう質です。質しかないの。量じゃないんですよアウトプットって質なんです。
量を追求したって本当にしょうもないのでアウトプットしたものアウトプットするものの質とか付加価値を高めるっていう方向にベクトルを向けなければなりません。
じゃないとAIを使う人材じゃなくてAIに使われる人材になって壁にぶち当たりますから。
今ねもうとにかくSNSでバズり散らかしてるのがクロードコードを使いましょうみたいな非エンジニアでもみたいなね。
AIの効率的なプロンプトみたいな。最近ちょっとあんまプロンプトっていう言葉すら聞かないんだけどそういう具体的なhow toいっぱいSNSであるじゃない。
であれって全部量のアプローチなのね。でなんであれがバズってるかっていうとキャッチでみんな楽に真似できるからやってる感があるからです。
量はいっぱい出ますと。でみんなが真似できる。それは再現性があるからみんなが真似できるんだけど逆に言えば誰でもできちゃうってこと。
なんだけどすげーAIがアウトプット出してくれるからやってる感があるのね。で量っていうのはアウトプットの量っていうのは人を安心させるんです。
行動してる感がどうしても出る。俺今AI使いこなしてるな。時代についていけてる感があります。
でもね本当に冷静に考えてほしい。みんな目を覚ましてほしい。それ量のベクトルなんですよ。あんまり意味のないものを意味ある風に見せてちょっと自分の心配というか不安をごまかしてるだけです。
目を覚ましてください。本質っていうのは質の追求です。それ以外ないです。質の追求っていうのは地道で修羅の道なんですよ。
アウトプットを理解して判断して根拠を持って指示を出すと。質って何なんだろう。果実って何なんだろう。みたいなそういう答えのないめんどくさいものに真正面から向き合って作り込んでいかなければならないと。
それって本当に面倒だし答えがないんですよね。それとみんな向き合いたくない。無意識で面倒だと思ってるから量に逃げるんですね。
こうすれば効率的にアウトプット出せるよねと。アウトプット出てるけど結果出てなくないですか。ゴミいっぱい作って楽しいですかと私は言いたいと。
意識せずとも無意識な方楽な方に逃げてると。それが量のアウトプットなんです。一度ご自身振り返ってみてください。量に逃げてはいけないですよと。
いえいえC部長さんあなた週休でポッドキャスト配信してるじゃないですか。量が大事なんじゃないですかと。いっぱい出すことが大事なんでしょC部長さんと思った人いるかもしれませんけどもはっきり言っておきましょう。
違います。量だけ出すはクソです。チリも積もれば山となる。所詮積もれどチリの山です。意味がないです。風で吹き飛びます。
じゃあなぜアウトプット量を増やしているのかと。一つしかないです。質のためなんです。質を知るために量が必要だというだけの話です。
同じことを繰り返しているわけでもなければ何かを積み上げていっているわけでもないです。私の場合ね。
常に大量の試行錯誤をしているだけなんですよ。新しい方法をちょっと試しているだけ。その試行回数が単純に多いと。
繰り返すだけに特段意味はないし続けるだけにも特段意味はないんですね。継続っていうものの本質は変化の過程に他ならないと。
変わるために続けるんですよ。継続ってそれ以外の意味持たないです。同じことを繰り返していても同じことを繰り返しているだけです。
それもそれ以外の意味を持たないと。変化をしていかなきゃいけない。一回ずつね。
これ他のものづくりの視点という番組の方で常々これ言ってることなんだけど。継続って一個一個積み上げていくみたいなイメージあるじゃないですか。
あのイメージって僕はやめた方がいいなと思っていて。コツコツ積み上げるんじゃなくて、粘土細工を作っているイメージ。
今日はこれ足してみようとか今日はここ削ってみようみたいな。で目の前にある何かしらの形をちょっとずつ毎日ブラッシュアップして作っていくようなイメージなんですね。
一個一個階段を登って積み重ねるみたいな継続をしていくと同じことを繰り返すことになります。じゃなくて変化をさせていくっていう継続ってそういう粘土細工のイメージで
今日はこれ明日はこれちょっといつもやってないからこれをやってみようみたいなそういうイメージがすごく重要なんですよ。
だから変化のために手数がいるとそれがアウトプットの量だということです。結局やりたいのはそういう粘土細工を完成させること。これは質の追求なんですね。
すごく私の中の哲学の話をしましたけどもとにかく量の追求って意味がなくて質の追求っていうのは本質ですよね。
だから新しいことしようぜ体系的に勉強しようぜということを私はよく言ってるんです。これは思考停止の繰り返しにならないようにしようという意味ですね。
ちょっと話が発散したからギュッと元に戻しますけどここで冒頭の話を回収しますけどAIはキングクリムゾンなんですね。
ジョジョ第5部に出てくるボスです。ディアボルノスタンドキングクリムゾン。結果だけが残ると過程だけ飛ばして結果だけが残ります。
でも結果だけ残ってもやっぱダメなんです。AIによってタスクだけ爆速に進んでいきます。物だけはできる形だけはできる動くものはできます。
でもそれだけじゃダメなんですね。そこにしっかりと根拠を乗せて質を高める方向にハンドリングしていくのが人間の仕事になります。
今後は専門知識をもとにAIが示す根拠を追っていきながら適切に質を高める判断ができる人材っていうのが必要になってくるなと気がします。
そしてそれを専門性と呼ぶことになると思います。結局その判断をする上で人間には正しい専門知識というのが必要になってきます。
それは地道に身につけるしかないものだと思います。しっかり勉強していくしかないものですね。
今やっぱSNSで派手にバズっているものっていうのはこの質の追求とは全く向き合わずに量に逃げる行為です。だから騙されちゃダメ。近道はないです。
これもジョジョの大公文に全部書いてありますからまずこれを読むことから始めればいいんです。
大切なのは真実に向かおうとする意思だということなんですよ。まずこれを勉強してください。ジョジョを読みましょう。
ジョジョを読み終わったらちゃんと勉強しましょう。何事もしっかりとね。
いやもうAIがいろんな知識を持っているから専門家がいらない。専門知識がいらない。非エンジニアでもアダコーダノンノンノンです。
結局回り回ってしっかり勉強して正しい知識を身につけた人が活躍できますからもう面倒ですけどちゃんとやりましょう。
見せかけの量に騙されることがないようにしましょうということなんですよ。
今日言いたかったのはこういうことですね。だいぶ厚く語りましたけども。
結局今日言いたかったのは大事なのは質の追求ですよね。質を追求する上でAI自身が自分の判断の根拠を提示できるのが大事だと。
その提示された根拠に対して人間が自分の根拠を持ってさらに支持できることが大事だと。
こういうプロセスが質の作り込みにおいては重要になってくるし、特に製造業の中ではその判断根拠をしっかり明示するということが人とAIが共生していく上ですごく重要になりますよというお話でございます。
今日はここを伝えたかったというお話でございました。
XAIっていうのは単に技術的に面白いよとかっていうだけの話じゃなくて、人間がAIと共生する上での必要なインフラなんだなと私は思っています。
最後に一つ、私のこのものづくりのラジオでは具体的なアクションをしてくださいよということを常々言っていろいろ話していますので、最後に一つオススメの本を紹介させてください。
これも量を追求するような効率ノウハウ本じゃなくて地道な本です。地道で地味な本ですけど、こういう本こそすごく大事ですからね。
そういうことで今日紹介する本はこちらです。機械学習を解釈する技術予想力と説明力を両立する実践テクニックという本ですね。
技術評論者から2021年に出版されている本ですけど、めっちゃいいですこれ。
この本何がいいかというと、今日説明したようなXAIの主要の手法をPythonでゼロから実装しながら理解できるという構成になっています。
まず先見書きっていうモデルね。誰もが馴染みのあるシンプルなモデルで解釈とはこういうことだよっていうことを腹落ちさせた上で、
じゃあブラックボックスのモデルでも同じことやってみましょうねっていうことを展開してくれますね。
数式度コードが対応して書かれているからアルゴリズム的にも腑に落ちやすいと。
さらに実データで分析するパートみたいのもあるから、実務にどう生かすかみたいなイメージもすごく湧きますし、手を動かしながら学べるという本ですね。
日本語でのXAIの実践書みたいなものって意外と少ないので、これは評価も高いし実際私も読んでみてめっちゃいい本だと思ったのでお勧めしておきます。
興味ある方はぜひとも概要欄から買ってみてください。
ただねパパッとサーッと読める本じゃなくてじっくりとやっていく系の本なんでね。
これこそやっぱ質の追求ですよ。クロードコード実践テクニックみたいな。
別にそれ自体が悪いとは言わないしやって損はないとは思うんですけど、そればっかやってでもねやっぱあんまり意味ないなと思うんで。
こういう地道な本みたいなね結構カロリーが必要な勉強っていうのを私はねやってほしいなと思いますというお話でございました。
はいここからはクロージングトークです。
本当はもう1チャプターあってお便りを返していこうかなと思ったんですけどここからお便りを返すとですね1時間半コースになるからちょっと今日はやめとこうかなと思います。
ちょっとね今プライベートいろいろバタバタしててそんなあのね大したあれではないんだけどちょっと今日子供が手術だったんですよね。
無事に手術終わったんですけどその全身麻酔の手術で麻酔から覚醒するまでに結構時間かかってた。
思った以上に私が想定していた日程がこう押してしまって。
でねあの当然妻は子供病院に付ききりだから長男の面倒私が見ていて。
で明日のこの家事とか料理とかいろいろ作らなきゃいけないなと思いながらわちゃわちゃして長男を寝かしつけしたらですね一緒に寝落ちしてしまって。
このポッドキャストを撮ってるのがですね今3月の28日の朝の4時半なんですけど。
いつも毎日5時に配信してるからあと30分で配信っていう感じでのところで今撮ってるんで。
今日もねギリギリのギリでやってますね原稿作っててよかったと思ってこれ原稿を前もって作ってなかったら詰んでたな危なかったですね。
あの更新が落ちるところでした。
というところでお便りもいただいていてちょっと放置してしまってるんですけどまた来週以降ね返させていただきますんで。
またいろいろとねお便りいただけると嬉しいですよろしくお願いいたします。
ここからちょっとお知らせですねイベントの告知です。
ポッドキャストミキサー2.05月の16日の土曜日ですかね。
神戸ですね今回は神戸で行うことになっております。
現在チケット販売中です概要欄にリンク貼っておきますし公式ホームページとか公式Xからですね情報常に発信しておりますので。
そちらもチェックしていただけると嬉しいですよろしくお願いいたします。
こちらでもチケットに数限りありますんで来るよって方早めに確保していただけるといいかなと思います。
ちょっとなくなってしまうとですねちょっと追加の発行が多分あんまりできなかったですねキャパシティの関係でね。
来れるよって方は早めに買っていただけると嬉しいです。
あと来れないよっていう方でも応援したいよって方ですね看板も受け付けております。
こちらもホームページでねリンク貼ってありますんで是非ともそちらからメッセージ応援メッセージと看板いただけると嬉しいですよろしくお願いいたします。
あと5月ですねまだまだイベントありますね5月の9日10日ゴールデンウィーク明けというかゴールデンウィーク中ですかね。
ポッドキャストウィークエンドに出展いたします。
今回はですねこのものづくりのラジオでの出展ではなくて落ち着きAIラジオというですね私がもう1個やってる方の出展にはなるんですけども。
ポッドキャストウィークエンド私2日間行きますのでもしもねあの会いに来れるよとか遊びに行けるよって方いたらですね落ち着きAIブースぜひとも来ていただければなと思います。
私とカネリン相方のカネリン2人で立っていると思いますし落ち着きAIグッズもいくつかでこう物販で販売する予定になっておりますのでよろしくお願いいたしますというところと。
あとねもう5月やばいよねもう1個実際イベントがあってそちらもちょっと告知しておきますけども5月の3031ですね。
JRRFジャパンレップラップフェスティバルというのがこれも東京で開催されます。
これも2日間出展しましてこれはですねあの3Dプリンターの祭典ですね。
自作3Dプリンターをみんなで展示しましょうぜみたいなそういう3Dプリンターの祭りなんですけど私は例によっておもちゃの旋盤というのをここで出展する予定になっております。
ちょっと子供向けのねあのブースとして出展しますんでおもちゃの旋盤ちょっと遊びたいよとどのぐらいの開発進んでるか見たいよっていう方はぜひとも遊びに来ていただけると嬉しいです。
こちらもあのイベントのリンクはね概要欄に貼っておきましてよろしくお願いします。
5月やばすぎない?
5月9日10日ポトリアストウィークエンドでしょ?
その次の週5月16日ポトリアストミキサーでしょ?
1週間挟んで5月3031ジャパンレップラップフェスティバルと。
いやーいいねーゴリゴリですねゴリゴリにやっていきますね。
なのでぜひとも応援していただけるよっていう方はね会いに来ていただけると嬉しいです。
というわけで今回はここまでとさせていただきます。
私は支部長技術研究所という技術部も運営してます。
またXMC役立つ技術予報の発信を行っておりますのでよろしくお願いいたします。
兄弟番組モノづくりの視点もポッドキャストまたボイスで同時配信中です。
月曜から金曜までの週5で配信しております。
こちらもぜひともチェックしていただけると嬉しいです。
またですね最近コミュニティも作りました。
面白ニクスラボというリスナーさん向けのコミュニティです。
コミュニティの中で私ともっと交流しましょうねとか
リスナーさん同士で交流しましょうということを目的としたコミュニティで
ルームというサービスを使って展開しています。
この無料で入ることができまして
最近LINEのオープンチャットというものも始めたので
このルームの中に入っていただけるとそのリンクがありますから
そこから参加していただけると嬉しいです。
イベントの告知とかですね
そこでこういうモノづくりの情報がありましたよとか
コメント返したりとかもしてますのでぜひとも交流しましょう。
またルームの方ですけども
こちら月額500円のメンバーシップもやっております。
こちら登録していただけると毎週日曜日に
いつもの配信ではしないような突っ込んだ話をしておりますので
そういうプレミアムな配信を聞きたいよという方とか
あと私のこと応援していただけるよという方は
月額500円払っていただけると
それが私の今後のモノづくりの活動費になりますので
ぜひとも応援のほどよろしくお願いいたします。
そしてここから重要ですよ
このモノづくりのラジオいいなと思っていただけたらですね
各ポッドキャストアプリのフォローまた評価の方
星5評価の方をぜひともよろしくお願いいたします。
皆様が5秒でできる、いや2秒でできる私への応援となりますからね
星が増えるとですね非常に嬉しいんですね。
ぜひともね番組の方を評価いただけると嬉しいです。
よろしくお願いいたします。
今日も1時間超えですね
コメント返しまでしてたら1時間半超えでしたけども
今日はここまでとさせていただきます。
というわけで今回はここまで
以上しぶちょーでした。
ではでは