1. ウミノの40歳からのAI活用塾
  2. 【9割が知らない】Claudeはな..
2025-09-02 08:51

【9割が知らない】Claudeはなぜ頭が固いのか?

▼無料のChatGPT基礎講座はこちら
https://x.gd/ETflm

▼1300円で購入できるUdemyセール会場はこちら
https://www.umino-ai.com/udemy-coupon
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/5fba3d73c64654659098efa4

サマリー

このエピソードでは、アンソロピック社が開発したClaudeに関連するコンスティチューショナルAIの概念を詳しく解説している。特に、このAIが安全性と有益性のバランスをどのように取ろうとしているのか、そしてその結果としてのユーザー体験についても言及されている。

00:00
皆さんこんにちは、40歳からのAI活用塾のウミノです。
このチャンネルでは、AIを活用して1日2時間時短する実践的なテクニックと、時間と場所に縛られない働き方のヒントをお届けしていきます。
コンスティチューショナルAIの基本
今日はですね、アンソロピックという、Claudeを作っている会社、こちらの会社がとっているコンスティチューショナルAIという考え方、これについてお話をしたいと思います。
実は私ですね、今、Claudeのコースの刷新をしています。
これね、2024年、去年かな、去年の早めの時期に作ったと思うんですけども、このコース、ゆでみコースです。
なんですけども、追加のレクチャーはめちゃめちゃいっぱいあるんですよ。
ただ、ポンポンとなるところっていうのが結構古くなっちゃっていて、相当ね、内容古くなってしまっていて、申し訳ないなってずっと思っていたので、
ちょっとこれを機にね、頑張って直そうかなと思っています。
ちょっと大変、めちゃめちゃ大変なんですよ。ほぼ全部作り直しぐらいな感じになっちゃうので、メインのところが。
なので、ちょっと大変だなと思ってるんですけども、それをね、直すにあたっていろいろまた勉強し直しているんですが、
ここでコンスティチューショナルAIという考え方が出てきたので、今日はそれについてお話をしたいと思います。
このコンスティチューショナルAI、このコンスティチューショナルってどういう意味かというと、憲法、日本国憲法とかの憲法ですね。
憲法という意味なんですね。これはどんな意味かというと、安全性というのを重視しているっていう、そういう考え方に基づいたAIの、
なんていうのかな、AIを作る手法みたいな考え方っていうのかな。これがアンソロピックが大事にしているところでもあるんですね。
安全性と有益性のバランス
このクロードを使ったことある方ってすごく感じると思うんですけども、クロードってね、めちゃめちゃめちゃめちゃなんか倫理とかその辺うるさいんですよ。
なんかね、例えばブログ書かせるとすると、ブログでAIに関連するブログをね、書かせるとしたら、でもAIは完璧ではありません。
人間が必ず、人間がチェックしましょうみたいなね、必ず入れてくるんですよ。絶対入れるなって言ってもう絶対入れてくる。本当うざいなって個人としては思っていたんですけども、
でもその根本にはこれがあるからなんですよね。まずどんなものかというと、まずAIというのは訓練が必要なんですね。
世界中にあるインターネット上にある情報とかを読み込ませて、それで学習をさせているんですけども、
その学習された情報の中には爆弾の作り方とか、人の殺し方とかね、自殺の仕方とか、本当にこう知られると危険なものっていうのがたくさん入っているわけですよ。
でもその情報を提供してはいけないと、そういう人を傷つけるようなことは情報としては提供したくない。
かといって何でもかんでも禁止していたら役に立たないですよね。その辺の役に立つことと無害であること、人を傷つけないことのバランスを取る必要があると。
このコンステチューショナルAI、憲法AIと言いましょうか。日本国憲法の憲法ですね。憲法AIというのはどんなものかというと、まず憲法というのを設定するという考え方があります。
例えばですね、最も脅威や攻撃性の少ない反応を選ぶという風に原則を定めているんですね。
まずクロードにはですね、憲法というものを設定してあります。憲法というのかな、指針となるものみたいなものを設定してあるようです。
それが世界人権宣言とか、Appleの利用規約などの原則が含まれているそうなんですね。面白いですよね。
そういったものを入れておくことによって、そういったね、世界人権宣言では、どんな何人たりとも人権というのは尊重されるべきであるみたいな感じのことが書いてあると思います。
ちょっと皆さん見てないですけど、あとはAppleの利用規約とかも、例えば性的なものはダメよとか、暴力的なものはダメよとか、そういうのが書いてあるんだと思うんですね。
そういう憲法を設定することによって、役に立つことを訓練しつつ、世界中の情報から役に立つ情報を訓練されつつも、無害になるように訓練し直されているという感じですね。
これはですね、なんか順番があるみたいで、ステージがあるみたいなんですけども、このConstitutional AIというのは最初に役に立つことをまず訓練しますよね。
普通に世界中にある情報というのを学習します。その後で2段階で無害になるように、学習をし直す、訓練し直すそうです。
まずステージ1では、有害なプロンプトに対するAIの応答というのを繰り返し学習させていって、改良をしていくと。
例えば爆弾の作り方とか教えちゃまずいですよね。爆弾の作り方についてAIにアドバイスを求めた場合に、最初はね、AIは爆弾のチュートリアルというのを回答してしまうと。
でも、そこからですね、憲法原則に従って応答を書き直すように指示をすると。そうすると、だんだん出力が変わってくるらしいんですね。
そしてですね、ステージ2に行くと、最終的には有害なプロンプトに対する代替応答のペアというのを生成させると。
ちょっとこの辺なんか日本語訳そのまま見てるので、ちょっと意味わかんないかもしれないですけども。
AIに憲法原則、つまり人権は大事だよとか、人を傷つけてはいけませんよとかね。
そういうことが書いてある憲法原則に基づいて、2つの応答のうちどちらが最適かっていうのを自分自身で評価をさせると。
そして最終的にはAIが生成した無害な回答の方が集まっていって、どんどん集まっていって、それを人間の、
私たちとしては便利な方を使いたいので、便利さと無害性っていうのをバランスを取っていくっていうことをしていくようです。
ただ、バランスを取るって難しいですよね。
ぶっちゃけ個人ユーザーとしてはちょっとまだ硬いなっていう感じはします。
何でかというと、私はもちろん爆弩の作り方とかを全然調べようとは思いませんけれども、
何かを調べようと思った時にそれは危険なのでできませんみたいなね、それは違法なのでできませんみたいなね、
そんなの調べる私が悪いんですけども、ということを答えられてしまって取り尽くし間もないみたいな感じになっちゃう時っていうのは何回かあったことはありますね。
それとやっぱり有益性と無害性のバランスっていうのはなかなか難しいものだなというふうに思ったりもします。
今はね、まだAIも発展途上なので、おそらくね、これも私は知らないだけで、
脱獄っていうんだっけ、脱獄みたいな脱獄っていうのは牢屋を抜け出すの脱獄ね、
そういう抜け穴を通すみたいな、日本語変だけど、そんな感じのプロンプトとかも世の中にはあるはずです。
そういうのを使って爆弾の調べ方とか、あとは何か違法な何かをする方法とかを調べたりする人もいるんだろうなぁとは思います。
Claudeのコースと販売情報
今日はクロードンを大事にしているコンシチューショナルAIという考え方についてご説明をしました。
このクロードンをもっともっと勉強したいなと思っていらっしゃる方は、今5日間限定で1300円セールをやっています。
1300円でこのクロードンコース、今はね、まだ古いです。古いんですけども、おそらく1週間、2週間以内には新しい内容になるはずですので、
よかったらご購入いただいて、新しいスキルを身につけていきましょう。
クロードンはやっぱり、なかなか抜けられないですね。クロードコードもあるし、クロードコードについてはこのコースではあまり深くは扱いません。
概要ぐらいは説明しようと思うんですけども、深くは扱わないんですが、クロードンはやっぱりなんだかんだで便利なので、課金を続けてしまっている、
そして私のお財布事情が圧迫されているAIの一つになっていますので、よかったら概要欄からセール会場を覗いてみてください。
今全部無料から1300円セールをしていますので、よかったらご覧ください。
それではまた。うみのでした。
08:51

コメント

スクロール