謎の超高性能チャット、GPT-2-Chatbotについて
こんにちは、今日はちょっと緊急でカメラ回してるんですが、
今、チャットボットアリーナ、先日お伝えしたチャットボットアリーナという、
チャット、AIのアリーナ、性能を競い合うサイトにですね、
謎の超高性能チャットが現れたということで、その話をしたいと思います。
名前としては、gpt2-chatbotという名前なんですが、
こちらのgptということで、オープンAI社のchat gpt、gpt4などが今最新ですが、
それと関係があるのかと言われているんですが、謎な点がいろいろとありますと、
まずそのオープンAI社のgptシリーズは、gpt-4、gpt-4というように、
-4というか、モデル名にダッシュが入っているんですね。
このモデル名とチャット名、サービス名がちょっと反然としないところがあるんですが、
オープンAI社は今のところ、おそらくこれは一緒に使っているのかなという理解なんですが、
今回出てきた謎のチャットは、大文字のgptにダッシュに4となっていますが、
今回出てきたものは、小文字のgptにダッシュなしにいきなり2にダッシュchatbotというところで、
ちょっと書き方が違うというところで、
かなりオープンAI社は関わっていそうではあるが、何なのかというのが議論になっていると。
オープンAI社の今、CEOのサムアルトマンもこれについてツイートでポストしていて、
関係あることはほぼ間違いないであろうと言われています。
これが何なのかというのは、いろいろまだ明らかになっていないところなんですが、
おそらくgptシリーズのメジャーバージョンアップではないかと言っている人もいますし、
または今gpt4が最新ですが、昔の2のバージョン、
4-3-2、その前の2のバージョンを今のデータで学習し直したものではないかと。
なのでこの1.5ビリオンのモデル、パラメーター数15億のモデルで学習し直したもので、
これだけ性能が出ているというような話なんじゃないかと。
例えば最新のモデルで言うと今パラメーター数がどんどん増えていて、
例えばオープンAI社、オープンAI社ではメタ社、旧Facebook、メタ社のラマー3の大きい方は70ビリオンなので700億パラメーターありますし、
そういった意味では今1.5ビリオン、15億のパラメーター数というのは全く多いものではないんですが、
それでもデータをよりアップデートしたもので学習することでこれだけの性能が出るという話なのかもしれないと。
そういった意味ではパラメーター数が多ければいいというものではないのかもしれないという話なんでしょうか。
ここは全くわからないですが、とにかくこの謎の超高性能チャット、GPT-2-Chatbot、
誰でも今試せるのでぜひ試してみてください。
リンクも貼っておきますが、
lmsys.org、これはカリフォルニア大学バーク霊校のThe Large Model Systems Organizationというサイトのチャットボットアリーナでググっていただくとすぐ出てくるんですが、
左から3つ目のタブ、ダイレクトチャットに行って、モデルを選択するプルダウンがあるのでそこでGPT-2-Chatbotと選んでいただくと皆さんも使うことができます。
ということで今日は謎の超高性能チャットボットのGPT-2-Chatbotについてのお話でした。ありがとうございました。