1. Recalog
  2. 176. 2023/11/19 生成AI関連の..
2023-11-19 00:00

176. 2023/11/19 生成AI関連のアップデートがすさまじい ほか

spotify apple_podcasts youtube

以下のようなトピックについて話をしました。

枕: OpenAI Dev Days

1: GitHub Universe

2: Microsoft Ignite

3: AWS PartyRock

4: Starship


本ラジオはあくまで個人の見解であり現実のいかなる団体を代表するものではありません
ご理解頂ますようよろしくおねがいします

サマリー

2023年のOpenAIのDev Daysでは、アップデート情報が紹介されています。GPT APIが改善され、新しいAPIが発表されたり、GPT図と新スタートAPIが発表されたり、知識幅が拡大されたり、画像生成/理解や音声合成APIが公開されたりしました。また、GPT-4のファインチューニングが可能になるなど、さまざまなアップデートが行われました。さらに、GitHubコパイロットチャットが一般利用可能(GA)になり、GitHubコパイロットのコード生成機能がチャットベースで依頼できるようになります。また、コードスキャニングのオートフィックス機能も追加され、プルリクエストからのコード修正や実装上の課題の修正が行えるようになります。さらに、GitHub Copilot Enterpriseがリリースされ、企業内での特化が進みます。GitHub Copilotワークスペースも追加され、Issueの内容を解釈し修正案を提案してくれるようになります。 2023年4月以降、オープンAI社はGPT-4 Turboとビジョンモデルを提供し、Azureのデータセンターの拡充に注目されています。また、NVIDIAとのタイアップにより、AI用のコンピューティングサーバーを構築する計画も進行中です。パソコンとAIの進化についての話や、AWSの新たなアップデートについての情報も紹介されています。 そして、今回のイベントでは、あんまりいい反応を示せていないGPT-4やBirdのアップデートについても語られ、さらにはSpaceXのスターシップの打ち上げ試験の結果についても話されました。

OpenAI Dev Dayのアップデート
スピーカー 2
生成AIヤバいっす。
スピーカー 1
ほう、そんなにヤバいですか?
スピーカー 2
ヤバいです。
ヤバいとしか言いようがないくらいヤバいです。
スピーカー 1
語彙が死んでる。
語彙が死んでる。
スピーカー 2
いやー、この11月、ちょっとラジオできてなかったんですけど、
立て続けにでっかいイベントがいっぱいあってですね、
まあ、OpenAIのDev Days、
Dev Dayっていう、
OpenAIがやってるカンファレンスと、
あとGitHub Universeっていうカンファレンス、
あとMicrosoft Igniteっていう立て続けにあってですね、
全部AIの話してるんですけど、
それくらい各社、AIにすげえ力を入れてて、
その内容がまた度肝を抜かされるというか、
あの、
OpenAIがまた一興時代に
帰りたいだなと言わされるようなもので、
それになんとかしかみついて
行こうとする他社みたいな感じになっててですね、
まあ、群遊滑挙感があるので、
ちょっと長くなるかもしれないですが、
紹介させてください。
はい。
はい。
一つ目、OpenAI Dev Dayなんですけど、
えっと、
まあ大きくまとめると、
GPT APIが大幅に改善して、
新しいAPIも出ました。
GPT図っていうのが発表されました。
新スタートAPIっていうのが発表されました。
この辺はChat GPT研究所って言ったところの
スピーカー 2
記事を参考にしています。
で、それを説明していくんですが、
まず分かりやすいところから、
既存のGPTが良くなりました。
APIも更新されました。
という技術的なところです。
今まで受け付けられる
その文章量っていうのが
32Kトークンっていうくらいで、
ちょっとトークン数との説明は
ややこしいので置いときますけど、
32単語くらいまでが限界だったのが
128Kトークンまで広がりました。
ということです。
このトークン量っていうのは、
世の中で今リリースされている
他のモデルと比べて28Kくらい多い。
一番長いもので100Kトークンで
100Kトークンすげーって言われてた時代から、
それに乗り越えるような128Kが出てきたので、
素晴らしいですねという感じです。
次がAPIのレスポンス機能回りのところです。
今までファンクションコーリングというのが
APIで使えてました。
どういうものかというと、
AIにこれこれやってくださいって言ったら、
ファンクションコーリングで定義されているものが
その機能に改造しそうだったら
それを呼び出してくれるっていう機能ですね。
なのでコールバック関数のように
やっといてっていうのを登録しておくと、
例えば検索エンジンを登録しておくと
その検索エンジンを実行してくれるみたいな感じです。
今までだとその登録されている関数っていうのを
複数登録してても一度に呼び出せる関数が
一個だったのが複数の関数を呼び出せるようになりました。
ということで複数のコールバック関数を
登録しておけるみたいになります。
何がいいかというと複数回のやり取りが
必要だったりしたのでこれまでだと
処理時間が長くなったりとか
トークン数がむねやみに増えて大変だったんですけど
その辺が楽になります。
あとはJSONが返せるようになりました。
JSONっていうのはテキストのデータフォーマットの
種類なんですけれども
このJSONというのはITのところでよく使われていて
インターネット上のAPIとか通信っていうのは
ほとんどがJSONでやり取りされているっていうのが
実態としてあるので
このJSONフォーマットで返ってくると
非常にシステムに組み込みしやすい
っていうのがあります。
なのでこの辺のアップデートで
単純に性能が良くなった
組み込みやすくなった
使い勝手が良くなったということで
今まで痒いところに手が届かなかったのが
届いたぞやったっていったところで
ここまででさすがOpenAI進化させるなっていうので
ここまでは見ている人は
落ち着いて見ていられましたと。
もちろん拍手はするんですけど
良い進歩だなというふんふんと
頷ける範囲でした。
次が知識幅の拡大ということで
今までGPT3.5とか4だと
2021年までと言ってました。
それが先日
このラジオの前回か前々回くらいに
2022年に伸びましたと言ってたんですけど
2023年4月まで伸びました。
どういう開発スピードと
どういうデータベースや
体制があればこんなホイホイ
1年のデータ量を増やせるのかは
さっぱり分かりませんが増やしてきましたと。
言ったところで
ちょっと腰を抜かす感じはありますけど
おおそうかよくやったなと
言ったところで
これもまあまあまあ
衝撃はありつつも受け入れられましたと。
次が新しいモダリティということで
画像生成画像理解音声合成APIの
公開が行われました。
画像生成については
Dual Eと言われていた
これまでもあった画像生成なんですけれども
3になって非常に
今まで以上に期待する画像が
作れるようになったということで
満を持してオープンAIの目玉として
登場してきたって形です。
私たちが今
使っている背景とかも
Dual Eによるものなので
それがアップデートされたのが良かったですね
と言ったところで
それは良いですと。
問題は画像理解と音声合成APIのところで
これが完全に新規な
ものになっています。
画像理解と言っているのは
以前デモで
紹介があったよって話をラジオでしたか
ちょっと覚えてないんですけど
GPTさんには
今テキストを入力する
っていうのが基本になってますが
それに画像を渡すようになれますと。
何をやっているかというと
画像をアップロードすると
画像の中にあるカテゴリ
犬がいるだとか
猫がいるだとか
人がいるだとか
顔の部品があるだとか
そういったものを抽出して
キーワードとして取り出しますと。
それのキーワードと構成要素から
この画像がどういうものだという解析の
コンテキストをつけて
GPTに渡せば
GPTがそれを受け入れる
テキストとして解釈して
処理できるようになるということで
画像の理解が進めば進むほど
GPTの性能向上と新機能
スピーカー 2
画像入力から
ChatGPTさんの
活用というのが進むんですけれども
そのためのAPIというのが
提供されました。
ここというのは非常に難しくて
従来の画像
解析技術というのは
人が例えば
ラベリングするために必要な画像解析を
するとかその後のシステム
というのがある程度
既存のシステムとして
分かりきっていたものだったんですけれども
この新しいChatGPT
生成AIのLLMモデルに
渡すべき情報
に抽出して
画像解析するというのはあまり
よく分かってなかったので
今は各社が研究レベルで
今までの既存の
画像解析資産を使って
こんな画像解析を
生成AIに加わってみたら
こんなことができましたというのを内々で
やっていたレベルだったので
各社が
自分たちの自己投資で頑張っていたところだったんですけれども
オープンAI社は
それが
もうできるよということで
そのためのAPAも提供しちゃったので
今まで頑張って研究していた人たちが
なんやそれって言って
放り投げる羽目になったという
感じのAPAの公開です
またこの価格がクッソ安い
というのでまた
研究者たちがこぞってイラついているという感じですね
スピーカー 1
画像性
スピーカー 2
次が音声合成のところですね
チャットGPTに
食わせた結果
人のような振る舞いをしてくれるということで
すごく話題になりましたけれども
そうなったらやりたいことというのは
喋ったやつをうまく音声で出力したい
これもみんな思ってたことで
すでにあるずんだもんに食わせてみたりとか
いろんなことをやってた人がいるわけですが
そこの部分についても
オープンAI社やりますよということで
早速プリセットダウンロードして
もちろん英語のみ
ではあるんですけれども
喋れる音声合成モデル
というのが出てきました
これも
AIから出てくるものからの
信用性ということを考えると
単純に入れるだけでは
ずんだもんはしっかりですけど
うまくコンテンツ化するレベルにはいかない
商用には持っていけないというところがあるので
そこのチューニングをどうしていくのか
というのが各社の
コミュニケーションを
今後のビジネスのコア技術になってくるだろう
と思って
研究してたところがあるんですけど
それも音声合成AIが
APIが出てきてしまったので
いらなくなりそうだという気配がしてきた
ということで
グヌヌってなってるんですが
日本に限って言うと
日本語が難しすぎる問題があって
そこは
オープンAI社もなかなか出てこないだろう
って見込みがあるので
今のうちに日本語とかは頑張れる余地があるかな
くらいの状態になってます
これだけで
ふぅ
オープンAIさすがだな
いろいろ手を出してくるなやべえやべえ
って言ってたんですけれども
この後からさらにエグいのが出てきます
次が
カスタマイゼーションです
GPT-4の
GPT-4のファインチューニング
スピーカー 2
ファインチューニングが可能になりました
ファインチューニングは
何かというと
すでにあるモデルに対して
追加のデータを渡し上げて
その分だけ学習してね
っていうものですと
このファインチューニングっていうのは
非常に難しくてですね
データを与えたところで
AIからしてみれば
大量に今まで学習してきたデータの
一部分でしかないという位置づけになるので
うまく情報を引き出せなかったり
あとは情報を
与えすぎたり優先度を上げすぎると
逆に他の情報との
関連性をうまく紐付けられない
ってことになってくるので
ファインチューニングは難しいと言われていました
GPT-3.5までは
そうだったんですけれども
GP-4の解釈能力っていうのが
非常に向上しているために
ファインチューニングは
また一線を越えて
そういった課題を乗り越えられるんじゃないか
という風に期待が集まってたんですけれども
GPT-3.5より4の方が
圧倒的に大きいモデルなので
ファインチューニングもなかなか
公開できないんじゃないかと言われてたんですが
さらっとできますと言ってきた
というところで
またこれも非常に注目が
集めています
ファインチューニングっていうのはその特性上
どこどこ社特価の
GPTモデルを作るみたいなことに
到達し得る可能性のある技術なので
またこれも
改めてファインチューニングどうなんやねん
みたいな議論が進みそうだと
言ったところで
オープンAIとしてはファインチューニングを
過去のものにする気はないということで
非常に注目になってます
レート制限の引き上げとか
この辺はいいか
こんだけ新しいものを出しつつ
オープンAIとしては
基本的にもっと安く使えるようにしますと
言ってきているという
ビジネス的にどんびりの話なんですけど
そういうアップデートも入ってます
さっき大きな項目で
3つ上がってたと思うんですけど
それの2つ目の話に行きます
GPTs
自然言語で作れる
AIBotのリリースがありました
何かというと
ちょっと
デモ的に動画とかやれれば
いいんですけどラジオなのでできないんですが
AIに
こんなアプリ作ってって言ったら
アプリを作ってくれる
以上という素晴らしいBotです
何言うてるんだ
って話しかもしれないんですけれども
先ほどまで
画像の入力を解釈
インターネット検索できるようになりました
音声しゃべれるようになりました
ファイルをアップロードしたりして
ファイルを参照することができるようになりました
インターネット検索できるようになりました
ここまでできると
大体の仕事を
アプリ化できてしまう
といったところが見えてきてます
そういったアプリ
っていうのを
個人で作ったり公開していったり
っていう世界がやってくるだろう
ということを掲げて
Aiとしては
GPTアプリ群っていうのを
作れる
フォーマット プラットフォームを提供してきてます
使い方としては
ChatGPTのアプリから
Explorerみたいなタブが追加されているので
そこから
Aiさんに
どういうアプリ作りたいんですかって聞かれるので
その質問に答えていきます
こんなアプリ作りたいです こんな機能ができます
こんなデータですみたいな感じのことを
話していくとポンとアプリができて
最後そのアプリのアイコンも
REによって
自動生成してくれるみたいな
そんな世界です
なので無人像にアプリが
山ほど増えていきそうな
そういう変化点が生まれました
これは
スマホのアプリ例明記と
同じような感じなんですけれども
その当時とは圧倒的に
違うのは既に開発
プラットフォームがあって
その開発が非常に
効率的になっているというところで
違っていて
スマホ例明記の時は
本当にトップエンジニアたちしか
そのストアにアプリを公開していけない
とか商用レベルのアプリに
進化させるのが困難といったところが
あるんですけれども
このGPT-Zであれば
本当に個人レベルで誰でも
それなりのアプリを作っていけるので
この後
GPT-Zのストアができるらしいんですけれども
すごく
市場の奪い合いが始まるのでは
なかろうかということで
エンジニア的には戦線協協する
時代になりますと
もう一つ
このアプリというのが
非常に進んだ場合
企業としては出せる商品が
なくなっていくという
危機感もあって
個人が作った生成AIのアプリで
大体できるよという話になると
本当にB2Cレベルの
市場というのがほぼ
個人に奪われてしまって企業が
出せない世界になってくるとかになると
なかなかこの生成AIという
技術をビジネス化するのが
どうするんだ問題も出てきて
非常にインパクトを
持って受け止められているものですね
最後 アシスタントAPIですね
これもですね
もともと似たようなのは
あったんですけど
出せるといったところが
強すぎるなという話なんですが
何をやってくれるかというと
あるタスクをお願いするときというのは
一個の簡単なジョブではなくて
複数の簡単なジョブが
連なって
一つのタスクになっているというのが
一般的です
ということはそのジョブの関係性とか
順番性というのを解釈して
一つずつ実行してもらう
という必要があります
このアシスタントAPIというのは
そういうシーケンシャルに
何をやっていけばいいのかということを
判断して
逐次実行してくれるというようなものです
ということがあるので
これをうまく活用すると
あらゆるシステムで
この生成AIでできる範囲というのは
一つのリクエスト
アシスタントAPIに対するリクエストで
処理時間がかかるかもしれないけど
全部やり切った上で
使えるという形になるので
非常に効果的になります
もちろん
ChatGPTから人が投げる上でも
このアシスタントAPIが
今後使えるようになると思うんですけど
なれば
私たちはもっと
AIに対してフランクに
依頼を投げて
回答を得ることができるというものになっています
ということで
まずは
ウェブデイの話でした
ここまでで
何か質問等あれば
スピーカー 1
これでもうお腹いっぱいですね
という感じではありますけど
すごいよね
そうですね
データの容量と
深度が増えたとかは
なんていうんですか
おっしゃっていたように
延長線上
それでもずいぶんすごいんですけど
延長線上の進化かな
と思っていましたけど
後半のやっぱり音声合成とか
画像生成とか
画像認識とか
個々の
分野では研究が
進んでいる段階だったものが
一気に
GTP上で
統合されている
昔ラジオでも話した通り
GTPとの連携をどうするか
が腕の見せ所なんじゃないか
スピーカー 2
みたいな話をしていましたけど
スピーカー 1
全部やってくれるんだったら
もう何やるんや
という話になってしまって
まさにそう思ってますね
しかも安いと
クッソ安いんだよね
スピーカー 2
ちょっとこれは
0.001ドルとか
は?っていう感じ
スピーカー 1
ちょっと勝てませんね
という形で
じゃああと何ですか
カスタマイザーの方向も
残り2つの
GTPSとか
アシスタントで
スピーカー 2
気軽に誰でもできるようになっている
スピーカー 1
コース掛けて
法人がやる意味あるんだっけ
っていう感じがすごいしますけどね
というところになってきましたね
スピーカー 2
そうなんです
私たちは
SAIという技術が素晴らしいと思って
企業は飛びついたけど
SAIという単位で飛びついては
勝てないということが分かりましたという結論は
あまりにも悲しすぎるので
どうしてくれよ
スピーカー 1
こいつという感じですかね
そうですね
そうですね
勝てるとしたら
企業体としての法人としての信用度かな
という感じはちょっとせんこともないなと
思ってましたけど
ストアができるって先ほど言ってましたけど
ストアができて
法人が作ったAIが
乱立させる
している状態
になると市場的に
個数は増えているけど
どれがいいものか
顧客はよく分からないという状態にはなると思うんですよね
そこで企業公式が
これですよという形で
お出しすることで
信用度
変な
広告とかついてませんよとか
個人情報抜かれませんよとか
そういうところで
安心して使ってもらえるとか
そういうところで差別化する
要は場外戦闘みたいな感じになるんですけど
半分
そういうところでしか
勝てないのかなという
気はしてきますね
スピーカー 2
そうですね
そうですね
ただ世の中のトレンド的には
企業の信用とか
品質の劣化が多少あっても
それでも
使いやすい方を選ぶというのが
ぶっちゃけスマホアプリとしては
見えてきた世界だと思うので
なかなか
勝算があるストーリーラインとも
思えず難しいところですね
スピーカー 1
そうですね
マスがどんだけ
そこにこだわるかというところ
はあるかもしれないですね
マリティを気にするような
スピーカー 2
金融とかそういうのが絡めば
多少なりともあると思うんですけど
スピーカー 1
その他のザッとのアプリは正直
マスは気にせずに
使えちゃいますもんね
そう
スピーカー 2
ということで
このGPTストア
まだ公開されてないんですけれども
公開された直後から
この生成AIを
関心高く持っている
あらゆる全ての
本当に全てのエンジニアが
毎日1アプリの投稿
下手したら数アプリの投稿
っていうのを
行い始める世界になりますと
一体その先にあるのは
何なのかっていうのは
私も読めませんが
何かカンブリヤ機的な
爆発を感じさせる
動きになるのは間違いないですね
そうですね
スピーカー 1
いやー爆発
すごそうですね
なんか溺れそうな感じがすごいしますけど
はい
今まで
スピーカー 2
あれですね
あの
やばいどうするした
えっと
AIによる
得意点
スピーカー 1
シンギラリティか
スピーカー 2
シンギラリティみたいな文脈って
あんまり感じたことなかったんですけど
これで
もし爆発して
あらゆるアプリが
毎日1万くらい増える
みたいな世界になったら
シンギラリティ感じざるを得ないな
スピーカー 1
そうですね
ちょっと
はい
スピーカー 2
感想にいきそうだったので次の話
スピーカー 1
いきますか
いきましょう
満足してしまった
満足してしまったけど前哨戦なんですよ
スピーカー 2
次いきましょう
スピーカー 1
GitHub Universeです
スピーカー 2
GitHubも
似たようなイベントやってました
これもですねAI関係で
OpenAIとは違う方向で素晴らしい
アップデートが
こぞって入ってますのでその紹介です
GitHubコパイロットチャットのGA
スピーカー 2
まずGitHubコパイロットチャット
というのがGAされます
今まで
一部のユーザーだったりとか
エンタープライズユーザー
とかの契約者しか使えなかった
GitHubコパイロットチャットというのが
GAされます
何がいいかというと
以前ちらっと紹介したかもしれないですが
GitHubコパイロットの
コード生成機能をチャットベースで
依頼できるというものですね
先ほどOpenAIでチャットGPTに
お願いしたら関数実行してくれる
みたいな話ありましたけど
もちろん
OpenAIのGPTも
プログラムは作ってくれるんですが
GitHubコパイロットほど
賢くは作ってくれないということで
やはりGitHubコパイロットで
プログラミング開発するというのは
まだまだ第一線を走っている
AI技術になっています
そのコパイロットに
チャットベースで頼めるんだったら
それにこうしたことないよねということで
チャットGPTから
このGitHubコパイロットに
依頼するという経路が
作られていますということで
非常に便利に使えます
GPTベースになっているので
もちろんコード生成以外の
ことについても聞ける
例えば通信プロトコルって
こんなんだっけという技術を知った上で
じゃあそれに対するコードはどんなの
みたいなそんな形で
技術理解とコード生成を両方やっていける
という体験になるので
本当にある程度賢い
同僚が横についてくれて
ペアプログラミングする
みたいな体験がより強化されているので
このGitHubコパイロットチャットは
本当に素晴らしい機能だなと思うんですけど
それがGAされるということで
全ユーザーが歓喜しております
コードスキャニングアウトフィックスのオートフィックス機能追加
スピーカー 2
次が
コードスキャニングアウトフィックス
オートフィックスという機能がアップデートされます
これが何かというと
今まで
GitHubリポジトリにある行動というのは
パブリックリポジトリであれば
自動的に
プライベートリポジトリやエンダープライズユーザーであれば
有償契約で
セキュリティの自動チェックをかけて
この
使っているライブラリのバージョンが古くて
そのバージョンには脆弱性が見つかっているよ
大丈夫ですかというのをチェックしてくれたりとか
そのバージョンをどこまで上げたら
解消できるかというプルリクエストを
発行してくれたり
というところまでやってくれてました
今回追加される機能というのが
そのプルリクエストから
実際に
コード修正したりとか
ライブラリの中だけではなくて
実装上の課題というのも
見つけた上で
その修正内容を
プルリクエストしてくれるようになります
コード修正と実装上の課題の修正
スピーカー 2
ということで
ユーザーは
自分たちのコードの品質が
多少貧弱で
悪くて
いわゆるセキュリティ攻撃
に対して標準的ではない
実装をしてしまったとしても
このコードスキャニングオートフィックスが賢ければ
どんどんどんどんプルリクエストが
遅れてくるので
ホーンと言いながらそれを待ちし続ければ
基本的にはセキュリティ対策が
完了すると
少なくともコードスキャニングオートフィックス
レベルでは問題ないと言える
コードというのが
何にもせずに作られるというレベルになります
ということで
セキュリティについては
なかなか考えたくないというか
学ぶのが大変だし
最新技術についていくのも
難しいということで
手落ちになりがちなところというのが
非常に楽に
かつ効果的になるということで
ものすごく注目が集まっています
次が
GitHub Copilot Enterpriseのリリース
スピーカー 2
GitHub Copilot Enterprise
の対応で
企業内の特化が
始まりますと
何かというと
これまでGitHub Copilotというのは
パブリックに公開されている
リポジトリで
学習対象にしても問題ないようなものを
対象に学習して展開してくれている
それを
エンタープライズとして利用できますよ
くらいだけだったんですけれども
その企業の中で管理している
企業管理
リポジトリ群というのも
もちろんあるわけですよ
その企業管理のリポジトリ群というのは
当然その企業のコーディングルール
規約に沿って作られていたりとか
その企業の中では
当然
使い回す資産となっている
行動であることが多いので
そういったものを
中心に学習してそういったものから
優先的に提示できる提案できる
ようになれば
より優れているよねということだったりとか
あとはGitHub Copilot
自身に
私は知らないけどこの会社で
公開されている会社内にある
アクセス可能な
リポジトリに私の
知りたいコーディングが
ないかどうかとか
そういったことも知れるようになる
という入り口としてGitHub Copilot
GitHub Copilotワークスペース
スピーカー 2
エンタプライズが進化しますという
アップグレードで
これも本当に
嬉しさしかないというか
まさにそれが
やりたかったという
GitHub Copilotプライベートといえば
そういう形だよねと言わんばかりの
内容になっていてですね
ものすごくこれも購入したい内容になっています
最後
特段のアップデートが
来ましたGitHub Copilot
ワークスペースです
これ何がすごいかというとですね
GitHub上には
issueというものを
書ける場所がありますと
いわゆるチケットになっていて
このプログラムにはこんな問題があります
みたいなのを気づいたら上げたりとか
こういうことってダメなんじゃないですか
こうした方がいいんじゃないですかみたいなのを書いたり
そういったことを
書く場所にはなっているんですけれども
そこに書かれたissueからですね
このGitHub Copilotワークスペースが
実行されると
そのissueの内容を読み込んで
問題というのを解釈し
原因というものだったり
改善案というのをステップに分けて
提示してくれますと
その中からユーザーが
この直し方こういう修正方針でいいと思う
というのを選んだりとか
ユーザーが手入力とかで指示を直したり
して実行ってやるとですね
その内容に沿って
プログラミングを修正して
プルリクエストを発行してくれるというものです
つまりユーザーは
issueに対して一切のコーディングなく
プログラミングを進めていける
という世界になります
逆に言うとここまでできると
チケット駆動ですね
いわゆるissueにすべて書いて
そのissueごとに
どうしていくか
実際にどうコードを書くのかというのを
プルリクエストを進めていけばいいので
私たちはより
本質的な問題は何か
というのをissueにしっかりきれいにまとめて
それでエビデンスを残す
という活動に注力していけば
コードの品質はGitHubコバイルと
ワークスペースによって
自動的に追従されて
どんどんアップデートされていく
という世界になるので
より高い品質のものが
先ほどの
AutoFixと含めて
世の中にどんどん出せる
そういう開発感に変わるということで
SACE AIを使った
本当に強いキラーアプリになって
進化しているなというのが
感じたアップデートになります
スピーカー 1
こちらもなかなか面白いですね
というところで
そうですね
2つほどピックアップするとするなら
Copilot Enterpriseと
ワークスペースですかね
エンタープライズも確かに
面白いですし
何よりさっきのオープンAIじゃないですが
スピーカー 2
安いですね
スピーカー 1
1ユーザーあたり
月39ドルなので
5000円くらいなので
それでさっき言っていた
フル機能というか欲しかった機能が
十分
潤沢に使える
となると
契約取得みたいなものなので
それで開発効率
上がるのであれば全然ありだな
という感じですね
あとワークスペースですね
聞いてて思ったのが
もはや
コンパイラみたいな状態だな
という感じで
自然言語をコンパイルして
GitHubなので
何言語かちょっと分からないですけど
にするという段階
人間は自然言語だけ
考えておけばいいみたいな
状態になってくれる
というのは
人間的にはすごく良いのかな
というところで
かつ
チケット
ドリーブンってさっき言ってましたけど
チケットの書き方が
コーディング規約みたいになって
そこの品質が揃うので
人間の読み
下しやすさも上がるのではないかと
というところが
福祉的に良さそうかなというところ
すごく使うと良さそうかな
というところですね
あとは
極東だと
日本語を使えると
嬉しいですけどねという感じは
ありますけど
ここはやっぱりなかなか難しいでしょうね
言語的にもね
そうですね
そういうところですね
スピーカー 2
日本語で
その一位性のある表現で
書く技術って
結構難しいから
なんならこの機に
上手く
翻訳系の生成アイと
駆使して
その一位な英文にしておく
とかそういう技術も
あっていいかもしれないですけどね
コーディングするくらいの
スピーカー 1
難しい
英文を学ぶという
英文コード
みたいな
スピーカー 2
今まで
高級言語として
Pythonとかそういう言語を学んでいたのを
スピーカー 1
英語を学ぶに変えるっていう
スピーカー 2
方がなんか
筋が良さそうな気もしてくる感じはしますけど
スピーカー 1
まあ
なでしこ学ぶよりは
可能性があっていいかもしれないな確かに
はいということで
スピーカー 2
GitHub Universeはまた
オープンAIの基礎的な話とは違って
キラーアプリの進化として
本当に凄まじいアップデートでした
次がですね
Microsoft Igniteの新情報
スピーカー 2
Microsoft Igniteです
これも
ちょうど先週くらいだったかな
にあった発表で
まだそんなに情報が集まってない
というか
分かりやすいメディアが
集まってないくらいのタイミングではあるんですけれども
Wheelというところで
記事が上がっているので紹介します
まず
Microsoft Igniteで発表された新情報として
GitHub
コパイロットスタディオ
というものと
Microsoft Azure
Meyer
Microsoft Azure Cobalt
BingChatというのが
Microsoft Azureというのと
Azure AIのアップデートです
まず一番目玉の話
コパイロットスタディオです
これはですね
先ほどGPTsの紹介をしたと思うんですが
あれに近いようなものです
今まで
生成AIで
生成AIのプラットフォームだけ提供してきた
Azureなんですけれども
Microsoft 365
コパイロットというのを出してきて
それでPowerPointとか
Excelのアプリケーション
資料とかをどんどん作れるように
してきました
次が
オフィス系のツールを駆使して
こんなことをやりたいという
アプリ化がしたくなりますよね
そういったアプリを作れる
スタディオ IDE
みたいなものを提供しますよ
と言ってきています
これがPower Automateと同様に
ロークオートツールで作られているので
自然言語の入力や
ドラッグ&ドロップで駆使していきます
こういうことをやらせたいです
ってチャットで打ってもいいし
ExcelとかPowerPointのアイコンを
ドラッグ&ドロップして並べてもいいと
いったようなものになっていて
オリジナルのChatGPTアプリ
よく言われている会社内での
生成AIのDXアプリ
みたいなのを簡単に作っていきますよ
というのがコパイロットスタディオになっています
次のビングチャットが
コパイロットにリブランドは
マイクロソフトとして
GitHubも参加にありつつ
なんですけれども
AI関係については
コパイロットに統一していく
という動きが見られます
従来ビングチャットということで
エッジの右上にいたやつとか
エッジでビング検索した後に
出てくるやつとか
そういったやつらを
コパイロットに統一していく
ビングチャットエンタープライズ
それもコパイロットとして
スピーカー 1
一本化されます
スピーカー 2
その辺は名前だけなので
どうでもいいっちゃどうでもいいです
次がエンジニア的には
ちょっとオッというような
ニュースなんですけれども
Azure MayaとMayaとAzure Cobalt
というのがマイクロソフトが
新たに開発したチップです
マイクロソフトのAzureデータセンターでは
NVIDIAのGPUを使用しているものの
マイクロソフトクラウドが
AIワークを再生化するための
自社製チップというのがこれまでなくて
普通にインテルとか
一般的なコアを
使ってGPUと
組み合わせてやるというような
今までのWindows PCの
提供とあまり変わらないような
ものをデータセンターに構えていました
ただやっぱり
それだけでは
最近のAI需要についていけないし
ユーザーのニーズに応えきれない
ということで新たなチップを
作ろうとしてきています
この動きというのは
AWSとか
他の
後発のクラウドベンダーとか
その辺はやってきていて
GoogleとかのGCBも
やってたんですけど
Azureはそこまで手を出して来なかったんですが
ここに来て
チップを作ると言い出してきているので
非常にまた
盛り上がりそうな話です
NTSMCもちょっと
伸びしろが
伸び悩んでいたりと言ったところも
ニュースであるくらいなので
こういったクラウドベンダーが
新たなチップの開発に乗り出すというのは
また半導体業界も
追い風になりそうな話かなと思って
見ています
Azure AI Studioというのが
発表されています
この辺はあんまり
情報が出てないんですけど
オープンAI社のアップデート
スピーカー 2
生成AIのアプリケーションと
さっきのコパイロットの開発を
簡素化できるAIのプラットフォームで
世の中が
出しているAzureのAIアプリ群
みたいなのを
また共有したりとかできる
ということでGPTsの
ストアと似たようなものを
Azure上でもやっていきます
ということですね
GPTsがコンシューマー向けなら
AzureのAI Studioとかで
共有されるアプリ群というのは
Azureのインフラ開発をしている
ITベンダー群の中で
共有される資産という
位置づけになります
最後にAzure
オープンAIサービス自身の
アップデートの話です
以前からオープンAI社の出している
GPTモデルをAzure上で
使えるようにすることで
Azure一興時代を築こうとしている
Azureですけれども
オープンAI社のアップデートには
宣言しています
GPT-4 Turbo
2023年4月以降も
以前までは
全部学習済み
というようなモデルである
GPT-4 Turboと
画像理解のある
ビジョンのもの
これらを提供
できるようにします
NadeRE3とかファインチェニングも
できるようにしますと言っています
これらのアップデートについては
ちょっと見込みが
なかなか立たなくて
いつ本当に使えるようになるか
というのはちょっと予想できない状態です
というのも
現在GPT-4
Turboのつかないやつは
Azure上で使えるんですけれども
日本リージョンや
北米リージョンといった
メジャーリージョンでは
新規利用が今ストップしています
理由としてはデータセンターの拡充が
追いついておらず
一応答えられないということになっていて
それがいつまた開放されるかも
読めないと言っている中で
GPT-4 Turboとか
新たなモデルに対応しようと思うと
さらなるデータセンターの拡充が
求められるということで
その辺のハードウェアリソースの
拡充が追いつくのかどうか
というのが注目どころになっています
このニュースを見て
改めて思うところですけど
オープンAI社はどうやってそういった
計算リソースを
それから確保しているのか
本当に不思議でしょうがないんですが
Azureとしては
なかなかオープンAIの開発速度に
追いついたデータセンターの拡充が
できていないというのが現実
起きている感じですね
といったところで
Azure側も
頑張ってそれに追従していけるように
努力している
といったところなんですけれども
データセンター拡充の注目
スピーカー 2
GitHub Universeや
OpenAI DevDayほど
大きなニュースとなっていないのは
頑張って食らいつけます
というような
頑張ります宣言みたいな
内容が多かったので
あまり話題にはなっていないんですけれども
といったところで
紹介です
スピーカー 1
はい
そうですね
できましたというかやりますという話が
多かったのかなというのは
ありますけど
ハードウェア的には
メイヤーと
コバルトですか
チップを作るというのが
結構大きいなと思ってまして
うーん
何でしょうね
もはや半導体って
出来上げのものを作ればいいや
という流れになってしまっていた
ように見えていて
あとはロジック側を
1X系で
頑張って
詰めていくかみたいな
思っていたところを
各社が独自で作り始めて
もはや
えーっと何ですかね
えーっと
その
データセンターごとに
汎用性はあるんでしょうけど
最適化されたもの
を作った方が効率的
という話になっているのは
何と言うんでしょうね
今までの流れは何だったんだという感じが
だいぶしますけど
はい
半導体屋さんとしては
需要が増えていいんじゃないでしょうか
という感じはしますね
需要が増えるというか
お客さんがばらける
方が
需要の波が
ある程度平準化されると思うので
ありがたい限り
じゃないのではないかと思いながら横から見てますけど
というところですかね
スピーカー 2
そうですね
ただ日本で言うと
記憶視野さんは
ちょっと業績があまり
かんばしくなかったということで
ニュースになったので
なかなか世の中の需要とついていける
企業というのはまた
大きな差があるんだろうなと
スピーカー 1
思いますけど
そうですね
記憶媒体の会社なので
私CPUとかは
ちょっと違うのかなという気が
せんでもないですけど
まああの
まずCPUとか
論理系が独自化されて
それに食らいつく形で
その記憶系も
組み合わせが良くするように
今のMacの
パソコンみたいに全部一括で
ベンダーが
提供するみたいな形になると
それ向けのチューニングとかもあるので
そういう需要があればまた
後追いで
請求になるのかもしれませんけどね
という気はしますけど
ちょっと分からないですけどね
というところで
まあでも
GitHubもMicrosoftも
オープンAIを使えます
というのが前提になっているみたいなのが
やっぱり
あれですね
ベースというか土台というか
もう地面がオープンAIで
できている上に城が建っているんだな
という感じがして
素晴らしいですねというところですね
スピーカー 2
そうですね
NVIDIAとのタイアップ
スピーカー 2
ちょっと半導体関係で
少し脱線しますけれども
今思い出したので
ニュースを
事前共有できていなかったですが
メインチャンネルにありました
NVIDIAがですね
Microsoftとか
いくつかのグローバル企業と
提携してですね
NVIDIAの
出している
最高級GPU群
CPUを組み合わせた
AI用の
コンピューティングサーバーみたいなのを
構築しますよと
いうことでタイアップを始めようと
しています
AWSとか
逆に絡んでないんですけれども
今そのNVIDIA
は本当にGPUの
需要が高くて
各社
クラウドベンダーから引き合いが
このNVIDIAの最高級GPUを
どれだけ確保しているかで
稼げるかどうかが変わるくらいの
世界観に正直なっているのが
あるので
それを提供していきたいんだけど
NVIDIAとしても生産能力の限界も
あるので
より提供する
GPUを
効率的に使ってもらうための
クラウドインフラの
提供にも協力しますよということで
最適化を
目指そうとしていると
ここの中で先ほどの
マニアやコバルトというのが生きてくるのか
またNVIDIAはこういう
インターフェースにするからみたいなアラウンスに
決めて各社に
自分たち特価の
CPU作れって言って
ほったらかしにするのかわからないですけど
そういった動きも
あるので
おっしゃる通り
生成AI周りのCPU GPU
というのが劇的に
進化して変わっていく可能性は
ありますと
そこに追従してくる周辺インターフェース
ってのが変わってくるので
また
大きく変わってきそうかなと思います
これが進むと
もしかしたらですけど
8年後くらいには
いわゆるパーソナルコンピュータ業界に
対しても侵略してくる
というか
GPUとCPUを最適化された
パーソナルコンピュータがないと
パーソナルコンピュータで使う上での
OSに搭載されている
生成AIを活用できないというような世界観も
もしかしたら来るかもなと
ちょっと思います
スピーカー 1
はい
なんかあれですね
これマイクロソフトと共同で
っていうのが面白いですねという感じで
はい
マイクロソフトは自社でもやるけど
NVIDIA
NVIDIAとも
組んでやるということで
まあマイクロソフトからしたら
NVIDIAの資産を100%丸と使ってしまうと
他社というか
NVIDIAがその成果を持って他社に売り込んだら
同じものができてしまうので
まああんまり面白くないよね
というところもあるんでしょうけれど
というところで
うーん
まあそうですね
なんかそのGPUを
何枚持ってるかというか
何テラフロップス分
持ってるかで勝負になるみたいなのは
夢があるんだかないんだかという感じは
しますけど
こういうGPUって
またちょっと
横道に逸れちゃうんですけど
ちょっと前に
マイニング系で
制限かけるみたいな話あったじゃないですか
スピーカー 2
はいはいはい
スピーカー 1
ああいう制限にはかかってないんですかね
マイニングのプロトコルと違うから
こういうAI系は
あんまり関係ないのかな
うーん
なんか
あまり加熱しすぎるとまた
GPUが足りなくなって
その
エネビアが市場の
制限をかけるみたいな
市場の
加熱しすぎるとちょっと冷水をかける
みたいな感じになる可能性も
まああったかもしれへんけど
今のところその動きは全然ないですけどね
スピーカー 2
うーんえっとですね
ちょっと方向性というか
必要なスペックが違うのかな
というのは思うところがありますと
マイニング系の場合っていうのは
そのGPUのマルチコアを
活かした分散検査によって
そのマイニング用の
計算値トークン値を
何とか算出するっていう
いわゆるGPUの中でも
計算リソース
に特化して欲しい
っていう
世界観だと理解してますと
一方でCSIの方で
今あの大きいGPUが
欲しいって言ってるのは
そのAIで
扱わなきゃいけない情報量が
多すぎる問題なんですよね
スピーカー 1
で先ほど出てきたような
スピーカー 2
A100とかH100みたいな
GPUっていうのはメモリが
80GBとかある
GPUのオンメモリが
80GBとかあって
大量のデータをオンメモリ上に
配置できるから
使えるみたいなそんな世界観になってるので
もしかしたらそういった意味で
少し
規制から外れる領域の
モデルになってるのかもしれないなと思いました
スピーカー 1
なるほど使い方が違うと
そういう意味では
ありなのかもしれない
ありというか問題ないという
話なんでしょうねという
ところなんですけども
うーん
最後に言ってたその
独自
AI用の独自チップが乗ってるかどうか
みたいな話はでも半分
現状でそういう感じになってません?
という
気がしていて
スピーカー 2
スマホはそうなってる気がする
スピーカー 1
スマホ
そうそう
LLM用のチップが乗るのか
みたいな話もあったと思いますし
パソコンとAIの進化
スピーカー 1
汎用のパソコンでも結局のところ
最近のパソコンは
CPUにGPU機能が
くっついてるようなものが
一般的になってきているので
そっちで最低限の分担はするみたいな
あーなるほどね
話になってるわけじゃないですか
そこはバス帯域の
幅が広いから
効率よく計算できているわけで
うん
それ前提に
AI技術が進歩していく
前提に言うとちょっと違うかな
うん
そういうアーキテクチャじゃないと
そもそも悔やわせが悪すぎて
使えないならみたいなところはあると思うので
うん
そういう意味ではハードウェアとソフトウェアは
二人三脚でやっていってるのかなって
感じはしますけどね
そうですね
スピーカー 2
まあ
なかなか
IT業界にいる身としては
悩ましいことはいろいろ多くてですね
まあ
いわゆるレガシアアプリっていうのは
Intel CPUでないと動かないものも
多分にあるんですけれども
こうやって
Azureとか
Azure Vendor各社が
どんどんどんどんIntel離れを進めててですね
独自チップ化進んでいくと
もちろん
従来CPUと同じ
カーネルをサポートする
っていうのはやってると思うんですけど
まあ
どうにもこうにもですね
動かなくなるものだったり
出てくるので
クラウドとかこの生成AIが
進化すればするほど
世の中の最新のITリソースで
動かせないみたいな世界になってきて
早く何とかしろよって
ユーザーからケツ叩かれるのが目に見えてるな
というのがちょっと
胃が痛くなる感じがする
スピーカー 1
いやまあ分かりますけど
アーキテクチが違うのでどうしようもないですけど
いやそここそAIの使いどころじゃないですか
なんでほら
ARM向けなのかIntel向けなのかで
GitHubコパイロットさんに
メモリーリーク発生させるように
調整してもらいましょうみたいなね
スピーカー 2
そうそうそう
そういうのがいるなって
はい
最後ですね
AWSも
明け日やってますという話を
ちらっただけします
AWSの方は直近に
そういう大きいイベントがなかったんですけれども
そうはいつつもAWSの
メインAIサービス
Bedrockには大きなアップデートが
どんどん入ってます
そのアップデートを2つだけ
紹介させてください
一つ目がPartyRockというアップデートです
これは先ほどの
Azureでいうと
コパイロットスタジオの
OpenAIでいうとGPTsみたいな話です
こちらについては
もう本当に
サーズ化されていてですね
誰でもPartyRockのページに行って
アカウントを
作って遊ぶことができます
AWS上に
入る必要もないので
本当に誰でも自由です
これのいいところはですね
もう
最初にですね
こういうアプリですと入力したら
パッとそのためのインターフェースを含めて
作ってくれるというようなものです
作れるアプリというのは
そんなにリッチにはならないんですけれども
初期アプリ
WebUI付きの初期アプリみたいなのが
簡単に出来上がるので
GPTsみたいな
チャットGPTありきの
プラットフォームでチャットGPT上で使えるような
アプリがいっぱい作れるとか
Azure上のコパイロットスタジオのように
Azure上で導入できるアプリが
作れるというわけではなくて
本当にWebUIが
付いている一般提供向けの
アプリみたいなものが
簡単に作れるというようなものになってます
内部的に
やってるやり方は
コパイロットスタジオとかGPTsと一緒で
GPTではないんですけれども
AWSが公開している
生成AIの言語モデルに
やりたいことの情報を渡して
そいつが解釈して生成してくれるものを
UIとして出すといったものですね
これが何がすごいかというと
Amazonのベッドロックという
AWSベッドロックは
かなりオープンAIからしてみたら
後発で
なんとか先日10月に
発売されたものばっかりなんですね
そんな中で
オープンAI社がやったような
GPTsのアップデートみたいなのは
もちろん準備期間も
オープンAIほどはなかったでしょうし
なかなか
ベッドロックはなんとかリリースできた
という一段落ついたくらいで
新しいアップデートというのは難しいのかな
というのがあったんですけれども
早速登場してきてます
このパーティロックが
前回のGPTsと同じレベルの
アップデートだったということで
非常に注目を集めています
さらに
このベッドロックでは大きなニュースがあって
まず
ベッドロックのコンセプトとしては
オープンAIや
AIやAzureと違って
いろんな各社が出している
LLM
このモデルを自由に使えますというのが
売りでした
AWSとしてはプラットフォーマーとしての
AWSであって
AIはいろんな会社が作ったらいいよ
というスタンスの
サービスにもなっていました
といったことで
メタ社が出してきている
LLMAという
モデルがあるんですけれども
そちらがベッドロックで
使えるようになりますというニュースが
入ってきました
LLMAなんですが
メタ社が出してきて非常に素晴らしいと
ニュースで話題にはなったものの
使うためのインターフェースというのが
提供されていなくて
ChatGPTのように提供されていなくて
一部のAI技術者が
お試しで使うくらいしか
できていなかったので
そのメタ社が出してきたという
モデルの割には
話題にならなかったモデルなんですけれども
ベッドロックで簡単に使えるようになりました
ということなので
来年する可能性がある
そんなアップデートが来ています
もう一つ
AWSとしては
このベッドロック向けに
肝入りのAIを出しますと
GPT-4ターボに負けないレベルの
成果がすでに出ている
AIのモデルができつつありますという
それも実態がないので
あまり信用がないかもしれないですけど
そういった
モデルも出しますよということで
オープンAIの
デブデイに飲まれないように
発信を続けている
という形になっています
ということで
今日いろいろタイトルとして
生成AI関連のアップデートがすさまじい
やばいって話をしたんですけれども
こういった各社がこぞって
負けじとついていこうと
食らいつく様がすさまじくて
これに
様子見するべきか
ついていくべきか
追従したところでこんなオープンAIのアップデート
また追従した分の研究費が
もったいないぜという気持ちも
湧いてきてなかなか難しいところであるんですけれども
すごいアップデートが
立て続けに来ていたので
今日は
スピーカー 1
しゃべりたかったです
はい
そうですね
ベッドロックの方に関しては
最後に言っていた
メタ社のやつと自社で
作っているやつ
というのが
オープンAIだけしときましょうかという感じには
なるのかもしれないですけど
使ってみることには
流行ってみることにはどうなるのか
わからないというところはあると思いますけど
オープンAI一挙
っての面白くないというか
オープンAI社の方針に
振り回されてしまったりすると思うので
こういうのが出てくれるのは
使用者側としてはありがたいなという
印象がございますね
そうですね
性能に関しては出てからかなという
印象はありますけど
というところですというのと
最後に言っていた話
様子見したら
置いていかれるでしょう
という感じなので
血を吐きながら
ついていくしかないんじゃないでしょうか
という感じがしますけどね
スピーカー 2
それはそう
スピーカー 1
なかなか
そうですね
AWSの新たなアップデート
スピーカー 1
AmazonとMicrosoftとGoogleと
あとオープンAIと
各社がちょっと
戦国時代というか
マジで
すごいものを
出してきているという中で
じゃあどうするのという話はなかなか難しいと思いますけど
スピーカー 2
そうですね
はしゃいでいる人たちはGARFAMに
Oを加えるべきではもしくはどれかの
アルファベットをOと差し替えるべきではという
話も出ていましたね
スピーカー 1
そうですね
そういう意味では
Appleが
単体でAIを出していないというのは
どういう要件なのかというか
スピーカー 2
わかりませんでもないですけど
そうですね
ちょっとね
不可欠性の高い生成AIみたいな
技術はAppleのブランディングには
向かない気もするので
なかなか
アンダーテーブルで
スピーカー 1
ずっとやっているような気もしますけどね
そうですね
確かにiPhoneのカメラとかは
実際AIが入っているみたいな話も
するので
AIというか
画像保管という意味のね
そういうハードウェア的な
なんと言うんですかね
安全
比較的安全と言っていいんでしょうかね
はい
管理しやすいところから
攻めていっているという意味では
Appleもやっているという話はあるのかもしれないですね
確かに
スピーカー 2
Siriさんが結構賢いというのは
昔から言われていましたし
そこに生成AIのモデルを
くっつけたいというのは
当然Apple社の中であって
叱るべきですけど
それについて一切オープンにしていないというのは
品質なんでしょうね
そのブランドを既存しない形で
上手く賢くなれるのか
といったところをクリアできていない
スピーカー 1
だと思いますね
そうですね
GDP自体がベースとして
ネットの情報を
爆食いしているわけなので
その他のアップデート情報
スピーカー 1
個人情報を重視するという方針
からはちょっと
難しいところがあるのかもしれないですね
そうですね
Appleとして
スピーカー 2
納得できるデータモデルから
ちゃんと学習した上で
GPT同等の賢さが得られて
かつその辺の
ユーザーリクエストに対する
Appleブランディングを
既存しない体験を提供できる
レスポンスを返せるか
がクリアできたら
バーンと出てくるんじゃないですかね
スピーカー 1
確かに
ワンチャンちょっとでも
世界を取れるかもしれないですね
あの
スピーカー 2
今はそこが全然できないけど
ミーハーについていくみたいな人たちが
石鹸している中で
それが出てくると
トップ取れる可能性は全然ありますね
スピーカー 1
そうですね
それはそれに期待したいところではあります
という勝手なあれですけど
スピーカー 2
逆にあんまり
ちょっと悲しい感じで言うと
Google関係は
バードの話が
伸びてきていないので
ちょっと今回のニュースに対しても
GPT-4とBirdのアップデート
スピーカー 2
あんまりいい
反応を示せていないというか
私のアンテナの
問題もあると思うんですけど
スピーカー 1
どうしてるんやろうか
もちろん水面下ではやってると
思いますけど
太鼓を食っていけるような
性能が出ていないのか
何なのか
戦略の問題なのか分からないですけど
スピーカー 2
そうですね
一応Googleが今やっている
方向性としては
オープンプラットフォームの方に
手を出し始めてますね
Palmっていう
オープンソースな
AIのモデルというのがあって
これも
よくベンチマークに登場する
やつでGPT 3.5より
若干悪いくらいのやつなんですけど
それを
Googleとしては
主要コントリビューターとして
アップデートをかけてて
Vertex AIみたいな形で
進化させ続けようとしてますと
Chromiumがオープンで
進化させ続けているのと同じ方針で
オープンこそが
最先端を勝ち取る
正義であるという方針で
やってますと
ただこのVertex AIとか
Palmっていう
モデルはもともとが
GPT 3.5を見るんだと言ったところもあって
少しまだ
戦えるAIにはなってきてない
っていうのが現実ですかね
スピーカー 1
なるほど
スピーカー 2
そのオープンを置いといて
じゃあBirdの実態は賢くなってるんですか
っていうと
あんまりニュースに取り上げられないですが
結構賢くなってて
たまに使いに行くと感じますけれども
少なくともGPT 4レベルの
回答は普通に得られたりも
するし
UIもかなり良くなっているので
たまに使いに行ってあげると
Googleもやるやん
っていう気持ちにはなれます
スピーカー 1
なるほど
じゃあ性能は出てるんだ
性能は出てるけど
世の中がオープンAIというか
あがめたて祭りすぎているので
いかんともし難い
みたいなところはあるのかもしれないですね
スピーカー 2
本当に今Birdでくぐってみて
アクセスしてみてください
試験運用中とはなってますけど
一番最初のただ
チャット入力しかできなかった世界から
全然チャットGPT
likeになっていて
チャット履歴だったりとか
やりたいことの
ダイレクトリンクだったりとか
Bingが提供しているようなことは
少なくとも同じようなレベルができるし
回答は
Bingと違って
くそほど早いので
そういったアクセシビリティ
的なところも全然優秀だし
悪くない
悪くないじゃん
っていう体験にはおそらくなると思います
SpaceXのスターシップ打ち上げ試験
スピーカー 1
なるほど
ほんとだ
GTPっぽくなってる
スピーカー 2
なんか
俺の知ってるBirdと全然違うじゃん
めっちゃアップデートかかってるじゃん
スピーカー 1
って気持ちにはなるでしょ
確かに早いですね
スピーカー 2
早いのよ
画像入力もできるし
意外と
スピーカー 1
意外とやるじゃんって感じがします
スピーカー 2
でもニュース的には
スピーカー 1
盛り上がってない
もったいないですね
逆にGTP4が
みんながくらいつきすぎてて
反応速度が遅くなってるみたいな話も
チラッと聞いたりするんで
スピーカー 2
あるある
スピーカー 1
もうちょっと
分散するほうが健全なのかもしれないですけどね
GPTの進化が早すぎて
みんなそれしか使いたくない
みたいな状況になっちゃってるのは
スピーカー 2
そうですね
あとね
複数のモデルを使っていいことっていうのは
検証がしやすいんですよね
AIって言ってることが
間違ってる可能性があっても
堂々と言ってくるので
その嘘かどうかを
読み手が判断しなきゃいけないじゃないですか
でも読み手が判断するのも
全部読んで頑張って判断するの
ちょっとコスト高いんで
よくやるのは
複数のAIに同じ質問を投げて
帰ってきたやつをマージしてだいたいこうだろう
っていう答えはだいたい合ってるみたいな
スピーカー 1
誰かが作って頼みましたけど
マジで無敵なやつ
スピーカー 2
っていう世界観もあるので
バードとかちょっと頑張り続けてほしいんですよね
スピーカー 1
そうですね
スピーカー 2
Googleはメディア露出を頑張ってもらって
スピーカー 1
って感じですね
スピーカー 2
すみません長々と話しましたが
スピーカー 1
AI環境は以上です
満腹な感じですけど
スタッシップの話させてください
最後です
ヤフーニュースから持ってきました
SpaceXのスターシップ2度目の打ち上げ
1段目分離成功
2段目は宇宙空間で爆破
というタイトルの記事です
SpaceXは日本時間
11月18日夜
超大型ロケットスターシップの
2回目の打ち上げ試験を実施した
第1弾エンジン点火後
スターシップは順調に上昇した
前回と異なり
33機全てのラプターエンジンが
作動しているように見えたほか
前回は失敗した
第1弾エンジンの分離にも成功した
しかし分離直後に
第1弾は予定外の爆発を起こし
地上への帰還は実現しなかった
第1弾分離後
スターシップの2弾目は順調に飛行続け
テレメトリー上は
高度148km
その後信号が届いた
スペース.comの報道によれば
予定外の急速な分解で
自動飛行停止システムが
作動し爆発となった模様だ
計画では
90分間のフライトの末
ハワイ沖に着水する予定だった
ということで
昨日打ち上がりましたよという話です
前回打ち上げて
今回2回目だったんですけど
前回は分離前に
姿勢がかなり傾いてしまって
分離前に爆破という感じでした
というのと
文中にもありましたけど
最初から
33機あるエンジンのうち
5,6機が
打ち上げ直後から
機能してなかったので
そもそも予定行動に
到達できなかったとか
そういう問題もあったんですけど
今回は1弾目の分離までは
順調にいったし
その後2弾目も
燃焼終了時刻
ギリギリまでは順調に
飛んでいたようなので
そういう意味では
エンジン系はほぼ成功なんではないか
という雰囲気の形でした
面白かったのが
今回
前回の失敗を踏まえて
今回2弾目の分離時に
2弾目が
エンジンを孵化しながら
分離するという
ことをやっていて
調べると結構
構成によってはそういう構成を取る
国の
ロケットもあるみたいなんですけども
SpaceXさんは1弾目を
回収するという前提で
かつそれをやるという
すごいことをしまして
今回爆発しちゃったんですけども
分離まではうまくいったということで
かなりすごいことになっています
というところでの紹介です
ちょっと
YouTubeで
配信していなくて見づらいんですけど
YouTubeでクリアさんが
やってたりするのでそっちを見に行ってください
SpaceXのスターシップ打ち上げ試験続き
スピーカー 2
なるほどね
JAXAの公式アイドル
公式アイドルって言ったら怒られるかもしれないけど
スピーカー 1
公式アイドルって言ったら怒られるかもしれないけど
のところを見に行っていただければ
詳細に分析してますねという感じですけど
スピーカー 2
でも
お金とかいろんなものを
度外すれば着実な進歩でいいんじゃないでしょうか
スピーカー 1
そうですね
着実な進歩ですし
2弾目の
タイヤがポロポロ落ちている問題とか
いろいろ細かい話はあったんですけど
そこら辺も今も
あと3台くらい作っているので
飛ばす前提なので
そこら辺は出たたりとしては
今回十分役立っているかな
という感じですね
あとその
孵化しながら分離する
っていうのがかなりすごいんで
1回ちょっと動画を見てほしいなと
いうところですね
1弾目フルスロットルで
まだ動画は
スピーカー 2
切れてないんですけど
スピーカー 1
何分くらいですか
2分半くらい
1弾目が33機あるやつなんで
3周
3周って言うんですか
中央を
その周りに遠径状
その周りにさらに遠径状みたいな感じです
ロケットの
噴出口があるんですけど
それを順々に落としていって
中央だけ残した状態で
ちょっと推進力をかけたまま
2弾目が孵化して分離するという
かなり
ちょっと間違うと
普通に節制崩しちゃうなという形なんですけど
それを
やり切ってる
スピーカー 2
すげー
スピーカー 1
いやーマジで
SFというか
SFでもこんなことやらんぞ
みたいな感じなんですよね
スピーカー 2
今ちょうど
見ましたけど
は?っていう動き方すんな
スピーカー 1
これが
うまくいったので
まあ
実験は大成功ですという感じですけど
そもそも
こういう
クラスターエンジンみたいな
えぐいやつ
しかも
国によってはやってるんですけど
結局なんか中ぐらいの
エンジンを
いくつか束ねるみたいなやつは
いっぱいあるんですけども
30機ぐらいを一括で動かすみたいなのは
なかなか難しくて
昔ソ連がやってて失敗した
というところまで
宇宙史的には
現代の進捗だったんですけども
今回だいぶ成功したので
素晴らしいなというところで
スピーカー 2
いやー
これはえげつないですね
なんかもう
やってることがえげつなすぎて
失敗して当然じゃんみたいな
スピーカー 1
そうですね
失敗して当然なのを
前回もちゃんと飛行しましたし
今回もちゃんと
行けましたので
順調な進捗がある
いやー
素晴らしいですねという感じなので
スピーカー 2
やっぱり
SpaceXは今のところ
人類の最高峰ですね
スピーカー 1
宇宙開発においては
スピーカー 2
まあそうですね
いやもう大変いいもの見ました
というか後でちゃんと
もう一回クリアちゃんの解説聞きながら
スピーカー 1
最後まで見ます
そうですね
かなりいろいろとえぐいことをしているので
T-300ぐらいから
見てくれると嬉しいなという感じです
というところで
以上ですかね
スピーカー 2
今日はこんなところですかね
スピーカー 1
ではお疲れ様でした
スピーカー 2
はいお疲れさんでした
00:00

コメント

スクロール