1. 雨宿りとWEBの小噺.fm
  2. Season -No.216 朝活「Announc..
2023-04-20 35:25

Season -No.216 朝活「Announcing New Tools for Building with Generative AI on AWS」をダラダラ読む回

はい.第216回は


Announcing New Tools for Building with Generative AI on AWS

https://aws.amazon.com/blogs/machine-learning/announcing-new-tools-for-building-with-generative-ai-on-aws/


を読みました💁

めっさボリューミーだった…後は私がAWSあまり詳しくないため,読んでて半分以上はなるほど(わからん)状態でした🙇勉強します.

そして今回のサービスも内容表面上の理解でもかなりビジネス的には熱い感触があるので,これは使ってみたいですね!それにしても,CodeWhisperer 本当に無料で無制限なの…?マジで…?


ではでは(=゚ω゚)ノ

See Privacy Policy at https://art19.com/privacy and California Privacy Notice at https://art19.com/privacy#do-not-sell-my-info.

00:06
4月14日、金曜日ですね。時刻は朝9時10分になりました。
もう春のお日差しというか、暑いですね、一周は。
東京はですけど、北の方の県の方とどうかちょっと分からないですけどね。
はい、おはようございます。ユメミのkeethこと桑原です。
ではでは、本日も朝活を始めていきたいと思います。
本日はですね、社内スラックを眺めてたら、
AWSの新しいのがローンチのブログが出てたよというところで、
では、そこを今日は読んでいこうかなと思っております。
タイトルにあります、「Announcing New Tools for Building with Generative AI on AWS」です。
というところで、AWS上でGenerative AIに関するツールとかサービスの新しい機能というのがローンチされたらしいですね。
では、そこをちょっと今日は読んでいこうと思います。
僕はですね、AWSそんなに詳しくなく、全然触れてもいなくてですね、
不勉強の中はちょっと読んでいこうかなと思ってますので、
いろいろ足りないところあると思うんですけど、ご了承いただければ幸いです。
じゃあ行きましょう。
MLによって駆動され、サプライチェーン、予測、キャパシティープランニングなどなどというものが、
MLによって情報を得ていますと。
はい、いろいろ本当に機械学習にガンガン食わせていて、
そこで計算してもらって処理してもらっている感じなんですね。
いや、なかなかAmazonはそこの辺をしっかり現場に活用しているという事例がよく記事で見るので、
こちらの一言だなというところですね。
Prime Air、いわゆるドローンとAmazon Goですね。
消費者が棚から商品を選び、正式にチェックアウトすることなく店を出ることができるという、
当社の実店舗ですね。
というもののコンピュータビジョン技術には、そのディープランニングが使われています。
30以上の異なるMLシステムを搭載したアレクサというものは、
毎週数十億回、スマートフォームの管理、ショッピング、情報やエンターテイメントの入手など、
お客様をサポートしていますと。
Amazonでは何千人ものエンジニアがMLに取り組んでおり、
私たちの伝統、現在の倫理観、そして未来の大きな部分というのを占めているのですと。
毎週数十億回、アレクサというところは、いろんな情報を取ったり、
情報を投げられたりとか、サポートしたりとかやってるんですね。
いや、そりゃ一気にデータは貯まるわって感じですね。
アレクサはしかも自分たちで拡張したりとか、ソースコードを書いて、
適応させることで、自分たち流にアレンジすることもできたはずなので、
本当に利用があっていいよなと思いますね。
AWSでは、MLを民主化し、
あらゆる規模や業界の10万人以上のお客様を含め、
MLを使いたい人なら誰でも利用できるようにする上で、
重要な役割を担っています。
AWSはスタックの3つのレイヤー全てにおいて、
AI及びMLサービスの最も広範囲で、
深いポートフォリオを備えています。
私たちは、費用対効果の高いMLのトレーニングと、
推論を行うための最も性能の高いスケーラブルなインフラを提供するために、
投資とイノベーションを行い、
全ての開発者が最も簡単にモデルを構築、トレーニング、デプロイできる
03:02
Amazon、SageMakerというのを開発し、
お客様が画像認識、予測、知的検索などのAI機能をアプリケーションに追加するための
様々なサービスを簡単なAPIコールで開始をしました。
去年、おととしかな?
SageMakerの話、結構僕も周りで話題というか、ワードを耳にするようになったので、
すごい皆さん使っているなというのがつくづく分かりますね。
あとはIntuit、Samsung Reutersとか、
AstraZeneca、そしてFerrari、ブンデスリーがサッカーですね。
あとは3M、BMWなどのお客様だったり、
世界中の何千ものスタートアップ企業や政府機関がMLによって
自分自身、業界、そしてミッションを変革している理由はこのためになりますと。
私たちは、ジェネラティブAIについて同じように民主化するアプローチを取っています。
これらの技術を研究や実験の域から出し、
一握りのスタートアップ企業や資金力のある大企業に留まらず、
広く利用できるようにするために取り組んでいます。
そのため、本日お客様がビジネスのジェネラティブAIを簡単かつ実用的に使用できるようにする
いくつかの新しいイノベーションを発表できることを嬉しく思います。
ではでは、今のが一応冒頭だったので、ここから本題に入っていきたいと思います。
まずセクション1として、
ジェネラティブAI&ファウンデーションモデルですね。
ジェネラティブAIとモデルの構築というか基盤ですね。
基盤モデルのところの話です。
ジェネラティブAIというのは、会話、ストーリー、画像、動画、音楽など
新しいコンテンツやアイディアを生み出すことができるAIの一種になります。
他のAIと同様に、ジェネラティブAIというのは
MLモデル、つまり膨大な量のデータで事前に訓練された非常に大きなモデルで
一般にファウンデーションモデル、FMと呼ばれるものによって駆動されております。
最近のMLの進歩、特にトランスフォーマー型ニューラルネットワークの発明により
何十億ものパラメーターや変数を含むモデルというのが登場しました。
へへー、今そんな進化を遂げたんですね。
なるほど。
規模の変化を実感していただくために
2019年の最大の事前学習済みモデルというのは
330メガのパラメーターでした。
現在最大のモデルは500バイトのパラメーター以上となっており
わずか数年で1600倍もの規模に拡大します。
MとBってBの方がちっちゃかった気がするんだけど
これでも記述あってんのかな。
てか普通にメガB、バイトじゃないのかもしれないですね。
大規模言語モデル、LLMのGPT3.5とかBloom、
それでStability AIのテキストから画像へのモデル、Table Diffusionなどなど
FMというものはブログ記事の作成、画像の生成、数学問題の解決、
対話、ドキュメントに基づく質問への回答など
複数の領域にまたがる幅広いタスクを実行できるようになっています。
FMのサイズと汎用的な性質は従来のMLモデルとは異なります。
FMは通常テキストの感情分析、画像の分類、
トレンドの予測など特定のタスクを実行しています。
FMは複雑な概念を学習することができる多くのパラメーターを含んでいるため
06:01
より多くのタスクを実行することができます。
また、FMはインターネット上の様々な携帯のデータ、無数のパターンに
事前に触れることで、その知識を様々な文脈で応用することを学びます。
事前学習されたFMの能力とその結果を得られる可能性というのは素晴らしいものですが
お客様が本当に興奮するのは、これらの一般的に有能なモデルが
ゼロからモデルを学習するのに必要なデータと計算量のほんの一部を使用して
お客様のビジネスに差別化をもたらすドメイン固有の機能を実行するように
カスタマイズすることも可能だからです。
1を知って10を作っていくみたいなところですよね。
これが本当に確かに、目の前で見ると感動というか、脅威すら覚えますよね。
カスタマイズされたFMというものは、銀行、旅行、ヘルスケアなどの
幅広い消費者産業において、企業の声、スタイル、サービスを体現し
ユニークな顧客体験を生み出すことができます。
例えば、金融機関では関連する全てのトランザクションを使用して
社内開覧用の日時活動レポートを自動生成する必要がありますが
過去のレポートを含む独自のデータでモデルをカスタマイズすることで
FMがこれらのレポートをどのように読むべきか
どのデータを使用してレポートを生成したかを学習することができます。
FMの可能性というものは信じられないほどエキサイティングです。
しかし私たちはまだ非常に初期の段階にいます。
Chat GPTはお客様の注目を集めた最初の幅広いGenerative AI体験でしたが
このGenerative AIを研究する多くの人々は
何年も前から複数の企業がFMに取り組んでおり
それぞれが独自の強みや特徴を持つ様々なFMがあるということにすぐに気が付きました。
動きの速い技術とかMLの進化に見られるように
物事は急速に変化します。
今後も新しいアーキテクチャが生まれ
FMの多様性によってイノベーション並みが起こることが予想されます。
すでに今までにない新しいアプリケーション体験が始まっています。
AWSのお客様からは
今日出ているもの、そして明日出てきそうなものを活用して
ビジネスや組織の中でFMやGenerative AIの利用を素早く始め
新たなレベルの生産性を促進し
提供するものを変革するにはどうしたらよいかという質問が寄せられています。
ビジネス側の人たちもどんどん積極的に導入して
次どういう進化があって次何ができるようになるとか
どういう変革を起こせるかっていうのをどんどんAWS側にも
問い合わせたりとか要望を出したりしているわけですね。
ユーザー側としてはその意思でいいけど
進化がどこまで加速するかちょっと悩ましいところではある気がしますし
進化しすぎたところによって僕らがAIを
制御できなくなった問題っていうのは出口戦略じゃないですけど
その辺はちょっと気になりますね。
この記事でそれが書かれているかどうかちょっと分からないですけど
続けていきましょう。次のセクションですね。
次はFMによるGenerative AIアプリケーションの構築と
スケーリングを最も簡単に実現するAmazonベッドロックと
Amazonタイタのモデルを発表ですよということです。
お客様からは現在いくつかの大きな問題が
立ち上がっているとお聞きしています。
第一に優れた結果を出し目的に最も適した高性能の
FMを見つけアクセスするための簡単な方法が
必要になりますと。次にアプリケーションとの結合がシームレス
09:02
であること。巨大なインフラストラクチャーの
クラスターを管理する必要がないこと。大きなコストがかからないことです。
なんかもう本当言いたい放題な
要望がありますね。言いたいことはよくわかるんですが。
最後にお客様はベースのあるFMを使い
独自のデータ、少しのデータでも多くのデータでも構いません。
そのデータを使って差別化されたアプリケーションを
簡単に構築できるということを望んでいます。
カスタマイズに使用するデータは非常に貴重なIPであるため
そのプロセスにおいて完全に保護され安全で
非公開である必要もあります。データの共有や
使用方法をコントロールすることを望んでいます。
全てを望んでいると言ってもいい気がしますね。
これは聞く限り。人の要望とか需要は
どんどん加速しますからね。
私たちはお客様からのフィードバックを全て取り入れ
本日、AI21、LABOS、アンソロピック、スタビリティAI
AmazonのFMをAPI経由でアクセスできるようにする
新しいサービス、Amazonベッドロックというのを発表することができます。
ベッドロックはお客様がFMを使った
ジェネラティブAIベースのアプリケーションを構築
拡張するための最も簡単な方法で
お客様のアクセスを民主化するものになります。
ベッドロックは本日発表した2つの新しいLLMからなる
AmazonのタイタンFMを含む
テキストや画像用の強力なFMの数々に
スケーラブルで信頼性が高く
安全なAWSマネージドサービスを通じてアクセスする機能を提供します。
ベッドロックのサーバーレスエクスペリエンスなど
お客様はインフラストラクチャを管理することなく
自分がやろうとしていることに適したモデルを
簡単に見つけ素早く開始し
自分のデータでFMを非公開でカスタマイズし
使い慣れたAWSツールや機能、異なるモデルをテストする
エクスペリエンスやFMをスケール管理する
パイプラインなどのAmazon政治メーカーML機能との
統合などでアプリケーションに簡単に統合してデプロイすることもできます。
とにかくいろいろアクセスできるようになってきた
いろんなFM基盤との連携もできるようになったし
より柔軟にやりたいことが
できるようになったのではないかというところですね。
ベッドロックのお客様は現在入手可能な
最先端のFMの中からお選びいただけますと
これにはAR21ラボ図書の多言語LLMである
ジュラシックツーファミリーが含まれ
自然言語の指示に従ってスペイン語、フランス語、ドイツ語
ポルトガル語、イタリア語、オランダ語のテキストを生成しますと
英語がなかった気がする。英語はもうデフォなのかな。
アンソロピック社のLLMである
クラウドというものは
様々な会話やテキスト処理タスクを実行でき
アンソロピック社の実定責任あるAIシステムの訓練に関する
広範な研究に基づいています。またベッドロックは
ユニークでリアルな高品質の画像、アート、ロゴ
デザインを生成できるステイブルディフュージョン
この種のモデルの中で最も人気あるものですね。
というものを含むスタビリティAI社のテキストから
画像用の基盤モデル群に簡単にアクセスできるようになっています。
そんな感じで他社のやつとかにも
12:00
全然アクセスしやすくなるということですね。
ベッドロックは単純にAWSだけで閉じるのではなくて
それぞれのいろんなFM基盤を公開されたり
それによってサービス化している各社のサービスの連携も
簡単にできるようになるのかな、これを読む限りだと。
となるともうすごい展開ですね。
Amazonだけの話じゃなくなってきたというところで
でもそのハブになるAWS、ベッドロックか
というところが今後すごく話題になりそうですね。
ビジネス的にもこれはすごい注目を受けるんじゃないかなと思いますね。
でも既にいろんな各社とのサービスの連携とか
多分いろいろ裏では情報連携しながら
進めてきたんだとは思いますけどね。
こういうところ強いよな、やっぱりAmazonってのは。
ベッドロックは現在限定プレビュー中で
高田のような顧客は開発チームの立ち上げの速さに興奮しています。
高田の共同創業者兼CEOである
読み方がわからない、CEOの方が
長年AWSの顧客として満足している私たちは
Amazonベッドロックが高田AIに品質、拡張性、パフォーマンスをもたらすことができることに興奮していますと述べています。
私たちのデータはすでにAWS上にあるため
データを保護するために必要なセキュリティとプライバシーをすべて組み込んだ状態で
ベッドロックを使って生成型AIを迅速に取り入れることができます。
ウーバー、ニューヨークタイムズ、スクエアのような大規模チームを含む数万以上のチームが高田上で稼働しており
信頼性とスケーラビリティというのは本当に重要になります。
私たちは今後数ヶ月でより広く利用できるようにする前に
Amazonの新しいTitanFMというものを数人の顧客とプレビューしています。
数人と言ってますけど多分数社が正しい気がしますね。
私たちは当初2つのTitanモデルを用意する予定になります。
1つ目はようやくテキスト生成、例えばそのブログ記事の生成とか
分類、オープンエンドQ&A、情報収集などのタスクに対応する生成型LLMです。
もう1つはテキスト入力の方ですね。
単語、フレーズ、または場合によっては大きなテキスト単位というものを
テキストの意味的な意味を含む数値表現ですね。
埋め込みと知られているものですけどに変換する埋め込み型LLMであります。
このLLMはテキストを生成しませんが、パーソナリゼーションや検索などの
アプリケーションでは埋め込みを比較することができ、
ワードマッチングも関連性が高く、文脈に沿ったレスポンスを生成することが
できるようになるため、有用なモデルになります。
実際Amazon.comの商品検索機能では、顧客が探している商品を見つけるのを
助けるために同様の埋め込みモデルなどが使用されています。
そうなんですね。知らなかった。
AIの責任ある使用におけるベストプラクティスをサポートし続けるために
TITAN FMはデータ中の有害なコンテンツの抽出を削除、
ユーザー入力中の不適切なコンテンツの拒否、不適切なコンテンツ、
ヘイトスピーチ、暴徳、暴力などを含むモデルの出力のフィルターとして
構築されています。
個人的にはTITAN FMの中の一つ目のモデル、ようやくテキストとか
ブログ記事作成だったり、オープンエンドのQ&Aみたいな
15:02
課題抽出してそれをタスクに対応する生成型LLM。
これめちゃめちゃありがたいと思いますね。
そしてブローカーの人たちはみんなこれ使うんじゃないかな
と思ったりしますけどね。
もちろん今現時点でチャットGBTとかジェネラティブAIを使って
ブログ書かれている方もたくさんいらっしゃいますけど、
AmazonロックのこのTITAN FMを使ったモデルを使う人っていうのは
どんどん増えるんじゃないかなと思いますし、
企業のQ&Aとかその辺ももっともっと増えるんじゃないかな。
とりあえずページとかをURLポって投げて、そんなECサイトだとか
Webアプリケーションの機能がともAIが一回操作して
学んでくれて、勝手にQ&Aとか作ってくれるとか
そこまでいったらすごいなと思いますけど、
そんな未来が見える気がします。
これ見てる限り。
というところで、新しい新未来の話をしてるけど
マジで僕らの生活がAIにとって変わられる感が見えてきて
それはそれで怖いなと思うんです。
でも何ができるかっていう、僕らの想像しているものは
たぶんほぼほぼ現実になるんでしょうね。
ここからは。
続けます。
ベッドロックっていうものは、あらゆる規模の企業が
FMのパワーにアクセスできるようにすることで
組織全体でMLの利用を加速させ、すべての開発者にとって
簡単になるため、独自のGenerative AIアプリケーションを
構築できるようにもします。
アクセンチュア、テロイト、インフォーシス、スラロームなどの
パートナーというのは、企業がGenerative AIをより早く
使えるようにするためのプラクティスを構築しています。
C3AIやPEGAのような独立系ソフトウェアベンダーとかは
AWSに期待するセキュリティ、プライバシー、信頼性の
すべてを備えた、えりすぐりのFMに簡単にアクセスできる
ベッドロックを活用できることに興奮しています。
やっぱり、セキュリティは絶対待った話というか
皆さんも無視できない話ではあるので
そこもAWSが担保してくれるっていうのであれば
すごくいい話ではあるし
そこに信頼を置いて皆さんAWSを使っていると思うので
本当ここがすごいなと思いますし
あとはパフォーマンス周りですかね
チャットGPDまで遅いなっていうところも
ちょっとあったりしますし
学習の程度の差はあるので
そこは今後チャットGPDも進化していくと思うんですけどね
GPD5とか出たらどうなの?みたいな話は出ると思いますけど
でもAWSもこの世界に参入してきたっていうところで
横綱が来た感はやっぱりありますよね
今後でもどの会社さんのモデルを使うか
どのAIを使うかっていうところで
僕はこのAIを使ってます
もしくは私はこのAIを使って
自分流のモデリングをしたAIを作りましたっていうので
自分がどういうAIを使ったとか
今後はそのAIのモデリングの争いじゃないですけど
バトルが起きるんじゃないかと思いますね
どこまでパーソナリズされるか
そのユーザーの使い勝手にもよったりしますし
どこまでユーザーのパーソナル部分を公開するか
っていうところにもちょっと関わる気はしますけど
じゃあ続いて次のセクションですけど
次は生成AIのための最も費用対効果の高いクラウド基盤
AWSトレニウムを搭載した
Amazon EC2 Turn1Nというインスタンスと
AWSインファレンティア2
すいません僕英語弱くて申し訳ないですけど
っていうのを搭載した
18:00
AmazonのEC2インフ2インスタンスの
一般提供を開始することを発表しましたということですね
読み方ずさんすぎてちょっとよくわからないと思いますけど
本文入ります
FMの実行、構築、カスタマイズなど
お客様がFMで何を使用しているにせよ
MLのために構築された最もパフォーマンスと
コスト効率の高いインフラが必要になります
そりゃそうだよね
過去5年間AWSは独自のシリコンに投資し
MLトレーニングや推論のような
要求の高いワークロードのためのパフォーマンスと
価格制度の限界を押し上げ
AWSトレニウムと
AWSインファレンティアチップというものを
クラウドでモデルをトレーニングし
推論を実行するために
最も低いコストを提供しています
最適なMLインフラを選択することで
パフォーマンスを最大化し
コストをコントロールすることができる
その能力がAI21ラボス
アンソロピック
コヘイレ
ラマリー
そしてフュージングフェイス
なんちゃらかんちゃらみたいな大手のAIスタートアップが
AWS上で稼働する理由になります
トレーニウムが提供する
ターン1インスタンスというものが
他のEC2インスタンスと比較して
トレーニングコストは最大50%削減できる
これどういう意味で50%なんですかね
わかんないけど
総合的に見て最大50%削減できてる
これはすごい話ですね
EC2インスタンスも毎年毎年進化しているのに
それをさらに50%削減できるっていうのは
なかなか強いな
800GBパーセックの
第2世代のエラスティックファブリックアダプター
EFAですね
というネットワークで接続された
複数のサーバーにトレーニングを分散させるように
最適化されています
お客様はこのターン1インスタンスを
ウルトラクラスターに投入することができ
ペタビットスケールのネットワークで
同じAWSのアベラビリティゾーンに配置された
トレーニウムチップ
6エクサフロップス以上のコンピュート
3万個まで拡張することが可能です
えげつないこと言ってますね
そこまで使うとお金の勝負って気はしますけど
最大そこまで利用できると
やばいなペタビットスケールで
AWSのアベラビリティゾーンに配置されてるんですね
なるほど
あとはヘニクソンとかマネーフォワード
Amazonサーチチームなど
多くのAWSのお客様が
そのターン1インスタンスを利用することで
最大規模のディープラーニングモデルの
トレーニングに必要な時間を
数ヶ月から数週間
さらには数日に短縮をし
コストを削減することに貢献しています
800GBパーセックっていうのは
多くの帯域幅にはなるんですが
私たちはより多くの帯域幅を提供するための
確信を続けてきました
本日私たちは
1600GBパーセックのネットワークの帯域幅を提供し
大規模でネットワーク主役型のモデルに対して
ターン1よりも20%高いパフォーマンスを
実現するよう設計された
新しいネットワーク最適化した
ターン1インスタンスの
ターン1Nかな
のインスタンスの一般提供を発表しています
1600GBパーセックはもうなんか
数字がデカすぎて想像がつかんって感じ
本日FMに費やされる時間と
費用のほとんどは
FMのトレーニングに費やされています
21:00
まあそうでしょうねやっぱり
これは多くのお客様が
FMを本番に導入し始めたばかりであるためになります
しかし将来的に
FMが大規模に展開されるようになれば
ほとんどのコストは
モデルの実行と推論に関連するものになるでしょう
通常モデルのトレーニングは定期的に行われますが
本番アプリケーションでは
推論と呼ばれる予測を常に生成し
1時間あたり数百万件の予測を行う可能性もあります
そしてこれらの予測は
リアルタイムで行われる必要があるため
非常に低レインテンシーで
高スループットのネットワーキングが必要になります
そりゃそうだよね
アレクサはその恒例で
毎分数百万のリクエストが入ってきて
全コンピューターコースの40%を占めています
そうなんやアレクサが40%占めてんのね
毎分数百万のリクエストを阻いてるっていう
その実態自体もすごい話ですね
アレクサの裏のアーキテクトとか仕組み
どうなってんのか気になりますね
でも結構限界あるので
多分サーバー横並びして
ロードバランサーにかけまくってるんでしょうけど
それでも数百万処理できるってすげえな
将来のMLコストの大半は
推論実行することで発生すると分かっていたので
数年前に新しいチップへの投資を開始する際に
推論に最適化されたシリコンを優先的に採用しました
この辺なんかGoogleも同じことやってる気がしますね
2018年私たちは推論用に初めて専用に作られたチップ
インフェレンティアですね
っていうものを発表しました
毎年インフェレンティアは
Amazonが何兆もの推論を実行するのを助け
Amazonのような企業の資本コストっていうのを
すでに1億ドル以上節約しています
この結果は印象的であり
より多くのお客様が
Generative Iをアプリケーションに統合することで
ワークロードのサイズと複雑さを増すばかりであるため
私たちはイノベーションを継続する多くの機会を見込んでいます
このインスタンスというのは
数千億のパラメータを含むモデルを持つ
大規模なGenerative AIアプリケーション向けに
最適化されており
AWSインフェレンティア2による
INF2インスタンスの一般提供を本日発表します
INF2インスタンスというものは
前世代のインフェレンティアベースのインスタンスと比較して
最大4倍のスループットと
最大10倍のレイテンシーを提供します
また大規模な分散型推論をサポートするために
アクセラレーター間の超高速接続を備えています
これらの機能により
他の同等のAmazon EC2インスタンスと比較して
型推論 推論価格のパフォーマンスが
最大40%向上し
クラウドにおける推論のコストが最も低くなります
ランウェイのようなお客様は
一部のモデルにおいてINF2を使用することで
同等のAmazon EC2インスタンスより
最大2倍高いスループットを実現しています
この高性能かつ低コストの推論により
ランウェイはより多くの機能を導入し
より複雑なモデルを展開し
最終的にはランウェイを利用する
数百万のクリエイターにより
良い体験を提供することができるようになりました
やっぱり速さというのは正義だというところですね
ではラストのセクションですね
個人開発向けに無償提供する
Amazon Code Whisperの一般提供を開始発表
僕はこれが結構気になっていました
私たちは適切なFMで構築し
最もパフォーマンスの高いクラウドインフラ上で
24:00
Generative AIアプリケーションを
大規模に実行することが
顧客にとって変革的なものになると知っています
また新しい体験の波というのは
ユーザーにとって変革的なものになるでしょう
Generative AIが組み込まれたことで
ユーザーはアプリケーションやシステムと
より自然でシームレスなインタラクションを
行うことができるようになります
例えば携帯電話を見ただけで
ロックを解除することができるようになりますけども
この機能を可能している強力なMLモデルについて
何も知らなくても携帯電話を見るだけで
ロックが解除されるということは想像してみてください
Generative AIの利用が急速に進むと
予想される分野の一つに
コーディングというものがあります
今日のソフトウェア開発者は
非常に単純で差別化されていないコードを書くことに
かなりの時間を費やしています
はいおっしゃる通りです
また複雑で変化続けるツールやテクノロジーに
対応するために多くの時間も費やしています
このため開発者は新しい革新的な機能や
サービスを開発する時間が少なくなってしまっています
開発者はウェブからコード数に別途
コピーして修正することでこれを克服しようとしていますが
その結果動作しないコードや
セキュリティ脆弱性を含むコード
オープンソースソフトウェアの
使用状況を追跡できていないコードを
不要意にコピーしてしまうこともあります
そして結局のところ検索とコピーは
良いものから時間を奪ってしまっているというので
結果根本問題は解決しないということです
何なら場合によっては悪化していますねこれはね
それについていろいろ
GitHubコパイロットとかあったりしますけどね
Generative AIはその身分化なコードの多くを書くことによって
この重量度を軽減し
開発者がより早く構築できるようにするとともに
コーディングのより創造的な側面に
集中できるようにすることができるようになります
このため昨年私たちは
Amazon Code Whispererのプレビューを発表しました
このAIコーディングコンパニオンというのは
フード下のFMを使用して
開発者の自然言語によるコメントと
統合開発環境であるIDEの先行コードに基づいて
リアルタイムでコード提案での生成し
開発者の生産性を根本的に向上させます
開発者はコードウィスパーに
例えばCSVの曲の文字列を解析する
といったタッグを支持するだけで
アーティスト、タイトル、最高チャートランクといった
値に基づいた構造化されたリストを返すよう
依頼することもできます
コードウィスパーは文字列を解析し
厳密に言うとコードウィスパーで
ウィスパラーですね
失礼しました
コードウィスパラーは文字列を解析し
指定されたリストを返す
関数全体を生成することで
生産性を向上させることもできます
このプレビューに対する開発者の反応は
圧倒的にポジティブで
開発者のコーディングを支援することが
今後数年間で最も強力な
Generative AIの使い方に一つになると
私たちは信じ続けています
プレビュー期間中
生産性向上のためのチャレンジを実施しましたけど
コードウィスパラーを使用した参加者は
コードウィスパラーを使用しなかった参加者に比べて
平均して57%早くタスクを完了し
27%高い確率で
タスクを成功させることができました
これは開発者の生産性を大きく向上させるものであり
私たちはこれが始まりに過ぎないと信じています
27:00
生産性は結構今まで
仕組みで解決したりとか
いろんな仕組みの方法論とか
チーム論とかでやってきた人でもいますけど
ここまで開発者の直接的なツールとして
コードウィスパラーというのが出てきたのは
すごくいい話だと思いますね
コードウィスパラーとGitHubのコパイロットが
結構バッティングする気がしますね
本日、Python、Java、JavaScript、TypeScript、C♯に加え
Goya、Kotlin、Rust、PHP、SQLも含む
10言語のAmazonコードウィスパラーの
一般提供を開始することを発表します
コードウィスパラーはVS Code、IntelJ IDEA
IDEA、AWS Cloud9などのIDEからアクセスができ
AWS Toolkit IDE Extensionを介して
多くのIDEからアクセスもできます
また、コードウィスパラーは
AWS Lambdaのコンソールでも利用可能です
コードウィスパラーは公開されている
数十億行のコードから学習するだけでなく
Amazonのコードでトレーニングされています
私たちはそのコードウィスパラーが
Amazon EC2、AWS Lambda、Amazon S3を含む
AWSサービスのコードを生成するための
最も正確で最も早く最も安全な方法であると
確信しています
インフラ周りの設定とかYAMLファイルとかも
その辺はもう完全に
Generative AIの方が多分早いし正確だと思うし
だいたいもう提携された設定になる気がするので
それは確かに本当機械の方が早いんだろうなとは
つくづく思いますね
また、公開されている数十億行のコードから
学習するというふうにおっしゃってますけど
この学習する元はGitHubじゃなくて
多分あれですよね
コードコミットだと思うんですけど
どうなんでしょうね
実はGitHubなんですかね
GitHubだとしたらGitHubと多分連携したりとか
情報のその辺の契約を結ばないと
さすがにNGだと思うんで
多分コードコミットだと思うんですけど
でもコードコミットだとして
数十億行のコードが公開されているっていうのは
それはすごい話ですね
僕あんまコードコミットを皆さん使っているのか
事例は僕が聞いたことがないので
その意味だと皆さん結構使われているのかもしれないですね
はい
それはちょっと余談でした
続けていきます
開発者っていうのはそのGenerative AIツールによって
提案されたコードに隠れたセキュリティ脆弱性が
含まれていたり
オープンソースを責任を持って扱えなかったりすると
本当の意味で生産性を向上させることはできません
そうね
コードイスパラはOWASPですね
オープンワールドワイドアプリケーションセキュリティプロジェクト
OWASPっていうものがあるんですけど
これのトップ10に入るような検出が困難な脆弱性とか
暗号ライブラリーのベストプラクティスを
満たしていないような脆弱性などの発見と
改善策を提供するためのセキュリティスキャンですね
自動推論によるものになりますけど
っていうものを内蔵した唯一の
AIコーディングの仲間になりますと
すごいなこれありがたいですね
イスパラ入れたいなって思うぐらいですね
セキュリティチェックをやっぱり
アプリケーションができた後に
そのセキュリティ専門会社とか
そういうソフトウェアサービスとかに
投げてチェックするっていうのも
もちろんそれはマストでいるんですけど
とはいえ開発者の開発レベルで
このコードの脆弱性含んでますよとか
プロリグベースの時に
30:00
そのチェックを走らせて
事前に確認できるっていうと
より堅牢なコードを書くことができたり
開発者にとっても
使った方がいいんだっていう学習につながったりするので
そういう2つの意味もあって
僕は開発レベルでコードイスパラみたいな
そういうセキュリティチェックツールは
やっぱ欲しいと思いました
開発段階において
自動チェックしてくれるものは結構欲しいなと思ったので
その意味でコードイスパラを
導入するのはありかなと思ってます
余談もう一個入れると
今弊社の中の事例であれですけど
今入れようとしているところに
Sneakっていうサービスがあります
オーソゼロの中の方が別途
チェックツールを作った会社と
サービス名になるんですけど
そのSneakを今使おうとしていて
こことコードイスパラがバッティングする
サービスのお話になると思ってます
イスパラがソースコードだけなのか
それともインフラレイヤーのところとか
あとコンテナレイヤーみたいな
ミドルウェアレベルのところまで
見てくれるかどうかって結構気になるんですけど
おそらくAWSなので見れるんでしょうね
となるとますます
Sneakさんとバッティングする気がしてて
あと価格競争と
パフォーマンスと精度の違いみたいなところになる気がしてますね
今のところまだSneakさんのほうが
一律の長がある気がしてます
あっちは学習するベースが
GitHubのソースコードだったはずなので
はい、余談が過ぎましたけど戻ります
開発者が責任を持って
コーディングできるように
コードイスパラは偏見とか不公平と
見なされる可能性のあるコード提案を
フィルタリングしそのコードイスパラは
顧客が参照または使用許諾を希望する
オープンソースコードに類似した
コード提案をフィルタリングして
フラグ付けできる唯一のコーディングコンパニョンでもあります
私たちはGenerative AIが
開発者のゲームを買いようとしていることを
知っておりできるだけ
多くの人に役立ててもらうと考えています
そのためコードイスパラは
全ての個人ユーザーが無料で利用でき
コードを生成するための資格や
時間制限もありません
無料かつ時間制限ない
ほんまかい
メールアカウントだけで
誰でもコードイスパラに登録でき
自分で生産性が高まります
もちろん投げるソースコードは
会社のコードや
プロジェクトのコードなのかどうか
セキュリティポリシーや
契約内容に関わると思うので
自社のコードで投げていいかどうか
確認してから
使うのがいいと思います
それでも無料でかつ時間制限で
使えるって恐ろしいことを言ってますね
中で使っている裏の技術とか
FMモデルとか
かなりのリソースを使っているし
お互い話だと思うんですけど
それを無料で使えるようにするって
アマゾンさん大丈夫ですかね
数分で高まりますと
AWSのアカウントを持っている必要もありません
だと?
AWSアカウントもいらなくて
直接コードイスパラだけに登録ができるって
言ってるのこれ
なるほどですね
ビジネスユーザー向けには
AWSアイデンティティ
アクセスマネジメント
IAMですね
サインオンなどの管理機能とか
セキュリティスキャンの制限を高めた
33:00
コードイスパラプロフェッショナル
プロフェッショナルタイヤ
っていうのも提供しています
既存のIAMとの統合ができるということですね
これは確かにいい話だし
これがむしろ欲しいよねって思ってたので
さすがだなって感じです
コードイスパラのような強力なアプリケーションを
構築することは開発者や全てのお客様にとって
変革的なことになります
私たちはさらに多くのものを用意しており
皆さんがAWS上の
ジェネラティブAIで何を構築するのかに
期待を寄せています
私たちの使命はあらゆるスキルレベルでの
開発者とあらゆる規模の組織が
ジェネラティブAIを使って
イノベーションを起こすことを可能にすることです
これはあなたの新たな可能性を
引き出すMLの次の波になると
私たちが信じているものの
しかも始まりに過ぎませんというところで
この記事は締められておりました
あといろんなリソースが記事内に貼られていますので
興味のある人も見てみてください
はい
ちょっとお腹いっぱいです
すごすぎたので
最後の方の利用の話とか
AWSはまじで
未来の投資的なもので
使っているんでしょうね
便利なツールとか便利な技術は
皆さんに広く使えるようにするという
OSSのマインドがAWSは本当にすごいなと思うので
これはありがたいですし
ぜひ使ってみたいと思いますが
もちろん自分のプライベートのソースコードだけに
一旦はしようとは思いますけど
またコパイロットも裏で
自分個人では使っているんですけど
それと比較はしていきたいと思いますし
こっち無料で使えるってなったら
ちょっと恐ろしい話だと思いますね
とはいえ提供してくれるコードの
学習のベースはおそらくコードコミットになると思うので
僕もコードコミットに
結果的に突っ込んだ機能とか
より詳細なものとか
広範囲な使い勝手をするんだったら
コードコミットを使わなきゃいけなくなる気がしていて
結局はAWSにアカウント登録して
って話になる気はしますけど
それは別にいいと思っているので
これは今後まず僕も
使ってみようと思います
今日は余談と
AWSの知識があまりにも弱すぎて
読み方が分からなかったり英語が弱かったりして
グダグダな配信で申し訳なかったですけど
本題の
ブログ記事ですねAWSさんの
本件の記事をぜひぜひ皆さんのほうでも
読んでいただければと思います
というところで今日の朝方コレッション
以上で終了したいと思います
また明日もこんな感じでのんびり読んでいきたいと思いますので
ぜひ参加してみてください
では金曜日ですね1週間の終わりというところで
しっかり締めてお休みに
入っていけたらなと思いますそれでは終了します
お疲れ様でした
35:25

コメント

スクロール