1. Recalog
  2. 168. 2023/08/13 Github Copil..

以下のようなトピックについて話をしました。

枕: Github Copilot Chat

1: AI法修正案

2: AIいらすとや

3: ControlNet

4: 植物の重力検出技術

5: Web Environment Integrity

6: 生成AI時代のDX推進に必要な人材・スキルの考え方


本ラジオはあくまで個人の見解であり現実のいかなる団体を代表するものではありません
ご理解頂ますようよろしくおねがいします

00:02
スピーカー 2
最近、会社でGithub Copilot Chatを使ってみてて、 結構良かったんで、ちょっと軽くだけ紹介させてください。
スピーカー 1
はい。
スピーカー 2
Github Copilotっていうのは前から、 このPodcastでも紹介してたと思うんですけど、
そのコードを書いている途中で、 続きのコードを補完してくれたりとか、
テストコードを書いてくれたりとか、 ベースの言語に翻訳してくれたりとか、
解説してくれたりっていうのが、 いろいろついている素晴らしい機能だったんですけど、
この度、このGithub Copilot Chatという、 GPTみたいなものがついてきましたと。
何がすごい良かったかというと、
さっきの翻訳してくれたり、テストコードを 書いてくれたりっていうのはもちろんできるんですけど、
Github Copilotとしてのツールをどう使いこなせば、 やりたいことができるのかっていう、
学習ハードルが少しあったんですよね。
このGithub Copilot Chatが登場したおかげで、
その機能を使うことすら自然言語で できるようになったって感じなので、
Github Copilotでこんなことできるよっていうことを 薄ら知っていれば、
Github Copilot Chatに投げかけて、 やりたいことができるって感じになったので、
超便利ですと。
もう一つすごく良いのが、
Visual Studio Codeとか IDEの上で動かすんですけど、
今開いてるプログラミングコードに対して 質問ができる。
例えば、今開いてるプログラムの意味を 説明してくださいとか、
どんな機能がありますかとか、
あとはこんな関数を足してください みたいなことを言うと、
その開いてるプログラムをコンテキストとして 回答を出してくれるので、
本当に見たまんまを画面共有しながら、
誰かにお願いするっていうのと 同じような体験ができるっていうんで、
より直接的にそのAIを活用できる感じになっていて、 とても良いですね。
ChatGPTでそれもできるんですけど、
やろうと思うと手元にあるコードを なんとかChatGPTに渡して、
その上で聞くみたいな感じになるんで、
ワンステップあるんですけど、
Github Copilot Chatだともう直接的にできるんで、
めっちゃ効率的ですねっていうところで、 すごく便利ですね。
最近さらにこのアップデートのニュースが追加されていて、
こっちもなかなか進化が早いなって ところではあるんですけど、
コードリファレンシングっていう機能が Github Copilotに追加されまして、
Github Copilotのチェックの中で、
パブリックリポジトリ、オープンソースとして 公開されているソースコードと、
同じような文章っていうのがあった場合、
これってパクってきてませんっていうのを 出してくれる機能ですと。
何がいいかっていうと、
著作権違反応募し切るっていうのもそうですし、
03:03
スピーカー 2
そのソースコードの元のライセンスが、
例えば公開義務のあるライセンスとかで 書かれている場合、
商業利用的には非常に困ってしまうことがあるので、
そういったのに事前に気づけるという意味でいいですと。
昔からこういったオープンソースのコードをコピエして、
内部に組み込んでしまうという問題はあったんですけど、
検出の難しさからあまり進んでこなかった領域ですね。
実際にソフトウェアとして内部に組み込まれてしまうと、
外部のユーザーからすると、
そういうコードの流通があったかどうかが 分からないという問題から、
守らないといけないよねって言われつつも、
ほたらかしになってきた領域なので、
ある意味またAIが一つそれを検出して、
技術者倫理的には正しい方向に 導いてくれる状態になったというところで、
GitHub Copilotはかなり企業として導入すべき ツールになりつつあるなと思いますね。
スピーカー 1
GPTに投げる手間がなくなったというだけで、
十分素晴らしいかなというのが一つですね。
それは素直にそうだなと思っていて、
そこらへんGitHubだからマイクロソフトの強みが 素直に出たところで良いのではないかと思いました。
今言ってたパクってきてないっていう方が結構ビックリというか、
インパクトが大きいかなと思っていて、
そっちが出せると、わざわざそれを探しに行かなくて済む。
手間もないですし、自動的に言ってくれるんであれば、
何か気づいてなかったけど、これそうじゃんみたいなのが出せるんで、
安全面というか品質面の担保という意味で非常に効果的なのかなというところがあって、
素直に良さそうですねというお話ですね。
スピーカー 2
現場でよくあったのが、ベンダーにソースコードを作ってくださいって発注して、
納品してもらった時の受入れ検査がありますと、
その時には、もともと発注時にそういうコピーペとかはしないでくださいねって指示は当然出しますと、
研修時にそういうことはしませんよねって改めて聞くみたいな、
そういう文化はあるんですけど、形だけになってて、
中身は正直見切れないから、
ベンダーの現場のエンジニアが大丈夫ですと言ってるのを信じるしかないみたいになってて、
軽快化してたんですよね。
そういったことに対しても、こうやってAIで自動チェックかけられるようになると、
06:01
スピーカー 2
かなり強いなというのがあるので、
ソースコードが外部露出して大きなリスクとして顕在化する前に、
自分たちのソースコード、現在運用中のソースコードについては、
このAIによる総チェックをとりあえずかけて、
実際どれくらい引っかかるものなのかっていうのを見て、
自分たちの組織力というか、コード実装力みたいなのを
指標化しておくのもいいんじゃないかなと思いますかね。
スピーカー 1
それでも実際に引っかかったとして、
どこまで分かるんですかね。
ここに同じことが書かれてますみたいなのまで分かるのかな?
スピーカー 2
分かります、分かります。
スピーカー 1
でもそうか、引っかかった後にそれをダメだから修正するっていうか、
一般的だから許可するっていうかは、
ベンダーの判断だから、それはそれでやってもらえばいいってことか。
そうですね。
DRCとしては、
少なくとも変数名は変えておくとか、そのくらいやるとしてもね。
ルールチェックとしては、
一つチェック体制が入ったというところなので、
そうですね、素直に使えばいいのかなというところですね。
スピーカー 2
そうですね。
自分たちの力を図る意味でも、
ベンダーの力を図る意味でもすごく有用だと思っていて、
コピペエンジニアっていう言葉が揶揄される通り、
ウェブ上にあるソースコードを持ってきて、
とりあえず動く状態にする。
これ自体はあまり致命的に悪いことではない。
そのGitHubコパイロットで保管されるのと同じことなので、
別に悪いことじゃないんですけど、
あらゆるコードをそうやってどこからの移植で持ってきて、
何が書かれているのかわからない状態で組み立てられているものだとすると、
そのプログラムにおける何かバグや問題が発生したときに、
深淵調査にやはり時間がかかってしまうというところはあると思うので、
ベンダーにどれくらいの金額で発注していて、
納品されているコードがどんな品質なのかというものを押し量るときに、
9割コピペのソースコードと、
実際コピペの部分とその実装とかバランスされている状態なのと、
どっちが品質さかいと見るのかは会社次第だと思いますけれども、
その辺で発注金額とのトレードをどう考えていくかとか、
そういう議論もできるといいんじゃないかなと思いますかね。
スピーカー 1
そうですね、そこら辺も何というか運用次第だと思いますけど実際。
調整してみて、成果物の要求される綺麗さに合わせて調整していけばいいかなというところではありますけどね。
09:13
スピーカー 2
その調整ができるということ自体が良いという意味では十分なんじゃないかなと思います。
なので会社でソースコードを作っているとか、
コーディングの話が出たときにはこんなのあるよという紹介をしていくといいんじゃないかなと思います。
GitHubの回し者じゃないですけどね。
スピーカー 1
じゃあ本編の方へ行きたいと思います。
スピーカー 2
1点目、報酬議会AI報酬成案を採択。
生成AIの学習データ一部解除を義務付けということで読売新聞の記事です。
欧州連合の報酬議会は14日ブリュッセルでの本会議で人工知能の開発や運用を規制するAI修正本案を採択した。
修正案は生成AIが学習に使用した一部資料の解除を義務付けるのを著作権に配慮する規制が新たに盛り込まれた。
ということでこれ自体は6月14日の記事です。
わざわざこの記事を今取り出している理由なんですけど、
日本の方のニュースが全然メインのメジャー新聞記事から一切出てなくて、
いい記事がなかったのでこっちの記事を採用しているんですが、
日本もこのAI報酬支援案に倣ってですね、
学習データの一部解除というのを踏襲するというような方針で進みそうですと。
日本はこのEU権と比べて比較的規制が緩いということで、
アメリカと日本の規制の緩い大きな2国でAIの開発を推進していける、
先導していける余地が生まれているんじゃないかということで期待が集まっていたんですけれども、
この一部データ解除というのがどこまでか、
これから決まってくるので具体的なラインは分からないんですけど、
それ次第でかなり進み方が変わってくるなというところがありますと。
まずこのAIが学習に使用した一部資料という言葉が非常に難しくてですね、
AIはデータを取り込むということにおいて、
何段階かその外部データの参照方法がありますと。
まずモデルのベースとして学習していく、
大きなモデルを作る上で学習していく過程において取り込んだデータ群というのがまず基礎としてありますと。
その上で追加学習というものがあって、
それはその基礎となっているモデル、GPT-4とかに対して、
例えば自社のデータをさらに学習データとして追加させるみたいなことをやるという追加学習の方法がありますと。
12:04
スピーカー 2
さらにそれに加えてGPTとかのモデルが参照しやすいベクトル形式のデータセットという、
AIにとって分かりやすいデータに変換された状態のものを参照するという方法と、
本当に生のデータですね、PDFとかワードとかそういったものをテキスト化だけして渡したもの。
こういった複数の段階においてAIというのは外部データを参照するんですけれども、
今回指しているものが、まずその今挙げたような参照方法におけるどの段階を指しているのかというのが、
まず1個大きな論点としてあります。
一番懸念されているのが、
特定の会社が自分たち専用に作り込んだモデルというものを作ろうとしたときに、
会社の内部情報とか機微情報、コアとなっている自分たちの資産を開示しないといけないとなると、
自分たちの商品群に強いモデルだったりとか、
自分たちが持っているデータでお客さんへ価値を訴求できるものといったような、
いわゆる強みと呼んでいる領域を生かそうとすればするほど、
この開示の義務があるせいで手が出ない、何か出ないよねというところがあって、
すごく警戒されているといったところがあります。
一方で、外部データの参照程度だったらこの義務の対象外になるんじゃなかろうかという下馬評もある上で、
今ベースになっているモデルを一から作ったりですとか、
追加の学習をさせるという方向で世の中のソリューションを提供していくのが効率的かというと、
まだまだ非効率的な状態であるのが現状なので、
今すぐ各企業の壁になったりとか、そういったことはなさそうかなというのはあるんですけれども、
将来的にはわからないところなので、一回法案が通ってしまうとなかなか回収にも時間がかかるというところがあるために、
今は少し警戒感が強まっているといった感じになります。
この一部開示を義務づけている根拠、こういうことを進めている背景としては、
個人情報保護、著作権保護といったような観点があって、
学習データに芸術活動とかやっている人たちの流出してほしくない情報が混じっている等々のいろんな問題があったので、
15:04
スピーカー 2
こういったそういうことがないよねということをチェックする方法としてこういう法案が通っているんですけれども、
今時点でこの法案を通して同じようにチェックするのが現実的なのかというところと、
もっと別の手法でないのかというのは常に議論されている状態ではありますといったところですかね。
スピーカー 1
なかなか難しいなあと思っていて、難しいというのは有効性の検証が難しいかなって思ってますね。
おっしゃる通り。
まずさっき心鏡さんが言ってた、どれに該当するのか、どの範囲確認しないといけないのかというのが、
サッと聞いてもなかなか判断をつけるのが難しいので、各社が悩ませるなあというのが一つ。
かつこれEUの法案なので、全世界的に見た時にどの程度拘束力が発揮できるのかというのもちょっと難しいなあと思っているところですね。
全世界がこれに追従して同等の法案を出せば拘束力は出ますけど、そこまでいくのかどうか。
そんなの気にしないよっていう国があった時に、その国ベースでAI関連のものを動かして成果だけ持ってくるとか、
そういう裏道がありそうな気がするので、そこら辺どうするのかみたいなところも含めて難しいなあと思っているところです。
スピーカー 2
その話なんですけど、今ちょっと最新記事が出てなくてっていう話をした通り、日本でも同じ話を通そうとしているので、結構世界各国の動きになりそうです。
日経新聞さんの冒頭だけ無料公開なので、そこだけの範囲で説明すると、日経新聞さんは生成AIの仕様を企業に開示要請、政府G7向け指針案提示へ専門チームで調整加速ということで、
8月4日にAI戦略会議でその個試案というのが示されました。
スピーカー 1
その元となっている法案というのが大衆議会の内容といったところです。
スピーカー 2
G7全体で足並みを揃えている話なので、大きくさっき言った話から差はないのかなとは思います。
政府としてその開示要請をする一番の目的としておいているのは犯罪利用の防止ですね。
18:08
スピーカー 2
先ほどの裏口の話あったと思うんですけど、そういったことがないように規制をかけていくということなんですけれども、
実効性については完全に同意のところで、日本としてそういう開示請求を出していったところで、
日本としても企業に何を出してもらえば言えるのかというのは分からないというところはあると思うので、
まだまだ専門委員会による議論が待たれるところかなと思います。
いわゆる抜き取り検査というか、同じようなものをかいつまんで取って品質を担保するというのが抜き取り検査ですけれども、
同じような手法ではこのAIに対して適切かどうかという判断はまだ全然できていない中で、
とりあえずそれでいいんじゃないと言ってやっている感じがあるので、
スピーカー 1
実効性と有効性についてはかなり異議的ですね。
そうですね。
でも何もしばらわけにもいかんので、とりあえずやってみてというところですかね。
スピーカー 2
そうですね。
スピーカー 1
ちょっとそこら辺も市場の反応等々を見つつ詰めていくしかないと思うので、
そういう意味でドライブ能力というか推進力のある有権がこういうものを出してくるというのは良いのではないかなと。
どこかが出してそれに各国追従して、コンセンサスと合意が取れていくというのは良いのではないかと思います。
スピーカー 2
そうですね。
技術者倫理をほっぽり出して言うんだったら、
建前としてこういうことを考えてますよ、こういう法律を作っていきますよということを言って、
ガバガバで一回法律として作る。
で、一回運用していってみる。で、良いんじゃないかなと思ってます。
最初の法律で変に分かっているところだけ潰しにかかったり、壁を作るという方法をやってきた結果、
その業界で本来伸ばせるところを伸ばしきれなかったみたいな過去があるじゃないですか、ドローンとかいろんなところで。
はい。
なので、こういうことを防ぎましょうという指針とか、その法律の何だろうな、一条の前に書かれる部分とか、
その辺のレベルで一回考えるのは良いと思うんですけど、最初からこういうケースではこうしましょうっていう、
21:05
スピーカー 2
もう明確な行動を動かすような法案になっちゃってると結構しんどいのかなという気もするので、
いじった倫理をほっぽり出すと少しガバガバで始まるといいなと思います。
スピーカー 1
そうですね、あとは法律の改正の回転数が高ければいいですけど。
スピーカー 2
そうなんですよね。
スピーカー 1
世の中の流れで法律の改正が間に合ってないと、いつまで経っても周回遅れになると思うので。
そこら辺も含めて難しいなと思いますけど。
スピーカー 2
そうですね、AIはもう状況変化がクソほど激しいんで、まともな法律は追いつかないと思うんだよな。難しい。
だからといって諦めたらしょうがないので。
はい、という話でした。
スピーカー 1
では次の話。
ITメディアニュースさんの記事で、
イラストや風画像を無限に生成AIイラストや商標利用化に有料サービス化というタイトルの記事です。
AI画像生成サービスを提供するAIピカソは、
8月10日、フリー素材サイトイラスト屋風のイラストを生成できるAIイラスト屋の生成サービスを始めた。
これまでに公開していたベータ版では、生成した画像の用途がSNSへの投稿のみに限られていた。
今後は同社の有料サブスクリプション、月額1480円に登録すれば、無制限に画像を生成し、全てクレジットにして商標利用できる。
AIイラスト屋は、イラスト屋を運営する三船隆さんと提携の上、2022年12月に発表したサービス。
ステーブルディフュージョンなどと同じく、テキストから画像を生成できるほか、画像をアップロードし、生成の参考にしてもらうこともできる。
縦横比や背景等可能も指定できる。無料でも月に20枚の制限付きだが、画像の生成が可能。
同社のサブスクリプションに加入した場合、AIで写真風の画像素材などを生成できるサービス、aisozai.comも有料会員として利用可能。
こちらで生成した素材も商標利用できるということで、サンプルとしても、例えばサングラスを着けた犬とか桃太郎とか宇宙猫とかが生成できるようです。
イラスト屋も派遣とっているんですけども、これでもうAIイラスト屋で無限に人間が作れる生成量より速い速度でイラストが増殖するので、宇宙はイラスト屋に占拠されましたねということが確定したという話での紹介です。
24:10
スピーカー 2
はい、めちゃくちゃいいと思いますね。
イラスト屋さんの絵ってすごく抽象度が高いというか、いわゆる概念を示す絵が多いじゃないですか。
スピーカー 1
はい。
スピーカー 2
もともとのそのAIが作っている絵だったり画像っていうのが、かなりその抽象度が低いもの。
背景はこれで、もう登場人物はこれでこんなポーズでっていう、いわゆる写真的だったりとか絵画的だったりっていう一つの完成された絵になってて、抽象度が逆にない。
具体的すぎるっていうところがありましたと。
パワポーとかでそういった生成された絵を使おうとすると、やっぱり抽象度の高い方が利便性高いんですよね。
このAIイラスト屋さんは、元の学習しているデータがデータなだけに、抽象度をある程度保ったまま、完全に具体化までいかないレベルで生成してくれているような気がするので、使い勝手のいい自動生成になっているなと思いますね。
スピーカー 1
そうですね。もともとイラスト屋さんが汎用度高いっていうのもそうですし、抽象度が上がっていることによってイラスト屋で揃えれば資料の統一感が出るっていうのも大きいなと思っておりまして、
結構フリー素材とかで撮ってくるとなんかこう、なんていうの、質感が違うなというか、イメージがバラバラだみたいなところがあったりすることもあったりすると思うんですけど、
イラスト屋風で揃えれば全部イラスト屋に見えるので、何でもイラスト屋でいいんじゃないでしょうかという感じがありますね。
スピーカー 2
これは非常に有用だと思うので使っていきたいですけど、これを会社内でお金出しましょうってパッと言えるといいんですけどね。
スピーカー 1
高々1,280円なんですけどねってところなんですよね。
スピーカー 2
お金がかかるとなると、エイヤーでいいよって言ってくれる人が少ないので、これでPowerPointの作成がはかどるんだったら全然いいんですが、
意外と多分登録して本当にPowerPointを普段から作り倒している人がこのエイヤーイラスト屋を作る機会ってどんだけ多くても1週間に1回とかそのレベルだと思うので、それで全然見合いそうだったらいいんじゃないかね。
27:11
スピーカー 1
そうですね。どんだけ使うかにもよると思いますしね。
スピーカー 2
地方自治体の自治会パンフレット?集会とかの。
スピーカー 1
確かに。
スピーカー 2
今月のこの地域のニュースみたいな紙ペラで回覧してるやつ、あんなのに使う分には全然いいんじゃないですかね。
スピーカー 1
むしろあんなのの方がメインじゃないですか?使い回すじゃなくて、季節のイベントに合わせた絵みたいなのが載せたくなるじゃないですか、ああいうのだと。
そういう時にフリーというか、何も安心して使える、しかもあまりイメージを壊さない絵みたいなのだと素晴らしいんじゃないかなと思うので。
そういうところでどんどん使えばいいですけどね。
スピーカー 2
いいですね。ちょっと触ってみるのはいいんじゃないかと思います。
スピーカー 1
はい。
スピーカー 2
じゃあ次行きます。
動画生成AIがすごすぎる映画登場も遠くないということでアスキー×AIさんの記事です。タイトルは盛りすぎなんで映画に登場することは遠いと思います。
それは置いておいて、一枚の画像からAIが動画を生成するRunway社のサービスGen2が大きな話題となっています。
Runwayは2018年創業のスタートアップで、もともとStability AIと共同でStable Diffusionのデータモデルの開発を進めていましたが、現在は完全に独自のサービスを展開しています。
画像生成AIはStability AIが先に行ってしまったので、生成AIでの動画作成にフォーカスとして技術開発とサービスを展開しています。
今年6月にはGoogle、NVIDIA、セールスフォースなどから1億4100万ドルの試験調査等を受けるなど、生成AI企業の中でも大きく注目を浴びています。
今年2月に発表された第一世代のGen1は、動画をプロンプトに応じて別の動画へと変換するビデオとビデオサービスでしたが、
今年6月に一般にもリリースされたGen2からは、書いてほしい場面のテキストプロンプトを年に入力すると、動画を作成するテキストとビデオが実現できるようになりました。
4秒間の非常に短い動画ですが、守備一貫性を持たせて動画を成立させているところがすごいです。
ただある程度コントロールできるとはいえ、テキストだけでは期待した通りの画像を狙って出せないという課題がありました。
そのGen2が7月下旬にアップデートして、画像から動画を作成するImage2ビデオが作成されました。
一コマ目の画像を指定できるようになり、狙った場面を作り出しやすくなったのです。
30:01
スピーカー 2
ただし現時点ではプロンプトを追加すると画像がほとんど無視される結果になってしまうので、画像からどんな動画が生み出されるかはランダムに近い状態です。
それでも非常に品質の高く動きのあるショートクリップが作れるということで話題になりました。
ということで、テキストとイメージはいろいろ進んできて、テキストとイメージの技術を組み合わせたりして、動画を作ったり時報を作ったりというのがありました。
それを一歩超える技術として、コントロールネットと呼ばれている画像生成系の新たなブレイクスルーが入っています。
コントロールネットは何かというと、特定の画像にあるメインとなっているモデルの情報を変えずに周りだけ変えるといったような技術だったり、
あとは登場人物の人の傍人間というか、頭がここで、手がここで、関節がこうなっていてみたいな傍音情報を渡すと、そのポーズの人を生成してくれたりといったような、
自分が狙ったものをターゲットとしている主人公や登場人物、人にターゲットをフォーカスして作っていけるというような技術が登場してきていました。
そのコントロールネットをベースとした、さらに先の未来として、そういった変えないで欲しいものをうまく定義していけるのであれば、周囲だけ変えるような、そういった動画も作れるよねということで、こういったGen2みたいなものも出てきつつあるというところです。
Gen2はその中でもコントロールネットを使う部分、使わない部分みたいなのをバランス取りながら生成していて、現状ではかなり違った、想定外な動画の変化というのになっちゃうところは正直あるんですけれども、そういった数秒のクリップでもAIによって作れるんだということが一つ大きな変化点ですね。
これがどんどんどんどん進化していけば、少なくともあるシーン、ワンシーンみたいなところはAIによって生成できるかもしれないというものになってきています。
今、私たちは生成AIとかを使って、こんな雰囲気なんだよねっていう、その頭の中のイメージの具体化に使っていると思うんですけれども、それを動画でこういうシーンにしたいっていう説明を人にしていくといったときには、またこういったイメージツービデオだったりテキストツービデオって技術が使われてくると思うので、
より私たちのコミュニケーションのレベルを引き上げるような、そういったAIかなと思っての紹介です。
33:05
スピーカー 1
ツールの選択肢が増えるのはいいかなという感想ですね。
結局のところ、CGとかと同じところに落ち着くと思っていて、CGで現実に困難な状況とかコストがかかってしまう、表現するのにコストがかかってしまうものを代替するというのはもう定着していると思うんですけど、
それのアルファ版として、こういう生成AIでより中割りみたいな中間コストを削減して生成するみたいなところに強みがあるなというところです。
ただ、一枚一枚職人が手で描いた中割りより質は落ちると思っていて、それは質が多分人間を越すことはないと思うんですよね。
なので、そこはこだわるのであれば、やっぱり人が描く必要があるという意味で、人の職が全くなくなるわけではないかなという予想です。
スピーカー 2
それはその通りだと思いますね。
いい例として今出していただいたCGがとてもいいなと思っていて、CGを駆使して歴史が進んだ結果何が起きたかというと、
CGをうまく使いこなすためのスタジオだったり環境がいるよねってなって、リアルの環境セットとCGを掛け合わさないとCGを使ったいい演出にならないっていうのが今の現実じゃないですか。
スピーカー 1
そうですね。
スピーカー 2
すべてがCGでいいわけではなくて、やはりリアルでやった方がインパクトあるところはお金と場所をちゃんと確保してやって、
メインじゃないところにCGを使うとかやって、その強弱とかも分けているのが今のアクション映画とかでもそうだと思うんですよ。
なので、やっぱりおっしゃる通り、現実が一番質の高いコンテンツにはなるのは間違いなくて、質を落としても問題ないところの効率をいかに上げるかっていうところに尽きるのかなとは思います。
スピーカー 1
そうですね。質というかリアル感。
まあリアルなので、逆に制限が起こっちゃったりするんですかね。
映画とかでもCGだと撮れる価格だけどリアルだと無理とかそういう制限があったりするけど、
そういうの含めてどういう絵作りをするかっていうのがクリエイターの腕で見せるところだと思うので、
36:09
スピーカー 1
そこら辺のツール含めて全部含めてCGも実写もこういう生成系も含めて良いものをお出しするという選択肢の一つとして出てくるのは良いのかなと思っているところです。
スピーカー 2
例えば砂漠を歩いている主人公みたいな絵を撮りたい時に遠くの方で起きているサンドストームみたいなものをCGで作り込んでたところをサンドストームくらいやったらAIでいいやろってやるとかそんな感じですかね。
スピーカー 1
そうですね。サンドストームもCGで毎秒コマ生成すると結構コストがかかるんで、コマ数減らしてこいつで保管することで制作時間とかコスト削減するとかね。
スピーカー 2
そうそうそうそう。そんな感じだと思う。
スピーカー 1
そうですね。そういうことはできると思うので、そこら辺かなという感じですね。
あとは逆に今フルCG、ピクサーとかが大御所になりましたけどそういう作風、CGだからこそできるというかCG感がある作風というもののジャンルができると思うので、
そういう意味でこの生成AIの画風みたいなのが多分出てくるんじゃないかなと思ってます。どういうのがそういう話になるのかっていうのはちょっとアレなんですけど。
なのでそっちがジャンルとして確立されると面白いのかなという気はしていますけどね。
スピーカー 2
うんうん。
そうですね。映画になると主題が、というかコンテキストが多すぎてインプット型になってうまく生成できないと思うんですけど。
スピーカー 1
はい。
スピーカー 2
アニメーション風景とか、うまく表現できないですけど、壁紙的な役割で動かすアニメーションにはすごく向いてくるんじゃないかな。
そのAIの得意領域っていうのはその瞬間の直前の状態から比較的想定されやすいコンテキストにつなげるのが強みじゃないですか。
スピーカー 1
はい。
スピーカー 2
なので見てる側にインパクトを与えないところが強いと思うんですよ。
スピーカー 1
うん。
スピーカー 2
その見てる側が気を引いちゃうようなものって壁紙として向いてないじゃないですか。
39:02
スピーカー 1
うん。
スピーカー 2
壁紙なんだから黙って背景になってろっていう世界なんですけど、気づいた時にパッと見て、その雰囲気というか空間を演出できてればOKなわけだから、
そういったところのアニメーションを生成するとかはすごく強いんじゃないかなと思いますね。
スピーカー 1
そうですね。それも一つあると思います。最初に言ってた映画とかはコンテキストが多すぎて難しいと言ってましたけど、私それ結構制御方法によってできるんじゃないかなと思っていて、
その連続性のある画像が出るけど、突拍子もない映画が出るっていうのが結構強みかなと思っていて、
いわゆる一時期、悪夢的な画像とか動画とか、そういうのは結構得意なのではないかなと。
人間が想像もしないような画像を出力してくれる。
それをある程度とテキスト2イメージでストーリーをお膳立てしてやって、任せて生成することで、生々しい表現みたいなのができるんじゃないかなと思っています。
具体的に現実にないのであれなんですけど。
スピーカー 2
SFとかダークファンタジーとか、その世界観上存在する生命体、存在するものだけど、
人間の理解から外れたものを表現するというコンテキストだったらすごく刺さりそうかなと聞いてて思いました。
スピーカー 1
そうですね。クトゥフービーな感じとか、そういう感じですね。
アニメーションの技法とかもある程度読み込ませてやって、
動きとしては分かりやすいけど何じゃこりゃみたいな生物みたいなところができると、
逆に例えば宇宙艦隊みたいなのは、なかなか現実は難しいので、
CGか特撮かみたいなところが日常だったりする気がしますけど、
そういうジャンルとして、やっぱり生成AIが強いジャンルみたいなのができるのではないかなという期待がありますね。
スピーカー 2
これはちょっと先の期待として持っておきましょうくらいで、
42:01
スピーカー 2
そういうものができたんだくらいの理解で十分で、触ってみる必要までは全然ないと思います。
スピーカー 1
そうですね。ここら辺も進化が早いので、
前初めに見たときは、CGで動いていたキャラクターをそのまま焼き直すみたいなところだったんですけど、
そこからオリジナリティが臨変が見えるくらいまで出てきていると思うので、
より進歩していってもらったらなと思います。
次、私の方から、
Press Releaseですけど、
これは大学共同利用機関法人自然科学研究機構基礎生物学研究所。
というところのPress Releaseで、
植物が重力方向を感知する仕組みを解明というタイトルの記事になります。
植物は重力方向を感知して成長方向を調整する性質、重力屈折により、
根を水や栄養分が豊富な地中へ、茎を高剛性や静粛に留意するような情報へ向かわせます。
重力屈折を行う植物の器官には、重力方向に沈降する粒、
アミロプラストと呼ばれる澱粉を蓄積して高い肘を持つ細胞内障器官を含む細胞が観察されます。
この粒が沈むことで重力を感知するという、
澱粉変更石仮説が100年以上前に提示されました。
しかし、アミロプラストの沈降という物理的な現象が、
細胞内でどのように他の信号に変換され、また伝播されているかについてはわかっていませんでした。
基礎生物学研究所植物環境応用研究部門の西村樹教授、
他、埼玉大学、大阪大学、熊本大学、国際先端科学技術研究機構らと共同で、
植物の根が重力方向を感知する仕組みを解明しました。
研究グループは特殊な顕微鏡システムを駆使し、
アミロプラストが沈んで細胞膜に近づいたとき、
アミロプラストに存在するレイジーライクタンパク質が細胞膜に移動することで、
細胞がアミロプラストの位置情報、すなわち重力方向を感知することを明らかにしました。
さらに重力方向の細胞膜に移動したLZY、さっきのレイジーライクですね、
タンパク質はオオキシン輸送を促進する因子を呼び込み、
根にオオキシンの濃度勾配を生じさせ、重力屈折を引き起こすことを示しました。
45:00
スピーカー 1
本研究結果は植物生理学における長年の謎を解き明かしたとして、
国際学科医師サイエンスに米国時間2023年10月8月10日付でオンライン成功を形成されますということです。
何のこっちゃって感じですけど、植物が根っこは下の方向に、葉っぱ上の方向にやるっていうのは、
そういう機構を持っているからということが解明されて、
細胞の中にコロコロ転がるものはあるというところまで解明されていたんですけど、
そのコロコロ転がるものをどう見ているか、どう判断しているかというところまでは分かっていなかったそうです。
今回、そのコロコロ転がるものにこのLZYタンパク質というのがくっついていて、
それが重力方向に従って細胞の下の方に沈殿すると、
沈殿するとこのLZYタンパク質が細胞膜、その箱の中の壁に張り付くことで化学反応がいろいろ起きて、
スピーカー 2
大気芯という物質を通すようになって、それで下の方向と上の方向というのを判断しているということが分かりましたよということらしいです。
生物ってすげーとしか言いようがないんだけど。
スピーカー 1
そうですね。
スピーカー 2
まず細胞内で自由運動ができる物質があるまでは分かりますと。
細胞内でのエネルギー伝達等々があるので、そういう役割のものがありますと。
そいつが持っている膜を重力方向の壁に溜まった時に分離し始めて層を作る、形成するというところがなかなかすごい話をしているなと思っていて。
スピーカー 1
人間の細胞でそんな動きするやついるっけって感じがするくらい、なんか特殊な動きだなと思いますね。
たぶんよくやっていることな気はしますけどね。
スピーカー 2
例えば血管傷つけた時にかさぶたができやすくなるとか、そういうのもある一定条件の時に特定の物質が沈殿しやすくなるみたいな。
スピーカー 1
そういう状況がよくあると思うので、それの一環だとは思いますけど。
スピーカー 2
人間だと海の排出とかそうだもんな。
スピーカー 1
そうですね。何かしらのイオン濃度か何か知らんけど、濃度勾配が発生して自動的に、自動的に?
科学的にそういう作用が発生する?
48:03
スピーカー 1
そうですね。
スピーカー 2
この話だと単純に密度の濃淡だけで今おっしゃった勾配ができて、成長するためのエネルギーが重力方向に結果的に向かうようになる。
そっちに多くのエネルギーが使われるようになるから、根がそっちの方向に伸びていくということですね。
スピーカー 1
いやーすごいなーって感じですね。
もう一つ面白いのが、このプレスの緊急背景に詳しく書かれてるんですけど、動物はまた違った重力禁止機構を持ってるらしいんですよね。
動物は細胞外にミネラル主成分とする平行石が形成されていて、これが外から細胞に力を作用させることで感覚を担う細胞を活性化します。
要は物理的な圧力によって動物はその感覚を捉えているんですけど、植物はそうではなくて、このタンパク質と付着というか移動によってそれを検出しているということらしいですね。
動物は確かによく動くんで、そんな悠長というか成功度が壊れそうな微弱なセンサーを使うと微妙だくて、この粒を大きくして重力で力で作用するってところに特化したような気もしてますけど、ここら辺も含めてよくできてるなという感じですね。
スピーカー 2
そうですね。実際は地中の水分量とか栄養素の量とかで多分反応速度の差とかも使ってるんだろうなとは思うんですけどね。
スピーカー 1
はい。
スピーカー 2
単純に重力の方向に濃淡が生まれるだけだと根の根元の方も根の先の方も大きな重力差っていうのは微小はあると思うんですけどないじゃないですか。
スピーカー 1
うん?
スピーカー 2
植物の根の根の根元って言ったらもう日本語が意味わかんないけど、地面、地表に近い方の根と地表から遠い方の根ではそのかかる重力の差っていうのはほぼ変わんないですよね。
スピーカー 1
はいはい。
スピーカー 2
じゃあどっちの根を伸ばしていきたいですかって言ったら基本的には地表から離れている方の根を伸ばしていきたいわけじゃないですか。
スピーカー 1
はい。
スピーカー 2
その分エネルギーを伝達させなきゃいけないわけですよ、根の先まで。
51:05
スピーカー 2
そのコストがかかってでも根の先を伸ばそうと思ったら反応速度とかその辺で調節してるのかなと思ったんですけど。
スピーカー 1
反応速度というかこれとは別の機構でそういう伸ばす根を選択的により生存戦略的に良いものを伸ばしているっていうのはあると思うんで、これだけじゃなくていろんな外界センサーを使っているとは思いますね。
スピーカー 2
うん。
その化学反応的な濃淡があってそれに、それだけによって引きずられるわけじゃないんだろうなっていう話。
スピーカー 1
はいはい。
スピーカー 2
このRLDがつかないと結局エネルギーが運ばれないっぽいので、
最初の重力方向を検出して層を形成するところまでが重力検出機構で、RLDがそこにつくかどうかがそのさっきおっしゃってくださった生存戦略的にどこを伸ばすかを判断して月に来るんだろうなっていう。
だからその掛け合わせでうまくやってるのかなと思います。
スピーカー 1
まああるかもしれないですけど、ちょっと読み込んでないのでそこまでわかんないですけど。
センシング、植物の持つセンサーはこれだけではないので他で保管してもいいかなと思いましたけど。
スピーカー 2
そうですね。なんかもうちょっと全体分解、全体像からこれの機能だけ取り出して別技術に転用したくなるくらい面白い機構ですね、これ。
スピーカー 1
そうですね。
なのでここら辺が、なんだろう。
ここら辺をいじれるようになると何が嬉しいかな。
無重力でも植物の成長を促進できるとかあるかもしれないですけど、今のところはそのくらいか。
スピーカー 2
そうですね。成長コントロールをしようと思うと重力というよりはさっきの生存戦略の方のコントロールにつながらないと厳しいですもんね。
スピーカー 1
そうですね。これをいじることによって複合的に戦略に促進させることができると思うので、なんかわかんないですけど。
そうですね。より密度な植物の植え方とか効率の良いとかできるのかもしれないですね。
54:07
スピーカー 1
そうですね。
より生産性の良い野菜の育成とか。
例えばですけど、肥料を地表からまわかなくてよくなるとか。
スピーカー 2
例えばです。だから何が嬉しいねって言われたらあれなんですけど。
でも言いようか。難しいな。
いや、すいません。いい使い道があったと思います。
スピーカー 1
まあでもこういうのは気候が解明できたのがまず第一歩だと思います。素晴らしいと思いますというところです。
スピーカー 2
なんか使えそうな気がするんだけど、今パッとアイデアが出てこないな。
重力方向が取れるから、例えば必ず平面的に均一面を作らないといけないときに、こういう気候を使えば密度が差ができるから、
その形成された層の上の面だけ見ると重力的に平行なものが作れるとか。
あとは、重力だもんな。磁場とはまた関係ないし。
スピーカー 1
センサーとして見ると、おそらく物理センサーに比べて多分、
加速度には弱いけど、平行度というかエネルギー量は小さいような気がするので、
低消費電力のセンサーでずっと長い時間平行度を出したいようなところに取り付けて、
自動的に下がったら傍順して平行度を保つとか、そういう感じの。
スピーカー 2
山の地盤沈下とか見たらいいんじゃない?
スピーカー 1
良さそうですね。
スピーカー 2
山崩れがどういうタイミングで起きるのかとか分かってなくて、
基本事故対応になってるじゃないですか。
ああいうのを超低消費エネルギーで50年くらい持ちますみたいなセンシングができるのが全然ありな気がする。
そうですね。
なるほどね。面白いですね。
なんか夢は広がりそうなんだけど頭が悪くてアイデアがない。
スピーカー 1
いや、すぐに応用先を考えるのは工学者の悪い癖なので、
純粋にこういうのは素晴らしいと思いますというところでいいんじゃないでしょうか。
57:04
スピーカー 2
すみませんでした。ありがとうございます。
スピーカー 1
はい。
スピーカー 2
じゃあ次いきます。
Webブラウザーブレイブが非難されまくっているGoogleのWeb Environment Integrityを無効化してリリースすることを発表。
ということはギガジンの記事です。
Googleが健全なインターネットのために策定を進めているWeb Environment Integrity、WEIに対して反対を表明しているWebブラウザーブレイブがWEIを無効化する方針であることを明らかにしました。
Googleが新たなWeb標準として策定を進めているWEIは開発者に対してAPIを提供し特定のブラウザ構成だけを承認するという仕組みです。
WEIではサーバーのWebページを表示する前に第三者の検証サービスに対してユーザーの閲覧環境が改変されたものではないかを検証します。
そのため特定のブラウザ構成以外を利用している場合、ページが表示されなくなる可能性が危惧されています。
WEIについてフリーソフトウェア財団のグレグ・ファロー氏は、フリーのOSやブラウザを使っている人にはページ表示を拒否することなどができる可能性がありますと述べています。
そんなWEIに対しては様々な企業やサービスが反対の姿勢を見せており、Googleが開発するChromiumをベースとしたブラウザブレイブも反対を表明していました。
ブレイブのプライバシーエンジニアリング担当、バイスプレジベントで上級プライバシー研究員のピーター・スナイダー氏は、WEIについてブラウザのユーザーにウェブでの閲覧、操作、使用を管理させないようにするGoogleの継続的な取り組みの一部にすぎませんと指摘しています。
ということで、このWEIがちょっと物議を醸し出しているので紹介したかったです。
一番の問題点は、特定の環境にユーザーを制限させていくことによって、Googleのデファクター、サンダード、独占というのを脅かされない状態が続いてしまう。
ちゃんと市場の競争が行われない状態になる。ただでさえそれの警報が強いのに、それを加速させてしまうということが問題視されています。
一方で良いところとしては、ユーザーの中でChrome以外を使ったりとか、特定のブラウザ構成以外を使われることによってトラブルが発生していて、
世の中のIT部の人たちは必ずインターネットエクスプローラーで開いたらうまくいかないんだけどという問い合わせを一応受けたことがあるみたいな悲しい現実があるので、
そういったトラブルシュートを削減したい、精度を上げたいというところがあります。
あとは独自に実装された、独自ブラウザで見られている場合、どんなアタックツールがそのブラウザに組み込まれていて、
どういう攻撃を受けるかというのが読めないですと。
1:00:01
スピーカー 2
一方でブラウザを特定してあげれば、そのブラウザでできること、ブラウザが逆にできないようにしてあることというのは守られているので、
例えばChromeブラウザに限定すれば、Chromeブラウザでできるアタック範囲に絞られるので、ある程度その防御策が実行性の持った範囲でできるようになったりします。
といったところで、このWeb Environment Integrityはどちらの良し悪しもある中で策定が進められているので、今後もちょっと注目どころかなというところになります。
日本企業で言うとあまり否定しないんじゃないかなという気はしています。
自分たちの市場競争に関係しないからということで。
なんですが、一番気になるエッジがこの策定に対してどういう方向を向いていくかで大きく変わると思いますが、
今のところ特にマイクロソフトがこの問題に対してどうこうと言っているものは見たことがないので、
今後そういった発信があれば、気を注目かなというところです。
スピーカー 1
一般人にとっては有用なので、進めてもらっても構わんって感じかなとは思います。
想定している一般人というのは、何かしらのインシデントがあったときにそれに対して主体的に動ける人というと、
99.99%の人は無理なので、
その人らをある程度制約を課すことで救える可能性が高まる、
という救えるというか、架空請求サイトとかで捕まる可能性が減ると考えると良いのではないかなと思われます。
問題はわからんでもないんですけどねというのが一方あって、
でも難しいですね。
本当はオープンソースソフトウェアの財団か何かがこういうのを推し進めればそういう文句もつかなかったのかもしれないですけど、
クロミウムが8割でしたっけ、9割でしたっけ、取ってる現状だったら、
クロミウムの首根っこを押さえてGoogleが出したものがデファクトスタンダードになるのはある意味ある当たり前なので、
理想ではないけど、理想状態に今から持っていこうと思ったら、
第何のブラウザか知らんですけど、クロミウム対抗を作ってシェアを取ってからじゃないと話にならんのかなという気がして、
1:03:03
スピーカー 1
まあまあそれは無理だなという気持ちでいますね。
スピーカー 2
そうですね。
まあちょっとね、クロミウムに対してのGoogleの動きも悪くなってきているので余計に反発を招いているところは正直あると思いますね。
スピーカー 1
正直。
スピーカー 2
クロミウムは元々はかなりGoogleのクロームとほぼイコールくらいで進展してきたオープンソースですけれども、
現状はクロミウムを悪い状態に放置することでクロームのシェアを維持し続けようというアクションを取っているので、
まあちょっとねっていう感じですね。
スピーカー 1
まあGoogleとしてはクロームでシェア取れちゃったからもういいんじゃないですかって。
まあその倫理的に。
スピーカー 2
ちょっとシェア下がってきている。
スピーカー 1
あ、そうなん?
スピーカー 2
ちょっとずつエッジに寄ってきている。
スピーカー 1
倫理的にどうなんっていうのはありますけど、まあGAFAだしな。
スピーカー 2
まあね。
スピーカー 1
稼げるところはやらんやろ。
スピーカー 2
根本的なところはおっしゃる通りGAFAというIT大企業問題の一部でしかないので、
これはその問題の表出のされ方の一つでしかないから、
この問題だけひたすらつついてもしょうがないよなっていうのはおっしゃる通りかなと思います。
スピーカー 1
そうですね。
やっぱりこれに本気で対抗しようと思うんだったら、
Webブラウザを使っている全世界の全ユーザーがこんなもん使ってられるかと。
じゃあなんかこうなんだろうな、
サファリに全Windowsユーザーが移行しますとか。
そういう事態になったらまあGoogleもちょっと待ってくれというと思うので、
まあそういう状態まで持っていけるかどうかという話だと思いますけど、
まあそうならない時点で99.99%の人にとっては結構入選度の低い話になっちゃうので、
まあこの方向性を騒いだところでという気がしますね。
そうですね。
どうなんでしょう。
でもなんか一部の人だけでもロビー活動したらこういうの通ったりするんでしょうか。
分かんない。
スピーカー 2
いや無理だと思う。
少なくとも私の単純な思想を無視してビジネス路線だけで考えると、
これが策定された暁には積極的に採用すると思います。
スピーカー 1
はい。
スピーカー 2
WEIは。
はい。
そのPOCフェーズとか、
まあいろんなタイミングでそのシステムを試行してユーザーに検証してもらう機会ってあると思うんですけど、
毎回口すっぱくブラウザーこれしかできません。
こういうことでしか使えませんみたいなその利用制限情報を伝えるんですけど、
1:06:04
スピーカー 2
ブラウザーの環境とかバージョンについてはもう何だろうな。
ひたすら毎回言い続けなきゃいけないことだし、
一回言っただけでは伝わらないから何回も言ったりするようなそういう煩わしさにとらわれていて、
かつそのブラウザーの問題でシステムのファーストインプレッションを悪くすることがマジでありすぎるので、
ビジネス観点から言うと必須かなって感じ。
スピーカー 1
そういう意味でもやっぱり浸透していく未来しかないですね確かに。
スピーカー 2
という気はします。
じゃあ最後もう一点私の方から。
政府の方で発信されたやつで、
これどこが出してるやつか。
SAI産業省が2023年8月7日に独立行政法人情報処理推進機構IPAで発信されているもので、
SAI時代のDX推進に必要な人材スキルの考え方の取りまとめが出ました。
ものづくり白書とかも出しているような関連ではあるんですけれども、
このSAI、今日もいっぱいAIについて話してきましたが、
こういったAIを使ってDXをやっていく上で必要な人材スキルというのは何なのかという定義が行われました。
割と新技術に対してこの速度でこういうスキルマップ的な話が出てくるのは、
かなり政府としても気合が入っているなといったところではあるんですけれども、
中で言っていることとして、いくつかポイントがあるんですけど、6点ポイントがあるんですが、
そのポイントの内容としてSAIがもたらすインパクトがどんなものか、
人材育成やスキルに及ぼす影響がどんなものか、
リテラシーレベルの考え方がどんなものか、
DX推進に利用するために企業としてどういう状態になっていないといけないのか、
あとは政策としてどういう対応をしようと思っているのか、
長期的にこういうことをしないといけないと思っているのか、
といったところがまとめられました。
スキルとかについてはもう散々このPodcastを聞いていれば分かるような話だと思うので、
サクッと飛ばして、国の動きが載っていたので、この辺をちょっとだけ共有したいなと思います。
まず政策対応としてあるのが3つで、
デジタルスキル標準、DSSの見直し、
1:09:02
スピーカー 2
学びDXへの生成AI利用講座の掲載、
ITパスポート試験のシラバス回避やサンプル問題の公開等、
中長期的には専門的なレベルでの人材育成やスキルへの影響の継続検討、
デジタルスキル標準のさらなる見直し検討、
情報処理技術者試験の室内内容の見直し検討といったところで、
政府としてはもうこの生成AIがIT関連における一般常識になるだろうということで、
ITパスポートレベルから当たり前に説明できなければならない技術として位置づけられているようです。
現状でもまだまだ生成AIは知っているけれども使ったことがないという人が大多数なので、
今後はかなり手こ入れして政府もいろんなところに施策を盛り込んでくると思うので、
それに便乗していきつつ学習していけばいいんじゃないかなというところで紹介でした。
はい。文字で書かれていることは至極まともかなというところですけど、
スピーカー 1
どうなんでしょうね。これを実施できると思います?
スピーカー 2
実効性ある形でという就職者がつくんだったら実行できないと思いますね。
スピーカー 1
と言うと。
スピーカー 2
実効性?有効性か。有効性がある形で実行できるかと言われたらできないと思います。
言っていることは今までこの生成AIのところを過去のIT技術に差し替えても全く同じことを言っているので。
スピーカー 1
なるほど。
スピーカー 2
今までIT技術に対してやれてきたレベルとこの生成AIで何が変わるんですかって言われたら多分変わらない。
スピーカー 1
なるほどね。それやったら延々ちゃいますって言うのもおかしいですけど、今まであった世界なので。
今まであった世界のように進んでいくんじゃないという意味では延々ちゃいますという感じかな。
そうですね。1個変化点があるとするならばこれも必要ですよと重ねでどんで出されたことによって、
何だろう。
時々公用語が英語になる会社みたいなのがあったりしてますけどそれと同じで、
全社員がこういう資格を持っている状態にすることを標準とするみたいな会社とかが出てくるとちょっと変わっていくのかなとは思いますね。
1:12:07
スピーカー 2
そうですね。いろんなとこに影響があると思いますよこれは。
例えば高専の学習指導要領への改定のインプットになるでしょうし、
あとはITパスポート試験を受けさせてとりあえず取って就職の起点にさせるっていうそのIT未学習人材をIT業界に載せるってことをやってる会社だったりとか、
塾みたいなところっていうのも結構あるので、そういったところへ導入されるとなると当然その人たちも生成AI使いこなせないと説明ができないのでってことで、
技術に取り組まないといけない人が必然的に増える。
結果的に市場に生成AI人材が増えるっていうくらいの影響はあると思いますね。
スピーカー 1
そういう意味でも積んでおく必要のある発言だと思うので、至極真っ当かなというところ。
スピーカー 2
そうですね。真っ当だとは思いますね。
スピーカー 1
有効性があるかどうかは別として。
スピーカー 2
有効性があるかどうかは別として。
一番政府が掲げてる言葉とこれの内容のギャップで言うと、生成AIを使って次世代のITの世界で日本をちゃんとそこで戦えるようになっていきたいっていう多分目標が掲げられてるからこそこのスピード感で出てきてると思うんですけど、
その世界に対してアプローチできるような、今までのやり方ではリーチできなかった人たちをそのITのスキルを持ったや貴重な人材として育てていくっていうところだったりまで波及してるかというとそうではないですし、
書かれてない言葉として別のその人材獲得問題のところで定義されていたリスキリングの話、年齢が40後半とか50代になってのリスキリングとか、あとは定年退職後のリスキリングといったようなところに対してはもう花から期待してないのかもしれないんですけど、
まあ言葉として全然出てきてないので、本当に次世代の若者がITについて触れるときにはSAIくらい知っといてねって言ったところでに留まってるのがまだちょっとその政府が掲げている目標に対してのギャップとして見えるところかなと思いますね。
スピーカー 1
でもそこもある意味まともというかさ、リスキリングってそのスキル習得できないと思ってて、AIの変革速度が速すぎて、習得し直して習得しましたじゃあ業務に使えます、使える人材ですって言えないと思うんですよ。
1:15:13
スピーカー 2
まあまあでもそれはレベル感次第じゃない?そんなことを言い出したら、町のコンピューター教室のExcelなんて勉強したてもらって言ってるのと一緒。
スピーカー 1
なのでそのレベルになると思っていて。
スピーカー 2
俺はそれでもいいと思うんだよ。
スピーカー 1
それでもいいですか。
スピーカー 2
そういう町のコンピューター教室みたいな人たちもおじいちゃんにSAIについて教えないといけないってさせた方がいいと思うんだよね。
スピーカー 1
なるほど。
スピーカー 2
今までの専門的技術とは違って、アウトプットが自然言語じゃないですか。
だからその入力の部分だけで、まずは学習範囲を狭められると思うんですよね。
使いこなせるとか、仕事に適応するっていうのはその次として、Excelだったらセルに文字を入れてみる、次のセルに行ってみるみたいなところから、セルっていう概念の表形式でアウトプット出てくる、あれを理解しないといけないじゃないですか。
スピーカー 1
はい。
スピーカー 2
なので入力出力を両方学ばなきゃいけない過去のIT技術に比べて、出力側が自然言語なので、まだ今までの最新IT技術と比べればハードルが低い技術だと俺は思ってるんですよ。
スピーカー 1
はい。
スピーカー 2
使いこなせるまでのハードルはあるかもしれないけど、触ってみて理解するまでのハードルが低いものだと思っているので、そういった意味で次のExcel、コンピュータ化している次のExcelの位置づけとして適当なんじゃないかなと思ってますね、先生以外は。
スピーカー 1
そうですね。それは同意かな。触ってみて理解するは多分ちょっと難しいんじゃないかなと思いますけど、
町内法とかでさっき言ってた、文字だけだとちょっとシンプルすぎるからちょっと絵を入れたいって言った時に、古典的にはワードのあれを使ってた、お名前忘れちゃいましたけど、
なんかしょっぱい絵を使ってたのがさっき言ってたAIラスト屋のところのサイトに行ってポチポチっとなんかこう、8月の絵みたいなの出して貼るみたいなね、そういうことができるだけでも、
生化物としてはクオリティーが上がっているのは確かなので、そういうことができるようになる、そういうツールがあるということを分かって事実的に使えるというだけで十分なのではないかという話は、
1:18:18
スピーカー 2
それで十分だと。
スピーカー 1
そうですね。それはそうですね、100%同意かなと思います。
スピーカー 2
なのでそこまで踏み込んで、ようやく次世代の生成AIをできる、日本にしていくみたいな掲げ方になると俺は思うんだよね。
そのITの業界にそもそもいて、ITの人たちがじゃあ次のスキル学ぼっかって言った時に、あ、そういえば生成AIあるなっていうのだと、ちょっと遅すぎるなっていう。
変革能力が、変革力が小さすぎるなっていう。
スピーカー 1
まあ確かにそうですね。
前世代同時にやりつつ教育もしっかりやりつつで、その社会的な、なんだろう、AIを使える国、日本、ジャポーンにすると。
ああ、そうそうそうそう。
スピーカー 2
くらいの気合が入っていると嬉しかったなっていう話。
スピーカー 1
まあ確かにそれはそうですね。
スピーカー 2
まあ今日こんなもんですかね。
スピーカー 1
はーい、じゃあおしまいですかね。
スピーカー 2
はい、お疲れ様でした。
スピーカー 1
お疲れ様です。
00:00

コメント

音声ファイルが無いみたい?です

スクロール