Discordサーバー(チャットルーム)はこちら(WoodStreamのデジタル生活と電器屋Walker共同運用) Windows 11とNPUで広がるWindowsのAI この番組はクラウドファンディングでこちらの皆様 […]
00:01
スピーカー 2
マイクロソフトの製品や技術を楽しく、分かりやすくお話しするポッドキャスト番組
スピーカー 1
ウッドストリームのデジタル生活です。
スピーカー 2
第662回目の配信になります。お届けしますのは木澤です。よろしくお願いします。
はい、今週もお聞きいただきありがとうございます。
この配信はクラウドファンディングキャンパーへのコミュニティにより、皆さんのご支援をいただいて配信しております。
今回、メセリさん、ホワイトカラーさんはじめ、合計9名の方にご支援をいただいております。
スピーカー 1
ありがとうございます。
スピーカー 2
ご支援の内容に関しましては、この番組ウェブサイト、windows-podcast.comでご案内しております。
もしご協力いただけるようでしたら、よろしくお願いします。
また、リスナーの皆さんとのコミュニケーションの場として、チャットサイトディスコードにサーバーを開設しております。
こちらはポッドキャスト番組、電気アウォーカーと共同運用しております。
スピーカー 1
よかったら参加してみてください。
スピーカー 2
ディスコードサーバーのURLは番組ウェブサイトにリンクがあっております。
また、この配信はアップルポッドキャスト、グーグルポッドキャスト、スポティファイ、オーディブル、アマゾンミュージックで聞くことができます。
ということで、2023年、最初の配信になります。
スピーカー 1
新年明けましておめでとうございます。本年もよろしくお願いいたします。
スピーカー 2
今回もですね、YouTubeとポッドキャスト、同時収録をしております。
今年もこの体勢でなんとか生きるかなという感じでやってきますので、よろしくお願いします。
スピーカー 1
今年の配信はこれからということになりますので、
スピーカー 2
大体去年も年49回配信できましたので、
ほぼ毎週週末に配信ということで休まず配信できたかなということで、
今年もできるだけ仕事だとか生活だとかっていうのはありますので、
スピーカー 1
そこはちょっと無理のないところで、
スピーカー 2
今年もマイクロソフトの製品とか技術とか、あとデジタルガジェットとかについてもですね、
お話をしていきたいと思っていますので、よろしくお願いします。
さて、今回お話をさせていただくのはですね、
例年だと今年のマイクロソフトはどうなんでしょうとか、
スピーカー 1
今年欲しいものとかね、そんな感じでやるんですけども、
スピーカー 2
大体予測がもうつかない状態ということになっていて、
WindowsとSurfaceとかのデバイスについて、この番組で話していこうと思っているんですが、
スピーカー 2
大体予測がついていないというかね、
今まで何年か前までは割と今年はこれが出そうですか、これが出そうですねとかね、
前の年から発表があったのでこれが製品化されますかねとかね、
いよいよWindowsの新しいバージョンが出ますかっていう話をしていたんですけど、
大体見通しがつくのが、Windows11は多分4月にはアップデートはなくて、
スピーカー 1
23H2というね、おそらくWindows11 2023アップデートという名前のやつが出るだろうというところと、
スピーカー 2
あとその中身というのは今インサイダープレビューでどんどん改善とか更新されていくものが取り入れていくのかなと思っています。
03:03
スピーカー 2
インサイダープレビューの話はなかなかしていなかったので、今後もちょっとしていこうかなと思っています。
あとはSurfaceがおそらく順当で言えば今年また秋口にSurface Pro X、
もしくはSurface Laptop 6とかね、大体この前インテルが発表した第13世代コープロセッサーに乗っけてですね、
出てくるんじゃないかなと。でもそのぐらいかなというところなんですね。
スピーカー 1
そんなところで、今回お話しするっていうのがちょうど年末にもブルームで書いたのと、
ちょっと年末にブルームの回ってさらに年明けにこのCES 2023でアップデートがあったというところで、
スピーカー 2
ちょっとタイミングがいいかなというところでこの話をさせていただきます。
Windows11とNPUで広がるWindowsのAIというタイトルでね、ちょっとお話をさせていただきます。
何かいかにもそれっぽい感じのタイトルなんですけど。これはどういうお話かというとですね、
スピーカー 1
Windows11とNPUですね、ここの繋がりでハードウェアとOSの進化が同時にあるっていう、
ちょっと珍しいタイミングじゃないかなっていうところでね、お話を。
ちょっとお話というかね、こういったところでね、注目して見ていました。
スピーカー 2
まず何が変わったかというと、もうすでにWindows11の2022アップデートでは搭載されているWindows StudioFX、
これも前のお話、去年お話をしたんですけども、その機能がNPUというニューラルプロセッシュユニットという
スピーカー 1
ハードウェアによって実現できています、というところがあってですね。
スピーカー 2
今現状それができているのは、NPUを搭載しているWindowsマシンじゃなきゃできませんというところだったんですね。
そこでSurface Pro 9 with 5G、つまりMicrosoft SQ3というアームプロセッサーを搭載したSurface Pro 9ならば実現できています。
なぜならば、Microsoft SQ3にはNPUが内蔵しているからですということでお話をさせていただきました。
スピーカー 1
アームプロセッサーだけなのかなというところで言うと、じゃあIntelとかAMDの搭載したマシンではこれできないんですかというと、今のところできないんですよ。
ただもうそこの下地というのはどんどん揃えていたので、だからそのWindowsとプロセッサーのハードウェアの融合というか、
うまい具合でタイミングが合わせるというところで、去年から始まっていることなんですけれども、
スピーカー 2
今年2023年というのはそこらへんの動きがより鮮明に出てくるんじゃないかなと思っています。
今回Windows Studio FXの話をするんですけれども、いわゆるAIといわれるものの処理のうちの一つなんですよね。
06:02
スピーカー 2
マイクロソフトはこれ以上のことを言っていないんですけれども、去年のビルドの発表とかでNPUを活用したものをどんどんやっていきますという話をしていたので、
ここらへんでよりAIの機能を使ったものがWindows Studio FX以外にもいろいろ出てくるんじゃないかなという期待はしています。
スピーカー 1
まずWindows 11のStudio FXってどんなものかというのを改めておさらいすると、カメラ機能と音声機能の機能強化なんですね。
例えばTeamsとか、これZoomでもWebExでもいいんですけれども、話していて背景をぼかす、今私のところはYouTubeのほうは背景を出したままですけれども、
背景をぼかしたいということで、人の顔だけ残してそれ以外の部分の背景をぼかしますという機能が、これがソフトウェアの処理なんですけれども標準でできます。
スピーカー 2
あとはアイコンタクト、これはマイクロソフトの今年の春ぐらいの発表であったんですけれども、実際カメラで映している人の顔、
これ今YouTubeでご覧になっている方も私もそう思ったんですけれども、カメラ目線でずっと話していないんですね。
その後ろにあるモニターの自分の顔をつい見てしまうので、カメラ目線で話すとか、テレビ会議とかでも資料見ながらとか、
あと手元の資料で内食するわけじゃないですけど、資料用意しながらとか、カメラを見て、相手を見て喋っているというふうには見えないんですよね。
ほとんどの場合は視線が合っていないんですよ。中には斜め横向いて喋っているのをずっと映している人も中にはいるんですけれども。
スピーカー 1
さてその中でその画像そのもの、つまり動いている動画のカメラの映像そのものを補正してしまって、視線の絵を本当にカメラに向いているように、視線が合っているようにですね、
スピーカー 2
カメラ目線になるように画像を補正してしまうんですね。これがアイコンタクトという機能になります。
スピーカー 1
あとは自動フレーミングというのは、例えば人の顔映ってて、人が移動してしまうとですね、フレームから外れてしまうことがあるんですね。
スピーカー 2
今これYouTubeの方はわざとフレームがあるし、それを自動的に追従する。
例えば人が移動するとそれに合わせて画面が追ってくれるということを自動的にやってくれるんですね。これが自動フレーミングというものになります。
あと音声フォーカスというのがあって、これはですね、喋っている人、その人だけの音声を録って出して、それ以外のですね、
例えば後ろで生活音だとかね、テレワークで後ろの子供の声だとかね、犬の鳴き声だとかですね、拾っちゃっても全部カットしてしまうと。
09:09
スピーカー 1
で、確かこれバイオの方だったかな、隣で喋っている人の声もカットするとかね、これはちょっとスタジオ学生に入っていたかな、バイオだったかな、それできるの。
スピーカー 2
というのもあっているということで、より音声をクリアにする、特にその後ろの雑音とかね。
スピーカー 1
よくテレビ会議、私もテレビ会議というかTeamsで会議をやっていて、相手の人がね、テレワークでやってると後ろで救急車の声がしてるとかね、
スピーカー 2
声がしたら、いやすいません、ちょっと今子供がうるさくてとかね、そのことよくやってるんですけど、そういうのも全部カットしてくれますよというものになります。
で、このStudioXと言っているのは、じゃあTeamsだけで使えるんですかというと、そうじゃなくて、カメラの入力、音声の入力という、
つまりそのハードウェアから拾ってきたものに対して、全てのアプリケーションに対して同じ機能を提供しますという、
だからカメラの映像としてアプリケーションに入っていくんですね。だからアニメーター、アイコンタクトだとか背景ぼかしとかね、
自動フレーミングしても、Teamsだけじゃなくて、ZoomでもWebExでも、あとは普通にこうOBSでもいいですよ、
あとは普通にカメラアプリで録画するとかね、そう言ってるのだけでも全部有効に効いてくるというものになります。
あと音声フォーカスについても同様ですね。マイクの入力をどのアプリケーションでも自分だけの声を出すというところでカットしてくれて拾い上げてくれるというものになります。
これがWindows Studio FXという機能で、実機をSurface Pro 9 with 5Gで見た人の意見を聞くと相当きれいに映ると。
当然ハードウェアでやってるから速いんですね。速いというかハードウェアでやらないと処理できないでしょうというものになります。
現状このWindows Studio FXはNPUを搭載したものじゃないと動きませんというところで、
現状今はWindowsマシンで動くのはQualcommのスナップドラゴンSQ3もしくは多分ですけどスナップドラゴン8CXGEN3とかレノボのシンクパッドのSS13だっけ、ちょっと片番読ませちゃいましたけど、
ARMプロセッサー版のシンクパッドありますよね。そういったものじゃないと対応していないということになります。
そもそもこのNPUって何でしょうというところから話をしたいんですけども、ニューラルプロセスシミュリティという略称は言ってるんですけども、
ここで背景になるのはニューラルネットワークとニューラルコンピューティングとかそういったものになります。
このニューラルコンピューティング何かというと、あまりこれ難しい話はしないのでちょっと軽い気持ちで聞いていただければと思うんですけども、
12:00
スピーカー 2
人間の脳細胞を模したものというところでニューロンというのがあるんですね。
人間の脳細胞というのはニューロンという神経細胞とそれとニューロンとニューロン線でつながっているんですね。
それをシナプスって言うんですけど、大丈夫です。これ以上難しい話しないで安心して聞いてもらえたらと思うんですけど。
そのニューロンとシナプスが線で線でつないでいろんな情報を次へ次へと脳細胞に分け渡していって状況の判断をするとかそういうことをやっています。
こういったところをコンピューターでやってしまおうと言っているのがニューラルコンピューティング、あとニューラルネットワークとか言っているものになります。
よく出てくるのが丸い絵が出てその横に縦にいくつか丸が並んでいてその横にも丸が並んでいてそれがそれぞれ線で結びつけられていて、
それがどんどんどんどん線で結びつけられた丸があって最後答えになるような丸いマークが出てくるという絵はよく見てくると思うんですね。
そういったところで条件判断を同時にしなきゃいけない、たくさん入ってくる条件を同時にしなきゃいけないということが必要なんですね。
言いたいことはこれなんですよ。つまりたくさん入ってくる情報から同時に判断をして分岐させてじゃあこれはなんだという最終判断を出さなきゃいけない。
たとえばよく出てくる例が犬と猫の画像を見せます。耳の特徴だとか尻尾の特徴を見ながらこれは犬です猫ですって判断を下すんですね。
犬はこういう特徴です猫はこういう特徴ですっていう学習データっていうのがあってそれに基づいて判断するんですけども今度はこれの判断するために犬の画像猫の画像
たとえば512×512ピクセルの画像をすごい単純な話しますとじゃあ512個のドットと512個のドットの情報をインプットするわけですよ。
そうすると262,144個の情報をインプットするわけなんですね。でこの中からいろんな情報を判断して最終的に犬ですか猫ですか
犬の確率85%とかね。そんなところで出てくるんですけども反応する。つまりたくさんの情報を入れて最終判断をさせてるんですね。
でこの判断というのはどうしているかというとその神経細胞というところのニューロンという数字を持っていてさらにシナプスというそれとそれをつなぐ線も数字を持っているんですね。
その神経細胞の値とシナプスの値をかけて足してかけて足してということをどんどんかさみづけをしていって判断するとか、あとそれの判断する専用の関数があるんですね。
これのディープライニングとかそこでちょっとあの教科書的なところを見るとですね割と載ってるんですけどもそんなところをやって計算させてるんですよ。
15:04
スピーカー 2
つまりそのたくさんの情報を同時に計算させなきゃいけないということをやらなきゃいけない。
ただ一方ポイントはですねこれ行列計算ということになるんですけども今言ったように足し算と掛け算しかしないんです。
スピーカー 1
しかも整数ですよね。0点いくつっていうのはその小数点算というのは小数点以下の計算ってする必要ないんですよ。
スピーカー 2
だから難しい計算背景で難しいことを考えてるんだけども計算自体はすごく単純なことやってるんです。
だから例えばその単精度の整数演算で16ビット演算とか8ビット演算とかですねその程度の計算能力さえあればいいんですね。
スピーカー 1
私ちょっとね去年だったかにそのインテルの第10世代、去年で一昨年かな。
スピーカー 2
第10世代とか第11世代コープロセッサーに載っているグラフィックチップインテルXEっていうアイリスXEっていうプロセッサーの中にここら辺の計算を得意とした機能も乗っけてますっていう。
その整数演算だけを得意とするっていうのを乗っけてるっていう。
だからAI的にインテルが使えるようにしてますよって話をした覚えが私はあるんですけども。
スピーカー 1
そんなところもあって実際こうプロセッサーの方もですね。
スピーカー 2
いわゆる整数演算の単純な計算だけ並列して同時にたくさんできればいいよっていうところになっています。
スピーカー 1
これちょっと機械学習の話をしちゃうと、じゃあ例えば推論データだとか学習だとかね、いろいろと難しい話も出てくるんです。
スピーカー 2
それちょっとまた別の機会に私が追い過ぎていればですね、話をしたいと思ってるんですけども。
さてじゃあこれWindows StudioFXというところでどうやってるかというと背景ぼかしをするといったときに人の形ね。
この人はどこからどこまでが顔の形でしょう。髪の毛はどんな髪型してますか。
スピーカー 1
というのね、入ってきた画像を見てほとんど瞬時にですね判断しなきゃいけないですね。
例えばジドフリングについてもそうです。人がこう動いています。動いている人は人で、その後ろのものは背景ですかと判断をしなきゃいけない。
あと音声についてもそうですよね。喋っている人ですか、後ろで流れている生活音ですか、犬の声ですか、子供の声ですかとかね。
スピーカー 2
そんなところを入ってきた音声の情報を、じゃあ喋っている人だけの情報を抜き出すというところで判断をしなきゃいけない。
そこら辺はこれは人の形です、これは人の声ですという学習されたデータに基づいて結果を出してるんですね。
これを高速にやらなきゃいけないんですよ。そこら辺をWindows Studio FXでもやってるんですね。
スピーカー 1
これをやるにはどうしたらいいでしょう。いやいや、GPUがあるじゃないですか。
スピーカー 2
ジフォースのなんたらっていいやつがあるじゃないですかというところで、実際今まではそれができていました。これからもできるんですけども、
ここでちょっと何でNPUというのが出てくるかというところで、ポイントはCPUとGPUとNPUというこの3つのプロセッサーが出てくるんですね。
18:11
スピーカー 2
それぞれ何をやっているかというと、CPUというのは基本的にシーケンシャルな処理という言い方で、
何かのこの数字とこの数字を計算してください、OK計算するぜ、結果はこれだぜって言ってるのを返すのがCPUの仕事なんですよ。
計算して、計算する、答えだ、この仕事を一つ一つ順番にやってるんですね。
だから中身高度な計算はするんですけど、同時に一つのことしかやってないんですよ。
スピーカー 1
もちろんマルチスレッド、マルチコアがあるですよという話がありますけど、確かにそうです。
スピーカー 2
マルチコアとかマルチスレッドというのはこういったものを同時にやるようにしてるんですね。
もちろんプロセッサーの処理方式として先に処理させて、先行して処理させるというかあたかも並列にできるようにやる仕組みももちろんいろいろされてるんですけども、
かなり大雑把な話をすると、一つ一つの処理を順番にやってるっていうことなんですよ。
せいぜい例えばスレッド数で分けますよって言っても、最初の第13世代コアプロセッサーのCore i9-13900でもスレッド数でいくと32スレッドなんですね。
32個しかプロセッサーないんですよ。
だから、さっき言った26万件のデータを同時に処理しろって言われたら、ちょっと待ってっていう話なんですね。
俺高精度だけどさすがにたくさんはできないよっていう話になるんです。
もう一個、GPUは基本的に入力された映像情報に基づいて、実際画面に出すための映像を作り出すプロセッサーなんですけども、
これもここはNPUと似てるところがあって、同時に処理しなきゃいけないんですね。
例えば、この計算してって言ったら、何とかしたいなとかいろいろやって、本当に瞬時に計算して画面に出す。
その画面に出すって私も4Kモニターつないでますけど、それに動画で出すなんて言ったらものすごい情報を吐き出さなきゃいけないというところで、
これはですね、たくさんの処理を同時に、しかも高精度な計算をして出力するということをやっています。
これもすっげー乱暴な言い方をすると、NVIDIAのGeForce RTX4090でいくと、この処理できるプロセッサーというか単位がですね、16384個あるんですよ。
シェーダーの話はそこまで詳しい話をするつもりないし、かなりこれを言っていることが大雑把ですけど、つまりそれだけ同時に処理できる機能が入っているんですね。
21:06
スピーカー 2
さっき言ったCPUと32個とこの16000個は並べて話すことはあまりできないんですけど、数的にそれだけの違いがあるということだけ認識してもらえればいいです。
しかも、CPUほど高度な処理をしていないんですね。
ただ、そういったところでたくさんの情報を並行としてやるという意味では、ニューラルネットワークとかニューラルコンピューティングとかAI的な処理に向いています。
というところで実際これが使われている、AIの処理にNVIDIAが頑張ってGeForce使ってくださいというのは、こういった背景になってできるようになっているんですね。
ただ一方、これ演算内容としては、GPU自体は不動小数点演算がバリバリにできるんですね。
グラフィックの凄い処理をやっているわけなんで。
ただ、それだけ凄い処理をジャンジャンやっているので、消費電力も食うというところもあって、やってできないことはないんだけど、ニューラルコンピューティングにおいて、つまりAIの処理において、そこまでいらないですってなるんですね。
そんな電気を食うのと、高精度な計算は必要ないですっていうことになるんですね。
スピーカー 1
そこで出てくるのがNPUなんですね。
スピーカー 2
これもNPUも複数の処理を同時に行うということをします。
そういった意味でGPUと同じような考え方なんですけども、これは特にAIの処理、ニューラルエンジン、ニューラルネットワークとかにも特化した処理をして、
例えば高精度な、GPUがやっているのは32ビットの不動小数点演算をやらなくて、16ビットとか8ビットの整数演算、つまり足し算かけ算しかやりません。
しかも整数のね。
スピーカー 1
ということしかありません。
スピーカー 2
というところに特化しているんですね。
ですから、たくさんの処理をするという単位数がたくさんあって、計算自体は単純なものです。
スピーカー 1
その分、消費電力はそんなに食わないようにしますよと。
スピーカー 2
というところに特化したのがNPUというものが出てきます。
CPUとGPUでこれができていたんですけども、CPUとGPUって仕事がたくさんあるじゃないですか。
CPUもいろいろOSの動きもしなきゃいけないし、WordもExcelも動かさなきゃいけないし、GPUはフライトシミュレーターが飛ばされてゲームをやったりとか画面描画とかもあるし、動画の再生もありますし、
動画のエンコードとかもあるし、いろんなことをやっていて、ずっとニューラルエンジンの仕事に労力させませんよということになります。
そういったところでNPUというのが登場してきて、これをすることによってAI的な処理をどんどん補完して、
高速にコンピューターとして処理できる、高速に低消費電力、GPUよりは低消費電力でできるようにしたというのがNPUが出てきた背景かなと思っています。
24:10
スピーカー 2
実際こういった処理ってスマートフォンまでやってるんですよ。
ほんとスナップドラゴンは結構前からやってたりとか、あとは皆さんお使いのiPhoneもAppleのAシリーズにしてもMシリーズにしても、Mシリーズもニューラルエンジンとか搭載してますし、
Aシリーズ自体もニューラルエンジン搭載していて、撮った写真をいい感じに写し撮ってくれたりとか、
あと、私のiPhoneXでは対応してませんけど、iOS16で撮った写真の物体だけを切り抜きにしてくれるとか、
スピーカー 1
ああいったのがニューラルエンジンとか、そういったAI的な処理が入っているからできると。
スピーカー 2
だからそういった機能がスタプロセッサーじゃないとできないということで、あるiPhoneXS以降じゃないとできないとか、そういった背景があるんですね。
そういったところでNPUっていうのがこれから、もうすでに出始めていて、これがAIに使えるというところが出てきています。
今まで私もよく番組でAI的な処理が得意なっていうのはこういった波形があって、そこで形となって出てきたのがNPUかなと思っています。
といっても機械学習の話しちゃうと、実際2つのフェーズがあるんですよ、機械学習って。
学習をするっていうことと、あと推論をするっていう2つのフェーズがあって、
スピーカー 1
学習すること自体はですね、例えばこれは犬ですね、猫ですって言って教え込ませて、
スピーカー 2
じゃあ推論っていうフェーズで、はいこの画像はどうでしょう、はい犬です、85%の確率で犬ですっていう形で結果を出します。
この学習っていうのも自然に学習させるっていうものもあれば、データをどんどん与えて教え込ませるっていう学習っていうのもあるんですね。
教師好き学習とか、教師なし学習とか、強制的に学習とかあるんですけど、
そこらへんの機能っていうのは、わりとこういったNPUだとか、あとモバイルに乗っけているそのAI的な機能にはですね、
スピーカー 1
意外とそっちにあまり力を割いていなくてですね、あらかじめデータを用意されていて、学習データを用意されていて、
スピーカー 2
そこからどう判断するかという推論のところに思い浮きを置いているということの方が多いです。
ですから今回のスナップドラゴンとかWindows Studio FXについても、おそらくですけど推論する方に力を入れていると思います。
そこのデータっていうのはMicrosoftとかQualcommとかが作り込んでいくっていう形かなと思っています。
AIまともにやるとね、計算機リソースが欲しい、すごくいるんで、例えばクラウドね、Azureのマシンラーニングとかっていうのを使うとかっていう形になってくるんですけども、
27:01
スピーカー 2
デバイスレベルで低消費電力を出るっていうと、やっぱり推論の方に近寄りたくって形になるのかなと思っています。
実際ですね、ではQualcommってどういう動きをしていたか、つまりMicrosoft SQ3、SQシリーズのベースになっているスナップドラゴン8CXシリーズですね、
こちらではどういった対応をしているかというと、もうNPUというのが搭載しています。
実はですね、もうQualcomm自体はMicrosoft SQ1のところでですね、搭載しているんですよこれ。
ニューアルプロセスシミュリティも搭載していまして、QualcommがMicrosoft SQ1の開設をしているところで、
視線の補正をしている、つまりアイコンタクトの機能を載せていますよっていうのを既に発表しているんですね。
これが結局発展させて、Windowsの標準で載せるようになったっていうことなんですけども、こういったところが実際に実装されていました。
SQ3のところでも、スナップドラゴンの8CXGen3をベースにしていると言われているMicrosoft SQ3ですね。
これは当然載せていて、今できるようになっているということになっています。
私よく言い方で、Microsoft SQ3はスナップドラゴン8CXGen3をベースにしていると言われていますという言い方を今までしていたんですけども、
それは確証がなかったというか、そういうふうに言われていますよという情報しかなかったんですけども、
Microsoftの春先のイベントの動画の中で、スナップドラゴン8CXGen3をベースにしているとはっきり言っています、Microsoftの方が。
それを見たので、これから私も8CXGen3と相当ですと、それをベースにしていますということをはっきり言うようにします。
はっきりMicrosoftの人が、そうじゃないかというんじゃなくて、そうですと言い切っています。
Igniteが発表があったのね。
今そういった状態でスナップドラゴンも対応しています。つまりMicrosoft SQ3、アーム版プロセッサーも対応していますというところで、
Windowsはどういった今後の展開になっていくかというところで、これ去年のIgniteの情報なんですけども、
Microsoftのグループマネージャーのフレンドさんという方が、いろいろインタビュー形式でお話をしていて、
みんなみたいにSurface Pro 9、Fuse 5GでこのWindows Studio FXがすごく効果的に動いているという話をしたときに、
いやこれだけなのかというところでみんな疑問があったんでしょうね。
そこで話したのが、Windows Studio FXは特定のハードウェア、スナップドラゴン8CXGen3で動いていますと。
スピーカー 1
ここでもう8CXGen3と言っているんですね。
スピーカー 2
他のOEMだとかハードウェアベンダーとも連携していきますと。
30:02
スピーカー 1
その後デバイスだとかWindowsのエコシステムというハードウェアを含めた環境の中で、
Windows Studio FXというのを今後どんどん公開していきますよと言っているんですね。
ここで出てくるのがスナップドラゴンだけじゃないですと。将来有望なNPUについてもWindows Studio FXを採用する計画がありますと。
スピーカー 2
つまりその業界全体の将来の技術を考慮して、
すべてのWindowsのマシンでNPUを活用してWindows Studio FXを展開するという、
こういったところで展開していきますという考えですと言っています。
実際今ですね、スナップドラゴン用に作っちゃったんですよ、Windows Studio FXは。
実際このWindowsの場合は、QualcommはスナップドラゴンのニューロルエンジンのAPIを使っていますと。
これでも直接NPUを直接操作してできるようになっていると。
ただその、とは言っても今後は特定のハードウェアアーキテクチャを中小化して、
開発者向けのより包括的なソリューションに取り組んでいますというところでですね。
スピーカー 1
つまり他のNPUでも今の技術が使えるようにしていきます。
スピーカー 2
つまりスナップドラゴン、つまりQualcommだけにしませんよと言っているんですね。
これについては来年のビルドまでに情報を提供していますというのをイムナイトで言っているんですね。
実際Qualcomm自体もですね、このSQ3とかスナップドラゴン8CX用にもSDKを出しているんですね、ソフトウェアデベロップメントキットね。
出してても使うことができるようになっているんですね。
ただここら辺をラップしてっていうかカバーして、ラップしてカバーしてってマイクロソフトはみんなに使えるようにしますよと言っています。
ですから今年の私の注目ポイントというのは今年のビルドでここら辺のどのプロセッサー、ハードウェアメーカーのNPUでも有望なやつですね、
メモしやつでもこのWindows StudioFXがWindows 11で使えるようになりますよというのを発表すると思います。
思いますね、これ相存ですし言っていますね、マイクロソフトが言っているので、こういったことが私的には今年の目玉の一つかなと思っています。
さて、じゃあそういったところで、いやいやそんなこと言ったって、サーフィスプロXとかサーフィスプロ9 5G持っている人少ないですよと。
私の周りにも持っている人、サーフィスプロ9 5G持っている人いないんですけど。
じゃあインテル、我々に使っているほとんどの人が使っているインテルとかAMD、Ryzenとかはどうなっていくんでしょうかというところで、
インテルもAMDもですね、このNPUはCPUのパッケージの中にSOCとして標準統制する動きになっています。
33:05
スピーカー 2
まずインテルはですね、XPUという言い方をして、CPU、NPU、GPUとか何とかPUを統合していくという発表をしているんですね。
実際、NPUの機能自体が、第10世代コープロセッサー、アイスレイクで、
インテルD、インテルGNAというね、グラシアンドニューラルアクセラレーターというAIアクセラレーターという言葉で使えるようになっているんですよ。
これ私も何かの展示会、ETIOTだったかな、インテルのブースで見たんですけど、
OpenVINOというライブラリを使って、SAKとして提供していてですね、
インテルのプロセッサーを使ってAIできますよというのを出しているんですね。
確かLinuxで推論エンジン、こんなのできますよというデモで私ちょっといじらせてもらったことがあるんですけど、
そういったところがあってやってたんですけど、実際コラボ自身はまだWindows Surface UXには適用されていないんですね。
スピーカー 1
そこで出てくるのが、NPU、インテルどうもビジュアルプロセッションビニとかVPUという言い方をしていますけれども、
インテグレテッドAIアクセラレーションということで、NPU相当の機能が入るということを言っているんですね。
スピーカー 2
これはですね、第14世代コーププロセッサーMeteor Lake、
スピーカー 1
あと第15世代コーププロセッサーLunar Lakeに搭載していきますと。
SOC化ということで、インテグレテッドAIアクセラレーションということで第14世代コーププロセッサーにも搭載していきますというところで言っています。
私はここの機能を期待するのであれば、
スピーカー 2
Facebookといろいろ話したら、今第13世代だけど待ったほうがいいですかねという人もいっていて、
私が欲しいんだったら今出ているやつを買えばいいと思うんですけどね。
そういったところで、第14世代というのは注目かなと思っています。
おそらくね、流れから言うとほぼ間違いなく出てくると思いますけどね。
そんなところに行っているところにですね、この記事を書いた後に、
これ笠原和樹さんの記事なんですけど、1月3日の記事で、今CES2023というのをやっていますけど、
その日先だってインテルが第13世代コーププロセッサーとのモバイル版の発表をしたんですね。
この中で例えばPコアなしのEコアだけのCore i3nの発表があったとかこういったのが出ているんですけども、
その中で第14世代を見据えた機能ということで、ソド付けNPUを搭載可能になっているという発表をしているんですね。
36:01
スピーカー 1
NPUでインテルはVPUと言っていますが、ここら辺を第13世代コーププロセッサーにくっつける形でNPUをサポートしますよと。
これ記事にも書かれていますけども、Windows StudioFXが出てきて、ここら辺が行えるようになってくるんじゃないですかという話が出ています。
スピーカー 2
ですからこの第13世代コーププロセッサーにNPUを外付けする形で出てくるノートパソコンとかも出てくるかもしれませんし、
次のSurface Proがこういった形になるか、第13世代から第14世代のNPU内蔵のものを出すかというところになってくるかと思います。
そういったところがあって、インテルというのもほぼNPUを標準的に使うという形になっています。
つまりWindows StudioFXはインテルのマシンでも使えるということになります。
AMDのRyzenはどうなっているかというと、CES2023でも発表がありましたが、その前の記事で、
今、Zen4アーキテクチャーですよね。これがZen5というのが出てくるんですけれども、
ここの中にAIエンジンというのが出てくるんですね。
スピーカー 1
これもNPU相当の機能です。NPUという言い方はいろんな言い方をするんですよね。
だからAIエンジンとかAIアクセラレーターという言い方もするんですけれども、これがZen5で載せますよと。
スピーカー 2
ZilinxというFPGを使っているメーカー、これは私も仕事で使ったことがあるんですけれども、AMDが買収していて、
Zilinxが持っているAIアクセラレーターの機能を載せますというところで、AMDもやる方向になっているんですね。
スピーカー 1
なるほどと。AMDもやるみたいですよというところで一回記事を終わっていたら、
スピーカー 2
そんなところでCES2023でAMDが発表したんですね。AMDのRyzenプロセッサーの発表があって、その中でRyzen AIエンジンという名前をつけたものが出てきます。
これがいわゆるAIアクセラレーター、NPU相当なんですけれども、
なんとなんとここでですね、Windows Studio FX正式対応しますというのがAMDが先に発表しました。
Ryzen AIエンジンのユースケースとして、今回マイクロソフトが正式にWindows Studio FXでサポートされることが明らかになったというところでですね、
やっちゃうAMDみたいな感じでね、マイクロソフトの方から正式に発表がありました。
つまりこれでインテルもほぼ、正式に発表があったかもしれない、ちょっと私拾い切れてないかもしれませんけれども、
インテルもAMDもNPUを使ったAI機能というのを今後乗せていくというのがほぼ間違いないという条件になってきました。
39:08
スピーカー 1
といったところで、当初ね、マイクロソフトSQ3、Surface Pro 9 with 5Gだけだったって言ってるものが、
もう今どのプロセッサーでも使える、どのプロセッサーというか対応しているプロセッサーであれば使えるようになりますよ、
スピーカー 2
つまりインテルアーキテクチャのWindows 11でも使えるようになりますよということになります。
そういったところで、今年の注目というのは、まず一つはここら辺のNPUとWindows 11との絡みかなと思っています。
スピーカー 1
実際、いろいろ向きは面白いですよね。
スピーカー 2
例えば第12世エコプロセッサーが出た時にも、PコアEコアがWindows 11と密接に動いて効率よく動かすことができるとか、
そういうこともできるようになったというところで、ハードウェアとWindowsというのは結構いろいろ絡み合っているというところをお話しするのはなかなか楽しいかなと思っています。
あとは、セキュリティ絡みの話もあってですね、
クワルコム自体もWindowsで使うためのセキュリティ強化、マイクロソフトプルトンというセキュリティ関係の技術も取り込んでいて、
クワルコムもインテルもAMDも乗せているという方向で、
ThinkPadもZ13、Z16のRyzenモデルにも乗っているということで、
セキュリティも強化しつつ、その起動のところのブートストラップのところも効率よく立ち上がる、早く立ち上がるようにしますというところでやっていますので、
Appleみたいな感じで、Appleは一社でやっていますけど、
マイクロソフトはWindowsエコシステムと言っていいかと思うんですけれども、
そういった各ハードウェアメーカーと共同してソフトとハードと一緒に機能を上げていくという形を取っていますので、
動きとしては今年のマイクロソフトの楽しみかなという、これからのマイクロソフトのWindowsの楽しみかなというふうに思っております。
今回説明がまた周りくどいというのに怒られそうなんですけれども、
NPUというハードウェアプロセッサーに対して各社がどんなふうに動いていって、Windowsもどんな動きになっていく、
スピーカー 1
それによって今後ハードウェアとWindows11と絡み合っていって、どんどん発展していくんじゃないかなという期待もありまして、
スピーカー 2
こういったお話をさせていただきました。
スピーカー 1
というわけで、今2023年、マイクロソフトはクラウドだけじゃないぞって、
スピーカー 2
あんまり生田さんはクラウドに恨みでもらうんですけど、
今マイクロソフトって言うとみんなAzureばっかりなんで、
スピーカー 1
別に私も勉強しなきゃいけないんですけど、
スピーカー 2
ってか、してて今ちょっと大変なんですけど、
42:03
スピーカー 2
それはそれで日常の重要な要素でもあるんですけども、
やっぱりまだまだハードウェア、Windowsだとかデバイスっていう話もね、
これあっての使う人入り口ですんでね、こんな話もしていこうかなと思っております。
そういうことで、今年もそんな話をしていきたいと思っています。
今年、番組的にはどうしていこうかなと思っているんですけども、
やっぱりWindowsだとかSurfaceとかのデバイス中心にですね、
デジタルガジェットより、もちろんカメラ買いましたよ、そういう話じゃなくて、
スピーカー 1
マイクロソフトのテクノロジーとかWindowsとかパソコンを使うね、
スピーカー 2
ほとんど多分Apple、Linux以外のところでのどんなふうに使えますかっていう、
ハードウェア、ソフトウェアを含めた話をしていければいいかなと思っております。
スピーカー 1
していけばいいかなっていうか、そういったところを中心にね、
スピーカー 2
お話をしていきたいなっていうのはね、
スピーカー 1
ちょっと私の今年の番組とかっていうか、
スピーカー 2
あと個人的な活動の方針もね、そういった方針にしていこうかなというふうに思っています。
マイクロソフトのOSとハードウェアっていうところでね、
お話をしていければいいかなと思っております。
第662回はWindows11 TNPで広がるWindowsのAIということでお話をさせていただきました。
こういう話しするとね、やっぱり新しいハードウェアも欲しくなってくるなっていうところもあって、
スピーカー 1
どうしようかな、ちょっと第10、10世代、高プロセッサーか第14世代もあって、
スピーカー 2
マシン組むかとかね、そんなこともちょっと考えています。
モバイルはね、欲しいんだけど、何度も話しますけどね、
ノートパソコン自体使う機会がなくなってしまったっていうのがあるんで、
まあちょっとデスクトップ周り増強したいなっていうのもありますしね。
あと今みたいな話していくと、やっぱりMacOSってどうなってんだろうとか、
知っておく必要があるっていうのもありまして、
それを目的としてMacBook Pro、7年前に買ったんですけど、
もう7年前ですよ。
でね、インテルプロセッサー、第6世代のインテルプロセッサー乗っけてるやつなんで、
ノートパソコンとしては十分まだ使えますしすごくいいんですけども、
やっぱりM1を乗せたものをちゃんと体感しておかないといけないのかなって。
買うか、でもあれ買うんだったらMacBook AirのM1Dかな、
でもそれ買うんだったらSurface買った方がいいよなっていうのもあったりとかしてね。
ちょっと買い物も悩んでるところで、
次回以降も買い物の話もするかもしれませんけどね、
そんなことも考えております。
あとすいません、年1回か半年ぐらい紹介だけさせてもらいたいと思うんですけども、
45:04
スピーカー 1
いつも番組の冒頭でお話をしていますが、
スピーカー 2
この番組、皆様からのご寄与をいただいて配信をしています。
クラウドファンディング、キャンプファイアのコミュニティって機能を使ってですね、
月額で寄付をいただいて配信をさせていただいています。
寄付いただいたお金、どこに使っているかというと、
スピーカー 1
配信機材とかですね、
スピーカー 2
あとPodcastの方は、さくらインターネットさんのレンタルサーバーを使って配信しているんですね。
スピーカー 1
ただ音声データを配信しているので、
スピーカー 2
ミニマムプランじゃなくてちょっと上のグレードのプランを使っているところもありまして、
スピーカー 1
年1回ですね、どんどん月々いくらだったかな、
スピーカー 2
年1回ですね、サーバー代支払っているというところでやっていまして、
スピーカー 1
そこらの活動資金というところか、
スピーカー 2
あとこうやってマイクロソフトの情報収集だとかの書籍類とか情報収集に使った費用とかですね、
スピーカー 1
というところでご支援いただきたいなということで、
スピーカー 2
クラウドファンディングのキャンペーンのコミュニティを使っていただいているということになります。
クラウドファンディングのキャンペーンのコミュニティってどういったものかというと、
スピーカー 1
クリエイティブ的な活動をしている方、
スピーカー 2
これも一応Podcast、YouTubeの配信もクリエイティブ的なところもあると思います。
スピーカー 1
というところで活動している人に対して、
スピーカー 2
毎月継続的に支援をしてもらうというものです。
ですからクラウドファンディングですから、いくら集めます、目標がいくらですというのではなくて、
月いくら支援してくださいというのをお願いしているものになっています。
今のところ9人の方、ご支援いただいていまして、
コースが2つあってですね、毎月の金額500円もしくは1000円というところでご使用しております。
実際に番組を継続することがフィードバックという形になるのと、
あと月1000円の方は番組の冒頭でお名前を出させてくださいというところで、
希望されない方が割といるので全員の名前を呼んでいないんですけれども、
そういったところで500円もしくは1000円のご希望をいただいて活動しております。
もちろん1ヶ月だけやってすぐ解約するというのもOKですし、継続的にご支援いただいても結構です。
だから1000円だけ寄付している方は1ヶ月だけ解約してすぐ解除するということもできますので、
ご協力いただければなと思っております。
ここら辺のCAMFIREのページ、
あと実際に私がどういった思いでPodcastとかYouTubeの配信とか、
マイクロソフトの技術を広めているかというところをお話をしています。
48:04
スピーカー 2
あとどういったことに使うとか、レンタルサーバーの費用だとか、配信の機材だとかというところで説明を書いていますので、
こちらを見ていただいて、もしご支援いただけるでしたらご支援いただければと。
1ヶ月だけでも結構ですので、したいと思っています。
スピーカー 1
やっぱりちょっとそれだけじゃと思うので、
スピーカー 2
今年もご支援いただいた方にだけメリットになるというのはよりあればいいかなというところで、
いろいろ考えておりますので、ぜひご協力いただければなと思っております。
ということで、今年2023年も引き続きマイクロソフトの製品とか技術とか、楽しくわかりやすくという目標にお話をしていきたいと思っていますので、よろしくお願いします。
ということで、またいろいろなネタを集めてお会いしたいと思います。またよろしくお願いします。
49:12

コメント

スクロール