1. サイエンマニア
  2. 巡回セールスマン問題とブラッ..
2022-05-23 52:51

巡回セールスマン問題とブラックホールは量子計算で繋がる【量子コンピューター 前編】 #72

量子コンピューターについて、組み合わせ最適化問題や量子計算方法を中心に巡回セールスマン問題やブラックホールの画像解析、Google Mapの計算について語っていただきました。

【ゲスト】

東工大 情報理工学院 博士課程

Sudeera H. Gunathilakaさん

【トピック】

・スリランカから日本へ

・古典コンピューターと量子コンピューター

・組み合わせ最適化問題

・物理的なアーキテクチャー=超電導や光子を使った量子コンピューティングの装置、巨大なシャンデリアみたいな見た目

・量子アニーリング方式:多数の粒子のふるまいを統計的に扱い、ミクロ→マクロ的な性質を導き出す方法。組み合わせ最適化問題など特定分野に効果を発揮する。

・量子ゲート方式:万能量子コンピュータを目指す方式。しかし、量子コンピュータに期待されるあらゆる計算ができるわけではなくエラー訂正などが課題。

・量子コンピューターにかかるコスト

・問題を近似する方法

・ブラックホールの解析

・クラウドを使った計算とGoogle Map

・量子計算の正確性

毎週月曜日配信。ポッドキャストのフォローやレビューいただければ嬉しいです。

Twitter #サイエンマニア

https://twitter.com/REN_SciEnTALK

SciEnMANIA公式サイト(おたよりフォーム)

サイエントーク → https://scientalkclub.wixsite.com/scientalk

BGM

only a little

00:01
こんにちは、レンです。 今回は、量子コンピューターの世界です。
今回のエピソードは、量子物理学のお話ということで、かなり専門性が高い内容になっていますが、この分野の面白さに少しでも触れてもらえるといいなと思っています。
それではどうぞ。 今回のゲストは、東高大情報理工学院博士課程のスデーラさんです。よろしくお願いします。
よろしくお願いいたします。 今回この番組始まって、初めて日本人ではない方がゲストに来てくださいました。ありがとうございます。
楽しみにしてました。 本当ですか?嬉しい。それは嬉しいですね。
すごい楽しみにしてました。自分も初めてのこういう、なんか、ポッドキャストも初めてなんだけど、それは日本語っていうのは、ちょっと自分も、ちょこっとはそうですね、まあ、いろいろ頑張っていきたいなと思っています。
スデーラさんはどこからの留学生なんですか? スリランカです。 スリランカですか?
いやー、でも日本語すごい。何年前から日本に来てます? 日本は今、7年目になるかな。そうですね、7年くらいは行ってるんですね。
もうそうですね、もともと日本語勉強し始まった、もう中学に入ったばっかりの頃なんです。 7年前ってことは大学入るぐらいですか?
もうすべて、もう自分の、例えばまあ、高校卒業以降の教育はすべて日本でやってるって感じ。 なので、自分が思ってるのは、子供だった時代はスリランカで大人になったのは日本だなって思ってるんですね。
来た時も携帯すら契約できない状況だったので、もう19歳とか。 あー、それは大変、それはちょっと大変ですね。 19歳とかで、まあ、なんか保証人みたいな、日常とかであった。
ちなみにこれ全然ちょっと脱線しますけど、スリランカってポッドキャストってどれぐらい聞かれてるんですか?
ポッドキャストは、ここ最近流行り始まったかな、あんまり、正直あんまりないんですね。 あー、そうなんですね。
みんなYouTubeとかが中心でやってまして、ポッドキャストはそこまでもないかなって思うんですね。 あ、なるほど。じゃあ日本と一緒ですね。
日本はもう今じわじわ、じわじわ広がってるぐらいなんで。 あー、そうなんですね。
今日はそんなスゼラさんに研究のいろいろお話を聞いていこうと思うんですが、スゼラさんは漁師コンピューターに関する研究をやられてるっていうことで、
これかなり僕のジャンルともなかなかかぶってくるとこどこだろうっていう難しいところでもありますし、すごい僕は漁師ドシロートなので、今日はいろいろなんかそこを詳しく聞いていけたらなと思っています。
03:15
はい、すごい僕も楽しみです。 頑張ります。
これあれですよね、漁師コンピューターって結構最近ニュースになったりすることもちょこちょこあるかなと思っていて。 はい、そうですね。
なんかGoogleがやりますとかありますよね。 そうですね。それはすごい一番そのパブリティが出てきたニュースだったのかなって思うんで、
一般っていうか研究者以外の皆さんって言ってもあれなんですけど、一般に公開でなんか結構広まったのはそこが大きかったかなって、2019年の論文だったかなって思うんですね。
あ、2019年の論文。それが重要な論文だったってことですか。
あれでGoogleがそもそも見せたのは古典コンピューターで結構ポリノミルタイムって言うんだけど、ある程度現実的な時間内で解けない問題をそういう現実的な時間内で解けたみたいな、
結構古典コンピューターで解けにくい問題を量子コンピューターで早く解きましたっていう論文だったんですね。なんかそれ量子超越性っていうふうに言うんだけど。
量子超越性。めちゃくちゃ難しいですけど、このいわゆる古典コンピューターってやつは、今普及してるようなパソコンで、情報を言ったら01で表現するようなっていうコンピューターを古典コンピューターって呼ぶであってます?
そうですね。
っていうのがあって、だからこれは今のパソコンで現実的じゃないっていうと、今の使われてるパソコンで一番すごいのってやっぱりスーパーコンピューターになりますよね。
そうですね。
それでも難しい?
スーパーコンピューターでもちょっと時間がかかりすぎるっていう。なんかこれ組み合わせ最適化問題が出てくるのはその場なんですけれども。
はいはいはい。組み合わせ最適化問題。
例えばシステム再生って自分たちがよく言うんだけど、例えばいくつかの問題が、一つの問題があって、それの組み合わせを考えないと最適な答えを見つけることができないっていう風な問題が存在してるんですね。
組み合わせだから、例えば1たす1は2みたいな1個の答えで決まるわけではないみたいな。
例えば、こういう風に説明しても少し曖昧なところが残るかなと思うんだけど、一番応用例としてわかりやすいのは巡回セールスマン問題っていうような問題があって。
06:04
はいはい。なんか名前だけ聞いて、結構有名ですよね。巡回セールスマン問題は。これどういう問題ですか?
例えばセールスマンがいて、ビジネスやってる方っていろんな街を回って、自分たちのビジネスを広めようとか、いろんなオファーとかいただくみたいなことをやってると思うんですけれども、
営業ですね。
こういう1人のセールスマンが、例えばいくつかの街を回りたいっていう場合は、一番最短なルートは何なのかとか、条件を書き換えるとコストが一番低いのはどういう風にルート回ればいいとかっていうことも最適化問題を解くっていう話になるんですけれども、
街の数を増えると考えなければいけないルートの組み合わせが、指数関数的に増えるんです。
なるほど。
指数関数的に増えるっていうか、結構増えるんですね。考えなければいけないルートの数が増えるので、少し問題の難しさっていうか、計算に必要な時間が指数関数的に増えるんです。
だから言ったら、例えば日本で言うと、全部の都道府県を回って日本をずっと全部縦断するってなったら、ある程度47個だから、まだ考えられそうですよね。北海道から行って、東北の方行ってみたいな。
いや、考えられるんだけど問題なのは、最短のルートは何かっていうことを考えると、その47都道府県の各経路、各街の行ける経路をすべて組み合わせで調べないと最短のルートはそもそもわかんない。探すことが難しい。
なのでそれを古典コンピューターだと、なかなか指数関数的に時間が増えるから、もう現実的な時間内で解くことは、最短のルートを見つけることは難しいっていう。
なるほど、だからこの通らなきゃいけない、さっきのセールスマンの話だと、行かなきゃいけない街の数が多すぎて、多すぎると経路のパターンもどんどんどんどん増えちゃって、今のパソコンだと、例えば何年も計算しても全然終わらんみたいなことになっちゃう。
そうですね、なんか自分がちょっと記憶は曖昧だけど30個を超えた場合はそもそももう、それはスーパーコンピューターでもできない。
そう、30超えたらそれぐらいなんですね。僕今例えで、さっきの都道府県の47だとっていう話で、それが仮に街の数とかになるともうもっと何百とかなるじゃないですか、それ無理だっていう例えを僕は今言おうとしたんですけど、そもそも47でも結構かかるってことですか。
09:17
結構きつい。
そうなんですね、そうかそうか。
数が少なくても回る必要があるルートが結構増えるので、それを調べる必要がある時間、必要な時間が指数関数的に増えるんです、街の数を重ねていくと。
それしかもスタート位置とかの縛りもないっていうことですか。
もちろんイニシャルポイントはどこかっていうにも色々変わってはくると思うんだけど、結局大きな影響を与えるのは何個回るかっていうことと、どういうルートがあるのかっていうことですね。
グラフで考えたら多分わかりやすいかなと。いくつか街があって、その街をグラフで繋がってて、それで街を回すことになったら、どのようなルートを何個調べる必要があるのかっていうことの話になるので、結構経済に必要な時間がめちゃくちゃ増えます。
なるほど。だから指数関数だからもう何乗何乗でどんどん計算量が増えちゃうと。
これを何とかして解きたいっていうのが、まずこの量子コンピューターとかで実現できるかもしれないみたいな話ですかね。
そうです。大体の量子コンピューターでも2つ、廃印的な量子コンピューターなんですけど、量子アニラとユニバーサル量子コンピューターっていう、2つは大きく、ちょこっと言えるかもしれないと。
例えば量子アニラっていうのは組み合い最適化問題を解こうと特化した量子コンピューターのアーキテクチャーっていうふうにはなるんですね。
一応これ用語確認してもいいですか。
全然。
まずアーキテクチャーっていうのが重要になる感じですかね。
アーキテクチャーっていうのはどういうふうな、それも少し微妙かもしれないんですけど、アーキテクチャーっていうと物理的なアーキテクチャーも話になる。
物理的な装置みたいなことですか。計算させる。
そうですね。
装置の形が何種類かある。
そうですね。僕が先ほどアーキテクチャーって言ったのはモデルっていうことを少し頭の中にあったのでそういうふうに言ったんだけど、アーキテクチャーはそういうと超伝導とか光フォトンを使った光子を使ったアーキテクチャーだったり、
12:03
量子ドットっていうもう一つのテクニックがあってそういういろんな、多分一番有名なのは超伝導なんですね。
IBMとか。
それは超伝導で量子を表現するためのシステムというか。
そうですね。少し先ほど自分が言った量子アニーラーとユニバーサル量子コンピューティングっていう話は少し曖昧なところがあって、ユニバーサル量子コンピューターっていうのはそもそも一般的にどういうふうに今のPCみたいな感じでそこまでジェネラル化にはならないんだけど、
ゲート型っていうかゲートを使ってどういうふうに量子回路、量子ビットをシミュレートしながら計算を行うかっていうことの話になるんですけれども。
じゃあ割とさっきの古典的なコンピューターの進化系というか、割とそこが対応してくるようなのが今の量子ゲートの方式に近いっていう感じですかね。
そうですけれども、PCには等しくなるっていうか。
まだそこまではいかない。
いかないと。自分が勝手に思ってるのは量子コンピューターっていうのは研究向け、ほぼほぼ研究者向けに限るかなって個人的な印象なんで。
普通に先ほどの量子アニーラっていうのは組み合わせと最適化問題を解くために特化したモデルかなって思うんですね、個人的に。
ちょっと目的が違うみたいな感じなんですね。今のユニバーサルの量子コンピューティングと量子アニーラっていう二種類があって、
一般的にイメージしてるのは割とさっきの量子ゲート方式って言ってたようなユニバーサル量子コンピューターっていう方。
だけど、すでえらさんが専門としているのはこの量子アニーラっていう方。
そうですね。そこの範囲の量子アニーラの組み合わせ最適化問題を中心としてるから、使える範囲が少し小さいんですね、ユニバーサル。
なるほど。何でもかんでも今のパソコンでできることができるようになるっていう、そういう話ではないってことですね。
ユニバーサルコンピューティングでも今パソコンでできる全てができるっていう話にはならないと個人的に思ってる。
そこまでギャップがあるっていうことですね。
ユニバーサル量子コンピューティングっていうものになると万能じゃないってことですよね、言ったら。
15:02
万能っていうのは多分ユニバーサルに等しくはなると思うんだけど、
自分が思ってるっていうか、大体の範囲になってるのは、今のゲート型の量子コンピューターでも全てOSを入れて使えるかっていう話まではいかないと思ってるんですね。
なるほど。
少し将来的に自分今読んでることだったり、いろいろ自分が収集できてる情報の中では少しそこまでいかない気がするんですね。
だからそういうものと中でも組み合わせ最適化問題を解くための量子アニーラーってやつがあって、
このどっちも量子って使われてるのは最初の古典コンピューターって01って言ってたやつに対応する形で言うと、
今の2種類の方法ってどっちも量子は0にもなるし1にもなるみたいなよく言われ方しますよね。
そうです。
なんというか確率ですみたいな。
そうですね、もちろんメジャーメンツっていうのは測るときはどういうふうな確率で答えを出すかっていうことにもなるんですけれども、
ほぼほぼ量子計算っていうか量子コンピューターの範囲でいうと量子アニーラーは少し専門的な話になるかもしれない。
イジングモデルってあって、
何モデルですか?
イジングモデル。
イジングモデル、はいはい。
イジングモデルっていうモデルがあって、ほぼほぼ量子アニーラーっていうのは最適化問題を解こうとしてるモデルっていうかアーキテクチャーなので、
例えば一番言えるのは一番わかりやすく説明すると山とか谷っていうふうにあるんじゃないですか。
はいはい山と谷。
一番奥っていうか一番深い谷はどこにあるかっていうことを探すんですね。
組み合わせ最適化問題を応答してるっていうのは。
いろいろ試してっていうことですよね。
山と谷みたいなグラフでいうところのいろんな計算をしてどこが一番谷が深いっていうか、
Y軸的に一番値が小さいみたいな感じのイメージだと思いますけどを探す計算みたいな。
そうです。そのYっていうのはエネルギーに当てはまる。
縦軸がエネルギー。
18:00
エネルギーに当てはまるので、そのエネルギーっていうのは一番小さいところはどこかっていうことを探すことによって最短のルートとか見つかることができるっていう話には。
それが何て言いましたっけ?
ユシアニーラがやってること。
なるほど。谷を探すっていうのは確かにでもいろんな計算でありますよね。
最適化。
これ有機化学でも使ってることありますね。そういう考え方というか。
例えば何かの構造があったときに、何でもいいんですけど、1個の分子が実際に取り得る形っていっぱいありますと。
それが実際の世界ではいろいろワーって動いて、例えばこの炭素と炭素の結合の角度が何度ですみたいなパターンがめちゃくちゃいっぱいあるけど、
それを例えば計算してあげると、一番エネルギー的に低い形はこれですみたいな計算って結構あるんですよね。
そうです。自然っていうのはそもそもエネルギーが低い状況が一番好みなので。
そうですね。
多分、ハミルトニアンといえば多分言葉は、全ての問題のエネルギーを表すっていうふうに考えるといいんですけど、
そのハミルトニアン関数を一番低いエネルギーの状況を表すところはどこかって、どの組み合わせを使えばそこになるかっていうことで、
先ほどの最短のルートは決まるっていうことにはなってる。
なるほど。だからその自然で一番安定になりますみたいなのを探す計算を、ある意味さっきの最適化問題で言うと一番経路が短いところを探すみたいなイメージですかね。
そうですね。モデルを探す、先ほど言ってたイジングモデルっていうのは各スピンで表すことができるんです。
各マチをスピン上か下かっていうことをプラス1かマイナス1か表すことができてて、そのイジングモデルでのハミルトニアンの一番、
例えば先ほど言った巡回性率満問題をイジングモデルのハミルトニアンっていうエネルギー関数に入れ替えることができるっていうことをわかってて、
そうやって移して、両者2だとか、もう一個、少し日本でもう一個あって、コイレントイジングマシンっていうもう一個マシンがあるんだけど、
コイレントですか。
コヒーレントイジングマシン。
コヒーレントイジングマシン。
そういう組み合わせ最適化問題を解こうと、特化してあるイジングハミルトニアンを解くために特化してるマシンに動かしてみるというか、ちゃんとプログラムして動かしてみると最短の経路を探すことができるって感じです。
21:17
じゃあコヒーレントイジングマシンっていう、これもモデルみたいなことになるんですかね。
そうですね。
なるほど。だからこれは紙砕くと各街が上、スピンっていうとあれですけど、ただの数字で表してるわけではないってことですよね。その街の情報が上向き、下向きみたいな、なんか向きで表現されてて。
街の状況ではなくて、この街に行ったらいい、エネルギーが小さくなったらそのままでいいんだけど、エネルギーが高くなるか低くなるかによってスピンの上向きか下向きかっていうことを、エネルギーが小さくなったか高くなったかっていう話。
だからそういうのを実際に最終的にそういうのが全部足し合わされていって、で一番低くなるようなのを探していくみたいな、そういう計算式ってこと。
そうですね。で、それをもう少し空母っていう応用に持っていくと、スピンっていうのはマイナス1かプラス1かっていう表すことを1か0かっていうそのバイナリーに変えると、それが名前だけ変えて空母って言うんですね。
空母。
空母問題っていうふうに自分たちがよく使ってるんだけど。
空母問題。
そうですね。略した名前でそれ、Quadratic Unconstrained Binary Optimizationっていう名前の略で、バイナリーオプティマイゼーションなんで、スピンの場合はプラス1かマイナス1かっていう話であって、応用的な問題だと0か1かっていうバイナリーに持っていったっていうだけの範囲で言えば少し簡単かなって思うんです。
まあ若干単純化してるみたいな感じなんですね。
そうですね。0か1に変えたみたいな感じ。
まあ確かに0か1だとイメージしやすいけど、今の話でもなかなか難しいですよね。この行った場所のスピンで上下みたいな話よりはもうちょっと考えやすくしてるみたいな感じなんですね。
そうですね。
これ、こういう実際に解くような問題とかをGoogleとかも取り組んでいるみたいな感じで。
もちろん多分ほとんどの会社は今最適化問題と量子超越性っていうその両方に手出してるっていうか、一番力を入れてるんではないかと思うんですね。
この量子超越性っていうのはどういうものですか。
量子超越性っていうのはそもそも速さを求めてる感じですね。結構何億円とかかかる問題をこの時間で解けましたみたいな。
24:11
計算速度みたいなってことですか。
そうですね。だいたい自分がわかりやすく自分の頭の中にしてるのは量子超越性っていうのは速さ。
組み合わせ最適化問題っていうのは精度みたいな感じですね。
そういうことか。確かに確かに。どっちもないといけないのか。精度と速さ。
量子超越性。超越性って言ってるってことは、これはどういう超越性っていうのは今までに比べて超越してるっていう意味の超越ですか。
古典コンピューターより超えてるっていう。
解きにくい問題。古典コンピューターで解けないっていうまでは自分が言いたくないのは、ある程度の、例えば何億円とか与えると古典コンピューターでも解けるかもしれないっていう話になる。
めちゃくちゃ基板とかいっぱい詰め込んで超でかいパソコン作ってやればみたいなそういう話ですよね。
何億円とか無限なエネルギーのリソースを与えて、そこまで我慢できて実験をやるんであれば多分何億円とかかかって結果は出るかもしれないんだけど。
でもその一つの組み合わせ最適化とかにそんなにお金突っ込んでたら大変ですよね。
今の漁師超越制っていうの速さがもうちょっと実現するとそこをもうちょっと計算コスト的には抑えられそうというか。
漁師超越制っていうあれは古典コンピューターより自分たちの漁師コンピューターがここまで速かったよっていう話、ほぼほぼそれだけの話なんですね。
それだけなんですね。
インパクトはもちろんあります。漁師計算でここまで解けましたっていうのはもちろんインパクトがあって。
よく聞きます。よくそっちを聞きますよね。漁師コンピューターでこのスーパーコンピューターでも何十年かかる計算が一日でできましたみたいなのがやっぱりインパクトありますよね。
それは多分イメージもしやすいんじゃないかと。
そうですね。確かに確かに。
だけど普通に応用の問題でも今禁止してほぼほぼその問題は今いくつかの問題は禁止して解くこともできるんですよ古典コンピューターでは。
もうちょっと制限加えてあげるとか。
そうですね。だけど一番いいツールっていうかそれを使ってないのでいいツールを使ってここまで早くなったっていう制度を上げ、ある程度の現実的な時間のないで制度を上げることができたっていうことでそういう組み合わせ際的な問題の話になる。
27:24
なるほど。まあでも禁止するっていうことはそれだけちょっと正確性というか精密具合は若干やっぱり犠牲になるところありますよね。
そうですね。もちろん禁止してますので。だけどある程度のエラーレートのないに多分その問題を解いてるっていろんな問題にもよるんだけどある程度納得いける範囲では解いてると思うんだけど一番いいツールではなくてそれを禁止したものを使ってるものになってるんです。
漁師の、漁師で組み合わせ際的な問題をポリノーミアル現実的な時間のないで解こうとする場合は。
なるほど。だから漁師コンピューターもそれを解いちゃおうっていう。
そうですね。結構めちゃくちゃ時間がかかる問題を組み合わせが多くて非現実的みたいな時間がかかる問題を禁止せずに解けるっていう。
確かにこの禁止せずにってのってすごいなっていう感じしますよね。
それはもちろんいろんな問題にもよるんだけどそういう、例えば一番言うと多分ブラックホールのイメージングもある程度は禁止してるので、ノルムを使ってL1かL2かっていう、L0かっていうノルムがいくつか存在してまして。
めっちゃむずいっすね。
ブラックホールの?
この前ブラックホールのイメージ、イメージというか画像。
初めて出たみたいなのが出てましたね。
そういうイメージングの技術でも、例えばスパースモデリングっていう、こういう1個お話しするといろんなものが入ってくるんですよ。
なので多分。
触りというか、でもあれも実際にだからブラックホールを見たっていうこと自体は、実際にはああやってパッて見えたわけじゃなくて、いろんな計算が挟まってあの画像が出てきてるっていうことじゃないですか、まず最初の前提として。
その計算の今内容の話ですよね。
そうですね、それも例えば今世の中に出してるブラックホールの画像の論文は少し自分が読んでないんだけど、大体の画像のリコンストラクションっていう復元っていう。
30:12
データからその画像に起こすみたいな。
そうですね、話になると今ほぼL1ノルムが、少しL0ノルムがスパースモデリングっていうテクニックがあって、それでL1ノルムがL0ノルムの近似バージョンなんです。
L1ノルムってどういうものになるんですか、これ。難しいですから説明。
L1ノルムを説明すると、どういうふうに説明しましょうかね。
いや、そこまで難しいっていうあれではないんだけど、例えばスペースが空間の中であるベクターのマグニティブ、大きさ、大きさの差なんですね。
大きさの差。
そうなんだけど、L0ノルムっていうのは、先ほど言ったベクターの中でどのぐらいの非ゼロの項目が入ってるかどうかっていう差になるんですね。
差じゃない、和になるんですね。なのでここを少し説明していくと、自分の日本語では多分足りない部分に入ってくるんですよ。
自分が言いたかったのは、L1ノルムっていうのはL0ノルムの近似なんですね。
実際に近似したやつを使わないと、ああいうブラックホールの計算みたいなやつもなかなか今だと難しい。
そうですね、復元のことっていうのは少しロスがどうしても応じるっていうか必ずつくものなので、
できるだけロスなしっていうことだとL0ノルムを使ったほうが良くて、だけどそれが組み合わされてか問題なんですね。
なるほど、だからそこそこ。
もうちょっと緩くしてL1ノルムを使って古典コンピューターで解きましょう。
古典コンピューターとは限らないんだけど、ある程度の納得いけるロスの間で近似して解きましょうっていう最適化問題になるんですね。
なるほど、これなかなか僕の勉強不足がすごいあるんですけど。
自分の日本語の力が足りない。
だからノルムということ自体はベクトルのある、そんなL0L1はなかなか難しいかもしれないですけど、とりあえず計算の方法として長さとか距離を表現するような概念があって、
そういう概念にはある程度段階みたいなものがある感じですよね。さっきのL1L01っていうのは。
ノルムの種類っていうかな。
だからその使う計算式のより正確なというか。
33:04
たぶんこれノルムがより近似してないものになっちゃうと、扱うデータとかもめちゃくちゃいっぱいになっちゃうとか、そういう問題が発生してくるんですかね。
たぶん一番変わるのは精度かなっていう。
精度が変わっちゃう。
そうですね、例えば復元とか、例えば画像の復元とかの話にあるとそもそもロスが絶対つくものなので。
ロスはもう測定したデータのちょっとしたエラーとか、そういうのも入ってきたりとか。
もう完全の、例えばブラックホールの画像ってほぼほぼ黒いんじゃないですか。
ほぼほぼ黒いので、ほぼ必要ない、処理しても無駄なものが入ってるんですよ。
黒っていうのは、無駄なんて、ブラックホールの形をこういう重要なデータを使って、ある程度の範囲内、ある程度のポリノーミアル時間内で復元できるかどうかっていう話になってきて。
ブラックホール自体から何かを観測してるっていうよりかは、その周りとか、そういう周辺の情報も含めてやっとブラックホールがあるってわかるわけじゃないですか。
そうですね。
そこも含めた計算するときに、何もないっていうのもブラックホールからは何も得られないみたいな。
ブラックホールではなくて、例えばデータを得るんじゃないですか。データを得た場合って復元するときは、例えば画像の復元の話になると、スパースって言うんだけどほぼほぼゼロの項が多いっていう画像になるので、ブラックホールの画像を見てもほぼほぼ黒いんじゃないですか。
だからすごい意味があるゼロじゃないやつの数字の方がめちゃくちゃ少ないみたいな。
そうですね。その必要なところだけ取って復元する場合って結構早いんです。
なのでどういうふうにその必要なデータを取って早く得るのかっていう、画像を復元するのかっていう話の場合だと、Lゼロのルムを使う場合は問題が組み合わせたいというか問題。
で、それをもう少し緩くして条件付きみたいな、まあ条件はそもそもつくんだけど、ある程度ちょっと緩くして、近似してポリノーミアルタイムでとく場合はL1のルムを使った方が。
これは必ず今出てきてるブラックホールの復元には使ってるかどうか同じ使ってるかわかんないんだけど、だいたいのスパースモデリング的なスパースモデリングの画像復元の話になると、Lゼロのルムが組み合わせたいというか問題になって、L1のルムがある程度Lゼロのルムの近似バージョンみたいな感じなので、古典コンピューターでも復元は可能になる。
36:10
これスパースモデリングってもしかしたらX線結晶構造解析とかにも使われてるやつなのかな。
多分あると思います。画像結構、僕そこの分野はあんまり詳しくないんだけど、画像の復元とか圧縮とかの話は絶対あると思います。
そうですよね。今ちょっとシャブター出てきましたけど、これ科学でいうところの何かに例えばX線みたいなやつを当てて、それがどういうふうに反射じゃないですけど、そこから後ろに投下するときにその波とかが変わるわけじゃないですか。
変わった後の情報が記録されるみたいな感じのイメージを持ってて、例えば科学だとその構造の情報、ブラックホールじゃなくて何かの構造の情報を知りたいってなったときにX線を当てて、当たった後にどういう方向に光が散らばってどれぐらいの強さで光がこっちに行ってますみたいな情報だけがまず得られて、
それを逆算してここにこれぐらいの強さがあるから実際のものはこういう形をしてるんじゃないかっていう逆向きの計算をするわけですよね。
そうですね。
だからそういうときに使う計算式みたいのがいろいろあって、その方法によって微妙にその形がどれだけ正確に予測できるかっていうのが変わってくるみたいな。
そうですね。
こうやって結構いろんなジャンルで多分ありますよね。
面白い。
データそのものじゃなくて間接的に得たデータから本物を予測するみたいな。
これ一番身近なことを言うとMRI画像とかにもこれ使ってます。
MRIは確かにそうですね。
そうですね。なのでこういう組み合わせ最適化問題っていうと多分研究者以外の方っていうのはあんまりパッとこの問題だよ、こういうふうな問題だよっていうのはあんまりピンとこないと思うんだけど、
結構日常的に組み合わせ最適化問題の近似バージョンとか結構使ってるので。
一番わかりやすい例だと、でも組み合わせ最適化かはわからないですけど、
例えば地図のアプリとかでここからあそこまで行くのに最短経路どこですかみたいなのって、
例えばGoogleマップとかで出てくるじゃないですか。
そうですね。
あれもある種の最適化というか経路を一番最適化したやつを出してますよね。
そうですね。もちろんそうです。
それが一番わかりやすい例かもしれない。
Googleマップとかも完全に多分最適化ないとああいうルートの計算とかはできない。
できないですよね。
それもだからある程度近似したような方法を使って、だからすぐに計算結果出てくると。
39:01
そうですね。Googleの場合は結構ユーザーも多いかもしれないんですけども、ある程度のコンピューティングパワーも持ってるとは思うので。
そうですね。確かに。
ソースもある程度あると思うので。
巨大なサーバー持ってますからね、おそらく。
まあ多分個人的に思うのは今、両親アニラでいうとD-Webとか、ゲート型両親コンピューターでいうとIBMのコンピューターとかは、
クラウド上からアクセスとかできるから、多分Googleももう少し発展していくと、今の個展から両親版に変わるかなってちょっと思ったりとか。
今のIBMとかのクラウドからっていうのは、ちょっと借りて使うみたいなことのクラウドですか?
アカウント作って、そこから自分がこういう問題を解きたいみたいな感じで、結構今の両親コンピューターのクラウド上でも扱う問題を解こうとしても、
ある程度のハミルトニアンの構成とか、イジング問題の知識とか少し必要であって、まだまだ。
まあまあでもそれはそうですよね。
そうなんですね。なので。
いや、Amazonとかもやってますよね。だからそういう。
そうですね、もちろん。
結構いろんなとこがやってるの。
いろいろ一つのサービスを使うといろんな実機に触れることができるみたいなことも、いろんな会社から提供はしてるんだけど、
それは全てクラウド上とか使うかシミュレーターを使うかっていう感じ。
これ、鈴枝さんが実際に研究やってるときってそういうの使ったりとかしてる?
僕はもうほとんど数理モデルですね。数理モデルを使う。実機よりは自分、実機っていうのは多分限るんですね。
大きな問題とかできないっていうことには今、そこがロシコンピューターの問題でもあるんだけど。
どういうことですか?
例えば今のコンピューターっていうのはビットが結構たくさんあるんじゃないですか。
もう普通にあって、量子ビットっていうのはなかなか制御も少ししづらいし、外から思えずもすごく敏感で、
超伝導の量子コンピューターとかの場合は絶対温度に近い温度まで下げないと量子性っていうか減少起こらないっていういろんな問題があるんですね。
なるほど、それめちゃくちゃ大掛かりの装置が必要になるとか。
そうですね。めちゃくちゃ冷やさないといけないって結構大変ですよね。でも、もしそこの01みたいなところにノイズが入っちゃうと答え間違って出ちゃうから。
42:02
もちろんそうです。
使えないみたいな。それは問題ですよね。
よく言ってるのは、量子ビットがたくさんあっても正確さがないんだったら意味がない。
ここまで量子ビットが実現できましたって言っても、どのぐらい正確に計算できるかっていうことで、すごくそのコンピューターの良いかどうかっていうのは変わってくるんですね。
そうですよね。なんかせっかくコンピューターで、コンピューターってやっぱり正確でないとダメですもんね、そもそもが。
ある程度のエラー範囲にないと、100%は無理だと思う。100%は多分難しいと思う。ある程度の99%とかそこまでいけばなって感じ。
だからこれからそういう量子コンピューターみたいな、例えばニュースが出たときに結構その辺注目してみたほうがいいかもしれないですよね。ただ早くなったっていうのは言えるかもしれないですけど、
どれだけ正確なのかのほうが結構重要ですよね、それは。
速さは速さで速くなったとは思う。速さを求めたっていうのはある程度問題を解けたっていう話なんだけど。
そっかそっか。精密さの上に成り立ってるみたいな。
そうですね、速さを、例えばこの会社からこういう量子コンピューターがあってこのぐらいの問題を解けましたと。
で、比較してみたほうがいいのは、同じ超伝導の量子ビットの場合でも、この会社でやってる量子ビットの正確さが何%かとか。
そういうふうに多分会社的に少し調べてみると、なんか9ビットでもちょっとこういう差がつくのかなっていう。
だけど今定義をしているほとんどの会社はある程度の正確さが持った上で出してるんだけど、その正確さが重要なので大規模化するのは結構難しいんです。
なるほどな。結構いろいろ、その辺かなり複雑ですね。
しかもそれプラス方法みたいな、さっきの組み合わせ最適化みたいな話も、それを解く方法みたいなのっていろいろありますよね。
組み合わせ最適化問題を解く一番、今一番使っているのはイジングモデルなんですよ。先ほど言ったそのスピンの上か下。
そこが一番やりやすいっていうか、ほぼほぼイジングモデル使った組み合わせ最適化問題っていう話を結構聞きますね。
両子ゲートでも。
そうなんですね。
両子ゲートでもできない、先ほど言ったそのユニバーサルコンタイムコンピューティングでもできなくはないんだけど、そこは一般みたいな方向性を中心として動かしてて、両子アニラとかはもう完全に限られた範囲で一般化ではなくて、組み合わせ最適化問題を解こうとっていう一方方向っていうか、そこで言ってるって感じです。
45:17
今色々調べながら話聞いてるんですけど、確かにイジングモデルが結構メジャーって書いてますね。
イジングモデルは簡単だし、結構いろんな組み合わせ最適化問題そこに移ることが結構しやすいんです。
こういうのって結局シンプルな方シンプルな方に行きますよね、この解く方法って。一番シンプルにしないとコストかかっちゃうしみたいな。
そう。それもある意味でイジングモデルはもう見た目で簡単なんです。
見た目で簡単。
もう見た目で各スピンのネイバリングスピンの間の強さとかと外観計算の輪で成り立ってるモデルなので、結構そのはめると日本はめちゃくちゃ綺麗だしシンプルなんです。
なるほど。こういう実際の組み合わせ最適化みたいなのもそうですけど、これのいわゆるAIみたいな人工知能みたいな話って、こういう計算のシステムの上に成り立つというか、より複雑なことできる可能性とかって出てくるんですかね。
今でも機械学習とか量子機械学習っていう分野も今一応あるんだけど、自分はいろんな論文も出てるんだけど、少し微妙な量子機械学習って、なんか微妙なんですね正直自分個人的には。
微妙っていうと。
将来性なんですね。どこまで持っていけるかっていうことが少し自分的に気になってて、問題解く場合で、例えば谷を考えると一番深い谷を見つけなきゃいけないっていう話にはなるんだけど、
その場合でも機械学習でも、どういうふうにそのグラディエントを求めるかっていうことの話になってきて、で、ブランパというの場合はグラディエントっていうのはそもそも谷でもない山でもないみたいなところに止まると、なかなかそこから学習するのは難しいみたいな感じになるんですね。
だから山と谷でいうとグラディエントだから、山と谷の間みたいなところが結局扱い方が結構難しいみたいな。
そうなんです。そういう場所が結構現れるので、その問題をどういうふうにうまく解くのかっていうことで、いくように将来性が変わるんではないかとちょっと思って。
48:05
でも適する適さないはちょっとわかんないですけど、多分最初の量子アニラがいいのか、そのユニバーサルのほうがいいのかみたいな、適切な方法みたいなのが変わってくるわけじゃないですか。
そうですね。
だからそこの使い分けっていうことですよね。それが機械学習だともしかしたらまた違う方法のほうがいいかもみたいな。
ほぼほぼ今、量子機械学習っていうのはゲート型のコンピューターでやってて、ほぼほぼそこを向いてるんですね、正直言うと。
ゲート型でも超伝導もあって、光も一応入ってきたりとかするんだけど、いろいろこういう話が結構広がっていくんですよ。
あと一個気になったのが、最初のほうにアーキテクチャって言ってた超伝導とか光子使ったやつとか、そこの、そこでどれぐらい変わってるんだろうみたいなのって。
例えば、超伝導と光子のアーキテクチャを2つ比較してみると、大体は超伝導の場合は先ほど言ったように、一番の重要な点は絶対温度に近い温度まで下げないと量子性が出てこないっていうことであって、
光の場合っていうのは常温でも動かすことができる、光なので。
温度が全然違うんですか。
常温でも使えるかどうかっていう話になると、将来性を考えると光のほうがいい。だけど、制御が難しい。
制御が難しい。確かに僕が今までイメージしてた量子コンピューターって超伝導のほうのイメージだったかもしれないですね、そういう問題点で言うと。
そっちのほうが多分一般的なイメージでありますよね、きっと回路があったときにそれをめちゃくちゃ冷やさなきゃいけないとかって。
大規模化は光の場合は少し難しいっていう点はありますね。
結構ちっちゃいのだとできるみたいなそういう感じなんですか。
ある程度は今あると思う。正確な数字はちょっと覚えてないんだけど、今でも東大でもあるし、東大でも先生たちが研究をしてて、そういう工種を使ったシミュレーションとか実験とかもやってるので、
どこまでキュービットが持ってるかっていうのはちょっと今正確には覚えてないです。
でもそれもまた精度とかも含めて。
将来性に言えば自分が光には期待をしたいんです。
そうですよね。今の話聞くとそうですよね。そこの温度の制約かなり大きいだろうし。
光は大きな利点もあるんですね。常温で制御できるかどうかっていう。
51:03
この制御って光の性質上も難しいみたいなことですか。
ゲートの場合ってどういう風な計算を光でやるかっていうこととかの話もなってくるんです。
例えば今のエンドゲートとかノーゲートとかはどういう風に光で実現するのかっていう話も結構なってくるので、光っていうのは物質のあれなんだっけ。
光をどうやって使ってそういうゲート計算をするのかっていう話だったり、
どのようなレーザーを使う場合はパルスで表すのかとか。
そっかそっか。光の何をもってさっきのゼロイチみたいなのを表現するかというか。
それも入ってくる。
なるほどな。難しいなこれ。
光は個人的にもちろん利点はあるんだけど、なかなか大規模化はちょっと難しいかなってちょっと思う。
でも最終的にこの量子コンピューターを本当に実現しにいこうってなったら、そこの規模というか。
そもそも小型化しないといけないですよね。さっきの超伝導でいうと。そこも結構課題なんですけど。
ここまでお聞きいただきありがとうございました。
サイエンマニアはあらゆる分野のゲストをお呼びし、世界を探求していくポッドキャストです。
番組やSNSのフォロー、感想などいただけると嬉しいです。では次回もまたよろしくお願いします。
52:51

コメント

スクロール