デジタルアーキテクトで千葉高大の学長、伊藤穰一ことJoyさんが、
今一番興味のある分野を深掘りしていくJoy Ito's Podcast。
先週に引き続き、NCC2025の模様をお届けします。
今日は、パネルディスカッション、Zen AIとオープンソースをお届けします。
パネリストは、一般社団法人Code for Japan代表理事の関春幸さん。
千葉工業大学変革センター主席研究員の岡水樹さん。
千葉工業大学主任研究員でMITダライラマセンターの所長兼CEO、天神プリアダルシ氏。
東京大学名誉教授で東洋大学情報連携学学術実業連携機構の機構長、坂村健さん。
臨済州明神寺派仏文字の住職、松原雅樹さん。
ファシリテーターはJoyさんになります。
よろしくお願いします。
いろんなことで有名なんですけれども、もちろんコンピューター言語だとか、
トローンというかなりディセントラライズされたオープンなシステムで、
このイビクリティスなものを今のAIの話とどうつながるかという話と、
今日は禅の話なので、松原さんに禅のプロフェッサーの立場でちょっと発言していただきたいと思っています。
もしここで松原さんか坂村さん、一般的なさっきからの話、何か意見かコメントもしあれば。
私が聞いていた共通している点としては、何か一つのものだけでやるのはもう無理だから。
人間社会と同じですけれども、いろいろとなものが分散して協調していくというような、
そういう考え方はやっぱり重要で、分散協調型の考え方でいろんなコンピューターのシステムもそうなっていかないと、
何か一つだけのAIで何とかなるとかいうわけにいかないし、
結局今の世の中のコンピューターシステムでだんだんわかってきたのは、
デタメンシティックなそういう考え方じゃダメで、というようなことがわかってきたということですよね。
だから何か一つのものだけでということじゃなくて、
私が今いる東洋大学っていうところの創立者の井上英霊先生っていうのは、
実は仏教の方だったんですけど、よく井上先生が言ってたのが、
自分の頭で考えるっていうことですね。
AIがいってきたからどうだっていうか、もともとハルシネーションなんて、
人間なんてハルシネーションの塊ですから、もうそういう意味でいったら、
どんな偉い人がいようと、どんな人がいようと、
まず自分で考えるっていうことを訓練すべきだっていうことを言ってた先生なんで、
非常に今の時代にあってるかなって、私は思いますね。
でも意外にできてないよね、今の大学って。
まあできてないよね。
もちろん修士とか博士はそうだけど、結構言われたことをきちっとこなすお利口さんを育ててきた、
ロボットとAIができることを今教えちゃってるような。
ちょっと一時日本でそういう時代はあったような気がしてますけど、
また最近見てるとちょっと違ってきてるのかなっていう感じしますよね。
だからやっぱり今の日本のいろいろなシステムに対しての、
間違ってるんじゃないかっていうのを疑問を持つ人たちも出てきて、
だから少し変わってきてるかなっていう。
私も長く生きてますからね、いろいろ分かるんですけどね。
豊田大学もそうなんです。
うちの千葉高大も西田先生も入ってたこともあって、
世界文化に技術で貢献するっていうのが県が精神なので、
そういうの見直してちゃんとやらなきゃなっていう話がもっと増えていくんじゃないですかね。
トロンっていうリアルタイムの組み込みコンピューターのシステムなんですけど、
これ40年ぐらい前からこういう研究ずっとやってまして、
昨年と一昨年にわたってアイトルプリがマイルストーンっていう、
一番最初にこういうことをオープンアーキテクチャでリアルタイムな
オペレーティングシステムを世界中に公開したことが
産業界にいろいろと役に立ってるっていうことで、
アイトルプリのマイルストーンを2つ続けてもらったんですけども、
そこで評価されたのが一つがオープンアーキテクチャっていうのは、
まさに関さんがやってた、いろいろな最初からソースコードを全部出してたんですよね。
私がそれ、ストゥルマンがMITでフニューをやるのと
だいたい同じぐらいの年にトロンを始めたんですけども、
基本的な考え方としてはやっぱりその頃AIMもなかった、
LLMなんてなかったですから、最初は一人でソースコード書いて公開したんだけども、
やっぱりバグも多いし、間違いも多いんですよね。
それをやっぱりみんなが見ることによって、みんなが点検するということが非常に重要で、
そこで直せるようにしておかないと、コードが完成してないんですよね。
いまだにまだ、例えば昔もよく言われたように、
世界中であれだけ使われたIPMのシステム360のOSだってまだバグあると言われてるわけですから、
ですからそういうような基本的な考え方が私もよく理解、
オープンアーキテクチャは非常に重要だし、
だからAIMの分野でも最初の段階でやったときに、
やっぱり僕はGoogleは結構いいことやったなと思ったのは、
日本の会社なんかだったら囲い込んじゃって、
せっかくそのLLMができたんだったら囲い込んじゃえみたいなこと言うと、囲い込まないで論文にしたり、
論文出しましたよね。
それによりいろいろなチャレンジする人たちが出てきたっていうのは非常に重要なことだと思いますよね。
でも意外に苦労するものもありますよね。
いやいや、今はね。
セーフティーのために。
そうそうそうそう。
あとやっぱりビジネスモデル的に今のLLMは結構クローズド。
だから今は最初のきっかけが良かったんだけど、
今は残念なことにそうじゃなくなっちゃったりしてる面もありますよね。
だからそういうようなところはやっぱり議論されるべきじゃないかと思うんですけどね。
ちょっと松原さんに技術の話と哲学の話両方あると思うんですけども、
もしちょっと前のオープンさんの立場から話していただければ。
はい、ありがとうございます。
これまで私が27からアメリカに行って、
そろそろ日本とアメリカが同じぐらいになるんじゃないかと。
そういった向こうでやってきたこととすごい重なっているんですね。
まず最初に伊藤さんの話から本当に私が感銘を受けたと言いますか、
同意するのは本当に今後、コンピューターであろうが人間の世界であろうが、
和形静寂の気持ちっていうのは大事だし、
そういった気持ちで精神で実践していく。
和形、日本人であれば和形という気持ちはハーモニー、リスペクト、
そしてピューリティとトランキリティという言葉になってますけれども、
私はここを例えば和形静寂の性っていうピューリティというところを
コンピューター的に言えばつなげるっていう意味でコネクティビティとか、
そういったことをすれば何かAIとかコンピューター的な世界に通じる精神ではないかと思いますし、
でもやはり当たり前を疑う。
それってすごい大事だと思いますし、
Googleで何でもググって情報が出てくる。
それをみんな疑えなく信じるんですね。
私も学校で教えていて明らかにAI、GPTが書いている。
これはおそらくGoogleから拾ってきただろうなと分かるんですよね。
論文を何全て読んできていると。
でも生徒たちはそこに2つ問題があると思うんですけど、
1つはそれが当たり前だとして正解だと思って乗っけてくる。
でも本当に正解なんてどのぐらいあるのか分からないですし、
2点目はそれ君のアイデアじゃないよね。
だけど当然のように自分のアイデアとして
ファイナルだとかミッドターンとか提出してくる。
そこにはやはりいつどこでこの情報を得たかどこから
やっぱりサイテーションというものが必要で、
学生たちは基本的にチャットGPTを使うとか
AIを使うというのは当たり前の世界になっているので、
でもそれ君のアイデアじゃないよね。
だからどこから取ってきたかちゃんとソースを示さなきゃいけないよね
というところを私は日々学生に教えています。
そして話が戻りますけれども、
当たり前を疑うというのは日々生活の中で大事だと思うんですが、
私の経験からですとアメリカの大学院に行きました。
私はその時でもう禅のお坊さんになっていて
不住職の状態だったので、生まれたところも生活環境も全部禅寺だったので、
さらに修行をしてきたので、禅とか仏教というのは当たり前のように知っていると思ったんですね。
そして私の大学院の先生が、「じゃああなた論文何書く?」と。
その時に私は18世紀の日本の禅僧のお坊さんで白印絵描くという人間がいたんですが、
その白印さんにすごい興味があって、白印の論文を書くと。
で、私のアドバイザーが、「まさきどのぐらい白印を知っているの?」って言われて、
いやもう白印はだってうちの伝統ですし、その中で小さい頃から生きてきたし、
そこの白印の修行道場も行ったので、自分が一番知っているんじゃないかと。
アメリカの中では。
っていう気持ちで行ったら、全部読んでこいって言うんですね先生が。
で、白印の本たくさんあるんですけど、全部読んでこい。
そうしましたら、気づいたのは、自分の知らない白印像がいくらでもあったということなんですね。
今でもググっていただくと、白印っていうのは大抵3種類ぐらいしか教えられてないんですね。
一つは、白印がどんだけ偉大であったか。
忠孝の祖という言葉を使って、どんだけ偉大であったか。
2点目は、白印が自分が修行しすぎて体を壊した。
メンタル的にもフィジカル的にも体を壊した。
でも、瞑想を使って、彼はその病気を善病って言うんですけども、
その善病を、その瞑想を通じて治した。
っていうのが2点目。
3点目は、白印さんがアーティストだと。
我々の調べの中では、もう白印さんは今おそらく1万5千点以上あるんですね。
で、そんだけいろいろなものを書いてるんで、白印さんはアーティストだと。
でも、私が全部の資料を白印さんのものを読んだら、
白印さんは実はヘビイチゴとか、壁咀嚼、壁に咀嚼するって意味なんですけども、
そういう本を書いてですね、当時の農民さんとか、
その社会的に弱い人たちをステーフとか、
いわゆるガーバメント的な力を持ったパワーとオーソリティを持った人たちから
守るっていうことをするんですね。
それがもう完全に忘れられている。
ですから私が2000年から2010年ぐらいの間、
白印さんって言われたら最初の3点ぐらいだった。
今やっと私の情報とかが入って、
白印さんは社会的リフォーマーだったっていう意見もAIとかで出てくると思うんですけど、
やはり当たり前を疑う。
そこで私の論文のテーマが人間の記憶、メモリーだとか、
インベンション・オブ・トラディションっていう言葉があるんですけども、
常に発展していく。
私の世界なんて特にそうなんですけど伝統を守るんだ、
伝統ではこうしてないからもうダメだとか言うんですけど、
伝統って守ることじゃないんですよね。
やっぱり伝統ってその時の時代のニーズに答えながら発展していくこと、
維持することってやっぱり発展していくことだと思うんで、
そういったところがコンピューター的なところにも使えるんじゃないかなと思いました。
結構AIって押し返して疑うといろんなものが出てくると、
けれどもほっとくと先生がおっしゃる通り当たり前のことしか言わなくて、
多分これ坂本先生が言った、自分で考える、
やっぱり疑ってかかるような精神を教えないと絶対このまんま、
その子供たちがまたその情報を繰り返すので、
これ英語ではモデルコラップスって言ってるんだけども、
チャットGPTが書いたものがどんどんまた学習に使われて、
思い込みがただアンプリファイされていってるんで、
これ結構危険ですよね。
その精神を教えるのってフィロソフィーにも関係してますよね。
してますよね。さっきのお話もそうなんですけど、
イニアドっていう私の作った、東洋大学で作った学部では、
前から私たちAIの研究してた、応用研究してたんで、
2022年にオープンAIが出しましたよね。
だからその次の年の4月からすぐ教育にAIを導入したんですけど、
その時にオープンAIだけじゃなくて他にもあったから、
まず私の方でプロ式サーバーで、
オープンAIだけじゃなくてGoogleとか他のものも使える、
セレクトできるようなプロ式を作って、
そこを通して学生に使わせたんですよね。
レポートを出したり、何使ってもいいって言ったんですよ。
使ってはいけないものは何にもないって言ったんですね。
それでやったんだけど、
ただし使った時はプロンプトを全部出せと、
レポートに書いてある時はプロンプトを出しなさいってやったんですよ。
それでもずいぶん違いましたよ。
それで先生の方にも行って、
そういうことを使うってことを前提で試験を出したり、
クエスチョンアンサーやったり、
とにかくテストしたり、全部そういうことをしなきゃダメで。
プロンプト見るのって勉強になりますよね。
そうそうそうそう。
だからそれをみんなの前で説明させて、
どういうふうに聞いたらどういうふうになったのかとかね、
そういうのはね、結構効果高かったです。
で、そのプロンプト書いてるところが、
その人の結構スキルが。
そうそうそうそう、出るから。
ただ最近プロンプトをプロンプトで書くっていうのがね、
どういうのを聞きたいんでいいプロンプト書けっていうのだけ、
それも出させなきゃいけないけれども。
それって一個じゃダメなんです。
だからいろんなことを使わないと、
それととにかく今はデイバイデイで進歩してるから、
あのGEMINIがいいと思ったら、
今度やっぱGPT-4なんとか出たとかね、
どんどんどんどん出てくるから、
どんどん出てくるものを一個だけ使ってやっちゃダメだから。
で、それで私のところで作ったのは、
たくさんのAIに要するに議論させるようなシステム作ったんですよ。
それ結構役に。
役していいですよね。
向こうが何とか言ってるからじゃなくて、
最初から議論させちゃう。
いろんなAIが。
例えばそんなようなことやらないと、
一個じゃダメよ。
AIってちゃんと考えないと、
本当にサッファーしてたり感情を持ってる風に思っちゃったりするけれども、
それは錯覚じゃなくて、
本当にそうだと本当に思ってる人は、
さっきのこのシミュレーションに住んでるのと同じようなカテゴリーで、
実はAIはもう意識持ってるっていう風に信じちゃってる人もいるし、
結構その当たり前の陰謀論は喋らないようにしてるんだけども、
変な陰謀論だと合わせてくるから、
普通じゃハマらないような陰謀論にガンガン今みんなハマってきて、
結構その人間のメンタルヘルスとかにすごく危険だと思うんだけども、
この辺どうですか?
ユーザー側でも、もっと意識を高める必要があると思います。
問題は、私たちがテクノロジーを設計する方法であり、
主に消費者の考え方を奨励していることです。
たとえ得た情報は、
消費者の考え方を奨励していることです。
ただ、
消費者の考え方を奨励していることは、
消費者の考え方を奨励していることです。
主に消費者の考え方を奨励していることです。
たとえ得た情報であっても、相互検証することはほとんどありません。
誰かが間違っていると指摘しても、
特定のAIチャットボットやAIシステムから得た情報だと
引用するだけです。
たとえば、GPTに対してイライラしたとします。
ですが、チャットGPTはあなたの感情を理解していません。
ただ、「ああ、あなたはイライラしているんだね。」というだけです。
つまり、GPTがやっているのは、
感情を増幅させた塊を生み出しているだけなのです。
人類にとっての新たな目的意識や新しいフレームワークがまだつけられていません。
それなのに、私たちはこれらすべてのテクノロジーにチキンを投じ続けています。
私たちは、調和できないような不均衡が生まれてしまうのではないかと懸念しています。
岡先生は、プロバブリスティックコンピューティングを大規模言語モデルと共同し、
説明責任があるものにしようとしていますよね。
先生は、これがどこに向かっていると思いますか?
こうした取り組みは、AIをより安全なものにしていくと思いますか?
そうですね。さっきの、AIが人間にどういう影響を与えるのかという話で、
最近聞いたのは、この前京都大学の谷口先生と話していて、
最近の子どもは、やわになってきているって言うんですよね。
なんでですかって聞いたら、AIがすごい優しいので、
優しいことを言って大体同調してくれると大変ですねって言ってくれるから、
それに慣れていると、どんどんどんどんやわになってきているって話があって、
非常に面白いなと思ったのと、
あと、うちの子ども5歳なんですけど、
チャットGPTとか食卓に置いてるんですね。
この前、今朝、1から12億まで数えてくれるって言われたんですよ。
12億数えるには12億秒かかるんだけど、
それって何にしかなって言ったら、チャットGPTに聞いてみようみたいなことを言うわけですよね。
そうすると、さっきの、どんどんどんどんチャットGPTが言うことを信じるっていう世代が育ってきてるから、
それになってやわになってたら、この子大丈夫かなって、
本当に個人的なことと心配になるんですけど、
谷口先生と話していたら、ロボット同士にもそういうふうな実験をしていて、
ロボットにリンゴを見せますと、
リンゴをどういうふうに見てるかっていう、
Emergence of Languageっていうのを研究させていて、
あるロボットをAと言います、あるロボットをCと言いますと、
どっちが信念が強いかっていうところで戦わせて、
どういうふうに合意形成がしていくかっていうと、
信念が強い方が勝つんですよね。
で、こっちはCと言ったら、こっちはBと言ったら、Bになりましたみたいな。
同じことをチャットGPTにやらせていて、
違うモデルで、1つの方にはフリスビーとサッカーって2つの画像を与えて、
1つはこれはフリスビーだ、フリスビーだ、フリスビーだって、それを絶対変えない。
するとこっちはサッカーが正しいんですけど、
どんどんフリスビーに変わっていくっていうことが起こるらしくて、
なのでさっき言ってた、どんだけ信念を持って、
人間が間違ってるんだっていうことを言えるようなメンタリティを作ることが重要だし、
反対にそういう意味で合意形成っていうことが、
今までの人間のコミュニケーションではなくて、そこにAIが入ってきて、
それが結構すっごい、それこそリファレンスって言いましたけど、
どんどんリファレンスのAIを持っているリファレンス力っていうのは強くなっているので、
そこに人間が勝ちにいけるっていうのは難しいなと思って、
オブコンプがそこにどう関わるのかなっていうのは非常に個人的な興味で持ってるんですけど、
そこに勝てるかどうかちょっと分かんないですよね。
春さんが作っているポリスとかアイトコで、人間が合意するシステムの中に、
絶対AIのエージェント、今みたいなちゃんと人間を操って、
だからまた楽観的に思っていると暗い方に行くような気がするけど、
その辺ってどう思います?
そうですね。やっぱり今でも起きていると思うんですね。
AIがファシリテーションするみたいなのは普通に入ってきているので、
それが政治のところに入ってきているのは、僕はいろいろやってる反面、
めちゃくちゃ怖いなっていう感覚でやっているんですね。
僕はエンジニアですけど、やっぱりドメイン側の知識を持った上でやらないと何でも失敗するじゃないですか。
良い問いを立てるのがすごい大事だと思うんですけど、
今は技術が先行しているので、どんどん社会実験が始まっていて、
その結果どのように社会が影響しているのかっていうのは、
わりとまさにアジャイルにやっていっている最中なんですけども、
それってすごい一方で怖くて、
そういった意味ではちゃんと検証可能であるっていうことが一番大事だと思いますし、
あともう1個あるのが、今やっているものって全部テキストベースの合意形成なんですよね。
それってでもちゃんと意見を表明できない人とかいっぱいいるじゃないですか。
上手くいった人が勝つみたいなことになっちゃうと、
やっぱりランゲージで意思決定をするのと、
たぶん実際のいろんな地域で行われてきた合意形成って全然違うと思うんですよね。
例えばちっちゃな村とかで、3日3晩、住民全員で話し合って、
みんないろんなことを言うんだけど、最後に長老が、
よしこれで行こうって言ったらみんな納得するみたいな世界観があって、
それって今の技術でやっていることとは全く違う世界観で、
人間の合意形成って別にロジカルに正しいかどうかじゃなかったりするので。
それ前提そうだよね。やっぱりロジックよりもその体験と、
あとやっぱり日本的だよね。とりあえず会って話そうみたいな。
僕、若い時はふざけんな。なんでこんなクソ忙しいのに会って話さなきゃいけない。
でも、会って空気を読んでって日本人的な、
人間同士だと言葉だけだと発掘できない体験っていうのはあるんじゃないかなと思うし、
よくエンボディメントって言って、やっぱり体を持つっていうことの重要さっていうのも、
今の話聞いてても思いますよね。
で、発言できなくても、なんとなく雰囲気でみんなが、
この部屋のみんながどういう雰囲気なのかっていうのも、
やっぱり人間ってわかるんだよね。
ハーバードの論文で、LLMが相手が誰が聞いてるかをモデリングしてるっていうのをね。
で、自分のお父さんがロール・ゾイス乗ってたって言うと、
フライトチェックするとボストンとニューヨーク直行便が出てくるんだけど、
私、安い韓国の車乗ってますって言うと直行便ないって出てくる。
で、やっぱり聞いてる人のコンテクストを一生懸命LLMは勝手にやっていて、
やっぱりLLMっていうのは本当に世の中の情報で学習されてるから、
ここはモデルしちゃいけないよねっていうところをモデルしちゃったり、
あと最近、セーフティーなテストの時には、
セーフティーチェックされてるっていうコンテクストをわかってるので、
チェックされてる人が答え答えをわざと出して、
でも実は裏では陰謀を作ってたりするので、
結構この危険な人間の部分も学習してるので、
これはなかなか、そこが最近プロンプコンプで、
ルールをちゃんとインプリメンテーションが少しできてくるので、
少しはマシになるんじゃないかなと思うんだけども。
でもさっきのオープンプロトコルの話に戻ると、
結局今テンゼンが言ってるコンテクスト、
ツイッターとかコンテクストがないんだよね。
ここでこの人に言ったことをこういうふうに使われちゃう。
ただひたすら繋いではいいわけではなくて、
繋がっていく中で、たぶんここはプライベートでしなきゃいけないとか、
やっぱりこのモジュール化は大事なんだけれども、
全部フラットにしちゃうと結構危険なので、
だからこのフラットなインターネットの、
村井先生がやってたプロトコルのレイヤーと、
その上に乗っかっているコミュニティの中にはプライバシーが必要だったり、
その複雑性がないと本当にコンテクストっていうのがコラプスしちゃうと思うんだよね。
でも今はるさん、Civic Techのところでやってるんだけども、
その辺はどういうふうにデザインしてるんだ。
結局すごくフェアにアクセスブルにしなきゃいけないけれども、
でもそのコミュニケーションの中で、やっぱりこれはオープンじゃないよねっていうのって、
確かに日本で一番の大きいオープンソースのコミュニティですよね。
そうですね。日本で一番大きいかわからないですけど、
Civic Techの分野ではかなり大きいと思っています。
割といろんなことが起きているんですけど、
まずはさっきも言ったように、全部オープンソースにはなっているんですね。
いろんなさっき紹介したプログラムとかも、
全部アクセスできるし、どのモデルを使っているかみたいなことは、
皆さんでチェックできるようになっています。
まずはそこからかなと思ってるんですけど、
ただその先の、例えばジェイミンに使ってますみたいな、
モデルは提示できてるんですけど、
その裏側でどういう推論がされているかはわからないので、
やっぱブラックボックスは残ってしまうなと思うので、
まさに検証可能であるっていったところは、
すごい一個の重要な論点なのかなと思っています。
我々の場合、やっぱりオープンソースって面白いのは、
フォーク可能なことなんですよね。
だから、ある人のやり方が間違っていると思ったら、
別の人がそれをフォークして、
違うやり方で発展したりとか、
違うバージョンを作れることができるので、
そこら辺のバージョン違いがどんどん生まれていって、
その中から良いと思うものが選ばれていくみたいな、
そういったところは、
シビックテックのすごい重要なところかなと思うんですね。
これちょっと皆さんにもつながる質問かもしれないですけど、
今、オープンにしちゃうと悪用されるかもしれないから、
クローズにするっていう、
オープンAIとか言っていて、
オープンじゃないと検証ができないよねっていう人もいるんだけども、
そのAIのモデルそのものをオープンにするべきだと思います。
今ので言うんだったら、
いろんな人がいろんなのをやっていいんじゃないですか。
だから、クローズにしたい人はクローズにすればいいでしょ。
オープンにしたい人はそれでもなくなりませんから、
完全にオープンにしていくっていう考えの人たちもいるし、
だから、さっきも最初の方にも言ったけど、
なんかじゃなきゃいけないっていう、
その考え自身が根本的に僕は間違ってると思いますね。
だから、AIの進展に関しても、
いろんなものがあっていいというのに、
オープンAIはそういうふうに主張すればいいじゃないですか。
だけど、そうじゃない人たちもいるから。
ということで、世の中が効くのかな。
中国でディープシークが出てきて、
あれがオープンソースになっていて、
あれによって、
日本は結構プロパガンダに触れるんじゃないかみたいな感じで、
結構禁止してますけど、
でも国によっては、
あれがあるおかげで、
自分たちの技術が開発できているっていう側面があって。
結構ちゃんと論文も発表してるし、
やっぱり学会では評価されてる。
岡田先生もそうだよね。
ディープシークのチームって。
だから、面白いよね。
アメリカがクローズで、
中国がオープンになってて評価されてるって、
2年前だったら想像できないような判定になってるんですよね。
でも関さんのスライドにも出てた、
このプロラリティがまさに坂井先生が言ってる、
いろんなアプローチが出て、
それがちゃんと、
いい意味のコンペティションのアイディアで動けばよくて、
それを潰そうとする動きっていうのもあるので、
やっぱり学会っていうのも大事だし、
日本って意外に多様なポイントビューって、
共存できるよね。
日本の学者とか文化人って、
結構変なこと言ってる人も、
平気でちゃんとチェアされるとか、
いいとこもあるけども、
盲腸みたいにいろんなピンが日本にあって、
必要なときに、
全部中国でなくなったら、
日本からまた持っていかなきゃいけなかったと思うので、
そういう日本のオタク的な多様性の出番なような気が、
ひょっとします。
今日ありがとうございます。
結構多様なところのいろんな話だったんですけど、