1. 新型オトナウィルス
  2. #192 Google Bard調教中
2023-11-17 27:13

#192 Google Bard調教中

spotify apple_podcasts

AIは概念を作ると古林は考える。 検索AIを修正するために、古林は調教を始めた。 Google Bardのハックは、SEOのハックのようになる気がすると樋口はいう。 Google Bardが認識インターフェースを獲得し、アカシックレコードとなる日は来るのか。 あなたもBardを調教する? 【滉太郎】 「#新型オトナウィルス」でツイートお待ちしております。 【ITeens Labの公式HPはこちら】 ⁠⁠⁠https://iteenslab.com/⁠⁠⁠ 【懺悔・お便りフォーム】⁠ ⁠⁠⁠https://forms.gle/PpWNKHCFNYh1pF1t7⁠⁠⁠ 【COBL】⁠ ⁠⁠⁠https://cobl.app/


サマリー

Google Bardは、Google検索AIの概念を引用して回答するチャットGPTです。バードは、Googleが持っているデータセットを学習モデルに使っている可能性があると述べています。iTunesラボとのやり取りを通じて、Google検索AIの学習が具体化することが期待されています。Google Bardには、バードとChatGPTの違いやAIの学習に関する話など、様々なトピックが取り上げられています。AIが人間の認識パターンに近づくことで、人間のようにストーリー付けや感情を認識することができる可能性もあります。Google Bardは、みんなのバードちゃんとして育てられており、Googleはみんなのバードちゃんだと意識して作られています。また、吟遊詩人としての要素もあり、AIの成長に期待が寄せられています。

Google Bardの概念と学習
スピーカー 1
はい、みなさんこんにちは。今日もあなたにインフェクション、新型オトナウィルス小林です。
スピーカー 2
樋口です。
スピーカー 1
よろしくお願いします。
ありがとうございます。
樋口さん、最近マイブームがございはして、
なんですか?
AIのGoogle Bardっていうやつがあるんですけど、ご存知です?
スピーカー 2
もちろんもちろん。
スピーカー 1
これがなんかね、おもろいんじゃないかと思って、マイブームなんですよ。
スピーカー 2
ただ、俺チャットGPTと、どう言ったらいいんだろう、使い分けがよく分かってない。
結局チャットGPT使う、なんとなく。
スピーカー 1
なんか、俺の印象ですけど、文章はチャットGPTの方がきれいな気がするんですよね。
ただ、Google Bardの何がいいかっていうのを、半分、今日俺のオカルトなんですけど、ちょっと聞いてくれます?
はい、もちろん。
AIって、今時のAIって概念を作ると思ってるんですよ。
まず、Google検索AIがあるじゃないですか。
Google検索AIは、ウェブページとか事柄に対して概念を作っていると思ってるんですよ。
スピーカー 2
ちょっと待って、分からん。どういうこと?
概念を作る?
スピーカー 1
ちょっと待ってくださいね。
例えば、10年くらいの話だと思うんですけど、もともと機械は概念を持てなかったわけじゃないですか。
どうなってたかって、たぶん猫の絵を猫であると判定させるために抽出点を何個か決めてみたいな。
その条件に合わなかったら、これは猫じゃないですっていう判断になる。
ニャンと鳴いたら猫って言ってるから、ウーって鳴いたらこいつ猫じゃねえみたいな判断しちゃうわけじゃないですか。
これを人間が特徴点決めるのをやめましょうと。
ひたすら猫の絵を読み込ませていくことによって、AI側になんとなく猫という概念を1万枚ぐらい読み込ませて、
よし、これでわかったろうと。
AI側が猫という概念をそれを持つわけじゃないですか。
これは猫ですとかこれは猫じゃありませんみたいなのを判断できると。
その時にお前なんでこれ猫って判断したのって聞いてもそれはわからんみたいな感じになる。
っていうのがいわゆるディープラーニングっていうやつだったと思ってるんですよね。
ニューラルネットワークかな。
そこを踏まえると、Google検索AIは1個の言葉に対して概念を作っていると思うんですよ。
Google検索AIの学習方法
スピーカー 2
概念を作っているがピンときてないな。
何でもいいんやけど、かっこいいくて安いくて音がいいギターで検索したら、そういうギターがいっぱい出てくるわな検索結果に。
スピーカー 1
例えば、iTunesラボの例出したらわかりやすいかなと思う。
iTunesラボっていうウェブサイトをAIが見たときに、
例えばこれは子供向けのプログラミングスクールなんだなとかスクラッチとかユニティとかそういうのを教えてるんだなとか
なんとなくウェブサイトの情報をスクレーピングしてテキスト化できると思うんですけど
そこからまずプログラミングっていうタグをつけたりとか
そのプログラミングっていうタグからスクラッチとかITっていうところに線を引っ張ったりとかして
スピーカー 2
で、iTunesラボっていう事柄に対してそのネットワークを広げていくじゃないですか。
スピーカー 1
で、1個iTunesラボっちゃこういうもんっていう概念を作り上げるに至るわけじゃないですか。
スピーカー 2
作り上げている感覚がだからピンときてないな。
なんかタグが似たようなものが集まって検索結果が出ているという感覚なんやけど概念ができちゃうという感じか。
タグの集合が概念。
スピーカー 1
そうですね。
スピーカー 2
一旦それで理解する。
スピーカー 1
で、タグの集合概念だと思ってもらったらいいと思いますね。
で、その概念を作っていると思うんですよ。
で、GoogleバードにiTunesラボってどういうとこって聞いたら
Google検索のAIの概念を引用して回答している可能性があるなって思ってるんですよ。
要はウェブページの文字情報だけで学習しているわけではなくて
文字情報を学習して元に出来上がったその概念情報の方を引用している可能性があるなって思ってるんですよ。
で、一応Googleバード曰くそうですよと言うんですよね。バード曰くなんでわかんないですけど。
で、かつこれもバード曰くではあるんですけど
テキスト情報と別にGoogleが持っているデータセットを学習モデルに
学習元データとして使ってますって話なんですよね。
テキストだけじゃなくて、例えばどういうユーザーから人気があって
こういうユーザーが訪問したときにこのiTunesラボっていうウェブサイトは滞在時間が長いから
スピーカー 2
おそらくこういう人が好きなんだろうとかそういう概念を一緒に作り上げた上で回答をしていると思ってるんですよ。
スピーカー 1
そんな外れてはないと思う、多分。
スピーカー 2
外れてはないかもね。
スピーカー 1
自分がGoogleだったらそういう設計にするじゃないですか。
ここからなんですけど、そこで聞いてみますよ。
じゃあGoogleバードさんとiTunesラボってどんなとこって聞いたときにまあまあ間違うんですよ。
子供向けプログラミング教室でそれなりに正しいこと言うんですけど
会員が1万名いてとかクラスはこういうクラスがあってC言語のクラスがあってとかそれっぽいこと言うんですけど
それ違うよと思ったときに、例えばこれがチャットGPTであれば文章予測結果がこうだったっていう解釈ができるんですけど
バードがこう答えたっていうことはGoogle検索AIがそもそもiTunesラボに対する解釈をミスっているという予想が立つんですよね。
Google検索AIとのやり取り
スピーカー 2
なるほど。なるほど。
スピーカー 1
で、というわけでここから少し俺手を加えていくわけなんですよ。
お前その会員1万名って何を元に言っとるんだと。
言ったらそのiTunesラボの公式サイトで会員1万名って言ってますと。
嘘つけとその言われるねえやねえか。
で、やりとりをしていくとすいませんってありませんでした。
会員1万名はミスでしたみたいな。
会員は過去1万名でしたみたいな。
そういうやりとりがなってくるんですよね。
で、そういうので少しずつ情報をこう違うと思うよみたいなこのリンク先どうみたいのいろいろ情報を渡してみたりとか
一応フィードバックができるんでそれは事実じゃないですよみたいなフィードバック返してみたりとかするんですよね。
で、これでGoogle Birdにとっての学習
Google Birdの学習ってこの場合これがチャットGPTだったら文章予測の学習をしているなという話になるんだけども
この場合iTunesラボについて学習してもらえている可能性が結構あるんですよね。
スピーカー 2
なるほど。
スピーカー 1
で、例えば今度聞いてみるわけですよ。
iTunesラボと関連の深いポッドキャスト番組を教えてくださいって言ったら
iTunesラボの公式チャンネルとあとよくわかんないやつを捏造して言ってくるんですよね。
で、その捏造したやつは事実存在しないぞとかそういうのを教えてあげて
で、ちなみにお前新型オトナウイルスって番組知ってます?聞いたらこうですって言ってちゃんと答えるんですよ。
スピーカー 2
それ見たツイッターで。
スピーカー 1
結構綺麗でしょあれ。
うん、すごい。
で、じゃあ改めて聞くけどiTunesラボと関連の深いポッドキャスト番組あげてみって言ったらちゃんと新型オトナウイルスが答えられるようになるんですよね。
へー。
で、じゃあタルタルソース知っとるかって聞いたらこれもちゃんと答えるんですよ。
じゃあもう1回聞くけどiTunesラボと関連の深いポッドキャスト番組あげてみって言ったらタルタルソースも今度言えるようになるんですよね。
へー。
で、この1個人からのフィードバックだけでそこまで学習をちゃんとできるとは思ってないんですけども
そういった関連付け、要はさっき言ってたタグとタグの関連性で概念を作っていると思うんで
要はそこにタルタルソースって紐付けれるくない?っていうレコメンドをこっちでするわけじゃないですか。
Google検索ウェアに対して。
本当やんそこを紐付くねっていうのをあちら側がしっかり解釈してくれれば
それはGoogleバードとの単純なチャットではなくURLに書いてあるじゃんっていうことであれば向こう学習しやすいと思うんですよ。
スピーカー 2
はい。
スピーカー 1
で、っていうのをちゃんとナッジしてレコメンドしてここをちゃんと結びついているよとか
お前の言っている間違っているところはこのURLに正しい情報があるよみたいのを少しずつ修正してあげれば
バードじゃなくてGoogle検索AIがiTunesラボというものに対する理解が具体化すると思ってるんですよ。
で、今それを聴教するっていう遊びをやってて。
スピーカー 2
ちょっと待って、今やってみていい?
スピーカー 1
はい、どうぞ。
スピーカー 2
コマが、Xでやり寄ったのが公開しちゃったのが
新型オトナウイルスというポッドキャスト番組をご存知ですか?っていうのを書いちゃうね。
俺今見ながら言うんやけど。
で、タルタルソースという番組を知ってますか?って言ったら結構まあまあ答えちゃって
で、では改めて最後エクスタキッズとiTunesラボの関連性について説明してくれって書いちゃうね。
で、コマが聴教したやん。
それの聴教結果が俺に反映されるか気になるね。
スピーカー 1
そうですね、たぶん今は反映されないと思いますね。
スピーカー 2
そっかそっか、だから各個人のチャットによって得た情報を教師データにまだ使ってないのか。
バードとChatGPTの違い
スピーカー 1
そうですね、教師データに使ってない可能性もあるし、ボリュームとして少ないっていう可能性もありますね。
スピーカー 2
これさ、全部1個のスレッドの中で連続してやり取りしよ。
スピーカー 1
それも何回か試しました。1個のスレッドの中だけだと明らかにやっぱり修正していくんですよね。
で、スレッド変えた場合も多少反映されてるかなって思ったことはありました。
ただ、明らかに改善されたみたいなのは今のとこはないですね。
スピーカー 2
なるほどな。
わ、これちょっと面白い。
スピーカー 1
面白いでしょ。
スピーカー 2
なんか概念が違うね。
チャットGPTは確か、その言葉の後に一番発される確率が高い言葉を常に選んで発信してるだけなんよね。
スピーカー 1
確かね。
スピーカー 2
だから、バードとなんとなく違うよね。中小界別が違うよね。
スピーカー 1
そもそものものが違いますよね。
今俺が言ってる予想が当たってればですけどね。
スピーカー 2
えー面白い。
面白いですよね。
それで言ったら、だってGメールとかのやり取りも全部含まれてる可能性が高いし、
Googleバードの収集データ
スピーカー 2
YouTubeの動画の、これね、あれあるやん。書き起こし勤務とか今あるやん。
あれも全部知見として入っていくよね。
はい。
スピーカー 1
Googleに。
YouTubeもやし、Googleマップもやし、アカウントの行動履歴もやし、GoogleアナリティクスとGoogle広告の結果と、
SNSも公開情報を全部読んでるんで、
あと、一応Googleバード曰く、ポッドキャストも全部文字起こしして文字データとして学習はしてるって言ってる。
スピーカー 2
え、言ってる?
スピーカー 1
バード曰くっすね。
スピーカー 2
バードに聞いたんや。
バードに聞いたっす。
お前何が先生っつって聞いたん?
スピーカー 1
それは聞いたんすけど、すげえふわっとしたこと言うっすね。
膨大な量のテキストとデータセットです。
で、ChatGPって何が違うんつったらデータセットです。
データセット法ってなるじゃないですか。
その一口で言ってるデータセットって、何がどこまで含んでるかによってかなり話がでかいじゃないですか。
考えようによるとGoogleが持っている、Google検索AIはYouTubeとかGoogleマップが持っているデータは全部読んでるっすよね。
アナリティクスとかが持っているデータは全部読んでるはずなんで、相互に連携とっていると思う方が自然じゃないですか。
で、一応バードに聞いたらそこは連携はバードとGoogle検索AIとかも連携とってるし、
Google9のAIっていうのはその相互に連携はとっているし、
バードに関してはまだベータ版なんだけども、
それをフィードバックしていく仕組みっていうのは今後開発予定ですとは回答はしますね。
みたいな。
Googleバードの進化と可能性
スピーカー 1
そこはそんなに間違ってないんじゃないかな、Googleに関することを答えてるんで、とは思ってます。
おもろ。
おもろいですよね。
スピーカー 2
面白いね。
スピーカー 1
だから、要は俺がその時に思ったのが、例えばちょっと極端ですけど、
樋口清成って検索したときに、どっかでITinsLabのページが検索にヒットしてもいいわけじゃないですか。
要はこの新型オトナウイルスがあったりとかいろいろ関わりがあるので、
そういうことをしっかりしっかり、いやここと関わりがあるよ、
こちらこういう情報も持っているよ、こういうタグもついているよっていうのを、
本当はウェブサイトの作りとか、ウェブの記事とかドメインとかでしっかり教えていく必要があったと思うんですよ、従来。
で、バードからそれを調教できる可能性が今後増えてきてますよねっていう話なんですよ。
スピーカー 2
なるほどね。
スピーカー 1
要はAIそのものに触れるというか、
今本当はGoogle検索AIの学習に寄与しようとか触ろうって思ったら、
俺らはウェブページでそれをすべきとかウェブサイトでそういう記事を書きゃいいとか、
そういうのでAIそのものを触ることはできたはずなんですけど、
ここまで直感的にAIの解釈を聞けて、そのAIに対して学習を促すっていうことができ得るチャンスは、
これはすごいぞと思っているという話です。
スピーカー 2
なんか怖い。怖いわ。怖いっつうか、どう言ったらいいんだろう。
なんかさ、初期のSEO値めちゃめちゃ横行しちゃったよ、ハックが。
スピーカー 1
なんかこう、H1タグを乱用しまくって、キーワード入れまくって、それをCSSで消して、
スピーカー 2
誤認識させるみたいなことめちゃくちゃやりとったよ。
なんかそういうのがまた出てきそうだね。
スピーカー 1
そうですね、別の方法が。
スピーカー 2
別の方法で、だからGoogleバードに何千台のパソコン使って、
スピーカー 1
なんかこうレコメンドをしまくって、商品の価値を上げていくとかさ、
スピーカー 2
そういうハックがまた出てきて、またイタチゴッコになるんやろうなとか。
スピーカー 1
そうですね、相手がAIなんで大量攻撃は効く可能性がありますもんね。
スピーカー 2
そうよね、あのリンナの事件よね。
リンナっていうか、ツイッターでAIアカウントがあって。
スピーカー 1
なんかそういうのですね。
悪口言うようになるとか。
スピーカー 2
そうそうそうそう、すげえヘイトー的な発言するようになったみたいな。
スピーカー 1
なんかあの、たぶんあれですよね、GoogleがチャットGPTが流行った時に、
やっぱ危ねえってなったっていう話があって、
みんな検索しなくてもチャットGPTに質問し始めちゃうんじゃないかと。
チャットGPTがちゃんと答えれるようになってきたらっていうのがあったので、
結構それ危ねえということでGoogle頑張って、
バードっていうのを作っているとのことなんですけれど、
もしかしたら検索じゃなくてバードに聞く未来が来るかもしれないじゃないですか。
検索のまま行くかもしれないんだけども、
どちらにしろバードを通じてGoogleのAIが、
ITinsLabのことをどう思っているかを知って、
修正を教えて、たぶんそれを本当にちゃんと分析できるようになれば、
なぜこいつがこの勘違いを起こしているかっていうのも、
見ていくことができると思ってるんですよね。
例えばエクサキッズの協賛企業について質問したら、
かなり間違うんですよ。
でもウェブページ何回もこのURLだぞって渡して、
このURLを要約してみろとかそういうのをやっても間違うんですよ。
おそらくですね、これはエクサキッズのそのページのHTML構造の問題だと思うんですよね。
要はこの見出しに対して本文がここでっていう構造が、
検索ボットから読みにくいんじゃないかな。
だからその協賛っていう枠組みの中に、
これとこれとこれとこの要素が入っていますよっていうのが、
HTML上ではっきり再現されてないから、
そういう解釈ができてないっていう可能性が高いなと思うんですよね。
今度逆にそういうところを修正しようっていうのを、
SEOのフィードバックとして受け取ることもできるんじゃないかな、
という遊びをやっているっていうところです。
スピーカー 2
面白い。
ChatGPTは表紙データとして何年までのデータですみたいなことを確か公言している。
Googleバードあるんっけ、そういうの。
スピーカー 1
バード曰く最新のって言ってますね。
スピーカー 2
原稿って言ってます。
原稿なんや。
スピーカー 1
本当に1秒単位で学習できるわけじゃないと思うんで、
そこは上手い仕組みでやってると思うんですよね。
スピーカー 2
なんかもうようわからんことになってきたな。
マジでアカシックレコードや。
スピーカー 1
ですね。
でもこれまたおもろいのが、
ウェブになかったらバードはわかんない。
そうね。
ウェブにないものはバードにはわかんない。
そこも一応学術論文とかそういうやつに関してはおもみづけして重要度上げてるらしいんですけど、
それもバード言うわけなんですけど、
やり取りしててやっぱり気づいたのは、
ウェブにない情報のことは真実とかを判断しきらんなっていうのが結構あるなって思って、
ウェブにとってのアカシックレコードですよね。
スピーカー 2
今はね。
スピーカー 1
でも確かにそうじゃないデータまで収集でき始めるんですもんね。
スピーカー 2
なんか都市伝説レベルやけどさ、
スマホポンと置いていて、
例えば誰かの話をしていると、
コーラの話をしていると検索結果にコーラが出やすくなるとか、
YouTube検索したときにコーラの動画が出やすくなるとかあるやん。
だからスマホ置いているとか、
あとGoogleのスマートスピーカーあるやん。
あんなの置いているだけで実は全部効いてるんじゃないかみたいな都市伝説あるよね。
そのレベルで収集しだしたら、
ウェブ上にないものも取れるよね情報として。
スピーカー 1
確かにそうですね。
スピーカー 2
もしかしたら監視カメラとかも、
セキュリティーカメラみたいなものも、
もしかしたらGoogleとかAndroidとつなげて設置しだしたらさ、
各家庭の情報も取れるかもしれないし。
あとはインターフェースの発展だけで、
全世界スキャニングできるようになるんじゃないかなみたいな。
確かに。
あるよね。
面白い。
面白いと言っていいかわからんけど。
スピーカー 1
またチャットGPTに比べて、
若干口応えがイラッとするんですよ。
AIの認識パターンの進化
スピーカー 2
それも人間を学んじょうけやな。
スピーカー 1
さっき言ってた、
関員1万名ってどこにも書いてないじゃんと言ったら、
去年はウェブサイトに書いてありましたとか言い出すんですよ。
去年のやつにも書いてないって証拠あれば出してとか言っても、
すいません、去年の記事にもありませんでした。
これは削除されたようです。
で、アイティーンズラボが勝手に言ってただけの可能性もありますって言われるんですよ。
イラッとするなお前。
俺のサイトだと言ってねえわみたいな。
スピーカー 2
面白いね。
あとは、今のところ物事をつなげ合わせて認識するって人間の特権やん。
いい例がパッと思い浮かばんな。
AさんがBさんに対してこう言いました。
Bさんは怒りました。
なぜか、なぜでしょうって言った時にさ、
因果関係って人間がストーリー付けするしかないやん。
Aさんが言ったこの言葉がBさんの激励に触れたからですみたいな。
なんでBさんが怒ったかをストーリー付けするのっち結構難しいやん。
でもそれもできるようになるもんね多分。
その認識パターン、人間のストーリーテイイングパターンというか、
それっち因果関係本当はないはずやん。
Aさんが何か言ったからBさんが怒るっち、
現象で言ったら個別と認識されてもいいんやけど、
人間が認識したらそこ繋げて認識されるやん。
それの訓練すればするほど人間の認識パターンに近づいていくと思うよね。
ストーリー付けの。
そんなんまでラーニングしだしたら、
どう言ったんやろな、認識というインターフェースを獲得すると思うよね。
あれ俺なんか、ちょっと待って。
難しい。
スピーカー 1
でも怒っているフリとかはできるようになるでしょうね。
スピーカー 2
認識というインターフェースを獲得したらもう人間になるんじゃないかなという感覚があって。
認識もインターフェースなんよね、どう言ったらいいんやろな。
スピーカー 1
認識か。
スピーカー 2
認識フィルターを通って人間は認識しているから。
スピーカー 1
何かしらのバイアスみたいなものも含めてってことですよね。
スピーカー 2
怒っている状況っていうのは五感の代替品であるカメラとかマイクとかでインプットできるやん。
ただそれがどういうストーリーで繋がっているのかっていうのっち、
機械的なインターフェースじゃないやん。
でもその情報からさらに認識というインターフェースを通して人間の感情とかに
行っちゃうよね。脳の中のその部分に。
だから一回光とか音とかそういう物理的な指標がさらに認識インターフェースを通って脳に行っているよね。
認識インターフェースっていうのをAIが獲得できたらもう人間やなっていう感じ。
スピーカー 1
意味付け関連付けフィルターみたいな感じですかね。
リッピングというかリッピングして関連付け意味付けして格納するみたいな。
スピーカー 2
意味付けか。
そうやね。
認識なんやけどね。
だからだいぶ進んじゃうけど黒い道があるよね。
これただのピクセルデータなんやけど光がこう当たって影がこうできているということは奥行きがあるということを認識するよね人間は。
AIはそこまでできるようになっちゃうよね。
それが物事と物事みたいな歴史上の事件とかいう目に見えないレベルで認識っていうことができるようになるみたいなイメージ。
ちょっとごめん俺もすげーぼやった瞬き。
伝えたいことがあれなんやけどうまく言えないけど。
認識。
まあまあいいや。
スピーカー 1
すごいっすよね。
スピーカー 2
そんなん獲得したらマジのアカシックレコードになるなと思う。
この世の全てがそこに保管されているみたいな。
人間はそこに貯めているデータを正確かつ精度高くかつクオリティが高いものにするための端末になるみたいな感じよね。
スピーカー 1
俺なんかこれちょっといいなって思ったのが仮にそのバードが要はGoogleのAI群があるわけじゃないですか。
Googleバードとみんなのバードちゃん
スピーカー 1
YouTubeとかGoogleマップとかいろいろあるわけじゃないですか。
AI群の対人間インターフェースの代表がGoogleバードになる可能性があるっていう話だと思うんですけど今言われたので。
でもみんなが接するGoogleバードって全部同じものじゃないですか。
これがなんかまたいいなって思うんですけどこれ伝わります?
スピーカー 2
どういうこと?
スピーカー 1
今俺そのGoogleバードとやり取りしてそれは違うよって調教して見てるんですけど、
おそらく世界のどっかで同じようなことをやってGoogleバードに調教している人々がいるんですけど、
みんなでそうやってこのバードちゃんを育てているみたいな、みんなのバードちゃんみたいな感覚がちょっとある。
スピーカー 2
みんなの一つのバードちゃんね。
スピーカー 1
そうそう、みんなのバードちゃんみたいな。
スピーカー 2
これなんかちょっとエモいなって思いますね。
スピーカー 1
Googleだからこそ結局みんなのみたいな感じになっちゃうんですけど、
スピーカー 2
だからGoogleはみんなのバードちゃんだよっていうのを意識して作ってほしいな。
バードって吟遊詩人中見ないよね。
なんで吟遊詩人中見ないのかね。
なんか意味がありそうやけど。
スピーカー 1
なんか詩を書いたりとかそういうのは得意ですとか言ってたっす。
スピーカー 2
なるほどね。詩人なのかな。
面白い。
スピーカー 1
とはいえ今俺が言ってたことはなんかほぼ俺の予想とバード曰くなので、
スピーカー 2
まあまあ信じるか信じないかあなた次第ですみたいな次元のやつですね。
スピーカー 1
そんな感じかな。
今日はこんなもんっすかね。
今回はここまで。ありがとうございました。
27:13

コメント

スクロール