1. となりのデータ分析屋さん
  2. 82. NVIDIAのAI論文!普通のRA..
2024-09-18 27:39

82. NVIDIAのAI論文!普通のRAGと違う?長文理解のために人間らしい学習をするOP-RAG【小島よしお】【LLM】

In Defense of RAG in the Era of Long-Context Language Models

https://arxiv.org/abs/2409.01666


この番組から発足したイベント「AIのビジネス活用をどう進める?SoftBankとDeNAの挑戦と成果」はこちら!

connpassで「DeNA ビズアナ」で調べても出るよ!


番組の感想や、質問はXから「⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠#となりの分析屋⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠」もしくは、以下おたよりフォームからお寄せください! ⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠https://forms.gle/1Qq3cfqYgVXgs5Qr6⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠


=========================

▼書籍の購入はこちらから 超入門 はじめてのAI・データサイエンス(培風館)⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠https://amzn.to/3R3aI9g⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠


=========================

▼りょっち 第3回Japan Podcast Awards受賞Podcast「⁠⁠⁠⁠⁠佐々木亮の宇宙ばなし⁠⁠⁠⁠⁠」はこちら! X (⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠@_ryo_astro⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠) Instagram (⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠@ryo_astro⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠)

▼たっちゃん X (⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠@⁠⁠⁠⁠⁠tatsuki_2022⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠)

サマリー

NVIDIAの最新研究で提案されたOP-RAGは、長文理解における情報処理アプローチを改善する論文です。この研究では、文脈の順序を保持しながらラグを進める方法が詳しく説明されており、関連付けを通じた学習の重要性が強調されています。OP-RAGでは、人間のような長文理解を可能にする新しい学習手法が紹介されています。この手法では、文脈をつかみながら情報を体系的に処理し、従来の手法との違いやその効果が述べられています。OP-RAGのコンセプトは、従来のRAGとは異なるアプローチで長文理解における人間らしい学習を強調しています。また、このエピソードでは、プロンプトエンジニアリングやアルゴリズムの影響についても議論されています。

小島よしおの紹介
はい、オッパッピー、ちんとんしゃんてんとん、ちんとんしゃんてんとん。
えっ、小島よしおってクイズの人じゃないんですか?
小島よしおはクイズの人からさらにアップデートされて、今は子供の教育系の人ですから。
本当に遅いよ。もう、海パンでオッパッピーを叫ぶ一発屋の人だと思ってるところから、
クイズでアップデートしたと思ってるかもしれませんが、今は子供に大人気YouTuberですから。
知らないわ、それは。
そうな。
政田大学卒業。受験戦争に巻き込まれて、謎に学歴だけつけてしまったみたいな、なんかそんなのをね、言ってた。なんかで見た気がする。
もう、全然小島よしおのアップデートはできてないよ。めっちゃすごいんだよ。子供人気。
いいのよ、別に小島よしおの話は今日は。
でも、今回はラグ。みんな大好き。データサイエンティスト、AI好き、LLM好き、大好きなラグですね。
はいはい。
ラグの中でも、NVIDIAのリサーチャーから出た論文で、OPラグってやつだった。オーダープリザーブラグ。
はい。OPね。
そう、OP、オーシャンパシフィック。だからオッパピーね。
そう。
なんか、なんか簡単に言うと、めちゃめちゃ長い文章を読むときに、オーダープリザーブしましょう。つまり、順番を保持しながらラグを進めましょうっていう論文が出てて、こういう仕事してえなみたいな。これアイデア勝ちすぎてかっけえわっていう、そういう研究。
かっこよかった。スマート。
あらゆる超優秀なやつが会社にいる中で、このなんか謎解きっぽいかつ効果的なもの出したら超いいよね。
シンプルだけど一番いいってかっこいいっすよね。
かっこいいマジで。
その論文がどんなものなのかっていうところをちょっとお話ししていく回にしていこうと思ってます。
でも今回はコワーカーさんのXのツイートから派生したっていうところで、セヤさんマジでありがとうございます。ぜひ最後まで楽しんで聞いてください。どうぞ。
隣のデータ分析屋さん。
この番組は隣の席に知らないことを気軽に聞けるデータ分析屋さんがいたらいいなぁをかなえるポッドキャストチャンネルです。
データアナリストのりょっちです。
データサイエンティストのたっちゃんです。
時代はラグですね。
RAGか。
SAGAよ。
SAGAな。
こないだこれでちょっと会社でジェネギアを感じてさ。
今の新卒の世代の子たちはもうSAGA、SAGA知らないんだよ。
花輪が泣くぞ。
花輪、あの世代の人にとっては花輪は柔道頑張ってる息子のパパだから。
にっぴれ効果じゃないですか。
だからもう柔道の人だと思ってる。花輪のこと。
あとナイツの兄弟と柔道のお父さん。
一世を風靡したのにSAGAで。
知らんよそんなのはもう。
そしたらきっと残念とかも知らないんでしょうね。
マジでやばい。
親がなんかわけわかんない古いドラマとか見てるのすげー寒いなーと思って見てたのが、もう来てます。そこまで。
つらーつい最近ネットフリで極戦見始めたのに初期の。
アマプラでしょ?
アマプラか。
初期のやつ全部見た。
まっ通常のやつね。
あれに憧れてたから。高校生になって一人暮らしできると思ってたから俺。
一回は憧れるわ。
そんな中でよ。
時代はラグですよAIの。
こないだ4つ前ぐらいで話したグラフラグのエピソードがめちゃめちゃ伸びてたんで、
ラグをどうやって性能高くラグを運んでいくかみたいな。
どうやって作っていくかみたいな。
ところの、グラフ構造にすると普通のラグよりいいよっていう話をしたじゃん。
検索とかもよくなるよって話だったよね。
それとは別のアプローチがNVIDIAのリサーチャーから出てたから、論文として出てたのね。
ちょっとそれを紹介していこうかなっていう。
ちゃんとね、ポッドキャスト深めにいくって言ったからさ。
論文の話とか盛り込んでね。
今日本当はね、サウナデータ毎年こう。
楽しみにしてる人いると思ったからサウナデータ読んできたのに。
サウナデータボツになりました。
収録するまでもない。
そんな浅い話はしないっていうね。
結構な95度くらい熱々のサウナできてたんだけどな。
95はちょっとぬるめじゃない?
もっと高めか100度超えなきゃ。
100度超えてほしい。
14度キンキンのね。
100度超えのキンキン水風呂で。
ダメか。温度足りんかったわ。
まあでも逆にもう熱々の鉄板ハンバーグジョークを今日はお届けしようと思うんだけど。
はいはい。
ラグの性能を上げるOPラグってやつが出たんだよね。
OP?
OPラグです。
オーシャンパシフィック。
本当に?OP?
もう進まなくなっちゃうじゃん。
オーシャンパシフィックって言ったらもう小島芳生出てきちゃうじゃん。
論文のタイトルが
長文処理の新アプローチ
In Defense of Lag
In the Era of Long Contextual Language Model
だからまあ、ロングコンテクストランゲージ。
長いテキストをどうやって処理する、処理しますかラグでっていう話。
はいはい。
例えば、世の中に長い文章なんていくらでもあるわけですよ。
それこそ観光庁から出るような書籍もテキストもそうだし、書籍もそうだし。
で、書籍とかあとは異常に長い論文とかもそうだよね。
レビュー論文とかって本当に200ページとかたまにあったりするじゃん。
ありますね。
で、それって時代背景も含め時系列の流れとか
最初から最後までで何かしらのストーリーがあって
一本の話題の流れが載ってるわけよ。
そうなった時にそれをLLMに処理させるラグに落とし込む時に
工夫しないと情報量が膨大すぎて検索性下がるし
むずいよねっていう課題があるみたいな。
何の情報が重要で何が重要じゃないかってところを
AIのモデルが理解しにくいみたいなところだよね。
そうそうそうそう。
だからそれをちゃんとロングコンテキストの文章を
精度良くラグにぶち込むために
どういう風なアプローチをすればいいかっていう論文が
一発の頭にNVIDIAのリサーチャー達から出たと。
それはそれは有用そうだな。
そう。これがメジャーな流れになるのかで言うと
どうなんだろうっていう話はあるけどアプローチとしては面白い。
どんなもんかって言うと
簡単に言うと本とかって上から下に1章から8章まで流れがあるんだから
その流れをちゃんと組んだ学習の仕方しようよっていう話。
なるほど。
結構シンプルじゃん。
シンプルだね。
でもそういう順番、読み込ませる、再学習させる順番っていうのが
どれだけ大事かっていうのが話されている論文だけですよ。
概要欄に貼っておくけど。
手順としては長いコンテキストのものっていうのを
何かしらのサイズで区切って
その1個1個の塊をまず学習していく。
ラグにしていくっていうところだよね。
で、分割されたそれぞれの塊ごとの関連度合いを計算する。
それはモデルが勝手に計算するの?
そういうモデルを作っていくっていう感じね。
で、じゃあ8個章があるとか
サブセットというか見出しまで含めると
じゃあ50個あるってなったときに
50個の組み合わせがあるじゃん。関連度合いの。
で、それの関連度合いが高いものっていうのを
学習の要素としてさらに取り込む。
第1章の1節目って
1節目で話してることって
第6章の内容と関連強いよねっていうところとかを
つなげていく。
それで関連度合いを見せることで
コンピューターが検索しやすくなる。
そこまでは結構今までやられてきたことで
その関連度合いでつなげたものたちっていうのを
元の順番に並び替える。
つまり元の書籍の流れにもう1回組み直して
あくまでここの関係性はあるけど
書籍全体の流れはこうだよっていうのを
もう1回ラグに教えてやる。
分割して関連度合いで
クラスタリングとかくっつけるみたいな感じをして
その関連度合いの情報を持って
そのままもう1回本の元々の順番にギュッて戻す。
そうすると書く見出し、書く章、書く説の
関連性を持った状態で元の文章の順番の情報が
さらに上書きされていくみたいな感じだね。
これを入れ込むことで
この情報をそのままLLMに入力として
ラグに読み込ませることで
回答の質がめちゃめちゃ上がったっていう話。
このアイディアが結構目新しいよねっていうところで
面白い論文として紹介しようかなっていうふうになった感じ。
その順番が大事だったんだ。
結構変わるんだよね。
性能というかその質関数みたいなのを書いていこうとすると
大体5ポイント以上ぐらい精度が向上する。
そうなんだ。
そもそもラグを学習するってところでイメージが自分あんまり持ててないんですけども。
はいはいはいはい。
ラグっていう技術があるのは知ってんだけど
学習方法の理解
どうやって学習するんだろうっていうのはあんまり分かってないんだよね。
LLMのモデルがあることが大前提の話ではあるんだけど
ラグってそもそも言葉として
Resolvable Argumented Generationの略でラグなんだけど
日本語訳させられると検索拡張生成っていう言葉をよく使われるんだね。
その文字は見たことあるね。
LLMっていうそもそもの大前提の言語に対するモデルがある中で
あいつってそもそも汎用的なことを聞いたら汎用的な回答をしてくれるわけじゃん。
スーパー工事園みたいなイメージ。
イメージとしてはそれにオリジナルの情報をバチンって
その中で持ってないような情報をバチンとぶち込んで
その中でその言語能力を持った上で
その中で探索して何か回答を返してくれるっていう
そういうもの自体はそういう感じだよね。
だからつまり検索をする対象っていうのをまず絞らせるっていうところもそうだし
質問したものに対してその文章の中の文脈を拾っていって
回答してくれるみたいなことだよね。
弁護士と喋るみたいな感じに近くて
普通に弁護士のやつって普通に会話できるじゃん。
で、会話できるんだけど
そいつに聞いた時に六方全書っていう本を
そいつらは特別に学習して
そこの引き出しがめちゃめちゃ多いっていう人たちだから
その人たちはその中から情報を得るのに
適したモデルおじさんなわけじゃん。
モデルおばさんでもいいけどね。
っていう状態になってるものを機械上で作るみたいな感じ。
それをどういう文章をどういうふうに得れるように読み込ませるかっていうのが
文章内の言葉をベクトリカさせるのか
一旦グラフ構造、単語ごとの関係性に落とし込むのかっていうところに
ラグのテクニックが入ってくる。
ただの人間に対して六方全書をお前勉強しろよって言うんだけど
勉強の方法をいろんなパターンで組み合わせてみた結果
今回は最初言ってたOPラグみたいな方法で勉強させたらうまくいったよみたいな話。
性能上がるよねみたいな。
六方全書を覚える覚え方もみんな違うじゃん。
受験生によって単語の覚え方が違うのと一緒で
その単語をどの本使うかっていうのもそうだし
類似の単語がめちゃめちゃまとまってる読み方の方が
その人は読みやすいのかもしれないし
レベルごとに後ろに行けばむずいように作られてる方が覚えやすいのかもしれないし
名詞は名詞で固まっててくれた方が読みやすいのかもしれないしみたいな
そういう教科書の読み方をAIくんに教えてあげるみたいな。
それが文脈ちゃんと読もうね、全体の流れちゃんと汲み取ろうねっていうのが今回の話で
単語ごとの意味をちゃんと構造化しようねっていうのがグラフラグの話で
一般のラグはその単語ごとのベクトル表現っていうのを持っておいて
何か質問した時に似たようなベクトルにある質問を
そこのコンテキストから返してくれるみたいな
っていう感じで学習の仕方を変えてあげる。
なるほどね、全体感がわかりましたよ。
で、そんな背景があって学習させていくと
あら不思議精度が上がったみたいな。
人間もそうじゃん、ストーリーを持って覚えると
OP-RAGの効果
一個一個の歴史とかも何年に何があった、何年に何があった
徳川家康みたいな、いろんなベクトルで頭の中で表現されてるんだけど
時代の流れがわかった方が
誰がこの自作やったってなったら
あの人ってこういうのもやってたよね、次の年に
っていう流れの方が機会も読みやすかったっていう話。
わかるわ。
授業を教えるの上手い先生ってストーリー作りが上手いっすもん。
あーそうそうそうそう。
聞いて、一個お話聞いて
そのストーリーで頭に入るからなんか不倫落ちで納得感があるとか
そうなんだよね。
結局物事って歴史とかもシークエンシャルな情報だから
ちゃんとシークエンシャルなものをシークエンシャルなものとして捉えましょう。
うんうん。
やってることはめっちゃシンプルなのに
あ、伸びるんだそれっていうのが面白いポイントなんだ。
面白いね、そういうのいいっすね。
いいよね。
賢いっす。
データ分析屋さんがちゃんとアイディアを出したんだろうなっていう背景が見えてくる。
謎解きっぽいよね。
うん。
OPラグっていうのはラグはそのまんまで
OPがオーダープリザーブってなんだよ。
オーダー順番をプリザーブするから
オーダーを保存する。
順番を保存した状態であるラグ。
だからOPラグ。
なんだ、全然オーシャパシフィックじゃないじゃん。
なにそれ。
OPね。
オッパッピーだねそれは。
この論文は結構いい、面白いよマジで。
俺もこういう仕事してえわ。
それはさ、その論文に出会ったら何きっかけだったの?
なんかXで誰かが呟いてたんだよな。
あ、それとあれだ。
このチャンネルの口コミ書いてくれた人よ。
あ、そうなんだ。
で、しかもグラフラグのに反応してくれた人。
ちょっと待ってね。
今探し出すわ。
SEAさん、SEAさん。
SEAさんありがとうございます。
もうコワーカーの一人です。
ガウディっていう会社でLLMアップエンジニアをやられてるらしいんだけど。
ガウディの人ね、俺会ったことあるんだよね。
WEB3系のイベントでガウディの会社のビジョンみたいな、ファンとともに時代を進めるみたいなのでWEB3系のスタートアップなんだけど。
今の時代やっぱコミュニティとかそういったところがめっちゃ大事だしWEB3のサービスとかも裏にちゃんとサービスごとのコミュニティがあってとかってめっちゃ大事なところをちゃんとサービスとして提供するというか。
ファン国家を作るみたいなところをビジョンとして進めてたりする会社なんでね。
面白いね。
そこでLLMとかのLLMアップエンジニアをやられてるっていう方なんで、相当多分スペシャリストなわけよ。
っていうので、グラフラグに反応してくれて、おもろそうな人いるなと思ってフォローしてて、その人が発信した内容を見て、おもろ!と思って論文読みに行ったって感じ。
なるほどね、ほんとだ。いいね、しとこ。
最新の論文追うっていうのも結構難易度、コツがあるじゃないですか。
でもね、だいぶ解消されたと思うよ。
GPT-40とかは1回ちゃんと検索挟むから、昨日とか1週間とかの中で、例えばメディアとかを指定してとかでもいいし、今回論文読めたらアーカイブだから、
アーカイブの中で出たやつで、面白そうなやつ5個見つけろって言ったら返してくれるから、これ別にパワープレキシティでもできるんだよね。
そっかそっか。LLM使って楽になったってことですね。
そうそうそう。
それが今は一番いいのかな。
しかもそれで予約もしてくれますもんね、アブストラクトとかも全部。分かりやすくまとめてくれますよね。
その時のコツとしては、論文とかってDOIって呼ばれるIDとかがあるんだよね、論文、ペーパーごとのというか、その論文ごとにDOIみたいのがあって、
そのDOIもちゃんと教えてくださいとか、接続先のリンクを教えてください、あとは出版元を教えてください。
で、出版元プラスその出版元から出てるやつが、
茶読論文なのかどうかっていうのも判断してくださいっていうのを絞ると、結構クオリティの高い返事が返ってくる。
そっか。いい論文、悪い論文がもうめちゃめちゃあるから、その中でフィルタリングしてくってことですね。
で、その情報が全て揃っているものだけ提案してくださいっていう指示を出す。
ああ、大事だよね、それね。
そう。で、例えば、それの1個でも書けるやつって、少なくともLLMが検索できる範囲でないってことは、怪しさが若干増すから。
だから、そういうのは除外してもらって全然大丈夫。
そうだよね、なんか最新の論文ってそのリファレンスが引用が少ないから、当たり前だけど最近出たばっかりだから、
その論文の品質っていうところを測る指標がいまいちないっていう課題感あったけど、今の話聞いたら、
プロンプトエンジニアリングの重要性
最低限必要な情報を揃っている論文をフィルタリングすることで、まあいい論文でしょっていうふうに当たりをつけるってことですね。
あと、今のこの俺の説明の仕方も結構ポイントがあって、
これ、GPTとかのオープンAIのプロンプトエンジニアリングのコツみたいなページがあるんだけど、
そこで、何々しないでくださいって命令ってLLMめっちゃ苦手なのね。
LLMのモデルって、質問投げたときに、無限通りあるところから物事を判断して持ってくるわけよ、情報を。
つまり、禁止の言葉を使っても、無限分の1のパスを切るだけなのね。
ああ、なるほど。
だからそうじゃなくて、この条件に合うものだけ出してください。
ってやると、四字章みたいな考え方じゃなくて、もう限定された区域の回答だけしてくださいみたいな形にすると、性能が上がりやすいというか、回答の質が担保されるみたいな。
ベンズ書いていくイメージですね。
そうそうそうそう。
重なるところだけをっていう。
だからプロンプトエンジニアリング工夫するときも、今の論文の、さどくなしのものは排除してくださいじゃなくて、さどくが必ずあるパブリッシャーから出ているものにしてください。
DOIを持っているものにしてください。
で、何ヶ月以内のものにしてくださいっていう、有限なもので区切っていくっていうのが大事。
意外と大事ですね。コツとしてめちゃめちゃ重要な気がしますね。
スラックのボットとかにしちゃえば、毎日スラックに飛んでくるけど、別にそれぐらいの検索だったら、コピペでべちってやって、1週間に1回論文さらっても全然いいし。
もう一気にハードル下がってるっていうのは、その通りだな。
あとは分野絞るっていうのも大事だね。
あんまり検索の範囲内に、俺はラグで検索するみたいな、そのラグに関するペーパー調査するっていうのが俺の範囲にないから、多分この論文はX上でそうやって書いてくれてなかったら多分気づけなかった。
ありがたいですね。そういう新しい発見をするっていう意味でXは大事ですね。
アルゴリズムとSNSの影響
そうね。アルゴリズムを絶対に染めないように行動してるからね。
Xのアルゴリズムに乗らないようにしてるんですよね。
そう、ちょっとエッチな漫画とか出てきた時に、それの続きを読むか読まないかの葛藤を自分に勝つみたいな。
なんかX最近、質の悪いショート動画みたいなのめちゃめちゃ回ってきません?
それは質の悪いショート動画にトラップされてる結果だから。
そういうこと?
それはもうダメ。自分の行動を是正した方がいい。俺のには出てこない。
画面に表示されてる時間とか絶対あれですよね。
撮られてると思うよ。
撮られてますよね。困ったもんだよな。
怖いんだから。YouTubeとかUGCコンテンツみたいなファンが作った切り抜きコンテンツがたくさんあるYouTuberの動画を、
ショート動画を1回再生した時の感染力がえぐいから。
だからcom.のショート動画が回ってきた時に、いかにその再生時間を短く縦にスライドするかが、
自分のアルゴリズムを変更させない対策としてめちゃめちゃ大事。
気持ち最適な状態にしておきたいですよね。
SNS関連全部そうだけど、アルゴリズムとの戦いだから。
すごいからマジで。ファンの多いYouTuberの1個ショート動画見たら知らん投稿者の死ぬほど切り抜きいろんなテイストネスがブワーって出てくるようになっちゃうから。
分かるわ。
逆にだから強いんだけどね。
そこらへんの話もしたいよな。どんなアルゴリズムなのかみたいな。ちゃんと公開されてるわけではないけど。
まさにそれを話すよ。次回は。
あ、そうっすか。全然計らずとして宣伝みたいになっちゃったんだけど。
次のエピソード公開のタイミングからだと、大体1ヶ月後とかがアメリカの大統領選挙なわけですよ。
そうね。盛り上がってますもんね。
前回トランプが大統領になったタイミングで一番注目されたのって、SNS戦略というか。
SNSの中で相手側に不利な情報が異常に拡散されたっていうような背景も実はあったりする。
だからそれってなんでそんなこと起きちゃうのっていう、フェイクニュースとかの科学の話。本とかでいろいろ出てるから。
で、それって俺が普段やってる計算社会科学とかネットワークサイエンスとかとめっちゃ密接に関わってるから。
その話を整理しながら、特に前回の大統領選を整理しながら、今回の大統領選でこういうことが起きるとこうなりそうだよねみたいな話をしようかなって。
もうね、SNSありきの大統領選ですからね、この時代は。
でも前回の前回か、大統領選、トランプが当選した時のよりも、Xのアルゴリズムが変わって、正直同じような現象が起きたら、どっちかが大差で負けるっていう状態になりやすいなと思ってるのね、俺は。
そうなの?
あくまで予想だし、前回と同じだったらっていう話ね。
はいはいはい。
やってるんだけど、じゃあ何でそう思うかみたいな話を次回しようかなと思う。
面白そうだな。
っていうので、フェイクニュースの科学とかプロパガンダみたいな、そういう文脈でちょっと面白い本も紹介しながら話していこうかなと思います。
楽しみにしてます。
はい。
隣のデータ分析屋さん、今回も面白いと思ったらフォローレビューよろしくお願いします。
番組の感想や質問は、ハッシュタグ、隣の分析屋。
隣のがひらがなで、分析屋は漢字でお願いします。
また、概要欄に貼ってあるお手紙フォームからコメント寄せください。
ではまた。
バイバーイ。
27:39

コメント

スクロール