1. となりのデータ分析屋さん
  2. 101. AI使って記事書いてる?..
2025-01-30 37:03

101. AI使って記事書いてる?信用ならないサイトほどAI活用が盛んだと論文で判明【計算社会科学】【イベント】

りょっちの初単著「やっぱり宇宙はすごい(SB新書)」本日発売!宇宙×データサイエンスについても描いてるから、コワーカー諸君も必ず手に取ってくれたまえ。


=========================

▼イベント情報


=========================


番組の感想や、質問はXから「⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠#となりの分析屋⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠」もしくは、以下おたよりフォームからお寄せください! ⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠https://forms.gle/1Qq3cfqYgVXgs5Qr6⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠


=========================

▼書籍の購入はこちらから 超入門 はじめてのAI・データサイエンス(培風館)⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠https://amzn.to/3R3aI9g⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠


=========================

▼りょっち 第3回Japan Podcast Awards受賞Podcast「⁠⁠⁠⁠⁠佐々木亮の宇宙ばなし⁠⁠⁠⁠⁠」はこちら! X (⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠@_ryo_astro⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠) Instagram (⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠@ryo_astro⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠)

▼たっちゃん X (⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠@⁠⁠⁠⁠⁠tatsuki_2022⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠)

サマリー

AIを活用したニュース記事の生成に関する研究が進んでおり、特に誤報サイトでのAIの利用が盛んであることが明らかになっています。この研究は、ウェブメディアにおけるAIの活用状況を把握することを目的としており、結果として人気のないサイトほど生成記事を多く使用する傾向が示されています。この記事では、AIを活用した記事生成がフェイクニュースの拡散に与える影響について考察されています。特に、信頼性の低いサイトほどAIを多く使用し、その結果としてフェイクニュースが広まりやすくなる傾向が見られます。AI技術の活用が進む中で、信用できない情報源はAI生成コンテンツを多く含む傾向にあります。

AI記事の真実と嘘
何が本当で何が嘘か。どの記事が生成AIで、どの記事が人間が作ったのか。
コンフィデンスマンの世界へようこそ。
この間、妻がコンフィデンスマンを見ていたので、横から初めてオリジナルのオープニングを見た。
結構古いけどね。ネトリックスに出てたんだよね。
あ、そうなんだ。だから俺の中ではめっちゃ新しい。
ということで今回は、どこに本当の情報があって、どこに嘘の情報があるのかが分かんなくなってくる
AIによるニュース記事の作られ方。
そしてその偽情報がどこに偏って、どこがAIめちゃめちゃ使ってんのかみたいな
結構怖いお話ですかね。
怖いっすね。あるんだろうなと。
AIの作ったニュースあるんだろうなと思ってたけど
そんなにあるかと。
学術研究で出てるって面白かったでしょ結構。
うんそうだね。しかも論文になってる話ですもんね。
2025年は多分もう本当に見分けがつかなくなってくるよねっていうところがあるから
計算社会科学の研究
今のうちに喋っておこうということで
101回目、神聖隣のデータ分析屋さん一発目でございます。
生まれ変わったんですか我々。
まだわかんないけど。
生まれ変わっていこうっていう気持ちだけは。
意外と調子がいいので
前回の100でも話してると思うけど
割とこのままの感じで
俺らが喋りたいことを
割とね、コアな話だけど喋っていこうって感じですかね。
そうですね。でも全然難しくなかったですよ。
今回。
それも含めて最後までぜひ楽しんで聞いてください。
最後にイベントのお知らせもあるので
ぜひぜひ最後まで聞いてください。
それではどうぞ。
隣のデータ分析屋さん。
この番組は隣の席に知らないことを気軽に聞ける
データ分析屋さんがいたらいいなぁ
を叶えるポッドキャストチャンネルです。
データアナリストのりょっちです。
データサイエンティストのたっちゃんです。
AIでブログ書くってどうなんだろうね。
え?
AIがいろんなものを作っていくじゃないですか。
せいせいAIがね。
そう。ってなった時に
実際にどんぐらいブログとかで使われてるんだろう
みたいな研究が論文で出てたんですよ。
へー、わかるんだ。
その文脈とか
あとはなんかこう独特な書き方するじゃん。
あー。
まあまあまあ。
わからなくはない。
あれをいい感じに
機械学習のモデルというトランスフォーマーベースの
機械学習のモデルで
検知できるようにして
どういうふうに世の中のウェブサイトで使われてるか
みたいなのを分析したっていう論文が
計算社会科学系の論文が出てたからちょっと紹介したいなっていう。
それは計算社会科学の分野の一つというかなんですね。
まあそうね。なんかまあ
結構なんでもありなんだよね。
計算社会科学。久しぶりに喋るかな。
ポッドキャストで。
ちょくちょく何回か出ては来てますけど
いろんな分野が出てくるから
それもブログの記事の分類もそっちに入ってくるんだっていう。
そうなのよ。
この研究知ったきっかけみたいなのがあって
俺が会社で計算社会科学やってるところに
横国の人にも入ってもらってるのね。外部から。
会社の取り組みの中に。
その人が結構
国内の計算社会科学の学会とかの運営とかもやってたりとかして
結構顔が広いというか若手でガーって頑張ってるみたいな感じの人なのよ。
その横国の松井さんって人が
毎月ウェブソーシャル論文読み会っていうのを開催していて
計算社会科学系の論文をずっとこう
みんなで持ち回りで
月に1回論文の読み合わせ会みたいなのをしようみたいな。
有名なカンファレンスとかに出されてるやつとかを一緒に読みましょうみたいな。
そういうのをやってて
毎月毎月やってて
俺も1月登壇するんだけどそこに。
そうなんだ。
12月の1年の締めくくりみたいなのを
ちょっとオフラインで代々的にやれたらいいなみたいな。
普段オンラインでやってるんだけど。
いいなってなってて
じゃあうちのオフィスでやりますかってなって
最近俺イベントをちょくちょくやってるじゃん。
あれの枠組みで計算社会科学の特別論文読み合わせセッションみたいなのをやったのよこの間。
この前やってきたのね。
そうそうこの間やってきて
DNAとサイバーの共催でやって
DNAもサイバーも計算社会の取り組みやってるからそれの話して
でいつもの論文読み合わせ会みたいなのやってってなった時に
朝日新聞の人が持ってきた論文がこれだったの。
AIがどれだけ世の中のウェブメディアで使われてるかみたいな研究。
面白そう。
社内需要があったんだって。
世の中でどんぐらいやっぱ記事生成にAI使われてるのかなみたいな。
朝日新聞だからさ。
新聞社の中でもウェブ媒体で出すものもあればってなるから
AI活用の道筋みたいなのもやっぱ考えなきゃいけないわけじゃん。
でなった時に朝日新聞の中にいるデータサイエンティストなのかな
エンジニアなのかなみたいなその人に相談が来て
ウェブサイトにおけるAIの利用
調べてみたらこういう研究あったみたいな。
そうなのね。
じゃあその研究自体は海外でやってる研究ってこと?
そうそうそうそう。
これね結構面白くて
ちょっと時間軸で言うと若干もう古めっちゃ古めなんだけど
結構掴むのには面白いなって思ってて
そのチャットGPTの3.5出たぐらいの時に
バーって出てる文章たちを研究対象にしてるっていう感じなのね。
で、期間が研究の期間が2022年の頭から
2023年の5月とかまで。
で、チャットGPTのリリースがあったのが
22年の11月?
もうそんな前なんだね。
そうか。そんな前。
でもなんかあれ?
2年くらい前か。
そうね。この番組始まった時は一応もうあったよね。
あれ?違うっけ?
いや、そうです。23年の4月からやってるから
22年の10月、11月にチャットGPTリリースしてるから
うちらの方が後ですね。
そのぐらいの時にバーって出てきて
じゃあそっからメディアの中でどれだけAI活用が使われてるか
みたいなのの研究が行われたわけよ。
結構大規模にやってて
サイトの数はニュースウェブサイト3074個のニュースウェブサイト。
で、その中で展開されている1500万件の記事を分類するっていう感じ。
かなりボリュームがあるね。
そうそうそう。で、このニュースウェブサイトの中にも
ワシントンポストとかニューヨークタイムズとか
そういう主流メディアのものと語報サイト
もうなんかフェイクニュースとかがめっちゃ含まれてるっていうのが
ラベリングされてるリストみたいなのがあるんだよ。
それで分類を3000サイトを分類するの。
で、どっちでどのぐらい使われてるかみたいなのを比較する研究なんだよ。
なるほど。
そうすると結論言うと語報サイトの方がめっちゃAI使うっていう。
ありそうだね。めっちゃありそうだね。
語報サイトの方がめっちゃAI使うし
あとは人気のないウェブサイトほど合成記事使うんだよ。
なるほど。どっちなんだろうね。
にわとりたまご的に人気がないからなのか
AIで作った適当な文章だから人気がないのかっていうのもあるけど
なんか正直この差はなんだろうな
フィロソフィーみたいなもんだと思ってて
メディアのカラーみたいなのがあって
多分主流のめっちゃ有名なメディアって
社内のレビュー体制とかもめっちゃ綺麗に整ってたりもするだろうから
ちゃんとワシントンポストっぽい形にするとか
っていうのが決まってるからこそ
AIで書いた雑な記事っていうのが上がってこないっていう話もあると思うね。
そうだよね。その道何十年とかの記者が
書いてるものを一気にAIに置き換えるっていうのも簡単な話じゃないと思うし
その人のプライドもあるだろうし
っていうのがあるからマッサーが生まれてんじゃないかなっていう気はするんだけど
けどやっぱまず大きくフェイクニュースとか含まれてる
誤報サイトと主流メディアっていうところで
誤報サイトの方が生成記事めちゃめちゃ多いよねっていう話
があってなおかつその中でもランキングが低いようなウェブサイトの方が
さらにそういう記事を作りやすいっていうダブルパンチ
すでにあるってことなんですね。
そこにまず驚きですね。AIを使って記事を書いて
しかもニュース記事も入ってるって話だから
それがこれはAIで書いてますっていうのが特になく
それの中にあるってことに驚きです。
これでも結構面白くてアプローチが
AIとかがめっちゃ流行る前って自然言語処理とかバートとか使ってたじゃん。
バートってGoogleだよね?
バートはGoogleのモデルなのか?
確かにそうなった気がする。
そのバートをベースにしたトランスフォーマーを組み込んだ機械学習モデルの
Dバータっていうのがバートの拡張モデルみたいな。
あるねバートはいっぱい拡張モデルあるよね。
各分野ジャンルに適応させてるバートでなんちゃらバートとか
バートの前後に頭文字みたいなのつけたり
その派生系がいっぱいあるっぽくて
それに生成AIの記事を検出するモデルを組み込んでいく。
だから生成AIで作った文章とそうじゃない文章を自分たちで用意して
このバートのDバータモデルにバーって読み込ませると
AIの癖みたいなのをこのDバータが検知できるようになってくる
っていうモデルを作って
でそれを世の中にあるいろんなメディアに対して
ビターンって当ててあげるっていう風にやって
さっきの数値観みたいなのが出てくるんだよね。
そういうことか。
合ってるもの合ってないものもあるとか
外しちゃってるものもあったりするだろうけど。
Dバータの一応精度は
Dバータの精度がでも結構ちゃんと保証はされていて
9割以上、9割段部とかの精度ではあったはず。
なるほどね。
ちゃんと検証データとかに当てて
どれくらい反過性のあるかみたいなのをチェックした上で
実際の分類にかけてるから
そこの精度は担保されてるよっていう結果ですね。
そうね。1%の擬応成立。
で、平均的な精度だと99.2%
ほぼ分類できるんだ。
3.5とかまでだけどね。
だからAIがめちゃめちゃ便利だよねってなっても
なんだろうな
それが使われまくって
むしろAIが作った記事に騙されるっていうパターンの方が
多い可能性があるってことだよね。
誤報サイトでもめっちゃ使われるし
人気のないところから記事を増産するために
使うとかってなると
信用のならんAI生成の記事っていうのが
出やすくなって
より世の中の情報精度が下がり
っていうのが3.5の時代でそうなってたから
今はもう気づかないぐらいの状態で
俺らの周りの情報ってそっちにたぶん浸食されてんだよね。
なるほどね。確かにそうか。
たぶん今の4OOとかO1とかのモデルが
作る記事の方がより人間が書く記事っぽくなってきてるわけだし
そうね。
人間からした見分けつかない状態で
かつ量産ができる状態に今
もっともっとなってきてるわけだから
そう。
大変ですねこれは。
そうだからなんかちょっと古いから
信用はなんか違うねっていう捉え方よりも
むしろ当時
表層的にこうなんかちゃんとわかる状態ですらその傾向だったわけだから
たぶん今はもっと恐ろしいことになってるんだろうなっていう
でなんかこうさ
いつだっけこうフェイクニュースの話とかしたじゃん
フェイクニュースの話
フェイクニュースってめっちゃ広がりやすいんだよみたいな
SNSとかでかな
そうそうそう
いつだっけな
大統領選とかと絡めてフェイクニュースが
民衆の声になっていて
そうねそうね
エピソード84だわ
あーそうだよねこの前の
フェイクニュースの拡散
アメリカの大統領選が始まる1ヶ月くらい前だったから確か
そうそうそう
でその時にフェイクニュースの拡散のされ方ってめちゃめちゃすごいって話したじゃん
うんそうだね
だからSNSの性質としてはやっぱり
それも計算社会科学の研究の一つで
フェイクニュース真実のニュースとかよりも
フェイクニュースの方が一瞬での拡散の能力が非常に高いですみたいな
うんそうだそうだ
ってなったからこれってAIがさらにボンって出てきて
フェイクニュースを含むウェブサイトたちが
大量にAIで作った記事とかを作ると
それだけバズらせられる可能性というか
同じ打率だったら
バズる回数が増えるわけじゃん
ってなってくると世の中に
フェイクニュースがはびこりやすくなってるっていう見方もできると思う
なるほどね
さらに追い打ちかけるように
Xではフェイクニュースによる拡散で収益化できるっていうところもあるから
そう
なおさらそういう悪いことしたいわけじゃないけど
面白おかしく情報発信してる人が得せる時代になってるってことですね
世の中の仕組みとして
当時何のインセンティブもない状態ですら
フェイクニュースとかがめちゃめちゃ流行っていた
拡散されやすいっていう状態だったところに対して
さらに拡散されやすい
拡散するインセンティブがXについちゃったから
なおかつ大量生産できるような形になる
ってなってよりフェイクニュースが世の中にブワーっていくみたいな
なるほどね
終わりです
AIの利用とリスク
世界は終わります
そうか別に生成AIのせいではないんですよね
生成AIがフェイクニュース作るのが得意だよってわけではなくて
より生成AIが記事を書けるようになったっていうただそれだけなんだけど
それによってマイナスの側面が大きいだけですよね今
そうそう今回のはフェイクニュースをAIが作ってるかどうかっていうのではなくて
フェイクニュースを多く含むサイトでよりAIが使われているっていう話
そうだよね
だからもしかしたらAIが入ったことによって
その誤報メディアの中に正確な情報が含まれやすくなったっていう可能性もある
AIをたくさん使ったことによって
そうだよね
っていうポジティブな面もあるかもしれないけど
それじゃあ多分バズらないからって言って手を加えるだろうし
考えるとまあまあマイナスの方に働く結果ではあるよね
そうかでもそれと同じように
今一個前の話だと人が作った記事なのか
AIが作った記事なのかを見分けるための別のAIがあるよっていう話もあったと思うんですけど
一方でフェイクニュースなのかリアルなニュースなのかを
ちゃんと見分けるためのAIっていうのも今は使われてるはずで
まあ確かにそうだね
特にXは入れてますもんね
明らかな悪意のあるフェイクニュースはもう表示しないようにしてるみたいな
そうあと注意書き出るよね
うんうん出る出る
だからねそういうなんだろうな
世の中悪い方向に生かすようなところに対しての
なんかディスクヘッジみたいなAIの使われ方はちゃんとできているはずだし
そうねああいう対策をしているかどうかっていうところが
最近のこうさ企業価値を左右したりもするから
トラストアンドセーフティーとかっていう分野らしいんだよね
だからそれで一番割り送ってるというか
情報の質とAI
一番こうネガティブな状態になってるのが今フェイスブックじゃん
そうなんだ
フェイスブックの中にホリエモンとかあそこらへんの名前使って
投資詐欺の広告をバンバン出しても
フェイスブック側が一切規制しないっていうので
本人たちにめちゃめちゃ詰められるみたいな状態になって
フェイスブックの広告ってカスじゃねみたいな
っていうところまでいって
対策しないことが一気にこうマイナスな方向に転がっていくようになってるから
そうだよね
だから各社取り組みをしなきゃいけないっていうのはある
なんか訴訟を起こすとか
フェイスブック相手に訴訟を起こすみたいな話にもなってきてますもんね
確かにね
早かったですねそういう意味だと
ヤフーの口コミで治安の悪さが著しいじゃないですか
確かに
大名詞みたいなもんだよね
日本だとそうだと思うんですけど
あそこも結構早々にちゃんと取り締まりするよとか
あそこに対しての規制って今結構かかってて
相当治安が良くなってきてるって聞きますけど
そうなの?
そうなの?ヤフーニュースって治安が悪いのが良いんじゃないの?
そういうわけじゃないの
ヤフーとしてのそこに対して何かしらのリスクを感じて
なんか措置を打つというか施策を打って
AI使ってるかどうかは別としても取り組みをしてる
そうなんだろうね
ニチャンとかやんなそうじゃんそういうのあんまり
それが売りだからね
でもヤフーニュースも言っちゃえばそれが売りみたいなとこもちょっとない?
売りではないのか
どうなんだろうヤフーがそれを自由にしてたけど
今それ自由にしてるの良くないよねっていう風潮に
ちゃんと気づいてサービスとしてのブランディングみたいなのしてるんじゃないですかね
大事な取り組みですよね会社としては
いや大事でしょ
あとやっぱたくさん情報が出まくると
やっぱ会社側のサーバー負担とかにもなるからさ
価値のないものがどんどん拡散されていくとか
価値のないニュースがどんどん
例えばXの中に乗ってくるとかってなると
なんか無駄なあれが増えるからさトランザクションが増えるからさ
そうだねデータをその分保持してなきゃいけないとか
そうそうそう
確かにね
っていうのもあるから規制するポジティブな面はあるんだよね
きっと企業側にも
そうだよねXとかなんてBotみたいなのがずっとポストし続けると
そのアカウントの情報ずっとストレージに保存しとかなきゃいけないっていう状態ってことですもんね
最悪やねそんな
だからイーロンマスクあれだもんねAPI遮断したんだもんね
凍結アカウントもどんどん削減してるしね
あんなんだってすごかったもん
いくらでもなんでもできんじゃんと思って
ツイート自動化とかのプログラム書いてたもん
あそうなんですね
2のキーワードでつぶやいてる人に自動いいねする
でちょっと時間ずらしてBotだとバレないようにするみたいな
プログラムを一時期ずっと動かしてたよ俺
Xのアカウント伸ばすノウハウみたいなので
やっぱこう自分のことに対して
とか自分の近い領域に対してつぶやいてるツイートに関しては
なるべくいいねとかを自分でしに行くとかコメントしに行って
交流を作って存在を知ってもらうとかっていうのが
いい手段ではないけど
クールな手段ではないけど
上等手段としては言われてたりはするから
それでじゃあそんなの手でやっててもなみたいな
思ったから一回ポチってクリックしたら
最新50件に対してバーンっていいねするっていうプログラム作ってた
全然効果なかったけど
それができたのがちょっと前まででしたもんね
今話してて思ったけどそれと
AIで記事作って量産するのって一緒だよね
やってることは一緒なんじゃないですかね
記事の数が多い方がいいし
っていうのでAIで自動的にバーって作ってるけど
結局いいねの質とか記事の質みたいなのが悪いから
返ってこないみたいな
実際に論文の中でも
その生成された記事が
レディットで
レディットってあるじゃんサイト
掲示板みたいなのというか
普通にツイッターみたいにいろんな情報出てるみたいな感じのやつに対して
の中でこれ生成AIで作られたわ
これ違うわみたいなの分けたやつだと
やっぱ生成AIが作ったものの方が
エンゲージメントが低いっていう傾向もあるらしいんだよね
傾向として出てくるんですね
リアルな人間がどうなのかっていうのが
結局無駄っていう話ではあるね
全部総合すると
ただの社会役みたいな
でも確かにいろんなニュースサイトに記事ってあるじゃないですか
ニュースフィックスとかでも
それ読んでるとやっぱり記事の質とかって
もう分かってくるし
これは結構このライターの主観が入っている情報だよなとか
これはいろんなところで言われてるのをまとめた記事だよなとか
その主観が入っててもやっぱその主観の観点が面白かったりすると
その記事としての読み進める楽しさだったりとかもあるし
離脱するのもあるしとか
それねめっちゃ言われるもん
連載とか書いてたり
本とか書いてたりすると
特に連載の担当の人は
自分の意見とか経験とか
この人にこう聞いたらこうだったみたいな
ちょっと温度感のあるものは絶対に入れてみたいな
そうなんだ
そうじゃないとAIが書いても一緒だし
逆に別に誰が書いても一緒の記事になっちゃうから
面白みがないんですよねみたいな
なるほど
だからネタ考えるときも実体験が含められるかどうかで
タイトルの引きがあるかと実体験含められるかで
線引きしてるね
なるほどね
ただ調べて書くじゃなくてってことですもんね
そう
宇宙ステーションのネタってなったら
自分たちで
俺ら宇宙ステーションの総長とかやってたから
運用やってたけど他にもいろんなチームがあってっていう
ちょっと中の人の話ができるとかはやっぱ大事
なるほどね
大事だよな
それって伝わるもんな
読んでくれてる人に
そうそう
あとやっぱ抑揚がなくなっちゃうからね
それがないと
それは間違いないわ
っていうのでね
でもなんかその漢字も
大腕とかだったら出せてるよなって思うしね
それはそうだよな
優秀なSSAがどんどん出てきてますよね
そういう意味だと
大腕は正直見抜けない気するもんね
面白くない人間が書いた記事って感じ
ワクワクするような記事を文字書いてくれるかで言うと
多分ファインチューンしないといけないんだよね
筆者のこの人になりきってみたいなところは多分あってもいいと思うんだけど
なんかありきたりな単純なプロンプトで勝負したものとかになると
ワクワクして全部読めるかどうかは
感覚半々
ちょっと5割超えてくるかなぐらい
あさりそれがAGIか否かのレベル1から5の5段階あるみたいな話の
レベル2とかなんじゃないのかなと思ってて
3とか4ってなると発明っていうレベルまで達するから
そうなると人間のこの欲望とか
経験はしてないんだけどAI自体は
経験したかのような口ぶりで喋れたりとか
盛ることを覚えたりとかできるようになってくると
より面白いとか
盛ってくるAIやだな
基本2倍3倍で盛ってくるとかね
ありそうですけどね
なるほどね
ってことはもう2025年結構
もう無理になってくんじゃない後半ぐらいになってきたら
でもそれで面白い記事書いてくれて
かつフェイクニュースじゃなかったら
自分は満足ですけどね
まあね
たぶんなんかもう
二次情報三次情報みたいなのに
価値がなくなってくるんじゃないの
論文とか取材記事とか
そういうのにはめちゃめちゃ需要があって
でそれに対してそいつらをクローリングして
AIがそれっぽくまとめて
喋ってくれるみたいな形になってくるから
キュレーションメディアとか多分
需要はかなり低くなってきちゃうし
そうだね
っていう感じなんじゃないの
でしかも多分AGIとか
なんなら優秀なAIエージェント
AGI一歩手前ぐらいの人って
自分の理解度が低い分野
例えばなんか
信頼性の低い情報源の増加
決済に対しての理解がめちゃめちゃ弱いですってなったら
それに対してはめっちゃ深く説明してくれるけど
丁寧にレベル下げて説明してくれるけど
なんか違う情報に対してはめちゃめちゃ
具体的な
専門ワードとかも使って
喋ってくれるとかっていうチューニングもしてくれるよねきっと
さらにそれがテキストっていうメディアで
現れてくるわけだから
それはなおさら今ある
なんだろうな
扱ってるところの価値っていうのは下がってきますね
そうね
結局ここで今日話した論文の中で
わーって言ってたけど
ここら辺の特に誤報とかを含んでるサイトとかだったら
もしかしたらもう
その価値がなくなっていく25年っていうパターンもあるから
そういう目線で待っても面白いかもしれない
そうですね
ちゃんと途中も話した通り
それがAIなのかどうかっていう見抜く
見抜くためのAIはさらに発展するだろうし
それこそあの
かぐるとかのデータ分析のコンペティションとかでは
そういうテーマを扱っていて
AIが書いた記事なのかいなか人間なのか
っていうところの
分類モデルを作ってくださいとか
っていうのは結構ここ最近
生成AIが出てきてからの
LLM周りのあれですね
コンペティションの中身として
取り上げられる回数が多くなってきてますね
そうなんだ
でもまあ
その性能もある程度
人が超えてきたよーみたいなのもさ
欧湾くらいから
言われてきてるじゃん
かぐる勝てるぜみたいな
そうですね
だから人が頑張る必要ない可能性もありますけどね
ねー
いやー激動の25年になりそうで
そうですね
ポッドキャスト聞いて
最新の傾向をつかんでねって感じかな
そうですね
うちらもクリエーションメディにならないように
実体系を含んでいかんと
ねー
終わってるかもしんない
気を付けないと
まとめるとAIで作った記事とか
めっちゃ増えてるけど
偽情報が含まれてるサイトとかの方が
めっちゃ使われてるし
なんなら
人気のないサイトの方が
AIめっちゃ使ってるっていう
多分この傾向がスケールしていくのが今の
全体の流れになってきてると思うから
情報には気を付けようねっていう
はい
新たなデータサイエンスイベント
というような研究でございました
これイベントとか
やったおかげで
知れた論文だったから結構面白かった
その論文読み会のやったのが
年末で
2月の
2月のですね26
ちょうど1ヶ月後くらい
のタイミングで
またちょっと次の
データサイエンスの
データアナリティクスのイベントを
企画しておりまして
今回は
ほら前
たっちゃん協力のもとというか
この番組起点で
ソフトバンクDNAの
共催やったじゃん
その後が
この番組のリスナーである
33の人に
声かけて
DNA33
あとアトラエの3社で
共催して
これも結構評判良くって
で今回は
今回また3社共催です
3社共催今回はね
これね
DNA
俺が主催だからね
でコインチェック
仮想通貨の取引所
タイミング話題のタイミング
それぞれの
アナリティクス部のマネージャーみたいなのが
来て
その2つと
うちとで
出てくる人たちがそれぞれ
上場のタイミングで
どうやって分析
アナリストの需要が変わったかみたいな
ところとか
でうちからはM&Aされた
で今うちのグループ内に
入ってるサービス
の中での
アナリストの需要が
そこでどう変わったかみたいなところの話をする
M&A上場
この前後
とか
サービスがスケールしてったときの
データアナリストの
立ち回りの仕方
組織の作り方みたいなところを
今回の
テーマにしていこうかなと思っている
だからスタートアップに
所属している
会社のメンバーだったりとか
特にやる場所もWeWorkの
オフィスに入ってる場所ですもんね
渋谷のWeWorkですね
だから結構そういう
親和性めちゃめちゃありそうな
内容ですね
しかもこれね
どんなに調べてもないんだよね
この情報がどこにも
創業初期に
データアナリストって
ほぼほぼいらんのよ
いらん、間違いない
でしょ、データサイエンティストも
データサイエンティストが起業する
ぐらいの勢いの
アナリストじゃなかったらほとんどいらない
そうだね
それよりも
プロダクトを形にするみたいなのほうが
やっぱ重要度高いし
それがないとお金埋めないしみたいなので
そこがメインになってくるわけよね
でじゃあどっからアナリストとか
そういったのの需要って出てくるの
みたいな
のって結構
上場前にだんだん
手堅くちゃんとKPIとか
管理できるような状態作って
先継の成長
っていうのを支えられる基盤作ろう
みたいな
ところがだんだん上場前に
色合いが強くなってくるっていうのは
わかってるんだ
で上場した後がそういう
データも豊富になってきて
アナリストの組織が拡大していく
場所が結構多かったりする
っていうのはなんとなくわかるんだけど
具体的に
それぞれのフェーズで
どんな感じで立ち回ってたのかの
話ってあんま聞けなくて
そうだね
企業物語と決済サービス
それを喋ってもらう
イベントにしようかなっていう
めっちゃ興味あるな
いいでしょそれはもう企業物語を
やってる
我々としても非常に重要なテーマ
になってくるんじゃないですか
この間言われたよそういえば会社で
最近たっちゃんの企業物語
出てなくないですか
よくご存じでね
言われた言われた
それはそれでまた喋りますよ
重要あるからちゃんと
嬉しい
あれが一応一番好きなジャンルらしい
そうなんですねごめんなさい
サボってたわけじゃないんですけど
また話しますそれは
っていう感じだから
そのイベントも概要欄にリンクを貼るんで
今のちょっと気になる人は
ぜひぜひ聞いてほしいなと思います
次回は
私の企業物語ですね
きました
自分で企業物語
っていうのはあんま好きじゃないんですけど
大丈夫俺が言っとくから
そこの中で
使ってる決済サービスに関しての
話を
したいなと思っていて
結論から言うと
ストライプっていう決済代行事業者を
選択したんですけど
その選択した過程とか
そもそもストライプってどんな
会社なんだっけとか
やっぱAIデータ活用進んでるよね
っていう話をしたいなと思います
それ知らない
楽しみだわ
楽しみにしておいてください
隣のデータ分析屋さん
今回も面白いと思ったらフォローレビュー
よろしくお願いします
番組の完成の質問は
ハッシュタグ隣の分析屋
隣のがひらがなで分析屋を漢字でお願いします
概要欄に貼ってあるお手紙ホームから
コメントもお寄せください
ではまた
ばいばーい
37:03

コメント

スクロール