はい本題行きたいと思います。テーマはAIどう使えばいいのに答えてくれるということですけど、直近リリースされてましたもんね。
そうなんですよ。自然言語で経営データを分析できるストアレコードAIのベータ版をようやくリリースできて、
以前話したようにショッピファイのサイドキックっていうショッピファイの管理画面で売り上げデータとか顧客データ、商品データに対して質問すると答えてくれるやつのストアレコードバージョンで、
めちゃくちゃこの2ヶ月くらいしか注力してたものになってようやくリリースできて嬉しいです。
自然言語っていうところが結構ポイントですね。これ実際反応はどうなんですか?
興味持ってくれて結構使ってくれてるんですよね、衝動として。
一方で複数のクライアントさんからどう使えばいいのかよくわかんないんですけどみたいな感じで聞かれたり、
あとこういうプロンプト打つといいですよっていう例題をいくつか送ったらそれだけ聞いて終わっちゃってるっていうクライアントさんも結構いるっていう話だったので、
僕自身はリリースしてからストアレコードAIの超ヘビーユーザーなんで、
KCONSULとしてクライアント支援している中でどういうふうに使っているかみたいなのを実際に事例を紹介したいなというふうに思います。
私の会社も採用ATSを作っている会社なんですけど、
ATSっていっぱいあるんですけど、システム上で使える唯一のATSで、
それをフックに興味持ってくれる人も多いんですけど、やっぱりどうやって使ってるの?みたいなのがユーザーさんが一番知りたいのかなと思っていて、
基本的な使い方みたいなのが見えていれば知りたいなと思っています。
まず1個目なんですけど、よく毎週月曜日ですね、聞いてるのは売上、売上総利益、限界利益、在庫日数の全周費と全年費をブランド別に受注別で出して、
っていうのはクライアントの状態を確認するためにやってますと。
ストアレコードAIない時もストアレコードのダッシュボードでポチポチやれば見れるので、ポチポチ見ながらレポート書いてやってたんですけど、
最近はストアレコードAIに聞いてしまって、こういうフォーマットで出してっていうのも入れると自分の好きなフォーマットで出てくるので、
それをコピペしてスラックに入って共有するっていうのをやってます。
何見てるかっていうと、全周費を見ることで売上と利益がアップトレンドなのかダウントレンドなのかを見て、
翌週であったり翌月のトレンドがどうなるかっていうのを把握しようとしてますと。
最近だと4月が終わるんで春物の消化で結構値引きしていたブランドがあって、
その値引きが終わると夏物が立ち上がってくるんで、5月以降は利益率良くなるんじゃないかなみたいなところを分析するっていうような形です。
全周費と加えて前年比見ることで季節要因を揃えた上で売上が前年に比べて伸びてる落ちてるみたいなところを見ながら、
前年と前週見ながら今後どうなっていくかみたいなところを把握するのに使っているっていうような形です。
サイコニスも同時に見ることで過剰在庫になってないかっていうチェックをしながら、
本当にブランドごとの健康状態を見るのに使っているっていうような形です。
各指標を見るんですね。これダッシュボードで出せるっちゃ出せると思いますけど、
ここから話を続けられるみたいなところに価値がありそうですね。
そうですね。まさにそこでその上でブランドごとに伸びてる落ちてる要因について分析していって、
例えば落ち込んでいるブランドがあったらカテゴリー別と商品別で
前週比で落ちてるところと伸びてるところ分析してっていうと、
全部バババーと出してくれて、売上が落ちている要因をカテゴリー別と商品別に分けて教えてくれるので、
この商品売れ筋だったけど春が終わって夏に向けて長袖の薄いやつだったりするんで、
ちょっと需要が落ち込みそうだよねみたいなところが見えてくるので、
そうするとじゃあその商品って在庫まだあるけどどういう消化方針にするんだっけみたいなのを突っ込んで
クライアントさんと話ができるので、そういった形で見ていくっていうような感じで、
どんどん深掘りしていって聞けるのが価値になってるっていう形ですね。
基本的な指標からそれを質がどうかみたいな風に掘っていくんだろうけど、
もっと踏み込んだ使い方とかがあれば聞きたいんですね。
あとやっぱ試作の検証にすごい使えるなと思っていて、
クーポンとか広告効果の検証分析なんかはよくやってます。
特に楽天とかZOZOで広告実施した時に売上が伸びるのはよくわかるんですけれども、
利益も増やしてるんだっけっていうところを見るためにやってます。
これ多分出すのめんどくさいやつですよね。
モールだとクーポンが結構気になるんだろうから、
試作の振り返りは重要だけど、効果測定が結構めんどくさいみたいな話を聞きましたもんね。
そうなんですよね。この効果測定は僕自身も前職ペアマノンの時やっていて、
この前ちょうどペアマノン売却したバズイットの社長とも会って話をしたら、
これを俺もやってたみたいな。クーポン分析めんどくさいみたいな。
それがパッと見えるのがいいですと。
やっぱZOZOのクーポン試作、売上がものすごい伸びるんですよね。
一方で利益を既存する効果もすごい大きいので、
ZOZOの販売手数料とクーポン費用を含めて限界利益ベースで効果があるのかは、
毎回検証しないとなっていうのを言ってますと。
効果検証するときにタイムセルとか季節要因とか曜日の要因は除外しないと、
クーポンのみの効果が分かりにくくなるんで。
生成愛にはこんな形でプロンプト打つんですけど、
クーポンの効果を測定したいです。条件を揃えるために曜日は揃えて、
平均オフ率が同程度の日にちで比較して、季節要因が影響すると嫌なので、
日付が違い日でクーポン実施した人、してない日を比較してみてっていう風に言うと、
過去の実績からクーポン実施した日っていうのをバーって抽出して、
してない日抽出して、ペアを見つけてきてくれて、
近しい日付同士で比べてみたいなことを勝手にやってくれますと。
結果としてこのクライアントさんでいくと、
クーポンはやっぱり売り上げプラス50%ぐらい伸ばす力がある一方で、
限界利益ベースだとマイナス30%と利益を増やす効果はないというか、
もう利益を削る効果がはっきりしたので、実施するのは消化が足りないというか、
もっと在庫を消化しなきゃいけない時だけに限って実施して、
実施頻度もちょっと見直しましょうみたいな話をしました。
この辺本当にそうなのかみたいなところまで振り返れてないけれども、
売上げ欲しいからクーポン乱発しちゃうみたいな会社さんも結構あったりするので、
よく効果測定はしてもらうのがいいかなと思いました。
結構プロンプトは磨き込んでいて、
クーポン効果を検証したいですみたいな話をしたら、
楽天ファッションなんかも出展しているんで、
楽天ファッションの方のクーポンを拾っちゃうみたいなことも起こったんで、
ZOZOのクーポンだけに絞って、店舗はZOZOでみたいなところも入れたりして、
プロンプトのチューニングはどうしても必要になるなっていうのは思いました。
それなんかテンプレートして置いといてほしい。
モールはやっぱり広告メニューが豊富にたくさんあるから、
ちゃんとこれで合ってるんだっけみたいな効果検証していかないと、
間違ったものをずっとやっているっていうのが起こっちゃいそうですもんね。
試作の振り返りってすごい重要なんだけど、
結構めんどくさいからどうしても後回しにしちゃうっていうのも分かる気がしてて、
これサクッとできるのは結構大きいかもですね。
これはですね、僕自身も早前職でかなりやっていたんですけど、
こうすれば検証できるみたいなのを考えて、
データ引っ張ってきて加工して比較するっていうのが結構面倒なので、
理解するのも分かるかなと。
一方でせいせいはやっぱり優秀なので、
こういう検証したいからこういう方向で検証しようみたいな話をすると、
壁打ちしながらどう検証すればいいかも出してくれるので、ものすごい良かったですと。
この本当に複雑な検証も手軽にできるからこそ、
ちょっと思いついたやつの検証をどんどんできるっていうのがいいところかなと思ってます。
実際ユーザーさん使ってる事例とかってありますか?
うちの会社がどっぷり入っている会社さんでいくと、
新商品を投入をたくさんやると。
これまで1ヶ月で販売する品番は30品番ぐらいだったものを
100品番に増やしましょうっていうので増やした。
ショーロット丹納機で仕入れてセレクトショップを運営している会社さんの
ブランドでやった施策なんですけれども、
売上利益ともにすごい伸びていますと。
これ国家検証をちゃんとやりましょうって言うと結構めんどくさいんですけれども、
ストアレコードAIで販売開始日をベースに
その年度の新規品番を特定してくださいと。
前年比較で全体の売上、新規品番の売上、新規品番の売上比率を出してって言うと
全部バババッと出してくれると。
結果としてやっぱり新規品番の売上の比率が20%から31%まで伸びてますと。
当然出す量が増えているので伸びますよと。
一方で副作用も分かりましたと。
投入した新規品番のリピート発注の比率が44%あったのが
36%まで下がりましたっていうのがデータとして出ましたと。
ただこの副作用って100品番まで広げるんで
どうしても薄くなっちゃうっていうのは想定通りで
ヒット率が多少下がっても出席に立つ回数を増やして
ヒットの絶対数を上げるっていう狙いでやったので
想定通りかむしろリピート発注率があんまり落ちてないなっていう感じなので
この品番をずっとやってても全然問題ないというか
できるのであれば150とか200は検討できないかみたいな話を今してるっていうような形です。
事実ベースで議論ができるようになったっていうのはすごい良いことですね。
そうなんですよね。印象値とかなんとなくみたいなところで話していってしまうのは
しっかりデータとして何割何パーセントみたいなところで話せるのはすごい良くて
もう一個あるのが新規獲得顧客施策で
結構ECだとエントリー商品とか入り口商品みたいなのを作って
玄関も頑張って提供してリピートしてもらうみたいな商品を持ってる会社さんが多いかなと思ってます。
一方でこのエントリー商品がちゃんと機能しているかを検証するのってかなりめんどくさいですと
注文データから引っ張ってきて新規のお客さんを特定して
その後エントリー商品を買った人がリピートしてるかっていう率を出してみたいなところと
新規のお客さんだけどエントリー商品じゃない商品を買って次リピートしたお客さんを比べるって
話をしててもデータ抽出するの難しそうだなっていう感じのめんどくささがあるんですよね。
これをちゃんと検証しようとするとめんどくさいものが
ストアレコードだと一部の取得できるECモールだと個人情報をマスクして持っているので
リピート率の分析が結構簡単にできますと。
これもエントリー商品として置いている品番〇〇っていうののリピート率を
他の品番、エントリー商品として定義してない品番のリピート率と比較してみたいな形で伝えると
本当にエントリー商品として機能しているかが見えるっていう形ですと。
逆に初回購入者のリピート率が高い商品を上から10個上げてみたいな形でいくと
エントリーとして機能している商品っていうのが浮かび上がるので
そういった商品は新規のお客さんに刺さりやすいみたいな分析もできるっていうので
これは結構他の会社さんでもやってもらいたいなと思ってます。
めっちゃいいですね。出すのめんどくさいのをサクッとやってくれるのすごいいいですね。
これもそうかなと思って前何回か多分お気に入りがどれくらいついてから
販売予測するみたいな話があったと思うんですけど
この辺も人間がやると結構難しいから予測みたいなところは期待できそうだなと思いました。
そうですね。まさにこの少ないデータから未来の予測を行って意思決定する必要が
結構仕入れ商売ってあるなと思っていて
予測モデルを作るみたいなのは多くの会社がやりたいけれども
作成も検証も難しいのでなかなかできないでいる領域なのかなと思ってます。
ただそこもAIを使って実データを基にどういう予測をしたらいいかみたいなところであれば
AIも得意な領域になるのでそういったところを作るっていうのはやってます。
やっぱりお気に入り数と最終販売数の相関関係ってあるんじゃないのっていうのを
結構多くのクライアントさんが言っていて
お客様行動の中でもすぐに購入しないで
あれ?とべさんもカートに入れて放置するとかやります?想像とか楽天とか。
一晩寝かせるをやりますね。
一晩寝かせる。結構すぐ買う方ですか?
そうですね。お気に入りに入れておいて寝かせるはよくやるかも。
カートに乗せたら一晩だけは寝かせることはあります。
なるほど。お気に入りからのカートで一晩寝かせて買うって感じなんですね。
そうですね。
まさにその行動をしている人が多いのかなと思ってお気に入りはめちゃくちゃ入れますと。
うちの若い子とかに聞くとカートにもめっちゃ入れておいて
買うときに削除して特定の欲しいのだけ買うって言ってたんで
それもあるのかなと思ってます。
要するにタイムラグがありますよと。
お気に入りに入れてから購入するまでって結構タイムラグがあるので
お気に入り数っていうのが最終販売数と相関関係があれば
お気に入り数の所属から最終販売数っていうのを予測できるんじゃないのっていうことで
AIにブランドAにおいて販売開始から1週間のお気に入り数と
販売数の相関関係を分析してって言うとババババって分析してくれて
結論は良い相関関係があることが分かったので
今後販売開始1週間からのお気に入り数っていうのを品番ごとに毎週見ましょうっていう話をして
じゃあこの品番はいけそういけなさそうみたいなところを
ジャッジするっていうのを入れることで予測というか
ジャッジが早くなりましたよね。
すごい良いことかなと思ってます。
めっちゃいいですね。書道のデータから考えて意思決定できるようになるのがいいですね。
これAI活用することによって意思決定がかなり変わってくるんだろうなっていうふうに感じました。
もうまさに本当に仮説の検証を高速で回せるっていうのがいいかなと思ってます。
経営者だとやっぱりこの施策実施したらこうなるはずっていう仮説を持っていると思うので
その仮説を検証するのに今までってリソースがすごい半端なく必要だった。
なんならデータアナリストが必要なぐらい検証方法っていうのを考えて
膨大なデータをCSVでダウンロードして加工してピボットテーブル使って寒い風してみたいなそんなところが超めんどくさかった。
僕はやらされてた方なんでどっちかっていうとめんどくさいなと思っていた領域が簡単にできる。
せっかく施策を実施しても振り返りができなかったんで学びが薄いので
同じようなことをずっとやってしまうみたいなところが
仮説を検証することで自信を持って続ける施策と
効果がないならやめちゃえみたいなところをパッパと意思決定できるようになると非常に意思決定の精度が高まるなというふうに思っています。
結果として人がやるべきって検証したい仮説をちゃんと持つこと。
こうやったらこうなるはずだよねっていうところをちゃんと考えるところと
検証方法についてはこういう施策をやるとこうなるはずなんで検証していいんだよねっていうのを
AIと壁打ちをして出てきた検証結果をもとに意思決定するみたいな
その仮説検証するサイクルを回すみたいなところが
人が本当に注力するべきところになっていくなっていうのを
改めてちょっと感じているという形ですね。