1. AI駆動開発部の日常
  2. 29【GLM-5の代わりになる?】M..
29【GLM-5の代わりになる?】MiniMax M2.7を組み込んでみた
2026-03-28 13:02

29【GLM-5の代わりになる?】MiniMax M2.7を組み込んでみた

今回は、「MiniMax M2.7をAIワークフローに組み込んだらどうなるか」という僕の試行錯誤について語っております。
MiniMaxが新しく始めたToken Planでは、コーディング以外の用途にもサブスクで使えるようになり、GLM-5の約1/3のコストで回せる可能性が出てきました。そこで、Mastraで組んでいる記事生成ワークフローのモデルをGLM-5からMiniMax M2.7に差し替えてみたのですが、そこで見えてきた課題が想像以上に根深くて。中国語の文字が混じる問題、文脈が破壊される問題、Structured Outputに対応していない問題と、なかなか一筋縄ではいかない結果に。この辺り、OpenCodeがモデルごとにプロンプトを変えている理由にも通じる話で、お互い気づきの多い時間となりました。
結局のところ、今のところはGLM-5が安定しているという結論に落ち着いたわけですが、中華モデルの得意・不得意の輪郭がより見えてきた回でもあります。
▼MiniMax M2.7
https://www.minimax.io/models/text/m27
▼MiniMax Token Plan
https://platform.minimax.io/docs/token-plan/intro
▼Mastra
https://mastra.ai/
▼OpenCode
https://opencode.ai/
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f

感想

まだ感想はありません。最初の1件を書きましょう!

00:02
こんにちは、AI駆動開発部の日常へ ようこそ。このポッドキャストは、
日々AI駆動開発を行う企業家の山本 とエンジニアの阿部が、AI駆動開発
のリアルをゆるく語り合う番組です。 じゃあ、よろしくお願いいたします。
よろしくお願いします。
ちょっとね、今回のエピソード は、KimiK 2.5の後にすぐに撮って
みたいな感じがあるんですけども、 MiniMax 2.7についてですね、最近サブスク
プランで、トークンプランっていう やつが出たんですけれども、コーディング
以外の用途でも使えないっていう。
ありがたいですね。
そう、結構ありがたいよね、これ。 うちとかだと、記事を生成するの
で、土台作りの情報収集として、 ばーっと書き集めてもらって、一時
情報として、一時情報ではないんだ けど、情報収集済だから、一旦初め
の叩き台を作ってもらうみたいな 感じで、マストラでAIワークフル
を組んでたりとかするんですけども、 それはAPIをオープンルーター
から使って、それはGLM5でやってる のかな、今GLM5でやってるんで、毎
回そんなにクロード使ってたとき よりはめちゃ高いわけじゃないんだ
けれども、お金もかかってくるんで、 サブスクプランにできて、コーディング
のちょっと簡単な系をMiniMaxに預ける みたいな感じにできたら、そういう
記事の土台作りとか叩き台作り 情報収集役としても使えるし、いい
のかな結構とかって思って、そう したときに、その記事のワークフロー
にMiniMaxを当てたらどうなるんだ みたいな、ところをちょっと試して
みたんで、その辺の話ができれば なと思ってます。ちょっと本題に
入る前に、MiniMaxのトークンプラン 結構すごくてというか、いろいろ
できるんですよね。単純にAPIで使う みたいなのもそうなんですけど、
トークンプランの画面とかに行く と、結構できることがあるみたい
で、イメージ生成であったりとか、 あとスピーチとか、いろいろ。あと
キミクロー、キミクローじゃないわ。 MiniMax、オープンクロー上で動かす
みたいなとか、もちろんオープンクロー エージェント、サポーツ2から3オープン
クローエージェントって書いてる から、オープンクローに接続できる
03:02
そういうのがあるのかな、みたいな とか書いていて
おだしょー 動画とか音楽とかも生成できる
みたいですね
三沢 そうそう、結構いろんなことが できるみたいなのが、一応MiniMax
の売りみたいな感じらしいよね。 しかもMiniMaxの特性として、ハイスピード
っていうバリアントを設定する ことで、同じ性能なんだけど、結構
速くなるみたいな、みたいなのも あったりとかすると。もちろん
APIベースで使うと高くなるんで、 それこそレートリミットの消費
には大きくなるみたいなのもある けど、一応速くて何でも使えて、
実際APIのトークン、アウトプット インプットとともに、100ミリオン
トークンあたりのコスパでいうと、 GLMの速くないバリアントだと3分の1
ぐらいのコストになってる
おだしょー 安いね、GLMのさらに3分の1ってこと
でしょ
おだしょー そう、だから結構いい かもなーって思って、これでどこ
まで使えるかによっては。だから サブスク使えなくても、買える価値
はあるな、みたいな。これで回るん だったら、みたいな。実際、本題
ですよ。記事生成を、記事生成という か、記事の土台作りというか、情報
収集みたいなのをやってもらいました と。だいたい文脈もこういうの
がいいんじゃないの、みたいな 案とかも出してくれるんですけど
ミニマックス2.7にすると、なんか よく分かんない文字が混じる
おだしょー なるほどね
おだしょー そう、たまに中国語 みたいな文字が混じったりとか
おだしょー なんかちょっとアジア チックな、どこの国かも分かんない
文字が出てくるんですかね
おだしょー そうそうそう。難しい 漢字みたいなのがよく混じったり
とかっていうのがあったりとか あとは、あれなんですよね。ワークフロー
的には検索して、それをバーって 整理していって、次のAIに渡す
みたいなんで、AIにバケツリレー みたいな感じで、どんどん渡して
いくんですけど、その中でマスタル とかで作ってると、ストラクチャー
アウトプットっていって、特定の 指定された形式で、スキーマ定義
してそれを渡すみたいな、強制する みたいなのをGLAMとかできるんですけ
ど、その仕組みがないと、ミニマックス みたいな。結構ワークフロー化
06:03
すんのも苦労するみたいな感じで
おだしょー これはあれなんですかね、マストラ
側が対応してなくてそうなるもの なんですか、それともミニマックス
側なんですか
おだしょー オープンルーター経由で使う
場合のミニマックス側は、ミニマックス 純正で使ったとか分かんないけど、
多分対応してないってことはそういう ことなんかなと思うけど
しばやん そうなんだ、それじゃあちょっと
ワークフローには難しいかもしれない ですね、やっぱ
おだしょー そうそう。そうしたときに、
こんだけどうなんだろう、文脈不正語 みたいなのもやっぱあって
しばやん ああそうなんだ
おだしょー 単純に漢字を間違えてるだけ
だったらいいなと思ってたんですよ しばやん なんかそれぐらいだったら
その後ろの段とかで文字修正を作れば 耐えるかなって思ったんだけど
おだしょー みたいな感じもあるんですけど
てか文脈があってたら、あくまでも 参考に使ってるだけだからこっち
としてはいいんだけど、文脈破壊 をしてる状態で上がってくるみたいな
ことがあるから、文脈破壊されたら 語情報がめっちゃ混じるみたいな
感じになって、なのでちょっと 使えないし文脈が破壊するということは
コーディングエージェントとしても ちょっと厳しいんじゃないかな
みたいな しばやん なんか要は推論力だって
あとハルシネーションが多いん じゃないかってことなのかな
おだしょー そうそうっていう
しばやん そっか
おだしょー 2.7
しばやん ちょっとミニマックス 3が出たら試したいなみたいな感じ
なのかな
おだしょー そうそうそうそうそうですね
そっか なんやかんやGLM5が安定 感あるんだね
しばやん でもGLM5でもコーディングエージェント
として任せててたまにぐちゃぐちゃ になってたりするよね
おだしょー それそれ、でも実装ちゃんと
なんか出力されてる文章がめちゃ くちゃでもう何か何喋ってんのか
分かんないけど実装しっかりしてる 時もあるから
何かどっちが良かったんだろう とか思いながら
まあいけてるからいいのかなみたいな
思う時もあるけど
しばやん ね、まあけど
おだしょー 謎だよね
しばやん 今の中華モデルのこの限界点という
かまあこんくらいなのかなみたいな
簡単な作業はやらせてOKだけど
情報整理したりとかさせるのには
ちょっと難しいのかなみたいなのが
まあKimiとMinimaxと使ってきて見えてきたのかな
みたいなのがちょっと最近の
しばやん そうですね
まあなんかあと中華モデルの印象は
ツールユーズ結構強いなっていう印象があるんで
おだしょー はいはいはい確かに
しばやん 結構何かこう作業を
もう単発の作業をサクッとさせるだけに
絞れたらまあ使い道は結構あるんじゃない
こういうまあMinimaxとかでもあるんじゃないかな
09:00
みたいな思ったりするんですけどね
しばやん そうだね
まあけどそうなってきた時にさ
なんか単発のやつって
ストラクチャーアウトプット結構必須っぽくない
なんかワークフローク
おだしょー まあそうなんだよな
今言いながらでも結局アウトプットかな
という感じがして
しばやん まあけどあれかな
なんかそのそれ用のツールを
そこで改善したのが
それ用のツールを作るっていう
しばやん ああ
だから決定論的にもう
このツール呼び出せば
何かができるっていうので
おだしょー そうそう
なんか擬似ストラクチャーアウトプットみたいな感じにするとか
なんかまあ
しばやん それはできそう
おだしょー まあけどいずれにしても
なんかそういうのが
しばやん うんうん
おだしょー 感じですね
なんかそこからなんかオーマイオープンコードがさ
なんかそのモデルによって
プロンプトの書き方変えてたりするじゃん
しばやん ああそうですねはい
おだしょー だからなんかそういうのを
何とか頑張ってんだろうなって
ちょっと分かんないけど
中までしっかり見てましたね
しばやん あれでも
確かになんか
モデルごとに結構変えてるって
言ってたから
おだしょー うん
しばやん すごいなって
おだしょー うん
しばやん 努力というか
涙おぐましいなっていう
おだしょー あれ
おだしょー そうそうだから
今回だからその
それのワークフローに乗せるために
ミニマックスの場合は
このプロンプトはアペンドするみたいな仕組みとか
作ってたりとかした
しばやん そう
はいはいはい
おだしょー だからそういうことやってんのかな
ってお前オープンコードもみたいな
しばやん そうでしょうね
あとはこのモデル扱うなって
警告出たりするからね
このエージェントにこのモデルを当てるな
みたいな
おだしょー うんうん
しばやん 言ってきたりするんで
だからそういう風にして
おだしょー だからそういう
かさがあるんだよな
しばやん なかなか
しばやん うん
だからそうです
おだしょー はい
しばやん でももしそれで
本当にミニマックスとかが
そのちょっとでも
動くようになるんだったら
その価値はある気はしますけど
おだしょー まあね
あのコスト3分の1でね
しばやん うん
おだしょー うん
まあ早いモデル使うと
多分一緒くらいのコストになるのかな
おそらくって感じだけど
しばやん ああね
でも結局
いろいろ試した結果は
まあちょっと難しそう
って感じなんですかね
おだしょー うん
まあなんかちょっと難しそうだな
っていう感じです
なんで
まあGLM今のところ
いいなって
早くGLM5.1出ないかなみたいな
しばやん そうっすね
僕の中でGLMの評価が
ただただ上がってくんですよね
こうやって他の中華モデルを使うたびに
すごい
じゃあそんな感じです
はい
わかりました
はい ありがとうございます
じゃあ はい
こんなもんっすかね
はい じゃあ本日もありがとうございました
はい ありがとうございました
はい ありがとうございまーす
本日もAI駆動開発部の日情を
お聞きいただき ありがとうございました いかがでしたでしょうか 今回は
12:04
StoraのワークフローにMinimaxのM2.7 を組み込んでみたと GLM5の代わり
にというところで 結果としては 残念ながら GLM5じゃないと最低限
難しいなみたいな 僕自身もともと Cloudのモデルでそのワークフロー
を組んでたところから GLMに変えて きて それで結構乗るじゃんって
思って 次はMinimaxかなみたいな 感じで どんどん安いモデルのほう
でどこまでできるだろうみたいな 試してるっていう最中だったんです
けれども 今は最低限GLM5ぐらいは 使わないといけないのかなっていう
結論に至りましたと こんな感じで AIについて 普段も試行錯誤を繰り返して
いるので ぜひこんなこと知りたい とかあればお便りいただけると
嬉しいです Podcast気に入ってくれた 方は いいねはフォロー 高評価
ぜひお願いいたします それでは また次回もお楽しみください
バイバイ
13:02

コメント

スクロール