今回は、リスナーさんから頂いた3件のお便りに答える形で、『MiMo-V2-Proを使ってみた所感』『AIの記憶をどう管理するかについて』『生成AIの情報収集をどう行っているか』について語っております。
1件目はXiaomiが出したMiMo-V2-Proについて。OpenRouterで一時1位になっていた、100万トークンコンテキスト対応のモデル「MiMo-V2-Pro」を使ったことのある阿部さんの評価はどうだったのか、Qwen3.6 PlusやGLM-4.6、GLM-5.1、MiniMax-M2.1との比較も踏まえて話しています。僕が最近使ったQwen CodeでのQwen3.6 Plusの使い勝手についても触れています。
2件目の情報収集では、XやReddit、ChatGPTのDeep Research、MastraやCloudflare、OpenAI、Anthropic、Stripe、Shopify、Vercelの技術ブログの使い分けなどを共有。さらにOpenRouterのモデルランキング、YouTube、OpenCodeやOh My OpenCode、OpenHands、Gemini CLIのチェンジログ確認など、普段の情報源をかなり具体的に話しました。同じAI駆動開発をしているはずなのに、僕と阿部さんで見に行く先がくっきり分かれたのが印象的で、お互い気づきの多い時間となりました。
後半は、『過去の会話履歴をスキルでステアリングできないか』というお便りから、OpenCodeがSQLiteにセッション履歴を蓄積する仕組みの活用、そしてSupermemory(opencode-supermemoryプラグイン)やCipher(ByteRover)といった記憶レイヤー系ツールに話が広がりました。Claude CodeやCodexとの違い、Serenaとの位置付けの違いにも触れつつ、立ち上げ期と運用期で必要な記憶の質は違うのではないか、という手応えもあります。
▼MiMo-V2-Pro 関連リンク
https://openrouter.ai/xiaomi/mimo-v2-pro
▼Qwen3.6 Plus 関連リンク
https://openrouter.ai/qwen/qwen3.6-plus
▼QwenCode 関連リンク
https://qwen.ai/qwencode
▼OpenCode 関連リンク
https://opencode.ai/
Supermemory 関連リンク
https://supermemory.ai/
▼opencode-supermemory 関連リンク
https://github.com/supermemoryai/opencode-supermemory
▼Cipher(ByteRover) 関連リンク
https://github.com/campfirein/byterover-cli