<?xml version="1.0" encoding="UTF-8"?><rss xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:atom="http://www.w3.org/2005/Atom" version="2.0" xmlns:itunes="http://www.itunes.com/dtds/podcast-1.0.dtd" xmlns:psc="http://podlove.org/simple-chapters" xmlns:podcast="https://podcastindex.org/namespace/1.0">
 <channel>
  <title><![CDATA[AI駆動開発部の日常]]></title>
  <description><![CDATA[ こんにちは、「AI駆動開発部の日常」へようこそ。
 このポッドキャストは、日々AI駆動開発を行う、起業家の山本とエンジニアの阿部が、AI駆動開発のリアルを、ゆるく語り合う番組です。

 【配信サービス】
 ▼Spotify
 https://open.spotify.com/show/5b4x1u0M2f0Kmr1Xnv1Z7r?si=12580ee9ade0414e

▼Youtube
https://youtube.com/@ai-nichijo-fm
 
 ▼Apple Podcasts
 https://podcasts.apple.com/jp/podcast/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8/id1843990202
 
 ▼amazon music
 https://music.amazon.co.jp/podcasts/4fd4926b-a654-4dc7-a858-01ff5e0e8c25/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8
 
 ▼stand.fm
 https://stand.fm/channels/68dc82a9036795923c400b4f
 
 ▼LISTEN
 https://listen.style/p/ai-nichijo-fm?xtIZk9qq]]></description>
  <link>https://stand.fm/channels/68dc82a9036795923c400b4f</link>
  <generator>stand.fm</generator>
  <lastBuildDate>Fri, 03 Apr 2026 08:52:40 GMT</lastBuildDate>
  <author><![CDATA[AI駆動開発部の日常]]></author>
  <language><![CDATA[ja]]></language>
  <itunes:author>AI駆動開発部の日常</itunes:author>
  <itunes:summary> こんにちは、「AI駆動開発部の日常」へようこそ。
 このポッドキャストは、日々AI駆動開発を行う、起業家の山本とエンジニアの阿部が、AI駆動開発のリアルを、ゆるく語り合う番組です。

 【配信サービス】
 ▼Spotify
 https://open.spotify.com/show/5b4x1u0M2f0Kmr1Xnv1Z7r?si=12580ee9ade0414e

▼Youtube
https://youtube.com/@ai-nichijo-fm
 
 ▼Apple Podcasts
 https://podcasts.apple.com/jp/podcast/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8/id1843990202
 
 ▼amazon music
 https://music.amazon.co.jp/podcasts/4fd4926b-a654-4dc7-a858-01ff5e0e8c25/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8
 
 ▼stand.fm
 https://stand.fm/channels/68dc82a9036795923c400b4f
 
 ▼LISTEN
 https://listen.style/p/ai-nichijo-fm?xtIZk9qq</itunes:summary>
  <itunes:owner>
   <itunes:name>AI駆動開発部の日常</itunes:name>
   <itunes:email>ai-nichijo-fm@efoo.jp</itunes:email>
  </itunes:owner>
  <itunes:explicit>no</itunes:explicit>
  <itunes:category text="Technology"/>
  <itunes:image href="https://cdncf.stand.fm/cdn-cgi/image/fit=cover,width=1400,height=1400/watermarked/png/01K6ETNA932RJ45VRTM4E88YFY.png"/>
  <item>
   <title><![CDATA[31【GLM-5.1vsQwen3.6Plus】opencodeで性能比較]]></title>
   <description><![CDATA[今回は、Z.aiのGLM-5.1とAlibaba Qwen TeamのQwen 3.6 Plus Previewを実際にエージェント開発で使ってみた感想について語っております。
僕も阿部さんも期待していたGLM-5.1ですが、実際にOpenCode上でサブエージェントとして動かしてみると、思わぬ不安定さに直面しました。一方で、100万トークンのコンテキストウィンドウを持つQwen 3.6 Plus Previewは、ロングコンテキストでの安定性やトークン出力の速さなど、想像以上の良い感触がありました。この違いはどこから来るのか？20万トークンと100万トークンの差以外にも色々な観点で話し合い、かなり意見が割れるポイントもありつつ、お互い気づきの多い時間となりました。後半では、Holo3やKAT-Coder-Pro V2、Arcee AIのTrinity-Large-Thinkingなど、気になる新モデルの話題にも触れています。
▼GLM-5.1 コーディングプラン
https://z.ai/subscribe
▼Qwen 3.6 Plus Preview（OpenRouter）
https://openrouter.ai/qwen/qwen3.6-plus-preview:free
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f]]></description>
   <link>https://stand.fm/episodes/69cf7c24e2f24c466e3df14c</link>
   <guid isPermaLink="true">https://stand.fm/episodes/69cf7c24e2f24c466e3df14c</guid>
   <dc:creator><![CDATA[AI駆動開発部の日常]]></dc:creator>
   <pubDate>Fri, 03 Apr 2026 08:37:40 GMT</pubDate>
   <enclosure url="https://cdncf.stand.fm/audios/01KN97V7TTTF6CGSP4FM7AJ2V6.m4a" length="0" type="audio/x-m4a"/>
   <itunes:summary>今回は、Z.aiのGLM-5.1とAlibaba Qwen TeamのQwen 3.6 Plus Previewを実際にエージェント開発で使ってみた感想について語っております。
僕も阿部さんも期待していたGLM-5.1ですが、実際にOpenCode上でサブエージェントとして動かしてみると、思わぬ不安定さに直面しました。一方で、100万トークンのコンテキストウィンドウを持つQwen 3.6 Plus Previewは、ロングコンテキストでの安定性やトークン出力の速さなど、想像以上の良い感触がありました。この違いはどこから来るのか？20万トークンと100万トークンの差以外にも色々な観点で話し合い、かなり意見が割れるポイントもありつつ、お互い気づきの多い時間となりました。後半では、Holo3やKAT-Coder-Pro V2、Arcee AIのTrinity-Large-Thinkingなど、気になる新モデルの話題にも触れています。
▼GLM-5.1 コーディングプラン
https://z.ai/subscribe
▼Qwen 3.6 Plus Preview（OpenRouter）
https://openrouter.ai/qwen/qwen3.6-plus-preview:free
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f</itunes:summary>
   <itunes:explicit>no</itunes:explicit>
   <itunes:duration>00:32:45</itunes:duration>
   <itunes:image href="https://cdncf.stand.fm/cdn-cgi/image/fit=cover,width=1400,height=1400/coverImages/01KN97RSM98SS7X644N0WDX7RT"/>
   <itunes:title>31【GLM-5.1vsQwen3.6Plus】opencodeで性能比較</itunes:title>
  </item>
  <item>
   <title><![CDATA[30【羊飼いのようにAI駆動開発】EnvironmentEngineering]]></title>
   <description><![CDATA[今回は、「AI駆動開発において、なぜエンジニアほどAIに任せきれないのか？」という僕自身の気づきを起点に、AI駆動開発の考え方そのものについて語っております。
先日、北海道の鶴居村で羊飼いの方を訪問した経験から、エンジニアの仕事は「料理人」、AI駆動開発は「農家」に近いのではないかという話をしています。料理人は自分の技術で直接品質を作り上げる。一方、農家や羊飼いは生き物に直接手を加えられないからこそ、環境整備に全力を注ぐ。この違いがAIとの向き合い方にも通じるのではないか。
僕から「Environment Engineering」という言葉を出してみたところ、阿部さんもコンテキストエンジニアリングやハーネスエンジニアリングを包括するより大きな枠組みとしてしっくり来ると言う話に。ただ、エンジニアは自分でも介入できるがゆえに、つい手を出してしまうというジレンマも。AIを単なる効率化ツールではなく、自分には出せない品質を引き出す存在としてどう"環境"を整えるか、お互いまだ整理しきれない部分も含めて率直に話しました。
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f]]></description>
   <link>https://stand.fm/episodes/69c74d88cda87f729c0353ae</link>
   <guid isPermaLink="true">https://stand.fm/episodes/69c74d88cda87f729c0353ae</guid>
   <dc:creator><![CDATA[AI駆動開発部の日常]]></dc:creator>
   <pubDate>Sun, 29 Mar 2026 08:43:51 GMT</pubDate>
   <enclosure url="https://cdncf.stand.fm/audios/01KMX4H8NFZZ3TN1TDGWWA68DA.m4a" length="0" type="audio/x-m4a"/>
   <itunes:summary>今回は、「AI駆動開発において、なぜエンジニアほどAIに任せきれないのか？」という僕自身の気づきを起点に、AI駆動開発の考え方そのものについて語っております。
先日、北海道の鶴居村で羊飼いの方を訪問した経験から、エンジニアの仕事は「料理人」、AI駆動開発は「農家」に近いのではないかという話をしています。料理人は自分の技術で直接品質を作り上げる。一方、農家や羊飼いは生き物に直接手を加えられないからこそ、環境整備に全力を注ぐ。この違いがAIとの向き合い方にも通じるのではないか。
僕から「Environment Engineering」という言葉を出してみたところ、阿部さんもコンテキストエンジニアリングやハーネスエンジニアリングを包括するより大きな枠組みとしてしっくり来ると言う話に。ただ、エンジニアは自分でも介入できるがゆえに、つい手を出してしまうというジレンマも。AIを単なる効率化ツールではなく、自分には出せない品質を引き出す存在としてどう&quot;環境&quot;を整えるか、お互いまだ整理しきれない部分も含めて率直に話しました。
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f</itunes:summary>
   <itunes:explicit>no</itunes:explicit>
   <itunes:duration>00:37:55</itunes:duration>
   <itunes:image href="https://cdncf.stand.fm/cdn-cgi/image/fit=cover,width=1400,height=1400/coverImages/01KMS8CB4D2NAYMMJNVDHQCWQS"/>
   <itunes:title>30【羊飼いのようにAI駆動開発】EnvironmentEngineering</itunes:title>
  </item>
  <item>
   <title><![CDATA[29【GLM-5の代わりになる？】MiniMax M2.7を組み込んでみた]]></title>
   <description><![CDATA[今回は、「MiniMax M2.7をAIワークフローに組み込んだらどうなるか」という僕の試行錯誤について語っております。
MiniMaxが新しく始めたToken Planでは、コーディング以外の用途にもサブスクで使えるようになり、GLM-5の約1/3のコストで回せる可能性が出てきました。そこで、Mastraで組んでいる記事生成ワークフローのモデルをGLM-5からMiniMax M2.7に差し替えてみたのですが、そこで見えてきた課題が想像以上に根深くて。中国語の文字が混じる問題、文脈が破壊される問題、Structured Outputに対応していない問題と、なかなか一筋縄ではいかない結果に。この辺り、OpenCodeがモデルごとにプロンプトを変えている理由にも通じる話で、お互い気づきの多い時間となりました。
結局のところ、今のところはGLM-5が安定しているという結論に落ち着いたわけですが、中華モデルの得意・不得意の輪郭がより見えてきた回でもあります。
▼MiniMax M2.7
https://www.minimax.io/models/text/m27
▼MiniMax Token Plan
https://platform.minimax.io/docs/token-plan/intro
▼Mastra
https://mastra.ai/
▼OpenCode
https://opencode.ai/
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f]]></description>
   <link>https://stand.fm/episodes/69c74baacda87f729c035398</link>
   <guid isPermaLink="true">https://stand.fm/episodes/69c74baacda87f729c035398</guid>
   <dc:creator><![CDATA[AI駆動開発部の日常]]></dc:creator>
   <pubDate>Sat, 28 Mar 2026 03:45:54 GMT</pubDate>
   <enclosure url="https://cdncf.stand.fm/audios/01KMS8RNXCS75JSRMTRZSRBAPM.m4a" length="0" type="audio/x-m4a"/>
   <itunes:summary>今回は、「MiniMax M2.7をAIワークフローに組み込んだらどうなるか」という僕の試行錯誤について語っております。
MiniMaxが新しく始めたToken Planでは、コーディング以外の用途にもサブスクで使えるようになり、GLM-5の約1/3のコストで回せる可能性が出てきました。そこで、Mastraで組んでいる記事生成ワークフローのモデルをGLM-5からMiniMax M2.7に差し替えてみたのですが、そこで見えてきた課題が想像以上に根深くて。中国語の文字が混じる問題、文脈が破壊される問題、Structured Outputに対応していない問題と、なかなか一筋縄ではいかない結果に。この辺り、OpenCodeがモデルごとにプロンプトを変えている理由にも通じる話で、お互い気づきの多い時間となりました。
結局のところ、今のところはGLM-5が安定しているという結論に落ち着いたわけですが、中華モデルの得意・不得意の輪郭がより見えてきた回でもあります。
▼MiniMax M2.7
https://www.minimax.io/models/text/m27
▼MiniMax Token Plan
https://platform.minimax.io/docs/token-plan/intro
▼Mastra
https://mastra.ai/
▼OpenCode
https://opencode.ai/
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f</itunes:summary>
   <itunes:explicit>no</itunes:explicit>
   <itunes:duration>00:13:02</itunes:duration>
   <itunes:image href="https://cdncf.stand.fm/cdn-cgi/image/fit=cover,width=1400,height=1400/coverImages/01KMS7YPR73YRKGDZM90HEJ765"/>
   <itunes:title>29【GLM-5の代わりになる？】MiniMax M2.7を組み込んでみた</itunes:title>
  </item>
  <item>
   <title><![CDATA[28【期待のKimi K2.5を使ってみた】OpenCodeで検証した結果]]></title>
   <description><![CDATA[今回は、Kimi K2.5を実際にエージェント駆動開発の現場で使ったらどうなるのか、という検証結果について語っております。
Moonshot AIが発表したKimi K2.5は、Agent Swarmやマルチモーダル対応など魅力的な特性を持ち、僕もかなり期待していたモデルです。実際にKimiのアプリでLP制作を試した際の出来栄えが良かったこともあり、阿部さんにOpenCode上のオーケストレーターとして実戦投入してもらいました。ところが、GLM-5と比較したときに見えてきた差が、なかなか興味深い結果でした。
単発のタスクと複合的な分析タスクで評価が大きく分かれるポイントがあり、「ベースモデルとしての優秀さ」と「素で使う実力」の違いについて、Composer 2の話題も交えながらお互い気づきの多い時間となりました。
▼Kimi K2.5
https://www.kimi.com/ai-models/kimi-k2-5
▼OpenCode
https://opencode.ai/
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f]]></description>
   <link>https://stand.fm/episodes/69c6291d757f27ae0f3634d8</link>
   <guid isPermaLink="true">https://stand.fm/episodes/69c6291d757f27ae0f3634d8</guid>
   <dc:creator><![CDATA[AI駆動開発部の日常]]></dc:creator>
   <pubDate>Fri, 27 Mar 2026 08:30:05 GMT</pubDate>
   <enclosure url="https://cdncf.stand.fm/audios/01KMQ11R34SK7TMVTC3GST6204.m4a" length="0" type="audio/x-m4a"/>
   <itunes:summary>今回は、Kimi K2.5を実際にエージェント駆動開発の現場で使ったらどうなるのか、という検証結果について語っております。
Moonshot AIが発表したKimi K2.5は、Agent Swarmやマルチモーダル対応など魅力的な特性を持ち、僕もかなり期待していたモデルです。実際にKimiのアプリでLP制作を試した際の出来栄えが良かったこともあり、阿部さんにOpenCode上のオーケストレーターとして実戦投入してもらいました。ところが、GLM-5と比較したときに見えてきた差が、なかなか興味深い結果でした。
単発のタスクと複合的な分析タスクで評価が大きく分かれるポイントがあり、「ベースモデルとしての優秀さ」と「素で使う実力」の違いについて、Composer 2の話題も交えながらお互い気づきの多い時間となりました。
▼Kimi K2.5
https://www.kimi.com/ai-models/kimi-k2-5
▼OpenCode
https://opencode.ai/
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f</itunes:summary>
   <itunes:explicit>no</itunes:explicit>
   <itunes:duration>00:14:33</itunes:duration>
   <itunes:image href="https://cdncf.stand.fm/cdn-cgi/image/fit=cover,width=1400,height=1400/coverImages/01KMQ10PQ3HSBDCY63BM5NPFXP"/>
   <itunes:title>28【期待のKimi K2.5を使ってみた】OpenCodeで検証した結果</itunes:title>
  </item>
  <item>
   <title><![CDATA[27【GPT-5.4はクビ！？】OhMyOpenCodeでのモデル選定]]></title>
   <description><![CDATA[今回は、「GPT-5.4のコストに見合うメリットが感じられない」という話を起点に、何を基準にモデルを選ぶべきなのかについて語っております。
100万トークン対応や自律的な長時間実行といったGPT-5.4の強みは、OpenCodeとOhMyOpenCodeの組み合わせでカバーできてしまう。それならGPT-5.3-Codexの方がコードベースの理解力もコスパも優れているのでは、というのが僕の仮説で、阿部さんも近い感覚を持っていたようで、かなり意見が一致するポイントでした。
さらに、OhMyOpenCodeのリポジトリにあるエージェントごとのデフォルトモデルやフォールバックチェーンの設計を読み解いていくと、なぜこのエージェントにこのモデルなのかという配置の意図が見えてきました。
OpenCodeの知見など、新たにわかったことについてもシェアしているのでぜひ聞いてみてください。

▼GPT-5.3-CodexとGPT-5.4の価格比較 - OpenRouter
https://openrouter.ai/compare/openai/gpt-5.4/openai/gpt-5.3-codex

▼OhMyOpenCodeのモデル選択ガイドライン - GitHub
https://github.com/code-yeongyu/oh-my-openagent/blob/dev/docs/guide/agent-model-matching.md
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f]]></description>
   <link>https://stand.fm/episodes/69b8fbb7805e1686a430085c</link>
   <guid isPermaLink="true">https://stand.fm/episodes/69b8fbb7805e1686a430085c</guid>
   <dc:creator><![CDATA[AI駆動開発部の日常]]></dc:creator>
   <pubDate>Tue, 17 Mar 2026 08:25:01 GMT</pubDate>
   <enclosure url="https://cdncf.stand.fm/audios/01KKX9FC3Y2S6ZZ6X1K2STNWX7.m4a" length="0" type="audio/x-m4a"/>
   <itunes:summary>今回は、「GPT-5.4のコストに見合うメリットが感じられない」という話を起点に、何を基準にモデルを選ぶべきなのかについて語っております。
100万トークン対応や自律的な長時間実行といったGPT-5.4の強みは、OpenCodeとOhMyOpenCodeの組み合わせでカバーできてしまう。それならGPT-5.3-Codexの方がコードベースの理解力もコスパも優れているのでは、というのが僕の仮説で、阿部さんも近い感覚を持っていたようで、かなり意見が一致するポイントでした。
さらに、OhMyOpenCodeのリポジトリにあるエージェントごとのデフォルトモデルやフォールバックチェーンの設計を読み解いていくと、なぜこのエージェントにこのモデルなのかという配置の意図が見えてきました。
OpenCodeの知見など、新たにわかったことについてもシェアしているのでぜひ聞いてみてください。

▼GPT-5.3-CodexとGPT-5.4の価格比較 - OpenRouter
https://openrouter.ai/compare/openai/gpt-5.4/openai/gpt-5.3-codex

▼OhMyOpenCodeのモデル選択ガイドライン - GitHub
https://github.com/code-yeongyu/oh-my-openagent/blob/dev/docs/guide/agent-model-matching.md
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f</itunes:summary>
   <itunes:explicit>no</itunes:explicit>
   <itunes:duration>00:20:39</itunes:duration>
   <itunes:image href="https://cdncf.stand.fm/cdn-cgi/image/fit=cover,width=1400,height=1400/coverImages/01KKX9CACEFM645Y9MWCA4Z6T6"/>
   <itunes:title>27【GPT-5.4はクビ！？】OhMyOpenCodeでのモデル選定</itunes:title>
  </item>
  <item>
   <title><![CDATA[26【100万トークンで超有能？】GPT-5.4と5.3-Codexの使い分け]]></title>
   <description><![CDATA[今回は、3月5日にOpenAIがリリースしたGPT-5.4を実際に使ってみて、前モデルのGPT-5.3-Codexとどう違うのか、どう使い分けるべきかについて語っております。

阿部さんはCodex CLIで、僕はOpenCodeでそれぞれ使い込んだのですが、「コーディング精度は5.3-Codexの方が上では？」という阿部さんの実感と、「オーケストレーター的な役割には5.4が合う」という僕の感覚には、実は根本的な考え方の違いがありました。言うなれば5.3-Codexは「内性的な職人気質のエンジニア」、5.4は「頭の切れるビジネスマン」のようなもので、この性格の違いをどう活かすかが、かなり意見の分かれるポイントでした。

さらに後半では、GPT-5.4が最大100万トークンのコンテキストウィンドウをサポートしたことに触れつつ、API料金が272Kトークンを超えると跳ね上がる仕組みを発見。コンパクションの設定をどうすべきか、お互い気づきの多い時間となりました。

▼GPT-5.4発表 - OpenAI
https://openai.com/index/introducing-gpt-5-4/

▼1M tokenの性能比較 - Claude
https://claude.com/blog/1m-context-ga
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f]]></description>
   <link>https://stand.fm/episodes/69b7b7384bc43e4bf61a1d76</link>
   <guid isPermaLink="true">https://stand.fm/episodes/69b7b7384bc43e4bf61a1d76</guid>
   <dc:creator><![CDATA[AI駆動開発部の日常]]></dc:creator>
   <pubDate>Mon, 16 Mar 2026 08:28:03 GMT</pubDate>
   <enclosure url="https://cdncf.stand.fm/audios/01KKTT94828RG6Q9T058XK59HB.m4a" length="0" type="audio/x-m4a"/>
   <itunes:summary>今回は、3月5日にOpenAIがリリースしたGPT-5.4を実際に使ってみて、前モデルのGPT-5.3-Codexとどう違うのか、どう使い分けるべきかについて語っております。

阿部さんはCodex CLIで、僕はOpenCodeでそれぞれ使い込んだのですが、「コーディング精度は5.3-Codexの方が上では？」という阿部さんの実感と、「オーケストレーター的な役割には5.4が合う」という僕の感覚には、実は根本的な考え方の違いがありました。言うなれば5.3-Codexは「内性的な職人気質のエンジニア」、5.4は「頭の切れるビジネスマン」のようなもので、この性格の違いをどう活かすかが、かなり意見の分かれるポイントでした。

さらに後半では、GPT-5.4が最大100万トークンのコンテキストウィンドウをサポートしたことに触れつつ、API料金が272Kトークンを超えると跳ね上がる仕組みを発見。コンパクションの設定をどうすべきか、お互い気づきの多い時間となりました。

▼GPT-5.4発表 - OpenAI
https://openai.com/index/introducing-gpt-5-4/

▼1M tokenの性能比較 - Claude
https://claude.com/blog/1m-context-ga
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f</itunes:summary>
   <itunes:explicit>no</itunes:explicit>
   <itunes:duration>00:35:07</itunes:duration>
   <itunes:image href="https://cdncf.stand.fm/cdn-cgi/image/fit=cover,width=1400,height=1400/coverImages/01KKTT629D7XJVM531CP99CNQ5"/>
   <itunes:title>26【100万トークンで超有能？】GPT-5.4と5.3-Codexの使い分け</itunes:title>
  </item>
  <item>
   <title><![CDATA[25【AI駆動開発の秘密兵器】OpenCodeとOhMyOpenCode活用術]]></title>
   <description><![CDATA[今回は、「Codexのウィークリーリミットが3日で尽きてしまう」という僕たちの切実な悩みを起点に、その解決策として注目しているOpenCode＋Oh My OpenCodeについて語っております。
以前試した時は安定感に欠けていたOpenCodeですが、今回改めて使うとかなり成熟していて、さらにオーケストレーションレイヤーのOh My OpenCodeを組み合わせることで、阿部さんは1時間が限界だったコーディングセッションが5時間のロングランに化けたと言います。SisyphusやOracle、Prometheusといったエージェントの使い分けや、Ultraworkの仕組みなど、僕と阿部さんでかなり運用の方向性が違っていて、お互い気づきの多い時間となりました。
後半では、Mastra Codeが採用しているObservational Memoryという記憶の仕組みにも話が及び、コンパクションに頼らない中期・長期記憶の考え方が、今後のAIサービス開発にどう活きるのかという話題でも盛り上がりました。

OpenCode 公式サイト
https://opencode.ai/
Oh My OpenCode
https://ohmyopencode.com/
Mastra Code 公式サイト
https://code.mastra.ai/
Mastra Observational Memory ドキュメント
https://mastra.ai/docs/memory/observational-memory
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f]]></description>
   <link>https://stand.fm/episodes/69b2a2788578fadedda0fc97</link>
   <guid isPermaLink="true">https://stand.fm/episodes/69b2a2788578fadedda0fc97</guid>
   <dc:creator><![CDATA[AI駆動開発部の日常]]></dc:creator>
   <pubDate>Thu, 12 Mar 2026 11:25:40 GMT</pubDate>
   <enclosure url="https://cdncf.stand.fm/audios/01KKGWQ0PD3ACDASG1N3V3XMM7.m4a" length="0" type="audio/x-m4a"/>
   <itunes:summary>今回は、「Codexのウィークリーリミットが3日で尽きてしまう」という僕たちの切実な悩みを起点に、その解決策として注目しているOpenCode＋Oh My OpenCodeについて語っております。
以前試した時は安定感に欠けていたOpenCodeですが、今回改めて使うとかなり成熟していて、さらにオーケストレーションレイヤーのOh My OpenCodeを組み合わせることで、阿部さんは1時間が限界だったコーディングセッションが5時間のロングランに化けたと言います。SisyphusやOracle、Prometheusといったエージェントの使い分けや、Ultraworkの仕組みなど、僕と阿部さんでかなり運用の方向性が違っていて、お互い気づきの多い時間となりました。
後半では、Mastra Codeが採用しているObservational Memoryという記憶の仕組みにも話が及び、コンパクションに頼らない中期・長期記憶の考え方が、今後のAIサービス開発にどう活きるのかという話題でも盛り上がりました。

OpenCode 公式サイト
https://opencode.ai/
Oh My OpenCode
https://ohmyopencode.com/
Mastra Code 公式サイト
https://code.mastra.ai/
Mastra Observational Memory ドキュメント
https://mastra.ai/docs/memory/observational-memory
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f</itunes:summary>
   <itunes:explicit>no</itunes:explicit>
   <itunes:duration>00:49:31</itunes:duration>
   <itunes:image href="https://cdncf.stand.fm/cdn-cgi/image/fit=cover,width=1400,height=1400/coverImages/01KKGWKC7QBX9JZFAV6HEE3B55"/>
   <itunes:title>25【AI駆動開発の秘密兵器】OpenCodeとOhMyOpenCode活用術</itunes:title>
  </item>
  <item>
   <title><![CDATA[24【CodeRabbitを導入！】1PR毎のAIレビュー375件をどう捌く？]]></title>
   <description><![CDATA[今回は、「AIレビューが爆量に返ってきて人間がボトルネックになる問題」を起点に、AI駆動開発におけるレビュー体制と自動化について語っています。

僕たちのチームでは Codex、CodeRabbit、Claude、Devin の4つのAIレビュアーを導入しています。これらについてどのレビュアーの指摘が的確で、どれが参考程度でよいのかなど、各ツールの評価について2人の意見を話し合いました。

AIのレビューと修正を繰り返すうちに、1つのPRがコメント375件・約80コミットまで膨れ上がってしまい、人間が手動で付き合い続けるのは現実的ではないという課題も浮き彫りに。

後半では、阿部さんがこの課題を解決するためにGitHub CLIの仕組みに基づき、CLIの拡張機能を自作・公開した話や、sleepコマンドを使ってAIによるレビュー対応と再確認の自動イテレーションを回す仕組みなど、具体的な改善策に踏み込んでいます。
レビューの妥当性検証をどこまで自動化できるのか、お互い気づきの多い時間となりました。

▼CodeRabbit
https://www.coderabbit.ai/
▼Devin
https://devin.ai/
▼Github CLI
https://cli.github.com/
▼ 阿部さんが自作したGithub CLIの拡張機能
https://github.com/abekdwight/gh-pr-review-check
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f]]></description>
   <link>https://stand.fm/episodes/69a558ce5b07cfdea76fba16</link>
   <guid isPermaLink="true">https://stand.fm/episodes/69a558ce5b07cfdea76fba16</guid>
   <dc:creator><![CDATA[AI駆動開発部の日常]]></dc:creator>
   <pubDate>Mon, 02 Mar 2026 10:37:17 GMT</pubDate>
   <enclosure url="https://cdncf.stand.fm/audios/01KJQ1Z813FW60S4F71NVFG8N7.m4a" length="0" type="audio/x-m4a"/>
   <itunes:summary>今回は、「AIレビューが爆量に返ってきて人間がボトルネックになる問題」を起点に、AI駆動開発におけるレビュー体制と自動化について語っています。

僕たちのチームでは Codex、CodeRabbit、Claude、Devin の4つのAIレビュアーを導入しています。これらについてどのレビュアーの指摘が的確で、どれが参考程度でよいのかなど、各ツールの評価について2人の意見を話し合いました。

AIのレビューと修正を繰り返すうちに、1つのPRがコメント375件・約80コミットまで膨れ上がってしまい、人間が手動で付き合い続けるのは現実的ではないという課題も浮き彫りに。

後半では、阿部さんがこの課題を解決するためにGitHub CLIの仕組みに基づき、CLIの拡張機能を自作・公開した話や、sleepコマンドを使ってAIによるレビュー対応と再確認の自動イテレーションを回す仕組みなど、具体的な改善策に踏み込んでいます。
レビューの妥当性検証をどこまで自動化できるのか、お互い気づきの多い時間となりました。

▼CodeRabbit
https://www.coderabbit.ai/
▼Devin
https://devin.ai/
▼Github CLI
https://cli.github.com/
▼ 阿部さんが自作したGithub CLIの拡張機能
https://github.com/abekdwight/gh-pr-review-check
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f</itunes:summary>
   <itunes:explicit>no</itunes:explicit>
   <itunes:duration>00:46:27</itunes:duration>
   <itunes:image href="https://cdncf.stand.fm/cdn-cgi/image/fit=cover,width=1400,height=1400/coverImages/01KJPY3RAE6KRYRS7YSTM6RZF3"/>
   <itunes:title>24【CodeRabbitを導入！】1PR毎のAIレビュー375件をどう捌く？</itunes:title>
  </item>
  <item>
   <title><![CDATA[23【Amical・VoiceOS・Apple純正比較】音声入力ツール結局どれ？]]></title>
   <description><![CDATA[今回は、以前も話題にした音声入力アプリAmicalのアップデートとして、阿部さんがVoiceOSやApple純正の音声入力を経て再びAmicalに戻ってきた経緯について語っております。
スクリーンショットのコンテキストを読み取って文章を生成してくれるVoiceOSの機能に惹かれつつも、実際に使ってみると出力の精度に課題があったという阿部さん。一方でApple純正はレスポンスの速さと安定感が魅力だけれど、カタカナや英語の変換に弱い。この三つ巴の中でなぜAmicalに軍配が上がったのか、それぞれの強みと弱みが浮き彫りになるやり取りでした。
後半では、Amicalの言語設定を英語にすると日本語の発話がそのまま英語に翻訳されるという偶然の発見から、コンテキスト効率やAIへの入力最適化の話へ展開。さらに音声入力が前提になった世界では、キーボードの配置やパソコンの形状そのものが変わるのではないかという未来の話にまで広がりました。

▼Amical 公式サイト
https://amical.ai/

▼VoiceOS 公式サイト
https://www.voiceos.com/
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f]]></description>
   <link>https://stand.fm/episodes/699a6fbbe555cd5c53f7d20a</link>
   <guid isPermaLink="true">https://stand.fm/episodes/699a6fbbe555cd5c53f7d20a</guid>
   <dc:creator><![CDATA[AI駆動開発部の日常]]></dc:creator>
   <pubDate>Sun, 22 Feb 2026 09:00:11 GMT</pubDate>
   <enclosure url="https://cdncf.stand.fm/audios/01KJ1M9TS0MVTPQAX6Q01PM8H3.m4a" length="0" type="audio/x-m4a"/>
   <itunes:summary>今回は、以前も話題にした音声入力アプリAmicalのアップデートとして、阿部さんがVoiceOSやApple純正の音声入力を経て再びAmicalに戻ってきた経緯について語っております。
スクリーンショットのコンテキストを読み取って文章を生成してくれるVoiceOSの機能に惹かれつつも、実際に使ってみると出力の精度に課題があったという阿部さん。一方でApple純正はレスポンスの速さと安定感が魅力だけれど、カタカナや英語の変換に弱い。この三つ巴の中でなぜAmicalに軍配が上がったのか、それぞれの強みと弱みが浮き彫りになるやり取りでした。
後半では、Amicalの言語設定を英語にすると日本語の発話がそのまま英語に翻訳されるという偶然の発見から、コンテキスト効率やAIへの入力最適化の話へ展開。さらに音声入力が前提になった世界では、キーボードの配置やパソコンの形状そのものが変わるのではないかという未来の話にまで広がりました。

▼Amical 公式サイト
https://amical.ai/

▼VoiceOS 公式サイト
https://www.voiceos.com/
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f</itunes:summary>
   <itunes:explicit>no</itunes:explicit>
   <itunes:duration>00:24:29</itunes:duration>
   <itunes:image href="https://cdncf.stand.fm/cdn-cgi/image/fit=cover,width=1400,height=1400/coverImages/01KJ1M66A4FVY4M5YJC5AXQJ3X"/>
   <itunes:title>23【Amical・VoiceOS・Apple純正比較】音声入力ツール結局どれ？</itunes:title>
  </item>
  <item>
   <title><![CDATA[22【悲願のCodexサブエージェント！】並列化でAIの思考が深まる理由とは？]]></title>
   <description><![CDATA[今回は、ついに実装されたCodexのサブエージェント機能を実際に使ってみた感想を起点に、「サブエージェントによってAIの思考はどう変わるのか？」について語っております。
僕としては待ちに待った機能で、experimentalながらかなり安定している印象を受けました。さらに面白かったのが、親エージェントがサブエージェントに進捗確認をしたり、タスク委譲の前段で視野を広げた探索を始めたりと、Claude Codeのサブエージェントとは少し違う振る舞いが見えてきたことです。スコープの分離が思考の深さにどう影響するのかという点でも、阿部さんとかなり盛り上がりました。

▼Codex
https://github.com/openai/codex

【配信サービス】
▼Spotify
 https://open.spotify.com/show/5b4x1u0M2f0Kmr1Xnv1Z7r?si=12580ee9ade0414e

▼Youtube
 https://youtube.com/@ai-nichijo-fm
 
▼Apple Podcasts
 https://podcasts.apple.com/jp/podcast/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8/id1843990202
 
▼amazon music
 https://music.amazon.co.jp/podcasts/4fd4926b-a654-4dc7-a858-01ff5e0e8c25/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8
 
▼stand.fm
 https://stand.fm/channels/68dc82a9036795923c400b4f
 
▼LISTEN
 https://listen.style/p/ai-nichijo-fm?xtIZk9qq
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f]]></description>
   <link>https://stand.fm/episodes/699010fd6b323c112320cd29</link>
   <guid isPermaLink="true">https://stand.fm/episodes/699010fd6b323c112320cd29</guid>
   <dc:creator><![CDATA[AI駆動開発部の日常]]></dc:creator>
   <pubDate>Sun, 15 Feb 2026 09:00:16 GMT</pubDate>
   <enclosure url="https://cdncf.stand.fm/audios/01KHDC5F3CZ4AYSNWXJRVGV9NP.m4a" length="0" type="audio/x-m4a"/>
   <itunes:summary>今回は、ついに実装されたCodexのサブエージェント機能を実際に使ってみた感想を起点に、「サブエージェントによってAIの思考はどう変わるのか？」について語っております。
僕としては待ちに待った機能で、experimentalながらかなり安定している印象を受けました。さらに面白かったのが、親エージェントがサブエージェントに進捗確認をしたり、タスク委譲の前段で視野を広げた探索を始めたりと、Claude Codeのサブエージェントとは少し違う振る舞いが見えてきたことです。スコープの分離が思考の深さにどう影響するのかという点でも、阿部さんとかなり盛り上がりました。

▼Codex
https://github.com/openai/codex

【配信サービス】
▼Spotify
 https://open.spotify.com/show/5b4x1u0M2f0Kmr1Xnv1Z7r?si=12580ee9ade0414e

▼Youtube
 https://youtube.com/@ai-nichijo-fm
 
▼Apple Podcasts
 https://podcasts.apple.com/jp/podcast/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8/id1843990202
 
▼amazon music
 https://music.amazon.co.jp/podcasts/4fd4926b-a654-4dc7-a858-01ff5e0e8c25/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8
 
▼stand.fm
 https://stand.fm/channels/68dc82a9036795923c400b4f
 
▼LISTEN
 https://listen.style/p/ai-nichijo-fm?xtIZk9qq
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f</itunes:summary>
   <itunes:explicit>no</itunes:explicit>
   <itunes:duration>00:18:46</itunes:duration>
   <itunes:image href="https://cdncf.stand.fm/cdn-cgi/image/fit=cover,width=1400,height=1400/coverImages/01KHDC41M58AN29CS6NT3RMNM6"/>
   <itunes:title>22【悲願のCodexサブエージェント！】並列化でAIの思考が深まる理由とは？</itunes:title>
  </item>
  <item>
   <title><![CDATA[21【Z.ai GLM-5はメインで使える？】Opus 4.6やCodexと比較]]></title>
   <description><![CDATA[今回は、2026年2月12日にZ.aiがリリースしたGLM-5を使ってみた感想について語っております。

阿部さんはGitHubのプルリクエストに来るAIの自動コードレビューの妥当性評価と実装方針検討を、GLM-5とClaude Opus 4.6、GPT-5.3-Codex Extra Highの3モデルに同時に投げて比較したところ、情報収集やツールユースの巧さが光る場面がある一方で、最終的な判断にブレが出るケースもあったとのことです。

僕の方でもドキュメント更新やPlaywright MCPを使ったE2Eテストを試してみました。もっともらしい嘘（ハルシネーション）をつく傾向があり事実確認には注意が必要ですが、タスクを前に進める「推進力」は非常に優秀でした。特にE2Eテストでは、画面に残っていた不要なエラー文言を自律的に発見して指摘するなど高い実行力を発揮しており、メインモデルとして採用できる可能性も十分に感じられた回になります。

後半では、各LLMに同じプロンプトでLPサイトを生成させる比較の話題でも盛り上がりました。


▼GLM-5
https://z.ai/blog/glm-5

▼各LLMのLPサイト生成比較
https://nikukyu.sitocha.cc/testllm/index.html

【配信サービス】
▼Spotify
 https://open.spotify.com/show/5b4x1u0M2f0Kmr1Xnv1Z7r?si=12580ee9ade0414e

▼Youtube
 https://youtube.com/@ai-nichijo-fm
 
▼Apple Podcasts
 https://podcasts.apple.com/jp/podcast/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8/id1843990202
 
▼amazon music
 https://music.amazon.co.jp/podcasts/4fd4926b-a654-4dc7-a858-01ff5e0e8c25/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8
 
▼stand.fm
 https://stand.fm/channels/68dc82a9036795923c400b4f
 
▼LISTEN
 https://listen.style/p/ai-nichijo-fm?xtIZk9qq
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f]]></description>
   <link>https://stand.fm/episodes/698fe9846b323c112320cac5</link>
   <guid isPermaLink="true">https://stand.fm/episodes/698fe9846b323c112320cac5</guid>
   <dc:creator><![CDATA[AI駆動開発部の日常]]></dc:creator>
   <pubDate>Sat, 14 Feb 2026 03:19:09 GMT</pubDate>
   <enclosure url="https://cdncf.stand.fm/audios/01KHD2HFZ5AVPPKTCNRJ15AK6W.m4a" length="0" type="audio/x-m4a"/>
   <itunes:summary>今回は、2026年2月12日にZ.aiがリリースしたGLM-5を使ってみた感想について語っております。

阿部さんはGitHubのプルリクエストに来るAIの自動コードレビューの妥当性評価と実装方針検討を、GLM-5とClaude Opus 4.6、GPT-5.3-Codex Extra Highの3モデルに同時に投げて比較したところ、情報収集やツールユースの巧さが光る場面がある一方で、最終的な判断にブレが出るケースもあったとのことです。

僕の方でもドキュメント更新やPlaywright MCPを使ったE2Eテストを試してみました。もっともらしい嘘（ハルシネーション）をつく傾向があり事実確認には注意が必要ですが、タスクを前に進める「推進力」は非常に優秀でした。特にE2Eテストでは、画面に残っていた不要なエラー文言を自律的に発見して指摘するなど高い実行力を発揮しており、メインモデルとして採用できる可能性も十分に感じられた回になります。

後半では、各LLMに同じプロンプトでLPサイトを生成させる比較の話題でも盛り上がりました。


▼GLM-5
https://z.ai/blog/glm-5

▼各LLMのLPサイト生成比較
https://nikukyu.sitocha.cc/testllm/index.html

【配信サービス】
▼Spotify
 https://open.spotify.com/show/5b4x1u0M2f0Kmr1Xnv1Z7r?si=12580ee9ade0414e

▼Youtube
 https://youtube.com/@ai-nichijo-fm
 
▼Apple Podcasts
 https://podcasts.apple.com/jp/podcast/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8/id1843990202
 
▼amazon music
 https://music.amazon.co.jp/podcasts/4fd4926b-a654-4dc7-a858-01ff5e0e8c25/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8
 
▼stand.fm
 https://stand.fm/channels/68dc82a9036795923c400b4f
 
▼LISTEN
 https://listen.style/p/ai-nichijo-fm?xtIZk9qq
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f</itunes:summary>
   <itunes:explicit>no</itunes:explicit>
   <itunes:duration>00:31:39</itunes:duration>
   <itunes:image href="https://cdncf.stand.fm/cdn-cgi/image/fit=cover,width=1400,height=1400/coverImages/01KHD2F2QXF1299V7C87M2KGFB"/>
   <itunes:title>21【Z.ai GLM-5はメインで使える？】Opus 4.6やCodexと比較</itunes:title>
  </item>
  <item>
   <title><![CDATA[20【Claude Codeの新機能】Agent Teamsとサブエージェント]]></title>
   <description><![CDATA[今回は、Anthropicが提供するClaude Codeで新しく登場したAgent Teams機能について語っております。

 従来のサブエージェントが「隔離された部屋で黙々と作業する作業者」のようなイメージだったのに対し、Agent Teamsは「同じオフィスで対話しながら協働するチーム」のような概念だと捉えています。
エージェント同士がメッセージをやり取りし、共有タスクリストで協調する仕組みそのものが、これまでとは異なるアプローチに見えました。

阿部さんと話を通じて感じたのは、この対話可能性こそがAgent Teamsの本質かもしれないということです。あえて反対意見を言うDevil's Advocate役を配置したり、リサーチャー、ルール確認担当など役割を分担して議論させる。単なる作業効率化ではなく、答えのない設計をチームで練り上げるような「ミーティング」的な活用法こそが向いているのではないか。

当然、チームメンバーが増えればコミュニケーションコストは指数関数的に上がり、コンテキスト消費も増大します。そのため、作業を並列で進めるならサブエージェント、知識的な議論を煮詰めるならAgent Teamsという使い分けが現実的なのかもしれません。

▼Claude CodeのAgent Teamsについて
https://code.claude.com/docs/ja/agent-teams

【配信サービス】
▼Spotify
 https://open.spotify.com/show/5b4x1u0M2f0Kmr1Xnv1Z7r?si=12580ee9ade0414e

▼Youtube
 https://youtube.com/@ai-nichijo-fm
 
▼Apple Podcasts
 https://podcasts.apple.com/jp/podcast/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8/id1843990202
 
▼amazon music
 https://music.amazon.co.jp/podcasts/4fd4926b-a654-4dc7-a858-01ff5e0e8c25/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8
 
▼stand.fm
 https://stand.fm/channels/68dc82a9036795923c400b4f
 
▼LISTEN
 https://listen.style/p/ai-nichijo-fm?xtIZk9qq
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f]]></description>
   <link>https://stand.fm/episodes/698efa67734d22f83eea3c39</link>
   <guid isPermaLink="true">https://stand.fm/episodes/698efa67734d22f83eea3c39</guid>
   <dc:creator><![CDATA[AI駆動開発部の日常]]></dc:creator>
   <pubDate>Fri, 13 Feb 2026 10:18:52 GMT</pubDate>
   <enclosure url="https://cdncf.stand.fm/audios/01KHB859TF9K5G9CBCW5A3SGH7.m4a" length="0" type="audio/x-m4a"/>
   <itunes:summary>今回は、Anthropicが提供するClaude Codeで新しく登場したAgent Teams機能について語っております。

 従来のサブエージェントが「隔離された部屋で黙々と作業する作業者」のようなイメージだったのに対し、Agent Teamsは「同じオフィスで対話しながら協働するチーム」のような概念だと捉えています。
エージェント同士がメッセージをやり取りし、共有タスクリストで協調する仕組みそのものが、これまでとは異なるアプローチに見えました。

阿部さんと話を通じて感じたのは、この対話可能性こそがAgent Teamsの本質かもしれないということです。あえて反対意見を言うDevil&apos;s Advocate役を配置したり、リサーチャー、ルール確認担当など役割を分担して議論させる。単なる作業効率化ではなく、答えのない設計をチームで練り上げるような「ミーティング」的な活用法こそが向いているのではないか。

当然、チームメンバーが増えればコミュニケーションコストは指数関数的に上がり、コンテキスト消費も増大します。そのため、作業を並列で進めるならサブエージェント、知識的な議論を煮詰めるならAgent Teamsという使い分けが現実的なのかもしれません。

▼Claude CodeのAgent Teamsについて
https://code.claude.com/docs/ja/agent-teams

【配信サービス】
▼Spotify
 https://open.spotify.com/show/5b4x1u0M2f0Kmr1Xnv1Z7r?si=12580ee9ade0414e

▼Youtube
 https://youtube.com/@ai-nichijo-fm
 
▼Apple Podcasts
 https://podcasts.apple.com/jp/podcast/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8/id1843990202
 
▼amazon music
 https://music.amazon.co.jp/podcasts/4fd4926b-a654-4dc7-a858-01ff5e0e8c25/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8
 
▼stand.fm
 https://stand.fm/channels/68dc82a9036795923c400b4f
 
▼LISTEN
 https://listen.style/p/ai-nichijo-fm?xtIZk9qq
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f</itunes:summary>
   <itunes:explicit>no</itunes:explicit>
   <itunes:duration>00:21:57</itunes:duration>
   <itunes:image href="https://cdncf.stand.fm/cdn-cgi/image/fit=cover,width=1400,height=1400/coverImages/01KHB82ZEW23ZWFNXC2202ZS6H"/>
   <itunes:title>20【Claude Codeの新機能】Agent Teamsとサブエージェント</itunes:title>
  </item>
  <item>
   <title><![CDATA[19【無料でここまで？】OSSの音声入力アプリ「Amical」でAI開発を加速]]></title>
   <description><![CDATA[今回は、「AI駆動開発で音声入力を使いこなすには？」という観点から、無料で使えるオープンソースの音声入力アプリ Amical について語っております。
僕はAmical Cloudの精度が高いと感じていて推していますが、阿部さんは深夜帯の文字化けを避けるためローカルの Whisper large-v3-turbo を使っているとのこと。PCのスペックやマイクによって最適な設定が変わりそうで、使い方次第では向き不向きがあるようです。
ボキャブラリー機能を辞書的に使ってはいましたが、「句読点を入れてください」といった指示をボキャブラリーに登録する活用法もあるようで、これは試してみたいところです。後半では話題の OpenClaw についても少し触れ、AIがPCを操作する時代の「常識を疑う姿勢」についても話しています。

▼Amical 関連リンク
https://amical.ai/

▼Whisper 関連リンク
https://github.com/openai/whisper

▼OpenClaw 関連リンク
https://openclaw.ai/
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f]]></description>
   <link>https://stand.fm/episodes/6981d9e9cca0c6e651267763</link>
   <guid isPermaLink="true">https://stand.fm/episodes/6981d9e9cca0c6e651267763</guid>
   <dc:creator><![CDATA[AI駆動開発部の日常]]></dc:creator>
   <pubDate>Tue, 03 Feb 2026 11:20:49 GMT</pubDate>
   <enclosure url="https://cdncf.stand.fm/audios/01KGHKQGCDT0S0AES6XZA76CT6.m4a" length="0" type="audio/x-m4a"/>
   <itunes:summary>今回は、「AI駆動開発で音声入力を使いこなすには？」という観点から、無料で使えるオープンソースの音声入力アプリ Amical について語っております。
僕はAmical Cloudの精度が高いと感じていて推していますが、阿部さんは深夜帯の文字化けを避けるためローカルの Whisper large-v3-turbo を使っているとのこと。PCのスペックやマイクによって最適な設定が変わりそうで、使い方次第では向き不向きがあるようです。
ボキャブラリー機能を辞書的に使ってはいましたが、「句読点を入れてください」といった指示をボキャブラリーに登録する活用法もあるようで、これは試してみたいところです。後半では話題の OpenClaw についても少し触れ、AIがPCを操作する時代の「常識を疑う姿勢」についても話しています。

▼Amical 関連リンク
https://amical.ai/

▼Whisper 関連リンク
https://github.com/openai/whisper

▼OpenClaw 関連リンク
https://openclaw.ai/
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f</itunes:summary>
   <itunes:explicit>no</itunes:explicit>
   <itunes:duration>00:19:21</itunes:duration>
   <itunes:image href="https://cdncf.stand.fm/cdn-cgi/image/fit=cover,width=1400,height=1400/coverImages/01KGHKNQBQS587JG29C2QK1BCM"/>
   <itunes:title>19【無料でここまで？】OSSの音声入力アプリ「Amical」でAI開発を加速</itunes:title>
  </item>
  <item>
   <title><![CDATA[18【FigmaからPencilへ？】AIネイティブなデザインツールの可能性]]></title>
   <description><![CDATA[今回は、AIネイティブなデザインツール Pencil について語っております。
僕自身まだ使っていないのですが、阿部さんが試しに触ってくれたところ、かなり気に入っている様子でした。Figmaに近い操作感でありながら、デザインデータがJSON形式でGit管理できるという点や、Claude CodeやCursorとMCP経由で連携できるという点が、従来のツールとは大きく異なる体験だそうです。
「デザイナーがいないチームでどうUIを作るか」「ユーザーマニュアルへの画像反映をどう自動化するか」など、実際のプロダクト開発での活用イメージも話しています。後半では、AIをツールとしてどう組み込むか、エージェンティックに動かすサービス設計とは何が違うのかなど、サービス開発の視点でも盛り上がりました。

Pencil 関連リンク
https://www.pencil.dev/

【配信サービス】
▼Spotify
https://open.spotify.com/show/5b4x1u0M2f0Kmr1Xnv1Z7r?si=12580ee9ade0414e

▼Youtube
https://youtube.com/@ai-nichijo-fm
 
▼Apple Podcasts
https://podcasts.apple.com/jp/podcast/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8/id1843990202
 
▼amazon music
https://music.amazon.co.jp/podcasts/4fd4926b-a654-4dc7-a858-01ff5e0e8c25/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8
 
▼stand.fm
https://stand.fm/channels/68dc82a9036795923c400b4f
 
▼LISTEN
https://listen.style/p/ai-nichijo-fm?xtIZk9qq
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f]]></description>
   <link>https://stand.fm/episodes/6977640326d13ac12d8f3e1f</link>
   <guid isPermaLink="true">https://stand.fm/episodes/6977640326d13ac12d8f3e1f</guid>
   <dc:creator><![CDATA[AI駆動開発部の日常]]></dc:creator>
   <pubDate>Tue, 27 Jan 2026 08:00:09 GMT</pubDate>
   <enclosure url="https://cdncf.stand.fm/audios/01KGHWYKXHZX78W1ZJJRDMAF6D.m4a" length="0" type="audio/x-m4a"/>
   <itunes:summary>今回は、AIネイティブなデザインツール Pencil について語っております。
僕自身まだ使っていないのですが、阿部さんが試しに触ってくれたところ、かなり気に入っている様子でした。Figmaに近い操作感でありながら、デザインデータがJSON形式でGit管理できるという点や、Claude CodeやCursorとMCP経由で連携できるという点が、従来のツールとは大きく異なる体験だそうです。
「デザイナーがいないチームでどうUIを作るか」「ユーザーマニュアルへの画像反映をどう自動化するか」など、実際のプロダクト開発での活用イメージも話しています。後半では、AIをツールとしてどう組み込むか、エージェンティックに動かすサービス設計とは何が違うのかなど、サービス開発の視点でも盛り上がりました。

Pencil 関連リンク
https://www.pencil.dev/

【配信サービス】
▼Spotify
https://open.spotify.com/show/5b4x1u0M2f0Kmr1Xnv1Z7r?si=12580ee9ade0414e

▼Youtube
https://youtube.com/@ai-nichijo-fm
 
▼Apple Podcasts
https://podcasts.apple.com/jp/podcast/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8/id1843990202
 
▼amazon music
https://music.amazon.co.jp/podcasts/4fd4926b-a654-4dc7-a858-01ff5e0e8c25/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8
 
▼stand.fm
https://stand.fm/channels/68dc82a9036795923c400b4f
 
▼LISTEN
https://listen.style/p/ai-nichijo-fm?xtIZk9qq
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f</itunes:summary>
   <itunes:explicit>no</itunes:explicit>
   <itunes:duration>00:20:43</itunes:duration>
   <itunes:image href="https://cdncf.stand.fm/cdn-cgi/image/fit=cover,width=1400,height=1400/coverImages/01KFX5WRZGD0SAM0F5GRJV7YDD"/>
   <itunes:title>18【FigmaからPencilへ？】AIネイティブなデザインツールの可能性</itunes:title>
  </item>
  <item>
   <title><![CDATA[17【コスパ最強は本当か】Z.ai GLM-4.7をCursorで使ってみた]]></title>
   <description><![CDATA[今回は、Z.aiが提供するGLM-4.7という激安AIコーディングモデルを実際に使ってみた感想について語っております。月額3ドルから始められて、しかもウィークリーのレートリミットがないという破格のプランです。
僕たちは普段Claude CodeやCodexを使っていて、毎週末にはレートリミットに苦しむことが多かったんですが、このGLM Coding Planだと5時間ごとにリセットされるため、使い切る心配がほとんどありません。API経由でCursorやOpenCode、さらにはClaude Codeでも設定できるというのが大きなポイントです。
肝心の性能について、阿部さんと僕では感じ方に若干の違いもあり、「実務で使えるレベルか」「どこに限界があるか」など率直に議論しました。コスパ重視でAIコーディングを試したい方には参考になるかもしれません。

GLM Coding Plan 関連リンク
https://z.ai/subscribe

【配信サービス】
▼Spotify
https://open.spotify.com/show/5b4x1u0M2f0Kmr1Xnv1Z7r?si=12580ee9ade0414e

▼Youtube
https://youtube.com/@ai-nichijo-fm
 
▼Apple Podcasts
https://podcasts.apple.com/jp/podcast/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8/id1843990202
 
▼amazon music
https://music.amazon.co.jp/podcasts/4fd4926b-a654-4dc7-a858-01ff5e0e8c25/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8
 
▼stand.fm
https://stand.fm/channels/68dc82a9036795923c400b4f
 
▼LISTEN
https://listen.style/p/ai-nichijo-fm?xtIZk9qq
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f]]></description>
   <link>https://stand.fm/episodes/69774ce08598ac73f263b471</link>
   <guid isPermaLink="true">https://stand.fm/episodes/69774ce08598ac73f263b471</guid>
   <dc:creator><![CDATA[AI駆動開発部の日常]]></dc:creator>
   <pubDate>Mon, 26 Jan 2026 11:16:19 GMT</pubDate>
   <enclosure url="https://cdncf.stand.fm/audios/01KGHX0ERKDWQZ9ZHYC29GN9BC.m4a" length="0" type="audio/x-m4a"/>
   <itunes:summary>今回は、Z.aiが提供するGLM-4.7という激安AIコーディングモデルを実際に使ってみた感想について語っております。月額3ドルから始められて、しかもウィークリーのレートリミットがないという破格のプランです。
僕たちは普段Claude CodeやCodexを使っていて、毎週末にはレートリミットに苦しむことが多かったんですが、このGLM Coding Planだと5時間ごとにリセットされるため、使い切る心配がほとんどありません。API経由でCursorやOpenCode、さらにはClaude Codeでも設定できるというのが大きなポイントです。
肝心の性能について、阿部さんと僕では感じ方に若干の違いもあり、「実務で使えるレベルか」「どこに限界があるか」など率直に議論しました。コスパ重視でAIコーディングを試したい方には参考になるかもしれません。

GLM Coding Plan 関連リンク
https://z.ai/subscribe

【配信サービス】
▼Spotify
https://open.spotify.com/show/5b4x1u0M2f0Kmr1Xnv1Z7r?si=12580ee9ade0414e

▼Youtube
https://youtube.com/@ai-nichijo-fm
 
▼Apple Podcasts
https://podcasts.apple.com/jp/podcast/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8/id1843990202
 
▼amazon music
https://music.amazon.co.jp/podcasts/4fd4926b-a654-4dc7-a858-01ff5e0e8c25/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8
 
▼stand.fm
https://stand.fm/channels/68dc82a9036795923c400b4f
 
▼LISTEN
https://listen.style/p/ai-nichijo-fm?xtIZk9qq
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f</itunes:summary>
   <itunes:explicit>no</itunes:explicit>
   <itunes:duration>00:26:38</itunes:duration>
   <itunes:image href="https://cdncf.stand.fm/cdn-cgi/image/fit=cover,width=1400,height=1400/coverImages/01KFX07WXKEGKHRRBBRPDR9FZ7"/>
   <itunes:title>17【コスパ最強は本当か】Z.ai GLM-4.7をCursorで使ってみた</itunes:title>
  </item>
  <item>
   <title><![CDATA[16【opencode試した】並列開発サブエージェントとBest-of-Nの違い]]></title>
   <description><![CDATA[今回は、AI駆動開発には切っても切り離せない「AIエージェントの並列実装」について、そのパターンや実際の使い方を語っております。

並列開発には大きく2つのアプローチがあります。Cursorが採用しているBest of Nと、Claude Codeやopencodeが採用しているサブエージェント型。

僕はどちらかというと1つの指示で複数タスクを采配してほしいと思っているのですが、阿部さんはGit worktreeを使って環境ごと分離する仕組みづくりに取り組んでいます。DBのコピーやポート番号の自動割り当てなど、プロジェクトごとにチューニングが必要だという現実もあり、理想と実装の間で試行錯誤が続いています。

収録中にCursorにサブエージェント機能が追加されたことを発見する嬉しい場面も。CursorのCEOが数百体のエージェントでブラウザを構築した実験の話や、GLM-4.7のようなコスト効率の良いモデルの登場、GitHub Copilotのopencode公式サポート開始など、並列開発を取り巻く環境が急速に変わっていることを実感する回となりました。

▼opencode 関連リンク
https://opencode.ai/
▼Cursor サブエージェント ドキュメント
https://cursor.com/docs/context/subagents
▼GLM-4.7 公式ブログ
https://z.ai/blog/glm-4.7
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f]]></description>
   <link>https://stand.fm/episodes/696e10754ec0568b8b99508f</link>
   <guid isPermaLink="true">https://stand.fm/episodes/696e10754ec0568b8b99508f</guid>
   <dc:creator><![CDATA[AI駆動開発部の日常]]></dc:creator>
   <pubDate>Mon, 19 Jan 2026 11:08:36 GMT</pubDate>
   <enclosure url="https://cdncf.stand.fm/audios/01KFAZ2AWYS6R3YAB8W4WT4EVW.m4a" length="0" type="audio/x-m4a"/>
   <itunes:summary>今回は、AI駆動開発には切っても切り離せない「AIエージェントの並列実装」について、そのパターンや実際の使い方を語っております。

並列開発には大きく2つのアプローチがあります。Cursorが採用しているBest of Nと、Claude Codeやopencodeが採用しているサブエージェント型。

僕はどちらかというと1つの指示で複数タスクを采配してほしいと思っているのですが、阿部さんはGit worktreeを使って環境ごと分離する仕組みづくりに取り組んでいます。DBのコピーやポート番号の自動割り当てなど、プロジェクトごとにチューニングが必要だという現実もあり、理想と実装の間で試行錯誤が続いています。

収録中にCursorにサブエージェント機能が追加されたことを発見する嬉しい場面も。CursorのCEOが数百体のエージェントでブラウザを構築した実験の話や、GLM-4.7のようなコスト効率の良いモデルの登場、GitHub Copilotのopencode公式サポート開始など、並列開発を取り巻く環境が急速に変わっていることを実感する回となりました。

▼opencode 関連リンク
https://opencode.ai/
▼Cursor サブエージェント ドキュメント
https://cursor.com/docs/context/subagents
▼GLM-4.7 公式ブログ
https://z.ai/blog/glm-4.7
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f</itunes:summary>
   <itunes:explicit>no</itunes:explicit>
   <itunes:duration>00:42:57</itunes:duration>
   <itunes:image href="https://cdncf.stand.fm/cdn-cgi/image/fit=cover,width=1400,height=1400/coverImages/01KFAYYAESCHRKDR7HTYZ9AEJR"/>
   <itunes:title>16【opencode試した】並列開発サブエージェントとBest-of-Nの違い</itunes:title>
  </item>
  <item>
   <title><![CDATA[15【便利なCursorのDebugMode】CodexとClaudeで使える？]]></title>
   <description><![CDATA[今回は、阿部さんがCursorのDebug Modeを体験して「これはClaude CodeやCodex CLIでもできるようにしたい」と実装してくれたSkillsについて語っております。

CursorのDebug Modeは、AIがコードベースを読んで仮説を立て、ログ取得用のローカルサーバーを立ててそこにPOSTリクエストでログを送信させ、ユーザーが操作して事実を収集していくという流れ。
僕のような非エンジニアにとっては、むやみにコードをいじらず本質にたどり着ける点がかなり助かっています。

阿部さんはこの仕組みを、ローカルサーバーを立てるnpxコマンドごとSkillsとしてパッケージ化。
フロントエンドでもサーバーサイドでも同じ方法でログ収集できる点や、ngrokやCloudflareトンネルと組み合わせればアプリなどスマホ実機での検証にも対応できる点など、Cursorにはない拡張性も見えてきました。

後半では、SkillsとSlashコマンドの使い分けについても議論しています。強制力の強い指示はSlashコマンド、知識レベルの振る舞いはSkillsという棲み分けの話や、テンプレートを活用した報告書出力など、お互い気づきの多い時間となりました。

【関連リンク】
今回阿部さんが作成したdebug用のskillsはこちら公開されていて利用することも可能です。

▼debug用のskills
https://github.com/abekdwight/code-debug-skills

▼CursorのDebug Modeについて
https://cursor.com/ja/blog/debug-mode

【配信サービス】
▼Spotify
https://open.spotify.com/show/5b4x1u0M2f0Kmr1Xnv1Z7r?si=12580ee9ade0414e

▼Youtube
https://youtube.com/@ai-nichijo-fm
 
▼Apple Podcasts
https://podcasts.apple.com/jp/podcast/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8/id1843990202
 
▼amazon music
https://music.amazon.co.jp/podcasts/4fd4926b-a654-4dc7-a858-01ff5e0e8c25/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8
 
▼stand.fm
https://stand.fm/channels/68dc82a9036795923c400b4f
 
▼LISTEN
https://listen.style/p/ai-nichijo-fm?xtIZk9qq
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f]]></description>
   <link>https://stand.fm/episodes/695b42a42d89d6acef4f8437</link>
   <guid isPermaLink="true">https://stand.fm/episodes/695b42a42d89d6acef4f8437</guid>
   <dc:creator><![CDATA[AI駆動開発部の日常]]></dc:creator>
   <pubDate>Mon, 05 Jan 2026 08:00:09 GMT</pubDate>
   <enclosure url="https://cdncf.stand.fm/audios/01KE67SATFBGGF1GWQB13VFRYF.m4a" length="0" type="audio/x-m4a"/>
   <itunes:summary>今回は、阿部さんがCursorのDebug Modeを体験して「これはClaude CodeやCodex CLIでもできるようにしたい」と実装してくれたSkillsについて語っております。

CursorのDebug Modeは、AIがコードベースを読んで仮説を立て、ログ取得用のローカルサーバーを立ててそこにPOSTリクエストでログを送信させ、ユーザーが操作して事実を収集していくという流れ。
僕のような非エンジニアにとっては、むやみにコードをいじらず本質にたどり着ける点がかなり助かっています。

阿部さんはこの仕組みを、ローカルサーバーを立てるnpxコマンドごとSkillsとしてパッケージ化。
フロントエンドでもサーバーサイドでも同じ方法でログ収集できる点や、ngrokやCloudflareトンネルと組み合わせればアプリなどスマホ実機での検証にも対応できる点など、Cursorにはない拡張性も見えてきました。

後半では、SkillsとSlashコマンドの使い分けについても議論しています。強制力の強い指示はSlashコマンド、知識レベルの振る舞いはSkillsという棲み分けの話や、テンプレートを活用した報告書出力など、お互い気づきの多い時間となりました。

【関連リンク】
今回阿部さんが作成したdebug用のskillsはこちら公開されていて利用することも可能です。

▼debug用のskills
https://github.com/abekdwight/code-debug-skills

▼CursorのDebug Modeについて
https://cursor.com/ja/blog/debug-mode

【配信サービス】
▼Spotify
https://open.spotify.com/show/5b4x1u0M2f0Kmr1Xnv1Z7r?si=12580ee9ade0414e

▼Youtube
https://youtube.com/@ai-nichijo-fm
 
▼Apple Podcasts
https://podcasts.apple.com/jp/podcast/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8/id1843990202
 
▼amazon music
https://music.amazon.co.jp/podcasts/4fd4926b-a654-4dc7-a858-01ff5e0e8c25/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8
 
▼stand.fm
https://stand.fm/channels/68dc82a9036795923c400b4f
 
▼LISTEN
https://listen.style/p/ai-nichijo-fm?xtIZk9qq
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f</itunes:summary>
   <itunes:explicit>no</itunes:explicit>
   <itunes:duration>00:37:33</itunes:duration>
   <itunes:image href="https://cdncf.stand.fm/cdn-cgi/image/fit=cover,width=1400,height=1400/coverImages/01KE67QQ0S3ZF11QHS0EFXE4MR"/>
   <itunes:title>15【便利なCursorのDebugMode】CodexとClaudeで使える？</itunes:title>
  </item>
  <item>
   <title><![CDATA[14【PRレビューの指摘をAIで自動修正】Codexクラウドでサブスク内で完結]]></title>
   <description><![CDATA[今回は、「プルリクエストに対するAIレビューの指摘を、追加でのAPI課金なしでAIに自動修正できないか」という阿部さんの取り組みを起点に語っております。
Claude Code、CodeRabbit、Codexの3つのAIレビューが走る環境で、指摘事項を手元で修正し直すというループが面倒になってきた阿部さん。GitHub Actions上でClaude Codeを動かす方法やAPI経由で回す方法もあるなか、Codexのサブスクの枠内で実現する方法としてCodexクラウドとの連携を試した試行錯誤について話しています。
ただ、僕の方は「Codexクラウドの修正結果の妥当性をコードで確認するのが重たい」という感覚があり、むしろレビュー内容を整理してくれるだけの方がありがたいかもという話に。自動修正と情報整理、どちらが実用的なのかはかなり意見が分かれるポイントでした。

【関連リンク】
▼Codex
https://openai.com/ja-JP/codex/

▼CodeRabbit
https://www.coderabbit.ai/ja

【配信サービス】
 ▼Spotify
https://open.spotify.com/show/5b4x1u0M2f0Kmr1Xnv1Z7r?si=12580ee9ade0414e

▼Youtube
 https://youtube.com/@ai-nichijo-fm
 
 ▼Apple Podcasts
https://podcasts.apple.com/jp/podcast/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8/id1843990202
 
 ▼amazon music
 https://music.amazon.co.jp/podcasts/4fd4926b-a654-4dc7-a858-01ff5e0e8c25/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8
 
 ▼stand.fm
https://stand.fm/channels/68dc82a9036795923c400b4f
 
 ▼LISTEN
 https://listen.style/p/ai-nichijo-fm?xtIZk9qq
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f]]></description>
   <link>https://stand.fm/episodes/695229ccaf089b13a61a2871</link>
   <guid isPermaLink="true">https://stand.fm/episodes/695229ccaf089b13a61a2871</guid>
   <dc:creator><![CDATA[AI駆動開発部の日常]]></dc:creator>
   <pubDate>Mon, 29 Dec 2025 07:13:08 GMT</pubDate>
   <enclosure url="https://cdncf.stand.fm/audios/01KDMF86AZPT0ZQN4AMY7EVYPQ.m4a" length="0" type="audio/x-m4a"/>
   <itunes:summary>今回は、「プルリクエストに対するAIレビューの指摘を、追加でのAPI課金なしでAIに自動修正できないか」という阿部さんの取り組みを起点に語っております。
Claude Code、CodeRabbit、Codexの3つのAIレビューが走る環境で、指摘事項を手元で修正し直すというループが面倒になってきた阿部さん。GitHub Actions上でClaude Codeを動かす方法やAPI経由で回す方法もあるなか、Codexのサブスクの枠内で実現する方法としてCodexクラウドとの連携を試した試行錯誤について話しています。
ただ、僕の方は「Codexクラウドの修正結果の妥当性をコードで確認するのが重たい」という感覚があり、むしろレビュー内容を整理してくれるだけの方がありがたいかもという話に。自動修正と情報整理、どちらが実用的なのかはかなり意見が分かれるポイントでした。

【関連リンク】
▼Codex
https://openai.com/ja-JP/codex/

▼CodeRabbit
https://www.coderabbit.ai/ja

【配信サービス】
 ▼Spotify
https://open.spotify.com/show/5b4x1u0M2f0Kmr1Xnv1Z7r?si=12580ee9ade0414e

▼Youtube
 https://youtube.com/@ai-nichijo-fm
 
 ▼Apple Podcasts
https://podcasts.apple.com/jp/podcast/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8/id1843990202
 
 ▼amazon music
 https://music.amazon.co.jp/podcasts/4fd4926b-a654-4dc7-a858-01ff5e0e8c25/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8
 
 ▼stand.fm
https://stand.fm/channels/68dc82a9036795923c400b4f
 
 ▼LISTEN
 https://listen.style/p/ai-nichijo-fm?xtIZk9qq
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f</itunes:summary>
   <itunes:explicit>no</itunes:explicit>
   <itunes:duration>00:30:27</itunes:duration>
   <itunes:image href="https://cdncf.stand.fm/cdn-cgi/image/fit=cover,width=1400,height=1400/coverImages/01KDMF4KJJCGY2WQCMBED9HFH1"/>
   <itunes:title>14【PRレビューの指摘をAIで自動修正】Codexクラウドでサブスク内で完結</itunes:title>
  </item>
  <item>
   <title><![CDATA[13【衝撃のCursor新機能】ビジュアルエディタ×デバッグモードを使いこなす]]></title>
   <description><![CDATA[今回は、DeepWikiをプロジェクトに取り込む方法から、CursorやClaude Codeの最新機能まで、幅広く語っております。
前半は、DeepWikiの情報をリポジトリへ自動反映する仕組みを作りたいと考え、MCPやAPIなど様々なアプローチを検証した阿部さんの話から。それぞれのアプローチで何ができて何ができなかったのか、最終的にどの方法に落ち着いたのか、その経緯をじっくり話してもらいました。
その後、Cursor Browser向けビジュアルエディタやデバッグモードをどう実開発に活かしているかという話題に。ビジュアルエディタはFigmaのような操作感でUIを直接編集でき、Reactのpropsまで認識してドロップダウンで状態変更できるという驚きの機能。デバッグモードはCursor側がAPIを用意していて、ログを自動で仕込んで調査してくれるため、バグの原因特定がかなり楽になります。非エンジニアでもデザイン調整ができるようになるのでは、という話にもなりました。
僕自身はClaude CodeやCodexをGhosttyというターミナルで起動するようにしたところ、以前から悩まされていた謎の文字化け問題が起きなくなったという経験もシェアしました。iTerm2やKittyでは起きていた問題がなぜGhosttyでは起きないのか、理由は分かりませんがかなり快適になっています。
後半はClaude CodeのSkillsとRulesの話へ。MCPを入れすぎるとコンテキストを圧迫してしまう問題に対して、Skillsがどう解決策になり得るのか。概要だけを読み込んで必要な時だけ詳細を参照する仕組みや、サブエージェントとの組み合わせ方など、お互いの運用の違いが見えてきた回でした。CodexでもSkillsが使えるようになったという話題にも触れています。

▼関連リンク
DeepWiki
https://docs.devin.ai/work-with-devin/deepwiki
Cursor Browser向けビジュアルエディタ
https://cursor.com/blog/browser-visual-editor
Ghostty
https://ghostty.org/
Claude Code Skills
https://code.claude.com/docs/ja/skills

【配信サービス】
 ▼Spotify
https://open.spotify.com/show/5b4x1u0M2f0Kmr1Xnv1Z7r?si=12580ee9ade0414e

▼Youtube
 https://youtube.com/@ai-nichijo-fm
 
 ▼Apple Podcasts https://podcasts.apple.com/jp/podcast/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8/id1843990202
 
 ▼amazon music
 https://music.amazon.co.jp/podcasts/4fd4926b-a654-4dc7-a858-01ff5e0e8c25/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8
 
 ▼stand.fm
https://stand.fm/channels/68dc82a9036795923c400b4f
 
 ▼LISTEN
 https://listen.style/p/ai-nichijo-fm?xtIZk9qq
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f]]></description>
   <link>https://stand.fm/episodes/69489f7f8a5e143657294393</link>
   <guid isPermaLink="true">https://stand.fm/episodes/69489f7f8a5e143657294393</guid>
   <dc:creator><![CDATA[AI駆動開発部の日常]]></dc:creator>
   <pubDate>Mon, 22 Dec 2025 01:32:55 GMT</pubDate>
   <enclosure url="https://cdncf.stand.fm/audios/01KD1V03P13BV6ZFBTGV9HVK30.m4a" length="0" type="audio/x-m4a"/>
   <itunes:summary>今回は、DeepWikiをプロジェクトに取り込む方法から、CursorやClaude Codeの最新機能まで、幅広く語っております。
前半は、DeepWikiの情報をリポジトリへ自動反映する仕組みを作りたいと考え、MCPやAPIなど様々なアプローチを検証した阿部さんの話から。それぞれのアプローチで何ができて何ができなかったのか、最終的にどの方法に落ち着いたのか、その経緯をじっくり話してもらいました。
その後、Cursor Browser向けビジュアルエディタやデバッグモードをどう実開発に活かしているかという話題に。ビジュアルエディタはFigmaのような操作感でUIを直接編集でき、Reactのpropsまで認識してドロップダウンで状態変更できるという驚きの機能。デバッグモードはCursor側がAPIを用意していて、ログを自動で仕込んで調査してくれるため、バグの原因特定がかなり楽になります。非エンジニアでもデザイン調整ができるようになるのでは、という話にもなりました。
僕自身はClaude CodeやCodexをGhosttyというターミナルで起動するようにしたところ、以前から悩まされていた謎の文字化け問題が起きなくなったという経験もシェアしました。iTerm2やKittyでは起きていた問題がなぜGhosttyでは起きないのか、理由は分かりませんがかなり快適になっています。
後半はClaude CodeのSkillsとRulesの話へ。MCPを入れすぎるとコンテキストを圧迫してしまう問題に対して、Skillsがどう解決策になり得るのか。概要だけを読み込んで必要な時だけ詳細を参照する仕組みや、サブエージェントとの組み合わせ方など、お互いの運用の違いが見えてきた回でした。CodexでもSkillsが使えるようになったという話題にも触れています。

▼関連リンク
DeepWiki
https://docs.devin.ai/work-with-devin/deepwiki
Cursor Browser向けビジュアルエディタ
https://cursor.com/blog/browser-visual-editor
Ghostty
https://ghostty.org/
Claude Code Skills
https://code.claude.com/docs/ja/skills

【配信サービス】
 ▼Spotify
https://open.spotify.com/show/5b4x1u0M2f0Kmr1Xnv1Z7r?si=12580ee9ade0414e

▼Youtube
 https://youtube.com/@ai-nichijo-fm
 
 ▼Apple Podcasts https://podcasts.apple.com/jp/podcast/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8/id1843990202
 
 ▼amazon music
 https://music.amazon.co.jp/podcasts/4fd4926b-a654-4dc7-a858-01ff5e0e8c25/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8
 
 ▼stand.fm
https://stand.fm/channels/68dc82a9036795923c400b4f
 
 ▼LISTEN
 https://listen.style/p/ai-nichijo-fm?xtIZk9qq
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f</itunes:summary>
   <itunes:explicit>no</itunes:explicit>
   <itunes:duration>00:54:42</itunes:duration>
   <itunes:image href="https://cdncf.stand.fm/cdn-cgi/image/fit=cover,width=1400,height=1400/coverImages/01KD1TVZQPJC7R1Q005FR1TR5K"/>
   <itunes:title>13【衝撃のCursor新機能】ビジュアルエディタ×デバッグモードを使いこなす</itunes:title>
  </item>
  <item>
   <title><![CDATA[12【ベンチマークは鵜呑み厳禁!?】AIコーディングツールIDE vs CLI]]></title>
   <description><![CDATA[今回は、「CursorやWindsurfなどのIDEと、Codex CLIやClaude CodeなどのCLIツール、結局どちらがアウトプット精度が高いのか？」という議論をしております。

Windsurfを長らく使っていた阿部さんがCursorに乗り換え、6体のエージェントに同時に質問を投げる並列調査の体験を語ってくれました。一方で僕は、Codex CLIの方が精度が高いのではないかという感覚を持っていて、最近はClaude Codeのサブエージェント機能で20並列以上の調査を回し、その結果をCodex CLIで評価するという使い方をしています。

そこから「ハーネス」と呼ばれるエージェントチューニングの違いがパフォーマンスに影響しているのではという話に発展。ベンチマーク記事を調べてみたところ、モデルが異なる比較をしていたりと意外な事実も見えてきました。
IDE派とCLI派、それぞれの視点から気づきの多い回となりました。

▼Cursor 関連リンク
https://cursor.com/
▼Windsurf 関連リンク
https://windsurf.com/
▼Codex CLI 関連リンク
https://chatgpt.com/codex
▼Claude Code 関連リンク
https://anthropic.com/claude-code
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f]]></description>
   <link>https://stand.fm/episodes/693e23ed274be3c025e72b83</link>
   <guid isPermaLink="true">https://stand.fm/episodes/693e23ed274be3c025e72b83</guid>
   <dc:creator><![CDATA[AI駆動開発部の日常]]></dc:creator>
   <pubDate>Sun, 14 Dec 2025 08:30:02 GMT</pubDate>
   <enclosure url="https://cdncf.stand.fm/audios/01KCDBTAVRWNC84WGBS4KDAZ3S.m4a" length="0" type="audio/x-m4a"/>
   <itunes:summary>今回は、「CursorやWindsurfなどのIDEと、Codex CLIやClaude CodeなどのCLIツール、結局どちらがアウトプット精度が高いのか？」という議論をしております。

Windsurfを長らく使っていた阿部さんがCursorに乗り換え、6体のエージェントに同時に質問を投げる並列調査の体験を語ってくれました。一方で僕は、Codex CLIの方が精度が高いのではないかという感覚を持っていて、最近はClaude Codeのサブエージェント機能で20並列以上の調査を回し、その結果をCodex CLIで評価するという使い方をしています。

そこから「ハーネス」と呼ばれるエージェントチューニングの違いがパフォーマンスに影響しているのではという話に発展。ベンチマーク記事を調べてみたところ、モデルが異なる比較をしていたりと意外な事実も見えてきました。
IDE派とCLI派、それぞれの視点から気づきの多い回となりました。

▼Cursor 関連リンク
https://cursor.com/
▼Windsurf 関連リンク
https://windsurf.com/
▼Codex CLI 関連リンク
https://chatgpt.com/codex
▼Claude Code 関連リンク
https://anthropic.com/claude-code
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f</itunes:summary>
   <itunes:explicit>no</itunes:explicit>
   <itunes:duration>00:41:40</itunes:duration>
   <itunes:image href="https://cdncf.stand.fm/cdn-cgi/image/fit=cover,width=1400,height=1400/coverImages/01KCDBQ4ZJH3CWXYAY1XY2HMTX"/>
   <itunes:title>12【ベンチマークは鵜呑み厳禁!?】AIコーディングツールIDE vs CLI</itunes:title>
  </item>
  <item>
   <title><![CDATA[11【AI駆動開発のドキュメント管理術とは？】DevinとDeepWiki活用]]></title>
   <description><![CDATA[今回は、「AI駆動開発でドキュメントを常に最新に保つにはどうすればいいか」という課題を起点に、Devinを使った自動更新の仕組みづくりについて語っております。

ガンガンAIで開発を進めていくと、ドキュメントの更新が追いつかなくなる。毎回手動でお願いするのも面倒だし、できれば勝手に更新されている状態を作りたい。
そこでGitHub ActionsとDevin APIを組み合わせ、プルリクエスト時にDiátaxisフレームワークに則ってドキュメントを自動生成する仕組みを試してみました。

ただ、1回のPRあたりのコストが気になるところで、そこから話が展開。
DeepWikiのMCP経由アクセスという予想外の発見があり、これが実用レベルなら開発フローが大きく変わるかもしれません。
前半では、Claude Code・Cursor・Codex・Google AntigravityなどのAIツールを1週間使ってみて、結局どこに落ち着いたのかについても話しています。

【配信サービス】
 ▼Spotify
https://open.spotify.com/show/5b4x1u0M2f0Kmr1Xnv1Z7r?si=12580ee9ade0414e

▼Youtube
 https://youtube.com/@ai-nichijo-fm
 
 ▼Apple Podcasts
https://podcasts.apple.com/jp/podcast/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8/id1843990202
 
 ▼amazon music
 https://music.amazon.co.jp/podcasts/4fd4926b-a654-4dc7-a858-01ff5e0e8c25/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8
 
 ▼stand.fm
https://stand.fm/channels/68dc82a9036795923c400b4f
 
 ▼LISTEN
 https://listen.style/p/ai-nichijo-fm?xtIZk9qq 


【関連リンク】
▼Devin
https://devin.ai/

▼DeepWiki
https://deepwiki.com/

▼Diátaxis
https://diataxis.fr/

▼Claude Code
https://www.anthropic.com/claude-code

▼Cursor
https://cursor.com/
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f]]></description>
   <link>https://stand.fm/episodes/6933edb83abd405e32ed746b</link>
   <guid isPermaLink="true">https://stand.fm/episodes/6933edb83abd405e32ed746b</guid>
   <dc:creator><![CDATA[AI駆動開発部の日常]]></dc:creator>
   <pubDate>Sat, 06 Dec 2025 08:48:59 GMT</pubDate>
   <enclosure url="https://cdncf.stand.fm/audios/01KBSDK44HP31T9HTWBESXPWAG.m4a" length="0" type="audio/x-m4a"/>
   <itunes:summary>今回は、「AI駆動開発でドキュメントを常に最新に保つにはどうすればいいか」という課題を起点に、Devinを使った自動更新の仕組みづくりについて語っております。

ガンガンAIで開発を進めていくと、ドキュメントの更新が追いつかなくなる。毎回手動でお願いするのも面倒だし、できれば勝手に更新されている状態を作りたい。
そこでGitHub ActionsとDevin APIを組み合わせ、プルリクエスト時にDiátaxisフレームワークに則ってドキュメントを自動生成する仕組みを試してみました。

ただ、1回のPRあたりのコストが気になるところで、そこから話が展開。
DeepWikiのMCP経由アクセスという予想外の発見があり、これが実用レベルなら開発フローが大きく変わるかもしれません。
前半では、Claude Code・Cursor・Codex・Google AntigravityなどのAIツールを1週間使ってみて、結局どこに落ち着いたのかについても話しています。

【配信サービス】
 ▼Spotify
https://open.spotify.com/show/5b4x1u0M2f0Kmr1Xnv1Z7r?si=12580ee9ade0414e

▼Youtube
 https://youtube.com/@ai-nichijo-fm
 
 ▼Apple Podcasts
https://podcasts.apple.com/jp/podcast/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8/id1843990202
 
 ▼amazon music
 https://music.amazon.co.jp/podcasts/4fd4926b-a654-4dc7-a858-01ff5e0e8c25/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8
 
 ▼stand.fm
https://stand.fm/channels/68dc82a9036795923c400b4f
 
 ▼LISTEN
 https://listen.style/p/ai-nichijo-fm?xtIZk9qq 


【関連リンク】
▼Devin
https://devin.ai/

▼DeepWiki
https://deepwiki.com/

▼Diátaxis
https://diataxis.fr/

▼Claude Code
https://www.anthropic.com/claude-code

▼Cursor
https://cursor.com/
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f</itunes:summary>
   <itunes:explicit>no</itunes:explicit>
   <itunes:duration>00:51:37</itunes:duration>
   <itunes:image href="https://cdncf.stand.fm/cdn-cgi/image/fit=cover,width=1400,height=1400/coverImages/01KBSDEKQ8YXA8AY33A4HHBNFW"/>
   <itunes:title>11【AI駆動開発のドキュメント管理術とは？】DevinとDeepWiki活用</itunes:title>
  </item>
  <item>
   <title><![CDATA[10【結局どれ?】Antigravity・Cursor・ClaudeCode等]]></title>
   <description><![CDATA[今回は、「結局どのAI開発ツールを使ってるの？」という疑問を起点に、それぞれの使い分けについて語っております。
僕はCursorで複数モデル（Codex、Gemini 3.0 Pro、Claude Opus 4.5）に並列で要件定義を投げ、良さそうなものをピックアップしてからClaude Codeのサブエージェントで実装を進めるスタイル。
一方、阿部さんはWindsurfをメインに据えつつ、大きめの機能開発ではGoogle Antigravityで実行計画を立てるという形。同じAI駆動開発でも、アプローチがかなり違っていて驚きました。
話の中で見えてきた「コンテキストエンジニアリング」へと重要性のシフト。MCPの整備やドキュメントへのアクセス設計など、AIに何をどう渡すかが精度を左右する時代になってきているのかもしれません。

【配信サービス】
 ▼Spotify
https://open.spotify.com/show/5b4x1u0M2f0Kmr1Xnv1Z7r?si=12580ee9ade0414e

▼Youtube
 https://youtube.com/@ai-nichijo-fm
 
 ▼Apple Podcasts https://podcasts.apple.com/jp/podcast/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8/id1843990202
 
 ▼amazon music
 https://music.amazon.co.jp/podcasts/4fd4926b-a654-4dc7-a858-01ff5e0e8c25/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8
 
 ▼stand.fm
https://stand.fm/channels/68dc82a9036795923c400b4f
 
 ▼LISTEN
 https://listen.style/p/ai-nichijo-fm?xtIZk9qq
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f]]></description>
   <link>https://stand.fm/episodes/692bac0fd2bb88aebf1bb532</link>
   <guid isPermaLink="true">https://stand.fm/episodes/692bac0fd2bb88aebf1bb532</guid>
   <dc:creator><![CDATA[AI駆動開発部の日常]]></dc:creator>
   <pubDate>Sun, 30 Nov 2025 02:31:39 GMT</pubDate>
   <enclosure url="https://cdncf.stand.fm/audios/01KBCFRHNX3J4VM34BTAFERKVB.m4a" length="0" type="audio/x-m4a"/>
   <itunes:summary>今回は、「結局どのAI開発ツールを使ってるの？」という疑問を起点に、それぞれの使い分けについて語っております。
僕はCursorで複数モデル（Codex、Gemini 3.0 Pro、Claude Opus 4.5）に並列で要件定義を投げ、良さそうなものをピックアップしてからClaude Codeのサブエージェントで実装を進めるスタイル。
一方、阿部さんはWindsurfをメインに据えつつ、大きめの機能開発ではGoogle Antigravityで実行計画を立てるという形。同じAI駆動開発でも、アプローチがかなり違っていて驚きました。
話の中で見えてきた「コンテキストエンジニアリング」へと重要性のシフト。MCPの整備やドキュメントへのアクセス設計など、AIに何をどう渡すかが精度を左右する時代になってきているのかもしれません。

【配信サービス】
 ▼Spotify
https://open.spotify.com/show/5b4x1u0M2f0Kmr1Xnv1Z7r?si=12580ee9ade0414e

▼Youtube
 https://youtube.com/@ai-nichijo-fm
 
 ▼Apple Podcasts https://podcasts.apple.com/jp/podcast/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8/id1843990202
 
 ▼amazon music
 https://music.amazon.co.jp/podcasts/4fd4926b-a654-4dc7-a858-01ff5e0e8c25/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8
 
 ▼stand.fm
https://stand.fm/channels/68dc82a9036795923c400b4f
 
 ▼LISTEN
 https://listen.style/p/ai-nichijo-fm?xtIZk9qq
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f</itunes:summary>
   <itunes:explicit>no</itunes:explicit>
   <itunes:duration>00:55:41</itunes:duration>
   <itunes:image href="https://cdncf.stand.fm/cdn-cgi/image/fit=cover,width=1400,height=1400/coverImages/01KB99EGEMWW94WBAFP32SSGYQ"/>
   <itunes:title>10【結局どれ?】Antigravity・Cursor・ClaudeCode等</itunes:title>
  </item>
  <item>
   <title><![CDATA[9【衝撃】Google Antigravityの圧倒的UI生成力]]></title>
   <description><![CDATA[今回は、Googleの新しいAIエディター「Antigravity」を実際に使ってみた感想について語っております。

Antigravity上でGemini 3 ProとClaude Sonnet 4.5の両モデルを使用し、特にClaude Codeでの体験との比較に焦点を当てました。

最も驚いたのは、Gemini 3 ProとAntigravityの組み合わせにより生成されるUIデザインのクオリティです。
従来のAIエージェントでは考えられなかったレベルの高品質なアウトプットが実現されています。

また、タスク計画の精度の高さやアーティファクト機能の直感的な操作性も印象的でした。
プロンプトをほとんどカスタマイズせずにこれほどの満足度が得られたことは、特筆すべき点だと感じています。

▼Google Antigravity 関連リンク
https://antigravity.google/

【配信サービス】
 ▼Spotify
https://open.spotify.com/show/5b4x1u0M2f0Kmr1Xnv1Z7r?si=12580ee9ade0414e

▼Youtube
 https://youtube.com/@ai-nichijo-fm
 
 ▼Apple Podcasts https://podcasts.apple.com/jp/podcast/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8/id1843990202
 
 ▼amazon music
 https://music.amazon.co.jp/podcasts/4fd4926b-a654-4dc7-a858-01ff5e0e8c25/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8
 
 ▼stand.fm
https://stand.fm/channels/68dc82a9036795923c400b4f
 
 ▼LISTEN
 https://listen.style/p/ai-nichijo-fm?xtIZk9qq
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f]]></description>
   <link>https://stand.fm/episodes/69217552086f581f2c11ff22</link>
   <guid isPermaLink="true">https://stand.fm/episodes/69217552086f581f2c11ff22</guid>
   <dc:creator><![CDATA[AI駆動開発部の日常]]></dc:creator>
   <pubDate>Sat, 22 Nov 2025 08:35:29 GMT</pubDate>
   <enclosure url="https://cdncf.stand.fm/audios/01KANBCZMWM02NEGZ18P1HK9Z2.m4a" length="0" type="audio/x-m4a"/>
   <itunes:summary>今回は、Googleの新しいAIエディター「Antigravity」を実際に使ってみた感想について語っております。

Antigravity上でGemini 3 ProとClaude Sonnet 4.5の両モデルを使用し、特にClaude Codeでの体験との比較に焦点を当てました。

最も驚いたのは、Gemini 3 ProとAntigravityの組み合わせにより生成されるUIデザインのクオリティです。
従来のAIエージェントでは考えられなかったレベルの高品質なアウトプットが実現されています。

また、タスク計画の精度の高さやアーティファクト機能の直感的な操作性も印象的でした。
プロンプトをほとんどカスタマイズせずにこれほどの満足度が得られたことは、特筆すべき点だと感じています。

▼Google Antigravity 関連リンク
https://antigravity.google/

【配信サービス】
 ▼Spotify
https://open.spotify.com/show/5b4x1u0M2f0Kmr1Xnv1Z7r?si=12580ee9ade0414e

▼Youtube
 https://youtube.com/@ai-nichijo-fm
 
 ▼Apple Podcasts https://podcasts.apple.com/jp/podcast/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8/id1843990202
 
 ▼amazon music
 https://music.amazon.co.jp/podcasts/4fd4926b-a654-4dc7-a858-01ff5e0e8c25/ai%E9%A7%86%E5%8B%95%E9%96%8B%E7%99%BA%E9%83%A8%E3%81%AE%E6%97%A5%E5%B8%B8
 
 ▼stand.fm
https://stand.fm/channels/68dc82a9036795923c400b4f
 
 ▼LISTEN
 https://listen.style/p/ai-nichijo-fm?xtIZk9qq
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f</itunes:summary>
   <itunes:explicit>no</itunes:explicit>
   <itunes:duration>00:49:02</itunes:duration>
   <itunes:image href="https://cdncf.stand.fm/cdn-cgi/image/fit=cover,width=1400,height=1400/coverImages/01KANB27H2847J86TVH8T0NART"/>
   <itunes:title>9【衝撃】Google Antigravityの圧倒的UI生成力</itunes:title>
  </item>
  <item>
   <title><![CDATA[8【Windsurfの推し機能3選】Fast Context、Codemaps等]]></title>
   <description><![CDATA[今回は、Windsurfのコード探索を劇的に高速化する機能など、Windsurfの推し機能について語っております。

阿部さんがWindsurfを2週間使って気に入った便利機能のFast Contextは、僕がCodexでは5分〜10分かかっていたプロジェクト探索をわずか2〜3秒で完了させるとのこと。
SWE-grepとSWE-grep-miniというコード探索のための高速モデルを状況に応じて8並列で実行する仕組みだそうです。

もう一つのCodemapsも興味深い機能でした。コードの処理フローを可視化し、それをチャットのコンテキストとして保存できる仕組み。
高品質なコンテキストを生成するためのWindsurfのサービス設計には、僕自身驚きましたし、AIツールのサービス設計として非常に勉強になりました。

▼Windsurf 関連リンク
https://windsurf.com/

▼Fast Context ドキュメント
https://docs.windsurf.com/context-awareness/fast-context

▼Codemaps ドキュメント
https://docs.windsurf.com/windsurf/codemaps
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f]]></description>
   <link>https://stand.fm/episodes/691857560481acbccd75e2fc</link>
   <guid isPermaLink="true">https://stand.fm/episodes/691857560481acbccd75e2fc</guid>
   <dc:creator><![CDATA[AI駆動開発部の日常]]></dc:creator>
   <pubDate>Sat, 15 Nov 2025 10:35:49 GMT</pubDate>
   <enclosure url="https://cdncf.stand.fm/audios/01KA3JNH6QAVBGPBS041CSYKKW.m4a" length="0" type="audio/x-m4a"/>
   <itunes:summary>今回は、Windsurfのコード探索を劇的に高速化する機能など、Windsurfの推し機能について語っております。

阿部さんがWindsurfを2週間使って気に入った便利機能のFast Contextは、僕がCodexでは5分〜10分かかっていたプロジェクト探索をわずか2〜3秒で完了させるとのこと。
SWE-grepとSWE-grep-miniというコード探索のための高速モデルを状況に応じて8並列で実行する仕組みだそうです。

もう一つのCodemapsも興味深い機能でした。コードの処理フローを可視化し、それをチャットのコンテキストとして保存できる仕組み。
高品質なコンテキストを生成するためのWindsurfのサービス設計には、僕自身驚きましたし、AIツールのサービス設計として非常に勉強になりました。

▼Windsurf 関連リンク
https://windsurf.com/

▼Fast Context ドキュメント
https://docs.windsurf.com/context-awareness/fast-context

▼Codemaps ドキュメント
https://docs.windsurf.com/windsurf/codemaps
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f</itunes:summary>
   <itunes:explicit>no</itunes:explicit>
   <itunes:duration>00:33:13</itunes:duration>
   <itunes:image href="https://cdncf.stand.fm/cdn-cgi/image/fit=cover,width=1400,height=1400/coverImages/01KA3H9AZ9QA2VWRCMG0XQ4TSP"/>
   <itunes:title>8【Windsurfの推し機能3選】Fast Context、Codemaps等</itunes:title>
  </item>
  <item>
   <title><![CDATA[7【AIエディタ比較】WindSurf vs Cursor使用レビュー]]></title>
   <description><![CDATA[今回は、前回話題に出た「WindSurf」を阿部が1週間使い倒した体験と、僕が数日間試してみた「Cursor」について語っております。

新モデルSWE-1.5の性能や、Cursorの並列実行機能について、それぞれの使用感を共有。
阿部さんのSWE-1.5体験談——Sonnet 4.5の約13倍速というベンチマーク通りの爆速さに対して、僕はCursorで8つのモデルを並列で競わせる全く新しい開発体験に衝撃を受けました。
同じLP作成タスクでGPT-5、Sonnet 4.5、Opus 4.1などを同時実行したら、Opus 4.1が最良の結果を出たりなど、使ってみてわかることもたくさん話しております。

後半では、DeepSeek V3.2やKimi K2といった低コストモデルの登場により、今まで費用面で躊躇していた並列化実装が現実的になってきた話も。特にセッション内でモデルを自由に切り替えられる体験は、今後の開発スタイルを大きく変えるかもしれません。

WindSurf 関連リンク
https://www.windsurf.com/

Cursor 関連リンク
https://cursor.com/
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f]]></description>
   <link>https://stand.fm/episodes/690f34c59c951a11f8bee103</link>
   <guid isPermaLink="true">https://stand.fm/episodes/690f34c59c951a11f8bee103</guid>
   <dc:creator><![CDATA[AI駆動開発部の日常]]></dc:creator>
   <pubDate>Sat, 08 Nov 2025 12:19:24 GMT</pubDate>
   <enclosure url="https://cdncf.stand.fm/audios/01K9HQB0V000FKCV261TSDKPYZ.m4a" length="0" type="audio/x-m4a"/>
   <itunes:summary>今回は、前回話題に出た「WindSurf」を阿部が1週間使い倒した体験と、僕が数日間試してみた「Cursor」について語っております。

新モデルSWE-1.5の性能や、Cursorの並列実行機能について、それぞれの使用感を共有。
阿部さんのSWE-1.5体験談——Sonnet 4.5の約13倍速というベンチマーク通りの爆速さに対して、僕はCursorで8つのモデルを並列で競わせる全く新しい開発体験に衝撃を受けました。
同じLP作成タスクでGPT-5、Sonnet 4.5、Opus 4.1などを同時実行したら、Opus 4.1が最良の結果を出たりなど、使ってみてわかることもたくさん話しております。

後半では、DeepSeek V3.2やKimi K2といった低コストモデルの登場により、今まで費用面で躊躇していた並列化実装が現実的になってきた話も。特にセッション内でモデルを自由に切り替えられる体験は、今後の開発スタイルを大きく変えるかもしれません。

WindSurf 関連リンク
https://www.windsurf.com/

Cursor 関連リンク
https://cursor.com/
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f</itunes:summary>
   <itunes:explicit>no</itunes:explicit>
   <itunes:duration>01:04:20</itunes:duration>
   <itunes:image href="https://cdncf.stand.fm/cdn-cgi/image/fit=cover,width=1400,height=1400/coverImages/01K9HPA6TJJD21QR73GS57Q389"/>
   <itunes:title>7【AIエディタ比較】WindSurf vs Cursor使用レビュー</itunes:title>
  </item>
  <item>
   <title><![CDATA[6【長時間自律駆動開発の秘訣とは？】CodexやClaudeCodeを効率的に]]></title>
   <description><![CDATA[今回は、「AIエージェントにもっと長時間、自律的に動いてほしい」という阿部の悩みを起点にコーディングエージェントに自律的に長時間開発してもらうためのポイントについて語っております。

CodexやClaude Codeが10〜20分で止まってしまうという阿部さんに対して、僕は2〜3時間動かすことも普通にあります。

この違いはどこから来るのか？コンテキストウィンドウの使い方、設計書・計画書の作り方、そしてAIとの向き合い方——実は根本的な考え方の違いがありました。

特に「AIとの問答の仕方」や「方向転換が必要な時の対処法」については、かなり意見が分かれるポイントで、
お互い気づきの多い時間となりました。

後半では、Devinチームが出した新モデルWindSurf SWE-1.5についても語っています。Claude Sonnet 4.5の約10倍の速度という衝撃的なスペックと、エンジニアのベストプラクティスを学習済みという特徴。これが実用レベルなら、AI駆動開発のワークフロー自体が変わるかもしれません。

WindSurf SWE-1.5 関連リンク
https://windsurf.com/blog/swe-1-5
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f]]></description>
   <link>https://stand.fm/episodes/6905df6af51dac34bedc0329</link>
   <guid isPermaLink="true">https://stand.fm/episodes/6905df6af51dac34bedc0329</guid>
   <dc:creator><![CDATA[AI駆動開発部の日常]]></dc:creator>
   <pubDate>Sat, 01 Nov 2025 10:24:42 GMT</pubDate>
   <enclosure url="https://cdncf.stand.fm/audios/01K8ZF4Z99HNBF3D6YM9MM0GDV.m4a" length="0" type="audio/x-m4a"/>
   <itunes:summary>今回は、「AIエージェントにもっと長時間、自律的に動いてほしい」という阿部の悩みを起点にコーディングエージェントに自律的に長時間開発してもらうためのポイントについて語っております。

CodexやClaude Codeが10〜20分で止まってしまうという阿部さんに対して、僕は2〜3時間動かすことも普通にあります。

この違いはどこから来るのか？コンテキストウィンドウの使い方、設計書・計画書の作り方、そしてAIとの向き合い方——実は根本的な考え方の違いがありました。

特に「AIとの問答の仕方」や「方向転換が必要な時の対処法」については、かなり意見が分かれるポイントで、
お互い気づきの多い時間となりました。

後半では、Devinチームが出した新モデルWindSurf SWE-1.5についても語っています。Claude Sonnet 4.5の約10倍の速度という衝撃的なスペックと、エンジニアのベストプラクティスを学習済みという特徴。これが実用レベルなら、AI駆動開発のワークフロー自体が変わるかもしれません。

WindSurf SWE-1.5 関連リンク
https://windsurf.com/blog/swe-1-5
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f</itunes:summary>
   <itunes:explicit>no</itunes:explicit>
   <itunes:duration>01:00:53</itunes:duration>
   <itunes:image href="https://cdncf.stand.fm/cdn-cgi/image/fit=cover,width=1400,height=1400/coverImages/01K8ZEZE13X7MDXZJRM7078W14"/>
   <itunes:title>6【長時間自律駆動開発の秘訣とは？】CodexやClaudeCodeを効率的に</itunes:title>
  </item>
  <item>
   <title><![CDATA[5【AI駆動開発必須】ClaudeCodeやCodexには「tmux」を使え！]]></title>
   <description><![CDATA[今回は、AI駆動開発（主にClaude Codeやcodex）を行う上で欠かせないターミナルマルチタスクツール「tmux」の活用法と、それに伴う課題について語りました。
tmux最大のメリットは、AIに実行させている重要な作業や継続的な対話セッションを維持し、誤ってターミナルを閉じても作業を復元できる点です。また、画面分割（ペイン）機能により、1画面で複数のAIへ並列で指示を出し、同時並行で開発を進める具体的な方法を紹介します。
しかし、AIが出力するマークダウンやERD図などの構造化された情報が、ターミナル上では見づらく、結局VS Codeでの確認が必要となるという、ターミナル開発における現在の課題についても深掘りしています。

tmux導入の参考になりそうなサイトを貼りましたのでぜひチェックしてみてください！

「tmux、これだけ知っておけばおｋ（用語・準備編）」
https://qiita.com/koin3z/items/5d923b1cd7a3ce6ca32b

「tmuxチートシート」
https://qiita.com/nmrmsys/items/03f97f5eabec18a3a18b
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f]]></description>
   <link>https://stand.fm/episodes/68fcc73d7992ee21e4c8f524</link>
   <guid isPermaLink="true">https://stand.fm/episodes/68fcc73d7992ee21e4c8f524</guid>
   <dc:creator><![CDATA[AI駆動開発部の日常]]></dc:creator>
   <pubDate>Sat, 25 Oct 2025 12:49:45 GMT</pubDate>
   <enclosure url="https://cdncf.stand.fm/audios/01K8ZFH8VJ803RXQT0KP9T49VF.m4a" length="0" type="audio/x-m4a"/>
   <itunes:summary>今回は、AI駆動開発（主にClaude Codeやcodex）を行う上で欠かせないターミナルマルチタスクツール「tmux」の活用法と、それに伴う課題について語りました。
tmux最大のメリットは、AIに実行させている重要な作業や継続的な対話セッションを維持し、誤ってターミナルを閉じても作業を復元できる点です。また、画面分割（ペイン）機能により、1画面で複数のAIへ並列で指示を出し、同時並行で開発を進める具体的な方法を紹介します。
しかし、AIが出力するマークダウンやERD図などの構造化された情報が、ターミナル上では見づらく、結局VS Codeでの確認が必要となるという、ターミナル開発における現在の課題についても深掘りしています。

tmux導入の参考になりそうなサイトを貼りましたのでぜひチェックしてみてください！

「tmux、これだけ知っておけばおｋ（用語・準備編）」
https://qiita.com/koin3z/items/5d923b1cd7a3ce6ca32b

「tmuxチートシート」
https://qiita.com/nmrmsys/items/03f97f5eabec18a3a18b
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f</itunes:summary>
   <itunes:explicit>no</itunes:explicit>
   <itunes:duration>00:36:58</itunes:duration>
   <itunes:image href="https://cdncf.stand.fm/cdn-cgi/image/fit=cover,width=1400,height=1400/coverImages/01K8DPKFCMAHPCHC0Y2BNVZE1F"/>
   <itunes:title>5【AI駆動開発必須】ClaudeCodeやCodexには「tmux」を使え！</itunes:title>
  </item>
  <item>
   <title><![CDATA[4【常駐録音の革新】limitlessから学ぶAPI/MCPの重要性]]></title>
   <description><![CDATA[今回は、常駐録音デバイス「Limitless」を入り口に、API/MCPの重要性について話しました。
100時間連続駆動で会話を記録し続けるこのデバイスが持つ、AIによる文字起こし機能、APIアクセス機能から、AIにシステムを使わせるための共通規格「MCP」の話へと展開。
特に注目したのが「型安全」という考え方です。TypeScriptのような型安全な言語を使うと、AIの精度が上がる一方で、コード量が増えたり既存ツールの限界に直面したりと、現場ならではの葛藤もあります。
「作業を減らすのではなく、なくす」というAI時代の発想を、僕たちがどう実現しようとしているか。ぜひお楽しみください!

#limitless #MCP #生成AI #ClaudeCode #Codex #AI #AI駆動開発 #AIサービス
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f]]></description>
   <link>https://stand.fm/episodes/68f30ea10e06e17e088f4060</link>
   <guid isPermaLink="true">https://stand.fm/episodes/68f30ea10e06e17e088f4060</guid>
   <dc:creator><![CDATA[AI駆動開発部の日常]]></dc:creator>
   <pubDate>Sat, 18 Oct 2025 03:52:08 GMT</pubDate>
   <enclosure url="https://cdncf.stand.fm/audios/01K8ZFMKJQZGJR7QJGVP1VHJ90.m4a" length="0" type="audio/x-m4a"/>
   <itunes:summary>今回は、常駐録音デバイス「Limitless」を入り口に、API/MCPの重要性について話しました。
100時間連続駆動で会話を記録し続けるこのデバイスが持つ、AIによる文字起こし機能、APIアクセス機能から、AIにシステムを使わせるための共通規格「MCP」の話へと展開。
特に注目したのが「型安全」という考え方です。TypeScriptのような型安全な言語を使うと、AIの精度が上がる一方で、コード量が増えたり既存ツールの限界に直面したりと、現場ならではの葛藤もあります。
「作業を減らすのではなく、なくす」というAI時代の発想を、僕たちがどう実現しようとしているか。ぜひお楽しみください!

#limitless #MCP #生成AI #ClaudeCode #Codex #AI #AI駆動開発 #AIサービス
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f</itunes:summary>
   <itunes:explicit>no</itunes:explicit>
   <itunes:duration>00:58:00</itunes:duration>
   <itunes:image href="https://cdncf.stand.fm/cdn-cgi/image/fit=cover,width=1400,height=1400/coverImages/01K7TQ0884H55P7PZGWMWP4PZW"/>
   <itunes:title>4【常駐録音の革新】limitlessから学ぶAPI/MCPの重要性</itunes:title>
  </item>
  <item>
   <title><![CDATA[3【ClaudeCodeの新機能Pluginsの可能性】おすすめツールghq等]]></title>
   <description><![CDATA[今回は、Claude Codeに新しく登場した「プラグイン機能」の可能性について、これまでの課題と照らし合わせなが話しました。
プラグイン機能の登場により、スラッシュコマンドやエージェントの共通管理をより行いやすくなりましたが、これまでも共通管理は僕たち自身でも行っていました。
この辺りについても、ghqを使ったちょっとしたTipsとして話しています。
このやり方はClaude Codeだけでなく、Codexでも使えるのでおすすめですね。ぜひお楽しみください！

#生成AI #ClaudeCode #Codex #AI #AI駆動開発
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f]]></description>
   <link>https://stand.fm/episodes/68e9f243ab48df79dcead8f0</link>
   <guid isPermaLink="true">https://stand.fm/episodes/68e9f243ab48df79dcead8f0</guid>
   <dc:creator><![CDATA[AI駆動開発部の日常]]></dc:creator>
   <pubDate>Sat, 11 Oct 2025 09:00:26 GMT</pubDate>
   <enclosure url="https://cdncf.stand.fm/audios/01K8ZFKD6D6142TNB2D8QP5SZP.m4a" length="0" type="audio/x-m4a"/>
   <itunes:summary>今回は、Claude Codeに新しく登場した「プラグイン機能」の可能性について、これまでの課題と照らし合わせなが話しました。
プラグイン機能の登場により、スラッシュコマンドやエージェントの共通管理をより行いやすくなりましたが、これまでも共通管理は僕たち自身でも行っていました。
この辺りについても、ghqを使ったちょっとしたTipsとして話しています。
このやり方はClaude Codeだけでなく、Codexでも使えるのでおすすめですね。ぜひお楽しみください！

#生成AI #ClaudeCode #Codex #AI #AI駆動開発
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f</itunes:summary>
   <itunes:explicit>no</itunes:explicit>
   <itunes:duration>00:28:07</itunes:duration>
   <itunes:image href="https://cdncf.stand.fm/cdn-cgi/image/fit=cover,width=1400,height=1400/coverImages/01K78XKFP5Y38HSAFY6R0KB5EX"/>
   <itunes:title>3【ClaudeCodeの新機能Pluginsの可能性】おすすめツールghq等</itunes:title>
  </item>
  <item>
   <title><![CDATA[2【Claude Sonnet 4.5】GPT-5-Codexより優っている？]]></title>
   <description><![CDATA[Claude Codeハードユーザーから、Codex CLI に乗り換えたふたりが、再びClaude Codeを使って、Sonnet 4.5の性能を実務で試してみました。
#AI #Claude #Sonnet #生成AI #AI駆動開発 #AIエージェント
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f]]></description>
   <link>https://stand.fm/episodes/68de6ddf8b4b0a8470c5c2fe</link>
   <guid isPermaLink="true">https://stand.fm/episodes/68de6ddf8b4b0a8470c5c2fe</guid>
   <dc:creator><![CDATA[AI駆動開発部の日常]]></dc:creator>
   <pubDate>Thu, 02 Oct 2025 12:20:19 GMT</pubDate>
   <enclosure url="https://cdncf.stand.fm/audios/01K8ZFMRG2PVWPD607WAQCAW42.m4a" length="0" type="audio/x-m4a"/>
   <itunes:summary>Claude Codeハードユーザーから、Codex CLI に乗り換えたふたりが、再びClaude Codeを使って、Sonnet 4.5の性能を実務で試してみました。
#AI #Claude #Sonnet #生成AI #AI駆動開発 #AIエージェント
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f</itunes:summary>
   <itunes:explicit>no</itunes:explicit>
   <itunes:duration>00:28:42</itunes:duration>
   <itunes:image href="https://cdncf.stand.fm/cdn-cgi/image/fit=cover,width=1400,height=1400/coverImages/01K6JDSANB1D4SNDBMT760GYFH"/>
   <itunes:title>2【Claude Sonnet 4.5】GPT-5-Codexより優っている？</itunes:title>
  </item>
  <item>
   <title><![CDATA[1【AI駆動開発】 Codex CLIとClaude Codeどっちがいい？]]></title>
   <description><![CDATA[＃AI駆動開発 #AIツール  #AI #生成AI #AI活用 
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f]]></description>
   <link>https://stand.fm/episodes/68dc94a02004ddf1f58d9ec3</link>
   <guid isPermaLink="true">https://stand.fm/episodes/68dc94a02004ddf1f58d9ec3</guid>
   <dc:creator><![CDATA[AI駆動開発部の日常]]></dc:creator>
   <pubDate>Wed, 01 Oct 2025 02:42:03 GMT</pubDate>
   <enclosure url="https://cdncf.stand.fm/audios/01K8ZFK7FMKW5P8QWV2XK406RP.m4a" length="0" type="audio/x-m4a"/>
   <itunes:summary>＃AI駆動開発 #AIツール  #AI #生成AI #AI活用 
---
stand.fmでは、この放送にいいね・コメント・レター送信ができます。
https://stand.fm/channels/68dc82a9036795923c400b4f</itunes:summary>
   <itunes:explicit>no</itunes:explicit>
   <itunes:duration>00:31:25</itunes:duration>
   <itunes:image href="https://cdncf.stand.fm/cdn-cgi/image/fit=cover,width=1400,height=1400/coverImages/01K6ET7T6W5QS95B5C57VB85CC"/>
   <itunes:title>1【AI駆動開発】 Codex CLIとClaude Codeどっちがいい？</itunes:title>
  </item>
 </channel>
</rss>