AIに期待すべきは「賢さ」ではなく「制約下での再現性」
フェーズ分離の本質を理解するうえで、巣籠氏が提示したフレームは示唆に富んでいる。
「AIに期待しているのは『賢さ』ではなく、『制約下での再現性』です」
生成AIの中核にある大規模言語モデル(LLM)は、確率的なモデルである。入力に対して確率分布からトークンを選択して出力を生成するため、同じ入力でも毎回わずかに異なるアウトプットが生じる。
コンテンツ生成などの用途であればこのブレは許容できるが、事業システムの開発においては毎回アウトプットが変わることは品質保証の観点から許容しがたい。では、再現性を高めるにはどうするか。答えは「制約を設けること」だ。制約によってAIの出力空間を絞り込み、確率的なブレを抑制することで、アウトプットを決定論的な振る舞いに近づけていく。フェーズ分離はその一形態であり、各フェーズで「問いを一つにする」という制約が、AIのアウトプットの方向性を安定させる。
この考え方は、個人や組織の差別化要因にもつながる。どのような制約(スキル・エージェント定義)を構築するかが、そのまま組織の技術資産となる。汎用的なAIツールを使っていても、その使い方を定義するプロンプトやワークフローの設計に独自性が宿るのだ。
また、フェーズ分離は、複数のエージェントを同時に立ち上げて並列で走らせる場合にも有効だという。各エージェントにフェーズを割り当てることで、精度のばらつきを抑えながらスループットを高めることができる。
大規模なレガシーシステムの刷新においては、「ストラングラーパターン」(既存システムを一度に置き換えるのではなく、新システムを外側から少しずつ侵食させていく手法)も組み合わせている。このパターン自体も一種の制約であり、取り組むドメインを絞ることでコンテキスト長の問題にも対処できるという。フェーズ分離とストラングラーパターンは、「制約によってAIと人間の作業を安定させる」という思想で一貫している。
「何をさせないか」という問いが組織を救う
このセッションが提示した最も重要な知見は、AIの活用を語る際の問いの立て方を根本から変えるものだ。多くの議論が「AIに何をさせるか」「どのツールを使うか」に集中する中、巣籠氏は「AIに何をさせないか」「人間がどこで判断するか」を問いの中心に据えた。
これは単なる開発手法の話ではない。少人数チームが大規模課題に向き合うとき、人間のリソースは常に希少だ。AIを導入することで「何でもできる」という錯覚に陥ると、かえって人間の判断コストが爆発する。AIの能力を最大化するためにこそ、AIの行動範囲を明示的に制限するという逆説的なアプローチが、持続可能な開発体制を支える。
今後AIモデルの性能がさらに向上すれば、人間によるレビューが不要になる領域は広がるだろう。しかしその未来においても、再現性という概念は消えない。むしろ、アウトプットが安定して再現されることが確認できてはじめて、人間はレビューを手放せる。再現性の高い仕組みを今から作り込んでおくことが、将来的な自動化への道を開く。
エンジニア10人規模という小さなチームで、800万人規模のシステム刷新に挑む現実は厳しい。しかし「AIに書かせないことを決める」というシンプルな原則が、そのギャップを埋める鍵になりうる。AIとの協働において「制約の設計者」たる人間の役割を問い直すこと──それが本セッションの核心的なメッセージだ。
マルイユナイトからのお知らせ
マルイユナイトではエンジニアの仲間を募集しています。開発環境やカルチャー、現在募集中のポジションなど、詳しくは採用情報ページをご覧ください。

