ステップ3:GitHub Modelsとエージェントモードで実装
プロトタイプを共有した後、プロダクトマネージャーは開発者に対して、GitHub Copilot SpacesとGitHub Sparkで作成したプロトタイプのリポジトリを参照しながら開発を開始するよう依頼します。最初の作業は、コストと性能のバランスを考慮して最適なAIモデルを選択し、カスタマイズされた商品をレコメンデーションする仕組みを実装することです。
開発者はまず、GitHub Copilot Chatに対して「この作業に適した複数のAIモデルと、それぞれの長所・短所を教えて」と依頼します。その際、AIモデル比較に関するGitHub Docs(※GitHubの公式ドキュメント)の記事を参照するようGitHub Copilotに指示することで、より有用な情報を得られます。
候補となるモデルのリストが提示されたら、開発者は様々なAIモデルを試せる「GitHub Models」のプレイグラウンド環境を使用して実際の挙動を比較します。同じプロンプトで各モデルの結果を確認し、レスポンスの品質や応答速度を評価したうえで、最適なモデルを決定します。その後、選択したモデルを使用するようGitHub Sparkで作成したプロトタイプを更新し、ウィジェット全体のユーザー体験(UX)にどのような影響を与えるかを確認します。
モデルが決まったら、開発者はVisual Studio Code(VS Code)で実際のコードを開き、新しいウィジェットの実装を開始します。構文に関する疑問点はCopilot Chatの「質問」モード、コード改善の提案が必要な場合は「編集」モードを活用することで、作業を効率的に進められます。
ある程度コードを記述したら、エージェントモードに切り替えます。たとえば「可読性を高めるために、このコードを複数の関数にリファクタリングしてほしい」とGitHub Copilotに依頼すると、エージェントモードはより自律的に動作します。複数のファイルを更新したり、開発者の許可を得て依存関係のインストールやテストの実行といったアクションを行ったりできます。開発者は、担当者の作業の差分を確認し、どのコードを保持するかを選択します。
ステップ4:MCPサーバーでテストを実施
コードの実装が完了したら、次はテストです。開発者はブラウザ自動化テストツール「Playwright」を使用して、ローカルな開発環境でテストを実行します。
ここでは、リポジトリの管理者が事前にPlaywright用のModel Context Protocol(MCP)サーバーを追加しています。これによりGitHub Copilotのエージェントモードは、Playwrightと連携してテストを自動化できるようになります。
開発者はまず、GitHub Copilotに対して.featureファイル形式でテストシナリオを作成するよう依頼します。その後、ブラウザ上でテストを実行するよう指示すると、GitHub Copilotのエージェントモードがブラウザを起動し、UIの各種要素を操作します。この際、重要な操作については開発者に承認を求めてきます。そして開発者がブラウザ上でテストの実行状況を監視している間、GitHub Copilotは失敗したテストを特定し、コードの修正案を提案します。
このように、テスト作成から実行、不具合の特定と修正提案まで、一連のテストプロセスをAIエージェントが支援することで、品質保証の工数を大幅に削減できます。
