AIと協働するために必要なスキルと心構え
生成AIの進化に、エンジニアはどう向き合うべきか──。服部氏はこの問いに対し、3つの戦略を提示した。
最初の戦略は「ツールの使い方を学ぶこと」である。GitHub CopilotをはじめとするAI支援ツールは日進月歩で進化しており、新たな機能やショートカットをキャッチアップし続ける姿勢が求められる。しかし服部氏は同時に「機能を覚えるだけではすぐに陳腐化する」と釘を刺す。補完、チャット、エージェントと"当たり前"が絶えず更新される中で重要なのは、「ツールが開発プロセス全体のどこに位置し、どの課題を解決するために存在しているのか」というメタ的視点であると強調した。

服部氏は、「汎用が専門に勝る」現象への向き合い方に触れた。近年、大規模言語モデルを使った汎用型ツールが特化型ツールを置き換える事例が増えている。服部氏は、個別のツールや機能単体に固執するのではなく、むしろ問うべきは、「そもそも何を開発したいのか」それに対して「最適なプラットフォームや開発プロセスは何なのか」という全体を俯瞰した問いであると指摘する。
服部氏が第2の戦略として挙げたのは、「プロンプトエンジニアリングの習得」だ。「プロンプトエンジニアリングは単なる"文章作成術"ではない。出力の評価、UX設計、モデル特性の理解など、複合的なスキルセットである」と服部氏は強調する。一時はバズワードとして過剰に注目されたプロンプトエンジニアリングであるが、服部氏は「本質的には今後も不可欠な技法だ」と言及した。なぜなら、LLMはいまだ曖昧さや誤解を含むリスクを抱えており、望む出力を引き出すには、文脈設計や厳密な誘導が欠かせないためだ。
一方で、プロンプトエンジニアリングの技術はGitHub Copilotをはじめとするツールに内部的に組み込まれ、自動化・抽象化されつつあるのも事実だ。ユーザーが明示的に詳細なプロンプトを書く場面は減っており、「プロンプト設計の主導権はツール開発ベンダー側に移りつつある」とも分析した。それでもなお、即興的な対話や判断が求められる場面は少なくない。どの情報をどの文脈で渡すか──この思考はLLM活用の前提であり、そこではプロンプトエンジニアリングにとどまらない固有のドメイン知識が必要になる。
さらに服部氏は、「AIは嘘をつく」「命令を無視し、文脈を飛ばす」可能性があると、LLMに対する実践的な警戒も促す。特定のモデルによっては、一定のトークン入力量を境に出力精度が低下する傾向が示されたり、「無関心の谷」──すなわち文頭・文末に比べ中盤の情報が抜け落ちるという現象が存在することにも言及した。対策として「Chain of Thought」のような思考誘導のプロンプトエンジニアリング技法が開発されてきたが、万能ではない。AIに過度な期待を抱かず、特性を理解したうえで使いこなすリテラシーが求められる。

信頼の問題はAIだけでなく人間にも当てはまる。服部氏は、一度にレビューするコード量が増えれば増えるほど、欠陥の見落としが増加する可能性について言及したレポート(SmartBear社調査)を示しつつ、AIの出力を人間側の限界に合わせる必要性があると語る。AIエージェントは容易に数百行を生成するが、その妥当性を見抜くには、従来通りのレビュー時間と注意力が求められる。
このような状況において、服部氏が提示する第三の戦略が「AIとの協働力を身につける」ことだ。PoCレベルの試作では生成AIは有効だが、複雑な本番コードでは通用しない──これは現場でしばしば聞かれる声だ。重要なのは、どこまでAIに任せ、どこで人間が介入するか。その見極めと制御が求められている。
「AIが生成する大量のコード(例えば1万行)よりも、信頼性の高い少量のコード(例えば30行)が必要とされるケースが、企業の開発現場では多く見られる。AI時代のエンジニアに求められるのは、AIとの単純な生産量の競争ではなく、いかに信頼性の高いコードを生み出せるかという点である」
服部氏はそう語り、エンジニアに求められるのはAIとの役割分担を見極め、共に成果を生み出す"協働力"だと結論づけた。