セキュリティと責任を直視し、AI時代の必須人材になるには?
──AIエージェント元年と言われる2025年の下半期に、エンジニアが押さえておきたいポイントとは。
太田:まずは「ビジネス的なバリューが出せるモノを考えること」です。自社のコア業務を真剣に見つめて、代替の候補をまずは挙げてみる。そして各候補について、なぜこの人(この職種)がいなくなるとダメなのか、その人の後任(その職種)はどのくらい育ちやすいのかなど、さまざまな観点から検証してください。そうすることで初めて代替させることで得られる付加価値について議論できると思うのです。
AIエージェントを使わないという選択肢も当然あります。しかし、ガラケーからスマートフォンに変わったように、AIエージェントを利活用する波がくると思います。その波にいち早く乗っておくことは重要だと思います。
西見:AIエージェントを利活用する流れは止まらないと思います。また基本的なソフトウェアはいずれAIエージェントになっていくと思います。
そして、その時に気を付けなければならないのが「セキュリティ」です。AIエージェントがセキュリティリスクとなる要因の一つとして「機密データにもアクセスできること」があります。例えば、AIエージェントに「○○さんについて教えてください」とお願いしたとします。AIエージェントは人事データにアクセスし、評価情報も取得。取得した情報をSlackに投稿したとします。そんなことが起こると、大問題に発展します。そのため、誰がどのデータに、どんなツールを使ってどこまでアクセス出来るのか、権限レベル別のアクセス制限を考える必要があります。
太田:人間が持つセキュリティリスクと同じようなモノだと思いますが、AIエージェントの方が人間より多くのデータにアクセス出来るようになると思うので、人間以上の制限を考えないといけないと思います。
宮脇:今後AIを扱うエンジニアとしては、セキュリティのほかに「責任」も重要です。責任のあるAI開発を進めるためには、ステークホルダーに対して起こりうる影響を最大限考慮して対策を講じることを意識したいですね。
システムの中身を把握することやセキュリティ・制限の話はもちろんですが、開発者として特に大事になるのが総務省の「AI利活用ガイドライン」に記載されている10個の原則の中の「透明性の原則」の担保です。例えば人材採用や人事評価などでは、LLMが不合格と判断した場合に、なぜ不合格と判断されたのか、またLLMが誤って判定する可能性はどれくらいなのか、誤った判断をした場合に今後どう対処すれば誤りを抑制できるのかについて、ステークホルダーに説明できるようにしておくということです。
また「適正利用の原則」についても、十分、考えてサービスを設計します。人とAIの適切な役割分担もそうですが、特にアウトバウンドに影響を与えるフォーム営業や架電のようなAIサービスについてはその影響範囲をよく見定め、スパム化しないように心がけることも重要です。利用者だけでなく開発者コミュニティへの貢献にも悪影響を及ぼしかねないですからね。

──AIエージェント事業に取り組むエンジニアの皆様にメッセージをお願いします。
太田:最初はエージェントの作り方を学ぶために、がむしゃらに泥臭く取り組んでほしいと思います。次の案件からは、挑戦的なタスクを自分で探してAIエージェント化を試みてほしいと思います。挑戦的なタスクに取り組むことでしか得られない学びがあります。そしてその経験が今後のエンジニア人生にとっての強みになると思うからです。
宮脇:AIエージェントの開発は従来のソフトウェア開発と大きな変わりはないと思うので、ギャップを感じず取り組んでほしいですね。AIエージェントの可能性は圧倒的に広がっています。楽しみを見いだしつつ、開発していきましょう!
西見:エンジニア一人ひとりが、AIエージェントを使い倒して研究して、こういった使い方ができるよ、こっちの方がいいのでは、と提案をしていく。そうすることで、AIエージェントのムーブメントはさらに盛り上がっていく。ぜひ、日常からAIエージェントを使い倒していきましょう。
阿田木:AIエージェントの活用という観点で目指すのは、人間の置き換えだと思います。ぜひ、一度自分の業務のやり方や考え方を棚卸し、整理、言語化してほしいです。新人と業務エキスパートはどう違うか、新人に業務をどうやって教えるかなど、そういうメタ的な思考を働かせて、普段から業務を意識することが大事だと思います。それができるようになると、仕事でAIエージェントをうまく活用できるようになるだけではなく、使ってもらえるAIエージェントをつくることができるようになると思います。