マイクロソフト「Microsoft Build」で紹介された3つの生成AIトレンド
HRtechツールの開発・提供などでエンジニア組織づくりの支援を行ってきた株式会社ギブリーの新田章太氏、企業のAI戦略やシステム開発などのコンサルタントとして活躍し「生成AIが誰よりも好き」と語る森重真純氏。2人は、5月末にマイクロソフト主催のカンファレンス「Microsoft Build」に訪れ、生成AIの最新トレンドに直に触れてきた。
新田氏は「カンファレンスでは『生成AI』ではなく、ほぼ『Copilot』という言葉で置き換えられていたのが印象的だった。また、『パーソナルAIアシスタント』という個人的な使い方よりも、チームを連携して生産性や創造性を高める目的で使われるものへとシフトしていた」と語る。
たとえば、プレゼンテーションの雛形を作る、要約をする、翻訳をするように、「個人が一つの作業において、何かを依頼してアウトプットが返ってくる」というのが、従来の生成AIの使い方だった。それが、TeamsやZoomのようなビデオ会議の中に入って、議事録をとり、タスクマネージャーにタスクを加え、タイムキープするなど、「チームの連携を高めて生産性を高める」ことを主眼とするものへと進化しているという。その中で、特に印象的だった3つのトレンドについてそれぞれ紹介された。
AIケーパビリティの向上
マイクロソフトは、Copilotについて「単なる生成AIではない」とし、「マルチターンの会話でエージェント機能を持ち、複雑な認知機能を擁して、タスクの手助けをするソフトウェアの総称」と位置づけている。つまり、マイクロソフトの場合、Copilot for 365やPower Platformなどのオーケストレーションツールで、ユーザーのタスクや業務、会話などをコントロールして、認知機能モデルによって最適化し、掛け合わせる存在がCopilotなわけだ。
新田氏は、「これが実現すると、エンジニアリングとは、生成AIのモデル、会話、ワークフローなどのレイヤーをかけ合わせてソフトウェアを作っていくことになる。それがまず重要なポイントとなるのではないか」と語った。
そして2つ目のポイントとして新田氏が挙げるのが、「カバレッジの広がり」だ。個人からチームへと「情報のカバレッジ」が広がるのに加え、「AIが何をしてくれるのか」というタスクのカバレッジも広がっていく。これまで検索がメインだったのが、提案からさらに進んで、たとえば日程調整やメール返信など「タスクの実行」までできるようになりつつある。
そして、声や会話がインタフェイスとなる"カンバセーション・オーケストレーション"によって、AIとの会話を設計しながら、さまざまな外部ツールと連携し、タスク実行の手助けを行うプラットフォーム「Copilot Studio」や「make」などのサービスも登場している。
LLMからSLMへ
これまで良く知られてきたLLM(Large Language Model)に対して、急速に注目を集めているのが、業界などの特定分野に特化した軽量型モデルであるSLM(Small Language Model)だ。端末で動作し、よりスピーディーなレスポンスが可能になり、再学習時のデータセットの少量化が可能。そのため、LLMの欠点である学習コストを軽減し、ハルシネーションやセキュリティなどのリスクを抑えられる。
新田氏は「企業ではより高速で安全な、特化型のSLMが採用され、ある種オンプレミスでAIが動く世界観が一般的になる可能性が高い」と評した。実際、「Copilot+PC」というAIを多用するプロセス専用のCPUが発表されている。プロセスユニットの中にAI専用のプロセス「NPU」が搭載されており、PCでユーザーの動作をレコーディングし、それに対してAIが回答する「Recall」機能も紹介されている。さらにNPUはIntelも力を入れており、一般化が進むと考えれば、従来の「クラウド連携」から「デバイス完結」へシフトすることも予想される。
MaaSとLLMOps
AIの世界も多様化するほど、「いかにそれらを統合的に管理し、運用改善をしていくか」が重要になる。そこで、モデルについても一から作るのではなく、既存に存在するものから選択し、チューニング、改善、最適化、評価することが当たり前になる。
たとえば、Azure AI Studioにも1600以上のAIモデルが「モデルカタログ」として用意されている。その中から選んで、プロンプトフローをチューニング、個別に最適化して、実際運用する際には、ハルシネーションリスクやメモリー負荷などを全てモニタリング監視できるようになっている。