生成AIプロジェクト失敗の1つは、「記憶」と「適応力」の欠如?
小川氏はメモリエンジニアリングの注目が高まっている根拠として、MITのレポート「The GenAI Divide:State of AI in Business 2025」を引き合いに出した。同レポートは、2025年1月から6月にかけて、300以上の公開された生成AIプロジェクトを分析したほか、52の組織へインタビューを実施した結果がまとめられたものである。
そこで語られていたのは、生成AIプロジェクトに対する投資額は300〜400億ドルに達したものの、95%は成果なし、本番稼働にこぎつけたのはわずか5%という厳しい結果であった。この数字は、これまで多くの生成AIプロジェクトを支援してきた小川氏自身の体感と、大きくズレていないという。
なぜ生成AIプロジェクトの遂行は、そんなにも難しいのか。失敗の原因と解決案として挙げられていたものの中から、メモリに関するものだけを抜粋すると、以下の通りとなる。
まず、失敗の主因は「学習しないツール」にある。コンテキストを記憶せず、フィードバックから学ばないAIは業務に定着しない。また、単純作業ではAIが好まれるが、複雑な業務では90%が人間を指示。「記憶」と「適応力」の欠如が信頼の壁となっている。
「記憶」と「適応力」の欠如という課題に対して、どのような解決策が考えられるだろうか。小川氏は3つの転換点を紹介した。まず第1に「記憶しないツールの導入を中止すること」、そして第2に「特化型ベンダーと共創すること」、そして第3に「売上向上より確実なコスト削減すること」。
特に強調されるのが、第1の「記憶しないツールの導入を中止すること」だ。ここでは、「モデルの品質や規制が生成障壁となってAIプロジェクトが失敗するのではなく、“記憶の設計”に関する問題である」ことが明らかになったのだ。
そのうえで、小川氏は「開発者であれば、メモリエンジニアリングされているものに触れているはずだ」と語り、「ChatGPT」のメモリ機能と「Codex」のメモリ機能と「Claude Code」のメモリ機能の3つの例を挙げた。

