Snowflakeの開発フレンドリーな設計のこだわり
Snowflakeは自社でクラウドインフラを持たず、AWS、Azure、Google Cloudの上で動作するマルチクラウド構成を持つデータウェアハウスだ。構造化・半構造化・非構造化データを一元管理でき、IcebergテーブルやSnowflake Postgresにも対応する。CPUおよびGPUを用いたPython・Spark実行環境も備える。処理規模は、2024年1月の平均日次クエリ数6.3億、最大テーブルサイズ4.9ペタバイト、1分間に単一顧客が実行したクエリ数24.6万、上位5社の顧客では合計228ペタバイトに達する。
田中氏がSnowflakeへの入社を決めた理由として真っ先に挙げたのは、「CLIのコマンド補完」だった。「他のデータベースも使ってきたが、デフォルトでここまで補完が効く環境は他になかった。最初に触れた瞬間に、いつか使いたいと思った」と振り返る。
開発者フレンドリーな設計への一貫したこだわり、ユーザーが何も設定しなくても毎年クエリパフォーマンスが向上し続ける仕組み、Iceberg・Postgres・StreamlitといったOSSへのコミッターを社内に擁し、OSSへ貢献する姿勢が入社の決め手となった。そしてそれは入社してからも業界横断でセマンティックモデルの標準仕様を策定するOSI(Open Semantic Interchange)イニシアチブを数十社以上と共同でリードしているなど、Snowflakeのその姿勢は変わっていない。
データ連携の観点では「マーケットプレイス」が大きな差別化要素だ。金融データ、天気予報、購買データ、人流・TV視聴率など、国内外のデータプロバイダーが提供するデータセットをゼロコピー・ゼロETLで即座に取り込める。
AIへの投資も積極的だ。OpenAI、Anthropicとの戦略的提携、Google CloudとのGTM戦略における協力体制強化を通じ、Claude、GPT-4系、Gemini、Mistral、VoyageといったLLMをSQL上のCortex AI関数から直接呼び出せる環境が整っている。
AIエージェントが「自分で考えて動く」とはどういうことか
こうしたデータ基盤の上に乗るのが「Snowflake Intelligence」だ。田中氏はここで、従来のLLMチャットボットとAIエージェントの根本的な違いを整理した。
チャットボットはユーザーの問いを受け取りLLMが直接回答を返すシンプルな構造だ。対してAIエージェントは、問いを受け取った後に「計画(Planning)」を立て、どのツールを使うかを選定し、実行結果が妥当かを検証したうえで最終回答を出す。
Snowflake Intelligenceのエージェントが推論の過程で呼び出すツールは大きく3種類だ。自然言語からSQLを生成する「Cortex Analyst」、非構造化データをハイブリッド検索で探索する「Cortex Search」、そしてPython等で定義した「カスタムツール」だ。エージェントは問いの内容に応じてどのツールをいつ使うかを自律的に判断する。具体的な構築手順を、田中氏はデモを交えながら順を追って解説した。

