CodeZine(コードジン)

特集ページ一覧

GCPで飛躍するデータ活用とリアーキテクチャリング! モノタロウの急成長を支えるECシステムの舞台裏【デブサミ2020】

【13-B-2】モノタロウがGCPで挑戦するデータドリブン・ECプラットフォーム〜持続的成長の舞台裏

  • ブックマーク
  • LINEで送る
  • このエントリーをはてなブックマークに追加
2020/03/16 12:00

 間接資材のECで成長し続ける「モノタロウ」。20%以上の売上成長を10年継続し、2019年の売り上げは1200億円を突破した。持続的な成長を牽引してきたのがデータ活用によるマーケティングだ。しかし成長が進む一方、システムへの負荷や顧客最適化への要求が高まり、さまざまな課題が生じてきた。そこで同社では、さらなるデータ活用の促進による顧客最大価値の向上を目的として、Google Cloud Platform(GCP)を活用したシステム刷新に着手。MonotaROのビジネス特性と既存システムの課題、そして課題を解消すべく現在構築中の新しいシステムの構成について、同社の普川泰如氏と藤本洋一氏が解説した。

目次

すべてのデータを1カ所に集約するとともに、安定したデータ連携の基盤を構築

 モノタロウは、BtoBの間接資材販売ECサイト。間接資材とは、工具やネジなどの消耗品、事務用品、科学用品、カー用品など、原材料以外の物品だ。従来、間接資材の取引はメーカーや問屋に問い合わせして見積、価格交渉、発注、納品といったプロセスで行われてきた。モノタロウの場合はECサイトを通じて価格交渉なしですぐ商品を届けられるため、これまでかかっていた購買に関わるコスト削減が実現できた。

 徹底したデータマーケティングで成長してきたモノタロウ。現在取り扱う商品のSKU(Stock Keeping Unit、受発注・在庫管理のための最小の管理単位)は1800万と膨大だ。毎年20%成長を続けていると、3.5年後には売り上げやトランザクションは2倍になる。

 「データを活用して顧客接点を最適化していくのがモノタロウのデータマーケティングです。おすすめ商品や特価・クーポンなども個別最適化をしています。たとえば、手袋で検索した場合、医療関係者と製造業では違う検索順位で商品が並びます。しかし、1800万SKUのアイテムを手動でチューニングしていくのは不可能です。このため、エンジニアリングによって自動化しながら進化する仕組みが重要となります」と普川氏は話す。

株式会社MonotaRO データマーケティング部門 EC基盤グループ グループ長 普川泰如氏
株式会社MonotaRO データマーケティング部門 EC基盤グループ グループ長 普川泰如氏

 デジタルマーケティングをさらに促進するには、それを支えるデータ基盤の整備が重要である。2017年当時、同社のデータ基盤には、「データの保存場所が分散していて移動が困難」「オンプレミスのデータ基盤向けのサーバースペックが不足」「分析に必要なデータがそろわない」などの問題点が挙がっていた。

 普川氏は「データが集約されており、スケールできて、使いやすく、管理しやすく、コストも安いデータ基盤の需要が出てきたので再構築しました。結果からお話しすると、扱えるデータ量は100テーブルから1000テーブルと10倍に、作成されたレポート数も30から300と10倍、SQL を業務に利用する人数は10名から50名へ5倍と大きく増加しました」と語る。

 必要なデータはすべてBigQueryに集約して活用されるようになった。ユーザーの行動データはGoogle Analyticsから、WebサーバーやアプリケーションのデータはFluentdやAmazon Kinesisから、OracleやMySQLのデータもすべてBigQueryに集められ、データを保存するとともに、データを加工してデータウェアハウスとしても使われるようにしている。

必要なデータはすべてBigQueryに集約して活用される
必要なデータはすべてBigQueryに集約して活用される

 これにより「BigQueryにあるデータを参照して機械学習の処理をする」「さまざまなダッシュボードを作る」「加工したデータをECサイトの検索用インデックスデータの最適化に活用する」などが可能となった。

 普川氏は続いて、新しいデータ基盤が活用されるようになったポイントとして、CDC(Change Data Capture)による安定したデータ連携を挙げた。データの変更情報のみを取得して処理を行うCDCにて擬似的にSlaveDBを作成し、MasterDBに負荷をかけず安定してデータを連携できるようになっている。

 CDCは、メインとなる基幹のDB(MySQL)のBinLog Connectorを利用して行われている。BinLog Connectorというプロセスが変更情報のバイナリデータを監視し、変更があるとCloud Pub/Subに通知してProcesserという別のプロセスに渡され、BigQueryのデータとして格納される。変更からBigQuery到達まで1分程度だという。

 SQLを業務に利用する人が5倍に増えた理由は、非エンジニアの業務担当者によるSQLデータ分析が浸透したためだ。「従来は業務担当者が分析担当者に依頼すると1日~1週間かかっていました。もともとデータ分析を行う社風のため、業務担当者自身が的確な分析をしたいニーズがあったのです。SQLの学習は、定期的な研修やSlackでQ&Aを行うなどして浸透しました」と普川氏。

 データ基盤が整備されることで、データサイエンティストが生成したパーソナライズデータをECのアプリケーションで容易に利用可能になった。普川氏は「より高度な顧客接点での最適化につなげるべく、ECアプリケーション側の抜本的な改革の機運が高まっています」と、新基盤でのECシステム刷新に奮闘している藤本氏の登壇を促した。


  • ブックマーク
  • LINEで送る
  • このエントリーをはてなブックマークに追加

著者プロフィール

  • CodeZine編集部(コードジンヘンシュウブ)

    CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。

バックナンバー

連載:【デブサミ2020】セッションレポート

もっと読む

All contents copyright © 2005-2020 Shoeisha Co., Ltd. All rights reserved. ver.1.5