SHOEISHA iD

※旧SEメンバーシップ会員の方は、同じ登録情報(メールアドレス&パスワード)でログインいただけます

CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

Developers Summit 2022 レポート(PR)

リアルタイムユーザー解析基盤のDBをゼロダウンタイムで新しいDBに移行したノウハウ【デブサミ2022】

【17-B-5】KARTE リアルタイムユーザー解析基盤のDB(450TB)をゼロダウンタイムで新DBに移行したノウハウ

  • このエントリーをはてなブックマークに追加

トライアルと横展開から得た教訓と知見

 以上4つのステップをクライアントごとに進めるにあたり、順番としては「(1)トライアルフェーズ」で社内用サイトでまず試してから、中規模のクライアント数社を行い、リスクを早くつぶすため大規模なクライアント1社に挑戦。次に「(2)横展開フェーズ」で大規模クライアントを除く全てに着手し、「(3)最後の仕上げフェーズ」として、大規模クライアント数十社について実施した。それぞれのフェーズでさまざまな問題が発生し、多くの教訓が得られたという。

(1)トライアルフェーズ

 ここではバグ潰し、パフォーマンスチューニングの繰り返しだった。レプリケーションは特にバッチでの書き込みに加えて検証を日々行ったが、新形式のread/writeの不備や、現在/新規の変換ロジックの不備など、予想以上にバグが出て、1カ月ほどを費やすことになった。

 パフォーマンスのチューニングも行ったが、ここでのポイントは最低限にとどめることだ。初期段階ではDB内のデータ分散が十分でないこともあり、パフォーマンスが出にくかったが、ロジックに問題があるのかなど問題の切り分けがまだできていないこともあり、カリカリにチューニングすることは局所最適化にとどまる可能性があった。

 ただ、新DBでのBigTableのフィルター条件が複雑すぎて逆に負荷が増大していることは明らかだったため、フィルター条件をシンプルにしてアプリケーション側でフィルタリングすることで対処した。そして最たる山場として日鼻氏があげたのが、検証からread切り替えの部分だ。特に最初のRead切り替えは、一定リスクテイクして進める必要がある。

 日鼻氏は「現/新比較の一致率はなかなか100%にならず、初期段階だとデータが十分に分散しないためにパフォーマンスも若干悪くなってしまう。そこで、スピード感を持って実施していくために、最低限の目標値を達成し、その上で検証結果に自信を持ったら進めるしかないと判断した。またクライアントごとの移行のため、仮に問題があったとしても影響は限定的であり、問題が出てすぐ直せなくとも、検証ステップに引き返せばいいと考えた」と振り返り、「この段階ではクリティカルな問題はなく、結果論ながら進んで良かったと考えている」と語った。

(2)横展開フェーズ

 トライアルでうまくいったものの、全てのクライアントの移行を手掛けた横展開時には2つの大きなトラブルに見舞われた。

 まず、デプロイ時の解析処理速度が劇的に悪化した。これは、移行対象が増加したことによるClient ConfigのDB(Big Table)が過負荷状態となり、readパフォーマンスが劇的に悪化したからと考えられる。一定サイズ(不明)を超えるとBig Table内部でキャッシュされなくなることはDBではよくある問題だ。そこで移行対象について全てJSファイルにハードコーディングし、デプロイを繰り返すという地道な方法で乗り切った。

横展開フェーズで起きた問題
横展開フェーズで起きた問題

 日鼻氏は「そもそも一気に行わず、10%など刻んで段階的に移行すれば防げたはず。さらに複数の行にConfigを書き込んで、read側を分散させて過負荷を防止する方法もとり得た」と語った。

 そして2つめのトラブルは、振り分け過程でのバグにより、未移行のユーザーデータ更新が意図せずスキップされることが生じ、データが一部欠損するというクリティカルな事象が起きた。これについては、早々にバグを修正し、影響があったクライアントには連絡するなどの対応を行った。

DB移行の経験を活かし、さらなるサービス改善へ

(3)最後の仕上げフェーズ

 横展開フェーズが厳しかったため、当初は全ユーザーデータ移行が現実的な時間内で終わるかという懸念があったが、2週間以内に全ての移行を完了することができた。パフォーマンスをあげるために、移行対象抽出用のBigQueryのリソース(Slot)を一時的に増やしたり、書き込みバッチのジョブ並列数を5倍にしてバッチの書き込みスループットを増やしたりといった工夫を行った。

 日鼻氏は「移行が進むにつれ、新DBのデータが増えて負荷が分散され、大量の書き込みに耐えうる状況になっていった。当初450TBのDB移行は解決困難な問題に見えたが、やってみるとさほど問題ではなかった」と語った。

 そして結果として、予想以上にパフォーマンス向上やコスト削減を実現した。不要なデータは移行対象から除外し、圧縮効果もあってデータ量も450TBから225TBへと大幅に圧縮することができた。また、パフォーマンスについては、ユーザー取得速度(95 percentile)が100ms程度も早くなった。そしてコストはBig Tableの消費リソース数を30%程度削減することができた。

 こうしたユーザーデータDB移行にあたり、日鼻氏は「ハイリスク・ハイリターンな変更こそ、勇気を持って個別に早く実施すべきだと改めて感じた。450TBという量で大きな問題に見えても、小さくスタートして段階的に進めればなんとかなる。その中でも、クリティカルな影響がでうる場合は、検証ステップが有効であり、それがあったからこそスムーズに進められた。ただし、どんなに検証したとしても必ず見えていない角度から障害は起きうる。検証結果を過信することなく、影響範囲を限定的にする設計と、ふとした予兆や違和感を大事にすることが重要」と語った。

 無事にDB移行を実現させたが、「リアルタイム解析基盤」のアーキテクチャを変えて、スケーラブルな基盤とするために、全体の移行はまだ続いていく。DB移行で得た学びを活用しながら、移行設計・検証を進めているところだ。

 日鼻氏は「DB移行よりも多くの領域が変更対象となり、よりチャレンジングなものになると思われる。基盤全体の移行後に、これらの移行ノウハウを発表したい」と意欲を見せた。「さらにいえば、解析基盤の移行を完了させたら終わりではなく、移行させてからが勝負だと思っている。ブレイドの『データによって人の価値を最大化する』というミッションのもと、より良いものにしていきたい」と熱く語った。

この記事は参考になりましたか?

  • このエントリーをはてなブックマークに追加
Developers Summit 2022 レポート連載記事一覧

もっと読む

この記事の著者

伊藤 真美(イトウ マミ)

エディター&ライター。児童書、雑誌や書籍、企業出版物、PRやプロモーションツールの制作などを経て独立。ライティング、コンテンツディレクションの他、広報PR・マーケティングのプランニングも行なう。

※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です

この記事は参考になりましたか?

この記事をシェア

  • このエントリーをはてなブックマークに追加
CodeZine(コードジン)
https://codezine.jp/article/detail/15694 2022/04/07 12:00

おすすめ

アクセスランキング

アクセスランキング

イベント

CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

新規会員登録無料のご案内

  • ・全ての過去記事が閲覧できます
  • ・会員限定メルマガを受信できます

メールバックナンバー

アクセスランキング

アクセスランキング