国内最大規模のデータ分析企業で得られる経験とは
ARISE analyticsは2017年2月にKDDIとアクセンチュアのジョイントベンチャーとして設立された、国内最大規模のデータアナリティクス企業。KDDIのデータ活用による事業競争力の強化だけではなく、そのノウハウをグループ内外に提供するためのデータ活用を推進できる人材、DX人材を育成することがARISE analytics設立の目的だ。
現在、ARISE analyticsではデータを活用した顧客理解やマーケティング施策高度化を支援するマーケティングアナリティクス、IoTデータを活用し画像解析や需要予測などAIソリューションの開発、それらを支えるデータ基盤の構築やデータサイエンティストの育成、DX支援に注力して事業を展開している。
現在同社では派遣社員や業務委託なども含めると社員数は500人弱。そのうち約350人超がデータサイエンティストとして活躍している。彼らが第一線で活躍し続けるための成長支援やキャリア開発支援の仕組みも整備されている。
入社してデータサイエンティストとして一人前になるまでのキャリア形成初期は、全員がアナリストとしてスタート。その後、専門性に応じて「データコンサルタント」「AIエンジニア」「データアーキテクト」「ソリューションエンジニア」のいずれかのキャリアトラックを選択する。
データコンサルタントはお客さまのデータ利活用に向け、データ分析を通じて得られた示唆を基にデータドリブンなビジネス戦略の構想・提案、実現に向けたコンサルティングを実施する。AIエンジニアは、人工知能を始めとする分析スキルを用いて、お客さまのビジネスニーズを満たす分析アルゴリズムの設計から実装までを担当する。データアーキテクトは、大規模データ処理基盤の設計、およびデータ特性に応じた最適な分析システムの基盤の設計、実装に携わる。ソリューションエンジニアは、分析システム・アプリケーションの設計や開発、ビジネスニーズや分析要件にマッチするソリューションの検討・実装を行う。これらのキャリアトラックはキャリア形成に応じて、トラックを移動することも可能だという。
実はこのようなキャリアトラックが用意されているのは、同社の特徴とも言える。ARISE analyticsでは、他のデータ分析会社と違い、KDDIという事業会社に伴走したさまざまなプロジェクトが存在し、それらを支援するデータサイエンティスト・エンジニアにも多様なスキル・役割が求められる。そのため、この4つのキャリアトラックを用意し、データ分析だけではなく、事業への実装や施策への反映、さらなる改善提案など、データ分析の結果をビジネスに生かすまでトータルで支援を行っているのだ。
ビジネスの世界に新たな価値を提供できる「AIエンジニア」の楽しさ
ARISE analyticsでAIエンジニアとして活躍する渡邉孝裕氏は、2019年に新卒1期生として入社した。渡邉氏がキャリアトラックとしてAIエンジニアを選んだ理由は、「自分の興味がそこにあったから」。統計的なアプローチや機械学習、ディープラーニングを用いて、人間の意思決定と同じような仕組みをシステムとして生み出したいと思ったという。
渡邉氏は就職活動にあたり、「何をやるか」「誰とやるか」という2軸で就職先を考えていた。「何をやるか」の軸で渡邉氏が選んだのが「データサイエンス」だった。しかし、当時の新卒採用ではデータサイエンティストの募集は一般的ではなかったため、「対象企業が絞れた」と渡邉氏は振り返る。絞った複数社の中でARISE analyticsを選んだのは、「前向きで柔軟な人たちが多いと感じたから」と明かす。
入社して4年目、これまで渡邉氏は大きく3つの案件に関わってきた。
最初に携わったのはテレマーケティング業務の効率化のためのプロジェクト。KDDIのテレマーケティング業務では、お客さまに電話を掛けてサービス加入を促していたが、お客さま一人ひとりのニーズにマッチしたサービス提案に課題があった。これを解決するため、お客さまの属性やサービス利用状況などのデータを活用し、サービスへの加入確率を計算、ニーズマッチ度の高い順に架電していくことで、業務を効率化するというプロジェクトが発足した。
渡邉氏は加入確率を計算するモデルの作成を担当。「ニーズマッチ度の高い順に架電していくことで、初月は従来の倍に近い加入率を獲得しました。学生時代から理論として機械学習や統計学に触れていましたが、ビジネスの世界で適用して実際に価値を提供できたことが嬉しかったです」(渡邉氏)
次に携わったのは、ARISE analyticsの社内向け分析ライブラリの開発だ。「ARISE analyticsはKDDIの巨大なデータを管理する基盤を構築しているのですが、分析するにはさらに使い勝手を良くする必要がありました。そのためライブラリを開発することで、業務効率化を狙いました」(渡邉氏)
この案件では、分散処理のフレームワークにApache Sparkを採用した。「分散処理でデータを加工するには、推論を立てるには、また分散処理がうまくいかないときにはどのようにデバッグをすればよいかなど、分散処理に関する技術に取り組めたところが面白かったですね」(渡邉氏)
このほかにも、KDDIのある部署と要件定義を詰めてPoCを始めるという、プロジェクトマネジメント的な役割を果たす案件も経験したという。このようにさまざまなプロジェクトを経験することで、データサイエンティストにとって必要な3つのスキル、エンジニアリング力、ビジネス力、データサイエンス力を身につけていき、2年前に「AIエンジニア」というキャリアトラックを選択するに至った。
現在、渡邉氏が携わっているのは、携帯電話の基地局におけるデータ容量を最適化するプロジェクトだ。将来のトラフィックを予測することで、どの基地局の容量を増やすべきかを検討する。トラフィックを最適化することで、ARPU(Average Revenue per User:携帯端末1台あたりの平均売上高)を向上することができる。「基地局建設の部署は、どの場所に基地局を建てればいいのか、どの基地局を修理すればいいのかを知りたい。それを分析であぶり出すというプロジェクトです。今回を機にKDDIの根幹事業である通信設備の支援にも切り込んでいけるということで、まさに当社にとってパイオニア的プロジェクトです」(渡邉氏)