2021年1月に、新たな仲間を迎え発足したデータ基盤チーム。
今回は、データ基盤チームが属する技術部の部長を務める hsbt と、チーム発足に合わせて入社したデータエンジニアの tosh と kozee に、この半年の取り組みと今後のやっていきについてインタビューしてみました。
自己紹介
柴田 博志(しばた ひろし)
あだ名:hsbt
Twitter:@hsbt
執行役員 VP of Engineering兼技術部長。最近ハマっていることは、モンスターハンターストーリーズ2のたまご集めです。
堤 利史(つつみ としふみ)
あだ名:tosh
Twitter:@tosh2230
技術部 データ基盤チームエンジニア。新商品の飲み物は必ず飲むように心がけています。
松本 浩二(まつもと こうじ)
あだ名:kozee
Twitter:@koji_mats
技術部 データ基盤チームエンジニア。休日はロードバイクでサイクリングしています。
テックカンパニーとして、データから導き出される情報を組織活動に活かす
ーまず、データ基盤チーム発足の背景を教えてください。
hsbt:
ペパボにはBigfootというデータ分析の基盤があります。これまではペパボ研究所の @HirokaZaitsu や技術基盤チームの @udzura 、その他の有志の人たちで、開発や拡張を続けてきました。しかし、データ分析の専属のチームが存在していたわけではないので、どうしても継続的に開発することが、なかなかできていない状況にありました。
しかしながら、データから導き出される情報をどう解釈し、組織活動にどう活かしていくのかが現在のIT企業・テックカンパニーにおいて必要とされる組織的な能力です。それ故に「改めてやっていかないといけない!」という強い気持ちの元、データ基盤チームという、専任のエンジニアがいる組織を作ろうと思い、2021年1月から発足したというのが背景です。
ーデータ基盤チーム発足に向けて採用活動を行い、お二人を採用したわけですね。
hsbt:
そうですね、正直なところ2020年の12月に初期チームメンバーのお二人を採用できたというスレスレの状況からのスタートでしたけど、それぞれ違ったバックグラウンドを持ったメンバーが集まってくれました。
ーお二人はこれまでどんなことをされていたんですか。
tosh:
私は前職が製造業で、製造業の研究部門のデータサイエンスを専門で行う部署でデータエンジニアをやっていました。
業務内容としてはPOCに関わることが多く、データサイエンティストの方たちの実験環境を作ったり、実験環境の整備と同時に、最初は何もなかったので、新しくクラウドを使って環境を整えたりしていました。
その前はSIerをしていて、そこではシステム開発を行いつつ、プロジェクトマネジメントもやっていました。ですが、より技術的な専門性を高めたくて転職をしてデータエンジニアになり、ペパボに転職しました。
kozee:
10年ちょっとネットワークエンジニアをやっていました。
ネットワークエンジニアと言っても、会社によってやっていることが異なるのですが、自分の場合は、データセンターの中でネットワーク機器を入れてケーブルを繋いで、といった実装や設計などをメインでやっていました。
そのあと機械学習のサービスを提供しているスタートアップに転職して、当初はETLエンジニアという職種で、データエンジニアリングをやっていました。そこでも、今と同様データ基盤の構築などを担当していました。
2021年はSUZURIのデータ活用に注力。半年で、ペパボのデータ活用事情が見えてきた
ーこの半年、データ基盤チームとして様々なことを取り組まれたと思うのですが、まず何から着手されたのですか。
tosh:
今年の上期は、SUZURIのデータ活用をよりドライブさせていこうという方針だったので、ほぼそれにフルコミットしていました。
あとは、データ基盤自体の強化を行いました。
チームが立ち上がるのと同時に、人数が倍になって、今まで作っていたBigfootのデータ基盤の足元を固めていかないと開発を続けられなかったり、出来上がった処理が動かなくなったりするため、それを整備しました。
ーSUZURIのデータ基盤の活用について、もう少し詳しくお二人が取り組んだことを教えてください。
tosh:
私がやったことは、SUZURIのKPIのダッシュボードを作ったことです。
今までは「知る人ぞ知る」といったところにデータが集計されていたのですが、誰でも見れるところにダッシュボードを作ったことと、KPIを毎日Slackに投下するようにしました。
そうしたことによって、データを見ながら「次こうしよう」という話がしやすい状態に、少し貢献できたかなと思っています。
kozee:
自分が担当していた中で大きいところでは、SUZURIの広告効果のレポーティング作業の自動化です。
これまではGoogle広告やFacebook広告などの数字の効果指標を、WEBのインターフェースからとってきて、手作業でスプレッドシートに貼って報告していました。それをBigfootを使い、データを取ってきて、スプレッドシートに反映するまでを自動化しました。
ーこの半年やってみてわかった部分や、逆にできないってところはありますか。
tosh:
メインはSUZURIのタスクが多いのですが、それ以外の事業部の皆さんとも仕事する中で、ペパボの事業についてちょっとずつ理解が深まったり、あとは実際にどういうデータを扱っているのか、それをどう活用しているのか、という状況が少しずつ見えてきました。
ーそもそもペパボの全部のサービスで、Bigfootを活用してデータって取れているのでしょうか。
tosh:
全部ではないのですが、いちばんBigfootを利用しているのは、実はCS室なんですよね。
CS室では、ペパボのサービスのカスタマーサポートを横断的に行なっているので、そこで必要とされているデータは基本的にBigfootに集めて取っています。なので最初の質問で言うと、結構なカバー率ではあるのかなと思います。
ペパボのログ活用基盤『Bigfoot』を使った Zendesk のデータ可視化
※CS室でのBigfootの活用事例
ーKozeeさんはどうですか。
kozee:
自分もこの半年やってきて、ペパボのサービスとそれに関わるエンジニアがどういうことをやっているのかはだいたい把握できてきました。
一方でペパボのデータ活用状況も見えてきたので、SUZURIやminneだけでなく、もっとデータ活用できるところがあるんじゃないかなと思っています。
逆にできていないことは、技術的なデータ基盤の細かい部分で問題になっているところや、今後問題になりそうなところをスムーズに改善できていないことです。
ただ自分もだんだんペパボに慣れてきたので、これからどんどんデータ基盤の改善を加速できるんじゃないかなと思っています。
自由度が高く、自主性が尊重される。試作に対するフィードバックもすごく早い
ーこの半年、ペパボのデータエンジニアとして働いてみて率直な感想を教えてください。
tosh:
そうですね。結論からいうと面白いし楽しい、なのですが「なんでかな」って考えてみると、やっていきと、のっていきの質が違うなと思っています。
多分、”のっていき”がいちばん違うと個人的には思っていて、誰かが「これをやるぞ!」って言った時の他のメンバーの”のっていき”がすごいと思います。そういうカルチャーがあるから、みんなやるぞっという雰囲気が自然と醸成されていて、それがすごくいいなと思っています。
tosh:
具体的なエピソードがいま思い浮かばないのですが、「こういうのをやったらどうですか」と提案したときに、「それでやってみて!」となりやすいというか、自主性を尊重されている感じがいいなと思っています。
ーtoshさんも実際に入社2ヶ月でペパボの勉強会で登壇されていて、のっていきがすごいですよね!
tosh:
いやいや!私は「こんなに早くやっちゃっていいんですか!」という感じで、ありがたかったですね。
自由度が高く、自律性を尊重しつつ、責任を持って行動させてもらえる。ペパボはそういうところなので、やりたいことがあるとか、やるぞ!となっている方は、すごい楽しい場所だと思います。
データ基盤チームの振り返り〜ペパボテックカンファレンス#14
※勉強会での登壇内容に関するブログ
ーそうしたらkozeeさんも聞いてもいいですか。
kozee:
まず自分の場合、以前からペパボの提供しているサービスって面白いなと思っていて、そのサービスや自社サービスのデータエンジニアリングって面白そうだなというのがまずありました。
実際にやってみると、エンジニアリングの部署だけじゃなくて、事業部の方とも身近にコミュニケーションをとりながらすぐに対応を始めることができるし、試作に対するフィードバックもすごく早い。そこがすごい面白いし、スピーディーで嬉しいという感じです。
例えば、Slackで「こんなのできました!」と投げかけてみたら、すぐに反応してくれて、次の日には使い始めてくれたりとか、そういうスピード感がすごくいいなって思っています。
MLOpsの取り組みを加速させ、 全自動でデータを活用していく
ーこれからチャレンジしたいことを教えてください。
tosh:
半年やってきて「こういうデータがあって、こういう活用がされている」というのが少しずつわかってきたんですね。ただ、それって今1サイクル回ったって感じなので、こういったサイクルを何度も回せるのがいいなと思っています。
自分やデータ基盤チームがもっとデータのサイクルを生み出すために、それぞれの事業部のデータがどういう形になっていて、どう使われているのかを理解しないといけないなと思っています。
やることとしてはこれまでと変わらずになると思うのですが、より深みが出るようにしていきたいです。
さらに複数の事業部でサイクルを生み出せるようになると、もっとナレッジが溜まってきます。特定の事業部に偏った形ではなく、ペパボ全体で適応できる部分が出てくると、横断組織である技術部の強みをより発揮できると思っています。
kozee:
自分にとって、ちょっと夢レベルではあるんですけど、ペパボは個人向けのサービスが複数あるので、似たような傾向のデータをサービスごとに大量に集めていって、共通して活用できるような仕組みを作っていきたいですね。
そのためには、今あるBigfootを技術的にもっと高度なものにしていかないといけないと思っているので、その技術的なチャレンジをどんどんやっていきたいなと思っています。
ーデータ基盤チームにおいて、今後やっていきたいことを教えて下さい。
hsbt:
データを使って事業を成長させる、ということをやりたいんですよね。
そのためには、データが示しているものを、読み解いたり、発見したりすることが必要です。
実現するための方法としては2つあります。
1つ目はそれができる人、データサイエンティストやデータアナリストと呼ばれる人達がデータを読み解くという方法があります。
各事業部門で、データアナリストの育成や、新規採用を積極的に行い、 Bigfootや、データ基盤チームが作ったものを活用して、新しいビジネスを作ったり、ペパボががやりたいと思っている「インターネットで可能性をつなげる」というミッションを達成できる施策や機能、取り組みに活用していく。
もう1つは、深層学習やマシンラーニングを使い、人がいなくてもそれを出来るようにしていく方法です。
データをたくさん読みませることで、例えば「2年後にこういう数字が出ます」といった、人がいなくてもデータを読み解ける機械学習の取り組みも進めていけるようにしていきたいです。その取り組みは今まさにペパボ研究所で、研究員の皆さんが考えたり試行錯誤をしている最中です。
毎時間・毎分といった単位で学習システムを実行し続けて、極論、ボーッとしていてもデータを用いて成果を出せるような、そういったレベルのものをペパボ研究所とデータ基盤チームで作っていきたいです。
こういった取り組みはMLOps(機械学習基盤)というのですが、そういった取り組みをしたいと思っているので、MLOpsについて何かスキルを持っている方は是非一緒にやっていきましょう。
それだけなくデータを扱う業務をされている方や、機械学習の知識を用いて、研究ではなく研究したものをエンジニアとして扱っていますという方は、ぜひペパボのデータ基盤チームに入って、それをもっとカッコよく全自動で動くものを一緒に作りましょう。
ーデータ基盤チームでの業務の面白さはなんでしょうか。
hsbt:
ペパボ場合は事業部が4つあり、その中に11個のサービスがあります。
その各サービスで使われている様々な種類のデータを、横断して分析することできるというのがペパボのポイントです。
他の会社さんだと、単一のサービスのデータ分析が多いと思います。その一方でペパボのようなバラエティのあるデータを扱って、それらを個別に試行錯誤したり、いくつかのサービスを横断して特性を導き出したり、試作を試すといった、幅のある取り組みができるかなと思っています。