- どんな仕事か
-
【業務内容】
■案件イメージ
・分析基盤構築:KDDIの約4,000万人規模のお客様から得られるテラバイト級のデータをもとに、分析や機械学習によって示唆を出し、業務改善、マーケティング等に活用するための基盤構築。利用者:ARISE社内分析者、KDDIのマーケティング施策担当/分析担当など
・アクセスログ収集基盤構築:KDDIの各種サービスにおけるテラバイト級のアクセスログをニアリアルタイムで収集、蓄積、加工し、分析・BI・他システムへ連携する基盤構築。利用者:KDDIのマーケティング施策担当/分析担当など
・配信基盤構築:KDDIのお客様に対して、個々のニーズに合わせつつ、大量配信を実現するマーケティングオートメーション基盤の構築。利用者:KDDIのマーケティング施策担当など
■ ポジションの期待役割
データ分析基盤及びデータ処理・連携システムの要件定義/設計/開発/運用?
(案件のフェーズを踏まえ、ご担当いただく工程を決定いたします)?
例)以下の業務の主担当
・データ基盤の詳細設計~実装
・技術的課題の特定・改善
・技術的な顧客コミュニケーション
・サブPMとして進捗・タスク管理
【具体的には】
■要件整理~仕様作成
■Spark / Databricks / BigQuery / Snowflake / Python / SQLなどを用いた各種設計・開発
・ETL/ELT設計・開発
・DWH→BI連携設計・開発
・CI/CD環境設計・構築
■問題切り分け~改善提案
■技術選定/PoC
■ドキュメンテーション
【1日の流れ】(例)
AM:要件整理/設計補助→実装
PM:レビュー/顧客折衝 → 次アクション定義
【キャリアイメージ】(次の役割までの担当範囲)
■案件リード
■要件定義/アーキ設計/PJ推進へスコープ拡大
【組織魅力】
■ 組織特徴
・リーダー直下でスキルアップでき、技術―要件の両面経験が積める
・最新技術(Snowflake/Databricks/CI・IaC)に触れられる
・顧客コミュニケーションと技術の両輪で成長可能 - 求められるスキルは
-
必須 【必須経験・スキル】
■パブリッククラウドによる商用インフラ構築・運用経験(2年以上)?
■Python、Java、Scala等のプログラミング経験(1年以上)?
■基本的なSQL(DML)の使い方を理解していること?
※ データ基盤構築やデータマネジメント経験は必須ではない。?
【歓迎経験・スキル】
■データ基盤構築経験?
■データウェアハウス(BigQuery,RedShift、Snowflakeなど)構築・運用の経験?
■ワークフローエンジン(Digdag,Airflowなど)の導入・運用?
■アプリケーションなどのログ収集基盤の構築経験?
■データマネジメント?
■TableauやLookerなどのBIツールの導入・運用?
■そのほか開発スキル?
■TerraformなどのIaCを用いたインフラ構築経験?
■CI/CDの構築・運用? - 雇用形態は
- 正社員
- どこで働くか
- 東京都
- 給与はどのくらい貰えるか
- 792~1000万円
掲載期間25/12/11~25/12/24
求人No.MYN-10533413





