- どんな仕事か
-
下記の業務を担当して頂きます。
1.データ基盤の開発・改修・保守運用
・データ基盤の物理・論理データモデル設計・開発・保守運用
・データ基盤のシステムアーキテクチャの設計
・データパイプライン (ETL) の設計・開発・保守運用
2.データ基盤におけるデータマネジメントの導入計画立案と実施
・データガバナンス
保有データから事業価値を生むためのポリシー、プロセス、メトリクスの策定
・マスタデータ、メタデータ管理
ビジネスメタデータ=業務ルール・計算方法
・テクニカルメタデータ=テーブル・カラムの定義の作成と運用・モニタリング
・データ品質管理
・データ品質基準・評価・測定プロセスの策定と実施
開発環境は下記になります。
・インフラ
GCP (データ基盤) / AWS (関連システム)
・データパイプライン (ETL)
CloudComposer (Airflow)
・DWH
BigQuery
・その他インフラ管理
Docker
GKE / GAE / CloudRun
・可視化ツール
Google Data Portal / Tableau
・分析環境
Jupyter Notebook / Google Colab / Google Cloud ML
・その他
GitHub / Slack / Notion - 求められるスキルは
-
必須 【必須条件】
・エンジニアリング力
GCP や AWS などの主なクラウドサービスにおける開発経験。
DWH や業務系などのデータベースの設計・開発・運用経験。
データパイプライン (ETL) の設計・開発・運用経験。
基本技術情報試験レベルのコンピューターサイエンスの知識。
・データ専門性
SQLを記述する事が出来る。 (数十行位)
基礎集計を通じてデータの全体像や質を確認することができる。
・ビジネス力
論理的思考力 (定量思考力、要約力、仮説構築能力など)。ドキュメント作成能力 (見栄えではなく、構成の組み立て方やわかりやすさが担保出来るか)。
関係者を主体的に力強く巻き込み形にしていく強い推進力。
プロジェクトマネジメント能力 。 (完了定義。スコープ策定。制約を考慮した優先度決定。タス ク洗い出し)
・実務経験
事業会社における情報システム企画の経験 (どんなシステムがどんな処理をどんな順番で実施するかの要件定義レベル)
メタデータ定義やデータ品質のマネジメントに関して企画立案や施策実施をされたご経験。 (インパクトの規模は問わない)
自ら企画や施策を立案し成功させた経験。 (インパクトの規模は問わない)
・求める人物像
データエンジニアリング領域に特に強いご興味をお持ちである。
【歓迎条件】
・データマネジメント
DMBOK (Data Management Body of Knowledge) もしくは DMM (Data Management Maturity Model) に基づくデータマネジメントの知識や、これらの取り組みのご経験をお持ちである。
・データ専門性
データサイエンス (統計や機械学習) 領域のの基礎的な知識をお持ちであ - 雇用形態は
- 正社員
- どこで働くか
- 東京都
- 給与はどのくらい貰えるか
- 650~1000万円
NEW
掲載期間24/11/15~24/11/28
求人No.MYN-10172792