- どんな仕事か
-
【業務内容】
ご経験・ご志向に応じて、いずれか/複数を担当いただきます。
■データパイプラインの設計・開発・運用
└ Snowflakeを中心としたクラウドデータ基盤の最適化・効率化
└ データ品質・可用性のモニタリング・テストの仕組み化
■機械学習パイプラインの構築・運用(MLOps)
└ モデル学習・推論の自動化、再学習サイクルの確立
└ 特徴量エンジニアリングの効率化・再利用性の確保
└ トレーニング~デプロイのパイプライン設計
■データ活用プロジェクトの推進
└ ドコモとの協業による生活データ×証券データの掛け合わせ企画の技術支援
└ 社内各部門(マーケティング・リスク管理・プロダクト開発など)と連携したデータ利活用促進
└ データガバナンス・セキュリティを考慮した運用基盤の整備
■生成AIを活用した施策立案~実行
└ 社内外データを活かした生成AIソリューションの企画・PoC・実装
└ 顧客体験向上、業務効率化、マーケティング支援などへの応用
└ LLM(大規模言語モデル)やRAG(Retrieval-Augmented Generation)基盤の活用設計
▽扱うデータ例
取引データ、顧客データ、商品データ、財務データ、ログ・行動データ、マーケットデータ、外部データ(業務提携中のNTTドコモの生活データ等)
【ポジションの魅力】
■技術基盤・環境
・Snowflake中心の新データ基盤で、データ活用×生成AI実装を高速推進
・AI/クラウド/モダン開発・BIツール を日常的に活用
■役割・担当範囲
・データパイプライン/機械学習基盤の構築から、生成AIを用いた施策立案・実行まで一気通貫で担当
・分析(Analytics)~実装(Delivery)を横断的にリードし、成果までコミット
・システム部門と連携し、インフラを含むデータ活用基盤の整備にも踏み込める
・活用の仕組みそのものを設計・実現できるポジション
■組織・働き方
・少数精鋭×高裁量で、意思決定とスピードを両立
・2Cサービスの現場でユーザーの反応を素早く反映し、改善サイクルを高速回転
■独自アセット - 求められるスキルは
-
必須 【必須経験・スキル】
■PythonおよびSQLを用いたデータ処理・開発・運用の経験(5年以上)
■サーバーサイドまたはインフラエンジニアとしてのシステム構築・運用経験
■Snowflake、AWSなどクラウド環境での開発・運用経験(3年以上)
【歓迎経験・スキル】
■チームでのシステム開発・運用に関する実務経験
■機械学習モデルの学習・推論を支えるデータ処理フローやパイプラインの設計・実装経験
■BIツール(QuickSight、Tableau、Lookerなど)や可視化基盤の構築経験
■機械学習・生成AIを用いた業務改善や新規サービス企画への関与経験
■Terraform等のIaCツールを用いて、AWS等のパブリッククラウドのリソースを構築・管理経験
【求める人物像】
■課題を自ら発見し、関係者を巻き込みながら主体的に仕事をつくっていける方を歓迎します。 - 雇用形態は
- 正社員
- どこで働くか
- 東京都
- 給与はどのくらい貰えるか
- 750~999万円
NEW
掲載期間25/12/11~25/12/24
求人No.MYN-10528200





