- どんな仕事か
-
●データ分析基盤の作成
大規模データの収集、変換、保存を行うためのデータパイプラインの設計・実装
ETLプロセスの最適化と自動化を通じて、データ処理の効率化を図る
データの可視化や分析を支援するためのインフラストラクチャの構築
●データ連携システムの構築
複雑なエンタープライズ環境におけるデータ連携システムの設計・実装
APIやメッセージングキューを活用したリアルタイムデータ連携の実現
異なるシステム間でのデータ統合と同期を効率的に行うためのソリューションの提供
●データベース管理
RDBMS、NoSQL、Data Warehouseを活用したデータベースの設計・運用
データの整合性とセキュリティを確保し、パフォーマンスを最適化
データベースのバックアップとリカバリ戦略の策定と実施
●AIモデルの学習データの管理・作成
AIモデルの学習に必要なデータセットの管理・作成
データの前処理や特徴量エンジニアリングを通じて、AIモデルの精度向上を支援
●カスタマージャーニーの作成
・ユーザーの利用シナリオを視覚化し、プロダクトの利用状況を把握するためのカスタマージャーニーマップを作成
●データ品質の向上
データのクレンジングや正規化を行い、データ品質を向上させるためのプロセスを設計・実施
データの整合性を維持し、エラーを最小限に抑えるための監視システムの導入
●データセキュリティの強化
データのセキュリティポリシーを策定し、データの機密性と安全性を確保するための対策を実施
データアクセス権限の管理と監査を通じて、セキュリティリスクを低減
【働き方】
ハイブリッド勤務 : 週3出社、週2リモート - 求められるスキルは
-
必須 ・コンピュータサイエンスや関連分野の学士号・修士号、または同等の実務スキル
・クラウドプラットフォーム (AWS, GCP, Azure いずれか) やコンテナ技術 (Docker, Kubernetes) の利用経験
・データエンジニアリングの実務経験
データパイプラインの設計・実装経験(3年以上)
RDBMS、NoSQL、Data Warehouseの運用経験
・アルゴリズム・データ構造などCS基礎への深い理解とハンズオンでの実装能力
Python、SQLなどを用いたデータ処理の経験
スクリプト言語を用いたデータ処理の自動化経験
・データベース管理能力
データベースの設計、運用、最適化の経験
データベースのパフォーマンスチューニングの経験
・データ品質管理の経験
データのクレンジングや正規化、データ品質向上のためのプロセス設計経験
・セキュリティ意識
データセキュリティに関する知識と実践経験
・LLM / AI 領域への強い興味、および最新技術を追い続ける探究心
・日本語 (Fluent) : プロダクト開発において齟齬なく議論を行えるレベル歓迎 ・AIモデルの学習データの管理・作成経験
AIモデルのトレーニングに必要なデータセットの準備や管理の経験
・AI/ML、チャットボット、生成系 AI、NLP、エージェントフレームワークなどの開発・研究経験
・ビッグデータ技術の知識
Hadoop、Sparkなどのビッグデータ処理技術の知識
・大規模データ環境下での分散システムやパフォーマンス最適化の経験
・多国籍環境での実務経験 - 雇用形態は
- 正社員
- どこで働くか
- 東京都
- 給与はどのくらい貰えるか
-
600万円 ~ 1199万円
※経験・能力・前職経験によりご相談に応じます。
掲載期間25/04/11~25/04/24
求人No.WTH-s001