- なぜ募集しているのか
- 【募集枠:若干名】
- どんな仕事か
-
データソリューションエンジニアとして、同社グループ内の課題をデータで解決することを目的に、データレイク上に収集されたデータの下準備、データウェアハウスへの集約データの追加、データを適切に可視化しビジネス側へフィードバックする業務を行っていただきます。
【具体的な業務】
1.データの下準備(データ変換・複数データの結合)
2.集約データに関する業務
・仕様策定(利用者が使いやすい形式や、効率の良い集計方法の検討)
・開発/データウェアハウスへの追加(新規集約データの追加・既存集約データの保守)
・可視化/展開するシステムの開発・保守(Tableau Desktopによる集約データの可視化・Tableau Serverの提供/運用保守)
3.データ活用の推進(新しく追加されたデータの利用促進・数字の見方やデータウェアハウス利用方法など、データリテラシーの向上施策の企画/実行)
4.機械学習を用いたシステムの設計、構築、運用(モデリング・システム化・運用/保守など)
【担当いただく業務の技術スタックなど】
言語:Scala, Python
フレームワーク:Hadoop, Spark
バージョン管理:git / GitHub Enterprise
CI:Jenkins
コミュニケーション: Slack, JIRA, Confluence, G Suite, JetBrainsなど
BIツール:Tableau - 求められるスキルは
-
必須 下記を満たす方で、
1.Scala, Java, Pythonなどを用いたアプリケーション開発スキル
2.Linux系サーバOS上での開発に必要な、最低限の知識、経験
3.SQLライクな言語(HiveQL, Impala SQL, Spark SQLなど)でのデータ分析経験
4.機械学習/統計学についての基礎的な知識
5.提案の実現や要望に対して、技術のプロフェッショナルとして関連部署との折衝、調整経験
かつ下記のいずれか1つ以上に対する知識・経験
1.データウェアハウスやデータマートの設計、構築、運用経験
2.ワークフローエンジン(Azkaban, Luigi, Airflow, Digdagなど)を使ったデータパイプラインの設計、構築、運用経験
3.機械学習を利用したシステムの設計、構築、運用経験歓迎 ・データマネジメントに関する知識/経験
・BIツール(Tableau, Qlikなど)の知識/経験
・Tableau Serverを運用した経験
・ログの設計/管理の経験
※同じ部署で、データレイクの開発/保守やストリーミングデータの取得/分析業務も行っているため、以下のスキルがあるとコミュニケーションが円滑に行えます。
・大規模ストリーミング処理(Fluentd, Kafka, Spark Streamingなど)
・大規模分散処理(Hive, Impala, Sparkなど)
・クラウド上での大規模分散処理(Amazon EMR, Google Cloud Dataprocなど)
・クラウド上でのストリーミングデータ分析(Kinesis, Athenaなど)基盤の知識/経験
・Hadoopセキュリティ(Kerberos認証, HDFS ACL, Sentryなど)に関する知識/経験
・さまざまなデータストア(時系列DB, NoSQLなど)の知識/経験募集年齢(年齢制限理由) 25歳 ~ 35歳 (長期勤続によりキャリア形成を図るため) - 雇用形態は
- 正社員
- どこで働くか
- 東京都
- 勤務時間は
- 10:00~19:00
裁量労働制(1日8時間のみなし労働)
※就業時間は変更になる場合があります。 - 給与はどのくらい貰えるか
-
500万円 ~ 699万円
※経験・能力・スキルなどにより、同社基準にて優遇・相談のうえ決定します。
賞与支給:年2回(6月・12月)
人事考課:年2回 - 待遇・福利厚生は
-
通勤交通費(上限5万円まで/月)
社会保険(健康保険、厚生年金保険、雇用保険、労災保険)
深夜勤務手当
育児手当(条件あり)
屋内禁煙(屋内喫煙可能場所あり) - 休日休暇は
- 土・日・祝、年末年始休暇(12月29日~1月4日)
年次有給休暇
リフレッシュ休暇
慶弔休暇
産前・産後休暇など - どんな選考プロセスか
-
書類選考
↓
面接(複数回を予定)
↓
内定
※選考回数、内容は変更になる場合もあります。
掲載期間20/06/02~20/06/15
求人No.ISLA-027