- どんな仕事か
-
【中途】データエンジニア
【職務内容】
当社では「アイデアを持つパートナー(起案者)」に対して、サービスデザインから技術選定、開発までを一気通貫で提供しています。
スタートアップの開発支援から大手企業の新規サービス立ち上げまで様々な規模のプロジェクトがあり、その中でもパブリッククラウド環境でのデータウェアハウス構築を担うデータエンジニアとして業務を担っていただきます。
【業務詳細】
・パブリッククラウド(AWS、GCP、Azure など) やSnowflakeでのデータ基盤・データパイプラインの設計、構築、運用
・データ収集、加工、ストレージに関わるシステムの開発
・大規模データを対象としたETL (ELT) 処理の最適化
・リアルタイムデータの処理
・データクレンジング処理やデータマートの構築
・データの可視化および分析基盤の構築支援
・データパイプラインの品質管理、パフォーマンスの向上
・データガバナンス、セキュリティの実現
・データウェアハウスの運用保守
・ステークホルダー(データアナリスト、データサイエンティストなど) との連携
・顧客との要件定義や設計フェーズでのコミュニケーション
【仕事の魅力】
●当社ベトナム拠点にはハノイ工科大学の卒業生を中心とした1000名以上の優秀なエンジニアが在籍しており、日本国内ではCTO経験者を10名程度擁しています。エンジニアリング・リソースの豊富さと、優秀なエンジニアに選ばれる環境であることがSunの魅力です。
●サービスを作りあげるためにはビジネス・テック・クリエイティブといったそれぞれの視点のどれもが強すぎることなく適切に融合される必要があると私たちは考えています。トップダウンではなく各分野のプロフェッショナルなメンバーこそがサービスをデザインし、かたちづくると考えるチームがSunにはあります。
●今、様々なタイプの新しいサービス・価値を届けたいという気持ちをもったクライアントが集まっています。
サービス立ち上げの最初から関わるため、その技術選定・設計・開発を行うため、制約なく本質的に必要なことを選択できる環境です。
●国籍ひとつをとっても日本・ベトナム・ペルー・オランダ・タイ出身などのメンバーからなる多様性のある組織のな - 求められるスキルは
-
必須 【応募資格(必須)】
■データ基盤の構築経験
Snowflake、Microsoft Fabric、Databricks、Amazon Redshift、Google BigQuery、Azure Synapse Analytics など
■ETLプロセスの設計・開発経験
dbt、dagster、Airflow、Glue、Dataform、Data Factory、Kafka、Amazon Kinesis など
【Python、Java、またはScalaを用いたデータ処理の実務経験
■SQLの高度なスキル
■CI/CDツールを用いたパイプラインの自動化経験
【応募資格(歓迎)】
TerraformやCloud Formationを利用したlaC (Infrastructure as Code) の経験
【BigQuery、Redshift、Snowflake などのクラウドデータウェアハウスの知識
■Apache Airflow、Kafka、Sparkなどのデータ処理ツールの利用経験
【クエリ最適化やインデックス設計などデータベースのチューニング経験
【データセキュリティやコンプライアンスなどデータガバナンスに関する知識
【アジャイル開発プロセスの経験
【求める人物像】
・必要なタスクやリスクについて主体的に検知し対応していただける方
・テクノロジーを駆使してプロダクトを実現させることに喜びを感じる方
・プロダクト志向が強い方
・クライアント志向の近い方
・事業やサービス、プロダクトに真摯に向き合うことが出来る方
・当社の考えやビジョンに共感できる方
・新しい技術を取り込み試していきたい方 - 雇用形態は
- 正社員
- どこで働くか
- 東京都
- 給与はどのくらい貰えるか
- 605~1500万円
NEW
掲載期間26/05/14~26/05/27
求人No.MYN-10609451





