- なぜ募集しているのか
- 増員
- どんな仕事か
-
オリックスグループで、次世代AIインフラをゼロから創り上げる【職務概要】
生成AI開発ニーズの急増に伴う新規事業として、GPUクラウド基盤およびAIデータセンターの企画・設計・構築・運用をリードしていただきます。
【職務詳細】
■誰に:
AI開発を行う企業や研究機関に対し、計算資源をクラウド経由で提供するサービスを構築します。
■何を:
NVIDIA社のGPUや新興AI半導体を含む「GPUクラウド基盤」および、早期立ち上げを可能にする「モジュール型AIデータセンター」の基盤そのものを開発・提供します。
■どのように:
外部のSIerやMSP、データセンター事業者等のパートナー企業を技術的にコントロールしながら、以下の業務を推進します。
・GPUクラウド基盤(GPUノード、IB/RoCEネットワーク等)のアーキテクチャ設計
・Kubernetes/Slurm等を用いた実行基盤・オーケストレーションの設計・実装
・課金モデル(利用時間、VRAM課金等)の仕様策定および顧客ポータルの設計
・サービス全体のSLO/SLI設計、監視体制(Prometheus/Grafana等)の構築
・外部パートナーとの技術折衝、スケジュール・品質・コスト管理
【仕事の魅力】
これまでの物理機器提供(ハード)の強みを活かし、計算資源の提供(サービス)へと進化させる0→1フェーズです。企画段階から携わり、インフラのスキーム構築から安定運用まで一貫して主導できる裁量があります。
【業務内容変更の範囲】
同社業務全般 - 求められるスキルは
-
必須 【必須】
・GPUサーバもしくはAI/HPCクラスタの構築、運用経験
・Linux(RHEL、Ubuntuなど)の実務経験
・Kubernetesの運用経験
・ネットワークの基礎知識(L2/L3、VLAN、BGP/EVPN)
・IaC(Terraform、Ansibleなど)の利用経験
・協力ベンダーや外注の技術コントロール経験
【尚可】
・NVIDIA製GPU(NVLink、MIG、NCCL、DGX等)への理解
・Kubernetes+GPU Operator、Slurm、Kubeflowの運用経験
・分散学習基盤(PyTorch/DeepSpeed)の運用経験
・SRE文化(監視、可観測性、信頼性向上)の経験
・データセンター側の基礎知識(ラック、電源、IBネットワークなど)歓迎 ※活かせる経験については上記「応募資格」欄に併記しております - 雇用形態は
- 雇用形態:正社員
契約期間:無期
試用期間:有(3ヶ月) - どこで働くか
- 〒141-0001 東京都品川区北品川五丁目5番15号 大崎ブライトコア
JR各線「大崎」駅より徒歩6分
勤務地変更の範囲:転勤は当面なしだが総合職の為、将来的な全国転勤の可能性あり。 - 勤務時間は
- 9時00分~17時00分
- 給与はどのくらい貰えるか
-
年収:700万~1200万程度
月給制:月額583333円
給与:※上限の金額には平均的な月30時間相当の時間外手当を含んでいます
賞与:年2回
昇給:年1回 - 待遇・福利厚生は
-
交通費全額支給、住宅制度(対象者のみ)、ベビーシッター助成制度、持株会、スポーツクラブ優待、各種クラブ活動、慶弔金、同社グループ直営保養所(軽井沢、京都嵐山、賢島)
喫煙情報:屋内禁煙 - 休日休暇は
- 完全週休2日制(土日祝)、年次有給休暇、年末年始休暇、慶弔休暇、公職休暇、産前産後休暇、育児休暇、ボランティア休暇、積立保存休暇、生理休暇、看護休暇、リフレッシュ休暇取得推進など
- どんな選考プロセスか
-
書類選考→面接(2~3回)→内定 ※一次面接の同日に適性検査を受けて頂きます
※状況により変更になる場合あり
NEW
掲載期間26/02/06~26/02/19
求人No.WPT-408120780





