"Building the foundation that delivers AI to the field." | "AIを、現場に届ける基盤をつくる。"
(Japanese version follows English)
About EARTHBRAIN
EARTHBRAIN develops and provides the Smart Construction® series, digitizing key construction site operations and transforming infrastructure development worldwide.
As of 2025, the solution has been deployed to approximately 10,000 sites domestically and internationally, establishing a top-class track record in construction ICT solutions.
Background
EARTHBRAIN is advancing R&D across multiple AI domains including LLMs, 3D vision, point cloud recognition, and Agentic AI, with a steadily growing portfolio of AI-powered products.
As the business scales, strengthening infrastructure, deployment pipelines, and operational design for agentic systems has become a key priority for delivering AI technologies to Smart Construction® more rapidly and reliably.
This role designs and builds the infrastructure to deliver models and engines produced by the AI team to Smart Construction® at production quality, establishing AI infrastructure best practices for EARTHBRAIN.
Responsibilities
- Design, build, and optimize ML model serving infrastructure on GPU environments
- Introduce and design operations for container orchestration (ECS / EKS / GKE / Cloud Run, etc.)
- Design and build CI/CD pipelines (model versioning, testing, deployment automation)
- Build and optimize agentic orchestration systems
- Build model monitoring and observability infrastructure (accuracy degradation detection, data drift monitoring)
- Design and execute multi-cloud strategies including AWS optimization and GCP adoption
- Establish deployment standards and best practices for AI product integration
- Collaborate with AI engineers and researchers, serving as a technical bridge to product development teams
Required Skills & Experience
- Experience designing and operating container orchestration (ECS / EKS / GKE / Cloud Run)
- 3+ years of AWS infrastructure experience (5+ years preferred)
- Experience deploying ML models or building inference infrastructure on GPU environments
- Experience designing and building CI/CD pipelines
- Deep understanding of Docker and container technologies
- Technical communication in English (CEFR C1 or above)
- Japanese communication ability (JLPT N3–N2 equivalent or above)
Note: CVs and interviews for this position will be conducted in English.
Preferred Skills & Experience
- GCP experience (multi-cloud environment design)
- Hands-on experience with MLOps tools (MLflow, Kubeflow, SageMaker, Vertex AI, etc.)
- Infrastructure management with IaC (Terraform / Pulumi, etc.)
- Experience building model monitoring / data drift detection systems
- Experience designing and implementing inference APIs (FastAPI / gRPC, etc.)
- Cost optimization experience (reserved instances, spot instances, GPU sharing, etc.)
- Experience building and operating agentic AI frameworks (LangGraph, CrewAI, etc.)
Ideal Candidate
- Motivated by delivering AI to production; passionate about bridging research and implementation
- Capable of designing and proposing best practices in greenfield environments
- Able to communicate effectively with both AI engineers and product engineers
- Positive and iterative in building infrastructure under uncertainty
Why This Role
Greenfield architecture
Design AI infrastructure from scratch without legacy constraints. You define the architecture and set the standards.
Frontline of Construction DX
Deliver AI to products used across 10,000 sites worldwide. Your infrastructure powers real-world impact at global scale.
Career growth
Expand from infrastructure into AI governance and strategy — just as SRE evolved into security and platform engineering.
Multinational team
English is the primary language within the AI team. A truly global engineering environment where your technical skills are amplified.
Tech Stack
Container / Orchestration
Docker, ECS, EKS, GKE, Cloud Run
CI/CD
GitHub Actions, ArgoCD, model versioning pipelines
Cloud
AWS (primary), GCP (multi-cloud)
ML Serving
GPU inference, TorchServe, Triton Inference Server
MLOps
MLflow, Kubeflow, SageMaker, Vertex AI
Monitoring
Prometheus, Grafana, data drift detection
IaC
Terraform, Pulumi
Inference API
FastAPI, gRPC
Agentic AI
LangGraph, CrewAI, orchestration frameworks
EARTHBRAINについて
株式会社EARTHBRAINは、建設現場の主要な作業をデジタル化する「Smart Construction®シリーズ」を開発・提供し、世界のインフラづくりを変革しています。
2025年時点で、国内外約1万件の現場に導入され、建設ICTソリューションとして国内トップクラスの実績を誇ります。
募集背景
EARTHBRAINでは、LLM・3Dビジョン・点群認識・Agentic AIなど、複数のAI技術領域で研究開発を進めており、AIプロダクトの実績も着実に積み上がっています。
事業成長に伴い、これらのAI技術をSmart Construction®により迅速かつ安定的に届けるための次のステージとして、インフラ基盤・デプロイパイプライン・エージェンティックシステムの運用設計の強化が重要テーマとなっています。
本ポジションは、AIチームが生み出すモデルやエンジンをプロダクション品質でSmart Construction®に届けるための基盤を設計・構築し、EARTHBRAINとしてのAIインフラのベストプラクティスを確立していく役割です。
業務内容
- GPU環境でのMLモデルサービング基盤の設計・構築・最適化
- コンテナオーケストレーション(ECS / EKS / GKE / Cloud Run等)の導入と運用設計
- CI/CDパイプラインの設計・構築(モデルのバージョン管理、テスト、デプロイ自動化)
- エージェンティック・オーケストレーションの構築・最適化
- モデルモニタリング・オブザーバビリティ基盤の構築(精度劣化検知、データドリフト監視)
- AWS環境の最適化およびGCP活用を含むマルチクラウド戦略の設計・実行
- AIプロダクト適用に関するデプロイ規約・ベストプラクティスの策定
- チーム内のAIエンジニア・リサーチャーと連携し、プロダクト開発チームとの技術的な橋渡しを担う
必須スキル・経験
- コンテナオーケストレーション(ECS / EKS / GKE / Cloud Runいずれか)の設計・運用経験
- AWSでのインフラ構築・運用経験(3年以上、5年以上歓迎)
- GPU環境でのMLモデルデプロイまたは推論基盤の構築経験
- CI/CDパイプラインの設計・構築経験
- Docker / コンテナ技術に関する深い理解
- 英語でのテクニカルコミュニケーション能力(CEFR C1以上)
- 日本語でのコミュニケーション能力(N3~N2相当以上)
※ 本ポジションの書類選考(CV)および面談・面接は英語で実施いたします。
歓迎スキル・経験
- GCPでの構築・運用経験(マルチクラウド環境の設計経験)
- MLOpsツール群(MLflow、Kubeflow、SageMaker、Vertex AI等)の実務経験
- IaC(Terraform / Pulumi等)によるインフラ管理経験
- モデルモニタリング / データドリフト検知基盤の構築経験
- FastAPI / gRPCなど推論APIの設計・実装経験
- コスト最適化(リザーブドインスタンス、スポットインスタンス、GPU共有等)の経験
- エージェンティックAIフレームワーク(LangGraph、CrewAI等)の構築・運用経験
求める人物像
- 「AIをプロダクトに届ける」ことに価値を感じ、研究と実装の橋渡しに意欲がある方
- 既存の仕組みがない環境で、自らベストプラクティスを設計・提案できる方
- AIエンジニアとプロダクトエンジニア、双方と対等にコミュニケーションできる方
- 不確実な状況でも前向きに取り組み、段階的に基盤を整えていける方
このポジションの魅力
ゼロからのアーキテクチャ設計
レガシー制約なく、AIインフラの設計思想を自ら描ける
建設DXの最前線
世界1万件の現場に使われるプロダクトにAIを届ける当事者になれる
キャリアの成長余地
SREがセキュリティ・ガバナンスへ進化したように、AIインフラの規約・戦略策定へとキャリアを拡張できるポジション
多国籍チームでの協働
AIチーム内は英語メイン。グローバルな環境で技術力を発揮できる
技術スタック
コンテナ / オーケストレーション
Docker, ECS, EKS, GKE, Cloud Run
CI/CD
GitHub Actions, ArgoCD, モデルバージョニングパイプライン
クラウド
AWS(プライマリ), GCP(マルチクラウド)
MLサービング
GPU推論, TorchServe, Triton Inference Server
MLOps
MLflow, Kubeflow, SageMaker, Vertex AI
モニタリング
Prometheus, Grafana, データドリフト検知
IaC
Terraform, Pulumi
推論API
FastAPI, gRPC
エージェンティックAI
LangGraph, CrewAI, オーケストレーションフレームワーク
| 職種 / 募集ポジション | AI Infrastructure Engineer|AIインフラ基盤 |
|---|---|
| 雇用形態 | 正社員 |
| 給与 |
|
| 勤務地 | 【最寄駅】 ・南北線「六本木一丁目」駅直結 ・日比谷線「神谷町」駅 4b出口より徒歩7分 ・銀座線・南北線「溜池山王」駅 13番出口より徒歩7分 ・日比谷線・都営大江戸線「六本木」駅 5番出口より徒歩9分 【喫煙環境】屋内全面禁煙 【転勤】当面無し ※当社は出社とリモートのハイブリッド勤務となっており、原則週2日は出社していただく必要がございます。 |
| 勤務時間 | 裁量労働制 ※裁量労働制(企画業務型/専門業務型)により、 出退勤の時間は自由であり、10時間働いたものとみなされます。 |
| 休日・休暇 | 年間休日日数:128日 完全週休2日制(土日)、祝日、有給休暇、年末年始休暇、夏期休暇他 |
| 諸手当・ 福利厚生 | 健康保険、雇用保険、労災保険、厚生年金 通勤手当(会社規定に基づき支給)、時間外手当 当社では生成AIを積極的に活用し、開発生産性の向上を目指しています。 「2025~2030年の間に、売上高およびエンジニア数に基づく生産性を3倍にする」という目標のもと、GitHub Copilot、Cursor、Cline、Devin、DifyなどのAIツールを、コードの自動補完・生成から日常業務の効率化まで、さまざまな業務に利用しています。 なお、GitHub Copilotは原則全社員にライセンスを付与しており、Cline、Devin、Difyについては有志による検証を進めています。 |
| 試用期間 | 有 2ヶ月 (試用期間中の勤務条件:変更無) |
| その他 | 人事制度改訂中のため、諸制度は変更・追加の可能性がございます。 |
| 会社名 | 株式会社EARTHBRAIN |
|---|---|
| 商号 | 株式会社EARTHBRAIN(英名:EARTHBRAIN Ltd.) |
| 所在地 | 〒106-6029 東京都港区六本木一丁目6番1号 泉ガーデンタワー 29階 |
| 代表者 | 代表取締役会長 四家 千佳史 代表取締役社長 小野寺 昭則 |
| 設立日 | 2021年7月1日 |
| 資本金等 | 368.7億円(資本準備金含む) |
| 事業内容 | 建設業向けデジタルソリューション(現場可視化デバイス、プラットフォーム、アプリケーション)の開発、提供、保守など |
| 従業員数 | 約200名 |