募集組織
デジタルサービスモデル開発・ハブ
AI検索開発室 AI検索開発チーム ベクトル検索G展開セクション
<AI検索開発チームの組織構成>
全体11名(ディレクター2名、リーダー2名、メンバー7名)
<チームの年齢構成>
ディレクター、リーダー:30代~40代
メンバー:30代前半が中心。20代~30代まで在籍
①事業部/室ミッション
私たちはECサイトを運営する当社において「部品調達における顧客の 思考にかける時間 の短縮」に向けて活動しています。IA産業(Industrial Automation産業)における部品調達のデファクトスタンダードとなるためのコア機能の一つとして検索サービスを位置づけ、自社内製開発しています。
「デジタルサービスモデル開発・ハブ(TX)」の一員として、顧客・サプライヤーの「あらゆるムダの排除」によりIA産業の非効率解消に貢献していきます。
②チームミッション
チーム全体のミッションは「検索プラットフォームの進化・全体最適化」です。
現在、各国のECサイトへサービスを展開するフェーズにあり、国ごとに異なるデータ構造やインフラ事情を吸収し、かつ急増するアクセスに耐えうる「業界初のグローバル検索基盤」の構築が進んでいます。
メンバークラスの皆様には、AIモデルや検索エンジンに供給される 「データの品質」を徹底的に守り抜き、システムが常に正しいデータを学習・推論できる状態を維持・実装 していただきます。
③自組織の強み・事業責任者からのコメント等
私たちのチームは、サービス企画からシステム実装、AI運用までを一気通貫で担っています。
どれほど優れたAIモデルも、学習するデータが汚れていれば性能を発揮できません。「Garbage In, Garbage Out(ゴミが入ればゴミが出る)」を防ぎ、AI検索の精度を根底から支えるのがあなたの役割です。
3000万点の商品データと膨大な検索ログを扱う中で、泥臭いデータの不整合と向き合い、それを技術の力で解決していく――。地味ですが、サービスの信頼性を左右する極めて重要なポジションです。
仕事情報
①担当業務内容
AI検索サービス向けデータ基盤において、データの品質保証(Data Quality)、およびETLパイプラインの実装・運用を担当します。
1.データ品質管理(Data Quality)の実装と監視:40%
AIモデルが常に「正しいデータ」を利用できるよう、データの品質を監視・維持する仕組みを実装します。
- データテストの実装: Dataformやdbt等を用い、データの欠損・重複・異常値を検知するテストコード(Assertion)の作成と実装。
- モニタリング環境の整備: データの鮮度や品質低下を検知した際、即座にSlack等へ通知し、原因を特定できるダッシュボードや監視フローの構築。
- データリネージの管理: データの発生源から利用箇所までの流れ(リネージ)を整理し、メタデータ管理ツールへの登録・更新を行い、トレーサビリティを確保する。
2.データパイプライン(ETL/ELT)の開発・改善:40%
設計されたアーキテクチャに基づき、実際のデータ処理フローを開発します。
- ETL処理の実装: PythonやSQLを用いて、ログデータや商品データを収集・加工する処理のコーディング。
- ワークフローの移行・自動化: 手動で行われている既存のデータ処理を、Workflow Engine(Airflow/Vertex AI Pipelines)上での自動実行ジョブへと書き換える。
- パフォーマンスチューニング: クエリの最適化を行い、データ処理時間の短縮やコスト削減(BigQueryのコスト管理等)を行う。
3.データサイエンティストとの連携・サポート:20%
- データサイエンティストからの「こんな特徴量が欲しい」「データがおかしい」といった要望・問い合わせに対し、SQLを用いた調査やデータ抽出、マート作成を行う。
②仕事のやりがい(面白さ)
- AIの精度向上に直結: 自身が整備・クレンジングしたデータによって、検索精度やレコメンドの質が向上する様子をダイレクトに感じられます。
- モダンな技術スタックでの経験: GCP (BigQuery, Vertex AI) や Dataform といったモダンなデータ基盤技術を使用し、大規模データ処理(Big Data)の実務スキルを高められます。
- 「データ品質」という専門性: 昨今注目されている「データ信頼性(Data Reliability)」や「データオブザーバビリティ」の領域で経験を積むことができます。
③3~5年後の想定されるキャリアパス
- データ品質とETL開発のプロフェッショナルである「シニアデータエンジニア」
- データ基盤全体の設計を担う「データアーキテクト」
- 機械学習の運用基盤構築へ幅を広げ「MLOpsエンジニア」
④業務上の課題
データの種類や量が増えるにつれ、「データの欠損」や「予期せぬフォーマット変更」によるエラーが散発しています。現在は手動での調査や修正対応に追われることも多く、システム的な自動検知(テスト)の網羅率を上げ、運用の安定化を図ることが急務です。
⑤使用ツール
- クラウド・インフラ : Google Cloud Platform (GCP) 主体
- データウェアハウス・加工 : BigQuery, Dataform, Redshift
- ワークフロー・ML : Vertex AI, Airflow
- 言語 : SQL, Python
- IaC・CI/CD : Terraform, GitHub Actions
- コミュニケーション : MS Teams, GitHub Issues
⑥その他
リモートワークと出社のハイブリッド勤務、フリーアドレス制など、柔軟で働きやすい環境です。
募集条件
①必須要件 いずれもの条件を満たす方
- SQLを用いたデータ抽出・集計・加工作業の実務経験(目安:1年以上 / 複雑なJOINやウィンドウ関数が書けるレベル)
- Python等のスクリプト言語を用いた開発経験
- 何らかのDB(RDBまたはDWH)におけるテーブル設計やデータ管理の基礎知識
- データの不整合やエラーに対し、根気強く原因を調査し解決した経験
②歓迎要件
<経験>
- GCP (BigQuery) または AWS (Redshift, Athena) でのデータ処理経験
- Dataform, dbt 等のELTツールを用いたデータモデリング・テスト実装経験
- Airflow 等のワークフローエンジンを用いたジョブ管理の経験
- Git / GitHub を用いたチーム開発経験
<知識・スキル>
- データ品質(Data Quality)に関する関心・知識
- Webサービスのログ設計やデータ収集に関する知識
③求める人物像
- 「正確さ」に拘れる方: 1つのデータミスがAIの挙動を変えてしまうことを理解し、細部まで確認を怠らない方
- 改善マインドを持つ方: 同じエラーや手作業が繰り返されることを嫌い、「次はどう自動化するか」「どう検知するか」を主体的に考えられる方
- コミュニケーション力: データサイエンティストやリーダーと連携し、仕様の確認やアラート報告をスムーズに行える方
④学歴
大学院卒、大学卒、高専卒、専門卒以上
| 職種 / 募集ポジション | TX-25-06-50-M(2/4公開) |
|---|---|
| 雇用形態 | 正社員 |
| 契約期間 | 期間の定め:無 試用期間:有(試用期間:原則3ヶ月) ※試用期間中の待遇変更はありません |
| 給与 |
|
| 勤務地 | <東京本社> |
| 勤務時間 | 9:00~17:30(標準7時間30分) ※フレックスタイム制あり/コアタイム11:00~15:00 |
| 休日 | 年間休日124日 ・完全週休2日制(土日)/祝日/年末年始(12/29~1/4) ※ただし、業務の都合で休日を他の日に振替えることがある |
| 福利厚生 | ・有給(初年度:即日付与。日数は入社日によって変動。次年度以降:4月に付与。) ・慶弔休暇/特別休暇 ・交通費※会社規定に基づき支給 ・退職金制度(正社員のみ) ・確定拠出年金制度 ・社会保険完備(健康保険・厚生年金保険・労災保険・雇用保険) ・社内研修制度 ・社内英会話レッスン(本社ビルのみ) ・保養所(ラフォーレ倶楽部) ・テーマパークチケット優待 |
| 受動喫煙対策 | 屋内原則禁煙(喫煙専用室あり) |
| 働き方 | ①勤務制度区分 <フレックスタイム制> ②リモートワーク勤務 <リモート可> ③出社頻度 週3日 ④土日祝出勤 ・有無<無し> ⑤出張情報(有無/場所/頻度) ・有無<無し> ⑥兼業に関して ・原則不可 |
| 業務内容の変更範囲 | 会社の定める業務 |
| 勤務場所の変更範囲 | 会社の定める場所 |
| 会社名 | 株式会社ミスミグループ本社 |
|---|---|
| 雇用主 | 株式会社ミスミ |
| 所在地 | 東京都千代田区九段南1丁目6番5号九段会館テラス |
| 売上高(連結) | 401,987百万円(2025年3月期) |
| 従業員数(連結) | 11,064名(2025年3月31日時点) |
| 上場証券取引所 | プライム市場 |