Les missions du poste

Les missions

- Participer à l'ensemble du cycle de développement, y compris l'analyse des besoins, la conception, le développement, le déploiement et le support opérationnel
- Concevoir, développer et maintenir des pipelines ETL/ELT performants
- Orchestration de Workflows Avancée
- Mettre en place et maintenir des environnements DataOps (CI/CD, tests, monitoring)
- Collaborer avec les Data Scientists, Data Analysts et les équipes métiers
- Garantir la qualité, l'intégrité et la sécurité des données
- Participer à l'élaboration des tableaux de bords

Stack technique

- Cloud : Google Cloud Platform (GCP), BigQuery
- Data Engineering : Dataflow / Apache, dbt, Airflow
- Langages : Python, SQL
- DevOps : Git, CI/CD, Terraform
- ETL / ELT
- Compétences IA appréciées

- Expérience confirmée en data engineering (3 ans minimum)
- Très bonne maîtrise de BigQuery et de l'écosystème GCP
- Solide expérience sur les pipelines de données, ETL/ELT
- Maîtrise de Python et SQL avancé
- Sens de l'organisation, rigueur, esprit d'équipe
- Anglais technique

Les +

- Connaissance de dbt, Airflow
- Certification GCP appréciée
- Outil IA

Service, innovation, transparence, ASITIX propose à ses clients les compétences de ses consultants multi spécialisés dans l'ingénierie informatique.

Vous cherchez une entreprise dynamique, innovante, humaine et en pleine croissance ?

Une société à l'écoute, sensible à vos envies d évolutions, transparente, réactive et reconnue par ses clients ?

Alors rejoignez-nous !

Compétences requises

  • Python
Postuler sur le site du recruteur

Ces offres pourraient aussi vous correspondre.

Data Engineer H/F

  • Lille - 59
  • CDI
  • Societe pour L'informatique Industrielle
Publié le 6 Mai 2026
Je postule

L’emploi par métier dans le domaine Data et IA à Lille