Data OPS

Rattaché à l’équipe Ops; vous serez en charge de travailler sur les projets existants et les projets à venir

 

Missions

  • Comprendre les problématiques des équipes Data et les accompagner dans la réussite de leurs objectifs

  • Faire le lien entre l’environnement du datalab et l’environnement de déploiement de modèle grâce à des pipelines sophistiqués

  • Être référent et garant sur les best practices de développement des langages utilisés par l’équipe

  • Accompagner les Data-Scientists dans l’optimisation de leurs algorithmes

  • S’assurer de la viabilité des solutions de datamining et de machine-learning de l’équipe Data et les porter en production tout en garantissant une pérennité de leur maintien en condition opérationnelle

  • Construire et optimiser des pipelines data complexes (ETL et ELT)

  • Coordonner le développement et les opérations grâce à l’automatisation du workflow, la création de services web prédictifs, et la surveillance du statut des données et des modèles au quotidien

  • Déployer ces modèles en utilisant les dernières techniques et pratiques (API REST, Docker, Tensorflow Serving, etc.

  • Analyser et résoudre les anomalies liées à la performance et la scalabilité de nos solutions Cloud BI et Big Data

 

Profil recherché

2 types de profil :

    • Un profil Data Engineering (Scala/Java avec Apache Spark) avec une expérience significative en contexte Devops

    • Ou un profil Devops qui a travaillé en contexte Big Data

 

Compétences techniques

  • Intégration continue : Jenkins, Gitlab CI

  • Connaissances de Docker

  • Outils Infrastructure as Code: Terraform, Ansible

  • Aisance avec Git

  • Clouds publics (AWS, Google Cloud, Microsoft Azure)

  • Connaissances avec Kubernetes

  • Process Agiles

  • Anglais technique

Expérience dans le poste
4 – 5 ans d’expérience

Localisation du poste
Lyon 05 – 69

Zone de déplacement
Pas de déplacement

      CV