Missions clés
Développer et maintenir des outils Python pour automatiser le traitement et l'analyse des données de test en R&D · Mettre en œuvre des modèles scientifiques/mathématiques pour convertir les mesures brutes en propriétés physico-chimiques et en indicateurs clés de performance (KPI) · Améliorer la qualité du code : refactorisation, packaging, documentation et tests unitaires/d'intégration · Contribuer aux pratiques DevOps · Soutenir le développement d'outils Python autour de notre base de données sur les matériaux.
Profil recherché
Bac +5 (Master 2, Diplôme d'ingénieur) · 0-1 ans d'expérience · Esprit d'équipe · Adaptabilité · Volonté d'apprendre
Outils & compétences
Python, Docker, Databricks, Spark
Nous recherchons un.e futur.e stagiaire Data Analyst pour rejoindre notre équipe Data Science R&D basée au sein de notre centre d'innovation (VIC) à Grenoble, au plus vite pour une durée de 4 à 6 mois.\n
Missions principales:
- Développer et maintenir des outils Python pour automatiser le traitement et l'analyse des données de test en R&D
- Mettre en œuvre des modèles scientifiques/mathématiques pour convertir les mesures brutes en propriétés physico-chimiques et en indicateurs clés de performance (KPI)
- Améliorer la qualité du code : refactorisation, packaging, documentation et tests unitaires/d'intégration
- Contribuer aux pratiques DevOps
- Soutenir le développement d'outils Python autour de notre base de données sur les matériaux (ingestion de données, validation, API, etc.)
Prérequis:
- Vous préparez un diplôme de niveau bac+5 en data science, génie logiciel, calcul scientifique ou dans un domaine similaire
- Une maîtrise avancée de l'anglais (écrit et parlé) est indispensable (managers anglophones)
- Aisance dans l'écriture de code Python propre et volonté d'apprendre les bonnes pratiques (tests, documentation)
- Intérêt pour les pipelines de données et la reproductibilité (esprit DevOps)
- Connaissances/intérêt pour la physique & chimie appliquée, les données expérimentales, les capteurs ou les matériaux
- Ouverture à des thèmes multidisciplinaires variés et à un environnement de travail dynamique
- Des connaissances Docker, Databricks et/ou Spark, ou des notions de base en ingénierie des données est un plus
\n