SA
Data Engineer H/F
SAS Le Télégramme
Publiée le
14/04/2026
Contrat
CDI
Localisation
Morlaix
Taille équipe
—
Rémunération
35 000 € - 45 000 €
Missions clés
Concevoir, développer et maintenir des pipelines de données robustes (ETL/ELT). · Modéliser l'entrepôt de données (Data Warehouse) pour garantir son exploitabilité. · Garantir l'intégrité des données par la mise en place de tests automatisés. · Collaborer avec les équipes applicatives pour comprendre les sources de données. · Traduire les besoins analytiques en spécifications techniques.
Profil recherché
Bac +5 (Master 2, Diplôme d'ingénieur) · Communication · Gestion de projet
Outils & compétences
Apache Hop, Nifi, AWS Glue, Spark, SQL avancé, modélisation en étoile, S3, Lambda, Redshift, Athena, Python
Le poste en détail
source:recrutement.groupe-telegramme.fr
Le groupe Télégramme, qui sommes-nous ? Monter à bord du groupe Télégramme, c’est prendre part à une grande aventure de plus de 80 ans ! Avec plus de 1 200 collaborateurs, le groupe Télégramme est aujourd’hui organisé autour de trois branches d’activités : Médias et Communication, Emploi, Recrutement & Formation, Sport & Culture. Dans le cadre d’une création de poste, nous recherchons un(e) Data Engineer expérimenté(e) au sein d’une équipe composée de 11 personnes. Vos missions : Vous êtes le garant de la "colonne vertébrale" de nos données. Votre rôle est de transformer les données brutes de nos applications en informations exploitables et fiables pour nos Data Scientists et nos Analystes. 1/ Gestion des Pipelines et Ingestion (Flux) * Concevoir, développer et maintenir des pipelines de données robustes (ETL/ELT) pour collecter la donnée depuis les sources applicatives hétérogènes. * Assurer l'orchestration et la supervision des flux pour garantir la disponibilité de la donnée. * Automatiser l'ingestion pour réduire les interventions manuelles et fiabiliser les traitements. 2/ Structuration du Datawarehouse & Exploitabilité * Modéliser l'entrepôt de données (Data Warehouse) pour garantir son exploitabilité par les métiers (modélisation dimensionnelle, Data Vault, etc.). * Préparer et transformer les données pour les rendre "consommables" par les équipes Data Science (création de datasets propres, feature engineering). * Optimiser les performances de stockage et de requêtage. 3/ Gouvernance et Qualité * Garantir l'intégrité des données (Data Quality) par la mise en place de tests automatisés. * Documenter les flux et maintenir le dictionnaire de données à jour. * Gérer le cycle de vie de la donnée (rétention, archivage) conformément au RGPD. 4/ Suivi des projets et Collaboration Technique * Collaboration avec les équipes applicatives : Intervenir en amont avec les développeurs pour comprendre les sources de données et garantir que les nouvelles fonctionnalités génèrent des données exploitables ("Quality by Design"). * Analyse et Spécifications : Traduire les besoins analytiques (venant des Data Scientists ou du métier) en spécifications techniques pour l'architecture de données. * Support technique : Être le référent technique sur la donnée pour les équipes Études et Développement.
Le groupe Télégramme, qui sommes-nous ? Monter à bord du groupe Télégramme, c’est prendre part à une grande aventure de plus de 80 ans ! Avec plus de 1 200 collaborateurs, le groupe Télégramme est aujourd’hui organisé autour de trois branches d’activités : Médias et Communication, Emploi, Recrutement & Formation, Sport & Culture. Dans le cadre d’une création de poste, nous recherchons un(e) Data Engineer expérimenté(e) au sein d’une équipe composée de 11 personnes. Vos missions : Vous êtes le garant de la "colonne vertébrale" de nos données. Votre rôle est de transformer les données brutes de nos applications en informations exploitables et fiables pour nos Data Scientists et nos Analystes. 1/ Gestion des Pipelines et Ingestion (Flux) * Concevoir, développer et maintenir des pipelines de données robustes (ETL/ELT) pour collecter la donnée depuis les sources applicatives hétérogènes. * Assurer l'orchestration et la supervision des flux pour garantir la disponibilité de la donnée. * Automatiser l'ingestion pour réduire les interventions manuelles et fiabiliser les traitements. 2/ Structuration du Datawarehouse & Exploitabilité * Modéliser l'entrepôt de données (Data Warehouse) pour garantir son exploitabilité par les métiers (modélisation dimensionnelle, Data Vault, etc.). * Préparer et transformer les données pour les rendre "consommables" par les équipes Data Science (création de datasets propres, feature engineering). * Optimiser les performances de stockage et de requêtage. 3/ Gouvernance et Qualité * Garantir l'intégrité des données (Data Quality) par la mise en place de tests automatisés. * Documenter les flux et maintenir le dictionnaire de données à jour. * Gérer le cycle de vie de la donnée (rétention, archivage) conformément au RGPD. 4/ Suivi des projets et Collaboration Technique * Collaboration avec les équipes applicatives : Intervenir en amont avec les développeurs pour comprendre les sources de données et garantir que les nouvelles fonctionnalités génèrent des données exploitables ("Quality by Design"). * Analyse et Spécifications : Traduire les besoins analytiques (venant des Data Scientists ou du métier) en spécifications techniques pour l'architecture de données. * Support technique : Être le référent technique sur la donnée pour les équipes Études et Développement.
publication_date:2026-02-13T09:29:22.000Z
contract_type:CDI