Data Engineer

TEKsystems recherche pour l'un de ses clients grands compte un data engineer: MISSION PRINCIPALE Dans le cadre de notre développement de la plateforme de données, le data engineer aura pour mission de contribuer à son évolution, de veiller à la qualité des données et d'assurer un cycle de vie efficace des données, de leur production à leur utilisation optimale. Membre de l'équipe CIO, le data engineer travaillera en étroite collaboration avec les différentes équipes de l'entreprise, notamment l’équipe BI. De plus, il.elle sera chargée d'accompagner les producteurs de données dans l'intégration de nouvelles sources de données. ACTIVITÉS PRINCIPALES Intégration et transformation des données avec DBT Mise en place de tests sur les données Ingestion de données avec notre API (python) sur Kafka Déploiements avec Ansible et/ou Terraform en fonction des besoins Mise en place d’alertes et/ou de monitoring Participer aux routines de l’équipe (weekly, sprint planning, daily standup meeting) Participer activement à l’évolution des stacks data et métriques de l'entreprise, de concert avec les différentes PU de l’entreprise Travailler à la refonte de la plateforme de remontée de métriques
Data Engineer

Missions principales : En tant que Data Engineer GCP, vous serez responsable de la conception, de la mise en œuvre et de la maintenance de pipelines de données sur l’écosystème Google Cloud. Vous garantirez la qualité, la fiabilité et la scalabilité des traitements de données pour les besoins analytiques, IA ou BI. Vos responsabilités : • Construire et maintenir des pipelines de données sur GCP (batch & streaming). • Développer des workflows avec Dataflow (Apache Beam), Cloud Composer (Airflow), et orchestrer les traitements. • Concevoir des modèles de données dans BigQuery et optimiser les requêtes. • Ingestion de données via Pub/Sub, Cloud Storage, Data Transfer Service. • Participer à la mise en place d’une gouvernance data (Data Catalog, IAM, sécurité). • Assurer la qualité, le monitoring et le versioning des pipelines de données. • Travailler avec les équipes produit, data science et BI pour livrer des datasets fiables. Stack & compétences attendues : • GCP Core : BigQuery, Dataflow, Pub/Sub, Cloud Storage, Composer (Airflow), Dataform (ou DBT sur GCP), Vertex AI (bonus). • Langages : Python, SQL, éventuellement Java/Scala pour Apache Beam. • Orchestration / ETL : Airflow (Cloud Composer), DBT, Dataform. • Infrastructure as Code : Terraform (fortement recommandé), Deployment Manager. • Monitoring / Qualité : Stackdriver, Great Expectations, Dataform tests. • Sécurité : IAM, DLP, gestion des accès fine.
Data Engineer Big Data

Vos missions : Participer à la définition de l’architecture Data en collaboration avec les architectes et la squad. Concevoir, affiner et développer des solutions de collecte et de stockage des données issues de multiples sources, pour les rendre accessibles aux métiers. Mettre en œuvre des tests unitaires et automatisés. Assurer le déploiement des produits dans les différents environnements. Garantir le bon fonctionnement en production : suivi, assistance, gestion des incidents. Contribuer à l’amélioration continue des pratiques de l’équipe, notamment la qualité du code. Apporter expertise et force de proposition au sein du chapitre technique. (En option) Contribuer à des activités BI dans un environnement Teradata. ⚠️ Point d’attention : présence obligatoire d’au moins 3 jours par semaine sur site.
Data Engineer

Nous recherchons un(e) Data Engineer pour intervenir au sein de l’équipe data d’un grand acteur de la distribution, dans le cadre d’un projet stratégique de refonte de la couche sémantique. Ce chantier vise à développer une interface entre les sources de données et les usages métiers, afin de permettre l’accès à des milliers d’indicateurs par les différentes équipes opérationnelles. La mission s’inscrit dans un contexte de transformation data à grande échelle, reposant sur une architecture moderne facilitant la réutilisation des datamarts pour divers produits analytiques : dashboards, algorithmes, reportings, etc. Missions principales : ● Montée en compétence sur la solution de couche sémantique ● Redéveloppement de la couche sémantique de Carrefour. ● Optimisation des performances et coûts GCP ● Documentation complète de la couche sémantique. ● Garantie de la continuité des usages de consommation existants, et résolution de tickets en cas de downtime (Support à l’activité day to day des consommateurs).
Data Engineer Powercenter

Nous recherchons un·e Data Engineer Powercenter confirmé·e pour rejoindre notre équipe et travailler sur une mission chez un client anonyme basé à Genève. Le candidat sélectionné sera chargé de concevoir, réaliser et déployer des solutions décisionnelles en utilisant des outils standards du secteur. La mission débutera le 4 août 2025 avec un taux d'activité de 100%. Activités principales : o Chiffrer, concevoir, réaliser et maintenir les traitements d'intégration des données sur la plateforme ETL pour garantir des résultats conformes aux exigences de qualité, performance, délai et sécurité. o Concevoir et implémenter de nouveaux entrepôts de données (infocentre, datawarehouse) et maintenir les modèles de données décisionnelles en service. o Participer à la gestion des incidents, des changements et des déploiements. o Comprendre et accompagner les demandeurs pour une mise à disposition des données répondant au mieux à leurs besoins. Compétences indispensables (3-6 années d'expérience et plus) : o Maîtrise de la conception de pipelines de données et de la modélisation d'entrepôts de données. o Maîtrise du langage SQL (Oracle, PostgreSQL, SQL Server) et autres techniques de manipulation et d'interrogation de données. o Maîtrise du cycle de développement et des réalisations avec Informatica PowerCenter 10.5, incluant les paramètres d'optimisation des performances. o Bonnes expériences dans la conduite d'analyse et études d'impact des pipelines de données en service. o Expériences dans les procédures d'installation, de mises à niveau et de connexions aux différents types de sources de données.
Data Engineer
Ton quotidien : ⭐ Être garant de l'accès qualitatif aux données 📈, ⭐ Analyser les besoins des utilisateurs et proposer des solutions innovantes et en phase avec les drivers de l'entreprises, ⭐ Réaliser la publication des données dans le Cloud, ⭐ Participer à la construction des modèles de données à mettre en œuvre (Alimentation, stockage, modélisation, restitution), ⭐Validera la qualité des développements de son équipe, ⭐ Définir la politique de la donnée et de son cycle de vie 🧬. 🏅 𝐓𝐞𝐬 𝐚𝐭𝐨𝐮𝐭𝐬 𝐩𝐨𝐮𝐫 𝐫𝐞́𝐮𝐬𝐬𝐢𝐫 Être force de proposition sur d’éventuelles innovations Capacité à travailler en interdépendance avec d’autres équipes Volonté d’évoluer dans un environnement agile et dynamique
Data Engineer Snowflake

En quelques mots Cherry Pick est à la recherche d'un "Data Engineer" pour un client dans le secteur de l'industrie musicale Description 🔍 Contexte Dans le cadre de l’extension de sa Data Platform à l’échelle du groupe (filiales incluses), le groupe renforce son équipe Data Office. Rattaché à l’Engineering Manager Data Platform, vous interviendrez sur un projet de scalabilité et d’industrialisation de la plateforme data. 🛠️ Missions Concevoir et implémenter des pipelines de données (batch et streaming) Optimiser les flux et traitements de données Développer et maintenir une architecture Data robuste et scalable Industrialiser les traitements et automatiser les déploiements (CI/CD) Garantir la fiabilité, la performance et la résilience de la Data Platform Suivre et optimiser les KPIs (performance, coût, monitoring) Participer à la veille technologique et à l’amélioration continue
Data Engineer F/H

Nous recherchons un Data Engineer expérimenté pour intervenir sur un environnement orienté Stambia et Snowflake, dans le cadre de projets de transformation data ambitieux. Vous intégrerez une équipe dynamique en charge de l’industrialisation, l’optimisation et la migration de flux de données vers Snowflake, avec une forte composante d’intégration via Stambia. Les missions sont les suivantes : Développer et maintenir des flux d'intégration avec Stambia DI Concevoir et optimiser les traitements sur la plateforme Snowflake Participer à la migration et modernisation de l’environnement data Collaborer avec les équipes BI, data science et infrastructure Documenter les flux et garantir la qualité des données
Tech Lead Data Engineer

Nous recherchons un(e) Tech Lead Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée • Assurer l'industrialisation, la supervision et l'intégration des solutions • Rédiger les normes de développement • Participer à la rédaction du manuel d'exploitation • En tant que Tech Lead, vous savez vous présenter et promouvoir des architectures data face au client. Vous savez identifier et comprendre les besoins métiers. • Vous savez identifier et comprendre les besoins métiers. • Vous formez, encadrez et faites évoluer les consultants juniors • Vous participez à la réponse aux appels d'offres (avant-vente) Référence de l'offre : g3okq4hi55
Data engineer (F/H)

A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 📑 CDI (38-43K€) OU Freelance OU Portage salarial - 🏠 1 jour de télétravail / semaine - 📍 Dijon - 🛠 Expérience de 2 ans minimum Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Data engineer pour intervenir chez un de nos clients. 💻💼 Le contexte de la mission : Notre client, acteur majeur du secteur assurance, veut améliorer la qualité de ses données décisionnelles. Pourquoi ? Parce que derrière chaque mauvaise donnée, il y a une décision faussée. Et dans l’assurance, ça ne pardonne pas. Vous interviendrez dans une équipe soudée et bienveillante, qui bosse main dans la main avec les actuaires et les Data Scientists pour rendre les données plus fiables, mieux contrôlées et activables plus rapidement. Ce que vous allez faire concrètement 🎯 : - Construire des pipelines ELT robustes : ingestion, transformation, qualité, performance - Modéliser la donnée : comprendre les besoins métiers pour rendre la donnée exploitable (pas juste jolie) - Documenter vos réalisations : vos livrables ne seront pas des boîtes noires. Vous écrirez pour être compris - Créer et industrialiser des contrôles de données : qu’ils soient internes ou réglementaires, pour aider les autres équipes à se reposer sur une donnée fiable
Data Engineer MS Fabric

En quelques mots Cherry Pick est à la recherche d'un "Data Engineer" pour un client dans le secteur de l'Aérospaciale Description Contexte : L’ingénieur Data interviendra dans un environnement orienté Microsoft avec des enjeux forts autour de la structuration, l’intégration et la traçabilité des données. Il travaillera en étroite collaboration avec les équipes métier et tech pour construire des pipelines robustes, fiables et évolutifs. 🧩 Missions : Conception et mise en œuvre de pipelines d’intégration de données sous Microsoft Fabric et Azure Synapse Construction de lignages de données (data lineage) Implémentation de la structure Medallion (bronze / silver / gold) Utilisation de notebooks Spark dans Synapse pour le traitement des données Gestion des versions et des tickets via des outils DevOps Passage des pipelines du développement à la production Résolution de bugs et amélioration continue des workflows
Data engineer H/F

Chez SquareOne, nous valorisons la donnée comme un actif stratégique. Dans le cadre du développement de nos plateformes data, nous recherchons un(e) Data Engineer pour concevoir, construire et fiabiliser des pipelines de données robustes et évolutifs. Rattaché(e) à l’équipe Data/Tech de nos clients, vous serez en charge de : Concevoir et maintenir des pipelines d’ingestion, de transformation et de mise à disposition des données (ETL/ELT) Assurer la qualité, la sécurité et la traçabilité des données (data lineage, monitoring, tests) Participer à l’architecture et à l’optimisation de l’environnement data (data lake, entrepôt, cloud…) Collaborer avec les Data Scientists, Analysts et DevOps pour fluidifier les flux de données Contribuer à l’industrialisation des traitements (batch et temps réel) et à la gouvernance des données
DEV DATA ENGINEER

Nous recherchons un profil confirmé de concepteur/développeur/testeur pour travailler sur la mise en place des applications, les tests et le maintien en conditions opérationnelles. Les tâches suivantes seront requises sur la mission : - Analyse des besoins métier et réalisation des spécifications - Développement des applications - Maintien de la documentation - Forte attente sur la garantie de non-régression Une connaissance du monde de l’assurance serait un plus. La ressource devra être autonome, collaborative, ouverte, avoir l’esprit d’équipe.
Data engineer (H/F)

Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL
Data Engineer Snowflake H/F

Vous interviendrez au sein d'une équipe data agile, en collaboration avec les Data Analysts, Data Scientists et Architectes Cloud. Activités principales : -Développer et maintenir des pipelines de données sur Snowflake -Optimiser les performances et la qualité des données -Automatiser les workflows et les processus ETL/ELT -Collaborer avec les équipes DevOps et Cloud sur l'intégration continue -Participer à la migration et modernisation des infrastructures Data
Data Engineer H/F

En tant que Data Engineer pour l'un de nos clients grands comptes, votre rôle s'articulera autour de différents axes : - Appréhender le contexte et les enjeux métier du client - Traiter et consolider les données pour permettre le calcul des indicateurs de performance - Définir des architectures data - Concevoir et développer des pipelines de données - Retranscrire les besoins métiers en solution technique
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.