Data Engineer - DOT Anonymizer

En quelques mots Cherry Pick est à la recherche d'un "Data Engineer - Dot Anonymizer" pour un client dans le secteur de l'assurance. Description 🎯 Objectif de la mission Intégrer un projet d'envergure entreprise au sein de la Direction Transformation Data du groupe, dans le cadre de la protection des données personnelles (conformité RGPD) via des traitements d’anonymisation . 🏢 Contexte client le Groupe est un acteur majeur de la protection sociale , assurant la gestion du régime obligatoire d’assurance maladie des personnels de l’Éducation nationale, de la Recherche, de la Culture, du Sport et de l’Environnement. Vous intégrerez une équipe projet d’expertise technique , avec un rôle de Concepteur / Développeur confirmé pour contribuer à la protection des données sensibles du groupe. 🛠️ Vos missions principales Développement de programmes d’anonymisation de données avec DOT Anonymizer Participation aux analyses techniques : revues de code, tests unitaires Identification & formalisation des besoins avec les sachants Analyse & conception de solutions techniques Évaluation de la faisabilité et chiffrage des efforts de développement Rédaction de documents projet (techniques & produit) Participation aux cérémonies agiles Intégration dans différents environnements techniques Résolution des problèmes de qualité de données 📌 Livrables attendus Traitements d’anonymisation opérationnels et conformes RGPD Documentation technique et produit Recommandations d’architecture et de stratégie d’anonymisation
Data Engineer H/F

Sous la responsabilité du Responsable IT, vous contribuerez activement à la structuration et à la mise à disposition des données au sein de l'entreprise. Vos principales missions consisteront à : Participer à l'industrialisation et à la mise en production des traitements de données, tels que la création de tableaux de bord ou l'intégration de modèles statistiques, en collaboration étroite avec les équipes métier et les analystes, Concevoir, administrer et faire évoluer un data lake sous Snowflake, tout en assurant la gestion des jeux de données et des droits d'accès, Assurer la collecte, la transformation et l'intégration de données provenant de sources diverses via l'outil Alteryx, Déployer des mécanismes de contrôle qualité ainsi que des routines de vérification pour garantir l'intégrité et la fiabilité des données. Ces missions seront réalisées en étroite collaboration avec un data engineer déjà en poste au sein de l'équipe.
Data Engineer Junior

Informations Générales Lieu : Marignane (1 semaine par mois sur site) Date de démarrage : 2 juin 2025 Durée de la mission : 7 mois Langues requises : Français et anglais professionnel ou courant Mission Le Data Engineer Junior sera intégré à l’équipe projet pour contribuer au développement et à l’optimisation des outils et applications basés sur la plateforme Palantir Skywise. Les principales responsabilités incluent : Développement d’applications et de workflows sur Palantir Skywise (Slate, Workshop). Programmation en Python pour le traitement et l’analyse des données. Gestion et optimisation des bases de données SQL.
Data Engineer Junior
Bonjour, Je suis à la recherche d’un Data Engineer Junior : Tâches : · Concevoir, développer et maintenir des pipelines de données pour l'alimentation d'un Data Mesh. · Collaborer avec les équipes de développement et les parties prenantes pour comprendre les besoins en données et proposer des solutions adaptées. · Assurer la qualité, la fiabilité et la performance des pipelines de données. · Effectuer des tests et des validations des pipelines de données pour garantir leur bon fonctionnement. · Documenter les processus de développement et les architectures de données mises en place. · Participer aux revues de code et aux réunions techniques pour partager les meilleures pratiques et les retours d'expérience
Data engineer

Sous la responsabilité du Chief Technical Officer (CTO), l’Ingénieur Data sera chargé de la collecte, du traitement et de la structuration des données. Il jouera un rôle clé dans la mise à disposition de données fiables et exploitables, en lien étroit avec les équipes produit, les développeurs et les parties prenantes. Ses principales missions incluent : L’agrégation, le tri et la mise en relation de bases de données hétérogènes (formats et sources variés) L’écriture de scripts en Python et SQL (PostgreSQL/PostGIS) pour manipuler les données La collecte automatisée de données (via API, scraping, etc.) La mise en place de tests de cohérence et de qualité des données La production de KPI liés au traitement et à la fiabilité des données Le traitement des remontées d’anomalies, en lien avec le support utilisateur
Data Engineer DBT

Pour un de nos client Lyonnais, nous recherchons un Data Engineer, expérimenté en Data Build Tool. Tâches à effectuer : Création de pipeline de données pour alimentation d’un Data Mesh Concevoir, développer et documenter des modèles de transformation SQL à l'aide de DBT (Data Build Tool), en respectant les standards de qualité et de performance attendus Collaborer avec les équipes Data Engineering, BI et Produit pour comprendre les besoins métiers et proposer des modèles pertinents; Mettre en place des tests de données automatisés (tests DBT, assertions) pour garantir l'intégrité des données.
Data Engineer Powercenter

Nous recherchons un·e Data Engineer Powercenter confirmé·e pour rejoindre notre équipe et travailler sur une mission chez un client anonyme basé à Genève. Le candidat sélectionné sera chargé de concevoir, réaliser et déployer des solutions décisionnelles en utilisant des outils standards du secteur. La mission débutera le 4 août 2025 avec un taux d'activité de 100%. Activités principales : o Chiffrer, concevoir, réaliser et maintenir les traitements d'intégration des données sur la plateforme ETL pour garantir des résultats conformes aux exigences de qualité, performance, délai et sécurité. o Concevoir et implémenter de nouveaux entrepôts de données (infocentre, datawarehouse) et maintenir les modèles de données décisionnelles en service. o Participer à la gestion des incidents, des changements et des déploiements. o Comprendre et accompagner les demandeurs pour une mise à disposition des données répondant au mieux à leurs besoins. Compétences indispensables (3-6 années d'expérience et plus) : o Maîtrise de la conception de pipelines de données et de la modélisation d'entrepôts de données. o Maîtrise du langage SQL (Oracle, PostgreSQL, SQL Server) et autres techniques de manipulation et d'interrogation de données. o Maîtrise du cycle de développement et des réalisations avec Informatica PowerCenter 10.5, incluant les paramètres d'optimisation des performances. o Bonnes expériences dans la conduite d'analyse et études d'impact des pipelines de données en service. o Expériences dans les procédures d'installation, de mises à niveau et de connexions aux différents types de sources de données.
Data Engineer / Data Analyst

La mission consiste à : - Maîtrise de la donnée et garant de la qualité de son utilisation - Analyser les besoins des utilisateurs et proposer des solutions innovantes - Développer les solutions data - Maintenir les solutions existantes - Mettre en oeuvre des pipelines de données Compétences attendues : - Expériences significatives comme Data Engineer / Data Analyst - Maîtrise de SQL, Python, PowerBI, GCP, CI/CD, Terraform, Github et les ETL/ELT - Anglais un + Mission basée sur la métropole lilloise avec télétravail hybride
Data engineer (expert DBT) - Lyon - ASAP & Freelance only

📌 𝗠𝗶𝘀𝘀𝗶𝗼𝗻 𝗙𝗿𝗲𝗲𝗹𝗮𝗻𝗰𝗲 – 𝗗𝗮𝘁𝗮 𝗘𝗻𝗴𝗶𝗻𝗲𝗲𝗿 (𝗘𝘅𝗽𝗲𝗿𝘁 𝘀𝘂𝗿 𝗗𝗕𝗧) - 𝗟𝘆𝗼𝗻 - 𝗣𝗮𝘀 𝗱𝗲 𝗦𝗧𝗧 📌 📅 𝗗𝗲́𝗺𝗮𝗿𝗿𝗮𝗴𝗲 𝗔𝗦𝗔𝗣 - 𝟲 𝗺𝗼𝗶𝘀 𝗿𝗲𝗻𝗼𝘂𝘃𝗲𝗹𝗮𝗯𝗹𝗲𝘀 - 𝗣𝗿𝗼𝗷𝗲𝘁 𝗹𝗼𝗻𝗴 𝘁𝗲𝗿𝗺𝗲. ❗ 𝗣𝗮𝘀 𝗱𝗲 𝗦𝗧𝗧 💰 𝗧𝗝𝗠 : 𝗘𝗻𝘁𝗿𝗲 𝟰𝟬𝟬 𝗲𝘁 𝟰𝟳𝟬€ 𝗛𝗧, 𝘀𝗲𝗹𝗼𝗻 𝗽𝗿𝗼𝗳𝗶𝗹. 🎯 𝗖𝗼𝗻𝘁𝗲𝘅𝘁𝗲 𝗱𝗲 𝗹𝗮 𝗺𝗶𝘀𝘀𝗶𝗼𝗻 Nous recherchons un Data Engineer expérimenté sur DBT pour intervenir sur un projet de mise en place de pipelines de données dans un environnement Data Mesh. Vous rejoindrez une équipe data engagée sur un projet structurant pour un client pur Tech. 🧩 𝗩𝗼𝘀 𝗺𝗶𝘀𝘀𝗶𝗼𝗻𝘀 𝗽𝗿𝗶𝗻𝗰𝗶𝗽𝗮𝗹𝗲𝘀 Conception et développement de pipelines de données robustes et scalables Contribution à l’alimentation d’une architecture Data Mesh Collaboration étroite avec les équipes data & métiers Participation à la définition des bonnes pratiques et à la documentation technique On en parle ? N'hésitez pas à candidater ! #DataEngineer #DBT #DataMesh #Snowflake #ETL
Data Engineer

Descriptif de la mission Notre Client recherche pour cette mission un data Engineer Le Client évolue dans un environnement technique Microsoft cloud Azure avec une architecture orientée Big Data avec un Data Lake (Sparks) alimentant des cubes tabulaires. Power BI est l’outil de reporting du groupe. Les tâches au quotidien seront : - Réaliser les projets BI de bout en bout sous la supervision du Tech lead - Assurer les projets pour l'ensemble de l'activité Client, Finance, Ticketing, Salesforce etc... - Assurer du support utilisateur - Documenter ses réalisations et procédures support Les compétences requises pour cette mission sont : - Justifier d'une expérience d'au moins 4 ans dans ce domaine - Disposer d'une bonne connaissance de la Stack AZURE - Azure Data FACTORY - AZure Databricks - Azure Analysis Services et modélisation de cubes (Tabulaires principalement) - Justifier d'une bonne connaissance du langage SQL - Avoir une excellente connaissance de Python et de PySpark - Avoir de bonnes connaissances de POWER BI et de DAX - Justifier d'une expérience de méthodologie DevOps / CI/CD
Data Engineer H/F

En tant que Data Engineer pour l'un de nos clients grands comptes, votre rôle s'articulera autour de différents axes : - Appréhender le contexte et les enjeux métier du client - Traiter et consolider les données pour permettre le calcul des indicateurs de performance - Définir des architectures data - Concevoir et développer des pipelines de données - Retranscrire les besoins métiers en solution technique
Data Engineer (H/F)

Poste : Data Engineer (H/F) Type de contrats : CDI/Freelance Localisation : Niort (79) L’ IT chez ARTEMYS combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . 👍 Alors, vous nous rejoignez ?! Artemys Agil-IT recrute dès à présent un.e Data Engineer . Dans cette nouvelle étape de votre carrière, nous vous proposons d’intervenir sur de belles missions auprès d’un d'un de nos clients auprès duquel vous interviendrez sur les missions suivantes : Modéliser et structurer des bases de données en fonction des besoins analytiques. Implémenter des DAGs en python pour alimenter les entrepôts de données. Contribuer à la définition et l’optimisation des normes de développements de l’équipe Data Automatiser et enrichir les contrôles permettant de garantir la fiabilité des données alimentées. Réaliser la documentation fonctionnelles. Réaliser la documentation technique. Contribuer à la définition et l’exécution des plan de tests pour valider le bon fonctionnement des DAGs et assurer la cohérence et fiabilité des jeux de données. Maintenir les entrepôts de données. Participer à la mise en place de tableaux de bord Préparer, suivre les phrases d'homologation et de déploiement des réalisations. Assurer un support technique et fonctionnel auprès des équipes métiers sur l'utilisation des données et des outils analytiques. Optimiser les process et proposer des méthodologies adaptées (veille sur les données, les outils).
Data engineer (H/F)

Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL
Data engineer (F/H)

A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 📑 CDI (38-43K€) OU Freelance OU Portage salarial - 🏠 1 jour de télétravail / semaine - 📍 Dijon - 🛠 Expérience de 2 ans minimum Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Data engineer pour intervenir chez un de nos clients. 💻💼 Le contexte de la mission : Notre client, acteur majeur du secteur assurance, veut améliorer la qualité de ses données décisionnelles. Pourquoi ? Parce que derrière chaque mauvaise donnée, il y a une décision faussée. Et dans l’assurance, ça ne pardonne pas. Vous interviendrez dans une équipe soudée et bienveillante, qui bosse main dans la main avec les actuaires et les Data Scientists pour rendre les données plus fiables, mieux contrôlées et activables plus rapidement. Ce que vous allez faire concrètement 🎯 : - Construire des pipelines ELT robustes : ingestion, transformation, qualité, performance - Modéliser la donnée : comprendre les besoins métiers pour rendre la donnée exploitable (pas juste jolie) - Documenter vos réalisations : vos livrables ne seront pas des boîtes noires. Vous écrirez pour être compris - Créer et industrialiser des contrôles de données : qu’ils soient internes ou réglementaires, pour aider les autres équipes à se reposer sur une donnée fiable
Data Engineer H/F

ET SI VOUS DEVENIEZ CONSULTANT CHEZ NOUS ? Mais d’abord, c’est quoi un consultant ? Evidemment, c’est un collaborateur qui accompagnera nos clients dans la réalisation de leurs projets innovants. Mais être consultant chez OTTEO, c’est aussi être un ambassadeur, qui participera à l’évolution et à la croissance de la société ! Votre 1er projet : Vous accompagnerez notre client, grand groupe dans le secteur de la grande distribution spécialisée , situé dans la Métropole Lilloise. Votre intégrerez l’équipe Data. Vousinterviendrez sur des projets clés pour le maintien et l’amélioration des systèmes de notre client. Vos missions : Exploitation et Maintenance Comprendre et exploiter un modèle de données existant. Maintenir l’infrastructure en condition opérationnelle et assurer des astreintes en week-end pour garantir la disponibilité des données. Réaliser des évolutions mineures sur l'existant. Développement et Automatisation Développer des scripts en Python pour automatiser des process, avec l’utilisation de Jinja2 pour la génération de templates. Exploiter les API et manipuler des formats JSON pour optimiser la transformation des données. Documentation et Suivi : Mettre à jour les procédures d’intervention en production et élaborer la documentation technique sur Confluence. Créer des tableaux de bord et des rapports (format CSV) pour le suivi de l’état des équipements et la performance du réseau, ainsi que le suivi des projets (calcul de KPI). Supervision et Support Participer à la mise en place d’une solution de supervision (par exemple, Shinken) en définissant les seuils d’alarme et les indicateurs clés. Assurer le support de niveau 1 et 2, en collaborant étroitement avec les équipes opérationnelles via des cérémonies Agile. Vous vous y voyez déjà, pas vrai ? Ça tombe bien, ce n’est pas fini !
Data Engineer (H/F)

Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, MongoDB, PostgreSQL) • Langages: Python, SQL
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Recupérer fichiers Excel des relevés banque de + de 6 mois ?il y a 6 heures
- Etat du marché - Avril 2025il y a 11 heures
- Étude sur les freins à l'entreprenariat mémoireil y a 12 heures
- Etude sur les freins à l'entreprenariatil y a 12 heures
- Offre ingénieur étude et conception électronique de puissanceil y a 12 heures
- Devenir Freelance toujours intéressant ou c'est mort ?il y a 15 heures