Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 199 résultats.
Freelance

Data Engineer - DBT / SNOWFLAKE

KUBE Partners S.L. / Pixie Services

Concevoir, développer et maintenir des pipelines de données (ETL/ELT) robustes et scalables. Orchestrer les traitements de données avec DBT dans un environnement Snowflake . Automatiser les processus de déploiement via des pipelines CI/CD . Modéliser les données (modèle en étoile, data vault, etc.) pour répondre aux besoins business. Optimiser la performance des requêtes et la gestion des coûts Snowflake. Collaborer étroitement avec les équipes Data, Produit et Métiers pour garantir la fiabilité des livrables. Participer à la mise en place de bonnes pratiques de gouvernance et de qualité des données.

Démarrage Dès que possible
Durée 6 mois
TJM 400-520 €⁄j
Lieu Lyon, Auvergne-Rhône-Alpes
CDI

Data Engineer - Retail H/F

VIVERIS

Contexte de la mission : Viveris pilote les chantiers de transformation métier et IT qui contribuent à la performance des entreprises du Retail. Dans le cadre de nos priorités stratégiques DATA, nous cherchons un DATA Engineer expérimenté. Vos missions et responsabilités : Vous rejoignez l'équipe Supply Chain en charge des échanges de données entre le moteur de calcul de prévision de vente et de réapprovisionnement et l'ensemble des applications internes. Actuellement l'équipe est composée de 3 ingénieurs Data, 1 Product Owner, 1 Scrum Master, 2 Business Analyst et 1 Tech Lead. Nous recherchons un ingénieur Data pour renforcer l'équipe pour assurer le run opérationnel, optimiser l'existant et dans un avenir proche participer au déploiement de la solution dans d'autres pays. Vos missions : - Traitement d'activités de support / maintenance corrective ; - Analyse et cadrage technique des différents besoins ou problématiques remontées par les Bus ; - Réalisation et maintien de la documentation technique du produit (Spécification technique, dossier d'architecture, etc...) ; - Réalisation des développements du produit (Modules GCP, Terraform, Python, BigQuery) ; - Veille et optimisation technique (architecture, fiabilisation, optimisation financière (finops)) ; - Appliquer les normes de qualités définies pour le groupe Nous recherchons quelqu'un de motivé ayant déjà une expérience dans la Data.

Démarrage
Salaire 40k-50k €⁄an
Télétravail Télétravail partiel
Lieu Lille, Hauts-de-France
Freelance

Data Analyst / Data Engineer – Power BI & DataLake (3jours sur site)

Signe +

🎯 Résumé du poste Nous recherchons un Data Analyst / Data Engineer talentueux pour rejoindre notre équipe et renforcer la culture de la décision par la donnée. Vous contribuerez activement à la création de pipelines de données robustes, à la visualisation des indicateurs métier et à l’automatisation des processus grâce à Power Platform. 🧩 Responsabilités principales Développer, maintenir et optimiser des pipelines de données pour assurer un traitement efficace et fiable. Concevoir et déployer des tableaux de bord Power BI pour visualiser les indicateurs clés de performance. Utiliser Power Apps pour créer des applications facilitant l’accès et la gestion des données métiers. Rédiger et optimiser des requêtes SQL pour l’extraction, la transformation et l’analyse de données. Gérer et structurer l’ architecture Data Lake pour assurer performance, sécurité et évolutivité. Collaborer avec les équipes métiers pour identifier les besoins et proposer des solutions data pertinentes. Travailler avec Databricks pour renforcer les capacités de traitement Big Data (atout).

Démarrage Dès que possible
Durée 6 mois
TJM 540-570 €⁄j
Télétravail Télétravail partiel
Lieu Grenoble, Auvergne-Rhône-Alpes
CDI

Développeur DBT / Data Analyst Engineer H/F

VIVERIS

Contexte de la mission : Dans le cadre de sa stratégie de valorisation de la donnée, un acteur majeur du secteur des télécommunications renforce son équipe Data sur un projet clé de transformation et de modélisation analytique. Vous intégrerez une équipe dynamique et pluridisciplinaire pour concevoir, maintenir et optimiser les modèles de données dans un entrepôt cloud structuré autour des bonnes pratiques modernes de data engineering. L'objectif de la mission est de garantir la fiabilité, la performance et la maintenabilité des pipelines de transformation, en lien étroit avec les équipes Data Engineering, BI et Produit. Responsabilités : Concevoir, développer et documenter des modèles de transformation SQL à l'aide de DBT (Data Build Tool), en respectant les standards de qualité et de performance attendus; Collaborer avec les équipes Data Engineering, BI et Produit pour comprendre les besoins métiers et proposer des modèles pertinents; Mettre en place des tests de données automatisés (tests DBT, assertions) pour garantir l'intégrité des données; Contribuer à l'automatisation des workflows de transformation via des outils d'orchestration tels qu'Airflow, dbt Cloud ou GitHub Actions.

Démarrage
Salaire 35k-45k €⁄an
Télétravail Télétravail partiel
Lieu Lyon, Auvergne-Rhône-Alpes
Freelance

Data Engineer H/F

EDUGROUPE

À propos de SkillsFirst chez NEURONES : Filiale du groupe NEURONES, SkillsFirst accompagne les entreprises ayant un besoin d'assistance technique par l'intervention de compétences d'experts, notamment dans le domaine de la DATA. Nos valeurs : Ecoute, Réactivité, Professionnalisme. MISSIONS : Intégré chez nos clients Grands Comptes dans les secteurs Banque, Assurance, Energie, Industrie, etc., nous attendons de vous que vous maîtrisiez : L’acheminement de la donnée : Recueillir les besoins métiers / User de solutions de collecte et stockage de la donnée ; Développer les solutions techniques de collecte de la donnée via des API ; Développer des solutions techniques de stockage de la donnée (Hadoop) ; Réaliser les tests unitaires et d’intégration ; Mettre en place et maintenir les batchs (automatisations d’une série de traitements). La mise à disposition des données aux équipes utilisatrices Industrialiser et automatiser le nettoyage de la donnée ; Gérer, maintenir et documenter de multiples bases de données ; Gérer le cycle de vie de la donnée conformément aux directives inscrites dans le RGPD ; Assurer le suivi de production et la maintenance. La mise en production de modèles statistiques dans les applications Développer l’industrialisation de modèles statistiques ou de machine learning ; Implémentation du suivi de la validité du modèle statistique ; Assurer le suivi de production et la maintenance. Autres : Automatiser la création de tableaux de bord aux équipes métiers ; Assurer une veille technologique sur les outils Big Data ; Écrire la documentation relative aux bases de données.

Démarrage Dès que possible
Durée 3 ans
TJM 500-550 €⁄j
Télétravail Télétravail partiel
Lieu Île-de-France, France
Freelance

Data Engineer - Expérimenté + Snowflake

EBMC

Dans le cadre d’un projet de modernisation des architectures data, un acteur majeur du secteur recherche un Data Engineer pour intervenir sur la création de pipelines de données destinés à alimenter une architecture de type Data Mesh . La mission consistera à concevoir, développer et maintenir des flux de données robustes, tout en respectant les bonnes pratiques en matière de gouvernance, de documentation et de qualité de données. L’environnement technique s’appuie fortement sur DBT pour la transformation des données, avec une orientation vers l’exploitation de plateformes cloud et de solutions analytiques modernes.

Démarrage Dès que possible
Durée 6 mois
TJM 100-460 €⁄j
Lieu Lyon, Auvergne-Rhône-Alpes
Freelance

Data Engineer AWS Databricks Snowflake

KUBE Partners S.L. / Pixie Services

Nous recherchons actuellement un Data Engineer AWS databricks snowflake pour une mission sur Paris avec un client final. Au sein du data office le Data Engineer contribue au développement et à l’optimisation de la Data Platform. Missions principales : ▶️ conception et l’implémentation des pipelines de données. ▶️ optimisation des traitements et flux de données (batch et streaming). ▶️ mise en place des bonnes pratiques de développement et d’exploitation. ▶️ fiabilité et la performance de la Data Platform.

Démarrage Dès que possible
Durée 3 mois
Lieu Paris, France
Freelance

Data engineer Spark Scala Cloud AWS (H/F)

Insitoo Freelances

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer Spark Scala Cloud AWS (H/F) à Lyon, France. Contexte : Fonctionnement : 2 jours télétravail + 3 jours présentiel à Lyon Les missions attendues par le Data engineer Spark Scala Cloud AWS (H/F) : Projet : Mise en œuvre de flux data (ingestion, stockage, transformation, mise à disposition) dans leur Datalake. Amélioration continue des produits / solutions de l'équipe Construction nouveaux usages Développement, Intégration et Recette technique Participer à la révision du code écrit par d'autres développeurs pour s'assurer de la qualité, de l'efficacité et des bonnes pratiques en matière de développement de pipelines de données. Travailler étroitement avec les équipiers de la squad pour s'assurer que les solutions mises en ouvre répondent bien aux besoins métiers et sont alignées avec les meilleures pratiques. 2j de TT par semaine Bonne compréhension de l’anglais car même si l’équipe est francophone, il y a un américain et parfois certains dailys seront en anglais.

Démarrage Dès que possible
Durée 2 ans
TJM 350-450 €⁄j
Télétravail Télétravail partiel
Lieu Lyon, Auvergne-Rhône-Alpes
Freelance

Data Engineer /Développeur Python / AWS / Data Modeling / Big Data

HIGHTEAM

Dans le cadre d’un projet stratégique pour l’un de nos clients grands comptes, nous recherchons un Développeur / Ingénieur Data afin de renforcer leurs équipes. Vos principales missions : Concevoir et développer des pipelines d’ingestion et de transformation de données Optimiser les performances des traitements (SQL, Spark, etc.) Participer à la migration de l’environnement Big Data vers une infrastructure Cloud (AWS ou Azure selon contexte) Collaborer avec les équipes Data, DevOps et métiers pour assurer la cohérence des livrables Participer aux cérémonies Agile (Daily, Sprint planning, Rétrospective) Documenter les développements et assurer un transfert de compétences

Démarrage Dès que possible
Durée 3 ans
TJM 500-600 €⁄j
Télétravail Télétravail partiel
Lieu Île-de-France, France
CDI

Data Engineer confirmé·e – Modern Data Stack / Cloud / Snowflake-H/F

Twenty One Talents

En tant que Data Engineer confirmé·e, vous jouerez un rôle central dans la mise en place de plateformes data modernes et évolutives chez nos clients. Vous interviendrez à la fois sur la conception technique, l’implémentation et le pilotage de projets. Vos missions principales : Mettre en œuvre des plateformes data complètes en environnement cloud (AWS, GCP ou Azure), en intégrant des outils comme Snowflake, dbt ou Airflow Concevoir, développer et optimiser des pipelines de données ETL/ELT en SQL et Python selon les bonnes pratiques de DataOps Encadrer des projets clients et internes, en accompagnant des profils plus juniors dans leur montée en compétences

Démarrage Dès que possible
Salaire 50k-57k €⁄an
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

Data Engineer Python / Kubernetes

HIGHTEAM

Dans le cadre d’un projet stratégique visant à améliorer la productivité des processus de production via l’intelligence artificielle, nous recherchons un Data Engineer expérimenté pour intervenir chez l’un de nos clients grands comptes du secteur financier. Objectifs de la mission : Développement d’outils en Python intégrant des briques d’IA à destination des entités Finance du groupe Mise en place de POC sur différents cas d’usage IA Tests sur données de production en environnement LAB Industrialisation et déploiement dans des environnements de production via CI/CD & Kubernetes Rédaction de la documentation technique et fonctionnelle associée Livrables attendus : POC fonctionnels validant la pertinence des algorithmes choisis Intégration des outils dans un environnement de production sécurisé et industrialisé Documentation technique & guides d’utilisation Environnement technique / Compétences requises : Python (avancé) Kubernetes (maîtrise de l’orchestration & déploiement) GitHub & pratiques CI/CD Connaissance des environnements de production (mode LAB / industrialisation)

Démarrage Dès que possible
Durée 3 ans
Salaire 40k-60k €⁄an
TJM 500-600 €⁄j
Télétravail Télétravail partiel
Lieu Île-de-France, France
Freelance

Data Engineer Palantir

Freelance.com

Le Data Engineer sera chargé de construire, livrer et maintenir des produits de données (pipelines de données, services, API...). Il travaillera en étroite collaboration avec les équipes de produits pour développer de nouvelles fonctionnalités liées à ces produits, notamment des fonctionnalités liées à l'acheminement des données au sein ou entre plusieurs produits, aux capacités analytiques et d'entreposage pour l'exploration des données, la science des données, le BI, le calcul parallèle sur de grands volumes de données.

Démarrage Dès que possible
Durée 1 an
TJM 500-550 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Un Data Engineer DBT ayant un anglais courant sur Lyon

Smarteo

Smarteo recherche pour l'un de ses clients, Un Data Engineer DBT ayant un anglais courant sur Lyon Profil recherché : Data Engineer Tâches à effectuer : Création de pipeline de données pour alimentation d'un Data Mesh Compétences obligatoires et niveau de compétence attendu : DBT expérimenté / Anglais courant Compétences optionnelles et niveau de compétence attendu : Snowflake Si vous êtes intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jour au format Word Smarteo recherche pour l'un de ses clients, Un Data Engineer DBT ayant un anglais courant sur Lyon Profil recherché : Data Engineer Tâches à effectuer : Création de pipeline de données pour alimentation d'un Data Mesh Compétences obligatoires et niveau de compétence attendu : DBT expérimenté / Anglais courant Compétences optionnelles et niveau de compétence attendu : Snowflake Si vous êtes intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jour au format Word

Démarrage Dès que possible
Durée 6 mois
TJM 100-400 €⁄j
Lieu Lyon, Auvergne-Rhône-Alpes
Freelance

Data Engineer - DOT Anonymizer

Cherry Pick

En quelques mots Cherry Pick est à la recherche d'un "Data Engineer - Dot Anonymizer" pour un client dans le secteur de l'assurance. Description 🎯 Objectif de la mission Intégrer un projet d'envergure entreprise au sein de la Direction Transformation Data du groupe, dans le cadre de la protection des données personnelles (conformité RGPD) via des traitements d’anonymisation . 🏢 Contexte client le Groupe est un acteur majeur de la protection sociale , assurant la gestion du régime obligatoire d’assurance maladie des personnels de l’Éducation nationale, de la Recherche, de la Culture, du Sport et de l’Environnement. Vous intégrerez une équipe projet d’expertise technique , avec un rôle de Concepteur / Développeur confirmé pour contribuer à la protection des données sensibles du groupe. 🛠️ Vos missions principales Développement de programmes d’anonymisation de données avec DOT Anonymizer Participation aux analyses techniques : revues de code, tests unitaires Identification & formalisation des besoins avec les sachants Analyse & conception de solutions techniques Évaluation de la faisabilité et chiffrage des efforts de développement Rédaction de documents projet (techniques & produit) Participation aux cérémonies agiles Intégration dans différents environnements techniques Résolution des problèmes de qualité de données 📌 Livrables attendus Traitements d’anonymisation opérationnels et conformes RGPD Documentation technique et produit Recommandations d’architecture et de stratégie d’anonymisation

Démarrage Dès que possible
Durée 12 mois
TJM 500-520 €⁄j
Télétravail Télétravail 100%
Lieu Paris, France
Freelance
CDI

Data Engineer / Expert FinOps

TEOLIA CONSULTING

Homme ou femme passionné(e), vous possédez une expérience significative en tant que Développeur Back/ Fullstack et souhaitez rejoindre une équipe motivée, performante et évolutive. Votre profil et vos missions Nous recherchons pour intervenir chez notre client retailer, un Expert BigQuery. En plus de mettre en place une gouvernance Big Query et les bonnes pratiques d'usage, il optimisera les projets existants avec les équipes de dev. Pour cela le candidat doit : - connaître l'architecture et les features natives de BigQuery + avancées (QUOTAS, SLOTS, BI ENGINE...) - produire des requêtes maintenables, lisibles et optimisées. - Optimiser les requêtes lors du traitement de vastes volumes de données. Être en mesure de surveiller et de promouvoir les bonnes pratiques lorsqu'il y a de grands volumes de données - Gérer les différents modèles de facturation disponibles pour BigQuery et être capable d'expliquer à tout moment la consommation et les coûts par projet. - Définir et communiquer sur les bonnes pratiques d'utilisation afin que les utilisateurs puissent exploiter pleinement le potentiel de BigQuery pour obtenir des insights précieux à partir de leurs données et prendre des décisions éclairées. - Diffuser les bonnes pratiques afin de rendre les données compréhensibles et facilement accessibles.

Démarrage
Durée 3 ans
Salaire 50k-55k €⁄an
TJM 450-470 €⁄j
Lieu Lille, Hauts-de-France
Freelance

Un Ingénieur Cloud GCP – Data Engineer / DataOps sénior à Saint-Quentin-en-Yvelines

Almatek

Almatek recherche pour l'un de ses clients Un Ingénieur Cloud GCP – Data Engineer / DataOps sénior à Saint-Quentin-en-Yvelines. Missions : Construction d’offres DATA spécifiques : · Conception et déploiement de solutions de données sur GCP, utilisant des technologies telles que BigQuery, Cloud Storage, Cloud Dataflow, etc. · Intégration de solutions de monitoring, alerting et gestion de droits pour assurer la sécurité et la fiabilité des données · Automatisation et industrialisation des solutions pour garantir la scalabilité et la flexibilité · Veille technologique autour de la Data : réalisation de POC, tests de performances et comparaison de solutions sur GCP Adaptations d’offres DATA existantes : · Qualification des offres afin de mesurer leur niveau de maturité sur GCP · Intégration des offres Data dans le SI client sur GCP · Intégration de solutions de monitoring, alerting et gestion de droits pour assurer la sécurité et la fiabilité des données Accompagnement des projets dans leur migration vers des infrastructures modernes sur le cloud : · Intervenir en assistance/expertises auprès de nos clients pour comprendre leurs exigences et accompagner leur migration vers GCP · Réaliser l'étude détaillée des besoins clients en lien avec les architectes pour concevoir des architectures de données optimales sur GCP · Construire avec les CloudOps les infrastructures DATA pour le projet sur GCP · Accompagnement des projets dans l'adoption de ces technologies via des workshops, formation, documentation · Participer au RUN de nos services : Gestion des demandes et incidents sur les infrastructures de données sur GCP Patching / Upgrade des solutions de données sur GCP · Participation à l'astreinte de l'équipe pour assurer la disponibilité et la fiabilité des services Compétences recherchées : · Connaissance approfondie des technologies de données suivantes : BigQuery, Cloud Storage, Cloud Dataflow, etc. · Connaissance de GCP et Terraform pour la gestion des infrastructures de données · Connaissance des solutions de données sur le cloud public, notamment GCP · Connaissance approfondie de Linux et des systèmes d'exploitation · Maîtrise de langages de programmation (Scala, Java, Python…) · Travail en Agile · Anglais · Certification ITIL V4 obligatoire · Connaissance de Kubernetes

Démarrage Dès que possible
Durée 6 mois
TJM 400-500 €⁄j
Télétravail Télétravail partiel
Lieu Saint-Léger-en-Yvelines, Île-de-France

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous