Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 369 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Data Engineer AWS

PARTECK INGENIERIE

Contexte : Nous recherchons pour l'un de nos clients, un Data Engineer (H/F) afin de renforcer son pôle AI Experts, qui intervient sur des sujets impactant directement son business et l'expérience client, afin d'optimiser la personnalisation, le taux de conversion et les assets. Description : Grâce à ses compétences alliant Développement Big Data, appétences pour les modèles d’IA et Architecture Applicative, le Data Engineer participe à la conception d’applications mettant à l’échelle des algorithmes créateurs de valeur pour l’entreprise. Livrables : . Définir et analyser des structures de données, . Contribuer aux assets des différentes équipes produits pour interconnecter et collecter les données, . Mettre à disposition de la data et des recommandations à des systèmes externes (APIs, exports, injection de données), . Être garant de la production (mise en place de monitoring, d'alerting et intervention si nécessaire), . Développer et maintenir le continuous delivery (participer à l’intégration continue et à l’usine logicielle, déploiements et tests automatisés), . Construire l’architecture cloud AWS qui hébergera notre infrastructure existante ou future, . Présenter et expliquer les réalisations à des publics métiers et techniques.

Démarrage Dès que possible
Durée 2 ans
TJM 100-600 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Data Engineer - Sophia Antipolis

Tenth Revolution Group

Bonjour à tous, Mon client recherche un data engineer pour un poste dans un environnement full Azure. Les missions principales : Au sein de la DSI, vous travaillerez essentiellement à la conception et l'optimisation des pipelines sur Azure Data Factory. Une connaissance complète de Fabric est attendue (Azure Data Factory et synapse pour le volume de données). La mission est une mission classique de Data engineering avec une certaine dimension de conception de dashboards sur PowerBI. Le recueil de besoin de certaines équipes métiers peut entrer dans le day-to-day job. La mission demande l'implémentation des processus ETL/ELT robustes et performants, la modélisation de donnée, la mise en place d'une gouvernance et une documentation des Best Practices

Démarrage Dès que possible
Durée 3 mois
TJM 270-530 €⁄j
Télétravail Télétravail partiel
Lieu Sophia Antipolis 1, Provence-Alpes-Côte d'Azur
Freelance

Data engineer (H/F)

Insitoo Freelances

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Date engineer (H/F) à Lyon, France. Contexte : Analyser des solutions EAM proposées par les éditeurs et évaluer leur impact sur les données Les missions attendues par le Data engineer (H/F) : Analyse des solutions éditeurs Conception des stratégies de migration Réaliser des mappings complexes Exploiter les services managés AWS Mise en oeuvre d'un POC Automatisation du déploiement et des contrôles Mise en place du reporting et tableaux de bords Compétences attendues : Expertise AWS confirmée (DMS, Glue, SCT) Expertise ETL Expérience AWS Pilotage par reporting

Démarrage Dès que possible
Durée 2 ans
TJM 100-600 €⁄j
Télétravail Télétravail partiel
Lieu Lyon, Auvergne-Rhône-Alpes
Freelance
CDI

DATA ENGINEER - connaissances DBT obligatoire

PRIMO CONSULTING

Nous recherchons pour l'un de nos grands comptes, un Data Engineer. Vous trouverez ci-dessous le descriptif du poste : La prestation du data engineering consistera à participer à : La mise en place de pipelines de traitement de données Le développement des modèles de données L’extraction et l’exposition des données du Data Lake vers d’autres services L’industrialisation des projets sur la GCP La participation active aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe Expertises requises pour la réalisation de la prestation : Au moins 1 an d’expérience dans un environnement data Compétences solides en data : structures de données, code, architecture Connaissance de l’un des Cloud Provider Public : de préférence GCP Connaissance de DBT obligatoire Références professionnelles sur des projets Big Data : de préférence Pyspark, BigQuery et dbt Compétences en SQL et Python Expertises dans la mise en place de pipeline ETL / ELT Bonnes connaissances de Gitlab et Gitlab CI/CD Forte capacité à vulgariser et à communiquer sur des aspects purement techniques Pratique des méthodes Agile (Scrum, Kanban)

Démarrage
Durée 12 mois
Salaire 46k-60k €⁄an
TJM 450-560 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Data engineer (H/F)

Insitoo Freelances

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer (H/F) à Hauts-de-France, France. Les missions attendues par le Data engineer (H/F) : - participer aux opérations de build sur les environnements Big Data basées sur Google Cloud. - concevoir et développer les nouveaux flux de données (batch et temps réel) en étroite collaboration avec l'équipe actuelle de Data Engineer, Data Scientist et les équipes métiers. - Analyser les besoins des métiers et les traduire en spécifications techniques (en contribuant également à l'élaboration des contrats d'interface et à la modélisation physique) - Développer des pipelines de données au sein de son périmètre - Veiller à la qualité et l'efficience des développements de l'équipe - Contribuer à la construction de la plateforme data et des services en remontant les besoins non couverts par le framework - Travailler en étroite collaboration avec l'équipe actuelle de Data Engineers, Data Scientists et les équipes métiers. Votre profil : - Expérience significative dans l'utilisation des systèmes cloud GCP et de ses services dans des projets Data. (Bigquery, GCS, Pubsub, Cloud function, Composer etc...) - Expérience avec les processus de transformation des données DBT - Connaissance du langage Python et de composer - Excellentes connaissances du SQL et des grands principes de modèle de données - Compréhension des enjeux du Retail dans ses composantes principales (Customer , Product , Supply Chain, Commerce (Web&Store), Human Resources ) - Sensible aux méthodes de travail agiles. - Autonome, curieux et proactif

Démarrage Dès que possible
Durée 2 ans
TJM 400-450 €⁄j
Télétravail Télétravail partiel
Lieu Hauts-de-France, France
Freelance
CDI

Data Engineer Snowflake

VISIAN

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Snowflake : Dans le cadre d’un projet financier stratégique, nous recherchons un Senior Data Engineer pour contribuer activement à la conception, la mise en place et l’optimisation de notre Data Warehouse (DWH) et de nos DataMarts. Ces infrastructures sont essentielles au bon fonctionnement de notre outil EPM (Board) et des solutions dédiées à l’audit financier. Le candidat sélectionné travaillera en collaboration avec des équipes transverses afin d'assurer une intégration et une transformation des données sans faille. Responsabilités : Concevoir, développer et maintenir des Data Warehouses et DataMarts scalables basés sur des données financières. Développer et optimiser des requêtes SQL complexes et des procédures stockées sur Snowflake. Travailler avec des données issues de SAP, comprendre leurs structures et assurer une cartographie et transformation précises. Utiliser Azure Data Factory pour la gestion et l’orchestration des pipelines de données. Collaborer avec les équipes DevOps pour l’implémentation de CI/CD pipelines en utilisant Azure DevOps. Assurer la qualité et l’intégrité des données tout au long du processus ELT. Compétences techniques requises : Expérience : Minimum 5 ans sur des projets de DWH et DataMarts. Expertise avancée en Snowflake et procédures stockées. Maîtrise de l’intégration et de l’automatisation via Azure DevOps CI/CD. Expérience confirmée avec les données SAP, en particulier sur la compréhension des structures de tables SAP et leur transformation. Soft Skills : Résolution de problèmes : Capacité analytique avancée pour identifier et résoudre des problèmes complexes de gestion de données. Communication et collaboration : Capacité à travailler en étroite collaboration avec les équipes Finance, IT et DevOps pour garantir l'alignement des solutions techniques avec les besoins métier. Expérience en méthodologie Agile/Scrum, Si vous êtes actuellement à l'écoute du marché, je vous invite à m'envoyer votre candidature. Bien à vous, Nadia

Démarrage Dès que possible
Durée 2 ans
Salaire 40k-75k €⁄an
TJM 400-650 €⁄j
Télétravail Télétravail partiel
Lieu La Défense, Île-de-France
CDI
Freelance

Data Engineer Python - pipelines d'orchestration de modèles ML

VISIAN

Contexte : Nous recherchons un(e) développeur(se) Python passionné(e) pour rejoindre une équipe spécialisée dans la création de pipelines d'orchestration de modèles ML (préparation de features, entraînement, tuning et inférence). Ces pipelines permettent aux Quants & Data Scientists d’ industrialiser l’utilisation des modèles de Machine Learning pour la prévision de la consommation et de la production d’énergie. Missions : Concevoir et développer des pipelines de données pour le cycle de vie des modèles ML. Collaborer avec les Quants et Data Scientists pour résoudre les problématiques liées aux modèles de Machine Learning. Optimiser les processus d’entraînement et de déploiement des modèles. Contribuer à l’amélioration de la plateforme dédiée au forecasting en exploitant l’IA et le Big Data.

Démarrage Dès que possible
Durée 1 an
Salaire 10k-45k €⁄an
TJM 100-550 €⁄j
Télétravail Télétravail partiel
Lieu Île-de-France, France
Freelance

data engineer senior python aws

Gentis Recruitment SAS

data engineer senior - freelance - paris secteur énergie: il faut intervenir sur des applications d'aide à la décision pour les commerciaux / traders plus de détails en privé voici la stack : python V3 (expert) , scala AWS git, docker, KS8 notion big data, notion data management system -- data engineer senior - freelance - paris secteur énergie: il faut intervenir sur des applications d'aide à la décision pour les commerciaux / traders plus de détails en privé voici la stack : python V3 (expert) , scala AWS git, docker, KS8 notion big data, notion data management system

Démarrage Dès que possible
Durée 2 ans
TJM 400-550 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

DATA ENGINEER SEMARCHY F/H | DIJON (21)

HIGHTEAM GRAND SUD

VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client en qualité de Data Engineer Semarchy F/H et serez en charge de : Participer à la configuration de la plateforme selon les besoins métier. Concevoir et optimiser des modèles de données et des workflows d’intégration. Rédiger des spécifications techniques et fonctionnelles. Développer et exécuter des requêtes SQL avancées. Gérer les bases de données Vertica et assurer leur performance. Assurer la qualité des données et leur conformité aux standards en vigueur. Former et accompagner les utilisateurs. Environnement Technique : Semarchy / Stambia, Vertica, SQL Le poste est basé à Dijon (21) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 1 jour de télétravail par semaine après votre période d'intégration.

Démarrage Dès que possible
Durée 3 ans
Salaire 10k-48k €⁄an
TJM 100-460 €⁄j
Lieu Dijon, Bourgogne-Franche-Comté
Freelance
CDI

Senior Data Engineer Snowflake

KLETA

Missions Principales - en tant que Senior Data Engineer Snowflake , vous jouerez un rôle clé dans : ✅ La conception, la construction et la maintenance d’un Data Warehouse (DWH) et de DataMarts à partir de données financières. ✅ L’optimisation et le développement de requêtes SQL complexes et de procédures stockées dans Snowflake . ✅ L’exploitation des données SAP , en comprenant ses structures de tables et en assurant un mapping précis et performant. ✅ L’orchestration des pipelines de données à l’aide d’ Azure Data Factory . ✅ La mise en place de CI/CD avec Azure DevOps en collaboration avec les équipes DevOps. ✅ Le contrôle et l’amélioration continue de la qualité et de l’intégrité des données tout au long du processus ELT .

Démarrage Dès que possible
Durée 3 ans
Télétravail Télétravail partiel
Lieu Paris, France
CDI

Data Engineer Senior (GCP, BigQuery, DBT, Airflow)-ASAP

Twenty One Talents

ous interviendrez au sein de l’équipe Data Pilotage, composée d’un Product Owner et d’un ingénieur data. Votre mission portera sur l’évolution, l’industrialisation et le support de la plateforme Data4All , solution centrale d’accès aux données transverses. Vos principales responsabilités : Construction et amélioration des pipelines de traitement : Création d’indicateurs, transformation des données, gestion de la volumétrie et des coûts sur GCP Modélisation et exposition des données : Développement de modèles de données optimisés, intégration depuis la zone silver, exposition vers Data4All Industrialisation & optimisation : Mise en place CI/CD, intégration Terraform/Terragrunt, performances des environnements Data4All Collaboration active : Participation aux ateliers de cadrage, veille technique, accompagnement des utilisateurs internes

Démarrage Dès que possible
Salaire 40k-60k €⁄an
Lieu Paris, Île-de-France
Freelance

Data Engineer Snowflake

SILKHOM

·Vous développez et faites évoluer un Data Warehouse ainsi que des DataMarts en lien avec des données financières. ·Vous concevez et optimisez des requêtes SQL complexes ainsi que des procédures stockées sur Snowflake pour garantir des performances optimales. ·Vous étudirez la structure des tables SAP afin de comprendre et transformer les données avec précision tout en assurant un mapping efficace. Pourquoi rejoindre cette mission ? ·Construction et déploiement de A à Z d’un Data Warehouse et de DataMarts ·Environnement Technique récent : CI/CD, Snowflake, Azure DevOps … ·Flexibilité et autonomie : Une mission ajustable à vos compétences et un télétravail partiel (2 jours/semaine) possible.

Démarrage Dès que possible
Durée 6 mois
TJM 400-500 €⁄j
Télétravail Télétravail partiel
Lieu Courbevoie, Île-de-France
CDI
Freelance

Data engineer

Mon Consultant Indépendant

Nous sommes à la recherche d'un(e) Data Engineer pour intégrer l'équipe de notre client et participer à la maintenance ainsi qu'au développement de nouveaux besoins métiers. En tant que Data Engineer, vous serez un élément clé de l'équipe, collaborant avec divers départements pour garantir la qualité et l'efficience des solutions de traitement de données de notre client. Responsabilités : - Assurer la maintenance et l'optimisation continue des pipelines de traitement de données existants. - Développer de nouvelles solutions pour répondre aux besoins métiers émergents. - Collaborer avec les équipes de Data Science et de Business Intelligence pour transformer des données brutes en informations exploitables. - Superviser et gérer les clusters Hadoop et java Spark. - Appliquer les meilleures pratiques pour l'architecture et la mise en œuvre des solutions de données. - Identifier et résoudre les problèmes de performance et de fiabilité des systèmes de données. Compétences techniques requises : - Solide maîtrise de Java. - Forte maîtrise de Spark. - Très bonne connaissance de l'écosystème Hadoop. - Expérience certaine en développement Hadoop MapReduce. Poste à pourvoir en freelance pour une durée de 12 mois renouvelable ou en CDI.

Démarrage
Durée 12 mois
Salaire 50k-60k €⁄an
TJM 400-500 €⁄j
Télétravail Télétravail partiel
Lieu Antibes, Provence-Alpes-Côte d'Azur
Freelance
CDI

Data Engineer Python / AWS

VISIAN

Missions : Développer des outils d’aide à la décision et de nouvelles architectures data. Collecter, ingérer, traiter et restituer les données (météo, fondamentales, etc.). Optimiser les coûts et les performances des solutions data. Gérer le cycle de développement, l’infrastructure et les mises en production (DevOps). Assurer la maintenance évolutive et le support technique. Accompagner les analystes et data scientists dans l’utilisation des outils. Animer des workshops et formations sur les technologies Big Data et AWS.

Démarrage Dès que possible
Durée 1 an
Salaire 10k-45k €⁄an
TJM 100-550 €⁄j
Télétravail Télétravail partiel
Lieu Île-de-France, France
Freelance
CDI

Data Engineer – Java / Python / PostgreSQL (H/F)

CELAD

Nous recherchons un Data Engineer pour accompagner un grand acteur du secteur immobilier dans un projet stratégique de structuration et d’optimisation de ses données patrimoniales. L’objectif est de centraliser, enrichir et exploiter ces données afin d’améliorer la prise de décision et d’optimiser la gestion de son patrimoine. Vos missions : - Développer des scripts de traitement de données en masse. - Concevoir et implémenter des appels d’API industrialisés. - Développer et optimiser des pipelines de données avec Apache Nifi. - Mettre en place des API et des solutions de restitution de données (Metabase ou équivalent). - Réaliser des analyses exploratoires pour optimiser l’exploitation des données.

Démarrage Dès que possible
Durée 6 mois
Télétravail Télétravail partiel
Lieu Issy-les-Moulineaux, Île-de-France
Freelance
CDI

Data Engineer confirmé (3 à 7 ans d’expérience)

Archytas Conseil

Dans le cadre d’un programme de transformation data au sein d’un acteur majeur du secteur de la distribution, nous recherchons un(e) Data Engineer expérimenté(e) pour renforcer les équipes d’une plateforme Data structurée autour d’une architecture « data-centric ». Cette plateforme vise à décloisonner les silos d’information et à fournir des données en temps réel via API à l’ensemble de l’écosystème métier et SI, dans une logique de convergence entre décisionnel et opérationnel. Vos responsabilités Intégré(e) à l’équipe data, vous serez chargé(e) de concevoir, développer et maintenir des pipelines de traitement de données à grande échelle, en environnement cloud. Vous interviendrez à la croisée des enjeux techniques et métiers, dans un environnement résolument agile et orienté performance. Missions principales développer et maintenir des flux de données batch et temps réel (BigQuery, BigTable, Apache Kafka, Apache Spark) concevoir des pipelines évolutifs et robustes en lien étroit avec les équipes techniques optimiser les processus d’acquisition, de transformation et de stockage des données assurer la haute disponibilité et les performances en production dans une démarche DevOps contribuer à la définition de l’architecture microservices et à l’amélioration continue rédiger et maintenir les tests unitaires et d’intégration produire des livrables de qualité et assurer un reporting clair et régulier proposer des pistes d’amélioration (refactoring, simplification, industrialisation) Compétences techniques requises langages : très bonne maîtrise de Java ; la connaissance de Scala est un atout apprécié, mais non bloquant traitement de flux et Big Data : bonne expérience avec Apache Kafka et Apache Spark cloud : expérience sur GCP (BigQuery, Dataproc, Kubernetes...) ou environnement cloud équivalent CI/CD : pratique de Git et des outils d’intégration/déploiement continus (GitLab CI/CD ou similaire) architecture & DevOps : bonne culture des microservices et des pratiques DevOps qualité logicielle : rigueur dans l’écriture de tests et dans le maintien de la qualité du code Soft skills attendus esprit d’équipe et capacité à collaborer dans un environnement distribué communication fluide, écrite comme orale sens de l’analyse et capacité à challenger l’existant avec bienveillance autonomie et proactivité dans la résolution de problèmes

Démarrage
Durée 12 mois
Salaire 10k-30k €⁄an
TJM 200-400 €⁄j
Télétravail Télétravail 100%
Lieu Casablanca, Casablanca-Settat, Maroc

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous