Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 770 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Data Engineer GCP SSIS (Google Cloud Platform)

BEEZEN
Publiée le
Google Cloud Platform
Microsoft SSIS
Python

6 mois
400-550 €
Paris, France

Je recherche pour un de mes clients un Data Engineer GCP ayant des connaissances sur SSIS afin d' accompagner ce dernier dans le RUN SSIS et la migration sur GCP. Vous intégrer une équipe Hyper sympa. Vous participerez à l’analyse et planification de la migration SQL Serveur (on prem) vers GCP Experience avec Data Form Expérience dans la mise en place de pipeline ETL et ELT Maitrise des langages SQL et Python travailler en équipe et excellente compétence en communication Connaissance de SQL serveur serait un plus Certification GCP est un plus Capacité au former et faire monter une équipe en compétence sur GCP

Freelance
CDI

Offre d'emploi
Data Engineer MSBI & GCP (indispensable)

4 Impact
Publiée le
Google Cloud Platform
Microsoft Power BI
MSBI

12 mois
45k-55k €
400-450 €
Hauts-de-Seine, France

Contexte Intégrez la Direction de la Transformation au sein des Centres de Services Partagés (CSP) d’une grande organisation. Vous évoluerez dans une équipe dédiée au développement et à la maintenance de solutions IT couvrant une large gamme de technologies : développement applicatif, DevSecOps, intelligence artificielle, gestion documentaire, IoT, portails web et bien d'autres. Vous interviendrez au sein des départements Solutions Lab et Solutions Groupe , qui construisent et maintiennent les paliers techniques de composants logiciels. L’objectif est de fournir des solutions fiables, évolutives et répondant aux attentes métier. Missions Dans le cadre d’un projet BI pour la Direction Nucléaire, vos principales missions seront : Ateliers et chiffrage : Participer à la collecte des besoins utilisateurs et aux ateliers de définition des exigences métiers. Documentation : Produire la documentation des réalisations et études dans les outils collaboratifs de la plateforme DevOps (Cloud GCP ). Build et MCO : Contribuer au développement des applications BI et à leur maintenance en conditions opérationnelles. Démarche DevSecOps : Intégrer la qualité et la sécurité dans une démarche DevSecOps pour assurer des produits robustes et performants.

Freelance
CDI
CDD

Offre d'emploi
Data Engineer GCP

SARIEL
Publiée le
Git
Google Cloud Platform
Python

12 mois
40k-70k €
400-600 €
Paris, France

Bonjour, Je vous envoie ce mail car dans le cadre d'une mission de longue durée pour notre client situé en à Paris, nous recherchons un Data Engineer GCP. Type de profils confirmé (> 5 ans d'expérience) Technologies GCP (expérience obligatoire sur ce cloud provider) Python (expérience obligatoire) Bonne maîtrise BigQuery (obligatoire) Bonne maîtrise Terraform Git (obligatoire) Dans le cas où vous êtes intéressé, pourriez-vous svp envoyer votre CV au format Word en indiquant votre disponibilité ainsi qu'une fourchette de vos prétentions salariales ou de votre tarification journalière si vous êtes indépendant ?

Freelance

Mission freelance
Data Engineer GCP & Dbt

IDEMYS
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform

1 an
Île-de-France, France

Nous recherchons pour le compte de notre client, une entreprise de premier plan reconnue pour son innovation et son excellence, un Lead Data Engineer expérimenté doté d’une expertise en environnement Google Cloud Platform ( GCP ). Ce rôle stratégique s’adresse à un professionnel qui saura combiner compétences techniques pointues et compréhension des enjeux métiers pour accompagner notre client dans l’exploitation et l’optimisation de ses données. Expertise en BigQuery Expérience solide avec Apache Airflow Expertise en Dbt Conaissance de la CICD Expertise en BigQuery Expérience avec Apache Airflow Utilisation de Cloud Run Connaissance de Terraform

Freelance
CDI

Offre d'emploi
Data Engineer GCP

CAT-AMANIA
Publiée le
Apache Airflow
Google Cloud Platform

3 ans
Île-de-France, France

Nous recherchons un Data Engineer confirmé GCP pour intervenir sur des projets stratégiques liés à la gestion et au traitement des données massives en temps réel dans un environnement Cloud moderne. Vos missions : Mettre en œuvre des chaînes complètes de traitement des données : ingestion, validation, croisement et enrichissement des données. Automatiser la production et la mise à disposition d’agrégats journaliers, hebdomadaires et mensuels. Collaborer avec l’équipe Agile pour développer et documenter des user stories en lien avec le Product Owner. Concevoir des scripts de déploiement et prioriser les corrections d’anomalies. Automatiser les tests fonctionnels et participer à la mise en place de chaînes de livraison continue.

Freelance

Mission freelance
Data Engineer GCP

Enterprise Digital Resources Ltd
Publiée le
Data analysis
Google Cloud Platform

1 an
100-550 €
Lille, Hauts-de-France

Je recherche en ce moment un Data Engineer pour accompagner un de mes client sur différents projets autour de GCP Missions Conception et développement : Concevoir et développer des pipelines de données robustes et évolutifs sur GCP, en utilisant principalement BigQuery et Cloud Functions. Modéliser les données, optimiser les requêtes SQL et les schémas pour améliorer les performances. Mettre en place des solutions de monitoring et d'alerting pour assurer la disponibilité des traitements. Maintenance et évolution : Assurer la maintenance et l'évolution des pipelines existants. Identifier et résoudre les problèmes techniques. Mettre en œuvre de nouvelles fonctionnalités et améliorer les performances. Collaboration : Travailler en étroite collaboration avec les équipes métiers pour comprendre leurs besoins et leur fournir des solutions adaptées. Participer aux choix techniques et à l'amélioration continue des processus.

Freelance
CDD

Offre d'emploi
Data Engineer DWH GCP

Espritek
Publiée le
BigQuery
Google Cloud Platform
Oracle

12 mois
65k €
450 €
Noisy-le-Grand, Île-de-France

DÉBUT DE MISSION : ASAP DURÉE : 12 mois LIEU : Noisy-Le-Grand – Travail hybride CATÉGORIE TECHNIQUE : Systèmes (Infras, Cloud, DevOps, ...), Réseaux, Sécurité Nous recherchons pour l’un de nos clients grands comptes un Data Engineer DWH GCP expérimenté, pour contribuer à un projet de transformation IT ambitieux. Contexte du projet : Dans le cadre du programme de transformation IT, le département DATA mène un projet stratégique de migration du Data Warehouse France On-Premise (Oracle – PL/SQL) vers la Google Cloud Platform (Big Query). Ce projet inclut : L’utilisation de Dataform , Cloud Functions , et Cloud Run . La migration des données et processus existants, incluant un ETL développé en interne et certains programmes en Natural (éditeur SAG) . Vos missions principales : Participer à la migration du Data Warehouse vers Big Query sur GCP. Développer et optimiser des scripts en PL/SQL et Python pour les processus de transformation des données. Collaborer sur la conception et l’intégration des pipelines de données via les outils GCP. Analyser et réaliser des tests unitaires, d’intégration et de non-régression . Documenter les processus et assurer un transfert de compétences aux équipes. Participer activement aux rituels Agiles et utiliser Jira pour la gestion des tickets. Analyser les résultats des tests via des outils internes et ajuster les développements en conséquence. Créer et utiliser des scripts Linux KSH pour les opérations nécessaires. Profil recherché : Expérience : Minimum 8 ans dans un rôle similaire. Compétences techniques : Langages : PL/SQL (Confirmé), Python (Confirmé). Bases de données : Oracle et Big Query (Confirmé). Connaissance des outils GCP, y compris Dataform , Cloud Functions , Cloud Run . Familiarité avec des outils de Data Visualisation tels que Looker , SAP BO , ou Spotfire . Expérience en tests logiciels et outils de ticketing comme Jira . Bonne connaissance des environnements Linux et scripting KSH . Qualités personnelles : Capacité à travailler en équipe et dans un environnement Agile. Sens de l’analyse et autonomie dans l’exécution des tâches. Adaptabilité et capacité à gérer des environnements techniques complexes.

Freelance
CDI

Offre d'emploi
Data engineer GCP - H/F

Proxiad
Publiée le
Google Cloud Platform
HDFS (Hadoop Distributed File System)

3 ans
Île-de-France, France

Description : • Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View

Freelance
CDI

Offre d'emploi
Data Engineer DWH GCP H/F

SPIE ICS
Publiée le
Cloud
JIRA
PL/SQL

12 mois
40k-60k €
400-550 €
Noisy-le-Grand, Île-de-France

Nous recherchons pour l’un de nos clients grands compte un "Data Engineer DWH GCP H/F". Contexte du projet : Dans le cadre du programme de transformation IT, le département DATA mène un projet d’envergure pour migrer le DataWareHouse France On-Premise (Oracle – PL/SQL), accompagné d’un ETL développé en interne, avec parfois des programmes en langage Natural (éditeur SAG) vers la Google Cloud Plateforme : Big Query en utilisant Dataform, Cloud functions, Cloud Run. Profil Vous justifiez d’une expérience professionnelle similaire minimum de 8 ans, et maîtrisez les environnements suivants : Expérience confirmée des langages PL/SQL et Python requise Maîtrise des systèmes de bases de données Oracle et Big Query Connaissance souhaitée des outils de Data Visualisation de type Looker/SAP BO ou Spotfire Réalisation de projets similaires en méthodologie Agile impérative Connaissance de l’outil de ticketing Jira Réalisation de Tests (Unitaires, d’Intégration et de non régression) Analyse des résultats des tests via un outil interne Connaissance Linux, via des scripts KSH Travail en équipe Adaptation facile

CDI
Freelance

Offre d'emploi
Data Engineer / GCP

Amontech
Publiée le
Oracle SQL Developer

1 an
40k-56k €
400-500 €
Île-de-France, France

Nous recherchons un Data Engineer pour rejoindre une équipe dynamique dans le secteur bancaire et participer à la mise en œuvre et à l’optimisation des chaînes de traitement des données. L’objectif principal est de récupérer, traiter et mettre à disposition des données enrichies, tout en exploitant la puissance d’un Data Lake. Vos principales missions : Mettre en œuvre les chaînes de traitement des données : ingestion, validation, croisement et intégration dans le Data Lake. Développer dans le respect des règles d’architecture définies. Documenter les user stories avec le Product Owner. Produire des scripts de déploiement et prioriser les corrections d’anomalies. Automatiser les tests fonctionnels et participer à la chaîne de delivery continue. Assister les équipes d’exploitation et collaborer en mode Scrum/Kanban. Compétences techniques indispensables : Plateforme et environnement GCP (Google Cloud Platform). Environnement GKE (Google Kubernetes Engine). Stockage : HDFS / GCS. Traitement : Maîtrise de Spark, Kafka, Scala. Planification : Airflow / Composer. DWH : SQL, BigQuery, BigTable. Delivery : Git, Ansible, Docker, Terraform, Jenkins / Cloud Build. Méthodologies : Scrum, Kanban, Git. Aspects humains recherchés : Capacité à travailler en équipe, en mode Agile (Scrum/Kanban). Excellentes compétences relationnelles et communicationnelles. Curiosité et sensibilité aux évolutions technologiques.

Freelance

Mission freelance
Data Engineer GCP confirmé – Expertise Spark, Kafka, Scala – Secteur bancaire

CAT-AMANIA
Publiée le
Apache Kafka
Google Cloud Platform
SQL

1 an
400-450 €
Île-de-France, France

Nous recherchons un Data Engineer confirmé pour intervenir sur des projets stratégiques liés à la gestion et au traitement des données massives dans un environnement Cloud moderne. Vos missions : Mettre en œuvre des chaînes complètes de traitement des données : ingestion, validation, croisement et enrichissement des données. Automatiser la production et la mise à disposition d’agrégats journaliers, hebdomadaires et mensuels. Collaborer avec l’équipe Agile pour développer et documenter des user stories en lien avec le Product Owner. Concevoir des scripts de déploiement et prioriser les corrections d’anomalies. Automatiser les tests fonctionnels et participer à la mise en place de chaînes de livraison continue.

CDI
Freelance

Offre d'emploi
Data Engineer Python GCP SQL

GRADIANT
Publiée le
Google Cloud Platform
Python

1 an
10k-59k €
100-520 €
Île-de-France, France

Nous recherchons pour le compte de notre client un profil + de 5ans d'expérience pour le poste Data Engineer, idéalement un profil avec une expérience dans le retail, industrie, grande distribution. Missions : - concevoir, développer, faire évoluer des systèmes de traitement et d’exposition de données robustes et scalables pour industrialiser nos solutions qui comprennent des algorithmes de machine learning, et de recherche opérationnelle - être au choix des bons outils et schémas architecturaux afin d’améliorer la performance des systèmes et de faciliter leur suivi et maintenance, dans une démarche cloud-first - contribuer de manière itérative aux projets, conduire des revues de code Environnement technique : Python, SQL, Docker, Kubernetes, Terraform, Git, Airflow, GCP

CDI

Offre d'emploi
Tech Lead Data Engineer GCP - End User

Tenth Revolution Group
Publiée le

0 €
Paris, Île-de-France

Vos responsabilités : Leadership et Management : Mentorer et guider une équipe de 4 personnes dans son développement professionnel. Animer et encadrer l'équipe data engineering dans un environnement Agile/DevOps, en alignement avec les priorités établies par le Responsable Data. Qualité et Livraison : Assurer la livraison des projets data en respectant les délais et les exigences. Effectuer des revues de code et agir en tant que référent technique pour GCP. Contrôler les réalisations des développeurs et ajuster les travaux si nécessaire. Architecture et Stratégie : Collaborer avec les architectes et experts pour définir et documenter l'architecture GCP la plus appropriée. Superviser et appliquer les stratégies d'alerte, de surveillance et de gestion des accès sur la plateforme data. Optimiser l'architecture existante pour garantir une performance maximale. Développement et Intégration : Concevoir des pipelines de données en s'appuyant sur les processus d'intégration existants, en respectant les meilleures pratiques (CI/CD, qualité du code, couverture des tests, etc.). Développer des fonctionnalités robustes et évolutives, de l'ingestion des données à la livraison des dashboards. Promouvoir et garantir un code de qualité, robuste, maintenable et évolutif. Qualité et Performance des Données : Assurer la qualité des données tout au long du pipeline. Définir et appliquer les meilleures pratiques en data engineering.

Offre premium
Freelance

Mission freelance
Développeur full stack sénior Java / Vuejs

CONSULT IT
Publiée le
BigQuery
Google Cloud Platform
J2EE / Java EE

3 ans
510 €
Hauts-de-France, France

Nous sommes à la recherche d'un développeur expert Java (backend) / vueJS (frontend) pour notre client retail à Lille. Le consultant sera en charge de: Réaliser du Build et du Run sur des produits digitaux comprenant des API, du front-end et du back-end. Travailler en mode agile avec l'équipe de développement, le PO, les OPS et les équipes transverses. Livrer et commiter du code source tout en étant garant de sa qualité. Rédiger la documentation nécessaire pour faciliter la compréhension de son code. Effectuer des revues de code avec les autres développeurs. Suivre des formations pour améliorer ses compétences en sécurité au sein de son code. Réaliser, en collaboration avec l'équipe OPS, des tâches d'observabilité.

Offre premium
Freelance

Mission freelance
Développeur senior backend Node

DEV AND CONNECT
Publiée le
Cloud
Node.js

6 mois
400-550 €
Paris, France

👉 Contexte : Nous recherchons un Développeur Back-End Node.js senior et polyvalent pour rejoindre les équipes de notre client e-commerce. Vous participerez au développement, à l'optimisation et à la maintenance des applications et services. Vous pourriez être amené à travailler sur le front end, l'amélioration de la CI CD, l'observabilité, le monitoring ou encore le déploiement (selon votre profil et vos appétences). Concevoir et développer des APIs performantes et scalables en Node.js. Assurer la maintenance évolutive des systèmes existants et la gestion des mises à jour. Maintenir et optimiser des pipelines CI/CD pour garantir une livraison continue. Travailler avec les équipes DevOps pour assurer des déploiements sans interruption et garantir la haute disponibilité des services. Mettre en place des alertes et analyser les performances pour identifier et résoudre les problèmes avant qu’ils n'affectent les utilisateurs. Analyser et optimiser les performances des applications en termes de latence et de scalabilité.

Offre premium
Freelance

Mission freelance
Data engineer Sénior

CONSULT IT
Publiée le
Apache Airflow
Apache Kafka
BigQuery

2 ans
500 €
Lille, Hauts-de-France

Nous sommes à la recherche d'un data engineer sénior pour une mission longue durée pour un client de grand compte dans le secteur de la grande distribution. Contexte et missions : Conception et optimisation de pipelines de données sur GCP (BigQuery, Cloud Functions). Modélisation des données et optimisation des requêtes SQL. Mise en place de solutions de monitoring et maintenance des pipelines. Encadrement d'une petite équipe et collaboration avec les équipes métiers. Compétences requises : Maîtrise de GCP, SQL, Python. Connaissances Kafka, Airflow/Composer. Sens de la qualité des données et de la sécurité. Plus de 5 ans d'expérience autant que data engineer Connaissance Data Studio, Looker

770 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous