Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php

Mission freelance
Data Engineer GCP SSIS (Google Cloud Platform)
Je recherche pour un de mes clients un Data Engineer GCP ayant des connaissances sur SSIS afin d' accompagner ce dernier dans le RUN SSIS et la migration sur GCP. Vous intégrer une équipe Hyper sympa. Vous participerez à l’analyse et planification de la migration SQL Serveur (on prem) vers GCP Experience avec Data Form Expérience dans la mise en place de pipeline ETL et ELT Maitrise des langages SQL et Python travailler en équipe et excellente compétence en communication Connaissance de SQL serveur serait un plus Certification GCP est un plus Capacité au former et faire monter une équipe en compétence sur GCP

Offre d'emploi
Data Engineer GCP
Bonjour, Je vous envoie ce mail car dans le cadre d'une mission de longue durée pour notre client situé en à Paris, nous recherchons un Data Engineer GCP. Type de profils confirmé (> 5 ans d'expérience) Technologies GCP (expérience obligatoire sur ce cloud provider) Python (expérience obligatoire) Bonne maîtrise BigQuery (obligatoire) Bonne maîtrise Terraform Git (obligatoire) Dans le cas où vous êtes intéressé, pourriez-vous svp envoyer votre CV au format Word en indiquant votre disponibilité ainsi qu'une fourchette de vos prétentions salariales ou de votre tarification journalière si vous êtes indépendant ?

Mission freelance
Data Engineer GCP & Dbt
Nous recherchons pour le compte de notre client, une entreprise de premier plan reconnue pour son innovation et son excellence, un Lead Data Engineer expérimenté doté d’une expertise en environnement Google Cloud Platform ( GCP ). Ce rôle stratégique s’adresse à un professionnel qui saura combiner compétences techniques pointues et compréhension des enjeux métiers pour accompagner notre client dans l’exploitation et l’optimisation de ses données. Expertise en BigQuery Expérience solide avec Apache Airflow Expertise en Dbt Conaissance de la CICD Expertise en BigQuery Expérience avec Apache Airflow Utilisation de Cloud Run Connaissance de Terraform

Offre d'emploi
Data Engineer GCP
Nous recherchons un Data Engineer confirmé GCP pour intervenir sur des projets stratégiques liés à la gestion et au traitement des données massives en temps réel dans un environnement Cloud moderne. Vos missions : Mettre en œuvre des chaînes complètes de traitement des données : ingestion, validation, croisement et enrichissement des données. Automatiser la production et la mise à disposition d’agrégats journaliers, hebdomadaires et mensuels. Collaborer avec l’équipe Agile pour développer et documenter des user stories en lien avec le Product Owner. Concevoir des scripts de déploiement et prioriser les corrections d’anomalies. Automatiser les tests fonctionnels et participer à la mise en place de chaînes de livraison continue.

Mission freelance
Data Engineer GCP
Je recherche en ce moment un Data Engineer pour accompagner un de mes client sur différents projets autour de GCP Missions Conception et développement : Concevoir et développer des pipelines de données robustes et évolutifs sur GCP, en utilisant principalement BigQuery et Cloud Functions. Modéliser les données, optimiser les requêtes SQL et les schémas pour améliorer les performances. Mettre en place des solutions de monitoring et d'alerting pour assurer la disponibilité des traitements. Maintenance et évolution : Assurer la maintenance et l'évolution des pipelines existants. Identifier et résoudre les problèmes techniques. Mettre en œuvre de nouvelles fonctionnalités et améliorer les performances. Collaboration : Travailler en étroite collaboration avec les équipes métiers pour comprendre leurs besoins et leur fournir des solutions adaptées. Participer aux choix techniques et à l'amélioration continue des processus.
Offre d'emploi
Data engineer GCP - H/F
Description : • Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View

Offre d'emploi
Tech Lead Data Engineer GCP - End User
Vos responsabilités : Leadership et Management : Mentorer et guider une équipe de 4 personnes dans son développement professionnel. Animer et encadrer l'équipe data engineering dans un environnement Agile/DevOps, en alignement avec les priorités établies par le Responsable Data. Qualité et Livraison : Assurer la livraison des projets data en respectant les délais et les exigences. Effectuer des revues de code et agir en tant que référent technique pour GCP. Contrôler les réalisations des développeurs et ajuster les travaux si nécessaire. Architecture et Stratégie : Collaborer avec les architectes et experts pour définir et documenter l'architecture GCP la plus appropriée. Superviser et appliquer les stratégies d'alerte, de surveillance et de gestion des accès sur la plateforme data. Optimiser l'architecture existante pour garantir une performance maximale. Développement et Intégration : Concevoir des pipelines de données en s'appuyant sur les processus d'intégration existants, en respectant les meilleures pratiques (CI/CD, qualité du code, couverture des tests, etc.). Développer des fonctionnalités robustes et évolutives, de l'ingestion des données à la livraison des dashboards. Promouvoir et garantir un code de qualité, robuste, maintenable et évolutif. Qualité et Performance des Données : Assurer la qualité des données tout au long du pipeline. Définir et appliquer les meilleures pratiques en data engineering.

Mission freelance
Data Engineer GCP confirmé – Expertise Spark, Kafka, Scala – Secteur bancaire
Nous recherchons un Data Engineer confirmé pour intervenir sur des projets stratégiques liés à la gestion et au traitement des données massives dans un environnement Cloud moderne. Vos missions : Mettre en œuvre des chaînes complètes de traitement des données : ingestion, validation, croisement et enrichissement des données. Automatiser la production et la mise à disposition d’agrégats journaliers, hebdomadaires et mensuels. Collaborer avec l’équipe Agile pour développer et documenter des user stories en lien avec le Product Owner. Concevoir des scripts de déploiement et prioriser les corrections d’anomalies. Automatiser les tests fonctionnels et participer à la mise en place de chaînes de livraison continue.

Offre d'emploi
Data Engineer / GCP
Nous recherchons un Data Engineer pour rejoindre une équipe dynamique dans le secteur bancaire et participer à la mise en œuvre et à l’optimisation des chaînes de traitement des données. L’objectif principal est de récupérer, traiter et mettre à disposition des données enrichies, tout en exploitant la puissance d’un Data Lake. Vos principales missions : Mettre en œuvre les chaînes de traitement des données : ingestion, validation, croisement et intégration dans le Data Lake. Développer dans le respect des règles d’architecture définies. Documenter les user stories avec le Product Owner. Produire des scripts de déploiement et prioriser les corrections d’anomalies. Automatiser les tests fonctionnels et participer à la chaîne de delivery continue. Assister les équipes d’exploitation et collaborer en mode Scrum/Kanban. Compétences techniques indispensables : Plateforme et environnement GCP (Google Cloud Platform). Environnement GKE (Google Kubernetes Engine). Stockage : HDFS / GCS. Traitement : Maîtrise de Spark, Kafka, Scala. Planification : Airflow / Composer. DWH : SQL, BigQuery, BigTable. Delivery : Git, Ansible, Docker, Terraform, Jenkins / Cloud Build. Méthodologies : Scrum, Kanban, Git. Aspects humains recherchés : Capacité à travailler en équipe, en mode Agile (Scrum/Kanban). Excellentes compétences relationnelles et communicationnelles. Curiosité et sensibilité aux évolutions technologiques.

Offre d'emploi
Data Engineer GCP, Scala/Java Confirmé | Casabalanca 100% Remote
Nous recherchons un Data Engineer Confirmé (h/f) pour rejoindre les équipes Data d’un grand acteur du retail . L’objectif ? Concevoir, développer et maintenir des solutions de traitement de données à grande échelle dans un environnement 100% Cloud (GCP) et Full Remote . Tu évolueras dans un cadre stimulant où la data est au cœur des décisions stratégiques et où l’innovation technologique est une priorité ! Concevoir et développer des pipelines de données en Scala/Java et Spark Exploiter des outils GCP (BigQuery, BigTable, Dataproc) pour le stockage et le traitement des données Mettre en place des solutions de streaming en temps réel avec Kafka Travailler sur une architecture Data Centric , cassant les silos d’information pour fluidifier la gestion des données Assurer la qualité, la performance et la scalabilité des solutions Collaborer avec des équipes internationales et multidisciplinaires 🔧 Les technologies et outils que tu utiliseras : Cloud : GCP (BigQuery, BigTable, Dataproc, Cloud Storage) Développement : Scala, Java, SQL Big Data & Streaming : Spark, Kafka CI/CD & DevOps : Git, Kubernetes, GitLab CI/CD Méthodologies : Agile, Microservices

Offre d'emploi
Data Engineer MSBI & GCP (indispensable)
Contexte Intégrez la Direction de la Transformation au sein des Centres de Services Partagés (CSP) d’une grande organisation. Vous évoluerez dans une équipe dédiée au développement et à la maintenance de solutions IT couvrant une large gamme de technologies : développement applicatif, DevSecOps, intelligence artificielle, gestion documentaire, IoT, portails web et bien d'autres. Vous interviendrez au sein des départements Solutions Lab et Solutions Groupe , qui construisent et maintiennent les paliers techniques de composants logiciels. L’objectif est de fournir des solutions fiables, évolutives et répondant aux attentes métier. Missions Dans le cadre d’un projet BI pour la Direction Nucléaire, vos principales missions seront : Ateliers et chiffrage : Participer à la collecte des besoins utilisateurs et aux ateliers de définition des exigences métiers. Documentation : Produire la documentation des réalisations et études dans les outils collaboratifs de la plateforme DevOps (Cloud GCP ). Build et MCO : Contribuer au développement des applications BI et à leur maintenance en conditions opérationnelles. Démarche DevSecOps : Intégrer la qualité et la sécurité dans une démarche DevSecOps pour assurer des produits robustes et performants.

Offre d'emploi
Data Engineer DWH GCP
DÉBUT DE MISSION : ASAP DURÉE : 12 mois LIEU : Noisy-Le-Grand – Travail hybride CATÉGORIE TECHNIQUE : Systèmes (Infras, Cloud, DevOps, ...), Réseaux, Sécurité Nous recherchons pour l’un de nos clients grands comptes un Data Engineer DWH GCP expérimenté, pour contribuer à un projet de transformation IT ambitieux. Contexte du projet : Dans le cadre du programme de transformation IT, le département DATA mène un projet stratégique de migration du Data Warehouse France On-Premise (Oracle – PL/SQL) vers la Google Cloud Platform (Big Query). Ce projet inclut : L’utilisation de Dataform , Cloud Functions , et Cloud Run . La migration des données et processus existants, incluant un ETL développé en interne et certains programmes en Natural (éditeur SAG) . Vos missions principales : Participer à la migration du Data Warehouse vers Big Query sur GCP. Développer et optimiser des scripts en PL/SQL et Python pour les processus de transformation des données. Collaborer sur la conception et l’intégration des pipelines de données via les outils GCP. Analyser et réaliser des tests unitaires, d’intégration et de non-régression . Documenter les processus et assurer un transfert de compétences aux équipes. Participer activement aux rituels Agiles et utiliser Jira pour la gestion des tickets. Analyser les résultats des tests via des outils internes et ajuster les développements en conséquence. Créer et utiliser des scripts Linux KSH pour les opérations nécessaires. Profil recherché : Expérience : Minimum 8 ans dans un rôle similaire. Compétences techniques : Langages : PL/SQL (Confirmé), Python (Confirmé). Bases de données : Oracle et Big Query (Confirmé). Connaissance des outils GCP, y compris Dataform , Cloud Functions , Cloud Run . Familiarité avec des outils de Data Visualisation tels que Looker , SAP BO , ou Spotfire . Expérience en tests logiciels et outils de ticketing comme Jira . Bonne connaissance des environnements Linux et scripting KSH . Qualités personnelles : Capacité à travailler en équipe et dans un environnement Agile. Sens de l’analyse et autonomie dans l’exécution des tâches. Adaptabilité et capacité à gérer des environnements techniques complexes.

Offre d'emploi
Data Engineer DWH GCP H/F
Nous recherchons pour l’un de nos clients grands compte un "Data Engineer DWH GCP H/F". Contexte du projet : Dans le cadre du programme de transformation IT, le département DATA mène un projet d’envergure pour migrer le DataWareHouse France On-Premise (Oracle – PL/SQL), accompagné d’un ETL développé en interne, avec parfois des programmes en langage Natural (éditeur SAG) vers la Google Cloud Plateforme : Big Query en utilisant Dataform, Cloud functions, Cloud Run. Profil Vous justifiez d’une expérience professionnelle similaire minimum de 8 ans, et maîtrisez les environnements suivants : Expérience confirmée des langages PL/SQL et Python requise Maîtrise des systèmes de bases de données Oracle et Big Query Connaissance souhaitée des outils de Data Visualisation de type Looker/SAP BO ou Spotfire Réalisation de projets similaires en méthodologie Agile impérative Connaissance de l’outil de ticketing Jira Réalisation de Tests (Unitaires, d’Intégration et de non régression) Analyse des résultats des tests via un outil interne Connaissance Linux, via des scripts KSH Travail en équipe Adaptation facile
Offre d'emploi
Data Engineer Python GCP SQL
Nous recherchons pour le compte de notre client un profil + de 5ans d'expérience pour le poste Data Engineer, idéalement un profil avec une expérience dans le retail, industrie, grande distribution. Missions : - concevoir, développer, faire évoluer des systèmes de traitement et d’exposition de données robustes et scalables pour industrialiser nos solutions qui comprennent des algorithmes de machine learning, et de recherche opérationnelle - être au choix des bons outils et schémas architecturaux afin d’améliorer la performance des systèmes et de faciliter leur suivi et maintenance, dans une démarche cloud-first - contribuer de manière itérative aux projets, conduire des revues de code Environnement technique : Python, SQL, Docker, Kubernetes, Terraform, Git, Airflow, GCP

Mission freelance
Data Engineer GCP/Cloud
Offre d'emploi : Data Engineer GCP/Cloud Entité : SI finance , Plateforme Finance & Risques, produit Sécurité financière Lieu : Saint Herblain (Nantes) - 2 jours/semaine sur site et 3 jours/semaine en télétravail Date de démarrage : Dès que possible / début février Nationalité et langues parlées : Aucune exigence, pas d'anglais requis Durée de la mission : Minimum 6 mois, possibilité d'extension jusqu'à 1 an Mission : Vous travaillerez sur un projet de développement d'un nouveau moteur de détection (data prep + moteur) sous Google Cloud Platform (GCP). Votre rôle principal sera de contribuer à la mise en place de solutions de détection pour des sujets liés à la fraude. Profil recherché : Expérience : Minimum 8 ans en tant que Data Engineer, idéalement plus de 10 ans Compétences techniques : Expertise en GCP, Cloud, ETL Compétences humaines : Professionnalisme, excellente posture, autonomie, profil très expérimenté Processus de recrutement en 2 étapes : Entretien softskills Entretien avec le client Si vous êtes passionné par les défis techniques et souhaitez rejoindre une équipe dynamique, n'hésitez pas à postuler !

Mission freelance
Architecte Solutions H/F _ Niort
Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : Un Architecte Solution (F/H) sur Niort. Votre mission: - Construire et maintenir les normes et les principes d'architecture du SI - Analyser les impacts des nouvelles solutions sur le SI, - Proposer des évolutions pour les différentes applications Métier - Proposer des évolutions pour les composants technologiques de l'architecture du SI en tenant compte des différents modèles de services. - Fournir la documentation requise et mettre à jour les référentiels de l’entreprise - Élaborer des recommandations pour pouvoir intégrer en toute sécurité de nouvelles solutions SI au sein de l’entreprise et en assurer la garantie de service (disponibilité, intégrité, continuité et preuve). - Anticiper les besoins d'évolutions du SI et proposer/présenter les solutions Animer des présentations sur les choix d'architecture - Instruire les évolutions du SI pour lever les obsolescences et garantir le MCO.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.