Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php

Mission freelance
Lead Data Engineer GCP
RESPONSABILITÉS CLÉS Garantir l'harmonisation de l'architecture et le support technique Être responsable de l'architecture technique du produit de données Assurer l'alignement avec les directives d'architecture et être le relais avec les équipes d'architecture Veiller à ce que la construction du produit soit conforme aux principes de données Résoudre les problèmes techniques et partager les meilleures pratiques de codage Diffuser les directives technologiques du groupe et les bonnes pratiques au sein de l'équipe Partager avec les équipes de développement et assurer l'amélioration continue (rétrospectives) Garantir la qualité de service pour chaque produit et respecter les SLA Responsable de la documentation technique, des revues de code et de toutes les pratiques techniques Accompagner le PO et assurer la qualité de service Responsable de la qualité de service et des SLA Aider le PO dans la phase de découverte de solution/produit Veiller à des documents clairs pour l'auto-service Référent technique au sein de son équipe Responsable de diffuser la vision technique Data au sein de son équipe Responsable de la qualité du développement au sein de son équipe Responsable des revues de code et de l'amélioration continue du produit qu'il gère Responsable des demandes de fusion (merge request) au sein de son équipe (Github) Gérer les affinements ad-hoc Maintenir la relation avec les sources de données Garantir la connaissance opérationnelle des données Enregistrer et suivre la dette technique avec l'équipe d'architecture

Offre d'emploi
DATA Engineer GCP (H-F)
o Construire et maintenir de pipelines data robustes et scalables o Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données o Organiser et structurer le stockage des données o Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l'accroissement rapide du volume de données o Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l'intégrité des données o Construire et maintenir les workflows de la CI/CD centrés données o Collaborer avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur o Participer à la guilde des data ingénieurs o Assurer l'évolutivité, la sécurité, la stabilité des environnements o Contribuer et veiller à la mise à jour de la documentation o Faire de la veille technologique active dans le domaine o Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe
Mission freelance
Senior Data Engineer GCP - JAVA
Vos principales missions Contribuer à la migration de l’environnement Hadoop / Spark vers le cloud GCP Participer au développement et à l’optimisation des traitements Big Data Concevoir et maintenir des pipelines de données performants et scalables Mettre en place des architectures serverless et clusterisées sur GCP (DataProc, BigQuery, GSC) Assurer la qualité et la robustesse des solutions déployées Accompagner et coacher les équipes internes sur les bonnes pratiques Cloud et Big Data

Mission freelance
Data Engineer GCP & JAVA
Nous recherchons pour notre client, une entreprise de premier plan, un Data Engineer expérimenté avec une expertise en Cloud, de préférence sur Google Cloud Platform (GCP). Le candidat devra être autonome tout au long de la mission Maîtrise de Java, Spring Boot, et Maven Expertise en BigQuery Expérience solide avec Apache Airflow Connaissance approfondie du SQL Maîtrise de Dataflow Expertise en BigQuery Expérience avec Apache Airflow Utilisation de Cloud Run Connaissance de Terraform Connaissance de Dataform ou DBT

Offre d'emploi
DATA ENGINEER GCP SPARK SCALA
Nous recherchons un data engineer GCP Spark/Scala avec pour missions principales : Collecter des données provenant de diverses sources externes. Exploiter les capacités du Datalake sur GCP. Implémenter l’ensemble du processus incluant : L’ingestion des données, La validation des données, Le croisement des données, L’intégration des données enrichies dans le Datalake. Développer en respectant les principes d’architecture définis. Rédiger et documenter les user stories en collaboration avec le Product Owner. Rédiger les scripts nécessaires au déploiement. Identifier et prioriser la correction des anomalies. Assister les équipes en charge de l’exploitation. Contribuer à la mise en place d’une chaîne de livraison continue. Automatiser les tests fonctionnels. Encadrer et superviser le travail des data engineers de la squad.

Offre d'emploi
Data Engineer GCP
Bonjour, Je vous envoie ce mail car dans le cadre d'une mission de longue durée pour notre client situé en à Paris, nous recherchons un Data Engineer GCP. Type de profils confirmé (> 5 ans d'expérience) Technologies GCP (expérience obligatoire sur ce cloud provider) Python (expérience obligatoire) Bonne maîtrise BigQuery (obligatoire) Bonne maîtrise Terraform Git (obligatoire) Dans le cas où vous êtes intéressé, pourriez-vous svp envoyer votre CV au format Word en indiquant votre disponibilité ainsi qu'une fourchette de vos prétentions salariales ou de votre tarification journalière si vous êtes indépendant ?

Offre d'emploi
Data Engineer GCP
Nous recherchons un Data Engineer confirmé GCP pour intervenir sur des projets stratégiques liés à la gestion et au traitement des données massives en temps réel dans un environnement Cloud moderne. Vos missions : Mettre en œuvre des chaînes complètes de traitement des données : ingestion, validation, croisement et enrichissement des données. Automatiser la production et la mise à disposition d’agrégats journaliers, hebdomadaires et mensuels. Collaborer avec l’équipe Agile pour développer et documenter des user stories en lien avec le Product Owner. Concevoir des scripts de déploiement et prioriser les corrections d’anomalies. Automatiser les tests fonctionnels et participer à la mise en place de chaînes de livraison continue.

Mission freelance
Data Engineer (GCP/ Bigquery) F/H
Nous sommes à la recherche d'un profil Data Engineer pour participer aux opérations de build sur les environnements Big Data basées sur Google Cloud. Ses principales missions seront les suivantes : - Concevoir et développer les futures fonctionnalités de la plateforme Data sous Google Cloud Platform. - Expérience significative dans l'utilisation des systèmes cloud GCP et de ses services : big querry, stockage cloud google, fonction cloud google... - Expérience avec les processus de transformation les données et une connaissance du langage Python et de l’ordonnanceur Airflow - Experience souhaitée sur des projets DATA et leurs implémentations - Excellentes connaissances du SQL et des grands principes de modèle de données - Capacité d'analyse de spécifications fonctionnelles pour les traduire en conception technique. - Travailler en étroite collaboration avec l'équipe actuelle de Data Engineer, Data Scientist et les équipes métiers.

Offre d'emploi
Data Engineer / GCP
Nous recherchons un Data Engineer pour rejoindre une équipe dynamique dans le secteur bancaire et participer à la mise en œuvre et à l’optimisation des chaînes de traitement des données. L’objectif principal est de récupérer, traiter et mettre à disposition des données enrichies, tout en exploitant la puissance d’un Data Lake. Vos principales missions : Mettre en œuvre les chaînes de traitement des données : ingestion, validation, croisement et intégration dans le Data Lake. Développer dans le respect des règles d’architecture définies. Documenter les user stories avec le Product Owner. Produire des scripts de déploiement et prioriser les corrections d’anomalies. Automatiser les tests fonctionnels et participer à la chaîne de delivery continue. Assister les équipes d’exploitation et collaborer en mode Scrum/Kanban. Compétences techniques indispensables : Plateforme et environnement GCP (Google Cloud Platform). Environnement GKE (Google Kubernetes Engine). Stockage : HDFS / GCS. Traitement : Maîtrise de Spark, Kafka, Scala. Planification : Airflow / Composer. DWH : SQL, BigQuery, BigTable. Delivery : Git, Ansible, Docker, Terraform, Jenkins / Cloud Build. Méthodologies : Scrum, Kanban, Git. Aspects humains recherchés : Capacité à travailler en équipe, en mode Agile (Scrum/Kanban). Excellentes compétences relationnelles et communicationnelles. Curiosité et sensibilité aux évolutions technologiques.

Offre d'emploi
Data Engineer GCP, Scala/Java Confirmé | Casabalanca 100% Remote
Nous recherchons un Data Engineer Confirmé (h/f) pour rejoindre les équipes Data d’un grand acteur du retail . L’objectif ? Concevoir, développer et maintenir des solutions de traitement de données à grande échelle dans un environnement 100% Cloud (GCP) et Full Remote . Tu évolueras dans un cadre stimulant où la data est au cœur des décisions stratégiques et où l’innovation technologique est une priorité ! Concevoir et développer des pipelines de données en Scala/Java et Spark Exploiter des outils GCP (BigQuery, BigTable, Dataproc) pour le stockage et le traitement des données Mettre en place des solutions de streaming en temps réel avec Kafka Travailler sur une architecture Data Centric , cassant les silos d’information pour fluidifier la gestion des données Assurer la qualité, la performance et la scalabilité des solutions Collaborer avec des équipes internationales et multidisciplinaires 🔧 Les technologies et outils que tu utiliseras : Cloud : GCP (BigQuery, BigTable, Dataproc, Cloud Storage) Développement : Scala, Java, SQL Big Data & Streaming : Spark, Kafka CI/CD & DevOps : Git, Kubernetes, GitLab CI/CD Méthodologies : Agile, Microservices
Offre d'emploi
Data Engineer cloud GCP BigQuery F/H
Description de la Mission : Analyse et Conception Participer à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. Utiliser l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en oeuvre des projets. Être force de proposition sur l'amélioration de notre stack Data. Développement et Intégration Concevoir, développer et maintenir les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. Optimiser les performances des développements pour assurer une disponibilité et une fiabilité maximale. Identifier et résoudre les goulots d'étranglement et les problèmes de performances dans les flux de données. Qualité, Maintenance et Supervision Mettre en place des processus et des contrôles pour garantir la qualité des données. Concevoir et mettre en oeuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. Assurer la maintenance corrective ou évolutive. S'assurer de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe. Documentation, Support, Pilotage Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation). Réaliser la recette technique et participer à animer la recette fonctionnelle avec les utilisateurs et le PO. Faire le reporting d'avancement des travaux. Supporter le déploiement. Environnement Technique : Langages/Framework : SQL, BigQuery, Python, Shell. Outils : GCP (BigQuery, DataForm, PubSub, Dataflow, Cloud Composer, Cloud Run, Compute Engine), Gitlab, Terraform, Talend. Base de données : BigQuery, Teradata, SQL Server, IBM DB2.

Offre d'emploi
Data Engineer MSBI & GCP (indispensable)
Contexte Intégrez la Direction de la Transformation au sein des Centres de Services Partagés (CSP) d’une grande organisation. Vous évoluerez dans une équipe dédiée au développement et à la maintenance de solutions IT couvrant une large gamme de technologies : développement applicatif, DevSecOps, intelligence artificielle, gestion documentaire, IoT, portails web et bien d'autres. Vous interviendrez au sein des départements Solutions Lab et Solutions Groupe , qui construisent et maintiennent les paliers techniques de composants logiciels. L’objectif est de fournir des solutions fiables, évolutives et répondant aux attentes métier. Missions Dans le cadre d’un projet BI pour la Direction Nucléaire, vos principales missions seront : Ateliers et chiffrage : Participer à la collecte des besoins utilisateurs et aux ateliers de définition des exigences métiers. Documentation : Produire la documentation des réalisations et études dans les outils collaboratifs de la plateforme DevOps (Cloud GCP ). Build et MCO : Contribuer au développement des applications BI et à leur maintenance en conditions opérationnelles. Démarche DevSecOps : Intégrer la qualité et la sécurité dans une démarche DevSecOps pour assurer des produits robustes et performants.

Offre d'emploi
Admin Production (HDP CDP KUBERNETES)
Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre de la maintenance et la construction des plateformes Hadoop Cloudera (HDP & CDP). Ainsi qu'un accompagnement au développement d'un ensemble des DATA Services et challenge des fonctionnalités à développer et les standards de travail. Vous contribuerez : · A l’installation de cluster · Au monitoring et à l’administration des outils Big Data · A l’administration de cluster · A l’upgrade des distributions et des composants Hadoop · A l’installation des différents composants sur Hadoop · Au support et à la résolution des problèmes N2 et N3 · A la mise en place d’environnements de développement et de test · A la sécurisation des clusters

Mission freelance
Data Science GenAI
Objet de la prestation Dans le cadre de transformation digitale du groupe et afin d’accélérer la chaîne de création de valeurs pour ses clients et employés, notre client cherche à sourcer une plateforme d’IA générative en remplacement de l’initiative interne en cours. Une équipe en mode task force est à constituer pour exécuter une campagne d’évaluation les capacités des plateformes du marché dont le rôle de Data Scientist Senior est un des piliers de la core team. Missions principales : • Contribuer à la conception de la grille d’évaluation • Livrer le tableau de comparaison des capacités des plateformes d’ingénierie de produits de l’IA génératives Les activités attendues sont les suivantes : • Conduire sous la supervision des Data Scientists internes le protocole d’évaluation et les use-cases métier • Participer à la synthèse des résultats • Apporter ses connaissances à la campagne de d’évaluation, notamment l’ajustement des protocoles lors des rétrospectives

Offre d'emploi
Data Science - Machine Learning Engineer
Les tâches sont: - Analyse et interprétation des ensembles de données (structurées et non structurées) sur les produits et services et l’environnement de travail des collaborateurs BNP pour identification des motifs et des tendances. - Développement et mise en œuvre des modèles de machine learning et des LLM pour détéction, prédictio et classification des données. L’objectif principale étant du datamining sur les tickets d'incidents des utilisateurs. - Construction et maintient des pipelines de machine learning pour les modèles d'IA/ML dans des environnements de production. - Collaboration avec les ingénieurs logiciels et les ingénieurs de données pour intégrer les modèles d'IA dans des applications évolutives. - Analyse et interprétation des résultats des modèles pour affination des algorithmes et amélioration des performances

Mission freelance
Consultant Anonymisation des données (IBM InfoSphere Optim, Informatica Dynamic Data Masking)
Bonjour, Nous recherchons un consultant senior en projet d’anonymisation de données et ayant un profil IT et faisant preuve d'une grande autonomie. La durée de la mission est de 6 mois sur Paris. Début de la mission : sous quinzaine Bonnes connaissances RGPD car le cadrage doit se faire en relation avec les DPO Expériences avec les outils IBM InfoSphere Optim, Informatica Dynamic Data Masking ou Talend Data Masking Prérequis : avoir déjà cadré et piloté un projet d’anonymisation de données dans le monde banque / assurance ou de santé avec un focus sur les données de tests. Responsabilités principales : ? Fournir des conseils d'expert sur la conformité de données, avec un accent sur les techniques et meilleures pratiques d?anonymisation des données. ? Développer et mettre en ?uvre des stratégies d?anonymisation pour garantir que les données personnelles soient efficacement anonymisées en conformité avec les exigences RGPD. ? Effectuer des évaluations régulières et des audits des activités de traitement des données pour identifier des pistes d'amélioration et assurer une conformité continue. ? Collaborer avec des équipes pluridisciplinaires pour intégrer les pratiques d?anonymisation dans les flux de traitement des données. ? Concevoir et dispenser des programmes de formation pour sensibiliser les collaborateurs à la conformité de données et aux techniques d?anonymisation. ? Suivre les évolutions des réglementations en matière de protection des données. ? Préparer et maintenir une documentation détaillée des processus d?anonymisation et des activités de conformité.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.