Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform à Paris
Ce qu’il faut savoir sur Google Cloud Platform
Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.
Chef de projet Cloud/data - GCP

Chef de Projet Cloud & Data – Move to Cloud GCP (H/F) 📍 Localisation : Paris - 2 jours sur site / semaine OU Niort) 📅 Durée : 6 mois renouvelables 🚀 Disponibilité : ASAP 🧠 Expérience requise : 10 ans minimum dans l'IT et le Cloud et min 5 ans en gestion de projets IT, dont plusieurs sur des projets Cloud/Data 🔎 Contexte de la mission : Dans le cadre d’un programme stratégique de migration vers Google Cloud Platform (GCP) , notre client recherche un Chef de Projet expérimenté pour piloter un projet structurant mêlant infrastructures cloud, enjeux data et coordination transverse. R esponsabilités : Piloter le projet Move to Cloud vers GCP , de l’étude à la mise en production Coordonner les équipes techniques internes et les prestataires (DevOps, Data, SecOps, Architectes Cloud) Gérer les interdépendances avec les autres projets Data/IT du groupe Assurer le reporting , le suivi des livrables, du budget et du planning Identifier les risques et proposer des plans d’actions correctifs Participer aux comités de pilotage et aux arbitrages stratégiques Accompagner le changement et les équipes dans l’adoption des nouvelles pratiques Cloud 🛠️ Compétences attendues : Solide expérience en gestion de projets IT (>5 ans), avec une expertise Cloud/Data Connaissance approfondie de GCP (idéalement dans un contexte de migration) Très bonnes compétences en gestion de projets complexes et multi-acteurs Expérience dans des environnements grands comptes ou projets à fort impact Capacité à dialoguer avec les équipes techniques tout en adressant le management de haut niveau Excellent relationnel, sens de l'organisation, autonomie, leadership naturel
Data engineer GCP

Missions principales : Concevoir, développer et maintenir des pipelines de données robustes et scalables sur GCP. Collecter, transformer et charger des données depuis diverses sources (Oracle, Postgres, MySQL, fichiers plats, API) vers BigQuery . Mettre en place des contrôles de qualité des données , notamment pour les cas d’usage liés à l’achat-revente. Réaliser la modélisation des données dans BigQuery (SQL avancé). Orchestrer les workflows avec Cloud Composer (Airflow) . Assurer une bonne gestion des accès et de la sécurité (IAM / BigQuery). Participer à la mise en place et au maintien de la chaîne CI/CD sur GitLab . Environnement technique : Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Cloud Composer) Orchestration : Airflow (via Cloud Composer) Sources de données : Oracle, PostgreSQL, MySQL, fichiers plats, API CI/CD : GitLab Sécurité & IAM : Gestion fine des accès, bonnes pratiques sur BigQuery
Site Reliability Engineering (GCP-fiabilité-kubernetes-ci/cd)

Objet de la prestation La Direction Digital & New Services (DIR-DNS) contribue à la stratégie Energy de notre client et optimise le fonctionnement et la performance au sein du Train Energy VS7, composé des équipes suivantes : - Une solution basée en France en place depuis quelques années, qui développe l’application mobile myPowerBox. Elle est mature et nécessite un accompagnement pour maintenir sa performance et son haut niveau de disponibilité. - Deux nouvelles équipes autour du CPMS et de l’EV Manager constituées au Maroc : Ces équipes sont chargées du développement des produits et doivent se conformer aux processus du train Energy VS7. - D’autres solutions intégrées au train Energy VS7 : La prestation de SRE devra accompagner ces solutions afin d’augmenter leur intégration, leur fiabilité, leur scalabilité et leur performance au sein du train. La prestation de Site Reliability Engineering (SRE) : - accompagnera les équipes du train Energy VS7 en assurant une cohérence optimale dans les méthodes de déploiement, la surveillance des systèmes et la gestion des incidents - assurera la fiabilité de la plateforme de production, en garantissant des services robustes et performants - interviendra sur le patching des services pour corriger ou améliorer les fonctionnalités, tout en collaborant avec les équipes de développement, de tests et DevOps pour automatiser et optimiser les processus de déploiement et de maintenance - facilitera les procédures de release et veillera à un environnement stable et résilient - participera à l’automatisation des workflows CI/CD, à l’optimisation des déploiements et tests en collaboration avec les équipes de développement - contribuera aux procédures de release et incidents en participant à la gestion des déploiements sécurisés et des incidents pour maintenir la disponibilité et la fiabilité des services. Livrables - Scripts et outils d’automatisation CI/CD, déploiements et gestion des configurations - Documentation de déploiements, de gestion d’incidents et récupération après sinistre - Suivi des métriques clés de disponibilité et latence - Rapports de performance et d’optimisation continue - Documentation de stratégies de déploiement sécurisées, gestion proactive des incidents et analyses post-mortem.
Expert sécurité cloud GCP / IAM GCP / SECURITE RESEAUX / TERRAFORM / PYTHON (H/F)
Nous recherchons pour le compte de notre client dans le domaine bancaire un expert sécurité GCP afin de les accompagner dans l'évaluation, la mise en œuvre et l'optimisation de leurs pratiques de sécurité Description détaillée : Évaluer l'architecture de sécurité actuelle sur GCP et particulièrement sur les architectures projet de type data Qualifier et étudier les évolutions de services GCP de type Private Service Connect et être en mesure de proposer des solutions si des problèmes sécurité sont remontées Identifier les vulnérabilités et les risques à l’utilisation des services GCP (Vertex AI, Worflow, Dataflow, Apigee, GKE, Composer, …) et proposer des recommandations sécurité Mettre en place des contrôles de sécurité dans les outils de type CSMP Accompagner l'équipe interne projets et transverses dans la mise en œuvre des recommandations. Définition du profil : Mise en application de la Politique de Sécurité. Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 Valide et instruit les dérogations contrevenant à la Politique de Sécurité. Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) Participation aux audits (internes / externes) Mise en applications des recommandations d'audit et des demandes de remise en conformité Rédaction de guides et standards de sécurité Donne son avis pour l'implémentation des solutions de sécurité Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation Assure la veille technologique
ARCHITECTE TECHNIQUE ON PREMISE & CLOUD AZURE ET GCP

Nous recherchons plusieurs Architectes Technique OnPrem & Cloud pour une mission longue chez l'un de nos clients. Niveau expérimenté à senior requis. CONTEXTE DE LA MISSION Au sein de l'équipe Architecture de la Direction des Infrastructures et de la Production du groupe, le consultant contribuera aux activités : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation - Accompagnement de la stratégie Move2Cloud - Co-construction des solutions - Accompagnement des équipes d'exploitation et de développement Environnement général - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess DESCRIPTION DE LA MISSION - Etude des besoins issus des équipes de développement - Etude de l'évolution des composants de plateformes techniques ou de l'intégration de nouveaux services - Rédaction des documents d'architecture et d'intégration générale et détaillée - Rédaction des supports d'aide à l'exploitation et accompagnement des équipes d'exploitation durant la transition - Contribution à l'évaluation budgétaire des solutions mises en œuvre - Support N3 des équipes d'exploitation Démarrage souhaité : au plus tôt Durée de la mission : Longue Paris
ARCHITECTE GENERALISTE MOVE TO CLOUD AZURE ET GCP

Au sein d'une équipe Architecture d'une Direction des Infrastructures et de la Production de l'un de nos clients, nous recherchons un(e) architecte technique généraliste qui contribuera aux activités suivantes : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation (DAT) - Accompagnement de la stratégie Move2Cloud - Accompagnement des équipes d'exploitation et de développement Environnement général : - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess
DATA ENGINEER GCP

Je recherche pour un de mes clients un Data Engineer GCP / Python : Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data • Réaliser le développement dans les environnements technologiques attendus • Rédiger la documentation technique • Assurer un support aux testeurs Livrables principaux : • Réaliser du code applicatif • Rédiger les documentations techniques liés à ta solution, • Faire des propositions techniques Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, GCP Dataflow, Data Build Tool (DBT) • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XML
Consultant CI/CD Gitlab/Google Cloud

Compétences obligatoires GCP (CONFIRMED) Gitlab (EXPERT) Python (JUNIOR) Terraform (CONFIRMED) Compétences optionnelles Description Contexte : Dans le cadre de l’amélioration de ses pratiques DevOps et DataOps sur Google Cloud Platform, le client recherche un(e) Consultant(e) Expert(e) CI/CD capable d’auditer l’existant et de concevoir une chaîne d’intégration et de déploiement continue unifiée pour les environnements Data et Applicatifs. Cette mission s’inscrit dans un contexte technique exigeant, mêlant infrastructure as code, déploiement multi-stack (Java, JS/React, BigQuery), conteneurisation, automatisation avancée avec GitLab CI, et supervision via Splunk. L’objectif est d’industrialiser et de fiabiliser les livraisons tout en accompagnant la montée en compétences des équipes internes. Télétravail : 1 jour par semaine
DevOps GCP (Google Cloud Platform (GCP), Terraform, Kubernetes)-H/F
Votre rôle : Consultant DevOps GCP Senior Dans le cadre de projets de transformation numérique ambitieux, vous jouerez un rôle clé en accompagnant nos clients dans leur migration vers le cloud et en adoptant des pratiques Agile et DevOps. Vos missions principales : Accompagner la migration cloud : Concevoir, déployer et automatiser des infrastructures sur Google Cloud Platform (GCP) en intégrant des approches Agile et DevOps. Automatisation et orchestration : Implémenter des solutions d’infrastructure as code (Terraform), containerisation (Docker), et orchestration (GKE). Optimisation des pipelines CI/CD : Développer des processus de déploiement fiables en utilisant des outils comme Cloud Build, GitLab ou Jenkins, tout en garantissant leur sécurité et efficacité.
Expert sécurité GCP
En tant qu'Architecte GCP Réseaux & Sécurité, vous serez en charge de la conception, de l’optimisation et de la sécurisation des architectures cloud de notre client bancaire. Vous travaillerez étroitement avec les équipes de développement et d’exploitation pour garantir que les solutions mises en place sont scalables, sécurisées et performantes. Votre rôle inclura également la gestion de projets d’infrastructure cloud, en intégrant des services PaaS et des solutions de sécurité adaptées aux besoins spécifiques du secteur bancaire. Missions principales : Concevoir des architectures réseaux complexes sur GCP pour répondre aux besoins spécifiques du client. Mettre en place des solutions sécurisées sur GCP en intégrant les meilleures pratiques de sécurité, notamment en matière de confidentialité des données et de conformité aux régulations bancaires. Assurer la gestion et l’optimisation des services managés cloud et des PaaS (par exemple, Google Kubernetes Engine, Cloud Pub/Sub, BigQuery, etc.). Collaborer avec les équipes de développement pour intégrer des applications dans l’environnement cloud, en veillant à la sécurité et à la performance des services déployés. Effectuer une veille technologique pour rester à jour sur les nouveautés GCP et les tendances en matière de réseaux et de sécurité dans le cloud. Assurer la documentation technique des architectures mises en place et des processus opérationnels associés.
Profil OPs GCP

Bonjour, Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Nous recherchons un Code profil INGENIEUR CLOUD - Expert (>10 ans) Objectif global : Participer aux différents chantiers d’évolution de la plateforme e-commerce pour Equipement Maison Contrainte forte du projet Remplacement profil OPS EM ( SAP Commerce Cloud - CCV2 ) par un OPS GCP Le livrable est - Compétences techniques Orchestration de conteneurs - Expert - Impératif Automatisation et gestion des configurations IaC - Confirmé - Important Outils CI/CD (Gitlab CI, Jenkins, ArgoCD) - Confirmé - Important Outils de monitoring et de logging - Confirmé - Important Connaissances linguistiques Français Courant (Impératif) Anglais Professionnel (Secondaire) Description détaillée Ops d'expérience en charge des différents chantiers d’évolution de la plateforme e-commerce du client Il y a un projet de mise en place d'un Headless et de remplacer les fronts Client de la solution SAP Commerce Cloud. Nous recherchons un OPS qui sera le référant sur la partie infra GCP ( Kubernetes ) et qui aura la curiosité de s'intéresser à la solution SAP Commerce Cloud. Il sera intégré dans la tribu System team du train digital EM. Définition du profil DÉPLOIEMENT Configure et dimensionne les plateformes en fonction des performances requises Met en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures Participe aux phases de validation technique lors des mises en production ou des évolutions Travaille en coordination avec les équipes OPS, QA, DEV, Delivery Manager MAINTENANCE Maintien en condition opérationnelle les infrastructures virtualisées en diagnostiquant les pannes et les dysfonctionnements Industrialise les architectures cibles et configurer les équipements (CI / CD) Veille à la sauvegarde des données, à la sécurité des accès (mise en place des systèmes de gestion des droits des utilisateurs) et à la fiabilité des solutions déployées Participe à l'amélioration de la CI/CD* Données complémentaires Date de démarrage 04/05/2025 Date de fin 31/12/2025 Nombre de jours souhaités par le chef de projet 167.0 jours Lieu de réalisation Châtillon Déplacement à prévoir non Le projet nécessite des astreintes oui Nombre de jour souhaitable sur site 5 jours par semaine Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.
Ingénieur/e Cloud GCP

Nous recherchons pour le compte de notre client du secteur bancaire un/e ingénieur/e Cloud GCP. Vos principales missions seront : Prise en charge de l’intégration technique des solutions existantes et nouvelles. Exploitation des plates-formes techniques en assurant le maintien en conditions opérationnelles. Mise en œuvre des réponses aux audits externes et aux mises en conformités internes. Applications de la politique de sécurité des SI Création, administration des environnements, application des patchs, supervision, veille technologique Mise en place d’architectures techniques autour des composants applicatifs Participation aux réponses des audits pour le compte de la production applicative Réponse aux incidents critiques : communication, diagnostic, correction, coordination d’experts en cellule technique. Analyse, Gestion, Pilotage des changements. Coordination des intervenants. Interface entre les experts techniques et le support Editeur/MOE Rédaction des manuels d’exploitation : procédures, sauvegardes, supervision…
Data Engineer GCP / Talend
Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente et alignée avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques du client • Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l’exploitation optimale des données. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Réaliser la recette technique et participer à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • Assurer la maintenance corrective ou évolutive • S’assurer de la cohérence des livrables avec les règles et bonnes pratiques prédéfinies
Expert sécurité Opérationnelle - sécurité du cloud GCP -N4

Contexte Objectif global : Accompagner la mise en œuvre de la sécurité du cloud GCP Contrainte forte du projet : Nous recherchons un consultant spécialisé dans sécurité du cloud GCP (services PaaS; IAM, automation, CI/CD) avec de l'expertise sécurité réseaux MISSIONS : Évaluer l'architecture de sécurité actuelle sur GCP et particulièrement sur les architectures projet de type data Qualifier et étudier les évolutions de services GCP de type Private Service Connect et être en mesure de proposer des solutions si des problèmes sécurité sont remontées Identifier les vulnérabilités et les risques à utiliser des services GCP (Vertex AI, Worflow, Dataflow, Apigee, GKE, Composer, …) et proposer des recommandations sécurité Mettre en place des contrôles de sécurité dans les outils de type CSMP Accompagner les équipes projets et transverses dans la mise en œuvre des recommandations. Définition du profil : Mise en application de la Politique de Sécurité. - Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 - Valide et instruit les dérogations contrevenant à la Politique de Sécurité. - Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) - Participation aux audits (internes / externes) - Mise en applications des recommandations d'audit et des demandes de remise en conformité - Rédaction de guides et standards de sécurité - Donne son avis pour l'implémentation des solutions de sécurité - Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation - Assure la veille technologique
Développeur Big Data GCP - ENTRE 3 ET 6 ANS

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Objectifs et livrables Infos Complémentaires : Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. 💡Caractéristiques de la mission: Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Aspects Humains : • Grande capacité à travailler dans une équipe, en mode Scrum / Kanban. • Bonnes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Sensible et informé des évolutions technologiques sur les piles logicielles pratiquées.
207342 : Consultant CI/CD Gitlab/Google Cloud (5XP ou plus) - 539
Contexte : Dans le cadre de l’amélioration de ses pratiques DevOps et DataOps sur Google Cloud Platform, le client recherche un(e) Consultant(e) Expert(e) CI/CD capable d’auditer l’existant et de concevoir une chaîne d’intégration et de déploiement continue unifiée pour les environnements Data et Applicatifs. Cette mission s’inscrit dans un contexte technique exigeant, mêlant infrastructure as code, déploiement multi-stack (Java, JS/React, BigQuery), conteneurisation, automatisation avancée avec GitLab CI, et supervision via Splunk. L’objectif est d’industrialiser et de fiabiliser les livraisons tout en accompagnant la montée en compétences des équipes internes. Missions : Auditer les pratiques actuelles et proposer une architecture cible détaillée pour la chaîne CI/CD Data & App sur GCP. Concevoir et implémenter les pipelines dans GitLab CI pour automatiser : Le build, le test et le déploiement de l'Infrastructure as Code avec Terraform. Le déploiement et les tests des transformations BigQuery (SQL). Le build, le test et le déploiement d’applications JS et ReactJS (SFCC). Le build, le test et le déploiement d’applications Java (Mulesoft). Le build (via Cloud Build), le stockage (sur Artifact Registry) et le déploiement d'applications conteneurisées (Cloud Run, GKE si nécessaire). L'intégration de tests automatisés (unitaires, intégration, qualité des données. Proposer et implémenter le plus souvent possible de l’IA (Gemini 2.5 ou autre) pour simplifier et accélérer la CI/CD dans les domaines du code, du débug, des tests, de la documentation ou d’autres usages. Configurer et optimiser l'intégration entre GitLab CI et GCP (Runners sur GCE/GKE, gestion des secrets avec Secret Manager). Intégrer les fonctionnalités de Splunk Cloud pour assurer la visibilité et l'alerting sur les pipelines CI/CD et les assets déployés. Promouvoir et mettre en oeuvre les meilleures pratiques DevOps / DataOps (gestion des environnements dev/staging/prod, sécurité, reproductibilité). Accompagner et former les équipes internes (Data Engineers, Data Scientists) à l'utilisation et à la maintenance de la chaîne CI/CD. Documenter l'architecture, les processus et les configurations mis en place sur Atlassian Confluence. Compétences : Expertise confirmée en conception et mise en oeuvre de chaînes CI/CD complexes, avec une maîtrise approfondie de GitLab CI/CD. Solide expérience pratique sur Google Cloud, notamment avec les services suivants : Compute/Containers : GCE, GKE, Cloud Run, Cloud Build, Artifact Registry. Stockage/Base de données : GCS, BigQuery, Cloud SQL. Traitement/Orchestration : Dataform, Airflow, Pub/Sub. Opérations & Sécurité : Splunk, IAM, Secret Manager. Maîtrise indispensable de Terraform pour l'Infrastructure as Code sur Google Cloud.. Excellentes compétences en scripting, particulièrement en Python. La connaissance de Shell est également nécessaire. Expérience significative avec la conteneurisation (Docker). Compréhension solide des principes et enjeux du Data Engineering et du DataOps. Habitué(e) aux outils de développement modernes : Git, VS Code. Excellentes capacités de communication, d'analyse et de résolution de problèmes. Autonomie, proactivité et capacité à travailler en collaboration avec des équipes techniques
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Contestation du calcul de mon ARE après du portageil y a 14 minutes
- Pas de réponse au candidature ? CV mis sur le côté à cause de l'ATS (tri automatique) ? Qui connait l'ATS ?il y a 43 minutes
- Etat du marché - Avril 2025il y a 2 heures
- TJM = Travaille Juste pour Manger !il y a 6 heures
- Cumul sasu + micro entrepriseil y a 9 heures
- cdiil y a 9 heures
Les métiers et les missions en freelance pour Google Cloud Platform
Ingénieur·e devops (Cloud)
L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e devops (Cloud) .
Découvrir les offresArchitecte Cloud
L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.
Explorez les offres d'emploi ou de mission freelance pour Architecte Cloud .
Découvrir les offresIngénieur·e systèmes & réseaux
L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e systèmes & réseaux .
Découvrir les offresResponsable des infrastructures et de la production
Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.
Explorez les offres d'emploi ou de mission freelance pour Responsable des infrastructures et de la production .
Découvrir les offres