Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 129 résultats.
Freelance
CDD

Offre d'emploi
Développeur DevOps Sénior GCP

Taleo Capital
Publiée le
DevOps
Google Cloud Platform (GCP)
Java

1 an
55k-70k €
450-570 €
La Défense, Île-de-France

🎯 Objectifs de la mission : Intégré(e) à l’équipe IT Compute en charge de la plateforme stratégique de calcul de risque interne, vous contribuerez à la transformation cloud (GCP/AWS) d’un système critique, dans un environnement agile et DevOps à dimension internationale (Paris, Londres, Hong Kong, New York). 🔧 Responsabilités principales : Maintenance et développement ponctuel de microservices pour la plateforme de calcul de risque. Participation active à l’architecture cloud GCP (et ponctuellement AWS). Gestion des tests automatisés, de la documentation et de la mise en production. Surveillance de la performance, résilience, scalabilité et sécurité des composants. Participation au support applicatif et aux astreintes. Interaction avec les équipes produit, architecture et production dans un cadre agile (Scrum/DevOps).

CDI

Offre d'emploi
Ingénieur.e DevOps GCP (H/F)

SYD CONSEIL MANAGEMENT
Publiée le
HashiCorp Vault
Jenkins
Python

40k-50k €
Nantes, Pays de la Loire

🌟 Quel sera ton poste ? 🌟 📍Lieu : Nantes 🏠 Télétravail : 2 jours 👉 Contexte client : Tu rejoins la DSI d’un acteur national de la grande distribution, avec un SI conséquent : plusieurs milliers de serveurs, des applications critiques et une stratégie multi-cloud. C'est dans ce contexte que tu intègres l’équipe qui pilote la plateforme GCP centrale, celle qui définit les standards techniques et façonne le futur du SI. La Landing Zone sur laquelle tu interviens est pensée pour scaler, absorber la croissance et évoluer en continu. Tu auras pour missions de : Construire et faire évoluer une Landing Zone GCP pensée pour tenir à grande échelle. Collaborer en direct avec le PO et les architectes Cloud pour faire les bons choix technique. Industrialiser et fiabiliser les déploiements (Terraform, CI/CD). Assurer le Build comme le Run dans une logique d’amélioration continu. Conseiller les équipes utilisatrices et savoir challenger leurs choix. Faire circuler les bonnes pratiques Cloud & Sécurité. Stack technique : GCP, TerraformGit, Jenkins, Python,Cloud Armor, Security Command Center, Hashicorp Vault, Datadome, Cloudflare 🌟 Pourquoi ce projet ? 🌟 Parce que tu vas travailler sur des sujets réellement innovants, là où les choix techniques engagent le long terme. Tu ne viens pas juste opérer une plateforme : tu participes à la construction d’un socle cloud de référence, en posant des standards qui seront repris par toute l’organisation.

Freelance

Mission freelance
Devops GCP / kubernetes

skiils
Publiée le
Google Cloud Platform (GCP)
Kubernetes

3 ans
310 €
Île-de-France, France

Dans le cadre d’un grand groupe international, nous recherchons un DevOps Junior GCP/Kubernetes . Vous participerez à la conception, au déploiement et à l’amélioration continue d’infrastructures cloud sur Google Cloud Platform. Sous la supervision d’experts confirmés, vous interviendrez sur l’orchestration de conteneurs via GKE, l’automatisation des déploiements, le suivi des performances et l’accompagnement des équipes projets pour garantir stabilité et sécurité des environnements. Stack : GCP KUBERNETES

Freelance

Mission freelance
Développeur Backend Go / Terraform - Lille ( H/F)

BK CONSULTING
Publiée le
Azure DevOps
Go (langage)
Google Cloud Platform (GCP)

36 mois
400-450 €
Lille, Hauts-de-France

Rejoignez une équipe tech qui conçoit, opère et fait évoluer des solutions stratégiques autour de l’Infrastructure-as-Code et du Continuous Delivery. Vous participerez au développement backend en Go , à l’intégration et l’industrialisation de modules Terraform pour le multi-cloud, tout en contribuant à améliorer l’expérience des développeurs. Vous accompagnerez les équipes internes dans l’adoption, l’évolution et la bonne utilisation des outils mis à leur disposition. Ce poste est basé dans la métropole Lilloise

Freelance
CDI

Offre d'emploi
DevOps & Cloud Engineer - GCP

Atlanse
Publiée le
Ansible
Apache Kafka
CI/CD

3 ans
Châtillon, Île-de-France

Vous rejoindrez la Direction Digital & Data au sein de l'équipe OPS en charge de la plateforme e-commerce, déployée en mode hybride (on-premise et Google Cloud Platform). En tant que DevOps, vous collaborerez avec les équipes OPS, QA, DEV et Delivery afin d’assurer la performance, la fiabilité et l’évolution de la plateforme. Votre rôle Exploitation & Maintien en condition opérationnelle Diagnostiquer et résoudre les incidents et dysfonctionnements sur l’infrastructure Mettre en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures Participer aux phases de validation technique lors des mises en production ou des évolutions Gestion & Optimisation des infrastructures Configurer et dimensionner les plateformes pour répondre aux besoins de performance et de scalabilité Industrialiser les architectures cibles et automatiser les déploiements via les pipelines CI / CD Veiller à la sauvegarde des données et à la sécurité des accès en appliquant les bonnes pratiques de gestion des droits utilisateurs Pilotage & Suivi des ressources Suivre et optimiser les coûts liés aux composants et applications cloud (FinOps) Proposer des évolutions ou optimisations pour améliorer la fiabilité et l’efficacité des solutions déployées

CDI

Offre d'emploi
Développeur DevOps Cloud

Amontech
Publiée le
AWS Cloud
DevOps
Google Cloud Platform (GCP)

1 an
40k-50k €
400-500 €
La Défense, Île-de-France

🎯 Contexte Nous recherchons un Développeur Senior DevOps GCP pour intervenir sur une plateforme stratégique de calculs de risque Equity au sein d’un groupe bancaire international. Vous rejoindrez l’équipe en charge du développement et de la transformation de la plateforme vers une architecture micro-services déployée sur Google Cloud Platform (GCP). 🔎 Missions Intégré(e) à l’équipe, vous serez en charge de : Développer et maintenir les composants de la chaîne end-to-end du calcul de risque. Répondre aux enjeux de performance, scalabilité, résilience et sécurité. Mettre en place et exécuter les tests, déployer en production et rédiger la documentation. Travailler principalement sur GCP, avec une ouverture sur AWS. Participer au monitoring, à la maintenance et au support des applications (astreintes incluses). Contribuer à l’amélioration continue des pratiques DevOps au sein de l’équipe. 🛠 Compétences recherchées 5 ans d’expérience minimum en développement et DevOps. Excellente maîtrise de Java, Python, Jenkins, Terraform, Kubernetes et GCP/AWS. Connaissances appréciées en C++ et SQL. Anglais courant, environnement international. Une expérience dans les domaines Equity, Pricing ou Risk est un atout. 📍 Localisation & Conditions Basé en Ile-de-France. Démarrage : dès que possible.

CDI
Freelance

Offre d'emploi
DevOps GCP

KLETA
Publiée le
DevOps
Google Cloud Platform (GCP)

3 ans
Paris, France

Missions principales Concevoir, déployer et maintenir des infrastructures GCP (Compute Engine, GKE, Cloud Storage, BigQuery, Pub/Sub, VPC, IAM, etc.). Mettre en place et gérer des pipelines CI/CD pour les projets cloud (Cloud Build, GitHub Actions, Jenkins, GitLab CI). Automatiser le déploiement et la gestion des ressources via Infrastructure as Code (Terraform, Deployment Manager, Ansible). Assurer la supervision, le monitoring et l’alerting (Stackdriver, Cloud Monitoring, Prometheus, Grafana). Implémenter les bonnes pratiques de sécurité GCP et assurer la conformité (IAM, gestion des secrets, audit). Collaborer avec les équipes Développement et Data pour optimiser l’architecture cloud et les processus de déploiement. Participer à la résolution d’incidents et à l’amélioration continue des environnements cloud.

Freelance

Mission freelance
Data Engineer GCP / Hadoop – Pipelines de données & DatOps

CAT-AMANIA
Publiée le
Agile Scrum
Apache Hive
Apache Spark

6 mois
380-440 €
Île-de-France, France

Nous recherchons un Data Engineer expérimenté pour rejoindre une équipe projet au sein d’un département IT Groupe. Le poste consiste principalement à intervenir sur un projet DatOps basé sur GCP , et secondairement sur la mise en place d’une plateforme data sur Hadoop. Vos missions : Mettre en place et maintenir des pipelines de données (ingestion, préparation, transformation). Faire évoluer les outils de gestion et d’automatisation des flux de données. Collaborer avec les équipes DevOps pour les évolutions de la plateforme. Participer activement aux rituels agiles et contribuer à l’amélioration continue.

CDI

Offre d'emploi
Expert GCP - F/H - Guyancourt

AVANISTA
Publiée le

France

Depuis 2012, nous mettons notre expertise au service des secteurs de l'IT et l'Ingénierie pour accompagner nos clients dans des projets ambitieux et innovants. Notre force ? Un management de proximité qui valorise vos aspirations, des opportunités de carrière concrètes et un engagement sincère pour le bien-être et l'épanouissement de nos collaborateurs. Rejoignez-nous sur des projets à fort impact au sein d'une entreprise où chaque talent compte ! Avanista recrute ! Toujours en recherche de nouveaux talents, nous souhaiterions intégrer un Expert GCP au sein de nos équipes pour l'un de nos clients. Le contexte ? Nous recherchons un Expert GCP disposant d'une solide expérience sur les environnements Cloud et les plateformes de supervision. Votre rôle sera d'assurer la fiabilité, la performance et la cohérence de nos projets en proposant des solutions techniques robustes et innovantes Vos missions ? - Piloter et optimiser l'utilisation de la plateforme GCP au sein des projets stratégiques. - Assurer le suivi de la cohérence et de l'intégration des projets DATA. - Utiliser Dynatrace pour la supervision et le monitoring des environnements Cloud. - Analyser et challenger les architectures techniques proposées par les différentes équipes. - Être force de proposition et apporter une vision experte auprès des entités métiers et IT. - Contribuer à la sécurisation de l'existant et à l'amélioration continue des environnements Cloud. - Participer à l'industrialisation et à l'optimisation des process (ordonnancement des traitements via Control-M ou équivalent). - Prendre en charge les demandes de créations de ressources natives (Kubernetes & Cloud) et les outils des chaines CI/CD - Prendre en charge de l'accompagnement des équipes applicatives pour la bonne implémentation et utilisation des outils DevOps. - S'assurer du bon accostage entre le développement applicatif et le déploiement sur les écosystèmes du cloud publique (AWS/GCP) dans l'utilisation de la CI/CD. - Définir les flux de logs de l'applicatif. - Assurer l'automatisation des tests et la vérification des prérequis à l'intégration et à l'exploitation. - Garantir la mise en place de tests de sécurité automatisés en production (scans d'images, de vulnérabilité et intrusion etc.) - Construire l'observabilité, la supervision et l'alerting des applications et des solutions employées dans le cloud public. - Opérer le provisionnement et le déploiement de l'infra as code - Gestion des changements - Coordonner l'évaluation des impacts des changements et la préparation des changements. - Autoriser les changements en coordination avec l'entité cliente et les équipes. - Informer l'entité client des applications concernées par le changement. - Dans le cadre des projets, participer à l'élaboration des devis et est le garant du respect des normes de production et d'exploitabilité - Etre force de proposition sur les solutions à mettre en oeuvre afin de respecter les SLA. - Coordonner la mise en production des solutions choisies. - Sensibiliser les clients sur les contraintes de production pendant les phases projets. - Etre responsable de la validation fonctionnelle et technique des DTA, de la validation des procédures, de la mise en place de la supervision et des consignes de production ainsi que de la bonne planification des traitements. - Gestion des évènements/incidents - Gestion des problèmes - Gestion de la configuration - Gestion du reporting - Alimenter le responsable de pôle et d'équipe pour préparer les comités opérationnels et de pilotage organisés avec le client - Participer au reporting de l'équipe (management visuel) - Être responsable de la mise en relation des CI dans la CMDB pour son périmètre applicatif. - Être force de proposition sur les solutions pérennes à mettre en oeuvre pour éradiquer. - Être responsable du suivi des problèmes de son périmètre, de son reporting et avancement des plans d'actions. - Être responsable de l'analyse des incidents et en identifier les causes origines. Coordonner l'ensemble des compétences et expertises nécessaires pour éradiquer les incidents et traiter les problèmes. - Être responsable de la journée de production dans le respect des engagements de service pour son périmètre. - Prendre les dispositions nécessaires en cas d'incident pour préserver les intérêts des clients selon les conventions établies. - Participer ou animer, selon les cas, aux cellules de crises technique et Client. - Être responsable de l'escalade fonctionnelle ou hiérarchique. - Être responsable de la qualité des informations saisies dans Metis (ServiceNow) : heure de résolution, cause/origine et responsabilité. - Être responsable de la communication sur incident vers les clients dans les délais contractuels (2 heures) de la déclaration, de l'état d'avancement, de la résolution, à la clôture avec la production du post-mortem. Le plan d'actions sera suivi jusqu'à la réalisation complète dans les délais. - Participer et coordonner les compétences pour restaurer le service normal dans les délais les plus courts possibles et être responsable du respect des SLAs de son périmètre. - Prendre en charge les incidents Metis (ServiceNow) sur les périmètres applicatifs confiés et en être responsable jusqu'à leur clôture. - Prendre en charge les requêtes Metis (ServiceNow) sur les périmètres applicatifs qui lui sont confiés. Il est responsable de leur bonne réalisation jusqu'à leur clôture. GCP Terraform google cloud plateform

Freelance
CDI

Offre d'emploi
🚀 Data Solution Architect / Lead Data Engineer NATIONALITE FRANCAISE

ADJAS
Publiée le
CI/CD
Google Cloud Platform (GCP)

1 an
Vélizy-Villacoublay, Île-de-France

🎯 Votre mission Vous serez responsable de la conception et de l’architecture de bout en bout des solutions Data et analytiques au sein d’un ou plusieurs value streams . Votre rôle est de traduire les besoins métier en solutions de données sécurisées, scalables et optimisées , basées sur notre plateforme d’entreprise (DWH, Iceberg/Trino Lakehouse, streaming, ML, GCP / on-premise). Architecture & Design Concevoir des architectures de données complètes : ingestion batch et streaming, entrepôt de données (Kimball/Star), Lakehouse (Iceberg/Trino), exposition via SQL, APIs et couche sémantique. Intégrer des flux ML et des features stores lorsque nécessaire. Modélisation Traduire les concepts métiers en modèles conceptuels, logiques et physiques (partitionnement, Z-order, clustering, indexation). BI & Analytics Gérer la couche sémantique et les métriques, gouverner les KPIs, optimiser la performance des tableaux de bord et requêtes (caching, agrégats). Favoriser l’autonomie des utilisateurs via dbt, une couche de métriques et un catalogue de données. Ops & FinOps Définir et suivre les SLOs (fraîcheur, latence, coût). Mettre en place l’observabilité, les runbooks et les stratégies de backfill. Optimiser le stockage et les requêtes pour maîtriser les coûts. Gouvernance & Data Mesh Gérer la documentation, la découvrabilité et les métadonnées produits. Publier des blueprints et Architecture Decision Records (ADR) pour normaliser les pratiques. 🛠️ Compétences techniques indispensables 7 à 12 ans d’expérience en data engineering / data architecture avec une maîtrise des DWH (Kimball/Inmon) et du BI, ainsi que des architectures Lakehouse (Iceberg / Delta / Hudi). Solide expérience avec Trino / Presto , Spark / Flink , Kafka / PubSub . Expertise en modélisation sémantique , data contracts , performance engineering , dbt et metrics layers . Maîtrise des environnements GCP et hybrides on-prem , IaC , et CI/CD pour la donnée . 🧭 Livrables clés Architecture one-pager et data contracts. ADRs et HLD (High Level Design). Modèle sémantique et arbre de KPI. Runbooks / SLOs et modèle de coût. 🤝 Gestion des parties prenantes Travailler en étroite collaboration avec les équipes métier, les Product Owners et les Delivery Leads pour identifier les besoins et définir les priorités. Présenter les avancements, jalons et défis techniques auprès du management. 🎓 Profil recherché Minimum 7 ans d’expérience en développement logiciel, dont 3 ans en leadership technique . Expérience confirmée dans la conception et la mise en œuvre de plateformes data ou analytiques à grande échelle . Bonne compréhension des architectures cloud et API-driven . Connaissances souhaitées : frameworks front-end (React, Angular, Vue.js), back-end (Node.js, Java Spring), intégration (ESB, API Gateway, microservices). Maîtrise des pratiques DevOps (CI/CD, tests automatisés, conteneurisation, orchestration) . La connaissance de Snowflake, BigQuery ou d’infrastructures AI/ML est un atout majeur

Offre premium
Freelance
CDI

Offre d'emploi
DevOps GCP Full remote (Maghreb)

skiils
Publiée le
CI/CD
Gitlab
Google Cloud Platform (GCP)

1 an
10k-20k €
100-300 €
Île-de-France, France

skiils recrute un(e) Consultant(e) DevOps GCP (H/F) pour renforcer ses équipes Nearshore et intégrer une équipe SCRUM dynamique ! En tant que tel(le), son rôle consistera à contribuer à des projets Cloud et DevOps en apportant son expertise sur les tâches suivantes : Développer et maintenir des pipelines CI/CD automatisés pour les applications de Carrefour, en utilisant Terraform et GCP, comme un chef d’orchestre orchestrant chaque déploiement avec précision. Garantir la stabilité et la performance des infrastructures Cloud, tel un gardien vigilant de la forteresse GCP. Collaborer avec les équipes de développement et d’infrastructure pour assurer une intégration et un déploiement continus des applications. Diagnostiquer et résoudre les problèmes techniques liés aux infrastructures Cloud. Participer à l’amélioration continue des processus et des standards DevOps. Développer et documenter ses solutions pour assurer la pérennité et la qualité du code. Travailler au sein d’une équipe SCRUM (PO, développeurs, QA, Support).

Freelance

Mission freelance
Data engineer GCP / Hadoop H/F

Insitoo Freelances
Publiée le
Google Cloud Platform (GCP)
Hadoop

2 ans
300-500 €
Paris, France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer GCP / Hadoop H/F à Paris, France. Les missions attendues par le Data engineer GCP / Hadoop H/F : Nous recherchons un profil data engineer GCP + Hadoop qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les demandes métier sur le projet DatOps. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme

CDI
Freelance

Offre d'emploi
Architecte Solutions Cloud GCP – Expertise Data & Architecture Résiliente

ANAFI CONSULTING
Publiée le
Microsoft SQL Server
Mongodb
MySQL

24 mois
60k-85k €
600-850 €
Île-de-France, France

Qui sommes-nous ? Anafi Consulting est un cabinet de conseil basé à Paris, fondé en 2023. Nous accompagnons nos clients grands comptes dans leurs transformations technologiques et organisationnelles, avec une expertise forte en DevOps, Data, Craft, sécurité et numérique responsable . Nous intervenons dans des secteurs variés : finance, télécommunications, IT et nucléaire . Votre rôle Dans le cadre d’un projet stratégique de modernisation des plateformes Cloud et Data, nous recherchons un(e) Architecte Solutions Cloud GCP expérimenté(e). Vous interviendrez sur des sujets d’ architecture hybride, de Data Management et d’optimisation cloud , tout en accompagnant les équipes techniques et métiers dans l’adoption des meilleures pratiques Cloud. Votre rôle combinera expertise technique, conception d’architectures sécurisées et évolutives , et accompagnement au changement auprès des équipes internes. Vos missions principales Concevoir et faire évoluer des architectures Cloud GCP sécurisées, performantes et résilientes. Participer à la conception de solutions hybrides assurant la réversibilité et la consommation de données entre le cloud et l’on-premise. Contribuer à la mise en œuvre de solutions Data Management sur GCP (BigQuery, Starburst, Minio, Apache Spark). Fournir conseil et expertise sur les bonnes pratiques GCP, la gouvernance et l’optimisation des coûts. Réaliser et présenter les dossiers d’architecture auprès des équipes techniques et des instances de gouvernance. Acculturer et former les équipes d’architectes internes sur les fondamentaux et les services Cloud GCP (présentations, ateliers, documentation). Participer à l’ implémentation et au déploiement des solutions conçues. Promouvoir les principes d’ architecture résiliente et les pratiques Agile & DevOps .

Freelance
CDI

Offre d'emploi
Product Owner DevOps (H/F)

STORM GROUP
Publiée le
Azure
DevOps
Google Cloud Platform (GCP)

3 ans
50k-58k €
450-480 €
Île-de-France, France

Objectif global : Piloter le backlog de la Production Applicative Contrainte forte du projet Product Owner avec une forte appétence technique Contexte : Nous sommes à la recherche d'un Product Owner Technique pour rejoindre notre service Production Data Métiers. Notre équipe dynamique et jeune, forte de 10 membres, est à la recherche d'un(e) successeur(e) passionné(e) et expérimenté(e) pour renforcer notre effectif. Le(a) candidat(e) idéal(e) aura une expérience solide en milieu de production, ayant travaillé dans des environnements industrialisés et sur le cloud public avec des bases solides en DevOps, mais surtuout une connaissance pointue des méthodes agiles et de l'accompagnement d'équipes techniques. Les principales missions qui vous seront confiées : Echanger avec les clients / utilisateurs pour identifier les besoins et les traduire en tâches pour l'équipe Prioriser la backlog en fonction des exigences et des capacités de l'équipe Préparer les rituels en collaboration avec le scrum master Compétences techniques : Cloud GCP/Azure - Confirmé - Important Administration et MCO de la production - Confirmé - Important Architecture Technique - Confirmé - Important DevOps - Expert - Important

CDI
Freelance

Offre d'emploi
Data engineer GCP / Hadoop - DataOps

VISIAN
Publiée le
Apache Spark
BigQuery
Google Cloud Platform (GCP)

1 an
40k-50k €
300-480 €
Paris, France

Au sein du département IT, l'équipe a pour vocation de fournir aux services Technologies & Opérations et Banque de Proximité et Assurance, l’ensemble des applications nécessaires à leur fonctionnement. L'appel d'offre vise à renforcer notre binôme de data engineers, en priorité sur le projet DatOps que nous opérons pour le compte de la Direction des Opérations. Celui-ci s'appuie sur la plateforme GCP, et représentera l'activité majeure du consultant. En mineure, il interviendra en parallèle sur un second projet, qui vise à le doter d'une plateforme data basé sur le Hadoop on premise du groupe. Nous recherchons un profil data engineer GCP + Hadoop qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les demandes métier sur le projet DatOps. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. Les tâches suivantes seront confiés au consultant : Mettre en œuvre de nouvelles ingestions de données, data prep/transformation Maintenir et faire évoluer nos outils de gestion des pipeline de données Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme

CDI
Freelance

Offre d'emploi
Profils Devops certifié CKA ou CKAD junior

SARIEL
Publiée le
Google Cloud Platform (GCP)
Kubernetes

3 ans
40k-55k €
190-460 €
Île-de-France, France

Bonjour, Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Expérience Cloud de minimum 2 ans ( GCP de préférence ) Expert en supervision et automatisation ( ICA, CI/CD , ELK, Prom, Grafana ) Compétences techniques Orchestration Kubernetes - Expert - Impératif automatisation IaC (Terraform/Ansible - Confirmé - Important CI/CD (GitLab CI, ArgoCD) - Confirmé - Important Expérience en env de production avec incidents - Junior - Important Connaissances linguistiques Français Courant (Impératif) Nous recherchons un/une DevOps GCP junior, solide techniquement, disposant d’une expérience cloud d’au moins 2 ans et d’une bonne culture DevOps. Le/la candidat·e possède au minimum une certification Kubernetes (CKA/CKAD fortement appréciée) et montre une vraie appétence pour l’industrialisation et l’automatisation. Contexte & mission Au sein d’un environnement hybride (on-premise + GCP) au service d’une plateforme e-commerce à fort trafic, vous contribuez à : Industrialiser et opérer nos workloads conteneurisés sur Kubernetes/GKE (déploiements, releases, sécurité). Automatiser l’infrastructure via Terraform et les pipelines GitLab CI/CD (build, test, déploiement). Mettre en place et maintenir l’observabilité (logs, métriques, traces), Participer aux bonnes pratiques SRE/DevOps (revues de code, IaC, GitOps, gestion des secrets, sécurité by design). Documenter, partager et améliorer en continu nos processus et outils. Compétences techniques attendues (must-have) Kubernetes (GKE) : packaging (Helm/Kustomize), gestion des namespaces, RBAC, network policies, troubleshooting. Terraform : modules réutilisables, gestion d’états, bonnes pratiques d’IaC. CI/CD GitLab : pipelines, runners, quality gates, artefacts, releases. Docker et fondamentaux GCP : IAM, VPC, Artifact Registry, Cloud Logging/Monitoring. Culture DevOps : tests automatisés, revues, documentation, sensibilisation sécurité et FinOps de base. Compétences appréciées (nice-to-have) GitOps (Argo CD/Flux), Ansible, Policy-as-Code (OPA/Conftest). APM/observabilité (Prometheus/Grafana, Dynatrace ou équivalent). Notions de résilience/DRP, sauvegardes/restores, durcissement sécurité. Certifications Obligatoire : certification Kubernetes (CKA/CKAD en cours ou obtenue). Souhaitées : Google Associate Cloud Engineer (ACE) et/ou Professional Cloud DevOps Engineer. Livrables attendus Pipelines CI/CD fiables et documentés. Modules Terraform maintenables (avec README et exemples). Charts/manifestes Kubernetes prêts à l’emploi. Dashboards & alerting opérationnels + runbooks associés. Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant à

129 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous