Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 128 résultats.
CDI

Offre d'emploi
Ingénieur.e DevOps GCP (H/F)

SYD CONSEIL MANAGEMENT
Publiée le
HashiCorp Vault
Jenkins
Python

40k-50k €
Nantes, Pays de la Loire

🌟 Quel sera ton poste ? 🌟 📍Lieu : Nantes 🏠 Télétravail : 2 jours 👉 Contexte client : Tu rejoins la DSI d’un acteur national de la grande distribution, avec un SI conséquent : plusieurs milliers de serveurs, des applications critiques et une stratégie multi-cloud. C'est dans ce contexte que tu intègres l’équipe qui pilote la plateforme GCP centrale, celle qui définit les standards techniques et façonne le futur du SI. La Landing Zone sur laquelle tu interviens est pensée pour scaler, absorber la croissance et évoluer en continu. Tu auras pour missions de : Construire et faire évoluer une Landing Zone GCP pensée pour tenir à grande échelle. Collaborer en direct avec le PO et les architectes Cloud pour faire les bons choix technique. Industrialiser et fiabiliser les déploiements (Terraform, CI/CD). Assurer le Build comme le Run dans une logique d’amélioration continu. Conseiller les équipes utilisatrices et savoir challenger leurs choix. Faire circuler les bonnes pratiques Cloud & Sécurité. Stack technique : GCP, TerraformGit, Jenkins, Python,Cloud Armor, Security Command Center, Hashicorp Vault, Datadome, Cloudflare 🌟 Pourquoi ce projet ? 🌟 Parce que tu vas travailler sur des sujets réellement innovants, là où les choix techniques engagent le long terme. Tu ne viens pas juste opérer une plateforme : tu participes à la construction d’un socle cloud de référence, en posant des standards qui seront repris par toute l’organisation.

Freelance

Mission freelance
Devops GCP / kubernetes

skiils
Publiée le
Google Cloud Platform (GCP)
Kubernetes

3 ans
310 €
Île-de-France, France

Dans le cadre d’un grand groupe international, nous recherchons un DevOps Junior GCP/Kubernetes . Vous participerez à la conception, au déploiement et à l’amélioration continue d’infrastructures cloud sur Google Cloud Platform. Sous la supervision d’experts confirmés, vous interviendrez sur l’orchestration de conteneurs via GKE, l’automatisation des déploiements, le suivi des performances et l’accompagnement des équipes projets pour garantir stabilité et sécurité des environnements. Stack : GCP KUBERNETES

Freelance

Mission freelance
Développeur Backend Go / Terraform - Lille ( H/F)

BK CONSULTING
Publiée le
Azure DevOps
Go (langage)
Google Cloud Platform (GCP)

36 mois
400-450 €
Lille, Hauts-de-France

Rejoignez une équipe tech qui conçoit, opère et fait évoluer des solutions stratégiques autour de l’Infrastructure-as-Code et du Continuous Delivery. Vous participerez au développement backend en Go , à l’intégration et l’industrialisation de modules Terraform pour le multi-cloud, tout en contribuant à améliorer l’expérience des développeurs. Vous accompagnerez les équipes internes dans l’adoption, l’évolution et la bonne utilisation des outils mis à leur disposition. Ce poste est basé dans la métropole Lilloise

Freelance
CDI

Offre d'emploi
DevOps & Cloud Engineer - GCP

Atlanse
Publiée le
Ansible
Apache Kafka
CI/CD

3 ans
Châtillon, Île-de-France

Vous rejoindrez la Direction Digital & Data au sein de l'équipe OPS en charge de la plateforme e-commerce, déployée en mode hybride (on-premise et Google Cloud Platform). En tant que DevOps, vous collaborerez avec les équipes OPS, QA, DEV et Delivery afin d’assurer la performance, la fiabilité et l’évolution de la plateforme. Votre rôle Exploitation & Maintien en condition opérationnelle Diagnostiquer et résoudre les incidents et dysfonctionnements sur l’infrastructure Mettre en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures Participer aux phases de validation technique lors des mises en production ou des évolutions Gestion & Optimisation des infrastructures Configurer et dimensionner les plateformes pour répondre aux besoins de performance et de scalabilité Industrialiser les architectures cibles et automatiser les déploiements via les pipelines CI / CD Veiller à la sauvegarde des données et à la sécurité des accès en appliquant les bonnes pratiques de gestion des droits utilisateurs Pilotage & Suivi des ressources Suivre et optimiser les coûts liés aux composants et applications cloud (FinOps) Proposer des évolutions ou optimisations pour améliorer la fiabilité et l’efficacité des solutions déployées

CDI

Offre d'emploi
Développeur DevOps Cloud

Amontech
Publiée le
AWS Cloud
DevOps
Google Cloud Platform (GCP)

1 an
40k-50k €
400-500 €
La Défense, Île-de-France

🎯 Contexte Nous recherchons un Développeur Senior DevOps GCP pour intervenir sur une plateforme stratégique de calculs de risque Equity au sein d’un groupe bancaire international. Vous rejoindrez l’équipe en charge du développement et de la transformation de la plateforme vers une architecture micro-services déployée sur Google Cloud Platform (GCP). 🔎 Missions Intégré(e) à l’équipe, vous serez en charge de : Développer et maintenir les composants de la chaîne end-to-end du calcul de risque. Répondre aux enjeux de performance, scalabilité, résilience et sécurité. Mettre en place et exécuter les tests, déployer en production et rédiger la documentation. Travailler principalement sur GCP, avec une ouverture sur AWS. Participer au monitoring, à la maintenance et au support des applications (astreintes incluses). Contribuer à l’amélioration continue des pratiques DevOps au sein de l’équipe. 🛠 Compétences recherchées 5 ans d’expérience minimum en développement et DevOps. Excellente maîtrise de Java, Python, Jenkins, Terraform, Kubernetes et GCP/AWS. Connaissances appréciées en C++ et SQL. Anglais courant, environnement international. Une expérience dans les domaines Equity, Pricing ou Risk est un atout. 📍 Localisation & Conditions Basé en Ile-de-France. Démarrage : dès que possible.

CDI
Freelance

Offre d'emploi
DevOps GCP

KLETA
Publiée le
DevOps
Google Cloud Platform (GCP)

3 ans
Paris, France

Missions principales Concevoir, déployer et maintenir des infrastructures GCP (Compute Engine, GKE, Cloud Storage, BigQuery, Pub/Sub, VPC, IAM, etc.). Mettre en place et gérer des pipelines CI/CD pour les projets cloud (Cloud Build, GitHub Actions, Jenkins, GitLab CI). Automatiser le déploiement et la gestion des ressources via Infrastructure as Code (Terraform, Deployment Manager, Ansible). Assurer la supervision, le monitoring et l’alerting (Stackdriver, Cloud Monitoring, Prometheus, Grafana). Implémenter les bonnes pratiques de sécurité GCP et assurer la conformité (IAM, gestion des secrets, audit). Collaborer avec les équipes Développement et Data pour optimiser l’architecture cloud et les processus de déploiement. Participer à la résolution d’incidents et à l’amélioration continue des environnements cloud.

Freelance

Mission freelance
Data Engineer GCP / Hadoop – Pipelines de données & DatOps

CAT-AMANIA
Publiée le
Agile Scrum
Apache Hive
Apache Spark

6 mois
380-440 €
Île-de-France, France

Nous recherchons un Data Engineer expérimenté pour rejoindre une équipe projet au sein d’un département IT Groupe. Le poste consiste principalement à intervenir sur un projet DatOps basé sur GCP , et secondairement sur la mise en place d’une plateforme data sur Hadoop. Vos missions : Mettre en place et maintenir des pipelines de données (ingestion, préparation, transformation). Faire évoluer les outils de gestion et d’automatisation des flux de données. Collaborer avec les équipes DevOps pour les évolutions de la plateforme. Participer activement aux rituels agiles et contribuer à l’amélioration continue.

CDI

Offre d'emploi
Expert GCP - F/H - Guyancourt

AVANISTA
Publiée le

France

Depuis 2012, nous mettons notre expertise au service des secteurs de l'IT et l'Ingénierie pour accompagner nos clients dans des projets ambitieux et innovants. Notre force ? Un management de proximité qui valorise vos aspirations, des opportunités de carrière concrètes et un engagement sincère pour le bien-être et l'épanouissement de nos collaborateurs. Rejoignez-nous sur des projets à fort impact au sein d'une entreprise où chaque talent compte ! Avanista recrute ! Toujours en recherche de nouveaux talents, nous souhaiterions intégrer un Expert GCP au sein de nos équipes pour l'un de nos clients. Le contexte ? Nous recherchons un Expert GCP disposant d'une solide expérience sur les environnements Cloud et les plateformes de supervision. Votre rôle sera d'assurer la fiabilité, la performance et la cohérence de nos projets en proposant des solutions techniques robustes et innovantes Vos missions ? - Piloter et optimiser l'utilisation de la plateforme GCP au sein des projets stratégiques. - Assurer le suivi de la cohérence et de l'intégration des projets DATA. - Utiliser Dynatrace pour la supervision et le monitoring des environnements Cloud. - Analyser et challenger les architectures techniques proposées par les différentes équipes. - Être force de proposition et apporter une vision experte auprès des entités métiers et IT. - Contribuer à la sécurisation de l'existant et à l'amélioration continue des environnements Cloud. - Participer à l'industrialisation et à l'optimisation des process (ordonnancement des traitements via Control-M ou équivalent). - Prendre en charge les demandes de créations de ressources natives (Kubernetes & Cloud) et les outils des chaines CI/CD - Prendre en charge de l'accompagnement des équipes applicatives pour la bonne implémentation et utilisation des outils DevOps. - S'assurer du bon accostage entre le développement applicatif et le déploiement sur les écosystèmes du cloud publique (AWS/GCP) dans l'utilisation de la CI/CD. - Définir les flux de logs de l'applicatif. - Assurer l'automatisation des tests et la vérification des prérequis à l'intégration et à l'exploitation. - Garantir la mise en place de tests de sécurité automatisés en production (scans d'images, de vulnérabilité et intrusion etc.) - Construire l'observabilité, la supervision et l'alerting des applications et des solutions employées dans le cloud public. - Opérer le provisionnement et le déploiement de l'infra as code - Gestion des changements - Coordonner l'évaluation des impacts des changements et la préparation des changements. - Autoriser les changements en coordination avec l'entité cliente et les équipes. - Informer l'entité client des applications concernées par le changement. - Dans le cadre des projets, participer à l'élaboration des devis et est le garant du respect des normes de production et d'exploitabilité - Etre force de proposition sur les solutions à mettre en oeuvre afin de respecter les SLA. - Coordonner la mise en production des solutions choisies. - Sensibiliser les clients sur les contraintes de production pendant les phases projets. - Etre responsable de la validation fonctionnelle et technique des DTA, de la validation des procédures, de la mise en place de la supervision et des consignes de production ainsi que de la bonne planification des traitements. - Gestion des évènements/incidents - Gestion des problèmes - Gestion de la configuration - Gestion du reporting - Alimenter le responsable de pôle et d'équipe pour préparer les comités opérationnels et de pilotage organisés avec le client - Participer au reporting de l'équipe (management visuel) - Être responsable de la mise en relation des CI dans la CMDB pour son périmètre applicatif. - Être force de proposition sur les solutions pérennes à mettre en oeuvre pour éradiquer. - Être responsable du suivi des problèmes de son périmètre, de son reporting et avancement des plans d'actions. - Être responsable de l'analyse des incidents et en identifier les causes origines. Coordonner l'ensemble des compétences et expertises nécessaires pour éradiquer les incidents et traiter les problèmes. - Être responsable de la journée de production dans le respect des engagements de service pour son périmètre. - Prendre les dispositions nécessaires en cas d'incident pour préserver les intérêts des clients selon les conventions établies. - Participer ou animer, selon les cas, aux cellules de crises technique et Client. - Être responsable de l'escalade fonctionnelle ou hiérarchique. - Être responsable de la qualité des informations saisies dans Metis (ServiceNow) : heure de résolution, cause/origine et responsabilité. - Être responsable de la communication sur incident vers les clients dans les délais contractuels (2 heures) de la déclaration, de l'état d'avancement, de la résolution, à la clôture avec la production du post-mortem. Le plan d'actions sera suivi jusqu'à la réalisation complète dans les délais. - Participer et coordonner les compétences pour restaurer le service normal dans les délais les plus courts possibles et être responsable du respect des SLAs de son périmètre. - Prendre en charge les incidents Metis (ServiceNow) sur les périmètres applicatifs confiés et en être responsable jusqu'à leur clôture. - Prendre en charge les requêtes Metis (ServiceNow) sur les périmètres applicatifs qui lui sont confiés. Il est responsable de leur bonne réalisation jusqu'à leur clôture. GCP Terraform google cloud plateform

Offre premium
Freelance
CDI

Offre d'emploi
DevOps GCP Full remote (Maghreb)

skiils
Publiée le
CI/CD
Gitlab
Google Cloud Platform (GCP)

1 an
10k-20k €
100-300 €
Île-de-France, France

skiils recrute un(e) Consultant(e) DevOps GCP (H/F) pour renforcer ses équipes Nearshore et intégrer une équipe SCRUM dynamique ! En tant que tel(le), son rôle consistera à contribuer à des projets Cloud et DevOps en apportant son expertise sur les tâches suivantes : Développer et maintenir des pipelines CI/CD automatisés pour les applications de Carrefour, en utilisant Terraform et GCP, comme un chef d’orchestre orchestrant chaque déploiement avec précision. Garantir la stabilité et la performance des infrastructures Cloud, tel un gardien vigilant de la forteresse GCP. Collaborer avec les équipes de développement et d’infrastructure pour assurer une intégration et un déploiement continus des applications. Diagnostiquer et résoudre les problèmes techniques liés aux infrastructures Cloud. Participer à l’amélioration continue des processus et des standards DevOps. Développer et documenter ses solutions pour assurer la pérennité et la qualité du code. Travailler au sein d’une équipe SCRUM (PO, développeurs, QA, Support).

Freelance

Mission freelance
Data engineer GCP / Hadoop H/F

Insitoo Freelances
Publiée le
Google Cloud Platform (GCP)
Hadoop

2 ans
300-500 €
Paris, France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer GCP / Hadoop H/F à Paris, France. Les missions attendues par le Data engineer GCP / Hadoop H/F : Nous recherchons un profil data engineer GCP + Hadoop qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les demandes métier sur le projet DatOps. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme

CDI
Freelance

Offre d'emploi
Architecte Solutions Cloud GCP – Expertise Data & Architecture Résiliente

ANAFI CONSULTING
Publiée le
Microsoft SQL Server
Mongodb
MySQL

24 mois
60k-85k €
600-850 €
Île-de-France, France

Qui sommes-nous ? Anafi Consulting est un cabinet de conseil basé à Paris, fondé en 2023. Nous accompagnons nos clients grands comptes dans leurs transformations technologiques et organisationnelles, avec une expertise forte en DevOps, Data, Craft, sécurité et numérique responsable . Nous intervenons dans des secteurs variés : finance, télécommunications, IT et nucléaire . Votre rôle Dans le cadre d’un projet stratégique de modernisation des plateformes Cloud et Data, nous recherchons un(e) Architecte Solutions Cloud GCP expérimenté(e). Vous interviendrez sur des sujets d’ architecture hybride, de Data Management et d’optimisation cloud , tout en accompagnant les équipes techniques et métiers dans l’adoption des meilleures pratiques Cloud. Votre rôle combinera expertise technique, conception d’architectures sécurisées et évolutives , et accompagnement au changement auprès des équipes internes. Vos missions principales Concevoir et faire évoluer des architectures Cloud GCP sécurisées, performantes et résilientes. Participer à la conception de solutions hybrides assurant la réversibilité et la consommation de données entre le cloud et l’on-premise. Contribuer à la mise en œuvre de solutions Data Management sur GCP (BigQuery, Starburst, Minio, Apache Spark). Fournir conseil et expertise sur les bonnes pratiques GCP, la gouvernance et l’optimisation des coûts. Réaliser et présenter les dossiers d’architecture auprès des équipes techniques et des instances de gouvernance. Acculturer et former les équipes d’architectes internes sur les fondamentaux et les services Cloud GCP (présentations, ateliers, documentation). Participer à l’ implémentation et au déploiement des solutions conçues. Promouvoir les principes d’ architecture résiliente et les pratiques Agile & DevOps .

CDI
Freelance

Offre d'emploi
Data engineer GCP / Hadoop - DataOps

VISIAN
Publiée le
Apache Spark
BigQuery
Google Cloud Platform (GCP)

1 an
40k-50k €
300-480 €
Paris, France

Au sein du département IT, l'équipe a pour vocation de fournir aux services Technologies & Opérations et Banque de Proximité et Assurance, l’ensemble des applications nécessaires à leur fonctionnement. L'appel d'offre vise à renforcer notre binôme de data engineers, en priorité sur le projet DatOps que nous opérons pour le compte de la Direction des Opérations. Celui-ci s'appuie sur la plateforme GCP, et représentera l'activité majeure du consultant. En mineure, il interviendra en parallèle sur un second projet, qui vise à le doter d'une plateforme data basé sur le Hadoop on premise du groupe. Nous recherchons un profil data engineer GCP + Hadoop qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les demandes métier sur le projet DatOps. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. Les tâches suivantes seront confiés au consultant : Mettre en œuvre de nouvelles ingestions de données, data prep/transformation Maintenir et faire évoluer nos outils de gestion des pipeline de données Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme

CDI
Freelance

Offre d'emploi
Profils Devops certifié CKA ou CKAD junior

SARIEL
Publiée le
Google Cloud Platform (GCP)
Kubernetes

3 ans
40k-55k €
190-460 €
Île-de-France, France

Bonjour, Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Expérience Cloud de minimum 2 ans ( GCP de préférence ) Expert en supervision et automatisation ( ICA, CI/CD , ELK, Prom, Grafana ) Compétences techniques Orchestration Kubernetes - Expert - Impératif automatisation IaC (Terraform/Ansible - Confirmé - Important CI/CD (GitLab CI, ArgoCD) - Confirmé - Important Expérience en env de production avec incidents - Junior - Important Connaissances linguistiques Français Courant (Impératif) Nous recherchons un/une DevOps GCP junior, solide techniquement, disposant d’une expérience cloud d’au moins 2 ans et d’une bonne culture DevOps. Le/la candidat·e possède au minimum une certification Kubernetes (CKA/CKAD fortement appréciée) et montre une vraie appétence pour l’industrialisation et l’automatisation. Contexte & mission Au sein d’un environnement hybride (on-premise + GCP) au service d’une plateforme e-commerce à fort trafic, vous contribuez à : Industrialiser et opérer nos workloads conteneurisés sur Kubernetes/GKE (déploiements, releases, sécurité). Automatiser l’infrastructure via Terraform et les pipelines GitLab CI/CD (build, test, déploiement). Mettre en place et maintenir l’observabilité (logs, métriques, traces), Participer aux bonnes pratiques SRE/DevOps (revues de code, IaC, GitOps, gestion des secrets, sécurité by design). Documenter, partager et améliorer en continu nos processus et outils. Compétences techniques attendues (must-have) Kubernetes (GKE) : packaging (Helm/Kustomize), gestion des namespaces, RBAC, network policies, troubleshooting. Terraform : modules réutilisables, gestion d’états, bonnes pratiques d’IaC. CI/CD GitLab : pipelines, runners, quality gates, artefacts, releases. Docker et fondamentaux GCP : IAM, VPC, Artifact Registry, Cloud Logging/Monitoring. Culture DevOps : tests automatisés, revues, documentation, sensibilisation sécurité et FinOps de base. Compétences appréciées (nice-to-have) GitOps (Argo CD/Flux), Ansible, Policy-as-Code (OPA/Conftest). APM/observabilité (Prometheus/Grafana, Dynatrace ou équivalent). Notions de résilience/DRP, sauvegardes/restores, durcissement sécurité. Certifications Obligatoire : certification Kubernetes (CKA/CKAD en cours ou obtenue). Souhaitées : Google Associate Cloud Engineer (ACE) et/ou Professional Cloud DevOps Engineer. Livrables attendus Pipelines CI/CD fiables et documentés. Modules Terraform maintenables (avec README et exemples). Charts/manifestes Kubernetes prêts à l’emploi. Dashboards & alerting opérationnels + runbooks associés. Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant à

Freelance
CDI

Offre d'emploi
DevOps Kubernetes Engineer / SRE

KLETA
Publiée le
Apache Airflow
Apache Kafka
CI/CD

3 ans
Paris, France

Au sein d’une équipe d'expertise, vous intervenez en tant que DevOps / SRE Platform sur l'évolution et la maintenance d’une plateforme moderne orientée Big Data & Streaming. L’objectif est d’assurer la fiabilité, l’évolutivité et la sécurité de l’écosystème technique basé sur Kubernetes, Kafka et GCP. Responsabilités principales Migration Cloud & Conteneurs : Migration des composants depuis l’IaaS vers Google Cloud Platform (services managés) et Kubernetes (GKE). Administration Kubernetes & Operators : Gestion et maintenance de clusters Kubernetes (GKE) et déploiement des opérateurs critiques. Data Streaming & Kafka : Maintien de la plateforme Streaming temps réel basée sur Kafka. Orchestration & Pipelines : Administration du Cloud Composer (Airflow) et mise en place de pipelines d’ingestion de données. Infrastructure as Code & Sécurité : Déploiement d’infrastructures via Terraform, gestion du patch management et renforcement de la sécurité des composants. CI/CD & Automatisation : Maintenance et optimisation des pipelines CI/CD (Jenkins, GitLab-CI) et contribution à l’industrialisation des déploiements. Observabilité & Fiabilité : Mise en place et suivi du monitoring (Prometheus, Grafana), gestion proactive des incidents et amélioration continue de la disponibilité des services. Innovation & Support : Réalisation de POC sur de nouvelles technologies, support technique aux équipes de développement et accompagnement des équipes RUN.

Freelance

Mission freelance
Cloud engineer / Architecte (profil uniquement basé à Lille)

ODHCOM - FREELANCEREPUBLIK
Publiée le
Google Cloud Platform (GCP)
Kubernetes

1 an
400-530 €
Lille, Hauts-de-France

Secteur retail Contrainte forte du projet : Evoluer dans un environnement agiles au sein de plusieurs équipes produit Description détaillée : A la recherche d'un Cloud Engineer expérimenté ayant participé à des projets de modernisation d'outils / pratiques et de migration Cloud : - automatisation d'outils et de process, de création / évolution de pipelines CI/CD - déploiement d’environnements applicatifs complets dans le Cloud - accompagnement des équipes sur des sujets DevOps / techniques - formation/acculturation sur les bonnes pratiques. Environnement cloud GCP / Kubernetes

CDI
Freelance

Offre d'emploi
Architecte Cloud GCP

KLETA
Publiée le
Google Cloud Platform (GCP)

3 ans
Paris, France

Missions principales Concevoir et déployer la Landing Zone GCP en respectant les bonnes pratiques Google Cloud et les standards de sécurité. Définir et implémenter l’architecture cible : Organisation & Gouvernance : hiérarchie des projets, IAM, gestion des rôles et permissions. Sécurité : politiques de sécurité, gestion des identités, conformité (CIS, ISO, RGPD). Réseaux : VPC, interconnexions hybrides (VPN, Interconnect), firewall, segmentation. Observabilité : logging, monitoring, alerting (Cloud Logging, Cloud Monitoring). FinOps : mise en place des bonnes pratiques de suivi et d’optimisation des coûts. Automatisation & IaC : Terraform, GitOps, CI/CD pour la gestion des ressources. Assurer la mise en place des services clés : compute, stockage, bases de données, data/AI. Travailler en collaboration avec les équipes Sécurité, Réseau, DevOps et Data pour aligner les besoins business et techniques. Accompagner et former les équipes internes dans l’adoption de GCP. Être force de proposition sur les choix technologiques et les évolutions de la plateforme.

128 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous