Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform à Paris
Ce qu’il faut savoir sur Google Cloud Platform
Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Lead Data Engineer GCP

RESPONSABILITÉS CLÉS Garantir l'harmonisation de l'architecture et le support technique Être responsable de l'architecture technique du produit de données Assurer l'alignement avec les directives d'architecture et être le relais avec les équipes d'architecture Veiller à ce que la construction du produit soit conforme aux principes de données Résoudre les problèmes techniques et partager les meilleures pratiques de codage Diffuser les directives technologiques du groupe et les bonnes pratiques au sein de l'équipe Partager avec les équipes de développement et assurer l'amélioration continue (rétrospectives) Garantir la qualité de service pour chaque produit et respecter les SLA Responsable de la documentation technique, des revues de code et de toutes les pratiques techniques Accompagner le PO et assurer la qualité de service Responsable de la qualité de service et des SLA Aider le PO dans la phase de découverte de solution/produit Veiller à des documents clairs pour l'auto-service Référent technique au sein de son équipe Responsable de diffuser la vision technique Data au sein de son équipe Responsable de la qualité du développement au sein de son équipe Responsable des revues de code et de l'amélioration continue du produit qu'il gère Responsable des demandes de fusion (merge request) au sein de son équipe (Github) Gérer les affinements ad-hoc Maintenir la relation avec les sources de données Garantir la connaissance opérationnelle des données Enregistrer et suivre la dette technique avec l'équipe d'architecture
Expert Data GCP

Bonjour à tous, MISSION FREELANCE - DÉMARRAGE IMMÉDIAT !! TOUS LES PROFILS AYANT UN PRÉAVIS, LE CLIENT NE RETIENDRA PAS VOTRE PROFIL. Je recherche pour un de mes clients un expert Google Cloud Platform (GCP) avec des capacités en Data Modelling, Data Governance & Data Architecture. • Tâches de la mission : o Migration/Organisation du Projet Client dans GCP (7-10 jours de travail) o Data Mapping (au niveau information) : schéma entre les différentes tables (5 jours de travail) o Documentation des tables : décrire les tables du Datamart (15 jours de travail)
Architecte solution Data & BI (GCP & Power BI)
Bonjour à tous, Je suis à la recherche d’un architecte solution BI & Data pour une mission à Paris. Compétences clefs : PowerBI, GCP, luxe, retail, supply chain Lieu de la mission : Paris centre Durée de la mission : 6 mois Date de démarrage : ASAP Vous serez amené à produire des documents d’architecture, de design, de flux de données… A titre d’exemple : On a un besoin concernant la supply chain, on veut remonter différentes typologies de stock en transit, les réceptions, les positions de stocks… Il faudrait créer 2/3 rapports sur PowerBI et donnant un accès aux métiers aux self-services. Pour faire cela : Vous indiquerez qu’il faut construire 2/3 tables sur GCP (avec 1 ou 2 datamart sur PowerBI et un data set sur PowerBI) et des rapports qui se pluggeront. Vous donnerez les directives sur comment mettre en place la solution et la direction à prendre.
SysOps GCP

Contexte de la mission : Un profil de type SysOps capable de comprendre les services du socle GCP ainsi que les services applicatifs GCP liés à la « Data ». Il devra être en mesure de proposer des configurations sécurisées de ces services applicatifs permettant de les proposer comme briques de base futures pour un déploiement chez le client. MISSIONS : Réaliser les phases de spécifications techniques détaillées, les maquettes de validation, les procédures d’installation et d’exploitation des solutions ciblées Fournir en amont à l’architecte référent les éléments nécessaires à la mise en œuvre côté client (dossiers d’architecture CATE) Garantir la cohérence de l’architecture mise en place en collaboration avec les architectes Cloud. Prendre en compte la sécurité des ressources cloud en respectant les règles RSIS et les bonnes pratiques en matière de développement, contribuer à faire évoluer l’infrastructure avec veille régulière des menaces et en implémentant et améliorant les règles de détections. Mettre en place les pipelines DevOps afin d’automatiser les déploiements sur l’ensemble des environnements GCP, assurer la généricité des pipelines Accompagner les référents Métiers dans leur compréhension du besoin Métier et les guider dans leurs réponses aux clients grâce à son expertise et sa connaissance des contraintes et procédures internes Ouvrir et suivre des incidents chez l’info gérant Cloud Public en cohérence avec les processus Ouvrir et suivre des Changements impactant les applications sous sa responsabilité en cohérence avec les processus ITIL.
Consultant DevOps Azure / GCP

Nous recherchons pour notre client un Consultant DevOps confirmé. L’objectif est de renforcer l’équipe DevOps en charge de la modernisation des infrastructures et des déploiements applicatifs. Le consultant interviendra sur l’automatisation des processus, l’optimisation des performances et la gestion des environnements Cloud et CI/CD. Compétences Recherchées : Infrastructure & Cloud : Kubernetes, Docker, Terraform, Ansible, CI/CD (Jenkins, GitLab CI) Langages : Python, Bash Supervision & Sécurité : Prometheus, ELK, Dynatrace Environnements : Linux, Cloud (GCP, Azure)
Consultant (H-F) Architecte Data plateforme GCP

Nous recherchons un Architecte Data Plateforme sous GCP & Chef de Projet pour accompagner notre client dans la mise en place de son offre produit data plateforme. Missions principales : Lister les cas d’usage fonctionnels de la data plateforme GCP avec le Data Office et les architectes d’entreprise. Définir un cadre normatif permettant de matérialiser la gouvernance et le partage des données entre les grands domaines métier (data mesh / data products). Planifier et structurer l’exécution du projet en fonction des cas d’usages priorisés. Piloter l’exécution du projet avec un premier cas d’usage pilote jusqu’en production. Adresser les sujets clés, notamment : Définition des standards techniques et services GCP. Mise en place des processus de gouvernance des données (ex : Dataplex, demandes d'accès, etc.). Étude des cas d’usage d’hybridation (on-premise vs GCP, GCP vs AWS) et solutions adaptées. Définition des mécanismes d’habilitation selon la classification des données. Intégration des services de sécurité (encryption, anonymisation, etc.). Proposition d’un modèle opérationnel entre les différentes équipes (Tech, Cloud, Data Factory, métiers). Étude des modèles de refacturation basés sur la consommation des data products. Définition du modèle de RUN. Validation et industrialisation du stockage et du partage de données sur GCP. Intégration avec les solutions data du client (Collibra, Power BI, Dataiku, etc.).
Ingénieur Devops Azure / GCP / On-Premise
Automatisation des déploiements : En collaboration avec les différentes équipes techniques, l’ingénieur participera à la conception et la gestion des automatismes du système d'information : intégration, déploiement en continu en utilisant des services des Cloud public tels qu’Azure et GCP ou des solutions logicielles et infrastructures OnPremise. Le déploiement se fera via les outils Gitlab CI, Broadcom Nolio, et s’appuiera sur des technologies tel qu’Ansible, Terraform et Docker. Intégration dans les pipelines CI/CD : Travaillant en étroite collaboration avec les équipes de développement, l’ingénieur devra intégrer les meilleures pratiques dans les pipelines CI/CD. Cela inclus l’automatisation du déploiement, la gestion des secrets, la mise en place de tests d’intégration, la gestion des artefacts, etc. Garantir l'intégrité permanente des automatismes au regard des évolutions des produits Résolution des problèmes : L’ingénieur devra être en mesure de diagnostiquer et résoudre des problèmes de nature multiples (CI, CD, configuration, infrastructure, etc..). Cela peut inclure des problèmes de performance, de sécurité, de disponibilité, etc. Il/elle devra également fournir un support aux équipes d’exploitation dans le cadre du traitement d’alertes ou d’incidents. Gestion des outils ALM : L’ingénieur devra s’assurer de bon fonctionnement et de l’évolution des outils ALM (Gitlab, Sonar, TFS, JIRA, etc…). Il/elle devra surveiller les performances, optimiser les coûts et s’assurer que les ressources sont correctement dimensionnées. Collaboration avec les équipes : Travailler en étroite collaboration avec les développeurs, les ingénieurs de production et les autres membres de l’équipe afin de garantir que les solutions proposées conjuguent les meilleures pratiques Devops, les contraintes techniques et de sécurité ainsi que les besoins des projets. Il/elle participera à des réunions d’équipe, partager les connaissances et contribuer à l’amélioration continue des processus. Contribuera au déploiement des pratiques DevOps au sein de l’entreprise. Participera au cadrage des projets dans son domaine de compétences : analyse des besoins et contribution aux chiffrages de la partie technique
Data Engineer GCP

Bonjour, Je vous envoie ce mail car dans le cadre d'une mission de longue durée pour notre client situé en à Paris, nous recherchons un Data Engineer GCP. Type de profils confirmé (> 5 ans d'expérience) Technologies GCP (expérience obligatoire sur ce cloud provider) Python (expérience obligatoire) Bonne maîtrise BigQuery (obligatoire) Bonne maîtrise Terraform Git (obligatoire) Dans le cas où vous êtes intéressé, pourriez-vous svp envoyer votre CV au format Word en indiquant votre disponibilité ainsi qu'une fourchette de vos prétentions salariales ou de votre tarification journalière si vous êtes indépendant ?
Ingénieur Infrastructure Cloud (Migration Azure → GCP)

📝 Contexte & Missions Dans le cadre de la migration de notre infrastructure cloud de Microsoft Azure vers Google Cloud Platform (GCP) , nous recherchons un Ingénieur Infrastructure Cloud expérimenté pour piloter cette transition stratégique. Vous serez en charge de concevoir, déployer et optimiser la nouvelle infrastructure sur GCP , en garantissant la scalabilité, la performance et la sécurité des environnements. Vous travaillerez en collaboration avec les équipes DevOps, Backend et Sécurité pour assurer une migration fluide et sécurisée. 🔹 Vos missions principales : Définir l’architecture cible sur GCP et les bonnes pratiques de migration Concevoir et mettre en place les pipelines CI/CD adaptés à l’environnement GCP Optimiser la gestion des bases de données (MySQL, SQL Server) dans un environnement cloud Automatiser le déploiement des infrastructures via Terraform / Infrastructure as Code Assurer la sécurité et la conformité des services migrés (IAM, monitoring, logging) Accompagner les équipes techniques dans la prise en main de GCP Élaborer un plan de rollback et gérer les risques liés à la migration Mettre en place des processus de monitoring et d’alerting post-migration 🛠 Stack technique utilisée : Cloud : Azure (actuel) → Migration vers GCP Bases de données : MySQL, SQL Server CI/CD & DevOps : GitLab, Azure DevOps, Terraform Développement : PHP, Java, Python, C# (collaboration avec les équipes Backend) Frameworks : Symfony, Spring Boot Sécurité & Monitoring : IAM, Logging, Stackdriver
Ingénieur DevOps Expert (GCP obligatoire/pas de full TT) H/F

Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un Ingénieur DevOps Expert H/F pour rejoindre un groupe international le plus rapidement possible. Ouverts au CDI et aux indépendants. 🎯 Ce que l'on attend de toi … ✨ Garantir la fiabilité et la performance des applications et technologies du SIRH, aussi bien en environnement Cloud qu’On-premise (support niveau 3) ✨ Automatiser et optimiser les processus grâce à la création de pipelines CI/CD et d’outils de supervision centralisée. ✨ Coordonner les activités de maintenance et assurer la qualité des livrables produits par la DSI et ses partenaires. ✨ Sécuriser et administrer les infrastructures Cloud et On-premise en mettant en place des solutions robustes et conformes aux standards. ✨ Collaborer avec les équipes techniques et fonctionnelles , en assurant le lien avec les éditeurs et les prestataires, tout en vulgarisant les concepts techniques auprès des non-informaticiens. ✨ Piloter les migrations vers le Cloud (principalement GCP) et améliorer les architectures existantes avec Kubernetes, Terraform et Docker. ✨ Être un moteur d’innovation , force de proposition pour l’amélioration continue du SIRH et des processus d’exploitation. Présentiel : 1 jour par semaine Contexte : Au sein de la Direction SIRH, être garant dans un contexte Cloud et On-premise des applications et technologies déployées au sein du périmètre, piloter les prestataires et gérer des projets. Les petits + 🔥 pour les candidats recrutés en CDI : 👉 Bénéficier d’une formation sur mesure adaptée à ton profil 👉 Un système de prime de cooptation qui n’existe nulle part ailleurs 👉 Une entreprise jeune et ambitieuse où il fait réellement bon vivre 👉 9 à 12 RTT par an 👉 Primes vacances 👉 Mutuelle prise en charge à 100% 👉 Frais mobilité de 4 euros par jour travaillé Le suivi de nos consultants en CDI sur 3 niveaux : 1. Chargé RH : tu auras à minima des points trimestriels pour comprendre si tout se passe bien sur ta mission par rapport à l’équipe, à ton manager, à la charge de travail, etc. 2. Business Manager : tu auras le feedback du client au sujet de ton travail et tu pourras faire remonter le tien aussi. Vous déciderez ensemble la fréquence des points. 3. Team Leader Line : tu seras accompagné par un expert technique de ton domaine qui comprendra tes difficultés, tes motivations et qui pourra partager ses expériences et t’accompagner dans tes souhaits d’évolution. Tu te reconnais ? Alors, tu es fait.e pour nous rejoindre ! Viens échanger avec nous 😉
Ingenieur SYSTEME WINDOWS & CLOUD AZURE & GCP

Poste : Ingénieur Système Windows CLOUD (GCP) Missions Maitrise de l’offre Cloud Microsoft Azure et GCP Gestion des serveurs cloud et outillages associés Installer et Administrer les services IaaS et PaaS en relation avec nos partenaires Cloud Maintien en condition opérationnelle de niveau 3 sur les environnements Cloud, Windows Servers, Linux Servers en lien avec les hébergeurs et infogérant. Documenter l’ensemble des solutions (DINS, DEX,..) Compétences et qualités personnelles Vous avez une expérience solide sur Azure et GCP ainsi que sur les outils d’automatisation (Terraform) et de CI/CD. Bonnes connaissances des serveurs Windows et Linux Bonne qualité rédactionnelle Connaissances dans la rédaction de cahier des charges, documentation d’architecture et d’exploitation Connaissance du référentiel ITIL serait un plus Vous êtes autonome, rigoureux et polyvalent. Vous avez un bon niveau d'anglais. Télétravail : 2 jours par semaine
Consultant (H-F) Data engineer Looker/GCP

Nous recherchons pour l’un de nos clients, un grand groupe international du secteur du luxe basé à Paris , un Data Engineer spécialisé sur Looker et BigQuery . Vous interviendrez au sein des équipes Ventes & Marketing pour contribuer à la modélisation, l’analyse et la restitution des données , en lien avec les équipes métiers. Votre rôle sera central pour accompagner les métiers dans la prise de décision grâce à la mise en place de modèles de données robustes et la création de dashboards stratégiques et performants via Looker . Vous évoluerez dans un environnement international, au sein d’une équipe dynamique, avec des projets à forte visibilité pour la direction.
Data Engineer Senior (GCP, BigQuery, DBT, Airflow)-ASAP
ous interviendrez au sein de l’équipe Data Pilotage, composée d’un Product Owner et d’un ingénieur data. Votre mission portera sur l’évolution, l’industrialisation et le support de la plateforme Data4All , solution centrale d’accès aux données transverses. Vos principales responsabilités : Construction et amélioration des pipelines de traitement : Création d’indicateurs, transformation des données, gestion de la volumétrie et des coûts sur GCP Modélisation et exposition des données : Développement de modèles de données optimisés, intégration depuis la zone silver, exposition vers Data4All Industrialisation & optimisation : Mise en place CI/CD, intégration Terraform/Terragrunt, performances des environnements Data4All Collaboration active : Participation aux ateliers de cadrage, veille technique, accompagnement des utilisateurs internes
Mission sécurité du cloud GCP(impératif) H/F

Nous recherchons un consultant spécialisé dans sécurité du cloud GCP (services PaaS; IAM, automation, CI/CD) avec de l'expertise sécurité réseaux Évaluer l'architecture de sécurité actuelle sur GCP et particulièrement sur les architectures projet de type data Qualifier et étudier les évolutions de services GCP de type Private Service Connect et être en mesure de proposer des solutions si des problèmes sécurité sont remontées Identifier les vulnérabilités et les risques à utiliser des services GCP (Vertex AI, Worflow, Dataflow, Apigee, GKE, Composer, …) et proposer des recommandations sécurité Mettre en place des contrôles de sécurité dans les outils de type CSMP Accompagner les équipes projets et transverses dans la mise en œuvre des recommandations.
Data Engineer Big Query/GCP

Nous recherchons pour notre client un Data Engineer Big Query/GCP. Missions de l'équipe : - Prendre en charge le produit data Data4All aussi bien dans le build que dans le run : - Construire les nouveaux indicateurs issus de nouvelles sources ou de sources existantes - Mettre à jour et faire évoluer les indicateurs existants, en fonction des évolutions des données - Mettre à jour et faire évoluer les indicateurs existants, en fonction des évolutions des données - Traiter et corriger les anomalies - Concevoir les modèles de données adaptés aux besoins des utilisateurs - Accompagner les utilisateurs de Data4All dans leurs usages - Auditer et cartographier les données existantes de Data4All et proposer une vision cible performante, gouvernée et adaptée aux besoins et contraintes - Mettre en place le contrôle qualité sur les données Prestation attendue : En interaction avec les membres de l’équipe, la prestation consistera à participer à/au(x) : - La mise en place de pipelines de traitement de données - Développement des modèles de données - L’extraction et l’exposition des données issues de la zone silver de la plateforme data vers Data4All - L’industrialisation des différents environnements de Data4All, en collaboration avec l’équipe d’ops - Différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe - La veille technique pour l’amélioration de la stack - L’amélioration des performances et la maîtrise des coûts sur les différents environnements Data4All, sur la GCP
Expert Identité Cloud (H/F)

Au sein de l'un de nos clients bancaire : Le département PFC-OCM a pour mission d’assurer les activités ci-dessous pour l’ensemble des Systèmes d’information, sous la responsabilité de la direction Plateforme Collaborateur, en France et à l’étranger sur plus de 30 sites et pour près de 120 000 utilisateurs : - L’évolution des architectures Annuaires - Le Maintien en Condition Opérationnelle (MCO) sur ce périmètre - Les projets autour de ces infrastructures et de ces solutions La prestation sera réalisée au sein d'un service Annuaire (27 personnes) qui a en charge l’administration et la sécurisation des infrastructures d'annuaires de sécurité : - Les annuaires Microsoft Active Directory - Les services Cloud Office 365 / Azure AD / GCP - Les annuaires de sécurité applicatifs Microsoft ADLDS - Les outils de synchronisation de mots de passe, d’audit des changements, supervision et restauration (MIM, Change Auditor, Recovery Manager) - Les services réseaux implémentés sur système Microsoft : DNS, DFS
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Trésorerie SASU : Comment gérer les premiers mois ?il y a 4 heures
- Problème avec l’URSSAF : sortie de la micro-entreprise à cause d’une erreur de déclarationil y a 7 heures
- SASU IR : Hiway et versement résultatsil y a 7 heures
- Questionnement Client final /Apporteur d'affaires / Salarié portéil y a 8 heures
- Proposition de CDI en tant que freelanceil y a 16 heures
- Achat Téléphone (2)il y a 17 heures
Les métiers et les missions en freelance pour Google Cloud Platform
Ingénieur·e devops (Cloud)
L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e devops (Cloud) .
Découvrir les offresArchitecte Cloud
L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.
Explorez les offres d'emploi ou de mission freelance pour Architecte Cloud .
Découvrir les offresIngénieur·e systèmes & réseaux
L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e systèmes & réseaux .
Découvrir les offresResponsable des infrastructures et de la production
Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.
Explorez les offres d'emploi ou de mission freelance pour Responsable des infrastructures et de la production .
Découvrir les offres