Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform

Ce qu’il faut savoir sur Google Cloud Platform

Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.

Votre recherche renvoie 305 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Un Ingénieur Système Cloud GCP sur Le 78

Smarteo
Publiée le
Google Cloud Platform

2 ans
100-400 €
Yvelines, France

Smarteo recherche pour l'un de ses clients, grand compte, Un Ingénieur Système Cloud GCP sur Le 78 Projet : Continuer les actions d'automatisation et de fiabilisation ; Opérer les revues de code ; Opérer la veille technologique ; Réaliser des présentations techniques ; Assurer le support technique niveau 3 auprès des développeurs traiter tant les aspects techniques et fonctionnels et intervenir sur l'ensemble des environnements de l'intégration à la production y compris dans le cadre de projets. Gestion production/run des projets (astreintes) Vous serez aussi amenés à rédiger des dossiers techniques précis, des avis techniques, ainsi que des feuilles de route à destination des chefs de projet et des opérationnels devant mettre en oeuvre et exploiter les solutions. Principaux livrables : Concevoir la solution ; Paramétrer, développer et qualifier des solutions applicatives ; Établir l'analyse et le diagnostic sur les incidents et les éradiquer ; Mettre en place, mener ou piloter le déploiement des applications développées ; Rédiger ou participer à la rédaction des dossiers de conception générale et/ou détaillée ; Analyser les traitements pour réaliser les études détaillées ou les études d'impact. Compétences requises : Expertise et expérience significative sur Terraform. Définition de module Terraform Expertise sur le Cloud GCP et AWS si possible . Maitrise des outils de déploiement automatisés Pipeline CI CD (gitlab-ci, ansible, AWX, jenkins etc.), language python Connaissance sur les technologies kubernetes Si vous êtes disponible et intéressé merci de me faire parvenir votre TJM+CV à jour dès que possible.

Freelance

Mission freelance
Data Engineer GCP & Dbt

IDEMYS
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform

1 an
Île-de-France, France

Nous recherchons pour le compte de notre client, une entreprise de premier plan reconnue pour son innovation et son excellence, un Lead Data Engineer expérimenté doté d’une expertise en environnement Google Cloud Platform ( GCP ). Ce rôle stratégique s’adresse à un professionnel qui saura combiner compétences techniques pointues et compréhension des enjeux métiers pour accompagner notre client dans l’exploitation et l’optimisation de ses données. Expertise en BigQuery Expérience solide avec Apache Airflow Expertise en Dbt Conaissance de la CICD Expertise en BigQuery Expérience avec Apache Airflow Utilisation de Cloud Run Connaissance de Terraform

Freelance

Mission freelance
Data Architect GCP

Groupe Aptenia
Publiée le
Architecture
Google Cloud Platform

3 ans
750-800 €
Paris, France

Nous sommes actuellement à la recherche d’un Data Architect pour renforcer notre équipe composée de quatre Data Architects . Le projet principal concerne une migration vers GCP : Responsabilités de l’équipe Data Architecture : Concevoir et valider l'implémentation des briques technologiques des plateformes de données (Collecte, Stockage, Traitement, Visualisation). Superviser le respect des principes établis au niveau du groupe en matière d’architecture, de sécurité et de protection des données dans les plateformes de données. Soutenir la stratégie NFR en collaboration avec les Data Tech Leads de chaque équipe Data Product. Accompagner la mise en œuvre de la stratégie Data , en s’appuyant sur des bases techniques telles que GCP, Google BigQuery, DBT et Airflow/Composer . Piloter et posséder la feuille de route technique des plateformes de données. Apporter une expertise en architecture et plateformes de données pour aider les différentes parties prenantes à aligner leurs initiatives sur la stratégie Data. Évaluer et optimiser les architectures de données . Documenter l’architecture sur Confluence et suivre les actions d’implémentation sur Jira .

Freelance

Mission freelance
Architecte technique infrastructure On premise & Cloud Azure et GCP

PROPULSE IT
Publiée le
Azure
Cloud
Infrastructure

24 mois
350-700 €
Paris, Île-de-France

o Au sein de l'équipe Architecture de la Direction des Infrastructures et de la Production du groupe, le consultant contribuera aux activités : • Cadrages techniques et budgétaires en collaboration avec les chefs de projet • Définition des best practices d'architecture • Documentation (DAT, HLD…) • Accompagnement de la stratégie Move2Cloud • Accompagnement des équipes d'exploitation et de développement • Veille technologique Environnement général o Plateformes E-commerce o Plateformes BackOffice & Logistique o Cloud Public Azure & GCP o Cloud Privé (Infrastructure VMWARE Infogérée) o CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) o Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle o Big Data Terradata, MapR, BigQuery, DataBricks o Conteneurisation Docker & Orchestration AKS o Progiciels SAP, Siebel, HRAccess DESCRIPTION DE LA MISSION Missions à prévoir et Expérience acquise Etude des besoins issus des équipes de développement : 5 à 10 ans Etude de l'évolution des composants de plateformes techniques ou de l'intégration de nouveaux services : 5 à 10 ans Rédaction des documents d'architecture et d'intégration générale et détaillée : 5 à 10 ans Rédaction des supports d'aide à l'exploitation et accompagnement des équipes d'exploitation durant la transition : 5 à 10 ans Contribution à l'évaluation budgétaire des solutions mises en œuvre : 5 à 10 ans Support N3 des équipes d'exploitation : 5 à 10 ans Une grande majorité des sujets actuellement adressés par l'équipe d'architecture technique concerne les environnements OnPrem.

Freelance

Mission freelance
ARCHITECTE TECHNIQUE ON PREMISE & CLOUD AZURE ET GCP

PROPULSE IT
Publiée le
Azure
Cloud

24 mois
325-650 €
Paris, Île-de-France

Nous recherchons plusieurs Architectes Technique OnPrem & Cloud pour une mission longue chez l'un de nos clients. Niveau expérimenté à senior requis. CONTEXTE DE LA MISSION Au sein de l'équipe Architecture de la Direction des Infrastructures et de la Production du groupe, le consultant contribuera aux activités : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation - Accompagnement de la stratégie Move2Cloud - Co-construction des solutions - Accompagnement des équipes d'exploitation et de développement Environnement général - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess DESCRIPTION DE LA MISSION - Etude des besoins issus des équipes de développement - Etude de l'évolution des composants de plateformes techniques ou de l'intégration de nouveaux services - Rédaction des documents d'architecture et d'intégration générale et détaillée - Rédaction des supports d'aide à l'exploitation et accompagnement des équipes d'exploitation durant la transition - Contribution à l'évaluation budgétaire des solutions mises en œuvre - Support N3 des équipes d'exploitation Démarrage souhaité : au plus tôt Durée de la mission : Longue Paris

Freelance
CDI
CDD

Offre d'emploi
Ingénieur DEVOPS GCP H/F

SYD CONSEIL MANAGEMENT
Publiée le
Ansible

6 mois
35k-58k €
360-680 €
Nantes, Pays de la Loire

Groupe SYD: Nous recherchons pour l'un de nos clients sur Nantes un Ingénieur Devops GCP H/F Vos missions: Prestations attendues : - participer à toutes les cérémonies de l'équipe IaaS - être le point de contact techniques entre les autres plateformes Cloud et l'équipe IaaS - alimenter le backlog en coconstruction avec le PO - réaliser des sujets techniques au même titre que les DevOps de l'équipe Compétences attendues CP, GCE, MIG, Filestore, Terraform, Ansible, Python E nvironnement technique Très à l'aise sur GCP (ou AWS/Azure) notamment sur les problématiques IaaS et Cloud Function/Lambda Maitrise de Terraform / Ansible / Python Habitué au travail dans un contexte agile et en équipe Rejoignez-nous!

Freelance

Mission freelance
ARCHITECTE GENERALISTE MOVE TO CLOUD AZURE ET GCP

PROPULSE IT
Publiée le
Azure
Cloud

24 mois
325-650 €
Paris, Île-de-France

Au sein d'une équipe Architecture d'une Direction des Infrastructures et de la Production de l'un de nos clients, nous recherchons un(e) architecte technique généraliste qui contribuera aux activités suivantes : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation (DAT) - Accompagnement de la stratégie Move2Cloud - Accompagnement des équipes d'exploitation et de développement Environnement général : - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess

Freelance

Mission freelance
Consultant sécurité cloud GCP H/F

HAYS France
Publiée le
Cybersécurité
Google Cloud Platform
Workflow

3 mois
300-800 €
Paris, France

Activités : • Évaluer l’architecture de sécurité actuelle sur GCP, notamment pour les architectures de type data. • Étudier et qualifier les évolutions de services GCP (ex. Private Service Connect) et proposer des solutions pour toute problématique de sécurité identifiée. • Identifier les vulnérabilités et risques liés aux services GCP (Vertex AI, Workflow, Dataflow, Apigee, GKE, Composer, etc.) et fournir des recommandations de sécurité. • Mettre en place des contrôles de sécurité dans des outils de type Cloud Security Posture Management (CSPM). • Accompagner les équipes projets et transverses dans la mise en œuvre des recommandations

CDI
Freelance

Offre d'emploi
Data Engineer / GCP

Amontech
Publiée le
Oracle SQL Developer

1 an
40k-56k €
400-500 €
Île-de-France, France

Nous recherchons un Data Engineer pour rejoindre une équipe dynamique dans le secteur bancaire et participer à la mise en œuvre et à l’optimisation des chaînes de traitement des données. L’objectif principal est de récupérer, traiter et mettre à disposition des données enrichies, tout en exploitant la puissance d’un Data Lake. Vos principales missions : Mettre en œuvre les chaînes de traitement des données : ingestion, validation, croisement et intégration dans le Data Lake. Développer dans le respect des règles d’architecture définies. Documenter les user stories avec le Product Owner. Produire des scripts de déploiement et prioriser les corrections d’anomalies. Automatiser les tests fonctionnels et participer à la chaîne de delivery continue. Assister les équipes d’exploitation et collaborer en mode Scrum/Kanban. Compétences techniques indispensables : Plateforme et environnement GCP (Google Cloud Platform). Environnement GKE (Google Kubernetes Engine). Stockage : HDFS / GCS. Traitement : Maîtrise de Spark, Kafka, Scala. Planification : Airflow / Composer. DWH : SQL, BigQuery, BigTable. Delivery : Git, Ansible, Docker, Terraform, Jenkins / Cloud Build. Méthodologies : Scrum, Kanban, Git. Aspects humains recherchés : Capacité à travailler en équipe, en mode Agile (Scrum/Kanban). Excellentes compétences relationnelles et communicationnelles. Curiosité et sensibilité aux évolutions technologiques.

Freelance
CDD

Offre d'emploi
Ingénieur Data avec Expertise GCP

GBNI
Publiée le
BigQuery
Google Cloud Platform

12 mois
40k-45k €
400-650 €
Lille, Hauts-de-France

Pour l'un de nos client grand compte nous recherchons une expertise en ingénierie des données pour renforcer notre équipe. Notre projet nécessite une maîtrise des technologies Google Cloud Platform (GCP), Big Query et Power BI. Nous valorisons une sensibilité aux enjeux de la Responsabilité Sociétale des Entreprises (RSE) pour intégrer des pratiques durables dans nos processus. Une bonne capacité relationnelle est essentielle pour collaborer efficacement avec les différentes parties prenantes. L'objectif est d'optimiser nos flux de données et de fournir des analyses précises et exploitables. Nous visons à améliorer notre prise de décision grâce à des insights basés sur les données.

Freelance

Mission freelance
Devops GCP

ESENCA
Publiée le
Docker
Google Cloud Platform
Kubernetes

1 an
400-450 €
Lille, Hauts-de-France

Au sein des équipes opérationnelles, la mission de devops consiste à - assurer l'intégration continue des solutions développées - maintenir les plateformes - Suivre le monitoring de la plateforme - Implémenter des évolutions sur les scripts de fichiers sources de l'usine logicielle (script de packaging/paramétrage, job de build / livraison). - Implémenter les outillages et procédures de répétitions (ex: backup, automatisation, test de paramétrage). - Supporter des équipes de développements et de recette sur les activités de BUILD et de RUN. Le poste requiert des astreintes

Freelance
CDI

Offre d'emploi
Data Engineer GCP

CAT-AMANIA
Publiée le
Apache Airflow
Google Cloud Platform

3 ans
Île-de-France, France

Nous recherchons un Data Engineer confirmé GCP pour intervenir sur des projets stratégiques liés à la gestion et au traitement des données massives en temps réel dans un environnement Cloud moderne. Vos missions : Mettre en œuvre des chaînes complètes de traitement des données : ingestion, validation, croisement et enrichissement des données. Automatiser la production et la mise à disposition d’agrégats journaliers, hebdomadaires et mensuels. Collaborer avec l’équipe Agile pour développer et documenter des user stories en lien avec le Product Owner. Concevoir des scripts de déploiement et prioriser les corrections d’anomalies. Automatiser les tests fonctionnels et participer à la mise en place de chaînes de livraison continue.

Freelance

Mission freelance
Data Engineer GCP

Enterprise Digital Resources Ltd
Publiée le
Data analysis
Google Cloud Platform

1 an
100-550 €
Lille, Hauts-de-France

Je recherche en ce moment un Data Engineer pour accompagner un de mes client sur différents projets autour de GCP Missions Conception et développement : Concevoir et développer des pipelines de données robustes et évolutifs sur GCP, en utilisant principalement BigQuery et Cloud Functions. Modéliser les données, optimiser les requêtes SQL et les schémas pour améliorer les performances. Mettre en place des solutions de monitoring et d'alerting pour assurer la disponibilité des traitements. Maintenance et évolution : Assurer la maintenance et l'évolution des pipelines existants. Identifier et résoudre les problèmes techniques. Mettre en œuvre de nouvelles fonctionnalités et améliorer les performances. Collaboration : Travailler en étroite collaboration avec les équipes métiers pour comprendre leurs besoins et leur fournir des solutions adaptées. Participer aux choix techniques et à l'amélioration continue des processus.

Freelance
CDD

Offre d'emploi
Data Engineer DWH GCP

Espritek
Publiée le
BigQuery
Google Cloud Platform
Oracle

12 mois
65k €
450 €
Noisy-le-Grand, Île-de-France

DÉBUT DE MISSION : ASAP DURÉE : 12 mois LIEU : Noisy-Le-Grand – Travail hybride CATÉGORIE TECHNIQUE : Systèmes (Infras, Cloud, DevOps, ...), Réseaux, Sécurité Nous recherchons pour l’un de nos clients grands comptes un Data Engineer DWH GCP expérimenté, pour contribuer à un projet de transformation IT ambitieux. Contexte du projet : Dans le cadre du programme de transformation IT, le département DATA mène un projet stratégique de migration du Data Warehouse France On-Premise (Oracle – PL/SQL) vers la Google Cloud Platform (Big Query). Ce projet inclut : L’utilisation de Dataform , Cloud Functions , et Cloud Run . La migration des données et processus existants, incluant un ETL développé en interne et certains programmes en Natural (éditeur SAG) . Vos missions principales : Participer à la migration du Data Warehouse vers Big Query sur GCP. Développer et optimiser des scripts en PL/SQL et Python pour les processus de transformation des données. Collaborer sur la conception et l’intégration des pipelines de données via les outils GCP. Analyser et réaliser des tests unitaires, d’intégration et de non-régression . Documenter les processus et assurer un transfert de compétences aux équipes. Participer activement aux rituels Agiles et utiliser Jira pour la gestion des tickets. Analyser les résultats des tests via des outils internes et ajuster les développements en conséquence. Créer et utiliser des scripts Linux KSH pour les opérations nécessaires. Profil recherché : Expérience : Minimum 8 ans dans un rôle similaire. Compétences techniques : Langages : PL/SQL (Confirmé), Python (Confirmé). Bases de données : Oracle et Big Query (Confirmé). Connaissance des outils GCP, y compris Dataform , Cloud Functions , Cloud Run . Familiarité avec des outils de Data Visualisation tels que Looker , SAP BO , ou Spotfire . Expérience en tests logiciels et outils de ticketing comme Jira . Bonne connaissance des environnements Linux et scripting KSH . Qualités personnelles : Capacité à travailler en équipe et dans un environnement Agile. Sens de l’analyse et autonomie dans l’exécution des tâches. Adaptabilité et capacité à gérer des environnements techniques complexes.

Freelance

Mission freelance
POT8248-Un Ingénieur Système Cloud GCP Sur Saint-Quentin en Yvelines

Almatek
Publiée le
AWS Cloud

6 mois
100-300 €
Yvelines, France

Almatek recherche pour l'un de ses clients ,Un Ingénieur Système Cloud GCP Sur Saint-Quentin en Yvelines Projet : -Continuer les actions d'automatisation et de fiabilisation ; -Opérer les revues de code ; -Opérer la veille technologique ; -Réaliser des présentations techniques ; -Assurer le support technique niveau 3 auprès des développeurs -traiter tant les aspects techniques et fonctionnels et intervenir sur l’ensemble des environnements de l’intégration à la production y compris dans le cadre de projets. -Gestion production/run des projets (astreintes) Vous serez aussi amenés à rédiger des dossiers techniques précis, des avis techniques, ainsi que des feuilles de route à destination des chefs de projet et des opérationnels devant mettre en œuvre et exploiter les solutions. Principaux livrables -Concevoir la solution ; -Paramétrer, développer et qualifier des solutions applicatives ; -Établir l’analyse et le diagnostic sur les incidents et les éradiquer ; -Mettre en place, mener ou piloter le déploiement des applications développées ; -Rédiger ou participer à la rédaction des dossiers de conception générale et/ou détaillée ; -Analyser les traitements pour réaliser les études détaillées ou les études d’impact. Compétences requises : -Expertise et expérience significative sur Terraform. -Définition de module Terraform -Expertise sur le Cloud GCP et AWS si possible . -Maitrise des outils de déploiement automatisés -Pipeline CI CD (gitlab-ci, ansible, AWX, jenkins etc.), language python -Connaissance sur les technologies kubernet

Freelance
CDI

Offre d'emploi
Data engineer GCP - H/F

Proxiad
Publiée le
Google Cloud Platform
HDFS (Hadoop Distributed File System)

3 ans
Île-de-France, France

Description : • Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View

Les métiers et les missions en freelance pour Google Cloud Platform

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.

305 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous