Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform
Ce qu’il faut savoir sur Google Cloud Platform
Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Data engineer GCP - H/F
Description : • Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View

Offre d'emploi
Tech Lead Data Engineer GCP - End User
Vos responsabilités : Leadership et Management : Mentorer et guider une équipe de 4 personnes dans son développement professionnel. Animer et encadrer l'équipe data engineering dans un environnement Agile/DevOps, en alignement avec les priorités établies par le Responsable Data. Qualité et Livraison : Assurer la livraison des projets data en respectant les délais et les exigences. Effectuer des revues de code et agir en tant que référent technique pour GCP. Contrôler les réalisations des développeurs et ajuster les travaux si nécessaire. Architecture et Stratégie : Collaborer avec les architectes et experts pour définir et documenter l'architecture GCP la plus appropriée. Superviser et appliquer les stratégies d'alerte, de surveillance et de gestion des accès sur la plateforme data. Optimiser l'architecture existante pour garantir une performance maximale. Développement et Intégration : Concevoir des pipelines de données en s'appuyant sur les processus d'intégration existants, en respectant les meilleures pratiques (CI/CD, qualité du code, couverture des tests, etc.). Développer des fonctionnalités robustes et évolutives, de l'ingestion des données à la livraison des dashboards. Promouvoir et garantir un code de qualité, robuste, maintenable et évolutif. Qualité et Performance des Données : Assurer la qualité des données tout au long du pipeline. Définir et appliquer les meilleures pratiques en data engineering.

Offre d'emploi
Data Engineer DWH GCP H/F
Nous recherchons pour l’un de nos clients grands compte un "Data Engineer DWH GCP H/F". Contexte du projet : Dans le cadre du programme de transformation IT, le département DATA mène un projet d’envergure pour migrer le DataWareHouse France On-Premise (Oracle – PL/SQL), accompagné d’un ETL développé en interne, avec parfois des programmes en langage Natural (éditeur SAG) vers la Google Cloud Plateforme : Big Query en utilisant Dataform, Cloud functions, Cloud Run. Profil Vous justifiez d’une expérience professionnelle similaire minimum de 8 ans, et maîtrisez les environnements suivants : Expérience confirmée des langages PL/SQL et Python requise Maîtrise des systèmes de bases de données Oracle et Big Query Connaissance souhaitée des outils de Data Visualisation de type Looker/SAP BO ou Spotfire Réalisation de projets similaires en méthodologie Agile impérative Connaissance de l’outil de ticketing Jira Réalisation de Tests (Unitaires, d’Intégration et de non régression) Analyse des résultats des tests via un outil interne Connaissance Linux, via des scripts KSH Travail en équipe Adaptation facile
Mission freelance
Expert sécurité GCP / IAM GCP / SECURITE RESEAUX / TERRAFORM / ANGLAIS (H/F)
Nous recherchons pour le compte de notre client dans le domaine bancaire un expert Sécurité cloud GCP. Objectif global : Accompagner la mise en œuvre de la sécurité du cloud GCP Description détaillée : Évaluer l'architecture de sécurité actuelle sur GCP et particulièrement sur les architectures projet de type data Qualifier et étudier les évolutions de services GCP de type Private Service Connect et être en mesure de proposer des solutions si des problèmes sécurité sont remontées Identifier les vulnérabilités et les risques à l’utilisation des services GCP (Vertex AI, Worflow, Dataflow, Apigee, GKE, Composer, …) et proposer des recommandations sécurité Mettre en place des contrôles de sécurité dans les outils de type CSMP Accompagner l'équipe interne projets et transverses dans la mise en œuvre des recommandations. Définition du profil : Mise en application de la Politique de Sécurité. - Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 - Valide et instruit les dérogations contrevenant à la Politique de Sécurité. - Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) - Participation aux audits (internes / externes) - Mise en applications des recommandations d'audit et des demandes de remise en conformité - Rédaction de guides et standards de sécurité - Donne son avis pour l'implémentation des solutions de sécurité - Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation - Assure la veille technologique

Mission freelance
Architecte GCP
Nous recherchons un Architecte GCP certifié, doté d’une expertise approfondie dans tous les aspects de la plateforme Google Cloud (ressources, réseaux, IAM, etc.). Ce rôle exige une solide maîtrise technique combinée à d’excellentes compétences relationnelles. Vous serez chargé d’accompagner les entités du groupe dans le choix des meilleures technologies et solutions, tout en participant activement à la mise en œuvre des projets stratégiques. Nous cherchons une personne passionnée, motivée par l’innovation et désireuse de collaborer avec des experts partageant la même passion pour les technologies Cloud. Compte tenu de la visibilité du poste auprès des équipes internes, une excellente capacité de communication orale est essentielle. Par ailleurs, une maîtrise de l’anglais est indispensable pour évoluer efficacement dans cet environnement international.

Mission freelance
Ingenieur SYSTEME WINDOWS & CLOUD AZURE & GCP
Poste : Ingénieur Système Windows CLOUD (GCP) Missions Maitrise de l’offre Cloud Microsoft Azure et GCP Gestion des serveurs cloud et outillages associés Installer et Administrer les services IaaS et PaaS en relation avec nos partenaires Cloud Maintien en condition opérationnelle de niveau 3 sur les environnements Cloud, Windows Servers, Linux Servers en lien avec les hébergeurs et infogérant. Documenter l’ensemble des solutions (DINS, DEX,..) Compétences et qualités personnelles Vous avez une expérience solide sur Azure et GCP ainsi que sur les outils d’automatisation (Terraform) et de CI/CD. Bonnes connaissances des serveurs Windows et Linux Bonne qualité rédactionnelle Connaissances dans la rédaction de cahier des charges, documentation d’architecture et d’exploitation Connaissance du référentiel ITIL serait un plus Vous êtes autonome, rigoureux et polyvalent. Vous avez un bon niveau d'anglais. Télétravail : 2 jours par semaine

Mission freelance
Data Engineer GCP confirmé – Expertise Spark, Kafka, Scala – Secteur bancaire
Nous recherchons un Data Engineer confirmé pour intervenir sur des projets stratégiques liés à la gestion et au traitement des données massives dans un environnement Cloud moderne. Vos missions : Mettre en œuvre des chaînes complètes de traitement des données : ingestion, validation, croisement et enrichissement des données. Automatiser la production et la mise à disposition d’agrégats journaliers, hebdomadaires et mensuels. Collaborer avec l’équipe Agile pour développer et documenter des user stories en lien avec le Product Owner. Concevoir des scripts de déploiement et prioriser les corrections d’anomalies. Automatiser les tests fonctionnels et participer à la mise en place de chaînes de livraison continue.

Mission freelance
Cloud GCP Python Data Scientist - IA & Medias (H/F) - 13+75 & Remote
Vous ferez partie de l'équipe IA pour la mise en place de prototype à destination principalement des médias : Conception de Prototypes et Pilotes : Élaborer et développer des prototypes et des projets pilotes pour démontrer la faisabilité et la valeur des solutions IA. Framing des Projets IA : Définir et structurer les projets d'intelligence artificielle en collaboration avec les parties prenantes, en identifiant les objectifs, les ressources nécessaires et les étapes clés. Conseil et Accompagnement : Fournir des conseils stratégiques et techniques aux clients pour les aider à intégrer les solutions IA dans leurs processus métier. Livrables : Prototypes IA sur les médias Documentation, code propre Framing de sujet, comprenant ROI attendus, solution technique, architecture, etc.
Offre d'emploi
Data Engineer Python GCP SQL
Nous recherchons pour le compte de notre client un profil + de 5ans d'expérience pour le poste Data Engineer, idéalement un profil avec une expérience dans le retail, industrie, grande distribution. Missions : - concevoir, développer, faire évoluer des systèmes de traitement et d’exposition de données robustes et scalables pour industrialiser nos solutions qui comprennent des algorithmes de machine learning, et de recherche opérationnelle - être au choix des bons outils et schémas architecturaux afin d’améliorer la performance des systèmes et de faciliter leur suivi et maintenance, dans une démarche cloud-first - contribuer de manière itérative aux projets, conduire des revues de code Environnement technique : Python, SQL, Docker, Kubernetes, Terraform, Git, Airflow, GCP

Mission freelance
Développeur GCP Next JS REMOTE
Secteur du RETAIL Dans le cadre d’une start up soutenue par un grand groupe Contexte : Mise en place d’un site de retail grand public dans un environnement cloud Construction au sein d’une équipe de 3 à 6 développeurs d’une plateforme digitale Frontend et Backend Développement au sein d'une équipe agile ; Développement, réalisation ou évolution de la plateforme en garantissant la qualité ; Construction de la solution Web API BACK architecturé en micro-services Rédaction des documentations techniques ; Mise en production ; Maintenance et support technique associés Suivi des activités réalisées sur la plateforme digitale

Offre d'emploi
Développeur Node.js / GCP (H/F)
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous recherchons un.e Développeur.euse Node.js spécialisé en cloud GCP pour contribuer à des projets stratégiques au sein d’un acteur majeur de l’innovation automobile. Vos missions principales : Développer un code de qualité, commenté et conforme aux bonnes pratiques. Réaliser des tests unitaires. Effectuer des tests fonctionnels en respectant les spécifications des User Stories. Rédiger une documentation claire et détaillée sur Confluence pour assurer la pérennité du projet.

Offre d'emploi
Architecte technique IT / cloud GCP (H/F) - 78/50
Je recherche un(e) Architecte Technique IT pour un client leader dans l’agroalimentaire. Intégré(e) à la filière IT & Digital Services, vous participerez à des projets innovants et contribuerez activement à la transformation numérique du groupe. Vous évoluerez dans un environnement dynamique, alliant technologies de pointe, innovation, et opportunités de développement professionnel. Ce poste offre un cadre propice à la formation continue et à l’épanouissement dans une entreprise en pleine croissance.

Offre d'emploi
Data Engineer GCP, Scala/Java Confirmé | Casabalanca 100% Remote
Nous recherchons un Data Engineer Confirmé (h/f) pour rejoindre les équipes Data d’un grand acteur du retail . L’objectif ? Concevoir, développer et maintenir des solutions de traitement de données à grande échelle dans un environnement 100% Cloud (GCP) et Full Remote . Tu évolueras dans un cadre stimulant où la data est au cœur des décisions stratégiques et où l’innovation technologique est une priorité ! Concevoir et développer des pipelines de données en Scala/Java et Spark Exploiter des outils GCP (BigQuery, BigTable, Dataproc) pour le stockage et le traitement des données Mettre en place des solutions de streaming en temps réel avec Kafka Travailler sur une architecture Data Centric , cassant les silos d’information pour fluidifier la gestion des données Assurer la qualité, la performance et la scalabilité des solutions Collaborer avec des équipes internationales et multidisciplinaires 🔧 Les technologies et outils que tu utiliseras : Cloud : GCP (BigQuery, BigTable, Dataproc, Cloud Storage) Développement : Scala, Java, SQL Big Data & Streaming : Spark, Kafka CI/CD & DevOps : Git, Kubernetes, GitLab CI/CD Méthodologies : Agile, Microservices

Mission freelance
Data Engineer Big Query/GCP
Nous recherchons pour notre client un Data Engineer Big Query/GCP. Missions de l'équipe : - Prendre en charge le produit data Data4All aussi bien dans le build que dans le run : - Construire les nouveaux indicateurs issus de nouvelles sources ou de sources existantes - Mettre à jour et faire évoluer les indicateurs existants, en fonction des évolutions des données - Mettre à jour et faire évoluer les indicateurs existants, en fonction des évolutions des données - Traiter et corriger les anomalies - Concevoir les modèles de données adaptés aux besoins des utilisateurs - Accompagner les utilisateurs de Data4All dans leurs usages - Auditer et cartographier les données existantes de Data4All et proposer une vision cible performante, gouvernée et adaptée aux besoins et contraintes - Mettre en place le contrôle qualité sur les données Prestation attendue : En interaction avec les membres de l’équipe, la prestation consistera à participer à/au(x) : - La mise en place de pipelines de traitement de données - Développement des modèles de données - L’extraction et l’exposition des données issues de la zone silver de la plateforme data vers Data4All - L’industrialisation des différents environnements de Data4All, en collaboration avec l’équipe d’ops - Différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe - La veille technique pour l’amélioration de la stack - L’amélioration des performances et la maîtrise des coûts sur les différents environnements Data4All, sur la GCP

Offre d'emploi
Ingénieur MLOPS GCP/Vertex IA
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Ingenieur MLOPS sur GCP/Vertex IA Tâches: Conception jusqu’à la mise en production en prenant en charge les aspects techniques permettant d’obtenir un processus industriel depuis l’apprentissage d’un modèle IA jusqu’à la mise en production du modèle. Mise en en œuvre des technologies Devops et Mlops pour construire les livrables de façon sécurisée et le plus automatique possible. Réalisation des chaînes CICD et MLOPS. Construction des tableaux de bord avec des KPI adaptés pour permettre le monitoring de la solution IA en production. Si vous êtes actuellement à l'écoute du marché, je vous invite à m'envoyer votre candidature. Bien à vous, Nadia

Offre d'emploi
Ingénieur Sécurité Cloud (AZURE/GCP)
Soutenir la mise en œuvre de notre stratégie de sécurité du Cloud public (Azure/GCP). Développer, mettre en œuvre et appliquer des politiques, des normes et des procédures de sécurité. Mise en œuvre des solutions d'audit et de journalisation pour suivre et rapporter les événements et anomalies liés à la sécurité. Mettre en place et maintenir les outils pour une surveillance proactive des événements de sécurité. Contrôler l'application en temps voulu des correctifs et des mises à jour de sécurité aux ressources Azure et GCP. Fournir des programmes de formation et de sensibilisation sur les meilleures pratiques et les risques en matière de sécurité. Diriger la mise en œuvre de plans de remédiation et d'amélioration continus.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Google Cloud Platform
Ingénieur·e devops (Cloud)
L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e devops (Cloud) .
Découvrir les offresArchitecte Cloud
L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.
Explorez les offres d'emploi ou de mission freelance pour Architecte Cloud .
Découvrir les offresIngénieur·e systèmes & réseaux
L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e systèmes & réseaux .
Découvrir les offresResponsable des infrastructures et de la production
Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.
Explorez les offres d'emploi ou de mission freelance pour Responsable des infrastructures et de la production .
Découvrir les offres