Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform à Paris
Ce qu’il faut savoir sur Google Cloud Platform
Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Change Manager BI - Consultant BI -

Contexte Au sein des équipes Data du client, l’écosystème applicatif est complexe et constitué de divers systèmes anciens, incluant des datalakes/data warehouses et des outils de BI. La plupart de ces systèmes dits "legacy" sont destinés à être replatformés ou décommissionnés au profit de la Data Platform (GCP), dans le cadre de la stratégie Data du client. Leur décommissionnement progressif a débuté en 2022 et vise à migrer les usages analytiques autour du CRM, Retail, Merchandising, Supply Chain et Finance. Ces outils sont utilisés quotidiennement par l’ensemble des Maisons du Groupe dans le monde et par les équipes Corporate. Au-delà de cette transition technologique, un des facteurs clés de succès est l’accompagnement des Maisons et des équipes Corporate dans la gestion du changement et l’adoption des nouveaux outils. Ce changement de paradigme implique : La mise en place de nouveaux outils, notamment de BI et d’analytics De nouveaux modes opératoires, de l’expression de besoin à la livraison et au support (via la méthode Agile et la logique de Data Product) Une nouvelle approche de l’accès, de l’usage et de la gouvernance de la donnée (orientée data mesh) Le maintien constant de la satisfaction des utilisateurs Pour cela, le client souhaite intégrer un Customer Success Manager pour accompagner un programme de décommissionnement d’un outil BI Client. Cette personne sera chargée de déployer le plan de Change Management et d’Adoption défini fin 2024. Le poste sera rattaché au domaine Customer Data, en étroite collaboration avec les Maisons du Groupe et les parties prenantes du client . Responsabilités Accompagner les utilisateurs métiers via des formations continues sur les activités de reporting client migrées vers Power BI, selon une approche « train-the-trainer » Animer les sessions de formation selon un planning, des audiences et des cas d’usage validés avec les leaders métiers S’appuyer sur le Product Owner du programme pour avoir une bonne visibilité sur la roadmap et les évolutions de reporting Maintenir un engagement utilisateur constant via du feedback régulier et des alertes Assurer un premier niveau de support fonctionnel aux key users Être garant des livrables de formation et de communication, et veiller à leur bonne exécution pour promouvoir la qualité de service, la gouvernance et la performance selon les méthodes et outils établis Assurer la continuité du service après l’adoption afin d’identifier des axes d’amélioration et des opportunités au bénéfice du métier Mesurer l’avancement global lié au plan de Change & Adoption via des KPI dédiés Développer d’excellentes relations avec les parties prenantes (équipes Digital & Tech) ainsi qu’avec les Maisons (équipes métiers et tech) pour maintenir un haut niveau de satisfaction Promouvoir une culture de transparence et un état d’esprit orienté Business
Expert Identité Cloud (H/F)

Au sein de l'un de nos clients bancaire : Le département PFC-OCM a pour mission d’assurer les activités ci-dessous pour l’ensemble des Systèmes d’information, sous la responsabilité de la direction Plateforme Collaborateur, en France et à l’étranger sur plus de 30 sites et pour près de 120 000 utilisateurs : - L’évolution des architectures Annuaires - Le Maintien en Condition Opérationnelle (MCO) sur ce périmètre - Les projets autour de ces infrastructures et de ces solutions La prestation sera réalisée au sein d'un service Annuaire (27 personnes) qui a en charge l’administration et la sécurisation des infrastructures d'annuaires de sécurité : - Les annuaires Microsoft Active Directory - Les services Cloud Office 365 / Azure AD / GCP - Les annuaires de sécurité applicatifs Microsoft ADLDS - Les outils de synchronisation de mots de passe, d’audit des changements, supervision et restauration (MIM, Change Auditor, Recovery Manager) - Les services réseaux implémentés sur système Microsoft : DNS, DFS
Architecte Solution Groupe – Gouvernance IT, Cloud & Référentiels
Nous cherchons un architecte solution de haut niveau, capable de combiner une vision stratégique d’entreprise avec une expertise technique approfondie sur les sujets de gouvernance IT, cloud et référentiels d’architecture . Le candidat recherché doit avoir piloté des programmes de transformation complexes , défini des feuilles de route de migration vers le cloud (Move2Cloud), établi des référentiels techniques et documentations normées , participé à la rédaction de business cases orientés ROI/TCO, et contribué activement à la mise en œuvre de standards d’architecture à l’échelle d’un SI global. Il est également attendu qu’il ait une capacité à animer des comités d’architecture , à accompagner les équipes projets , et à assurer la cohérence des solutions dans un environnement multi-produits, sécurisé et conforme aux exigences du groupe.
Architecte Cloud IA (H/F)

Dans le cadre du renforcement de la cellule IA, nous recherchons un Architecte Cloud IA expérimenté qui aura pour missions: - La co-construction de l’environnement d’analyse des logs de production (détection de patterns d’erreur, machine learning éventuellement en débordement sur le Cloud, appariment avec les programmes et proposition automatique de correction) - Suivi des ateliers IA avec l'info géreur et les entités du groupe (GT, définition des patterns) - Veille opérationnelle sur les LLM (ou nouvelles versions de LLM) : adaptation des nouveaux LLM sur une application test afin de benchmarker les LLM en regard du cas d’usage - Suivi de l’industrialisation des expérimentations (RAG LLM, api LLM) Industrialisation (passage à l’échelle) des outils réalisés sur la base de l’architecture de production infogérée et réalisation des chaînes CICD sur les Landing Zones AWS et GCP - Mise en place des liaisons applicatives avec les Landing Zone de la filiale de production informatique de groupe - Animation de l’acculturation et assistance opérationnelle aux tribus relatives à l’écosystème Github Copilot - Réalisation de la métrique de productivité : définition des KPI/OKR, préparation des benchmarks/tests A-B et mini-hackathons
Développeur Big Data Senior

Le contexte : Au cœur de la transformation digitale de notre client qui révolutionne son approche en plaçant la data et le digital au centre de sa stratégie. Dans le cadre d'un projet majeur de transformation, nous recherchons un(e) Data Engineer Senior pour renforcer nos équipes pendant 12 mois minimum. Votre mission : Intégré(e) à nos équipes data, vous contribuerez à : Concevoir et développer des pipelines de données robustes pour nos projets de machine learning Optimiser nos architectures de traitement de données existantes Participer aux revues de code et au développement des bonnes pratiques Collaborer avec notre communauté d'experts (data scientists, engineers, devops) Assurer l'intégration de nouvelles sources de données Garantir la qualité technique des solutions déployées Les plus de cette mission : Projet stratégique à fort impact Environnement technique de pointe équipe data & tech expérimentée Exposition à des problématiques data complexes Opportunité de contribuer à la transformation digitale d'un leader de son marché
Architecte Produits Microservices E-commerce - H/F

En tant qu’ Architecte Produits Microservices , vous jouerez un rôle clé dans la conception, l’industrialisation et l’optimisation des socles techniques et applicatifs du domaine E-commerce . Vous garantissez la qualité de service des plateformes en exploitant les pratiques DevOps et CI/CD. En tant que référent technique sur un périmètre applicatif, vous assurez l’intégration des évolutions et des changements tout en veillant à la scalabilité, la résilience et la performance des architectures. Vous êtes également responsable de la montée en compétences des équipes N1 et support utilisateurs et contribuez activement à la documentation et aux bonnes pratiques d’exploitation. Ce poste nécessite une participation aux astreintes à distance en 24/7 dans une équipe hautement collaborative. Activités principales : Concevoir et optimiser les architectures microservices adaptées aux besoins du E-commerce. Opérer et industrialiser les socles et applications via des pratiques DevOps et CI/CD. Assurer la scalabilité, la disponibilité et la sécurité des infrastructures et des plateformes applicatives. Standardiser et automatiser les opérations techniques à l’aide d’outils d’infrastructure-as-code et de déploiement continu. Piloter l’intégration des évolutions et des changements dans l’écosystème applicatif. Former et accompagner les équipes N1 et support utilisateur sur les bonnes pratiques d’exploitation. Maintenir et enrichir le patrimoine documentaire (dossiers d'architecture, d’exploitation, plans de production, etc.).
Senior Data Engineer

À propos de l’entreprise Spécialisée dans l’analyse et l’activation des données issues de la grande distribution, l'entreprise développe des solutions technologiques innovantes permettant aux industriels d’engager leurs consommateurs grâce à l’ultra personnalisation et au gaming. Grâce à des technologies avancées en intelligence artificielle et en data engineering, ils offrent des solutions performantes d’animation e-commerce adaptées aux enjeux du secteur. Descriptif du poste Face à une forte croissance et à des ambitions d’expansion à l’international, nous renforçons notre équipe data en recrutant un Senior Data Engineer (H/F) . 📌 Missions principales Sous la responsabilité du Head of Data , vous aurez pour mission de : Assurer la scalabilité et la fiabilité des services utilisant la donnée face à une forte croissance des volumes. Gérer l’ensemble des pipelines de données, processus ETL et transformations, avec des tests automatisés et manuels. Optimiser les services existants pour améliorer les performances et réduire les coûts. Être force de proposition sur les choix d’architecture et les innovations technologiques. Collaborer avec les différentes équipes (marketing, R&D, produit, finance) pour garantir la cohérence des projets. Assurer un reporting rigoureux des activités et résultats.
Tech Lead Cloud / Data Ingénieur (H/F) - 75

Notre client recherche un Tech Lead Cloud / Data Ingénieur H/F expérimenté pour concevoir, construire et gérer leur offre de service mesh Data/IA. Le candidat idéal participera activement à la mise en place de l'infrastructure, en assurant sa bonne intégration avec la plateforme data et les produits associés et l'optimisation des différents aspects techniques. Mission Vos missions seront de: * Concevoir, gérer et maintenir le service mesh permettant la mise à disposition des API Data et IA et l'orchestration des traitements dans le respect des contraintes de disponibilité, sécurité et performance. * Mettre en place et maintenir les outils de surveillance, de journalisation et de gestion des erreurs. * Designer et participer à la mise en oeuvre de la plate-forme sur les aspects réseau, sécurité, DNS, etc. * Designer et Industrialiser les pipelines CI/CD pour automatiser les déploiements logiciels. * Co designer avec les tech Lead Data Science pour designer et mettre en place les solutions technologique MLOps appropriées afin de pouvoir industrialiser les différents cas d’usages des métiers Data & IA. * Designer et mettre en place la migration de la stack technique Data vers la nouvelle plate-forme. * Garantir que l’architecture de la stack Data est en totale adéquation avec l’ensemble du SI applicatif * Assurer la maintenance et l'optimisation des systèmes de données existant. * Assurer une veille technologique constante pour rester à jour sur les tendances et les meilleures pratiques en matière de DevOps.
Architecte technique IT

Nous recherchons pour l'un de nos clients un Architecte technique IT. L’architecte technique est le garant du design détaillé de la solution d'infrastructure et il fait valider ses designs lors d’étapes de gouvernance auprès du management. Il est aussi amené à déployer lui-même des PoC dans le cadre d'étude de nouvelles solutions, notamment il étudie et propose des évolutions sur les designs des services d'infrastructure (landing zone cloud, clusters Kubernetes et ecosystème, redondance, disaster recovery plan, authentification, réseau et firewalling, stockage, … ). Expertise attendue : Azure (Services de base : EntraID, Network, Compute, Database, Storage, …) (Conception et déploiement) (Bon niveau) GCP (Services de base) (Niveau débutant ou plus) Kubernetes / AKS / GKE (Niveau débutant ou plus) Infra as code (Expérience concrète)
Développeur Backend Golang
Rejoignez une équipe tech d’élite et façonnez l’avenir d’un réseau social en pleine ascension ! 🚀 Qui sont ils ? Je recrute pour une startup en pleine croissance qui révolutionne la manière dont les gens interagissent sur les réseaux sociaux. Leur mission ? Encourager l’authenticité et les connexions sincères. Aujourd’hui, ils comptent plus de 40 millions d’utilisateurs actifs mensuels et une équipe internationale de 30+ passionnés . Ils ont pour ambition de devenir un acteur incontournable du social media, utilisé par des centaines de millions de personnes à travers le monde. 🎯 Votre mission: Ils ont bâti notre produit avec une petite équipe d’ingénieurs ultra-talentueux , et ils comptent bien garder cette approche agile tout en passant à l’échelle. Ici, pas de bureaucratie : vous aurez une grande autonomie pour prendre des décisions et livrer des fonctionnalités innovantes plus vite que n’importe quel autre réseau social . Relevez des défis techniques uniques : des millions d’utilisateurs se connectent en seulement 2 minutes , un vrai challenge d’architecture et de scalabilité. Construisez une infrastructure robuste et performante capable de supporter une croissance massive. Collaborez étroitement avec les équipes produit et tech pour imaginer et développer de nouvelles fonctionnalités . Participez aux décisions techniques clés : trade-offs, architecture, performance, résilience. Apportez votre expertise en revue de code et en conception . 🔥 stack technique: 💾 Backend : Go 🖥️ Infrastructure : GCP, Kubernetes, Pub/Sub, GitHub Actions, ArgoCD 🗄️ Base de données : Spanner, PostgreSQL, Redis 💡 Le profil que nous recherchons : ✅ 5+ ans d’expérience sur des API en architecture distribuée ✅ Maîtrise de Go et expérience confirmée sur des microservices à fort volume ✅ Autonomie, sens de l’initiative et goût pour les défis techniques ✅ Expérience en startup ou environnement tech exigeant ✅ Anglais et français courants (notre équipe est internationale) ✅ Master en informatique ou domaine connexe ⚡ Pourquoi nous rejoindre ? 🔥 Un impact direct : chaque ligne de code que vous écrivez améliore l’expérience de millions d’utilisateurs. 🚀 Un challenge technique unique : travailler sur une plateforme avec des pics de charge impressionnants. 👩💻 Une équipe d’experts : travaillez avec des ingénieurs brillants et passionnés. 🌍 Un projet à dimension internationale : une croissance rapide, des opportunités infinies. 🎯 Un environnement agile et innovant : zéro lourdeur, place à l’efficacité et à la créativité. 📅 Disponibilité : ASAP 🎯 Vous croyez en notre vision et avez envie d’un vrai challenge ? Vous êtes au bon endroit. 📩 Prêt à relever le défi ? Postulez dès maintenant !
Développeur C (full remote)

Cherry Pick est à la recherche d'un Développeur C pour un de ses clients dans le secteur de l'automobile. Missions : Le client recherche une prestation de développement pour la maintenance corrective et évolutive des applications liées à la production industrielle et à la supply chain. Compétences requises : Développement FullStack Langages et technologies : C, Pro C, CMake Bash/Shell, Autosys Oracle, Tuxedo, CFT Visual Basic, Angular, NodeJS, Java GCP (Google Cloud Platform) GitLabee, JIRA/Confluence/Xray Linux Redhat Méthodologies et certifications : Agile (SCRUM) Certification SAFe (souhaitée) Maîtrise de l’anglais (un plus) Bonus : Connaissance du monde automobile et du séquencement des voitures dans les usines d’assemblage.
Data Engineer
L'Ingénieur Data intégrera une équipe spécialisée en gestion et valorisation des données. Il/Elle sera responsable de l'acquisition et de la modélisation des données afin de fournir des résultats exploitables pour l'analytique et la data science. Le rôle impliquera la création de modèles de données consommables et de visualisations, tout en assurant la gestion complète du cycle de vie des données, de leur ingestion à leur traitement et préparation. Il/Elle travaillera en étroite collaboration avec les équipes data et métiers afin d’assurer la cohérence et la fiabilité des produits de données développés. Traduire les besoins métier en spécifications techniques, en collaboration avec les parties prenantes. Estimer, planifier, gérer et diriger les projets/tâches d'intégration des données. Coordonner les tâches et la charge de travail avec les autres ingénieurs data. Concevoir et développer des processus ETL/ELT et des flux de données pour fournir des résultats exploitables en analytique et data science. Créer des modèles de données et des visualisations intuitives et performantes. Collaborer avec les équipes de support pour assurer la cohérence et l’exactitude des données ainsi que la performance des flux livrés. Fournir un support de niveau 3 lorsque nécessaire. Définir et promouvoir les meilleures pratiques et principes de conception pour l'architecture Data Warehouse et Analytics.
DevOps Azure / On-Premise
Automatisation des déploiements : En collaboration avec les différentes équipes techniques, l’ingénieur participera à la conception et la gestion des automatismes du système d'information : intégration, déploiement en continu en utilisant des services des Cloud public tels qu’Azure et GCP ou des solutions logicielles et infrastructures On-Premise. Le déploiement se fera via les outils Gitlab CI, Broadcom Nolio, et s’appuiera sur des technologies tel qu’Ansible, Terraform et Docker. Intégration dans les pipelines CI/CD : Travaillant en étroite collaboration avec les équipes de développement, l’ingénieur devra intégrer les meilleures pratiques dans les pipelines CI/CD. Cela inclut l’automatisation du déploiement, la gestion des secrets, la mise en place de tests d’intégration, la gestion des artefacts, etc. Garantir l'intégrité permanente des automatismes au regard des évolutions des produits Résolution des problèmes : L’ingénieur devra être en mesure de diagnostiquer et résoudre des problèmes de nature multiples (CI, CD, configuration, infrastructure, etc..). Cela peut inclure des problèmes de performance, de sécurité, de disponibilité, etc. Il/elle devra également fournir un support aux équipes d’exploitation dans le cadre du traitement d’alertes ou d’incidents. Gestion des outils ALM : L’ingénieur devra s’assurer de bon fonctionnement et de l’évolution des outils ALM (Gitlab, Sonar, TFS, JIRA, etc…). Il/elle devra surveiller les performances, optimiser les coûts et s’assurer que les ressources sont correctement dimensionnées. Collaboration avec les équipes : Travailler en étroite collaboration avec les développeurs, les ingénieurs de production et les autres membres de l’équipe afin de garantir que les solutions proposées conjuguent les meilleures pratiques Devops, les contraintes techniques et de sécurité ainsi que les besoins des projets. Il/elle participera à des réunions d’équipe, partager les connaissances et contribuer à l’amélioration continue des processus. Contribuera au déploiement des pratiques DevOps au sein de l’entreprise. Participera au cadrage des projets dans son domaine de compétences : analyse des besoins et contribution aux chiffrages de la partie technique ENVIRONNEMENT TECHNIQUE - Plateforme de gestion des sources et CI/CD : Gitlab, TFS, Proget, Broadcom Nolio, build dotnet et java (gradle) - Espace de collaboration : M365, Confluence, JIRA - Plateforme cloud hybride : Azure, GCP, OnPrem - Infrastructure as Code : Terraform, Terragrunt, Ansible, Backstage - Conteneurisation : Azure Kubernetes Service, Azure Container Apps, Google Cloud Run - Observabilité : Datadog - Cyber Sécurité : CrowdStrike - SGBD : MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Content Delivery Network (CDN): Akamai Technologies - Firewall : CheckPoint, Fortinet, Azure Firewall - Load balancing : BigIP F5, Azure Application Gateway
Lead Data Engineer Senior

PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Développeur Backend GO(Full Remote)

Vous êtes un Développeur Backend 👨💻👩💻 passionné par les architectures scalables et en quête d’un projet stimulant dans un environnement dynamique ? Nous recherchons un expert backend pour une mission full remote au sein d’un grand compte évoluant avec une méthodologie startup ! 🚀 🎯 Missions et Responsabilités ✅ Développer et optimiser des services backend en Go. ✅ Concevoir une architecture microservices robuste et scalable, capable de gérer des pics d’activité et un grand volume de flux. ✅ Collaborer avec les équipes produit et frontend pour définir des solutions innovantes et orientées business. ✅ Assurer la performance, la sécurité et la stabilité des services backend. ✅ Communiquer efficacement avec les équipes techniques et métier en français et en anglais. ✅ Travailler sur l'infrastructure cloud avec GCP et optimiser les API pour une meilleure efficacité.
Développeur Fullstack Java sénior

Nous recherchons un Développeur FullStack Java sénior pouvant travailler sur différents projets web & mobile Au sein de la Digital Factory, vous jouerez un rôle central. Nous recherchons des profil smart ayant une approche agnostique et une maitrise de l'environnement Java avéré Princip Solid / Clean Code et autres règles de bonnes pratiques sont sollicités. Architecture moderne : Serverless, Microservices, EventDriven, Hexagonale Expertise technique Java, spring, nodeJs, React, Angular, NextJs, API Rest, Test, Flutter ... Move to cloud : AWS, Azure & GCP DevSecOps & DevOps IAC avec Terraform Compétences indispensables : Bonnes connaissances de React/Angular Bonnes connaissances de Java et Spring Bonne connaissances de NextJS & NodeJS Maîtrise des architectures modernes: Event Driven , Micro-services, Serverless Maîtrise de SGBD SQL Solides compétences en développement responsive Travailler avec les UX/UI pour avoir des interfaces ergonomiques et facile d'utilisation Bonnes connaissances des méthodologies de versionning ( gitflow ) Sensible à l'expérience utilisateur et aux interfaces mobiles Maitriser les outils de ticketing ( Jira ) Savoir travailler en agilité ( Scrum ou Kanban ) Maîtrise d’une solution d’automatisation open source: Cucumber , Selenium , Robotframework Maîtrise de l'approche BDD (Behaviour Driven Development). Connaissance d'un outil de scripting et Postman . Maîtrise du cycle Agile / Scrum . Maîtrise de GIT et Gitlab Maîtrise de Could Provider: GCP & AWS Compétences souhaitables : Maîtrise de la démarche DEVOPS et CI/CD Expériences avec le framework Strapi Expériences avec le framework Flutter Expériences avec le framework Sylius Maitrise de Cloud Function de GCP Maitrise de PostgreSQL Maitrise d'outils d'automatisation des tests: idéalement Selenium et Cucumber . Esprit pédagogique de partage constructive Assurer une veille technologique fréquente Accompagnement des équipes Environnement technique : → React, Java, Spring, NextJs, NodeJS, Angular, PostgresSQL, JavaScript, AWS, GCP, GitLab, API REST...
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Demissioner pour passer Freelance en 2025 ?il y a une heure
- Conseils pour améliorer ma visibilité en tant que freelance ITil y a une heure
- Période creuse… besoin de conseils et de souffle collectifil y a 3 heures
- Portage salarial (Salaire + Dividende)il y a 4 heures
- SASU IS dividendeil y a 6 heures
- SASU / micro entrepriseil y a 8 heures
Les métiers et les missions en freelance pour Google Cloud Platform
Ingénieur·e devops (Cloud)
L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e devops (Cloud) .
Découvrir les offresArchitecte Cloud
L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.
Explorez les offres d'emploi ou de mission freelance pour Architecte Cloud .
Découvrir les offresIngénieur·e systèmes & réseaux
L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e systèmes & réseaux .
Découvrir les offresResponsable des infrastructures et de la production
Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.
Explorez les offres d'emploi ou de mission freelance pour Responsable des infrastructures et de la production .
Découvrir les offres