Trouvez votre prochaine offre d’emploi ou de mission freelance Google Dashboard
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Ingénieur SECOPS H/F
Groupe SYD: IM Nous recherchons pour l'un de nos clients sur Nantes un Ingénieur SECOPS H/F Consultant secOps, expertise cloud GCP (landing zone) pour réaliser les tâches suivantes Méthode agile Définition des solutions techniques vis à vis des éléments priorisés du backlog produit par le PO Relation de proximité et en binôme avec un membre de l'équipe Travail en trinôme avec le PO de l'équipe DevSecOps et avec les architectes de la plateforme Cloud Rôle de conseil et de formateur auprès des intervenants de l'équipe) - Réalisation de travail HNO de manière cyclique (1 semaine / 6) Compétences attendues : Capacité à expliquer, vulgariser, acculturer et former posture de coach technique pour l'ensemble de l'équipe savoir fédérer Environnement technique Cloud : GCP Terraform GIT Python Jenkins Cloud Armor Security command center Hashicorp Vault Datadome Cloudflare Rejoignez-nous!!
Mission freelance
DevOps GCP/AWS
Bonjour à tous ! 👋 Je suis à la recherche d'un DevOps GCP/AWS en freelance pour un projet à Paris (1er arrondissement) : Le profil recherché : Séniorité : Confirmé / Senior Durée : 1 an, renouvelable Disponibilité : ASAP Rythme : 3 jours de télétravail par semaine 💻 Développement : API d'orchestration, provider Terraform, outils liés (Front web, CMDB), CI/CD, monitoring. 🏆 Collaboration : Accompagnement des équipes, mentoring, amélioration des pratiques de développement, astreinte, déplacements à Lille 🚫 Pas d'ESN, uniquement des freelances ou du portage salarial. Nous restons ouverts à toutes recommandations.
Mission freelance
Data Engineer
Nous recherchons pour l'un de nos clients Glocomms, un Data Engineer pour un contrat freelance de 6 mois. Rôle : Ingénieur de données freelance Lieu de travail : Ile-de-France Durée du contrat : Contrat de 6 mois Travail à distance Date de début : Janvier 2025 Principales responsabilités : Concevoir et mettre en œuvre des pipelines ETL optimisés, traitant des téraoctets de données tout en réduisant les coûts du cloud. Développer des outils basés sur Python pour appliquer les règles commerciales et assurer la fiabilité des données de tarification. Construire des systèmes de reporting automatisés et en temps réel pour l'analyse et le suivi des données de tarification. Établir et maintenir des tests et des processus robustes de qualité des données. Collaborer avec des équipes interfonctionnelles pour améliorer les flux de données et soutenir les objectifs de l'entreprise.
Offre d'emploi
Chef de projet DATA & ETL
Ce que tu recherches : Evoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Pour le compte de l' un de nos clients dans le domaine de l'assurance nous recherchons un CHEF de projet (H/F) pour une mission de longue durée à pourvoir rapidement. Vos missions : Vous pilotez des projets techniques innovants du périmètre Data (déploiement de plateforme data sur GCP, contribuez au déploiement d’une plateforme d’observabilité…) Vous pilotez le maintien en condition opérationnel du socle Data existant (montées de versions, migrations…), contribuez au pilotage de la dette IT, montées de versions, migrations, etc ... Vous pilotez une partie du RUN, suivi de production et la qualité de service pour le domaine applicatif Data, Référentiels et IA. Vous contribuez à renforcer l’écosystème en identifiant de nouvelles opportunités d’industrialisation de la plateforme Environnement technique : Greenplum, Cloudian S3, Google BigQuery et GCS, Couchbase, Semarchy-xDI, Elastic / ELK, Power BI Qui tu es : Diplômé de formation qui va bien Doté(e) d’une 10 ans d’expériences minimum Chef de projet / Product owner expérience en méthodologie agile (Scrum/Kanban) Maitrise également le cloud ( GCP) Au-delà des compétences techniques, tu es / as : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !
Mission freelance
Développeur Back-end
A ce titre, voici vos missions : Développer des microservice en APIs first Participer aux prises de décisions relatives à l’architecture et à la sécurité des solutions dans un environnement Cloud (GCP). Concevoir des outils facilitant le développement de modules. Communication entre micro service Développement d’un scheduler / Développement d’un dispatcher Mise en place d’outils de monitoring Assistance des utilisateurs sur le run technique MOB, Pair review Vous disposez d'une bonne expérience en développement back (La connaissance de Python serait un plus) Vous maîtrisez les standards et enjeux logiciels d’une plateforme SaaS (API REST, Data flows, Reactive pattern, etc…); Vous maîtrisez les patterns d’architecture logiciels modernes (Event Sourcing, CQRS, etc ...) Une première expérience d’utilisation de Terraform est un plus Vous connaissez Google Cloud Platform (BigQuery, Firestore, Pub/Sub, App Engine, Cloud Function, Cloud Run, Cloud Build, Cloud Task, StackDriver, Secret Manager, IAM) Vous êtes curieux et assurez une veille sur les nouvelles technologies, architecture et pratiques internes (Vous suivez les guidelines internes et les pratiques des autres squads / Vous participez aux guilds internes) Les tests unitaires, d’intégration, de non régression, de performance sont pour vous une nécessité. Une automatisation de tous les tests est le graal que vous souhaitez atteindre pour dormir la nuit et le week-end.
Mission freelance
Ingénieur en développement Full Stack Java VueJS
Compétences techniques Java, Spring boot - Confirmé - Impératif VueJS, ReactJS, Typescript - Confirmé - Impératif Terraform, GCP, Kubernetes - Confirmé - Souhaitable Postgres/ Redis - Confirmé - Souhaitable Compétences techniques Java, Spring boot - Confirmé - Impératif VueJS, ReactJS, Typescript - Confirmé - Impératif Terraform, GCP, Kubernetes - Confirmé - Souhaitable Postgres/ Redis - Confirmé - Souhaitable Description détaillée Contexte Nous sommes à la recherche d'un Développeur FullStack disponible très rapidement, avec de réelles compétences front et back, pour intervenir sur une mission dans l’équipe de l’Ecosystème Local des Services qui gère les outils digitaux. Vos responsabilités : - Collaboration avec les différentes parties prenantes de l’équipe (produit et transverse) afin de concevoir de la meilleure manière les solutions techniques ; - Développement back sur un environnement Java/Spring Boot ; - Développement front dans un environnement VueJS 3; - Étude et spécification fonctionnelle en amont du développement pour intégrer au mieux le développement dans le contexte du produit ; - Participer et intervenir dans des ateliers techniques de conception et architecture ; - Garant de la qualité du code produit, vous interviendrez autant en build qu’en run dans un esprit : you build it, you run it ! Vos compétences : - Le pragmatisme n'a pas de secret pour vous et vous saurez trouver la juste solution par rapport à la valeur qu'elle dégage pour l'utilisateur final ; - Vous faites preuve d’une excellente capacité de communication positive et constructive et de bienveillance avec les membres de l’équipe (TL, PM et autres) ; - Vous savez ce qu’est un code de qualité et savez comment bâtir un produit durable dans le temps ; - Vous savez ce qu’est une bonne stratégie de tests automatisés et écrire des tests fait partie de votre manière de travailler ; - Vous avez une bonne expérience back (Java/Spring Boot) ; - Vous avez déjà évolué dans un contexte d'api et de micro-services ; - Vous avez une bonne expérience sur des projets front (VueJS est un plus) afin d'intervenir dans le développement de bout en bout d'une feature donnée ; - Une connaissance des outils DevOps (Kubernetes, GCP, Terraform...) est un plus ; - Vous avez déjà manipulé des frameworks microfrontend (Kobi, framework interne Adeo/LM, étant un vrai plus) - Vous avez déjà évolué dans un contexte Agile et dans des équipes produit et vous en comprenez la philosophie générale
Offre d'emploi
Tech lead nodejs terraform gcp
Description du poste Rejoignez une entreprise leader dans le domaine des solutions digitales et contribuez à des projets ambitieux en tant que Tech Lead Node.js . Vous serez au cœur de la conception, du développement et de l’optimisation de plateformes techniques complexes, en collaboration avec des équipes pluridisciplinaires. Vos principales missions : Piloter la mise en place et le développement d’une plateforme Data intégrant divers flux (requêtes, Web Services, fichiers bruts, etc.) pour centraliser et unifier les données dans un référentiel commun. Contribuer à la mise en œuvre d’interfaces Back-office d’administration client en AngularJS. Développer des services d’agrégation pour alimenter des bases CRM complexes. Participer à l’évolution d’un site mobile performant sur des environnements modernes et scalables. Environnement technique Vous évoluerez dans un contexte technologique enrichissant, comprenant : Backend : Node.js, Python. Frontend : AngularJS. Cloud : Google Cloud Platform (Cloud Functions, Pub/Sub, BigQuery). Data : PostgreSQL, MySQL. Infrastructure : Kubernetes, Terraform. Autres frameworks : PHP Symfony 3.
Mission freelance
DATA ENGINEER GCP BIGQUERY
Mission : Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons).
Mission freelance
Consultant en Acquisition de Trafic Numérique
Nous recherchons pour notre client grand compte (secteur médias) un Consultant en Acquisition de Trafic Numérique. Coordination des leviers marketing : - Élaboration de stratégies d’acquisition de trafic (Google Adwords, Facebook Ads, Microsoft Ads, etc.). - Mise en œuvre et suivi des campagnes multi-leviers et de téléchargements mobiles (iOS, Android). - Promotion de dispositifs innovants pour acquisition et fidélisation d’utilisateurs. - Identification et intégration de nouveaux leviers de croissance Suivi des KPI : - Définition et suivi budgétaire des campagnes. - Mise en place de tableaux de bord pour analyser les performances (récurrent et ad hoc). - Rédaction de bilans synthétiques sur les activités numériques. Gestion de projets : Coordination entre les parties prenantes (rédaction, technique, produit)
Mission freelance
Data Engineer
Contexte et Mission Dans le cadre d’un projet de transformation digitale, nous recherchons un Data Engineer pour travailler sur une plateforme digitale de Supply Chain. Vous serez en charge de construire et d’optimiser des pipelines de données dans un environnement Cloud (GCP, DBT, Data Mesh). Votre rôle consistera à garantir la qualité des données, à améliorer les flux en termes de performance, de fiabilité et de FinOps, et à assurer leur conformité avec les politiques de gouvernance interne. Une connaissance des enjeux Supply Chain ou une forte curiosité métier sera un véritable atout.
Offre d'emploi
Data Engineer (H/F)
💡 Missions pour le Data Engineer : Développement et maintenance : Créer et maintenir des ETLs et des pipelines de données robustes en utilisant Talend, MS BI, Azure ( DataFactory ), GCP ( BigQuery ) , SQL, Python, Scala... Modélisation des données : Proposer des modèles de données fiables et optimisés en termes de stockage et de traitement. Automatisation : Implémenter des processus de CI/CD pour automatiser le déploiement et la gestion des infrastructures de données. Analyse et reporting : Développer des rapports et des dashboards en utilisant Looker, Power BI, Qlikview, Tableau, pour faciliter l'accès aux insights data-driven.
Mission freelance
DevOps Cloud Network (AWS ou GCP, Terraform et Python)
L'équipe Core Network du client a pour mission de combiner le network avec les pratiques DevOps dans le but de rationaliser les opérations, améliorer l'automatisation, développer la collaboration et délivrer des services réseaux toujours plus fiables et scalables. Au sein de cette équipe, vous aurez pour mission de contribuer à la livraison de fonctionnalités techniques sur les composants réseaux. Voici quelques exemples de tâches portées par ce poste : - Contribuer techniquement aux engagements de l’équipe dans la livraison de fonctionnalités. (Activités de Build pilotées au travers des rituels Scrum) - Participer régulièrement aux activités en maintien en condition opérationnelle de nos composants réseaux - Automatiser par le développement nos solutions d'infrastructure réseau. - Participer au Run sur les modules, scripts, automates developpés par l'équipe - Participer aux différents projets d'innovations et d'améliorations du réseau dans l';équipe. - Proposer et mettre en œuvre des améliorations et des solutions innovantes (Build & Run) Mission localisé à Paris, Lille ou Lyon. Domaine de responsabilité / Composants techniques sur lequel vous interviendrez : AWS & GCP Cloud VPC Management - VPC, Endpoint, NCC, TransitGateway, SharedVPC, PSC, PrivateLink Cloud segmentation - VPC Inspection, Security groups, PrivateLink, VPCEndpoints Cloud Egress Filtering - Fortinet, Squid Cloud Transit - Routeurs Cisco, AWS DirectConnect, GCP partners Interconnect, Cloud routers) IP Management - IPAM Netbox, Infoblox, RFC1918 Backbone réseau - Bandwith On-Demand, BGP, OSPF, Juniper External partners connectivity - VPN IPSEC, SSL, ZTNA Private DNS - Route53, CloudDNS, Infoblox Processus : 1 entretien Go - No Go
Mission freelance
Integrateur Devops
Pou le compte de l' un de nos clients, nous recherchons un intégrateur Devops. Vos principales missions seront: D'Intégrer la solution logicielle ou matérielle livrée par les services Etudes dans l’environnement de production Cloud (GCP/OpenShift). D'Intégrer l’application et en assurer le déploiement via CICD De Gérer le support nécessaire de l’application lors des incidents en production D'intervenir dans la mise en exploitation d’une nouvelle application ou la livraison d’une nouvelle version de cette application Vous êtes un spécialiste des technologies du cloud et des services proposés par les grands cloud providers Vous maitrisez généralement les concepts de conteneurisation, d’automatisation et de CI/CD qui lui permettent d’accompagner les développeurs et de mettre en place
Offre d'emploi
Ingénieur DevOps H/F
🌟 Quel sera ton poste ? 🌟 📍Lieu : Boulogne-Billancourt 🏠 Télétravail : 2 jours 👉 Contexte client : Au sein des équipes publicité programmatiques de notre client à Boulogne Billancourt, vous devrez suivre l’exploitation de plusieurs applications déployées sur GCP. Vous travaillerez en collaboration avec les développeurs (Java, Python et Ruby) en mode Agile pour garantir l’exploitabilité des applications durant le Build et le Run. Tout au long de la mission, vous serez le référent sur les sujets d’infra et de production. Vous travaillerez en collaboration directe avec ses collègues ingénieurs DEVOPS, ingénieurs Systèmes, ingénieurs Réseaux et DBA. Tu auras pour missions de : Création et configuration des infra dans le cloud GCP via TerraForm Configuration et déploiement des applications (Kustomize, Helm) Ecriture et maintien de scripts Bash et Python Gestion de la CI/CD (Gitlab, GitHub, CircleCI) Support sur les incidents / Suivi du processus d’alerte et d’information Rédiger et maintenir la documentation Mise en place et suivi du monitoring/alerting et SLA/SLO Partager les méthodes et les astuces avec les autres équipiers DEVOPS
Offre d'emploi
Lead Tech GCP
En tant que Lead Tech GCP, vous jouerez un rôle clé dans la conception, le support, et l'accompagnement des équipes pour développer et intégrer des applications locales au sein d’un environnement Cloud public. Vous serez également responsable de garantir la qualité, la cohérence et la maîtrise des coûts des services hébergés sur GCP, en tenant compte des recommandations du groupe et des bonnes pratiques. Vos principales responsabilités incluront : Élaborer le design technique des applications locales en s’appuyant sur la landing zone Google Cloud et les préconisations du groupe. Accompagner les équipes en région dans l’utilisation des services, en partageant bonnes pratiques et limites connues. Garantir la qualité, le fonctionnement, et l’adéquation des services avec les attentes métiers (autonomie, SLA, etc.). Concevoir l’architecture technique cible pour chaque application locale en collaboration avec les architectes et les équipes réseau. Travailler en étroite collaboration avec les architectes Data & Cloud pour maintenir une cohérence globale. Rédiger les dossiers d’architecture et documents techniques en prenant en compte les aspects cybersécurité et FinOps. Compétences attendues : Obligatoires : Certification Google Cloud Architect. Maîtrise des problématiques et enjeux liés à un service Cloud destiné à des utilisateurs non experts. Solides compétences en rédaction et formalisation technique. Posture de conseil sur Google Cloud et bonnes pratiques associées. Très bon relationnel et excellente communication, écrite et orale, adaptée à des interlocuteurs techniques ou managériaux. Compréhension globale des problématiques DevOps. Optionnelles : Conseil en développements applicatifs Web et Apps. Expérience attendue : 8 ans minimum dans un rôle technique similaire, avec une forte expertise en Google Cloud et en architecture Cloud. Savoir-être : Capacité à dialoguer et à trouver des consensus avec des profils variés. Rigueur et sens de l’organisation pour structurer et prioriser les activités. Esprit collaboratif et proactivité pour résoudre des problématiques complexes. Salarié uniquement
Offre d'emploi
Data Analyst (H/F)
🌈 Ce que nous offrons : L'opportunité de travailler avec des ensembles de données complexes et variés, en utilisant les technologies les plus avancées. Un rôle clé au sein d'une équipe où vos analyses influencent directement les décisions stratégiques de l'entreprise. Une position basée dans la métropole lilloise , un environnement dynamique propice à l'innovation. 📊 Missions pour le Data Analyst : Analyse de données : Interpréter les données en utilisant des outils avancés tels que Tableau, Power BI, Looker, QlikView , et plus encore. Modélisation et prévision : Utiliser Python, SQL et d'autres langages de programmation pour créer des modèles prédictifs et des analyses de tendances. Gestion des données : Travailler avec des plateformes de données cloud telles que GCP ( BigQuery ), Azure, AWS , pour organiser et optimiser les ensembles de données. Collaboration et rapport : Préparer des rapports clairs et persuasifs pour les parties prenantes, en utilisant des outils comme Github, Piano, SAP . Innovation continue : Rechercher constamment de nouvelles méthodes et outils pour améliorer l'analyse de données.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.