Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Expert sécurité GCP / IAM GCP / SECURITE RESEAUX / TERRAFORM / PYTHON / ANGLAIS OPERATIONNEL (H/F)
Nous recherchons pour le compte de notre client dans le domaine bancaire une expert Sécurité cloud GCP Objectif global : Accompagner la mise en œuvre de la sécurité du cloud GCP Description détaillée : Évaluer l'architecture de sécurité actuelle sur GCP et particulièrement sur les architectures projet de type data Qualifier et étudier les évolutions de services GCP de type Private Service Connect et être en mesure de proposer des solutions si des problèmes sécurité sont remontées Identifier les vulnérabilités et les risques à l’utilisation des services GCP (Vertex AI, Worflow, Dataflow, Apigee, GKE, Composer, …) et proposer des recommandations sécurité Mettre en place des contrôles de sécurité dans les outils de type CSMP Accompagner l'équipe interne projets et transverses dans la mise en œuvre des recommandations. Définition du profil : Mise en application de la Politique de Sécurité. - Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 - Valide et instruit les dérogations contrevenant à la Politique de Sécurité. - Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) - Participation aux audits (internes / externes) - Mise en applications des recommandations d'audit et des demandes de remise en conformité - Rédaction de guides et standards de sécurité - Donne son avis pour l'implémentation des solutions de sécurité - Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation - Assure la veille technologique
Mission freelance
Architecte technique infrastructure On premise & Cloud Azure et GCP
o Au sein de l'équipe Architecture de la Direction des Infrastructures et de la Production du groupe, le consultant contribuera aux activités : • Cadrages techniques et budgétaires en collaboration avec les chefs de projet • Définition des best practices d'architecture • Documentation (DAT, HLD…) • Accompagnement de la stratégie Move2Cloud • Accompagnement des équipes d'exploitation et de développement • Veille technologique Environnement général o Plateformes E-commerce o Plateformes BackOffice & Logistique o Cloud Public Azure & GCP o Cloud Privé (Infrastructure VMWARE Infogérée) o CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) o Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle o Big Data Terradata, MapR, BigQuery, DataBricks o Conteneurisation Docker & Orchestration AKS o Progiciels SAP, Siebel, HRAccess DESCRIPTION DE LA MISSION Missions à prévoir et Expérience acquise Etude des besoins issus des équipes de développement : 5 à 10 ans Etude de l'évolution des composants de plateformes techniques ou de l'intégration de nouveaux services : 5 à 10 ans Rédaction des documents d'architecture et d'intégration générale et détaillée : 5 à 10 ans Rédaction des supports d'aide à l'exploitation et accompagnement des équipes d'exploitation durant la transition : 5 à 10 ans Contribution à l'évaluation budgétaire des solutions mises en œuvre : 5 à 10 ans Support N3 des équipes d'exploitation : 5 à 10 ans Une grande majorité des sujets actuellement adressés par l'équipe d'architecture technique concerne les environnements OnPrem.
Offre d'emploi
Expert.e Cloud AWS et GCP
En tant qu’expert.e Cloud sur AWS et/ou GCP, vous interviendrez dans l’intégration et la mise en œuvre de solutions Windows sécurisées, fiables et évolutives. Vous accompagnerez notre client dans son adoption du cloud public. Votre rôle Conseil · Evaluer l’intégration de Windows Server en mode IaaS sur AWS et/ou GCP · Analyser le cycle de vie des images OS · Etudier la mise en place d’un écosystème adapté au bon fonctionnement de Windows Server dans un environnement Cloud · Analyser les besoins en termes de sécurisation des OS Microsoft · Etudier les stratégies de patching des OS · Définir le modèle de supervision approprié à mettre en place Conception et automatisation · Tester et déployer un POC · Définir le modèle opérationnel de la solution cible · Participer aux efforts d’automatisation et de fiabilisation Documentation et support · Documenter les composants, le fonctionnement des outils ainsi que les standards · Rédiger des dossiers et avis techniques ainsi que des feuilles de route pour les chefs de projet et équipes opérationnelles
Offre d'emploi
Ingénieur Sysops GCP H/F
Amago IT recherche pour l'un de ses clients grands comptes dans le cadre d'une mission de longue durée, basée à Nantes : un Ingénieur Sysops GCP H/F Au sein de l'équipe plateforme sur GCP dans un fonctionnement agile (PO, Scrum master, Leader technique, architectes) : Mission : -Conception / Création / Implémentation / Landing zone GCP -Capacité à expliquer, vulgariser, acculturer et former -Posture de coach technique pour l'ensemble de l'équipe - Savoir fédérer autour de nouvelles pratiques ou des nouveaux outils
Offre d'emploi
Expertise en Sécurité Opérationnelle - GCP H/F
Contexte : Dans le cadre de notre transition vers le cloud opérée en 2018 et de notre utilisation croissante de Google Cloud Platform (GCP), nous souhaitons renforcer notre posture de sécurité. Nous recherchons un consultant spécialisé en sécurité cloud, plus particulièrement sur GCP, afin de nous accompagner dans l'évaluation, la mise en œuvre et l'optimisation de nos pratiques de sécurité. Description détaillée : Évaluer l'architecture de sécurité actuelle sur GCP et particulièrement sur les architectures projet de type data Qualifier et étudier les évolutions de services GCP de type Private Service Connect et être en mesure de proposer des solutions si des problèmes sécurité sont remontées Identifier les vulnérabilités et les risques à l’utilisation des services GCP (Vertex AI, Worflow, Dataflow, Apigee, GKE, Composer, …) et proposer des recommandations sécurité Mettre en place des contrôles de sécurité dans les outils de type CSMP Accompagner l'équipe interne projets et transverses dans la mise en œuvre des recommandations. Définition du profil : Mise en application de la Politique de Sécurité. - Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 - Valide et instruit les dérogations contrevenant à la Politique de Sécurité. - Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) - Participation aux audits (internes / externes) - Mise en applications des recommandations d'audit et des demandes de remise en conformité - Rédaction de guides et standards de sécurité - Donne son avis pour l'implémentation des solutions de sécurité - Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation - Assure la veille technologique
Offre d'emploi
Ingénieur Sysops GCP H/F
Amago IT recherche pour l'un de ses clients grands comptes dans le cadre d'une mission de longue durée, basée à 92 un : Sysops GCP H/F Au sein de l'équipe plateforme sur GCP dans un fonctionnement agile (PO, Scrum master, Leader technique) Mission : - Implémentation du socle landing zone GCP et avec les évolutions à venir -Administration et support de la plateforme : gestion des incidents, surveillance et supervision, gestion des problèmes et des crises, gestion des changements, gestion des demandes dans ITSM, traitement des alertes de sécurité et de vulnérabilité. -Réaliser les phases de spécifications techniques détaillées, les maquettes de validation, les procédures d’installation et d’exploitation des solutions -Garantir la sécurité des ressources cloud en respectant les règles de sécurité et les bonnes pratiques -Contribuer à faire évoluer l’infrastructure en implémentant et en améliorant les règles de détections des menaces -Développer, maintenir en conditions opérationnelles et faire évoluer le code IAC de l’infrastructure du socle GCP -Mettre en place les pipelines DevOps afin d’automatiser les déploiements sur l’ensemble des environnements GCP -Tracer tous les changements en cohérence avec les processus ITIL -Mettre en place des KPIs -Automatisation des processus -Développer et mettre en place un modèle de service à la demande -Identifier des points d’amélioration sur les outils internes -Mettre en place une architecture serverless qui permet aux métiers de suivre les habilitations de leur équipe -Réaliser et mettre en place une étude IAM sur le socle GCP -Analyser l'intégration de Dynatrace sur le socle GCP -Accompagner et POC pour l’alimentation des assets dans les tables CMDB
Mission freelance
Expert en sécurité Opérationnelle – Cloud GCP
Objectif global : Accompagner la mise en œuvre de la sécurité du cloud GCP Contrainte forte du projet : Dans le cadre de notre transition vers le cloud opérée en 2018 et de notre utilisation croissante de Google Cloud Platform (GCP), nous souhaitons renforcer notre posture de sécurité. Nous recherchons un consultant spécialisé en sécurité cloud, plus particulièrement sur GCP, afin de nous accompagner dans l'évaluation, la mise en œuvre et l'optimisation de nos pratiques de sécurité. MISSIONS : Évaluer l'architecture de sécurité actuelle sur GCP et particulièrement sur les architectures projet de type data Qualifier et étudier les évolutions de services GCP de type Private Service Connect et être en mesure de proposer des solutions si des problèmes sécurité sont remontées Identifier les vulnérabilités et les risques à l’utilisation des services GCP (Vertex AI, Worflow, Dataflow, Apigee, GKE, Composer, …) et proposer des recommandations sécurité Mettre en place des contrôles de sécurité dans les outils de type CSMP Accompagner l'équipe interne projets et transverses dans la mise en œuvre des recommandations.
Mission freelance
Data Engineer Talend BusinessObjects GCP
Contexte de la mission : La Direction Immobilière Groupe est chargée de la définition stratégique des actifs immobiliers du groupe ainsi de que leur gestion. Au sein de la DSI, le pôle data a pour rôle de mettre à disposition des informations clés destinées aux analyses et reporting de la DIG. Ce pôle souhaite renforcer son équipe avec un Data Engineer afin de maintenir et faire évoluer son patrimoine applicatif data. La mission s'inscrit aussi dans une roadmap de migration à moyen terme vers une nouvelle architecture data GCP. MISSIONS : Les travaux confiés porteront sur la maintenance corrective et évolutive du patrimoine data à savoir : Flux de données : Conception technique, développement, tests, supports recette des jobs Talend Reporting : maintenance des univers BO, création & modifications de rapports BO API Talend ESB : conception et développement de flux temps réel Documentations : élaboration technique, spécifications Compétences recherchées : -Obligatoires : Talend DI, Talend ESB, SAP BusinessObjects, Oracle, Postgre Méthode Agile Scrum -Optionnelles : GCP Expérience nécessaire : 10 ans sur la fonction Méthodologie : Scrum Langue : Français Crée en 2008, Kéoni Consulting est une société de conseil et d’ingénierie informatique spécialisée dans le secteur de la banque, de la finance de marché, et de l’assurance, et de l'industrie. Nous sommes le partenaire dans la transformation digitale des grands Comptes. Nous les aidons à transformer leur modèle économique, aligner vos processus opérationnels, sélectionner les meilleures technologies, atténuer et palier les risques liés au digital. Kéoni Consulting aide les entreprises à: Faire la différence Innover et créer Réinventer votre business Satisfaire les clients Gagner en avantages compétitifs Devenir le leader de leur secteur Devenir le leader de votre secteur Notre activité couvre la totalité du cycle de vie des systèmes d’informations (Pilotage et Gestion de projet, Conseil en MOA, Conception, Réalisation, Maintenance, Production Exploitation)
Offre d'emploi
Data Engineer Talend / BusinessObjects / GCP F/H
Au sein de la Direction Immobilière Groupe (DIG) et rattaché(e) au pôle Data de la DSI, vous participerez à la maintenance et à l’évolution du patrimoine applicatif data, tout en accompagnant la roadmap de migration vers une nouvelle architecture sur Google Cloud Platform (GCP) . Vos missions principales incluront : Maintenance corrective et évolutive des flux de données Talend (DI et ESB). Conception technique, développement, tests et support recette des jobs Talend. Maintenance des univers SAP BusinessObjects et création/modification de rapports. Développement de flux en temps réel via Talend ESB. Rédaction des documentations techniques et des spécifications fonctionnelles. Compétences techniques requises : Obligatoires : Talend DI et Talend ESB. SAP BusinessObjects. Bases de données Oracle et PostgreSQL. Méthodologie Agile Scrum. Optionnelles : Expérience avec Google Cloud Platform (GCP).
Mission freelance
Expert Sécurité GCP / IAM (H/F)
Nous recherchons pour le compte de notre client dans le domaine bancaire , un ingénieur sécurité opérationnelle expert sur GCP et ayant une bonne maîtrise de AZURE et AWS. Objectif global : Accompagner Sécurisation du cloud public régulé Contrainte forte du projet : Assurer la sécurité du cloud public régulé GCP ainsi qu'AWS et AZURE Connaissance linguistique : Anglais Professionnel (Impératif) Description détaillée : Contexte : Dans le cadre de la transformation technologique opérée par notre client sur 3 plateformes CSP (Azure, AWS et GCP), nous recherchons un consultant Sécurité GCP ayant une expertise en Identity and Access Management (IAM) sur la plateforme GCP et ayant également une bonne maîtrise des autres plateformes AWS et AZURE. Objectifs de la Mission : Audit de l'existant : Évaluer les configurations IAM actuelles sur GCP et identifier les vulnérabilités et les améliorations possibles. Conception de la stratégie IAM : Élaborer une stratégie IAM adaptée aux besoins de l'entreprise et conformes à nos règles de sécurité, incluant la gestion des identités, des accès et des permissions. Mise en œuvre des meilleures pratiques : Appliquer les meilleures pratiques IAM pour la gestion des identités et des accès, notamment à travers l'utilisation de services. Formation et sensibilisation : Accompagner les équipes projet sur les concepts IAM et les outils GCP, et promouvoir une culture de la sécurité au sein de l'organisation. Documentation : Fournir une documentation complète des processus, configurations et politiques mises en place. Définition du profil : Mise en application de la Politique de Sécurité. - Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 - Valide et instruit les dérogations contrevenant à la Politique de Sécurité. - Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) - Participation aux audits (internes / externes) - Mise en applications des recommandations d'audit et des demandes de remise en conformité - Rédaction de guides et standards de sécurité - Donne son avis pour l'implémentation des solutions de sécurité - Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation - Assure la veille technologique
Offre d'emploi
Data Engineer GCP
À propos de l'opportunité : Envie de contribuer aux projets data de demain au sein d'une structure à l'avant-garde de l'innovation ? Nous recherchons un Data Engineer Senior spécialisé en Google Cloud Platform (GCP), passionné par les environnements Cloud et motivé par la création d'architectures de données robustes et scalables. Rejoignez une équipe data dynamique, qui travaille sur des projets divers et stimulants pour accompagner la transformation numérique de ses clients. Missions ????? : • ???? Concevoir et Développer des Pipelines de Données : Concevoir et optimiser des pipelines ETL/ELT dans un environnement GCP, en assurant la performance et la fluidité des flux de données. • ???? Optimiser les Processus de Collecte et Transformation : Travailler avec les équipes Data Science et Analytics pour automatiser et améliorer l'ingestion, la transformation et le stockage de données, avec des outils comme Dataflow et BigQuery. • ????? Mettre en Place des Meilleures Pratiques DevOps : Implémenter des processus de CI/CD et des solutions de monitoring pour garantir des déploiements rapides et fiables. • ????? Participer à la Stratégie de Gouvernance et Sécurité : Veiller à la sécurité et à la conformité des données en respectant les standards de sécurité et en participant à la mise en œuvre de pratiques de gouvernance data. • ???? Collaborer avec les Équipes : Travailler en étroite collaboration avec les équipes produits, data scientists, et analystes pour bien aligner les solutions techniques avec les objectifs business. Environnement Technique ???? : • Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc) • Outils d'Ingénierie de Données : Spark, Apache Beam, Airflow • Langages de Programmation : Python, SQL • Outils de DevOps : Terraform, Docker, Kubernetes • Gouvernance et Sécurité : IAM, gestion des rôles, chiffrement de données Profil Recherché : • Expérience : Minimum 5 ans en ingénierie de données avec une spécialisation Cloud, idéalement sur Google Cloud Platform. • Compétences Techniques : Maîtrise de GCP (BigQuery, Dataflow), avec de solides compétences en Python et SQL pour le traitement et la transformation de données. • Connaissances Avancées en Cloud et Data Engineering : Expérience dans la conception et l'optimisation de pipelines ETL/ELT. • Esprit d'Analyse et Résolution de Problèmes : Capacité à identifier des solutions data innovantes et efficaces, en tenant compte des contraintes de temps et des impératifs business. • Qualités Personnelles : Proactivité, esprit d'équipe, rigueur et capacité à communiquer efficacement avec des interlocuteurs variés (techniques et non techniques). Pourquoi Rejoindre ? ???? Notre environnement est à la fois stimulant et axé sur l'innovation, où chaque membre de l'équipe peut exprimer sa créativité technique et avoir un réel impact sur les projets clients. En rejoignant cette équipe, vous participerez activement à la transformation numérique et bénéficierez d'opportunités de développement professionnel.
Offre d'emploi
Tech Lead Data GCP
Tech Lead Data Cloud (GCP/AWS) Nous recherchons pour l'un de nos clients un(e) Tech Lead Data Cloud. Vous aurez l'opportunité de rejoindre une entreprise innovante, en pleine croissance, et de contribuer activement à la transformation digitale de ses clients grâce à des projets data ambitieux. Vos missions principales : • Audit cloud : Évaluer la configuration cloud des clients et recommander des améliorations pour optimiser leurs systèmes. • Architecture cloud-native : Concevoir des architectures data sur GCP et AWS, en utilisant des technologies telles que BigQuery, Redshift, MongoDB, Athena, CloudSQL, et Firestore. • Développement de pipelines : Mettre en place et développer des pipelines de traitement de données avec Spark, Dataflow, PubSub, SQS, etc. • Support aux équipes Data Science : Préparer et fournir les données nécessaires pour les projets de Machine Learning. • Onboarding clients : Accompagner les clients dans l'adoption des bonnes pratiques cloud et DevOps. • Automatisation CI/CD : Déployer des processus d'automatisation (CI/CD, GitOps) pour assurer des projets fluides. • Intégration et déploiement : Assurer le déploiement et l'intégration des solutions data et leur passage en production. Pourquoi rejoindre cette entreprise ? • Formation continue : Accès à des formations certifiantes 100% prises en charge et du temps dédié à la veille. • Days : Une journée par mois (12 jours par an) pour la veille technologique et le partage de connaissances. • Jours hors projets : Un quota de jours annuels dédié aux formations et conférences. • Mobilité durable : Prise en charge à 50% des frais de transport public et forfait pour les mobilités douces. ???? • Événements et culture d'entreprise : Séminaire annuel, activités mensuelles sponsorisées par l'entreprise, conférences tech, et afterworks réguliers ! Intéressé(e) par ce poste ? N'hésitez pas à nous contacter pour plus d'informations et discuter des opportunités !
Mission freelance
Développeur Full Stack Java / Angular GCP pour Projet ESG et Migration Java
Dans le cadre d’un projet stratégique ESG pour un acteur majeur du secteur financier, nous recherchons un Développeur Full Stack Java / Angular pour le développement d'une application Web sur Google Cloud Platform (GCP). Le consultant interviendra également sur la mise à jour d’un socle batch Cloudera, avec pour mission de migrer l’environnement Java vers la version 17. Missions : Développer une application Web en environnement Google Cloud Platform (GCP) dans le cadre du projet ESG. Traiter l’obsolescence Java d’un socle batch en assurant la migration vers Java 17, en veillant à la qualité et à la performance. Intégrer l’application dans un environnement DevOps, en utilisant Jenkins et XL Deploy pour l’automatisation des déploiements et de la livraison continue. Concevoir et développer des interfaces utilisateur en Angular, pour une expérience utilisateur optimisée. Collaborer avec les équipes techniques afin d’assurer la stabilité et l’efficacité des solutions développées.
Mission freelance
Lead Dev Node.js & GCP
En tant que Lead Developer Node.js, vous évoluerez dans un environnement stimulant et collaboratif, au sein d’une équipe dynamique de développeurs passionnés. Votre rôle consistera à piloter la conception et le développement de solutions backend robustes et scalables en Node.js, en appliquant les meilleures pratiques de développement et en veillant à la qualité du code produit. Vous travaillerez étroitement avec les développeurs et les product managers pour aligner les objectifs techniques avec les besoins métiers et utilisateurs. Nous recherchons pour notre client, une entreprise de premier plan, un Lead dev Node.js expérimenté avec une expertise en Cloud Google cloud platform Compétences techniques requises : NodeJs, NestJS Typescript React Jest Express Environnement Cloud run Architecture Headless Github Utilisation de Cloud Run Connaissance de Terraform
Mission freelance
Ingénieur Système WINDOWS / LINUX /DEVOPS & CLOUD AZURE/ GCP / ANGLAIS OPERATIONNEL (H/F)
Nous recherchons pour le compte de notre client dans le luxe, un ingénieur système CLOUD AZURE/GCP ET DEVOPS ayant de bonnes connaissances sur windows et linux Contexte de la mission : Prestation à réaliser sur le périmètre IT Production Cloud. Expérience sur ce type de prestation: Minimum 10 ans Missions : Maitrise de l’offre Cloud Microsoft Azure et GCP Gestion des serveurs cloud et outillages associés Installer et Administrer les services IaaS et PaaS en relation avec nos partenaires Cloud Maintien en condition opérationnelle de niveau 3 sur les environnements Cloud, Windows Servers, Linux Servers en lien avec les hébergeurs et infogérant. Documenter l’ensemble des solutions (DINS, DEX,..)
Offre d'emploi
Data Engineer GCP & AWS
Mon client est une entreprise reconnue dans le domaine de la transformation et de l'analyse de données, dédiée à aider ses partenaires à exploiter leurs données stratégiques pour gagner en performance. Acteur majeur dans l'intégration de solutions Cloud, il accompagne divers secteurs, du retail à la finance, en passant par la santé. L'entreprise rassemble des talents internationaux autour de projets innovants et est en pleine croissance. Description du Poste : En tant que Data Engineer Senior spécialisé en GCP & AWS, vous participerez à la conception, au développement et au déploiement de pipelines de données robustes et évolutifs sur les plateformes Cloud. Vous collaborerez étroitement avec les Data Scientists, Data Analysts et équipes DevOps pour assurer la fiabilité et l'optimisation des architectures de données sur des projets à fort impact. Responsabilités : • ???? Développer et Gérer des Pipelines de Données : Concevoir, déployer et gérer des pipelines complexes sur Google Cloud Platform (GCP) et Amazon Web Services (AWS) pour l'ingestion, la transformation et la modélisation des données. • ???? Optimiser les Flux de Données : Identifier et résoudre les points de latence pour maximiser la performance et l'efficacité des architectures Big Data. • ?? Gérer les Données en Temps Réel : Mettre en place des solutions pour gérer des données en streaming en utilisant des outils tels qu'Apache Kafka, Google Pub/Sub ou Kinesis. • ???? Assurer la Sécurité et la Conformité : Veiller à la conformité des données en déployant des pratiques de gouvernance et de catalogage. • ???? Collaborer avec les Équipes : Travailler main dans la main avec les équipes Data Science et DevOps pour déployer des modèles de Machine Learning en production et contribuer aux initiatives IA. • ????? Automatiser et Maintenir les Pipelines : Intégrer des technologies de CI/CD et des outils de monitoring pour garantir la disponibilité et la performance continue des flux de données. Environnement Technique : • Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc), Amazon Web Services (Redshift, Glue, Kinesis, Lambda) • Data Engineering : Spark, Airflow, Python, SQL, Terraform, Docker • Big Data & Streaming : Apache Kafka, Google Pub/Sub, Kinesis • Sécurité et Conformité : IAM, gestion des rôles et permissions, chiffrement des données Profil Recherché : • Formation : Diplôme en informatique, ingénierie ou domaine connexe. • Expérience : Minimum 5 ans d'expérience en Data Engineering, avec une expertise en GCP et AWS. • Compétences Techniques : Excellente maîtrise de Python et SQL, et des outils d'orchestration de données (Airflow, Spark) ainsi que de CI/CD. Expérience en data warehousing (BigQuery, Redshift) appréciée. • Esprit d'Analyse et Autonomie : Solide capacité à optimiser et structurer des flux de données, et aptitude à gérer plusieurs projets simultanément. • Langues : Maîtrise du français et de l'anglais (écrit et oral). Pourquoi Rejoindre ? Mon client valorise l'innovation, la collaboration et l'excellence technique. Il propose un environnement dynamique, des perspectives d'évolution, et un accès aux formations et technologies de pointe dans le domaine de la data. Rejoignezuneéquipepassionnéeetcontribuez à desprojetstransformantsdansledomainedu Cloud etdesdonnées.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.