Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
data Ingénieur
Contexte international, suivi opérationnel Le livrable est Développement flux Compétences techniques SQL/Python - Confirmé - Impératif GCP - Confirmé - Important Connaissances linguistiques Français Professionnel (Impératif) Anglais Lu, écrit (Secondaire) Description détaillée Au sein de la Supply Chain Digital Platform, notre équipe assure les échanges de données entre le moteur de calcul de prévision de vente et de réapprovisionnement et l'ensemble des applications internes. Nous avons mis en place un ELT (Gateway) permettant de consolider, transformer et analyser les données nécessaires à l'outil de réappro. Nous utilisons la stack technique BigQuery et Airflow pour déclencher les process de transformation de données et d'échange avec l'outil. Nous souhaitons nous renforcer dans l'équipe de la Gateway d'un ingénieur data afin d'assurer le run opérationnel, optimiser l'existant et dans un avenir proche participer au déploiement de la solution dans d'autres pays. Nous recherchons quelqu'un de motivé ayant déjà une expérience dans la data. Une bonne maîtrise de SQL est nécessaire. (elle sera testée durant l'entretien). (Actuellement l'équipe est composée de 3 ingénieurs data, 1 product owner, 1 scrum master, 1 tech lead, 1 incident manager.)
Offre d'emploi
Développeur.se Java / GCP
Développeur Full Stack Java Sénior avec Expertise GCP Description du poste : Vous participerez activement au design et au développement de composants pour une chaîne de Risk et de Pricing. En tant que développeur full stack, vous serez force de proposition pour faire évoluer l’architecture existante dans ces domaines. Vos principales missions incluront : Développer et maintenir des composants existants, incluant la base de données MongoDB, une couche de services sur Sophis, et des composants de gestion des chocs de VaR. Mettre en place et exécuter les tests, assurer la mise en production et documenter les développements. Assurer le support des applications en production. Consacrer une part importante de votre temps à l'analyse des besoins fonctionnels et à la réalisation de tests.
Mission freelance
Ingénieur Cloud and DevOps (H/F)
Missions Maitrise de l’offre Cloud Microsoft Azure et GCP Gestion des serveurs cloud et outillages associés Installer et Administrer les services IaaS et PaaS en relation avec nos partenaires Cloud Maintien en condition opérationnelle de niveau 3 sur les environnements Cloud, Windows Servers, Linux Servers en lien avec les hébergeurs et infogérant. Documenter l’ensemble des solutions (DINS, DEX,..) Compétences et qualités personnelles Vous avez une expérience solide sur Azure et GCP ainsi que sur les outils d’automatisation (Terraform) et de CI/CD. Bonnes connaissances des serveurs Windows et Linux Bonne qualité rédactionnelle Connaissances dans la rédaction de cahier des charges, documentation d’architecture et d’exploitation Connaissance du référentiel ITIL serait un plus Vous êtes autonome, rigoureux et polyvalent Vous avez un bon niveau d'anglais.
Mission freelance
Tech Lead Data Engineer GCP (H/F)
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne
Mission freelance
Azure et GCP anglais - 10 ans d'expérience
Missions Maitrise de l’offre Cloud Microsoft Azure et GCP Gestion des serveurs cloud et outillages associés Installer et Administrer les services IaaS et PaaS en relation avec nos partenaires Cloud Maintien en condition opérationnelle de niveau 3 sur les environnements Cloud, Windows Servers, Linux Servers en lien avec les hébergeurs et infogérant. Documenter l’ensemble des solutions (DINS, DEX,..) Compétences et qualités personnelles Vous avez une expérience solide sur Azure et GCP ainsi que sur les outils d’automatisation (Terraform) et de CI/CD. Bonnes connaissances des serveurs Windows et Linux Bonne qualité rédactionnelle Connaissances dans la rédaction de cahier des charges, documentation d’architecture et d’exploitation Connaissance du référentiel ITIL serait un plus Vous êtes autonome, rigoureux et polyvalent. Vous avez un bon niveau d'anglais. Environnement: • OS: 90% Windows servers, 5% Linux servers, 5% PaaS • Cloud: 85% Azure, 10% GCP, 5% Aliyun
Mission freelance
88331/SUPPORT ANALYST/Analyst Exploitation GCP Cloud Indre
SUPPORT ANALYST Indre La Prestation nécessite en Prérequis : avoir pratiqué en environnement GCP (1-2 ans), ils n’attendent pas un expert sur le sujet La Prestation consiste à • Gérer des Infrastructures Cloud : o Déployer, configurer et maintenir des services et des applications sur Google Cloud Platform. o Assurer la surveillance proactive et la gestion des incidents sur l'infrastructure GCP. o Implémenter et gérer des environnements multi-cloud et hybrides. • Optimisation des Performances : o Analyser les performances des systèmes et proposer des améliorations. o Optimiser l'utilisation des ressources pour réduire les coûts et améliorer l'efficacité. o Automatiser les tâches répétitives en utilisant des scripts et des outils d'automatisation (Terraform, Ansible, etc.). • Sécurité et Conformité : o Garantir la sécurité de l'infrastructure cloud en appliquant les meilleures pratiques de sécurité. o Assurer la conformité avec les normes et les réglementations en vigueur. o Mettre en place et gérer des politiques de sauvegarde et de récupération des données. • Support et Collaboration : o Travailler en étroite collaboration avec les équipes de développement pour assurer l'intégration continue et le déploiement (CI/CD). o Fournir un support technique et une formation aux équipes internes. o Documenter les procédures et les configurations pour faciliter la maintenance et le support. Compétences et Qualifications : • Compétences Techniques : o Maîtrise de Google Cloud Platform (GCP) et de ses services (Compute Engine, Cloud Storage, BigQuery, etc.). o Expérience avec des outils d'infrastructure en tant que code (IaC) tels que Terraform et Ansible. o Bonne compréhension des concepts de réseaux, de sécurité et de gestion des identités sur GCP. o Compétences en scripting (Python, Bash, etc.).
Mission freelance
Senior Data Architect (Snowflake)
Je suis à la recherche d'architectes de données seniors pour un projet à long terme de bout en bout. Rôle : Architecte de données senior Durée du contrat : Long terme Lieu : Paris : Paris Travail hybride Date de début : Fin octobre/début novembre Vous rejoindrez une nouvelle mission à long terme pour superviser un projet de transformation complet pour notre client. Vous travaillerez sur la modélisation et l'architecture des données, en partant de zéro. Profile: Vous avez une expérience confirmée de plusieurs projets d'architecture de données, idéalement à partir de zéro. Une solide expérience et connaissance de l'architecture de Snowflake, y compris le partage des données, la mise à l'échelle et les pratiques de sécurité. Compétence dans la conception et l'optimisation des bases de données Snowflake Capacité à créer des modèles de données complexes et à architecturer des pipelines ELT/ETL à l'aide d'outils tels que SNowpipe, Google Dataflow ou d'autres services GCP. Forte compréhension de la confidentialité des données, des normes de sécurité et des meilleures pratiques, y compris la gestion de l'accès, le cryptage et la conformité. Anglais courant
Offre d'emploi
Développeur Full Stack spécialisé en Kafka/Confluent
Bonjour Nous sommes à la recherche de développeurs Full Stack spécialisés en Kafka/Confluent pour notre client de renom basé en France. Vous interviendrez sur des projets innovants et serez responsable de la conception, du développement et de l'intégration d'architectures distribuées. Vous collaborerez avec des équipes pluridisciplinaires pour implémenter des solutions robustes et scalables en utilisant Kafka et d'autres technologies de pointe. Vos principales responsabilités seront : Conception et développement d'applications full stack (backend et frontend) avec une forte intégration de Kafka/Confluent . Mise en place et gestion des pipelines de streaming de données avec Kafka pour assurer la scalabilité et la robustesse des applications. Collaborer avec les équipes DevOps pour déployer, superviser et optimiser les environnements de production. Analyse et résolution des incidents techniques liés à Kafka et aux microservices. Participer à l'amélioration continue des processus de développement et d'intégration. Documentation technique et partage des meilleures pratiques avec l'équipe.
Mission freelance
Consultant BI
Intégré dans une équipe projet transverse aux équipes Enjeux Digital Data, ayant pour objectif de décommissionner l’outil Business Object, la mission sera de: - Préparer et réaliser les tests des tableaux de bord (y compris la pertinence des données) - Analyser les résultats et rédiger le rapport de tests - Identifier et traiter les dysfonctionnements éventuels - Identifier les opportunités d'amélioration et formuler des recommandations pour optimiser les tableaux de bord - Accompagner les métiers dans leur montée en compétence sur l’outil
Offre d'emploi
Infrastructure Architect (Ref : AG)
Le poste est au sein de l'équipe d'architecture du groupe. L'équipe est composée d'un architecte d'infrastructure, d'un architecte fonctionnel, d'un architecte d'usine de développement, d'un architecte Datascience. Les tâches sont les suivantes : Suivi et conseil aux équipes de conception Participation à la définition des infrastructures techniques Gestion de projets d'infrastructures Suivi et amélioration des processus Adaptabilité et curiosité technique car les évolutions technologiques sont rapides et doivent être assimilées pour pouvoir optimiser l'existant Polyvalence, goût de la technique et créativité pour identifier les solutions techniques appropriées Rigueur et esprit critique afin de distinguer la technique du discours marketing Capacité à travailler avec des équipes d'experts Bonne ouverture relationnelle afin de travailler avec les autres services de l'entreprise (achats, services commerciaux notamment)
Mission freelance
Consultant SecOps (H/F)
Notre client recherche un freelance avec une forte connaissance GCP pour travailler sur le backlog Secops des équipes devops. Dans le cadre de sa recherche, notre client souhaite une prestation d’expertise cloud GCP (LandingZone notamment) pour réaliser les activités suivantes : - Travail en agilité (Scrum, Kanban) - Définition des solutions techniques vis à vis des éléments priorisés du backlog produit par le PO - Relation de proximité et en binôme avec un membre de l'équipe - Travail en trinôme avec le PO de l'équipe DevSecOps et avec les architectes de la plate-forme Cloud - Rôle de conseil et de formateur auprès des intervenants de l'équipe) - Réalisation de travail HNO de manière cyclique (1 semaine / 6) Livrables : Module Terraform Document de formation/accompagnement pour les équipiers Documentations techniques formalisée dans les outils internes (Jira / confluence)
Mission freelance
SecOps - Expertise cloud GCP (NANTES - Présence Hebdo obligatoire)
🔴 Merci de confirmer votre présence à Nantes 🔴 La mission ne peut pas se faire en full Remote (3 jours min sur site / semaine) ✅ Nous apprécions un court message indiquant la raison de votre candidature Intégrer une équipe plateforme (LandingZone) sur GCP avec un fonctionnement agile (PO, Agile Master, Leadtech) qui a en charge le Build / Run / MCO / Astreinte. Nous recherchons un consultant avec une expertise cloud GCP (Landing Zone notamment)pour réaliser les activités suivantes : - Travail en agilité (Scrum, Kanban) - Définition des solutions techniques vis à vis des éléments priorisés du backlog produit par le PO - Relation de proximité et en binôme avec un membre de l'équipe - Travail en trinôme avec le PO de l'équipe DevSecOps et avec les architectes de la plate-forme Cloud - Rôle de conseil et de formateur auprès des intervenants de l'équipe) - Réalisation de travail HNO de manière cyclique (1 semaine / 6)
Mission freelance
IT Infrastructure Architect
JCW est à la recherche d'un Architect Infrastructure pour l'un de ces clients. Profil recherché: 5 ans d'expérience en tant qu'Architecte Infrastructure minimum Maitrise impérative des outils techniques: VMware - Kubernetes - Redhat Openshift - GCP - Bid Data - C4 Model Bonne connaissance de l'architecture SI Maitrise impérative des outils: Windows - Unix/Linux Sotckage Nas/SAN/DAS Une bonne connaissance des technologies de VMWare Virtualization et leurs outils La mission: Démarrage au plus tot Localisation: Ile-de-France et Paris intramuros Duree: 12 mois initial plus extension Langues: Français et Anglais professionnel Si vous êtes intéressé ou connaissez des personnes qui pourraient l'être, envoyez-moi votre/ leurs CV à pour une considération immédiate.
Offre d'emploi
Data Engineer
Description du poste : En tant que Data Engineer chez Digital Power Consulting, vous serez chargé de la conception, de la mise en place et de l’optimisation des infrastructures de données. Vous interviendrez sur des projets stratégiques pour nos clients, en veillant à l'efficacité et à la qualité des flux de données. Vos missions : Concevoir et mettre en œuvre des pipelines de traitement des données. Collecter, stocker, transformer et traiter des données massives. Assurer la qualité, la sécurité et la scalabilité des infrastructures de données. Collaborer avec les équipes Data Science pour permettre une exploitation efficace des données. Optimiser les bases de données pour garantir des performances élevées. Participer à la mise en place de solutions Big Data et Cloud (AWS, Azure, GCP). Documenter les processus et les solutions techniques. Compétences requises : Maîtrise des langages de programmation tels que Python, Java ou Scala. Expérience dans la gestion des bases de données (SQL, NoSQL). Connaissance des technologies de traitement de données (Hadoop, Spark, Kafka). Bonne maîtrise des services Cloud (AWS, Azure, GCP). Expérience dans la gestion des pipelines de données CI/CD. Compétences en optimisation de bases de données et en data modeling. Une bonne connaissance des outils ETL est un plus.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.