Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
DATA ENGINEER GCP
Bonjour, Pour le compte de notre client tu interviendras dans la transformation d’un projet majeur, où tu devras développer la Data Platform et l'ensemble des services Data qui seront exposés aux différentes équipes du client. Aussi, tu seras amené à développer des use cases data. Egalement, tu participeras à la migration du DWH Oracle vers Big Query GCP. Dans ce sens, tes missions seront les suivantes : Designer l'architecture et développer la solution Définir, développer et optimiser les flux Être garant de la qualité du code Environnement technique : GCP (BigQuery, Cloud Run, Cloud Build) SQL et PL/SQL Python Méthodologie Agile
Mission freelance
Data ingénieur - Python - GCP
Assurer la performance et l’évolutivité des solutions Data & ML : Concevoir et optimiser des pipelines de données robustes et évolutifs (ETL/ELT). Garantir la qualité des données et leur disponibilité pour les modèles de Machine Learning et les équipes métier. Implémenter des solutions scalables pour le traitement de grands volumes de données. Encadrer techniquement une équipe en forte croissance : Accompagner une équipe de Data Engineers et Data Scientists, en participant activement à leur montée en compétences. Fédérer et guider l’équipe dans un environnement collaboratif et motivant. Assurer l’adoption des meilleures pratiques de développement (DevOps, CI/CD, tests automatisés, monitoring). Aligner les solutions Data avec les standards technologiques du groupe : Veiller à la cohérence des solutions avec les stratégies globales de l’entreprise. Introduire des standards modernes comme l’Infrastructure as Code, l’observabilité et le monitoring avancé. Roadmap produit et décisionnel : Collaborer avec les Product Owners pour prioriser les fonctionnalités liées à la gestion et au traitement des données. Assurer les choix architecturaux et techniques clés pour garantir la sécurité, la scalabilité et les performances des systèmes. Interopérabilité et standardisation : Travailler avec les autres Tech Leads et équipes transverses pour une intégration fluide des solutions au sein de l’écosystème global. Standardiser les pratiques liées aux pipelines de données et au MLOps. Supervision de la production et amélioration continue : Assurer la stabilité et la fiabilité des systèmes de données en production. Participer activement aux revues de code (MOB programming, pair reviews) pour maintenir un haut niveau de qualité technique. Être force de proposition pour des initiatives d’amélioration continue. Support et relation utilisateurs : Être le point de contact clé pour les utilisateurs finaux, comprendre leurs besoins et garantir leur satisfaction. Former les parties prenantes à l’utilisation des solutions déployées. L'équipe, actuellement composée de 5 collaborateurs, est en forte expansion avec des recrutements en cours pour répondre aux objectifs ambitieux du projet. Vous évoluerez dans un cadre mêlant innovation, technologies avancées et défis stratégiques, avec une véritable autonomie pour construire des solutions Data & ML d’envergure. Expertise confirmée en ingénierie des données (5+ ans) avec une solide maîtrise des technologies Cloud (AWS, GCP ou Azure). Compétences avancées en Python, Spark, Kafka, SQL ou outils de traitement des données distribuées. Expérience en MLOps et dans la mise en œuvre de pipelines automatisés. Leadership technique et capacité à encadrer une équipe technique. Forte capacité à communiquer, à collaborer et à prendre des décisions stratégiques.
Mission freelance
Data Analyst
Intégration de la solution Looker Accompagnement des équipes DEV pour la mise en place de solution Looker Optimisation de la plateforme Looker ( Gestion des coûts, intégration des nouvelles fonctionnalitées, ...) Compétences techniques Looker - Confirmé - Impératif GCP - Confirmé - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) Français Professionnel (Impératif) Description détaillée Dans le cadre du déploiement de la plateforme Looker, la mission vise à mettre en place l'infrastructure nécessaire et à la rendre accessible aux Business Units (BU) ainsi qu'aux autres plateformes pour leur usage quotidien de la visualisation de données.
Mission freelance
DATA Engineer GCP H/F
Intégrer l’équipe Move To Cloud pour réaliser la migration dans le cloud GCP. KARMA est le système de Revenue Management du groupe 100% migration cloud GCP Intégration d’une équipe de 6 personnes Présence sur site (Sophia Antipolis) obligatoire 1x par semaine. Présence sur site (Sophia Antipolis) obligatoire 3x par semaine pendant les 3 premiers mois (on boarding) Communication, leadership, autonomie, coaching Profils séniors uniquement Anglais niveau B2 Obligatoire Data engineering / Big Data Development Hadoop et Spark pour migration dans le cloud GCP
Offre d'emploi
Cloud DevOps GCP
Poste : Ingénieur Cloud DevOps GCP Durée : Longue (Voire 3 ans) Lieu : Ile De France Description du Poste : Dans le cadre d’un projet stratégique pour le compte d’une banque de renom , nous recherchons un Ingénieur Cloud DevOps spécialisé GCP . Vous serez chargé de concevoir, déployer et optimiser des solutions d’infrastructure cloud sur la plateforme Google Cloud Platform (GCP) , en assurant leur robustesse, leur performance et leur alignement avec les objectifs métiers. Responsabilités : - Expertise approfondie des services GCP et des outils natifs pour la conception et la gestion d'infrastructures cloud complexes ; - Solides compétences en Terraform et Ansible pour l'infrastructure as code et l'automatisation ; - Maîtrise de la mise en place et de la gestion de pipelines CI/CD avec GitLab CI , adaptés aux exigences d’un secteur bancaire ; - Orchestrer et gérer des conteneurs avec Kubernetes et Docker , en exploitant pleinement les capacités de Google Kubernetes Engine (GKE) ; - Bonne connaissance des outils ArgoCD , Maven , et SonarQube pour la gestion des configurations, des builds, et de la qualité logicielle ; - Optimiser les coûts et l’efficacité des ressources cloud en exploitant des services GCP tels que Compute Engine , Cloud Storage , et BigQuery .
Mission freelance
Développeur Golang - JAVASCRIPT - GCP - BIGQUERY - DOCKER - K8S
Développeur Vous rejoindrez le pôle développement de la direction technique, au sein de l'équipe "Data". En collaboration avec d'autres développeurs et le Technical Lead, vos principales missions seront : Maintenance applicative : gérer et améliorer notre outil de collecte de données et les APIs associées. Développement de fonctionnalités : concevoir, tester, monitorer et faire des revues de code. Support et amélioration continue : garantir la continuité de service et participer aux initiatives d'optimisation. Vous interviendrez sur un stack varié dans un environnement collaboratif et agile : Backend : Go (Golang) et PHP (Phalcon), pour nos APIs RPC et REST. Frontend : JavaScript. Bases de données : MySQL, Redis, BigQuery. Cloud et DevOps : Google Cloud Platform (GKE, Pub/Sub, Logging, Monitoring), Docker. Outils : Jira, Git, GitHub. Expérience : plus de 3 ans en développement web. Bonne maîtrise de Go, avec expérience en développement, test et monitoring d'APIs RPC et REST. Compétence en JavaScript, avec capacité à développer, tester et maintenir des librairies. Familiarité avec des outils tels que GCP (Pub/Sub, Logging, Monitoring), Docker, Kubernetes et la CI/CD.
Offre d'emploi
SYSOPS H/F
Groupe SYD IM Nous recherchons pour l'un de nos clients sur Nantes un Sysops H/F Missions : Travail en agilité (Scrum, Kanban) Réalisation de solutions techniques vis à vis des éléments priorisés du backlog produit par le PO et le leadtech Ecriture de documentation technique Travail en petit groupe avec d'autres DevOps sur des sujets d'analyse ou de réalisation ou de gestion des incidents, selon les besoins Compétences attendues Réaliser des scripts en python, des modules terraform et des playbook ansible A l'aise avec la gestion de VM sous Linux et/ou sous Windows Posture de communicant et de partage des connaissances Environnement technique/fonctionnel Google Cloud Platform (GCE, GCS, CloudFunction) Terraform Ansible Github Jenkins Administration des Systèmes d'exploitation Windows Server RHEL Python Télétravail partiel ok rejoignez-nous!
Mission freelance
Data Engineer
Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ). SON ACTIVITE : QUALIFICATION ET GESTION DES DONNÉES : - Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité - Intègre les éléments - Structure la donnée (sémantique, etc.) - Cartographie les éléments à disposition - Nettoie la donnée (élimination des doublons, ) - Valide la donnée - Éventuellement, il crée le référentiel de données SES LIVRABLES : - Data Lake approprié et partagé et son dimensionnement - Cartographie des données - Les éléments permettant de garantir la qualité de la donnée
Mission freelance
Développeur back End expert sur JAVA/SPRING/GCP
Dans le cadre du développement et du déploiement d'une application de gestion backoffice dans plusieurs pays européens vos principales missions seront de : - Participer au développement de nouvelles fonctionnalités. - Apporter des conseils et de l'expertise technique pour l'intégration des projets micro-services. - Mise en place et suivi de l'outillage pour optimiser la performance, la sécurité, l'observabilité des composants logiciels. - Maintienir et améliorer de la plateforme d'intégration continue. Environnement technique :Java/Spring/NodeJS/VueJS/MongoDB/Kafka /Kubernetes (GKE)/Terraform. Vous justifiez d'une expérience significative dans un environnement cloud (GCP de préférence).
Offre d'emploi
Architecte Google Cloud
👉 Contexte : Pour le compte d'un de nos clients, nous recherchons un Architecte Google Cloud qui jouera un rôle central dans l’adoption de Google Cloud en fournissant des conseils techniques experts, en élaborant des solutions sur mesure et en renforçant des partenariats solides. Ce rôle est à pourvoir en agence. Vos responsabilités couvriront les activités de pré-vente, la conception d’architectures, le développement de solutions et le support continu, en veillant à ce que les clients tirent pleinement parti des technologies Google Cloud. Il s'agit donc d'un rôle transverse. Apporter un leadership et une expertise aux équipes internes et aux clients, en les aidant à concevoir et à mettre en œuvre des solutions robustes sur Google Cloud. Fournir une expertise technique en pré-vente pour de nouvelles opportunités, en participant à la collecte des besoins, à la rédaction de propositions et de SOW (Statement of Work). Conseiller les clients sur leurs pratiques architecturales et d’ingénierie Google Cloud, en animant des ateliers si nécessaire. Travailler sur divers projets tels que : Projets de données modernes, d’IA et de GenAI (Intelligence Artificielle Générative), en utilisant les dernières technologies sur la plateforme Google. Développement de solutions et applications Greenfield sur Google Cloud. Programmes de migration de charges de travail et de modernisation des applications et infrastructures. Accompagner les équipes de développement dans les processus de développement et de déploiement de logiciels sur Google Cloud, en promouvant son utilisation et en aidant à concevoir et architecturer des POC. Produire une documentation de haute qualité dans le cadre du développement de vos solutions. Être un point de contact avec Google, en travaillant avec les ingénieurs partenaires et clients de Google pour s’assurer que nos équipes commerciales et projet reçoivent le soutien nécessaire de la part du fournisseur. Assister le Directeur des Solutions dans le développement de nos capacités et de notre portefeuille de services. Participer à des événements techniques et briefings Google Cloud, en utilisant les connaissances acquises pour aider à renforcer les compétences de l’équipe.
Offre d'emploi
Développeur JAVA (F/H)
CDI💼 – 2 jours de télétravail/semaine 🏠 – 📍 Lille – 9 ans d'expérience minimum Vous souhaitez participer au développement d'applications back-office innovantes dans un environnement international et technique stimulant ? Rejoignez-nous ! 🚀 -Développer et intégrer de nouvelles fonctionnalités pour une application de gestion back-office déployée à l’échelle européenne. -Contribuer à l’intégration et au développement des microservices en assurant leur performance, leur sécurité et leur observabilité. -Mettre en place et maintenir les outils d’intégration continue. -Collaborer avec des équipes multidisciplinaires pour garantir la qualité et la scalabilité des solutions techniques.
Mission freelance
Expert(e) CloudOps
Expert(e) CloudOps Contexte : Intègre la solution logicielle ou matérielle livrée par les services Etudes dans l’environnement de production Cloud (GCP/OpenShift). Intègre l’application et en assure le déploiement via CICD Gère le support nécessaire de l’application lors des incidents en production Intervient dans la mise en exploitation d’une nouvelle application ou la livraison d’une nouvelle version de cette application Est un spécialiste des technologies du cloud et des services proposés par les grands cloud providers Maîtrise généralement les concepts de conteneurisation, d’automatisation et de CI/CD* qui lui permettent d’accompagner les développeurs et de mettre en place une démarche DevOps dans l’entreprise Compétence recherchée : GKE/GCP - Confirmé - Impératif Ansible (Tower) - Confirmé - Impératif GitlabCI - Confirmé - Impératif Helm - Confirmé – Important
Mission freelance
Data Steward
En tant que Data Steward pour le domaine, vous dirigerez les initiatives de modélisation des données et d'amélioration de la qualité, en travaillant en étroite collaboration avec les équipes métiers, produit et techniques pour garantir une gouvernance des données appropriée et une conformité aux normes. Qualité des données & Modélisation : Piloter les initiatives de modélisation des données en suivant les exigences internes. Garantir l'utilisation sémantique appropriée et la cardinalité dans les modèles de données. Valider les structures de données avec l'équipe d'architecture. Maintenir les standards de qualité des données dans le domaine concerné. Animation des parties prenantes : Coordonner avec les Chefs de Projet (propriétaires des données). Faciliter les discussions entre les équipes métiers et techniques. Guider les équipes techniques dans l'amélioration des structures API/événements. Travailler en étroite collaboration avec les équipes produit pour intégrer les sujets de données dans la feuille de route. Collaborer avec l'équipe d'architecture pour la validation des modèles. Compréhension des processus métier : Analyser les processus métier existants. Proposer des recommandations initiales pour l'architecture des données. Garantir l'alignement entre les besoins métiers et les structures de données. Documenter les flux de données et les dépendances. Support à la mise en œuvre technique (20%) : Guider l’exposition des données selon les modèles validés. Supporter la restructuration des sujets Kafka et des API de points de terminaison. Superviser la mise en œuvre de la qualité des données. Valider les solutions techniques.
Offre d'emploi
Ingénieur Système GCP H/F
Groupe SYD IM Nous recherchons pour l'un de nos clients sur Nantes un Ingénieur système GCP H/F Missions : Travail en agilité (Scrum, Kanban) Réalisation de solutions techniques vis à vis des éléments priorisés du backlog produit par le PO et le leadtech Ecriture de documentation technique Travail en petit groupe avec d'autres DevOps sur des sujets d'analyse ou de réalisation ou de gestion des incidents, selon les besoins Compétences attendues Réaliser des scripts en python, des modules terraform et des playbook ansible A l'aise avec la gestion de VM sous Linux et/ou sous Windows Posture de communicant et de partage des connaissances Environnement technique/fonctionnel Google Cloud Platform (GCE, GCS, CloudFunction) Terraform Ansible Github Jenkins Administration des Systèmes d'exploitation Windows Server RHEL Python Télétravail partiel ok rejoignez-nous!
Offre d'emploi
Ingénieur sécurité et réseaux CLOUD / GCP
Nous recherchons pour notre client final (grand compte) deux Ingénieurs Sécurité Cloud pour le maintien en condition des équipements de sécurité : Mise en place des infrastructures réseau et sécurité au sein des clouds GCP et Azure. Mise en place des solutions d'interconnexion. Support de niveau 3 sur tout incident opérationnel concernant les équipements de sécurité dans l'environnement cloud et les datacenters associés. Identification et mise en place des correctifs, ainsi que l'évolution de l'ingénierie si nécessaire. Rédaction de procédures et de documents techniques à suivre par les équipes de niveaux 1 et 2. Accompagnement des projets pour la mise en place de l'environnement réseau associé (flux, routage, etc.). Participation aux projets de modernisation des différents services réseaux (firewalls, DNS, routeurs, etc.). Suivi des actions de remédiation pour corriger les vulnérabilités de sécurité et mise en conformité des équipements, réseaux et systèmes de sécurité concernés.
Offre d'emploi
Product Owner Big Data - SQL - RGPD - CNIL
La Direction Data met en œuvre l’ensemble de la chaîne de traitement et de valorisation des données pour en accélérer l’usage. Elle accompagne les différentes offres et la croissance des offres (Acquisition, Réseaux sociaux, Partenariats, CRM) dans le développement d’outils de pilotage, la compréhension des usages et l’amélioration de l’expérience utilisateurs. Pour maximiser la valeur ajoutée issue de nos données, nous avons mis en place une Data Platform structurée en trois zones : - Une zone Bronze qui collecte, nettoie, centralise, et expose la donnée brute - Une zone Silver qui transforme les données brutes en données raffinées pour servir tous les usages métiers dans leur ensemble - Une zone Gold qui transforme les données raffinées pour servir les cas d’usages métiers du pilotage, de la personnalisation et de la data Science L’équipe en charge de la zone Bronze est l’équipe big Data composée d’un Product Owner Data, de 3 Data Ingénieurs, dont un lead, et est à la recherche d’une prestation de Product Owner. Missions de l’équipe Big Data - Conception et maintenance de la zone Bronze : Gérer les données brutes, de leur collecte à leur centralisation, en assurant leur nettoyage, - Intégration en continue : Assurer l’intégration, le nettoyage et la validation continue des données, - Optimisation des flux de données : Améliorer les pipelines pour garantir des traitements efficaces et scalables, - Veille technologique : Intégrer les meilleures pratiques et innovations en Big Data pour optimiser la gestion de données brutes.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Que faire face à un salarié qui cherche à quitter mon entreprise pour rester chez un client ?
- Démarrage Freelance - ARE ou ARCE + SASU ou AE
- Urgent Arce subtilité
- Obligé de faire la plonge pour survivre...
- Un retour aux entretiens physiques?
- Retour d’expérience : portage vers micro-entreprise, ACRE et ARCE