Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Expert Sécurité Google Cloud Platform (GCP) (H/F)
🙌🔽 Vous aurez les missions principales suivantes : 🔽🙌 🔸 Évaluer l'architecture de sécurité actuelle sur GCP et particulièrement sur les architectures projet de type data 🔸 Qualifier et étudier les évolutions de services GCP de type Private Service Connect et être en mesure de proposer des solutions si des problèmes sécurité sont remontées 🔸 Identifier les vulnérabilités et les risques à l’utilisation des services GCP (Vertex AI, Worflow, Dataflow, Apigee, GKE, Composer, …) et proposer des recommandations sécurité 🔸 Mettre en place des contrôles de sécurité dans les outils de type CSMP 🔸 Accompagner l'équipe interne projets et transverses dans la mise en œuvre des recommandations 🔸 Mise en application de la Politique de Sécurité 🔸 Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 🔸 Valide et instruit les dérogations contrevenant à la Politique de Sécurité. 🔸 Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) 🔸 Participation aux audits (internes / externes) 🔸 Mise en applications des recommandations d'audit et des demandes de remise en conformité 🔸 Rédaction de guides et standards de sécurité 🔸 Donne son avis pour l'implémentation des solutions de sécurité 🔸 Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation 🔸 Assure la veille technologique
Offre d'emploi
Data Engineer H/F
Notre client recherche un Développeur Big Data senior pour l’accompagner dans l'organisation et la mise en œuvre d'une solution Cloudera au sein de son dispositif technique. L'équipe est actuellement composée de 3 personnes pour le POC, qui devrait être terminé fin septembre, mais il y a des retards techniques : La possibilité de faire des mises à jour par rapport à Teradata Hadoop est plus permissif Trouver une solution de requêtage facile pour les statisticiens Descriptif de la mission : Rattaché au responsable Fabrication Décisionnel & Big Data, vous aurez pour principales missions : Concevoir techniquement les traitements dans le respect de l'architecture mise en place des exigences du client. Codifier les traitements des applications et rédiger la documentation technique dans le respect des normes de développement et des processus établis à notre client. Prendre en charge les maintenances correctives (modification d'une application existante pour corriger des erreurs techniques ou fonctionnelles) Réaliser les tests unitaires pour chaque composant : nouvelle fonctionnalité et non-régression, dans le cas de la maintenance ; Réaliser les tests d'assemblage des composants décrivant une fonction applicative : nouvelle fonctionnalité et non-régression, dans le cas de la maintenance ; premier niveau de vérification des performances et de l'exploitabilité. Transformation du SI BI : Passage de Datastage / Cognos à Hadoop / Power BI.
Offre d'emploi
Manager Data
Nous recherchons pour notre client un manager Data pour rejoindre notre groupe basé a Colombes Responsabilités : Alignement stratégique avec les objectifs de l'entreprise : Contribuer à la définition et à la mise en œuvre de la stratégie de la Business Unit DATA en accord avec les objectifs globaux de l'entreprise. Assurer la cohérence des projets DATA avec les priorités stratégiques de l'entreprise et les besoins des clients. Suivre les tendances du marché et les évolutions technologiques pour adapter la stratégie DATA en conséquence. Préparer et présenter des rapports réguliers à la direction, mettant en évidence les progrès réalisés et les axes d'amélioration. Management des collaborateurs : Superviser et encadrer l'équipe DATA, en veillant à leur développement professionnel et à leur motivation. Organiser des réunions régulières pour suivre l'avancement des projets et résoudre les éventuels problèmes. Définir les objectifs individuels et collectifs de l'équipe, et évaluer les performances. Promouvoir un environnement de travail collaboratif et stimulant, favorisant l'innovation et l'excellence. Développement business : Identifier et exploiter de nouvelles opportunités commerciales pour élargir le portefeuille clients de la Business Unit DATA. Développer et maintenir des relations solides avec les clients existants, en assurant leur satisfaction et en répondant à leurs besoins. Participer activement à la prospection de nouveaux marchés et à la préparation des propositions commerciales. Collaborer avec les autres Business Units et départements pour développer des offres de services innovantes et compétitives ainsi d’assurer une cohérence globale.
Mission freelance
Tech Lead Python
Votre mission, en tant que Tech Lead, sera : D’assurer la performance et l’évolutivité des solutions ML Solutions. D’encadrer techniquement une équipe en forte croissance. De veiller à l’alignement des solutions avec les standards technologiques et stratégiques du groupe. L'équipe, actuellement composée de 5 collaborateurs, prévoit une montée en charge rapide, avec des recrutements en cours pour soutenir les objectifs ambitieux du projet. Fédérer et guider l’équipe technique : Créer un environnement collaboratif et motivant, tout en assurant le respect des meilleures pratiques de développement (DevOps, CI/CD, tests automatisés, monitoring). Piloter la roadmap produit : Collaborer avec les Product Owners pour prioriser les fonctionnalités et garantir leur alignement avec la stratégie technologique. Prendre des décisions clés : Assumer les choix architecturaux et techniques, notamment sur les aspects liés à la sécurité, la scalabilité et l'optimisation des performances. Superviser la production : Assurer la stabilité, la fiabilité et la performance des systèmes en production. Interopérabilité : Travailler en synergie avec les autres Tech Leads et les équipes transverses pour garantir la cohérence des solutions au sein de la plateforme. Standardisation : Instaurer des pratiques modernes (Infrastructure as Code, observabilité) pour une gestion optimisée des pipelines MLOps. Support et relation utilisateurs : Être un point de contact clé pour les utilisateurs finaux, comprendre leurs besoins et garantir leur satisfaction. Amélioration continue : Participer activement aux revues de code (MOB programming, pair reviews) pour maintenir un haut niveau de qualité. Conformité aux standards : Intégrer les guidelines du framework technologique global et veiller à leur application.
Mission freelance
EXPERT GCP ENGINEER
Titre du poste : Expert GCP Engineer Durée du contrat : 12 mois (avec possibilité de prolongation) Lieu : Télétravail complet (bureaux à Londres et Paris) Présentation : Nous recherchons un Expert GCP Engineer pour rejoindre une initiative de transformation cloud menée par une grande banque. Ce rôle est essentiel pour concevoir, implémenter et optimiser des solutions basées sur GCP, répondant aux exigences strictes du secteur bancaire en matière d'évolutivité, de sécurité et de performance. Responsabilités principales : Concevoir et implémenter une infrastructure GCP pour soutenir des applications bancaires critiques, tout en respectant les meilleures pratiques de l'industrie et les normes de conformité (ex. : RGPD, DORA). Développer et gérer des infrastructures en tant que code ( IaC ) avec Terraform , garantissant des déploiements cohérents et reproductibles. Optimiser les configurations réseau sur GCP, notamment la conception de VPC , la connectivité hybride ( Cloud VPN , Interconnect ) et les politiques IAM. Assurer une haute disponibilité et une tolérance aux pannes des services bancaires en utilisant des outils GCP tels que Cloud Load Balancer , Cloud Monitoring et Cloud Operations Suite . Collaborer avec les équipes de sécurité pour mettre en œuvre des mesures de sécurité avancées , incluant le chiffrement, les configurations de pare-feu et la gestion des accès. Automatiser les pipelines CI/CD avec Cloud Build ou Jenkins , pour déployer efficacement des applications basées sur des microservices. Surveiller et résoudre les problèmes des services GCP ( BigQuery , Cloud Functions , Pub/Sub ) afin de garantir les performances attendues. Fournir une documentation détaillée et transférer les connaissances aux équipes internes pour renforcer leur maîtrise des bonnes pratiques sur GCP. Compétences clés : Expertise approfondie de Google Cloud Platform (GCP) avec une expérience pratique sur Compute Engine , Kubernetes Engine (GKE) et BigQuery . Maîtrise de Terraform et Git pour l’automatisation de l’infrastructure. Expérience confirmée en réseaux GCP , incluant Cloud NAT , Cloud Armor et IAM . Compétences avancées en scripting ( Python ou Bash ) pour l’automatisation et la création d’outils personnalisés. Solide compréhension des technologies de containerisation telles que Docker et orchestration avec Kubernetes. Connaissance des cadres de conformité bancaire (ex. : PCI DSS , RGPD ). Exigences : Expérience avérée dans la livraison de solutions GCP au sein d'environnements à grande échelle et fortement réglementés. Excellentes compétences analytiques et de résolution de problèmes avec une attitude proactive. Capacité à travailler de manière autonome et à produire des résultats en télétravail. Atouts : Expérience des architectures multi-cloud (ex. : Azure, AWS). Certifications telles que Google Professional Cloud Architect ou Google Professional Data Engineer .
Mission freelance
Ingénieur Python - GCP
Dans un contexte d'accompagnement juridique des entreprises, nous construisons un Chatbot basé sur de l'IA générative. Dans ce cadre, je recherche pour l’un de mes clients, un freelance expérimenté en Python disponible à très court terme pour une mission avec les objectifs suivants : Réaliser de l'intégration de données dans notre solution IA. Co-construction du backend du chatbot IA situé entre l'IHM conversationnelle, et notre solution RAG-as-a-service. Développement de pipelines d'intégration de données publiques. Co - création de dashboard de monitoring de la solution. Amélioration continue de l'outil : CI/CD sur Github Actions.
Mission freelance
ARCHITECTE GENERALISTE MOVE TO CLOUD AZURE ET GCP
Au sein d'une équipe Architecture d'une Direction des Infrastructures et de la Production de l'un de nos clients, nous recherchons un(e) architecte technique généraliste qui contribuera aux activités suivantes : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation (DAT) - Accompagnement de la stratégie Move2Cloud - Accompagnement des équipes d'exploitation et de développement Environnement général : - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess
Mission freelance
Etude Data IA
Objectif Cette étude vise à : Identifier les solutions de gestion de données les plus appropriées qu’elles soient on premise ou sur le cloud souverain, en prenant en compte notre volonté de développer à la fois des cas d’usage data et IA, pour des données sensibles qui ne peuvent pas bénéficier de notre plateforme data existante (Azure) Rationaliser, dans la mesure du possible, les plateformes data existantes Définir le périmètre fonctionnel optimal de chacune de nos briques applicatives Nos capacités de traitement "data" sont actuellement réparties sur deux plateformes. Une plateforme unique pourrait-elle améliorer la performance/les délais de réalisations des projets ? Qu'elles seraient les gains associés à une solution unifiées de gestion de la donnée ? Est-ce que les opérateurs de cloud souverains proposent des solutions suffisamment matures pour hébergés de manière efficace une plateforme data/IA (GPU, scalabilité …) ?
Mission freelance
Data Engineer
Contexte international, migration, formation Les livrables sont: Développements et enrichissement de data lake Migration et refonte d'expositions de données Formation et passation aux équipes run IT Compétences techniques GCP (dev+admin) - Confirmé - Impératif SQL - Confirmé - Impératif IAC (terraform) - Confirmé - Important Architecture data mesh - Junior - Souhaitable Connaissances linguistiques Français Courant (Impératif) anglais Professionnel (Impératif) Télétravail: 2 jours par semaine - 3 jours sur site
Offre d'emploi
Data Engineer Migration SAS / PySpark – Spécialiste Azure H/F
Dans le cadre d’une transformation technologique majeure, nous recherchons un Consultant Data Engineer spécialisé en PySpark et Power BI, avec une solide expérience en décommissionnement de SAS, pour accompagner notre client dans une mission stratégique. Votre rôle principal sera de migrer les processus existants de SAS vers PySpark sur une infrastructure Azure , tout en assurant une documentation claire et exhaustive pour une reprise par une équipe novice. Power BI sera utilisé pour la visualisation des données . Migration des programmes SAS : Réécriture et optimisation en PySpark sur Azure. Documentation et qualité du code : Rédaction détaillée des étapes et respect des standards de codage. Formation des équipes : Accompagnement d’une équipe novice en PySpark pour une prise en main autonome. Mise en œuvre de dashboards Power BI : Création de tableaux de bord interactifs et adaptés aux besoins métiers. Gestion des délais : Respect de l’échéance stratégique pour le décommissionnement de SAS d’ici fin 2024.
Mission freelance
Architecte Cloud Data h/f à Lille
Expertise permettant de couvrir les besoins en expertises d’Ingénierie Cloud sur les sujets et produits liés aux données : administration bases de données, expertise data, architecture cloud data, etc. Automatisation et réalisation de modules Terraform pour le provisionnement Expertise et accompagnement projet (DSM ou DSI) sur un périmètre de PaaS comme : poc, architecture, aide à l’utilisation, paramétrage spécifique, optimisation, etc. Proposer une vision bout-en-bout et end-user sur un périmètre PaaS Définir et mettre en œuvre des meilleures pratiques associées à l’optimisation de la consommation des services PaaS – FinOps et GreenIT. Assurer une veille technologique constante : étude d’opportunité, analyse des nouveaux modèles d'utilisation pour faire évoluer les services existants, proposer de nouveaux produits et fonctionnalités. Assurer le BUILD et le RUN d’un périmètre PaaS.
Mission freelance
Profil DevOps GCP Kubernetes
Bonjour je recherche un profil DevOps GCP Kubernetes pour un de mes clients Retail, Responsable de la conception, du déploiement, et de la gestion des infrastructures cloud, principalement sur GCP et des solutions basées sur Kubernetes. Ce rôle implique non seulement la maîtrise des technologies d'infrastructure et d'automatisation, mais aussi un accompagnement des équipes de développement sur les bonnes pratiques CI/CD. Implémentation de solutions sécurisées et performantes, tout en garantissant la disponibilité des systèmes critiques en production Analyse des dysfonctionnements/améliorations techniques et fonctionnelles Elaboration des procédures d’intégration, de tests et de rollback Création des pipelines CI/CD pour intégration et déploiement des modules Mise en place du processus d’Infrastructure As Code Développement des modules Terraform de déploiement des clusters basé sur AWS EKS. Mise en place de Private EC2, VPS, AWS CloudFormation, Terraform, Ansible Automatisation des opérations de migration de données (Python) Mettre en place la stack technique ELK sur des EC2. Création des Dashboards de monitorings des données en temps réelle d'une base PostgreSQL. - Certifications GCP & Kubernetes obligatoire - Linux / Postgre - Dynatrace Prometheus / Grafana /CICD - Terrafome / Ansible / Archi microservice - Finops
Offre d'emploi
Ingénieur Cybersécurité Cloud GCP H/F
Rejoignez l’équipe de Maguen Cyber Maguen Cyber est né de la volonté d’un accompagnement innovant et adapté en cybersécurité en fonction des besoins de nos clients. Maguen Cyber se positionne en tant que pure-Player cybersécurité avec une couverture internationale et nous avons l’ambition de s’imposer comme une référence du secteur, avec vous à nos côtés. Nous recherchons un(e) Ingénieur Cybersécurité Cloud GCP pour une opportunité de mission de longue durée à pourvoir chez l’un de nos clients situés en IDF. Contexte de la mission : Dans le cadre de la transition vers le cloud opérée en 2018 chez notre client et de leurs utilisations croissantes de Google Cloud Platform (GCP). Détail de la mission : · Évaluer l'architecture de sécurité actuelle sur GCP et particulièrement sur les architectures projet de type data · Qualifier et étudier les évolutions de services GCP de type Private Service Connect et être en mesure de proposer des solutions si des problèmes sécurité sont remontées · Identifier les vulnérabilités et les risques à l’utilisation des services GCP (Vertex AI, Worflow, Dataflow, Apigee, GKE, Composer, …) et proposer des recommandations sécurité · Mettre en place des contrôles de sécurité dans les outils de type CSPM · Accompagner l'équipe interne projets et transverses dans la mise en œuvre des recommandations. · Mise en application de la Politique de Sécurité. · Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 · Valide et instruit les dérogations contrevenant à la Politique de Sécurité. · Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) · Participation aux audits (internes / externes) · Mise en applications des recommandations d'audit et des demandes de remise en conformité · Rédaction de guides et standards de sécurité · Donne son avis pour l'implémentation des solutions de sécurité · Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation · Assure la veille technologique
Offre d'emploi
Senior Data Engineer Azure / Lead
En tant que Senior Data Engineer Azure, vous jouerez un rôle clé dans la conception, l'implémentation et l'optimisation des solutions de données cloud. Vous travaillerez en étroite collaboration avec les équipes de développement, les data scientists et les analystes pour construire et maintenir une architecture de données robuste et scalable. Concevoir et développer des pipelines de données sur la plateforme Azure en utilisant des technologies telles qu’Azure Data Factory, Databricks, Synapse, etc. Garantir la qualité, la sécurité et la gouvernance des données. Optimiser les performances des bases de données et des entrepôts de données. Collaborer avec les équipes métiers pour comprendre les besoins en données et concevoir des solutions adaptées. Assurer la maintenance, la supervision et le monitoring des pipelines et des flux de données. Réaliser des audits techniques et des revues de code pour garantir les bonnes pratiques en matière de développement de données. Assurer une veille technologique et recommander des évolutions architecturales et technologiques.
Mission freelance
Devops GCP
Von futur rôle : Tu instilleras la culture DevOps au sein des Features Teams. Tu veilleras et garantiras l’exploitabilité et la fiabilité des applications. Tu garantiras le haut niveau de qualité de construction et de mise en production des applications Tu piloteras la fourniture des environnements de développement, d’intégration et de tests en accord avec la politique technique client. Tu automatiseras, fiabiliseras et optimiseras les déploiements (chaîne CI/CD avec évolution vers le Déploiement en production). Tu piloteras la fourniture des environnements Cloud, de leur bonne utilisation (coûts, optimisation). Tu garantiras la prise en compte de la sécurité au plus tôt des phases de conception dans une approche Secured by Design, DevSecOps. Tu codes et binômes avec les équipes de développement.
Mission freelance
Technical manager
🚀 Technical manager 🚀 Mon client recherche un Technical Manager (niveau confirmé, 4-6 ans d'expérience) pour intégrer la team de production Delta sur des projets stratégiques et transverses. 📍 Lieu : Île-de-France 💻 Télétravail : 3 jours/semaine 📅 Durée : Jusqu’au 05/11/2027 ✈️ Déplacements : Oui 🔍 Les principales responsabilités : Suivi des versions : Coordination des livrables, tests techniques, monitoring et reporting pour garantir des mises en production fluides. Pilotage transverse : Gestion de projets stratégiques, analyse des risques, documentation et reporting régulier. Accompagnement des équipes : Sensibilisation au RUN, facilitation des priorisations et amélioration continue de la qualité de service. 💻 Stack technique : Gestion des environnements (paramétrage, versions). Supervision des outils de monitoring et d’alerting. Coordination avec des outils et process comme Padmé, IAM, SIEM , et des environnements intégrant GCP, Docker, Vault, Grafana . 🎯 Compétences recherchées : Gestion de projets informatiques. Capacité d’analyse, de synthèse et excellent relationnel. Force de proposition et communication fluide. 💼 Un rôle clé dans des projets stratégiques d’envergure, au sein d’une équipe dynamique et innovante !
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Besoin de conseils pour rebondir professionnellement 2025 ?
- Peut-on créer une société au nom de son conjoint pour facturer ses prestations en étant sous ARE ?
- Calcul de crédit impôt - cas pratique
- situation compliquée fin de mission pression client comment gèrer ?
- Calcul frais télétravail en étant propriétaire
- Vehicules de société