Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Ingénieur sécurité et réseaux CLOUD / GCP
Nous recherchons pour notre client final (grand compte) deux Ingénieurs Sécurité Cloud pour le maintien en condition des équipements de sécurité : Mise en place des infrastructures réseau et sécurité au sein des clouds GCP et Azure. Mise en place des solutions d'interconnexion. Support de niveau 3 sur tout incident opérationnel concernant les équipements de sécurité dans l'environnement cloud et les datacenters associés. Identification et mise en place des correctifs, ainsi que l'évolution de l'ingénierie si nécessaire. Rédaction de procédures et de documents techniques à suivre par les équipes de niveaux 1 et 2. Accompagnement des projets pour la mise en place de l'environnement réseau associé (flux, routage, etc.). Participation aux projets de modernisation des différents services réseaux (firewalls, DNS, routeurs, etc.). Suivi des actions de remédiation pour corriger les vulnérabilités de sécurité et mise en conformité des équipements, réseaux et systèmes de sécurité concernés.
Mission freelance
Data ingénieur - Python - GCP
Assurer la performance et l’évolutivité des solutions Data & ML : Concevoir et optimiser des pipelines de données robustes et évolutifs (ETL/ELT). Garantir la qualité des données et leur disponibilité pour les modèles de Machine Learning et les équipes métier. Implémenter des solutions scalables pour le traitement de grands volumes de données. Encadrer techniquement une équipe en forte croissance : Accompagner une équipe de Data Engineers et Data Scientists, en participant activement à leur montée en compétences. Fédérer et guider l’équipe dans un environnement collaboratif et motivant. Assurer l’adoption des meilleures pratiques de développement (DevOps, CI/CD, tests automatisés, monitoring). Aligner les solutions Data avec les standards technologiques du groupe : Veiller à la cohérence des solutions avec les stratégies globales de l’entreprise. Introduire des standards modernes comme l’Infrastructure as Code, l’observabilité et le monitoring avancé. Roadmap produit et décisionnel : Collaborer avec les Product Owners pour prioriser les fonctionnalités liées à la gestion et au traitement des données. Assurer les choix architecturaux et techniques clés pour garantir la sécurité, la scalabilité et les performances des systèmes. Interopérabilité et standardisation : Travailler avec les autres Tech Leads et équipes transverses pour une intégration fluide des solutions au sein de l’écosystème global. Standardiser les pratiques liées aux pipelines de données et au MLOps. Supervision de la production et amélioration continue : Assurer la stabilité et la fiabilité des systèmes de données en production. Participer activement aux revues de code (MOB programming, pair reviews) pour maintenir un haut niveau de qualité technique. Être force de proposition pour des initiatives d’amélioration continue. Support et relation utilisateurs : Être le point de contact clé pour les utilisateurs finaux, comprendre leurs besoins et garantir leur satisfaction. Former les parties prenantes à l’utilisation des solutions déployées. L'équipe, actuellement composée de 5 collaborateurs, est en forte expansion avec des recrutements en cours pour répondre aux objectifs ambitieux du projet. Vous évoluerez dans un cadre mêlant innovation, technologies avancées et défis stratégiques, avec une véritable autonomie pour construire des solutions Data & ML d’envergure. Expertise confirmée en ingénierie des données (5+ ans) avec une solide maîtrise des technologies Cloud (AWS, GCP ou Azure). Compétences avancées en Python, Spark, Kafka, SQL ou outils de traitement des données distribuées. Expérience en MLOps et dans la mise en œuvre de pipelines automatisés. Leadership technique et capacité à encadrer une équipe technique. Forte capacité à communiquer, à collaborer et à prendre des décisions stratégiques.
Mission freelance
Ingenieur de Production Devops - GCP (H/F)
Au sein de la Production Applicative Décisionnelle de notre client, vous jouerez un rôle central dans la gestion, l'intégration et l'exploitation de solutions techniques infogérées. Vous contribuerez aux missions stratégiques de notre pôle DATA et garantirez le bon fonctionnement de nos plateformes en conditions opérationnelles. Vos principales missions : - Gestion de projet : Conduite de projets (gestion des ressources, reporting, COPILs) en lien avec les équipes et les unités métiers. - Intégration technique : Prise en charge de l'intégration de nouvelles solutions, et optimisation des solutions existantes. - Exploitation & Sécurité : Supervision des plateformes techniques, garantie de leur disponibilité et conformité aux normes de sécurité et d'audit. - Gestion des incidents critiques : Prise en charge des incidents majeurs (analyse, diagnostic, résolution), coordination avec les experts et support éditeurs. - Coordination multi-intervenants : Interface entre les experts techniques et les éditeurs, assurant le suivi des actions nécessaires. - Documentation technique : Rédaction des manuels d'exploitation et des procédures de sauvegarde et supervision. Conditions et environnement de travail : - Horaires décalés (HPO) et astreintes hebdomadaires ou week-end possibles. - Un bon niveau d'anglais (oral et écrit) est impératif pour les échanges avec les équipes et partenaires internationaux. Vous êtes expert en Google Cloud Platform, confirmé en Scripting Shell et gestion de projets ? Vous souhaitez intégrer un environnement dynamique et collaboratif ? Rejoignez-nous et contribuez activement à l'innovation et à la performance de notre Pôle DATA ! Compétences techniques recherchées : - Scripting SHELL : Confirmé - Impératif - Google Cloud Platform (GCP) : Expert - Impératif - Gestion de projet : Confirmé - Important - Big Query : Junior - Important - Systèmes : Linux - Ordonnanceurs : VTOM, CTL-M - Technologies : Apache, CFT, Git, Jenkins, XLD, XLR - Réseaux : TCP/IP, RP, FW Connaissances supplémentaires appréciées : - Bases de données (Oracle, Teradata, SQL) - Solutions BI : BO, Cognos - Compétences en DevOps et Cloud
Mission freelance
Expert DevOps Cloud (GKE/OpenShift) - Projet Innovant dans le Secteur Retail - Chatillon (H/F)
Notre entreprise est à la recherche d'un talentueux Expert DevOps Cloud pour accompagner notre pôle DevOps dans une mission clé. Engagés dans une culture DevOps, Cloud, CICD et automatisation forte, nous visons à optimiser nos processus de déploiement et d'intégration continue. L'équipe, composée de professionnels passionnés, gère une variété de projets innovants visant l’excellence opérationnelle et la satisfaction client. La création de ce poste répond au besoin d'intégrer des solutions logicielles et matérielles de haute qualité dans notre environnement de production cloud et de renforcer nos capacités d'automatisation et de déploiement continu. ▶️ Missions Principales: Intégrer des solutions dans l'environnement de production Cloud (GCP/OpenShift) et en assurer le déploiement via CICD. Gérer le support nécessaire des applications lors des incidents en production. Intervenir dans la mise en exploitation de nouvelles applications ou la livraison de nouvelles versions. 🛠️ Stack technique À maîtriser: GKE/GCP - Confirmé Ansible (Tower) - Confirmé GitLabCI - Confirmé Helm - Confirmé Environnement technique global: Cloud Providers (GKE/OpenShift) CI/CD Pipelines Automatisation et conteneurisation
Offre d'emploi
DevOps GCP
Intègre la solution logicielle ou matérielle livrée par les services Etudes dans l’environnement de production Cloud (GCP/OpenShift). Intègre l’application et en assure le déploiement via CICD Gère le support nécessaire de l’application lors des incidents en production Intervient dans la mise en exploitation d’une nouvelle application ou la livraison d’une nouvelle version de cette application Est un spécialiste des technologies du cloud et des services proposés par les grands cloud providers Maîtrise généralement les concepts de conteneurisation, d’automatisation et de CI/CD* qui lui permettent d’accompagner les développeurs et de mettre en place une démarche DevOps dans l’entreprise
Offre d'emploi
Architecte GCP
Vous rejoignez l’équipe Cloud Public, au sein de laquelle vous intégrerez la Squad GCP. Vous aurez en charge le Build et le Run de la Landing Zone. Le périmètre de cette Squad s’étend de la conception technique du produit, de sa sécurisation, de sa mise en œuvre opérationnelle, de son maintien en condition opérationnelle en production et sa mise en œuvre financière. Vous évoluerez dans un environnement technique riche, distribué, sécurisé et hautement disponible. L’équipe est organisée en Agile. A ce titre, vos missions principales seront : Participation aux différents rituels Agile Maintien en condition opérationnelle de la Landing Zone et optimisations Documentation d’architecture et des procédures de run Traitement du backlog Jira et des User Stories identifiés par le PO et le PM Communication avec les différentes Entités du groupe Dans le cadre de la prestation, les livrables attendus sont : Documentations techniques de la plateforme et des projets hébergés dessus Plan de situation de chaque projet sur la landing zone GCP et plans d’actions associés
Mission freelance
Data Engineer SSIS, SSAS, SSRS Talend, GCP
Dans le cadre du renforcement de la Data Factory, nous recherchons un Data Engineer Confirmé pour rejoindre l'un de nos clients. En tant que Data Engineer, vous serez responsable de la conception, du déploiement et de l'optimisation des pipelines de données, en garantissant la qualité et la résilience des traitements. Vous interviendrez principalement sur les technologies Microsoft (SSIS, SSAS, SSRS), tout en étant amené à travailler avec des outils complémentaires tels que Talend , Open Text et des solutions Cloud sur Google Cloud Platform (GCP) . Conception et développement de pipelines ETL : Concevoir, développer et maintenir des workflows ETL robustes et optimisés avec SSIS , en tirant parti des fonctionnalités avancées telles que la gestion des packages, l'optimisation des performances, et l'orchestration des traitements complexes. Vous assurerez l'intégration fluide des différentes sources de données et la scalabilité des processus ETL. Gestion de cubes OLAP avec SSAS : Exploiter SSAS pour développer et gérer des cubes OLAP afin de faciliter les analyses multidimensionnelles. Reporting avec SSRS : Utiliser SSRS pour créer, maintenir et faire évoluer des rapports interactifs et automatisés, en fonction des besoins des utilisateurs métiers. Analyse des besoins métiers : Analyser les besoins des utilisateurs métiers et proposer des solutions techniques adaptées. Optimisation des performances : Identifier les goulots d’étranglement dans les pipelines de données et mettre en place des solutions pour optimiser les performances. Gestion des données : Intégrer, transformer et charger des données en garantissant leur qualité et leur cohérence. Mise en place de pipelines hybrides : Mettre en œuvre et optimiser des pipelines de données dans des environnements hybrides (on-premise et cloud). Résilience et monitoring : Assurer la résilience des traitements de données et mettre en place un monitoring efficace. Collaboration : Travailler en étroite collaboration avec les équipes Data Analyst , Data Scientists , et autres Data Engineer pour répondre aux besoins métiers. Documentation et recette : Rédiger la documentation technique des pipelines et des traitements, et participer aux phases de recette pour garantir la conformité des livrables.
Offre d'emploi
Consultant GCP
Le consultant GCP aura en charge de : Concevoir des architectures Cloud GCP sécurisées et évolutives pour répondre aux besoins des clients. Implémenter et déployer des solutions Cloud GCP Conseiller les clients sur les meilleures pratiques en matière de Cloud GCP et les aider à optimiser leurs investissements. Gérer et maintenir les infrastructures Cloud GCP, en assurant la disponibilité, la sécurité et les performances. Collaborer avec les équipes de développement et d'exploitation pour intégrer les solutions Cloud GCP dans les workflows existants.
Offre d'emploi
Data Engineer
Contexte : Nous recherchons un Data Engineer Confirmé EN PRE EMBAUCHE pour renforcer notre Data Factory. Vous aurez la charge de concevoir, déployer et optimiser des pipelines de données tout en garantissant la qualité et la résilience des traitements. Vous interviendrez principalement sur les technologies microsoft SSIS, SSAS, SSRS avec une ouverture recommandée sur Talend, OpenText et les solutions cloud de Google Cloud Platform (GCP). Description: • Concevoir, développer et maintenir des workflows ETL robustes et optimisés avec SSIS, en exploitant pleinement les fonctionnalités avancées telles que la gestion des packages, l’optimisation des performances, l’orchestration des traitements complexes et l’intégration de différentes sources de données. Collaborer avec les équipes pour assurer une mise en œuvre fluide et scalable des processus ETL. • Exploiter SSAS pour le développement et la gestion de cubes OLAP afin d'optimiser les analyses multidimensionnelles. • Utiliser SSRS pour maintenir et faire évoluer des rapports interactifs et automatisés répondant aux besoins des utilisateurs métiers. • Analyser les besoins métiers pour traduire leurs attentes en solutions techniques adaptées. • Réaliser des analyses approfondies des données pour garantir leur pertinence et répondre efficacement aux besoins identifiés. • Identifier et résoudre les goulots d’étranglement affectant les performances des pipelines de données. • Intégrer, transformer et charger les données depuis différentes sources en assurant leur qualité et leur cohérence. • Mettre en place et optimiser des pipelines de données sur des environnements hybrides (on-premise et cloud). • Assurer la résilience et le monitoring des traitements de données. • Collaborer avec les équipes Data Analysts, Data Scientists et autres Data Engineers pour répondre aux besoins des métiers. • Rédiger la documentation technique associée aux pipelines et aux traitements. • Participer aux phases de recette et garantir la conformité des livrables.
Mission freelance
Data Engineer / Pré Embauche / SSIS SSAS / Talend
Nous recherchons un Data Engineer Confirmé EN PRE EMBAUCHE pour renforcer une Data Factory. Description o Concevoir, développer et maintenir des workflows ETL robustes et optimisés avec SSIS, en exploitant pleinement les fonctionnalités avancées telles que la gestion des packages, l'optimisation des performances, l'orchestration des traitements complexes et l'intégration de différentes sources de données. Collaborer avec les équipes pour assurer une mise en œuvre fluide et scalable des processus ETL. o Exploiter SSAS pour le développement et la gestion de cubes OLAP afin d'optimiser les analyses multidimensionnelles. o Utiliser SSRS pour maintenir et faire évoluer des rapports interactifs et automatisés répondant aux besoins des utilisateurs métiers. o Analyser les besoins métiers pour traduire leurs attentes en solutions techniques adaptées. o Réaliser des analyses approfondies des données pour garantir leur pertinence et répondre efficacement aux besoins identifiés. o Identifier et résoudre les goulots d'étranglement affectant les performances des pipelines de données. o Intégrer, transformer et charger les données depuis différentes sources en assurant leur qualité et leur cohérence. o Mettre en place et optimiser des pipelines de données sur des environnements hybrides (on-premise et cloud). o Assurer la résilience et le monitoring des traitements de données. o Collaborer avec les équipes Data Analysts, Data Scientists et autres Data Engineers pour répondre aux besoins des métiers. o Rédiger la documentation technique associée aux pipelines et aux traitements. o Participer aux phases de recette et garantir la conformité des livrables. Livrables : o Développement o Cahier de recette o Dossier de recette / Mise en production o Spécifications o Document d'exploitation
Mission freelance
Data Engineer H/F
• Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter de ton activité à ta Squad et travailler dans une démarche d’efficacité collective Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies.
Mission freelance
Data Engineer H/F
• Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter de ton activité à ta Squad et travailler dans une démarche d’efficacité collective Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies.
Mission freelance
Data Engineer (GCP, DBT, SQL,Spark, Scala)
Cherry Pick est à la recherche d'un Data Engineer pour l'un de ses clients dans le secteur du luxe. Missions: Concevoir et développer des pipelines de données performants pour répondre aux besoins spécifiques du secteur du luxe. Traiter et transformer des données massives en utilisant Spark et Scala. Implémenter et maintenir des modèles de transformation avec DBT et SQL. Collaborer avec les équipes métiers pour comprendre et traduire leurs besoins en solutions techniques. Optimiser les processus de gestion des données sur GCP (BigQuery, Cloud Storage, Dataflow, etc.). Garantir la qualité et la fiabilité des données tout au long du cycle de vie.
Mission freelance
Tech Lead Data Analytics GCP
Nous recherchons pour l'un de nos clients un Tech Lead Data Analytics – Expertise GCP Responsabilités principales : Pilotage technique et expertise : Assurer la qualité des données et la mise en œuvre des principes de data gouvernance . Support aux projets liés à la viabilisation des assets et à la gestion des accès. Identifier et résoudre de manière proactive les incidents liés aux données. Conception et implémentation : Apporter une expertise approfondie sur les environnements GCP, notamment en matière de gestion de la donnée et des pipelines. Collaboration et coordination : Collaborer avec les équipes métiers pour garantir que leurs besoins en données soient couverts efficacement. Reporting et amélioration continue : Intégrer des outils de reporting, avec une forte appétence pour Power BI . Proposer des initiatives pour améliorer les processus de qualité et gouvernance des données. Nous recherchons quelqu'un qui a absolument une expertise sur la Data Quality & Gouvernance Objectif global : Détecter proactivement les incidents de données avant qu’ils ne soient signalés par les utilisateurs. La data plateforme solide doit garantir une utilisation simplifiée et sécurisée des données. Focus sur la gouvernance : Classification des données et gestion fine des accès selon les typologies d’utilisateurs. Mise en place d’une hiérarchisation et d’une gradation dans les accès pour assurer une utilisation conforme et sécurisée des assets de données.
Mission freelance
Data Analyst
La mission consiste à : Accompagner les équipes Répondre aux problématiques métiers Réaliser des analyses statistiques préparatoires Réaliser des dashboards clairs, ergonomiques et optimisés Savoir restituer de façon synthétique des résultats concrets Compétences attendues : Expériences significatives comme Data Analyst / Data Engineer Power BI / SQL Esprit analytique Savoir-être : rigoureux, organisé et autonome à l'aise dans la communication auprès d'équipes techniques ou métiers Mission basée sur la métropole lilloise avec télétravail partiel
Offre d'emploi
Ingénieur.e DevOps
En tant qu’ingénieur.e DevOps, vous serez chargé.e d’assurer l’intégration, le déploiement et le support des applications dans l’environnement de production Cloud (GCP / Openshift) via des pipelines CI/CD. Votre rôle Analyse des besoins et veille technologique · Recueillir les informations et analyser les besoins en équipements matériels et logiciels · Préconiser et conseiller sur les choix de solutions informatiques en collaboration avec les architectes, les experts métiers et techniques tout en respectant les standards définis par l’entreprise · Rédiger les cahiers des charges et les appels d’offres puis analyser les propositions des fournisseurs en termes de performance, fiabilité et compatibilité · Réaliser une veille technologique pour optimiser les ressources systèmes de l’entreprise Mise en place et intégration · Concevoir ou paramétrer les logiciels sélectionnés en fonction des besoins identifiés · Configurer et dimensionner les solutions matérielles selon les performances requises · Tester les systèmes mis en place et veiller à la compatibilité des éléments entre eux · Contribuer à la validation technique lors des mises en production · Veiller à la sécurité et la fiabilité des systèmes de l’entreprise Exploitation · Valider l’installation et l’intégration des nouveaux outils (systèmes, réseaux et télécoms) · Diagnostiquer et résoudre les incidents ou anomalies tout en assurant leur suivi · Participer aux actions correctives de maintenance en veillant à leur qualité · Proposer des améliorations pour optimiser l’utilisation et l’organisation des ressources existantes · Rédiger et mettre à jour la documentation des procédures et consignes d’exploitation · Assurer le transfert de compétences et l’assistance technique aux équipes d’exploitation ainsi que leur formation si nécessaire Sécurité · Respecter et suivre les règles de sécurité définies par l’entreprise · Appliquer les plans de sauvegarde et de secours définis · Assurer la sécurité physique des données en termes de sauvegarde et d’archivage
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Pret bancaire en portage salarial
- 3 mois intercontrats, 6 entretiens client final 6 echecs
- Facturation client hors zone euro
- Numéro de TVA en EI micro
- Quel dispositif de mutuelle recommandez-vous pour un président non salarié de SASU à l’IS
- ESN en retard de paiement depuis 9 mois - Conseils pour relance