Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Consultant cybersécurité (H/F)
Gestion des processus de sécurité : Maintenir les procédures, la documentation et les KPIs liés à la sécurité opérationnelle. Opérations de sécurité : Gérer les outils (WAF, SIEM, CDN, Datadog), exécuter les tâches récurrentes, surveiller et analyser les activités suspectes. Réponse aux incidents : Identifier les menaces, analyser les alertes, coordonner les réponses, appliquer les correctifs et gérer les vulnérabilités. Intégration de la sécurité : Collaborer avec les équipes projets pour intégrer des pratiques sécurisées dans les applications et infrastructures. Audits et conformité : Participer aux audits annuels, évaluer les risques, gérer les accès privilégiés, et remédier aux vulnérabilités identifiées.
Offre d'emploi
Expert APIGEE AND GCP
Dans un contexte de transformation digitale et d’adoption des technologies Cloud, nous cherchons à renforcer nos équipes avec un Expert Apigee & GCP , qui jouera un rôle clé dans la gestion et l’évolution de nos solutions API et Cloud. Concevoir, implémenter et maintenir des solutions de gestion d’API sur la plateforme Apigee. Garantir la performance, la sécurité et l’évolutivité des passerelles API. Participer à la conception des politiques API (authentification, contrôle de trafic, monitoring, etc.). Assurer une veille technologique sur Apigee et proposer des améliorations adaptées aux besoins du groupe. Concevoir et déployer des solutions sur Google Cloud Platform, en garantissant la conformité avec les standards de sécurité et de performance. Collaborer avec les équipes DevOps pour automatiser et optimiser les processus de déploiement et de gestion des ressources Cloud. Assurer la gestion des coûts et optimiser l’utilisation des ressources GCP. Fournir une expertise technique aux équipes projet et métier. Identifier et résoudre les incidents critiques liés à Apigee et GCP. Former et accompagner les équipes internes sur les meilleures pratiques Apigee et Cloud. Participer aux projets de transformation digitale en intégrant les solutions Cloud et API. Collaborer avec les architectes pour définir des architectures hybrides ou Cloud-native robustes. Garantir la conformité des solutions avec les normes internes et les réglementations en vigueur.
Offre d'emploi
Développeur Data / BI - Asset Management
Nous recherchons un Développeur Data / BI pour rejoindre l'équipe Support Fund Management et contribuer à des projets stratégiques dans le domaine de l'Asset Management. Vous serez impliqué dans les évolutions d'une plateforme BI et la maintenance de traitements Python en lien avec les équipes métiers : gérants, Trading, Middle Office, Risque, Reporting, et Compliance. Participation au cadrage des solutions à implémenter Développement des User Stories (US) Suivi de la recette, mise en production et maintenance Rédaction de documentation Amélioration continue des modèles de développement Veille au respect des standards techniques Très bonne connaissance des outils BI de Microsoft SQL Server 2012/2016 (SSIS, SSRS, SSAS) Expertise sur les bases de données relationnelles et SQL Très bonne maîtrise de la plateforme Azure BI Data Factory Compétences confirmées en Python et librairie Pandas Connaissance en Azure DevOps
Mission freelance
EXPERT DATA BI SSIS SQL SERVER AZURE DEVOPS
Pour l'un de nos client basé à La Defense, nous recherchons un expert Microsoft BI très orienté Data sur l'ETL SSIS et T/SQL pour une mission très orientée optimisation et Run avec cependant quelques projets en parallèle : Consultant MOE BI / Domaine Socle Data / Domaine : Etudes et Intégration / Ingénierie d'Etude / Conception ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau
Mission freelance
Tech Lead Data Analytics GCP
Nous recherchons pour l'un de nos clients un Tech Lead Data Analytics – Expertise GCP Responsabilités principales : Pilotage technique et expertise : Assurer la qualité des données et la mise en œuvre des principes de data gouvernance . Support aux projets liés à la viabilisation des assets et à la gestion des accès. Identifier et résoudre de manière proactive les incidents liés aux données. Conception et implémentation : Apporter une expertise approfondie sur les environnements GCP, notamment en matière de gestion de la donnée et des pipelines. Collaboration et coordination : Collaborer avec les équipes métiers pour garantir que leurs besoins en données soient couverts efficacement. Reporting et amélioration continue : Intégrer des outils de reporting, avec une forte appétence pour Power BI . Proposer des initiatives pour améliorer les processus de qualité et gouvernance des données. Nous recherchons quelqu'un qui a absolument une expertise sur la Data Quality & Gouvernance Objectif global : Détecter proactivement les incidents de données avant qu’ils ne soient signalés par les utilisateurs. La data plateforme solide doit garantir une utilisation simplifiée et sécurisée des données. Focus sur la gouvernance : Classification des données et gestion fine des accès selon les typologies d’utilisateurs. Mise en place d’une hiérarchisation et d’une gradation dans les accès pour assurer une utilisation conforme et sécurisée des assets de données.
Offre d'emploi
Architecte Azure Data
Dans le cadre d’un projet agile, nous recherchons un Architecte Azure expérimenté dans la data pour accompagner notre client dans la conception et la mise en œuvre de solutions cloud sécurisées et conformes aux meilleures pratiques. Ce rôle nécessite une expertise approfondie de l’écosystème Azure, notamment sur les contraintes spécifiques des landing zones. Définir et améliorer les standards et les patterns d'architecture. Rédiger la documentation technique : ARD, HLD, LLD, guides d’exploitation et de bonnes pratiques. Collaborer étroitement avec les équipes agiles et les parties prenantes grâce à un excellent relationnel. Ecosystème Azure Data : Azure Synapse Analytics Azure Data Lake Storage Gen2 (ADLS Gen2) Azure Data Factory Azure SQL Power BI Landing Zone Azure : Expertise avérée dans leur conception et gestion. Services réseaux dans Azure : Configuration et optimisation. Infrastructure as Code : Terraform. Outils DevOps : Azure DevOps. Certification Azure : Un atout significatif.
Offre d'emploi
Ingénieur SECOPS H/F
Groupe SYD: IM Nous recherchons pour l'un de nos clients sur Nantes un Ingénieur SECOPS H/F Consultant secOps, expertise cloud GCP (landing zone) pour réaliser les tâches suivantes Méthode agile Définition des solutions techniques vis à vis des éléments priorisés du backlog produit par le PO Relation de proximité et en binôme avec un membre de l'équipe Travail en trinôme avec le PO de l'équipe DevSecOps et avec les architectes de la plateforme Cloud Rôle de conseil et de formateur auprès des intervenants de l'équipe) - Réalisation de travail HNO de manière cyclique (1 semaine / 6) Compétences attendues : Capacité à expliquer, vulgariser, acculturer et former posture de coach technique pour l'ensemble de l'équipe savoir fédérer Environnement technique Cloud : GCP Terraform GIT Python Jenkins Cloud Armor Security command center Hashicorp Vault Datadome Cloudflare Rejoignez-nous!!
Mission freelance
DevOps GCP/AWS
Bonjour à tous ! 👋 Je suis à la recherche d'un DevOps GCP/AWS en freelance pour un projet à Paris (1er arrondissement) : Le profil recherché : Séniorité : Confirmé / Senior Durée : 1 an, renouvelable Disponibilité : ASAP Rythme : 3 jours de télétravail par semaine 💻 Développement : API d'orchestration, provider Terraform, outils liés (Front web, CMDB), CI/CD, monitoring. 🏆 Collaboration : Accompagnement des équipes, mentoring, amélioration des pratiques de développement, astreinte, déplacements à Lille 🚫 Pas d'ESN, uniquement des freelances ou du portage salarial. Nous restons ouverts à toutes recommandations.
Offre d'emploi
Chef de projet DATA & ETL
Ce que tu recherches : Evoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Pour le compte de l' un de nos clients dans le domaine de l'assurance nous recherchons un CHEF de projet (H/F) pour une mission de longue durée à pourvoir rapidement. Vos missions : Vous pilotez des projets techniques innovants du périmètre Data (déploiement de plateforme data sur GCP, contribuez au déploiement d’une plateforme d’observabilité…) Vous pilotez le maintien en condition opérationnel du socle Data existant (montées de versions, migrations…), contribuez au pilotage de la dette IT, montées de versions, migrations, etc ... Vous pilotez une partie du RUN, suivi de production et la qualité de service pour le domaine applicatif Data, Référentiels et IA. Vous contribuez à renforcer l’écosystème en identifiant de nouvelles opportunités d’industrialisation de la plateforme Environnement technique : Greenplum, Cloudian S3, Google BigQuery et GCS, Couchbase, Semarchy-xDI, Elastic / ELK, Power BI Qui tu es : Diplômé de formation qui va bien Doté(e) d’une 10 ans d’expériences minimum Chef de projet / Product owner expérience en méthodologie agile (Scrum/Kanban) Maitrise également le cloud ( GCP) Au-delà des compétences techniques, tu es / as : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !
Mission freelance
Data Manager
Nous recherchons pour notre client, un Data Manager dans le cadre d'un projet Salesforce, en Freelance ou Portage salarial Mission : Maîtrise de l’architecture et des composants de modélisation Salesforce S’approprier les notions de référentiels de données relatives aux business du groupe Comprendre les dépendances relationnelles entre les différents objets et processus métiers Traduire un besoin fonctionnel en spécification détaillées digitales Expérience sur des projets d’intégration de données, participer aux workshop intégration avec le digital (ERP <> CRM) Notion de gouvernance et compliance Alimenter le département Data Gouvernance avec catalogue de données, data owners, assurer le lien avec les projets Notions de compliance RGPD, data retention Conseiller l’équipe sur la conception technique des modèles de données, grâce à sa compréhension des données et de l’impact sur les activités data (intégration de données, reporting, analyse de données)
Mission freelance
DATA ENGINEER GCP BIGQUERY
Mission : Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons).
Offre d'emploi
Tech lead nodejs terraform gcp
Description du poste Rejoignez une entreprise leader dans le domaine des solutions digitales et contribuez à des projets ambitieux en tant que Tech Lead Node.js . Vous serez au cœur de la conception, du développement et de l’optimisation de plateformes techniques complexes, en collaboration avec des équipes pluridisciplinaires. Vos principales missions : Piloter la mise en place et le développement d’une plateforme Data intégrant divers flux (requêtes, Web Services, fichiers bruts, etc.) pour centraliser et unifier les données dans un référentiel commun. Contribuer à la mise en œuvre d’interfaces Back-office d’administration client en AngularJS. Développer des services d’agrégation pour alimenter des bases CRM complexes. Participer à l’évolution d’un site mobile performant sur des environnements modernes et scalables. Environnement technique Vous évoluerez dans un contexte technologique enrichissant, comprenant : Backend : Node.js, Python. Frontend : AngularJS. Cloud : Google Cloud Platform (Cloud Functions, Pub/Sub, BigQuery). Data : PostgreSQL, MySQL. Infrastructure : Kubernetes, Terraform. Autres frameworks : PHP Symfony 3.
Mission freelance
Data Engineer
Contexte et Mission Dans le cadre d’un projet de transformation digitale, nous recherchons un Data Engineer pour travailler sur une plateforme digitale de Supply Chain. Vous serez en charge de construire et d’optimiser des pipelines de données dans un environnement Cloud (GCP, DBT, Data Mesh). Votre rôle consistera à garantir la qualité des données, à améliorer les flux en termes de performance, de fiabilité et de FinOps, et à assurer leur conformité avec les politiques de gouvernance interne. Une connaissance des enjeux Supply Chain ou une forte curiosité métier sera un véritable atout.
Offre d'emploi
Data Engineer (H/F)
💡 Missions pour le Data Engineer : Développement et maintenance : Créer et maintenir des ETLs et des pipelines de données robustes en utilisant Talend, MS BI, Azure ( DataFactory ), GCP ( BigQuery ) , SQL, Python, Scala... Modélisation des données : Proposer des modèles de données fiables et optimisés en termes de stockage et de traitement. Automatisation : Implémenter des processus de CI/CD pour automatiser le déploiement et la gestion des infrastructures de données. Analyse et reporting : Développer des rapports et des dashboards en utilisant Looker, Power BI, Qlikview, Tableau, pour faciliter l'accès aux insights data-driven.
Offre d'emploi
Développeur Big Data (Java/Scala)
Nous recherchons un(e) Développeur Big Data pour accompagner le développement de l’application Lutte contre la Fraude . Vous interviendrez au sein d’une équipe agile et participerez activement à la conception, au développement, et à l’intégration de solutions innovantes pour répondre aux enjeux de la lutte contre la fraude. Vos missions principales : Participer aux rituels agiles (Scrum/Kanban). Analyser et concevoir le socle projet de référence. Développer de nouvelles fonctionnalités en respectant les bonnes pratiques. Intégrer les applications avec les différentes briques techniques. Contribuer à la mise en place et au respect des règles de développement en collaboration avec l’équipe. Apporter un support technique et assurer le suivi de la recette.
Mission freelance
PMO/Chef de projet MDM-référentiels produits
Dans le cadre du développement de projets data complexes, notre client recherche un PMO Senior Data en freelance, capable de faire le lien entre les besoins métiers et la delivery des projets. Le PMO senior interviendra sur une plateforme de données comprenant des systèmes comme SAP, Salesforce, Informatica, et des référentiels clients, et devra assurer la bonne coordination entre les différentes équipes projet tout en respectant les contraintes métier. En tant que PMO Senior Data , vos responsabilités seront les suivantes : Médiation et Coordination : Servir d'intermédiaire entre les différentes parties prenantes, en particulier les équipes métier et les équipes techniques (data engineering, analytics, etc.). Suivi des projets Data : Assurer la bonne gestion des projets data, de la planification à la livraison, en garantissant le respect des délais, des coûts et des objectifs. Gestion des référentiels : Apporter une expertise sur les référentiels clients et autres données essentielles (MDM - Master Data Management), et superviser la gouvernance des données. Communication avec les parties prenantes : Garantir une communication fluide avec les responsables métiers pour comprendre leurs besoins et les traduire en exigences techniques claires. Pilotage de la delivery : Suivre les indicateurs clés de performance (KPIs) des projets data, en identifiant rapidement les risques et en proposant des solutions pour les résoudre. Mise en place des bonnes pratiques : Mettre en place des processus et des méthodologies adaptées à la gestion de projets data complexes, tout en renforçant la gouvernance des données.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.