Trouvez votre prochaine offre d’emploi ou de mission freelance Nginx à Paris
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Lead Data Engineer Senior
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Mission freelance
Mission longue, Ingénieur performance, Typescript / Loadrunner
Nous recherchons un Ingénieur Performances confirmé capable d'accompagner un de nos grand client dans la préparation, l’exécution des tests de performances, l’identification des problèmes et la recherche de solution. Notre client est un acteur majeur dans son secteur et privilégie les profils ayant des expériences sur des problméatiques transactionnelles à fort trafic (millions de transactions) type E-commerce ou bancaire. Ces tâches nécessitent une expertise forte avec les outils de performance mais également des compétences générales en informatique de type « réseau », « système », « stockage », « base de données », « OS », « middleware », « Java »… permettant de résoudre et de comprendre des cas rencontrés lors des tirs de performance.
Mission freelance
Data Engineer
Nous recherchons pour le compte d'un de nos clients dans le secteur des médias un Ingénieur Data freelance pour une durée de 12 mois sur la base d'un projet. Rôle : Data Ingénieur Lieu de travail : Paris Durée du contrat : 12 mois Travail hybride Date de début : Novembre/Décembre Principales responsabilités : Construire et améliorer les produits de données pour soutenir une culture axée sur les données et des expériences utilisateur personnalisées. Travailler au sein de l'équipe d'ingénierie analytique pour : Collecter des données brutes à partir de systèmes dorsaux, d'interactions avec les utilisateurs et d'autres sources. Transformer les données en ensembles de données et métriques de haute qualité et bien définis. Fournir un accès aux données via des tableaux de bord en libre-service, des API et d'autres plateformes. Collaborer avec des analystes, des développeurs et des parties prenantes au sein de différentes équipes (produit, marketing, ventes, finance, juridique, etc.). Assurer la fiabilité, l'exactitude et l'accessibilité des systèmes de données. Environnement Technique : Principale pile technologique : Google Cloud Platform, BigQuery, Scala, Airflow, Google Dataflow, dbt, Tableau, Mixpanel, Terraform. Si le rôle vous intéresse, veuillez postuler directement!
Mission freelance
Solution Engineer
Technical Delivery Manage and execute the deployment of software applications including its design, data schema modeling, process workflow development and execution in line with Qantev Software Lifecycle operating principles Collaborate with the development and product teams to understand technical feasibility and propose solutions that meet complex client requirements Document technical diagrams and software solution designs in a user friendly and clear format Develop APIs, manage and execute data migration and software configuration activities Support the solution testing period and ensure it adheres to the client requirements from a technical perspective Act as a bridge between business, technical teams and customers, focused on understanding client needs and providing tailored technical solutions Partner with technical project managers to conduct in-depth client discovery calls, identifying pain points and opportunities for process improvement Stakeholder Management Manage client relationships from the C-suite to daily users of the solution while working in collaboration with them Manage differing perspectives and requirements among stakeholders, working towards mutually beneficial solutions Collaboration Work closely with cross-functional teams to ensure stakeholder needs are integrated into project planning and execution Supporting the Sales team with all technical related queries for prospective clients Contribute to the development of technology processes and internal frameworks __________ Livraison technique Gestion des parties prenantes Collaboration
Offre d'emploi
Cybersecurité Engineer
Déploiement et gestion des processus de sécurité (Patching, Vulnérabilités, etc.) Accompagner les équipes BP²I dans le déploiement des processus de sécurité, notamment pour la gestion des patchs de sécurité et la gestion des vulnérabilités sur les systèmes de production. Mettre en place et exécuter des processus de patching réguliers pour garantir la conformité des systèmes IT avec les exigences de sécurité. Superviser et analyser les rapports de vulnérabilité pour identifier les correctifs nécessaires et assurer leur mise en œuvre. Coordination des remédiations Analyser les alertes de sécurité, coordonner les actions de remédiation avec les équipes techniques et suivre l'état de résolution des incidents de sécurité. Gérer le cycle de vie des vulnérabilités, depuis leur détection jusqu'à leur remédiation, en passant par la validation de leur traitement. Assurer un suivi des actions correctives et des mises à jour liées à la sécurité dans un cadre défini. Gestion des demandes de sécurité Traiter et prioriser les demandes de sécurité envoyées à la mailbox de l’équipe (demandes de certifications, d’accès, de modifications de configurations, etc.). Fournir un support technique et répondre aux questions des équipes en matière de sécurité informatique et de conformité. Assurer la documentation des demandes de sécurité, des actions entreprises, et des résolutions dans le respect des procédures internes. Mise en place et exécution des contrôles de sécurité Contribuer à la définition et à l'exécution des contrôles de sécurité pour garantir la sécurité des systèmes, des applications et des infrastructures IT. Effectuer des health checks réguliers sur les environnements techniques pour vérifier leur état de sécurité et leur conformité avec les standards internes et externes. Rédaction et déploiement de processus Rédiger, formaliser et déployer des processus de sécurité clairs, complets et conformes aux bonnes pratiques et aux exigences de sécurité du groupe. Collaborer avec les équipes techniques et les parties prenantes pour assurer la mise en place efficace des processus et leur bonne adoption par les différentes équipes. Veille technologique et amélioration continue Se tenir informé(e) des dernières évolutions en matière de sécurité informatique, de gestion des vulnérabilités et des patchs. Participer à des projets d’amélioration continue des processus de sécurité, notamment en ce qui concerne l'automatisation des tâches de sécurité et l'optimisation des performances des systèmes de contrôle. Reporting et suivi Utiliser des outils de reporting pour produire des rapports réguliers sur l’état de la sécurité des infrastructures et des systèmes. Utiliser des outils de gestion de la sécurité pour documenter les incidents, les vulnérabilités, les patchs appliqués et les remédiations effectuées. Participer à la mise en place de tableaux de bord pour le suivi des actions de sécurité.
Offre d'emploi
Data Engineer (H/F)
Notre client, société en pleine croissance, spécialisé dans le domaine du Big Data, recherche des Consultants Data Engineer expérimentés avec minimum 3 ans d'expérience ! Participez à cette aventure et rejoignez une formidable équipe. Vos missions principales seront diversifiées, comprenant notamment : - Participation aux processus d'avant-vente : Vous contribuerez à l'élaboration des propositions techniques, mettant en avant votre expertise pour répondre aux besoins des clients. - Qualification technique des prestataires : Vous participerez activement à l'évaluation et à la sélection des prestataires, garantissant un partenariat de qualité. - Direction et coordination des projets : Vous dirigerez et coordonnerez la conception et la mise en oeuvre des projets, assurant leur réussite technique. - Documentation technique : Vous élaborerez, au besoin, des dossiers d'architecture, d'installation et d'exploitation, assurant une traçabilité et une compréhension optimale des solutions mises en place. - Participation active aux développements : Vous apporterez votre expertise en contribuant directement aux développements dans le cadre des projets. De manière plus étendue, vous aurez l'opportunité de : - Enrichir les bonnes pratiques : Vous contribuerez à l'évolution et à l'amélioration des bonnes pratiques d'architecture et de développement dans le domaine du Big Data. - Veille technologique : Vous réaliserez une veille constante sur les avancées technologiques du secteur, assurant ainsi la pertinence des solutions proposées. - Formation technique : Vous élaborerez des supports de formation technique pour nos clients et/ou nos consultants juniors, partageant ainsi votre savoir-faire. - Animation du pôle technique : Vous participerez activement à l'animation du pôle technique favorisant un environnement collaboratif et innovant.
Mission freelance
QA Engineer - API Rest/Cucumber/gitlab/aws
DESCRIPTION DE MISSION API Rest - Confirmé - Impératif cucumber - Confirmé - Important gitlab - Confirmé - Important AWS - Junior - Souhaitable Méthodes de travail Scrum, proactivité et défis technologiques. Les équipes sont obligatoirement en présentiel tous les mardis. Le reste en télétravail. Domaine: Distribution and hotel services Vous intégrerez la feature Team « Welcome Connect Offers 2 » au sein du domaine «Distribution and hotel services» de la Digital Factory. Cette équipe se compose d’un Product Owner, d’un TechLead, 4 développeurs. Elle a 2 missions : Assurer le développement de nouvelles fonctionnalités sur l’application « offers-api ». Ces API rest donnent la disponibilité et le prix des offres des chambres d’hôtels du groupe. Il s’agit d’une application récemment réécrite et portée dans le Cloud AWS. Assurer le développement de notre nouvelle chaîne CI/CD qui amènera l’équipe vers de l’intégration continue et du déploiement continu. La CI/CD valide de manière automatique et complète l’application : tests unitaires, tests d’intégration, mutation testing , dark canary testing, quality gates. L’équipe délivre une fois par Sprint en production. Vos missions et responsabilités Au sein de cette Feature Team, vous rejoignez notre équipe en tant que QA Engineer : Définir / contribuer à la stratégie de test Concevoir les plans de test et cas de tests d’évolution et de non-régression, sur l’api et la chaine CI/CD Traduire les exigences fonctionnelles en scénarios de test Produire les jeux de données de tests nécessaires à l'exécution des tests avec l’équipe ; tester ces jeux de données avant l’utilisation dans les tests. Assurer la couverture complète des exigences Produire les releases note de version Partager la stratégie et le reporting des tests à notre cellule transverse « Digital excellence » Contribuer à l’analyse des incidents de production Mener une veille technologique sur les outils liés à la Qualité
Mission freelance
AI Engineer - Climate Risk Modeling
Nous recherchons un ingénieur spécialisé en intelligence artificielle (IA) et en Systèmes d’Information Géographique (SIG) afin de rejoindre un projet ambitieux et innovant visant à évaluer et modéliser les risques climatiques liés à des événements extrêmes. Ce projet, porté par un grand groupe international en collaboration avec Nvidia et des experts en climatologie, s’appuie sur les dernières avancées en deep learning et en modélisation climatique pour concevoir des solutions adaptées aux enjeux environnementaux actuels et futurs. Votre rôle principal consistera à concevoir et développer une preuve de concept (PoC) , en mettant en place un pipeline de traitement de données et des expérimentations robustes qui pourront être reproduites et utilisées pour d’autres cas d’usage. Vous serez chargé d’intégrer des modèles académiques avancés et des outils de pointe, tels que ceux proposés par Nvidia (Earth2Studio) et Google Graphcast, au sein d’un cadre technique performant, optimisé pour les expérimentations sur AWS.
Offre d'emploi
Data Engineer DevOps Airflow (H/F)
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Intégration des modèles d’IA · Développement de processus automatisés en utilisant la technologie Airflow en relation étroite avec les métiers · Conception des solutions nécessitant l’utilisation de technologies data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données · Travaille avec différents profils data du groupe (Data Scientist, Data Engineer, Data Architect, Data Analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne
Mission freelance
DevOps Engineer Cloud & Infrastructure
Le DevOps sera responsable de : La conception d'une infrastructure cloud hybride sécurisée. Le développement d'outils en Python et de pipelines CI/CD. La maintenance de l'infrastructure et l'amélioration continue des outils de supervision et de sécurité. Responsabilités Principales : Architecture cloud hybride et clusters Kubernetes. Automatisation des déploiements (incluant le matériel). Plateforme de collecte de données et sécurité intégrée. Création d'outils en Python. Définition de pipelines CI/CD. Mise en place de workflows Git (branches, versioning). Intégration d'outils de conformité et de sécurité. Automatisation des déploiements et gestion des serveurs. Optimisation des clusters Kubernetes et des serveurs Linux. Gestion des runners GitLab CI. Renforcement des outils de supervision (Prometheus, Grafana) et sécurité. Technologies et Outils : Cloud : AWS, Kubernetes. Automatisation : Terraform, Saltstack, Ansible. Développement : Python. Supervision : Prometheus, Grafana, ELK. CI/CD : GitLab, GitLab CI. Conteneurs : Docker.
Offre d'emploi
Bigdata Engineer Cloud
💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket
Offre d'emploi
Site Reliability Engineer SRE Golang Rust Linux
Secteur: Banque d'investissement Localisation: IDF Contexte: (non exhaustif) Mise en place des métriques pour assurer la fiabilité de l'écosystème Lire le code, le comprendre Suggérer les patchs pour les développeurs, pas d'un point de vue fonctionnel mais stabilité Suggérer des améliorations et les mettre en œuvre La personne déchargera entre autre les tâches d'administration et de production que le manager assume aujourd'hui Pas de connaissance obligée en finance (souhaitable qu'il n'en ait pas) Pas d'exigence sur l'environnement de départ
Mission freelance
Data Engineer
Description du poste : Nous recherchons un Data Engineer freelance passionné et expérimenté pour rejoindre notre équipe dynamique. Vous travaillerez sur des projets innovants en utilisant des technologies de pointe telles que Hive, Hadoop, Dataiku, et Unix/Linux. Responsabilités : Concevoir, développer et maintenir des pipelines de données robustes et évolutifs. Optimiser les requêtes Hive pour améliorer les performances des traitements de données. Gérer et administrer des clusters Hadoop pour assurer une disponibilité et une performance maximales. Intégrer et automatiser des flux de travail dans Dataiku DSS pour des analyses avancées. Collaborer avec les équipes de data science et d’ingénierie pour implémenter des solutions de données efficaces. Assurer la sécurité et l’intégrité des données sur des systèmes Unix/Linux.
Offre d'emploi
Data Engineer Senior H/F
Ce que tu recherches : Evoluer au sein d’une équipe dynamique Participer à des projets innovants et d’envergure Relever des défis Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’acteurs majeurs du secteur Banque, Assurance, Retail ou Médias et service, tu participeras à des projets d’envergure, de refonte, de migration, et / ou à des évolutions majeures du SI du client : Analyse des besoins, tu feras Spécifications techniques, tu rédigeras L'architecture et/ou le socle technique, tu définiras Bonnes pratiques, tu instaureras De nouvelles fonctionnalités, tu développeras Zéro bug, tu laisseras Ton équipe, tu accompagneras Aux instances de pilotage, tu participeras
Mission freelance
Data Engineer SQL H/F
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer SQL H/F à Paris et périphérie. Les missions attendues par le Data Engineer SQL H/F : Le consultant Data Engineer SQL au sein du chapter « Data & BI Client - Data Engineering », sera en charge principalement de : La maintenance évolutive des flux de données • SQL (modélisation, Intégration/transformation de données, calculs d’indicateurs ,…) • Ordonnancement des traitements (via ctrlM) • Flux de données (Fichiers plats, xml, web services, …) • Optimisation SQL L’impact de la migration vers Windows 11 avec changement de login et de domaine (Outils, Process, Pipelines, …), le développement de fixs (optimisations et améliorations) des process techniques et le support niveau 2. Réaliser des tests unitaires et participer aux recettes, Assurer des tâches de support, Contribuer à la Méthodologie Agile – kanban (Daily meeting, poker planning, rétrospective, ..) , Rédiger des documentations techniques, Participer au dispositif d’astreintes.
Offre d'emploi
Data engineer (DATABRICKS/Palantir)
Spécialisé dans le secteur digital, l'entreprise recherche activement un data engineer pour renforcer ses effectifs sur son site de Paris. Description détaillée Nous recherchons un(e) ingénieur(e) de données pour construire, livrer et maintenir des produits de données (pipelines de données, services, APIs...). Implémentation de cas d'utilisation sur Databricks Implémentation de cas d'utilisation sur Palantir Foundry Construire, livrer et maintenir des produits de données (pipelines de données, services, APIs, etc.) Les technologies utilisées pour le développement sont les suivantes : Databricks pour le pipeline de données Palantir Foundry pour l'ontologie et les tableaux de bord Le Data Engineer travaillera en étroite collaboration avec les équipes produites pour développer de nouvelles fonctionnalités liées à ces produits, en particulier des fonctionnalités liées à collaboration avec les équipes de produits pour développer de nouvelles fonctionnalités liées à ces produits, en particulier des fonctionnalités liées à : Le pipelining de données au sein de plusieurs produits ou entre eux Les capacités d'analyse et de stockage pour l'exploration des données, la science des données, la BI Le calcul parallèle sur de grands volumes de données Le Data Engineer est responsable de la construction, de la livraison, de la maintenance et de la documentation d'artefacts de données ou de fonctionnalités (pipelines de données, services de données, API...) en suivant des modèles de pointe (architecture médaillon, gitflow). L'ingénieur en données doit. : Etre orienté vers la résolution de problèmes et avoir un forte capacité d'analyse Etre autonome et rigoureux dans sa manière d'aborder les défis techniques Conseiller sur l'architecture des flux de données de bout en bout Collaborer avec diverses parties prenantes (propriétaires de produits, propriétaires de solutions, analystes de solutions de données, développeurs, responsables techniques, architectes) pour fournir des artefacts de données dans un esprit d'équipe. Profil recherché: + Au moins 3 ans d'expérience Tâches : Implémentation de cas d'utilisation sur Databricks Implémentation de cas d'utilisation sur Palantir Foundry Construire, livrer et maintenir des produits de données (pipelines de données, services, APIs, etc.) Compétences techniques : Databricks, Palantir Foundry, Python, SQL, DataViz : - Expert - Impératif MSDevOps, Jenkins, Artifactory, Container Registry : - Expert - Impératif Parallélisation, technique de programmation distribuée : - Confirmé - Important Deltalake, medaillon archi, blobStorage, fileshare - Expert - Important Langues : Anglais courant (impératif)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.