Trouvez votre prochaine offre d’emploi ou de mission freelance Nginx
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Data Engineer Spark Scala Kafka H/F
Contexte : • Mise en place d'une Assiette Comptable de Référence, certifiée & unique sur l'ensemble du périmètre Natixis SA servant de référence pour les calculateurs et reportings Finance et Risques • Décommissionnement de la base de données actuelle des inventaires Finance et capitalisation sur le Datalake Finance & Risk • Mise en place d'une nouvelle plateforme globale de suivi des contrôles et de gestion des corrections (en se basant sur le streaming évènementiel type Kafka) • Optimisation et rationalisation du SI Finance (prudentiel notamment) basé sur cette assiette comptable de référence • Acquisition et complétion des données • Nouvelle modélisation des données orientée produit pour les besoins des traitements, des calculateurs, … et distribution des données • Mise en place d’un Module de certification comptable avec mise en place d'un rapprochement plus rationalisé Compta to BO to FO et centralisation du rapprochement Compta Statutaire & Consolidée. Missions : 1) L'optimisation de la performance, temps d'exécution, utilisation des ressources machines afin de tenir les délais de traitement des informations et de leurs distributions vers les consommateurs avals (Calculateurs et reporting) dans le cadre des arrêtés mais également des besoins quotidiens. Notamment afin de faire face à l'augmentation significative de la volumétrie de données sur S2 2024 et 2025 en lien avec les déploiements GASPARD 2) La contribution à la mise en place des outils de monitoring technique et fonctionnelle
Offre d'emploi
Data Engineer Snowflake / Databricks
À propos de l'entreprise : Notre client est une société dynamique et innovante spécialisée dans l'accompagnement des entreprises dans la valorisation de leurs données. En pleine expansion, cette société à taille humaine (environ 15 collaborateurs) se distingue par sa capacité d'adaptation et sa forte culture collaborative. • Structure agile : taille humaine, faible turn-over, esprit d'équipe. • Collaboratif et engagé : chaque collaborateur contribue au développement technique et commercial de l'entreprise, ainsi qu'au recrutement. • Montée en compétences : formations régulières en techniques avancées, certifications et développement des soft skills. • Évolution rapide : revue de performance semestrielle, permettant des perspectives d'évolution accélérées. • Contexte international : l'entreprise est en phase d'expansion au-delà des frontières nationales. • Stabilité des missions : aucun consultant en intercontrat, signe d'une gestion optimale. Vos missions incluent : • Conception et développement de solutions de données avec Snowflake et/ou Databricks pour des analyses optimisées. • Intégration et maintenance des pipelines de données pour assurer leur fiabilité et performance. • Collaboration avec les équipes techniques et métiers pour recueillir les besoins, définir les objectifs, et fournir des solutions adaptées. • Modélisation et optimisation des structures de données pour garantir la fluidité des analyses et une exploitation efficace. • Rédaction de spécifications fonctionnelles et techniques pour assurer une documentation de qualité. • Participation aux sessions de définition des processus cibles avec les clients et recommandations de Best Practices. Profil recherché : • Diplôme d'Ingénieur ou Bac+5 en informatique, spécialisation en Data Engineering est un plus. • Expérience d'au moins 3 ans en cabinet de conseil, avec une expertise en Snowflake, Databricks ou technologies similaires. • Compétences en modélisation et structuration de données (ETL, SQL avancé, Spark). • Anglais professionnel, permettant d'échanger dans un contexte international. Qualités recherchées : Vous êtes autonome, avez une excellente communication et une capacité d'adaptation. Votre esprit analytique et votre sens de l'initiative vous permettent d'apporter une réelle valeur ajoutée aux projets. Ce poste est fait pour vous ? Rejoignez une société en pleine croissance et portez vos compétences Data au niveau supérieur ! Candidatures confidentielles
Mission freelance
Data Engineer SQL H/F
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer SQL H/F à Paris et périphérie. Les missions attendues par le Data Engineer SQL H/F : Le consultant Data Engineer SQL au sein du chapter « Data & BI Client - Data Engineering », sera en charge principalement de : La maintenance évolutive des flux de données • SQL (modélisation, Intégration/transformation de données, calculs d’indicateurs ,…) • Ordonnancement des traitements (via ctrlM) • Flux de données (Fichiers plats, xml, web services, …) • Optimisation SQL L’impact de la migration vers Windows 11 avec changement de login et de domaine (Outils, Process, Pipelines, …), le développement de fixs (optimisations et améliorations) des process techniques et le support niveau 2. Réaliser des tests unitaires et participer aux recettes, Assurer des tâches de support, Contribuer à la Méthodologie Agile – kanban (Daily meeting, poker planning, rétrospective, ..) , Rédiger des documentations techniques, Participer au dispositif d’astreintes.
Mission freelance
DATA ENGINEER (H/F)
Notre client recherche un(e) Data Engineer. - Construire et optimiser les pipelines de données : collecte, transformation et publication des données. - Améliorer fiabilité, qualité, performance et FinOps des flux de données. - Garantir la conformité avec la gouvernance de données du groupe. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT. Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake. Une connaissance de la Supply Chain ou une forte curiosité métier est un atout clé, compte tenu de l’organisation.
Mission freelance
Data Engineer GCP Senior H/F
Intégrer l’équipe Move To Cloud pour réaliser la migration dans le cloud GCP. KARMA est le système de Revenue Management du groupe 100% migration cloud GCP Intégration d’une équipe de 6 personnes Présence sur site (Sophia Antipolis) obligatoire 1x par semaine. Présence sur site (Sophia Antipolis) obligatoire 3x par semaine pendant les 3 premiers mois (on boarding) Communication, leadership, autonomie, coaching Profils séniors uniquement Anglais niveau B2 Obligatoire Data engineering / Big Data Development Hadoop et Spark pour migration dans le cloud GCP
Offre d'emploi
Data Engineer Senior H/F
Ce que tu recherches : Evoluer au sein d’une équipe dynamique Participer à des projets innovants et d’envergure Relever des défis Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’acteurs majeurs du secteur Banque, Assurance, Retail ou Médias et service, tu participeras à des projets d’envergure, de refonte, de migration, et / ou à des évolutions majeures du SI du client : Analyse des besoins, tu feras Spécifications techniques, tu rédigeras L'architecture et/ou le socle technique, tu définiras Bonnes pratiques, tu instaureras De nouvelles fonctionnalités, tu développeras Zéro bug, tu laisseras Ton équipe, tu accompagneras Aux instances de pilotage, tu participeras
Offre d'emploi
Data engineer (DATABRICKS/Palantir)
Spécialisé dans le secteur digital, l'entreprise recherche activement un data engineer pour renforcer ses effectifs sur son site de Paris. Description détaillée Nous recherchons un(e) ingénieur(e) de données pour construire, livrer et maintenir des produits de données (pipelines de données, services, APIs...). Implémentation de cas d'utilisation sur Databricks Implémentation de cas d'utilisation sur Palantir Foundry Construire, livrer et maintenir des produits de données (pipelines de données, services, APIs, etc.) Les technologies utilisées pour le développement sont les suivantes : Databricks pour le pipeline de données Palantir Foundry pour l'ontologie et les tableaux de bord Le Data Engineer travaillera en étroite collaboration avec les équipes produites pour développer de nouvelles fonctionnalités liées à ces produits, en particulier des fonctionnalités liées à collaboration avec les équipes de produits pour développer de nouvelles fonctionnalités liées à ces produits, en particulier des fonctionnalités liées à : Le pipelining de données au sein de plusieurs produits ou entre eux Les capacités d'analyse et de stockage pour l'exploration des données, la science des données, la BI Le calcul parallèle sur de grands volumes de données Le Data Engineer est responsable de la construction, de la livraison, de la maintenance et de la documentation d'artefacts de données ou de fonctionnalités (pipelines de données, services de données, API...) en suivant des modèles de pointe (architecture médaillon, gitflow). L'ingénieur en données doit. : Etre orienté vers la résolution de problèmes et avoir un forte capacité d'analyse Etre autonome et rigoureux dans sa manière d'aborder les défis techniques Conseiller sur l'architecture des flux de données de bout en bout Collaborer avec diverses parties prenantes (propriétaires de produits, propriétaires de solutions, analystes de solutions de données, développeurs, responsables techniques, architectes) pour fournir des artefacts de données dans un esprit d'équipe. Profil recherché: + Au moins 3 ans d'expérience Tâches : Implémentation de cas d'utilisation sur Databricks Implémentation de cas d'utilisation sur Palantir Foundry Construire, livrer et maintenir des produits de données (pipelines de données, services, APIs, etc.) Compétences techniques : Databricks, Palantir Foundry, Python, SQL, DataViz : - Expert - Impératif MSDevOps, Jenkins, Artifactory, Container Registry : - Expert - Impératif Parallélisation, technique de programmation distribuée : - Confirmé - Important Deltalake, medaillon archi, blobStorage, fileshare - Expert - Important Langues : Anglais courant (impératif)
Mission freelance
Administrateur JIRA
Assurer le paramétrage et l'administration des outils : Jira,confluencen,statuspage,Slack , Pager Duty Mettre en œuvre des évolutions Assurer la mise en place et le suivi des droits d'accès Participer à la modélisation des workflows et des tableaux de bord Assurer le paramétrage des workflows Réaliser les scripts d'automatisation Rédiger les documents Assurer le monitoring de la plateforme Assurer le support aux utilisateurs , et le suivi des anomalies Renseigner et enrichir les bases de connaissances Maintenir à jour vos connaissances dans votre domaine d'expertise AWS: EKS,EC2,ASG , Route53, Cloudfront , ALB,S3,DynamoDB,Elasticsherch,MSK, Elasticache,Mediapackage,CloudWatch,SNS. OnPrem:FW,Routeur,SW,VMware,SAN/NAS,Haproxy,Nginx,Kubernetes,Mysql,Postgresql CI/CD:Git, Jenkins,Argo, etc.. Monitoring: Zabbix,Prometheus,Grafana,Pagerduty
Mission freelance
Data engineer (H/F)
Vous accompagnez les différents domaines de la plateforme dans le développement de leurs solutions Data. En tant que membre de l'équipe DATA Transverse, vous participez aux rituels agiles (Daily, Rétro, Préparation de sprints...) Vous êtes force de proposition pour enrichir les templates de l'équipe, améliorer l'industrialisation de nos solutions et le déroulement de nos rituels. Vous êtes autonome sur vos sujets, tout en travaillant en collaboration avec les autres Data Engineers de l'équipe, ainsi qu'avec les Data Analysts / Data Scientists. Vous challengez les solutions proposées, dans un objectif d'amélioration continue.
Offre d'emploi
Release Train Engineer
Nous recherchons un(e) Release Train Engineer (RTE) certifié(e) SAFe, avec une expérience significative dans la gestion d’Agile Release Trains (ART), pour intervenir sur des projets dans le secteur de l’énergie. Missions : - Coordonner et faciliter les cérémonies SAFe (PI Planning, Scrum of Scrums, etc.) pour les équipes Agile Release Train. - Assurer la formation et l'accompagnement des équipes sur les principes SAFe et les bonnes pratiques Agile. - Identifier les obstacles et proposer des solutions pour améliorer le flux des équipes et des projets. - Collaborer avec les Scrum Masters, Product Owners et les parties prenantes pour garantir une livraison fluide et efficace des incréments de programme. - Suivre et gérer les indicateurs de performance de l’ART afin d’assurer l’atteinte des objectifs stratégiques.
Offre d'emploi
Data Engineer Scala Spark Hadoop
💼 Poste : Data Engineer Scala Spark Hadoop 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Notre client souhaite une assistance dans le cadre de la mise en œuvre d'une assiette commune pour les usages Finances et Risques, plus particulièrement sur les données Evènements. Dans ce cadre, la Prestation consiste à contribuer à/au(x) : L’architecture avec le reste de l’entité (tech lead, devs, architecture). Mise en œuvre/Développement des propositions techniques. Revue de code. Suivi des méthodologies agiles. L'industrialisation des développements et des tests sur de l'open source Environnement anglophone. Livrables attendus Les livrables attendus sont : Développements et tests (en TDD) en mode Agile pour répondre au cas d'usage métier et déployable en environnement de production. PVs techniques Chiffrage de projets et évolutions Design de solution 🤝 Expertises spécifiques : Continuous Integration Hadoop (Big Data) Scala Spark
Mission freelance
Data Engineer confirmé
Mission : En tant que Data Engineer, vous jouerez un rôle central dans la transformation digitale de notre client. Vous concevrez et optimiserez les flux de données en assurant leur ingestion, transformation et modélisation dans un environnement AWS et Snowflake. Vous travaillerez étroitement avec la Data & Tech Factory pour automatiser les processus et assurer l'intégration continue de données fiables et exploitables dans les projets métier de l'entreprise. Compétences : Expérience de 4 à 5 ans en data engineering, idéalement en environnement cloud AWS Maîtrise de Snowflake pour le stockage et la gestion des données, avec des compétences en SQL et Python pour la manipulation et la transformation de données Connaissance des pratiques DevOps et CI/CD pour optimiser les workflows, et expérience en Infrastructure as Code avec Terraform
Mission freelance
Data Engineer (Kafka)
Mission / Freelance / France / Paris / Data Engineer / Kafka Connect / Flink Date de démarrage : Entre mi janvier et mi février Durée : 3 ans Localisation : Paris Rythme en télétravail : 50% (2 à 3j/semaine) Data Engineer (Kafka) Contexte : Il existe une soixantaine de Cluster avec plusieurs clients, des applications différentes etc... Vous interviendrez dans une équipe côté production; ils ne développent donc pas d'applications mais fournissent des outils à leur DSI au travers ces plateformes là Ils les déploient sur de l'IBM. Ils ont pour ambition de passer sur du SAAS au travers de leur service. Missions principales : Maintenance/incidentologie, maintenabilité, assistance au client, dimensionnement des clusters etc… + travailler à intégrer les nouveaux services sur le Cloud (en collaboration avec vos collègues en interne qui vont aussi réfléchir à la structure etc…) Gestion des Incidents (qui peuvent être des plantages applicatifs etc...) : Analyse & troubleshoot (ça peut être des plantages, problématique de perf etc...) Profil recherché : Au moins 5 ans d'expérience en tant que Data Engineer Expertise sur Kafka ( si le connecteur plante, qu'est ce que je fais ? Comment j'aide le client ? Je dois voir le support ? Pb de sécurité ? De configuration ? Faire toute une analyse derrière) Expérience sur Flink (ou un autre outil de processing en temps réel) Anglais technique (l'intégrateur et certains collaborateurs sont anglophone) Si cette opportunité vous intéresse, merci de postuler sur l'annonce ou de m'envoyer votre CV à l'adresse suivante : -email masqué- (Christopher Delannoy) et je vous recontacterai pour vous donner plus de détails sur la mission. N'hésitez pas à partager avec votre réseau si vous connaissez des personnes qui pourraient être intéressées Lawrence Harvey is acting as an Employment Business in regards to this position. Visit our website and follow us on Twitter for all live vacancies (lawharveyjobs)
Offre d'emploi
Data engineer Python – Finance de marché
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : La Prestation consiste à contribuer/contribution a/au(x): L'implémentation de nouveaux use cases autour du programme FRTB, notamment sur le stream RRAO L'implémentation de nouveau use cases autour du programme Valuation Risk Program Autres projets fonctionnels Livrables : Les livrables attendus sont : Développement de code fonctionnel en Python pour répondre aux besoins réglementaires des programmes FRTB, VRP ou de tout autres sujets fonctionnels.
Offre d'emploi
Data Engineer GCP
À propos de l'opportunité : Envie de contribuer aux projets data de demain au sein d'une structure à l'avant-garde de l'innovation ? Nous recherchons un Data Engineer Senior spécialisé en Google Cloud Platform (GCP), passionné par les environnements Cloud et motivé par la création d'architectures de données robustes et scalables. Rejoignez une équipe data dynamique, qui travaille sur des projets divers et stimulants pour accompagner la transformation numérique de ses clients. Missions ????? : • ???? Concevoir et Développer des Pipelines de Données : Concevoir et optimiser des pipelines ETL/ELT dans un environnement GCP, en assurant la performance et la fluidité des flux de données. • ???? Optimiser les Processus de Collecte et Transformation : Travailler avec les équipes Data Science et Analytics pour automatiser et améliorer l'ingestion, la transformation et le stockage de données, avec des outils comme Dataflow et BigQuery. • ????? Mettre en Place des Meilleures Pratiques DevOps : Implémenter des processus de CI/CD et des solutions de monitoring pour garantir des déploiements rapides et fiables. • ????? Participer à la Stratégie de Gouvernance et Sécurité : Veiller à la sécurité et à la conformité des données en respectant les standards de sécurité et en participant à la mise en œuvre de pratiques de gouvernance data. • ???? Collaborer avec les Équipes : Travailler en étroite collaboration avec les équipes produits, data scientists, et analystes pour bien aligner les solutions techniques avec les objectifs business. Environnement Technique ???? : • Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc) • Outils d'Ingénierie de Données : Spark, Apache Beam, Airflow • Langages de Programmation : Python, SQL • Outils de DevOps : Terraform, Docker, Kubernetes • Gouvernance et Sécurité : IAM, gestion des rôles, chiffrement de données Profil Recherché : • Expérience : Minimum 5 ans en ingénierie de données avec une spécialisation Cloud, idéalement sur Google Cloud Platform. • Compétences Techniques : Maîtrise de GCP (BigQuery, Dataflow), avec de solides compétences en Python et SQL pour le traitement et la transformation de données. • Connaissances Avancées en Cloud et Data Engineering : Expérience dans la conception et l'optimisation de pipelines ETL/ELT. • Esprit d'Analyse et Résolution de Problèmes : Capacité à identifier des solutions data innovantes et efficaces, en tenant compte des contraintes de temps et des impératifs business. • Qualités Personnelles : Proactivité, esprit d'équipe, rigueur et capacité à communiquer efficacement avec des interlocuteurs variés (techniques et non techniques). Pourquoi Rejoindre ? ???? Notre environnement est à la fois stimulant et axé sur l'innovation, où chaque membre de l'équipe peut exprimer sa créativité technique et avoir un réel impact sur les projets clients. En rejoignant cette équipe, vous participerez activement à la transformation numérique et bénéficierez d'opportunités de développement professionnel.
Mission freelance
AI/ML Engineer (h/f)
emagine is looking for an AI/ML Engineer for its international client As part of the Artificial Intelligence Engineering team, in the Group Emerging Technologies and Data (GETD) division you will build AI-powered initiatives (proofs of concept, proofs of value) with different entities & strategic partners and define & implement AI best practices, tools, and collaboration models to be followed across the whole Group. Responsabilities : • Enhance end-to-end machine learning solutions developed and deployed, from data pre-processing and feature engineering to model training, evaluation, deployment and monitoring. • Enhance and implement templates/recipes to boost the scalability of AI use cases. • Refactor notebooks into high quality code scripts that will be part of the ML pipelines. • Design and optimize ML pipelines, leveraging its features and capabilities to streamline the model development and deployment process. • Build and maintain scalable and reliable MLOps infrastructure, facilitating model versioning, monitoring, and automated deployment. • Codify best practices for model performance monitoring, model drift detection, and model retraining, ensuring high-quality and up-to-date ML models in production. • Implement repeatable and reliable CI/CD pipelines. • Implement data, model and code tests. • Stay up to date with the latest advancements in MLOps, LLMOps , and proactively identify opportunities to enhance our ML capabilities. • Mentor and provide technical guidance to the Data Science teams across entities. • Build assets and guidelines with our internal MLOps community. Technical skills : • Azure (DevOps, Services, SQL, Azure Search) • Machine Learning (mlflow, Databricks, Kubeflow) • Python If you are interested, please send your up to date CV to -email masqué-
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.