Trouvez votre prochaine offre d’emploi ou de mission freelance Nginx

Votre recherche renvoie 175 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI
Freelance

Offre d'emploi
Data Engineer Spark Scala Kafka H/F

STORM GROUP
Publiée le
Apache Kafka
Apache Spark
Scala

3 ans
10k-55k €
Île-de-France, France

Contexte : • Mise en place d'une Assiette Comptable de Référence, certifiée & unique sur l'ensemble du périmètre Natixis SA servant de référence pour les calculateurs et reportings Finance et Risques • Décommissionnement de la base de données actuelle des inventaires Finance et capitalisation sur le Datalake Finance & Risk • Mise en place d'une nouvelle plateforme globale de suivi des contrôles et de gestion des corrections (en se basant sur le streaming évènementiel type Kafka) • Optimisation et rationalisation du SI Finance (prudentiel notamment) basé sur cette assiette comptable de référence • Acquisition et complétion des données • Nouvelle modélisation des données orientée produit pour les besoins des traitements, des calculateurs, … et distribution des données • Mise en place d’un Module de certification comptable avec mise en place d'un rapprochement plus rationalisé Compta to BO to FO et centralisation du rapprochement Compta Statutaire & Consolidée. Missions : 1) L'optimisation de la performance, temps d'exécution, utilisation des ressources machines afin de tenir les délais de traitement des informations et de leurs distributions vers les consommateurs avals (Calculateurs et reporting) dans le cadre des arrêtés mais également des besoins quotidiens. Notamment afin de faire face à l'augmentation significative de la volumétrie de données sur S2 2024 et 2025 en lien avec les déploiements GASPARD 2) La contribution à la mise en place des outils de monitoring technique et fonctionnelle

CDI

Offre d'emploi
Data Engineer Snowflake / Databricks

Tenth Revolution Group
Publiée le

45k-55k €
Île-de-France, France

À propos de l'entreprise : Notre client est une société dynamique et innovante spécialisée dans l'accompagnement des entreprises dans la valorisation de leurs données. En pleine expansion, cette société à taille humaine (environ 15 collaborateurs) se distingue par sa capacité d'adaptation et sa forte culture collaborative. • Structure agile : taille humaine, faible turn-over, esprit d'équipe. • Collaboratif et engagé : chaque collaborateur contribue au développement technique et commercial de l'entreprise, ainsi qu'au recrutement. • Montée en compétences : formations régulières en techniques avancées, certifications et développement des soft skills. • Évolution rapide : revue de performance semestrielle, permettant des perspectives d'évolution accélérées. • Contexte international : l'entreprise est en phase d'expansion au-delà des frontières nationales. • Stabilité des missions : aucun consultant en intercontrat, signe d'une gestion optimale. Vos missions incluent : • Conception et développement de solutions de données avec Snowflake et/ou Databricks pour des analyses optimisées. • Intégration et maintenance des pipelines de données pour assurer leur fiabilité et performance. • Collaboration avec les équipes techniques et métiers pour recueillir les besoins, définir les objectifs, et fournir des solutions adaptées. • Modélisation et optimisation des structures de données pour garantir la fluidité des analyses et une exploitation efficace. • Rédaction de spécifications fonctionnelles et techniques pour assurer une documentation de qualité. • Participation aux sessions de définition des processus cibles avec les clients et recommandations de Best Practices. Profil recherché : • Diplôme d'Ingénieur ou Bac+5 en informatique, spécialisation en Data Engineering est un plus. • Expérience d'au moins 3 ans en cabinet de conseil, avec une expertise en Snowflake, Databricks ou technologies similaires. • Compétences en modélisation et structuration de données (ETL, SQL avancé, Spark). • Anglais professionnel, permettant d'échanger dans un contexte international. Qualités recherchées : Vous êtes autonome, avez une excellente communication et une capacité d'adaptation. Votre esprit analytique et votre sens de l'initiative vous permettent d'apporter une réelle valeur ajoutée aux projets. Ce poste est fait pour vous ? Rejoignez une société en pleine croissance et portez vos compétences Data au niveau supérieur ! Candidatures confidentielles

Freelance

Mission freelance
Data Engineer SQL H/F

Insitoo Freelances
Publiée le
SGBD

2 ans
400-480 €
Paris, France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer SQL H/F à Paris et périphérie. Les missions attendues par le Data Engineer SQL H/F : Le consultant Data Engineer SQL au sein du chapter « Data & BI Client - Data Engineering », sera en charge principalement de : La maintenance évolutive des flux de données • SQL (modélisation, Intégration/transformation de données, calculs d’indicateurs ,…) • Ordonnancement des traitements (via ctrlM) • Flux de données (Fichiers plats, xml, web services, …) • Optimisation SQL L’impact de la migration vers Windows 11 avec changement de login et de domaine (Outils, Process, Pipelines, …), le développement de fixs (optimisations et améliorations) des process techniques et le support niveau 2. Réaliser des tests unitaires et participer aux recettes, Assurer des tâches de support, Contribuer à la Méthodologie Agile – kanban (Daily meeting, poker planning, rétrospective, ..) , Rédiger des documentations techniques, Participer au dispositif d’astreintes.

Freelance

Mission freelance
DATA ENGINEER (H/F)

Come Together
Publiée le
Big Data

3 mois
420-440 €
Lille, Hauts-de-France

Notre client recherche un(e) Data Engineer. - Construire et optimiser les pipelines de données : collecte, transformation et publication des données. - Améliorer fiabilité, qualité, performance et FinOps des flux de données. - Garantir la conformité avec la gouvernance de données du groupe. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT. Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake. Une connaissance de la Supply Chain ou une forte curiosité métier est un atout clé, compte tenu de l’organisation.

Freelance

Mission freelance
Data Engineer GCP Senior H/F

Karma Partners
Publiée le
Google Cloud Platform
Hadoop

6 mois
100-630 €
Valbonne, Provence-Alpes-Côte d'Azur

Intégrer l’équipe Move To Cloud pour réaliser la migration dans le cloud GCP. KARMA est le système de Revenue Management du groupe 100% migration cloud GCP Intégration d’une équipe de 6 personnes Présence sur site (Sophia Antipolis) obligatoire 1x par semaine. Présence sur site (Sophia Antipolis) obligatoire 3x par semaine pendant les 3 premiers mois (on boarding) Communication, leadership, autonomie, coaching Profils séniors uniquement Anglais niveau B2 Obligatoire Data engineering / Big Data Development Hadoop et Spark pour migration dans le cloud GCP

Freelance
CDI

Offre d'emploi
Data Engineer Senior H/F

GROUPE ALLIANCE
Publiée le
Apache Spark
Databricks
Scala

36 mois
45k-58k €
Paris, France

Ce que tu recherches : Evoluer au sein d’une équipe dynamique Participer à des projets innovants et d’envergure Relever des défis Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’acteurs majeurs du secteur Banque, Assurance, Retail ou Médias et service, tu participeras à des projets d’envergure, de refonte, de migration, et / ou à des évolutions majeures du SI du client : Analyse des besoins, tu feras Spécifications techniques, tu rédigeras L'architecture et/ou le socle technique, tu définiras Bonnes pratiques, tu instaureras De nouvelles fonctionnalités, tu développeras Zéro bug, tu laisseras Ton équipe, tu accompagneras Aux instances de pilotage, tu participeras

Freelance
CDI

Offre d'emploi
Data engineer (DATABRICKS/Palantir)

AVA2I
Publiée le
Databricks
Jenkins
Python

3 ans
10k-50k €
Paris, France

Spécialisé dans le secteur digital, l'entreprise recherche activement un data engineer pour renforcer ses effectifs sur son site de Paris. Description détaillée Nous recherchons un(e) ingénieur(e) de données pour construire, livrer et maintenir des produits de données (pipelines de données, services, APIs...). Implémentation de cas d'utilisation sur Databricks Implémentation de cas d'utilisation sur Palantir Foundry Construire, livrer et maintenir des produits de données (pipelines de données, services, APIs, etc.) Les technologies utilisées pour le développement sont les suivantes : Databricks pour le pipeline de données Palantir Foundry pour l'ontologie et les tableaux de bord Le Data Engineer travaillera en étroite collaboration avec les équipes produites pour développer de nouvelles fonctionnalités liées à ces produits, en particulier des fonctionnalités liées à collaboration avec les équipes de produits pour développer de nouvelles fonctionnalités liées à ces produits, en particulier des fonctionnalités liées à : Le pipelining de données au sein de plusieurs produits ou entre eux Les capacités d'analyse et de stockage pour l'exploration des données, la science des données, la BI Le calcul parallèle sur de grands volumes de données Le Data Engineer est responsable de la construction, de la livraison, de la maintenance et de la documentation d'artefacts de données ou de fonctionnalités (pipelines de données, services de données, API...) en suivant des modèles de pointe (architecture médaillon, gitflow). L'ingénieur en données doit. : Etre orienté vers la résolution de problèmes et avoir un forte capacité d'analyse Etre autonome et rigoureux dans sa manière d'aborder les défis techniques Conseiller sur l'architecture des flux de données de bout en bout Collaborer avec diverses parties prenantes (propriétaires de produits, propriétaires de solutions, analystes de solutions de données, développeurs, responsables techniques, architectes) pour fournir des artefacts de données dans un esprit d'équipe. Profil recherché: + Au moins 3 ans d'expérience Tâches : Implémentation de cas d'utilisation sur Databricks Implémentation de cas d'utilisation sur Palantir Foundry Construire, livrer et maintenir des produits de données (pipelines de données, services, APIs, etc.) Compétences techniques : Databricks, Palantir Foundry, Python, SQL, DataViz : - Expert - Impératif MSDevOps, Jenkins, Artifactory, Container Registry : - Expert - Impératif Parallélisation, technique de programmation distribuée : - Confirmé - Important Deltalake, medaillon archi, blobStorage, fileshare - Expert - Important Langues : Anglais courant (impératif)

Offre premium
Freelance

Mission freelance
Administrateur JIRA

GBNI
Publiée le
AWS Cloud
CI/CD
JIRA

6 mois
350-600 €
Issy-les-Moulineaux, Île-de-France

Assurer le paramétrage et l'administration des outils : Jira,confluencen,statuspage,Slack , Pager Duty Mettre en œuvre des évolutions Assurer la mise en place et le suivi des droits d'accès Participer à la modélisation des workflows et des tableaux de bord Assurer le paramétrage des workflows Réaliser les scripts d'automatisation Rédiger les documents Assurer le monitoring de la plateforme Assurer le support aux utilisateurs , et le suivi des anomalies Renseigner et enrichir les bases de connaissances Maintenir à jour vos connaissances dans votre domaine d'expertise AWS: EKS,EC2,ASG , Route53, Cloudfront , ALB,S3,DynamoDB,Elasticsherch,MSK, Elasticache,Mediapackage,CloudWatch,SNS. OnPrem:FW,Routeur,SW,VMware,SAN/NAS,Haproxy,Nginx,Kubernetes,Mysql,Postgresql CI/CD:Git, Jenkins,Argo, etc.. Monitoring: Zabbix,Prometheus,Grafana,Pagerduty

Freelance

Mission freelance
Data engineer (H/F)

Anywr freelance
Publiée le
BigQuery
Google Cloud Platform

12 mois
100-480 €
Lille, Hauts-de-France

Vous accompagnez les différents domaines de la plateforme dans le développement de leurs solutions Data. En tant que membre de l'équipe DATA Transverse, vous participez aux rituels agiles (Daily, Rétro, Préparation de sprints...) Vous êtes force de proposition pour enrichir les templates de l'équipe, améliorer l'industrialisation de nos solutions et le déroulement de nos rituels. Vous êtes autonome sur vos sujets, tout en travaillant en collaboration avec les autres Data Engineers de l'équipe, ainsi qu'avec les Data Analysts / Data Scientists. Vous challengez les solutions proposées, dans un objectif d'amélioration continue.

Freelance
CDD
CDI

Offre d'emploi
Release Train Engineer

IT CONSULTANTS
Publiée le
Safe

12 mois
10k-78k €
Île-de-France, France

Nous recherchons un(e) Release Train Engineer (RTE) certifié(e) SAFe, avec une expérience significative dans la gestion d’Agile Release Trains (ART), pour intervenir sur des projets dans le secteur de l’énergie. Missions : - Coordonner et faciliter les cérémonies SAFe (PI Planning, Scrum of Scrums, etc.) pour les équipes Agile Release Train. - Assurer la formation et l'accompagnement des équipes sur les principes SAFe et les bonnes pratiques Agile. - Identifier les obstacles et proposer des solutions pour améliorer le flux des équipes et des projets. - Collaborer avec les Scrum Masters, Product Owners et les parties prenantes pour garantir une livraison fluide et efficace des incréments de programme. - Suivre et gérer les indicateurs de performance de l’ART afin d’assurer l’atteinte des objectifs stratégiques.

Freelance
CDI

Offre d'emploi
Data Engineer Scala Spark Hadoop

Digistrat consulting
Publiée le
Scala

36 mois
10k-200k €
Paris, France

💼 Poste : Data Engineer Scala Spark Hadoop 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Notre client souhaite une assistance dans le cadre de la mise en œuvre d'une assiette commune pour les usages Finances et Risques, plus particulièrement sur les données Evènements. Dans ce cadre, la Prestation consiste à contribuer à/au(x) : L’architecture avec le reste de l’entité (tech lead, devs, architecture). Mise en œuvre/Développement des propositions techniques. Revue de code. Suivi des méthodologies agiles. L'industrialisation des développements et des tests sur de l'open source Environnement anglophone. Livrables attendus Les livrables attendus sont : Développements et tests (en TDD) en mode Agile pour répondre au cas d'usage métier et déployable en environnement de production. PVs techniques Chiffrage de projets et évolutions Design de solution 🤝 Expertises spécifiques : Continuous Integration Hadoop (Big Data) Scala Spark

Freelance

Mission freelance
Data Engineer confirmé

WHEEL OF WORK
Publiée le
AWS Cloud
CI/CD
DevOps

1 an
400-550 €
Lille, Hauts-de-France

Mission : En tant que Data Engineer, vous jouerez un rôle central dans la transformation digitale de notre client. Vous concevrez et optimiserez les flux de données en assurant leur ingestion, transformation et modélisation dans un environnement AWS et Snowflake. Vous travaillerez étroitement avec la Data & Tech Factory pour automatiser les processus et assurer l'intégration continue de données fiables et exploitables dans les projets métier de l'entreprise. Compétences : Expérience de 4 à 5 ans en data engineering, idéalement en environnement cloud AWS Maîtrise de Snowflake pour le stockage et la gestion des données, avec des compétences en SQL et Python pour la manipulation et la transformation de données Connaissance des pratiques DevOps et CI/CD pour optimiser les workflows, et expérience en Infrastructure as Code avec Terraform

Freelance

Mission freelance
Data Engineer (Kafka)

Lawrence Harvey (LHI group limited)
Publiée le

3 ans
Île-de-France, France

Mission / Freelance / France / Paris / Data Engineer / Kafka Connect / Flink Date de démarrage : Entre mi janvier et mi février Durée : 3 ans Localisation : Paris Rythme en télétravail : 50% (2 à 3j/semaine) Data Engineer (Kafka) Contexte : Il existe une soixantaine de Cluster avec plusieurs clients, des applications différentes etc... Vous interviendrez dans une équipe côté production; ils ne développent donc pas d'applications mais fournissent des outils à leur DSI au travers ces plateformes là Ils les déploient sur de l'IBM. Ils ont pour ambition de passer sur du SAAS au travers de leur service. Missions principales : Maintenance/incidentologie, maintenabilité, assistance au client, dimensionnement des clusters etc… + travailler à intégrer les nouveaux services sur le Cloud (en collaboration avec vos collègues en interne qui vont aussi réfléchir à la structure etc…) Gestion des Incidents (qui peuvent être des plantages applicatifs etc...) : Analyse & troubleshoot (ça peut être des plantages, problématique de perf etc...) Profil recherché : Au moins 5 ans d'expérience en tant que Data Engineer Expertise sur Kafka ( si le connecteur plante, qu'est ce que je fais ? Comment j'aide le client ? Je dois voir le support ? Pb de sécurité ? De configuration ? Faire toute une analyse derrière) Expérience sur Flink (ou un autre outil de processing en temps réel) Anglais technique (l'intégrateur et certains collaborateurs sont anglophone) Si cette opportunité vous intéresse, merci de postuler sur l'annonce ou de m'envoyer votre CV à l'adresse suivante : -email masqué- (Christopher Delannoy) et je vous recontacterai pour vous donner plus de détails sur la mission. N'hésitez pas à partager avec votre réseau si vous connaissez des personnes qui pourraient être intéressées Lawrence Harvey is acting as an Employment Business in regards to this position. Visit our website and follow us on Twitter for all live vacancies (lawharveyjobs)

Freelance
CDI

Offre d'emploi
Data engineer Python – Finance de marché

Digistrat consulting
Publiée le
Finance
Python

3 ans
40k-60k €
Paris, France

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : La Prestation consiste à contribuer/contribution a/au(x): L'implémentation de nouveaux use cases autour du programme FRTB, notamment sur le stream RRAO L'implémentation de nouveau use cases autour du programme Valuation Risk Program Autres projets fonctionnels Livrables : Les livrables attendus sont : Développement de code fonctionnel en Python pour répondre aux besoins réglementaires des programmes FRTB, VRP ou de tout autres sujets fonctionnels.

CDI

Offre d'emploi
Data Engineer GCP

Tenth Revolution Group
Publiée le

Lyon, Auvergne-Rhône-Alpes

À propos de l'opportunité : Envie de contribuer aux projets data de demain au sein d'une structure à l'avant-garde de l'innovation ? Nous recherchons un Data Engineer Senior spécialisé en Google Cloud Platform (GCP), passionné par les environnements Cloud et motivé par la création d'architectures de données robustes et scalables. Rejoignez une équipe data dynamique, qui travaille sur des projets divers et stimulants pour accompagner la transformation numérique de ses clients. Missions ????? : • ???? Concevoir et Développer des Pipelines de Données : Concevoir et optimiser des pipelines ETL/ELT dans un environnement GCP, en assurant la performance et la fluidité des flux de données. • ???? Optimiser les Processus de Collecte et Transformation : Travailler avec les équipes Data Science et Analytics pour automatiser et améliorer l'ingestion, la transformation et le stockage de données, avec des outils comme Dataflow et BigQuery. • ????? Mettre en Place des Meilleures Pratiques DevOps : Implémenter des processus de CI/CD et des solutions de monitoring pour garantir des déploiements rapides et fiables. • ????? Participer à la Stratégie de Gouvernance et Sécurité : Veiller à la sécurité et à la conformité des données en respectant les standards de sécurité et en participant à la mise en œuvre de pratiques de gouvernance data. • ???? Collaborer avec les Équipes : Travailler en étroite collaboration avec les équipes produits, data scientists, et analystes pour bien aligner les solutions techniques avec les objectifs business. Environnement Technique ???? : • Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc) • Outils d'Ingénierie de Données : Spark, Apache Beam, Airflow • Langages de Programmation : Python, SQL • Outils de DevOps : Terraform, Docker, Kubernetes • Gouvernance et Sécurité : IAM, gestion des rôles, chiffrement de données Profil Recherché : • Expérience : Minimum 5 ans en ingénierie de données avec une spécialisation Cloud, idéalement sur Google Cloud Platform. • Compétences Techniques : Maîtrise de GCP (BigQuery, Dataflow), avec de solides compétences en Python et SQL pour le traitement et la transformation de données. • Connaissances Avancées en Cloud et Data Engineering : Expérience dans la conception et l'optimisation de pipelines ETL/ELT. • Esprit d'Analyse et Résolution de Problèmes : Capacité à identifier des solutions data innovantes et efficaces, en tenant compte des contraintes de temps et des impératifs business. • Qualités Personnelles : Proactivité, esprit d'équipe, rigueur et capacité à communiquer efficacement avec des interlocuteurs variés (techniques et non techniques). Pourquoi Rejoindre ? ???? Notre environnement est à la fois stimulant et axé sur l'innovation, où chaque membre de l'équipe peut exprimer sa créativité technique et avoir un réel impact sur les projets clients. En rejoignant cette équipe, vous participerez activement à la transformation numérique et bénéficierez d'opportunités de développement professionnel.

Freelance

Mission freelance
AI/ML Engineer (h/f)

emagine Consulting SARL
Publiée le

6 mois
400-500 €
France

emagine is looking for an AI/ML Engineer for its international client As part of the Artificial Intelligence Engineering team, in the Group Emerging Technologies and Data (GETD) division you will build AI-powered initiatives (proofs of concept, proofs of value) with different entities & strategic partners and define & implement AI best practices, tools, and collaboration models to be followed across the whole Group. Responsabilities : • Enhance end-to-end machine learning solutions developed and deployed, from data pre-processing and feature engineering to model training, evaluation, deployment and monitoring. • Enhance and implement templates/recipes to boost the scalability of AI use cases. • Refactor notebooks into high quality code scripts that will be part of the ML pipelines. • Design and optimize ML pipelines, leveraging its features and capabilities to streamline the model development and deployment process. • Build and maintain scalable and reliable MLOps infrastructure, facilitating model versioning, monitoring, and automated deployment. • Codify best practices for model performance monitoring, model drift detection, and model retraining, ensuring high-quality and up-to-date ML models in production. • Implement repeatable and reliable CI/CD pipelines. • Implement data, model and code tests. • Stay up to date with the latest advancements in MLOps, LLMOps , and proactively identify opportunities to enhance our ML capabilities. • Mentor and provide technical guidance to the Data Science teams across entities. • Build assets and guidelines with our internal MLOps community. Technical skills : • Azure (DevOps, Services, SQL, Azure Search) • Machine Learning (mlflow, Databricks, Kubeflow) • Python If you are interested, please send your up to date CV to -email masqué-

175 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous