Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Kafka à Paris

Votre recherche renvoie 37 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Data Engineer Spark Scala Kafka- Monitoring Datalake Finance

VISIAN

Contexte & Objectifs Au sein du service Gouvernance, Administration et Monitoring de la DSI Finance, la mission vise à développer et optimiser une brique applicative de monitoring des flux et traitements de données , en lien avec le programme GASPARD . L’objectif est d’assurer la qualité de service et le respect des délais de mise à disposition des données, notamment face à l’augmentation des volumes prévue en 2024-2025. D’une durée de 6 mois , cette mission doit finaliser les travaux en cours et garantir les performances pour les futurs déploiements. L’équipe est basée à Paris , avec des interactions quotidiennes avec les équipes GASPARD à Paris et Porto . L’anglais est donc indispensable. Description & Activités Collecte et mise à disposition des données pour l’entreprise. Industrialisation et mise en production des traitements (tableaux de bord, intégration de modèles). Développement et optimisation des pipelines d’ingestion (streaming & batch). Mise en production de modèles statistiques et traitements Spark . Développement de scripts et jobs de traitement (mapping, normalisation, agrégation). Développement d’API et dashboards pour la restitution des données. Administration et configuration de clusters Hadoop et Spring Boot pour l’extraction et l’intégration des données via Kafka et Data Lake . Profil & Informations Expérience requise : 6 à 9 ans. Localisation : paris 13. Début souhaité : 03/03/2025. Mode de travail : hybride ( 2 jours sur site minimum / 10 jours de télétravail max si convention).

Démarrage Dès que possible
Durée 6 mois
Salaire 40k-45k €⁄an
TJM 400-580 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
CDI

Data Engineer Databricks Sénior

Inventiv IT

Nous recherchons un Data Engineer Databricks Sénior avec une expérience minimale de 5 ans. Le contexte : Migration des traitement Apache Spark/Scala du datalake depuis une plateforme AKS/Airflow vers Azure Databricks et mise en place de nouveaux pipelines Organisation et suivi des migrations des projets depuis AKS vers Databricks Audit du patrimoine applicatif et organisation de chantiers de refactorisation pour améliorer la résilience et les performances des applications Homogénéisation des pratiques de développement au sein du service (mise en place TU, process de code review, mise en place d’outils de code quality ...) Suivi et résolution de failles de sécurité Elargissement de l’utilisation des services Databricks par les projets (Unity Catalog, migration parquet vers delta, workflows ...) Maitrise DevOps Maitrise de Spark / Scala / Databricks & AZURE sont indispensables 2 ans d'expérience minimum dans le même environnement technique

Démarrage
Salaire 45k-62k €⁄an
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

Chef de projet applicatif

Lùkla

Piloter des projets de déploiement vers le succès en établissant des échéances, en assurant le suivi de la livraison, la gouvernance et l'alignement avec les objectifs du groupe. Collaborer efficacement avec les équipes internes, les partenaires et les unités commerciales. Construire et maintenir une relation de confiance avec les filiales internationales. Mettre en place et gérer une communication efficace avec toutes les parties prenantes (métier, fournisseurs et IT) pour assurer une haute qualité de service. Responsabilités : Piloter les éléments requis de la gouvernance (suivi, projet et comité de pilotage) ; Challenger la conception des nouvelles solutions IT en fonction des attentes des unités commerciales ; Contribuer à la validation du périmètre ; Obtenir l'engagement sur le contenu, le planning de développement et les plans de rétrofit ; Aligner l'architecture fonctionnelle et technique avec les experts métier ; Représenter la direction informatique et être responsable du calendrier global, des étapes clés, des coûts et des réalisations en matière de qualité ; Élaborer le plan de projet (périmètre, intégration avec d'autres systèmes, planification, risques, gouvernance et organisation) ; Identifier les KPI du projet ; Piloter les opérations du projet IT ; Coordonner les initiatives et intégrer les contributions pertinentes (expertise, support, assistance, études, projets, communication…) pour favoriser l'engagement et les décisions ; Informer les filiales sur les informations IT du siège (déploiements en cours, nouvelles fonctionnalités disponibles, mises en production prévues,…) ; Assurer un suivi étroit de la construction du projet, grâce à un alignement régulier avec les responsables des solutions IT et les Product Owners ; Mener des analyses et des études sur les nouvelles découvertes pendant la mise en œuvre du projet ; Fournir des mises à jour régulières à la direction informatique, soulever les problèmes et les risques, proposer des actions et des plans d'atténuation ; Maintenir la conception de la solution à jour en fonction des évolutions des marchés locaux et des solutions IT…

Démarrage Dès que possible
Durée 2 ans
Salaire 45k-55k €⁄an
TJM 400-550 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

Architecte Technique Java-Spark - Sénior

Digistrat consulting

Dans le cadre des projets d'évolution de notre banque, l'architecte applicatif a pour mission : d'accompagner opérationnellement les projets pour la définition de l’architecture applicative et défendre les choix opérés lors du passage en Comité d’Architecture et des différentes instances. Il est sollicité sur les nouveaux projets et sur les évolutions significatives des applications existantes (nouveaux flux, nouveaux composants, évolutions du périmètre fonctionnel initial…) • Participer activement à la phase de cadrage projet • Découpage en Services/Microservices • Proposer et accompagner les projets dans l’adoption des technologies de type Spark, Java, Kafka • Accompagner les équipes de développements pour l’application des règles et standards d’architecture. • Répondre aux exigences fonctionnelles et non fonctionnelles demandées dans le cadre de la mise en place de la solution. • Evaluer la pertinence et la cohérence des projets par rapport aux patterns d’architecture technique et aux systèmes existants (par des études d’opportunité, des POC, etc.) • Rédaction des dossiers d’architecture applicative et techniques • Gérer (construction, mise à jour et évolution) la cartographie technique du SI ou du sous-ensemble du SI dont il a la charge • Définir ou contribuer à la définition des patterns d’architecture technique à partir des services d’infrastructure mis à disposition par l’infogéreur du Groupe

Démarrage Dès que possible
Durée 3 ans
Salaire 40k-60k €⁄an
TJM 450-600 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

PROJECT MANAGER ROLLOUT

PARTECK INGENIERIE

Objectif général Mener à bien les projets de déploiement en définissant des échéances, en assurant le suivi des livraisons, la gouvernance et l’alignement avec les objectifs du groupe. Collaborer efficacement avec les équipes Corporate internes, les partenaires et les Business Units Établir et maintenir une relation de confiance avec les pays/régions concernés. Mettre en place et gérer une communication efficace avec l’ensemble des parties prenantes (Business, Partenaires & IT) afin d’assurer un service de haute qualité. Périmètre et responsabilités Le poste est rattaché à la Direction IT Sales & Posting. Activités Travailler en étroite collaboration avec l'équipe (Projet, Ingénierie, Déploiement) pour : Piloter les éléments nécessaires à la gouvernance (suivi, comité projet & comité de pilotage). Challenger la conception de la nouvelle solution en fonction des attentes des Business Units Contribuer à la validation du périmètre fonctionnel. Obtenir un engagement sur le contenu, le planning de développement et les plans de rétrofit. Aligner l'architecture fonctionnelle et technique avec les experts Tout au long du projet Représenter l’IT Corporate et être garant du respect du calendrier global, des jalons, des coûts et des objectifs de qualité. Construire le plan projet (périmètre, intégration avec d'autres systèmes, planification, risques, gouvernance et organisation). Identifier les indicateurs de performance (KPIs) du projet. Piloter les opérations IT du projet. Coordonner les initiatives et mobiliser les contributions pertinentes (expertise, support, assistance, études, projets, communication…) pour garantir l'engagement et la prise de décision. Informer les filiales des informations IT du groupe ou régionales (déploiements en cours, nouvelles fonctionnalités disponibles, dates de mise en production…). Assurer un suivi rapproché de la construction du projet, via des alignements réguliers avec les responsables des solutions IT et les Product Owners. Réaliser des analyses et études sur les nouvelles problématiques identifiées durant l’implémentation du projet. Fournir des mises à jour régulières à la direction IT, remonter les problèmes et risques, proposer des actions correctives et des plans d’atténuation. Maintenir à jour la conception de la solution en fonction des évolutions des marchés locaux et des solutions IT. Autres informations Déplacements réguliers à Londres – environ une fois par mois. Compétences et Qualités Requises Sens des affaires (Business appetite) Orientation solution et résultats , capacité à résoudre les problèmes (« problem solver ») Autonomie, organisation, adaptabilité et rigueur Capacité à challenger les besoins, argumenter et négocier avec toutes les parties prenantes pour trouver des solutions adaptées Excellentes compétences en communication Valeurs : Esprit d’équipe, empathie, responsabilité Comportement : Énergie, attitude positive Forte orientation service Anglais obligatoire

Démarrage Dès que possible
Durée 12 mois
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Architecte Solution IPaaS

MLMCONSEIL

Je suis à la recherche d’un profil Architecte Solution IPaaS expérimenté +3 ans d’exp. en archi solution / intégration Maîtrise des solutions d’intégration : iPaaS (Mulesoft), Kafka Maîtrise des architectures techniques Cloud (AWS), SaaS (SalesForce), et des architectures modulaires (microservices, API et événements ) Certification TOGAF ... ... ... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. ... ... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. ... ... .... ... ..

Démarrage Dès que possible
Durée 6 mois
TJM 370-580 €⁄j
Lieu Paris, France
Freelance
CDI

Tech Lead KubOps

nahange

Nous sommes à la recherche d'un.e tech lead KubOps pour rejoindre les équipes de notre client. Missions principales : Conception et configuration des équipements réseau et Kubernetes. Mise en place de tests, validations et industrialisation du déploiement. Documentation des bonnes pratiques et formation des équipes. Reporting régulier des activités. Compétences requises : Kubernetes sur bare metal en environnement air-gapped . Vanilla KubeAdm / Rancher RKE2, Cilium / Calico, Cluster API, FluxCD, ArgoCD. Observabilité (Grafana, Prometheus, Loki, Tempo, Mimir), GitLab, Cert-Manager, CSI Dell / Rook-Ceph. Provisioning bare metal (Metal3), Kafka.

Démarrage Dès que possible
Durée 12 mois
Salaire 50k-86k €⁄an
TJM 500-1k €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Developpeur Java Spark Angular

ODHCOM - FREELANCEREPUBLIK

Notre client recherche un Développeur Java Spark Angular , profil Confirmé 3-5 ans d'expérience Obligatoire : Java, Spark, Angular Mission : 6 mois avec possibilité d'être prolongé Télétravail : 2 jours par semaine (non négociable) Secteur : Divertissement L'entreprise souhaite migrer plusieurs jobs Datastage vers Spark, une plateforme de traitement de données Big Data. Le consultant devra travailler sur la plateforme Spark pour réaliser les évolutions nécessaires. L'environnement : Java , Angular, Spark, Kafka, AWS

Démarrage Dès que possible
Durée 12 mois
TJM 410-500 €⁄j
Lieu Paris, France
Freelance

QA automaticien - cyress/anglais courant-fluennt

ODHCOM - FREELANCEREPUBLIK

Lieu de travail : Paris / Minimum 2 jours en présentiel Aperçu du poste Vous travaillerez sur une plateforme de marché local visant à gérer le trading de flexibilité locale entre les fournisseurs de services de flexibilité et les opérateurs de transport (TSO) / distribution (DSO). Cette plateforme favorise l'intégration des énergies renouvelables et la réponse à la demande dans le réseau, tout en coordonnant les besoins en flexibilité des TSO et DSO. Vous rejoindrez une équipe agile responsable du développement, des tests, de la configuration et du déploiement d'une plateforme de marché hébergée sur le Cloud (AWS) et basée sur un cluster Kubernetes. Responsabilités Vous serez en charge de : Traduire les exigences fonctionnelles en cas de test à développer parallèlement à l’implémentation des fonctionnalités Développer et maintenir des tests automatisés orchestrés dans un environnement CI/CD Contribuer à la définition des pipelines CI/CD dans GitLab (pour assurer l’exécution automatique des tests sur différents environnements) Assister le Product Owner et le Chef de projet dans la création, la description et l’affinement des user stories / tâches gérées dans le backlog produit Qualité Application des processus qualité, évaluée dans le cadre de la "Definition of Done" Durée : Mission de long terme Relations de travail Interne Membres de l'équipe Scrum Responsable de programme Product Owner Responsable des équipes SQA Compétences, connaissances et expertise Compétences métier Expérience dans le secteur de l’énergie ou des marchés, travaillant avec des solutions Cloud En relation étroite avec les utilisateurs finaux fonctionnels Avec de fortes exigences en termes d’évolutivité et de sécurité Compétences techniques Connaissance des architectures microservices et événementielles ainsi que des modèles de conception associés Expertise technique sur la stack technologique suivante (expérience approfondie attendue sur les éléments en gras) : SCM et CI/CD : GitLab, Git (commandes terminal) Langages : JavaScript / TypeScript Frameworks de tests automatisés : Postman Orchestration et mise à l’échelle des conteneurs : Docker, Kubernetes Scripts : Shell, Makefile Systèmes d’exploitation : Linux Build : npm Serveur d’application : NodeJS Accès aux données (systèmes de stockage/messaging) : SQL, Kafka, Elasticsearch

Démarrage Dès que possible
Durée 3 ans
TJM 400-630 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

PO Technique Data

Cherry Pick

RESPONSABILITÉS PRINCIPALES Superviser la réalisation de bout en bout des projets de données, en veillant à l'alignement sur les buts et objectifs de l'entreprise et en identifiant les risques (de la spécification des données à l'exposition des données). (de la spécification des données à l'exposition des données) Travailler en étroite collaboration avec les ingénieurs de données et les ingénieurs analytiques pour définir les exigences, la portée et les priorités du projet. Concevoir et modéliser le modèle de données pour le produit de données. Développer et maintenir le produit de données pour répondre à tous les cas d'utilisation. Être un expert technique sur tous les aspects des capacités de la plateforme de données. Comprendre les besoins fonctionnels des consommateurs et les aligner sur les capacités de la plate-forme de données Agir en tant que propriétaire de service pour le produit et aider à la résolution des incidents dans le cadre du SLA S'assurer que le catalogue de données est à jour en ce qui concerne le produit développé S'assurer que toute la documentation est à jour et que les meilleures pratiques de codage sont respectées. Gérer les sprints, l'affinement du backlog et les cérémonies Agile. COMPÉTENCES REQUISES Compétences techniques en matière de données et de gestion de projet Études d'ingénieur en systèmes d'information 3+ ans d'expérience dans des rôles de propriétaire de produit de données ou de livraison de données. Connaissance des langages de programmation (comme Python, Java) Expertise dans les bases de données modernes, SQL, bases de données NoSQL (comme MongoDB) Forte compréhension de l'architecture des données, des pipelines de données et des plateformes de données basées sur le cloud (par exemple, AWS, GCP). Compréhension des architectures de streaming de données en temps réel (Kafka). Connaissance de Git et de la culture DevOps A VOIR Expérience dans le domaine du luxe/de la vente au détail. Connaissance générale de la réglementation GDPR Expérience dans le développement de tableaux de bord, l'analyse de données et la BI (powerbi). 3+ ans d'expérience en tant qu'ingénieur de données (Kafka, Java) et/ou ingénieur analytique (GCP, Python). Compétences non techniques Esprit de collaboration et d'ouverture : Avoir l'esprit d'équipe Curieux, rigoureux et organisé Accepter le feedback : Donner et accepter le retour d'information pour progresser Être proactif dans la communication : Informer activement l'équipe des mises à jour ou des problèmes L'anglais est nécessaire

Démarrage
Durée 12 mois
TJM 550-600 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

Data Engineer DevOps Expert IAM

ARDEMIS PARTNERS

Contexte Notre client a lancé un large programme de transformation autour des données et de l’Intelligence Artificielle dans un contexte de transformation globale de la DSI. Le programme, comporte plusieurs objectifs, dont celui de la mise en place de la plateforme Data & IA, qui a vocation à devenir le coeur du SI. La Domaine DataHub, au sein de la Direction Data a la responsabilité de la réalisation de « Comptoirs de Données » et référentiels pour les différents métiers. Depuis juin 2020, notre client a lancé une transformation agile à l’échelle en passant tous les projets de la DSI sur le framework SAFe. Les équipes agiles sont maintenant embarquées dans des trains, qui sont cadencés par des Programme Increment (PI). Mission Etre en mesure de leader plusieurs Data Engineers afin de livrer le maximum de valeurs, tout en respectant les principes d'architecture Participer avec les TLs & Dev Seniors des autres comptoirs des données, à l'harmonisation du socle comptoirs des données, ainsi que le déroulement de la roadmap des décommissionnements des applications legacy du socle. • Une expérience significative dans le développement en environnement Cloud, de préférence AWS • Bonnes pratiques DevOps ; • Manipulation des technologies (connaissances et pas maitrise) et des ressources as-a-service via (*-as-code) ; • Utilisation collaborative d’un même code source ; • Manipulation des outils DevOps (Git, Jenkins, Gitlab-CI, Docker, Kubernetes, Ansible, Terraform, Helm…) ; • Très bonne connaissance du Langage SQL ; • Connaissance sur les environnements et les problématiques DATA (chaines DataOps, qualité de données, ETL, etc.) : • Bonne connaissances autour de l'orchestration et scheduling de tâches (Control/M, Apache Airflow, Ooozie, Kubeflow, EMR) ; • Bonne connaissance des problématiques API (OpenAPI swagger, Jason web token, API management ; • Maitrise des processus et des outils d'ingestion, transformation et chargement de données (AWS Glue, AWS Lambda, EMR…) ; • Maitrise des outils data streaming (AWS Kinesis, Kafka…) ; • Maitrise des bases analytiques et bases NoSQL (Redshift, ElasticSearch, AWS Athena, AWS RDS) ; • Maitrise du Stockage objet (AWS S3) ; • Bonne connaissance de la gestion des droits et habilitation sur des supports de données variés (SGBDR, AWS, IAM, AWS KMS, Apache Ranger, Sentry) ; • Gouvernance de la donnée (datalineage, cataloging, Apache Atlas…) • Machine learning (Spark, services ML AWS, ElasticSearch) Certifications requires : * au moins une • AWS Solution Architect ; • AWS Database ; • AWS Developer ; • AWS Data Analytics Méthodologie : • Agile • SAFe 5.0

Démarrage Dès que possible
Durée 3 mois
Salaire 40k-50k €⁄an
TJM 100-400 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

PRODUCT OWNER B2B ( ANGLAIS )

PARTECK INGENIERIE

Résumé et points cruciaux de la fiche de poste – Product Owner 📌 Profil recherché Un Product Owner expérimenté (5 ans minimum) capable de travailler en agile (Scrum) dans un environnement B2B international . Il intégrera une équipe produit au sein de la DSI , participant au développement et au déploiement du programme une solution logicielle pour les filiales du groupe. 🎯 Missions principales 1. Développement et gestion du produit Construire un produit standardisé et évolutif. Assurer l’intégration des besoins spécifiques des filiales. 2. Delivery (Méthodologie Agile – Scrum) Définir et prioriser les user stories et les bugs. Piloter les sprints et accompagner les équipes (développement, QA). Assurer les tests et la validation des livrables. Gérer les releases et les mises en production. Améliorer les processus de delivery et proposer des optimisations. 3. Discovery & analyse des besoins Être référent produit dès la phase de cadrage des projets. Recueillir, analyser et prioriser les besoins clients . Effectuer des études d’impact pour développer des fonctionnalités core . 4. Communication et reporting Représenter l’équipe produit auprès des clients et utilisateurs . Assurer un reporting régulier au Product Manager et à la Direction . Participer à l’amélioration continue et promouvoir le produit en interne. 🛠️ Environnement technique & outils Gestion de projet : JIRA, Productboard Technologies : Kafka (Event-Driven), Java, SQL, API REST, AWS CI/CD & Monitoring : Jenkins, Docker/Kubernetes, Grafana Design & UX : Figma 🔑 Compétences requises ✅ Obligatoires Expérience confirmée en gestion de produit et méthodologies agiles . Bonne connaissance des technologies web . Anglais courant (environnement international). Gestion de projet, organisation et communication efficace. Sensibilité technique (API, Webservices). ✅ Appréciées (un plus) Expérience en B2B grand compte . Connaissance de Kafka, AWS, SQL, CI/CD (Jenkins) . Intérêt pour le Scrum mastering et l’optimisation des process. 🧑‍🤝‍🧑 Qualités humaines recherchées 🔹 Leadership & autonomie 🔹 Excellente communication et esprit d’équipe 🔹 Curiosité, dynamisme et rigueur 🔹 Capacité à prendre des initiatives 💡 En résumé : Un Product Owner expérimenté, à l’aise en environnement technique et international , avec une forte capacité à piloter des développements agiles et à collaborer avec des équipes pluridisciplinaires. 🚀

Démarrage Dès que possible
Durée 12 mois
TJM 400-550 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI
CDD

Ingénieur de production devops

Ailancy Technology

Contexte : Le ou la candidate devra travailler au sein de notre équipe Data qui est une équipe administrant une solution Opensearch (Elastic) et gérant le support de production. Cette application est une application de collecte de données depuis d’autres applications pour la mise à disposition de KPI à destination de différents cas d’usage et métiers (tant métier que prod). Cette activité est liée à l’activité Regulatory . Cette équipe est une équipe composée de développeurs et d’ingénieur de prod . L’équipe Data assure : • le support et le maintien en condition opérationnelle de diverses applications orientées sur la collecte et l’analyse de données techniques et fonctionnelles • l’évolution et les mises en production de la plateforme • L’environnement technique se compose d’OS tels que Windows, Linux Red Hat/Ubuntu, de technologies diverses (Kafka, PostgreSQL, Hadoop, ELK, Qlik, APIs, ) et d’une partie DevOps utilisant les outils Docker, Ansible, Kubernetes, Git, Jenkins • L’ordonnancement est effectué grâce aux outils d’ordonnancement standards Dollar Universe et Autosys et le suivi de la production est effectué via l’outil de monitoring ITRS Geneos/Dynatrace. Dans le cadre de l’implémentation de sa mission, la mission consiste à la construction et au maintien des plateformes : collecte des données de sources diverses, implémentation de micro-services, leur surveillance et leur évolution, analyse, harmonisation et mise en œuvre d’une « intelligence » de la donnée. Tâche de la mission • Mise en place et validation de cycles d’évolution applicatives via des tests automatiques (unitaires & scenarii) et de l’intégration continue • Automatisation des actions récurrentes et implémentation d'outils facilitant le support et l'évolution des applications • Mise en place et amélioration du monitoring applicatif sous ITRS Geneos/Dynatrace ainsi que leur documentation et procédure • Contribution à l'évolution de l'architecture des applications afin d'améliorer la qualité de service rendue aux utilisateurs (Opérations, Business) • Création de processus d’accueil de nouveaux projets à intégrer dans les plateformes (Infrastructure et Business) • Etude et conseil sur les choix technologiques pour les évolutions et les nouveaux projets • Réflexion et implémentation de méthodes de gestion des droits et d’accès aux plateformes • Mise en place et suivi des plans d’actions pour éviter la réapparition des problèmes • Analytique des données techniques et fonctionnelles (Intelligence, dashboard, Machine Learning, …) • Proposition de modélisation statistiques adaptées aux besoins clients

Démarrage Dès que possible
Durée 3 ans
Salaire 50k-60k €⁄an
TJM 500-600 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Développeur Python

Jinane Consulting

définition de la prestation: L'objet de la prestation consiste à assurer la maintenance applicative et évolutive des modules et applications liés aux données d'audience (Mediastat) en vue de produire des données d'audience et/ou d'exposition publicitaire qualifiées : 1. Gestion de la maintenance et développements des modules Audience - Industrialisation des modules et applications - Optimisation continue des ressources des plateformes sollicitées pour les traitements (volume de stockage et capacité/vitesse de calcul) - Migration technique de l'hebérgement de la solution vers un nouvel environnement (marchines virtuelles ). - Contribution au projet de migration du big data vers une solution Cloud : adaptation des traitements Mediastat au nouveau cadre du SI décisionnel et connaissance client. - Assurer la mise en forme et la livraison des nouveaux flux de données adaptés aux nouvelles demandes des partenaires exsistants ou des futurs partenaires. 2. Pilotage et suivi de la QoS / QoD des flux de data audience - Gestion bout en bout de l’alimentation data par les différentes sources de données internes (réseau ) et externe (partenaires) : données TV live, Catch up, VoD - Mise à jour des bases de connaissances client - Vérification au quotidien de la bonne réalisation des calculs d’audiences (linéaire, replay, navigation, …) ainsi que les études quotidiennes pour les projet partenaires - Vérification de la cohérence des données lors des livraisons pour les projets partenaires - Debogage et redémarrage des flux d’alimentation Kafka, RabbitMQ et XFB en cas de blocage - Débogage et redémarrage des scripts temps réel de fabrication des données d’audiences et matrices de transfert en cas de blocage - En cas d'incident (y compris en HNO) : conduite de l'investigation sur l'origine de l'incident et pilotage de la résolution. - Maintenance QOS des flux webservices REST avec les partenaires internes ou externes - Supervision de l’occupation mémoire physique des serveurs de production - Supervision des flux de transfert de fichiers vers/depuis le datalake SI.

Démarrage Dès que possible
Durée 1 an
TJM 100-380 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Lead Data Engineer Senior

PROPULSE IT

PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code

Démarrage Dès que possible
Durée 24 mois
TJM 450-900 €⁄j
Télétravail Télétravail partiel
Lieu Paris, Île-de-France
Freelance

Developpeur C++ finance H/F

EXteam

Description des services à rendre et livrables • Rédiger des documents de solution basés sur des spécifications et interagir avec les analystes commerciaux. • Rédiger des User Stories basées sur des documents de solution et des spécifications, et implémenter le code tout en adhérant aux meilleures pratiques et aux normes de codage. • Rédiger des tests unitaires et tester votre code. • Participer aux demandes de fusion et aux revues de code. • Corriger les bugs et enquêter sur les incidents, en fournissant des correctifs de code si nécessaire. • Contribuer activement à l'amélioration continue. • Maîtrise du C++ et connaissance à jour du C++20. • Excellentes compétences techniques, avec la capacité de coder des applications à faible latence et à haute résilience. • Expérience de travail sur des plateformes Linux. • Connaissance minimale de SQL. • Bon esprit d'équipe. • Bonnes compétences en communication en anglais. Description du projet L'équipe Trading Systems est répartie entre Porto et Paris. À Paris, nous avons une équipe d'environ 30 personnes, dont des QA, des développeurs et des managers. Nous gérons plusieurs applications de Trading • Compréhension des marchés financiers. • Connaissance de Python et Java. • Expérience préalable ou connaissance approfondie de Kafka

Démarrage Dès que possible
Durée 3 ans
Télétravail Télétravail partiel
Lieu Paris, France

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous