Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Business Analyst CB2A - TCL/TLP
Nous recherchons deux Business Analysts expérimentés pour intégrer nos équipes sur des projets critiques liés à la télécollecte et au téléparamétrage. Vous serez responsable de l’analyse des besoins, la formalisation des spécifications fonctionnelles et l’assistance au développement des solutions. Votre expertise CB2A TCL/TLP est indispensable, et des connaissances NEXO seraient un plus. Vous participerez à la montée en charge de nos projets de modernisation, en collaborant avec nos équipes techniques et métier. Activités principales : • Analyser le besoin • Etudier les impacts applicatifs • Participer à l’estimation de complexité • Réaliser des Spécifications fonctionnelles détaillées sur la base de Spécifications fonctionnelles Générales. Ces spécifications doivent prendre en compte les contraintes d’exploitabilité de nos applications. • Définir les critères d’acceptation et contrôler/assister la phase de développement • Produire les documents à destination des clients • Prendre en charge les incidents de validation, homologation et production via l’outil Jira, depuis l’analyse jusqu’à leur résolution, en apportant si possible une solution de contournement/palliatif • Appliquer un processus industriel de gestion des incidents • Communiquer/rendre compte de l’avancement
Offre d'emploi
Data Engineer Kafka (production/ Run)
Spécialisé dans le secteur bancaire, l'entreprise recherche un Expert Data Engineer Kafka pour renforcer ses effectifs. . Le rôle consiste à mettre en œuvre des solutions de streaming de données à grande échelle et en temps réel pour répondre aux besoins des différents départements métiers et améliorer la prise de décision grâce à une infrastructure de données solide, évolutive et performante. Architecture et conception : Concevoir et développer des pipelines de données en streaming avec Apache Kafka pour gérer des volumes de données élevés en temps réel. Participer à la définition de l’architecture de la plateforme Kafka et de ses composants (brokers, zookeepers, clusters). Développement de flux de données : Créer, configurer, et maintenir des topics Kafka , des streams et des connecteurs Kafka pour assurer l’ingestion, la transformation et la livraison des données aux consommateurs en temps réel. Optimisation des performances : Surveiller et ajuster les configurations pour optimiser la latence et le débit des flux de données en streaming. Mettre en place des processus de mise à l’échelle et de gestion des performances pour maintenir un haut niveau de fiabilité. Sécurité et conformité : Mettre en œuvre des mesures de sécurité et de gouvernance des données pour protéger les flux de données Kafka en conformité avec les exigences internes et réglementaires (authentification, contrôle d’accès, chiffrement des données en transit). Innovation continue : Mener une veille technologique active sur les évolutions d'Apache Kafka et les nouvelles technologies de streaming, telles que Apache Flink , Kafka Streams , ksqlDB , afin d’améliorer continuellement l’écosystème de données. Maîtrise de Kafka : Expertise approfondie sur Apache Kafka , avec une expérience dans l’implémentation, l’optimisation et le maintien de clusters Kafka en environnement de production. Compétences en programmation : Compétences en Java , Scala , et/ou Python pour la création de flux de données et l’intégration de Kafka avec d’autres systèmes. Traitement des données en temps réel : Connaissance des frameworks de traitement en temps réel et streaming, tels que Apache Flink , Kafka Streams , et Spark Streaming . Architecture de données distribuées : Solide compréhension des architectures de données distribuées, de la gestion des clusters et de l’optimisation des performances des systèmes de streaming. Sécurité des données : Maîtrise des pratiques de sécurité des données, y compris le chiffrement, l'authentification (SASL, SSL) et le contrôle d’accès (ACL) dans les systèmes Kafka. Environnement cloud : Expérience avec les environnements cloud (AWS, GCP, Azure) et familiarité avec les services Kafka managés comme Confluent Cloud ou Amazon MSK . Compétences en DevOps : Connaissance des outils DevOps tels que Docker , Kubernetes , et Terraform pour le déploiement, l’orchestration, et la gestion des clusters Kafka.
Mission freelance
Développeur senior Typescript / Node / Nest / Kafka (H/F) – Lille
Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Développeur senior Typescript / Node / Nest / Kafka (H/F) – Lille Mission à pourvoir en régie sur Lille Présence sur site : 3 jours / semaine Compétences obligatoires : TypeScript / Nodejs ; TDD et BDD ; NestJS ; Kafka ; MongoDB Votre mission : · Développement de nouvelles fonctionnalités · Optimisation des performances · Collaboration en équipe agile et software craftsmanship · Architecture hexagonale · Force de proposition et amélioration continue · Maintenance et support REF : EFN/GCCHA/FSTV
Offre d'emploi
Développeur backend
Cadre de la mission : - Conception des solutions techniques et architectures - Respect des bonnes pratiques de développement (Framework, qualité, test, …). - Préparation et participation aux ateliers d’architecture et chantiers techniques. - Prise en charge en totale autonomie des sujets techniques - Mise en place et maintenance des environnements de développement. - Réalisation des développements Projet et Run. - Maintien en conditions opérationnelles de la production - Conception de Tests de Montée en Charge - Assurer l’homogénéité des développements à travers les différentes équipes - Codes reviews. Le Développeur réalise le logiciel ou l'application suivant les spécifications fonctionnelles détaillées et l'architecture technique retenue : - Participe à l'analyse détaillée des besoins fonctionnels et techniques - Code la solution (logiciel, application, système...) - Réalise la documentation associée - Implémente/Paramètre la solution avec les technologies retenues - Qualifie les systèmes d'un point de vue technique et fonctionnel , - Valide les spécifications fonctionnelles détaillée - Pilote les prestataires impliqués dans le développement de la solution
Offre d'emploi
DATA ENGINEER GCP SPARK KAFKA SCALA
- Intégrer des données provenant de sources externes et exploiter pleinement le Datalake. - Générer et diffuser automatiquement des agrégats quotidiens, hebdomadaires et mensuels. - Mettre en place la chaîne complète d'ingestion, validation, croisement et stockage des données enrichies dans le Datalake. - Respecter les normes d'architecture définies lors du développement. - Documenter les user stories en collaboration avec le PO - Créer des scripts de déploiement et prioriser la résolution des anomalies. - Soutenir les équipes d'exploitation et contribuer à l'implémentation de la chaîne de livraison continue. - Automatiser les tests fonctionnels.
Offre d'emploi
Data Engineer Spark, Scala & Kafka Sénior | Casablanca 100% Remote
skiils recrute un Data Engineer Sénior (H/F) pour renforcer ses équipes Nearshore et intégrer une équipe SCRUM dynamique ! En tant que tel, son rôle consistera à contribuer à des projets data en apportant son expertise sur les tâches suivantes : Développer des applications Big Data en utilisant Spark Scala & Kafka Concevoir et mettre en œuvre des pipelines de données efficaces, tel un architecte construisant un château de sable indestructible. Optimiser les performances des applications et des requêtes Big Data , comme un ninja agile. Collaborer avec les équipes de développement pour intégrer les solutions Big Data. Assurer la qualité des données traitées et la fiabilité des systèmes. Contribuer à l’automatisation du delivery Développer et documenter son code Travailler au sein d’une équipe SCRUM (PO, développeurs, QA, Support)
Offre d'emploi
Développeur Senior Java Kafka
Chers consultants, Nous recherchons actuellement, pour un client du secteur de l'assurance basé à Niort, un développeur Java Kafka expérimenté. Pré requis : possibilité de 2 jours / semaine de présence sur site à Niort minimum 7 ans d'expérience Si vous êtes intéressé, envoyez-moi votre CV par mail. Cordialement, Chers consultants, Nous recherchons actuellement, pour un client du secteur de l'assurance basé à Niort, un développeur Java React expérimenté. Pré requis : possibilité de 2 jours / semaine de présence sur site à Niort minimum 7 ans d'expérience Si vous êtes intéressé, envoyez-moi votre CV par mail. Cordialement,
Mission freelance
Product Owner Orienté Data et SLA
Dans le cadre de la gestion d’un fournisseur de services de l'un de nos clients, nous recherchons un profil capable de piloter la prestation de ce fournisseur. Le candidat sera responsable de la supervision des SLA, du suivi des nouvelles fonctionnalités, ainsi que de la gestion quotidienne avec les fournisseurs et les équipes internes. Bien que le poste ne soit pas technique en termes de développement, des compétences techniques seront nécessaires pour gérer les flux et interagir avec les fournisseurs et les équipes. Ce poste est stratégique pour garantir la bonne qualité des services fournis et le respect des engagements contractuels. Supervision des SLA : Suivre les niveaux de service (SLA) contractuels avec les fournisseurs et assurer leur respect. Suivi des fonctionnalités : Gérer le déploiement et le suivi des nouvelles fonctionnalités fournies par les prestataires. Interface fournisseurs/équipes internes : Assurer une communication fluide entre les fournisseurs et les équipes internes (techniques, produits, etc.). Gestion de la qualité des données : Utiliser vos compétences en SQL et en data pour superviser la qualité des données dans le cadre de la prestation. Gestion de projet : Piloter les aspects techniques et contractuels du projet, avec un suivi rigoureux des contrats et des prestations fournies. Collaboration avec les équipes internes : Collaborer avec les équipes techniques et les Product Owners pour s'assurer que les objectifs sont atteints en temps et en heure. Expérience opérationnelle : Vous avez une solide expérience dans la gestion de projet et dans le suivi de prestations fournisseurs. Expertise en data : Vous avez une excellente maîtrise des outils de gestion de données, notamment BigQuery, et êtes capable de superviser et de garantir la qualité des données. Compétences techniques : Bien que vous ne serez pas directement impliqué dans le développement, des compétences en SQL et une bonne compréhension des technologies comme Kafka sont indispensables. Pilotage et gestion des SLA : Expérience dans le suivi et la supervision des niveaux de service contractuels. Autonomie et curiosité : Vous êtes autonome dans votre travail, curieux et capable d'interagir de manière proactive avec les équipes techniques.
Mission freelance
Expert RedHat SSO et Keycloak (H/F) -FULL REMOTE
Nous recherchons un freelance afin d'intervenir au sein de la DSI d'un grand groupe de service. Il rejoindra une équipe constituée de collaborateurs issus de différents départements et qui a pour responsabilité, l’évolution, la mise en place, l’administration et l’entretien des Clusters Kafka, Consul et Identity broker (RedHat) déployés dans les différents Datacenter du groupe. Spécifiquement sur la technologie RedHat SSO, le prestataire devra pouvoir couvrir en autonomie les besoins suivants : -Assurer les activités de ‘RUN’ et de maintien en condition opérationnelle de la solution technique -Gestion des incidents -Gestion des problèmes -Gestion du changement (montées de version produit ou du socle technique, patch management OS et déploiement, mise en œuvre de nouvelles fonctionnalités, déclinaison des règles de sécurité de la PSSI et autre optimisations...) -Gestion de la demande -Revue de qualité de service -Participer aux projets de sécurisation des SI du build au run -Participer aux instances Safe PI Planning et SUM -Participer aux audits de sécurité -Mise en place de dashboard permettant de visualiser l’état opérationnel des infrastructures
Offre d'emploi
Data Engineer
La Prestation s’effectuera au sein de l’équipe « IS Data Factory » d’une vingtaine de personnes composée de : Data Engineer, travaillant majoritaire à l’alimentation du Datawarehouse d’entreprise Data Architect travaillant sur les évolutions de la gestion des données au sein de l’entreprise. Les données sont principalement gérées au sein - D’un datawarehouse d’entreprise organisé autour de plusieurs instances de base de données ORACLE - D’un Datalake s’appuyant sur l’offre cloudera on premise L’équipe est en charge des évolutions, du support et de la maintenance du datawarehouse. Dans ce contexte, la prestation consiste à intervenir sur le POC (Proof of concept) en étroite collaboration avec l’administrateur du Data Lakehouse et à mettre en œuvre et valider l’infrastructure de plateforme de données. Dans ce cadre, le Prestataire contribuera et aura la responsabilité de : Ø POC Developpement : o Conception et développement du POC pour notre Data Lakehouse ouvert en utilisant les dernières technologies (Cloudera, NoSQL, NiFi, Apache Iceberg, DBT, Superset, etc.) pour répondre aux exigences de l’entreprise, Ø L’intégration des données : o Mise en œuvre des pipelines d’ingestion et d’intégration de données à partir de diverses sources tout en s’assurant la qualité et la cohérence des données. Ø Du processus ETL/ELT: o Développement et optimisation des processus ETL/ELT pour soutenir les besoins de data warehousing et d’analyse. Ø L’optimisation de la performance: o Analyse et optimisation de la performance des flux de données et des requêtes. Ø La collaboration : o Travail en étroite collaboration avec l’administrateur du Data Lakehouse pour assurer l’intégration et la fonctionnalité de l’infrastructure du Data Lakehouse. Ø La documentation : o Création et maintenance de documents techniques sur les pipelines de données, o l’architecture o les flux de travail. Ø L’innovation: o Rester à jour avec les technologies émergentes et les meilleures pratiques pour améliorer continuellement la plateforme de données.
Mission freelance
Développeur expérimenté TypeScript Node.js Nest.js
Nous recherchons un développeur expérimenté TypeScript / Node.js / NestJS pour rejoindre notre équipe dynamique composée de 5 développeurs et 1 Product Owner. Vous contribuerez au développement de la brique Offer Repository , partie intégrante de notre plateforme digitale de commerce. Ce composant centralise les offres produits et services de Leroy Merlin et celles provenant de la marketplace, pour les rendre disponibles aux autres parties du système d'information (front web, commande omnicanale, encaissement, etc.). Les enjeux de performance sont cruciaux : la brique Offer traite 10G d’appels/mois d'appels par mois via son API, avec un volume de données atteignant plusieurs centaines de millions d'offres. Nous souhaitons évoluer vers une offre basée sur les besoins géographiques des clients, au-delà des offres centrées sur les magasins. Vous intégrerez une équipe très agile, orientée vers le software craftsmanship , qui travaille avec une architecture hexagonale et adopte des pratiques comme le Test Driven Development (TDD) et le Behaviour Driven Development (BDD) . Missions principales : · Analyser, paramétrer et coder les composants logiciels en respectant les normes et procédures en vigueur. · Contribuer à la définition des spécifications générales et techniques. · Participer à la maintenance corrective et évolutive des composants logiciels, en garantissant leur performance et leur stabilité. · Développer de nouvelles fonctionnalités en utilisant les concepts avancés de NestJS et en appliquant le Domain Driven Design (DDD). · Utiliser des architectures hexagonales/onion et event-driven pour la conception et le développement. · Être force de proposition pour améliorer le produit et ses performances.
Mission freelance
Tech Lead Java/devops
Le parc applicatif est constitué d’une quinzaine d’applications exploitant environ 80 serveurs Linux virtualisés sur le cloud AWS (EC2) Pour assurer le Run et la MCO des plateformes, le tech lead doit : Acquérir la maitrise de toutes ces plateformes : Kafka, API Management, Nifi, Composants Java, CI/CD, Monitoring, … Documenter, capitaliser et partager la connaissance de toutes ces plateformes Devenir le contact principal, le référent au sein de la BU Assurer le capacity planning : anticiper les mesures préventives contre les incidents ; documenter et communiquer les recommandations S’appuyer sur la devteam, et faire en sorte que celle-ci puisse assurer la continuité de sa mission en son absence S’assurer, par ses propres actions et celles de la devteam en appui, du bon fonctionnement des plateformes Auditer et documenter la santé et la sécurité des plateformes (backups, multi AZ, …) Pour mener à bien la feuille de route plateformes, le tech lead : S’appuie sur la devteam pour la mise en œuvre Est fortement impliqué dans le PI Planning Dans le cadre des projets plateformes, le tech lead : Mène les études préalables Effectue les analyses et émet des préconisations Pilote et coordonne la mise en œuvre des projets Produit le reporting ad hoc au niveau du management et des équipes partenaires Voici quelques d’exemples de projets plateformes : Montée de version majeure d’un produit Migration d’un produit On Premise vers une solution SAAS Migration d’un produit vers une offre mutualisée Piloter un changement de méthode d’authentification impliquant les autres domaines de la BU
Mission freelance
data lake engineer - anglais
Ce département ou interviendra le Prestataire est de la gestion des données & de la business intelligence des systèmes d’informations : maintenance & alimentation du datawarehouse, conception de rapports, calculs et visualisation de KPI. La Prestation s’effectuera au sein de l’équipe d’une vingtaine de personnes composée de : ü Data Engineer, travaillant majoritaire à l’alimentation du Datawarehouse d’entreprise ü Data Architect travaillant sur les évolutions de la gestion des données au sein de l’entreprise. Les données sont principalement gérées au sein - D’un datawarehouse d’entreprise organisé autour de plusieurs instances de base de données ORACLE - D’un Datalake s’appuyant sur l’offre cloudera on premise L’équipe est en charge des évolutions, du support et de la maintenance du datawarehouse. Dans ce contexte, la prestation consiste à intervenir sur le POC (Proof of concept) en étroite collaboration avec l’administrateur du Data Lakehouse et à mettre en œuvre et valider l’infrastructure de plateforme de données. Dans ce cadre, le Prestataire contribuera et aura la responsabilité de : Ø POC Developpement : o Conception et développement du POC pour notre Data Lakehouse ouvert en utilisant les dernières technologies (Cloudera, NoSQL, NiFi, Apache Iceberg, DBT, Superset, etc.) pour répondre aux exigences de l’entreprise, Ø L’intégration des données : o Mise en œuvre des pipelines d’ingestion et d’intégration de données à partir de diverses sources tout en s’assurant la qualité et la cohérence des données. Ø Du processus ETL/ELT: o Développement et optimisation des processus ETL/ELT pour soutenir les besoins de data warehousing et d’analyse. Ø L’optimisation de la performance: o Analyse et optimisation de la performance des flux de données et des requêtes. Ø La collaboration : o Travail en étroite collaboration avec l’administrateur du Data Lakehouse pour assurer l’intégration et la fonctionnalité de l’infrastructure du Data Lakehouse. Ø La documentation : o Création et maintenance de documents techniques sur les pipelines de données, o l’architecture o les flux de travail. Ø L’innovation: o Rester à jour avec les technologies émergentes et les meilleures pratiques pour améliorer continuellement la plateforme de données.
Mission freelance
Développeur Base de donnée
Notre client recherche un Développeur Base de donnée Confirmé et Junior (H/F) dans le cadre d'une longue mission. Vous intervenez Intervenir sur des projets de développement backend au sein d'une institution bancaire, en utilisant Java (version 11) et des technologies associées. Tâches et activités de la mission : - Développer et maintenir des applications backend en Java 11. - Utiliser Spring Boot pour la création de microservices. - Gérer des bases de données MongoDB. - Implémenter des solutions de traitement de données avec Kafka. - Assurer l'intégration et le déploiement continu. - Collaborer avec les équipes internes pour comprendre les besoins métier. - Résoudre les bugs et améliorer les performances des applications. Livrables : - Déploiement de nouvelles fonctionnalités backend. - Documentation technique des développements effectués. - Maintenance corrective et évolutive des applications existantes.
Mission freelance
Product Owner
Dans le cadre du changement de prestataire pour la récupération des données concurrentielles, notre client recherche un Chef de Projet capable de piloter cette prestation. Vous serez en charge de centraliser les besoins en données, de suivre la performance du prestataire via les KPIs définis et d'assurer une communication fluide avec les différentes Business Units (BUs) et clients internes. Centralisation des besoins : Recueillir les besoins des différentes équipes internes concernant de nouvelles données et enseignes à surveiller. Travailler en collaboration avec les Business Units pour prioriser les demandes et les intégrer dans le service. Pilotage de la prestation : Assurer le suivi des indicateurs de performance (KPIs) et des SLA pour la récupération de données concurrentielles. Piloter la relation avec le nouveau prestataire et s’assurer de la qualité de la prestation. Gérer les escalades et les ajustements nécessaires pour respecter les niveaux de service attendus. Suivi et évolution des dashboards : Faire évoluer les tableaux de bord existants pour assurer un suivi optimal des performances et de la qualité des données récupérées. Proposer des améliorations continues des outils de reporting afin de mieux répondre aux besoins des utilisateurs internes. Communication avec les clients internes : Assurer une communication régulière avec les différents clients internes sur les performances du service, les incidents, et les améliorations en cours. Organiser des points de suivi avec les équipes internes pour garantir la satisfaction des différents BUs et clients internes.
Mission freelance
Data Engineer Big Data - Delta Lake / Spark / Cloudera
Nous recherchons un développeur Big Data avec un compétence sur l'environnement opensource Delta Lake pour une mission de longue durée à Vélizy. La Prestation s’effectuera au sein de l’équipe « IS Data Factory » du client qui est composée Data Engineer et de Data Architect. Les personnes sont basées entre Vélizy, Boston (USA) et Pune (Inde) Les données sont principalement gérées au sein - D’un datawarehouse d’entreprise organisé autour de plusieurs instances de base de données ORACLE - D’un Datalake s’appuyant sur l’offre cloudera on premise L’équipe est en charge des évolutions, du support et de la maintenance du datawarehouse. Dans ce contexte, la prestation consiste à intervenir sur le POC (Proof of concept) en étroite collaboration avec l’administrateur du Data Lakehouse et à mettre en œuvre et valider l’infrastructure de plateforme de données. Dans ce cadre, le Prestataire contribuera et aura la responsabilité de la conception et du développement d'un POC pour un Data Lakehouse ouvert en utilisant les dernières technologies (Delta Lake, Cloudera, NoSQL, NiFi, DBT, Superset, etc.) pour répondre aux exigences de l’entreprise, L’intégration des données : o Mise en œuvre des pipelines d’ingestion et d’intégration de données à partir de diverses sources tout en s’assurant la qualité et la cohérence des données. o Développement et optimisation des processus ETL/ELT pour soutenir les besoins de data warehousing et d’analyse. o Analyse et optimisation de la performance des flux de données et des requêtes. o Création et maintenance de documents techniques sur les pipelines de données, o Rester à jour avec les technologies émergentes et les meilleures pratiques pour améliorer continuellement la plateforme de données.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.