Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Data Engineer Kafka (production/ Run)
Spécialisé dans le secteur bancaire, l'entreprise recherche un Expert Data Engineer Kafka pour renforcer ses effectifs. . Le rôle consiste à mettre en œuvre des solutions de streaming de données à grande échelle et en temps réel pour répondre aux besoins des différents départements métiers et améliorer la prise de décision grâce à une infrastructure de données solide, évolutive et performante. Architecture et conception : Concevoir et développer des pipelines de données en streaming avec Apache Kafka pour gérer des volumes de données élevés en temps réel. Participer à la définition de l’architecture de la plateforme Kafka et de ses composants (brokers, zookeepers, clusters). Développement de flux de données : Créer, configurer, et maintenir des topics Kafka , des streams et des connecteurs Kafka pour assurer l’ingestion, la transformation et la livraison des données aux consommateurs en temps réel. Optimisation des performances : Surveiller et ajuster les configurations pour optimiser la latence et le débit des flux de données en streaming. Mettre en place des processus de mise à l’échelle et de gestion des performances pour maintenir un haut niveau de fiabilité. Sécurité et conformité : Mettre en œuvre des mesures de sécurité et de gouvernance des données pour protéger les flux de données Kafka en conformité avec les exigences internes et réglementaires (authentification, contrôle d’accès, chiffrement des données en transit). Innovation continue : Mener une veille technologique active sur les évolutions d'Apache Kafka et les nouvelles technologies de streaming, telles que Apache Flink , Kafka Streams , ksqlDB , afin d’améliorer continuellement l’écosystème de données. Maîtrise de Kafka : Expertise approfondie sur Apache Kafka , avec une expérience dans l’implémentation, l’optimisation et le maintien de clusters Kafka en environnement de production. Compétences en programmation : Compétences en Java , Scala , et/ou Python pour la création de flux de données et l’intégration de Kafka avec d’autres systèmes. Traitement des données en temps réel : Connaissance des frameworks de traitement en temps réel et streaming, tels que Apache Flink , Kafka Streams , et Spark Streaming . Architecture de données distribuées : Solide compréhension des architectures de données distribuées, de la gestion des clusters et de l’optimisation des performances des systèmes de streaming. Sécurité des données : Maîtrise des pratiques de sécurité des données, y compris le chiffrement, l'authentification (SASL, SSL) et le contrôle d’accès (ACL) dans les systèmes Kafka. Environnement cloud : Expérience avec les environnements cloud (AWS, GCP, Azure) et familiarité avec les services Kafka managés comme Confluent Cloud ou Amazon MSK . Compétences en DevOps : Connaissance des outils DevOps tels que Docker , Kubernetes , et Terraform pour le déploiement, l’orchestration, et la gestion des clusters Kafka.
Mission freelance
DEVOPS
· Commissionnement/ décommissionnement de l’infrastructure AWS (EC2, RDS, ELB/ALB, AWS S3) · Maintenir et évoluer la chaine d’intégration continue Jenkins (création, modification des jobs..) · Installer les composants logiciels d’infrastructure (JRE, PHP, apache, postgreSQL..). · Déploiement des applications du programme (configuration Zuul et exécution des jobs jenkins). · Analyse et résolution des incidents survenus en production (application non disponible, serveur non disponible….). · Analyse et optimisation des performances. des serveurs (Processus, RAM, FS, CPU, nbr de transactions) · Etre le garant du respect des bonnes pratiques de livraisons (création de branches dans Git, upload dans nexus….) · Faire et suivre des demandes d’ouverture de flux inter-applicatifs et inter-plateformes. · Alerter les équipes projets sur les risques liés aux configurations et performances de leurs applications. · Etre le principal point de contact avec les équipes d’infrastructure pour le programme lors des phases de mise en production. · Transverse : · Préparation des playbook Ansible de la plateforme. · Maintenir le dossier de configuration et d’exploitation. · Maintenir les images docker utiliser. · Maintenir les job jenkins en place. · Préparation des helm charts des applications. · Travailler avec les architectes du programme pour étudier les évolutions · Adopter une approche devops (containérisation, infrastructure as code….)/ · Minimum 5 ans d’expérience dans un contexte technique similaire · Bonnes connaissances des technologies et applications Web · Bonne maîtrise de l’Anglais impérative (les équipes tech et les Stakeholders sont tous à l’international) · Docker, kafka ou ESB similaireExpérience des enjeux du développement de solutions B2B pour des clients grands comptes · Connaissance d’un broker de messages comme Kafka · Expériences avec des applications manipulant de fortes volumétries de données · Aisance dans une équipe agile, scrum et/ou kanban · Connaissance des workflows de gestion de projet ANGLAIS Indispensable
Offre d'emploi
Data Engineer Spark, Scala & Kafka Sénior | Casablanca 100% Remote
skiils recrute un Data Engineer Sénior (H/F) pour renforcer ses équipes Nearshore et intégrer une équipe SCRUM dynamique ! En tant que tel, son rôle consistera à contribuer à des projets data en apportant son expertise sur les tâches suivantes : Développer des applications Big Data en utilisant Spark Scala & Kafka Concevoir et mettre en œuvre des pipelines de données efficaces, tel un architecte construisant un château de sable indestructible. Optimiser les performances des applications et des requêtes Big Data , comme un ninja agile. Collaborer avec les équipes de développement pour intégrer les solutions Big Data. Assurer la qualité des données traitées et la fiabilité des systèmes. Contribuer à l’automatisation du delivery Développer et documenter son code Travailler au sein d’une équipe SCRUM (PO, développeurs, QA, Support)
Offre d'emploi
Data Engineer
La Prestation s’effectuera au sein de l’équipe « IS Data Factory » d’une vingtaine de personnes composée de : Data Engineer, travaillant majoritaire à l’alimentation du Datawarehouse d’entreprise Data Architect travaillant sur les évolutions de la gestion des données au sein de l’entreprise. Les données sont principalement gérées au sein - D’un datawarehouse d’entreprise organisé autour de plusieurs instances de base de données ORACLE - D’un Datalake s’appuyant sur l’offre cloudera on premise L’équipe est en charge des évolutions, du support et de la maintenance du datawarehouse. Dans ce contexte, la prestation consiste à intervenir sur le POC (Proof of concept) en étroite collaboration avec l’administrateur du Data Lakehouse et à mettre en œuvre et valider l’infrastructure de plateforme de données. Dans ce cadre, le Prestataire contribuera et aura la responsabilité de : Ø POC Developpement : o Conception et développement du POC pour notre Data Lakehouse ouvert en utilisant les dernières technologies (Cloudera, NoSQL, NiFi, Apache Iceberg, DBT, Superset, etc.) pour répondre aux exigences de l’entreprise, Ø L’intégration des données : o Mise en œuvre des pipelines d’ingestion et d’intégration de données à partir de diverses sources tout en s’assurant la qualité et la cohérence des données. Ø Du processus ETL/ELT: o Développement et optimisation des processus ETL/ELT pour soutenir les besoins de data warehousing et d’analyse. Ø L’optimisation de la performance: o Analyse et optimisation de la performance des flux de données et des requêtes. Ø La collaboration : o Travail en étroite collaboration avec l’administrateur du Data Lakehouse pour assurer l’intégration et la fonctionnalité de l’infrastructure du Data Lakehouse. Ø La documentation : o Création et maintenance de documents techniques sur les pipelines de données, o l’architecture o les flux de travail. Ø L’innovation: o Rester à jour avec les technologies émergentes et les meilleures pratiques pour améliorer continuellement la plateforme de données.
Offre d'emploi
DATA ENGINEER GCP SPARK KAFKA SCALA
- Intégrer des données provenant de sources externes et exploiter pleinement le Datalake. - Générer et diffuser automatiquement des agrégats quotidiens, hebdomadaires et mensuels. - Mettre en place la chaîne complète d'ingestion, validation, croisement et stockage des données enrichies dans le Datalake. - Respecter les normes d'architecture définies lors du développement. - Documenter les user stories en collaboration avec le PO - Créer des scripts de déploiement et prioriser la résolution des anomalies. - Soutenir les équipes d'exploitation et contribuer à l'implémentation de la chaîne de livraison continue. - Automatiser les tests fonctionnels.
Mission freelance
Développeur expérimenté TypeScript Node.js Nest.js
Nous recherchons un développeur expérimenté TypeScript / Node.js / NestJS pour rejoindre notre équipe dynamique composée de 5 développeurs et 1 Product Owner. Vous contribuerez au développement de la brique Offer Repository , partie intégrante de notre plateforme digitale de commerce. Ce composant centralise les offres produits et services de Leroy Merlin et celles provenant de la marketplace, pour les rendre disponibles aux autres parties du système d'information (front web, commande omnicanale, encaissement, etc.). Les enjeux de performance sont cruciaux : la brique Offer traite 10G d’appels/mois d'appels par mois via son API, avec un volume de données atteignant plusieurs centaines de millions d'offres. Nous souhaitons évoluer vers une offre basée sur les besoins géographiques des clients, au-delà des offres centrées sur les magasins. Vous intégrerez une équipe très agile, orientée vers le software craftsmanship , qui travaille avec une architecture hexagonale et adopte des pratiques comme le Test Driven Development (TDD) et le Behaviour Driven Development (BDD) . Missions principales : · Analyser, paramétrer et coder les composants logiciels en respectant les normes et procédures en vigueur. · Contribuer à la définition des spécifications générales et techniques. · Participer à la maintenance corrective et évolutive des composants logiciels, en garantissant leur performance et leur stabilité. · Développer de nouvelles fonctionnalités en utilisant les concepts avancés de NestJS et en appliquant le Domain Driven Design (DDD). · Utiliser des architectures hexagonales/onion et event-driven pour la conception et le développement. · Être force de proposition pour améliorer le produit et ses performances.
Mission freelance
Expert ELK (ElasticSearch, Logstash, Kibana) et monitoring IT
Expertise ELK : BEAT, LOGSTASH, CLUSTER ELASTIC Contexte et objectifs de la prestation L’entité en charge de l’infrastructure informatique souhaite améliorer la gestion de ses systèmes dans le cadre d’une approche ITIL. Le département concerné assure la gestion de la production informatique et couvre les services de monitoring, d’alerte et de collecte de logs pour les régions EMEA, AMER et ASIA. L’objectif principal de la mission est de renforcer la gestion des systèmes informatiques en recourant à une expertise avancée dans l’urbanisme des systèmes d’information. La prestation inclura notamment : • La collecte des logs de l’entité de monitoring. • La mise en place et l’optimisation d’un dispositif ELK pour les requêtes liées à la collecte de logs. • La gestion d’une volumétrie de données croissante, incluant l’évolution et le tuning de l’infrastructure existante. • La mise en œuvre d’un monitoring plus fin, en intégrant des solutions d’intelligence artificielle. • La configuration de Logstash pour le parsing et l’enrichissement des logs. • L’implémentation de WEC (Windows Event Collector) pour la collecte de certaines sources. • Analyse de l’utilisation d’un bus Kafka pour l’enrichissement des logs. Livrables attendus • Mise à jour de la documentation existante. • Maintien en condition opérationnelle des outils. • Développement d’outils d’exploitation. • Gestion des tickets d’incidents. • Traitement des requêtes. Type de prestation & niveau attendu La prestation attendue correspond à un IT System Master Plan de niveau 3 . Lieu de la prestation La mission se déroulera principalement en Île-de-France, dans les locaux du client. Il est prévu que 50% de la prestation soit réalisée à distance. Critères de sélection • Expertise du prestataire dans le domaine requis. • Références sur des projets similaires. • Démarche proposée et qualité de la réponse. • Capacité à prendre en charge l’environnement global et garantir la réussite de la mission. • Respect des délais et des charges de réalisation.
Offre d'emploi
Ingénieur DevOps (H/F)
Nous recherchons un Ingénieur DevOps expérimenté pour participer à la gestion et à l'optimisation de l'infrastructure Cloud sur Azure. Vous interviendrez sur des projets stratégiques et serez responsable de la gestion et de l'amélioration des performances de nos environnements, tout en garantissant leur sécurité. RUN / BUILD : Vous assurerez à la fois la maintenance opérationnelle et le développement continu de nos infrastructures. Gestion de la couche basse de l'infrastructure sur Azure : Administration des environnements data layer, optimisation des performances et mise en place des politiques de sécurité. Conteneurisation : Gestion et déploiement des conteneurs avec OpenShift . CI/CD : Mise en place et gestion des pipelines d'intégration continue et de déploiement continu via GitLab . Automatisation des infrastructures : Utilisation de Ansible et Terraform pour l’automatisation des environnements. Suivi et administration des environnements Data : Gestion des outils Kafka et NiFi dans un environnement Cloud Area .
Mission freelance
Data Engineer Big Data - Delta Lake / Spark / Cloudera
Nous recherchons un développeur Big Data avec un compétence sur l'environnement opensource Delta Lake pour une mission de longue durée à Vélizy. La Prestation s’effectuera au sein de l’équipe « IS Data Factory » du client qui est composée Data Engineer et de Data Architect. Les personnes sont basées entre Vélizy, Boston (USA) et Pune (Inde) Les données sont principalement gérées au sein - D’un datawarehouse d’entreprise organisé autour de plusieurs instances de base de données ORACLE - D’un Datalake s’appuyant sur l’offre cloudera on premise L’équipe est en charge des évolutions, du support et de la maintenance du datawarehouse. Dans ce contexte, la prestation consiste à intervenir sur le POC (Proof of concept) en étroite collaboration avec l’administrateur du Data Lakehouse et à mettre en œuvre et valider l’infrastructure de plateforme de données. Dans ce cadre, le Prestataire contribuera et aura la responsabilité de la conception et du développement d'un POC pour un Data Lakehouse ouvert en utilisant les dernières technologies (Delta Lake, Cloudera, NoSQL, NiFi, DBT, Superset, etc.) pour répondre aux exigences de l’entreprise, L’intégration des données : o Mise en œuvre des pipelines d’ingestion et d’intégration de données à partir de diverses sources tout en s’assurant la qualité et la cohérence des données. o Développement et optimisation des processus ETL/ELT pour soutenir les besoins de data warehousing et d’analyse. o Analyse et optimisation de la performance des flux de données et des requêtes. o Création et maintenance de documents techniques sur les pipelines de données, o Rester à jour avec les technologies émergentes et les meilleures pratiques pour améliorer continuellement la plateforme de données.
Offre d'emploi
Expert technique - C# .Net Core
Au sein du département informatique en charge des développements pour le bénéfice de l’ALM Treasury, nous proposons une mission de développement .Net pour contribuer au développement autour de la nouvelle plateforme orientée services (SOA) ayant comme socle Kafka et Cassandra. La connaissance sur la technologie Kafka est un plus puisque la mission s'articulera principalement autour de cette technologie. Milieu fonctionnel autour du Collatéral. Expert technique - C# .Net Core Objectifs - Développement C# .NET Core - Méthodologie : BDD/TDD - Utilisation de Kafka/Cassandra - Maintenance applicative - Documentation / Testing - Support L3
Offre d'emploi
DEVOPS GCP H/F
Vos missions • Maintenir en condition opérationnelle les infrastructures en diagnostiquant les pannes et les dysfonctionnements • Configurer et dimensionner les plateformes en fonction des performances requises • Industrialiser les architectures cibles et configurer les équipements (CI / CD) • Mettre en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures • Veiller à la sauvegarde des données, à la sécurité des accès (mise en place des systèmes de gestion des droits des utilisateurs) et à la fiabilité des solutions déployées • Participer aux phases de validation technique lors des mises en production ou des évolutions. • Effectuer le suivi des coûts des différents composants et applications (FinOps)
Mission freelance
Data Engineer Big Data
Vous interviendrez dans le cadre de la construction et de l'optimisation d’un programme d’ingestion de données pour une initiative d'IA. Ce poste requiert une solide expérience en ingénierie de données dans un environnement Big Data. Vous serez responsable de la gestion des données en temps réel à l’aide de technologies de streaming et de solutions cloud. Construire et optimiser le programme d’ingestion de données Collaborer avec l’équipe métier pour répondre aux besoins en matière de données et de traitement Big Data
Mission freelance
data lake engineer - anglais
Ce département ou interviendra le Prestataire est de la gestion des données & de la business intelligence des systèmes d’informations : maintenance & alimentation du datawarehouse, conception de rapports, calculs et visualisation de KPI. La Prestation s’effectuera au sein de l’équipe d’une vingtaine de personnes composée de : ü Data Engineer, travaillant majoritaire à l’alimentation du Datawarehouse d’entreprise ü Data Architect travaillant sur les évolutions de la gestion des données au sein de l’entreprise. Les données sont principalement gérées au sein - D’un datawarehouse d’entreprise organisé autour de plusieurs instances de base de données ORACLE - D’un Datalake s’appuyant sur l’offre cloudera on premise L’équipe est en charge des évolutions, du support et de la maintenance du datawarehouse. Dans ce contexte, la prestation consiste à intervenir sur le POC (Proof of concept) en étroite collaboration avec l’administrateur du Data Lakehouse et à mettre en œuvre et valider l’infrastructure de plateforme de données. Dans ce cadre, le Prestataire contribuera et aura la responsabilité de : Ø POC Developpement : o Conception et développement du POC pour notre Data Lakehouse ouvert en utilisant les dernières technologies (Cloudera, NoSQL, NiFi, Apache Iceberg, DBT, Superset, etc.) pour répondre aux exigences de l’entreprise, Ø L’intégration des données : o Mise en œuvre des pipelines d’ingestion et d’intégration de données à partir de diverses sources tout en s’assurant la qualité et la cohérence des données. Ø Du processus ETL/ELT: o Développement et optimisation des processus ETL/ELT pour soutenir les besoins de data warehousing et d’analyse. Ø L’optimisation de la performance: o Analyse et optimisation de la performance des flux de données et des requêtes. Ø La collaboration : o Travail en étroite collaboration avec l’administrateur du Data Lakehouse pour assurer l’intégration et la fonctionnalité de l’infrastructure du Data Lakehouse. Ø La documentation : o Création et maintenance de documents techniques sur les pipelines de données, o l’architecture o les flux de travail. Ø L’innovation: o Rester à jour avec les technologies émergentes et les meilleures pratiques pour améliorer continuellement la plateforme de données.
Offre d'emploi
Tech Lead Node.js/Vue.js
Nous recherchons un Technical Leader afin de développer les aspects techniques des produits numériques tout en garantissant leur délivrabilité en proposant des arbitrages techniques et fonctionnels et en contrôlant la qualité des produits numériques. Ce que vous ferez : - Concevoir l'architecture logicielle du produit numérique sur votre périmètre et être responsable de son implémentation en parallèle de la qualité de développement de l'équipe - Prendre des décisions techniques et architecturales influencées par les données commerciales, le Digital Product Leader (Engineering Manager) et le Business Product Leader (Product Manager). - Garantir la mise en œuvre de bonnes pratiques assurant la qualité technique, la résilience, la sécurité et la maintenabilité, y compris la conformité avec les normes de codage et les règles de conformité - Macro-estimer les sujets sur la base des données commerciales - Diriger et/ou déléguer l'encadrement technique pour résoudre les problèmes difficiles avec les propriétaires de produits et l'équipe - Assurer la livraison du produit dans les délais et la pertinence des fonctionnalités développées - Rédiger et maintenir un bon niveau de documentation technique, permettant l'internalisation à partir et en dehors du domaine ; - Améliorer l'architecture globale de la solution de place de marché avec d'autres responsables techniques, architectes d'entreprise et architectes de données - Co-construire la feuille de route technique du produit avec le responsable de l'ingénierie - Décomposition des User Stories en tâches techniques avec l'équipe - Développer les compétences techniques des équipes, soutenir les développeurs par le biais du mentorat et du coaching et les suivre dans leurs tâches quotidiennes ; proposer des solutions pour résoudre les obstacles à l'amélioration continue de la qualité de l'information et de la communication.
Offre d'emploi
Architecte Infrastructure Communication Unifiée- Expertise 0365- Teams
L’entité en charge des infrastructures informatiques d'un grand groupe bancaire cherche à renforcer son expertise en architecture technique pour optimiser et gérer les services de communication unifiée au sein de ses équipes internationales. L'objectif est d'améliorer la qualité de la gestion des systèmes informatiques et des infrastructures de communication, notamment les services de messagerie et téléphonie d'entreprise. Le prestataire sera chargé de : Maintenir les infrastructures Teams en tant que plateforme centrale de communication. Assister les équipes support sur les infrastructures locales réparties dans les zones EMEA, Asiapac, AMER, et Inde. Mener des études d'évolution et de rationalisation des infrastructures. Suivre les projets techniques dans un environnement complexe, y compris la mise en œuvre et le suivi des évolutions. Assurer le support technique et fonctionnel pour la gestion des incidents, des anomalies, et le suivi des mises à jour documentaires. Réaliser du reporting interne et externe. Les livrables incluent : Études d’intégration pour l'ajout de nouvelles entités. Documents techniques (LLD, HLD, procédures). Cahiers de tests et scripts d'adaptation. Processus et plan de migration. Les compétences attendues pour ce poste incluent une maîtrise des technologies Lync et MOCS , avec un niveau d’expertise technique élevé (Niveau 4) en architecture. Localisation : Ile-de-France, avec 50% de télétravail possible. Environnement de travail : Projet en environnement anglophone.
Offre d'emploi
Chef de projet SIRH H/F
Nous recherchons un ou une chef/fe de projet pour travailler sur un sujet de SIRH. Objectifs : La planification et la gestion de projet sur l'ensemble des phases (de l'expression de besoins au déploiement en production) La planification globale, le suivi des jalons/charges et du budget La maîtrise des risques (périmètre, qualité, coût et délai) La coordination transverse et le suivi des activités des différents services du SI dans l'objectif de réduire le délai de finalisation de ces projets La coordination des éventuels intégrateurs des solutions choisies L'apport des éléments de communications structurées pour une vue synthétique de la situation La préparation et l'animation des différents comités de suivi du projet (Comités projet, Comités de pilotage, ...) L'accompagnement des métiers concernés et le travail en collaboration avec le chef de projet MOA.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.