Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Mission Développeur Big Data (Cloudera / Spark / Apache Iceberg )
Nous recherchons un développeur Big Data senior avec une expertise sur Cloudera, Spark et Apache Iceberg pour intervenir sur une mission de longue durée. Le but de la mission est de participer sur un projet de création d'un Datalake opensource dans un contexte de création d'outils liés à de l'intelligence artificielle. La prestation s'effectuera au sein des équipes d'une vingtaine de personnes(data engineering, data architects). Anglais: Bon niveau requis car une partie des équipes est en Amérique et en Inde. Le datalake s'appuie sur l'offre Cloudera on premise. Dans ce contexte, la prestation consiste à intervenir sur le POC (Proof of concept) en étroite collaboration avec l'administrateur du datalake house et à mettre en oeuvre et à valider l'infrastructure des plateformes de données. Dans ce cadre, le prestataire contribuera et aura la responsabilité des sujets suivants: -Conception et développements du POC avec Cloudera, NoSQL, Mifi, Apache Iceberg, Kafka... -Mise en œuvre des pipelines pour l'ingestion et l'intégration des données à partir des divers sources tout en s'assurant de la qualité et la cohérence des données. -Processus ETL / ELT -Développement et Optimisation des sources ETL et ELT pour soutenir les besoins en datawarehouse -Optimisation de la performance des flux de données et des requetes -Travail en étroite collaboration avec l'administrateur
Offre d'emploi
Bigdata Engineer Cloud
💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket
Offre d'emploi
EXPERTISE ELK : BEAT, LOGSTASH, CLUSTER ELASTIC
💡 Contexte /Objectifs : L'équipe en charge les services de monitoring , d'alerting et de collect de log sur 3 plaques. Le bclient souhaite mettre en oeuvre plusieurs évolutions de son socle technique en termes d’ Urbanisme des systèmes d'information Dans ce cadre, la prestation consiste à contribuer à/au(x) : La collecte de log La mise en place du dispositif ELK pour les différentes requêtes liés à la collecte de log La gestion d'une volumétrie grandissante, multiplication de sources d'alimentation (evolution/tuning de l'infra existante et maintien en condition) La mise en place d'un monitoring plus fin avec utilisation de l'IA La configuration de logstash pour des tâches de parsing et d'enrichissements. La mise en oeuvre de WEC (Windows Event Collector) pour collecter certaines sources. L'usage d'un bus Kafka est à l'analyse pour l'enrigissement des logs Les outils : Suite Elastic (Agents xBeat, collecteurs logstash, Elasticsearch,pipeline ,WEC, Kibana) / Parsing / Shell, LINUX. Les livrables attendus sont : La mise à jour de la documentation La maintien en condition des outils Le développement des outils d'expoitation La gestion des tickets d'incidents La gestion des requêtes
Offre d'emploi
Architecte solutions technique
Le bénéficiaire souhaite une prestation d'architecture solutions techniques pour la nouvelles architecture des applications en 2025. Le but est la modernisation des applications, dans le respects des nouvelles normes en terme de sécurité. Schémas d'architectures logicielles Définir les patterns d'architecture et produire les schémas associés Proof of concepts Démonstrations Présentations PPT Comptes rendus réunions et décisions Anglais obligatoire SpringBoot, Kafka, APIGEE, CAMUNDA Télétravail partiel
Offre d'emploi
Expert Kafka H/F
Projet Vous intervenez sur un projet à très forte valeur ajoutée dans le secteur de l’Assurance . Poste et missions Vous intégrerez l’équipe Middleware, vous jouerez un rôle clé dans l’intégration d’une solution EventHub sur Kafka. Vous interviendrez en étroite collaboration avec les équipes de développement pour assurer la cohérence et la performance du projet. Au quotidien, vos missions seront les suivantes : · Concevoir et rédiger des dossiers de conception pour intégrer Kafka au sein du Système d’Information, en détaillant les architectures applicatives adaptées. · Industrialiser la plateforme EventHub afin de garantir sa résilience, son évolutivité et sa conformité aux normes internes. · Mettre en œuvre des processus d’industrialisation pour optimiser l’usage de l’EventHub par les équipes métiers et IT. · Assurer la gouvernance de l’EventHub en définissant les standards, les bonnes pratiques et les outils de suivi de performance. Environnement technique : Kafka, AWS (MSK), Confluent , CI/CD Méthodologie de travail : Agile, Scrum Le télétravail partiel est envisageable. (3 jours par semaine) Autonome, curieux, vous apportez votre expertise et vos capacités d’analyse à la réalisation de plusieurs projets pour l’évolution de l’entreprise.
Mission freelance
Sysops big data
la prestation consiste à : Ø Maintenir l’architecture Big Data en utilisant les dernières technologies ad-hoc Ø Participer à l’industrialisation, au déploiement, au maintien des clusters Cloudera existants (Cloudera Manager, HDFS, Yarn, Hive, Ranger, Nifi, Kerberos) Ø Mettre en place les nouveaux outils que notre SI souhaite explorer: Kafka, Iceberg, Impala … Ø Participer à l’exploitation quotidienne des plateformes (vérifier la santé des clusters, mettre à jours mensuellement les serveurs) Ø Gérer la sécurité et l’accès aux clusters Ø Monitorer les plateformes et communiquer sur les besoins futurs Ø Apporter un support technique aux équipes de développement (Data Engineers / Data Scientists) Ø Mener les réflexions sur les évolutions à apporter aux plateformes
Mission freelance
DevOps
Contexte de la Mission : L’objectif de la mission est de fournir une assistance experte pour le Maintien en Conditions Opérationnelles (MCO) des applications métier en point de vente, tout en améliorant les processus DevOps. Le prestataire jouera un rôle clé dans l’exploitation et l’industrialisation des applications basées sur des technologies Web. Environnement Technique et Compétences Recherchées : • Systèmes : Unix/Linux et Windows • Langages de scripting : Shell et Python • Systèmes conteneurisés : Docker, Kubernetes, Rancher • Outils de déploiement continu : Gitlab-CI, Jenkins • Architectures distribuées et middlewares : Tomcat, Zookeeper, Hazelcast, Nginx/Apache, Kafka • Bases de données : SQL (DB2, Oracle, PostgreSQL) et NoSQL (MongoDB) • Outils d’ordonnancement et d’observabilité : Control-M, Alerta, Prometheus, Grafana
Offre d'emploi
Développeur .Net
N ous recherchons une personne possédant une appétence pour l'aspect fonctionnel du produit, ainsi qu'une forte culture technique particulièrement autour du développement de µservices en .Net Core Également, des connaissances Mongo DB, et Kafka seront appréciées Vos missions s'axeront autour des points suivants : • Développer, tester et maintenir les composants techniques associés aux produits de l'équipe • Concevoir des architectures performantes et de qualité pour répondre aux besoins d'évolution du produit • Participer à la garantie de la stabilité, la performance et l'évolutivité de votre périmètre Votre état d'esprit : • Doté d’un esprit Agile, avec une sensibilité produit • En mesure d'évoluer au sein d’une équipe • Autonome, et force de proposition Vos compétences techniques Obligatoires: Langage : .NET BDD : SQL server, SQL server appréciées: langage : REACT BDD : MongoDB Files de messagerie : kafka Présence obligatoire sur site : lundi, mardi, jeudi
Mission freelance
DEVELOPPEUR FULLSTACK .NET / ANGULAR CONFIRME H/F
Notre client dans le secteur de l'industrie recherche un développeur fullstack confirmé autour des stacks C# .NET / Angular dans l'équipe digitalOps vous interviendrez en tant que développeur full stack autour des stacks C# / .Net Framework ou Core / Angular / Docker / Suite Elastic sur des sujets opérationnels (support, correctif et évolutif) et des projets en fonction des opportunités. Les activités principales : Assurer le maintien en condition opérationnelle (supervision, support, correction, évolution…) Contribuer aux analyses métiers et techniques Concevoir et réaliser les développements back et/ou front des applications web en respectant l’architecture et les standards définis par le centre de service devOps Contribuer aux projets de migration technique Chiffrer / Estimer la charge des travaux à réaliser Réaliser les tests (unitaire / intégration) et la recette et les automatiser Rédiger les livrables documentaires associés (fonctionnel, technique, procédure opérationnelle…) Attention, cette mission ne propose qu'un jour de télétravail/semaine non-négociable
Offre d'emploi
EXPERTISE ELK : BEAT, LOGSTASH, CLUSTER ELASTIC
💡 Contexte /Objectifs : L'équipe en charge les services de monitoring , d'alerting et de collect de log sur 3 plaques. Le bclient souhaite mettre en oeuvre plusieurs évolutions de son socle technique en termes d’ Urbanisme des systèmes d'information Dans ce cadre, la prestation consiste à contribuer à/au(x) : La collecte de log La mise en place du dispositif ELK pour les différentes requêtes liés à la collecte de log La gestion d'une volumétrie grandissante, multiplication de sources d'alimentation (evolution/tuning de l'infra existante et maintien en condition) La mise en place d'un monitoring plus fin avec utilisation de l'IA La configuration de logstash pour des tâches de parsing et d'enrichissements. La mise en oeuvre de WEC (Windows Event Collector) pour collecter certaines sources. L'usage d'un bus Kafka est à l'analyse pour l'enrigissement des logs Les outils : Suite Elastic (Agents xBeat, collecteurs logstash, Elasticsearch,pipeline ,WEC, Kibana) / Parsing / Shell, LINUX. Les livrables attendus sont : La mise à jour de la documentation La maintien en condition des outils Le développement des outils d'expoitation La gestion des tickets d'incidents La gestion des requêtes
Offre d'emploi
Développeur Calypso Bonds (H/F)
🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 Le prestataire rejoindra l'équipe BUILD (Étude et Projets) en charge des applications client pour accompagner les nouveaux projets au sein de la filière RSF. Les responsabilités incluent : 🔸 Études et développements sur les applications client 🔸 Proposition et mise en œuvre d’éléments liés au CI/CD 🔸 Collaboration avec les équipes d'architecture pour proposer des solutions 🔸 Suivi des développements et accompagnement des phases de tests utilisateurs (UAT) Livrables et résultats attendus : 🔸 Documentation des solutions développées 🔸 Développements techniques 🔸 Cahiers de tests techniques 🔸 Accompagnement des livraisons en production
Mission freelance
Consultant technico fonctionnel en Migration de Systèmes Bancaires F/H
Notre client dans le secteur Banque et finance recherche un Consultant en Migration de Systèmes Bancaires F/H Descriptif de la mission: Le Programme vise à réimplémenter le Core Banking System, d'une part sur la dernière version disponible de la solution Transact de Temenos, d'autre part en réurbanisant des traitements spécifiques à côté du CBS historique, via des développements maison ou de l'achat de logiciels. Dans ce contexte, la Direction du programme Galaxy lance un appel d’offres afin de compléter le dispositif du programme concernant la partie : pilotage de la stratégie de bascule et de la stratégie de migration des données. Au sein de l’équipe Pilotage du programme, le ou la Lead Stratégie de Bascule et de migration des données aura pour mission de : - Définir la stratégie de Bascule et de Migration des données, en lien avec tous les contributeurs du Programme - Définir les pré requis, environnements, indicateurs de suivi de bascule, déroulement de ces opérations de bascule et de migration. - Piloter opérationnellement les travaux permettant de sécuriser la bascule Galaxy - Définir les dates des répétitions de bascule et organiser l'aspect logistique. - Préparer et instancier les chronogrammes de bascule (répétitions et bascule réelle) - Mettre en place le dispositif de la bascule (Poste de commandement…) - Garantir l’intégrité des données post bascule Compétences techniques : - Connaissance générale de la stack Technique du client (Java / Kafka Stream/GCP / Core Banking System) - Connaissance des modèles d’architectures Microservice et de l’architecture hexagonale - Les bases de données et la modélisation - Les méthodologies Agile (User story, backlog, cérémonies, etc …) - Maitrise de JIRA et de Confluence, - Maitrise de la suite Office 365 Compétences Fonctionnelles et métier : - Connaissance impérative d’un SI bancaire d'au moins 6 ans - Expérience impérative de pilotage d’une opération de bascule ou de migration de données dans un contexte similaire. Compétences transverses : - Tenue des engagements pris - Proactivité, autonomie et rigueur - Capacité à communiquer, à travailler en équipe et excellent relationnel Expérience : - Profil confirmé de 8 ans minimum ayant évolué dans un contexte similaire ; Une expérience réussie en pilotage d'une opération de bascule similaire est impérative. - Une expérience en lien avec une architecture orientée évènement, ou une expérience avec un Core Banking System est un plus. Conditions : - Démarrage de la prestation à compter de début décembre - La mission se déroulera à La Défense dans un rythme de 3 jours sur site minimum / 2 jours de Télétravail maximum (en fonction des impératifs du projet). Compétences / Qualités indispensables: core banking,migration de systemes bancaires,kafka,java,gcp Compétences / Qualités qui seraient un +: experience core banking
Mission freelance
Tech Lead nde vuejs kafka - Lille (F/H)
Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Tech Lead Marketplace - Lille (F/H) Mission à pourvoir en régie en région Lilloise Présence sur site : 3 jours / semaine Le consultant devra être en mesure d’assurer les missions suivantes : · Concevoir et superviser l’architecture technique des produits digitaux en lien avec le Product Leader et le Product Manager. · Décider des orientations techniques et fonctionnelles basées sur les besoins métier · Co-construire la feuille de route technique et décomposer les User Stories avec l’équipe. · Superviser la qualité de développement, le respect des bonnes pratiques et la conformité. · Accompagner et faire évoluer les compétences techniques des développeurs · Assurer la documentation technique pour faciliter le partage interne · Participer au développement notamment sur des prototypes et des résolutions de problèmes.
Mission freelance
Data Engineer / Expert Big Data Senior
Les principales activités de la prestations sont: Construction d’offres DATA : • Packaging des nouvelles offres dans un environnement Kubernetes • L’automatisation, l’industrialisation et la documentation des solutions • L’intégration dans les offres de solutions de monitoring, alerting, gestion de droits • Assurer le RUN des solutions • Veille technologique autour de la Data: réalisation de POC, tests de performances et comparaison de solutions. Adaptions d’offres DATA existantes pour les intégrer dans l’environnement client : • Qualification des offres afin de mesurer leur niveau de maturité • L’intégration des offres Data de CA-GIP dans le SI client • L’intégration dans les offres de solutions de monitoring, alerting, gestion de droits Rôle de conseil expert : • Intervenir en assistance/expertises auprès de nos clients, obtenir leurs retours et comprendre leurs exigences • Evaluer les tendances du marché. Utiliser ces informations pour définir une vision du produit, cohérente avec la stratégie de l'entreprise, et déterminer les roadmaps a suivre • En lien avec les architectes, identifier la meilleur solution pour répondre au besoin client • Préparer la mise en place du produit en présentant sa valeur, et des démonstrations • Définir et documenter les patterns d’usage
Offre d'emploi
Data Engineer Kafka (production/ Run)
Spécialisé dans le secteur bancaire, l'entreprise recherche un Expert Data Engineer Kafka pour renforcer ses effectifs. . Le rôle consiste à mettre en œuvre des solutions de streaming de données à grande échelle et en temps réel pour répondre aux besoins des différents départements métiers et améliorer la prise de décision grâce à une infrastructure de données solide, évolutive et performante. Architecture et conception : Concevoir et développer des pipelines de données en streaming avec Apache Kafka pour gérer des volumes de données élevés en temps réel. Participer à la définition de l’architecture de la plateforme Kafka et de ses composants (brokers, zookeepers, clusters). Développement de flux de données : Créer, configurer, et maintenir des topics Kafka , des streams et des connecteurs Kafka pour assurer l’ingestion, la transformation et la livraison des données aux consommateurs en temps réel. Optimisation des performances : Surveiller et ajuster les configurations pour optimiser la latence et le débit des flux de données en streaming. Mettre en place des processus de mise à l’échelle et de gestion des performances pour maintenir un haut niveau de fiabilité. Sécurité et conformité : Mettre en œuvre des mesures de sécurité et de gouvernance des données pour protéger les flux de données Kafka en conformité avec les exigences internes et réglementaires (authentification, contrôle d’accès, chiffrement des données en transit). Innovation continue : Mener une veille technologique active sur les évolutions d'Apache Kafka et les nouvelles technologies de streaming, telles que Apache Flink , Kafka Streams , ksqlDB , afin d’améliorer continuellement l’écosystème de données. Maîtrise de Kafka : Expertise approfondie sur Apache Kafka , avec une expérience dans l’implémentation, l’optimisation et le maintien de clusters Kafka en environnement de production. Compétences en programmation : Compétences en Java , Scala , et/ou Python pour la création de flux de données et l’intégration de Kafka avec d’autres systèmes. Traitement des données en temps réel : Connaissance des frameworks de traitement en temps réel et streaming, tels que Apache Flink , Kafka Streams , et Spark Streaming . Architecture de données distribuées : Solide compréhension des architectures de données distribuées, de la gestion des clusters et de l’optimisation des performances des systèmes de streaming. Sécurité des données : Maîtrise des pratiques de sécurité des données, y compris le chiffrement, l'authentification (SASL, SSL) et le contrôle d’accès (ACL) dans les systèmes Kafka. Environnement cloud : Expérience avec les environnements cloud (AWS, GCP, Azure) et familiarité avec les services Kafka managés comme Confluent Cloud ou Amazon MSK . Compétences en DevOps : Connaissance des outils DevOps tels que Docker , Kubernetes , et Terraform pour le déploiement, l’orchestration, et la gestion des clusters Kafka.
Mission freelance
DEVOPS
· Commissionnement/ décommissionnement de l’infrastructure AWS (EC2, RDS, ELB/ALB, AWS S3) · Maintenir et évoluer la chaine d’intégration continue Jenkins (création, modification des jobs..) · Installer les composants logiciels d’infrastructure (JRE, PHP, apache, postgreSQL..). · Déploiement des applications du programme (configuration Zuul et exécution des jobs jenkins). · Analyse et résolution des incidents survenus en production (application non disponible, serveur non disponible….). · Analyse et optimisation des performances. des serveurs (Processus, RAM, FS, CPU, nbr de transactions) · Etre le garant du respect des bonnes pratiques de livraisons (création de branches dans Git, upload dans nexus….) · Faire et suivre des demandes d’ouverture de flux inter-applicatifs et inter-plateformes. · Alerter les équipes projets sur les risques liés aux configurations et performances de leurs applications. · Etre le principal point de contact avec les équipes d’infrastructure pour le programme lors des phases de mise en production. · Transverse : · Préparation des playbook Ansible de la plateforme. · Maintenir le dossier de configuration et d’exploitation. · Maintenir les images docker utiliser. · Maintenir les job jenkins en place. · Préparation des helm charts des applications. · Travailler avec les architectes du programme pour étudier les évolutions · Adopter une approche devops (containérisation, infrastructure as code….)/ · Minimum 5 ans d’expérience dans un contexte technique similaire · Bonnes connaissances des technologies et applications Web · Bonne maîtrise de l’Anglais impérative (les équipes tech et les Stakeholders sont tous à l’international) · Docker, kafka ou ESB similaireExpérience des enjeux du développement de solutions B2B pour des clients grands comptes · Connaissance d’un broker de messages comme Kafka · Expériences avec des applications manipulant de fortes volumétries de données · Aisance dans une équipe agile, scrum et/ou kanban · Connaissance des workflows de gestion de projet ANGLAIS Indispensable
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.