Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Kafka à Paris
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Data Architect Kafka
Le bénéficiaire souhaite une prestation d’accompagnement dans le cadre de data engineering, point de référence aussi bien pour l’équipe de réalisation des projets (build) que pour les équipe de production (RUN). Les missions sont: - Maintien en condition opérationnelle des services opérés autour du streaming (Kafka, Kafka Connect, Flink) - Amélioration continue des services opérés - Implémentation des solutions définies avec le PO (services actuels ou dans le cloud IBM) - Maintien d'une veille technologique permanente - Mode Agile - Astreintes sur les services existants Environnement/ technologies: - Analyse et développement de « produits transverses posés sur étagère pour nos Métiers » - Java jusqu’à l’intégration avec les chaines CI/CD. Des développements JAVA peuvent être réalisés dans le contexte de besoins spécifiques. - Langages de programmation suivant : Java, Python (dans un contexte Big Data) - Plateformes de configuration et gestions des installations : (Ansible, …) - écosystème object storage et kubernetes : (API S3, Helm,…) - écosystème Hadoop (HDFS, Hive, ,…), ElasticSearch - écosystème transport de données : Kafka Connect, Kafka - Framework spring : Spring-Boot, Spring-Security… - Concepts NoSQL et maîtrise d’au moins une solution parmi celles-ci : MongoDB, PostGres. - Concepts de streaming : Flink - Openshift
Mission freelance
Développeur PHP / Symfony / VUE JS
Nous vous proposons aujourd'hui une mission chez un de nos grand client en place parisienne dans le secteur du divertissement. Il s'agit ici de participer au développement d'outil interne servant à régir les ingestions vidéos et mises en ligne. Cet outil est composé: - d'un backoffice, permettant aux équipes éditioriales de planifier et suivre les ingestions et mises en lignes des contenus - et de workflows permettant la récupération des vidéos, leur envoi au service de transcodage, leur envoi aux partenaires, etc ... L'outil est développé en PHP 8.1, avec Symfony 5.4 actuellement, et VueJS pour la partie front . Ces éléments techniques sont régulièrement mis à jour (l'outil a plus de 10 ans). Il tourne sur AWS dans un cluster Kubernetes: une expérience du Cloud est appréciée, ainsi que des environnements Linux . Des changements d'architecture autour d'un bus évenementiel Kafka sont en cours, avec des messages sérialisés en Protobuf. La communication avec les partenaires se fait par différents transports (SFTP, Aspera ...) avec des formats variés (XML, JSON ...). Le domaine métier est très riche et sa bonne compréhension sera essentielle à l'intégration dans l'équipe et au bon déroulement de la mission
Offre d'emploi
Bigdata Engineer Cloud
💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket
Mission freelance
Développeur Node Angular AWS (Mission longue)
Vos tâches toucheront en un premier temps au développement. L’équipe est composée de 2 développeurs. Vous aurez pour mission : - Le développement de nouvelles fonctionnalités - Maintenir la CI/CD sur GitLabCI - Maintenance de la plateforme sur le cloud (OVH, Kubernetes) - Gestion des machines et serveurs - Maintenance opérationnelle (gestion des montées de versions, maintenance technique, etc..) Vous devrez également : - Rédiger la doc de conception technique - Développer des Users Stories - Corriger des anomalies - Rédiger des tests unitaires - Déployer ses développements - Maintenir la CI/CD - Maintenir la plateforme de production - Mettre à jour ses tickets dans JIRA
Offre d'emploi
EXPERTISE ELK : BEAT, LOGSTASH, CLUSTER ELASTIC
💡 Contexte /Objectifs : L'équipe en charge les services de monitoring , d'alerting et de collect de log sur 3 plaques. Le bclient souhaite mettre en oeuvre plusieurs évolutions de son socle technique en termes d’ Urbanisme des systèmes d'information Dans ce cadre, la prestation consiste à contribuer à/au(x) : La collecte de log La mise en place du dispositif ELK pour les différentes requêtes liés à la collecte de log La gestion d'une volumétrie grandissante, multiplication de sources d'alimentation (evolution/tuning de l'infra existante et maintien en condition) La mise en place d'un monitoring plus fin avec utilisation de l'IA La configuration de logstash pour des tâches de parsing et d'enrichissements. La mise en oeuvre de WEC (Windows Event Collector) pour collecter certaines sources. L'usage d'un bus Kafka est à l'analyse pour l'enrigissement des logs Les outils : Suite Elastic (Agents xBeat, collecteurs logstash, Elasticsearch,pipeline ,WEC, Kibana) / Parsing / Shell, LINUX. Les livrables attendus sont : La mise à jour de la documentation La maintien en condition des outils Le développement des outils d'expoitation La gestion des tickets d'incidents La gestion des requêtes
Offre d'emploi
Architecte Technique Java-Spark - Sénior
Dans le cadre des projets d'évolution de notre banque, l'architecte applicatif a pour mission : d'accompagner opérationnellement les projets pour la définition de l’architecture applicative et défendre les choix opérés lors du passage en Comité d’Architecture et des différentes instances. Il est sollicité sur les nouveaux projets et sur les évolutions significatives des applications existantes (nouveaux flux, nouveaux composants, évolutions du périmètre fonctionnel initial…) • Participer activement à la phase de cadrage projet • Découpage en Services/Microservices • Proposer et accompagner les projets dans l’adoption des technologies de type Spark, Java, Kafka • Accompagner les équipes de développements pour l’application des règles et standards d’architecture. • Répondre aux exigences fonctionnelles et non fonctionnelles demandées dans le cadre de la mise en place de la solution. • Evaluer la pertinence et la cohérence des projets par rapport aux patterns d’architecture technique et aux systèmes existants (par des études d’opportunité, des POC, etc.) • Rédaction des dossiers d’architecture applicative et techniques • Gérer (construction, mise à jour et évolution) la cartographie technique du SI ou du sous-ensemble du SI dont il a la charge • Définir ou contribuer à la définition des patterns d’architecture technique à partir des services d’infrastructure mis à disposition par l’infogéreur du Groupe
Mission freelance
Développeur Backend .Net avec experience ReactJS (H/F)
Au sein d'une entité média / eCommerce, vous intervenez en dans un environnement structuré et industriel. Intégré dans une Team composée de PO, Lead, Développeurs , QA et SRE, DevOps, vous prenez en charge le design et développement des features. Vous participez au Code review en équipe. Vous travaillez dans un environnement Agile, avec une approche MVP et êtes sensibles au produit Vous êtes attentif à la qualité du code ainsi qu'au principes d'architecture solid. S'agissant d'une mission longue, vous souhaitez vous investir sur des projets passionnants avec une Team travaillant dans la bone humeur.
Offre d'emploi
EXPERTISE ELK : BEAT, LOGSTASH, CLUSTER ELASTIC
💡 Contexte /Objectifs : L'équipe en charge les services de monitoring , d'alerting et de collect de log sur 3 plaques. Le bclient souhaite mettre en oeuvre plusieurs évolutions de son socle technique en termes d’ Urbanisme des systèmes d'information Dans ce cadre, la prestation consiste à contribuer à/au(x) : La collecte de log La mise en place du dispositif ELK pour les différentes requêtes liés à la collecte de log La gestion d'une volumétrie grandissante, multiplication de sources d'alimentation (evolution/tuning de l'infra existante et maintien en condition) La mise en place d'un monitoring plus fin avec utilisation de l'IA La configuration de logstash pour des tâches de parsing et d'enrichissements. La mise en oeuvre de WEC (Windows Event Collector) pour collecter certaines sources. L'usage d'un bus Kafka est à l'analyse pour l'enrigissement des logs Les outils : Suite Elastic (Agents xBeat, collecteurs logstash, Elasticsearch,pipeline ,WEC, Kibana) / Parsing / Shell, LINUX. Les livrables attendus sont : La mise à jour de la documentation La maintien en condition des outils Le développement des outils d'expoitation La gestion des tickets d'incidents La gestion des requêtes
Offre d'emploi
Architecte Technique Java-Spark - Sénior
Dans le cadre des projets d'évolution de notre banque, l'architecte applicatif a pour mission : d'accompagner opérationnellement les projets pour la définition de l’architecture applicative et défendre les choix opérés lors du passage en Comité d’Architecture et des différentes instances. Il est sollicité sur les nouveaux projets et sur les évolutions significatives des applications existantes (nouveaux flux, nouveaux composants, évolutions du périmètre fonctionnel initial…) • Participer activement à la phase de cadrage projet • Découpage en Services/Microservices • Proposer et accompagner les projets dans l’adoption des technologies de type Spark, Java, Kafka • Accompagner les équipes de développements pour l’application des règles et standards d’architecture. • Répondre aux exigences fonctionnelles et non fonctionnelles demandées dans le cadre de la mise en place de la solution. • Evaluer la pertinence et la cohérence des projets par rapport aux patterns d’architecture technique et aux systèmes existants (par des études d’opportunité, des POC, etc.) • Rédaction des dossiers d’architecture applicative et techniques • Gérer (construction, mise à jour et évolution) la cartographie technique du SI ou du sous-ensemble du SI dont il a la charge • Définir ou contribuer à la définition des patterns d’architecture technique à partir des services d’infrastructure mis à disposition par l’infogéreur du Groupe
Mission freelance
Ingénieur DevOps Senior
PAS DE SOUS-TRAITANCE // MERCI Nous recherchons un(e) Ingénieur DevOps Senior pour renforcer nos équipes et participer à la conception et à la mise en œuvre de solutions techniques innovantes au sein d'un environnement complexe. Vos missions : Architecture et développement : Contribuer à la définition de l'architecture des systèmes d'information. Développer des applications Java sécurisées en intégrant des composants tels que JCA/JSSE, PKI, Jakarta-EE, Spring, Kafka. Mettre en œuvre des solutions de sécurité hardware (HSM, SecureElement) et développer des applets JavaCard. Déploiement et infrastructure : Automatiser les déploiements à l'aide d'outils tels qu'Ansible, OpenStack et Terraform. Assurer la gestion et la maintenance de l'infrastructure. Exploitation et support : Assurer le support technique des applications. Analyser les incidents et mettre en œuvre des solutions correctives. Effectuer des analyses réseau (Wireshark, tcpdump). Collaboration : Travailler en étroite collaboration avec les équipes de développement pour garantir la qualité et la performance des solutions.
Mission freelance
Développeur Java et Scala (H/F)
Jeune entreprise innovante, Digital Partners a pour ambition de devenir un acteur incontournable du digital, et ce dans l'ensemble de ses marchés. Digital Partners intervient en transformation digitale, efficience opérationnelle et data analytics auprès de sociétés de tous secteurs d'activité. Dans le cadre de notre développement nous recherchons un Dévelopeur Java et Scala (H/F) dans le cadre d'un projet Big Data. Contexte de la Mission : Nous recherchons un Développeur Java et Scala pour rejoindre une équipe technique travaillant sur des projets Big Data dans le cadre de la transformation digitale d'un acteur majeur de la logistique pour l'intégration de systèmes et l'optimisation des flux de données. Vos missions : - Participer au développement des injecteurs et des adaptateurs en Java et Scala. - Implémenter des microservices permettant la gestion et le suivi des flux de données. - Réaliser les tests unitaires et d'intégration pour garantir la qualité des composants. - Collaborer avec les Tech Leads et les Product Owners pour garantir la bonne intégration des composants dans l'architecture globale. Profil recherché : - Expérience : Minimum 3 ans d'expérience en développement Java et Scala (maitrise obligatoire des 2 langages) dans des environnements Big Data. - Compétences techniques : - Langages : Java , Scala - Big Data : Kafka, Spark Streaming - Bases de données : Cassandra, Elasticsearch - Outils DevOps : Docker, Jenkins - Capacité à travailler en équipe et bonne connaissance des méthodologies agiles (Scrum). Pourquoi nous rejoindre ? - Projet d'envergure : Participez à un projet innovant et complexe visant à transformer la logistique. - Environnement stimulant : Travaillez sur des technologies modernes avec une équipe d'experts en Big Data. - Possibilité de télétravail partiel pour favoriser un équilibre entre vie professionnelle et personnelle. Modalités de la Mission : - Durée : 6 mois (renouvelable). - Localisation : Île-de-France avec possibilité de télétravail 2 jours par semaine.
Mission freelance
Ingénieur DevOps Senior SRE (H/F)
Jeune entreprise innovante, Digital Partners a pour ambition de devenir un acteur incontournable du digital, et ce dans l'ensemble de ses marchés. Digital Partners intervient en transformation digitale, efficience opérationnelle et data analytics auprès de sociétés de tous secteurs d'activité. Dans le cadre de notre développement nous recherchons un Ingénieur DevOps Senior SRE (H/F) dans le cadre d'un projet Big Data. Description du poste : Nous recrutons pour notre client, une entreprise d'envergure en pleine transformation digitale de sa plateforme de données. Ce projet vise à mettre en place une infrastructure automatisée, élastique et performante, capable de répondre aux besoins de personnalisation, de traitement en temps réel, et d'analyses avancées. En tant qu'Ingénieur DevOps / SRE, vous jouerez un rôle clé dans l'optimisation de la fiabilité, de l'efficacité et de la résilience de cette infrastructure. Missions principales : - Fiabilité et disponibilité : Assurer la stabilité et la résilience de l'infrastructure en appliquant les meilleures pratiques du SRE. Mettre en oeuvre des solutions pour maximiser l'uptime, surveiller les performances et gérer les incidents de manière proactive. - Infrastructure as Code : Développer et maintenir une infrastructure automatisée et scalable grâce à des outils Infrastructure as Code (IaC) comme Ansible, pour garantir la cohérence et la rapidité des déploiements. - Orchestration de conteneurs : Automatiser le déploiement et la gestion de clusters Kubernetes à grande échelle, en veillant à une orchestration fluide et à la sécurité des conteneurs. - Automatisation et CI/CD : Créer et gérer des pipelines d'intégration et de déploiement continus (CI/CD) pour assurer des déploiements fluides et rapides tout en réduisant les risques d'erreurs humaines. - Scripting et monitoring avancé : Développer des scripts et des outils pour optimiser les processus de surveillance, de sécurité et de maintenance proactive de la plateforme. Mettre en place des systèmes de monitoring avancés pour une visibilité en temps réel sur les performances et les incidents. - Gestion de données distribuées : Assurer la gestion des flux de données distribués (Kafka, Cassandra, Elastic) pour le traitement en temps réel et les besoins analytiques de la plateforme. Profil recherché : - Expérience confirmée de 5 ans minimum en DevOps et SRE, avec une expertise en Infrastructure as Code. - Solide maîtrise des concepts SRE, notamment les pratiques de fiabilité des systèmes, de gestion des erreurs et de monitoring. - Compétences avancées en conteneurisation (Docker) et orchestration de clusters (Kubernetes) pour un environnement de production à grande échelle. - Expertise en scripting (Bash, Python) pour l'automatisation de tâches complexes. - Excellente compréhension des systèmes distribués et des environnements de production élastiques. - Sens de la communication pour collaborer efficacement avec des équipes pluridisciplinaires. Compétences techniques requises : - Infrastructure as Code : Ansible pour l'automatisation et la gestion de l'infrastructure. - Orchestration et conteneurisation : Kubernetes et Docker pour le déploiement et la gestion des applications. - Automatisation et scripting : Maîtrise de Bash et Python pour l'automatisation des workflows. - CI/CD : Expérience avec GitLab CI, Jenkins, et Nexus pour créer et gérer des pipelines CI/CD. - Middleware et traitement de données : Connaissances en Kafka, Cassandra, Elastic pour gérer les données distribuées et le traitement de flux en temps réel. - Monitoring avancé : Grafana, Prometheus et Kibana pour la surveillance des systèmes et la gestion proactive des performances. - Systèmes et réseaux : Maîtrise des environnements Linux et des concepts réseau (TCP/IP, firewalls) pour optimiser la sécurité et la connectivité de la plateforme. Compétences additionnelles : - Connaissance des principaux fournisseurs de cloud (AWS, Azure, GCP) pour la gestion d'infrastructure multi-cloud. - Compréhension des bases de données relationnelles et NoSQL pour assurer la résilience des données. - Capacité d'analyse et d'anticipation pour résoudre les problèmes complexes et prévenir les incidents. - Curiosité technique et capacité d'apprentissage pour se tenir à jour sur les nouvelles pratiques DevOps et SRE.
Mission freelance
Lead Data Engineer Senior
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Mission freelance
Architecte Solution Big Data (H/F)
Jeune entreprise innovante, Digital Partners a pour ambition de devenir un acteur incontournable du digital, et ce dans l'ensemble de ses marchés. Digital Partners intervient en transformation digitale, efficience opérationnelle et data analytics auprès de sociétés de tous secteurs d'activité. Dans le cadre de notre développement nous recherchons un Architecte Solution Big Data (H/F) dans le cadre d'un projet Big Data. Description du poste : Nous recherchons un Architecte Solution expérimenté pour rejoindre notre équipe dédiée à la transformation digitale et aux projets Big Data dans le secteur de la logistique et de la livraison. Le candidat idéal concevra des architectures logicielles robustes et adaptatives pour des solutions de gestion de flux de données à grande échelle, contribuant à optimiser les services de suivi et de gestion d'objets de livraison. Responsabilités : - Concevoir et mettre en oeuvre des architectures système et logicielles adaptées aux besoins des projets Big Data et en ligne avec les exigences d'urbanisme. - Assurer la cohérence et l'homogénéité des solutions logicielles tout en garantissant leur évolutivité et adaptabilité. - Collaborer avec les équipes de développement pour leur communiquer les règles d'architecture et offrir un support technique. - Participer à la définition de l'architecture fonctionnelle des projets en collaboration avec les urbanistes. - Analyser et proposer des améliorations sur les architectures existantes. Compétences requises : - Expérience significative en architecture de solutions Big Data. - Maîtrise des technologies Java, Scala et de frameworks comme Spring Boot. - Connaissance des outils de traitement de flux (Kafka, Spark Streaming, Akka Streaming). - Compétences en bases de données distribuées (Cassandra, Elasticsearch). - Connaissance des environnements de déploiement Docker, Kubernetes et Jenkins. - Compétences en méthodologies agiles (Scrum) pour s'intégrer dans un contexte de développement itératif. Profil recherché : - Niveau : Sénior à Expert en architecture logicielle. - Expérience de collaboration dans un environnement agile. - Capacité à travailler en équipe, à former et guider les développeurs sur les bonnes pratiques. - Autonomie, rigueur et excellent sens de la communication. Conditions de travail : - Localisation : Issy-les-Moulineaux avec possibilité de télétravail partiel. - Disponibilité : Démarrage souhaité début décembre 2024.
Mission freelance
Dévelopeur Java/Scala (H/F)
Jeune entreprise innovante, Digital Partners a pour ambition de devenir un acteur incontournable du digital, et ce dans l'ensemble de ses marchés. Digital Partners intervient en transformation digitale, efficience opérationnelle et data analytics auprès de sociétés de tous secteurs d'activité. Dans le cadre de notre développement nous recherchons un Dévelopeur Java/Scala (H/F) dans le cadre d'un projet Big Data. Contexte de la Mission : Nous recherchons un développeur Java/Scala pour rejoindre une équipe technique travaillant sur des projets Big Data dans le cadre de la transformation digitale d'un acteur majeur de la logistique pour l'intégration de systèmes et l'optimisation des flux de données. Vos missions : - Participer au développement des injecteurs et des adaptateurs en Java et Scala. - Implémenter des microservices permettant la gestion et le suivi des flux de données. - Réaliser les tests unitaires et d'intégration pour garantir la qualité des composants. - Collaborer avec les Tech Leads et les Product Owners pour garantir la bonne intégration des composants dans l'architecture globale. Profil recherché : - Expérience : Minimum 3 ans d'expérience en développement Java/Scala dans des environnements Big Data. - Compétences techniques : - Langages : Java, Scala - Big Data : Kafka, Spark Streaming - Bases de données : Cassandra, Elasticsearch - Outils DevOps : Docker, Jenkins - Capacité à travailler en équipe et bonne connaissance des méthodologies agiles (Scrum). Pourquoi nous rejoindre ? - Projet d'envergure : Participez à un projet innovant et complexe visant à transformer la logistique. - Environnement stimulant : Travaillez sur des technologies modernes avec une équipe d'experts en Big Data. - Possibilité de télétravail partiel pour favoriser un équilibre entre vie professionnelle et personnelle. Modalités de la Mission : - Durée : 6 mois (renouvelable). - Localisation : Île-de-France avec possibilité de télétravail 2 jours par semaine.
Mission freelance
Tech Lead (H/F)
Jeune entreprise innovante, Digital Partners a pour ambition de devenir un acteur incontournable du digital, et ce dans l'ensemble de ses marchés. Digital Partners intervient en transformation digitale, efficience opérationnelle et data analytics auprès de sociétés de tous secteurs d'activité. Dans le cadre de notre développement nous recherchons un Consultant Tech Lead (H/F) dans le cadre d'un projet Big Data. Contexte de la Mission : Nous recherchons actuellement deux Tech Leads ayant une forte expertise en Java/Scala et une solide expérience dans des environnements Big Data. Vous rejoindrez une équipe dédiée au développement de solutions autour de la traçabilité des objets, de la gestion des événements, et de l'amélioration des services client dans le cadre d'un projet de transformation digitale majeur. Vos missions : - Définir l'architecture logicielle des solutions en collaboration avec l'équipe d'architectes. - Participer au développement en restant un acteur clé sur la partie technique pour maintenir votre expertise. - Accompagner et encadrer l'équipe de développeurs, en assurant la montée en compétences sur les technologies Big Data. - Garantir la qualité des livrables en effectuant des revues de code, en supervisant les tests unitaires et en optimisant les performances. - Contribuer à la veille technologique et au développement de prototypes, avec une capacité à être force de proposition sur les choix technologiques. - Collaborer étroitement avec les Product Owners, Scrum Masters, et les architectes pour garantir l'alignement de l'architecture et des développements avec les besoins métier. Profil recherché : - Expérience : Vous êtes un expert avec au moins 7 ans d'expérience professionnelle en développement Java et Scala, ainsi qu'une expérience significative en tant que Tech Lead sur des projets complexes. - Expertise technique : - Langages : Java, Scala (Spring Boot) - Big Data : Kafka, Spark Streaming, Akka - Bases de données : Cassandra, Elasticsearch - Déploiement : Docker, Kubernetes, Jenkins - Message Protocol : Protobuf, Avro - Compétences en leadership : Expérience dans l'encadrement et la montée en compétences des développeurs, mise en oeuvre des bonnes pratiques de développement, coaching agile. - Agilité : Bonne connaissance de la méthodologie Scrum, capable d'évoluer dans un environnement agile et d'encadrer les équipes dans ce cadre. Modalités de la Mission : - Durée : Mission de 6 mois (renouvelable selon les besoins). - Environnement de travail : Localisation en Île-de-France avec possibilité de télétravail partiel.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.