Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 125 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Data Engineer / Expert Big Data Senior

VISIAN
Publiée le
Apache Airflow
Apache Kafka
Apache Spark

2 ans
100-820 €
Guyancourt, Île-de-France

Les principales activités de la prestations sont: Construction d’offres DATA : • Packaging des nouvelles offres dans un environnement Kubernetes • L’automatisation, l’industrialisation et la documentation des solutions • L’intégration dans les offres de solutions de monitoring, alerting, gestion de droits • Assurer le RUN des solutions • Veille technologique autour de la Data: réalisation de POC, tests de performances et comparaison de solutions. Adaptions d’offres DATA existantes pour les intégrer dans l’environnement client : • Qualification des offres afin de mesurer leur niveau de maturité • L’intégration des offres Data de CA-GIP dans le SI client • L’intégration dans les offres de solutions de monitoring, alerting, gestion de droits Rôle de conseil expert : • Intervenir en assistance/expertises auprès de nos clients, obtenir leurs retours et comprendre leurs exigences • Evaluer les tendances du marché. Utiliser ces informations pour définir une vision du produit, cohérente avec la stratégie de l'entreprise, et déterminer les roadmaps a suivre • En lien avec les architectes, identifier la meilleur solution pour répondre au besoin client • Préparer la mise en place du produit en présentant sa valeur, et des démonstrations • Définir et documenter les patterns d’usage

Freelance

Mission freelance
Expert Kafka (Streams, Connect, ...) - Lausanne (Relocalisation obligatoire) / Nationalité UE

DATSUP
Publiée le
Apache Kafka
Azure
Intégration

1 an
100-3k €
Lausanne, Vaud, Suisse

Assurer la gestion et l'évolution de notre plateforme Kafka en fonction des besoins des applications Contribuer à la résolution des incidents et des problèmes liés à Kafka ; Travailler en étroite collaboration avec les équipes de développement, infrastructure et architecture ; Apporter une expertise technique sur l’architecture et veiller au respect des bonnes pratiques au sein des équipes ; Former et soutenir les équipes internes ; Environnement on-premise et cloud azure ;

CDI
Freelance

Offre d'emploi
Développeur Full Stack spécialisé en Kafka/Confluent

OMICRONE
Publiée le
Angular
Apache Kafka
AWS Cloud

1 an
10k-55k €
Île-de-France, France

Bonjour Nous sommes à la recherche de développeurs Full Stack spécialisés en Kafka/Confluent pour notre client de renom basé en France. Vous interviendrez sur des projets innovants et serez responsable de la conception, du développement et de l'intégration d'architectures distribuées. Vous collaborerez avec des équipes pluridisciplinaires pour implémenter des solutions robustes et scalables en utilisant Kafka et d'autres technologies de pointe. Vos principales responsabilités seront : Conception et développement d'applications full stack (backend et frontend) avec une forte intégration de Kafka/Confluent . Mise en place et gestion des pipelines de streaming de données avec Kafka pour assurer la scalabilité et la robustesse des applications. Collaborer avec les équipes DevOps pour déployer, superviser et optimiser les environnements de production. Analyse et résolution des incidents techniques liés à Kafka et aux microservices. Participer à l'amélioration continue des processus de développement et d'intégration. Documentation technique et partage des meilleures pratiques avec l'équipe.

CDI

Offre d'emploi
Développeur .net sénior

SII
Publiée le
.NET CORE
Angular
Apache Kafka

35k-50k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

SII Aix Méditerranée, accompagne ses clients dans l’intégration des nouvelles technologies, procédés et méthodes de management de l’innovation pour contribuer au développement de leurs futurs produits ou services et faire évoluer leurs systèmes d’information. Nous conjuguons de manière durable et vertueuse la satisfaction de nos clients avec le bien-être et l’épanouissement de nos collaborateurs tout en délivrant un haut niveau de performance. Au travers de notre entité composée de quatre-vingts consultants et de leurs expertises liées au développement logiciel, au test et à la chefferie de projet , nous intervenons aujourd’hui sur des projets à forte valeur ajoutée, ambitieux et à l’international autour des secteurs du numérique, de l’industrie et des services en assistance technique et/ou en engagement. Nous couvrons un vaste secteur vous permettant de trouver une opportunité proche de chez vous : nous disposons d’opportunités sur Aix-en-Provence, Venelles, Marseille, Gémenos ou encore Avignon. Vous aurez le choix de rejoindre une équipe ambitieuse, talentueuse et engagée sur des sujets tels que : la conception d’une carte à puce implantée dans des documents biométriques, le développement d’une application de livraison de colis, l’innovation dans le suivi de cargos maritimes ou bien encore le développement d’applications de gestions d’évènements autoroutiers ou de plateforme monétique. Rencontrons-nous et valorisons ensemble les métiers de l’ingénieur et son rôle de « Changeur de Monde ». Dans le cadre de l’accompagnement de nos clients grands comptes (logistique, autoroutier, industriel…) nous disposons d’opportunités de Développeurs .net F/H sur Aix-en-Provence et Avignon ! A ce titre, vos principales missions consistent à : Analyser et développer les composants en utilisant les langages et frameworks appropriés : C#, .net et/ou .net Core, Angular... Assurer le développement et la réalisation des applications Collaborer avec les équipes fonctionnelles et définir les spécifications techniques Harmoniser et industrialiser l’ensemble des composants et applications. Documenter les applications pour les développements ultérieurs et la mise en production. Réaliser les tests unitaires

Freelance
CDI
CDD

Offre d'emploi
Développeur Java backend Kafka / RabbitMQ

Lùkla
Publiée le
Ansible
Apache Kafka
Apache Maven

3 ans
55k-70k €
Île-de-France, France

Secteur d'activité : Energie Mission(s) : conception et développement d'applications de gestion et suivi de la distribution d'énergie en Java 8 et versions supérieures Attendu(s) : conception logiciels, développement de tests automatisés, gestion de la chaine d'intégration continue (CI/CD), analyse des anomalies, gestion de la performance, amélioration continue, software craftmanship Profil (s) : développeur backend , pas de front , les compétences Kafka et RabbitMQ (mises en oeuvre dans un cadre professionnel) sont obligatoires , familier l'intégration continue (chaines CI/CD) Méthodologie : agile SAFe, Devops Télétravail : 60%

Freelance
CDI

Offre d'emploi
Chef de Projet Technique Java / Cloud

VISIAN
Publiée le
Apache Kafka
Docker
Java

1 an
10k-38k €
Montreuil, Île-de-France

Le bénéficiaire souhaite une prestation d’accompagnement pour les développements et la maintenance des services de Customer Knowledge, au sein de l'équipe agile en charge de cette mission. Les volumes progressent en fonction de l'intégration qui en est faite par les entités, aussi la notion de service est importante au vu des enjeux par les consomateurs de nos APIs. Participation avec l'équipe au passage dans le Cloud. Le chef de projet doit à la fois etre technique et repondre aux exigence ci dessous

Freelance
CDI

Offre d'emploi
Ingénieur BIGDATA / KAFKA/Flink

AVA2I
Publiée le
Apache Kafka
Mongodb

3 ans
10k-60k €
Vincennes, Île-de-France

Spécialisé dans le secteur bancaire, l'entreprise recherche activement un ingénieur bigdata KAFKA/ MongoDB ou Flink pour renforcer ses effectifs. En tant qu' Ingénieur Big Data , vous serez responsable de la conception, du développement et de la gestion des solutions basées sur Kafka et MongoDB pour les plateformes Big Data de BNP Paribas. Vous interviendrez sur des projets stratégiques nécessitant une gestion efficace des données à grande échelle, tout en garantissant la fiabilité et la performance des systèmes de traitement des flux de données. Concevoir et déployer des architectures distribuées à haute performance pour la gestion de flux de données en temps réel à l’aide de Kafka . Développer et maintenir des bases de données NoSQL, principalement MongoDB , pour stocker et interroger des volumes massifs de données. Optimiser les environnements Kafka pour assurer la scalabilité et la résilience des systèmes. Participer à l'intégration de solutions Big Data dans les pipelines de traitement de données existants et nouveaux. Implémenter et optimiser les flux de données en temps réel avec Kafka Streams , en garantissant la robustesse des pipelines. Superviser les systèmes en place et analyser les performances des flux de données pour assurer leur continuité et leur efficacité. Mettre en place des outils de monitoring et de gestion des erreurs pour garantir une gestion proactive des incidents. Gérer les environnements MongoDB , y compris l’installation, la configuration, les sauvegardes, et la restauration. Optimiser les performances des bases de données en gérant l'indexation, la fragmentation et les partitions pour garantir un accès rapide aux données. Assurer la sécurité des données dans MongoDB en implémentant des contrôles d’accès, des audits et des politiques de chiffrement des données. Travailler en collaboration avec les équipes infrastructure, développement et métier pour comprendre les besoins et proposer des solutions techniques adaptées. Fournir un support technique de niveau 2/3 pour les environnements Kafka et MongoDB, incluant la résolution des incidents critiques. Participer à la rédaction de la documentation technique et au transfert de compétences au sein des équipes.

Freelance
CDI

Offre d'emploi
EXPERTISE ELK : BEAT, LOGSTASH, CLUSTER ELASTIC

Digistrat consulting
Publiée le
Apache Kafka
Elasticsearch
ELK

3 ans
40k-60k €
Paris, France

💡 Contexte /Objectifs : L'équipe en charge les services de monitoring , d'alerting et de collect de log sur 3 plaques. Le bclient souhaite mettre en oeuvre plusieurs évolutions de son socle technique en termes d’ Urbanisme des systèmes d'information Dans ce cadre, la prestation consiste à contribuer à/au(x) :  La collecte de log  La mise en place du dispositif ELK pour les différentes requêtes liés à la collecte de log  La gestion d'une volumétrie grandissante, multiplication de sources d'alimentation (evolution/tuning de l'infra existante et maintien en condition)  La mise en place d'un monitoring plus fin avec utilisation de l'IA  La configuration de logstash pour des tâches de parsing et d'enrichissements.  La mise en oeuvre de WEC (Windows Event Collector) pour collecter certaines sources.  L'usage d'un bus Kafka est à l'analyse pour l'enrigissement des logs  Les outils : Suite Elastic (Agents xBeat, collecteurs logstash, Elasticsearch,pipeline ,WEC, Kibana) / Parsing / Shell, LINUX. Les livrables attendus sont :  La mise à jour de la documentation  La maintien en condition des outils  Le développement des outils d'expoitation  La gestion des tickets d'incidents  La gestion des requêtes

CDI
Freelance

Offre d'emploi
Big Data Engineer Scala - Spark H/F

STORM GROUP
Publiée le
Apache Hive
Apache Kafka
Apache Spark

3 ans
10k-60k €
Île-de-France, France

[Contexte] La prestation se déroule au sein du pôle Cybersecurity eFraud & Solutions dans lequel sont développés les outils de Maching Learning lutte contre la fraude et de réponse cyber à des recommendations de la BCE en cartographie et microsegmentation réseau (Octoflow) L'outil permet de recenser les échanges entre serveur afin de certifer les logs. Pour cela l'équipe a besoin d'un data engénieur afin de parser les données des différentes sources afin de les restituer à un outil interne. socle technique : Spark, Scala, Hadoop, Hive, Control-M, Starburst, ElasticSearch, Hbase [La prestation consiste à contribuer à/au(x)] - exploration et parsing des données - développement de programmes de traitements de données (micro-services) en Scala/Spark - Examen du code et assurance qualité : respect des normes de codage et mise en œuvre des pratiques d'assurance qualité afin de maintenir un niveau élevé de qualité des logiciels. - L'assistance au Product Owner et aux autres entité dont les architectes, les parties prenantes et les bénéficaires pour définir les exigences du projet et garantir l'alignement sur les objectifs de l'entreprise - Expertise technique : tendances et technologies du secteur dont le domaine DATA, WEB, etc. et assistance à l'entité. - Résolution de problèmes : Défis techniques et contribuer à apporter des moyens innovants à des problèmes complexes. - Gestion des performances : Evaluations des performances, retour d'information et favoriser la croissance et le développement professionnels au sein de l'entité [Les livrables attendus sont] - exploration et parsing des données - développement de programmes de traitements de données (micro-services) en Scala/Spark - veille technologique d'outils contribuant à l'optimisation de la solution

Freelance

Mission freelance
Tech Lead / Développeur - Vue JS / Java Spring / Kafka (Lille 3j presentiel)

Cherry Pick
Publiée le
Apache Kafka
Java
Spring

12 mois
550-600 €
Lille, Hauts-de-France

Cherry Pick est à la recherche d'un "Tech Lead / Développeur - Vue JS / Java Spring / Kafka" pour un client dans le secteur du commerce de détail. Contexte de la mission Situé dans le domaine Value Chain, le sous-domaine Logistics & Transport, spécifiquement dans la partie InBound & OutBound, l’amélioration de notre WMS contribue directement à l’un des 5 piliers composant notre stratégie d’organisation. En résumé : Un Tech Lead, un pivot, un bras droit du produit et de l'équipe de développement permettant de mettre de l'huile dans les rouages et d'accompagner l'équipe dans le bon mindset. L’objectif de la mission est de faciliter et contribuer avec l'équipe à développer et maintenir des modules avec une haute qualité technologique, une haute fiabilité et une haute disponibilité tout en respectant la gouvernance technique du Groupe, en co-construisant une architecture applicative adapté au besoin fonctionnel. En détail : L’objectif de la mission est d’intégrer la feature team Loading du programme WarehouseBox en tant que Tech Lead. Au sein d’une feature team, les objectifs sont les suivants : Assurer le suivi de la vision et stratégie technique Faciliter la conception et la réalisation des modules, tout en collaborant avec le produit Modulaire / Distribué / Cloud Neutral / Pattern en fonction du besoin Assurer et évangéliser la qualité applicative par les tests Tests fonctionnels Tests acceptances TU / TI / End-End / … Evangéliser et responsabiliser l'équipe sur l'adaptation, l'utilisation et la contribution de l'outil d'échange de donnée (Boomi) Comprendre, respecter, maintenir et adapter la CI/CD Démarche DevOps Ecriture de documentation C4 Doc as code, … Technico / fonctionnelle S’assurer de la cohésion technique, qualité applicative, la disponibilité de l’application, la qualité des données Démarche SRE Mindset agile et de software craftmanship, le juste code pour le juste besoin Rotation d'astreinte avec l'équipe Partager avec pédagogie l’ensemble des compétences et connaissances Pair-programming / mob-programming, … Au sein du programme, des initiatives sont possible : Synchronisation cross feature Reporting, feedback, backlog cross tech Contribution cross programme Events, REX, POCs Modules génériques Tools, CI/CD, Starter, … Profil recherché : Tech Lead / Développeur confirmé / senior Nous cherchons un profil permettant de faire le pivot entre l'équipe de développement, le produit, les partenaires. Afin de s'assurer la communication entre les partie prenantes, l'utilisation des artefacts agile et d'assurer l'application de la stratégie technique du programme et dDu Groupe. Le profil sera également un membre à part entière de l'équipe de développement contribuant au build / run.

CDI

Offre d'emploi
Data Engineer

DPC
Publiée le
Apache Kafka
Apache Spark
AWS Cloud

10k-45k €
Île-de-France, France

Description du poste : En tant que Data Engineer chez Digital Power Consulting, vous serez chargé de la conception, de la mise en place et de l’optimisation des infrastructures de données. Vous interviendrez sur des projets stratégiques pour nos clients, en veillant à l'efficacité et à la qualité des flux de données. Vos missions : Concevoir et mettre en œuvre des pipelines de traitement des données. Collecter, stocker, transformer et traiter des données massives. Assurer la qualité, la sécurité et la scalabilité des infrastructures de données. Collaborer avec les équipes Data Science pour permettre une exploitation efficace des données. Optimiser les bases de données pour garantir des performances élevées. Participer à la mise en place de solutions Big Data et Cloud (AWS, Azure, GCP). Documenter les processus et les solutions techniques. Compétences requises : Maîtrise des langages de programmation tels que Python, Java ou Scala. Expérience dans la gestion des bases de données (SQL, NoSQL). Connaissance des technologies de traitement de données (Hadoop, Spark, Kafka). Bonne maîtrise des services Cloud (AWS, Azure, GCP). Expérience dans la gestion des pipelines de données CI/CD. Compétences en optimisation de bases de données et en data modeling. Une bonne connaissance des outils ETL est un plus.

CDI
Freelance

Offre d'emploi
Développeur Backend Open - Expérimenté

VPEX-IT
Publiée le
Agile Scrum
Apache Kafka
API REST

1 an
10k-50k €
Montpellier, Occitanie

Taches Concevoir et Développer des programmes en Java pour le produit Participer au projet majeur de l'équipe : automatisation des saisies. Contribuer au maintien en conditions opérationnelles des produits de l'équipe. Attendu Conception et Développement, dans les critères de qualités, de coûts et de délais attendus au sein de l'équipe. Avoir une vision transverse des impacts de ses travaux sur l’écosystème et les environnements de fabrication et de production. En mission secondaire, l'équipier pourrait être amené à prêter assistance lors de la résolution d'incidents en production.

Freelance

Mission freelance
Développeur java/node/vue (H/F)

Insitoo Freelances
Publiée le
Apache Kafka
Java
Javascript

2 ans
100-450 €
Lille, Hauts-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur java/node/vue (H/F) à Lille, Hauts-de-France, France. Contexte : Concevoir les couches API permettant aux différentes solutions de produire et consommer les flux (API / JSON / REST / XML - Kafka event driven architecture) Les missions attendues par le Développeur java/node/vue (H/F) : Développer from scratch en équipe Evaluer la charge des développements Mettre en œuvre ces couches applicatives et réaliser les différentes typologies de tests associés (unitaire, Intégration, end2end) Appliquer / Challenger les préconisations d’architectures, de sécurité et de performance Mise en place de monitoring Design / mise en oeuvre d’un front pour les administrateurs des solutions Documentation des développements

Freelance
CDI

Offre d'emploi
Lead Tech H/F

MSI Experts
Publiée le
Angular
Ansible
Apache Kafka

6 mois
41k-51k €
Lyon, Auvergne-Rhône-Alpes

Nous sommes à la recherche d'un.e Lead Technique pour réaliser une mission chez l'un de nos clients. Vous serez référent.e d'une équipe agile de 15 collaborateurs. Le périmètre technique sur lequel vous interviendrai comprend à la fois les aspects Ops (infrastructure, déploiement, monitoring) que développement (architecture logicielle, bonnes pratiques de code, qualité). En tant que tel.le, vos missions consisterons à : Élaborer la roadmap technique et prioriser les sujets en fonction des objectifs métiers. Être le.la référent.e technique principal.e pour toutes les questions concernant le projet. Animer et coordonner les équipes techniques dans un environnement agile. Assurer la qualité des livrables techniques et la conformité aux exigences métiers et techniques. Conduire des ateliers techniques avec les équipes de développement et les partenaires externes. Participer à la conception de solutions techniques robustes et sécurisées.

Freelance

Mission freelance
Expert ELK (ElasticSearch, Logstash, Kibana) et monitoring IT

Archytas Conseil
Publiée le
Apache Kafka
Elasticsearch
Kibana

12 mois
100-950 €
Île-de-France, France

Expertise ELK : BEAT, LOGSTASH, CLUSTER ELASTIC Contexte et objectifs de la prestation L’entité en charge de l’infrastructure informatique souhaite améliorer la gestion de ses systèmes dans le cadre d’une approche ITIL. Le département concerné assure la gestion de la production informatique et couvre les services de monitoring, d’alerte et de collecte de logs pour les régions EMEA, AMER et ASIA. L’objectif principal de la mission est de renforcer la gestion des systèmes informatiques en recourant à une expertise avancée dans l’urbanisme des systèmes d’information. La prestation inclura notamment : • La collecte des logs de l’entité de monitoring. • La mise en place et l’optimisation d’un dispositif ELK pour les requêtes liées à la collecte de logs. • La gestion d’une volumétrie de données croissante, incluant l’évolution et le tuning de l’infrastructure existante. • La mise en œuvre d’un monitoring plus fin, en intégrant des solutions d’intelligence artificielle. • La configuration de Logstash pour le parsing et l’enrichissement des logs. • L’implémentation de WEC (Windows Event Collector) pour la collecte de certaines sources. • Analyse de l’utilisation d’un bus Kafka pour l’enrichissement des logs. Livrables attendus • Mise à jour de la documentation existante. • Maintien en condition opérationnelle des outils. • Développement d’outils d’exploitation. • Gestion des tickets d’incidents. • Traitement des requêtes. Type de prestation & niveau attendu La prestation attendue correspond à un IT System Master Plan de niveau 3 . Lieu de la prestation La mission se déroulera principalement en Île-de-France, dans les locaux du client. Il est prévu que 50% de la prestation soit réalisée à distance. Critères de sélection • Expertise du prestataire dans le domaine requis. • Références sur des projets similaires. • Démarche proposée et qualité de la réponse. • Capacité à prendre en charge l’environnement global et garantir la réussite de la mission. • Respect des délais et des charges de réalisation.

Freelance

Mission freelance
Architecte Applicatif – Expert en Data et Algorithmes de Régulation H/F

Pickmeup
Publiée le
Apache Kafka
Azure
Microsoft Power BI

12 mois
600-800 €
Paris, France

Nous recherchons un architecte applicatif senior (10-15 ans d’expérience) pour une mission stratégique de régulation algorithmique et de traitement de données en temps réel. La mission consiste à : • Concevoir et mettre en place un algorithme de régulation pour optimiser les tournées logistiques. • Collecter de la data IRL directement depuis l’ERP de l’entreprise. • Réaliser des calculs complexes en temps réel et réinjecter les données dans l’ERP pour ajuster les tournées. • Concevoir des API robustes et performantes pour intégrer les données transactionnelles. • Établir une architecture événementielle (ou évaluer la pertinence d’une telle architecture) avec des technologies comme Kafka et des stacks cloud. • Travailler sur un flux de Business Intelligence (BI), basé sur des pipelines qui récupèrent la data toutes les heures via Azure et Power BI. Le rôle est autant opérationnel que conseil : nous avons besoin d’une personne pragmatique et proactive, capable de proposer des solutions concrètes et de les implémenter rapidement.

125 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous