Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 264 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Expert Kafka (Streams, Connect, ...) - Lausanne (Relocalisation obligatoire) / Nationalité UE

DATSUP
Publiée le
Apache Kafka
Azure
Intégration

1 an
100-3k €
Lausanne, Vaud, Suisse

Assurer la gestion et l'évolution de notre plateforme Kafka en fonction des besoins des applications Contribuer à la résolution des incidents et des problèmes liés à Kafka ; Travailler en étroite collaboration avec les équipes de développement, infrastructure et architecture ; Apporter une expertise technique sur l’architecture et veiller au respect des bonnes pratiques au sein des équipes ; Former et soutenir les équipes internes ; Environnement on-premise et cloud azure ;

Freelance

Mission freelance
Concepteur nest JS / vue / kafka (H/F)

Espace Freelance
Publiée le
NestJS
Vue.js

12 mois
100-420 €
Villeneuve-d'Ascq, Hauts-de-France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Concepteur nest JS / vue / kafka (H/F) Mission à pourvoir en régie sur Lille Présence sur site : 3 jours / semaine Cette mission consiste à : Concevoir et développer des solutions digitales , principalement pour des produits liés aux finances comme l'achat, la facturation et le paiement. Vous travaillerez dans un environnement SCRUM/Agile en collaboration avec le Product Owner Accompagnez les développeurs moins expérimentés. Les compétences requises incluent la maîtrise de NestJS, Kafka, PostgreSQL, MongoDB/Redis, ainsi que le développement d'API Rest. Une bonne compréhension des environnements Agile est également nécessaire. Le travail se fait à Ronchin, avec 2 jours minimum sur site par semaine, et le matériel informatique n'est pas fourni.

Freelance

Mission freelance
Tech Lead KAFKA

Signe +
Publiée le
Apache Kafka

3 mois
490-800 €
Lyon, Auvergne-Rhône-Alpes

Nous recherchons un Tech Lead expert en Kafka pour accompagner notre équipe dans le développement de flux Kafka et pour conseiller sur les choix techniques liés à l’architecture des flux de données. Kafka est un composant stratégique pour notre organisation et deviendra de plus en plus central dans les deux prochaines années. Actuellement, nous utilisons une solution managée Kafka sur AWS (Amazon MSK) et prévoyons de déployer des brokers Kafka at Edge sur nos différents sites. Responsabilités : Développer et concevoir des flux Kafka pour répondre aux besoins métier. Proposer des configurations optimisées pour la synchronisation de brokers Kafka distants. Conseiller sur l'architecture technique et les bonnes pratiques de développement de flux Kafka. Participer à la mise en place et à la gestion de l’infrastructure Kafka sur AWS et à l’Edge. Collaborer avec les équipes pour intégrer Kafka comme une solution stratégique. Assurer la qualité et la performance des flux de données.

Freelance
CDI

Offre d'emploi
Développeur C# .NET Core Kafka Senior

Digistrat consulting
Publiée le
Apache Kafka

36 mois
10k-177k €
Paris, France

💼 Poste : Développeur C# .NET Core Kafka 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Contribution au développement autour de la nouvelle plateforme orientée services (SOA) ayant comme socle Kafka et Cassandra. Technologie Kafka est un plus puisque la mission s'articulera principalement autour de cette technologie. Nous intervenons sur le développement de service pour le Front Office. 🤝 Expertises spécifiques : Objectifs de la mission Développement C# .NET Core Méthodologie : BDD/TDD Utilisation de Kafka/Cassandra Maintenance applicative Documentation / Testing Support L3

CDI
Freelance

Offre d'emploi
Data Eng Spark

REDLAB
Publiée le
Apache Spark
Hadoop
Web service

24 mois
38k-47k €
Paris, France

L’objectif de la mission est de contribuer à l’industrialisation des processus et traitements big data mis en œuvre dans le cadre de la plateforme mégadonnées de client et d’assurer la maintenance des pipelines d’intégration et de transformation des données à l’EDS Prestation de développements & Ingénierie big data dans le cadre de l’intégration et d’exploration de données dans un contexte big data et du cluster données massives Conception et réalisation/développement d’outils et traitements d’intégration et de standardisation de données massives dans le cadre d’une plateforme Hadoop, Contribution à l’industrialisation d’outils d’exploration des données (restitution des données de type tableaux de bord, projets de recherche thématiques, bibliothèques de code spécifiques, etc.) ; Participation à la standardisation des modèles de données (format FHIR/OMOP) et à la conception d’API appropriés (Webservices FHIR, etc.) ; Spécifications techniques détaillées ; Test unitaire et recette technique ; Documentation de conception, réalisation et d’exploitation. L’objectif de la mission consiste à participer à la mise en place d’outils de pilotage

Freelance

Mission freelance
Intégrateur technique

CAT-AMANIA
Publiée le
Apache Tomcat
Control-M
PostgreSQL

1 an
100-360 €
Nanterre, Île-de-France

Recherche d'un intégrateur de production pour travailler chez un de nos clients au sein de la direction technique dont le rôle est de définir les architectures et solutions techniques et exploite les services IT et pilote la production informatique. Dans ce cadre, au sein du service Production des Systèmes Informatiques (PSI) l’intégrateur de production a pour mission d’intégrer et de paramétrer les solutions logicielles. Il prépare et suit avec les équipes de la production informatique, les mises en exploitation des applications. La prestation comprend : Traitement des incidents & changements en HO/HNO S’assure de la conformité des livrables Installe les nouveaux modules du progiciel ainsi que les évolutions demandées Réalise des contrôles post opération (sanity check) Activités complémentaires : Collaboration étroite avec les équipes BT en place Force de proposition sur l’amélioration continu

Freelance
CDI

Offre d'emploi
Développeur C# .NET Core Kafka Senior

Digistrat consulting
Publiée le
Apache Kafka

36 mois
10k-177k €
Paris, France

💼 Poste : Développeur C# .NET Core Kafka 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Contribution au développement autour de la nouvelle plateforme orientée services (SOA) ayant comme socle Kafka et Cassandra. Technologie Kafka est un plus puisque la mission s'articulera principalement autour de cette technologie. Nous intervenons sur le développement de service pour le Front Office. 🤝 Expertises spécifiques : Objectifs de la mission Développement C# .NET Core Méthodologie : BDD/TDD Utilisation de Kafka/Cassandra Maintenance applicative Documentation / Testing Support L3

Freelance
CDI

Offre d'emploi
Développeur Concepteur Big data Talend Spark Scala

Digistrat consulting
Publiée le
Talend

36 mois
10k-65k €
Paris, France

💼 Poste : Développeur Concepteur Big data Talend 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département exerce 3 missions principales : Garantir des services opérationnels d'excellence : sécurité des SI et maîtrise des risques opérationnels, qualité de la production informatique et pérennisation du SI. Délivrer des solutions SI innovantes, orientées clients, pour construire la banque relationnelle et digitale de demain . Améliorer son efficacité opérationnelle, en réponse aux enjeux d'agilité et de time to market, et optimiser les coûts informatiques. Le Bénéficiaire souhaite avoir une expertise en développement sur l'écosystème BIG DATA. A ce titre, le Bénéficiaire souhaite avoir l’expertise du prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - développements d'usages BIG DATA : Conception technique des développements Supervision des traitements en place Cérémonies agile (méthode Scrum) Livrables attendus Les livrables attendus sont : Dossier de conception Programmes versionnés Documentation projet nécessaire aux MEP 🤝 Expertises spécifiques : Les expertises attendues pour réaliser cette prestation sont listées ci-après : Agile Scrum Environnement Cloudera Compétences en développement (Shell unix, Perl, PHP, Python, git, github) Hadoop (Big Data) HiveQL, scripting shell, environnmnent Conda Spark (PySpark), (gestion de volumes de données importants) Talend (Data integration, Big Data)

Freelance

Mission freelance
Kafka AMQ Stream Expert

JCW Search Ltd
Publiée le
Apache Kafka

20 jours
100-600 €
Île-de-France, France

JCW est a la recherche d'un Expert Kafka AMQ Streams (Openshit Operator) pour l'un de ces clients. LE PROFIL: Savoir dessiner et implémenter KAKFKA Faire la partie Run de Kafka et dans environnement challengeant Savoir mesurer - monitoriser les métriques Savoir quel seuil considerer Savoir expliquer et résoudre les problèmes majeurs que l'on peut retrouver sur chaque axes (Producteur - Consommateur - courtier) LA MISSION: Démarrage ASAP Localisation: Ile-de-France Durée: Mission ponctuelle - 20 jours Langues: Anglais professionnel impératif et francais Si vous êtes intéressé ou connaissez une personne qui peut l'être, envoyez mois vos CV en anglais , à pour une considération immédiate.

Freelance

Mission freelance
Team Lead DevSecOps - ActiveMQ Kafka

Intuition IT Solutions Ltd.
Publiée le
Agile Scrum
Apache Kafka

12 mois
600-750 €
Vélizy-Villacoublay, Île-de-France

Nous recherchons un DevSecOps Senior pour être le leader de l’équipe en charge de notre Infrastructure Cloud de Messaging pour améliorer la performance, la scalabilité, la sécurité et la stabilité de nos instances de production. La mission consiste à: Ø Piloter et participer aux efforts de R&D de l'équipe pour livrer notre infrastructure de Messaging et Streaming d’événements dans un environnement DevSecOps, Ø Concevoir des schémas de migration fiables pour nos applications clientes vers notre nouvelle infrastructure de messaging, Ø Evangéliser les bonnes pratiques ActiveMQ et Kafka, et les principes des conceptions orientés évènements, Ø La Prestation nécessite un travail en étroite collaboration avec les services owners et les équipes Cloud Opérations. Livrables: - Livraison des infrastructures de Messaging et Streaming d’événements dans un environnement DevSecOps, - Concevoir des schémas de migration fiables pour nos applications clientes vers notre nouvelle infrastructure de messaging, - Etre support pour toutes les procédures à mettre en place et vérifier leur bonne application pratique sur les différents outils ActiveMQ et Kafka - Etre support technique aux équipes de Cloud RUN pour le troubleshooting des incidents de production - Gestion au quotidien & coaching technique et humain de l’équipe Messaging (ingénieurs DevSecOps)

Freelance
CDI

Offre d'emploi
Techlead JAVA BACKEND Active Pivot Multithreading Calculs distribués Apache Ignite Clickhouse

Digistrat consulting
Publiée le
Java

36 mois
10k-200k €
Paris, France

Objectif : Au sein de l'équipe IT RISK PnL, vous interviendrez sur une application d'aide à la décision pour le trading. L'application permet de gérer des données historiques sur les clients, les données de marché, les données intraday et des mesures de risques ainsi que visualiser les axes de trading. L'application utilise : - Angular 15 comme front end - Java 11 et Python 2 en back end - Apache ignite pour le calcul distributé - Mongo DB comme base de données - Pour la partie déploiement on utilise Docker / kubernetes et Jenkins Liste des tâches attendues dans le cadre de la mission : Le candidat sera chargé de la partie back end ainsi que de la partie dev ops L'objectif est de développer des nouvelles fonctionnalités demandées par le trading Améliorer techniquement la stabilité et la partie calcul distribué de l'application en testant de nouvelles solutions

CDI
Freelance

Offre d'emploi
Ingénieur de production devops

AVA2I
Publiée le
Ansible
Apache Tomcat
Grafana

3 ans
10k-50k €
Vincennes, Île-de-France

Spécialisé dans le secteur bancaire, l’entreprise recherche activement un Ingénieur de Production DevOps spécialisé dans les serveurs d'applications « JBoss » et « Tomcat » pour renforcer ses équipes. Vous jouerez un rôle clé dans le maintien et l’optimisation de l’infrastructure applicative, en assurant la bonne gestion des environnements de production tout en intégrant les pratiques DevOps. Vous interviendrez dans un contexte technique exigeant et stimulant, au sein d'une entreprise où l’innovation et la fiabilité des services IT sont essentielles. Missions principales : 1. Gestion de l’infrastructure de production : - Administration des serveurs d’applications : Assurer l’installation, la configuration et la maintenance des serveurs JBoss et Tomcat. - Surveillance et optimisation des performances : Superviser les performances des applications et des serveurs, en optimisant les temps de réponse et la disponibilité. - Mise en production : Automatiser les processus de déploiement des applications via des pipelines CI/CD, en veillant à la stabilité des environnements. - Résolution des incidents : Diagnostiquer et résoudre les incidents critiques en production, en coordination avec les équipes développement et infrastructure. - Sécurité : Appliquer les bonnes pratiques en matière de sécurité sur les serveurs d'applications, et assurer la conformité des environnements avec les politiques internes de sécurité. 2. Implémentation des pratiques DevOps : - Automatisation : Développer et maintenir des scripts d'automatisation pour les tâches récurrentes (déploiement, supervision, maintenance) via des outils tels que Ansible, Jenkins ou Docker. - Amélioration continue : Participer à l'optimisation des processus d'intégration et de livraison continue (CI/CD), en collaboration avec les équipes de développement. - Suivi et monitoring : Mettre en place des outils de monitoring (Nagios, Prometheus, Grafana) pour surveiller en temps réel les performances et les incidents des applications. - Cloud et conteneurisation : Contribuer à la migration ou à l'intégration des services applicatifs vers des environnements cloud (AWS, Azure) ou conteneurisés (Docker, Kubernetes). 3. Collaboration et gestion de projets : Projets transverses : Participer à des projets d’évolution technologique ou de transformation des infrastructures, en lien avec la stratégie DevOps de l'entreprise. - Support technique : Agir en tant que référent technique pour les équipes développement, infrastructure et sécurité, afin d'assurer une gestion optimale des environnements. - Documentation et reporting : Rédiger et maintenir à jour la documentation technique et les procédures d'exploitation. Produire des rapports réguliers sur la performance et la disponibilité des services.

Freelance

Mission freelance
Leader administration de message kafka rabbitmq

Innov and Co
Publiée le
Apache Kafka
RabbitMQ

12 mois
100-700 €
Vélizy-Villacoublay, Île-de-France

Dans ce cadre, la Prestation consiste à contribuer à : Ø Être le leader de l’équipe en charge de notre Infrastructure Cloud de Messaging pour améliorer la performance, la scalabilité, la sécurité et la stabilité de nos instances de production, Ø Piloter et participer aux efforts de R&D de l'équipe pour livrer notre infrastructure de Messaging et Streaming d’événements dans un environnement DevSecOps, Ø Concevoir des schémas de migration fiables pour nos applications clientes vers notre nouvelle infrastructure de messaging, Ø Evangéliser les bonnes pratiques ActiveMQ et Kafka, et les principes des conceptions orientés évènements, Ø La Prestation nécessite un travail en étroite collaboration avec les services owners et les équipes Cloud Opérations.

Freelance
CDI

Offre d'emploi
Data Engineer Python/Spark

VISIAN
Publiée le
Apache Spark
Informatica
PySpark

2 ans
10k-70k €
Paris, France

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'n Data Engineer Python/Spark. Les missions de la prestation notamment seront : Remplacement des pipelines Informatica par des pipelines spark, pyspark et python Ordonnancement : Remplacement du DAC de OBIEE par Dagster Restitution : Création de rapports sur Apache SuperSet sur la base du LakeHouse Les principales missions à mener sont : - Description des fonctionnements existants et des besoins couverts, - Développement d’une solution de collecte de données, - Développement d’un système de stockage de la donnée, - Réalisation de tests unitaires, - Mise en place d’un suivi des traitements, - Assistance à la recette par la MOA / les utilisateurs.

Freelance

Mission freelance
Data Engineer - Python Airflow (H/F)

NSI France
Publiée le
Apache Airflow
Automatisation
DevOps

3 ans
100-590 €
Paris, France

En tant que Data Engineer Python Airflow, vous travaillerez en direct avec le Team Lead, les business analystes et le PO. Vous aurez à cœur de comprendre le business model. Vos activités principales seront : Automatiser des processus répétitifs sans valeur ajoutée dans le but de les optimiser et répondre ainsi aux besoins d’excellence opérationnelle Apporter de la valeur ajoutée aux applications et aux métiers par utilisation d’algorithmes d’IA par exemple Développer des processus automatisés en utilisant la technologie Airflow en relation étroite avec les métiers Contribuer aux différentes plateformes et frameworks développés

Freelance
CDI

Offre d'emploi
Tech Lead Java Spark

Digistrat consulting
Publiée le
Java

36 mois
10k-60k €
Paris, France

💼 Poste : Tech Lead Java Spark référence 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Notre client souhaite mettre en œuvre le volet transformation du système d'information du programme d'amélioration du dispositif de pilotage et de certification de l'assiette risques structurels dont les objectifs sont : Amélioration et accélération de la constitution de l'assiette risques structurels La certification de cette assiette risques structurels cohérente comptable Renforcer la remédiation en termes de qualité de donnée et réduire le nombre d'ajustements manuels Notre client souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre notre client souhaite bénéficier de l'expertise du Prestataire en termes de conception et développement. Dans ce cadre, la prestation consiste à contribuer à/au(x): L’instruction et le cadrage technique des projets, L’implémentation de solutions techniques en méthodologie agile Environnement technique : Java (Spark est un gros plus, Python est un plus) Devops : Ansible, Jenkins, GitHub Actions, Sonar, Artifactory Big Data & Cloud : Cloudera CDP, Apache stack (HDFS, Oozie, Yarn) Data : Oracle DB, PostgreSQL, Hive, Elastic Search, REST APIs Livrables attendus Les livrables attendus sont : Notes de cadrage techniques Spécifications techniques Support et développement sur toutes les releases 2024-2025 🤝 Expertises spécifiques : Agile Scrum Ansible Artifactory Compétences en développement (Shell unix, Perl, PHP, Python, git, github) Elastic Search & Kibana Hive Java Jenkins Oracle Database Enterprise Server PostGreSQL REST Scripting (GuitHub, Ansible, AWX, shell, vba) Sonar

264 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous