Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 209 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI

Offre d'emploi
Data Ingénieur Big Data

Crafteam
Publiée le
Apache Airflow
Apache Hive
Apache Spark

10k-63k €
Île-de-France, France

Taches : Travailler avec le PO pour l'alimentation et la gestion du backlog Implémenter les fonctionnalités validées par le métier Revue de code Préparation et déroulement des plans de tests et de recette Réception, validation et intégration des données : Base de données relationnelles Web services Fichiers Analyse et résolution des incidents : Supervision des applications pour s'assurer de ; La bonne exécution des traitement / La complétude et cohérence des données Attendue de la mission : Rédaction et affinage des récits utilisateurs Design et réalisation des applications Big Data Etude de faisabilité et réalisation des POC Chiffrage des évolutions et étude d'impact Participation à des rituels Agile Résolution des incidents Support et Assistance technique des utilisateurs Migrations et montées de version Packaging des versions et déploiement CI / CD Tests unitaires Tests intégration Assistance et accompagnement pour les plans de recette

Freelance
CDI

Offre d'emploi
Chef de Projet Technique Java / Cloud

VISIAN
Publiée le
Apache Kafka
Docker
Java

1 an
10k-38k €
Montreuil, Île-de-France

Le bénéficiaire souhaite une prestation d’accompagnement pour les développements et la maintenance des services de Customer Knowledge, au sein de l'équipe agile en charge de cette mission. Les volumes progressent en fonction de l'intégration qui en est faite par les entités, aussi la notion de service est importante au vu des enjeux par les consomateurs de nos APIs. Participation avec l'équipe au passage dans le Cloud. Le chef de projet doit à la fois etre technique et repondre aux exigence ci dessous

Freelance
CDI

Offre d'emploi
Data Engineer sénior H/F

GROUPE ALLIANCE
Publiée le
Apache Spark
Python
Scala

36 mois
45k-60k €
Paris, France

SI LA GESTION DES DONNEES EST TON DADA, TU PEUX GAGNER LA COURSE EN LISANT CETTE ANNONCE … Ce que tu recherches : Evoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’acteurs majeurs du secteur Bancaire, tu participeras des projets d’envergure sur des évolutions majeures à mettre en œuvre dans le SI du client : Analyse des besoins, tu feras Spécifications techniques, tu rédigeras L’architecture et/ou socle technique, tu définiras Bonnes pratiques, tu instaureras De nouvelles fonctionnalités, tu développeras Zéro bug, tu laisseras Ton équipe, tu accompagneras Aux instances de pilotage, tu participeras

Freelance

Mission freelance
Architecte Applicatif – Expert en Data et Algorithmes de Régulation H/F

Pickmeup
Publiée le
Apache Kafka
Azure
Microsoft Power BI

12 mois
600-800 €
Paris, France

Nous recherchons un architecte applicatif senior (10-15 ans d’expérience) pour une mission stratégique de régulation algorithmique et de traitement de données en temps réel. La mission consiste à : • Concevoir et mettre en place un algorithme de régulation pour optimiser les tournées logistiques. • Collecter de la data IRL directement depuis l’ERP de l’entreprise. • Réaliser des calculs complexes en temps réel et réinjecter les données dans l’ERP pour ajuster les tournées. • Concevoir des API robustes et performantes pour intégrer les données transactionnelles. • Établir une architecture événementielle (ou évaluer la pertinence d’une telle architecture) avec des technologies comme Kafka et des stacks cloud. • Travailler sur un flux de Business Intelligence (BI), basé sur des pipelines qui récupèrent la data toutes les heures via Azure et Power BI. Le rôle est autant opérationnel que conseil : nous avons besoin d’une personne pragmatique et proactive, capable de proposer des solutions concrètes et de les implémenter rapidement.

Freelance
CDD

Offre d'emploi
Data Engineer confirmé/sénior H/F

SMARTPOINT
Publiée le
Apache Spark
Azure
Databricks

6 mois
10k-55k €
Île-de-France, France

Nous recherchons un Data Engineer confirmé/sénior avec une forte expertise sur Azure, Databricks, Spark, Scala, Python et SQL : · Développement et l’implémentation de solutions Big Data Analytics · Analyse du besoin, étude d'impacts et conception de la solution technique · Conception et modélisation des données au niveau d'un Data Lake (format Parquet, Delta table, …) · Construction des pipelines de données pour collecter, transformer et traiter des données dans le Data Lake · Développements de notebooks (ex : Databricks) de traitements avancés des données · Cloud Datawarehousing (tuning, optimisation de traitements et requêtes SQL) · Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) · Revue de code · Réalisation de tests unitaires · Maintenance corrective et évolutive · Livraison dans un environnement Devops, CI/CD et outils associés

Freelance

Mission freelance
Développeur java/node/vue (H/F)

Insitoo Freelances
Publiée le
Apache Kafka
Java
Javascript

2 ans
100-450 €
Lille, Hauts-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur java/node/vue (H/F) à Lille, Hauts-de-France, France. Contexte : Concevoir les couches API permettant aux différentes solutions de produire et consommer les flux (API / JSON / REST / XML - Kafka event driven architecture) Les missions attendues par le Développeur java/node/vue (H/F) : Développer from scratch en équipe Evaluer la charge des développements Mettre en œuvre ces couches applicatives et réaliser les différentes typologies de tests associés (unitaire, Intégration, end2end) Appliquer / Challenger les préconisations d’architectures, de sécurité et de performance Mise en place de monitoring Design / mise en oeuvre d’un front pour les administrateurs des solutions Documentation des développements

CDI

Offre d'emploi
Data Engineer

DPC
Publiée le
Apache Kafka
Apache Spark
AWS Cloud

10k-45k €
Île-de-France, France

Description du poste : En tant que Data Engineer chez Digital Power Consulting, vous serez chargé de la conception, de la mise en place et de l’optimisation des infrastructures de données. Vous interviendrez sur des projets stratégiques pour nos clients, en veillant à l'efficacité et à la qualité des flux de données. Vos missions : Concevoir et mettre en œuvre des pipelines de traitement des données. Collecter, stocker, transformer et traiter des données massives. Assurer la qualité, la sécurité et la scalabilité des infrastructures de données. Collaborer avec les équipes Data Science pour permettre une exploitation efficace des données. Optimiser les bases de données pour garantir des performances élevées. Participer à la mise en place de solutions Big Data et Cloud (AWS, Azure, GCP). Documenter les processus et les solutions techniques. Compétences requises : Maîtrise des langages de programmation tels que Python, Java ou Scala. Expérience dans la gestion des bases de données (SQL, NoSQL). Connaissance des technologies de traitement de données (Hadoop, Spark, Kafka). Bonne maîtrise des services Cloud (AWS, Azure, GCP). Expérience dans la gestion des pipelines de données CI/CD. Compétences en optimisation de bases de données et en data modeling. Une bonne connaissance des outils ETL est un plus.

CDI
CDD

Offre d'emploi
Data Ingénieur Spark/Scala

Lùkla
Publiée le
Apache Airflow
Apache Spark
Databricks

3 ans
50k-60k €
Île-de-France, France

Secteur d'activité : Banque/Finance/Assurance Mission(s) : mise en oeuvre d'un nouveau socle de gestion et traitement de données en masse dans un environnement cloud Attendu(s) : développements (selon préceptes craft), définition de solutions techniques, étude et conception de produits techniques, définition et design d'architectures techniques, développement de solutions de processing, exploitation et restitution de données... Profil (s) : data ingénieur Spark/Scala familier des environnements cloud et devops (CI/CD) Méthodologie : agile SAFe, Devops Télétravail : 60%

Freelance

Mission freelance
Tech Lead / Développeur - Vue JS / Java Spring / Kafka (Lille 3j presentiel)

Cherry Pick
Publiée le
Apache Kafka
Java
Spring

12 mois
550-600 €
Lille, Hauts-de-France

Cherry Pick est à la recherche d'un "Tech Lead / Développeur - Vue JS / Java Spring / Kafka" pour un client dans le secteur du commerce de détail. Contexte de la mission Situé dans le domaine Value Chain, le sous-domaine Logistics & Transport, spécifiquement dans la partie InBound & OutBound, l’amélioration de notre WMS contribue directement à l’un des 5 piliers composant notre stratégie d’organisation. En résumé : Un Tech Lead, un pivot, un bras droit du produit et de l'équipe de développement permettant de mettre de l'huile dans les rouages et d'accompagner l'équipe dans le bon mindset. L’objectif de la mission est de faciliter et contribuer avec l'équipe à développer et maintenir des modules avec une haute qualité technologique, une haute fiabilité et une haute disponibilité tout en respectant la gouvernance technique du Groupe, en co-construisant une architecture applicative adapté au besoin fonctionnel. En détail : L’objectif de la mission est d’intégrer la feature team Loading du programme WarehouseBox en tant que Tech Lead. Au sein d’une feature team, les objectifs sont les suivants : Assurer le suivi de la vision et stratégie technique Faciliter la conception et la réalisation des modules, tout en collaborant avec le produit Modulaire / Distribué / Cloud Neutral / Pattern en fonction du besoin Assurer et évangéliser la qualité applicative par les tests Tests fonctionnels Tests acceptances TU / TI / End-End / … Evangéliser et responsabiliser l'équipe sur l'adaptation, l'utilisation et la contribution de l'outil d'échange de donnée (Boomi) Comprendre, respecter, maintenir et adapter la CI/CD Démarche DevOps Ecriture de documentation C4 Doc as code, … Technico / fonctionnelle S’assurer de la cohésion technique, qualité applicative, la disponibilité de l’application, la qualité des données Démarche SRE Mindset agile et de software craftmanship, le juste code pour le juste besoin Rotation d'astreinte avec l'équipe Partager avec pédagogie l’ensemble des compétences et connaissances Pair-programming / mob-programming, … Au sein du programme, des initiatives sont possible : Synchronisation cross feature Reporting, feedback, backlog cross tech Contribution cross programme Events, REX, POCs Modules génériques Tools, CI/CD, Starter, … Profil recherché : Tech Lead / Développeur confirmé / senior Nous cherchons un profil permettant de faire le pivot entre l'équipe de développement, le produit, les partenaires. Afin de s'assurer la communication entre les partie prenantes, l'utilisation des artefacts agile et d'assurer l'application de la stratégie technique du programme et dDu Groupe. Le profil sera également un membre à part entière de l'équipe de développement contribuant au build / run.

CDI
Freelance

Offre d'emploi
Développeur Backend Open - Expérimenté

VPEX-IT
Publiée le
Agile Scrum
Apache Kafka
API REST

1 an
10k-50k €
Montpellier, Occitanie

Taches Concevoir et Développer des programmes en Java pour le produit Participer au projet majeur de l'équipe : automatisation des saisies. Contribuer au maintien en conditions opérationnelles des produits de l'équipe. Attendu Conception et Développement, dans les critères de qualités, de coûts et de délais attendus au sein de l'équipe. Avoir une vision transverse des impacts de ses travaux sur l’écosystème et les environnements de fabrication et de production. En mission secondaire, l'équipier pourrait être amené à prêter assistance lors de la résolution d'incidents en production.

Freelance
CDI

Offre d'emploi
Data Engineer

GROUPE ALLIANCE
Publiée le
Apache Spark
Cloudera
GraphQL

36 mois
10k-69k €
Paris, France

Ce que tu recherches : · Evoluer au sein d’une équipe dynamique · Participer à des projets innovants d’envergure · Relever des défis · Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’acteurs majeurs du secteur Bancaire, tu participeras des projets d’envergure sur des évolutions majeures à mettre en œuvre dans le SI du client : · Analyse des besoins, tu feras · Spécifications techniques, tu rédigeras · L’architecture et/ou socle technique, tu définiras · Bonnes pratiques, tu instaureras · De nouvelles fonctionnalités, tu développeras · Zéro bug, tu laisseras · Ton équipe, tu accompagneras · Aux instances de pilotage, tu participeras

Freelance

Mission freelance
Développeur back

Coriom Conseil
Publiée le
Apache Kafka
Google Cloud Platform
Mongodb

12 mois
100-510 €
Lille, Hauts-de-France

Spring - Confirmé - Impératif MongoDB - Confirmé - Important Kafka - Confirmé - Important GCP - Junior - Serait un plus Connaissances linguistiques Anglais Lu, écrit (Impératif) Nous recherchons un profil pour venir en renfort sur le moteur d’offres promotionnelles, qui se trouve au cœur de l’activité de l’équipe. Le moteur d’offres gère la conception et l’activation des offres, qu’elles soient promotionnelles ou non transactionnelles (ex: promotions, gains de points bonus pour le client sur la base de ses interactions, promotions ciblées…). L’équipe gère les référentiels des comptes fidélité de toutes les Business Units du groupe. Dans ce cadre, nous recherchons un profil qui ait également une forte appétence “Data”, car cette composante se trouve au cœur de nos activités. En complément, nous avons ponctuellement besoin de renfort sur le Frontend. Une appétence pour les sujets Front (VueJS) serait donc un plus.

Freelance

Mission freelance
Architect data

ESENCA
Publiée le
Apache Kafka
Apache Spark
Big Data

3 mois
500-600 €
Lille, Hauts-de-France

L’équipe est actuellement composée de 3 personnes qui gèrent le périmètre technique du Data Office ( 50 personnes dont 15 data Analystes – 20 DE – 5 dataviz – 10 PM ). Le Data Office a un patrimoine applicatif utilisant les briques techniques suivantes : - GCP – dataproc – BQ – dataform - Dynatrace - Datawarehouse Oracle - Tableau Software - SAP Business Objects Mission principale : En tant qu'Architecte de Data plateforme, avec l’équipe, vous serez responsable de la conception, de la mise en œuvre et de l'optimisation de notre data plateforme sur GCP. Vous travaillerez en étroite collaboration avec les équipes technique de la DSI et les squad du data Office pour garantir que la plateforme réponde aux besoins actuels et futurs de l'entreprise. Responsabilités : 1. Conception et architecture : o Concevoir l'architecture globale de la data plateforme en respectant les meilleures pratiques de développement et des standards GCP et en garantissant la scalabilité, la performance, le finops et la sécurité. 2. Mise en œuvre et développement : o Superviser la mise en œuvre technique de la plateforme en collaboration avec les développeurs et les ingénieurs en données. o Participer activement au développement et à la maintenance des composants de la plateforme o Participer activement à la formation de l’équipe sur les outils de la data plateforme. o Participer au run sur les outils du Data Office afin de solutionner tous problèmes techniques. o Valider le coté financier des solutions mise en oeuvre 3. Gestion des données : o Apporter son support sur les stratégies de gestion des données incluant la collecte, le stockage, le traitement et l'archivage des données. 4. Sécurité et conformité : o Mettre en place des mesures de sécurité pour protéger les données sensibles et garantir la conformité aux réglementations en vigueur. o Participer aux audits de sécurité et les tests de vulnérabilité et à leur remédiation ( CSPR ) o Participer à la définition et à la mise en place du PRA 5. Innovation et veille technologique : o Rester informé des dernières avancées technologiques sur GCP et proposer des améliorations continues. o Tester et évaluer de nouvelles technologies susceptibles d'améliorer la plateforme. o Participer au guilde de dev

Freelance
CDI

Offre d'emploi
ARCHITECTE D'INFRASTRUCTURE

Digistrat consulting
Publiée le
Apache Airflow
AWS Cloud
Docker

3 ans
45k-65k €
Paris, France

💡 Contexte /Objectifs : Dans ce cadre, la prestation consiste à contribuer à/au(x) : La définition des architectures et des Services associés L'assistance aux entités (architecture Technique Infrastructure) Assistance aux architectures en respectant les principes de sécurité mis en place La documentation des architectures, principes et bonnes pratiques Déploiement des architectures Les livrables attendus : Etudes d'Architectures Roadmap des Services Principes de sécurité Documentation des architectures (DAT), HLD Document de bonnes pratiques

Freelance
CDI

Offre d'emploi
Bigdata Engineer Cloud

Digistrat consulting
Publiée le
Apache Kafka
Big Data

3 ans
40k-60k €
Paris, France

💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket

Freelance
CDI

Offre d'emploi
Développeur C# .NET Core Kafka Senior

Digistrat consulting
Publiée le
Apache Kafka

36 mois
10k-177k €
Paris, France

💼 Poste : Développeur C# .NET Core Kafka 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Contribution au développement autour de la nouvelle plateforme orientée services (SOA) ayant comme socle Kafka et Cassandra. Technologie Kafka est un plus puisque la mission s'articulera principalement autour de cette technologie. Nous intervenons sur le développement de service pour le Front Office. 🤝 Expertises spécifiques : Objectifs de la mission Développement C# .NET Core Méthodologie : BDD/TDD Utilisation de Kafka/Cassandra Maintenance applicative Documentation / Testing Support L3

209 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous