Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 207 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Data Engineer F/H

CELAD
Publiée le
Apache Spark
Google Cloud Platform
Scala

12 mois
480 €
Paris, France

Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients du secteur bancaire. Contexte / Objectifs : Récupérer les données issues de sources externes Utiliser la puissance du Datalake Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : d’ingestion de données, de validation de données, de croisement de données, de déversement dans le datalake des données enrichies Développer dans le respect des règles d’architecture définies Développer et documenter les user stories avec l’assistance du Product Owner. Produire les scripts de déploiement Prioriser les corrections des anomalies Assister les équipes d’exploitation Participer à la mise en œuvre de la chaîne de delivery continue Automatiser les tests fonctionnels

Freelance

Mission freelance
Data Engineer - Python Airflow (H/F)

CTG
Publiée le
Apache Airflow
Automatisation
DevOps

3 ans
100-590 €
Paris, France

En tant que Data Engineer Python Airflow, vous travaillerez en direct avec le Team Lead, les business analystes et le PO. Vous aurez à cœur de comprendre le business model. Vos activités principales seront : Automatiser des processus répétitifs sans valeur ajoutée dans le but de les optimiser et répondre ainsi aux besoins d’excellence opérationnelle Apporter de la valeur ajoutée aux applications et aux métiers par utilisation d’algorithmes d’IA par exemple Développer des processus automatisés en utilisant la technologie Airflow en relation étroite avec les métiers Contribuer aux différentes plateformes et frameworks développés

Freelance
CDI

Offre d'emploi
Développeur Java / Big Data H/F

ADATEK
Publiée le
Apache Spark
Azure
Java

3 ans
10k-63k €
Île-de-France, France

Le développeur Java / Big Data intégrera une équipe d'experts Big Data dans un contexte international et aura pour missions : Participer à la conception et à l'architecture des applications, des processus et des workflows. Développement Java et Spark Amélioration et stress test sur des problèmes de performance Performance tuning des jobs Spark Code review des développements Déploiements sur Azure cloud hdi cluster et kubernetes (AKS) Tests unitaires et BDD Support production

Freelance

Mission freelance
Mission infrastructures de Messaging et Streaming (DevSecOps/ActiveMQ/Kafka/RabbitMQ)

Intuition IT Solutions Ltd.
Publiée le
Apache Kafka
Cloud

4 mois
550-700 €
Vélizy-Villacoublay, Île-de-France

La Prestation consiste à contribuer à : Être le leader de l’équipe en charge de notre Infrastructure Cloud de Messaging pour améliorer la performance, la scalabilité, la sécurité et la stabilité de nos instances de production, Piloter et participer aux efforts de R&D de l'équipe pour livrer notre infrastructure de Messaging et Streaming d’événements dans un environnement DevSecOps, Concevoir des schémas de migration fiables pour nos applications clientes vers notre nouvelle infrastructure de messaging, Evangéliser les bonnes pratiques ActiveMQ et Kafka, et les principes des conceptions orientés évènements, La Prestation nécessite un travail en étroite collaboration avec les services owners et les équipes Cloud Opérations. Livrables Livraison des infrastructures de Messaging et Streaming d’événements dans un environnement DevSecOps, Concevoir des schémas de migration fiables pour nos applications clientes vers notre nouvelle infrastructure de messaging, Etre support pour toutes les procédures à mettre en place et vérifier leur bonne application pratique sur les différents outils ActiveMQ et Kafka Etre support technique aux équipes de Cloud RUN pour le troubleshooting des incidents de production Gestion au quotidien & coaching technique et humain de l’équipe Messaging (ingénieurs DevSecOps)

Freelance

Mission freelance
Team Lead DevSecOps - ActiveMQ Kafka

Intuition IT Solutions Ltd.
Publiée le
Agile Scrum
Apache Kafka

12 mois
600-750 €
Vélizy-Villacoublay, Île-de-France

Nous recherchons un DevSecOps Senior pour être le leader de l’équipe en charge de notre Infrastructure Cloud de Messaging pour améliorer la performance, la scalabilité, la sécurité et la stabilité de nos instances de production. La mission consiste à: Ø Piloter et participer aux efforts de R&D de l'équipe pour livrer notre infrastructure de Messaging et Streaming d’événements dans un environnement DevSecOps, Ø Concevoir des schémas de migration fiables pour nos applications clientes vers notre nouvelle infrastructure de messaging, Ø Evangéliser les bonnes pratiques ActiveMQ et Kafka, et les principes des conceptions orientés évènements, Ø La Prestation nécessite un travail en étroite collaboration avec les services owners et les équipes Cloud Opérations. Livrables: - Livraison des infrastructures de Messaging et Streaming d’événements dans un environnement DevSecOps, - Concevoir des schémas de migration fiables pour nos applications clientes vers notre nouvelle infrastructure de messaging, - Etre support pour toutes les procédures à mettre en place et vérifier leur bonne application pratique sur les différents outils ActiveMQ et Kafka - Etre support technique aux équipes de Cloud RUN pour le troubleshooting des incidents de production - Gestion au quotidien & coaching technique et humain de l’équipe Messaging (ingénieurs DevSecOps)

CDI

Offre d'emploi
Développeur Cockpit

Management Square
Publiée le
Apache Kafka
API
Data visualisation

43k-50k €
Massy, Île-de-France

Nous recherchons un développeur talentueux pour rejoindre une équipe dynamique dans le cadre d'un programme de transformation digitale des métiers du soutien. Votre mission principale sera de maintenir et faire évoluer une solution de cockpit basée sur la technologie QliK Sense. Missions principales : Maintenir et produire le cockpit sur la base des technologies existantes Collaborer avec l'équipe en charge de la refonte de la couche technique sous-jacente Prendre en main l'architecture existante Participer aux corrections des anomalies techniques en production Définir les données nécessaires avec les experts métier pour afficher des indicateurs pertinents Documenter et mettre en œuvre le pipeline de données (Qlik, API, Kafka) Participer à la définition de la refonte de l'architecture de données

Freelance

Mission freelance
Kafka AMQ Stream Expert

JCW Search Ltd
Publiée le
Apache Kafka

20 jours
100-600 €
Île-de-France, France

JCW est a la recherche d'un Expert Kafka AMQ Streams (Openshit Operator) pour l'un de ces clients. LE PROFIL: Savoir dessiner et implémenter KAKFKA Faire la partie Run de Kafka et dans environnement challengeant Savoir mesurer - monitoriser les métriques Savoir quel seuil considerer Savoir expliquer et résoudre les problèmes majeurs que l'on peut retrouver sur chaque axes (Producteur - Consommateur - courtier) LA MISSION: Démarrage ASAP Localisation: Ile-de-France Durée: Mission ponctuelle - 20 jours Langues: Anglais professionnel impératif et francais Si vous êtes intéressé ou connaissez une personne qui peut l'être, envoyez mois vos CV en anglais , à pour une considération immédiate.

Freelance

Mission freelance
architecte pyspark - 3 mois

Innov and Co
Publiée le
Apache Spark
Azure DevOps Services
Databricks

3 mois
100-700 €
Boulogne-Billancourt, Île-de-France

Contrainte forte du projetFort enjeux metier Les livrables sont Package pyspark Dictionnaire / catalog de données Model de données tabulaire Compétences techniques PYTHON / PYSPARK / SPARK - Expert - Impératif Databricks/ datafactory/ azure devops - Expert - Impératif Azure Analysis Services - Expert - Impératif Integration GIT - Expert - Important Connaissances linguistiques Français Courant (Impératif) Description détaillée L'equipe Datafinance utilise actuellement une architecture basée sur Databricks, Azure Blob Storage, Azure Data Factory et Azure Analysis Services pour traiter et analyser ses données financières. Nous cherchons à optimiser les processus de traitement de ces données, en particulier le rafraîchissement des données, pour améliorer la performance et la qualité des analyses. Dans ce cadre, nous recherchons un expert en BI et Data pour une mission de 3 mois. L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. 2. Objectifs de la mission L'expert BI et Data sera chargé de : Optimiser le traitement des données du projet Data finance, en se concentrant principalement sur le processus de rafraîchissement des données entra la zone gold et le cube de données. Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. 3. Technologies utilisées L'expert devra maîtriser les technologies suivantes : Databricks (en particulier avec PySpark). Azure Analysis Services (modèle Tabulaire). SQL . Git et Azure DevOps pour la gestion des versions et l'intégration continue. 4. Compétences requises Le candidat idéal doit posséder une expérience avérée dans les domaines suivants : Maîtrise de PySpark : pour le traitement et l'optimisation des données dans Databricks. Expertise en modélisation de données : capacité à concevoir et optimiser des modèles de données pour améliorer la performance et la gestion des données financières. Maîtrise du modèle Tabulaire dans Azure Analysis Services : pour optimiser le rafraîchissement des données et améliorer les performances des cubes. Bonne compétences en SQL 5. Livrables attendus Les livrables de la mission incluent : . Mise en œuvre des optimisations dans Databricks et Azure Analysis Services. Documentation détaillée des modifications apportées et des bonnes pratiques mises en place. Transfert de connaissances aux équipes internes pour garantir une gestion continue des processus optimisés.

Freelance

Mission freelance
Data Engineer Confirmé - Vannes

CAT-AMANIA
Publiée le
Agile Scrum
Apache Kafka
Cloudera

10 mois
360-420 €
Vannes, Bretagne

- Participer à la définition de l'architecture Data - Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers - Mettre en œuvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code

Freelance
CDI

Offre d'emploi
skiils se renforce et cherche son Data engineer confirmé

skiils
Publiée le
Apache Airflow
Apache Spark
AWS Cloud

12 mois
10k-45k €
Hauts-de-France, France

Data Engineer maitrisant(e) pyspark et airflow qui aidera le client à construire de nouveaux indicateurs et à les fiabiliser. L"équipe Forecast a pour mission de mettre à disposition dans le Datalake , les datasets qui concernent les prévisions de ventes. Pour remplir à bien sa mission, le Data Engineer devra : - Comprendre un modèle de données et s'en servir, - Aider l'équipe à faire les meilleurs choix techniques, - Apporter une expertise sur la conception des indicateurs, - Maîtriser les bases de données et les outils de transformation, - Etre capable de transformer une donnée brute en un indicateur

Freelance
CDI

Offre d'emploi
Tech Lead Data & Python

MSI Experts
Publiée le
Apache Spark
API
PostgreSQL

6 mois
41k-51k €
Lyon, Auvergne-Rhône-Alpes

Nous sommes à la recherche d'un Tech lead Data et Python afin de réaliser une mission chez l'un de nos clients. En tant que tel, vous serez le garant de la conception , du développement et de l' optimisation des solutions techniques liées aux données . Votre rôle consistera à proposer et à mettre en œuvre des solutions adaptées aux enjeux des différents projets, tout en encadrant techniquement l'équipe de développement. Développement d’applications et traitements orientés data : Création et maintenance d'API, de dashboards et de pipelines pour l'analyse et la visualisation des données, principalement en Python. Maintien de la qualité logicielle : Effectuer des revues de code régulières. Promouvoir les bonnes pratiques de développement au sein de l’équipe. Garantir une qualité logicielle élevée à chaque étape du processus. Appui aux projets : Fournir une aide ponctuelle et des conseils techniques sur les différents projets en cours. Accompagner les Product Owners (PO) dans la compréhension et la priorisation des enjeux techniques. Cadrage technique des sujets : Participer activement à la définition des besoins techniques et à la planification des solutions. Industrialisation des projets et mise en place de processus efficaces. Échanges transverses avec les autres équipes : Collaborer étroitement avec les équipes transverses pour identifier les besoins communs et implémenter un cadre de travail harmonisé. Activités secondaires : Cadrage et accompagnement technique sur divers projets. Réalisation d’études data et aide à l'industrialisation de solutions. Python : FastAPI, Dash, Pandas, parallélisation, packaging, PyTest. SQL : PostgreSQL, Teradata. Spark : PySpark, Scala. Outils DevOps : Git, GitLab CI/CD.

Freelance
CDI
CDD

Offre d'emploi
GenAI Engineer

bdevit
Publiée le
Apache Airflow
AWS Cloud
Computer vision

36 mois
50k-68k €
Île-de-France, France

Descriptif: Dans le cadre de ces développements, le DataLab Groupe souhaite confier à un AI Engineer, venant en renforcement de sa SQUAD sur la partie IA Générative, la mission suivante : • Concevoir et développer des solutions d’IA Gen innovantes;; • Travailler en étroite collaboration avec une équipe multidisciplinaire sur la mise en œuvre de nouveaux algorithmes/modèle, assurant leur performance optimale et précision ; • Packaging des développements et déploiement sur des envs Cloud / Premise ; • Documentation technique claire et détaillée suivant les normes du Datalab Groupe. Résultats attendus des Livrables : L’IA Engineer devra, par ailleurs, fournir les livrables suivants : - Documents de spécification des librairies développées ; - Une description des résultats : description des expérimentations, performances, etc… ; - Codes sources testés, commentés et « reviewés » - Présentation et partage des travaux. Exigences Techniques : - De fortes compétences algorithmiques en apprentissage automatique ; - Développement avancé en Python et expérience pratique avec les bibliothèques de type Pytorch , Langchain , Llamaindex ; - Connaissances solides d’ AWS SageMaker ; - Machine Learning/Deep Learning : Connaissances solides en «Machine Learning» et « Deep Learning » ; - Une expertise avancée dans les techniques de traitement du langage naturel (NLP), incluant les embeddings de mots, les mécanismes d'attention, les modèles transformers ; - Une expérience dans l’utilisation d’outils et de plateformes basés sur l’IA Gen.

Freelance

Mission freelance
88939/DATA ENGINEERING Spark (spark streaming et batch), Kafka, Java Nantes

WorldWide People
Publiée le
Apache Kafka
Hadoop
Spark Streaming

4 mois
390-410 €
Nantes, Pays de la Loire

DATA ENGINEERING Spark (spark streaming et batch), Kafka, Java Nantes Taches réalisées : - Développer les cas d'usages Data - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Mettre en œuvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code Compétences techniques attendues : - Spark (spark streaming et batch), Kafka, Java - Stack Hadoop Cloudera - Hdfs, Hive, Hbase, Phoenix, MongoDB - DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana - Scrum (cadre agile entreprise) La mission nécessite de l'autonomie, de l'adaptabilité et une bonne communication (lien direct avec les Squads : PO ou DEV),

Freelance

Mission freelance
Architecture technique - Orléans (45)

Signe +
Publiée le
Apache Maven
Apache Spark
Java

240 jours
360-400 €
Orléans, Centre-Val de Loire

Description détaillée L’objectif de cette prestation est de sécuriser un projet important en accompagnant le chef de projet Les attendus de cette prestation sont les suivants : le prestataire ➔ devra remplacer à la demande le chef de projet informatique sur les aspects techniques, notamment dans les réunions du comités technique et du comité stratégique; ➔ prendra en charge l’IAC, l’automatisation des déploiements sur Kubernetes et documenter en vue de faciliter le passage en maintenance à l’automne 2025 ; ➔ sur la base de l’évaluation craft réalisée en juin 2024, prendra en charge le suivi des axes d’améliorations identifiés, éventuellement en proposer de nouveaux, notamment sur l’observabilité ; ➔ documentera l’architecture actuelle via des ADRs et des diagrammes (flux, applicatif, infrastructure) ; ➔ rédigera d’ici fin 2024 une note d’observation critique sur les architectures (infrastructure, applicative, logicielle) mises en œuvre ; ➔ assistera le chef de projet informatique sur les questions de sécurité ; ➔ mettra en place un process efficace de gestion des connaissances, notamment une organisation documentaire. Formera les parties prenantes à son utilisation et sa mise à jour ; ➔ établira une cartographie des compétences et savoir-faire nécessaires pour le MCO-MCS du produit. Les développements sont réalisés en grande partie dans l’écosystème Kubernetes Les versions utilisées sont : - Java : 17 - Maven : 3.X.X - PostgreSQL : 14.X - Spark : 3.2.X - Spring Boot : 3.X.X - Spring Batch : 5.X.X - Hibernate : 6.X.X - Cucumber : 7.X.X Date de début : asap à voir suivant disponibilité de l’intervenant Durée de la prestation : 6 mois pour commencer avec une reconduction possible sur la durée restante du projet soit jusque septembre 2025. La prestation se déroulera dans les locaux d’Orléans. Une organisation du travail en mode hybride est possible après une phase d’intégration : - 3 jours de présence du prestataire - 2 jours de distanciel. Compétences requises - Compétences techniques : Développement java sénior, maîtrise des architectures big data ( spark), applicative ( java et écosystème, postgresql) et infrastructure ( kubernetes et écosystème), gitlab, Notions avancées de sécurité applicative et infrastructure. - compétences humaines : adaptabilité et capacité à collaborer, organisé, capacité à mettre en place un fonctionnement pérenne dans une équipe, esprit critique et argumenté. - connaissances de l’agilité Instances de suivi de la prestation - au sein des cérémonies agile du projet pour les réalisations - point hebdomadaire avec le chef de projet informatique et/ou ses responsables hiérarchique et l’intervenant

Freelance

Mission freelance
tech lead

ADONE CONSEIL
Publiée le
Apache Kafka
Java
Mongodb

79 jours
100-650 €
Île-de-France, France

Tech Lead : Le client s’est engagé dans une refonte qui s’appuie sur 3 piliers : - Architecture : basée sur l’APIsation - L’Infrastructure : move to cloud - L’Engineering : usage des meilleures pratiques d’engineering pour accélérer le delivery et maitriser et maintenir un haut niveau de qualité à toutes les étapes du cycle de vie de nos produits L’équipe est une nouvelle équipe que nous souhaitons construire afin de prendre en charge deux choses : - Les évolutions et le run du déjà développé. - L’accélération du pilier « Engineering ». Cette équipe sera composée d’un PO (déjà en poste), d’un QA (à recruter) et d’une équipe de 2/3 développeurs (déjà en poste). Notre besoin L’enjeux sur l’aspect Engineering est double car il s’agit de mettre en place les pratiques au sein de l’équipe mais dans l’objectif de les déployer au sein de la tribe Distrbution et peut être à terme sur un périmètre encore plus large. Cette équipe sera donc un laboratoire expérimentant les choses, validant la pratiques et ses bienfaits au travers d’indicateurs. Focus sur une difficulté à surmonter : cette nouvelle équipe va contribuer sur plusieurs repositories (de code) partagés avec une autre équipe. Il sera donc nécessaire de mettre en place une stratégie (branching management, innersource….) afin de faire en sorte que le delivery de ces 2 équipes soit le plus fluide possible. Cette future équipe cherche donc son Tech Lead, un expert des pratiques d’engineering, passionné par la technique et convaincu par la mesure de l’efficience de ces dernières.

Freelance

Mission freelance
Architecte Solutions Confirmé

Management Square
Publiée le
Apache Hive
Apache Kafka
AWS Cloud

1 an
410-500 €
Lyon, Auvergne-Rhône-Alpes

Nous recherchons pour l'un de nos client des Architectes Solutions confirmé(e)s pour rejoindre une équipe dédiée à la modernisation du Système d'Information. Vous contribuerez aux activités d'architecture d'un programme majeur, apportant votre expertise aux équipes de développement et aidant à la conception de produits dans le respect du cadre de référence établi. Comprendre les besoins utilisateurs, le cadre de référence d'architecture et le contexte technique Assurer la responsabilité des dossiers d'architecture des produits Réaliser des analyses fonctionnelles et applicatives Mettre à jour et enrichir les cartographies (y compris flux et données) Conseiller les leaders de projet et autres architectes sur les options techniques possibles Participer à l'évolution de l'architecture d'entreprise

207 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous