Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 57 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI
Freelance

Offre d'emploi
Big Data Engineer Scala - Spark H/F

STORM GROUP
Publiée le
Apache Hive
Apache Kafka
Apache Spark

3 ans
10k-60k €
Île-de-France, France

[Contexte] La prestation se déroule au sein du pôle Cybersecurity eFraud & Solutions dans lequel sont développés les outils de Maching Learning lutte contre la fraude et de réponse cyber à des recommendations de la BCE en cartographie et microsegmentation réseau (Octoflow) L'outil permet de recenser les échanges entre serveur afin de certifer les logs. Pour cela l'équipe a besoin d'un data engénieur afin de parser les données des différentes sources afin de les restituer à un outil interne. socle technique : Spark, Scala, Hadoop, Hive, Control-M, Starburst, ElasticSearch, Hbase [La prestation consiste à contribuer à/au(x)] - exploration et parsing des données - développement de programmes de traitements de données (micro-services) en Scala/Spark - Examen du code et assurance qualité : respect des normes de codage et mise en œuvre des pratiques d'assurance qualité afin de maintenir un niveau élevé de qualité des logiciels. - L'assistance au Product Owner et aux autres entité dont les architectes, les parties prenantes et les bénéficaires pour définir les exigences du projet et garantir l'alignement sur les objectifs de l'entreprise - Expertise technique : tendances et technologies du secteur dont le domaine DATA, WEB, etc. et assistance à l'entité. - Résolution de problèmes : Défis techniques et contribuer à apporter des moyens innovants à des problèmes complexes. - Gestion des performances : Evaluations des performances, retour d'information et favoriser la croissance et le développement professionnels au sein de l'entité [Les livrables attendus sont] - exploration et parsing des données - développement de programmes de traitements de données (micro-services) en Scala/Spark - veille technologique d'outils contribuant à l'optimisation de la solution

CDI

Offre d'emploi
Data Engineer

DPC
Publiée le
Apache Kafka
Apache Spark
AWS Cloud

10k-45k €
Île-de-France, France

Description du poste : En tant que Data Engineer chez Digital Power Consulting, vous serez chargé de la conception, de la mise en place et de l’optimisation des infrastructures de données. Vous interviendrez sur des projets stratégiques pour nos clients, en veillant à l'efficacité et à la qualité des flux de données. Vos missions : Concevoir et mettre en œuvre des pipelines de traitement des données. Collecter, stocker, transformer et traiter des données massives. Assurer la qualité, la sécurité et la scalabilité des infrastructures de données. Collaborer avec les équipes Data Science pour permettre une exploitation efficace des données. Optimiser les bases de données pour garantir des performances élevées. Participer à la mise en place de solutions Big Data et Cloud (AWS, Azure, GCP). Documenter les processus et les solutions techniques. Compétences requises : Maîtrise des langages de programmation tels que Python, Java ou Scala. Expérience dans la gestion des bases de données (SQL, NoSQL). Connaissance des technologies de traitement de données (Hadoop, Spark, Kafka). Bonne maîtrise des services Cloud (AWS, Azure, GCP). Expérience dans la gestion des pipelines de données CI/CD. Compétences en optimisation de bases de données et en data modeling. Une bonne connaissance des outils ETL est un plus.

Freelance

Mission freelance
Data Engineer (Azure / Databricks / Sparck / Scala)

Cherry Pick
Publiée le
Azure
Databricks
Scala

12 mois
500-550 €
Paris, France

La mission consiste à intégrer l'équipe Projets en charge de l'intégration des données de l'entreprise au sein de la plateforme Data sous le Cloud Azure afin de couvrir les besoins Big Data et BI de nos métiers. La personne sera intégrée dans l'équipe projet qui fonctionne dans une organisation en mode Agile. Description de la mission : Nous recherchons un Data Engineer confirmé/sénior avec une forte expertise sur Azure, Databricks, Spark, Scala, Python et SQL • Développement et l’implémentation de solutions Big Data Analytics • Analyse du besoin, étude d'impacts et conception de la solution technique • Conception et modélisation des données au niveau d'un Data Lake (format Parquet, Delta table, ...) • Construction des pipelines de données pour collecter, transformer et traiter des données dans le Data Lake • Développements de notebooks (ex : Databricks) de traitements avancés des données • Cloud Datawarehousing (tuning, optimisation de traitements et requêtes SQL) • Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ....) • Revue de code • Réalisation de tests unitaires • Maintenance corrective et évolutive • Livraison dans un environnement Devops, CI/CD et outils associés Compétences demandées : • Expertise cloud azure • Expertise Spark • Expertise Scala • Expertise databricks • Maîtrise Python • Maîtrise SQL Aptitudes personnelles • Force de proposition et aptitude à partager son savoir auprès des membres de l'équipe. • Rigueur, réactivité, bon relationnel, aisance rédactionnelle

Freelance

Mission freelance
Consultant EDI Technico-fonctionnel senior

PROPULSE IT
Publiée le
Consultant
senior
Technico-fonctionnel

24 mois
325-650 €
Nanterre, Île-de-France

L'objectif de la mission consiste à mettre en œuvre une migration des flux EDI sur un nouvel environnement / écosystème . Il faudra aussi concevoir la cible pour les EDI à venir. Plusieurs équipes transverses sont amenées à intervenir sur le périmètre : architecture, infrastructure, échanges (intégration et connexion des flux), le métier, développement. Ce projet se déroule sur un périmètre large et complexe dans un environnement très évolutif. En qualité d'Expert EDI, vous interviendrez sur la conception et la mise en œuvre des EDI clients conformément aux besoins exprimés et aux standards de la DSI. Vous serez le référent sur les EDI clients et devrez assurer la bonne migration des EDI déjà existants. Vous travaillerez en étroite collaboration d'autres équipes. DESCRIPTIF DE LA MISSION • Piloter et animer la mise en œuvre de la migration des flux EDI dans un nouvel environnement • Analyser les besoins fonctionnels sous les aspects business, technologique et technique des EDI clients actuels • Conseiller, concevoir, intégrer et mettre en œuvre des EDI répondant au besoin exprimé • Identifier les modifications nécessaires business, techniques et technologiques et les composants concernés : matériels, logiciels ou la plate-forme technologique • Recueillir les besoins fonctionnels sous les aspects business, technologique et technique pour les nouveaux EDI clients • S'assurer que les solutions techniques et les procédures sont à jour et conformes aux normes Sensitivity: Internal • Rédiger les spécifications fonctionnelles des solutions • Rédiger le plan de tests, organise et coordonne les tests des solutions • Contribuer à la définition des offres de service et à la documentation des EDI • Préparer la mise en place du run

Freelance

Mission freelance
Team leader senior pôle DBA run & build

PROPULSE IT
Publiée le
build
dba
leader

24 mois
350-700 €
Melun, Île-de-France

Pour l'un de nos client situé dans le département 77, nous recherchons un consultant Team leader SGBD habillable et capable de mener des projets d'envergure, notamment côté Run, et qui a déjà managé un service de DBA. Nous sommes à la recherche d'un consultant sénior pour nous accompagner à la reprise du service RUN Base de Données (Oracle & SQLServer majoritaires, Postgre & Mongo DB minoritaire) - Organisation et mise en oeuvre du nouveau service RUN (ressources, processus, gestion activité, …) - Gestion des incidents N3 et des changements - KPI, coordination et supervision Profil : Team Leader ou Manager avec une expérience confirmée en management de service DBA

Freelance

Mission freelance
Expert en réseau et sécurité Sénior

PROPULSE IT
Publiée le
en
Réseaux
securite

24 mois
450-900 €
Paris, France

PROPULSE IT recherche un Expert Réseau et Sécurité Datacenter afin d'assister le client dans la conception, mise en œuvre et industrialisation Infra réseau et sécurité au sein des datacenters. - Etude et analyse des opportunités d'évolution des infras Réseau & Sécurité - Mise en œuvre de projets d'infras réseau & sécurité - Support technique N3 sur les technologies réseau & sécurité Les principales compétences attendues : - Expérience technique avancée en Proxy Web de ZScaler - Expérience technique avancée en Firewalling (Checkpoint, Fortinet et Palo Alto) - Expérience technique avancée en F5 (Loadbalancing, APM) Golbalement l'équipe a pour mission l'élaboration de la stratégie, la conception, la mise en œuvre technique et le support des Infras en datacenter (Cloud privé on premise), en l'occurrence les infras de Virtualisation, Stockage et le socle Réseau datacenter

Freelance
CDI

Offre d'emploi
Data Engineer

SARIEL
Publiée le
Agile Scrum
Apache Spark
Big Data

3 ans
10k-62k €
Paris, France

Bonjour, Nous recherchons pour un pote à pourvoir ASAP pour notre client banque basé en Région parisienne un profil Data Engineer La mission consiste à intégrer l'équipe Projets en charge de l'intégration des données de l'entreprise au sein de la plateforme Data sous le Cloud Azure afin de couvrir les besoins Big Data et BI de nos métiers. La personne sera intégrée dans l'équipe projet qui fonctionne dans une organisation en mode Agile. Nous recherchons un Data Engineer confirmé/sénior avec une forte expertise sur Azure, Databricks, Spark, Scala, Python et SQL · Développement et l’implémentation de solutions Big Data Analytics · Analyse du besoin, étude d'impacts et conception de la solution technique · Conception et modélisation des données au niveau d'un Data Lake (format Parquet, Delta table, …) · Construction des pipelines de données pour collecter, transformer et traiter des données dans le Data Lake · Développements de notebooks (ex : Databricks) de traitements avancés des données · Cloud Datawarehousing (tuning, optimisation de traitements et requêtes SQL) · Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) · Revue de code · Réalisation de tests unitaires · Maintenance corrective et évolutive · Livraison dans un environnement Devops, CI/CD et outils associés Compétences techniques requises · Expérience Data minimum 5 ans · Azure minimum 3 ans · Expérience architecture Lakehouse minimum 2 ans · Databricks minimum 5 ans · Spark minimum 5 ans · Scala, Python, SQL minimum 5 ans · Maitrise de CI/CD, Azure DevOps minimum 3 ans · Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.

CDI
CDD

Offre d'emploi
Data Ingénieur Spark/Scala

Lùkla
Publiée le
Apache Airflow
Apache Spark
Databricks

3 ans
50k-60k €
Île-de-France, France

Secteur d'activité : Banque/Finance/Assurance Mission(s) : mise en oeuvre d'un nouveau socle de gestion et traitement de données en masse dans un environnement cloud Attendu(s) : développements (selon préceptes craft), définition de solutions techniques, étude et conception de produits techniques, définition et design d'architectures techniques, développement de solutions de processing, exploitation et restitution de données... Profil (s) : data ingénieur Spark/Scala familier des environnements cloud et devops (CI/CD) Méthodologie : agile SAFe, Devops Télétravail : 60%

Freelance
CDI

Offre d'emploi
Développeur Java/Scala (H/F)

SCALIAN
Publiée le
Java
Scala

12 mois
10k-55k €
Grenoble, Auvergne-Rhône-Alpes

Offre d'Emploi : Développeur Java/Scala (H/F) Lieu : Grenoble Contexte : Notre client est un éditeur, hébergeur et intégrateur de solutions destinées aux acteurs de la santé. Nos clients incluent des hôpitaux, des cliniques, des CHU et des professionnels du monde de la radiologie. En pleine expansion, notamment dans le cadre de projets en Belgique, nous agrandissons notre département "Solutions" et recherchons un développeur expérimenté pour rejoindre notre tribu interopérabilité . Mission : Au sein de l’équipe interopérabilité, vous serez amené à travailler sur des projets complexes visant à échanger des données entre diverses entités tout en garantissant l’intégrité, la traçabilité, la supervision et la sécurité des informations. Vous interviendrez sur des solutions techniques robustes et performantes, via des intégrations asynchrones et synchrones. Vos responsabilités incluront : Participer au développement de connecteurs et d’intégrations pour assurer un échange sécurisé et performant des données. Comprendre les enjeux métier complexes des établissements de santé (workflows métiers, processus de gestion des données). Collaborer avec l’équipe agile composée d’un PO, d’un testeur et de 4 à 5 développeurs. Apporter des solutions techniques innovantes, principalement orientées back-end, en utilisant des technologies comme Java , Scala , Kafka , MongoDB , et ElasticSearch . Participer à des projets longs avec une forte visibilité sur les évolutions futures. Environnement de travail : Méthodologie : Agile Scrum Stack technique : Langages : Java , Scala , VB Environnement : Micro-services & legacy Outils et technologies : Kafka , MongoDB , ElasticSearch Télétravail : 2 jours par semaine Durée du contrat : 12 à 24 mois renouvelable Horaires : approximativement 9h à 17h30 Localisation : proximité de Grenoble

Freelance

Mission freelance
INGENIEUR DATA BI - GENIO

PROPULSE IT
Publiée le
BI
Big Data
genio

24 mois
250-500 €
Paris, France

INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS

Freelance
CDI

Offre d'emploi
Data Engineer Azure (H/F)

NSI France
Publiée le
Azure
Databricks
Scala

1 an
10k-60k €
Île-de-France, France

- Contexte Dans le cadre du programme transformation du SI , l'équipe Data intervient sur les périmètres Data du projet. La mission consiste à intégrer l'équipe Projets en charge de l'intégration des données de l'entreprise au sein de la plateforme Data sous le Cloud Azure afin de couvrir les besoins Big Data et BI de nos métiers. La personne sera intégrée dans l'équipe projet qui fonctionne dans une organisation en mode Agile. 2 - Description de la mission Nous recherchons un Data Engineer Sénior (H/F) avec une forte expertise sur Azure, Databricks, Spark, Scala. Développement et l’implémentation de solutions Big Data Analytics Analyse du besoin, étude d'impacts et conception de la solution technique Conception et modélisation des données au niveau d'un Data Lake (format Parquet, Delta table, …) Construction des pipelines de données pour collecter, transformer et traiter des données dans le Data Lake Développements de notebooks (ex : Databricks) de traitements avancés des données Cloud Datawarehousing (tuning, optimisation de traitements et requêtes SQL) Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) Revue de code Réalisation de tests unitaires Maintenance corrective et évolutive Livraison dans un environnement Devops, CI/CD et outils associés

CDI
Freelance

Offre d'emploi
Data Engineer AZURE Databricks, Datafactory, Scala et SQL.

4 Impact
Publiée le
Azure Data Factory
Azure DevOps Server
Databricks

12 mois
48k-60k €
Hauts-de-Seine, France

Expérience dans le secteur du média souhaitée. Notre client recherche un Data Engineer AZURE Databricks, Datafactory, Scala et SQL H/F. Contexte client : Le Pôle Data est responsable de la gestion des projets et des outils I.T. de la régie publicitaire d’un grand groupe média. Pour accompagner la refonte du système d'information dédié aux audiences et l'impact des projets transactionnels sur notre produit Tech Datahub, notre client recherche un(e) Data Engineer. Le système d'information audiences intègre, enrichit et expose les données d'audience aux différents consommateurs internes et partenaires externes. Notre client a lancé un programme de refonte et de modernisation de ce système et des divers outils métiers internes afin d'assurer la fiabilité des données et d'améliorer l'expérience des utilisateurs métiers. Dans ce cadre, notre client souhaite renforcer son équipe de développement avec une approche axée sur la donnée. Mission : Au quotidien, vous serez chargé(e) de la conception et du développement de nouvelles pipelines de donnée s en étroite collaboration avec les autres membres de l'équipe. Vous serez, avec l'équipe Tech, garant(e) de la bonne réalisation et maintenance des différents outils du système d'information . Vous travaillerez également en collaboration avec les autres équipes du Pôle pour garantir la bonne exécution des développements Datahub nécessaires aux projets transverses de la régie. Vous êtes familier(ère) avec le développement en environnement Agile, notamment selon la méthode Scrum, et vous accordez une grande importance à l'esprit d'équipe.

Freelance

Mission freelance
Data Engineer senior Hadoop / Hive + ELK + Kafka

Signe +
Publiée le
Apache Hive
Apache Kafka
Big Data

24 mois
175-200 €
Nantes, Pays de la Loire

Profil : Data Engineer Senior ou Tech Lead A l'aise avec le CICD, aguerri aux technologies Java et en solutions conteneurisées (ELK, Kafka, etc ..) Administration des bases de données (Famille) Conception événementielle (Kafka, rabbitMQ, CREM …) Hadoop Java / Spark Nifi Hive Kotlin Principes d'intégration continue SQL Site : Nantes en priorité, possible sur Aix sinon à étendre à d'autres localisations Nature du besoin : remplacement d'un profil senior actuellement en mission Type de projet : (TT possible 2 j / semaine) Service public de l'emploi

CDI

Offre d'emploi
Architecte Data & Solution

Inventiv IT
Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud

95k-119k €
Paris, France

🎯 Inventifs Wanted En tant qu' Architecte Data chez Inventiv IT , vous êtes au premier plan de la transformation digitale. Vous êtes un leader doté d'une expertise en architecture des données, en chiffrage et en cadrage de projets Big Data, et méthodologies Agile. Travaillant sur plusieurs projets Plateform Data (orienté Architecture & Ingénierie de données) Cadrage et chiffrage des divers projets Big Data au sein de la galaxie. Définition des solutions d’architecture Big Data dans le Cloud Azure & AWS répondant aux besoins et exigences du client et aux bonnes pratiques des standards attendus. Garantir la cohérence technique et la pérennité du système d’information. Participation à la définition et à l'amélioration du Socle Big Data : Architectures types, stacks techniques, outils, règles de gouvernance et best practices. Mise en place de l'architecture des projets Big Data sur le Cloud Azure & AWS, en rédigeant des Dossiers d’Architecture Logiciels (DAL) et en validant des Dossiers d’Architecture Technique (DAT). Migration des projets dans des nouvelles architectures (HDI vers AKS, Datalake Gen1 ver Gen2, AKS 1.19 vers AKS 1.) et concevoir de nouvelles solutions avec un monitoring de PaaS et une synchronisation des données de Prod et Hprod. Participation à des instances de : Design Authority, CoArch avec les Architectes Techniques, CAO (Comité d'Architecture Opérationnel), Validation de l'architecture du Product Incrément, à des réunions de qualification / validation avec le RSSI et au suivi de chantiers de résilience et de suivi FinOps. Architecture & Ingénierie Databricks Maîtrise de Spark / Scala Arsenal Technologique : Votre maîtrise de Microsoft, Databricks, Datadog, Dataglaxy, Spark, Azure Kubernetes Services, Event Hub, Azure DataLake Gen1/Gen2, Azure Data Factory,PowerBI, PostgreSQL Harbor, DatadogAzure, et plus encore, est l'arsenal qui nous propulse dans cette aventure. Chaque outil, chaque langage, est une étoile dans la galaxie de vos compétences, illuminant notre chemin vers l'avant-garde technologique.

Freelance
CDI

Offre d'emploi
Data Engineer Scala Spark Hadoop

Digistrat consulting
Publiée le
Scala

36 mois
10k-200k €
Paris, France

💼 Poste : Data Engineer Scala Spark Hadoop 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Notre client souhaite une assistance dans le cadre de la mise en œuvre d'une assiette commune pour les usages Finances et Risques, plus particulièrement sur les données Evènements. Dans ce cadre, la Prestation consiste à contribuer à/au(x) : L’architecture avec le reste de l’entité (tech lead, devs, architecture). Mise en œuvre/Développement des propositions techniques. Revue de code. Suivi des méthodologies agiles. L'industrialisation des développements et des tests sur de l'open source Environnement anglophone. Livrables attendus Les livrables attendus sont : Développements et tests (en TDD) en mode Agile pour répondre au cas d'usage métier et déployable en environnement de production. PVs techniques Chiffrage de projets et évolutions Design de solution 🤝 Expertises spécifiques : Continuous Integration Hadoop (Big Data) Scala Spark

CDI

Offre d'emploi
Cloud AWS & DevOps Enginner | Data Engineer

Inventiv IT
Publiée le
AWS Cloud
CI/CD
Databricks

40k-55k €
Paris, France

Au sein de l'unité Plateform Data. Projet : Mise en place des infrastructures et livraison des principales briques techniques nécessaires au fonctionnement d’un cas d’usage dans un environnement cloud Build de l’infrastructure sur la plateforme data Provisionnement des ressources des cas d’usage dans databricks et AWS via Terraform Mise en place des pipelines CI/CD pour le déploiement d’infra Attribution et gestion des habilitations via les groupes dans databricks Assurer le maintien en conditions opérationnelles et l'évolution de l’infrastructure Migration des données depuis le OnPrem vers la zone de landing sur S3 Ingestion des données depuis la landing zone vers les différents coffres data (bronze, silver, gold) dans les catalogues databricks Supervision des jobs d’ingestion à travers les dashboards DataDog Résolution des incidents d’infra et pipelines MCO plateforme On Prem Traitement des demandes ponctuelles concernant l’ajout d’users, d’espace hdfs Maitrise Spark / Scala Rythme Hybride

57 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous