Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 358 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Développeur - Big Data | Spark (H/F)

CELAD
Publiée le
Apache Spark

1 an
42k-50k €
Lyon, Auvergne-Rhône-Alpes

📑 CDI (42-50K€) / Freelance / Portage Salarial - 🏠 10 jours de télétravail / mois - 📍 Lyon - 🛠 Expérience de 5 ans minimum 🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Développeur – Big Data | Spark pour intervenir chez un de nos clients. 💻💼 Contexte : vos missions tournent autour de 4 axes : - Fournir une expertise en Big Data pour simplifier la manipulation des données. - Concevoir des solutions techniques pour le traitement massif de données. - Implémenter des solutions de stockage de données (SQL, NoSQL, etc.). - Assurer la sécurité et la lisibilité des pipelines de données pour faciliter l'analyse et la transformation. Voici un aperçu détaillé de vos missions 🎯 : - Création, maintenance, optimisation et sécurisation des bases de données pour garantir leur intégrité et leur performance. - Détection, proposition et suivi des optimisations des requêtes SQL, PL/SQL afin d'assurer l'efficacité des applications métier en termes de traitement des données. - Fournir un soutien aux équipes de développement en identifiant et en recommandant des solutions SGBD adaptées aux besoins métier, tout en assurant leur performance et leur pertinence. - Effectuer une veille technologique sur les outils utilisés dans le cadre du projet, afin de maintenir la pertinence et la compétitivité des solutions mises en œuvre. - Partager et dispenser des formations sur les bonnes pratiques en matière de gestion des bases de données, contribuant ainsi à l'amélioration continue des processus et des compétences au sein de l'équipe.

Freelance

Mission freelance
Développeur Fullstack Scala / Angular (H/F) - Luxembourg

Mindquest
Publiée le
Angular
Scala

6 mois
100-630 €
Luxembourg

Contexte : Nous recherchons des consultants autonomes, qui prennent du plaisir dans leur travail et sont fiers de leurs réalisations. Mission : Les équipes sont organisées par domaine métier. Vous intégrerez le domaine MarkComWeb dans le cadre du Produit/Parcours Auto à plein temps où vous aurez la charge de : - Travailler dans un environnement agile - Concevoir, réaliser, tester, déployer, monitorer vos réalisations en Scala - Maintenir des APIs (Scala) et des Fronts (Angular) modulaires et intégrables - D’adhérer aux principes d’améliorations continues et de modernisation du domaine - De devenir un expert dans certaines parties du domaine applicatif avec une mission longue Les équipes se composent d’un Product Owner, 2 Business Analyst, 1 Scrum Master et de plusieurs développeurs qui évoluent dans la méthodologie Scrum; et travaillent étroitement avec les parties prenantes du côté métier.

CDI
Freelance

Offre d'emploi
Développement Java/Spark

TRSB
Publiée le
Apache Spark
Azure
Java

3 ans
50k-65k €
Île-de-France, France

Activité du client : Secteur bancaire Poste : Développeur Java/Spark Séniorité : à partir de 12 ans d'expériences Bac +5 Maîtrise de l'anglais (aisance orale exigée) Développement d'une application en JAVA Environnement technique : - Java - MS Azure - Spark -AKS & EventHub Est un plus : - Scala - Python

Freelance
CDI

Offre d'emploi
Développeur Big Data Spark

MSI Experts
Publiée le
Apache Spark
Oracle

1 an
10k-55k €
Lyon, Auvergne-Rhône-Alpes

Nous recherchons un développeur Big Data pour intégrer l'équipe chez notre client afin de : Apporter une expertise en Big Data (Spark) pour améliorer le traitement des données à grande échelle. Gérer la création, la maintenance, l'optimisation et la sécurisation des bases de données. Analyser, proposer et implémenter des optimisations pour les requêtes SQL et PL/SQL afin de maximiser les performances des applications métiers Assurer le support technique aux équipes de développement pour identifier et proposer les solutions SGBD les plus performantes Concevoir et mettre en œuvre des solutions techniques : Assurer le traitement massif des données et l'optimisation des pipelines. Déployer des solutions de stockage de données : Utiliser des technologies SQL et NoSQL pour garantir la performance et la scalabilité des systèmes. Accompagnement des autres développeurs Spark sur le projet Assurer la sécurité et la clarté des pipelines de données : veiller à ce que les données soient sécurisées et facilement exploitables par les équipes d'analyse. Stack technique : o Big Data : Spark, Hive, Indexima. o Stockage : Oracle, CEPH S3 (parquet). o Langages : Java, Python, PL/SQL, Shell. o CI/CD : Ansible, Terraform, Jenkins, GIT. o ETL : Informatica. o Dataviz : Tableau Server. o Ordonnanceur : Control-M.

Freelance

Mission freelance
dev scala (react/aws) freelance

Gentis Recruitment SAS
Publiée le
AWS Cloud
React
Scala

2 ans
120-600 €
Paris, France

Scala - Freelance - Paris - septembre Je cherche un dev scala d'une 10aine d'années d'xp pour une mission freelance qui vise à travailler sur des problématiques de forecasting et d'optimisation de perf. mission de 2 ans (peut-être 3), 2 jours sur site client final en direct comme d'habitude stack: scala (API, Business rules, data access) postgresql/influxDB react AWS PAS DE SOUS TRAITANCE ! (je ne répond plus) Au plaisir de vous lire! Scala - Freelance - Paris - Août Je cherche un dev scala d'une 10aine d'années d'xp pour une mission freelance qui vise à travailler sur des problématiques de forecasting et d'optimisation de perf. mission de 2 ans (peut-être 3), 2 jours sur site client final en direct comme d'habitude stack: scala (API, Business rules, data access) postgresql/influxDB AWS c'est un plus si la personne a des compétences sur les systèmes embarqués et parle anglais. PAS DE SOUS TRAITANCE ! (je ne répond plus) Au plaisir de vous lire!

Freelance
CDI

Offre d'emploi
Data Engineer Python / AWS / Databricks / Spark

GRADIANT
Publiée le
AWS Cloud
Databricks
PySpark

3 ans
10k-60k €
Paris, France

Nous recherchons pour l'un de nos clients, une entreprise du CAC 40, un(e) Data Engineer senior pour intégrer une mission longue de 3 ans. Le rôle du Data Engineer senior dans ce projet impliquera la conception et la mise en œuvre des composants de plateforme suivants : • Ingestion de données • Traitement et normalisation des données. • Distribuer les données aux différentes parties prenantes. • Construire et améliorer un cadre commun comprenant la surveillance, le CI/CD, les tests, les performances, la résilience, les pratiques de développement et la qualité du code…

CDI

Offre d'emploi
Tech Lead Java / Spark

Management Square
Publiée le
Ansible
Github
J2EE / Java EE

10k-60k €
Fontenay-sous-Bois, Île-de-France

Contexte : Nous recherchons un Tech Lead Java / Spark pour un projet stratégique de transformation des systèmes d'information dans le domaine de la gestion des risques structurels. Ce programme vise à améliorer la qualité des données, la cohérence comptable, et la certification des données pour les besoins de reporting et de pilotage du risque de liquidité. Responsabilités : Contribuer au cadrage technique et à l'instruction des projets. Implémenter des solutions techniques selon une méthodologie agile. Participer au développement et au support de toutes les versions prévues pour 2024-2025. Environnement technique : Langages : Java (Spark est un gros plus, Python est un plus). DevOps : Ansible, Jenkins, GitHub Actions, Sonar, Artifactory. Big Data & Cloud : Cloudera CDP, Apache stack (HDFS, Oozie, Yarn). Bases de données et APIs : Oracle DB, PostgreSQL, Hive, Elastic Search, REST APIs.

CDI

Offre d'emploi
Développeur(se) scala confirmé(e) F/H

MIND7
Publiée le
Java

45k-55k €
Île-de-France, France

Notre passion c'est la Data et vous ? N'hésitez plus et venez rejoindre l'aventure chez Mind7Consulting ! Nous sommes une entreprise de services numériques créée en 2011, avec une croissance de +30% cette année en France. Notre vocation, depuis l'origine, est d'aider nos clients à améliorer leur performance en utilisant tous les leviers à leur disposition : des processus pour fiabiliser les opérations, des équipes en charge de l'exécution et de la satisfaction client, des outils pour soutenir et pérenniser les progrès. Mind7 Consulting recrute de nouveaux talents passionnés afin de rejoindre nos équipes pour nos clients grands comptes du Cac40. Au sein d'un univers Fast Data/Big Data et basé sur une architecture réactive, gérée par la (CI/CD). Vous serez garant du traitement de la donnée en temps réel avec plus de 40 millions d'événements par jour. Vos principales missions : Participer à l'analyse pour cerner les besoins des utilisateurs ; Créer le prototype de la future application ; Convenir des solutions techniques à mettre en place pour créer le logiciel ; Participer à la conception et développement de solutions techniques ; Prendre part aux phases d'essais pour tester des produits finalisés ; S'occuper du soutien technique et réaliser des opérations de maintenance ; Rédiger des fiches techniques d'utilisation et d'installation ; Votre futur environnement technique : Scala, kafka, cassandra, kibana, spark, kubernetes, Akka et elastic search

Freelance

Mission freelance
Un Data Ingénieur ( Spark ,spark streaming, batch, Kafka, Java, Stack Hadoop Cloudera)sur Nantes

Smarteo
Publiée le
Informatique

3 mois
100-400 €
Nantes, Pays de la Loire

Smarteo recherche pour l'un de ses clients, Un Data Ingénieur(Spark,spark streaming,batch, Kafka,Java,Stack Hadoop Cloudera)sur Nantes Descriptif: Notre client nous soumet une de mande de prestation de DATA ENGINEERING Taches réalisées : - Développer les cas d'usages Data - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Mettre en oeuvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l'évolution des pratiques de l?équipe dans une logique d'amélioration continue de la qualité du code Compétences techniques attendues : - Spark (spark streaming et batch), Kafka, Java - Stack Hadoop Cloudera - Hdfs, Hive, Hbase, Phoenix, MongoDB - DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana - Scrum (cadre agile entreprise) La mission nécessite de l'autonomie, de l'adaptabilité et une bonne communication (lien direct avec les Squads : PO ou DEV), Si vous êtes disponible et intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jours en format word.

CDI
Freelance

Offre d'emploi
Ingénieur Snowflake/SAP/ADF

1G-LINK CONSULTING
Publiée le
Azure Data Factory
Snowflake
Talend

12 mois
10k-64k €
La Défense, Île-de-France

Contexte : Dans le cadre d'un programme de transformation digitale basée sur S4/HANA, mon client, acteur majeur du secteur de l'industrie recherche un Data Engineer Snowflake, ADF, SAP concernant la réalisation de l' intégration des données issues de SAP vers les applications BI.. Le datalake est composé d’un modèle hybride Azure Data Factory + ADLS2 qui vient déverser la donnée dans le datalake Snowflake. Le profil qui nous rejoindra devra piloter et organiser son activité ainsi que celle d’un consultant moins senior afin de maintenir un rythme ainsi qu’une qualité de livraison constants tout en affichant une communication claire sur l’activité.

Freelance
CDI

Offre d'emploi
Tech lead Dév java Spark Python - Devops / 8 à 12 ans d'exp

Digistrat consulting
Publiée le
Java

36 mois
10k-200k €
Paris, France

Dans le cadre des objectifs de transformation du système d'information central vers des technologies big data, le programme liquidité est également investi dans cette transformation technologique avec l'ambition de dépasser ce cadre pour également adresser des problématiques de transformation fonctionnelle et de processus lorsque l'opportunité se présente. Le Bénéficiaire souhaite mettre en œuvre le volet transformation du système d'information du programme d'amélioration du dispositif de pilotage et de certification de l'assiette risques structurels dont les objectifs sont : • Amélioration et accélération de la constitution de l'assiette risques structurels • La certification de cette assiette risques structurels cohérente comptable • Renforcer la remédiation en terme de qualité de donnée et réduire le nombre d'ajustements manuels Le client souhaite bénéficier de l'expertise du Prestataire en termes de conception et développement. Dans ce cadre, la prestation consiste à contribuer à/au(x): • l'instruction et le cadrage technique des projets, • l'implémentation de solutions techniques en méthodologie agile Environnement technique : • Java (Spark est un gros plus, Python est un plus) • Devops : Ansible, Jenkins, GitHub Actions, Sonar, Artifactory • Big Data & Cloud : Cloudera CDP, Apache stack (HDFS, Oozie, Yarn) • Data : Oracle DB, PostgreSQL, Hive, Elastic Search, REST APIs Les livrables attendus sont : • Notes de cadrage techniques • Specifications techniques • Support et développement sur toutes les releases 2024-2025 Les expertises attendues pour réaliser cette prestation sont listées ci-après : • Agile Scrum • Ansible • Artifactory • Compétences en développement (Shell unix, Perl, PHP, Python, git, github) • Elastic Search & Kibana • Hive • Java • Jenkins • Oracle Database Enterprise Server • PostGreSQL • REST • Scripting (GuitHub, Ansible, AWX, shell, vba) • Sonar

Freelance

Mission freelance
Leader Technique Python Spark (H/F)

Insitoo Freelances
Publiée le
Python

2 ans
600-700 €
Lyon, Auvergne-Rhône-Alpes

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Leader Technique Python Spark (H/F) à Lyon, Auvergne-Rhône-Alpes, France. Contexte : 50% sur site Lyon Les missions attendues par le Leader Technique Python Spark (H/F) : Activité principale En tant que Lead Tech Data, vous serez responsable de : ○ Développement d’applications et de traitements orientés data en Python : Création et maintenance d'API, de dashboards et de pipelines pour analyser et visualiser les données. ○ Maintien de la qualité logicielle : Effectuer des revues de code régulières, promouvoir et diffuser les bonnes pratiques de développement au sein de l'équipe. ○ Appui aux projets : Fournir une aide ponctuelle et des conseils techniques aux différents projets en cours. ○ Cadrage technique des sujets : Participer à la définition des besoins techniques et à la planification des solutions à mettre en place. ○ Échanges transverses avec les autres équipes : Collaborer avec les équipes transverses pour remonter les besoins et implémenter un cadre commun de travail. Activité secondaire o Cadrage, accompagnement technique des différents projets o Accompagnement des PO o Industrialisation de projets o Études data Stack technique du projet ○ Python : FastAPI, Dash, Pandas, parallélisation, packaging, PyTest ○ SQL : PostgreSQL, Teradata ○ Spark (PySpark / Scala) ○ Git ○ Gitlab CI/CD Compétences attendues sur le profil • Techniques : ○ Excellente maîtrise de Python et de ses librairies pour le traitement et l'analyse de données. ○ Expérience en développement d'API et de dashboards avec FastAPI et Dash. ○ Bonne connaissance des bases de données SQL, notamment PostgreSQL et Teradata. ○ Familiarité avec Spark (PySpark ou Scala) pour le traitement de grandes volumétries de données. ○ Maîtrise des outils de versioning et d'intégration continue, notamment Git et Gitlab CI/CD. ○ Compétences en gestion d'équipe et en leadership technique. • Qualités : - Rigoureux, avec un fort sens du détail et de la qualité. - Capacité à travailler en équipe et à communiquer efficacement avec des équipes transverses. - Proactif et autonome, avec une capacité à prendre des initiatives et à résoudre des problèmes. - Excellentes capacités organisationnelles et de gestion du temps. - Capacités à communiquer efficacement et avec pédagogie

Freelance
CDI

Offre d'emploi
Data Analyst / Data Scientist (H/F)

Accelite
Publiée le
Alteryx
Apache Maven
Apache Spark

1 an
40k-55k €
Paris, France

En tant que Data Analyst ou Data Scientist (H/F), vous contribuez au sein de grands comptes bancaires, à l’analyse, le traitement et la restitution des données bancaires et financières. A ce titre, vous avez pour missions : Recueil et analyse des besoins Rassemblement et traitement des données chiffrées Nettoyage des données afin de supprimer les doublons Réalisation d’algorithmes pour les exploiter Conception et construction des actifs informatiques dédiés au management des données (Data préparation, Data visualisation) Conception et développement du code ou des scripts qui s’appuient sur des données structurées et non-structurées en provenance de différentes sources et qui alimentent les actifs informatiques dédiés à l’exploitation des données Participation aux campagnes de tests Installation et configuration des logiciels requis dans le respect du cadre de référence Maintenance des solutions et intervention en support lorsque nécessaire Documentation des use cases et des développements effectués

CDI
Freelance

Offre d'emploi
Data Engineer GCP

Hexateam
Publiée le
Apache
Apache Hive
Apache Spark

24 mois
10k-61k €
Île-de-France, France

Dans le cadre de la croissance de HEXATEAM, nous sommes en quête permanente de nouveaux talents pour renforcer nos équipes. Nous cherchons actuellement deux profils Data Engineer GCP Le Data Engineer sera chargé des activités de Data Engineering, en particulier sur la plateforme Google Cloud Platform (GCP) . Il devra gérer les données brutes de satisfaction stockées dans le datalake (zone Raw) et transformer ces données pour les rendre accessibles dans une zone Gold, utilisée par d'autres projets. Conception : Analyse des données, définition du modèle de données, conception des chaînes d'ingestion et de préparation. Réalisation : Mise en œuvre, indexation, ordonnancement et tests des jobs, avec documentation. Intégration & Déploiement : Optimisation des performances, résolution de problèmes liés aux jobs et aux données. Documents de modélisation et structuration des données. Règles de gestion et synthèses analytiques. Mise en place des chaînes de traitement de la donnée et des dashboards de monitoring. Maîtrise de Spark , Scala . Pratique confirmée des services GCP : BigQuery, CloudStorage, CloudComposer/Airflow, DataFlow, Dataproc, Terraform, GitLabEE. Expérience en modélisation de données et stratégie de tests. Connaissance des notebooks data, GCP DataStudio, ElasticSearch (atout). Méthodologie Agile . Anglais requis pour la documentation et les échanges internationaux.

Freelance

Mission freelance
Ingénieur MLOPS Montpellier (Pré embauche sous 1 an de mission)/ri

WorldWide People
Publiée le
Apache Spark
Databricks

12 mois
330-440 €
Montpellier, Occitanie

Ingénieur MLOPS Montpellier (1 Senior et 1 Junior) DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Pré embauche sous 1 an de mission ASAP Vos principales responsabilités : Concevoir et développer des solutions logicielles pour l'IA et la gestion des flux de données. Proposer et implémenter des stratégies novatrices pour l'extraction, le traitement et l'analyse de l'information. Assurer le déploiement, le test et la maintenance des solutions MLOps. Vous serez également en charge de : Participer aux rituels de gestion de projet (Agile ou cycle en V). Rédiger de la documentation technique détaillée. Réaliser une veille technologique proactive autour des données et de leur traitement. Votre profil : Formation : Diplôme d'Ingénieur ou équivalent (Bac+5) en sciences ou informatique. Expérience : Expertise avérée sur des projets en data & IA, avec une forte inclinaison pour le développement et une culture solide en data et DevOps. Compétences Techniques : DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Qualités Personnelles : Esprit d'équipe, passion pour la data, autonomie et capacité d'adaptation.

Freelance
CDI
CDD

Offre d'emploi
Développeur Fullstack Angular/Scala (Luxembourg)

EXMC
Publiée le
Angular
Scala

6 mois
10k-65k €
Luxembourg

Compétences souhaitées [FRONT] Vous avez une bonne expérience dans la conception d'architecture basée sur des composants utilisant Angular. React ou Vue.js sont également accepté [FRONT] Vous maîtrisez HTML / CSS / JS [FRONT] Vous êtes en mesure de consommer des APIs REST [FRONT] Vous savez intégrer des maquettes réalisées par des designers (dans Figma) [BACK] Vous maîtrisez la programmation Objet (Java 8, ...), [BACK] La maîtrise de la programmation fonctionnelle (Scala, ...) est un réel atout [BACK] Vous avez de l'expérience avec les DB relationnelles (Db2) [BACK] La connaissance en DB non relationnelles (MongoDB) est un réel atout [BACK] La connaissance de la programmation événementielle (event sourcing) avec KAFKA est un réel atout. [BACK] Vous avez des connaissances dans la conception d’APIs REST Vous êtes capable de faire monter en compétence vos pairs au travers de code-review, pair programming, … Vous maîtrisez l’entièreté d’une chaine de développement, et avez la capacité de pousser et de justifier des choix d’architecture Vous utilisez des outils de déploiement continu (K8s, Jenkins, …) et de monitoring (Instana et Sentry) Profil § Vous savez collaborer avec des développeurs d’autres équipes afin d’améliorer les systèmes et les processus dans un environnement organisé par domaines § Vous êtes proactif, appréciez le travail en équipe et désireux d’apprendre § Vous êtes familier avec un outil de versionning de code tel que Git

358 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous