Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 26 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
ARCHITECTURE DATA PLATEFORM

Digistrat consulting
Publiée le
Apache Spark
AWS Cloud
Azure

3 ans
40k-60k €
Paris, France

💡 Contexte /Objectifs : Dans ce cadre, la prestation consiste à contribuer à/au(x) : La production et au monitoring de la roadmap d'architecture du Socle Big data sur ses composantes on prem (écosystème autour de la distribution Cloudera Data Platform) et on cloud (Microsoft Azure /Power BI / AWS). La mise en place et aux validations des normes et standards techniques, applicatives & fonctionnelles (portée groupe). La validation de l'architecture des moyens produites par le Socle. Monitoring du bon usage des offres de service du socle par l'échange avec le management d'architecture des entités. Livrables : Les livrables attendus sont : Etudes d'architecture technique autour du big data, particulièrement sur les sujets liés à la mise en place de capacités data sur Microsoft Azure, Hadoop on prem et AWS, ainsi que sur les questions d'intéropérabilité Contribution à la roadmap long terme (PLan de Transformation Stratégique) Assistance aux product owner dans la mise en œuvre des offres service

Freelance
CDI

Offre d'emploi
Développeur Java / Big data

HIGHTEAM
Publiée le
Apache
Apache Spark
Hadoop

3 ans
10k-56k €
Île-de-France, France

Missions Principales : Vous interviendrez sur les tâches suivantes : · Support et développement sur toutes les releases des projets liés au dispositif de management de la liquidité. · Rédaction et mise à jour de la documentation technique. · Participation aux revues trimestrielles avec la société de prestation pour évaluer et actualiser les livrables. · Maintien de l'environnement legacy et accompagnement de la migration vers une plateforme Big Data/Cloud (One Platform). · Audit du code et propositions de refactoring pour améliorer la qualité du code. · Validation des futurs développements, support technique et de production. · Réduction de la dette technique à travers des audits de sécurité et la mise à jour des dépendances/bibliothèques. · Maintien et évolution des pipelines CI/CD pour les projets socles et ceux de nos partenaires.

Freelance

Mission freelance
Ingénieur Data Expérimenté

Management Square
Publiée le
Apache Kafka
Apache Spark
Cloudera

1 an
410-500 €
Vannes, Bretagne

Nous recherchons pour une mission freelance de longue durée un Ingénieur Data expérimenté pour rejoindre une équipe dynamique et participer à des projets Big Data passionnants. Les principales missions: Contribuer à la Fabrication des Produits des Squads de l'Entreprise dans un environnement Cloudera, en utilisant un framework interne entreprise (sur des activités Big Data) Développer les cas d'usages Data Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) Mettre en œuvre les tests unitaires et automatisés Déployer le produit dans les différents environnements Garantir le bon fonctionnement du produit en production et assurer le suivi, l'assistance et la gestion des incidents Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code

Freelance

Mission freelance
Data Engineer senior Hadoop / Hive + ELK + Kafka

Signe +
Publiée le
Apache Hive
Apache Kafka
Big Data

24 mois
175-200 €
Nantes, Pays de la Loire

Profil : Data Engineer Senior ou Tech Lead A l'aise avec le CICD, aguerri aux technologies Java et en solutions conteneurisées (ELK, Kafka, etc ..) Administration des bases de données (Famille) Conception événementielle (Kafka, rabbitMQ, CREM …) Hadoop Java / Spark Nifi Hive Kotlin Principes d'intégration continue SQL Site : Nantes en priorité, possible sur Aix sinon à étendre à d'autres localisations Nature du besoin : remplacement d'un profil senior actuellement en mission Type de projet : (TT possible 2 j / semaine) Service public de l'emploi

CDI
Freelance

Offre d'emploi
Data Eng Spark

REDLAB
Publiée le
Apache Spark
Hadoop
Web service

24 mois
38k-47k €
Paris, France

L’objectif de la mission est de contribuer à l’industrialisation des processus et traitements big data mis en œuvre dans le cadre de la plateforme mégadonnées de client et d’assurer la maintenance des pipelines d’intégration et de transformation des données à l’EDS Prestation de développements & Ingénierie big data dans le cadre de l’intégration et d’exploration de données dans un contexte big data et du cluster données massives Conception et réalisation/développement d’outils et traitements d’intégration et de standardisation de données massives dans le cadre d’une plateforme Hadoop, Contribution à l’industrialisation d’outils d’exploration des données (restitution des données de type tableaux de bord, projets de recherche thématiques, bibliothèques de code spécifiques, etc.) ; Participation à la standardisation des modèles de données (format FHIR/OMOP) et à la conception d’API appropriés (Webservices FHIR, etc.) ; Spécifications techniques détaillées ; Test unitaire et recette technique ; Documentation de conception, réalisation et d’exploitation. L’objectif de la mission consiste à participer à la mise en place d’outils de pilotage

Freelance

Mission freelance
Lead technique Big Data, HADOOP, Python

Cogigroup
Publiée le
Apache Spark
Hadoop
Python

1 an
400-450 €
Paris, France

Compétences techniques Stack HADOOP - Expert - Impératif Python - Expert - Impératif Connaissances linguistiques Français Courant (Impératif) Description détaillée Nous cherchons un lead technique pour encadrer une équipe Big Data. Le contexte fonctionnel est la lutte anti blanchiment, et voici les éléments essentiels: - Contribuer au affinage et au découpage des récits. - Étudier la faisabilité et chiffrer les récits. - Développer les briques des pipelines de données. - Développer les tests unitaires et assurer une couverture de + 70%. - Effectuer les tests de performances (tuning spark). - Préparer le déploiement en construisant les fichiers de configuration indispensables pour utiliser les outils devops mises en place. - Assurance de la maintenance corrective et évolutive du projet. - Préparer les instructions pour la MEP des évolutions/correctifs. - Suivi de productio Il s'agit d'encadrer une équipe de 4 personnes. Des expériences précédentes dans un rôle de responsable technique sont requises. La mission est en plein coeur de Paris.

Freelance
CDI

Offre d'emploi
Data Analyst / Data Scientist (H/F)

Accelite
Publiée le
Alteryx
Apache Maven
Apache Spark

1 an
40k-55k €
Paris, France

En tant que Data Analyst ou Data Scientist (H/F), vous contribuez au sein de grands comptes bancaires, à l’analyse, le traitement et la restitution des données bancaires et financières. A ce titre, vous avez pour missions : Recueil et analyse des besoins Rassemblement et traitement des données chiffrées Nettoyage des données afin de supprimer les doublons Réalisation d’algorithmes pour les exploiter Conception et construction des actifs informatiques dédiés au management des données (Data préparation, Data visualisation) Conception et développement du code ou des scripts qui s’appuient sur des données structurées et non-structurées en provenance de différentes sources et qui alimentent les actifs informatiques dédiés à l’exploitation des données Participation aux campagnes de tests Installation et configuration des logiciels requis dans le respect du cadre de référence Maintenance des solutions et intervention en support lorsque nécessaire Documentation des use cases et des développements effectués

Freelance

Mission freelance
88939/DATA ENGINEERING Spark (spark streaming et batch), Kafka, Java Nantes

WorldWide People
Publiée le
Apache Kafka
Hadoop
Spark Streaming

4 mois
390-410 €
Nantes, Pays de la Loire

DATA ENGINEERING Spark (spark streaming et batch), Kafka, Java Nantes Taches réalisées : - Développer les cas d'usages Data - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Mettre en œuvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code Compétences techniques attendues : - Spark (spark streaming et batch), Kafka, Java - Stack Hadoop Cloudera - Hdfs, Hive, Hbase, Phoenix, MongoDB - DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana - Scrum (cadre agile entreprise) La mission nécessite de l'autonomie, de l'adaptabilité et une bonne communication (lien direct avec les Squads : PO ou DEV),

Freelance

Mission freelance
Application Developer - Nantes (44)

Signe +
Publiée le
Apache Kafka
Apache Spark
Hadoop

90 jours
100 €
Nantes, Pays de la Loire

Notre client nous soumet une de mande de prestation de DATA ENGINEERING Taches réalisées : - Développer les cas d'usages Data - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Mettre en œuvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code

Freelance

Mission freelance
Data engineer confirmé

Kaïbee
Publiée le
Hadoop
PostgreSQL
Python

1 an
100-600 €
Paris, France

En tant que Data Engineer, vous jouerez un rôle clé dans la conception, le développement et la maintenance de pipelines de données robustes et évolutifs. Vous travaillerez en étroite collaboration avec les équipes de data scientists et d’analystes pour garantir la disponibilité et la qualité des données. Vos missions principales : • Concevoir et développer des pipelines ETL (Extract, Transform, Load) pour ingérer et transformer des données provenant de diverses sources. • Gérer et optimiser les bases de données relationnelles et non relationnelles, notamment PostgreSQL et Teradata. • Développer et maintenir des solutions Big Data sur Hadoop et Spark pour traiter de grands volumes de données. • Programmer en Python, R et Scala pour automatiser les flux de données et les tâches de traitement des données. • Intégrer les processus de gestion de version et d’intégration continue avec Git, GitLab CI et Bitbucket. • Utiliser Ansible pour automatiser les déploiements d’infrastructure et la gestion des configurations. • Collaborer avec les équipes en utilisant des outils de gestion de projet et de documentation tels que Jira, Confluence, et Bitbucket. • Participer à l’amélioration continue des processus de traitement des données et à l’optimisation des performances.

Freelance

Mission freelance
Expert Big Data - CLOUDERA - IDF

Expert Line Conseil
Publiée le
AWS Cloud
Cloudera
Hadoop

12 mois
560-670 €
Courbevoie, Île-de-France

Pour un acteur du secteur Energie, je suis à la recherche d'un consultant senior BIG DATA / CLOUDERA Missions principales : Mise en place de la roadmap technique pour la plateforme Orientations techniques stratégiques Veille technologique Orchestration des chantiers techniques transverses. Exemple : Migration de la version de l’OS Description de l’activité : Gestion des montées de versions Expertise en infrastructures Big Data sur la distribution Cloudera 7.1.7 Directives d’administration d’un cluster Cloudera de taille supérieure à 60 nœuds. Plan de montée de version et de déploiement de patchs. Mise en place de stratégies d’allocations de ressources dans Yarn et dimensionnement des queues Capacité à diagnostiquer et résoudre les problèmes techniques complexes liés aux clusters Cloudera. Fourniture d'un support avancé aux équipes d'exploitation et d’administration Apport d'expertise lors de la résolution des crises de production Expertise en scalabilité du cluster Mise à jour du capacity planning du cluster Anticipation de la montée en charge sur les composants principaux (Impala, hbase, yarn …) Définitions des stratégies d’ajout de nœuds et anticipation des potentielles problématiques qu’ils peuvent engendrer Dimensionnement des différents environnements Sécurisation des composants logiciels Big Data Revue des directives de cybersécurité sur les composants logiciels sur tous les environnements hors espaces produits Définition des gestes à effectuer pour faire évoluer les normes de sécurité des composants logiciels. Conception des outils pour le suivi de la sécurité des composants logiciels. Robustesse du cluster Découverte des problématiques à lever en pro action (exemple : hausse critique du nombre de petits fichiers) Injection de la supervision by design dans les chaines d’ingestion Support technique du PM/RTE et des utilisateurs Support du PM lors des cadrages et poser les architectures/ directives techniques. Support du RTE lors de la coordination des équipes sur des problématiques techniques. Support technique des utilisateurs de la plateforme pour l’utilisation de l’outillage ou l’optimisation de leurs traitements. Formalisation et diffusion de préconisations technique Audit technique du code pour veiller à la mise en place de bonnes pratiques Outillage Concevoir l’outillage Self-Service de la data plateforme. Conception et optimisation des composants d’ingestions Veille technologique pour proposer des solutions innovantes aux problématiques Leadership auprès des équipes de B4all Relation Editeur Interlocuteurs privilégiés avec le support de l’éditeur (helpdesk) sur les différents dossiers de supports Suivi et mise en place des préconisations éditeur sur les versions déployées Demandes de hotfix

Freelance

Mission freelance
DATALAKE - ROA Senior

VISIAN
Publiée le
Apache Hive
Apache Kafka
Apache Spark

1 an
550-650 €
Marseille, Provence-Alpes-Côte d'Azur

Contexte de la mission Le Client fait appel à l'expertise du prestataire pour l'équipe Datalake, au sein de l'équipe Data Hub de la Direction Technique. Technologies requises : Python, Kafka, Spark, Hbase, Hive, Hadoop, Jenkins, Ansible, Github, Scala, Python, Linux, Kube. Objectifs et livrables L’expertise technique sur le Datalake (plateforme Big Data) consistera à : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake : gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de mises en production · Contribuer à l’amélioration continue des outils d’exploitation · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Freelance

Mission freelance
Tech Lead Big data

STHREE SAS pour COMPUTER FUTURES
Publiée le
Apache Spark
Cloudera
Hadoop

1 an
100-500 €
Paris, France

Nous recherchons pour une de nos clients basés à Paris, un consultant SAP BI pour une mission freelance (longue visibilité) Compétences techniques Stack HADOOP - Expert - Impératif Python - Expert - Impératif Connaissances linguistiques Français Courant (Impératif) Description détaillée Bonjour, Nous cherchons un lead technique pour encadrer une équipe Big Data. Le contexte fonctionnel est la lutte anti blanchiment, et voici les éléments essentiels: - Contribuer au affinage et au découpage des récits. - Étudier la faisabilité et chiffrer les récits. - Développer les briques des pipelines de données. - Développer les tests unitaires et assurer une couverture de + 70%. - Effectuer les tests de performances (tuning spark). - Préparer le déploiement en construisant les fichiers de configuration indispensables pour utiliser les outils devops mises en place. - Assurance de la maintenance corrective et évolutive du projet. - Préparer les instructions pour la MEP des évolutions/correctifs. - Suivi de production Environnement technique : Cloudera Data Platform,JAVA, SPARK, Hadoop, HIVE, HDFS,Sqoop, PostgreSQL, Oracle, shell, Unix, JUnit, SonarQube,Maven, XlDeploy, Jenkins, Artifactory, Gitlab, Confluence, JIRA,Eclipse. Il s'agit d'encadrer une équipe de 4 personnes. Des expériences précédentes dans un rôle de responsable technique sont requises. La mission est en plein coeur de Paris.

Freelance
CDI

Offre d'emploi
Ingénieur Big Data / Data

featway
Publiée le
Apache Airflow
GraphQL
Hadoop

2 ans
10k €
Paris, France

Je suis à la recherche d'un(e) Ingénieur(e) Big Data / Data, pour le compte de notre client qui opère dans le secteur de l'Energie; - Maîtrise de Hadoop et HQL - Compétences en SQL - Compétences et maitrise de Oozie/Airflow - Expérience avec Talend ETL - 5+ ans d’expérience en gestion de données - Expérience en migration de plateformes Big Data - Interventions régulières d’expertise, de conseil et de recommandation - Connaissance d’Oracle (Exadata)

Freelance
CDI

Offre d'emploi
Développeur ETL (TALEND)

featway
Publiée le
Big Data
Hadoop
SQL

2 ans
10k €
Paris, France

Je suis à la recherche d' un(e) Développeur(se) ETL (TALEND), pour notre client qui opère dans le secteur de l'Energie, qui aura pour principales missions: -Interventions régulières d’expertise, de conseil et de recommandation - Expertise en Talend - Compétences en SQL - Connaissance de Hadoop Profil Talend qui comprend Talend big data - 3+ ans d’expérience en développement ETL (TALEND) - Expérience avec des solutions de BI comme Jaspersoft / Power BI - Interventions régulières d’expertise, de conseil et de recommandation - Connaissance d’Indexima et Oracle (Exadata) - Connaissance ODI

Freelance
CDI

Offre d'emploi
Data Engineer

NOSCO
Publiée le
Ansible
Hadoop
Jenkins

2 ans
31k-62k €
Lyon, Auvergne-Rhône-Alpes

Poste basé à Lyon avec 50% de télétravail maximum Activité principale : Assure la création, la maintenance, l'optimisation et la sécurité des bases de données Détecte, propose et suit les optimisations des requêtes SQL, PL/SQL afin de garantir les meilleures performances de nos applications métier Assure le support aux équipes de développement afin d’identifier et proposer des solutions performantes SGBD les mieux adaptées d’un point de vue métier Participation à des ateliers avec des experts métiers pour collecter le besoin et comprendre les données Conception et développement de traitements de données Réalisation d’études statistiques Présentation de résultats sous la forme de rapports d’étude ou de tableaux de bord Développement d’outils de visualisation de données pour faciliter les analyses Documentation des traitements en vue d’une industrialisation Participation aux cérémonies agiles de l’équipe Diffusion et vulgarisation des résultats d’étude Activité secondaire : Veille technologique sur les outils utilisés au sein du projet Partage et formation sur les guides de bonnes conduites

26 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous